[补充]实验一-环境配置与AlexNet
(配环境简单,而且一般机房的电脑有可能有内置好的环境,所以第一节课后半程时间可以拿来熟悉一下Pytorch的使用,使用最基本的AlexNet是一个不错的选择,该架构比较简单,层数也少,适合了解和学习)
实验目的与及要求
1.了解 Anaconda 虚拟环境的管理(创建、激活、包管理)。
2.初步认识 PyTorch 框架及其相关依赖库的安装与验证。
3.了解 AlexNet 作为深度学习里程碑的核心贡献。
4.掌握 AlexNet 的层级结构,包括卷积层、全连接层及其参数计算。
5.初步掌握 PyTorch 编程范式
实验二-基于InceptionNet模型的手写数字识别实验
(考虑到实验一已经学习了AlexNet,所以实验二可以适当提升整个模块化思路的构建,所以选用GoogleNet的手写数字识别)
[已确认可用]GoogleNet的代码
实验三-ResNet+VGG
学这个感觉没啥问题,毕竟是最热门的一个模块,而且好用。但是ResNet本身比较简单,可以考虑把VGG也放在这里,两个课时学一个太少了(毕竟理论应该是上课就掌握的知识)。
(教材上好像没有提到,但是有必要学习)
ResNet没问题
VGG没问题
实验四-UNet
(我注意到原本这里跟在ResNet后是SwimTransformer,现在直接学这个太早了,Transformer适合放在本课程最后,而且SwimTransformer是升级版,这里更适合学习其他的,CNN之前王睿老师的机器学习讲过,所以可以适当提升,这里我觉得用UNet是没问题的)
(对应书中卷积神经网络)
跑的通
实验五-LSTM
对应书中循环神经网络章节
实验六-Seq2Seq
Seq2Seq使用了LSTM,并且引入了编码器和解码器的概念,对于后续学习Transformer有帮助,并且本书中cv占比比较多,所以引入一章Seq2Seq来平衡也不错。
实验七-ViT
告诉学生,不一定要用传统卷积的方式,也可以使用文本的方式讲图像任务完成,起到一个综合作用。同时也引入了Transfomrer。
实验八-SwimTransformer
作为Transformer的提升,也是本课程的总结。如果有必要可以换成图神经网络。
可以跑,


