Skip to content

JuyaoHuang/BUPTDeepLearning

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

10 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

📋 Project Overview

2025 年北京邮电大学 BUPT 神经网络与深度学习课程实验合集。

Note

源码仅供参考和学习使用,请自主完成实验。

✨ Structure

每一个实验内容包含:

  1. 实验报告
  2. 源代码

📋Content

  1. CIFAR-10 图像分类问题
  2. CV基础:CNN 中的 VGG 模型应用
  3. 自编码器的实现:SAE、VAE
  4. 图像风格迁移的应用
  5. Transformer实现语义分析

🔗 Pretrained Model

以百度网盘的方式提供训练好的模型。

网盘链接

通过网盘分享的文件:深度学习训练模型 链接: https://pan.baidu.com/s/1HZZpnj3DcQZ2dLDiALe8Lg?pwd=p16p 提取码: p16p

1.实验一 CIFAR-10

该部分有数个预训练模型,适配不同的实验要求:

模型名 备注 卷积层数 Cov 层神经元 全连接层神经元 激活函数
cifar_net.pth 原始模型 三层 3 -> 16 -> 32 -> 64 1024 -> 120 -> 84 -> 10 ReLU
CIFAR-5layer-CNN.pth 模型对比的五层CNN模型 五层 3 -> 16 -> 32 -> 64 -> 128 -> 128 同上 ReLU
CIFAR-CNN-LeakyReLU.pth 三层 同一 同上 LeakyReLU
CIFAR-CNN-ReLU.pth 原始模型 三层 同一 同上 ReLU
CIFAR-CNN-Sigmoid.pth 三层 同一 同上 Sigmoid
CIFAR_wideCov.pth 更多的卷积层神经元 三层 32 -> 64-> 128 同上 LeakyReLU
CIFAR_wideFC.pth 更多的全连接层神经元 三层 同一 1024 -> 256 -> 128 -> 10 LeakyReLU
CIFAR_with_softmax.pth 最后一层使用 softmax 三层 同一 同一 ReLU

![NOTE] 模型对比参考此篇文章

2. 实验二 CNN

  1. best_food_cnn.pth:自定义 4 层 Cov + 三层 FC 的预训练模型
  2. best_vgg16.pth:预训练 VGG16 模型

3. 实验三 自编码器与风格迁移

![NOTE] 自编码器预训练模型未提供,但比较简单, RTX 4060 5分钟左右就能训练一个不错的效果

  1. 解码模型:style_transfer/pytorch-AdaIN/experiments/ 为解码器模型训练时,不同迭代轮次保存的模型。命名格式:decoder_iter_<epoches>.pth.tar
  2. vgg_normalised.pth:VGG 预训练模型

4. 实验四 Transformer 语义分类模型

模型名best_model_6layers_v2.pth

📄 License

MIT License - See the LICENSE file for details.

About

北京邮电大学神经网络与深度学习课程实验

Resources

License

Stars

Watchers

Forks

Packages

 
 
 

Contributors

Languages