《动手学深度学习》的个人编写版本,虽然在代码上和原书是近乎一致的,但是针对原书解释不佳和其中的Python以及PyTorch的高级用法进行了一定的注释说明。同时在Notebook中也包含有对原书段落的一些高度概括,也就是将代码说明和代码运行放在了一起。
- 引言
- 预备知识
- 线性神经网络
- 3.1. 线性回归
- 3.2. 线性回归的从零开始实现
- 3.3. 线性回归的简洁实现
- 3.4. softmax回归
- 3.5. 图像分类数据集
- 3.6. softmax回归的从零开始实现
- 3.7. softmax回归的简洁实现
- 多层感知机
- 深度学习计算
- 卷积神经网络
- 现代卷积神经网络
- 7.1. 深度卷积神经网络(AlexNet)
- 7.2. 使用块的网络(VGG)
- 7.3. 网络中的网络(NiN)
- 7.4. 含并行连结的网络(GoogleNet)
- 7.5. 批量规范化
- 7.6. 残差网络(ResNet)
- 7.7. 稠密连接网络(DenseNet)
- 循环神经网络
- 8.1. 序列模型
- 8.2. 文本预处理
- 8.3. 语言模型和数据集
- 8.4. 循环神经网络
- 8.5. 循环神经网络的从零开始实现
- 8.6. 循环神经网络的简洁实现
- 8.7. 通过时间反向传播
- 现代循环神经网络
- 注意力机制
- 10.1. 注意力提示
- 10.2. 注意力汇聚:Nadaraya-Watson核回归
- 10.3. 注意力评分函数
- 10.4. Bahdanau注意力
- 10.5. 多头注意力
- 10.6. 自注意力和位置编码
- 10.7. Transformer
- 优化算法
- 计算性能
- 计算机视觉
- 自然语言处理:预训练
- 自然语言处理:应用
- 附录:深度学习工具