Skip to content

Latest commit

 

History

History
73 lines (53 loc) · 1.92 KB

DL_Questions.md

File metadata and controls

73 lines (53 loc) · 1.92 KB

深度学习基础相关

1. CNN

  • CNN为什么可以在CV/NLP/Speech等领域都可以使用?
    • 输入数据的局部相关性
    • 权值共享是因为输入数据的局部特征具有平移不变性,即在不同位置具有共性的局部特征。
    • 权值共享能够降低参数量,而且降低了网络的训练难度。

  • 什么样的数据适合Deep learning?
    • 数据要有局部相关性,像表格类数据就不适合

  • CNN卷积
    • 卷积的时间复杂度

  • BP
    • 梯度消失,爆炸的原因
    • 梯度消失
    • 为什么梯度相反的方向是函数下降最快的方向?

  • 1*1的卷积核的作用

2. 过拟合(Overfitting)

  • 何为共线性,跟过拟合有啥关联
    • 多变量线性回归中,变量之间由于存在高度相关关系而使回归估计不准确。

  • 共线性会造成冗余,导致过拟合。
    • 解决方法:排除变量的相关性/加入权重正则。

  • Overfitting如何解决
    • Data augmentation
    • regularization such as dropout, BN, weight decay
    • ensembling

3. Loss

  • 交叉熵和相对熵(KL散度)?
    • L1,L2 regularization的原理

  • 为什么神经网络的损失函数是非凸的

4. RNN

  • RNN有什么缺陷以及LSTM是如何怎么解决的?

5. GAN

  • 介绍一下GAN,讲一讲生成模型和判别模型以及他们的关系


6. 网络结构

  • resnet、inception,attention分别描述

7. 网络训练

  • 深度学习的待学习的参数量和训练样本数量之间的关系

Others

  • 深度学习是万能的吗?什么地方不适用,如果给你一个任务,你如何选择用深度学习还是传统的如SVM?
    • (任务、数据量、数据特点)