随机变量(random variable)是可以随机地取不同值的变量。随机变量可以是离散的或者连续的。简单起见,本文用大写字母
概率分布(probability distribution)用来描述随机变量或一簇随机变量在每一个可能取到的状态的可能性大小。我们描述概率分布的方式取决于随机变量是离散的还是连续的。
当我们研究的对象是连续型随机变量时,我们用概率密度函数(probability density function, PDF
)而不是概率质量函数来描述它的概率分布。
更多内容请阅读《花书》第三章-概率与信息论,或者我的文章-深度学习数学基础-概率与信息论。
当我们不知道数据真实分布时使用正态分布的原因之一是,正态分布拥有最大的熵,我们通过这个假设来施加尽可能少的结构。
实数上最常用的分布就是正态分布(normal distribution),也称为高斯分布 (Gaussian distribution)。
如果随机变量
$$
f(x)=\frac{1}{\sigma\sqrt{2 \pi} } e^{- \frac{{(x-\mu)^2}}{2\sigma^2}} \tag{1}
$$
则这个随机变量就称为正态随机变量,正态随机变量服从的概率分布就称为正态分布,记作:
$$
X \sim N(\mu,\sigma^2) \tag{2}
$$
如果位置参数
可视化正态分布,可直接通过 np.random.normal
函数生成指定均值和标准差的正态分布随机数,然后基于 matplotlib + seaborn
库 kdeplot
函数绘制概率密度曲线。示例代码如下所示:
import seaborn as sns
x1 = np.random.normal(0, 1, 100)
x2 = np.random.normal(0, 1.5, 100)
x3 = np.random.normal(2, 1.5, 100)
plt.figure(dpi = 200)
sns.kdeplot(x1, label="μ=0, σ=1")
sns.kdeplot(x2, label="μ=0, σ=1.5")
sns.kdeplot(x3, label="μ=2, σ=2.5")
#显示图例
plt.legend()
#添加标题
plt.title("Normal distribution")
plt.show()
以上代码直接运行后,输出结果如下图:
当然也可以自己实现正态分布的概率密度函数,代码和程序输出结果如下:
import numpy as np
import matplotlib.pyplot as plt
plt.figure(dpi = 200)
plt.style.use('seaborn-darkgrid') # 主题设置
def nd_func(x, sigma, mu):
"""自定义实现正态分布的概率密度函数
"""
a = - (x-mu)**2 / (2*sigma*sigma)
f = np.exp(a) / (sigma * np.sqrt(2*np.pi))
return f
if __name__ == '__main__':
x = np.linspace(-5, 5)
f = nd_fun(x, 1, 0)
p1, = plt.plot(x, f)
f = nd_fun(x, 1.5, 0)
p2, = plt.plot(x, f)
f = nd_fun(x, 1.5, 2)
p3, = plt.plot(x, f)
plt.legend([p1 ,p2, p3], ["μ=0,σ=1", "μ=0,σ=1.5", "μ=2,σ=1.5"])
plt.show()
训练深度神经网络的复杂性在于,因为前面的层的参数会发生变化导致每层输入的分布在训练过程中会发生变化。这又导致模型需要需要较低的学习率和非常谨慎的参数初始化策略,从而减慢了训练速度,并且具有饱和非线性的模型训练起来也非常困难。
网络层输入数据分布发生变化的这种现象称为内部协变量转移,BN 就是来解决这个问题。
在深度神经网络训练的过程中,由于网络中参数变化而引起网络中间层数据分布发生变化的这一过程被称在论文中称之为内部协变量偏移(Internal Covariate Shift)。
那么,为什么网络中间层数据分布会发生变化呢?
在深度神经网络中,我们可以将每一层视为对输入的信号做了一次变换(暂时不考虑激活,因为激活函数不会改变输入数据的分布):
$$
Z = W \cdot X + B \tag{5}
$$
其中
随着 SGD 算法更新参数,和网络的每一层的输入数据经过公式5的运算后,其
而深度神经网络训练的复杂性在于每层的输入受到前面所有层的参数的影响—因此当网络变得更深时,网络参数的微小变化就会被放大。
-
网络层需要不断适应新的分布,导致网络学习速度的降低。
-
网络层输入数据容易陷入到非线性的饱和状态并减慢网络收敛,这个影响随着网络深度的增加而放大。
随着网络层的加深,后面网络输入
$x$ 越来越大,而如果我们又采用Sigmoid
型激活函数,那么每层的输入很容易移动到非线性饱和区域,此时梯度会变得很小甚至接近于$0$ ,导致参数的更新速度就会减慢,进而又会放慢网络的收敛速度。
饱和问题和由此产生的梯度消失通常通过使用修正线性单元激活($ReLU(x)=max(x,0)$),更好的参数初始化方法和小的学习率来解决。然而,如果我们能保证非线性输入的分布在网络训练时保持更稳定,那么优化器将不太可能陷入饱和状态,进而训练也将加速。
-
白化(Whitening): 即输入线性变换为具有零均值和单位方差,并去相关。
白化过程由于改变了网络每一层的分布,因而改变了网络层中本身数据的表达能力。底层网络学习到的参数信息会被白化操作丢失掉,而且白化计算成本也高。
-
标准化(normalization)
Normalization 操作虽然缓解了
ICS
问题,让每一层网络的输入数据分布都变得稳定,但却导致了数据表达能力的缺失。
论文中给出的 Batch Normalizing Transform 算法计算过程如下图所示。其中输入是一个考虑一个大小为
论文中的公式不太清晰,下面我给出更为清晰的 Batch Normalizing Transform 算法计算过程。
设 batch
数据,BN
过程进行的操作是,将这组数据 normalization
,之后对其进行线性变换,具体算法步骤如下:
以上公式乘法都为元素乘,即 element wise
的乘法。其中,参数 1e-5
。公式各个符号解释如下:
符号 | 数据类型 | 数据形状 |
---|---|---|
输入数据矩阵 | [m, n] | |
输入数据第 i 个样本 | [1, n] | |
经过归一化的数据矩阵 | [m, n] | |
经过归一化的单样本 | [1, n] | |
批数据均值 | [1, n] | |
批数据方差 | [1, n] | |
批样本数量 | [1] | |
线性变换参数 | [1, n] | |
线性变换参数 | [1, n] | |
线性变换后的矩阵 | [1, n] | |
线性变换后的单样本 | [1, n] | |
反向传入的误差 | [m, n] |
在论文中,训练一个带 BN
层的网络, BN
算法步骤如下图所示:
在训练期间,我们一次向网络提供一小批数据。在前向传播过程中,网络的每一层都处理该小批量数据。 BN
网络层按如下方式执行前向传播计算:
图片来源这里。
注意,图中计算模型推理时 BN 层均值与方差的无偏估计方法,是吴恩达在 Coursera 上的 Deep Learning 课程上提出的方法:对 train 阶段每个 batch 计算的 mean/variance 采用指数加权平均来得到 test 阶段 mean/variance 的估计。
在训练期间,它只是计算此 EMA,但不对其执行任何操作。在训练结束时,它只是将该值保存为层状态的一部分,以供在推理阶段使用。
如下图可以展示BN 层的前向传播计算过程数据的 shape
,红色框出来的单个样本都指代单个矩阵,即运算都是在单个矩阵运算中计算的。
图片来源 这里。
BN 的反向传播过程中,会更新 BN 层中的所有
批量归一化(batch normalization)的“批量”两个字,表示在模型的迭代训练过程中,BN 首先计算小批量( mini-batch,如 32)的均值和方差。但是,在推理过程中,我们只有一个样本,而不是一个小批量。即在模型训练的时候,均值
虽然
第一种方法是,使用的均值和方差数据是在训练过程中样本值的平均,即:
这种做法会把所有训练批次的
第二种方法是使用类似动量的方法,训练时,加权平均每个批次的值,权值
模型推理或测试时,直接使用模型文件中保存的
同时,上面 BN
的计算公式(算法 1)可以变形为:
$$
z_i = \gamma n_i + \beta = \frac{\gamma}{\sqrt{\sigma^2_B + \epsilon}}x_i + (\beta - \frac{\gamma\mu_{B}}{\sqrt{\sigma^2_B + \epsilon}}) = ax_i + b\nonumber
$$
因为推理时,均值 BN
本质上是做线性变换,且
BN
在 ImageNet
分类数据集上实验结果是 SOTA
的,如下表所示:
通过对神经网络中每一层的输入数据进行归一化处理,使得每一层的输入分布更加稳定,从而降低了神经网络过拟合的风险。具体而言,BN 层的作用包括:
- BN 使得网络中每层输入数据的分布相对稳定,加速模型训练和收敛速度。
- 批标准化可以提高学习率。在传统的深度网络中,学习率过高可能会导致梯度爆炸或梯度消失,以及陷入差的局部最小值。批标准化有助于解决这些问题。通过标准化整个网络的激活值,它可以防止层参数的微小变化随着数据在深度网络中的传播而放大。例如,这使 sigmoid 非线性更容易保持在它们的非饱和状态,这对训练深度 sigmoid 网络至关重要,但在传统上很难实现。
- BN 允许网络使用饱和非线性激活函数(如 sigmoid,tanh 等)进行训练,其能缓解梯度消失问题。如果不使用 BN,由于深度神经网络的“累积”效应,使得低层网络的变化效应会累加到高层网络,导致模型训练过程很容易进入到 sigmoid 激活函数的梯度饱和区;而经过 BN 层操作后可以让激活函数的输入数据落在梯度非饱和区,缓解梯度消失的问题。(bn 层一般在激活函数层前面)
- BN 层能够减少过拟合提高模型的泛化能力,不再需要
dropout
和LRN
(Local Response Normalization)层来实现正则化。BN 层将每个特征在当前的 mini-batch 中进行标准化,其中包括均值和方差的估计。由于mini-batch的选择是随机的,所以在每个 mini-batch 中使用的均值和方差的估计也是随机的,这样就引入了一定的噪声。 - 减少对参数初始化方法的依赖。早期的权重是随机初始化的,异常权重值会扭曲梯度,导致网络收敛需要更长的时间,而
Batch Norm
有助于抑制这些权重异常值的影响。
Sigmoid 导数的梯度消失区域如下图所示: