.. py:function:: paddle.nn.functional.conv2d_transpose(x, weight, bias=None, stride=1, padding=0, output_padding=0, groups=1, dilation=1, data_format='NCHW', output_size=None, name=None)
二维转置卷积层(Convlution2D transpose layer)
该层根据输入(input)、卷积核(kernel)和空洞大小(dilations)、步长(stride)、填充(padding)来计算输出特征层大小或者通过 output_size 指定输出特征层大小。输入(Input)和输出(Output)为 NCHW 或 NHWC 格式,其中 N 为批尺寸,C 为通道数(channel),H 为特征层高度,W 为特征层宽度。卷积核是 MCHW 格式,M 是输出图像通道数,C 是输入图像通道数,H 是卷积核高度,W 是卷积核宽度。如果组数大于 1,C 等于输入图像通道数除以组数的结果。转置卷积的计算过程相当于卷积的反向计算。转置卷积又被称为反卷积(但其实并不是真正的反卷积)。欲了解转置卷积层细节,请参考下面的说明和 参考文献_。如果参数 bias_attr 不为 False,转置卷积计算会添加偏置项。如果 act 不为 None,则转置卷积计算之后添加相应的激活函数。
输入 X 和输出 Out 函数关系如下:
Out=\sigma (W*X+b)\\
其中:
- X:输入,具有 NCHW 或 NHWC 格式的 4-D Tensor
- W:卷积核,具有 NCHW 格式的 4-D Tensor
- *:卷积计算(注意:转置卷积本质上的计算还是卷积)
- b:偏置(bias),2-D Tensor,形状为
[M,1]
- \sigma :激活函数
- Out:输出值,NCHW 或 NHWC 格式的 4-D Tensor,和
X
的形状可能不同
示例
输入:
输入 Tensor 的形状:(N,C_{in}, H_{in}, W_{in})
卷积核的形状:(C_{in}, C_{out}, H_f, W_f)
输出:
输出 Tensor 的形状:(N,C_{out}, H_{out}, W_{out})
其中
H^\prime_{out} &= (H_{in} - 1) * strides[0] - 2 * paddings[0] + dilations[0] * (H_f - 1) + 1 \\ W^\prime_{out} &= (W_{in} - 1) * strides[1] - 2 * paddings[1] + dilations[1] * (W_f - 1) + 1 \\ H_{out} &\in [ H^\prime_{out}, H^\prime_{out} + strides[0] ) \\ W_{out} &\in [ W^\prime_{out}, W^\prime_{out} + strides[1] ) \\
如果 padding
= "SAME":
& H'_{out} = \frac{(H_{in} + stride[0] - 1)}{stride[0]}\\ & W'_{out} = \frac{(W_{in} + stride[1] - 1)}{stride[1]}\\
如果 padding
= "VALID":
& H'_{out} = (H_{in}-1)*strides[0] + dilations[0]*(H_f-1)+1\\ & W'_{out} = (W_{in}-1)*strides[1] + dilations[1]*(W_f-1)+1 \\
Note
如果 output_size 为 None,则 H_{out} = H^\prime_{out} , W_{out} = W^\prime_{out};否则,指定的 output_size_height(输出特征层的高) H_{out} 应当介于 H^\prime_{out} 和 H^\prime_{out} + strides[0] 之间(不包含 H^\prime_{out} + strides[0] ),并且指定的 output_size_width(输出特征层的宽) W_{out} 应当介于 W^\prime_{out} 和 W^\prime_{out} + strides[1] 之间(不包含 W^\prime_{out} + strides[1] )。
由于转置卷积可以当成是卷积的反向计算,而根据卷积的输入输出计算公式来说,不同大小的输入特征层可能对应着相同大小的输出特征层,所以对应到转置卷积来说,固定大小的输入特征层对应的输出特征层大小并不唯一。
- x (Tensor) - 输入是形状为 [N, C, H, W] 或 [N, H, W, C] 的 4-D Tensor,N 是批尺寸,C 是通道数,H 是特征高度,W 是特征宽度,数据类型为 float16, float32 或 float64。
- weight (Tensor) - 形状为 [C, M/g, kH, kW] 的卷积核(卷积核)。 M 是输出通道数,g 是分组的个数,kH 是卷积核的高度,kW 是卷积核的宽度。
- bias (int|list|tuple,可选) - 偏置项,形状为:[M,] 。
- stride (int|list|tuple,可选) - 步长大小。如果
stride
为元组,则必须包含两个整型数,分别表示垂直和水平滑动步长。否则,表示垂直和水平滑动步长均为stride
。默认值:1。- padding (int|list|tuple|str,可选) - 填充大小。如果它是一个字符串,可以是"VALID"或者"SAME",表示填充算法,计算细节可参考上述
padding
= "SAME"或padding
= "VALID" 时的计算公式。如果它是一个元组或列表,它可以有 3 种格式:(1)包含 4 个二元组:当data_format
为"NCHW"时为 [[0,0], [0,0], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right]],当data_format
为"NHWC"时为[[0,0], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right], [0,0]];(2)包含 4 个整数值:[padding_height_top, padding_height_bottom, padding_width_left, padding_width_right];(3)包含 2 个整数值:[padding_height, padding_width],此时 padding_height_top = padding_height_bottom = padding_height, padding_width_left = padding_width_right = padding_width。若为一个整数,padding_height = padding_width = padding。默认值:0。- output_padding (int|list|tuple,可选) - 输出形状上一侧额外添加的大小。默认值:0。
- dilation (int|list|tuple,可选) - 空洞大小。空洞卷积时会使用该参数,卷积核对输入进行卷积时,感受野里每相邻两个特征点之间的空洞信息。如果空洞大小为列表或元组,则必须包含两个整型数:(dilation_height,dilation_width)。若为一个整数,dilation_height = dilation_width = dilation。默认值:1。
- groups (int,可选) - 二维卷积层的组数。根据 Alex Krizhevsky 的深度卷积神经网络(CNN)论文中的成组卷积:当 group=n,输入和卷积核分别根据通道数量平均分为 n 组,第一组卷积核和第一组输入进行卷积计算,第二组卷积核和第二组输入进行卷积计算,……,第 n 组卷积核和第 n 组输入进行卷积计算。默认值:1。
- data_format (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCHW"和"NHWC"。N 是批尺寸,C 是通道数,H 是特征高度,W 是特征宽度。默认值:"NCHW"。
- output_size (int|list|tuple,可选) - 输出尺寸,整数或包含一个整数的列表或元组。如果为
None
,则会用 filter_size(weight``的 shape), ``padding
和stride
计算出输出特征图的尺寸。默认值:None。- name (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。
4-D Tensor,数据类型与 input
一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。
COPY-FROM: paddle.nn.functional.conv2d_transpose