Skip to content

Latest commit

 

History

History
107 lines (67 loc) · 7.31 KB

conv2d_transpose_cn.rst

File metadata and controls

107 lines (67 loc) · 7.31 KB

conv2d_transpose

二维转置卷积层(Convlution2D transpose layer)

该层根据输入(input)、卷积核(kernel)和空洞大小(dilations)、步长(stride)、填充(padding)来计算输出特征层大小或者通过output_size指定输出特征层大小。输入(Input)和输出(Output)为NCHW或NHWC格式,其中N为批尺寸,C为通道数(channel),H为特征层高度,W为特征层宽度。卷积核是MCHW格式,M是输出图像通道数,C是输入图像通道数,H是卷积核高度,W是卷积核宽度。如果组数大于1,C等于输入图像通道数除以组数的结果。转置卷积的计算过程相当于卷积的反向计算。转置卷积又被称为反卷积(但其实并不是真正的反卷积)。欲了解转置卷积层细节,请参考下面的说明和 参考文献 。如果参数bias_attr不为False, 转置卷积计算会添加偏置项。如果act不为None,则转置卷积计算之后添加相应的激活函数。

输入 X 和输出 Out 函数关系如下:

$$\begin{aligned} Out=\sigma (W*X+b)\\\ \end{aligned}$$

其中:

  • X : 输入,具有NCHW或NHWC格式的4-D Tensor
  • W : 卷积核,具有NCHW格式的4-D Tensor
  • * : 卷积计算(注意:转置卷积本质上的计算还是卷积)
  • b : 偏置(bias),2-D Tensor,形状为 [M,1]
  • σ : 激活函数
  • Out : 输出值,NCHW或NHWC格式的4-D Tensor, 和 X 的形状可能不同

示例

  • 输入:

    输入Tensor的形状: NCinHinWin

    卷积核的形状 : Cin, Cout, Hf, Wf

  • 输出:

    输出Tensor的形状 : NCout, Hout, Wout

其中

$$\begin{aligned} & H'_{out} = (H_{in}-1)*strides[0] - pad\_height\_top - pad\_height\_bottom + dilations[0]*(H_f-1)+1\\\ & W'_{out} = (W_{in}-1)*strides[1]- pad\_width\_left - pad\_width\_right + dilations[1]*(W_f-1)+1 \\\ & H_{out}\in[H'_{out},H'_{out} + strides[0])\\\ & W_{out}\in[W'_{out},W'_{out} + strides[1])\\\ \end{aligned}$$

如果 padding = "SAME":

$$\begin{aligned} & H'_{out} = \frac{(H_{in} + stride[0] - 1)}{stride[0]}\\\ & W'_{out} = \frac{(W_{in} + stride[1] - 1)}{stride[1]}\\\ \end{aligned}$$

如果 padding = "VALID":

$$\begin{aligned} & H'_{out} = (H_{in}-1)*strides[0] + dilations[0]*(H_f-1)+1\\\ & W'_{out} = (W_{in}-1)*strides[1] + dilations[1]*(W_f-1)+1 \\\ \end{aligned}$$

注意:

如果output_size为None,则 Hout = Hout , Wout = Wout ;否则,指定的output_size_height(输出特征层的高) Hout 应当介于 HoutHout + strides[0] 之间(不包含 Hout + strides[0] ), 并且指定的output_size_width(输出特征层的宽) Wout 应当介于 WoutWout + strides[1] 之间(不包含 Wout + strides[1] )。

由于转置卷积可以当成是卷积的反向计算,而根据卷积的输入输出计算公式来说,不同大小的输入特征层可能对应着相同大小的输出特征层,所以对应到转置卷积来说,固定大小的输入特征层对应的输出特征层大小并不唯一。

参数

  • x (Tensor) - 输入是形状为 [N, C, H, W][N, H, W, C] 的4-D Tensor,N是批尺寸,C是通道数,H是特征高度,W是特征宽度,数据类型为float16, float32或float64。
  • weight (Tensor) - 形状为 [C, M/g, kH, kW] 的卷积核(卷积核)。 M是输出通道数, g是分组的个数,kH是卷积核的高度,kW是卷积核的宽度。
  • bias (inttuple) - 偏置项,形状为: [M, ]
  • stride (inttuple,可选) - 步长大小。如果 stride 为元组,则必须包含两个整型数,分别表示垂直和水平滑动步长。否则,表示垂直和水平滑动步长均为 stride 。默认值:1。
  • padding (inttuple|str,可选) - 填充大小。如果它是一个字符串,可以是"VALID"或者"SAME",表示填充算法,计算细节可参考上述 padding = "SAME"或 padding = "VALID" 时的计算公式。如果它是一个元组或列表,它可以有3种格式:(1)包含4个二元组:当 data_format 为"NCHW"时为 [[0,0], [0,0], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right]],当 data_format 为"NHWC"时为[[0,0], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right], [0,0]];(2)包含4个整数值:[padding_height_top, padding_height_bottom, padding_width_left, padding_width_right];(3)包含2个整数值:[padding_height, padding_width],此时padding_height_top = padding_height_bottom = padding_height, padding_width_left = padding_width_right = padding_width。若为一个整数,padding_height = padding_width = padding。默认值:0。
  • output_padding (inttuple, optional): 输出形状上一侧额外添加的大小. 默认值: 0.
  • dilation (inttuple,可选) - 空洞大小。空洞卷积时会使用该参数,卷积核对输入进行卷积时,感受野里每相邻两个特征点之间的空洞信息。如果空洞大小为列表或元组,则必须包含两个整型数:(dilation_height,dilation_width)。若为一个整数,dilation_height = dilation_width = dilation。默认值:1。
  • groups (int,可选) - 二维卷积层的组数。根据Alex Krizhevsky的深度卷积神经网络(CNN)论文中的成组卷积:当group=n,输入和卷积核分别根据通道数量平均分为n组,第一组卷积核和第一组输入进行卷积计算,第二组卷积核和第二组输入进行卷积计算,……,第n组卷积核和第n组输入进行卷积计算。默认值:1。
  • data_format (str,可选) - 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是"NCHW"和"NHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCHW"。
  • output_size (inttuple,可选) - 输出尺寸,整数或包含一个整数的列表或元组。如果为 None , 则会用 filter_size(weight的shape), paddingstride 计算出输出特征图的尺寸。默认值:None。
  • name (str,可选) – 具体用法请参见 cn_api_guide_Name ,一般无需设置,默认值:None。

返回

4-D Tensor,数据类型与 input 一致。如果未指定激活层,则返回转置卷积计算的结果,如果指定激活层,则返回转置卷积和激活计算之后的最终结果。

代码示例

import paddle
import paddle.nn.functional as F

x_var = paddle.randn((2, 3, 8, 8), dtype='float32')
w_var = paddle.randn((3, 6, 3, 3), dtype='float32')

y_var = F.conv2d_transpose(x_var, w_var)
y_np = y_var.numpy()

print(y_np.shape)
# (2, 6, 10, 10)