Skip to content

Latest commit

 

History

History
30 lines (20 loc) · 1.03 KB

prelu_cn.rst

File metadata and controls

30 lines (20 loc) · 1.03 KB

prelu

.. py:function:: paddle.nn.functional.prelu(x, weight, data_format="NCHW", name=None)

prelu 激活层(PRelu Activation Operator)。计算公式如下:

prelu(x) = max(0, x) + weight * min(0, x)

其中,x 和 weight 为输入的 Tensor

参数

  • x (Tensor) - 输入的 Tensor,数据类型为:float32、float64。
  • weight (Tensor) - 可训练参数,数据类型同``x`` 一致,形状支持:[]、[1] 或者 [in],其中`in`为输入的通道数。
  • data_format (str,可选) – 指定输入的数据格式,输出的数据格式将与输入保持一致,可以是 "NC", "NCL", "NCHW", "NCDHW", "NLC", "NHWC" 或者 "NDHWC"。默认值:"NCHW"。
  • name (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。

返回

Tensor,数据类型和形状同 x 一致。

代码示例

COPY-FROM: paddle.nn.functional.prelu