Skip to content

Latest commit

 

History

History
27 lines (18 loc) · 557 Bytes

ReLU_cn.rst

File metadata and controls

27 lines (18 loc) · 557 Bytes

ReLU

ReLU 激活层(Rectified Linear Unit)。计算公式如下:


ReLU(x) = max(0, x)

其中,x 为输入的 Tensor。

参数

  • name (str,可选) - 具体用法请参见 api_guide_Name,一般无需设置,默认值为 None。

形状

  • input:任意形状的 Tensor。
  • output:和 input 具有相同形状的 Tensor。

代码示例

COPY-FROM: paddle.nn.ReLU