ReLU ReLU 激活层(Rectified Linear Unit)。计算公式如下: ReLU(x) = max(0, x) 其中,x 为输入的 Tensor。 参数 name (str,可选) - 具体用法请参见 api_guide_Name,一般无需设置,默认值为 None。 形状 input:任意形状的 Tensor。 output:和 input 具有相同形状的 Tensor。 代码示例 COPY-FROM: paddle.nn.ReLU