SeLU激活函数,其公式如下:
输入 x
可以选择性携带LoD信息。输出和它共享此LoD信息(如果有)。
- x (Variable) - 输入变量,为数据类型为float32,float64的多维Tensor或者LoDTensor。
- scale (float,可选) – 可选,表示SeLU激活函数中的λ的值,其默认值为 1.0507009873554804934193349852946。详情请见:Self-Normalizing Neural Networks 。
- alpha (float,可选) – 可选,表示SeLU激活函数中的α的值,其默认值为 1.6732632423543772848170429916717。详情请见:Self-Normalizing Neural Networks 。
- name (str,可选) - 具体用法请参见
api_guide_Name
,一般无需设置,默认值为 None。
一个Tensor,shape和输入Tensor相同。
Variable(Tensor|LoDTensor),LoD信息与输入Tensor一致。
COPY-FROM: paddle.fluid.layers.selu