Selu激活函数的反向传播公式是什么?

机器算法验证 神经网络
2022-03-26 19:22:22

塞卢

见上面这个针对 MLP 的新激活函数(这篇论文昨天刚发表)。该方程在第 3 页的论文中找到。但是找不到反向传播。公式(来自反向传播的链式规则结果)。有人知道吗?

Selu-纸

2个回答

好的,让我们自己尝试一下。对于后向传递,我们得到:

EYYX=λ,x>0

EYYX=λaex,x=<0

λ=1.0507 ,λ=1.0507,a=1.6733

Selu 函数的导数 ( d ) 可以从 Selu 函数的输入 ( x ) 和输出 ( y ) 中找到。

从输入求导数:

d=seluDerivative(x)={λif x>0λαexif x0

在 backprop中使用这个函数的问题是你可能不想保存由 forwardprop 生成的临时x值并且重新计算它会很慢。

幸运的是,Selu 函数是完全可逆的,因此我们可以使用它从 Selu 函数中找到y的导数:

y=selu(x)=λ{xif x>0αexαif x0

x=seluInverse(y)={yλif y>0ln(y+λαλα)if y0

d=seluInverseDerivative(y)={λif y>0y+λαif y0