LeCun 关于深度学习的论文(Nature,2015)

数据挖掘 深度学习 卷积 反向传播
2022-03-02 20:35:58

当我阅读 Y. LeCun 关于深度学习的论文时(Nature, vol. 521, 2015),我遇到了一个图(论文中的第一个),它与backpropagation通过卷积网络的反向传播相关联。除了图例的最后一句话,我理解了一切:“一旦已知,来自单元 j 的连接上 的误差导数在下面的层中只是 ”。EzkwjkyjEzk

它必须是纯数学的,但我无法弄清楚为什么上面提到的误差导数等于乘以有人可以向我解释这个结果吗?yjEzk

谢谢。

PS:上图的链接是https://www.researchgate.net/figure/Multilayer-neural-networks-and-backpropagation-aA-multi-layer-neural-network-shown-by_fig4_277411157

1个回答

这会有所帮助: https ://www.youtube.com/watch?v=d14TUNcbn1k

据我了解,在 中backpropagation,我们需要将每个节点的局部梯度乘以上层的梯度,这就是我们发回的值