当我阅读 Y. LeCun 关于深度学习的论文时(Nature, vol. 521, 2015),我遇到了一个图(论文中的第一个),它与backpropagation通过卷积网络的反向传播相关联。除了图例的最后一句话,我理解了一切:“一旦已知,来自单元 j 的连接上
的误差导数在下面的层中只是 ”。
它必须是纯数学的,但我无法弄清楚为什么上面提到的误差导数等于乘以。有人可以向我解释这个结果吗?
谢谢。
当我阅读 Y. LeCun 关于深度学习的论文时(Nature, vol. 521, 2015),我遇到了一个图(论文中的第一个),它与backpropagation通过卷积网络的反向传播相关联。除了图例的最后一句话,我理解了一切:“一旦已知,来自单元 j 的连接上
的误差导数在下面的层中只是 ”。
它必须是纯数学的,但我无法弄清楚为什么上面提到的误差导数等于乘以。有人可以向我解释这个结果吗?
谢谢。
这会有所帮助: https ://www.youtube.com/watch?v=d14TUNcbn1k
据我了解,在 中backpropagation,我们需要将每个节点的局部梯度乘以上层的梯度,这就是我们发回的值