当我正在阅读Y. Le村关于深度学习(Nature, vol. 521, 2015)的论文时,我遇到了一个数字(论文中的第一个),它与backpropagation期间通过卷积网络进行的反向传递有关。我理解了所有的东西,除了图中的传奇的最后一句:“一旦知道了\frac{∂E}{∂zk},下面层中j单元连接上的权值w_{jk}的误差导数就是y_j\cdot\frac{∂E}{∂zk}”。
它必须是纯数学的,但我不明白为什么上面提到的误差导数等于y_j乘以\frac{∂E}{∂zk}。有人能给我解释一下这个结果吗?
谢谢。
发布于 2019-06-27 00:46:16
这将很有帮助:https://www.youtube.com/watch?v=d14TUNcbn1k
据我所知,在backpropagation中,我们需要将每个节点的局部梯度乘以来自上层的梯度,这是我们返回的值。
https://datascience.stackexchange.com/questions/54536
复制相似问题