首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >利用神经网络中代价函数的巧妙选择消除梯度输入

利用神经网络中代价函数的巧妙选择消除梯度输入
EN

Data Science用户
提问于 2017-04-14 10:30:43
回答 1查看 98关注 0票数 2

http://neuralnetworksanddeeplearning.com/chap3.html

作者解释说,对于神经网络中的单个神经元,选择代价函数作为交叉熵,可以消除激活函数在梯度项中的导数,如果激活函数是sigmoid函数的话。

问题中,他问为什么我们不能消除成本函数梯度中关于权值的神经元项x的输入。

我有以下的推理,为了计算成本梯度,我们使用链规则,导出了关于激活的成本,关于(w *x+ b)的激活,以及与权重的和。

对于权Wi,(和w*x+ b) w.r.to Wi的导数总是xi,而激活函数的导数不知道这一点,所以它不可能消除Xi,除非它为零。

或者还有其他微妙的推理吗?

EN

回答 1

Data Science用户

回答已采纳

发布于 2017-04-14 16:08:40

主要原因是链规则隐藏在你的理由中。实际上,内部函数是线性的w.r.t权值,然后导数w.r.t权值总是被输入到x中,这一事实将位于\dfrac{\partial C}{\partial w}.的某个位置。

票数 2
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/18349

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档