当我查看下面的偏导数时,我认为它是任何优化算法的关键元素。如果我错了,请纠正我,但是这得到了损失函数的斜率,所以我们可以与那个斜率相反,从而最小化损失。
其中:\theta是权重,\mathcal{L}是损失;
这有意义吗?除了这个导数,还有其他的计算步骤可以说是优化神经网络的基础吗?
这个话题现在对我来说特别重要,因为我在考虑纹身这个派生词,作为一个很酷的人工智能纹身,我希望它是基本的,简单的。
发布于 2019-05-11 15:02:36
请注意,\frac{\partial L}{\partial \theta}与\frac{\partial \theta}{\partial L}不同。您试图描述的似乎是\frac{\partial L}{\partial \theta},其中\theta是一个变量。如果\theta是高维的,有时我们只使用\nabla表示法。
梯度下降
你建议纹身的只是“坡度”或“斜度”。不是反对,只是想让你知道你在做什么。
发布于 2019-05-10 07:13:16
除了你的纹身,在梯度下降,损失函数需要最小化,这是我们的目标函数在这种情况下。
渐变更新规则指出,
其中\theta是需要优化的参数。这是梯度下降的基本方程,它是几乎所有AI/ML任务的优化算法。
https://datascience.stackexchange.com/questions/51714
复制相似问题