首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >基于损失的超参数整定神经网络

基于损失的超参数整定神经网络
EN

Data Science用户
提问于 2018-12-17 13:58:31
回答 1查看 820关注 0票数 1

在超参数整定过程中,我们选择一个度量来衡量模型的性能。标准的例子: f1评分,精确,回忆,AUC .

一般情况下,对于神经网络的训练,反向传播会根据损失函数的值来优化模型的权重。

接下来的问题是:为什么人们不使用损失函数作为神经网络优化的主要性能指标?

EN

回答 1

Data Science用户

回答已采纳

发布于 2018-12-18 02:07:27

例如,如果您查看L2丢失函数:

\sum (y - \hat{y})²

它考虑到预测值与实际值有多大的不同。请注意,由于误差的平方,L2对异常值很敏感。所以,正如你所看到的,它考虑到了我们的预测有多远。

这正是问题所在:大多数时候,我们并不关心我们的预测离真实的距离有多远。

想象一个真实的应用程序,其中模型预测一个图像标签。应用程序不会向您提供n示例及其概率。它只会以最高的概率输出图像。

这意味着,对于一个分类问题,当我们使用softmax和交叉熵损失时,如果一个类的预测概率是0.49或0.01,那就不重要了。我们只关心我们的模型是否正确。

而且,精确性要明显得多,更便于解释。这就是为什么精确性被更频繁地使用的原因。

票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/42758

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档