首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >交叉熵损失到底在“惩罚”什么?——给机器学习新手的概率直觉课

交叉熵损失到底在“惩罚”什么?——给机器学习新手的概率直觉课

作者头像
阿飞爱Coding
发布2025-12-09 18:22:26
发布2025-12-09 18:22:26
3160
举报
概述
你不需要懂“似然”,但要明白:模型越“嘴硬”还越错,罚得越狠。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 场景:教 AI 认动物
  • 一、最朴素的想法:看“正确类别的分数”有多高
  • 二、为什么用 ?——来自信息论的直觉
  • 三、交叉熵 = 负对数损失(在分类任务中)
    • 🔢 交叉熵是怎么算的?——手把手演示
      • 👉 举个具体例子:
  • 四、PyTorch 里的一行代码,到底做了什么?
  • 五、为什么不用“1 - 正确概率”?
  • 六、总结:三句话记住交叉熵
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档