阿飞爱Coding
交叉熵损失到底在“惩罚”什么?——给机器学习新手的概率直觉课
原创
关注作者
腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
阿飞爱Coding
社区首页
>
专栏
>
交叉熵损失到底在“惩罚”什么?——给机器学习新手的概率直觉课
交叉熵损失到底在“惩罚”什么?——给机器学习新手的概率直觉课
阿飞爱Coding
关注
发布于 2025-12-09 18:22:26
发布于 2025-12-09 18:22:26
316
0
举报
概述
你不需要懂“似然”,但要明白:模型越“嘴硬”还越错,罚得越狠。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
机器学习
深度学习
算法
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
机器学习
深度学习
算法
评论
登录
后参与评论
0 条评论
热度
最新
推荐阅读
目录
场景:教 AI 认动物
一、最朴素的想法:看“正确类别的分数”有多高
二、为什么用 ?——来自信息论的直觉
三、交叉熵 = 负对数损失(在分类任务中)
🔢 交叉熵是怎么算的?——手把手演示
👉 举个具体例子:
四、PyTorch 里的一行代码,到底做了什么?
五、为什么不用“1 - 正确概率”?
六、总结:三句话记住交叉熵
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档
0
0
0
推荐