阿飞爱Coding
从 Logits 到概率:Softmax 是如何做到语义无损的?
原创
关注作者
腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
阿飞爱Coding
社区首页
>
专栏
>
从 Logits 到概率:Softmax 是如何做到语义无损的?
从 Logits 到概率:Softmax 是如何做到语义无损的?
阿飞爱Coding
关注
发布于 2025-12-09 09:56:19
发布于 2025-12-09 09:56:19
341
0
举报
概述
把一组 logits 通过 Softmax 变成概率,看似只是归一化,实则是一次精妙的“语义保全”操作。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
神经网络
机器学习
算法
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
神经网络
机器学习
算法
评论
登录
后参与评论
0 条评论
热度
最新
推荐阅读
目录
一、logits 是什么?它承载了什么信息?
二、Softmax 如何做到“意义等效”?
✅ 1. 严格保序(Order Preservation)
✅ 2. 信息可逆(Near-Lossless)
✅ 3. 最大熵原则:最保守的归一化
✅ 4. 梯度语义清晰,训练信号无歧义
三、既然意义等效,为什么还要转换?
🔹 1. 任务需要概率语义
🔹 2. 损失函数依赖概率公理
🔹 3. 系统协作需要标准化输出
🔹 4. 人类需要可解释的语言
四、结语:无损封装,而非信息转换
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档
0
0
0
推荐