首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >从 Logits 到概率:Softmax 是如何做到语义无损的?

从 Logits 到概率:Softmax 是如何做到语义无损的?

作者头像
阿飞爱Coding
发布2025-12-09 09:56:19
发布2025-12-09 09:56:19
3410
举报
概述
把一组 logits 通过 Softmax 变成概率,看似只是归一化,实则是一次精妙的“语义保全”操作。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、logits 是什么?它承载了什么信息?
  • 二、Softmax 如何做到“意义等效”?
    • ✅ 1. 严格保序(Order Preservation)
    • ✅ 2. 信息可逆(Near-Lossless)
    • ✅ 3. 最大熵原则:最保守的归一化
    • ✅ 4. 梯度语义清晰,训练信号无歧义
  • 三、既然意义等效,为什么还要转换?
    • 🔹 1. 任务需要概率语义
    • 🔹 2. 损失函数依赖概率公理
    • 🔹 3. 系统协作需要标准化输出
    • 🔹 4. 人类需要可解释的语言
  • 四、结语:无损封装,而非信息转换
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档