首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >人工智能之数学基础 信息论:第二章 核心度量

人工智能之数学基础 信息论:第二章 核心度量

作者头像
咚咚王
发布2025-12-26 19:31:44
发布2025-12-26 19:31:44
1820
举报
概述
交叉熵(Cross-Entropy)和 KL 散度(Kullback-Leibler Divergence)是现代机器学习,尤其是深度学习分类任务的理论基石。它们不仅定义了损失函数的形式,还揭示了模型学习的本质:让预测分布逼近真实分布。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档