咚咚王
人工智能之数学基础 信息论:第二章 核心度量
原创
关注作者
腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
咚咚王
社区首页
>
专栏
>
人工智能之数学基础 信息论:第二章 核心度量
人工智能之数学基础 信息论:第二章 核心度量
咚咚王
关注
发布于 2025-12-26 19:31:44
发布于 2025-12-26 19:31:44
182
0
举报
概述
交叉熵(Cross-Entropy)和 KL 散度(Kullback-Leibler Divergence)是现代机器学习,尤其是深度学习分类任务的理论基石。它们不仅定义了损失函数的形式,还揭示了模型学习的本质:让预测分布逼近真实分布。
文章被收录于专栏:
人工智能之数学基础
人工智能之数学基础
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
数学
人工智能
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
数学
人工智能
评论
登录
后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档
0
0
0
推荐