AI-Frontiers
LLM核心参数配置指南:原理篇
原创
关注作者
腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
AI-Frontiers
社区首页
>
专栏
>
LLM核心参数配置指南:原理篇
LLM核心参数配置指南:原理篇
AI-Frontiers
关注
发布于 2026-04-20 07:52:53
发布于 2026-04-20 07:52:53
158
0
举报
概述
本篇将对LLM API中的核心参数temperature、top_p、frequency_penalty、presence_penalty、max_tokens等,从数学公式的角度为大家解释,参数的配置对模型到底意味着什么。
文章被收录于专栏:
LLM
LLM
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
LLM
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
LLM
#LLM推理
评论
登录
后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档
0
0
0
推荐