首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >LLM核心参数配置指南:原理篇

LLM核心参数配置指南:原理篇

作者头像
AI-Frontiers
发布2026-04-20 07:52:53
发布2026-04-20 07:52:53
1580
举报
概述
本篇将对LLM API中的核心参数temperature、top_p、frequency_penalty、presence_penalty、max_tokens等,从数学公式的角度为大家解释,参数的配置对模型到底意味着什么。
文章被收录于专栏:LLMLLM

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档