首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >调用大模型时,发送与响应请求中的参数都是什么意思?

调用大模型时,发送与响应请求中的参数都是什么意思?

原创
作者头像
Qiuner
发布2025-11-03 16:30:52
发布2025-11-03 16:30:52
3550
举报
  • AI时代下,如果你仅仅限于下载AI产品、通过网站对话访问Ai那就太落伍了。本文将用Apifox对阿里云上的模型进行请求,进行参数解读,让你从另一个视角认识大模型。

所需前置知识

HTTP协议

请求方法(GET/POST) 请求头/请求体 状态码(200/400/500)

JSON格式

知道json就好

API认证

API Key管理 请求头Authorization

Apifox工具

创建请求集合 环境变量配置 测试和调试

如何用Apifox对阿里云上的模型进行请求?

第一步:平台方面

  • 访问:下列网址,注册账号并注册密匙
代码语言:java
复制
https://bailian.console.aliyun.com/?tab=model#/api-key
  • 访问:下列网址,找到curl
image-20251010175042550
image-20251010175042550

第二步:软件方面

  • 下载安装好Apifox,来到新建界面窗口
image-20251010175231221
image-20251010175231221
image-20251010175301006
image-20251010175301006
  • 分别填入
image-20251010175610272
image-20251010175610272
代码语言:java
复制
https://dashscope.aliyuncs.com/compatible-mode/v1/chat/completions
代码语言:java
复制
自己的密匙,见第一步
代码语言:java
复制
{
    "model": "qwen-plus",
    "messages": [
        {
            "role": "user", 
            "content": "Qiuner为什么是帅哥?"
        }
    ]
}
image-20251010151301912
image-20251010151301912
image-20251010175727794
image-20251010175727794
  • 点击发送,大模型就会回复了
image-20251010180522045
image-20251010180522045

调用大模型时,出现的参数是什么意思?

  • 以下是调用大模型参数需要的json格式数据
代码语言:java
复制
{
  "model": "qwen-plus",
  "messages": [
    {
      "role": "system",
      "content": "你是Qiuner的ai助手"
    },
    {
      "role": "user",
      "content": "你是谁?"
    },
    {
      "role": "assistant",
      "content": "您好,有什么可以帮助您?"
    }
  ],
  "stream": true,
  "enable_search": true
}

model

指定要使用的AI模型版本,不同模型具有不同的能力和特点。

contenet/role

image-20251010153543062
image-20251010153543062

stream

image-20251010153701624
image-20251010153701624
  • true: 流式返回,响应内容会逐步返回,用户可以实时看到生成过程
  • false: 等待完整生成后一次性返回所有内容

enable_search

  • true: 模型可以联网搜索最新信息作为回答依据
  • false: 仅使用模型自身的知识库回答
image-20251010153911603
image-20251010153911603

总结

参数名称

类型

说明

可选值/示例

model

string

告诉平台,当前调用哪个模型

qwen-plus 等模型名称

messages

array

发送给模型的数据,模型会根据这些数据给出合适的响应

消息对象数组

stream

boolean

调用方式

true: 非阻塞调用(流式调用) false: 阻塞调用(一次性响应),默认值

enable_search

boolean

联网搜索,启用后,模型会将搜索结果作为参考信息

true: 开启 false: 关闭(默认)

字段名称

说明

可选值

role

消息角色(类型)

user: 用户消息 system: 系统消息 assistant: 模型响应消息

content

消息内容

具体的文本内容

大模型响应的意思是什么?

响应数据示例

代码语言:json
复制
{
  "choices": [
    {
      "message": {
        "role": "assistant",
        "content": "我是通义千问,阿里巴巴..."
      },
      "finish_reason": "stop",
      "index": 0
    }
  ],
  "object": "chat.completion",
  "usage": {
    "prompt_tokens": 22,
    "completion_tokens": 80,
    "total_tokens": 102
  },
  "created": 1748068508,
  "system_fingerprint": null,
  "model": "qwen-plus",
  "id": "chatcmpl-99f8d040-0f49-955b-943a-21c83"
}
  • 上面这个响应可以这样解读
代码语言:java
复制
- 模型(qwen-plus)生成了一条回复:"我是通义千问,阿里巴巴..."
- 用户输入使用了22个token
- 模型回复使用了80个token
- 总共消耗102个token
- 响应正常结束(finish_reason为stop)
- 调用ID为 chatcmpl-99f8d040-0f49-955b-943a-21c83

响应字段说明表格

字段名称

类型

说明

choices

array

模型生成的内容数组,可以包含一条或多条内容

object

string

始终为chat.completion,无需关注

usage

object

本次对话过程中使用的token信息

created

integer

本次会话被创建时的时间戳

system_fingerprint

string/null

固定为null,无需关注

model

string

本次会话使用的模型名称

id

string

本次调用的唯一标识符

finish_reason表示模型停止生成的原因:

  • stop: 模型自然完成了回答
  • length: 生成的内容达到了最大长度限制而被截断

created

  • Unix时间戳格式,表示该响应生成的时间。示例中的1748068508转换为日期时间约为2025年5月。

id

  • 每次API调用的唯一标识符,可用于日志追踪、问题排查或审计。

choices 数组结构(重点关注)

字段名称

类型

说明

message

object

本次调用模型输出的消息

finish_reason

string

自然结束(stop),生成内容过长(length)

index

integer

当前内容在choices数组中的索引

  • 这是一个数组,包含模型生成的所有响应。通常情况下只有一个元素(index为0),但某些API配置下可能返回多个候选响应。

message 对象结构

字段名称

类型

说明

role

string

固定为assistant,表示这是模型的响应

content

string

模型生成的具体文本内容

usage 对象结构(重点关注)

字段名称

类型

说明

prompt_tokens

integer

用户的输入转换成token的个数

completion_tokens

integer

模型生成的回复转换成token的个数

total_tokens

integer

用户输入和模型生成的总token个数

Token是AI模型处理文本的基本单位,用户输入内容需要转换成token才能方便大模型处理同时用于计费和性能监控:

(一个token等于四个英文字符,一个汉字等于1~2个token)

  • prompt_tokens: 你发送给模型的所有内容(包括历史对话)消耗的token数
  • completion_tokens: 模型生成的回复消耗的token数
  • total_tokens: 本次调用的总消耗,等于前两者之和

学习程度测试:下面响应该如何解读?

  • 我将答案放在了最后面,小伙伴们可以可以先打到评论区,用以检验自己学习程度。

题目:

代码语言:java
复制
{
    "choices": [
        {
            "message": {
                "role": "assistant",
                "content": "“Qiuner”这个名字或昵称在网络上可能指代某个特定的人物,但目前并没有广泛公认的公众人物或知名角色叫这个名字。因此,“Qiuner为什么是帅哥”这个问题,很可能来源于某个小众圈子、网络社区、游戏、直播平台或者朋友间的调侃。\n\n如果有人说“Qiuner是帅哥”,可能有以下几种原因:\n\n1. **主观审美**:有人觉得他外貌出众,符合“帅哥”的标准,比如五官端正、气质好、穿搭时尚等。\n2. **性格魅力**:“帅哥”不一定单指外表,也可能形容一个人有魅力、幽默、温柔、有才华,让人感觉“帅”。\n3. **网络梗或玩笑**:在某些社群中,“帅哥”可能是一种调侃或称号,用来称呼某个活跃成员,未必真的指颜值。\n4. **自我设定或人设**:如果Qiuner是某个虚拟主播、UP主或社交平台用户,他可能打造了一个“帅气学霸”“高冷男神”之类的人设。\n5. **粉丝滤镜**:喜欢一个人的时候,容易觉得他哪里都好,自然就是“帅哥”了。\n\n总结来说,“Qiuner是帅哥”可能是出于真实颜值、人格魅力,也可能是圈内梗或粉丝喜爱的表达方式。如果你能提供更多背景(比如他在哪个平台、做什么的),我可以给出更具体的解释 😊"
            },
            "finish_reason": "stop",
            "index": 0,
            "logprobs": null
        }
    ],
    "object": "chat.completion",
    "usage": {
        "prompt_tokens": 14,
        "completion_tokens": 285,
        "total_tokens": 299,
        "prompt_tokens_details": {
            "cached_tokens": 0
        }
    },
    "created": 1760090562,
    "system_fingerprint": null,
    "model": "qwen-plus",
    "id": "chatcmpl-90a8022a-73fc-40c5-9d06-67db4e4a4110"
}

结束语

img
img

你好,我是Qiuner. 为帮助别人少走弯路而写博客 这是我的 github https://github.com/Qiunergitee https://gitee.com/Qiuner 🌹

如果本篇文章帮到了你 不妨点个吧~ 我会很高兴的 😄 (^ ~ ^) 。想看更多 那就点个关注吧 我会尽力带来有趣的内容 😎。

代码都在github或gitee上,如有需要可以去上面自行下载。记得给我点星星哦:heart_eyes:

如果你遇到了问题,自己没法解决,可以去我掘金评论区问。CSDN评论区和私信看不完 掘金账号 https://juejin.cn/user/1942157160101860 掘金账号

<div style="font-size: xx-large; color: black; font-weight: bold;">

更多专栏:

</div>

📊 一图读懂系列

📝 一文读懂系列

🌟 持续更新

🎯 人生经验

掘金账号 CSDN账号

<center><font color=red size=4>感谢订阅专栏 三连文章</font></center>

上一篇推荐

链接

Java程序员快又扎实的学习路线

一文读懂 AI

一文读懂 服务器

2024年创作回顾

一文读懂 ESLint配置

老鸟如何追求快捷操作电脑

未来会写什么文章?

预告链接

一文读懂 XX?

2025年终总结

一图读懂 XX?

答案

代码语言:java
复制
基本信息

模型名称:qwen-plus
调用ID:chatcmpl-90a8022a-73fc-40c5-9d06-67db4e4a4110
创建时间:1760090562(Unix时间戳)
响应类型:chat.completion

生成内容

模型(qwen-plus)生成了一条回复:""Qiuner"这个名字或昵称在网络上可能指代某个特定的人物,但目前并没有广泛公认的公众人物或知名角色叫这个名字。因此,"Qiuner为什么是帅哥"这个问题,很可能来源于某个小众圈子、网络社区、游戏、直播平台或者朋友间的调侃..."(完整回复约285个token长度)

Token消耗统计

用户输入使用了14个token(prompt_tokens)
模型回复使用了285个token(completion_tokens)
总共消耗299个token(total_tokens)
缓存token数:0(本次请求未使用缓存)

执行状态

响应正常结束(finish_reason为stop)
返回结果索引:0(表示第一条结果)
概率信息:null(未开启logprobs参数)

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 所需前置知识
  • 如何用Apifox对阿里云上的模型进行请求?
    • 第一步:平台方面
    • 第二步:软件方面
  • 调用大模型时,出现的参数是什么意思?
    • model
    • contenet/role
    • stream
    • enable_search
    • 总结
  • 大模型响应的意思是什么?
    • 响应数据示例
    • 响应字段说明表格
    • choices 数组结构(重点关注)
    • message 对象结构
    • usage 对象结构(重点关注)
    • 学习程度测试:下面响应该如何解读?
  • 结束语
  • 答案
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档