一句话总结:OpenClaw 本身不内置任何大模型,而是通过灵活的配置机制对接各类模型服务。更换模型只需三步:选择目标模型获取 API Key、在配置文件中添加模型提供商、重启网关生效。支持云端模型(元宝、豆包、DeepSeek、智谱 GLM 等)、本地私有化模型(Ollama、LM Studio)、以及任何兼容 OpenAI API 协议的自定义模型,完全免费或低成本使用,可同时配置多个模型实现智能降级切换。
OpenClaw 被戏称为“龙虾”——它能操作文件、控制浏览器、跨应用协同、甚至操控硬件设备,是名副其实的“AI 执行引擎”。但很多人忽略了一个关键问题:OpenClaw 本身不包含任何 AI 模型。
就像一台性能再强的电脑,没有操作系统也无法工作。OpenClaw 的“大脑”完全来自你接入的大模型。这意味着:
更关键的是,OpenClaw 支持同时配置多个模型,可以设置主模型和降级模型,当主模型超限或不可用时自动切换。这种“双保险”机制,让“龙虾”永不掉线。
本文将基于截至 2026 年 3 月的官方文档和社区实践,从核心原理、云端模型配置、本地私有化部署、高级配置技巧、常见问题五个维度,手把手教你为 OpenClaw 更换最合适的“大脑”。
OpenClaw 的核心价值在于“连接”——连接大模型的思考能力与电脑的真实操作权限。不同模型各有优劣:
需求场景 | 推荐模型类型 | 原因 |
|---|---|---|
日常对话、文档处理 | 元宝、智谱 GLM | 中文理解强,免费额度充足 |
复杂推理、代码生成 | DeepSeek、Claude | 逻辑能力强,代码表现优异 |
数据隐私敏感场景 | 本地模型(Ollama/LM Studio) | 数据不出本地,完全离线可用 |
成本敏感、高频使用 | 元宝、豆包免费 API | 零成本或极低成本 |
多语言场景 | GPT、Claude | 英文及多语言能力强 |
OpenClaw 的模型配置通过一个 JSON 文件完成,默认路径为:
~/.openclaw/openclaw.jsonC:\Users\用户名\.openclaw\openclaw.json核心配置结构如下:
{
"models": {
"providers": {
"提供商ID": {
"baseUrl": "API地址",
"apiKey": "你的API密钥",
"api": "openai-completions",
"models": [
{
"id": "模型ID",
"name": "显示名称",
"contextWindow": 上下文长度,
"maxTokens": 最大输出Token数
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "提供商ID/模型ID",
"fallback": "备用提供商ID/模型ID"
}
}
}
}配置逻辑解析:
${MY_API_KEY})类型 | 代表平台 | 接入方式 | 成本 |
|---|---|---|---|
云端商业模型 | 腾讯元宝、百度千帆、智谱、DeepSeek | API Key | 按量付费/免费额度 |
云端免费模型 | 元宝免费版、豆包、各大平台赠送额度 | API Key | 完全免费 |
本地私有化模型 | Ollama、LM Studio | 本地 API | 完全免费(需硬件) |
OpenClaw 提供了三种切换模型的方式,适应不同使用习惯:
切换方式 | 命令/操作 | 适用场景 |
|---|---|---|
Web 面板切换 | 点击右上角模型选择器下拉菜单 | 日常使用,最直观 |
命令行切换 |
| 开发者,批量操作 |
对话内切换 | 输入 | 快速测试对比 |
快速命令示例:
# 查看所有已配置模型
openclaw models list
# 查看当前默认模型
openclaw models current
# 切换默认模型
openclaw models set yuanbao/hunyuan-turbo
# 临时切换单次对话(不改变默认)
openclaw chat --model yuanbao/hunyuan-turbo --prompt "测试"腾讯元宝基于混元大模型,提供强大的中文理解和多模态能力,2026 年推出免费额度方案,大幅降低使用门槛。
第一步:获取 API Key
sk-xxx)💡 省钱提示:腾讯元宝提供每日免费额度,适合个人开发者和中小企业测试使用。
第二步:配置 OpenClaw
编辑配置文件 ~/.openclaw/openclaw.json:
{
"models": {
"providers": {
"yuanbao": {
"baseUrl": "https://yuanbao.tencentcloudapi.com/v1",
"apiKey": "sk-你的API密钥",
"api": "openai-completions",
"models": [
{
"id": "hunyuan-turbo",
"name": "混元 Turbo",
"contextWindow": 128000,
"maxTokens": 8192
},
{
"id": "hunyuan-pro",
"name": "混元 Pro",
"contextWindow": 256000,
"maxTokens": 16384
},
{
"id": "hunyuan-lite",
"name": "混元 Lite",
"contextWindow": 32768,
"maxTokens": 4096
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "yuanbao/hunyuan-turbo"
}
}
}
}第三步:重启网关生效
openclaw gateway restart元宝免费版配置(零成本方案):
{
"models": {
"providers": {
"yuanbao-free": {
"baseUrl": "https://yuanbao.tencentcloudapi.com/free/v1",
"apiKey": "你的免费版API Key",
"api": "openai-completions",
"models": [
{
"id": "hunyuan-free",
"name": "混元免费版",
"contextWindow": 32768,
"maxTokens": 8192
}
]
}
}
}
}字节跳动豆包以出色的多模态能力和创意生成著称,提供免费 API 额度。
获取 API Key:
配置示例:
{
"models": {
"providers": {
"doubao": {
"baseUrl": "https://ark.cn-beijing.volces.com/api/v3",
"apiKey": "你的豆包API Key",
"api": "openai-completions",
"models": [
{
"id": "doubao-pro-32k",
"name": "豆包 Pro 32K",
"contextWindow": 32768,
"maxTokens": 8192
},
{
"id": "doubao-lite-128k",
"name": "豆包 Lite 128K",
"contextWindow": 128000,
"maxTokens": 16384
}
]
}
}
}
}DeepSeek 以强大的代码能力和推理能力著称,是开发者的热门选择。
获取 API Key:访问 DeepSeek 开放平台 → 注册账号 → 创建 API Key
配置示例:
{
"models": {
"providers": {
"deepseek": {
"baseUrl": "https://api.deepseek.com/v1",
"apiKey": "sk-你的DeepSeek密钥",
"api": "openai-completions",
"models": [
{
"id": "deepseek-chat",
"name": "DeepSeek Chat",
"contextWindow": 65536,
"maxTokens": 8192
},
{
"id": "deepseek-coder",
"name": "DeepSeek Coder",
"contextWindow": 32768,
"maxTokens": 8192
}
]
}
}
}
}智谱 AI 的 GLM 系列模型中文理解优秀,提供免费额度。
获取 API Key:
配置示例:
{
"models": {
"providers": {
"zhipu": {
"baseUrl": "https://open.bigmodel.cn/api/paas/v4",
"apiKey": "你的智谱API Key",
"api": "openai-completions",
"models": [
{
"id": "glm-4-plus",
"name": "GLM-4 Plus",
"contextWindow": 128000,
"maxTokens": 8192
},
{
"id": "glm-4-flash",
"name": "GLM-4 Flash",
"contextWindow": 32768,
"maxTokens": 4096
}
]
}
}
}
}百度千帆平台提供 ERNIE 系列模型。
配置示例:
{
"models": {
"providers": {
"qianfan": {
"baseUrl": "https://qianfan.baidubce.com/v2",
"apiKey": "你的千帆API Key",
"api": "openai-completions",
"models": [
{
"id": "ERNIE-5.0",
"name": "ERNIE 5.0",
"contextWindow": 128000,
"maxTokens": 8192
}
]
}
}
}
}如果以上官方模型都不满足需求,OpenClaw 支持接入任何兼容 OpenAI API 协议的模型服务。
适用场景:
配置格式:
{
"models": {
"providers": {
"custom": {
"baseUrl": "https://your-model-api.com/v1",
"apiKey": "your_api_key",
"api": "openai-completions",
"models": [
{
"id": "your-model-id",
"name": "Your Model Name"
}
]
}
}
}
}示例:接入硅基流动 DeepSeek 模型
{
"models": {
"providers": {
"siliconflow": {
"baseUrl": "https://api.siliconflow.cn/v1",
"apiKey": "你的硅基流动API Key",
"api": "openai-completions",
"models": [
{
"id": "deepseek-ai/DeepSeek-V3.2",
"name": "DeepSeek V3.2"
}
]
}
}
}
}对于追求数据隐私、希望完全免费的场景,本地部署是理想选择。本地模型完全离线运行,无 Token 限制、无订阅费用、数据不出设备。
Ollama 是目前最简单易用的本地模型部署工具,支持 Windows、macOS、Linux。
第一步:安装 Ollama
# MacOS / Linux 一键安装
curl -fsSL https://ollama.com/install.sh | sh
# Windows(管理员PowerShell)
winget install Ollama.Ollama第二步:下载并启动模型
# 入门推荐(轻量,1GB)
ollama run qwen2.5:1.5b
# 主流推荐(综合效果,4.7GB)
ollama run qwen2.5:7b
# 推理增强版
ollama run deepseek-r1:7b第三步:验证本地 API 服务
Ollama 默认在 http://localhost:11434 提供 OpenAI 兼容 API,验证命令:
curl http://localhost:11434/v1/models第四步:配置 OpenClaw
编辑配置文件 ~/.openclaw/openclaw.json:
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "no-key",
"api": "openai-completions",
"models": [
{
"id": "qwen2.5:7b",
"name": "Qwen2.5 7B Local",
"contextWindow": 32768,
"maxTokens": 8192
},
{
"id": "qwen2.5:1.5b",
"name": "Qwen2.5 1.5B Local",
"contextWindow": 32768,
"maxTokens": 4096
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen2.5:7b"
}
}
}
}第五步:重启网关
openclaw gateway restartLM Studio 提供图形化界面,适合不熟悉命令行的用户。
第一步:下载安装 LM Studio
访问 https://lmstudio.ai/download,根据系统下载对应版本。
第二步:下载模型
第三步:开启 API 服务
第四步:验证 API 服务
curl http://localhost:1234/v1/models第五步:配置 OpenClaw
{
"models": {
"providers": {
"lmstudio": {
"baseUrl": "http://localhost:1234/v1",
"apiKey": "lmstudio-key",
"api": "openai-completions",
"models": [
{
"id": "qwen2.5-32b",
"name": "Qwen2.5 32B Local",
"contextWindow": 100000,
"maxTokens": 8192,
"cost": {
"input": 0,
"output": 0
}
}
]
}
}
}
}模型规模 | 显存需求 | 适用硬件 | 典型模型 |
|---|---|---|---|
1B-3B | 2-4GB | CPU/低端显卡 | Qwen2.5 1.5B、Phi-3 Mini |
7B-9B | 6-8GB | RTX 3060/4060 | Qwen2.5 7B、DeepSeek 7B |
27B-35B | 16-24GB | RTX 4090/5090 | Qwen2.5 32B、DeepSeek 32B |
量化版本选择建议:
配置主模型和降级模型后,当主模型不可用(如 API 超限、服务中断)时,OpenClaw 自动切换到备用模型,实现高可用。
{
"models": {
"mode": "fallback",
"providers": {
"local": {
"baseUrl": "http://localhost:11434/v1",
"apiKey": "no-key",
"api": "openai-completions",
"models": [
{
"id": "qwen2.5:7b",
"name": "Qwen2.5 7B Local"
}
]
},
"cloud": {
"baseUrl": "https://yuanbao.tencentcloudapi.com/v1",
"apiKey": "sk-xxx",
"api": "openai-completions",
"models": [
{
"id": "hunyuan-turbo",
"name": "混元 Turbo"
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "local/qwen2.5:7b",
"fallback": "cloud/hunyuan-turbo"
}
}
}
}为保护 API Key 安全,建议使用环境变量而非明文写入配置文件。
设置环境变量:
# Linux/MacOS
export YUANBAO_API_KEY="sk-xxx"
export DEEPSEEK_API_KEY="sk-yyy"
# Windows PowerShell
$env:YUANBAO_API_KEY="sk-xxx"配置文件引用:
{
"models": {
"providers": {
"yuanbao": {
"baseUrl": "https://yuanbao.tencentcloudapi.com/v1",
"apiKey": "${YUANBAO_API_KEY}",
"api": "openai-completions"
}
}
}
}根据模型能力,可以配置更详细的参数来优化表现:
{
"models": {
"providers": {
"my-model": {
"baseUrl": "http://localhost:1234/v1",
"apiKey": "xxx",
"models": [
{
"id": "qwen2.5-32b",
"name": "Qwen2.5 32B",
"contextWindow": 100000,
"maxTokens": 8192,
"reasoning": false,
"input": ["text"],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
}
}
]
}
}
}
}参数说明:
contextWindow:模型支持的最大上下文长度,影响记忆能力maxTokens:单次回答的最大 Token 数reasoning:是否支持思考过程(仅部分模型支持)cost:计费参数,本地模型设为 0OpenClaw 提供了非交互式命令行,可在脚本中直接配置模型:
# 添加自定义模型供应商
openclaw onboard \
--auth-choice custom-api-key \
--custom-provider-id my-model \
--custom-base-url http://localhost:8000/v1 \
--custom-model-id qwen2.5-7b \
--custom-api-key "no-key-needed" \
--custom-compatibility openai命令 | 功能 |
|---|---|
| 列出所有已配置模型 |
| 查看当前默认模型 |
| 切换默认模型 |
| 临时使用指定模型对话 |
| 查看模型配置 |
| 修改模型 API 地址 |
# 测试当前模型
openclaw chat --prompt "你是什么模型?请简要介绍自己"
# 指定模型测试
openclaw chat --model yuanbao/hunyuan-turbo --prompt "你好"如果模型正常响应,说明配置已生效。
排查步骤:
openclaw gateway restartcurl -I https://api.deepseek.com/v1发送测试消息,如“你现在调用的模型是什么”,如果 AI 能正常响应并说明模型信息,说明配置成功。也可通过 openclaw models current 命令查看当前使用的模型。
Web 面板中点击右上角模型选择器下拉菜单,或使用命令 openclaw models set 提供商/模型ID。对话内也可直接输入 /model 模型ID 快速切换。
可以。通过配置 fallback 降级模型实现自动切换,或通过对话内手动切换。
因素 | 云端模型 | 本地模型 |
|---|---|---|
成本 | 按量付费/免费额度 | 完全免费 |
性能 | 响应快,算力强 | 取决于本地硬件 |
隐私 | 数据上传云端 | 数据不出本地 |
联网 | 需要网络 | 可完全离线 |
复杂任务能力 | 强(千亿参数) | 较弱(受硬件限制) |
建议组合:日常使用本地模型降成本,复杂任务通过 fallback 自动切换到云端模型。
OpenClaw 的强大之处在于它的“开放性”——不绑定任何模型,让你自由选择最适合需求的“大脑”。无论是追求极致的代码能力(DeepSeek)、优秀的中文理解(腾讯元宝)、数据隐私保护(本地 Ollama),还是零成本长期使用(元宝免费版、豆包),都能找到匹配方案。
配置的核心三步骤:
~/.openclaw/openclaw.json 添加模型提供商openclaw gateway restart 重启生效现在,动手为你养的“龙虾”换个更聪明的大脑吧——让它在文件整理、代码生成、跨应用协同中真正“说到做到”!
注:本文基于 OpenClaw 官方文档及 2026 年 3 月各云厂商公开信息整理。
资源链接:
🔗 相关链接
📂 OpenClaw 技术专栏: 本专栏作者致力于 OpenClaw 技术的生态建设与实战落地。不同于浅层的概念科普,作者坚持 “手算 + 代码” 的深度分享模式,主张通过手动推演理解算法本质,结合生产级代码验证理论可行性。
https://cloud.tencent.com/developer/column/107226
👤 关于作者: 专注技术落地,深耕硬核干货 本文作者致力于 OpenClaw 技术的生态建设与实战落地。不同于浅层的概念科普,作者坚持 “手算 + 代码” 的深度分享模式,主张通过手动推演理解算法本质,结合生产级代码验证理论可行性。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。