
最近爆火的OpenClaw(昵称“大龙虾”)凭借跨平台联动和自动化任务处理能力圈粉无数,但很多用户在部署时频频踩坑:模型适配难、Token消耗高、配置步骤繁琐、隐私安全无保障……
为了帮大家一站式解决所有问题,我们整理了一份完整的部署方案,覆盖Windows和Mac双系统,通过专属上下文缓存优化,不仅能大幅降低Token使用成本,还能实现端到端隐私闭环。

重要安全提示:OpenClaw具备系统级操作权限,建议全程在隔离环境中运行。数眼智能已针对Agent场景做了安全指令加固,可有效降低恶意指令执行风险,请务必遵循最小权限原则配置。
1. 系统环境依赖配置
部署前请先确认电脑已安装以下基础工具:
打开终端(Mac)或PowerShell(Windows),分别输入以下命令校验是否安装成功:
node -v
git --version如果未安装,直接前往对应工具官网下载对应系统版本,一键安装即可。
2. API凭证获取
这是实现模型对接的核心环节。数眼智能为新用户提供了充足的调试福利,全程零成本即可上手。

步骤1:OpenClaw核心程序安装
1、以管理员身份启动Windows PowerShell:开始菜单搜索PowerShell,右键选择「以管理员身份运行」,避免权限不足导致安装失败。
2、执行全局安装命令:
npm i -g openclaw3、安装完成后,执行版本校验命令确认安装结果:
openclaw -v终端输出版本号即代表安装成功。若报错,优先检查Node.js版本是否符合要求、是否以管理员身份运行。
步骤2:初始化配置全向导拆解
执行初始化命令,进入可视化配置流程:
openclaw onboard1、安全须知确认:阅读OpenClaw官方安全风险提示后,用左右方向键选择「Yes」进入下一步。
2。配置模式选择:推荐选择「QuickStart 快速开始」,基础配置一键完成。后续可通过openclaw configure命令自定义高级配置。
3、已有配置处理:若检测到历史配置,选择「Reset 重置」,避免旧配置冲突。
4、重置范围选择:选择「Full reset 全量重置」,清空所有历史数据,保证全新环境部署。
5、模型服务商选择:选择「Skip for now 暂不配置」。官方默认列表无数眼智能专属适配通道,后续通过可视化工具完成一键对接,兼容性更强。
6、API密钥配置:直接按回车跳过,后续统一配置数眼智能专属凭证。
7、默认模型选择:直接按回车保持默认,后续会替换为数眼智能广场模型。
8、消息渠道选择:根据使用需求选择对应的聊天渠道,支持飞书、钉钉、Telegram等。本教程以飞书为例,选中「Feishu/Lark 飞书」。
9、飞书插件下载:选择飞书后,点击回车选择「Download from npm」下载相关插件。
10、飞书凭证配置:下载完成后输入飞书开放平台自建应用的App ID与App Secret,按回车系统自动完成连通性测试。
11、飞书连接配置:直接回车选择「WebSocket」。
12、飞书版本选择:国内用户选择「Feishu (feishu.cn) - 国内版」,海外用户选择Lark国际版。
13、群聊响应策略:推荐选择「Open - 全群响应(需@触发)」,即可在所有加入的群聊中使用;也可选择白名单模式,仅在指定群聊响应。
14、技能插件配置:选择「No 暂不配置」,后续可根据需求按需安装对应技能插件。
15、自动化钩子配置:上下方向键切换,空格键勾选所有核心钩子,勾选完成后按回车。可实现启动自动执行、操作审计、会话记忆持久化等核心优化。
16、网关服务重启:选择「Restart 重启」,等待服务重启完成,OpenClaw基础部署即全部完成。
步骤3:数眼智能模型对接(Cherry Studio可视化配置)
这一步是实现OpenClaw与数眼智能模型深度适配的核心环节。通过Cherry Studio可视化客户端完成配置,无需手动修改复杂配置文件。
1、下载安装Cherry Studio:前往官网https://www.cherry-ai.com/,下载对应系统版本,完成安装并打开。
2、进入配置面板:点击客户端右上角「设置」按钮,切换至「模型服务」板块,然后点击底部的「添加」按钮。
3、配置数眼智能模型通道:自定义名称为「数眼智能」,选择OpenAI兼容协议。
4、填写核心配置信息:
5、填写完成后,点击「连通性检测」,显示「连接成功」即代表配置完成。
步骤4:OpenClaw服务启动与效果验证
1、点击Cherry Studio左上方+号,找到「OpenClaw」入口,点击打开客户端面板。
2、在模型选择下拉框中,选中已配置的数眼智能对应模型。
3、核对安装路径、配置文件无误后,点击「启动」按钮,等待10-20秒,服务状态显示「运行中」即代表启动成功。
4、启动完成后,即可在之前配置的飞书等渠道,@机器人触发对话。
配置文件基础
OpenClaw的核心配置存储在~/.openclaw/openclaw.json文件中。所有的模型配置、渠道接入和系统设置都在这个JSON格式的文件中进行管理。
将以下内容复制并合并到你的文件中(注意替换你的API Key和模型ID。以下示例以kimi-k2.5为例):
{
"models": {
"providers": {
"shuyanai": {
"baseUrl": "https://platform.shuyanai.com/v1",
"apiKey": "sk-你的KEY",
"auth": "api-key",
"api": "openai-completions",
"models": [
{
"id": "kimi-k2.5",
"name": "kimi-k2.5",
"api": "openai-completions",
"reasoning": false,
"input": [
"text",
"image"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 64000,
"compat": {
"thinkingFormat": "openai",
"requiresMistralToolIds": false
}
}
]
}
},
"bedrockDiscovery": {
"providerFilter": []
}
}
}将openclaw.json中的agents配置项中修改成以下形式:
{
"agents": {
"defaults": {
"model": {
"primary": "shuyanai/kimi-k2.5"
},
"models": {
"shuyanai/kimi-k2.5": {
"alias": "kimi-k2.5"
}
},
"workspace": "用户文件夹/.openclaw/workspace",
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
}
}
}
}配置完成后,你可以通过以下方式验证和管理模型:
重启服务:
openclaw gateway restart查看可用模型列表:
openclaw models listopenclaw doctor命令来诊断JSON格式或字段错误。当然,再详细的指南也难免遇到意外。这时候不妨把问题交给AI——把报错信息复制进去,它通常能给出比搜索引擎更直接的解决方案。也可以直接进群向我们询问哦~
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。