
最近几个月,OpenClaw 这个开源项目真的火出圈了。身边好几个朋友都在问:“这玩意儿到底怎么装?能不能在飞书里用?”说实话,一开始我也被它的文档绕晕过——一会儿要配 Node.js,一会儿又是 Git、PowerShell 权限、飞书回调地址……但折腾几次之后,发现其实只要踩对坑,整个过程比想象中简单得多。
今天我就把我在 Windows 10 上从零开始部署 OpenClaw,并成功接入飞书的全过程,毫无保留地写出来。不玩虚的,全是实操步骤,连“为什么卡在这一步”的坑我都给你标清楚。哪怕你是第一次接触命令行的小白,照着做也能跑起来。
别急着开干,先看看你的电脑符不符合基本要求:
另外,你需要:
OpenClaw 是基于 Node.js 开发的,所以第一步必须装好它。
打开 Node.js 官网 1,点击绿色的 “Windows Installer (.msi)” 下载安装包(推荐 LTS 版或最新版,目前我用的是 v24.13.0)。

image-20260309220535883

image-20260309220642971

image-20260309220752310
安装时最关键的一点: ✅ 务必勾选 “Add to PATH” 和 “Automatically install the necessary tools” 这两个选项决定了后面能不能顺利运行命令。其他一路默认下一步就行。
装完后,打开 PowerShell(以管理员身份运行),输入:
node -v
npm -v如果看到类似 v24.13.0 和 10.5.0 的版本号,说明装好了。

image-20260309220850146
⚠️ 注意:有些老教程说用 Node.js 18 或 20,但实测 OpenClaw 最新版(2026.3)在 Node 24 上最稳,低于 22 可能直接报错。
去 Git 官网 2 下载安装包。国内网速慢是常态,耐心等。

image-20260309220947275

image-20260309221022719
一路下一步
安装过程中,在 “Adjusting your PATH environment” 这一步,选择:
Git from the command line and also from 3rd-party software
这样 PowerShell 才能识别 git 命令。
装完同样验证一下:
git --version看到版本号就 OK。

image-20260309221148054
Windows 默认禁止执行远程脚本,所以我们得先放行。

image-20260309221228370

image-20260309221255639

image-20260309221347968
在 管理员权限的 PowerShell 中执行:
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass系统会问你是否确认,输入 Y 回车就行。

image-20260309221444190
这一步做完,后面才能顺利运行安装脚本。
现在主角登场。
iwr -useb https://openclaw.ai/install.ps1 | iex装完后验证:
openclaw --version看到版本号(比如 2026.3.8)就说明成功了。

image-20260309225438719
接下来运行配置向导:
openclaw onboard --install-daemon
image-20260309225531911
这里有几个选择,务必按我说的选,不然容易翻车:
1、打开网址:https://bailian.console.aliyun.com/cn-beijing/#/home
2、登录账号
3、订阅基础套餐,首月7块

image-20260309234937747

image-20260309235008658

image-20260309235027660
开始配置龙虾

image-20260309230510935
1. 复制以下内容到Raw JSONS输入框,替换已有内容。
若需保留已有配置,请勿直接全量替换,详见已有配置如何安全修改?
2. 将YOUR_API_KEY替换为Coding Plan 专属 API Key。
{
"models": {
"mode": "merge",
"providers": {
"bailian": {
"baseUrl": "https://coding.dashscope.aliyuncs.com/v1",
"apiKey": "YOUR_API_KEY",
"api": "openai-completions",
"models": [
{
"id": "qwen3.5-plus",
"name": "qwen3.5-plus",
"reasoning": false,
"input": ["text", "image"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 1000000,
"maxTokens": 65536
},
{
"id": "qwen3-max-2026-01-23",
"name": "qwen3-max-2026-01-23",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 262144,
"maxTokens": 65536
},
{
"id": "qwen3-coder-next",
"name": "qwen3-coder-next",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 262144,
"maxTokens": 65536
},
{
"id": "qwen3-coder-plus",
"name": "qwen3-coder-plus",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 1000000,
"maxTokens": 65536
},
{
"id": "MiniMax-M2.5",
"name": "MiniMax-M2.5",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 196608,
"maxTokens": 32768
},
{
"id": "glm-5",
"name": "glm-5",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 202752,
"maxTokens": 16384
},
{
"id": "glm-4.7",
"name": "glm-4.7",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 202752,
"maxTokens": 16384
},
{
"id": "kimi-k2.5",
"name": "kimi-k2.5",
"reasoning": false,
"input": ["text", "image"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 262144,
"maxTokens": 32768
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "bailian/qwen3.5-plus"
},
"models": {
"bailian/qwen3.5-plus": {},
"bailian/qwen3-max-2026-01-23": {},
"bailian/qwen3-coder-next": {},
"bailian/qwen3-coder-plus": {},
"bailian/MiniMax-M2.5": {},
"bailian/glm-5": {},
"bailian/glm-4.7": {},
"bailian/kimi-k2.5": {}
}
}
},
"gateway": {
"mode": "local"
}
}养虾成功

image-20260309230942682
• 在当前会话切换模型(临时有效)
在终端输入openclaw tui,进入 TUI 界面,使用 /model <模型名称> 在当前会话中切换模型。
/model qwen3-coder-next界面返回提示“model set to qwen3-coder-next” 即表示生效。
• 切换默认模型(永久有效)
如需在每次新会话中使用指定模型,修改 agents.defaults.model.primary 字段为目标模型。请参考修改配置文件。
{
"agents": {
"defaults": {
"model": {
"primary": "bailian/qwen3.5-plus"
}
}
}
}现在我们来手动接入飞书。

image-20260309231304211

image-20260309231339214

image-20260309232452991

image-20260309232005269
im:messageim:resourcecontact:user.read
image-20260309232200548

image-20260309232554241
回到 PowerShell,运行:
openclaw configure
image-20260309232708534

image-20260309232738577

image-20260309232831440

image-20260309232947457
输入飞书的AppID,AppSecrect:

image-20260309233307223

image-20260309233424346

image-20260309233605676

image-20260309233642416
保存退出。
然后重启 OpenClaw 服务(或者直接关掉 Web UI 再重新运行 openclaw onboard)。

image-20260309233845544

image-20260309233859322

image-20260309233922826

image-20260309233947276

image-20260309234019515

image-20260309234133478

image-20260309234310596
OpenClaw 不是玩具,它真能帮你干活。我上周让它自动整理了三个月的会议纪要,省了我至少五个小时。而且所有数据都在你本地,不像某些云服务偷偷传数据。
当然,它也有局限——比如需要一直开机、依赖大模型 API(可能有费用)、操作电脑有风险(所以它才让你确认“yes”)。但只要你理解这些,它就是你数字生活里的“贾维斯”。
如果你照着这篇教程走通了,不妨试试给它装几个 Skill(比如邮件处理、日程管理),玩法多得很。
觉得有用?别藏着掖着,转发给那个总喊“AI 太难搞”的同事,让他也体验一把什么叫“一句话搞定”。
关注我,带你玩转更多硬核又实用的运维/AI 工具!