首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI大模型

    本地部署中文OpenClaw 教程

    适用场景:在 Windows 本地(PowerShell)一键部署 OpenClaw教程。 安装skills工具参考:OpenClaw 最新必安装 10 个 Skills 步骤 1:安装 OpenClaw 打开 PowerShell。 注意:事件订阅和回调配置建议在openclaw部署完成后统一在飞书后台设置,避免向导卡住。 登录 OpenClaw 管理后台。 检查事件订阅是否为 长连接模式。 确认已添加的事件列表完整。 步骤 7:测试部署是否成功 发送消息给飞书机器人(如 @机器人 你好)。 如果机器人正常回复,则部署成功! 快速排错提示 onboard 卡住或报错 → 检查网络,重新运行 openclaw-cn onboard。

    104K318编辑于 2026-02-22
  • 来自专栏机器学习

    OpenCloudOS部署OpenClaw配置本地Ollama

    上一篇内容我们在OpenCloudOS部署好了OpenClaw,但是还没有配置它的LLM,今天我们在艾克斯开发板上使用Ollama来部署一个小模型。 添加ollama的模型我们在ollama的官网可以看到,它们已经可以很方便的和OpenClaw进行对接了,因此我们按照官网的提示进行配置看看是否可行。 q-url-param-list=x-cos-security-token&q-signature=ca4bb0d1166a139636f5786f98171b95eaee8e2f)>获取的AppID与AppSecret将用于配置OpenClaw host&q-url-param-list=x-cos-security-token&q-signature=0a0158ec25415b76a543381cb2869d068605c513)###配置OpenClaw

    9.4K01编辑于 2026-02-12
  • 来自专栏养虾记

    OpenClaw 本地一键部署指南

    1.概述一键部署脚本是我自己编写的自动化安装工具,可以帮助新手快速完成OpenClaw的完整部署。脚本会自动检测操作系统、安装必要的依赖、配置GPUNexus模型,并生成配置文件。 /openclaw/main/scripts/install-openclaw.sh|bash-s---k"sk-xxxxxxxxxxxxx"-m2或者下载脚本到本地执行:展开代码语言:BashAI代码解释 /install-openclaw.sh2.2Windows用户展开代码语言:PowerShellAI代码解释#方式一:下载脚本到本地执行#1.访问https://raw.githubusercontent.com <spanclass="hljs-built_in">install-openclaw.ps1#方式二:使用参数直接部署. [INFO]提示:onboard会重置并重新配置服务,按Ctrl+C可中断7.验证部署7.1查看配置文件部署完成后,配置文件位于~/.openclaw/openclaw.json。

    7.8K293编辑于 2026-03-09
  • 来自专栏养虾记

    OpenClaw 云端迁移至本地部署指南

    适用场景:OpenClaw最初部署在云端(VPS/服务器),调教完成后迁移到本地机器(Mac/Linux/Windows)继续使用。 1.3本地安装OpenClaw本地机器上安装与云端相同(或更新)版本:展开代码语言:BashAI代码解释#Linux/macOS(npm)npminstall-gopenclaw#验证版本一致openclaw ~/openclaw-restore/#2.查看解压结果ls~/openclaw-restore/#3.备份本地已有的openclaw目录(如果有)mv~/.openclaw~/.openclaw.local.bak2 旧路径是云端的绝对路径(如/root/.openclaw/),本地路径是/Users/yourname/.openclaw/。openclawdoctor会自动修复配置文件中的路径,无需手动修改。 如果只迁移了工作区,需要在本地openclaw.json或环境变量中重新配置。Q4:迁移后模型不工作?A:检查openclaw.json中的模型配置是否正确。

    1.5K610编辑于 2026-03-27
  • 来自专栏内网穿透工具

    谷歌封杀OpenClaw背后:本地部署或是出路

    一、事件回顾OpenClaw让智能体在用户本地设备和各大厂应用之间自由穿梭,自动处理邮件、运行代码、整理数据。 三、替代方案当技术的旷野被巨头砌上高墙,“本地私有化部署”可能不再是可有可无的备选,而会成为企业AI战略的选项。 四、远程连接然而,纯本地部署面临一个现实问题:AI服务跑在内网,员工出差、分支机构和外部合作伙伴如何安全、便捷地使用? 通过内网穿透平台(如ZeroNews)建立的加密隧道,只允许经授权的访问请求到达内网AI服务,本地服务仍部署在企业内网。2. 员工用手机、笔记本,无论身处何地,都能像在内网一样调用部署在公司机房的AI绘图、大模型或OpenClaw智能体,实现真正的“随时随地的生产力”。4.

    72600编辑于 2026-02-25
  • 本地部署OpenClaw硬件要求及安装指南(附云部署步骤)

    OpenClaw作为开源AI助手框架,核心优势在于数据自主、操作闭环,本地部署可满足隐私可控需求,云部署则适配轻量化、规模化使用场景。 一、本地部署OpenClaw硬件要求(分场景适配)OpenClaw硬件需求核心取决于使用场景,分为基础入门、进阶使用、本地模型部署三类,无需盲目追求高端配置,适配即可。 二、本地部署OpenClaw安装指南(3种方式,按需选择)安装核心前提:所有方式均需Node.js22+,一键脚本可自动安装,npm/源码安装需手动确认版本(node--version)。 三、OpenClaw部署步骤(轻量化、易维护)云部署无需关注本地硬件,适配企业规模化使用,步骤简化,核心依托云服务器完成:选择云服务器规格:推荐2核4GB内存、100GBSSD、带宽≥1Mbps,适配基础使用 ;操作系统选择:优先Ubuntu20.04+,兼容OpenClaw所有安装方式;登录云服务器:通过SSH工具连接,确认系统环境(更新软件包:aptupdate-y);安装OpenClaw:参考本地部署

    3.8K60编辑于 2026-03-31
  • 来自专栏工具

    Windows本地部署OpenClaw:避坑指南+最佳实操

    第一章:部署前的核心认知与准备1.1 OpenClaw的工作原理与部署核心逻辑在开始操作之前,理解OpenClaw的工作机制至关重要。 OpenClaw本身是一个“代理框架”,它本身不具备大语言模型的推理能力。它的核心逻辑是“三步闭环”:搭建运行环境:在本地设备上安装Node.js等依赖。 安装OpenClaw核心程序:通过npm或安装脚本获取主程序。配置大模型API:对接云端API(如阿里云百炼)或本地模型(如Ollama),以解锁自然语言理解能力。 网络:部署阶段需联网下载依赖,后续使用若配置本地模型则可离线。1.3 重要提醒:隐私与安全由于OpenClaw具备系统级操作权限,能够读写文件、执行命令,强烈建议在专用设备、虚拟机或云服务器上运行。 # 设置Gateway为本地模式 openclaw config set gateway.mode local # 安装Gateway服务(创建计划任务,实现开机自启) openclaw gateway

    28.8K763编辑于 2026-03-13
  • 来自专栏OpenClaw系列笔记

    Mac 电脑本地部署安装 OpenClaw 小龙虾教程

    部署须知分两种部署方式,云服务器和本地电脑。两种的区别和适应场景简单说明。云端部署适用:需要远程操控(比如工作地不固定)、多用户共享(团队或企业)、弹性扩展或缺乏本地硬件资源的团队/个人。 本地部署适用:追求低延迟响应、或希望完全自主控制硬件与软件的环境、个人爱好玩玩而已。注意点:做好数据备份与物理安全。 如果不打算长期用,自己也没有设备或者设备不方便用,那就选择云端一个月的基础入门款玩一下就行了;如果有空闲设备,那么推荐本地部署,可以更好的控制成本,也便捷。以下是教程! 一、找到安装命令打开Openclaw官网:http://openclaw.ai/,下滑找到下图位置看好是macOS/Linux选项,默认会识别出你的设备。 可以通过命令测试一下:openclaw--version能看到这个就说明是正确的。

    7K200编辑于 2026-03-22
  • OpenClaw(小龙虾)本地部署通用教程(Windows macOS Linux)

    OpenClaw是一个开源的AI自动化代理,可本地部署以执行文件操作、浏览器自动化等任务。以下是WindowsmacOSLinux的本地部署详细教程。 .运行初始化向导展开代码语言:PowerShellAI代码解释openclawonboard根据提示操作:风险提示:输入Yes确认AI将拥有本地文件操作权限。 \openclaw.jsonMacOS部署(终端)1.安装Homebrew若未安装,在终端执行:展开代码语言:BashAI代码解释/bin/bash-c"$(curl-fsSLhttps://raw.githubusercontent.com /openclaw.jsonLinux部署(Ubuntu/Debian)1.更新系统并安装依赖展开代码语言:BashAI代码解释sudoaptupdate&&sudoaptupgrade-ysudoaptinstall-ycurlgit2 如果你对这些都不甚了解,只想快速的安装部署好龙虾,也可以用【Claw大龙虾本地部署大师】来进行快速安装部署好龙虾,然后再结合下面关于配置大模型API的教程就可以。

    24.3K183编辑于 2026-03-24
  • OpenClaw 本地部署报错解决与避坑指南 (2026版)

    如果你按照官方文档在本地部署 OpenClaw,大概率会遇到这三类崩溃。 为什么本地部署这么难? 上述三个坑只是开始。后续的 HTTPS 配置、进程守护、内网穿透才是真正的耗时项。对于只想快速验证 AI 能力的开发者,手动搭建环境的时间成本极高。 结合腾讯云官方教程最佳实践,优先选择轻量应用服务器(Lighthouse),开箱即用、运维成本低,完美适配 OpenClaw 私有化部署需求。 »OpenClaw 专属优惠购买入口:https://cloud.tencent.com/act/pro/lighthouse-moltbot« 腾讯云 Lighthouse 部署实战 Lighthouse 部署方式取决于需求:生产稳定选云端 Lighthouse,深度定制选本地。现在你有了两条都能走通的路。

    7.5K40编辑于 2026-03-06
  • 基于DeepSeek大模型的OpenClaw本地部署与配置指南

    OpenClaw(社区常称“小龙虾”)是一款开源的AI智能体框架,支持多智能体协作、多渠道接入与私有化部署。 本文将详细介绍如何在本地环境中部署OpenClaw,并配置DeepSeek大模型作为其核心推理引擎,帮助你构建属于自己的专属AI助理。 如遇到超时,可尝试:-检查本地网络环境-在配置中增加timeout参数(编辑openclaw.json)-确认DeepSeek服务状态是否正常###6.4Docker环境部署的网络问题如果OpenClaw 调用外部API时无需特殊处理,因为DeepSeek是云端服务;但如果连接本地部署的模型服务,需要确保使用宿主机IP而非localhost。 通过以上步骤,你已经成功完成了基于DeepSeek大模型的OpenClaw本地部署。现在,你可以随时在终端中与AI助手对话,也可以进一步配置消息渠道,让智能体融入日常工作流程。

    3.4K61编辑于 2026-04-02
  • 来自专栏养虾记

    OpenClaw 接入本地 Ollama

    1.概述本手册介绍如何在OpenClaw中配置本地Ollama服务。Ollama是一个开源的本地大语言模型运行框架,支持在本地机器上运行多种开源模型,如Llama、DeepSeek、Qwen等。 适用范围:希望在本地运行AI模型的用户需要离线使用OpenClaw的用户关注数据隐私的用户想要降低API调用成本的用户Ollama的优势:本地运行:数据不离开本地机器,保护隐私离线可用:无需网络连接即可使用开源免费 2.4安装OpenClaw使用npm全局安装OpenClaw:展开代码语言:BashAI代码解释#替换国内的npm源$npmconfigsetregistryhttps://registry.npmmirror.com /#安装OpenClaw$npminstall-gopenclaw验证安装:展开代码语言:BashAI代码解释$openclaw--version3.OllamaAPI说明3.1Ollama简介Ollama 查看配置文件:展开代码语言:BashAI代码解释$cat.openclaw/openclaw.json|greptokenQ6:如何更新模型?

    3.1K40编辑于 2026-03-31
  • 本地 AI 智能体 OpenClaw 安装教程,Windows 一键部署

    Windows一键部署OpenClaw教程|5分钟搭建本地AI智能体,简化环境配置2026年开源领域备受关注的OpenClaw(小龙虾)数字员工,GitHub星标突破28万+,凭借本地运行、零代码操作、 后续将持续更新OpenClaw技能扩展、本地大模型接入、微信/飞书联动等进阶内容,欢迎关注。 一、OpenClaw核心优势OpenClaw快速成长的核心,是解决了技术门槛高、隐私保护弱、功能实用性不足三大问题,零基础用户也可轻松使用:本地运行,数据安全:所有数据存储于本地设备,不联网、不泄露,保障敏感信息安全 八、后续进阶内容预告成功部署OpenClaw,即可告别重复电脑操作,拥有专属AI数字员工。 如果本文对你有帮助,欢迎点赞、收藏、关注,我会持续更新OpenClaw进阶玩法。部署过程中遇到问题,可在评论区留言。

    91030编辑于 2026-04-07
  • 来自专栏【腾讯云开发者】

    OpenClaw本地部署教程和常见问题汇总

    关注腾讯云开发者,一手技术干货提前解锁 周末花了一整天在我的 Mac 电脑上进行 OpenClaw 本地部署以及整理问题。 作为非程序的出身,加上国内环境问题,实现本地部署一个满血版的 OpenClaw ,总的来说对于小白来说相对比较困难,不要太相信网上说十分钟部署好,中间不知道省略多少认证和准备,所以我把自己遇到的问题以及在网上检索到大多数人常遇到的做了一个汇总整理 还能实际操作电脑(读写文件、执行命令、打开应用等) 全天候运行:24/7 待命,睡眠时也能执行任务(参考4.3设置) 持久记忆:可以一直记住之前的对话上下文 主动服务:可以主动发起对话和提醒 开源免费:数据完全本地化 docs.openclaw.ai 官方安装指南:https://docs.openclaw.ai/install 07 结语 OpenClaw 作为一款强大的本地 AI 助手,虽然初始配置有一定门槛,但一旦配置完成 现在每天晚上的乐趣就是看看社区上有没有人利用 OpenClaw 发掘好玩且实用的应用场景,也欢迎大家一同来分享一下~ 猜你所想彩蛋时刻 目前,腾讯轻量云 Lighthouse 已支持秒速部署 OpenClaw

    9.6K35编辑于 2026-03-12
  • 来自专栏上海同盟品牌活动专栏

    基于OpenCloudOS部署OpenClaw

    初始界面如下我们这里采用有线的方式进行连接,这样后面我们运行OpenClaw会稳定一些。查看本机IP,方便我们后面通过其他系统通过ssh进行操作。 安装OpenClaw安装Node.js运行一下命令安装curl展开代码语言:TXTAI代码解释sudoyum-yinstallcurl```! 可以输入以下命令进行查看`nvmls-remote`验证nodejs版本nvmuse24node-v展开代码语言:TXTAI代码解释验证npm的版本npm-v展开代码语言:TXTAI代码解释###**安装****openclaw **运行如下命令自动安装curl-fsSLhttps://openclaw.ai/install.sh|bash展开代码语言:TXTAI代码解释输入密码后等待安装必要依赖! 因为我们是通过ssh访问的,因此需要做一下端口映射ssh-N-L18789:127.0.0.1:18789tango@192.168.1.80`输入密码后,再次在浏览器中输入就能看到如下画面了,恭喜你完成了OpenClaw

    1.5K00编辑于 2026-02-12
  • 来自专栏拓端tecdat

    轻量级本地AI代理Nanobot部署OpenClaw替代方案实践|附代码教程

    本地AI代理部署与隐私保护实践从数据科学的视角看,我们在日常工作中常常需要一个既能保护隐私又能高效执行任务的智能助手。过去,这类工具往往体积庞大,部署复杂,让很多从业者望而却步。 基于此,我们将项目中的技术沉淀整理成本文,介绍一款体积比同类工具小98%却功能完整的本地AI代理—— Nanobot ,通过实际部署和功能扩展的案例,展示其在数据工作中的应用价值。 部署流程图什么是NanobotNanobot是一款轻量级的本地个人AI代理,作为同类工具OpenClaw 的替代方案,它最大的特点是体积缩小了98%,却保留了核心的代理功能。 部署前的准备在开始部署之前,我们需要准备几样东西:电脑上安装 Python 3.11 或更高版本(支持Mac、Windows、Linux系统);一个模型提供商的API密钥,比如OpenRouter、OpenAI 分步部署本地研究代理我们来构建一个能在Telegram里运行、可以搜索网络、记得我们兴趣的代理。安装Nanobot现在安装Python工具常用的方式是用pip或uv,这样能和系统Python隔离开。

    2K00编辑于 2026-03-05
  • 来自专栏openclaw系列

    OpenClaw 2026 完整教程:从零开始部署你的本地AI智能体

    导语:在2026年,OpenClaw已成为最受欢迎的本地AI智能体框架之一。 核心能力:将你熟悉的聊天工具(如飞书、微信、Telegram)或本地界面连接到AI编程代理,让AI不仅能“说”,更能“做”。关键优势:数据完全本地化:所有处理都在你的电脑上完成,隐私安全有保障。 MCP/ACP协议:OpenClaw内部各组件通信的标准协议。第二章:安装与部署(Windows一键版)对于大多数用户,尤其是新手,强烈推荐使用2026年最新的一键安装包。 本地模型:如果你有高性能GPU,也可以运行如Llama3等开源模型,并通过llama.cpp或Ollama提供的API接入。 响应缓慢:原因:可能是模型API响应慢,或本地资源不足。解决:检查网络连接,关闭其他占用资源的程序,或尝试更换更快的模型。总结通过本教程,你应该已经成功在自己的电脑上部署并初步使用了OpenClaw

    4.7K202编辑于 2026-04-14
  • OpenClaw最新本地部署 + 腾讯云COS集成:让AI帮你管理云存储

    ​ 一、什么是 OpenClawOpenClaw(也被称为“小龙虾”)是一个开源的个人 AI 助手框架。 为什么需要OpenClaw + 云存储OpenClaw 在执行任务时会产出大量文件——无论是生成的图片、整理的报告,还是处理的视频素材。 如果只用本地存储,云服务器有限的硬盘很快会被占满,而且文件散落在服务器里,查看和分享都很麻烦。接入腾讯云 COS 后,OpenClaw 可以把所有产出自动存放到云端。 配置操作系统Windows 10 专业版Node.jsv24.14.1npm10.x终端工具命令行提示符 或 Windows Power Shell对象存储腾讯云COS2.2 为什么选择 Win10 + npm部署 考量因素说明用户群体大多数个人用户使用的是 Windows 10 系统,本文针对性适配技术门槛npm 命令简单,Node.js 生态成熟,对新手非常友好成本优势本地部署零成本,无需购买云服务器三、开始安装步骤

    31210编辑于 2026-04-14
  • 来自专栏openclaw系列

    vLLM本地大模型部署实战:OpenClaw 与 OpenAI 兼容 API 的深度集成

    引言:本地AI推理的新纪元在人工智能技术快速演进的2026年,大模型推理已经从云端专属走向了本地部署的新阶段。 与此同时,OpenClaw作为现代化的AI客户端工具,通过与vLLM的深度集成,为开发者提供了无缝的本地模型使用体验。 本文将深入探讨如何通过OpenClaw连接和使用本地vLLM服务器,涵盖从基础配置到高级优化的完整技术栈。 基础配置配置OpenClaw以连接到本地vLLM服务器。 (model_id,user_message)5.3模型性能监控与优化对本地部署的模型进行性能监控和持续优化。

    1.4K21编辑于 2026-03-21
  • 来自专栏玩转Lighthouse

    🔥🔥🔥玩转OpenClaw|使用OpenClaw一键部署Hermes

    将 Hermes Agent 部署在云服务器中,不仅能实现与本地电脑的安全隔离,还能实现7×24小时不间断在线。你也能够随时随地通过QQ、企业微信、钉钉、飞书等聊天软件与它交互,并不受限于本地电脑。 如果你之前部署OpenClaw或者有其他的Claw类Agent, 可以使用本教程让OpenClaw帮你部署Hermes Agent。 并完成OAuth 授权在Lighthouse中部署Hermes Agent在OpenClaw中输入如下提示词, 即可完成Hermes Agent部署 Step 2 购买服务器 使用tencentcloud-infra :Hermes 部署在 agentuser 用户下(不是 root)请用agentuser用户启动和重启服务,所有配置文件都在:/home/agentuser/.hermes/ 模型配置从本机的 openclaw.json Hermes Agent玩转OpenClaw|云上OpenClaw快速接入飞书指南

    2.5K37编辑于 2026-04-20
领券