为什么要纯本地运行? ollamapullqwen2.5:7b#如果内存充足(16GB+)ollamapullqwen2.5:32b步骤3:安装HermesAgent展开代码语言:BashAI代码解释curl-fsSLhttps://hermes-agent.org 如果本地电脑配置不够,可以在云服务器上运行Ollama。 Q2:AppleSiliconMac运行Ollama的效果如何?A:M1/M2/M3Mac运行Ollama效果非常好,GPU加速开箱即用。16GBM2Mac可以流畅运行14B模型。 Q3:Ollama支持同时运行多个模型吗?A:支持,但每个模型都会占用内存。建议同时只加载1-2个模型。
Hermes Agent本地部署完全指南:从零到一,手把手教你“养马”(附完整案例) Hermes Agent(爱马仕)是2026年最火的AI智能体项目,GitHub星标突破6.6万,登顶全球编程应用榜首 关键词:Hermes Agent、爱马仕、本地部署、WSL2、AI智能体、自我进化、微信接入、模型配置标签:#HermesAgent #爱马仕 #本地部署 #AI智能体 #WSL2 #微信机器人 写在前面 优势说明数据隐私所有对话记录、记忆、技能文件存储在本地,不上传云端成本可控可接入本地Ollama模型,零API成本;或选择低成本API7×24小时运行部署在本地服务器或NAS上,全天候待命完全掌控可自由修改配置 解决方案:Hermes Agent不支持原生Windows。先安装WSL2,然后在WSL2中运行安装命令。坑2:模型未被识别,名称显示为空现象:启动后模型名称为空。 hermes setup,接入API或本地Ollama5分钟微信接入运行hermes gateway setup,扫码绑定5分钟实战体验让Hermes执行任务,观察自我进化15分钟总耗时:约45-60分钟
上周我发表了关于摆脱云端的文章,本周我将关注在我的 Mac 本地运行开源 LLM。 除了不必支付他人服务器的运行成本外,你还可以在不担心安全问题的情况下运行对私有数据的查询。 为此,我使用的是 Ollama。这是“一个允许你在本地机器上运行开源大型语言模型 (LLM) 的工具”。 如果你正在寻找作为测试工作流一部分的 LLM,那么 Ollama 就是适合的选择: @patrickdubois 的 GenAI 测试演示 对于测试来说,从 Ollama 控制的本地 LLM 是很好的自包含系统 我假设我需要先安装该模型,但运行命令已经搞定了: 看着 llama2 7b 模型的规格,我远非肯定我的古老的 M1 之前的 MacBook,只有 8 GB 内存,甚至能否运行它。 Ollama 将自己设置为本地服务器,端口为 11434。我们可以通过一个快速的 curl 命令来检查 API 是否响应。
Ollama Ollama, 羊驼,快速的在本地电脑上运行大模型,只需要下载一个应用包即可,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型,无需安装额外的环境依赖和编译等操作。 运行 打开cmd,输入ollama run {模型名称},如,运行glm4-9b,则执行 ollama run glm4:9b 如果之前没有下载该模型,那么系统会首先下载模型,下载后运行,其中下载速度还是很快的 8G显存在运行9B模型的时候,非常丝滑,在运行14B模型的时候,类似打字机一样,比较慢。 常用命令 获取模型 ollama pull llama3 运行模型 ollama run llama3 移除模型 ollama rm llama3 多模态 What's in this image? /Users/jmorgan/Desktop/smile.png 显示模型信息 ollama show llama3 罗列已安装模型 ollama list 后端运行服务 ollama serve 下节整合
第一部分:准备工作(10分钟)1.1 选择部署方式Hermes Agent不依赖本地电脑,推荐部署在云服务器上,实现7×24小时在线。 )免费★★★☆☆技术爱好者、本地测试 新手推荐:选择阿里云轻量应用服务器,预装Hermes Agent镜像,买完就能用,不用自己配环境。 1.2 购买云服务器(以轻量应用服务器为例)操作步骤:访问阿里云轻量应用服务器购买页面镜像选择:【应用镜像】→【Hermes Agent】实例配置:内存≥2GiB(推荐2核4GiB,199元/年)地域选择 阿里云轻量应用服务器2核2G配置最低38元/年,性价比极高。 ⚠️ 第七部分:避坑指南坑1:Windows用户直接安装失败现象:安装脚本报错。原因:Hermes Agent不支持原生Windows。 解决方案:先安装WSL2,然后在WSL2中运行安装命令。或直接使用阿里云轻量应用服务器部署。坑2:2GB内存服务器卡顿现象:响应慢,甚至卡死。
本地跑Hermes+Qwen3.5-27B全流程踩坑记录(低配显卡也行)用集成显卡的普通笔记本,通过OllamaCPU推理+WSL环境,搭建本地大模型Agent平台并打通toolcalling的完整实战记录 选型:模型:Qwen3.5-27B(Q4_K_M量化,17GB显存)推理引擎:OllamaAgent框架:Hermes运行环境:Windows11+WSL2(Ubuntu)整个过程中踩了不少坑,这篇把关键问题和解决方案都记录下来 ,给同样在折腾本地Agent的朋友避坑。 希望这篇能帮到正在折腾本地大模型Agent的朋友。有问题欢迎评论区交流。 环境:Windows11+WSL2Ubuntu|集成显卡8060s|OllamaCPU推理+Hermes+Qwen3.5-27B-Q4
方案一:先用Ollama把Hermes跑通这套方案适合什么场景想先用最短路径把HermesAgent跑起来想直接接本地模型或OllamaCloud不想一开始就手动改太多配置Hermes和Ollama现在已经有官方集成页 cloud模型)自动把Hermes指到Ollama本地接口可选地继续接消息网关,最后进入Hermes对话Ollama官方目前给Hermes推荐的模型里,cloud方向包括:kimi-k2.5:cloudglm 如果你要纯本地运行有些场景不适合云端模型,比如:数据不能离开内网希望完全离线不想引入额外API成本只是想先在自己机器上试清楚这时可以让Hermes直接接本地Ollama。 Hermes官方配置文档里,把Ollama归在“本地OpenAI兼容服务”这一类。 纯本地模式的硬件判断可以粗略这样看:场景建议配置轻量试用8GB内存起步,先跑小模型日常开发16GB以上更稳更大模型/更长上下文优先看显存和内存,而不是只看CPU如果你是AppleSilicon,Ollama
:通过Ollama运行Llama、Mistral等开源模型可以为不同类型的任务指定不同模型,实现成本和效果的最优平衡。 )支持模型200+消息平台14+内置工具40+开源协议MIT(可商用)运行环境macOSLinuxWSL2/Termux数据存储本地SQLite社区贡献者207+发布节奏约两周一个版本安装与部署本地安装 云端部署(推荐7×24在线场景)推荐使用腾讯云Lighthouse轻量应用服务器部署,最低2C2G配置即可流畅运行。 \-p3000:3000\nousresearch/hermes-agent:latest纯本地运行(Ollama+零API成本)展开代码语言:BashAI代码解释ollamapullqwen2.5:7b :https://github.com/nousresearch-hermes-agent/hermes-agent中文社区:https://hermesagent.org.cn中文文档:https:/
运行HermesAgent展开代码语言:BashAI代码解释dockerrun-d\--namehermes-agent\--restartunless-stopped\-v~/.hermes:/root :image:nousresearch/hermes-agent:latestcontainer_name:hermes-agentrestart:unless-stoppedports:-"3000: -20260413.tar.gz-C/日志管理展开代码语言:BashAI代码解释#查看实时日志dockerlogs-fhermes-agent#查看最近100行dockerlogs--tail100hermes-agent 配置即可流畅运行,7×24小时在线,随时随地通过手机与你的AI智能体互动。 Q3:如何在Docker内使用Ollama本地模型?A:可以在同一台服务器上运行Ollama容器,通过Docker网络让HermesAgent容器访问。
一键安装HermesAgent展开代码语言:BashAI代码解释curl-fsSLhttps://hermes-agent.org/install.sh|bash安装脚本会自动:检查系统环境创建Python ://hermes-agent.org/install.sh|bash步骤3-4:同上展开代码语言:BashAI代码解释hermesinithermesstart验证安装展开代码语言:BashAI代码解释 hermes--version#查看版本hermesstatus#检查运行状态hermeschat#进入交互式对话升级到云端本地安装适合体验和开发场景。 建议先用curl-fsSLhttps://hermes-agent.org/install.sh|less审查脚本内容。Q2:安装后配置文件在哪里? A:所有配置和数据存储在~/.hermes/目录下,包括config.yaml、记忆数据库、技能文件等。Q3:可以同时安装多个HermesAgent实例吗?A:同一台机器上通常只运行一个实例。
安装与设置 Hermes Agent 可在 Linux、macOS 和 WSL2 上运行。Windows 用户需要先安装 WSL2。 工具运行时:跨六种终端后端执行工具(本地、Docker、SSH、Daytona、Singularity、Modal)。 ACP 集成:Agent 通信协议,用于外部工具集成(代码编辑器、IDE)。 OpenAI:GPT-5.4、GPT-5.4 Thinking Nous Portal:针对 Agent 使用优化的 Hermes 模型 Ollama:本地模型(Gemma 4、Llama 4、Qwen 部署选项: 本地开发:直接在 macOS/Linux/WSL2 上运行 VPS/云服务器:在 DigitalOcean、AWS、GCP、Azure 上运行 Docker:使用官方镜像进行容器化部署 Modal Linux/WSL2:pip install hermes-agent。然后运行 hermes init 配置 LLM 提供商和通道。 自我改进循环如何工作?
记忆与学习——Hermes结构性领先。OpenClaw的记忆实现比较朴素:每个Assistant在工作区维护MEMORY.md和按日期组织的记忆文件,本质是纯文本持久化。 OpenClaw支持Claude、GPT、Gemini、DeepSeek及本地模型(通过Ollama)。 微软建议不要在标准个人或企业工作站上运行OpenClaw。Hermes截至2026年4月,零Agent相关CVE。 Hermes可以配合Ollama和本地模型实现完全气隙部署,不依赖任何云端API。零CVE的安全记录对合规审计也是加分项。 OpenClaw的架构虽然也能本地部署,但历史上的安全事件会让合规审计团队非常不舒服。场景D:复杂多Agent编排。
为什么你需要在Windows上运行HermesAgent? )中等(需先配置WSL2)兼容性良好(90%+功能正常)✅极佳(近乎原生Linux)本地模型支持支持Ollama/LMStudio完整支持Ollama+Docker浏览器自动化直接调用WindowsChrome 步骤2:执行官方安装脚本展开代码语言:PowerShellAI代码解释irmhttps://raw.githubusercontent.com/NousResearch/hermes-agent/main /scripts/install.ps1|iex脚本会自动:安装Python3.10+、Git、Node.js、ripgrep克隆仓库到%LOCALAPPDATA%\hermes\hermes-agent (本地运行Llama3.1/Mistral等)#provider:ollama#model_name:"llama3.1:8b"#base_url:"http://localhost:11434"2.工具启用
OpenClawvs☤Hermes:两种“能动手的AI”,两条路线如果把Agent当成“数字员工”,那OpenClaw更像坐在你电脑旁、随叫随到的本地助理:它强调“接入你常用的聊天入口、把能力变成可安装的技能 Hermes则更像能长期在服务器上跑、越用越顺手的工程队友:它强调“长期运行、定时任务、强隔离的沙箱执行,以及会把成功经验沉淀成技能文档,让自己越来越熟练”。 provider(如ollama/lmstudio)可接自建endpoint/多provider(更偏环境可迁移)差别为什么会“越用越明显”(三句话抓重点)记忆:OpenClaw更像“本地笔记本”;Hermes 相对“纯聊天”风险更高,因为它们能动手。正确姿势:最小权限起步,逐步放权;群聊/陌生DM/外部网页内容要格外谨慎。2)需要会编程吗? |https://hermes-agent.nousresearch.com/docs/user-guide/features/skills|https://hermes-agent.nousresearch.com
Ollama是一个轻量级、可扩展的框架,用于在本地机器上构建和运行大型语言模型(LLM)。它提供了一个简单的API来创建、运行和管理模型,以及一个预构建模型库,可以轻松用于各种应用程序。 Ollama的优势包括: 易于使用: Ollama提供了一个简单的API,即使是没有经验的用户也可以轻松使用。 轻量级: Ollama的代码简洁明了,运行时占用资源少。 Ollama的出现,使得在本地运行大型语言模型变得更加容易和方便。这对于以下用户群体来说非常有价值: 研究人员: Ollama可以帮助研究人员快速原型化和测试新的LLM模型。 代码生成: Ollama可以用于生成代码,例如Python代码、JavaScript代码等。 Ollama是一个非常有用的项目,它为本地运行大型语言模型提供了一个简单、轻量级和可扩展的解决方案。 性能: Ollama运行速度快,占用资源少,即使在低配机器上也能流畅运行。 功能: Ollama支持多种模型架构和任务,可以满足用户的各种需求。
无论是本地部署还是云端服务,Ollama的简洁设计和完备功能确保了LLM的无缝集成和高效运行。用户可以轻松调用各种计算资源,如GPU加速等,充分释放模型的算力潜能。 通过本地化运行和数据加密等策略,确保了对话内容和用户数据的完全保密,有效回应了人们对数据安全日益增长的忧虑。在一些涉及敏感信息或隐私法规的领域,Ollama无疑是LLM部署的最佳选择。 Ollama 开源项目独有的优势 运行Ollama的优势众多,它是一个备受欢迎的开源项目,提供了在本地部署和运行大型语言模型的能力。 3、灵活的部署选项 Ollama提供了便捷的docker容器,使我们可以在本地运行LLM,而无需担心繁琐的安装过程。 本地运行 Ollama 基本操作步骤 1.
WSL2在Windows内核上运行一个完整的Linux内核,为你提供了一个与Ubuntu等发行版几乎无异的开发环境,是目前在Windows上运行HermesAgent唯一可靠且官方推荐的方式。 步骤2:设置WSL2为默认版本重启后,再次打开PowerShell(普通用户即可),运行:展开代码语言:PowerShellAI代码解释#将WSL2设置为默认版本wsl--set-default-version2 在Ubuntu终端中粘贴并运行:展开代码语言:BashAI代码解释curl-fsSLhttps://raw.githubusercontent.com/NousResearch/hermes-agent 配置完成后,你可以通过hermes命令直接与Agent对话,测试其基本功能。避坑提示:网络问题:如果curl命令卡住或失败,很可能是网络问题。请确保你的WSL2能正常访问GitHub。 权限问题:不要在WSL2中使用sudo来运行hermes命令,这可能导致权限混乱。始终以普通用户身份运行。
stars today •中文摘要:展示端侧机器学习与生成式 AI 用例的示例集,强调模型本地运行与 on-device ML/GenAI 体验。 NousResearch / hermes-agent •链接:https://github.com/NousResearch/hermes-agent[8] •Star:27,317 •新增 stars •中文摘要:本地运行 Kimi、GLM、DeepSeek、Qwen、Gemma 等模型的主流基础设施,依然是本地 AI 生态的核心入口之一。 NousResearch / hermes-agent •链接:https://github.com/NousResearch/hermes-agent[23] •Star:27,317 •新增 stars NousResearch / hermes-agent •链接:https://github.com/NousResearch/hermes-agent[33] •Star:27,317 •新增 stars
(适合个人使用)进阶版:4C4G(接入多个IM平台)高性能版:4C8G(运行本地模型)系统镜像选择Ubuntu22.04LTS确认购买步骤2:SSH登录服务器展开代码语言:BashAI代码解释sshroot @你的服务器IP步骤3:安装HermesAgent展开代码语言:BashAI代码解释curl-fsSLhttps://hermes-agent.org/install.sh|bashhermesinit 推荐配置方案使用场景推荐配置费用参考个人AI助手2C4G5M188元/年(同价续费1次)多平台+定时任务4C4G3M99元/年(产品首购价)运行本地模型(Ollama)4C8G10M630元/年(产品首购价 )立即前往腾讯云官网选购HermesAgent专属云服务器腾讯云为HermesAgent用户提供专属优惠云服务器方案,最低2核4G配置即可流畅运行,7×24小时在线,随时随地通过手机与你的AI智能体互动 Q2:服务器到期数据会丢失吗?A:到期前会有续费提醒。建议开通自动续费,并定期备份~/.hermes/目录。Q3:可以在一台Lighthouse上运行多个服务吗?A:可以。
OpenClaw 采用云端 + 本地的混合存储模式,部分数据(如对话历史、模型调用记录)会经过云端。对于企业用户或处理敏感项目的开发者来说,这是一个隐忧。 更极端地,你可以用 Ollama 运行本地模型,实现零 API 成本。转移不是非黑即白需要强调的是:转向 Hermes Agent 不意味着 OpenClaw 不好。 最快的方式是在云端部署:腾讯云 Lighthouse 轻量应用服务器,2C4G 起即可运行。 ,最低配置即可流畅运行,7×24 小时在线,随时随地通过手机与你的 AI 智能体互动。 即使未来加入,Hermes Agent 在记忆+学习+技能三位一体的架构上已经有了先发优势。Q2:转到 Hermes Agent 后编程效率会下降吗?