首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • Hermes Agent + Ollama 本地运行:不联网也能用的 AI 智能体

    为什么要本地运行? ollamapullqwen2.5:7b#如果内存充足(16GB+)ollamapullqwen2.5:32b步骤3:安装HermesAgent展开代码语言:BashAI代码解释curl-fsSLhttps://hermes-agent.org 如果本地电脑配置不够,可以在云服务器上运行Ollama。 7B模型的能力明显弱于Claude/GPT-4o;32B模型在大多数日常任务中已经足够好;70B+模型则接近商业模型水平。Q2:AppleSiliconMac运行Ollama的效果如何? A:M1/M2/M3Mac运行Ollama效果非常好,GPU加速开箱即用。16GBM2Mac可以流畅运行14B模型。Q3:Ollama支持同时运行多个模型吗?A:支持,但每个模型都会占用内存。

    4.8K10编辑于 2026-04-15
  • 来自专栏Hermes Agent 爱马仕

    🔥🔥🐎Hermes Agent --教你本地部署:保姆级

    Hermes Agent本地部署完全指南:从零到一,手把手教你“养马”(附完整案例) Hermes Agent(爱马仕)是2026年最火的AI智能体项目,GitHub星标突破6.6万,登顶全球编程应用榜首 优势说明数据隐私所有对话记录、记忆、技能文件存储在本地,不上传云端成本可控可接入本地Ollama模型,零API成本;或选择低成本API7×24小时运行部署在本地服务器或NAS上,全天候待命完全掌控可自由修改配置 坑4:API Key配置不生效解决方案:确认密钥放在~/.hermes/.env中,而非config.yaml检查密钥前后有无多余空格运行hermes config env-path确认当前加载的.env hermes setup,接入API或本地Ollama5分钟微信接入运行hermes gateway setup,扫码绑定5分钟实战体验让Hermes执行任务,观察自我进化15分钟总耗时:约45-60分钟 本文基于截至2026年4月的公开信息整理。Hermes Agent仍在快速迭代中,建议使用时查阅官方GitHub仓库获取最新版本说明。

    91710编辑于 2026-04-22
  • 来自专栏leehao

    采用Ollama运行本地大模型

    Ollama Ollama, 羊驼,快速的在本地电脑上运行大模型,只需要下载一个应用包即可,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型,无需安装额外的环境依赖和编译等操作。 国内比较好的模型,如glm4和qwen系列均可选择 注意:模型对内存和显卡有要求,根据电脑的实际配置选取模型。 运行 打开cmd,输入ollama run {模型名称},如,运行glm4-9b,则执行 ollama run glm4:9b 如果之前没有下载该模型,那么系统会首先下载模型,下载后运行,其中下载速度还是很快的 常用命令 获取模型 ollama pull llama3 运行模型 ollama run llama3 移除模型 ollama rm llama3 多模态 What's in this image? /Users/jmorgan/Desktop/smile.png 显示模型信息 ollama show llama3 罗列已安装模型 ollama list 后端运行服务 ollama serve 下节整合

    1.3K20编辑于 2025-02-11
  • 来自专栏Hermes Agent 爱马仕

    🔥🔥🔥🐎Hermes Agent本地部署好以后,怎么使用?

    第一部分:准备工作(10分钟)1.1 选择部署方式Hermes Agent不依赖本地电脑,推荐部署在云服务器上,实现7×24小时在线。 )免费★★★☆☆技术爱好者、本地测试 新手推荐:选择阿里云轻量应用服务器,预装Hermes Agent镜像,买完就能用,不用自己配环境。 1.2 购买云服务器(以轻量应用服务器为例)操作步骤:访问阿里云轻量应用服务器购买页面镜像选择:【应用镜像】→【Hermes Agent】实例配置:内存≥2GiB(推荐2核4GiB,199元/年)地域选择 原因:Hermes Agent不支持原生Windows。解决方案:先安装WSL2,然后在WSL2中运行安装命令。或直接使用阿里云轻量应用服务器部署。坑2:2GB内存服务器卡顿现象:响应慢,甚至卡死。 本文基于截至2026年4月的公开信息整理。Hermes Agent仍在快速迭代中,建议使用时查阅最新官方文档。

    98010编辑于 2026-04-22
  • 本地Hermes + Qwen3.5-27B 全流程踩坑记录

    本地Hermes+Qwen3.5-27B全流程踩坑记录(低配显卡也行)用集成显卡的普通笔记本,通过OllamaCPU推理+WSL环境,搭建本地大模型Agent平台并打通toolcalling的完整实战记录 选型:模型:Qwen3.5-27B(Q4_K_M量化,17GB显存)推理引擎:OllamaAgent框架:Hermes运行环境:Windows11+WSL2(Ubuntu)整个过程中踩了不少坑,这篇把关键问题和解决方案都记录下来 ,给同样在折腾本地Agent的朋友避坑。 模型量化体积运行方式Qwen3.5-27BQ4_K_M~17GBCPU推理,速度约4-8tok/sQwen3.5-35BQ4_K_M~21GBCPU推理,MoE架构,需要大内存如果你有独显(哪怕是RTX306012GB 希望这篇能帮到正在折腾本地大模型Agent的朋友。有问题欢迎评论区交流。

    41810编辑于 2026-04-25
  • Hermes Agent 三大进阶玩法:免费模型 + 美化界面 + 省 Token

    cloud模型)自动把Hermes指到Ollama本地接口可选地继续接消息网关,最后进入Hermes对话Ollama官方目前给Hermes推荐的模型里,cloud方向包括:kimi-k2.5:cloudglm -5.1:cloudqwen3.5:cloudminimax-m2.7:cloud本地方向则更建议看:gemma4qwen3.6如果你的目标只是“尽快上手”,最省事的路径就是直接走ollamalaunchhermes 如果你要本地运行有些场景不适合云端模型,比如:数据不能离开内网希望完全离线不想引入额外API成本只是想先在自己机器上试清楚这时可以让Hermes直接接本地OllamaHermes官方配置文档里,把Ollama归在“本地OpenAI兼容服务”这一类。 本地模式的硬件判断可以粗略这样看:场景建议配置轻量试用8GB内存起步,先跑小模型日常开发16GB以上更稳更大模型/更长上下文优先看显存和内存,而不是只看CPU如果你是AppleSilicon,Ollama

    62441编辑于 2026-04-27
  • 来自专栏百科知识

    什么是 Hermes AgentHermes Agent 详细介绍:2026 年最值得关注的开源自进化 AI 智能体

    、GLM-4本地模型:通过Ollama运行Llama、Mistral等开源模型可以为不同类型的任务指定不同模型,实现成本和效果的最优平衡。 )支持模型200+消息平台14+内置工具40+开源协议MIT(可商用)运行环境macOSLinuxWSL2/Termux数据存储本地SQLite社区贡献者207+发布节奏约两周一个版本安装与部署本地安装 Docker部署展开代码语言:BashAI代码解释dockerrun-d--namehermes-agent\--restartunless-stopped\-v~/.hermes:/root/.hermes \-p3000:3000\nousresearch/hermes-agent:latest本地运行Ollama+零API成本)展开代码语言:BashAI代码解释ollamapullqwen2.5:7b :https://github.com/nousresearch-hermes-agent/hermes-agent中文社区:https://hermesagent.org.cn中文文档:https:/

    4K20编辑于 2026-04-15
  • Hermes Agent Docker 部署完整指南:5分钟搞定云端 AI 智能体

    .hermes\-p3000:3000\-eHERMES_MODEL_PROVIDER=deepseek\-eHERMES_API_KEY=your-api-key\nousresearch/hermes-agent :image:nousresearch/hermes-agent:latestcontainer_name:hermes-agentrestart:unless-stoppedports:-"3000: -20260413.tar.gz-C/日志管理展开代码语言:BashAI代码解释#查看实时日志dockerlogs-fhermes-agent#查看最近100行dockerlogs--tail100hermes-agent 配置即可流畅运行,7×24小时在线,随时随地通过手机与你的AI智能体互动。 Q3:如何在Docker内使用Ollama本地模型?A:可以在同一台服务器上运行Ollama容器,通过Docker网络让HermesAgent容器访问。

    4.2K30编辑于 2026-04-15
  • Hermes Agent 开发者指南:设置、架构、技能与自我改进的 AI

    配置消息通道(可选) # 4. 设置你的角色人格 # 启动 Agent hermes start 设置向导是交互式的,大约需要 5 分钟。 工具运行时:跨六种终端后端执行工具(本地、Docker、SSH、Daytona、Singularity、Modal)。 ACP 集成:Agent 通信协议,用于外部工具集成(代码编辑器、IDE)。 4. 自我改进的学习循环 学习循环是 Hermes 与所有其他自托管 Agent 的根本区别。 OpenAI:GPT-5.4、GPT-5.4 Thinking Nous Portal:针对 Agent 使用优化的 Hermes 模型 Ollama本地模型(Gemma 4、Llama 4、Qwen 部署选项: 本地开发:直接在 macOS/Linux/WSL2 上运行 VPS/云服务器:在 DigitalOcean、AWS、GCP、Azure 上运行 Docker:使用官方镜像进行容器化部署 Modal

    84110编辑于 2026-04-22
  • Hermes Agent 本地安装保姆级教程:MacLinuxWindows 全平台覆盖

    Node.js18+:展开代码语言:BashAI代码解释brewinstallpython@3.12node步骤2:一键安装HermesAgent展开代码语言:BashAI代码解释curl-fsSLhttps://hermes-agent.org /install.sh|bash步骤3-4:同上展开代码语言:BashAI代码解释hermesinithermesstart验证安装展开代码语言:BashAI代码解释hermes--version#查看版本 hermesstatus#检查运行状态hermeschat#进入交互式对话升级到云端本地安装适合体验和开发场景。 建议先用curl-fsSLhttps://hermes-agent.org/install.sh|less审查脚本内容。Q2:安装后配置文件在哪里? A:所有配置和数据存储在~/.hermes/目录下,包括config.yaml、记忆数据库、技能文件等。Q3:可以同时安装多个HermesAgent实例吗?A:同一台机器上通常只运行一个实例。

    6.3K20编辑于 2026-04-15
  • 来自专栏前沿技术解读

    Hermes vs OpenClaw 全面对比:谁更适合做企业级AI智能体?(附真实应用场景拆解)

    记忆与学习——Hermes结构性领先。OpenClaw的记忆实现比较朴素:每个Assistant在工作区维护MEMORY.md和按日期组织的记忆文件,本质是文本持久化。 OpenClaw支持Claude、GPT、Gemini、DeepSeek及本地模型(通过Ollama)。 微软建议不要在标准个人或企业工作站上运行OpenClaw。Hermes截至2026年4月,零Agent相关CVE。 Hermes可以配合Ollama本地模型实现完全气隙部署,不依赖任何云端API。零CVE的安全记录对合规审计也是加分项。 OpenClaw的架构虽然也能本地部署,但历史上的安全事件会让合规审计团队非常不舒服。场景D:复杂多Agent编排。

    1.2K52编辑于 2026-04-23
  • 来自专栏大模型系列

    Windows 下部署与配置 Hermes Agent 完全指南:AI 智能体、OpenRouter、LLM、本地大模型、WSL2、自动化、自进化 AI

    为什么你需要在Windows上运行HermesAgent? 步骤2:执行官方安装脚本展开代码语言:PowerShellAI代码解释irmhttps://raw.githubusercontent.com/NousResearch/hermes-agent/main /scripts/install.ps1|iex脚本会自动:安装Python3.10+、Git、Node.js、ripgrep克隆仓库到%LOCALAPPDATA%\hermes\hermes-agent 获取地址:https://openrouter.ai/settings/keys推荐模型:anthropic/claude-3.5-sonnet(强推理)或openai/gpt-4o(全能)步骤4:验证 (本地运行Llama3.1/Mistral等)#provider:ollama#model_name:"llama3.1:8b"#base_url:"http://localhost:11434"2.工具启用

    3.4K190编辑于 2026-04-15
  • 来自专栏运维开发王义杰

    Ollama本地运行大型语言模型的轻量级框架

    Ollama是一个轻量级、可扩展的框架,用于在本地机器上构建和运行大型语言模型(LLM)。它提供了一个简单的API来创建、运行和管理模型,以及一个预构建模型库,可以轻松用于各种应用程序。 Ollama的优势包括: 易于使用: Ollama提供了一个简单的API,即使是没有经验的用户也可以轻松使用。 轻量级: Ollama的代码简洁明了,运行时占用资源少。 Ollama的出现,使得在本地运行大型语言模型变得更加容易和方便。这对于以下用户群体来说非常有价值: 研究人员: Ollama可以帮助研究人员快速原型化和测试新的LLM模型。 代码生成: Ollama可以用于生成代码,例如Python代码、JavaScript代码等。 Ollama是一个非常有用的项目,它为本地运行大型语言模型提供了一个简单、轻量级和可扩展的解决方案。 性能: Ollama运行速度快,占用资源少,即使在低配机器上也能流畅运行。 功能: Ollama支持多种模型架构和任务,可以满足用户的各种需求。

    6.2K10编辑于 2024-02-26
  • AI Agent 入门科普|OpenClaw 与 Hermes 这类“能动手的 AI”到底是什么,又该怎么选?

    OpenClawvs☤Hermes:两种“能动手的AI”,两条路线如果把Agent当成“数字员工”,那OpenClaw更像坐在你电脑旁、随叫随到的本地助理:它强调“接入你常用的聊天入口、把能力变成可安装的技能 Hermes则更像能长期在服务器上跑、越用越顺手的工程队友:它强调“长期运行、定时任务、强隔离的沙箱执行,以及会把成功经验沉淀成技能文档,让自己越来越熟练”。 provider(如ollama/lmstudio)可接自建endpoint/多provider(更偏环境可迁移)差别为什么会“越用越明显”(三句话抓重点)记忆:OpenClaw更像“本地笔记本”;Hermes 相对“聊天”风险更高,因为它们能动手。正确姿势:最小权限起步,逐步放权;群聊/陌生DM/外部网页内容要格外谨慎。2)‍需要会编程吗? |https://hermes-agent.nousresearch.com/docs/user-guide/features/skills|https://hermes-agent.nousresearch.com

    31400编辑于 2026-04-24
  • 来自专栏福大大架构师每日一题

    ollama v0.21.0 最新更新:Hermes AgentOllama 联动、Copilot CLI 集成、launch 配置优化、Gemma4 与 MLX 多项性能修复全解析

    新增 Hermes AgentOllama 的联动支持 2. launch 相关功能持续增强 3. OpenCode、OpenClaw、Copilot CLI 等集成能力完善 4. 二、Hermes AgentOllama 联动:支持 launch hermes 本次最值得关注的新增内容之一,就是: launch: add hermes 官方给出的说明是: Hermes Agent 对于用户来说,最直观的使用方式就是通过: ollama launch hermes 来启动 Hermes AgentOllama 的联动体验。 新能力接入更强 Hermes Agent、Copilot CLI 都被纳入 launch 体系,说明 Ollama 在扩展实际工作流协作能力。 2. 本次版本中最值得关注的亮点包括: • Hermes Agent with Ollamaollama launch hermes • Copilot CLI integration • OpenCode

    61120编辑于 2026-04-21
  • 来自专栏云云众生s

    使用Ollama和Llama 2设置和运行本地LLM

    上周我发表了关于摆脱云端的文章,本周我将关注在我的 Mac 本地运行开源 LLM。 除了不必支付他人服务器的运行成本外,你还可以在不担心安全问题的情况下运行对私有数据的查询。 为此,我使用的是 Ollama。这是“一个允许你在本地机器上运行开源大型语言模型 (LLM) 的工具”。 如果你正在寻找作为测试工作流一部分的 LLM,那么 Ollama 就是适合的选择: @patrickdubois 的 GenAI 测试演示 对于测试来说,从 Ollama 控制的本地 LLM 是很好的自包含系统 但它确实运行了,只是非常缓慢。 你可以看到,已经有了一个内置终端,所以我进行了一个快速的测试查询: 这并不快,但模型显然还在运行Ollama 将自己设置为本地服务器,端口为 11434。我们可以通过一个快速的 curl 命令来检查 API 是否响应。

    1.2K20编辑于 2024-03-28
  • 腾讯云 Lighthouse 一键部署 Hermes Agent:最低2C4G即可运行

    (适合个人使用)进阶版:4C4G(接入多个IM平台)高性能版:4C8G(运行本地模型)系统镜像选择Ubuntu22.04LTS确认购买步骤2:SSH登录服务器展开代码语言:BashAI代码解释sshroot @你的服务器IP步骤3:安装HermesAgent展开代码语言:BashAI代码解释curl-fsSLhttps://hermes-agent.org/install.sh|bashhermesinit 推荐配置方案使用场景推荐配置费用参考个人AI助手2C4G5M188元/年(同价续费1次)多平台+定时任务4C4G3M99元/年(产品首购价)运行本地模型(Ollama)4C8G10M630元/年(产品首购价 )立即前往腾讯云官网选购HermesAgent专属云服务器腾讯云为HermesAgent用户提供专属优惠云服务器方案,最低2核4G配置即可流畅运行,7×24小时在线,随时随地通过手机与你的AI智能体互动 建议开通自动续费,并定期备份~/.hermes/目录。Q3:可以在一台Lighthouse上运行多个服务吗?A:可以。HermesAgent在空闲时几乎不占用资源,同一台服务器完全可以运行其他服务。

    87210编辑于 2026-04-15
  • GitHub 热榜变化:AI 开发的下一条主线开始从“会调用”转向“会组织”

    google-ai-edge/gallery[3] •Star:17,563 •新增 stars:1,109 stars today •中文摘要:展示端侧机器学习与生成式 AI 用例的示例集,强调模型本地运行与 :487 stars today •中文摘要:面向本地推理与边缘设备的大模型运行组件,代表轻量化推理基础设施继续受到关注。 NousResearch / hermes-agent •链接:https://github.com/NousResearch/hermes-agent[8] •Star:27,317 •新增 stars •中文摘要:本地运行 Kimi、GLM、DeepSeek、Qwen、Gemma 等模型的主流基础设施,依然是本地 AI 生态的核心入口之一。 NousResearch / hermes-agent •链接:https://github.com/NousResearch/hermes-agent[23] •Star:27,317 •新增 stars

    37310编辑于 2026-04-09
  • 来自专栏架构驿站

    一文读懂如何基于Ollama本地运行LLM

    无论是本地部署还是云端服务,Ollama的简洁设计和完备功能确保了LLM的无缝集成和高效运行。用户可以轻松调用各种计算资源,如GPU加速等,充分释放模型的算力潜能。 通过本地运行和数据加密等策略,确保了对话内容和用户数据的完全保密,有效回应了人们对数据安全日益增长的忧虑。在一些涉及敏感信息或隐私法规的领域,Ollama无疑是LLM部署的最佳选择。 Ollama 开源项目独有的优势 运行Ollama的优势众多,它是一个备受欢迎的开源项目,提供了在本地部署和运行大型语言模型的能力。 3、灵活的部署选项 Ollama提供了便捷的docker容器,使我们可以在本地运行LLM,而无需担心繁琐的安装过程。 本地运行 Ollama 基本操作步骤 1.

    85610编辑于 2024-11-01
  • 来自专栏大模型系列

    Windows 本地部署 Hermes Agent!完整安装教程 + 飞书接入,全程避坑

    在Ubuntu终端中粘贴并运行:展开代码语言:BashAI代码解释curl-fsSLhttps://raw.githubusercontent.com/NousResearch/hermes-agent 步骤4:配置模型提供商运行设置向导,连接你的大模型API:展开代码语言:BashAI代码解释hermessetup在交互式界面中:选择你的模型提供商(如OpenAI,Anthropic,OpenRouter 选择一个默认模型(如gpt-4o,claude-3-5-sonnet-20241022)。配置完成后,你可以通过hermes命令直接与Agent对话,测试其基本功能。 权限问题:不要在WSL2中使用sudo来运行hermes命令,这可能导致权限混乱。始终以普通用户身份运行。 步骤3:获取凭证在“凭证与基础信息”页面,记下:AppIDAppSecret步骤4:在WSL2中配置HermesGateway回到你的WSL2Ubuntu终端,运行gateway配置命令:展开代码语言:

    10.7K22编辑于 2026-04-13
领券