首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • Hermes Agent + Ollama 本地运行:不联网也能用的 AI 智能体

    为什么要本地运行? 安装HermesAgent展开代码语言:BashAI代码解释curl-fsSLhttps://hermes-agent.org/install.sh|bash步骤4:配置HermesAgent使用Ollama 如果本地电脑配置不够,可以在云服务器上运行Ollama。 Q2:AppleSiliconMac运行Ollama的效果如何?A:M1/M2/M3Mac运行Ollama效果非常好,GPU加速开箱即用。16GBM2Mac可以流畅运行14B模型。 Q3Ollama支持同时运行多个模型吗?A:支持,但每个模型都会占用内存。建议同时只加载1-2个模型。

    4.8K10编辑于 2026-04-15
  • 来自专栏leehao

    采用Ollama运行本地大模型

    Ollama Ollama, 羊驼,快速的在本地电脑上运行大模型,只需要下载一个应用包即可,通过简单的安装指令,可以让用户执行一条命令就在本地运行开源大型语言模型,无需安装额外的环境依赖和编译等操作。 运行 打开cmd,输入ollama run {模型名称},如,运行glm4-9b,则执行 ollama run glm4:9b 如果之前没有下载该模型,那么系统会首先下载模型,下载后运行,其中下载速度还是很快的 8G显存在运行9B模型的时候,非常丝滑,在运行14B模型的时候,类似打字机一样,比较慢。 常用命令 获取模型 ollama pull llama3 运行模型 ollama run llama3 移除模型 ollama rm llama3 多模态 What's in this image? /Users/jmorgan/Desktop/smile.png 显示模型信息 ollama show llama3 罗列已安装模型 ollama list 后端运行服务 ollama serve 下节整合

    1.3K20编辑于 2025-02-11
  • 来自专栏Hermes Agent 爱马仕

    🔥🔥🔥🐎Hermes Agent本地部署好以后,怎么使用?

    Hermes Agent新手入门教程:从零开始,手把手教你“养马”(附完整案例) 2026年,AI Agent赛道最火的不是OpenClaw,而是Hermes Agent(爱马仕)。 第一部分:准备工作(10分钟)1.1 选择部署方式Hermes Agent不依赖本地电脑,推荐部署在云服务器上,实现7×24小时在线。 )免费★★★☆☆技术爱好者、本地测试 新手推荐:选择阿里云轻量应用服务器,预装Hermes Agent镜像,买完就能用,不用自己配环境。 第六部分:低成本运行技巧6.1 选择低成本模型 模型成本适用场景DeepSeek-V3极低日常对话、简单任务Qwen3.5-Plus中等内容创作、图片识别GLM-5中等代码生成、复杂推理 原因:Hermes Agent不支持原生Windows。解决方案:先安装WSL2,然后在WSL2中运行安装命令。或直接使用阿里云轻量应用服务器部署。坑2:2GB内存服务器卡顿现象:响应慢,甚至卡死。

    98010编辑于 2026-04-22
  • 来自专栏Hermes Agent 爱马仕

    🔥🔥🐎Hermes Agent --教你本地部署:保姆级

    Hermes Agent本地部署完全指南:从零到一,手把手教你“养马”(附完整案例) Hermes Agent(爱马仕)是2026年最火的AI智能体项目,GitHub星标突破6.6万,登顶全球编程应用榜首 关键词:Hermes Agent、爱马仕、本地部署、WSL2、AI智能体、自我进化、微信接入、模型配置标签:#HermesAgent #爱马仕 #本地部署 #AI智能体 #WSL2 #微信机器人  写在前面 优势说明数据隐私所有对话记录、记忆、技能文件存储在本地,不上传云端成本可控可接入本地Ollama模型,零API成本;或选择低成本API7×24小时运行部署在本地服务器或NAS上,全天候待命完全掌控可自由修改配置 x+硬件要求:内存:建议4GB+(仅运行Agent框架,不含本地模型)存储:10GB可用空间网络:需访问GitHub及LLM提供商API1.2 准备工作清单 项目说明是否必需Git版本控制工具 hermes setup,接入API或本地Ollama5分钟微信接入运行hermes gateway setup,扫码绑定5分钟实战体验让Hermes执行任务,观察自我进化15分钟总耗时:约45-60分钟

    91710编辑于 2026-04-22
  • 本地Hermes + Qwen3.5-27B 全流程踩坑记录

    本地Hermes+Qwen3.5-27B全流程踩坑记录(低配显卡也行)用集成显卡的普通笔记本,通过OllamaCPU推理+WSL环境,搭建本地大模型Agent平台并打通toolcalling的完整实战记录 前言最近折腾了一把本地大模型Agent平台,目标很简单:在AMDAIMAX+64G内存(48G显存)上跑一个能真正执行工具的AIAgent,不依赖云端API,数据不出本机。 ,给同样在折腾本地Agent的朋友避坑。 3.finish_reason必须正确设置当有tool_calls时,finish_reason必须设为"tool_calls"(不是"stop"),否则Hermes不会触发工具执行逻辑。 希望这篇能帮到正在折腾本地大模型Agent的朋友。有问题欢迎评论区交流。

    41810编辑于 2026-04-25
  • Hermes Agent 三大进阶玩法:免费模型 + 美化界面 + 省 Token

    方案一:先用OllamaHermes跑通这套方案适合什么场景想先用最短路径把HermesAgent跑起来想直接接本地模型或OllamaCloud不想一开始就手动改太多配置HermesOllama现在已经有官方集成页 cloud模型)自动把Hermes指到Ollama本地接口可选地继续接消息网关,最后进入Hermes对话Ollama官方目前给Hermes推荐的模型里,cloud方向包括:kimi-k2.5:cloudglm 如果你要本地运行有些场景不适合云端模型,比如:数据不能离开内网希望完全离线不想引入额外API成本只是想先在自己机器上试清楚这时可以让Hermes直接接本地OllamaHermes官方配置文档里,把Ollama归在“本地OpenAI兼容服务”这一类。 本地模式的硬件判断可以粗略这样看:场景建议配置轻量试用8GB内存起步,先跑小模型日常开发16GB以上更稳更大模型/更长上下文优先看显存和内存,而不是只看CPU如果你是AppleSilicon,Ollama

    62441编辑于 2026-04-27
  • 来自专栏百科知识

    什么是 Hermes AgentHermes Agent 详细介绍:2026 年最值得关注的开源自进化 AI 智能体

    、GLM-4本地模型:通过Ollama运行Llama、Mistral等开源模型可以为不同类型的任务指定不同模型,实现成本和效果的最优平衡。 /hermes-agent.org/install.sh|bashhermesinithermesstart支持macOS12+、Ubuntu20.04+、WindowsWSL2,需要Python3.11 Docker部署展开代码语言:BashAI代码解释dockerrun-d--namehermes-agent\--restartunless-stopped\-v~/.hermes:/root/.hermes \-p3000:3000\nousresearch/hermes-agent:latest本地运行Ollama+零API成本)展开代码语言:BashAI代码解释ollamapullqwen2.5:7b :https://github.com/nousresearch-hermes-agent/hermes-agent中文社区:https://hermesagent.org.cn中文文档:https:/

    4K20编辑于 2026-04-15
  • Hermes Agent 本地安装保姆级教程:MacLinuxWindows 全平台覆盖

    Node.js18+:展开代码语言:BashAI代码解释brewinstallpython@3.12node步骤2:一键安装HermesAgent展开代码语言:BashAI代码解释curl-fsSLhttps://hermes-agent.org /install.sh|bash步骤3-4:同上展开代码语言:BashAI代码解释hermesinithermesstart验证安装展开代码语言:BashAI代码解释hermes--version#查看版本 hermesstatus#检查运行状态hermeschat#进入交互式对话升级到云端本地安装适合体验和开发场景。 建议先用curl-fsSLhttps://hermes-agent.org/install.sh|less审查脚本内容。Q2:安装后配置文件在哪里? A:所有配置和数据存储在~/.hermes/目录下,包括config.yaml、记忆数据库、技能文件等。Q3:可以同时安装多个HermesAgent实例吗?A:同一台机器上通常只运行一个实例。

    6.3K20编辑于 2026-04-15
  • Hermes Agent 开发者指南:设置、架构、技能与自我改进的 AI

    设置 API 密钥 # 3. 配置消息通道(可选) # 4. 设置你的角色人格 # 启动 Agent hermes start 设置向导是交互式的,大约需要 5 分钟。 3. 架构深入解析 Hermes Agent 的架构以 AIAgent 循环 为中心,而非网关控制平面。这是一个经过深思熟虑的设计选择:学习循环被作为一等架构关切。 工具运行时:跨六种终端后端执行工具(本地、Docker、SSH、Daytona、Singularity、Modal)。 ACP 集成:Agent 通信协议,用于外部工具集成(代码编辑器、IDE)。 OpenAI:GPT-5.4、GPT-5.4 Thinking Nous Portal:针对 Agent 使用优化的 Hermes 模型 Ollama本地模型(Gemma 4、Llama 4、Qwen 部署选项: 本地开发:直接在 macOS/Linux/WSL2 上运行 VPS/云服务器:在 DigitalOcean、AWS、GCP、Azure 上运行 Docker:使用官方镜像进行容器化部署 Modal

    84110编辑于 2026-04-22
  • 来自专栏前沿技术解读

    Hermes vs OpenClaw 全面对比:谁更适合做企业级AI智能体?(附真实应用场景拆解)

    2026年3月底推出的"TaskBrain"进一步强化了这个中心化设计,把ACP(AgentControlProtocol)、子Agent、Cron任务、后台CLI进程全部统一到一个SQLiteLedger 记忆与学习——Hermes结构性领先。OpenClaw的记忆实现比较朴素:每个Assistant在工作区维护MEMORY.md和按日期组织的记忆文件,本质是文本持久化。 OpenClaw支持Claude、GPT、Gemini、DeepSeek及本地模型(通过Ollama)。 微软建议不要在标准个人或企业工作站上运行OpenClaw。Hermes截至2026年4月,零Agent相关CVE。 Hermes可以配合Ollama本地模型实现完全气隙部署,不依赖任何云端API。零CVE的安全记录对合规审计也是加分项。

    1.2K52编辑于 2026-04-23
  • AI Agent 入门科普|OpenClaw 与 Hermes 这类“能动手的 AI”到底是什么,又该怎么选?

    OpenClawvs☤Hermes:两种“能动手的AI”,两条路线如果把Agent当成“数字员工”,那OpenClaw更像坐在你电脑旁、随叫随到的本地助理:它强调“接入你常用的聊天入口、把能力变成可安装的技能 Hermes则更像能长期在服务器上跑、越用越顺手的工程队友:它强调“长期运行、定时任务、强隔离的沙箱执行,以及会把成功经验沉淀成技能文档,让自己越来越熟练”。 provider(如ollama/lmstudio)可接自建endpoint/多provider(更偏环境可迁移)差别为什么会“越用越明显”(三句话抓重点)记忆:OpenClaw更像“本地笔记本”;Hermes 3)哪个更省token?取决于用法。总原则:长期信息放进记忆/技能,一次性细节别反复塞对话。OpenClaw强调技能列表开销可控;Hermes强调技能按需加载与记忆冻结快照。 |https://hermes-agent.nousresearch.com/docs/user-guide/features/skills|https://hermes-agent.nousresearch.com

    31400编辑于 2026-04-24
  • Hermes Agent Docker 部署完整指南:5分钟搞定云端 AI 智能体

    HermesAgent展开代码语言:BashAI代码解释dockerrun-d\--namehermes-agent\--restartunless-stopped\-v~/.hermes:/root/ .hermes\-p3000:3000\-eHERMES_MODEL_PROVIDER=deepseek\-eHERMES_API_KEY=your-api-key\nousresearch/hermes-agent :展开代码语言:YAMLAI代码解释version:'3.8'services:hermes-agent:image:nousresearch/hermes-agent:latestcontainer_name -20260413.tar.gz-C/日志管理展开代码语言:BashAI代码解释#查看实时日志dockerlogs-fhermes-agent#查看最近100行dockerlogs--tail100hermes-agent Q3:如何在Docker内使用Ollama本地模型?A:可以在同一台服务器上运行Ollama容器,通过Docker网络让HermesAgent容器访问。

    4.2K30编辑于 2026-04-15
  • 来自专栏运维开发王义杰

    Ollama本地运行大型语言模型的轻量级框架

    Ollama是一个轻量级、可扩展的框架,用于在本地机器上构建和运行大型语言模型(LLM)。它提供了一个简单的API来创建、运行和管理模型,以及一个预构建模型库,可以轻松用于各种应用程序。 Ollama的出现,使得在本地运行大型语言模型变得更加容易和方便。这对于以下用户群体来说非常有价值: 研究人员: Ollama可以帮助研究人员快速原型化和测试新的LLM模型。 代码生成: Ollama可以用于生成代码,例如Python代码、JavaScript代码等。 Ollama是一个非常有用的项目,它为本地运行大型语言模型提供了一个简单、轻量级和可扩展的解决方案。 性能: Ollama运行速度快,占用资源少,即使在低配机器上也能流畅运行。 功能: Ollama支持多种模型架构和任务,可以满足用户的各种需求。 以下是一些值得期待的未来发展方向: 支持更多模型架构: Ollama将支持更多流行的模型架构,例如Transformer、GPT-3等。

    6.2K10编辑于 2024-02-26
  • 来自专栏AI大流行时代

    Ollama系列:轻松3本地部署deepseek

    本文主要介绍如何通过ollama快速部署deepseek、qwq、llama3、gemma3等大模型,网速好的小伙伴10分钟就能搞定。让你摆脱GPU焦虑,在普通电脑上面玩转大模型。 ollama run deepseek-r1:1.5b下载完成后,ollama会为我们运行刚下载的大模型。下面是我运行成功的截图:第三步:使用大模型恭喜你已经在本地成功安装了第一个私有大模型。 内容讲解(干货)ollama是什么?Ollama 是一款开源工具,能让你在个人电脑上本地运行各种大语言模型(如 DeepSeek、QwQ等)。 总结本文介绍了如何使用ollama本地部署DeepSeek等大模型,通过干货分享了ollama常用的指令,以及如何获取更多大模型。但是我们目前仍然只是在命令行使用大模型,非常的不友好。 下一章我们将介绍如何摆脱命令行的束缚,将ollama集成到本地的AI工具中,实现聊天、自定义智能体等功能。

    1K10编辑于 2025-03-15
  • 来自专栏云云众生s

    使用Ollama和Llama 2设置和运行本地LLM

    上周我发表了关于摆脱云端的文章,本周我将关注在我的 Mac 本地运行开源 LLM。 除了不必支付他人服务器的运行成本外,你还可以在不担心安全问题的情况下运行对私有数据的查询。 为此,我使用的是 Ollama。这是“一个允许你在本地机器上运行开源大型语言模型 (LLM) 的工具”。 如果你正在寻找作为测试工作流一部分的 LLM,那么 Ollama 就是适合的选择: @patrickdubois 的 GenAI 测试演示 对于测试来说,从 Ollama 控制的本地 LLM 是很好的自包含系统 但它确实运行了,只是非常缓慢。 你可以看到,已经有了一个内置终端,所以我进行了一个快速的测试查询: 这并不快,但模型显然还在运行Ollama 将自己设置为本地服务器,端口为 11434。我们可以通过一个快速的 curl 命令来检查 API 是否响应。

    1.2K20编辑于 2024-03-28
  • 来自专栏翩翩白衣少年

    6行代码搞定AI Agent记忆!这个16K Star的开源项目打破了传统RAG痛点!

    目前这个项目在GitHub上已经有 16K Star,支持 CLI 和本地 UI,还能兼容 Ollama 本地模型,对于想给 Agent 搭建记忆系统的开发者来说,简直是雪中送炭。 # 忘记所有信息 cognee-cli forget --all 如果你想打开本地UI,只需要运行: cognee-cli -ui Cognee已经和多个流行的AI Agent框架集成好了,让我们看看几个例子 /cognee-integrations/integrations/claude-code 或者,你也可以连接到Cognee Cloud而不是本地运行: export COGNEE_SERVICE_URL Hermes Agent集成 你可以在Hermes Agent中启用Cognee作为记忆提供者,实现会话感知的知识图谱记忆和自动路由回忆。 # 开始聊天——会话记忆和图持久化都是自动的 或者运行hermes memory setup并选择Cognee。

    19510编辑于 2026-04-22
  • 来自专栏大模型系列

    Windows 下部署与配置 Hermes Agent 完全指南:AI 智能体、OpenRouter、LLM、本地大模型、WSL2、自动化、自进化 AI

    为什么你需要在Windows上运行HermesAgent? 步骤2:执行官方安装脚本展开代码语言:PowerShellAI代码解释irmhttps://raw.githubusercontent.com/NousResearch/hermes-agent/main /scripts/install.ps1|iex脚本会自动:安装Python3.10+、Git、Node.js、ripgrep克隆仓库到%LOCALAPPDATA%\hermes\hermes-agent /NousResearch/hermes-agent/main/scripts/install.sh|bashsource~/.bashrchermessetup浏览器自动化配置(WSL2专用)编辑~/ (本地运行Llama3.1/Mistral等)#provider:ollama#model_name:"llama3.1:8b"#base_url:"http://localhost:11434"2.工具启用

    3.4K190编辑于 2026-04-15
  • 来自专栏架构驿站

    一文读懂如何基于Ollama本地运行LLM

    无论是本地部署还是云端服务,Ollama的简洁设计和完备功能确保了LLM的无缝集成和高效运行。用户可以轻松调用各种计算资源,如GPU加速等,充分释放模型的算力潜能。 通过本地运行和数据加密等策略,确保了对话内容和用户数据的完全保密,有效回应了人们对数据安全日益增长的忧虑。在一些涉及敏感信息或隐私法规的领域,Ollama无疑是LLM部署的最佳选择。 Ollama 开源项目独有的优势 运行Ollama的优势众多,它是一个备受欢迎的开源项目,提供了在本地部署和运行大型语言模型的能力。 3、灵活的部署选项 Ollama提供了便捷的docker容器,使我们可以在本地运行LLM,而无需担心繁琐的安装过程。 本地运行 Ollama 基本操作步骤 1.

    85610编辑于 2024-11-01
  • 来自专栏大模型系列

    Windows 本地部署 Hermes Agent!完整安装教程 + 飞书接入,全程避坑

    在Ubuntu终端中粘贴并运行:展开代码语言:BashAI代码解释curl-fsSLhttps://raw.githubusercontent.com/NousResearch/hermes-agent 命令添加到你的PATH步骤3:重载Shell并验证安装安装完成后,为了让hermes命令生效,需要重载你的Shell配置:展开代码语言:BashAI代码解释#对于Bash用户source~/.bashrc 选择一个默认模型(如gpt-4o,claude-3-5-sonnet-20241022)。配置完成后,你可以通过hermes命令直接与Agent对话,测试其基本功能。 权限问题:不要在WSL2中使用sudo来运行hermes命令,这可能导致权限混乱。始终以普通用户身份运行。 步骤3:获取凭证在“凭证与基础信息”页面,记下:AppIDAppSecret步骤4:在WSL2中配置HermesGateway回到你的WSL2Ubuntu终端,运行gateway配置命令:展开代码语言:

    10.7K22编辑于 2026-04-13
  • GitHub 热榜变化:AI 开发的下一条主线开始从“会调用”转向“会组织”

    stars today •中文摘要:展示端侧机器学习与生成式 AI 用例的示例集,强调模型本地运行与 on-device ML/GenAI 体验。 NousResearch / hermes-agent •链接:https://github.com/NousResearch/hermes-agent[8] •Star:27,317 •新增 stars •中文摘要:本地运行 Kimi、GLM、DeepSeek、Qwen、Gemma 等模型的主流基础设施,依然是本地 AI 生态的核心入口之一。 NousResearch / hermes-agent •链接:https://github.com/NousResearch/hermes-agent[23] •Star:27,317 •新增 stars NousResearch / hermes-agent •链接:https://github.com/NousResearch/hermes-agent[33] •Star:27,317 •新增 stars

    37310编辑于 2026-04-09
领券