首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏服务端技术杂谈

    用文件系统思路设计Agent记忆系统

    用户与Agent的多轮对话过程中会出现很多记忆,包括用户原始的意图、诉求、关键词,还包括Agent的推理、规划、工具调用的执行结果及模型最终的响应。 每轮对话背后,都由一个智能体记忆模块会进行会话信息提炼和通用信息整理,不断抽取用户偏好、画像、核心事实、个性化信息等,用于辅助Agent在后续对话中进行推理。 如果哪天底层切换存储组件,Agent层完全不需要感知,切换很灵活。 因为在接口层面做了抽象,所以可以很好的面向功能进行接口涉及,而无需关注这个功能接口究竟是用了一个文件系统还是多个类型的文件系统。 回过头来,我们看一下从用户提出问题,到最终Agent给出回答的整个流程如下。 最终实现类似于操作系统的文件系统能力,让智能体的记忆可追溯(每一步有据可查)、可审计(所有操作都有日志)、可演化(新组件无缝接入),整个Agent的记忆历史都是可以回溯的,而不是黑盒了。

    23410编辑于 2026-03-11
  • Agent 记忆系统的标准方案为何失效剖析

    开发者Rohit面试失败后,开始深入研究Agent记忆系统,最终构建出生产级方案。核心洞察:记忆是基础设施,不是功能。 Agent忘记了用户是素食者。问题根源:对话历史不是记忆,只是聊天日志。方案二:向量数据库检索两周后,数据库积累了500条记录。用户问"我的工作情况",向量检索返回12段矛盾片段。 Agent幻觉出错误的综合答案。问题根源:Embedding衡量的是相似性,不是真实性。向量数据库不理解时间、上下文或更新。短期记忆:Checkpointing每个Agent作为状态机运行。 Agent当操作系统,不是聊天机器人:RAM:当前对话的快速易失上下文硬盘:持久化、索引化的知识存储垃圾回收:定期维护,否则系统崩溃总结记忆系统的关键在于:不是存储,而是组织和衰减。 像操作系统管理内存一样管理记忆,Agent才能长期可靠地工作。

    14110编辑于 2026-02-12
  • 2026年Agent记忆系统方案横评与选型指南

    2026年Agent记忆系统方案横评与选型指南AI发展正经历从模型时代向智能体时代再向认知时代的跃迁。 伴随这一进程,Agent记忆系统由辅助模块跃升为核心基础设施,承担“让AI记住过去、理解未来”的使命,支撑跨会话、长周期、多任务的连续智能表现。 技术路线全景与阶段跃迁Agent记忆技术沿时间轴铺展为十余条路线,形成全局视图。 OS化记忆中枢:记忆系统成为Agent的操作系统级组件,统一管理多模态、多Agent共享状态。时间图谱深化:引入时间戳与因果边构建事件网络,支撑长周期推理与回溯。 从外挂工具到原生核心,记忆系统正经历从“辅助”到“定义”的蜕变,未来智能体将以持续懂你、跨会话不断线的能力,成为可信赖的第二大脑。

    28910编辑于 2026-05-07
  • Hermes Agent 三大核心能力详解:记忆系统、技能引擎与消息网关

    但如果要选出最能体现其差异化价值的三个能力,一定是:记忆系统——这是"越用越聪明"的基础技能引擎——这是"自我进化"的实现消息网关——这是"随时可达"的保障核心能力一:三层记忆架构第一层:短期工作记忆(

    1.1K20编辑于 2026-04-15
  • 来自专栏DeepHub IMBA

    instinct:一个基于置信度的 AI Agent 自学习记忆系统

    人去观察模式、记录下来、维护文件,Agent 只负责执行。 其实记忆应当是 Agent 在反复实践中习得的,而非人工分配的。 核心思想:基于置信度的学习 多数 AI Agent 记忆系统采用显式建模,即人写规则、Agent 遵照执行。 3、建议 下一次会话开启时,Agent 向系统请求建议: instinct suggest # seq:test->fix->test conf=8 [mature] sequence 几次会话之后,Agent 开始形成自己的操作手册: seq:test->fix->test conf=8 [mature] — Always re-run tests after 到第五次会话,Agent 对工作流的熟悉程度已经超过一个新加入的团队成员。

    15310编辑于 2026-04-15
  • AI记忆系统对比

    一个好的记忆系统,本质上就是一个“抠门且高效的管家”,它能帮你把原本需要几万甚至几十万Token才能说清楚的事情,压缩到几百字。这不仅关乎钱包的厚度,更直接决定了应用的响应速度和用户体验。 以下是为您更新后的终极选型对比表,特别增加了【费用降低效果】列:记忆系统开发团队情况核心范式与特色主打场景/杀手锏费用降低效果(Token/CostSavings)上手难度与集成方式潜在槽点MemoriMemoriLabs SQL原生+全链路归因Agent原生记忆层,将交互自动转结构化持久状态。打造极致的多智能体协同,需要精确追踪“谁在什么时候做了什么”。 解决长尾上下文遗忘难题,需要Agent具备“举一反三”的学习力。高(智能压缩降耗)通过反射机制过滤无效信息,极大减少上下文窗口膨胀带来的边际成本。 端侧设备、极度追求隐私保护、零成本的微型Agent。极高(零额外推理费)纯数学运算,无任何外部LLM依赖,完全杜绝了Embedding和推理的API调用费。

    19010编辑于 2026-04-29
  • 来自专栏Elastic Stack专栏

    用 Elasticsearch 给 AI Agent 装一颗大脑:从零构建跨会话记忆系统

    这篇文章记录了我如何用 Elasticsearch 的原生能力,给 Agent 装上一套真正能用的长期记忆系统。 Elastic 近期推出的 Agent Builder 和 Workflows 这两个功能,让你不用写一行应用代码,就能把上面所有能力串成一个完整的记忆系统。 这意味着整个记忆系统的工具层,零应用代码。5.1 工具一:Save_Memory(写入记忆)这个工具让 AI 在对话过程中,把识别到的高价值信息写入 Elasticsearch。 举个例子:用户问"我之前提到的那个 K8s 项目"。语义搜索能理解"K8s"和"Kubernetes"是一回事,但如果记忆里写的是"用户正在做 K8s 集群迁移",BM25 的精确匹配反而更快更准。 写在最后我一直觉得,AI Agent 领域最被低估的问题不是"推理能力",而是"上下文工程"。模型越来越聪明,但如果你喂给它的上下文是垃圾,输出就是垃圾。记忆系统就是上下文工程的核心基础设施。

    12511编辑于 2026-04-30
  • 来自专栏Vegout

    Nanobot 记忆系统深度解析

    长期记忆是用户的第二大脑,不是日志" ❌ 不会自动把所有对话都塞进去 ❌ 没有复杂的自动摘要算法 ✅ 依赖 LLM 的推理能力判断"什么值得记住" ✅ 保持简洁,只存真正重要的信息 总结 nanobot 的记忆系统通过分层设计解决了记忆膨胀问题

    46910编辑于 2026-03-13
  • 来自专栏服务端技术杂谈

    智能体记忆系统

    比如你是一个素食主义者,但因为智能体记忆缺陷,Agent给你推荐了烤肉,这会降低你对Agent的信任感。 更长的上下文会显著增加大模型的推理延迟,带来高昂的Token成本。 为了解决这一问题,业界开源了Mem0长期记忆系统。 它通过动态的提取、整合、检索对话中的关键信息,赋予了智能体长期记忆的能力。 底座是包含向量数据库和知识图谱架构设计。 这样memory记住的不是原始的对话,而是结构化的事实,让Agent更好掌握对话实质内容。 这些结构化信息将作为后续存储和检索的基础。 向量存储,解决的是语义理解。 最有效的记忆系统会将语义相似性搜索和关系遍历相结合的混合搜索。 当用户问:“其他具有相似风险偏好的客户提出过哪些投资担忧?”

    36011编辑于 2026-03-11
  • 来自专栏机器之心

    400篇参考文献重磅综述,统一调查「人脑×Agent记忆系统

    记忆系统奠定理论基石。 因此,记忆超越了其作为桥接历史交互的被动存储库的角色,而是充当 Agent 认知架构中的关键主动组件。因此,给 Agent 装上记忆系统,并非只是为了记住,而是为了实现三大核心作用: 图 1. 2.Agent 中的记忆存储 不同于人脑浑然天成的神经网络,Agent记忆系统是显式的工程构建。 Agent 记忆系统评测 综述将现有的 Benchmark 分为了两类: 面向语义(Semantic-oriented):重点关注 Agent 如何构建、维护和利用其内部记忆中的信息状态。 面向情景(Episodic-oriented):旨在评估复杂下游应用场景(使用外部工具完成任务)中 Agent记忆系统的实际性能增益。 表 1. 面向语义的基准 表 2.

    39910编辑于 2026-01-12
  • Hermes Agent 持久记忆系统彻底解决上下文丢失

    (不仅记得技术栈,还记得历史操作记录)记忆系统的技术细节写入机制记忆不是简单的"保存聊天记录"。 /project-docs/开始体验要充分体验记忆系统的价值,建议持续使用至少一周。在云端部署可以确保Agent持续运行,记忆不断积累。 Q3:如何防止Agent记住不该记住的信息?A:可以在对话中明确告诉Agent"不要记住这个",也可以在config中配置记忆过滤规则。

    66410编辑于 2026-04-16
  • 来自专栏AI SPPECH

    MCP 与长期记忆系统结合

    通过分析长期记忆在 Agent 系统中的核心作用,详细阐述 MCP 与向量数据库、知识图谱等记忆系统的集成机制。 )的一个重要设计目标就是支持与长期记忆系统的深度集成,通过标准化的接口和协议,让 Agent 能够高效地存储、检索和利用长期记忆。 1.3 行业动态与技术趋势 当前,长期记忆系统已成为 AI Agent 领域的研究热点。 ,测试环境如下: 硬件:8 核 CPU,32GB 内存,NVIDIA A100 GPU 软件:MCP v2.0,Pinecone 向量数据库,Python 3.11 测试数据:100 万条记忆数据,每条数据大小约 1KB 测试结果如下: 操作类型 平均响应时间 吞吐量(每秒操作数) 记忆存储 120ms 8,333 记忆检索(10条结果) 80ms 12,500 记忆更新 150ms 6,666 记忆删除 50ms

    38210编辑于 2026-01-08
  • 来自专栏XINDOO的专栏

    Agent设计模式——第 8 章:内存管理

    有效的内存管理对于智能 Agent 保留信息至关重要。与人类类似,Agent 需要不同类型的内存才能高效运行。本章深入探讨内存管理,特别关注 Agent 的即时(短期)和持久(长期)内存需求。 在 Agent 系统中,内存指代 Agent 保留并利用过去交互、观察和学习经验中信息的能力。这种能力使 Agent 能够做出明智决策、维护对话上下文并随时间持续改进。 该窗口包含最近消息、Agent 回复、工具使用结果以及当前交互中的 Agent 反思,所有这些都为 LLM 的后续响应和操作提供信息支撑。 这使 Agent 能调整其响应和建议 学习与改进: Agent 可通过从过去交互中学习来提升性能。成功策略、错误和新信息存储于长期内存中,促进未来适应。 与 Agent 的每次交互均可视为独特对话线程。Agent 可能需要访问早期交互数据。

    91610编辑于 2025-10-27
  • 来自专栏DevOps

    通过 AI Agent 自动排查 K8s 问题

    原文通过 AI Agent 自动排查 K8s 问题郭子龙 发表于 2025/11/18一、背景与痛点现状痛点(Dev & Ops):研发:排查 K8s 问题需要熟悉 kubectl/日志命令,遇到 CrashLoopBackOff 二、使用方式Agent 自动完成排查,也可以再通过继续对话交互深入分析。技术指导(如 K8s 最佳实践咨询)和需求支持(如资源配额调整建议)。使用示例:1. @机器人 排查告警信息。 项目也提供agent能力,这里只用到了MCP,因为飞书和aily agent交互实现比较简单。 四、后续改进统一运维 Agent 入口,屏蔽底层差异:以 K8s 排查为起点,逐步整合更多运维能力:日志查询与分析(SLS)、指标监控与告警(Prometheus/Grafana)、服务拓扑与依赖关系( 知识库积累:沉淀 Agent 自动问答模板,例如 “Pod Crash 原因排查步骤”。与监控联动:告警自动触发 Agent 自查,生成问题报告。

    43610编辑于 2025-11-18
  • 来自专栏CNCF

    利用 Open Policy Agent 实现 K8s 授权

    在此过程中,授权管理通常由 RBAC 授权模块来实现,但开发者也可以选择其他组件,如 Open Policy Agent(OPA)。 这里为大家推荐两篇关于如何使用 OPA 的博客:Policy Enabled Kubernetes with Open Policy Agent [2]以及 Kubernetes Compliance with Open Policy Agent [3]。 有关如何配置此方案的更多信息,请参见 open-policy-agent / kubernetes-policy-controller(授权方案[4])。 ? -3b612b3f0203 3.https://itnext.io/kubernetes-compliance-with-open-policy-agent-3d282179b1e9 4.https:

    2.6K22发布于 2019-12-05
  • Agent开发入门教程

    Agent 编排层:Agent Manager、LangGraph 编排、Agent Factory、FC(Function Calling) 3. 领域能力层:MCP Server、领域 Sub Agent、高阶 Sub Agent 5. 知识与记忆:知识来源、记忆系统(长期/短期) 6. 再接 MCP Agent(复杂交互) 路径:`Top Agent -> 包装工具 -> Sub Agent(LangGraph) -> MCP Server -> 后端服务` 适合:多轮工具调用、 API(兼容协议) 检索与数据 ChromaDB `0.4+` OpenAI Embedding `text-embedding-3` Redis `7.x`(会话/Token 缓存) MySQL `8. 复杂任务:优先 `MCP + Sub Agent + LangGraph`,可扩展多工具编排。 知识问答:优先 `RAG`,配合向量库与记忆系统

    20610编辑于 2026-04-15
  • 来自专栏农民工前端

    AI Agent 记忆机制详解:是什么、为什么、怎么用

    简单地扩大上下文窗口反而导致性能下降,必须通过记忆系统来管理什么该进入上下文窗口。 二、短期记忆与长期记忆的区别 人类大脑进化出了分层记忆系统,因为将一切保留在工作记忆中是不可能的。AI同样需要分层记忆架构。 现代AI Agent记忆系统通常包含多种记忆类型,每种承担不同功能: 3.1 核心记忆类型 记忆类型 功能描述 示例 情景记忆 记录具体交互或环境事件的序列和结果,用于复盘和经验学习 记录用户上次讨论的项目细节 参考文档 [1] 构建有记忆的 AI Agent:SQLite 存储 + 向量检索完整方案示例,阿里云开发者社区,2025-10 [2] 2026 AI Agent 记忆系统三大主流范式:从检索到记忆的本质 ,知乎,2025-08 [7] 使用 Elasticsearch 管理智能体记忆,Elastic,2026-01 [8] 深入解析AI智能体记忆机制:八大策略与实现方案,华为云社区,2025-08 [9

    62311编辑于 2026-03-06
  • AI Agent 记忆机制详解:是什么、为什么、怎么用

    简单地扩大上下文窗口反而导致性能下降,必须通过记忆系统来管理什么该进入上下文窗口。 现代AI Agent记忆系统通常包含多种记忆类型,每种承担不同功能:3.1 核心记忆类型记忆类型功能描述示例情景记忆记录具体交互或环境事件的序列和结果,用于复盘和经验学习记录用户上次讨论的项目细节、记录操作步骤语义记忆存储概念性 :分解任务并执行子任务Reflect Agent:每个子任务结束后自动评估,成功则提炼为过程记忆,失败则生成诊断并触发重新规划任务完成后:全局回顾,将执行经验升华为更高层次的战略记忆和工具记忆八、伦理与合规考量引入记忆系统也带来了新的治理挑战 参考文档1 构建有记忆的 AI Agent:SQLite 存储 + 向量检索完整方案示例,阿里云开发者社区,2025-10 2 2026 AI Agent 记忆系统三大主流范式:从检索到记忆的本质,OceanBase ,知乎,2025-08 7 使用 Elasticsearch 管理智能体记忆,Elastic,2026-01 8 深入解析AI智能体记忆机制:八大策略与实现方案,华为云社区,2025-08 9 Anthropic

    1.2K11编辑于 2026-03-04
  • 今天 AI 记忆系统又进了一步:Engram、Claude Code、EdgeClaw 正在把“长期记忆”做成工程能力

    今天 AI 记忆系统又进了一步:Engram、Claude Code、EdgeClaw 正在把“长期记忆”做成工程能力 最近一波关于 AI Agent 记忆系统的更新,很值得放在一起看。 先说结论:记忆系统开始从功能点走向架构层 过去很多 Agent 的“记忆”,本质上还是向量库加检索片段。 这对于希望把 Agent 真正跑成“长期服务”的团队来说,非常关键。 记忆系统正在从“外挂检索”走向“原生架构” 过去的做法,常常是先有 Agent,再额外挂一个 RAG 或向量库。 现在的变化是:记忆已经不再是附加模块,而是开始进入系统设计的一开始。 ,记忆系统已经越来越像数据库、检索系统、知识治理系统和 Agent 调度系统的混合体。

    28510编辑于 2026-04-09
  • 我用了一周 Hermes Agent,整理出这十件必做的事

    HermesAgent是NousResearch开源的AIAgent框架,相比OpenClaw,其亮点在于:配置友好、多模型路由、记忆系统完善、自动沉淀技能,且使用国内模型(如Qwen系列)也能稳定运行 approval高危命令审批决策skills_hub技能市场搜索与安装mcpMCP服务调用辅助flush_memories记忆系统清理与重组配置示例直接口头告知Hermes:压缩会话的辅助模型帮我配置成 第4步:配置三层记忆系统Hermes记忆系统分为三层,由浅到深,可按需启用。建议先用第一层+第三层,满足需求后再考虑引入第二层。 第8步:使用多Agent两种多Agent模式同一Session内触发Sub-Agent:适合并行子任务完全隔离的多Profile:适合不同安全级别的任务分工(见第7步)触发Sub-Agent只需一句话: 这是它相比其他Agent框架最有差异化的亮点之一。

    13.4K86编辑于 2026-04-14
领券