首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏服务端技术杂谈

    用文件系统思路设计Agent记忆系统

    用户与Agent的多轮对话过程中会出现很多记忆,包括用户原始的意图、诉求、关键词,还包括Agent的推理、规划、工具调用的执行结果及模型最终的响应。 每轮对话背后,都由一个智能体记忆模块会进行会话信息提炼和通用信息整理,不断抽取用户偏好、画像、核心事实、个性化信息等,用于辅助Agent在后续对话中进行推理。 如果哪天底层切换存储组件,Agent层完全不需要感知,切换很灵活。 因为在接口层面做了抽象,所以可以很好的面向功能进行接口涉及,而无需关注这个功能接口究竟是用了一个文件系统还是多个类型的文件系统。 回过头来,我们看一下从用户提出问题,到最终Agent给出回答的整个流程如下。 最终实现类似于操作系统的文件系统能力,让智能体的记忆可追溯(每一步有据可查)、可审计(所有操作都有日志)、可演化(新组件无缝接入),整个Agent的记忆历史都是可以回溯的,而不是黑盒了。

    23410编辑于 2026-03-11
  • Agent 记忆系统的标准方案为何失效剖析

    开发者Rohit面试失败后,开始深入研究Agent记忆系统,最终构建出生产级方案。核心洞察:记忆是基础设施,不是功能。 Agent忘记了用户是素食者。问题根源:对话历史不是记忆,只是聊天日志。方案二:向量数据库检索两周后,数据库积累了500条记录。用户问"我的工作情况",向量检索返回12段矛盾片段。 Agent幻觉出错误的综合答案。问题根源:Embedding衡量的是相似性,不是真实性。向量数据库不理解时间、上下文或更新。短期记忆:Checkpointing每个Agent作为状态机运行。 Agent当操作系统,不是聊天机器人:RAM:当前对话的快速易失上下文硬盘:持久化、索引化的知识存储垃圾回收:定期维护,否则系统崩溃总结记忆系统的关键在于:不是存储,而是组织和衰减。 像操作系统管理内存一样管理记忆,Agent才能长期可靠地工作。

    14110编辑于 2026-02-12
  • 2026年Agent记忆系统方案横评与选型指南

    2026年Agent记忆系统方案横评与选型指南AI发展正经历从模型时代向智能体时代再向认知时代的跃迁。 伴随这一进程,Agent记忆系统由辅助模块跃升为核心基础设施,承担“让AI记住过去、理解未来”的使命,支撑跨会话、长周期、多任务的连续智能表现。 其记忆系统以纯Markdown为单一源真理,结合SQLite-vec实现70%向量余弦相似+30%BM25+MMR+时间衰减的混合检索,分层为L1短期会话、L2工作空间核心MD文件、L3长期MEMORY.md 问题1(信息提取):用户曾在3月5日约定每周五提交进度表,提取该事实与周期。标准答案:约定日期3月5日,周期每周五,事项进度表提交。OpenClaw:提取日期正确,周期误为“每周三”。 OS化记忆中枢:记忆系统成为Agent的操作系统级组件,统一管理多模态、多Agent共享状态。时间图谱深化:引入时间戳与因果边构建事件网络,支撑长周期推理与回溯。

    28810编辑于 2026-05-07
  • Hermes Agent 三大核心能力详解:记忆系统、技能引擎与消息网关

    但如果要选出最能体现其差异化价值的三个能力,一定是:记忆系统——这是"越用越聪明"的基础技能引擎——这是"自我进化"的实现消息网关——这是"随时可达"的保障核心能力一:三层记忆架构第一层:短期工作记忆( deploy-nextjs-appdescription:部署Next.js应用到服务器version:1.2triggers:["部署Next.js","上线前端项目"]---##执行步骤1.检查Node.js版本(需要18+)2.Clone项目仓库3. 是否被占用三级渐进式加载为了优化token使用,技能系统采用渐进式加载:加载级别内容Token消耗Level1技能名称+一句话描述~20tokensLevel2详细描述+参数说明~200tokensLevel3完整执行步骤 Q3:消息网关的稳定性如何?A:网关采用异步消息队列设计,单个平台的故障不会影响其他平台。同时支持消息重试和断线重连机制。

    1.1K20编辑于 2026-04-15
  • 来自专栏DeepHub IMBA

    instinct:一个基于置信度的 AI Agent 自学习记忆系统

    人去观察模式、记录下来、维护文件,Agent 只负责执行。 其实记忆应当是 Agent 在反复实践中习得的,而非人工分配的。 核心思想:基于置信度的学习 多数 AI Agent 记忆系统采用显式建模,即人写规则、Agent 遵照执行。 2、合并 会话结束时(或定期),运行 consolidate 触发自动晋升: instinct consolidate # Promoted to mature: 3 # Promoted to 3、建议 下一次会话开启时,Agent 向系统请求建议: instinct suggest # seq:test->fix->test conf=8 [mature] sequence test") # 置信度现在 = 2 # 查询 suggestions = store.suggest() # 获取成熟模式 store.list(min_confidence=3)

    15310编辑于 2026-04-15
  • AI记忆系统对比

    一个好的记忆系统,本质上就是一个“抠门且高效的管家”,它能帮你把原本需要几万甚至几十万Token才能说清楚的事情,压缩到几百字。这不仅关乎钱包的厚度,更直接决定了应用的响应速度和用户体验。 以下是为您更新后的终极选型对比表,特别增加了【费用降低效果】列:记忆系统开发团队情况核心范式与特色主打场景/杀手锏费用降低效果(Token/CostSavings)上手难度与集成方式潜在槽点MemoriMemoriLabs SQL原生+全链路归因Agent原生记忆层,将交互自动转结构化持久状态。打造极致的多智能体协同,需要精确追踪“谁在什么时候做了什么”。 解决长尾上下文遗忘难题,需要Agent具备“举一反三”的学习力。高(智能压缩降耗)通过反射机制过滤无效信息,极大减少上下文窗口膨胀带来的边际成本。 端侧设备、极度追求隐私保护、零成本的微型Agent。极高(零额外推理费)纯数学运算,无任何外部LLM依赖,完全杜绝了Embedding和推理的API调用费。

    19010编辑于 2026-04-29
  • 来自专栏技术杂记

    Zabbix Agent 安装3

    3:off 4:off 5:off 6:off [root@zbx-target zabbix]# chkconfig zabbix-agent on [root@zbx-target zabbix ]# chkconfig --list | grep zabbix zabbix-agent 0:off 1:off 2:on 3:on 4:on 5:on 6:off [root@zbx-target net.if.discovery" {"data":[{"{#IFNAME}":"lo"},{"{#IFNAME}":"em1"},{"{#IFNAME}":"em2"},{"{#IFNAME}":"em3" CPU.NUMBER}":1,"{#CPU.STATUS}":"online"},{"{#CPU.NUMBER}":2,"{#CPU.STATUS}":"online"},{"{#CPU.NUMBER}":3, items ,这些条目的详细解释可以参考 Zabbix agent Zabbix中已经集成了大量的常用监控条目,不用过多配置就可以直接使用

    60010编辑于 2022-03-21
  • 来自专栏技术杂记

    Zabbix Agent 安装3

    Average | awk {'print $2'} #UserParameter=swap.out.ps,/usr/bin/sar -W 1 1 | grep Average | awk {'print $3' } UserParameter=mem.used,/usr/bin/free -k | grep + | awk '{print $3}' UserParameter=ps.proc.sum[*],/bin head -n 1 UserParameter=redis.stat[*],/usr/local/bin/redis-cli -h 127.0.0.1 -p $1 info $2 | grep $3: [root@zbx-server zabbix_agentd.d]# 重启agent [root@zbx-target zabbix_agentd.d]# /etc/init.d/zabbix-agent restart Shutting down Zabbix agent: [ OK ] Starting Zabbix agent:

    73650编辑于 2022-03-22
  • 来自专栏Elastic Stack专栏

    用 Elasticsearch 给 AI Agent 装一颗大脑:从零构建跨会话记忆系统

    这篇文章记录了我如何用 Elasticsearch 的原生能力,给 Agent 装上一套真正能用的长期记忆系统。 Elastic 近期推出的 Agent Builder 和 Workflows 这两个功能,让你不用写一行应用代码,就能把上面所有能力串成一个完整的记忆系统。 召回记忆:"用户目前使用 Rust,偏好简洁风格" 3. 结合记忆生成代码(知道用户喜欢简洁,就不会写一堆冗余的 match 嵌套) 4. 3. 零胶水代码从 Ingest Pipeline 到索引 Mapping,从 Workflow 工具到 Agent 配置,全部在 Elasticsearch 平台内完成。 写在最后我一直觉得,AI Agent 领域最被低估的问题不是"推理能力",而是"上下文工程"。模型越来越聪明,但如果你喂给它的上下文是垃圾,输出就是垃圾。记忆系统就是上下文工程的核心基础设施。

    12511编辑于 2026-04-30
  • 来自专栏Vegout

    Nanobot 记忆系统深度解析

    三层记忆架构 3. 分层记忆加载详解 4. Tier 3 记忆的唤醒机制 5. 什么样的记忆会进入长期记忆 6. ───────────────────────┘ ↓ ┌─────────────────────────────────────────────────────────────┐ │ Layer 3: System Prompt,LLM 立即可见 Tier 2: 近期历史 (Truncated) 内容 加载方式 对话历史 最多 50 条 特点:作为 messages 传入,旧消息自动丢弃 Tier 3: 长期存储 历史信息可能有用也可能没用,让 LLM 自己判断 Tier 3 记忆的唤醒机制 核心特点 Tier 3 记忆是"被动唤醒"的 —— 它静静地躺在文件系统里,只有当 LLM 通过推理认为"我需要这个信息 长期记忆是用户的第二大脑,不是日志" ❌ 不会自动把所有对话都塞进去 ❌ 没有复杂的自动摘要算法 ✅ 依赖 LLM 的推理能力判断"什么值得记住" ✅ 保持简洁,只存真正重要的信息 总结 nanobot 的记忆系统通过分层设计解决了记忆膨胀问题

    46910编辑于 2026-03-13
  • 来自专栏服务端技术杂谈

    智能体记忆系统

    比如你是一个素食主义者,但因为智能体记忆缺陷,Agent给你推荐了烤肉,这会降低你对Agent的信任感。 更长的上下文会显著增加大模型的推理延迟,带来高昂的Token成本。 为了解决这一问题,业界开源了Mem0长期记忆系统。 它通过动态的提取、整合、检索对话中的关键信息,赋予了智能体长期记忆的能力。 底座是包含向量数据库和知识图谱架构设计。 这样memory记住的不是原始的对话,而是结构化的事实,让Agent更好掌握对话实质内容。 这些结构化信息将作为后续存储和检索的基础。 向量存储,解决的是语义理解。 最有效的记忆系统会将语义相似性搜索和关系遍历相结合的混合搜索。 当用户问:“其他具有相似风险偏好的客户提出过哪些投资担忧?”

    36011编辑于 2026-03-11
  • 来自专栏机器之心

    400篇参考文献重磅综述,统一调查「人脑×Agent记忆系统

    记忆系统奠定理论基石。 3.Agent 视角:从存储到认知的跃迁 Agent 的记忆超越了 LLM 的简单存储,它是一个动态的认知架构,该综述选择沿着三个核心维度解构记忆: 结构化存储:旨在将非结构化自然语言交互转换为易于机器索引和理解的有效格式 因此,记忆超越了其作为桥接历史交互的被动存储库的角色,而是充当 Agent 认知架构中的关键主动组件。因此,给 Agent 装上记忆系统,并非只是为了记住,而是为了实现三大核心作用: 图 1. 图 3. 认知神经科学中的记忆存储机制概述,包括短期和长期记忆的存储位置和存储格式。 2.Agent 中的记忆存储 不同于人脑浑然天成的神经网络,Agent记忆系统是显式的工程构建。 Agent 记忆系统评测 综述将现有的 Benchmark 分为了两类: 面向语义(Semantic-oriented):重点关注 Agent 如何构建、维护和利用其内部记忆中的信息状态。

    39910编辑于 2026-01-12
  • Hermes Agent 持久记忆系统彻底解决上下文丢失

    (不仅记得技术栈,还记得历史操作记录)记忆系统的技术细节写入机制记忆不是简单的"保存聊天记录"。 /project-docs/开始体验要充分体验记忆系统的价值,建议持续使用至少一周。在云端部署可以确保Agent持续运行,记忆不断积累。 Q3:如何防止Agent记住不该记住的信息?A:可以在对话中明确告诉Agent"不要记住这个",也可以在config中配置记忆过滤规则。

    66410编辑于 2026-04-16
  • 来自专栏AI SPPECH

    MCP 与长期记忆系统结合

    通过分析长期记忆在 Agent 系统中的核心作用,详细阐述 MCP 与向量数据库、知识图谱等记忆系统的集成机制。 )的一个重要设计目标就是支持与长期记忆系统的深度集成,通过标准化的接口和协议,让 Agent 能够高效地存储、检索和利用长期记忆。 1.3 行业动态与技术趋势 当前,长期记忆系统已成为 AI Agent 领域的研究热点。 五、实际工程意义、潜在风险与局限性分析 5.1 实际工程意义 MCP 与长期记忆系统的结合在实际工程中具有重要意义: 提高 Agent 智能水平:赋予 Agent 持续学习和知识积累的能力,提高其决策质量和适应性 支持复杂任务:长期记忆支持 Agent 处理复杂的多步任务和长期项目 促进知识共享:不同 Agent 之间可以共享记忆资源,促进知识的传播和复用 5.2 潜在风险 尽管 MCP 与长期记忆系统的结合具有诸多优势

    38210编辑于 2026-01-08
  • 来自专栏探物及理

    RL实践3——为Agent添加Policy

    在实践1中,介绍了 动态规划DP 求解 价值函数 并没有形成一个策略Policy\(\pi\)来指导agent的动作选取,本节将利用SARSA(0)的学习方法,帮助agent学习到价值函数(表),指导 Agent的写法 Agent的三要素是:价值函数、策略、模型 Sarsa(0)是不基于模型的控制,其动作选择策略是\(\epsilon\)-greedy,根据价值函数选择动作。 对于一般问题,Agent包括如下功能 对环境的引用 自身变量:Q值,状态值的记忆 策略方法 动作执行方法 学习方法:改进策略,这部分是关键 class Agent(): def __init__ act(self, a): # 执行一个行为 return self.env.step(a) def learning(self): pass # 学习过程 Agent num_episode == max_episode_num: # 终端显示最后Episode的信息 print("t:{0:>2}: s:{1}, a:{2:2}, s1:{3}

    63230发布于 2020-09-07
  • 来自专栏A周立SpringCloud

    Skywalking系列博客3-Java Agent插件

    Java Agent是插件化、可插拔的。 Skywalking的插件分为三种: •引导插件:在agent的 bootstrap-plugins 目录下•内置插件:在agent的 plugins 目录下•可选插件:在agent的 optional-plugins /java-agent/README.md#bootstrap-class-plugins 。 所支持的技术&框架,详见 https://github.com/apache/skywalking/blob/v6.6.0/docs/en/setup/service-agent/java-agent/ 可选插件 关于可选插件的功能描述,可详见 https://github.com/apache/skywalking/blob/v6.6.0/docs/en/setup/service-agent/java-agent

    2K30发布于 2020-06-09
  • 来自专栏XINDOO的专栏

    Agent设计模式——第 3 章:并行化

    , ("user", "原始主题:{topic}") ]) ## 3. 通过将并行结果直接管道化 ## 到综合提示词,然后是 LLM 和输出解析器,构建完整链。 研究员 3:碳捕获 researcher_agent_3 = LlmAgent( name="CarbonCaptureResearcher", model=GEMINI_MODEL, _1, researcher_agent_2, researcher_agent_3], description="并行运行多个研究 Agent 以收集信息。" ) ## --- 3. / Python asyncio Documentation: https://docs.python.org/3/library/asyncio.html 本文来源于开源项目Agentic Design

    58510编辑于 2025-10-27
  • 理解 RAG:大模型的外部记忆系统是如何工作的

    无论是企业知识问答、智能客服,还是 Agent 记忆系统,几乎都离不开它的支持。 RAG 的基本原理 RAG 的核心流程分为四步: 用户问题 ↓ [1] 向量化(Embedding) ↓ [2] 检索(Retrieval) ↓ [3] 增强(Augmentation 常见模型包括: OpenAI text-embedding-3-large Cohere Embeddings BAAI bge-large Sentence-BERT(sentence-transformers 3. 增强(Augmentation) 把检索到的文档拼接进 prompt(提示词)中,例如: 问题:什么是RAG? 检索到的资料: [RAG是一种结合检索与生成的技术,用于增强LLM知识能力。] 未来的智能体(Agent)将不再只是“查知识”, 而是真正地“拥有经验与认知”。

    95110编辑于 2025-11-13
  • 今天 AI 记忆系统又进了一步:Engram、Claude Code、EdgeClaw 正在把“长期记忆”做成工程能力

    今天 AI 记忆系统又进了一步:Engram、Claude Code、EdgeClaw 正在把“长期记忆”做成工程能力 最近一波关于 AI Agent 记忆系统的更新,很值得放在一起看。 先说结论:记忆系统开始从功能点走向架构层 过去很多 Agent 的“记忆”,本质上还是向量库加检索片段。 记忆系统正在从“外挂检索”走向“原生架构” 过去的做法,常常是先有 Agent,再额外挂一个 RAG 或向量库。 现在的变化是:记忆已经不再是附加模块,而是开始进入系统设计的一开始。 3. 好记忆不是记得多,而是记得对、调得准、还能不断整理 这可能是这波更新里最重要的共识。 ,记忆系统已经越来越像数据库、检索系统、知识治理系统和 Agent 调度系统的混合体。

    28510编辑于 2026-04-09
  • 一位好莱坞女星,把 AI 长期记忆卷进了开源战场?

    MemPalace是一个开源的AI记忆系统,想解决的是一个很具体的问题:Agent能做事,但经常记不住:你是谁团队决定过什么上周为什么改方案它给出的方向也很清楚:不把所有历史硬塞进prompt先把原始内容保留下来再做成分层 没有长期记忆,Agent只是在重复短期聪明。这个项目里可以先看这几件事先不急着下结论,这个项目里有几件事可以单独拿出来看。1.记忆系统正在产品化以前很多人谈memory,还停在概念层。 3. 写给正在做Agent的你:现在更值得做什么?我更建议先别卷“最强记忆系统”这个结论,先把最小可用版本做出来。可以从三步开始:先定义“必须记住”的信息例如身份、偏好、项目决策、失败经验、常见例外。 结语这次热点真正值得关注的,是它再次提醒我们一件事:下一代Agent的竞争,除了模型能力,也会越来越取决于记忆系统能力。谁先把“记得住、找得到、用得起”这三件事做扎实,谁就更接近真正可用的AI助手。

    19810编辑于 2026-04-16
领券