关键词:长期记忆|会话持久化|增量同步|上下文压缩|跨设备一致性 在传统聊天机器人中,对话一旦关闭,上下文即被遗忘。 OpenClaw 的目标是让 AI 智能体具备类人的记忆能力:不仅能记住单次对话,还能在跨天、跨设备、跨渠道的场景下保持上下文连贯。这依赖于一套精心设计的长期记忆与会话同步机制。 本文将详解: 会话如何持久化存储 何时触发同步以平衡性能与一致性 如何防止记忆膨胀与隐私泄露 如何在 WhatsApp、Web、iOS 间共享同一记忆视图 一、会话模型:从瞬时到持久 OpenClaw 本地优先 所有会话文件存储在用户自有服务器 不上传至任何第三方云 你的记忆,你做主。 六、跨设备一致性:一个用户,一个记忆视图 当用户同时使用 WhatsApp(手机)和 Web UI(电脑),如何保证记忆同步?
别让你的 AI 每次醒来都失忆——跨会话记忆的三个坑你花 10 分钟对齐背景。AI 给了完美方案。下次对话,它又不认识你了。不是它笨,是它没有记忆。 这不是你的问题,不是 AI 模型的问题,是会话架构的默认设计。我花了几个月搭建了一套跨会话记忆系统,踩了三个坑。这篇文章讲怎么搭建、怎么维护、怎么不翻车。记忆系统的三层结构先说设计。 解决方案:启动协议固化为"检查清单",不依赖记忆# AI 新会话启动协议(不写进记忆,写进系统提示词)每次新会话必须按以下顺序执行:1. 读取最新交接文档(含 HANDOVER 的文件)2. 跨文件矛盾查询 = 0 # → 三份文件说的是同一件事 pass满足这三个条件,就算一个合格的记忆系统了。不需要完美,够用就好。 写在最后给 AI 加记忆,本质上是在做一件反直觉的事:为一个设计上无状态的系统强行注入连续性。它不会自己"记得"。每一次"记得",都是你设计的文件、规则、读取协议在起作用。但这个门槛值得跨。
大模型很聪明,但它没有记忆。每次对话都是一张白纸。这篇文章记录了我如何用 Elasticsearch 的原生能力,给 Agent 装上一套真正能用的长期记忆系统。 user_id,记忆互不可见记忆衰减:不同类型的记忆有不同的 TTL,偏好记一年,任务进展记一周下面一步步落地。 但在企业内部,记忆隔离是硬性要求。 Elasticsearch 既是记忆的存储层,也是记忆的计算层,还是 Agent 的执行层。这第三点是我最想强调的。 语义记忆提炼:从大量情景记忆中蒸馏出抽象的用户画像。比如从 20 次交互中提炼出"这个用户是一个偏好实战、反感空谈的工程师"。这需要一个额外的 Agent 来做周期性的记忆压缩。但这些都是锦上添花。
下次你再提类似需求,它只需要 2-3 步就能完成,因为它已经"学会"了。这不是简单的模板复用——它会根据新的上下文参数(不同的域名、不同的后端端口)自动调整技能中的变量。 功能二:三层记忆架构Hermes Agent 的记忆系统分为三个层次,各司其职: 记忆层类型作用生命周期第一层短期工作记忆当前会话的上下文单次会话第二层长期情景记忆跨会话的事实和偏好永久保存第三层程序化技能记忆自动创建的可复用技能永久保存 当你在新会话中提到一个项目名称时,Hermes Agent 会自动检索相关的历史记忆,将有用的上下文注入当前对话。记忆安全:所有记忆条目在写入前会进行安全扫描,检测潜在的注入攻击和数据泄露模式。 Agent 互动:支持的平台(14+):国际平台:Telegram、Discord、Slack、WhatsApp、Signal国内平台:飞书、企业微信、钉钉其他:Matrix、IRC、Web UI 等跨平台对话连续最值得一提的是 :跨平台的对话是连续的。
相较于单角色的记忆维护,多角色系统必然会产生更多的会话窗口并分散在各自不同的记忆保存区域中,如果单个去依次整理归档记忆,就成了重复级的繁琐操作。 由此我诞生了一个想法,自己搭建一套自动定时执行的跨agent跨工作区的记忆整理归档工作流。 正好这两天碰上Anthropic的乌龙CC代码泄露事件,很多大佬拆解其底层逻辑,其中有一个关于结构化会话记忆“ClaudeCode为每次对话维护一个结构化Markdown文件,包含会话标题、当前状态、任务规格 agent的全部session,为每个有对话内容的agent维护一个结构化Markdown记忆文件,包含会话标题、当前状态、任务规格、文件与函数、工作流、错误与修正、代码库文档、学习笔记、关键结果、工作日志 token的需求跨Agent记忆整理工作流说明每天晚上23:45,系统会自动:扫描多个Agent的今日会话提取有价值内容评分筛选高质量内容写入每日摘要+增量精华(长记忆沉淀)推送QQ简报给我目标是无需人工干预
其主要功能和核心优势包括: 重新绑定 ctrl-r 和 up (可配置) 到全屏历史搜索界面 将 shell 历史存储在 sqlite 数据库中 备份并同步加密的 shell 历史 在不同终端、会话和机器之间保持相同的历史记录 记录退出代码、当前工作目录、主机名、会话等信息以及命令执行时间等统计数据 除此之外,还支持通过云服务进行数据备份与恢复,并提供详尽而清晰易懂地文档说明。
而Claude最新推出的跨平台记忆功能,彻底改变了这一局面——它不仅能记住你们的每一次对话,还能在你切换设备时无缝衔接思路,仿佛拥有了真正的"数字大脑"。 工作记忆缓冲区:维护最近2-3个会话的完整上下文,确保短期记忆的高保真度。这部分记忆存储在Redis集群中,支持毫秒级的读写访问。 记忆的"阅后即焚"模式用户可以设置记忆的生命周期:临时记忆:会话结束后自动销毁项目记忆:项目完成后批量清理永久记忆:长期保存的核心知识革命性应用场景代码项目的"时光机"想象你正在开发一个复杂的微服务架构 跨时空的"思维同步"早上在办公室电脑上讨论的架构设计,晚上在家里的iPad上可以无缝继续。甚至可以说"继续早上我们讨论的缓存优化方案",Claude会立即恢复完整的讨论上下文。 Claude的跨平台记忆功能不仅仅是一个技术升级,它代表着AI助手从"工具"向"伙伴"的根本性转变。
核心价值: 不要把整个文件塞给 AI,而是先用本地搜索找到最相关的片段(通常只有 2-3 句话),再把这些精准内容传给 AI 解决传统记忆系统把整个 MEMORY.md 文件直接塞进上下文导致的"上下文爆炸 场景一:长期会话记忆查询 测试问题:"我们三个月前讨论的那个项目,最后用的什么方案?" 场景二:跨文件知识检索 测试问题:"我们之前所有项目用过哪些技术栈?" ) 经常被慢速响应或卡死困扰(特别是长期会话) 单次请求成本超过 $1 常见问题 Q1: QMD 和传统记忆系统的区别是什么? MEMORY.md 文件直接塞进上下文 其中 90% 的内容可能和当前问题毫无关系 上下文越长,请求越慢,成本越高,AI 还容易被无关信息干扰 QMD 系统: 先用本地搜索找到最相关的片段(通常只有 2-
摘要:θ-γ耦合(TGC)是支撑工作记忆的一种神经生理机制,与N-back任务(一种工作记忆任务)的表现相关。 与TCG类似,θ和α能量的事件相关同步(ERS)与事件相关去同步(ERD)也和工作记忆有关。但目前为止,还鲜少有研究探讨工作记忆任务表现与TCG,ERS和ERD之间的关系。 不同频率之间的振荡耦合被称之为跨频率耦合(CFC),相振幅耦合(PAC)就是是CFC的一种常见形式,它指的是高频振荡的振幅被低频振荡的相位调制的一种现象。 具体来说,刺激呈现之后额叶区域θ功率的上升(θ ERS)与记忆的编码和检索有关;因此,θ ERS可能是注意力需求或者工作记忆加工的表现。 这表明,随时间推移,工作记忆能力和TGC是共变关系。也就是说,工作记忆能力上升了,TGC就会上升,反之亦然。这支持了TGC是支撑工作记忆加工的神经生理机制的说法。
构建记忆体系:文件结构 + 向量搜索 为什么需要记忆体系? AI 的记忆是临时的。退出会话,它就忘了你之前说的所有东西。多通道切换,它不知道你在另一个通道说过什么。长期项目,它记不住上周的决策。 OpenClaw 用两层记忆结构解决这个问题:长期记忆(MEMORY.md) + 每日日志(memory/),配合向量搜索,实现跨会话、跨通道的持久化记忆。 记忆文件结构 工作区布局: ~/.openclaw/workspace/ ├── MEMORY.md # 长期记忆(仅主会话) ├── memory/ │ ├── 2026-03 当会话接近压缩阈值时,自动触发记忆保存。 (2-3 天) 配置向量搜索(至少基础版) 观察 Agent 如何使用记忆 根据使用情况调整搜索参数 第三阶段:扩展 Skills(1-2 周) 从 ClawHub 安装 2-3 个常用技能 尝试开发一个简单的自定义
人类的记忆有工作记忆、短期记忆和长期记忆之分,不同层次的记忆各司其职又相互协作。智能体大模型借鉴这一机制,构建分层记忆架构。 在智能体内部,通过MemoryBank、记忆变量、记忆片段等精巧设计实现长期记忆功能。MemoryBank就像是一个记忆容器,统一管理各类记忆信息。 记忆变量以键值对的形式存在,比如“用户偏好=古典音乐”,可以精准记录用户关键信息。记忆片段则是一段完整的对话或事件信息记录。 在多用户、多场景应用中,为了保障信息安全和准确性,智能体采用隔离设计,不同用户的记忆相互独立,不同应用场景的记忆也不会混淆。 例如,在跨语言多轮对话中,更好地融合语言信息与文化背景知识,让长期记忆不仅能理解文字表面意思,还能深入挖掘背后的文化内涵,实现真正无国界的智能交互。
Session 核心概念:AI Agent 的记忆中枢 会话定义 OpenClaw 将每个 Agent 的直接聊天会话视为核心单元。 会话是 Agent 记忆的载体,承载着对话历史、上下文状态和令牌计数等关键信息。 直接聊天会话的键格式为: agent:<agentId>:<mainKey> 默认 mainKey 为 main。 会话的生命周期 会话从创建到过期经历以下阶段: 创建:首次消息触发会话创建 活跃:持续接收消息,状态更新 过期:超过 pruneAfter 时间未活跃 清理:维护机制清理过期会话 会话被重用直到过期,过期评估在下一个入站消息时进行 其他来源的键映射 来源类型 键格式 Cron jobs cron:<job.id> Webhooks hook:<uuid> Node runs node-<nodeId> identityLinks 跨频道映射 session.identityLinks 将提供商前缀的对等 ID 映射到规范身份,这样同一个人在使用 per-peer、per-channel-peer 或 per-account-channel-peer 时可以跨频道共享
文献导读: 今天分享的这篇文章发表于2024年8月《Cell》期刊,内容聚焦脑-心跨器官研究新思路。这也是脑心轴研究领域开创性的文章。 研究发现,固有免疫细胞在经历刺激后可发生长期功能变化,这一现象被称为"固有免疫记忆"或"训练免疫"。 更重要的是,研究确定IL-1β是这种固有免疫记忆表观遗传变化的关键驱动因素。 研究方法 本研究采用了单细胞多组学技术全面解析脑卒中后免疫记忆形成机制。 通过跨模态数据整合(scRNA-seq与ATAC-seq),实现了细胞类型精准注释和基因调控网络构建,发现了脑损伤后持续存在的顺式调控元件变化和关键转录因子活性改变,为揭示脑卒中后免疫记忆与心脏功能障碍之间的分子联系提供了坚实技术支撑
Step 2: 调用分析工具生成图表Step 3: 基于模板撰写报告正文Step 4: 调用邮件API发送给指定收件人阶段二(执行):逐步执行计划,每步可动态调整适用场景:企业报告生成、批量数据处理、跨系统业务流程编排 Agent的记忆分层架构:层级存储方式生命周期容量典型用途工作记忆对话上下文单次会话~100K tokens当前任务的步骤、中间结果情景记忆向量数据库跨会话(可过期)百万级向量用户偏好、历史操作模式语义记忆知识图谱 生产系统必须提供:执行轨迹可视化:完整记录每一步的Thought→Action→Observation链路Token消耗追踪:按会话、按用户、按时段统计成功率监控:任务完成率、工具调用成功率、平均执行步数护栏日志 ├─ 定义最小可行产品范围(例如:3个工具、单轮对话)└─ 选择框架与基座模型阶段二:原型开发(2-3周)├─ 搭建Hello World Agent + 1个简单工具├─ 用少量真实场景验证效果预期└ :跨会话记住常用服务的日志位置和负责人实际效果:常见问题(CPU飙高、接口超时、慢查询)排查时间从平均20分钟降至3分钟70%的一线问题可由Agent直接解决,无需人工介入运维团队从日常“人肉查日志”中解放
作为主案室内设计师,我每天的工作大概是这样的:浏览ArchDaily、谷德(gooood)、Dezeen中文、设计腕儿、有方等平台,收集2-3个商业非标设计案例整理小红书运营内容:技巧、案例、材料、避坑 WorkBuddy里设置了4个定时任务:任务执行时间说明设计早报每天08:00自动抓取设计资讯,整理成图文早报小红书内容每天09:00按内容日历生成小红书文案+配图建议非标设计案例每天12:00从全球设计平台收集2- 要求:1.搜索ArchDaily、谷德、Dezeen中文、设计腕儿、有方等平台的最新商业空间设计资讯2.筛选出2-3个有参考价值的非标设计案例3.整理成图文格式,包含项目名称、设计团队、空间类型、亮点分析 2.善用记忆功能WorkBuddy有跨会话记忆能力。我会在第一次使用时告诉它:我是商业空间主案室内设计师,常用媒体是ArchDaily、谷德、gooood、Dezeen中文、设计腕儿、有方。 每天需要2-3个商业非标设计案例。之后每次对话它都记得这些背景,不用重复说明了。
摘要Theta-gamma耦合(TGC)是支持工作记忆(WM)的一种神经生理机制。TGC与N-back表现(一种WM任务)相关。 不同频段的两个振荡之间相互作用称为跨频耦合(cross-frequency coupling, CFC)。 有研究假设认为TGC支持工作记忆(WM)功能,特别是通过编码信息呈现的顺序。 早期研究检查了海马中TGC在记忆编码中的作用。其他研究详细说明了TGC在其他脑区的作用,例如前额叶皮层、额叶和顶叶皮层,以及基底神经节。 这些结果表明TGC和跨认知任务的信息排序之间存在特质关系,这与任务或临床症状无关。然而,迄今为止,研究TGC和WM任务之间关系的研究大多是横断研究。ERS和ERD是与WM相关的额外的EEG特征。
这条视频: 累计4.7万播放 658转发 转发率1.4% 3天净增300+粉 它不仅追踪数据,还在做视觉复盘: 封面:简洁文字版CTR较高 前5秒:「去年8月」时间锚开场验证有效 字幕:52px清晰,节奏2- 记忆系统:如何让Agent「记住」 每个Agent有两层记忆: 长期记忆(MEMORY.md) 架构决策、踩坑记录、账号信息 比如:「公众号标题用数字效果更好」「周末发文阅读量下降30%」 有重大变化时才更新 AI对话记忆会被压缩、会丢失,但写进文件的东西永远在。 跨会话消息 Agent可以直接问其他Agent: sessions_send({ label: "media-wechat", message: "今天公众号发了什么文章?" 没有记忆的AI,只是一个聪明的工具。 有记忆且能进化的AI,才是会成长的伙伴。
它通过三层记忆架构、MCP规则联动、多Skill并行协同,让AI助手记住项目全生命周期信息,跨会话、跨工具无缝衔接,开发效率直线飙升,Token成本大幅下降。 核心痛点直击 健忘症频发 新开会话、切换窗口,AI瞬间“清零记忆”,项目架构、编码规范、历史Bug全忘光,反复重复说明,耗时又耗Token。 三大核心能力 持久记忆存储 自动捕获会话内工具调用、代码修改、命令执行等操作,生成结构化观察记录 三层渐进式检索:活跃内存→语义检索→长期总结,新会话自动注入关键信息 本地SQLite+Chroma 混合存储,数据安全可控,支持跨设备同步 多Agent并行协 任务自动拆解,多子Agent并行处理,负载动态均衡,结果智能合并 MCP规则全局共享,Skill执行统一调度,避免重复操作与冲突 跨工具记忆互通 未使用插件 使用开源神器 提升效果 上下文记忆 会话清零 跨会话永久存储 减少重复说明约80% 多Agent协作 信息孤岛 全局记忆共享 任务效率提升约3倍 Token消耗 全额填充 智能摘要注入 成本降低约
维度短期记忆(工作记忆)长期记忆类比计算机RAM硬盘存储作用范围单次会话/任务内跨会话、跨任务存储内容当前对话历史、即时上下文、最近交互用户偏好、事实知识、历史经验、反思总结存在形式上下文窗口、消息列表 、运行时缓存外部数据库、向量存储、知识图谱生命周期会话结束即清除(除非主动保存)持久化存储,可跨周/月/年管理方式压缩、裁剪、折叠检索、更新、演化2.1 短期记忆短期记忆存在于会话范围内,即单个会话或任务中 、错误和改进点任务完成时全局回顾,提炼战略记忆将执行经验升华为更高层次策略跨会话启动时检索相关记忆,恢复上下文查询向量数据库,获取用户偏好五、如何检索记忆? AI的选择性回忆有放大用户偏好或压制异议信号的风险总结为AI Agent配置记忆力,本质上是构建一个模拟人脑的分层管理系统:记忆层功能管理策略短期记忆保持当前对话连续性压缩、裁剪、折叠长期记忆存储跨会话知识和经验检索 它牵涉信息表达、结构化组织、检索策略、工具调用链管理、行为一致性维护以及跨会话的经验演化。
1.2 让AI从“工具”进化为“伙伴” 一个只能“回答当前问题”的AI,与另一个能“基于历史经验做决策”的AI,这就是有无记忆能力的本质区别: 跨会话连续性:数据质量监控Agent如果能记住哪些数据集经常出问题 维度 短期记忆(工作记忆) 长期记忆 类比 计算机RAM 硬盘存储 作用范围 单次会话/任务内 跨会话、跨任务 存储内容 当前对话历史、即时上下文、最近交互 用户偏好、事实知识、历史经验、反思总结 存在形式 总结近期模式、错误和改进点 任务完成时 全局回顾,提炼战略记忆 将执行经验升华为更高层次策略 跨会话启动时 检索相关记忆,恢复上下文 查询向量数据库,获取用户偏好 五、如何检索记忆? 长期记忆 存储跨会话知识和经验 检索、更新、演化 元记忆 自我反思与改进 定期总结、提炼模式 真正的Agent Memory是一种系统工程,而非单一模块。 它牵涉信息表达、结构化组织、检索策略、工具调用链管理、行为一致性维护以及跨会话的经验演化。