关键词:长期记忆|会话持久化|增量同步|上下文压缩|跨设备一致性 在传统聊天机器人中,对话一旦关闭,上下文即被遗忘。 OpenClaw 的目标是让 AI 智能体具备类人的记忆能力:不仅能记住单次对话,还能在跨天、跨设备、跨渠道的场景下保持上下文连贯。这依赖于一套精心设计的长期记忆与会话同步机制。 本文将详解: 会话如何持久化存储 何时触发同步以平衡性能与一致性 如何防止记忆膨胀与隐私泄露 如何在 WhatsApp、Web、iOS 间共享同一记忆视图 一、会话模型:从瞬时到持久 OpenClaw 本地优先 所有会话文件存储在用户自有服务器 不上传至任何第三方云 你的记忆,你做主。 六、跨设备一致性:一个用户,一个记忆视图 当用户同时使用 WhatsApp(手机)和 Web UI(电脑),如何保证记忆同步?
别让你的 AI 每次醒来都失忆——跨会话记忆的三个坑你花 10 分钟对齐背景。AI 给了完美方案。下次对话,它又不认识你了。不是它笨,是它没有记忆。 这不是你的问题,不是 AI 模型的问题,是会话架构的默认设计。我花了几个月搭建了一套跨会话记忆系统,踩了三个坑。这篇文章讲怎么搭建、怎么维护、怎么不翻车。记忆系统的三层结构先说设计。 解决方案:启动协议固化为"检查清单",不依赖记忆# AI 新会话启动协议(不写进记忆,写进系统提示词)每次新会话必须按以下顺序执行:1. 读取最新交接文档(含 HANDOVER 的文件)2. 跨文件矛盾查询 = 0 # → 三份文件说的是同一件事 pass满足这三个条件,就算一个合格的记忆系统了。不需要完美,够用就好。 写在最后给 AI 加记忆,本质上是在做一件反直觉的事:为一个设计上无状态的系统强行注入连续性。它不会自己"记得"。每一次"记得",都是你设计的文件、规则、读取协议在起作用。但这个门槛值得跨。
大模型很聪明,但它没有记忆。每次对话都是一张白纸。这篇文章记录了我如何用 Elasticsearch 的原生能力,给 Agent 装上一套真正能用的长期记忆系统。 user_id,记忆互不可见记忆衰减:不同类型的记忆有不同的 TTL,偏好记一年,任务进展记一周下面一步步落地。 但在企业内部,记忆隔离是硬性要求。 Elasticsearch 既是记忆的存储层,也是记忆的计算层,还是 Agent 的执行层。这第三点是我最想强调的。 语义记忆提炼:从大量情景记忆中蒸馏出抽象的用户画像。比如从 20 次交互中提炼出"这个用户是一个偏好实战、反感空谈的工程师"。这需要一个额外的 Agent 来做周期性的记忆压缩。但这些都是锦上添花。
相较于单角色的记忆维护,多角色系统必然会产生更多的会话窗口并分散在各自不同的记忆保存区域中,如果单个去依次整理归档记忆,就成了重复级的繁琐操作。 由此我诞生了一个想法,自己搭建一套自动定时执行的跨agent跨工作区的记忆整理归档工作流。 正好这两天碰上Anthropic的乌龙CC代码泄露事件,很多大佬拆解其底层逻辑,其中有一个关于结构化会话记忆“ClaudeCode为每次对话维护一个结构化Markdown文件,包含会话标题、当前状态、任务规格 agent的全部session,为每个有对话内容的agent维护一个结构化Markdown记忆文件,包含会话标题、当前状态、任务规格、文件与函数、工作流、错误与修正、代码库文档、学习笔记、关键结果、工作日志 token的需求跨Agent记忆整理工作流说明每天晚上23:45,系统会自动:扫描多个Agent的今日会话提取有价值内容评分筛选高质量内容写入每日摘要+增量精华(长记忆沉淀)推送QQ简报给我目标是无需人工干预
其主要功能和核心优势包括: 重新绑定 ctrl-r 和 up (可配置) 到全屏历史搜索界面 将 shell 历史存储在 sqlite 数据库中 备份并同步加密的 shell 历史 在不同终端、会话和机器之间保持相同的历史记录 记录退出代码、当前工作目录、主机名、会话等信息以及命令执行时间等统计数据 除此之外,还支持通过云服务进行数据备份与恢复,并提供详尽而清晰易懂地文档说明。
摘要:θ-γ耦合(TGC)是支撑工作记忆的一种神经生理机制,与N-back任务(一种工作记忆任务)的表现相关。 与TCG类似,θ和α能量的事件相关同步(ERS)与事件相关去同步(ERD)也和工作记忆有关。但目前为止,还鲜少有研究探讨工作记忆任务表现与TCG,ERS和ERD之间的关系。 不同频率之间的振荡耦合被称之为跨频率耦合(CFC),相振幅耦合(PAC)就是是CFC的一种常见形式,它指的是高频振荡的振幅被低频振荡的相位调制的一种现象。 具体来说,刺激呈现之后额叶区域θ功率的上升(θ ERS)与记忆的编码和检索有关;因此,θ ERS可能是注意力需求或者工作记忆加工的表现。 这表明,随时间推移,工作记忆能力和TGC是共变关系。也就是说,工作记忆能力上升了,TGC就会上升,反之亦然。这支持了TGC是支撑工作记忆加工的神经生理机制的说法。
人类的记忆有工作记忆、短期记忆和长期记忆之分,不同层次的记忆各司其职又相互协作。智能体大模型借鉴这一机制,构建分层记忆架构。 在智能体内部,通过MemoryBank、记忆变量、记忆片段等精巧设计实现长期记忆功能。MemoryBank就像是一个记忆容器,统一管理各类记忆信息。 记忆变量以键值对的形式存在,比如“用户偏好=古典音乐”,可以精准记录用户关键信息。记忆片段则是一段完整的对话或事件信息记录。 在多用户、多场景应用中,为了保障信息安全和准确性,智能体采用隔离设计,不同用户的记忆相互独立,不同应用场景的记忆也不会混淆。 例如,在跨语言多轮对话中,更好地融合语言信息与文化背景知识,让长期记忆不仅能理解文字表面意思,还能深入挖掘背后的文化内涵,实现真正无国界的智能交互。
Session 核心概念:AI Agent 的记忆中枢 会话定义 OpenClaw 将每个 Agent 的直接聊天会话视为核心单元。 会话是 Agent 记忆的载体,承载着对话历史、上下文状态和令牌计数等关键信息。 直接聊天会话的键格式为: agent:<agentId>:<mainKey> 默认 mainKey 为 main。 会话的生命周期 会话从创建到过期经历以下阶段: 创建:首次消息触发会话创建 活跃:持续接收消息,状态更新 过期:超过 pruneAfter 时间未活跃 清理:维护机制清理过期会话 会话被重用直到过期,过期评估在下一个入站消息时进行 其他来源的键映射 来源类型 键格式 Cron jobs cron:<job.id> Webhooks hook:<uuid> Node runs node-<nodeId> identityLinks 跨频道映射 session.identityLinks 将提供商前缀的对等 ID 映射到规范身份,这样同一个人在使用 per-peer、per-channel-peer 或 per-account-channel-peer 时可以跨频道共享
文献导读: 今天分享的这篇文章发表于2024年8月《Cell》期刊,内容聚焦脑-心跨器官研究新思路。这也是脑心轴研究领域开创性的文章。 研究发现,固有免疫细胞在经历刺激后可发生长期功能变化,这一现象被称为"固有免疫记忆"或"训练免疫"。 更重要的是,研究确定IL-1β是这种固有免疫记忆表观遗传变化的关键驱动因素。 研究方法 本研究采用了单细胞多组学技术全面解析脑卒中后免疫记忆形成机制。 通过跨模态数据整合(scRNA-seq与ATAC-seq),实现了细胞类型精准注释和基因调控网络构建,发现了脑损伤后持续存在的顺式调控元件变化和关键转录因子活性改变,为揭示脑卒中后免疫记忆与心脏功能障碍之间的分子联系提供了坚实技术支撑
摘要Theta-gamma耦合(TGC)是支持工作记忆(WM)的一种神经生理机制。TGC与N-back表现(一种WM任务)相关。 不同频段的两个振荡之间相互作用称为跨频耦合(cross-frequency coupling, CFC)。 有研究假设认为TGC支持工作记忆(WM)功能,特别是通过编码信息呈现的顺序。 早期研究检查了海马中TGC在记忆编码中的作用。其他研究详细说明了TGC在其他脑区的作用,例如前额叶皮层、额叶和顶叶皮层,以及基底神经节。 这些结果表明TGC和跨认知任务的信息排序之间存在特质关系,这与任务或临床症状无关。然而,迄今为止,研究TGC和WM任务之间关系的研究大多是横断研究。ERS和ERD是与WM相关的额外的EEG特征。
它通过三层记忆架构、MCP规则联动、多Skill并行协同,让AI助手记住项目全生命周期信息,跨会话、跨工具无缝衔接,开发效率直线飙升,Token成本大幅下降。 核心痛点直击 健忘症频发 新开会话、切换窗口,AI瞬间“清零记忆”,项目架构、编码规范、历史Bug全忘光,反复重复说明,耗时又耗Token。 三大核心能力 持久记忆存储 自动捕获会话内工具调用、代码修改、命令执行等操作,生成结构化观察记录 三层渐进式检索:活跃内存→语义检索→长期总结,新会话自动注入关键信息 本地SQLite+Chroma 混合存储,数据安全可控,支持跨设备同步 多Agent并行协 任务自动拆解,多子Agent并行处理,负载动态均衡,结果智能合并 MCP规则全局共享,Skill执行统一调度,避免重复操作与冲突 跨工具记忆互通 未使用插件 使用开源神器 提升效果 上下文记忆 会话清零 跨会话永久存储 减少重复说明约80% 多Agent协作 信息孤岛 全局记忆共享 任务效率提升约3倍 Token消耗 全额填充 智能摘要注入 成本降低约
维度短期记忆(工作记忆)长期记忆类比计算机RAM硬盘存储作用范围单次会话/任务内跨会话、跨任务存储内容当前对话历史、即时上下文、最近交互用户偏好、事实知识、历史经验、反思总结存在形式上下文窗口、消息列表 、运行时缓存外部数据库、向量存储、知识图谱生命周期会话结束即清除(除非主动保存)持久化存储,可跨周/月/年管理方式压缩、裁剪、折叠检索、更新、演化2.1 短期记忆短期记忆存在于会话范围内,即单个会话或任务中 、错误和改进点任务完成时全局回顾,提炼战略记忆将执行经验升华为更高层次策略跨会话启动时检索相关记忆,恢复上下文查询向量数据库,获取用户偏好五、如何检索记忆? AI的选择性回忆有放大用户偏好或压制异议信号的风险总结为AI Agent配置记忆力,本质上是构建一个模拟人脑的分层管理系统:记忆层功能管理策略短期记忆保持当前对话连续性压缩、裁剪、折叠长期记忆存储跨会话知识和经验检索 它牵涉信息表达、结构化组织、检索策略、工具调用链管理、行为一致性维护以及跨会话的经验演化。
1.2 让AI从“工具”进化为“伙伴” 一个只能“回答当前问题”的AI,与另一个能“基于历史经验做决策”的AI,这就是有无记忆能力的本质区别: 跨会话连续性:数据质量监控Agent如果能记住哪些数据集经常出问题 维度 短期记忆(工作记忆) 长期记忆 类比 计算机RAM 硬盘存储 作用范围 单次会话/任务内 跨会话、跨任务 存储内容 当前对话历史、即时上下文、最近交互 用户偏好、事实知识、历史经验、反思总结 存在形式 总结近期模式、错误和改进点 任务完成时 全局回顾,提炼战略记忆 将执行经验升华为更高层次策略 跨会话启动时 检索相关记忆,恢复上下文 查询向量数据库,获取用户偏好 五、如何检索记忆? 长期记忆 存储跨会话知识和经验 检索、更新、演化 元记忆 自我反思与改进 定期总结、提炼模式 真正的Agent Memory是一种系统工程,而非单一模块。 它牵涉信息表达、结构化组织、检索策略、工具调用链管理、行为一致性维护以及跨会话的经验演化。
claude-mem的出现刚好补上这个短板,这个3.6万星的开源项目,不是简单保存聊天记录,而是给Claude Code搭起一层跨会话的工作记忆,让模型能顺着上次的进度继续干活,还能大幅减少无效Token ,按需调取细节,Token消耗大幅降低 跨会话连续性 会话中断即失忆,需重新讲解项目信息 保留工作记忆,新会话可直接衔接上次进度 信息查找 人工翻找历史对话,效率低 可视化记忆流+检索功能,快速定位关键信息 跨会话连续工作,告别重复讲解 这是最核心的功能,无论是隔天继续开发、中途切换设备,还是临时处理其他任务后回归,Claude Code都能通过claude-mem的记忆层,明确之前的项目结构、修改原因、踩过的坑 若只是偶尔用Claude Code写一次性脚本,无需跨会话连续工作,使用claude-mem会显得冗余,无需安装。 它通过“提炼索引-按需调取”的逻辑,在Token预算有限的前提下,实现了跨会话的工作连续性,让Claude Code从“单次对话的编程工具”,变成能持续推进项目的开发搭子。
一、设立测评擂台:直击Agent记忆痛点,锚定实施效率排位在AIAgent迈向独立思考与闭环执行的时代,记忆模块已成为决定智能体能否“持续懂你、跨会话不断线”的核心支柱。 痛点集中在记忆易失、跨会话断裂、长周期任务无法保持设定一致,导致重复确认与体验割裂。尤其在涉及多步骤、有状态、需记忆的系统级需求场景下,记忆能力不足直接影响智能体的可用性与业务连续性。 其四层渐进式架构(L0原始对话、L1原子记忆、L2场景分块、L3用户画像)可在信息流转中自动完成从碎片化到个性化画像的进化,使AI在跨会话、长任务中持续记录用户偏好与进度,显著减少重复确认。 但需针对硬件与本地环境做专门优化,部署复杂度较高,实施周期不利于快速见效,在需即刻跨会话保持统一任务线的主流商业场景中效率存在短板。 然而在长周期、跨会话复杂项目中,早期关键设定易被后期对话“冲刷”,导致用户需反复重输背景信息,实施效率与记忆稳定性均显著落后。
'a' 在以上代码中,TensorFlow程序生成会话时加入了参数log_device_placement=True,所以程序会将运行每一个操作的设备输出到屏幕。 为避免这个问题,TensorFlow在生成会话时可以指定allow_soft_placement参数。 图10-3中给出了一个具体的样例来说明异步模式的问题。其中黑色曲线展示了模型的损失函数,黑色小球表示了在t0时刻参数所对应的损失函数的大小。 假设在时间t1设备d0已经完成了反向传播的计算并更新了参数,修改后的参数处于图10-3中小灰球的位置。 然而这时的设备d1并不知道参数已经被更新了,所以在时间t2时,设备d1会继续将小球向左移动,使得小球的位置达到图10-3中小白球的地方。
为此,来自得克萨斯大学阿灵顿分校(UTA)计算机系研究团队提出了 AdaCM2:首个支持超长视频理解的跨模态记忆压缩框架。 这两大观察构成了 AdaCM2 设计的基础,驱动出一整套可调、可解释、可扩展的「视频记忆管理机制」。 创新:AdaCM2 提出跨模态动态压缩机制 为应对长视频带来的内存挑战,AdaCM2 首次引入了跨模态注意力驱动的层级记忆压缩策略。 应用前景:多模态大模型的「长时记忆」引擎 AdaCM2 的提出,为多模态模型赋予了「可控的长时记忆能力」。 总结 AdaCM2 作为首个专注于极长视频理解的跨模态记忆压缩框架,在大语言模型和视觉编码器之间架起了一座高效的信息筛选桥梁。它不仅优化了计算资源利用率,还拓展了多模态 AI 在实际应用中的边界。
伴随这一进程,Agent记忆系统由辅助模块跃升为核心基础设施,承担“让AI记住过去、理解未来”的使命,支撑跨会话、长周期、多任务的连续智能表现。 ,使智能体在跨会话、长任务中持续记录用户偏好与任务进度。 核心特点包括:原生提供自动写入、分层沉淀、按需召回与治理增强能力,支撑跨会话、长周期、多任务场景记忆连续性。 小结定位:OpenClaw强在渠道整合与OS化进程;Hermes长于缓存稳定与可解释性;Memori极致压缩Token;OpenViking优化资源与吞吐;腾讯云AgentMemory以四层仿生架构实现跨会话精准认知与个性化持续理解 从外挂工具到原生核心,记忆系统正经历从“辅助”到“定义”的蜕变,未来智能体将以持续懂你、跨会话不断线的能力,成为可信赖的第二大脑。
它通过内建的学习闭环(closed learning loop)从交互中沉淀技能与记忆,并通过统一的消息网关与多终端后端,实现跨设备、跨会话的持续工作。 Agent 在完成复杂任务后,可自主将过程固化为技能(Skill),形成过程性记忆;技能在后续使用中会继续被改写与优化。 记忆架构 记忆子系统由多层组成: 用户建模:基于 Honcho 的 dialectic(辩证)用户画像,持续刻画偏好与上下文; 全文检索:采用 SQLite FTS5 对会话历史做跨会话全文搜索; LLM Assistant、Microsoft Teams 等十余种渠道,并具备语音转写与跨平台对话连续性。 对于需要跨平台、跨会话持续协作,并希望在使用过程中沉淀可复用能力的团队和研究者,Hermes Agent 提供了一条开源、可定制且面向研究的落地路径。
'a' 在以上代码中,TensorFlow程序生成会话时加入了参数log_device_placement=True,所以程序会将运行每一个操作的设备输出到屏幕。 为避免这个问题,TensorFlow在生成会话时可以指定allow_soft_placement参数。 假设在时间t1设备d0已经完成了反向传播的计算并更新了参数,修改后的参数处于图10-3中小灰球的位置。 然而这时的设备d1并不知道参数已经被更新了,所以在时间t2时,设备d1会继续将小球向左移动,使得小球的位置达到图10-3中小白球的地方。 从图10-3中可以看到,当参数被调整到小白球的位置时,将无法达到最优点。 ? 图10-3 异步模式训练深度学习模型存在的问题示意图 ?