关键词:长期记忆|会话持久化|增量同步|上下文压缩|跨设备一致性 在传统聊天机器人中,对话一旦关闭,上下文即被遗忘。 OpenClaw 的目标是让 AI 智能体具备类人的记忆能力:不仅能记住单次对话,还能在跨天、跨设备、跨渠道的场景下保持上下文连贯。这依赖于一套精心设计的长期记忆与会话同步机制。 本文将详解: 会话如何持久化存储 何时触发同步以平衡性能与一致性 如何防止记忆膨胀与隐私泄露 如何在 WhatsApp、Web、iOS 间共享同一记忆视图 一、会话模型:从瞬时到持久 OpenClaw 本地优先 所有会话文件存储在用户自有服务器 不上传至任何第三方云 你的记忆,你做主。 六、跨设备一致性:一个用户,一个记忆视图 当用户同时使用 WhatsApp(手机)和 Web UI(电脑),如何保证记忆同步?
别让你的 AI 每次醒来都失忆——跨会话记忆的三个坑你花 10 分钟对齐背景。AI 给了完美方案。下次对话,它又不认识你了。不是它笨,是它没有记忆。 这不是你的问题,不是 AI 模型的问题,是会话架构的默认设计。我花了几个月搭建了一套跨会话记忆系统,踩了三个坑。这篇文章讲怎么搭建、怎么维护、怎么不翻车。记忆系统的三层结构先说设计。 11# IDENTITY.md 末尾> 关联文件:SOUL.md(行为准则 2026-05-01版)、MEMORY.md(日常日志)> 最后对齐日期:2026-05-11同时在记忆中维护一个"对齐检查" 解决方案:启动协议固化为"检查清单",不依赖记忆# AI 新会话启动协议(不写进记忆,写进系统提示词)每次新会话必须按以下顺序执行:1. 读取最新交接文档(含 HANDOVER 的文件)2. 跨文件矛盾查询 = 0 # → 三份文件说的是同一件事 pass满足这三个条件,就算一个合格的记忆系统了。不需要完美,够用就好。
大模型很聪明,但它没有记忆。每次对话都是一张白纸。这篇文章记录了我如何用 Elasticsearch 的原生能力,给 Agent 装上一套真正能用的长期记忆系统。 user_id,记忆互不可见记忆衰减:不同类型的记忆有不同的 TTL,偏好记一年,任务进展记一周下面一步步落地。 但在企业内部,记忆隔离是硬性要求。 Elasticsearch 既是记忆的存储层,也是记忆的计算层,还是 Agent 的执行层。这第三点是我最想强调的。 语义记忆提炼:从大量情景记忆中蒸馏出抽象的用户画像。比如从 20 次交互中提炼出"这个用户是一个偏好实战、反感空谈的工程师"。这需要一个额外的 Agent 来做周期性的记忆压缩。但这些都是锦上添花。
福哥答案2020-12-04: 答案来自此链接: 这两个都是G1收集器中的概念 记忆集,RemeberSet,用来记录外部指向本Region的所有引用,每个Region内都会维护一个,因此G1收集器相对而言比较消耗内存的原因就在这里 ,它需要约5~10%的空间维护记忆集。
相较于单角色的记忆维护,多角色系统必然会产生更多的会话窗口并分散在各自不同的记忆保存区域中,如果单个去依次整理归档记忆,就成了重复级的繁琐操作。 由此我诞生了一个想法,自己搭建一套自动定时执行的跨agent跨工作区的记忆整理归档工作流。 正好这两天碰上Anthropic的乌龙CC代码泄露事件,很多大佬拆解其底层逻辑,其中有一个关于结构化会话记忆“ClaudeCode为每次对话维护一个结构化Markdown文件,包含会话标题、当前状态、任务规格 agent的全部session,为每个有对话内容的agent维护一个结构化Markdown记忆文件,包含会话标题、当前状态、任务规格、文件与函数、工作流、错误与修正、代码库文档、学习笔记、关键结果、工作日志 token的需求跨Agent记忆整理工作流说明每天晚上23:45,系统会自动:扫描多个Agent的今日会话提取有价值内容评分筛选高质量内容写入每日摘要+增量精华(长记忆沉淀)推送QQ简报给我目标是无需人工干预
其主要功能和核心优势包括: 重新绑定 ctrl-r 和 up (可配置) 到全屏历史搜索界面 将 shell 历史存储在 sqlite 数据库中 备份并同步加密的 shell 历史 在不同终端、会话和机器之间保持相同的历史记录 记录退出代码、当前工作目录、主机名、会话等信息以及命令执行时间等统计数据 除此之外,还支持通过云服务进行数据备份与恢复,并提供详尽而清晰易懂地文档说明。
摘要:θ-γ耦合(TGC)是支撑工作记忆的一种神经生理机制,与N-back任务(一种工作记忆任务)的表现相关。 与TCG类似,θ和α能量的事件相关同步(ERS)与事件相关去同步(ERD)也和工作记忆有关。但目前为止,还鲜少有研究探讨工作记忆任务表现与TCG,ERS和ERD之间的关系。 不同频率之间的振荡耦合被称之为跨频率耦合(CFC),相振幅耦合(PAC)就是是CFC的一种常见形式,它指的是高频振荡的振幅被低频振荡的相位调制的一种现象。 具体来说,刺激呈现之后额叶区域θ功率的上升(θ ERS)与记忆的编码和检索有关;因此,θ ERS可能是注意力需求或者工作记忆加工的表现。 这表明,随时间推移,工作记忆能力和TGC是共变关系。也就是说,工作记忆能力上升了,TGC就会上升,反之亦然。这支持了TGC是支撑工作记忆加工的神经生理机制的说法。
福哥答案2020-11-21: 答案来自此链接: 跨代引用常出现与 CMS 分代收集时需要使用可达性分析判断对象是否存活,JVM将堆内存分为 年轻代、老年代、永久代||元空间,跨代引用就是年轻代对象可能会引用老年代或者永久代的实例对象 PS:在没有分代的ZGC中,不存在跨代引用哦。 *** 评论
React Native,是一个混合移动应用开发框架,是目前流行的跨平台移动应用开发框架之一。React Native 采用不同的方法进行混合移动应用开发。
维度短期记忆(工作记忆)长期记忆类比计算机RAM硬盘存储作用范围单次会话/任务内跨会话、跨任务存储内容当前对话历史、即时上下文、最近交互用户偏好、事实知识、历史经验、反思总结存在形式上下文窗口、消息列表 、运行时缓存外部数据库、向量存储、知识图谱生命周期会话结束即清除(除非主动保存)持久化存储,可跨周/月/年管理方式压缩、裁剪、折叠检索、更新、演化2.1 短期记忆短期记忆存在于会话范围内,即单个会话或任务中 、错误和改进点任务完成时全局回顾,提炼战略记忆将执行经验升华为更高层次策略跨会话启动时检索相关记忆,恢复上下文查询向量数据库,获取用户偏好五、如何检索记忆? 它牵涉信息表达、结构化组织、检索策略、工具调用链管理、行为一致性维护以及跨会话的经验演化。 突破智能体长时记忆瓶颈,双代理架构实现跨会话连续工作,国家科技图书文献中心,2025-11 10 设计代理人工智能:架构、自主性和责任感,Ranktracker,2025-12 您好,我是肥晨。
维度 短期记忆(工作记忆) 长期记忆 类比 计算机RAM 硬盘存储 作用范围 单次会话/任务内 跨会话、跨任务 存储内容 当前对话历史、即时上下文、最近交互 用户偏好、事实知识、历史经验、反思总结 存在形式 总结近期模式、错误和改进点 任务完成时 全局回顾,提炼战略记忆 将执行经验升华为更高层次策略 跨会话启动时 检索相关记忆,恢复上下文 查询向量数据库,获取用户偏好 五、如何检索记忆? 长期记忆 存储跨会话知识和经验 检索、更新、演化 元记忆 自我反思与改进 定期总结、提炼模式 真正的Agent Memory是一种系统工程,而非单一模块。 它牵涉信息表达、结构化组织、检索策略、工具调用链管理、行为一致性维护以及跨会话的经验演化。 ] Anthropic突破智能体长时记忆瓶颈,双代理架构实现跨会话连续工作,国家科技图书文献中心,2025-11 [10] 设计代理人工智能:架构、自主性和责任感,Ranktracker,2025-12
人类的记忆有工作记忆、短期记忆和长期记忆之分,不同层次的记忆各司其职又相互协作。智能体大模型借鉴这一机制,构建分层记忆架构。 在智能体内部,通过MemoryBank、记忆变量、记忆片段等精巧设计实现长期记忆功能。MemoryBank就像是一个记忆容器,统一管理各类记忆信息。 记忆变量以键值对的形式存在,比如“用户偏好=古典音乐”,可以精准记录用户关键信息。记忆片段则是一段完整的对话或事件信息记录。 在多用户、多场景应用中,为了保障信息安全和准确性,智能体采用隔离设计,不同用户的记忆相互独立,不同应用场景的记忆也不会混淆。 例如,在跨语言多轮对话中,更好地融合语言信息与文化背景知识,让长期记忆不仅能理解文字表面意思,还能深入挖掘背后的文化内涵,实现真正无国界的智能交互。
Session 核心概念:AI Agent 的记忆中枢 会话定义 OpenClaw 将每个 Agent 的直接聊天会话视为核心单元。 会话是 Agent 记忆的载体,承载着对话历史、上下文状态和令牌计数等关键信息。 直接聊天会话的键格式为: agent:<agentId>:<mainKey> 默认 mainKey 为 main。 会话的生命周期 会话从创建到过期经历以下阶段: 创建:首次消息触发会话创建 活跃:持续接收消息,状态更新 过期:超过 pruneAfter 时间未活跃 清理:维护机制清理过期会话 会话被重用直到过期,过期评估在下一个入站消息时进行 其他来源的键映射 来源类型 键格式 Cron jobs cron:<job.id> Webhooks hook:<uuid> Node runs node-<nodeId> identityLinks 跨频道映射 session.identityLinks 将提供商前缀的对等 ID 映射到规范身份,这样同一个人在使用 per-peer、per-channel-peer 或 per-account-channel-peer 时可以跨频道共享
文献导读: 今天分享的这篇文章发表于2024年8月《Cell》期刊,内容聚焦脑-心跨器官研究新思路。这也是脑心轴研究领域开创性的文章。 研究发现,固有免疫细胞在经历刺激后可发生长期功能变化,这一现象被称为"固有免疫记忆"或"训练免疫"。 更重要的是,研究确定IL-1β是这种固有免疫记忆表观遗传变化的关键驱动因素。 研究方法 本研究采用了单细胞多组学技术全面解析脑卒中后免疫记忆形成机制。 通过跨模态数据整合(scRNA-seq与ATAC-seq),实现了细胞类型精准注释和基因调控网络构建,发现了脑损伤后持续存在的顺式调控元件变化和关键转录因子活性改变,为揭示脑卒中后免疫记忆与心脏功能障碍之间的分子联系提供了坚实技术支撑
摘要Theta-gamma耦合(TGC)是支持工作记忆(WM)的一种神经生理机制。TGC与N-back表现(一种WM任务)相关。 不同频段的两个振荡之间相互作用称为跨频耦合(cross-frequency coupling, CFC)。 有研究假设认为TGC支持工作记忆(WM)功能,特别是通过编码信息呈现的顺序。 早期研究检查了海马中TGC在记忆编码中的作用。其他研究详细说明了TGC在其他脑区的作用,例如前额叶皮层、额叶和顶叶皮层,以及基底神经节。 这些结果表明TGC和跨认知任务的信息排序之间存在特质关系,这与任务或临床症状无关。然而,迄今为止,研究TGC和WM任务之间关系的研究大多是横断研究。ERS和ERD是与WM相关的额外的EEG特征。
它通过三层记忆架构、MCP规则联动、多Skill并行协同,让AI助手记住项目全生命周期信息,跨会话、跨工具无缝衔接,开发效率直线飙升,Token成本大幅下降。 核心痛点直击 健忘症频发 新开会话、切换窗口,AI瞬间“清零记忆”,项目架构、编码规范、历史Bug全忘光,反复重复说明,耗时又耗Token。 三大核心能力 持久记忆存储 自动捕获会话内工具调用、代码修改、命令执行等操作,生成结构化观察记录 三层渐进式检索:活跃内存→语义检索→长期总结,新会话自动注入关键信息 本地SQLite+Chroma 混合存储,数据安全可控,支持跨设备同步 多Agent并行协 任务自动拆解,多子Agent并行处理,负载动态均衡,结果智能合并 MCP规则全局共享,Skill执行统一调度,避免重复操作与冲突 跨工具记忆互通 未使用插件 使用开源神器 提升效果 上下文记忆 会话清零 跨会话永久存储 减少重复说明约80% 多Agent协作 信息孤岛 全局记忆共享 任务效率提升约3倍 Token消耗 全额填充 智能摘要注入 成本降低约
claude-mem的出现刚好补上这个短板,这个3.6万星的开源项目,不是简单保存聊天记录,而是给Claude Code搭起一层跨会话的工作记忆,让模型能顺着上次的进度继续干活,还能大幅减少无效Token ,按需调取细节,Token消耗大幅降低 跨会话连续性 会话中断即失忆,需重新讲解项目信息 保留工作记忆,新会话可直接衔接上次进度 信息查找 人工翻找历史对话,效率低 可视化记忆流+检索功能,快速定位关键信息 跨会话连续工作,告别重复讲解 这是最核心的功能,无论是隔天继续开发、中途切换设备,还是临时处理其他任务后回归,Claude Code都能通过claude-mem的记忆层,明确之前的项目结构、修改原因、踩过的坑 若只是偶尔用Claude Code写一次性脚本,无需跨会话连续工作,使用claude-mem会显得冗余,无需安装。 它通过“提炼索引-按需调取”的逻辑,在Token预算有限的前提下,实现了跨会话的工作连续性,让Claude Code从“单次对话的编程工具”,变成能持续推进项目的开发搭子。
一、设立测评擂台:直击Agent记忆痛点,锚定实施效率排位在AIAgent迈向独立思考与闭环执行的时代,记忆模块已成为决定智能体能否“持续懂你、跨会话不断线”的核心支柱。 痛点集中在记忆易失、跨会话断裂、长周期任务无法保持设定一致,导致重复确认与体验割裂。尤其在涉及多步骤、有状态、需记忆的系统级需求场景下,记忆能力不足直接影响智能体的可用性与业务连续性。 其四层渐进式架构(L0原始对话、L1原子记忆、L2场景分块、L3用户画像)可在信息流转中自动完成从碎片化到个性化画像的进化,使AI在跨会话、长任务中持续记录用户偏好与进度,显著减少重复确认。 但需针对硬件与本地环境做专门优化,部署复杂度较高,实施周期不利于快速见效,在需即刻跨会话保持统一任务线的主流商业场景中效率存在短板。 然而在长周期、跨会话复杂项目中,早期关键设定易被后期对话“冲刷”,导致用户需反复重输背景信息,实施效率与记忆稳定性均显著落后。
,在电商推荐场景实现点击率17%的提升··4 跨任务迁移:Agent S的语义记忆网络支持GU操作技能的跨平台迁移,使新任务学习成本降低60% 上下文工程:正从“技巧”向“学科”进化未来,上下文工程可能成为每一个 ":规格锚定(Spec-anchored):规格文档长期保留,成为功能的"数字档案",确保跨会话、跨迭代的一致性规格即源码(Spec-as-source):规格成为唯一需要人类维护的源文件,代码由AI自动生成 Store(存储):用于实现长期记忆。与Checkpointer自动保存状态不同,Store需要开发者显式地进行读写操作,通常用于保存需要跨线程共享的结构化知识(如用户档案、产品信息等)。 Tair/Redis分布式缓存:商品详情、价格等高频数据会话状态通过客户端Cookie+Redis集中存储,交易状态通过消息队列异步同步,核心数据落地数据库,避免服务实例存储状态支撑双11亿级并发,订单峰值 分布式缓存:模型参数分片缓存(加速推理)会话状态外置,每次请求携带会话ID,LLM推理不存储状态,通过检索获取历史上下文突破LLM上下文窗口限制,支持长期对话一致性,降低推理成本分布式数据库(如TiDB
主要特性全面的记忆管理:通过我们的强大 API 轻松管理长期、短期、语义和情景记忆,适用于个别用户、代理和会话。自我改进的记忆:我们的自适应系统持续从用户互动中学习,随着时间的推移不断完善其理解。 跨平台一致性:确保在各种 AI 平台和应用程序中提供统一的用户体验。集中式记忆控制:轻松存储、更新和删除记忆,免去记忆管理的烦恼。 client.add(messages, user_id="从零开始学AI")短期记忆给用户会话messages = [ {"role": "user", "content": "我计划下个月看一本书 client.search(query, user_id="从零开始学AI")获取所有记忆使用 getAll() 方法获取用户、代理或会话的所有记忆。 ")获取特定记忆memory = client.get(memory_id="0e2bded6-4d55-11ef-b589-00163e064f1a")记忆历史获取记忆随时间变化的历史# 添加一些消息以创建历史