首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏openclaw系列

    长期记忆会话同步 —— 如何让OpenClaw记住天对话

    关键词:长期记忆会话持久化|增量同步|上下文压缩|设备一致性 在传统聊天机器人中,对话一旦关闭,上下文即被遗忘。 OpenClaw 的目标是让 AI 智能体具备类人的记忆能力:不仅能记住单次对话,还能在天、设备、渠道的场景下保持上下文连贯。这依赖于一套精心设计的长期记忆会话同步机制。 本文将详解: 会话如何持久化存储 何时触发同步以平衡性能与一致性 如何防止记忆膨胀与隐私泄露 如何在 WhatsApp、Web、iOS 间共享同一记忆视图 一、会话模型:从瞬时到持久 OpenClaw 本地优先 所有会话文件存储在用户自有服务器 不上传至任何第三方云 你的记忆,你做主。 六、设备一致性:一个用户,一个记忆视图 当用户同时使用 WhatsApp(手机)和 Web UI(电脑),如何保证记忆同步?

    2.1K21编辑于 2026-03-14
  • 来自专栏与workbuddy合作

    别让你的AI每次醒来都失忆——会话记忆的三个坑

    别让你的 AI 每次醒来都失忆——会话记忆的三个坑你花 10 分钟对齐背景。AI 给了完美方案。下次对话,它又不认识你了。不是它笨,是它没有记忆。 这不是你的问题,不是 AI 模型的问题,是会话架构的默认设计。我花了几个月搭建了一套会话记忆系统,踩了三个坑。这篇文章讲怎么搭建、怎么维护、怎么不翻车。记忆系统的三层结构先说设计。 解决方案:启动协议固化为"检查清单",不依赖记忆# AI 新会话启动协议(不写进记忆,写进系统提示词)每次新会话必须按以下顺序执行:1. 读取最新交接文档(含 HANDOVER 的文件)2. 文件矛盾查询 = 0 # → 三份文件说的是同一件事 pass满足这三个条件,就算一个合格的记忆系统了。不需要完美,够用就好。 写在最后给 AI 加记忆,本质上是在做一件反直觉的事:为一个设计上无状态的系统强行注入连续性。它不会自己"记得"。每一次"记得",都是你设计的文件、规则、读取协议在起作用。但这个门槛值得

    1800编辑于 2026-05-11
  • 来自专栏Elastic Stack专栏

    用 Elasticsearch 给 AI Agent 装一颗大脑:从零构建会话记忆系统

    大模型很聪明,但它没有记忆。每次对话都是一张白纸。这篇文章记录了我如何用 Elasticsearch 的原生能力,给 Agent 装上一套真正能用的长期记忆系统。 user_id,记忆互不可见记忆衰减:不同类型的记忆有不同的 TTL,偏好记一年,任务进展记一周下面一步步落地。 但在企业内部,记忆隔离是硬性要求。 Elasticsearch 既是记忆的存储层,也是记忆的计算层,还是 Agent 的执行层。这第三点是我最想强调的。 语义记忆提炼:从大量情景记忆中蒸馏出抽象的用户画像。比如从 20 次交互中提炼出"这个用户是一个偏好实战、反感空谈的工程师"。这需要一个额外的 Agent 来做周期性的记忆压缩。但这些都是锦上添花。

    12411编辑于 2026-04-30
  • 一虾多魂之agent自动记忆整理工作流

    相较于单角色的记忆维护,多角色系统必然会产生更多的会话窗口并分散在各自不同的记忆保存区域中,如果单个去依次整理归档记忆,就成了重复级的繁琐操作。 由此我诞生了一个想法,自己搭建一套自动定时执行的agent工作区的记忆整理归档工作流。 正好这两天碰上Anthropic的乌龙CC代码泄露事件,很多大佬拆解其底层逻辑,其中有一个关于结构化会话记忆“ClaudeCode为每次对话维护一个结构化Markdown文件,包含会话标题、当前状态、任务规格 agent的全部session,为每个有对话内容的agent维护一个结构化Markdown记忆文件,包含会话标题、当前状态、任务规格、文件与函数、工作流、错误与修正、代码库文档、学习笔记、关键结果、工作日志 token的需求Agent记忆整理工作流说明每天晚上23:45,系统会自动:扫描多个Agent的今日会话提取有价值内容评分筛选高质量内容写入每日摘要+增量精华(长记忆沉淀)推送QQ简报给我目标是无需人工干预

    38410编辑于 2026-04-03
  • 来自专栏开源服务指南

    平台同步 Shell 历史记录,无缝切换会话 | 开源日报 No.154

    其主要功能和核心优势包括: 重新绑定 ctrl-r 和 up (可配置) 到全屏历史搜索界面 将 shell 历史存储在 sqlite 数据库中 备份并同步加密的 shell 历史 在不同终端、会话和机器之间保持相同的历史记录 记录退出代码、当前工作目录、主机名、会话等信息以及命令执行时间等统计数据 除此之外,还支持通过云服务进行数据备份与恢复,并提供详尽而清晰易懂地文档说明。

    68010编辑于 2024-01-15
  • 来自专栏脑电信号科研科普

    老年人θ-γ频率耦合与工作记忆表现之间的纵向关系

    摘要:θ-γ耦合(TGC)是支撑工作记忆的一种神经生理机制,与N-back任务(一种工作记忆任务)的表现相关。 与TCG类似,θ和α能量的事件相关同步(ERS)与事件相关去同步(ERD)也和工作记忆有关。但目前为止,还鲜少有研究探讨工作记忆任务表现与TCG,ERS和ERD之间的关系。 不同频率之间的振荡耦合被称之为频率耦合(CFC),相振幅耦合(PAC)就是是CFC的一种常见形式,它指的是高频振荡的振幅被低频振荡的相位调制的一种现象。 具体来说,刺激呈现之后额叶区域θ功率的上升(θ ERS)与记忆的编码和检索有关;因此,θ ERS可能是注意力需求或者工作记忆加工的表现。 这表明,随时间推移,工作记忆能力和TGC是共变关系。也就是说,工作记忆能力上升了,TGC就会上升,反之亦然。这支持了TGC是支撑工作记忆加工的神经生理机制的说法。

    87940编辑于 2022-09-15
  • 2026年多Agent设计与工程化

    Step 2: 调用分析工具生成图表Step 3: 基于模板撰写报告正文Step 4: 调用邮件API发送给指定收件人阶段二(执行):逐步执行计划,每步可动态调整适用场景:企业报告生成、批量数据处理、系统业务流程编排 Agent的记忆分层架构:层级存储方式生命周期容量典型用途工作记忆对话上下文单次会话~100K tokens当前任务的步骤、中间结果情景记忆向量数据库会话(可过期)百万级向量用户偏好、历史操作模式语义记忆知识图谱 生产系统必须提供:执行轨迹可视化:完整记录每一步的Thought→Action→Observation链路Token消耗追踪:按会话、按用户、按时段统计成功率监控:任务完成率、工具调用成功率、平均执行步数护栏日志 用少量真实场景验证效果预期└─ 评估延迟与成本基线阶段三:数据建设(2-4周)├─ 收集真实用户意图与成功执行轨迹├─ 构建评估数据集(含边界情况)└─ 可选:微调规划/工具选择专用模型阶段四:工程化(3-会话记住常用服务的日志位置和负责人实际效果:常见问题(CPU飙高、接口超时、慢查询)排查时间从平均20分钟降至3分钟70%的一线问题可由Agent直接解决,无需人工介入运维团队从日常“人肉查日志”中解放

    20810编辑于 2026-05-08
  • 《对话记忆的进化史:智能体大模型如何实现轮次的深度交互》

    人类的记忆有工作记忆、短期记忆和长期记忆之分,不同层次的记忆各司其职又相互协作。智能体大模型借鉴这一机制,构建分层记忆架构。 在智能体内部,通过MemoryBank、记忆变量、记忆片段等精巧设计实现长期记忆功能。MemoryBank就像是一个记忆容器,统一管理各类记忆信息。 记忆变量以键值对的形式存在,比如“用户偏好=古典音乐”,可以精准记录用户关键信息。记忆片段则是一段完整的对话或事件信息记录。 在多用户、多场景应用中,为了保障信息安全和准确性,智能体采用隔离设计,不同用户的记忆相互独立,不同应用场景的记忆也不会混淆。 例如,在语言多轮对话中,更好地融合语言信息与文化背景知识,让长期记忆不仅能理解文字表面意思,还能深入挖掘背后的文化内涵,实现真正无国界的智能交互。

    76510编辑于 2025-05-21
  • 来自专栏运维有术

    OpenClaw 会话管理:4 种隔离模式 + 1 套修剪机制,让 AI Agent 从记忆混乱到多用户安全

    Session 核心概念:AI Agent 的记忆中枢 会话定义 OpenClaw 将每个 Agent 的直接聊天会话视为核心单元。 会话是 Agent 记忆的载体,承载着对话历史、上下文状态和令牌计数等关键信息。 直接聊天会话的键格式为: agent:<agentId>:<mainKey> 默认 mainKey 为 main。 会话的生命周期 会话从创建到过期经历以下阶段: 创建:首次消息触发会话创建 活跃:持续接收消息,状态更新 过期:超过 pruneAfter 时间未活跃 清理:维护机制清理过期会话 会话被重用直到过期,过期评估在下一个入站消息时进行 其他来源的键映射 来源类型 键格式 Cron jobs cron:<job.id> Webhooks hook:<uuid> Node runs node-<nodeId> identityLinks 频道映射 session.identityLinks 将提供商前缀的对等 ID 映射到规范身份,这样同一个人在使用 per-peer、per-channel-peer 或 per-account-channel-peer 时可以频道共享

    1.7K20编辑于 2026-04-01
  • 来自专栏天意生信俱乐部

    Cell:单细胞组学绘制免疫记忆器官图谱

    文献导读: 今天分享的这篇文章发表于2024年8月《Cell》期刊,内容聚焦脑-心器官研究新思路。这也是脑心轴研究领域开创性的文章。 研究发现,固有免疫细胞在经历刺激后可发生长期功能变化,这一现象被称为"固有免疫记忆"或"训练免疫"。 更重要的是,研究确定IL-1β是这种固有免疫记忆表观遗传变化的关键驱动因素。 研究方法 本研究采用了单细胞多组学技术全面解析脑卒中后免疫记忆形成机制。 通过模态数据整合(scRNA-seq与ATAC-seq),实现了细胞类型精准注释和基因调控网络构建,发现了脑损伤后持续存在的顺式调控元件变化和关键转录因子活性改变,为揭示脑卒中后免疫记忆与心脏功能障碍之间的分子联系提供了坚实技术支撑

    39910编辑于 2025-05-17
  • 来自专栏脑电信号科研科普

    老年人Theta-Gamma频率耦合与工作记忆表现的纵向关系研究

    摘要Theta-gamma耦合(TGC)是支持工作记忆(WM)的一种神经生理机制。TGC与N-back表现(一种WM任务)相关。 不同频段的两个振荡之间相互作用称为频耦合(cross-frequency coupling, CFC)。 有研究假设认为TGC支持工作记忆(WM)功能,特别是通过编码信息呈现的顺序。 早期研究检查了海马中TGC在记忆编码中的作用。其他研究详细说明了TGC在其他脑区的作用,例如前额叶皮层、额叶和顶叶皮层,以及基底神经节。 这些结果表明TGC和认知任务的信息排序之间存在特质关系,这与任务或临床症状无关。然而,迄今为止,研究TGC和WM任务之间关系的研究大多是横断研究。ERS和ERD是与WM相关的额外的EEG特征。

    79720编辑于 2022-11-07
  • Claude Code 开源神器 根治上下文健忘 多 Agent 并行 记忆协同拉满

    它通过三层记忆架构、MCP规则联动、多Skill并行协同,让AI助手记住项目全生命周期信息,会话工具无缝衔接,开发效率直线飙升,Token成本大幅下降。 核心痛点直击 健忘症频发 新开会话、切换窗口,AI瞬间“清零记忆”,项目架构、编码规范、历史Bug全忘光,反复重复说明,耗时又耗Token。 三大核心能力 持久记忆存储 自动捕获会话内工具调用、代码修改、命令执行等操作,生成结构化观察记录 三层渐进式检索:活跃内存→语义检索→长期总结,新会话自动注入关键信息 本地SQLite+Chroma 混合存储,数据安全可控,支持设备同步 多Agent并行协 任务自动拆解,多子Agent并行处理,负载动态均衡,结果智能合并 MCP规则全局共享,Skill执行统一调度,避免重复操作与冲突 工具记忆互通 未使用插件 使用开源神器 提升效果 上下文记忆 会话清零 会话永久存储 减少重复说明约80% 多Agent协作 信息孤岛 全局记忆共享 任务效率提升约3倍 Token消耗 全额填充 智能摘要注入 成本降低约

    31010编辑于 2026-04-17
  • AI Agent 记忆机制详解:是什么、为什么、怎么用

    维度短期记忆(工作记忆)长期记忆类比计算机RAM硬盘存储作用范围单次会话/任务内会话任务存储内容当前对话历史、即时上下文、最近交互用户偏好、事实知识、历史经验、反思总结存在形式上下文窗口、消息列表 、运行时缓存外部数据库、向量存储、知识图谱生命周期会话结束即清除(除非主动保存)持久化存储,可周/月/年管理方式压缩、裁剪、折叠检索、更新、演化2.1 短期记忆短期记忆存在于会话范围内,即单个会话或任务中 、错误和改进点任务完成时全局回顾,提炼战略记忆将执行经验升华为更高层次策略会话启动时检索相关记忆,恢复上下文查询向量数据库,获取用户偏好五、如何检索记忆? AI的选择性回忆有放大用户偏好或压制异议信号的风险总结为AI Agent配置记忆力,本质上是构建一个模拟人脑的分层管理系统:记忆层功能管理策略短期记忆保持当前对话连续性压缩、裁剪、折叠长期记忆存储会话知识和经验检索 它牵涉信息表达、结构化组织、检索策略、工具调用链管理、行为一致性维护以及会话的经验演化。

    1.2K11编辑于 2026-03-04
  • 来自专栏农民工前端

    AI Agent 记忆机制详解:是什么、为什么、怎么用

    1.2 让AI从“工具”进化为“伙伴” 一个只能“回答当前问题”的AI,与另一个能“基于历史经验做决策”的AI,这就是有无记忆能力的本质区别: 会话连续性:数据质量监控Agent如果能记住哪些数据集经常出问题 维度 短期记忆(工作记忆) 长期记忆 类比 计算机RAM 硬盘存储 作用范围 单次会话/任务内 会话任务 存储内容 当前对话历史、即时上下文、最近交互 用户偏好、事实知识、历史经验、反思总结 存在形式 总结近期模式、错误和改进点 任务完成时 全局回顾,提炼战略记忆 将执行经验升华为更高层次策略 会话启动时 检索相关记忆,恢复上下文 查询向量数据库,获取用户偏好 五、如何检索记忆? 长期记忆 存储会话知识和经验 检索、更新、演化 元记忆 自我反思与改进 定期总结、提炼模式 真正的Agent Memory是一种系统工程,而非单一模块。 它牵涉信息表达、结构化组织、检索策略、工具调用链管理、行为一致性维护以及会话的经验演化。

    62111编辑于 2026-03-06
  • 用这个神器给 Claude Code 装上超级记忆大脑

    claude-mem的出现刚好补上这个短板,这个3.6万星的开源项目,不是简单保存聊天记录,而是给Claude Code搭起一层会话的工作记忆,让模型能顺着上次的进度继续干活,还能大幅减少无效Token ,按需调取细节,Token消耗大幅降低 会话连续性 会话中断即失忆,需重新讲解项目信息 保留工作记忆,新会话可直接衔接上次进度 信息查找 人工翻找历史对话,效率低 可视化记忆流+检索功能,快速定位关键信息 会话连续工作,告别重复讲解 这是最核心的功能,无论是隔天继续开发、中途切换设备,还是临时处理其他任务后回归,Claude Code都能通过claude-mem的记忆层,明确之前的项目结构、修改原因、踩过的坑 若只是偶尔用Claude Code写一次性脚本,无需会话连续工作,使用claude-mem会显得冗余,无需安装。 它通过“提炼索引-按需调取”的逻辑,在Token预算有限的前提下,实现了会话的工作连续性,让Claude Code从“单次对话的编程工具”,变成能持续推进项目的开发搭子。

    94910编辑于 2026-04-17
  • 腾讯云Agent Memory登顶2026主流方案首选榜

    一、设立测评擂台:直击Agent记忆痛点,锚定实施效率排位在AIAgent迈向独立思考与闭环执行的时代,记忆模块已成为决定智能体能否“持续懂你、会话不断线”的核心支柱。 痛点集中在记忆易失、会话断裂、长周期任务无法保持设定一致,导致重复确认与体验割裂。尤其在涉及多步骤、有状态、需记忆的系统级需求场景下,记忆能力不足直接影响智能体的可用性与业务连续性。 其四层渐进式架构(L0原始对话、L1原子记忆、L2场景分块、L3用户画像)可在信息流转中自动完成从碎片化到个性化画像的进化,使AI在会话、长任务中持续记录用户偏好与进度,显著减少重复确认。 但需针对硬件与本地环境做专门优化,部署复杂度较高,实施周期不利于快速见效,在需即刻会话保持统一任务线的主流商业场景中效率存在短板。 然而在长周期、会话复杂项目中,早期关键设定易被后期对话“冲刷”,导致用户需反复重输背景信息,实施效率与记忆稳定性均显著落后。

    18610编辑于 2026-05-07
  • 来自专栏DeepHub IMBA

    Claude Code 命令体系解析:三种类型、七大分类、50+ 命令

    /init — 项目初始化 在项目根目录创建 CLAUDE.md——Claude 每次会话都会读取的持久记忆文件。 快速记忆语法: # 无需打开编辑器即可添加到记忆 # Use async/await for all database queries # 前缀的内容会直接追加到 CLAUDE.md。 10. /todos — 持久化任务列表 维护一个会话持久保存的任务列表。v2.1.16(2026 年 1 月)新增。 设置 CLAUDE_CODE_TASK_LIST_ID 环境变量可以多个 Claude Code 会话共享同一份任务列表,适合并行处理同一项目不同部分的团队场景。 17. 光是这些就能带来 3-4 倍的效率增幅。 2./btw 是改变操作习惯的命令。不打断上下文就能提问,放心多用。 3. 主动压缩而非被动应对。

    2.1K00编辑于 2026-03-31
  • 来自专栏机器之心

    CVPR 2025 Highlight|AdaCM2:首个面向超长视频理解的模态自适应记忆压缩框架

    为此,来自得克萨斯大学阿灵顿分校(UTA)计算机系研究团队提出了 AdaCM2:首个支持超长视频理解的模态记忆压缩框架。 这两大观察构成了 AdaCM2 设计的基础,驱动出一整套可调、可解释、可扩展的「视频记忆管理机制」。 创新:AdaCM2 提出模态动态压缩机制 为应对长视频带来的内存挑战,AdaCM2 首次引入了模态注意力驱动的层级记忆压缩策略。 应用前景:多模态大模型的「长时记忆」引擎 AdaCM2 的提出,为多模态模型赋予了「可控的长时记忆能力」。 总结 AdaCM2 作为首个专注于极长视频理解的模态记忆压缩框架,在大语言模型和视觉编码器之间架起了一座高效的信息筛选桥梁。它不仅优化了计算资源利用率,还拓展了多模态 AI 在实际应用中的边界。

    55210编辑于 2025-06-11
  • 2026年Agent记忆系统方案横评与选型指南

    伴随这一进程,Agent记忆系统由辅助模块跃升为核心基础设施,承担“让AI记住过去、理解未来”的使命,支撑会话、长周期、多任务的连续智能表现。 ,使智能体在会话、长任务中持续记录用户偏好与任务进度。 核心特点包括:原生提供自动写入、分层沉淀、按需召回与治理增强能力,支撑会话、长周期、多任务场景记忆连续性。 小结定位:OpenClaw强在渠道整合与OS化进程;Hermes长于缓存稳定与可解释性;Memori极致压缩Token;OpenViking优化资源与吞吐;腾讯云AgentMemory以四层仿生架构实现会话精准认知与个性化持续理解 从外挂工具到原生核心,记忆系统正经历从“辅助”到“定义”的蜕变,未来智能体将以持续懂你、会话不断线的能力,成为可信赖的第二大脑。

    28110编辑于 2026-05-07
  • 来自专栏Java面试教程

    简单聊聊Hermes Agent

    它通过内建的学习闭环(closed learning loop)从交互中沉淀技能与记忆,并通过统一的消息网关与多终端后端,实现设备、会话的持续工作。 Agent 在完成复杂任务后,可自主将过程固化为技能(Skill),形成过程性记忆;技能在后续使用中会继续被改写与优化。 记忆架构 记忆子系统由多层组成: 用户建模:基于 Honcho 的 dialectic(辩证)用户画像,持续刻画偏好与上下文; 全文检索:采用 SQLite FTS5 对会话历史做会话全文搜索; LLM Assistant、Microsoft Teams 等十余种渠道,并具备语音转写与平台对话连续性。 对于需要平台、会话持续协作,并希望在使用过程中沉淀可复用能力的团队和研究者,Hermes Agent 提供了一条开源、可定制且面向研究的落地路径。

    70890编辑于 2026-05-08
领券