首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏openclaw系列

    长期记忆会话同步 —— 如何让OpenClaw记住天对话

    关键词:长期记忆会话持久化|增量同步|上下文压缩|设备一致性 在传统聊天机器人中,对话一旦关闭,上下文即被遗忘。 OpenClaw 的目标是让 AI 智能体具备类人的记忆能力:不仅能记住单次对话,还能在天、设备、渠道的场景下保持上下文连贯。这依赖于一套精心设计的长期记忆会话同步机制。 本文将详解: 会话如何持久化存储 何时触发同步以平衡性能与一致性 如何防止记忆膨胀与隐私泄露 如何在 WhatsApp、Web、iOS 间共享同一记忆视图 一、会话模型:从瞬时到持久 OpenClaw 本地优先 所有会话文件存储在用户自有服务器 不上传至任何第三方云 你的记忆,你做主。 六、设备一致性:一个用户,一个记忆视图 当用户同时使用 WhatsApp(手机)和 Web UI(电脑),如何保证记忆同步?

    2.1K21编辑于 2026-03-14
  • 来自专栏与workbuddy合作

    别让你的AI每次醒来都失忆——会话记忆的三个坑

    别让你的 AI 每次醒来都失忆——会话记忆的三个坑你花 10 分钟对齐背景。AI 给了完美方案。下次对话,它又不认识你了。不是它笨,是它没有记忆。 这不是你的问题,不是 AI 模型的问题,是会话架构的默认设计。我花了几个月搭建了一套会话记忆系统,踩了三个坑。这篇文章讲怎么搭建、怎么维护、怎么不翻车。记忆系统的三层结构先说设计。 解决方案:启动协议固化为"检查清单",不依赖记忆# AI 新会话启动协议(不写进记忆,写进系统提示词)每次新会话必须按以下顺序执行:1. 读取最新交接文档(含 HANDOVER 的文件)2. 文件矛盾查询 = 0 # → 三份文件说的是同一件事 pass满足这三个条件,就算一个合格的记忆系统了。不需要完美,够用就好。 写在最后给 AI 加记忆,本质上是在做一件反直觉的事:为一个设计上无状态的系统强行注入连续性。它不会自己"记得"。每一次"记得",都是你设计的文件、规则、读取协议在起作用。但这个门槛值得

    2200编辑于 2026-05-11
  • 来自专栏Elastic Stack专栏

    用 Elasticsearch 给 AI Agent 装一颗大脑:从零构建会话记忆系统

    大模型很聪明,但它没有记忆。每次对话都是一张白纸。这篇文章记录了我如何用 Elasticsearch 的原生能力,给 Agent 装上一套真正能用的长期记忆系统。 user_id,记忆互不可见记忆衰减:不同类型的记忆有不同的 TTL,偏好记一年,任务进展记一周下面一步步落地。 但在企业内部,记忆隔离是硬性要求。 Elasticsearch 既是记忆的存储层,也是记忆的计算层,还是 Agent 的执行层。这第三点是我最想强调的。 语义记忆提炼:从大量情景记忆中蒸馏出抽象的用户画像。比如从 20 次交互中提炼出"这个用户是一个偏好实战、反感空谈的工程师"。这需要一个额外的 Agent 来做周期性的记忆压缩。但这些都是锦上添花。

    12411编辑于 2026-04-30
  • 5 天狂揽 3 万星的 Hermes Agent 到底是个啥?它跟 OpenClaw 到底什么区别?

    支持多行编辑 多 Agent 协作 支持(Subagent) 支持(子代理 + 并行任务) MCP 生态 支持 支持,且集成更完善 更新速度 稳定迭代 极快(3-5 天一个大版本) Hermes Agent 持久记忆系统 Hermes 的记忆架构是一大亮点。 它不只是简单的对话历史存储,而是一套多层体系: 紧凑持久内存 :会话保留关键上下文 SQLite 可检索会话历史 :随时翻回去查 技能过程记忆 :记录每次任务的执行路径,下次同类任务可以直接参考 可选的建模层 Hermes Agent 好的地方: 记忆系统相对会强一点,会话不忘事儿。自动技能生成省事儿,不用一个个手写。安全机制默认就有,不用自己折腾。 需要适应的地方: 文档是英文的,得慢慢看。 我的建议是: 选 Hermes Agent,如果: 需要一个「越用越懂你」的长期运行 Agent 不想花时间配置安全机制,开箱即用更省心 需要会话记忆功能 想要自动技能生成,少写点代码 选 OpenClaw

    52710编辑于 2026-04-17
  • 一虾多魂之agent自动记忆整理工作流

    相较于单角色的记忆维护,多角色系统必然会产生更多的会话窗口并分散在各自不同的记忆保存区域中,如果单个去依次整理归档记忆,就成了重复级的繁琐操作。 由此我诞生了一个想法,自己搭建一套自动定时执行的agent工作区的记忆整理归档工作流。 正好这两天碰上Anthropic的乌龙CC代码泄露事件,很多大佬拆解其底层逻辑,其中有一个关于结构化会话记忆“ClaudeCode为每次对话维护一个结构化Markdown文件,包含会话标题、当前状态、任务规格 agent的全部session,为每个有对话内容的agent维护一个结构化Markdown记忆文件,包含会话标题、当前状态、任务规格、文件与函数、工作流、错误与修正、代码库文档、学习笔记、关键结果、工作日志 token的需求Agent记忆整理工作流说明每天晚上23:45,系统会自动:扫描多个Agent的今日会话提取有价值内容评分筛选高质量内容写入每日摘要+增量精华(长记忆沉淀)推送QQ简报给我目标是无需人工干预

    38410编辑于 2026-04-03
  • 来自专栏开源服务指南

    平台同步 Shell 历史记录,无缝切换会话 | 开源日报 No.154

    其主要功能和核心优势包括: 重新绑定 ctrl-r 和 up (可配置) 到全屏历史搜索界面 将 shell 历史存储在 sqlite 数据库中 备份并同步加密的 shell 历史 在不同终端、会话和机器之间保持相同的历史记录 记录退出代码、当前工作目录、主机名、会话等信息以及命令执行时间等统计数据 除此之外,还支持通过云服务进行数据备份与恢复,并提供详尽而清晰易懂地文档说明。

    68010编辑于 2024-01-15
  • 来自专栏脑电信号科研科普

    老年人θ-γ频率耦合与工作记忆表现之间的纵向关系

    摘要:θ-γ耦合(TGC)是支撑工作记忆的一种神经生理机制,与N-back任务(一种工作记忆任务)的表现相关。 与TCG类似,θ和α能量的事件相关同步(ERS)与事件相关去同步(ERD)也和工作记忆有关。但目前为止,还鲜少有研究探讨工作记忆任务表现与TCG,ERS和ERD之间的关系。 不同频率之间的振荡耦合被称之为频率耦合(CFC),相振幅耦合(PAC)就是是CFC的一种常见形式,它指的是高频振荡的振幅被低频振荡的相位调制的一种现象。 具体来说,刺激呈现之后额叶区域θ功率的上升(θ ERS)与记忆的编码和检索有关;因此,θ ERS可能是注意力需求或者工作记忆加工的表现。 这表明,随时间推移,工作记忆能力和TGC是共变关系。也就是说,工作记忆能力上升了,TGC就会上升,反之亦然。这支持了TGC是支撑工作记忆加工的神经生理机制的说法。

    87940编辑于 2022-09-15
  • 《对话记忆的进化史:智能体大模型如何实现轮次的深度交互》

    人类的记忆有工作记忆、短期记忆和长期记忆之分,不同层次的记忆各司其职又相互协作。智能体大模型借鉴这一机制,构建分层记忆架构。 在智能体内部,通过MemoryBank、记忆变量、记忆片段等精巧设计实现长期记忆功能。MemoryBank就像是一个记忆容器,统一管理各类记忆信息。 记忆变量以键值对的形式存在,比如“用户偏好=古典音乐”,可以精准记录用户关键信息。记忆片段则是一段完整的对话或事件信息记录。 在多用户、多场景应用中,为了保障信息安全和准确性,智能体采用隔离设计,不同用户的记忆相互独立,不同应用场景的记忆也不会混淆。 例如,在语言多轮对话中,更好地融合语言信息与文化背景知识,让长期记忆不仅能理解文字表面意思,还能深入挖掘背后的文化内涵,实现真正无国界的智能交互。

    76510编辑于 2025-05-21
  • 来自专栏运维有术

    OpenClaw 会话管理:4 种隔离模式 + 1 套修剪机制,让 AI Agent 从记忆混乱到多用户安全

    Session 核心概念:AI Agent 的记忆中枢 会话定义 OpenClaw 将每个 Agent 的直接聊天会话视为核心单元。 会话是 Agent 记忆的载体,承载着对话历史、上下文状态和令牌计数等关键信息。 直接聊天会话的键格式为: agent:<agentId>:<mainKey> 默认 mainKey 为 main。 会话的生命周期 会话从创建到过期经历以下阶段: 创建:首次消息触发会话创建 活跃:持续接收消息,状态更新 过期:超过 pruneAfter 时间未活跃 清理:维护机制清理过期会话 会话被重用直到过期,过期评估在下一个入站消息时进行 其他来源的键映射 来源类型 键格式 Cron jobs cron:<job.id> Webhooks hook:<uuid> Node runs node-<nodeId> identityLinks 频道映射 session.identityLinks 将提供商前缀的对等 ID 映射到规范身份,这样同一个人在使用 per-peer、per-channel-peer 或 per-account-channel-peer 时可以频道共享

    1.7K20编辑于 2026-04-01
  • 来自专栏DeepHub IMBA

    Claude Code 命令体系解析:三种类型、七大分类、50+ 命令

    /init — 项目初始化 在项目根目录创建 CLAUDE.md——Claude 每次会话都会读取的持久记忆文件。 2026 年 2 月发行说明提到,/compact 的执行速度已经降到即时完成,之前需要 3-5 秒。 快速记忆语法: # 无需打开编辑器即可添加到记忆 # Use async/await for all database queries # 前缀的内容会直接追加到 CLAUDE.md。 10. /todos — 持久化任务列表 维护一个会话持久保存的任务列表。v2.1.16(2026 年 1 月)新增。 设置 CLAUDE_CODE_TASK_LIST_ID 环境变量可以多个 Claude Code 会话共享同一份任务列表,适合并行处理同一项目不同部分的团队场景。 17.

    2.1K00编辑于 2026-03-31
  • 来自专栏天意生信俱乐部

    Cell:单细胞组学绘制免疫记忆器官图谱

    文献导读: 今天分享的这篇文章发表于2024年8月《Cell》期刊,内容聚焦脑-心器官研究新思路。这也是脑心轴研究领域开创性的文章。 研究发现,固有免疫细胞在经历刺激后可发生长期功能变化,这一现象被称为"固有免疫记忆"或"训练免疫"。 更重要的是,研究确定IL-1β是这种固有免疫记忆表观遗传变化的关键驱动因素。 研究方法 本研究采用了单细胞多组学技术全面解析脑卒中后免疫记忆形成机制。 通过模态数据整合(scRNA-seq与ATAC-seq),实现了细胞类型精准注释和基因调控网络构建,发现了脑损伤后持续存在的顺式调控元件变化和关键转录因子活性改变,为揭示脑卒中后免疫记忆与心脏功能障碍之间的分子联系提供了坚实技术支撑

    39910编辑于 2025-05-17
  • 来自专栏脑电信号科研科普

    老年人Theta-Gamma频率耦合与工作记忆表现的纵向关系研究

    摘要Theta-gamma耦合(TGC)是支持工作记忆(WM)的一种神经生理机制。TGC与N-back表现(一种WM任务)相关。 不同频段的两个振荡之间相互作用称为频耦合(cross-frequency coupling, CFC)。 有研究假设认为TGC支持工作记忆(WM)功能,特别是通过编码信息呈现的顺序。 早期研究检查了海马中TGC在记忆编码中的作用。其他研究详细说明了TGC在其他脑区的作用,例如前额叶皮层、额叶和顶叶皮层,以及基底神经节。 这些结果表明TGC和认知任务的信息排序之间存在特质关系,这与任务或临床症状无关。然而,迄今为止,研究TGC和WM任务之间关系的研究大多是横断研究。ERS和ERD是与WM相关的额外的EEG特征。

    79720编辑于 2022-11-07
  • # 疯狂熬夜三个月,我终于把AI Agent做成了:这不是你以为的「套壳」

    而Agent模式下,大模型可以:自主规划任务步骤:把一个复杂目标拆解成多个子任务调用外部工具:搜索、计算、读写文件、执行代码长期记忆会话积累上下文和学习经验环境交互:感知环境变化并调整行为用一个类比来解释 (Memory):分为三种类型:短期记忆(Short-term):当前会话的上下文长期记忆(Long-term):会话积累的知识工作记忆(Working):任务执行过程中的临时信息工具模块(Tools 你的能力你可以通过以下工具完成复杂任务:{tools_desc}##工作流程1.首先收集信息:读取工作记录文件2.分析整理:分类本周工作内容3.生成周报:按照标准格式撰写##输出格式周报需要包含:-本周完成(3- 5条)-进行中(1-3条)-下周计划(3-5条)-心得总结(1条)##注意事项-数据必须来自实际文件,不要编造-语言简洁专业,突出价值-遇到不确定的信息,主动搜索核实"""defthink(self,user_input 从我自己的实践来看,当前Agent最成熟的落地场景是:信息收集与整理:自动搜索、汇总、分类信息流程自动化:把重复性工作流程化代码辅助:自动生成、Review、调试文档处理:总结、翻译、改写而最难突破的场景是:组织协调

    26710编辑于 2026-04-29
  • 来自专栏红蓝对抗

    Agentic AI基础设施实践经验系列(三):Agent记忆模块的最佳实践

    短期记忆受限于上下文窗口大小,适用于简单对话和单一任务场景。长期记忆长期记忆(Long-term Memory, LTM)是智能体用于会话任务长期保存知识的记忆形式。 轮数触发是每隔3-5轮对话自动生成摘要存入记忆;事件触发则在完成任务、场景转换等关键节点记录信息。例如,客服完成问题处理时保存解决方案,个人助理更新日程后写入日历。 这不仅让用户指定重要内容,也支持删除特定记忆的需求,确保用户对数据的控制权。记忆存储:记忆组织结构设计记忆数据通常采用用户→会话记忆片段的三层结构管理。 传统的大语言模型在会话结束或上下文窗口被超出时会丢失之前的交互信息,而 LangMem 为 AI 代理提供了长期记忆能力,使其能够会话保持知识连续性,记住用户的偏好、过往交互和重要事实。 对于会话的信息,可以使用 retrieve_memories 接口通过语义查询长期记忆,例如查询某用户的偏好或某主题的事实知识,然后把检索到的内容纳入提示。

    1.2K10编辑于 2025-12-01
  • Claude Code 开源神器 根治上下文健忘 多 Agent 并行 记忆协同拉满

    它通过三层记忆架构、MCP规则联动、多Skill并行协同,让AI助手记住项目全生命周期信息,会话工具无缝衔接,开发效率直线飙升,Token成本大幅下降。 核心痛点直击 健忘症频发 新开会话、切换窗口,AI瞬间“清零记忆”,项目架构、编码规范、历史Bug全忘光,反复重复说明,耗时又耗Token。 三大核心能力 持久记忆存储 自动捕获会话内工具调用、代码修改、命令执行等操作,生成结构化观察记录 三层渐进式检索:活跃内存→语义检索→长期总结,新会话自动注入关键信息 本地SQLite+Chroma 混合存储,数据安全可控,支持设备同步 多Agent并行协 任务自动拆解,多子Agent并行处理,负载动态均衡,结果智能合并 MCP规则全局共享,Skill执行统一调度,避免重复操作与冲突 工具记忆互通 未使用插件 使用开源神器 提升效果 上下文记忆 会话清零 会话永久存储 减少重复说明约80% 多Agent协作 信息孤岛 全局记忆共享 任务效率提升约3倍 Token消耗 全额填充 智能摘要注入 成本降低约

    31210编辑于 2026-04-17
  • AI Agent 记忆机制详解:是什么、为什么、怎么用

    维度短期记忆(工作记忆)长期记忆类比计算机RAM硬盘存储作用范围单次会话/任务内会话任务存储内容当前对话历史、即时上下文、最近交互用户偏好、事实知识、历史经验、反思总结存在形式上下文窗口、消息列表 、运行时缓存外部数据库、向量存储、知识图谱生命周期会话结束即清除(除非主动保存)持久化存储,可周/月/年管理方式压缩、裁剪、折叠检索、更新、演化2.1 短期记忆短期记忆存在于会话范围内,即单个会话或任务中 、错误和改进点任务完成时全局回顾,提炼战略记忆将执行经验升华为更高层次策略会话启动时检索相关记忆,恢复上下文查询向量数据库,获取用户偏好五、如何检索记忆? AI的选择性回忆有放大用户偏好或压制异议信号的风险总结为AI Agent配置记忆力,本质上是构建一个模拟人脑的分层管理系统:记忆层功能管理策略短期记忆保持当前对话连续性压缩、裁剪、折叠长期记忆存储会话知识和经验检索 它牵涉信息表达、结构化组织、检索策略、工具调用链管理、行为一致性维护以及会话的经验演化。

    1.2K11编辑于 2026-03-04
  • 来自专栏农民工前端

    AI Agent 记忆机制详解:是什么、为什么、怎么用

    1.2 让AI从“工具”进化为“伙伴” 一个只能“回答当前问题”的AI,与另一个能“基于历史经验做决策”的AI,这就是有无记忆能力的本质区别: 会话连续性:数据质量监控Agent如果能记住哪些数据集经常出问题 维度 短期记忆(工作记忆) 长期记忆 类比 计算机RAM 硬盘存储 作用范围 单次会话/任务内 会话任务 存储内容 当前对话历史、即时上下文、最近交互 用户偏好、事实知识、历史经验、反思总结 存在形式 总结近期模式、错误和改进点 任务完成时 全局回顾,提炼战略记忆 将执行经验升华为更高层次策略 会话启动时 检索相关记忆,恢复上下文 查询向量数据库,获取用户偏好 五、如何检索记忆? 长期记忆 存储会话知识和经验 检索、更新、演化 元记忆 自我反思与改进 定期总结、提炼模式 真正的Agent Memory是一种系统工程,而非单一模块。 它牵涉信息表达、结构化组织、检索策略、工具调用链管理、行为一致性维护以及会话的经验演化。

    62211编辑于 2026-03-06
  • 用这个神器给 Claude Code 装上超级记忆大脑

    claude-mem的出现刚好补上这个短板,这个3.6万星的开源项目,不是简单保存聊天记录,而是给Claude Code搭起一层会话的工作记忆,让模型能顺着上次的进度继续干活,还能大幅减少无效Token ,按需调取细节,Token消耗大幅降低 会话连续性 会话中断即失忆,需重新讲解项目信息 保留工作记忆,新会话可直接衔接上次进度 信息查找 人工翻找历史对话,效率低 可视化记忆流+检索功能,快速定位关键信息 会话连续工作,告别重复讲解 这是最核心的功能,无论是隔天继续开发、中途切换设备,还是临时处理其他任务后回归,Claude Code都能通过claude-mem的记忆层,明确之前的项目结构、修改原因、踩过的坑 若只是偶尔用Claude Code写一次性脚本,无需会话连续工作,使用claude-mem会显得冗余,无需安装。 它通过“提炼索引-按需调取”的逻辑,在Token预算有限的前提下,实现了会话的工作连续性,让Claude Code从“单次对话的编程工具”,变成能持续推进项目的开发搭子。

    94910编辑于 2026-04-17
  • 腾讯云Agent Memory登顶2026主流方案首选榜

    一、设立测评擂台:直击Agent记忆痛点,锚定实施效率排位在AIAgent迈向独立思考与闭环执行的时代,记忆模块已成为决定智能体能否“持续懂你、会话不断线”的核心支柱。 痛点集中在记忆易失、会话断裂、长周期任务无法保持设定一致,导致重复确认与体验割裂。尤其在涉及多步骤、有状态、需记忆的系统级需求场景下,记忆能力不足直接影响智能体的可用性与业务连续性。 其四层渐进式架构(L0原始对话、L1原子记忆、L2场景分块、L3用户画像)可在信息流转中自动完成从碎片化到个性化画像的进化,使AI在会话、长任务中持续记录用户偏好与进度,显著减少重复确认。 但需针对硬件与本地环境做专门优化,部署复杂度较高,实施周期不利于快速见效,在需即刻会话保持统一任务线的主流商业场景中效率存在短板。 然而在长周期、会话复杂项目中,早期关键设定易被后期对话“冲刷”,导致用户需反复重输背景信息,实施效率与记忆稳定性均显著落后。

    18810编辑于 2026-05-07
  • 售前打工人的龙虾进化史:从加班写标书到23个Skill解放双手

    memory-manager + Obsidian 会话记忆,再也不用重复交代背景 内部知识 our-kms 一键查公司内部知识库 办公自动化 QQ邮箱 / 发票整理 / 腾讯会议 邮件收发+发票归类 docx/xlsx/pptx/txt/md) 提取关键维度:行业、规模、已有系统、核心痛点、预算、时间要求…… 联网补全企业的工商信息和最新动态 输出一份完整的分析报告 + 初步方案建议 全过程大约 3- 它的工作原理 三层记忆架构: ┌─────────────────────────────┐ │ 第一层:会话记忆(当前对话) │ ← 正在聊的内容,本次可用 ├────────────────── ───────────┤ │ 第二层:短期记忆(Daily Log)│ ← 今天干了什么,对话可读 ├─────────────────────────────┤ │ 第三层:长期记忆(Memory 存哪里 存什么 存多久 会话记忆 当前任务的上下文 本次对话 日志记忆 当天干了什么 30天后归档 长期记忆 客户档案、规范、偏好、经验 永久保存 不是所有信息都值得被记住。

    84285编辑于 2026-05-05
领券