首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏数智转型架构师

    通俗讲解大模型短期记忆 vs 长期记忆

    有些同学问:智能体的 Memory 中 短期记忆(Short-term memory)与长期记忆(Long-term memory)是什么意思?有什么区别? 其中记忆包括短期记忆长期记忆。 短期记忆是智能体在单一会话中维护即时上下文的能力。 工作机制: 它完全依赖于大模型(LLM)的上下文窗口。 长期记忆允许智能体存储、检索和利用过去跨越数天、数月甚至数年的信息。 技术实现: 通常采用 检索增强生成(RAG) 技术。智能体将重要信息转化为向量(Embeddings)存入数据库。 拿 Cherry Studio 为例,长期记忆是通过“全局记忆”实现的。 你可以手动添加记忆,也可以在智能体里开启记忆。它就会把自己需要记忆的信息做判断,然后自动存储。 长期记忆则是通过持久化存储,如向量数据库实现的,可以跨对话。 如果文章对你有帮助,可以给我三连击:点赞、喜欢,并转发给身边需要的朋友。 希望本文分享的技巧对你有帮助,我们下次再见。

    69410编辑于 2026-03-04
  • 来自专栏计算机工具

    长期记忆、短期记忆、遗忘机制及门控机制;

    长期记忆、短期记忆、遗忘机制及门控机制智能问答系统实现长期记忆、短期记忆、遗忘机制以及门控机制的方法如下: 长期记忆的实现- **使用数据库存储**:将大量的知识、信息和历史交互数据存储在数据库中。 这样系统可以通过遍历知识图谱来获取更全面和深入的知识,实现长期记忆。短期记忆的实现:滑动窗口- **使用缓存技术**:在系统内存中设置缓存,用于临时存储近期使用过的信息。 遗忘机制的实现- **设置时间阈值**:为存储的信息设置**时间戳**,当信息的存储时间超过一定阈值时,将其从缓存或长期记忆存储中删除。 对于长期记忆中的信息,如果长时间没有被使用,其活跃度较低,系统可以逐渐降低其权重或在存储空间紧张时将其删除。门控机制及其示例门控机制是一种在智能问答系统中用于控制信息流动和筛选的机制。 遗忘门决定了从过去的记忆中丢弃多少信息;输入门控制新的信息有多少可以进入记忆单元;输出门决定了当前的记忆状态有多少可以作为输出。

    64121编辑于 2025-01-18
  • 来自专栏AI大模型

    Spring AI 实战:聊天记忆之DB存储,长期记忆

    在前文当中,我们已经介绍了 Agent 的记忆能力,并基于 Spring AI 的聊天记忆组件,实现了具备记忆功能的智能行程规划 Agent。 二、记忆策略设计 在完成持久化改造的基础上,还需配套建立记忆数据的管理、更新与失效机制: 为用户记忆配置 TTL 过期策略(如 7 天有效期),自动清理冗余数据; 通过提示词工程,让 Agent 仅保留核心偏好 中配置 MySQL 连接信息和 JDBC 记忆参数; step 3:初始化记忆组件:绑定JdbcChatMemoryRepository 与 ChatMemory,配置双记忆类型; step 4:开发业务服务 :封装带记忆的行程规划逻辑,支持记忆类型动态切换 step 5:提供接口:设计标准化 HTTP 接口,支持规划、清除、查询功能。 未查询到记忆时,按当前需求正常规划,不提示记忆相关信息。

    20510编辑于 2026-03-31
  • 来自专栏程序员

    智能体(Agent)的记忆架构:深入解析短期记忆长期记忆

    新的会话将从零开始构建短期记忆,除非有意识地将上次会话的关键信息保存至长期记忆。第二章:长期记忆——智能体的知识库与经验库2.1定义与本质长期记忆是智能体在多次交互和会话之间持久化存储信息的系统。 2.2技术实现与工作机制长期记忆的实现不依赖于模型的上下文窗口,而是通过外部系统构建,主要涉及三个过程:存储存储什么:并非所有短期记忆中的信息都值得长期保存。 检索当新的会话开始时,Agent不会加载整个长期记忆库(那样会瞬间爆满短期记忆)。相反,它会根据当前的用户查询和短期记忆的上下文,去长期记忆库中寻找最相关的信息。 检索长期记忆:系统将当前查询与短期记忆的上下文结合,作为“检索键”,在长期记忆库中进行向量相似性搜索,找出相关记忆。 结论与展望短期记忆长期记忆是构成智能体认知架构的两大支柱。

    2K11编辑于 2025-09-25
  • 来自专栏AI人工智能

    智能体的记忆系统:短期记忆长期记忆与知识图谱

    智能体的记忆系统:短期记忆长期记忆与知识图谱 嗨,我是IRpickstars! 总有一行代码,能点亮万千星辰。 在技术的宇宙中,我愿做永不停歇的探索者。✨ 用代码丈量世界,用算法解码未来。 而具备记忆能力的智能体,能够记录和回忆过去的经验,从而在多轮对话、任务规划和长期交互中表现出更高的连贯性和智能性。智能体的记忆系统主要包括短期记忆长期记忆和知识图谱三个层次。 短期记忆用于存储当前会话或任务的上下文信息,长期记忆用于保存长期积累的知识和经验,而知识图谱则通过结构化的方式组织和表示知识实体及其关系。 长期记忆(Long-Term Memory, LTM):用于保存长期积累的知识和经验,生命周期较长。 长期记忆(LTM)长期记忆用于保存长期积累的知识和经验,生命周期较长。其实现方式包括:数据库存储:使用关系型或非关系型数据库存储知识信息。文件系统:将知识信息以文件的形式存储,支持持久化和版本控制。

    1.6K00编辑于 2025-07-14
  • 来自专栏AI SPPECH

    MCP 与长期记忆系统结合

    )的一个重要设计目标就是支持与长期记忆系统的深度集成,通过标准化的接口和协议,让 Agent 能够高效地存储、检索和利用长期记忆。 1.2 长期记忆集成的核心挑战 将长期记忆系统与 Agent 集成面临着诸多挑战: 记忆存储与检索效率:如何高效地存储和检索大量的记忆数据 记忆的关联性与结构化:如何将非结构化的记忆转化为结构化的知识 二、核心更新亮点与新要素 2.1 MCP v2.0 长期记忆集成的核心更新 MCP v2.0 针对长期记忆系统集成进行了多项关键更新,主要包括: 扩展的记忆管理 API:提供了一套完整的记忆存储、检索、 、版本控制 Memory Validator 记忆验证器 记忆质量检查、一致性验证、冲突解决 3.1.2 集成架构图 MCP 与长期记忆系统的集成架构如下所示: 这个架构图展示了 MCP 与长期记忆系统的集成方式 支持复杂任务:长期记忆支持 Agent 处理复杂的多步任务和长期项目 促进知识共享:不同 Agent 之间可以共享记忆资源,促进知识的传播和复用 5.2 潜在风险 尽管 MCP 与长期记忆系统的结合具有诸多优势

    30810编辑于 2026-01-08
  • 来自专栏AI SPPECH

    35:Multimodal Memory系统设计:短期记忆长期记忆、结构化+Graph记忆架构

    技术实现 5.1 短期记忆实现 5.2 长期记忆实现 5.3 结构化记忆实现 5.4 Graph记忆实现 5.5 多模态融合实现 5.6 完整系统实现 6. 核心技术架构 4.1 系统架构 4.2 核心组件 组件 功能 作用 数据预处理 处理多模态输入数据 标准化和特征提取 短期记忆 存储近期和临时信息 快速访问和处理 长期记忆 存储长期和重要信息 持久化存储和检索 :") for item in stm.get_all(): print(item) 5.2 长期记忆实现 核心思想:使用向量存储和数据库,存储长期和重要信息,支持高效检索。 、长期记忆、结构化记忆和Graph记忆,构建完整的Multimodal Memory系统。 最佳实践与调优 9.1 最佳实践 记忆管理: 合理设置短期记忆容量,平衡内存使用和性能 定期将短期记忆中的重要信息转移到长期记忆 优化长期记忆的索引结构,提高检索速度 多模态处理: 选择合适的多模态模型

    16410编辑于 2026-04-05
  • 状态空间模型为视频世界模型解锁长期记忆

    然而,一个重大瓶颈依然存在:长期记忆的维持。由于使用传统的注意力层处理长序列会产生高昂的计算成本,当前模型难以记住过去较远时间的事件和状态,这限制了它们执行需要持续理解复杂场景的任务的能力。 随着视频上下文的增长,注意力层所需的资源会爆炸式增长,使得长期记忆在实际应用中变得不切实际。 这种全局(状态空间模型)和局部(注意力)双重处理方法,使他们能够同时实现长期记忆和局部保真度。 研究人员在具有挑战性的数据集上评估了他们的长上下文状态空间视频世界模型,包括Memory Maze和Minecraft,这些数据集专门设计用于通过空间检索和推理任务来测试长期记忆能力。 实验表明,他们的方法在保持长期记忆方面显著超越了基线模型。

    16310编辑于 2026-03-17
  • 来自专栏云云众生s

    向量数据库:人工智能的长期记忆

    向量数据库:人工智能的长期记忆 翻译自 Vector Databases: Long-Term Memory for Artificial Intelligence 。 人工智能(例如ChatGPT)的作用类似于具有固有记忆的人去图书馆阅读每一本书。然而,当你问一个 AI 一个不在图书馆书中的问题时,它要么承认自己不知道,要么产生幻觉。

    78310编辑于 2024-03-27
  • 来自专栏JS/TS

    Claude-Mem:给 AI 编程助手装上长期记忆

    这个痛点,Claude-Mem给出了解决方案——一个专为ClaudeCode打造的持久化记忆系统,让AI助手真正记住你们的每一次协作。 Claude-Mem通过自动捕获、AI压缩、智能检索三个步骤,实现了:✅**跨会话记忆保持:自动记录所有工具调用和代码操作✅**智能内容压缩:用ClaudeAgentSDK将冗长对话压缩成精炼摘要✅** 按需精准检索:通过自然语言查询历史记忆,大幅节省Token成本技术架构解析核心组件构成展开代码语言:TXTAI代码解释系统架构:├──钩子系统(7个生命周期钩子)├──Worker服务(HTTPAPI+ Claude:[自动触发mem-search]→检索到2条相关观察记录→返回:修改了auth.ts和session.middleware.ts场景二:项目知识库构建长期使用后,Claude-Mem会自动构建项目的 写在最后Claude-Mem不仅是一个工具,更是AI辅助编程的范式探索:如何让AI从"一次性对话"进化为"长期协作伙伴"。

    1.1K10编辑于 2026-01-26
  • 来自专栏新智元

    【Science】MIT研究长期记忆神经回路,海马体和新皮层记忆同时产生

    【新智元导读】MIT 4月6日在 Science 上发表的一篇论文对基于记忆过程的神经回路进行了研究,首次揭示出记忆在海马体和新(大脑)皮层中的长期储存是同时形成的,而在到达成熟状态之前,这一长期记忆会保持长达两周的 当我们拜访一个朋友或去海滩时,大脑会在一个叫做海马体的部分存储短期的记忆。一段名为海马脑部的经验的短暂记忆。这些记忆之后会被“巩固”——即转移到大脑的另一部分进行长期存储。 一项最新的针对基于这一过程的神经回路的MIT 研究首次揭示出,记忆是在海马体和大脑皮层中的长期储存区同时形成的。然而,在到达成熟状态之前,这一长期记忆会保持长达两周的“沉默”。 记忆长期存储 从20世纪50年代开始,对著名的遗忘症患者 Henry Molaison (当时只称为患者H.M.)的研究表明,海马体对于形成新的长期记忆至关重要。 Molaison 在控制癫痫发作的手术期间损伤了海马体,术后无法再存储新的记忆。然而,他仍然可以回忆起手术前的一些事情。 这表明长期的情景记忆(特定事件的记忆)被存储在海马体外。

    1.8K40发布于 2018-03-27
  • 来自专栏运维有术

    OpenClaw Memory:让 AI Agent 拥有 7×24 小时的长期记忆

    两层记忆,各管各的 OpenClaw 默认用两层结构存记忆: 每日日志:memory/2026-02-23.md 这个文件只追加,不修改。每次对话开始,系统自动加载今天和昨天的日志。 长期记忆:MEMORY.md 这个文件需要手动维护,用来存那些值得长期记住的东西——你的偏好、常用配置、重要决策。 有一个细节让我印象深刻:MEMORY.md只在私聊中加载,群聊不会读。 我之前维护过一个持续半年的项目,记忆文件积累了几百个。搜索"部署流程",返回的结果全是半年前的——早就废弃了。 时序衰减解决的就是这个问题:新记忆权重高,老记忆权重低。 场景三:长期项目,需要时序衰减 这是我目前在用的配置,适合持续数月的项目: { agents: { defaults: { memorySearch: { provider 如果你也在找一个有长期记忆的 AI Agent,不妨试试。

    54200编辑于 2026-04-01
  • 来自专栏openclaw系列

    长期记忆与会话同步 —— 如何让OpenClaw记住跨天对话

    关键词:长期记忆|会话持久化|增量同步|上下文压缩|跨设备一致性 在传统聊天机器人中,对话一旦关闭,上下文即被遗忘。 OpenClaw 的目标是让 AI 智能体具备类人的记忆能力:不仅能记住单次对话,还能在跨天、跨设备、跨渠道的场景下保持上下文连贯。这依赖于一套精心设计的长期记忆与会话同步机制。 // 消息历史(含 AI 思考、工具调用) lastAccessed: number; // 最后活跃时间戳 memoryEnabled: boolean; // 是否启用长期记忆 四、长期记忆注入:让历史对话参与 RAG 启用 sessionMemory.enabled: true 后,当前会话的历史消息会被自动纳入 RAG 检索源。 记忆不是回放,而是主动关联。 五、隐私与安全:记忆不是无限存储 长期记忆带来便利,也带来风险。OpenClaw 实施多重保护: 1.

    1.5K21编辑于 2026-03-14
  • 来自专栏AI科技评论

    RNN和LSTM有长期记忆吗?并没有!| ICML 2020

    那么如果 不可和,则 具有长期记忆;如果 可和,则 具有短期记忆。除了自协方差函数之外,还可以等价地用谱密度函数来定义长期或短期记忆。更严谨的表述见下图中定义一。 我们选择了一种简单直接的方式来定义多维时间序列的长期记忆,那就是检查时间序列的各个维度是否具有长期记忆,忽略不同维度之间的长期相关性。每个维度 都有一个记忆参数 来对该维度进行建模。 外部变量若本身就带有长期记忆性质,会干扰我们对于神经网络记忆性质的分析,所以有外部变量时无法使用现有的统计学上对于长期记忆性质的定义。 长期记忆滤波器的具体形式为 MRNN网络结构的图例为 其中长期记忆隐层单元 是与普通隐层单元 并列运作的新隐层单元, 负责捕捉长期记忆的信息,而 负责对短期的信息进行建模。 那么门不随时间变化的LSTM不具备长期记忆,而门不随时间变化的MLSTM(简称MLSTMF)具有长期记忆

    2.8K41发布于 2020-06-30
  • 谷歌Titans架构引入动态长期记忆机制

    论文的核心观点与贡献 论文的核心论点是:通过分离短期记忆(注意力)和长期记忆(神经记忆模块),并引入动态学习机制,可以构建高效且可扩展的序列模型。 相关背景与整体框架 前提假设:序列数据 的建模需要平衡局部依赖(短期记忆)和全局历史(长期记忆)。 记忆检索:对于查询 ,通过前向传播(无权重更新)获取输出:此步骤允许模型从长期记忆中提取相关信息,而不改变记忆状态。 最后,用 更新长期记忆:。 分析:神经记忆模块(LMM)单独使用已超越多数基线,显示长期记忆的有效性;结合注意力后(MAC/MAG)进一步优化。

    9910编辑于 2026-04-09
  • 来自专栏机器之心

    Transformer又出新变体∞-former:无限长期记忆,任意长度上下文

    但它也有弱点,比如不擅长处理较长上下文,因为计算复杂度会随着上下文长度的增长而增长,这使其难以有效建模长期记忆。 论文链接:https://arxiv.org/pdf/2109.00301.pdf 通过利用连续空间注意力机制来处理长期记忆,∞-former 的注意力复杂度可以独立于上下文长度。 此外,研究者还进行了语言建模的实验,包括从头开始训练一个模型以及对一个预训练的语言模型进行微调,这些实验显示了无限长期记忆的优势。 从中可以看出,利用长期记忆扩展模型确实会带来更好的困惑度结果,而且使用粘性记忆也可以在一定程度上降低困惑度。 第二个语言建模实验的结果如下表 2 所示。 该结果表明,通过简单地将长期记忆添加至 GPT-2 并进行微调,模型在 Wikitext-103 和 PG19 上的困惑度都会降低。

    44910编辑于 2023-03-29
  • 今天 AI 记忆系统又进了一步:Engram、Claude Code、EdgeClaw 正在把“长期记忆”做成工程能力

    今天 AI 记忆系统又进了一步:Engram、Claude Code、EdgeClaw 正在把“长期记忆”做成工程能力 最近一波关于 AI Agent 记忆系统的更新,很值得放在一起看。 : 长期任务里,真正危险的不是记忆不够,而是上下文膨胀和信息噪声。 Code 强调的就是: 长期记忆必须可整理、可裁剪、可怀疑,否则系统最终会被自己的历史拖垮。 成本意识成为核心约束 AI 记忆如果每次 recall 都重新跑大模型,长期一定会很贵。 •如何让记忆和隐私、成本、路由协同工作 •如何为长期上下文提供可视化和生命周期管理 最后 AI Agent 的下一阶段竞争,可能不只是模型能力,也不只是工具调用能力,而是能否拥有一个真正可持续的长期记忆系统

    14610编辑于 2026-04-09
  • 来自专栏AI SPPECH

    Mem0: 构建具有可扩展长期记忆的生产级 AI 智能体

    核心更新亮点与全新要素 本节核心价值:深入了解 Mem0 的三大核心创新点,及其如何实现智能体的可扩展长期记忆。 特别是在需要长期记忆和复杂推理的任务中,Mem0 的优势更加明显 4. 5.1 工程实践意义 Mem0 为 LLM 智能体的工程实践带来了多方面的价值: 长期对话连贯性:通过有效的记忆管理,Mem0 使得智能体能够在长期多会话对话中保持连贯性和一致性,提高了用户体验。 长期记忆稳定性:如何确保长期记忆的稳定性和一致性,避免记忆退化或冲突? 记忆可解释性:如何提高记忆管理的可解释性,使用户能够理解和控制智能体的记忆? 关键超参数:信息提取阈值、记忆整合策略、图记忆构建参数 关键词: Mem0, 长期记忆, 图基记忆, LLM 智能体, 可扩展性, 生产级, 记忆管理

    58410编辑于 2026-03-22
  • 来自专栏AI

    快速开始,为您的AI应用注入长期记忆和个性化能力!

    介绍为您的 AI 应用程序赋予长期记忆和个性化能力欢迎来到 Mem0 平台Mem0 平台是一个托管服务,它彻底改变了 AI 应用程序处理记忆的方式。 主要特性全面的记忆管理:通过我们的强大 API 轻松管理长期、短期、语义和情景记忆,适用于个别用户、代理和会话。自我改进的记忆:我们的自适应系统持续从用户互动中学习,随着时间的推移不断完善其理解。 创建记忆您可以为您的用户、AI 代理等创建长期和短期记忆。 这里有一些例子:长期记忆给用户messages = [ {"role": "user", "content": "嗨,我是 从零开始学AI 。 client.add(messages, user_id="从零开始学AI", session_id="read-a-book")长期记忆给代理messages = [ {"role": "system

    1.2K10编辑于 2024-07-29
  • 前瞻与回顾:长期个性化对话代理的反射式记忆管理技术

    摘要大型语言模型(LLM)在开放域对话中取得显著进展,但长期交互中信息保留与检索的不足限制了其持续个性化能力。 现有外部记忆机制存在两大挑战:1)固定记忆粒度无法捕捉对话的自然语义结构;2)静态检索机制难以适应多样化对话场景。 本文提出反射式记忆管理(RMM),通过以下创新解决上述问题: 前瞻性反射:动态汇总话语、轮次和会话多粒度内容至个性化记忆库; 回顾性反射:基于LLM引用证据,以在线强化学习方式迭代优化检索。 技术架构多粒度记忆编码 分层处理原始对话流,生成 utterance/turn/session 三级记忆单元 基于注意力权重的动态融合机制 强化学习驱动的检索优化 设计奖励函数评估检索结果与对话上下文的关联性 采用策略梯度方法在线更新检索策略 记忆库维护 基于时效性与使用频率的遗忘机制 冲突检测与冗余消除算法 实验结果数据集 记忆方法 准确率提升LongMemEval 基线(无记忆

    23810编辑于 2025-08-01
领券