首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Vegout

    Nanobot 记忆系统深度解析

    长期记忆是用户的第二大脑,不是日志" ❌ 不会自动把所有对话都塞进去 ❌ 没有复杂的自动摘要算法 ✅ 依赖 LLM 的推理能力判断"什么值得记住" ✅ 保持简洁,只存真正重要的信息 总结 nanobot 的记忆系统通过分层设计解决了记忆膨胀问题

    39110编辑于 2026-03-13
  • 来自专栏服务端技术杂谈

    智能体记忆系统

    为了解决这一问题,业界开源了Mem0长期记忆系统。 它通过动态的提取、整合、检索对话中的关键信息,赋予了智能体长期记忆的能力。 底座是包含向量数据库和知识图谱架构设计。 最有效的记忆系统会将语义相似性搜索和关系遍历相结合的混合搜索。 当用户问:“其他具有相似风险偏好的客户提出过哪些投资担忧?”

    30711编辑于 2026-03-11
  • 来自专栏AI SPPECH

    MCP 与长期记忆系统结合

    MCP v2.0 实现了多记忆系统的协作机制,能够根据不同的查询需求,选择合适的记忆系统进行检索: 查询路由:根据查询类型和需求,将查询路由到合适的记忆系统 结果融合:将来自不同记忆系统的检索结果进行融合和排序 系统切换:当某个记忆系统不可用时,自动切换到备用系统 负载均衡:在多个记忆系统间均衡分配查询请求,提高系统性能和可靠性 3.9 MCP 记忆系统的性能优化 3.9.1 性能优化策略 MCP v2.0 ,测试环境如下: 硬件:8 核 CPU,32GB 内存,NVIDIA A100 GPU 软件:MCP v2.0,Pinecone 向量数据库,Python 3.11 测试数据:100 万条记忆数据,每条数据大小约 1KB 测试结果如下: 操作类型 平均响应时间 吞吐量(每秒操作数) 记忆存储 120ms 8,333 记忆检索(10条结果) 80ms 12,500 记忆更新 150ms 6,666 记忆删除 50ms 部署完善的监控和日志系统 定期进行记忆数据备份和恢复测试 持续优化记忆系统性能 关注记忆系统的隐私和伦理问题 关键词: MCP v2.0, 长期记忆系统, 记忆管理 API, 上下文增强检索,

    31710编辑于 2026-01-08
  • 来自专栏服务端技术杂谈

    用文件系统思路设计Agent记忆系统

    如果想让智能体更好的服务用户,精准的记住用户的偏好和历史交互细节等信息就非常重要。

    18710编辑于 2026-03-11
  • Agent 记忆系统的标准方案为何失效剖析

    开发者Rohit面试失败后,开始深入研究Agent记忆系统,最终构建出生产级方案。核心洞察:记忆是基础设施,不是功能。 写的是垃圾记忆当聊天历史—聊天历史短暂,记忆是结构化表示核心心智模型把Agent当操作系统,不是聊天机器人:RAM:当前对话的快速易失上下文硬盘:持久化、索引化的知识存储垃圾回收:定期维护,否则系统崩溃总结记忆系统的关键在于

    12310编辑于 2026-02-12
  • 智能体记忆系统检索优化:告别“答非所问”的实战指南

    摘要 在AI智能体应用日益普及的今天,记忆系统检索不相关结果已成为制约用户体验的核心痛点。 这些“答非所问”背后的元凶,往往是智能体记忆系统检索不相关。本文将深入剖析这一痛点,并提供切实可行的优化方案。 正文 一、记忆检索的三大核心挑战 智能体记忆系统检索不相关主要源于三大挑战。 结语 在AI智能体应用爆发式增长的今天,智能体记忆系统检索优化已成为提升用户体验的关键。

    35010编辑于 2025-10-29
  • 基于 MemOS 大模型长记忆系统的架构实践与场景落地

    记忆张量团队依托在数据智能、知识图谱领域的技术积淀(核心团队曾主导阿里千亿级数字商业知识图谱构建),研发出 MemOS 大模型长记忆系统,聚焦解决大模型记忆能力短板,同时适配轻量化部署,为架构师提供可复用的长记忆技术落地方案 智能协作:Unity 中国游戏开发效率提升 Unity 中国(技术经理范乃如)将 MemOS 与旗下 Vibe Coding 工具结合,打造游戏开发智能协作新空间: 通过 MemOS 记忆系统存储游戏开发中的代码规范 技术价值与架构复用性 MemOS 大模型长记忆系统的架构实践,为架构师提供三大可复用价值: 技术层面:长记忆算法模块(如 MemScheduler 调度逻辑、PD 分离协同方案)可独立集成至现有大模型应用架构 成本层面:基于弹性部署方案,结合 PD 分离与记忆优化技术,可降低大模型长记忆应用的算力成本 30%-45%;冷数据分层存储进一步减少存储开销,企业级客户平均回本周期缩短至 8 个月。

    1.5K20编辑于 2026-01-07
  • 来自专栏AI人工智能

    智能体的记忆系统:短期记忆、长期记忆与知识图谱

    本文将深入探讨这些技术,并通过Python/PyTorch代码示例,展示如何实现智能体的记忆系统。智能体记忆系统概述智能体的记忆系统是其核心组件之一,负责存储和管理与环境交互过程中获得的信息。 记忆系统分类与实现智能体的记忆系统可以根据其功能和实现方式,分为以下几类:1. 短期记忆(STM)短期记忆用于存储当前会话或任务的上下文信息,通常具有较短的生命周期。 ", "向量数据库应用", "知识图谱构建"]ground_truth = { "智能体记忆系统": ["智能体是具有自主决策能力的AI系统", "记忆系统包括短期记忆和长期记忆"], 从技术发展趋势来看,我认为未来的智能体记忆系统将呈现以下几个发展方向:多模态记忆融合:未来的记忆系统将不仅仅处理文本信息,还需要整合图像、音频、视频等多模态数据,构建更加丰富和完整的记忆表示。 ⚡️ 我的更新节奏:每周三晚8点:深度技术长文每周日早10点:高效开发技巧突发技术热点:48小时内专题解析

    1.6K00编辑于 2025-07-14
  • 来自专栏DeepHub IMBA

    向量存储vs知识图谱:LLM记忆系统技术选型

    本文会从问题本身出发,看看构建高效记忆系统需要什么,比较不同架构方案,以及市面上有哪些开源和商业化的实现。 袖珍型事实这块,可以参考ChatGPT的记忆系统。它们大概率用了一个分类器判断某条消息是否包含需要存储的事实。 开源方案 下面是我整理的一些搭建记忆系统的独立解决方案,包括实现原理、架构选择和框架成熟度。 高级LLM应用开发还是个很新的领域,这些方案基本都是最近一两年才出现的。 最后总结 虽然有记忆系统支持,但是也别指望完美。这些系统还是会出现幻觉或者漏掉答案。现在没有系统能做到完美准确,至少目前还没有。研究表明幻觉是LLM固有特性,加记忆层也消除不了这个问题。 希望本文能帮新手理解LLM记忆系统的实现思路。 作者:Ida Silfverskiöld 喜欢就关注一下吧: 点个 在看 你最好看!

    34510编辑于 2025-11-15
  • 理解 RAG:大模型的外部记忆系统是如何工作的

    无论是企业知识问答、智能客服,还是 Agent 记忆系统,几乎都离不开它的支持。 历史与发展脉络 原理与关键技术(包括“向量”的通俗解释) 与传统检索技术(倒排索引、图索引)的区别 在 LLM 记忆体系中的角色与局限 常见的向量模型、组件与开源框架 以及 RAG 的进化方向 —— 以 长期记忆系统为代表的 "主动记忆系统" RAG 的起源与发展 RAG 的概念最早出现在 Facebook AI(Meta AI) 2020 年的论文: ❝Lewis et al., “Retrieval-Augmented 代表性技术包括 MemGPT、LangGraph Memory 等,以及结合摘要、反思、遗忘机制的长期记忆系统概念。 简而言之: ❝RAG 让模型"能查资料"; 这些记忆系统让模型"能记得事"。

    82110编辑于 2025-11-13
  • 来自专栏DeepHub IMBA

    LangGraph 记忆系统实战:反馈循环 + 动态 Prompt 让 AI 持续学习

    得到以下输出: ###### OUTPUT ###### { 'namespace': ['1', 'memories'], 'key': 'c8619cd4-3d3f-4108-857c-5c8c12f39e87 构建代理架构 在使用记忆系统工作流之前,需要构建使用它的智能代理。因为本文专注于记忆管理,所以只会构建一个中等复杂的电子邮件助手,模拟在真实场景中探索记忆的工作方式。 像 {response_preferences} 和 {cal_preferences} 这样的占位符是记忆系统的关键。 它们允许动态地从记忆存储中注入代理学到的知识,使其能够随时间调整行为。 每种选择都为记忆系统提供了不同且有价值的信号。 长期记忆系统的工作原理 我们通过本文已经看到代理从反馈中学习,但是背后发生了什么呢?这是一个简单而强大的四步循环,将更正转化为代理的新规则。 整个过程的分解: 反馈是触发器。

    1.1K10编辑于 2025-11-15
  • 来自专栏软件深度评测

    如何在 FlowUs、Notion 等笔记软件中使用间隔重复记忆系统

    那么,为了强化记忆,便需要根据记忆的遗忘规律,使用对抗的记忆系统。这便是间隔重复,主张按照一定的间隔对你的所学知识进行复习,以便将你新学习的内容固定到你的脑海。 为你的笔记软件加上记忆系统目前,在各大应用市场只有极少数软件内置了间隔重复系统,比如国外的双链大纲编辑器 RemNote. 那么,对于绝大多数没有间隔重复功能的笔记软件而言,我们如何将间隔重复这种高效的记忆系统与自己的笔记软件联动起来呢?在介绍我对解决办法之前,我先对我的笔记软件进行粗略介绍。

    97120编辑于 2022-06-23
  • 来自专栏【腾讯云开发者】

    从架构到代码:深入理解 OpenClaw 的双源记忆系统

    接下来,主要会针对 OpenClaw 的记忆系统进行分析,从架构设计和工程实现层面展示这个由 AI 自己创造的“大脑”。 03 记忆系统的存储架构 OpenClaw 的记忆系统采用了一个双源记忆架构的设计,其将记忆整体分为了两类:每日日志(动态记忆)和长期记忆(静态记忆)。 4.4 Agent 交互 基于上述介绍的记忆系统架构,在实际使用时,AI Agent 则是通过两个接口实现与整个记忆系统的交互。 :text-embedding-3-small") // → "g7h8i9j0k1l2..." " - MEMORY.md:5-8 (score: 0.72) "颜色偏好:蓝色系...

    1K10编辑于 2026-03-27
  • 来自专栏CreateAMind

    意识的关键性:主动推理中兴奋-抑制平衡与双重记忆系统

    https://www.mdpi.com/1099-4300/27/8/829 摘要 意识的组织通过日益丰富的理论模型得以描述。 他们认为意识最终是一种主观现象——即所谓的“难问题”,无法还原为对神经机制的机械性解释[8]。这种观点被许多神经科学家视为权威。 相比现代观点将意识局限于最鲜明、最单一的焦点性显性表征,并将主观体验的“感受质”描绘为纯粹且因而机制上不可还原[8,10],这些经典的现象学描述显得更为实用。 8. 清醒意识中睡眠压力的变分动力学 图8展示了E-I临界性在昼夜节律中的变化。REM睡眠的压力(C过程)由食欲素(orexin)和MCH(黑色素浓缩激素)的耦合机制在24小时内进行调节。 原文链接:https://www.mdpi.com/1099-4300/27/8/829

    19010编辑于 2026-03-11
  • 来自专栏决策智能与机器学习

    【重磅综述】记忆系统:神经科学的启示「AI核心算法」

    1 Introduction 记忆系统的研究开始于20世纪,并逐渐形成了古典主义记忆系统的认知,即 multiple memory systems theory (MMS) 。 此时,位于特定记忆系统之下的神经网络可以充当独立单元或更高阶 meta-network 的集成组件。这种动态网络模型提出了一种方法,可以将质疑不同记忆系统概念的实验证据纳入模块化记忆系统结构中。 3.2 Knowledge (representational) systems 记忆系统理论必须解决的问题是记忆系统的潜在无限增长。 3.4 Expanded parallel model of memory systems 制定该模型是为了解决以下事实:一个记忆系统获取的信息可以被另一个记忆系统利用。 在系统发育上,较新的记忆系统通过重新表征的过程集成了较旧的记忆系统生成的表征,即从较低级别表示的信息的高级抽象,从某种意义上说,记忆系统是按层次结构组织的。

    1.3K11发布于 2020-09-03
  • 来自专栏机器之心

    借鉴人脑「海马体-皮层」机制,红熊AI重做了一个「记忆系统

    首先,当前主流大模型上下文窗口通常为 8k-32k tokens,在长对话中存在早期信息被「挤出」的可能,从而导致后续交互对话脱离历史上下文语境。 具体来看,「记忆熊」的技术突破在于,它并不是对模型的记忆系统进行局部优化,而是「全链路重构」,借鉴了人脑「海马体 - 皮层」的分工协作机制,构建了一套分层、动态、可演进的「类人」记忆架构。 记忆熊」通过精准剔除冗余信息,在保持语义完整的前提下,能够实现 97% 的 token 效率提升和 82% 的语境偏移率降低,将复杂推理准确率提升至 75.00±0.20% 的行业高度,打破传统 AI 记忆系统

    33010编辑于 2025-12-24
  • Hermes Agent 三大核心能力详解:记忆系统、技能引擎与消息网关

    但如果要选出最能体现其差异化价值的三个能力,一定是:记忆系统——这是"越用越聪明"的基础技能引擎——这是"自我进化"的实现消息网关——这是"随时可达"的保障核心能力一:三层记忆架构第一层:短期工作记忆(

    43020编辑于 2026-04-15
  • 来自专栏程序那些事儿

    Khoj 不抢注意力,却接管了我对笔记的“记忆系统

    一开始,我其实并没有把 Khoj 当回事。在安装它之前,我已经用过太多“看起来很对”的 AI 工具了。

    17010编辑于 2026-01-27
  • 来自专栏CreateAMind

    意识的临界性:主动推理中兴奋–抑制平衡与双记忆系统

    https://www.mdpi.com/1099-4300/27/8/829 摘要: 意识的组织通过日益丰富的理论模型进行描述。 他们认为,意识终究是一种主观现象——一个“困难问题”,无法被还原为神经机制的机械性解释[8]。 这些经典的现象学论述比现代对主观上“纯净”(因而机械上不可还原)的感受质(qualia)的描述更为实用主义——后者将意识局限于最具标志性、最单一的焦点显性表征[8,10]。 第8节将临界性假说扩展至包括睡眠中兴奋与抑制的稳态调节,其中E和I远离临界点的偏移允许大规模网络重组,为次日早晨意识体验在自组织临界状态下的“点燃”奠定夜间基础。 原文链接:https://www.mdpi.com/1099-4300/27/8/829

    13910编辑于 2026-03-11
  • 来自专栏openclaw系列

    OpenClaw记忆系统基石 —— memory-search.ts 中的 RAG 配置解析与合并逻辑

    OpenClaw 的记忆系统不仅支持长期会话回溯,还能接入企业知识库、个人笔记甚至实时文件,形成一个动态、可扩展的混合检索引擎。 一、记忆系统的三层数据源 OpenClaw 的 RAG 引擎可同时从以下来源检索信息: 所有数据在检索前被统一嵌入(embedding),存入 SQLite 向量数据库。 二、配置分层:四重覆盖机制 与全局配置类似,记忆系统也采用分层覆盖模型,优先级从低到高: 默认配置示例(L1) // src/agents/memory-search.ts const DEFAULT_MEMORY_CONFIG 下一篇预告: 第 8 篇:向量检索实战 —— OpenClaw 如何实现混合搜索(向量 + 全文)

    8.1K21编辑于 2026-03-14
领券