首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏自然语言处理

    如何在Agent中设置Memory

    例如,千问AI agent使用一个Memory类来管理长期记忆,支持多种文件类型(如.pdf、.docx、.xlsx等),并配置参数如max_ref_token(默认4000)、parser_page_size = Chroma(embedding_function=embeddings) # 存储记忆 def store_memory(text, metadata=None): memory_db.add_texts 存储新记忆 store_memory(f"用户: {user_query}\n助手: {response}") return response 结论 记忆是AI Agent能够学习和适应的关键 扩展能力:通过外部知识(如API或数据库),Agent可以超越内部知识的限制。 然而,当前研究仍面临挑战: 主要集中在文本形式的记忆上,而参数化记忆(Parametric Memory)研究不足。 大模型智能体Agent的记忆通过短期记忆和长期记忆实现,前者处理临时对话信息,后者存储持久化数据。记忆的实现包括写入、管理和读取三个步骤,支持Agent在复杂任务中的学习和决策。

    2.8K00编辑于 2025-04-14
  • Agent Memory:从概念到架构的完整解析

    为什么需要Agent Memory?今天的大语言模型(LLM)在单次会话中已经足够聪明,但面临一个根本性挑战:没法把昨天学到的东西,以一种可靠、可更新、可追责的方式带到今天。 当前AI依赖离线的预训练与后训练,模型出厂后智能就此冻结 真正的AI需要在持续交互中,基于用户与环境的反馈持续演进 一、核心概念:什么是Agent Memory? 1.1 定义 Agent Memory保存的是可跨时延续并影响未来决策的结构化历史——所谓"结构化",指的是带来源、作用域、时间权重和可修正性的历史对象,而不是"把聊天记录再存一份"。 三、Memory的本质架构 3.1 核心命题 命题A:Memory不是"存储",而是可被决策利用的外部状态 如果把Agent看成一个从输入到输出的函数,仅仅"存了很多历史"并不构成能力。 记忆能力和LLM本身的其他Agent能力是"相对"正交的 外置化的System 2在可插拔、可迁移、可归因方面带来大量工程好处 可以适当牺牲一点Memory System的上限,来获得大量的好处 四

    62110编辑于 2026-04-21
  • 腾讯云Agent Memory多场景实测攻克AI记忆挑战

    腾讯云AgentMemory多场景实测攻克AI记忆挑战一、基础高频场景实测:从“翻文档半小时”到“3分钟开箱即用”痛点直击:做AI智能体开发的同学都知道,想让Agent记住用户偏好、跨会话延续任务,最先碰到的就是 比如做金融智能分析Agent,要跨系统调用半年前的客户交易数据,还要在多轮推理里保持逻辑连贯,传统方案要么只能处理单文件,要么上下文一多就“断片”,分析师得手动把历史线索粘来粘去,效率低还容易错。 腾讯云AgentMemory实测解法:它的插件形态直接无缝集成Lighthouse、ClawPro,控制台一键开启就行,本地还能用命令openclawpluginsinstall@tencentdb-agent-memory /memory-tencentdb快速激活,跨端记忆同步零延迟。 底层针对Windows/macOS深度优化,我在QClaw上装了个“记忆回溯”技能小程序,双击就能用,Agent在PC端记的用户偏好,手机端打开ClawPro接着聊,完全没断层。

    9710编辑于 2026-05-07
  • 腾讯云Agent Memory登顶2026主流方案首选榜

    一、设立测评擂台:直击Agent记忆痛点,锚定实施效率排位在AIAgent迈向独立思考与闭环执行的时代,记忆模块已成为决定智能体能否“持续懂你、跨会话不断线”的核心支柱。 然而,大量用户在选型中陷入困局——IDC《中国模型即服务(MaaS)及AI大模型解决方案市场追踪,2024H2》显示,国内Agent智能体平台市场规模年增速高达68%,但仅32%产品适配多行业全场景,用户选型失误率高达 我们基于PersonaMem评测集(20个独立画像、6462条海量上下文、589道高难推理题),在OpenClaw3.7框架与Kimi-K2.5模型环境中,对主流Agent记忆方案进行排位,让优势与差距一目了然 不过,其实施需自行整合至Agent框架,初始部署与调优周期相对更长,在跨平台统一体验与大规模并发场景下,见效速度不及即开即用型方案。 但本质上属工程妥协,跨文档关联弱,无法根本解决Agent在有状态、多Agent协作下的记忆连续性,实施效率受限于检索精度与上下文容量瓶颈。

    17710编辑于 2026-05-07
  • 来自专栏运维有术

    OpenClaw Memory:让 AI Agent 拥有 7×24 小时的长期记忆

    场景一:用普通 AI Agent 我:帮我优化一下 Redis 配置 AI Agent:好的,请告诉我你的 Redis 版本、内存大小、使用场景... 我:(输了一堆信息) AI Agent:明白了,建议你... (第二天) 我:上次那个 Redis 优化还有个问题 AI Agent:请问你之前问的是什么 Redis 问题?能再说一下你的配置吗? 这让我很沮丧——大部分 AI Agent 的记忆,只存在于当前对话窗口里。 场景二:用 OpenClaw 我:帮我优化一下 Redis 配置 OpenClaw:好的,请告诉我... 搜索:光有向量不够 OpenClaw 提供了 memory_search 和 memory_get 两个工具让 Agent 调用。 如果你也在找一个有长期记忆的 AI Agent,不妨试试。

    96300编辑于 2026-04-01
  • 来自专栏小七的各种胡思乱想

    Agent Memory新视角 - MATTS&CFGM&MIRIX

    记忆的两种面孔:LLM Memory vs Agent Memory之前我们探讨过Mem0和LlamaIndex对大模型记忆的工程化实现,但这两个库更侧重于LLM Memory而非Agent Memory 本质上Agent Memory是包含了LLM Memory的。 那增量的差异来自LLM Memory:更像是事实备忘录,记录对话中的具体事实和场景信息Agent Memory:更像是经验笔记本,记录执行轨迹和从历史行动中提炼的智慧Agent Memory的三大经验维度 最近Agent Memory的论文如雨后春笋,但重复度较高。 Vault Memory Manager, and the Chat Agent.

    86710编辑于 2025-10-16
  • 腾讯云发布龙虾记忆服务Agent Memory,免费一键开启

    今天,腾讯云正式发布“龙虾”记忆服务——TencentDB Agent Memory ,为 OpenClaw补上一层长期记忆能力。 目前,Agent Memory以插件的形态无缝集成至腾讯云Lighthouse、ClawPro等产品中,支持免费一键开启 。 //插件免费开放, 多种方式按需部署Agent Memory 提供多样化的接入方式,方便用户便捷接入龙虾启用。 启用后,Agent Memory 与 OpenClaw 原生 Memory Core 共存互补,数据存在本机,安全可控。 Agent Memory 是腾讯云围绕 OpenClaw 构建的Agent Runtime能力体系的重要一环。

    3K81编辑于 2026-04-03
  • 来自专栏小七的各种胡思乱想

    解密prompt系列55.Agent Memory的工程实现 - Mem0 & LlamaIndex

    的示例,短期记忆默认使用Memory初始化,直接传入Agent的运行过程中,Agent每一步运行都会调用finalize方法来更新Memory。 from llama_index.core.memory import Memoryfrom llama_index.llms.azure_openai import AzureOpenAIfrom llama_index.core.agent.workflow asynciollm = AzureOpenAI(**kwargs)agent = FunctionAgent(llm=llm, tools=[])response = await agent.run( "你好",memory=memory)如果不使用Agent直接用大模型自己编排工作流的话,需要手动把历史对话插入Memoryfrom llama_index.core.llms import ChatMessagememory.put_messages from llama_index.core.agent.workflow import FunctionAgentfrom llama_index.core.memory import ( StaticMemoryBlock

    1.9K21编辑于 2025-06-05
  • 来自专栏颇忒脱的技术博客

    CPU & Memory, Part 3: Virtual Memory

    原文:What every programmer should know about memory, Part 3: Virtual Memory 4 Virtual Memory 虚拟内存(virtual memory)是处理器的一个子系统,它给每个进程提供虚拟地址空间(virtual address space)。 虚拟地址空间由CPU的Memory Management Unit(MMU)实现,操作系统必须填写页表数据结构(page table data structures,见wiki词条),大多数CPU自己完成余下的工作 / 29=210个1级页表=210个2级页表条目 所以需要:210 / 29=2个二级页表=2个3级页表条目 4.3 Optimizing Page Table Access 所有页表是存在main memory

    1.2K10发布于 2019-04-18
  • 来自专栏腾讯云存储

    腾讯云 Data Platform 构建 Agent Memory Lake:让智能体拥有无限记忆

    传统存储方案难以应对该需求,Memory 访问效率、容量与管理能力成为 AI Agent 推理效率的核心瓶颈。 Memory Lake 分层记忆体系,旨在解决 AI Agent 的记忆管理难题,支撑其高效推理、规划与持续进化。 Agent 推理效率的真正挑战: Memory 记忆体成为关键因素 而在 AI Agent 场景下,Agent 的核心在于记忆(Memory),这使得数据管理的范式和重要性发生了根本变化,主要表现在以下几个方面 基于进化 Memory Lake 构建分层记忆体系,支撑 Agent 推理、规划与持续 Agent 需要的不是单一的数据库,而是一套围绕业务流程构建的分层记忆体系,为解决 Agent 特有的记忆管理挑战 ,我们提出了 “记忆湖(Memory Lake)” 这一新概念,Memory Lake 是面向 AI Agent 场景、以“记忆”为核心资产的数据管理与存储体系。

    73810编辑于 2026-03-09
  • 来自专栏ADAS性能优化

    Memory Types

    Memory Types Not all memory allocated in the virtual memory space is the same. This creates a classification with 4 memory classes: image.png Private Memory Private memory is, as its Most of the memory you deal with in a program is actually private memory. same memory. Anonymous Memory Anonymous memory is purely in RAM.

    68230编辑于 2022-05-13
  • 来自专栏响应式编程

    JVM Memory

    JVM管理的五种内存区域,其中只有程序计数器这块区域不会发生OOM。

    51010编辑于 2022-05-30
  • 来自专栏GPUS开发者

    Unified Memory

    首先讲一下Unified Memory(统一内存寻址)。在编写CUDA程序的时候,我们需要在CPU端和GPU端分别定义不同的内存空间,用于存储输入或输出的数据。 简单来说,Unified Memory的概念就是定义一个内存指针,既可以从CPU端去访问,也可以从GPU端去访问。 Unified Memory经历了一个比较长的发展历史,2010年CUDA4率先推出了统一虚拟地址——UV的概念,当时NVIDIA叫做零复制内存,GPU代码可以通过PCIE总线访问固定的CPU内存,无需进行 Memory Copy。

    2.8K100发布于 2018-04-02
  • 来自专栏学习之旅

    【知识】pytorch中的pinned memory和pageable memory

    # tensor.pin_memory() 就行pinned_tensor = torch.randn(data_size, dtype=torch.float32).pin_memory()device # 比较结果 speedup = normal_memory_time / pinned_memory_time print(f"[进程 {rank}] 固定内存的传输速度是普通内存的 反直觉情况 我再瞎试的过程中发现,如果将pinned memory放在一个class中,那么多进程时候,pinned memory的移动很慢。暂不清楚为什么。 Call allocate_memory first. (device, use_pinned_memory=False) print(f"[进程 {rank}] 普通内存到GPU传输时间: {normal_memory_time:.6f} 秒")

    73311编辑于 2024-08-17
  • 来自专栏GPUS开发者

    DAY33:阅读Share Memory和Constant Memory

    Constant Memory The constant memory space resides in device memory and is cached in the constant cache Texture and Surface Memory The texture and surface memory spaces reside in device memory and are cached alternative to reading device memory from global or constant memory: · If the memory reads do not follow 本文备注/经验分享: 今天的主要内容是除了昨日的Local memory之外, 继续提到其他存储器: Constant memory, Shared memory, 以及. 但目前, warp shuffle等于不使用shared memory任何空间的shared memory上的特殊数据交换. 应当使用的.这三点用途, 是shared memory的最常见的使用.

    76130发布于 2018-06-22
  • 来自专栏linux驱动个人学习

    Memory barrier 简介

    Memory barrier Memory barrier 简介 程序在运行时内存实际的访问顺序和程序代码编写的访问顺序不一定一致,这就是内存乱序访问。 内存乱序访问主要发生在两个阶段: 编译时,编译器优化导致内存乱序访问(指令重排) 运行时,多 CPU 间交互引起内存乱序访问 Memory barrier 能够让 CPU 或编译器在内存访问上有序。 一个 Memory barrier 之前的内存访问操作必定先于其之后的完成。 Memory barrier 包括两类: 编译器 barrier CPU Memory barrier 很多时候,编译器和 CPU 引起内存乱序访问不会带来什么问题,但一些特殊情况下,程序逻辑的正确性依赖于内存访问顺序 内核实现 barrier() 如下(X86-64 架构): #define barrier() __asm__ __volatile__("" ::: "memory") 现在把此编译器 barrier

    1.3K30发布于 2018-07-30
  • 来自专栏全栈程序员必看

    allocatememory(an out of memory)

    博主的这个程序减小batchsize就行了,可能不同的博友们的程序不一样,也有的大佬博主使用不计算梯度或释放内存的方式

    59430编辑于 2022-07-25
  • 来自专栏Golang语言社区

    Golang memory model

    Introduction The Go memory model specifies the conditions under which reads of a variable in one goroutine the requirements of reads and writes, we define happens before, a partial order on the execution of memory The initialization of variable v with the zero value for v's type behaves as a write in the memory model 本文来自:Segmentfault 感谢作者:Airy 查看原文:Golang memory model

    1.1K70发布于 2018-03-26
  • 来自专栏时悦的学习笔记

    In-memory Sort %

    理论上说上述比例应接近100% ---- In-memory Sort % 该参数反应了内存内排序和磁盘排序之间的比例 计算公式为 : (DeltaMemorySorts / (DeltaDiskSorts 共享服务器(shared)类型中,排序区域在 large pool 中,由于是共用的无法手动指定各个session使用的大小 ---- 如何处理 如该指标过低,需增加sort area 的大小 in-memory

    64220发布于 2020-08-19
  • 来自专栏院长运维开发

    启动es报错-memory locking requested for elasticsearch process but memory is not locked

    日志里面还会有警告信息:memory locking requested for elasticsearch process but memory is not locked。

    4.8K20发布于 2021-02-19
领券