首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏自然语言处理

    RAG最新研究】优化RAG系统的最佳实践与深度解析

    简单来说,RAG系统通过结合语言模型和外部知识库来生成更准确的回答,但之前的研究并没有深入探讨哪些因素(比如模型大小、提示设计、知识库大小等)对系统性能的影响最大。 RAG系统的应用: Lewis et al. (2020) 提出了将外部知识源集成到推理过程中的RAG模型,确保生成的信息是最新且准确的。 RAG系统的评估: Semnani et al. (2023) 和 Chang et al. (2024) 研究了大型语言模型(LLMs)生成不准确信息的问题,并探讨了RAG系统如何解决这一问题。 设计RAG系统变体: 基于这些研究问题,论文设计了多种RAG系统的变体,包括查询扩展模块、检索模块和文本生成模块。 通过这些步骤,论文系统地研究了RAG系统的架构,并提出了具体的改进措施,为开发和优化RAG系统提供了实证基础和理论支持。 论文做了哪些实验?

    1K10编辑于 2025-01-16
  • 来自专栏啄木鸟软件测试

    RAG系统测试团队如何成功转型?

    但一个严峻现实正浮出水面:某头部银行上线的RAG客服系统在灰度阶段遭遇37%的‘幻觉响应率’(即答案看似合理却与检索源矛盾),而其测试团队仍沿用传统API+UI自动化脚本覆盖逻辑,漏测率达68%。 RAG系统本质是‘检索+生成’双引擎耦合体,其质量风险分布远超传统软件: - 检索层失效:向量数据库召回不相关文档(如语义漂移、分块粒度失当)、元数据过滤逻辑错误、多跳检索链断裂; - 生成层失准:LLM 时,系统正确召回3份PDF,但LLM将其中一份PDF页眉的‘草案版’误读为生效条款,导致金额计算偏差达42%。这类缺陷无法通过接口状态码或UI元素定位捕获——它藏在语义层面。 3. 工具升维:构建RAG专属测试矩阵 单一工具已无法应对。 结语:测试的终极价值不是‘发现多少Bug’,而是‘守护多少信任’ RAG不是另一个待测系统,它是人机协作的新契约界面。当用户向AI提问时,他交付的不仅是query,更是对专业性的托付。

    24810编辑于 2026-03-09
  • 来自专栏DeepHub IMBA

    Agentic RAG:用LangGraph打造会自动修正检索错误的 RAG 系统

    本文要做的就是用 LangGraph 做流程编排、Redis 做向量存储,搭一个生产可用的 Agentic RAG 系统。涉及整体架构设计、决策逻辑实现,以及状态机的具体接线方式。 系统架构拆解 整个系统拆成六个模块: 配置层负责环境变量和 API 客户端的初始化工作。Redis 连接串、OpenAI 密钥、模型名称全部归拢到这里统一管理。 系统不会因为一次检索失败就直接给出一个牵强附会的答案,它会调整策略重新尝试。 这个环节的价值在于拦截那些本会导致标准 RAG 胡说八道的情况,与其硬着头皮从不靠谱的上下文里编答案,不如给系统一次修正查询的机会。 总结 标准 RAG 把检索当黑盒,查询丢进去、文档出来,至于相不相关全凭运气。Agentic RAG 打开这个黑盒在关键位置加了质量控制。

    67710编辑于 2026-01-12
  • 来自专栏啄木鸟软件测试

    RAG系统测试实战:未来已来

    在啄木鸟软件测试团队服务的17家金融与政务客户中,超63%的RAG项目因缺乏系统化测试方案,在上线后3个月内遭遇知识召回率骤降、政策问答误答率超标或审计合规风险暴露。 一、RAG系统测试的三大认知跃迁 1. 从「功能正确」到「事实可信」 RAG的本质是“检索+生成”双阶段协同,测试必须解耦验证:检索模块是否召回了最相关文档片段?生成模块是否忠于检索证据、未引入虚构? 3. Step 3:混沌工程注入「现实噪声」 RAG系统最脆弱点常在边缘场景:PDF解析错位导致表格文字断裂、OCR识别将“2023年”误为“2028年”、向量库冷热数据混布引发召回漂移。 仅通过此测试的系统,上线后知识幻觉率下降58%(某保险客户A/B测试数据)。

    15710编辑于 2026-03-31
  • 来自专栏喔家ArchiSelf

    你的RAG系统安全么?

    因此,在享受 RAG 带来的便利的同时,也需要采取相应的措施来防范潜在的安全问题。 2. RAG 的安全威胁 基于 RAG系统面临三大主要威胁: 2.1. 系统瘫痪风险(DDoS) RAG 对大规模知识库的检索需要大量计算资源。如果系统设计存在漏洞,攻击者可能通过发送海量请求耗尽服务器资源,导致服务变慢甚至完全停摆。 这三个问题提醒我们:在享受 RAG 技术便利的同时,必须建立严格的数据审核机制、设置访问权限控制,并做好系统抗压测试,才能真正发挥这项技术的潜力。 3. 对AI Agent的影响:如果 RAG 系统为其他 AI 提供决策依据,攻击者可能通过篡改数据误导 AI 执行危险操作,比如调用错误的工具。 这些因素相互关联,共同决定了 RAG 系统的安全水平。 RAG使用了什么数据源?(用户数据/第三方/内部)2.新数据的更新频率?(无更新/年/月/日)3.什么触发了更新?(用户请求/内部请求/定时)4. 采用了什么消毒技术?

    69610编辑于 2025-06-30
  • 来自专栏自然语言处理

    RAG 系统中的偏差是什么?

    然而,最近在 RAG系统中的发现,突显了基于 RAG 的大型语言模型的问题,例如 RAG 系统中偏差的引入。 RAG 系统中偏差的概述 RAG是一种人工智能技术,通过整合外部来源来增强大型语言模型。它允许模型对其产生的信息进行事实核查或校对。 如果 RAG 系统引用的外部数据集未经开发者消除偏差和刻板印象,则可能会嵌入偏差。 这些嵌入捕获了文本的语义含义,RAG 系统使用它们从知识库中获取相关信息,然后再生成响应。考虑到这种关系,研究表明,反向偏置嵌入器可以消除整个 RAG 系统的偏差。 最后,研究人员得出结论,大多数消除偏差的努力都集中在 RAG 系统的检索过程上,正如之前讨论的那样,这是不够的。

    25910编辑于 2025-04-09
  • 来自专栏DeepHub IMBA

    RAG中的3个高级检索技巧

    RAG系统检索的文档可能并不总是与用户的查询保持一致,这是一个常见的现象。 本文将探讨三种有效的技术来增强基于rag的应用程序中的文档检索,通过结合这些技术,可以检索与用户查询密切匹配的更相关的文档,从而生成更好的答案。 查询扩展 查询扩展指的是一组重新表述原始查询的技术。 # 3. How much debt does the company have? Is it increasing or decreasing? # 4. query_embedding) return torch.cosine_similarity(updated_query_embedding, document_embedding, dim=0) 3、 我们需要做的就是将原始的嵌入输出与适配器矩阵相乘,然后再将其输入到检索系统

    1.2K10编辑于 2024-01-23
  • 来自专栏HuggingFists

    如何使用ElasticSearch搭建LLM-RAG系统

    在之前的案例视频中我们演示了使用Milvus向量数据库和腾讯向量数据库实现RAG的场景应用。 今天我们演示下利用ES的向量数据存储能力来实现RAG,包括三个部分:连接ES数据库并建表;数据写入ES向量数据库流程;问答对话流程。 整个流程的其他创建过程可参考如下视频:《轻松玩儿转数据分析系列-低代码玩转LLM-RAG》上图是用Milvus数据库实现的,现在将其替换为ES算子,如下 选择ES写出算子替换掉Milvus写出算子后 ,需要配置下ES数据表的信息,如下:l es连接配置:03-es;l 索引名:keyword3;l 表结构:embeddings=embeddings,text=textId。 这里需要修改ES的连接配置信息l es连接配置:03-es;l 索引名:knnword3;l 查询模式:SQL模式;l SQL查询语句:select * from hnnword3 where knn(

    86910编辑于 2024-05-06
  • 来自专栏Datawhale专栏

    RAG 作者:RAG 已死,RAG 万岁!

    的 Gemini 1.5,上下文窗口达 100 万 token 2025 年 3 月:模型上下文协议(Model Context Protocol)让你能直接与你的数据对话 (注:原文日期可能是笔误) MCP 简化了 Agent 与 RAG 系统(及其他工具)的集成 我们在生产环境中看到的最复杂的 AI 系统结合了这些方法,根据各自的优势来使用每种工具,而不是宣布某一个获胜并将其他工具抛弃。 它们服务于不同的目的,并作为一个系统协同工作。RAG、微调和大型上下文窗口在 AI 中也是如此。 结论 我们不需要在 RAG 与长上下文窗口、微调或 MCP 之间做出选择。 这个网站将作为一个活生生的证明,展现检索在 AI 系统中持久的重要性,并且每当下一波“RAG 已死”的帖子不可避免地出现时,它都会更新。 如果你的系统无法利用你的专有数据,持续提供过时信息,或者缺乏你所需的专业知识,那么让我们谈谈。我们构建了一个将智能检索与前沿 LLM 相结合的系统,来解决这些长期存在的难题。

    70710编辑于 2025-04-24
  • 来自专栏全栈开发工程师

    RAG】001-RAG概述

    在向量数据库中搜索相似内容 获取最相关的文本片段 生成过程: 将检索到的相关内容与用户问题组合 构建合适的提示词(Prompt) 通过 LLM 生成最终答案 3RAG 的应用场景 RAG 技术在多个领域都有广泛应用 系统时,需要注意以下几点: 数据质量控制: 确保知识库数据的准确性和时效性 定期更新和维护知识库内容 建立数据质量审核机制 性能优化: 选择合适的向量数据库 优化检索策略和参数 合理设置缓存机制 系统监控: 跟踪系统响应时间 监控检索准确率 收集用户反馈并持续优化 三、RAG vs Fine-tuning(微调) 1、两种方法的基本概念 RAG: 通过实时检索相关信息来增强模型输出 响应时间可能较长(需要检索) Fine-tuning: 响应速度快 可能出现知识遗忘 难以追溯答案来源 3、选择建议 3.1 适合使用 RAG 的场景 需要频繁更新知识的应用 对答案准确性要求高的场景 Prompt 构建: 设计提示模板 整合检索内容 添加约束条件 LLM 调用: 发送完整 Prompt 控制生成参数 处理模型输出 后处理优化: 格式化输出 添加引用来源 质量检查 3

    75010编辑于 2025-03-25
  • 来自专栏IT大咖说

    使用 Llama3 和 Ollama 改进了 RAG

    ◆介绍: 在本文中,我们将创建一个高级 RAG,它将根据作为管道输入给出的研究论文来回答用户查询。用于构建该管道的技术堆栈如下。 Ollama 嵌入模型 mxbai-embed-large Ollama 量化Llama-3 8b 模型 本地托管的 Qdrant 向量数据库。 输出: ◆结论: 总之,通过利用 Meta 的大型语言模型等尖端技术的力量Llama-3,以及 等复杂的方法HyDE,并利用 的功能Ollama,我们准备构建无与伦比的 RAG 管道。 先进工具和细致优化的融合有望释放我们系统的全部潜力,为突破性进步铺平道路,并确保我们的解决方案站在创新和卓越的前沿,并具有最大的隐私和安全性。 log_from=adb4c5d3cf43a_1713747619961

    1.6K10编辑于 2024-04-24
  • 来自专栏DeepHub IMBA

    使用CLIP和LLM构建多模态RAG系统

    在本文中我们将探讨使用开源大型语言多模态模型(Large Language Multi-Modal)构建检索增强生成(RAG)系统。 什么是RAG 在人工智能领域,检索增强生成(retrieve - augmented Generation, RAG)作为一种变革性技术改进了大型语言模型(Large Language Models)的能力 与微调和再训练不同,RAG提供了一种经济高效的解决方案,允许人工智能在不改变整个模型的情况下能够得到最新和相关的信息。 RAG通过允许组织对生成的文本输出有更大的控制,解决了对偏差、可靠性和遵从性的关注。 3、减轻幻觉: LLM容易产生幻觉反应——连贯但不准确或捏造的信息。 RAG通过确保响应以权威来源为基础,减少关键部门误导性建议的风险。 4、具有成本效益的适应性: RAG提供了一种经济有效的方法来提高AI输出,而不需要广泛的再训练/微调。

    2.4K11编辑于 2024-01-17
  • 从 0 到 1 构建 RAG 检索增强系统

    本文从0到1系统讲解RAG的核心原理、系统结构及落地步骤,帮助读者构建一个可用、可扩展的RAG检索增强系统,为智能体和企业级AI应用提供可靠基础。 目录一、什么是RAG二、为什么需要RAG三、RAG系统核心架构四、从0到1搭建RAG系统五、一个典型RAG流程示例六、常见问题与优化经验七、总结一、什么是RAGRAG(检索增强生成)是一种将信息检索与文本生成结合的技术框架 三、RAG系统核心架构一个标准RAG系统通常包含以下模块。1.文档处理模块负责数据准备:文档清洗分段切分去噪处理高质量数据是RAG效果的基础。 可能原因:检索内容相关度低Prompt约束不足返回文档过少3.如何进一步提升效果?常见优化方向:重排序(Rerank)混合检索(关键词+向量)查询改写多轮检索成熟系统往往结合多种优化手段。 从0到1构建RAG系统,核心在于:1️⃣高质量数据2️⃣合理检索策略3️⃣清晰Prompt约束当这三点做到位,RAG系统即可在真实业务中发挥稳定价值。

    61710编辑于 2026-02-02
  • 来自专栏机器学习原理

    rag

    RAG技术结合了检索系统和生成模型的优势,旨在提高回答问题和生成自然语言文本的准确性和一致性。 引言 传统的生成模型,例如GPT-3,尽管在生成流畅自然的文本方面表现出色,但在应对特定领域的深度问答时常常显得力不从心。 RAG工作流程 RAG的工作流程可以分为以下几个步骤: 用户查询:用户提出一个查询,系统首先会将这个查询传递给检索模型。 信息检索与问答系统 在信息检索和问答系统中,RAG技术可以显著提高系统的准确性和用户满意度。传统的问答系统通常依赖于检索模型找到相关文档,然后从这些文档中抽取答案。 RAG技术 VS 纯生成模型(如GPT-3) 纯生成模型,如GPT-3,通常依赖于大量的数据和参数来生成文本。

    60511编辑于 2024-06-27
  • 来自专栏产品笔记

    如何引入重排序提升RAG系统的效果?

    之前介绍了在RAG系统中使用混合检索,而混合检索将不同的检索技术的优势,如向量检索适合语义模型匹配,而关键词检索适合精准匹配。将不同的优势结合互补单一检索的劣势,获得更好的召回结果。 引入重排序是对现有RAG系统的一种增强,无需进行重大改造,以一种简单且低复杂度的方式改善RAG系统的回答效果。

    1.4K10编辑于 2024-03-18
  • 来自专栏啄木鸟软件测试

    2026年RAG系统测试工具深度对比

    引言:RAG已进入‘可信性临界点’ 2026年,检索增强生成(RAG系统正从PoC走向规模化落地——金融风控文档问答、政务知识中枢、医疗辅助诊断等场景中,RAG不再是‘锦上添花’,而是业务连续性的关键链路 例如某省级医保政策问答系统中,用户问‘门诊慢特病报销比例’,系统检索出2023年试点文件(已废止),召回率100%,但语义相关性熵值高达0.89(理想≤0.2)。 2026年领先工具已转向多粒度评估:RAGAS v2.4引入‘嵌入空间KL散度’指标,对比查询向量与Top-K文档向量分布偏移;DeepEval Pro新增‘时效性衰减因子’,自动加权近3个月文档得分; 在某银行信贷FAQ系统测试中,它成功捕获一条高置信度幻觉回答——‘LPR加点可协商’,实际政策明确禁止加点浮动,该结论未在任一检索文档中出现,且TruEra自动回溯至原始PDF第17页脚注,实现根因可追溯 四、安全与合规:内置监管沙盒,不止于红队测试 2026年,国内《生成式AI服务安全评估要求》(GB/T 44512-2026)正式实施,明确要求RAG系统需通过‘敏感信息泄露路径审计’和‘知识边界越界检测

    48810编辑于 2026-03-04
  • 来自专栏自然语言处理

    RAG Logger:RAG日志记录工具

    您听说过 RAG Logger 吗? 它是一款专为检索增强生成 (RAG) 应用程序设计的开源日志记录工具! 据说它可以作为 LangSmith 的轻量级替代方案,满足 RAG 特定的日志记录需求。 查询、搜索结果、LLM 交互和性能指标可以以 JSON 格式记录。 特点 通过查询跟踪详细了解用户问题! RAG Logger 为 RAG 应用程序的性能监控和调试提供了强大的支持,对吗? 特别推荐给那些想要提高应用程序开发效率的人。 请参阅此处的详细信息: RAG Logger GitHub 仓库

    31110编辑于 2025-01-07
  • 来自专栏云原生实验室

    3个核心指标帮你量化RAG系统,内附FastGPT最新评测数据

    需求背景 FastGPT(https://fastgpt.cn) 系统目前缺乏一个直观的评估指标,无法有效衡量对 RAG 部分的修改或模型参数微调后的效果。 因此,我们迫切需要一个评测机制来评估这些改动对系统整体性能的影响。 为了解决这个问题,我们引入了评价框架 Ragas[1]。 该框架通过问题定义、信息检索、答案生成和标准答案四个核心要素,结合多种评估指标,提供了一套直观而全面的评估方法来衡量 RAG 模型的效果。 详情可参考 Ragas 的指标解析文档:Ragas_metrics[2] 使用方法 拉取阿里云镜像并创建容器 docker pull crpi-h3snc261q1dosroc.cn-hangzhou.personal.cr.aliyuncs.com /fastgpt_ck/ragas_eval:v1 docker run -idt -p 7222:7222 --name fastgpt_eval crpi-h3snc261q1dosroc.cn-hangzhou.personal.cr.aliyuncs.com

    1K10编辑于 2024-12-20
  • 来自专栏YashanDB技术解读

    崖山数据库智能问答系统:DeepSeek + RAG

    02 崖山智能问答系统:DeepSeek + RAG优化崖山数据库(YashanDB)引入检索增强生成(RAG)框架,将DeepSeek的语言能力与外部知识库结合,构建崖山智能问答系统,为DBA提供精准高效的决策支持 基于DeepSeek + RAG 搭建的崖山智能问答系统可以为 DBA 提供以下方面的赋能:快速找到关于数据库配置、命令和错误消息的技术问题的答案。通过访问相关的文档和知识库来排除常见的数据库问题。 值得一提的是,为解决传统单一知识库架构的局限性、检索质量及效率难题,YashanDB智能问答系统知识库进行了一系列的RAG系统优化,通过引入了基于大模型的语义解析技术、重排序、查询转换实现高效的知识检索和精准的回答能力 结果重排 在RAG系统中,检索至关重要。为高效检索,通常采用向量搜索,即将文本转为向量,比较与查询向量的相似性。然而,向量搜索易丢失信息,导致最相关文档可能遗漏关键信息,尤其当信息靠后时。 注:图片来源于Advanced RAG Techniques: Unlocking the Next Level, Tarun Singh目前,崖山智能问答系统在多个场景中展现出出色的性能和广泛的应用价值

    55510编辑于 2025-05-27
  • 来自专栏自然语言处理

    如何构建一个可信的联邦RAG系统

    题目是:C-RAG:如何构建一个可信的联邦检索RAG系统。 这些相关工作展示了RAG系统在联邦学习背景下的不同应用和研究方向,包括联邦搜索策略的优化、模型选择、隐私保护和法规合规性,以及在临床问答中的应用。 3 C-FedRAG实现 C-FedRAG系统的实施细节包括: 使用NVIDIA FLARE SDK构建解决方案,确保通信安全。 协调器使用NVFlare作业协调检索请求,并收集检索块。 基线方法:与C-FedRAG进行比较的其他方法包括直接使用的LLMs,如LLaMA-3-8B-Instruct,以及通过MedRAG系统使用单一数据集(MedCorp)和特定数据集(如PubMed、StatPearls 3. 结果分析 数据源集成的重要性:通过比较单一数据源与集成多个数据源的C-FedRAG系统的性能,结果表明集成多个数据源可以提供更有用的信息,并显著提升性能。

    68010编辑于 2024-12-20
领券