首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏唐国梁Tommy

    Self-RAG 框架:更精准的信息检索与生成

    1.2 常规方法 常规的RAG方法会不分青红皂白地检索文献,不考虑事实基础是否有帮助,并且其输出不一定与检索到的相关段落一致。 1.3 新的方法 本文引入了自反思的检索增强生成方法(SELF-RAG),该方法通过按需检索和自我反思来改进LLM的生成质量。 1.6 Self-RAG实验结果 SELF-RAG在多种任务上显著优于其他先进的LLMs和检索增强模型。 Self-RAG 核心算法 SELF-RAG是一个增强语言模型质量和事实性的框架,通过检索和自我反思实现,而不损失原始创造性和多功能性。 该框架使模型可以根据检索到的段落生成文本,并使用“反思tokens”自我评估输出的相关性和完整性。 与普通的RAG方法不同,SELF-RAG更加选择性地进行检索,确保从引用源获得完整支持。

    4.5K40编辑于 2023-11-09
  • 来自专栏AI智能体从入门到实践

    构建AI智能体:精准检索“翻译官”:RAG Query改写最佳实践

    二、什么是Query改写 核心定义 Query 改写是指在 RAG 系统的检索阶段之前,对用户输入的原始查询(Query)进行一系列处理、扩展或重构的技术,旨在生成一个或多个对检索器(Retriever 所以,Query改写是确保RAG系统聪明好用的第一步,也是至关重要的一步。 生成与检索:所有分支最终汇合,生成最终的一个或多个优化后的Query,送入检索器。 如果是多Query(如多意图型分解后),则会并行执行检索,并将结果合并、去重、重排,得到最全面的上下文。 这个流程图展示了一个成熟RAG系统处理Query的完整逻辑链,其中意图识别是触发不同改写策略的开关,而 specialized 的改写策略是精准命中知识库内容的关键。 Query 改写是保障 RAG 系统可靠性、准确性和可用性的“第一道防线”和“核心基础设施”。

    1.5K21编辑于 2025-11-13
  • 来自专栏xiaosen

    检索增强生成(RAG

    检索增强生成(Retrieval-Augmented Generation, RAG)是一种结合了检索机制和生成模型的先进技术,旨在提高自然语言处理系统的准确性和上下文相关性。 本文将详细介绍如何从零开始构建一个RAG系统,包括数据处理、检索、生成以及部署等各个环节。 检索管道:根据用户的查询从已索引的数据库中检索最相关的信息,使用检索策略和重排序方法来优化结果。 生成管道:将检索到的数据与用户的查询结合,生成准确、相关且连贯的响应。 构建RAG系统的步骤  1. 文本分块:将长文本分割成较小的块,以便于后续的嵌入和检索。 2. 向量嵌入生成 向量嵌入是RAG系统的基础,它将文本数据转换为数值表示,使得计算机能够理解其语义。 检索过程 在用户提交查询后,RAG系统会执行以下步骤: 查询预处理:对用户输入进行清洗和标准化,例如去除停用词、词形还原等,以提高检索效果。

    1.3K10编辑于 2025-01-03
  • 来自专栏架构进阶

    RAG检索实践:多路检索(PostgreSQL环境准备)

    一 前言 大模型的RAG架构,不论是入门还是某个环节的深入,已经有不少文章都做了介绍。我在大模型 RAG:文档分块方案与 RAG 全流程中也做了阐述。 本篇在 大模型 RAG:基于 PgSql 的向量检索的基础上,介绍基于postgresql的向量检索和全文检索基础环境搭建及检索示例,为后续的多路检索召回、重排序做好准备。 在RAG或NLP领域中,代表着一段/文本的“特征”,通过对文本向量化(embedding),把每段文本转化成一个向量。 items ORDER BY l2_distance ASC LIMIT 5; 这里示例使用的只有3维,但实际应用中向量维度通常都很大(比如 768 或更高,一般维数越多,对文本特征的表示越准确,区分越精准 下一篇将进一步介绍向量检索与全文检索结果聚合与重排序(rerank),欢迎随时留言探讨。

    94910编辑于 2025-05-04
  • 来自专栏机器学习

    介绍 RAG检索增强生成)

    什么是 RAGRAG(Retrieval-Augmented Generation)是一种将检索和生成结合在一起的模型架构,特别适用于回答开放域问答、生成相关文本以及需要丰富背景信息的任务。 RAG 的基本原理RAG 模型的工作流程可以分为以下几个步骤:检索:从一个大型知识库或文档集合中检索与输入查询相关的文档或段落。 RAG 的应用场景RAG 模型在多个领域有广泛的应用,包括但不限于:开放域问答:在回答开放性问题时,RAG 可以从大量文档中检索相关信息,生成更准确和详尽的回答。 信息检索增强:在需要综合多个信息源的任务中,RAG 可以提供更全面的回答或内容。RAG 的优势上下文丰富:通过检索相关信息,RAG 可以生成更符合上下文的回答或内容。 print(response)总结RAG检索增强生成)通过将检索和生成相结合,能够在需要丰富背景信息的任务中表现出色。

    2.4K00编辑于 2024-07-29
  • 揭秘RAG检索增强生成:如何让大模型突破“幻觉”困境并实现精准回答?

    #揭秘RAG检索增强生成:如何让大模型突破"幻觉"困境并实现精准回答? 一、RAG技术全景解析1.1RAG技术原理:知识检索与生成的完美融合RAG(Retrieval-AugmentedGeneration)本质是将信息检索系统与语言生成模型的深度耦合。 1.2RAG应用场景:从客服到决策支持经过我们团队在12个企业项目的实践,RAG已证明在以下场景具有不可替代的价值:应用场景典型案例RAG带来的核心价值幻觉率降低幅度智能客服电商产品咨询✅基于商品文档精准回答规格参数 三、RAG赋能精准回答的核心机制3.1检索增强原理:为什么RAG能根治幻觉RAG解决幻觉的核心在于将生成过程锚定在可信事实上。 4.2检索系统搭建:从向量索引到精准匹配检索环节是RAG的命脉。我们曾错误地直接使用基础向量搜索,导致相关片段召回率仅65%。

    62110编辑于 2026-01-22
  • 来自专栏NLP/KG

    探索检索增强生成(RAG)技术的无限可能:Vector+KG RAG、Self-RAG、多向量检索器多模态RAG集成

    探索检索增强生成(RAG)技术的无限可能:Vector+KG RAG、Self-RAG、多向量检索器多模态RAG集成 由于 RAG 的整体思路是首先将文本切分成不同的组块,然后存储到向量数据库中。 详细过程可参考我对 Self-RAG 的总结 [6]。 如图 4 所示,右侧就是 Self-RAG 的工作流程。首先,根据 query判断是否需要检索。 2.3 多向量检索器多模态 RAG 本小节涉及三种工作模式 [7],具体为: 半结构化 RAG(文本 + 表格) 多模态 RAG(文本 + 表格 + 图片) 私有化多模态 RAG(文本 + 表格 + 图片 如图 1 左侧例子,检索上下文有可能引入有冲突的观点。 而图 1 右侧的 Self-RAG 可有效解决 RAG 中存在的无差别检索上下文的问题。 3.2.1 自适应检索 Self-RAG 预测 retrieve token 来动态决定是否需要检索上下文。

    5.2K45编辑于 2024-01-10
  • 来自专栏#大模型热点基础知识

    RAG系统如何支持多模态检索?图文检索如何实现?

    RAG系统如何支持多模态检索?图文检索如何实现?by@Laizhuocheng一、简介想象这样一个场景:你打开电商App,看到一件很眼熟的衣服,但不知道叫什么名字。 这就是多模态检索的魅力——让图像和文本能够真正"对话"。传统文本RAG有一个致命局限:只能处理文字。如果你的知识库里有成千上万张产品图片、医学影像、设计图纸,传统的RAG系统对它们束手无策。 四、多模态检索的优缺点优势劣势支持跨模态查询:图查文、文查图、图查图模型训练成本高:需要大量图文配对数据保留视觉信息:不丢失图像的原始特征向量维度高:存储和检索成本增加检索精准:语义相似度匹配比关键词匹配更准模态不平衡问题 未来展望:多模态大模型与RAG深度结合:现在的CLIP主要做语义对齐,但推理能力有限。像GPT-4V这种视觉语言模型出现后,我们可以把检索和生成更紧密地结合,从单纯的检索走向理解+生成的完整链路。 实时多模态学习:未来可能会出现能够实时学习新模态的RAG系统。用户上传一张新类型的图片,系统能够在线学习这种新模态的特征,下次遇到类似图片时能够准确检索

    23810编辑于 2026-03-25
  • 来自专栏人工智能

    检索增强生成(RAG)技术详解

    检索增强生成(Retrieval-Augmented Generation,RAG)通过将外部知识检索与生成相结合,有效解决了这些问题。 RAG技术概述 什么是RAG RAG是一种结合信息检索和文本生成的AI架构,工作流程如下: 用户查询 → 检索相关文档 → 生成增强回答 → 返回结果 ↓ RAG | 一次检索直接生成 | 简单快速 | 上下文可能不足 | 简单问答 | | Recursive RAG | 迭代检索细化 | 提高检索质量 | 计算开销大 | 复杂查询 | **: 查询重写、重排序、混合检索 - **GraphRAG**: 结合知识图谱的RAG - **Self-RAG**: 自我反思的RAG系统 - **RAGAS**: RAG系统评估框架 """ if RAG + 微调 最佳效果 总结 RAG通过将检索与生成结合,为大语言模型提供了访问外部知识的能力,有效解决了知识截止和幻觉问题。

    1.1K10编辑于 2026-01-21
  • 来自专栏AIGC

    【AIGC】检索增强技术深度剖析(RAG

    在这种情况下,检索增强生成 (RAG) 开辟了新的视角。RAG 允许将 AI 模型与公司的特定内部数据集成,不仅可以进行处理,还可以对这些知识进行智能解释和利用。在本文中,我们将探讨如何实现这一点。 一、检索增强定义RAG 是一种技术,它允许通过从大型文档数据库中实时检索信息来扩展预训练语言模型的知识。 二、深度使用检索增强想更深入地了解这个简单的例子吗? 这是它的样子:在这种情况下,检索增强生成 (RAG) 就派上用场了。我们可以通过向提示添加上下文信息来简单地扩展机器学习模型的知识。从理论上讲,它如下所示:从理论上讲,它会起作用。 小节本节我们学习了检索增强,我们知道了什么是检索增强,我们为什么需要检索增强以及检索增强构建思路,后面章节我们会专门整理出来检索增强服务的构建过程,大家敬请期待吧。

    1.1K10编辑于 2024-05-11
  • 来自专栏人工智能

    LLM的检索增强--SELF-RAG

    通常人们会使用RAG来解决大模型的幻觉问题,检索增强生成(RAG)是一种通过检索相关知识来增强 LLMs 输入的方法,可以减少这类问题。 然而,无论检索是否必要或检索到的段落是否相关,RAG 方法都会不加选择地检索和整合固定数量的检索段落,这可能会降低 LLMs 的多功能性或导致生成无用的响应。 SELF-RAG框架包括以下几个关键步骤:按需检索(On-demand Retrieval):SELF-RAG训练一个语言模型(LM),使其能够根据任务输入自适应地决定是否需要检索额外的信息。 并行处理检索到的文档:SELF-RAG能够同时处理多个检索到的文档,并评估它们的相关性。模型会评估每个检索到的段落与任务输入的相关性,并基于这些段落生成任务输出。 SELF-RAG的优势与传统的语言模型相比,SELF-RAG框架有以下几个显著优势:**提高事实准确性**:通过检索和自我反思,SELF-RAG能够减少生成响应中的事实错误,提供更准确的信息。

    52910编辑于 2024-11-25
  • 来自专栏DeepHub IMBA

    使用LOTR合并检索提高RAG性能

    RAG结合了两个关键元素:检索和生成。它首先使用语义搜索等高级技术来浏览大量数据,包括文本、图像、音频和视频。RAG的本质在于它能够检索相关信息,然后作为下一阶段的基础。 与传统的生成模型相比,这个过程确保RAG系统可以提供更细致和准确的输出。 “Lost in the Middle” 在RAG中“LIM”问题相当具有挑战性。 通过使用上面这些技术,可以确保数据的所有部分(包括中间部分)都得到了适当的检索并用于生成响应。这些步骤有助于改进RAG系统的性能,使它们更有效地处理和解释大量不同的信息源。 并且可以对不同检索器的结果进行排序,这有助于确保首先返回最相关的文档。 我们将以医疗/医疗保健相关的RAG为例构建回答一些保健被问题的聊天机器人。 通过这种方法可以使RAG获得更好的性能 总结 为了解决LIM问题并提高检索性能,对RAG系统进行增强是非常重要的。

    66310编辑于 2024-01-04
  • 大模型RAG向量检索原理深度解析

    常规的知识库检索通常使用的是关键字与词条匹配,随着AGI的爆发,越来越多的知识库检索开始使用向量检索技术,特别是在RAG领域,增强型的生成式问答检索正在大面积应用和推广。 从上面对比分析来看,传统检索方法更适合准确匹配的场景,向量检索适合复杂语义匹配检索需求,可以理解更复杂的语义关系,提供更为准确和全面的检索结果。 RAG应用。 具体应用如:车辆检索和商品图片检索等; 自然语言处理:基于语义的文本检索和推荐,通过文本检索近似文本; 声纹匹配,音频检索; 文件去重:通过文件指纹去除重复文件; 新药搜索; 然而针对不同数据类型和匹配逻辑 ,不同的检索数据和检索场景应用的检索算法也不一样,以下是几种基础的检索算法和应用场景简单介绍: 局部敏感哈希(LSH) LSH(Locality Sensitive Hashing),中文叫做“局部敏感哈希

    3.1K00编辑于 2024-04-19
  • 来自专栏云云众生s

    评估检索增强生成(RAG):TruLens + Milvus

    越来越多地,向量搜索已成为生成式 AI 在问答应用中的关键企业用例,即所谓的“检索增强生成(retrieval augmented generation)”或RAG。 构建 RAG 在构建高效的 RAG 式 LLM 应用程序时,有许多配置选择可供优化,这些选择可以显着影响检索质量。 TruLens 用于语言模型应用跟踪和评估 TruLens是一个开源库,用于评估和跟踪语言模型应用(如RAG)的性能。通过TruLens,我们还可以利用语言模型本身来评估输出、检索质量等。 RAG 在很大程度上通过为语言模型提供检索上下文来确保准确信息,但无法百分百保证。因此评估对验证应用中不存在幻想至关重要。TruLens 提供了三项测试:上下文相关度、准确性和答案相关度。 上下文相关度 任何 RAG 应用第一步是检索;为验证检索质量,我们要确保每个上下文块与输入查询相关。这非常关键,因为语言模型将使用该上下文生成答案,所以上下文中的任何不相关信息都可能被编织成幻想。

    91310编辑于 2024-03-28
  • SpringAI 全栈开发 + RAG 检索增强实战

    四、RAG技术栈全链路落地实战 RAG的核心是让大模型基于私有知识库生成精准回答,全链路分为文档处理、文本向量化、向量存储、智能检索、Prompt拼接、大模型生成六大环节,本节将完整实现每个环节的生产级代码 4.1 文档处理与文本分块 文档处理是RAG的第一步,核心是从不同格式的文档中提取文本,然后拆分成合适大小的文本块,确保检索精准性。 4.4 智能检索RAG问答实现 智能检索RAG的核心环节,核心是将用户的问题向量化,然后从向量数据库中检索出语义最相似的文本块,作为上下文提供给大模型,实现基于私有知识库的精准问答。 效果优化核心方案 RAG的效果取决于检索精准度与Prompt的质量,以下是经过生产验证的优化方案: 混合检索优化:基础的向量检索只能捕捉语义相似度,无法捕捉关键词匹配,企业级场景必须采用「向量检索+关键词检索 重排序(Reranker)优化:检索阶段先召回Top20的结果,然后用Reranker模型对召回结果进行精细的语义重排序,再取Top4输入大模型,大幅提升检索精准度,解决向量检索的粗粒度问题。

    15510编辑于 2026-04-14
  • RAG检索增强生成的评估·综述

    相关工作的文章和代码汇总在:Awesome RAG Evaluation 摘要 RAG(Retrieval-Augmented Generation,检索增强生成)由于其复杂的结构性和对检索知识库的依赖 引言 RAG通过整合检索到的信息提升了生成大语言模型(Large Language Model,LLM)的能力,并缓解了大语言模型面临“幻觉”和输出事实错误的回答,从而提升了内容的可靠性和丰富性。 其中RAG主要由检索和生成两阶段组成。检索涉及两个部分,建立文档索引和执行文档检索,通常还会结合精拍/重排来进一步微调检索到的文档排序。 Auepora (A Unified Evaluation Process of RAG) 为了应对这些挑战,系统性的比较RAG系统的检索和生成质量,本文提出A Unified Evaluation Process 通过量化指标和对应测试数据来精准量化评估目标是RAG评估的最后一步。然而符合人类偏好的量化指标并不容易,只能通过多方面来尽可能覆盖所有场景,也导致了量化指标的繁杂。

    2K51编辑于 2024-07-19
  • 来自专栏Linyb极客之路

    RAG检索模块是怎么优化的?

    RAG(Retrieval-Augmented Generation)中的检索模块是整个系统的关键环节,直接影响生成结果的质量。为了提升检索的准确性、相关性和效率,业界采用了多种优化策略。 以下是 RAG 检索模块的主要优化方法: 一、向量检索优化 更优的嵌入模型(Embedding Model) 使用领域微调的嵌入模型(如 BGE、E5 等),比通用模型(如 Sentence-BERT) 混合检索(Hybrid Retrieval) 结合关键词检索(如 BM25、Elasticsearch)和向量语义检索,互补优劣。 多跳检索(Multi-hop Retrieval) 对复杂问题,进行多轮检索:第一轮检索后生成新查询,再进行第二轮检索,逐步逼近答案。 类似“思考-检索-再思考”的过程。 ,RAG检索模块能够更精准地找到与用户问题相关的上下文,为生成模块提供高质量输入,从而显著提升整体系统表现。

    8710编辑于 2026-04-14
  • 来自专栏DeepHub IMBA

    Agentic RAG:用LangGraph打造会自动修正检索错误的 RAG 系统

    标准 RAG 流水线有个根本性的毛病:检索到的文档一旦与用户意图对不上号,模型照样能面不改色地输出一堆看似合理的胡话,既没有反馈机制也谈不上什么纠错能力。 而Agentic RAG 的思路截然不同,它不急着从检索结果里硬挤答案,而是先判断一下拿回来的东西到底有没有用,如果没用则会重写查询再来一轮。 Agentic RAG 的解法是在流程中插入检查点:智能体先判断要不要检索检索完了有评分环节确认相关性;不相关就重写查询再试;如此循环直到拿到合格的上下文,或者把重试次数耗尽为止。 它能调用包括检索器在内的工具集。问题需要外部知识就调检索,不需要就直接生成回答。 重写函数处理那些被评分环节打回来的查询。它会让 LLM 把原始问题改写成检索友好的形式,用词更精准、关键信息更突出。 改检索模块。想把 OpenAI 换成 Anthropic?改配置层。其他部分不受影响。 总结 标准 RAG检索当黑盒,查询丢进去、文档出来,至于相不相关全凭运气。

    68410编辑于 2026-01-12
  • 来自专栏架构进阶

    大模型RAG:基于PgSql的向量检索

    RAG与向量检索1.1 RAG概念 检索增强生成(Retrieval-augmented Generation),简称RAGRAG通常包括两个阶段:1、检索上下文相关信息;2、使用检索到的知识指导生成过程。简单来说,就像开卷考试,我们可以携带参考材料用来查找相关信息来回答问题。 1.3 RAG应用框架 RAG应用框架如下图所示,包含文本向量化、检索向量数据库、获取上下文(相关知识/文档)、prompt构造、调用大模型执行文本生成等主要环节。 二 向量数据库 由于介绍RAG的文章已经很多,本篇主要打算介绍向量数据库部分,所以不再对RAG进行赘述。 四 小结 本篇介绍了RAG的一些基础知识,以及向量库在其中的作用及选型。并基于PgSQL给出了一个向量库的使用示例。接下来的文章中,我们将深入探索如何实现可用的RAG应用。欢迎留言一起探讨。

    1.2K00编辑于 2025-02-28
  • 来自专栏DeepHub IMBA

    RAG中的3个高级检索技巧

    RAG系统检索的文档可能并不总是与用户的查询保持一致,这是一个常见的现象。 本文将探讨三种有效的技术来增强基于rag的应用程序中的文档检索,通过结合这些技术,可以检索与用户查询密切匹配的更相关的文档,从而生成更好的答案。 查询扩展 查询扩展指的是一组重新表述原始查询的技术。 给定一个查询,用所有检索到的文档对其进行编码。然后按降序排序。得分高的认为是最相关的文件。 一盘情况下适配器会插入到预训练模型层之间的小型前馈神经网络中,所以训练适配器的目标是更改嵌入查询,以便为特定任务生成更好的检索结果。 嵌入适配器是一个可以在嵌入阶段之后和检索之前插入的阶段。 我们需要做的就是将原始的嵌入输出与适配器矩阵相乘,然后再将其输入到检索系统。

    1.2K10编辑于 2024-01-23
领券