首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Reinvent Data Science

    RAG 修炼手册|如何评估 RAG 应用

    如果你是一名用户,拥有两个不同的 RAG 应用,如何评判哪个更好?对于开发者而言,如何定量迭代提升你的 RAG 应用的性能? 显然,无论对于用户还是开发者而言,准确评估 RAG 应用的性能都十分重要。 当以黑盒方式来评估 RAG 应用时,我们看不到 RAG 应用的内部,只能从输入给 RAG 应用的信息和它返回的信息来评估 RAG 的效果。 我们使用这三个信息来评估 RAG 应用的效果,黑盒方式是一种端到端的评估方式,也比较适用于评估闭源的 RAG 应用。 当以白盒方式来评估 RAG 应用时,我们能看到 RAG 应用的内部所有流程。 白盒方式可以用来评估开源 RAG 应用,或者提升自研 RAG 应用。 02. 比如在上图中,我们假设 RAG 应用召回了 top_k=5 个文档,其中,A、C 和 E 文档是 ground-truth。A 文档排名为1,它的相关性得分最高,并且得分向右依次减小。

    1.5K12编辑于 2024-04-25
  • 来自专栏自然语言处理

    RAG5个常见错误

    向量数据库并非硬性规定 几乎互联网上所有关于RAG的教程都使用向量存储。如果你一直在搜索RAG相关内容,你就会明白我们在说什么。 基于向量的检索无疑是RAG成功的重要因素。 对于通用应用,你可以使用向量存储,但当向量存储中没有可用信息时,你可以搜索互联网。 对于客户聊天机器人,你可能需要授予RAG访问部分客户数据库的权限,这可能是一个关系型数据库。 而且,我们创建的几乎所有应用都专注于一个小众话题。 对于这些应用,使用更大模型带来的好处是微不足道的。 下面是一种不同的做法: 为你的领域数据创建一个数据集,并微调一个小型嵌入模型。 分块是RAG中最具挑战性和最重要的部分 当上下文中包含不相关信息时,LLM往往会失控。 防止RAG中出现幻觉的最佳方法是分块。 现代LLM可能支持更长的上下文长度。 这种二级重排序在某些应用中有益,但在其他应用中则不然。但有一些技术可以用来改进重排序结果。 其中一种是获取大量初始结果。宽松定义初始标准会拉取一些不相关的上下文,但它增加了找到正确内容的概率。

    27110编辑于 2025-04-26
  • 来自专栏自然语言处理

    5个开源RAG框架对比

    还在为RAG应用开发头疼吗?别急,今天给大家推荐五款完全开源免费的RAG框架,覆盖自动优化、多模态处理、本地部署、生产环境支持等多种场景,助你轻松搞定RAG开发! 1. AutoRAG:自动优化,省心省力 核心优势:自动寻找最优RAG流程,告别手动调参! ✨ 特色功能:支持用你的评估数据测试不同RAG模块,找到最适合的方案。 ✨ 特色功能: 支持文本、PDF、JSON、图片等多种文件格式 结合语义搜索 + 关键词搜索 自动构建知识图谱,提取实体关系 适用场景:适合需要处理多类型数据源的综合性RAG应用。 Cognita:生产环境,稳定可靠 核心优势:专为生产环境设计,企业级应用的首选! ✨ 特色功能:提供可定制的数据摄入、处理和检索组件,灵活又高效。 适用场景:适合企业级应用部署,需要稳定可靠的RAG框架。 https://github.com/truefoundry/cognita 5.

    3.7K11编辑于 2024-12-31
  • LLM&RAG快速应用小册

    LLM 与 RAG 的组合拳,其核心目标就是压缩这些“低价值工时”,让员工从繁琐的事务中解放出来,专注于战略、创新和决策。 第二部分:RAG——为 LLM 注入企业“私有灵魂”直接使用通用的 LLM,就像让一位绝顶聪明但对你公司一无所知的“外部顾问”来工作。 通过 RAG,LLM 在回答任何问题时,都会先从这个私有知识库中检索最相关的信息,然后基于这些准确、实时的内部资料来生成回答。 AI 客服机器人: 基于 RAG 的 AI 客服,可以 24/7 不间断地回答客户关于产品使用、订单状态、售后政策的各类问题。 结语:从“工具”到“战略”LLM 与 RAG应用,绝非简单地购买一个软件或部署一个模型。它是一项深刻的组织变革战略。

    25810编辑于 2025-11-20
  • 腾讯云DeepSeek开发RAG应用

    Ollama、DeepSeek-R1 1.5B、7B、8B、14B 及 32B 模型,选择空间规格按照需求建议选择DeepSeek 32B,适合高精度任务,如复杂推理、大规模知识库问答、专业领域内容生成和研究级应用 5、 使用线上IDE平台这个ide就是网页版的vscode,各种功能和电脑本地安装的vscode完全一样,并且直接集成了腾讯云AI编程助手,这个在线的IDE确实很赞,等于有了一个移动的大模型开发工作站, 6 开始RAG实战前面我们看到开发环境已经ok了,后面直接实现一个基于deepseek的rag系统,该系统完全私有化部署,不使用任何云服务,支持对上传文件的检索。 (1) 创建一个rag目录存放代码cd rag(2) rag目录下创建data,上传测试tx文件Txt文件可以百度百科随便找一段复制内容,后面问里面的问题即可。 创建一个虚拟的开发环境并激活环境名称为myrag,python的版本是3.12.2conda create --name myrag python=3.12.2成功后激活环境conda activate myrag (5)

    1.4K10编辑于 2025-03-05
  • 来自专栏自然语言处理

    玩转RAG应用:如何选对Embedding模型?

    在打造检索增强生成(RAG应用时,选择合适的Embedding模型就像挑选合适的工具,直接影响到应用的表现和效果。​那么,面对众多的模型,我们该如何轻松找到最适合的那一款呢?​ 语言支持: 多语言模型如 multilingal-e5-large 适合跨语言应用,而单语言模型可能在特定语言上表现更好。 推理时间: 如果你的应用场景对响应时间有高要求,需要选择在推理时速度较快的模型。 模型的可扩展性与易用性 : 微调和更新的能力:对于一个不断迭代的RAG系统,选择一个能够轻松微调和持续更新的模型至关重要。 模型是否易于集成进现有的RAG架构?文档是否清晰?社区支持如何?

    4.5K10编辑于 2025-03-19
  • 来自专栏大数据杂货铺

    使用知识图谱实现 RAG 应用

    《福布斯》最近将 RAG 应用程序评为人工智能领域最热门的事物。这并不奇怪,因为检索增强生成需要最少的代码,并有助于建立用户对大语言模型的信任。 构建出色的 RAG 应用程序或聊天机器人时面临的挑战是处理结构化文本和非结构化文本。 接下来,我们将演练一个场景,展示如何使用 LangChain 实现基于知识图谱的 RAG 应用程序来支持您的 DevOps 团队。该代码可在 GitHub 上获取。 开发 DevOps RAG 应用程序时,您可以从云服务、任务管理工具等获取信息。 将多个数据源组合成知识图谱 由于此类微服务和任务信息不公开,因此我们创建了一个综合数据集。 RAG 应用程序中的矢量相似性搜索 从向量索引中检索到的信息可以用作大语言模型的上下文,以便它可以生成准确且最新的答案。 这些任务已经在我们的知识图谱中了。但是,我们必须计算嵌入值并创建向量索引。

    2.7K10编辑于 2024-04-03
  • 来自专栏JavaEdge

    抓住风口,快速上手RAG应用开发!

    2024年,大模型发展的脚步持续加快,你一定对 RAG(检索增强生成)有所耳闻,随大模型快速发展,RAG 作为一种新兴开发范式,能有效解决大模型的幻觉和知识停滞的问题,并已成为企业构建智能问答应用的最佳实践 组织可以更自信地为更广泛的应用程序实施生成式人工智能技术。 4 RAG的工作原理 如果没有 RAG,LLM 会接受用户输入,并根据它所接受训练的信息或它已经知道的信息创建响应。 4.5 将 RAG 与 LLM 配合使用的概念流程 5 大厂的 RAG 系统学习教程 RAG 技术易于入门,但效果难提升: 如何借助 RAG,最大限度发挥大模型的潜力? 腾讯云开发者社区携手腾讯云向量数据库团队与腾讯云安灯团队,联合推出**《RAG 七天入门训练营》,将从基础理论到实际应用**,由鹅厂大牛带你快速学习 RAG,助你轻松上手AI Plus,玩转高质量 RAG 应用

    1.3K00编辑于 2024-05-25
  • 来自专栏菩提树下的杨过

    langchain4j 学习系列(5)-RAG

    继续我们的langchain4j之旅,今天来看看RAG如何实现,“RAG萌宠新手盆友们”建议先看看B站大佬的视频RAG 工作机制详解—哔哩哔哩_bilibili,核心步骤就是下面这3张图: 最简单的RAG prompt_eval_count":11} 3、重排/生成 private interface Assistant { String chat(String userMessage); } /** * 基于RAG "done_reason":"stop","total_duration":1059949995,"prompt_eval_count":21,"eval_count":22} 从日志上看,先做了1次RAG

    27610编辑于 2025-12-24
  • 来自专栏人工智能

    RAG 应用中的数据召回率及其应用的探讨

    深入理解 RAG 应用中的数据召回率及其应用数据召回率是 RAG(Retrieval-Augmented Generation)应用中一个至关重要的性能指标,它衡量模型在检索阶段中成功找到相关数据的能力 召回率在 RAG 应用中的意义在 RAG 应用中,召回率的重要性主要体现在以下几个方面:信息完整性:高召回率有助于确保检索模块不会遗漏与问题高度相关的信息,从而为生成模块提供充分的上下文。 提高召回率的策略在 RAG 应用中,提升召回率需要针对检索模块的架构和参数进行优化。 将 Top-K 参数从 5 增加到 10,扩大检索范围。使用企业内部文档对检索模型进行微调,以适应特定的表达方式和术语。最终改进后的系统不仅显著提高了召回率,也增强了生成回答的准确性和用户满意度。 未来研究方向虽然提升召回率对 RAG 应用至关重要,但也需要在性能和成本之间寻找平衡点。一些未来研究方向包括:多模态检索:结合文本、图像和音频等多种数据类型,进一步提升召回率。

    2.3K10编辑于 2025-01-07
  • DLM 在RAG方面的应用研究

    RAG(检索增强生成)系统中,扩散语言模型(如ChatDLM)带来的并行迭代生成能力,能有效解决传统自回归模型的瓶颈,实现检索、整合、生成的深度协同。 其核心技术突破在于将原本应用于image generation领域的Diffusion Model(扩散模型) 范式成功迁移至text generation,并结合Mixture of Experts( 在RAG系统中的Disruptive Application传统基于Autoregressive Models的RAG系统,其pipeline通常是Sequential(串行) 且Static(静态) ChatDLM的引入,为RAG带来了Dynamic(动态) 与Holistic(整体) 的范式转变,其核心作用体现在:Dynamic Retrieval-Generation Synergy(动态检索- Interactive Steering and Controlled Generation(交互式引导与可控生成)Diffusion模型的“白盒”迭代特性,为RAG系统提供了前所未有的Controllability

    14010编辑于 2026-01-29
  • 深入LLM与RAG 原理、实现与应用

    首先,LLM可以用于文本生成,可以生成连贯的段落、文章、对话等,可以应用于自动写作、机器翻译等任务中。其次,LLM可以用于问答系统,可以回答复杂的问题,甚至进行对话式问答。 此外,LLM还可以用于智能助理、机器人交互、自动摘要、信息提取等应用领域。总的来说,LLM在自然语言处理和人工智能领域都有很大的潜力,可以提供更加智能和自然的人机交互体验。 泛化:(Generalization)模型泛化是指一些模型可以应用(泛化)到其他场景,通常为采用迁移学习、微调等手段实现泛化。 DeepMind 根据 AI 模型性能和学习处理任务的广泛性对 AGI 水平进行分类,从 Level-0 无人工智能,到 Level-5 超越人类共 6 个等级。 在实际应用场景中准确率较低。五、早期预训练神经语言模型在探索大型语言模型(LLMs)的历史中,我们首先关注的是早期的预训练神经语言模型,它们可以视为现代LLMs的先驱。

    51410编辑于 2024-09-20
  • 来自专栏Reinvent Data Science

    使用RAGAs评估基于Milvus的RAG应用

    现在,我们很容易构建一个基于检索增强生成(RAG)的应用,但将其投入生产却非常困难,因为RAG的性能很难达到令人满意的状态。 在评估RAG时,我们需要分别评估两个组件以及它们的整体性能,以了解RAG是否仍然需要改进,以及需要在哪里改进。此外,为了评估RAG应用程序的性能是否正在改善,我们需要进行定量评估。 RAGAs还提供了端到端评估RAG管道的指标,例如答案语义相似性和答案正确性。本文重点介绍了组件级别指标。 使用RAGAs评估RAG应用 前提条件 安装所需的Python 包 #! 总结 构建一个RAG应用程序很容易,但将其性能投入生产使用则很困难。像机器学习项目一样,我们需要使用验证数据集和评估指标评估RAG应用的性能。 但是,由于RAG应用由多个组件组成,这些组件必须分别和组合地进行评估,因此我们需要一组评估指标。本文介绍了RAGAs评估框架。

    1.5K20编辑于 2024-07-10
  • 来自专栏AIGC

    【AIGC】通过RAG架构LLM应用程序

    toc在之前的博客文章中,我们已经描述了嵌入是如何工作的,以及RAG技术是什么。本节我们我们将使用 LangChain 库以及 RAG 和嵌入技术在 Python 中构建一个简单的 LLM 应用程序。 我们将使用 LangChain 库在 Python 中构建一个简单的 LLM 应用程序。LangChain是一个流行的库,它使构建这样的应用程序变得非常容易。 我们的 RAG 应用程序将使用私有数据扩展 LLM 的知识。在这种情况下,它将是一个包含一些文本的 PDF 文件。 1.安装条件在一开始,我们必须安装应用程序将使用的所有必需模块。 在关于RAG的文章中对此进行了更详细的描述。

    50410编辑于 2024-05-08
  • 来自专栏Reinvent Data Science

    Milvus × RAG助力快看漫画多业务应用

    03.快看RAG技术探索和应用 以ChatGPT为代表的大语言模型(LLM)在自然语言理解和生成任务上,展现了前所未有的能力,但是大语言模型(LLM)在特定领域任务中,会出现信息延迟和幻觉现象,检索增强生成 (RAG)通过引用外部知识可以有效缓解这些问题,是LLM在工业领域应用的关键技术。 5.评估模块 我们从三个维度来评估RAG系统,分别是召回、重排和端到端评估。 右边的图是对bge-rerank-base模型进行微调后的结果,相比于baseline,map有5%的提升,相比于不微调,map有8%左右的提升。 6.高级RAG 上面所说的算是一个比较标准的RAG流程,但是企业应用中的数据和用户query都是多种多样的,为了解决更复杂的业务case,我们做了一些改造,包括query转换、检索时机意图识别、Text2SQL

    81910编辑于 2024-07-31
  • 来自专栏云云众生s

    开发基于云的RAG应用,使用开源 LLM

    检索增强生成 (RAG) 通常用于开发定制的 AI 应用程序,包括 聊天机器人、推荐系统 和其他个性化工具。该系统利用向量数据库和 大型语言模型 (LLM) 的优势来提供高质量的结果。 让我们探索一种类似的方法来开发使用云托管开源 LLM 和可扩展向量数据库的应用程序。 工具和技术 开发此基于 RAG 的 AI 应用程序需要使用多种工具。 之后,您就可以编写代码并开发 RAG 应用程序了。 您的数据已准备就绪,下一步是在 BentoML 上部署模型并在您的 RAG 应用程序中使用它们。首先部署 LLM。 另一方面,MyScaleDB 是专门为 RAG 应用程序开发的,提供高性能 SQL 向量数据库。它熟悉的 SQL 语法使开发人员可以轻松地将其集成到他们的应用程序中并使用它,因为学习曲线很小。

    58010编辑于 2024-07-07
  • 来自专栏Reinvent Data Science

    用 LangChain 搭建基于 Notion 文档的 RAG 应用

    在整个过程中,我们会将 LangChain 作为框架,Milvus 作为相似性搜索引擎,用二者搭建一个基本的检索增强生成(RAG应用。 本质上,LangChain 中的自查询功能就是构建一个基本的 RAG 架构,如图所示: 在 LangChain 中处理 Notion 文档共包含三个步骤:获取、存储和查询文档。 SelfQueryRetriever:用于搭建基本的 RAG 应用。 Attribute info:用于传入元数据的。 首先,我们定义元数据。随后,需要给自查询检索器提供文档的描述。 本教程介绍了如何加载并解析 Notion 文档,并搭建一个基本的 RAG 应用查询 Notion 文档。我们使用到了 LangChain 作为框架,Milvus 作为向量数据库用于相似性搜索。 所谓分块(Chunking)是构建检索增强型生成(RAG)(https://zilliz.com.cn/use-cases/llm-retrieval-augmented-generation)应用程序中最具挑战性的问题

    1K20编辑于 2023-12-01
  • 来自专栏自然语言处理

    RAG实战】Prompting vs. RAG vs. Finetuning: 如何选择LLM应用选择最佳方案

    在构建基于大型语言模型(LLM)的应用时,通常不可能立即使用模型而无需任何调整。 为了保持高实用性,我们可以选择以下几种方法之一: Prompt Engineering(提示工程) Fine-tuning(微调) RAG(Retrieval-Augmented Generation, 检索增强生成) 混合方法(RAG + 微调) 影响因素 以下两个重要因素会影响我们的决策: 外部知识需求:你的任务需要多少外部知识。 如何决定: 使用RAG:如果你需要基于自定义知识库生成输出,并且LLM的词汇和写作风格保持不变。 使用微调:如果你想要改变模型的结构(行为)而不是知识。 混合方法(RAG + 微调):如果你的应用需要自定义知识库和模型行为的改变。

    46810编辑于 2024-12-20
  • 来自专栏JadePeng的技术博客

    知识图谱在RAG中的应用探讨

    在这篇文章中,我们来详细探讨知识图谱(KG)在RAG流程中的具体应用场景。 stages,这篇文章较为详细的介绍了KG在RAG各个阶段的可能得应用方式,在这里分享给大家。 RAG 阶段 我们将RAG分为下面几个阶段: 阶段1:预处理 ,通常是提取chunk分块之前的预处理。 阶段2/D:chunk提取 阶段3-5:后处理,用检索到的信息生成答案 查询增强(Query Augmentation)** 预处理 阶段 ,这里主要 在执行检索之前,向查询添加上下文。 KG的一个常见应用场景,也是帮助企业构建缩略词词典,以便搜索引擎可以有效识别问题或文档中的缩略词。

    1.3K10编辑于 2024-04-11
  • 来自专栏Datawhale专栏

    RAG 作者:RAG 已死,RAG 万岁!

    该 LinkedIn 帖子: 一些值得注意的 RAG“死亡宣告”包括: 2023 年 5 月:Anthropic 的 Claude,上下文窗口达 10 万 token 2024 年 2 月:Google 这对于演示来说很亮眼,但对于生产级别的应用而言是不足够的。 不过,让我们假设我们拥有一个无限 token 的上下文窗口: 可扩展性与成本:处理数百万 token 速度缓慢,且在计算和财务上都代价高昂。 即使计算成本在下降,延迟对于应用程序来说也可能是一个大问题。 性能下降:LLM 仍然受困于“中间丢失”(lost in the middle)的问题。这意味着它们无法有效利用长文本中间部分的信息。 对于面向用户的应用程序,这会造成糟糕的用户体验,人们会在得到答案前就放弃交互。基于检索的方法可以通过仅添加最相关的信息来提供更快的响应。 效率 – 你会在需要回答一个简单问题时去读完整本教科书吗? 实际上,这些概念没有一个是相互排斥的,甚至不是相互冲突的——它们都以互补的方式帮助解决前沿模型的局限性: RAG 提供了访问模型知识库之外信息的途径 微调 改善了信息处理和应用的方式 更长的上下文 允许检索更多信息供模型推理

    70710编辑于 2025-04-24
领券