首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Reinvent Data Science

    RAG 修炼手册|如何评估 RAG 应用

    如果你是一名用户,拥有两个不同的 RAG 应用,如何评判哪个更好?对于开发者而言,如何定量迭代提升你的 RAG 应用的性能? 显然,无论对于用户还是开发者而言,准确评估 RAG 应用的性能都十分重要。 然而,简单的几个例子对比并不能全面衡量 RAG 应用的回答质量,需要采用可信、可复现的指标来量化评估 RAG 应用。 本文将从黑盒和白盒两个角度来讨论如何定量地评估一个 RAG 应用。 01. 当以黑盒方式来评估 RAG 应用时,我们看不到 RAG 应用的内部,只能从输入给 RAG 应用的信息和它返回的信息来评估 RAG 的效果。 我们使用这三个信息来评估 RAG 应用的效果,黑盒方式是一种端到端的评估方式,也比较适用于评估闭源的 RAG 应用。 当以白盒方式来评估 RAG 应用时,我们能看到 RAG 应用的内部所有流程。 白盒方式可以用来评估开源 RAG 应用,或者提升自研 RAG 应用。 02.

    1.5K12编辑于 2024-04-25
  • LLM&RAG快速应用小册

    LLM 与 RAG 的组合拳,其核心目标就是压缩这些“低价值工时”,让员工从繁琐的事务中解放出来,专注于战略、创新和决策。 第二部分:RAG——为 LLM 注入企业“私有灵魂”直接使用通用的 LLM,就像让一位绝顶聪明但对你公司一无所知的“外部顾问”来工作。 通过 RAG,LLM 在回答任何问题时,都会先从这个私有知识库中检索最相关的信息,然后基于这些准确、实时的内部资料来生成回答。 AI 客服机器人: 基于 RAG 的 AI 客服,可以 24/7 不间断地回答客户关于产品使用、订单状态、售后政策的各类问题。 结语:从“工具”到“战略”LLM 与 RAG应用,绝非简单地购买一个软件或部署一个模型。它是一项深刻的组织变革战略。

    25810编辑于 2025-11-20
  • 腾讯云DeepSeek开发RAG应用

    的缩写,意思为大语言模型OllamaOllama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计内置,直接使用Deepseek按照参数不同有DeepSeek-R1 1.5B、7B DeepSeek 体验,低门槛、零基础体验与学习,最高每月可使用12500分钟免费时长兑换内置 Ollama、DeepSeek-R1 1.5B、7B、8B、14B 及 32B 模型,选择空间规格按照需求建议选择 DeepSeek 32B,适合高精度任务,如复杂推理、大规模知识库问答、专业领域内容生成和研究级应用。 /chromadb(7) 运行程序rag目录下执行 python deepseek.py6.2 程序代码解读程序比较清晰简单,主要有6个步骤完成,设置模型-->加载读取文档-->分块分割文-->备向量存储 /chromadb2、怎么上传文件左侧目录导航的文件夹右键弹出找到上传点击即可7 总结可以看到接入deepseek的rag系统开发起来并不难,后面可以有很多完善的地方,开发环境已经准备好了,完全可以根据这个简单的

    1.4K10编辑于 2025-03-05
  • 来自专栏自然语言处理

    玩转RAG应用:如何选对Embedding模型?

    在打造检索增强生成(RAG应用时,选择合适的Embedding模型就像挑选合适的工具,直接影响到应用的表现和效果。​那么,面对众多的模型,我们该如何轻松找到最适合的那一款呢?​ 例如,较大的模型如 gte-Qwen2-7B-instruct(7 亿参数)可能更适合复杂任务,但计算成本更高。 推理时间: 如果你的应用场景对响应时间有高要求,需要选择在推理时速度较快的模型。 模型的可扩展性与易用性 : 微调和更新的能力:对于一个不断迭代的RAG系统,选择一个能够轻松微调和持续更新的模型至关重要。 模型是否易于集成进现有的RAG架构?文档是否清晰?社区支持如何?

    4.5K10编辑于 2025-03-19
  • 来自专栏大数据杂货铺

    使用知识图谱实现 RAG 应用

    《福布斯》最近将 RAG 应用程序评为人工智能领域最热门的事物。这并不奇怪,因为检索增强生成需要最少的代码,并有助于建立用户对大语言模型的信任。 构建出色的 RAG 应用程序或聊天机器人时面临的挑战是处理结构化文本和非结构化文本。 接下来,我们将演练一个场景,展示如何使用 LangChain 实现基于知识图谱的 RAG 应用程序来支持您的 DevOps 团队。该代码可在 GitHub 上获取。 开发 DevOps RAG 应用程序时,您可以从云服务、任务管理工具等获取信息。 将多个数据源组合成知识图谱 由于此类微服务和任务信息不公开,因此我们创建了一个综合数据集。 RAG 应用程序中的矢量相似性搜索 从向量索引中检索到的信息可以用作大语言模型的上下文,以便它可以生成准确且最新的答案。 这些任务已经在我们的知识图谱中了。但是,我们必须计算嵌入值并创建向量索引。

    2.7K10编辑于 2024-04-03
  • 来自专栏JavaEdge

    抓住风口,快速上手RAG应用开发!

    2024年,大模型发展的脚步持续加快,你一定对 RAG(检索增强生成)有所耳闻,随大模型快速发展,RAG 作为一种新兴开发范式,能有效解决大模型的幻觉和知识停滞的问题,并已成为企业构建智能问答应用的最佳实践 3.4 更多开发人员控制权 借助 RAG,开发人员可以更高效地测试和改进他们的聊天应用程序。他们可以控制和更改 LLM 的信息来源,以适应不断变化的需求或跨职能使用。 组织可以更自信地为更广泛的应用程序实施生成式人工智能技术。 4 RAG的工作原理 如果没有 RAG,LLM 会接受用户输入,并根据它所接受训练的信息或它已经知道的信息创建响应。 腾讯云开发者社区携手腾讯云向量数据库团队与腾讯云安灯团队,联合推出**《RAG 七天入门训练营》,将从基础理论到实际应用**,由鹅厂大牛带你快速学习 RAG,助你轻松上手AI Plus,玩转高质量 RAG 应用

    1.3K00编辑于 2024-05-25
  • 来自专栏人工智能

    RAG 应用中的数据召回率及其应用的探讨

    深入理解 RAG 应用中的数据召回率及其应用数据召回率是 RAG(Retrieval-Augmented Generation)应用中一个至关重要的性能指标,它衡量模型在检索阶段中成功找到相关数据的能力 召回率在 RAG 应用中的意义在 RAG 应用中,召回率的重要性主要体现在以下几个方面:信息完整性:高召回率有助于确保检索模块不会遗漏与问题高度相关的信息,从而为生成模块提供充分的上下文。 计算召回率的实际案例以下是一个 Python 示例,展示如何计算 RAG 系统的召回率。假设我们有一个简单的知识库,用户查询,以及检索结果。 提高召回率的策略在 RAG 应用中,提升召回率需要针对检索模块的架构和参数进行优化。 未来研究方向虽然提升召回率对 RAG 应用至关重要,但也需要在性能和成本之间寻找平衡点。一些未来研究方向包括:多模态检索:结合文本、图像和音频等多种数据类型,进一步提升召回率。

    2.3K10编辑于 2025-01-07
  • DLM 在RAG方面的应用研究

    RAG(检索增强生成)系统中,扩散语言模型(如ChatDLM)带来的并行迭代生成能力,能有效解决传统自回归模型的瓶颈,实现检索、整合、生成的深度协同。 其核心技术突破在于将原本应用于image generation领域的Diffusion Model(扩散模型) 范式成功迁移至text generation,并结合Mixture of Experts( 在RAG系统中的Disruptive Application传统基于Autoregressive Models的RAG系统,其pipeline通常是Sequential(串行) 且Static(静态) ChatDLM的引入,为RAG带来了Dynamic(动态) 与Holistic(整体) 的范式转变,其核心作用体现在:Dynamic Retrieval-Generation Synergy(动态检索- Interactive Steering and Controlled Generation(交互式引导与可控生成)Diffusion模型的“白盒”迭代特性,为RAG系统提供了前所未有的Controllability

    14010编辑于 2026-01-29
  • 深入LLM与RAG 原理、实现与应用

    首先,LLM可以用于文本生成,可以生成连贯的段落、文章、对话等,可以应用于自动写作、机器翻译等任务中。其次,LLM可以用于问答系统,可以回答复杂的问题,甚至进行对话式问答。 此外,LLM还可以用于智能助理、机器人交互、自动摘要、信息提取等应用领域。总的来说,LLM在自然语言处理和人工智能领域都有很大的潜力,可以提供更加智能和自然的人机交互体验。 泛化:(Generalization)模型泛化是指一些模型可以应用(泛化)到其他场景,通常为采用迁移学习、微调等手段实现泛化。 LLaMA 的第一个版本有四个模型大小,分别训练了 7、13、33 和 650 亿个参数。 2023 年 7 月,Meta 宣布与 Microsoft 合作推出 Llama 2。Llama 2 有三个模型大小,分别有 7、13 和 700 亿个参数。

    51410编辑于 2024-09-20
  • 来自专栏Reinvent Data Science

    使用RAGAs评估基于Milvus的RAG应用

    现在,我们很容易构建一个基于检索增强生成(RAG)的应用,但将其投入生产却非常困难,因为RAG的性能很难达到令人满意的状态。 在评估RAG时,我们需要分别评估两个组件以及它们的整体性能,以了解RAG是否仍然需要改进,以及需要在哪里改进。此外,为了评估RAG应用程序的性能是否正在改善,我们需要进行定量评估。 RAGAs还提供了端到端评估RAG管道的指标,例如答案语义相似性和答案正确性。本文重点介绍了组件级别指标。 使用RAGAs评估RAG应用 前提条件 安装所需的Python 包 #! 总结 构建一个RAG应用程序很容易,但将其性能投入生产使用则很困难。像机器学习项目一样,我们需要使用验证数据集和评估指标评估RAG应用的性能。 但是,由于RAG应用由多个组件组成,这些组件必须分别和组合地进行评估,因此我们需要一组评估指标。本文介绍了RAGAs评估框架。

    1.5K20编辑于 2024-07-10
  • 来自专栏AIGC

    【AIGC】通过RAG架构LLM应用程序

    toc在之前的博客文章中,我们已经描述了嵌入是如何工作的,以及RAG技术是什么。本节我们我们将使用 LangChain 库以及 RAG 和嵌入技术在 Python 中构建一个简单的 LLM 应用程序。 我们将使用 LangChain 库在 Python 中构建一个简单的 LLM 应用程序。LangChain是一个流行的库,它使构建这样的应用程序变得非常容易。 我们的 RAG 应用程序将使用私有数据扩展 LLM 的知识。在这种情况下,它将是一个包含一些文本的 PDF 文件。 在关于RAG的文章中对此进行了更详细的描述。 7.创建提示为了准备提示,我们将使用“langchain”中心。我们将从那里提取一个名为“langchain-ai/retrieval-qa-chat”的提示。

    50410编辑于 2024-05-08
  • 来自专栏Reinvent Data Science

    Milvus × RAG助力快看漫画多业务应用

    03.快看RAG技术探索和应用 以ChatGPT为代表的大语言模型(LLM)在自然语言理解和生成任务上,展现了前所未有的能力,但是大语言模型(LLM)在特定领域任务中,会出现信息延迟和幻觉现象,检索增强生成 (RAG)通过引用外部知识可以有效缓解这些问题,是LLM在工业领域应用的关键技术。 快看在大语言模型及RAG出现之后,迅速切入到以大语言模型为代表的技术领域,开始探索快看内部的应用场景,并在快看AI智能问答、IP角色互动两个场景取得了实质性进展,接下来以这两个场景为例,详细介绍下我们的技术方案 6.高级RAG 上面所说的算是一个比较标准的RAG流程,但是企业应用中的数据和用户query都是多种多样的,为了解决更复杂的业务case,我们做了一些改造,包括query转换、检索时机意图识别、Text2SQL 7.大模型微调 快看作为二次元领域的龙头,积累了非常多的领域知识,因此也在尝试基于开源大模型进行微调,训练快看在二次元领域的垂直大模型。

    81910编辑于 2024-07-31
  • 来自专栏自然语言处理

    你的RAG系统真的达标了吗?生产环境RAG成功的7大关键指标

    我们就是把RAG应用丢给一小部分人用,然后坐等反馈。结果呢?反馈五花八门,有的说好用到飞起,有的说烂到不行。有些问题的答案堪称完美,有些则错得离谱。 RAG系统的两大核心组件 一个典型的RAG系统主要由两部分组成: 检索器:这家伙负责响应用户的查询,从知识库(通常是矢量数据库)里找出相关信息。 系统性能:整个RAG系统在成本和响应速度上表现如何? 7个你必须关注的指标 根据我的经验,要想打造一个成功的RAG应用,你得盯紧以下7个关键指标: Precision@k(我们拿到的是相关内容吗?) 虽然前面提到的7个指标是认为必不可少的,但RAG系统的评估远不止这些。根据你的具体需求,还有很多其他指标可能会派上用场。 总结 无论你是刚起步,还是已经深入RAG项目,指标都是你成功的关键。希望这些经验能帮你在RAG系统的开发和优化中少走弯路,早日打造出高效、稳定的智能应用

    1K10编辑于 2025-01-13
  • 来自专栏云云众生s

    开发基于云的RAG应用,使用开源 LLM

    检索增强生成 (RAG) 通常用于开发定制的 AI 应用程序,包括 聊天机器人、推荐系统 和其他个性化工具。该系统利用向量数据库和 大型语言模型 (LLM) 的优势来提供高质量的结果。 让我们探索一种类似的方法来开发使用云托管开源 LLM 和可扩展向量数据库的应用程序。 工具和技术 开发此基于 RAG 的 AI 应用程序需要使用多种工具。 之后,您就可以编写代码并开发 RAG 应用程序了。 您的数据已准备就绪,下一步是在 BentoML 上部署模型并在您的 RAG 应用程序中使用它们。首先部署 LLM。 另一方面,MyScaleDB 是专门为 RAG 应用程序开发的,提供高性能 SQL 向量数据库。它熟悉的 SQL 语法使开发人员可以轻松地将其集成到他们的应用程序中并使用它,因为学习曲线很小。

    58010编辑于 2024-07-07
  • 来自专栏Reinvent Data Science

    用 LangChain 搭建基于 Notion 文档的 RAG 应用

    在整个过程中,我们会将 LangChain 作为框架,Milvus 作为相似性搜索引擎,用二者搭建一个基本的检索增强生成(RAG应用。 本质上,LangChain 中的自查询功能就是构建一个基本的 RAG 架构,如图所示: 在 LangChain 中处理 Notion 文档共包含三个步骤:获取、存储和查询文档。 SelfQueryRetriever:用于搭建基本的 RAG 应用。 Attribute info:用于传入元数据的。 首先,我们定义元数据。随后,需要给自查询检索器提供文档的描述。 本教程介绍了如何加载并解析 Notion 文档,并搭建一个基本的 RAG 应用查询 Notion 文档。我们使用到了 LangChain 作为框架,Milvus 作为向量数据库用于相似性搜索。 所谓分块(Chunking)是构建检索增强型生成(RAG)(https://zilliz.com.cn/use-cases/llm-retrieval-augmented-generation)应用程序中最具挑战性的问题

    1K20编辑于 2023-12-01
  • 来自专栏自然语言处理

    RAG实战】Prompting vs. RAG vs. Finetuning: 如何选择LLM应用选择最佳方案

    在构建基于大型语言模型(LLM)的应用时,通常不可能立即使用模型而无需任何调整。 为了保持高实用性,我们可以选择以下几种方法之一: Prompt Engineering(提示工程) Fine-tuning(微调) RAG(Retrieval-Augmented Generation, 检索增强生成) 混合方法(RAG + 微调) 影响因素 以下两个重要因素会影响我们的决策: 外部知识需求:你的任务需要多少外部知识。 如何决定: 使用RAG:如果你需要基于自定义知识库生成输出,并且LLM的词汇和写作风格保持不变。 使用微调:如果你想要改变模型的结构(行为)而不是知识。 混合方法(RAG + 微调):如果你的应用需要自定义知识库和模型行为的改变。

    46810编辑于 2024-12-20
  • 来自专栏JadePeng的技术博客

    知识图谱在RAG中的应用探讨

    在这篇文章中,我们来详细探讨知识图谱(KG)在RAG流程中的具体应用场景。 stages,这篇文章较为详细的介绍了KG在RAG各个阶段的可能得应用方式,在这里分享给大家。 RAG 阶段 我们将RAG分为下面几个阶段: 阶段1:预处理 ,通常是提取chunk分块之前的预处理。 KG的一个常见应用场景,也是帮助企业构建缩略词词典,以便搜索引擎可以有效识别问题或文档中的缩略词。 总结 知识图谱KG如何更好的利用在RAG里,是一个值得深入探讨的好话题,本文探讨了知识图谱在RAG不同阶段能产生的作用,不妨去试一试,后续我们会基于一些案例来实际探讨。

    1.3K10编辑于 2024-04-11
  • 来自专栏Datawhale专栏

    RAG 作者:RAG 已死,RAG 万岁!

    这对于演示来说很亮眼,但对于生产级别的应用而言是不足够的。 不过,让我们假设我们拥有一个无限 token 的上下文窗口: 可扩展性与成本:处理数百万 token 速度缓慢,且在计算和财务上都代价高昂。 即使计算成本在下降,延迟对于应用程序来说也可能是一个大问题。 性能下降:LLM 仍然受困于“中间丢失”(lost in the middle)的问题。这意味着它们无法有效利用长文本中间部分的信息。 底线是:您同时需要长上下文 LLM 和 RAG。 但既然“RAG”这个术语似乎如此具有争议性,那我们不妨这样说: 我们不必非得称之为 RAG。 我们可以就叫它 检索 (retrieval)。 对于面向用户的应用程序,这会造成糟糕的用户体验,人们会在得到答案前就放弃交互。基于检索的方法可以通过仅添加最相关的信息来提供更快的响应。 效率 – 你会在需要回答一个简单问题时去读完整本教科书吗? 实际上,这些概念没有一个是相互排斥的,甚至不是相互冲突的——它们都以互补的方式帮助解决前沿模型的局限性: RAG 提供了访问模型知识库之外信息的途径 微调 改善了信息处理和应用的方式 更长的上下文 允许检索更多信息供模型推理

    70710编辑于 2025-04-24
  • 来自专栏AI应用开发实践

    RAG应用如何进行有效的文本切分

    RAG(检索增强生成,Retrieval-Augmented Generation)应用中,文本分块(Text Chunking)是连接“知识存储”与“检索-生成”的核心预处理步骤,其重要性体现在对检索效率 一 为什么文本切分很重要 1.1 提升检索相关性:精准匹配用户需求 RAG 的核心是“先检索、后生成”,而检索的本质是从知识库中找到与用户查询语义最相关的信息。 1.2 优化检索效率:降低计算成本与延迟 RAG 依赖向量数据库存储文本的向量表示(通过嵌入模型生成),检索时需计算“用户查询向量”与“文本块向量”的相似度。 它是实现文本分块(Text Chunking)的重要组件,通常在构建检索增强生成(RAG)等应用时使用。 总结 分块策略 核心依据 核心目标 典型应用场景 固定长度分块 量化长度(字符/token) 快速、均匀切割 日志、简单无结构文本 递归分块 分隔符优先级+长度控制 平衡长度与语义完整性 文章、书籍等长文档

    18210编辑于 2026-03-26
  • LLM&RAG快速应用小册-极客时间

    一、提升知识准确性,夯实学习基础RAG通过实时检索权威、结构化的外部知识库(如教材、学术论文、教育数据库等),将最新、最准确的信息融入生成内容中。 RAG可根据学生的提问上下文,动态检索与其学习历史、知识薄弱点相关的资料,生成高度定制化的解释或练习建议。 教师也可利用RAG快速整合教学资源,为不同层次的学生设计差异化任务,真正实现“以学生为中心”的教育理念。三、培养批判性思维与信息素养RAG系统通常会在生成答案时附带信息来源或引用依据。 RAG技术可将名校课程、名师讲解、权威题库等高质量内容通过智能问答形式普惠化。偏远地区的学生只需接入网络,即可获得接近一线城市的辅导体验。 未来,随着RAG与教育场景的深度融合,我们有理由期待一个更加公平、高效、富有创造力的学习新时代。

    19510编辑于 2025-11-21
领券