首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Reinvent Data Science

    RAG 修炼手册|如何评估 RAG 应用

    如果你是一名用户,拥有两个不同的 RAG 应用,如何评判哪个更好?对于开发者而言,如何定量迭代提升你的 RAG 应用的性能? 显然,无论对于用户还是开发者而言,准确评估 RAG 应用的性能都十分重要。 当以黑盒方式来评估 RAG 应用时,我们看不到 RAG 应用的内部,只能从输入给 RAG 应用的信息和它返回的信息来评估 RAG 的效果。 我们使用这三个信息来评估 RAG 应用的效果,黑盒方式是一种端到端的评估方式,也比较适用于评估闭源的 RAG 应用。 当以白盒方式来评估 RAG 应用时,我们能看到 RAG 应用的内部所有流程。 白盒方式可以用来评估开源 RAG 应用,或者提升自研 RAG 应用。 02. 下面我们分别介绍如何评估这 3 个典型的关键组件: 怎么评估 embedding model 和 rerank model Embedding model 和 rerank model 一同完成相关文档的检索功能

    1.5K12编辑于 2024-04-25
  • LLM&RAG快速应用小册

    LLM 与 RAG 的组合拳,其核心目标就是压缩这些“低价值工时”,让员工从繁琐的事务中解放出来,专注于战略、创新和决策。 通过 RAG,LLM 在回答任何问题时,都会先从这个私有知识库中检索最相关的信息,然后基于这些准确、实时的内部资料来生成回答。 AI 客服机器人: 基于 RAG 的 AI 客服,可以 24/7 不间断地回答客户关于产品使用、订单状态、售后政策的各类问题。 效果: 一个由 AI 辅助的客服团队,其人均效率可以提升 2-3 倍。原本需要 10 个人的团队,现在可能只需要 3-4 人,人力成本大幅削减,同时客户满意度因响应速度和准确性的提升而显著提高。 结语:从“工具”到“战略”LLM 与 RAG应用,绝非简单地购买一个软件或部署一个模型。它是一项深刻的组织变革战略。

    25810编辑于 2025-11-20
  • 腾讯云DeepSeek开发RAG应用

    需要安装3、 注册账号1、注册账号,微信直接扫码注册账号https://cloud.tencent.com/act/pro/deepseek2025点击立即体验即可。 Ollama、DeepSeek-R1 1.5B、7B、8B、14B 及 32B 模型,选择空间规格按照需求建议选择DeepSeek 32B,适合高精度任务,如复杂推理、大规模知识库问答、专业领域内容生成和研究级应用 6 开始RAG实战前面我们看到开发环境已经ok了,后面直接实现一个基于deepseek的rag系统,该系统完全私有化部署,不使用任何云服务,支持对上传文件的检索。 (1) 创建一个rag目录存放代码cd rag(2) rag目录下创建data,上传测试tx文件Txt文件可以百度百科随便找一段复制内容,后面问里面的问题即可。 (3) 安装向量模型milkey/dmeta-embedding-zh:f16ollma pull milkey/dmeta-embedding-zh:f16(4) 创建一个虚拟的开发环境并激活环境名称为

    1.4K10编辑于 2025-03-05
  • 来自专栏自然语言处理

    玩转RAG应用:如何选对Embedding模型?

    在打造检索增强生成(RAG应用时,选择合适的Embedding模型就像挑选合适的工具,直接影响到应用的表现和效果。​那么,面对众多的模型,我们该如何轻松找到最适合的那一款呢?​ 语言支持: 多语言模型如 multilingal-e5-large 适合跨语言应用,而单语言模型可能在特定语言上表现更好。 推理时间: 如果你的应用场景对响应时间有高要求,需要选择在推理时速度较快的模型。 模型的可扩展性与易用性 : 微调和更新的能力:对于一个不断迭代的RAG系统,选择一个能够轻松微调和持续更新的模型至关重要。 模型是否易于集成进现有的RAG架构?文档是否清晰?社区支持如何?

    4.5K10编辑于 2025-03-19
  • 来自专栏大数据杂货铺

    使用知识图谱实现 RAG 应用

    《福布斯》最近将 RAG 应用程序评为人工智能领域最热门的事物。这并不奇怪,因为检索增强生成需要最少的代码,并有助于建立用户对大语言模型的信任。 构建出色的 RAG 应用程序或聊天机器人时面临的挑战是处理结构化文本和非结构化文本。 接下来,我们将演练一个场景,展示如何使用 LangChain 实现基于知识图谱的 RAG 应用程序来支持您的 DevOps 团队。该代码可在 GitHub 上获取。 开发 DevOps RAG 应用程序时,您可以从云服务、任务管理工具等获取信息。 将多个数据源组合成知识图谱 由于此类微服务和任务信息不公开,因此我们创建了一个综合数据集。 RAG 应用程序中的矢量相似性搜索 从向量索引中检索到的信息可以用作大语言模型的上下文,以便它可以生成准确且最新的答案。 这些任务已经在我们的知识图谱中了。但是,我们必须计算嵌入值并创建向量索引。

    2.7K10编辑于 2024-04-03
  • 来自专栏JavaEdge

    抓住风口,快速上手RAG应用开发!

    2024年,大模型发展的脚步持续加快,你一定对 RAG(检索增强生成)有所耳闻,随大模型快速发展,RAG 作为一种新兴开发范式,能有效解决大模型的幻觉和知识停滞的问题,并已成为企业构建智能问答应用的最佳实践 3 RAG的好处 RAG 技术为组织的AIGC工作带来多项好处。 3.1 经济高效的实施 聊天机器人开发通常从[基础模型]开始。 组织可以更自信地为更广泛的应用程序实施生成式人工智能技术。 4 RAG的工作原理 如果没有 RAG,LLM 会接受用户输入,并根据它所接受训练的信息或它已经知道的信息创建响应。 腾讯云开发者社区携手腾讯云向量数据库团队与腾讯云安灯团队,联合推出**《RAG 七天入门训练营》,将从基础理论到实际应用**,由鹅厂大牛带你快速学习 RAG,助你轻松上手AI Plus,玩转高质量 RAG 应用

    1.3K00编辑于 2024-05-25
  • 来自专栏人工智能

    RAG 应用中的数据召回率及其应用的探讨

    深入理解 RAG 应用中的数据召回率及其应用数据召回率是 RAG(Retrieval-Augmented Generation)应用中一个至关重要的性能指标,它衡量模型在检索阶段中成功找到相关数据的能力 召回率在 RAG 应用中的意义在 RAG 应用中,召回率的重要性主要体现在以下几个方面:信息完整性:高召回率有助于确保检索模块不会遗漏与问题高度相关的信息,从而为生成模块提供充分的上下文。 和 doc5,而检索模块返回了 doc1、doc2 和 doc3。 提高召回率的策略在 RAG 应用中,提升召回率需要针对检索模块的架构和参数进行优化。 未来研究方向虽然提升召回率对 RAG 应用至关重要,但也需要在性能和成本之间寻找平衡点。一些未来研究方向包括:多模态检索:结合文本、图像和音频等多种数据类型,进一步提升召回率。

    2.3K10编辑于 2025-01-07
  • DLM 在RAG方面的应用研究

    RAG(检索增强生成)系统中,扩散语言模型(如ChatDLM)带来的并行迭代生成能力,能有效解决传统自回归模型的瓶颈,实现检索、整合、生成的深度协同。 其核心技术突破在于将原本应用于image generation领域的Diffusion Model(扩散模型) 范式成功迁移至text generation,并结合Mixture of Experts( 3. 在RAG系统中的Disruptive Application传统基于Autoregressive Models的RAG系统,其pipeline通常是Sequential(串行) 且Static(静态) ChatDLM的引入,为RAG带来了Dynamic(动态) 与Holistic(整体) 的范式转变,其核心作用体现在:Dynamic Retrieval-Generation Synergy(动态检索-

    14010编辑于 2026-01-29
  • 深入LLM与RAG 原理、实现与应用

    首先,LLM可以用于文本生成,可以生成连贯的段落、文章、对话等,可以应用于自动写作、机器翻译等任务中。其次,LLM可以用于问答系统,可以回答复杂的问题,甚至进行对话式问答。 基于人工反馈的强化学习(RLHF):(Reinforcement Learning from Human Feedback)构建人类反馈数据集,训练一个激励模型,模仿人类偏好对结果打分,这是GPT-3后时代大语言模型越来越像人类对话核心技术 泛化:(Generalization)模型泛化是指一些模型可以应用(泛化)到其他场景,通常为采用迁移学习、微调等手段实现泛化。 LLaMA 的开发者报告说,在大多数 NLP 基准测试中,130 亿个参数模型的性能超过了拥有 1750 亿个参数的更大得多的 GPT-3。 与 GPT-3 相比,LLaMA 具有以下主要区别:LLaMA 使用 SwiGLU 激活函数,而不是 ReLU。LLaMA 使用旋转位置嵌入,而不是绝对位置嵌入。

    51410编辑于 2024-09-20
  • 来自专栏Reinvent Data Science

    使用RAGAs评估基于Milvus的RAG应用

    现在,我们很容易构建一个基于检索增强生成(RAG)的应用,但将其投入生产却非常困难,因为RAG的性能很难达到令人满意的状态。 在评估RAG时,我们需要分别评估两个组件以及它们的整体性能,以了解RAG是否仍然需要改进,以及需要在哪里改进。此外,为了评估RAG应用程序的性能是否正在改善,我们需要进行定量评估。 RAGAs还提供了端到端评估RAG管道的指标,例如答案语义相似性和答案正确性。本文重点介绍了组件级别指标。 使用RAGAs评估RAG应用 前提条件 安装所需的Python 包 #! 总结 构建一个RAG应用程序很容易,但将其性能投入生产使用则很困难。像机器学习项目一样,我们需要使用验证数据集和评估指标评估RAG应用的性能。 但是,由于RAG应用由多个组件组成,这些组件必须分别和组合地进行评估,因此我们需要一组评估指标。本文介绍了RAGAs评估框架。

    1.5K20编辑于 2024-07-10
  • 来自专栏AIGC

    【AIGC】通过RAG架构LLM应用程序

    toc在之前的博客文章中,我们已经描述了嵌入是如何工作的,以及RAG技术是什么。本节我们我们将使用 LangChain 库以及 RAG 和嵌入技术在 Python 中构建一个简单的 LLM 应用程序。 我们将使用 LangChain 库在 Python 中构建一个简单的 LLM 应用程序。LangChain是一个流行的库,它使构建这样的应用程序变得非常容易。 我们的 RAG 应用程序将使用私有数据扩展 LLM 的知识。在这种情况下,它将是一个包含一些文本的 PDF 文件。 ]', metadata={'source': pdf_path, page: 2}), ...]3.切割文件我们不想将整个文档作为上下文发送到 LLM。为什么? 在关于RAG的文章中对此进行了更详细的描述。

    50410编辑于 2024-05-08
  • 来自专栏Reinvent Data Science

    Milvus × RAG助力快看漫画多业务应用

    03.快看RAG技术探索和应用 以ChatGPT为代表的大语言模型(LLM)在自然语言理解和生成任务上,展现了前所未有的能力,但是大语言模型(LLM)在特定领域任务中,会出现信息延迟和幻觉现象,检索增强生成 (RAG)通过引用外部知识可以有效缓解这些问题,是LLM在工业领域应用的关键技术。 快看在大语言模型及RAG出现之后,迅速切入到以大语言模型为代表的技术领域,开始探索快看内部的应用场景,并在快看AI智能问答、IP角色互动两个场景取得了实质性进展,接下来以这两个场景为例,详细介绍下我们的技术方案 6.高级RAG 上面所说的算是一个比较标准的RAG流程,但是企业应用中的数据和用户query都是多种多样的,为了解决更复杂的业务case,我们做了一些改造,包括query转换、检索时机意图识别、Text2SQL Q3:偷偷藏不住的作者还写过哪些作品? 其中Q1类型的问题,我们称之为简单的单点问题,目前在这类问题上,我们的RAG已经可以很好的回答了。

    81910编辑于 2024-07-31
  • 来自专栏DeepHub IMBA

    RAG中的3个高级检索技巧

    RAG系统检索的文档可能并不总是与用户的查询保持一致,这是一个常见的现象。 本文将探讨三种有效的技术来增强基于rag应用程序中的文档检索,通过结合这些技术,可以检索与用户查询密切匹配的更相关的文档,从而生成更好的答案。 查询扩展 查询扩展指的是一组重新表述原始查询的技术。 # 3. How much debt does the company have? Is it increasing or decreasing? # 4. query_embedding) return torch.cosine_similarity(updated_query_embedding, document_embedding, dim=0) 3、 adapter_matrix -= 0.01 * adapter_matrix.grad adapter_matrix.grad.zero_() 训练完成后,适配器可用于扩展原始嵌入并适应用户任务

    1.2K10编辑于 2024-01-23
  • 来自专栏云云众生s

    开发基于云的RAG应用,使用开源 LLM

    检索增强生成 (RAG) 通常用于开发定制的 AI 应用程序,包括 聊天机器人、推荐系统 和其他个性化工具。该系统利用向量数据库和 大型语言模型 (LLM) 的优势来提供高质量的结果。 让我们探索一种类似的方法来开发使用云托管开源 LLM 和可扩展向量数据库的应用程序。 工具和技术 开发此基于 RAG 的 AI 应用程序需要使用多种工具。 之后,您就可以编写代码并开发 RAG 应用程序了。 您的数据已准备就绪,下一步是在 BentoML 上部署模型并在您的 RAG 应用程序中使用它们。首先部署 LLM。 另一方面,MyScaleDB 是专门为 RAG 应用程序开发的,提供高性能 SQL 向量数据库。它熟悉的 SQL 语法使开发人员可以轻松地将其集成到他们的应用程序中并使用它,因为学习曲线很小。

    58010编辑于 2024-07-07
  • 来自专栏Reinvent Data Science

    用 LangChain 搭建基于 Notion 文档的 RAG 应用

    在整个过程中,我们会将 LangChain 作为框架,Milvus 作为相似性搜索引擎,用二者搭建一个基本的检索增强生成(RAG应用。 本文将带大家一一拆解这三个步骤,代码请参考 colab notebook(https://colab.research.google.com/drive/1hDwF9EkGd1SND3CUe15OmfvpOMd0lM-m SelfQueryRetriever:用于搭建基本的 RAG 应用。 Attribute info:用于传入元数据的。 首先,我们定义元数据。随后,需要给自查询检索器提供文档的描述。 本教程介绍了如何加载并解析 Notion 文档,并搭建一个基本的 RAG 应用查询 Notion 文档。我们使用到了 LangChain 作为框架,Milvus 作为向量数据库用于相似性搜索。 所谓分块(Chunking)是构建检索增强型生成(RAG)(https://zilliz.com.cn/use-cases/llm-retrieval-augmented-generation)应用程序中最具挑战性的问题

    1K20编辑于 2023-12-01
  • 牛B,登上GitHub Trending的国产神器:把RAG应用装进手机只要3行代码~~~

    ZVec是阿里巴巴开源的一款轻量级、闪电般快速的嵌入式向量数据库,它让RAG(检索增强生成)应用首次能够在边缘设备上实现高性能的本地向量检索。 3.原生RAG支持:为AI应用而生ZVec专为RAG应用设计,内置完整的检索增强生成流程:RAG向量检索工作流程自动嵌入文本向量化高效的近似最近邻(ANN)搜索与LangChain、LlamaIndex RAG应用,无需联网即可实现:本地文档智能问答笔记内容语义搜索离线状态下的AI辅助写作隐私绝对安全,数据永不离开设备。 ,metadata={"source":"官方文档"})第三步:语义搜索#自然语言查询,自动返回最相关的结果results=db.search(query="阿里开源的向量数据库是什么",top_k=3) 应用真正"飞入寻常百姓家"。

    20810编辑于 2026-02-23
  • 来自专栏自然语言处理

    RAG实战】Prompting vs. RAG vs. Finetuning: 如何选择LLM应用选择最佳方案

    在构建基于大型语言模型(LLM)的应用时,通常不可能立即使用模型而无需任何调整。 为了保持高实用性,我们可以选择以下几种方法之一: Prompt Engineering(提示工程) Fine-tuning(微调) RAG(Retrieval-Augmented Generation, 检索增强生成) 混合方法(RAG + 微调) 影响因素 以下两个重要因素会影响我们的决策: 外部知识需求:你的任务需要多少外部知识。 如何决定: 使用RAG:如果你需要基于自定义知识库生成输出,并且LLM的词汇和写作风格保持不变。 使用微调:如果你想要改变模型的结构(行为)而不是知识。 混合方法(RAG + 微调):如果你的应用需要自定义知识库和模型行为的改变。

    46810编辑于 2024-12-20
  • 来自专栏JadePeng的技术博客

    知识图谱在RAG中的应用探讨

    在这篇文章中,我们来详细探讨知识图谱(KG)在RAG流程中的具体应用场景。 stages,这篇文章较为详细的介绍了KG在RAG各个阶段的可能得应用方式,在这里分享给大家。 RAG 阶段 我们将RAG分为下面几个阶段: 阶段1:预处理 ,通常是提取chunk分块之前的预处理。 阶段2/D:chunk提取 阶段3-5:后处理,用检索到的信息生成答案 查询增强(Query Augmentation)** 预处理 阶段 ,这里主要 在执行检索之前,向查询添加上下文。 KG的一个常见应用场景,也是帮助企业构建缩略词词典,以便搜索引擎可以有效识别问题或文档中的缩略词。

    1.3K10编辑于 2024-04-11
  • 来自专栏Datawhale专栏

    RAG 作者:RAG 已死,RAG 万岁!

    的 Gemini 1.5,上下文窗口达 100 万 token 2025 年 3 月:模型上下文协议(Model Context Protocol)让你能直接与你的数据对话 (注:原文日期可能是笔误) 这对于演示来说很亮眼,但对于生产级别的应用而言是不足够的。 不过,让我们假设我们拥有一个无限 token 的上下文窗口: 可扩展性与成本:处理数百万 token 速度缓慢,且在计算和财务上都代价高昂。 即使计算成本在下降,延迟对于应用程序来说也可能是一个大问题。 性能下降:LLM 仍然受困于“中间丢失”(lost in the middle)的问题。这意味着它们无法有效利用长文本中间部分的信息。 对于面向用户的应用程序,这会造成糟糕的用户体验,人们会在得到答案前就放弃交互。基于检索的方法可以通过仅添加最相关的信息来提供更快的响应。 效率 – 你会在需要回答一个简单问题时去读完整本教科书吗? 实际上,这些概念没有一个是相互排斥的,甚至不是相互冲突的——它们都以互补的方式帮助解决前沿模型的局限性: RAG 提供了访问模型知识库之外信息的途径 微调 改善了信息处理和应用的方式 更长的上下文 允许检索更多信息供模型推理

    70710编辑于 2025-04-24
  • 来自专栏AI应用开发实践

    RAG应用如何进行有效的文本切分

    RAG(检索增强生成,Retrieval-Augmented Generation)应用中,文本分块(Text Chunking)是连接“知识存储”与“检索-生成”的核心预处理步骤,其重要性体现在对检索效率 以常见的 bge-m3 为例,我们可以在介绍文档中看到最大 token 数的限制。 它是实现文本分块(Text Chunking)的重要组件,通常在构建检索增强生成(RAG)等应用时使用。 documents = myTikaDocumentReader.loadText(); TokenTextSplitter splitter = new TokenTextSplitter(30,10,3,2000 默认值 功能描述 defaultChunkSize 30 目标块大小(令牌数) minChunkSizeChars 10 最小块字符数(低于此值不分割) minChunkLengthToEmbed 3

    18210编辑于 2026-03-26
领券