首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏『学习与分享之旅』

    RAG落地实战

    LangChain4j 系列文章LangChain4j - LangChain4j快速入门实战LangChain4j - 多模态开发踩坑实录LangChain4j - 系统提示词稳住AILangChain4j - 注解式AI服务实战LangChain4j - 让AI不再失忆LangChain4j - LangChain4j 结构化输出实战RAG(Retrieval-Augmented Generation, 很多企业也基于 RAG 搭建了自己的智能客服,⁢可以用自己积累的领域知识回复用户。 LangChain 提供了 3 种 RAG 的实现方式,我把它称为:极简版、标准版⁢、进阶版。 好了,本篇文章就到这里,极简版 RAG 的使用非常简单,适合快速查看效果。

    25310编辑于 2025-11-21
  • 来自专栏周末程序猿

    RAG实战|8种RAG架构浅析

    Naive RAG 简介: Naive RAG 是最基础的检索增强生成架构,采用“索引-检索-生成”的经典流程。 Corrective RAG 简介: Corrective RAG 在传统 RAG 基础上引入了文档质量评估和自我修正机制。 Agentic RAG 简介: Agentic RAG(智能体RAG)将 AI Agent 的规划和推理能力与 RAG 相结合。 Graph RAG 简介: Graph RAG 将知识图谱技术与 RAG 相结合,通过从文档中抽取实体和关系构建知识图谱,并进行社区检测和摘要生成。 SFR RAG 简介: SFR RAG(Salesforce Research RAG)是工业级高质量 RAG 的最佳实践。

    1K10编辑于 2025-12-30
  • 来自专栏大模型成长之路

    【大模型学习 | RAG & DeepSeek 实战

    Deepseek & RAG 实战 编者常常有许多材料需要阅读查阅,但自己又比较懒,为此,想在大模型的学习过程中基于RAG技术将本地知识库与大模型结合起来,加快自身的效率。 5️⃣ 界面设计编者基于PYQT5模块设计了一个支持知识库搭建的大模型问答系统:搭建知识库后:模型输出写在最后:✅ 本项目搭建了一个简单的知识库问答系统,用户可以将自己的私人知识库进行搭建,基于RAG技术实现问答系统

    1K31编辑于 2025-07-19
  • 大模型RAG进阶实战营教程

    文章首先介绍了RAG技术的基本概念和发展历程,随后详细分析了其核心架构和工作原理。通过多个行业应用案例,展示了RAG技术在实际场景中的强大表现。 一、RAG技术概述RAG技术的基本原理是通过结合信息检索和文本生成两大模块,实现知识增强的智能问答和内容创作。 三、RAG技术的行业应用案例在金融领域,RAG技术正在革新传统的投资研究和客户服务模式。 四、RAG技术的进阶优化策略提升RAG系统性能的关键在于优化检索和生成两个核心环节。 这些综合措施使得RAG系统在实际应用中表现出越来越高的可靠性和实用性。五、挑战与未来发展趋势尽管RAG技术取得了显著进展,但仍面临多项挑战。

    83210编辑于 2025-06-11
  • 来自专栏啄木鸟软件测试

    RAG系统测试实战:未来已来

    一、RAG系统测试的三大认知跃迁 1. 从「功能正确」到「事实可信」 RAG的本质是“检索+生成”双阶段协同,测试必须解耦验证:检索模块是否召回了最相关文档片段?生成模块是否忠于检索证据、未引入虚构? 二、实战四步法:构建RAG可落地的测试体系 Step 1:构建「黄金测试集」而非「测试用例」 摒弃手工编写question-answer对。 该数据集已沉淀为行业基准《金融RAG FactCheck-2024》。 某智慧城市项目借此提前11天预警出政策库同步延迟故障。 结语:测试者,是RAG时代的「真相校准师」 RAG不是终点,而是人机协同新范式的起点。 (本文实践方法论已开源,详见github.com/zhuomu-qa/rag-testkit)

    15710编辑于 2026-03-31
  • 来自专栏大模型成长之路

    【大模型学习 | RAG & DeepSeek 实战(二)】

    Deepseek & RAG 实战(二)在【大模型学习 | RAG & DeepSeek 实战】-腾讯云开发者社区-腾讯云文章中,已经实现了基于RAG建立了本地知识库,通过检索相似度最高的知识来辅助大模型的问答系统

    89621编辑于 2025-07-20
  • RAG—Chunking策略实战|得物技术

    一、背 景在 RAG 系统中,即便采用性能卓越的 LLM 并反复打磨 Prompt,问答仍可能出现上下文缺失、事实性错误或拼接不连贯等问题。 某种意义上,分块质量几乎决定了RAG的性能上限——它决定知识是以连贯的上下文呈现,还是退化为无法拼合的碎片。 当分块尊重文档的叙事与结构时,检索的相关性与答案的事实一致性往往显著提升,远胜于一味更换向量模型或调参;换言之,想要真正改善 RAG 的稳健性与上限,首先要把“知识如何被切开并呈现给模型”这件事做好。 PS:本文主要是针对中文文档类型的嵌入进行实战。二、什么是分块(Chunking)分块是将大块文本分解成较小段落的过程,这使得文本数据更易于管理和处理。 目标:为RAG检索创建高内聚、可追溯的块。

    1.1K10编辑于 2025-10-30
  • SpringAI 全栈开发 + RAG 检索增强实战

    开发成本 极低,小时级可落地 极高,需要大量标注数据与算力资源 适用场景 企业知识库、智能客服、文档问答、私有数据查询 特定领域的生成风格优化、垂类任务能力增强 1.3 技术栈选型与版本规范 本文所有实战内容均采用当前最新的稳定 >SpringAI RAG企业级实战项目</description> <properties> <java.version>17</java.version> < 实战项目接口文档") .description("企业级AI应用开发与RAG检索增强系统接口文档") .version 三、SpringAI对接大模型API全实战 3.1 SpringAI大模型核心抽象 SpringAI对所有大模型的对话能力做了统一的抽象,核心接口与类如下: ChatModel:大模型对话能力的顶层接口 四、RAG技术栈全链路落地实战 RAG的核心是让大模型基于私有知识库生成精准回答,全链路分为文档处理、文本向量化、向量存储、智能检索、Prompt拼接、大模型生成六大环节,本节将完整实现每个环节的生产级代码

    12610编辑于 2026-04-14
  • 极客-RAG快速开发实战|果fx

    RAG 技术概述RAG(Retrieve, Answer, Generate)是一种融合检索和生成的模型架构,常用于问答系统、对话生成等任务。 场景应用RAG可以广泛应用于以下场景:智能问答系统客户支持聊天机器人文档理解与信息提取教育辅导助手原理解析RAG结合了信息检索和生成模型的优点。 实战教学环境配置在开始之前,请确保您的环境中安装了必要的库。 ")retriever = RagRetriever.from_pretrained("facebook/rag-sequence", use_dummy_dataset=True)# 创建RAG模型model 检索过程: 利用RAG的检索机制找到相关文档。生成答案: 基于检索到的文档生成最终的自然语言回答。扩展思路可以通过替换不同的数据集来训练自己的检索器。

    44910编辑于 2024-11-18
  • 来自专栏周末程序猿

    RAG实战|向量数据库LanceDB指南

    LanceDB是一个开源的用 Rust 实现的向量数据库(https://github.com/lancedb/lancedb),它的主要特点是:

    2.2K10编辑于 2025-03-31
  • 来自专栏怀英的自我修炼

    《Spring实战》摘录 - 11

    问题: #5.2.3-1 | 测试SpittleController处理针对“/spittles”的GET请求 回答:

    89720发布于 2019-05-08
  • 西瓜老师AI大模型RAG项目实战

    RAG(检索增强生成)技术应运而生,正逐渐成为构建可信AI系统的核心架构。未来十年,RAG将如何演进?其突破方向又将如何重塑AI与人类的协作模式? 一、RAG的当下定位:可信AI的“基石”而非“补丁”当前RAG系统已从初期的简单文档检索,发展为包含复杂工作流的多层架构:核心价值维度:事实准确性:通过对接权威知识源,有效遏制模型幻觉知识实时性:绕过模型参数冻结限制 系统具备对自身知识状态的元认知,主动发现并填补认知漏洞假设驱动探索:基于现有知识主动提出假设,并通过检索验证完成“思想实验”分布式知识联邦:在保护隐私前提下,实现跨机构、跨领域的知识安全协作与共创三、核心突破方向:构建下一代可信RAG 真正的突破将发生在技术与人文的交叉点:当RAG系统不仅能准确回答问题,更能理解问题的深层含义;不仅能提供事实,更能呈现思考的脉络;不仅能服务个体,更能促进集体智慧的涌现。 在这个未来中,RAG架构将成为我们扩展认知边界、应对复杂挑战的关键基础设施,推动人类文明向更高层次的智慧形态演进。现在播下的种子,将在未来十年结出改变世界的果实。

    32110编辑于 2025-11-26
  • 来自专栏自然语言处理

    RAG实战-Markdown文件解析思路分析与实现

    最近遇到几个伙伴关于markdown解析的问题,都是比较偏向于实际使用场景的,这里我们一开始我们去做markdown文件解析会自觉的会困在一个陷阱,就是:

    94300编辑于 2025-01-09
  • 来自专栏山行AI

    GenAI——LLM结合图谱RAG和LangChain实战指南

    text=hello&rag=false (非流式)•http://localhost:8504/query-stream? 实战 对于持续对GenAI的高度兴趣,新的创新每天都在涌现。 有一个叫做RAG模式的开关,用户可以完全依赖LLM的训练知识(RAG:禁用),或者更有能力的(RAG:启用)模式,其中应用程序使用文本嵌入的相似性搜索和图查询找到数据库中最相关的问题和答案。 安装FastAPI[11]或Flask,公开聊天端点,并使用任何前端技术构建你的UI。 LangChain: https://docs.smith.langchain.com/ [10] Streamlit: https://docs.streamlit.io/library/get-started [11

    5.6K31编辑于 2023-12-29
  • 来自专栏自然语言处理

    RAG实战】Prompting vs. RAG vs. Finetuning: 如何选择LLM应用选择最佳方案

    为了保持高实用性,我们可以选择以下几种方法之一: Prompt Engineering(提示工程) Fine-tuning(微调) RAG(Retrieval-Augmented Generation, 检索增强生成) 混合方法(RAG + 微调) 影响因素 以下两个重要因素会影响我们的决策: 外部知识需求:你的任务需要多少外部知识。 如何决定: 使用RAG:如果你需要基于自定义知识库生成输出,并且LLM的词汇和写作风格保持不变。 使用微调:如果你想要改变模型的结构(行为)而不是知识。 混合方法(RAG + 微调):如果你的应用需要自定义知识库和模型行为的改变。

    46910编辑于 2024-12-20
  • 来自专栏EdisonTalk

    MongoDB入门实战教程(11

    参考资料 唐建法,《MongoDB高手课》(极客时间) 郭远威,《MongoDB实战指南》(图书) 作者:周旭龙 出处:https://edisonchou.cnblogs.com 本文版权归作者和博客园共有

    86630发布于 2021-07-13
  • 来自专栏自然语言处理

    检索增强生成(RAG)的最新发展:一文汇总11种新型RAG算法!

    如今,RAG正向更具智能性和自主性的方向发展,能够处理像超图这样的复杂结构,并适应各种专业领域的需求。 本文将介绍11种最新的RAG类型,展示这一技术领域的创新前沿。 HM-RAG:层次化多代理多模态RAG 论文:HM-RAG: Hierarchical Multi-Agent Multimodal Retrieval Augmented Generation HM-RAG 11. Hyper-RAG:基于超图的检索增强生成 论文:Hyper-RAG Hyper-RAG是一种基于超图的RAG方法,通过捕捉领域特定知识中的配对和复杂关系,实现了: 提高事实准确性 减少幻觉生成 特别适用于医疗等高风险领域 这11种新型RAG技术代表了当前研究的前沿,它们不仅提高了AI系统的事实准确性,还扩展了这些系统处理复杂任务的能力范围。

    2.5K40编辑于 2025-04-22
  • VFP AI 插件开发花絮11RAG.dll 帮助文档

    RAG.dll 帮助文档 概述 RAG.MTServer 是一个基于 VFP 的 COM 可调用类(OlePublic),用于管理和调用本地或远程的 AI 服务(如 AnythingLLM)。 导航到 DLL 所在目录,执行: regsvr32 RAG.dll 属性 属性名 类型 说明 ‎oManager Object 受保护的内部对象,根据设置的提供商动态创建(如 AnythingLLM) 示例 loServer = CreateObject("RAG.MTServer") llSuccess = loServer.Set("AnythingLLM", "your-api-key", "C 以下是一个完整的调用流程: LOCAL loServer, llSet, llRunning, llStarted, loResult * 创建对象 loServer = CREATEOBJECT("RAG.MTServer

    12110编辑于 2026-04-02
  • 来自专栏AgenticAI

    实战微软新一代RAG:GraphRAG强大的全局理解能力,碾压朴素RAG

    微软近日开源了新一代RAG框架GraphRAG[1],以解决当前RAG在大型语料库上全局理解问题。 当前RAG主要聚焦于局部检索能力,即根据查询语句在向量库中匹配部分知识,然后通过大型语言模型合成这些检索到的信息,生成一个自然流畅的回答。 RAG概述 大语言模型(LLM)是在大量数据上训练,但他们并不是在我们私有数据上训练,因此要想让LLM能够回答我们私有数据集上的问题,我们就得使用一种叫做检索增强生成(RAG)的技术。 **这类问题需要查询聚焦摘要(Query focused summary)而不是像我们上述RAG系统那样显式检索,现有的QFS方法无法扩展到RAG系统索引的文本量。 而GraphRAG结合知识图谱,RAG和QFS这些方法的优势,它可以根据用户问题的普遍性和要索引的源文本量进行扩展。

    1.1K10编辑于 2025-03-18
  • 来自专栏Datawhale专栏

    RAG 作者:RAG 已死,RAG 万岁!

    一个具有更大上下文窗口的新模型问世,社交媒体上便会充斥着“RAG 已死”的宣言。 RAG 的初衷 五年前,我在 Meta 基础人工智能研究中心(FAIR,前身为 Facebook 人工智能研究中心)的团队提出了 RAG(Retrieval-Augmented Generation,检索增强生成 底线是:您同时需要长上下文 LLM 和 RAG。 但既然“RAG”这个术语似乎如此具有争议性,那我们不妨这样说: 我们不必非得称之为 RAG。 我们可以就叫它 检索 (retrieval)。 RAG 提供了相当于直接翻到相关页面的能力。处理更多 token 不仅更慢,而且极其低效,并且比使用 RAG 精准定位所需信息要昂贵得多。 RAG、微调和大型上下文窗口在 AI 中也是如此。 结论 我们不需要在 RAG 与长上下文窗口、微调或 MCP 之间做出选择。

    70710编辑于 2025-04-24
领券