首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏『学习与分享之旅』

    RAG落地实战

    LangChain4j 系列文章LangChain4j - LangChain4j快速入门实战LangChain4j - 多模态开发踩坑实录LangChain4j - 系统提示词稳住AILangChain4j - 注解式AI服务实战LangChain4j - 让AI不再失忆LangChain4j - LangChain4j 结构化输出实战RAG(Retrieval-Augmented Generation, 很多企业也基于 RAG 搭建了自己的智能客服,⁢可以用自己积累的领域知识回复用户。 LangChain 提供了 3 种 RAG 的实现方式,我把它称为:极简版、标准版⁢、进阶版。 好了,本篇文章就到这里,极简版 RAG 的使用非常简单,适合快速查看效果。

    25310编辑于 2025-11-21
  • 来自专栏周末程序猿

    RAG实战|8种RAG架构浅析

    Naive RAG 简介: Naive RAG 是最基础的检索增强生成架构,采用“索引-检索-生成”的经典流程。 Corrective RAG 简介: Corrective RAG 在传统 RAG 基础上引入了文档质量评估和自我修正机制。 Agentic RAG 简介: Agentic RAG(智能体RAG)将 AI Agent 的规划和推理能力与 RAG 相结合。 print(answer) 5. Graph RAG 简介: Graph RAG 将知识图谱技术与 RAG 相结合,通过从文档中抽取实体和关系构建知识图谱,并进行社区检测和摘要生成。 SFR RAG 简介: SFR RAG(Salesforce Research RAG)是工业级高质量 RAG 的最佳实践。

    1K10编辑于 2025-12-30
  • 来自专栏大模型成长之路

    【大模型学习 | RAG & DeepSeek 实战

    Deepseek & RAG 实战 编者常常有许多材料需要阅读查阅,但自己又比较懒,为此,想在大模型的学习过程中基于RAG技术将本地知识库与大模型结合起来,加快自身的效率。 5️⃣ 界面设计编者基于PYQT5模块设计了一个支持知识库搭建的大模型问答系统:搭建知识库后:模型输出写在最后:✅ 本项目搭建了一个简单的知识库问答系统,用户可以将自己的私人知识库进行搭建,基于RAG技术实现问答系统

    1K31编辑于 2025-07-19
  • 来自专栏自然语言处理

    RAG5个常见错误

    向量数据库并非硬性规定 几乎互联网上所有关于RAG的教程都使用向量存储。如果你一直在搜索RAG相关内容,你就会明白我们在说什么。 基于向量的检索无疑是RAG成功的重要因素。 RAG可以从互联网、关系型数据集、Neo4J中的知识图谱,或者这三者的组合中检索信息。 在许多情况下,我们注意到混合方法往往能带来更好的性能。 对于客户聊天机器人,你可能需要授予RAG访问部分客户数据库的权限,这可能是一个关系型数据库。 公司的知识管理系统可能会创建知识图谱并从中检索信息,而不是使用向量存储。 从定义上讲,所有这些都是RAG。 然而,确定使用哪些数据源的过程并不是很直接。你需要尝试各种选项,了解每种方法的优缺点。接受或拒绝某个想法的原因可能受到技术和业务考虑的双重影响。 分块是RAG中最具挑战性和最重要的部分 当上下文中包含不相关信息时,LLM往往会失控。 防止RAG中出现幻觉的最佳方法是分块。 现代LLM可能支持更长的上下文长度。

    27110编辑于 2025-04-26
  • 来自专栏自然语言处理

    5个开源RAG框架对比

    还在为RAG应用开发头疼吗?别急,今天给大家推荐五款完全开源免费的RAG框架,覆盖自动优化、多模态处理、本地部署、生产环境支持等多种场景,助你轻松搞定RAG开发! 1. AutoRAG:自动优化,省心省力 核心优势:自动寻找最优RAG流程,告别手动调参! ✨ 特色功能:支持用你的评估数据测试不同RAG模块,找到最适合的方案。 适用场景:适合需要优化RAG系统性能的开发者。 https://github.com/Marker-Inc-Korea/AutoRAG 2. 适用场景:适合企业级应用部署,需要稳定可靠的RAG框架。 https://github.com/truefoundry/cognita 5. ✨ 特色功能: 提供50+针对企业任务优化的小型模型 支持完整的RAG生命周期 适用场景:适合企业环境中需要专业化、轻量级解决方案的场景。

    3.7K11编辑于 2024-12-31
  • 大模型RAG进阶实战营教程

    文章首先介绍了RAG技术的基本概念和发展历程,随后详细分析了其核心架构和工作原理。通过多个行业应用案例,展示了RAG技术在实际场景中的强大表现。 一、RAG技术概述RAG技术的基本原理是通过结合信息检索和文本生成两大模块,实现知识增强的智能问答和内容创作。 三、RAG技术的行业应用案例在金融领域,RAG技术正在革新传统的投资研究和客户服务模式。 四、RAG技术的进阶优化策略提升RAG系统性能的关键在于优化检索和生成两个核心环节。 这些综合措施使得RAG系统在实际应用中表现出越来越高的可靠性和实用性。五、挑战与未来发展趋势尽管RAG技术取得了显著进展,但仍面临多项挑战。

    83210编辑于 2025-06-11
  • 来自专栏啄木鸟软件测试

    RAG系统测试实战:未来已来

    我们采用三层评估策略:① 基于嵌入相似度的语义一致性打分(Sentence-BERT + 自定义阈值);② 关键实体/步骤/时限的F1精确召回(如‘5个工作日’‘电子税务局’‘科技局初审’);③ 使用小型裁判模型 二、实战四步法:构建RAG可落地的测试体系 Step 1:构建「黄金测试集」而非「测试用例」 摒弃手工编写question-answer对。 Step 2:自动化「双轨验证流水线」 开发Pytest插件rag-testkit,支持并行执行: - 检索轨:调用向量库API获取top-5 chunk,验证其与query的余弦相似度>0.65、覆盖全部标注关键词 、时间戳在有效期内; - 生成轨:将检索结果+原始query送入LLM,使用LLM-as-a-Judge框架(经领域微调的Qwen2-1.5B)自动评分:事实性(0–5)、完整性(0–5)、可读性(0– 5),任一维度<3即告警。

    15710编辑于 2026-03-31
  • RAG—Chunking策略实战|得物技术

    一、背 景在 RAG 系统中,即便采用性能卓越的 LLM 并反复打磨 Prompt,问答仍可能出现上下文缺失、事实性错误或拼接不连贯等问题。 某种意义上,分块质量几乎决定了RAG的性能上限——它决定知识是以连贯的上下文呈现,还是退化为无法拼合的碎片。 PS:本文主要是针对中文文档类型的嵌入进行实战。二、什么是分块(Chunking)分块是将大块文本分解成较小段落的过程,这使得文本数据更易于管理和处理。 目标:为RAG检索创建高内聚、可追溯的块。 从 JSON 字符串到 Java 对象:Fastjson 1.2.83 全程解析|得物技术5.

    1.1K10编辑于 2025-10-30
  • 来自专栏大模型成长之路

    【大模型学习 | RAG & DeepSeek 实战(二)】

    Deepseek & RAG 实战(二)在【大模型学习 | RAG & DeepSeek 实战】-腾讯云开发者社区-腾讯云文章中,已经实现了基于RAG建立了本地知识库,通过检索相似度最高的知识来辅助大模型的问答系统 代码def retrieve(self, query, k=5, bm25_k=10): bm25_scores = self.bm25.get_scores(query.split()) (query, paragraph) 成对送入 BERT/Transformer 分类器2️⃣ 得到语义相关性分数3️⃣ 排序并只保留前几条代码def retrieve(self, query, k=5,

    89621编辑于 2025-07-20
  • SpringAI 全栈开发 + RAG 检索增强实战

    >SpringAI RAG企业级实战项目</description> <properties> <java.version>17</java.version> < 实战项目接口文档") .description("企业级AI应用开发与RAG检索增强系统接口文档") .version 三、SpringAI对接大模型API全实战 3.1 SpringAI大模型核心抽象 SpringAI对所有大模型的对话能力做了统一的抽象,核心接口与类如下: ChatModel:大模型对话能力的顶层接口 四、RAG技术栈全链路落地实战 RAG的核心是让大模型基于私有知识库生成精准回答,全链路分为文档处理、文本向量化、向量存储、智能检索、Prompt拼接、大模型生成六大环节,本节将完整实现每个环节的生产级代码 new TokenTextSplitter( DEFAULT_CHUNK_SIZE, DEFAULT_CHUNK_OVERLAP, 5,

    12010编辑于 2026-04-14
  • 来自专栏菩提树下的杨过

    langchain4j 学习系列(5)-RAG

    继续我们的langchain4j之旅,今天来看看RAG如何实现,“RAG萌宠新手盆友们”建议先看看B站大佬的视频RAG 工作机制详解—哔哩哔哩_bilibili,核心步骤就是下面这3张图: 最简单的RAG prompt_eval_count":11} 3、重排/生成 private interface Assistant { String chat(String userMessage); } /** * 基于RAG "done_reason":"stop","total_duration":1059949995,"prompt_eval_count":21,"eval_count":22} 从日志上看,先做了1次RAG

    27610编辑于 2025-12-24
  • 极客-RAG快速开发实战|果fx

    RAG 技术概述RAG(Retrieve, Answer, Generate)是一种融合检索和生成的模型架构,常用于问答系统、对话生成等任务。 场景应用RAG可以广泛应用于以下场景:智能问答系统客户支持聊天机器人文档理解与信息提取教育辅导助手原理解析RAG结合了信息检索和生成模型的优点。 实战教学环境配置在开始之前,请确保您的环境中安装了必要的库。 ")retriever = RagRetriever.from_pretrained("facebook/rag-sequence", use_dummy_dataset=True)# 创建RAG模型model 检索过程: 利用RAG的检索机制找到相关文档。生成答案: 基于检索到的文档生成最终的自然语言回答。扩展思路可以通过替换不同的数据集来训练自己的检索器。

    44910编辑于 2024-11-18
  • 来自专栏周末程序猿

    RAG实战|向量数据库LanceDB指南

    float32')) ] tbl = db.create_table("my_vectors", data=data) tbl.create_index(index_type=IVF_HNSW_SQ) 5. ") data = [ {"x": 1, "vector": [1, 2]}, {"x": 2, "vector": [3, 4]}, {"x": 3, "vector": [5, ") data = [ {"x": 1, "vector": [1, 2]}, {"x": 2, "vector": [3, 4]}, {"x": 3, "vector": [5, 自定义间隔时间,数据库以自定义间隔(例如每 5 秒)检查更新。 data/sample-lancedb" # 保障数据最终一致性 db = lancedb.connect(uri, read_consistency_interval=timedelta(seconds=5)

    2.2K10编辑于 2025-03-31
  • 西瓜老师AI大模型RAG项目实战

    RAG(检索增强生成)技术应运而生,正逐渐成为构建可信AI系统的核心架构。未来十年,RAG将如何演进?其突破方向又将如何重塑AI与人类的协作模式? 一、RAG的当下定位:可信AI的“基石”而非“补丁”当前RAG系统已从初期的简单文档检索,发展为包含复杂工作流的多层架构:核心价值维度:事实准确性:通过对接权威知识源,有效遏制模型幻觉知识实时性:绕过模型参数冻结限制 系统具备对自身知识状态的元认知,主动发现并填补认知漏洞假设驱动探索:基于现有知识主动提出假设,并通过检索验证完成“思想实验”分布式知识联邦:在保护隐私前提下,实现跨机构、跨领域的知识安全协作与共创三、核心突破方向:构建下一代可信RAG 真正的突破将发生在技术与人文的交叉点:当RAG系统不仅能准确回答问题,更能理解问题的深层含义;不仅能提供事实,更能呈现思考的脉络;不仅能服务个体,更能促进集体智慧的涌现。 在这个未来中,RAG架构将成为我们扩展认知边界、应对复杂挑战的关键基础设施,推动人类文明向更高层次的智慧形态演进。现在播下的种子,将在未来十年结出改变世界的果实。

    32110编辑于 2025-11-26
  • 来自专栏自然语言处理

    RAG实战-Markdown文件解析思路分析与实现

    5G。 \n## 5G与4G的对比\n5G 网络像一个魔方,它可以根据需求不停变形,从而满足个人或者企业不同的个性化需求。\n4G 网络千人一面,5G 网络千人千面。 \n5G 则秉承着更有保障的 QoS 承诺,紧急业务时延一定可控,非紧急业务尽力而为。不同WiFi 需要手动连接,5G 无缝切换。\n## 5G与有线的对比\n剪掉辫子,随时随地不受限。 5G 无线让最后一公里的接入更灵活。'} , {'title': '# 5G 双域专网', 'content': '## 基本概念\n以 5G 专网为基础提供服务于 5G 用户的 2B2C 双域网络模式,可满足企业用户“不换卡

    94300编辑于 2025-01-09
  • 来自专栏山行AI

    GenAI——LLM结合图谱RAG和LangChain实战指南

    应用程序 5 静态前端 UI: http://localhost:8505 这个应用程序具有与应用程序 1 相同的功能,但是使用现代最佳实践(Vite, Svelte, Tailwind)单独从后端代码构建 实战 对于持续对GenAI的高度兴趣,新的创新每天都在涌现。 有一个叫做RAG模式的开关,用户可以完全依赖LLM的训练知识(RAG:禁用),或者更有能力的(RAG:启用)模式,其中应用程序使用文本嵌入的相似性搜索和图查询找到数据库中最相关的问题和答案。 可用模型的完整列表可以在这里[5]找到。 第2步:环境变量 复制example.env文件为一个名为.env的新文件。编辑新文件来决定你想使用哪种LLM。 你可以在本周开始并持续5周的Docker AI/ML Hackathon[15]中使用GenAI堆栈。 在这里发现更多关于Neo4j的GenAI能力[16]。

    5.6K31编辑于 2023-12-29
  • 来自专栏自然语言处理

    RAG实战】Prompting vs. RAG vs. Finetuning: 如何选择LLM应用选择最佳方案

    为了保持高实用性,我们可以选择以下几种方法之一: Prompt Engineering(提示工程) Fine-tuning(微调) RAG(Retrieval-Augmented Generation, 检索增强生成) 混合方法(RAG + 微调) 影响因素 以下两个重要因素会影响我们的决策: 外部知识需求:你的任务需要多少外部知识。 如何决定: 使用RAG:如果你需要基于自定义知识库生成输出,并且LLM的词汇和写作风格保持不变。 使用微调:如果你想要改变模型的结构(行为)而不是知识。 混合方法(RAG + 微调):如果你的应用需要自定义知识库和模型行为的改变。

    46810编辑于 2024-12-20
  • 来自专栏AgenticAI

    实战微软新一代RAG:GraphRAG强大的全局理解能力,碾压朴素RAG

    微软近日开源了新一代RAG框架GraphRAG[1],以解决当前RAG在大型语料库上全局理解问题。 RAG概述 大语言模型(LLM)是在大量数据上训练,但他们并不是在我们私有数据上训练,因此要想让LLM能够回答我们私有数据集上的问题,我们就得使用一种叫做检索增强生成(RAG)的技术。 **这类问题需要查询聚焦摘要(Query focused summary)而不是像我们上述RAG系统那样显式检索,现有的QFS方法无法扩展到RAG系统索引的文本量。 而GraphRAG结合知识图谱,RAG和QFS这些方法的优势,它可以根据用户问题的普遍性和要索引的源文本量进行扩展。 5. 总结 本文通过介绍微软新一代GraphRAG,从概念到安装、索引和查询,并以热门网络小说《仙逆》为例,说明GraphRAG在全局理解,和实体关系提取等强大之处。

    1.1K10编辑于 2025-03-18
  • 来自专栏Datawhale专栏

    RAG 作者:RAG 已死,RAG 万岁!

    一个具有更大上下文窗口的新模型问世,社交媒体上便会充斥着“RAG 已死”的宣言。 该 LinkedIn 帖子: 一些值得注意的 RAG“死亡宣告”包括: 2023 年 5 月:Anthropic 的 Claude,上下文窗口达 10 万 token 2024 年 2 月:Google 底线是:您同时需要长上下文 LLM 和 RAG。 但既然“RAG”这个术语似乎如此具有争议性,那我们不妨这样说: 我们不必非得称之为 RAG。 我们可以就叫它 检索 (retrieval)。 RAG 提供了相当于直接翻到相关页面的能力。处理更多 token 不仅更慢,而且极其低效,并且比使用 RAG 精准定位所需信息要昂贵得多。 RAG、微调和大型上下文窗口在 AI 中也是如此。 结论 我们不需要在 RAG 与长上下文窗口、微调或 MCP 之间做出选择。

    70710编辑于 2025-04-24
  • 来自专栏云云众生s

    影响生产RAG流水线5大瓶颈

    这些是可能阻碍RAG流水线在生产LLM环境中性能的主要潜在瓶颈。 译自 5 Bottlenecks Impacting RAG Pipeline Efficiency in Production,作者 Janakiram MSV。 检索增强生成(Retrieval Augmented Generation,RAG)已成为基于大型语言模型的生成式人工智能应用的关键组成部分。 通过这样做,RAG显著提高了生成响应的事实准确性和可靠性,尤其是在需要精确或最新信息的情况下。 RAG以其增强语言模型知识的能力脱颖而出,使其能够产生更准确、上下文感知和可靠的输出。 即使一些 LLMs 具有较大的上下文窗口,这并不意味着我们可以跳过 RAG 流水线的某些阶段,一次性传递整个上下文。

    56410编辑于 2024-03-28
领券