首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI智能体从入门到实践

    构建AI智能体:优化 RAG 检索精度:深入解析 RAG 中的五种高级切片策略

    前面几篇文章已经深入讨论过LangChain、RAG架构的细节,对RAG有了基础的了解,今天重点梳理一下RAG切片策略;一、什么是RAG切片 给定一个场景,我们有一本非常厚的百科全书 RAG切片策略,就是帮我们把这本厚厚的书,提前拆分成一页一页、或者一段一段的“小纸片”,并给这些小纸片做好详细的“目录”和“标签”,做成一个高效的“索引”或者“目录”,当AI助手需要回答问题时,它不需要去翻整本书 不同的切片策略,就是做“目录”的不同方法。 所以,到底什么是RAG切片RAG切片就是把一份长长的文档(如PDF、Word),合理地切割成一个个小块(Chunks)的过程。 团体票适用于10人以上团队,享受团体折 扣。 块 3 (214 字符): ## 二、购票渠道与流程### 1. 用不同的策略和参数(大小、重叠)处理你的文档。 运行你的RAG管道,评估答案的质量。评估答案是否准确?检索到的上下文是否真正相关? 迭代优化:选择效果最好的那种策略

    1.4K32编辑于 2025-11-11
  • 来自专栏#大模型热点基础知识

    什么是RAG文档切分策略

    二、什么是RAG文档切分策略RAG文档切分策略是将大型文档分割成适合检索和生成的小块(chunks)的方法论。 三、RAG文档切分策略如何工作文档切分策略主要包含三种核心方法,每种都有其独特的工作机制和适用场景。 Chunkoverlap(重叠)是混合策略中的重要设计。设置10-20%的重叠区域,让相邻chunk共享部分内容。 实践中10-20%是经验值,比如chunksize512时,overlap设置50-100。 六、总结与思考RAG文档切分策略的本质,是在检索效率与语义完整之间寻找动态平衡的艺术。

    27420编辑于 2026-04-02
  • 来自专栏无题~

    MapReduce之 FileInputFormat的切片策略(默认)

    ①获取当前输入目录中所有的文件 ②以文件为单位切片,如果文件为空文件,默认创建一个空的切片 ③如果文件不为空,尝试判断文件是否可切(不是压缩文件,都可切) ④如果文件不可切,整个文件作为1片 ⑤如果文件可切 ArrayList<InputSplit>(); // 获取当前Job输入目录中所有文件的状态(元数据) List<FileStatus> files = listStatus(job); // 以文件为单位进行切片 blkLocations = fs.getFileBlockLocations(file, 0, length); } // 判断当前文件是否可切,如果可切,切片 } } else { //Create empty hosts array for zero length files // 如果文件是个空文件,创建一个切片对象 ,这个切片从当前文件的0offset起,向后读取0个字节 splits.add(makeSplit(path, 0, length, new String[0])); }

    69140发布于 2020-07-21
  • 来自专栏python库介绍

    Python库介绍10 切片访问

    numpy的切片访问是一种选择数组元素子集的方法它允许通过指定起始索引、结束索引和步长来选择数组中的一部分数据【一维数组切片访问】numpy一维数组切片操作与python列表切片操作一样切片运算有两种形式 [start:end:step] start是开始索引,end是结束索引,step是步长,步长是在切片时获取元素的间隔import numpy as npa=np.arange(1,10)print( 提取了数组a的a[2]、a[3]、a[4]元素注意,start、end都可以留空,分别代表从第一个元素开始、直至最后一个元素结束,例如:[:5]在这个例子中表示[0:5][2:]在这个例子中表示[2:10 numpy as npa=np.arange(1,10)print(a)print(a[1:9:2])a[1:9:2]表示取出数组a的a[1]到a[8]的元素,每隔2个元素取一个值【多维数组切片访问】多维数组的切片访问可以结合多维数组的索引访问和一维数组的切片访问来理解即 ,对多维数组的若干个轴进行切片,它的语法跟一维数组的切片是一样的,例如:import numpy as npa=np.arange(1,13).reshape(3,4)print(a)print(a[1

    36910编辑于 2024-05-12
  • RAG—Chunking策略实战|得物技术

    一、背 景在 RAG 系统中,即便采用性能卓越的 LLM 并反复打磨 Prompt,问答仍可能出现上下文缺失、事实性错误或拼接不连贯等问题。 某种意义上,分块质量几乎决定了RAG的性能上限——它决定知识是以连贯的上下文呈现,还是退化为无法拼合的碎片。 chunk_overlap:10%–15%;若使用“父级标题路径 + 摘要”作为结构重叠,可降至 5%–10%。对话式分块分块策略以“轮次/说话人”为边界,优先按对话邻接对和小段话题窗口聚合。 :novelty > μ + 0.8σ 或相似度 < μ - 0.8σ(先粗调后微调)overlap:10% 左右或按“附加上一句”做轻量轮次重叠主题的分块分块策略利用主题模型或聚类算法在“宏观话题”发生切换时进行切分 目标:为RAG检索创建高内聚、可追溯的块。

    1.1K10编辑于 2025-10-30
  • 来自专栏老司机的技术博客

    golang学习笔记10:数组切片Slice

    Go 语言切片是对数组的抽象。 Go 数组的长度不可改变,在特定场景中这样的集合就不太适用,Go中提供了 一种灵活,功能强悍的内置类型切片("动态数组"),与数组相比切片的长度是 不固定的,可以追加元素,在追加时可能使切片的容量增大。 ---- 定义切片 你可以声明一个未指定大小的数组来定义切片: var identifier []type 切片不需要说明长度。 切片初始化 s :=[] int {1,2,3 } 直接初始化切片,[]表示是切片类型,{1,2,3}初始化值依次是1,2,3. 切片提供了计算容量的方法 cap() 可以测量切片最长可以达到多少。

    40620发布于 2018-11-08
  • 来自专栏kwai

    Go切片Silce底层实现和扩容策略(旧版)

    不管是使用 nil 切片还是空切片,对其调用内置函数 append,len 和 cap 的效果都是一样的。 三 切片扩容 当一个切片的容量满了,就需要扩容了。怎么扩,策略是什么? 主要需要关注的有两点,一个是扩容时候的策略,还有一个就是扩容是生成全新的内存地址还是在原来的地址后追加。 扩容策略 func main() { slice := []int{10, 20, 30, 40} newSlice := append(slice, 50) fmt.Printf = [10 30 30 40 50], Pointer = 0xc4200b0180, len = 5, cap = 8 ? Go 中切片扩容的策略是这样的: 如果切片的容量小于 1024 个元素,于是扩容的时候就翻倍增加容量。上面那个例子也验证了这一情况,总容量从原来的4个翻倍到现在的8个。

    1.2K30编辑于 2023-04-12
  • 来自专栏掘金安东尼

    再靠近亿点点,RAG 优化策略

    本篇来看下 RAG 的架构优化策略 利用知识图谱(KG)进行上下文增强 在现有的向量数据库中,典型的上下文增强可能面临挑战:难以捕捉长距离的关联知识,信息稀疏性高(尤其是当LLM上下文窗口有限时)。 Self-RAG 的重要创新 Self-RAG 的 Reflection tokens (反思字符) 通过生成反思字符这一特殊标记来检查输出。 Self-RAG 的推理过程 Self-RAG 通过运用反思性标记对自己的输出进行自评,这使得它在推理过程中展现出调整与适应能力。 它可以与多模态 LLM 结合,实现跨模态的 RAG。 小结 本篇文章介绍了 RAG 的架构优化策略,主要包括利用知识图谱进行上下文增强以及让大模型对召回结果进行筛选的方法。

    1K10编辑于 2024-04-13
  • 来自专栏DeepHub IMBA

    RAG流程优化(微调)的4个基本策略

    在本文中,我们将介绍使用私有数据优化检索增强生成(RAG)的四种策略,可以提升生成任务的质量和准确性。 通过使用一些优化策略,可以有效提升检索增强生成系统的性能和输出质量,使其在实际应用中能够更好地满足需求。 RAG简单回顾 RAG主要有两个过程。 为了评估这些策略的有效性,我根据ColdF的数据准备了一套10个带有实际答案的问题。 真实性和答案相关性是生成器度量标准,分别衡量幻觉和答案对问题的直接程度。 = [] for line in lines[1:10]: # Only 10 first questions if line.strip(): # Ensure the 还有最重要的一点成功的关键在于理解现有的数据,尝试不同的策略,并不断改进的流程。

    2.2K10编辑于 2024-07-01
  • 来自专栏AgenticAI

    OpenAI主管Lilian Weng分享RAG对抗LLM幻觉策略

    2024年7月7号,OpenAI安全团队负责人,Lilian Weng分享了一篇博客介绍了LLM中幻觉的由来、检测和对抗策略,分享给大家,以下为翻译全文。 注:本文共分为三节:LLM幻觉由来、检测和对抗,其中对抗方法包括RAG相关的策略,感兴趣的同学可以直达。 1. 什么导致幻觉? 3.1 RAG → 编辑和归属 RAG(检索增强生成)[20]是一种非常常见的提供基础信息的方法,即检索相关文档,然后使用相关文档作为额外上下文进行生成。 Self-RAG 每次生成一个片段。 (检索增强生成): https://lilianweng.github.io/posts/2020-10-29-odqa/#RAG [21] Gao 等人,2022 年)是一个框架,它通过: https

    70410编辑于 2025-03-18
  • 来自专栏程序员

    C++对象切片:机制、应用场景与规避策略

    对象切片的核心机制1.1 切片的发生条件对象切片(Object Slicing)发生在派生类对象向基类对象赋值或传值时,编译器仅复制基类子对象部分,派生类特有成员被丢弃。 对象切片的潜在风险3.1 多态性破坏std::vector<Base> objects;objects.push_back(Derived()); // 切片发生objects[0].func(); 专业规避策略4.1 基于智能指针的多态容器std::vector<std::unique_ptr<Base>> polymorphic_objects;polymorphic_objects.push_back 工程实践建议明确设计意图:如果确实需要切片,使用显式接口如getBaseCopy()代码审查重点:将对象切片作为代码审查的重点检查项静态分析配置:启用编译器警告(-Wslicing)和静态分析工具检测文档化约定 :在团队编码规范中明确切片的使用条件和限制6.

    34010编辑于 2025-09-09
  • 来自专栏学习笔记持续记录中...

    Dubbo属性覆盖策略10

    设置dubbo.protocol.port=20880,如果虚拟机参数传入优先级最高,如果虚拟机参数没有传入,XML和Spring boot的Application.properties优先,如果上面两个都没有传,dubbo.properties公共配置优先

    61910发布于 2020-03-17
  • 来自专栏用户7873631的专栏

    策略模式(javascript版)10

    //策略模式是把一个类分开成几个类,分别调用就行了,然后几个类调用一个方法就行了 /*class q { buy() { console.log("普通会员"); } } class w { 不同点: 关键在于:把 if…else 拆分开,分出不同的策略,每个策略单独处理,而不是混在一起, 状态模式是混在一起的. 优点:;简洁把

    29130发布于 2020-10-28
  • 来自专栏AI研思录

    RAT:融合RAG和CoT的高效多步推理任务策略

    因此这篇论文考虑在COT的基础上加上了RAG,即 RAT,通过利用检索到的外部信息为大模型提供推理依据。 论文核心 RAT 的核心是将 RAG 用于修正由 CoT 提示生成的每一个思维步骤中,通过查找不同参考文档来不断修正每一个思维步骤,确保推理的每一步都有准确且可靠的信息支持。 使用RAG来修复大模型生成思维步骤:假设已经修复了之前的思考步骤,现在要修复第 个思维步骤 ,将现在和过去的思维步骤 转化为将可以被LLM检索系统处理的查询,得到 检索文档:使用RAG检索 相关的文档 论文总结 这篇文章提出的RAT结合了RAG和CTO思想,使用RAG检索的文档动态优化COT中的每一个步骤,确保每一个推理步骤都是有依据的,避免大模型的幻觉。 实验结果表明,RAT在这些任务上相比传统的CoT提示和RAG方法都有显著的性能提升。

    71910编辑于 2025-02-20
  • 来自专栏喔家ArchiSelf

    RAG10篇论文-2024Q1

    RAG与微调:流水线、权衡和一个农业案例的研究 论文标题:RAG vs Fine-tuning: Pipelines, Tradeoffs, and a Case Study on Agriculture 针对非常见知识的微调与RAG对比 论文标题:Fine Tuning vs. 本研究引入了一项新颖策略,旨在显著提升大型语言模型的鲁棒性和精确度。 经验性分析证实,相较于现行的其他方法,此策略在侦测和消减LLM输出中的幻觉成分方面表现出显著的优势。 9. 10.

    2.7K10编辑于 2024-04-22
  • 来自专栏拾光学迹

    RAG 中数据处理的关键:数据切片的挑战与解决方案

    字数: 900+ | 阅读时间: 3-4分钟 热点解读:在AI快速发展的今天,RAG技术正成为各行各业的"必备神器"。但要真正驾驭这头"AI猛兽",你必须先搞定数据切片这个"拦路虎"! 一、数据切片RAG技术的"阿喀琉斯之踵" 朋友们,想象一下:你辛辛苦苦收集了海量数据,却因为切片不当,让你的AI变成了"结巴"或"健忘症患者"。 1. AI:基于长切片中的丰富信息,我可以从AI、量子计算、生物科技等多个角度为您分析... 四、解决方案三:先粗切片 + 再细切片 小贴士:这就像给AI装备了"望远镜+显微镜",既能看大局又能观细节! 优点: 效率和准确性的完美平衡 适应复杂文档的处理需求 示例: 粗切片:硬件部分、软件部分 细切片:处理器、内存、硬盘... 用户:处理器的性能如何? AI:通过粗切片定位到硬件部分,再通过细切片找到处理器相关信息,为您详细分析... 五、总结 朋友们,在这个AI浪潮中,掌握RAG技术就像学会了"驯服AI猛兽"的秘诀。

    45000编辑于 2025-02-26
  • 来自专栏DeepHub IMBA

    RAG系统嵌入模型怎么选?选型策略和踩坑指南

    检索增强生成(RAG)已成为构建生成式 AI 应用的主流架构,企业选择它主要原本是可以用自有数据约束模型输出,使答案更准确、可更新且更贴合业务场景。 RAG 的效果在很大程度上取决于检索到的上下文质量——提升效果的常用手段包括合理切分文本块(chunking)、选用合适的嵌入模型与采用稳健的检索策略。 嵌入在 RAG 中为何重要? 语义理解:嵌入将词、句子或文档转成向量(数字列表),让相近语义彼此靠近。这帮助系统理解语境与含义,而非仅做字面匹配。 高效检索:RAG 需要快速找到最相关的段落或文档。 选择嵌入时的关键考量 设计 RAG 时我首先会问:"系统要处理什么数据?" RAG 系统的优化是个迭代过程,嵌入模型只是其中一环。有了数据、有了用户反馈,你自然知道该朝哪个方向调整。

    46610编辑于 2025-11-15
  • 来自专栏DeepHub IMBA

    RAG 中分块重叠的 8 个隐性开销与权衡策略

    RAG 分块重叠提升了召回率但增加了隐藏成本,比如说索引膨胀、Embedding 开销、延迟、重排序负载和评估漂移。 本文将总结的八项 RAG 分块重叠隐藏的成本,以及如何判断什么时候重叠真正有用,什么时候只是花钱买心安。 正确做法是对所有环节做版本管理:语料库快照、分块参数(S,O)、Embedding 模型、索引构建配置、检索和重排序策略,一个都不能少。 如果你正在调优 RAG,建议做一个实验:在增大 overlap 的同时,强制启用去重和每文档上限。如果这套组合能以更少的冗余拿到大部分质量收益。 by Velorum

    12410编辑于 2026-02-27
  • 来自专栏蛋先生说识

    RAG 切片利器 LumberChunker 是如何智能地把文档切割成 LLM 爱吃的块

    RAG 里的文档应该怎么切割比较好呢?按固定的字符数或词数?按句?按段落?加个重叠窗口?感觉这些都太简单粗暴,容易把相关的内容给拆散了蛋先生:恩,你说得对。 我们在上面的流程处理后,拿到了新的起点段落,然后重复以上流程,直到所有段落都被处理完毕丹尼尔:哎呦不错哦,又简单又有效,这样看上去每个相关的块基本都可以在一起,不会被硬拆开蛋先生:没错,有了高质量的分块,RAG

    43810编辑于 2025-10-27
  • 来自专栏DeepHub IMBA

    深入RAG架构:分块策略、混合检索与重排序的工程实现

    从分块方式到搜索策略,从排序逻辑到异常兜底,每一层都藏着独立的故障模式。 Level 1:Naive RAG 文档做 embedding,存向量,按相似度取 top-k,丢给模型生成。 教程教的就是这套,大多数RAG系统也停在了这一步。 Level 5:生产级RAG 前面几个级别都在提升检索质量。生产级RAG要处理的是另一件事:检索已经尽力了,但还是失败了,怎么办? 因为它一定会失败,用户会问文档里根本没覆盖的问题。 分块策略会漏掉某个关键段落。或者问题本身就很模糊,召回的几个 chunk 互相矛盾。 真正该问的不是"怎么杜绝检索失败",而是"检索失败的时候,系统该怎么表现"。 判断该不该升级,看用户反馈就行: 用户在抱怨什么RAG就坏在哪里。 从 Level 1 开始。记录并监控系统在哪翻车,搞清楚原因之后再往上走。 这才是构建一个真正能用的RAG系统的路径。

    25010编辑于 2026-02-27
领券