首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏自然语言处理

    5个开源RAG框架对比

    还在为RAG应用开发头疼吗?别急,今天给大家推荐五款完全开源免费的RAG框架,覆盖自动优化、多模态处理、本地部署、生产环境支持等多种场景,助你轻松搞定RAG开发! 1. AutoRAG:自动优化,省心省力 核心优势:自动寻找最优RAG流程,告别手动调参! ✨ 特色功能:支持用你的评估数据测试不同RAG模块,找到最适合的方案。 适用场景:适合需要优化RAG系统性能的开发者。 https://github.com/Marker-Inc-Korea/AutoRAG 2. 适用场景:适合企业级应用部署,需要稳定可靠的RAG框架。 https://github.com/truefoundry/cognita 5. ✨ 特色功能: 提供50+针对企业任务优化的小型模型 支持完整的RAG生命周期 适用场景:适合企业环境中需要专业化、轻量级解决方案的场景。

    3.9K11编辑于 2024-12-31
  • 来自专栏AgenticAI

    RAG新SOTA!港中深发布Graph-based RAG统一框架,深度评估现有Graph-based RAG框架

    然而,目前各种基于图的 RAG 方法缺乏统一框架,难以在相同实验环境下系统比较和深入分析。 研究贡献 1、创新统一框架:首次提出涵盖所有现有 Graph-based RAG 方法的统一框架,从高层次明确定义图构建、索引构建、操作符配置及检索生成四个关键步骤。 2、深入方法比较:在统一框架下,系统地评估和对比 12 种主流 Graph-based RAG 算法,详细分析每种方法的优势与局限性。 5、新算法与新见解:结合现有技术提出两种全新的 Graph-based RAG 变体算法(VGraphRAG 与 CheapRAG),在特定问题和抽象问题任务上均超越当前最佳表现(SOTA)。 研究与实验方法 本文提出一个全新的统一框架,将基于图的 RAG 方法划分为图构建、索引构建、操作符配置及检索与生成四个核心阶段,以实现对现有方法的系统比较与深入分析。

    42400编辑于 2025-03-18
  • 来自专栏自然语言处理

    RAG5个常见错误

    向量数据库并非硬性规定 几乎互联网上所有关于RAG的教程都使用向量存储。如果你一直在搜索RAG相关内容,你就会明白我们在说什么。 基于向量的检索无疑是RAG成功的重要因素。 RAG可以从互联网、关系型数据集、Neo4J中的知识图谱,或者这三者的组合中检索信息。 在许多情况下,我们注意到混合方法往往能带来更好的性能。 对于客户聊天机器人,你可能需要授予RAG访问部分客户数据库的权限,这可能是一个关系型数据库。 公司的知识管理系统可能会创建知识图谱并从中检索信息,而不是使用向量存储。 从定义上讲,所有这些都是RAG。 然而,确定使用哪些数据源的过程并不是很直接。你需要尝试各种选项,了解每种方法的优缺点。接受或拒绝某个想法的原因可能受到技术和业务考虑的双重影响。 分块是RAG中最具挑战性和最重要的部分 当上下文中包含不相关信息时,LLM往往会失控。 防止RAG中出现幻觉的最佳方法是分块。 现代LLM可能支持更长的上下文长度。

    29410编辑于 2025-04-26
  • 来自专栏菩提树下的杨过

    langchain4j 学习系列(5)-RAG

    继续我们的langchain4j之旅,今天来看看RAG如何实现,“RAG萌宠新手盆友们”建议先看看B站大佬的视频RAG 工作机制详解—哔哩哔哩_bilibili,核心步骤就是下面这3张图: 最简单的RAG prompt_eval_count":11} 3、重排/生成 private interface Assistant { String chat(String userMessage); } /** * 基于RAG "done_reason":"stop","total_duration":1059949995,"prompt_eval_count":21,"eval_count":22} 从日志上看,先做了1次RAG

    31010编辑于 2025-12-24
  • 来自专栏JadePeng的技术博客

    知识图谱增强的KG-RAG框架

    /KG_RAG),该框架利用生物医学知识图谱SPOKE与大型语言模型相结合,有效的提升了LLM在医疗领域的问答效果。 KG-RAG框架介绍 KG-RAG框架,较好的结合了生物医学知识图谱SPOKE和LLM的优势。 研究人员对KG-RAG框架进行了广泛的测试,包括单跳和双跳提示、药物再利用查询、生物医学真假问题和多项选择题。 语义搜索匹配:将LLM提取的疾病实体与向量数据库中的疾病实体进行比较,选择最相似的 当然,如果零样本方法未能识别出疾病实体,采取的办法是直接拿原始query去匹配,取top 5。 在其他领域如何去应用KG做RAG,一方面可以扩展该框架,另外一方面,也要结合自己的实际场景去定制具体的策略。

    2.5K10编辑于 2024-04-12
  • 来自专栏自然语言处理

    RAG入门教程03】Langchian框架-文档加载

    这个也是在后续开发框架的过程中,我们可以选取langchian的document作为处理对象,但是文件解析需要自己去写和实现。

    97910编辑于 2024-06-10
  • 来自专栏自然语言处理

    RAG入门教程05】Langchian框架-Vector Stores

    向量存储旨在高效处理大量向量,提供根据特定标准添加、查询和检索向量的功能。它可用于支持语义搜索等应用程序,在这些应用程序中,您可以查找与给定查询在语义上相似的文本段落或文档。

    1K10编辑于 2024-06-10
  • 来自专栏DeepHub IMBA

    UniMS-RAG:用于个性化对话的统一多源RAG框架

    RAG领域已经取得了相当大的发展,这篇论文的是如何分解RAG过程,加入多文件检索、记忆和个人信息等定制化的元素。 使用RAG的一个优点是其实现的简单。但是在agenic RAG、多文档搜索和添加会话历史等方面,还需要很多的手动工作。代理RAG是将代理层次结构与RAG实现相结合的地方,这会带来很大的复杂性。 UniMS-RAG会对这些元素进行优先排序。 3、持续改进 论文的方法还包括一种自我细化推理算法,通过结合RAG会带来很大程度的可检查性和可观察性。 UniMS-RAG框架 UniMS-RAG统一了计划、检索和阅读任务的训练过程,并将它们集成到一个综合框架中。 提出的统一多源检索-增强对话系统(UniMS-RAG)使用大型语言模型(llm)同时作为计划者、检索者和读者。 这个框架在推理过程中还引入了自改进,使用一致性和相似性分数来改进响应。

    57610编辑于 2024-02-01
  • 来自专栏DeepHub IMBA

    BookRAG:面向层级文档的树-图融合RAG框架

    第一种是文本优先方法,将所有内容扁平化为纯文本,主要依赖OCR,再用BM25、经典分块RAG或GraphRAG、RAPTOR等图方法完成检索。 大多数RAG管道依赖固定的查询处理流程,简单问题处理起来效率低,复杂问题又应对不了。 所以多数现有的文档级RAG系统要么忽略文档的层级结构,要么缺乏查询感知的检索流程。 BookRAG是一个专为层级结构文档设计的RAG框架。 整个框架由三个关键组件构成。 构建BookIndex BookIndex在一个统一索引中同时容纳结构和语义。 Figure 5: The BookRAG Operator Library and an Execution Example from MMLongBench dataset: (a) a visual

    21910编辑于 2026-03-31
  • 来自专栏自然语言处理

    RAG入门必备技能】Faiss框架使用与FaissRetriever实现

    提供了高效且可靠的相似性聚类和检索方法,可支持十亿级别向量的搜索,是目前最为成熟的近似近邻搜索库 官方资源地址https://github.com/facebookresearch/faiss Faiss基础依赖 1)矩阵计算框架 :Faiss与计算资源之间需要一个外部依赖框架,这个框架是一个矩阵计算框架,官方默认配置安装的是OpenBlas,另外也可以用Intel的MKL,相比于OpenBlas使用MKL作为框架进行编译可以提高一定的稳定性 使用方法 Faiss是为稠密向量提供高效相似度搜索的框架(Facebook AI Research),选择索引方式是faiss的核心内容,faiss 三个最常用的索引是:IndexFlatL2, IndexIVFFlat True, embedding_model=None, question_embedding_model=None, top_k=5, max_context_tokens=3500, use_top_k=True, embedding_model=embedding_model, top_k=5,

    5K20编辑于 2024-06-06
  • 来自专栏Datawhale专栏

    RAG 作者:RAG 已死,RAG 万岁!

    该 LinkedIn 帖子: 一些值得注意的 RAG“死亡宣告”包括: 2023 年 5 月:Anthropic 的 Claude,上下文窗口达 10 万 token 2024 年 2 月:Google 底线是:您同时需要长上下文 LLM 和 RAG。 但既然“RAG”这个术语似乎如此具有争议性,那我们不妨这样说: 我们不必非得称之为 RAG。 我们可以就叫它 检索 (retrieval)。 RAG 提供了相当于直接翻到相关页面的能力。处理更多 token 不仅更慢,而且极其低效,并且比使用 RAG 精准定位所需信息要昂贵得多。 警惕错误的二分法 在谷歌搜索“RAG vs”,你会看到一长串建议的查询补全——“长上下文”、“微调”、“MCP”。这种框架设定制造了一种人为的选择,并没有反映这些技术实际上如何协同工作的最佳方式。 RAG、微调和大型上下文窗口在 AI 中也是如此。 结论 我们不需要在 RAG 与长上下文窗口、微调或 MCP 之间做出选择。

    75510编辑于 2025-04-24
  • 来自专栏云云众生s

    影响生产RAG流水线5大瓶颈

    这些是可能阻碍RAG流水线在生产LLM环境中性能的主要潜在瓶颈。 译自 5 Bottlenecks Impacting RAG Pipeline Efficiency in Production,作者 Janakiram MSV。 检索增强生成(Retrieval Augmented Generation,RAG)已成为基于大型语言模型的生成式人工智能应用的关键组成部分。 通过这样做,RAG显著提高了生成响应的事实准确性和可靠性,尤其是在需要精确或最新信息的情况下。 RAG以其增强语言模型知识的能力脱颖而出,使其能够产生更准确、上下文感知和可靠的输出。 即使一些 LLMs 具有较大的上下文窗口,这并不意味着我们可以跳过 RAG 流水线的某些阶段,一次性传递整个上下文。

    61510编辑于 2024-03-28
  • 来自专栏全栈开发工程师

    RAG】001-RAG概述

    RAG】001-RAG概述 0、整体思维导图 下面的知识是基于一个视频教程结合 AI 生成的笔记,我也看了一遍,有了一些印象,但这种印象很快就会消失,知识也就消失了,为了使得知识在我的大脑中停留更长的时间 补充1:RAG 基本逻辑 补充2:RAG 知识库基本逻辑 一、RAG 介绍 1、LLM 的主要局限性 大语言模型(LLM)尽管功能强大,但仍存在以下明显的局限性: 时效性问题:模型的知识在预训练后就固定了 概述 1、RAG 的概念 RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合了检索和生成技术的文本处理方法,主要用于提高语言模型的输出质量。 2、RAG 的工作原理 RAG 的核心工作流程包含以下步骤: 知识库构建: 收集和处理文档资料 将文档切分为适当大小的文本块 使用向量化模型将文本转换为向量并存储 检索过程: 接收用户查询并向量化 在向量数据库中搜索相似内容 获取最相关的文本片段 生成过程: 将检索到的相关内容与用户问题组合 构建合适的提示词(Prompt) 通过 LLM 生成最终答案 3、RAG 的应用场景 RAG 技术在多个领域都有广泛应用

    79710编辑于 2025-03-25
  • 来自专栏DeepHub IMBA

    FaaF:为RAG系统量身定制的事实召回评估框架

    RAG系统中实际的事实召回评估可能存在以下问题: 在低质量生成的文本中自动验证真实的、独立的陈述和模拟低质量的检索增强生成(RAG)场景并没有得到太多的关注。 RAG系统涉及许多组件,例如知识库、检索、提示公式和语言模型,这些都需要大量的调优。因此效率对实际执行至关重要。 Facts As A Function faaf是一个为RAG系统量身定制的事实召回评估框架,它可以用来创建一个测试数据集,并执行自动的事实召回评估。 评估数据是通过真实事实和人工注释来增强的。 WikiEval的特点是问题和答案对,答案具有可变的事实质量,可以模拟有缺陷的RAG反应。 FaaF是一种新的事实验证方法,它在所有检查条件下通过提示进行事实验证,并将所需的LM调用和完成令牌数量减少了5倍以上。 构造函数根据一组事实动态创建函数对象。

    39210编辑于 2024-04-15
  • 来自专栏AgenticAI

    深度测评 RAG 应用评估框架:指标最全面的 RAGas

    大家常说 RAG 应用是:一周出 demo,半年用不好。那么怎么评估 RAG 应用是否能够上生产了呢?如果公司人手足够,当然可以人工测试评估准确性,但指标未免单一。 本文介绍一个全自动化的 rag 应用评估框架 ragas。 RAGas(RAG Assessment)[1]RAG 评估的缩写,是一个专门的解决方案用于评估、监控和提升生产环境中大语言模型(LLM)和检索增强生成(RAG)应用的性能,包括用于生产质量监控的定制模型 然后就是使用 ragas 框架的 API 来生成测试集了,首先初始化测试集生成器。 如果你想深入RAG也可以考虑购买这本《大模型RAG实战》,更为系统地学习。

    5.6K12编辑于 2025-03-18
  • 来自专栏学习笔记ol

    框架分析(5)-Django

    框架分析(5)-Django 主要对目前市面上常见的框架进行分析和总结,希望有兴趣的小伙伴们可以看一下,会持续更新的。希望各位可以监督我,我们一起学习进步。 Django Django是一个开源的Python Web框架,它遵循了MVC(模型-视图-控制器)的设计模式,旨在帮助开发者快速构建高效的Web应用程序。 可扩展性 Django框架具有良好的可扩展性,开发人员可以通过使用Django的插件和第三方库来扩展框架的功能。 缺点 学习曲线较陡峭 对于初学者来说,Django框架的学习曲线可能较陡峭。它有一些独特的概念和设计模式,需要一定的时间和精力来理解和掌握。 约束性较强 Django框架对项目的结构和组织有一定的约束性,开发人员需要按照框架的规范进行开发。这在一些特殊需求的项目中可能会导致一些限制和不便。

    63920编辑于 2023-10-11
  • 来自专栏AgenticAI

    蚂蚁开源新RAG框架KAG,可达91%准确率

    看这篇就够了》,本文探一探蚂蚁开源的另外一套知识增强生成框架 KAG(Knowledge Augmented Generation),专门用于构建垂直领域知识库的逻辑推理问答框架,论文中提到在电子政务达到了 KAG 简介 KAG 可以有效克服传统 RAG 向量相似度计算的歧义性和 OpenIE 引入的 GraphRAG 的噪声问题,支持逻辑推理、多跳事实问答等。 核心功能 2.1 LLM 友好的语义化知识管理 私域知识库场景,非结构化数据、结构化信息、业务专家经验 往往三者共存,KAG 提出了一种对大型语言模型(LLM)友好的知识表示框架,基于 DIKW(数据 3.2 开发者模式 即使是开发者模型,也仍然需要安装刚才的 Docker Compose,其中启动了一些依赖服务,KAG 框架并不包含前端或者服务端的代码。

    3.4K00编辑于 2025-03-18
  • 来自专栏唐国梁Tommy

    Self-RAG 框架:更精准的信息检索与生成

    Self-RAG 核心算法 SELF-RAG是一个增强语言模型质量和事实性的框架,通过检索和自我反思实现,而不损失原始创造性和多功能性。 该框架使模型可以根据检索到的段落生成文本,并使用“反思tokens”自我评估输出的相关性和完整性。 与普通的RAG方法不同,SELF-RAG更加选择性地进行检索,确保从引用源获得完整支持。 输出是一个从1到5的评分,5分代表最有用。 (5) 最终训练的目标 使用传统的LM目标,训练最终的生成模型 ,使其能够自己生成反思tokens,而不需要在推理时依赖评判模型。 (5)举例说明树解码(tree-decoding)算法 第1步:初始化 输入:什么是机器学习?

    4.5K40编辑于 2023-11-09
  • 来自专栏机器学习原理

    rag

    RAG技术全面解析:原理、应用与优势 引言 在当今快速发展的人工智能领域,检索增强生成(Retrieval-Augmented Generation, RAG)技术已成为一个备受关注的话题。 RAG工作流程 RAG的工作流程可以分为以下几个步骤: 用户查询:用户提出一个查询,系统首先会将这个查询传递给检索模型。 RAG技术的应用场景 RAG技术在众多实际应用场景中显示出其独特的优势,这是其他单一技术难以比拟的。下面我们详细探讨RAG技术的几个主要应用场景。 RAG技术可以在知识图谱构建过程中发挥重要作用。通过利用检索模型从大规模文档库中找到最新的相关信息,RAG系统可以识别出新的实体和关系。 RAG技术的优势与挑战 RAG技术在很多方面展示了其显著的优势,但它也面临着一些挑战。以下我们将详细探讨RAG技术的优势和挑战。

    63111编辑于 2024-06-27
  • 来自专栏《三桥君 | AI产品方法论》

    掌握这5个要点,选对Embedding模型助力RAG系统

    RAG系统中,Embedding模型的质量直接决定了系统在理解用户查询、检索相关文档以及生成高质量回答方面的能力。 2. E5 - mistral - 7B 适合动态调整语义密度的复杂系统,能够根据任务需求灵活调整语义表示。 4. E5 - mistral - 7B 适合企业级部署和智能客服系统,能够在高并发环境下稳定运行。 四、如何选择合适的Embedding模型 1. 如果你的部署环境资源充足,那么BGE - M3或E5 - mistral - 7B可能更适合。 3. 测试模型性能 在选择Embedding模型时,你还需要在数据集上进行测试,比较不同模型的性能指标。 5. 考虑语言支持 最后,你还需要考虑模型的语言支持。比如,如果你的系统需要处理多语言数据,那么你需要选择支持多语言的模型。如果你的系统主要处理中文数据,那么你需要选择专门为中文优化的模型。

    47710编辑于 2025-08-28
领券