首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏嵌入式音视频

    【RAG】内部外挂知识库搭建-本地GPT

    检索增强生成(RAG)是指对大型语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库。 https://github.com/chatchat-space/Langchain-Chatchat 搭建local GPT:https://github.com/PromtEngineer/localGPT ==》本地版的 GPT,可以下載 source code 学习视频:https://www.youtube.com/watch?

    1.2K10编辑于 2024-04-04
  • 来自专栏山行AI

    搭建本地知识库的开源利器之DocsGPT

    [16]•如何使用其他文档[17]•如何在本地托管(以便所有数据保留在内部)[18] 项目结构[19] •Application - Flask 应用程序(主要应用程序)。 /setup.sh 这将安装所有依赖项并允许您下载本地模型或使用 OpenAI。

    4K20编辑于 2023-10-09
  • 来自专栏码匠的流水账

    使用MaxKB及deepseek搭建本地AI知识库

    序本文主要研究一下如何MaxKB及deepseek搭建本地AI知识库步骤拉取MaxKB镜像docker pull cr2.fit2cloud.com/1panel/maxkb如果拉取不下来就用docker 模型设置–>添加模型,这里添加ollama的deepseek-r1:8b,其中API URL设置为http://host.docker.internal:11434,API KEY随便设置一个就行设置知识库创建知识库 –>向量模型为maxkb-embedding,知识库类型为通用型,之后上传文档,可以选择文本文件、表格、QA问答对,之后执行向量化设置应用创建应用–>设置AI模型–>关联知识库(添加知识库),参数设置:

    1.3K10编辑于 2025-02-13
  • 来自专栏coder

    使用​​langchain​​搭建自己的本地知识库系统

    什么是 RAG RAG 是retrieval-augmented-generation的缩写,翻译为中文的意思就检索增强,以基于最新,最准确的数据建立LLM 的语料知识库。 LLM 现存的痛点 我们知道 LLM 的知识库是通过现有的网络公开的数据作为数据源来训练的,现在公开的很多模型他们基于的训练数据会比我们现在网络上公开的数据早很多,那自然就会产生一种问题,网络上最新的数据和知识 langchain-experimental pip install "langserve[all]" pip install langchain-cli pip install langsmith 实现知识库 总结: 本文主要是介绍了如何使用 langchain 构建一个自己的知识库系统 介绍了知识库构建的 RAG 相关的知识 LLM 不能做什么,如何将最新的数据于 llm 相结合来提示 llm 的能力 langchain 的基本介绍,他是一个用于开发由语言模型驱动的应用程序的框架 向量数据库的作用:存储向量化后的文本然后提供查找语义相关的内容 构建知识库的步骤和相关代码的介绍

    1.8K10编辑于 2024-09-06
  • 来自专栏AI研习日志

    DeepSeek + Ollama + Cherry Studio搭建本地私有知识库

    二、为什么要搭建个人知识库搭建个人知识库不仅能提升工作效率,还能促进持续学习和团队协作,对个人职业发展和团队知识管理具有长远意义。1. 如果想要搭建知识库,这里我们又不得不提到另外一个词——RAG.三、什么是RAG? 好了,废话不多说,接下来就带大家具体实操了,如何用DeepSeek + Ollama + Cherry Studio在本地搭建私有知识库。五、搭建实操1. 因为我自己搭建知识库会用到很多内部资料,出于安全性考虑今天我们重点介绍的是第一种方式———使用Ollama工具本地运行 DeepSeek R1 ,借助Cherry Studio嵌入本地资料,搭建本地私有知识库 如图可以使用默认的聊天助手,也可以新建一个自定义的聊天助手,选择本地模型和知识库, 这样默认这个聊天助手所有的问答都会参考我们的知识库资料。

    7.3K52编辑于 2025-02-26
  • 来自专栏大模型

    搭建本地知识库的操作方法(Ollama+AnythingLLM)

    在本篇经验中,我们所用到的大模型以 deepseek-r1:8b 和 nomic-embed-text为例,同时对于deepseek模型大小的选择需要充分考虑本地硬件配置,本篇经验所涉及的硬件配置为GPU8G 一些应用场景的感悟:搭建本地知识库其实作用还是挺大的,最适合公司内部署、有多年职场经验的或是创业中的小伙伴,可以很好的将手头上n多的资料管理起来,查询时再也不用在各个磁盘里各种翻阅了,即保证了材料的安全又能极大地提高了资料的使用率和办公效率 一、确认本地电脑配置这一步很关键,涉及到后面安装deepseek模型大小的选择,可以使用这个网站参考进行选择:https://lively-naiad-30128a.netlify.app/二、Ollama 进入命令行并执行以下命令,这一步可能会很慢,若过程中出现错误,重新拉取即可ollama run deepseek-r1:8b<若只想通过Ollama使用deepseek进行简单问答,则无需继续下面的操作>三、下载搭建本地知识库的 它无需编写代码或处理复杂的基础设施问题,适合快速搭建私有知识库和智能问答系统。

    5K11编辑于 2025-07-18
  • 来自专栏计算机视觉CV

    【玩转 GPU】搭建本地知识库--chatGLM+langchain(尝鲜篇)

    我们可以利用langchain+chatGLM在本地搭建自己的知识库,除了能搜索到文档这个功能,还能基于知识库内容和你进行对话问答~上文我们介绍了如何在本地部署chatGLM,本文就介绍如何搭建你的本地知识库问答系统 1 知识库搭建思路先抛开技术,假设现在知识库就在手边,我们是如何搜索想要的答案的?首先,把所有的文档看一遍,对文档进行分类;然后,找出和问题相关的文档内容;最后,对相关内容进行总结,得到答案。 1.2 langchain-ChatGLM流程介绍langchain-ChatGLM项目就是参考了Langchain的思路,我们一起看下langchain-ChatGLM搭建本地知识库的流程。 https://github.com/imClumsyPanda/langchain-ChatGLM/blob/master/README.md如上图,本地知识库搭建的流程如下:(1-2)准备本地知识库文档目前支持 2 知识库搭建步骤2.1 硬件需求首先确定机器性能是否满足要求,仍然使用ChatGLM-6B模型通过上文介绍,大家应该可以在本地跑通chatGLM-6B模型了。

    12K122编辑于 2025-07-18
  • 从零搭建个人Wiki RAG:Karpathy范式的本地知识库

    Karpathy(OpenAI联合创始人、前特斯拉AI总监)最近提出了一个优雅的解法:LLM Wiki——不用向量数据库,不用传统RAG,让LLM自己维护一个Markdown知识库。 今天这篇文章,带你从零搭建一个可闭环的个人Wiki RAG系统。用Ollama本地模型,完全离线,代码不到300行。 读完你会觉得:我行了,我也能搭。 Karpathy的LLM Wiki是什么? 一句话:让LLM帮你维护一个结构化的Markdown知识库。 ▪ 第三层:向量索引(RAG检索) 把Wiki文章分块,生成Embedding,存到本地JSON: # 分块 → Embedding → 存储 paragraphs = [p for p in content.split 用LLM Wiki + RAG,你可以在本地搭建一个真正可用的个人知识库——零API费用,完全离线,数据自己掌控。 试试看,你会发现:真没那么难。

    1.2K10编辑于 2026-04-14
  • 来自专栏大语言模型

    本地AI知识库搭建:DeepSeek-R1+AnythingLLM全流程

    在数据隐私与效率需求双重驱动下,本地部署AI知识库已成职场刚需。 核心组件与优势DeepSeek-R1作为国产开源模型,实现三大突破:全本地化运行杜绝数据外泄、0成本部署无需算力付费、支持模型微调适配垂直场景。

    2K10编辑于 2025-08-07
  • 来自专栏实时计算

    【开源项目推荐】——纯中文本地GPT知识库搭建项目.assets

    那么,有没有可以在本地部署搭建的AI知识库项目呢? 今天为大家推荐的就是一个纯中文本地GPT知识库搭建项目,虽然刚刚开源不到半年的时间,标星已经达到了8.8K, 让我们一起来看看吧~ FastGPT 今天为大家推荐的开源项目名为FastGPT。 虽然开源的大模型已经有很多,但是如果基于这些大模型搭建自己的知识库并不容易,需要非常复杂的实现过程。而FastGPT正是为了解决这个问题而诞生的。 而如果需要做二次开发,也可以很轻松的搭建环境,该项目主要是TS语言开发,准备好NodeJS相关环境就可以了。而且FastGPT的整个配置过程都是支持中文的,非常方便。 FastGPT自开源以来发展迅速,已经有非常多的用户基于其搭建了自己的本地知识库,最新版本为4.6.6,大家赶快用起来吧~ 功能演示 请参考大数据流动视频号演示介绍。

    6.9K11编辑于 2024-01-17
  • 来自专栏杨建荣的学习笔记

    搭建知识库xwiki

    之前自己使用Django admin和suit完成了初步的个人知识库管理,基本完成了我自己的浏览器标签库和微信公众号的统一管理,但是有一个问题,那就是目前我只能根据标题来做查询,如果能查根据关键字查到一些相关的文章 这个项目的环境搭建部分得吐槽一下,官网的说明重点在体现xwiki功能如何全面,但是对于如何搭建,如何部署注意的地方相对来说比较散,没有一种一气呵成的感觉。 浏览器输入: http://192.168.253.141:8080/xwiki 就会看到如下的配置信息,搭建的步骤大体有下面的内容: ? 整个网页版的安装,比较有特色,所有工作都在页面中完成。

    2.5K50发布于 2018-03-22
  • 手把手教你搭建本地知识库:打造你的专属AI助手

    搭建本地知识库,本质上就是给你自己配一个“第二大脑”——把你所有的资料、文档、笔记交给AI,让它替你记住,随时调取。我之前折腾了好几个方案,踩过不少坑,今天把我摸索出来的路子全盘托出。 一、先搞懂:什么是本地知识库?为什么要自己搭?简单说,本地知识库=你的私有数据+AI搜索引擎。你把所有文档、笔记、资料扔进去,然后用自然语言问它问题,它从这些资料里找答案给你。为什么要自己搭? 这是什么:Dify是一个开源平台,可以搭建完整的知识库系统,还能接入本地运行的模型(比如用Ollama跑开源模型)。 在Dify里配置:把Ollama作为模型接入创建知识库:上传文档,Dify会自动切片、向量化开始用:提问,它在本地跑,不上传任何数据优点:完全免费,数据全在本地,隐私最好。 怎么搭:把所有资料整理到飞书云文档(或者钉钉文档)打开AI助手,问它问题,它会搜索你的文档找答案优点:零搭建,会用飞书就会用。团队协作方便,可以共享知识库。缺点:资料在云端,隐私稍弱。

    2.8K21编辑于 2026-03-03
  • 访答知识库-可以本地使用的知识库

    访答知识库-可以本地使用的知识库访答知识库,一键安装,0代码使用。支持图片、视频、语音搜索与问答支持多模态问答。访答本地知识库是个人笔记本上都可以使用的离线知识库,一键安装,0代码使用。 访答本地知识库是绝对安全的知识库。不会上传任何文件、断网可用、绝对安全、自主可控、可自定义。访答本地知识库:保护私有知识产权,保护数据隐私,保护知识安全,拒绝AI白嫖。 访答知识库搜索提供如下搜索、问答和生成(RAG):文本包含:包含文本;文本相似搜索(父亲和爸爸相似而不相同)图片相似搜索、语音相似搜索、视频相似搜索图片视频相似搜索:视频包含该图片,视频与该图片相似文本搜索图片

    27510编辑于 2025-10-29
  • 来自专栏码客

    知识库系统搭建

    /opt/mm-wiki/conf/ -v /data/mm-wiki/data:/data/mm-wiki/data/ --name mm-wiki eahom/mm-wiki:v0.1.7 # 本地构建最新代码 mm-wiki/data/:/data/mm-wiki/data/ --name mm-wiki mm-wiki-image 支持图片粘贴上传 MM-Wiki的编辑器不支持从粘贴板上传图片,我们需要将图片保存到本地后才能使用编辑器中的上传图片按钮进行选择上传

    62210编辑于 2024-03-29
  • 来自专栏《Cloud Studio》

    还在搭建本地知识库? Cloud Studio DeepSeek 模板已经内置,直接来玩!

    今天,CloudStudio 在 DeepSeek-R1 CPU 模板中已内置知识库,支持 Open WebUI 和  AnythingLLM 两种模式,无需动手搭建,开箱即可拥有属于自己的私有知识库。 二、为什么要搭建个人知识库搭建个人知识库不仅能提升工作效率,还能促进持续学习和团队协作,对个人职业发展和团队知识管理具有长远意义。1. 如果想要搭建知识库,这里我们又不得不提到另外一个词—— RAG 。 相对于本地搭建 RAG 知识库,体验门槛直线降低! 上传本地文件或将本地文件拖入行业报告返回对话窗口,在输入框输入“#”,选择知识库后即可进行对话最后,我们来看看以 AnythingLLM 为例,基于我们传入的《微短剧行业深度分析报告》文件,得到的对话答案能够较为精准地提权

    1.2K10编辑于 2025-02-13
  • 来自专栏山河已无恙

    基于 Deepseek LLM 本地知识库搭建开源方案(AnythingLLM、Cherry、Ragflow、Dify)认知

    写在前面 博文内容涉及 基于 Deepseek LLM 的本地知识库搭建 使用 ollama 部署 Deepseek-R1 LLM 知识库能力通过 Ragflow、Dify 、AnythingLLM 知识库搭建知识库搭建的时候,我们还需要一个基本的嵌入模型,用于理解分析已有的知识库内容 嵌入模型 这里我们使用的是 BGE-M3 ,嵌入模型是什么,通俗的话讲,它把文本信息翻译成计算机能够理解和处理的数字形式 需要注意的事项 知识库搭建部分使用的是容器的方式,所以调用 ollama 提供的推理能力的时候,通过 127.0.0.0:11434 访问是访问不通的,所以需要一个能代表宿主机但是IP地址或者域名不是 模型 选择嵌入模型 在系统模型设置添加对应的模型 选择知识库 创建知识库 在配置中配置需要的数据 上传本地知识库内容 全选,解析启用 之后在聊天配置中选择对应的知识库 模型参数调整 简单测试 每次提问会显示对应的文本内容 在用户中心设置中配置模型相关配置 配置本地模型,需要注意这里的地址 配置嵌入模型 然后中模型配置中添加 选择创建知识库 导入本地知识库 分段相关配置 保存设置 等待文档解析完成 知识库创建完成 创建聊天助手

    3.6K45编辑于 2025-02-25
  • 手把手教你:Windows与Linux下Dify+DeepSeek实现ragflow构建企业知识库

    搭建本地知识库并实现接口调用,对于企业和开发者来说具有至关重要的意义。在实际应用场景中,企业内部往往拥有大量的业务数据、文档资料等,这些数据蕴含着丰富的知识和信息。 通过搭建本地知识库,企业可以将这些数据进行有效的整合和管理,利用大语言模型的强大能力,实现对知识的快速检索、智能问答和深度分析。 在众多的技术方案中,Dify + Ollama + DeepSeek 技术栈脱颖而出,成为了搭建本地知识库和实现接口调用的理想选择。 这三者的结合,为我们提供了一个高效、安全、低成本的本地知识库搭建和接口调用解决方案。 通过 Dify,我们可以快速搭建一个功能强大的知识库应用,并且能够轻松地实现接口调用,将知识库的能力集成到其他系统中。

    3.6K21编辑于 2025-05-30
  • 来自专栏wayn的程序开发

    使用 DeepSeek 和 Ollama 搭建一个本地知识库系统(包含完整代码)

    这篇文章教你如何用两个工具(DeepSeek R1 和 Ollama)来搭建一个智能系统,让它帮你从 PDF 里找答案。这个系统叫 RAG(检索增强生成),简单来说就是:先找资料,再生成答案。 本地运行:不用联网,速度快,隐私也有保障。 你需要准备什么? Ollama:一个让你在电脑上本地运行 AI 模型的工具。 怎么搭建这个系统? 第一步:导入工具包 我们用 Python 写代码,需要用到一些工具包: LangChain:处理文档和检索。 Streamlit:做一个简单的网页界面。 = SemanticChunker(HuggingFaceEmbeddings()) documents = text_splitter.split_documents(docs) 第四步:建一个“知识库

    97510编辑于 2025-03-04
  • 来自专栏子晋城

    博客搭建(一):本地搭建

    学习完本结课程,就可以让你的博客在本地运行起来啦! 常用博客框架介绍 博客比较流行的常用框架主要有两个,即:Hexo 框架 和 Halo 框架。 跟随市场的潮流,本文主要介绍 Halo 框架的搭建和使用。 配置 Java 环境 1、JDK 下载与安装,建议下载 Java 8 版本,下载完成后,直接安装即可。

    1.2K10编辑于 2022-01-18
  • 来自专栏蔡坨坨的测试笔记

    搭建一个本地AI知识库需要用到哪些技术栈?

    在此背景下,我们不妨自己动手丰衣足食,搭建一套属于自己的本地的AI ChatBot?顺便学习下“高大上”的AI技术,亲身体验和把握这股“科技潮流”? 本篇,我们将通过全局的视角来看一下 “基于本地上传的文档进行QA问答” 类似的案例,需要学习哪些知识点以及会用到哪些技术栈。 本地大模型 + LangChain + 前端界面 结合RAG框架:上传本地文件 + 文件切片 + Embedding向量编码 + LLM大语言模型 整体流程图 doc flow 文档处理流程 首先,从本地加载文档

    97010编辑于 2024-07-01
领券