首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 访答知识库-可以本地使用的知识库

    访答知识库-可以本地使用的知识库访答知识库,一键安装,0代码使用。支持图片、视频、语音搜索与问答支持多模态问答。访答本地知识库是个人笔记本上都可以使用的离线知识库,一键安装,0代码使用。 访答本地知识库是绝对安全的知识库。不会上传任何文件、断网可用、绝对安全、自主可控、可自定义。访答本地知识库:保护私有知识产权,保护数据隐私,保护知识安全,拒绝AI白嫖。 访答知识库搜索提供如下搜索、问答和生成(RAG):文本包含:包含文本;文本相似搜索(父亲和爸爸相似而不相同)图片相似搜索、语音相似搜索、视频相似搜索图片视频相似搜索:视频包含该图片,视频与该图片相似文本搜索图片

    26310编辑于 2025-10-29
  • 来自专栏嵌入式音视频

    【RAG】内部外挂知识库搭建-本地GPT

    检索增强生成(RAG)是指对大型语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库。 github.com/chatchat-space/Langchain-Chatchat 搭建local GPT:https://github.com/PromtEngineer/localGPT ==》本地版的

    1.2K10编辑于 2024-04-04
  • 来自专栏AI模型部署实践

    Llama3.1 部署本地知识库应用

    Chatchat项目介绍该项目利用langchain思想,实现了基于本地知识库的问答应用。支持市面上主流的开源 LLM、 Embedding 模型与向量数据库,可实现全部使用开源模型离线私有部署。 可按需上传本地的文件进行问答交互。附录:在HAI上用llama3.1的几种姿势模型测试可以基于HAI中基础的llama3.1环境,快速测试模型问答性能。 集成外部知识库将模型与外部知识库(如知识图谱)结合,使其能够利用结构化数据提供更准确和全面的回答。更多基于llama3.1开发agent,以api的形式在HAI中部署,并接入您的app,助力应用开发。

    1.4K41编辑于 2024-07-26
  • 来自专栏技术趋势

    chatGLM3+chatchat实现本地知识库

    落地方案 通过chatGLM3-6B+langchain-chatchat+bge-large-zh实现本地知识库库。

    77110编辑于 2024-03-22
  • 个人电脑本地私有知识库:访答知识库深度解析

    个人电脑本地私有知识库:访答知识库深度解析什么是本地私有知识库本地私有知识库是一种将知识数据存储在个人电脑本地的管理工具,与云端存储不同,它提供了更高的数据安全性和隐私保护。 访答知识库的核心优势知识库作为本地私有知识库的杰出代表,具备以下核心优势:数据完全私有:所有数据存储在本地,无需担心数据泄露风险离线访问能力:无需网络连接即可访问知识库内容高效知识管理:支持多种格式文档 ,提供强大的检索和分类功能轻量级部署:无需复杂配置,即可在个人电脑上快速部署使用如何选择适合的本地知识库在选择本地私有知识库时,应考虑以下因素:数据安全级别、易用性、功能完整性、技术支持等。 知识库在这些方面表现出色,是个人知识管理的理想选择。结语在数据安全日益重要的今天,选择一款可靠的本地私有知识库至关重要。 访答知识库以其出色的安全性能和便捷的使用体验,为用户提供了完美的个人知识管理解决方案。

    28710编辑于 2025-12-08
  • 来自专栏码匠的流水账

    使用MaxKB及deepseek搭建本地AI知识库

    序本文主要研究一下如何MaxKB及deepseek搭建本地AI知识库步骤拉取MaxKB镜像docker pull cr2.fit2cloud.com/1panel/maxkb如果拉取不下来就用docker 模型设置–>添加模型,这里添加ollama的deepseek-r1:8b,其中API URL设置为http://host.docker.internal:11434,API KEY随便设置一个就行设置知识库创建知识库 –>向量模型为maxkb-embedding,知识库类型为通用型,之后上传文档,可以选择文本文件、表格、QA问答对,之后执行向量化设置应用创建应用–>设置AI模型–>关联知识库(添加知识库),参数设置:

    1.3K10编辑于 2025-02-13
  • 来自专栏山行AI

    搭建本地知识库的开源利器之DocsGPT

    [16]•如何使用其他文档[17]•如何在本地托管(以便所有数据保留在内部)[18] 项目结构[19] •Application - Flask 应用程序(主要应用程序)。 /setup.sh 这将安装所有依赖项并允许您下载本地模型或使用 OpenAI。

    4K20编辑于 2023-10-09
  • 来自专栏Edward的专栏

    Deepseek本地部署 + 个性化 Rag 知识库

    不同于传统的端到端生成模型,RAG 通过整合外部知识库来增强其输出内容的质量。 下载文本向量模型 Ollama 是一款旨在简化在本地运行大型语言模型的工具,支持快速部署与管理,如DeepSeek等模型。它降低了技术门槛,使用户能轻松进行开发与实验,加速AI技术的应用与创新。 切割向量化代码 读取文件数据,按行区域切割,并放入列表,通过向本地下载的文本向量模型发送 post 请求,将切割分块的文本转换成文本向量: import requests import functools 文本生成模型(推理)/ deepseek本地部署 通过 Ollama 下载 deepseek 模型: ollama pull deepseek-r1:7b 想要下载更小或者更大模型的, ,可在本地实现对话,打开 cmd ,输入 ollama list,查看 ollama 上下载的模型: 输入运行命令启动模型: ollama run deepseek-r1:7b

    1K12编辑于 2025-04-15
  • 来自专栏coder

    使用​​langchain​​搭建自己的本地知识库系统

    什么是 RAG RAG 是retrieval-augmented-generation的缩写,翻译为中文的意思就检索增强,以基于最新,最准确的数据建立LLM 的语料知识库。 LLM 现存的痛点 我们知道 LLM 的知识库是通过现有的网络公开的数据作为数据源来训练的,现在公开的很多模型他们基于的训练数据会比我们现在网络上公开的数据早很多,那自然就会产生一种问题,网络上最新的数据和知识 langchain-experimental pip install "langserve[all]" pip install langchain-cli pip install langsmith 实现知识库 总结: 本文主要是介绍了如何使用 langchain 构建一个自己的知识库系统 介绍了知识库构建的 RAG 相关的知识 LLM 不能做什么,如何将最新的数据于 llm 相结合来提示 llm 的能力 langchain 的基本介绍,他是一个用于开发由语言模型驱动的应用程序的框架 向量数据库的作用:存储向量化后的文本然后提供查找语义相关的内容 构建知识库的步骤和相关代码的介绍

    1.7K10编辑于 2024-09-06
  • 本地知识库新选择:访答深度解析

    本地知识库新选择:访答深度解析在信息爆炸的时代,如何高效管理个人知识资产已成为许多人面临的挑战。云端知识库虽然方便,但数据隐私和安全性问题始终令人担忧。 这时,本地私有知识库应运而生,成为注重数据安全用户的新选择。在众多知识库工具中,以其独特的功能和设计理念,正逐渐崭露头角。什么是本地私有知识库本地私有知识库是指将知识数据存储在用户本地设备上的知识管理系统。与云端知识库不同,所有数据完全由用户自己掌控,无需担心数据泄露或服务商停止服务的风险。 数据始终在本地,既保障了隐私,又能实现离线访问,确保工作不中断。访答知识库的核心优势完全本地化,数据自主掌控坚持本地优先的原则,所有数据都存储在用户自己的设备上。 选择本地知识库的考量因素在选择像这样的本地知识库时,需要考虑几个关键因素:存储安全性、功能完备性、使用便捷性和跨平台支持。

    25010编辑于 2025-12-21
  • 来自专栏学习成长指南

    AI超级智能体教程(七)---RAG实战本地知识库和云端知识库

    1.RAG实战–本地知识库的应用 1.1编写代码 我们的文档添加到这个向量数据库里面去: 基于我们的知识库进行问答:我们的prompt+拦截器从向量数据库里面找到的上下文,两个组合在一起,发给我们的AI ,而且这个分数越高,表示我们的本地知识库里面搜索出来的这个内容和我们的用户输入的这个提示词的吻合度是更高的; 1.3输出结果 实际上仔细观察这个输出的结果,我们的这个回答就是从我们的本地知识库里面去找到的 ,这个就是平台智能切分的这个结果; 2.2使用知识库 2.3断点调试 这个时候我们会发现这个request打断点的位置内容和刚才的本地知识库的差别还是很大的,大家可以去回顾一下本地知识库的,这个云端知识库应该是直接加进来了 ,内容还是很多的; 这个时候云端知识库检索的结果是5个,可以喝上面的本地知识库进行对比一下,就可以发现两个的差别;大家进行学习的时候,也可以使用这个方式,对比一下两个方式的异同点; 2.4输出结果 这个测试的结果就是从我们的知识库里面搞得 ,我觉得这个也是很不错的,因为这个排版啥的,整体上应该是闭刚刚我们自己本地的效果还一些,这个也是建议大家使用云端的原因之一了; 的知识库里面搞得,我觉得这个也是很不错的,因为这个排版啥的,整体上应该是闭刚刚我们自己本地的效果还一些

    86510编辑于 2025-05-05
  • 来自专栏JavaEdge

    Dify+Notion本地化打造专属知识库

    创建知识库并上传文档大致分为以下步骤: 通过上传本地文件、导入在线数据或创建一个空的知识库。 1 导入文本数据 轻点 Dify 平台顶部导航中 “知识库” → “创建知识库”: 可上传本地文件、导入在线数据两种方式上传文档至知识库内。 1.1 上传本地文件 拖拽或选中文件进行上传,支持批量上传,同时上传的文件数量限制取决于订阅计划: 本地上传文档文件的限制: 单文档上传大小限制≤ 15MB 不同 SaaS 版订阅计划限定批量上传个数、 ,点击同步自 Notion 内容,选择需要的授权页面进行导入: ③ 分段和清洗 选择知识库的分段设置和索引方式,保存并处理。 预览 Notion 页的分段结果 ④ 同步 Notion 数据 如你的 Notion 内容有更新,可以在知识库的 文档列表页中点击对应内容页的 同步 按钮进行数据同步。

    1.5K10编辑于 2025-06-01
  • 来自专栏码匠的流水账

    使用open-webui+deepseek构建本地AI知识库

    序本文主要研究一下如何使用OpenWebUI+deepseek构建本地AI知识库步骤拉取open-webui镜像docker pull ghcr.io/open-webui/open-webui:maindocker 知识库管理设置 --> 管理员设置 --> 文档 --> 语义向量模型引擎 改为ollama, 语义向量模型改为bge-m3:latest工作空间 --> 知识库,点击+号上传文档使用时需要在聊天框通过 #来指定知识库设置 --> 管理员设置 --> 数据库 --> 下载数据库,可以导出sqlite数据小结整体体验是docker部署起来,页面展示有点慢,联网搜索一开始选择serply不生效,换成tavily 对于知识库方面,可以上传文档和目录,聊天窗口可以指定使用哪个知识库,也可以同时开启联网搜索,整体效果还可以,可以同时引用知识库和搜索引擎的检索结果,看日志还会保存到向量数据库(save_docs_to_vector_db

    4.7K10编辑于 2025-02-18
  • 来自专栏JAVA

    DeepSeek 本地知识库效果不佳?试试这些优化方案!

    今天继续跟大家聊聊大家关心的知识库管理话题~在上次文章里我们揭示了 DeepSeek 部署本地知识库的各种烦恼,现在再来带大家深度解析这些痛点,并分享更多关于ImaCopilot的实战技巧,让你轻松玩转智能知识库 更新不及时:联网能力欠佳,新信息更新慢,让你错过大好机会 ️ 维护成本高:复杂操作只适合专业人士,普通用户只好叹气 安全隐患多:数据泄露、未经授权访问…风险重重,隐患不容小觑 ️⚠️ 这些问题无疑让传统本地知识库方案捉襟见肘 具体优势包括: 智能搜索 & 写作:只需一句话,AI秒级响应,让答案触手可及 ✨ 全网信息检索:不仅仅局限于本地数据,全面覆盖,让你掌握最新动态 数据安全无忧:腾讯云护航,放心存储,绝对杜绝泄露风险 新建知识库 打开 ImaCopilot 后,点击左侧菜单栏的“知识库”,在“我创建的共享知识库”旁边点击“+”,轻松创建属于你的知识库。 【后记】智能时代,知识管理新风向 传统的本地知识库虽有历史,但在当下信息爆炸的时代,稳定、高效、安全的解决方案才是真正的王道!

    1K10编辑于 2025-02-20
  • 来自专栏AI研习日志

    DeepSeek + Ollama + Cherry Studio搭建本地私有知识库

    好了,废话不多说,接下来就带大家具体实操了,如何用DeepSeek + Ollama + Cherry Studio在本地搭建私有知识库。五、搭建实操1. R1 好处: 可以实现本地部署DeepSeek模型 + Embedding模型,免费、安全 坏处: 受到本地电脑配置的限制,只能使用蒸馏版,推理能力远不如满血版,本文以 DeepSeek 因为我自己搭建的知识库会用到很多内部资料,出于安全性考虑今天我们重点介绍的是第一种方式———使用Ollama工具本地运行 DeepSeek R1 ,借助Cherry Studio嵌入本地资料,搭建本地私有知识库 本地安装 ollama 并下载需要的模型。 如图可以使用默认的聊天助手,也可以新建一个自定义的聊天助手,选择本地模型和知识库, 这样默认这个聊天助手所有的问答都会参考我们的知识库资料。

    7.1K52编辑于 2025-02-26
  • 个人电脑本地私有知识库:访答知识库全面解析与应用指南

    个人电脑本地私有知识库:访答知识库全面解析与应用指南什么是本地私有知识库本地私有知识库是指安装在个人电脑上的知识管理软件,所有数据都存储在本地设备而非云端服务器。 访答知识库本地私有知识库的杰出代表在众多知识库软件中,知识库凭借其出色的本地化特性和强大的功能,成为个人电脑用户的优选方案。 访答知识库的核心优势数据完全私有:所有数据存储在用户本地设备,无需上传到云端,极大提升了数据安全性。离线可用:不依赖网络连接,随时随地访问个人知识库本地私有知识库与其他知识管理工具的对比相比于云端知识库本地私有知识库如具有明显的隐私和安全优势。同时,与传统的笔记软件相比,知识库更注重知识的系统性和关联性,而不仅仅是简单的记录。 知识库作为本地私有知识库的优秀代表,为用户提供了安全可靠的知识管理解决方案。通过合理使用这类工具,我们不仅能够更好地组织和利用知识,还能在知识的积累和连接中激发新的创造力。

    34410编辑于 2025-12-14
  • 来自专栏JAVA

    利用DeepSeek-R1构建简单的本地知识库

    大家好,我是默语~ 今天带来一篇超级干货、满满实操经验的长文,教你如何利用 DeepSeek-R1 构建简单的本地知识库,以及如何用 DeepSeek 搭配 Kimi 在2分钟内生成32页PPT! 利用DeepSeek-R1构建简单的本地知识库 一 简介 初期接触 LLM 即大语言模型,觉得虽然很强大,但是有时候 AI 会一本正经地胡说八道,这种大模型的幻觉对于日常使用来说具有很大的误导性,特别是如果我们要用在生成环境下 其核心思想是:在生成答案前,先从外部知识库中检索相关信息,再将检索结果与用户输入结合,指导生成模型输出更可靠的回答✅。 向量模型: 用于将文本库进行切分、编码,转换进入向量库; AnythingLLM: 开源 AI 私有化应用构建平台,即将多个模型搭配起来,共同构建一个私有化应用; 利用强大的内置工具和功能快速运行本地 个人知识库的问答 四 总结 我们通过搭建本地模型,配合 Embedder 和向量数据库,可以直接构建一个隐私性更好、实时性更高的个人知识库 DAG。

    2.4K10编辑于 2025-02-18
  • 个人电脑本地私有知识库解决方案:访答知识库深度解析

    个人电脑本地私有知识库解决方案:访答知识库深度解析什么是本地私有知识库本地私有知识库是指将个人或组织的知识数据存储在本地计算机上,而非云端服务器。 访答知识库的核心优势作为一款优秀的本地知识库软件,具备以下核心优势:完全离线运行:所有数据存储在个人电脑,无需担心数据泄露高效知识组织:支持多种格式文档,智能分类和快速检索简洁易用界面:即使是技术小白也能快速上手使用跨平台兼容 :支持Windows、MacOS等多系统环境如何选择适合的知识库工具选择本地知识库时应考虑:数据安全性、易用性、扩展性和检索效率。

    21400编辑于 2025-11-29
  • 来自专栏大模型

    搭建本地知识库的操作方法(Ollama+AnythingLLM)

    在本篇经验中,我们所用到的大模型以 deepseek-r1:8b 和 nomic-embed-text为例,同时对于deepseek模型大小的选择需要充分考虑本地硬件配置,本篇经验所涉及的硬件配置为GPU8G 一些应用场景的感悟:搭建本地知识库其实作用还是挺大的,最适合公司内部署、有多年职场经验的或是创业中的小伙伴,可以很好的将手头上n多的资料管理起来,查询时再也不用在各个磁盘里各种翻阅了,即保证了材料的安全又能极大地提高了资料的使用率和办公效率 一、确认本地电脑配置这一步很关键,涉及到后面安装deepseek模型大小的选择,可以使用这个网站参考进行选择:https://lively-naiad-30128a.netlify.app/二、Ollama 进入命令行并执行以下命令,这一步可能会很慢,若过程中出现错误,重新拉取即可ollama run deepseek-r1:8b<若只想通过Ollama使用deepseek进行简单问答,则无需继续下面的操作>三、下载搭建本地知识库的 它无需编写代码或处理复杂的基础设施问题,适合快速搭建私有知识库和智能问答系统。

    4.4K11编辑于 2025-07-18
  • 来自专栏计算机视觉CV

    【玩转 GPU】搭建本地知识库--chatGLM+langchain(尝鲜篇)

    我们可以利用langchain+chatGLM在本地搭建自己的知识库,除了能搜索到文档这个功能,还能基于知识库内容和你进行对话问答~上文我们介绍了如何在本地部署chatGLM,本文就介绍如何搭建你的本地知识库问答系统 1 知识库搭建思路先抛开技术,假设现在知识库就在手边,我们是如何搜索想要的答案的?首先,把所有的文档看一遍,对文档进行分类;然后,找出和问题相关的文档内容;最后,对相关内容进行总结,得到答案。 1.2 langchain-ChatGLM流程介绍langchain-ChatGLM项目就是参考了Langchain的思路,我们一起看下langchain-ChatGLM搭建本地知识库的流程。 https://github.com/imClumsyPanda/langchain-ChatGLM/blob/master/README.md如上图,本地知识库搭建的流程如下:(1-2)准备本地知识库文档目前支持 2 知识库搭建步骤2.1 硬件需求首先确定机器性能是否满足要求,仍然使用ChatGLM-6B模型通过上文介绍,大家应该可以在本地跑通chatGLM-6B模型了。

    11.9K122编辑于 2025-07-18
领券