首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏小锋学长生活大爆炸

    【教程】通过Docker运行AnythingLLM

    转载请注明出处:小锋学长生活大爆炸[xfxuezhagn.cn] 如果本文帮助到了你,欢迎[点赞、收藏、关注]哦~ 官方教程:Local Docker Installation ~ AnythingLLM 1、先创建一个目录用于保存anythingllm的持久化文件: sudo mkdir /app sudo mkdir /app/anythingllm/ sudo chmod 777 /app/anythingllm / -R 2、然后运行Docker: docker pull mintplexlabs/anythingllm:latest export STORAGE_LOCATION="/app/anythingllm \ mintplexlabs/anythingllm:latest # 这个可选:--network=host 3、可以查看Docker log: docker logs anythingllm -f 也可以进入容器: docker exec -it anythingllm /bin/bash 4、浏览器访问:<ip>:3001 即可:

    1.1K10编辑于 2025-05-24
  • windows上anythingllm安装和简单使用教程

    1、安装 官方搜索Download AnythingLLM for Desktop对应自己操作系统下载即可,如果下载慢可以pan.baidu.com/s/1UWdpMoQCbpqxhqjDbEqt0w

    1.4K00编辑于 2025-07-16
  • 来自专栏小码农薛尧

    解锁AnythingLLM与DeekSeek:AI探索新征程

    今天,让我们走进 AnythingLLM 与 DeekSeek 的智能世界,探索如何利用它们打造属于自己的 AI 助手。 AnythingLLM 在人工智能的广阔天地中,AnythingLLM 犹如一颗璀璨新星,为我们打开了通向无限可能的大门。 作为一款全功能 AI 应用程序,AnythingLLM 以强大的兼容性与定制性著称。 集成 DeekSeek 当 AnythingLLM 遇上 DeekSeek,AI 的智能应用更进一步。 安装 AnythingLLM 访问 AnythingLLM 官网 下载,按需求配置模型存储路径。

    44110编辑于 2025-02-19
  • 来自专栏AI模型部署实践

    HAI DeepSeek R1 + AnythingLLM实现知识库

    一、环境说明 本环境基于高性能应用服务HAI-社区应用-DeepSeek AnythingLLM创建,支持进行知识库部署 AnythingLLM是一款一体化 AI 应用,支持与文档聊天,使用 AI 代理等 创建实例 首先创建一台高性能应用服务HAI实例,环境选择“社区应用-DeepSeek AnythingLLM”,其余配置按需选择。 2. 配置Ollama连接 创建完成后,点击“算力连接”,选择“AnythingLLM”。进入页面后,点击页面左下角“设置”按钮,进入设置页面。

    2.6K02编辑于 2025-02-12
  • 来自专栏大模型

    搭建本地知识库的操作方法(Ollama+AnythingLLM

    重新拉取即可ollama run deepseek-r1:8b<若只想通过Ollama使用deepseek进行简单问答,则无需继续下面的操作>三、下载搭建本地知识库的AnythingLLMStep1:下载安装AnythingLLM 下载地址如下:https://anythingllm.com/desktopAnythingLLM 简介 AnythingLLM 提供了适用于MacOs、Windows 和 Linux的安装包,可直接下载安装 Step2:配置AnythingLLM下面是AnythingLLM的启动界面,初次启动时直接点下一步即可如下图便是启动后的页面,左上角“新工作区”可以按类别新建工作区,可以按照不同的需求创建分类;左下角点击小扳手可进行设置 q=nomic(2)复制安装命令(3)拉取nomic进入命令行,并执行上一步复制的命令即可(4)拉取完成后重启AnythingLLM,并点击小扳手进入配置页面Step6:配置Embedder首选项此时Embeddings

    3.6K11编辑于 2025-07-18
  • 基于Ollama+AnythingLLM轻松打造本地大模型知识库

    ollama run llama3:8b 安装好后如下所示: AnythingLLM AnythingLLM简介 AnythingLLM 是 Mintplex Labs Inc. AnythingLLM下载 AnythingLLM是采用MIT许可证的开源框架,支持快速在本地部署基于检索增强生成(RAG)的大模型应用。 AnythingLLM内置了一个嵌入模型 all-Mini-L6-v2,无需任何配置。该模型也可以在HuggingFace下载。 AnythingLLM默认使用内置的向量数据库LanceDB。这是一款无服务器向量数据库,可嵌入到应用程序中,支持向量搜索、全文搜索和SQL。 此外,AnythingLLM集成了向量数据库LanceDB,通过工作区概念实现文档管理与共享。

    17.7K56编辑于 2024-05-03
  • 本地部署AnythingLLM知识库并通过Infortress App远程访问

    手机、平板、公司电脑都能像在本机一样,直接访问本地部署的AnythingLLM。整个过程不需要命令行,不用碰代码,纯图形化界面,新手小白也能上手! 只需以下3步:安装anythingLLM软件1、首先打开anythingLLM官网,根据你电脑的操作系统(Windows/macOS/Linux)选对应版本,之后一键下载。 2、打开 AnythingLLM 应用程序,等待其完全启动。启动后,您将看到主界面。 2、配置AnythingLLM打开安装好的AnythingLLM软件,进入设置页面。找到“API密钥”选项,点击“创建新密钥”,根据提示创建密钥,并复制生成的密钥。 现在,你可以直接在手机上与本地部署的AnythingLLM对话。

    1.1K10编辑于 2025-05-14
  • 来自专栏山行AI

    创建与任何事物聊天的私人ChatGPT-AnythingLLM

    AnythingLLM AnythingLLM: 与任何事物聊天的私人ChatGPT。 一款高效、可定制、开源且适用于企业的文档聊天机器人解决方案。 *AnythingLLM默认使用由LanceDB[17]提供支持的内置向量数据库 *AnythingLLM默认在实例上私有嵌入文本 了解更多[18] 使用Docker(简单!) docker pull mintplexlabs/anythingllm:master export STORAGE_LOCATION="/var/lib/anythingllm" && \ mkdir :master 打开 http://localhost:3001[21] 你现在正在使用AnythingLLM! 我们使用这些信息来帮助我们了解AnythingLLM的使用情况,帮助我们优先考虑新功能和错误修复的工作,并帮助我们提高AnythingLLM的性能和稳定性。

    4.3K10编辑于 2023-12-19
  • 来自专栏从头开始学习测试开发

    AnythingLLM —— 企业级私有知识库的瑞士军刀

    二、AnythingLLM vs. DIY RAG vs. 商业 SaaS:为什么它是最佳选择? anythingllm \ -p 3001:3001 \ -v $(pwd)/anythingllm_data:/app/server/storage \ -e STORAGE_DIR="/ app/server/storage"\ mintplexlabs/anythingllm:latest 这条命令会以后台模式启动 AnythingLLM,并将所有数据(用户、文档、向量)持久化到 anythingllm_data 目录。 部署 AnythingLLM,就是为你的团队装上一个永不疲倦、无所不知的“第二大脑”。

    51210编辑于 2026-01-22
  • 来自专栏测试开发技术

    DeepSeek+AnythingLLM,搭建本地AI知识库,真的太香了!三分钟搞定智能助手,小白也能轻松上手!

    今天揭秘一个“真香”组合——DeepSeek+AnythingLLM,轻松搭建本地知识库,AI秒变你的“第二大脑”! 2、 为什么选DeepSeek+AnythingLLM? 三步搞定:下载AnythingLLM(免费)→绑定DeepSeek API→拖拽上传文档,连小白都能轻松上手。 3、安装AnythingLLM 如果你对本地知识库有强烈需求,可以安装以下这款应用:AnythingLLM。 :https://anythingllm.com/desktop AnythingLLM 适用于 MacOS、Linux 和 Windows 操作系统,也可以使用 Docker 安装。 6、测试验证 到此,利用DeepSeek+AnythingLLM搭建本地AI知识库就搞定了! 4、小结 DeepSeek+AnythingLLM 的出现,为知识库的构建与应用带来了革命性的变革。

    4.1K10编辑于 2025-02-21
  • 来自专栏《Cloud Studio》

    在Cloud Studio上塔建DeepSeek+AnythingLLM环境的知识库

    现在,CloudStudio 在 DeepSeek-R1 CPU 模板里直接内置了知识库,还支持 AnythingLLM 模式 。无需繁琐搭建,只要打开就能用,轻轻松松就能拥有专属自己的私有知识库。 》马上开始 步骤1 :进入 Cloud Studio DeepSeek CPU 模板,唤起内置Open-WebUI 或 AnythingLLM 组件 步骤 2:AnythingLLM 构建知识库 - 新建

    24610编辑于 2025-03-17
  • 来自专栏AI模型部署实践

    高性能应用服务 HAI - DeepSeek-r1 671B满血版

    AnythingLLM 项目容器 实例创建后,会自动运行上述两个容器。由于 671B 模型较大,首次加载需1小时左右完成,加载完成后方可开始使用。 ], "temperature": 0.7 }' \ "http://127.0.0.1:6399/v1/chat/completions" 2.2 AnythingLLM使用指引 AnythingLLM 提供了可视化模型交互页面,您可使用AnythingLLM快速测试体验模型效果。 实例创建完成后,会自动拉起 AnythingLLM。您可使用实例公网ip:6889端口的方式,连接 AnythingLLM。 启动后,需先进行简单的初始化配置。

    1.1K10编辑于 2025-03-04
  • 手把手教你:基于 AnythingLLM API 训练并调用本地知识库

    本文将以 Ollama 和 AnythingLLM 为核心工具,详细介绍如何通过API实现企业本地知识库的训练与调用,并提供完整的Python代码示例及执行效果分析,助力企业构建安全高效的私有化知识管理系统 1.2 AnythingLLM与Ollama简介 Ollama:开源本地大模型管理工具,支持一键部署Llama、Gemma等模型,提供REST API接口。 AnythingLLM:企业级知识库管理平台,支持多格式文档上传、向量数据库集成及灵活的API调用,适用于构建私有化问答系统。 执行嵌入操作(文档上传): # Python调用AnythingLLM文档上传API import requests headers = { "Authorization 三、API调用与问答系统开发 3.1 生成API密钥 在AnythingLLM设置界面创建API Key,权限设置为Full Access。

    3.2K10编辑于 2025-05-30
  • 来自专栏大语言模型

    纯本地AI知识库搭建:DeepSeek-R1+AnythingLLM全流程

    本文基于DeepSeek-R1开源模型与AnythingLLM文档处理工具,构建一套私有化智能问答系统,30分钟即可让电脑变身专业分析师。 搭配AnythingLLM的文档解析引擎,可实现200页PDF拆知识卡片、跨文档关联分析、结构化输出(表格/协议生成)等高级功能,形成"模型+工具"的闭环解决方案。 工具链配置 下载AnythingLLM后,在设置界面完成三要素配置: LLM提供商:Ollama(指定DeepSeek-R1) 向量数据库:默认LanceDB 嵌入引擎:Ollama(选用nomic-embed-text

    1.6K10编辑于 2025-08-07
  • 来自专栏Reinvent Data Science

    RAG 新路径!提升开发效率、用户体验拉满

    AnythingLLM 作为一个全栈应用,极大简化了从文档到对话式接口的转换过程。 AnythingLLM 的特点与能力 AnythingLLM 作为一个创新的开源全栈框架,旨在解决大多现有的 RAG 框架忽视的问题。它提供了一个更为简洁和高效的解决方案,以满足复杂的信息处理需求。 值得关注的是,AnythingLLM 广泛支持了市面上常见的商业和开源的大型语言模型(LLM)、嵌入模型以及向量数据库。 Milvus:进一步强化 AnythingLLM 全栈框架的能力 Milvus 的加入能够进一步强化 AnythingLLM 全栈框架的能力。 搭建 RAG 系统 为了帮助大家快速体验 AnythingLLM ,我们准备了一份视频演示如何借助 AnythingLLM 的线上托管服务(https://useanything.com) 和 Zilliz

    69510编辑于 2024-02-22
  • HAI部署DeepSeek+AnythingLLM构建你的法律知识库

    搭建anythingllm这里我们进入anythingllm官网,点击Download for desktop进入下载界面。这里我选择下载x64版本。我们这里安装一下,等待安装完成。 本期文章主要就是介绍从ollama到anythingllm的搭建。同时也欢迎各位朋友多多使用腾讯云HAI产品进行体验。

    2K81编辑于 2025-02-08
  • 来自专栏码上遇见你

    DeepSeek搭建个人知识库教程

    这种方法结合了 AnythingLLM 和 DeepSeek R1,不仅操作简单,而且知识检索效果出色。 工具简介 AnythingLLM:这是一个知识库管理的前端工具,提供从上传知识、向量化数据到检索增强生成(RAG)的全流程服务。它完全开源且免费,非常适合个人用户。 安装 AnythingLLM 下载 AnythingLLM 地址:https://anythingllm.com/ AnythingLLM 是一个开源且免费的工具,采用 MIT 许可证,支持文本和多模态大语言模型 AnythingLLM 拥有不断增长的插件和集成生态系统,可以增强其在应用和组织中的功能。 设计上,AnythingLLM 默认是私密的,所有数据都存储并在运行该工具的本地机器上处理。 AnythingLLM Desktop 并不是 SaaS 服务,用户无需注册即可在本地使用完整的工具套件。

    1.3K00编辑于 2025-03-04
  • 来自专栏程序那些事儿

    从信息堆积到知识协作,AnythingLLM改变了我管理知识笔记的方式

    就在这个思考的节点,我遇到了 AnythingLLM。 什么是 AnythingLLM? 一句话笔记总结:“它是一个可以本地运行的 AI 助手,能与你的所有笔记、文档、代码进行深度对话。” 文档智能化:让 PDF 和 Word“开口说话” 我将几千份之前写的文章和笔记拖入 AnythingLLM,它自动嵌入并建立索引。之后我只需问一句: “请总结这些笔记内容,找出哪些笔记是笔记好用。” 我的笔记架构:AnythingLLM + Obsidian + Git 我将 Obsidian 的 Markdown 笔记库接入 AnythingLLM,配合 Git 做版本管理。 未来,我希望它能: 自动总结我的日常笔记,生成周报 参与问题的讨论,提出正向反向观点 甚至成为我写作时的“编辑搭档” 写在最后 AnythingLLM 就和谷歌的 notebooklm 一样,是一款未来的

    60810编辑于 2025-11-13
  • 来自专栏开源项目搭建

    基于Ollama+DeepSeek+AnythingLLM轻松投喂打造本地大模型知识库

    基于Ollama+DeepSeek+AnythingLLM轻松投喂打造本地大模型知识库大家好,我是星哥,上一篇文章星哥介绍了本地部署DeepSeek的方法:《简单3步部署本地国产DeepSeek大模型》 AnythingLLM将您的文档划分为称为workspaces (工作区)的对象。 AnythingLLM下载与安装下载: https://anythingllm.com/desktopAnythingLLM也提供 macos、Window、Linux系统的下载根据自己的系统下载,我这边下载 Windows下载文件之后点击安装AnythingLLM配置AnythingLLM默认通过Ollama来使用LLama2 7B,Mistral 7B,Gemma 2B等模型,也可以调用OpenAI、Gemini 结束通过将 Ollama、DeepSeek 和 AnythingLLM 三者结合,你可以轻松地构建一个本地大模型知识库。

    20.4K912编辑于 2025-02-08
  • 来自专栏人工智能

    【人工智能】如何借助DeepSeek R1打造个人知识库?

    在DeepSeek安装完成后,还需要下载并安装AnythingLLM。 这里我们可以通过 ollama run deepseek-r1:1.5b 运行 deepseek-r1:在AnythingLLM中配置IP地址:打开AnythingLLM软件,点击界面左下角的“扳手”图标进入设置页面 同时,它与AnythingLLM等应用程序配合默契,为用户提供高效的知识查询和问答服务。 在AnythingLLM界面的左下角,点击“扳手”图标,进入设置页面。 当用户在AnythingLLM的对话页面输入问题时,AnythingLLM会借助这个IP地址,将问题准确无误地传递给DeepSeek。

    3.5K89编辑于 2025-02-18
领券