首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏leehao

    Ollama整合open-webui

    open-webui open-webui Open WebUI is an extensible, feature-rich, and user-friendly self-hosted WebUI 环境要求 熟练使用python Node.js >= 20.10 Python >= 3.11 步骤 克隆代码 git clone https://github.com/open-webui/open-webui.git cd open-webui/ 拷贝.env文件,可鼠标右键复制粘贴 # Copying required .env file cp -RPp .env.example .env 构建前端页面 #

    43910编辑于 2025-02-11
  • 来自专栏Java Tale

    open-webui镜像启动失败

    COMMAND CREATED STATUS PORTS NAMES 948e39d916a7 ghcr.io/open-webui /open-webui:main "bash start.sh" 7 seconds ago Up 7 seconds 0.0.0.0:11433->8080/tcp ollama-webui 看了日志才知道,原来是open-webui启动时期需要首先在线安装transformers库,但是huggingface.co对于国内来说是经常不可访问):   于是赶紧求助bing,找到一个镜像网站, :11434/api \ -e HF_ENDPOINT=https://hf-mirror.com \ -e WEBUI_SECRET_KEY=12345678 \ ghcr.io/open-webui /open-webui:main 本文由 小马哥 创作,采用 知识共享署名4.0 国际许可协议进行许可 本站文章除注明转载/出处外,均为本站原创或翻译,转载前请务必署名

    1.4K10编辑于 2024-08-15
  • 来自专栏LLM

    Open-WebUI 接入腾讯混元大模型

    我尝试使用openai协议的api key接入openwebui失败后,由生此文。

    98711编辑于 2025-01-10
  • 来自专栏用户2141488的专栏

    容器环境下部署Open-webui、One-api、Ollama、Deepseek

    Open-webui 是一种友好的 Web 用户界面,专为大语言模型(LLM)设计,支持包括 Ollama 和 OpenAI 兼容的 API。 total_tokens":35}} #### api请求工具(如postman、apipost等等,这里我用的是apipost工具) #### 查看 token 消耗 可以看到上面有2次请求,已经消耗了一些token Open-webui docker run --name open-webui -d -p 8080:8080 --add-host=host.docker.internal:host-gateway -v /home /ubuntu/data/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui webUI就能识别到这个模型(为了测试效果,11435端口对应的模型是deepseek-r1:7b) #### 同理,加上配置了One-api 鉴权的模型再来看看效果 总结 通过上面的部署我们可以看到,Open-webui

    2.2K11编辑于 2025-03-20
  • 来自专栏机器学习与统计学

    最好用的大模型chatbot,离线部署,用户体系打通

    市面上大模型 chatbot 无数,我最喜欢的一直都是 Open WebUI 因为它可以完全离线部署、支持OpenAI 兼容 API,并配备内置推理引擎用于 RAG https://github.com/open-webui /open-webui 我还很喜欢它的模型对比功能,多个模型对同一问题同时输出结果 最良心的是,这个开源项目还支持身份认证,可以直接对接 LDAP 顺带说一句,Qwen 的官方网页就是基于 Open WebUI 修改的 离线部署 安装 openwebui 是我见过所有 chatbot 中最简单的了 # 安装 pip install open-webui # 启动 open-webui serve 浏览器打开 /open-webui:main docker save open-webui/open-webui:main > open-webui.tar #镜像传入内网后加载 docker load -i open-webui.tar #运行open-webui docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui

    48910编辑于 2025-10-11
  • 来自专栏小陈运维

    使用Ollama部署deepseek大模型

    :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 2.如果Ollama在另一台服务器上 :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 要使用Nvidia GPU :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda 3.仅用于OpenAI :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 4.带有捆绑Ollama open-webui --restart always ghcr.io/open-webui/open-webui:ollama 这两个命令都支持内置、简单的安装Open WebUI和Ollama

    2.6K20编辑于 2025-02-04
  • 来自专栏小陈运维

    使用Ollama部署deepseek大模型

    :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main2.如果Ollama在另一台服务器上 :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main要使用Nvidia GPU :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda3.仅用于OpenAI API :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 4.带有捆绑Ollama :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama 仅CPU:如果您不使用

    3.3K12编辑于 2025-01-26
  • 来自专栏k8s技术圈

    LLM On Kubernetes

    为了解决这个问题,我们可以使用一个 open-webui 的项目,它提供了一个漂亮的界面,可以让您更轻松地部署模型。 到 Kubernetes 很简单,因为 Open-WebUI 项目提供了一个 Helm Chart,可以让我们更轻松地部署 Ollama 和 Open-WebUI。 的 IP 和 NodePort 来访问 Open-WebUI 项目,当然你也可以配置 Ingress 来访问。 然后我们可以使用 Helm 安装这个 charts 包: helm upgrade --install ollama open-webui/open-webui -f myvalues.yaml --create-namespace 第一次使用的时候需要注册一个账号,然后我们就可以登录到 Open-WebUI 项目主页了。 如果你有 ollama 在其他地方运行,我们可以将其添加为另一个连接。

    68410编辑于 2024-07-20
  • 来自专栏开源项目搭建

    简单3步部署本地国产大模型DeepSeek大模型

    /open-webui参考: https://github.com/open-webui/open-webui? /backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda现在我们打开终端,比如powershell :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main要运行支持 Nvidia :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda如果您仅使用 OpenAI data --name open-webui --restart always ghcr.io/open-webui/open-webui:main如果仅适用于 CPU,不使用 GPU,请改用以下命令:

    6.1K33编辑于 2025-02-06
  • 来自专栏机器学习与统计学

    本地运行大模型,复刻ChatGPT聊天界面

    这里老章再推荐一个好用的工具,open-webui: https://github.com/open-webui/open-webui 它是一个仿照 ChatGPT 界面,为本地大模型提供图形化界面的开源项目 open-webui用起来也很方便,最极简的安装、运行方法是使用 Docker docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 我直接安装了docker-desktop,下载后一路下一步即可:https://www.docker.com/products/docker-desktop/ open-webui还提供了用户注册与登陆功能 ,首次使用需要先注册一个账号: 登陆后主页面如下,在这里可以选择我们刚刚运行起来的大模型,我的电脑性能太差,这里还拿 qwen 0.5b 做演示 然后就可以直接与本地大模型聊天了 open-webui

    1.2K10编辑于 2024-05-11
  • 来自专栏WalkingCloud

    RockyLinux9.5下使用ollama搭建本地AI大模型DeepSeek

    "bip": "10.112.0.1/24" } EOF systemctl enable docker.service systemctl restart docker.service 运行open-webui docker run -d -p 80:8080 -e OLLAMA_BASE_URL=http://192.168.31.98:11434 -v /data/open-webui:/app/backend /data --name open-webui --restart always ghcr.io/open-webui/open-webui:main docker logs -f open-webui 等待出现INFO: Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)的日志时 即可浏览器打开open-webui 需要等待一段时间后 ,出现如下界面 设置好账号密码后 即可正常用open-webui调用用本地的deepseek AI大模型 接下来进行对话 可以看到思考时CPU已经打满了,由于是测试,未使用GPU显卡 最终的效果如下

    1.1K00编辑于 2025-02-08
  • 大模型——如何本地跑通一个大模型

    Models:https://ollama.com/libraryopenwebui:https://openwebui.com/openwebui GitHub:https://github.com/open-webui /open-webui安装ollama访问 ollama 网站,根据自身的平台来下载应用,下载后正常安装即可,安装完成后运行命令来拉取模型,模型可访问 ollama Models 选择相应的模型后,会有对应的命令 docker 来运行 openwebui,运行命令如下:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main运行成功后,我们访问 127.0.0.1

    68410编辑于 2024-09-23
  • 来自专栏stark张宇

    新手快速安装部署本地DeepSeek

    Open Web Ui第二种方式使用Open Web Ui方式进行部署,首先你要安装Docker,用容器的方式来进行安装和访问,Github地址:https://github.com/open-webui /open-webui 安装命令是:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main本地访问http://localhost

    93144编辑于 2025-02-15
  • 无需公网IP,内网穿透远程访问Ollama+Gemma3模型+Open WebUI教程

    2.打开命令提示符拉取Open WebUI Docker镜像docker pull ghcr.io/open-webui/open-webui:main3.启动容器并绑定Ollamadocker run-d \ -p 3000:8080 \ -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \ -v open-webui:/app/backend/data \ --name open-webui \ ghcr.io/open-webui/open-webui:main-p 3000:8080:本地开放端口为3000OLLAMA_BASE_URL指向你主机上的

    1.8K20编辑于 2025-06-30
  • 来自专栏运维知识

    使用Ollama和Open WebUI管理本地开源大模型的完整指南

    目录 ✨️Open-WebUI介绍 优点 部署教程 1.打开官网地址 2.安装Docker 3.Open WebUI下载 ️‍️功能介绍 1.AI编程 2.聊天历史 3.自定义Web的界面 ✨️Open-WebUI :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 参数详解 docker -v open-webui:/app/backend/data: 将本地的 open-webui 卷映射到容器内的 /app/backend/data 目录。 --name open-webui: 为容器指定一个名称 open-webui,以便于管理和识别。 ghcr.io/open-webui/open-webui:main: 使用来自 GitHub 容器注册表(GitHub Container Registry)的 open-webui 镜像,并指定使用

    31.4K32编辑于 2024-06-03
  • 来自专栏linux 自动化运维

    ubuntu22 编译安装docker,和docker容器方式安装 deepseek 和 webUI 配置模型

    # 使用curl 问模型 docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama # webui : 使用 GPU计算 docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

    80030编辑于 2025-02-17
  • 来自专栏GPUS开发者

    在Jetson上玩转大模型Day6:Ollama的Webui智能助手

    在https://github.com/open-webui/open-webui這個項目與Ollama項目能搭配得天衣無縫,只要在前面ollama容器執行的狀況下(表示ollama server已啓動 /open-webui:main 這裏要用到 ghcr.io/open-webui/open-webui:main 鏡像文件,如果系統裏面沒有這個鏡像文件,就會自動下載。 開始執行的信息如下: 現在我們打開第3個終端,執行以下指令檢查目前啓動的容器: $ docker ps 應該要看到類型下面截屏的信息,目前已經有兩個正在執行的容器,分別由ghcr.io/open-webui /open-webui與dustynv/ollama:r36.2.0鏡像文件所生成,如果有缺少的話,後面的步驟就無法正常執行。 在open-webui容器執行的信息中,會看到一行“INFO: Uvicorn running on http://0.0.0.0:8080 (Press CTRL+C to quit)”信息:

    46710编辑于 2024-10-29
  • deepseek本地部署简要教程

    deepseek-r1:1.5bdocker安装openwebuidocker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main访问:http://localhost

    88320编辑于 2025-02-13
  • 来自专栏大模型

    Ollama 安装与使用指南笔记

    (六)WebUI 可视化对话界面部署 Docker 部署可视化对话界面: docker pull ghcr.io/open-webui/open-webui:main docker run -d :11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main 解释 -d 表示以后台模式运行容器。 -v /usr/local/app/ollama/open-webui:/app/backend/data 表示将容器内的 /app/backend/data 目录挂载到宿主机的 open-webui "local" } --name open-webui 表示给容器命名为 open-webui。 ghcr.io/open-webui/open-webui:main 是要运行的 Docker 镜像。

    6.7K11编辑于 2024-12-31
  • 来自专栏架构师成长之路

    大模型llm:Ollama部署llama3学习入门llm

    :/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 查看网关:查找标记为default /backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 要使用 Docker 安装 Open-webui ,您可以创建一个 Docker 容器,并在其中运行 Open-webui 服务。 以下是安装 Open-webui 的步骤: 拉取 Open WebUI 镜像: 首先,您需要从 Docker Hub 上拉取 Open WebUI的镜像。 这将在后台运行一个名为 “open-webui” 的容器,并将容器内的端口 3000 映射到宿主机的端口 3000。

    6.8K00编辑于 2024-05-24
领券