首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏运维小路

    DeepSeek-Open WebUI部署

    前面部署了vLLM版本以后,访问它比较麻烦。如何才能更好的实现访问呢,这个就是我们今天要讲的Open WebUI,它可以向我们使用官方DeepSeek一样直接在网页进行对话。 Pipelines 插件支持:使用 Pipelines 插件框架将自定义逻辑和 Python 库无缝集成到 Open WebUI 中 1.创建conda 虚拟环境 conda create --name openwebui python=3.12.9 2.安装Open WebUI pip install open-webui -i https://mirrors.aliyun.com/pypi/simple / 3.启动Open WebUI # 禁用OLLAMA API export ENABLE_OLLAMA_API=False # 设置OpenAI API的基础URL为本地服务器 export OPENAI_API_BASE_URL WebUI open-webui serve 4.配置Open WebUI 5.开始提问

    1.6K00编辑于 2025-03-04
  • 来自专栏运维小路

    DeepSeek-容器化(Docker)部署vLLM和Open WebUI

    前面小节我们通过conda创建虚拟Python环境,实现vLLM和OpenWebUI的配置,但是这个安装部署会非常繁琐非费时间。我们今天将使用容器来部署。 apt-get update apt-get install -y nvidia-docker2 systemctl restart docker 3.下载镜像 docker pull ghcr.io/open-webui 5.运行Open WebUI容器 docker run -d \ --name openwebui-container \ --network host \ --gpus all \ - http://localhost:8000/v1 \ -e OPENAI_API_KEYS=OPENWEBUI123 \ -e USE_CUDA_DOCKER=true \ ghcr.io/open-webui /open-webui:cuda 6.验证DeepSeek #Open WebU访问地址,先创建管理员,然后进入对话界面, http://x.x.x.x:8080

    8.3K10编辑于 2025-03-06
  • 来自专栏leehao

    Ollama整合open-webui

    open-webui open-webui Open WebUI is an extensible, feature-rich, and user-friendly self-hosted WebUI For more information, be sure to check out our Open WebUI Documentation. 环境要求 熟练使用python Node.js >= 20.10 Python >= 3.11 步骤 克隆代码 git clone https://github.com/open-webui/open-webui.git cd open-webui/ 拷贝.env文件,可鼠标右键复制粘贴 # Copying required .env file cp -RPp .env.example .env 构建前端页面 #

    54510编辑于 2025-02-11
  • 来自专栏Java Tale

    open-webui镜像启动失败

    COMMAND CREATED STATUS PORTS NAMES 948e39d916a7 ghcr.io/open-webui /open-webui:main "bash start.sh" 7 seconds ago Up 7 seconds 0.0.0.0:11433->8080/tcp ollama-webui 看了日志才知道,原来是open-webui启动时期需要首先在线安装transformers库,但是huggingface.co对于国内来说是经常不可访问):   于是赶紧求助bing,找到一个镜像网站, 完整的命令行如下: docker run -d \ --restart unless-stopped \ --name ollama-webui \ -p 11433:8080 \ =12345678 \ ghcr.io/open-webui/open-webui:main 本文由 小马哥 创作,采用 知识共享署名4.0 国际许可协议进行许可 本站文章除注明转载

    1.6K10编辑于 2024-08-15
  • 来自专栏前端必修课

    Open WebUI 文本效率分析工具

    今天,我要分享一个我为 Open WebUI 开发的实用小工具 —— 一个能够实时统计文本生成效率的 Python 函数。 import BaseModel, Field from typing import Optional, Callable, Any, Awaitable import re import time from open_webui.utils.misc

    40310编辑于 2025-03-07
  • 来自专栏用户2141488的专栏

    容器环境下部署Open-webui、One-api、Ollama、Deepseek

    Open-webui 是一种友好的 Web 用户界面,专为大语言模型(LLM)设计,支持包括 Ollama 和 OpenAI 兼容的 API。 (官网,github) 部署环境 系统:Ubuntu 22,8C16G,50G存储硬盘,香港地域云主机 选择香港地域的机器主要是为了pull镜像方便,此次部署只是对流程做介绍,不考虑性能,要好的性能选gpu /ubuntu/data/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui 端口,加上外部链接后webUI就能识别到这个模型(为了测试效果,11435端口对应的模型是deepseek-r1:7b) #### 同理,加上配置了One-api 鉴权的模型再来看看效果 总结 通过上面的部署我们可以看到 ,Open-webui 提供了一个非常友好的web交互界面,让用户可以不用懂代码、不用懂开发就能体验私有化大模型,One-api 提供了一个非常优秀的安全鉴权措施,2个工具都是拿来开箱即用,非常方便;

    2.6K11编辑于 2025-03-20
  • 今日高质量开源项目:Open WebUI (原 Ollama WebUI)

    项目简介OpenWebUI是一个功能丰富、可自托管的ChatGPT式Web界面,专门为本地或私有化部署的大语言模型(如通过Ollama运行的Llama3、Qwen等)提供现代化交互体验。 部署极其简单:一条Docker命令即可运行,几乎无门槛。 一分钟极速部署#使用Docker一键启动(假设已安装Ollama并拉取模型)dockerrun-d-p3000:8080\-vopen-webui:/app/backend/data\--nameopen-webui \--restartalways\ghcr.io/open-webui/open-webui:main#访问http://localhost:3000#首次登录创建账户,然后在设置中连接本地Ollama 项目地址GitHub:https://github.com/open-webui/open-webui官网:https://openwebui.com/总结:个人AI基础设施的成熟标志OpenWebUI

    4.6K31编辑于 2026-01-27
  • 来自专栏轩辕镜像

    Docker 部署 Open WebUI + Ollama 完整教程(Windows Linux 通用)—— 打造自己的本地OpenAI

    正式部署:OpenWebUI+Ollama步骤拆解部署全程用Docker命令操作,步骤清晰,Windows和Linux仅命令格式有细微差异(已单独标注),跟着做就能成功。 拉取OpenWebUI镜像:展开代码语言:BashAI代码解释dockerpulldocker.xuanyuan.run/openwebui/open-webui:latest拉取Ollama镜像:展开代码语言 /open-webui:latestWindows系统(PowerShell执行)展开代码语言:PowerShellAI代码解释dockerrun-d--nameopen-webui--networkai-network-p3002 /openwebui/open-webui:latest关键命令说明:\-p3002:8080:将OpenWebUI的8080端口映射到本地3002端口,后续通过localhost:3002访问;\-eOLLAMA 正常情况下,会显示两个容器的运行状态,如下所示(简化版):展开代码语言:TXTAI代码解释CONTAINERIDIMAGEPORTSxxxxxxxdocker.xuanyuan.run/openwebui/open-webui0.0.0.0

    24820编辑于 2026-04-25
  • 来自专栏LLM

    Open-WebUI 接入腾讯混元大模型

    25.1.10记:Open WebUI docker容器更新可能会导致腾讯云官方提供的Python SDK 丢失,需要重新安装环境(参照步骤1.b)。 1. 前置要求         a. 打开Open WebUI的控制台,安装腾讯云官方提供的Python SDK                i. 我部署的设备是unraid,点击图标,然后点击WebUi下的Console,进入控制台(里面是Linux的terminal),复制并执行下面的命令。           前往Open WebUI社区,选择function然后搜索Tencent HunyuanAI,或者直接点击这里                 ii. 点击get,输入自己Open Webui的地址就直接跳往安装。         b. 填写密钥                 i. 点击齿轮按钮依次输入刚刚获取的密钥就行         c.

    1.1K11编辑于 2025-01-10
  • 来自专栏开发三两事

    llama3&open-webui快速实现本地模型搭建

    running就表示运行成功了 docker桌面下载 下载地址:https://www.docker.com/products/docker-desktop/ 下载完成后启动运行,可以看到如下界面 搜索框搜open-webui 没有模型还不能开始问答 模型下载 ollama提供了很充足的模型下载 点击这里可以找到很多有用的模型 可以搜索自己想要的模型测试,不过新出的llama3对中文支持还不是太好,大家可以直接搜索 llama3-8b-chinese-chat-ollama-q8 这个模型是对llama3进行了中文微调后的模型,相对对中文比较友好 一般小型模型也得几个G,下载需要一会时间等待,下载完成在webui首页就可以选择开始使用了; 本地模型使用 可以看到首页下拉框中可以选择我们已经下载好的模型 ,不过一般个人电脑也仅仅是运行起来,速度比较慢,只能满足下自己日常的好奇心,真正要投入生产还是需要一个不错的机器才行,自己也可以下一些响应速度更快的mini模型测试 接口调用的使用方式 以上展示了使用open-webui

    2.4K50编辑于 2024-04-29
  • 来自专栏数据仓库技术

    通过ollama+open webui可视化运行gemma

    今天给大家介绍一个本地运行大模型的工具ollama,能够让我们方便地运行各种大模型,Open Webui 界面化的管理使用各种大模型。 1.安装ollama 1.1 什么是ollama ollama是专为在Docker容器中部署LLM而设计的,简化了部署和管理流程,目前它支持的模型如下: Model Parameters Size Download 2.3 安装Open Webui 执行docker命令安装 docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 安装完成后,您可以通过http://localhost:3000访问 Open WebUI 至此安装完成 3.Open Webui 运行模型 界面如下 依次选择模型,选择对应的模型后,在3处输入内容即可

    9.8K31编辑于 2024-03-06
  • 从零开始构建强大 AI 对话系统:ollama + deepseek + open-webui 部署教程(Docker 版)!

    手把手教你从零开始构建强大 AI 对话系统:ollama + deepseek + open-webui 完整部署教程(Docker 版)。 open-webui open-webui 是一个开源的 Web 界面,用于与 AI 模型进行交互。通过它,用户可以通过浏览器与部署的 AI 模型进行实时对话,查看模型的输出结果。 open-webui 接下来,我们将部署 open-webui,它是一个用于与 AI 模型交互的 Web 界面。 ollama + deepseek + open-webui 这里聊聊部署过程中遇到的一些问题和解决方案。 然后,在一台小米笔记本上部署测试,笔记本配置为 i5-7200U(4核),8GB 内存,SSD 硬盘。

    65010编辑于 2026-03-24
  • 来自专栏ceshiren0001

    企业AI落地开源五剑客:Open-WebUI、Dify、RAGFlow、FastGPT、n8n

    n8n:智能流程自动化中枢核心价值:开源可控、私有化部署、模块化扩展,让企业以最小成本实现AI能力闭环。 加速) docker run -d -p 3000:8080 --gpus all ghcr.io/open-webui/open-webui:cuda适用场景:内部AI助手、教育培训系统、安全对话终端 场景2:自动化合规审计RAGFlow:解析合同/财报,提取关键条款Dify:匹配合规规则,生成风险报告n8n:触发审批流程,通知责任人选型指南:五步锁定最佳工具明确需求:交互界面 → Open WebUI 知识处理 → RAGFlow流程自动化 → n8n快速生成内容 → FastGPT全流程开发 → Dify评估资源:轻量级场景:Open WebUI + FastGPT(4核8G)复杂文档处理:RAGFlow :交互层(Open WebUI)生成层(FastGPT/Dify)知识层(RAGFlow)执行层(n8n)

    2.4K10编辑于 2025-07-16
  • 来自专栏码匠的流水账

    使用open-webui+deepseek构建本地AI知识库

    序本文主要研究一下如何使用OpenWebUI+deepseek构建本地AI知识库步骤拉取open-webui镜像docker pull ghcr.io/open-webui/open-webui:maindocker /open-webui-data:/app/backend/data来挂载数据看日志是有报错ERROR [open_webui.routers.openai] Connection error: Cannot ] get_all_models()INFO [open_webui.routers.ollama] get_all_models()INFO [open_webui.routers.ollama] [open_webui.routers.retrieval] adding to collection web-search-d8b3e7117d85062f511572e3004ad60997448e8ed9e9b7e3bac5 latest工作空间 --> 知识库,点击+号上传文档使用时需要在聊天框通过#来指定知识库设置 --> 管理员设置 --> 数据库 --> 下载数据库,可以导出sqlite数据小结整体体验是docker部署起来

    4.9K10编辑于 2025-02-18
  • 来自专栏轩辕镜像

    玩转本地大模型:Ollama + Open WebUI简明使用指南

    以中文微调过的 Llama2-Chinese 7B 模型为例,下述命令会下载接近 4GB 的 4-bit 量化模型文件,需要至少 8GB 的内存进行推理,推荐配备 16GB 以流畅运行。 就 Ollama GUI 而言,根据不同偏好,有许多选择: Web 版:Ollama WebUI 具有最接近 ChatGPT 的界面和最丰富的功能特性,需要以 Docker 部署; Ollama WebUI 而作为价值约 8 美元/月的 Raycast AI 的平替,Raycast Ollama 实现了 Raycast AI 的绝大多数功能,且随着 Ollama 及开源模型的迭代,还将支持多模态等 Raycast DespSeek-LLM; Yi 系列,零一万物团队推出,有支持 20 万上下文窗口的版本可选; 如果碰巧财力雄厚,不妨试试法国明星初创团队 Mistral 最新推出的首个开源混合专家 MoE 模型 Mixtral-8x7B

    16.6K12编辑于 2024-09-29
  • 来自专栏Mintimate's Blog

    看看 Ollama 和 Open WebUI如何配合

    本文将介绍如何在 macOS 上部署 Ollama 和 Open WebUI,实现本地运行 DeepSeek 大模型。 最后的效果:部署思路目前本地部署 DeepSeek-R1 的途径很多,主流的方法是使用 Ollama + Open WebUI 或者 Ollama + ChatbotUI;我个人是觉得 Ollama + Open WebUI 更加实用,所以我们就部署这两个“小家伙”吧:Ollama: 一个轻量级、可扩展的框架,用于在本地计算机上构建和运行语言模型。 Open WebUI 部署同样,有两种方法可以部署 Open WebUI,分别是 Docker 安装和 Python pip 安装。既没有 Docker,也不想使用 Python? open-webui# 启动 Open WebUIopen-webui serve如果你想使用 Docker 部署 Open WebUI,那么可以参考 Open WebUI 官方文档。

    2.8K01编辑于 2025-02-18
  • 来自专栏轩辕镜像

    NGINX WEBUI Docker 容器化部署指南

    本文将详细介绍NGINXWEBUI的Docker容器化部署方案,包括环境准备、镜像管理、容器部署、功能测试及生产环境优化建议,帮助用户快速实现NGINXWEBUI的标准化部署。 环境准备Docker环境安装部署NGINXWEBUI前需确保服务器已安装Docker环境。 dockerimages|grepnginxwebui#预期输出示例:#docker.xuanyuan.me/cym1102/nginxwebuilatestxxxxxxxx2weeksago500MB容器部署基础部署命令使用 ,包括环境准备、镜像拉取、容器部署、功能测试、生产环境优化及故障排查等关键环节。 通过容器化部署,可快速搭建图形化Nginx管理平台,简化配置流程,提升运维效率。

    60711编辑于 2025-11-11
  • 来自专栏运维知识

    使用Ollama和Open WebUI管理本地开源大模型的完整指南

    目录 ✨️Open-WebUI介绍 优点 部署教程 1.打开官网地址 2.安装Docker 3.Open WebUI下载 ️‍️功能介绍 1.AI编程 2.聊天历史 3.自定义Web的界面 ✨️Open-WebUI 部署教程 1.打开官网地址 打开,开源项目Open-WebUI地址放在下方 点击! -v open-webui:/app/backend/data: 将本地的 open-webui 卷映射到容器内的 /app/backend/data 目录。 --name open-webui: 为容器指定一个名称 open-webui,以便于管理和识别。 ghcr.io/open-webui/open-webui:main: 使用来自 GitHub 容器注册表(GitHub Container Registry)的 open-webui 镜像,并指定使用

    35.9K32编辑于 2024-06-03
  • 来自专栏ai

    【腾讯云 HAI】Stable Diffusion WebUI 绘画部署实战

    接下来我们使用 Stable Diffusion WebUI 生成一张猫咪图片,配置以下参数后,单击 Generate 即可。 值 Prompt 主要描述图像,包括内容风格等信息,原始的 WebUI skyscraper in the style of anti - art trending on artstation deviantart pinterest detailed realistic hd 8 k high resolution 赛博朋克风 提示词: Cyberpunk, 8k resolution, castle, the rose sea, dream 写到最后 虽然我今天只是试用了冰山一角 再搭配腾讯云 HAI,可方便帮助用户快速上手但不限于 Stable Diffusion WebUI 服务。 就目前我会认为还有优化空间,需要反复调教参数,且多试几次才能找到满意的图片。

    51500编辑于 2024-04-07
  • 来自专栏Man_Docker

    open魏屁嗯-安装部署

    2、openVPN服务端安装部署 (1)、关闭 selinux sed -i '/^SELINUX/s/enforcing/disabled/g' /etc/selinux/config setenforce /easyrsa gen-dh (8)、创建TLS认证密钥 openvpn --genkey --secret /etc/openvpn/easy-rsa/ta.key (9)、生成证书撤销列表(CRL -r "${PASSFILE}" ]; then echo "${TIME_STAMP}: Could not open password file \"${PASSFILE}\" for reading 32;echo` echo "$name $password" >>/etc/openvpn/psw-file echo "用户名为:$name" echo "密码为:$password" 8

    1.9K20编辑于 2023-03-11
领券