首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏运维小路

    DeepSeek-Open WebUI部署

    前面部署了vLLM版本以后,访问它比较麻烦。如何才能更好的实现访问呢,这个就是我们今天要讲的Open WebUI,它可以向我们使用官方DeepSeek一样直接在网页进行对话。 Pipelines 插件支持:使用 Pipelines 插件框架将自定义逻辑和 Python 库无缝集成到 Open WebUI 中 1.创建conda 虚拟环境 conda create --name openwebui python=3.12.9 2.安装Open WebUI pip install open-webui -i https://mirrors.aliyun.com/pypi/simple / 3.启动Open WebUI # 禁用OLLAMA API export ENABLE_OLLAMA_API=False # 设置OpenAI API的基础URL为本地服务器 export OPENAI_API_BASE_URL WebUI open-webui serve 4.配置Open WebUI 5.开始提问

    1.6K00编辑于 2025-03-04
  • 来自专栏运维小路

    DeepSeek-容器化(Docker)部署vLLM和Open WebUI

    前面小节我们通过conda创建虚拟Python环境,实现vLLM和OpenWebUI的配置,但是这个安装部署会非常繁琐非费时间。我们今天将使用容器来部署。 apt-get update apt-get install -y nvidia-docker2 systemctl restart docker 3.下载镜像 docker pull ghcr.io/open-webui /open-webui:cuda docker pull vllm/vllm-openai 4.运行vLLM容器 docker run -d \ --gpus all \ --restart unless-stopped 5.运行Open WebUI容器 docker run -d \ --name openwebui-container \ --network host \ --gpus all \ - /open-webui:cuda 6.验证DeepSeek #Open WebU访问地址,先创建管理员,然后进入对话界面, http://x.x.x.x:8080

    8.3K10编辑于 2025-03-06
  • 来自专栏leehao

    Ollama整合open-webui

    open-webui open-webui Open WebUI is an extensible, feature-rich, and user-friendly self-hosted WebUI For more information, be sure to check out our Open WebUI Documentation. 环境要求 熟练使用python Node.js >= 20.10 Python >= 3.11 步骤 克隆代码 git clone https://github.com/open-webui/open-webui.git cd open-webui/ 拷贝.env文件,可鼠标右键复制粘贴 # Copying required .env file cp -RPp .env.example .env 构建前端页面 #

    54510编辑于 2025-02-11
  • 来自专栏Java Tale

    open-webui镜像启动失败

    COMMAND CREATED STATUS PORTS NAMES 948e39d916a7 ghcr.io/open-webui /open-webui:main "bash start.sh" 7 seconds ago Up 7 seconds 0.0.0.0:11433->8080/tcp ollama-webui from https://cdn-lfs.huggingface.co/sentence-transformers/all-MiniLM-L6-v2/53aa51172d142c89d9012cce15ae4d6cc0ca6895895114379cacb4fab128d9db 看了日志才知道,原来是open-webui启动时期需要首先在线安装transformers库,但是huggingface.co对于国内来说是经常不可访问):   于是赶紧求助bing,找到一个镜像网站, =12345678 \ ghcr.io/open-webui/open-webui:main 本文由 小马哥 创作,采用 知识共享署名4.0 国际许可协议进行许可 本站文章除注明转载

    1.6K10编辑于 2024-08-15
  • 来自专栏前端必修课

    Open WebUI 文本效率分析工具

    今天,我要分享一个我为 Open WebUI 开发的实用小工具 —— 一个能够实时统计文本生成效率的 Python 函数。 import BaseModel, Field from typing import Optional, Callable, Any, Awaitable import re import time from open_webui.utils.misc get_last_assistant_message def count_characters(text: str) -> int: chinese_chars = re.findall(r"[\u4e00 这个函数最精妙的部分是它能同时处理中英文混合文本,针对不同语言特点采用不同的计数策略: def count_characters(text: str) -> int: chinese_chars = re.findall(r"[\u4e00

    40310编辑于 2025-03-07
  • 来自专栏用户2141488的专栏

    容器环境下部署Open-webui、One-api、Ollama、Deepseek

    Open-webui 是一种友好的 Web 用户界面,专为大语言模型(LLM)设计,支持包括 Ollama 和 OpenAI 兼容的 API。 (官网,github) 部署环境 系统:Ubuntu 22,8C16G,50G存储硬盘,香港地域云主机 选择香港地域的机器主要是为了pull镜像方便,此次部署只是对流程做介绍,不考虑性能,要好的性能选gpu /data/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main ,加上外部链接后webUI就能识别到这个模型(为了测试效果,11435端口对应的模型是deepseek-r1:7b) #### 同理,加上配置了One-api 鉴权的模型再来看看效果 总结 通过上面的部署我们可以看到 ,Open-webui 提供了一个非常友好的web交互界面,让用户可以不用懂代码、不用懂开发就能体验私有化大模型,One-api 提供了一个非常优秀的安全鉴权措施,2个工具都是拿来开箱即用,非常方便;

    2.6K11编辑于 2025-03-20
  • 今日高质量开源项目:Open WebUI (原 Ollama WebUI)

    项目简介OpenWebUI是一个功能丰富、可自托管的ChatGPT式Web界面,专门为本地或私有化部署的大语言模型(如通过Ollama运行的Llama3、Qwen等)提供现代化交互体验。 部署极其简单:一条Docker命令即可运行,几乎无门槛。 一分钟极速部署#使用Docker一键启动(假设已安装Ollama并拉取模型)dockerrun-d-p3000:8080\-vopen-webui:/app/backend/data\--nameopen-webui \--restartalways\ghcr.io/open-webui/open-webui:main#访问http://localhost:3000#首次登录创建账户,然后在设置中连接本地Ollama 项目地址GitHub:https://github.com/open-webui/open-webui官网:https://openwebui.com/总结:个人AI基础设施的成熟标志OpenWebUI

    4.6K31编辑于 2026-01-27
  • 来自专栏轩辕镜像

    Docker 部署 Open WebUI + Ollama 完整教程(Windows Linux 通用)—— 打造自己的本地OpenAI

    拉取OpenWebUI镜像:展开代码语言:BashAI代码解释dockerpulldocker.xuanyuan.run/openwebui/open-webui:latest拉取Ollama镜像:展开代码语言 /open-webui:latestWindows系统(PowerShell执行)展开代码语言:PowerShellAI代码解释dockerrun-d--nameopen-webui--networkai-network-p3002 /openwebui/open-webui:latest关键命令说明:\-p3002:8080:将OpenWebUI的8080端口映射到本地3002端口,后续通过localhost:3002访问;\-eOLLAMA 正常情况下,会显示两个容器的运行状态,如下所示(简化版):展开代码语言:TXTAI代码解释CONTAINERIDIMAGEPORTSxxxxxxxdocker.xuanyuan.run/openwebui/open-webui0.0.0.0 ,这里整理了最常见的4个问题,附上解决方案,帮大家快速避坑。

    24820编辑于 2026-04-25
  • 来自专栏LLM

    Open-WebUI 接入腾讯混元大模型

    25.1.10记:Open WebUI docker容器更新可能会导致腾讯云官方提供的Python SDK 丢失,需要重新安装环境(参照步骤1.b)。 1. 前置要求         a. 打开Open WebUI的控制台,安装腾讯云官方提供的Python SDK                i. 我部署的设备是unraid,点击图标,然后点击WebUi下的Console,进入控制台(里面是Linux的terminal),复制并执行下面的命令。           前往Open WebUI社区,选择function然后搜索Tencent HunyuanAI,或者直接点击这里                 ii. 4. 尾声 Github地址 OpenWebUi社区地址 灵感来源于 Google GenAI by justinh-rahb

    1.1K11编辑于 2025-01-10
  • 来自专栏开发三两事

    llama3&open-webui快速实现本地模型搭建

    running就表示运行成功了 docker桌面下载 下载地址:https://www.docker.com/products/docker-desktop/ 下载完成后启动运行,可以看到如下界面 搜索框搜open-webui 大家可以直接搜索 llama3-8b-chinese-chat-ollama-q8 这个模型是对llama3进行了中文微调后的模型,相对对中文比较友好 一般小型模型也得几个G,下载需要一会时间等待,下载完成在webui ,不过一般个人电脑也仅仅是运行起来,速度比较慢,只能满足下自己日常的好奇心,真正要投入生产还是需要一个不错的机器才行,自己也可以下一些响应速度更快的mini模型测试 接口调用的使用方式 以上展示了使用open-webui

    2.4K50编辑于 2024-04-29
  • 来自专栏数据仓库技术

    通过ollama+open webui可视化运行gemma

    今天给大家介绍一个本地运行大模型的工具ollama,能够让我们方便地运行各种大模型,Open Webui 界面化的管理使用各种大模型。 1.安装ollama 1.1 什么是ollama ollama是专为在Docker容器中部署LLM而设计的,简化了部署和管理流程,目前它支持的模型如下: Model Parameters Size Download 2.3 安装Open Webui 执行docker命令安装 docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 安装完成后,您可以通过http://localhost:3000访问 Open WebUI 至此安装完成 3.Open Webui 运行模型 界面如下 依次选择模型,选择对应的模型后,在3处输入内容即可

    9.8K31编辑于 2024-03-06
  • 从零开始构建强大 AI 对话系统:ollama + deepseek + open-webui 部署教程(Docker 版)!

    手把手教你从零开始构建强大 AI 对话系统:ollama + deepseek + open-webui 完整部署教程(Docker 版)。 open-webui open-webui 是一个开源的 Web 界面,用于与 AI 模型进行交互。通过它,用户可以通过浏览器与部署的 AI 模型进行实时对话,查看模型的输出结果。 open-webui 接下来,我们将部署 open-webui,它是一个用于与 AI 模型交互的 Web 界面。 ollama + deepseek + open-webui 这里聊聊部署过程中遇到的一些问题和解决方案。 然后,在一台小米笔记本上部署测试,笔记本配置为 i5-7200U(4核),8GB 内存,SSD 硬盘。

    65010编辑于 2026-03-24
  • 来自专栏码匠的流水账

    使用open-webui+deepseek构建本地AI知识库

    序本文主要研究一下如何使用OpenWebUI+deepseek构建本地AI知识库步骤拉取open-webui镜像docker pull ghcr.io/open-webui/open-webui:maindocker /open-webui-data:/app/backend/data来挂载数据看日志是有报错ERROR [open_webui.routers.openai] Connection error: Cannot ] get_all_models()INFO [open_webui.routers.ollama] get_all_models()INFO [open_webui.routers.ollama] ] query_doc:result [['7ee3e76c-7804-4eb7-8dbb-7ca27b0a54ca', 'ef5b7e5c-8a7e-4220-800e-9390e9808034', latest工作空间 --> 知识库,点击+号上传文档使用时需要在聊天框通过#来指定知识库设置 --> 管理员设置 --> 数据库 --> 下载数据库,可以导出sqlite数据小结整体体验是docker部署起来

    4.9K10编辑于 2025-02-18
  • 来自专栏轩辕镜像

    玩转本地大模型:Ollama + Open WebUI简明使用指南

    为了解决这个问题,模型量化技术应运而生,将权重参数的精度压缩为4位整数精度,大幅减小了显存需求。 以 4-bit 量化为例,其将原本 FP16 精度的权重参数压缩为 4 位整数精度,使模型权重体积和推理所需显存均大幅减小,仅需 FP16 的 1/4 至 1/3,意味着约 4GB 显存即可启动 7B 以中文微调过的 Llama2-Chinese 7B 模型为例,下述命令会下载接近 4GB 的 4-bit 量化模型文件,需要至少 8GB 的内存进行推理,推荐配备 16GB 以流畅运行。 就 Ollama GUI 而言,根据不同偏好,有许多选择: Web 版:Ollama WebUI 具有最接近 ChatGPT 的界面和最丰富的功能特性,需要以 Docker 部署; Ollama WebUI 例如,前面上手时用的是 Llama2-Chinese 模型 7B 参数量 4bit 量化版。如果有 16GB 的内存,就可以考虑运行 13B 参数量版本。 如何操作呢?

    16.6K12编辑于 2024-09-29
  • 来自专栏Mintimate's Blog

    看看 Ollama 和 Open WebUI如何配合

    本文将介绍如何在 macOS 上部署 Ollama 和 Open WebUI,实现本地运行 DeepSeek 大模型。 最后的效果:部署思路目前本地部署 DeepSeek-R1 的途径很多,主流的方法是使用 Ollama + Open WebUI 或者 Ollama + ChatbotUI;我个人是觉得 Ollama + 支持从服务器拉取 Llama 3.3, DeepSeek-R1, Phi-4 和 Gemma 2 等模型。 Open WebUI 部署同样,有两种方法可以部署 Open WebUI,分别是 Docker 安装和 Python pip 安装。既没有 Docker,也不想使用 Python? open-webui# 启动 Open WebUIopen-webui serve如果你想使用 Docker 部署 Open WebUI,那么可以参考 Open WebUI 官方文档。

    2.8K01编辑于 2025-02-18
  • 来自专栏轩辕镜像

    NGINX WEBUI Docker 容器化部署指南

    本文将详细介绍NGINXWEBUI的Docker容器化部署方案,包括环境准备、镜像管理、容器部署、功能测试及生产环境优化建议,帮助用户快速实现NGINXWEBUI的标准化部署。 启动参数(-eBOOT_OPTIONS):支持自定义Java启动参数,例如修改端口:--server.port=9090;开启接口文档:--knife4j.production=false(访问http 提交申请验证证书是否自动配置到对应域名3.配置文件管理进入「生成conf文件」模块,查看自动生成的Nginx配置支持手动编辑配置内容,确认无误后点击「覆盖并重启Nginx」检查Nginx服务是否正常重启,配置是否生效4. 查看管理员表(默认表名admin)SELECT*FROMadmin;#更新密码(示例:重置密码为Admin123)UPDATEadminSETpassword='21232f297a57a5a743894a0e4a801fc3 'WHEREusername='admin';#注:'21232f297a57a5a743894a0e4a801fc3'为MD5加密后的'admin',若需自定义密码需生成对应MD5值#退出.quit重启容器

    60711编辑于 2025-11-11
  • 来自专栏运维知识

    使用Ollama和Open WebUI管理本地开源大模型的完整指南

    目录 ✨️Open-WebUI介绍 优点 部署教程 1.打开官网地址 2.安装Docker 3.Open WebUI下载 ️‍️功能介绍 1.AI编程 2.聊天历史 3.自定义Web的界面 ✨️Open-WebUI 部署教程 1.打开官网地址 打开,开源项目Open-WebUI地址放在下方 点击! -v open-webui:/app/backend/data: 将本地的 open-webui 卷映射到容器内的 /app/backend/data 目录。 --name open-webui: 为容器指定一个名称 open-webui,以便于管理和识别。 ghcr.io/open-webui/open-webui:main: 使用来自 GitHub 容器注册表(GitHub Container Registry)的 open-webui 镜像,并指定使用

    35.9K32编辑于 2024-06-03
  • 来自专栏计算机图形学 前端可视化 WebGL

    UE4 WebUI插件使用指南

    使用UE4的UMG开发图表显得比较笨拙。 基于这种插件技术,普通的前端开发人员也可以开发UE4界面上丰富的2d页面效果。 下面分享我们UE4做的数字孪生的几个案例,其中的2d页面是通过Vue结合html5技术和echart图表插件进行开发的: 下面我们介绍WebUI插件的使用 下载插件 插件的下载地址是: 如果你发现这个地址打开是 启用插件 开启UE4 打开或者新开一个项目之后,打开菜单编辑->插件,然后在插件窗口右上角的搜索栏中搜索 Web UI。确保WebUI插件的已启用复选框已勾选。启用插件后,重新启动虚幻引擎。 的基础使用,后续会介绍通过WebUI,网页与UE4之间的通信。

    3.8K10编辑于 2023-01-08
  • 来自专栏ai

    【腾讯云 HAI】Stable Diffusion WebUI 绘画部署实战

    接下来我们使用 Stable Diffusion WebUI 生成一张猫咪图片,配置以下参数后,单击 Generate 即可。 值 Prompt 主要描述图像,包括内容风格等信息,原始的 WebUI 再搭配腾讯云 HAI,可方便帮助用户快速上手但不限于 Stable Diffusion WebUI 服务。 就目前我会认为还有优化空间,需要反复调教参数,且多试几次才能找到满意的图片。

    51500编辑于 2024-04-07
  • 来自专栏Man_Docker

    open魏屁嗯-安装部署

    2、openVPN服务端安装部署 (1)、关闭 selinux sed -i '/^SELINUX/s/enforcing/disabled/g' /etc/selinux/config setenforce cd /etc/openvpn/easy-rsa/ (4)、初始化并建立CA证书 ./easyrsa init-pki . crl.pem到/etc/openvpn/client文件夹里 cp pki/dh.pem /etc/openvpn/server/ cp pki/crl.pem /etc/openvpn/server/ 4、 push "route 1xx.1x4.1x4.1x4 255.255.255.255 net_gateway" 这个是因为,所有的流量都走vpn,但是你对接隧道的地址,还是得走公网,因此要单独指出来, -r "${PASSFILE}" ]; then echo "${TIME_STAMP}: Could not open password file \"${PASSFILE}\" for reading

    1.9K20编辑于 2023-03-11
领券