首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏ceshiren0001

    Dify入门指南(2):5 分钟部署 Dify:云服务 vs 本地 Docker

    本文手把手对比 云服务直装 和 本地 Docker 部署 两种方案,附避坑指南与性能实测! 一、云服务部署:3 分钟极速开箱适合人群:快速验证原型 · 中小企业轻量化使用核心优势:零运维、免费用量额度、自动升级操作步骤:注册登录 访问 Dify 官网 → 点击「免费开始」→ 用邮箱/GitHub 分钟构建私有环境适合人群:金融/医疗等强合规场景 · 需要连接内网系统核心优势:数据 100% 私有化 · 自定义 GPU 加速操作步骤:环境准备最低配置:Linux/MacOS/Windows WSL2 ollama run qwen:4b-chat # Dify 控制台添加模型 模型类型:OpenAI 兼容 端点:http://ollama:11434/v1 模型名称:qwen:4b-chat 私有化部署调优技巧场景配置方案提升知识库性能挂载 Qwen-4B 模型,单条查询响应 <2s(RTX 3060 GPU)四、避坑指南:高频问题解决方案镜像拉取失败# 替换国内镜像源 sed -i 's/ghcr.io/mirror.ghcr.io/g

    2.4K00编辑于 2025-08-11
  • 来自专栏Dify

    Dify 平台的部署

    Dify 部署前置准备:安装 Docker 环境安装 Docker Compose 工具接下来我将介绍如何通过 Docker Compose 部署 Dify 平台。 其次,进入 dify/docker 目录:cd dify/docker接着,复制一份官网提供的 环境配置文件样例 作为实际的 环境配置文件:cp .env.example .env之后通过 docker 通过以上步骤,我们就可以在本地安装 Dify平台。 origin main拉取或更新镜像docker compose pull启动容器:docker compose up -d小结本文详细讲解了如何利用 Docker Compose 工具快速在本地或服务器上部署 Dify 平台,该方法操作简便且高效。

    2.3K77编辑于 2025-03-20
  • 来自专栏灵墨AI探索室

    私有化部署Dify

    Dify 是一个开源的可视化智能体搭建平台,旨在为用户提供简便、直观的智能体构建和部署体验。 今天,我们将详细讲解如何将 Dify 平台成功部署到你自己的服务器上,从而更好地利用其功能进行智能体开发和管理。为了顺利完成这一过程,我们首先需要做好一些基本准备工作。 部署dify进入系统后,首先点击进入宝塔面板,然后在宝塔面板中找到并进入 Docker 管理界面。 导入其他dify应用如果你在其他服务器上部署dify,想要平滑迁移过来,也是可以的。如图所示:在相应的应用中,点击导出DSL即可,我们不需要了解他是什么格式,dify会自动识别即可。 接下来就是导入应用,如图所示:小结今天简单讲解并部署了一下 Dify 整个流程。后续,我会详细讲解 Dify 内部各个应用的创建过程,并分析它们的共性特点,以便大家在后续能够更加高效、快捷地创建应用。

    5.3K10编辑于 2025-03-18
  • 来自专栏周拱壹卒

    ARM 环境中部署 Dify

    重新构建一个镜像: FROM langgenius/dify-api:0.11.1 COPY pypdfium2-4.30.0-py3-none-manylinux_2_17_aarch64.manylinux2014 _aarch64.whl /tmp RUN pip install /tmp/pypdfium2-4.30.0-py3-none-manylinux_2_17_aarch64.manylinux2014 docker-compose.yaml[2],精简掉暂不使用的向量库等配置,并修改如下内容: 将 dify-api 镜像调整为上面重新构建的版本,以解决 ARM 环境启动报错问题; 为 dify-api 验证对话 访问 http://localhost 登录 Dify 并配置模型后,可创建一个聊天助手,验证基本对话功能: 参考资料 [1] pypdfium2-4.30.0-py3-none-manylinux /pypdfium2-4.30.0-py3-none-manylinux_2_17_aarch64.manylinux2014_aarch64.whl [2] docker-compose.yaml:

    3.4K00编辑于 2024-11-25
  • 【AIGC系列】dify本地部署

    1.clonegit clone https://github.com/langgenius/dify.git2.docker 目录cd dify/docker3.env 文件cp .env.example .env4.启动docker compose up -d# 或者docker-compose up -d5.查看docker compose ps6.更新 difycd dify/dockerdocker

    1.2K00编辑于 2024-12-03
  • Dify部署以及免费API调用教程

    1.环境准备 DIFY的运行需要一些必备组件 1.1Docker的下载 网站:Docker: Accelerated Container Application Development 大部分Windows 系统选择这个下载就好 1.2下载Git组件 网站:Git 这个是我们后续克隆必备的组件 2.DIFY的克隆及安装 2.1 找到GitHub上DIFY的源文件数据库供待会我们克隆 GitHub - langgenius /dify: Production-ready platform for agentic workflow development. 2.2 将数据库的位置在我们的终端上以管理员身份使用git进行所有文件的克隆 文件克隆后我们输入以下指令来完成配置文件的拷贝 3.安装完成后我们来进行DIFY初始化配置 在浏览器上点击工作室 - Dify,并设置邮箱密码然后开始对DEFY进行初始配置 模型供应商这一块搜索CanopyWave

    2.9K31编辑于 2026-02-26
  • 来自专栏Lcry个人博客

    开源 LLM 应用开发平台 Dify 部署教程

    最近出了 react 和 next.js 出了远程执行漏洞,包括 dify 在内的产品无疑幸免,在最新版本中 v1.11.1版本中才修复,虽然本站出了很多一些关于 dify 的使用教程,但是很多人还没有部署过这个平台 ,今天就趁到全新安装 v1.11.1为例带大家部署一下这个 AI 应用开发平台 dify,从本文中你可以找到修改默认 80 端口占用冲突问题,插件老是下载失败超时等等一些列问题的答案,让你部署更简单。 介绍 Dify 是一款开源的大语言模型(LLM)应用开发平台,它结合了后端即服务(BaaS)和 LLMOps 理念,让开发者、企业甚至非技术人员都能快速构建、部署和管理生产级的生成式AI应用,例如智能客服 4、改了默认端口号后分享地址,api文档地址都显示的还是默认80端口,导致访问每次都要手动修改非常麻烦? 总结 本文主要带实战部署dify 最新版本 v1.11.1,并且针对于博主在多次安装 dify 过程中遇到的常见问题进行了解答,使其安装过程更加顺畅,如果你是一台干净的服务器并且还有科学上网大概率不会遇到奇奇怪怪的问题

    1.5K10编辑于 2026-01-09
  • 来自专栏轩辕镜像

    DIFY-WEB Docker 容器化部署指南

    文档将详细介绍如何通过Docker容器化方式部署DIFY-WEB,包括环境准备、镜像拉取、容器配置、功能测试及生产环境优化等关键步骤,帮助用户快速实现DIFY-WEB的本地化部署。 启动容器:DIFY-WEB的具体端口配置需参考官方文档,建议先查阅DIFY-WEB镜像文档(轩辕)https://xuanyuan.cloud/r/langgenius/dify-web获取端口信息。 \#限制最大内存为2GB--memory-swap=2G\#限制交换空间--cpus=1\#限制CPU核心数为1-p80:8080\xxx.xuanyuan.run/langgenius/dify-web 通过容器化部署,用户可以快速搭建DIFY-WEB应用,同时保证环境一致性和部署效率。 /dify-web:latest部署前需查阅官方文档获取正确的端口配置和环境变量要求生产环境必须实现数据持久化、安全配置和资源监控定期更新镜像和检查日志是保障系统稳定的关键后续建议:深入学习DIFY官方文档

    1K10编辑于 2025-11-18
  • 来自专栏Dotnet Dancer

    基于Ubuntu22.04 部署Dify详细教程

    文件夹,进入到里面,然后开始克隆dify开源项目到本地 git clone https://github.com/langgenius/dify.git 进入到dify目录下的docker文件夹下,复制一份示例配置到 { "registry-mirrors": ["https://docker.m.daocloud.io"] } 重启docker然后重新启动dify systemctl restart docker docker compose up -d 这次是启动成功了 打开 http://ip:nginx端口/install ip换成你自己的部署服务器的IP 如果需要停止Dify,使用下面命令执行 : docker compose down 根据我本地配置,打开 http://IP:8099/install 进行初始配置 设置账户以后,就可以正常进入Dify了 其他设置: Dify默认上传文件限制大小 然后打开Dify,知识库内可以看到提示,单个文件不超过1500M。并且测试上传知识库文档,也确实可以实现成功上传大于15MB的了。 以上就是本文章的全部内容,感谢阅读!

    6.5K01编辑于 2025-04-18
  • 来自专栏Agent大模型工坊

    Windows搭建Agent开发平台-WSL2+Dify本地部署及开发指南

    本指南通过使用WSL2(Windows Subsystem for Linux 2)与Dify构建本地化的AI应用开发平台。 WSL2提供了完整的Linux内核支持,可流畅运行Docker及相关容器化工具。在WSL2中安装Docker后,可像在纯Linux下那样运行容器,大幅简化部署流程。 服务端部署从Github下载Dify仓库git clone --depth 1 https://github.com/langgenius/dify.git​使用以下命令直接部署,等待一段时间后查看是否部署成功 ,我们已经了解了如何基于Windows系统的WSL2环境完成Dify的搭建与部署,熟悉了1Panel与Docker Compose等容器管理工具,并成功集成了国产大模型。 在此基础上,我们可以根据自身业务需求,利用RAG工作流构建更加丰富多样的智能应用,实现对话助手、文档问答以及多模态探索等功能。完。

    5K21编辑于 2025-02-11
  • 来自专栏全栈测试技术

    【详细教程】如何在Ubuntu上本地部署Dify

    2 Dify核心功能多模型支持:① 支持主流商业模型(如 OpenAI GPT、Claude、DeepSeek、ChatGLM 等)及开源模型(如 Llama、Mistral);② 提供 模型管理 功能 关键技术组件:RAG(检索增强生成):① 支持文档上传、分块、向量化索引(如 PDF、Notion 同步) ;② 提供混合检索(向量+全文搜索)和重排序优化。 3 访问和使用详见Dify官方文档;4 dify部署在 Ubuntu 上本地部署 Dify 可以按照多种方式,以下是通过 Docker Compose 进行部署的步骤,这是官方推荐的简单部署方式:4.1 前提条件确保已安装 Docker 和 Docker Compose;推荐配置:2GB 以上内存,4 核 CPU。 源码# 克隆Dify仓库git clone https://github.com/langgenius/dify.git4.4 配置环境变量进入到如下目录:cd dify/docker# 复制环境变量示例文件

    3.9K31编辑于 2025-10-29
  • 来自专栏码匠的流水账

    docker部署dify结合deepseek构建知识库

    序本文主要研究一下本地docker部署dify结合deepseek构建知识库步骤difygit clone https://github.com/langgenius/dify.git git co tags :-1} TENCENT_VECTOR_DB_REPLICAS: ${TENCENT_VECTOR_DB_REPLICAS:-2} ELASTICSEARCH_HOST: ${ELASTICSEARCH_HOST - ${ELASTICSEARCH_PORT:-9200}:9200 deploy: resources: limits: memory: 2g deepseek-r1:8b, url: http://host.docker.internal:11434类似的再添加一个嵌入模型:nomic-embed-text创建知识库创建知识库 --> 上传本地文档创建应用创建空白应用 小结Dify提供了docker-compose.yaml可以一键部署,如果中间有什么问题重新部署,记得把docker/volume删掉,不然dify worker启动时migration会出问题导致worker

    2.1K20编辑于 2025-02-16
  • 来自专栏【腾讯云开发者】

    只是文档Dify?RAG发展一篇文就入门!

    但总有人戏言,RAG 不过是“把文档丢进 Dify”这么简单,真的吗? 2.1 Naive RAG Naive RAG 是 RAG 系统的最基本实现,使用单一的全文检索或向量检索,从文档集合中检索出与 query 相关的文档,直接将检索的文档用于增强 LLM 的生成。 输出效果差:由于缺乏对 query、文档的高级预处理、后处理,召回的文档容易包含过多或过少信息,导致最终生成的回答过于宽泛。 效果优化困难:系统过于依赖单一检索技术,未对 query、文档进行增强,导致优化局限于检索技术。 在检索后阶段,增加 reranking 提高检索文档的相关性,增加 context-compression 使提供给模型的信息更加集中。

    1.1K11编辑于 2025-04-04
  • 来自专栏TCR实践

    Harbor边缘部署文档

    access_secret 仓库access_key 仓库状态 仓库状态 仓库名称 在Harbor中仓库的唯一ID 仓库credential类型 仓库access_secret 仓库access_key Harbor边缘部署文档 生成证书 生成CA证书 1,生成CA证书私钥 $ openssl genrsa -out ca.key 4096 2,生成CA证书 # 将yourdomain.com修改为需要配置的域名,本文当中使用 =yourdomain.com" \ -key ca.key \ -out ca.crt 生成服务器证书 1,生成服务器私钥 $ openssl genrsa -out tls.key 4096 2, It is used to # 1) populate the docker/helm commands showed on portal # 2) populate the token service tls.key /etc/docker/certs.d/yourdomain.com/ cp ca.crt /etc/docker/certs.d/yourdomain.com/ 使用边缘Harbor部署工作负载

    1.7K30编辑于 2022-03-06
  • 来自专栏开源部署

    MetaQ安装部署文档

    一.MetaQ安装部署情况: 地点 IP Broker ID Master/Slave Slave ID:Group 合肥 192.168.52.23 1 Slave 1:meta-slave-group-hf 北京 192.168.51.33 1 Master / 广州 192.168.70.157 1 Slave 2:meta-slave-group-gz 二.MetaQ安装 1. 启动ZooKeeper: Service zookeeper start 2. 部署 解压tar zxvfmetaq-server-1.4.6.2.tar.gz,将解压出来的taobao/metamorphosis-server-wrapper文件夹移动到/usr/lib下,并重命名为 2. 异步复制的slave将参与消费者的消费活动,消息消费者可以从slave中获取消息并消费,消费者会随机从master和slaves中挑选一台作为消费broker。

    74410编辑于 2022-06-28
  • 来自专栏飞鸟的专栏

    Kafka集群部署文档

    以下是示例配置文件: tickTime=2000 dataDir=/var/lib/zookeeper clientPort=2181 initLimit=5 syncLimit=2 server.1= 10.0.0.1:2888:3888 server.2=10.0.0.2:2888:3888 server.3=10.0.0.3:2888:3888 在这个示例中,我们指定了Zookeeper集群的三个服务器 在第二台和第三台服务器上,我们需要分别创建myid文件,并将其内容分别设置为2和3。 现在,我们可以启动Zookeeper集群。 /local/kafka/bin/kafka-server-start.sh /usr/local/kafka/config/server.properties & 现在,我们的Kafka集群已经成功部署了 现在,我们已经成功地部署了Kafka集群,并使用Kafka提供的命令行工具测试了它的功能。

    90030编辑于 2023-03-28
  • 来自专栏iSharkFly

    OpenSearch 2.x 版本文档部署 CSS 丢失的问题

    当我们把 OpenSearch 的代码更新后发现新的 OpenSearch 2.x 版本部署的时候有 CSS 丢失的问题。问题和解决这个问题的原因是 CSS 的路径不对。 这是因为对比 OpenSearch 1.x 版本,2.x 的版本添加了 baseurl 配置。这个配置在文件 _config.yml 中。我们需要把这个配置的 baseurl 参数设置为空。 当我们完成上面的修改后,再进行部署,我们会看到 CSS 样式表都已经正常了。新版本的代码我们已经提交到我们的 GitHub 仓库中。

    20310编辑于 2024-03-20
  • 来自专栏AI粉嫩特攻队

    Dify开发必备:分享8个官方文档不曾解释的关键技巧

    AI粉嫩特攻队, 2025年4月2日。 这篇文章来自我数百小时的Dify实战经验,为你分享8个官方文档里找不到的关键问题和解决方案。 增加最大字符串返回长度限制 SERVER_WORKER_AMOUNT 问题:一个工作流正在执行且耗时较长时,另一个工作流界面无法打开 报错:无报错,页面一直等待 解决方法:增加工作进程数,最大值=CPU核心数×2+ 2.永久解决:升级到Dify 1.1.3或更高版本。该版本于2024年3月24日发布,已修复此问题。 七、URL的方式上传文件出现pydantic验证错误 这个问题可能会让你搜索很久也找不到解决方案。 进一步检查浏览器控制台后,看到上传文件成功后,dify接口返回的URL参数带有http://ip:端口前缀,而我本地部署dify则没有这个前缀。 请先关闭再测试 修改后执行docker-compose down && docker-compose up -d 使更改生效 八、慎用"将工作流发布为工具"功能 虽然这个功能看上去很方便,但在多环境部署时会带来一些麻烦

    5.8K12编辑于 2025-05-15
  • 来自专栏飞鸟的专栏

    etcd集群原理,部署文档

    本文将介绍etcd集群的原理和部署文档。etcd集群原理etcd是一个强一致性的系统,它采用Raft协议作为一致性算法。 etcd集群部署文档etcd集群可以在多台服务器上部署,以保证高可用性。下面是etcd集群的部署文档:步骤1:安装etcd在所有节点上安装etcd,可以从etcd官网下载二进制文件进行安装。 xzvf etcd-v3.5.0-linux-amd64.tar.gz$ cd etcd-v3.5.0-linux-amd64$ sudo cp etcd etcdctl /usr/local/bin/步骤2: started, node1, http://192.168.1.100:2380, http://192.168.1.100:2379e79081750eb48e5c, started, node2, 要部署etcd集群,需要在每个节点上安装etcd软件,并创建etcd配置文件,指定节点的IP地址、端口号、数据存储目录和集群配置。

    2K20编辑于 2023-03-27
  • 来自专栏AI

    Dify 集成 SearXNG 搜索引擎:Docker 部署配置实战

    本文记录了在 Dify 中集成自建 SearXNG 的完整过程,从 Docker 部署到插件对接,帮你省下每月的搜索 API 费用。 环境准备开始部署前,确保你的环境满足以下条件:Docker 及 Docker Compose 已安装Dify 服务已部署运行Dify 使用的 Docker 网络名称(本文以 acowbo_network 完整的引擎列表可以参考 SearXNG 官方文档。需要认证吗?本文的配置没有启用认证,因为 SearXNG 只在 Docker 内部网络可访问,外部无法连接。 # Dify 集成 SearXNG 搜索引擎:Docker 部署配置实战前言在构建 AI 应用时,联网搜索能力是一个刚需。 环境准备开始部署前,确保你的环境满足以下条件:Docker 及 Docker Compose 已安装Dify 服务已部署运行Dify 使用的 Docker 网络名称(本文以 acowbo_network

    3.1K10编辑于 2026-01-18
领券