首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏AI算法能力提高班

    Diffusers | 教程

    Diffusers Tutorials ---- code https://github.com/huggingface/diffusers img ---- Introduction Diffusers Installation $ pip install --upgrade diffusers[torch] # OR $ conda install -c conda-forge diffusers # uncomment to install the necessary libraries in Colab # pip install --upgrade diffusers accelerate library=diffusers&sort=downloads DiffusionPipeline 支持的部分任务 Task Description Pipeline Unconditional Image in Picasso style").images[0] image.save("image_of_squirrel_painting.png") Swapping schedulers from diffusers

    1.9K11编辑于 2023-09-21
  • diffusers加载模型每次都联网如何离线加载

    diffusers模块很好用,唯一缺点就是没把离线加载模型做好。一般都是联网自动下载后,以后离线加载一下就行了,没想到每次都远程下载一堆东西而且经常容易断网。

    15200编辑于 2025-07-20
  • 来自专栏云上修行

    使用Diffusers调用civitai中的checkpoint及lora

    Diffusers(https://huggingface.co/docs/diffusers/index)是一个先进的预训练扩散模型库,用于生成图像、音频甚至分子的三维结构。 Diffusers库则满足了这一需求,允许用户在Python中根据特定需求自定义模型和提示来生成图像。 python ~/diffusers/scripts/convert_original_stable_diffusion_to_diffusers.py --checkpoint_path dreamlikePhotoreal20 详见: https://github.com/huggingface/diffusers/blob/main/scripts/convert_original_stable_diffusion_to_diffusers.py 详见: https://github.com/huggingface/diffusers/blob/main/scripts/convert_lora_safetensor_to_diffusers.py

    5.2K43编辑于 2023-08-24
  • 来自专栏算法一只狗

    一个好用的扩散模型包:Diffusers

    这恰好Huggingface推出了这个扩散模型包“Diffusers”。 2.Diffusers 这个包有以下具体功能: 1 只需要几行代码,就能够利用扩散diffusion模型生成图像,简直是广大手残党的福音 2 可以使用不同的“噪声调节器”,来平衡模型生成速度和质量之间的关系 模型 要利用文本生成图片,主要有以下几个步骤: 安装对应的功能包 登陆huggingface网站,获取token 输入代码,下载模型,等待生成结构 1 功能包安装 + 获取Token 除了需要安装"Diffusers "之外: pip install --upgrade diffusers 还需要安装“pytorch”,“transformers ”等 pip install transformers 其中pytorch Diffusion” # make sure you're logged in with `huggingface-cli login` from torch import autocast from diffusers

    3K20编辑于 2022-11-04
  • 来自专栏OpenMMLab

    当MMEngine遇到Diffusers,带你轻松玩转扩散模型 !

    Diffusers 可帮助您使用扩散模型生成逼真多样的图像、音频和其他类型的数据样本。 Diffusers 提供以下功能: 仅使用几行代码就能进行推理的扩散流程 各种预训练模型 如果您想了解更多关于 Diffusers 的信息,请访问: Diffusers GitHub: https:// 使用 diffusers.pipeline 进行推理 DiffEngine 通过 diffusers.pipeline 简化了将训练过的扩散模型部署到推理任务中的过程。 进行推理 完成训练后,您只需指定模型路径,即可使用 diffusers.pipeline 进行推理。 通过利用这两个优势,DiffEngine 将为 Diffusers 创建一个统一的训练库。

    78830编辑于 2023-09-13
  • 来自专栏云上修行

    使用Diffusers调用civitai中的checkpoint及LoRA(二)

    背景上一篇《使用Diffusers调用civitai中的checkpoint及LoRA》使用了Diffusers的脚本将C站(civitai)的checkpoint及LoRA转化成Diffusers可以识别的格式 ,然后供Diffusers使用。 但这种方式由于和越南大佬做的sd-webui的方式不同,导致使用Diffusers的很多困扰。在Diffusers v0.20.0之后,这些问题部分性的解决了。 就是说,我们可以使用Diffusers将checkpoint模型与LoRA一起加载,并获得使用sd-webui生成完全相同的结果.代码实操及效果先来看看diffusers docs中推荐的方式。 总结本文介绍了Diffusers对Lora支持的最新进展。通过Diffusers v0.20.0的更新,我们可以通过Diffusers获得与sd-webui相同的效果,便于不同框架之间的效果对比。

    6.7K45编辑于 2023-09-06
  • 来自专栏云上修行

    使用Diffusers调用civitai中的checkpoint及LoRA 补遗

    背景《使用Diffusers调用civitai中的checkpoint及lora》一文主要描述了使用diffusers离线脚本的方式加载C站的checkpoint和LoRA。 那如何进一步使用diffusers库提升生成图像的质量呢?本文提供了一些小技巧。解除77个tokens限制在当前版本的diffusers库中,可用于生成图像的提示令牌限制为 77 个。 此参数要求diffusers使用lpw_stable_diffusion的pipeline,这将解除77个tokens限制。 优化diffusers效率1. 优化diffusers CUDA 内存使用使用diffusers加载多个模型处理生成的图像时,需要特别关注CUDA内存使用情况。

    2.1K30编辑于 2023-09-08
  • 来自专栏为了不折腾而去折腾的那些事

    使用 Docker 和 Diffusers 快速上手 Stable Video Diffusion 图生视频大模型

    除此之外,为了高效运行模型,我推荐使用 Nvidia 官方的容器镜像(nvcr.io/nvidia/pytorch:23.12-py3[11]),以及 HuggingFace 出品的 Diffusers 高效的基础运行环境: FROM nvcr.io/nvidia/pytorch:23.12-py3 RUN pip install transformers==4.35.2 gradio==4.13.0 diffusers import AutoFix; AutoFix()" 这个两条命令可以解决从 2023 年 6 月开始的 Nvidia 官方镜像适配 Stable Diffusion Video 相关模型,在使用 Diffusers import StableVideoDiffusionPipeline from diffusers.utils import export_to_video from PIL import Image 省略其他准备工作 # 使用 diffusers 来创建一个 AI Pipeline pipe = StableVideoDiffusionPipeline.from_pretrained( "

    1.8K10编辑于 2024-01-09
  • 来自专栏JAVA

    用 Transformers + Diffusers 部署 AI 图像生成服务(含 Stable Diffusion 报错处理大全)

    ,比如: ModuleNotFoundError: No module named 'diffusers' CUDA out of memory 模型下载超慢 or 被墙 你将学到: 如何快速从 HuggingFace 下载 & 加载图像模型 如何用最少显存成功推理 如何部署一个支持 API + WebUI 的本地图像生成服务✨ 《用 Transformers + Diffusers 部署 AI 模型加载失败、bitsandbytes 显存优化、Gradio 图像服务 引言:为什么选择 Transformers + Diffusers? / FastAPI 快速部署为 Web 或 API 服务 简单易用,部署快 小提示:很多 HuggingFace 上的图像模型其实都是基于 diffusers 封装的,适合本地离线使用。 Diffusers 更新较频繁,推荐锁定版本!

    97510编辑于 2025-04-22
  • 来自专栏机器之心

    适配Diffusers框架的全套教程来了!从T2I-Adapter到大热ControlNet

    diffusers 框架中被使用。 LoRA、ControlNet、T2I-Adapter 到 diffusers 的全适配方案 LoRA for diffusers 本方案是为了在 diffusers 框架,即基于 diffusers 代码开源在:https://github.com/haofanwang/Lora-for-Diffusers ControlNet for diffusers 本方案是为了支持在 diffusers 代码开源在:https://github.com/haofanwang/ControlNet-for-Diffusers T2I-Adapter for diffusers 与 ControlNet 相似,我们也同时支持了同期开源的 T2I-Adapter 到 diffusers 的适配。

    1.7K10编辑于 2023-03-29
  • 来自专栏AI进修生

    CogVideoX-5B:最新开源!!你可以在本地使用AI文本生成视频了!(12G显存 & 本地部署)

    推理的硬件需求如下: CogVideoX-2B 模型: • FP16 精度: • 使用 diffusers:需要 12.5GB 显存 • INT8 精度: • 使用 diffusers with torchaudio :需要 7.8GB 显存 CogVideoX-5B 模型: • BF16 精度: • 使用 diffusers:需要 20.7GB 显存 • INT8 精度: • 使用 diffusers with torchaudio :需要 11.4GB 显存 体验界面如下: 快速上手 本模型已经支持使用 Huggingface 的 diffusers 库进行部署,你可以按照以下步骤进行部署。 安装对应的依赖 # diffusers>=0.30.1 # transformers>=0.44.0 # accelerate>=0.33.0 (建议从源代码安装) # imageio-ffmpeg>= torch from diffusers import CogVideoXPipeline from diffusers.utils import export_to_video prompt =

    1.5K10编辑于 2024-12-02
  • 来自专栏DevOps

    AIGC:从文本生成图像(DALLE ,Stable Diffusion)

    到Stable Diffusion DALLE2是收费的,用户只有一些免费的额度,如果免费额度使用完毕就需要付费了,所以必须寻找替代方案,并发现了Hugging Face,他们发布了一个扩散模型的包diffusers 二、使用diffusers package从文本prompt生成图像 首先,使用diffusers包从文本生成图像,我们要有一个GPU,可以使用google的colab,但是常规的colab由于RAM有限制 然后,要安装如下package: diffusers==0.2.4 — 这是我们主要使用的包 transformers — 这个是Hugging Face的成名基础包 scipy — 科学计算的 pip install diffusers==0.2.4 !pip install transformers scipy ftfy ! pip install "ipywidgets>=7,<8" 导入依赖包: import torch from diffusers import StableDiffusionPipeline 下载StableDiffusionPipeline

    52210编辑于 2024-03-29
  • 来自专栏个人博客

    ControlNet训练自己数据集 - plus studio

    ControlNet训练自己数据集 2024.1.20更新 controlnet发布快一年了,diffusers已经有了很完整的生态,建议直接使用第二种方式diffusers进行训练+推理 从官方仓库训练 ,接着你就可以中下面diffusers的方式推理模型了。 训练 Diffusers 是一个huggingface 推出的扩散模型的封装库,同时也对ControlNet做了封装,https://github.com/huggingface/diffusers/ tree/main/examples/controlnet 训练 代码跑起来其实也非常简单,首先下载diffusers整个仓库,然后安装依赖 git clone https://github.com/ huggingface/diffusers cd diffusers pip install -r requirements.txt 你可能会发现这样的报错 WARNING: The scripts

    2.2K10编辑于 2024-02-28
  • 来自专栏心源易码

    智谱AI开源国产版Sora——CogVideoX-2b本地部署实践教程

    diffusers,然后再删除requirements.txt文件中的git+https://github.com/huggingface/diffusers.git@878f609aa5ce4a78fea0f048726889debde1d7e8 #egg=diffusers那一行,继续使用pip安装剩下的依赖以上依赖安装好后,可以在终端输入python,然后输入以下代码进行测试:import torchfrom diffusers import CogVideoXPipelinefrom diffusers.utils import export_to_video显示如下状态,没有报错就说明依赖安装成功! 2.4、开始运行上传完成后,在CogVideo-main文件新建一个test.py文件test.py代码内容如下,主要使用diffusers库中的CogVideoXPipeline模型,加载了一个预训练的 CogVideo模型,然后根据一个详细的文本描述(prompt),生成对应视频:import torchfrom diffusers import CogVideoXPipelinefrom diffusers.utils

    3K10编辑于 2024-08-13
  • 来自专栏磐创AI技术团队的专栏

    DeepFloyd Lab 联合 StabilityAI 开源的大模型 DeepFloyd IF

    集成 Diffusers IF 同时集成了 Hugging Face DiffusersDiffusers 单独运行每个阶段,允许用户自定义图像生成过程,并允许轻松检查中间结果。 接下来我们安装 diffusers 和依赖项: pip install diffusers accelerate transformers safetensors 现在我们可以在本地运行模型了。 默认情况下, diffusers 使用模型 cpu 卸载来运行整个IF管道,只有14GB的VRAM。 from diffusers import DiffusionPipeline from diffusers.utils import pt_to_pil import torch stage 1 stage /if_stage_III.png") 有多种方法可以通过 diffusers 来加快推理时间并降低内存消耗。

    88310编辑于 2023-08-28
  • 来自专栏拓端tecdat

    R语言SIR模型(Susceptible Infected Recovered Model)代码sir模型实例

    # initiate the diffusers seeds_num =1 diffusers =sample(V(g),seeds_num) ; diffusers ## + 1/50 vertex : ## [1] 43 infected =list() infected[[1]]=diffusers# 第三步,传染能力 在这个简单的例子中,每个节点的传染能力是0.5,即与其相连的节点以 nearest_neighbors[,2], toss)) new_infected =as.numeric(as.character(nearest_neighbors[,1][keep >=1])) diffusers =unique(c(as.numeric(diffusers), new_infected)) return(diffusers)} set.seed(1); 开启扩散过程!

    1.4K30发布于 2020-11-03
  • 来自专栏DeepHub IMBA

    使用Dreambooth LoRA微调SDXL 0.9

    本文基于diffusers包,至少需要0.18.2或更高版本。 pip install git+https://github.com/huggingface/diffusers LoRA进行SDXL 0.9 Dreambooth微调需要0.19.0.dev0及以上版本的 /data" snapshot_download( "diffusers/dog-example", local_dir=local_dir, repo_type="dataset 如果你使用的是旧版本的diffusers,它将由于版本不匹配而报告错误。 本文使用的主要库: https://github.com/huggingface/diffusers https://github.com/huggingface/diffusers/blob/main

    1.4K50编辑于 2023-08-30
  • 来自专栏拓端tecdat

    R语言SIR模型(Susceptible Infected Recovered Model)代码sir模型实例

    # initiate the diffusers seeds_num =1 diffusers =sample(V(g),seeds_num) ; diffusers ## + 1/50 vertex : ## [1] 43 infected =list() infected[[1]]=diffusers# 第三步,传染能力 在这个简单的例子中,每个节点的传染能力是0.5,即与其相连的节点以0.5的概率被其感染 nearest_neighbors[,2], toss)) new_infected =as.numeric(as.character(nearest_neighbors[,1][keep >=1])) diffusers =unique(c(as.numeric(diffusers), new_infected)) return(diffusers)} set.seed(1); 开启扩散过程!

    1.3K20发布于 2020-10-23
  • 来自专栏个人博客

    huggingface 和相关库 - plus studio

    Diffusers Diffusers 收集了所有SOTA的扩散模型,用于生成图像、音频,甚至分子的 3D 结构。 diffusers提供了扩散模型的完整pipeline ,包括DDPM,DDIM,stable_diffusion_2,VAE,controlnet等等,可以使用简单的几行代码完成推理。 安装和上面一样 pip install diffusers["torch"] 或者 pip install diffusers pipeline pipeline 是diffusers 甚至huggingface 这里以stable diffusion 1.5为例,首先创建pipeline,并指明stable diffusion 的版本 from diffusers import DiffusionPipeline Diffusers 现在支持使用 LoRA 进行文本到图像生成和DreamBooth微调。

    80210编辑于 2024-02-28
  • 第七章 AI数据质量-3

    Diffusers 是一个包含多种预训练扩散模型的模型库,用于生成图像、音频甚至分子的 3D 结构,详细介绍可参考其网址https://huggingface.co/docs/diffusers/quicktour Python Notebook代码如代码段7-2所示: 代码段7-2:基于Stable Diffusion模型的文生图模型生成测试样本代码 import torch from diffusers import 代码段7-4:生成原图的边缘轮廓代码 #ControlNet from diffusers import StableDiffusionControlNetPipeline from diffusers.utils 代码7-5 基于Canny生成相似轮廓的样本代码 from diffusers import StableDiffusionControlNetPipeline, ControlNetModel import 代码段7-7 基于OpenPose生成相同姿态的样本代码 from diffusers import StableDiffusionControlNetPipeline, ControlNetModel

    49810编辑于 2025-04-15
领券