引言 在当今的机器学习领域,稳定扩散成为了一种备受瞩目的生成模型方法。其基于马尔科夫链蒙特卡罗(MCMC)的原理,通过前向扩散和反向扩散过程,实现了从简单分布到复杂目标分布的转变。 本文将深入探讨稳定扩散的原理、实现方法以及在图像生成领域的应用,带领读者进入这一机器学习领域中引人入胜的领域。 稳定扩散的原理 稳定扩散是一种基于马尔科夫链蒙特卡罗(MCMC)方法的生成模型。 下面以图像生成为例,展示稳定扩散的应用: 图像生成 通过训练稳定扩散模型,我们可以从噪声中生成逼真的图像。 通过前文的介绍,读者对稳定扩散的原理有了深入理解,并了解了如何利用PyTorch实现该模型。同时,我们也探讨了稳定扩散在图像生成领域的应用,展示了其在创造逼真图像方面的优势。 期待读者能够通过本文的介绍,进一步探索稳定扩散模型的更多应用与发展。
Stable Diffusion 稳定扩散模型简介 Stable Diffusion 是 Diffusion 扩散模型中最先进的模式( Diffusion 有一些早期版本,比如: 原始Diffusion 它采用了更加稳定、可控和高效的方法来生成高质量图像。在生成图像的质量、速度和成本上都有显著的进步,因此该模型可以直接在消费级显卡上实现图像生成,可达至少 512*512 像素的图像。 Stable Diffusion 稳定扩散模型详细结构 Stable Diffusion 稳定扩散模型可以被应用在许多领域,但在 AIGC 设计领域,我们仅关注它的两个主要方面: 第一个是文生图(text2img 这个图像生成器进一步拆解如下: 2.2 Image information creator 图像信息创建器 这个模块就是 Stable Diffusion 稳定扩散架构的核心武器,是它比以前的 Diffusion 可以参考:《Diffusion 扩散模型》) 。
最近,扩散模型在生成模型领域异军突起,凭借其独特的生成机制在图像生成方面大放异彩,尤其在处理高维复杂数据时优势明显。然而,尽管扩散模型在图像生成任务中表现优异,但在图像目标移除任务中仍然面临诸多挑战。 为了解决这些问题,本文提出了一种基于扩散模型且无需微调的方法 ——Attentive Eraser,以增强预训练扩散模型目标移除的能力,从而实现稳定有效的目标移除。 近年来扩散模型中最具代表性的开源预训练模型是 Stable Diffusion(SD),其作为一种隐变量扩散模型在多种图像生成任务中表现优异。 从结果可以明显看到其他基于扩散模型的方法的标准偏差较大,说明了它们应用在目标移除任务时的不稳定性,而我们的结果展现了显著更低的标准偏差,说明我们方法的稳定性显著优于对比方法,更倾向于生成一致性高的图像。 相比之下,其他基于扩散模型的方法都存在一个普遍的问题,即目标移除的不稳定性,这种不稳定性往往导致随机伪影的出现,无法生成与背景连贯一致的内容。
近日Stability AI推出了一款名为Stable Audio的尖端生成模型,该模型可以根据用户提供的文本提示来创建音乐。 架构 自动编码器(VAE),一个文本编码器和U-Net扩散模型。 Stable Audio中的扩散模型是一个U-Net架构,具有强大的9.07亿个参数,灵感来自Moûsai 模型。它结合残差层、自注意力层和交叉注意力层,基于文本和时间嵌入对输入数据进行有效降噪。 总结 Stability AI的Stable Audio AI模型标志着人工智能驱动的听觉创造力的重大飞跃。它为音乐和声音爱好者打开了新的视野。 在未来还会提供进一步增强模型、数据集和训练技术的体系结构,发布基于Stable Audio的开源模型,并将提供必要的代码,以方便定制音频内容生成模型的训练。
它并不像以往那样走 tricks 路径 —— 通过一场「现代化」改造,GAN 现在可以进行更长时间的训练(与扩散模型的训练步骤数相当),一旦 GAN 训练时间足够长,并且架构足够强大,它们就可以胜过扩散模型 FID — CIFAR-10 研究者训练配置 E 模型直到收敛,并在 CIFAR-10 数据集上使用优化的超参数和训练计划进行条件生成。 ,并与近期的 GAN 模型和扩散模型进行了比较(见下图)。 该模型的参数量几乎是依赖于 ADM 骨干网络的扩散模型 的三分之一,这些模型的参数量大约为 300M。 尽管模型较小,并且他们的模型在一步生成样本的同时,其在 FID 指标上超越了更大参数量的扩散模型(见下图)。
如下图所示: 更详细的图如下: 2 扩散模型Diffusion 前面介绍了 Diffusion 是如何根据输入文字生成图片的,让大家有个大概的了解,接下来会详细介绍扩散模型 Diffusion 是如何训练的 2.1 扩散模型Duffison的训练过程 ▲ 扩散模型Diffusion Diffusion 模型的训练可以分为两个部分: 1. 反向扩散过程(Reverse Diffusion Process)→去除图片中的噪声 2.2 前向扩散过程 前向扩散过程是不断往输入图片中添加高斯噪声。 2.3 反向扩散过程 反向扩散过程是将噪声不断还原为原始图片。 2.4 训练过程 在每一轮的训练过程中,包含以下内容: 1. 每一个训练样本选择一个随机时间步长 t 2. 我们希望这个 UNet 模型在刚开始的反向过程之中,它可以先生成一些物体的大体轮廓,随着扩散模型一点一点往前走,然后到最后快生成逼真图像的时候,这时候希望它学习到高频的一些特征信息。
介绍 AI 绘画中的扩散模型是近年来在计算机视觉和图像生成领域中获得关注的一种深度学习方法。这种模型特别擅长于生成高质量的图像,包括艺术作品和逼真的照片样式的图像。 扩散模型的关键思想是通过一个渐进的、可逆的过程将数据(在这个场景中是图像)从有序状态转换到无序状态,然后再逆转这个过程来生成新的数据。 扩散模型 和 GAN 区别 区别点 扩散模型 GAN 工作机制 基于逆过程逐步还原真实数据分布 包含生成器与判别器的对抗框架 训练方式 最大化似然估计 最小化判别器损失,最大化生成器损失 生成样本质量 质量较高,接近真实分布 质量参差不齐,易产生模式崩溃 训练稳定性 训练较为稳定 训练难度较大,需要精心设计 优势 样本质量好,训练稳定 可以学习更复杂分布 劣势 学习能力较弱 样本质量不稳定,训练困难 图像生成的应用 扩散模型在图像生成方面的应用包括但不限于: 艺术创作:生成新的艺术图像,展现独特的风格和创意。
扩散模型在生成逼真样本方面显示出巨大潜力,克服了变分自编码器中的后分布对齐障碍,缓解了生成对抗网络中的对抗性目标不稳定性。 例如,提出了先进的ODE/SDE求解器来加速采样过程,同时采用了模型传授策略来实现这一目标。此外,还引入了新型前向过程来增强采样稳定性或促进维度降低。 连续过程具有更好的理论支持,并为将ODE/SDE社区中的现有技术应用于扩散模型打开了大门。 2.2 背景 本节介绍了三种基础形式化方法:去噪扩散概率模型、分数SDE公式和条件扩散概率模型。 4 应用 4.1 图像生成 扩散模型在图像生成方面取得了显著的性能,无论是传统的基于类别的条件生成[10, 27, 138],还是更复杂的基于文本或图像的条件[36, 143],或者是它们的组合[142 4.2 3D生成 扩散模型生成三维模型主要有两种方法:直接使用三维数据训练模型,以及通过二维扩散先验生成三维内容。
扩散模型是跨不同深度学习领域使用的生成模型。目前,它们主要用于图像和音频生成。最值得注意的是,这些模型是令人印象深刻的图像生成模型(例如 Dalle2 和稳定扩散)背后的驱动力。 但扩散模型试图拟合一个模型,其最终目标是逆转这一过程。 其基本思想是通过迭代前向扩散过程系统地、缓慢地破坏数据分布中的结构。 因此扩散模型由两个阶段组成: 前向扩散过程 逆扩散过程 前向扩散过程 前向扩散过程是数据结构被破坏的阶段。 稳定扩散是 OpenAI Dalle.2 的开源替代品。由于稳定扩散是一种潜在扩散模型,因此我将尝试对 LDM 进行高级解释。还记得反向扩散过程如何使用神经网络逐渐降低噪声吗? 稳定扩散使用 U-Net,这是一种基于卷积的神经网络,可将图像下采样到较低的维度,并在上采样期间重建它。在下采样层和上采样层之间添加跳跃连接以获得更好的梯度流。
而在Diffusion扩散模型中却并非如此,它没有一个所谓的判别器,而是有两个过程,一个是前向过程,一个是逆向过程。前向过程是将图像不断的加噪音,最后变成一个人看上去就是一个纯噪音的图像。
扩散模型 (Diffusion Models) 是近年提出的生成模型, 扩散模型已经被证明可以生成高质量的图像,并且相比于GAN能够更好地覆盖样本分布, 本文介绍相关内容。 背景 在文章 《Diffusion Models Beat GANs on Image Synthesis》 中展示了扩散模型的图像生成能力: 在清晰度、多样性上都不逊色于 GAN 等模型 扩散模型的灵感来源于非平衡态热力学 他们定义了一个马尔可夫链的扩散步骤,慢慢地向数据中添加随机噪声,然后学习逆向扩散过程,从噪声中构造所需的数据样本。 与 VAE 或流动模型不同,扩散模型的学习过程是固定的,隐变量具有较高的维数(与原始数据相同)。 框架 扩散模型定义很简单,包含有两个过程,分别为扩散过程和逆扩散过程。 扩散过程 给定一个初始数据分布 image.png (说白了就是训练集),核心过程如上图所示,扩散过程为从右到左 X_0 \to X_T 的过程,表示对图片逐渐加噪。
Unet的详解和稳定扩散引言Unet是一种被广泛应用于图像分割任务的卷积神经网络结构。它的独特之处在于其编码器-解码器结构和跳跃链接的设计。本文将对Unet进行详细解析,并讨论其在稳定扩散方面的应用。 这使得研究人员可以更好地理解网络的运行机制,并进行模型的改进和优化。3. Unet的稳定扩散稳定扩散是Unet的一个重要应用场景。稳定扩散是指通过Unet的解码器来扩大图像中感兴趣区域的范围。 稳定扩散的实现可以通过调整Unet的解码器层的参数来实现。增加解码器层的数量和通道数,可以扩大感兴趣区域的范围。同时,在训练过程中,可以使用适当的损失函数和数据增强技术来提高稳定扩散的效果。 稳定扩散是Unet的一个重要应用场景,可以通过调整解码器层的参数来实现。未来,随着深度学习技术的不断发展,Unet有望在更多领域发挥重要作用。
扩散生成模型最近已成为一种用于生成和修改连贯、高质量视频的强大技术。本综述提供了视频生成扩散模型关键元素的系统概览,涵盖应用、架构选择以及时间动态的建模。领域中的最新进展被总结并归类为发展趋势。 将扩散模型适应视频生成带来了独特的挑战,这些挑战仍需克服,包括维持时间一致性、生成长视频和计算成本。 视频扩散模型通常由于架构和硬件限制而具有固定的输入和输出帧数。为了扩展这些模型生成任意长度的视频,已探索了自回归和分层方法。 视频编辑模型(第10节)使用现有视频作为基线,从中生成新视频。 最后,我们考虑将视频扩散模型应用于智能决策(第11节)。视频扩散模型可以用作基于代理当前状态或高级文本任务描述的现实世界模拟器。
,只需要拟合分布的均值和标准差即可,采用梯度下降进行参数更新p_theta(Xt-1 | Xt) 原文只拟合了均值,方差固定,后来研究指出拟合方差会带来性能提升 Object function 扩散过程 通过重构扩散过程,除了L0以外,其它损失函数使用KL 散度度量2个高斯分布,即通过L2-loss优化均值 通过重参数化,实现直接从X0采样得到Xt,而不需要链式采样 image-20230925175610110 embeddings.sin(), embeddings.cos()), dim=-1) return embeddings ResNet block 接下来,我们定义 U-Net 模型的核心构建模块 可以利用神经网络噪声预测器,通过插入平均值的重参数化,得到一个去噪程度稍低的图像 Xt-1 image-20230925182709862 算法过程: 从标准高斯分布采样一个噪声 从时间步 T 开始正向扩散迭代到时间步 ,而逆向过程中的高斯分布参数是通过学习得到的 Diffusion Model 网络模型扩展性和鲁棒性比较强,可以选择输入和输出维度相同的网络模型,例如类似于UNet的架构,保持网络模型的输入和输出 Tensor
广泛结果表明,ControlNet可以促进更广泛的应用,以控制图像扩散模型。 与之前的方法不同,方法可以永久地从扩散模型中删除概念,而不是在推理时修改输出,所以即使用户可以访问模型权重,也无法规避。 这项工作目标是编辑预训练的扩散模型中的某个隐含假设。 实验(使用稳定扩散)表明,TIME在模型编辑方面取得成功,对在编辑过程中看不见的相关提示具有很好的泛化能力,并对不相关的生成产生了最小的影响。 已开源在:https://github.com/SHI-Labs/Versatile-Diffusion 10、FreeDoM: Training-Free Energy-Guided Conditional
扩散模型在文本处理中获得了广泛关注,与传统的自回归模型相比,它们提供了许多潜在优势。 同时,Gulrajani & Hashimoto 强调了扩散语言模型中的规模化法则,Ye展示了扩散模型在经过指令调整和规模化后能够处理复杂任务。 作者提出了思维的扩散(DoT),一种为扩散模型量身定制的固有链式思考方法。本质上,DoT逐渐更新表示隐藏空间中思维的一系列潜变量,允许推理步骤随时间扩散。 受到扩散模型在文本生成中成功的启发,作者探索它们在特定任务中的推理能力及其相对于自回归模型的潜在优势。 这就是为什么作者开始通过使用预训练的扩散模型进行进一步的微调探索。 表 2 作者将DoT扩展到预训练的扩散语言模型Plaid 1B并在更复杂的推理任务上进行评估,即GSM8K。
扩散模型近年来在生成模型领域取得了令人瞩目的成果。 本文将对扩散模型的演变进行深入探讨,并结合代码实例帮助理解其核心原理。1. 7.3 更智能的反向扩散算法反向扩散过程是扩散模型生成数据的核心步骤之一。传统的反向扩散依赖于高斯噪声的逐步去除,但这一过程可能在特定步骤中引入错误的恢复信息。 为了提升反向扩散的稳定性,可以结合强化学习(Reinforcement Learning, RL)或自适应优化(Adaptive Optimization)等智能算法,动态调整每一步的噪声去除策略。 实际应用中的挑战与解决方案8.1 扩散模型的计算瓶颈尽管LDM在效率上比DDPM有了很大提升,但在处理超高分辨率数据时,扩散模型依然存在较大的计算开销。
://arxiv.org/abs/2010.02502 code https://github.com/ermongroup/ddim ---- Abstract DDIMs是一个更高效的迭代隐式概率模型 ,和DDPMs采用相同的训练过程 DDIMs通过一个非马尔可夫的扩散过程,从而实现相同的训练目标。 这些非马尔可夫过程可以对应于确定性的生成过程,从而产生能更快地生成高质量样本的隐式模型 DDIMs相对DDPMs,生成样本的速度快了10x,甚至50x,可以生成高质量样本,最重要的是实现了inversion 隐空间重建与插值 Related Work DDPM Methodology Overview image-20230927100244641 NON-MARKOVIAN FORWARD PROCESSES 扩散前向过程不再是马尔科夫过程 由此产生的模型成为隐式概率模型,其中样本从潜在变量生成,其固定程序为(从 xT 到 x0) image-20230927103549942 当 η = 1 时为 DDPM,当 η = 0 时为 DDIM
2.Stable Diffusion 稳定扩散 稳定扩散的原始名称是“潜在扩散模型”(LDM)。顾名思义,扩散过程发生在潜在空间中。这就是它比纯扩散模型更快的原因。 潜扩散 将图像编码为潜在数据后,将在潜在空间中进行正向和反向扩散过程。 稳定扩散模型概述 前向扩散过程 → 向潜在数据添加噪声。 反向扩散过程 → 从潜在数据中去除噪声。 训练 稳定扩散模型的训练目标 训练目标(损失函数)与纯扩散模型中的目标非常相似。唯一的变化是: 输入潜在数据 zₜ 而不是图像 xₜ。 向 U-Net 添加了条件输入 θ(y)。 Sampling 采样 稳定的扩散采样过程(去噪) 由于潜在数据的大小比原始图像小得多,因此去噪过程会快得多。 架构比较 最后,让我们比较一下纯扩散模型和稳定扩散模型(潜在扩散模型)的整体架构。 纯扩散模型 纯扩散模型架构 Stable Diffusion 稳定扩散 稳定的扩散架构
机器之心 & ArXiv Weekly Radiostation 参与:杜伟、楚航、罗若天 本周重要论文包括只用文字就能 PS 照片的扩散模型以及 MIT 击败扩散模型的泊松流生成模型。 在一篇 10 月 17 日上传到 arXiv 的论文中,来自谷歌研究院、以色列理工学院、以色列魏茨曼科学研究所介绍了一种基于扩散模型的真实图像编辑方法——Imagic,只用文字就能实现真实照片的 PS, 扩散模型只用文字就能 PS 照片了。 理论上,这种模型具有直观的图像和严谨的理论;实验上,它在生成质量、生成速度和鲁棒性上往往比扩散模型更好。本文已被 NeurIPS 2022 接收。 MIT 泊松流生成模型击败扩散模型,兼顾质量与速度。