type
status
date
slug
summary
tags
category
icon
password

DDIM

背景

去噪扩散概率模型 (DDPM6) 在没有对抗训练的情况下实现了高质量的图像生成,但其采样过程依赖马尔可夫假设,需要较多的时间步才能得到较好的生成效果。本文提出的DDIM(denoising diffusion implicit models 5)是更有效的迭代隐式概率模型,其训练过程与 DDPM 相同,但相比DDPM,采样过程快 1050 倍。

DDPM为什么慢

从DDPM中我们知道,其扩散过程(前向过程、或加噪过程,forward process)被定义为一个马尔可夫过程
通过这样设置,前向过程有一个很好的性质,可以通过得到任意时刻的分布,而无需烦琐的链式计算。
其去噪过程(也有叫逆向过程,reverse process)也是一个马尔可夫过程。
从式(2)可以看出,当足够大时,对所有都收敛于标准高斯分布。因此DDPM在去噪过程定义,并且采用一个较大的采样时间步
在对的推导中,DDPM用到了一阶马尔可夫假设,使得。因此重建的步长非常长,导致速度慢。

DDIM如何加速采样

下面我们来看DDIM如何解决生成速度慢这个问题。DDPM速度慢的本质原因是对马尔可夫假设的依赖,导致重建需要较多的步长。那么不用一阶马尔可夫假设,有没有另一种方法推导出。前面我们提到,DDPM的前向过程主要是用于构造数据集,来训练噪声预测模型。在实际优化过程中,其实并没有用到前向过程的马尔可夫假设,只用到了推理分布因此如果DDIM也能满足这个推理分布的话,那么直接就可以复用DDPM的噪声预测模型了
归纳一下DDIM想要做的
  • DDIM希望构建一个采样分布,这个采样分布不依赖一阶马尔科夫假设
  • DDIM希望维持这个前向推理分布
⚠️文本的符号约定与论文不同,本文的是论文中的

采样分布的求解

下面我们看DDIM是如何推导出采样分布
根据DDPM的结果参考,采样分布是一个高斯分布,并且均值是的线性函数,方差是一个与时间步有关的函数,这里不妨假设DDIM的采样分布也是一个高斯分布,并且均值也是的线性函数,方差是时间步t的函数,即
现在我们已经有了采样分布,并且该采样分布不依赖一阶马尔可夫假设。这个采样分布有3个自由变量,理论上有无穷多个解。但DDIM想要维持与DDPM一致的推理分布。这样问题就转化成,找到一组解,使得DDIM的推理分布满足。下面我们来看DDIM要满足上述推理分布需要什么条件
时,DDIM可以满足
假设当时,DDIM也满足
那么根据数学归纳法,只需保证,就能对所有时间步都能满足上述推理分布。
到这里,问题进一步转化为:已知 找到的一组解,使得,即求解
我们可以根据待定系数法进行求解
根据,可采样
根据,可采样
带入上式有
式中
根据,采样
为了满足式5
上述方程有3个未知数,两个方程,显然有无穷组解能够满足式5,DDIM中将看作可变变量(该数值的大小可视为采样过程的随机性有多大)。
综上所得,我们得到DDIM的采样分布
从上式可见可以找到一簇解,使得,且满足推理分布。不同的对应不同生成过程。由于前向过程没变,故可以直接用DDPM训练的噪声预测模型。其采样过程如下:
式中
整理得
有两个特殊的case值得注意
  1. 时,此时的生成过程与DDPM一致
  1. 时,此时采样过程中添加的随机噪声项为0,当给定时,采样过程是确定的,此时的生成模型是一个隐概率模型(implicit probabilstic model)[1]。作者将此时diffusion model称之为denoising diffusion implicit model(DDIM)。此时的采样递推公式
notion image

DDIM是如何加速采样的

前面我们提到DDPM在推导采样分布时用到了马尔可夫假设使得在采样过程中需要从依次采样到。在DDPM中往往需要较大的才能得到较好的结果(论文中),这导致需要次采样步长。DDIM加速采样的思路很简单,假定原本的生成序列为,其长度为,我们可以从生成序列L中构建一个子序列,其长度。在生成过程,按照构造序列进行采样。此时的采样递推序列为
论文给出了不同的采样步长的生成效果。可以看到DDIM在较小采样步长时就能达到较好的生成效果。如CIFAR10 S=50就达到了S=1000的90%的效果,与之相对DDPM只能达到10%左右的FID效果。可见DDPM在推导采样分布中用了马尔可夫假设的确限制了它的采样间隔。
notion image
 
可能有同学会有疑问,不按推理步骤按序预测噪声会不会有问题。答案是不会。
从下图可以看到,在训练时,是从时间序列进行采样时间步,再从高斯分布采样噪声,直接从出发计算,随后传入模型,根据预测噪声与实际噪声计算损失迭代模型。我们可以看到在这个训练pipeline中并没有限制时序信息。当噪声预测模型充分训练时DDIM的采样序列也是在训练过程中被充分训练的。(论文附录C.1给出了更为详尽的解释推导,感兴趣的同学可以看论文)。
notion image

DDIM区别于DDPM两个重要的特性

采样一致性(sample consistency)

根据式16我们知道DDIM将设置为0,这让采样过程是确定的,只受影响。作者发现,当给定,不同的的采样时间序列所生成图片都很相近,似乎可以视作生成图片的隐编码信息。
有个小trick,我们在实际的生成中可以先设置较小的采样步长进行生成,若生成的图片是我们想要的,则用较大的步长重新生成高质量的图片。

语义插值效应(sementic interpolation effect)

即然可能是生成图片的隐空间编码,那么它是否具备其它隐概率模型(如GAN2)所观察到的语义插值效应呢?下面来看怎么做:
首先从高斯分布采样两个随机变量,并用他们做图像生成得到下图最左侧与最右侧的结果。随后用球面线性插值方法(spherical linear interpolation,Slerp)4, 7对他们进行插值,得到一系列中间结果
其中
notion image

参考文献

[1]Shakir Mohamed and Balaji Lakshminarayanan. Learning in implicit generative models. arXiv preprint arXiv:1610.03483, October 2016.
[2]Ian Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio. Generative adversarial nets. In Advances in neural information processing systems, pp. 2672–2680, 2014.
[4]Ken Shoemake. Animating rotation with quaternion curves. In Proceedings of the 12th annual conference on Computer graphics and interactive techniques, pp. 245–254, 1985.
[5]Song J, Meng C, Ermon S. Denoising diffusion implicit models[J]. arXiv preprint arXiv:2010.02502, 2020.
[6]Ho J, Jain A, Abbeel P. Denoising diffusion probabilistic models[J]. Advances in Neural Information Processing Systems, 2020, 33: 6840-6851.
 
diffusion model(三):classifier guided diffusion modeldiffusion model(一):DDPM技术小结 (denoising diffusion probabilistic)
  • Twikoo