这个时代让人根深蒂固的承认很多事情,他不能说这是错的,只能承认是他做不到的
年轻时候,热烈爱上的人,大多都带着自身的一种秘密,甚至有时候会觉得,那是难以启齿的一种渴望
那是一个处在拼命的、想要证明自己的、内心充满了获得的强烈渴望而为此付诸一切的、浮华的美丽的充满自卑与自负的梦
这个时代让人根深蒂固的承认很多事情,他不能说这是错的,只能承认是他做不到的
年轻时候,热烈爱上的人,大多都带着自身的一种秘密,甚至有时候会觉得,那是难以启齿的一种渴望
那是一个处在拼命的、想要证明自己的、内心充满了获得的强烈渴望而为此付诸一切的、浮华的美丽的充满自卑与自负的梦
对于 DDPM 来说,一个最大的缺点是需要设置较长的扩散步数才能得到好的效果,这导致了生成样本的速度较慢,比如扩散步数为 $1000$ 的话,那么生成一个样本就要模型推理 $1000$ 次
为此 Jiaming Song 等学者在《Denoising Diffusion Implicit Models》 中针对 DDPM 进行了改进,提出了去噪扩散隐式模型(Denoising Diffusion Implicit Models,DDIM),不再限制前向和反向过程必须是马尔卡夫链,在不牺牲质量的情况下,允许更少的采样步数来加速反向生成过程
2020 年 6 月,Jonathan Ho 等学者在《Denoising Diffusion Probabilistic Models》中对之前的扩散概率模型进行了简化,并通过变分推断,将后验问题转为优化问题进行建模,提出了经典的去噪扩散概率模型(Denoising Diffusion Probabilistic Model,DDPM),将扩散概率模型的思想用于图像生成,目前所说的扩散模型,大多是基于该模型进行改进
简单来说,DDPM 包含两个过程:
扩散概率模型(Diffusion Probabilistic Models,DPM)于 2015 年 《Deep Unsupervised Learning using Nonequilibrium Thermodynamics》提出,其目的是消除对训练图像连续应用的高斯噪声,可以将其视为一系列去噪自编码器,是扩散模型的起源,但是没有真正应用于 CV,NLP 任务
其基本思想是使用马尔可夫链利用扩散过程将一个简单的已知分布(例如高斯分布)逐渐转换为目标分布(例如数据分布)
在扩散模型(Diffusion Model)之前,深度生成模型领域的研究方向大多是对抗生成网络 GAN、变分自编码器 VAE 等,随着 DDPM 的发展,一些改进的方法被不断涌现,扩散模型也在生成模型领域缓缓地迈向成熟
扩散模型起源于 2015 年 《Deep Unsupervised Learning using Nonequilibrium Thermodynamics》,Jascha Sohl-Dickstein 等学者该文中提出了扩散概率模型(Diffusion Probabilistic Models)基本概念与整体框架,目的是消除对训练图像连续应用的高斯噪声,可以将其视为一系列去噪自编码器,但是没有真正应用于 CV,NLP 任务