最近一年來,以 Stable Diffusion 為代表的一系列文生圖擴(kuò)散模型徹底改變了視覺創(chuàng)作領(lǐng)域。數(shù)不清的用戶通過擴(kuò)散模型產(chǎn)生的圖片提升生產(chǎn)力。但是,擴(kuò)散模型的生成速度是一個(gè)老生常談的問題。因?yàn)榻翟肽P鸵蕾囉诙嗖浇翟雭碇饾u將初始的高斯噪音變?yōu)閳D片,因此需要對網(wǎng)絡(luò)多次計(jì)算,導(dǎo)致生成速度很慢。這導(dǎo)致大規(guī)模的文生圖擴(kuò)散模型對一些注重實(shí)時(shí)性,互動性的應(yīng)用非常不友好。隨著一系列技術(shù)的提出,從擴(kuò)散模型中采樣所需的步數(shù)已經(jīng)從最初的幾百步,到幾十步,甚至只需要 4-8 步。
最近,來自谷歌的研究團(tuán)隊(duì)提出了UFOGen 模型,一種能極速采樣的擴(kuò)散模型變種。通過論文提出的方法對 Stable Diffusion 進(jìn)行微調(diào),UFOGen 只需要一步就能生成高質(zhì)量的圖片。與此同時(shí),Stable Diffusion 的下游應(yīng)用,比如圖生圖,ControlNet 等能力也能得到保留。
論文:https://arxiv.org/abs/2311.09257
從下圖可以看到,UFOGen 只需一步即可生成高質(zhì)量,多樣的圖片。
提升擴(kuò)散模型的生成速度并不是一個(gè)新的研究方向。之前關(guān)于這方面的研究主要集中在兩個(gè)方向。一個(gè)方向是設(shè)計(jì)更高效的數(shù)值計(jì)算方法,以求能達(dá)到利用更少的離散步數(shù)求解擴(kuò)散模型的采樣 ODE 的目的。比如清華的朱軍團(tuán)隊(duì)提出的 DPM 系列數(shù)值求解器,被驗(yàn)證在 Stable Diffusion 上非常有效,能顯著地把求解步數(shù)從 DDIM 默認(rèn)的 50 步降到 20 步以內(nèi)。另一個(gè)方向是利用知識蒸餾的方法,將模型的基于 ODE 的采樣路徑壓縮到更小的步數(shù)。這個(gè)方向的例子是 CVPR2023 最佳論文候選之一的 Guided distillation,以及最近大火的 Latent Consistency Model (LCM)。尤其是 LCM,通過對一致性目標(biāo)進(jìn)行蒸餾,能夠?qū)⒉蓸硬綌?shù)降到只需 4 步,由此催生了不少實(shí)時(shí)生成的應(yīng)用。
然而,谷歌的研究團(tuán)隊(duì)在 UFOGen 模型中并沒有跟隨以上大方向,而是另辟蹊徑,利用了一年多前提出的擴(kuò)散模型和 GAN 的混合模型思路。他們認(rèn)為前面提到的基于 ODE 的采樣和蒸餾有其根本的局限性,很難將采樣步數(shù)壓縮到極限。因此想實(shí)現(xiàn)一步生成的目標(biāo),需要打開新的思路。
擴(kuò)散模型和 GAN 的混合模型最早是英偉達(dá)的研究團(tuán)隊(duì)在 ICLR 2022 上提出的 DDGAN(《Tackling the Generative Learning Trilemma with Denoising Diffusion GANs》)。其靈感來自于普通擴(kuò)散模型對降噪分布進(jìn)行高斯假設(shè)的根本缺陷。簡單來說,擴(kuò)散模型假設(shè)其降噪分布(給定一個(gè)加了噪音的樣本,對噪音含量更少的樣本的條件分布)是一個(gè)簡單的高斯分布。然而,隨機(jī)微分方程理論證明這樣的假設(shè)只在降噪步長趨于 0 的時(shí)候成立,因此擴(kuò)散模型需要大量重復(fù)的降噪步數(shù)來保證小的降噪步長,導(dǎo)致很慢的生成速度。
DDGAN 提出拋棄降噪分布的高斯假設(shè),而是用一個(gè)帶條件的 GAN 來模擬這個(gè)降噪分布。因?yàn)?GAN 具有極強(qiáng)的表示能力,能模擬復(fù)雜的分布,所以可以取較大的降噪步長來達(dá)到減少步數(shù)的目的。然而,DDGAN 將擴(kuò)散模型穩(wěn)定的重構(gòu)訓(xùn)練目標(biāo)變成了 GAN 的訓(xùn)練目標(biāo),很容易造成訓(xùn)練不穩(wěn)定,從而難以延伸到更復(fù)雜的任務(wù)。在 NeurIPS 2023 上,和創(chuàng)造 UGOGen 的同樣的谷歌研究團(tuán)隊(duì)提出了 SIDDM(論文標(biāo)題 Semi-Implicit Denoising Diffusion Models),將重構(gòu)目標(biāo)函數(shù)重新引入了 DDGAN 的訓(xùn)練目標(biāo),使訓(xùn)練的穩(wěn)定性和生成質(zhì)量都相比于 DDGAN 大幅提高。
SIDDM 作為 UFOGen 的前身,只需要 4 步就能在 CIFAR-10, ImageNet 等研究數(shù)據(jù)集上生成高質(zhì)量的圖片。但是SIDDM 有兩個(gè)問題需要解決:首先,它不能做到理想狀況的一步生成;其次,將其擴(kuò)展到更受關(guān)注的文生圖領(lǐng)域并不簡單。為此,谷歌的研究團(tuán)隊(duì)提出了 UFOGen,解決這兩個(gè)問題。
具體來說,對于問題一,通過簡單的數(shù)學(xué)分析,該團(tuán)隊(duì)發(fā)現(xiàn)通過改變生成器的參數(shù)化方式,以及改變重構(gòu)損失函數(shù)計(jì)算的計(jì)算方式,理論上模型可以實(shí)現(xiàn)一步生成。對于問題二,該團(tuán)隊(duì)提出利用已有的 Stable Diffusion 模型進(jìn)行初始化來讓 UFOGen 模型更快更好的擴(kuò)展到文生圖任務(wù)上。值得注意的是,SIDDM 就已經(jīng)提出讓生成器和判別器都采用 UNet 架構(gòu),因此基于該設(shè)計(jì),UFOGen 的生成器和判別器都是由 Stable Diffusion 模型初始化的。這樣做可以最大限度地利用 Stable Diffusion 的內(nèi)部信息,尤其是關(guān)于圖片和文字的關(guān)系的信息。這樣的信息很難通過對抗學(xué)習(xí)來獲得。訓(xùn)練算法和圖示見下。
值得注意的是,在這之前也有一些利用 GAN 做文生圖的工作,比如英偉達(dá)的 StyleGAN-T,Adobe 的 GigaGAN,都是將 StyleGAN 的基本架構(gòu)擴(kuò)展到更大的規(guī)模,從而也能一步文生圖。UFOGen 的作者指出,比起之前基于 GAN 的工作,除了生成質(zhì)量外,UFOGen 還有幾點(diǎn)優(yōu)勢:
1. 純粹的 GAN 訓(xùn)練非常不穩(wěn)定,尤其是對文生圖任務(wù)來說,判別器不但需要判別圖片的紋理,還需要理解圖片和文字的匹配程度,而這是十分困難的任務(wù),尤其在訓(xùn)練早期。因此,之前的 GAN 模型比如 GigaGAN,引入大量的輔助 loss 來幫助訓(xùn)練,這使得訓(xùn)練和調(diào)參變得異常困難。UFOGen 因?yàn)橛兄貥?gòu)損失,GAN 在這里起到輔助作用,因此訓(xùn)練非常穩(wěn)定。
2. 直接從頭開始訓(xùn)練 GAN 除了不穩(wěn)定還異常昂貴,尤其是在文生圖這樣需要大量數(shù)據(jù)和訓(xùn)練步數(shù)的任務(wù)下。因?yàn)樾枰瑫r(shí)更新兩組參數(shù),GAN 的訓(xùn)練比擴(kuò)散模型來說消耗的時(shí)間和內(nèi)存都更大。UFOGen 的創(chuàng)新設(shè)計(jì)能從 Stable Diffusion 中初始化參數(shù),大大節(jié)約了訓(xùn)練時(shí)間。通常收斂只需要幾萬步訓(xùn)練。
3. 文生圖擴(kuò)散模型的一大魅力在于能適用于其他任務(wù),包括不需要微調(diào)的應(yīng)用比如圖生圖,已經(jīng)需要微調(diào)的應(yīng)用比如可控生成。之前的 GAN 模型很難擴(kuò)展到這些下游任務(wù),因?yàn)槲⒄{(diào) GAN 一直是個(gè)難題。相反,UFOGen 擁有擴(kuò)散模型的框架,因此能更簡單地應(yīng)用到這些任務(wù)上。下圖展示了 UFOGen 的圖生圖以及可控生成的例子,注意這些生成也只需要一步采樣。
實(shí)驗(yàn)表明,UFOGen 只需一步采樣便可以生成高質(zhì)量的,符合文字描述的圖片。在和近期提出的針對擴(kuò)散模型的高速采樣方法的對比中(包括 Instaflow,以及大火的 LCM),UFOGen 展示出了很強(qiáng)的競爭力。甚至和 50 步采樣的 Stable Diffusion 相比,UFOGen 生成的樣本在觀感上也沒有表現(xiàn)得更弱。下面是一些對比結(jié)果:
總結(jié)
通過提升現(xiàn)有的擴(kuò)散模型和 GAN 的混合模型,谷歌團(tuán)隊(duì)提出了強(qiáng)大的能實(shí)現(xiàn)一步文生圖的 UFOGen 模型。該模型可以由 Stable Diffusion 微調(diào)而來,在保證一步文生圖能力的同時(shí),還能適用于不同的下游應(yīng)用。作為實(shí)現(xiàn)超快速文本到圖像合成的早期工作之一,UFOGen 為高效率生成模型領(lǐng)域開啟了一條新道路。
-
GaN
+關(guān)注
關(guān)注
19文章
1933瀏覽量
73286 -
生成器
+關(guān)注
關(guān)注
7文章
315瀏覽量
21002 -
圖像生成
+關(guān)注
關(guān)注
0文章
22瀏覽量
6892
原文標(biāo)題:谷歌新作UFOGen:通過擴(kuò)散GAN實(shí)現(xiàn)大規(guī)模文本到圖像生成
文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論