本文來自于微信公眾號(hào) AIGC開放社區(qū)(ID:AIGCOPEN),作者:AIGC開放社區(qū)。
Midjourney、Stable Difusion在商業(yè)變現(xiàn)和場(chǎng)景化落地方面獲得了巨大成功,這讓OpenAI看到了全新的商機(jī),也是推出DALL·E3的重要原因之一。
上周,OpenAI宣布在ChatGPT Plus和企業(yè)版用戶中,全面開放文生圖模型DALL·E3,同時(shí)罕見地放出了研究論文。
DALL·E3與前兩代DALL·E、DALL·E2相比,在語義理解、圖片質(zhì)量、圖片修改、圖片解讀、長(zhǎng)文本輸入等方面實(shí)現(xiàn)了質(zhì)的飛躍,尤其是與ChatGPT的相結(jié)合,成為OpenAI全新的王牌應(yīng)用。
下面「AIGC開放社區(qū)」將根據(jù)DALL·E3的論文為大家解讀其主要技術(shù)原理,各個(gè)模塊的功能。
研究人員發(fā)現(xiàn),文本生成圖像模型在遵循詳細(xì)的圖片描述時(shí)經(jīng)常存在各種難題,會(huì)忽略提示中的詞語或混淆其含義,根本原因就是訓(xùn)練數(shù)據(jù)集中圖像描述的質(zhì)量較差。
為了驗(yàn)證這一假設(shè),研究人員首先訓(xùn)練了一個(gè)生成描述性圖像字幕的模型。該模型經(jīng)過精心訓(xùn)練,可以為圖像生成詳細(xì)和準(zhǔn)確的描述。
在使用這個(gè)模型為訓(xùn)練數(shù)據(jù)集重新生成描述后,研究人員比較了在原始描述和新生成描述上訓(xùn)練的多個(gè)文本生成圖像模型。
結(jié)果表明,在新描述上訓(xùn)練的模型在遵循提示方面,明顯優(yōu)于原始描述模型。隨后在大規(guī)模數(shù)據(jù)集上使用這種方法訓(xùn)練了——DALL-E3。
從DALL-E3的技術(shù)架構(gòu)來看,主要分為圖像描述生成和圖像生成兩大模塊。
圖像描述生成模塊
該模塊使用了CLIP(Contrastive Language-Image Pretraining)圖像編碼器和GPT語言模型(GPT-4),可為每張圖像生成細(xì)致的文字描述。
研究人員通過構(gòu)建小規(guī)模主體描述數(shù)據(jù)集、大規(guī)模詳細(xì)描述數(shù)據(jù)集以及設(shè)置生成規(guī)則等方法,使模塊輸出的圖像描述信息量大幅提升,為后續(xù)生成圖像提供強(qiáng)力支持。主要各個(gè)模塊功能如下:
1)CLIP圖像編碼器
CLIP是一個(gè)訓(xùn)練好的圖像文本匹配模型,可以將一張圖像編碼成一個(gè)固定長(zhǎng)度的向量,包含了圖像的語義信息。DALL-E3利用CLIP的圖像編碼器,將訓(xùn)練圖像編碼為圖像特征向量,作為條件文本生成的一部分輸入。
2)GPT語言模型
DALL-E3基于GPT架構(gòu)建立語言模型,通過最大化隨機(jī)抽取文本序列的聯(lián)合概率,學(xué)習(xí)生成連貫的文字描述。
3)條件文本生成
將上述兩者結(jié)合,圖像特征向量與之前的單詞序列一同輸入到GPT語言模型中,就可以實(shí)現(xiàn)對(duì)圖像的條件文本生成。通過訓(xùn)練,該模塊學(xué)會(huì)為每張圖像生成細(xì)致Descriptive的描述。
4)優(yōu)化訓(xùn)練
盡管DALL-E3的基礎(chǔ)架構(gòu)已經(jīng)完成了,但直接訓(xùn)練的結(jié)果還不夠理想,無法生成細(xì)節(jié)豐富的描述。所以,研究人員進(jìn)行了以下技術(shù)優(yōu)化:
構(gòu)建小規(guī)模數(shù)據(jù)集,專門收集主體物詳細(xì)描述,微調(diào)語言模型,傾向于描述圖像主體。
構(gòu)建大規(guī)模詳細(xì)描述數(shù)據(jù)集,描述主體、背景、顏色、文本等各個(gè)方面,通過微調(diào)進(jìn)一步提升描述質(zhì)量。
設(shè)置生成描述的長(zhǎng)度、樣式等規(guī)則,防止語言模型偏離人類風(fēng)格。
圖像生成模塊
該模塊先用VAE將高分辨率圖像壓縮為低維向量,降低學(xué)習(xí)難度。然后,使用T5Transformer將文本編碼為向量,并通過GroupNorm層將其注入diffusion模型,指導(dǎo)圖像生成方向。
研究人員認(rèn)為,額外加入的Diffusion模型顯著增強(qiáng)了圖片細(xì)節(jié)生成的效果。具體流程如下:
1)圖像壓縮
將高分辨率圖像先通過VAE模型壓縮為低維向量,以降低圖像生成的難度。DALL-E3采用8倍下采樣,256px圖像壓縮為32x32大小的latent向量。
2)文本編碼器
使用T5Transformer等網(wǎng)絡(luò)將文本提示編碼為向量,以便注入到圖像生成模型中。
3)Latent Diffusion
這是圖像生成的核心技術(shù),將圖像生成問題分解為多次對(duì)噪聲向量的小規(guī)模擾動(dòng),逐步鄰近目標(biāo)圖像。關(guān)鍵是設(shè)計(jì)恰當(dāng)?shù)那跋蜻^程和反向過程。
4)文本注入
將編碼好的文本向量,通過GroupNorm層注入到Latent Diffusion模型中,指導(dǎo)每輪迭代的圖像生成方向。
5)優(yōu)化訓(xùn)練
研究人員發(fā)現(xiàn),在壓縮image latent空間上再訓(xùn)練一個(gè)Diffusion模型,可以進(jìn)一步提升細(xì)節(jié)生成質(zhì)量。這也是DALL-E3比前兩代生成的圖片質(zhì)量更好的原因之一。
CLIP評(píng)估數(shù)據(jù)
研究人員首先利用CLIP模型計(jì)算DALL-E3生成圖片與原描述文本的相似度,即CLIP得分。他們隨機(jī)抽取了MSCOCO數(shù)據(jù)集中4096條圖像描述作為提示文本,分別讓DALL-E2、DALL-E3和Stable Diffusion XL生成對(duì)應(yīng)圖片,然后計(jì)算三者的平均CLIP得分。
結(jié)果顯示,DALL-E3的CLIP得分達(dá)到32.0,優(yōu)于DALL-E2的31.4和Stable Diffusion XL的30.5。
這表明DALL-E3生成的圖片與原始描述文本的契合度更高,文本指導(dǎo)圖像生成的效果更好。
Drawbench評(píng)估數(shù)據(jù)
在Drawbench數(shù)據(jù)集上比較了各模型的表現(xiàn)。該數(shù)據(jù)集包含許多脆弱的文本提示,考驗(yàn)?zāi)P蛯?duì)提示的理解力。
研究人員使用GPT-V這個(gè)配備視覺能力的語言模型來自動(dòng)判斷生成圖片的正確性。
在短文本提示的子測(cè)試中,DALL-E3正確生成圖像的比例達(dá)到70.4%,顯著超過DALL-E2的49%和Stable Diffusion XL的46.9%。
在長(zhǎng)文本提示上,DALL-E3的正確率也達(dá)到81%,繼續(xù)領(lǐng)先其他模型。
T2I-CompBench評(píng)估
通過T2I-CompBench中的相關(guān)子測(cè)試,考察模型對(duì)組合類提示的處理能力。在顏色綁定、形狀綁定和質(zhì)感綁定三項(xiàng)測(cè)試中,DALL-E3的正確綁定比例均高居各模型之首,充分展現(xiàn)了其理解組合提示的強(qiáng)大能力。
人工評(píng)估
研究人員還邀請(qǐng)了人工在遵循提示、風(fēng)格連貫性等方面對(duì)生成樣本進(jìn)行判斷。在170條提示的評(píng)估中,DALL-E3明顯優(yōu)于Midjourney和Stable Diffusion XL。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會(huì)上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實(shí)質(zhì)性的幫助,雙十一期間低至2799元,性價(jià)比很高,簡(jiǎn)直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會(huì)——工業(yè)互聯(lián)網(wǎng)標(biāo)識(shí)解析專題論壇在沈陽成功舉辦。