下單前先比價(jià)不花冤枉錢 同款圖書京東價(jià)低于抖音6折日媒感慨中國(guó)電動(dòng)汽車/智駕遙遙領(lǐng)先:本田、日產(chǎn)、三菱合并也沒戲消委會(huì)吹風(fēng)機(jī)品質(zhì)檢測(cè)結(jié)果揭曉 徠芬獨(dú)占鰲頭 共話新質(zhì)營(yíng)銷力,2024梅花數(shù)據(jù)峰會(huì)圓滿落幕索尼影像專業(yè)服務(wù) PRO Support 升級(jí),成為會(huì)員至少需注冊(cè) 2 臺(tái) α 全畫幅相機(jī)、3 支 G 大師鏡頭消息稱vivo加碼電池軍備競(jìng)賽:6500mAh 旗艦機(jī)+7500mAh中端機(jī)寶馬M8雙門轎跑車明年年初將停產(chǎn),后續(xù)無2026款車型比亞迪:2025 款漢家族車型城市領(lǐng)航智駕功能開啟內(nèi)測(cè)雷神預(yù)告2025年首次出席CES 將發(fā)布三款不同技術(shù)原理智能眼鏡realme真我全球首發(fā)聯(lián)發(fā)科天璣 8400 耐玩戰(zhàn)神共創(chuàng)計(jì)劃iQOO Z9 Turbo長(zhǎng)續(xù)航版手機(jī)被曝電池加大到6400mAh,搭驍龍 8s Gen 3處理器普及放緩 銷量大跌:曝保時(shí)捷將重新評(píng)估電動(dòng)汽車計(jì)劃來京東參與榮耀Magic7 RSR 保時(shí)捷設(shè)計(jì)預(yù)售 享365天只換不修國(guó)補(bǔ)期間電視迎來換機(jī)潮,最暢銷MiniLED品牌花落誰家?美團(tuán)旗下微信社群團(tuán)購(gòu)業(yè)務(wù)“團(tuán)買買”宣布年底停運(yùn)消息稱微軟正與第三方廠商洽談,試圖合作推出Xbox游戲掌機(jī)設(shè)備在海外,要再造一個(gè)京東物流?消息稱蘋果正為AirPods開發(fā)多項(xiàng)健康功能,包括心率監(jiān)測(cè)和溫度感應(yīng)一加 Ace 5系列將搭載全新游戲助手:大幅提升游戲體驗(yàn)東芝全部業(yè)務(wù)實(shí)現(xiàn)盈利,退市裁員重組后終于賺錢
  • 首頁 > 云計(jì)算頻道 > 大模型

    解讀OpenAI最強(qiáng)文生圖模型—DALL·E 3

    2023年10月24日 11:56:06   來源:微信公眾號(hào) AIGC開放社區(qū)

      本文來自于微信公眾號(hào) AIGC開放社區(qū)(ID:AIGCOPEN),作者:AIGC開放社區(qū)。

      Midjourney、Stable Difusion在商業(yè)變現(xiàn)和場(chǎng)景化落地方面獲得了巨大成功,這讓OpenAI看到了全新的商機(jī),也是推出DALL·E3的重要原因之一。

      上周,OpenAI宣布在ChatGPT Plus和企業(yè)版用戶中,全面開放文生圖模型DALL·E3,同時(shí)罕見地放出了研究論文。

      DALL·E3與前兩代DALL·E、DALL·E2相比,在語義理解、圖片質(zhì)量、圖片修改、圖片解讀、長(zhǎng)文本輸入等方面實(shí)現(xiàn)了質(zhì)的飛躍,尤其是與ChatGPT的相結(jié)合,成為OpenAI全新的王牌應(yīng)用。

      下面「AIGC開放社區(qū)」將根據(jù)DALL·E3的論文為大家解讀其主要技術(shù)原理,各個(gè)模塊的功能。

      研究人員發(fā)現(xiàn),文本生成圖像模型在遵循詳細(xì)的圖片描述時(shí)經(jīng)常存在各種難題,會(huì)忽略提示中的詞語或混淆其含義,根本原因就是訓(xùn)練數(shù)據(jù)集中圖像描述的質(zhì)量較差。

      為了驗(yàn)證這一假設(shè),研究人員首先訓(xùn)練了一個(gè)生成描述性圖像字幕的模型。該模型經(jīng)過精心訓(xùn)練,可以為圖像生成詳細(xì)和準(zhǔn)確的描述。

      在使用這個(gè)模型為訓(xùn)練數(shù)據(jù)集重新生成描述后,研究人員比較了在原始描述和新生成描述上訓(xùn)練的多個(gè)文本生成圖像模型。

      結(jié)果表明,在新描述上訓(xùn)練的模型在遵循提示方面,明顯優(yōu)于原始描述模型。隨后在大規(guī)模數(shù)據(jù)集上使用這種方法訓(xùn)練了——DALL-E3。

      從DALL-E3的技術(shù)架構(gòu)來看,主要分為圖像描述生成和圖像生成兩大模塊。

      圖像描述生成模塊

      該模塊使用了CLIP(Contrastive Language-Image Pretraining)圖像編碼器和GPT語言模型(GPT-4),可為每張圖像生成細(xì)致的文字描述。

      研究人員通過構(gòu)建小規(guī)模主體描述數(shù)據(jù)集、大規(guī)模詳細(xì)描述數(shù)據(jù)集以及設(shè)置生成規(guī)則等方法,使模塊輸出的圖像描述信息量大幅提升,為后續(xù)生成圖像提供強(qiáng)力支持。主要各個(gè)模塊功能如下:

      1)CLIP圖像編碼器

      CLIP是一個(gè)訓(xùn)練好的圖像文本匹配模型,可以將一張圖像編碼成一個(gè)固定長(zhǎng)度的向量,包含了圖像的語義信息。DALL-E3利用CLIP的圖像編碼器,將訓(xùn)練圖像編碼為圖像特征向量,作為條件文本生成的一部分輸入。

      2)GPT語言模型

      DALL-E3基于GPT架構(gòu)建立語言模型,通過最大化隨機(jī)抽取文本序列的聯(lián)合概率,學(xué)習(xí)生成連貫的文字描述。

      3)條件文本生成

      將上述兩者結(jié)合,圖像特征向量與之前的單詞序列一同輸入到GPT語言模型中,就可以實(shí)現(xiàn)對(duì)圖像的條件文本生成。通過訓(xùn)練,該模塊學(xué)會(huì)為每張圖像生成細(xì)致Descriptive的描述。

      4)優(yōu)化訓(xùn)練

      盡管DALL-E3的基礎(chǔ)架構(gòu)已經(jīng)完成了,但直接訓(xùn)練的結(jié)果還不夠理想,無法生成細(xì)節(jié)豐富的描述。所以,研究人員進(jìn)行了以下技術(shù)優(yōu)化:

      構(gòu)建小規(guī)模數(shù)據(jù)集,專門收集主體物詳細(xì)描述,微調(diào)語言模型,傾向于描述圖像主體。

      構(gòu)建大規(guī)模詳細(xì)描述數(shù)據(jù)集,描述主體、背景、顏色、文本等各個(gè)方面,通過微調(diào)進(jìn)一步提升描述質(zhì)量。

      設(shè)置生成描述的長(zhǎng)度、樣式等規(guī)則,防止語言模型偏離人類風(fēng)格。

      圖像生成模塊

      該模塊先用VAE將高分辨率圖像壓縮為低維向量,降低學(xué)習(xí)難度。然后,使用T5Transformer將文本編碼為向量,并通過GroupNorm層將其注入diffusion模型,指導(dǎo)圖像生成方向。

      研究人員認(rèn)為,額外加入的Diffusion模型顯著增強(qiáng)了圖片細(xì)節(jié)生成的效果。具體流程如下:

      1)圖像壓縮

      將高分辨率圖像先通過VAE模型壓縮為低維向量,以降低圖像生成的難度。DALL-E3采用8倍下采樣,256px圖像壓縮為32x32大小的latent向量。

      2)文本編碼器

      使用T5Transformer等網(wǎng)絡(luò)將文本提示編碼為向量,以便注入到圖像生成模型中。

      3)Latent Diffusion

      這是圖像生成的核心技術(shù),將圖像生成問題分解為多次對(duì)噪聲向量的小規(guī)模擾動(dòng),逐步鄰近目標(biāo)圖像。關(guān)鍵是設(shè)計(jì)恰當(dāng)?shù)那跋蜻^程和反向過程。

      4)文本注入

      將編碼好的文本向量,通過GroupNorm層注入到Latent Diffusion模型中,指導(dǎo)每輪迭代的圖像生成方向。

      5)優(yōu)化訓(xùn)練

      研究人員發(fā)現(xiàn),在壓縮image latent空間上再訓(xùn)練一個(gè)Diffusion模型,可以進(jìn)一步提升細(xì)節(jié)生成質(zhì)量。這也是DALL-E3比前兩代生成的圖片質(zhì)量更好的原因之一。

      CLIP評(píng)估數(shù)據(jù)

      研究人員首先利用CLIP模型計(jì)算DALL-E3生成圖片與原描述文本的相似度,即CLIP得分。他們隨機(jī)抽取了MSCOCO數(shù)據(jù)集中4096條圖像描述作為提示文本,分別讓DALL-E2、DALL-E3和Stable Diffusion XL生成對(duì)應(yīng)圖片,然后計(jì)算三者的平均CLIP得分。

      結(jié)果顯示,DALL-E3的CLIP得分達(dá)到32.0,優(yōu)于DALL-E2的31.4和Stable Diffusion XL的30.5。

      這表明DALL-E3生成的圖片與原始描述文本的契合度更高,文本指導(dǎo)圖像生成的效果更好。

      Drawbench評(píng)估數(shù)據(jù)

      在Drawbench數(shù)據(jù)集上比較了各模型的表現(xiàn)。該數(shù)據(jù)集包含許多脆弱的文本提示,考驗(yàn)?zāi)P蛯?duì)提示的理解力。

      研究人員使用GPT-V這個(gè)配備視覺能力的語言模型來自動(dòng)判斷生成圖片的正確性。

      在短文本提示的子測(cè)試中,DALL-E3正確生成圖像的比例達(dá)到70.4%,顯著超過DALL-E2的49%和Stable Diffusion XL的46.9%。

      在長(zhǎng)文本提示上,DALL-E3的正確率也達(dá)到81%,繼續(xù)領(lǐng)先其他模型。

      T2I-CompBench評(píng)估

      通過T2I-CompBench中的相關(guān)子測(cè)試,考察模型對(duì)組合類提示的處理能力。在顏色綁定、形狀綁定和質(zhì)感綁定三項(xiàng)測(cè)試中,DALL-E3的正確綁定比例均高居各模型之首,充分展現(xiàn)了其理解組合提示的強(qiáng)大能力。

      人工評(píng)估

      研究人員還邀請(qǐng)了人工在遵循提示、風(fēng)格連貫性等方面對(duì)生成樣本進(jìn)行判斷。在170條提示的評(píng)估中,DALL-E3明顯優(yōu)于Midjourney和Stable Diffusion XL。

      文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。

    即時(shí)

    新聞

    明火炊具市場(chǎng):三季度健康屬性貫穿全類目

    奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。

    企業(yè)IT

    重慶創(chuàng)新公積金應(yīng)用,“區(qū)塊鏈+政務(wù)服務(wù)”顯成效

    “以前都要去窗口辦,一套流程下來都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。

    3C消費(fèi)

    華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,高能實(shí)力,創(chuàng)

    華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實(shí)質(zhì)性的幫助,雙十一期間低至2799元,性價(jià)比很高,簡(jiǎn)直是創(chuàng)作者們的首選。