正在逐步覆蓋!騰訊提醒勿為實(shí)況圖重裝微信:以免丟失微信聊天記錄iPhone16多款機(jī)型破發(fā):最高比官網(wǎng)便宜600元劉積仁不愛“湊熱鬧”,但東軟集團(tuán)喜歡“追風(fēng)口”快手電商新增近800個(gè)“0元開店”類目,推出多項(xiàng)新商入駐權(quán)益年內(nèi)狂攬五項(xiàng)第一,“字節(jié)系大模型”何以后發(fā)先至?科技云報(bào)到:有韌性才能更“任性”,云韌性構(gòu)筑業(yè)務(wù)最后一道防線阿里云盤出“BUG”客服回應(yīng):已修復(fù)圍剿BBA,比亞迪和騰勢(shì)也準(zhǔn)備出一份力阿里云服務(wù)器操作系統(tǒng)Alibaba Cloud Linux全新升級(jí),核心場(chǎng)景性能提升超20%屏幕面板 10 月出貨,蘋果 M4 MacBook Air 被曝 2025Q1 發(fā)布蘋果史上最大:iPhone 16系列電池容量公布后移動(dòng)互聯(lián)網(wǎng)時(shí)代,移動(dòng)App兼容測(cè)試持續(xù)占據(jù)核心地位歐盟警告蘋果:六個(gè)月內(nèi)開放iPhone系統(tǒng) 否則重罰湖北省電子信息產(chǎn)業(yè)前8月實(shí)現(xiàn)營(yíng)收5970億元,同比增長(zhǎng)13.53%傳三星計(jì)劃2025年推出卷軸屏手機(jī)蘋果新專利探索折疊iPhone未來,任意表面實(shí)現(xiàn)觸敏控制蘋果iPhone16/Pro系列手機(jī)今日首銷,5999~9999元起各方媒體的聚焦關(guān)注,中南高科實(shí)力呈現(xiàn)高科“新質(zhì)”表現(xiàn)力拼多多解開了新疆的“包郵絕緣體”封印宏景智駕完成數(shù)億元C輪融資
  • 首頁 > 云計(jì)算頻道 > 大模型

    沒等來OpenAI,等來了Open-Sora全面開源

    2024年03月18日 09:11:17   來源:機(jī)器之心公眾號(hào)

      不久前 OpenAI Sora 以其驚人的視頻生成效果迅速走紅,在一眾文生視頻模型中突出重圍,成為全球矚目的焦點(diǎn)。繼2周前推出成本直降46% 的 Sora 訓(xùn)練推理復(fù)現(xiàn)流程后,Colossal-AI 團(tuán)隊(duì)全面開源全球首個(gè)類 Sora 架構(gòu)視頻生成模型「Open-Sora1.0」,涵蓋了整個(gè)訓(xùn)練流程,包括數(shù)據(jù)處理、所有訓(xùn)練細(xì)節(jié)和模型權(quán)重,攜手全球 AI 熱愛者共同推進(jìn)視頻創(chuàng)作的新紀(jì)元。

      先睹為快,我們先看一段由 Colossal-AI 團(tuán)隊(duì)發(fā)布的「Open-Sora1.0」模型生成的都市繁華掠影視頻。

      這僅僅是 Sora 復(fù)現(xiàn)技術(shù)冰山的一角,關(guān)于以上文生視頻的模型架構(gòu)、訓(xùn)練好的模型權(quán)重、復(fù)現(xiàn)的所有訓(xùn)練細(xì)節(jié)、數(shù)據(jù)預(yù)處理過程、demo 展示和詳細(xì)的上手教程,Colossal-AI 團(tuán)隊(duì)已經(jīng)全面免費(fèi)開源在 GitHub,同時(shí)筆者第一時(shí)間聯(lián)系了該團(tuán)隊(duì),了解到他們將不斷更新 Open-Sora 的相關(guān)解決方案和最新動(dòng)態(tài),感興趣的朋友可以持續(xù)關(guān)注 Open-Sora 的開源社區(qū)。

      全面解讀 Sora 復(fù)現(xiàn)方案

      接下來,我們將深入解讀 Sora 復(fù)現(xiàn)方案的多個(gè)關(guān)鍵維度,包括模型架構(gòu)設(shè)計(jì)、訓(xùn)練復(fù)現(xiàn)方案、數(shù)據(jù)預(yù)處理、模型生成效果展示以及高效訓(xùn)練優(yōu)化策略。

      模型架構(gòu)設(shè)計(jì)

      模型采用了目前火熱的 Diffusion Transformer (DiT) [1] 架構(gòu)。作者團(tuán)隊(duì)以同樣使用 DiT 架構(gòu)的高質(zhì)量開源文生圖模型 PixArt-α [2] 為基座,在此基礎(chǔ)上引入時(shí)間注意力層,將其擴(kuò)展到了視頻數(shù)據(jù)上。具體來說,整個(gè)架構(gòu)包括一個(gè)預(yù)訓(xùn)練好的 VAE,一個(gè)文本編碼器,和一個(gè)利用空間 - 時(shí)間注意力機(jī)制的 STDiT (Spatial Temporal Diffusion Transformer) 模型。其中,STDiT 每層的結(jié)構(gòu)如下圖所示。它采用串行的方式在二維的空間注意力模塊上疊加一維的時(shí)間注意力模塊,用于建模時(shí)序關(guān)系。在時(shí)間注意力模塊之后,交叉注意力模塊用于對(duì)齊文本的語意。與全注意力機(jī)制相比,這樣的結(jié)構(gòu)大大降低了訓(xùn)練和推理開銷。與同樣使用空間 - 時(shí)間注意力機(jī)制的 Latte [3] 模型相比,STDiT 可以更好的利用已經(jīng)預(yù)訓(xùn)練好的圖像 DiT 的權(quán)重,從而在視頻數(shù)據(jù)上繼續(xù)訓(xùn)練。

      STDiT 結(jié)構(gòu)示意圖

      整個(gè)模型的訓(xùn)練和推理流程如下。據(jù)了解,在訓(xùn)練階段首先采用預(yù)訓(xùn)練好的 Variational Autoencoder (VAE) 的編碼器將視頻數(shù)據(jù)進(jìn)行壓縮,然后在壓縮之后的潛在空間中與文本嵌入 (text embedding) 一起訓(xùn)練 STDiT 擴(kuò)散模型。在推理階段,從 VAE 的潛在空間中隨機(jī)采樣出一個(gè)高斯噪聲,與提示詞嵌入 (prompt embedding) 一起輸入到 STDiT 中,得到去噪之后的特征,最后輸入到 VAE 的解碼器,解碼得到視頻。

      模型的訓(xùn)練流程

      訓(xùn)練復(fù)現(xiàn)方案

      我們向該團(tuán)隊(duì)了解到,Open-Sora 的復(fù)現(xiàn)方案參考了 Stable Video Diffusion (SVD)[3] 工作,共包括三個(gè)階段,分別是:

      1) 大規(guī)模圖像預(yù)訓(xùn)練;

      2) 大規(guī)模視頻預(yù)訓(xùn)練;

      3) 高質(zhì)量視頻數(shù)據(jù)微調(diào)。

      每個(gè)階段都會(huì)基于前一個(gè)階段的權(quán)重繼續(xù)訓(xùn)練。相比于從零開始單階段訓(xùn)練,多階段訓(xùn)練通過逐步擴(kuò)展數(shù)據(jù),更高效地達(dá)成高質(zhì)量視頻生成的目標(biāo)。

      第一階段:大規(guī)模圖像預(yù)訓(xùn)練

      第一階段通過大規(guī)模圖像預(yù)訓(xùn)練,借助成熟的文生圖模型,有效降低視頻預(yù)訓(xùn)練成本。

      作者團(tuán)隊(duì)向我們透露,通過互聯(lián)網(wǎng)上豐富的大規(guī)模圖像數(shù)據(jù)和先進(jìn)的文生圖技術(shù),我們可以訓(xùn)練一個(gè)高質(zhì)量的文生圖模型,該模型將作為下一階段視頻預(yù)訓(xùn)練的初始化權(quán)重。同時(shí),由于目前沒有高質(zhì)量的時(shí)空 VAE,他們采用了 Stable Diffusion [5] 模型預(yù)訓(xùn)練好的圖像 VAE。該策略不僅保障了初始模型的優(yōu)越性能,還顯著降低了視頻預(yù)訓(xùn)練的整體成本。

      第二階段:大規(guī)模視頻預(yù)訓(xùn)練

      第二階段執(zhí)行大規(guī)模視頻預(yù)訓(xùn)練,增加模型泛化能力,有效掌握視頻的時(shí)間序列關(guān)聯(lián)。

      我們了解到,這個(gè)階段需要使用大量視頻數(shù)據(jù)訓(xùn)練,保證視頻題材的多樣性,從而增加模型的泛化能力。第二階段的模型在第一階段文生圖模型的基礎(chǔ)上加入了時(shí)序注意力模塊,用于學(xué)習(xí)視頻中的時(shí)序關(guān)系。其余模塊與第一階段保持一致,并加載第一階段權(quán)重作為初始化,同時(shí)初始化時(shí)序注意力模塊輸出為零,以達(dá)到更高效更快速的收斂。Colossal-AI 團(tuán)隊(duì)使用了 PixArt-alpha [2] 的開源權(quán)重作為第二階段 STDiT 模型的初始化,以及采用了 T5[6] 模型作為文本編碼器。同時(shí)他們采用了256x256的小分辨率進(jìn)行預(yù)訓(xùn)練,進(jìn)一步增加了收斂速度,降低訓(xùn)練成本。

      第三階段:高質(zhì)量視頻數(shù)據(jù)微調(diào)

      第三階段對(duì)高質(zhì)量視頻數(shù)據(jù)進(jìn)行微調(diào),顯著提升視頻生成的質(zhì)量。

      作者團(tuán)隊(duì)提及第三階段用到的視頻數(shù)據(jù)規(guī)模比第二階段要少一個(gè)量級(jí),但是視頻的時(shí)長(zhǎng)、分辨率和質(zhì)量都更高。通過這種方式進(jìn)行微調(diào),他們實(shí)現(xiàn)了視頻生成從短到長(zhǎng)、從低分辨率到高分辨率、從低保真度到高保真度的高效擴(kuò)展。

      作者團(tuán)隊(duì)表示,在 Open-Sora 的復(fù)現(xiàn)流程中,他們使用了64塊 H800進(jìn)行訓(xùn)練。第二階段的訓(xùn)練量一共是2808GPU hours,約合7000美元,第三階段的訓(xùn)練量是1920GPU hours,大約4500美元。經(jīng)過初步估算,整個(gè)訓(xùn)練方案成功把 Open-Sora 復(fù)現(xiàn)流程控制在了1萬美元左右。

      數(shù)據(jù)預(yù)處理

      為了進(jìn)一步降低 Sora 復(fù)現(xiàn)的門檻和復(fù)雜度,Colossal-AI 團(tuán)隊(duì)在代碼倉(cāng)庫中還提供了便捷的視頻數(shù)據(jù)預(yù)處理腳本,讓大家可以輕松啟動(dòng) Sora 復(fù)現(xiàn)預(yù)訓(xùn)練,包括公開視頻數(shù)據(jù)集下載,長(zhǎng)視頻根據(jù)鏡頭連續(xù)性分割為短視頻片段,使用開源大語言模型 LLaVA [7] 生成精細(xì)的提示詞。作者團(tuán)隊(duì)提到他們提供的批量視頻標(biāo)題生成代碼可以用兩卡3秒標(biāo)注一個(gè)視頻,并且質(zhì)量接近于 GPT-4V。最終得到的視頻 / 文本對(duì)可直接用于訓(xùn)練。借助他們?cè)?GitHub 上提供的開源代碼,我們可以輕松地在自己的數(shù)據(jù)集上快速生成訓(xùn)練所需的視頻 / 文本對(duì),顯著降低了啟動(dòng) Sora 復(fù)現(xiàn)項(xiàng)目的技術(shù)門檻和前期準(zhǔn)備。

      基于數(shù)據(jù)預(yù)處理腳本自動(dòng)生成的視頻 / 文本對(duì)

      模型生成效果展示

      下面我們來看一下 Open-Sora 實(shí)際視頻生成效果。比如讓 Open-Sora 生成一段在懸崖海岸邊,海水拍打著巖石的航拍畫面。

      再讓 Open-Sora 去捕捉山川瀑布從懸崖上澎湃而下,最終匯入湖泊的宏偉鳥瞰畫面。

      除了上天還能入海,簡(jiǎn)單輸入 prompt,讓 Open-Sora 生成了一段水中世界的鏡頭,鏡頭中一只海龜在珊瑚礁間悠然游弋。

      Open-Sora 還能通過延時(shí)攝影的手法,向我們展現(xiàn)了繁星閃爍的銀河。

      如果你還有更多視頻生成的有趣想法,可以訪問 Open-Sora 開源社區(qū)獲取模型權(quán)重進(jìn)行免費(fèi)的體驗(yàn)。鏈接:https://github.com/hpcaitech/Open-Sora

      值得注意的是,作者團(tuán)隊(duì)在 Github 上提到目前版本僅使用了400K 的訓(xùn)練數(shù)據(jù),模型的生成質(zhì)量和遵循文本的能力都有待提升。例如在上面的烏龜視頻中,生成的烏龜多了一只腳。Open-Sora1.0也并不擅長(zhǎng)生成人像和復(fù)雜畫面。作者團(tuán)隊(duì)在 Github 上列舉了一系列待做規(guī)劃,旨在不斷解決現(xiàn)有缺陷,提升生成質(zhì)量。

      高效訓(xùn)練加持

      除了大幅降低 Sora 復(fù)現(xiàn)的技術(shù)門檻,提升視頻生成在時(shí)長(zhǎng)、分辨率、內(nèi)容等多個(gè)維度的質(zhì)量,作者團(tuán)隊(duì)還提供了 Colossal-AI 加速系統(tǒng)進(jìn)行 Sora 復(fù)現(xiàn)的高效訓(xùn)練加持。通過算子優(yōu)化和混合并行等高效訓(xùn)練策略,在處理64幀、512x512分辨率視頻的訓(xùn)練中,實(shí)現(xiàn)了1.55倍的加速效果。同時(shí),得益于 Colossal-AI 的異構(gòu)內(nèi)存管理系統(tǒng),在單臺(tái)服務(wù)器上(8*H800)可以無阻礙地進(jìn)行1分鐘的1080p 高清視頻訓(xùn)練任務(wù)。

      此外,在作者團(tuán)隊(duì)的報(bào)告中,我們也發(fā)現(xiàn) STDiT 模型架構(gòu)在訓(xùn)練時(shí)也展現(xiàn)出卓越的高效性。和采用全注意力機(jī)制的 DiT 相比,隨著幀數(shù)的增加,STDiT 實(shí)現(xiàn)了高達(dá)5倍的加速效果,這在處理長(zhǎng)視頻序列等現(xiàn)實(shí)任務(wù)中尤為關(guān)鍵。

      一覽 Open-Sora 模型視頻生成效果

      最后,讓我們一睹Open-Sora模型在視頻生成上的精彩表現(xiàn)。

      歡迎持續(xù)關(guān)注 Open-Sora 開源項(xiàng)目:https://github.com/hpcaitech/Open-Sora

      作者團(tuán)隊(duì)表示,他們將會(huì)繼續(xù)維護(hù)和優(yōu)化 Open-Sora 項(xiàng)目,預(yù)計(jì)將使用更多的視頻訓(xùn)練數(shù)據(jù),以生成更高質(zhì)量、更長(zhǎng)時(shí)長(zhǎng)的視頻內(nèi)容,并支持多分辨率特性,切實(shí)推進(jìn) AI 技術(shù)在電影、游戲、廣告等領(lǐng)域的落地。

      文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。

    即時(shí)

    TCL實(shí)業(yè)榮獲IFA2024多項(xiàng)大獎(jiǎng),展示全球科技創(chuàng)新力量

    近日,德國(guó)柏林國(guó)際電子消費(fèi)品展覽會(huì)(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計(jì)及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)成功斬獲兩項(xiàng)“IFA全球產(chǎn)品設(shè)計(jì)創(chuàng)新大獎(jiǎng)”金獎(jiǎng),有力證明了其在全球市場(chǎng)的強(qiáng)大影響力。

    新聞

    敢闖技術(shù)無人區(qū) TCL實(shí)業(yè)斬獲多項(xiàng)AWE 2024艾普蘭獎(jiǎng)

    近日,中國(guó)家電及消費(fèi)電子博覽會(huì)(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項(xiàng)AWE 2024艾普蘭大獎(jiǎng)。

    企業(yè)IT

    重慶創(chuàng)新公積金應(yīng)用,“區(qū)塊鏈+政務(wù)服務(wù)”顯成效

    “以前都要去窗口辦,一套流程下來都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。

    3C消費(fèi)

    “純臻4K 視界煥新”——愛普生4K 3LCD 激光工程投影

    2024年3月12日,由愛普生舉辦的主題為“純臻4K 視界煥新”新品發(fā)布會(huì)在上海盛大舉行。

    研究

    2024全球開發(fā)者先鋒大會(huì)即將開幕

    由世界人工智能大會(huì)組委會(huì)、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會(huì)共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會(huì)聯(lián)合上海人工智能實(shí)驗(yàn)室、上海臨港經(jīng)濟(jì)發(fā)展(集團(tuán))有限公司、開放原子開源基金會(huì)主辦的“2024全球開發(fā)者先鋒大會(huì)”,將于2024年3月23日至24日舉辦。