1月8日 消息:Meta 的 GenAI 團(tuán)隊推出了名為 Fairy 的視頻到視頻綜合模型,該模型比現(xiàn)有模型更快,時間上更一致。研究團(tuán)隊展示了 Fairy 在幾個應(yīng)用中的表現(xiàn),包括角色 / 物體替換,風(fēng)格化和長形式視頻生成。
比如,只需簡單的文本提示,如 “仿梵高風(fēng)格”,就足以編輯源視頻。例如,文本命令 “變成雪人” 將視頻中的宇航員變成了雪人。
Fairy 的視覺連貫性是一個特別具有挑戰(zhàn)性的問題,因?yàn)榛谙嗤崾居袩o數(shù)種方法可以修改給定的圖像。Fairy 使用交叉幀關(guān)注機(jī)制,這是一種隱式傳播擴(kuò)散特征的機(jī)制,確保了優(yōu)越的時間連貫性和高保真度的合成。
該模型可以在僅14秒內(nèi)生成大小為512x384像素、120幀(30fps 下的4秒)的視頻,比以前的模型至少快44倍。與 Meta 的 Emu 視頻模型一樣,F(xiàn)airy 是基于用于圖像處理的擴(kuò)散模型,經(jīng)過了視頻編輯的增強(qiáng)。
Fairy 在處理源視頻的所有幀時不進(jìn)行時間降采樣或幀插值,并保持了512的水平輸出視頻的縱橫比。在使用六個 A100GPU 進(jìn)行測試時,F(xiàn)airy 能夠在71.89秒內(nèi)渲染一個27秒的視頻,并保持高度的視覺一致性。
Fairy 的性能在一個包含1000個生成樣本的廣泛用戶研究中進(jìn)行了測試。無論是人類判斷還是定量指標(biāo)都證實(shí),F(xiàn)airy 的表現(xiàn)優(yōu)于 Rerender、TokenFlow 和 Gen-1這三個模型。
然而,該模型目前在處理如雨、火災(zāi)或閃電等動態(tài)環(huán)境效果方面存在問題,這些效果要么無法很好地融入整個場景,要么會產(chǎn)生視覺錯誤。
盡管存在這些問題,研究團(tuán)隊認(rèn)為他們的工作在 AI 視頻編輯領(lǐng)域代表了一次重大進(jìn)展,具有對時間一致性和高質(zhì)量視頻合成的變革性方法。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。
近日,德國柏林國際電子消費(fèi)品展覽會(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)成功斬獲兩項(xiàng)“IFA全球產(chǎn)品設(shè)計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強(qiáng)大影響力。
近日,中國家電及消費(fèi)電子博覽會(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實(shí)業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項(xiàng)AWE 2024艾普蘭大獎。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
由世界人工智能大會組委會、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實(shí)驗(yàn)室、上海臨港經(jīng)濟(jì)發(fā)展(集團(tuán))有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。