1月8日 消息:Meta 的 GenAI 團(tuán)隊推出了名為 Fairy 的視頻到視頻綜合模型,該模型比現(xiàn)有模型更快,時間上更一致。研究團(tuán)隊展示了 Fairy 在幾個應(yīng)用中的表現(xiàn),包括角色 / 物體替換,風(fēng)格化和長形式視頻生成。
比如,只需簡單的文本提示,如 “仿梵高風(fēng)格”,就足以編輯源視頻。例如,文本命令 “變成雪人” 將視頻中的宇航員變成了雪人。
Fairy 的視覺連貫性是一個特別具有挑戰(zhàn)性的問題,因?yàn)榛谙嗤崾居袩o數(shù)種方法可以修改給定的圖像。Fairy 使用交叉幀關(guān)注機(jī)制,這是一種隱式傳播擴(kuò)散特征的機(jī)制,確保了優(yōu)越的時間連貫性和高保真度的合成。
該模型可以在僅14秒內(nèi)生成大小為512x384像素、120幀(30fps 下的4秒)的視頻,比以前的模型至少快44倍。與 Meta 的 Emu 視頻模型一樣,F(xiàn)airy 是基于用于圖像處理的擴(kuò)散模型,經(jīng)過了視頻編輯的增強(qiáng)。
Fairy 在處理源視頻的所有幀時不進(jìn)行時間降采樣或幀插值,并保持了512的水平輸出視頻的縱橫比。在使用六個 A100GPU 進(jìn)行測試時,F(xiàn)airy 能夠在71.89秒內(nèi)渲染一個27秒的視頻,并保持高度的視覺一致性。
Fairy 的性能在一個包含1000個生成樣本的廣泛用戶研究中進(jìn)行了測試。無論是人類判斷還是定量指標(biāo)都證實(shí),F(xiàn)airy 的表現(xiàn)優(yōu)于 Rerender、TokenFlow 和 Gen-1這三個模型。
然而,該模型目前在處理如雨、火災(zāi)或閃電等動態(tài)環(huán)境效果方面存在問題,這些效果要么無法很好地融入整個場景,要么會產(chǎn)生視覺錯誤。
盡管存在這些問題,研究團(tuán)隊認(rèn)為他們的工作在 AI 視頻編輯領(lǐng)域代表了一次重大進(jìn)展,具有對時間一致性和高質(zhì)量視頻合成的變革性方法。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹(jǐn)慎對待。投資者據(jù)此操作,風(fēng)險自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實(shí)質(zhì)性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會——工業(yè)互聯(lián)網(wǎng)標(biāo)識解析專題論壇在沈陽成功舉辦。