谷歌的研究人員最近推出了一款名為 VLOGGER 的多模態(tài)擴散模型,能夠自動生成帶語音、豐富動作的人物視頻。用戶只需向 VLOGGER 輸入圖像和語音,就可以獲得逼真的視頻效果。
VLOGGER 的創(chuàng)新之處在于采用了全新的多階段擴散模型架構(gòu),結(jié)合了文本生成圖像模型和時空控制,從而提升了視頻生成的逼真效果和豐富動作。研究人員在多個數(shù)據(jù)集上對 VLOGGER 進行了綜合測試,結(jié)果顯示 VLOGGER 在視頻質(zhì)量、物體還原性和時序一致性等方面表現(xiàn)出色,同時還能生成豐富的上半身和手勢動作。
要制作逼真的人物動畫視頻通常需要大量的人工調(diào)整和修補,以確保動作流暢自然。而 VLOGGER 的創(chuàng)新之處在于,其無需針對每個新人物重新訓(xùn)練模型,也不依賴于人臉檢測框選區(qū)域,直接生成完整目標圖像。此外,VLOGGER 還考慮到了現(xiàn)實中復(fù)雜的交流場景,如可見軀干、不同身份等因素,這對正確合成有效交流的人物動作至關(guān)重要。
在技術(shù)實現(xiàn)方面,VLOGGER 首先通過 Transformer 神經(jīng)網(wǎng)絡(luò)處理音頻波形輸入,生成一系列3D 面部表情和身體姿勢參數(shù),用于控制虛擬人物在視頻中的動作。其次,在空間和時間上進行條件控制,生成高質(zhì)量、任意長度的視頻。VLOGGER 還引入了一種 "時序外推" 的技術(shù),允許模型迭代生成任意長度的視頻片段,同時保持時序一致性。為了提高生成效果,VLOGGER 還采用了級聯(lián)擴散方法,對基礎(chǔ)分辨率的視頻進行超分辨重建,生成高質(zhì)量的影像。
VLOGGER 的推出為虛擬數(shù)字人的制作提供了更便捷、高效的解決方案,同時也在多模態(tài)視頻生成領(lǐng)域取得了重要的技術(shù)突破。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請謹慎對待。投資者據(jù)此操作,風(fēng)險自擔。
近日,德國柏林國際電子消費品展覽會(IFA2024)隆重舉辦。憑借在核心技術(shù)、產(chǎn)品設(shè)計及應(yīng)用方面的創(chuàng)新變革,全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)成功斬獲兩項“IFA全球產(chǎn)品設(shè)計創(chuàng)新大獎”金獎,有力證明了其在全球市場的強大影響力。
近日,中國家電及消費電子博覽會(AWE 2024)隆重開幕。全球領(lǐng)先的智能終端企業(yè)TCL實業(yè)攜多款創(chuàng)新技術(shù)和新品亮相,以敢為精神勇闖技術(shù)無人區(qū),斬獲四項AWE 2024艾普蘭大獎。
“以前都要去窗口辦,一套流程下來都要半個月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
由世界人工智能大會組委會、上海市經(jīng)信委、徐匯區(qū)政府、臨港新片區(qū)管委會共同指導(dǎo),由上海市人工智能行業(yè)協(xié)會聯(lián)合上海人工智能實驗室、上海臨港經(jīng)濟發(fā)展(集團)有限公司、開放原子開源基金會主辦的“2024全球開發(fā)者先鋒大會”,將于2024年3月23日至24日舉辦。