Meta 與德國慕尼黑工業(yè)大學(xué)研發(fā)出創(chuàng)新模型 ViewDiff,旨在幫助用戶通過文本、圖像或二者結(jié)合使用,快速生成高質(zhì)量多視角3D 圖像。
該模型解決了傳統(tǒng)文本生成多視角3D 圖像領(lǐng)域的三大難點(diǎn):無法生成真實(shí)背景環(huán)境、圖像質(zhì)量和多樣性不理想、缺乏多視角和一致性。通過引入一種創(chuàng)新架構(gòu),ViewDiff 采用文生成圖模型作為先驗(yàn)知識(shí)和圖像流生成器,再通過顯式的3D 建模為圖像賦予一致性和多視角能力。
為了有效捕獲3D 幾何和全局風(fēng)格,研究人員對(duì)原有 U-Net 架構(gòu)進(jìn)行了創(chuàng)新,增強(qiáng)了跨幀注意力層和投影層?鐜⒁饬犹鎿Q了標(biāo)準(zhǔn)自注意力層,實(shí)現(xiàn)跨圖像風(fēng)格匹配;而投影層將多視圖2D 特征集成為顯式的3D 體素特征,保證了輸出圖像的3D 幾何一致性。在此基礎(chǔ)上,ViewDiff 還開發(fā)了自回歸生成模塊,使其能在任意視角上生成更多的3D 一致性圖像,進(jìn)一步提升了模型的生成能力。
該研究的推出填補(bǔ)了文本生成多視角3D 圖像領(lǐng)域的技術(shù)空白,有望為游戲開發(fā)、元宇宙等行業(yè)提供更便捷、高效的模型構(gòu)建方案。該模型的推出不僅在技術(shù)層面上具有重大意義,也將為未來的3D 圖像生成領(lǐng)域帶來更多創(chuàng)新可能。
文章內(nèi)容僅供閱讀,不構(gòu)成投資建議,請(qǐng)謹(jǐn)慎對(duì)待。投資者據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
2024年的Adobe MAX 2024發(fā)布會(huì)上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(wǎng)(AVC)推總數(shù)據(jù)顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現(xiàn)優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個(gè)月了,現(xiàn)在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關(guān)材料,僅幾秒鐘,重慶市民曾某的賬戶就打進(jìn)了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準(zhǔn)的色彩呈現(xiàn)能力,為您的創(chuàng)作工作帶來實(shí)質(zhì)性的幫助,雙十一期間低至2799元,性價(jià)比很高,簡直是創(chuàng)作者們的首選。
9月14日,2024全球工業(yè)互聯(lián)網(wǎng)大會(huì)——工業(yè)互聯(lián)網(wǎng)標(biāo)識(shí)解析專題論壇在沈陽成功舉辦。