隨著ChatGPT的出現以及廣泛應用,通過文本生成文本、視頻、音頻等內容,成為實現技術民主化的關鍵手段。
在3D模型領域通過文本生成并不成熟,多數方法是通過圖片。而該方法存在生成時間長、缺乏細節(jié)、難以匹配圖像等缺點。
加州大學、清華大學、斯坦福大學共同開發(fā)了全新模型“One-2-3-45++”并將其開源。該模型僅通過圖片,就能在1分鐘內將一張RGB圖像轉換為高精準3D模型,這對于游戲開發(fā)、3D建模等領域,可以節(jié)省大量開發(fā)時間。
研究人員在包含1030個3D對象的GSO數據集上與多個基準方法進行了比較。測試數據顯示,One-2-3-45++在幾何相似度、CLIP相似度指標上均優(yōu)于基準方法。
在包含50多名真實用戶的評估數據顯示,87.6%表示One-2-3-45++生成的結果,優(yōu)于其他方法,質量更高、更符合輸入圖像。
開源地址:https://github.com/SUDO-AI-3D/One2345plus
論文地址:https://arxiv.org/abs/2311.07885
在線demo:https://www.sudo.ai/3dgen
One-2-3-45++的核心技術原理主要包括三大塊:一致的多視角圖像生成、基于多視角的3D重建以及紋理優(yōu)化。
一致的多視角圖像生成
這一模塊的作用是從單個輸入圖像中生成多個視角一致的圖像。One-2-3-45++一共可生成6個視角的圖像,布局是一個3x2的矩形網格,分別對應不同的相機位置。
為了避免生成的3D形狀存在方向歧義,這6個相機位姿使用絕對高度角以及相對方位角來定義,同時使用了預訓練文生圖模型Stable Diffusion作為生成器。
此外,使用了Objaverse數據集中的3D形狀進行微調。對每個3D形狀,生成3個訓練樣本,分別對應不同的輸入圖像視角。同時使用統(tǒng)一的HDR環(huán)境光進行渲染,以提升細節(jié)、光影效果。
基于多視角的3D重建
上一個模塊我們已經有了6個對象的多視角圖片,這個模塊就是要把二維的圖片轉換成3D模型。
具體做法是先用6張圖片生成一個低分辨率的三維體積元素,近似表示整體形狀。然后在體積元素里面生成更高分辨率的“體積元素”,捕捉表面細節(jié)。
體積元素就是用小立方體組成的三維矩陣。這里有兩種體積元素,一種SDF體積元素,記錄了一個位置到物體表面的距離;另一種是顏色體積元素,記錄一個位置到物體表面最近點的顏色。
同時這6張圖片是生成體積元素的條件,先從圖片里提取二維特征,然后反投影到三維空間構建一個三維特征體,這個體包含了多視角的先驗信息,可以指導三維模型體積元素的生成。
紋理優(yōu)化
經過前面兩個步驟生成的3D模型,在顏色、質量、紋理方面還比較粗糙,所以需要進行優(yōu)化達到最終效果。同樣可以利用前面6個視角的圖像,來增強最終網格模型的紋理質量。
方法是固定住網格的三維結構不變,僅優(yōu)化表示顏色的網絡。每次迭代中,用當前的顏色網絡渲染網格,生成二維圖片。然后與之前生成的多視角圖片計算損失,更新顏色網絡。
這樣通過不斷地優(yōu)化,網格表面的顏色信息會逐漸跟多視角圖片越來越接近,從而實現紋理的提升。
文章內容僅供閱讀,不構成投資建議,請謹慎對待。投資者據此操作,風險自擔。
2024年的Adobe MAX 2024發(fā)布會上,Adobe推出了最新版本的Adobe Creative Cloud。
奧維云網(AVC)推總數據顯示,2024年1-9月明火炊具線上零售額94.2億元,同比增加3.1%,其中抖音渠道表現優(yōu)異,同比有14%的漲幅,傳統(tǒng)電商略有下滑,同比降低2.3%。
“以前都要去窗口辦,一套流程下來都要半個月了,現在方便多了!”打開“重慶公積金”微信小程序,按照提示流程提交相關材料,僅幾秒鐘,重慶市民曾某的賬戶就打進了21600元。
華碩ProArt創(chuàng)藝27 Pro PA279CRV顯示器,憑借其優(yōu)秀的性能配置和精準的色彩呈現能力,為您的創(chuàng)作工作帶來實質性的幫助,雙十一期間低至2799元,性價比很高,簡直是創(chuàng)作者們的首選。