隨著ChatGPT的出現(xiàn)以及廣泛應用,通過文本生成文本、視頻、音頻等內(nèi)容,成為實現(xiàn)技術民主化的關鍵手段。
在3D模型領域通過文本生成并不成熟,多數(shù)方法是通過圖片。而該方法存在生成時間長、缺乏細節(jié)、難以匹配圖像等缺點。
加州大學、清華大學、斯坦福大學共同開發(fā)了全新模型“One-2-3-45++”并將其開源。該模型僅通過圖片,就能在1分鐘內(nèi)將一張RGB圖像轉換為高精準3D模型,這對于游戲開發(fā)、3D建模等領域,可以節(jié)省大量開發(fā)時間。
研究人員在包含1030個3D對象的GSO數(shù)據(jù)集上與多個基準方法進行了比較。測試數(shù)據(jù)顯示,One-2-3-45++在幾何相似度、CLIP相似度指標上均優(yōu)于基準方法。
在包含50多名真實用戶的評估數(shù)據(jù)顯示,87.6%表示One-2-3-45++生成的結果,優(yōu)于其他方法,質(zhì)量更高、更符合輸入圖像。
開源地址:https://github.com/SUDO-AI-3D/One2345plus
論文地址:https://arxiv.org/abs/2311.07885
在線demo:https://www.sudo.ai/3dgen
One-2-3-45++的核心技術原理主要包括三大塊:一致的多視角圖像生成、基于多視角的3D重建以及紋理優(yōu)化。
一致的多視角圖像生成
這一模塊的作用是從單個輸入圖像中生成多個視角一致的圖像。One-2-3-45++一共可生成6個視角的圖像,布局是一個3x2的矩形網(wǎng)格,分別對應不同的相機位置。
為了避免生成的3D形狀存在方向歧義,這6個相機位姿使用絕對高度角以及相對方位角來定義,同時使用了預訓練文生圖模型Stable Diffusion作為生成器。
此外,使用了Objaverse數(shù)據(jù)集中的3D形狀進行微調(diào)。對每個3D形狀,生成3個訓練樣本,分別對應不同的輸入圖像視角。同時使用統(tǒng)一的HDR環(huán)境光進行渲染,以提升細節(jié)、光影效果。
基于多視角的3D重建
上一個模塊我們已經(jīng)有了6個對象的多視角圖片,這個模塊就是要把二維的圖片轉換成3D模型。
具體做法是先用6張圖片生成一個低分辨率的三維體積元素,近似表示整體形狀。然后在體積元素里面生成更高分辨率的“體積元素”,捕捉表面細節(jié)。
體積元素就是用小立方體組成的三維矩陣。這里有兩種體積元素,一種SDF體積元素,記錄了一個位置到物體表面的距離;另一種是顏色體積元素,記錄一個位置到物體表面最近點的顏色。
同時這6張圖片是生成體積元素的條件,先從圖片里提取二維特征,然后反投影到三維空間構建一個三維特征體,這個體包含了多視角的先驗信息,可以指導三維模型體積元素的生成。
紋理優(yōu)化
經(jīng)過前面兩個步驟生成的3D模型,在顏色、質(zhì)量、紋理方面還比較粗糙,所以需要進行優(yōu)化達到最終效果。同樣可以利用前面6個視角的圖像,來增強最終網(wǎng)格模型的紋理質(zhì)量。
方法是固定住網(wǎng)格的三維結構不變,僅優(yōu)化表示顏色的網(wǎng)絡。每次迭代中,用當前的顏色網(wǎng)絡渲染網(wǎng)格,生成二維圖片。然后與之前生成的多視角圖片計算損失,更新顏色網(wǎng)絡。
這樣通過不斷地優(yōu)化,網(wǎng)格表面的顏色信息會逐漸跟多視角圖片越來越接近,從而實現(xiàn)紋理的提升。
本文素材來源One-2-3-45++論文,如有侵權請聯(lián)系刪除
未經(jīng)允許不得轉載:RPA中國 | RPA全球生態(tài) | 數(shù)字化勞動力 | RPA新聞 | 推動中國RPA生態(tài)發(fā)展 | 流 > 清華、斯坦福、加大開源,圖片生成高精準3D模型
熱門信息
閱讀 (14728)
1 2023第三屆中國RPA+AI開發(fā)者大賽圓滿收官&獲獎名單公示閱讀 (13753)
2 《Market Insight:中國RPA市場發(fā)展洞察(2022)》報告正式發(fā)布 | RPA中國閱讀 (13055)
3 「RPA中國杯 · 第五屆RPA極客挑戰(zhàn)賽」成功舉辦及獲獎名單公示閱讀 (12964)
4 與科技共贏,與產(chǎn)業(yè)共進,第四屆ISIG中國產(chǎn)業(yè)智能大會成功召開閱讀 (11567)
5 《2022年中國流程挖掘行業(yè)研究報告》正式發(fā)布 | RPA中國