網絡消費網 >  科技 > > 正文
        假3D場景逼真到火爆外網!超1億像素無死角 被贊AI渲染新高度
        時間:2021-10-18 17:15:43

        作者 | 蕭簫 楊凈

        先來看一段“視頻”,有沒有看出什么不對勁的地方?

        其實,這僅僅是由一組照片渲染出來的(右下角為拍攝照片)!

        生成的也不僅僅是一段視頻,更是一個3D場景模型,不僅能任意角度隨意切換、高清無死角,還能調節(jié)曝光、白平衡等參數,生成船新的照片:

        在完全不同的場景下,例如一個坦克廠中,同樣能用一組照片渲染出逼真3D場景,相同角度與真實拍攝圖像幾乎“完全一致”:

        要知道,之前蘋果雖然也做過一組照片生成目標物體3D模型的功能,但最多就是一件物體,例如一只箱子:

        這次可是整個3D場景!

        這是德國埃爾朗根-紐倫堡大學的幾位研究人員做的項目,效果一出就火得不行,在國外社交媒體上贊數超過5k,閱讀量達到36w+

        那么,這樣神奇的效果,究竟是怎么生成的呢?

        用照片還原整個3D場景圖

        整體來說,這篇論文提出了一種基于點的可微神經渲染流水線ADOP(Approximate Differentiable One-Pixel Point Rendering),用AI分析輸入圖像,并輸出新角度的新圖像。

        在輸入時,由于需要建模3D場景,因此這里的照片需要經過嚴格拍攝,來獲取整個場景的稀疏點云數據。

        具體來說,作者在從照片獲取點云數據時,采用了COLMAP

        先從多個不同的角度拍攝場景中的照片,其中每張照片的視角都會經過嚴格控制。

        然后采用SfM(Structure From Motion,運動恢復結構)方法,來獲取相機內外參數,得到整個場景的3D重建數據,也就是表示場景結構的稀疏點云:

        然后,包含點云等信息的場景數據會被輸入到流水線中,進行進一步的處理。

        流水線(pipeline)主要分為三個部分:可微光柵化器、神經渲染器和可微色調映射器。

        首先,利用多分辨率的單像素點柵格化可微渲染器(可微光柵化器),將輸入的相機參數、重建的點云數據轉換成稀疏神經圖像。

        其中,模型里關于圖像和點云對齊的部分,采用了NavVis數據集來訓練。

        然后,利用神經渲染器,對稀疏神經圖像進行陰影計算和孔洞填充,生成HDR圖片。

        最后,由于不是每個設備都支持HDR畫面,因此在顯示到LDR設備之前,還需要利用基于物理的可微色調映射器改變動態(tài)范圍,將HDR圖像變成LDR圖像。

        每個場景300+圖像訓練

        這個新模型的優(yōu)勢在哪里?

        由于模型的所有階段都可微,因此這個模型能夠優(yōu)化場景所有參數(相機模型、相機姿勢、點位置、點顏色、環(huán)境圖、渲染網絡權重、漸暈、相機響應函數、每張圖像的曝光和每張圖像的白平衡),并用來生成質量更高的圖像。

        具體到訓練上,作者先是采用了688張圖片(包含73M個點)來訓練這個神經渲染流水線(pipeline)。

        針對demo中的幾個場景(火車、燈塔、游樂園、操場等),作者們分別用高端攝像機拍攝了300~350張全高清圖像,每個場景生成的像素點數量分別為10M、8M、12M和11M,其中5%的圖像用作測試。

        也就是說,制作這樣一個3D場景,大約需要幾百張圖像,同時每張圖像的拍攝需要經過嚴格的角度控制。

        不過仍然有讀者表示,拍幾百張圖像就能用AI做個場景出來,這個速度比當前人工渲染是要快多了。

        功能上,模型既能生成可以調節(jié)參數的新角度照片,還能自動插值生成全場景的3D渲染視頻,可以說是挺有潛力的。

        那么,這個模型的效果與當前其他模型的渲染效果相比如何呢?

        實時顯示1億+像素點場景

        據作者表示,論文中采用的高效單像素點柵格化方法,使得ADOP能夠使用任意的相機模型,并實時顯示超過1億個像素點的場景。

        肉眼分辨生成結果來看,采用同行幾個最新模型生成的圖片,或多或少會出現(xiàn)一些偽影或是不真實的情況,相比之下ADOP在細節(jié)上處理得都非常不錯:

        從數據來看,無論是火車、操場、坦克還是燈塔場景,在ADOP模型的渲染下,在VGG、LPIPS和PSNR上幾乎都能取得最優(yōu)秀的結果(除了坦克的數據)。

        不過,研究本身也還具有一些局限性,例如單像素點渲染仍然存在點云稀疏時,渲染出現(xiàn)孔洞等問題。

        但整體來看,實時顯示3D場景的效果還是非常出類拔萃的,不少業(yè)內人士表示“達到了AI渲染新高度”。

        已經有不少網友開始想象這項研究的用途,例如給電影制片廠省去一大波時間和精力:

        (甚至有電影系的學生想直接用到畢設上)

        對游戲行業(yè)影響也非常不錯:

        在家就能搞3A大作的場景,是不是也要實現(xiàn)了?簡直讓人迫不及待。

        還有人想象,要是能在iPhone上實現(xiàn)就好了(甚至已經給iPhone 15預定上了):

        對于研究本身,有網友從行外人視角看來,感覺更像是插幀模型(也有網友回應說差不多是這樣):

        也有網友表示,由于需要的圖像比較多,效果沒有宣傳中那么好,對研究潛力持保留態(tài)度:

        雖然目前作者們已經建立了GitHub項目,但代碼還沒有放出來,感興趣的同學們可以先蹲一波。

        至于具體的開源時間,作者們表示“會在中了頂會后再放出來”。(祝這篇論文成功被頂會收錄~)

        關鍵詞: 1億 渲染 AI 被贊

        版權聲明:
            凡注明來網絡消費網的作品,版權均屬網絡消費網所有,未經授權不得轉載、摘編或利用其它方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明"來源:網絡消費網"。違反上述聲明者,本網將追究其相關法律責任。
            除來源署名為網絡消費網稿件外,其他所轉載內容之原創(chuàng)性、真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考并自行核實。
        熱文

        網站首頁 |網站簡介 | 關于我們 | 廣告業(yè)務 | 投稿信箱
         

        Copyright © 2000-2020 www.fnsyft.com All Rights Reserved.
         

        中國網絡消費網 版權所有 未經書面授權 不得復制或建立鏡像
         

        聯(lián)系郵箱:920 891 263@qq.com

        備案號:京ICP備2022016840號-15

        營業(yè)執(zhí)照公示信息

        亚洲白嫩在线观看| 亚洲熟妇中文字幕五十中出| 亚洲男人av香蕉爽爽爽爽| 亚洲欧美日韩一区二区三区| 精品国产成人亚洲午夜福利| 亚洲三级在线免费观看| 亚洲国产日产无码精品| 亚洲国产精品乱码在线观看97| 亚洲精品亚洲人成在线麻豆| 亚洲欧洲春色校园另类小说| 亚洲图片激情小说| 亚洲午夜精品国产电影在线观看| 亚洲精品午夜久久久伊人| 亚洲国产模特在线播放| 2020久久精品亚洲热综合一本| 亚洲一线产区二线产区区| 亚洲人成色777777精品| 亚洲风情亚Aⅴ在线发布| 日韩色日韩视频亚洲网站| 亚洲高清最新av网站| 亚洲自偷自偷在线制服| 久久99国产亚洲高清观看首页| 亚洲精品蜜桃久久久久久| 久久精品国产精品亚洲艾| 亚洲精品国产成人专区| 亚洲毛片基地日韩毛片基地| 亚洲一区二区三区亚瑟 | 亚洲最大成人网色香蕉| 99热亚洲色精品国产88| 亚洲丶国产丶欧美一区二区三区| 国产精品亚洲精品日韩电影| 亚洲精品高清在线| 亚洲日产韩国一二三四区| 亚洲av无码乱码国产精品| 久久精品国产亚洲AV麻豆网站| 亚洲国产日韩在线成人蜜芽| 亚洲国产精品成人AV在线| 亚洲国产精品一区二区第一页免| 亚洲自偷自偷在线制服 | 蜜桃传媒一区二区亚洲AV| 亚洲精品无码AV中文字幕电影网站|