摘要
我們提出了GO-Surf,一種直接的特征網(wǎng)格優(yōu)化方法,用于從RGB-D序列中準(zhǔn)確和快速地重建表面。我們用一個(gè)學(xué)習(xí)過的分層特征體素網(wǎng)格對(duì)底層場(chǎng)景進(jìn)行建模,該網(wǎng)格封裝了多層次的幾何和外觀局部信息。特征向量被直接優(yōu)化,以便在三線插值后,由兩個(gè)淺層MLP解碼為有符號(hào)的距離和輻射度值,并通過體積渲染進(jìn)行渲染,使合成的RGB/深度值與觀察到的RGB/深度值之間的差異最小。我們的監(jiān)督信號(hào)--RGB、深度和近似的SDF--可以直接從輸入圖像中獲得,不需要任何融合或后處理。我們制定了一個(gè)新的SDF梯度正則化項(xiàng),鼓勵(lì)表面光滑和孔洞填充,同時(shí)保持高頻細(xì)節(jié)。GO-Surf可以在15-45分鐘內(nèi)優(yōu)化1-2K幀的序列,比基于MLP表示的最相關(guān)方法NeuralRGB-D的速度提高了60倍,同時(shí)在標(biāo)準(zhǔn)基準(zhǔn)上保持同等的性能。
項(xiàng)目頁面:https://jingwenwang95.github. io/go_surf。
主要貢獻(xiàn):
GO-Surf將可學(xué)習(xí)的特征網(wǎng)格引入RGB-D序列的SDF重建中,以實(shí)現(xiàn):
(i) 在交互式運(yùn)行時(shí)間內(nèi)快速優(yōu)化
(ii) 高精度的表面重建。
我們還首次在體素網(wǎng)格的背景下應(yīng)用Eikonal和平滑度正則化條款。
主要方法
給定一個(gè)輸入的RGB-D序列,GO-Surf通過直接優(yōu)化一個(gè)多分辨率的特征網(wǎng)格和有符號(hào)的距離值以及顏色預(yù)測(cè)來獲得高質(zhì)量的三維表面重建。我們?cè)谟蟹?hào)距離值上制定了一個(gè)新的平滑度先驗(yàn),從而在保留細(xì)節(jié)的同時(shí),改善了孔洞填充和平滑度特性。我們的優(yōu)化比基于MLP的方法快×60倍。
GO-Surf使用多級(jí)特征網(wǎng)格和兩個(gè)淺層MLP解碼器。給定一個(gè)沿射線的采樣點(diǎn),每個(gè)網(wǎng)格通過三線插值進(jìn)行查詢。多級(jí)特征被串聯(lián)并解碼為SDF,并用于計(jì)算樣本權(quán)重。顏色是由最細(xì)的網(wǎng)格單獨(dú)解碼的。損失項(xiàng)被應(yīng)用于SDF值,并渲染深度和顏色。在每個(gè)查詢點(diǎn)計(jì)算SDF的梯度,并用于Eikonal和平滑度正則化。
主要結(jié)果
審核編輯 :李倩
-
解碼器
+關(guān)注
關(guān)注
9文章
1152瀏覽量
40958 -
網(wǎng)格
+關(guān)注
關(guān)注
0文章
139瀏覽量
16068 -
MLP
+關(guān)注
關(guān)注
0文章
57瀏覽量
4301
原文標(biāo)題:GO-Surf: 用于快速、高保真RGB-D表面重建的神經(jīng)特征網(wǎng)格優(yōu)化
文章出處:【微信號(hào):3D視覺工坊,微信公眾號(hào):3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
動(dòng)態(tài)環(huán)境中基于神經(jīng)隱式表示的RGB-D SLAM
![動(dòng)態(tài)環(huán)境中基于<b class='flag-5'>神經(jīng)</b>隱式表示的<b class='flag-5'>RGB-D</b> SLAM](https://file1.elecfans.com/web2/M00/BD/D6/wKgaomWnPqSAZTyqAAB5NtnVf-I430.png)
如何去開發(fā)一款基于RGB-D相機(jī)與機(jī)械臂的三維重建無序抓取系統(tǒng)
什么是高保真耳機(jī)
什么是高保真?
基于RGB-D圖像物體識(shí)別方法
![基于<b class='flag-5'>RGB-D</b>圖像物體識(shí)別方法](https://file.elecfans.com/web2/M00/49/75/poYBAGKhwLiAYAcaAAAbF-sVYWw268.jpg)
基于STL曲面網(wǎng)格重建算法
![基于STL曲面<b class='flag-5'>網(wǎng)格</b><b class='flag-5'>重建</b>算法](https://file.elecfans.com/web2/M00/49/83/poYBAGKhwMCALOSGAAAZ1LTBESg798.jpg)
用于快速高保真RGB-D表面重建的神經(jīng)特征網(wǎng)格優(yōu)化的GO-Surf
基于RGB-D相機(jī)的三維重建和傳統(tǒng)SFM和SLAM算法有什么區(qū)別?
生成高質(zhì)量 3D 網(wǎng)格,從重建到生成式 AI
![生成高質(zhì)量 3<b class='flag-5'>D</b> <b class='flag-5'>網(wǎng)格</b>,從<b class='flag-5'>重建</b>到生成式 AI](https://file1.elecfans.com//web2/M00/9F/F8/wKgZomToR-iANnykAFKDQusFJ2Q658.gif)
基于3D形狀重建網(wǎng)絡(luò)的機(jī)器人抓取規(guī)劃方法
![基于3<b class='flag-5'>D</b>形狀<b class='flag-5'>重建</b>網(wǎng)絡(luò)的機(jī)器人抓取規(guī)劃方法](https://file1.elecfans.com/web2/M00/AC/04/wKgaomVDDJmACU0wAAAm4ebyiYM896.png)
一種基于RGB-D圖像序列的協(xié)同隱式神經(jīng)同步定位與建圖(SLAM)系統(tǒng)
![一種基于<b class='flag-5'>RGB-D</b>圖像序列的協(xié)同隱式<b class='flag-5'>神經(jīng)</b>同步定位與建圖(SLAM)系統(tǒng)](https://file1.elecfans.com/web2/M00/B1/BA/wKgaomVmo9qAVfa5AAA2A3OKgeo639.png)
手持RGB-D傳感器廣泛應(yīng)用的情況
![手持<b class='flag-5'>RGB-D</b>傳感器廣泛應(yīng)用的情況](https://file1.elecfans.com/web2/M00/B9/54/wKgaomWKkuOANvdVAABGhyLC2QM074.png)
常用的RGB-D SLAM解決方案
![常用的<b class='flag-5'>RGB-D</b> SLAM解決方案](https://file1.elecfans.com/web2/M00/C9/86/wKgaomYd1uuAdV7FAAArZKWrhRI196.png)
評(píng)論