人體神經(jīng)輻射場的目標(biāo)是從 2D 人體圖片中恢復(fù)高質(zhì)量的 3D 數(shù)字人并加以驅(qū)動,從而避免耗費(fèi)大量人力物力去直接獲取 3D 人體幾何信息。這個(gè)方向的探索對于一系列應(yīng)用場景,比如虛擬現(xiàn)實(shí)和輔助現(xiàn)實(shí)場景,有著非常大潛在性的影響。
現(xiàn)有人體神經(jīng)輻射場生成和驅(qū)動技術(shù)主要可以分為兩類。
第一類技術(shù)利用單目或者多目人體視頻去重建和驅(qū)動 3D 數(shù)字人。這類技術(shù)主要是針對特定數(shù)字人的建模和驅(qū)動,優(yōu)化耗時(shí)大,缺乏泛化到大規(guī)模數(shù)字人重建上的能力。
第二類技術(shù)為了提升 3D 數(shù)字人重建的效率。提出利用多視角人體圖片作為輸入去重建人體神經(jīng)輻射場。
盡管這第二類方法在 3D 人體重建上取得了一定的效果,這類方法往往需要特定相機(jī)角度下的多目人體圖片作為輸入。在現(xiàn)實(shí)生活中,我們往往只能獲取到任意相機(jī)角度下人體的一張圖片,給這類技術(shù)的應(yīng)用提出了挑戰(zhàn)。
在 ICCV2023 上,南洋理工大學(xué) - 商湯科技聯(lián)合研究中心 S-Lab 團(tuán)隊(duì)提出了基于單張圖片的可泛化可驅(qū)動人體神經(jīng)輻射場方法 SHERF。
SHERF 可以基于用戶輸入的一張任意相機(jī)角度 3D 人體圖片,該角度下相機(jī)和人體動作體型(SMPL)參數(shù),以及給定目標(biāo)輸出空間下任意相機(jī)參數(shù)和人體動作體型(SMPL)參數(shù),重建并驅(qū)動該 3D 數(shù)字人。本方法旨在利用任意相機(jī)角度下人體的一張圖片去重建和驅(qū)動 3D 人體神經(jīng)輻射場。
圖 1
基本原理
人體神經(jīng)輻射場重建和驅(qū)動主要分為五個(gè)步驟(如圖 2 所示)。
圖 2
第一步為目標(biāo)空間(target space)到標(biāo)準(zhǔn)空間(canonical space)的坐標(biāo)轉(zhuǎn)換,基于用戶輸入目標(biāo)輸出空間下任意人體動作體型參數(shù)和相機(jī)外參參數(shù),在目標(biāo)空間內(nèi)射出光線,并在光線上采樣一系列空間點(diǎn),利用 SMPL 算法的逆線性蒙皮轉(zhuǎn)換(Inverse Linear Blend Skinning)將目標(biāo)空間里的空間點(diǎn)轉(zhuǎn)換到標(biāo)準(zhǔn)空間中。
第二步為提取標(biāo)準(zhǔn)空間中 3D 點(diǎn)對應(yīng)的層級特征(hierarchical feature)。
全局特征(global feature)提取:利用二維編碼網(wǎng)絡(luò)(2D Encoder)從輸入圖片提取一維特征,并利用映射網(wǎng)絡(luò)(Mapping Network)和風(fēng)格編碼網(wǎng)絡(luò)(Style-Based Encoder)進(jìn)一步將 1D 特征轉(zhuǎn)換為標(biāo)準(zhǔn)空間下的三平面特征(Tri-plane),接下來將標(biāo)準(zhǔn)空間中 3D 點(diǎn)投影到三平面提取相應(yīng)的全局特征;
點(diǎn)級別特征(Point-Level Feature)提?。?/strong>首先利用二維編碼網(wǎng)絡(luò)(2D Encoder)從輸入圖片提取二維特征,并將觀測空間(observation space)下 SMPL 的頂點(diǎn)投影到輸入圖片成像平面上去提取相應(yīng)特征,緊接著利用 SMPL 算法的逆線性蒙皮轉(zhuǎn)換(Inverse Linear Blend Skinning)將觀測空間下 SMPL 的頂點(diǎn)轉(zhuǎn)到標(biāo)準(zhǔn)空間下構(gòu)建稀疏三維張量,然后利用稀疏卷積得到標(biāo)準(zhǔn)空間中 3D 點(diǎn)的點(diǎn)級別特征;
像素級別特征(Pixel-Aligned Feature)提?。?/strong>首先利用二維編碼網(wǎng)絡(luò)(2D Encoder)從輸入圖片提取二維特征,并利用 SMPL 算法的線性蒙皮轉(zhuǎn)換(Linear Blend Skinning)將標(biāo)準(zhǔn)空間中 3D 點(diǎn)轉(zhuǎn)到觀測空間下,再投影到輸入圖片成像平面上去提取相應(yīng)像素級別特征。
第三步為特征融合(Feature Fusion Transformer),利用 Transformer 模型將三種不同級別的特征進(jìn)行融合。第四步為人體神經(jīng)輻射場解碼生成相應(yīng)圖片信息,將標(biāo)準(zhǔn)空間中 3D 點(diǎn)坐標(biāo),光線方向向量和對應(yīng)特征輸入到人體神經(jīng)輻射場解碼網(wǎng)絡(luò)中得到 3D 點(diǎn)的體密度和顏色信息,并進(jìn)一步基于體渲染(Volume Rendering)在目標(biāo)空間下生成相應(yīng)像素的顏色值,并得到最終用戶輸入目標(biāo)輸出空間下任意人體動作體型參數(shù)和相機(jī)外參參數(shù)下的圖片。
基于以上步驟,給定目標(biāo)輸出空間下任意人體動作序列(SMPL)參數(shù)可以從 2D 圖片恢復(fù) 3D 數(shù)字人并加以驅(qū)動。
結(jié)果比較
本文在四個(gè)人體數(shù)據(jù)集上人體數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),分別是 THuman,RenderPeople,ZJU_MoCap,HuMMan。
該研究對比了對比了最先進(jìn)的可泛化多視角人體圖片的人體神經(jīng)輻射場方法,NHP 和 MPS-NeRF。本文在 peak signal-to-noise ratio (PSNR),structural similarity index (SSIM),以及 Learned Perceptual Image Patch Similarity (LPIPS)進(jìn)行了比較。如下圖所示,本文在所有數(shù)據(jù)集,所有指標(biāo)上均大幅超越之前的方案。
SHERF 動態(tài)驅(qū)動 3D 人體結(jié)果如下圖所示:
從左到右分別為input Image、motion seq 1、motion seq 2
本文同樣驗(yàn)證了在 in-the-wild DeepFashion 數(shù)據(jù)上的泛化和驅(qū)動效果,如下圖 3 所示,給定任意一張輸入圖片,本文利用單視角估 SMPL 的先進(jìn)算法估出 SMPL 和相應(yīng)相機(jī)角度,后利用本文提出的算法對 3D 人體進(jìn)行驅(qū)動。實(shí)驗(yàn)結(jié)果顯示 SHERF 具有較強(qiáng)的泛化性。
從左到右分別為input Image、motion seq 1、motion seq 2
應(yīng)用前景
在游戲電影制作,虛擬現(xiàn)實(shí)增強(qiáng)現(xiàn)實(shí)或者其他需要數(shù)字人建模的場景,用戶可以無需專業(yè)技能,專業(yè)軟件,即可通過輸入的一張任意相機(jī)角度 3D 人體圖片,該角度下相機(jī)的參數(shù)和相應(yīng)的人體動作體形參數(shù)(SMPL),就可以達(dá)到重建并驅(qū)動該 3D 數(shù)字人的目的。
結(jié)語
本文提出一種基于單張輸入圖片可泛化可驅(qū)動的人體神經(jīng)輻射場方法 SHERF??梢猿姓J(rèn)的是,本文依然存在一定的缺陷。
首先,對于輸入圖片觀測不到一部分人體表面, 渲染出來的結(jié)果可以觀察到一定的瑕疵,一個(gè)解決的辦法是建立一種遮擋可知(occlusion-aware)的人體表征。
其次,關(guān)于如何補(bǔ)齊輸入圖片觀測不到人體部分依舊是一個(gè)很難得問題。本文從重建角度提出 SHERF,只能對觀測不到的人體部分給出一個(gè)確定性的補(bǔ)齊,對觀測不到部分的重建缺乏多樣性。一個(gè)可行的方案是利用生成模型在觀測不到的人體部分生成多樣性高質(zhì)量的 3D 人體效果。
審核編輯:劉清
-
驅(qū)動器
+關(guān)注
關(guān)注
53文章
8290瀏覽量
147153 -
編碼器
+關(guān)注
關(guān)注
45文章
3673瀏覽量
135318
原文標(biāo)題:ICCV 2023 | SHERF:可泛化可驅(qū)動人體神經(jīng)輻射場的新方法
文章出處:【微信號:CVer,微信公眾號:CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
判斷可膨脹石墨好壞的方法
大華股份榮獲中國創(chuàng)新方法大賽一等獎(jiǎng)
基于遺傳算法的QD-SOA設(shè)計(jì)新方法
![基于遺傳算法的QD-SOA設(shè)計(jì)<b class='flag-5'>新方法</b>](https://file1.elecfans.com/web3/M00/02/99/wKgZO2dg2_iAdKqtAAACOVaVKwc137.png)
一種降低VIO/VSLAM系統(tǒng)漂移的新方法
![一種降低VIO/VSLAM系統(tǒng)漂移的<b class='flag-5'>新方法</b>](https://file1.elecfans.com/web3/M00/02/32/wKgZO2dbqBOAdkLrAABgnDOmV0Y836.png)
大華股份榮獲2024年中國創(chuàng)新方法大賽一等獎(jiǎng)
利用全息技術(shù)在硅晶圓內(nèi)部制造納米結(jié)構(gòu)的新方法
保護(hù)4-20 mA,±20-mA模擬輸入的新方法
![保護(hù)4-20 mA,±20-mA模擬輸入的<b class='flag-5'>新方法</b>](https://file.elecfans.com/web1/M00/D9/4E/pIYBAF_1ac2Ac0EEAABDkS1IP1s689.png)
比較分析兩種不同的可提高柵極驅(qū)動電流的方法
![比較分析兩種不同的<b class='flag-5'>可</b>提高柵極<b class='flag-5'>驅(qū)動</b>電流的<b class='flag-5'>方法</b>](https://file.elecfans.com/web1/M00/D9/4E/pIYBAF_1ac2Ac0EEAABDkS1IP1s689.png)
實(shí)踐JLink 7.62手動增加新MCU型號支持新方法
![實(shí)踐JLink 7.62手動增加新MCU型號支持<b class='flag-5'>新方法</b>](https://file1.elecfans.com/web2/M00/01/48/wKgZoma0c2mATDaYAALAsfPdico386.png)
一種無透鏡成像的新方法
![一種無透鏡成像的<b class='flag-5'>新方法</b>](https://file1.elecfans.com//web2/M00/FD/50/wKgZomaZlSKAXJd7AAD91lO42tY599.jpg)
使隱形可見:新方法可在室溫下探測中紅外光
![使隱形可見:<b class='flag-5'>新方法</b>可在室溫下探測中紅外光](https://file1.elecfans.com//web2/M00/CF/AB/wKgaomYhnzOALm_YAABXf_eZcXA235.jpg)
軋機(jī)牌坊滑板壓虧修復(fù)的新方法
可攝入電子設(shè)備可用于追蹤和治療人體胃腸道中的不同疾病
氫壓機(jī)軸承位磨損維修的新方法
![](https://file1.elecfans.com/web2/M00/C1/BA/wKgZomXeoKqAYq-0AAWn-5tfFFk496.png)
評論