欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Block nerf:可縮放的大型場(chǎng)景神經(jīng)視圖合成

3D視覺工坊 ? 來(lái)源:泡泡機(jī)器人SLAM ? 作者:paopaoslam ? 2022-10-19 15:15 ? 次閱讀

摘要

我們提出了 Block-NeRF,一種神經(jīng)輻射場(chǎng)的變體,可以表示大規(guī)模的場(chǎng)景。具體來(lái)說,我們發(fā)現(xiàn),當(dāng)使用 NeRF 渲染跨越多個(gè)街區(qū)的城市規(guī)模場(chǎng)景時(shí),將場(chǎng)景分解為單獨(dú)訓(xùn)練的子 NeRF 至關(guān)重要。這種分解將渲染時(shí)間與場(chǎng)景大小分離,使渲染能夠擴(kuò)展到任意大的場(chǎng)景,并允許對(duì)環(huán)境進(jìn)行逐塊更新。我們采用了幾項(xiàng)架構(gòu)更改,以使 NeRF 對(duì)在不同環(huán)境條件下數(shù)月捕獲的數(shù)據(jù)具有魯棒性。我們?yōu)槊總€(gè)單獨(dú)的 NeRF 添加了外觀嵌入、可學(xué)習(xí)的位姿細(xì)化和可控曝光,并引入了校準(zhǔn)相鄰 NeRF 之間外觀的程序,以便它們可以無(wú)縫組合。我們從 280 萬(wàn)張圖像中構(gòu)建了一個(gè) Block-NeRF 網(wǎng)格,以創(chuàng)建迄今為止最大的神經(jīng)場(chǎng)景表示,能夠渲染舊金山的整個(gè)社區(qū)。

video: (click the picture to view)

cf1514b0-4f63-11ed-a3b6-dac502259ad0.png

主要貢獻(xiàn)

cf0e10b6-4f63-11ed-a3b6-dac502259ad0.png

為了在大場(chǎng)景中應(yīng)用神經(jīng)輻射場(chǎng)(NeRF)模型,文章提出將大型場(chǎng)景分解為相互重疊的子場(chǎng)景 (block),每一個(gè)子場(chǎng)景分別訓(xùn)練,在推理時(shí)動(dòng)態(tài)結(jié)合相鄰 Block-NeRF 的渲染視圖。

文章在 mip-NeRF 的基礎(chǔ)上增加了外觀嵌入、曝光嵌入和位姿細(xì)化,以解決訓(xùn)練數(shù)據(jù)橫跨數(shù)月而導(dǎo)致的環(huán)境變化和位姿誤差。

為了保證相鄰 Block-NeRF 的無(wú)縫合成,文章提出了在推理時(shí)迭代優(yōu)化這些 Block-NeRF 的輸入外觀嵌入以校準(zhǔn)它們的渲染結(jié)果。

方法概述

cf0e10b6-4f63-11ed-a3b6-dac502259ad0.png 神經(jīng)輻射場(chǎng) (NeRF)是使用神經(jīng)網(wǎng)絡(luò)擬合輻射場(chǎng),用于視圖渲染的方法。然而,傳統(tǒng)的 NeRF 很難被直接擴(kuò)展到大場(chǎng)景應(yīng)用。這是因?yàn)閿M合大場(chǎng)景所需的神經(jīng)網(wǎng)絡(luò)也會(huì)很大,這會(huì)導(dǎo)致訓(xùn)練和推理渲染變得很困難。本文提出將大的場(chǎng)景劃分為數(shù)個(gè)相互重合的小場(chǎng)景 (block)。如下圖所示的丁字路口被劃分為三個(gè)小場(chǎng)景(黃圈),針對(duì)每一個(gè)小場(chǎng)景單獨(dú)訓(xùn)練一個(gè) Block-NeRF。推理時(shí)合并覆蓋目標(biāo)視圖范圍的 Block-NeRF 渲染生成最終的視圖。

cf5e8866-4f63-11ed-a3b6-dac502259ad0.png

mip-NeRF 拓展

文章基于 mip-NeRF,但是由于訓(xùn)練視圖在長(zhǎng)達(dá)數(shù)月的時(shí)間內(nèi)采集,不可避免地出現(xiàn)場(chǎng)景光照不同、相機(jī)曝光不同、視圖位姿存在誤差等問題。為了解決這些問題,文章在 mip-NeRF 的基礎(chǔ)上增加了外觀嵌入和曝光作為神經(jīng)網(wǎng)絡(luò)的輸入(如下圖所示,其中 fσ 和 fc 分別為預(yù)測(cè)密度 σ 和顏色 RGB 的神經(jīng)網(wǎng)絡(luò),x 為場(chǎng)景中的三維坐標(biāo)點(diǎn),d 表示視角)。

cfbffd94-4f63-11ed-a3b6-dac502259ad0.png

訓(xùn)練時(shí)使用生成式潛碼優(yōu)化的方法學(xué)習(xí)外觀嵌入,消除天氣光照等原因的影響。曝光則直接可以讀取采集記錄,只需對(duì)其進(jìn)行正弦位置編碼即可。

與此同時(shí),訓(xùn)練視圖的采集跨越了多個(gè)駕駛段,這些駕駛軌跡之間不可避免地存在位姿誤差。Block-NeRF 訓(xùn)練時(shí)還同時(shí)優(yōu)化每一個(gè)駕駛段的位姿偏移以降低位姿誤差帶來(lái)的影響。

街道視圖中存在汽車、行人等瞬時(shí)物體,然而場(chǎng)景渲染通常只關(guān)注建筑、街道等靜態(tài)結(jié)構(gòu)。文章于是使用語(yǔ)義分割網(wǎng)絡(luò)對(duì)訓(xùn)練視圖中的動(dòng)態(tài)物體進(jìn)行掩蔽,這樣神經(jīng)輻射場(chǎng)就不會(huì)學(xué)習(xí)這些動(dòng)態(tài)物體,而是只關(guān)注靜態(tài)場(chǎng)景結(jié)構(gòu)。

有時(shí)目標(biāo)視圖的相鄰 Block-NeRF 可能距離上很近,但并不在目標(biāo)視圖的視野之內(nèi),文章在傳統(tǒng) NeRF 的兩個(gè)神經(jīng)網(wǎng)絡(luò) fσ 和 fc 之外,還增加了一個(gè)預(yù)測(cè)能見度的網(wǎng)絡(luò) fv。給定三維坐標(biāo) x 和視角 d , fv 預(yù)測(cè)該點(diǎn)在給定視角下的能見度。合成多個(gè) Block-NeRF 的渲染時(shí),能見度低于閾值的渲染不會(huì)被用于最終的合成。訓(xùn)練時(shí)能見度可以由相應(yīng)點(diǎn)的透光率作為監(jiān)督目標(biāo)。

cfcb833a-4f63-11ed-a3b6-dac502259ad0.png

Block-NeRF 融合

為提高渲染效率,渲染目標(biāo)視圖時(shí)文章僅融合:

中心點(diǎn)在閾值半徑內(nèi)

且平均能見值高于閾值的 Block-NeRFs

滿足這兩個(gè)條件的 Block-NeRFs 以反距離加權(quán)的方式融合渲染視圖。這里的距離選擇相機(jī)到 Block-NeRFs 的二維空間距離。這樣的融合方法既保證了渲染真實(shí)度又能夠滿足時(shí)空一致性。

為了保證不同視角下渲染的天氣、光線等外觀的一致性,文章還在推理時(shí)引入了外觀嵌入迭代優(yōu)化。給定一個(gè) Block-NeRF 的外觀嵌入,文章在鎖定神經(jīng)網(wǎng)絡(luò)權(quán)重不變的基礎(chǔ)上,優(yōu)化相鄰 Block-NeRFs 的外觀嵌入,最大化其渲染視圖的一致性。

實(shí)驗(yàn)結(jié)果

cf0e10b6-4f63-11ed-a3b6-dac502259ad0.png

文章采集并開源了兩個(gè)數(shù)據(jù)集:San Francisco Alamo Square Dataset 和 San Francisco Mission Bay Dataset,分布包含280萬(wàn)和1.2萬(wàn)圖片。Alamo Square Dataset覆蓋大約 0.5km2 ,采集自3個(gè)月周期內(nèi),包括不同光線條件和天氣的數(shù)據(jù)。Mission Bay Dataset 涵蓋的地理范圍遠(yuǎn)遠(yuǎn)小于 Alamo Square Dataset,主要被用來(lái)與 NeRF做比較。

Table 2 顯示 Block-NeRF 相較于NeRF 渲染效果更好。并且 block 數(shù)量越多越好。即便是保持神經(jīng)網(wǎng)絡(luò)總參數(shù)量不變,Block-NeRF 仍然優(yōu)于 NeRF 并且推理速度在不考慮并行計(jì)算的前提下也大大提高。

cff1ac22-4f63-11ed-a3b6-dac502259ad0.png

Table 1 和 Figure 7 分別定量和定性地顯示外觀嵌入、曝光輸入以及位姿優(yōu)化都對(duì)提高渲染效果有幫助。

cffe6ffc-4f63-11ed-a3b6-dac502259ad0.png

d0335f32-4f63-11ed-a3b6-dac502259ad0.png

Figure 6 顯示推理時(shí)外觀嵌入優(yōu)化可以將渲染從白天場(chǎng)景轉(zhuǎn)換成黑夜場(chǎng)景,從而更好地與基準(zhǔn) Block-NeRF 匹配,增強(qiáng)渲染地時(shí)空一致性。

d0bb5392-4f63-11ed-a3b6-dac502259ad0.png

總結(jié)

cf0e10b6-4f63-11ed-a3b6-dac502259ad0.png

本文提出了Block-NeRF,采用 divide-and-conquer 的方法使用多個(gè) Block-NeRFs 學(xué)習(xí)大型場(chǎng)景的不同分塊,最終將這些Block-NeRFs 的渲染合成目標(biāo)視圖。這樣的方法使得利用 NeRF 模型渲染城市規(guī)模的場(chǎng)景成為了可能。

此外 Block-NeRF 還在 mip-NeRF 的基礎(chǔ)上,引入了外觀嵌入優(yōu)化、曝光輸入和位姿細(xì)化等擴(kuò)展,以解決訓(xùn)練數(shù)據(jù)橫跨數(shù)月而導(dǎo)致的環(huán)境變化和位姿誤差。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4782

    瀏覽量

    101219
  • Block
    +關(guān)注

    關(guān)注

    0

    文章

    26

    瀏覽量

    14730
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    DS878?數(shù)字合成器適合哪些應(yīng)用場(chǎng)景?

    DS878 數(shù)字合成器適合哪些應(yīng)用場(chǎng)景?DS878 高速啁啾直接數(shù)字合成器是一款由EUVIS推出的高性能直接數(shù)字合成器,DS878高速啁啾直接數(shù)字
    發(fā)表于 02-10 09:20

    倍頻器的技術(shù)原理和應(yīng)用場(chǎng)景

    倍頻器是一種用于將輸入信號(hào)的頻率倍增的電子設(shè)備,以下是關(guān)于倍頻器的技術(shù)原理和應(yīng)用場(chǎng)景的詳細(xì)解釋:技術(shù)原理倍頻器的技術(shù)原理主要基于非線性元件(如二極管、晶體管等)的特性和頻率變換技術(shù)。 非線性元件
    發(fā)表于 11-29 14:49

    寶馬集團(tuán)將OpenUSD用于合成數(shù)據(jù)生成

    通?場(chǎng)景描述,又稱為OpenUSD,是?個(gè)開放且擴(kuò)展的?態(tài)系統(tǒng),?于在 3D 世界中描述、合成、模擬和協(xié)作。
    的頭像 發(fā)表于 11-20 10:22 ?322次閱讀

    全面總結(jié)動(dòng)態(tài)NeRF

    1. 摘要 神經(jīng)輻射場(chǎng)(NeRF)是一種新穎的隱式方法,可以實(shí)現(xiàn)高分辨率的三維重建和表示。在首次提出NeRF的研究之后,NeRF獲得了強(qiáng)大的發(fā)展力量,并在三維建模、表示和重建領(lǐng)域蓬勃發(fā)
    的頭像 發(fā)表于 11-14 16:48 ?499次閱讀
    全面總結(jié)動(dòng)態(tài)<b class='flag-5'>NeRF</b>

    使用功率縮放庫(kù)

    電子發(fā)燒友網(wǎng)站提供《使用功率縮放庫(kù).pdf》資料免費(fèi)下載
    發(fā)表于 10-18 10:24 ?0次下載
    使用功率<b class='flag-5'>縮放</b>庫(kù)

    BP神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的關(guān)系

    廣泛應(yīng)用的神經(jīng)網(wǎng)絡(luò)模型。它們各自具有獨(dú)特的特點(diǎn)和優(yōu)勢(shì),并在不同的應(yīng)用場(chǎng)景中發(fā)揮著重要作用。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)關(guān)系的詳細(xì)探討,內(nèi)容將涵蓋兩者的定義、原理、區(qū)別、聯(lián)系以及應(yīng)
    的頭像 發(fā)表于 07-10 15:24 ?1751次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)、特點(diǎn)、優(yōu)缺點(diǎn)及適用場(chǎng)景

    識(shí)別、時(shí)間序列分析等領(lǐng)域有著廣泛的應(yīng)用。本文將詳細(xì)介紹遞歸神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)、特點(diǎn)、優(yōu)缺點(diǎn)以及適用場(chǎng)景。 一、遞歸神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) 基本結(jié)構(gòu) 遞歸神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)包括輸入層、隱藏層和輸出層
    的頭像 發(fā)表于 07-04 14:52 ?1707次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)的應(yīng)用場(chǎng)景有哪些

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)是一種具有記憶功能的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),廣泛應(yīng)用于自然語(yǔ)言處理、語(yǔ)音識(shí)別、時(shí)間序列預(yù)測(cè)等領(lǐng)域。 自然語(yǔ)言處理
    的頭像 發(fā)表于 07-04 14:39 ?1666次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    結(jié)構(gòu)、原理、應(yīng)用場(chǎng)景等方面都存在一定的差異。以下是對(duì)這兩種神經(jīng)網(wǎng)絡(luò)的比較: 基本結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)是一種多層前饋神經(jīng)網(wǎng)絡(luò),由輸入層、隱藏層和輸出層組成。每個(gè)
    的頭像 發(fā)表于 07-03 10:12 ?1387次閱讀

    神經(jīng)網(wǎng)絡(luò)模型的原理、類型、應(yīng)用場(chǎng)景及優(yōu)缺點(diǎn)

    網(wǎng)絡(luò)模型的原理、類型、應(yīng)用場(chǎng)景以及優(yōu)缺點(diǎn)。 神經(jīng)網(wǎng)絡(luò)模型的原理 神經(jīng)網(wǎng)絡(luò)模型的基本原理是模擬人腦神經(jīng)元的工作方式。人腦由大約860億個(gè)神經(jīng)
    的頭像 發(fā)表于 07-02 09:56 ?1807次閱讀

    示波器觀察波形的視圖模式詳解

    觀察波形的三種主要視圖模式:YT模式、滾動(dòng)模式和XY模式,并深入分析每種模式的原理、特點(diǎn)、優(yōu)缺點(diǎn)及適用場(chǎng)景,以期為讀者在實(shí)際應(yīng)用中提供有益的參考。
    的頭像 發(fā)表于 05-23 17:18 ?3355次閱讀

    LiDAR4D:基于時(shí)空新穎的LiDAR視角合成框架

    NeRF-LiDAR將圖像和點(diǎn)云模態(tài)整合到激光雷達(dá)合成中,而諸如LiDAR-NeRF和NFL之類的僅激光雷達(dá)的方法探索了在沒有RGB圖像的情況下進(jìn)行激光雷達(dá)重建和生成的可能性。
    發(fā)表于 04-10 12:34 ?1372次閱讀
    LiDAR4D:基于時(shí)空新穎的LiDAR視角<b class='flag-5'>合成</b>框架

    NanoEdge AI的技術(shù)原理、應(yīng)用場(chǎng)景及優(yōu)勢(shì)

    能耗并提高數(shù)據(jù)安全性。本文將對(duì) NanoEdge AI 的技術(shù)原理、應(yīng)用場(chǎng)景以及優(yōu)勢(shì)進(jìn)行綜述。 1、技術(shù)原理 NanoEdge AI 的核心技術(shù)包括邊緣計(jì)算、神經(jīng)網(wǎng)絡(luò)壓縮和低功耗硬件設(shè)計(jì)。邊緣計(jì)算
    發(fā)表于 03-12 08:09

    谷歌模型合成工具怎么用

    谷歌模型合成工具主要是指Dreamfusion,這是Google的大型AI圖像模型Imagen與NeRF的3D功能相結(jié)合的一種技術(shù)。Dreamfusion是Dream Fields的演變,Dream Fields是谷歌于2021
    的頭像 發(fā)表于 02-29 17:33 ?863次閱讀

    NeRF入門基礎(chǔ)知識(shí)詳解

    deep networks 更傾向于學(xué)習(xí)低頻的函數(shù),實(shí)際場(chǎng)景神經(jīng)輻射場(chǎng)基本上都是高頻的
    的頭像 發(fā)表于 02-21 14:21 ?1637次閱讀
    <b class='flag-5'>NeRF</b>入門基礎(chǔ)知識(shí)詳解