欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌AI發(fā)布3D物體數(shù)據(jù)集,附帶標(biāo)記邊界框、相機(jī)位姿、稀疏點(diǎn)云

工程師鄧生 ? 來源:量子位 ? 作者:蕭簫 ? 2020-11-13 14:28 ? 次閱讀

見過3D物體數(shù)據(jù)集,見過會動的3D物體數(shù)據(jù)集嗎?

每段動態(tài)視頻都 以目標(biāo)為中心拍攝,不僅自帶標(biāo)注整體的邊界框,每個視頻還附帶相機(jī)位姿和稀疏點(diǎn)云。

這是谷歌的開源3D物體數(shù)據(jù)集 Objectron,包含 15000份短視頻樣本,以及從五個大洲、十個國家里收集來的 400多萬張帶注釋的圖像。

谷歌認(rèn)為,3D目標(biāo)理解領(lǐng)域,缺少像2D中的ImageNet這樣的大型數(shù)據(jù)集,而Objectron數(shù)據(jù)集能在一定程度上解決這個問題。

數(shù)據(jù)集一經(jīng)推出, 1.6k網(wǎng)友點(diǎn)贊。

有網(wǎng)友調(diào)侃,谷歌恰好在自己想“谷歌”這類數(shù)據(jù)集的時候,把它發(fā)了出來。

也有團(tuán)隊(duì)前成員表示,很高興看到這樣的數(shù)據(jù)集和模型,給AR帶來進(jìn)步的可能。

除此之外,谷歌還公布了用Objectron數(shù)據(jù)集訓(xùn)練的針對 鞋子、椅子、杯子和相機(jī)4種類別的3D目標(biāo)檢測模型。

來看看這個數(shù)據(jù)集包含什么,以及谷歌提供的3D目標(biāo)檢測方案吧~ (項(xiàng)目地址見文末)

9類物體,對AR挺友好

目前,這個數(shù)據(jù)集中包含的3D物體樣本,包括自行車,書籍,瓶子,照相機(jī),麥片盒子,椅子,杯子,筆記本電腦和鞋子。

當(dāng)然,這個數(shù)據(jù)集,絕不僅僅只是一些以物體為中心拍攝的視頻和圖像,它具有如下特性:

注釋標(biāo)簽 (3D目標(biāo)立體邊界框)

用于AR數(shù)據(jù)的數(shù)據(jù) (相機(jī)位姿、稀疏點(diǎn)云、二維表面)

數(shù)據(jù)預(yù)處理 (圖像格式為tf.example,視頻格式為SequenceExample)

支持通過腳本運(yùn)行3D IoU指標(biāo)的評估

支持通過腳本實(shí)現(xiàn)Tensorflow、PyTorch、JAX的數(shù)據(jù)加載及可視化,包含“Hello World”樣例

支持Apache Beam,用于處理谷歌云(Google Cloud)基礎(chǔ)架構(gòu)上的數(shù)據(jù)集

所有可用樣本的索引,包括訓(xùn)練/測試部分,便于下載

圖像部分的畫風(fēng),基本是這樣的,也標(biāo)注得非常詳細(xì):

而在視頻中,不僅有從各個角度拍攝的、以目標(biāo)為中心的片段 (從左到右、從下到上):

也有不同數(shù)量的視頻類型 (一個目標(biāo)、或者兩個以上的目標(biāo)):

谷歌希望通過發(fā)布這個數(shù)據(jù)集,讓研究界能夠進(jìn)一步突破3D目標(biāo)理解領(lǐng)域,以及相關(guān)的如 無監(jiān)督學(xué)習(xí)等方向的研究應(yīng)用。

怎么用?谷歌“以身示范”

拿到數(shù)據(jù)集的第一刻,并不知道它是否好用,而且總感覺有點(diǎn)無從下手?

別擔(dān)心,這個數(shù)據(jù)集的訓(xùn)練效果,谷歌已經(jīng)替我們試過了。

看起來還不錯:

此外,谷歌將訓(xùn)練好的3D目標(biāo)檢測模型,也一并給了出來。 (傳送見文末)

算法主要包括兩部分,第一部分是Tensorflow的2D目標(biāo)檢測模型,用來“發(fā)現(xiàn)物體的位置”;

第二部分則進(jìn)行圖像裁剪,來估計(jì)3D物體的邊界框 (同時計(jì)算目標(biāo)下一幀的2D裁剪,因此不需要運(yùn)行每個幀),整體結(jié)構(gòu)如下圖:

在模型的評估上,谷歌采用了 Sutherland-Hodgman多邊形裁剪算法,來計(jì)算兩個立體邊界框的交點(diǎn),并計(jì)算出兩個立方體的 相交體積,最終計(jì)算出3D目標(biāo)檢測模型的 IoU。

簡單來說,兩個立方體重疊體積越大,3D目標(biāo)檢測模型效果就越好。

這個模型是谷歌推出的MediaPipe中的一個部分,后者是一個開源的跨平臺框架,用于構(gòu)建pipeline,以處理不同形式的感知數(shù)據(jù)。

它推出的MediaPipe Objectron實(shí)時3D目標(biāo)檢測模型,用移動設(shè)備 (手機(jī))就能進(jìn)行目標(biāo)實(shí)時檢測 。

看, (他們玩得多歡快)實(shí)時目標(biāo)檢測的效果還不錯:

其他部分3D數(shù)據(jù)集

除了谷歌推出的數(shù)據(jù)集以外,此前視覺3D目標(biāo)領(lǐng)域,也有許多類型不同的數(shù)據(jù)集,每個數(shù)據(jù)集都有自己的特點(diǎn)。

例如斯坦福大學(xué)等提出的 ScanNetV2,是個室內(nèi)場景數(shù)據(jù)集,而ScanNet則是個RGB-D視頻數(shù)據(jù)集,一共有21個目標(biāo)類,一共1513個采集場景數(shù)據(jù),可做語義分割和目標(biāo)檢測任務(wù)。

而目前在自動駕駛領(lǐng)域非常熱門的 KITTI數(shù)據(jù)集,也是一個3D數(shù)據(jù)集,是目前最大的自動駕駛場景下計(jì)算機(jī)視覺的算法評測數(shù)據(jù)集,包含市區(qū)、鄉(xiāng)村和高速公路等場景采集的真實(shí)圖像數(shù)據(jù)。

此外,還有Waymo、SemanticKITTI、H3D等等數(shù)據(jù)集,也都用在不同的場景中。 (例如SemanticKITTI,通常被專門用于自動駕駛的3D語義分割)

無論是視頻還是圖像,這些數(shù)據(jù)集的單個樣本基本包含多個目標(biāo),使用場景上也與谷歌的Objectron有所不同。

感興趣的小伙伴們,可以通過下方傳送門,瀏覽谷歌最新的3D目標(biāo)檢測數(shù)據(jù)集,以及相關(guān)模型~

Objectron數(shù)據(jù)集傳送門:

https://github.com/google-research-datasets/Objectron/

針對4種物體的3D目標(biāo)檢測模型:

https://google.github.io/mediapipe/solutions/objectron

參考鏈接:

https://ai.googleblog.com/2020/11/announcing-objectron-dataset.html

https://ai.googleblog.com/2020/03/real-time-3d-object-detection-on-mobile.html

責(zé)任編輯:PSY

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 3D
    3D
    +關(guān)注

    關(guān)注

    9

    文章

    2917

    瀏覽量

    108060
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6202

    瀏覽量

    106076
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31681

    瀏覽量

    270478
  • 大數(shù)據(jù)
    +關(guān)注

    關(guān)注

    64

    文章

    8910

    瀏覽量

    137842
收藏 人收藏

    評論

    相關(guān)推薦

    騰訊混元3D AI創(chuàng)作引擎正式發(fā)布

    近日,騰訊公司宣布其自主研發(fā)的混元3D AI創(chuàng)作引擎已正式上線。這一創(chuàng)新性的創(chuàng)作工具將為用戶帶來前所未有的3D內(nèi)容創(chuàng)作體驗(yàn),標(biāo)志著騰訊在AI技術(shù)領(lǐng)域的又一重大突破。 混元
    的頭像 發(fā)表于 01-23 10:33 ?185次閱讀

    騰訊混元3D AI創(chuàng)作引擎正式上線

    近日,騰訊公司宣布其自主研發(fā)的混元3D AI創(chuàng)作引擎已正式上線。這一創(chuàng)新性的創(chuàng)作工具,標(biāo)志著騰訊在3D內(nèi)容生成領(lǐng)域邁出了重要一步。 混元3D AI
    的頭像 發(fā)表于 01-22 10:26 ?170次閱讀

    C#通過Halcon實(shí)現(xiàn)3D點(diǎn)重繪

    C# 通過 Halcon 實(shí)現(xiàn) 3D 點(diǎn)重繪
    發(fā)表于 01-05 09:16 ?0次下載

    NEO推出3D X-AI芯片,AI性能飆升百倍

    近日,半導(dǎo)體行業(yè)的創(chuàng)新先鋒NEO Semiconductor震撼發(fā)布了一項(xiàng)革命性技術(shù)——3D X-AI芯片,這項(xiàng)技術(shù)旨在徹底顛覆人工智能處理領(lǐng)域的能效與性能邊界。
    的頭像 發(fā)表于 08-21 15:45 ?706次閱讀

    深視智能3D相機(jī)2.5D模式高度差測量SOP流程

    深視智能3D相機(jī)2.5D模式高度差測量SOP流程
    的頭像 發(fā)表于 07-27 08:41 ?638次閱讀
    深視智能<b class='flag-5'>3D</b><b class='flag-5'>相機(jī)</b>2.5<b class='flag-5'>D</b>模式高度差測量SOP流程

    深視智能3D相機(jī)在軸承內(nèi)徑檢測的應(yīng)用

    3D相機(jī)
    深視智能科技
    發(fā)布于 :2024年07月23日 10:33:54

    紫光展銳助力全球首款AI裸眼3D手機(jī)發(fā)布

    1.4億臺,展示了該技術(shù)巨大的市場潛力和增長空間。近日,全球首款AI裸眼3D手機(jī)——中興遠(yuǎn)航3D重磅上市。憑借微米級3D光柵技術(shù)、Neovision
    的頭像 發(fā)表于 07-15 16:00 ?761次閱讀

    中興通訊與中國移動發(fā)布全球首創(chuàng)AI裸眼3D新品,引領(lǐng)3D科技新浪潮

    在科技飛速發(fā)展的今天,裸眼3D技術(shù)以其獨(dú)特的沉浸式體驗(yàn),正逐漸成為科技領(lǐng)域的新寵。近日,全球領(lǐng)先的通訊科技企業(yè)中興通訊攜手中國移動,在備受矚目的2024MWC上海展上,發(fā)布了兩款全球首創(chuàng)的AI裸眼
    的頭像 發(fā)表于 06-28 15:32 ?1099次閱讀

    浪潮發(fā)布洲燭龍雙目結(jié)構(gòu)光3D相機(jī)

    在科技日新月異的今天,智能制造正逐步成為推動社會發(fā)展的重要力量。近日,備受矚目的2024世界智能產(chǎn)業(yè)博覽會在天津盛大開幕。本次博覽會不僅匯聚了全球智能產(chǎn)業(yè)的精英,更見證了一項(xiàng)創(chuàng)新技術(shù)的誕生——浪潮洲旗下國器智眸公司研發(fā)的“洲燭龍雙目結(jié)構(gòu)光
    的頭像 發(fā)表于 06-25 18:00 ?1229次閱讀

    奧比中光正式發(fā)布全新Gemini 330系列雙目3D相機(jī)

    4月29日,奧比中光正式發(fā)布全新Gemini 330系列雙目3D相機(jī),首發(fā)產(chǎn)品包括Gemini 335、Gemini 335L兩款通用型高性能雙目3D
    的頭像 發(fā)表于 04-30 10:41 ?761次閱讀
    奧比中光正式<b class='flag-5'>發(fā)布</b>全新Gemini 330系列雙目<b class='flag-5'>3D</b><b class='flag-5'>相機(jī)</b>

    機(jī)器人3D視覺引導(dǎo)系統(tǒng)框架介紹

    通過自主開發(fā)的3D掃描儀可獲準(zhǔn)確并且快速地獲取場景的點(diǎn)云圖像,通過3D識別算法,可實(shí)現(xiàn)在對點(diǎn)云圖中的多種目標(biāo)物體進(jìn)行識別和位
    發(fā)表于 04-29 09:31 ?385次閱讀
    機(jī)器人<b class='flag-5'>3D</b>視覺引導(dǎo)系統(tǒng)框架介紹

    Stability AI推出Stable Video 3D模型,可制作多視角3D視頻

    SV3D_u是Stable Video 3D的一個版本,僅需單幅圖片即可生成運(yùn)動軌跡視頻,無須進(jìn)行相機(jī)調(diào)整。擴(kuò)充版本的SV3D_p加入了軌道視圖的特性,使其可以根據(jù)預(yù)設(shè)的
    的頭像 發(fā)表于 03-21 14:57 ?1110次閱讀

    基于深度學(xué)習(xí)的方法在處理3D點(diǎn)進(jìn)行缺陷分類應(yīng)用

    背景部分介紹了3D點(diǎn)應(yīng)用領(lǐng)域中公開可訪問的數(shù)據(jù)的重要性,這些數(shù)據(jù)
    的頭像 發(fā)表于 02-22 16:16 ?1352次閱讀
    基于深度學(xué)習(xí)的方法在處理<b class='flag-5'>3D</b><b class='flag-5'>點(diǎn)</b><b class='flag-5'>云</b>進(jìn)行缺陷分類應(yīng)用