欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹一個重要的慣性框架數(shù)據(jù)集Berkeley DeepDrive Drone

3D視覺工坊 ? 來源:深藍(lán)AI ? 作者:口香糖 ? 2022-11-01 09:41 ? 次閱讀

1. 引言

研究自動駕駛車輛在復(fù)雜路況下的行為決策具有重要意義,但目前大多數(shù)自動駕駛數(shù)據(jù)集只關(guān)注結(jié)構(gòu)化場景,很少有人去研究非結(jié)構(gòu)化道路環(huán)境,更少人去研究復(fù)雜非結(jié)構(gòu)化場景中的車輛行為。 本文將介紹一個重要的慣性框架數(shù)據(jù)集Berkeley DeepDrive Drone (B3D),該數(shù)據(jù)集由相機(jī)采集,廣泛包含大量的復(fù)雜非結(jié)構(gòu)化場景,包括有交通事故的高速公路、無信號燈交叉路口等。 該

數(shù)據(jù)集有助于研究復(fù)雜路況下的自動駕駛車輛行為,并啟發(fā)自動駕駛汽車和倉庫機(jī)器人的分散運(yùn)動規(guī)劃算法的新設(shè)計。

2. 摘要

分散式多智能體規(guī)劃一直是機(jī)器人領(lǐng)域的一個重要研究方向。在該領(lǐng)域的一個有趣和有影響力的應(yīng)用是非結(jié)構(gòu)化道路環(huán)境中的分散車輛協(xié)調(diào)。 例如,在一個交叉路口,在沒有中央?yún)f(xié)調(diào)器的情況下,對相交路徑的多個車輛進(jìn)行拆分是有用的,但卻是困難的。

我們從常識中了解到,要讓車輛通過這種非結(jié)構(gòu)化的環(huán)境,駕駛員必須理解并遵守附近駕駛員所觀察到的隱含的社交禮儀。為了研究這種隱式駕駛協(xié)議,我們收集了伯克利Deep Drive Drone數(shù)據(jù)集。

該數(shù)據(jù)集包含1 )一組記錄非結(jié)構(gòu)化駕駛的航拍視頻,2 )一組用于訓(xùn)練車輛檢測模型的圖像和注釋,以及3 )一組用于說明典型用法的開發(fā)腳本。我們認(rèn)為,該數(shù)據(jù)集對于研究人類駕駛員所采用的分散多智能體規(guī)劃具有主要意義,對于遙感環(huán)境中的計算機(jī)視覺具有次要意義。

3. 數(shù)據(jù)集介紹

3.1 數(shù)據(jù)集格式

B3D數(shù)據(jù)集中記錄的場景可以分為以下六類:1)無信號燈控制的交叉路口,2) 無信號燈控制的環(huán)形交叉口,3)追尾事故,4)走走停停的車流,5)道路施工引起的車流合并,以及6)匝道引起的合并。 B3D數(shù)據(jù)集由20個后處理視頻、16002個帶注釋的圖像和一個開發(fā)工具包組成,視頻、帶注釋的圖像和開發(fā)工具包的大小分別為84.5 GB、1.55 GB和225 MB,總計約86.3 GB。在20個經(jīng)過處理的視頻中,有8個是在路口上錄制的,12個是在高速公路上錄制的,視頻格式為mp4,數(shù)據(jù)集的結(jié)構(gòu)如圖1所示。

95385936-5973-11ed-a3b6-dac502259ad0.png

圖1B3D數(shù)據(jù)集的文件結(jié)構(gòu)

如圖2所示是B3D數(shù)據(jù)集中所展示的追尾事故,分別發(fā)生在hwy00.mp4,以及hwy01.mp4中。在hwy00.mp4的00:45,可以觀察到框架左邊緣附近的第一次事故。在hwy01.mp4的13:10,在幀中間發(fā)現(xiàn)了另一個碰撞事故。

954c94f0-5973-11ed-a3b6-dac502259ad0.png

圖2 hwy00.mp4和hwy01.mp4的追尾碰撞。

第一次事故涉及至少兩輛車,而第二起事件涉及四輛車。 無信號控制的交叉路口可以在jnc00.mp4、jnc01.mp4、jnc02.mp4和jnc07.mp4的視頻中找到。如圖3a所示和數(shù)字3b所示,視頻jnc00.mp4和jnc01.mp4是三叉路口的兩種變體。如圖3c和3d所示數(shù)字,視頻jnc02.mp4和jnc07.mp4是四向交叉口的兩種變體。

jnc03.mp4、jnc04.mp4、jnc05.mp4和jnc06.mp4都有無信號環(huán)形交叉口。如圖3e所示,視頻jnc03.mp4和jnc04.mp4是兩個ve-way環(huán)島的記錄。如圖3f和3g所示,視頻jnc05.mp4和jnc06.mp4是四向環(huán)形交叉口的兩種變體。 hwy04.mp4和hwy05.mp4記錄了走走停停的車流。

第一個走走停停行為在hwy04.mp4時間02:30到05:07之間形成。第二次停停走走的浪潮出現(xiàn)在hwy04.mp4時間06:06到08:10之間。第三次停停走走的波動出現(xiàn)在hwy04.mp4時間的10:26到12:25之間。第四次發(fā)生在hwy05.mp4時間00:00到01:33之間。最后一次出現(xiàn)在hwy05.mp4時間05:19到06:07之間。停停走走波的形成和消散過程如圖4所示。

hwy06.mp4、hwy07.mp4和hwy08.mp4都記錄了道路工程引發(fā)的車輛合并。如圖3j所示,該場景的拓?fù)涫且粋€四車道到兩車道的瓶頸。 hwy09.mp4、hwy10.mp4和hwy11.mp4記錄了匝道誘導(dǎo)合并。如圖3k所示,匝道的拓?fù)浣Y(jié)構(gòu)是一條三車道的入口匝道正在并入一條四車道的擁堵公路。在合并點之前和之后,車流保持堵塞。

9569aae0-5973-11ed-a3b6-dac502259ad0.png

圖3 B3D數(shù)據(jù)集中的典型道路拓?fù)洹?br />
(a)-(d)無信號燈交叉口,(e)-(g)無信號燈環(huán)形交叉口,(h)-(i)高速公路,以及(i)-(k)合流瓶頸。

95a10e36-5973-11ed-a3b6-dac502259ad0.png

圖4 走走停停車流的時間線。 綠色表示正常交通,紅色表示由強(qiáng)降雨引起的擁堵,淺紅色表示由走走停停引起的擁堵。

3.2 圖片標(biāo)注

為了定性分析視頻中觀察到的車輛行為,需要獲得場景中每輛相關(guān)車輛的精確軌跡。為了構(gòu)建車輛的軌跡,作者首先在每一幀中檢測其位置,然后使用跟蹤算法將跨幀的每個檢測位置關(guān)聯(lián)起來。 為此,作者建立了一個圖像數(shù)據(jù)集,可用于訓(xùn)練車輛檢測模型。該數(shù)據(jù)集由16002個帶注釋的圖像組成,其中80%被分割用于訓(xùn)練,10%用于驗證,10%用于測試。

圖5顯示了一個示例注釋。 數(shù)據(jù)集中,總共有135303個邊界框被注釋為路口圖像,總共有129939個邊界框被創(chuàng)建為高速公路圖像。注意,所有車輛均被不加區(qū)分得定義為vehicle類。

95c19d2c-5973-11ed-a3b6-dac502259ad0.png

圖5 注釋圖像示例。彩色矩形是場景中車輛的軸向?qū)R邊界框。

3.3 開發(fā)工具包

除了視頻和帶注釋的圖片,作者還提供了一個開發(fā)工具包,其中包含三個示例腳本:train.py、test.py和mask.py。 其中,腳本train.py用于顯示注釋圖像數(shù)據(jù)如何用來訓(xùn)練用于車輛檢測的神經(jīng)網(wǎng)絡(luò)模型。在這個腳本中,作者使用對象檢測庫Detectron2來訓(xùn)練RetinaNet模型,用于檢測輸入圖像中車輛的位置。

腳本test.py將通過train.py腳本訓(xùn)練的訓(xùn)練模型應(yīng)用于輸入圖像,用于訓(xùn)練后的評估和推理。作者提供了預(yù)訓(xùn)練模型,可以直接用于推理,使用預(yù)訓(xùn)練模型的檢測結(jié)果的實例如圖6所示。

95d124d6-5973-11ed-a3b6-dac502259ad0.png

圖6 帶有檢測結(jié)果的示例圖像。

彩色矩形是軸向?qū)R的邊界框。黑色數(shù)字是估計邊界框的置信分?jǐn)?shù),其中1.0表示完全確定,0.0表示完全不確定。 最后,mask.py根據(jù)預(yù)先定義的多邊形遮罩來裁剪圖像。圖7顯示了腳本如何根據(jù)紅色遮罩裁剪掉環(huán)島圖像的不相關(guān)部分。該腳本旨在幫助用戶專注于場景中唯一相關(guān)的部分,其中的相關(guān)性由用戶通過CVAT工具確定。

要裁剪視頻,只需為視頻的一幀定義一個多邊形遮罩,然后對視頻的每一幀應(yīng)用遮罩。此外,作者還提供了Docker文件。

95ea5cc6-5973-11ed-a3b6-dac502259ad0.png

圖7 mask過程的演示。紅色多邊形面具由CVAT設(shè)計。蒙版之外的像素被認(rèn)為是不相關(guān)的,并被標(biāo)記為黑色。

4. 視頻采集和處理

4.1 數(shù)據(jù)采集時間

這20個航拍視頻是2019年12月11日至12月21日在中國由DJI Mavic 2 Pro四軸飛行器拍攝的。具體的日期、長度和地點如表1所示。

表1視頻日期、長度及定位

960130c2-5973-11ed-a3b6-dac502259ad0.png

在每次視頻拍攝期間,作者將四軸無人機(jī)直接懸停。然后使用內(nèi)置相機(jī)以4K和30 FPS記錄俯視視頻。實驗設(shè)置的可視化如圖8所示。由于電池容量有限,每次拍攝被限制在15到20分鐘之間。

96173ade-5973-11ed-a3b6-dac502259ad0.png

圖8 實驗裝置的圖解。四軸無人機(jī)懸停在感興趣的道路上,內(nèi)置攝像機(jī)記錄每個交通參與者進(jìn)出場景的俯視圖。

為了訓(xùn)練用于車輛檢測的神經(jīng)網(wǎng)絡(luò)模型,作者從20個視頻中每15秒提取一個幀,然后手動標(biāo)記一個軸向?qū)R的邊界框,在選定的幀中的每個車輛。此外,作者裁剪了視頻幀中不相關(guān)的部分,如樹木、屋頂和停車場,以此來減小圖像的大小。

4.2 應(yīng)用領(lǐng)域

B3D數(shù)據(jù)集主要有2個重要的應(yīng)用場景:運(yùn)動規(guī)劃,以及計算機(jī)視覺。

在運(yùn)動規(guī)劃任務(wù)中,B3D數(shù)據(jù)集典型的應(yīng)用過程如下: 1)運(yùn)行mask腳本以選擇視頻數(shù)據(jù)集的相關(guān)部分; 2)應(yīng)用檢測模型提取mask場景中每輛車的位置; 3)檢查檢測結(jié)果,并且手動校正檢測錯誤; 4)使用SORT等跟蹤算法,將檢測到的位置關(guān)聯(lián)到軌跡中; 5)基于估計的軌跡學(xué)習(xí)和驗證人類駕駛模型。

以此估計得到的模型可以部署在自動駕駛系統(tǒng)上,用于在特殊非結(jié)構(gòu)化場景中導(dǎo)航。此外,所得到的模型可以作為倉庫機(jī)器人開發(fā)分散協(xié)調(diào)算法的基線。 在計算機(jī)視覺中,B3D主要用于開發(fā)或評估遙感環(huán)境中的小型道路目標(biāo)的CV算法。

從空中視頻中檢測行人或騎自行車的人對于最先進(jìn)的計算機(jī)視覺來說仍然是一個挑戰(zhàn)。這很大程度上是由于這些小物體的低分辨率,因為低分辨率使物體在視覺上模糊不清。如圖9所示,檢測模型可能會將行人與水印混淆,或弄混行人和騎自行車的人。

為此,B3D可以作為構(gòu)建訓(xùn)練數(shù)據(jù)和驗證候選算法的數(shù)據(jù)源。

9630aba4-5973-11ed-a3b6-dac502259ad0.png

圖9 低分辨率物體的視覺模糊

5. 總結(jié)

本文介紹了伯克利DeepDrive無人機(jī)數(shù)據(jù)集,該數(shù)據(jù)集拓展了自動駕駛中的非結(jié)構(gòu)化場景,對于研究復(fù)雜路況下的自動駕駛車輛行為具有重要意義。

該數(shù)據(jù)集包含總共20個視頻序列、16002個帶注釋的圖像和一個開發(fā)工具包。它可用于以下應(yīng)用:1)在底層結(jié)構(gòu)道路環(huán)境中模擬駕駛員行為,2)設(shè)計去中心化運(yùn)動規(guī)劃算法,以及3)開發(fā)用于低分辨率道路目標(biāo)的檢測方法。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 無人機(jī)
    +關(guān)注

    關(guān)注

    230

    文章

    10530

    瀏覽量

    182663
  • 信號控制
    +關(guān)注

    關(guān)注

    0

    文章

    40

    瀏覽量

    9236
  • 自動駕駛
    +關(guān)注

    關(guān)注

    785

    文章

    13946

    瀏覽量

    167114

原文標(biāo)題:分散式車輛協(xié)同:伯克利DeepDrive無人機(jī)數(shù)據(jù)集B3D

文章出處:【微信號:3D視覺工坊,微信公眾號:3D視覺工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    慣性傳感器的分類和應(yīng)用

    慣性傳感器是種利用物體慣性效應(yīng)來測量加速度、角速度等運(yùn)動參數(shù)的傳感器。隨著微機(jī)電系統(tǒng)(MEMS)技術(shù)的快速發(fā)展,慣性傳感器已經(jīng)廣泛應(yīng)用于汽車、航空航天、消費(fèi)電子、工業(yè)自動化等多個領(lǐng)域
    的頭像 發(fā)表于 02-03 14:20 ?143次閱讀

    AI開發(fā)框架集成介紹

    隨著AI應(yīng)用的廣泛深入,單框架往往難以滿足多樣化的需求,因此,AI開發(fā)框架的集成成為了提升開發(fā)效率、促進(jìn)技術(shù)創(chuàng)新的關(guān)鍵路徑。以下,是對AI開發(fā)框架集成的
    的頭像 發(fā)表于 01-07 15:58 ?144次閱讀

    用于SLAM中點云地圖綜合評估的開源框架

    在SLAM中評估大規(guī)模的點云地圖仍頗具挑戰(zhàn),主要原因在于缺乏統(tǒng)、穩(wěn)健且高效的評估框架。本文提出了MapEval,這是用于點云地圖綜合評估的開源
    的頭像 發(fā)表于 12-13 11:18 ?362次閱讀
    用于SLAM中點云地圖綜合評估的開源<b class='flag-5'>框架</b>

    RISC-V指令概述

    基礎(chǔ)指令,加上若干個擴(kuò)展指令進(jìn)行搭配使用,就可以得到我們想要的指令架構(gòu),進(jìn)而根據(jù)這樣的指令架構(gòu),設(shè)計出貼合我們需求的CPU。其中最核心部分是
    發(fā)表于 11-30 23:30

    種面向飛行試驗的數(shù)據(jù)融合框架

    天地氣動數(shù)據(jù)一致性,針對某外形飛行試驗數(shù)據(jù)開展了典型對象的天地氣動數(shù)據(jù)融合方法研究。結(jié)合數(shù)據(jù)挖掘的隨機(jī)森林方法,本文提出了種面向飛行試驗的
    的頭像 發(fā)表于 11-27 11:34 ?341次閱讀
    <b class='flag-5'>一</b>種面向飛行試驗的<b class='flag-5'>數(shù)據(jù)</b>融合<b class='flag-5'>框架</b>

    芯片封裝設(shè)計引腳寬度和框架引腳的設(shè)計介紹

    芯片的封裝設(shè)計中,引腳寬度的設(shè)計和框架引腳的整形設(shè)計是兩關(guān)鍵的方面,它們直接影響到元件的鍵合質(zhì)量和可靠性,本文對其進(jìn)行介紹,分述如下:
    的頭像 發(fā)表于 11-05 12:21 ?1098次閱讀
    芯片封裝設(shè)計引腳寬度和<b class='flag-5'>框架</b>引腳的設(shè)計<b class='flag-5'>介紹</b>

    基于旋轉(zhuǎn)平移解耦框架的視覺慣性初始化方法

    精確和魯棒的初始化對于視覺慣性里程計(VIO)至關(guān)重要,因為不良的初始化會嚴(yán)重降低姿態(tài)精度。
    的頭像 發(fā)表于 11-01 10:16 ?451次閱讀
    基于旋轉(zhuǎn)平移解耦<b class='flag-5'>框架</b>的視覺<b class='flag-5'>慣性</b>初始化方法

    種完全分布式的點線協(xié)同視覺慣性導(dǎo)航系統(tǒng)

    在本文中,我們提出了種完全分布式的點線協(xié)同視覺慣性導(dǎo)航系統(tǒng)。我們通過蒙特卡羅模擬和真實環(huán)境數(shù)據(jù),在稠密特征或稀疏特征環(huán)境下將所提出的算法與其他四種算法進(jìn)行了比較。所有結(jié)果表明,我們
    的頭像 發(fā)表于 09-30 14:45 ?525次閱讀
    <b class='flag-5'>一</b>種完全分布式的點線協(xié)同視覺<b class='flag-5'>慣性</b>導(dǎo)航系統(tǒng)

    使用rt-thread的ADC框架,增加了DMA采集部分,采集到的兩通道數(shù)據(jù)中,有通道數(shù)據(jù)異常,為什么?

    裸機(jī)程序通過ADC+DMA采集兩通道模擬量數(shù)據(jù),可以正常采集到數(shù)據(jù),使用rt-thread的ADC框架,增加了DMA采集部分,采集到的兩通道數(shù)據(jù)中,有
    發(fā)表于 07-12 08:07

    pycharm怎么訓(xùn)練數(shù)據(jù)

    在本文中,我們將介紹如何在PyCharm中訓(xùn)練數(shù)據(jù)。PyCharm是款流行的Python集成開發(fā)環(huán)境,提供了許多用于數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)的
    的頭像 發(fā)表于 07-11 10:10 ?747次閱讀

    bootstrap框架介紹

    Bootstrap是流行的前端框架,它提供了套響應(yīng)式、移動優(yōu)先的CSS和JavaScript組件,可以幫助開發(fā)者快速構(gòu)建美觀、功能豐富的網(wǎng)頁。
    的頭像 發(fā)表于 07-11 09:53 ?672次閱讀

    如何理解機(jī)器學(xué)習(xí)中的訓(xùn)練、驗證和測試

    理解機(jī)器學(xué)習(xí)中的訓(xùn)練、驗證和測試,是掌握機(jī)器學(xué)習(xí)核心概念和流程的重要步。這三者不僅構(gòu)成了模型學(xué)習(xí)與評估的基礎(chǔ)
    的頭像 發(fā)表于 07-10 15:45 ?4715次閱讀

    PyTorch如何訓(xùn)練自己的數(shù)據(jù)

    PyTorch是廣泛使用的深度學(xué)習(xí)框架,它以其靈活性、易用性和強(qiáng)大的動態(tài)圖特性而聞名。在訓(xùn)練深度學(xué)習(xí)模型時,數(shù)據(jù)是不可或缺的組成部分。
    的頭像 發(fā)表于 07-02 14:09 ?2097次閱讀

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    深度學(xué)習(xí)作為人工智能領(lǐng)域的重要分支,在過去十年中取得了顯著的進(jìn)展。在構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的過程中,深度學(xué)習(xí)框架扮演著至關(guān)重要的角色。T
    的頭像 發(fā)表于 07-02 14:04 ?1101次閱讀

    常見的數(shù)據(jù)采集工具的介紹

    數(shù)據(jù)采集是數(shù)據(jù)分析和處理的基礎(chǔ),它涉及到從各種數(shù)據(jù)源中提取、收集和整理數(shù)據(jù)的過程。數(shù)據(jù)采集工具的選擇對于
    的頭像 發(fā)表于 07-01 14:51 ?1046次閱讀