背景
目前學(xué)術(shù)界和工業(yè)界(尤其自動(dòng)駕駛公司)均開(kāi)始研究HD地圖生成,也有一些公開(kāi)的學(xué)術(shù)數(shù)據(jù)集以及非常多的學(xué)術(shù)工作,此外各家自動(dòng)駕駛公司也在AIDAY上公開(kāi)分享技術(shù)方案。從這些公開(kāi)信息來(lái)看,也觀察到了一些行業(yè)趨勢(shì),例如在線(xiàn)建圖、圖像BEV感知、點(diǎn)圖融合以及車(chē)道線(xiàn)矢量拓?fù)浣5?。本文將?duì)相關(guān)的學(xué)術(shù)工作和自動(dòng)駕駛公司的技術(shù)方案進(jìn)行解讀,以及談?wù)剛€(gè)人的一些思考。
學(xué)術(shù)數(shù)據(jù)集
學(xué)術(shù)數(shù)據(jù)集對(duì)比
目前含HD地圖的學(xué)術(shù)數(shù)據(jù)集包括:nuScenes【1】以及Argoverse2【2】。著重介紹下Argoverse2數(shù)據(jù)集,該數(shù)據(jù)集包含信息非常豐富:
包括車(chē)道線(xiàn)、道路邊界、人行橫道、停止線(xiàn)等靜態(tài)地圖要素,其中幾何均用3D坐標(biāo)表示,并且同時(shí)包含了實(shí)物車(chē)道線(xiàn)和虛擬車(chē)道線(xiàn);
提供了密集的地面高度圖(30cm),通過(guò)地面高度可以?xún)H保留地面的點(diǎn)云,便于處理地面上的地圖要素;
Argoverse2的HD地圖
學(xué)術(shù)工作
該領(lǐng)域目前是自動(dòng)駕駛公司的關(guān)注重點(diǎn),因此相關(guān)學(xué)術(shù)工作基本都來(lái)自高校和車(chē)企合作,目前已經(jīng)公開(kāi)的論文,包括理想、地平線(xiàn)和毫末智行等車(chē)企。
而這些學(xué)術(shù)工作的技術(shù)方案整體可以概括為兩部分:(1)BEV特征生成(2)地圖要素建模。
BEV特征生成
在BEV空間進(jìn)行在線(xiàn)建圖,已經(jīng)是目前學(xué)術(shù)界和業(yè)界的統(tǒng)一認(rèn)識(shí),其優(yōu)勢(shì)主要包括:
減少車(chē)輛俯仰顛簸導(dǎo)致的內(nèi)外八字抖動(dòng),適合車(chē)道線(xiàn)這種同時(shí)在道路中間以及兩邊存在的物體;
遠(yuǎn)近檢測(cè)結(jié)果分布均勻,適合車(chē)道線(xiàn)這種細(xì)長(zhǎng)物體;
便于多相機(jī)和時(shí)序融合,適合車(chē)道線(xiàn)這種可能在單幀遮擋看不見(jiàn)或單視角相機(jī)下拍攝不全的物體;
而在如何生成BEV特征上,不同論文的方法有些許區(qū)別。
HDMapNet【3】(來(lái)自清華和理想),采用了點(diǎn)圖融合方式生成BEV特征,其中點(diǎn)云分支使用PointPillar【4】+PointNet【5】方式提取特征,圖像分支則使用MLP方式實(shí)現(xiàn)PV2BEV轉(zhuǎn)換,即將PV空間到BEV空間的變換看作變換矩陣參數(shù),并通過(guò)MLP去學(xué)習(xí)(擬合)該參數(shù)。
HDMapNet架構(gòu)圖
其中環(huán)視圖像經(jīng)過(guò)PV2BEV轉(zhuǎn)換,實(shí)現(xiàn)了不同視角相機(jī)的圖像特征融合。
HDMapNet的環(huán)視相機(jī)特征融合
VectorMapNet【6】是HDMapNet的后續(xù)工作(來(lái)自清華和理想),同樣采用了點(diǎn)圖融合方式生成BEV特征,區(qū)別在于對(duì)圖像分支采用IPM+高度插值方式實(shí)現(xiàn)PV2BEV轉(zhuǎn)換。IPM是傳統(tǒng)的PV2BEV轉(zhuǎn)換方法,但需要滿(mǎn)足地面高度平坦的假設(shè)?,F(xiàn)實(shí)中,該假設(shè)通常較難滿(mǎn)足,因此該工作假設(shè)了4個(gè)不同地面高度下(-1m,0m,1m,2m)的BEV空間,分別將圖像特征經(jīng)過(guò)IPM投影到這些BEV空間上,然后將這些特征concatenate起來(lái)得到最終的BEV特征。
VectorMapNet架構(gòu)圖
MapTR【7】(來(lái)自地平線(xiàn))則是只采用了圖像分支生成BEV特征,利用他們之前提出的GKT【8】實(shí)現(xiàn)PV2BEV轉(zhuǎn)換。對(duì)于BEV Query,先通過(guò)相機(jī)內(nèi)外參確定在圖像的先驗(yàn)位置,并且提取附近的Kh×Kw核區(qū)域特征,然后和BEV Query做Cross-Attention得到BEV特征。
GKT架構(gòu)圖
SuperFusion【9】(來(lái)自毫末智行)提出了長(zhǎng)距離的車(chē)道拓?fù)渖煞桨?,并且相?yīng)地采用多層級(jí)的點(diǎn)云和圖像特征融合來(lái)生成BEV特征(類(lèi)似CaDDN【14】將深度圖分布和圖像特征外積得到視椎體特征,再通過(guò)voxel pooling方式生成BEV特征)。其中點(diǎn)云分支提取特征方式和HDMapNet一致,而圖像分支則基于深度估計(jì)實(shí)現(xiàn)PV2BEV轉(zhuǎn)換。
SuperFusion架構(gòu)圖
其多層級(jí)的點(diǎn)圖特征融合,包括data-level,feature-level以及bev-level:
Data-level特征融合:將點(diǎn)云投影到圖像平面得到sparse深度圖,然后通過(guò)深度補(bǔ)全得到dense深度圖,再將sparse深度圖和原圖concatenate,并用dense深度圖進(jìn)行監(jiān)督訓(xùn)練;
Feature-level特征融合:點(diǎn)云特征包含距離近,而圖像特征包含距離遠(yuǎn),提出了一種圖像引導(dǎo)的點(diǎn)云BEV特征生成方式,即將FV圖像特征作為K和V,將點(diǎn)云的BEV特征作為Q去和圖像特征做cross-attention得到新的BEV特征,并經(jīng)過(guò)一系列卷積操作得到最終的點(diǎn)云BEV特征;
SuperFusion的Feature-level特征融合
BEV-level特征融合:由于深度估計(jì)誤差和相機(jī)內(nèi)外參誤差,直接concatenate圖像和點(diǎn)云的BEV特征會(huì)存在特征不對(duì)齊問(wèn)題。提出了一種BEV對(duì)齊方法,即將圖像和點(diǎn)云BEV特征先concat后學(xué)習(xí)flow field,然后將該flow field用于圖像BEV特征的warp(根據(jù)每個(gè)點(diǎn)的flow field進(jìn)行雙線(xiàn)性插值),從而生成對(duì)齊后的圖像BEV特征;
SuperFusion的BEV-level特征融合
地圖要素建模
關(guān)于地圖要素的建模方式,目前學(xué)術(shù)界趨勢(shì)是由像素到矢量點(diǎn)的逐漸轉(zhuǎn)變,主要考慮是有序矢量點(diǎn)集可以統(tǒng)一表達(dá)地圖要素以及拓?fù)溥B接關(guān)系。
HDMapNet采用像素方式建模車(chē)道線(xiàn),引入語(yǔ)義分割、實(shí)例Embedding以及方向預(yù)測(cè)head分別學(xué)習(xí)車(chē)道線(xiàn)的語(yǔ)義像素位置、實(shí)例信息以及方向,并通過(guò)復(fù)雜的后處理(先采用DBSCAN對(duì)實(shí)例Embedding進(jìn)行聚類(lèi),再采用NMS去除重復(fù)實(shí)例,最后通過(guò)預(yù)測(cè)的方向迭代地連接pixel),從而實(shí)現(xiàn)最終的車(chē)道線(xiàn)矢量化表達(dá)。
HDMapNet架構(gòu)圖
VectorMapNet采用矢量點(diǎn)方式建模車(chē)道線(xiàn),并拆解成Element檢測(cè)階段和Polyline生成階段。
VectorMapNet架構(gòu)圖
Element檢測(cè)階段的目標(biāo)是檢測(cè)并分類(lèi)全部的Map Element,采用了DETR【11】這種set prediction方式,即引入可學(xué)習(xí)的Element Query學(xué)習(xí)Map Element的關(guān)鍵點(diǎn)位置和類(lèi)別。作者嘗試了多種定義關(guān)鍵點(diǎn)的方式,最終Bounding Box方式最優(yōu)。
關(guān)鍵點(diǎn)表示方式
Polyline生成階段的目標(biāo)是基于第一階段輸出的Map Element的類(lèi)別和關(guān)鍵點(diǎn),進(jìn)一步生成Map Element的完整幾何形狀。將Polyline Generator建模成條件聯(lián)合概率分布,并轉(zhuǎn)換成一系列的頂點(diǎn)坐標(biāo)的條件分布乘積,如下:
Polyline Generator建模
進(jìn)而使用自回歸網(wǎng)絡(luò)對(duì)該分布進(jìn)行建模,即在每個(gè)步驟都會(huì)預(yù)測(cè)下一個(gè)頂點(diǎn)坐標(biāo)的分布參數(shù),并預(yù)測(cè)End of Sequence token (EOS) 來(lái)終止序列生成。整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)采用普通的Transformer結(jié)構(gòu),每根線(xiàn)的關(guān)鍵點(diǎn)坐標(biāo)和類(lèi)標(biāo)簽被token化,并作為T(mén)ransformer解碼器的query輸入,然后將一系列頂點(diǎn)token迭代地輸入到Transformer解碼器中,并和BEV特征做cross-attention,從而解碼出線(xiàn)的多個(gè)頂點(diǎn)。
MapTR同樣采用矢量點(diǎn)方式建模車(chē)道線(xiàn),提出了等效排列建模方式來(lái)消除矢量點(diǎn)連接關(guān)系的歧義問(wèn)題,并且相應(yīng)地設(shè)計(jì)了Instance Query和Point Query進(jìn)行分層二分圖匹配,用于靈活地編碼結(jié)構(gòu)化的地圖信息,最終實(shí)現(xiàn)端到端車(chē)道線(xiàn)拓?fù)渖伞?/p>
MapTR架構(gòu)圖
等效排列建模就是將地圖要素的所有可能點(diǎn)集排列方式作為一組,模型在學(xué)習(xí)過(guò)程中可以任意匹配其中一種排列真值,從而避免了固定排列的點(diǎn)集強(qiáng)加給模型監(jiān)督會(huì)導(dǎo)致和其他等效排列相矛盾,最終阻礙模型學(xué)習(xí)的問(wèn)題。
等效排列建模
分層二分圖匹配則同樣借鑒了DETR這種set prediction方式,同時(shí)引入了Instance Query預(yù)測(cè)地圖要素實(shí)例,以及Point Query預(yù)測(cè)矢量點(diǎn),因此匹配過(guò)程也包括了Instance-level匹配和Point-level匹配。匹配代價(jià)中,位置匹配代價(jià)是關(guān)鍵,采用了Point2Point方式,即先找到最佳的點(diǎn)到點(diǎn)匹配,并將所有點(diǎn)對(duì)的Manhattan距離相加,作為兩個(gè)點(diǎn)集的位置匹配代價(jià),該代價(jià)同時(shí)用在Instance-level和Point-level匹配上。此外,還引入了Cosine相似度來(lái)計(jì)算Edge Direction損失,用于學(xué)習(xí)矢量點(diǎn)的連接關(guān)系。
Edge Direction損失
SuperFusion則和HDMapNet一樣,采用像素方式建模車(chē)道線(xiàn),方法完全一致。
實(shí)驗(yàn)結(jié)果
目前實(shí)驗(yàn)效果最好的是MapTR方法,僅通過(guò)圖像源即可超過(guò)其他方法的點(diǎn)圖融合效果,指標(biāo)和可視化結(jié)果如下:
MapTR實(shí)驗(yàn)結(jié)果
MapTR可視化
另外有趣的一個(gè)實(shí)驗(yàn)是,VectorMapNet和SuperFusion均驗(yàn)證了引入該車(chē)道線(xiàn)拓?fù)浜髮?duì)軌跡預(yù)測(cè)的影響,也說(shuō)明了在線(xiàn)建圖的價(jià)值,如下:
軌跡預(yù)測(cè)結(jié)果
軌跡預(yù)測(cè)可視化
業(yè)界工作
特斯拉在AIDAY2022(https://www.youtube.com/watch?v=ODSJsviD_SU&t=10531s)中著重介紹了車(chē)道拓?fù)渖杉夹g(shù)方案。借鑒語(yǔ)言模型中的Transformer decoder開(kāi)發(fā)了Vector Lane模塊,通過(guò)序列的方式自回歸地輸出結(jié)果。整體思路是將車(chē)道線(xiàn)相關(guān)信息,包括車(chē)道線(xiàn)節(jié)點(diǎn)位置、車(chē)道線(xiàn)節(jié)點(diǎn)屬性(起點(diǎn),中間點(diǎn),終點(diǎn)等)、分叉點(diǎn)、匯合點(diǎn)、以及車(chē)道線(xiàn)樣條曲線(xiàn)幾何參數(shù)進(jìn)行編碼,做成類(lèi)似語(yǔ)言模型中單詞token的編碼,然后利用時(shí)序處理辦法進(jìn)行處理,將這種表示看成“Language of Lanes”。
Vector Lane模塊
其中BEV特征(Dense World Tensor)不僅包括視覺(jué)圖像特征,還引入了低精度地圖中關(guān)于車(chē)道線(xiàn)幾何/拓?fù)潢P(guān)系的信息、車(chē)道線(xiàn)數(shù)量、寬度、以及特殊車(chē)道屬性等信息的編碼特征,這些信息提供了非常有用的先驗(yàn)信息,在生成車(chē)道線(xiàn)幾何拓?fù)鋾r(shí)很有幫助,尤其是生成無(wú)油漆區(qū)域的虛擬車(chē)道線(xiàn)。
自回歸方式生成車(chē)道線(xiàn)幾何拓?fù)涞脑敿?xì)過(guò)程如下:
先選取一個(gè)生成順序(如從左到右,從上到下)對(duì)空間進(jìn)行離散化(tokenization),然后就可以用Vector Lane模塊預(yù)測(cè)一系列的離散token,即車(chē)道線(xiàn)節(jié)點(diǎn)。考慮到計(jì)算效率,采用了Coarse to Fine方式預(yù)測(cè),即先預(yù)測(cè)一個(gè)節(jié)點(diǎn)的粗略位置的(index:18),然后再預(yù)測(cè)其精確位置(index:31),如下:
預(yù)測(cè)節(jié)點(diǎn)
接著再預(yù)測(cè)節(jié)點(diǎn)的語(yǔ)義信息,例如該節(jié)點(diǎn)是車(chē)道線(xiàn)起點(diǎn),于是預(yù)測(cè)“Start”,因?yàn)槭恰癝tart”點(diǎn),所以分叉/合并/曲率參數(shù)無(wú)需預(yù)測(cè),輸出None。
預(yù)測(cè)節(jié)點(diǎn)的語(yǔ)義信息
然后所有預(yù)測(cè)結(jié)果接MLP層輸出維度一致的Embedding,并將所有的Embedding相連得到車(chē)道線(xiàn)節(jié)點(diǎn)的最終特征,即輸出第一個(gè)word(綠色點(diǎn)),如下:
節(jié)點(diǎn)特征整合
接著將第一個(gè)word輸入給Self Attention模塊,得到新的Query,然后和Vector Space Encoding生成的Value和Key進(jìn)行Cross Attention,預(yù)測(cè)第二個(gè)word(黃色點(diǎn)),整體過(guò)程和預(yù)測(cè)第一個(gè)word相同,只是第二個(gè)word的語(yǔ)義是“Continue”(代表延續(xù)點(diǎn)),分叉/合并預(yù)測(cè)結(jié)果仍為None,曲率參數(shù)則需要預(yù)測(cè)(根據(jù)不同曲線(xiàn)方程建模,例如三次多項(xiàng)式曲線(xiàn)或貝塞爾曲線(xiàn)等),如下:
迭代預(yù)測(cè)第二個(gè)節(jié)點(diǎn)
接著同樣方式預(yù)測(cè)第三個(gè)word(紫色點(diǎn)),如下:
迭代預(yù)測(cè)第三個(gè)節(jié)點(diǎn)
然后回到起始點(diǎn)繼續(xù)預(yù)測(cè),得到第四個(gè)word(藍(lán)色點(diǎn)),該word和也是和第一個(gè)word相連,所以語(yǔ)義預(yù)測(cè)為“Fork”(合并點(diǎn)),如下:
迭代預(yù)測(cè)第四個(gè)節(jié)點(diǎn)
進(jìn)一步輸入前序所有word,預(yù)測(cè)第五個(gè)word,該word的語(yǔ)義預(yù)測(cè)為“End of sentence”(終止點(diǎn)),代表從最初的第一個(gè)word出發(fā)的所有車(chē)道線(xiàn)已經(jīng)預(yù)測(cè)完成。
迭代預(yù)測(cè)第五個(gè)節(jié)點(diǎn)
由此遍歷所有起始點(diǎn),即可生成完整的車(chē)道線(xiàn)拓?fù)?,如下?/p>
車(chē)道線(xiàn)拓?fù)?/p>
在線(xiàn)建圖可視化
百度
百度在ApolloDay2022(https://www.apollo.auto/apolloday/#video)上也介紹了生成在線(xiàn)地圖的技術(shù)方案,可以概述為以下幾點(diǎn):
點(diǎn)圖融合,圖像分支基于Transformer實(shí)現(xiàn)PV2BEV空間轉(zhuǎn)換;
Query-based的set-prediction,引入Instance query、Point query以及Stuff query同時(shí)學(xué)習(xí)地圖要素實(shí)例、矢量點(diǎn)以及可行駛區(qū)域分割等;
高精地圖(精度)和眾源地圖(規(guī)模和鮮度)多源融合;
在線(xiàn)建圖架構(gòu)圖
在線(xiàn)建圖架構(gòu)圖
毫末智行
毫末智行是一家重感知輕地圖的公司,因此也在毫末智行AI DAY(https://mp.weixin.qq.com/s/bwdSkns_TP4xE1xg32Qb6g)上著重介紹了在線(xiàn)建圖方案,可以概述為以下幾點(diǎn):
點(diǎn)圖融合,圖像分支基于Transformer實(shí)現(xiàn)PV2BEV空間轉(zhuǎn)換;
實(shí)物車(chē)道線(xiàn)檢測(cè)+虛擬車(chē)道線(xiàn)拓?fù)?,?shí)物車(chē)道線(xiàn)檢測(cè)的Head采用HDMapNet方式生成,虛擬車(chē)道線(xiàn)拓?fù)鋭t是以SD地圖作為引導(dǎo)信息,結(jié)合BEV特征和實(shí)物車(chē)道線(xiàn)結(jié)果,使用自回歸編解碼網(wǎng)絡(luò),解碼為結(jié)構(gòu)化的拓?fù)潼c(diǎn)序列,實(shí)現(xiàn)車(chē)道拓?fù)漕A(yù)測(cè);
實(shí)物車(chē)道線(xiàn)檢測(cè)
虛擬車(chē)道線(xiàn)拓?fù)渖?/p>
地平線(xiàn)
地平線(xiàn)也在分享(https://mp.weixin.qq.com/s/HrI6Nx7IefvRFULe_KUzJA)中也介紹了其在線(xiàn)建圖方案。
BEV感知架構(gòu)
通過(guò)六個(gè)圖像傳感攝像頭的輸入,得到全局BEV語(yǔ)義感知結(jié)果,這更多是感知看得見(jiàn)的內(nèi)容,如下圖所示:
語(yǔ)義感知
再通過(guò)引入時(shí)序信息,將想象力引入到 BEV感知中,從而感知看不見(jiàn)的內(nèi)容,如下右圖所示,感知逐漸擴(kuò)展自己對(duì)于周邊車(chē)道線(xiàn)、道路以及連接關(guān)系的理解,這個(gè)過(guò)程一邊在做感知,一邊在做建圖,也叫做online maps。
超視距感知
小鵬
小鵬汽車(chē)目前推出了全新一代的感知架構(gòu)XNet(https://mp.weixin.qq.com/s/zOWoawMiaPPqF2SpOus5YQ),結(jié)合全車(chē)傳感器,對(duì)于靜態(tài)環(huán)境有了非常強(qiáng)的感知,可以實(shí)時(shí)生成“高精地圖”。核心是通過(guò)Transformer實(shí)現(xiàn)多傳感器、多相機(jī)、時(shí)序多幀的特征融合。
XNet架構(gòu)圖
思考
拋開(kāi)技術(shù)外,我還想聊聊對(duì)圖商的”離線(xiàn)高精地圖“和自動(dòng)駕駛公司的”在線(xiàn)地圖“的認(rèn)識(shí)。
地圖是自動(dòng)駕駛的一個(gè)非常重要模塊,自動(dòng)駕駛不能脫離地圖,因?yàn)樽詣?dòng)駕駛是運(yùn)行在規(guī)則約束的交通系統(tǒng)下,無(wú)法擺脫這套規(guī)則的約束,而地圖恰恰是這套規(guī)則系統(tǒng)表達(dá)的很好載體,一個(gè)完整的地圖不僅包括各種地圖要素,還包括各種交通規(guī)則,例如該車(chē)道能否掉頭、該紅綠燈作用在哪個(gè)車(chē)道等。因此,圖商憑借在SD地圖制作經(jīng)驗(yàn)(交通規(guī)則理解),均開(kāi)展了”離線(xiàn)高精地圖“制作,包括高德地圖、百度地圖、騰訊地圖、四維圖新等。而圖商制作”離線(xiàn)高精地圖“的邏輯是,建立統(tǒng)一的、大而全的高精地圖標(biāo)準(zhǔn),同時(shí)服務(wù)于市場(chǎng)上的多家自動(dòng)駕駛公司。但不同的自動(dòng)駕駛公司的自身自動(dòng)駕駛能力差異非常大,對(duì)高精地圖的需求也不同,這就導(dǎo)致”離線(xiàn)高精地圖“越來(lái)越復(fù)雜,圖商的采集和制作成本也越來(lái)越高。正因?yàn)槌杀靖?,高精地圖的覆蓋率低和鮮度差的問(wèn)題也始終未被解決,這是每個(gè)圖商都需要面對(duì)的緊迫問(wèn)題。盡管也有一些眾包更新的解決方案,但實(shí)際得到大規(guī)模應(yīng)用的并不多。
而自動(dòng)駕駛又需要高覆蓋、高鮮度的高精地圖,于是自動(dòng)駕駛公司開(kāi)始研究如何“在線(xiàn)建圖”這個(gè)課題了。“在線(xiàn)建圖”的關(guān)鍵在于“圖”,在我看來(lái),這個(gè)“圖”已經(jīng)不是“離線(xiàn)高精地圖”的“圖”了,因?yàn)樽詣?dòng)駕駛公司的“在線(xiàn)建圖”是根據(jù)自身的自動(dòng)駕駛能力調(diào)整的,在“離線(xiàn)高精地圖”中的冗余信息都可以舍棄,甚至是常說(shuō)的精度要求(“離線(xiàn)高精地圖”一般要求5cm精度)。而恰恰因?yàn)閷?duì)“圖”進(jìn)行了簡(jiǎn)化,所以自動(dòng)駕駛公司的”在線(xiàn)地圖“才有了可行性。通過(guò)”在線(xiàn)地圖“,在“離線(xiàn)高精地圖”覆蓋范圍內(nèi)實(shí)現(xiàn)地圖更新,在“離線(xiàn)高精地圖”覆蓋范圍外生成自己可用的地圖,可能會(huì)有一些自動(dòng)駕駛功能的降級(jí),這個(gè)邊界仍在摸索中。
不過(guò),測(cè)繪資質(zhì)和法規(guī)變化可能會(huì)促使一種新的圖商和自動(dòng)駕駛公司的高精地圖生產(chǎn)合作模式,即自動(dòng)駕駛公司提供智能車(chē)數(shù)據(jù) + 圖商提供高精地圖制作能力的生態(tài)閉環(huán)。2022年下半年,國(guó)家和地方密集出臺(tái)了一系列高精度地圖相關(guān)法律,例如:《關(guān)于促進(jìn)智能網(wǎng)聯(lián)汽車(chē)發(fā)展維護(hù)測(cè)繪地理信息安全的通知》、《關(guān)于做好智能網(wǎng)聯(lián)汽車(chē)高精度地圖應(yīng)用試點(diǎn)有關(guān)工作的通知》等。這些法律文件明確界定了智能網(wǎng)聯(lián)汽車(chē)和測(cè)繪的關(guān)系,即智能網(wǎng)聯(lián)汽車(chē)在運(yùn)行過(guò)程中(包括賣(mài)出的車(chē))對(duì)數(shù)據(jù)的操作即為測(cè)繪,并且自動(dòng)駕駛公司是測(cè)繪活動(dòng)的行為主體。從規(guī)定來(lái)看,自動(dòng)駕駛公司的“在線(xiàn)地圖”是明確的測(cè)繪行為,而想要合法測(cè)繪,必須擁有導(dǎo)航電子地圖制作的甲級(jí)資質(zhì),而獲得資質(zhì)的途徑可以是直接申請(qǐng)(太難申請(qǐng),并且不是一勞永逸,可能在復(fù)審換證環(huán)節(jié)被撤銷(xiāo)企業(yè)資質(zhì))、間接收購(gòu)(風(fēng)險(xiǎn)高)、以及與圖商合作。由此來(lái)看,自動(dòng)駕駛公司和圖商合作的生態(tài)閉環(huán)可能是唯一解法。那么,自動(dòng)駕駛公司的智能車(chē)數(shù)據(jù)提供給圖商進(jìn)行地圖數(shù)據(jù)生產(chǎn)是否合法呢?在《上海市智能網(wǎng)聯(lián)汽車(chē)高精度地圖管理試點(diǎn)規(guī)定》中,明確規(guī)定“鼓勵(lì)具有導(dǎo)航電子地圖制作測(cè)繪資質(zhì)的單位,在確保數(shù)據(jù)安全、處理好知識(shí)產(chǎn)權(quán)等關(guān)系的前提下,探索以眾源方式采集測(cè)繪地理信息數(shù)據(jù),運(yùn)用實(shí)時(shí)加密傳輸及實(shí)時(shí)安全審校等技術(shù)手段,制作和更新高精度地圖?!?目前,騰訊地圖已官宣與蔚來(lái)宣布達(dá)成深度合作,打造智能駕駛地圖、車(chē)載服務(wù)平臺(tái)等,當(dāng)然這可能更多是投資關(guān)系促使。如何真正實(shí)現(xiàn)高精地圖生產(chǎn)的生態(tài)閉環(huán),可能是圖商未來(lái)的破局關(guān)鍵。
審核編輯 :李倩
-
圖像
+關(guān)注
關(guān)注
2文章
1089瀏覽量
40592 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1209瀏覽量
24850 -
自動(dòng)駕駛
+關(guān)注
關(guān)注
785文章
13945瀏覽量
167112
原文標(biāo)題:?高精地圖生成技術(shù)大揭秘
文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論