追蹤視頻中的對象目標是計算機視覺的基本問題,這對于動作辨識、目標對象交互或者視頻風(fēng)格化等應(yīng)用非常重要。然而,教機器在視覺上追蹤物體是非常有挑戰(zhàn)性的,因為它需要大型的、被標記的數(shù)據(jù)集進行訓(xùn)練,但是這些跟蹤數(shù)據(jù)無法大規(guī)模標記。論智君昨天在六種人體姿態(tài)估計的深度學(xué)習(xí)模型和代碼總結(jié)一文中談到了對人體姿態(tài)估計的方法,感興趣的讀者可以閱讀一下。
今天,谷歌AI博客發(fā)表文章,稱他們找到了一種無需監(jiān)督的目標追蹤新方法——給視頻上色。在之前的Tracking Emerges by Colorizing Videos一文中,谷歌研究者介紹了一種卷積神經(jīng)網(wǎng)絡(luò),它可以給灰度視頻上色,但是無法從單個參照系中復(fù)制顏色。為了達到這一目的,這次提出的的網(wǎng)絡(luò)學(xué)會了如何在沒有監(jiān)督的情況下自動對目標物體進行視覺追蹤。重要的是,雖然模型不能直接訓(xùn)練用于追蹤,但它可以跟蹤多個物體,同時在圖形變換上能保持較高的魯棒性,并且不需要任何標記過的訓(xùn)練數(shù)據(jù)。以下是論智對原文的編譯。
上圖是在DAVIS 2017數(shù)據(jù)集上的追蹤預(yù)測示例。學(xué)會給視頻上色后,一種用于追蹤的機制就自動出現(xiàn),不需要監(jiān)督。我們在第一幀用不同顏色標出了需要識別的對象,之后模型不需要學(xué)習(xí)或監(jiān)督就可以在接下來的視頻中自動延續(xù)需要上色的部分。
學(xué)習(xí)對視頻重新上色
我們假設(shè),只在第一幀顯示出的顏色可以提供大量訓(xùn)練數(shù)據(jù),能讓機器學(xué)習(xí)在視頻中追蹤所選定的區(qū)域。顯然,有些情況下,顏色會暫時變得不連貫,比如光線突然改變,但是總體來說,顏色是穩(wěn)定的。另外,大多數(shù)視頻帶有顏色,同時還有大量的自監(jiān)督學(xué)習(xí)信號。我們對視頻去顏色化,在給它們上色,是因為可能多個物體的顏色都相同,但是通過上色,我們可以教機器追蹤具體的物體或區(qū)域。
為了訓(xùn)練我們的系統(tǒng),我們用的是Kinestics數(shù)據(jù)集中的視頻,該數(shù)據(jù)集中的視頻記錄的大多是日?;顒?。我們把視頻中除了第一幀之外的所有幀都轉(zhuǎn)換成了灰調(diào),并訓(xùn)練一個卷積網(wǎng)絡(luò)預(yù)測原本的顏色。我們希望模型學(xué)習(xí)如何追蹤區(qū)域,從而能準確地復(fù)原顏色。我們主要的關(guān)注點在于,跟蹤物體將會讓模型自動學(xué)習(xí)。
我們用DAVIS 2017數(shù)據(jù)集中的視頻說明這一過程,在模型中輸入灰度視頻和一幀帶有顏色的視頻,讓其判斷剩下視頻的顏色。模型學(xué)會從第一幀中復(fù)制顏色,即它可以不在人類監(jiān)督下學(xué)會追蹤目標物體。
想從單一參照視頻中復(fù)制顏色,模型需要在內(nèi)部學(xué)會如何找到正確的區(qū)域,這樣才能填充正確的顏色。這就迫使它學(xué)習(xí)一種可以用來追蹤的機制。下面是模型上色的過程:
左:第一幀上色;中:輸入視頻;右:輸出視頻
雖然網(wǎng)絡(luò)在訓(xùn)練時沒有標準參照,我們的模型學(xué)會了以第一幀為參照對任意區(qū)域進行上色。我們可以跟蹤任一物體甚至視頻中的某個點。唯一的不同是,我們不是改變顏色,而是添加代表這一區(qū)域的標簽。
分析跟蹤器
由于模型在大量未標記的視頻上訓(xùn)練,我們想掌握模型到底學(xué)到了什么。下面的動圖展現(xiàn)了如何用模型學(xué)習(xí)來的可視化方法將嵌入映射到三維空間中,這一過程用到了主成分分析(PCA)并將其變成RGB格式的圖像。結(jié)果顯示,在與學(xué)到的嵌入空間最近的區(qū)域似乎更對應(yīng)目標物體的識別,即使變了形或改變了視角。
第一行:DAVIS 2017數(shù)據(jù)集中的視頻;第二行:上色模型內(nèi)部的嵌入。相似的嵌入會在視覺表示中有相似的顏色,這說明目標識別將學(xué)習(xí)到的嵌入進行像素劃分
姿態(tài)跟蹤
我們發(fā)現(xiàn),如果在開頭幀中給定幾個關(guān)鍵點,模型還可以跟蹤人類的姿態(tài)。我們展示了JHMDB數(shù)據(jù)集中的幾個結(jié)果,其中我們追蹤了人類的關(guān)節(jié)骨架。
在這個例子中,輸入的是第一幀人類的動作,接下來的動作模型會自動追蹤。即使之前沒有訓(xùn)練過此種場景,模型也能追蹤到人類動作
雖然我們的模型還不足以超越監(jiān)督模型,但是與最近基于光流的模型相比,它所學(xué)到的視頻分割和人類姿勢追蹤表現(xiàn)已經(jīng)勝出了。我們的模型比光流追蹤方面更穩(wěn)定,尤其在復(fù)雜的情況下,例如動態(tài)背景、快速運動和障礙物面前。想了解更多細節(jié),請閱讀原論文。
結(jié)語
我們的工作表示,給視頻上色可以用作在無監(jiān)督情況下學(xué)習(xí)追蹤視頻中的目標物體。另外,我們發(fā)現(xiàn)系統(tǒng)的失敗會導(dǎo)致給視頻上色時出現(xiàn)錯誤,這也說明,未來改善視頻的上色模型可以提高姿態(tài)追蹤系統(tǒng)的表現(xiàn)
-
谷歌
+關(guān)注
關(guān)注
27文章
6203瀏覽量
106100 -
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4785瀏覽量
101246 -
數(shù)據(jù)集
+關(guān)注
關(guān)注
4文章
1209瀏覽量
24851
原文標題:另辟蹊徑!谷歌通過給視頻上色實現(xiàn)無監(jiān)督姿態(tài)追蹤
文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
一種求解非線性約束優(yōu)化全局最優(yōu)的新方法
一種繞線轉(zhuǎn)子感應(yīng)電機控制的新方法
一種新方法來檢測這些被操縱的換臉視頻的“跡象”
一種復(fù)制和粘貼URL的新方法
一種產(chǎn)生激光脈沖新方法
![<b class='flag-5'>一種</b>產(chǎn)生激光脈沖<b class='flag-5'>新方法</b>](https://file1.elecfans.com//web2/M00/B2/FC/wKgaomVw9pOAK6K8AAB29d3gmXg349.jpg)
一種無透鏡成像的新方法
![<b class='flag-5'>一種</b>無透鏡成像的<b class='flag-5'>新方法</b>](https://file1.elecfans.com//web2/M00/FD/50/wKgZomaZlSKAXJd7AAD91lO42tY599.jpg)
評論