根據(jù)密歇根大學(xué)的研究,機(jī)器人可以通過學(xué)習(xí)房屋周圍不同物體之間的關(guān)系來學(xué)習(xí)如何更快地找到事物。在本文的一個(gè)示例中,一種新模型為機(jī)器人提供了視覺搜索策略,可以指導(dǎo)機(jī)器人在已經(jīng)看到冰箱的情況下尋找附近的咖啡壺。
這項(xiàng)工作由Chad Jenkins教授和CSE博士領(lǐng)導(dǎo)。學(xué)生Zeng Zeng在2020年機(jī)器人技術(shù)與自動(dòng)化國際會(huì)議上被授予認(rèn)知機(jī)器人技術(shù)最佳論文獎(jiǎng)。
機(jī)器人專家的共同目標(biāo)是使機(jī)器具有在現(xiàn)實(shí)環(huán)境中導(dǎo)航的能力,例如,我們所生活的無序,不完善的家庭。這些環(huán)境可能是混亂的,沒有兩個(gè)完全相同,并且機(jī)器人會(huì)尋找特定的環(huán)境。他們從未見過的物體需要將它們從噪音中剔除。
“能夠有效地在環(huán)境中搜索對(duì)象對(duì)于服務(wù)機(jī)器人自主地執(zhí)行任務(wù)至關(guān)重要,” Zeng說?!拔覀兲峁┝艘环N實(shí)用的方法,使機(jī)器人能夠在復(fù)雜的環(huán)境中主動(dòng)搜索目標(biāo)對(duì)象?!?/p>
但是房屋并沒有完全混亂。我們圍繞不同類型的活動(dòng)組織空間,通常將某些組的項(xiàng)目存儲(chǔ)或安裝在彼此附近。廚房通常裝有我們的烤箱,冰箱,微波爐和其他小型烹飪用具;臥室將有我們的梳妝臺(tái),床和床頭柜;等等。
Zeng和Jenkins提出了一種利用這些常見空間關(guān)系的方法。他們的“ SLiM”(語義鏈接圖)模型將機(jī)器人內(nèi)存中的某些“地標(biāo)對(duì)象”與其他相關(guān)對(duì)象以及有關(guān)通常如何在空間上定位的數(shù)據(jù)相關(guān)聯(lián)。他們使用SLiM來考慮目標(biāo)對(duì)象和地標(biāo)對(duì)象的多個(gè)功能,以便使機(jī)器人對(duì)在環(huán)境中如何布置事物有更全面的了解。
他們寫道:“當(dāng)被問到可以在哪里找到目標(biāo)物體時(shí),人類能夠給出相對(duì)于其他物體的空間關(guān)系所表示的假設(shè)位置?!?“機(jī)器人應(yīng)該能夠?qū)ξ矬w的位置做出類似的推理?!?/p>
該模型不僅是不同對(duì)象之間通常有多近的硬編碼-從一天到另一天環(huán)顧一個(gè)房間,您肯定會(huì)看到足夠的更改以快速使此工作徒勞。相反,SLiM會(huì)考慮對(duì)象位置的不確定性。
作者在論文中對(duì)該項(xiàng)目進(jìn)行了解釋:“以前的作品假定地標(biāo)物體是靜態(tài)的,因?yàn)樗鼈兇蠖啾A粼谏洗斡^察到的位置?!?為了克服這一限制,研究人員使用了一種因子圖(一種表示概率分布的特殊圖)來概率地建模不同對(duì)象之間的關(guān)系。
了解了可能存在的拖曳對(duì)象關(guān)系后,SLiM指導(dǎo)機(jī)器人探索可能包含目標(biāo)或地標(biāo)對(duì)象的有希望的區(qū)域。這種搜索方法基于以前的發(fā)現(xiàn),這些發(fā)現(xiàn)表明首先定位地標(biāo)(間接搜索)比簡單地尋找目標(biāo)(直接搜索)要快。詹金斯(Zenkins)和曾(Zeng)使用的模型是兩者的混合體。
圖片來源:密歇根大學(xué)
在實(shí)驗(yàn)中,該團(tuán)隊(duì)在相同的模擬環(huán)境中測試了五個(gè)不同搜索模型的性能。一種是天真的直接搜索,不了解對(duì)象的空間關(guān)系,而其余四個(gè)則使用SLiM的空間映射結(jié)合不同的搜索策略或起始優(yōu)勢:
使用已知的先前位置直接搜索目標(biāo),但不考慮對(duì)象可能已移動(dòng)的任何可能性
使用已知的先前位置直接搜索目標(biāo),該目標(biāo)說明了對(duì)象可能已移動(dòng)的可能性
直接搜索,無需事先知道對(duì)象的位置
混合搜索,無需事先了解對(duì)象的位置。
最后,SLiM與混合搜索相結(jié)合成功地在每個(gè)測試中找到了路線最直接,搜索時(shí)間最少的目標(biāo)對(duì)象。
這項(xiàng)工作發(fā)表在論文“用于主動(dòng)視覺對(duì)象搜索的語義鏈接圖”中。
-
機(jī)器人
+關(guān)注
關(guān)注
211文章
28714瀏覽量
208731 -
自動(dòng)化
+關(guān)注
關(guān)注
29文章
5645瀏覽量
79734
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人的基礎(chǔ)模塊
【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+兩本互為支持的書
【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.全書概覽與第一章學(xué)習(xí)
《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型
【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+初品的體驗(yàn)
NPU與機(jī)器學(xué)習(xí)算法的關(guān)系
使用機(jī)器學(xué)習(xí)和NVIDIA Jetson邊緣AI和機(jī)器人平臺(tái)打造機(jī)器人導(dǎo)盲犬
具身智能與機(jī)器學(xué)習(xí)的關(guān)系
機(jī)器人技術(shù)的發(fā)展趨勢
AI大模型與深度學(xué)習(xí)的關(guān)系
構(gòu)建語音控制機(jī)器人 - 線性模型和機(jī)器學(xué)習(xí)
![構(gòu)建語音控制<b class='flag-5'>機(jī)器人</b> - 線性模型和<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>](https://file1.elecfans.com/web2/M00/04/DA/wKgZombUJe-AGQFLAAAcFz0Pgic973.jpg)
評(píng)論