欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

未來機(jī)器人也可以像人一樣進(jìn)行學(xué)習(xí)?

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:未知 ? 作者:胡薇 ? 2018-04-17 10:27 ? 次閱讀

您印象中的機(jī)器人還僅僅是按照代碼指令完成任務(wù)嗎?其實(shí),通過觀察人類行為來進(jìn)行操作才是機(jī)器人的未來趨勢(shì)。

圖片由斯坦福視覺和學(xué)習(xí)實(shí)驗(yàn)室提供

在前不久的GPU技術(shù)大會(huì)上,來自斯坦福大學(xué)的Animesh Garg和Marynel Vázquez在主題為《機(jī)器人移動(dòng)和操控的通用性自主能力》的演講中分享了他們的研究成果。

通俗來講,通用性自主能力是指機(jī)器人可以觀察、學(xué)習(xí)并模仿人類行為,進(jìn)而在各種任務(wù)和情況中加以應(yīng)用。例如,通過觀看YouTube視頻學(xué)習(xí)烹飪,或者找到走出一間擁擠房間的方法。

Cooking 101

Garg是斯坦福視覺和學(xué)習(xí)實(shí)驗(yàn)室(CVGL)的博士后研究員。他熱衷烹飪,還特別喜歡機(jī)器人。但是,他認(rèn)為如果未來的每臺(tái)機(jī)器人都只會(huì)做一道菜,就太無聊了。

目前,精通單個(gè)任務(wù)的機(jī)器人已經(jīng)很常見,但Garg 則致力于研究如何實(shí)現(xiàn)他自己的“通用型機(jī)器人夢(mèng)想”。

實(shí)現(xiàn)這個(gè)夢(mèng)想的途徑可能就在于神經(jīng)任務(wù)編程 (NTP),這是一種新的元學(xué)習(xí)方法。NTP利用層次化結(jié)構(gòu),并學(xué)習(xí)使用模塊化機(jī)器人API進(jìn)行編程,從而僅通過一個(gè)測(cè)試示例即可執(zhí)行隱藏任務(wù)。

例如,機(jī)器人廚師會(huì)將烹飪視頻輸入到它的系統(tǒng)里,然后使用分層式神經(jīng)程序?qū)⒁曨l數(shù)據(jù)分解成Garg所說的基于視覺線索和時(shí)間序列的結(jié)構(gòu)化任務(wù)表達(dá)式。

機(jī)器人并非只學(xué)習(xí)制作肉丸意大利面的單一菜譜,而是會(huì)了解組成該任務(wù)的所有子程序或組件。如此一來,這位嶄露頭角的機(jī)器人廚師便可以在其他場(chǎng)景中展示其燒水、油炸肉丸和煨醬汁等烹飪技能。

解決任務(wù)域(而非任務(wù)實(shí)例)是Garg所謂的元學(xué)習(xí)的關(guān)鍵所在。NTP已經(jīng)取得了一些令人鼓舞的成果,其結(jié)構(gòu)化的分層式方法在處理隱藏任務(wù)時(shí)比扁平化編程表現(xiàn)優(yōu)越。此外,在處理可見任務(wù)時(shí)NTP也同樣出色。

感到太擁擠了?跟著機(jī)器人走吧

我們都經(jīng)歷過這樣的情況。您嘗試穿過擁擠的房間,然后突然發(fā)現(xiàn)自己撞到了迎面走來的陌生人。

您向右移動(dòng)以繞開他,但他也向右,并且仍然擋著路。出于本能,你們都移動(dòng)到另一個(gè)方向,然后又撞到了!

為了打破尷尬的場(chǎng)面,你們中的一個(gè)人開玩笑說“我們來跳個(gè)舞吧!”終于,你們?cè)竭^彼此繼續(xù)前進(jìn)。

在一個(gè)擁擠的空間中行走時(shí),理解人們?nèi)绾我约盀楹伟凑漳撤N方式移動(dòng)十分重要。教會(huì)機(jī)器人理解這些規(guī)則是非常艱巨的任務(wù)。下面,我們來認(rèn)識(shí)下Vázquez和CVGL的機(jī)器人Jackrabbot 。

Jackrabbot在2015年首次踏上人行道,以低于每小時(shí)五英里的行人速度進(jìn)行小批量運(yùn)送。正如Vázquez所解釋的那樣,Jackrabbot(得名于他校園中頻繁出現(xiàn)的野生動(dòng)物的名字)是用于解決在人群中預(yù)測(cè)人體運(yùn)動(dòng)這一復(fù)雜問題的工具。

自動(dòng)駕駛車輛學(xué)會(huì)在非結(jié)構(gòu)化空間(比如真實(shí)世界)中行駛是一個(gè)涉及多方面因素的問題?!鞍踩堑谝灰?jiǎng)?wù),”Vázquez 說。

為了解決安全問題,他們開始利用深度學(xué)習(xí)開發(fā)了一種生成式對(duì)抗網(wǎng)絡(luò) (GAN),將JackRabbot相機(jī)捕獲的實(shí)時(shí)數(shù)據(jù)與GAN即時(shí)生成的圖像進(jìn)行比較。

這些圖像代表如果一個(gè)區(qū)域可以安全通過,機(jī)器人所應(yīng)該看到的內(nèi)容,例如走廊上沒有關(guān)閉的門、被丟棄的家具或站在路上的行人。如果現(xiàn)實(shí)情形滿足這些理想條件,JackRabbot就會(huì)繼續(xù)行走。否則,它就會(huì)進(jìn)行緊急制動(dòng)。

然后,這支團(tuán)隊(duì)轉(zhuǎn)向了多目標(biāo)任務(wù),即“追蹤無法追蹤的行人”。在人群中優(yōu)雅地穿梭不僅需要迅速判斷“我的路線是否清晰?”,還要追蹤朝不同方向移動(dòng)的多人的行動(dòng)路線,并預(yù)測(cè)他們接下來的目的地。

在這里,該團(tuán)隊(duì)使用長(zhǎng)短期記憶方法構(gòu)建了一個(gè)遞歸神經(jīng)網(wǎng)絡(luò),以解釋隨時(shí)間測(cè)量的多個(gè)線索,包括外觀、速度、相互作用和相似性等。

一篇已發(fā)表的研究論文已經(jīng)深入探討了這些技術(shù)細(xì)節(jié)。但實(shí)際上,CVGL設(shè)計(jì)了一種新穎的方法,可以學(xué)習(xí)人們?cè)趽頂D空間的常識(shí)行為,然后利用這種理解來預(yù)測(cè)每個(gè)人接下來可能前往的“軌跡”。

因此,如果下一次您發(fā)現(xiàn)自己在一個(gè)滿是陌生人的房間中即將遭遇“我們來跳個(gè)舞吧!”的尷尬時(shí)刻,請(qǐng)記得花點(diǎn)時(shí)間去探尋規(guī)律,將每個(gè)人的運(yùn)動(dòng)軌跡記憶在腦海之中。

當(dāng)然您也可以采取捷徑——找一個(gè)JackRabbot,讓它為您指路。近期,配備雙路NVIDIA GPU的JackRabbot 2.0已經(jīng)發(fā)布。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    211

    文章

    28714

    瀏覽量

    208731
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4790

    瀏覽量

    129450

原文標(biāo)題:“看”到做到,機(jī)器人如何通過觀察人類行為進(jìn)行學(xué)習(xí)?

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    為什么要費(fèi)這么大勁讓機(jī)器人一樣,而不是更實(shí)用的形態(tài)?

    基礎(chǔ)設(shè)施兼容性 :人類社會(huì)的物理環(huán)境(樓梯、門把手、工具、家具等)是為人體結(jié)構(gòu)和動(dòng)作設(shè)計(jì)的。人形機(jī)器人更容易直接融入這些環(huán)境,無需大規(guī)模改造基礎(chǔ)設(shè)施。 操作便利性 :人形機(jī)器人可以
    的頭像 發(fā)表于 02-10 10:03 ?36次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人的基礎(chǔ)模塊

    次生成深度信息。 自主機(jī)器人定位任務(wù)的本質(zhì)是對(duì)機(jī)器人自身狀態(tài)的估計(jì)問題,包括位置,朝向,速度等問題。 路徑規(guī)劃旨在找到從起點(diǎn)到目標(biāo)區(qū)域的路徑,確保路徑的可行性和最優(yōu)性。路徑規(guī)劃方法包括變分方法,圖搜
    發(fā)表于 01-04 19:22

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    指令和當(dāng)前機(jī)器人靜態(tài)圖像,生成段預(yù)測(cè)的未來狀態(tài)視頻。從這些預(yù)測(cè)視頻中,可以提取機(jī)器人的位姿信息,并解碼出控制所需的速度、加速度等關(guān)鍵參數(shù),
    發(fā)表于 12-29 23:04

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.初步理解具身智能

    未來,涵蓋如基于行為的人工智能、生物啟發(fā)的進(jìn)化人工智能及認(rèn)知機(jī)器人技術(shù)的發(fā)展。這歷史背景為隨后的大模型驅(qū)動(dòng)的具身智能討論奠定了基礎(chǔ),隨著人工智能模型復(fù)雜性和能力的不斷提升,這主題
    發(fā)表于 12-28 21:12

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】1.全書概覽與第學(xué)習(xí)

    非常感謝電子發(fā)燒友提供的這次書籍測(cè)評(píng)活動(dòng)!最近,我一直在學(xué)習(xí)大模型和人工智能的相關(guān)知識(shí),深刻體會(huì)到機(jī)器人技術(shù)是個(gè)極具潛力的未來方向,甚至可以
    發(fā)表于 12-27 14:50

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    將自然語言理解與運(yùn)動(dòng)規(guī)劃融為體。這種端到端的方法使機(jī)器人能夠直接從人類指令生成動(dòng)作序列,大幅簡(jiǎn)化了控制流程。該項(xiàng)目的工作流程包含設(shè)計(jì)并封裝一個(gè)人機(jī)器人函數(shù)庫(kù)、編寫清晰地描述提示詞、在仿真環(huán)境中執(zhí)行
    發(fā)表于 12-24 15:03

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+初品的體驗(yàn)

    的快速發(fā)展,相關(guān)人才的需求在不斷增加,通過閱讀該書可以幫助大家系統(tǒng)性地了解和分析當(dāng)前具身智能機(jī)器人系統(tǒng)的發(fā)展現(xiàn)狀和前沿研究,為未來的研究和開發(fā)工作提供指導(dǎo)。此外,本書還
    發(fā)表于 12-20 19:17

    《具身智能機(jī)器人系統(tǒng)》第1-6章閱讀心得之具身智能機(jī)器人系統(tǒng)背景知識(shí)與基礎(chǔ)模塊

    Intelligence)這概念有了深入理解。本書開篇和大部分書籍文章一樣,都是立足宏觀角度,先把視角引申到世界經(jīng)濟(jì)形勢(shì)。書中闡述具身智能機(jī)器人有望成為繼計(jì)算機(jī)、智能手機(jī)后的新
    發(fā)表于 12-19 22:26

    機(jī)器人技術(shù)的發(fā)展趨勢(shì)

    機(jī)器人技術(shù)的發(fā)展趨勢(shì)呈現(xiàn)出多元化、智能化和廣泛應(yīng)用的特點(diǎn)。 、智能化與自主化 人工智能(AI)與機(jī)器學(xué)習(xí) : AI和機(jī)器
    的頭像 發(fā)表于 10-25 09:27 ?1378次閱讀

    開源項(xiàng)目!用ESP32做個(gè)可愛的無用機(jī)器人

    、固件燒錄等。 注意事項(xiàng) 制作這個(gè)機(jī)器人的材料成本比較高,接近臺(tái)全新筆記本電腦的價(jià)格。此外,如果沒有焊接經(jīng)驗(yàn),整體成本可能更高,因?yàn)檫€需要涉及到PCB組裝。 完成 完成后,機(jī)器人可以
    發(fā)表于 09-03 09:34

    在用機(jī)器人未來機(jī)器人并行推進(jìn)的權(quán)重關(guān)系

    在用機(jī)器人未來機(jī)器人并行推進(jìn)的權(quán)重關(guān)系
    的頭像 發(fā)表于 08-01 08:14 ?556次閱讀
    在用<b class='flag-5'>機(jī)器人</b>與<b class='flag-5'>未來</b><b class='flag-5'>機(jī)器人</b>并行推進(jìn)的權(quán)重關(guān)系

    Al大模型機(jī)器人

    和迭代來不斷改進(jìn)自身性能。它們可以從用戶交互中學(xué)習(xí)并根據(jù)反饋進(jìn)行調(diào)整,以提高對(duì)話質(zhì)量和準(zhǔn)確性。可定制性與整合性: AI大模型機(jī)器人可以根據(jù)特
    發(fā)表于 07-05 08:52

    其利天下技術(shù)·搭載無刷電機(jī)的掃地機(jī)器人的前景如何?

    能力將得到進(jìn)步提升,實(shí)現(xiàn)更精準(zhǔn)的清潔。同時(shí),電池技術(shù)的不斷創(chuàng)新將為掃地機(jī)器人提供更持久的續(xù)航能力,減少用戶的使用顧慮。 此外,掃地機(jī)器人還有望在功能上
    發(fā)表于 05-05 15:03

    富唯智能:打造未來機(jī)器人教育新標(biāo)桿

    隨著科技的飛速發(fā)展,機(jī)器人教育正逐漸成為培養(yǎng)未來人才的重要領(lǐng)域。富唯智能,作為業(yè)內(nèi)領(lǐng)先的機(jī)器人技術(shù)提供商,近日推出了款全新的機(jī)器人教育實(shí)踐
    的頭像 發(fā)表于 04-23 16:45 ?416次閱讀

    未來之聲 | 人形機(jī)器人說話篇:無聲!

    隨著個(gè)個(gè)有關(guān)人形機(jī)器人的“核彈式”新聞的出現(xiàn),機(jī)器人技術(shù)肉眼可見地快速發(fā)展?;蛟S,與人們預(yù)想的“
    的頭像 發(fā)表于 04-13 08:00 ?375次閱讀
    <b class='flag-5'>未來</b>之聲 | 人形<b class='flag-5'>機(jī)器人</b>說話篇:無聲!