欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌提出一種結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和LSTM的新架構(gòu)

h1654155972.5709 ? 來源:未知 ? 作者:李倩 ? 2018-06-29 15:30 ? 次閱讀

由視覺輸入控制的機器人非常依賴于固定視角的攝像頭,這意味著它們難以在活動的情況下精確完成任務(wù)。近日,谷歌研究人員提出了一種結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和 LSTM 的新架構(gòu),可通過強化學(xué)習(xí)等方法在接收多個攝像頭、不同視角圖像輸入的情況下控制機械臂準確完成任務(wù)。研究人員稱,新方法可以擴展到任何類型的自動自校準任務(wù)上。

人們非常擅長在不將視點調(diào)整到某一固定或特殊位置的情況下操縱物體。這種能力(我們稱之為「視覺動作整合」)在孩童時期通過在多種情形中操縱物體而習(xí)得,并由一種利用豐富的感官信號和視覺作為反饋的自適應(yīng)糾錯機制控制。然而,在機器人學(xué)中,基于視覺的控制器很難獲得這種能力,目前來看,這種控制器都基于一種用來從固定安裝的攝像頭讀取視覺輸入數(shù)據(jù)的固定裝置。在視點大幅變化的情況下快速獲取視覺運動控制技能的能力將對自動機器人系統(tǒng)產(chǎn)生重大影響——例如,這種能力對于參與救援工作或在災(zāi)區(qū)作業(yè)的機器人來說尤其必要。

在 CVPR 2018 會議中,谷歌提交了一篇名為《Sim2Real Viewpoint Invariant Visual Servoing by Recurrent Control》的論文。在這篇論文中,谷歌研究了一種新的深度網(wǎng)絡(luò)架構(gòu)(包含兩個全卷積網(wǎng)絡(luò)和一個長短期記憶單元),該架構(gòu)從過去的動作和觀測結(jié)果中學(xué)習(xí)自我校準。其視覺適應(yīng)網(wǎng)絡(luò)(visually-adaptive network)利用由演示軌跡和強化學(xué)習(xí)目標組成的各種模擬數(shù)據(jù),能夠從各種視點控制機械臂到達視覺指示的各種目標,并且獨立于攝像機校準。

用物理機械臂實現(xiàn)視覺指示目標的視點不變操作。新方法學(xué)習(xí)了一種單一策略,通過從截然不同的攝像機視點捕獲的感官輸入來到達不同的目標。第一行顯示了視覺指示的目標。

挑戰(zhàn)

從未知視點捕獲的單一圖像中探索可控自由度(DoF)如何影響視覺運動可能不夠明確和具體。確定動作對圖像-空間運動的影響并成功地執(zhí)行預(yù)期任務(wù)需要一個對過去動作記憶的保持能力進行增強的魯棒感知系統(tǒng)。要解決這個具有挑戰(zhàn)性的問題,必須解決以下基本問題:

●如何提供適當?shù)慕?jīng)驗,讓機器人在模擬終身學(xué)習(xí)模式的純視覺觀察的基礎(chǔ)上學(xué)習(xí)自適應(yīng)行為?

●如何設(shè)計一個將魯棒感知和自適應(yīng)控制整合起來并能快速遷移到未見環(huán)境中的模型?

為了解決以上問題,研究人員設(shè)計了一種新的操縱任務(wù),給一個七自由度機械臂提供一個物體的圖像,并命令它在一系列干擾物中拿到特定的目標物體,同時每一次嘗試的視點會發(fā)生劇烈變化。采用這種做法,研究人員能夠模擬復(fù)雜行為的學(xué)習(xí)以及向未知環(huán)境的遷移。

用物理機械臂和各種攝像機視點完成到達視覺指示目標的任務(wù)。

利用模擬來學(xué)習(xí)復(fù)雜行為

收集機器人經(jīng)驗數(shù)據(jù)費時費力。在過去的一篇博文中,谷歌展示了如何通過將數(shù)據(jù)收集和試驗分配給多個機器人來擴展學(xué)習(xí)技能。盡管該方法加快了學(xué)習(xí)進度,但它仍然不適合擴展到復(fù)雜行為的學(xué)習(xí)中(如視覺自校準),后者需要將機器人置于一個包含各種視點的大型空間中。因此,研究人員選擇在模擬環(huán)境中學(xué)習(xí)此類復(fù)雜行為,在模擬中可以收集無限的機器人試驗數(shù)據(jù),并輕松將攝像頭移動到各個隨機視點。除了在模擬中快速收集數(shù)據(jù)之外,該方法還可以突破需要在機器人周圍安裝多個攝像機的硬件限制。

谷歌研究人員在模擬環(huán)境中使用域隨機化技術(shù)來學(xué)習(xí)可泛化的策略。

為了學(xué)習(xí)足以遷移到未知環(huán)境的視覺魯棒特征,研究人員使用了 Sadeghi 與 Levine 在 2017 年提出的域隨機化技術(shù)(即模擬隨機化),它可令機器人完全在模擬環(huán)境中學(xué)習(xí)基于視覺的策略,并可以推廣到現(xiàn)實世界。該技術(shù)在諸如室內(nèi)導(dǎo)航、物體定位、拾取和放置等多種機器人任務(wù)上效果良好。此外,為了學(xué)習(xí)像自校準這樣的復(fù)雜行為,研究人員利用模擬能力生成合成示例,并結(jié)合強化學(xué)習(xí)目標來學(xué)習(xí)魯棒的機械臂控制器。

使用模擬的 7 自由度機械臂實現(xiàn)視覺指示目標的視點不變操作。新方法學(xué)習(xí)了一種單一策略,可以通過不同相機視角捕捉的感官輸入實現(xiàn)不同的目標。

在控制中解構(gòu)感知

為了更快地將知識遷移到未知環(huán)境中,谷歌研究人員設(shè)計了一個深度神經(jīng)網(wǎng)絡(luò),將感知和控制相結(jié)合,并同時進行端到端訓(xùn)練,且在必要情況下允許二者分別進行訓(xùn)練。感知與控制之間的分離使遷移到未知環(huán)境的難度減小,也讓模型更加靈活和高效,因為每個部分(即「感知」和「控制」)都可以單獨適應(yīng)僅有少量數(shù)據(jù)的新環(huán)境。另外,雖然神經(jīng)網(wǎng)絡(luò)中的控制部分完全由模擬數(shù)據(jù)進行訓(xùn)練,但感知部分經(jīng)過物體邊界框收集的少量靜態(tài)圖像補充了輸入,無需讓物理機器人收集完整的動作序列軌跡。在實踐中,谷歌研究人員只用了來自 22 張圖像的 76 個對象邊界框來微調(diào)網(wǎng)絡(luò)的感知部分。

真實世界的機器人和移動攝像頭設(shè)置。第一行展示了場景布置,第二行顯示了機器人接收到的視覺感官輸入。

早期結(jié)果

谷歌研究人員在物理機器人和真實物體上測試了視覺適應(yīng)版本的網(wǎng)絡(luò),這些物體的外形與模擬環(huán)境中使用的完全不同。在實驗中,桌子上會出現(xiàn)一個或兩個物體:「見過的物體」(如下圖所示)用于視覺適應(yīng),實驗中使用的是小型靜態(tài)真實圖像集。在視覺適應(yīng)期間不會看到「未見過的物體」。在測試中,機械臂被引導(dǎo)從各個視點到達視覺指示目標物體。對于雙對象實驗,第二個對象用于讓機械臂產(chǎn)生「混淆」。因為純模擬網(wǎng)絡(luò)具有良好的泛化能力(因為它是在域隨機技術(shù)之上進行訓(xùn)練的),模型的網(wǎng)絡(luò)架構(gòu)非常靈活,因此雖然實驗中僅收集了非常少量的真實靜態(tài)視覺數(shù)據(jù)用于視覺適應(yīng),但控制器的表現(xiàn)仍然有了很大提升。

在視覺特征和少量真實圖像進行適應(yīng)之后,模型性能提高了 10% 以上。其中所有用到的真實物體都與模擬中看到的截然不同。

谷歌研究人員認為,學(xué)習(xí)在線視覺自適應(yīng)是一個重要而具有挑戰(zhàn)性的問題,這一方向的目標是學(xué)習(xí)到可在多樣化和非結(jié)構(gòu)化的現(xiàn)實世界中運行的機器人所需要的通用化策略。新方法可以擴展到任何類型的自動自我校準上。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器人
    +關(guān)注

    關(guān)注

    211

    文章

    28679

    瀏覽量

    208597
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6202

    瀏覽量

    106064
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4781

    瀏覽量

    101215

原文標題:資訊 | 谷歌提出Sim2Real:讓機器人像人類一樣觀察世界

文章出處:【微信號:SRA2009,微信公眾號:深圳市機器人協(xié)會】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    什么是卷積神經(jīng)網(wǎng)絡(luò)?完整的卷積神經(jīng)網(wǎng)絡(luò)(CNNS)解析

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種特殊類型的神經(jīng)網(wǎng)絡(luò),在圖像上表現(xiàn)特別出色。卷積神經(jīng)網(wǎng)絡(luò)由Yan Le
    發(fā)表于 08-10 11:49 ?1.9w次閱讀

    使用PyTorch深度解析卷積神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種特殊類型的神經(jīng)網(wǎng)絡(luò),在圖像上表現(xiàn)特別出色。卷積神經(jīng)網(wǎng)絡(luò)由Yan Le
    發(fā)表于 09-21 10:12 ?859次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會在意它呢? 對于這些非常中肯的問題,我們似乎可以給出相對簡明的答案。
    發(fā)表于 07-17 07:21

    什么是LSTM神經(jīng)網(wǎng)絡(luò)

    簡單理解LSTM神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 01-28 07:16

    卷積神經(jīng)網(wǎng)絡(luò)卷積的處理過程

    。本文就以卷積神經(jīng)網(wǎng)絡(luò)為例談?wù)勗趺磥磉M步優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)使用的memory。文章(
    發(fā)表于 12-23 06:16

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    十余年來快速發(fā)展的嶄新領(lǐng)域,越來越受到研究者的關(guān)注。卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型是深度學(xué)習(xí)模型中最重要的一種經(jīng)典結(jié)構(gòu),其性能在近年來深度學(xué)習(xí)任務(wù)上逐步提高。由于可以自動學(xué)習(xí)樣本數(shù)據(jù)的特征表示,
    發(fā)表于 08-02 10:39

    《 AI加速器架構(gòu)設(shè)計與實現(xiàn)》+第卷積神經(jīng)網(wǎng)絡(luò)觀后感

    連接塊是一種模塊,通常用于深度卷積神經(jīng)網(wǎng)絡(luò)中,特別是在殘差網(wǎng)絡(luò)(Residual Network,ResNet)中廣泛使用,也是我比較熟悉的。組卷積
    發(fā)表于 09-11 20:34

    一種卷積神經(jīng)網(wǎng)絡(luò)和極限學(xué)習(xí)機相結(jié)合的人臉識別方法_余丹

    一種卷積神經(jīng)網(wǎng)絡(luò)和極限學(xué)習(xí)機相結(jié)合的人臉識別方法_余丹
    發(fā)表于 01-08 11:20 ?0次下載

    結(jié)合小波變換的LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的稅收預(yù)測

    分析歷史稅收數(shù)據(jù)之間的隱藏關(guān)系,利用數(shù)學(xué)模型來預(yù)測未來的稅收收入是稅收預(yù)測的研究重點。在此,提出一種結(jié)合小波變換的長短期記憶(LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 04-28 11:26 ?10次下載
    <b class='flag-5'>結(jié)合</b>小波變換的<b class='flag-5'>LSTM</b>循環(huán)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的稅收預(yù)測

    卷積神經(jīng)網(wǎng)絡(luò)原理:卷積神經(jīng)網(wǎng)絡(luò)模型和卷積神經(jīng)網(wǎng)絡(luò)算法

    卷積神經(jīng)網(wǎng)絡(luò)原理:卷積神經(jīng)網(wǎng)絡(luò)模型和卷積神經(jīng)網(wǎng)絡(luò)算法 卷積
    的頭像 發(fā)表于 08-17 16:30 ?1559次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)的特點 cnn卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)的特點 cnn卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點?
    的頭像 發(fā)表于 08-21 16:41 ?3161次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積神經(jīng)網(wǎng)絡(luò)發(fā)展 卷積神經(jīng)網(wǎng)絡(luò)三大特點

    中最重要的神經(jīng)網(wǎng)絡(luò)。它是一種由多個卷積層和池化層(也可稱為下采樣層)組成的神經(jīng)網(wǎng)絡(luò)。CNN 的基本思想是以圖像為輸入,通過
    的頭像 發(fā)表于 08-21 16:49 ?2630次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)層級結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)卷積層講解

    卷積神經(jīng)網(wǎng)絡(luò)層級結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)卷積層講解 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 08-21 16:49 ?9104次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法

    的深度學(xué)習(xí)算法。CNN模型最早被提出是為了處理圖像,其模型結(jié)構(gòu)中包含卷積層、池化層和全連接層等關(guān)鍵技術(shù),經(jīng)過多個卷積層和池化層的處理,CNN可以提取出圖像中的特征信息,從而對圖像進行分類。
    的頭像 發(fā)表于 08-21 16:49 ?1962次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理與實現(xiàn)

    1.卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。 卷積
    的頭像 發(fā)表于 07-02 16:47 ?733次閱讀