欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能的強化學(xué)習(xí)要點

汽車玩家 ? 來源:今日頭條 ? 作者:聞數(shù)起舞 ? 2020-05-04 18:14 ? 次閱讀

了解強化學(xué)習(xí)的要點!

強化學(xué)習(xí)(RL)是現(xiàn)代人工智能領(lǐng)域中最熱門的研究主題之一,其普及度還在不斷增長。 讓我們看一下開始學(xué)習(xí)RL需要了解的5件事。

1.什么是強化學(xué)習(xí)? 與其他機器學(xué)習(xí)技術(shù)相比有何不同?

強化學(xué)習(xí)(RL)是一種機器學(xué)習(xí)技術(shù),使代理能夠使用自身行為和經(jīng)驗的反饋,通過反復(fù)試驗,在交互式環(huán)境中學(xué)習(xí)。

人工智能的強化學(xué)習(xí)要點

盡管監(jiān)督學(xué)習(xí)和強化學(xué)習(xí)都使用輸入和輸出之間的映射,但不同于監(jiān)督學(xué)習(xí),后者提供給代理的反饋是執(zhí)行任務(wù)的正確動作集,而強化學(xué)習(xí)則將獎懲作為正面和負(fù)面行為的信號。

與無監(jiān)督學(xué)習(xí)相比,強化學(xué)習(xí)在目標(biāo)方面有所不同。 無監(jiān)督學(xué)習(xí)的目標(biāo)是發(fā)現(xiàn)數(shù)據(jù)點之間的相似點和差異,而在強化學(xué)習(xí)的情況下,目標(biāo)是找到合適的行為模型,以最大化代理的總累積獎勵。 下圖說明了通用RL模型的動作獎勵反饋回路。

人工智能的強化學(xué)習(xí)要點

2.如何制定基本的強化學(xué)習(xí)問題?

描述RL問題基本要素的一些關(guān)鍵術(shù)語是:

環(huán)境-代理在其中運行的物理世界

狀態(tài)—代理的現(xiàn)狀

獎勵-來自環(huán)境的反饋

策略-將代理狀態(tài)映射到操作的方法

價值-代理在特定狀態(tài)下采取的行動將獲得的未來獎勵

RL問題可以通過游戲來最好地解釋。 讓我們以吃豆人的游戲為例,代理人(PacMan)的目標(biāo)是在網(wǎng)格中吃食物,同時避免途中出現(xiàn)鬼魂。 在這種情況下,網(wǎng)格世界是代理所作用的交互式環(huán)境。 如果特工被幽靈殺死(輸?shù)袅擞螒颍?,代理會得到食物和懲罰的獎勵。 狀態(tài)是代理在網(wǎng)格世界中的位置,總累積獎勵是贏得比賽的代理。

人工智能的強化學(xué)習(xí)要點

為了建立最佳政策,代理面臨探索新狀態(tài)的困境,同時又要最大化其整體回報。 這稱為"探索與利用"的權(quán)衡。 為了平衡兩者,最佳的整體策略可能涉及短期犧牲。 因此,代理應(yīng)收集足夠的信息,以便將來做出最佳的總體決策。

馬爾可夫決策過程(MDP)是描述RL環(huán)境的數(shù)學(xué)框架,幾乎所有RL問題都可以使用MDP來表述。 一個MDP由一組有限的環(huán)境狀態(tài)S,在每個狀態(tài)下的一組可能的動作A,一個實值獎勵函數(shù)R和一個過渡模型P(s',s | a)組成。 但是,現(xiàn)實環(huán)境更可能缺少任何有關(guān)環(huán)境動力學(xué)的先驗知識。 在這種情況下,無模型RL方法非常方便。

Q學(xué)習(xí)是一種常用的無模型方法,可用于構(gòu)建自播放的PacMan代理。 它圍繞更新Q值的概念展開,Q值表示在狀態(tài)s中執(zhí)行動作a的值。 以下值更新規(guī)則是Q學(xué)習(xí)算法的核心。

人工智能的強化學(xué)習(xí)要點

3.什么是最常用的強化學(xué)習(xí)算法?

Q學(xué)習(xí)和SARSA(狀態(tài)行動-獎勵狀態(tài)行動)是兩種常用的無模型RL算法。 它們的探索策略不同,而利用策略卻相似。 Q學(xué)習(xí)是一種非策略方法,其中代理根據(jù)從另一個策略得出的操作a *學(xué)習(xí)值,而SARSA是一種策略上方法,在其中根據(jù)其當(dāng)前操作a從當(dāng)前策略得出的值來學(xué)習(xí)值。 政策。 這兩種方法易于實現(xiàn),但缺乏通用性,因為它們無法估計未見狀態(tài)的值。

可以通過更高級的算法(例如使用神經(jīng)網(wǎng)絡(luò)來估計Q值的深度Q網(wǎng)絡(luò)(DQN))來克服這一問題。 但是DQN只能處理離散的低維動作空間。

深度確定性策略梯度(DDPG)是一種無模型,脫離策略,對執(zhí)行者敏感的算法,它通過在高維連續(xù)動作空間中學(xué)習(xí)策略來解決此問題。 下圖是評論體系結(jié)構(gòu)的表示。

人工智能的強化學(xué)習(xí)要點

4.強化學(xué)習(xí)的實際應(yīng)用是什么?

由于RL需要大量數(shù)據(jù),因此最適用于容易獲得模擬數(shù)據(jù)(例如游戲性,機器人技術(shù))的領(lǐng)域。

RL被廣泛用于構(gòu)建用于玩計算機游戲的AI。 AlphaGo Zero是第一個在古代中國的圍棋游戲中擊敗世界冠軍的計算機程序。 其他包括ATARI游戲,西洋雙陸棋等

在機器人技術(shù)和工業(yè)自動化中,RL用于使機器人能夠為其自身創(chuàng)建高效的自適應(yīng)控制系統(tǒng),該系統(tǒng)可以從自身的經(jīng)驗和行為中學(xué)習(xí)。 DeepMind的"通過異步策略更新進行機器人操縱的深度強化學(xué)習(xí)"就是一個很好的例子。 觀看這個有趣的演示視頻。

RL的其他應(yīng)用包括抽象文本摘要引擎,對話代理(文本,語音),這些代理可以從用戶的交互中學(xué)習(xí)并隨著時間的流逝而改善,學(xué)習(xí)醫(yī)療保健中的最佳治療策略,以及用于在線股票交易的基于RL的代理。

5.我如何開始進行強化學(xué)習(xí)?

為了理解RL的基本概念,可以參考以下資源。

《強化學(xué)習(xí)-入門》,是強化學(xué)習(xí)之父的一本書-理查德·薩頓(Richard Sutton)和他的博士生導(dǎo)師安德魯·巴托(Andrew Barto)。 這本書的在線草稿可以在這里找到。

David Silver的教學(xué)材料(包括視頻講座)是有關(guān)RL的入門課程。

Pieter Abbeel和John Schulman(開放式AI /伯克利AI研究實驗室)的另一本有關(guān)RL的技術(shù)教程。

對于開始構(gòu)建和測試RL代理,以下資源可能會有所幫助。

博客介紹了如何使用來自原始像素的Policy Gradients訓(xùn)練神經(jīng)網(wǎng)絡(luò)ATARI Pong代理,Andrej Karpathy將幫助您在130行Python代碼中啟動并運行您的第一個Deep Reinforcement Learning代理。

·DeepMind Lab是一個類似于開放源代碼的3D游戲平臺,用于具有豐富模擬環(huán)境的基于代理的AI研究。

馬爾默項目是另一個支持AI基礎(chǔ)研究的AI實驗平臺。

OpenAI Gym是用于構(gòu)建和比較強化學(xué)習(xí)算法的工具包。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1796

    文章

    47748

    瀏覽量

    240448
  • 強化學(xué)習(xí)
    +關(guān)注

    關(guān)注

    4

    文章

    268

    瀏覽量

    11307
收藏 人收藏

    評論

    相關(guān)推薦

    人工智能和機器學(xué)習(xí)以及Edge AI的概念與應(yīng)用

    人工智能相關(guān)各種技術(shù)的概念介紹,以及先進的Edge AI(邊緣人工智能)的最新發(fā)展與相關(guān)應(yīng)用。 人工智能和機器學(xué)習(xí)是現(xiàn)代科技的核心技術(shù) 人工智能
    的頭像 發(fā)表于 01-25 17:37 ?290次閱讀
    <b class='flag-5'>人工智能</b>和機器<b class='flag-5'>學(xué)習(xí)</b>以及Edge AI的概念與應(yīng)用

    嵌入式和人工智能究竟是什么關(guān)系?

    領(lǐng)域,如工業(yè)控制、智能家居、醫(yī)療設(shè)備等。 人工智能是計算機科學(xué)的一個分支,它研究如何使計算機具備像人類一樣思考、學(xué)習(xí)、推理和決策的能力。人工智能的發(fā)展歷程可以追溯到上世紀(jì)50年代,經(jīng)
    發(fā)表于 11-14 16:39

    如何使用 PyTorch 進行強化學(xué)習(xí)

    的計算圖和自動微分功能,非常適合實現(xiàn)復(fù)雜的強化學(xué)習(xí)算法。 1. 環(huán)境(Environment) 在強化學(xué)習(xí)中,環(huán)境是一個抽象的概念,它定義了智能體(agent)可以執(zhí)行的動作(actions)、觀察到
    的頭像 發(fā)表于 11-05 17:34 ?412次閱讀

    人工智能、機器學(xué)習(xí)和深度學(xué)習(xí)存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設(shè)備。AI有很多技術(shù),但其中一個很大的子集是機器學(xué)習(xí)——讓算法從數(shù)據(jù)中學(xué)習(xí)
    發(fā)表于 10-24 17:22 ?2546次閱讀
    <b class='flag-5'>人工智能</b>、機器<b class='flag-5'>學(xué)習(xí)</b>和深度<b class='flag-5'>學(xué)習(xí)</b>存在什么區(qū)別

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感

    、優(yōu)化等方面的應(yīng)用有了更清晰的認(rèn)識。特別是書中提到的基于大數(shù)據(jù)和機器學(xué)習(xí)的能源管理系統(tǒng),通過實時監(jiān)測和分析能源數(shù)據(jù),實現(xiàn)了能源的高效利用和智能化管理。 其次,第6章通過多個案例展示了人工智能在能源科學(xué)中
    發(fā)表于 10-14 09:27

    《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》第一章人工智能驅(qū)動的科學(xué)創(chuàng)新學(xué)習(xí)心得

    ,無疑為讀者鋪設(shè)了一條探索人工智能(AI)如何深刻影響并推動科學(xué)創(chuàng)新的道路。在閱讀這一章后,我深刻感受到了人工智能技術(shù)在科學(xué)領(lǐng)域的廣泛應(yīng)用潛力以及其帶來的革命性變化,以下是我個人的學(xué)習(xí)心得: 1.
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應(yīng)用前景分析

    人工智能推薦系統(tǒng)中強大的圖形處理器(GPU)一爭高下。其獨特的設(shè)計使得該處理器在功耗受限的條件下仍能實現(xiàn)高性能的圖像處理任務(wù)。 Ceremorphic公司 :該公司開發(fā)的分層學(xué)習(xí)處理器結(jié)合了
    發(fā)表于 09-28 11:00

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新

    ! 《AI for Science:人工智能驅(qū)動科學(xué)創(chuàng)新》 這本書便將為讀者徐徐展開AI for Science的美麗圖景,與大家一起去了解: 人工智能究竟幫科學(xué)家做了什么? 人工智能將如何改變我們所生
    發(fā)表于 09-09 13:54

    人工智能如何強化智能家居設(shè)備的功能

    ,以配合用戶的生活習(xí)慣與作息。本文將為您介紹人工智能將如何強化智能家居設(shè)備的功能,以及由芯科科技(Silicon Labs)所推出的解決方案,將如何增進智能家居設(shè)備的功能性與安全性。
    的頭像 發(fā)表于 08-27 10:46 ?1002次閱讀
    <b class='flag-5'>人工智能</b>如何<b class='flag-5'>強化</b><b class='flag-5'>智能</b>家居設(shè)備的功能

    FPGA在人工智能中的應(yīng)用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領(lǐng)域的應(yīng)用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學(xué)習(xí)加速 訓(xùn)練和推理過程加速:FPGA可以用來加速深度學(xué)習(xí)的訓(xùn)練和推理過程。由于其高并行性和低延遲特性
    發(fā)表于 07-29 17:05

    通過強化學(xué)習(xí)策略進行特征選擇

    更快更好地學(xué)習(xí)。我們的想法是找到最優(yōu)數(shù)量的特征和最有意義的特征。在本文中,我們將介紹并實現(xiàn)一種新的通過強化學(xué)習(xí)策略的特征選擇。我們先討論強化學(xué)習(xí),尤其是馬爾可夫決策
    的頭像 發(fā)表于 06-05 08:27 ?418次閱讀
    通過<b class='flag-5'>強化學(xué)習(xí)</b>策略進行特征選擇

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2)

    https://t.elecfans.com/v/25653.html 人工智能 初學(xué)者完整學(xué)習(xí)流程實現(xiàn)手寫數(shù)字識別案例_Part1 13分59秒 https://t.elecfans.com/v
    發(fā)表于 05-10 16:46

    機器學(xué)習(xí)怎么進入人工智能

    人工智能(Artificial Intelligence,AI)是一門涉及計算機、工程、數(shù)學(xué)、哲學(xué)和認(rèn)知科學(xué)等多個領(lǐng)域的交叉學(xué)科,旨在構(gòu)建智能化計算機系統(tǒng),使之能夠自主感知、理解、學(xué)習(xí)和決策。如今
    的頭像 發(fā)表于 04-04 08:41 ?396次閱讀

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V1)

    ://t.elecfans.com/v/25653.html 人工智能 初學(xué)者完整學(xué)習(xí)流程實現(xiàn)手寫數(shù)字識別案例 28分55秒 https://t.elecfans.com/v/27184.html
    發(fā)表于 04-01 10:40

    嵌入式人工智能的就業(yè)方向有哪些?

    嵌入式人工智能的就業(yè)方向有哪些? 在新一輪科技革命與產(chǎn)業(yè)變革的時代背景下,嵌入式人工智能成為國家新型基礎(chǔ)建設(shè)與傳統(tǒng)產(chǎn)業(yè)升級的核心驅(qū)動力。同時在此背景驅(qū)動下,眾多名企也紛紛在嵌入式人工智能領(lǐng)域布局
    發(fā)表于 02-26 10:17