欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

DeepMind發(fā)布強化學習庫RLax

電子設(shè)計 ? 來源:電子設(shè)計 ? 作者:電子設(shè)計 ? 2020-12-10 18:43 ? 次閱讀
RLax(發(fā)音為“ relax”)是建立在JAX之上的庫,它公開了用于實施強化學習智能體的有用構(gòu)建塊。。
報道深度強化學習實驗室
作者:DeepRL
來源:Github/DeepMind

RLax及背景

強化學習主要用于研究學習系統(tǒng)(智能體)的問題,該學習系統(tǒng)必須學習與環(huán)境進行交互的信息。智能體和環(huán)境在不連續(xù)的步驟上進行交互。在每個步驟中,智能體都會選擇一個動作,并會提供一個返回的環(huán)境狀態(tài)(觀察)狀態(tài)(部分)和標量反饋信號(獎勵)。智能體的行為以行為的概率分布為特征,該分布取決于對環(huán)境(策略)的過去觀察。智能體尋求一種策略,該策略將從任何給定步驟中最大化從該點開始(返回)將收集的折扣累積獎勵。智能體策略或環(huán)境動態(tài)本身通常是隨機的。在這種情況下,回報是一個隨機變量,并且通常將更精確的智能體策略指定為在智能體和環(huán)境的隨機性下最大化回報期望(值)的策略。

RLax(發(fā)音為“ relax”)是建立在JAX之上的庫,它公開了用于實施強化學習智能體的有用構(gòu)建塊。

安裝與使用

可以使用以下命令從github直接使用pip安裝RLax:

pip install git+git://github.com/deepmind/rlax.git.

然后可以使用JAX的jax.jit函數(shù)為不同的硬件(例如CPU,GPU,TPU)及時編譯所有RLax代碼。

強化學習算法

增強學習算法包含三個原型系列:

  • 那些估計狀態(tài)和動作的價值,并通過檢查推斷策略的行為(例如,通過選擇估計值最高的動作)
  • 學習環(huán)境模型(能夠預(yù)測觀察結(jié)果和獎勵),并通過計劃推斷策略。
  • 那些參數(shù)化可以直接執(zhí)行的策略的參數(shù),

無論如何,策略,價值或模型只是功能。在深度強化學習中,此類功能由神經(jīng)網(wǎng)絡(luò)表示。在這種情況下,通常將強化學習更新公式化為可區(qū)分的損失函數(shù)(類似于(非)監(jiān)督學習)。在自動區(qū)分下,將恢復(fù)原始更新規(guī)則。

但是請注意,尤其是只有以正確的方式對輸入數(shù)據(jù)進行采樣時,更新才有效。例如,僅當輸入軌跡是當前策略的無偏樣本時,策略梯度損失才有效。即數(shù)據(jù)是符合政策的。該庫無法檢查或強制執(zhí)行此類約束。但是,在函數(shù)的文檔字符串中提供了指向描述如何使用每種操作的論文的鏈接。

命名約定和開發(fā)人員指南

我們?yōu)榕c單一經(jīng)驗流交互的代理定義功能和操作。JAX構(gòu)造vmap可用于將這些相同的功能應(yīng)用于批處理(例如,支持重放和并行數(shù)據(jù)生成)。

許多功能在連續(xù)的時間步中考慮策略,行動,獎勵,價值,以便計算其輸出。在這種情況下,qm_t和tm1通常用于說明每個輸入是在哪個步驟上生成的,例如:

  • q_tm1:轉(zhuǎn)換的源狀態(tài)中的操作值。
  • a_tm1:在源狀態(tài)下選擇的操作。
  • r_t:在目標狀態(tài)下收集的結(jié)果獎勵。
  • discount_t:與轉(zhuǎn)換關(guān)聯(lián)的折扣。
  • q_t:目標狀態(tài)下的操作值。

為每個功能提供了廣泛的測試。當使用jax.jit編譯為XLA以及使用jax.vmap執(zhí)行批處理操作時,所有測試還應(yīng)驗證rlax函數(shù)的輸出。

引用

@software{rlax2020github,
  author = {David Budden and Matteo Hessel and John Quan and Steven Kapturowski},
  title = {{RL}ax: {R}einforcement {L}earning in {JAX}},
  url = {http://github.com/deepmind/rlax},
  version = {0.0.1a0},
  year = {2020},
}

專注深度強化學習前沿技術(shù)干貨,論文,框架,學習路線等,歡迎關(guān)注微信公眾號。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 強化學習
    +關(guān)注

    關(guān)注

    4

    文章

    268

    瀏覽量

    11307
  • DeepMind
    +關(guān)注

    關(guān)注

    0

    文章

    131

    瀏覽量

    10951
收藏 人收藏

    評論

    相關(guān)推薦

    淺談適用規(guī)模充電站的深度學習有序充電策略

    深度強化學習能夠有效計及電動汽車出行模式和充電需求的不確定性,實現(xiàn)充電場站充電成本化的目標。通過對電動汽車泊車時間和充電需求特征進行提取,建立適用于大規(guī)模電動汽車有序充電的馬爾可夫決策過程模型,并
    的頭像 發(fā)表于 02-08 15:00 ?102次閱讀
    淺談適用規(guī)模充電站的深度<b class='flag-5'>學習</b>有序充電策略

    Google DeepMind發(fā)布Genie 2:打造交互式3D虛擬世界

    在OpenAI宣布即將發(fā)布新模型和新功能后,Google DeepMind也不甘落后,于近日推出了大型基礎(chǔ)世界模型——Genie 2。這款模型能夠生成各種可控制動作、可玩的3D環(huán)境,為用戶帶來全新
    的頭像 發(fā)表于 12-05 14:16 ?675次閱讀

    螞蟻集團收購邊塞科技,吳翼出任強化學習實驗室首席科學家

    近日,專注于模型賽道的初創(chuàng)企業(yè)邊塞科技宣布被螞蟻集團收購。據(jù)悉,此次交易完成后,邊塞科技將保持獨立運營,而原投資人已全部退出。 與此同時,螞蟻集團近期宣布成立強化學習實驗室,旨在推動大模型強化學習
    的頭像 發(fā)表于 11-22 11:14 ?730次閱讀

    如何使用 PyTorch 進行強化學習

    強化學習(Reinforcement Learning, RL)是一種機器學習方法,它通過與環(huán)境的交互來學習如何做出決策,以最大化累積獎勵。PyTorch 是一個流行的開源機器學習
    的頭像 發(fā)表于 11-05 17:34 ?412次閱讀

    RISC-V如何支持不同的AI和機器學習框架和?

    RISC-V如何支持不同的AI和機器學習框架和?還請壇友們多多指教一下。
    發(fā)表于 10-10 22:24

    AI實火!諾貝爾又把化學獎頒給AI大模型

    的蛋白質(zhì)結(jié)構(gòu)預(yù)測大模型——AlphaFold系列。 今年5月9日,谷歌DeepMind重磅發(fā)布了AlphaFold-3,能夠精準預(yù)測蛋白質(zhì)-配體、蛋白質(zhì)-核酸等在內(nèi)的幾乎所有PDB數(shù)據(jù)中存在的分子組合形式
    的頭像 發(fā)表于 10-10 10:38 ?279次閱讀

    谷歌AlphaChip強化學習工具發(fā)布,聯(lián)發(fā)科天璣芯片率先采用

    近日,谷歌在芯片設(shè)計領(lǐng)域取得了重要突破,詳細介紹了其用于芯片設(shè)計布局的強化學習方法,并將該模型命名為“AlphaChip”。據(jù)悉,AlphaChip有望顯著加速芯片布局規(guī)劃的設(shè)計流程,并幫助芯片在性能、功耗和面積方面實現(xiàn)更優(yōu)表現(xiàn)。
    的頭像 發(fā)表于 09-30 16:16 ?476次閱讀

    深度學習常用的Python

    深度學習作為人工智能的一個重要分支,通過模擬人類大腦中的神經(jīng)網(wǎng)絡(luò)來解決復(fù)雜問題。Python作為一種流行的編程語言,憑借其簡潔的語法和豐富的支持,成為了深度學習研究和應(yīng)用的首選工具。本文將深入探討
    的頭像 發(fā)表于 07-03 16:04 ?735次閱讀

    通過強化學習策略進行特征選擇

    更快更好地學習。我們的想法是找到最優(yōu)數(shù)量的特征和最有意義的特征。在本文中,我們將介紹并實現(xiàn)一種新的通過強化學習策略的特征選擇。我們先討論強化學習,尤其是馬爾可夫決策
    的頭像 發(fā)表于 06-05 08:27 ?417次閱讀
    通過<b class='flag-5'>強化學習</b>策略進行特征選擇

    谷歌DeepMind發(fā)布人工智能模型AlphaFold最新版本

    谷歌DeepMind近日發(fā)布了人工智能模型AlphaFold的最新版本——AlphaFold 3,這一革命性的工具將在藥物發(fā)現(xiàn)和疾病治療領(lǐng)域發(fā)揮巨大作用。
    的頭像 發(fā)表于 05-10 11:26 ?646次閱讀

    淺談AI技術(shù)在SSD控制器中的應(yīng)用

    當前AI技術(shù)蓬勃發(fā)展,深度學習強化學習等技術(shù)不斷突破,使得AI在圖像識別、語音識別、自然語言處理等領(lǐng)域取得了顯著成果。
    的頭像 發(fā)表于 04-20 10:02 ?1011次閱讀
    淺談AI技術(shù)在SSD控制器中的應(yīng)用

    鋰電池儲存和電化學儲能電站應(yīng)配置的消防設(shè)施包括哪些?

    鋰電池儲存和電化學儲能電站應(yīng)配置的消防設(shè)施包括哪些
    的頭像 發(fā)表于 03-22 10:09 ?776次閱讀
    鋰電池儲存<b class='flag-5'>庫</b>和電<b class='flag-5'>化學</b>儲能電站應(yīng)配置的消防設(shè)施包括哪些?

    谷歌DeepMind推出SIMI通用AI智能體

    近日,谷歌的DeepMind團隊發(fā)布了其最新研究成果——SIMI(Scalable Instructable Multiworld Agent),這是一個通用人工智能智能體,能夠在多種3D虛擬環(huán)境
    的頭像 發(fā)表于 03-18 11:39 ?1065次閱讀

    谷歌DeepMind推新AI模型Genie,能生成2D游戲平臺

    據(jù)報道,谷歌公司的DeepMind團隊近期發(fā)布了AI模型Genie,此模型擁有多達110億個參數(shù),能夠依據(jù)用戶提供的圖片及提示詞創(chuàng)建出相當完整的2D游戲場景。
    的頭像 發(fā)表于 02-27 14:53 ?853次閱讀

    一文詳解Transformer神經(jīng)網(wǎng)絡(luò)模型

    Transformer模型在強化學習領(lǐng)域的應(yīng)用主要是應(yīng)用于策略學習和值函數(shù)近似。強化學習是指讓機器在與環(huán)境互動的過程中,通過試錯來學習最優(yōu)的行為策略。
    發(fā)表于 02-20 09:55 ?1.7w次閱讀
    一文詳解Transformer神經(jīng)網(wǎng)絡(luò)模型