欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用2.5GPU年的算力在7個數(shù)據(jù)集上訓(xùn)練了12000多個模型

nlfO_thejiangme ? 來源:lq ? 2019-04-30 09:14 ? 次閱讀

基于無監(jiān)督的方式理解高維數(shù)據(jù)并將信息濃縮為有用的表示一直是深度學(xué)習(xí)領(lǐng)域研究的關(guān)鍵問題。其中一種方法是利用非耦合表示(disentangled representations)模型來捕捉場景中獨立變化的特征。如果能夠?qū)崿F(xiàn)對于各種獨立特征的描述,機器學(xué)習(xí)系統(tǒng)就可以用于真實環(huán)境中的導(dǎo)航,機器人或無人車利用這種方法可以將環(huán)境解構(gòu)成一系列元素,并利用通用的知識去理解先前未見過的場景。



雖然非監(jiān)督解耦方法已被廣泛應(yīng)用于好奇驅(qū)動的探索、抽象推理、視覺概念學(xué)習(xí)和域適應(yīng)的強化學(xué)習(xí)中,但最近進展卻無法讓我們清晰了解不同方法的性能和方法的局限。為了深入探索這一問題,谷歌的研究人員在ICML2019上發(fā)表了一篇大規(guī)模深入研究非監(jiān)督非耦合表示的論文”Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations”,對近年來絕大多數(shù)的非監(jiān)督解耦表示方法進行探索、利用2.5GPU年的算力在7個數(shù)據(jù)集上訓(xùn)練了12000多個模型。基于大規(guī)模的實驗結(jié)果,研究人員對這一領(lǐng)域的一些假設(shè)產(chǎn)生了質(zhì)疑,并為解耦學(xué)習(xí)的未來發(fā)展方向給出了建議。與此同時,研究人員還同時發(fā)布了研究中所使用的代碼和上萬個預(yù)訓(xùn)練模型,并封裝了disentanglement_lib供研究者進行實驗復(fù)現(xiàn)和更深入的探索。

理解非耦合表示

為了更好地理解非耦合表示的本質(zhì),讓我一起來看看下面動圖中每個獨立變化的元素。下面的每一張圖代表了一個可以被編碼到矢量表示中的因子,它可以獨立控制圖像中每個語義元素的屬性。例如第一個可以控制地板的顏色,第二個則控制墻的顏色,最后一個則控制圖片的視角。

解耦表示的目標在于建立起一個能夠獨立捕捉這些特征的模型,并將這些特征編碼到一個表示矢量中。下面的10個小圖展示了基于FactorVAE方法學(xué)習(xí)十維表示矢量的模型,圖中展示 了每一維對于圖像對應(yīng)信息的捕捉。從各個圖中可以看出模型成功地解耦了地板、墻面的顏色,但是左下角的兩個圖片可以看到物體的顏色和大小的表示卻依然相關(guān)沒有解耦。

大規(guī)模研究的發(fā)現(xiàn)

在直觀地理解了解耦表示之后,讓我們來看看科學(xué)家在研究中發(fā)現(xiàn)了什么。這一領(lǐng)域基于變分自編碼器提出了各種各樣的非監(jiān)督方法來學(xué)習(xí)非耦合表示,同時給出了許多不同的性能度量方法,但卻缺乏一個大規(guī)模的性能測評和對比研究。為此研究人員構(gòu)建了一個大規(guī)模、公平性、可復(fù)現(xiàn)的實驗基準,并系統(tǒng)的測試了六種不同的模型(BetaVAE, AnnealedVAE, FactorVAE, DIP-VAE I/II and Beta-TCVAE)和解耦性能度量方法(BetaVAE score, FactorVAE score, MIG, SAP, Modularity and DCI Disentanglement),在7個數(shù)據(jù)集上進行了12800個模型的訓(xùn)練后,研究人員們有了顛覆過去的發(fā)現(xiàn):首先,是非監(jiān)督學(xué)習(xí)的方式。研究人員在大量的實驗后發(fā)現(xiàn)沒有可靠的證據(jù)表明模型可以通過無監(jiān)督的方式學(xué)習(xí)到有效的解耦表示,隨機種子和超參數(shù)對于結(jié)構(gòu)的影響甚至超過了模型的選擇。換句話說,即使你訓(xùn)練的大量模型中有部分是解耦的,但這些解耦表示在不基于基準標簽的情況下是無從確認和識別的。此外好的超參數(shù)在不同的數(shù)據(jù)集上并不一致,這意味著沒有歸納偏置(inductive biases)是無法實現(xiàn)非監(jiān)督解耦學(xué)習(xí)的(需要把對數(shù)據(jù)集的假設(shè)考慮進模型中)。對于實驗中評測的模型和數(shù)據(jù)集,研究人員表示無法驗證解耦對于downstream tasks任務(wù)有利的假設(shè)(這一假設(shè)認為基于解耦表示可以利用更少的標簽來進行學(xué)習(xí))。下圖展示了研究中的一些發(fā)現(xiàn),可以看到隨機種子在運行中的影響超過了模型的選擇(左)和正則化(右)的強度(更強的正則化并沒有帶來更多的解耦性能)。這意味著很差超參數(shù)作用下的好模型也許比很好超參數(shù)作用下的壞模型要好得多。

未來研究方向

基于這些全新的發(fā)現(xiàn)和研究結(jié)果,研究人員為解耦表示領(lǐng)域提出了四個可能的方向:1.在沒有歸納偏置的條件下給出非監(jiān)督解耦表示學(xué)習(xí)的理論結(jié)果是不可能的,未來的研究應(yīng)該更多地集中于歸納偏置的研究以及隱式和顯示監(jiān)督在學(xué)習(xí)中所扮演的角色;2.為橫跨多數(shù)據(jù)集的非監(jiān)督模型尋找一個有效的歸納偏置將會成為關(guān)鍵的開放問題;3.應(yīng)該強調(diào)解耦學(xué)習(xí)在各個特定領(lǐng)域所帶來的實際應(yīng)用價值,潛在的應(yīng)用方向包括機器人、抽象推理和公平性等;4.在各種多樣性數(shù)據(jù)集上的實驗應(yīng)該保證可重復(fù)性。

代碼和工具包

為了讓其他研究人員更好的復(fù)現(xiàn)結(jié)構(gòu),論文同時還發(fā)布了 disentanglement_lib工具包,其中包含了實驗所需的模型、度量、訓(xùn)練、預(yù)測以及可視化代碼工具??梢栽诿钚兄杏貌坏剿男写a就能復(fù)現(xiàn)是論文中所提到的模型,也可以方便地改造來驗證新的假設(shè)。最后 disentanglement_lib庫易于拓展和集成,易于創(chuàng)建新的模型,并用公平的可復(fù)現(xiàn)的比較進行檢驗。由于復(fù)現(xiàn)所有的模型訓(xùn)練需要2.5GPU年的算力,所以研究人員同時開放了論文中提到的一萬多個預(yù)訓(xùn)練模型可以配合前述工具使用。如果想要使用這個工具可以在這里找到源碼:

https://github.com/google-research/disentanglement_lib

其中包含了以下內(nèi)容:模型:BetaVAE, FactorVAE, BetaTCVAE, DIP-VAE度量:BetaVAE score, FactorVAE score, Mutual Information Gap, SAP score, DCI, MCE數(shù)據(jù)集:dSprites, Color/Noisy/Scream-dSprites, SmallNORB, Cars3D, and Shapes3D預(yù)訓(xùn)練模型:10800 pretrained disentanglement models依賴包:TensorFlow, Scipy, Numpy, Scikit-Learn, TFHub and Gin

git clone https://github.com/google-research/disentanglement_lib.git #下載gitcd disentanglement_lib #轉(zhuǎn)到源碼目錄pip install .[tf_gpu] #安裝依賴文件dlib_tests #驗證安裝

隨后下載對應(yīng)的數(shù)據(jù)文件:

dlib_download_data#在.bashrc寫入路徑export DISENTANGLEMENT_LIB_DATA=

隨后就可以愉快地復(fù)現(xiàn)實驗了,其中?是0-12599間的模型序號:dlib_reproduce --model_num=進行評測:dlib_aggregate_results

相信這篇文章的研究結(jié)果和代碼工具將為接下來的研究提供更為明確的方向和便捷的途徑,促進非耦合表示學(xué)習(xí)領(lǐng)域的發(fā)展。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6203

    瀏覽量

    106100
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4790

    瀏覽量

    129446
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1209

    瀏覽量

    24851

原文標題:耗時2.5GPU年訓(xùn)練12800個模型,谷歌研究人員揭示非耦合表示的奧秘

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    AI訓(xùn)練,為什么需要GPU

    隨著由ChatGPT引發(fā)的人工智能熱潮,GPU成為了AI大模型訓(xùn)練平臺的基石,甚至是決定性的底座。為什么
    的頭像 發(fā)表于 04-24 08:05 ?1075次閱讀
    AI<b class='flag-5'>訓(xùn)練</b>,為什么需要<b class='flag-5'>GPU</b>?

    名單公布!【書籍評測活動NO.43】 芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析

    ,全球范圍內(nèi),對于推動科技進步、經(jīng)濟發(fā)展及社會整體的運作具有至關(guān)重要的作用。隨著信息技術(shù)的高速發(fā)展,高性能計算(HPC)和人工智能(AI)等技術(shù)多個領(lǐng)域的應(yīng)用變得日益廣泛,芯片
    發(fā)表于 09-02 10:09

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗】--全書概覽

    、GPU、NPU,給我們剖析了芯片的微架構(gòu)。書中有對芯片方案商處理器的講解,理論聯(lián)系實際,使讀者能更好理解芯片。 全書共11章,
    發(fā)表于 10-15 22:08

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗】--了解芯片GPU

    從而充分利用 GPU的強大計算能力。CUDA編程模型中,GPU的計算資源被組織為線期線程塊和線程網(wǎng)格3級。線程是基本的執(zhí)行單元,線程塊是包
    發(fā)表于 11-03 12:55

    數(shù)據(jù)、算法和其實現(xiàn)載體是什么

    背景介紹數(shù)據(jù)、算法和是人工智能技術(shù)的三大要素。其中,體現(xiàn)著人工智能(AI)技術(shù)具體實現(xiàn)的能力,實現(xiàn)載體主要有CPU、
    發(fā)表于 07-26 06:47

    Ubuntu使用Nvidia GPU訓(xùn)練模型

    問題最近在Ubuntu使用Nvidia GPU訓(xùn)練模型的時候,沒有問題,過一會再訓(xùn)練出現(xiàn)非常卡頓,使用nvidia-smi查看發(fā)現(xiàn),顯示
    發(fā)表于 01-03 08:24

    索尼發(fā)布新的方法,ImageNet數(shù)據(jù)224秒內(nèi)成功訓(xùn)練了ResNet-50

    近年來,許多研究人員提出了多種方案來解決這兩問題(見原文參考文獻)。這些工作利用ImageNet/ResNet-50訓(xùn)練來衡量訓(xùn)練效果。ImageNet/ResNet-50分別是最流
    的頭像 發(fā)表于 11-16 10:01 ?9876次閱讀

    GPU如何訓(xùn)練大批量模型?方法在這里

    深度學(xué)習(xí)模型數(shù)據(jù)的規(guī)模增長速度已經(jīng)讓 GPU 也開始捉襟見肘,如果你的
    發(fā)表于 12-03 17:24 ?899次閱讀

    ICML 2019最佳論文新鮮出爐!

    這是一篇大規(guī)模深入研究無監(jiān)督解耦表示(Disentangled Representation)的論文,對近年來絕大多數(shù)的非監(jiān)督解耦表示方法進行了探索、利用 2.5GPU
    的頭像 發(fā)表于 06-15 10:02 ?5308次閱讀

    利用ImageNet訓(xùn)練了能降噪、超分和去雨的圖像預(yù)訓(xùn)練模型

    。但是不同的是,因為IPT是同時訓(xùn)練多個task,因此模型定義了多個head和tail分別對應(yīng)不同的task。
    的頭像 發(fā)表于 03-03 16:05 ?4482次閱讀
    <b class='flag-5'>利用</b>ImageNet<b class='flag-5'>訓(xùn)練了</b>一<b class='flag-5'>個</b>能降噪、超分和去雨的圖像預(yù)<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>

    夯實基礎(chǔ) 賦能大模型創(chuàng)新發(fā)展

    《 國產(chǎn) GPU的大模型實踐 》 的主題演講 , 全面介紹了天數(shù)智芯 通用 GPU產(chǎn)品特色 以及 模型
    的頭像 發(fā)表于 07-17 22:25 ?596次閱讀
    夯實<b class='flag-5'>算</b><b class='flag-5'>力</b>基礎(chǔ)  賦能大<b class='flag-5'>模型</b>創(chuàng)新發(fā)展

    模型“狂歡”之下,之困何解?

    打造一AI大模型究竟需要多少算?公開數(shù)據(jù)顯示,ChatGPT初始所需的就是1萬塊英偉達A
    的頭像 發(fā)表于 08-23 16:09 ?824次閱讀

    20個數(shù)據(jù)可以訓(xùn)練神經(jīng)網(wǎng)絡(luò)嗎

    當然可以,20個數(shù)據(jù)點對于訓(xùn)練神經(jīng)網(wǎng)絡(luò)來說可能非常有限,但這并不意味著它們不能用于訓(xùn)練。實際,神經(jīng)網(wǎng)絡(luò)可以
    的頭像 發(fā)表于 07-11 10:29 ?1145次閱讀

    【一文看懂】大白話解釋“GPUGPU

    隨著大模型的興起,“GPU”這個詞正頻繁出現(xiàn)在人工智能、游戲、圖形設(shè)計等工作場景中,什么是GPU,它與CPU的區(qū)別是什么?以及到底什么是
    的頭像 發(fā)表于 10-29 08:05 ?1050次閱讀
    【一文看懂】大白話解釋“<b class='flag-5'>GPU</b>與<b class='flag-5'>GPU</b><b class='flag-5'>算</b><b class='flag-5'>力</b>”

    PyTorch GPU 加速訓(xùn)練模型方法

    深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時間的重要手段。PyTorch作
    的頭像 發(fā)表于 11-05 17:43 ?683次閱讀