欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

谷歌MorphNet:它是如何工作的?為什么是MorphNet?

jmiy_worldofai ? 來(lái)源:lq ? 2019-04-27 18:42 ? 次閱讀

深度神經(jīng)網(wǎng)絡(luò)(DNN)在解決圖像分類、文本識(shí)別和語(yǔ)音轉(zhuǎn)換等實(shí)際難題方面具有顯著的效果。然而,為一個(gè)給定的問(wèn)題設(shè)計(jì)一個(gè)合適的 DNN 體系結(jié)構(gòu)仍然是一個(gè)具有挑戰(zhàn)性的任務(wù)。考慮到架構(gòu)可能需要巨大的搜索空間,從頭開始為特定的應(yīng)用程序設(shè)計(jì)一個(gè)網(wǎng)絡(luò)在計(jì)算資源和時(shí)間方面花銷可能非常大。神經(jīng)網(wǎng)絡(luò)架構(gòu)搜索和 AdaNet 等方法利用機(jī)器學(xué)習(xí)來(lái)搜索設(shè)計(jì)空間,以便找到改進(jìn)架構(gòu)的方法。另一種選擇是將現(xiàn)有的體系結(jié)構(gòu)用于類似的問(wèn)題,并一次性為手頭的任務(wù)進(jìn)行優(yōu)化。

正對(duì)這個(gè)問(wèn)題,谷歌 AI 發(fā)布了一篇博文討論了 MorphNet。MorphNet 是一種復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型細(xì)化技術(shù),它采用了上面說(shuō)的第二種方法。本文對(duì) MorphNet 的解釋是:「深度神經(jīng)網(wǎng)絡(luò)的快速、簡(jiǎn)單的資源受限結(jié)構(gòu)學(xué)習(xí)」。MorphNet 以現(xiàn)有的神經(jīng)網(wǎng)絡(luò)為輸入,生成一個(gè)更小、更快、性能更好的新神經(jīng)網(wǎng)絡(luò),以適應(yīng)新的問(wèn)題。我們已經(jīng)將這項(xiàng)技術(shù)應(yīng)用于「Google-scale」問(wèn)題,以設(shè)計(jì)更小、更準(zhǔn)確的生產(chǎn)服務(wù)網(wǎng)絡(luò)。而且,現(xiàn)在我們已經(jīng)向社區(qū)開放了 MorphNet 的 TensorFlow 實(shí)現(xiàn),這樣你就可以使用它來(lái)提高你的模型的效率。

它是如何工作的

MorphNet 通過(guò)收縮和擴(kuò)展階段的循環(huán)優(yōu)化神經(jīng)網(wǎng)絡(luò)。在收縮階段,MorphNet 識(shí)別效率低下的神經(jīng)元,并利用稀疏正則化器將其從網(wǎng)絡(luò)中刪去,這樣網(wǎng)絡(luò)的總損失函數(shù)就包含每個(gè)神經(jīng)元的成本。然而,MorphNet 并沒(méi)有對(duì)每個(gè)神經(jīng)元使用一樣的成本,而是根據(jù)目標(biāo)資源計(jì)算神經(jīng)元成本。隨著訓(xùn)練的進(jìn)行,優(yōu)化器在計(jì)算梯度時(shí)會(huì)意識(shí)到資源成本,從而了解哪些神經(jīng)元是是節(jié)省資源的,哪些神經(jīng)元可以被移除。

例如,考慮 MorphNet 如何計(jì)算神經(jīng)網(wǎng)絡(luò)的計(jì)算成本,以觸發(fā)器為例。為了簡(jiǎn)單起見(jiàn),讓我們考慮一個(gè)用矩陣乘法表示的神經(jīng)網(wǎng)絡(luò)層。在這種情況下,層有 2 個(gè)輸入(xn),6 個(gè)權(quán)重(a,b,…,f)和 3 個(gè)輸出(yn;神經(jīng)元)。使用標(biāo)準(zhǔn)教科書中的行和列相乘的方法,可以計(jì)算出評(píng)估該層需要 6 次相乘。

神經(jīng)元的計(jì)算成本

MorphNet 將其計(jì)算為輸入計(jì)數(shù)和輸出計(jì)數(shù)的乘積。注意,盡管左邊的例子顯示了兩個(gè)為 0 的權(quán)重值,我們?nèi)匀恍枰獔?zhí)行所有的乘法來(lái)評(píng)估這個(gè)層。然而,中間的例子顯示了結(jié)構(gòu)化稀疏性,其中神經(jīng)元 yn 中的所有行權(quán)重都為 0。MorphNet 識(shí)別出這個(gè)層的乘法數(shù)從 6 減少到 4,于是這個(gè)層的新輸出計(jì)數(shù)是 2。利用這一思想,MorphNet 可以確定網(wǎng)絡(luò)中每個(gè)神經(jīng)元的增量成本,從而生成一個(gè)更有效的模型(右邊),其中神經(jīng)元 y3 已經(jīng)被移除。

在展開階段,我們使用寬度乘數(shù)來(lái)均勻地?cái)U(kuò)展所有的層大小。例如,如果我們擴(kuò)大 50%,那么一個(gè)以 100 個(gè)神經(jīng)元開始并縮小到 10 個(gè)的低效率層只會(huì)擴(kuò)大到 15 個(gè),而一個(gè)只縮小到 80 個(gè)神經(jīng)元的重要層可能會(huì)擴(kuò)大到 120 個(gè),并有更多的資源來(lái)工作。也就是將計(jì)算資源從網(wǎng)絡(luò)中效率較低的部分重新分配到可能更高效的部分。

在縮減階段之后,人們可以停止 MorphNet,只需縮減網(wǎng)絡(luò)以滿足更嚴(yán)格的資源預(yù)算。這會(huì)導(dǎo)致在給定目標(biāo)成本的時(shí)候網(wǎng)絡(luò)效率更高,但有時(shí)也會(huì)導(dǎo)致精度下降。另外,用戶還可以完成擴(kuò)展階段,該階段將與原始目標(biāo)資源成本相匹配,但提高了準(zhǔn)確性。稍后我們通過(guò)一個(gè)示例來(lái)介紹這個(gè)的完整實(shí)現(xiàn)過(guò)程。

為什么是 MorphNet?

MorphNet 提供了四個(gè)關(guān)鍵的有價(jià)值的主張:

有針對(duì)性的正則化:與其他稀疏的正則化方法相比,MorphNet 采取的正則化方法目的性更強(qiáng)。尤其是,MorphNet 方法進(jìn)行更好的稀疏化的目的是減少特定的資源。這可以更好地控制由 MorphNet 生成的網(wǎng)絡(luò)結(jié)構(gòu),根據(jù)應(yīng)用領(lǐng)域和相關(guān)約束,MorphNet 可以有明顯的不同。例如,下圖的左側(cè)面板顯示了一個(gè)基線網(wǎng)絡(luò),該網(wǎng)絡(luò)具有在 JFT 上訓(xùn)練的常用 ResNet-101 體系結(jié)構(gòu)。當(dāng)以觸發(fā)器(中間圖,觸發(fā)器減少 40%)或模型大?。ㄓ覉D,權(quán)重減少 43%)為目標(biāo)時(shí),MorphNet 生成的結(jié)構(gòu)有很大不同。在優(yōu)化計(jì)算成本時(shí),較低層網(wǎng)絡(luò)中的高分辨率神經(jīng)元比低分辨率神經(jīng)元更容易受到修剪。當(dāng)模型尺寸較小時(shí),在修剪權(quán)衡上正好相反。

MorphNet 有針對(duì)性的正則化。矩形寬度與層中的通道數(shù)成正比。底部的紫色條是輸入層。左圖:基線網(wǎng)絡(luò)用作 MorphNet 的輸入。中圖:輸出應(yīng)用觸發(fā)器調(diào)節(jié)器。右圖:輸出應(yīng)用大小調(diào)整器。

MorphNet 是為數(shù)不多的能夠針對(duì)特定參數(shù)進(jìn)行優(yōu)化的解決方案之一。這使它能夠針對(duì)特定實(shí)現(xiàn)的參數(shù)。例如,可以通過(guò)結(jié)合特定于設(shè)備的計(jì)算時(shí)間和內(nèi)存時(shí)間,將延遲作為一階優(yōu)化參數(shù)。

拓?fù)渥冃危寒?dāng) MorphNet 學(xué)習(xí)每層神經(jīng)元的數(shù)量時(shí),算法在一個(gè)層中稀疏所有神經(jīng)元的過(guò)程中可能會(huì)遇到一種特殊的情況。當(dāng)一個(gè)層有 0 個(gè)神經(jīng)元時(shí),通過(guò)切斷網(wǎng)絡(luò)中受影響的分支,可以有效地改變網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)。例如,當(dāng)遇到 ResNet 體系結(jié)構(gòu)時(shí),MorphNet 可能保留 skip-connection,但刪除殘差塊,如下左圖所示。對(duì)于 Inception 樣式的架構(gòu),MorphNet 可能會(huì)刪除整個(gè)平行的塔,如右圖所示。

左圖:MorphNet 可以刪除 ResNet 樣式網(wǎng)絡(luò)中的殘差連接。右圖:它還可以刪除 Inception 樣式的網(wǎng)絡(luò)中的平行塔。

可擴(kuò)展性:MorphNet 在一次訓(xùn)練中學(xué)習(xí)新的結(jié)構(gòu),在培訓(xùn)預(yù)算有限時(shí),它是一個(gè)很好的方法。MorphNet 也可以直接應(yīng)用于昂貴的網(wǎng)絡(luò)和數(shù)據(jù)集。例如,在上面的比較中,MorphNet 直接應(yīng)用于 ResNet-101,而它最初是在 JFT 上花費(fèi)了 100 個(gè) GPU 月訓(xùn)練的。

可移植性:MorphNet 產(chǎn)生的網(wǎng)絡(luò)是「可移植的」,從這個(gè)意義上說(shuō),它們是打算從頭開始重新訓(xùn)練的,并且權(quán)重與體系結(jié)構(gòu)學(xué)習(xí)過(guò)程無(wú)關(guān)。你不必?fù)?dān)心復(fù)制檢查點(diǎn)或遵循特殊的訓(xùn)練規(guī)則,而只需像平時(shí)一樣訓(xùn)練你的新網(wǎng)絡(luò)!

變形網(wǎng)絡(luò)

作為一個(gè)演示,我們將 MorphNet 應(yīng)用于在 ImageNet 上通過(guò)目標(biāo)定位 FLOPs 訓(xùn)練的 Inception V2(見(jiàn)下文)?;€方法是使用一個(gè)寬度倍增器,通過(guò)均勻地縮小每個(gè)卷積(紅色)的輸出數(shù)量來(lái)權(quán)衡精度和觸發(fā)器。MorphNet 方法的目標(biāo)是直接 FLOPs,并在縮小模型時(shí)產(chǎn)生更好的權(quán)衡曲線(藍(lán)色)。在這種情況下,與基線相比,觸發(fā)器成本降低了 11% 到 15%,而精確度相同。

MorphNet 應(yīng)用于 ImageNet 上的 Inception V2。單獨(dú)使用 FLOP 正則化器(藍(lán)色)可將性能相對(duì)于基線(紅色)提高 11-15%。在一個(gè)完整的周期中,正則化器和寬度乘法器在相同的成本(「x1」;紫色)下提高了精度,并在第二個(gè)周期(「x2」;青色)持續(xù)改進(jìn)。

此時(shí),您可以選擇一個(gè) MorphNet 網(wǎng)絡(luò)來(lái)滿足較小的 FLOP 預(yù)算?;蛘撸梢酝ㄟ^(guò)將網(wǎng)絡(luò)擴(kuò)展回原始的 FLOP 成本來(lái)完成這個(gè)周期,從而在相同的成本(紫色)下獲得更好的準(zhǔn)確性。再次重復(fù)變形網(wǎng)縮小擴(kuò)展循環(huán)會(huì)導(dǎo)致另一個(gè)精度增加(青色),使總精度增加 1.1%。

結(jié)論

我們已經(jīng)將 MorphNet 應(yīng)用到了谷歌的幾個(gè)量產(chǎn)級(jí)圖像處理模型中。使用 MorphNet 可以在質(zhì)量幾乎沒(méi)有損失的情況下顯著減少模型大小。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:谷歌 MorphNet:讓你的神經(jīng)網(wǎng)絡(luò)更小但更快

文章出處:【微信號(hào):worldofai,微信公眾號(hào):worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    壓印光刻技術(shù)是什么 它是如何工作

    壓印光刻是許多新興應(yīng)用的關(guān)鍵技術(shù),例如微光學(xué)、增強(qiáng)現(xiàn)實(shí)、MEMS和光電傳感器;但它是什么以及它是如何工作的?
    發(fā)表于 07-25 16:15 ?1606次閱讀
    壓印光刻技術(shù)是什么 <b class='flag-5'>它是</b>如何<b class='flag-5'>工作</b>的

    使用正弦發(fā)生器怎么檢查它是如何工作

    大家好!我是Android開發(fā)者,MCU只是我的愛(ài)好。我有DSIC30F3012,我正在嘗試實(shí)現(xiàn)音頻信號(hào)的FFT。我的采樣率是2048赫茲,樣品的數(shù)量是128。我使用正弦發(fā)生器來(lái)檢查它是如何工作
    發(fā)表于 09-18 09:40

    請(qǐng)問(wèn)虛擬儀器是什么?它是怎樣工作的?

    虛擬儀器是什么?它是怎樣工作的?虛擬儀器的優(yōu)勢(shì)有哪些?與傳統(tǒng)儀器相比,虛擬儀器有哪些不足?虛擬儀器能解決什么問(wèn)題和達(dá)到什么效果?
    發(fā)表于 04-15 06:30

    什么是備用電源?它是如何進(jìn)行工作的?

    什么是備用電源?它是如何進(jìn)行工作的?備用電源的作用是什么?有哪些分類?
    發(fā)表于 10-21 08:07

    打印機(jī)的原理是什么?它是如何工作的?

    打印機(jī)的原理是什么?它是如何工作的?
    發(fā)表于 11-11 06:30

    計(jì)算機(jī)總線起什么作用?它是如何工作

    什么是計(jì)算機(jī)?計(jì)算機(jī)的主要特征有哪些?計(jì)算機(jī)總線起什么作用?它是如何工作的?
    發(fā)表于 12-27 06:50

    實(shí)時(shí)時(shí)鐘 (RTC)如何驗(yàn)證它是否正常工作

    我想我已完成實(shí)時(shí)時(shí)鐘 (RTC) 的設(shè)置,但如何驗(yàn)證它是否正常工作?有沒(méi)有辦法輸出時(shí)間戳或檢查文件?我正在使用 STM32WB55 Nucleo 開發(fā)板,目前使用的是 STM32 IDE。
    發(fā)表于 01-05 08:11

    “ One STM instance (STM_7) is tied to Timestamp ”是什么意思,它是如何工作的?

    Q1:“ One STM instance (STM_7) is tied to Timestamp ”是什么意思,它是如何工作的?Q2:“STM_TS”與其他STM實(shí)例有什么區(qū)別嗎?
    發(fā)表于 04-19 08:21

    瘋狂的谷歌,谷歌收購(gòu)了多少公司?

    說(shuō)起谷歌,中國(guó)網(wǎng)友都知道它是一個(gè)外國(guó)的好用的搜索引擎,有的時(shí)候搞點(diǎn)黑科技。但大家可能不知道,谷歌有多壕。
    的頭像 發(fā)表于 01-02 15:36 ?1.7w次閱讀

    谷歌提出MorphNet:網(wǎng)絡(luò)規(guī)模更小、速度更快!

    谷歌已經(jīng)將 MorphNet 應(yīng)用到其多個(gè)生產(chǎn)級(jí)圖像處理模型中。MorphNet 可帶來(lái)模型大小/FLOPs 的顯著降低,且?guī)缀醪粫?huì)造成質(zhì)量損失。
    的頭像 發(fā)表于 04-22 16:15 ?1909次閱讀
    <b class='flag-5'>谷歌</b>提出<b class='flag-5'>MorphNet</b>:網(wǎng)絡(luò)規(guī)模更小、速度更快!

    底層技術(shù)決定 人工智能“跑速”

    錢童心 從DeepMind的人工智能圍棋高手AlphaGo到基因測(cè)序高手AlphaFold,再到近期GoogleAI放出了一種叫做MorphNet神經(jīng)網(wǎng)絡(luò)模型優(yōu)化技術(shù),谷歌總在技術(shù)的最前沿不斷挑戰(zhàn)
    發(fā)表于 07-03 10:08 ?355次閱讀

    什么是以太坊它是如何工作

    以太坊是一個(gè)全新開放的區(qū)塊鏈平臺(tái),它允許任何人在平臺(tái)中建立和使用通過(guò)區(qū)塊鏈技術(shù)運(yùn)行的去中心化應(yīng)用。就像比特幣一樣,以太坊不受任何人控制,也不歸任何人所有——它是一個(gè)開放源代碼項(xiàng)目,由全球范圍內(nèi)的很多人共同創(chuàng)建。
    發(fā)表于 05-15 11:17 ?2751次閱讀

    谷歌計(jì)劃停止Messages在未經(jīng)認(rèn)證的Android上工作

    應(yīng)用在未經(jīng)認(rèn)證的 Android 設(shè)備上工作。 運(yùn)行 Android 系統(tǒng)的設(shè)備如果想要被正式認(rèn)定為“Android”,需要在發(fā)布之前通過(guò)谷歌的認(rèn)證程序。經(jīng)過(guò)認(rèn)證的設(shè)備可以預(yù)裝谷歌的應(yīng)用套件,包括
    的頭像 發(fā)表于 01-21 15:57 ?1675次閱讀

    什么是能量跟蹤 它是如何工作

    套件【Link】 什么是能量跟蹤,它是如何工作的? 產(chǎn)品開發(fā)過(guò)程中分析和記錄系統(tǒng)功耗是非常重要的,特別是對(duì)于電池供電類產(chǎn)品,而另一方面,精確測(cè)量功耗的設(shè)備又非常的昂貴并且不容易掌握。用于
    的頭像 發(fā)表于 01-20 15:13 ?1414次閱讀

    鎖相環(huán)PLL是什么?它是如何工作的?

    今天想來(lái)聊一下芯片設(shè)計(jì)中的一個(gè)重要macro——PLL,全稱Phase lock loop,鎖相環(huán)。我主要就介紹一下它是什么以及它是如何工作的。
    的頭像 發(fā)表于 12-06 15:21 ?2075次閱讀