欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

深度ReLU網(wǎng)絡(luò)的對(duì)應(yīng)淺層網(wǎng)絡(luò)

OpenCV學(xué)堂 ? 來源:OpenCV學(xué)堂 ? 2023-07-03 14:13 ? 次閱讀

只要你用了ReLU,我們就是好朋就是“淺度學(xué)習(xí)”。

最近有研究證明,所有基于ReLU的深度神經(jīng)網(wǎng)絡(luò)都可以重寫為功能相同的3層神經(jīng)網(wǎng)絡(luò)。

基于這個(gè)證明,倫敦國(guó)王學(xué)院的研究團(tuán)隊(duì)還提出一種為任意ReLU網(wǎng)絡(luò)找到相應(yīng)淺層網(wǎng)絡(luò)的算法。

由此產(chǎn)生的淺層網(wǎng)絡(luò)是透明的,可用于解釋網(wǎng)絡(luò)的行為。

只要通過算法,就能找到任意深度ReLU網(wǎng)絡(luò)的對(duì)應(yīng)淺層網(wǎng)絡(luò)。

對(duì)此網(wǎng)友驚呼:我要讀這篇論文,立刻馬上!

任何深度ReLU網(wǎng)絡(luò)都是淺層的

ReLU是深度學(xué)習(xí)領(lǐng)域最常用的一種激活函數(shù),由Nair & Hintonw在2010為限制玻爾茲曼機(jī)(restricted Boltzmann machines)提出的。

由于常常在實(shí)踐中有著比其他常用激勵(lì)函數(shù)(例如邏輯函數(shù))更好的效果,而被深度神經(jīng)網(wǎng)絡(luò)廣泛用于圖像識(shí)別等計(jì)算機(jī)視覺人工智能領(lǐng)域。

論文指出,每個(gè)深度ReLU網(wǎng)絡(luò)都可以轉(zhuǎn)換為一個(gè)功能相同且具有“三個(gè)隱藏層”的淺層網(wǎng)絡(luò)。并提供了一個(gè)找到對(duì)應(yīng)淺層網(wǎng)絡(luò)權(quán)重的算法,提高神經(jīng)網(wǎng)絡(luò)的全局可解釋性。

簡(jiǎn)單來說就是,通過劃分輸入空間,使用線性函數(shù)對(duì)每個(gè)分區(qū)進(jìn)行建模,來實(shí)現(xiàn)深層網(wǎng)絡(luò)淺化。

4ed5791e-18b4-11ee-962d-dac502259ad0.png

具體分為這三步。

4f1b78ba-18b4-11ee-962d-dac502259ad0.png

首先,需要構(gòu)建一個(gè)將線性模型和半空間編碼的第一層,通過使用一個(gè)矩陣來表示半空間條件,其中每個(gè)行向量表示一個(gè)半空間的線性方程。

然后,構(gòu)建第二層,該層根據(jù)輸入的所屬區(qū)域決定哪些邊界是活躍的。

最后,構(gòu)建第三層,通過將輸入與每個(gè)線性模型相乘并使用指示函數(shù)來選擇正確的模型。

基于此,每一個(gè)深度ReLU網(wǎng)絡(luò)都可以被轉(zhuǎn)換為一個(gè)功能上相同的三層網(wǎng)絡(luò),其權(quán)重值在擴(kuò)展實(shí)數(shù)中。

當(dāng)然要完成淺化,還需要一些咒(suan)語(yǔ)(fa)。

根據(jù)論文,使用算法時(shí)只需找到H、c、α、β這些參數(shù),并知道每個(gè)區(qū)域所需的半空間就可以,主要分三步。

首先,識(shí)別可行的模式集,對(duì)于每個(gè)可行模式,計(jì)算全局線性規(guī)劃的參數(shù)A(l)和d(l)。

然后,確定半空間條件,將這些矩陣堆疊起來,確定每個(gè)激活模式的半空間條件。最終得到矩陣H和向量c。

最后,計(jì)算局部線性模型,根據(jù)模型的權(quán)重和激活模式,使用顯式公式,計(jì)算局部線性模型α和β。

4f8cc07e-18b4-11ee-962d-dac502259ad0.png

簡(jiǎn)單理解,就是根據(jù)已訓(xùn)練好的網(wǎng)絡(luò),通過啟發(fā)式搜索在可能的神經(jīng)元激活空間中找到合適的權(quán)重值。

通過構(gòu)建淺層白盒網(wǎng)絡(luò),能夠快速計(jì)算出每個(gè)數(shù)據(jù)點(diǎn)的SHAP值,大大提高數(shù)據(jù)的可解釋性。

實(shí)驗(yàn)表明,通過上面算法就可以找到給定深度ReLU網(wǎng)絡(luò)對(duì)應(yīng)的淺層網(wǎng)絡(luò)的顯式權(quán)重。

網(wǎng)友:實(shí)驗(yàn)很酷,但也有些問題

論文很新穎的提出一個(gè)算法,可以實(shí)現(xiàn)“深轉(zhuǎn)淺”,不過該方法仍有一些缺點(diǎn)。

比如構(gòu)建淺層網(wǎng)絡(luò)使用了無限權(quán)重,盡管這些權(quán)重可以在Python中實(shí)現(xiàn),但不能使用梯度下降進(jìn)行微調(diào)。

當(dāng)然,“找茬兒”這塊,怎能少得了熱心腸的網(wǎng)友。

根據(jù)論文可以發(fā)現(xiàn),如果使用團(tuán)隊(duì)提供的算法,實(shí)驗(yàn)過程中計(jì)算時(shí)間其實(shí)是會(huì)隨著神經(jīng)元數(shù)量增加呈指數(shù)增長(zhǎng)。

所以就有網(wǎng)友提出疑惑:算法運(yùn)行時(shí)間與神經(jīng)元數(shù)量成指數(shù)關(guān)系,12個(gè)神經(jīng)元需要近10分鐘,那計(jì)算一個(gè)普通大小的DNN所需時(shí)間豈不是長(zhǎng)了去了……

網(wǎng)友指出:假設(shè)單層神經(jīng)網(wǎng)絡(luò)可以計(jì)算任何函數(shù),那么對(duì)于任何神經(jīng)網(wǎng)絡(luò)來說,這不是都成立嗎?

對(duì)于這個(gè)研究,也有網(wǎng)友犀利表示:這就是個(gè)「普遍逼近定理」,沒什么大驚小怪的。

不過無論網(wǎng)友怎么說,這篇論文仍然有一些出彩點(diǎn)。

比如,通過這個(gè)方式得到的淺層網(wǎng)絡(luò)是透明的,可以用來生成模型行為的解釋。

此外還提供了用于復(fù)現(xiàn)實(shí)驗(yàn)的代碼,供其他研究人員使用來探索和實(shí)驗(yàn)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:只要你用ReLU,就是“淺度學(xué)習(xí)”:任意ReLU神經(jīng)網(wǎng)絡(luò)都有等效3層網(wǎng)絡(luò)

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    利用深度循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)心電圖降噪

    一個(gè)是它們由堆疊在一起的多個(gè) (> 2) 層組成 - 這 種方法也稱為深度學(xué)習(xí)。這種深層架構(gòu)雖然比典型 的\"淺層\"神經(jīng)網(wǎng)絡(luò)需要更多的計(jì)算能力,但事實(shí)證明,它們?cè)诟鞣N
    發(fā)表于 05-15 14:42

    輕量級(jí)深度學(xué)習(xí)網(wǎng)絡(luò)是什么

    輕量級(jí)深度學(xué)習(xí)網(wǎng)絡(luò)概覽
    發(fā)表于 04-23 14:53

    卷積神經(jīng)網(wǎng)絡(luò)深度卷積網(wǎng)絡(luò):實(shí)例探究及學(xué)習(xí)總結(jié)

    深度學(xué)習(xí)工程師-吳恩達(dá)》03卷積神經(jīng)網(wǎng)絡(luò)深度卷積網(wǎng)絡(luò):實(shí)例探究 學(xué)習(xí)總結(jié)
    發(fā)表于 05-22 17:15

    什么是深度殘差收縮網(wǎng)絡(luò)?

       深度殘差收縮網(wǎng)絡(luò)深度殘差網(wǎng)絡(luò)的一種新的升級(jí)版本,其實(shí)是深度殘差網(wǎng)絡(luò)、注意力機(jī)制(參照Sq
    發(fā)表于 11-26 06:33

    深度神經(jīng)網(wǎng)絡(luò)是什么

    多層感知機(jī) 深度神經(jīng)網(wǎng)絡(luò)in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 與許忠傳,林敏濤和華佳勇合作
    發(fā)表于 07-12 06:35

    深度ReLU網(wǎng)絡(luò)的訓(xùn)練動(dòng)態(tài)過程及其對(duì)泛化能力的影響

    基于這個(gè)框架,我們?cè)噲D用統(tǒng)一的觀點(diǎn)來解釋這些令人費(fèi)解的經(jīng)驗(yàn)現(xiàn)象。本文使用師生設(shè)置,其中給過度參數(shù)化的深度學(xué)生ReLU網(wǎng)絡(luò)的標(biāo)簽,是具有相同深度和未知權(quán)重的固定教師
    的頭像 發(fā)表于 06-15 10:48 ?3393次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>ReLU</b><b class='flag-5'>網(wǎng)絡(luò)</b>的訓(xùn)練動(dòng)態(tài)過程及其對(duì)泛化能力的影響

    一種基于深度學(xué)習(xí)的地下淺層震源定位方法

    針對(duì)地下能量場(chǎng)聚焦模型中能量聚焦點(diǎn)無法有效識(shí)別的冋題,在深度學(xué)習(xí)的基礎(chǔ)上,提出一種地下淺層震源定位方法。利用逆時(shí)振幅疊加的方法將傳感器陣列獲取的震動(dòng)數(shù)據(jù)逆時(shí)重建為三維能量場(chǎng)圖像樣本序列,并將其作為
    發(fā)表于 03-22 15:58 ?10次下載
    一種基于<b class='flag-5'>深度</b>學(xué)習(xí)的地下<b class='flag-5'>淺層</b>震源定位方法

    一種融合深度淺層特征的多視覺癲癇檢測(cè)算法

    。為了獲得更妤的癲癇檢測(cè)效果,提岀了一種融合深度淺層特征的多視角癲癇檢測(cè)算法該算法首先使用FFT和WPD來獲取EEG信號(hào)頻域和時(shí)頻域的淺層特征;然后使用CNN網(wǎng)絡(luò)學(xué)習(xí)得到頻域和時(shí)頻域
    發(fā)表于 04-07 10:58 ?8次下載
    一種融合<b class='flag-5'>深度</b>和<b class='flag-5'>淺層</b>特征的多視覺癲癇檢測(cè)算法

    基于無監(jiān)督淺層神經(jīng)網(wǎng)絡(luò)聯(lián)合學(xué)習(xí)的表示方法

    隨著神經(jīng)網(wǎng)絡(luò)技術(shù)的快速發(fā)展,面向復(fù)雜網(wǎng)絡(luò)數(shù)據(jù)的網(wǎng)絡(luò)表示學(xué)習(xí)方法受到越來越多的關(guān)注,其旨在學(xué)習(xí)網(wǎng)絡(luò)中節(jié)點(diǎn)的低維度潛在表示,并將學(xué)習(xí)到的特征表示有效應(yīng)用于基于圖的各種分析任務(wù)。典型的
    發(fā)表于 04-23 11:22 ?11次下載
    基于無監(jiān)督<b class='flag-5'>淺層</b>神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>聯(lián)合學(xué)習(xí)的表示方法

    改進(jìn)的多尺度深度網(wǎng)絡(luò)手勢(shì)識(shí)別模型

    基于傳統(tǒng)的淺層學(xué)習(xí)網(wǎng)絡(luò)由于過度依賴于人工選擇手勢(shì)特征,因此不能實(shí)時(shí)適應(yīng)復(fù)雜多變的自然場(chǎng)景。在卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)的基礎(chǔ)上,提岀了一種改進(jìn)的多尺度深度網(wǎng)絡(luò)
    發(fā)表于 05-29 14:44 ?8次下載

    基于改進(jìn)郊狼優(yōu)化算法的淺層神經(jīng)網(wǎng)絡(luò)進(jìn)化

    基于改進(jìn)郊狼優(yōu)化算法的淺層神經(jīng)網(wǎng)絡(luò)進(jìn)化
    發(fā)表于 06-24 15:40 ?15次下載

    Dynamic ReLU:根據(jù)輸入動(dòng)態(tài)確定的ReLU

    這是我最近才看到的一篇論文,它提出了動(dòng)態(tài)ReLU (Dynamic ReLU, DY-ReLU),可以將全局上下文編碼為超函數(shù),并相應(yīng)地調(diào)整分段線性激活函數(shù)。
    的頭像 發(fā)表于 09-01 17:28 ?748次閱讀
    Dynamic <b class='flag-5'>ReLU</b>:根據(jù)輸入動(dòng)態(tài)確定的<b class='flag-5'>ReLU</b>

    淺析深度神經(jīng)網(wǎng)絡(luò)壓縮與加速技術(shù)

    深度神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)的一種框架,它是一種具備至少一個(gè)隱層的神經(jīng)網(wǎng)絡(luò)。與淺層神經(jīng)網(wǎng)絡(luò)類似
    的頭像 發(fā)表于 10-11 09:14 ?801次閱讀
    淺析<b class='flag-5'>深度</b>神經(jīng)<b class='flag-5'>網(wǎng)絡(luò)</b>壓縮與加速技術(shù)

    深度神經(jīng)網(wǎng)絡(luò)模型有哪些

    模型: 多層感知器(Multilayer Perceptron,MLP): 多層感知器是最基本的深度神經(jīng)網(wǎng)絡(luò)模型,由多個(gè)全連接層組成。每個(gè)隱藏層的神經(jīng)元數(shù)量可以不同,通常使用激活函數(shù)如ReLU
    的頭像 發(fā)表于 07-02 10:00 ?1652次閱讀

    殘差網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)

    殘差網(wǎng)絡(luò)(Residual Network,通常簡(jiǎn)稱為ResNet) 是深度神經(jīng)網(wǎng)絡(luò)的一種 ,其獨(dú)特的結(jié)構(gòu)設(shè)計(jì)在解決深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失和梯度爆炸問題上取得了顯著的突破,并因此成為
    的頭像 發(fā)表于 07-11 18:13 ?1194次閱讀