欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

什么是卷積以及我們?cè)撊绾螒?yīng)對(duì)

電子工程技術(shù) ? 來源:電子工程技術(shù) ? 作者:電子工程技術(shù) ? 2020-10-17 10:06 ? 次閱讀

有太多的公開課、教程在反復(fù)傳頌卷積神經(jīng)網(wǎng)絡(luò)的好,卻都沒有講什么是“卷積”,似乎默認(rèn)所有讀者都有相關(guān)基礎(chǔ)。這篇外文既友好又深入,所以翻譯了過來。文章高級(jí)部分通過流體力學(xué)量子力學(xué)等解釋卷積的做法在我看來有點(diǎn)激進(jìn),這些領(lǐng)域恐怕比卷積更深?yuàn)W,所以只需簡(jiǎn)略看看即可。以下是正文: 卷積現(xiàn)在可能是深度學(xué)習(xí)中最重要的概念。正是靠著卷積和卷積神經(jīng)網(wǎng)絡(luò),深度學(xué)習(xí)才超越了幾乎其他所有的機(jī)器學(xué)習(xí)手段。但卷積為什么如此強(qiáng)大?它的原理是什么?在這篇博客中我將講解卷積及相關(guān)概念,幫助你徹底地理解它。 網(wǎng)絡(luò)上已經(jīng)有不少博客講解卷積和深度學(xué)習(xí)中的卷積,但我發(fā)現(xiàn)它們都一上來就加入了太多不必要的數(shù)學(xué)細(xì)節(jié),艱深晦澀,不利于理解主旨。這篇博客雖然也有很多數(shù)學(xué)細(xì)節(jié),但我會(huì)以可視化的方式一步步展示它們,確保每個(gè)人都可以理解。文章第一部分旨在幫助讀者理解卷積的概念和深度學(xué)習(xí)中的卷積網(wǎng)絡(luò)。第二部分引入了一些高級(jí)的概念,旨在幫助深度學(xué)習(xí)方向的研究者和高級(jí)玩家進(jìn)一步加深對(duì)卷積的理解。

什么是卷積

整篇博客都會(huì)探討這個(gè)問題,但先把握行文脈絡(luò)會(huì)很有幫助。那么粗略來講,什么是卷積呢? 你可以把卷積想象成一種混合信息的手段。想象一下裝滿信息的兩個(gè)桶,我們把它們倒入一個(gè)桶中并且通過某種規(guī)則攪拌攪拌。也就是說卷積是一種混合兩種信息的流程。 卷積也可以形式化地描述,事實(shí)上,它就是一種數(shù)學(xué)運(yùn)算,跟減加乘除沒有本質(zhì)的區(qū)別。雖然這種運(yùn)算本身很復(fù)雜,但它非常有助于簡(jiǎn)化更復(fù)雜的表達(dá)式。在物理和工程上,卷積被廣泛地用于化簡(jiǎn)等式——等會(huì)兒簡(jiǎn)單地形式化描述卷積之后——我們將把這些領(lǐng)域的思想和深度學(xué)習(xí)聯(lián)系起來,以加深對(duì)卷積的理解。但現(xiàn)在我們先從實(shí)用的角度理解卷積。

我們?nèi)绾螌?duì)圖像應(yīng)用卷積

當(dāng)我們?cè)趫D像上應(yīng)用卷積時(shí),我們?cè)趦蓚€(gè)維度上執(zhí)行卷積——水平和豎直方向。我們混合兩桶信息:第一桶是輸入的圖像,由三個(gè)矩陣構(gòu)成——RGB三通道,其中每個(gè)元素都是0到255之間的一個(gè)整數(shù)。第二個(gè)桶是卷積核(kernel),單個(gè)浮點(diǎn)數(shù)矩陣。可以將卷積核的大小和模式想象成一個(gè)攪拌圖像的方法。卷積核的輸出是一幅修改后的圖像,在深度學(xué)習(xí)中經(jīng)常被稱作feature map。對(duì)每個(gè)顏色通道都有一個(gè)feature map。

邊緣檢測(cè)卷積核的效果這是怎么做到的呢,我們現(xiàn)在演示一下如何通過卷積來混合這兩種信息。一種方法是從輸入圖片中取出一個(gè)與卷積核大小相同的區(qū)塊——這里假設(shè)圖片為100×100100×100,卷積核大小為3×33×3,那么我們?nèi)〕龅膮^(qū)塊大小就是3×33×3——然后對(duì)每對(duì)相同位置的元素執(zhí)行乘法后求和(不同于矩陣乘法,卻類似向量?jī)?nèi)積,這里是兩個(gè)相同大小的矩陣的“點(diǎn)乘”)。乘積的和就生成了feature map中的一個(gè)像素。當(dāng)一個(gè)像素計(jì)算完畢后,移動(dòng)一個(gè)像素取下一個(gè)區(qū)塊執(zhí)行相同的運(yùn)算。當(dāng)無法再移動(dòng)取得新區(qū)塊的時(shí)候?qū)eature map的計(jì)算就結(jié)束了。這個(gè)流程可以用如下的動(dòng)畫演示:

RAM是輸入圖片,Buffer是feature map 你可能注意到這里有個(gè)正規(guī)化因子m,這里m的值為kernel的大小9;這是為了保證輸入圖像和feature map的亮度相同。

為什么機(jī)器學(xué)習(xí)中圖像卷積有用

圖像中可能含有很多我們不關(guān)心的噪音。一個(gè)好例子是我和Jannek Thomas在Burda Bootcamp做的項(xiàng)目。Burda Bootcamp是一個(gè)讓學(xué)生像黑客馬拉松一樣在非常短的時(shí)間內(nèi)創(chuàng)造技術(shù)風(fēng)暴的實(shí)驗(yàn)室。與9名同事一起,我們?cè)?個(gè)月內(nèi)做了11個(gè)產(chǎn)品出來。其中之一是針對(duì)時(shí)尚圖像用深度編碼器做的搜索引擎:你上傳一幅時(shí)尚服飾的圖片,編碼器自動(dòng)找出款式類似的服飾。 如果你想要區(qū)分衣服的式樣,那么衣服的顏色就不那么重要了;另外像商標(biāo)之類的細(xì)節(jié)也不那么重要。最重要的可能是衣服的外形。一般來講,女裝襯衫的形狀與襯衣、夾克和褲子的外觀非常不同。如果我們過濾掉這些多余的噪音,那我們的算法就不會(huì)因顏色、商標(biāo)之類的細(xì)節(jié)分心了。我們可以通過卷積輕松地實(shí)現(xiàn)這項(xiàng)處理。 我的同事Jannek Thomas通過索貝爾邊緣檢測(cè)濾波器(與上上一幅圖類似)去掉了圖像中除了邊緣之外的所有信息——這也是為什么卷積應(yīng)用經(jīng)常被稱作濾波而卷積核經(jīng)常被稱作濾波器(更準(zhǔn)確的定義在下面)的原因。由邊緣檢測(cè)濾波器生成的feature map對(duì)區(qū)分衣服類型非常有用,因?yàn)橹挥型庑涡畔⒈槐A粝聛怼?/p>

彩圖的左上角是搜索query,其他是搜索結(jié)果,你會(huì)發(fā)現(xiàn)自動(dòng)編碼器真的只關(guān)注衣服的外形,而不是顏色。 再進(jìn)一步:有許多不同的核可以產(chǎn)生多種feature map,比如銳化圖像(強(qiáng)調(diào)細(xì)節(jié)),或者模糊圖像(減少細(xì)節(jié)),并且每個(gè)feature map都可能幫助算法做出決策(一些細(xì)節(jié),比如衣服上有3個(gè)紐扣而不是兩個(gè),可能可以區(qū)分一些服飾)。 使用這種手段——讀入輸入、變換輸入、然后把feature map喂給某個(gè)算法——被稱為特征工程。特征工程非常難,很少有資料幫你上手。造成的結(jié)果是,很少有人能熟練地在多個(gè)領(lǐng)域應(yīng)用特征工程。特征工程是——純手工——也是Kaggle比賽中最重要的技能。特征工程這么難的原因是,對(duì)每種數(shù)據(jù)每種問題,有用的特征都是不同的:圖像類任務(wù)的特征可能對(duì)時(shí)序類任務(wù)不起作用;即使兩個(gè)任務(wù)都是圖像類的,也很難找出相同的有效特征,因?yàn)橐暣R(shí)別的物體的不同,有用的特征也不同。這非常依賴經(jīng)驗(yàn)。 所以特征工程對(duì)新手來講特別困難。不過對(duì)圖像而言,是否可以利用卷積核自動(dòng)找出某個(gè)任務(wù)中最適合的特征?

進(jìn)入卷積神經(jīng)網(wǎng)絡(luò)

卷積神經(jīng)網(wǎng)絡(luò)就是干這個(gè)的。不同于剛才使用固定數(shù)字的卷積核,我們賦予參數(shù)給這些核,參數(shù)將在數(shù)據(jù)上得到訓(xùn)練。隨著卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,這些卷積核為了得到有用信息,在圖像或feature map上的過濾工作會(huì)變得越來越好。這個(gè)過程是自動(dòng)的,稱作特征學(xué)習(xí)。特征學(xué)習(xí)自動(dòng)適配新的任務(wù):我們只需在新數(shù)據(jù)上訓(xùn)練一下自動(dòng)找出新的過濾器就行了。這是卷積神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大的原因——不需要繁重的特征工程了! 通常卷積神經(jīng)網(wǎng)絡(luò)并不學(xué)習(xí)單一的核,而是同時(shí)學(xué)習(xí)多層級(jí)的多個(gè)核。比如一個(gè)32x16x16的核用到256×256的圖像上去會(huì)產(chǎn)生32個(gè)241×241()的feature map。所以自動(dòng)地得到了32個(gè)有用的新特征。這些特征可以作為下個(gè)核的輸入。一旦學(xué)習(xí)到了多級(jí)特征,我們簡(jiǎn)單地將它們傳給一個(gè)全連接的簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),由它完成分類。這就是在概念上理解卷積神經(jīng)網(wǎng)絡(luò)所需的全部知識(shí)了(池化也是個(gè)重要的主題,但還是在另一篇博客中講吧)。

第二部分:高級(jí)概念

我們現(xiàn)在對(duì)卷積有了一個(gè)良好的初步認(rèn)識(shí),也知道了卷積神經(jīng)網(wǎng)絡(luò)在干什么、為什么它如此強(qiáng)大?,F(xiàn)在讓我們深入了解一下卷積運(yùn)算中到底發(fā)生了什么。我們將認(rèn)識(shí)到剛才對(duì)卷積的講解是粗淺的,并且這里有更優(yōu)雅的解釋。通過深入理解,我們可以理解卷積的本質(zhì)并將其應(yīng)用到許多不同的數(shù)據(jù)上去。萬事開頭難,第一步是理解卷積原理。

卷積定理

要理解卷積,不得不提convolution theorem,它將時(shí)域和空域上的復(fù)雜卷積對(duì)應(yīng)到了頻域中的元素間簡(jiǎn)單的乘積。這個(gè)定理非常強(qiáng)大,在許多科學(xué)領(lǐng)域中得到了廣泛應(yīng)用。卷積定理也是快速傅里葉變換算法被稱為20世紀(jì)最重要的算法之一的一個(gè)原因。

第一個(gè)等式是一維連續(xù)域上兩個(gè)連續(xù)函數(shù)的卷積;第二個(gè)等式是二維離散域(圖像)上的卷積。這里指的是卷積,指的是傅里葉變換,表示傅里葉逆變換,是一個(gè)正規(guī)化常量。這里的“離散”指的是數(shù)據(jù)由有限個(gè)變量構(gòu)成(像素);一維指的是數(shù)據(jù)是一維的(時(shí)間),圖像則是二維的,視頻則是三維的。 為了更好地理解卷積定理,我們還需要理解數(shù)字圖像處理中的傅里葉變換。

快速傅里葉變換

快速傅里葉變換是一種將時(shí)域和空域中的數(shù)據(jù)轉(zhuǎn)換到頻域上去的算法。傅里葉變換用一些正弦和余弦波的和來表示原函數(shù)。必須注意的是,傅里葉變換一般涉及到復(fù)數(shù),也就是說一個(gè)實(shí)數(shù)被變換為一個(gè)具有實(shí)部和虛部的復(fù)數(shù)。通常虛部只在一部分領(lǐng)域有用,比如將頻域變換回到時(shí)域和空域上;而在這篇博客里會(huì)被忽略掉。你可以在下面看到一個(gè)信號(hào)(一個(gè)以時(shí)間為參數(shù)的有周期的函數(shù)通常稱為信號(hào))是如何被傅里葉變換的:

紅色是時(shí)域,藍(lán)色為頻域你也許會(huì)說從沒見過這些東西,但我敢肯定你在生活中是見過的:如果紅色是一首音樂的話,那么藍(lán)色值就是你在你的MP3播放器屏幕上看到的頻譜:

傅里葉域上的圖像

我們?nèi)绾蜗胂髨D片的頻率呢?想象一張只有兩種模式的紙片,現(xiàn)在把紙片豎起來順著線條的方向看過去,就會(huì)看到一個(gè)一個(gè)的亮點(diǎn)。這些以一定間隔分割黑白部分的波就代表著頻率。在頻域中,低頻率更接近中央而高頻率更接近邊緣。頻域中高強(qiáng)度(亮度、白色)的位置代表著原始圖像亮度改變的方向。這一點(diǎn)在接下來這張圖與其對(duì)數(shù)傅里葉變換(對(duì)傅里葉變換的實(shí)部取對(duì)數(shù),這樣可以減小像素亮度的差別,便于觀察更廣的亮度區(qū)域)中特別明顯:

我們馬上就可以發(fā)現(xiàn)傅里葉變換包含了關(guān)于物體朝向的信息。如果物體被旋轉(zhuǎn)了一個(gè)角度,從圖像像素上可能很難判斷,但從頻域上可以很明顯地看出來。 這是個(gè)很重要的啟發(fā),基于傅里葉定理,我們知道卷積神經(jīng)網(wǎng)絡(luò)在頻域上檢測(cè)圖像并且捕捉到了物體的方向信息。于是卷積神經(jīng)網(wǎng)絡(luò)就比傳統(tǒng)算法更擅長(zhǎng)處理旋轉(zhuǎn)后的圖像(雖然還是比不上人類)。

頻率過濾與卷積

為什么卷積經(jīng)常被描述為過濾,為什么卷積核經(jīng)常被稱為過濾器呢?通過下一個(gè)例子可以解釋:

如果我們對(duì)圖像執(zhí)行傅里葉變換,并且乘以一個(gè)圓形(背景填充黑色,也就是0),我們可以過濾掉所有的高頻值(它們會(huì)成為0,因?yàn)樘畛涫?)。注意過濾后的圖像依然有條紋模式,但圖像質(zhì)量下降了很多——這就是jpeg壓縮算法的工作原理(雖然有些不同但用了類似的變換),我們變換圖形,然后只保留部分頻率,最后將其逆變換為二維圖片;壓縮率就是黑色背景與圓圈的比率。 我們現(xiàn)在將圓圈想象為一個(gè)卷積核,然后就有了完整的卷積過程——就像在卷積神經(jīng)網(wǎng)絡(luò)中看到的那樣。要穩(wěn)定快速地執(zhí)行傅里葉變換還需要許多技巧,但這就是基本理念了。 現(xiàn)在我們已經(jīng)理解了卷積定理和傅里葉變換,我們可以將這些理念應(yīng)用到其他科學(xué)領(lǐng)域,以加強(qiáng)我們對(duì)深度學(xué)習(xí)中的卷積的理解。

流體力學(xué)的啟發(fā)

流體力學(xué)為空氣和水創(chuàng)建了大量的微分方程模型,傅里葉變換不但簡(jiǎn)化了卷積,也簡(jiǎn)化了微分,或者說任何利用了微分方程的領(lǐng)域。有時(shí)候得到解析解的唯一方法就是對(duì)微分方程左右同時(shí)執(zhí)行傅里葉變換。在這個(gè)過程中,我們常常將解寫成兩個(gè)函數(shù)卷積的形式,以得到更簡(jiǎn)單的表達(dá)。這是在一個(gè)維度上的應(yīng)用,還有在兩個(gè)維度上的應(yīng)用,比如天文學(xué)。

擴(kuò)散

你可以混合兩種液體(牛奶和咖啡),只要施加一個(gè)外力(湯勺攪拌)——這被稱為對(duì)流,而且是個(gè)很快的過程。你也可以耐心等待兩種液體自然混合——這被稱為擴(kuò)散,通常是很慢的過程。 想象一下,一個(gè)魚缸被一塊板子隔開,兩邊各有不同濃度的鹽水。抽掉板子后,兩邊的鹽水會(huì)逐步混合為同一個(gè)濃度。濃度差越大,這個(gè)過程越劇烈。 現(xiàn)在想象一下,一個(gè)魚缸被 256×256 個(gè)板子分割為 256×256 個(gè)部分(這個(gè)數(shù)字似乎不對(duì)),每個(gè)部分都有不同濃度的鹽水。如果你去掉所有的擋板,濃度類似的小塊間將不會(huì)有多少擴(kuò)散,但濃度差異大的區(qū)塊間有巨大的擴(kuò)散。這些小塊就是像素點(diǎn),而濃度就是像素的亮度。濃度的擴(kuò)散就是像素亮度的擴(kuò)散。 這說明,擴(kuò)散現(xiàn)象與卷積有相似點(diǎn)——初始狀態(tài)下不同濃度的液體,或不同強(qiáng)度的像素。為了完成下一步的解釋,我們還需要理解傳播子。

理解傳播子

傳播子就是密度函數(shù),表示流體微粒應(yīng)該往哪個(gè)方向傳播。問題是神經(jīng)網(wǎng)絡(luò)中沒有這樣的概率函數(shù),只有一個(gè)卷積核——我們要如何統(tǒng)一這兩種概念呢? 我們可以通過正規(guī)化來講卷積核轉(zhuǎn)化為概率密度函數(shù)。這有點(diǎn)像計(jì)算輸出值的softmax。下面就是對(duì)第一個(gè)例子中的卷積核執(zhí)行的softmax結(jié)果:

現(xiàn)在我們就可以從擴(kuò)散的角度來理解圖像上的卷積了。我們可以把卷積理解為兩個(gè)擴(kuò)散流程。首先,當(dāng)像素亮度改變時(shí)(黑色到白色等)會(huì)發(fā)生擴(kuò)散;然后某個(gè)區(qū)域的擴(kuò)散滿足卷積核對(duì)應(yīng)的概率分布。這意味著卷積核正在處理的區(qū)域中的像素點(diǎn)必須按照這些概率來擴(kuò)散。 在上面那個(gè)邊緣檢測(cè)器中,幾乎所有臨近邊緣的信息都會(huì)聚集到邊緣上(這在流體擴(kuò)散中是不可能的,但這里的解釋在數(shù)學(xué)上是成立的)。比如說所有低于0.0001的像素都非??赡芰鲃?dòng)到中間并累加起來。與周圍像素區(qū)別最大的區(qū)域會(huì)成為強(qiáng)度的集中地,因?yàn)閿U(kuò)散最劇烈。反過來說,強(qiáng)度最集中的地方說明與周圍對(duì)比最強(qiáng)烈,這也就是物體的邊緣所在,這解釋了為什么這個(gè)核是一個(gè)邊緣檢測(cè)器。 所以我們就得到了物理解釋:卷積是信息的擴(kuò)散。我們可以直接把這種解釋運(yùn)用到其他核上去,有時(shí)候我們需要先執(zhí)行一個(gè)softmax正規(guī)化才能解釋,但一般來講核中的數(shù)字已經(jīng)足夠說明它想要干什么。比如說,你是否能推斷下面這個(gè)核的的意圖?

等等,有點(diǎn)迷惑

對(duì)一個(gè)概率化的卷積核,怎么會(huì)有確定的功能?我們必須根據(jù)核對(duì)應(yīng)的概率分布也就是傳播子來計(jì)算單個(gè)粒子的擴(kuò)散不是嗎? 是的,確實(shí)如此。但是,如果你取一小部分液體,比如一滴水,你仍然有幾百萬水分子。雖然單個(gè)分子的隨機(jī)移動(dòng)滿足傳播子,但大量的分子宏觀上的表現(xiàn)是基本確定的。這是統(tǒng)計(jì)學(xué)上的解釋,也是流體力學(xué)的解釋。我們可以把傳播子的概率分布解釋為信息或說像素亮度的平均分布;也就是說我們的解釋從流體力學(xué)的角度來講是沒問題的。話說回來,這里還有一個(gè)卷積的隨機(jī)解釋。

量子力學(xué)的啟發(fā)

傳播子是量子力學(xué)中的重要概念。在量子力學(xué)中,一個(gè)微??赡芴幱谝环N疊加態(tài),此時(shí)它有兩個(gè)或兩個(gè)以上屬性使其無法確定位于觀測(cè)世界中的具體位置。比如,一個(gè)微??赡芡瑫r(shí)存在于兩個(gè)不同的位置。 但是如果你測(cè)量微粒的狀態(tài)——比如說現(xiàn)在微粒在哪里——它就只能存在于一個(gè)具體位置了。換句話說,你通過觀測(cè)破壞了微粒的疊加態(tài)。傳播子就描述了微粒出現(xiàn)位置的概率分布。比如說在測(cè)量后一個(gè)微??赡堋鶕?jù)傳播子的概率函數(shù)——30%在A,70%在B。 通過量子糾纏,幾個(gè)粒子就可以同時(shí)儲(chǔ)存上百或上百萬個(gè)狀態(tài)——這就是量子計(jì)算機(jī)的威力。 如果我們將這種解釋用于深度學(xué)習(xí),我們可以把圖片想象為位于疊加態(tài),于是在每個(gè)3*3的區(qū)塊中,每個(gè)像素同時(shí)出現(xiàn)在9個(gè)位置。一旦我們應(yīng)用了卷積,我們就執(zhí)行了一次觀測(cè),然后每個(gè)像素就坍縮到滿足概率分布的單個(gè)位置上了,并且得到的單個(gè)像素是所有像素的平均值。為了使這種解釋成立,必須保證卷積是隨機(jī)過程。這意味著,同一個(gè)圖片同一個(gè)卷積核會(huì)產(chǎn)生不同的結(jié)果。這種解釋沒有顯式地把誰比作誰,但可能啟發(fā)你如何把卷積用成隨機(jī)過程,或如何發(fā)明量子計(jì)算機(jī)上的卷積網(wǎng)絡(luò)算法。量子算法能夠在線性時(shí)間內(nèi)計(jì)算出卷積核描述的所有可能的狀態(tài)組合。

概率論的啟發(fā)

卷積與互相關(guān)緊密相連。互相關(guān)是一種衡量小段信息(幾秒鐘的音樂片段)與大段信息(整首音樂)之間相似度的一種手段(youtube使用了類似的技術(shù)檢測(cè)侵權(quán)視頻)。

雖然互相關(guān)的公式看起來很難,但通過如下手段我們可以馬上看到它與深度學(xué)習(xí)的聯(lián)系。在圖片搜索中,我們簡(jiǎn)單地將query圖片上下顛倒作為核然后通過卷積進(jìn)行互相關(guān)檢驗(yàn),結(jié)果會(huì)得到一張有一個(gè)或多個(gè)亮點(diǎn)的圖片,亮點(diǎn)所在的位置就是人臉?biāo)诘奈恢谩?/p>

這個(gè)例子也展示了通過補(bǔ)零來使傅里葉變換穩(wěn)定的一種技巧,許多版本的傅里葉變換都使用了這種技巧。另外還有使用了其他padding技巧:比如平鋪核,分治等等。我不會(huì)展開講,關(guān)于傅里葉變換的文獻(xiàn)太多了,里面的技巧特別多——特別是對(duì)圖像來講。 在更底層,卷積網(wǎng)絡(luò)第一層不會(huì)執(zhí)行互相關(guān)校驗(yàn),因?yàn)榈谝粚訄?zhí)行的是邊緣檢測(cè)。后面的層得到的都是更抽象的特征,就有可能執(zhí)行互相關(guān)了??梢韵胂筮@些亮點(diǎn)像素會(huì)傳遞給檢測(cè)人臉的單元(Google Brain項(xiàng)目的網(wǎng)絡(luò)結(jié)構(gòu)中有一些單元專門識(shí)別人臉、貓等等;也許用的是互相關(guān)?)

統(tǒng)計(jì)學(xué)的啟發(fā)

統(tǒng)計(jì)模型和機(jī)器學(xué)習(xí)模型的區(qū)別是什么?統(tǒng)計(jì)模型只關(guān)心很少的、可以解釋的變量。它們的目的經(jīng)常是回答問題:藥品A比藥品B好嗎? 機(jī)器學(xué)習(xí)模型是專注于預(yù)測(cè)效果的:對(duì)于年齡X的人群,藥品A比B的治愈率高17%,對(duì)年齡Y則是23%。 機(jī)器學(xué)習(xí)模型通常比統(tǒng)計(jì)模型更擅長(zhǎng)預(yù)測(cè),但它們不是那么可信。統(tǒng)計(jì)模型更擅長(zhǎng)得到準(zhǔn)確可信的結(jié)果:就算藥品A比B好17%,我們也不知道這是不是偶然,我們需要統(tǒng)計(jì)模型來判斷。 對(duì)時(shí)序數(shù)據(jù),有兩種重要的模型:weighted moving average 和autoregressive模型,后者可歸入ARIMA model (autoregressive integrated moving average model)。比起LSTM,ARIMA很弱。但在低維度數(shù)據(jù)(1-5維)上,ARIMA非常健壯。雖然它們有點(diǎn)難以解釋,但ARIMA絕不是像深度學(xué)習(xí)算法那樣的黑盒子。如果你需要一個(gè)可信的模型,這是個(gè)巨大的優(yōu)勢(shì)。 我們可以將這些統(tǒng)計(jì)模型寫成卷積的形式,然后深度學(xué)習(xí)中的卷積就可以解釋為產(chǎn)生局部ARIMA特征的函數(shù)了。這兩種形式并不完全重合,使用需謹(jǐn)慎。

C是一個(gè)以核為參數(shù)的函數(shù),white noise是正規(guī)化的均值為0方差為1的互不相關(guān)的數(shù)據(jù)。 當(dāng)我們預(yù)處理數(shù)據(jù)的時(shí)候,經(jīng)常將數(shù)據(jù)處理為類似white noise的形式:將數(shù)據(jù)移動(dòng)到均值為0,將方差調(diào)整為1。我們很少去除數(shù)據(jù)的相關(guān)性,因?yàn)橛?jì)算復(fù)雜度高。但是在概念上是很簡(jiǎn)單的,我們旋轉(zhuǎn)坐標(biāo)軸以重合數(shù)據(jù)的特征向量:

現(xiàn)在如果我們將C作為bias,我們就會(huì)覺得這與卷積神經(jīng)網(wǎng)絡(luò)很像。所以卷積層的輸出可被解釋為白噪音數(shù)據(jù)經(jīng)過autoregressive model的輸出。 weighted moving average的解釋更簡(jiǎn)單:就是輸入數(shù)據(jù)與某個(gè)固定的核的卷積??纯次哪┑母咚蛊交司蜁?huì)明白這個(gè)解釋。高斯平滑核可以被看做每個(gè)像素與其鄰居的平均,或者說每個(gè)像素被其鄰居平均(邊緣模糊)。 雖然單個(gè)核無法同時(shí)創(chuàng)建autoregressive 和 weighted moving average 特征,但我們可以使用多個(gè)核來產(chǎn)生不同的特征。

總結(jié)

這篇博客中我們知道了卷積是什么、為什么在深度學(xué)習(xí)中這么有用。圖片區(qū)塊的解釋很容易理解和計(jì)算,但有其理論局限性。我們通過學(xué)習(xí)傅里葉變換知道傅里葉變換后的時(shí)域上有很多關(guān)于物體朝向的信息。通過強(qiáng)大的卷積定理我們理解了卷積是一種在像素間的信息流動(dòng)。之后我們拓展了量子力學(xué)中傳播子的概念,得到了一個(gè)確定過程中的隨機(jī)解釋。我們展示了互相關(guān)與卷積的相似性,并且卷積網(wǎng)絡(luò)的性能可能是基于feature map間的互相關(guān)程度的,互相關(guān)程度是通過卷積校驗(yàn)的。最后我們將卷積與兩種統(tǒng)計(jì)模型關(guān)聯(lián)了起來。 個(gè)人來講,我覺得寫這篇博客很有趣。曾經(jīng)很長(zhǎng)一段時(shí)間我都覺得本科的數(shù)學(xué)和統(tǒng)計(jì)課是浪費(fèi)時(shí)間,因?yàn)樗鼈兲粚?shí)用了(哪怕是應(yīng)用數(shù)學(xué))。但之后——就像突然中大獎(jiǎng)一樣——這些知識(shí)都相互串起來了并且?guī)Я诵碌睦斫?。我覺得這是個(gè)絕妙的例子,啟示我們應(yīng)該耐心地學(xué)習(xí)所有的大學(xué)課程——哪怕它們一開始看起來沒有用。

責(zé)任編輯:xj

原文標(biāo)題:卷積為什么如此強(qiáng)大?理解深度學(xué)習(xí)中的卷積

文章出處:【微信公眾號(hào):電子工程技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 卷積
    +關(guān)注

    關(guān)注

    0

    文章

    95

    瀏覽量

    18555
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5518

    瀏覽量

    121613

原文標(biāo)題:卷積為什么如此強(qiáng)大?理解深度學(xué)習(xí)中的卷積

文章出處:【微信號(hào):EngicoolArabic,微信公眾號(hào):電子工程技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    高斯濾波的卷積核怎么確定

    高斯濾波的卷積核確定主要依賴于高斯函數(shù)的特性以及圖像處理的具體需求。以下是確定高斯濾波卷積核的幾個(gè)關(guān)鍵步驟: 一、確定卷積核的大小 卷積核形
    的頭像 發(fā)表于 09-29 09:29 ?787次閱讀

    如何在Tensorflow中實(shí)現(xiàn)反卷積

    在TensorFlow中實(shí)現(xiàn)反卷積(也稱為轉(zhuǎn)置卷積或分?jǐn)?shù)步長(zhǎng)卷積)是一個(gè)涉及多個(gè)概念和步驟的過程。反卷積在深度學(xué)習(xí)領(lǐng)域,特別是在圖像分割、圖像超分辨率、
    的頭像 發(fā)表于 07-14 10:46 ?721次閱讀

    基于PyTorch的卷積核實(shí)例應(yīng)用

    和應(yīng)用卷積操作變得簡(jiǎn)單而高效。本文將以PyTorch為基礎(chǔ),深入探討卷積核的實(shí)例應(yīng)用,包括其定義、實(shí)現(xiàn)方式、以及在實(shí)際場(chǎng)景中的應(yīng)用。
    的頭像 發(fā)表于 07-11 15:19 ?558次閱讀

    圖像處理中的卷積運(yùn)算

    卷積運(yùn)算是圖像處理中一種極其重要的操作,廣泛應(yīng)用于圖像濾波、邊緣檢測(cè)、特征提取等多個(gè)方面。它基于一個(gè)核(或稱為卷積核、濾波器)與圖像進(jìn)行相乘并求和的過程,通過這一操作可以實(shí)現(xiàn)對(duì)圖像的平滑、銳化、邊緣檢測(cè)等多種效果。本文將從卷積運(yùn)
    的頭像 發(fā)表于 07-11 15:15 ?2713次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本概念、原理及特點(diǎn)

    的基本概念、原理、特點(diǎn)以及在不同領(lǐng)域的應(yīng)用情況。 一、卷積神經(jīng)網(wǎng)絡(luò)的基本概念 卷積神經(jīng)網(wǎng)絡(luò)是一種深度學(xué)習(xí)算法,它由多層卷積層和池化層堆疊而成。卷積
    的頭像 發(fā)表于 07-11 14:38 ?1395次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的卷積操作

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)中的卷積操作是其核心組成部分,對(duì)于圖像識(shí)別、語音識(shí)別、自然語言處理等領(lǐng)域具有重要意義。本文將從卷積操作的基本概念、原理、過程、特點(diǎn)及其在CNN中的
    的頭像 發(fā)表于 07-04 16:10 ?1642次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)示例

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是一種深度學(xué)習(xí)模型,主要用于處理具有網(wǎng)格結(jié)構(gòu)的數(shù)據(jù),如圖像。CNN通過卷積層自動(dòng)提取圖像特征,然后通過全連接層進(jìn)行
    的頭像 發(fā)表于 07-03 10:51 ?527次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn)原理

    、訓(xùn)練過程以及應(yīng)用場(chǎng)景。 卷積神經(jīng)網(wǎng)絡(luò)的基本原理 1.1 卷積操作 卷積神經(jīng)網(wǎng)絡(luò)的核心是卷積操作。卷積
    的頭像 發(fā)表于 07-03 10:49 ?675次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類、目標(biāo)檢測(cè)、語義分割等領(lǐng)域。本文將詳細(xì)介紹CNN在分類任務(wù)中的應(yīng)用,包括基本結(jié)構(gòu)、關(guān)鍵技術(shù)、常見網(wǎng)絡(luò)架構(gòu)以及實(shí)際應(yīng)用案例。 引言 1.1
    的頭像 發(fā)表于 07-03 09:28 ?778次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    、訓(xùn)練過程以及應(yīng)用場(chǎng)景。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本概念 1.1 卷積神經(jīng)網(wǎng)絡(luò)的定義 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋深度學(xué)習(xí)模型,其核心思想是利用卷積
    的頭像 發(fā)表于 07-03 09:15 ?541次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理與實(shí)現(xiàn)

    1.卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、視頻分析、自然語言處理等領(lǐng)域。 卷積神經(jīng)網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò),其
    的頭像 發(fā)表于 07-02 16:47 ?743次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理和應(yīng)用范圍

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識(shí)別、語音識(shí)別、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積神經(jīng)網(wǎng)絡(luò)的基本原理
    的頭像 發(fā)表于 07-02 15:30 ?1435次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理是什么

    基本概念、結(jié)構(gòu)、訓(xùn)練過程以及應(yīng)用場(chǎng)景。 卷積神經(jīng)網(wǎng)絡(luò)的基本概念 1.1 神經(jīng)網(wǎng)絡(luò) 神經(jīng)網(wǎng)絡(luò)是一種受人腦神經(jīng)元結(jié)構(gòu)啟發(fā)的數(shù)學(xué)模型,由大量的節(jié)點(diǎn)(神經(jīng)元)和連接這些節(jié)點(diǎn)的邊(突觸)組成。每個(gè)節(jié)點(diǎn)可以接收輸入信號(hào),通過激活函數(shù)處理信號(hào),并將處理后的信號(hào)傳遞給其他節(jié)
    的頭像 發(fā)表于 07-02 14:44 ?831次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理、結(jié)構(gòu)及訓(xùn)練過程

    、訓(xùn)練過程以及應(yīng)用場(chǎng)景。 一、卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積運(yùn)算 卷積運(yùn)算是卷積神經(jīng)網(wǎng)絡(luò)的核心,它是一種數(shù)學(xué)運(yùn)算,用于提取圖像中的局部特征。
    的頭像 發(fā)表于 07-02 14:21 ?3095次閱讀

    verilog實(shí)現(xiàn)卷積運(yùn)算

    在Verilog中實(shí)現(xiàn)卷積運(yùn)算,你可以使用以下示例代碼。這里假設(shè)輸入數(shù)據(jù)是有符號(hào)8位數(shù),輸出數(shù)據(jù)也是有符號(hào)8位數(shù)。卷積在數(shù)字信號(hào)處理中通常指的是兩個(gè)序列的逐元素乘積的和,也就是點(diǎn)乘。 module
    發(fā)表于 03-26 07:51