卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,
CNN)是一類包含卷積計(jì)算且具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Networks),是深度學(xué)習(xí)(deeplearning)的代表算法之一 ,卷積神經(jīng)網(wǎng)絡(luò)具有表征學(xué)習(xí)(representation
learning)能力,能夠按其階層結(jié)構(gòu)對(duì)輸入信息進(jìn)行平移不變分類(shift-invariant
classification),因此也被稱為“平移不變?nèi)斯ど窠?jīng)網(wǎng)絡(luò)(Shift-Invariant Artificial Neural Networks,
SIANN)”
對(duì)卷積神經(jīng)網(wǎng)絡(luò)的研究始于二十世紀(jì)80至90年代,時(shí)間延遲網(wǎng)絡(luò)和LeNet-5是最早出現(xiàn)的卷積神經(jīng)網(wǎng)絡(luò)。在二十一世紀(jì)后,隨著深度學(xué)習(xí)理論的提出和數(shù)值計(jì)算設(shè)備的改進(jìn),卷積神經(jīng)網(wǎng)絡(luò)得到了快速發(fā)展,并被應(yīng)用于計(jì)算機(jī)視覺、自然語(yǔ)言處理等領(lǐng)域。
卷積神經(jīng)網(wǎng)絡(luò)仿造生物的視知覺(visualperception)機(jī)制構(gòu)建,可以進(jìn)行監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí),其隱含層內(nèi)的卷積核參數(shù)共享和層間連接的稀疏性使得卷積神經(jīng)網(wǎng)絡(luò)能夠以較小的計(jì)算量對(duì)格點(diǎn)化(grid-liketopology)特征,例如像素和音頻進(jìn)行學(xué)習(xí)、有穩(wěn)定的效果且對(duì)數(shù)據(jù)沒有額外的特征工程(feature engineering)要求。
卷積神經(jīng)網(wǎng)絡(luò)的輸入層可以處理多維數(shù)據(jù),常見地,一維卷積神經(jīng)網(wǎng)絡(luò)的輸入層接收一維或二維數(shù)組,其中一維數(shù)組通常為時(shí)間或頻譜采樣;二維數(shù)組可能包含多個(gè)通道;二維卷積神經(jīng)網(wǎng)絡(luò)的輸入層接收二維或三維數(shù)組;三維卷積神經(jīng)網(wǎng)絡(luò)的輸入層接收四維數(shù)組。由于卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺領(lǐng)域應(yīng)用較廣,因此許多研究在介紹其結(jié)構(gòu)時(shí)預(yù)先假設(shè)了三維輸入數(shù)據(jù),即平面上的二維像素點(diǎn)和RGB通道。
與其它神經(jīng)網(wǎng)絡(luò)算法類似,由于使用梯度下降算法進(jìn)行學(xué)習(xí),卷積神經(jīng)網(wǎng)絡(luò)的輸入特征需要進(jìn)行標(biāo)準(zhǔn)化處理。具體地,在將學(xué)習(xí)數(shù)據(jù)輸入卷積神經(jīng)網(wǎng)絡(luò)前,需在通道或時(shí)間/頻率維對(duì)輸入數(shù)據(jù)進(jìn)行歸一化,若輸入數(shù)據(jù)為像素,也可將分布于的原始像素值歸一化至區(qū)間,輸入特征的標(biāo)準(zhǔn)化有利于提升卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)效率和表現(xiàn)
-
計(jì)算機(jī)視覺
+關(guān)注
關(guān)注
8文章
1701瀏覽量
46138 -
數(shù)組
+關(guān)注
關(guān)注
1文章
417瀏覽量
26033 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5516瀏覽量
121583 -
卷積神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
4文章
367瀏覽量
11928
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論