我們現(xiàn)在有了很多非常厲害的深度學(xué)習(xí)框架,比如Tensorflow,CNTK,PaddlePaddle,Caffe2等等。然而,這些為了解決實際的應(yīng)用問題而生的,而不是用來學(xué)習(xí)“深度學(xué)習(xí)”知識和思想的。所以微軟Xiaowuhu根據(jù)自己親身經(jīng)歷的學(xué)習(xí)軌跡,歸納出了以下教程,可以幫助小白做到真正的從入門到精通。通過以下循序漸進地學(xué)習(xí)與動手實踐,一方面可以幫助讀者深刻理解“深度學(xué)習(xí)”的基礎(chǔ)知識,更好地理解并使用現(xiàn)有框架,另一方面可以助力讀者快速學(xué)習(xí)最新出現(xiàn)的各種神經(jīng)網(wǎng)絡(luò)的擴展或者變型,跟上快速發(fā)展的AI浪潮。
寫在前面,為什么要出這個系列的教程呢?
總的說來,我們現(xiàn)在有了很多非常厲害的深度學(xué)習(xí)框架,比如Tensorflow,CNTK,PaddlePaddle,Caffe2等等。然而,我們用這些框架在搭建我們自己的深度學(xué)習(xí)模型的時候,到底做了一些什么樣的操作呢?我們試圖去閱讀框架的源碼來理解框架到底幫助我們做了些什么,但是……很難!很難!很難!因為深度學(xué)習(xí)是需要加速啦,分布式計算啦,框架做了很多很多的優(yōu)化,也讓像我們這樣的小白難以理解這些框架的源碼。
這取決于你是想真正地掌握“深度學(xué)習(xí)”的思想,還是只想成為一個調(diào)參師?在我們看來,如TensorFlow,CNTK這些偉大的深度學(xué)習(xí)工具,是為了解決實際的應(yīng)用問題而生的,而不是用來學(xué)習(xí)“深度學(xué)習(xí)”知識和思想的。所以我們根據(jù)自己親身經(jīng)歷的學(xué)習(xí)軌跡,歸納出了以下教程,可以幫助小白做到真正的從入門到精通。
通過以下循序漸進地學(xué)習(xí)與動手實踐,一方面可以幫助讀者深刻理解“深度學(xué)習(xí)”的基礎(chǔ)知識,更好地理解并使用現(xiàn)有框架,另一方面可以助力讀者快速學(xué)習(xí)最新出現(xiàn)的各種神經(jīng)網(wǎng)絡(luò)的擴展或者變型,跟上快速發(fā)展的AI浪潮。
對于這份教程的內(nèi)容,如果沒有額外的說明,我們通常使用如下表格的命名約定:
適用范圍
沒有各種基礎(chǔ)想學(xué)習(xí)卻無從下手哀聲嘆氣的玩家,請按時跟蹤最新博客,推導(dǎo)數(shù)學(xué)公式,跑通代碼,并及時提出問題,以求最高療效;
深度學(xué)習(xí)小白,有直觀的人工智能的認識,強烈的學(xué)習(xí)欲望和需求,請在博客的基礎(chǔ)上配合代碼食用,效果更佳;
調(diào)參師,訓(xùn)練過模型,調(diào)過參數(shù),想了解框架內(nèi)各層運算過程,給玄學(xué)的調(diào)參之路添加一點心理保障;
超級高手,提出您寶貴的意見,給廣大初學(xué)者指出一條明路!
前期準(zhǔn)備
環(huán)境:
Windows 10 version 1809
Visual Studio 2017 Community or above
Python 3.6.6
Jupyter Notebook (可選)
自己:
清醒的頭腦(困了的同學(xué)請自覺泡茶),紙和筆(如果想跟著推公式的話),鬧鐘(防止久坐按時起來轉(zhuǎn)轉(zhuǎn)),厚厚的衣服(有暖氣的同學(xué)請忽略)
網(wǎng)絡(luò)結(jié)構(gòu)概覽
1. 基本概念目錄
首先會講解一下神經(jīng)網(wǎng)絡(luò)基本的訓(xùn)練和工作原理,因為基本上各種教程里都沒有提到這一點,以至于筆者在剛開始學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)時一頭霧水,不得要領(lǐng),不知從何處開始下手。
后面接的是導(dǎo)數(shù)公式和反向傳播公式,包括矩陣求導(dǎo),這一部分可以大概瀏覽一下,主要的目的是備查,在自己推導(dǎo)反向公式時可以參考。
然后是反向傳播和梯度下降,我們先從簡單的線性方式說起(只有加法和乘法),而且用代入數(shù)值的方式來消除對公式的恐懼心理。然后會說到分層的復(fù)雜(非線性)函數(shù)的反向傳播,同樣用數(shù)值代入方式手推反向過程。
梯度下降是神經(jīng)網(wǎng)絡(luò)的基本學(xué)習(xí)方法,我們會用單變量和雙變量兩種方式說明,配以可視化的圖解。再多的變量就無法用可視化方式來解釋了,所以我們力求用簡單的方式理解復(fù)雜的事物。
本部分最后是損失函數(shù)的講解,著重說明了神經(jīng)網(wǎng)絡(luò)中目前最常用的均方差損失函數(shù)(用于回歸)和交叉熵損失函數(shù)(用于分類)。
2. 線性回歸
用線性回歸作為學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的起點,是一個非常好的選擇,因為線性回歸問題本身比較容易理解,在它的基礎(chǔ)上,逐步的增加一些新的知識點,會形成一條比較平緩的學(xué)習(xí)曲線,或者說是邁向神經(jīng)網(wǎng)絡(luò)的第一個小臺階。
單層的神經(jīng)網(wǎng)絡(luò),其實就是一個神經(jīng)元,可以完成一些線性的工作,比如擬合一條直線,這用一個神經(jīng)元就可以實現(xiàn)。當(dāng)這個神經(jīng)元只接收一個輸入時,就是單變量線性回歸,可以在二維平面上用可視化方法理解。當(dāng)接收多個變量輸入時,叫做多變量線性回歸,此時可視化方法理解就比較困難了,通常我們會用變量兩兩組對的方式來表現(xiàn)。
當(dāng)變量多于一個時,兩個變量的量綱和數(shù)值有可能差別很大,這種情況下,我們通常需要對樣本特征數(shù)據(jù)做歸一化,然后把數(shù)據(jù)喂給神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練,否則會出現(xiàn)“消化不良”的情況。
3. 線性分類
分類問題在很多資料中都稱之為邏輯回歸,Logistic Regression,其原因是使用了線性回歸中的線性模型,加上一個Logistic二分類函數(shù),共同構(gòu)造了一個分類器。我們在本書中統(tǒng)稱之為分類。
神經(jīng)網(wǎng)絡(luò)的一個重要功能就是分類,現(xiàn)實世界中的分類任務(wù)復(fù)雜多樣,但萬變不離其宗,我們都可以用同一種模式的神經(jīng)網(wǎng)絡(luò)來處理。
本部分中,我們從最簡單的線性二分類開始學(xué)習(xí),包括其原理,實現(xiàn),訓(xùn)練過程,推理過程等等,并且以可視化的方式來幫助大家更好地理解這些過程。
在第二步中,我們學(xué)習(xí)了實現(xiàn)邏輯非門,在本部分中,我們將利用學(xué)到的二分類知識,實現(xiàn)邏輯與門、與非門,或門,或非門。
做二分類時,我們一般用Sigmoid函數(shù)做分類函數(shù),那么和Sigmoid函數(shù)長得特別像的雙曲正切函數(shù)能不能做分類函數(shù)呢?我們將會探索這件事情,從而對分類函數(shù)、損失函數(shù)、樣本標(biāo)簽有更深的理解。
然后我們將進入線性多分類的學(xué)習(xí)。多分類時,可以一對一、一對多、多對多,那么神經(jīng)網(wǎng)絡(luò)使用的是哪種方式呢?
Softmax函數(shù)是多分類問題的分類函數(shù),通過對它的分析,我們學(xué)習(xí)多分類的原理、實現(xiàn)、以及可視化結(jié)果,從而理解神經(jīng)網(wǎng)絡(luò)的工作方式。
4. 非線性回歸
從這一步開始,我們進入了兩層神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí),從而解決非線性問題。
在兩層神經(jīng)網(wǎng)絡(luò)之間,必須有激活函數(shù)連接,從而加入非線性因素,提高神經(jīng)網(wǎng)絡(luò)的能力。所以,我們先從激活函數(shù)學(xué)起,一類是擠壓型的激活函數(shù),常用于簡單網(wǎng)絡(luò)的學(xué)習(xí);另一類是半線性的激活函數(shù),常用于深度網(wǎng)絡(luò)的學(xué)習(xí)。
接下來我們將驗證著名的萬能近似定理,建立一個雙層的神經(jīng)網(wǎng)絡(luò),來擬合一個比較復(fù)雜的函數(shù)。
在上面的雙層神經(jīng)網(wǎng)絡(luò)中,已經(jīng)出現(xiàn)了很多的超參,都會影響到神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果。所以在完成了基本的擬合任務(wù)之后,我們將會嘗試著調(diào)試這些參數(shù),得到更好的訓(xùn)練效果(又快又好),從而得到超參調(diào)試的第一手經(jīng)驗。
。
5. 非線性分類
我們在第三步中學(xué)習(xí)了線性分類,在本部分中,我們將學(xué)習(xí)更復(fù)雜的分類問題,比如,在很多年前,兩位著名的學(xué)者證明了感知機無法解決邏輯中的異或問題,從而使感知機這個研究領(lǐng)域陷入了長期的停滯。我們將會在使用雙層網(wǎng)絡(luò)解決異或問題。
異或問題是個簡單的二分類問題,因為畢竟只有4個樣本數(shù)據(jù),我們會用更復(fù)雜的數(shù)據(jù)樣本來學(xué)習(xí)非線性多分類問題,并理解其工作原理。
然后我們將會用一個稍微復(fù)雜些的二分類例子,來說明在二維平面上,神經(jīng)網(wǎng)絡(luò)是通過怎樣的神奇的線性變換加激活函數(shù)預(yù)算,把線性不可分的問題轉(zhuǎn)化為線性可分問題的。
解決完二分類問題,我們將學(xué)習(xí)如何解決更復(fù)雜的三分類問題,由于樣本的復(fù)雜性,必須在隱層使用多個神經(jīng)元才能完成分類任務(wù)。
最后我們將搭建一個三層神經(jīng)網(wǎng)絡(luò),來解決MNIST手寫數(shù)字識別問題,并學(xué)習(xí)使用梯度檢查來幫助我們測試反向傳播代碼的正確性。
數(shù)據(jù)集的使用,是深度學(xué)習(xí)的一個基本技能,開發(fā)集、驗證集、測試集,合理地使用才能得到理想的泛化能力強的模型。
6. 模型推理與部署
我們已經(jīng)用神經(jīng)網(wǎng)絡(luò)訓(xùn)練出來了一套權(quán)重矩陣,但是這個模型如何使用呢?我們總不能在實際生產(chǎn)環(huán)境中使用python代碼來做推理吧?更何況在手機中也是不能運行Python代碼的。
這就引出了模型的概念。一個模型會記錄神經(jīng)網(wǎng)絡(luò)的計算圖,并加載權(quán)重矩陣,而這些模型會用C++等代碼來實現(xiàn),以保證部署的便利。
我們將會學(xué)習(xí)到在Windows上使用ONNX模型的方法,然后是在Android上的模型部署方法。而在iOS設(shè)備上的模型,與Android的原理相同,有需要的話可以自己找資料學(xué)習(xí)。我們也許會考慮以后增加這部分內(nèi)容。
7. 深度神經(jīng)網(wǎng)絡(luò)
在前面的幾步中,我們用簡單的案例,逐步學(xué)習(xí)了眾多的知識,使得我們可以更輕松地接觸深度學(xué)習(xí)。
從這一部分開始,探討深度學(xué)習(xí)的一些細節(jié),如權(quán)重矩陣初始化、梯度下降優(yōu)化算法、批量歸一化等高級知識。
由于深度網(wǎng)絡(luò)的學(xué)習(xí)能力強的特點,會造成網(wǎng)絡(luò)對樣本數(shù)據(jù)過分擬合,從而造成泛化能力不足,因為我們需要一些手段來改善網(wǎng)絡(luò)的泛化能力。
8. 卷積神經(jīng)網(wǎng)絡(luò)
卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)中的一個里程碑式的技術(shù),有了這個技術(shù),才會讓計算機有能力理解圖片和視頻信息,才會有計算機視覺的眾多應(yīng)用。
在本部分的學(xué)習(xí)中,我們將會逐步介紹卷積的前向計算、卷積的反向傳播、池化的前向計算與反向傳播,然后用代碼實現(xiàn)一個卷積網(wǎng)絡(luò)并訓(xùn)練一些實際數(shù)據(jù)。
在后面我們還會介紹一些經(jīng)典的卷積模型,向大師們學(xué)習(xí)一些解決問題的方法論問題。
-
微軟
+關(guān)注
關(guān)注
4文章
6634瀏覽量
104533 -
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4783瀏覽量
101233
原文標(biāo)題:?【微軟】AI-神經(jīng)網(wǎng)絡(luò)基本原理簡明教程
文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
[轉(zhuǎn)帖]親身經(jīng)歷的挑選培訓(xùn)的過程----奉獻給大家
學(xué)習(xí)ARM9的前輩指導(dǎo)心得
血與淚的發(fā)明創(chuàng)造之路----吳堅鴻的親身經(jīng)歷與反思
Quartus軟件精典學(xué)習(xí)教程
吳堅鴻長輩單片機程序代碼集合(共45個)
基于實踐的LabVIEW零基礎(chǔ)入門視頻教程---·10 中級計算器制作(三)
大解密!學(xué)習(xí)C語言能干嘛?不學(xué)可以不?精選資料下載
NSK PS1006KN002力矩電機與調(diào)試軟件EDC MEGATERM無法連接
小白的嵌入式學(xué)習(xí)歷程
比較嵌入式與互聯(lián)網(wǎng)的異同點
《Linux設(shè)備驅(qū)動開發(fā)詳解》第3章、Linux內(nèi)核及內(nèi)核編程
《Linux設(shè)備驅(qū)動開發(fā)詳解》第2章、驅(qū)動設(shè)計的硬件基礎(chǔ)
分析C語言到底需要掌握哪些知識以及怎樣去掌握
嵌入式軟件開發(fā)面試——一個應(yīng)屆生求職的親身經(jīng)歷
![嵌入式軟件開發(fā)面試——一個應(yīng)屆生求職的<b class='flag-5'>親身經(jīng)歷</b>](https://file.elecfans.com/web1/M00/D9/4E/pIYBAF_1ac2Ac0EEAABDkS1IP1s689.png)
評論