Intel發(fā)布了基于其神經(jīng)模態(tài)(neuromorphic)計算芯片Loihi的加速卡Pohoiki Beach,該加速卡包含了64塊Loihi芯片,共含有八百多萬個神經(jīng)元。繼IBM發(fā)布True North、Intel發(fā)布Loihi之后,Pohoiki Beach又一次讓神經(jīng)模態(tài)計算走進了聚光燈下。本文將為讀者重點介紹神經(jīng)模態(tài)計算芯片的發(fā)展前景以及市場情況——事實上除了IBM和Intel之外,一些優(yōu)秀的初創(chuàng)公司如aiCTX等也正在積極探索超低功耗神經(jīng)模態(tài)芯片在不同領(lǐng)域的應(yīng)用,我們認為在未來幾年內(nèi)隨著AI+IoT的發(fā)展,神經(jīng)模態(tài)計算將會迎來一波新的熱潮。
Intel發(fā)布的Pohoiki Beach加速卡,含有64塊Loihi芯片
讓IBM和Intel爭相投資的神經(jīng)模態(tài)計算究竟是什么
神經(jīng)模態(tài)計算是一種從生物神經(jīng)元獲得啟發(fā)的計算方式。在生物學(xué)中,神經(jīng)細胞之間的工作原理大致可以概括為:當一個神經(jīng)元中積累的電荷數(shù)量足夠多時,將會發(fā)射出脈沖,該脈沖一方面清空了發(fā)射脈沖神經(jīng)元內(nèi)部的電荷,另一方面脈沖會沿著神經(jīng)突觸進入其他神經(jīng)元,并在其他神經(jīng)元中積累電荷,如此反復(fù)。大量神經(jīng)元和突觸之間形成的網(wǎng)絡(luò)就是神經(jīng)網(wǎng)絡(luò),而脈沖可以認為是神經(jīng)元之間傳遞信息的方法;另一方面神經(jīng)元A和神經(jīng)元B突觸之間連接的強度則決定了當神經(jīng)元A發(fā)射脈沖時,會有多少電荷進入神經(jīng)元B。而神經(jīng)模態(tài)計算可以認為就是重現(xiàn)了這樣的一個過程,它使用電路來實現(xiàn)神經(jīng)元和神經(jīng)突觸以及神經(jīng)網(wǎng)絡(luò),并且模仿生物神經(jīng)元之間使用脈沖通信的工作方式。
提起神經(jīng)網(wǎng)絡(luò),大家一定非常熟悉,因為今天得到廣泛應(yīng)用的深度學(xué)習人工智能正是基于神經(jīng)網(wǎng)絡(luò)。那么神經(jīng)模態(tài)計算中的神經(jīng)網(wǎng)絡(luò)和深度學(xué)習中的神經(jīng)網(wǎng)絡(luò)是否是一個東西?從原理上說,兩者是一致的,兩者都是在模仿生物神經(jīng)元之間連接和通信的過程,區(qū)別在于深度學(xué)習中的神經(jīng)網(wǎng)絡(luò)是從較抽象的角度來描述生物神經(jīng)網(wǎng)絡(luò),而神經(jīng)模態(tài)計算則更貼近真正的生物神經(jīng)網(wǎng)絡(luò)。舉例來說,深度學(xué)習的神經(jīng)網(wǎng)絡(luò)中也有神經(jīng)元以及神經(jīng)元激活的概念,在前饋過程中每個神經(jīng)元的輸出值即該過程中該神經(jīng)元被激活的次數(shù),而神經(jīng)元之間的連接強度則用網(wǎng)絡(luò)權(quán)重來表征,每個神經(jīng)元的輸出乘以網(wǎng)絡(luò)權(quán)重再傳播給下一層的神經(jīng)元,因此可以認為深度學(xué)習中的神經(jīng)網(wǎng)絡(luò)是使用數(shù)學(xué)計算的方法在模仿生物神經(jīng)系統(tǒng)。與之相對,神經(jīng)模態(tài)計算的前饋過程中,每個神經(jīng)元電路模塊每被激活一次就會真的發(fā)射出一個電脈沖(而不是直接輸出整個前饋過程中被激活的)并傳播給相連的其他神經(jīng)元,因此可以認為神經(jīng)模態(tài)計算是在真正重現(xiàn)生物神經(jīng)系統(tǒng)的物理過程。
為什么神經(jīng)模態(tài)計算得到了這么多重視?目前來看,首先人類的大腦還有太多未解之謎,今天的深度學(xué)習僅僅能實現(xiàn)人類大腦極小一部分的功能,距離人類的智能還有非常遠的距離,而使用神經(jīng)模態(tài)計算直接模仿神經(jīng)元系統(tǒng)在人工神經(jīng)元數(shù)量足夠多時,或許有希望能實現(xiàn)比起深度學(xué)習更好的效果,更接近人類的大腦。此外,從實際的應(yīng)用角度出發(fā),目前深度學(xué)習計算在部署上遇到的困難是能效比和延遲問題,在對于功耗要求非常低的領(lǐng)域(如物聯(lián)網(wǎng)等)以及對于延遲要求非常高的領(lǐng)域(如無人駕駛等)部署深度學(xué)習會遇到很大的挑戰(zhàn)。而神經(jīng)模態(tài)計算則可以解決這兩大問題。
首先,深度學(xué)習由于是從數(shù)學(xué)上模仿神經(jīng)系統(tǒng),因此神經(jīng)元被激活的次數(shù)事實上對于計算的功耗改變不大。例如神經(jīng)元被激活兩次還是四次,在深度學(xué)習里無非是該神經(jīng)元的輸出是2還是4,這只是一個乘法運算的輸入改變,幾乎不改變乘法計算的功耗。但是,如果使用神經(jīng)模態(tài)計算,那么神經(jīng)元被激活兩次相比神經(jīng)元被激活四次可以少發(fā)射兩次脈沖,這樣就節(jié)省了功耗,因此神經(jīng)模態(tài)計算也可以說是利用了其“事件驅(qū)動”的特性來降低功耗。
因此,神經(jīng)模態(tài)計算的一大優(yōu)勢就是其計算功耗與輸入有關(guān),在輸入不會激活大量神經(jīng)元的情況下,其功耗可以做到非常低;相反使用深度學(xué)習則無論神經(jīng)元被激活的程度,其功耗幾乎是一樣的。對于物聯(lián)網(wǎng)應(yīng)用來說,許多場景或許99%以上的時間并沒有事件發(fā)生,神經(jīng)模態(tài)計算可以利用這樣的規(guī)律,僅僅在需要的時候激活神經(jīng)元消費能量來完成事件識別,而在其他沒有事件的時候由于神經(jīng)元未被激活因此功耗很低,從而實現(xiàn)遠低于深度學(xué)習芯片的平均功耗。另一個神經(jīng)模態(tài)計算的優(yōu)勢是存算一體,這是因為神經(jīng)模態(tài)計算并非常規(guī)的馮諾伊曼架構(gòu),神經(jīng)模態(tài)計算芯片一般也不會搭配DRAM使用,而是直接將信息儲存在了神經(jīng)元里(相當于生物神經(jīng)網(wǎng)絡(luò)中每個神經(jīng)元儲存的電荷)。這樣就避免了內(nèi)存墻帶來的功耗和延遲問題,因此神經(jīng)模態(tài)計算芯片的延遲和能效比都會好于傳統(tǒng)的深度學(xué)習。
神經(jīng)模態(tài)芯片發(fā)展的方向
神經(jīng)模態(tài)芯片的發(fā)展方向首先是規(guī)?;?,即擴大神經(jīng)元的規(guī)模,這也是Intel和IBM等大廠主要押注的方向。如果我們回顧深度學(xué)習的發(fā)展歷程,我們會發(fā)現(xiàn)其實神經(jīng)網(wǎng)絡(luò)的原理早在上世紀60年代就已初見雛形,但是由于訓(xùn)練數(shù)據(jù)量不夠以及算力不夠,因此直到2012年才被人們重新發(fā)現(xiàn),并且發(fā)現(xiàn)了眾多之前完全沒有想到的應(yīng)用場景和市場。對于神經(jīng)模態(tài)計算,大廠押注的也是類似的情況:神經(jīng)模態(tài)計算的原理看起來是正確的(尤其是今天深度學(xué)習已經(jīng)獲得了很大的成功,那么基于相似原理的神經(jīng)模態(tài)計算應(yīng)該不會很不靠譜),目前或許只要把神經(jīng)元的數(shù)量和神經(jīng)突觸連接數(shù)量跨過一個閾值(就像當年AlexNet跨過網(wǎng)絡(luò)深度的門檻一樣),那么神經(jīng)模態(tài)計算就有可能爆發(fā)出巨大的能量,甚至遠超之前的想象。這次Intel發(fā)布的超過八百萬神經(jīng)元的Pohoiki Beach系統(tǒng)顯然就是在往規(guī)模化的方向大力發(fā)展。根據(jù)Intel的官方消息,下一步將繼續(xù)發(fā)布神經(jīng)元數(shù)量更大的Pohoiki Spring計劃,可見Intel是在往大規(guī)模神經(jīng)模態(tài)計算的方向大力推進。
除了發(fā)展規(guī)模化之外,另一個方向就是利用神經(jīng)模態(tài)計算低功耗和低延遲的特點并進一步優(yōu)化芯片設(shè)計來開發(fā)出高能效比低延遲的芯片。這類芯片或許神經(jīng)元數(shù)量不多,但是可以實現(xiàn)非常低的功耗和非常好的能效比,從而可以部署在傳統(tǒng)深度學(xué)習無法部署的場景。事實上,目前如何高效訓(xùn)練大規(guī)模神經(jīng)模態(tài)神經(jīng)元的算法還沒有找到,因此在現(xiàn)有訓(xùn)練框架的基礎(chǔ)下,或許優(yōu)先把能效比做到極致是比把神經(jīng)元數(shù)量做大更接地氣的方向。瑞士蘇黎世理工大學(xué)的Giacomo Indiveri教授就是這個方向的代表性人物,研究組在十數(shù)年內(nèi)已經(jīng)發(fā)表了多篇電路和系統(tǒng)論文,其研發(fā)的芯片作為歐洲神經(jīng)模態(tài)計算研究的代表性工作在2018年ISSCC主題演講中被重點介紹。
Indiveri組的神經(jīng)模態(tài)計算芯片在2018年ISSCC主題演講中被重點提及
神經(jīng)模態(tài)芯片如何商業(yè)化落地
神經(jīng)模態(tài)芯片近幾年來的落地方向按照神經(jīng)元規(guī)??梢苑殖蓛深?。
對于Intel和IBM這類在大規(guī)模神經(jīng)元領(lǐng)域大量投資的公司,事實上也并不急著在幾年內(nèi)讓神經(jīng)模態(tài)芯片系統(tǒng)落地,而是希望在這幾年內(nèi)把神經(jīng)模態(tài)計算的研究、生態(tài)先做起來,等到神經(jīng)模態(tài)計算研究取得突破(例如神經(jīng)元跨過了某個閾值或者新的訓(xùn)練算法出現(xiàn),在一些關(guān)鍵領(lǐng)域能解決其他方法無法解決的問題)時就能獲得先機。在近幾年,大規(guī)模神經(jīng)模態(tài)計算芯片的主要應(yīng)用估計還是在研究上,包括作為腦科學(xué)研究(模擬大腦神經(jīng)系統(tǒng))系統(tǒng)平臺供各大高校和研究機構(gòu)使用。另外,Intel和IBM估計也在積極尋找一些傳統(tǒng)圖靈機算法和馮諾伊曼架構(gòu)難以高效處理但適合神經(jīng)模態(tài)計算的問題(例如優(yōu)化問題等),和其他有需求的行業(yè)公司合作,以此作為神經(jīng)模態(tài)計算的初步落地嘗試。
另一方面,在中等規(guī)模神經(jīng)元規(guī)模、主打低功耗的神經(jīng)模態(tài)芯片方向上,最近興起的物聯(lián)網(wǎng)將會成為最佳的落地應(yīng)用。物聯(lián)網(wǎng)配合人工智能將會給社會帶來巨大的變化,然而目前基于深度學(xué)習的芯片難以實現(xiàn)物聯(lián)網(wǎng)對于低功耗的需求(小于毫瓦級的功耗)。這時候就是神經(jīng)模態(tài)芯片大展身手的地方。在這個方向上,技術(shù)和商業(yè)化都較領(lǐng)先的是位于瑞士初創(chuàng)公司的aiCTX,該公司的技術(shù)來自于前述蘇黎世理工大學(xué)Indiveri組的研究,其芯片平均功耗可以到達微瓦數(shù)量級,目前主打的場景就是超低功耗物聯(lián)網(wǎng)場景,包括邊緣視覺應(yīng)用(安防、機器人等場景)、可穿戴設(shè)備等等。不久前aiCTX剛發(fā)布了含有一百萬神經(jīng)元的芯片DynapCNN,并且獲得了CES Asia 2019頒發(fā)的創(chuàng)新獎。
在中國,神經(jīng)模態(tài)芯片也得到了國家和業(yè)界的重視。在研究方面,清華類腦計算中心做出了卓越的貢獻,其工作發(fā)表在全球頂級期刊和會議上。上海也于今年建立了上海腦科學(xué)與類腦研究中心,神經(jīng)模態(tài)計算是該中心的重點方向之一。在商業(yè)化方面,清華類腦計算中心孵化的初創(chuàng)公司靈汐科技在今年發(fā)布了自主研發(fā)的“天機二代”芯片系統(tǒng),使用眾核存算一體架構(gòu),具有高速度、高性能、低功耗的特點。相比國外同行,我國的神經(jīng)模態(tài)計算在
在中國,神經(jīng)模態(tài)芯片也得到了國家和業(yè)界的重視。在研究方面,清華類腦計算中心做出了卓越的貢獻,其工作發(fā)表在全球頂級期刊和會議上。上海也于今年建立了上海腦科學(xué)與類腦研究中心,神經(jīng)模態(tài)計算是該中心的重點方向之一。在商業(yè)化方面,清華類腦計算中心孵化的初創(chuàng)公司靈汐科技在今年發(fā)布了自主研發(fā)的“天機二代”芯片系統(tǒng),使用眾核存算一體架構(gòu),具有高速度、高性能、低功耗的特點。相比國外同行,我國的神經(jīng)模態(tài)計算在最近幾年得到了來自國家非常高的重視,相信在未來幾年內(nèi)將會有全球領(lǐng)先的成果誕生。
評論
查看更多