AI芯片分類1
從功能來看,可以分為Training(訓(xùn)練)和Inference(推理)兩個(gè)環(huán)節(jié)。
Training環(huán)節(jié)通常需要通過大量的數(shù)據(jù)輸入,或采取增強(qiáng)學(xué)習(xí)等非監(jiān)督學(xué)習(xí)方法,訓(xùn)練出一個(gè)復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)模型。訓(xùn)練過程由于涉及海量的訓(xùn)練數(shù)據(jù)和復(fù)雜的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),運(yùn)算量巨大,需要龐大的計(jì)算規(guī)模,對(duì)于處理器的計(jì)算能力、精度、可擴(kuò)展性等性能要求很高。目前在訓(xùn)練環(huán)節(jié)主要使用NVIDIA的GPU集群來完成,Google自主研發(fā)的ASIC芯片TPU2.0也支持訓(xùn)練環(huán)節(jié)的深度網(wǎng)絡(luò)加速。
Inference環(huán)節(jié)指利用訓(xùn)練好的模型,使用新的數(shù)據(jù)去“推理”出各種結(jié)論,如視頻監(jiān)控設(shè)備通過后臺(tái)的深度神經(jīng)網(wǎng)絡(luò)模型,判斷一張抓拍到的人臉是否屬于黑名單。雖然Inference的計(jì)算量相比Training少很多,但仍然涉及大量的矩陣運(yùn)算。在推理環(huán)節(jié),GPU、FPGA和ASIC都有很多應(yīng)用價(jià)值。
從應(yīng)用場(chǎng)景來看,可以分成“Cloud/DataCenter(云端)”和“Device/Embedded(設(shè)備端)”兩大類。
在深度學(xué)習(xí)的Training階段,由于對(duì)數(shù)據(jù)量及運(yùn)算量需求巨大,單一處理器幾乎不可能獨(dú)立完成一個(gè)模型的訓(xùn)練過程,因此,Training環(huán)節(jié)目前只能在云端實(shí)現(xiàn),在設(shè)備端做Training目前還不是很明確的需求。
在Inference階段,由于目前訓(xùn)練出來的深度神經(jīng)網(wǎng)絡(luò)模型大多仍非常復(fù)雜,其推理過程仍然是計(jì)算密集型和存儲(chǔ)密集型的,若部署到資源有限的終端用戶設(shè)備上難度很大,因此,云端推理目前在人工智能應(yīng)用中需求更為明顯。GPU、FPGA、ASIC(Google TPU1.0/2.0)等都已應(yīng)用于云端Inference環(huán)境。在設(shè)備端Inference領(lǐng)域,由于智能終端數(shù)量龐大且需求差異較大,如ADAS、VR等設(shè)備對(duì)實(shí)時(shí)性要求很高,推理過程不能交由云端完成,要求終端設(shè)備本身需要具備足夠的推理計(jì)算能力,因此一些低功耗、低延遲、低成本的專用芯片也會(huì)有很大的市場(chǎng)需求。
按照上述兩種分類,我們得出AI芯片分類象限如下圖所示。
除了按照功能場(chǎng)景劃分外,AI芯片從技術(shù)架構(gòu)發(fā)展來看,大致也可以分為四個(gè)類型:
1、通用類芯片,代表如GPU、FPGA;
2、基于FPGA的半定制化芯片,代表如深鑒科技DPU、百度XPU等;
3、全定制化ASIC芯片,代表如TPU、寒武紀(jì) Cambricon-1A等;
4、類腦計(jì)算芯片,代表如IBM TrueNorth、westwell、高通Zeroth等。
AI芯片產(chǎn)業(yè)生態(tài)2從上述分類象限來看,目前AI芯片的市場(chǎng)需求主要是三類:
1、面向于各大人工智能企業(yè)及實(shí)驗(yàn)室研發(fā)階段的Training需求(主要是云端,設(shè)備端Training需求尚不明確);
2、Inference On Cloud,F(xiàn)ace++、出門問問、Siri等主流人工智能應(yīng)用均通過云端提供服務(wù);
3、Inference On Device,面向智能手機(jī)、智能攝像頭、機(jī)器人/無人機(jī)、自動(dòng)駕駛、VR等設(shè)備的設(shè)備端推理市場(chǎng),需要高度定制化、低功耗的AI芯片產(chǎn)品。如華為麒麟970搭載了“神經(jīng)網(wǎng)絡(luò)處理單元(NPU,實(shí)際為寒武紀(jì)的IP)”、蘋果A11搭載了“神經(jīng)網(wǎng)絡(luò)引擎(Neural Engine)”。
(一)Training訓(xùn)練
2007年以前,人工智能研究受限于當(dāng)時(shí)算法、數(shù)據(jù)等因素,對(duì)于芯片并沒有特別強(qiáng)烈的需求,通用的CPU芯片即可提供足夠的計(jì)算能力。Andrew Ng和Jeff Dean打造的Google Brain項(xiàng)目,使用包含16000個(gè)CPU核的并行計(jì)算平臺(tái),訓(xùn)練超過10億個(gè)神經(jīng)元的深度神經(jīng)網(wǎng)絡(luò)。但CPU的串行結(jié)構(gòu)并不適用于深度學(xué)習(xí)所需的海量數(shù)據(jù)運(yùn)算需求,用CPU做深度學(xué)習(xí)訓(xùn)練效率很低,在早期使用深度學(xué)習(xí)算法進(jìn)行語音識(shí)別的模型中,擁有429個(gè)神經(jīng)元的輸入層,整個(gè)網(wǎng)絡(luò)擁有156M個(gè)參數(shù),訓(xùn)練時(shí)間超過75天。
與CPU少量的邏輯運(yùn)算單元相比,GPU整個(gè)就是一個(gè)龐大的計(jì)算矩陣,GPU具有數(shù)以千計(jì)的計(jì)算核心、可實(shí)現(xiàn)10-100倍應(yīng)用吞吐量,而且它還支持對(duì)深度學(xué)習(xí)至關(guān)重要的并行計(jì)算能力,可以比傳統(tǒng)處理器更加快速,大大加快了訓(xùn)練過程。
從上圖對(duì)比來看,在內(nèi)部結(jié)構(gòu)上,CPU中70%晶體管都是用來構(gòu)建Cache(高速緩沖存儲(chǔ)器)和一部分控制單元,負(fù)責(zé)邏輯運(yùn)算的部分(ALU模塊)并不多,指令執(zhí)行是一條接一條的串行過程。GPU 由并行計(jì)算單元和控制單元以及存儲(chǔ)單元構(gòu)成,擁有大量的核(多達(dá)幾千個(gè))和大量的高速內(nèi)存,擅長做類似圖像處理的并行計(jì)算,以矩陣的分布式形式來實(shí)現(xiàn)計(jì)算。同CPU不同的是,GPU的計(jì)算單元明顯增多,特別適合大規(guī)模并行計(jì)算。
在人工智能的通用計(jì)算GPU市場(chǎng),NVIDIA現(xiàn)在一家獨(dú)大。2010年NVIDIA就開始布局人工智能產(chǎn)品,2014年發(fā)布了新一代PASCAL GPU芯片架構(gòu),這是NVIDIA的第五代GPU架構(gòu),也是首個(gè)為深度學(xué)習(xí)而設(shè)計(jì)的GPU,它支持所有主流的深度學(xué)習(xí)計(jì)算框架。2016年上半年,NVIDIA又針對(duì)神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程推出了基于PASCAL架構(gòu)的TESLA P100芯片以及相應(yīng)的超級(jí)計(jì)算機(jī)DGX-1。DGX-1包含TESLA P100 GPU加速器,采用NVLINK互聯(lián)技術(shù),軟件堆棧包含主要深度學(xué)習(xí)框架、深度學(xué)習(xí)SDK、DIGITS GPU訓(xùn)練系統(tǒng)、驅(qū)動(dòng)程序和CUDA,能夠快速設(shè)計(jì)深度神經(jīng)網(wǎng)絡(luò)(DNN),擁有高達(dá)170TFLOPS的半精度浮點(diǎn)運(yùn)算能力,相當(dāng)于250臺(tái)傳統(tǒng)服務(wù)器,可以將深度學(xué)習(xí)的訓(xùn)練速度加快75倍,將CPU性能提升56倍。
Training市場(chǎng)目前能與NVIDIA競(jìng)爭(zhēng)的就是Google。今年5月份Google發(fā)布了TPU 2.0,TPU(TensorProcessing Unit)是Google研發(fā)的一款針對(duì)深度學(xué)習(xí)加速的ASIC芯片,第一代TPU僅能用于推理,而目前發(fā)布的TPU 2.0既可以用于訓(xùn)練神經(jīng)網(wǎng)絡(luò),又可以用于推理。據(jù)介紹,TPU2.0包括了四個(gè)芯片,每秒可處理180萬億次浮點(diǎn)運(yùn)算。Google還找到一種方法,使用新的計(jì)算機(jī)網(wǎng)絡(luò)將64個(gè)TPU組合到一起,升級(jí)為所謂的TPU Pods,可提供大約11500萬億次浮點(diǎn)運(yùn)算能力。Google表示,公司新的深度學(xué)習(xí)翻譯模型如果在32塊性能最好的GPU上訓(xùn)練,需要一整天的時(shí)間,而八分之一個(gè)TPU Pod就能在6個(gè)小時(shí)內(nèi)完成同樣的任務(wù)。目前Google 并不直接出售TPU芯片,而是結(jié)合其開源深度學(xué)習(xí)框架TensorFlow為AI開發(fā)者提供TPU云加速的服務(wù),以此發(fā)展TPU2的應(yīng)用和生態(tài),比如TPU2同時(shí)發(fā)布的TensorFlow Research Cloud (TFRC) 。
上述兩家以外,傳統(tǒng)CPU/GPU廠家Intel和AMD也在努力進(jìn)入這Training市場(chǎng),如Intel推出的Xeon Phi+Nervana方案,AMD的下一代VEGA架構(gòu)GPU芯片等,但從目前市場(chǎng)進(jìn)展來看很難對(duì)NVIDIA構(gòu)成威脅。初創(chuàng)公司中,Graphcore 的IPU處理器(IntelligenceProcessing Unit)據(jù)介紹也同時(shí)支持Training和Inference。該IPU采用同構(gòu)多核架構(gòu),有超過1000個(gè)獨(dú)立的處理器;支持All-to-All的核間通信,采用BulkSynchronous Parallel的同步計(jì)算模型;采用大量片上Memory,不直接連接DRAM。
總之,對(duì)于云端的Training(也包括Inference)系統(tǒng)來說,業(yè)界比較一致的觀點(diǎn)是競(jìng)爭(zhēng)的核心不是在單一芯片的層面,而是整個(gè)軟硬件生態(tài)的搭建。NVIDIA的CUDA+GPU、Google的TensorFlow+TPU2.0,巨頭的競(jìng)爭(zhēng)也才剛剛開始。
(二)Inference On Cloud云端推理
相對(duì)于Training市場(chǎng)上NVIDIA的一家獨(dú)大,Inference市場(chǎng)競(jìng)爭(zhēng)則更為分散。若像業(yè)界所說的深度學(xué)習(xí)市場(chǎng)占比(Training占5%,Inference占95%),Inference市場(chǎng)競(jìng)爭(zhēng)必然會(huì)更為激烈。
在云端推理環(huán)節(jié),雖然GPU仍有應(yīng)用,但并不是最優(yōu)選擇,更多的是采用異構(gòu)計(jì)算方案(CPU/GPU +FPGA/ASIC)來完成云端推理任務(wù)。FPGA領(lǐng)域,四大廠商(Xilinx/Altera/Lattice/Microsemi)中的Xilinx和Altera(被Intel收購)在云端加速領(lǐng)域優(yōu)勢(shì)明顯。Altera在2015年12月被Intel收購,隨后推出了Xeon+FPGA的云端方案,同時(shí)與Azure、騰訊云、阿里云等均有合作;Xilinx則與IBM、百度云、AWS、騰訊云合作較深入,另外Xilinx還戰(zhàn)略投資了國內(nèi)AI芯片初創(chuàng)公司深鑒科技。目前來看,云端加速領(lǐng)域其他FPGA廠商與Xilinx和Altera還有很大差距。
ASIC領(lǐng)域,應(yīng)用于云端推理的商用AI芯片目前主要是Google的TPU1.0/2.0。其中,TPU1.0僅用于Datacenter Inference應(yīng)用。它的核心是由65,536個(gè)8-bit MAC組成的矩陣乘法單元,峰值可以達(dá)到92 TeraOps/second(TOPS)。有一個(gè)很大的片上存儲(chǔ)器,一共28 MiB。它可以支持MLP,CNN和LSTM這些常見的神經(jīng)網(wǎng)絡(luò),并且支持TensorFLow框架。它的平均性能(TOPS)可以達(dá)到CPU和GPU的15到30倍,能耗效率(TOPS/W)能到30到80倍。如果使用GPU的DDR5 memory,這兩個(gè)數(shù)值可以達(dá)到大約GPU的70倍和CPU的200倍。TPU 2.0既用于訓(xùn)練,也用于推理,上一節(jié)已經(jīng)做過介紹。
國內(nèi)AI芯片公司寒武紀(jì)科技據(jù)報(bào)道也在自主研發(fā)云端高性能AI芯片,目前與科大訊飛、曙光等均有合作,但目前還沒有詳細(xì)的產(chǎn)品介紹。
(三)Inference On Device設(shè)備端推理
設(shè)備端推理的應(yīng)用場(chǎng)景更為多樣化,智能手機(jī)、ADAS、智能攝像頭、語音交互、VR/AR等設(shè)備需求各異,需要更為定制化、低功耗、低成本的嵌入式解決方案,這就給了創(chuàng)業(yè)公司更多機(jī)會(huì),市場(chǎng)競(jìng)爭(zhēng)生態(tài)也會(huì)更加多樣化。
1)智能手機(jī)
華為9月初發(fā)布的麒麟970 AI芯片就搭載了神經(jīng)網(wǎng)絡(luò)處理器NPU(寒武紀(jì)IP)。麒麟970采用了TSMC 10nm工藝制程,擁有55億個(gè)晶體管,功耗相比上一代芯片降低20%。CPU架構(gòu)方面為4核A73+4核A53組成8核心,能耗同比上一代芯片得到20%的提升;GPU方面采用了12核Mali G72 MP12GPU,在圖形處理以及能效兩項(xiàng)關(guān)鍵指標(biāo)方面分別提升20%和50%;NPU采用HiAI移動(dòng)計(jì)算架構(gòu),在FP16下提供的運(yùn)算性能可以達(dá)到1.92 TFLOPs,相比四個(gè)Cortex-A73核心,處理同樣的AI任務(wù),有大約50倍能效和25倍性能優(yōu)勢(shì)。
蘋果最新發(fā)布的A11仿生芯片也搭載了神經(jīng)網(wǎng)絡(luò)單元。據(jù)介紹,A11仿生芯片有43億個(gè)晶體管,采用TSMC 10納米FinFET工藝制程。CPU采用了六核心設(shè)計(jì),由2個(gè)高性能核心與4個(gè)高能效核心組成。相比A10 Fusion,其中兩個(gè)性能核心的速度提升了25%,四個(gè)能效核心的速度提升了70%;GPU采用了蘋果自主設(shè)計(jì)的三核心 GPU 圖形處理單元,圖形處理速度與上一代相比最高提升可達(dá) 30% 之多;神經(jīng)網(wǎng)絡(luò)引擎NPU采用雙核設(shè)計(jì),每秒運(yùn)算次數(shù)最高可達(dá) 6000 億次,主要用于勝任機(jī)器學(xué)習(xí)任務(wù),能夠識(shí)別人物、地點(diǎn)和物體等,能夠分擔(dān) CPU 和 GPU 的任務(wù),大幅提升芯片的運(yùn)算效率。
另外,高通從 2014 年開始也公開了NPU的研發(fā),并且在最新兩代驍龍 8xx 芯片上都有所體現(xiàn),例如驍龍 835 就集成了“驍龍神經(jīng)處理引擎軟件框架”,提供對(duì)定制神經(jīng)網(wǎng)絡(luò)層的支持,OEM 廠商和軟件開發(fā)商都可以基于此打造自己的神經(jīng)網(wǎng)絡(luò)單元。ARM在今年所發(fā)布的 Cortex-A75 和 Cortex-A55中也融入了自家的AI 神經(jīng)網(wǎng)絡(luò)DynamIQ技術(shù),據(jù)介紹,DynamIQ技術(shù)在未來 3-5 年內(nèi)可實(shí)現(xiàn)比當(dāng)前設(shè)備高50倍的AI性能,可將特定硬件加速器的反應(yīng)速度提升10倍??傮w來看,智能手機(jī)未來AI芯片的生態(tài)基本可以斷定仍會(huì)掌握在傳統(tǒng)SoC商手中。
2)自動(dòng)駕駛
NVIDIA去年發(fā)布自動(dòng)駕駛開發(fā)平臺(tái)DRIVE PX2,基于16nm FinFET工藝,功耗高達(dá)250W,采用水冷散熱設(shè)計(jì);支持12路攝像頭輸入、激光定位、雷達(dá)和超聲波傳感器;CPU采用兩顆新一代NVIDIA Tegra處理器,當(dāng)中包括了8個(gè)A57核心和4個(gè)Denver核心;GPU采用新一代Pascal架構(gòu),單精度計(jì)算能力達(dá)到8TFlops,超越TITAN X,有后者10倍以上的深度學(xué)習(xí)計(jì)算能力。Intel收購的Mobileye、高通收購的NXP、英飛凌、瑞薩等汽車電子巨頭也提供ADAS芯片和算法。初創(chuàng)公司中,地平線的深度學(xué)習(xí)處理器(BPU,BrainProcessor Unit)IP及其自研雨果(Hugo)平臺(tái)也是重點(diǎn)面向自動(dòng)駕駛領(lǐng)域。
3)計(jì)算機(jī)視覺領(lǐng)域
Intel收購的Movidius是主要的芯片提供商,大疆無人機(jī)、??低?/u>和大華股份的智能監(jiān)控?cái)z像頭均使用了Movidius的Myriad系列芯片。目前國內(nèi)做計(jì)算機(jī)視覺技術(shù)的公司中,商湯科技、Face++、云從、依圖等,未來有可能隨著其自身計(jì)算機(jī)視覺技術(shù)的積累漸深,部分公司向上游延伸去做CV芯片研發(fā)。另外,國內(nèi)還有如人人智能、智芯原動(dòng)等創(chuàng)業(yè)公司提供攝像頭端的AI加速IP及芯片解決方案。
4)其他
VR設(shè)備芯片的代表為微軟為自身VR設(shè)備Hololens而研發(fā)的HPU芯片,這顆由臺(tái)積電代工的芯片能同時(shí)處理來自5個(gè)攝像頭、一個(gè)深度傳感器以及運(yùn)動(dòng)傳感器的數(shù)據(jù),并具備計(jì)算機(jī)視覺的矩陣運(yùn)算和CNN運(yùn)算的加速功能;語音交互設(shè)備芯片方面,國內(nèi)有啟英泰倫以及云知聲兩家公司,其提供的芯片方案均內(nèi)置了為語音識(shí)別而優(yōu)化的深度神經(jīng)網(wǎng)絡(luò)加速方案,實(shí)現(xiàn)設(shè)備的語音離線識(shí)別;在泛IOT領(lǐng)域,NovuMind設(shè)計(jì)了一種僅使用3×3卷積過濾器的AI芯片,第一款芯片原型預(yù)計(jì)今年底推出,預(yù)計(jì)可實(shí)現(xiàn)耗能不超過5瓦進(jìn)行15萬億次浮點(diǎn)運(yùn)算,可以廣泛應(yīng)用于各類小型的互聯(lián)網(wǎng)“邊緣”設(shè)備。
(四)新架構(gòu) - 類腦計(jì)算芯片
“類腦芯片”是指參考人腦神經(jīng)元結(jié)構(gòu)和人腦感知認(rèn)知方式來設(shè)計(jì)的芯片,其目標(biāo)是開發(fā)出打破馮·諾依曼架構(gòu)體系的芯片。這一領(lǐng)域目前仍處于探索階段,如歐盟支持的SpiNNaker和BrainScaleS、斯坦福大學(xué)的Neurogrid、IBM公司的TrueNorth以及高通公司的Zeroth等;國內(nèi)Westwell、清華大學(xué)、浙江大學(xué)、電子科技大學(xué)等也有相關(guān)研究。
IBM的TrueNorth,2014年公布。在一顆芯片上集成了4096個(gè)內(nèi)核,100萬個(gè)神經(jīng)元、2.56億個(gè)可編程突觸,使用了三星的28nm的工藝,共540萬個(gè)晶體管;每秒可執(zhí)行460億次突觸運(yùn)算,總功耗為70mW,每平方厘米功耗20mW。IBM的最終目標(biāo)就是希望建立一臺(tái)包含100億個(gè)神經(jīng)元和100萬億個(gè)突觸的計(jì)算機(jī),這樣的計(jì)算機(jī)要比人類大腦的功都強(qiáng)大10 倍,而功耗只有一千瓦,而且重量不到兩升。
國內(nèi)AI初創(chuàng)公司西井科技Westwell是用FPGA模擬神經(jīng)元以實(shí)現(xiàn)SNN的工作方式,有兩款產(chǎn)品:
1、仿生類腦神經(jīng)元芯片DeepSouth(深南),第三代脈沖神經(jīng)網(wǎng)絡(luò)芯片SNN,基于STDP(spike-time-dependentplasticity)的算法構(gòu)建完整的突觸神經(jīng)網(wǎng)絡(luò),由電路模擬真實(shí)生物神經(jīng)元產(chǎn)生脈沖的仿生學(xué)芯片,通過動(dòng)態(tài)分配的方法能模擬出高達(dá)5000萬級(jí)別的“神經(jīng)元”,功耗為傳統(tǒng)芯片在同一任務(wù)下的幾十分之一到幾百分之一。
2、深度學(xué)習(xí)類腦神經(jīng)元芯片DeepWell(深井),處理模式識(shí)別問題的通用智能芯片,基于在線偽逆矩陣求解算法(OPIUM lite)對(duì)芯片中神經(jīng)元間的連接權(quán)重進(jìn)行學(xué)習(xí)和調(diào)整;擁12800萬個(gè)神經(jīng)元,通過專屬指令集調(diào)整芯片中神經(jīng)元資源的分配;學(xué)習(xí)與識(shí)別速度遠(yuǎn)遠(yuǎn)高于運(yùn)行在通用硬件(如CPU, GPU)上的傳統(tǒng)方法(如CNN),且功耗更低。
總體來看,類腦計(jì)算芯片領(lǐng)域仍處于探索階段,距離規(guī)?;逃萌杂斜容^遠(yuǎn)的距離。
中國AI芯公司3騰訊AI產(chǎn)業(yè)報(bào)告中提到中國的AI的處理器/芯片企業(yè)一共有14家,我們參照公開資料整理了部分國內(nèi)AI處理器/芯片公司,雖不完備,但給感興趣的讀者做個(gè)參考。
1)寒武紀(jì)科技&Cambricon 1A
寒武紀(jì)科技成立于2016年,總部在北京,創(chuàng)始人是中科院計(jì)算所的陳天石、陳云霽兄弟,近期剛剛完成了一億美元A輪融資,阿里巴巴創(chuàng)投、聯(lián)想創(chuàng)投、國科投資、中科圖靈、元禾原點(diǎn)、涌鏵投資聯(lián)合投資,成為全球AI芯片領(lǐng)域第一個(gè)獨(dú)角獸初創(chuàng)公司。
寒武紀(jì)是全球第一個(gè)成功流片并擁有成熟產(chǎn)品的AI芯片公司,擁有終端AI處理器IP和云端高性能AI芯片兩條產(chǎn)品線。2016年發(fā)布的寒武紀(jì)1A處理器(Cambricon-1A)是世界首款商用深度學(xué)習(xí)專用處理器,面向智能手機(jī)、安防監(jiān)控、無人機(jī)、可穿戴設(shè)備以及智能駕駛等各類終端設(shè)備,在運(yùn)行主流智能算法時(shí)性能功耗比全面超越傳統(tǒng)處理器。
2)地平線機(jī)器人&BPU/盤古
地平線機(jī)器人成立于2015年,總部在北京,創(chuàng)始人是前百度深度學(xué)習(xí)研究院負(fù)責(zé)人余凱。公司于去年中完成了A+輪融資,投資方包括了晨興資本、高瓴資本、紅杉資本、金沙江創(chuàng)投、線性資本、創(chuàng)新工場(chǎng)、真格基金、雙湖投資、青云創(chuàng)投、祥峰投資、DST等。據(jù)介紹,公司近期即將完成B輪融資。
BPU(BrainProcessing Unit)是地平線機(jī)器人自主設(shè)計(jì)研發(fā)高效的人工智能處理器架構(gòu)IP,支持ARM/GPU/FPGA/ASIC實(shí)現(xiàn),專注于自動(dòng)駕駛、人臉圖像辨識(shí)等專用領(lǐng)域。2017年,地平線基于高斯架構(gòu)的嵌入式人工智能解決方案將會(huì)在智能駕駛、智能生活、公共安防三個(gè)領(lǐng)域進(jìn)行應(yīng)用,第一代BPU芯片“盤古”目前已進(jìn)入流片階段,預(yù)計(jì)在今年下半年推出,能支持1080P的高清圖像輸入,每秒鐘處理30幀,檢測(cè)跟蹤數(shù)百個(gè)目標(biāo)。地平線的第一代BPU采用TSMC的40nm工藝,相對(duì)于傳統(tǒng)CPU/GPU,能效可以提升2~3個(gè)數(shù)量級(jí)(100~1,000倍左右)。
3)深鑒科技&DPU
深鑒科技成立于2016年,總部在北京。由清華大學(xué)與斯坦福大學(xué)的世界頂尖深度學(xué)習(xí)硬件研究者創(chuàng)立,今年初完成了A輪融資,投資方包括了聯(lián)發(fā)科、賽靈思、金沙江創(chuàng)投、高榕資本、清華控股、方和資本等。
深鑒科技將其開發(fā)的基于FPGA的神經(jīng)網(wǎng)絡(luò)處理器稱為DPU。到目前為止,深鑒公開發(fā)布了兩款DPU:亞里士多德架構(gòu)和笛卡爾架構(gòu),其中,亞里士多德架構(gòu)是針對(duì)卷積神經(jīng)網(wǎng)絡(luò)CNN而設(shè)計(jì);笛卡爾架構(gòu)專為處理DNN/RNN網(wǎng)絡(luò)而設(shè)計(jì),可對(duì)經(jīng)過結(jié)構(gòu)壓縮后的稀疏神經(jīng)網(wǎng)絡(luò)進(jìn)行極致高效的硬件加速。相對(duì)于 Intel XeonCPU 與 Nvidia TitanX GPU,應(yīng)用笛卡爾架構(gòu)的處理器在計(jì)算速度上分別提高189倍與13倍,具有24000倍與3000倍更高能效。
4)西井科技&DeepSouth/DeepWell
公司成立于2015年,總部在上海。今年6月完成了A輪融資,投資方包括了復(fù)星同浩、源政投資、合力投資、十維資本、喔贏資本等。
西井科技是用FPGA模擬神經(jīng)元以實(shí)現(xiàn)SNN的工作方式,有兩款產(chǎn)品:
1、仿生類腦神經(jīng)元芯片DeepSouth(深南),第三代脈沖神經(jīng)網(wǎng)絡(luò)芯片SNN,基于STDP(spike-time-dependentplasticity)的算法構(gòu)建完整的突觸神經(jīng)網(wǎng)絡(luò),由電路模擬真實(shí)生物神經(jīng)元產(chǎn)生脈沖的仿生學(xué)芯片,通過動(dòng)態(tài)分配的方法能模擬出高達(dá)5000萬級(jí)別的“神經(jīng)元”,功耗為傳統(tǒng)芯片在同一任務(wù)下的幾十分之一到幾百分之一。
2、深度學(xué)習(xí)類腦神經(jīng)元芯片DeepWell(深井),處理模式識(shí)別問題的通用智能芯片,基于在線偽逆矩陣求解算法(OPIUM lite)對(duì)芯片中神經(jīng)元間的連接權(quán)重進(jìn)行學(xué)習(xí)和調(diào)整;擁12800萬個(gè)神經(jīng)元,通過專屬指令集調(diào)整芯片中神經(jīng)元資源的分配;學(xué)習(xí)與識(shí)別速度遠(yuǎn)遠(yuǎn)高于運(yùn)行在通用硬件(如CPU, GPU)上的傳統(tǒng)方法(如CNN),且功耗更低。
5)云飛勵(lì)天&IPU
公司成立于2014年,總部在深圳,由國家“千人計(jì)劃”特聘專家陳寧和田第鴻博士聯(lián)合創(chuàng)立,今年3月完成了A輪融資,投資方松禾資本、深投控、紅秀盈信、山水從容投資、投控東海、真格基金等。
云天勵(lì)飛提供視覺智能芯片和解決方案,專注于人工智能領(lǐng)域,以新型處理器、機(jī)器學(xué)習(xí)與大數(shù)據(jù)技術(shù)為核心。公司自主研發(fā)的處理器芯片IPU,采用了全新的面向視覺計(jì)算的處理器芯片架構(gòu),該技術(shù)將機(jī)器學(xué)習(xí)效能提升了兩個(gè)數(shù)量級(jí)。公司在在深圳搭建的區(qū)域級(jí)天眼系統(tǒng),實(shí)現(xiàn)了全球首創(chuàng)的“百萬人群、秒級(jí)定位”,還被采納為2016年杭州G20峰會(huì)和烏鎮(zhèn)互聯(lián)網(wǎng)大會(huì)的安全系統(tǒng)提供服務(wù)。
6)人人智能&FaceOS
人人智能成立于2016年,是ARM OpenAI實(shí)驗(yàn)室核心合作企業(yè)。公司于去年底完成了ARM和英諾天使基金的天使輪融資,據(jù)報(bào)道目前正在啟動(dòng)新一輪融資。
人人智能提供一個(gè)基ARM的人臉識(shí)別核心芯片即模組方案,識(shí)別模組是獨(dú)創(chuàng)的支持深度學(xué)習(xí)算法的嵌入式高性能ARM平臺(tái),支持外接攝像機(jī)從視頻流檢測(cè)和載取人臉照片等功能。據(jù)介紹,人人智能發(fā)布的“智能芯”是國內(nèi)首個(gè)人臉識(shí)別硬件模組,尺寸僅為86mm*56mm*21mm,集成了人工智能操作系統(tǒng)FaceOS。通過將人工智能算法進(jìn)行集成產(chǎn)品化,能夠把產(chǎn)品的研發(fā)周期減少60%,成本降低50%。
7)啟英泰倫&CI1006
啟英泰倫于2015年11月在成都成立,是一家語音識(shí)別芯片研發(fā)商,投資方包括了Roobo、匯聲信息等。
啟英泰倫的CI1006是基于ASIC架構(gòu)的人工智能語音識(shí)別芯片,包含了腦神經(jīng)網(wǎng)絡(luò)處理硬件單元,能夠完美支持DNN運(yùn)算架構(gòu),進(jìn)行高性能的數(shù)據(jù)并行計(jì)算,可極大的提高人工智能深度學(xué)習(xí)語音技術(shù)對(duì)大量數(shù)據(jù)的處理效率。
8)云知聲&UniOne芯片
云知聲是一家智能語音識(shí)別技術(shù)公司,成立于2012年,總部位于北京。今年8月剛剛獲得3億人民幣戰(zhàn)略投資,其中部分資金將用于加大人工智能專用芯片UniOne的研發(fā)力度。
UniOne將內(nèi)置DNN處理單元,兼容多麥克風(fēng)、多操作系統(tǒng),對(duì)任何的場(chǎng)景不做限制,無論是在智能的空調(diào)上、車載上或其他智能設(shè)備上都可以植入這個(gè)芯片,該芯片具有高集成度的,低功耗、低成本的優(yōu)點(diǎn)。與此同時(shí),公司還有IVM-M高性能嵌入式芯片,基于高通wifi模組,提供高性價(jià)比的物聯(lián)網(wǎng)語音交互整體方案,主要應(yīng)用在智能空調(diào),廚電等職能家具產(chǎn)品上;基于Linux系統(tǒng)設(shè)計(jì)的Unitoy芯片可一站式解決兒童陪伴式機(jī)器人的喚醒、識(shí)別、設(shè)備互聯(lián)能力。
9)百度&XPU
百度2017年8月Hot Chips大會(huì)上發(fā)布了XPU,這是一款256核、基于FPGA的云計(jì)算加速芯片。合作伙伴是賽思靈(Xilinx)。XPU采用新一代 AI 處理架構(gòu),擁有GPU的通用性和FPGA的高效率和低能耗,對(duì)百度的深度學(xué)習(xí)平臺(tái)PaddlePaddle做了高度的優(yōu)化和加速。據(jù)介紹,XPU關(guān)注計(jì)算密集型、基于規(guī)則的多樣化計(jì)算任務(wù),希望提高效率和性能,并帶來類似CPU的靈活性。但目前XPU有所欠缺的仍是可編程能力,而這也是涉及FPGA時(shí)普遍存在的問題。到目前為止,XPU尚未提供編譯器。
10)NovuMind
NovuMind成立于2015年,公司創(chuàng)始人是原百度異構(gòu)計(jì)算小組負(fù)責(zé)人吳韌,在北京及硅谷設(shè)有辦公室。公司于2017年初完成了A輪融資,投資方包括了真格基金、寬帶資本、英諾天使基金、洪泰基金、臻云創(chuàng)投、極客幫創(chuàng)投等,據(jù)報(bào)道近期正在籌備新一輪融資。
NovuMind主要為智能為汽車、安防、醫(yī)療、金融等領(lǐng)域提供ASIC芯片,并提供訓(xùn)練模型的全棧式AI解決方案。與Nvidia GPU或Cadence DSP的通用深度學(xué)習(xí)芯片不同,NovuMind專注于開發(fā)一種“非常專用但非常高效地進(jìn)行推理”的深度學(xué)習(xí)加速器芯片。NovuMind設(shè)計(jì)了一種僅使用3×3卷積過濾器的AI芯片,通過使用獨(dú)特的張量處理架構(gòu)(tensorprocessing architecture)直接對(duì)三維Tensor進(jìn)行處理,新芯片將支持Tensorflow、Cafe和Torch模型。。NovuMind的第一個(gè)AI芯片(原型)預(yù)計(jì)會(huì)在17年圣誕節(jié)前推出。到明年2月份應(yīng)用程序準(zhǔn)備就緒,并能夠在該芯片上實(shí)現(xiàn)耗能不超過5瓦進(jìn)行15萬億次浮點(diǎn)運(yùn)算。NovuMind的第二個(gè)芯片,耗能將不超過1瓦,計(jì)劃在2018年中期面世。
11)華為&麒麟970芯片
麒麟970搭載的神經(jīng)網(wǎng)絡(luò)處理器NPU采用了寒武紀(jì)IP。麒麟970采用了TSMC 10nm工藝制程,擁有55億個(gè)晶體管,功耗相比上一代芯片降低20%。CPU架構(gòu)方面為4核A73+4核A53組成8核心,能耗同比上一代芯片得到20%的提升;GPU方面采用了12核Mali G72 MP12GPU,在圖形處理以及能效兩項(xiàng)關(guān)鍵指標(biāo)方面分別提升20%和50%;NPU采用HiAI移動(dòng)計(jì)算架構(gòu),在FP16下提供的運(yùn)算性能可以達(dá)到1.92 TFLOPs,相比四個(gè)Cortex-A73核心,處理同樣的AI任務(wù),有大約50倍能效和25倍性能優(yōu)勢(shì)。
12)中星微電子&NPU
中星微2016年6月推出量產(chǎn)的NPU芯片“星光智能一號(hào)”,NPU采用了“數(shù)據(jù)驅(qū)動(dòng)并行計(jì)算”的架構(gòu),單顆NPU(28nm)能耗僅為400mW,極大地提升了計(jì)算能力與功耗的比例,特別擅長處理視頻、圖像類的海量多媒體數(shù)據(jù)。每個(gè)NPU由四個(gè)NPU內(nèi)核構(gòu)成;每個(gè)NPU內(nèi)核包括兩個(gè)數(shù)據(jù)流處理器和一個(gè)長字處理器;每個(gè)數(shù)據(jù)流處理器由8個(gè)長字或16個(gè)短字的SIMD(單指令多數(shù)據(jù))處理單元組成;每個(gè)NPU峰值可提供38Gops或76Gops短字的處理能力;支持通用的基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)層(ConvolutionLayer/Pooling Layer/Full Connection Layer/Activation Layer/Custom SpecificLayer)。
-
NVIDIA
+關(guān)注
關(guān)注
14文章
5080瀏覽量
103826 -
AI
+關(guān)注
關(guān)注
87文章
31711瀏覽量
270499 -
人工智能
+關(guān)注
關(guān)注
1796文章
47791瀏覽量
240559 -
自動(dòng)駕駛
+關(guān)注
關(guān)注
785文章
13945瀏覽量
167100
原文標(biāo)題:AI芯片產(chǎn)業(yè)生態(tài)梳理
文章出處:【微信號(hào):ittbank,微信公眾號(hào):ittbank】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
華為推動(dòng)中國人工智能框架生態(tài)高速發(fā)展
《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第6章人AI與能源科學(xué)讀后感
AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第4章-AI與生命科學(xué)讀后感
《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第二章AI for Science的技術(shù)支撐學(xué)習(xí)心得
《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》第一章人工智能驅(qū)動(dòng)的科學(xué)創(chuàng)新學(xué)習(xí)心得
risc-v在人工智能圖像處理應(yīng)用前景分析
人工智能ai 數(shù)電 模電 模擬集成電路原理 電路分析
人工智能ai4s試讀申請(qǐng)
名單公布!【書籍評(píng)測(cè)活動(dòng)NO.44】AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新
報(bào)名開啟!深圳(國際)通用人工智能大會(huì)將啟幕,國內(nèi)外大咖齊聚話AI
AI人工智能機(jī)器人產(chǎn)業(yè)--政府真正應(yīng)承擔(dān)的責(zé)任與角色
![<b class='flag-5'>AI</b><b class='flag-5'>人工智能</b>機(jī)器人<b class='flag-5'>產(chǎn)業(yè)</b>--政府真正應(yīng)承擔(dān)的責(zé)任與角色](https://file.elecfans.com/web2/M00/30/4C/poYBAGIJsSmACi3tAAFuCnhoP8I446.png)
評(píng)論