欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GPU深度學(xué)習(xí)面臨的挑戰(zhàn)分析

我快閉嘴 ? 來源:AI前線 ? 作者:Ben Dickson ? 2020-12-11 15:02 ? 次閱讀

人工智能的興起觸發(fā)了市場對 GPU 的大量需求,但 GPU 在 AI 場景中的應(yīng)用面臨使用壽命短、使用成本高等問題?,F(xiàn)場可編程門陣列 (FPGA) 這一可以定制化硬件處理器反倒是更好的解決方案。隨著可編程性等問題在 FPGA 上的解決,F(xiàn)PGA 將成為市場人工智能應(yīng)用的選擇。

在過去的十年里,人工智能的再一次興起使顯卡行業(yè)受益匪淺。英偉達(dá) (Nvidia) 和 AMD公司的股價也大幅上漲,因?yàn)槭聦?shí)表明,它們的 GPU 在訓(xùn)練和運(yùn)行 深度學(xué)習(xí)模型 方面效果明顯。實(shí)際上,英偉達(dá)也已經(jīng)對自己的業(yè)務(wù)進(jìn)行了轉(zhuǎn)型,之前它是一家純粹做 GPU 和游戲的公司,現(xiàn)在除了作為一家云 GPU 服務(wù)提供商外,英偉達(dá)還成立了專業(yè)的人工智能研究實(shí)驗(yàn)室。

不過,機(jī)器學(xué)習(xí)軟件公司 Mipsology 的首席執(zhí)行官兼聯(lián)合創(chuàng)始人盧多維奇?拉祖爾 (Ludovic Larzul) 表示,GPU 還存在著一些缺陷,這使其在 AI 應(yīng)用中面臨著一些挑戰(zhàn)。

Larzul 表示,想要解決這些問題的解決方案便是實(shí)現(xiàn)現(xiàn)場可編程門陣列 (FPGA),這也是他們公司的研究領(lǐng)域。FPGA 是一種處理器,可以在制造后定制,這使得它比一般處理器更高效。但是,很難對 FPGA 進(jìn)行編程,Larzul 希望通過自己公司開發(fā)的新平臺解決這個問題。

專業(yè)的人工智能硬件已經(jīng)成為了一個獨(dú)立的產(chǎn)業(yè),但對于什么是深度學(xué)習(xí)算法的最佳基礎(chǔ)設(shè)施,人們?nèi)匀粵]有定論。如果 Mipsology 成功完成了研究實(shí)驗(yàn),許多正受 GPU 折磨的 AI 開發(fā)者將從中受益。

GPU 深度學(xué)習(xí)面臨的挑戰(zhàn)

三維圖形是 GPU 擁有如此大的內(nèi)存和計算能力的根本原因,它與 深度神經(jīng)網(wǎng)絡(luò) 有一個共同之處:都需要進(jìn)行大量矩陣運(yùn)算。

顯卡可以并行執(zhí)行矩陣運(yùn)算,極大地加快計算速度。圖形處理器可以把訓(xùn)練神經(jīng)網(wǎng)絡(luò)的時間從幾天、幾周縮短到幾小時、幾分鐘。

隨著圖形硬件公司供貨的不斷增加,GPU 在深度學(xué)習(xí)中的市場需求還催生了大量公共云服務(wù),這些服務(wù)為深度學(xué)習(xí)項(xiàng)目提供強(qiáng)大的 GPU 虛擬機(jī)。

但是顯卡也受硬件和環(huán)境的限制。Larzul 解釋說:“神經(jīng)網(wǎng)絡(luò)訓(xùn)練通常是在一個確定的環(huán)境中進(jìn)行的,運(yùn)行神經(jīng)網(wǎng)絡(luò)的系統(tǒng)會在部署中遇到各種限制——這可能會對 GPU 的實(shí)際使用造成壓力?!?/p>

GPU 需要大量的電力,會產(chǎn)生大量的熱量,并需要使用風(fēng)扇冷卻。當(dāng)你在臺式工作站、筆記本電腦或機(jī)架式服務(wù)器上訓(xùn)練神經(jīng)網(wǎng)絡(luò)時,這不是什么大問題。但是,許多部署深度學(xué)習(xí)模型的環(huán)境對 GPU 并不友好,比如自動駕駛汽車、工廠、機(jī)器人和許多智慧城市環(huán)境,在這些環(huán)境中硬件必須忍受熱、灰塵、濕度、運(yùn)動和電力限制等環(huán)境因素。

Larzul 說:“在一些關(guān)鍵的應(yīng)用場景中,比如智慧城市的視頻監(jiān)控,要求硬件暴露在對 GPU 有不利影響的環(huán)境因素 (比如太陽) 下。“ GPU 受晶體管技術(shù)的限制,導(dǎo)致它們在高溫下運(yùn)行時需要及時冷卻,而這并不總是可以實(shí)現(xiàn)的。要做到這點(diǎn)需要更多的電力、維護(hù)成本等。”

使用壽命也是一個問題。一般來說,GPU 的使用 壽命約為 2-5 年,這對那些每隔幾年就換一次電腦的玩家來說不是什么大問題。但在其他領(lǐng)域,如汽車行業(yè),需要硬件有更高的耐用性,這就帶來了問題。特別是過多的暴露在惡劣的環(huán)境中,再加上高強(qiáng)度的使用,GPU 的使用壽命將會更短。

Larzul 說:“從商業(yè)可行性方面考慮,自動駕駛汽車等應(yīng)用可能需要多達(dá) 7-10 個 GPU(其中大多數(shù)會在不到四年的時間內(nèi)失效),對于大多數(shù)購車者來說,智能或自動駕駛汽車的成本將變得不切實(shí)際?!?/p>

機(jī)器人、醫(yī)療保健和安全系統(tǒng)等其他行業(yè)也面臨著類似的挑戰(zhàn)。

FPGA 和深度學(xué)習(xí)

FPGA 是可定制的硬件設(shè)備,可對其組件進(jìn)行調(diào)節(jié),因此可以針對特定類型的架構(gòu) (如 卷積神經(jīng)網(wǎng)絡(luò)) 進(jìn)行優(yōu)化。其可定制性特征降低了對電力的需求,并在運(yùn)算速度和吞吐量方面提供了更高的性能。它們的使用壽命也更長,大約是 GPU 的 2-5 倍,并且對惡劣環(huán)境和其它特殊環(huán)境因素有更強(qiáng)的適應(yīng)性。

有一些公司已經(jīng)在他們的人工智能產(chǎn)品中使用了 FPGA。微軟 就是其中一家,它將基于 FPGA 的機(jī)器學(xué)習(xí)技術(shù)作為其 Azure 云服務(wù)產(chǎn)品的一部分來提供。

不過 FPGA 的缺陷是難于編程。配置 FPGA 需要具備硬件描述語言 (如 Verilog 或 VHDL) 的知識和專業(yè)技能。機(jī)器學(xué)習(xí)程序是用 Python 或 C 等高級語言編寫的,將其邏輯轉(zhuǎn)換為 FPGA 指令非常困難。在 FPGA 上運(yùn)行 TensorFlow、PyTorch、Caffe 和其他框架建模的神經(jīng)網(wǎng)絡(luò)通常需要消耗大量的人力時間和精力。

“要對 FPGA 進(jìn)行編程,你需要組建一支懂得如何開發(fā) FPGA 的硬件工程師團(tuán)隊,并聘請一位了解神經(jīng)網(wǎng)絡(luò)的優(yōu)秀架構(gòu)師,花費(fèi)幾年時間去開發(fā)一個硬件模型,最終編譯運(yùn)行在 FPGA 上,與此同時你還需要處理 FPGA 使用效率和使用頻率的問題?!癓arzul 說。此外你還需要具備廣泛的數(shù)學(xué)技能,以較低的精度準(zhǔn)確地計算模型,并需要一個軟件團(tuán)隊將 AI 框架模型映射到硬件架構(gòu)。

Larzul 的公司 Mipsology 希望通過 Zebra 來彌合這一差距。Zebra 是一種軟件平臺,開發(fā)者可以輕松地將深度學(xué)習(xí)代碼移植到 FPGA 硬件上。

Larzul 說:“我們提供了一個軟件抽象層,它隱藏了通常需要高級 FPGA 專業(yè)知識的復(fù)雜性。”“只需加載 Zebra,輸入一個 Linux 命令,Zebra 就可以工作了——它不需要編譯,不需要對神經(jīng)網(wǎng)絡(luò)進(jìn)行任何更改,也不需要學(xué)習(xí)任何新工具。不過你可以保留你的 GPU 用于訓(xùn)練?!?/p>

AI 硬件前景

Mipsology 的 Zebra 平臺是開發(fā)者探索在 AI 項(xiàng)目中使用 FPGA 的 眾多方案之一。Xilinx 是 FPGA 領(lǐng)域的領(lǐng)導(dǎo)者,已經(jīng)開發(fā)了 Zebra 并將其集成到了電路板中。其他公司,如谷歌和特斯拉,也正積極的為其開發(fā)專用的 AI 硬件,用于自己的云產(chǎn)品和邊緣計算產(chǎn)品環(huán)境中。

神經(jīng)形態(tài)芯片 方面也有著一些發(fā)展,這是一種專門為神經(jīng)網(wǎng)絡(luò)設(shè)計的計算機(jī)架構(gòu)。英特爾在神經(jīng)形態(tài)計算領(lǐng)域處于領(lǐng)先地位,已經(jīng)開發(fā)了幾種模型架構(gòu),不過該領(lǐng)域仍處于早期發(fā)展階段。

還有專門用于特定應(yīng)用的集成電路ASIC),即專為某一特定人工智能需求制造的芯片。但 ASIC 缺乏 FPGA 的靈活性,無法重新編程。

Larzul 最后說,“我們決定專注于軟件業(yè)務(wù),探索研究提升神經(jīng)網(wǎng)絡(luò)性能和降低延遲的方案。Zebra 運(yùn)行在 FPGA 上,因此無需更換硬件就可以支持 AI 推理。FPGA 固件的每次刷新都能給我們帶來更高的性能提升,這得益于其高效性和較短的開發(fā)周期。另外,F(xiàn)PGA 的可選擇方案很多,具有很好的市場適應(yīng)性?!?br /> 責(zé)任編輯:tzh

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • FPGA
    +關(guān)注

    關(guān)注

    1630

    文章

    21801

    瀏覽量

    606349
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4785

    瀏覽量

    129408
  • 人工智能
    +關(guān)注

    關(guān)注

    1796

    文章

    47768

    瀏覽量

    240508
收藏 人收藏

    評論

    相關(guān)推薦

    深度學(xué)習(xí)工作負(fù)載中GPU與LPU的主要差異

    ,一個新的競爭力量——LPU(Language Processing Unit,語言處理單元)已悄然登場,LPU專注于解決自然語言處理(NLP)任務(wù)中的順序性問題,是構(gòu)建AI應(yīng)用不可或缺的一環(huán)。 本文旨在探討深度學(xué)習(xí)工作負(fù)載中GPU
    的頭像 發(fā)表于 12-09 11:01 ?2019次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>工作負(fù)載中<b class='flag-5'>GPU</b>與LPU的主要差異

    GPU深度學(xué)習(xí)中的應(yīng)用 GPUs在圖形設(shè)計中的作用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其核心部分,已經(jīng)成為推動技術(shù)進(jìn)步的重要力量。GPU(圖形處理單元)在深度學(xué)習(xí)中扮演著至關(guān)重要的角色,
    的頭像 發(fā)表于 11-19 10:55 ?762次閱讀

    深度學(xué)習(xí)中RNN的優(yōu)勢與挑戰(zhàn)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是深度學(xué)習(xí)領(lǐng)域中處理序列數(shù)據(jù)的基石。它們通過在每個時間步長上循環(huán)傳遞信息,使得網(wǎng)絡(luò)能夠捕捉時間序列數(shù)據(jù)中的長期依賴關(guān)系。然而,盡管RNN在某些任務(wù)上表現(xiàn)出色,它們也面臨著一些
    的頭像 發(fā)表于 11-15 09:55 ?633次閱讀

    NPU在深度學(xué)習(xí)中的應(yīng)用

    設(shè)計的硬件加速器,它在深度學(xué)習(xí)中的應(yīng)用日益廣泛。 1. NPU的基本概念 NPU是一種專門針對深度學(xué)習(xí)算法優(yōu)化的處理器,它與傳統(tǒng)的CPU和GPU
    的頭像 發(fā)表于 11-14 15:17 ?940次閱讀

    pcie在深度學(xué)習(xí)中的應(yīng)用

    深度學(xué)習(xí)模型通常需要大量的數(shù)據(jù)和強(qiáng)大的計算能力來訓(xùn)練。傳統(tǒng)的CPU計算資源有限,難以滿足深度學(xué)習(xí)的需求。因此,GPU(圖形處理單元)和TPU
    的頭像 發(fā)表于 11-13 10:39 ?547次閱讀

    GPU深度學(xué)習(xí)應(yīng)用案例

    GPU深度學(xué)習(xí)中的應(yīng)用廣泛且重要,以下是一些GPU深度學(xué)習(xí)應(yīng)用案例: 一、圖像識別 圖像識別是
    的頭像 發(fā)表于 10-27 11:13 ?521次閱讀

    深度學(xué)習(xí)GPU加速效果如何

    圖形處理器(GPU)憑借其強(qiáng)大的并行計算能力,成為加速深度學(xué)習(xí)任務(wù)的理想選擇。
    的頭像 發(fā)表于 10-17 10:07 ?272次閱讀

    FPGA做深度學(xué)習(xí)能走多遠(yuǎn)?

    的發(fā)展前景較為廣闊,但也面臨一些挑戰(zhàn)。以下是一些關(guān)于 FPGA 在深度學(xué)習(xí)中應(yīng)用前景的觀點(diǎn),僅供參考: ? 優(yōu)勢方面: ? 高度定制化的計算架構(gòu):FPGA 可以根據(jù)
    發(fā)表于 09-27 20:53

    深度學(xué)習(xí)算法在嵌入式平臺上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法在各個領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源受限的嵌入式平臺上,仍然是一個具有挑戰(zhàn)性的任
    的頭像 發(fā)表于 07-15 10:03 ?1749次閱讀

    基于深度學(xué)習(xí)的小目標(biāo)檢測

    )的廣泛應(yīng)用,小目標(biāo)檢測的性能得到了顯著提升。本文將詳細(xì)探討基于深度學(xué)習(xí)的小目標(biāo)檢測技術(shù),包括其定義、挑戰(zhàn)、常用方法以及未來發(fā)展方向。
    的頭像 發(fā)表于 07-04 17:25 ?1077次閱讀

    深度學(xué)習(xí)的模型優(yōu)化與調(diào)試方法

    深度學(xué)習(xí)模型在訓(xùn)練過程中,往往會遇到各種問題和挑戰(zhàn),如過擬合、欠擬合、梯度消失或爆炸等。因此,對深度學(xué)習(xí)模型進(jìn)行優(yōu)化與調(diào)試是確保其性能優(yōu)越的
    的頭像 發(fā)表于 07-01 11:41 ?1027次閱讀

    深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的對比

    在人工智能的浪潮中,機(jī)器學(xué)習(xí)深度學(xué)習(xí)無疑是兩大核心驅(qū)動力。它們各自以其獨(dú)特的方式推動著技術(shù)的進(jìn)步,為眾多領(lǐng)域帶來了革命性的變化。然而,盡管它們都屬于機(jī)器學(xué)習(xí)的范疇,但
    的頭像 發(fā)表于 07-01 11:40 ?1557次閱讀

    新手小白怎么學(xué)GPU云服務(wù)器跑深度學(xué)習(xí)?

    新手小白想用GPU云服務(wù)器跑深度學(xué)習(xí)應(yīng)該怎么做? 用個人主機(jī)通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不動,如何實(shí)現(xiàn)更經(jīng)濟(jì)便捷的實(shí)現(xiàn)GPU云服務(wù)器
    發(fā)表于 06-11 17:09

    大模型時代,國產(chǎn)GPU面臨哪些挑戰(zhàn)

    ,國產(chǎn)GPU在不斷成長的過程中也存在諸多挑戰(zhàn)。 ? 在大模型訓(xùn)練上存在差距 ? 大語言模型是基于深度學(xué)習(xí)的技術(shù)。這些模型通過在海量文本數(shù)據(jù)上的訓(xùn)練,
    的頭像 發(fā)表于 04-03 01:08 ?4769次閱讀
    大模型時代,國產(chǎn)<b class='flag-5'>GPU</b><b class='flag-5'>面臨</b>哪些<b class='flag-5'>挑戰(zhàn)</b>

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    基礎(chǔ)設(shè)施,人們?nèi)匀粵]有定論。如果 Mipsology 成功完成了研究實(shí)驗(yàn),許多正受 GPU 折磨的 AI 開發(fā)者將從中受益。 GPU 深度學(xué)習(xí)面臨
    發(fā)表于 03-21 15:19