欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

IPU 與 GPU 間無縫銜接,未來聚焦數(shù)據(jù)中心的AI訓(xùn)練和推理部署

工程師鄧生 ? 來源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2021-01-02 10:22 ? 次閱讀

“不管是在今天 GPU 能夠做的事情上,還是 GPU 不能做的事情上,IPU 都有它的價值點(diǎn)和價值定位?!?日前,在英國 AI 芯片初創(chuàng)公司 Graphcore 中國區(qū)的媒體溝通會上,Graphcore 高級副總經(jīng)理兼中國區(qū)總經(jīng)理盧濤和 Graphcore 中國工程總負(fù)責(zé)人、AI 算法科學(xué)家金琛,就 Graphcore 的新產(chǎn)品性能以及該公司在中國的落地策略向 DeepTech 等媒體進(jìn)行了同步。

溝通會上,Graphcore 解讀了其于本月公布的大規(guī)模系統(tǒng)級產(chǎn)品 IPU-M2000 的應(yīng)用測試數(shù)據(jù)。公布數(shù)據(jù)顯示,在典型 CV 模型 ResNet、基于分組卷積的 ResNeXt、EfficientNet、語音模型、BERT-Large 等自然語言處理模型以及 MCMC 等傳統(tǒng)機(jī)器學(xué)習(xí)模型中,IPU-M2000 在吞吐量、訓(xùn)練時間和學(xué)習(xí)結(jié)果生成時間方面都有較好表現(xiàn)。比如,在 IPU-M2000 上 EfficientNet 的吞吐量達(dá)到 A100 的 18 倍。

圖 | IPU-M2000 與 GPU 的吞吐量、訓(xùn)練及結(jié)果生成時間對比(來源:Graphcore)

66e3cb43bec8442f90d9105440bb1a58.jpeg

此前,IPU-M2000 與 Graphcore 第二代 IPU 處理器 GC200 已于今年 7 月 15 日發(fā)布。據(jù)介紹,GC200 芯片基于臺積電的 7nm 工藝制造,集成 250 TFlops AI-Float 算力和 900MB 處理器內(nèi)存,相較第一代產(chǎn)品性能提升 8 倍。而對于第三代 IPU,盧濤在此次溝通會上并未透露發(fā)布的具體時間表,不過他表示下一代產(chǎn)品正在研發(fā)中,將依舊重點(diǎn)解決存儲問題。

支持 PyTorch、TensorFlow,在 IPU 與 GPU 間無縫銜接

另外,Graphcore 還發(fā)布了 Poplar SDK 1.4 版本和 PyTorch 的 IPU 版本。

Graphcore 對 Poplar SDK 1.4 版本在易用性和速度上進(jìn)行了優(yōu)化,能夠支持模型和數(shù)據(jù)并行,同時能夠?qū)崿F(xiàn)模型的橫向擴(kuò)展 —— 從 1 個 IPU 橫向擴(kuò)展到 64 個 IPU。金琛表示,下一版本的 Poplar SDK 有望實現(xiàn)橫向擴(kuò)展到 128 個 IPU。

值得關(guān)注的是,除支持 Graphcore 的自研框架 PopART 外,Poplar SDK 1.4 還支持 Facebook 的 PyTorch 框架、以及 Google 的 TensorFlow 框架。

據(jù)金琛介紹,Graphcore 在 PyTorch 代碼中引入了 PopTorch 輕量級接口,通過這一接口,用戶可基于當(dāng)前的 PyTorch 模型進(jìn)行封裝,以實現(xiàn) IPU 和 CPU 之間的無障礙銜接。

對于實現(xiàn)這一功能的核心技術(shù),金琛做進(jìn)一步解釋說,Graphcore 采用 PyTorch 里的 jit.trace 機(jī)制對計算圖進(jìn)行編譯,轉(zhuǎn)化為 IPU 和 PyTorch 兼容的表達(dá)格式,最后用 Graphcore 自研框架 PopART 后端的 audiff 功能自動生成反向圖,便可以實現(xiàn)同一個模型在不同平臺的無差別運(yùn)行。

目前,PyTorch 因其直觀易懂、靈活易用等優(yōu)勢受到開發(fā)者的廣泛喜愛和應(yīng)用。Poplar SDK 1.4 增加了對 PyTorch 的支持,策略上是希望用戶在 IPU 上也能體驗 PyTorch,讓用戶多一個轉(zhuǎn)戰(zhàn) IPU 的理由。不過目前英偉達(dá)的 GPU 已經(jīng)在 AI 計算領(lǐng)域占據(jù)大部分市場,此時 IPU 能夠提供的價值、轉(zhuǎn)場到 IPU 的成本等,都是用戶所要考慮的問題。

在遷移成本上,盧濤表示,經(jīng)過幾年來對 Poplar SDK 的打磨,現(xiàn)在從 GPU 到 IPU 的軟硬件遷移難度已經(jīng)比大家認(rèn)為的小得多。

金琛補(bǔ)充道,在訓(xùn)練上,針對一個不太復(fù)雜的模型,一般一周可以遷移完成,對于復(fù)雜的模型大概需要兩周;在推理上,基本上是 1-2 天的工作量。

談及性能,盧濤表示:“IPU 在訓(xùn)練推理、語音、圖像模型處理上基本全面超越 GPU。” 不過他也坦言:“不能說 100% 超越了 GPU,因為算法模型確實非常多,比如說語音有不同的語音模型、圖像也是有不同的圖像模型?!?/p>

未來:持續(xù)優(yōu)化性能,進(jìn)一步壓縮遷移成本

IPU 在機(jī)器學(xué)習(xí)性能上的明顯優(yōu)勢是不可否認(rèn)的,但前有身強(qiáng)體壯且努力奔跑的巨頭英偉達(dá),Graphcore 更是一刻也不容懈怠。盧濤在溝通會上也多次提到,“目前 Graphcore 面對的壓力最主要還是來自英偉達(dá)”。

“重壓” 之下,Graphcore 短期內(nèi)的計劃是聚焦在數(shù)據(jù)中心高性能訓(xùn)練和推理市場上,持續(xù)打磨 IPU 和軟件平臺,持續(xù)優(yōu)化性能和提高可用性。盧濤說,“只有在我們聚焦的領(lǐng)域跑得更快,Graphcore 和英偉達(dá)之間的距離才會越來越短,甚至在某些領(lǐng)域超過英偉達(dá)”。

他還表示,Graphcore 希望未來數(shù)年內(nèi),能在數(shù)據(jù)中心的 AI 訓(xùn)練、推理批量部署、以及發(fā)貨和體量上做到除英偉達(dá)以外的另一個頭部地位。

為實現(xiàn)該目標(biāo),Graphcore 也將從增加 AI 框架支持、以及模型覆蓋兩個維度著手,以期進(jìn)一步減少用戶的遷移成本。此外,除目前 AI 應(yīng)用最廣泛的互聯(lián)網(wǎng)和云計算兩個場景外,盧濤表示公司明年還將在金融、汽車、智慧醫(yī)療、智慧教育、智慧城市和政府服務(wù)等領(lǐng)域,至少突破一到兩個比較主流的領(lǐng)域。

責(zé)任編輯:PSY

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4790

    瀏覽量

    129442
  • 數(shù)據(jù)中心
    +關(guān)注

    關(guān)注

    16

    文章

    4872

    瀏覽量

    72431
  • IPU
    IPU
    +關(guān)注

    關(guān)注

    0

    文章

    34

    瀏覽量

    15602
收藏 人收藏

    評論

    相關(guān)推薦

    利用Multi-Die設(shè)計的AI數(shù)據(jù)中心芯片對40G UCIe IP的需求

    ,我們估計需要6000到8000個A100 GPU歷時長達(dá)一個月才能完成訓(xùn)練任務(wù)。”不斷提高的HPC和AI計算性能要求正在推動Multi-Die設(shè)計的部署,將多個異構(gòu)或同構(gòu)裸片集成到一
    的頭像 發(fā)表于 01-09 10:10 ?522次閱讀
    利用Multi-Die設(shè)計的<b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>芯片對40G UCIe IP的需求

    GPU是如何訓(xùn)練AI大模型的

    AI模型的訓(xùn)練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU
    的頭像 發(fā)表于 12-19 17:54 ?258次閱讀

    AI數(shù)據(jù)中心的布線考量

    帶來的威脅。最近,DALLE-2 和 ChatGPT 的發(fā)布引起了廣大公眾對 AI可以做什么的極大興趣,也引發(fā)了人們關(guān)于 AI 將如何改變教育和工作性質(zhì)的討論。AI 也是當(dāng)前和未來
    的頭像 發(fā)表于 12-05 09:26 ?371次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>數(shù)據(jù)中心</b>的布線考量

    超云亮相2024數(shù)據(jù)中心標(biāo)準(zhǔn)大會,展示AI全棧推理硬件創(chuàng)新成果

    11月20日-21日,CDCC?2024第十二屆數(shù)據(jù)中心標(biāo)準(zhǔn)大會在北京國家會議中心隆重召開。作為數(shù)據(jù)中心行業(yè)規(guī)模最大的高端會議,本屆大會以“AI之光,照耀
    的頭像 發(fā)表于 11-22 09:54 ?247次閱讀
    超云亮相2024<b class='flag-5'>數(shù)據(jù)中心</b>標(biāo)準(zhǔn)大會,展示<b class='flag-5'>AI</b>全棧<b class='flag-5'>推理</b>硬件創(chuàng)新成果

    華迅光通AI計算加速800G光模塊部署

    近年來,在人工智能計算需求不斷增長的推動下,對GPU和其他計算硬件的需求急劇飆升。僅今年一年,英偉達(dá)的股價就上漲了200%以上,這一點(diǎn)顯而易見。此外,由于數(shù)據(jù)中心的人工智能訓(xùn)練需要高速數(shù)據(jù)
    發(fā)表于 11-13 10:16

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?467次閱讀

    SK電訊將與Lambda合作打造AI數(shù)據(jù)中心

    韓國領(lǐng)先的電信巨頭SK電訊(SK Telecom)宣布了一項重要合作計劃,將與美國知名的云GPU服務(wù)提供商Lambda攜手,于2024年12月在首爾共同推出一個先進(jìn)的人工智能(AI數(shù)據(jù)中心。該
    的頭像 發(fā)表于 08-23 17:29 ?1371次閱讀

    AI時代,我們需要怎樣的數(shù)據(jù)中心AI重新定義數(shù)據(jù)中心

    超過60%的中國企業(yè)計劃在未來12至24個月內(nèi)部署生成式人工智能。AI、模型的構(gòu)建,將顛覆數(shù)據(jù)中心基礎(chǔ)設(shè)施的建設(shè)、運(yùn)維和運(yùn)營。一個全新的數(shù)據(jù)中心
    發(fā)表于 07-16 11:33 ?797次閱讀
    <b class='flag-5'>AI</b>時代,我們需要怎樣的<b class='flag-5'>數(shù)據(jù)中心</b>?<b class='flag-5'>AI</b>重新定義<b class='flag-5'>數(shù)據(jù)中心</b>

    數(shù)據(jù)中心液冷需求、技術(shù)及實際應(yīng)用

    夏日炎炎,數(shù)據(jù)中心制冷技術(shù)全新升級,液冷散熱,讓服務(wù)器清涼一夏。本文將帶您一起探索數(shù)據(jù)中心液冷需求、技術(shù)及實際應(yīng)用。 1 數(shù)據(jù)中心液冷需求 AI浪潮來襲,
    的頭像 發(fā)表于 06-19 11:12 ?1300次閱讀
    <b class='flag-5'>數(shù)據(jù)中心</b>液冷需求、技術(shù)及實際應(yīng)用

    英偉達(dá)數(shù)據(jù)中心GPU出貨量飆升,市場份額持續(xù)領(lǐng)跑

    ,英偉達(dá)在2023年數(shù)據(jù)中心GPU出貨量方面實現(xiàn)了爆炸式增長,這一增長不僅彰顯了其在數(shù)據(jù)中心領(lǐng)域的領(lǐng)先地位,也預(yù)示著英偉達(dá)在AI和云計算等前沿技術(shù)領(lǐng)域的持續(xù)發(fā)力。
    的頭像 發(fā)表于 06-13 17:08 ?1298次閱讀

    Napatech IPU解決方案助力優(yōu)化數(shù)據(jù)中心存儲工作負(fù)載

    Napatech是全球領(lǐng)先的智能網(wǎng)卡(SmartNIC)和IPU解決方案供 應(yīng)商,業(yè)務(wù)范圍涵蓋云計算、企 業(yè)和電信數(shù)據(jù)中心應(yīng)用等領(lǐng)域。
    的頭像 發(fā)表于 05-29 11:50 ?682次閱讀
    Napatech <b class='flag-5'>IPU</b>解決方案助力優(yōu)化<b class='flag-5'>數(shù)據(jù)中心</b>存儲工作負(fù)載

    進(jìn)一步解讀英偉達(dá) Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    。 **英偉達(dá)Blackwell架構(gòu)在數(shù)據(jù)中心方面的應(yīng)用有哪些?** 1. **AI **大模型訓(xùn)練 Blackwell 架構(gòu)的 GPU 針對當(dāng)前火爆的
    發(fā)表于 05-13 17:16

    AI推理,和訓(xùn)練有什么不同?

    如果要用一句話概括AI訓(xùn)練推理的不同之處,我覺得用“臺上一分鐘,臺下十年功”最為貼切。話說小明已經(jīng)和心目中的女神交往數(shù)年,在邀約女神出門這件事上積累了大量的經(jīng)驗數(shù)據(jù),但卻依然捉摸不
    的頭像 發(fā)表于 04-29 08:06 ?210次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>,和<b class='flag-5'>訓(xùn)練</b>有什么不同?

    AI訓(xùn)練,為什么需要GPU?

    隨著由ChatGPT引發(fā)的人工智能熱潮,GPU成為了AI大模型訓(xùn)練平臺的基石,甚至是決定性的算力底座。為什么GPU能力壓CPU,成為炙手可熱的主角呢?要回答這個問題,首先需要了解當(dāng)前人
    的頭像 發(fā)表于 04-24 08:05 ?1075次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>訓(xùn)練</b>,為什么需要<b class='flag-5'>GPU</b>?

    #mpo極性 #數(shù)據(jù)中心mpo

    數(shù)據(jù)中心MPO
    jf_51241005
    發(fā)布于 :2024年04月07日 10:05:13