欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AMD甩出最強(qiáng)AI芯片 單個GPU跑大模型

jf_GctfwYN7 ? 來源:芯東西 ? 2023-06-20 10:47 ? 次閱讀

專為生成式AI設(shè)計的GPU:HBM密度是英偉達(dá)H100的2.4倍,帶寬是英偉達(dá)H100的1.6倍。

英偉達(dá)的頭號勁敵AMD,終于放出了令人期待已久的AI大招。

2014年,蘇姿豐成為AMD CEO時,這家芯片企業(yè)正瀕臨生存危機(jī),裁員約1/4,股價徘徊在2美元。隨后在蘇姿豐的掌舵之下,AMD完成了漂亮的轉(zhuǎn)身,9年來股價飆升近30倍,對英偉達(dá)和英特爾兩家頂級芯片巨頭形成了制衡。 隨著生成式AI颶風(fēng)席卷全球,英偉達(dá)GPU被各家大廠爭相搶購,焦點很快轉(zhuǎn)移到AMD身上——AMD能否生產(chǎn)出足夠強(qiáng)大的AI芯片來打破英偉達(dá)近乎壟斷的市場地位,抓住新一波AI浪潮? 今日,AMD交出階段性答卷。

在展示下一代AI芯片MI300X加速器時,蘇姿豐滿面笑容地說:“我愛這顆芯片”。 MI300X是一個純GPU版本,采用AMD CDNA 3技術(shù),使用多達(dá)192 GB的HBM3高帶寬內(nèi)存來加速大型語言模型和生成式AI計算。 AMD主要客戶將在第三季度開始試用MI300X,第四季度開始全面生產(chǎn)。另一種型號Instinct MI300A現(xiàn)在正在向客戶發(fā)售。 蘇姿豐說,人工智能是AMD“最大、最具戰(zhàn)略意義的長期增長機(jī)會”。 現(xiàn)場,AMD與明星AI獨角獸企業(yè)Hugging Face宣布了一項新的合作伙伴關(guān)系,為AMD的CPU、GPU和其他AI硬件優(yōu)化他們的模型。

除了AI芯片外,AMD還推出專為云計算和超大規(guī)模用戶設(shè)計的全新EPYC服務(wù)器處理器,代號為Bergamo,每個插槽最多包含128個內(nèi)核,并針對各種容器化工作負(fù)載進(jìn)行了優(yōu)化。 亞馬遜旗下云計算部門AWS、甲骨文云、Meta、微軟Azure的高管均來到現(xiàn)場,分享在其數(shù)據(jù)中心使用AMD芯片及軟件的感受。

01. 加速生成式AI: 192GB HBM3,單個GPU跑大模型

此前,AMD Instinct GPU已經(jīng)被許多世界上最快的超級計算機(jī)采用。

MI300X加速器是AMD Instinct MI300系列的新成員,提供一個僅有GPU配置的芯片版本。

MI300X及其CDNA架構(gòu)專為大型語言模型和其他先進(jìn)AI模型而設(shè)計,將12個5nm chiplets封裝在一起,共有1530億晶體管。

這款全新AI芯片舍棄了APU的24個Zen內(nèi)核和I/O芯片,轉(zhuǎn)而采用更多的CDNA 3 GPU和更大的192GB HBM3,提供5.2 TB/s的內(nèi)存帶寬和896GB/s的無限帶寬。

MI300X的HBM密度是英偉達(dá)H100的2.4倍,帶寬是英偉達(dá)H100的1.6倍,這意味著AMD可以運行比英偉達(dá)芯片更大的模型。

AMD演示了在單個MI300X GPU上運行擁有400億個參數(shù)的Falcon-40B大型語言模型,讓它寫了一首關(guān)于舊金山的詩。

“模型尺寸變得越來越大,你需要多個GPU來運行最新的大型語言模型,”蘇姿豐說,隨著AMD芯片上內(nèi)存增加,開發(fā)者將不需要那么多GPU。

另一款MI300A被蘇姿豐稱作“面向AI和高性能計算的全球首款A(yù)PU加速器”,將多個CPU、GPU和高帶寬內(nèi)存封在一起,在13個chiplets上擁有1460億顆晶體管。

MI300A采用5nm和6nm制程、CDNA 3 GPU架構(gòu),搭配24個Zen 4核心、128GB HBM3,相比MI250提供了8倍以上的性能和5倍以上的效率。 AMD還公布了一種AMD Infinity架構(gòu)。該架構(gòu)將8個 MI300X加速器連接在一個考慮了AI推理和訓(xùn)練的標(biāo)準(zhǔn)系統(tǒng)中,提供共1.5TB HBM3內(nèi)存。

據(jù)臺媒報道,AMD的Instinct MI300系列以及英偉達(dá)的H100/H800系列GPU都在采用臺積電先進(jìn)的后端3D封裝方法CoWoS,導(dǎo)致臺積電CoWoS產(chǎn)能短缺將持續(xù)存在。臺積電目前有能力每月處理大約8000片CoWoS晶圓,其中英偉達(dá)和AMD合計占了大約70%到80%。

此外,英偉達(dá)近年備受開發(fā)者偏愛的一大關(guān)鍵護(hù)城河是CUDA軟件。AMD 總裁Victor Peng也展示了AMD在開發(fā)軟件生態(tài)方面所做的努力。 AMD計劃在AI軟件生態(tài)系統(tǒng)開發(fā)中采用“開放(Open)、成熟(Proven)、就緒(Ready)”的理念。

AMD的ROCm是一套完整的庫和工具,用于優(yōu)化AI軟件棧。不同于CUDA,這是一個開放的平臺。

AMD還分享了PyTorch與ROCm的合作。新的PyTorch 2.0的速度幾乎是之前版本的兩倍。AMD是PyTorch基金會的創(chuàng)始成員之一。

AMD正在不斷優(yōu)化ROCm。Victor Peng說:“雖然這是一段旅程,但我們在構(gòu)建可與模型、庫、框架和工具的開放生態(tài)系統(tǒng)協(xié)同工作的強(qiáng)大軟件棧方面取得了真正的巨大進(jìn)步?!?/p>

02. 云原生處理器Bergamo: 128核,256個線程,最高vCPU密度

再來看下AMD的數(shù)據(jù)中心CPU。 蘇姿豐首先分享了AMD EPYC處理器的進(jìn)展,特別是在全球范圍內(nèi)可用的云計算實例方面。

她強(qiáng)調(diào)說,AMD第四代EPYC Genoa處理器在云計算工作負(fù)載方面的性能是英特爾競品的1.8倍,在企業(yè)工作負(fù)載方面的性能提高到1.9倍。

絕大多數(shù)AI都在CPU上運行,AMD稱,與英特爾至強(qiáng)8490H相比,第四代EPYC在性能上遙遙領(lǐng)先,性能優(yōu)勢高出1.9倍。

蘇姿豐說,云原生處理器以吞吐量為導(dǎo)向,需要最高的性能、可擴(kuò)展性、計算密度和能效。

新發(fā)布的Bergamo,便是云原生處理器市場的入口。

該芯片有820億顆晶體管,提供了最高的vCPU密度。

在大散熱器下,有一個表面看起來非常像以前的EPYC的芯片,跟與Rome或Milan一樣有中央I/O芯片和8個核心復(fù)合芯片(CCD)。

Bergamo的每個插槽有多達(dá)128個核心、256個線程,分布在8個CCD上,每個CCD的核心數(shù)量是Genoa 16個核心的兩倍,采用比標(biāo)準(zhǔn)Zen 4內(nèi)核提供更高密度的全新Zen 4c核心設(shè)計,并支持一致的x86 ISA。

“Zen 4c針對性能和功耗的最佳平衡點進(jìn)行了優(yōu)化,這為我們提供了更好的密度和能效,”蘇姿豐在演講中談道,“結(jié)果設(shè)計面積縮小了35%,每瓦性能顯著提高?!?/p>

Bergamo現(xiàn)在正在向AMD的云客戶發(fā)貨。AMD還分享了第四代EPYC 9754與英特爾至強(qiáng)8490H的性能、密度和能效和對比:

除了Bergamo的新核心和Chiplet架構(gòu)之外,該處理器與Genoa有很多共同之處,包括支持12通道DDR5內(nèi)存、最新PCIe 5.0、單插槽或雙插槽配置等等。 不過,多核心不再只是AMD處理器獨有的特色。

不久之前,數(shù)據(jù)中心處理器新起之秀Ampere Computing剛推出擁有多達(dá)192個單線程Ampere核心的Ampere One系列處理器。

英特爾也計劃在2024年初推出內(nèi)核優(yōu)化的至強(qiáng)處理器Sierra Forest,將內(nèi)置144個高效能核心。 AMD還展示了其最新的緩存堆疊X芯片,代號為Genoa-X,現(xiàn)已上市。

該芯片針對高性能計算工作負(fù)載,包括計算流體動力學(xué)、電子設(shè)計自動化、有限元分析、地震層析成像及其他帶寬敏感型工作負(fù)載,這些工作負(fù)載受益于大量共享緩存。

Genoa-X CPU基于AMD的標(biāo)準(zhǔn)Genoa平臺,采用AMD 3D V-Cache技術(shù),通過在每個CCD上垂直堆疊SRAM模塊來提高可用的L3緩存。

該芯片可提供多達(dá)96個內(nèi)核和總計1.1GB的L3高速緩存,每個CCD上堆疊了一個64MB SRAM塊。 據(jù)AMD披露的數(shù)據(jù),在各種計算流體動力學(xué)和有限元分析工作負(fù)載方面,與英特爾最高規(guī)格的60核Sapphire Rapids至強(qiáng)相比,Genoa-X緩存提升的性能提高到2.2倍2.9倍。

03. 即將推出全新DPU

最后,AMD簡要介紹了其網(wǎng)絡(luò)基礎(chǔ)設(shè)施。 去年AMD以19億美元收購Pensando,進(jìn)入DPU賽道。AMD解釋了如何使用其DPU來減少數(shù)據(jù)中心的網(wǎng)絡(luò)開銷。

AMD將其P4 DPU架構(gòu)稱作“世界上最智能的DPU”,并稱其Pensando SmartNIC是新數(shù)據(jù)中心架構(gòu)不可或缺的一部分。

AMD還在現(xiàn)場展示了與Aruba Networks共同開發(fā)的智能交換機(jī)。AMD計劃將P4 DPU卸載集成到網(wǎng)絡(luò)交換機(jī)本身,從而提供機(jī)架級服務(wù)。

AMD最新的DPU旨在從CPU卸載網(wǎng)絡(luò)、安全和虛擬化任務(wù),與當(dāng)前一代P4 DPU相比將提供更高的性能和能效。 其DPU已得到微軟、IBM云、甲骨文云等許多主要云提供商以及VMware虛擬機(jī)管理程序等軟件套件的支持。 AMD打算在今年晚些時候推出Giglio DPU之前擴(kuò)大兼容軟件列表,推出“芯片軟件開發(fā)工具包”,以便用戶更輕松地在其DPU上部署工作負(fù)載。

04. 結(jié)語:到2027年,數(shù)據(jù)中心AI加速器 市場規(guī)模將超過1500億美元

全球數(shù)據(jù)中心GPU和CPU的頭部企業(yè)英偉達(dá)和英特爾均在強(qiáng)調(diào)其加速AI的實力。作為這兩條賽道“萬年老二”的AMD,也在競相滿足對AI計算日益增長的需求,并通過推出適應(yīng)最新需求的數(shù)據(jù)中心GPU來挑戰(zhàn)英偉達(dá)在新興市場的主導(dǎo)地位。

生成式AI和大型語言模型的應(yīng)用熱潮正在將數(shù)據(jù)中心推向極限。截至目前,英偉達(dá)在提供處理這些工作負(fù)載所需的技術(shù)方面具有優(yōu)勢。根據(jù)市場調(diào)研機(jī)構(gòu)New Street Research的數(shù)據(jù),英偉達(dá)占據(jù)了可用于機(jī)器學(xué)習(xí)的GPU市場的95%。 “我們?nèi)蕴幱贏I生命周期的非常、非常早的階段,”蘇姿豐預(yù)測,到2027年,數(shù)據(jù)中心AI加速器總潛在市場規(guī)模將增長5倍,從今年的300億美元左右以超過50%的復(fù)合年增長率增長到2027年的1500億美元以上。

AMD并未透露兩款MI300新芯片的價格,但這可能會給英偉達(dá)帶來一定價格壓力,之前H100價格據(jù)傳高達(dá)30000美元乃至更多。




審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • amd
    amd
    +關(guān)注

    關(guān)注

    25

    文章

    5503

    瀏覽量

    134697
  • 加速器
    +關(guān)注

    關(guān)注

    2

    文章

    809

    瀏覽量

    38129
  • 晶體管
    +關(guān)注

    關(guān)注

    77

    文章

    9782

    瀏覽量

    138994
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3854

    瀏覽量

    92078
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1911

    瀏覽量

    35245

原文標(biāo)題:1530億顆晶體管!AMD甩出最強(qiáng)AI芯片,單個GPU跑大模型

文章出處:【微信號:IC修真院,微信公眾號:IC修真院】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    AMD最強(qiáng)AI芯片,性能強(qiáng)過英偉達(dá)H200,但市場仍不買賬,生態(tài)是最大短板?

    。 ? 其中,全新旗艦AI芯片的型號為AMD Instinct MI325X GPU,雖然仍然是采用CDNA 3架構(gòu),但是相較于AMD In
    的頭像 發(fā)表于 10-14 01:32 ?3575次閱讀
    <b class='flag-5'>AMD</b><b class='flag-5'>最強(qiáng)</b><b class='flag-5'>AI</b><b class='flag-5'>芯片</b>,性能強(qiáng)過英偉達(dá)H200,但市場仍不買賬,生態(tài)是最大短板?

    AMD將DeepSeek-V3模型集成至Instinct MI300X GPU

    AMD近日宣布了一項重要進(jìn)展,成功將全新的DeepSeek-V3模型集成到其Instinct MI300X GPU上。這一舉措標(biāo)志著AMDAI
    的頭像 發(fā)表于 02-06 09:41 ?150次閱讀

    AMD集成DeepSeek-V3模型至Instinct MI300X GPU

    。 據(jù)悉,DeepSeek-V3模型AMD針對AI推理應(yīng)用進(jìn)行深度優(yōu)化的成果。通過集成到Instinct MI300X GPUAMD旨在
    的頭像 發(fā)表于 02-05 13:58 ?160次閱讀

    GPU是如何訓(xùn)練AI模型

    AI模型的訓(xùn)練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數(shù)等運算上。這些運算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU
    的頭像 發(fā)表于 12-19 17:54 ?254次閱讀

    《CST Studio Suite 2024 GPU加速計算指南》

    GPU不能在單個主機(jī)系統(tǒng)中組合使用。 - AMD GPU:目前只有時域求解器(FIT)支持AMD G
    發(fā)表于 12-16 14:25

    訓(xùn)練AI模型需要什么樣的gpu

    訓(xùn)練AI模型需要選擇具有強(qiáng)大計算能力、足夠顯存、高效帶寬、良好散熱和能效比以及良好兼容性和擴(kuò)展性的GPU。在選擇時,需要根據(jù)具體需求進(jìn)行權(quán)衡和選擇。
    的頭像 發(fā)表于 12-03 10:10 ?226次閱讀

    AMD發(fā)布10億參數(shù)開源AI模型OLMo

    AMD公司近日宣布了一項重大進(jìn)展,推出了首個完全開放的10億參數(shù)語言模型系列——AMD OLMo。這一舉措為開發(fā)者和研究人員提供了強(qiáng)大的AI研究工具,有助于推動
    的頭像 發(fā)表于 11-12 18:08 ?513次閱讀

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?463次閱讀

    AMD發(fā)布新一代AI芯片MI325X

    在舊金山舉辦的Advancing AI 2024大會上,AMD正式推出了其新一代AI芯片——GPU AM
    的頭像 發(fā)表于 10-11 15:55 ?490次閱讀

    英偉達(dá)發(fā)布AI模型 Llama-3.1-Nemotron-51B AI模型

    模型單個H100 GPU上的表現(xiàn)非常優(yōu)秀,在推理過程中可以在單個 GPU 上運行 4 倍以上的工作負(fù)載。這使得單片H100
    的頭像 發(fā)表于 09-26 17:30 ?664次閱讀

    AI初出企業(yè)Cerebras已申請IPO!稱發(fā)布的AI芯片GPU更適合大模型訓(xùn)練

    美國加州,專注于研發(fā)比GPU更適用于訓(xùn)練AI模型的晶圓級芯片,為復(fù)雜的AI應(yīng)用構(gòu)建計算機(jī)系統(tǒng),并與阿布扎比科技集團(tuán)G42等機(jī)構(gòu)合作構(gòu)建超級計
    的頭像 發(fā)表于 06-26 00:09 ?3022次閱讀
    <b class='flag-5'>AI</b>初出企業(yè)Cerebras已申請IPO!稱發(fā)布的<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>比<b class='flag-5'>GPU</b>更適合大<b class='flag-5'>模型</b>訓(xùn)練

    為什么AI往往用GPU而不是CPU?

    GPU的能力,并且支持的GPU數(shù)量越多,就代表其AI性能越強(qiáng)大。那么問題來了,為什么是GPU而不是CPU?GPU難道不是我們?nèi)粘J褂玫碾娔X里
    的頭像 發(fā)表于 04-24 08:27 ?2136次閱讀
    為什么<b class='flag-5'>跑</b><b class='flag-5'>AI</b>往往用<b class='flag-5'>GPU</b>而不是CPU?

    國產(chǎn)GPUAI模型領(lǐng)域的應(yīng)用案例一覽

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)近一年多時間,隨著大模型的發(fā)展,GPUAI領(lǐng)域的重要性再次凸顯。雖然相比英偉達(dá)等國際大廠,國產(chǎn)GPU起步較晚、聲勢較小。不過近幾年,國內(nèi)不少
    的頭像 發(fā)表于 04-01 09:28 ?4190次閱讀
    國產(chǎn)<b class='flag-5'>GPU</b>在<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>領(lǐng)域的應(yīng)用案例一覽

    FPGA在深度學(xué)習(xí)應(yīng)用中或?qū)⑷〈?b class='flag-5'>GPU

    現(xiàn)場可編程門陣列 (FPGA) 解決了 GPU 在運行深度學(xué)習(xí)模型時面臨的許多問題 在過去的十年里,人工智能的再一次興起使顯卡行業(yè)受益匪淺。英偉達(dá) (Nvidia) 和 AMD 等公司的股價也大幅
    發(fā)表于 03-21 15:19

    海信發(fā)布電視行業(yè)最強(qiáng)中文大模型,開啟電視AI新時代

    3月15日,“海信視像 AI美好生活”全場景顯示新品發(fā)布會上,海信正式發(fā)布了自研星海大模型,這也是目前電視行業(yè)最強(qiáng)中文大模型。
    的頭像 發(fā)表于 03-18 14:24 ?411次閱讀