欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

國(guó)產(chǎn)GPU繞不開(kāi)的CUDA生態(tài)

jf_C6sANWk1 ? 來(lái)源:阿寶1990 ? 作者:阿寶1990 ? 2022-11-29 09:36 ? 次閱讀

國(guó)內(nèi)GPU廠家或許嘗試,摸著英偉達(dá)過(guò)河。

近日,摩爾線程在北京發(fā)布多款軟硬件新品,包括新一代GPU“春曉”、面向個(gè)人電腦的消費(fèi)級(jí)顯卡MTT S80和服務(wù)器計(jì)算卡MTT S3000、一體化計(jì)算設(shè)備“MCCX元計(jì)算一體機(jī)”,以及開(kāi)發(fā)套件、數(shù)字人解決方案等。GPU“春曉”做為本次發(fā)布會(huì)的核心產(chǎn)品受到廣泛關(guān)注。

“春曉”是摩爾線程的第二顆GPU,也是摩爾線程首顆面相國(guó)內(nèi)消費(fèi)級(jí)市場(chǎng)發(fā)售的GPU,它強(qiáng)調(diào)游戲、元宇宙與渲染用途,最重要的是,這個(gè)GPU支持英偉達(dá)CUDA生態(tài)。

其實(shí)經(jīng)常關(guān)注顯卡的同學(xué)總能從英偉達(dá)的發(fā)布會(huì)上聽(tīng)到CUDA這個(gè)詞,例如最新的RTX3060有擁有多少顆CUDA核心,某某游戲首發(fā)即支持CUDA生態(tài)等。作為顯卡領(lǐng)域的高頻詞匯,很多人好奇CUDA到底是什么?為什么國(guó)產(chǎn)顯卡會(huì)用到英偉達(dá)的技術(shù)?本文將帶你了解即熟悉又陌生的CUDA。

CUDA是什么?

CUDA(Compute Unified Device Architecture,統(tǒng)一計(jì)算架構(gòu))是由英偉達(dá)所推出的一種集成技術(shù),是該公司對(duì)于GPGPU的正式名稱。通過(guò)這個(gè)技術(shù),用戶可利用NVIDIA的GPU進(jìn)行圖像處理之外的運(yùn)算,CUDA也是首次可以利用GPU作為C-編譯器的開(kāi)發(fā)環(huán)境。簡(jiǎn)單來(lái)說(shuō),程序員平時(shí)如果不使用特定框架都是針對(duì)CPU進(jìn)行編程的,CUDA是全球最大GPU廠商英偉達(dá)推出的針對(duì)GPU的編程的架構(gòu)。

2006年,英偉達(dá)發(fā)布了CUDA,它提供了GPU編程的簡(jiǎn)易接口,程序員可以基于CUDA編譯基于GPU的應(yīng)用程序,利用GPU的并行計(jì)算能力更高效的解決復(fù)雜計(jì)算難題。在CUDA發(fā)布之前,程序員需要到顯卡內(nèi)核并利用機(jī)器碼進(jìn)行編譯,編程過(guò)程相當(dāng)繁瑣也很困難。CUDA的發(fā)布,相當(dāng)于將較為復(fù)雜的底層代碼封裝成了一個(gè)個(gè)簡(jiǎn)單接口,使用時(shí)直接調(diào)用,其在GPU編程領(lǐng)域的革命性不亞于C、Python、PHP等高等編程語(yǔ)言的發(fā)明。當(dāng)然,CUDA本身也是兼容C語(yǔ)言的,其本身就類似C語(yǔ)言,這可以幫助程序員更快速上手CUDA?,F(xiàn)在主流的深度學(xué)習(xí)框架大多都基于CUDA進(jìn)行GPU加速運(yùn)算。

7ca6dda0-6f82-11ed-8abf-dac502259ad0.png

CUDA工作流程 圖源:CSDN

從硬件角度看,英偉達(dá)會(huì)經(jīng)常宣傳自家顯卡擁有的CUDA Core數(shù)量。CUDA Core其實(shí)就是英偉達(dá)的流處理器,也就是FP32計(jì)算單元,同樣的結(jié)構(gòu)在AMD的GPU內(nèi)叫做SP。與CUDA Core相對(duì)的還有Tensor Core張量核心,從字面上就能看出該核心主要針對(duì)深度學(xué)習(xí)中的Tensor計(jì)算設(shè)計(jì)。Tensor計(jì)算就是混合精度計(jì)算,即在底層硬件算子層面用半精度(FP16)進(jìn)行輸入和輸出,使用全精度(FP32)進(jìn)行計(jì)算放置丟失過(guò)多精度的操作,這個(gè)底層硬件就是Tensor Core。CUDA 9.0引入了一個(gè)“warp矩陣函數(shù)” C++語(yǔ)言API,以便開(kāi)發(fā)者可以使用GPU上的Tensor Core。

7cb9a84a-6f82-11ed-8abf-dac502259ad0.png

CUDA Core 圖源:知乎

CUDA與 GPGPU的概念一脈相承。GPU就是傳統(tǒng)意義上的顯卡與圖形加速卡。隨著人工智能產(chǎn)業(yè)爆炸式增長(zhǎng),導(dǎo)致計(jì)算復(fù)雜化和算力不足,CPU并行計(jì)算能力遠(yuǎn)不如GPU,使得GPU在通用計(jì)算領(lǐng)域逐漸領(lǐng)先,為了進(jìn)一步專注通用計(jì)算,GPGPU便應(yīng)運(yùn)而生。GPGPU與CUDA之間關(guān)系十分密切。GPGPU其實(shí)是去掉了圖形顯示功能的GPU,它將全部能力都投入到通用計(jì)算上,CUDA的出現(xiàn)讓GPU真正實(shí)現(xiàn)更廣泛的通用計(jì)算。CUDA與GPGPU也直接推動(dòng)了AI與深度學(xué)習(xí)的發(fā)展與產(chǎn)業(yè)革命。

為什么要兼容CUDA?

當(dāng)我們了解了CUDA是怎么回事,也就方便解釋為什么國(guó)產(chǎn)GPU需要兼容CUDA。

前文提到,目前世界上的主流深度學(xué)習(xí)架構(gòu)都在使用CUDA,其主要原因就是深度學(xué)習(xí)的重要載體—GPU市場(chǎng)已被英偉達(dá)占領(lǐng)大半。隨之而來(lái)的,就是市面上絕大部分GPU相關(guān)軟件都是用CUDA開(kāi)發(fā),國(guó)產(chǎn)GPU兼容CUDA可以同時(shí)“繼承”英偉達(dá)打造好的軟件生態(tài),也有更多資料可供學(xué)習(xí),這對(duì)于蹣跚起步的國(guó)產(chǎn)GPU行業(yè)來(lái)說(shuō),減輕了不少開(kāi)發(fā)難度,也降低了推廣壓力。

從開(kāi)發(fā)角度分析。業(yè)內(nèi)GPU工程師稱目前GPU市場(chǎng)可以籠統(tǒng)的分成兩大塊,分別是計(jì)算和渲染。此前國(guó)內(nèi)GPU廠商通常專注與計(jì)算方面的研發(fā),也有少部分渲染產(chǎn)品問(wèn)世,最近摩爾線程發(fā)布的GPU強(qiáng)調(diào)其具有強(qiáng)大的渲染能力。然而渲染賽道難度較大,其計(jì)算復(fù)雜度更高,除了通用計(jì)算,還包圖形渲染、前后端著色器配置、物體幾何屬性等需要處理。目前世界上標(biāo)準(zhǔn)API主要是CUDA與OpenCL,CUDA是英偉達(dá)系統(tǒng)架構(gòu),OpenCL則主要被AMD采用。采用標(biāo)準(zhǔn)化的API接口,無(wú)論是CUDA還是OpenCL,都可以極大減少開(kāi)發(fā)渲染類GPU的前提投入,后期可以再做相應(yīng)的優(yōu)化,這樣可以降低與CUDA等 “地位”穩(wěn)固的GPU生態(tài)直接競(jìng)爭(zhēng)的難度。

從市場(chǎng)推廣角度看。英偉達(dá)的CUDA生態(tài)已經(jīng)問(wèn)世多年,與下游軟件、驅(qū)動(dòng)廠家已經(jīng)有了深度合作。大部分廠家對(duì)于GPU生態(tài)的觀點(diǎn),往往是不在乎GPU本身好與壞,而是關(guān)注GPU好不好用、能不能用。好不好用的評(píng)價(jià)較為主觀,但采用現(xiàn)成的英偉達(dá)CUDA接口進(jìn)行編程,可以規(guī)避大多數(shù)未知風(fēng)險(xiǎn),多數(shù)初創(chuàng)企業(yè)開(kāi)發(fā)GPU軟件采用統(tǒng)一接口也能增加開(kāi)發(fā)穩(wěn)定性,降低人才招聘難度。所以,構(gòu)建自己的GPU生態(tài)要慢慢起步,一味求快推廣自家生態(tài)只會(huì)把風(fēng)險(xiǎn)轉(zhuǎn)嫁給更多下游開(kāi)發(fā)者。

國(guó)產(chǎn)GPU要挑戰(zhàn)CUDA嗎?

CUDA本身涵蓋了多個(gè)技術(shù)領(lǐng)域,其開(kāi)發(fā)與后續(xù)更新都與英偉達(dá)自家GPU高度綁定,即使全部開(kāi)源,第三方廠家也難以完美移植到自家GPU上。從另一個(gè)角度看,英偉達(dá)在GPU領(lǐng)域的壟斷地位主要通過(guò)CUDA平臺(tái)上的軟件生態(tài)實(shí)現(xiàn)。國(guó)產(chǎn)GPU若想真正做到與英偉達(dá)一較高下,CUDA生態(tài)是繞不開(kāi)的最終BOSS。

知乎用戶對(duì)英偉達(dá)GPU生態(tài)做出分析。國(guó)產(chǎn)GPU廠商若無(wú)法做到與英偉達(dá)的架構(gòu)、封裝技術(shù)、驅(qū)動(dòng)優(yōu)化等都保持完全一致,CUDA生態(tài)就一定不會(huì)完美適配其他顯卡。做到完全移植,CUDA生態(tài)內(nèi)的各種庫(kù)以及套件等都需要做相應(yīng)調(diào)試,工作量太大。

此外,CUDA也并不是一成不變的。每隔一代GPU,CUDA架構(gòu)就會(huì)發(fā)生很大變化。每個(gè)驅(qū)動(dòng)小版本推送,CUDA都會(huì)做出部分微調(diào)。國(guó)產(chǎn)GPU如果完全基于CUDA生態(tài)進(jìn)行開(kāi)發(fā),那它的硬件更新將完全綁定英偉達(dá)的開(kāi)發(fā)進(jìn)程,這樣就失去了主動(dòng)性,且永遠(yuǎn)慢人一步。

不過(guò)內(nèi)開(kāi)發(fā)者也不用悲觀。CUDA本質(zhì)是一個(gè)計(jì)算結(jié)構(gòu),甚至是一個(gè)理念,它并不需要英偉達(dá)的完全授權(quán)。我們可以參考英偉達(dá)的有力競(jìng)爭(zhēng)者AMD。AMD的生態(tài)雖然基于開(kāi)源生態(tài)OpenCL開(kāi)發(fā),但AMD也制作了HIP的編程模式,與CUDA相比,其開(kāi)發(fā)函數(shù)甚至可以進(jìn)行直接替換。如果說(shuō)英偉達(dá)在GPU領(lǐng)域是摸著石頭過(guò)河的,那AMD就是摸著英偉達(dá)過(guò)河。國(guó)內(nèi)GPU廠家或許可以參考AMD發(fā)展模式,前期借鑒可以是后期創(chuàng)新的基礎(chǔ)。

寫(xiě)在最后

CUDA作為英偉達(dá)壟斷GPU領(lǐng)域的關(guān)鍵力量,是國(guó)產(chǎn)廠商必須面對(duì)的挑戰(zhàn)。CUDA在誕生之初,為人們?cè)谏疃葘W(xué)習(xí)與AI領(lǐng)域攻堅(jiān)克難立下汗馬功勞,但如果它被用來(lái)鉗制新力量的發(fā)展,CUDA也將成為英偉達(dá)的馬奇諾防線。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4788

    瀏覽量

    129434
  • CUDA
    +關(guān)注

    關(guān)注

    0

    文章

    121

    瀏覽量

    13698
  • 英偉達(dá)
    +關(guān)注

    關(guān)注

    22

    文章

    3854

    瀏覽量

    92080

原文標(biāo)題:國(guó)產(chǎn)GPU繞不開(kāi)的CUDA生態(tài)

文章出處:【微信號(hào):阿寶1990,微信公眾號(hào):阿寶1990】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    《CST Studio Suite 2024 GPU加速計(jì)算指南》

    監(jiān)控/利用率、選擇可用GPU卡子集等內(nèi)容。 6. 故障排除:針對(duì)NVIDIA驅(qū)動(dòng)安裝、多GPU設(shè)置、GPU模式、硬件識(shí)別、CUDA錯(cuò)誤、TCC模式等問(wèn)題給出了相應(yīng)的解決方法。
    發(fā)表于 12-16 14:25

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】--了解算力芯片GPU

    每個(gè)CUDA單元在 OpenCL 編程框架中都有對(duì)應(yīng)的單元。 倒金字塔結(jié)構(gòu)GPU存儲(chǔ)體系 共享內(nèi)存是開(kāi)發(fā)者可配置的編程資源,使用門檻較高,編程上需要更多的人工顯式處理。 在并行計(jì)算架構(gòu)中,線程
    發(fā)表于 11-03 12:55

    有沒(méi)有大佬知道NI vision 有沒(méi)有辦法通過(guò)gpucuda來(lái)加速圖像處理

    有沒(méi)有大佬知道NI vision 有沒(méi)有辦法通過(guò)gpucuda來(lái)加速圖像處理
    發(fā)表于 10-20 09:14

    打破英偉達(dá)CUDA壁壘?AMD顯卡現(xiàn)在也能無(wú)縫適配CUDA

    電子發(fā)燒友網(wǎng)報(bào)道(文/梁浩斌)一直以來(lái),圍繞CUDA打造的軟件生態(tài),是英偉達(dá)在GPU領(lǐng)域最大的護(hù)城河,尤其是隨著目前AI領(lǐng)域的發(fā)展加速,市場(chǎng)火爆,英偉達(dá)GPU+CUDA的開(kāi)發(fā)
    的頭像 發(fā)表于 07-19 00:16 ?4956次閱讀

    大模型發(fā)展下,國(guó)產(chǎn)GPU的機(jī)會(huì)和挑戰(zhàn)

    電子發(fā)燒友網(wǎng)站提供《大模型發(fā)展下,國(guó)產(chǎn)GPU的機(jī)會(huì)和挑戰(zhàn).pdf》資料免費(fèi)下載
    發(fā)表于 07-18 15:44 ?10次下載
    大模型發(fā)展下,<b class='flag-5'>國(guó)產(chǎn)</b><b class='flag-5'>GPU</b>的機(jī)會(huì)和挑戰(zhàn)

    英國(guó)公司實(shí)現(xiàn)英偉達(dá)CUDA軟件在AMD GPU上的無(wú)縫運(yùn)行

    7月18日最新資訊,英國(guó)創(chuàng)新科技企業(yè)Spectral Compute震撼發(fā)布了其革命性GPGPU編程工具包——“SCALE”,該工具包實(shí)現(xiàn)了英偉達(dá)CUDA軟件在AMD GPU上的無(wú)縫遷移與運(yùn)行,標(biāo)志著在GPU計(jì)算領(lǐng)域,NVIDI
    的頭像 發(fā)表于 07-18 14:40 ?727次閱讀

    軟件生態(tài)上超越CUDA,究竟有多難?

    神壇的,還是圍繞CUDA打造的一系列軟件生態(tài)。 ? 英偉達(dá)——CUDA的絕對(duì)統(tǒng)治 ? 相信對(duì)GPU有過(guò)一定了解的都知道,英偉達(dá)的最大護(hù)城河就是CUD
    的頭像 發(fā)表于 06-20 00:09 ?3811次閱讀

    借助NVIDIA Aerial CUDA增強(qiáng)5G/6G的DU性能和工作負(fù)載整合

    Aerial CUDA 加速無(wú)線接入網(wǎng) (RAN)可加速電信工作負(fù)載,使用 CPU、GPU 和 DPU 在云原生加速計(jì)算平臺(tái)上提供更高水平的頻譜效率 (SE)。
    的頭像 發(fā)表于 05-24 11:10 ?678次閱讀
    借助NVIDIA Aerial <b class='flag-5'>CUDA</b>增強(qiáng)5G/6G的DU性能和工作負(fù)載整合

    Keil使用AC6編譯提示CUDA版本過(guò)高怎么解決?

    \' ArmClang: warning: Unknown CUDA version 10.2. Assuming the latest supported version 10.1
    發(fā)表于 04-11 07:56

    大模型時(shí)代,國(guó)產(chǎn)GPU面臨哪些挑戰(zhàn)

    ,國(guó)產(chǎn)GPU在不斷成長(zhǎng)的過(guò)程中也存在諸多挑戰(zhàn)。 ? 在大模型訓(xùn)練上存在差距 ? 大語(yǔ)言模型是基于深度學(xué)習(xí)的技術(shù)。這些模型通過(guò)在海量文本數(shù)據(jù)上的訓(xùn)練,學(xué)習(xí)語(yǔ)言的語(yǔ)法、語(yǔ)境和語(yǔ)義等多層次的信息,用于理解和生成自然語(yǔ)言文本。大語(yǔ)言模型是
    的頭像 發(fā)表于 04-03 01:08 ?4771次閱讀
    大模型時(shí)代,<b class='flag-5'>國(guó)產(chǎn)</b><b class='flag-5'>GPU</b>面臨哪些挑戰(zhàn)

    國(guó)產(chǎn)GPU在AI大模型領(lǐng)域的應(yīng)用案例一覽

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)近一年多時(shí)間,隨著大模型的發(fā)展,GPU在AI領(lǐng)域的重要性再次凸顯。雖然相比英偉達(dá)等國(guó)際大廠,國(guó)產(chǎn)GPU起步較晚、聲勢(shì)較小。不過(guò)近幾年,國(guó)內(nèi)不少GPU廠商成
    的頭像 發(fā)表于 04-01 09:28 ?4191次閱讀
    <b class='flag-5'>國(guó)產(chǎn)</b><b class='flag-5'>GPU</b>在AI大模型領(lǐng)域的應(yīng)用案例一覽

    盤點(diǎn)國(guó)產(chǎn)GPU在支持大模型應(yīng)用方面的進(jìn)展

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)目前談到GPU,大家首先想到的應(yīng)該就是英偉達(dá)了。近一年多時(shí)間來(lái),隨著大模型的發(fā)展,英偉達(dá)GPU的強(qiáng)大實(shí)力可謂無(wú)人不知。而相比之下,國(guó)產(chǎn)GPU的聲勢(shì)就小了許
    的頭像 發(fā)表于 03-29 00:27 ?7420次閱讀
    盤點(diǎn)<b class='flag-5'>國(guó)產(chǎn)</b><b class='flag-5'>GPU</b>在支持大模型應(yīng)用方面的進(jìn)展

    國(guó)產(chǎn)GPU搭配國(guó)產(chǎn)處理器平臺(tái)主機(jī)

    處理器gpu
    GITSTAR 集特工控
    發(fā)布于 :2024年03月27日 14:11:32

    一文詳解GPU硬件與CUDA開(kāi)發(fā)工具

    CPU 和 GPU 的顯著區(qū)別是:一個(gè)典型的 CPU 擁有少數(shù)幾個(gè)快速的計(jì)算核心,而一個(gè)典型的 GPU 擁有幾百到幾千個(gè)不那么快速的計(jì)算核心。
    的頭像 發(fā)表于 03-21 10:15 ?1390次閱讀
    一文詳解<b class='flag-5'>GPU</b>硬件與<b class='flag-5'>CUDA</b>開(kāi)發(fā)工具

    GPU CUDA 編程的基本原理是什么

    神經(jīng)網(wǎng)絡(luò)能加速的有很多,當(dāng)然使用硬件加速是最可觀的了,而目前除了專用的NPU(神經(jīng)網(wǎng)絡(luò)加速單元),就屬于GPU對(duì)神經(jīng)網(wǎng)絡(luò)加速效果最好了
    的頭像 發(fā)表于 03-05 10:26 ?956次閱讀
    <b class='flag-5'>GPU</b> <b class='flag-5'>CUDA</b> 編程的基本原理是什么