欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

大模型為何成耗能大戶

現(xiàn)代電子技術 ? 來源:經濟日報 ? 2024-04-29 17:25 ? 次閱讀

隨著人工智能技術快速發(fā)展,人工智能(AI)大模型的運行消耗問題受到越來越多關注。大模型為何成了耗能大戶?能耗問題會不會成為人工智能發(fā)展的“絆腳石”?如何解決能耗問題?

耗電耗水量大

人工智能大模型到底有多耗能?據(jù)斯坦福人工智能研究所發(fā)布的《2023年AI指數(shù)報告》,AI大語言模型GPT-3一次訓練的耗電量為1287兆瓦時,大概相當于3000輛特斯拉電動汽車共同開跑、每輛車跑20萬英里所耗電量的總和。報告同時提出,AI大語言模型GPT-3一次訓練,相當于排放了552噸二氧化碳。

國外研究顯示,一次標準谷歌搜索耗電0.3瓦時,AI大語言模型ChatGPT響應一次用戶請求耗電約2.96瓦時,在AI大模型驅動下的一次谷歌搜索耗電8.9瓦時。

除了耗電,另有研究顯示,AI大語言模型GPT-3在訓練期間耗水近700噸,每回答20個至50個問題就要消耗500毫升水。弗吉尼亞理工大學研究指出,Meta公司在2022年使用了超過260萬立方米的水,主要作用是為數(shù)據(jù)中心提供冷卻。

據(jù)了解,人工智能大模型GPT-4的主要參數(shù)是GPT-3的20倍,計算量是GPT-3的10倍,能耗也隨之大幅增加。

華泰證券研報預測,到2030年,中國與美國的數(shù)據(jù)中心總用電量將分別達到0.65萬億千瓦時至0.95萬億千瓦時、1.2萬億千瓦時至1.7萬億千瓦時,是2022年的3.5倍和6倍以上。屆時,AI用電量將達到2022年全社會用電量的20%和31%。

為何如此耗能

為什么人工智能大模型如此耗能?AI技術迅速發(fā)展,對芯片的需求急劇增加,進而帶動電力需求激增。同時,對AI進行大量訓練,也意味著需要更強的算力中心和與之匹配的散熱能力。在AI快速迭代的道路上,電力和水資源的消耗也在快速增加。因為很多數(shù)據(jù)中心全年無休,發(fā)熱量巨大,大規(guī)模電耗和水耗主要來自于冷卻需求。

相關統(tǒng)計顯示,數(shù)據(jù)中心運行成本的六成是電費,而電費里的四成多來自冷卻散熱,相應也會帶來巨量冷卻水的消耗。風冷數(shù)據(jù)中心六成多的耗電量都會用在風冷上,只有不到四成電力用在實際計算上。如今,全球數(shù)據(jù)中心市場耗電量是10年前的近10倍。

能耗問題會不會成為人工智能發(fā)展的“絆腳石”?英偉達首席執(zhí)行官黃仁勛曾提到,AI和算力耗能巨大,但由于計算機性能飛速增長,計算會更加高效,相當于更節(jié)省能源。當前,我國實施嚴格的能耗雙控政策,無論是AI大模型本身還是其應用行業(yè),對單位GDP能耗來說均有明顯降低作用。

從整體能耗來看,AI大模型帶來的效率提升也會抵消一部分能耗增長。隨著綠電廣泛應用,再加上我國逐步由能耗雙控向碳排放雙控政策轉變,可再生能源對未來AI大模型發(fā)展的支撐能力也會越來越強。

此外,相較于其他國家而言,中美等能源消費大國和數(shù)據(jù)大國,具備更好發(fā)展AI大模型的資源條件和基礎。

怎樣應對挑戰(zhàn)

據(jù)預測,到2025年,AI相關業(yè)務在全球數(shù)據(jù)中心用電量中的占比將從2%增加至10%。到2030年,智能計算年耗電量將達到5000億千瓦時,占全球發(fā)電總量的5%。因此,在大力發(fā)展AI大模型的同時,必須提前做好相關規(guī)劃布局,以提供必要的電力和水資源等技術支撐。

有專家認為,人工智能的未來發(fā)展與狀態(tài)和儲能緊密相連。因此,不應僅關注計算力,而是需要更全面地考慮能源消耗問題。OpenAI創(chuàng)始人奧爾特曼認為,未來AI技術取決于能源突破,更綠色的能源尤其是核聚變或更便宜的太陽能以及儲能的可獲得性,是人工智能發(fā)展快慢的重要因素。

為降低電力和水資源消耗,很多企業(yè)在嘗試采用各種方法為數(shù)據(jù)中心散熱。例如,微軟曾嘗試部署海下數(shù)據(jù)中心,臉書(Facebook)數(shù)據(jù)中心選址北極圈附近,阿里云千島湖數(shù)據(jù)中心使用深層湖水制冷等,我國很多企業(yè)則把數(shù)據(jù)中心布局在水電資源豐富的西南地區(qū)。

目前,可通過算法優(yōu)化、開發(fā)和使用更高效的AI專用硬件、調整神經網絡訓練過程以優(yōu)化計算資源等技術方式來降低AI大模型的能耗,并更多采用自然冷卻、液冷、三聯(lián)供、余熱回收等新興節(jié)能技術,提高制冷效率以降低數(shù)據(jù)中心能耗。從技術未來發(fā)展方向上看,光電智能芯片也有助于解決AI大模型的電耗和水耗問題。

AI大模型的發(fā)展,不能僅符合高端化、智能化的要求,更要符合綠色化的發(fā)展要求。為此,從國家和地方層面上看,為緩解AI大模型發(fā)展所帶來的電力和水資源沖擊,有必要將數(shù)據(jù)中心行業(yè)納入高耗能行業(yè)管理體系,并提前做好相關規(guī)劃布局。同時,加強資源整合,充分發(fā)揮人工智能大模型和數(shù)據(jù)中心的效能,通過使用效能下限設置等方式,確保其自身的電力和水資源使用效率。還應嚴格落實國家能耗雙控及碳排放雙控政策,并將其碳足跡與水足跡納入行業(yè)考核范圍,切實推動碳足跡與水足跡逐步降低,以應對日益增長的AI大模型電力和水資源需求。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    31615

    瀏覽量

    270430
  • 語言模型
    +關注

    關注

    0

    文章

    540

    瀏覽量

    10342
  • 可再生能源
    +關注

    關注

    1

    文章

    718

    瀏覽量

    39625
  • 大模型
    +關注

    關注

    2

    文章

    2567

    瀏覽量

    3193

原文標題:大模型為何成耗能大戶

文章出處:【微信號:現(xiàn)代電子技術,微信公眾號:現(xiàn)代電子技術】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    THS1209 SYNC腳位的功能為何?

    第一次接觸 并列ADC 功能的IC 想請問一下 TI人員 關于THS1209的寫入和讀取暫存器 和 讀取DATA的腳位動作關係 1. 當我要寫入暫存器時,其CS0、CS1、W/R和RD動作為何
    發(fā)表于 12-25 06:46

    【「大模型啟示錄」閱讀體驗】+開啟智能時代的新鑰匙

    那些擁有數(shù)十億甚至數(shù)千億參數(shù)的大規(guī)模模型成為了現(xiàn)實可能。Transformer 等機制模型架構的橫空出世,徹底改變了模型訓練的效率和性能。 我有時在想國外為何能夠在大
    發(fā)表于 12-24 13:10

    ADS1292R外掛晶振時功耗能增加多少?。?/a>

    您好,我想請教一下ADS1292R外掛晶振時功耗能增加多少啊
    發(fā)表于 12-17 07:53

    光電二極管輸入的偏置電流為何這么大?

    用的是光電二極管模型,輸入的偏置電流為何這么大,是固定的,但放大倍數(shù)如何求
    發(fā)表于 08-16 06:21

    esp32的整體平均功耗能到多少?

    deep-sleep模式,rtc定時5s喚醒一次,每次就啟動ble 進行廣播并維持1s的等待連接。如果沒有就進入deep-sleep。 這種模式下,如果沒有連接的話,esp32的整體平均功耗能到多少?沒有用ulp。理論上應該是官方數(shù)據(jù)10uA,但是粗略測量會高很多。請問還需要怎么做嗎?
    發(fā)表于 06-26 07:52

    儲能元件和耗能元件的定義

    在電工和電子學的世界中,儲能元件和耗能元件是兩大基本元素,它們各自在電路中扮演著不同的角色,對電路的功能和性能產生著深遠的影響。本文將對這兩種元件進行詳細的探討,包括它們的定義、特性、種類以及應用。
    的頭像 發(fā)表于 05-16 18:07 ?2370次閱讀

    【大語言模型:原理與工程實踐】大語言模型的應用

    ,它通過抽象思考和邏輯推理,協(xié)助我們應對復雜的決策。 相應地,我們設計了兩類任務來檢驗大語言模型的能力。一類是感性的、無需理性能力的任務,類似于人類的系統(tǒng)1,如情感分析和抽取式問答等。大語言模型在這
    發(fā)表于 05-07 17:21

    【大語言模型:原理與工程實踐】大語言模型的評測

    大語言模型的評測是確保模型性能和應用適應性的關鍵環(huán)節(jié)。從基座模型到微調模型,再到行業(yè)模型和整體能力,每個階段都需要精確的評測來指導
    發(fā)表于 05-07 17:12

    儲能元件和耗能元件怎么區(qū)分?

    儲能元件和耗能元件在電子電路中起著截然不同的作用,它們的區(qū)分對于電路設計和系統(tǒng)性能至關重要。
    的頭像 發(fā)表于 05-06 16:05 ?1904次閱讀

    【大語言模型:原理與工程實踐】大語言模型的基礎技術

    全面剖析大語言模型的核心技術與基礎知識。首先,概述自然語言的基本表示,這是理解大語言模型技術的前提。接著,詳細介紹自然語言處理預訓練的經典結構Transformer,以及其工作原理,為構建大語言
    發(fā)表于 05-05 12:17

    使用MotorControl Workbench 5.1.3生的軟件,運行后software error,為什么?

    使用MotorControl Workbench 5.1.3生的軟件,運行,第一次可以發(fā)波形,第二次報software error;后面沒次清除故障都是直接software error;沒有任何波形產生。請問為何會報這個 故障?
    發(fā)表于 04-25 06:17

    新火種AI|算力不足,小模型AI模型發(fā)展下個方向?

    大力出奇跡不是唯一方法,把大模型做小才是本事
    的頭像 發(fā)表于 04-23 21:20 ?246次閱讀
    新火種AI|算力不足,小<b class='flag-5'>模型</b><b class='flag-5'>成</b>AI<b class='flag-5'>模型</b>發(fā)展下個方向?

    采用STM8L152停機模式+點亮LCD的情況下的功耗能夠做到多低呢?

    有沒有人試驗過,采用STM8L152停機模式+點亮LCD的情況下的功耗能夠做到多低呢?是多少呢?
    發(fā)表于 04-15 07:16

    模型推理顯卡選購指南:4090顯卡為何成為不二之選

    開發(fā)者非常關注的話題。 現(xiàn)在市面上加速卡型號多如牛毛,但說到適用大模型推理的顯卡,那4090顯卡絕對是現(xiàn)階段“推理王卡”般的存在。論性能不如H100,論價格不如3090,看似平平無奇的4090顯卡為何能在眾多競爭者中脫穎而出,成為大模型
    的頭像 發(fā)表于 04-11 11:00 ?876次閱讀
    大<b class='flag-5'>模型</b>推理顯卡選購指南:4090顯卡<b class='flag-5'>為何</b>成為不二之選

    AI大模型落地學習機,大模型應用學習機創(chuàng)新方向

    電子發(fā)燒友網報道(文/李彎彎)大模型在終端產品上的落地,除了智能手機、PC之外,還有學習機。過去一段時間,隨著大模型的火熱,互聯(lián)網、教育公司都已經紛紛披露大模型在教育領域的最新動態(tài),并發(fā)布搭載AI
    的頭像 發(fā)表于 02-23 01:19 ?3980次閱讀