欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型遭遇算力墻,探索超級(jí)應(yīng)用的發(fā)展路徑

OSC開(kāi)源社區(qū) ? 來(lái)源:OSC開(kāi)源社區(qū) ? 2025-02-10 17:24 ? 次閱讀

最近,開(kāi)源中國(guó) OSCHINA、Gitee 與 Gitee AI

90c46f16-e788-11ef-9310-92fbcf53809c.png

全文如下:

大模型撞上 “算力墻”,超級(jí)應(yīng)用的探尋之路

文 / 傅聰

近日,大模型教父 Sam Altman 在 Reddit 上的評(píng)論透露出 GPT-5 難產(chǎn)的隱憂(yōu),直言有限的算力約束讓 OpenAI 面臨迭代優(yōu)先級(jí)的艱難抉擇,在通往 AGI 的道路上一路高歌猛進(jìn)的領(lǐng)頭羊似乎撞上了“算力墻”。

除此之外,能耗、資金,難以根除的幻覺(jué),有限的知識(shí)更新速率、有限的上下文寬度、高昂的運(yùn)營(yíng)成本等等,都讓外界對(duì)大模型的發(fā)展憂(yōu)心忡忡。面對(duì)棘手的困境與難題,大模型的未來(lái),又該何去何從呢?

下一代 “明星產(chǎn)品

“算力墻”下,模型效果邊際收益遞減,訓(xùn)練和運(yùn)營(yíng)成本高昂,在這個(gè)時(shí)間節(jié)點(diǎn),最好的 AI 產(chǎn)品會(huì)是什么?奧特曼、蓋茨、小扎、吳恩達(dá)、李彥宏等一眾大佬給出了一致的答案 —— 智能體(AI Agent)。

2025,將會(huì)是智能體元年。

什么是智能體?目前業(yè)界一致認(rèn)可的公式是“智能體 = LLM + 記憶 + 規(guī)劃 + 工具”:

90eefc36-e788-11ef-9310-92fbcf53809c.png

大模型充當(dāng)智能體的“大腦”,負(fù)責(zé)對(duì)任務(wù)進(jìn)行理解、拆解、規(guī)劃,并調(diào)用相應(yīng)工具以完成任務(wù)。同時(shí),通過(guò)記憶模塊,它還能為用戶(hù)提供個(gè)性化的服務(wù)。

智能體為什么是“算力墻”前 AI 產(chǎn)品的最優(yōu)解決方案?這一問(wèn)題的底層邏輯包含兩個(gè)方面。

1. LLM 是目前已知最好的智能體底層技術(shù)。

智能體作為學(xué)術(shù)術(shù)語(yǔ)由來(lái)已久,從上世紀(jì)的“符號(hào)、專(zhuān)家系統(tǒng)”【1】,到十年前風(fēng)頭無(wú)兩的強(qiáng)化學(xué)習(xí)(代表作 AlphaGo【3】),再到現(xiàn)在的 LLM,agent 底層技術(shù)經(jīng)歷了三個(gè)大的階段。

符號(hào)系統(tǒng)的缺點(diǎn)在于過(guò)于依賴(lài)人工定義的“符號(hào)”和“邏輯”,強(qiáng)化學(xué)習(xí)苦于訓(xùn)練數(shù)據(jù)的匱乏和“模態(tài)墻”,而 LLM 一次性解決這些問(wèn)題。

人類(lèi)語(yǔ)言就是一種高度抽象、跨模態(tài)、表達(dá)力充分的符號(hào)系統(tǒng),同時(shí)它作為知識(shí)的載體,自然地存在大量數(shù)據(jù)可用于訓(xùn)練,還蘊(yùn)含了人類(lèi)的思維模式。

在此基礎(chǔ)上訓(xùn)練得到的 LLM,自然具備被誘導(dǎo)出類(lèi)人思考的潛力。在 COT(思維鏈)【4】、TOT(思維樹(shù))【5】等技術(shù)的加持下,大模型正在學(xué)習(xí)拆解自己的“思維”,OpenAI 的 o1 就是典型案例,強(qiáng)化了推理能力的同時(shí),也大大緩解了幻覺(jué)問(wèn)題。

2. 大模型做不到的,“現(xiàn)存工具”強(qiáng)勢(shì)補(bǔ)位。

無(wú)法持續(xù)更新的知識(shí)庫(kù),可以通過(guò) RAG(Retrieval Augmented Generation,檢索增強(qiáng)生成)來(lái)解決。

RAG 的出現(xiàn),讓各界越來(lái)越深刻地認(rèn)識(shí)到,大模型沒(méi)必要存儲(chǔ)那么多知識(shí),只需要如何使用搜索引擎這個(gè)外部工具即可。大模型可以在搜索結(jié)果上做進(jìn)一步的信息篩選和優(yōu)化,而搜索引擎彌補(bǔ)了大模型的知識(shí)缺陷,實(shí)現(xiàn)了 1+1>=2 的效果。

RAG 可以被理解為智能體的最簡(jiǎn)單形式。未來(lái)的智能體可以實(shí)現(xiàn)多種工具的混合使用,甚至多智能體協(xié)作,這不是猜想,我們已經(jīng)在學(xué)術(shù)界看到了驚艷的早期方案【6,7】。

“四把鑰匙”解鎖潛力

1. 領(lǐng)域模型小型化、平臺(tái)化會(huì)成為新趨勢(shì)。

“算力墻”是一方面因素,但基座模型的趨同化和運(yùn)營(yíng)成本是源動(dòng)力。GPT、Claude、Gemini 雖然各有所長(zhǎng),但實(shí)際體驗(yàn)越來(lái)越讓大家分不出差異,基座模型作為智能體核心,決定了智能體效果下限,人人訓(xùn)練基座的可能性越來(lái)越低,“基座服務(wù)化”很可能是最合理的商業(yè)模式。

甚至,在錯(cuò)誤不敏感的應(yīng)用領(lǐng)域,出現(xiàn)一個(gè)開(kāi)源、無(wú)商業(yè)限制的基座的可能性也很高。小應(yīng)用開(kāi)發(fā)商很可能很容易獲得一個(gè)低成本 serving 的“量化小基座”。

“7B” 是一個(gè) magic number!無(wú)論是 RAG 里的向量表征模型,還是文生圖、文本識(shí)別(OCR)、語(yǔ)音合成(TTS)、人臉識(shí)別等等垂直領(lǐng)域,一個(gè) 1B~7B 的小模型已經(jīng)可以滿(mǎn)足很多生產(chǎn)、應(yīng)用需要,并且效果也在逐步推高【8,9,10】。這些模型,作為智能體的“三頭六臂”,不需要太“大”。

同時(shí),從學(xué)術(shù)角度來(lái)講,各種領(lǐng)域?qū)S媚P偷募夹g(shù)最優(yōu)解也在逐漸趨同。應(yīng)用開(kāi)發(fā)者越來(lái)越不需要了解模型的底層技術(shù),只需要懂得如何設(shè)計(jì)自己應(yīng)用的任務(wù)流,懂一點(diǎn)點(diǎn) COT 系列的 prompt engineering 的技巧,就可以利用 Maas(Model as a service)、Aaas(Agent as a service)這樣的平臺(tái),如玩樂(lè)高一般搭建自己的 AI 云原生應(yīng)用。

2. 算力層深挖定制化、低能耗的可能性,但固化 transformer 可能不是最優(yōu)解

雖說(shuō)智能體不需要太大的模型,但其運(yùn)營(yíng)成本(模型推理計(jì)算成本)仍然較高。在短時(shí)間內(nèi),算力、能源仍然會(huì)是大模型領(lǐng)域令人頭疼的高墻。

根據(jù)報(bào)告【1】,能源消耗將會(huì)是 2030 模型 scaling 最卡脖子的因素。也就是說(shuō),在算力到達(dá)瓶頸之前,首先可能會(huì)出現(xiàn)電能供應(yīng)不足甚至交不起電費(fèi)的問(wèn)題。因此,算力層可以根據(jù)大模型底層技術(shù)的特性,產(chǎn)出針對(duì)性的芯片,尤其是加速運(yùn)算和降低能耗。這是未來(lái) AI 芯片領(lǐng)域的最優(yōu)競(jìng)爭(zhēng)力。

那么,把 transformer “焊死”到板子上就是最佳方案嗎?我知道你很急,但你先別急。大模型底層框架還存在底層路線之爭(zhēng)。

我們知道,Transformer 架構(gòu)呈現(xiàn)了 O (n2) 的理論計(jì)算復(fù)雜度,這里的 n 指的是大模型輸入序列的 token 數(shù)量,但其前任語(yǔ)言模型擔(dān)當(dāng) RNN 只有 O (n) 的理論計(jì)算復(fù)雜度。

最近,以 Mamba、RWKV 為代表的類(lèi) RNN 結(jié)構(gòu)死灰復(fù)燃,公開(kāi)挑戰(zhàn) transformer 地位。更有最新研究【13】從理論上表明,RNN 對(duì)比 Transformer 的表達(dá)力,只差一個(gè) in-context-retrieval。在這個(gè)方向的持續(xù)投入下,我們很可能會(huì)迎接一個(gè)介于 RNN 和 Transformer 之間的“新王”。

90fab940-e788-11ef-9310-92fbcf53809c.png

因此,算力層短時(shí)間內(nèi)的主題仍然是“半通用化”“高算力”“低能耗”。

3. 合成數(shù)據(jù)驅(qū)動(dòng)新產(chǎn)業(yè)鏈

早有機(jī)構(gòu)預(yù)測(cè),人類(lèi)社會(huì)可利用訓(xùn)練數(shù)據(jù)會(huì)在 2026 年耗盡。這可能還是一個(gè)樂(lè)觀估計(jì)。光頭哥 Tibor Blaho 還曾爆料,OpenAI 用于訓(xùn)練“獵戶(hù)座“的數(shù)據(jù)中,已經(jīng)包含了由 GPT-4 和 O1 產(chǎn)出的合成數(shù)據(jù)。

這不僅是因?yàn)樽匀淮嬖诘母哔|(zhì)量文本的匱乏,還因?yàn)橹悄荏w所需的數(shù)據(jù)很可能需要顯式地蘊(yùn)含任務(wù)思考和規(guī)劃的拆解信息。然而,針對(duì)合成數(shù)據(jù)的問(wèn)題,學(xué)術(shù)界早有預(yù)警,模型可能會(huì)在合成數(shù)據(jù)上的持續(xù)訓(xùn)練中崩壞【14】。

9112ce18-e788-11ef-9310-92fbcf53809c.png

這是因?yàn)楹铣蓴?shù)據(jù)往往攜帶“錯(cuò)誤”和“幻覺(jué)”,在一些冷門(mén)的知識(shí)上尤甚。因此,合成數(shù)據(jù)的實(shí)用秘訣是“去粗取精”,需要一定程度的“人機(jī)協(xié)同”。在如何構(gòu)造大批量、高質(zhì)量的合成數(shù)據(jù),讓智能體能夠在持續(xù)地與用戶(hù)的交互中自我優(yōu)化而不是劣化,將會(huì)成為眾多無(wú)機(jī)器學(xué)習(xí)技術(shù)背景的開(kāi)發(fā)者的頭號(hào)難題。

因此,面向數(shù)據(jù)進(jìn)行定制化合成、評(píng)估、測(cè)試、標(biāo)注、人機(jī)協(xié)同的“純數(shù)據(jù)”產(chǎn)業(yè),有可能會(huì)走上越來(lái)越重要的位置,不僅僅是服務(wù)于基座模型廠商

4. 多模態(tài)對(duì)齊很可能給基座模型帶來(lái)質(zhì)的提升

最新研究發(fā)現(xiàn),在沒(méi)有預(yù)先約束和約定下,不同模態(tài)領(lǐng)域的最強(qiáng)模型正在向著某個(gè)世界模型認(rèn)知領(lǐng)域收縮【15】,AI 模型對(duì)不同概念的數(shù)字化表達(dá)(向量表征)會(huì)逐步趨同,構(gòu)建對(duì)這個(gè)世界的統(tǒng)一認(rèn)知。這也符合我們?nèi)祟?lèi)對(duì)世界的認(rèn)知:人類(lèi)通過(guò)語(yǔ)言文字這種符號(hào),將不同模態(tài)的信號(hào)統(tǒng)一地表達(dá),并在腦中構(gòu)建了某種受限于當(dāng)前科技水平的統(tǒng)一模型,這是人類(lèi)意識(shí)、社會(huì)溝通的前提。

912a2676-e788-11ef-9310-92fbcf53809c.png

從這個(gè)角度理解,多模態(tài)大模型很可能是通向真正 AGI 的必經(jīng)之路。將多模態(tài)信號(hào)統(tǒng)一對(duì)齊,是智能體與這個(gè)世界“無(wú)障礙”交互的前提,換個(gè)新潮的詞匯,就是我們期待的“具身智能”。

誰(shuí)不想擁有一臺(tái)自己專(zhuān)屬的“Javis” 呢?而多模態(tài)大模型的突破,也同樣依賴(lài)前文所述的算力和數(shù)據(jù)上的沉淀。

參考文獻(xiàn) 【1】https://epoch.ai/blog/can-ai-scaling-continue-through-2030 【2】Newell, A., & Simon, H. A. (1956). The Logic Theory Machine – A Complex Information Processing System. IRE Transactions on Information Theory, 2(3), 61-79. 【3】Silver, David, et al. "Mastering the game of Go with deep neural networks and tree search." nature 529.7587 (2016): 484-489. 【4】 Wei, Jason, et al. "Chain-of-thought prompting elicits reasoning in large language models." Advances in neural information processing systems 35 (2022): 24824-24837. 【5】Yao, Shunyu, et al. "Tree of thoughts: Deliberate problem solving with large language models." Advances in Neural Information Processing Systems 36 (2024). 【6】Karpas, Ehud, et al. "MRKL Systems: A modular, neuro-symbolic architecture that combines large language models, external knowledge sources and discrete reasoning." arXiv preprint arXiv:2205.00445 (2022). 【7】Schick, Timo, et al. "Toolformer: Language models can teach themselves to use tools." Advances in Neural Information Processing Systems 36 (2024). 【8】https://huggingface.co/spaces/mteb/leaderboard 【9】https://github.com/deep-floyd/IF 【10】https://developer.nvidia.com/blog/pushing-the-boundaries-of-speech-recognition-with-nemo-parakeet-asr-models/ 【11】Mamba:?Linear-time sequence modeling?with?selective state spaces 【12】Peng, Bo, et al. "Rwkv: Reinventing rnns for the transformer era." arXiv preprint arXiv:2305.13048 (2023). 【13】Wen, Kaiyue, Xingyu Dang, and Kaifeng Lyu. "Rnns are not transformers (yet): The key bottleneck on in-context retrieval." arXiv preprint arXiv:2402.18510 (2024). 【14】AI Models Collapse When Trained on Recursively Generated Data’ 【15】The Platonic Representation Hypothesis

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31673

    瀏覽量

    270472
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2594

    瀏覽量

    3210
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    301

    瀏覽量

    411

原文標(biāo)題:大模型撞上“算力墻”,超級(jí)應(yīng)用的探尋之路

文章出處:【微信號(hào):OSC開(kāi)源社區(qū),微信公眾號(hào):OSC開(kāi)源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    科技云報(bào)到:要更要“利”,“精裝”觸發(fā)大模型產(chǎn)業(yè)新變局?

    科技云報(bào)到:要更要“利”,“精裝”觸發(fā)大模型產(chǎn)業(yè)新變局?
    的頭像 發(fā)表于 01-16 10:24 ?125次閱讀

    浪潮信息與智源研究院攜手共建大模型多元生態(tài)

    人工智能技術(shù)的快速發(fā)展。浪潮信息與智源研究院將充分整合各自在、算法和技術(shù)創(chuàng)新方面的優(yōu)勢(shì)資源,共同探索模型多元
    的頭像 發(fā)表于 12-31 11:49 ?307次閱讀

    喜報(bào) 祝賀澎峰科技榮獲“2024中國(guó)卓越企業(yè)獎(jiǎng)”

    應(yīng)用等話(huà)題進(jìn)行深入探討,共同探索模型涌現(xiàn)時(shí)刻的生態(tài)演進(jìn)發(fā)展,為新質(zhì)生產(chǎn)力點(diǎn)燃新引擎。 澎峰(北京)科技有限公司憑借其卓越的技術(shù)實(shí)力和突
    的頭像 發(fā)表于 11-20 15:14 ?325次閱讀
    喜報(bào) 祝賀澎峰科技榮獲“2024中國(guó)<b class='flag-5'>算</b><b class='flag-5'>力</b>卓越企業(yè)獎(jiǎng)”

    軟通動(dòng)力受邀出席第六屆中國(guó)超級(jí)大會(huì)

    近日,以“智、大模型、新經(jīng)濟(jì)”為主題的第六屆中國(guó)超級(jí)大會(huì)ChinaSC2024在北京盛大
    的頭像 發(fā)表于 11-20 11:52 ?433次閱讀

    聯(lián)想亮相第六屆中國(guó)超級(jí)大會(huì)

    近日,以“智,大模型,新經(jīng)濟(jì)”為主題的第六屆中國(guó)超級(jí)大會(huì)(ChinaSC2024)在北京
    的頭像 發(fā)表于 11-18 17:47 ?505次閱讀

    ETH-X超節(jié)點(diǎn):開(kāi)辟AI約束突破的新路徑

    面對(duì)人工智能大模型的迅速發(fā)展及其對(duì)資源的急劇增長(zhǎng)需求,單芯片性能提升遭遇瓶頸,同時(shí)通過(guò)Scale Out策略擴(kuò)展多機(jī)集群以增加算
    的頭像 發(fā)表于 11-09 10:03 ?1349次閱讀
    ETH-X超節(jié)點(diǎn):開(kāi)辟AI<b class='flag-5'>算</b><b class='flag-5'>力</b>約束突破的新<b class='flag-5'>路徑</b>

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗(yàn)】--全書(shū)概覽

    本帖最后由 1653149838.791300 于 2024-10-16 22:19 編輯 感謝平臺(tái)提供的書(shū)籍,厚厚的一本,很有分量,感謝作者的傾力付出成書(shū)。 本書(shū)主要講芯片CPU
    發(fā)表于 10-15 22:08

    中國(guó)大會(huì)召開(kāi),業(yè)界首個(gè)高質(zhì)量評(píng)估體系發(fā)布

    首次完整地構(gòu)建了人工智能時(shí)代高質(zhì)量的理論體系,并探索性提出業(yè)界首個(gè) "五位一體"的高質(zhì)量評(píng)估體系。 發(fā)布現(xiàn)場(chǎng) 在當(dāng)前由大
    的頭像 發(fā)表于 09-28 16:50 ?300次閱讀
    中國(guó)<b class='flag-5'>算</b><b class='flag-5'>力</b>大會(huì)召開(kāi),業(yè)界首個(gè)<b class='flag-5'>算</b><b class='flag-5'>力</b>高質(zhì)量評(píng)估體系發(fā)布

    名單公布!【書(shū)籍評(píng)測(cè)活動(dòng)NO.43】 芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析

    社會(huì)資源和資本力量關(guān)注芯片的發(fā)展,希望我們的國(guó)家能夠更獨(dú)立自主地設(shè)計(jì)制造高性能芯片。 內(nèi)容簡(jiǎn)介: 本書(shū)介紹了
    發(fā)表于 09-02 10:09

    摩爾線程GPU底座助力大模型產(chǎn)業(yè)發(fā)展

    以大模型為代表的新一代人工智能技術(shù)是引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù)和重要驅(qū)動(dòng)力量,隨著對(duì)需求的日益高漲,人工智能底座公司日
    的頭像 發(fā)表于 08-27 16:15 ?677次閱讀

    模型時(shí)代的需求

    現(xiàn)在AI已進(jìn)入大模型時(shí)代,各企業(yè)都爭(zhēng)相部署大模型,但如何保證大模型,以及相關(guān)的穩(wěn)定性和性能,是一個(gè)極為重要的問(wèn)題,帶著這個(gè)極為重要的問(wèn)
    發(fā)表于 08-20 09:04

    馬斯克欲建xAI超級(jí)工廠

    在最近的一次投資者演講中,人工智能創(chuàng)業(yè)公司xAI的創(chuàng)始人馬斯克公布了公司的最新宏大計(jì)劃。他宣布,xAI計(jì)劃打造一個(gè)由數(shù)萬(wàn)個(gè)專(zhuān)用芯片組成的超級(jí)計(jì)算機(jī),命名為“
    的頭像 發(fā)表于 05-27 10:29 ?644次閱讀

    時(shí)代, 如何打破內(nèi)存

    設(shè)計(jì)的不斷革新,進(jìn)入了大時(shí)代。 目前,主流AI芯片的架構(gòu)仍然沿用了傳統(tǒng)的馮·諾依曼模型,這一設(shè)計(jì)將計(jì)算單元與數(shù)據(jù)存儲(chǔ)分離。在這種架構(gòu)下,處理器需要從內(nèi)存中讀取數(shù)據(jù),執(zhí)行計(jì)算任務(wù),然后將結(jié)果寫(xiě)回內(nèi)存。盡管AI芯片的
    的頭像 發(fā)表于 03-06 19:51 ?356次閱讀
    大<b class='flag-5'>算</b><b class='flag-5'>力</b>時(shí)代, 如何打破內(nèi)存<b class='flag-5'>墻</b>

    數(shù)據(jù)語(yǔ)料庫(kù)、算法框架和芯片在AI大模型中的作用和影響

    數(shù)據(jù)語(yǔ)料庫(kù)、算法框架和芯片的確是影響AI大模型發(fā)展的三大重要因素。
    的頭像 發(fā)表于 03-01 09:42 ?1320次閱讀