欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MLPerf訓(xùn)練評(píng)估已部署機(jī)器學(xué)習(xí)模型的執(zhí)行時(shí)間

星星科技指導(dǎo)員 ? 來(lái)源:嵌入式計(jì)算設(shè)計(jì) ? 作者:Saumitra Jagdale ? 2022-07-10 15:17 ? 次閱讀

機(jī)器學(xué)習(xí) (ML) 需要行業(yè)標(biāo)準(zhǔn)的性能基準(zhǔn),以幫助創(chuàng)建和競(jìng)爭(zhēng)評(píng)估眾多與 ML 相關(guān)的軟件和硬件解決方案。

然而,與其他領(lǐng)域不同,ML 訓(xùn)練面臨三個(gè)不同的基準(zhǔn)測(cè)試挑戰(zhàn):

提高訓(xùn)練吞吐量的優(yōu)化可以增加求解時(shí)間。

訓(xùn)練是隨機(jī)的,解決問(wèn)題的時(shí)間差異很大。

軟件和硬件系統(tǒng)如此多樣化,以至于很難使用相同的二進(jìn)制文件、代碼甚至超參數(shù)進(jìn)行公平的基準(zhǔn)測(cè)試。

MLcommons 的機(jī)器學(xué)習(xí)基準(zhǔn)測(cè)試解決方案 MLPerf 旨在解決這些問(wèn)題。MLPerf 在推動(dòng)性能和可擴(kuò)展性改進(jìn)方面的功效在來(lái)自不同制造商的兩組數(shù)據(jù)中進(jìn)行了統(tǒng)計(jì)評(píng)估。

MLPerf 旨在為機(jī)器學(xué)習(xí)提供一個(gè)具有代表性的基準(zhǔn)套件,以正確測(cè)量系統(tǒng)性能,以實(shí)現(xiàn)五個(gè)高級(jí)目標(biāo):

允許對(duì)競(jìng)爭(zhēng)系統(tǒng)進(jìn)行公平比較,同時(shí)促進(jìn)機(jī)器學(xué)習(xí)創(chuàng)新。

通過(guò)以公平和相關(guān)的方式衡量 ML 開(kāi)發(fā)速度。

確保一致性結(jié)果的可重復(fù)性。

為商業(yè)和學(xué)術(shù)團(tuán)體提供服務(wù)。

保持較低的基準(zhǔn)測(cè)試成本,以便每個(gè)人都可以參與。

MLPerf 創(chuàng)建了一個(gè)基準(zhǔn)套件,其中包括各種應(yīng)用程序、DNN 模型和優(yōu)化器。它還準(zhǔn)確地指定了模型和訓(xùn)練技術(shù),以創(chuàng)建每個(gè)基準(zhǔn)的參考實(shí)現(xiàn)。MLPerf 在比較結(jié)果時(shí)建立了時(shí)間限制以減少隨機(jī)性的影響。此外,它允許 ML 和系統(tǒng)社區(qū)通過(guò)使提交代碼開(kāi)源來(lái)檢查和復(fù)制結(jié)果。

每個(gè)基準(zhǔn)都會(huì)計(jì)算在給定數(shù)據(jù)集上訓(xùn)練模型以達(dá)到給定質(zhì)量目標(biāo)所需的時(shí)間。最終結(jié)果是通過(guò)以特定于基準(zhǔn)的次數(shù)測(cè)量基準(zhǔn),刪除最低和最高值,并對(duì)剩余結(jié)果進(jìn)行平均以解釋 ML 訓(xùn)練持續(xù)時(shí)間的巨大差異來(lái)生成的。即使是平均結(jié)果數(shù)量也不足以消除所有波動(dòng)。成像基準(zhǔn)的結(jié)果通常為 +/- 2.5%,而其他基準(zhǔn)通常為 +/- 5%。

MLPerf 希望通過(guò)讓提交者重新實(shí)現(xiàn)參考實(shí)現(xiàn)來(lái)刺激軟件和硬件方面的創(chuàng)新。MLPerf 有兩個(gè)部門,提供不同程度的重新實(shí)現(xiàn)自由度。封閉部門要求使用與參考實(shí)現(xiàn)相同的模型和優(yōu)化器,以便比較硬件平臺(tái)或軟件框架,“蘋果對(duì)蘋果”。開(kāi)放部門旨在通過(guò)允許任何機(jī)器學(xué)習(xí)技術(shù)達(dá)到預(yù)期的質(zhì)量來(lái)促進(jìn)更快的模型和優(yōu)化器。

ML 系統(tǒng)的行業(yè)基準(zhǔn)

總而言之,MLPerf Training 是涵蓋商業(yè)和學(xué)術(shù)應(yīng)用的機(jī)器學(xué)習(xí)基準(zhǔn)的集合。盡管它是唯一一個(gè)廣泛使用且覆蓋范圍如此廣泛的 ML 訓(xùn)練基準(zhǔn)套件,但它幾乎沒(méi)有做出任何貢獻(xiàn)。首先,通過(guò)精確定義模型架構(gòu)和每個(gè)基準(zhǔn)特征的訓(xùn)練程序,可以對(duì)等效工作負(fù)載進(jìn)行系統(tǒng)比較。此外,為了解決對(duì) ML 訓(xùn)練進(jìn)行基準(zhǔn)測(cè)試的挑戰(zhàn),使用了參考實(shí)現(xiàn)和規(guī)則定義。訓(xùn)練過(guò)程的隨機(jī)性、為了確定性能優(yōu)化的質(zhì)量影響而需要訓(xùn)練完成以及需要在各種系統(tǒng)規(guī)模下改變工作負(fù)載是一些挑戰(zhàn)。

盡管 MLPerf 側(cè)重于相對(duì)系統(tǒng)性能,但正如在線結(jié)果所證明的那樣,它還提供了 ML 和基準(zhǔn)測(cè)試的一般課程。真實(shí)數(shù)據(jù)集的大小對(duì)于確保真實(shí)的內(nèi)存系統(tǒng)行為至關(guān)重要。例如,最初的 NCF 數(shù)據(jù)集太小而無(wú)法完全放入內(nèi)存中。此外,當(dāng)對(duì)小于工業(yè)規(guī)模的數(shù)據(jù)集進(jìn)行基準(zhǔn)測(cè)試時(shí),訓(xùn)練時(shí)間不應(yīng)包括啟動(dòng)時(shí)間,這在實(shí)際使用中成比例地減少。

因此,MLPerf 正在迅速將自己確立為 ML 系統(tǒng)的行業(yè)基準(zhǔn),同時(shí)也是一個(gè)理想的論壇,用于發(fā)布分析師、投資者和買家可以依賴的基準(zhǔn)測(cè)試結(jié)果的新產(chǎn)品。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    使用BP神經(jīng)網(wǎng)絡(luò)進(jìn)行時(shí)間序列預(yù)測(cè)

    和測(cè)試的時(shí)間序列數(shù)據(jù)。 確保數(shù)據(jù)具有良好的質(zhì)量,并進(jìn)行必要的預(yù)處理,如去除異常值、填充缺失值等。 數(shù)據(jù)劃分 : 將數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集。 訓(xùn)練集用于模型
    的頭像 發(fā)表于 02-12 16:44 ?47次閱讀

    充電樁CCC認(rèn)證什么時(shí)候執(zhí)行?

    充電樁CCC認(rèn)證的執(zhí)行時(shí)間表如下:
    的頭像 發(fā)表于 12-25 17:12 ?344次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    模型有更大的能力去記憶訓(xùn)練數(shù)據(jù),從而可能導(dǎo)致過(guò)擬合,特別是在小規(guī)模數(shù)據(jù)集上。 訓(xùn)練時(shí)間延長(zhǎng):因?yàn)樾枰~外的時(shí)間來(lái)
    發(fā)表于 12-19 14:33

    構(gòu)建云原生機(jī)器學(xué)習(xí)平臺(tái)流程

    構(gòu)建云原生機(jī)器學(xué)習(xí)平臺(tái)是一個(gè)復(fù)雜而系統(tǒng)的過(guò)程,涉及數(shù)據(jù)收集、處理、特征提取、模型訓(xùn)練評(píng)估、部署
    的頭像 發(fā)表于 12-14 10:34 ?180次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:如何實(shí)現(xiàn)手寫數(shù)字識(shí)別

    數(shù)字分類模型 如果說(shuō)有自己制作數(shù)據(jù)的話,需要將數(shù)據(jù)上傳,然后在修改全局配置項(xiàng),修改數(shù)據(jù)集地址以及對(duì)應(yīng)的類別數(shù)。 按照廠家提供的配置直接進(jìn)行訓(xùn)練轉(zhuǎn)換。 模型訓(xùn)練
    發(fā)表于 12-06 17:20

    pycharm如何訓(xùn)練機(jī)器學(xué)習(xí)模型

    PyCharm是一個(gè)流行的Python集成開(kāi)發(fā)環(huán)境(IDE),它提供了豐富的功能,包括代碼編輯、調(diào)試、測(cè)試等。在本文中,我們將介紹如何在PyCharm中訓(xùn)練機(jī)器學(xué)習(xí)模型。 一、安裝Py
    的頭像 發(fā)表于 07-11 10:14 ?966次閱讀

    預(yù)訓(xùn)練和遷移學(xué)習(xí)的區(qū)別和聯(lián)系

    預(yù)訓(xùn)練和遷移學(xué)習(xí)是深度學(xué)習(xí)機(jī)器學(xué)習(xí)領(lǐng)域中的兩個(gè)重要概念,它們?cè)谔岣?b class='flag-5'>模型性能、減少
    的頭像 發(fā)表于 07-11 10:12 ?1292次閱讀

    如何理解機(jī)器學(xué)習(xí)中的訓(xùn)練集、驗(yàn)證集和測(cè)試集

    理解機(jī)器學(xué)習(xí)中的訓(xùn)練集、驗(yàn)證集和測(cè)試集,是掌握機(jī)器學(xué)習(xí)核心概念和流程的重要一步。這三者不僅構(gòu)成了模型
    的頭像 發(fā)表于 07-10 15:45 ?4718次閱讀

    人臉識(shí)別模型訓(xùn)練流程

    人臉識(shí)別模型訓(xùn)練流程是計(jì)算機(jī)視覺(jué)領(lǐng)域中的一項(xiàng)重要技術(shù)。本文將詳細(xì)介紹人臉識(shí)別模型訓(xùn)練流程,包括數(shù)據(jù)準(zhǔn)備、模型選擇、
    的頭像 發(fā)表于 07-04 09:19 ?1167次閱讀

    解讀PyTorch模型訓(xùn)練過(guò)程

    PyTorch作為一個(gè)開(kāi)源的機(jī)器學(xué)習(xí)庫(kù),以其動(dòng)態(tài)計(jì)算圖、易于使用的API和強(qiáng)大的靈活性,在深度學(xué)習(xí)領(lǐng)域得到了廣泛的應(yīng)用。本文將深入解讀PyTorch模型
    的頭像 發(fā)表于 07-03 16:07 ?1209次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過(guò)程詳解

    詳細(xì)介紹深度學(xué)習(xí)模型訓(xùn)練的全過(guò)程,包括數(shù)據(jù)預(yù)處理、模型構(gòu)建、損失函數(shù)定義、優(yōu)化算法選擇、訓(xùn)練過(guò)程以及模型
    的頭像 發(fā)表于 07-01 16:13 ?1555次閱讀

    名單公布!【書籍評(píng)測(cè)活動(dòng)NO.35】如何用「時(shí)間序列與機(jī)器學(xué)習(xí)」解鎖未來(lái)?

    ,如何將機(jī)器學(xué)習(xí)、深度學(xué)習(xí)或者大模型技術(shù)應(yīng)用在大規(guī)模的數(shù)據(jù)生產(chǎn)中,是一個(gè)非常關(guān)鍵的問(wèn)題。 國(guó)內(nèi)外出版了許多關(guān)于
    發(fā)表于 06-25 15:00

    深度探討:無(wú)人機(jī)干擾器干擾執(zhí)行時(shí)間的關(guān)鍵影響因素

    隨著無(wú)人機(jī)技術(shù)的廣泛應(yīng)用,無(wú)人機(jī)干擾器作為防御和管控?zé)o人機(jī)的重要工具,其在軍事、民用及公共安全等領(lǐng)域發(fā)揮著重要作用。然而,無(wú)人機(jī)干擾器的干擾執(zhí)行時(shí)間直接決定了其有效性和實(shí)用性。本文將深入探討無(wú)人機(jī)干擾器干擾執(zhí)行時(shí)間的影響因素,并對(duì)這些因素進(jìn)行詳細(xì)解析。
    的頭像 發(fā)表于 05-29 09:27 ?644次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】核心技術(shù)綜述

    其預(yù)訓(xùn)練和微調(diào),直到模型部署和性能評(píng)估。以下是對(duì)這些技術(shù)的綜述: 模型架構(gòu): LLMs通常采用深層的神經(jīng)網(wǎng)絡(luò)架構(gòu),最常見(jiàn)的是Transf
    發(fā)表于 05-05 10:56

    請(qǐng)問(wèn)stm32cubeIDE仿真怎么看程序執(zhí)行時(shí)間?

    就想keil仿真那樣,可以時(shí)刻監(jiān)視程序執(zhí)行時(shí)間,cubeide怎么在仿真debug時(shí),監(jiān)視程序時(shí)間呢?
    發(fā)表于 04-02 07:47