欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

STM32Cube.AI v7.3能夠在推理時間和RAM之間找到完美的平衡

星星科技指導(dǎo)員 ? 來源:STM ? 2023-02-02 10:09 ? 次閱讀

STM32Cube.AI 7.3 啟動了一個新系統(tǒng),使開發(fā)人員能夠選擇是優(yōu)先考慮 RAM、性能還是兩者之間的平衡方法。因此,它建立在先前版本 STM32Cube.AI 7.2的工作基礎(chǔ)上,該版本引入了擴展層和深度量化神經(jīng)網(wǎng)絡(luò),并允許用戶根據(jù)其約束對其進行微調(diào)算法。新的軟件版本也具有高度的象征意義,因為我們今天宣布加入MLCommons?聯(lián)盟。該計劃使我們能夠為社區(qū)做出貢獻,并將幫助團隊弄清楚他們可以通過邊緣機器學(xué)習(xí)做什么,這要歸功于客觀和可重復(fù)的基準(zhǔn)。

從大型超級計算機到微控制器

什么是 STM32Cube.AI?

STM2019Cube.AI 于32年推出,將神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)換為STM32 MCU的優(yōu)化代碼。算法可以在微控制器等資源約束設(shè)備上運行,這一事實是該領(lǐng)域的一個關(guān)鍵演變。1956年,創(chuàng)造“機器學(xué)習(xí)”一詞的亞瑟·塞繆爾(Arthur Samuel)正在開發(fā)一個教計算機玩跳棋的程序時,他不得不在IBM 701大型機上工作,并在大型科學(xué)IBM 7094上運行他的程序。之后,機器學(xué)習(xí)一直需要大量的計算吞吐量。甚至在意法半導(dǎo)體推出 STM32Cube.AI 之前的幾年,行業(yè)領(lǐng)導(dǎo)者都在由強大機器組成的云上運行機器學(xué)習(xí)算法。

STM32Cube.AI 很特別,因為它有助于在MCU上運行算法,并使開發(fā)機器學(xué)習(xí)應(yīng)用程序變得更加容易。它依賴于STM32CubeMX和X-CUBE-AI軟件包,前者可幫助開發(fā)人員初始化STM32設(shè)備,后者是一個軟件包,其中包含用于轉(zhuǎn)換預(yù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)的庫。因此,該解決方案使用熟悉且可訪問的開發(fā)環(huán)境。團隊甚至可以使用我們的入門指南,從STM32CubeMX開始使用X-CUBE-AI,并快速嘗試最新功能。因此,更多的應(yīng)用依賴于我們的技術(shù)。例如,早期版本中引入的對深度量化神經(jīng)網(wǎng)絡(luò)的附加支持很快進入了施耐德電氣創(chuàng)建的人數(shù)統(tǒng)計應(yīng)用程序。

STM32Cube.AI v7.3 中有哪些新功能?

STM32Cube.AI v7.3 帶來了一項新功能,允許開發(fā)人員選擇是優(yōu)先考慮 RAM 還是推理時間。由于在以前的版本中引入了擴展層,意法半導(dǎo)體的解決方案優(yōu)化了性能。然而,這也意味著該算法在易失性存儲器中可能具有更大的占用空間。為了讓開發(fā)人員更好地控制他們的應(yīng)用程序,意法半導(dǎo)體在 STM32Cube.AI v7.3中引入了一個新設(shè)置來定義優(yōu)先級。如果用戶選擇“時間”設(shè)置,算法將占用更多 RAM,但推理時間更快。另一方面,選擇“RAM”將具有最小的內(nèi)存占用和最慢的時間。最后,默認(rèn)的“平衡”參數(shù)在兩種方法之間找到中間地帶,提供了一個很好的折衷方案。

根據(jù)我們的基準(zhǔn)測試,在某些情況下,將 RAM 占用空間減少 36% 會使推理時間增加 50%。如果我們看一下比率,使用“時間”設(shè)置時,2 KiB 的 RAM 等于 1 毫秒的推理時間,但在選擇“RAM”時,該比率會顯著惡化。因此,在許多情況下,用戶會選擇“時間”并享受更高的每內(nèi)存性能比。但是,我們知道一些客戶受到RAM的極大限制,并且每千字節(jié)計數(shù)。在這種情況下,工程師很樂意采用較短的推理時間來節(jié)省內(nèi)存,這就是為什么我們努力提供精細(xì)的體驗,幫助開發(fā)人員根據(jù)他們的需求定制應(yīng)用程序,從而進一步普及邊緣機器學(xué)習(xí)。

STM32Cube.AI:從研究到實際軟件

什么是神經(jīng)網(wǎng)絡(luò)?

STM32Cube.AI 采用預(yù)先訓(xùn)練的神經(jīng)網(wǎng)絡(luò),并將其轉(zhuǎn)換為STM32 MCU的優(yōu)化代碼。在最簡單的形式中,神經(jīng)網(wǎng)絡(luò)只是一系列層。兩者之間有一個輸入層、一個輸出層以及一個或多個隱藏層。因此,深度學(xué)習(xí)是指具有三層以上層的神經(jīng)網(wǎng)絡(luò),“深度”一詞指向多個中間層。每層包含節(jié)點,每個節(jié)點與下層中的一個或多個節(jié)點互連。因此,簡而言之,信息通過輸入層進入神經(jīng),穿過隱藏層,然后從其中一個輸出節(jié)點出來。

什么是量化神經(jīng)網(wǎng)絡(luò)和二值化神經(jīng)網(wǎng)絡(luò)?

為了確定信息如何在網(wǎng)絡(luò)中傳播,開發(fā)人員使用權(quán)重和偏差,即節(jié)點內(nèi)的參數(shù),這些參數(shù)將在數(shù)據(jù)在網(wǎng)絡(luò)中移動時影響數(shù)據(jù)。權(quán)重是系數(shù)。權(quán)重越復(fù)雜,網(wǎng)絡(luò)就越準(zhǔn)確,但它的計算量就越大。每個節(jié)點還使用激活函數(shù)來確定如何轉(zhuǎn)換輸入值。因此,為了提高性能,開發(fā)人員可以使用量化神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)使用較低精度的權(quán)重。最有效的量化神經(jīng)網(wǎng)絡(luò)是二值化神經(jīng)網(wǎng)絡(luò)(BNN),它僅使用兩個值作為權(quán)重和激活:+1和-1。因此,BNN 需要的內(nèi)存占用非常少,但精度也最低。

為什么深度量化神經(jīng)網(wǎng)絡(luò)很重要?

業(yè)界面臨的挑戰(zhàn)是找到一種方法來簡化神經(jīng)網(wǎng)絡(luò),以便在微控制器上運行推理操作,而不會犧牲準(zhǔn)確性,使網(wǎng)絡(luò)變得無用。為了解決這個問題,意法半導(dǎo)體和意大利薩勒諾大學(xué)的研究人員研究了深度量化的神經(jīng)網(wǎng)絡(luò)。DQNN 僅使用較小的權(quán)重(從 1 位到 8 位),并且可以包含僅具有一些二值化層的混合結(jié)構(gòu),而其他結(jié)構(gòu)則使用更高的位寬浮點量化器。研究論文1意法半導(dǎo)體和大學(xué)的研究人員展示了哪種混合結(jié)構(gòu)可以提供最佳結(jié)果,同時實現(xiàn)最低的RAM和ROM占用空間。

新版本的 STM32Cube.AI 是這些研究工作的直接結(jié)果。事實上,版本 7.2 支持深度量化神經(jīng)網(wǎng)絡(luò),可以在不破壞準(zhǔn)確性的情況下從二值化層的效率中受益。開發(fā)人員可以使用QKeras或Larq等框架來預(yù)訓(xùn)練他們的網(wǎng)絡(luò),然后再通過X-CUBE-AI處理它。遷移到DQNN將有助于節(jié)省內(nèi)存使用量,從而使工程師能夠選擇更具成本效益的設(shè)備,或者為整個系統(tǒng)使用一個微控制器而不是多個組件。因此,STM32Cube.AI 繼續(xù)為邊緣計算平臺帶來更強大的推理功能。

從演示應(yīng)用到市場趨勢

如何使人數(shù)統(tǒng)計演示?

意法半導(dǎo)體和施耐德電氣最近合作開發(fā)了一款利用DQNN的人數(shù)統(tǒng)計應(yīng)用程序。該系統(tǒng)通過處理熱傳感器圖像在STM32H7上運行推理,以確定人們是否越過假想線以及決定他們是進入還是離開的方向。組件的選擇非常出色,因為它促進了相對較低的物料清單。施耐德沒有轉(zhuǎn)向更昂貴的處理器,而是使用深度量化的神經(jīng)網(wǎng)絡(luò)來顯著降低其內(nèi)存和 CPU 使用率,從而縮小了應(yīng)用程序的占用空間,并為更具成本效益的解決方案打開了大門。兩家公司在 2022 年 《》 月的 TinyML 會議上展示了該演示。

如何克服機器學(xué)習(xí)在邊緣的炒作?

意法半導(dǎo)體是第一家提供類似 STM32Cube.AI 解決方案的MCU制造商,根據(jù)MLCommons基準(zhǔn)測試,我們的工具性能繼續(xù)名列前茅。正如從學(xué)術(shù)論文到軟件發(fā)布的最新旅程所表明的那樣,我們業(yè)績背后的原因是我們優(yōu)先考慮影響實際應(yīng)用的有意義的研究。這是關(guān)于使人工智能實用且易于訪問,而不是一個流行語。Gartner的市場分析師2預(yù)計從事嵌入式AI的公司將很快經(jīng)歷“幻滅的低谷”。今天的發(fā)布和施耐德的演示應(yīng)用表明,意法半導(dǎo)體率先以研究為動力,克服了這一缺陷,成為實際應(yīng)用和深思熟慮優(yōu)化的中心。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 微控制器
    +關(guān)注

    關(guān)注

    48

    文章

    7658

    瀏覽量

    152177
  • 計算機
    +關(guān)注

    關(guān)注

    19

    文章

    7549

    瀏覽量

    88707
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8444

    瀏覽量

    133113
收藏 人收藏

    評論

    相關(guān)推薦

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?190次閱讀
    使用NVIDIA<b class='flag-5'>推理</b>平臺提高<b class='flag-5'>AI</b><b class='flag-5'>推理</b>性能

    生成式AI推理技術(shù)、市場與未來

    (reasoning)能力,這一轉(zhuǎn)變將極大推動上層應(yīng)用的發(fā)展。 紅杉資本近期指出,可預(yù)見的未來,邏輯推理推理時計算將是一個重要主題,并開啟生成式AI的下一階段。新一輪競賽已然開始。
    的頭像 發(fā)表于 01-20 11:16 ?446次閱讀
    生成式<b class='flag-5'>AI</b><b class='flag-5'>推理</b>技術(shù)、市場與未來

    如何在STM32f4系列開發(fā)板上部署STM32Cube.AI,

    已下載STM32Cube.AI擴展包,但是無法使用,感覺像是沒有部署AI模型,我是想要通過攝像頭拍照,上傳圖像后,經(jīng)過開發(fā)板處理器進行AI模型處理識別過后,告訴我識別結(jié)果,顯示TFL
    發(fā)表于 11-18 09:39

    NVIDIA助力麗蟾科技打造AI訓(xùn)練與推理加速解決方案

    麗蟾科技通過 Leaper 資源管理平臺集成 NVIDIA AI Enterprise,為企業(yè)和科研機構(gòu)提供了一套高效、靈活的 AI 訓(xùn)練與推理加速解決方案。無論是復(fù)雜的
    的頭像 發(fā)表于 10-27 10:03 ?321次閱讀
    NVIDIA助力麗蟾科技打造<b class='flag-5'>AI</b>訓(xùn)練與<b class='flag-5'>推理</b>加速解決方案

    科技感應(yīng)門為何青睞LED全息屏?揭秘現(xiàn)代科技新風(fēng)尚

    科技感應(yīng)門與LED全息屏的結(jié)合成為了眾多高端場所的新寵。這種創(chuàng)新組合不僅提升了空間的科技感與時尚感,更在實用性與觀賞性之間找到完美的平衡點。
    的頭像 發(fā)表于 09-27 16:35 ?846次閱讀
    科技感應(yīng)門為何青睞LED全息屏?揭秘現(xiàn)代科技新風(fēng)尚

    被稱為“小號HBM”,華邦電子CUBE進階邊緣AI存儲

    ,分享了華邦推出的CUBE產(chǎn)品邊緣AI上的應(yīng)用優(yōu)勢以及對存儲應(yīng)用市場的看法等話題。 ? CUBE :小號HBM ? “華邦電子近兩三年都在推CUB
    的頭像 發(fā)表于 07-01 16:21 ?3293次閱讀

    CubeIDE生成的代碼框架會卡在MX_X_CUBE_AI_Process()函數(shù)中是怎么回事?

    當(dāng)我將網(wǎng)絡(luò)模型部署到STM32F407VGT6中時,CubeIDE生成的代碼框架會卡在MX_X_CUBE_AI_Process()函數(shù)中是怎么回事?CUbeAI庫的版本是9.0。期待您的回復(fù),謝謝
    發(fā)表于 05-30 06:11

    STM CUBE AI錯誤導(dǎo)入onnx模型報錯的原因?

    使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.ai
    發(fā)表于 05-27 07:15

    IAR 7.3調(diào)試STM32 usb只要配置USB的中斷NVIC_Init,debug的時就停止不了內(nèi)核,也復(fù)位不了的原因?

    IAR 7.3調(diào)試STM32 usb 只要配置USB的中斷NVIC_Init,debug的時就停止不了內(nèi)核,也復(fù)位不了。用的是STLINKV1
    發(fā)表于 05-16 06:51

    請問STM32 CUBE穩(wěn)定嗎?

    我以前一直是用官方庫開發(fā)1系列的。stm32 cube也出來一段時間了,現(xiàn)在穩(wěn)定性如何了,需要用到usb和sd卡fat文件系統(tǒng),cube里有沒有提供,穩(wěn)定性如何呢? 還有
    發(fā)表于 05-16 06:24

    開發(fā)者手機 AI - 目標(biāo)識別 demo

    Network Runtime 神經(jīng)網(wǎng)絡(luò)運行時,作為中間橋梁連通上層AI推理框架和底層加速芯片,實現(xiàn)AI模型的跨芯片推理計算。提供統(tǒng)一AI
    發(fā)表于 04-11 16:14

    cubeMX加入cube-ai分析模型時提示下載GNU tools for STM32卡死如何解決?

    使用cube-ai時,會彈出對話框,并一致卡死0%,嘗試手動安裝GNU工具也無效。請問該如何解決?
    發(fā)表于 03-21 07:42

    STM32H750可以使用Cube.AI嗎?

    STM32H750,可以使用Cube.AI
    發(fā)表于 03-19 06:14

    cube AI導(dǎo)入Keras模型出錯怎么解決?

    我嘗試過cube AI的version7.1.0、6.0.0、5.1.2、4.1.0,導(dǎo)入Keras都是這個報錯,求解答 E010(InvalidModelError): Couldn&
    發(fā)表于 03-18 06:39

    使用cube-AI分析模型時報錯的原因有哪些?

    使用cube-AI分析模型時報錯,該模型是pytorch的cnn轉(zhuǎn)化成onnx ``` Neural Network Tools for STM32AI v1.7.0 (STM.ai
    發(fā)表于 03-14 07:09