欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI/ML 解決方案加速驗(yàn)證曲線(xiàn)收斂

jf_pJlTbmA9 ? 來(lái)源:jf_pJlTbmA9 ? 作者:jf_pJlTbmA9 ? 2023-07-08 11:03 ? 次閱讀

保證覆蓋率的同時(shí)優(yōu)化仿真回歸

隨著應(yīng)用要求的激增和用戶(hù)需求的增加,硬件設(shè)計(jì)變得更加復(fù)雜。市場(chǎng)趨勢(shì)的快速變化,以及對(duì)電動(dòng)汽車(chē)等技術(shù)的更多關(guān)注,決定了對(duì)高效電源管理和高性能處理的需求水漲船高。隨著 SoC 設(shè)計(jì)規(guī)模的擴(kuò)大,復(fù)雜程度的增加,驗(yàn)證吞吐量仍然是一個(gè)瓶頸,單純依靠增加 CPU 核數(shù)量和運(yùn)行更多的并行測(cè)試治標(biāo)不治本。上述因素的疊加讓驗(yàn)證工程師面對(duì)復(fù)雜設(shè)計(jì)的壓力與日俱增。

驗(yàn)證永遠(yuǎn)不會(huì)完成;當(dāng)你的時(shí)間用完時(shí),它就結(jié)束了。目標(biāo)是在你耗盡時(shí)間之前使驗(yàn)證過(guò)程收斂。每個(gè)人都希望看到關(guān)鍵指標(biāo)收斂到目標(biāo),并在嚴(yán)格的成本和時(shí)間限制下做到這一點(diǎn)。想象一下,坐在駕駛艙里,向黑匣子輸入信息,然后等待奇跡發(fā)生(按一個(gè)按鈕,你的工作就完成了)。當(dāng)務(wù)之急是人工智能機(jī)器學(xué)習(xí)AI/ML)如何幫助我們更快地完成回歸,節(jié)省調(diào)試時(shí)間,實(shí)現(xiàn)驗(yàn)證/覆蓋率目標(biāo),并管理資源和資金——換句話(huà)說(shuō),我們?nèi)绾问褂?AI/ML 來(lái)提高驗(yàn)證的效率?

瑞薩公司也面臨著類(lèi)似的挑戰(zhàn)。市場(chǎng)壓力和嚴(yán)格的投片時(shí)間表促使他們尋找一種技術(shù)/方法來(lái)優(yōu)化仿真回歸,并在整個(gè)產(chǎn)品開(kāi)發(fā)過(guò)程中加速設(shè)計(jì)驗(yàn)證過(guò)程。他們希望減少風(fēng)險(xiǎn),盡早發(fā)現(xiàn)盡可能多的錯(cuò)誤,能夠快速調(diào)試,并滿(mǎn)足其終端用戶(hù)的要求。

瑞薩開(kāi)始探索 Cadence Xcelium 機(jī)器學(xué)習(xí)應(yīng)用。這個(gè)應(yīng)用程序使用機(jī)器學(xué)習(xí)技術(shù)來(lái)優(yōu)化仿真回歸,以產(chǎn)生一個(gè)更緊湊的壓縮回歸。然后這個(gè)優(yōu)化的回歸被用來(lái)重現(xiàn)與原始回歸幾乎相同的覆蓋率,并通過(guò)運(yùn)行現(xiàn)有隨機(jī)測(cè)試平臺(tái)可能出現(xiàn)的邊界場(chǎng)景,快速找到設(shè)計(jì)錯(cuò)誤。

瑞薩的測(cè)試結(jié)果非常完美,整個(gè)隨機(jī)驗(yàn)證回歸的時(shí)間縮短了 66%,大幅節(jié)省了資源,成本和時(shí)間。Xcelium ML App 幫助瑞薩在保證 100%覆蓋率的同時(shí)將壓縮效率提高 2.2 倍。此外,將 ML 回歸用于首次設(shè)計(jì)迭代時(shí),瑞薩再次實(shí)現(xiàn)了 100%覆蓋率下,將時(shí)間縮短 3.6 倍。

1683785065627604.png

基于 ML 的測(cè)試回歸次數(shù)僅為 1168,相當(dāng)于 3774 次原始回歸的 1/3。實(shí)現(xiàn)目標(biāo)所需時(shí)間縮短了 30%,滿(mǎn)足了嚴(yán)格的上市需求。

除了利用 Xcelium ML App 節(jié)省資源和時(shí)間,加速實(shí)現(xiàn)設(shè)計(jì)收斂,瑞薩也評(píng)估了由 3款 Verisium App 組成,基于 AI 的 Cadence Verisium 平臺(tái),將驗(yàn)證生產(chǎn)力提高了 6 倍,共節(jié)省 27 個(gè)工時(shí)。

瑞薩評(píng)估的 App 如下:

1683785059602822.png

Verisium AutoTriage,一款基于 ML 的自動(dòng)化測(cè)試失敗分類(lèi)程序,可以將相同錯(cuò)誤導(dǎo)致的測(cè)試失敗自動(dòng)分組。失敗分組耗時(shí)降低了 70%,整體效率提升了 3.3 倍。

Verisium SemanticDiff 幫助瑞薩快速識(shí)別失敗原因,比傳統(tǒng) diff 工具更加高效。SemanticDiff 專(zhuān)注于設(shè)計(jì)環(huán)境,可以提供更相關(guān)的差異分析。此外,逐條檢查 diff 指令的歷史文件是很繁瑣的,SemanticDiff app 可以大幅縮短糾錯(cuò)時(shí)間,顯著提升效率。

Verisium WaveMiner 可以高效識(shí)別差異點(diǎn),用戶(hù)可以在 PASS 和 FAIL 中將差異點(diǎn)可視化,便捷地比較 PASS 和 FAIL 的波型及源代碼。瑞薩的糾錯(cuò)時(shí)間得以縮短 89%-97%,帶來(lái) 9 倍的效率提升。

Cadence 的 Verisium 平臺(tái)和 Xcelium ML 應(yīng)用一起提供了一套利用 AI/ML 的應(yīng)用,以?xún)?yōu)化驗(yàn)證工作負(fù)載,提高覆蓋率,并加速?gòu)?fù)雜 SoC 上設(shè)計(jì)錯(cuò)誤的根源分析。瑞薩公司利用人工智能平臺(tái),將其驗(yàn)證生產(chǎn)率提高了 10 倍。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Cadence
    +關(guān)注

    關(guān)注

    65

    文章

    930

    瀏覽量

    142495
  • 瑞薩
    +關(guān)注

    關(guān)注

    35

    文章

    22312

    瀏覽量

    86820
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    新一代AI/ML加速器新型內(nèi)存解決方案——HBM2E內(nèi)存接口

    近年來(lái),隨著內(nèi)存帶寬逐漸成為影響人工智能持續(xù)增長(zhǎng)的關(guān)鍵焦點(diǎn)領(lǐng)域之一,以高帶寬內(nèi)存(HBM、HBM2、HBM2E)和GDDR開(kāi)始逐漸顯露頭角,成為搭配新一代AI/ML加速器和專(zhuān)用芯片的新型內(nèi)存
    的頭像 發(fā)表于 10-23 15:20 ?5509次閱讀
    新一代<b class='flag-5'>AI</b>/<b class='flag-5'>ML</b><b class='flag-5'>加速</b>器新型內(nèi)存<b class='flag-5'>解決方案</b>——HBM2E內(nèi)存接口

    富士通AI平臺(tái)“Fujitsu Kozuchi”加速AIML解決方案交付

    Platform",將面向全球企業(yè)用戶(hù)提供一系列強(qiáng)大的AI(人工智能)與ML(機(jī)器學(xué)習(xí))技術(shù)。 基于富士通先進(jìn)的AI技術(shù),通過(guò)豐富的工具及軟件組合,該平臺(tái)將幫助制造、零售、金融以及醫(yī)療保健等各行業(yè)客戶(hù)
    發(fā)表于 05-12 09:20 ?315次閱讀
    富士通<b class='flag-5'>AI</b>平臺(tái)“Fujitsu Kozuchi”<b class='flag-5'>加速</b><b class='flag-5'>AI</b>與<b class='flag-5'>ML</b><b class='flag-5'>解決方案</b>交付

    海量干貨分享!XDF(賽靈思開(kāi)發(fā)者大會(huì))北京站各分論壇演講資料公布

    基礎(chǔ) - Plunify視頻處理或數(shù)據(jù)壓縮 - 恒揚(yáng)數(shù)據(jù)采用 FPGA 實(shí)現(xiàn)深綠 MPP:一個(gè)超動(dòng)力 Greenplum 數(shù)據(jù)倉(cāng)庫(kù)解決方案 - Vitesse Data數(shù)據(jù)與科學(xué)計(jì)算分論壇數(shù)據(jù)中心 AI 加速
    發(fā)表于 01-03 15:19

    如何加速電信領(lǐng)域AI開(kāi)發(fā)?

    全流程工作中面臨的各種困難。繼機(jī)械化、電氣化、信息化三次工業(yè)革命后,以人工智能為代表的第四次工業(yè)革命正在到來(lái),驅(qū)動(dòng)人類(lèi)社會(huì)邁向新紀(jì)元。就在今年的全聯(lián)接大會(huì)上,華為發(fā)布了AI戰(zhàn)略與全棧全場(chǎng)景AI解決方案
    發(fā)表于 02-25 06:53

    X-CUBE-AI和NanoEdge AI Studio在MLAI開(kāi)發(fā)環(huán)境中的區(qū)別是什么?

    我想知道 X-CUBE-AI 和 NanoEdge AI Studio 在 MLAI 開(kāi)發(fā)環(huán)境中的區(qū)別。我可以在任何一個(gè)開(kāi)發(fā)環(huán)境中做同樣的事情嗎?使用的設(shè)備有什么限制嗎?
    發(fā)表于 12-05 06:03

    新思科技發(fā)布業(yè)界首款全棧式AI驅(qū)動(dòng)型EDA解決方案Synopsys.ai

    摘要:Synopsys.ai可為芯片設(shè)計(jì)提供AI驅(qū)動(dòng)型解決方案,包含數(shù)字、模擬、驗(yàn)證、測(cè)試和制造模塊。AI引擎可顯著提高設(shè)計(jì)效率和芯片質(zhì)量,
    發(fā)表于 04-03 16:03

    基于軟件的Vitis AI 2.0加速解決方案

    Vitis AI 2.0 全面發(fā)布!作為賽靈思 FPGA 和自適應(yīng) SoC 上最綜合全面的基于軟件的 AI 加速解決方案,Vitis AI
    的頭像 發(fā)表于 03-15 17:39 ?2418次閱讀

    AI驅(qū)動(dòng)芯片驗(yàn)證:VSO.ai在手,覆蓋率收斂更快、更好、更高效

    ? ? ? ? ? 原文標(biāo)題:AI驅(qū)動(dòng)芯片驗(yàn)證:VSO.ai在手,覆蓋率收斂更快、更好、更高效 文章出處:【微信公眾號(hào):新思科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
    的頭像 發(fā)表于 03-30 20:05 ?1017次閱讀

    下周五|AI驅(qū)動(dòng)芯片驗(yàn)證:VSO.ai在手,覆蓋率收斂更快、更好、更高效

    ? ? ? ? ? 原文標(biāo)題:下周五|AI驅(qū)動(dòng)芯片驗(yàn)證:VSO.ai在手,覆蓋率收斂更快、更好、更高效 文章出處:【微信公眾號(hào):新思科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
    的頭像 發(fā)表于 03-31 17:30 ?754次閱讀

    本周五|AI驅(qū)動(dòng)芯片驗(yàn)證:VSO.ai在手,覆蓋率收斂更快、更好、更高效

    ? ? ? ? ? 原文標(biāo)題:本周五|AI驅(qū)動(dòng)芯片驗(yàn)證:VSO.ai在手,覆蓋率收斂更快、更好、更高效 文章出處:【微信公眾號(hào):新思科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
    的頭像 發(fā)表于 04-03 22:20 ?554次閱讀

    統(tǒng)一AI/ML解決方案加速驗(yàn)證曲線(xiàn)收斂

    的增加,驗(yàn)證吞吐量仍然是一個(gè)瓶頸,單純依靠增加 CPU 核數(shù)量和運(yùn)行更多的并行測(cè)試治標(biāo)不治本。上述因素的疊加讓驗(yàn)證工程師面對(duì)復(fù)雜設(shè)計(jì)的壓力與日俱增。
    的頭像 發(fā)表于 05-11 16:59 ?560次閱讀
    統(tǒng)一<b class='flag-5'>AI</b>/<b class='flag-5'>ML</b><b class='flag-5'>解決方案</b><b class='flag-5'>加速</b><b class='flag-5'>驗(yàn)證</b><b class='flag-5'>曲線(xiàn)</b><b class='flag-5'>收斂</b>

    利用擴(kuò)展型 NAS 存儲(chǔ)加速 AI/ML 工作負(fù)載

    虹科方案1AI&ML變革日常生活AI(人工智能)和ML(機(jī)器學(xué)習(xí))的發(fā)展正逐漸滲透到我們的日常生活中,為我們帶來(lái)了翻天覆地的變化。從智能手機(jī)
    的頭像 發(fā)表于 08-05 08:11 ?707次閱讀
    利用擴(kuò)展型 NAS 存儲(chǔ)<b class='flag-5'>加速</b> <b class='flag-5'>AI</b>/<b class='flag-5'>ML</b> 工作負(fù)載

    深入探討工業(yè)AI/ML技術(shù)的發(fā)展趨勢(shì)及相關(guān)解決方案

    芯科科技已經(jīng)創(chuàng)建了一套完整的硬件和軟件解決方案,可支持開(kāi)發(fā)用于工業(yè)市場(chǎng)的工業(yè)AI/ML解決方案。具體來(lái)說(shuō),我們的Sub-GHz、藍(lán)牙和802.15.4產(chǎn)品內(nèi)置了硬件
    的頭像 發(fā)表于 01-29 09:42 ?546次閱讀

    Supermicro推新AI存儲(chǔ)方案,助力AIML應(yīng)用加速

    Supermicro首席執(zhí)行官梁見(jiàn)后先生高瞻遠(yuǎn)矚地指出:針對(duì)AIML應(yīng)用的加速處理,我們推薦配置以每機(jī)柜20 PB高速閃存為主,配備四個(gè)NVIDIA HGX H100系列優(yōu)化版8-GPU氣冷服務(wù)器或者八個(gè)同款液冷服務(wù)器。
    的頭像 發(fā)表于 02-03 14:46 ?692次閱讀

    是德科技推出AI數(shù)據(jù)中心測(cè)試平臺(tái)旨在加速AI/ML網(wǎng)絡(luò)驗(yàn)證和優(yōu)化的創(chuàng)新

    2024年2月29日,是德科技(Keysight Technologies,Inc.)宣布,針對(duì)人工智能(AI)和機(jī)器學(xué)習(xí)(ML)基礎(chǔ)設(shè)施生態(tài)系統(tǒng),推出了 AI數(shù)據(jù)中心測(cè)試平臺(tái),旨在加速
    的頭像 發(fā)表于 02-29 09:32 ?705次閱讀
    是德科技推出<b class='flag-5'>AI</b>數(shù)據(jù)中心測(cè)試平臺(tái)旨在<b class='flag-5'>加速</b><b class='flag-5'>AI</b>/<b class='flag-5'>ML</b>網(wǎng)絡(luò)<b class='flag-5'>驗(yàn)證</b>和優(yōu)化的創(chuàng)新