欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用NVIDIA TAO快速準(zhǔn)確地訓(xùn)練AI模型

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:Konstantin Rygol ? 2022-04-20 17:45 ? 次閱讀

越來(lái)越多的要求制造商在其生產(chǎn)過(guò)程中達(dá)到高質(zhì)量控制標(biāo)準(zhǔn)。傳統(tǒng)上,制造商依靠人工檢查來(lái)保證產(chǎn)品質(zhì)量。然而,手動(dòng)檢查成本高昂,通常只覆蓋一小部分生產(chǎn)樣本,最終導(dǎo)致生產(chǎn)瓶頸、生產(chǎn)率降低和效率降低。

通過(guò)人工智能計(jì)算機(jī)視覺(jué)實(shí)現(xiàn)缺陷檢測(cè)自動(dòng)化,制造商可以徹底改變其質(zhì)量控制流程。然而,制造商和全自動(dòng)化之間存在一個(gè)主要障礙。構(gòu)建一個(gè) AI 系統(tǒng)和生產(chǎn)就緒的應(yīng)用程序是困難的,通常需要一個(gè)熟練的 AI 團(tuán)隊(duì)來(lái)訓(xùn)練和微調(diào)模型。一般制造商不采用這種專業(yè)技術(shù),而是采用手動(dòng)檢查。

本項(xiàng)目的目標(biāo)是展示如何使用NVIDIA轉(zhuǎn)移學(xué)習(xí)工具包( TLT )和預(yù)訓(xùn)練模型快速建立制造過(guò)程中更精確的質(zhì)量控制。這個(gè)項(xiàng)目是在沒(méi)有人工智能專家或數(shù)據(jù)科學(xué)家的情況下完成的。為了了解 NVIDIA TLT 在為商業(yè)質(zhì)量控制目的培訓(xùn)人工智能系統(tǒng)方面的有效性,使用公開(kāi)的 dataset 鋼焊接工藝,從 NGC 目錄(一個(gè) GPU 優(yōu)化的人工智能和 HPC 軟件中心)重新培訓(xùn)預(yù)培訓(xùn)的 ResNet-18 模型,使用 TLT 。我們比較了人工智能研究團(tuán)隊(duì)先前發(fā)表的一項(xiàng)工作中,在數(shù)據(jù)集上從頭開(kāi)始構(gòu)建的模型和由此產(chǎn)生的模型的準(zhǔn)確性。

NVIDIA TLT 操作簡(jiǎn)便、速度快,不具備人工智能專業(yè)知識(shí)的工程師可以輕松使用。我們觀察到 NVIDIA TLT 的設(shè)置速度更快,結(jié)果更準(zhǔn)確,宏觀平均 F1 成績(jī) 為 97% ,而之前發(fā)布的數(shù)據(jù)集“從頭開(kāi)始構(gòu)建”的結(jié)果為 78% 。

這篇文章探討了 NVIDIA TLT 如何快速準(zhǔn)確地訓(xùn)練 AI 模型,展示了 AI 和轉(zhuǎn)移學(xué)習(xí)如何改變圖像和視頻分析以及工業(yè)流程的部署方式。

具有 NVIDIA TLT 的工作流

NVIDIA TLT 是 NVIDIA 訓(xùn)練、調(diào)整和優(yōu)化( TAO )平臺(tái) 的核心組件,遵循零編碼范式快速跟蹤 AI 開(kāi)發(fā)。 TLT 附帶了一套隨時(shí)可用的 Jupyter 筆記本、 Python 腳本和配置規(guī)范以及默認(rèn)參數(shù)值,使您能夠快速輕松地開(kāi)始培訓(xùn)和微調(diào)數(shù)據(jù)集。

為了開(kāi)始使用 NVIDIA TLT ,我們遵循了以下 快速入門指南說(shuō)明 。

我們下載了 Docker 容器和 TLT Jupyter 筆記本。

我們將數(shù)據(jù)集映射到 Docker 容器上。

我們開(kāi)始了第一次培訓(xùn),調(diào)整了默認(rèn)的培訓(xùn)參數(shù),如網(wǎng)絡(luò)結(jié)構(gòu)、網(wǎng)絡(luò)大小、優(yōu)化器等,直到我們對(duì)結(jié)果感到滿意。

數(shù)據(jù)集

這個(gè)項(xiàng)目中使用的數(shù)據(jù)集是由伯明翰大學(xué)的研究人員為他們的論文 基于可見(jiàn) spectrum 攝像機(jī)和機(jī)器學(xué)習(xí)的 SS304 TIG 焊接過(guò)程缺陷自動(dòng)分類 創(chuàng)建的。

該數(shù)據(jù)集由超過(guò) 45K 的灰度焊接圖像組成,可通過(guò) Kaggle 獲得。數(shù)據(jù)集描述了一類正確執(zhí)行: good_weld 。鎢極惰性氣體( TIG )焊接過(guò)程中可能出現(xiàn)五類缺陷: 燒穿、污染、未熔合、未保護(hù)氣體、, 和 high_travel_speed 。

poYBAGJf1kWAN832AAHm8x-m3jg486.png

圖 1 來(lái)自培訓(xùn)數(shù)據(jù)集的焊接圖像示例

pYYBAGJf1mGAVHqaAAAwkhZuUwg683.png

表 1 列車、驗(yàn)證和測(cè)試數(shù)據(jù)集的圖像分布

與許多工業(yè)數(shù)據(jù)集一樣,該數(shù)據(jù)集是相當(dāng)不平衡的,因?yàn)楹茈y收集低可能性出現(xiàn)的缺陷的數(shù)據(jù)。表 1 顯示了列車、驗(yàn)證和測(cè)試數(shù)據(jù)集的類別分布。

圖 2 顯示了測(cè)試數(shù)據(jù)集中的不平衡。測(cè)試數(shù)據(jù)集包含的 good_weld 圖像比 lack_of_shielding 多 75 倍。

pYYBAGJf1kaAOPETAABYSD8CO0U897.png

圖 2 TIG 鋼焊接試驗(yàn)數(shù)據(jù)集的類別分布 。

使用 NVIDIA TLT

所采用的方法側(cè)重于最小化開(kāi)發(fā)時(shí)間和調(diào)優(yōu)時(shí)間,同時(shí)確保精度適用于生產(chǎn)環(huán)境。 TLT 與示例筆記本附帶的標(biāo)準(zhǔn)配置文件結(jié)合使用。設(shè)置、培訓(xùn)和調(diào)整在 8 小時(shí)內(nèi)完成。

我們進(jìn)行了有關(guān)網(wǎng)絡(luò)深度和訓(xùn)練次數(shù)的參數(shù)掃描。我們觀察到,改變默認(rèn)的學(xué)習(xí)率并不能改善結(jié)果,因此我們沒(méi)有進(jìn)一步研究這一點(diǎn),而是將其保留在默認(rèn)值。經(jīng)過(guò) 30 個(gè)階段的訓(xùn)練,學(xué)習(xí)率為 0 。 006 ,從 NGC 目錄中獲得的預(yù)訓(xùn)練 ResNet-18 模型獲得了最佳結(jié)果。

查看 krygol/304SteelWeldingClassification GitHub repo 中的逐步方法。

poYBAGJf1nCAFS_NAAAm3dHbnR4392.png

表 2 經(jīng)過(guò) 30 個(gè)時(shí)期的訓(xùn)練,學(xué)習(xí)率為 0 。 006 ,預(yù)訓(xùn)練的 ResNet-18 獲得的結(jié)果

獲得的結(jié)果在所有班級(jí)中都相當(dāng)好。一些 lack_of_fusion 氣體圖像被錯(cuò)誤分類為 burn_through 和 污染 圖像。在訓(xùn)練更深層次的 ResNet50 時(shí)也觀察到了這種效果,這更容易將 lack_of_fusion 誤分類為另一個(gè)缺陷類。

與原始方法的比較

伯明翰大學(xué)的研究人員選擇了不同的人工智能工作流。他們手動(dòng)準(zhǔn)備數(shù)據(jù)集,通過(guò)欠采樣來(lái)減少不平衡。他們還將圖像重新縮放到不同的大小,并選擇自定義網(wǎng)絡(luò)結(jié)構(gòu)。

他們使用了一個(gè)完全連接的神經(jīng)網(wǎng)絡(luò)( Full-con6 ),即具有兩個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò)。他們還實(shí)現(xiàn)了一個(gè)卷積神經(jīng)網(wǎng)絡(luò)( Conv6 ),其中有三個(gè)卷積層,每個(gè)卷積層后跟一個(gè)最大池層和一個(gè)完全連接層作為最終隱藏層。他們沒(méi)有像 ResNet 那樣使用跳過(guò)連接。

TLT 獲得的結(jié)果與伯明翰大學(xué)研究人員定制實(shí)施的結(jié)果相比更令人印象深刻。

pYYBAGJf1nuAPKE8AAAo2EGtn3k313.png

表 3 定制網(wǎng)絡(luò)與 TLT ResNet-18 的比較

Conv6 的平均表現(xiàn)較好,宏觀平均 F1 為 0 。 78 ,但在識(shí)別 lack_of_shielding 氣體缺陷方面完全失敗 。 con6 的平均表現(xiàn)較差,宏觀平均 F1 為 0 。 56 。 FULL-con6 可以對(duì)一些 lack_of_shielding 氣體圖像進(jìn)行分類,但是 burn_through 和 高速行駛 圖像存在問(wèn)題。 FULL-con6 和 Conv6 都有明顯的弱點(diǎn),這將使它們無(wú)法獲得生產(chǎn)準(zhǔn)備就緒的資格。

每個(gè)班級(jí)的最佳 F1 成績(jī)?cè)诒碇幸跃G色標(biāo)出。如您所見(jiàn), TLT 訓(xùn)練的 ResNet-18 模型提供了更好的結(jié)果,宏觀平均值為 0 。 97 。

結(jié)論

我們?cè)?TLT 方面有著豐富的經(jīng)驗(yàn),總體而言, TLT 是用戶友好且有效的。它設(shè)置速度快,易于使用,并且在較短的計(jì)算時(shí)間內(nèi)產(chǎn)生可接受的結(jié)果。根據(jù)我們的經(jīng)驗(yàn),我們相信 TLT 為不是 AI 專家但希望在生產(chǎn)環(huán)境中使用 AI 的工程師提供了巨大的優(yōu)勢(shì)。在制造環(huán)境中使用 TLT 自動(dòng)化質(zhì)量控制不會(huì)帶來(lái)性能成本,應(yīng)用程序通常可以與默認(rèn)設(shè)置一起使用,并進(jìn)行一些小的調(diào)整,以超越自定義體系結(jié)構(gòu)。

利用 NVIDIA TLT 快速準(zhǔn)確地訓(xùn)練人工智能模型的探索表明,人工智能在工業(yè)過(guò)程中具有巨大的潛力。

關(guān)于作者

Konstantin Rygol 是 AI 和 HPC 在波士頓存儲(chǔ)和服務(wù)器解決方案有限公司的首席工程師。他擁有挪威卑爾根大學(xué)的物理碩士學(xué)位。在研究原子物理學(xué)期間,他對(duì) HPC 和 AI 產(chǎn)生了濃厚的熱情。他現(xiàn)在是 NVIDIA 深度學(xué)習(xí)培訓(xùn)中心的講師,致力于將人工智能引入德國(guó)市場(chǎng)。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5080

    瀏覽量

    103823
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    12

    文章

    9335

    瀏覽量

    86133
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31711

    瀏覽量

    270494
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NVIDIA推出面向RTX AI PC的AI基礎(chǔ)模型

    NVIDIA 今日發(fā)布能在 NVIDIA RTX AI PC 本地運(yùn)行的基礎(chǔ)模型,為數(shù)字人、內(nèi)容創(chuàng)作、生產(chǎn)力和開(kāi)發(fā)提供強(qiáng)大助力。
    的頭像 發(fā)表于 01-08 11:01 ?262次閱讀

    GPU是如何訓(xùn)練AI模型

    AI模型訓(xùn)練過(guò)程中,大量的計(jì)算工作集中在矩陣乘法、向量加法和激活函數(shù)等運(yùn)算上。這些運(yùn)算正是GPU所擅長(zhǎng)的。接下來(lái),AI部落小編帶您了解GPU是如何
    的頭像 發(fā)表于 12-19 17:54 ?253次閱讀

    NVIDIA Isaac Sim滿足模型的多樣化訓(xùn)練需求

    光輪智能借助?NVIDIA Isaac Sim,通過(guò) 3D 生成與建模技術(shù)構(gòu)建高度逼真的虛擬場(chǎng)景,將現(xiàn)實(shí)世界的復(fù)雜場(chǎng)景抽象并轉(zhuǎn)化為高質(zhì)量的訓(xùn)練數(shù)據(jù)源,從而更有效地滿足模型的多樣化訓(xùn)練
    的頭像 發(fā)表于 11-23 14:55 ?637次閱讀

    NVIDIA AI助力實(shí)現(xiàn)更好的癌癥檢測(cè)

    由美國(guó)頂級(jí)醫(yī)療中心和研究機(jī)構(gòu)的專家組成了一個(gè)專家委員會(huì),該委員會(huì)正在使用 NVIDIA 支持的聯(lián)邦學(xué)習(xí)來(lái)評(píng)估聯(lián)邦學(xué)習(xí)和 AI 輔助注釋對(duì)訓(xùn)練 AI 腫瘤分割
    的頭像 發(fā)表于 11-19 15:54 ?252次閱讀

    為什么ai模型訓(xùn)練要用gpu

    GPU憑借其強(qiáng)大的并行處理能力和高效的內(nèi)存系統(tǒng),已成為AI模型訓(xùn)練不可或缺的重要工具。
    的頭像 發(fā)表于 10-24 09:39 ?454次閱讀

    AI模型訓(xùn)練數(shù)據(jù)來(lái)源分析

    AI模型訓(xùn)練數(shù)據(jù)來(lái)源廣泛且多元化,這些數(shù)據(jù)源對(duì)于構(gòu)建和優(yōu)化AI模型至關(guān)重要。以下是對(duì)AI
    的頭像 發(fā)表于 10-23 15:32 ?1346次閱讀

    如何訓(xùn)練自己的AI模型

    訓(xùn)練自己的AI模型是一個(gè)復(fù)雜且耗時(shí)的過(guò)程,涉及多個(gè)關(guān)鍵步驟。以下是一個(gè)詳細(xì)的訓(xùn)練流程: 一、明確需求和目標(biāo) 首先,需要明確自己的需求和目標(biāo)。不同的任務(wù)和應(yīng)用領(lǐng)域需要不同類型的
    的頭像 發(fā)表于 10-23 15:07 ?3149次閱讀

    如何訓(xùn)練ai模型

    訓(xùn)練AI模型是一個(gè)復(fù)雜且耗時(shí)的過(guò)程,涉及多個(gè)關(guān)鍵步驟和細(xì)致的考量。 一、數(shù)據(jù)準(zhǔn)備 1. 數(shù)據(jù)收集 確定數(shù)據(jù)類型 :根據(jù)模型的應(yīng)用場(chǎng)景,確定需要收集的數(shù)據(jù)類型,如文本、圖像、音頻等。
    的頭像 發(fā)表于 10-17 18:17 ?1528次閱讀

    ai模型訓(xùn)練需要什么配置

    AI模型訓(xùn)練是一個(gè)復(fù)雜且資源密集的過(guò)程,它依賴于高性能的硬件配置來(lái)確保訓(xùn)練的效率和效果。 一、處理器(CPU) CPU是計(jì)算機(jī)的核心部件,負(fù)責(zé)處理各種計(jì)算任務(wù)。在
    的頭像 發(fā)表于 10-17 18:10 ?2068次閱讀

    NVIDIA Nemotron-4 340B模型幫助開(kāi)發(fā)者生成合成訓(xùn)練數(shù)據(jù)

    Nemotron-4 340B 是針對(duì) NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進(jìn)的指導(dǎo)和獎(jiǎng)勵(lì)模型,以及一個(gè)用于生成式
    的頭像 發(fā)表于 09-06 14:59 ?392次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron-4 340B<b class='flag-5'>模型</b>幫助開(kāi)發(fā)者生成合成<b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)

    NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型

    借助 NVIDIA AI Foundry,企業(yè)和各國(guó)現(xiàn)在能夠使用自有數(shù)據(jù)與 Llama 3.1 405B 和 NVIDIA Nemotron 模型配對(duì),來(lái)構(gòu)建“超級(jí)
    發(fā)表于 07-24 09:39 ?748次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>

    ai模型訓(xùn)練方法有哪些?

    AI模型訓(xùn)練方法是一個(gè)復(fù)雜且不斷發(fā)展的領(lǐng)域。以下是ai模型訓(xùn)練方法: 數(shù)據(jù)預(yù)處理和增強(qiáng) 數(shù)據(jù)
    的頭像 發(fā)表于 07-16 10:11 ?1907次閱讀

    MediaTek與NVIDIA TAO加速物聯(lián)網(wǎng)邊緣AI應(yīng)用發(fā)展

    在即將到來(lái)的COMPUTEX 2024科技盛會(huì)上,全球知名的芯片制造商MediaTek宣布了一項(xiàng)重要合作——將NVIDIATAO(TensorRT Accelerated Optimizer)與其NeuroPilot SDK(軟件開(kāi)發(fā)工具包)集成,共同推動(dòng)邊緣
    的頭像 發(fā)表于 06-12 14:49 ?519次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的預(yù)訓(xùn)練

    大語(yǔ)言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無(wú)需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對(duì)預(yù)訓(xùn)練數(shù)據(jù)的需求也相應(yīng)
    發(fā)表于 05-07 17:10

    Edge Impulse發(fā)布新工具,助 NVIDIA 模型大規(guī)模部署

    借助 Edge Impulse 和 NVIDIA TAO 工具包的協(xié)同效應(yīng),工程師得以快速構(gòu)建并部署至邊緣優(yōu)化硬件(如上述型號(hào))的計(jì)算機(jī)視覺(jué)模型。該平臺(tái)還支持用戶運(yùn)用經(jīng)由 GPU 優(yōu)化
    的頭像 發(fā)表于 03-25 16:00 ?829次閱讀