越來(lái)越多的要求制造商在其生產(chǎn)過(guò)程中達(dá)到高質(zhì)量控制標(biāo)準(zhǔn)。傳統(tǒng)上,制造商依靠人工檢查來(lái)保證產(chǎn)品質(zhì)量。然而,手動(dòng)檢查成本高昂,通常只覆蓋一小部分生產(chǎn)樣本,最終導(dǎo)致生產(chǎn)瓶頸、生產(chǎn)率降低和效率降低。
通過(guò)人工智能和計(jì)算機(jī)視覺(jué)實(shí)現(xiàn)缺陷檢測(cè)自動(dòng)化,制造商可以徹底改變其質(zhì)量控制流程。然而,制造商和全自動(dòng)化之間存在一個(gè)主要障礙。構(gòu)建一個(gè) AI 系統(tǒng)和生產(chǎn)就緒的應(yīng)用程序是困難的,通常需要一個(gè)熟練的 AI 團(tuán)隊(duì)來(lái)訓(xùn)練和微調(diào)模型。一般制造商不采用這種專業(yè)技術(shù),而是采用手動(dòng)檢查。
本項(xiàng)目的目標(biāo)是展示如何使用NVIDIA轉(zhuǎn)移學(xué)習(xí)工具包( TLT )和預(yù)訓(xùn)練模型快速建立制造過(guò)程中更精確的質(zhì)量控制。這個(gè)項(xiàng)目是在沒(méi)有人工智能專家或數(shù)據(jù)科學(xué)家的情況下完成的。為了了解 NVIDIA TLT 在為商業(yè)質(zhì)量控制目的培訓(xùn)人工智能系統(tǒng)方面的有效性,使用公開(kāi)的 dataset 鋼焊接工藝,從 NGC 目錄(一個(gè) GPU 優(yōu)化的人工智能和 HPC 軟件中心)重新培訓(xùn)預(yù)培訓(xùn)的 ResNet-18 模型,使用 TLT 。我們比較了人工智能研究團(tuán)隊(duì)先前發(fā)表的一項(xiàng)工作中,在數(shù)據(jù)集上從頭開(kāi)始構(gòu)建的模型和由此產(chǎn)生的模型的準(zhǔn)確性。
NVIDIA TLT 操作簡(jiǎn)便、速度快,不具備人工智能專業(yè)知識(shí)的工程師可以輕松使用。我們觀察到 NVIDIA TLT 的設(shè)置速度更快,結(jié)果更準(zhǔn)確,宏觀平均 F1 成績(jī) 為 97% ,而之前發(fā)布的數(shù)據(jù)集“從頭開(kāi)始構(gòu)建”的結(jié)果為 78% 。
這篇文章探討了 NVIDIA TLT 如何快速準(zhǔn)確地訓(xùn)練 AI 模型,展示了 AI 和轉(zhuǎn)移學(xué)習(xí)如何改變圖像和視頻分析以及工業(yè)流程的部署方式。
具有 NVIDIA TLT 的工作流
NVIDIA TLT 是 NVIDIA 訓(xùn)練、調(diào)整和優(yōu)化( TAO )平臺(tái) 的核心組件,遵循零編碼范式快速跟蹤 AI 開(kāi)發(fā)。 TLT 附帶了一套隨時(shí)可用的 Jupyter 筆記本、 Python 腳本和配置規(guī)范以及默認(rèn)參數(shù)值,使您能夠快速輕松地開(kāi)始培訓(xùn)和微調(diào)數(shù)據(jù)集。
為了開(kāi)始使用 NVIDIA TLT ,我們遵循了以下 快速入門指南說(shuō)明 。
我們下載了 Docker 容器和 TLT Jupyter 筆記本。
我們將數(shù)據(jù)集映射到 Docker 容器上。
我們開(kāi)始了第一次培訓(xùn),調(diào)整了默認(rèn)的培訓(xùn)參數(shù),如網(wǎng)絡(luò)結(jié)構(gòu)、網(wǎng)絡(luò)大小、優(yōu)化器等,直到我們對(duì)結(jié)果感到滿意。
數(shù)據(jù)集
這個(gè)項(xiàng)目中使用的數(shù)據(jù)集是由伯明翰大學(xué)的研究人員為他們的論文 基于可見(jiàn) spectrum 攝像機(jī)和機(jī)器學(xué)習(xí)的 SS304 TIG 焊接過(guò)程缺陷自動(dòng)分類 創(chuàng)建的。
該數(shù)據(jù)集由超過(guò) 45K 的灰度焊接圖像組成,可通過(guò) Kaggle 獲得。數(shù)據(jù)集描述了一類正確執(zhí)行: good_weld 。鎢極惰性氣體( TIG )焊接過(guò)程中可能出現(xiàn)五類缺陷: 燒穿、污染、未熔合、未保護(hù)氣體、, 和 high_travel_speed 。
圖 1 來(lái)自培訓(xùn)數(shù)據(jù)集的焊接圖像示例
表 1 列車、驗(yàn)證和測(cè)試數(shù)據(jù)集的圖像分布
與許多工業(yè)數(shù)據(jù)集一樣,該數(shù)據(jù)集是相當(dāng)不平衡的,因?yàn)楹茈y收集低可能性出現(xiàn)的缺陷的數(shù)據(jù)。表 1 顯示了列車、驗(yàn)證和測(cè)試數(shù)據(jù)集的類別分布。
圖 2 顯示了測(cè)試數(shù)據(jù)集中的不平衡。測(cè)試數(shù)據(jù)集包含的 good_weld 圖像比 lack_of_shielding 多 75 倍。
圖 2 TIG 鋼焊接試驗(yàn)數(shù)據(jù)集的類別分布 。
使用 NVIDIA TLT
所采用的方法側(cè)重于最小化開(kāi)發(fā)時(shí)間和調(diào)優(yōu)時(shí)間,同時(shí)確保精度適用于生產(chǎn)環(huán)境。 TLT 與示例筆記本附帶的標(biāo)準(zhǔn)配置文件結(jié)合使用。設(shè)置、培訓(xùn)和調(diào)整在 8 小時(shí)內(nèi)完成。
我們進(jìn)行了有關(guān)網(wǎng)絡(luò)深度和訓(xùn)練次數(shù)的參數(shù)掃描。我們觀察到,改變默認(rèn)的學(xué)習(xí)率并不能改善結(jié)果,因此我們沒(méi)有進(jìn)一步研究這一點(diǎn),而是將其保留在默認(rèn)值。經(jīng)過(guò) 30 個(gè)階段的訓(xùn)練,學(xué)習(xí)率為 0 。 006 ,從 NGC 目錄中獲得的預(yù)訓(xùn)練 ResNet-18 模型獲得了最佳結(jié)果。
查看 krygol/304SteelWeldingClassification GitHub repo 中的逐步方法。
表 2 經(jīng)過(guò) 30 個(gè)時(shí)期的訓(xùn)練,學(xué)習(xí)率為 0 。 006 ,預(yù)訓(xùn)練的 ResNet-18 獲得的結(jié)果
獲得的結(jié)果在所有班級(jí)中都相當(dāng)好。一些 lack_of_fusion 氣體圖像被錯(cuò)誤分類為 burn_through 和 污染 圖像。在訓(xùn)練更深層次的 ResNet50 時(shí)也觀察到了這種效果,這更容易將 lack_of_fusion 誤分類為另一個(gè)缺陷類。
與原始方法的比較
伯明翰大學(xué)的研究人員選擇了不同的人工智能工作流。他們手動(dòng)準(zhǔn)備數(shù)據(jù)集,通過(guò)欠采樣來(lái)減少不平衡。他們還將圖像重新縮放到不同的大小,并選擇自定義網(wǎng)絡(luò)結(jié)構(gòu)。
他們使用了一個(gè)完全連接的神經(jīng)網(wǎng)絡(luò)( Full-con6 ),即具有兩個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò)。他們還實(shí)現(xiàn)了一個(gè)卷積神經(jīng)網(wǎng)絡(luò)( Conv6 ),其中有三個(gè)卷積層,每個(gè)卷積層后跟一個(gè)最大池層和一個(gè)完全連接層作為最終隱藏層。他們沒(méi)有像 ResNet 那樣使用跳過(guò)連接。
TLT 獲得的結(jié)果與伯明翰大學(xué)研究人員定制實(shí)施的結(jié)果相比更令人印象深刻。
表 3 定制網(wǎng)絡(luò)與 TLT ResNet-18 的比較
Conv6 的平均表現(xiàn)較好,宏觀平均 F1 為 0 。 78 ,但在識(shí)別 lack_of_shielding 氣體缺陷方面完全失敗 。 con6 的平均表現(xiàn)較差,宏觀平均 F1 為 0 。 56 。 FULL-con6 可以對(duì)一些 lack_of_shielding 氣體圖像進(jìn)行分類,但是 burn_through 和 高速行駛 圖像存在問(wèn)題。 FULL-con6 和 Conv6 都有明顯的弱點(diǎn),這將使它們無(wú)法獲得生產(chǎn)準(zhǔn)備就緒的資格。
每個(gè)班級(jí)的最佳 F1 成績(jī)?cè)诒碇幸跃G色標(biāo)出。如您所見(jiàn), TLT 訓(xùn)練的 ResNet-18 模型提供了更好的結(jié)果,宏觀平均值為 0 。 97 。
結(jié)論
我們?cè)?TLT 方面有著豐富的經(jīng)驗(yàn),總體而言, TLT 是用戶友好且有效的。它設(shè)置速度快,易于使用,并且在較短的計(jì)算時(shí)間內(nèi)產(chǎn)生可接受的結(jié)果。根據(jù)我們的經(jīng)驗(yàn),我們相信 TLT 為不是 AI 專家但希望在生產(chǎn)環(huán)境中使用 AI 的工程師提供了巨大的優(yōu)勢(shì)。在制造環(huán)境中使用 TLT 自動(dòng)化質(zhì)量控制不會(huì)帶來(lái)性能成本,應(yīng)用程序通常可以與默認(rèn)設(shè)置一起使用,并進(jìn)行一些小的調(diào)整,以超越自定義體系結(jié)構(gòu)。
利用 NVIDIA TLT 快速準(zhǔn)確地訓(xùn)練人工智能模型的探索表明,人工智能在工業(yè)過(guò)程中具有巨大的潛力。
關(guān)于作者
Konstantin Rygol 是 AI 和 HPC 在波士頓存儲(chǔ)和服務(wù)器解決方案有限公司的首席工程師。他擁有挪威卑爾根大學(xué)的物理碩士學(xué)位。在研究原子物理學(xué)期間,他對(duì) HPC 和 AI 產(chǎn)生了濃厚的熱情。他現(xiàn)在是 NVIDIA 深度學(xué)習(xí)培訓(xùn)中心的講師,致力于將人工智能引入德國(guó)市場(chǎng)。
審核編輯:郭婷
-
NVIDIA
+關(guān)注
關(guān)注
14文章
5080瀏覽量
103823 -
服務(wù)器
+關(guān)注
關(guān)注
12文章
9335瀏覽量
86133 -
AI
+關(guān)注
關(guān)注
87文章
31711瀏覽量
270494
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
NVIDIA推出面向RTX AI PC的AI基礎(chǔ)模型
GPU是如何訓(xùn)練AI大模型的
NVIDIA Isaac Sim滿足模型的多樣化訓(xùn)練需求
NVIDIA AI助力實(shí)現(xiàn)更好的癌癥檢測(cè)
為什么ai模型訓(xùn)練要用gpu
AI大模型的訓(xùn)練數(shù)據(jù)來(lái)源分析
如何訓(xùn)練自己的AI大模型
如何訓(xùn)練ai大模型
ai模型訓(xùn)練需要什么配置
NVIDIA Nemotron-4 340B模型幫助開(kāi)發(fā)者生成合成訓(xùn)練數(shù)據(jù)
![<b class='flag-5'>NVIDIA</b> Nemotron-4 340B<b class='flag-5'>模型</b>幫助開(kāi)發(fā)者生成合成<b class='flag-5'>訓(xùn)練</b>數(shù)據(jù)](https://file1.elecfans.com/web2/M00/05/86/wKgZombaqFaAYqNYAAEgri7KFqc769.jpg)
NVIDIA AI Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 AI 模型
![<b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Foundry 為全球企業(yè)打造自定義 Llama 3.1 生成式 <b class='flag-5'>AI</b> <b class='flag-5'>模型</b>](https://file1.elecfans.com/web2/M00/FE/F8/wKgaomagW9SAbLHwAAVEfeObLRk613.png)
評(píng)論