我們正處在為未來創(chuàng)新樹立先例的關(guān)鍵時刻
雖然該行業(yè)似乎正在努力實現(xiàn)完全自動化,但人工智能需要訓(xùn)練有素的人類專家的指導(dǎo)。事實上,如果沒有經(jīng)過成功訓(xùn)練的數(shù)據(jù)和專家以及多樣化的人類監(jiān)督,人工智能的未來可能會弊大于利。
這是人工智能成功的基礎(chǔ)
培訓(xùn)數(shù)據(jù)是確保人工智能項目實現(xiàn)其承諾的重要基礎(chǔ),再到特斯拉,人工智能系統(tǒng)都獲得了數(shù)據(jù),以開發(fā)和改進它們的機器學(xué)習(xí)算法,但如果用于教授程序的信息不豐富、不健壯,程序本身就無法正常運行。換句話說:進質(zhì)量等于出質(zhì)量,數(shù)據(jù)訓(xùn)練是一個過程,在此過程中,人類注釋者檢測、選擇和標(biāo)簽對象跨圖像、視頻和3D模型渲染。人工智能算法然后處理這些標(biāo)注的數(shù)據(jù),并使用它做出明智的決定,盡管概念簡單,但96%的人工智能程序在數(shù)據(jù)質(zhì)量方面遇到了問題,其中有8 / 10的項目直接失敗。除了制造效率低下的產(chǎn)品之外,未經(jīng)訓(xùn)練的數(shù)據(jù)還可能導(dǎo)致危險的偏見,為醫(yī)療保艦環(huán)保、自動駕駛汽車和虛擬現(xiàn)實等行業(yè)的關(guān)鍵決策提供信息。
這些漏洞比許多提供商愿意承認的要普遍得多
人工智能(Watson AI)為關(guān)鍵診斷和治療決策提供信息,然而當(dāng)產(chǎn)生不安全的建議時,這種基于假設(shè)患者數(shù)據(jù)的解決方案被發(fā)現(xiàn)無效,這些不同的錯誤是由相同的固有缺陷引起的:不完整的訓(xùn)練數(shù)據(jù)。圍繞該技術(shù)的高科技炒作常常使人工智能提供商無法承認需要人為干預(yù)以確保錯誤不會持續(xù)存在。雖然依賴較孝不那么多樣化的數(shù)據(jù)集可以節(jié)省時間和金錢,但這些捷徑造成了結(jié)構(gòu)性缺陷,威脅到人工智能的成功。
為什么人工智能需要人在循環(huán)中
盡管公開對話主要關(guān)注的是人工智能篡奪人類,但這項技術(shù)無法在沒有人類監(jiān)督的情況下發(fā)揮作用,事實上,人工智能只有在將其先進的技術(shù)能力與一個多樣化的、專家在回路中的人工團隊相結(jié)合的情況下才可靠,因此才會成功,在數(shù)據(jù)訓(xùn)練過程中,人類負責(zé)標(biāo)記不同的數(shù)據(jù)集。例如,在自動駕駛汽車行業(yè)中,人在環(huán)中的團隊會看到一系列街道、高速公路和十字路口的可視資產(chǎn)。然后,每個注釋者選擇并標(biāo)記圖像中的對象,如行人、路牌和摩托車,訓(xùn)練機器學(xué)習(xí)算法,以便以后檢測和理解這些對象。
只有人工智能標(biāo)記初始數(shù)據(jù)集
可能會錯過重要的對象,導(dǎo)致人工智能“司機”錯過現(xiàn)實世界中的行人,人不僅是必要的標(biāo)簽數(shù)據(jù)正確,但在創(chuàng)建數(shù)據(jù)集本身,如果訓(xùn)練數(shù)據(jù)集的內(nèi)容沒有人為的監(jiān)督,那么在這個初始階段也可能引入偏差,想象一下,如果一輛無人駕駛汽車的訓(xùn)練數(shù)據(jù)集中沒有雪地駕駛,后來又在現(xiàn)實世界中遇到了這種情況,那么它的潛在弱點會是什么。
人工智能成功的關(guān)鍵是人類監(jiān)督和經(jīng)過熟練訓(xùn)練的數(shù)據(jù)的結(jié)合,而不是純粹的自動化
隨著人工智能在我們的日常生活中變得更加普及和普遍,我們現(xiàn)在灌輸?shù)淖龇▽Q定我們未來技術(shù)的有效性,通過確保數(shù)據(jù)集是高質(zhì)量的,以及他們的人工智能與一個多樣化的人在環(huán)中的團隊協(xié)同工作,供應(yīng)商可以確信他們的解決方案將會成功。
責(zé)任編輯:YYX
-
數(shù)據(jù)
+關(guān)注
關(guān)注
8文章
7175瀏覽量
89714 -
人工智能
+關(guān)注
關(guān)注
1796文章
47805瀏覽量
240588
發(fā)布評論請先 登錄
相關(guān)推薦
評論