2022年3月16日,美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)發(fā)布了《邁向識別和管理人工智能偏見的標(biāo)準(zhǔn)》(以下簡稱《標(biāo)準(zhǔn)》),《標(biāo)準(zhǔn)》的目的是分析人工智能偏見這一具有挑戰(zhàn)性的領(lǐng)域中有爭議的問題,并為制定識別和管理人工智能偏見的詳細(xì)社會技術(shù)指導(dǎo)提供路線圖上的第一步。NIST表示,《標(biāo)準(zhǔn)》是支持可信賴和負(fù)責(zé)任的人工智能開發(fā)的一部分,為NIST正在開發(fā)的AI風(fēng)險管理框架(AI RMF)提供了相關(guān)的指導(dǎo)。
《標(biāo)準(zhǔn)》重點提出三部分內(nèi)容:
描述了人工智能中偏見的利害關(guān)系和挑戰(zhàn),并舉例說明了偏見破壞公眾信任的原因和方式;
識別人工智能中的三類偏見(即系統(tǒng)性,統(tǒng)計性和人類偏見),并描述它們對社會產(chǎn)生負(fù)面影響的方式;
描述了減輕人工智能偏見的三大挑戰(zhàn),包括數(shù)據(jù)集,測試和評估、驗證和核實以及人為因素,并對解決這些問題給出建議。
如何理解人工智能偏見
人工智能風(fēng)險管理旨在最大限度地減少人工智能的負(fù)面影響,包括對公民自由和權(quán)利的威脅等。而在談?wù)撊斯ぶ悄茱L(fēng)險時,“偏見”是一個重要話題。雖然人工智能偏見并不總是負(fù)面的,如通過自動化系統(tǒng)決策為公眾提供生活便利。然而,人工智能模型和系統(tǒng)中表現(xiàn)出的某些偏見也可能對個人、組織和社會造成永久化和放大的負(fù)面影響。
《標(biāo)準(zhǔn)》指出,偏見與社會透明度和公平性息息相關(guān)。對于大多數(shù)人來說,算法很少透明,因為非技術(shù)受眾很難了解和理解公司用于設(shè)計、開發(fā)和部署的代碼及用于決策的復(fù)雜人工智能網(wǎng)絡(luò)。此外,很多人受到人工智能技術(shù)和系統(tǒng)的困擾,如未經(jīng)本人的同意,在申請大學(xué)、租賃房屋甚至互聯(lián)網(wǎng)搜索時,個人數(shù)據(jù)被人工智能技術(shù)和系統(tǒng)輸入等。這些情形都導(dǎo)致個人對“失控”和“失去隱私”的恐懼,以及對人工智能的信任下降。
人工智能偏見的類別
《標(biāo)準(zhǔn)》中,人工智能分為系統(tǒng)性偏見、統(tǒng)計性偏見和人類偏見三大類別,具體來看:
系統(tǒng)性偏見
系統(tǒng)性偏見,也被稱為機(jī)構(gòu)或歷史偏見,是由特定機(jī)構(gòu)的程序和做法造成,導(dǎo)致某些社會群體處于有利地位或受到青睞,而其他社會群體則處于不利地位或受到貶低。它們普遍存在于人工智能使用的數(shù)據(jù),人工智能生命周期的流程中以及文化和社會中的機(jī)構(gòu)規(guī)范、實踐和流程中。這不一定是有意識偏見或歧視,而是大多數(shù)人遵循現(xiàn)有規(guī)則或規(guī)范造成的。最為典型的是種族主義和性別歧視,在日?;A(chǔ)設(shè)施中未能考慮殘疾人的無障礙環(huán)境等。
統(tǒng)計性偏見
統(tǒng)計性偏見來自于系統(tǒng)性錯誤而非隨機(jī)性錯誤,在沒有偏見、偏袒或歧視性意圖的情況下也會發(fā)生。在人工智能系統(tǒng)中,這些偏見存在于開發(fā)人工智能應(yīng)用的數(shù)據(jù)集和算法過程中,當(dāng)算法在一種類型的數(shù)據(jù)上訓(xùn)練而不能超越這些數(shù)據(jù)進(jìn)行推斷時,偏見就會出現(xiàn)。
人類偏見
人類偏見是人類思維的基本部分,反映了人類思維中的系統(tǒng)性錯誤。此類偏見往往是隱性的,并與個人或群體通過自動化信息進(jìn)行決策有關(guān),廣泛存在于整個人工智能生命周期的機(jī)構(gòu)、團(tuán)體和個人決策過程中,以及在人工智能應(yīng)用部署后的使用過程中。
人工智能偏見對社會的影響
由于人工智能技術(shù)與社會緊密聯(lián)系,其相比傳統(tǒng)技術(shù)對社會的影響更大。各個部門都普遍部署人工智能的應(yīng)用程序用于決策支持,從而代替人類做出具有高度影響力的決策。但目前,對這些應(yīng)用程序的負(fù)面影響和其他結(jié)果進(jìn)行驗證的方法并不精確,也不全面。
雖然機(jī)器學(xué)習(xí)(ML)系統(tǒng)能夠?qū)?fù)雜的現(xiàn)象進(jìn)行建模,但其是否能夠按照人類的社會價值觀進(jìn)行學(xué)習(xí)和操作,仍值得關(guān)注。系統(tǒng)性偏見(如種族偏見),可以通過訓(xùn)練中使用的數(shù)據(jù),機(jī)構(gòu)政策以及基礎(chǔ)實踐(如何被委托、開發(fā)、部署和使用),在人工智能模型中比較常見。而統(tǒng)計性偏見、人類偏見普遍存在于工程和建模過程中,只有當(dāng)正確驗證模型性能的不確定性時,這些偏見才會顯現(xiàn)。
可以發(fā)現(xiàn),開發(fā)和運(yùn)用人工智能的團(tuán)隊往往對技術(shù)的使用方式和人類的監(jiān)督有不準(zhǔn)確的預(yù)期,或應(yīng)用結(jié)果不符合設(shè)計原意,也會導(dǎo)致人工智能偏見。這些偏見放大和強(qiáng)化了歧視,從而對個人和社會產(chǎn)生負(fù)面影響,并且其速度和規(guī)模遠(yuǎn)遠(yuǎn)超過了傳統(tǒng)的歧視性做法(如種族歧視、性別歧視、年齡歧視或能力歧視)。
減輕人工智能偏見面臨的挑戰(zhàn)和建議
《標(biāo)準(zhǔn)》探索了克服人工智能偏見的措施和治理過程,描述了其過程中的三大挑戰(zhàn),包括數(shù)據(jù)集、測試和評估以及人為因素,并為解決這些問題提出建議。
1、數(shù)據(jù)集挑戰(zhàn)
人工智能的設(shè)計和開發(fā)實踐依賴于大規(guī)模的數(shù)據(jù)集來驅(qū)動ML過程。一方面,研究人員、開發(fā)人員和從業(yè)人員更關(guān)注數(shù)據(jù)集的可用性或可獲得性,而不是最合適性。因此,這些過程中使用的數(shù)據(jù)可能不具有代表性。而這些數(shù)據(jù)卻經(jīng)常在訓(xùn)練ML應(yīng)用中使用。另一方面,當(dāng)對一個過程或現(xiàn)象的社會技術(shù)背景沒有足夠的了解或認(rèn)識時,這些在ML應(yīng)用程序中所使用的屬性,也可能不適用于對不同社會群體或文化的分析。
建議:開發(fā)和部署人工智能系統(tǒng)需要注意的關(guān)鍵問題:是否存在適合或適用于人工智能系統(tǒng)所開發(fā)和部署的各種應(yīng)用、工作和任務(wù)的數(shù)據(jù)集?不僅ML系統(tǒng)的預(yù)測行為是由數(shù)據(jù)決定的,數(shù)據(jù)也在很大程度上決定了機(jī)器學(xué)習(xí)任務(wù)本身。所以,解決數(shù)據(jù)集的適用性問題需要注意三個因素:
統(tǒng)計因素:解決人工智能偏見的一個主要趨勢是關(guān)注建模過程中使用的數(shù)據(jù)集的平衡統(tǒng)計代表性。使用統(tǒng)計現(xiàn)象分析可檢測數(shù)據(jù)集中的偏見,有時有助于克服人工智能偏見。
社會技術(shù)因素:在ML應(yīng)用中,使用數(shù)據(jù)集必須進(jìn)行調(diào)整,要全面考慮其所處環(huán)境的全部社會技術(shù)因素。
人類和數(shù)據(jù)集的相互作用因素:在建立人工智能應(yīng)用基礎(chǔ)模型時,數(shù)據(jù)集中存在的系統(tǒng)性偏見是由人工智能設(shè)計和開發(fā)團(tuán)隊關(guān)于使用哪些數(shù)據(jù)集的決定和假設(shè)所造成。
2、TEVV(測試和評估、驗證和核實)挑戰(zhàn)
TEVV(測試和評估、驗證和核實)是減輕人工智能偏見所面臨的另一個挑戰(zhàn)。作為一種工程結(jié)構(gòu),TEVV旨在事后檢測和修復(fù)問題,而并不等同于科學(xué)方法的全面應(yīng)用。一方面,結(jié)構(gòu)有效性在人工智能系統(tǒng)開發(fā)中尤為重要,另一方面,在許多人工智能項目中,結(jié)構(gòu)化數(shù)據(jù)收集、最小化確認(rèn)偏差的可靠實驗設(shè)計技術(shù)等都在被淡化,這一變化也導(dǎo)致人工智能偏見的增長。
建議:為了減輕認(rèn)知和不確定性帶來的風(fēng)險,模型開發(fā)人員應(yīng)該與部署它們的組織密切合作。團(tuán)隊?wèi)?yīng)努力確保定期更新模型,并在更新的代表性數(shù)據(jù)集上測試和重新校準(zhǔn)模型參數(shù)以滿足業(yè)務(wù)目標(biāo),同時保持在預(yù)期的性能目標(biāo)和可接受的偏差水平內(nèi)。
3、人為因素挑戰(zhàn)
隨著ML算法在準(zhǔn)確性和精確性方面的發(fā)展,計算系統(tǒng)已經(jīng)轉(zhuǎn)變?yōu)橛扇祟愄峁┯邢掭斎氲淖詣記Q策。算法決策系統(tǒng)的發(fā)展和普及的同時,由于算法模型會產(chǎn)生和放大不公正結(jié)果,公眾對人工智能的信任感也隨之下降。嵌入在算法模型中的系統(tǒng)性偏見也將造成災(zāi)難性的傷害。在沒有評估和管理這些風(fēng)險的情況下,貿(mào)然部署人工智能模型和系統(tǒng)的組織不僅會傷害其用戶,還會損害其聲譽(yù)。
建議:制定算法影響評估,提供一個高層次的結(jié)構(gòu),使組織能夠確定每個算法的風(fēng)險。
組織多方利益相關(guān)者參與:讓各種利益相關(guān)者參與進(jìn)來,利用他們的各種經(jīng)驗來應(yīng)對核心挑戰(zhàn),即在人工智能系統(tǒng)將部署的特定環(huán)境中識別有害結(jié)果和環(huán)境變化。
保證多元化、公平與包容:使能夠反映各種背景、觀點和專業(yè)知識的不同個人群體發(fā)揮作用,這也有助于拓寬人工智能系統(tǒng)設(shè)計師和工程師的視野。
改進(jìn)實踐:采用生命周期方法確定一些關(guān)鍵點,在這些關(guān)鍵點上,完善的指導(dǎo)、擔(dān)保和治理流程可以幫助多利益相關(guān)者協(xié)作整合流程,減少偏見。
優(yōu)化人類與人工智能配置:利用人和機(jī)器智能來創(chuàng)建機(jī)器學(xué)習(xí)模型——“人在回路”(人們參與到一個良性循環(huán)中,在這個循環(huán)中他們訓(xùn)練、調(diào)整和測試特定的算法)的方法,考慮到廣泛的社會技術(shù)因素,可以優(yōu)化人類與人工智能的配置。
提高制度和程序透明度:人工智能系統(tǒng)需要更多的解釋和可以很好地被解釋,可以使用數(shù)據(jù)表和模型卡等工具。
讓人類成為人工智能設(shè)計的中心:以人為中心的設(shè)計(HCD)可開發(fā)可靠、安全和值得信賴的人工智能系統(tǒng),有助于提高用戶有效使用產(chǎn)品的能力。
人工智能偏見的治理
人工智能偏見的治理過程幾乎影響到管理過程的各個方面,不僅要關(guān)注技術(shù)工件(如人工智能系統(tǒng)),還要關(guān)注組織流程和文化能力,這些都直接影響到參與培訓(xùn)、部署和監(jiān)測此類系統(tǒng)的群體。
《標(biāo)準(zhǔn)》指出,對于人工智能偏見治理可從八方面著手:
監(jiān)測:人工智能系統(tǒng)一旦部署,其性能可能與預(yù)期不同,導(dǎo)致不同群體受到不同的待遇??刂圃擄L(fēng)險的關(guān)鍵措施是部署額外的系統(tǒng)來監(jiān)測潛在的偏見問題。
追訴渠道:系統(tǒng)終端用戶可以通過反饋渠道標(biāo)記出不正確或潛在危害結(jié)果,并對錯誤或危害進(jìn)行追訴。
政策和程序:政策和程序可以實現(xiàn)統(tǒng)一的開發(fā)和測試實踐,這有助于確保人工智能系統(tǒng)結(jié)果的可重復(fù)性,相關(guān)風(fēng)險可以得到統(tǒng)一的映射、測量和管理。
文本標(biāo)準(zhǔn)化:明確的文件可以幫助系統(tǒng)地執(zhí)行政策和程序,使組織的偏見管理過程在每個階段的實施和記錄標(biāo)準(zhǔn)化。文件還可以作為重要信息的單一儲存庫,不僅支持對人工智能系統(tǒng)和相關(guān)業(yè)務(wù)流程的內(nèi)部監(jiān)督,還可以加強(qiáng)系統(tǒng)維護(hù),并作為糾正或調(diào)試處理活動的寶貴資源。
問責(zé)制:問責(zé)制需要對人工智能系統(tǒng)本身的作用進(jìn)行明確評估,其任務(wù)應(yīng)嵌入到參與培訓(xùn)和部署人工智能系統(tǒng)的各個團(tuán)隊中,不能由一個人承擔(dān)。
文化與實踐:為了使治理有效,人工智能需要嵌入到一個組織的整個文化中來強(qiáng)調(diào)信仰、規(guī)范和價值觀。風(fēng)險管理文化和實踐可以作為一種強(qiáng)大的技術(shù),從社會技術(shù)系統(tǒng)的角度出發(fā)來識別整個人工智能生命周期中的偏見。
風(fēng)險緩解、風(fēng)險分類和激勵結(jié)構(gòu):有效的人工智能偏見治理重點在于明確承認(rèn)減輕風(fēng)險,而不是避免風(fēng)險。這有助于確保偏見風(fēng)險在實踐中得到迅速減輕并被明確分類,從而使組織能夠?qū)⒂邢薜馁Y源集中在最重要的偏見風(fēng)險上。調(diào)整各團(tuán)隊的薪酬和晉升激勵機(jī)制,從而使風(fēng)險緩解機(jī)制的參與者真正被激勵使用健全的開發(fā)方法,進(jìn)行嚴(yán)格測試和徹底審計。
信息共享:共享網(wǎng)絡(luò)威脅信息有助于組織改善自身和其他組織的安全態(tài)勢。確定內(nèi)部機(jī)制,讓團(tuán)隊分享有關(guān)人工智能的偏見事件或有害影響信息,有助于提升對人工智能風(fēng)險的重視,并為團(tuán)隊提供信息以避免過去失敗的設(shè)計。
于Imagination IP的產(chǎn)品已在全球數(shù)十億人的電話、汽車、家庭和工作場所中使用。獲取更多物聯(lián)網(wǎng)、智能穿戴、通信、汽車電子、圖形圖像開發(fā)等前沿技術(shù)信息,歡迎關(guān)注 Imagination Tech!
審核編輯 :李倩
-
互聯(lián)網(wǎng)
+關(guān)注
關(guān)注
54文章
11190瀏覽量
103959 -
人工智能
+關(guān)注
關(guān)注
1796文章
47791瀏覽量
240565
原文標(biāo)題:人工智能也存在偏見?探究人工智能偏見的識別和管理
文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
探究人工智能發(fā)展前沿:智能體的演進(jìn)及其社會影響
![<b class='flag-5'>探究</b><b class='flag-5'>人工智能</b>發(fā)展前沿:<b class='flag-5'>智能</b>體的演進(jìn)及其社會影響](https://file1.elecfans.com/web3/M00/07/A9/wKgZO2epWlOAIHPwAAAqnrTmegA853.png)
評論