前言
幾年前,在學術機構之外很難找到人認真討論人工智能(AI)。但在今天,幾乎每個人都在說AI。和所有新技術趨勢一樣,這波新浪潮正源源不斷地帶來好奇心和熱情。普羅大眾的參與,雖然創(chuàng)造了不少偉大的想法,但在許多情況下也導致了錯誤看法的出現(xiàn)。
AI是由偉大的思想家和學術研究者建立的,接著被世界各地的學術界和工業(yè)界進一步發(fā)展,它的發(fā)展速度比任何人所預料的都要快。事到如今,人類自身的生物局限性正日益成為創(chuàng)建智能系統(tǒng)的主要障礙,這些智能系統(tǒng)本應和我們一起工作,利用我們的生物認知能力來實現(xiàn)更高的目標。
在過去幾十年里,AI克服了許多學術方面的障礙。然而,在進入現(xiàn)實場景中,它出現(xiàn)了許多問題,圍繞它產(chǎn)生了不少神話和誤解。不幸的是,由于對于AI能做什么和不能做什么的信息令人困惑和沖突,行業(yè)很難在狂熱者、平臺供應商和服務供應商造成的擁擠和嘈雜的生態(tài)系統(tǒng)中區(qū)分事實和虛幻,帶領行業(yè)前進。
所以,現(xiàn)在最主要的挑戰(zhàn)是,如何讓行業(yè)對AI能和不能做什么有一個現(xiàn)實的界定,并不斷地對其進行更新,從而引導他們的組織以正確的方式應用AI來解決現(xiàn)實世界中的問題和改造他們的業(yè)務。此外,學者和AI從業(yè)者有責任走出泡沫,與行業(yè)專家合作,以進一步發(fā)展AI的學術基礎,使其在現(xiàn)實世界中的應用得更快。
行業(yè)認知“一團亂麻”
過去幾年,幾乎所有行業(yè)都在試圖了解AI以及企業(yè)如何從中受益。不幸的是,直到現(xiàn)在,AI的應用大多還沒超越概念證明(POC)階段,即小范圍分散使用機器學習(ML)算法階段。
如今的許多POC項目,基本還是使用簡單的統(tǒng)計方法給他們的問題添加一些簡單的預測或分類,就堂而皇之地冠以AI的名字。實際上,這仍然可以定義為分析或是高級分析,在理解結果和作出決定或采取行動時仍然需要廣泛的人為干預。
隨著業(yè)務流程和操作條件的不斷變化,新生成的數(shù)據(jù)和不同業(yè)務因素的不斷變化降低了精度和價值,這些算法可能會隨著時間的推移變得無用,甚至導致危險的決策。這一現(xiàn)實使企業(yè)感到困惑,阻礙了他們以適當方式采用先進的AI技術。
目前,不少企業(yè)選擇少量采用ML算法以快速獲得收益,但是這可能會對跨行業(yè)AI應用造成挫折,從而引發(fā)另一個“AI寒冬”。當然,這次在行業(yè)方面,而不是在學術方面。
不過,這也并非全無壞處。雖然這一水平的AI應用讓公司浪費了許多機會和資源,但它有助于使企業(yè)和IT高層相信,AI可以推動變革性和相關的創(chuàng)新。
分散式ML的詛咒
以往常見的現(xiàn)象是,一些有雄心的商業(yè)大咖使用開源ML庫,在他們自己和業(yè)務領域內(nèi)啟動AI計劃,但只重點關注一些需要優(yōu)化的關鍵決策。這些行動通常不是整個公司有組織計劃的一部分,雖然可以獲得一些價值,給使用AI解決問題提供了第1次經(jīng)驗,但它導致了分散的跨組織的ML算法。不幸的是,這種分散的ML算法不能完全釋放數(shù)據(jù)中隱藏的價值,也不能充分利用組織所擁有的寶貴業(yè)務知識。此外,它們還會給公司帶來潛在風險。
分散的ML算法帶來的一些主要風險是:
算法如果通過有限類型的特性和數(shù)據(jù)進行培訓,會導致在業(yè)務領域之外做出錯誤的或有時是危險的業(yè)務決策;
在優(yōu)化本地運營決策時,此類算法可能會無意中對其他業(yè)務領域甚至全球運營產(chǎn)生負面影響;
這種單獨的算法很容易被內(nèi)部或外部參與者操縱和誤導,從而增加了一個新的網(wǎng)絡安全風險類別;
培訓ML算法可能需要昂貴的計算能力,這會增加小型企業(yè)單位的高成本。在許多情況下,這導致業(yè)務部門完全放棄AI,因為他們錯誤地認為采用AI的成本很高。
如果企業(yè)的業(yè)務職能部門和運營部門能夠直接連接的,它們生成的數(shù)據(jù)、創(chuàng)建的知識以及所遵循的角色是共享的且相互依賴的,那么AI可以在人類忽略的大量數(shù)據(jù)和特征中找到到一些相互依賴的關系,創(chuàng)建一個強大的數(shù)據(jù)和知識平臺,使跨組織分布式AI系統(tǒng)能夠?qū)⒎稚⒌臄?shù)據(jù)、知識和決策性質(zhì)從弱點轉(zhuǎn)換為主要優(yōu)勢。
因此,各企業(yè)現(xiàn)在能能夠迅速采取行動,整合所有松散的AI戰(zhàn)略和ML算法,將其整合成整個企業(yè)級別的安全AI平臺。這將使現(xiàn)在分散但其實相互關聯(lián)的AI解決方案提供真正的智能,從而在需要做出決策時為企業(yè)帶來利益和轉(zhuǎn)型能力。這一舉措還將降低采用成本,增加投資回報率,從而加速AI的采用。
使用AI技術還是創(chuàng)建智能企業(yè)?
就算AI還不具備這種能力,企業(yè)也必須預先向好一個問題:他們是只想部分使用AI技術,還是最終創(chuàng)建一個全智能企業(yè)?
目前圍繞機器人工序自動化(RPA)以及它們是否是AI一部分的討論,讓關于整個AI應用的討論偏離了軌道。有許多企業(yè)在引入了這種自動化工序后,就自滿于自己成為AI應用的先鋒。
然而,RPA不是AI的一部分,至少基于學術定義是如此。當前的RPA技術只是簡單的腳本,在許多情況下,這些腳本只是將人類多年來積累起來的當前業(yè)務流程交由自動化機器人完成而已,在設計時也主要圍繞人的需求。
事實上,這也是一個機會,一個通過RPA和智能工序自動化(IPA),重新設計員工隊伍的機會,在新員工隊伍中,人和機器更智能、緊密地協(xié)作。
企業(yè)應該從一開始就立志于創(chuàng)建一個智能企業(yè),它不僅提供智能產(chǎn)品和服務,還要在內(nèi)部采用智能流程。它要充分利用人類的生物智能和機器的AI能力,而不僅僅是自動化重復過程。
考慮到智能企業(yè)的人工制品和內(nèi)外部業(yè)務環(huán)境日益復雜,而我們的生物能力又著實有限,過多的傳統(tǒng)人工干預其實正日益成為實現(xiàn)智能企業(yè)目標的主要瓶頸。因此,組織需要停止浪費時間討論RPA,轉(zhuǎn)而動手制定智能企業(yè)的戰(zhàn)略和路線圖,其中應包括:
智能企業(yè)的總體愿景、定義和路線圖,包括如何以動態(tài)方式找到產(chǎn)品、解決方案和服務問題的原因、內(nèi)容、方式;
新智能流程的路線圖,設計用于更緊密的人機工作方法;
超越AI和ML算法的策略,以識別對端到端智能解決方案和產(chǎn)品至關重要的其他技術,例如新的傳感技術、智能物聯(lián)網(wǎng)網(wǎng)關、邊緣計算硬件以及包括量子計算在內(nèi)的高性能計算機;
在構建、使用、操作和維護此類智能系統(tǒng)和解決方案的過程中,創(chuàng)建所需文化和組織運作轉(zhuǎn)變的計劃;
創(chuàng)建創(chuàng)新生態(tài)系統(tǒng)的計劃,該生態(tài)系統(tǒng)應是新業(yè)務的一個組成部分,以預見并向新業(yè)務和聯(lián)合客戶提供新的智能服務。
由AI技術賦能的人機界面(HMI)。
對數(shù)據(jù)的誤解
到目前為止,培訓、測試和驗證當前的ML算法仍然稱得上是挑戰(zhàn),尤其是深度學習,因為它們需要大量的良好數(shù)據(jù)。過去幾年的數(shù)據(jù)表明,在許多情況下,企業(yè)在編寫ML方法時,沒有足夠數(shù)量和質(zhì)量的歷史數(shù)據(jù)。
即使在有足夠的數(shù)據(jù)的情況下,人類也必須在數(shù)據(jù)工程、數(shù)據(jù)分析、特征工程、特征選擇、預測建模、模型選擇和驗證等不同領域投入大量精力,然后才能使用初始算法。此外,手動調(diào)整第1代算法的內(nèi)部結構設計,以及后續(xù)的持續(xù)改進,都還需要大量繁瑣和重復的工作,并且需要大量的計算能力。
當前的各種“預測分析”算法實際上都是在用簡單的統(tǒng)計模型,根據(jù)可用的歷史數(shù)據(jù)來預測某些內(nèi)容。它建立在一種假設之上,即未來將簡單重復過去發(fā)生的事,顯然,這種假設是錯誤的,部分“昂貴”的歷史數(shù)據(jù)反而會產(chǎn)生誤導效果。
此外,科學家們對統(tǒng)計推斷和濫用統(tǒng)計顯著性和“P值-概率值”的警告日益增多,在某些情況下,這可能導致災難性后果。一些科學家甚至呼吁放棄傳統(tǒng)統(tǒng)計學上的概念,特別是在需要高精度預測的情況下。
AI解決方案的安全性
我們都希望AI方案能夠以不同于傳統(tǒng)軟件解決方案的方式進行自我保護。從技術上講,AI系統(tǒng)有可能自動檢測到敵方行為,甚至在某些情況下,主動采取先發(fā)制人的措施來保護自己。如今,AI正被有效地用于增強傳統(tǒng)的網(wǎng)絡安全解決方案,使其能夠早期識別或預測威脅,并建議對敵方系統(tǒng)。
但是,這只是針對目標的保護,對于自身的保護,AI不一定有那么好。黑客也許不需要再竊取數(shù)據(jù),只需向AI系統(tǒng)提供錯誤的數(shù)據(jù),從而操縱他們做出正確決策的能力。例如,黑客可以訪問電子病歷(EMR)來添加或刪除MRI掃描中的醫(yī)療狀況,這將導致ML算法誤判。同樣的情況也可能發(fā)生在核電站或智能電網(wǎng)的財務數(shù)據(jù)或關鍵設備的運行數(shù)據(jù)上。
AI特點之一,就是它們能根據(jù)我們解決問題或做出決策的方式,以及我們授予它們訪問權限的外部數(shù)據(jù)源來自己學會保護方法。這種獨特的性質(zhì)也使其更容易受到新類型的網(wǎng)絡威脅。這和誤導人類行為的方法差不多。
AI系統(tǒng)的道德風險
AI倫理和偏見是當今最常討論的話題之一。當我們根據(jù)經(jīng)驗創(chuàng)建的ML算法規(guī)則時,這些算法也將直接反映我們思考和處理事情的方式。
在許多情況下,如診斷醫(yī)學圖像、預測設備故障或優(yōu)化生產(chǎn)能力時,道德和社會偏見可能不是迫切需要解決的問題。這造成了一種誤解,即AI沒有偏差,許多公司都不知道ML算法可能會給組織帶來高風險甚至法律負擔。
例如,我們通常使用特定設備的技術數(shù)據(jù)和其他操作和環(huán)境數(shù)據(jù)來訓練ML算法,這些算法可以主動預測設備故障或指導我們?nèi)绾翁岣咂湫阅?。在某些情況下,由于許多已知和未知的變量,算法可能會傾向于以故障率為基準做決策,從而導致業(yè)務中斷。
結論
各企業(yè)必須認真制定全面而靈活的AI戰(zhàn)略,并立即啟動適當?shù)膱?zhí)行計劃,為新時代做好準備。這一面向智能企業(yè)的戰(zhàn)略將有助于創(chuàng)造未來的新的人機合作方式,并重新塑造整體業(yè)務格局。這要求企業(yè)和IT領導層對AI現(xiàn)在和未來能做的事情有一個現(xiàn)實而準確的看法。
此外,如果是由擁有在AI領域具有豐富學術和實踐經(jīng)驗的人來領導這類行動,有助于擺脫炒作,避免代價高昂的社會誤解。
AI不應局限于幾個功能領域,企業(yè)應預先考慮采用嵌入式、邊緣化和集中化智能的混合平衡方法,以確保組織的集體智能在所有團隊、職能領域、產(chǎn)品和服務中得到良好的協(xié)調(diào)發(fā)展。
最重要的是,采用AI及和智能企業(yè)相關的技術,可以使人類和智能機器更加接近,從而創(chuàng)造出生產(chǎn)效率更高、功能更強大的勞動力結構。公司應該明白,人類和機器將成為新時代勞動力的2大支柱,并明智地計劃利用它們的綜合優(yōu)勢,了解它們在生物和人工性質(zhì)方面的局限性。
責任編輯:ct
評論