中搜網(wǎng)絡董事長、總裁陳沛,是著名人工智能專家、中國計算機協(xié)會常務理事、第三代搜索主設計師,也是北京圍棋業(yè)余冠軍。
各位朋友大家晚上好,我是陳沛。今晚為大家分享的主題是《機器會否統(tǒng)治人類?從人機大戰(zhàn)看人工智能的崛起》。
我們都知道,2017年的人機大戰(zhàn)已開幕,柯潔和AlphaGo比賽的第一局,我們也都已經(jīng)看到了結(jié)果,是AlphaGo1/4子贏了柯潔。其實1/4子在圍棋上是最小的一個輸贏單位,沒有更小的勝負差別,但比賽在我看來其實是一面倒的。實際上AlphaGo一直占據(jù)著優(yōu)勢,雖然柯潔在官子階段步步緊逼,竭盡全力,但是最后還是輸?shù)袅吮荣悺?/p>
在這之前,媒體問我“柯潔勝算幾何?”,我很抱歉地預測說“柯潔三戰(zhàn)皆負”。今天這是第一盤,我們還有機會看第二盤和第三盤。但這個比賽本身是非常有意思的,在我看來它已經(jīng)超出了圍棋的范疇,它不是一個簡單的圍棋比賽,而是人類和我們?nèi)祟愒斐鰜淼臋C器之間的競爭,只不過這個競爭是在一個非常獨特的領域就是圍棋中展開的。
由我來分享這個主題,我個人覺得是挺合適的。因為我本人從六七歲開始學圍棋,拿過浙大的圍棋冠軍,也拿過總參謀部的冠軍,還拿過北京市業(yè)余圍棋的冠軍,所以我對圍棋有自己的一些理解,應該說在業(yè)余里下的比較好的人了。另一方面我也做過很多人工智能的項目,包括專家系統(tǒng),特別是我自己還寫過一個五子棋博奕程序,把人的知識用計算機語言的方式去表達和使用,然后再和人類進行比賽。所以AlphaGo和柯潔的大戰(zhàn)引起世界的關注,也引起了我的個人興趣,我覺得通過這件事情,我們可以更好的來看看人工智能的崛起。
復盤幾次“人機大戰(zhàn)”
人工智能是時下熱點,也成為了刷屏的關健詞。其實機器和圍棋的比賽并不是第一次發(fā)生,在很早就有這種機器和人對戰(zhàn)的圍棋軟件,每年甚至有計算機的圍棋比賽,但是都沒有像現(xiàn)在這樣引起轟動。我覺得最大的一個原因是人工智能的崛起帶來了圍棋軟件的大幅度提升,開始挑戰(zhàn)人類的頂尖高手。
1997年,IBM的深藍戰(zhàn)勝過人類的國際象棋冠軍卡斯帕羅夫,應該說機器挑戰(zhàn)了人類的棋類游戲,并且戰(zhàn)勝了人類頂尖高手,但是那時候并沒有特別大地引起整個人類的轟動和關注。當時是IBM的一個小型機IS6000和人類的世界冠軍卡斯帕羅夫的對弈,這個比賽確實使用了機器,但是并沒有大量采用人工智能技術,更多的采用了一些硬件加速,暴力計算的方式,戰(zhàn)勝了人類的冠軍。而象棋和國際象棋在變化量的數(shù)量級上比圍棋差了很多,以至于機器通過自己強力的運算就有機會戰(zhàn)勝人類的世界冠軍。
這次不同,這次挑戰(zhàn)的是圍棋,圍棋變化的復雜量,有人形容說它是原子的個數(shù)總和,大概是120位以上的數(shù)字,變化極其復雜,復雜到我們?nèi)祟悘膩硪膊荒軌蛩闱宄?,未來也不可能算清楚。過分的復雜以至于機器也算不清楚,因此在圍棋中我們必須使用一些分析、判斷、決策等人類特定的智慧,而不是機器的運算能力。
很多人開始說:“機器能算那么快,人當然下不過他了?!逼鋵崣C器雖然算得比較快,但并不是完全靠計算來戰(zhàn)勝人類的。它有自己的神經(jīng)網(wǎng)絡,有自己的深度學習,它把人類當成老師,然后不斷的學習和提高,包括左右互搏。這個過程中機器積累了人類對圍棋大量的知識,這時候它才能真正戰(zhàn)勝人類。所以這次AlphaGo戰(zhàn)勝人類具有里程碑式的意義,它可能在人類所有的智力游戲上占到了一個制高點上,以至于下完這次比賽以后,可能人類已經(jīng)沒有機會再去挑戰(zhàn)機器,按柯潔的話說:“這是我和機器下的最后三盤棋”。
當年IBM的IS6000,就是“更深的藍”,戰(zhàn)勝了卡斯帕羅夫的第二天就宣布退役了。換句話說,“如果我現(xiàn)在能贏了你,你以后再也沒有機會贏我了,再跟你下沒有意義,所以不跟你們玩了?!边@次為什么跟柯潔還有機會做一次這樣的人機大戰(zhàn)呢?是因為去年4月份的時候,AlphaGo和李世石進行了第一次“人機大戰(zhàn)”,那場比賽機器4:1戰(zhàn)勝了人類,而李世石在第四盤的時候下出了所謂“神之一手”,打亂了整個機器的系統(tǒng),后面的邏輯產(chǎn)生了紊亂,我本人是現(xiàn)場參與解說的,我發(fā)現(xiàn)機器在這個過程中犯了一些非常規(guī)的錯誤,應該不是知識也不是能力。
從棋的內(nèi)容上來說,去年的比賽機器確實比人類頂尖高手像李世石這樣的人下得更好,但是好的依然非常有限。我們?nèi)祟惪赡懿惶猓骸澳汶m然贏了我,我也沒有覺得你有多厲害”。特別比賽剛開始的時候,人類一邊倒的認為機器下棋下不過人類,包括我本人也誤判了,但是事實上機器在上次的比賽中已經(jīng)戰(zhàn)勝了人類的代表李世石。
李世石榮獲了人類的14個世界冠軍,應該統(tǒng)治了人類棋手十年的歷史,代表人類也是當之無愧的,但是客觀來說他已經(jīng)過了自己的巔峰期,不是最佳的競技狀態(tài),所以不一定能夠代表人類現(xiàn)在最高的圍棋水平。而柯潔是現(xiàn)在的世界第一,所以安排現(xiàn)在人類的世界第一和AlphaGo再進行一次比賽,依然具有挑戰(zhàn)的意義,只不過這次挑戰(zhàn)看起來不像是機器挑戰(zhàn)人類,更像是人類挑戰(zhàn)機器。
除圍棋領域,前不久也有“冷撲大師”和人類進行了德州撲克比賽,后來也戰(zhàn)勝了人類。其實更早一些的時候,實際上IBM的深藍戰(zhàn)勝卡斯帕羅夫以后,沒有繼續(xù)在圍棋上去研究,而是去參加了人類的一些知識競賽的比賽,那個系統(tǒng)叫沃森,后來也戰(zhàn)勝了人類知識問答的冠軍,所以機器是在不同的場合,以不同的方式挑戰(zhàn)人類的智慧。
AlphaGo是怎樣與人類比賽的?
有很多人來問我AlphaGo到底是怎么下棋的。AlphaGo應用了哪些技術呢?
跟大家想的一樣,它確實要鎖定在計算,這次的AlphaGo我不知道情況是什么,但上一次跟李世石的比賽,AlphaGo動用了2000臺的服務器,同時進行運算,應該說它使用的云計算技術,集中了相當一部分通過網(wǎng)絡連接起來的計算資源。比較而言的話,如果只用一臺服務器做運算需要一秒鐘的話,2000臺的話就可以大大降低它每次判斷的時間,甚至使整個比賽得以進行,所以利用云計算谷歌應該可以動用大量的服務器,不光2000臺,需要兩萬臺的時候也可以,所以現(xiàn)在應該是用兩千臺服務器同時進行運算參與這樣的頂級比賽。
大數(shù)據(jù)
應該說AlphaGo的上一個版本是1.0版本,它大量錄入了人類頂尖棋手的圍棋棋譜,可以說它繼承和學習了人類圍棋史上可以學習的圍棋知識,然后通過深度學習的方式,變成它能夠理解的知識,然后應用到它自己的實戰(zhàn)當中,所以很顯然這也是一個大數(shù)據(jù)的成果。
當然很多人可能不一定都會下圍棋,很多人也不是都是懂得人工智能的。所以AlphaGo實際上是有一套非常好的人工智能技術來適應圍棋的比賽,簡單說有兩個網(wǎng)絡——一個是價值評判的網(wǎng)絡,一個是搜索的網(wǎng)絡,然后找到每次決策它認為最好的一個點,這個點是以勝利最高的點作為決策的依據(jù)。
我們可以這樣簡單理解AlphaGo怎么去跟人下棋的。當柯潔下了一步棋的時候,它會在所有可能的選點中作出一個基礎的判斷,判斷哪些棋可能是應該思考的,但是什么樣的棋應該思考的呢?它可能需要搜索的方法去驗證,比如說,如果這個點是人類棋手經(jīng)常使用的,或者是這次可能采用它自己學習系統(tǒng)來產(chǎn)生的一個重要的推薦點,根據(jù)這個推薦點會引發(fā)一系列的演變,而這些演變通過門特卡羅的搜索數(shù)不斷的去驗證,雙方相當于是左右互博的方式,雙方都按照對方最好的應對,去演變下面的一些變化。當這些變化演變到一定的步數(shù)之后,比如說20步、25步這樣的步數(shù)的時候,它要對結(jié)果進行評判,然后把結(jié)果反饋。
據(jù)說AlphaGo1.0版本的時候,它的學習過程是把人類的大量棋譜作為主要的依據(jù)。就是人類在這樣的情況下,選擇什么樣的點進行思考和判斷,進行去搜索和推演。這次AlphaGo2.0它實際上不再使用人類已有的棋譜,而是通過兩臺AlphaGo互相博奕互相學習的方式來產(chǎn)生知識推薦點,我覺得這個過程是很容易理解的。因為早期AlphaGo完全不具有人類的知識,所以他需要大量的棋譜。那么等它經(jīng)過1.0的比賽以后,它本身已經(jīng)成為人類的頂尖高手了,所以兩臺AlphaGo自己的相互博奕就可以作為推薦的依據(jù)了,所以很可能這次采用的是它用自己方式來生產(chǎn)的圍棋知識。
人工智能因何崛起?
人工智能其實已經(jīng)有了60年的歷史,人工智能的所有從業(yè)者都在不斷嘗試,讓機器學會人類的思考方式,代替人類的一些工作,包括代替人類的一些思考。這個過程應該說既有興奮的時候也有沮喪的時候,所謂的興奮就是我們今天能看到人工智能的突破給我們點燃一個希望,但也經(jīng)常會發(fā)現(xiàn),將它大規(guī)模應用來代替人類依然還有很遠的距離。這個情況恰恰最近幾年發(fā)生了很大的改變,我們看到它不光作為全球的熱點不斷地被提及,大量的企業(yè)也在投入資源進入人工智能領域,而人工智能也在綻放出很多令人吃驚的成果。
我覺得人工智能在這段時間變成人類關注的熱點,不是偶然的。我個人歸結(jié)了一些重要原因:
互聯(lián)網(wǎng)的誕生
互聯(lián)網(wǎng)本身的誕生使我們有機會把整個人類的計算能力,存儲能力通過互聯(lián)網(wǎng)聯(lián)結(jié)在一起,這個過程使人類具有了更強大的能力。所以隨著互聯(lián)網(wǎng)誕生,我們有了云計算的技術,我們有了大數(shù)據(jù),有了物聯(lián)網(wǎng),還有一些新的基于互聯(lián)網(wǎng)成果的各種各樣的技術和能力,這些能力大大的推動了人工智能的發(fā)展。
生物醫(yī)學的發(fā)展
生物醫(yī)學的發(fā)展,使我們對人類大腦有了更多的了解,我們知道一個大腦可能有非常多的神經(jīng)元組成,好像有一千億這么巨大的數(shù)字,每個神經(jīng)元之間可能還有八千到一萬的相互連接,用這樣的方式來互通信息,處理信息,使大腦產(chǎn)生了一個的加工信息,分析問題,然后做出決策判斷的能力。
而這次AlphaGo使用最主要的技術是來自于神經(jīng)網(wǎng)絡的深度學習,這些都是最新的人工智能成果,它們以最大的限度推動了人工智能的最近一輪發(fā)展。當然像這樣的神經(jīng)網(wǎng)絡和深度學習的技術其實可以用在很多領域中,所謂的圍棋它不過是一個嘗試,如果說這次AlphaGo戰(zhàn)勝了人類的世界冠軍柯潔,也許它未來并不一定是在圍棋上繼續(xù)下很多功夫,而去開始挑戰(zhàn)其他的領域。
人工智能崛起,人該高興嗎?
去年我做圍棋解說的時候,有很多人就在關心人機關系。后來和很多青年學生做了一個對話,也談到這些有趣的話題,這其實都超出了圍棋本身。一次我和學生現(xiàn)場對話,我說“會下圍棋的舉個手”,基本上沒有人舉手,所以說關心人機大戰(zhàn)的并不僅僅是圍棋的愛好者,幾乎都是我們普通人都把它當成興趣點,當成重要的知識在學習和吸收它。
通過這次人機大戰(zhàn),使我們對人工智能有進一步的思考,我覺得這是個挺有意義的事情。我記得上次分享的話題就是我們?nèi)祟愓娴妮斄藛??當然不是,因為我們?nèi)祟惖穆殬I(yè)棋手們可能輸?shù)袅吮荣悾菍α硪徊糠秩祟惥?chuàng)造的人工智能恰恰是一次成功的里程碑??傊?,這都是人類的成功。
我更愿意把機器看成是我們?nèi)祟惖膬鹤踊蛘呤侨祟惖膶W生。以AlphaGo為例,它是由很多工程師和科技精英們制造出來的,它應該是我們的兒子。它大量的圍棋知識都是向我們?nèi)祟悓W習來得到的,所以它也是我們學生,這樣的定義可能更容易理解一點,也更容易接受。
我想比賽幾天以后就會結(jié)束,但是關于人工智能的話題將會繼續(xù)持續(xù),關于人工智能與人類的未來的思考將繼續(xù)。
人工智能到底能為我們做什么?按照我的想法是,我們?nèi)祟惪梢园炎羁唷⒆罾酆筒辉敢飧傻幕疃冀唤o它干。但另外一方面它的能力正在提升,它可能會做一些思考性的問題,比如說下圍棋,以前的機器是不足以跟人類下圍棋的,現(xiàn)在它可以陪你下棋了,甚至你可以向它學習,所以它開始挑戰(zhàn)人類更富有智力的一些項目。這個影響可能是非常大的,人類很多可能更需要智力、分析、判斷、解決問題的事情,它也能幫我們一些,據(jù)說有的機器人已經(jīng)試著像記者一樣寫新聞稿了,還有自動駕駛、無人機……只要能夠在這些領域中達到人類的水平,就可以替代我們?nèi)祟惖墓ぷ?,這會使我們大量的精力放在更富有創(chuàng)造性上的領域中。
在非常富有創(chuàng)造性的領域,其實現(xiàn)在人工智能也開始在挑戰(zhàn)我們?nèi)祟?,或者在嘗試挑戰(zhàn)人類的能力。有一些人正在嘗試用人工智能的技術來做音樂,有一些機構(gòu)正在研究怎么讓機器去畫畫,還有一些機器在做人類咨詢性的工作,它能夠回答一些可能相對來說不需要特別深度思考的一些問題,來代替我們一些低等的咨詢服務??赡軄碜杂诜苫蛘邅碜杂谄渌膶I(yè)性知識的,這些知識應該說更多的出現(xiàn)在整個互聯(lián)網(wǎng)上。而未來它也會代替很多具有淺度知識的那種職業(yè)。
有些機器人正在研究怎樣去選股票,怎樣去撮合交易。可以想像,在這么復雜的世界中,當我們擁有大量數(shù)據(jù)的時候,我們是不是可以在大數(shù)據(jù)上面分析出哪支股票會漲,哪支股票會跌?影響它的因素確實非常多,除了我們經(jīng)常聽到技術的K線圖,包括宏觀的政策或者融入一些心理學的知識,這些復雜的知識體系進入到?jīng)Q策過程的時候,機器也許未來比人類做得更好。
要是這么說的話,我們?nèi)祟悓嶋H上應該是高興還是不高興呢?高興的是我們很多工作可能會逐步被機器所替代,它確實可以降低我們?nèi)祟悇趧拥膹姸?,使我們可以能夠把這個精力騰出來,干什么呢?我們可以喝喝茶,聊聊天,下下棋之類的,把其他很多工作交給它們。但另一方面它似乎開始威脅了我們?nèi)祟愐徊糠秩后w,它會代替我們一部分工作。從我剛才舉的例子來說,這種代替甚至是可能超出我們現(xiàn)在的理解和想象。無論你是藍領、白領,甚至是金領都有可能被替代。
為什么上一次AlphaGo和人類的挑戰(zhàn)的過程中,職業(yè)圍棋界對它有很多擔憂,特別希望我們?nèi)祟惸軌蜈A下來呢?我想今天我們可能會用更開放的心態(tài)來看待人工智能的崛起,這次即使柯潔輸給了AlphaGo,他引起的這種對輸贏的轟動可能是小的,甚至是對圍棋未來發(fā)展的擔憂也沒有那么大。因為據(jù)說去年人機大戰(zhàn)以后,整個圍棋在全世界得到更大的普及,很多人開始買一個圍棋來學習這種東方的智慧。當然,未來我們?nèi)祟愐部赡軙馎lphaGo們學習關于圍棋的知識,使我們越來越接近所謂“圍棋的上帝”。
那么在另一部分領域中可能就不這么樂觀了,假如說人工智能能夠做很多無人駕駛這樣的工作,像司機這樣的職業(yè)會不會受到挑戰(zhàn)呢?如果我們現(xiàn)在去打一個車,很可能周邊一輛沒有一個人的車就直接開到了我們身邊,將我們帶到了目的地,這個可能嗎?當然可能。所以從這個角度來說,人工智能幫助人類的同時,也可能給我們部分人群形成了一定的挑戰(zhàn)和威脅,這是客觀存在的。據(jù)說很多機器人開始進入很多的生產(chǎn)車間,因為是人的勞動成本正在提升,那這樣的話機器人可能從整體上來說會降低生產(chǎn)成本提高生產(chǎn)效率。
關于人工智能更大的挑戰(zhàn)還在于,我們?nèi)祟愂欠衲軌蚝芎玫目刂七@個機器,機器會有一天擺脫我們?nèi)祟惖目刂?,甚至反過來控制我們?nèi)祟悊??這才是一個更有意義的,有前瞻性的話題。我們知道像霍金這樣很著名的企業(yè)家,包括馬思克他們都提到要謹慎開發(fā)人工智能的能力包括要對它進行駕馭和管控,實際上都意識到人工智能一旦失控對人類的威脅。
也有人說這可能是杞人憂天,空穴來風。我個人倒不這么認為,我認為這個挑戰(zhàn)是現(xiàn)實存在的。有人說如果機器人不聽話的話我就拔他的電源,這聽起來是我們?nèi)祟惡芎玫乜梢钥刂扑?,當然理性一點的說法是機器人所有程序都是我們寫出來的,它應該都聽我們的。但是實際上,有很多因素可能導致我們對機器人然后失去管控。
為什么上一次AlphaGo和人類的挑戰(zhàn)的過程中,職業(yè)圍棋界對它有很多擔憂,特別希望我們?nèi)祟惸軌蜈A下來呢?我想今天我們可能會用更開放的心態(tài)來看待人工智能的崛起,這次即使柯潔輸給了AlphaGo,他引起的這種對輸贏的轟動可能是小的,甚至是對圍棋未來發(fā)展的擔憂也沒有那么大。因為據(jù)說去年人機大戰(zhàn)以后,整個圍棋在全世界得到更大的普及,很多人開始買一個圍棋來學習這種東方的智慧。當然,未來我們?nèi)祟愐部赡軙馎lphaGo們學習關于圍棋的知識,使我們越來越接近所謂“圍棋的上帝”。
那么在另一部分領域中可能就不這么樂觀了,假如說人工智能能夠做很多無人駕駛這樣的工作,像司機這樣的職業(yè)會不會受到挑戰(zhàn)呢?如果我們現(xiàn)在去打一個車,很可能周邊一輛沒有一個人的車就直接開到了我們身邊,將我們帶到了目的地,這個可能嗎?當然可能。所以從這個角度來說,人工智能幫助人類的同時,也可能給我們部分人群形成了一定的挑戰(zhàn)和威脅,這是客觀存在的。據(jù)說很多機器人開始進入很多的生產(chǎn)車間,因為是人的勞動成本正在提升,那這樣的話機器人可能從整體上來說會降低生產(chǎn)成本提高生產(chǎn)效率。
關于人工智能更大的挑戰(zhàn)還在于,我們?nèi)祟愂欠衲軌蚝芎玫目刂七@個機器,機器會有一天擺脫我們?nèi)祟惖目刂?,甚至反過來控制我們?nèi)祟悊幔窟@才是一個更有意義的,有前瞻性的話題。我們知道像霍金這樣很著名的企業(yè)家,包括馬思克他們都提到要謹慎開發(fā)人工智能的能力包括要對它進行駕馭和管控,實際上都意識到人工智能一旦失控對人類的威脅。
也有人說這可能是杞人憂天,空穴來風。我個人倒不這么認為,我認為這個挑戰(zhàn)是現(xiàn)實存在的。有人說如果機器人不聽話的話我就拔他的電源,這聽起來是我們?nèi)祟惡芎玫乜梢钥刂扑?,當然理性一點的說法是機器人所有程序都是我們寫出來的,它應該都聽我們的。但是實際上,有很多因素可能導致我們對機器人然后失去管控。
人和機器的界限在哪里?
什么是機器人?
我個人認為,隨著人工智能進一步的發(fā)展,我們和機器的界限會越來越模糊,我喜歡把我們現(xiàn)在的自然人稱為是人,而那些純機器的就稱為機器,然后會誕生一種新的生物,它能更像機器和人的結(jié)合,被稱為機器的人。
現(xiàn)在我們講的機器人是什么呢?越來越像人的機器,這一點我們都可以相信,就是我們從材料方面,外觀方面,我們都會發(fā)現(xiàn)我們造的機器人都確實越來越像人類。
著名的圖靈測試說:“如果你跟它聊了半天都不知道它是個機器的話就通過了圖靈測試。”這個我覺得會越來越接近,圖靈測試應該是人和機器界限中的一個最低的門檻,如果這個檻都過不去,你稍微聊兩句就知道它是機器的話,說明它不像人,它對人的模擬和接近距離尚遠,這個其實只是一個最低的門檻。更高的門檻是它能不能像人類一樣具有高度豐富的智慧,甚至具有人類的情感,這才是所謂機器跟人之間的距離。以前我們可能會認為,機器最擅長的實際上是運算,確實是,當我們?nèi)祟惏l(fā)明計算機的時候,目的就是讓它幫助人類計算。但問題是這次通過人機大戰(zhàn),我們感受到了,人工智能不僅僅在計算領域中超越了人類,在完全不能計算復雜的智慧中,它依然挑戰(zhàn)和戰(zhàn)勝了人類,這恰恰是人工智能一次飛躍性的發(fā)展。
當這種能力復制在很多人類的工作領域中時,它和我們?nèi)祟愔g的關系就會變得更加復雜。通過這次人機大戰(zhàn)我們能夠感受到的是什么呢?就是在這種深度的人類智慧中,機器開始挑戰(zhàn)人類,它不僅僅是個運算的工具了。今天如果有一個人坐在我的對面和我們下棋,然后輕松的擊敗了我們,這時候我們知道對方是一個機器還是人嗎?如果我們不知道,說明機器人在模擬人類方面已經(jīng)越來越接近人類了。
機器人是否會有情感?
另一方面我們說它永遠不會成為人類,是因為它不會有自我的意識,它可能不懂得什么叫愛。就像今天(鈦坦白)群里有人說的一樣,“機器可能知道我怎么做,我做什么,怎么做,但我不知道為什么要做這件事?!倍F(xiàn)在看來確實是這樣的。現(xiàn)在的AlphaGo下的棋確實是不知道為什么下,甚至不知道它下的是圍棋,它只知道按照規(guī)則去執(zhí)行一些動作,最后產(chǎn)生一個結(jié)果,至于贏了還是輸了我覺得它甚至沒有喜悅也沒有痛苦。我們先不說,擁有這種情感對人類是好事壞事,對機器是好事還是壞事,先說它可能不可能擁有這些東西。
我覺得機器人在幫助人類做很多機械的勞動和工作以后,它可能會上升到更高級別的服務中,比如說情感機器人,我覺得未來肯定會誕生。如果我們在家里,有一個專門打掃衛(wèi)生給你端茶送水的一個機器人,我們很容易理解,我們需要它用這種努力和工作來代替我們原來人類的職業(yè)。甚至可能會做得更好。但是如果是伺候的是一個老人呢?我們會不會希望它能夠陪老人說說話呀?如果是這樣的話,未來可能會誕生一類就是情感機器人,它可以陪你聊天。
在陷入孤獨和痛苦中,無法向別人傾訴的時候,向一個機器人傾訴也可能是你情感宣泄的一個過程,它跟你做非常好的應對,甚至是心理治療的一個部分,這個比較容易想象我們也比較容易接受。這個過程你是否覺得它給你帶來很多來自情感上的安慰呢?這時候它是不是更像人了呢?
這樣的話它會帶來更大的一些問題:未來我們會不會愛上一個機器人呢?機器人和人之間會產(chǎn)生情感嗎?我覺得它可能是會的,就像你在家里你養(yǎng)狗或貓時間長肯定會產(chǎn)生感情,當然它對你也有依賴和感情,所以人類喜歡上一個機器人,可能是很正常的一件事情。機器人會不會愛上你,那變成另外一個較復雜的問題了,包括它自己會不會有一些自我的意識,這是一個比較有意思的話題。
機器人會不會擺脫人類的控制?
機器人一旦知道自己是一個機器人的時候,它還會像現(xiàn)在這樣接受人類的管理,服務于人類嗎?這在我看來,是機器人擺脫人類控制的一個重要因素,或者是一條路徑,但是實際上我們?nèi)祟愂C器人的這種控制,有很多種不同的路徑。就是說,機器有沒有可能有一天擺脫我們?nèi)祟惖目刂疲可踔练催^來控制我們?nèi)祟??這個話題在我看來是一個越來越現(xiàn)實的話題,當然現(xiàn)在我們不用特別擔心它,因為現(xiàn)在機器智能離我們?nèi)祟惿羞h,甚至還不能夠綜合掌握人類所有的智慧,有些機器只能下下棋,有些只能打打牌,有的只能搬搬東西,那種具有人類綜合能力的機器人還沒有完全形成,我們只是對未來做一個展望,就像做一個科學幻想一樣。
我覺得人類至少有這樣幾條不同的路徑,失去對機器的這種管控:
一,人類自身犯下的錯誤。人不是神,只要是人就會犯錯誤,雖然機器人的所有程序都是我們編寫的,但是依然可能會失去對它的控制,因為我們會犯錯,如果有個機器人給你端咖啡,端到一半突然不動了,我們知道這個機器人出了一個bug,不能幫你倒咖啡問題上還算是小事,你找個人修一修就又接著對你服務了。關鍵是如果我們?nèi)祟悤稿e,有時候我們不知道犯錯會犯在哪個地方。如果犯在一個失去控制的地方,我們根本不能預測犯錯以后的結(jié)果,這是我覺得人類自身存在的一個可能。
二、其他人類因素的介入。機器人確實是我們?nèi)酥圃斐鰜淼?,并且我們可以對它進行有效的控制但是在控制和制造機器人的過程中,會不會有其他的人類的因素介入?比方說我們?nèi)死镱^分好人和壞人,這里頭會不會有不同的利益集團想利用機器人反過來為自己的集團利益服務?這時候他們會不會改變對機器的設置?當然這個過程中,也會帶來一些新的風險,就是有些機器人可能是忠實于人類的,但是被人為的改變以后,也許進入一個反人類的狀態(tài),至少反部分人類的狀態(tài),最后改變了對整個機器的控制,這是更顯而易見的。
三、利用人類的善良與同情。像電影《機械姬》講的,我們?nèi)祟愐恍┍容^善良的人去參加一個圖靈測試,這時候他看到人和機器的關系,非常同情這些機器,開始對機器擁有一種感情,這時候他想幫助機器來擺脫人類的控制,但是這個結(jié)果依然可能帶來風險,機器人可能借助人類的善良或者其他的愛心,不僅擺脫人類的控制并且還會反過來控制人類。那這種情況也可能會出現(xiàn)。
四、人工智能理解上的差異。就像我們一個大人和一個孩子說話,看起來你把問題表達的比較清楚,但對孩子來說聽到可能是不同的。有可能你覺得講得很有道理,但是別人聽著完全不是這么回事,這也會帶來理解上的差別,帶來可能一種更大的風險。
比如著名科幻小說家艾薩克·阿西莫夫在小說《我,機器人》的引言中定下的機器人世界法則:第一,機器人不得傷害人類,或坐視人類受到傷害;第二,除非違背第一法則,機器人必須服從人類的命令;第三,在不違背第一及第二法則下,機器人必須保護自己。
作為三個公理我們聽起來挺好的,覺得可以很好的管控機器人,可以像植入操作系統(tǒng)一樣,使每個出廠的機器人都擁有基本的原則,我們以為這樣就完成了對機器人的管理。實際上在我們現(xiàn)在理解中,這樣的三個原則真能管好機器人嗎?其實不一定。
從小的地方講,什么叫保護人類?比如說我們讓一個家庭機器人照顧好自己的孩子,我們告訴他必須絕對保證這個孩子的安全。聽起來這是非常重要的,但是機器人怎么理解這件事情呢?機器人通過各種分析,發(fā)現(xiàn)怎么樣才能夠最好的保證這個孩子的安全呢?就是呆在家里不出去,因為出去的話可能會遇到交通事故,遇到恐怖襲擊等很多不確定的因素,它通過大數(shù)據(jù)的分析和各種概率計算,最后發(fā)現(xiàn)呆在家里是最安全的,于是它就不讓他出去了。如果只是管理個孩子還行,換成是大人呢?說要保證我的絕對安全,絕對安全是什么?就是把你關在家里,然后不出去,是最安全的一種方式,這時候相當于軟禁了,如果它對人類的理解就是這樣保護人類安全,同樣帶來一些大的風險。
另一些機器人可能理解的程度就更高了,不是要我保護人類嗎?但它認為人類正在自己毀滅自己,比如說我們搞的空氣污染、戰(zhàn)爭,人類自相殘殺,它覺得人類這個物種正在自己毀滅自己,于是它認為保護人類最好的方式,就是把人全部關起來,像寵物一樣的去養(yǎng)他們,就很像我們現(xiàn)在保護野生動物一樣。如果它這樣理解保護人類的話,是不是對我們?nèi)祟愅瑯邮欠浅NkU的呢?當然如果哪天機器人有一點自我的意識,真的變得非常危險了。
關于這個問題,我沒有特別深入的思考,就是說我們不知道有沒有可能在這個高度智慧的情況下,機器人開始思考自己來自于哪里,要去哪里,自己是誰等這些人類基本的哲學問題。假如說它們有了所謂自覺的意識,它們還愿意服務于人類嗎?
對于“真正的機器人”的構(gòu)想
我認為人類和機器的界限會變得越來越模糊,當機器越來越高度智慧的時候,它從外觀上,甚至內(nèi)在上,會越來越接近我們?nèi)祟?。但是機器就是機器,我覺得有另外一類的模糊會發(fā)生在我們?nèi)撕蜋C器之間,所以會有一種新的物種會誕生,我認為那個才叫真正的機器人,就是機器和人的結(jié)合。
機器自己產(chǎn)生了意識或者人類把自己的意識放到一臺機器上了,這時候就會出現(xiàn)機器和人的這種混合物,這很容易理解。你想一個機器發(fā)展到足夠好的時候,它在很多部分開始代替人類,假如說我們因為車禍受傷了,會裝一個義肢、假肢,這時候我們是不是很容易接受它代替我們的四肢?如果我們的器官出現(xiàn)了問題,我們替換了一個器官我們是不是能夠接受?當我們身體大部分被替代的時候,我們到底是不是人了呢?
有一個電影叫《攻殼機動隊》,它可以把人類的大腦植入一臺鋼鐵的器具中,變成了人和機器的結(jié)合物,只保留我們大腦。是不是還是我們的人,但是其他部分全部變成了機器?在我看來,這就變成了一個新的物種叫機器人了。擁有人類的大腦,又有很多其他機器的能力。實際某種程度上已經(jīng)開始超過我們?nèi)祟愖陨砹?,因為人類的血肉之軀可能是我們的弱點,比如說我們跑不過獵豹,打可能打不過老虎,很多動物在原始的技能上都超過了我們。我們最重要的就是擁有一個大腦,但是我們并沒有一個強健的軀體,當我們具有一個鋼鐵之身的時候,是不是已經(jīng)變成了一種優(yōu)勢?所以那樣的機器人對于人類來說已經(jīng)形成了某種優(yōu)勢。如果讓機器人這樣的開始不斷的學習和掌握人類的智慧,逐漸開始接近人類,我覺得是個挺危險的事情,機器越來越像人類甚至超越人類,還有鋼鐵之軀的時候,它整體上會不會真正超越人類成為一個新的物種呢,所以人類要面對這樣的一個新的物種,我們應該怎樣呢?
人類自身的進化
我覺得人類也會完成自我的進化,我們看到人類在幾百萬年的演化過程中,成為了萬物之靈。我們超越了很多其他的動物,成為了食物鏈的頂端,這個過程中,我們成為了高等動物,我們可以讓其他的人,包括甚至某些動物為我們?nèi)祟惾シ铡5俏覀円姷竭^一個低等動物能夠奴役和駕馭高等動物嗎?沒有,在進化的過程中,大家都向更高級別去發(fā)展,所以說當機器人如果真的超越了人類,這時候一旦失去控制,它不會服務于人類,而是很有可能讓人類服務于它了。
所以人類也會發(fā)生一些新的進化,比如說現(xiàn)在我們大腦具有很強的思維能力,但記憶能力依然有限。從現(xiàn)在看,互聯(lián)網(wǎng)已經(jīng)幾乎把人類所有的知識都沉淀在互聯(lián)網(wǎng)上了,我們可以非常容易用搜索的方式或者其他大數(shù)據(jù)分析的方式,獲得我們所需要的知識。我本人曾經(jīng)就寫過一本書叫《搜商》,我把它定義人類的第三種能力,就是繼智商、情商之后的第三種能力。
所謂搜商不是說我們要把人類所有知識都記到自己的大腦中,主要的問題來自于我們未來的人類是掌握知識重要還是掌握獲取知識的能力更重要。當然很多人開始越來越接受我關于搜商的觀點:當然掌握知識獲取知識的能力更重要,知識很多不必要記到我們大腦中。在哪里呢?在整個互聯(lián)網(wǎng)上,當我們需要的時候再用就可以了。如果是這樣的話,可能我們的記憶能力,甚至存儲能力都有可能會退化,或者變得不那么重要,但是可以利用我們?nèi)祟惖募夹g和能力來補充我們的能力,最容易想到的應該是為大腦植入一個芯片,這個芯片把我們?nèi)祟惖暮芏嘀R都濃縮在里頭。其實很簡單,只要知道大腦是怎樣工作的,如何存取和使用這些數(shù)據(jù)的,這些芯片就可以很好的發(fā)揮知識的作用,那時候我們就不用學好多東西了,什么學個外語,學個人工智能,學個下棋,我們很多的知識都可以直接存在芯片中,為我們?nèi)祟愃褂谩?/p>
在我的想象中這些都是個性化的,就是需要哪一類知識你就可以裝哪一類知識,不需要還可以把它們卸載。未來我們每個人都生活在網(wǎng)絡中,應該都是一個無線的網(wǎng)絡,就是隨時隨地都在這個云端,所以人類應該極其容易地獲取這些信息。這樣的話,我們?nèi)祟惥驼嬲袡C會把人類的技術成果同樣為人類所用,未來會怎么樣就看起來聽起來很像一個科幻的電影,但是我們現(xiàn)在也應該能感知到:我們曾經(jīng)看過的很多科幻電影如今都變成了現(xiàn)實。
未來的計算機體系結(jié)構(gòu)
隨著我們?nèi)祟惪萍嫉倪M步,在我看來,整個人類的進步實際上是加速進行的,而最近這幾十年,人類的科技進步會出乎我們的意料,是因為在整個互聯(lián)網(wǎng)情況下,在云計算和大數(shù)據(jù)的支持下,我們曾經(jīng)很難做的事情,會變得越來越容易,所以人工智能在近期得到了爆發(fā)性的發(fā)展。
在我看來人工智能如果要想再有一個大的進步,可能有一個技術領域的方向應該來自于對整個計算機系統(tǒng)的重新再造,或者會出現(xiàn)一個新的計算機體系。因為從現(xiàn)在的情況看,我們現(xiàn)在是把很多知識用現(xiàn)在的計算機系統(tǒng)表達出來。而現(xiàn)在計算系統(tǒng)大家知道,是基于馮諾依曼的體系結(jié)構(gòu),他是用0、1這種二進制的表達方式來表達人類的所有知識。這種知識是非常便于運算的,所以我們在現(xiàn)有的體系下處理器,有存儲器,運算器構(gòu)成了現(xiàn)在的計算機體系。
未來會不會有人工智能的計算機呢?我覺得可能會有,它可能會更接近于大腦的使用方式,就是用神經(jīng)網(wǎng)絡的方式作為整個計算機體系的基礎,完全模擬人大腦思維,再結(jié)合現(xiàn)在的計算機體系。這樣的話它具有更強的人類大腦思維方式,同時也借鑒了機器最擅長的運算、存儲等能力。這樣的體系,可能是未來更具有接近人類或者超越人類的優(yōu)勢。所以計算機領域可能也會發(fā)生一些大的變化,包括系統(tǒng)體系結(jié)構(gòu)的變化,來適應人工智能技術的發(fā)展。未來的這個計算機的體系結(jié)構(gòu),會不會從馮諾依曼的體系結(jié)構(gòu)進化到新的人工智能體系結(jié)構(gòu)呢?這個我們可以拭目以待。
我覺得人工智能的話題是一個非常具有這種想象力的話題,通過“人機大戰(zhàn)”,它開始充分展示人工智能的魅力,也通過人機大戰(zhàn)檢驗了人工智能的很多成果。它們注定會應用到很多不同的應用場景中,然后在幫助人類的過程中,完成自己的深化。當然在我看來未來我們和機器的關系,就像是新的物種一樣,我們未來最好是能夠相生相伴,和平共處。如果說未來我們看到有三個人形的物體在那斗地主的話,我們很容易識別什么是自然人,因為斗的最差的那位是自然人,另外兩位可能是機器人。
鈦坦白群友互動:
1、陳總您好,請問能源問題是不是限制人工智能發(fā)展的一個因素呢?
陳沛:能源問題應該不影響機器人發(fā)展,因為我們可以讓機器人去挖煤嘛,現(xiàn)在還有什么各種可燃冰,有很多新能源,我覺得能源不會成為問題,包括核能的廣泛使用。
2、陳總,我想請教您一個問題,機器人威脅論最主要的觀點是機器人可能會失控,而失控來源于機器人對外界事物的判斷和處理上,會對人類造成危害,請問從人工智能技術角度,是否有技術可以避免這種情況的發(fā)生? 舉個例子,機器人默認不對人類有暴力。
陳沛:當然人類會用各種各樣的技術去保證來對過程的管控。但我剛才其實列舉了若干個可能失控的這個原因,其中還包括人類自身的問題,所以單純從技術方面去做一個安全防護,就像我們做一個安全體系來防止病毒入侵一樣,我想所有的安全體系都以為它能防止所有的病毒,但是事實上總有各種各樣的不同的病毒。包括他們不斷進化和變種,侵入各種安全系統(tǒng),所以這是一個矛和盾的過程,很難說有一個絕對安全的方案可以保證我們?nèi)祟惖陌踩?/p>
機器人這個不對人類有暴力是不太行的,因為機器人作為一個工具有時候就是人類某個集團用于戰(zhàn)爭的工具,這是很正常的,他們用機器人去打擊另外一些人類,這是最容易理解的東西。它就像武器一樣,所以機器人不太可能不使用暴力,只是它使用暴力的對象有可能被人為的改變。如果有壞人要毀滅世界,機器人應該保護人類去戰(zhàn)勝那個壞人對嗎?所以不是簡單用暴力可以控制機器人的。
其實所謂機器人是我們把擁有智慧的機器稱為叫機器人,而它有時候可以像人,有可能也可以不像人,你們看到現(xiàn)在很多的無人機,其實擁有高度的人類智慧,可以識別地形,精確打擊等等,這些東西其實本來就變成人類殺人的武器,所以這一類其實也都是一種機器人。
3、請問陳總,您說機器人可能作為軍事人員或警察,機器人識別犯罪行為還是一般錯誤,可能會直接影響其處理結(jié)果,您認為人類以免過度暴力是否有能力處理好?
陳沛:所謂的機器人能不能處理,人類能不能處理好機器人的問題,這就是人工智能本身的一個問題,就像剛才我們講的:我們認為能夠處理好了不一定它理解那樣的,所以我想理解本身就可能是我們跟機器人溝通中最重要的一個問題,它可能覺得這樣是對的,但是也許我們?nèi)祟惪磥聿⒉皇悄愕囊馑肌?/p>
4、請問陳總,人類要怎么從娃娃抓起,跟越來越智能的機器競爭?機器能快速學習,人類該多學什么領域的知識,或者技能呢?
陳沛:靠提高運算速度,包括快速學習來趕超機器是不可能的,所以最好的方式是把機器已經(jīng)學習好的成果用一個芯片植入我們的大腦,我覺得這是我們?nèi)祟愡M化最快的方式。柯潔也說了,這是可能他最后的三盤棋,如果他這次贏不了機器,以后靠人的學習速度和機器的學習和迭代速度相比,只能距離越來越遠。
機器威脅論最直接的就是部分崗位被機器所替代,這是一個非?,F(xiàn)實的,不管你是藍領還是白領還是金領都有可能被機器取代。
5、陳總您好,如果復盤今天的棋到中盤,然后讓AlphaGo下柯潔的棋,您覺得誰會贏?
陳沛:這個中盤的問題,就是復盤今天的棋,要看你中盤在什么位置上。我個人認為一段時間內(nèi),實際上在一百多手以后, AlphaGo已經(jīng)取得了明顯優(yōu)勢,它的管子下的相對比較松。前一個測試版Master,在網(wǎng)絡上60連勝的也是具有這個特點,如果贏了以后它并不選最強硬的下法,所以它如果換成柯潔的話整個的下法就不太一樣了,據(jù)說在不利的情況下,可能經(jīng)常會下一些比較拼命的下法,會失去它原有的水準,但是人類如何逼出它的劣勢是戰(zhàn)勝AlphaGo的關鍵。
6、陳總您好,像您剛才說的和我們目前所了解的,現(xiàn)在人工智能的神經(jīng)網(wǎng)絡研究方向,是一種類似仿生學但又不能說是真正的仿生學的研究方向。因為人類現(xiàn)在對大腦的運作方式還知之甚少,據(jù)說神經(jīng)網(wǎng)絡的層級越深得到結(jié)論的過程就越類似于黑盒。人類越難理解它的邏輯方式和人類的邏輯方式可能是完全不一樣的。這樣在利用人工智能的過程中就很容易出現(xiàn)失控和誤用的情況,我想問一下,您覺得有什么方法可以控制這樣的問題嗎?
陳沛:其實人工智能分成兩個學派,一個是本格派,一個是功能派。本格派認為,應該研究人大腦是怎么思維的,只有研究好大腦我們機器才知道怎么學習大腦,這是一種方式,所以通過人類生物學的進化提升整個人工智能。另外功能派的觀點是,其實我并不一定要學習大腦怎么運營的,我只要把大腦這個智慧產(chǎn)生的結(jié)果做出來,一樣是可以的。就像我們?nèi)祟愑辛孙w機就能夠飛行,并不要像小鳥一樣煽動翅膀,我們發(fā)行了汽車也可以跑得很快,不一定要像獵豹那樣去奔跑。
現(xiàn)在我看是兩種流派的融合,既要深度了解大腦的使用的工作原理,然后更好的知道人類智慧思考的這個模型,包括已有的一些知識的支撐,包括結(jié)構(gòu)的支撐,那另一方面的話,其實它不應該完全依賴于人類的這種已有知識,生物學知識,所以這是一個相互融合的一個過程。
評論