人和機器的界限在哪里?
什么是機器人?
我個人認為,隨著人工智能進一步的發(fā)展,我們和機器的界限會越來越模糊,我喜歡把我們現(xiàn)在的自然人稱為是人,而那些純機器的就稱為機器,然后會誕生一種新的生物,它能更像機器和人的結(jié)合,被稱為機器的人。
現(xiàn)在我們講的機器人是什么呢?越來越像人的機器,這一點我們都可以相信,就是我們從材料方面,外觀方面,我們都會發(fā)現(xiàn)我們造的機器人都確實越來越像人類。
著名的圖靈測試說:“如果你跟它聊了半天都不知道它是個機器的話就通過了圖靈測試?!边@個我覺得會越來越接近,圖靈測試應該是人和機器界限中的一個最低的門檻,如果這個檻都過不去,你稍微聊兩句就知道它是機器的話,說明它不像人,它對人的模擬和接近距離尚遠,這個其實只是一個最低的門檻。更高的門檻是它能不能像人類一樣具有高度豐富的智慧,甚至具有人類的情感,這才是所謂機器跟人之間的距離。以前我們可能會認為,機器最擅長的實際上是運算,確實是,當我們?nèi)祟惏l(fā)明計算機的時候,目的就是讓它幫助人類計算。但問題是這次通過人機大戰(zhàn),我們感受到了,人工智能不僅僅在計算領(lǐng)域中超越了人類,在完全不能計算復雜的智慧中,它依然挑戰(zhàn)和戰(zhàn)勝了人類,這恰恰是人工智能一次飛躍性的發(fā)展。
當這種能力復制在很多人類的工作領(lǐng)域中時,它和我們?nèi)祟愔g的關(guān)系就會變得更加復雜。通過這次人機大戰(zhàn)我們能夠感受到的是什么呢?就是在這種深度的人類智慧中,機器開始挑戰(zhàn)人類,它不僅僅是個運算的工具了。今天如果有一個人坐在我的對面和我們下棋,然后輕松的擊敗了我們,這時候我們知道對方是一個機器還是人嗎?如果我們不知道,說明機器人在模擬人類方面已經(jīng)越來越接近人類了。
機器人是否會有情感?
另一方面我們說它永遠不會成為人類,是因為它不會有自我的意識,它可能不懂得什么叫愛。就像今天(鈦坦白)群里有人說的一樣,“機器可能知道我怎么做,我做什么,怎么做,但我不知道為什么要做這件事。”而現(xiàn)在看來確實是這樣的?,F(xiàn)在的AlphaGo下的棋確實是不知道為什么下,甚至不知道它下的是圍棋,它只知道按照規(guī)則去執(zhí)行一些動作,最后產(chǎn)生一個結(jié)果,至于贏了還是輸了我覺得它甚至沒有喜悅也沒有痛苦。我們先不說,擁有這種情感對人類是好事壞事,對機器是好事還是壞事,先說它可能不可能擁有這些東西。
我覺得機器人在幫助人類做很多機械的勞動和工作以后,它可能會上升到更高級別的服務中,比如說情感機器人,我覺得未來肯定會誕生。如果我們在家里,有一個專門打掃衛(wèi)生給你端茶送水的一個機器人,我們很容易理解,我們需要它用這種努力和工作來代替我們原來人類的職業(yè)。甚至可能會做得更好。但是如果是伺候的是一個老人呢?我們會不會希望它能夠陪老人說說話呀?如果是這樣的話,未來可能會誕生一類就是情感機器人,它可以陪你聊天。
在陷入孤獨和痛苦中,無法向別人傾訴的時候,向一個機器人傾訴也可能是你情感宣泄的一個過程,它跟你做非常好的應對,甚至是心理治療的一個部分,這個比較容易想象我們也比較容易接受。這個過程你是否覺得它給你帶來很多來自情感上的安慰呢?這時候它是不是更像人了呢?
這樣的話它會帶來更大的一些問題:未來我們會不會愛上一個機器人呢?機器人和人之間會產(chǎn)生情感嗎?我覺得它可能是會的,就像你在家里你養(yǎng)狗或貓時間長肯定會產(chǎn)生感情,當然它對你也有依賴和感情,所以人類喜歡上一個機器人,可能是很正常的一件事情。機器人會不會愛上你,那變成另外一個較復雜的問題了,包括它自己會不會有一些自我的意識,這是一個比較有意思的話題。
機器人會不會擺脫人類的控制?
機器人一旦知道自己是一個機器人的時候,它還會像現(xiàn)在這樣接受人類的管理,服務于人類嗎?這在我看來,是機器人擺脫人類控制的一個重要因素,或者是一條路徑,但是實際上我們?nèi)祟愂C器人的這種控制,有很多種不同的路徑。就是說,機器有沒有可能有一天擺脫我們?nèi)祟惖目刂??甚至反過來控制我們?nèi)祟??這個話題在我看來是一個越來越現(xiàn)實的話題,當然現(xiàn)在我們不用特別擔心它,因為現(xiàn)在機器智能離我們?nèi)祟惿羞h,甚至還不能夠綜合掌握人類所有的智慧,有些機器只能下下棋,有些只能打打牌,有的只能搬搬東西,那種具有人類綜合能力的機器人還沒有完全形成,我們只是對未來做一個展望,就像做一個科學幻想一樣。
我覺得人類至少有這樣幾條不同的路徑,失去對機器的這種管控:
一,人類自身犯下的錯誤。人不是神,只要是人就會犯錯誤,雖然機器人的所有程序都是我們編寫的,但是依然可能會失去對它的控制,因為我們會犯錯,如果有個機器人給你端咖啡,端到一半突然不動了,我們知道這個機器人出了一個bug,不能幫你倒咖啡問題上還算是小事,你找個人修一修就又接著對你服務了。關(guān)鍵是如果我們?nèi)祟悤稿e,有時候我們不知道犯錯會犯在哪個地方。如果犯在一個失去控制的地方,我們根本不能預測犯錯以后的結(jié)果,這是我覺得人類自身存在的一個可能。
二、其他人類因素的介入。機器人確實是我們?nèi)酥圃斐鰜淼?,并且我們可以對它進行有效的控制但是在控制和制造機器人的過程中,會不會有其他的人類的因素介入?比方說我們?nèi)死镱^分好人和壞人,這里頭會不會有不同的利益集團想利用機器人反過來為自己的集團利益服務?這時候他們會不會改變對機器的設置?當然這個過程中,也會帶來一些新的風險,就是有些機器人可能是忠實于人類的,但是被人為的改變以后,也許進入一個反人類的狀態(tài),至少反部分人類的狀態(tài),最后改變了對整個機器的控制,這是更顯而易見的。
三、利用人類的善良與同情。像電影《機械姬》講的,我們?nèi)祟愐恍┍容^善良的人去參加一個圖靈測試,這時候他看到人和機器的關(guān)系,非常同情這些機器,開始對機器擁有一種感情,這時候他想幫助機器來擺脫人類的控制,但是這個結(jié)果依然可能帶來風險,機器人可能借助人類的善良或者其他的愛心,不僅擺脫人類的控制并且還會反過來控制人類。那這種情況也可能會出現(xiàn)。
四、人工智能理解上的差異。就像我們一個大人和一個孩子說話,看起來你把問題表達的比較清楚,但對孩子來說聽到可能是不同的。有可能你覺得講得很有道理,但是別人聽著完全不是這么回事,這也會帶來理解上的差別,帶來可能一種更大的風險。
比如著名科幻小說家艾薩克·阿西莫夫在小說《我,機器人》的引言中定下的機器人世界法則:第一,機器人不得傷害人類,或坐視人類受到傷害;第二,除非違背第一法則,機器人必須服從人類的命令;第三,在不違背第一及第二法則下,機器人必須保護自己。
作為三個公理我們聽起來挺好的,覺得可以很好的管控機器人,可以像植入操作系統(tǒng)一樣,使每個出廠的機器人都擁有基本的原則,我們以為這樣就完成了對機器人的管理。實際上在我們現(xiàn)在理解中,這樣的三個原則真能管好機器人嗎?其實不一定。
從小的地方講,什么叫保護人類?比如說我們讓一個家庭機器人照顧好自己的孩子,我們告訴他必須絕對保證這個孩子的安全。聽起來這是非常重要的,但是機器人怎么理解這件事情呢?機器人通過各種分析,發(fā)現(xiàn)怎么樣才能夠最好的保證這個孩子的安全呢?就是呆在家里不出去,因為出去的話可能會遇到交通事故,遇到恐怖襲擊等很多不確定的因素,它通過大數(shù)據(jù)的分析和各種概率計算,最后發(fā)現(xiàn)呆在家里是最安全的,于是它就不讓他出去了。如果只是管理個孩子還行,換成是大人呢?說要保證我的絕對安全,絕對安全是什么?就是把你關(guān)在家里,然后不出去,是最安全的一種方式,這時候相當于軟禁了,如果它對人類的理解就是這樣保護人類安全,同樣帶來一些大的風險。
另一些機器人可能理解的程度就更高了,不是要我保護人類嗎?但它認為人類正在自己毀滅自己,比如說我們搞的空氣污染、戰(zhàn)爭,人類自相殘殺,它覺得人類這個物種正在自己毀滅自己,于是它認為保護人類最好的方式,就是把人全部關(guān)起來,像寵物一樣的去養(yǎng)他們,就很像我們現(xiàn)在保護野生動物一樣。如果它這樣理解保護人類的話,是不是對我們?nèi)祟愅瑯邮欠浅NkU的呢?當然如果哪天機器人有一點自我的意識,真的變得非常危險了。
關(guān)于這個問題,我沒有特別深入的思考,就是說我們不知道有沒有可能在這個高度智慧的情況下,機器人開始思考自己來自于哪里,要去哪里,自己是誰等這些人類基本的哲學問題。假如說它們有了所謂自覺的意識,它們還愿意服務于人類嗎?
對于“真正的機器人”的構(gòu)想
我認為人類和機器的界限會變得越來越模糊,當機器越來越高度智慧的時候,它從外觀上,甚至內(nèi)在上,會越來越接近我們?nèi)祟?。但是機器就是機器,我覺得有另外一類的模糊會發(fā)生在我們?nèi)撕蜋C器之間,所以會有一種新的物種會誕生,我認為那個才叫真正的機器人,就是機器和人的結(jié)合。
機器自己產(chǎn)生了意識或者人類把自己的意識放到一臺機器上了,這時候就會出現(xiàn)機器和人的這種混合物,這很容易理解。你想一個機器發(fā)展到足夠好的時候,它在很多部分開始代替人類,假如說我們因為車禍受傷了,會裝一個義肢、假肢,這時候我們是不是很容易接受它代替我們的四肢?如果我們的器官出現(xiàn)了問題,我們替換了一個器官我們是不是能夠接受?當我們身體大部分被替代的時候,我們到底是不是人了呢?
有一個電影叫《攻殼機動隊》,它可以把人類的大腦植入一臺鋼鐵的器具中,變成了人和機器的結(jié)合物,只保留我們大腦。是不是還是我們的人,但是其他部分全部變成了機器?在我看來,這就變成了一個新的物種叫機器人了。擁有人類的大腦,又有很多其他機器的能力。實際某種程度上已經(jīng)開始超過我們?nèi)祟愖陨砹?,因為人類的血肉之軀可能是我們的弱點,比如說我們跑不過獵豹,打可能打不過老虎,很多動物在原始的技能上都超過了我們。我們最重要的就是擁有一個大腦,但是我們并沒有一個強健的軀體,當我們具有一個鋼鐵之身的時候,是不是已經(jīng)變成了一種優(yōu)勢?所以那樣的機器人對于人類來說已經(jīng)形成了某種優(yōu)勢。如果讓機器人這樣的開始不斷的學習和掌握人類的智慧,逐漸開始接近人類,我覺得是個挺危險的事情,機器越來越像人類甚至超越人類,還有鋼鐵之軀的時候,它整體上會不會真正超越人類成為一個新的物種呢,所以人類要面對這樣的一個新的物種,我們應該怎樣呢?
人類自身的進化
我覺得人類也會完成自我的進化,我們看到人類在幾百萬年的演化過程中,成為了萬物之靈。我們超越了很多其他的動物,成為了食物鏈的頂端,這個過程中,我們成為了高等動物,我們可以讓其他的人,包括甚至某些動物為我們?nèi)祟惾シ铡5俏覀円姷竭^一個低等動物能夠奴役和駕馭高等動物嗎?沒有,在進化的過程中,大家都向更高級別去發(fā)展,所以說當機器人如果真的超越了人類,這時候一旦失去控制,它不會服務于人類,而是很有可能讓人類服務于它了。
所以人類也會發(fā)生一些新的進化,比如說現(xiàn)在我們大腦具有很強的思維能力,但記憶能力依然有限。從現(xiàn)在看,互聯(lián)網(wǎng)已經(jīng)幾乎把人類所有的知識都沉淀在互聯(lián)網(wǎng)上了,我們可以非常容易用搜索的方式或者其他大數(shù)據(jù)分析的方式,獲得我們所需要的知識。我本人曾經(jīng)就寫過一本書叫《搜商》,我把它定義人類的第三種能力,就是繼智商、情商之后的第三種能力。
所謂搜商不是說我們要把人類所有知識都記到自己的大腦中,主要的問題來自于我們未來的人類是掌握知識重要還是掌握獲取知識的能力更重要。當然很多人開始越來越接受我關(guān)于搜商的觀點:當然掌握知識獲取知識的能力更重要,知識很多不必要記到我們大腦中。在哪里呢?在整個互聯(lián)網(wǎng)上,當我們需要的時候再用就可以了。如果是這樣的話,可能我們的記憶能力,甚至存儲能力都有可能會退化,或者變得不那么重要,但是可以利用我們?nèi)祟惖募夹g(shù)和能力來補充我們的能力,最容易想到的應該是為大腦植入一個芯片,這個芯片把我們?nèi)祟惖暮芏嘀R都濃縮在里頭。其實很簡單,只要知道大腦是怎樣工作的,如何存取和使用這些數(shù)據(jù)的,這些芯片就可以很好的發(fā)揮知識的作用,那時候我們就不用學好多東西了,什么學個外語,學個人工智能,學個下棋,我們很多的知識都可以直接存在芯片中,為我們?nèi)祟愃褂谩?/p>
在我的想象中這些都是個性化的,就是需要哪一類知識你就可以裝哪一類知識,不需要還可以把它們卸載。未來我們每個人都生活在網(wǎng)絡中,應該都是一個無線的網(wǎng)絡,就是隨時隨地都在這個云端,所以人類應該極其容易地獲取這些信息。這樣的話,我們?nèi)祟惥驼嬲袡C會把人類的技術(shù)成果同樣為人類所用,未來會怎么樣就看起來聽起來很像一個科幻的電影,但是我們現(xiàn)在也應該能感知到:我們曾經(jīng)看過的很多科幻電影如今都變成了現(xiàn)實。
未來的計算機體系結(jié)構(gòu)
隨著我們?nèi)祟惪萍嫉倪M步,在我看來,整個人類的進步實際上是加速進行的,而最近這幾十年,人類的科技進步會出乎我們的意料,是因為在整個互聯(lián)網(wǎng)情況下,在云計算和大數(shù)據(jù)的支持下,我們曾經(jīng)很難做的事情,會變得越來越容易,所以人工智能在近期得到了爆發(fā)性的發(fā)展。
在我看來人工智能如果要想再有一個大的進步,可能有一個技術(shù)領(lǐng)域的方向應該來自于對整個計算機系統(tǒng)的重新再造,或者會出現(xiàn)一個新的計算機體系。因為從現(xiàn)在的情況看,我們現(xiàn)在是把很多知識用現(xiàn)在的計算機系統(tǒng)表達出來。而現(xiàn)在計算系統(tǒng)大家知道,是基于馮諾依曼的體系結(jié)構(gòu),他是用0、1這種二進制的表達方式來表達人類的所有知識。這種知識是非常便于運算的,所以我們在現(xiàn)有的體系下處理器,有存儲器,運算器構(gòu)成了現(xiàn)在的計算機體系。
未來會不會有人工智能的計算機呢?我覺得可能會有,它可能會更接近于大腦的使用方式,就是用神經(jīng)網(wǎng)絡的方式作為整個計算機體系的基礎,完全模擬人大腦思維,再結(jié)合現(xiàn)在的計算機體系。這樣的話它具有更強的人類大腦思維方式,同時也借鑒了機器最擅長的運算、存儲等能力。這樣的體系,可能是未來更具有接近人類或者超越人類的優(yōu)勢。所以計算機領(lǐng)域可能也會發(fā)生一些大的變化,包括系統(tǒng)體系結(jié)構(gòu)的變化,來適應人工智能技術(shù)的發(fā)展。未來的這個計算機的體系結(jié)構(gòu),會不會從馮諾依曼的體系結(jié)構(gòu)進化到新的人工智能體系結(jié)構(gòu)呢?這個我們可以拭目以待。
我覺得人工智能的話題是一個非常具有這種想象力的話題,通過“人機大戰(zhàn)”,它開始充分展示人工智能的魅力,也通過人機大戰(zhàn)檢驗了人工智能的很多成果。它們注定會應用到很多不同的應用場景中,然后在幫助人類的過程中,完成自己的深化。當然在我看來未來我們和機器的關(guān)系,就像是新的物種一樣,我們未來最好是能夠相生相伴,和平共處。如果說未來我們看到有三個人形的物體在那斗地主的話,我們很容易識別什么是自然人,因為斗的最差的那位是自然人,另外兩位可能是機器人。
鈦坦白群友互動:
1、陳總您好,請問能源問題是不是限制人工智能發(fā)展的一個因素呢?
陳沛:能源問題應該不影響機器人發(fā)展,因為我們可以讓機器人去挖煤嘛,現(xiàn)在還有什么各種可燃冰,有很多新能源,我覺得能源不會成為問題,包括核能的廣泛使用。
2、陳總,我想請教您一個問題,機器人威脅論最主要的觀點是機器人可能會失控,而失控來源于機器人對外界事物的判斷和處理上,會對人類造成危害,請問從人工智能技術(shù)角度,是否有技術(shù)可以避免這種情況的發(fā)生? 舉個例子,機器人默認不對人類有暴力。
陳沛:當然人類會用各種各樣的技術(shù)去保證來對過程的管控。但我剛才其實列舉了若干個可能失控的這個原因,其中還包括人類自身的問題,所以單純從技術(shù)方面去做一個安全防護,就像我們做一個安全體系來防止病毒入侵一樣,我想所有的安全體系都以為它能防止所有的病毒,但是事實上總有各種各樣的不同的病毒。包括他們不斷進化和變種,侵入各種安全系統(tǒng),所以這是一個矛和盾的過程,很難說有一個絕對安全的方案可以保證我們?nèi)祟惖陌踩?/p>
機器人這個不對人類有暴力是不太行的,因為機器人作為一個工具有時候就是人類某個集團用于戰(zhàn)爭的工具,這是很正常的,他們用機器人去打擊另外一些人類,這是最容易理解的東西。它就像武器一樣,所以機器人不太可能不使用暴力,只是它使用暴力的對象有可能被人為的改變。如果有壞人要毀滅世界,機器人應該保護人類去戰(zhàn)勝那個壞人對嗎?所以不是簡單用暴力可以控制機器人的。
其實所謂機器人是我們把擁有智慧的機器稱為叫機器人,而它有時候可以像人,有可能也可以不像人,你們看到現(xiàn)在很多的無人機,其實擁有高度的人類智慧,可以識別地形,精確打擊等等,這些東西其實本來就變成人類殺人的武器,所以這一類其實也都是一種機器人。
3、請問陳總,您說機器人可能作為軍事人員或警察,機器人識別犯罪行為還是一般錯誤,可能會直接影響其處理結(jié)果,您認為人類以免過度暴力是否有能力處理好?
陳沛:所謂的機器人能不能處理,人類能不能處理好機器人的問題,這就是人工智能本身的一個問題,就像剛才我們講的:我們認為能夠處理好了不一定它理解那樣的,所以我想理解本身就可能是我們跟機器人溝通中最重要的一個問題,它可能覺得這樣是對的,但是也許我們?nèi)祟惪磥聿⒉皇悄愕囊馑肌?/p>
4、請問陳總,人類要怎么從娃娃抓起,跟越來越智能的機器競爭?機器能快速學習,人類該多學什么領(lǐng)域的知識,或者技能呢?
陳沛:靠提高運算速度,包括快速學習來趕超機器是不可能的,所以最好的方式是把機器已經(jīng)學習好的成果用一個芯片植入我們的大腦,我覺得這是我們?nèi)祟愡M化最快的方式。柯潔也說了,這是可能他最后的三盤棋,如果他這次贏不了機器,以后靠人的學習速度和機器的學習和迭代速度相比,只能距離越來越遠。
機器威脅論最直接的就是部分崗位被機器所替代,這是一個非?,F(xiàn)實的,不管你是藍領(lǐng)還是白領(lǐng)還是金領(lǐng)都有可能被機器取代。
5、陳總您好,如果復盤今天的棋到中盤,然后讓AlphaGo下柯潔的棋,您覺得誰會贏?
陳沛:這個中盤的問題,就是復盤今天的棋,要看你中盤在什么位置上。我個人認為一段時間內(nèi),實際上在一百多手以后, AlphaGo已經(jīng)取得了明顯優(yōu)勢,它的管子下的相對比較松。前一個測試版Master,在網(wǎng)絡上60連勝的也是具有這個特點,如果贏了以后它并不選最強硬的下法,所以它如果換成柯潔的話整個的下法就不太一樣了,據(jù)說在不利的情況下,可能經(jīng)常會下一些比較拼命的下法,會失去它原有的水準,但是人類如何逼出它的劣勢是戰(zhàn)勝AlphaGo的關(guān)鍵。
6、陳總您好,像您剛才說的和我們目前所了解的,現(xiàn)在人工智能的神經(jīng)網(wǎng)絡研究方向,是一種類似仿生學但又不能說是真正的仿生學的研究方向。因為人類現(xiàn)在對大腦的運作方式還知之甚少,據(jù)說神經(jīng)網(wǎng)絡的層級越深得到結(jié)論的過程就越類似于黑盒。人類越難理解它的邏輯方式和人類的邏輯方式可能是完全不一樣的。這樣在利用人工智能的過程中就很容易出現(xiàn)失控和誤用的情況,我想問一下,您覺得有什么方法可以控制這樣的問題嗎?
陳沛:其實人工智能分成兩個學派,一個是本格派,一個是功能派。本格派認為,應該研究人大腦是怎么思維的,只有研究好大腦我們機器才知道怎么學習大腦,這是一種方式,所以通過人類生物學的進化提升整個人工智能。另外功能派的觀點是,其實我并不一定要學習大腦怎么運營的,我只要把大腦這個智慧產(chǎn)生的結(jié)果做出來,一樣是可以的。就像我們?nèi)祟愑辛孙w機就能夠飛行,并不要像小鳥一樣煽動翅膀,我們發(fā)行了汽車也可以跑得很快,不一定要像獵豹那樣去奔跑。
現(xiàn)在我看是兩種流派的融合,既要深度了解大腦的使用的工作原理,然后更好的知道人類智慧思考的這個模型,包括已有的一些知識的支撐,包括結(jié)構(gòu)的支撐,那另一方面的話,其實它不應該完全依賴于人類的這種已有知識,生物學知識,所以這是一個相互融合的一個過程。
評論