孫 會
(南京大學(xué) 哲學(xué)系,江蘇 南京 210023 )
當(dāng)前,人類社會正在進(jìn)入一個技術(shù)變革時期,其中,以人工智能為代表的新一輪前沿技術(shù)在學(xué)界掀起了一股討論熱潮。人工智能在很多領(lǐng)域的表現(xiàn)已經(jīng)達(dá)到甚至超越了人類的水平,如計算速度、搜索能力、深度學(xué)習(xí)等。一方面,在人工智能的推動下,人們正享受技術(shù)帶來的快捷與便利;另一方面,人工智能也引起了很多學(xué)者的批評,代表人物有羅杰·彭羅斯(Roger Penrose)和休伯特·德雷福斯(Hubert Dreyfus)等。其中,作為數(shù)學(xué)家和物理學(xué)家的彭羅斯對于人工智能的觀點出自他的《皇帝的新腦》(Emperor’sNewMind)一書,他認(rèn)為人的意識并非算法,不能用傳統(tǒng)的數(shù)學(xué)計算機(jī)建模,他還推測量子效應(yīng)在人腦中扮演重要角色。而德雷福斯最早撰寫的一篇文章是《煉金術(shù)與人工智能》(AlchernyandArtificialIntelligence),后來在此基礎(chǔ)上修訂內(nèi)容,出版了《計算機(jī)做不到的那些事》(WhatComputerCan’tDo)一書,到了1992年,該書的第3版問世,德雷福斯批判中略帶嘲諷地把書的名字改成了《計算機(jī)仍然做不到的那些事》(WhatComputerStillCan’tDo)。德雷福斯并不否定人工智能取得的成果,他的主要批評點在于建構(gòu)思維機(jī)器的象征性方法。
機(jī)器人科學(xué)探索iRobot公司把機(jī)器人定義為“在現(xiàn)實世界中,為了實現(xiàn)特定目標(biāo)而感知世界,并且合理行動的物理設(shè)備”[1],也就是說,機(jī)器人必須與現(xiàn)實世界發(fā)生聯(lián)系,在這一點上,機(jī)器人專家羅德尼·布魯克斯(Rodney Brooks)與德雷福斯的觀點似乎不謀而合,均認(rèn)為思維機(jī)器必須植入現(xiàn)實世界,像人類一樣去感知世界從而獲得外部世界的知識,只有這樣,符號才能獲得真正的意義。而約翰·塞爾(J.R. Searle)則用一場“中文屋”(Chinese Room)思想實驗來解釋這一觀點的內(nèi)涵,并以此來反駁艾倫·圖靈(Alan Turing)對智能的定義。
毋庸置疑,從計算機(jī)產(chǎn)生以來,機(jī)器變得越來越聰明。人工智能發(fā)展到今天,人們不禁思考:人工智能的未來究竟將走向哪里?機(jī)器可以具有智能嗎?思維機(jī)器會出現(xiàn)嗎?奇點會出現(xiàn)嗎?帶著對這些問題的思考,本文從圖靈測試出發(fā),在各種反駁意見中探索智能的定義,并試圖分析當(dāng)前思維機(jī)器的局限,以及奇點到來之前面臨的各種技術(shù)問題和倫理挑戰(zhàn)。
通常情況下,我們在日常生活中看到的人工智能指的是“弱人工智能”(簡稱“弱AI”),例如AlphaGo可以下圍棋,機(jī)器人特奧可以譜曲等。弱AI通常指的是機(jī)器在某一領(lǐng)域可以實現(xiàn)像人一樣的行為。而在談到機(jī)器是否可以思維這個問題時,我們談?wù)摰膭t是“強(qiáng)人工智能”(簡稱“強(qiáng)AI”),強(qiáng)AI的含義是指機(jī)器可以像人類一樣具有自由意志,可以思維,也就是人們所說的“通用人工智能”。而在現(xiàn)實中,我們已經(jīng)可以看到很多弱AI的普及和應(yīng)用,那么,強(qiáng)AI究竟能否實現(xiàn)呢?換言之,機(jī)器究竟能否具有像人類一樣的智能呢?
談到智能問題,我們就需要從人工智能歷史上著名的“圖靈測試”(Turing Test)開始討論。為了給智能下定義,圖靈采用一種功能性定義,即如果一臺計算機(jī)的行為方式和人類一樣,那么就可以說它具有智能。為此,圖靈提出了一個思想實驗來介紹這種功能性定義,即圖靈測試:假設(shè)有一套智能程序,評委在一個房間,使用一臺計算機(jī)終端與另一個房間的一個人或者計算機(jī)相連。評委向?qū)Ψ教釂?,對方回答問題,如果有超過30%的回答使評委無法判斷出對方是一個人還是一臺機(jī)器,那么,這臺計算機(jī)就通過了圖靈測試,即具有智能[2]。
顯然,“圖靈測試”給出了一個非常大膽的猜想,如果機(jī)器具有智能,就意味著機(jī)器可以像人類一樣思考,正是這一猜想的強(qiáng)大吸引力,讓很多專家們躍躍欲試,試圖創(chuàng)造出像人類一樣自由思考的強(qiáng)AI。當(dāng)然,圖靈的這一觀點也引起了很多反對意見,而圖靈也預(yù)見了這些可能的反駁,并對此進(jìn)行一一回應(yīng)。
反對意見之一是“能力缺陷說”。這一論點指出計算機(jī)即使可以在很多方面表現(xiàn)出色,但永遠(yuǎn)無法做到X。這里的X特征很多,如仁慈,有幽默感……這份清單可以一直列下去,都是人類的一些特有特征,但人們無法拿出系統(tǒng)的證據(jù)來支撐這些觀點,因為這些觀點都是建立在歸納原理基礎(chǔ)上,是人們從過去見過的機(jī)器特征中總結(jié)出的經(jīng)驗印象,因此不能用來預(yù)測未來的機(jī)器。對此,圖靈指出:“要獲得可靠的結(jié)果,必須在相當(dāng)大的時空范圍內(nèi)進(jìn)行研究。”[3]75
反對意見之二是“總結(jié)創(chuàng)新說”。這一論點認(rèn)為計算機(jī)無法做出像人類一樣從經(jīng)驗中學(xué)習(xí),也無法做出新東西。早在1950年,圖靈就預(yù)測機(jī)器可以在50年時間里通過圖靈測試,實現(xiàn)這些能力。事實上,無需圖靈回應(yīng),當(dāng)今社會發(fā)生的種種事件已經(jīng)給出了答案。例如:購物網(wǎng)站從你經(jīng)常瀏覽的網(wǎng)頁中總結(jié)習(xí)慣,向你推薦你可能喜歡的產(chǎn)品;AlphaGo通過深度學(xué)習(xí)學(xué)會了下圍棋,機(jī)器可以做到翻譯、寫詩、譜曲等。實際上,早在計算機(jī)誕生的100年前,發(fā)明家約翰·克拉克(John Clark)就發(fā)明了一臺可以生成拉丁文六步格詩的機(jī)器,并于1845年在倫敦皮卡迪利做了首演。
反對意見之三是“意識說”。這一觀點也是歷史上爭議最多的意見。這一觀點的代表人物是英國腦外科醫(yī)生杰弗里·杰弗遜(Geoffrey Jefferson)。他在1951年曼徹斯特大學(xué)舉辦的利斯特演講大會中明確表達(dá)了這一觀點:除非機(jī)器能夠做到出于自己的感情和思想來寫詩作曲,而不是通過符號的隨機(jī)來臨,否則我們不能認(rèn)為機(jī)器與大腦是等同的——也就是說,不僅能寫詩,還要知道自己寫出來的含義。任何機(jī)器都不能感受到(不是人為的信號,這在設(shè)計上很容易實現(xiàn))成功時帶來的喜悅和電子管燒熔后的悲傷,不會因為聽話而開心,不會因自己犯錯而懊惱,見到異性而著迷,愿望實現(xiàn)不了時發(fā)怒或沮喪[3]72-73。
對此,圖靈指出,如果論證機(jī)器能否思維的唯一途徑就是自己成為機(jī)器,體驗它是否在思維,并向別人描述這些感受,這是“唯我論”的表現(xiàn),最終會導(dǎo)致智能的定義沒有標(biāo)準(zhǔn),思想無法交流的結(jié)果?;谶@個反駁基礎(chǔ),塞爾設(shè)計了著名的“中文屋”思想實驗,假設(shè)自己變成了一臺機(jī)器,被關(guān)進(jìn)屋子里,在不懂中文的情況下,借助一本英文指南手冊完成屋外的人類指令(配對正確的中文問答卡片)的過程,通過塞爾完成任務(wù)但不懂中文這一結(jié)論來反駁機(jī)器可以具有智能這一觀點[4]94-95。
塞爾的意圖是通過這一思想實驗與圖靈測試進(jìn)行類比論證,從結(jié)論出發(fā)反駁圖靈關(guān)于“機(jī)器可以具有智能”的觀點,因為事實上塞爾并不懂中文,所以圖靈的結(jié)論也不成立。塞爾的“中文屋”思想實驗與圖靈測試的對比關(guān)系可以通過表1進(jìn)行具體剖析。
通過這一思想實驗,塞爾不僅反駁了圖靈對智能的定義,同時指出機(jī)器無法具有智能的根本原因在于缺乏意向性,“機(jī)器人根本沒有意向狀態(tài),只是受電路和程序支配的來回運(yùn)動而已”[4]105。塞爾還指出,理解力是智能必不可少的一部分,顯然在“中文屋”實驗過程中,塞爾是沒有理解行為的,因此,計算機(jī)回答問題的行為也是不具有理解力的。實際上,在此之前的10年時間里,人工智能領(lǐng)域正在遭受第一次寒冬,雖然支持圖靈的呼聲強(qiáng)調(diào)“智能增強(qiáng)基因幾乎無處不在”[5],機(jī)器人的服務(wù)領(lǐng)域也在逐漸擴(kuò)展。然而,關(guān)于“機(jī)器是否可以具有智能”這一問題依然面臨著各種批評和挑戰(zhàn)。
表1 “圖靈測試”與“中文屋”思想實驗對比分析
談到人工智能,就無法避開一位具有批判精神的哲學(xué)家——德雷福斯,他最初把人工智能比喻成中世紀(jì)的煉金術(shù),即把各種不同的化合物倒在一起,觀察它有什么變化,并指出即使人工智能發(fā)展到今天,依然處于不同程度的嘗試與觀察之中。而對于計算機(jī)程序可以做到模擬甚至等同人的智能的觀點,德雷福斯主要以人工智能建構(gòu)的象征性方法來分析,分別從生物學(xué)假想、心理學(xué)假想、認(rèn)識論假想和本體論假想幾個角度出發(fā),對這種觀點提出批評和反駁。
在生物學(xué)假想方面,在神經(jīng)生理學(xué)家發(fā)現(xiàn)大腦的神經(jīng)元可以發(fā)出具有全有或全無特征的電脈沖后,這與計算機(jī)的二進(jìn)制編碼信息似乎一致,于是這種電脈沖信號就被看成是人腦與計算機(jī)的基本信息單元,并以此推理出:計算機(jī)可以模仿大腦的工作原理。德雷福斯指出,人腦的“信息加工”方式和計算機(jī)的信息處理過程是不同原理的,人的大腦是由許多隨機(jī)相連的神經(jīng)元連接成的龐大陣列,用某種程序可以模擬這些神經(jīng)網(wǎng)絡(luò),但這種程序并不是啟發(fā)式的程序,因此,“把人腦看成一個通用符號處理裝置,像數(shù)字計算機(jī)那樣工作,這是一種經(jīng)驗論的過時的假說”[6]171。也就是說,大腦中的神經(jīng)元之間可以發(fā)生相互作用,其中一個神經(jīng)脈沖序列可以反映出其他神經(jīng)元的活動情況,同樣的情況可以發(fā)生在其中任何一個神經(jīng)元中,而這一點是計算機(jī)的編碼程序無法實現(xiàn)的。
在心理學(xué)假想方面,即認(rèn)為人的大腦存在一種和計算機(jī)類似的信息處理空間裝置,對外界輸入的各類信息進(jìn)行組合和加工。研究人員認(rèn)為人在進(jìn)行智能行為時,是遵循一些類似為使數(shù)字計算機(jī)產(chǎn)生同一行為所必須遵循的啟發(fā)規(guī)則。德雷福斯指出,心理學(xué)出現(xiàn)了從行為主義到心智主義的普遍轉(zhuǎn)移,于是引起了很多心理學(xué)家和哲學(xué)家沿著這一路徑進(jìn)行計算機(jī)的類比推理,把人理解為一個裝有啟發(fā)式程序的數(shù)字計算機(jī)的信息加工系統(tǒng)。德雷福斯指出,“信息加工”是有歧義的,對于人腦和計算機(jī)程序而言,問題的關(guān)鍵在于不能把信息和意義混為一談,因為一個負(fù)荷很重的消息和一個無關(guān)痛癢的消息對于一臺計算機(jī)來說可能是完全相同的?!靶睦韺W(xué)意義上的運(yùn)算必須是人類在加工信息時,比如搜索、整理、存儲,至少有時有意義地進(jìn)行那一類的運(yùn)算,而不是有機(jī)體內(nèi)的生化過程。”[6]177
在認(rèn)識論假想方面,雖然不能假設(shè)人是在一系列無意識運(yùn)算中遵循啟發(fā)規(guī)則來活動的,但人的智能行為依然可以用這種規(guī)則加以形式化,因此可以用機(jī)器復(fù)制。對此,德雷福斯將認(rèn)識論假想歸納為兩點:(A)所有非隨意性行為都可以形式化;(B)形式化系統(tǒng)可以復(fù)制。德雷福斯指出,觀點A是建立在物理學(xué)成果基礎(chǔ)上的,而觀點B則是建立在語言學(xué)成果基礎(chǔ)上的。德雷福斯進(jìn)一步指出問題在于,觀點A把物理學(xué)上對物體運(yùn)動的抽象規(guī)律(如把行星繞太陽運(yùn)動抽象為形式化系統(tǒng)——微分方程)和計算機(jī)的信息加工(信息的輸入、輸出)混為相同機(jī)制,即微分方程可以描述行星運(yùn)動,但行星運(yùn)動不是在解方程,因而辯護(hù)不成立,而觀點B的前提是人的語言行為都是遵循一定規(guī)則的,且要將語言行為形式化的前提條件是將所有人類知識全部囊括在內(nèi),這顯然是無法實現(xiàn)的。
在本體論假想方面,即認(rèn)為世界可以分解為離散的、確定的初始元素,按照這個邏輯,所有現(xiàn)實世界的知識都可以被數(shù)字化、符號化、形式化,編入計算機(jī)程序。德雷福斯從現(xiàn)象學(xué)角度指出“事物可計算”觀點的局限性在于把人類的現(xiàn)實世界局勢與物理的宇宙世界相混淆,“一種物理狀態(tài)的演變,的確可以形式化為微分方程,并可以用數(shù)字計算機(jī)復(fù)制出來。但是,現(xiàn)實局勢卻對那些想把它們變成形式系統(tǒng)的人提出了令人頭痛的問題”[6]222。這里的問題可以歸結(jié)為:現(xiàn)實性和具身性是計算機(jī)所不具有的。這里,可以通過機(jī)器翻譯中出現(xiàn)的問題來證實這一點,因為自然語言的內(nèi)涵十分豐富,而機(jī)器自動翻譯常常出現(xiàn)語義偏差,由此可以看出,把現(xiàn)實世界完全形式化是不可能的。
其實,德雷福斯并不否定人工智能在技術(shù)上取得的成果,他的主要目的是把人工智能從技術(shù)領(lǐng)域延伸到哲學(xué)領(lǐng)域,試圖重新審視建構(gòu)思維機(jī)器的象征性方法,并指出這個方法可以回溯到柏拉圖的“理念論”、萊布尼茨的“人類思想字母表”以及休謨的經(jīng)驗主義,而實現(xiàn)機(jī)器具有智能的關(guān)鍵問題在于如何把抽象符號與現(xiàn)實世界聯(lián)結(jié)起來。
漢斯·莫拉維克(Hans Moravec)通過觀察和對比計算機(jī)行為和人類行為發(fā)現(xiàn):“讓計算機(jī)在一般認(rèn)為比較難的智力測驗和棋類游戲中表現(xiàn)出成人的水平相對容易,而讓它在視覺和移動方面達(dá)到一歲小孩的水平卻很難甚至不可能”[7]。這一現(xiàn)象被稱為人工智能歷史上著名的“莫拉維克悖論”,也表明了制造思維機(jī)器面臨的現(xiàn)實挑戰(zhàn)與限制。
關(guān)于機(jī)器能否思維,前文提到了“意識說”,杰弗遜和塞爾都認(rèn)為意識產(chǎn)生于人類大腦特有的生物機(jī)制,而計算機(jī)則是由硅作為主要系統(tǒng),因而認(rèn)為這從構(gòu)成機(jī)制上限制了機(jī)器具有意識的可能性。然而問題是,這種論證至今依然沒有確切的完整證據(jù)。因此,當(dāng)我們在討論這一論點時,首先要拋開過去傳統(tǒng)觀念中“唯我論”式的恐懼:只有人的意識確定存在,即笛卡爾的“我思故我在”,那么,是否可能還有其他的可能性;或許意識有可能是一種突現(xiàn)特征,可以在任何復(fù)雜的系統(tǒng)里生成、演化、運(yùn)行,即使該系統(tǒng)是由硅構(gòu)成的。值得一提的是,在生物系統(tǒng)里,意識一直都是一個難以解釋的現(xiàn)象,大衛(wèi)·查爾默斯(David Chalmers)曾指出:“意識是心智科學(xué)里最令人困惑的問題,意識體驗我們再熟悉不過了,可要解釋它也再困難不過了。近年來,人們已經(jīng)對各種各樣的精神現(xiàn)象進(jìn)行了科學(xué)觀察,但意識仍然頑強(qiáng)地抵擋著來自人的努力探索”[8]。因此,由于目前學(xué)界對意識的認(rèn)識不夠,還無法說清楚意識是否一定是思維機(jī)器產(chǎn)生的限制。那么,我們再來看看制造思維機(jī)器還有哪些其他限制。
1.默會限制
有一個現(xiàn)象是,人所做的很多智能行為是無法向其他人解釋的,甚至無法向自己解釋。例如:一個3歲的孩子可以從一堆照片中迅速找到他父親的臉,但是有關(guān)父親的臉部知識他卻很難描述。還有一個現(xiàn)象是,人類最初在學(xué)習(xí)語言時并不是靠語法和字典,或許一個人的中文可以講得很棒,但卻對漢語的語法知識考試一頭霧水。英國哲學(xué)家邁克爾·波蘭尼(Michael Polanyi)曾經(jīng)做過這樣一種觀察:“我們所知的,超出我們的判斷……潛水員的技能,不能用徹底的汽車?yán)碚撝R代替;我對自己身體的認(rèn)識,完全有別于相關(guān)的生理學(xué)知識;韻律和詩體的規(guī)則,并不能告訴我一首詩到底在講什么,而哪怕我對詩歌的規(guī)則一無所知,我也知道這首詩在講什么?!盵9]
默會能力是人類特有的現(xiàn)象,由于無法訴說,無法描述,沒有系統(tǒng)而準(zhǔn)確的知識,而讓很簡單的事情在機(jī)器人那里變得很難實現(xiàn),這種現(xiàn)象也被稱為“波蘭尼悖論”。人類的這種能力至今尚未得到科學(xué)解釋,未來,如何將這種默會知識變?yōu)榇_切的、可以被復(fù)制的知識和符號或許是未來人工智能領(lǐng)域努力的一個方向。
2.人為限制
未來,制造思維機(jī)器還面臨的一個難題在于:人類在制造機(jī)器之前總會加以各種限制,歷史上著名的人為限制就是1942年艾薩克·阿西莫夫(Isaac Asimov)針對人工智能提出的機(jī)器人三大定律:第一,機(jī)器人不得傷害人類,或坐視人類受到傷害;第二,除非違背第一定律,機(jī)器人必須服從人類的命令;第三,在不違背第一及第二定律的前提下,機(jī)器人必須保護(hù)自己。
阿西莫夫指出,人類社會發(fā)展到了2058年,機(jī)器人很可能在人類生活中扮演重要角色,因此必須提前為它們設(shè)定限制規(guī)則。然而遺憾的是,阿西莫夫的機(jī)器人三大定律依然面臨挑戰(zhàn):如果機(jī)器人必須傷害一個人以拯救其他更多的人(如電車難題),該如何采取行動?如果兩個人同時給出相互矛盾的命令,機(jī)器人該如何處理?當(dāng)前3條定律的局限性突顯出來后,阿西莫夫又推出了第4條定律:機(jī)器人不得傷害人類,也不得因不作為令人類受到傷害。
阿西莫夫把這一定律排在前3條定律之前,稱之為“零號定律”。然而,這一定律帶來了新的問題:機(jī)器人怎樣判斷什么會傷害人類呢?即便如此,阿西莫夫依然主張應(yīng)該帶著此類定律的思考去開發(fā)機(jī)器人。
可以看出,阿西莫夫定律的最大挑戰(zhàn)在于,有限的計算機(jī)系統(tǒng)無法準(zhǔn)確而又完整地把人類的所有場景全部涵蓋在內(nèi)。例如,谷歌在開發(fā)無人駕駛汽車期間,曾遇到很多出乎意料的情況,這些情況的發(fā)生主要源于計算機(jī)對人類以及外部世界的形式化語言判斷偏差。
3.倫理限制
制造思維機(jī)器的設(shè)想引出了很多倫理挑戰(zhàn),“電車難題”就是經(jīng)典的倫理問題之一。試想,如果你坐在一輛行駛在公路上的無人駕駛汽車上,這時候有兩個孩子突然沖到路上來,汽車是撞上兩個孩子,還是撞到對面車道上的車?或者是撞到路邊停著的車?計算機(jī)只有幾毫秒來決定采取哪一種行動,而所有這些行動都可能會導(dǎo)致人死亡或者受傷。此時,計算機(jī)應(yīng)該采取哪一種行動呢?背后的理論依據(jù)又是什么呢?
這個問題曾一度引起了學(xué)界關(guān)注,但就開發(fā)符合倫理道德的自動駕駛汽車而言,這只是其中一小部分,還有很多其他倫理問題,而這些問題可能會在實際中出現(xiàn)得更頻繁,例如在特殊緊急情況下,人類駕駛員可能會違反交通規(guī)則來擺脫危險狀況,那么,自動駕駛汽車能否以這種方式違反法律呢?此外,還有一些引發(fā)熱議的問題是,是否應(yīng)該開發(fā)一套系統(tǒng),讓人類駕駛員可以在某些特殊情況下臨時收回控制權(quán)?
目前,大多數(shù)政府對自動駕駛采取的立場是把責(zé)任交到了相關(guān)的技術(shù)開發(fā)公司,而讓自動駕駛汽車上路,在倫理道德上也勢在必行。當(dāng)然,政府的嚴(yán)格監(jiān)管應(yīng)該是自動駕駛汽車上路的前提和重要保障,否則交通系統(tǒng)會陷入混亂狀態(tài)。
此外,思維機(jī)器還面臨的一個倫理挑戰(zhàn)就是算法歧視,即計算機(jī)的程序算法有可能會有意無意地歧視社會上某些特定群體。這些算法本身可能沒有任何明確的偏見,但不管我們是否意識到,他們提供的數(shù)據(jù)結(jié)果令人產(chǎn)生一種帶有偏見的感覺,這一點也是未來人工智能需要克服的一個問題。
這里,需要引起重視的另一個問題是,人類正在進(jìn)入人工智能、自動程序、基因編輯的技術(shù)時代,技術(shù)的浪潮將影響人類生活的方方面面,但人們似乎把重心更多地放在了經(jīng)濟(jì)和商業(yè)前景上,而對人類的價值觀和倫理考慮得不夠,這一點需要在技術(shù)前行的進(jìn)程中引起重視。“隨著我們走向奇點時代,并且當(dāng)計算機(jī)通過巨大的全球網(wǎng)絡(luò)相互連接,到達(dá)或者超過人類大腦能力時,我們迫切需要一個大多數(shù)人認(rèn)同且比較明確的倫理環(huán)境?!盵10]
制造出思維機(jī)器,如果其迅速發(fā)展,進(jìn)入“超級智能”時代,就會有所謂“技術(shù)奇點”的出現(xiàn)。這一概念可以追溯到約翰·馮·諾依曼(John Von Neumann),他就是最初設(shè)想的人之一,諾依曼把奇點描述為一種可以撕裂人類歷史結(jié)構(gòu)的能力。1957年,諾依曼去世后,數(shù)學(xué)家斯塔尼斯拉夫·烏拉姆(Stanislaw Ulam)回憶和諾依曼生前進(jìn)行的一番對話,內(nèi)容是快速發(fā)展的技術(shù)以及人類生活模式的變化,將使得人類歷史上出現(xiàn)某個重要的奇點,在此之后,傳統(tǒng)的人類之道將無以為繼。在人工智能領(lǐng)域,技術(shù)奇點一般指的是一個時間點,屆時人類將制造出一臺具備足夠智能,可以對自己進(jìn)行重新設(shè)計以不斷提高智能的機(jī)器,而一旦達(dá)到這個點,該機(jī)器的智能就開始呈指數(shù)級增長,在量級上超過人類。
無獨有偶,關(guān)于技術(shù)的未來預(yù)測不僅是諾依曼,早在1950年,美國控制論專家諾伯特·維納(Norbert Wiener)就提出:“人之所以能夠進(jìn)行大量學(xué)習(xí)和研究工作,乃是生理地裝備了這種能力的……機(jī)器或有機(jī)體的結(jié)構(gòu)就是據(jù)之可以看出其演績的索引?!盵11]維納還設(shè)想了技術(shù)發(fā)展到未來某個時間,就可以實現(xiàn)機(jī)器的自主學(xué)習(xí)。
之后,美國未來學(xué)家雷·庫茲韋爾(Ray Kurzweil)在其著作中論述并推廣了技術(shù)奇點的概念。庫茲韋爾從生物和技術(shù)兩個方面將進(jìn)化歷史分為6個紀(jì)元:物理和化學(xué)紀(jì)元、生物與DNA紀(jì)元、大腦紀(jì)元、技術(shù)紀(jì)元、人類智能與人類技術(shù)結(jié)合的紀(jì)元、宇宙覺醒紀(jì)元[12]。庫茲韋爾指出,人類目前已經(jīng)走過了前4個紀(jì)元,即將進(jìn)入第5紀(jì)元,即人類與機(jī)器的聯(lián)合——人機(jī)文明。按照庫茲韋爾的觀點,人類與機(jī)器的結(jié)合是人類歷史發(fā)展到一定階段的必然選擇,也是技術(shù)發(fā)展史的必然階段。
很多研究人員認(rèn)為,機(jī)器人和人類一樣,都是物質(zhì)世界發(fā)展的必然產(chǎn)物,“從徹底的唯物主義觀點看,不排除完全復(fù)制一個人的可能”[13]。英國控制論教授凱文·渥維克(Kevin Warwick)曾提出要將自己變成一個“半人半機(jī)器式的智能復(fù)合體”,并分別于1998和2002年把芯片植入自己的左臂和左腕。這樣,渥維克左手臂的每一個動作發(fā)出的神經(jīng)信號都可以與計算機(jī)相連。這樣做的結(jié)果是,當(dāng)渥維克在辦公大樓里走動的時候,所有由電腦控制的房間都可以自動識別他,為他自動開門、開燈,打開電腦向他問好。渥維克曾指出:“若是機(jī)器有可能達(dá)到與人類大致相同的水平,那么由于技術(shù)進(jìn)步的潛力,機(jī)器在很短的時間內(nèi)一定會變得更聰明?!盵14]
實際上,隨著1996年出現(xiàn)的“深藍(lán)”計算機(jī)打敗國際象棋大師,2015年DeepMind 人工智能公司開發(fā)的程序通過自主學(xué)習(xí)實現(xiàn)了自玩49款A(yù)tari游戲,2016年AlphaGo打敗韓國棋王李世石,2017年以全勝成績打敗圍棋世界冠軍柯潔等一系列驚人的事件發(fā)生后,人們越來越相信,奇點可能會在未來的某個時間到來,到那時,計算機(jī)將實現(xiàn)自主學(xué)習(xí)、自我繁衍,并可以不斷開發(fā)新智能,甚至取代人類。以色列歷史學(xué)家尤瓦爾·赫拉利(Yuval Harari) 在《未來簡史》一書中也指出:“在過去幾千年間,人類已經(jīng)走向?qū)I(yè)化,比起狩獵者,出租車司機(jī)或心臟病??漆t(yī)生所做的事更為有限,也就更容易被人工智能取代。”[15]
從技術(shù)角度來說,AlphaGo是一個基于卷積神經(jīng)網(wǎng)絡(luò)的程序,其核心技術(shù)主要有兩個方面:第一方面就是計算機(jī)系統(tǒng)內(nèi)部的強(qiáng)化學(xué)習(xí)(Reinforcement);第二方面則是蒙特卡羅樹搜索(Monte Carlo Tree Search)。通常情況下,強(qiáng)化學(xué)習(xí)是指除了無監(jiān)督學(xué)習(xí)和有監(jiān)督學(xué)習(xí)之外的第3類機(jī)器學(xué)習(xí)方法,強(qiáng)調(diào)智能體和環(huán)境之間的互動,通過智能體尋求期望獎勵的最大化來習(xí)得從狀態(tài)空間到行動空間的策略函數(shù),在運(yùn)籌學(xué)和最優(yōu)控制理論中,強(qiáng)化學(xué)習(xí)也被稱作是近似動態(tài)規(guī)劃。而蒙特卡羅樹搜索算法從本質(zhì)上來說其實是一種博弈,即“雙人有限零和順序博弈”,也就是在游戲狀態(tài)中,雙方分別在對立狀態(tài)下交替進(jìn)行選擇下一步操作以獲得最終游戲的勝利。
毋庸置疑,在尋找“最佳下一步”的問題序列中,機(jī)器的算法要比人類更強(qiáng)大、更快捷,這是深度學(xué)習(xí)具有的獨特優(yōu)勢,因此,計算機(jī)在這個算法程序的控制下戰(zhàn)勝人類是必然。但是,這里需要引起注意的是:人類對于深度學(xué)習(xí)這一算法真的做到理解其工作原理了嗎?實際情況并非如此。美國計算機(jī)科學(xué)家、哲學(xué)家朱迪亞·珀爾(Judea Pearl)引出了另一個難題:即使是AlphaGo的程序編寫者也不能解釋為什么這個程序可以把下圍棋這個任務(wù)指令執(zhí)行得這么好,換句話說,這個程序的內(nèi)部運(yùn)行機(jī)制并不明確,“我們對深度學(xué)習(xí)的理解完全是經(jīng)驗主義的,沒有任何保證”[16]333。
這里珀爾預(yù)測到,也許有人會說,我們并不真正需要透明,畢竟我們也不太明白人腦是如何工作的,但它卻可以靈活運(yùn)行,為什么不可以在不了解工作原理的情況下利用深度學(xué)習(xí)創(chuàng)造出新的智能呢?珀爾將這類人稱為“將就派”,而把追求準(zhǔn)確性、透明性的一類人(包括他自己)稱作是“講究派”,并通過一個生活場景案例來說明有意義的溝通的重要性:假設(shè)珀爾在睡覺,此時他的機(jī)器人準(zhǔn)備打掃衛(wèi)生,于是開啟了吸塵器,結(jié)果把熟睡的珀爾吵醒了,于是珀爾很生氣并向機(jī)器人發(fā)出一條指令:“你不該吵醒我!”[16]334
那么接下來的問題是,通過深度學(xué)習(xí)的計算機(jī)程序真的可以做到完全理解“你不該吵醒我”這句簡單的指令里蘊(yùn)含的豐富內(nèi)涵嗎?機(jī)器人能否明白它的主人的意思是此時打開吸塵器是不合適的,而不是讓它永遠(yuǎn)不要打開吸塵器?機(jī)器人能否準(zhǔn)確地判斷什么時間打開吸塵器最合適?珀爾對此表示懷疑。按照珀爾的觀點,如果一臺機(jī)器的內(nèi)部運(yùn)行程序無法做到準(zhǔn)確性、透明性,就不可能產(chǎn)生新的智能,奇點也就不會出現(xiàn)。
珀爾提出的這個理論可以用柏拉圖的“洞穴之喻”來做一個類比的解釋。在這個比喻中,深度學(xué)習(xí)的程序目標(biāo)是準(zhǔn)確預(yù)測墻壁上那些不斷出現(xiàn)的影像動作、形狀以及出現(xiàn)的時間,如果單就這一點來說,或許它可以做到很出色,但珀爾提出的問題則是:這個系統(tǒng)實際上無法理解墻壁上出現(xiàn)的那些影像只是篝火后面的人和物體的投影。換言之,真正的思維機(jī)器必須具備這種“理解能力”。
珀爾進(jìn)一步指出,所謂“理解能力”指的是機(jī)器可以在行動之前進(jìn)行自我思考,通過因果推理和概率計算,然后選擇一個最佳行為。例如,機(jī)器在行動之前可以這樣思考:我的行為A=a1,產(chǎn)生的結(jié)果是B=b1;如果換一種行為,如A=a2,那么,產(chǎn)生的結(jié)果就是B=b2,而第二種行為產(chǎn)生的結(jié)果更好,于是機(jī)器最終選擇行為a2。也就是說,機(jī)器可以通過深度學(xué)習(xí)得到不同事件發(fā)生的概率,并且具有自由意志進(jìn)行決策執(zhí)行。然而,這里面臨的一個問題是:如果機(jī)器人只會按照存儲在程序中的指令執(zhí)行操作,那么,它又該如何擁有自由意志呢?
然而,人工智能領(lǐng)域的樂觀主義代表佩德羅·多明戈斯(Pedro Domingos)卻認(rèn)為,計算機(jī)可以通過學(xué)習(xí)一種終極算法而最終實現(xiàn)超越人類。那么,究竟什么才是終極算法呢?他給出的答案是:進(jìn)化的、連接主義的、符號的、貝葉斯的和類比的算法,并指出真正讓算法發(fā)揮作用的基礎(chǔ)則是對數(shù)據(jù)的處理,他認(rèn)為“數(shù)據(jù)猶如新型石油”[17],可以讓系統(tǒng)在智能的道路上越走越遠(yuǎn)。但是,多明戈斯并沒有說明這些算法是如何整合在一起而成為終極算法,于是引來了很多質(zhì)疑的聲音,“在每一個單獨領(lǐng)域都有可能超越人類,不一定會在整體全面超越人類。”[18]
可見,在奇點到來之前,人工智能領(lǐng)域還有很多難題和挑戰(zhàn)需要攻克:如何將計算機(jī)內(nèi)部的程序算法透明化、準(zhǔn)確化?如何讓計算機(jī)的符號語言與人類的自然語言無縫對接,并執(zhí)行和人類行為一樣的因果推理?如何讓計算機(jī)獲得自由意志,進(jìn)行自由決策行為?如何將計算機(jī)內(nèi)部的各類單一算法整合成終極算法。
透過圖靈測試以及人工智能發(fā)展道路上的批評派與樂觀派對比可以得出,圖靈將人類智能的本質(zhì)歸結(jié)為計算的觀點顯然是不恰當(dāng)?shù)?,人類豐富而復(fù)雜的智能行為以及無限多變的外部宇宙世界也不能完全被形式化、數(shù)字化,被機(jī)器完全復(fù)制和模仿,機(jī)器也不能做到完全理解人類的行為和外部宇宙世界。換言之,思維機(jī)器的建構(gòu)基礎(chǔ)和方法在技術(shù)和邏輯上還缺乏強(qiáng)有力的支撐,實現(xiàn)奇點的條件還需要重新審視。但即便如此,從另一個角度來說,通過人工智能領(lǐng)域不斷突破的現(xiàn)實技術(shù)成果,毋庸置疑的一點是,機(jī)器已經(jīng)可以在某些單一領(lǐng)域內(nèi)憑借算法程序進(jìn)行深度學(xué)習(xí),并且出色地完成人類的指令任務(wù),即實現(xiàn)弱人工智能。然而,未來想要制造出更高智能水平的思維機(jī)器,實現(xiàn)強(qiáng)人工智能,一方面要解決當(dāng)前存在的技術(shù)限制和倫理限制等問題,另一方面還需要攻克很多尚未明朗的挑戰(zhàn)和難題。因此,奇點時代可能在短暫的時間還無法到來,人工智能領(lǐng)域還有很長的路要走。