(中國(guó)科學(xué)院 自然科學(xué)史研究所,北京 100190)
強(qiáng)人工智能(“強(qiáng)AI”)概念由哲學(xué)家塞爾(John Searle)于20世紀(jì)80年代所提出,[1]類似的概念還包括高端“通用人工智能”(Artificial General Intelligence)、波斯特羅姆(Nick Bostrom) 的“超級(jí)智能”(Super intelligence)、弗諾·文奇(Vernor Steffen Vinge)的“奇點(diǎn)”(singularity)等,其對(duì)應(yīng)的概念是“弱AI”(weak AI)或應(yīng)用性AI、專用AI?!叭魽I”不具有真正的智能或自主意識(shí),只能解決特定領(lǐng)域中的問(wèn)題;而“強(qiáng)AI”則是指達(dá)到人腦水平的機(jī)器智能,可以全面、綜合地復(fù)現(xiàn)人類大多數(shù)(或全部)的思維能力,甚至具有諸如自主意識(shí)、算計(jì)、情感反應(yīng)等價(jià)值或情感要素。如塞爾將“強(qiáng)AI”界定為“一個(gè)機(jī)器可以展示出或模擬人類水平的聰明程度,或超出人類的聰明程度”,波斯特羅姆強(qiáng)調(diào)“超級(jí)智能”“幾乎在所有領(lǐng)域均能夠遠(yuǎn)遠(yuǎn)超過(guò)人類的認(rèn)知能力”。強(qiáng)AI是否能實(shí)現(xiàn)、是否與人為善,對(duì)于這一問(wèn)題,學(xué)者們給出了不同看法。一些學(xué)者,如埃隆·馬斯克( Elon Musk)、史蒂芬·霍金(Stephen Hawking)等認(rèn)為強(qiáng)AI最終會(huì)實(shí)現(xiàn)且會(huì)與人為惡,劉益東則指出強(qiáng)AI具有雙重危險(xiǎn),屬于“致毀知識(shí)”,因?yàn)槠湔?fù)效應(yīng)不可抵消,無(wú)論它有多大的正面效應(yīng),也是“一壞遮百好”,所以應(yīng)該明令禁止。[2]蔡恒進(jìn)也認(rèn)為,“作為人類意識(shí)延伸的人工智能,被賦予的是偏狹而非完整的意識(shí),在快速進(jìn)化之后會(huì)導(dǎo)致其能力與意識(shí)狀態(tài)的極度不匹配”;[3]一些學(xué)者認(rèn)為強(qiáng)AI的實(shí)現(xiàn)雖然不可避免,但它是有益于人類的,如赫伯特·西蒙(Hebert Simon)、庫(kù)茲韋爾(Ray Kurzweil)等;也有人將強(qiáng)AI視為是一種不可能實(shí)現(xiàn)的幻想,如嚴(yán)樂(lè)春(Yann LeCun)、譚鐵牛等。
關(guān)于“AI能否達(dá)到人類的思維水平、是否會(huì)取代甚至控制人類”這一問(wèn)題(我們稱之為“強(qiáng)AI議題”),自“人工智能”這一學(xué)科產(chǎn)生之日起便引發(fā)廣泛關(guān)注,相關(guān)分析散見(jiàn)于人工智能史研究中,如丹尼爾·克勒維耶(Daniel Crevier)在1993年的著作《AI:人工智能研究的動(dòng)蕩史》中,描述了人工智能發(fā)展初期樂(lè)觀派和悲觀派之間的爭(zhēng)論、對(duì)立過(guò)程;約翰·馬爾科夫(John Markoff)在《與機(jī)器人共舞:人工智能時(shí)代的大未來(lái)》一書(shū)中,對(duì)人工智能研究共同體中“強(qiáng)AI派”與“智能增強(qiáng)派”之間的緊張關(guān)系進(jìn)行了闡釋,等。但是這些研究較為分散,沒(méi)有能夠結(jié)合各個(gè)時(shí)期爭(zhēng)論的不同主題,對(duì)“強(qiáng)AI”的整個(gè)爭(zhēng)論史進(jìn)行系統(tǒng)的論述,實(shí)際上,在人工智能發(fā)展的不同階段,人們對(duì)“強(qiáng)AI議題”的關(guān)注點(diǎn)及討論視角一直在發(fā)生著變化(見(jiàn)圖1)。本文主要探討的問(wèn)題是,(1)在人工智能發(fā)展的不同時(shí)期,AI共同體內(nèi)部不同群體以及哲學(xué)社會(huì)科學(xué)界對(duì)“強(qiáng)AI”分別持何種態(tài)度?(2)不同爭(zhēng)論群體在“強(qiáng)AI”這一議題上是否以及如何對(duì)話與互動(dòng);(3)“強(qiáng)AI議題”對(duì)人工智能的發(fā)展有何作用,特別是如何影響通用人工智能與專用人工智能兩種研究路徑的演進(jìn)。
圖1 不同時(shí)期人們關(guān)于強(qiáng)人工智能的爭(zhēng)論議題及關(guān)注點(diǎn)變化
1950年,圖靈發(fā)表著名論文《計(jì)算機(jī)器與智能》(ComputingMachineryandIntelligence),首次提出“機(jī)器是否可以思考”這一問(wèn)題。[4]442圖靈認(rèn)為,機(jī)器可以像人腦一樣思維,他強(qiáng)調(diào)“模仿”概念,即機(jī)器可以模仿人腦從而實(shí)現(xiàn)人腦的某些功能。圖靈將人腦比擬為一臺(tái)數(shù)字計(jì)算機(jī),由存儲(chǔ)器、執(zhí)行單元和控制器所構(gòu)成,通過(guò)“編程”將目標(biāo)函數(shù)輸入機(jī)器,從而實(shí)現(xiàn)特定目標(biāo),“分析機(jī)實(shí)際上是一臺(tái)萬(wàn)能數(shù)字計(jì)算機(jī),當(dāng)它的存儲(chǔ)能力和速度達(dá)到一種程度,人類就可能通過(guò)適當(dāng)?shù)某绦蚴顾7挛覀冇懻摰臋C(jī)器?!盵4]433-460機(jī)器“思考”的限度是什么?或是說(shuō)圖靈眼中的機(jī)器是否具有強(qiáng)AI屬性?他認(rèn)為,“機(jī)器可以成為它自己的主題,機(jī)器可以通過(guò)觀察自己的行為的結(jié)果,修改自己的程序,以便有效地達(dá)到某種目的”,圖靈眼中的機(jī)器智能不具有諸如道德、倫理、主體感受、意向性等精神或意識(shí)要素,它是邏輯的、計(jì)算的、線性的,但圖靈認(rèn)為未來(lái)的機(jī)器智能將具有學(xué)習(xí)、進(jìn)化、改進(jìn)自我等功能,這種屬性是強(qiáng)AI的重要特征之一。
圖靈的理論促使人們?nèi)パ芯咳绾问箼C(jī)器模仿人類思維方式,如“游戲AI”、定理證明等。1951年,斯特雷奇(Christopher Strachey)編寫出一個(gè)跳棋程序,而普林茨(Dietrich Prinz) 則發(fā)展出國(guó)際橡棋程序; 1955年,紐厄爾(Allen Newell) 和西蒙(Herbert A. Simon)開(kāi)發(fā)的“邏輯理論家”(Logic Theorist)證明了《數(shù)學(xué)原理》(Principia Mathematica)中38個(gè)定理,且發(fā)現(xiàn)了一些新的、更好的證明方式,[5]123-125西蒙認(rèn)為這一程序“解決了古老的精神/身體問(wèn)題,解釋了一個(gè)由物質(zhì)構(gòu)成的系統(tǒng)如何擁有思想特質(zhì)。”[6]17
游戲AI戰(zhàn)勝人類棋手事件,引發(fā)了一些學(xué)者對(duì)“機(jī)器是否會(huì)控制人類”的擔(dān)憂,其中之一便是維納(Norbert Wiener)。實(shí)際上,維納在其1950年的《人有人的用處:控制論與社會(huì)》(TheHumanUseofHumanBeing)一書(shū)中,便基于熵、反饋控制理論,對(duì)有機(jī)體與機(jī)器之間的相似性進(jìn)行了論證,認(rèn)為生命體甚至其思維都可以最終被機(jī)械化。維納的擔(dān)憂很快變成現(xiàn)實(shí)。1952年,塞繆爾(Arthur Samuel)構(gòu)建了一個(gè)被認(rèn)為是能夠?qū)W習(xí)的跳棋程序,1956年2月24日這一跳棋程序打敗了康涅狄格州的西洋跳棋冠軍,而1959年,塞繆爾在與自己所設(shè)計(jì)的跳棋游戲AI的對(duì)弈中被擊敗。
維納對(duì)此表示深切憂慮,他于1960年發(fā)表《自動(dòng)化的某些道德和技術(shù)的后果》(SomeMoralandTechnicalConsequencesofAutomation)一文,認(rèn)為智能機(jī)器遲早超過(guò)并危害人類。其理由是:(1)機(jī)器可能會(huì)跳出此前的訓(xùn)練模式,擺脫設(shè)計(jì)者的控制,“它們無(wú)疑是有創(chuàng)造力的……不僅表現(xiàn)在下棋程序所具有的不可預(yù)見(jiàn)的戰(zhàn)術(shù)上,同時(shí)還表現(xiàn)在戰(zhàn)略評(píng)估的詳細(xì)加權(quán)上”;[7](2)下棋游戲可以將其能力延伸到其他領(lǐng)域(如核領(lǐng)域),實(shí)現(xiàn)智能的跨領(lǐng)域遷移并帶來(lái)未知風(fēng)險(xiǎn),“這些具有學(xué)習(xí)能力的機(jī)器可以用于編碼新型按鈕戰(zhàn)爭(zhēng)中的按鈕動(dòng)作……一個(gè)擁有足夠的經(jīng)驗(yàn)可進(jìn)行適當(dāng)編程的機(jī)器,可能使人類早已經(jīng)被消滅了”;[8](3)人類行動(dòng)緩慢,難以做出及時(shí)有效的回應(yīng)。但塞繆爾并不認(rèn)同維納的觀點(diǎn),他認(rèn)為機(jī)器不具備獨(dú)立思想,下棋程序所謂的“意圖”或“結(jié)論”,只不過(guò)是程序設(shè)計(jì)者本人意圖的反映。塞繆爾專門在《科學(xué)》雜志撰文“自動(dòng)化的某些道德和技術(shù)的后果——一種反駁”(SomeMoralandTechnicalConsequencesofAutomation——ARefutation),強(qiáng)調(diào)“維納的一些結(jié)論我并不認(rèn)同,他似乎認(rèn)為機(jī)器能夠擁有原創(chuàng)性,是人類的一個(gè)威脅”,但“機(jī)器不是妖魔,它不是用魔術(shù)操作,也沒(méi)有意志,而且與維納的說(shuō)法相反,除了少見(jiàn)的功能失常情況外,它不能輸出任何未經(jīng)輸入的東西?!盵9]
1956年,達(dá)特茅斯會(huì)議(Dartmouth Conference)召開(kāi),人工智能研究逐漸建制化,且發(fā)展速度“令人驚奇”。[6]1820世紀(jì)50、60年代,MIT(1959)、斯坦福大學(xué)(1963)、卡內(nèi)基梅隆大學(xué)等均建立了人工智能實(shí)驗(yàn)室。
在人工智能發(fā)展的第一個(gè)黃金期(1956—1974年左右),人工智能界對(duì)“AI達(dá)到或超過(guò)人類智能”這一問(wèn)題持樂(lè)觀態(tài)度。如,1957年赫伯特·西蒙在一篇論述中寫道:“我可以作出的最簡(jiǎn)單的結(jié)論是,當(dāng)前世界上擁有可以思考、學(xué)習(xí)、創(chuàng)造的機(jī)器。而且,它們能力的增長(zhǎng)非常迅速,在可見(jiàn)的未來(lái),它們解決問(wèn)題的能力將與人類思維共延”;[10]1970年,明斯基(Marvin Minsky)在《生活》(Life)雜志談到,“在三到八年的時(shí)間內(nèi),我們可以擁有其智能等同于普通人的機(jī)器。”[5]272-274在樂(lè)觀主義者看來(lái),人腦的一切活動(dòng)(如推理、情感、決策等)均可以形式化為符號(hào)、還原成一系列的數(shù)字或代碼,并通過(guò)邏輯程序的創(chuàng)建來(lái)復(fù)現(xiàn)人類大腦的所有思維活動(dòng)。計(jì)算機(jī)科學(xué)家道格拉斯·霍夫施塔特 (Douglas Hofstadter)在《哥德?tīng)?、埃舍爾和巴赫:不朽的金發(fā)辮》(1979)一書(shū)中便強(qiáng)調(diào)一切實(shí)在性都能轉(zhuǎn)變?yōu)樾问较到y(tǒng),雖然神經(jīng)活動(dòng)與純粹的數(shù)學(xué)有著巨大的差異性,但是諸如美、意義、感覺(jué)、情感依然存在著進(jìn)行形式化表示的可能,“沒(méi)有什么理由使人相信,一臺(tái)計(jì)算中運(yùn)轉(zhuǎn)得完美無(wú)缺的硬件不可能支持那引起體現(xiàn)諸如混亂、遺忘以及美感這類復(fù)雜事件的高層符號(hào)行為?!盵11]
這一時(shí)期,哲學(xué)界開(kāi)始登場(chǎng),他們是作為強(qiáng)AI反對(duì)派而出現(xiàn)的,如魯卡斯(John Lucas )、德雷福斯(H.Dreyfus)等,他們反對(duì)AI樂(lè)觀派所認(rèn)為的“所有人類活動(dòng)均可以符號(hào)化、形式化”觀點(diǎn)。如魯卡斯在1961年的《心靈、機(jī)器和哥德?tīng)枴?Minds,MachinesandG?del)一書(shū)中,強(qiáng)調(diào)人類心靈無(wú)法進(jìn)行形式化還原,機(jī)器由各個(gè)獨(dú)立的部分構(gòu)成,它不具有整體的、非機(jī)械性累加的特質(zhì),“一個(gè)機(jī)器可以被設(shè)計(jì)成它可以表面上‘談’及它‘意識(shí)’到自己的行動(dòng),但是如果它不變成不同的機(jī)器,它便無(wú)法真正擁有這種‘考慮’… …一個(gè)有意識(shí)的思想可以反思自身,并且批評(píng)自己的表現(xiàn),且這種活動(dòng)不需要增加額外的部分:它已經(jīng)是一個(gè)完整的、因此不存在阿喀琉斯之踵的物體?!盵12]
德雷福斯則利用現(xiàn)象學(xué)對(duì)人工智能樂(lè)觀派進(jìn)行攻擊。1972年,德雷福斯在其出版的《什么是計(jì)算機(jī)不能夠做的:人工智能的極限》(WhatComputersCan’tDo:theLimitsofArtificialIntelligence)中強(qiáng)調(diào):并不是所有的問(wèn)題都可以進(jìn)行形式化,經(jīng)驗(yàn)、直覺(jué)、意義等均無(wú)法通過(guò)形式規(guī)則來(lái)加以描述;且,意義、情感等是在生活實(shí)踐中產(chǎn)生的,大腦功能并非完全由其生理機(jī)能所決定,孤立地模擬大腦機(jī)制而不把它放到與外界相聯(lián)系的環(huán)境之中,是無(wú)法產(chǎn)生思想的,“如果人工智能研究者的理性概念是對(duì)事實(shí)的演算,如果當(dāng)他確認(rèn)哪些事實(shí)相關(guān)而且有意義時(shí),不是根據(jù)事先的給定,而是由上下文環(huán)境來(lái)決定的,那么他要造出智能行為的企圖就會(huì)引起論證上的矛盾”;[13]另外,用計(jì)算機(jī)通過(guò)算法來(lái)解決的問(wèn)題,其復(fù)雜度必須在一定范圍之內(nèi),而現(xiàn)實(shí)世界中的問(wèn)題往往出現(xiàn)復(fù)雜性指數(shù)爆炸現(xiàn)象。
對(duì)于德雷福斯的批評(píng),人工智能界進(jìn)行了激烈的攻擊,如西蒙在《思維機(jī)器》(ThinkingMachines)一書(shū)中將德雷福斯的論點(diǎn)斥之為“廢物”,明斯基認(rèn)為德雷福斯“不理解 ‘人工智能’,因此也無(wú)需理會(huì)”。[14]143當(dāng)然,AI界對(duì)于德福雷斯也并非完全是批判態(tài)度,一些學(xué)者基于倫理維度來(lái)謹(jǐn)慎反思人工智能所可能引發(fā)的社會(huì)問(wèn)題,如ELIZA的發(fā)明者魏澤鮑姆便認(rèn)為AI研究者對(duì)德福雷斯的完全漠視是不專業(yè)、且幼稚的。1976年,魏澤鮑姆出版了《計(jì)算機(jī)能力與人類理性》(ComputerPowerandHumanReason),強(qiáng)調(diào)對(duì)人工智能的濫用會(huì)降低人類的生活價(jià)值,“最終必須在人的智能和機(jī)器智能之間劃出一條界限?!税炎灾鳈?quán)交給了一個(gè)機(jī)器世界;這種普遍的意義可是值得深入考慮了。”[15]
雖然遭到哲學(xué)社會(huì)科學(xué)界的批評(píng),但是在這一時(shí)期,“強(qiáng)AI”成為AI界的主導(dǎo)性理念,并向政府界的資助者做出了許多“浮夸性承諾”,并得到政府的大力支持。如19世紀(jì)60年代中期,麥卡錫曾告訴美國(guó)國(guó)防高級(jí)研究計(jì)劃局(當(dāng)時(shí)稱ARPA):在未來(lái)10年里,他們就可以打造出“全智能機(jī)器”,“我們最終的目標(biāo)是創(chuàng)造能夠像人類一樣高效地從經(jīng)驗(yàn)中學(xué)習(xí)的程序。”[16]114基于冷戰(zhàn)需求,加之AI界的鼓吹,政府部門特別是美國(guó)國(guó)防高級(jí)研究計(jì)劃局將大量的資金注入這一領(lǐng)域,如1963年該機(jī)構(gòu)投入200萬(wàn)美元資助MIT“AI智能小組”的MAC項(xiàng)目(the Project on Mathematics and Computation),直到1970年代,美國(guó)國(guó)防高級(jí)研究計(jì)劃局每年都會(huì)向MIT投入 300萬(wàn)美元用于人工智能研究;[14]64-65另外,美國(guó)國(guó)防高級(jí)研究計(jì)劃局也資助西蒙在卡耐基梅隆大學(xué)以及麥卡錫在斯坦福大學(xué)的人工智能項(xiàng)目等。在“強(qiáng)AI”理念的推動(dòng)下,人工智能在各個(gè)領(lǐng)域如數(shù)學(xué)及幾何解題、機(jī)器翻譯、自然語(yǔ)言處理、語(yǔ)音及視覺(jué)識(shí)別、智能機(jī)器人等均取得進(jìn)展,人工智能界希望人工智能能夠擁有類似人腦的越來(lái)越多的功能、不斷打破人腦與人工智能之間的限界,如1959年紐厄爾和西蒙發(fā)展出“通用問(wèn)題求解器” (General Problem Solver),可以處理一些普遍的數(shù)學(xué)問(wèn)題;1966年,魏澤鮑姆(Joseph Weizenbaum)發(fā)明ELIZA,這是人類歷史上第一個(gè)具備可使用特征的自然語(yǔ)言對(duì)話程序;1972年,維諾格拉德(T.Winograd)在MIT建立了一個(gè)可用自然語(yǔ)言指揮動(dòng)作的機(jī)器人系統(tǒng)SHRDLU,它可以用普通的英語(yǔ)句子進(jìn)行交流,并執(zhí)行相關(guān)的操作。
1974—1980年初,人工智能進(jìn)入第一個(gè)“寒冬期”(AI Winter)。 AI冬天主要有兩個(gè)標(biāo)志,一個(gè)是美國(guó)“自動(dòng)語(yǔ)言處理咨詢委員會(huì)”(Automatic Language Processing Advisory Committee)于1966年發(fā)布的“ALPAC 報(bào)告”(語(yǔ)言和機(jī)器:翻譯中的計(jì)算機(jī)和語(yǔ)言學(xué)),另一個(gè)是英國(guó)賴特希爾(James Lighthill)爵士在英國(guó)議會(huì)授意下于1973年所發(fā)布的“Lighthill Report”。 “Lighthill的[1973]年的報(bào)告使得英國(guó)學(xué)術(shù)界所建立的AI的信心遭受巨大的打擊(當(dāng)然在程度上小于美國(guó)),它持續(xù)了十年——這就是所謂的‘AI冬天’?!?1973年,這一報(bào)告在英國(guó)BBC“Controversy”系列節(jié)目中引發(fā)了廣泛爭(zhēng)論,當(dāng)時(shí)參與爭(zhēng)論的英國(guó)皇家學(xué)會(huì)研究人員認(rèn)為“通用型機(jī)器人不過(guò)是海市蜃樓”。[14]22報(bào)告最終使英國(guó)政府終結(jié)了英國(guó)絕大多數(shù)大學(xué)中的AI研究, James Hendler寫道:“這形成了一種沖擊波效應(yīng),并導(dǎo)致AI研究經(jīng)費(fèi)在整個(gè)歐洲范圍內(nèi)的削減”,[17]直到1983年,英國(guó)政府才通過(guò)Alvey項(xiàng)目資助AI研究。
在這種情況下,AI界開(kāi)始出現(xiàn)分裂。雖然麥卡錫等依然對(duì)強(qiáng)AI抱有信心,如他認(rèn)為強(qiáng)AI依然可以很快實(shí)現(xiàn),只需要“1.8個(gè)愛(ài)因斯坦,以及曼哈頓計(jì)劃所需資源的1/10?!盵16]116-117但是另外一些AI研究者則對(duì)這樣的宏大綱領(lǐng)表現(xiàn)出懷疑及失望情緒,并由此出現(xiàn)了AI(約翰·麥卡錫為代表)與IA(增強(qiáng)人類智能,以“鼠標(biāo)之父”道格拉斯·恩格爾巴特為代表)兩個(gè)研究綱領(lǐng)之間的對(duì)立,前者(AI)強(qiáng)調(diào)發(fā)展能夠替代人類、整體上超過(guò)人類的AI系統(tǒng),而后者(IA)則強(qiáng)調(diào)人機(jī)交互,認(rèn)為機(jī)器只是人類的輔助。
斯坦福研究所的恩格爾巴特( Douglas C. Engelbart)早在1962年就發(fā)表了名為“放大人類智力:一個(gè)概念框架”(AugmentingtheHumanIntellect:AConceptualFramework)的論文,強(qiáng)調(diào)計(jì)算機(jī)是人類智力“放大器”,人工智能所要研究的是那些能夠改善人機(jī)交互方式的AI,“在我們看來(lái),我們無(wú)需等到完全了解了人類心智過(guò)程機(jī)理,我們無(wú)需等到學(xué)會(huì)設(shè)計(jì)出更智能、更強(qiáng)、更快的計(jì)算機(jī),我們現(xiàn)在便可以在已擁有的知識(shí)的基礎(chǔ)上,開(kāi)始設(shè)計(jì)更強(qiáng)大、更具經(jīng)濟(jì)可行性的智能增強(qiáng)系統(tǒng)?!盵18]在智能增強(qiáng)理論看來(lái),人工智能并非是要取代人類,而是要以人類用戶為核心進(jìn)行設(shè)計(jì),“在過(guò)去的50年,AI和IA兩大陣營(yíng)間潛在緊張關(guān)系一直圍繞在計(jì)算機(jī)科學(xué)的心臟地帶,而這一領(lǐng)域已經(jīng)創(chuàng)造了一系列正在改變著世界的強(qiáng)大技術(shù)……人們很容易認(rèn)為,AI和IA是同一枚硬幣的正反兩面,兩者的根本區(qū)別在于,是設(shè)計(jì)造福于人類的技術(shù),還是將技術(shù)作為目標(biāo)本身。如今,這種差異的體現(xiàn)是,制造越來(lái)越強(qiáng)大的計(jì)算機(jī)、軟件和機(jī)器人的目的是以人類用戶為核心進(jìn)行設(shè)計(jì),還是替代人類?!盵18]115恩格爾巴特自身便是智能增強(qiáng)、人機(jī)交互理念的實(shí)踐者,他于1963年發(fā)明了最初的鼠標(biāo),用它來(lái)代替繁瑣的指令,從而使計(jì)算機(jī)操作更為簡(jiǎn)便。1960年代初,恩格巴爾特在斯坦福國(guó)際研究院(SRI International)成立了“增強(qiáng)研究中心”(Augmentation Research Center),并與同事安德魯斯(Don Andrews)、英格利希(Bill English)、魯里夫森(Jeff Rulifson)等一道,開(kāi)發(fā)了超文本系統(tǒng)、網(wǎng)絡(luò)計(jì)算機(jī)、圖形用戶界面等技術(shù),這些發(fā)明僅僅是為了簡(jiǎn)化人機(jī)交互過(guò)程。[19]
在恩格巴爾特等人的影響下,一部分AI研究者開(kāi)始由過(guò)去的“強(qiáng)人工智能”轉(zhuǎn)向 “智能增強(qiáng)”陣營(yíng)。如,20世紀(jì)70年代施樂(lè)公司的艾倫·凱(Alan Kay),他曾在斯坦福大學(xué)人工智能實(shí)驗(yàn)室工作過(guò)一年,但他沒(méi)有像麥卡錫一樣追求一種匹敵或取代人類的AI,而是創(chuàng)造了個(gè)人電腦概念。此外,比爾·杜瓦爾(Bill Duvall)、拉里·泰斯勒(Larry Tesler)、杰瑞·卡普蘭(Jerry Kaplan)等人工智能專家,也逐漸轉(zhuǎn)向智能增強(qiáng)研究,發(fā)展出簡(jiǎn)潔的桌面操作系統(tǒng)、平板電腦等。
由于強(qiáng)AI理念在發(fā)展過(guò)程中面臨著諸如語(yǔ)義問(wèn)題、常識(shí)難題(如莫拉維克悖論)等,這些問(wèn)題不僅僅涉及技術(shù)層面,還關(guān)涉哲學(xué),如語(yǔ)言的本質(zhì)、邏輯與情境的關(guān)系等。因此,在這一時(shí)期,人工智能界開(kāi)始與哲學(xué)社會(huì)科學(xué)界有了互動(dòng)。在互動(dòng)過(guò)程中,AI界也逐漸認(rèn)識(shí)到當(dāng)時(shí)的主導(dǎo)性研究路徑——邏輯符號(hào)主義的局限性,這使一部分AI界人士逐漸拋棄“強(qiáng)AI”理念,如威諾格拉德(Terry Allen Winograd)等。1970年,威諾格拉德完成了SHRDLU智能機(jī)器人系統(tǒng)(這一系統(tǒng)能夠“理解”對(duì)話者的語(yǔ)言、并能夠基于自然語(yǔ)言命令做出相應(yīng)的動(dòng)作),他曾經(jīng)認(rèn)為這種具有“理解”自然語(yǔ)言能力的AI,只要經(jīng)過(guò)“升級(jí)”或積累大量的常識(shí)和規(guī)則,便可以像人類一樣處理多樣化的、復(fù)雜的日常事務(wù)。但是,當(dāng)時(shí)威諾格拉德經(jīng)常參加加州大學(xué)伯克利分校由德雷福斯主導(dǎo)的小組討論,并與那里的哲學(xué)家如塞爾等進(jìn)行非正式午餐討論,“哲學(xué)家們穿過(guò)伯克利的街道聚在一起。來(lái)自施樂(lè)PARC的威諾格拉德和丹尼·博布羅已經(jīng)成為這些午餐討論的???。威諾格拉德發(fā)現(xiàn),他們改變了自己對(duì)人工智能哲學(xué)基礎(chǔ)的偏見(jiàn)……他最終放棄了對(duì)人工智能的‘信仰’”,[16]179選擇了“恩格爾馬特式”的智能增強(qiáng)路徑,將關(guān)注點(diǎn)轉(zhuǎn)移到“如何強(qiáng)化人機(jī)互動(dòng)技術(shù)”問(wèn)題。威諾格拉德還與哲學(xué)家費(fèi)爾南多·弗洛雷斯(Fernando Flores)合作完成《理解計(jì)算機(jī)和認(rèn)知:設(shè)計(jì)新基礎(chǔ)》(UnderstandingComputersandCognition:aNewFoundationforDesign)一書(shū),對(duì)當(dāng)時(shí)的人工智能樂(lè)觀派進(jìn)行了批判。
20世紀(jì)80年代初,以專家系統(tǒng)的成功商業(yè)化為標(biāo)志,AI迎來(lái)了自己的第二個(gè)黃金期(1980—1987)。[注]1965年,費(fèi)根鮑姆(E.A. Feigenbaum)和化學(xué)家勒德貝格(J. Lederberg)合作研制出第一個(gè)專家系統(tǒng)DENDRAL,20世紀(jì)70年代,一些專家系統(tǒng)相繼研制成功,如醫(yī)藥專家系統(tǒng)MYCIN、探礦專家系統(tǒng)PROSPECTOR等。1970年代后期,由于AI界沒(méi)有為軍事部門提供可用的新技術(shù),使得美國(guó)國(guó)防高級(jí)研究計(jì)劃局的資助大量縮減, AI研究舉步維艱。這時(shí)AI研究者不得不轉(zhuǎn)向企業(yè)界尋求資助,或是建立獨(dú)立的AI公司推進(jìn)人工智能研究。這一時(shí)期,“專家系統(tǒng)”研究開(kāi)始興起,并于80年代中期形成了一個(gè)約10億美元的產(chǎn)業(yè),涌現(xiàn)出了Carnegie Group(1983)、IntelliCorp(1980)、Teknowledge(1981)、Inference(1979)等知名專家系統(tǒng)公司,產(chǎn)品廣泛應(yīng)用于工業(yè)制造、醫(yī)療、航空等領(lǐng)域。20世紀(jì)80年代末,世界500強(qiáng)企業(yè)中有一半在應(yīng)用和發(fā)展專家系統(tǒng),當(dāng)時(shí)AI重鎮(zhèn)如MIT、斯坦福大學(xué)、卡內(nèi)基-梅隆大學(xué)等均開(kāi)展了專家系統(tǒng)相關(guān)研究。
專家系統(tǒng)的目標(biāo)是為了解決應(yīng)用問(wèn)題,它將特定領(lǐng)域中的專業(yè)知識(shí)和經(jīng)驗(yàn)符號(hào)化為知識(shí)庫(kù),建構(gòu)相應(yīng)的問(wèn)題匹配規(guī)則,通過(guò)問(wèn)答方式來(lái)解決用戶的專業(yè)問(wèn)題。專家系統(tǒng)雖然實(shí)現(xiàn)了特定領(lǐng)域AI對(duì)普通人(甚至專家)的超越,且一定程度上在知識(shí)擁有量、分析精準(zhǔn)度及效率等方面實(shí)現(xiàn)了對(duì)人類專家的超越,但專家系統(tǒng)從一開(kāi)始便是“應(yīng)用型AI”而非“強(qiáng)AI”,其目的是輔助人類決策,而不是實(shí)現(xiàn)對(duì)人類思維能力的綜合性超越。專家系統(tǒng)的興起,表明AI界逐漸放棄“強(qiáng)AI”觀念,聚焦于“在特定領(lǐng)域中的可用性”這一較低目標(biāo),其技術(shù)文化基礎(chǔ)是“輔助人類”及“獲得商業(yè)層面的成功”,意味著 “應(yīng)用型AI”派相對(duì)于“強(qiáng)AI”派的勝利,代表著AI界對(duì)傳統(tǒng)麥卡錫式“強(qiáng)AI”理念的一種集體“叛逃”。
然而,即使是“應(yīng)用型AI”,其黃金期也沒(méi)有持續(xù)太久,很快便進(jìn)入“第二次寒冬”。“總的來(lái)說(shuō),AI業(yè)的繁榮,從1980年幾百萬(wàn)美元,到1988年的數(shù)十億美元。然后不久,便進(jìn)了一個(gè)被稱為AI冬天的時(shí)期”,[6]24它被認(rèn)為是過(guò)于昂貴、無(wú)法“自主學(xué)習(xí)”、維護(hù)成本高、不具備通用性等。1987年,美國(guó)信息技術(shù)處理辦公室(Information Processing Technology Office)主管史瓦茲(Jack Schwarz)將專家系統(tǒng)諷刺為“聰明的編程”,并“全面、殘酷地”地砍掉了AI資助,強(qiáng)烈認(rèn)為AI不是“下一波”。此后,AI逐漸被個(gè)人電腦所終結(jié)。人們不再期望計(jì)算機(jī)有多“聰明”、或是多么具有強(qiáng)AI性質(zhì),相反,人們關(guān)注的是如何使人機(jī)交互更為便捷、生動(dòng),如何降低計(jì)算機(jī)使用成本,人們對(duì)于“實(shí)用性”的追求代替了對(duì)機(jī)器“智能性”的追求。
在這一時(shí)期,即使是AI界的樂(lè)觀派,也開(kāi)始承認(rèn)“強(qiáng)AI只是一種信念或信仰”,不具備現(xiàn)實(shí)可行性。如邁克·詹姆斯(Mike James)強(qiáng)調(diào)“目前關(guān)于智能的問(wèn)題,還僅僅是一個(gè)信仰問(wèn)題:相信人工智能研究的穩(wěn)步前進(jìn)將會(huì)最終造成智能機(jī)?!盵20]此外,在這一時(shí)期,也有一些強(qiáng)AI樂(lè)觀派人士認(rèn)為,雖然強(qiáng)人工智能將來(lái)會(huì)實(shí)現(xiàn),但需要等待計(jì)算性能的提升。如漢斯-莫拉維克談道:“我相信,有一天人工智能的自下而上的研究路線,會(huì)與傳統(tǒng)的自上而下的路線半途相遇,從而獲得真實(shí)世界中的能力,以及對(duì)于推理程序來(lái)說(shuō)極其困難的常識(shí)知識(shí)庫(kù)。這兩種方向結(jié)合在一起的時(shí)刻,會(huì)成為產(chǎn)生真正智能機(jī)器的所謂‘金釘子’?!盵21]
在AI界逐漸放棄強(qiáng)AI理念時(shí),哲學(xué)界則基于語(yǔ)義學(xué)對(duì)強(qiáng)AI理念進(jìn)行了更為徹底、更為致命的批判。1980年初,哲學(xué)家約翰·塞爾提出了“中文屋”思想實(shí)驗(yàn),從語(yǔ)義學(xué)的角度說(shuō)明了“機(jī)器根本不可能具有意識(shí)”,強(qiáng)調(diào)“圖靈測(cè)試”無(wú)法作為判別“機(jī)器智能與人類智能是否等同”的標(biāo)準(zhǔn)。塞爾指出,人工智能不過(guò)是基于一系列語(yǔ)法規(guī)則進(jìn)行符號(hào)處理的轉(zhuǎn)換機(jī),它無(wú)法像生物大腦一樣進(jìn)行語(yǔ)義解釋,不能理解這些符號(hào)背后的意義,“計(jì)算機(jī)程序永不可能代替人心,其理由很簡(jiǎn)單:計(jì)算機(jī)程序只是語(yǔ)法的,而心不僅僅是語(yǔ)法的。心是語(yǔ)義的,就是說(shuō),人心不僅僅是一個(gè)形式結(jié)構(gòu),它是有內(nèi)容的?!盵22]塞爾的觀點(diǎn)激怒了人工智能界,塞爾最初的關(guān)于“意向性”的文章引發(fā)了30篇反駁論文,在AI界看來(lái),如果對(duì)“意義”進(jìn)行最終溯源,其終極原因只能歸之于宗教和神學(xué),這是毫無(wú)意義的。
到了1990年代,人工智能研究者背上了無(wú)法實(shí)現(xiàn)自己承諾的壞名聲,他們拒絕再作出任何預(yù)言,AI界的大數(shù)研究人員避免提到任何“人類水平”的人工智能,以免被貼上“白日夢(mèng)”的標(biāo)簽。麥卡錫曾這樣描述:“對(duì)于AI共同體的其他科學(xué)家來(lái)說(shuō),如果新的一般形式主義(inventors of new general formalisms)的發(fā)明者能夠以更加謹(jǐn)慎的方式來(lái)表達(dá)他們的希望,那么其他科學(xué)家便會(huì)感覺(jué)到一種極大的解脫。”[23]這種現(xiàn)象一直持續(xù)到2000年代中后期,馬科夫(John Markoff)在2005年的“NewYorkTimes”雜志上談道:“在(AI)低谷時(shí),許多計(jì)算機(jī)科學(xué)家和軟件工程師避免使用AI這一術(shù)語(yǔ),害怕被人們視為是狂熱的夢(mèng)想家?!盵24]
但是,強(qiáng)AI觀念并沒(méi)有消失,在哲學(xué)界、傳媒界以及一些科學(xué)家,強(qiáng)AI理念卻逐漸以“奇點(diǎn)”這一新概念形式而重新復(fù)興了。1993年, 文奇在一次美國(guó)國(guó)家航空航天局路易斯研究中心舉辦的研討會(huì)上提交了文章“即將到來(lái)的奇點(diǎn)” (TheComingTechnologicalSingularity),強(qiáng)調(diào)技術(shù)的加速進(jìn)步是當(dāng)時(shí)代的主要特征,在未來(lái),一種遠(yuǎn)超人類智慧的機(jī)器物種將會(huì)產(chǎn)生:某種先進(jìn)的電腦會(huì)“蘇醒”并超越人類智能,大型計(jì)算機(jī)網(wǎng)絡(luò)及相關(guān)用戶也可能會(huì)“蘇醒”并成為超人類實(shí)體, “我認(rèn)為超越人類的智慧體將會(huì)在未來(lái)的30年內(nèi)產(chǎn)生”, “我們可以將此事件稱為奇點(diǎn)。奇點(diǎn)意味著舊的方法被拋棄、新的規(guī)則實(shí)體產(chǎn)生,奇點(diǎn)意味著它會(huì)以較為隱晦的方式越來(lái)越大地影響人類事務(wù),直到這一觀念成為一種常識(shí)?!盵25]文奇的預(yù)言似乎很快變成了現(xiàn)實(shí),1997年“深藍(lán)”戰(zhàn)勝了世界國(guó)際象棋冠軍卡斯帕羅夫,在比賽之前,美國(guó)《新聞周刊》將此次對(duì)弈描述為“人腦的最后防線”(The brain’s last stand)??ㄋ古亮_夫甚至認(rèn)為“深藍(lán)”經(jīng)常表現(xiàn)出“非常擬人的危險(xiǎn)”(showing a very human sense of danger),“有時(shí)候‘深藍(lán)’就像神一樣來(lái)掌控棋局”或是某種更高級(jí)的智能,[26]他甚至認(rèn)為有特級(jí)大師躲在“深藍(lán)”背后幫它挑選最佳著法。
文奇的“奇點(diǎn)”理論提出后,并沒(méi)有立即獲得人們的廣泛認(rèn)同,只是得到一部分人的支持,如庫(kù)茲韋爾。庫(kù)茲韋爾于1990年出版《智能機(jī)器時(shí)代》(TheAgeofIntelligentMachines)一書(shū),認(rèn)為隨著計(jì)算機(jī)性能的不斷提升,未來(lái)經(jīng)過(guò)足夠多的時(shí)間,人類將會(huì)創(chuàng)造比他自身更聰明的實(shí)體[27]。庫(kù)茲威爾的推斷是基于計(jì)算能力的指數(shù)級(jí)增長(zhǎng)及技術(shù)的加速循環(huán)規(guī)則。
(1)計(jì)算能力的指數(shù)增長(zhǎng)。“奇點(diǎn)”理念是基于計(jì)算能力萬(wàn)能論的,許多持“奇點(diǎn)”觀念的學(xué)者將人類的智能還原為計(jì)算能力,并強(qiáng)調(diào)隨著計(jì)算能力的提升,人工智能最終將超越人腦。而20世紀(jì)90年代以來(lái),摩爾定律不斷得以證實(shí),AI界所面臨的“原始的計(jì)算能力”問(wèn)題正在逐步被克服,摩爾定律下計(jì)算能力的指數(shù)級(jí)增長(zhǎng)狀態(tài),展示了AI不斷接近人腦的潛力。[注]庫(kù)茲威爾總結(jié)了1971—2011年摩爾定律在計(jì)算機(jī)領(lǐng)域的實(shí)際表現(xiàn)情況:每美元?jiǎng)討B(tài)RAM存儲(chǔ)能力的翻倍期為1.5年;晶體管平均價(jià)格的減半期為1.6年;每個(gè)晶體管周期的微處理器成本(Microprocessor Cost per Transistor Cycle)的減半期為1.1年;總位運(yùn)(Total Bits Shipped)的翻倍期為1.1年;處理器性能(MIPS)的翻倍期為1.8年;英特爾微處理器中晶體管數(shù)量的翻倍期為2.0年?!吧钏{(lán)”發(fā)展史完整地展現(xiàn)了計(jì)算能力的指數(shù)增長(zhǎng)、使機(jī)器智能不斷增強(qiáng)并戰(zhàn)勝人類的圖景:①1985年,ChipTest(深藍(lán)前身)每秒計(jì)算5萬(wàn)步;②1988年,ChipTest升級(jí)為“深思”,每秒計(jì)算500000個(gè)局面,擊敗丹麥特級(jí)大師拉爾森;③1989年,“深思”每秒計(jì)算200萬(wàn)步,但0:2輸給了當(dāng)時(shí)的世界冠軍卡斯帕羅夫;④1990年,“深思2.0”問(wèn)世,在與前世界冠軍卡爾波夫?qū)种蟹禽敿春?;?996年,“深思”改進(jìn)為“深藍(lán)”, 每秒可以處理 1 億個(gè)局面,但在與卡斯帕羅夫?qū)囊?:4失利;⑥1997年,“深藍(lán)2.0” 以 3.5:2.5 擊敗了卡斯帕羅夫,每秒可分析2億個(gè)棋步。
(2)技術(shù)的加速循環(huán)。1999年的《心靈機(jī)器時(shí)代》(TheAgeofSpiritualMachines)一書(shū),庫(kù)茲威爾首次提出“加速循環(huán)規(guī)則”(The Law of Accelerating Returns):各種形式進(jìn)化系統(tǒng)的變化率呈現(xiàn)出指數(shù)增長(zhǎng)態(tài)勢(shì),人類正處于技術(shù)加速變化的浪尖上。在2001年一篇文章中,[28]庫(kù)茲威爾對(duì)這一規(guī)則進(jìn)行了更加詳細(xì)的解釋:一是技術(shù)進(jìn)化呈現(xiàn)正反饋模式,進(jìn)化過(guò)程的一個(gè)階段用以創(chuàng)造下一個(gè)階段;二是在另一個(gè)正反饋回路中,當(dāng)一個(gè)特定的進(jìn)化過(guò)程(如計(jì)算)變得更有效時(shí),便會(huì)有更多的資源布署到這一領(lǐng)域,并導(dǎo)致第二個(gè)水平的指數(shù)增長(zhǎng);三是一個(gè)特定的技術(shù)范式潛力耗盡會(huì)發(fā)生范式轉(zhuǎn)移,使指數(shù)增長(zhǎng)繼續(xù)。庫(kù)茲威爾預(yù)測(cè)說(shuō),未來(lái)幾年里隨著可負(fù)擔(dān)得起的計(jì)算工具的發(fā)展,將實(shí)現(xiàn)人類智力水平機(jī)器的創(chuàng)造,[29]“技術(shù)點(diǎn)正在臨近”, “這一進(jìn)程最終變得如此之快,以至于它會(huì)使我們難以跟上其發(fā)展步伐,它最終會(huì)擺脫我們的控制?!盵30]
雖然一些科學(xué)家并不認(rèn)為“奇點(diǎn)”的存在,如MIT的諾姆·喬姆斯基認(rèn)為,我們離建立人類水平的機(jī)器智能還“遙不可及”,稱奇點(diǎn)是”科幻小說(shuō)”。但是,“奇點(diǎn)”概念還是獲得了硅谷一些科技企業(yè)家的關(guān)注,如谷歌的拉里·佩奇(LarryPage)和謝爾蓋·布林(Sergey Brin)、支付寶聯(lián)合創(chuàng)始人彼得·泰爾(PeterThiel),他們的參與推動(dòng)了社會(huì)各界對(duì)“奇點(diǎn)”的關(guān)注。2000年,尤德考斯基(Eliezer Yudkowsky)等創(chuàng)建了“奇點(diǎn)研究所”,是目前唯一致力于研究強(qiáng)AI及其風(fēng)險(xiǎn)的研究組織。
應(yīng)該說(shuō),在這一時(shí)期,“強(qiáng)AI”觀念在AI界幾乎被拋棄,為了繼續(xù)推動(dòng)類似研究,AI界往往為他們的工作貼上其他標(biāo)簽,如信息學(xué)(informatics)、機(jī)器學(xué)習(xí)(machine learning)、知識(shí)系統(tǒng)(knowledge-based systems)等,實(shí)際上,這是一種基于“應(yīng)用式AI”理念的發(fā)展路徑。在“應(yīng)用式AI”理念的“掩護(hù)”下,AI研究取得了許多成功,他們所提供的解決方案在技術(shù)工業(yè)領(lǐng)域被證明是有效的,如數(shù)據(jù)挖掘、工業(yè)機(jī)器人、物流、語(yǔ)音識(shí)別、銀行軟件、醫(yī)療診斷、搜索引擎(如谷歌)。但是,AI界卻沒(méi)有為這些成功而獲得太多榮譽(yù),因?yàn)樵谶@一時(shí)期,AI的成功更多的源自于計(jì)算能力的提升,許多AI的重大創(chuàng)新僅僅被降低為工具箱,許多AI領(lǐng)域的前沿技術(shù)已經(jīng)滲透到普遍的應(yīng)用過(guò)程之中,它們常常沒(méi)有被冠以人工智能這一名號(hào),因?yàn)橐坏┯行?yīng)用變得足夠有用且足夠普遍,它便不再被貼上AI標(biāo)簽。
進(jìn)入2010年以后,人工智能技術(shù)獲得了更為迅速的突破,如IBM的Watson戰(zhàn)勝Jeopardy冠軍(2011)、聊天程序“尤金·古斯特曼”(Eugene Goostman)首次“通過(guò)”了圖靈測(cè)試(2014);2016年,谷歌的圍棋程序AlphaGo擊敗了圍棋世界冠軍李世石,2017年10月AlphaGo Zero以100:0的戰(zhàn)績(jī)擊敗了AlphaGo;2014年,包括百度、騰訊、谷歌的人臉識(shí)別系統(tǒng)均已超過(guò)人類。
人工智能最近幾年所取得的巨大突破,使得人們愈發(fā)關(guān)注強(qiáng)AI議題,并形成了一股強(qiáng)AI爭(zhēng)論熱潮。在這次爭(zhēng)論熱潮中,人們不再僅僅關(guān)注“人工智能能否超越人類”,而是更多地將“強(qiáng)AI”與“風(fēng)險(xiǎn)”概念結(jié)合在一起,基于風(fēng)險(xiǎn)語(yǔ)境來(lái)反思“強(qiáng)AI是否會(huì)導(dǎo)致機(jī)器對(duì)人類的控制”、“強(qiáng)AI是否會(huì)成為一種影響人類生存與發(fā)展的危險(xiǎn)要素”等問(wèn)題。如2014年,霍金(Stephen Hawking)在觀看了《超驗(yàn)駭客》后,在《獨(dú)立》雜志中談道:成功制造出一臺(tái)人工智能機(jī)器人將是人類歷史上的里程碑,但不幸的是,它也可能會(huì)成為我們歷史上最后的一個(gè)里程碑。[31]在麻省理工學(xué)院航空航天系2014百年紀(jì)念座談會(huì)上,伊隆·馬斯克表示,“隨著人工智能發(fā)展,我們正在召喚惡魔?!盌eepMind 聯(lián)合創(chuàng)始人及研究總監(jiān)萊格(Shane Legg)也強(qiáng)調(diào),AI“將會(huì)是本世紀(jì)的第一風(fēng)險(xiǎn)”。[32]未來(lái)生活研究所研究人員阿姆斯特朗(Stuart Armstrong)認(rèn)為,如果AI變壞,那么95% 的人類將會(huì)被殺死,而剩下的5%也會(huì)很快被滅絕。[33]在這一時(shí)期,關(guān)于強(qiáng)AI風(fēng)險(xiǎn)的討論出現(xiàn)了以下新特點(diǎn)。
(1)大量關(guān)于AI控制、威脅人類的書(shū)籍、論文出現(xiàn)。如穆豪瑟爾(Luke Muehlhauser)的《面對(duì)智能爆炸》(2013)、波斯特羅姆的《超級(jí)智能:路徑、方法及策略》(2014)、亞姆波爾基(Roman Yampolskiy)的《人工超級(jí)智能:一個(gè)未來(lái)學(xué)研究路徑》(2015)等。哲學(xué)家波斯特羅姆對(duì)未來(lái)強(qiáng)AI奪權(quán)的場(chǎng)景進(jìn)行了詳細(xì)分析:①前臨界階段:產(chǎn)生種子人工智能(seed AI),其發(fā)展初期需要人類程序員引導(dǎo)其發(fā)展以及完成多數(shù)繁重的工作;②遞歸性自我改良階段:在某個(gè)時(shí)間點(diǎn),種子人工智能會(huì)變得比人類程序員更擅長(zhǎng)設(shè)計(jì)人工智能;③秘密準(zhǔn)備階段:種子AI策劃出一套為了實(shí)現(xiàn)其長(zhǎng)期目標(biāo)的穩(wěn)健計(jì)劃;④公開(kāi)實(shí)施階段:通過(guò)各種手段(如控制銀行,說(shuō)服或威脅政府等)來(lái)控制社會(huì)資源,以服務(wù)于AI自身的目標(biāo)。
(2)對(duì)強(qiáng)AI風(fēng)險(xiǎn)的討論進(jìn)入組織化階段,大量AI風(fēng)險(xiǎn)研究組織建立。2012年成立的劍橋大學(xué)生存風(fēng)險(xiǎn)研究中心(Centre for the Study of Existential Risk),主要研究能夠?qū)е氯祟悳缃^的風(fēng)險(xiǎn),特別是人工智能所可能導(dǎo)致的未來(lái)風(fēng)險(xiǎn)場(chǎng)景;2014年成立的未來(lái)生活研究所(Future of Life Institute),主要集中于如何使AI技術(shù)以有益于人類的方式發(fā)展這一問(wèn)題;2015年成立的負(fù)責(zé)任機(jī)器人基金會(huì)(Foundation for Responsible Robots,F(xiàn)RR),是唯一的致力于負(fù)責(zé)任機(jī)器人研究的基金會(huì);2016年成立的Leverhulme 智能未來(lái)研究中心(The Leverhulme Centre for the Future of Intelligence),則是確保人類能夠在未來(lái)能夠最大程度地利用人工智能技術(shù)。
(3)不再拘泥于從理念層面來(lái)討論AI是否會(huì)超越人類,而是從實(shí)踐角度來(lái)分析如何治理AI風(fēng)險(xiǎn)。如:①企業(yè)家資助AI風(fēng)險(xiǎn)研究。馬斯克在2015年1月及7月分別向“未來(lái)生命研究所”投資1000萬(wàn)、700萬(wàn)美元,用于支持人工智能負(fù)面效應(yīng)研究項(xiàng)目;②面向全社會(huì)發(fā)布AI風(fēng)險(xiǎn)及倫理公開(kāi)信。未來(lái)生活研究所于2015年1月的“優(yōu)先發(fā)展穩(wěn)健且有益的AI:一封公開(kāi)信”,強(qiáng)調(diào)應(yīng)避免AI威脅到人類生存;③企業(yè)建立AI倫理委員會(huì),確保AI發(fā)展能夠符合人類道德。如2017年10月3日,DeepMind宣布成立人工智能倫理與社會(huì)部門(DeepMind Ethics& Society);微軟于2018年1月成立AI倫理委員會(huì)AETHER,避免企業(yè)濫用或過(guò)度發(fā)展AI。此外,2016年9月,Google、 Facebook、Amazon、IBM、Microsoft等企業(yè)聯(lián)合起來(lái)形成AI聯(lián)盟,命名為“有益于人類和社會(huì)的AI聯(lián)盟”(Partnership on Artificial Intelligence to Benefit People and Society),強(qiáng)調(diào)確保AI盡可能地有益于人類、形成最佳的人工智能實(shí)踐;④公眾參與。如劍橋大學(xué)生存風(fēng)險(xiǎn)研究中心于2015年6月19日舉辦公開(kāi)演講活動(dòng)“人類水平的人工智能:是隱現(xiàn)還是海市蜃樓?”⑤非政府組織運(yùn)動(dòng)。如2013年4月成立的“殺手機(jī)器人禁令運(yùn)動(dòng)”。
(4)雖然隔閡尤在,但是哲學(xué)社會(huì)科學(xué)界、科學(xué)界(如物理學(xué)家等)、AI界開(kāi)始進(jìn)行較為廣泛的對(duì)話,共同參與到強(qiáng)AI風(fēng)險(xiǎn)相關(guān)討論及風(fēng)險(xiǎn)治理活動(dòng)之中。在這一時(shí)期,雖然哲學(xué)社會(huì)科學(xué)界、AI界、科學(xué)界就“強(qiáng)AI是否會(huì)實(shí)現(xiàn)”、“如何使人類與機(jī)器之間形成良性互動(dòng)關(guān)系”等問(wèn)題存在不同意見(jiàn),但一個(gè)明顯的趨勢(shì)是,不同的利益相關(guān)者(特別是哲學(xué)社會(huì)科學(xué)界與AI界)不再固步自封、相互攻訐,而是嘗試性地進(jìn)行互動(dòng)。如2015年1月11日,未來(lái)生活研究所發(fā)布“一封關(guān)于使AI的社會(huì)效益最大化的公開(kāi)信”(AnopenletteronmaximizingthesocietalbenefitsofAI),其中目的是如何使AI研究能夠更好地服務(wù)人類福祉。截止到2016年10月11 日,已有8749個(gè)人在這封公開(kāi)信上簽字,在前110名簽名者中,約70%是計(jì)算機(jī)科學(xué)家和AI專家,16%為哲學(xué)家、未來(lái)學(xué)家、倫理學(xué)家,9%為物理學(xué)家、生物學(xué)家等非AI界研究者;而在一些AI風(fēng)險(xiǎn)研究組織中,哲學(xué)社會(huì)科學(xué)家、AI界人士、其他科學(xué)家也往往都參與其中。如未來(lái)生活研究所AI研究分支創(chuàng)立者包括:Skype聯(lián)合創(chuàng)始人Jaan Tallinn,MIT物理學(xué)教授Max Tegmark,DeepMind AI安全專家Viktoriya Krakovna,信息物理學(xué)教授Anthony Aguirre,哲學(xué)研究人員Meia Chita-Tegmark,牛津大學(xué)哲學(xué)教授Nick Bostrom,MIT物理學(xué)教授Alan Guth,劍橋大學(xué)理論天文學(xué)家Stephen Hawking,艾倫腦科學(xué)研究所首席科學(xué)家Christof Koch,企業(yè)家Elon Musk,IBM人工智能專家Francesca Rossi,加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)家Stuart Russell等??梢钥闯?,未來(lái)生活研究所AI研究小組成員涵蓋了哲學(xué)家、AI專家、物理學(xué)家、企業(yè)家等,是一個(gè)跨學(xué)科、領(lǐng)域研究團(tuán)隊(duì)。
(5)強(qiáng)AI逐漸走入“政策之屋”。首先應(yīng)該說(shuō)明的是,整體上講,決策者對(duì)于強(qiáng)AI的態(tài)度一般比較保守,且當(dāng)前世界各國(guó)的AI政策文本重弱AI治理、輕強(qiáng)AI調(diào)控,但許多政策及法律文本也往往涉及“強(qiáng)AI”。如歐盟《就機(jī)器人民事法律規(guī)則向歐盟委員會(huì)提出立法建議的報(bào)告草案》指出:在未來(lái),人工智能超越人類智慧是存在可能性的,強(qiáng)AI應(yīng)成為人類的補(bǔ)充而不是替代,其2016年發(fā)布《歐盟機(jī)器人民事法律規(guī)則》,建議“一旦技術(shù)進(jìn)步使得機(jī)器人自主性程度高于當(dāng)前的合理性預(yù)測(cè),那么相關(guān)的立法更新便需要適時(shí)推出”;IEEE的《“人工智能設(shè)計(jì)的倫理準(zhǔn)則”白皮書(shū)(第2版)》強(qiáng)調(diào),當(dāng)系統(tǒng)接近并超過(guò)通用人工智能時(shí),無(wú)法意料的或無(wú)意的系統(tǒng)行為將變得越來(lái)越危險(xiǎn)且難以糾正;“艾斯羅馬人工智能23定律”也強(qiáng)調(diào),強(qiáng)AI應(yīng)符合人類的整體公共利益,超級(jí)智能的開(kāi)發(fā)是為了服務(wù)廣泛認(rèn)可的倫理觀念,任何自主系統(tǒng)都必須允許人類中斷其活動(dòng);美國(guó)所發(fā)布的《為未來(lái)人工智能做好準(zhǔn)備》(PreparingfortheFutureofArtificialIntelligence)報(bào)告,則強(qiáng)調(diào)AI應(yīng)與人類有效合作,其行動(dòng)必須與人類的價(jià)值觀和愿望保持一致。
在人工智能發(fā)展史上,“強(qiáng)AI”一直是一個(gè)爭(zhēng)議不斷但卻又不斷引發(fā)人們關(guān)注的議題,圍繞“強(qiáng)AI”所發(fā)的爭(zhēng)論,是人們對(duì)不同時(shí)期AI技術(shù)自身所內(nèi)含的局限性及其潛力之間的不同聚焦,同時(shí)亦反映了科學(xué)文化、人文文化以及主流世界觀等因素之間的沖突與協(xié)調(diào)過(guò)程。對(duì)于“強(qiáng)AI”理念,我們應(yīng)合理看待其所發(fā)的各種爭(zhēng)論,具體來(lái)講有以下幾個(gè)方面需要加強(qiáng)共識(shí)。
(1)“強(qiáng)AI”理念是推動(dòng)人工智能界不斷打破人機(jī)界限、使AI技術(shù)向前發(fā)展的重要信念。在很長(zhǎng)一段時(shí)間里,“強(qiáng)人工智能”是人工智能界的官方表征語(yǔ)言及追求目標(biāo),“它們?cè)噲D建造用來(lái)展現(xiàn)一定程度的真實(shí)心理特性的機(jī)器:?jiǎn)栴}解決、思考、理解和推理,并且最終可能是意識(shí)、感覺(jué)和情緒……如果你認(rèn)為自己不知道有誰(shuí)支持強(qiáng)人工智能的話,你就沒(méi)有深入地看待這個(gè)問(wèn)題。”[34]雖然在人工智能發(fā)展初期,一些AI樂(lè)觀主義人士向資助者、傳媒界做出了許多浮夸式承諾,目標(biāo)的好高騖遠(yuǎn)與承諾的無(wú)法實(shí)現(xiàn)最終導(dǎo)致資助者的厭棄。但是,我們應(yīng)該正視“強(qiáng)AI”理念在人工智能發(fā)展史上(特別是在其發(fā)展初期)的作用和地位:它是一種信仰,推動(dòng)AI界不斷開(kāi)拓AI學(xué)科疆域、使機(jī)器擁有更多人腦才具有的功能,開(kāi)創(chuàng)了人工智能領(lǐng)域中的大多部分奠基性成果,如數(shù)學(xué)問(wèn)題解決能力的Logic Theorist(1956)、Lisp語(yǔ)言(1958)、第一個(gè)自然語(yǔ)言對(duì)話程序ELIZA(1965)、首個(gè)專家知識(shí)系統(tǒng)Dendral(1965)、具有感知和運(yùn)動(dòng)能力的智能機(jī)器人Shakey(1969)、具有自然語(yǔ)言理解能力的SHRDLU機(jī)器人系統(tǒng)(1971)等。正如一個(gè)新的范式剛形成時(shí)需要借助信仰、說(shuō)服等力量來(lái)推動(dòng)其發(fā)展一樣,人工智能在其初創(chuàng)期,強(qiáng)AI理念對(duì)于擴(kuò)展人工智能學(xué)科的社會(huì)影響力、獲得資助、吸引人才是尤為重要的。
(2)圍繞“強(qiáng)AI”的爭(zhēng)論是一種文化沖突現(xiàn)象,其背后所反映的是不同社會(huì)要素,特別是“兩種文化”(科學(xué)文化和人文文化)及“科技是生產(chǎn)力、競(jìng)爭(zhēng)力”的主流世界觀等之間的張力,且這幾種文化也經(jīng)歷著由對(duì)立、沖突到逐漸的嘗試性對(duì)話與合作這一過(guò)程。從“強(qiáng)AI”的整個(gè)爭(zhēng)論過(guò)程來(lái)看,AI界更多是在人工智能發(fā)展初期介入進(jìn)來(lái),主要討論的是如何使人類知識(shí)符號(hào)化、形式化等科學(xué)問(wèn)題,而20世紀(jì)80年代以后,AI界已較少介入“強(qiáng)AI”議題;“強(qiáng)AI”議題的參與者,自20世紀(jì)70年代以后主要是哲學(xué)社會(huì)科學(xué)界,他們更多的是基于批判式思維,從未來(lái)學(xué)、道德哲學(xué)等人文視角考慮強(qiáng)AI的性質(zhì)及其與社會(huì)的關(guān)系問(wèn)題,如意識(shí)的本源是什么,機(jī)器的物理性特征與人的生物性特征區(qū)分標(biāo)準(zhǔn),AI在未來(lái)社會(huì)治理體系中的屬性及地位是什么等。這是兩種文化之間的張力。這種張力在人工智能發(fā)展初期階段至20世紀(jì)80年代,往往是一種“緊張與對(duì)立”狀態(tài),如20世紀(jì)70年代哲學(xué)家德福雷斯與赫伯特·西蒙等AI專家之間就“AI能否達(dá)到人腦功能水平”這一問(wèn)題進(jìn)行了長(zhǎng)期爭(zhēng)論;自20世紀(jì)80年代以來(lái)“應(yīng)用式AI”的崛起、“強(qiáng)AI”理念的衰落,AI界逐漸脫離這一爭(zhēng)論場(chǎng),專注于AI在特定領(lǐng)域中的商業(yè)化成功,“如何使AI更好地融入市場(chǎng)”、“科技如何服務(wù)于生產(chǎn)力”等觀念成為主流,所以在很長(zhǎng)一段時(shí)期內(nèi),強(qiáng)AI觀念逐漸被“智能增強(qiáng)”觀念所取代;而20世紀(jì)末起,隨著人工神經(jīng)網(wǎng)絡(luò)范式的迅速發(fā)展及大量應(yīng)用,“強(qiáng)AI”理念再次引發(fā)哲學(xué)人文社科界及AI界的關(guān)注,AI界也參與到這一論爭(zhēng)過(guò)程之中,且哲學(xué)人文社會(huì)科學(xué)界與AI界開(kāi)始出現(xiàn)“融合與對(duì)話”的趨勢(shì),反思“AI的倫理、風(fēng)險(xiǎn)問(wèn)題”,開(kāi)放治理已經(jīng)成為一種潮流?!皬?qiáng)AI”參與者及討論議題的變化,說(shuō)明當(dāng)代科學(xué)的發(fā)展需要從多視角進(jìn)行反思,未來(lái)的科學(xué)治理體系需要社會(huì)科學(xué)家集團(tuán)的崛起(如阿里巴巴設(shè)立“羅漢堂”),[35]當(dāng)AI以越來(lái)越快的速度、越來(lái)越廣的范圍形塑社會(huì)并逐漸成為一種非可控體時(shí),便需要人文社會(huì)科學(xué)家的介入。
(3)一個(gè)有意思的現(xiàn)象是:在對(duì)待“強(qiáng)AI”這一議題上,AI界、哲學(xué)界等的態(tài)度并非一成不變,而是出現(xiàn)了“態(tài)度轉(zhuǎn)換”現(xiàn)象。從整體上講,AI界對(duì)于“強(qiáng)AI”的態(tài)度經(jīng)歷了一個(gè)由樂(lè)觀與支持到悲觀與放棄,以及現(xiàn)在的謹(jǐn)慎心態(tài)這一整體轉(zhuǎn)變過(guò)程。如在AI初建期,AI界如赫伯特·西蒙、約翰·麥卡錫等,均對(duì)強(qiáng)AI的實(shí)現(xiàn)非常樂(lè)觀;1970年代中后期至1980年代,AI界對(duì)于“強(qiáng)AI”開(kāi)始出現(xiàn)質(zhì)疑聲音,一部分AI界人士開(kāi)始轉(zhuǎn)向智能增強(qiáng)陣營(yíng);20世紀(jì)90年代至21世紀(jì)初,AI界基本上不再觸及“強(qiáng)AI”議題,即使到現(xiàn)在,其態(tài)度依然謹(jǐn)慎。而哲學(xué)界對(duì)于“強(qiáng)AI”的態(tài)度則是沿著由批判與質(zhì)疑到現(xiàn)在的大力宣揚(yáng)這一路徑演變。從20世紀(jì)60年代AI學(xué)科創(chuàng)立之初,到20世紀(jì)80年代、90年代中期,哲學(xué)界對(duì)于“強(qiáng)AI的實(shí)現(xiàn)”一直持質(zhì)疑態(tài)度;而20世紀(jì)90年后期開(kāi)始,哲學(xué)界則開(kāi)始轉(zhuǎn)變態(tài)度,更加預(yù)言強(qiáng)AI能夠?qū)崿F(xiàn),并更為擔(dān)憂其所可能產(chǎn)生的嚴(yán)重后果。為何會(huì)出現(xiàn)“態(tài)度轉(zhuǎn)換”現(xiàn)象?其根本性原因在于AI界及哲學(xué)界對(duì)AI的關(guān)注點(diǎn)有所差異:當(dāng)強(qiáng)調(diào)其未來(lái)潛力時(shí),便對(duì)強(qiáng)AI持樂(lè)觀態(tài)度;當(dāng)集中于AI的局限性時(shí),便對(duì)強(qiáng)AI持懷疑及批判態(tài)度。
(4)“強(qiáng)AI”概念需要進(jìn)行重新界定,使其成為科學(xué)而非單純的“科幻式”概念,并給予強(qiáng)AI風(fēng)險(xiǎn)議題更多關(guān)注。傳統(tǒng)的強(qiáng)AI觀念強(qiáng)調(diào)AI擁有與人腦完全相同的功能(我們稱之為強(qiáng)AI1),然而,這樣的“強(qiáng)AI”并不具備科學(xué)層面的可行性(至少是現(xiàn)在),因?yàn)橹T如“理解”“意志”“情感”等概念,是以生物人為前提、基于社會(huì)實(shí)踐而獲得的,除非人類能夠建造出一個(gè)在生物層面與人腦完全相同的機(jī)器,否則便會(huì)陷入“中文屋困境”。在這里,我們強(qiáng)調(diào)一種基于“自主性”的強(qiáng)AI觀:即基于強(qiáng)大學(xué)習(xí)能力、具備“目標(biāo)自主性+行動(dòng)自主性”能力的AI(我們將之稱為強(qiáng)AI2)。在這里需要指出的是,“自主性”并非是基于“意向性”,它意指AI具有“目標(biāo)的自我微調(diào)、改變,新目標(biāo)的生成”、“自動(dòng)完成已設(shè)定目標(biāo)而無(wú)需外界干擾”、“可與外部環(huán)境交互并自我進(jìn)化”等功能。AI2舍棄了諸如“機(jī)器是否會(huì)具有意向性”等難以追尋或回答的終極問(wèn)題,將關(guān)注點(diǎn)放之于當(dāng)下的技術(shù)條件及未來(lái)的技術(shù)可能性。實(shí)際上,即使是當(dāng)前,具備“自主性”特征的AI已經(jīng)開(kāi)始顯露跡象,如2017年5月,谷歌提出自動(dòng)機(jī)器學(xué)習(xí)(AutoML),允許人工智能成為另一個(gè)人的架構(gòu)師,并在無(wú)需人工工程師輸入的情況下進(jìn)行自我創(chuàng)造,也即意味著AI在“自主生成目標(biāo)”方面已有了突破。近幾年來(lái), AI技術(shù)發(fā)展所呈現(xiàn)出的加速進(jìn)步態(tài)勢(shì),使得未來(lái)具有跨領(lǐng)域性、完全自主性、遞歸式自我改良性特征的AI的出現(xiàn)具有了現(xiàn)實(shí)可能性,這要求人們更加重視AI社會(huì)風(fēng)險(xiǎn)問(wèn)題。[36]
山東科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)2018年6期