沃爾夫?qū)せ舴蚧<{ 鄔天啟
編者按:
2020年9月12日至13日,西安交通大學(xué)人文與社會(huì)科學(xué)研究院、西安交通大學(xué)哲學(xué)與文化研究所、西安交通大學(xué)國(guó)際信息哲學(xué)研究中心、西安交通大學(xué)信息哲學(xué)與智能社會(huì)基礎(chǔ)理論研究基地和國(guó)際信息研究學(xué)會(huì)中國(guó)分會(huì)(IS4SI-CC)聯(lián)合舉辦了“信息哲學(xué)與智能社會(huì)發(fā)展”高層論壇,旨在探討國(guó)內(nèi)外信息哲學(xué)與智能科技、智能經(jīng)濟(jì)和智能社會(huì)的發(fā)展現(xiàn)狀和未來(lái)預(yù)期。
本次論壇共有16位國(guó)內(nèi)外著名學(xué)者做了主旨報(bào)告。在此,我們組織選譯了國(guó)外4位著名學(xué)者的報(bào)告,以專(zhuān)題形式發(fā)表,供大家討論,以期能推動(dòng)該領(lǐng)域研究的進(jìn)展。
摘要:人們對(duì)于人工智能的未來(lái)有很多設(shè)想,其中有兩種設(shè)想很具有代表性。所謂“慈愛(ài)的機(jī)器”是一種技術(shù)烏托邦式的未來(lái)幻想,一種仁慈的技術(shù)統(tǒng)治維護(hù)著全面的和諧。人工智能作為一種“交際的工具”,對(duì)未來(lái)的想象也勾勒出了一個(gè)平衡的社會(huì),但它顛倒了(前一種設(shè)想)影響的順序:一個(gè)交際性的社會(huì)為交際行為塑造了相關(guān)的技術(shù)。但事實(shí)是,沒(méi)有任何一個(gè)程序能夠滿足為所有人都能夠接受的普遍規(guī)則。人類(lèi)不需要擔(dān)心人工智能會(huì)變成一個(gè)邪惡的還是仁慈的東西,因?yàn)槿斯ぶ悄芗夹g(shù)原則上不具備邪惡和仁慈的能力。但人工智能可以侵入人類(lèi)的自主性,以致達(dá)到一種無(wú)法容忍的程度。
關(guān)鍵詞:信息科學(xué);系統(tǒng)論;涌現(xiàn);智慧社會(huì) 中圖分類(lèi)號(hào):TP18
文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1673-8268(2022)04-0056-06
一、“慈愛(ài)的機(jī)器”與“交際的工具”
1967年,美國(guó)作家理查德·布勞提根在任職于加州理工學(xué)院時(shí),出版了《一切都被慈愛(ài)的機(jī)器注視著》的詩(shī)集。在他的想象中:“在一個(gè)被控制的生態(tài)環(huán)境下……一個(gè)人類(lèi)不用勞動(dòng)的世界……一個(gè)回歸自然的狀態(tài)……回歸到我們的動(dòng)物本性……每一個(gè)人類(lèi)的兄弟姐妹……都時(shí)刻被慈愛(ài)的機(jī)器所注視著?!盵1]這是一種技術(shù)烏托邦式的未來(lái)幻想,一種仁慈的技術(shù)統(tǒng)治維護(hù)著全面的和諧。
1973年,在嬉皮士運(yùn)動(dòng)和學(xué)生起義20世紀(jì)60年代末歐美國(guó)家學(xué)生運(yùn)動(dòng)。的余波下,奧地利出生的作家伊凡·伊里奇出版了《交際的工具》一書(shū)。他當(dāng)時(shí)身兼教區(qū)神父、大學(xué)校長(zhǎng)和自然科學(xué)、技術(shù)及社會(huì)科學(xué)領(lǐng)域教授(賓夕法尼亞州立大學(xué)),并且經(jīng)常往返于墨西哥、美國(guó)和德國(guó)之間。在該書(shū)中他提出:“人類(lèi)生活的多維平衡概念,可以作為評(píng)價(jià)人與其工具關(guān)系的框架。在這種平衡的每一個(gè)維度中,都有可能確定一種自然尺度。”[2]ⅹ“一旦認(rèn)識(shí)到這些限制,就有可能明確人、工具和一個(gè)新的集體之間的三元關(guān)系。在這樣一個(gè)社會(huì)里,現(xiàn)代技術(shù)只是服務(wù)于政治上相互關(guān)聯(lián)的個(gè)人,而不能是管理者,我稱(chēng)之為‘convivial(交際的)……我選擇交際作為一個(gè)技術(shù)術(shù)語(yǔ),是用來(lái)定義一個(gè)負(fù)責(zé)任地、有限地使用工具的現(xiàn)代社會(huì)?!盵2]ⅹⅱ“交際”一詞源于拉丁語(yǔ),旨在描述一種在日常宴會(huì)中主人和客人共同用餐、共同生活的有質(zhì)量的相處方式,其意思并非“tipsy jollyness”(醉酒后的幽默),而類(lèi)似于“eutrapelia (or graceful playfulness)”(交談中的愉悅或優(yōu)雅的嬉鬧)——這里可以追溯到托馬斯·阿奎那所闡述的亞里士多德倫理學(xué)中的美德之一:“friendship or joyfulness”(友誼或快樂(lè))[2]ⅹⅲ。這種對(duì)未來(lái)的想象也勾勒出了一個(gè)平衡的社會(huì),但它顛倒了(前一種設(shè)想)影響的順序:一個(gè)交際性的社會(huì)為交際行為提供了相關(guān)的技術(shù)。
這兩種選擇都對(duì)文化和文明的未來(lái)發(fā)展持樂(lè)觀態(tài)度。這里要討論的問(wèn)題是:在這兩種假想中,哪一種更傾向于描述未來(lái)社會(huì)中令人滿意的人工智能應(yīng)用——慈愛(ài)的機(jī)器還是交際的工具?哪一個(gè)更現(xiàn)實(shí),哪一個(gè)更理想?
德國(guó)文學(xué)和媒體研究專(zhuān)家羅伯特·西曼諾夫斯基支持第一種選擇。2018年,他出版了兩部文集,經(jīng)過(guò)大幅擴(kuò)展和修訂后,構(gòu)成了2020年出版的德文著作——《死亡算法和其他數(shù)字難題》的前兩章。死亡算法是在即將發(fā)生事故的情況下引導(dǎo)自動(dòng)駕駛汽車(chē)進(jìn)入選擇目標(biāo)的程序。西曼諾夫斯基嚴(yán)謹(jǐn)?shù)卣故玖嗽诟鶕?jù)功利主義、結(jié)果主義或義務(wù)論倫理的編程工具的基礎(chǔ)上無(wú)法解決的一些難點(diǎn)和悖論,因?yàn)闆](méi)有任何一個(gè)程序能夠滿足一個(gè)為所有人都能夠接受的普遍規(guī)則。
在這種情況下,西曼諾夫斯基引用了另一個(gè)例子——德國(guó)作家費(fèi)迪南德·馮·施拉奇所創(chuàng)作的戲劇《恐怖》。在這出戲劇中,劇院中或坐在電視機(jī)前的觀眾需要對(duì)一個(gè)虛構(gòu)的德國(guó)軍事少校進(jìn)行審判,該少校為了拯救慕尼黑一運(yùn)動(dòng)場(chǎng)中7萬(wàn)人的生命,在未經(jīng)授權(quán)的情況下,擊落了一架被恐怖分子控制的載有164名乘客的民用飛機(jī)。大多數(shù)觀眾都投票贊成被告梅杰(Major虛擬主人公)少校應(yīng)該被無(wú)罪釋放。從2015年10月到2020年1月,在2 472名現(xiàn)場(chǎng)觀眾中有63%投贊成票,2016年10月18日,在德國(guó)、奧地利和瑞士電視臺(tái)的電視觀眾中有87%投贊成票[3]19-20。但這違反了德意志聯(lián)邦共和國(guó)的憲法,該憲法禁止用一個(gè)傷亡數(shù)字抵消另一個(gè)傷亡數(shù)字。此外,在不同的文化環(huán)境中有不同的多數(shù)派,亞洲人的價(jià)值觀又有所不同。在同一時(shí)期,《恐怖》在中國(guó)大陸地區(qū)的21場(chǎng)演出中,有11場(chǎng)判梅杰少校有罪,在日本的23場(chǎng)演出中,有15場(chǎng)被判有罪,而在中國(guó)臺(tái)灣地區(qū)的8場(chǎng)演出中,則全部被判無(wú)罪[3]40。這種投票差異也適用于其他例子(如電車(chē)?yán)Ь常?,這可能與個(gè)人主義和集體主義文化之間的差異有關(guān)[3]129[4]。
西曼諾夫斯基明白,全球自動(dòng)駕駛汽車(chē)的出現(xiàn)與當(dāng)前的道德?tīng)顩r并不相容,它需要一個(gè)能夠普遍適用的解決方案,但是對(duì)于西曼諾夫斯基來(lái)說(shuō),這樣的解決方案必須不同于他所能考慮到的普遍倫理。因此,他認(rèn)為人工智能(AI)是一種解決方案——不是弱人工智能,而是強(qiáng)人工智能。他認(rèn)為,深度學(xué)習(xí)可能使強(qiáng)大的人工智能不僅能遵循人類(lèi)智能的決定,還能獨(dú)立于人類(lèi)智能所作出的決定。因此,強(qiáng)人工智能可能會(huì)作出人類(lèi)智能在既得利益相互沖突之下無(wú)法作出的決定,強(qiáng)人工智能可能對(duì)特殊主義不感興趣,并能中立地監(jiān)督人類(lèi)履行它所作出的決定。通過(guò)這樣的機(jī)制——這是西曼諾夫斯基所希望的——強(qiáng)人工智能甚至能夠幫助到人類(lèi)自身的生存。
然而,西曼諾夫斯基并不明白,強(qiáng)人工智能捍衛(wèi)者的愿望并沒(méi)有得到證實(shí),也不會(huì)得到實(shí)現(xiàn),而什么是能夠?qū)崿F(xiàn)的——不管這些愿望是什么——只會(huì)危及我們?nèi)祟?lèi)在地球上的進(jìn)一步發(fā)展。為什么呢?這不是因?yàn)槿祟?lèi)需要擔(dān)心人工智能會(huì)變成一個(gè)邪惡的而不是仁慈的東西,而是因?yàn)槿斯ぶ悄芗夹g(shù)原則上不具備邪惡和仁慈的能力。人工智能可以侵入人類(lèi)的自主性,以致達(dá)到一種無(wú)法容忍的程度。
二、人與自主智能系統(tǒng)的關(guān)系
在工業(yè)化過(guò)程中,工具得到了改進(jìn),從而會(huì)生產(chǎn)出不再依賴(lài)于風(fēng)、水或動(dòng)物能量的、介于工作對(duì)象和工作者之間的機(jī)器。在信息化的過(guò)程中,機(jī)器被電腦化,機(jī)器人與工作者之間產(chǎn)生的差距更大了,因?yàn)樗鼈儽毁x予人類(lèi)思維的某些功能。正如卡爾·馬克思所預(yù)見(jiàn)的那樣,自動(dòng)化可以導(dǎo)致一種“我們不需要?jiǎng)趧?dòng)”的社會(huì)狀態(tài),但自動(dòng)化不一定會(huì)帶來(lái)自主性。自主性是一種從人類(lèi)和社會(huì)領(lǐng)域借鑒來(lái)的術(shù)語(yǔ),并強(qiáng)加于機(jī)器,就好像機(jī)器也和人一樣。
用工程師的話說(shuō),機(jī)器人的自主性意味著機(jī)器人也能做出決定。如果這是真的,則意味著人類(lèi)的思維功能將被機(jī)器人接管,而人類(lèi)的某些思維功能將會(huì)被剝奪:要么是機(jī)器人做出決定,要么是人類(lèi)做出決定。但按照這樣的邏輯,事實(shí)情況便不同了:沒(méi)有機(jī)器人能夠真正做出決定。
決定是一種判決,是對(duì)理由進(jìn)行深思熟慮的結(jié)果,而這些理由并不妨礙判決。判決是一種基于必要前提的行為,但它并不像從前提中得出結(jié)論那樣是從邏輯上推導(dǎo)而來(lái)的。還有更多的判斷屬于涌現(xiàn)行為。涌現(xiàn)是指與它所涌現(xiàn)出來(lái)的事物相比,涌現(xiàn)出的事物具有另一種(一種新的)品質(zhì)。沒(méi)有機(jī)器、自動(dòng)機(jī)或所謂的自主技術(shù)系統(tǒng)能夠產(chǎn)生涌現(xiàn),因?yàn)樗袧撛诘男畔⑦^(guò)程最終都是確定性機(jī)制。所以,工程師們?cè)跈C(jī)器的狀態(tài)下所聲稱(chēng)的決策,實(shí)際上是機(jī)械確定性的產(chǎn)物,而不是類(lèi)似于自我思考的產(chǎn)物。此外,考慮到現(xiàn)代機(jī)器的復(fù)雜性,它們運(yùn)算的產(chǎn)物(過(guò)程、邏輯和結(jié)果)已經(jīng)變得不可預(yù)測(cè),甚至是無(wú)法解釋?zhuān)勺匪荩┑?,因此被工程師錯(cuò)誤地稱(chēng)為涌現(xiàn),盡管算法過(guò)程的每一步都遵循一個(gè)確定的規(guī)則。
這就是為什么西曼諾夫斯基對(duì)強(qiáng)人工智能拯救人類(lèi)的信念注定要落空的原因。所謂強(qiáng)人工智能的決策將是隨機(jī)且不恰當(dāng)?shù)?。人工智能無(wú)法處理個(gè)人自身的問(wèn)題,它不能作為施控者,而更像個(gè)受控者[5];它不是一個(gè)自組織的系統(tǒng),而是異性組織和外部組織的系統(tǒng)。IEEE自主與智能系統(tǒng)(A/IS)倫理全球倡議發(fā)布了一份關(guān)于倫理一致設(shè)計(jì)的全面文件,參考了卡普羅和霍夫基希納(作者本人)兩篇論文的意見(jiàn)[5]。文件中提道:“在理解人與自主智能系統(tǒng)之間的關(guān)系時(shí),特別值得關(guān)注的是對(duì)自主智能系統(tǒng)不加批判地采用擬人化的方法,許多行業(yè)和政策制定者現(xiàn)在都在使用這種方法。這種方法錯(cuò)誤地模糊了道德施控者和道德受控者之間的區(qū)別,或者理解為‘自然的自組織系統(tǒng)和人工的非自組織設(shè)備之間的區(qū)別。如上所述,從定義上看,自主智能系統(tǒng)不能像人類(lèi)或生物一樣自主。也就是說(shuō),當(dāng)嚴(yán)格定義時(shí),機(jī)器的自主指的是機(jī)器如何通過(guò)對(duì)由法律和規(guī)則產(chǎn)生的執(zhí)行秩序的考慮,在特定的環(huán)境中獨(dú)立地行動(dòng)和操作。從這個(gè)意義上說(shuō),自主智能系統(tǒng)可以被定義為自主的,特別是在遺傳算法和進(jìn)化策略的情況下。然而,試圖在自主智能系統(tǒng)中植入真正的道德和情感,從而承擔(dān)責(zé)任,自主便會(huì)模糊施控者和受控者之間的區(qū)別,并可能鼓勵(lì)人類(lèi)在設(shè)計(jì)自主智能系統(tǒng)和與自主智能系統(tǒng)互動(dòng)時(shí)對(duì)機(jī)器的擬人化期望?!盵6]因?yàn)槿斯ぶ悄軣o(wú)論是弱還是強(qiáng),都不會(huì)涌現(xiàn)信息,它不能以一種仁慈的方式行事,無(wú)法完全復(fù)制人類(lèi)本身,且與人類(lèi)當(dāng)下處理的問(wèn)題完全脫離。
總之,人工智能不可能是西曼諾夫斯基所尋找的普遍解決方案,因?yàn)樗荒軓氐捉y(tǒng)一多樣性,而多樣性正是作為嘗試解決進(jìn)化過(guò)程中的內(nèi)在問(wèn)題而出現(xiàn)的一個(gè)元層次。這里共出現(xiàn)了三個(gè)層次,元層次作為第三個(gè)層次,代表了個(gè)體劃分和嵌套之間的利益沖突,超越了其下代表個(gè)體的第二層次與代表個(gè)體中各部分的第一層次。只有這樣一個(gè)“第三層次”的出現(xiàn),才會(huì)是一個(gè)普遍的(雖然不是絕對(duì)的)解決方案。第三層次是技術(shù)本身所無(wú)法預(yù)料的。正是因?yàn)檫@個(gè)原因,人工智能的規(guī)則將退化為技術(shù)官僚獨(dú)裁的規(guī)則,其中一個(gè)武斷的情況被另一個(gè)武斷的情況所取代——機(jī)器的自動(dòng)化將導(dǎo)致人類(lèi)的去自主化。
三、人工智能決策與自我限制
在奧地利哲學(xué)家君特·安德斯看來(lái),這是繼哥白尼、達(dá)爾文和弗洛伊德之后的又一個(gè)“普羅米修斯的恥辱”,是對(duì)人類(lèi)自我意識(shí)的第四次打擊。安德斯在1956年發(fā)表的文集《關(guān)于普羅米修斯的恥辱》中首次描寫(xiě)了一個(gè)歷史上的事例[7]29-95,美國(guó)將軍道格拉斯·麥克阿瑟聲稱(chēng):“在應(yīng)對(duì)朝鮮戰(zhàn)爭(zhēng)開(kāi)始時(shí)所提出的措施可能會(huì)引發(fā)第三次世界大戰(zhàn)?!欢?,美國(guó)關(guān)于是否應(yīng)該冒這樣一個(gè)風(fēng)險(xiǎn)而做出決定的責(zé)任被轉(zhuǎn)移了……轉(zhuǎn)移了美國(guó)的決定權(quán)……把決定權(quán)移交給了機(jī)器”,“交給了一個(gè)‘電子大腦”[7]58。“電子大腦”最終選擇了反對(duì)麥克阿瑟的決定,但安德斯強(qiáng)調(diào)的事實(shí)是:“如果真的做出了這一決定,那么做出這一決定的過(guò)程同時(shí)也是人類(lèi)給自己造成的最具有劃時(shí)代意義的失敗。因?yàn)槿祟?lèi)從來(lái)沒(méi)有把自己貶低到這樣的程度,以至于把關(guān)于人類(lèi)歷史進(jìn)程的決定,甚至是關(guān)于這個(gè)歷史進(jìn)程是否可能會(huì)存在的決定權(quán)交給一件非人的東西。”[7]60-61安德斯稱(chēng)這種發(fā)展為“所有可能的非人化的極致”[7]44、“傲慢的自暴自棄”和“狂妄的謙卑”[7]49,傲慢是因?yàn)槿祟?lèi)相信自己有能力建造超人的機(jī)器,恥辱是因?yàn)闉榱顺蔀橹魅?,人?lèi)必須把自己變成奴隸。
“慈愛(ài)的機(jī)器”這一表面上和諧的圖景不僅遭到了破壞,而且與第二種說(shuō)法——“交際的工具”形成了鮮明對(duì)比。正因?yàn)閺?qiáng)人工智能永遠(yuǎn)不會(huì)拋棄其反復(fù)鼓吹的認(rèn)知能力,反而會(huì)限制人類(lèi)的自主性,所以人工智能需要被設(shè)計(jì)得有意義且謹(jǐn)慎,并且需要負(fù)責(zé)任地加以限制。伊里奇所著《交際的工具》一書(shū)的德文名稱(chēng)正是“Selbstbegrenzung”,意思就是“自我限制”。
現(xiàn)在自我限制已經(jīng)無(wú)可反駁地被置于人類(lèi)議程的首位。地質(zhì)學(xué)家曾提出過(guò)一個(gè)術(shù)語(yǔ):“人類(lèi)世”(Anthropocene),來(lái)描述我們現(xiàn)在所處的時(shí)代。而正如普雷希特所說(shuō),我們現(xiàn)在所處的時(shí)代更像是一個(gè)“貨幣世”(Monetocene)或者是一個(gè)“資本世”(Capitalocene)。物理學(xué)家哈拉爾德·萊施也說(shuō):“實(shí)現(xiàn)利潤(rùn)的利益已經(jīng)成為了改變我們星球的驅(qū)動(dòng)力,而它卻使我們的星球變得更糟。但現(xiàn)在最基本的問(wèn)題是人類(lèi)是否能夠被拯救。”[8]普雷西特還認(rèn)為:“要么資本主義將被戰(zhàn)勝,要么現(xiàn)代人將自我毀滅。”
自我限制意義上的交際性是社會(huì)系統(tǒng)涌現(xiàn)性的特征,可以確定為公共的歷史——具體形態(tài)的社會(huì)關(guān)系,即這種關(guān)系能夠幫助并限制社會(huì)行動(dòng)者通過(guò)聯(lián)合產(chǎn)能共同貢獻(xiàn)社會(huì)利益,并當(dāng)消費(fèi)這種利益時(shí),通過(guò)聯(lián)合產(chǎn)能的努力成為共同的受益者。這種利益是公共利益,作為一種關(guān)系利益,它是屬于公共的。這是第三層面的探求,從共同行動(dòng)、互動(dòng)和行動(dòng)者的行動(dòng)中涌現(xiàn)。這種第三層面將行動(dòng)者相互聯(lián)系在了一起,讓他們同時(shí)承擔(dān)第二層面(改變)和第一層面(自我)的角色。交際性表達(dá)了在社會(huì)系統(tǒng)下作為公共品對(duì)于任何參與者的開(kāi)放程度,行動(dòng)者越是限制自私,公共利益就越開(kāi)放,也包括對(duì)他們自己開(kāi)放。交際性是一個(gè)需要實(shí)現(xiàn)的愿景,它將“通過(guò)公開(kāi)那些被封閉的公共利益,使社會(huì)系統(tǒng)更具有包容性,通過(guò)這樣做……讓民眾幸福地生活在一個(gè)良好的社會(huì),蓬勃和幸福的個(gè)人生活在交際性的社會(huì)關(guān)系之中”[9]。
四、人類(lèi)進(jìn)化、人工智能與智慧社會(huì)
盡管數(shù)學(xué)或生物學(xué)等學(xué)科已經(jīng)證明了現(xiàn)代人可能成為一個(gè)優(yōu)秀的超級(jí)合作者的種族,但現(xiàn)代人肯定需要進(jìn)一步的實(shí)質(zhì)性發(fā)展:為公共利益而進(jìn)行的合作仍然是碎片化的。從人類(lèi)到現(xiàn)代社會(huì)的進(jìn)化史來(lái)看,展現(xiàn)出了兩個(gè)決定性的步驟。第一步,我們的祖先從動(dòng)物單元體進(jìn)入社會(huì)二元體。在共同覓食的背景下,這些祖先采用了“更復(fù)雜的社會(huì)合作模式”,這保證了公共商品屬于所有行動(dòng)者。第二步,他們開(kāi)始了一種齒輪效應(yīng),產(chǎn)生了更高層次的復(fù)雜合作,直到社會(huì)因素在進(jìn)化中超過(guò)了生物因素,社會(huì)三元體補(bǔ)充了社會(huì)二元體。三元社會(huì)建立了第三層面——共同的文化、集體的意向性和客觀的道德,從那時(shí)起,所有這些都是“個(gè)人與他人關(guān)于公共利益的關(guān)系,即公共利益的具體內(nèi)容成為了爭(zhēng)議和沖突的問(wèn)題”[10-11]。公共合作模式有兩種類(lèi)型:部落主義與專(zhuān)獨(dú)主義。
部落主義是在人類(lèi)社會(huì)進(jìn)化的黎明階段時(shí)所出現(xiàn)的原始變種,形成了相當(dāng)于集體主義中的“我們”,傳統(tǒng)以神話作為基礎(chǔ),社會(huì)生活的手段和目的就不會(huì)受到質(zhì)疑。另一種變種起源于部落社會(huì)的“我們”轉(zhuǎn)變?yōu)樗缮鐣?huì)[12]23-91:行動(dòng)者成為以自我為中心的人,他們變得目光短淺,并沒(méi)有考慮到自己的行為會(huì)對(duì)社會(huì)系統(tǒng)其他部分產(chǎn)生有害影響,社會(huì)系統(tǒng)的結(jié)構(gòu)一直將競(jìng)爭(zhēng)優(yōu)先于社會(huì)的更高層次,而合作則停留于較低的層次;私有被認(rèn)為是最高的利益;手段和目的是脫鉤的,手段是明智的、靈活的,而最終目的仍然是既定的。這個(gè)相當(dāng)個(gè)人主義的階段一直持續(xù)到今天,它應(yīng)該被稱(chēng)為“專(zhuān)獨(dú)主義”。詞源學(xué)顯示,在古希臘,“Idios”的意思是“個(gè)人的領(lǐng)域,私人的,一個(gè)人自己的”[13]。在尼爾·柯蒂斯看來(lái),“Idios”也帶有“被封閉”的印記。他表達(dá)了通過(guò)圈取公共或共同擁有的資源來(lái)創(chuàng)造私有,在歷史上一直是獲得私有財(cái)產(chǎn)的主要手段的想法[13],所以,用專(zhuān)獨(dú)這個(gè)詞來(lái)表示一個(gè)人只關(guān)心個(gè)人領(lǐng)域,而不關(guān)心公共事務(wù)。如今,新自由主義把專(zhuān)獨(dú)主義帶到了極端的地步,交際性越來(lái)越受到這種排他的共性的挑戰(zhàn)。
然而,“人類(lèi)社會(huì)發(fā)展的第三步是可以假設(shè)的??赡軙?huì)有一個(gè)從集體意向到普遍共享的轉(zhuǎn)變,也就是說(shuō),在全球范圍內(nèi)。這將是向另一個(gè)交際性的社會(huì)制度的過(guò)渡——將三個(gè)步驟合一并延伸到整個(gè)人類(lèi)”[10]。這一步不僅完成了人類(lèi)社會(huì)發(fā)展的前兩個(gè)步驟,而且還升華了“部落主義”和“專(zhuān)獨(dú)主義”。它可以整合個(gè)人而不需要強(qiáng)迫他們包容。作為全球的公民,他們將有能力從整個(gè)社會(huì)制度的角度體現(xiàn)出自己和他人的地位。沒(méi)有任何片面的意識(shí)形態(tài)或神話能夠掩蓋基于現(xiàn)實(shí)的、科學(xué)且實(shí)際的對(duì)不同社會(huì)發(fā)展道路的評(píng)估。不僅手段是可變的,而且目的也不再是常量。除非達(dá)成共同的一致,否則任何一項(xiàng)決策都不應(yīng)生效[12]84-85。
人工智能是一種技術(shù),是達(dá)到某些目的的一種特殊手段。與任何技術(shù)一樣——即方法、程序、機(jī)制,人工智能的設(shè)計(jì)也是為了實(shí)現(xiàn)社會(huì)功能的協(xié)調(diào)。由于功能化被作為一種達(dá)到目的的手段,所以在技術(shù)設(shè)計(jì)時(shí),它需要承擔(dān)兩個(gè)方面的責(zé)任。首先,對(duì)設(shè)計(jì)的功能性負(fù)責(zé):機(jī)制是否有效、高效地實(shí)現(xiàn)了技術(shù)設(shè)計(jì)的最終目的,即它是否具有功能性?這個(gè)問(wèn)題的關(guān)鍵是事實(shí)。其次,也要對(duì)設(shè)計(jì)的意義和社會(huì)效用負(fù)責(zé):最后做出的機(jī)制設(shè)計(jì)必須是有意義的,也就是說(shuō),它是否會(huì)促進(jìn)社會(huì)價(jià)值進(jìn)步,是否值得推廣,是否符合社會(huì)規(guī)范,是否與社會(huì)規(guī)范價(jià)值一致,這些都屬于道德問(wèn)題。技術(shù)的功能和意義都需要負(fù)責(zé)任地反映出來(lái)。在這個(gè)全球性挑戰(zhàn)的時(shí)代,這一反映意味著任何技術(shù)都應(yīng)支持社會(huì)向全球可持續(xù)信息社會(huì)轉(zhuǎn)型,遵循美好社會(huì)的愿景,讓人們過(guò)上美好的生活,建設(shè)共同的利益[10]。根據(jù)這一觀點(diǎn),人工智能必須是一種支持人類(lèi)智能的技術(shù),專(zhuān)注于確保社會(huì)進(jìn)化,免于自我造成的崩潰。總體目標(biāo)必須由人類(lèi)決策制定,人工智能可以幫助找尋實(shí)施方法、監(jiān)測(cè)目標(biāo)的實(shí)現(xiàn),并為測(cè)量適應(yīng)性提供理由。因此,人工智能與任何嵌入社交的技術(shù)一樣,都是技術(shù)社會(huì)系統(tǒng)的一部分?!凹热蝗斯ぶ悄苁且环N承擔(dān)行動(dòng)者智能行為的工具,就不應(yīng)該給它限制行動(dòng)者自主性的空間?!盵14]正如鄔焜所說(shuō):“人類(lèi)應(yīng)該理性地選擇自己進(jìn)化的方式?!盵15]
智能反映了手段與目的的關(guān)系,特別是反映了手段的功能。然而,為了能夠捕捉到目的的意義,僅有狹義上的人類(lèi)智能是不夠的。全球問(wèn)題是人為的,需要人類(lèi)給出解決的辦法,而要做到這一點(diǎn),就需要智慧。因此,社會(huì)不僅需要成為一個(gè)智能社會(huì),還需要成為一個(gè)“智慧社會(huì)”,這是西班牙社會(huì)學(xué)家曼紐爾·卡斯特和其他學(xué)者在1997年與歐洲委員會(huì)高級(jí)別專(zhuān)家組就“人人享有歐洲信息社會(huì)”的專(zhuān)題合作時(shí)提出的一個(gè)術(shù)語(yǔ)[16]。他們將智慧定義為“從生活經(jīng)驗(yàn)、自然科學(xué)、倫理和哲學(xué)中‘提煉出來(lái)的知識(shí)”。雖然新的信息通信技術(shù)為經(jīng)濟(jì)注入了活力,但“這些新技術(shù)對(duì)知識(shí)的產(chǎn)生或獲取并沒(méi)有產(chǎn)生根本的影響,更不用說(shuō)對(duì)智慧的影響了”。當(dāng)然,人們希望社會(huì)越來(lái)越向“智慧社會(huì)”轉(zhuǎn)變,科學(xué)支持的數(shù)據(jù)、信息和知識(shí)將越來(lái)越多地被用來(lái)作出明智的決定,以提高人們的生活質(zhì)量。這種智慧將有助于形成一個(gè)可持續(xù)發(fā)展的社會(huì),考慮到其所有成員的福祉,如同重視物質(zhì)和經(jīng)濟(jì)方面一樣,重視生活的社會(huì)和文化方面。我們希望,新興的信息社會(huì)將以這樣一種方式發(fā)展,以推進(jìn)這種智慧愿景的實(shí)現(xiàn)。
到目前為止,這些希望還沒(méi)有實(shí)現(xiàn),而人工智能似乎也遇到了類(lèi)似的情況。
正如朱利安和娜塔莉在《數(shù)字人文主義》一文中所預(yù)期的那樣,一種新的“數(shù)字人文主義”可以為人性化的數(shù)字化提供新的動(dòng)力。數(shù)字人文主義可以限制人工智能成為一種交際的工具,機(jī)器監(jiān)視人類(lèi)的幻想則可以歸結(jié)為反人道主義。人文主義指的是在交際性的人工智能幫助下達(dá)到人類(lèi)生存和繁榮的目的。
參考文獻(xiàn):
[1]MADRIGAL A C. Weekend Poem: All Watched Over by Machines of Loving Grace[EB/OL].[2020-08-11].https://www.theatlantic.com/technology/archive/2011/09/weekend-poem-all-watched-over-by-machines-of-loving-grace/245251/.
[2]ILLICH I. Tools for Conviviality[M]. London: Marion Boyars,1973.
[3]SIMANOWSKI R. Todesalgorithmus: Das Dilemma der künstlichen Intelligenz[M]. Vienna: Passagen Verlag,2020.
[4]AHLENIUS H, TNNSJ T. Chinese and Westerners Respond Differently to the Trolly Dilemmas[J]. Journal of Cognition and Culture,2012(3/4):195-201.
[5]CAPURRO R. Toward a Comparative Theory of Agents[J]. AI & Society,2012(4):479-488.
[6]IEEE. The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems[EB/OL]. [2022-01-01].https://standards.ieee.org/content/ieee-standards/en/industry-connections/ec/autonomous-systems.html.
[7]ANDERS G. On Promethean Shame[M]//MLLER C J. Prometheanism:Technology,Digital Culture and Human Obsolescence.London:Rowman and Littlefield,2016.
[8]LESCH H. The Capitalocene[EB/OL]. [2020-08-20]. https://www.youtube.com/watch?v=6wLlWWp8Vcg.
[9]HOFKIRCHNER W. Creating Common Good: The Global Sustainable Information Society as the Good Society[M]//ARCHER M S. Morphogenesis and Human Flourishing. Dordrecht: Springer,2017:277-296.
[10]HOFKIRCHNER W. A Paradigm Shift for the Great Bifurcation[J]. Bio Systems,2020,197(Nov).
[11]ILLICH I. Tools for Conviviality[M]. London: Marion Boyars,1973:5.
[12]HOFKIRCHNER W. The Commons from a Critical Social Systems Perspective[J]. Recerca: Revista de Pensament i Anàlisi,2014(Apr).
[13]CURTIS N. Countering Idiotism 2.0: “Relational Imaginaries” and Common Futures[J].New Zealand Sociology,2020(2):165-181.
[14]HOFKIRCHNER W. Intelligence, Artificial Intelligence and Wisdom in the Global Sustainable Information Society[C/OL]. Proceedings of The Fourth International Conference on Philosophy of Information.[2020-05-14]. https://doi.org/10.3390/proceedings2020047039.
[15]WU K, DA K. The Impact of Intelligent Society on Human Essence and the New Evolution of Humans[C/OL]//Proceedings of The Fourth International Conference on Philosophy of Information, 2022[2020-05-15].https://doi.org/10.3390/proceedings2020047044.
[16]European Commission, Directorate-General for Employment, Industrial Relations and Social Affairs. Building the European Information Society for Us All: Final Policy Report of the High-level Expert Group [M]. Luxembourg: Office for Official Publications of the European Communities,1997:16.
The Future of Artificial Intelligence: “Machines of Loving Grace” or “Tools for Conviviality”?
Wolfgang Hofkirchner WU Tianqi
(1. The Institute for a Global Sustainable Information Society(GSIS), Vienna 151220, Austria;
(2. School of Humanities and Social Sciences, Xian Jiaotong University, Xian 710049, China)
Abstract:
There are many scenarios for the future of artificial intelligence, and two are typical.“Machines of loving grace” is a technotopian future imaginary of a benevolent technocracy safeguarding an all-out harmony. Artificial intelligence as a kind of “Tools for conviviality”, that imaginary of the future sketches a balanced society too, but it reverses the order of influence: a convivial society shapes technology for conviviality. But the truth is no programme will satisfy a universal rule acceptable for all humans. Humanity would not need to fear that AI would become a malevolent being or a benevolent one, in principle, AI is incapable of malevolence and benevolence. But AI can intrude into the autonomy of humans to an intolerable degree.
Keywords:
information science; system theory; emerging;? wisdom society
(編輯:劉仲秋)