趙 磊
[提要]人工智能恐懼是現(xiàn)代技術恐懼的重要表現(xiàn)形式,它是技術恐懼與智能恐懼疊加引發(fā)的心理和行為反應。末日論和追求永生的文化傳統(tǒng),柏拉圖靈魂不朽思想,浪漫主義對技術的批判,弗蘭肯斯坦情結以及當前風險與恐懼文化的渲染等是人工智能恐懼存在的文化語境;人工智能發(fā)展的現(xiàn)代科技背景及其風險特征是人工智能恐懼存在的科學語境。超越競爭敘事、走出西方科學怪人情結、開創(chuàng)非柏拉圖的思維方式,充分發(fā)掘中國傳統(tǒng)文化中的自然主義文化和有機論思想,傳播以人性化為核心的科學文化是應對人工智能恐懼的文化路徑。負責任創(chuàng)新的總原則和總要求、安全可靠的道德智能體路線及以人為本的價值目標是應對人工智能恐懼的科學路徑。
對人工智能恐懼的分析,應注意到特定的文化語境,和當代科技對傳統(tǒng)文化的沖擊所施加的影響。毫無疑問,人工智能(Artificial Intelligence)已進入全球化時代,已經成為當代經濟發(fā)展的新引擎、國際競爭的新焦點。同時,人工智能又是難以準確預料后果的顛覆性技術,其不確定性和風險引發(fā)了全球的擔憂和恐慌,從機器與自動化帶來的失業(yè)風險,到人工智能的失控問題,再到“奇點”理論和超級智能引發(fā)的對人類未來的擔憂,人工智能恐懼問題始終困擾著人類?!坝袑γ篮门e動的贊賞,也有悲傷、甚至恐懼?!盵1](P.2)如何走出人工智能發(fā)展的困境,解決好人工智能恐懼問題?首先應分析人們對人工智能恐懼的具體表述,進而結合其語境揭示其內蘊,才有可能找出有效的解決之道。本文主要從文化與科學兩種語境出發(fā)解讀人工智能恐懼現(xiàn)象,力圖為人工智能治理提供理論依據(jù)。
人工智能恐懼首先出現(xiàn)在西方的文學、電影中設置的未來場景,后來轉向人工智能的現(xiàn)實實踐領域。早在20世紀40年代,控制論的開創(chuàng)者維納(N.Wiener)就預言自動化對于善與惡都有無窮的可能性。1960年,維納指出,智能機發(fā)展有朝一日會超過人類的智慧危害人類。數(shù)學家古德(I.J.Good)在1965年發(fā)表了一篇題為《有關第一臺超智能機器的猜想》的文章,預測計算機將從各方面超過人類的智慧和能力、超智能機器的出現(xiàn)會引發(fā)“智慧爆炸”,并指出“第一臺超智能機器將是人類的最后一項發(fā)明”。[2]近年來,隨著人工智能開發(fā)的再次高漲,霍金(S.W.Hawking)、馬斯克(E.Musk)多次強調人工智能將終結人類文明,將人工智能看作是人類最大威脅。二人都主張限制和規(guī)范人工智能的開發(fā)。吳昌勛(Oh C)等人以阿爾法狗與圍棋冠軍李世石的比賽為例研究人工智能恐懼。圖西阿迪亞(I.P.Tussyadiah)等人對自動駕駛汽車的實證研究表明,公眾的技術態(tài)度和信任會影響人工智能的使用,而“技術正在失去人性”的負面宣傳會導致人工智能恐懼。路透社《2017年度媒體預測報告》指出,人工智能已取代移動設備成為最熱門的技術話題,而圍繞它的實踐難題和倫理困境也將越發(fā)凸顯。卡爾斯杜·朱馬(Calestous Juma) 在《創(chuàng)新及其敵人:為什么人們抵制新技術》中指出,新興領域通常會給人們帶來一些不安,比如,人工智能、基因編輯和3D打印技術。瓦拉赫警示,也許我們的下一代會親眼看到200年前盧德派所擔心的夢魘發(fā)生,技術所搶奪的工作將遠遠超過其創(chuàng)造的工作。
近年來,國內學者也比較關注人工智能恐懼問題,最直接的表現(xiàn)就是近幾年熱火朝天的人工智能倫理研究,試圖通過倫理約束人工智能風險,降低人們對人工智能的憂懼。杜嚴勇認為人工智能的快速發(fā)展引發(fā)人們對其安全問題的普遍擔憂,并從內、外部指出了解決人工智能安全性問題的途徑。[3]江曉原認為,人工智能是人們在玩的一把非常危險的“火”,并從近期、中期和遠期表達了對人工智能的擔憂。[4]段偉文認為,人們對人工智能的疑懼不僅限于對透明人和隱私裸奔的不安,更在于對作為創(chuàng)造者的人是否會被作為其“終極創(chuàng)造物”的人工智能取代、傷害或毀滅的深度擔憂。[5]中國學者表達的“不安”“恐懼”與西方廣泛彌漫的由人工智能引發(fā)的實踐難題和倫理困境帶來的恐懼是一脈相承的。
此外,發(fā)源于西方的對現(xiàn)代科技的疑懼也表現(xiàn)于全球人工智能領域:人們每天都在不知不覺中成為人工智能工作的對象,同時也不自覺地為人工智能生產數(shù)據(jù),供人工智能學習、培育人工智能。如到處存在的人臉識別、每天針對性的廣告和閱讀派送、籠罩整個社會的數(shù)據(jù)與算法等。從1956年約翰·麥卡錫等人在達特茅斯會議上正式提出人工智能(Artificial Intelligence,簡稱AI)的概念至今,人工智能的發(fā)展幾經波折終于形成了今天席卷全球的發(fā)展浪潮,但自從人類萌生了人工智能的想法,甚至在其概念還并不明確之時,就一直存在著人們對這一事物的擔心。隨著人工智能從概念到現(xiàn)實轉變,人們對它的擔憂和焦慮也愈發(fā)嚴重,并成為人工智能時代人們的一種生活樣態(tài):毫無隱私的赤裸呈現(xiàn)、伴隨左右的不確定性風險、隨時發(fā)生的技術性失業(yè)、難以逾越的算法歧視、紛擾心靈的倫理關系以及未來主體地位的捍衛(wèi)等等,都令人在為人工智能叫好、吶喊的同時又擔驚受怕,這一現(xiàn)象被稱為人工智能恐懼。人工智能恐懼屬于技術恐懼的一種類型。技術恐懼指的是,人們對技術及其產品表現(xiàn)出的不適應、貶低、排斥、抵制、焦慮、恐慌等心理和行為反應。其反映的是“人與技術之間的一種負相關關系”[6](P.33)。因此,人工智能恐懼與其它技術恐懼一樣,也會表現(xiàn)為人們對人工智能及其產品的擔憂、焦慮和恐慌,從而產生抵制、否定人工智能的行為態(tài)度。其表現(xiàn)出的依然是人與人工智能的負性相關關系。
人工智能恐懼又不同于一般的技術恐懼,它是技術(人工)恐懼與智能恐懼疊加引發(fā)的心理和行為反應。人工智能首先作為一種技術形態(tài),具有一般技術人工物的特征,自古至今技術恐懼的各種歷史形態(tài)和表現(xiàn)也會出現(xiàn)在人工智能身上,比如人工智能作為新生事物(新技術)會招致人們的抵制和排斥,誤讀人工智能技術導致的焦慮和不安,人工智能的技術風險令人擔憂,人工智能發(fā)展給人帶來的技術壓力等。人工智能恐懼又表現(xiàn)為智能恐懼,包括兩個方面,一是從智能演化史而言,智能進化的不均衡引發(fā)了人類的恐懼。表現(xiàn)為高級智能或高水平智能對低級智能或低水平智能的控制、奴役、壓迫甚至迫害,導致人們對高級智能的恐懼。在亞里士多德看來,成為統(tǒng)治者的前提就是具有理性能力,即智力較高。正是基于這樣的邏輯,人們從最終意義上就恐懼人工智能超越人類智能,并使人類淪為機器的機器,或變?yōu)闄C器的能源。正因為如此,尼克·波斯特羅姆(Nick Bostrom)認為,我們的困境將與大猩猩相似,大猩猩的命運今天完全取決于我們。[7](P.vii)二是從文化發(fā)展史而言,長期存在的“泛靈論”是智能恐懼的文化根源。表現(xiàn)為自然以神靈的形式掌管世界,通過災難禍端來懲罰人的罪過,源遠流長的自然恐懼就是對自然神靈的恐懼,恐懼自然智能比人類智能的高超。用今天的科學觀點來看,所謂的各種自然神靈,只不過是人類以文化的形式創(chuàng)造出來的各種智能體而已,因此,也可以把它們看作是最早的人造智能或人工智能,對它的恐懼就是人造智能恐懼。當今人工智能科技的發(fā)展,把對人造智能的恐懼從文化變?yōu)楝F(xiàn)實。
人工智能是發(fā)源于西方的現(xiàn)代科技催生出的一種文化形式。人工智能恐懼存在著雙重語境,也就是科學語境與文化語境,雙重語境的人工智能恐懼是事物的一體兩面,既相互區(qū)別,又相互聯(lián)系,不可分割。
文化語境中的人工智能恐懼,是人與人工智能在文化層面表現(xiàn)出的負性相關關系。表現(xiàn)為文化上對人工智能的抵制、排斥、擔憂、焦慮、害怕、恐慌等心理和行為反應。
文化上的人工智能恐懼淵源久遠,流傳已久的世界末日論文化,即無論是自然神,還是人造物復活,都可能引發(fā)失控,從而導致人類甚至是整個世界的終結,即末日的到來,是其文化源頭之一?,F(xiàn)代意義上的人工智能科技尚未在西方問世,就早已存在文化上的針對人造物的類似針對人工智能的恐懼。在著名的皮格馬利翁神話中,一位雕塑家不接受凡間的女子,而愛上了他所做的一個女人的象牙雕像。他希望她能活過來,成為他的妻子。女神阿芙羅蒂滿足了他的愿望:她的嘴唇變得溫暖,身體變得柔軟。這一美好的神話很容易使我們聯(lián)想到當今的性機器人,二者都表現(xiàn)了人們對于超級的智能產物寄予的深切愿望。這種思想一直在西方延續(xù)著。但是,哥林人的傳說卻從另一方面反映了人們對人造智能的恐懼:16世紀,拉比用黏土制成了一個怪物,然后人們失去了對這個怪物控制。這或許是擔心人工智能失控的早期版本。瑪麗·雪萊的小說《科學怪人》是現(xiàn)代技術恐懼典型的文化反應,尤其是對機器人或人工智能恐懼的隱喻,突出強調了科學技術的危險,特別是人造人類肆虐的危險,盡管這部小說的主旨并不是反科學技術,而是揭示科學家需要對他們的創(chuàng)造負責,但《科學怪人》所描述的恐懼場景卻出現(xiàn)在今天人們對人工智能失控的恐懼和擔憂之中。著名科幻作家阿西莫夫將這種恐懼稱為“科學怪人情結”,他提出的機器人三原則,也正是基于對機器人失控的擔心。從《科學怪人》創(chuàng)作至今,科學怪人情結(弗蘭肯斯坦情結)一直是西方科幻電影或文學作品的創(chuàng)作主題,它深深地植根于西方文化和文明??茖W怪人情結是末日論文化的重要體現(xiàn),即擔心人工智能會成為人類甚至地球的終結者。
西方文化語境的人工智能恐懼還表現(xiàn)在人類追求不朽的文化傳統(tǒng)受到的挑戰(zhàn)上。這是一種對終極存在的恐懼。古今中外,追求永生或不朽一直是人們的美好愿望。這一點在宗教文化中體現(xiàn)得淋漓盡致。古人通過各種文化形式表達自己追求永生的意愿,并論證永生的可能。例如,柏拉圖認為,身體是靈魂的監(jiān)獄,身體是會腐爛的,但靈魂則是可以不朽的。這也就是文化上的超人主義。當現(xiàn)代科學技術,尤其人工智能研究者宣稱為超人主義提供了理論與現(xiàn)實上的可能之時,如科技手段可以幫助對抗人類的衰老,人工智能可以實現(xiàn)永生,有人認為現(xiàn)代人正在通過技術手段完成“柏拉圖程序”,但這也帶來了擁有血肉之軀的普通人的焦慮:當世界到處奔跑著機器人、電子人時,自然人該怎么辦?人工智能所允諾的“永生”是人類千百年來期望的帶有神秘感和美感的永生嗎?人工智能對血肉之軀的改造,是異化、傷害、侵占嗎?人工智能只能實現(xiàn)極少數(shù)人的“永生”從而加劇人類的不平等嗎?
西方文化語境中的人工智能恐懼還表現(xiàn)在現(xiàn)代文化的恐懼傳播上。尋求確定性,擺脫恐懼一直是人類追求的目標。但隨著現(xiàn)代科技社會不確定性的增加,以及人們對自己生命和健康的過度關注,恐懼文化已成為現(xiàn)代社會文化的重要構成部分,正如布德在《恐懼社會》中描述的,在現(xiàn)代社會,恐懼是一個影響每個人的問題,是我們時代的基本體驗。[8]恐懼已經成為認識和解決現(xiàn)代社會問題的重要視角,恐懼視角的形成又成為某些個人、團體甚至國家謀取利益的有效手段,恐懼政治、恐懼營銷、恐懼題材的文學藝術、恐懼心理和情感等等構成了現(xiàn)代社會的恐懼文化,以至于弗蘭克·菲雷迪(Frank Furedi)認為恐懼是推動全球運轉的隱秘力量。[9]恐懼文化的盛行與人工智能熱不謀而合,使得人工智能恐懼成為當今時代的熱門話題。人工智能給予了人們更多的恐懼話題,各種媒體為了某種利益對人工智能恐懼也樂而不彼。恐懼文化對人工智能恐懼有著社會建構功能和推波助瀾作用,人工智能恐懼豐富著恐懼文化的內容,二者相互助推,使恐懼成為智能時代文化的一大特征。
由此可見,文化語境的人工智能恐懼與人工智能文化和社會文化傳統(tǒng)密切相關,反映了文化領域存在的對人工智能的恐懼情緒和心理,它常常以宗教、文學藝術、哲學思想等形式反映出來,它是人們對人工智能的文化建構以及對該文化的理性反思,盡管多數(shù)時候這一理性反思超越了人工智能技術的現(xiàn)實場景,但文化語境的人工智能恐懼并非完全無中生有,它與現(xiàn)實人工智能風險相聯(lián)系,對于人工智能發(fā)展的未來走向以及解決人工智能引發(fā)的問題有著重要的導向作用。
這是基于人工智能科技發(fā)展的現(xiàn)代背景和現(xiàn)實存在的技術風險引發(fā)的人們的恐懼心理和行為反應。它是人與技術負性相關關系在人工智能技術領域的具體反應。人工智能存在的科學語境指的是現(xiàn)代人工智能發(fā)展的科學與技術環(huán)境。人工智能科技從問世至今,一般認為經歷了三個發(fā)展階段:第一階段是從20世紀60年代到80年代,經歷了初創(chuàng)時期第一次浪潮;第二階段是從20世紀80年代到21世紀初,以智能計算機的研究為契機,人工智能迎來發(fā)展史上的第二個春天;第三階段是從20世紀初開始至今,以深度學習技術的崛起為標志的人工智能發(fā)展的第三次浪潮。在人工智能半個多世紀的發(fā)展過程中,人們對人工智能技術階段(或類型)的劃分也逐漸取得了一致的看法,即把人工智能按照技術水平的高低劃分成三個階段,或三種技術類型,即弱人工智能階段(專用人工智能)、強人工智能階段(通用人工智能)、超強人工智能階段(超級智能)。
科學語境中的人工智能恐懼,在不同的人工智能發(fā)展階段或不同類型的人工智能環(huán)境下,其表現(xiàn)和特點也有所不同(如圖1)。根據(jù)技術進階和人工智能的不同類型,把科學語境中的技術恐懼劃分為三種表現(xiàn)形式,即技術恐懼層面的人工智能恐懼、現(xiàn)實意義上的人工智能恐懼和未來意義上的人工智能恐懼。[10]
圖1 科學語境中的人工智能恐懼表現(xiàn)形式
首先,技術恐懼層面的人工智能恐懼主要針對的是弱人工智能階段。弱人工智能也稱為專用人工智能(Special Artificial Intelligence),即專門針對某個領域的應用或專門任務設計的人工智能程序,只能完成特定領域的智能任務,如下棋機器人、掃地機器人等。這種智能程序雖然在它的專業(yè)領域具有較高的智能水平,但在其他方面卻表現(xiàn)平庸,因此,總體上看這類人工智能水平比較低。人們把這種類型的人工智能主要看作是機器,與其他技術人工物沒有太大區(qū)別,反映出來的主要是人們對物的恐懼,包括:一是基于自然主義的立場和觀點,反對自然的技術化、人工智能化,有人就擔心人工智能代替人的腦力勞動,會造成人腦的退化和思維的停滯,尤其腦機接口會破壞人腦的自然進化,會顛覆自然人的概念。二是基于習慣勢力對新事物的排斥而恐懼人工智能技術。人工智能技術的發(fā)展會打破人們已經熟悉和習慣的學習、工作和生活場景,會打亂人際關系乃至國家或地區(qū)之間的平衡狀態(tài),從而引發(fā)人們對它的焦慮和擔憂。由于人工智能等新技術的推廣和應用,還迫使人們去學習更多相關的技術知識、適應智能環(huán)境,也給人帶來巨大的心理壓力,導致人們反對和抵制人工智能等新技術。“對霍布斯和其他人來說,恐懼構成了對新事件的合理反應的一個維度。”[11](P.7)三是基于技術雙刃劍的認知和安全考量,恐懼人工智能的安全性和不確定性。由于人工智能技術復雜性,其存在的各種安全風險也令人不寒而栗。
其次,現(xiàn)實意義上的人工智能恐懼主要發(fā)生在強人工智能階段。強人工智能也被稱為通用人工智能(Artificial General Intelligence),這種人工智能不僅不再局限于特定領域的智能任務,而且能完成一切人能夠完成的智能任務——能夠像人一樣思考、學習和解決問題,智能水平非常高。當前通用人工智能已初見端倪,呼之欲出,但從技術發(fā)展階段上看依然處于弱人工智能階段,創(chuàng)造出像人一樣會思考的強人工智能依然困難重重。之所以把現(xiàn)實意義上的人工智能恐懼對應于強人工智能,是因為在人們看來強人工智能才更像智能體,對它的恐懼才是真正意義上對機器智能的恐懼。同時,強人工智能(通用人工智能)又不像超級智能一樣遙不可及,而是有了邏輯與技術上的可能性。當然,由于實質性的強人工智能還沒有出現(xiàn),現(xiàn)實意義上的人工智能恐懼對象,主要是現(xiàn)有較高水平的人工智能產品并帶有一定的前瞻性。其主要表現(xiàn)是擔心人工智能的技術替代作用以及人工智能引發(fā)的倫理問題。技術性失業(yè)引發(fā)的焦慮和恐慌已經成為當前人工智能恐懼的最主要形式。2013年牛津大學的研究人員估計,在20年內,美國47%的崗位將會受到計算機自動化的影響[12]。中國綜合社會調查2015年的調查數(shù)據(jù)發(fā)現(xiàn),一半以上的公眾有不同程度的失業(yè)恐懼[13]?!拔磥?0年估計有50%的人類工作將會受到人工智能的影響,其中翻譯、保安、客服、會計、司機等幾種職業(yè)將有90%的概率被人工智能所取代。”[14]人工智能導致的失業(yè)不僅會對較為機械和程式化的藍領工人帶來沖擊,對于具有中等職業(yè)技能的技術人員甚至白領也會帶來重大影響。
隨著人工智能水平的不斷提高和推廣應用,人工智能引發(fā)的倫理問題也使人感到疑懼。尤其隨著通用人工智能機器人的問世,人工智能的倫理主體地位問題開始被人關注和討論,這將引起傳統(tǒng)倫理秩序和倫理規(guī)范的變革,而使人感到不適與恐懼;人工智能對隱私權的侵犯、人工智能醫(yī)療的安全性和公平性問題、算法的濫用和歧視問題、人工智能被壞人掌控或失控問題等,都引發(fā)了人們對人工智能倫理風險的恐懼?,F(xiàn)實意義上的人工智能恐懼更多地表現(xiàn)為精神恐懼:機器越來越像人一樣有了智能,其風險也表現(xiàn)在它的智能性上;通用人工智能機器人的倫理地位問題也不同于一般的人與物的關系問題,而更像是談論人與人的關系問題,而倫理風險還會涉及對人性、人的本質的困惑;恐懼產生的矛盾也不再局限于物的矛盾,如失業(yè)恐懼不單是恐懼失去了生活來源(因為人工智能會創(chuàng)造更多的價值,通過社會保障的形式會分配到失業(yè)者手中),更重要的是失去了勞動和工作對于生活的意義、對于人生的意義而感到焦慮不安。
最后,未來意義上的人工智能恐懼,主要針對的是超強人工智能技術或超級智能發(fā)展階段。由于超級智能離我們還比較遙遠,因此,對于這一未來走向能否實現(xiàn),在理論研討中還頗具爭議,有人認為能夠出現(xiàn)比人類智能更高級的超級智能,它是不同于人類智能和通用人工智能的一種新智能形式。這種超級智能未來將統(tǒng)治人類,甚至反噬人類。也有人認為,超級智能在一個相當長的時期內很難實現(xiàn),甚至不可能實現(xiàn)。但不論超級智能會不會實現(xiàn),這似乎并不影響人們對它的恐懼,也就是未來意義超級人工智能恐懼的存在卻是一個事實。
按照現(xiàn)在人們的設想,超級人工智能是具有自主意識和主體意識的機器智能,這種機器智能會超越人的設計與制造,擺脫人的控制,甚至與人類爭奪地球的領導權和主人地位,這是人們最擔心和最不愿意看到的結果。因此,超級智能恐懼實際是人們對另一種主體的恐懼,也是對自己主體地位喪失的恐懼。這也是從人類萌生人工智能概念以來一直最擔心害怕的事情,瑪麗·雪萊的《弗蘭肯斯坦》、阿西莫夫的機器人三原則、斯蒂格勒的人工愚蠢、庫茲韋爾的奇點理論等,無不顯示出人們對未來人類毀滅或失去主體地位的擔憂。盡管這種形態(tài)的人工智能恐懼有點杞人憂天的味道,但不斷突破人的認知限度和挑戰(zhàn)各種極限的科學技術發(fā)展史證明,這一天或許會到來的。但總的來看,未來意義上的人工智能恐懼是一種預期的想象出來的恐懼。雖然所恐懼的對象具有非現(xiàn)實性,但恐懼本身卻是現(xiàn)實的。這一恐懼源于對人類整體力量缺乏信心,與對現(xiàn)實風險感知產生的恐懼不同:這種恐懼常常表現(xiàn)為群體恐懼,而不是個體恐懼;又常常與文化視域的人工智能恐懼交織在一起,構成一種科學文化現(xiàn)象。由此也可以看出,科學語境的人工智能恐懼與文化語境的人工智能恐懼并不是截然分開或根本對立的兩類人工智能恐懼,也不是對人工智能恐懼劃分的種類,而是同一事物不同的表現(xiàn)形式,不同的認識視角。
人工智能恐懼為人工智能的發(fā)展敲響了警鐘,有助于人工智能向善發(fā)展。但人工智能恐懼會引發(fā)人們對人工智能的敵視、排斥甚至破壞,嚴重者還會影響社會的穩(wěn)定。因此,如何應對人工智能恐懼現(xiàn)象就成為人工智能發(fā)展過程中需要解決的重要理論和現(xiàn)實問題。根據(jù)人工智能恐懼存在的雙重語境,主要通過文化和科學相結合的發(fā)展路徑走出人工智能恐懼的困境。
現(xiàn)代技術恐懼是一個錯綜復雜的問題,是由社會歷史文化、技術和個體多種因素綜合作用的結果,因此,技術問題的治理不能僅在技術層面上尋找答案,“調整技術體系的下一步就在于把它和我們已經開始發(fā)展的新文化以及地域新模式、社會新模式、個人新模式協(xié)調統(tǒng)一起來。如果認為,所有由技術造成的問題都應當在技術領域的范圍之內尋找答案,那么這種想法就大錯特錯了?!盵15](P.383)人工智能恐懼源于人們對人工智能的風險認知不夠,而人工智能的風險認知是風俗習慣、社會觀念、文化觀念、主體個性特征等多種要素綜合作用下做出的判斷,其解決也有賴于各種因素的有力配合,而社會文化既是各種要素的綜合反映,也是人工智能恐懼的存在視域,所以,從文化視角探討解決人工智能恐懼問題的方法就顯得尤為必要。
人工智能恐懼有很深的西方古代和現(xiàn)代文化背景,古代主要是猶太教、基督教等超越人類肉體及其它物質條件限制追求永恒思想、世界末日論思想,以及柏拉圖靈魂不朽思想的影響;現(xiàn)代則是浪漫主義思潮對科技的批判、瑪麗·雪萊《弗蘭肯斯坦》的隱喻等,使人們對人工智能的態(tài)度產生了重大影響。因此,要走出人工智能恐懼,就要走出西方的科學怪人情結,開創(chuàng)非柏拉圖的思維方式;充分發(fā)掘中國傳統(tǒng)文化中的自然主義文化和有機論思想,倡導有機技術、人機和諧的人工智能發(fā)展理念。
東方的自然主義文化追求自然的生活狀態(tài),反對一味地追求效率的技術,反對過度科學技術化。自然主義文化視技術性為人性的自然延伸,要求人們不能脫離開人性追求技術化。這一文化主張自然是技術發(fā)展的物質和材料基礎,技術的設計理念和原理、技術程序和規(guī)則都是對事物自然屬性和自然機制的運用,因此,技術的目的不應該是控制外部環(huán)境和主宰自然,而是洞察人性、表達心靈、協(xié)調人與自然的關系,幫助人們適應環(huán)境,彰顯生活的意義和價值。“沒有對人性的深刻洞察,我們就不能理解技術在人類發(fā)展中所扮演的角色?!盵16]有機論思想強調人與自然萬物是一個有機體,各種事物之間相互作用、協(xié)同進化發(fā)展。有機論思想是一種生態(tài)思想,是整體論思想,重視整體價值,重視各種事物的存在價值,強調事物之間的配合,而不是人類中心主義的主宰和統(tǒng)治。
從有機論和自然主義的文化視角看,人工智能無論是作為一種人工物,還是作為一種智能體,都應該符合有機論和自然主義的要求,都是自然界萬物有機聯(lián)系鏈條上的一個環(huán)節(jié),并服務于人與自然界的有機聯(lián)系和協(xié)調發(fā)展。無論是從技術一端還是人的一端,應該超越競爭敘事,人工智能的發(fā)展應以人的需要尤其以人類和平發(fā)展需要為價值目標,以人性化為發(fā)展訴求,而不是沉迷于控制、制約甚至危害他人,更不要一心追求超越人類,讓超人主義文化永遠停留在科幻中;人應視技術為自己發(fā)展的有機補充而不是敵人,更不能為了追求純粹的自然而反對技術,而應該與技術和解、和好,創(chuàng)造和諧的人機發(fā)展環(huán)境。
從文化路徑走出人工智能恐懼還應當創(chuàng)造和傳播科學文化,應當拋棄永生論和世界末日論的文化宣傳,科學認識生物的進化和自然界的演化規(guī)律。新陳代謝是自然界的普遍規(guī)律,妄圖借助人工智能實現(xiàn)長生不老,或者把人工智能的發(fā)展與末日論文化聯(lián)系起來的想法都是錯誤的。打造和傳播科學文化,還要做到弘揚科學精神,堅持求真務實、誠信友善價值觀,建構現(xiàn)代科技倫理規(guī)范。科學共同體的使命是以知識造福人類,技術的本質是讓人類自由地做自己。
首先,把負責任的創(chuàng)新作為人工智能發(fā)展的總原則和總要求。負責任的創(chuàng)新是近年來歐洲提出的一種創(chuàng)新發(fā)展理念,并逐漸得到世界各國的認同,發(fā)展負責任的人工智能已成為全球共識,這也反映出世界各國對人工智能發(fā)展的擔心。2017年《蒙特利爾宣言》指出要發(fā)展負責任的人工智能;2019年6月,中國在《新一代人工智能治理原則——發(fā)展負責任的人工智能》中,明確提出了人工智能“負責任”的治理原則。負責任的人工智能就是將責任倫理貫徹到人工智能發(fā)展的各個階段,目的是提高人工智能的安全性,降低甚至消除人工智能的各種風險;或者即使發(fā)生風險也能夠及時、準確地確定風險責任,并進行追責和補救風險傷害。人工智能雖然能夠做出產生道德后果的行為和決策,但人工智能并不具有道德思考能力,也不知道自己做了什么,所以,人工智能存在的各種問題說到底還是人的問題,無論是算法設計、芯片研發(fā),還是數(shù)據(jù)學習、具體應用,其各種安全和倫理風險都與設計者、研發(fā)者、使用者有著密切的關系,人工智能產生的各種后果也應該由這些相關人員對其負責。負責任創(chuàng)新的目的就是從技術源頭和制度規(guī)范上消除人工智能的惡意,促其向善,避免在人工智能風險責任上的集體無意識。如果人們知道產品是安全的,或者帶有一定的風險,但對自己的風險危害有責任保險,就會大大降低恐懼心理,從而消解人工智能恐懼現(xiàn)象。
其次,把倫理道德嵌入算法,構建道德智能體作為人工智能發(fā)展的具體路徑。負責任創(chuàng)新的總原則和總要求為人工智能的抑惡向善創(chuàng)造了主觀條件,但要實現(xiàn)人工智能的良性發(fā)展或消解其各種風險還需要一定的客觀條件,那就是人工智能產品本身如何對自己負責任,成為可信賴的產品,使人工智能成為道德體。把道德規(guī)范嵌入到人工智能的算法設計中去,是使人工智能成為道德體或可信賴產品的重要途徑。人工智能倫理是人工智能治理的重要切入點,也是當前學界研究的熱點和前沿問題,歐美中日等國家都出臺了人工智能倫理規(guī)范,谷歌、微軟、蘋果等企業(yè)也都制定了自己人工智能研發(fā)的倫理原則。人工智能倫理規(guī)范的制定較為容易,但要把其嵌入到算法,使人工智能成為有道德、可信賴的產品比較困難。人工智能黑箱的存在使得人們難以琢磨其行為機制,正如當前我們對人類智能還有諸多不能言說之處一樣。因此,道德規(guī)范的嵌入依然任重道遠,道德智能體也存在諸多爭議?!睹献印す珜O丑》云:“是非之心,智之端也?!眰惱淼赖屡c智能本就相與為一,離開倫理道德的智能是危險的,不管難度多大,人工智能的發(fā)展必然包含道德算法的應用,道德算法與其他智能功能算法同等重要,甚至需要優(yōu)先考慮,這不僅是應對人工智能恐懼的有效策略,也是人工智能發(fā)展的必經之道。
最后,把以人為本作為人工智能發(fā)展的價值目標。啟蒙運動喚起的科學技術理性導致了長期以來人與技術關系的異化,無視人性而追求效率,人服從于機器、服從于生產流水線。這一現(xiàn)象也會滲透到人工智能的發(fā)展過程中去,成為人工智能恐懼的原因和表現(xiàn)之一。因此,應對人工智能恐懼要還需要堅持以人為本的價值理念。以人為本,就是要圍繞人的需要,圍繞人性,圍繞服務于人發(fā)展人工智能,這是人類發(fā)展人工智能的初心,也是人工智能發(fā)展的歸宿。歐盟委員會、斯坦福大學、麻省理工學院的人工智能倫理都認為應以人類為中心。以人類為中心是就人與技術的關系而言的,即任何時候技術都是為人服務的。以人為本,還要求人工智能的發(fā)展要服務于人類可持續(xù)發(fā)展的大局,即服務于人類健康環(huán)境的需要,服務于人對物種多樣性的需要,服務于人的發(fā)展需要。以人為本,就要使人工智能的發(fā)展立足當下,放眼未來。要把研發(fā)重點放在現(xiàn)實意義上的人工智能方面,研究如何在現(xiàn)階段使人工智能更好地為人類服務,而不是把精力放在研發(fā)如何超越人類智能,實現(xiàn)超級智能上,這只能徒增人類的緊張感和恐懼感。
人工智能恐懼應對的文化路徑與科學路徑在人與人工智能的關系上會走向統(tǒng)一,文化傳統(tǒng)和社會環(huán)境是人與人工智能關系的基礎和價值導向,它不僅是人工智能倫理規(guī)范建構的基礎,也會沉淀為一種價值觀被嵌入到人工智能產品中去。人工智能產品的安全可靠性、其蘊含的價值品格、設計理念等,不僅會直接影響人與人工智能的關系,影響人工智能技術的接受度,而且會塑造新的文化和社會環(huán)境。因此,良好的社會文化氛圍需要安全可靠的人工智能產品來支撐,可信賴的道德智能體又需要相應的文化與社會環(huán)境來推動,二者有機結合是走出雙重語境人工智能恐懼的合理路徑。