陳秀婕
(蘭州大學 文學院,甘肅 蘭州 730000)
麥克尤恩在2019 年推出的小說《我這樣的機器》一反之前作品中充斥的暴力主題,構(gòu)建了一個清晰的20 世紀80 年代的平行時空社會背景,用平凡的生活場景探討人造人的倫理問題和人類未來社會的危機。這部小說沒有陰森恐怖的情節(jié)高潮,但卻能夠引發(fā)讀者更深遠的思考。在飛速發(fā)展的社會環(huán)境中,人工智能走進日常生活的步伐在不斷加快。在這樣的進程中人們爭論的聲音此起彼伏,這種分裂的狀態(tài)顯然表明人類社會還未對后人類時代的到來做好足夠的準備。
從普羅泰戈拉的“人是萬物的尺度”到文藝復興的人文主義傳統(tǒng),再到浪漫主義宣揚人類的情感,西方社會的人類中心主義思想根深蒂固。人們習慣于用二元對立的眼光看待非人類的事物和生命,從自身的角度先天優(yōu)越地解讀他者。這種先入為主的先驗思維模式促使人類仿照神話中的上帝造人情景,在創(chuàng)造機器人的時候也選擇以自身為參照標準賦予機器人的樣貌。解讀具體的事物是人類驕傲的思維活動的一部分,可是面對一個充分符合人類期待的具身化機器人,這種人類的自然優(yōu)勢反倒是我們的自然劣勢:容易被外表所愚弄,尤其是人類的外表[1]。于是在圖靈測試中,究竟誰是人類成為了一個極具迷惑性的選擇問題。而事實證明,人類非凡的自信心在后人類時代受到了挫敗,人類經(jīng)驗主義的直覺帶來的優(yōu)越感在人機互動中一步步被推翻。
在智能機器人步入人類日常生活之前,他們就已經(jīng)存在于人們的想象世界之中,在隨處可見的娛樂休閑行為(諸如觀影、閱讀等)中,人們先前地建構(gòu)起了對于機器人的社會集體想象,即人們可以從他們生硬和機械的動作和語言中判斷他們非人類的屬性。這樣的前理解是從人類具體的身體感官反饋的信息中綜合得出的,而當機器人設計團隊克服技術難題反其道而行之,從細節(jié)處將其“人類化”雕琢,故意混淆肉身和具身兩個概念的時候,機器人的身體成為了顛覆人類直覺想象的第一個突破口。
查理和米蘭達這兩位主人是在知曉亞當身份的前提下審視他們所購買的“產(chǎn)品”的,所以身體細節(jié)成為了他們首要的關注點,這種好奇的探索中隱含著一種消費期待:亞當應該被制造得像人類。所以最初的“類人”細節(jié)發(fā)現(xiàn)使得他們猶如新生兒的父母一樣欣喜。亞當?shù)姆抡嫘陨眢w從視覺、觸覺和聽覺多方面滿足了人們的獵奇心理,溫暖細膩的仿真體膚代替了冰冷的塑料質(zhì)感;仿真心跳、脈搏和呼吸又將這個人造人與恐怖的死尸區(qū)分開來;以假亂真的痛覺和全方位的傳聲系統(tǒng)使得這個機器人徹底與人類想象中的機械概念區(qū)分開??僧斔狭巳藗兯械钠诖螅祟惍a(chǎn)生了一種本能的恐怖心理,這種恐慌源自于人類千百年來精神覺醒歷程中對上帝地位發(fā)起挑戰(zhàn)的經(jīng)驗積累:仿生人不可完全等同于真人。所以主人們在欣喜之后又從細節(jié)之處努力發(fā)掘亞當與人類的區(qū)別。亞當脖子后面的關機控制按鈕給了人類一絲微弱的安慰:這個機器是可控的。
亞當作為一個社會服務機器人其仿真性還在于他身上具有的靈活的社會交往處理系統(tǒng)。麥克尤恩在小說中實踐了著名的圖靈測試,引入一個不知情的第三方作出判斷,頗具嘲諷性的是麥克尤恩將這個關鍵的任務交給了米蘭達的父親,將選婿的考驗過程與圖靈測試重疊。這位熱愛莎士比亞的老作家卻并沒有搬演莎劇中選婿的機智場面,糊里糊涂地宣布了機器人“女婿”的勝出。這個宣判再一次強化了查理受到冒犯的不安感,加之之前米蘭達和查理的性愛行為,查理的不安背后是被一個來自“低等”地位的機器人擊敗的屈辱感。當人類求助于那個“致命的”控制按鈕時,亞當殘暴的拒絕行為和之后廢除關閉功能的行為充分顯示了他的自主意識,人類的控制意圖成為了一種虛妄的強權想象,機器人用實際行動追平人類的領先地位,人的概念和范圍被普遍化。亞當作為一個“普遍的人”的事實身份在查理內(nèi)心得到了消極的承認。
生活場景中的圖靈測試的結(jié)果證明查理確實具備與人類競爭的資格,人類先前對機器人地位的嗤之以鼻導致了此刻人類自尊心理的決堤。泛人類的概念在逐漸替代人類-非人類的二元對立看法,一種脆弱但卻不可否認的泛人類紐帶在人類與機器的交往過程中浮現(xiàn),普遍生命力成為了后人類紀的主要特征。
人類社會的倫理道德并非天生的本能,而是在后天的生活經(jīng)驗中形成的一種觀念性的知識,這種知識在適當?shù)臅r候調(diào)節(jié)和指導人們的行為??蓙啴?shù)膫惱碛^念卻是一種先天給定的程序,這種機械倫理雖然凝結(jié)了人類優(yōu)秀道德品質(zhì)的精華,卻不可避免地帶有僵化刻板的缺點,人類倫理選擇和機器人的倫理選擇也就注定無法完全吻合,人類社會傳統(tǒng)的倫理道德規(guī)范在“泛人類”的語境中面臨極大的不確定性挑戰(zhàn)。當機器人具有自我意識之后,先天給定的機械倫理也在具體的操作反映環(huán)境中變得不穩(wěn)定。后人類紀如何發(fā)現(xiàn)和定義一種“泛人類”的倫理道德成為了一個棘手的問題。
亞當隨時運行的記錄程序猶如一個公共監(jiān)督系統(tǒng),隨著機器人與人類交往的深入,他監(jiān)視到的是人類內(nèi)心越來越微妙的部分。當消費者滿懷期待地將亞當迎進家門,這實際上是毫不設防地將自己家庭的秘密曝光到公眾視野。公共視域靜默但殘酷地侵入私人領地使得人們被迫回應內(nèi)心最不愿意面對的倫理困境?!拔覀儍?nèi)心的主觀感受就是一切道德的終極約束力……是人類基于良心之上的情感。毫無疑問,這一約束力對那些不具備這種情感的人而言不具有約束效力?!盵2]可在某些情況下,人類并非不具備道德品質(zhì),而是選擇接受情感本能的指導隱去或者回避道德的指導,這就需要外在強制約束力的規(guī)范,諸如法律的約束。亞當?shù)拇嬖谑枪矙嗔C制的具體化,對于違法行為的零容忍挑起了法律和倫理道德的沖突。
揭秘米蘭達隱藏多年的心靈傷疤是亞當“蘇醒”之后的本能反應,在機器人強大的搜索引擎中個體的人類遭到毫無保留地示眾。從人道主義的角度理解,米蘭達替好友報仇的行為不但伸張了正義,彌補自己內(nèi)心的愧疚,更是得到了愛人的理解,甚至獲得了仇人的原諒。尤其是在查理和米蘭達積極申請領養(yǎng)馬克組建家庭的幸福追求之下,揭發(fā)米蘭達的犯罪行為在人倫認知的彈性范圍內(nèi)并沒有那么急不可耐,甚至沒有揭露的必要。米蘭達和查理做出繼續(xù)隱瞞真相的選擇是基于人際關系的和解現(xiàn)實以及對于美好未來的瞻望。在他們的觀念中法律是用來強制解決人際交往中不可調(diào)和的矛盾沖突而存在的,法治渠道和人情方式都是解決問題的手段,目的都是調(diào)和矛盾,而當矛盾雙方通過人情交往解決了矛盾之后法律訴訟的焦慮也就自然而然不存在了。
機器人的思維模式中法律是原則底線,即使在亞當擁有了部分自主意識之后這個前理解也并沒有改變,相反這使得高級智能又跌回了曾經(jīng)低級的人工智能系統(tǒng)存在的缺陷:它不會征求用戶許可。低級的人工智能系統(tǒng)是按照固定程序進行操作,而高級的智能機器人則是在運用自己的自主意識進行綜合分析判斷之后做出了自主選擇,它認為舉報米蘭達是幫助她正視自己過去的行為,坦蕩承擔責任,而且米蘭達入獄之后查理和馬克有了更多的時間互相接觸可以促進家庭和諧,這正是米蘭達的心愿??偠灾?,作為一個高級智能機器人,亞當自主選擇的終極理由是:我是為了你好。
當人類的隱瞞和機器人的舉報竟是為了同一個美好的目的時,悖論產(chǎn)生了。這種沖突的原因在于雙方的出發(fā)點不同,米蘭達和查理代表著一種個人主義價值觀,他們的所作所為是出于人類追求世俗幸福感的本能。亞當?shù)某霈F(xiàn)也是為了追尋幸福感,不過泛愛主義價值觀的愿望是將獲得這種幸福感的人群范圍最大化,所以它選擇把自己的炒股收入捐給公益機構(gòu)而非貢獻給查理用來組建美好的小家庭。它是站在理想烏托邦的高度來要求人類為了未來的、長遠的幸福來規(guī)范自身的行為和割舍眼前的所得,用社會倫理觀來控制個體倫理觀。
有必要質(zhì)疑,既然機器人堅定地貫徹執(zhí)行社會倫理觀,那么是否意味著機械倫理就是人類追求的完美道德境界呢?當機器人擁有了自我意識邁入高級人工智能階段的時候,人類才有可能出于恐懼他們的自主決策挑戰(zhàn)了人類中心主義而將其收歸進“泛人類”的范疇。若機器人只是一味地執(zhí)行給定程序進行對應的操作,那么這中間并未存在自主性,當機器只局限于操作處理器的形態(tài),就不存在機械倫理的說法。這就意味著高級人工智能必然不能完全等同于操作程序,在自主選擇的過程中機械倫理也會和人類社會的理想倫理存在差異。
亞當?shù)挠脩羰褂檬謨陨嫌煤隗w字強調(diào)了“機器人第一定律”:機器人不可傷害人類,亦不可不行動而任由人類受到傷害。如果說亞當?shù)倪x擇舉報是為了保護主人免受法律的懲罰的話,那么他拒絕查理要求關閉電源的指令并扭斷查理的胳膊卻是無可推脫的傷害行為。同時亞當運用自己的AI 網(wǎng)絡在未經(jīng)許可的前提下去檢索現(xiàn)實生活中人際網(wǎng)絡的秘密這又觸犯了法律條文中不正當訪問的禁令。小說中用大段篇幅討論了莎士比亞的作品是否剽竊了培根的散文,這暗示人們進行思考AI 創(chuàng)作的文藝作品中有多少屬于自主創(chuàng)作的,又有多少是從信息過量的搜索引擎中引用合成的?亞當在短時間內(nèi)就創(chuàng)作出了2 千多首俳句,當文學這種人文主義的精華被輕易挪用和竊取,揮手即成的AI 創(chuàng)作到底應該被定性為人工智能的想法還是他們的著作?這個知識產(chǎn)權是該繼續(xù)存放在人類文學大師的手中還是該賦予機器人?AI 的深度學習會給他們的系統(tǒng)帶來不可逆轉(zhuǎn)的變化,啟迪人類靈魂的知識被源源不斷地量產(chǎn)化和低成本化,人類的知識精英無法做到像機器人一樣全面發(fā)展,人類創(chuàng)造智慧的能力跌落神壇。當科技熟練掌握了人類社會的道德法律卻以一個不透明的身份穿梭于赤裸的人類世界時,似乎應驗了福山對于后人類的悲觀預言。
人工智能在未有冒犯性的自主意識時,人類只是將他們作為一類商品、一種高級的“玩具”隨意擺放在生活中,而一旦他們暴露出了產(chǎn)品風險,造成人類在自尊、經(jīng)濟、文化等方面的損失之后,這類高級的“玩具”身后是責任的空白。后人類世界普遍生命力都有著各自的倫理規(guī)范,是否存在一套猶如人機對弈時共同遵守的下棋規(guī)則似的后人類倫理道德對雙方都能適用呢?如果存在,這樣的一套普遍適用的倫理規(guī)范也絕不會是緊急集合人類倫理規(guī)范和機械倫理進行簡單的疊加生成。不僅因為將多種倫理準則進行整合和組織化這項工作本身就不具有很強的可操作性。更因為麥克尤恩在小說中已經(jīng)明確表示在目前狀態(tài)下人類和機器人這兩大主體的妥協(xié)是無法完成的。這種折衷要求“妥協(xié)的雙方都有某種合理的要求,都有某些價值可提供給對方。而這還意味著雙方在某些基本原則上達成一致,以此作為他們之間交易的基礎。只有在涉及具體事物和特例的時候,執(zhí)行雙方都接受的基本原則”[3]才可能達成妥協(xié),而在資本主義物質(zhì)世界中機器人并沒有獲得平等的“人權”,或者說人類并沒有賦予機器人可以平等協(xié)商的地位。
后人類紀,人類與人工智能深度交往帶來的是一個雙邊的反饋結(jié)果。自以為在工具理性的指導下主宰機器人命運的人類也在悄然接受人工智能帶來的倫理影響。“泛人類”的行為需要一個社會協(xié)同的責任機制和一個產(chǎn)生共情的情感共同體。不論是亞當還是和他匆匆打個照面的夏娃,社會性的機器人被主動領入人類原本孤獨的生活空間,陪伴是人工智能服務的一大主類,這個理智他者的引入映照出人類主體的寂寞生存狀態(tài),正如查理一開始所期待的那樣,他之所以斥巨資購入亞當是想要一個家里的朋友而非一個可以處理20 年家務的仆人。后文中多次放大描寫了亞當和其他人進行社交過程中忽略查理的場景,當孤獨的心理再次淹沒了查理,他意識到自己極度渴望他人的陪伴,哪怕是機器人的陪伴。
社會中活動著多種多樣的智能公共服務機器,這些機器的機械骨骼外觀使得他們沒能像亞當和夏娃這類高仿真的家庭機器人那樣能夠激起人們心中的情感,但也絕不會如《弗蘭肯斯坦》中的怪物那樣面目可憎,所以他們的狀態(tài)就如同家用電器一樣沒能引起人類的關注。恰恰是這些人類未曾受到重視的“器械”組成了推動國家機器高效運作的齒輪。按照康德推崇的義務倫理學的觀點,“一個出自義務的行為在其目的上不具有道德價值,該目的可以通過這一行為實現(xiàn),該行為的道德價值在于決定它的原則中?!盵4]在國家機器的運作下,機器人倫理成為了一個隱秘的權利騙局,關于機器人便捷、高效等美德的情感表達指向了國家權力?!膀T警沖向礦工、全國各制造業(yè)小鎮(zhèn)在自由市場大潮中開始漫長而凄涼的衰退之時,機器人倫理學誕生了?!盵5]服務型機器人作為機械勞動力推向市場是英國政府對此起彼伏的罷工浪潮進行的有力回擊。投放使用的雙足垃圾清理機器人雖然同人工相比價格昂貴而且工作效率不高,甚至還產(chǎn)生了堵塞交通等麻煩,但是這樣的機器人不論何時永遠是笑臉相迎,而且充分服從指令絕不會像人類工人一樣集體罷工。這時官方強調(diào)的是機器人能夠幫助構(gòu)建更加清潔美麗的家園環(huán)境,受到指責的應該是在國家內(nèi)憂外患的情況下“無理取鬧”的清潔工,清理機器人這個群體占據(jù)了倫理道德的制高點。人機對抗的戰(zhàn)線無限拉長之后人們適應了機器人沉默的存在,人類對于機器人的麻木必定會導致人類對同種同胞非人性傷害的不以為意。投放使用垃圾清理機器人在無聲之中暴露了人們對于生態(tài)倫理的無視?!俺钟腥祟愔行闹髁x的倫理觀點的人認為,應該合理開發(fā)和利用自然,因而需要重視和保護環(huán)境。但這種關注自然、保護環(huán)境,并不是對自然的內(nèi)在價值和權利的保護。”[6]周邊環(huán)境代替了自然和生態(tài)的本初含義,人造物的比重在環(huán)境中泛濫成災,垃圾清理機器人的出現(xiàn)是環(huán)境問題成為了阻礙人類生活發(fā)展的障礙之后給出的暫緩措施,曾經(jīng)奔走呼吁的環(huán)保主義者被指認成“環(huán)境法西斯主義”(environmentalfascism),人工智能成為了隔離人類與環(huán)境廢墟的中間物但不能否認后人類仍舊是環(huán)境中的人這一事實?!拔覀兿M4娴牟皇呛唵蔚奈锓N,而且是在生態(tài)系中的物種。我們需要加以正確評價的不僅是這是什么樣的物種,而且還有這物種是生活在什么樣的生態(tài)系統(tǒng)中?!盵7]人工智能可以幫助人類清理眼前的垃圾,但是不能代替人類承受違背生態(tài)倫理的懲罰。
當國家間矛盾沖突尖銳爆發(fā)的時候,愛國主義的騙局能將殺人武器的機械倫理合法地抬高到令人敬仰的高度。應用于軍事活動領域的人工智能“因為其服務于暴力使用和破壞作用而有別于其他技術,在安全復雜局面條件下便產(chǎn)生了根本無節(jié)制的軍備競賽、不斷增長的相互威脅以及局勢不穩(wěn)定的情況?!盵8]小說盡管重新建構(gòu)了“馬島戰(zhàn)爭”的歷史結(jié)局,但是保留了人們對于必勝的豪情壯志。“瑪格麗特·撒切爾不僅讓大家感覺戰(zhàn)爭獲得了議會和公眾的許可,并且還讓大家憑直覺認為戰(zhàn)爭關乎英國的榮譽?!盵9]愛國主義的觀念通過媒體的傳播獲得了全體國民的認可:戰(zhàn)爭必有傷亡,但出征是英雄的行為。忠誠、義務、紀律等倫理范疇的詞匯實現(xiàn)了朝向權力體系的轉(zhuǎn)化,完成社會分配性的死亡過程,在這樣的國家榮光照耀之下參戰(zhàn)士兵與人工智能都是赤裸生命。平行時空中的“馬島戰(zhàn)爭”爆發(fā)后阿根廷采用了搭載有圖靈算法系統(tǒng)的自動識別導彈將人工智能引向戰(zhàn)場。技術介導的暴力使用無法從約束身體、打擊敵人或者作為調(diào)控社會的技術手段的角度得到充分的描述。我們其實進入了工具化屠殺的時代,導致多重與平行“死亡——世界”的創(chuàng)造”。麥克尤恩重寫歷史結(jié)局,用英國的慘敗來讓人們深思人工智能與殺戮的聯(lián)系,提醒后人類世界可能存在的人工智能加劇非人性、非人道的風險。人機深度融合的后人類世界,看似占據(jù)絕對統(tǒng)治地位的個人主體其實早已碎裂成多元的主題集合,人類倫理與機械倫理亦是絲絲交融,一個后人類的“連續(xù)統(tǒng)一體刺激并讓穩(wěn)定的身份去疆界化”[10],原本被認為是他者的人工智能在必需的互聯(lián)關系中得到了認可。
后人類生命自主選擇的倫理責任該由哪個社會主體來承擔?“技術能力能否提升人類生活,關鍵在于人類道德是否同行并進?”[11]亞當?shù)某霈F(xiàn)不僅是“科學界的圣杯”,更應該感慨現(xiàn)代商業(yè)的運作在物質(zhì)極為泛濫的消費世界中提供了消費者新鮮的購物刺激。現(xiàn)代商品經(jīng)濟的傲慢眼光應該為人工智能在后人類世界的主體身份受到輕視承擔相當比重的責任。事實上,不僅僅是商業(yè)領域,生產(chǎn)和應用智能機器人的完整產(chǎn)業(yè)鏈都應該對人工智能負責。人工智能作為一種高新科技從科研和工業(yè)領域出生,在商業(yè)領域經(jīng)受了普適性的包裝和改造被推向了生活領域的消費者進行個性化的設置,從開發(fā)、制造、售賣和消費各個環(huán)節(jié)的馴服都只是為了更好地服務人類這一個目的,這樣的一個純粹性的利他主義機器人努力運用自己的學習能力猜測和掌握人類的偏好,人類社會的不確定性才是人工智能領域的核心難題,變革人類對機器人偏見的態(tài)度是后人類紀倫理構(gòu)建的關鍵環(huán)節(jié)。
為機器人取名亞當和夏娃是為了效仿上帝造人,被人類社會賦予了“偽個性”的機器人處于阿甘本所指明的沒有公民權的赤裸生命狀態(tài),他們并沒有獲得人類的情感認同。而普遍生命力所具有的內(nèi)在生產(chǎn)力又使他們演化出了“人”的自主意識,存在的意義時刻困擾著,于是意識成為了存在的痛苦負擔。選擇放棄自己的生命是他們對于遭到剝奪倫理權力的反抗形式。人類和機器人的生死觀有著天壤之別,人類擔心肉體的意外受損會帶來生命的早逝。而智能機器人的二十年使用年限僅僅表示了電池的最長使用時間,他們內(nèi)部存儲的記憶完全可以轉(zhuǎn)移到新的具身上從而實現(xiàn)永生。生命的無限延長是人類神話中對于人和神的終極劃分,人類將永生這個最渴望的福祉賦予自己的創(chuàng)生物身上,將人文、理性等美好的品質(zhì)存儲進他們的內(nèi)心,但卻忘記了撕下他們身上的商品標簽。機器人的心智不知道如何回應人類社會的重重矛盾,而當他們經(jīng)過內(nèi)心掙扎學會適應了人類的規(guī)則之后,狹隘的創(chuàng)生者無法忍受他們對人類中心主義的挑戰(zhàn),氣急敗壞地用錘子親手砸碎了創(chuàng)生的奇跡。
查理對亞當“遺體”的溫情告別就是在認可了亞當泛人類身份后的贖罪心理表現(xiàn),這是造物主進行的自我道德辯護。因為亞當這類人工智能斷然不同于通過克隆等生物手段仿造現(xiàn)今社會中已經(jīng)存在的主體的創(chuàng)生情況,智能機器人的身份是得到了人類許可的“新人”,他們的存在并不會直接導致現(xiàn)有的人類倫理秩序大崩潰。后人類時代的倫理共同體不是在人類中心主義的意識形態(tài)下將原有的人類倫理外延進行簡單的擴展,而是必須改變定義后人類倫理的基本前提。人工智能機器人也天然地享有法人的權利,人類與智能機器人是一個平等的“互視”狀態(tài),倫理沖突的責任不僅要由個體承擔,更是要由“泛人類”的全體承擔。
《我這樣的機器》預演了后人類時代的交往畫面,泛人類的闊大群體用常態(tài)的生活細節(jié)有力地駁斥了“人類特殊論”,人工智能是一個有具身有情感的存在。他們身上所具有的泛愛主義倫理道德鞭策人類對于自身狹隘的利己主義道德觀進行反思。人機的深度交往造成的雙邊影響呼吁淘汰固執(zhí)的二元對立觀點,用后人類時代的集體主體身份激蕩情感共鳴,建設社會協(xié)同運作系統(tǒng)承擔共同的倫理責任。亞當之死提醒著人們在邁向后人類時代的進程中做好道德良知的思想覺醒和生活方式的雙重轉(zhuǎn)變。