□郁樂
自近代工業(yè)革命尤其是信息技術革命以來,人類在技術文明的高速公路上爭先恐后地狂奔,甚至并不在意奔向何方。當前,令人心馳神往的智能機器人技術的完善與普遍化,將會為人類的生產、生活方式帶來前所未有的深刻變化,如同核武器的發(fā)明將人類文明置于存在的邊緣,機器人的普及也將從根本上改變人類的存在圖景。古代社會的富人被仆人圍繞,發(fā)達消費社會中“富裕的人們不再像過去那樣受到人的包圍,而是受到物的包圍”[1],未來人們將會被機器人圍繞,不僅生產、生活方式發(fā)生巨變,而且人們與物的關系乃至人們彼此的關系都將受到深刻影響。在這種“存在論級別的巨變”[2]的未來想象中,機器人能否擁有權利,是一個充滿未來感的問題。以人的形象與智能為藍本制造出來的人形自動機(humanoid robot)在人類社會生活中發(fā)揮著某些人類的功能,機器人有足夠理由成為權利主體嗎?如果能夠,機器人可以擁有與踐行哪些權利?這樣的權利擴張對人類生活將會構成何種影響?或者,賦予機器人權利的道德想象本身是否也需要反思?
隨著人工智能(artificial intelligence,簡稱AI)技術的迅速發(fā)展,“機器人”(robot)①機器人(robot)概念最早由捷克作家恰佩克提出,就該詞的原初意義來看,被解釋為“完成人的工作的機械,自動機,在捷克語中的原義(robota)是指強迫的勞役(mechanism doing the work of a man,automaton;Czech,f.compulsory service)”,并無漢語“機器人”這一偏正詞組所擁有的強烈語義暗示:“機器的人”。事實上,作為技術人工物(technical artifacts),機器是機器,人是人,本質上完全不同,這一概念有著邏輯上的內在矛盾,類似于“圓的方”;機器人權利主張的內在矛盾也與此概念有關,本文將會在第四部分對此展開論述。本文論述中機器人概念特指智能機器人,而非僅僅具有人形的機器;為行文簡潔,智能機器人有時也稱之為機器人。[3]這一擬人化的名稱已經不僅僅是科幻文學的想象了,作為自動機(automaton)的機器人已經越來越成熟,如日益普及的工業(yè)機器人,日益成熟的服務機器人與伴侶機器人,甚至各國競相研發(fā)的戰(zhàn)斗機器人,將會在生產生活中占據越來越重要的地位。因此,人們如何面對這種技術人工物?機器人是否能夠成為人工道德智能體?將擁有何種道德地位?是否能夠成為享有權利的主體?這些并不是遙不可及的問題;對此問題持應該將權利主體地位賦予機器人的擴張主義觀點居多。
在現代道德與法律話語與實踐中,權利無疑是至關重要的概念,是現代人自我認同與自我保護的核心觀念,甚至可以說,現代社會的進步即以權利的外延與權利主體的外延的擴張為衡量標準。追溯權利主體的擴張歷史,可以看到,在古代社會如羅馬僅有成年男性貴族享有權利,英國貴族群體通過斗爭確立了大憲章(Magna Carta)中的“天賦權利”,沿著“英國貴族—美國殖民主義者—奴隸—女人—印第安人—勞動者—黑人—大自然”[4]的擴張路徑,到人類群體普遍享有基本權利、具有充分權利意識的現代社會階段。不僅如此,部分激進的權利擴張主義觀念甚至認為應該將權利賦予有生命與生活、感受、利益甚至“信念與欲望”[5]的動物群體(動物福利論與動物權利論),或者進一步將權利擴張到具有人的形象與智能、能夠與我們共同工作與生活的機器人。
回答動物或者機器人能否享有權利這一問題,首先需要澄清權利概念本身的內涵??疾旄拍畹膬群瓚搹娜粘UZ言中的使用及其變化來分析,如弗雷格所指出的:“要在句子形成的語境而不是孤立地探求詞的意義”[6],因為詞語的真正意義存在于它的具體使用中。權利(rights)本身來自于日常語言中的謂詞(right),意味著法律與道德意義上的正確。然后在使用中形成了抽象名詞,即在法律與道德意義上正確的行為。換句話說,如果一個人這樣做是正確的(right),那么,他就擁有這樣做的權利(the right,法律與道德權利)。例如,他拿回自己借給他人的書,這種行為是正確的,那么,他就有權利這樣做。因此,權利的內涵就是行為在法律與道德意義上的正確性;說一個人有權做某事(he has right to do something),無異于說一個人做某事是正確的(he was right to do something)。這種形容詞的抽象名詞化,還有另一對關聯概念可供參考:just意味著恰好,justice指的是正義,恰好(just)給予人們所應得的,就是合乎正義(justice)的。
在權利的根據這一哲學問題上,人們從不同的立場與視野出發(fā)提出諸多解釋。有學者進行了比較全面的總結:“人的權利是神送給人的禮物、來源于人類的直覺、人類社會發(fā)展到一定階段的產物、來源于道德共同體?!盵7]這四種理由從不同角度描述了權利的根據與特征。在上述特點中,“來源于人類的直覺”與“來源于道德共同體”揭示了權利概念的重要特征:雖然權利的存在必須以客觀的社會存在為基礎,但是,權利也表現為人們的權利意識與權利觀念,需要“道德共同體”成員的認同與承認,以共同的道德與法律信念體系為基礎,人們才能達成尊重與保護彼此合法利益的契約,從而在道德共同體中享有某些基本權利。當然,這種道德共同體作為社會存在也是“人類社會發(fā)展到一定階段的產物”。
機器人擁有權利與動物擁有權利的主張有著相似的思維方式與不同的道德動機。動物或機器人應該擁有權利的主張是一種擬人化思維,是源自人類自我中心的思維方式:將一切存在物看作與自己相同或相似的存在,或者將自身的存在特性與方式推己及人或者及物(動物與技術人工物)。有所不同的是,權利擴張主義認為動物應該擁有權利的道德動機主要是同情,而機器人應該擁有權利不僅出于同情,更多的是對人類形象、尊嚴的尊重與保護。但是,從權利概念本身的內涵來看,離開了right(正確)這一謂詞,就無法理解rights(權利)這一概念。正因如此,動物無法理解行為在道德與法律意義上的正確性,無法與人類共享權利意識,更不可能與人類形成道德共同體,無法真正地擁有權利。但是,在某些論者看來,機器人雖然不像動物那樣擁有生命、感受、利益與欲望,卻擁有理解行為之正確性的智能(雖然目前來看這種智能來自人類的設定),并能在程序設定的前提下踐行正確的行為。因此,機器人享有權利的理據應該強于動物。
如果權利擴張主義關于權利主體擴張到動物與機器的觀念能夠付諸實踐,人類與自然以及人類與自己的創(chuàng)造物(機器人)的關系將會發(fā)生根本性變化。那么,權利是否能夠賦予機器人呢?目前權利概念的實踐主體與言說主體僅限于人,權利的實踐基礎也僅僅是人類社會,“因為權利的概念在本質上屬于人,它植根于人的道德世界,且僅在人的世界里才發(fā)揮效力和有適用性?!盵8]究其原因,權利的擁有與實踐需要以“人的道德世界”為前提,“人的道德世界”以人對道德規(guī)范的理解與運用為前提;人對道德規(guī)范的理解與運用,以人所特有的道德情感與道德理性為前提;人的道德情感與道德理性,則是以人的意識與自我意識為前提。上述前提之前提的環(huán)環(huán)相扣實際上形成了一個必要條件假言連鎖推理:人的意識與自我意識是上述系列因果環(huán)節(jié)的必要條件,沒有此條件,一定不會有此后的因果鏈條;這就意味著,否定了這個必要條件,就否定了其后的系列因果鏈條。當然,即使有此前提條件,也不一定有此后的因果鏈條。因此,賦予機器人以基本的權利(rights),意味著機器人需要有類似于人的自我意識與道德意識,能夠判斷“自己”的行為在道德意義上是否正確(right);如果沒有自我意識與道德意識,機器人不可能擁有權利。那么,要解決的關鍵問題就是:機器人的智能能否等同或類似于人的自我意識與道德意識?或者,智能機器人能否發(fā)展出這種自我意識與道德意識呢?
首先,意識是以身體為前提的,身體對意識的重要性是不言而喻的,如老子所言:“吾所以有大患者,為吾有身”;王充認為,人的肉體就像蠟燭,精神(精氣)好比火光,“火滅光消而燭在,人死精亡而形存”[9];民間俗語也說,“人死如燈滅”。在很多情況下,自我就意味著肉體;即使考慮意識與心靈,肉體也是意識與心靈的居所與象征。希臘人重視感性生活,將身體的美與力量作為精神的表現與象征。法國啟蒙哲學家論證了快樂與痛苦(肉體的感受性)對于人的情感與行動的支配地位,“肉體感受性乃是人的需要,是感情、社會性、觀念、判斷、意志、行動的原則”[10]180,這對于我們理解意識、自我意識與道德意識極具啟發(fā)意義。
其次,在自我意識的產生與發(fā)展中,肉體的感受性(痛苦與快樂)是區(qū)分自我與非我、發(fā)展自我意識的感性前提。在與外部世界的交往過程中,嬰兒通過肉體的感受性尤其通過快樂與痛苦來理解自我與世界的界限(區(qū)分我與非我、身體與其他),尤其是痛苦的感受,如俗語所言:一朝被蛇咬,十年怕井繩。這種感受與界限是意識與自我意識的起源。同時,嬰兒通過注視人的面孔來建立與他人的情感聯系,并在大腦中逐步建立強大的處理表情信息的能力,從而發(fā)展出識別他人的情緒、情感與內心世界的能力。隨著年齡的增長,兒童在與他人的交往中通過他人對自己的看法與反應來建構自我形象,這種自我形象也是自我意識的重要組成部分。不僅如此,對痛苦與快樂相關的行為及其準則的反思與內化是道德意識的起源,對兒童來說,不想被小伙伴傷害的最好辦法就是不要傷害小伙伴,也就是說,兒童通過疼痛來理解“己所不欲,勿施于人”這一道德規(guī)范。
哲學以思辨的方式來理解肉體感受性作為意識與自我意識的前提,心理學則證實了以肉體感受性為前提的情緒與情感在意識中的重要地位。就大腦的基本結構、發(fā)展歷史與意識功能的關系來看,“雖然主管情緒的腦組織已經有了上億年的進化史,而主管人類理智的腦組織只有區(qū)區(qū)不足1000萬年的發(fā)展史,但這并不能證明,像傳統理論所闡述的那樣,我們的理性比我們的情緒更重要”[11]。事實上,恰恰相反,“通過科學和嚴謹的研究證明,情緒對大腦功能以及精神生活都處于中心地位,而絕不像主流科學一度認為的那樣,情緒僅僅是神經學中的一個瑣屑現象?!盵12]心理學提供了大量的關于肉體感受性對情緒、情感以及人的意識生活之重要性的研究:情緒與情感以肉體感受性為基礎,肉體感受性對情緒的影響是決定性的。例如,寒冷與饑餓帶來壓抑與絕望,溫暖與飽足帶來快樂與滿足,甚至陽光與顏色對情緒也會產生非常大的影響,缺乏陽光導致抑郁情緒高發(fā)。
第三,在道德意識中,肉體感受性的重要作用也是不可或缺的。法國啟蒙思想家強調了以肉體感受性為基礎的個人利益在道德意識中的重要地位:“利益支配著我們的一切判斷”,正直就是“只聽從公共利益的指示”[10]182-184。休謨對感受性之于道德意識的重要性早有洞見:“道德寧可以說是被人感覺到的,而不是被人判斷出來的”[13]510?!耙虼耍赖律系纳茞簠^(qū)別并不是理性的產物。理性是完全不活動的,永不能成為像良心或道德感那樣,一個活動原則的源泉?!盵13]499休謨把道德最終歸結為快樂與不快的情感:“一個行動、一種情緒、一個品格是善良的或惡劣的,為什么呢?那是因為人們一看見它,就發(fā)生一種特殊的快樂或不快。”[13]511休謨的這些洞見對道德心理學有著很大影響,開啟了從肉體感受性的角度研究道德意識的思路。在高舉理性大旗的康德那里,肉體感受性及其需求對道德意識也是至關重要的:“獲得幸福必然是每個有理性但卻有限的存在者的要求……因為他有需要,而這種需要涉及他的欲求能力的質料,也就是某種與作為主觀基礎的愉快或不愉快的情感相關的東西,借此就使他為了對自己的狀態(tài)心滿意足所需要的東西得到了規(guī)定?!盵14]
事實上,人們的諸多道德觀念都與身體的感受有著密切關系。關愛(拒絕傷害)與純潔(身體的健康要求)這兩種道德觀念起源于對身體的愛護。觸摸與擁抱會增加血清素與催產素的分泌,從而提升愉悅感與共情能力,進而促進信任與合作;清潔雙手的動作能夠堅定人們遵守道德規(guī)范的意愿(這可能是“金盆洗手”這一江湖習俗的道德心理根據),等等。這些肉體感受性對道德意識與觀念的影響,在道德心理學的實證研究中屢屢被證實。就當前機器人智能的運行原理與方法來看,上述這些肉體感受性及其對道德意識的影響應該無法在機器人智能中真實發(fā)生。即使能夠將這些道德觀念植入機器人智能中,那也僅僅是程序、數據與算法,而非真實的肉體感受性。即使機器人能夠完美地執(zhí)行道德規(guī)范的程序與算法,也并不意味著能夠理解這些程序與算法的道德意義與情感價值,如同機器人智能能夠以美的構圖法則(如黃金分割律)進行創(chuàng)作,也并不意味著它能夠欣賞這種構圖的美感,更不會在這種創(chuàng)作活動中體會創(chuàng)造性勞動帶來的幸福感與成就感。植入這種規(guī)則與算法的機器人,如同一位盲人色彩學家,知曉一切顏色的物理屬性與美學特性的相關知識、規(guī)律與數據,但從來沒有親眼見過顏色。
數學思維與計算主義是機器人智能的核心理念,這一理念自畢達哥拉斯時代就開始生長,并使得科學技術展現出統治性力量。畢達哥拉斯認為,“一切其他事物就其整個本性來說都是以數目為范型的,而數目本身則先于自然中的一切其他事物”[15]。從當前機器人智能的發(fā)展狀況來看,仍然以大數據與深度學習為基礎,同時也出現了以邏輯規(guī)則為發(fā)展方向的趨勢,但是,即使這些技術能夠飛躍式發(fā)展,也僅僅是模擬人腦結構功能分區(qū)中新皮層(neocortex)的部分功能,而不是作為一個復雜結構的人腦的整體功能。如我們所知,智能只是人類意識的部分功能,以眾所周知的“知、情、意”三分法來看,智能機器人僅僅模擬意識中的知性功能,作為體驗的情感功能與追求目的的意志功能,仍然是人工智能所無法模擬與實現的,因為這兩者與腦緣系統(limbic system)有著密切關系,尤其是在自我意識與道德意識中,以感受性為基礎的情緒與情感是非常重要的因素,情感功能與大腦結構功能中的腦緣與皮質層兩者都密切相關。因此,即使機器人智能最終能夠實現類似人類的意識,但目前看來,這一前景還是遙遙無期的。
如上所述,智能機器人因為缺乏肉體感受性,不會擁有類似人類的意識、自我意識與道德意識,從而也就缺乏成為權利主體的必要條件。即使智能機器人產生了以機器的感知與智能為基礎的意識與自我意識,與人類的意識與自我意識也有著根本不同,因此,它們極有可能產生與人類不同的價值觀。從這個意義上講,機器人如果真有“機心”,那將會是真正意義的“鐵石心腸”。例如,如果沒有以疼痛的感受性為基礎,機器人應該不會有關愛(避免傷害)和同情,其道德情感與價值觀念可能與人類完全不同。機器人可能也會遵守“不傷害人類”的法則,但不會真正理解禁止傷害的情感基礎與道德意義。事實上,這正是許多思想家(如霍金)所擔心的,他們甚至認為未來機器人可能具有的超級人工智能是“人類最后一項發(fā)明”。想象一下這樣的情景:具有超級人工智能的機器人,類似于尼采所說的超人,但是,這種機器人并不具有同情、憐憫與傷感等以肉體感受性為基礎的道德情感,極有可能給人類帶來災難。在這種情景中,人們就更不用去討論賦予機器人權利的問題了,而是需要考慮如何保護人類的生存權。
如上所述,機器人由于缺乏肉體感受性,不能產生意識、自我意識與道德意識,因而無法享有人類所擁有的權利。但是,在科技進步的推動下,有一種可能性必須加以考慮:通過技術的模擬能力,未來的智能機器人具有了類似于肉體感受性的感知能力,在某種意義上擁有了類似的意識、自我意識與道德意識。例如,機器人擁有了類似于人類眼睛的視覺感知系統,機器人的智能系統中內置了具有基本功能的自我意識,以及在所謂的機器人法則的基礎上,機器人擁有了以人類為中心的道德意識。在未來的日常生活中,人們面對具有高度智能的人形機器,為了滿足人們的道德想象與道德期待,建立人與智能機器人共存的道德共同體,愿意賦予機器人以權利,并以對待人類的道德要求來對待機器人。那么,在這種情況下,機器人又能夠享有哪些權利呢?人類社會的權利話語與實踐將會有什么樣的改變呢?
SUN Wen-wen, WANG Yin, ZHU Hui-ming, BI Ke, XU Li-sha
在人類當前的權利話語中,基本權利在邏輯上以身體與生命為前提。如果沒有以身體存在及其感受性為基礎的生命權,其他權利要么根本不會產生,要么完全沒有意義。事實上,肉體感受性不僅僅是意識、自我意識與道德意識的前提,也是基本權利的起源:生命權,追求幸福的權利與人格尊嚴等相關權利,也與身體的存在及其感受性有著不可分割的聯系。因此,權利話語大多首先談到生命權與追求幸福的權利,此外還有人格權、人身權、財產權、著作權、肖像權,等等。所以,我們大致按照這一權利序列逐一進行考察。
首先,諸多基本權利以生命權為前提,我們先考察機器人享有生命權是否可能,以及如何可能。如我們所知,機器人是自動機(automaton),是技術人工物,即使擁有了高度的甚至超級的智能,也并不會因此擁有生命、身體以及感受性。因此,如果生命權利與生命、身體及其感受性相關,那么機器人享有生命權是難以實現的。在充滿道德想象力的阿西莫夫機器人定律中,第一定律是“不得傷害人類”,將人類的生命權置于首位;第二定律是“服從人類命令”,第三定律要求機器人“自我保存”。阿西莫夫后來又加上了“保護人類整體的利益”作為第零定律。在這些定律中,“自我保存”比較接近于“生命權”。但是,機器人的“自我保存”其實是居于人類權利以及服從人類命令之后的,完全無法稱之為權利,因為權利的邏輯前提是平等。這三條定律的詞典式設定(lexical order)本身就意味著機器人處于必須服務人類利益與服從人類命令的不平等地位,在此前提之下再考慮“自我保存”。因此,這里的“自我保存”并非生命的自我保存的權利,而是機器人作為人類的文明成果與財產被要求“自我保存”,從而服務于前三條定律。因此,這些定律并沒有確立機器人本身擁有生命權的道德地位。
其次,機器人享有追求幸福的權利也是很難實現的。幸福(happiness)來源于快樂(happy),雖然并非所有快樂都是肉體感受性的直接產物,然而肉體感受性卻是快樂或者幸福的前提。機器人的結構與功能并沒有以人的肉體感受性為前提,雖然發(fā)達的技術會為機器人配備各種探測功能,捕捉周圍的所有信息并作出恰當反應,但是,機器人無法擁有友誼與愛情,也不會在被傷害的時候經歷以肉體感受性為前提的痛苦,雖然它也會根據程序采取恰當的行動進行“自我保存”,但這只是一種電子-機械反應程序,并非以神經系統為基礎的真實體驗。因此,機器人不會真正享有與實踐追求幸福的權利,也無法定義什么是幸福。因為如我們所知,人們只能根據自己關于幸福生活的定義來想象機器人的幸福,而人們的幸福是依賴于肉體感受性來定義的,機器人缺乏肉體的感受性,或者至少并沒有人類肉體的感受性。假設人們按照亞里士多德關于幸福的定義,機器人的幸福就是實現自己的內在目的,在自己的崗位上鞠躬盡瘁;這種所謂的追求幸福的權利并沒有改變機器人作為工具的命運。
第三,在以身體為基礎的生命權與追求幸福的權利之外,還有以人的形象與人格為基礎的肖像權與人格權。這兩種權利雖然看似無關肉體的感受性,但實際上仍然是基于身體的形象與利益而發(fā)展出來的。如果賦予機器人以人格、尊嚴與肖像等權利,實際上這仍然是出于對人的形象與尊嚴進行保護的自愛動機。但是,在機器人被生產出來的高度發(fā)達的信息社會中,賦予機器人以人格、尊嚴和肖像權利,與機器人被制造、購買與擁有的經濟現象和法律事實相矛盾。例如,機器人的功能、結構與外觀的設計與制造,都會由設計者申請知識產權專利保護;機器人被設計與制造出來之后,會被機構與個體消費者購買、擁有與使用。在這種法律事實中,機器人的人格權、肖像權等實際上無從談起,唯一能夠真實存在與實踐的只是歸屬于人類的財產權與知識產權。
人類與機器人在共同工作與生活的互動過程中,以人際交往的方式相處,作為“它”的機器人被人們當作“他”或者“你”,機器人被認為有一個“他心”或者說“機心”①這里本來是一個人們在互動中推知他人擁有類似自己“心靈”的“他心”問題,還隱藏著一個人們賦予具有人際互動功能的機器以“機心”的問題;限于篇幅,本文不展開討論。,建立穩(wěn)定的信任關系或者深刻的情感聯系,人們由此產生賦予機器人道德地位的愿望。這種愿望雖然是主觀的情感沖動與道德想象,出自人類對工作與生活伙伴的友愛之情,以及人類對自身形象與尊嚴的愛護之情,或者類似于希臘國王皮格馬利翁愛上自己創(chuàng)作的少女雕像的熱情,但是,賦予機器人以權利主體地位的理論與實踐困難卻是難以克服的。不僅如此,在上述所及的諸種基本權利背后還存在著一個邏輯前提:平等權。作為制作者的人與作為作品的機器人的平等關系,可以在浪漫的道德想象中浮現,也可以在激進的權利理論中主張,卻無法在現實的道德與法律秩序中得到安放。
在權利擴張主義的理論與實踐中,將權利主體擴張到動物的理論與實踐也難言成功。那么,給予作為人造物的智能機器人以權利主體地位,又能否成功呢?機器人作為技術人工物,是信息化時代工業(yè)生產的產物,相關財產權與知識產權的法律事實是確定的:作為被擁有的產品,是人類財產權的標的物;作為科技成果,以知識產權的方式歸屬于研究與設計者。被賦予權利主體地位的機器人又被稱之為“人工道德主體”(artificial moral agent),此類概念與“機器人”概念一樣存在著內在矛盾,本身就是一個悖論概念。此類概念的內在悖論特性并非語詞現象,而是機器人權利主張的內在矛盾,并且該悖論至少有如下幾個層面的表現形式。
首先,作為目的與手段的矛盾。機器人具有人類的形象與智能,人們由此產生將享有權利的道德地位賦予機器人的道德沖動:基于同情與自愛的道德情感,人們無法或者不愿以對待物的方式來對待具有人的形象與智能的機器人。但是,這里將會出現一個目的—手段的翻轉:原初作為手段而被制造出來的機器人,被人們漸漸地看作目的。捷克語中機器人(robota)的原意是“強迫的勞役”(compulsory service);追溯機器人誕生的初衷,也是因為人們需要將自己從“強迫的勞役”中解放出來。因此,機器人是作為達成這一目的(解放“強迫勞役”中的人)的手段。如果將權利賦予機器人,這種道德沖動看起來也符合康德所闡明的道德法則:“你的行動,要把你自己人身中的人性,和其他人身中的人性,在任何時候都同樣看作是目的,永遠不能只看作是手段?!盵16]但是,將作為手段的機器人看作目的,實際上假定了機器人具有“人性”,而如我們所知,機器人僅僅具有人的形象與智能,并不具有完整意義的“人性”。因此,如同將目的(人性)看作手段是不符合道德法則一樣,將僅僅作為手段的自動機看作目的,也會產生難以化解的道德悖論與情感沖突。
其次,享有權利與承擔義務的矛盾。機器人享有權利與機器人缺乏承擔責任的能力存在著內在沖突。由于權利與義務總是相對存在的,如果機器人擁有權利,也就必須在相應意義上承擔義務。承擔義務意味著機器人需要擁有承擔義務的能力,從目前的情況來看,難以想象機器人能夠擁有這樣的能力。無論如何,人們并不能判決一只誤傷工友的機械手臂以刑罰,它甚至不能對“自己”造成的傷害進行任何賠償。如果機器人導致了損害嚴重的交通事故,應該誰來負責?難道是機器人“本人”?由機器人引發(fā)的傷害行為,甚至難以在法律意義上區(qū)分“故意”還是“過失”。如果機器人擁有了權利主體地位,就應該由其“本人”來承擔。但是無論如何,如此的責任追究邏輯明顯違背人們的道德直覺。如果機器人在某類事故中被確定為責任承擔者,這意味著什么?現代社會高度復雜的責任追究鏈條導致的“有組織地不負責任(organized irresponsibility)”的狀況可能會進一步惡化。因此,即使在權利擴張主義充滿激情的想象中,這樣的場景也是無法接受的。
第三,機器人享有權利的平等要求與機器人權利能力的不平等存在著內在矛盾。這里其實存在著兩個矛盾:人與機器人的權利不平等,不同種類甚至批次的機器人之間的權利不平等。首先,機器人并不能享有以肉體感受性為基礎的系列權利(生命權與追求幸福的權利)。在機器人之間,由于技術水平、具體功能與制造批次不同,導致智能水平不同,因而能夠被賦予的權利能力與范圍也會有所不同;即使人工智能高度發(fā)達,適應不同場景的機器人的智能水平、權利能力也會有差異,其享有的權利也會因此不同。事實上,人們會發(fā)現根本不可能根據智能水平與具體功能來確定機器人相應的權利能力,從而賦予機器人以不同權利:首先,會造成事實上的權利不平等,違背了權利概念中內在蘊含的平等要求;其次,適應不同目的的機器人種類與型號將會如此之多(設想一下當前智能設備的種類與型號),以至于為每一具體種類或型號的機器人確定權利范圍將會成為不可能完成的任務。
機器人權利概念中的多重悖論,源自人們未能在道德思維中清晰地區(qū)分情感、事實與理性(邏輯)。清晰地區(qū)分這三種要素,是正確思考與有效交流的前提。具體而言,為了避免出現上述關于機器人權利的悖論,需要確認并區(qū)分如下三種要素:賦予機器人權利的情感沖動,也就是人們對工作與生活中的機器人的贊賞、熱愛甚至尊敬之情(情感);機器人并不能實現人們賦予它權利的善良愿望,因為它本質上仍然是技術人工物(事實);機器人權利問題涉及主體的權利資格與權利能力,要求義務的履行與責任的承擔,關乎人類的形象、福祉與尊嚴,不能付諸情感沖動而輕率從事,因為關于權利的事務是嚴肅的道德問題(理性)。從上述分析來看,機器人權利概念可以被看作一個康德意義上的道德幻象(Schein),因為“它是指對某種直接呈現的感性表象所作的不適當或不正確的判斷”[17]。換句話說,人們產生了賦予機器人權利的情感沖動與道德想象,然后努力尋找理由支持這一主觀的“感性表象”,進而形成了“不適當或不正確的判斷”。這種“不適當或不正確的判斷”的原因,在于人們混淆了作為主觀根據的情感與作為客觀根據的事實和理性:“判斷的主觀根據與客觀根據混為一談,并使這些客觀根據偏離了它們的使命?!盵18]
機器人并不能真正地成為權利主體,也不可能真實地享有權利。機器人權利的道德想象作為康德意義上的“道德幻象”是能夠得到有效消解的。機器人也許能夠在行為方面“合乎道德”,但不會真正做到“出乎道德”,因為“出乎道德”意味著機器人具有道德判斷能力與目的動機意識,并且能夠產生自己的目的并努力予以實現,從而享有追求自己目的的權利觀念與價值體系。對人類來說,這恰恰是需要高度警惕的。目前,機器人通過系列指令模仿與再現人類的智能與行為,只是看起來像人類的機器,只能享有看起來像權利的待遇(虛擬道德地位),如同家中的寵物,受到寵愛或者尊重,甚至被當作朋友或家人。但是,當小狗小貓咬傷他人的時候,它們并非承擔賠償責任的主體;與此類似,當機器人給人類造成傷害,其制造者與擁有者才是責任主體,機器人并不是責任追究的對象,因此,也不可能是享有權利的主體。
機器人享有權利似乎已經付諸實踐了。沙特賦予“女機器人”索菲亞(Sophia)以“公民權”[19],日本賦予機器人Shibuya Mirai以“居留權”[20]。但是,這些都只具有國家或城市名片的象征意義。莊子曾經講過一個寓言:魯國國君喜歡一只海鳥,于是“御而觴之地廟,奏九韶以為樂,具太牢以為膳。鳥乃眩視憂悲,不敢食一臠,不敢飲一杯,三日而死”[21],莊子認為將人所認為的幸福與尊貴賦予自然,實際上是在“殘害自然”,最終會事與愿違。將權利范疇用于機器人,如同將權利范疇用于動物,均屬范疇錯誤(categorical mistakes)。將權利賦予作為“技術人工物”的機器人,“單純對物的尊重(甚至會上升到拜物)必然是對人的物化,這種物化未必能提升物的地位,卻必然會降低人的尊嚴?!盵22]
事實上,隨著人類社會的利益、權利與價值主體的多元化,已經產生了許多難以解決的矛盾與沖突。賦予機器人權利不僅不會緩解這一現狀,反而會因為機器人成為了權利主體,使得機器人彼此之間以及機器人與人類之間的權利沖突大大增加。需要反思的是,人與人之間的權利與利益沖突是人類社會矛盾或爭端的根源,但是,人們仍然想要制造人形的自動機并賦予它們以權利。這種需要及其內在動機是值得深刻反思的:也許人們并不是真的需要象人一樣的機器,而是更想要象機器的人。人們需要完全服從自己的目的、利益與意志的他人,但這一愿望是無法實現的,退而求其次,就只能指望服從自己目的、利益與意志而活動的機器人。正是出于這一動機,人們需要工作機器人、服務機器人與伴侶機器人,并設想與它們的共同生活,并賦予它們以人的形象與權利。這種動機的道德意義及其相關問題,還需另文討論。