(嘉興學院 南湖學院,浙江 嘉興 314001)
大數據、云計算、人工智能、區(qū)塊鏈、合成生物學等是新生產力的代表。各國激烈競爭、爭相占領人工智能技術的制高點。伴隨人工智能的研究、開發(fā)與應用,一系列諸如人工智能倫理、法律等問題擺在人們面前。2010年日本的寵物機器人帕羅獲得戶籍,2017年沙特阿拉伯的機器人索菲亞獲得了公民資格,人工智能體法律人格、權利的享有和義務、責任的承擔也成為學者們熱議的話題。法律人格關系到人工智能體權利的享有、民事責任甚至刑事責任的承擔,還涉及有關人工智能法律規(guī)制乃至人工智能產業(yè)健康發(fā)展,是解決人工智能相關法律問題的前置性問題,對此問題的研究意義重大。
現有關人工智能體法律人格的研究主要集中在以下幾個方面:
該研究大體上分為肯定和否定兩種觀點。否定的觀點認為,只有人類才可以理解“權利”與“責任”的內涵,機器對自己的行為的法律意義沒有辨認能力,法律對“電子人”之類沒有意義[1];人工智能是受自然人法律主體控制的代替人類工作的機器人,承擔義務或責任的本質還是自然人,沒有獨立性,且無法實際接受法律制裁,所以賦予其法律人格沒必要[2];法律人格是人類在漫漫歷史長河中靠斗爭得來的,人工智能本質上是二進制的機器,具有機械性,不具有人性,智能機器人被賦予“人格”將直接沖擊基于傳統(tǒng)“人類中心主義”的人類道德與法制體系,及其所構造的“主體—客體”調整格局,這將會導致包括技術霸權在內的對于人類生存的極大威脅[3]??隙ㄓ^點認為,“人可非人”到“非人可人”的歷史演變說明法律人格只是社會需要的法律形式[4];法律人格是一種社會建構,認可人工智能體的法律人格并不以“人工智能是自然人”為前提[5];人工智能體具有獨立自主的行為能力,有資格享有法律權利并承擔責任義務,應當具有法律人格[6];認可人工智能體的法律人格具有促進人工智能產業(yè)快速發(fā)展的現實意義,因此有必要對認可人工智能體的法律人格持開放性態(tài)度[7]。
法律人格內涵問題是基礎性問題,其既關系到法律人格取得的參照標準也關系到本文的論證思路。從現有法律人格理論來看,法律人格與權利、義務、責任相關聯,取得或授予法律人格即意味著主體在法律上有資格享有權利、履行義務和承擔責任。相反,沒有不享有權利、不承擔義務和責任的空洞的法律人格。在這方面,學者們的觀點基本是一致的。但對于符合什么條件才能賦予人工智能體法律人格,學者們卻各持己見。尤其是上述持否定說學者,以人工智能沒有情感、沒有理性、不具有可罰性等理由,否定人工智能體取得法律人格。
目前學界主要有兩種分類方法:一是以認知、推理和決策的能力的大小為標準將人工智能分為普通機器人和智能機器人。二是把人工智能劃分為弱人工智能(ANI)、強人工智能(AGI)和超人工智能(ASI)??紤]到認知、推理、情感、思維等的概念的含義不易界定、機理不易言明,筆者更贊成采用第二種劃分方法。該劃分以自然人為標準,相當于自然人智力的為強人工智能,低于或超過自然人智力的分別為弱人工智能和超人工智能,這樣的劃分界線很明顯,而且便于與自然人法律人格進行對比研究。
贊成賦予人工智能體法律人格者仍沒有回答諸如賦予人工智能法律人格是否危及人類的統(tǒng)治地位,人工智能體法律人格有無獨立存在的意義,即為什么不能像產品責任等那樣直接由生產商、銷售商或使用者直接享有權利、承擔義務和責任。而從法律人格的演進史來看,倫理是將“人可非人”的自然人賦予法律人格的根本動因,而功利主義一般被認為是社會組織獲取擬制法律人格的原因,如果人工智能體要獲得法律人格,其背后的根本原因究竟是什么?還有,諸如人工智能體符合哪些條件方能獲得法律人格,獨立性、自主意識、可罰性等是否為法律人格取得的必備因素?人工智能體可以獲得何種程度的法律人格也值得深入探討。綜上所述,學界對于人工智能體法律人格問題的研究已較為豐富,但還未對人工智能體是否應該具有法律人格形成統(tǒng)一的共識。本文嘗試分析人工智能體法律人格獲得的可能性和法理性,論證應賦予人工智能體有限的法律人格。
在人人生而平等被寫入《人權宣言》之前,巴比倫人被《漢穆拉比法典》分為奴隸、無公民權的自由民及上等自由民[8]。羅馬法中的權利主體并不包含奴隸,奴隸不是市民法法律關系的主體,而是法律關系的客體[9],我國元代的法律將其治下的臣民分成蒙古、色目、漢人、南人且賦予不同等次的權利。在古代,婦女在法律人格上對于丈夫具有一定程度的依附性也極為普遍。而就人的特別生長階段的胎兒來說,古今中外的法律制度對于其法律人格之規(guī)定也各有不同。
由上可知,民法人格從古羅馬私法到現代民法的發(fā)展,歷經了由具體的身份基礎的“人是人的工具”“人可非人”到“天賦人權”感召下的抽象的倫理性和法律人格結合的演變[10]。民法中的民事主體并不同于現實中的自然人,“與人不同”和“與人相同”都不是肯定或否定人工智能體獲得法律人格的理由,民事主體從來都源于法律的承認[11]。故倫理性和“天賦人權”不再是人工智能體成為民事主體的必要要件。
在法律人格的發(fā)展史中,為使自然人以及團體能夠在社會經濟生活中更好地發(fā)揮作用,組織或個體就需要相對獨立從事某種行為的資格,而這種資格就需要通過主體地位、權利能力、權利、義務和責任等來表達,法人的主體資格得以產生,自然人與法人二元主體結構開始出現。自然人經歷了從身份取得法律人格到倫理取得法律人格的發(fā)展過程,而“法人制度的出現純粹是‘非人可人’的功利主義的經濟生活的客觀需求導致法律技術進步的結果”[12]。財產和責任基礎的獨立性以及社會功能的重要性和自然人取得法律人格所仰賴的倫理性條件并列成為法律人格考慮的重要因素?!胺侨丝扇恕钡拇嬖谶M一步說明法律承認民事主體地位是基于現實需求[13]。
除“非人可人”的功利主義外,法人人格的產生還源于法人人格具有相對于自然人人格的獨立價值。個體利益與團體利益的背離是法人人格的獨立性價值的一個重要體現。首先,在意志上,團體內的個體意志不可能全部上升為團體意志,甚至出現各種意見難以調和的局面,這時候就需要有團體的意志;其次,在財產上,團體的財產和個體的私人財產混同的危害性也顯而易見,如,個體財產和團體財產可能均無法得到保障、個體需要負有無限的財產責任、團體責任無法落實等;再次,在執(zhí)行效率上,沒有一個代表個體的整體,執(zhí)行任何一項計劃都沒有效率甚至寸步難行;最后,從社會整體利益來看,組織法人資格的獲得有利于社會利益最大化。
部分學者認為,一旦賦予人工智能體法律主體資格便可能導致人類統(tǒng)治地位的喪失。誠然,迄今為止,所有有關法律人格的論證都是以人(即人類)為轉軸展開[14]。但筆者認為“以人(即人類)為轉軸展開”并不意味著要賦予人工智能體和自然人完全相同的法律人格,是否授予人工智能體法律人格和授予何種程度法律人格完全在于人類的掌控。
首先,在人工智能發(fā)展的問題上,“人類中心主義”一直是學者們和各國執(zhí)政者的共識。學界也普遍認為,無論如何都不允許人工智能和自然人平起平坐,人類不會容許機器人與人類共同治理國家[15]。其次,人類有信心能夠掌控并主導人工智能的發(fā)展,確保其不至于危害人類。我們可以在法律上要求人工智能算法編寫者在算法中植入人類道德的內容,如植入“以人為本”的理念和“阿西莫夫機器人三法則”等,并在其后的深度學習過程中進行不斷的修正與養(yǎng)成[16]。人工智能的發(fā)展可能超乎我們的想象,但人類駕馭人工智能的能力也是如此。最后,對人工智能體人格的承認能起到避免具體人格的缺乏導致規(guī)則的無所依存,達到完善以人類為中心建立相應的制度體系的效果。
另外,筆者認為,只要能夠享有權利或履行義務并承擔責任,即具有授予法律人格的現實性,而不一定如一些學者所認為的必須像具有完全民事行為能力的自然人那樣能享有權利、履行義務并承擔責任才賦予人工智能法律人格,因為如果這樣,必然得出人工智能法律人格沖擊“人類中心主義”而不能賦予其法律人格的結論。鑒于法律人格賦予的技術性,我們可以考慮借用且不囿于法人人格賦予的思路,來探討賦予人工智能法人人格??梢钥紤]人工智能只享有部分權利而不承擔義務,或既享有權利也承擔義務①可罰性與否也不是衡量能否授予法律人格的標準。如果套用自然人法律人格原理,甚至連法人也無法獲得法律人格。參見張鐳《人工智能體可罰性辯疑》,載《南京社會科學》,2018年第11期。。因為在邏輯上,享有權利、承擔義務和責任是取得法律人格之后的事情,其可能是賦予法律人格的目的,但不是標準。
對于上述原理的理解,是我們進一步探討論證人工智能體法律人格的前提和方法論。
國內外研究報告指出,甲醛是許多水產品的一種代謝中間產物,分布廣泛。但大多天然食物中甲醛含量較低,不會對人體健康造成威脅。水產品中內源性甲醛的主要前體物質是氧化三甲胺,是魚鮮美味道的主要來源。目前認為水產品中內源性甲醛主要通過2種途徑產生:一為生物途徑,氧化三甲胺可在內源性氧化三甲胺酶和微生物作用下,脫甲基生成二甲胺和甲醛;另一條為非酶途徑,主要是高溫過程的熱分解。這2種分解途徑都使得魚肉組織發(fā)生變化,影響水產品的品質和風味。此外,體內脂質的氧化或過氧化、氨基酸的代謝,以及脫甲基反應也可產生甲醛;甲醛亦是嘌呤、胸腺嘧啶生物合成的中間產物。
考察人工智能體法律人格的取得可能性首先要考察人工智能體法律人格存在的獨立意義。該問題主要是解決人工智能體是否有必要單獨享有權利或者單獨履行義務和承擔責任,如果權利、義務和責任完全可以歸于現存的某自然人或法人主體,那么人工智能體法律人格就失去了意義。因此,人工智能體法律人格有沒有獨立于自然人法律人格的獨立價值呢?筆者認為答案是肯定的。但是該問題的回答與人工智能體本身的獨立性密切相關,人工智能體法律人格的獨立價值與人工智能體的獨立性是兩個不同問題,本文將在下一部分詳細論述。
從法律人格發(fā)展史來看,一些立法和案例看似荒誕不經。比如,中世紀的宗教建筑、古羅馬時期的寺廟以及現代的一些沒有生命的物被視為權利主體,古希臘法和普通法曾把船舶等作為義務主體[17];從9世紀到19世紀,西歐一些國家把蒼蠅、蝗蟲等動物放上被告席,讓其承擔責任,并保證他們一定的“訴權”[18]。繼而,一些組織因被授予法人資格或不被授予法人資格的組織也獲得一定程度的法律人格。
上述有生命體、無生命體、社會組織,它們本沒有自我意識,也無行為及能力,無所謂享有權利或承擔義務,他們被授予法律人格的原因并不是因為他們可以像人一樣有爭取法律人格的意識,而是人類社會自身的一種需要。比如,保護動物或植物其實間接地是為了保護人類,對一些動物苛責其實也是保護人類。并且這種需要在某個社會背景下達成了共識。法律中的“人”終究只是立法者基于現實需要的一種確認或者虛擬,因此,人工智能體可能純粹因為人類的某種需要而被賦予法律人格,但是這種需要必須是達成了社會共識。把寵物狗當成自己孩子的女主人在寵物狗被出租車壓死之后無法要求肇事者以命抵命①《出租車撞死未拴繩寵物狗,狗主人:你把我孩子撞死了,你要賠一命!》,參見http://www.sohu.com/a/242675669_100177351。的原因就是因為只有她自己把狗授予法律人格,但整個社會沒有形成這個共識。
當前,某種程度上可以感知人類情緒并在人類情緒失落時給予安慰的陪伴機器人已經問世。在此情況下,人工智能體可能因為人類要考慮對它的尊重的需要而賦予其法律人格。同樣該種需要仍然必須是在整個社會達成了共識。前述的日本寵物機器人帕羅獲得戶籍和沙特阿拉伯的機器人索菲亞獲得了公民資格就是例證。
如前文所述,人工智能體法律人格獨立意義與人工智能體的獨立性分屬不同問題,但有很密切聯系。同時,人工智能的法律人格是有獨立存在意義的。
人工智能體的獨立性導致了法律權利、義務、責任享有和承擔邏輯中的因果關系中斷,人工智能體法律人格存在的獨立意義便凸顯出來,即應由人工智能體獨立享有權利、承擔義務和責任。人工智能的生產者一般是通過人工智能語言編寫與預置程序(即算法)達到讓人工智能完成在程序設計與編制范圍之內進行活動,但也會對人工智能面對的各種意外情況盡量作預先安排,以保證人工智能體在面對人類之前未曾精確預測的復雜情況時,可以通過“學習”,“自主性”與“創(chuàng)造性”地形成“決策”機制來盡可能實現制造者預想達到的目的。當然,人工智能體也可能作出完全超出生產者預估的應對。在這些情況下,人工智能獨立性就凸顯出來。比如,在當前弱人工智能時代,由于自動駕駛程序系統(tǒng)的開放性設計和深度學習設計,在運行過程中對路況自主預測并自主決定,但可能因其不能窮盡所有場景或即使能夠窮盡但艱難情況下難以抉擇,這些因預測失誤或兩難選擇而導致侵權時讓生產者承擔產品責任并不合理[19],賦予人工智能獨立法律人格就成為可能。對此,一些國家已經對這些問題作出了積極的回應。如2016年2月4日,美國國家公路交通安全管理局(NHTSA)在給谷歌公司的回函中表示,根據美國聯邦法律,谷歌自動駕駛汽車中的自動駕駛系統(tǒng)可視為“駕駛員”[20]。2017年10月,歐盟議會法律事務委員會《歐盟機器人民事法律規(guī)則》(European Civil Law Rules in Robotics)中就涉及重構責任規(guī)則和考慮賦予復雜自主機器人以“電子人”的法律地位[21]。
在強人工智能時代,擁有超級計算能力的量子計算機的應用、算法交互、人工神經網絡的完善,加上除了初始的設計者、開發(fā)者團隊外,任何人均可能參與到其系統(tǒng)開發(fā)與制造中,系統(tǒng)的開發(fā)與研究具有秘密性與分散性、不連續(xù)性及不透明性。人工智能體生成之后不斷學習、反思、積累經驗與嵌入成長經歷,獨立決策并自我行動,輸出的方案更不可預見,執(zhí)行的任務也會更復雜[22]。猶如法人意志與其股東意志之間的間接性一樣,“制造者”群體的意志與人工智能系統(tǒng)之間的間接性便產生了。間接性、不可預見性以及強人工智能特有的自主性等導致人工智能的獨立性更強[23]。此時,只有保持人工智能法律人格的獨立性,才能更好地發(fā)揮其為人類謀福利的價值。
考察人工智能體的獨立性通常要考察其自主意識、思維和情感。但首先我們要弄清楚的是,自主意識、思維和情感是否都是獨立性必備的要素。
自主意識是對自我存在的認知,自主意識不僅能辨認自己的行為,而且對于自我行為的社會意義有辨認能力,一般認為人工智能體的自主意識只有在設想的強人工智能時代才能產生。自主意識和不可預測性分別是獨立性的高低不同層次的表現,但不直接等于獨立性,雖然自主意識可以產生獨立性已基本是人類社會共識,但自主性和獨立性仍然是兩個概念。如果賦予人工智能法律人格,獨立性并不必然依賴于自主意識、思維、情感等而產生,比如,大陸法系已有財團法人設立之后,其發(fā)起人當然地退出,而法人僅僅因為獨立的財產而繼續(xù)擁有法人人格的立法例。當然,自主意識、思維、情感可以因為社會共識作為人工智能體獨立性產生并獲得法律人格的另外原因??闪P性也不是法律人格必須考慮的因素,可罰性是責任承擔問題,如前所述,作為一個擁有法律人格的主體也可能只享有權利不承擔義務和責任,何談可罰性。
總之,我們不能用自然人獲取法律人格的標準甚至用自然人所具有的某些特征來作為人工智能體可否獲得法律人格的標準,更不能拿法律人格取得后權利享有、義務和責任的承擔來作為法律人格取得的標準,因為這只是結果不是原因。還有一些學者提出了諸如感知能力、意思表示能力、言語能力、訴求能力等作為獲取法律人格的標準,但筆者認為,所有這些都可以用其是否會導致獨立性來衡量其對法律人格取得的貢獻。
雖然人工智能體權利的享有、義務和責任的承擔不是人工智能體取得法律人格的標準,但研究人工智能體取得法律人格的主要目的就是進一步探討人工智能體權利的享有、義務和責任的承擔。相對于法人、動物和非生命體等,具有完全民事行為能力的自然人享有的權利、承擔的義務和責任是全面的和完整的。而當前的弱人工智能體法律人格的有限性決定了其責任的有限性:人工智能體只有機器軀體,沒有自然人倫理學上的生命體,工具性人格意味著人工智能體的行為應當受到使用者或占有者的最終控制且基本不享有倫理性的人格權或身份權、生命權,而只享有或承擔經濟性的財產權利和義務。在弱人工智能時代,可以考慮人工智能體在以下三個方面享有權利、履行義務和承擔責任:
第一,可以通過登記確立智能機器人作為自然人主人的占有人或代理人而享有財產權并承擔相應責任。
第二,與法人一樣享有獨立的財產權。具備相當智力與自我學習提高能力的人工智能體與法人一樣,都不具有倫理上擁有財產權的基礎。但可以根據人工智能水平的高低與法人一樣賦予人工智能體一定的財產權,以便于其獨立享有權利、承擔義務和責任。
第三,如前所述,某種程度上可以感知人類情緒并在人類情緒失落時給予安慰的陪伴機器人已經問世。在此情況下,因為人類可能要考慮到對人工智能尊重的需要,由此,我們可以在賦予其法律人格的基礎上賦予其受到人類尊重的權利。其實,尊重這類人工智能還是出于尊重人類自身的需要,如人工智能機器的使用者。
在責任承擔的法律形式上,我們或許可以考慮讓人工智能體承擔諸如合同責任和侵權責任。如在人工智能體參與的合同交易中,由人工智能體承擔繼續(xù)履行、補救、賠償損失的責任,在侵權責任中,讓人工智能體承擔消除危險①在人工智能體發(fā)生致害或有致害可能時,可以讓人工智能體結合其自身狀況,承擔檢測或修復其自身狀況的責任。參見陳吉棟《論機器人的法律人格——基于法釋義學的討論》,載《上海大學學報(社會科學版)》,2018年第3期。、排除妨害、恢復原狀、賠償損失等。有學者建議法律應該為智能機器人創(chuàng)造承擔財產責任的路徑,例如為智能機器人建立相應的基金賬戶,當他們給他人造成的損害時,優(yōu)先以這些資金進行賠付,也可以為人工智能購買保險[24]。在刑事責任承擔方面,可以設想向人工智能體植入人類文明和價值觀念,規(guī)劃人工智能體情感方面的深度學習與改造路徑,使得人工智能體能夠在犯罪與刑罰(刑罰的形式包括限制、剝奪自由,毀損等)之間進行理性權衡,以調整其之后的行為[25]。2016年歐洲議會向歐盟委員會提出的報告中,建議“確保至少最復雜的自動化機器人可以被確認享有電子人(electronic persons)的法律地位,有責任彌補自己所造成的任何損害……”[26]該報告中有關責任的規(guī)定其實就是承認了人工智能體傳統(tǒng)民法中的損害賠償責任。
縱觀法律人格的演進史,人類經歷了“人可非人”到天賦人權感召下的自然人倫理性法律人格再到“非人可人”的發(fā)展歷程,倫理是將“人可非人”的自然人賦予法律人格的根本動因,“與人不同”和“與人相同”不是肯定或否定人工智能體獲得法律人格的理由,而功利主義一般被認為是社會組織獲取擬制法律人格的根本原因。在邏輯上,享有權利、承擔義務和責任是取得法律人格之后的事情,其可能是賦予法律人格的目的,但不是標準,但這些卻又是我們在研究賦予人工智能體法律人格時重要的考慮因素。人工智能體法律人格有其獨立存在的意義,人工智能體也可因為人類需要的共識以及人工智能體的獨立性而取得一定程度的法律人格。賦予人工智能體法律人格并不意味著人類統(tǒng)治地位的喪失,弱人工智能可以享有有限的權利、承擔有限的義務和責任。強人工智能因為達到人類的智力水平,因此,筆者暫時不敢設想其法律人格,但筆者相信人類有能力駕馭人工智能,確保人工智能為人類服務。
一些學者認為,人工智能機器人已經不完全是一種工具,而在一定程度上具有了自己的意識,并能作出簡單的意思表示,并就此主張應當承認人工智能體具有法律人格。但筆者認為,目前這種具有自主意識的人工智能體還是相當少的,在自主意識程度上也是極其低的。我們尤其不能因為人工智能體有一些類似于人的行為就認為其已經有自己的情感和獨立意志,這無異于看到一些動物的類似于人的行為而將其神話或人化。因此,在立法層面,我們應重視法布里求斯提出的“相對權利能力理論”,即不應局限于法人和自然人這兩種法律人格,而應承認更多元的主體設計,使用更加具體的權利能力概念,可以考慮不同主體享有不同程度的權利能力[27]。