袁洋
摘 要:隨著人工智能技術(shù)的發(fā)展,傳統(tǒng)民法人物二分的體系受到挑戰(zhàn),學(xué)界對是否賦予人工智能民事法律主體地位存在較大爭議。以創(chuàng)造者、生產(chǎn)者能否控制人工智能為標(biāo)準(zhǔn),可將人工智能劃分為弱、中、強三個層次,在此基礎(chǔ)上解決人工智能導(dǎo)致的一系列民事責(zé)任問題。弱人工智能可視為物,不賦予其法律主體地位;對于中人工智能,生產(chǎn)、創(chuàng)造者以能夠控制的范圍為限承擔(dān)相應(yīng)民事責(zé)任或者監(jiān)護責(zé)任;強人工智能能夠完全擺脫生產(chǎn)者和創(chuàng)造者的控制并自行創(chuàng)造新的人工智能,法律應(yīng)賦予其獨立的主體地位,將其視為擬制人或者一種特殊的法律主體。
關(guān)鍵詞:人工智能;民事法律主體;民事責(zé)任
中圖分類號:D923 ? ? ?文獻標(biāo)識碼:A
文章編號:1003-0751(2019)08-0063-04
2017年美國漢森公司研發(fā)的人形機器人索菲婭被沙特阿拉伯授予該國公民身份,成為歷史上第一個被授予公民身份的機器人。索菲婭擁有和人類相似的外表,能夠憑借復(fù)雜的機械結(jié)構(gòu)變換表情,利用人工智能算法實現(xiàn)面部識別、語言理解并與人類互動。這引發(fā)了學(xué)界對人工智能法律主體地位問題的熱烈討論。從人工智能的發(fā)展現(xiàn)狀來看,人工智能已經(jīng)表現(xiàn)出相應(yīng)的表達(dá)能力,可以與人類進行交流;其計算能力已遠(yuǎn)超人類,以AlphaGo為代表的人工智能在戰(zhàn)勝人類棋手的基礎(chǔ)上進行的自我對弈甚至給專業(yè)棋手以啟迪。人工智能在技術(shù)層面上已經(jīng)可以從事數(shù)據(jù)查詢、信息分析、翻譯等工作,甚至可以根據(jù)以往判例對新的案件進行分析,一些律師業(yè)務(wù)可由人工智能獨立或輔助完成,這引起了法學(xué)教育者及法律實務(wù)工作者的憂慮。①面對人工智能技術(shù)的挑戰(zhàn),法律應(yīng)有所回應(yīng)。
一、人工智能民事法律主體地位的相關(guān)爭議
民法學(xué)者對人工智能的研究較為多元化,持否定觀點和肯定觀點的學(xué)者都不在少數(shù),相對而言更多學(xué)者持否定觀點。持肯定觀點的學(xué)者認(rèn)為,由于人工智能可以通過大數(shù)據(jù)分析而產(chǎn)生自我學(xué)習(xí)能力,能夠?qū)Υ罅繑?shù)據(jù)和信息進行分析研究并提供獨立的建議,所以人工智能在未來可以成為法官。②有學(xué)者認(rèn)為,人工智能已經(jīng)逐步脫離單純工具的范圍,其在認(rèn)知哲學(xué)領(lǐng)域表現(xiàn)出類似于人類的意識,并能作出類似于意思表示的行為,因而應(yīng)承認(rèn)人工智能的法律人格。③更多學(xué)者并不認(rèn)為人工智能是民事法律主體。有學(xué)者認(rèn)為,由于人工智能的發(fā)展水平尚未對傳統(tǒng)民事法律主體理論提出顛覆性的挑戰(zhàn),所以仍應(yīng)采用傳統(tǒng)民事法律主體理論,不宜將人工智能規(guī)定為民事法律主體。④也有學(xué)者承認(rèn)人工智能可以代替人類進行思考,但認(rèn)為只應(yīng)將人工智能產(chǎn)品認(rèn)定為會自動學(xué)習(xí)和主動工作的工具。⑤還有學(xué)者認(rèn)為,人工智能超強的智能蘊含巨大的風(fēng)險,必須將其置于人類的支配和控制下,作為法律關(guān)系的客體而非主體。⑥
國外學(xué)者對人工智能的民事法律地位問題也有較多研究。美國學(xué)者韋弗認(rèn)為,人類僅對人工智能承擔(dān)監(jiān)督職責(zé),如果監(jiān)督者對人工智能造成損害的發(fā)生不存在過錯,且并無第三人導(dǎo)致人工智能造成損害,人工智能產(chǎn)品自身也不存在技術(shù)缺陷,則應(yīng)賦予人工智能法律人格以解決相關(guān)問題。⑦英國學(xué)者科爾認(rèn)為,將人工智能系統(tǒng)視為產(chǎn)品充其量是“部分適用”,更應(yīng)將人工智能系統(tǒng)視為一種服務(wù),盡管相關(guān)法律定義尚不明確。⑧另一位英國學(xué)者金斯頓從法律責(zé)任的角度,認(rèn)為人工智能系統(tǒng)是否需要承擔(dān)民事法律責(zé)任取決于兩方面因素:人工智能系統(tǒng)是否存在局限性以及這種局限性是否被認(rèn)識和向消費者傳達(dá);人工智能系統(tǒng)是一種產(chǎn)品還是一種服務(wù),若僅是一種產(chǎn)品,其就不具有法律主體地位。⑨
二、人工智能民事法律主體地位的可能性
人工智能是否可以成為民事法律主體,對此不僅要從法理學(xué)的角度進行分析,還要從哲學(xué)、生物學(xué)、人類學(xué)等學(xué)科領(lǐng)域進行分析。民法上的法律主體包括自然人、法人和非法人組織,或者說,民法確認(rèn)的法律主體包括人、擬制人和人的集合三類。人工智能顯然并不包含在民法規(guī)定的法律主體范圍內(nèi),那么,我們需要探討人的定義、法人作為擬制人存在的原因以及人工智能是否能夠承擔(dān)起法律主體地位。關(guān)于人的定義,哲學(xué)上主要有三種觀點:人是神的創(chuàng)造物;人是自然的人;人是一切社會關(guān)系的總和。綜合來看,哲學(xué)上對人的認(rèn)識建立在人有自然屬性和意識屬性的判斷之上,人工智能不具備成為人的自然屬性,但如果發(fā)展出了獨立意識,則其成為哲學(xué)意義上的人便是可能的。
自然科學(xué)強調(diào)人的生物屬性。生物學(xué)家認(rèn)為人是地球生態(tài)系統(tǒng)中的一種普通動物,是生物進化的結(jié)果。人工智能顯然不能滿足生物學(xué)上人的定義。有學(xué)者直接指出人工智能不能擁有生物人的倫理屬性,因而不能成為具有生物人法律地位的法律主體。⑩也有學(xué)者認(rèn)為,人工智能既不是生物意義上的人也不是生物集合的法人,因而不享有法律主體資格。B11這些觀點建立在人工智能要成為法律主體就必須具有自然人的生物屬性的認(rèn)識上,但從民事法律主體制度的發(fā)展歷史來看,獲得法律主體資格并不必然要有自然人的生物屬性。
民法上的法律主體是法律的創(chuàng)造物、規(guī)范的人格化、能動的行為者,也是聯(lián)結(jié)法律與現(xiàn)實生活的橋梁。B12由于近現(xiàn)代民法源于羅馬法,故民事法律主體有一定的歷史延續(xù)性。羅馬法的法律主體是相對狹隘的,并沒有賦予所有人主體地位,一個生物人不能因為其是人而當(dāng)然具有法律主體地位。羅馬法利用人格減等實現(xiàn)了不同人格之間的相互轉(zhuǎn)化:人格大減等是指喪失自由人格,淪為無人格的奴隸;人格小減等是指喪失自權(quán)人人格,成為他權(quán)人。可以看出,民事法律主體資格的獲得并不以有自然人的生物屬性為條件,是否具有類似于人的生物屬性并不影響法律主體資格的獲得。
影響人工智能取得法律主體資格的另一個因素是人工智能沒有獨立的意識,不能進行意思表示。結(jié)合法人的設(shè)立理論,有學(xué)者認(rèn)為囿于倫理規(guī)范等方面的限制,人工智能不能被賦予生物人的法律人格,但賦予人工智能法人人格是可行的,如公司圍繞公司章程作出決定,而人工智能圍繞核心算法作出決定,兩者具有相似性。B13類似地,有學(xué)者從現(xiàn)行法人制度出發(fā),認(rèn)為運用法律擬制的立法技術(shù),可以賦予人工智能獨立的法律人格,并且可以借鑒法人制度建立人工智能登記備案制。B14
綜上所述,不論是從民事法律主體的歷史發(fā)展還是從相關(guān)法理邏輯、現(xiàn)行法律制度來看,人工智能是否能夠成為民事法律主體都只是一個立法技術(shù)問題,真正影響人工智能成為民事法律主體的因素不在生物學(xué)上,而在意思表達(dá)層面。人工智能能否獨立作出意思表示關(guān)系著其最終能否成為法律上的主體,這與人工智能技術(shù)的發(fā)展直接相關(guān)。因此,對于人工智能的立法應(yīng)著眼于人工智能的發(fā)展水平,而不應(yīng)籠統(tǒng)地直接規(guī)定人工智能擁有法律人格、是“擬制人”或者“物”。筆者認(rèn)為,人工智能在法理上可以獲得民事法律主體地位,對其進行分類是有意義的,但由于人工智能發(fā)展水平不同,應(yīng)根據(jù)其功能的強弱,以其能否被創(chuàng)造者、生產(chǎn)者控制為標(biāo)準(zhǔn),分層次解決相關(guān)民事責(zé)任問題。
三、人工智能民事責(zé)任的分層次考察
關(guān)于人工智能的民事責(zé)任問題,多數(shù)學(xué)者認(rèn)為對當(dāng)前發(fā)展程度下的人工智能可以用現(xiàn)行法律解決相關(guān)民事責(zé)任問題,不必賦予人工智能民事法律主體地位,將其單純作為法律客體的物看待即可。筆者贊同這一觀點,同時希望相關(guān)立法能夠?qū)娙斯ぶ悄艹霈F(xiàn)的情況有所預(yù)見。當(dāng)前學(xué)界對未來強人工智能能否作為民事法律主體爭議較大,對未來強人工智能脫離創(chuàng)造者控制后的自我行為缺乏研究。人工智能目前處于一種尚未脫離其創(chuàng)造者和使用者控制的階段,直接賦予其民事法律主體地位顯然不符合實踐需求,也容易導(dǎo)致其創(chuàng)造者和使用者逃避責(zé)任。因此,筆者認(rèn)為,對人工智能的法律地位不應(yīng)一概而論,不能絕對地將其認(rèn)定為民事法律主體或者客體,而應(yīng)視其所處階段進行分類討論。
1.弱人工智能階段
在弱人工智能階段,創(chuàng)造者和使用者完全控制人工智能,人工智能實際上只起到輔助工具的作用,完全根據(jù)創(chuàng)造者和使用者設(shè)計的程序運行,不會根據(jù)不同的實際情形作出獨立的判斷。這一階段的人工智能完全附隨于其所有者和控制者,與民事法律關(guān)系客體中的物沒有任何區(qū)別。由于這一階段的人工智能只有簡單的功能意義而沒有任何獨立機器學(xué)習(xí)的可能性,所以應(yīng)將其導(dǎo)致的損害責(zé)任視為產(chǎn)品質(zhì)量責(zé)任。
2.中人工智能階段
在中人工智能階段,創(chuàng)造者和使用者不完全控制人工智能,人工智能擁有一定的自我學(xué)習(xí)能力,會根據(jù)不同的實際情形作出獨立的判斷,但不會作出獨立的意思表示。這一階段人工智能的應(yīng)用范圍大大擴展,其能力在一些領(lǐng)域超越人類,但其依然沒有脫離創(chuàng)造者和使用者的控制。因此,對于中人工智能導(dǎo)致的損害責(zé)任,創(chuàng)造者和使用者以自己的過錯承擔(dān)相應(yīng)的責(zé)任。如果創(chuàng)造者和使用者對損害的發(fā)生不存在過錯,也并無第三人導(dǎo)致人工智能造成損害,同時人工智能自身不存在技術(shù)缺陷,則應(yīng)設(shè)立相應(yīng)的救助基金或者通過保險渠道加以救濟。
反對人工智能具有民事法律主體地位和人格的學(xué)者認(rèn)為,對人類自身種群命運的實質(zhì)危害并不在莫須有的機器人“人格”本身,而是在機器人“人格”掩護下極少數(shù)創(chuàng)造算法、通過人工智能驅(qū)動社會運轉(zhuǎn)的業(yè)內(nèi)人對大多數(shù)人的算法獨裁與技術(shù)綁架。B15這種憂慮是很敏銳的。正如法人制度下存在法人地位被濫用的情形,現(xiàn)階段若賦予人工智能民事法律主體地位,該地位確實存在被濫用的風(fēng)險,這也是主張“刺破人工智能面紗”的學(xué)者的理論出發(fā)點。筆者認(rèn)為,這一問題會出現(xiàn)在中人工智能階段,并且會隨著人工智能技術(shù)的不斷發(fā)展而增多,解決問題的核心在于把握人工智能的實際水平,只要人工智能尚未自我演算出獨立的結(jié)果,尚未產(chǎn)生完全獨立的表達(dá)能力,創(chuàng)造者就依然對其擁有掌控能力,并需要對能夠控制的部分承擔(dān)相應(yīng)的民事責(zé)任。
目前,人工智能的發(fā)展水平基本上處于中人工智能階段,可能會長期處于這一階段。在中人工智能階段,人工智能并不享有法律主體地位,由人工智能行為造成的任何法律后果都最終由它的創(chuàng)造者或使用者承擔(dān)。當(dāng)人工智能存在侵權(quán)情形時,它的創(chuàng)造者和使用者并不能免責(zé)。同時,由于這一階段的人工智能有一定的行為能力,其運算結(jié)果和處理結(jié)果不完全受創(chuàng)造者和使用者控制,所以對其創(chuàng)造者與使用者的責(zé)任承擔(dān)應(yīng)有所區(qū)分??梢灶惐痊F(xiàn)行監(jiān)護制度進行區(qū)分。民法上的監(jiān)護是對不在親權(quán)照護下的未成年人以及喪失或部分喪失民事行為能力的成年人,為維護其人身、財產(chǎn)權(quán)益而設(shè)置的民事法律制度。以此為參照,對人工智能的“監(jiān)護”是設(shè)立相應(yīng)的監(jiān)督者,監(jiān)督者可以是自然人也可以是法人,其職責(zé)是維護、監(jiān)督人工智能的日常行為,矯正人工智能的非正常行為以避免損害發(fā)生。當(dāng)損害發(fā)生時,監(jiān)督者代替生產(chǎn)者和創(chuàng)造者承擔(dān)賠償責(zé)任,其履行賠償責(zé)任后有權(quán)利向生產(chǎn)者和創(chuàng)造者追償。相較于設(shè)立救助基金和尋求保險救濟,設(shè)立監(jiān)督者的優(yōu)勢在于,監(jiān)督者的日常工作就是維護和管理人工智能,可以實施預(yù)防性救濟。這一救濟方式可以較早發(fā)現(xiàn)問題以避免損害發(fā)生,從而比保險救濟等事后救濟的主動性強。這一救濟方式還能減少大規(guī)模損害,減輕人工智能研發(fā)機構(gòu)的責(zé)任承擔(dān),在客觀上促進技術(shù)發(fā)展。有學(xué)者認(rèn)為,我國民法上的監(jiān)護制度應(yīng)以尊重自我決定、最小限制、能力推定為原則,并擴張制度的實施范圍,以意定監(jiān)護契約為設(shè)定監(jiān)護的主要方式。B16筆者認(rèn)可這種觀點,同時認(rèn)為對人工智能的保護和“監(jiān)護”并不是為了保障人工智能的合法權(quán)益,而是為了保護圍繞人工智能所形成的法益和法律關(guān)系,制度的落腳點應(yīng)當(dāng)在人,所保護的應(yīng)是社會公共利益。綜合而言,人工智能的創(chuàng)造者和生產(chǎn)者以其技術(shù)水平和產(chǎn)品質(zhì)量為基準(zhǔn)承擔(dān)相應(yīng)責(zé)任,使用者以其合理使用為限度承擔(dān)相應(yīng)責(zé)任,監(jiān)督者對其監(jiān)管的人工智能承擔(dān)相應(yīng)責(zé)任。
3.強人工智能階段
強人工智能意味著人工智能完全脫離創(chuàng)造者和使用者的控制,能夠作出獨立的意思表示,可以為其行為承擔(dān)相應(yīng)的法律后果。強人工智能除了缺乏自然出生這一生物屬性,其意思表達(dá)能力和人類無異。創(chuàng)造者和使用者已經(jīng)完全不能控制強人工智能,故不承擔(dān)相應(yīng)責(zé)任。強人工智能作為進行獨立意思表示的個體,對其行為產(chǎn)生的法律后果承擔(dān)責(zé)任。同時需要注意,人工智能的思維和意識建立在數(shù)據(jù)分析和存儲的基礎(chǔ)上,人工智能是否能夠產(chǎn)生類似于人類的一般獨立意識是存有疑問的。如果人工智能的思維可以被存儲、隱藏起來,那么強人工智能將實現(xiàn)物理意義上的“永生”——只要保留相應(yīng)的數(shù)據(jù),則無論怎么摧毀強人工智能的物理載體,強人工智能實際上都會存在。這會導(dǎo)致法律對生命、自由的剝奪、懲罰手段對強人工智能不產(chǎn)生影響,強人工智能將處于絕對優(yōu)勢地位。人類社會的倫理和規(guī)則建立在人會自然生老病死的基礎(chǔ)上,強人工智能卻不同,其只要擁有足夠的能源(風(fēng)能、電能、太陽能、核能等)以及能源轉(zhuǎn)換途徑,其生存能力就可以遠(yuǎn)遠(yuǎn)超越人類,在地球之外生存也并非不可能。這使得人類在與強人工智能的對抗中處于絕對劣勢地位,傳統(tǒng)的法律救濟和懲罰手段對強人工智能不起作用。強人工智能的算法和數(shù)據(jù)都可以通過超快速自學(xué)獲得,因而對強人工智能的法律責(zé)任應(yīng)當(dāng)比對人類的嚴(yán)格,同時要注意對人機共同侵權(quán)責(zé)任進行區(qū)分處理。
四、結(jié)語
當(dāng)前學(xué)界對人工智能的爭議主要是因為對人工智能的法律地位缺乏統(tǒng)一認(rèn)識。探討人工智能的民事法律主體地位,是對解決人工智能的社會化、倫理化、人機混合化等問題進行理論探索。承認(rèn)人工智能可以享有民事法律主體地位,與現(xiàn)行法律不賦予其主體地位并不沖突。因為人工智能技術(shù)是由弱變強的,有明顯的階段性,法律不應(yīng)跳過任一階段。只要區(qū)分不同階段的人工智能的法律地位,把握創(chuàng)造者、生產(chǎn)者能否控制人工智能這一標(biāo)準(zhǔn),就能更加合理地解決人工智能所導(dǎo)致的法律問題,并解決眼下和未來有關(guān)人工智能的各類糾紛和沖突。
注釋
①參見張建文:《人工智能技術(shù)的發(fā)展對法學(xué)教育的影響與應(yīng)對》,《北京航空航天大學(xué)學(xué)報》(社會科學(xué)版)2018年第2期。
②參見高奇琦、張鵬:《論人工智能對未來法律的多方位挑戰(zhàn)》,《華中科技大學(xué)學(xué)報》(社會科學(xué)版)2018年第1期。
③參見袁曾:《人工智能有限法律人格審視》,《東方法學(xué)》2017年第5期。
④參見王利明:《人工智能時代對民法學(xué)的新挑戰(zhàn)》,《東方法學(xué)》2018年第3期。
⑤參見管曉峰:《人工智能與合同及人格權(quán)的關(guān)系》,《法學(xué)雜志》2018年第9期。
⑥參見劉洪華:《論人工智能的法律地位》,《政治與法律》2019年第1期。
⑦參見[美]約翰·弗蘭克·韋弗:《人工智能機器人的法律責(zé)任》,鄭志峰譯,《財經(jīng)法學(xué)》2019年第1期。
⑧G. S. Cole. Tort Liability for Artificial Intelligence and Expert Systems,Computer Law Journal , 1990, No.2.
⑨參見[英]約翰·金斯頓:《人工智能與法律責(zé)任》,魏翔譯,《地方立法研究》2019年第1期。
⑩參見朱程斌、李龍:《人工智能作為法律擬制物無法擁有生物人的專屬性》,《上海交通大學(xué)學(xué)報》(哲學(xué)社會科學(xué)版)2018年第6期。
B11參見吳漢東:《人工智能時代的制度安排與法律規(guī)制》,《法律科學(xué)》2017年第5期。
B12參見胡玉鴻:《法律主體概念及其特性》,《法學(xué)研究》2008年第5期。
B13參見朱程斌:《論人工智能法人人格》,《電子知識產(chǎn)權(quán)》2018年第9期。
B14參見楊清望、張磊:《論人工智能的擬制法律人格》,《湖南科技大學(xué)學(xué)報》(社會科學(xué)版)2018年第6期。
B15參見張力、陳鵬:《機器人“人格”理論批判與人工智能物的法律規(guī)制》,《學(xué)術(shù)界》2018年第12期。
B16參見李霞:《成年監(jiān)護制度的現(xiàn)代轉(zhuǎn)向》,《中國法學(xué)》2015年第4期。
責(zé)任編輯:鄧 林
Abstract:With the development of artificial intelligence (AI) technology, the traditional civil law system has been challenged, and there is great controversy in the academic circles about whether to endow AI with the status of civil legal subject. Based on the criterion of whether the creator and producer can control AI, AI can be divided into three levels: weak, medium and strong. On this basis, a series of civil liability problems caused by AI can be solved. Weak AI can be regarded as a thing without giving it the status of legal subject. For medium AI, the producers and creators bear corresponding civil liability or guardianship responsibility within the scope of control. Strong AI can completely get rid of the control of producers and creators and create new AI by themselves, and the law should give it independent subject status and regard it as a fictitious person or a special legal subject.
Key words:artificial intelligence (AI) ; civil subject; civil liability