摘要:人工智能的發(fā)展對民事侵權(quán)責任法體系產(chǎn)生了沖擊,界定其法律地位、適用歸責原則、發(fā)生損害后的責任承擔主體等顯得尤為重要。目前關(guān)于關(guān)于人工智能法律地位的學(xué)說有人格肯定說、否定說、折中說等,侵權(quán)行為因果關(guān)系主要有相關(guān)因果關(guān)系說等。人工智能的發(fā)展未顛覆現(xiàn)有侵權(quán)責任法律體系,侵權(quán)責任主體是設(shè)計者、生產(chǎn)者、銷售者、使用者。在現(xiàn)有法律的基礎(chǔ)上,明確責任分擔,設(shè)置法定的行業(yè)安全評估標準,能夠解決人工智能侵權(quán)責任問題。
關(guān)鍵詞:人工智能;侵權(quán)責任;過錯原則;責任主體
中圖分類號:D923 ? ?文獻標識碼:A文章編號:2095-6916(2020)19-0081-03
一、人工智能對傳統(tǒng)侵權(quán)責任法體系的沖擊
人工智能(Arti?ial Intelligence,簡稱AI),最早由約翰·麥卡錫教授于1956提出。隨著智能機器人阿爾法狗(AlphaGo)在圍棋比賽中獲得世界冠軍、特斯拉推出汽車自動駕駛功能等,人工智能已經(jīng)以更加智慧多元的形式存在于人類的工作生活中。人工智能的飛速發(fā)展為人類社會帶來更多便利的同時,也對現(xiàn)有的民事侵權(quán)責任法體系產(chǎn)生了一系列沖擊[1]。
(一)人工智能的法律地位難以界定
我國民法對民事主體的界定為:有獨立的名義,獨立的意志,獨立的財產(chǎn),包括自然人、法人和其他社會組織。人工智能雖然是被制造出來的,但它有自主性、不可控制性和不可預(yù)測性,因此不能將其簡單歸為人類制造的“產(chǎn)品”[2]。由此產(chǎn)生的問題是:當人工智能致人損害時,是否可以作為獨立的民事主體承擔侵權(quán)責任?
(二)人工智能侵權(quán)行為難以界定
我國《侵權(quán)責任法》規(guī)定侵權(quán)責任的一般構(gòu)成要件,即:(1)違法行為;(2)損害事實;(3)因果關(guān)系;(4)主觀過錯[3]。但由于人工智能侵權(quán)主體的復(fù)雜性,并且人工智能經(jīng)歷后天學(xué)習(xí),其行為不可判斷性增強。另外在不能判定其行為是否受到初始設(shè)計者的干預(yù),以及不能判斷加害行為和因果關(guān)系的情況下,很難依法確定其侵權(quán)責任。
(三)人工智能的歸責原則難以界定
《侵權(quán)責任法》規(guī)定的過錯責任以侵權(quán)人存在主觀過錯為前提要件[4],但是人工智能不屬于現(xiàn)行法律承認的民事主體,因此在人工智能致人損害的侵權(quán)案件中難以完全套用過錯責任來進行歸責。
二、關(guān)于人工智能侵權(quán)責任認定的若干學(xué)說
國內(nèi)學(xué)者對于人工智能侵權(quán)責任的研究相對分散,一般學(xué)者都是從某一方面入手,沒有形成完整的體系,目前學(xué)術(shù)界爭論比較激烈的主要在人工智能法律地位的界定以及歸責原則的適用等問題上。
(一)關(guān)于人工智能法律地位的不同學(xué)說
一是人格肯定說。該學(xué)說認為應(yīng)當從法律上承認人工智能的民事主體資格,隨著科技的發(fā)展,人工智能擁有自我意識時代即將到來,法律的制定應(yīng)當具有適當?shù)那罢靶?。人工智能作為具有智慧和自主學(xué)習(xí)的個體,可以通過法律賦予其民事主體資格,使其像自然人一樣作為獨立的個體參與民事活動,承擔民事責任[5]。
二是否定說。否定說是目前在學(xué)界認可度比較高的觀點,即人工智能不具備作為民事主體獨立承擔民事責任的資格?,F(xiàn)階段的人工智能不具備獨立意識,處于弱人工智能階段,即使其表象具有某些類似于“人”的特征,也仍然應(yīng)當將其歸屬為輔助人類生活的“工具物”,若賦予其參與社會活動的民事主體資格,不符合現(xiàn)行法律的立法意圖,同時也會引起一系列社會倫理問題[6]。
三是折中說。折中說大膽突破了人格肯定說和否定說的觀點,主張除了人和物,還有第三種存在,即電子人格說。該觀點主張,相較于普通機器人,人工智能具有一定的自主性,擁有部分人格[7],但其仍然無法獨立承擔責任,因此人工智能致人損害責任后果需要依賴相關(guān)研發(fā)人員承擔。
(二)人工智能侵權(quán)行為之因果關(guān)系認定
在侵權(quán)行為的認定中,加害行為與損害結(jié)果之間的因果關(guān)系證明一直是難點。學(xué)界對因果關(guān)系的認定也存在各種觀點,主要有“原因說”“條件說”“相關(guān)因果關(guān)系說”“法規(guī)目的說”等。目前,學(xué)界主流觀點是“相關(guān)因果關(guān)系說”,該觀點認為,不應(yīng)該將偶然引起某個事件發(fā)生的條件作為原因,只有在一般情形下,該條件都能引發(fā)這一事件,才能說這一事件的發(fā)生與該條件具有因果關(guān)系。
(三)人工智能侵權(quán)的歸責原則
侵權(quán)責任法規(guī)定的過錯責任原則(其中包括過錯推定原則)和無過錯責任原則是判斷侵權(quán)責任的重要依據(jù)。在研究人工智能侵權(quán)責任背景下,我們要討論的是人工智能侵權(quán)需要符合怎樣的構(gòu)成要件以及適用何種歸責原則,進一步判斷是否以主觀過錯作為歸責要件[8]。
三、人工智能侵權(quán)責任理論分析
(一)人工智能法律地位問題之我見
如何界定人工智能的法律地位,國內(nèi)外學(xué)者并沒有形成統(tǒng)一意見。綜上關(guān)于人工智能法律地位的三種學(xué)說,筆者在查閱相關(guān)文獻后認為,現(xiàn)階段仍然處于弱人工智能階段,即使其具有高度智能性,它仍然是人類智慧的產(chǎn)物,人工智能的行為不僅受人類初始輸入程序的影響,之后也是在人類的設(shè)定下工作的。
肯定說觀點太過于超前,人工智能作為一個剛剛起步的領(lǐng)域,不僅涉及法律問題,還有道德倫理問題與之環(huán)環(huán)相扣,貿(mào)然將其歸為法律主體,在缺乏配套法律體系的情況下,可能會引發(fā)更多意料之外的難題。折中說雖然創(chuàng)新性地提出第三種形態(tài),但是其觀點與現(xiàn)行民法的基本理念相悖。人工智能和人類各享有部分權(quán)利義務(wù),最終只會使得法律體系變得混亂,導(dǎo)致同案不同判的現(xiàn)象發(fā)生。
否定說更符合現(xiàn)行法律理念。首先,否定人工智能具有獨立人格。自然人基于自己的意志獨立行使權(quán)利、履行義務(wù)。法人和其他社會組織基于股東意志的合集,獲得民事主體資格。人工智能是機器在被輸入程序和算法后進行行動的,其本質(zhì)還是在人類的控制下的活動,沒有自己的意思表示,而且人工智能情感道德方面的應(yīng)對能力幾乎為零,這就使得它無法作為一個法律主體參與社會活動[9]。再者,人工智能沒有獨立的財產(chǎn)承擔責任[10]。綜上所述,將人工智能認定為“物”,作為法律關(guān)系的客體存在更加符合社會實際發(fā)展的要求,也有利于維護現(xiàn)有法律體系的穩(wěn)定。
(二)人工智能侵權(quán)的責任主體
在確定人工智能的法律地位是權(quán)利客體“物”之后,就不需要考慮將其作為侵權(quán)責任的承擔主體,應(yīng)該將責任主體的研究對象放在其背后的人類身上,主要考慮人工智能的設(shè)計者、生產(chǎn)者、銷售者、使用者等。
一是人工智能的設(shè)計者。人工智能產(chǎn)品不同于普通產(chǎn)品,其設(shè)計者作為專業(yè)人員,必須周全考慮產(chǎn)品的安全隱患,從而在初始階段降低風險,設(shè)計者編入的算法、程序會一直跟隨人工智能產(chǎn)品,影響其后續(xù)功能,所以在人工智能致人損害的案件中,設(shè)計者應(yīng)當作為一類責任承擔主體[11]。
二是人工智能的生產(chǎn)者。目前各國普遍采取的做法是對人工智能使用嚴格的產(chǎn)品責任,生產(chǎn)者作為第一手制造者,法律對其制造出的人工智能產(chǎn)品提出質(zhì)量要求,這符合我國《侵權(quán)責任法》的法理基礎(chǔ)和原則。由于人工智能產(chǎn)品具有比普通產(chǎn)品更加智能、更加不可控性的特點,因而法律對生產(chǎn)者提出嚴格的質(zhì)量安全要求,這也符合客觀實際。
三是人工智能的銷售者。根據(jù)我國《侵權(quán)責任法》,銷售者和生產(chǎn)者不真正承擔連帶責任,人工智能雖然屬于特殊產(chǎn)品,依然應(yīng)該遵循產(chǎn)品責任,銷售者應(yīng)當驗證自己售賣的產(chǎn)品是否安全、是否存在質(zhì)量問題,并妥善保管。一般情況,銷售者只承擔過錯責任。
四是人工智能的使用者。對于人工智能的使用者來說,當人工智能致他人損害時,基于使用者對人工智能產(chǎn)品的實際控制,在其存在主觀過錯時應(yīng)承擔相應(yīng)的侵權(quán)責任。當人工智能致使用者損害,那么此時使用者為受害人,可以要求其他符合侵權(quán)責任承擔要件的主體賠償其損失,否則需要自行負擔。
(三)人工智能侵權(quán)行為之因果關(guān)系認定
一是明確人工智能設(shè)計者和生產(chǎn)者對因果關(guān)系證明責任的分擔。鑒于人工智能的自主性、不可預(yù)測性,致使因果關(guān)系的證明在人工智能侵權(quán)案件中更加復(fù)雜。按照《民事訴訟法》的規(guī)定,誰主張誰舉證,對于普通受害者,人工智能是一個新興科技領(lǐng)域,不具備專業(yè)知識的普通人很難舉證證明損害行為、損害結(jié)果以及因果關(guān)系,這會導(dǎo)致受害者承擔舉證不能的不利結(jié)果。因此,要具體區(qū)分人工智能產(chǎn)品致人損害的原因,根據(jù)損害原因,分配證明責任。作為具備專業(yè)領(lǐng)域知識的生產(chǎn)者和設(shè)計者,他們了解人工智能的運行原理,更容易發(fā)現(xiàn)系統(tǒng)漏洞。因此,筆者認為應(yīng)當明確人工智能設(shè)計者和生產(chǎn)者對因果關(guān)系證明責任的分擔,在人工智能侵權(quán)領(lǐng)域引入舉證責任倒置制度,有利于幫助受害者追償,這也符合我國《侵權(quán)責任法》的立法意圖[12]。
二是設(shè)置法定的行業(yè)安全評估標準。某類產(chǎn)品的各項指標是否符合國家或者行業(yè)安全標準,是人們判斷其是否達標的關(guān)鍵。人工智能這一新興領(lǐng)域,正處于飛速發(fā)展的階段,有必要制定統(tǒng)一的產(chǎn)品安全行業(yè)評估標準,這不僅可以為人工智能產(chǎn)品的行業(yè)發(fā)展提供良好的指引,還能在發(fā)生侵權(quán)事故時,將其作為衡量人工智能產(chǎn)品質(zhì)量的標桿,統(tǒng)一人們對人工智能產(chǎn)品安全的標準認知,避免各個法院之間出現(xiàn)矛盾的判決。
(四)人工智能侵權(quán)行為的歸責原則
人工智能侵權(quán)案件并不能直接簡單套用產(chǎn)品責任,前文已經(jīng)論證了人工智能是“物”,只能由人類承擔侵權(quán)責任。因此,我們需要進一步討論在人工智能侵權(quán)案件中,如何適用歸責原則。人工智能侵權(quán)的責任主體包括設(shè)計者、生產(chǎn)者、銷售者、使用者等。目前學(xué)界主流觀點是根據(jù)各個責任主體與人工智能產(chǎn)品的關(guān)聯(lián)程度和控制程度,分別適用歸責原則。
一是設(shè)計者、生產(chǎn)者和銷售者的歸責原則。我國《侵權(quán)責任法》對于產(chǎn)品責任的歸責方式作了如下規(guī)定:即受害者因產(chǎn)品缺陷遭受損害,可以要求生產(chǎn)者、銷售者單獨或共同承擔無過錯責任,在具體的責任分擔上,采取追償?shù)姆绞绞乖斐僧a(chǎn)品存在缺陷的主體承擔最終的損害賠償責任?!肚謾?quán)責任法》并沒有特別地提出設(shè)計者的產(chǎn)品責任,但人工智能產(chǎn)品的科技性能遠遠超出普通產(chǎn)品的范疇,因此設(shè)計者對產(chǎn)品質(zhì)量好壞的把控起著關(guān)鍵作用。當人工智能產(chǎn)品因為設(shè)計者的失誤致人損害時,理應(yīng)由設(shè)計者承擔侵權(quán)責任的不利后果[13]。
二是使用者的歸責原則。使用者應(yīng)當根據(jù)是否存在主觀過錯來判斷是否由其承擔侵權(quán)責任。若損害發(fā)生時,使用者不存在操作不當、違反自身注意義務(wù)等情形,即損害結(jié)果與使用者行為沒有引起與被引起的關(guān)系。此時,由使用者承擔侵權(quán)賠償責任難以得到社會的認同[14]。因此,在使用者不存在主觀過錯時,不能要求其承擔侵權(quán)責任。
四、結(jié)語
隨著科技進步,人工智能迅猛發(fā)展,在為社會帶來巨大的經(jīng)濟效益的同時,也帶來了不可預(yù)測的風險。如何保證其發(fā)展不被遏制,同時又能控制其風險,需要我們作好充分的應(yīng)對準備。筆者的觀點是人工智能作為權(quán)利客體,不能獨立承擔侵權(quán)責任,責任主體應(yīng)該是操控它的設(shè)計者、生產(chǎn)者、銷售者、使用者等。傳統(tǒng)由受害者舉證的做法已經(jīng)不符合社會現(xiàn)實,因此建議人工智能侵權(quán)責任采取舉證責任倒置原則,由設(shè)計者和生產(chǎn)者承擔舉證責任,減輕受害者的維權(quán)難度[15]。同時,建立統(tǒng)一的行業(yè)安全標準,對人工智能進行更規(guī)范的管理。新興事物與固有法律的沖突在不斷發(fā)生變化,人工智能的現(xiàn)有技術(shù)水平不足以顛覆現(xiàn)行法律體系,對《侵權(quán)責任法》中的產(chǎn)品責任進行適當變通,仍然能夠解決現(xiàn)存法律問題。
參考文獻:
[1]張童.人工智能產(chǎn)品致人損害民事責任研究[J].社會科學(xué),2018(4).
[2]梁鵬.人工智能產(chǎn)品侵權(quán)的責任承擔[J].中國青年社會科學(xué),2018(4).
[3]劉小璇,張虎.論人工智能的侵權(quán)責任[J].南京社會科學(xué),2018(9).
[4]袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017(5).
[5]???.The Criminal Legal Status of AI Robots[J].????,2020(1).
[6]包成成.人工智能法律主體文獻綜述[M]//《上海法學(xué)研究》集刊(2019年第19卷總第19卷)——上海市法學(xué)會農(nóng)業(yè)農(nóng)村法治研究會文集:上海市法學(xué)會,2019:191.
[7]張紹欣.法律位格、法律主體與人工智能的法律地位[J].現(xiàn)代學(xué),2019(4).
[8]李坤海,徐來.人工智能對侵權(quán)責任構(gòu)成要件的挑戰(zhàn)及應(yīng)對[J].重慶社會科學(xué),2019(2).
[9]楊立新.人工類人格:智能機器人的民法地位——兼論智能機器人致人損害的民事責任[J].求是學(xué)刊,2018(4).
[10]劉洪華.人工智能法律主體資格的否定及其法律規(guī)制構(gòu)想[J].北方法學(xué),2019(4).
[11]黃瑩,宮辰.人工智能產(chǎn)品致人損害侵權(quán)責任問題研究[J].南京理工大學(xué)學(xué)報(社會科學(xué)版),2019(5).
[12]劉志強,方琨.論人工智能行為法律因果關(guān)系認定[J].學(xué)術(shù)界,2018(12).
[13]李政權(quán).人工智能時代的法律責任理論審思——以智能機器人為切入點[J].大連理工大學(xué)學(xué)報(社會科學(xué)版),2019(5).
[14]司曉,曹建峰.論人工智能的民事責任:以自動駕駛汽車和智能機器人為切入點[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2017(5).
[15]劉小璇,張虎.論人工智能的侵權(quán)責任[J].南京社會科學(xué),2018(9).
作者簡介:白雪(1994—),女,蒙古族,內(nèi)蒙古赤峰人,單位為天津大學(xué)法學(xué)院,研究方向為法學(xué)。
(責任編輯:王寶林)