范悅
摘 要:人工智能技術(shù)的應(yīng)用和普及給民法帶來了前所未有的挑戰(zhàn),對人工智能產(chǎn)品的民事主體資格認(rèn)定、智能機器人侵權(quán)的歸責(zé)原則、責(zé)任分配、責(zé)任承擔(dān)等問題進(jìn)行研究,能夠有效緩解人工智能帶給社會的各類風(fēng)險,文章將重點討論人工智能的侵權(quán)責(zé)任問題,對國內(nèi)外的研究情形進(jìn)行了仔細(xì)的比較,分析人工智能產(chǎn)品在法律上的主體資格,并從責(zé)任主體、歸責(zé)原則、責(zé)任形態(tài)和應(yīng)對機制等維度對人工智能的侵權(quán)責(zé)任內(nèi)涵進(jìn)行設(shè)想,探究應(yīng)對人工智能發(fā)展的更好的責(zé)任承擔(dān)方式。
關(guān)鍵詞:人工智能;侵權(quán)責(zé)任 ;法律主體資格;歸責(zé)原則
近幾年人工智能的發(fā)展形勢迅猛,我們的社會逐漸進(jìn)入“智能時代”,隨著人工智能技術(shù)的發(fā)展,有關(guān)人工智能的產(chǎn)品也層出不窮、滲入社會的每個角落:無人駕駛技術(shù)、人臉及語音識別系統(tǒng)、智能醫(yī)療設(shè)備、以及各種智能家居電器的出現(xiàn)。人工智能產(chǎn)品的逐漸應(yīng)用,也給我們帶來了一連串的法律問題,人工智能損毀財物、致人傷亡的問題也日益增多,人工智能產(chǎn)品致?lián)p致害時,侵權(quán)責(zé)任如何分配、如何承擔(dān)已經(jīng)成為一個亟待解決的法律問題,需要我們審慎仔細(xì)的研究。
一、人工智能產(chǎn)品的法律主體資格
(一)國外的發(fā)展情形
2010年11月,日本機器人“帕羅”曾以作為寵物的身份取得了日本某個城市的戶籍資格。2017年10月,沙特阿拉伯將該國的公民身份給予了香港某個機器人公司生產(chǎn)的機器人“索菲亞”。但是據(jù)報道,索菲亞的公民身份似乎只是象征意義,是為了吸引公眾對人工智能技術(shù)的關(guān)注。至于索菲亞能否會擁有某些公民權(quán)利、沙特有關(guān)方面在未來是否會出臺一個專屬于機器人的權(quán)利體系,目前尚不得而知。2017年2月,歐洲的議會曾有人提議要給予人工智能機器人特定的權(quán)利、義務(wù)和責(zé)任。在研究領(lǐng)域,一些學(xué)者持樂觀態(tài)度,認(rèn)為在未來智能機器人最終會享受到人類的某些法律權(quán)利。
(二)國內(nèi)的研究狀況
國內(nèi)對于人工智能法律主體資格的研究盡管有不同觀點,但是大多數(shù)持否定說,人工智能其本身還只是一臺供人類驅(qū)使的機器暫時不能擁有完全的法律人格。少數(shù)肯定說認(rèn)為,在未來人工智能將能夠人類大腦一樣進(jìn)行生物學(xué)的思維,屆時可以擬制人工智能機器人具有某些特殊的法律資格。還有學(xué)者提議給予人工智能機器人特殊的人格,例如電子人格、虛擬人格。另外由于目前人工智能發(fā)展的參差不一,還有研究主張將人工智能技術(shù)分為強、弱兩類,同時應(yīng)對兩類不同的人工智能的法律主體資格進(jìn)行分類研究。強人工智能具有與人類相似的思維模式和一定自主意識,能夠多維分析和解決問題;弱人工智能只限于解決某領(lǐng)域的具體問題。但是從當(dāng)下人工智能技術(shù)發(fā)展的層次來分析,無論強、弱人工智能技術(shù)的思維都不可能與人類媲美,因此都暫時不能成為民事主體。更有學(xué)者依據(jù)人工智能的智能程度將其劃分為三類,根據(jù)三類人工智能其自主性和人類干預(yù)的程度不同,其法律地位也有所不同。
從以上的分析和比較中,雖然我們大致可以窺探出,在未來人工智能機器人的擁有類人化的思維能力和方式時,很有可能獲得一定程度的民事主體資格。但是目前人工智能技術(shù)下研發(fā)的智能機器人并不能擁有真正像人類一樣的民事主體資格。因此如果對目前階段人工智能的屬性進(jìn)行界定,則其屬性應(yīng)該是“物”而非“人類”,所以應(yīng)適用有關(guān)客體的法律規(guī)范。
二、人工智能產(chǎn)品的侵權(quán)責(zé)任
鑒于人工智能在生活中應(yīng)用的領(lǐng)域越來越廣,人工智能機器人不當(dāng)?shù)牟僮?,很可能會給他人帶來一些財產(chǎn)損失,甚至是傷亡的后果。因此我們有必要明確人工智能產(chǎn)品致傷致?lián)p的情況下,民事責(zé)任如何承擔(dān)。
(一)人工智能侵權(quán)責(zé)任主體
(1)分階段的責(zé)任體系。2016年下半年,聯(lián)合國兩個組織:教科文組織與科學(xué)知識與技術(shù)倫理委員會,一起公布了一份關(guān)于機器人倫理的方案,提出采取責(zé)任分擔(dān)的形式,對人工智能機器人造成的損失進(jìn)行分類,按照產(chǎn)品制造、產(chǎn)品設(shè)計、產(chǎn)品銷售等過程中出現(xiàn)的不同過失情況,讓所有參與到人工智能機器人發(fā)明、授權(quán)、銷售過程中的人來分別承擔(dān)責(zé)任。
(2)保險和基金。2017年中旬德國參議院通過了第一部涉及無人駕駛汽車的法案,該法案的規(guī)定在發(fā)生交通事故時,根據(jù)不同的情形確定責(zé)任歸屬:如果汽車在由普通人駕駛時,發(fā)生交通事故,由駕駛?cè)顺袚?dān)事故責(zé)任;在系統(tǒng)自動駕駛階段出現(xiàn)的交通事故,則由汽車生產(chǎn)方承擔(dān)責(zé)任。但是《中國科學(xué)報》認(rèn)為,由人工智能汽車造成的交通事故,除了以上兩個責(zé)任承擔(dān)主體之外還需要得到保險商的支持。還有學(xué)者提出,對于質(zhì)量符合安全標(biāo)準(zhǔn)的智能機器人帶來的損害,可以借鑒歐盟法律事務(wù)委員會提出的設(shè)立賠償基金的方式,在無法證明產(chǎn)品是否有缺陷的狀況下,通過基金賠償受害者的損失。
(二)人工智能侵權(quán)歸責(zé)原則
(1)國外的人工智能歸責(zé)方式。到2015年12月,在美國已有十幾個州確定了人工智能汽車的法律制定項目,九個州的相關(guān)制度已經(jīng)實施。東南部某州的法律明確規(guī)定,如果車輛系統(tǒng)被擅自修改成自動駕駛的模式,車輛原來的生產(chǎn)商將不對修改后的自動駕駛系統(tǒng)造成的事故承擔(dān)責(zé)任,當(dāng)然如果有證據(jù)證明在改造前車輛已經(jīng)存在質(zhì)量隱患,原來的生產(chǎn)商還應(yīng)該承擔(dān)責(zé)任。
2016年歐盟的法律事務(wù)委員會提議,要設(shè)立有關(guān)人工智能機器人的民事法律法案,認(rèn)為智能機器人已經(jīng)不是單純的工具和產(chǎn)品,鑒于智能機器人實施侵害的原因不易探查,不能還遵循傳統(tǒng)理論,只追究生產(chǎn)者、銷售者、使用者的責(zé)任,還應(yīng)該讓人工智能機器人自己承擔(dān)一部分責(zé)任,當(dāng)然前提是給予智能機器人“電子人”獨特的法律地位。
相對而言,歐盟的模式比美國更具有前瞻性,原因在于美國是依據(jù)當(dāng)前人工智能技術(shù)的發(fā)展,而歐盟則看好人工智能機器人的將來,對其有較高的預(yù)期,但是卻沒有規(guī)定人工智能機器人該如何承擔(dān)責(zé)任。鑒于各方爭議不斷,歐盟、美國等也對原先的方案進(jìn)行了調(diào)整:由于生產(chǎn)者其對產(chǎn)品的控制力較強,因此應(yīng)承擔(dān)嚴(yán)格責(zé)任;又因為銷售者和使用者對產(chǎn)品的控制力較為薄弱,所以分別承擔(dān)過錯責(zé)任。
(2)完善的責(zé)任分配體系。鑒于目前階段的人工智能產(chǎn)品還無法完全像人類大腦一樣進(jìn)行思維且無法承擔(dān)實際的法律責(zé)任,因此其性質(zhì)歸屬是“物”而非“人”,所以人工智能機器人在致人傷亡和對財產(chǎn)造成損失時,無法承擔(dān)實際的法律責(zé)任和受到實際的法律制裁,承擔(dān)法律責(zé)任的只能是人工智能產(chǎn)品的生產(chǎn)者、所有者或使用者。因此人工智能產(chǎn)品的責(zé)任承擔(dān)方式應(yīng)效仿產(chǎn)品責(zé)任,在產(chǎn)品出現(xiàn)質(zhì)量問題時,明確產(chǎn)生該問題的因果關(guān)系,建立完善的責(zé)任分配體系進(jìn)行歸責(zé)。
(3)過錯推定。有學(xué)者指出應(yīng)根據(jù)對人工智能的不同分類實行不同的責(zé)任原則。例如:屬于人造程序的、不具有人類外觀的人工智能產(chǎn)品,如阿法狗這類人工智能的功能主要在于語音識別、智能搜索、大數(shù)據(jù)處理等。由于這類人工智能還屬于人類的工具,它們可以類比產(chǎn)品責(zé)任——過錯推定責(zé)任,因人工智能機器人的質(zhì)量問題給消費者造成的損害,推定生產(chǎn)者、運輸者、銷售者沒有負(fù)擔(dān)起各自的注意義務(wù),當(dāng)然若能夠證明不是因為自己的過錯,也可以免除法律責(zé)任。
(4)無過錯歸責(zé)。有學(xué)者主張由于目前階段的人工智能產(chǎn)品仍然在人類的控制范圍之類,屬于“產(chǎn)品”,因此不必著急另立新法,甚至修改民法相關(guān)理論。另一方面對人工智能機器人應(yīng)用嚴(yán)格的無過錯歸責(zé)原則,能夠督促人工智能產(chǎn)品的設(shè)計者和生產(chǎn)者,盡最大努力防止在智能機器人的設(shè)計和生產(chǎn)過程中出現(xiàn)的各種意外狀況,從而避免人工智能產(chǎn)品在超出人類控制范圍內(nèi)帶給人類社會難以想象的損害。但是筆者認(rèn)為無過錯歸責(zé)的形式毫無疑問會抑制人工智能的發(fā)展,所以完全的無過錯原則過于絕對,并不適合將來人工智能的進(jìn)步和更新。
(5)技術(shù)中立。當(dāng)人工智能產(chǎn)品能夠自主學(xué)習(xí)、具有高度自我意識且無人操作的情形時,過錯規(guī)則原則將無法適用。技術(shù)中立歸責(zé)認(rèn)為,技術(shù)存在的潛在風(fēng)險是人類為了社會進(jìn)步肯定會經(jīng)歷的,即在技術(shù)的研制階段不具有非正當(dāng)目的的情況下,技術(shù)的創(chuàng)制和進(jìn)步不應(yīng)歸為有罪,技術(shù)存在的潛在風(fēng)險不能歸責(zé)于技術(shù)的研發(fā)者。在此情況下,如果按照無過錯原則將責(zé)任風(fēng)險分配給生產(chǎn)、銷售方,不僅有違公平原則,還會限制制造方和研究人員的積極性,嚴(yán)重者甚至?xí)钄嗳斯ぶ悄墚a(chǎn)品的推廣。
另有學(xué)者主張技術(shù)中立規(guī)則雖然可能導(dǎo)致規(guī)避責(zé)任的現(xiàn)象出現(xiàn),但也會產(chǎn)生替代責(zé)任,這種替代責(zé)任類似于代理關(guān)系和雇傭關(guān)系中的替代責(zé)任。但這種替代責(zé)任的實質(zhì)還是將智能機器人造成的損害歸為:所有人或使用人沒有承擔(dān)起善良管理的責(zé)任而造成的損害。筆者認(rèn)為一個完備的社會體系就需要新型人工智能保險和賠償基金的支持,銷售者在出售人工智能產(chǎn)品時,應(yīng)配以全面的應(yīng)急保險和賠償基金,以支撐在侵害來源無法判斷情況下受害者的索賠請求。
(三)人工智能侵權(quán)的責(zé)任形態(tài)
有學(xué)者主張在目前的人工智能技術(shù)水平中,人工智能機器人還處于“產(chǎn)品”階段,其致人損害的責(zé)任形態(tài)歸為不真正連帶責(zé)任。《侵權(quán)責(zé)任法》第四十三條的設(shè)定,因為產(chǎn)品不合格造成損害的,不僅可以向制造方尋求賠償,還可以向銷售者尋求賠償;若產(chǎn)品不合格的原因是由制造方引起的,銷售者賠償后可以向制造方追究;若是因為銷售者的原因,制造方賠償后可以向銷售者追究。相對于人工智能產(chǎn)品,還要在加上設(shè)計者作為責(zé)任主體。
人工智能產(chǎn)品造成了他人損害,這種損害不僅包含對他人的人身造成的傷害,還涉及對他人的財產(chǎn)造成的物質(zhì)損害。在探究人工智能侵權(quán)的組成要件和因果聯(lián)系時,可以參考一般產(chǎn)品侵權(quán)的構(gòu)成要件:
(1)人工智能產(chǎn)品已步入流通領(lǐng)域,處在應(yīng)用過程中。如果該人工智能產(chǎn)品并沒有經(jīng)銷售者進(jìn)入使用者手中,發(fā)生致?lián)p致害時,則不能按照嚴(yán)格責(zé)任原則,向生產(chǎn)者和銷售者追責(zé)。例如使用者通過盜竊、搶奪等非正當(dāng)方式得到的人工智能產(chǎn)品,當(dāng)人工智能產(chǎn)品出現(xiàn)侵權(quán)事故,在此種情況下,不能向生產(chǎn)者和銷售者追責(zé)。
(2)人工智能機器人客觀上作出了一定行為。此“行為”應(yīng)該是廣義上的行為,如果該行為是因為設(shè)計者或者生產(chǎn)者的原因,則應(yīng)向設(shè)計方和生產(chǎn)方追責(zé);如果是因為使用者的不當(dāng)使用,則應(yīng)向使用方追責(zé);如果是因為人工智能產(chǎn)品基于自己的自主意識所作出的判斷做出的行為,可以向智能機器人追責(zé),例如在智能機器人有財產(chǎn)的情形下,對其進(jìn)行處罰,無論是因為誰的原因,都可以歸為此處的行為。
(3)引發(fā)了他人的人身損害或財物損失。此處的“他人”可以既可以指第三人,也可以是使用者,甚至可以包括未來可能獲得一定法律地位的人工智能機器人。如果學(xué)者們認(rèn)為人工智能機器人不應(yīng)當(dāng)獲得法律主體地位,則可將人工智能機器人歸為此處的“財產(chǎn)”。
(4)人工智能產(chǎn)品實施的行為和損害后果之間存在因果聯(lián)系。辨明因果聯(lián)系是確定侵權(quán)賠償?shù)那疤?,因果?lián)系理論要求在原因和結(jié)果之間存在引起與被引起這樣一種關(guān)系。如果損害后果和人工智能產(chǎn)品的行為沒有因果關(guān)系,我們就不能對其歸責(zé),不能將此侵害歸為“人工智能侵害”。
(四)人工智能侵權(quán)的應(yīng)對機制
人工智能產(chǎn)品的通用規(guī)則,具體如下:
人工智能產(chǎn)品的通用規(guī)則指的是,在人工智能領(lǐng)域可以適用的和一般產(chǎn)品相似的法律規(guī)則。當(dāng)前人工智能技術(shù)還處于低端人工智能水平,且人工智能機器人還在科學(xué)家的掌控范圍之內(nèi)。按照楊立新教授的觀點,不必著急另立新法,可將普通的產(chǎn)品規(guī)則應(yīng)用于人工智能機器人領(lǐng)域,因此對人工智能產(chǎn)品的制造方推行嚴(yán)格責(zé)任、對銷售方、使用方應(yīng)用過錯責(zé)任。具體來說:
(1)因為產(chǎn)品的質(zhì)量問題引起他人傷亡、財物受損的,制造方都應(yīng)該肩負(fù)起賠償義務(wù),當(dāng)然這種嚴(yán)格責(zé)任并不是一定絕對的,如果制造方具有以下幾種條件之一的,就不用承擔(dān)賠償義務(wù):并沒有把人工智能產(chǎn)品放入銷售領(lǐng)域;人工智能產(chǎn)品進(jìn)入銷售時其并不具有導(dǎo)致該損害的產(chǎn)品質(zhì)量問題;即使將人工智能產(chǎn)品銷售給顧客時,但以當(dāng)時的研究能力并不能找出該產(chǎn)品存在的質(zhì)量問題。
(2)對銷售方推行過錯推定原則:如果人工智能產(chǎn)品致?lián)p致害是因為銷售者的過錯,則該銷售方必須肩負(fù)起賠償義務(wù),但是如果銷售方有能力表明該產(chǎn)品的質(zhì)量問題并不是因為自己的原因,則不必承擔(dān)賠償責(zé)任。如果銷售方?jīng)]有能力說明該人工智能產(chǎn)品的制造方,就必須肩負(fù)起賠償義務(wù)??梢婁N售方具有提出證據(jù)的責(zé)任,不然就要肩負(fù)賠償義務(wù)。對于使用放的責(zé)任和義務(wù),側(cè)重體現(xiàn)在對人工智能產(chǎn)品的使用過程中,例如改裝行為,經(jīng)過改裝后的人工智能產(chǎn)品致?lián)p致害時,可以免除生產(chǎn)方、銷售方的責(zé)任。
(3)鑒于人工智能系統(tǒng)的復(fù)雜性,在無法法判斷產(chǎn)品的缺陷原因是設(shè)計者、生產(chǎn)者、銷售者、還是使用者時,可以適用連帶責(zé)任;另一方面在特定情況下,例如設(shè)計者、生產(chǎn)者、銷售者和使用者都能夠證明自己不存在過錯,還可以考慮技術(shù)中立原則,當(dāng)然技術(shù)中立極易導(dǎo)致規(guī)避責(zé)任的情況發(fā)生,因此應(yīng)該被嚴(yán)格限制。
(五)人工智能機器人的特殊規(guī)則
人工智能機器人和普通產(chǎn)品不同,其包含的大量的個人信息,數(shù)據(jù)處理過程異常復(fù)雜,因此不能僅僅依靠對待一般產(chǎn)品的通用規(guī)則進(jìn)行規(guī)制,我們必須根據(jù)其特點,制定相應(yīng)的規(guī)則體系并根據(jù)人工智能發(fā)展的不同情況,不斷進(jìn)行修正。
(1)在人工智能產(chǎn)品的發(fā)展進(jìn)程中,人的控制占較小比重、智能機器人的自主性較強時,可以參考?xì)W盟的做法,給予智能機器人特殊的法律資格。這種“電子人”具有一定的“機器人權(quán)利”、“機器人義務(wù)”和“機器人責(zé)任”。例如“電子人”在侵害普通他人或者其他“電子人”姓名權(quán)、肖像權(quán)、隱私權(quán)的時候,可以責(zé)令該施害“電子人”終止侵害、消除不良影響、賠禮道歉、彌補損失等,同時可以對其程序設(shè)定進(jìn)行修改,在一定期限內(nèi)限制其自由表達(dá),嚴(yán)重者可以永久刪除該類智能機器人的數(shù)據(jù),召回、銷毀該類機器人。
(2)在人工智能機器人銷售時,同時應(yīng)附有強制責(zé)任保險、賠償基金這樣的“套餐業(yè)務(wù)”。有學(xué)者認(rèn)為強制責(zé)任保險和賠付基金的設(shè)立,是把智能機器人歸于“物”的表示,將弱化人工智能機器人自己的賠付能力,使得智能機器人自己的賠償變的沒有意義。其實不然,筆者認(rèn)為多維的損害賠償形式共存,可以有效的兜底智能機器人所造成的損害,同時也可以減輕各方的壓力。作為普通人尚且為自己購買各種養(yǎng)老、醫(yī)療保險,智能機器人也可以在強制責(zé)任保險之外,為自己購買各種商業(yè)保險,不僅在致他人財產(chǎn)損失、人身損害的時候多一道保護(hù),同時在受到其他智能機器人的侵害時亦可以獲得對方保險的賠償。
(3)為了追求高效和智能化,人工智能機器人將會儲存大量的信息,例如無人駕駛汽車系統(tǒng),包含著使用者的家庭住址、工作單位地點、經(jīng)常去的目的地、甚至帶有行車記錄儀的無人駕駛汽車將會從車上人員的談話中收集大量信息。因此有必要對個人信息進(jìn)行特別的保護(hù),防止信息泄露導(dǎo)致的隱私權(quán)受侵害。筆者建議在技術(shù)層面要強制在人工智能系統(tǒng)中建立信息保護(hù)的程序,從預(yù)防信息泄露到信息泄露后的自動、及時的補救措施,一應(yīng)俱全;同時還需要提前設(shè)定隱私權(quán)保護(hù)的法條,在信息的收集、使用、處理、定期銷毀和維護(hù)等方面明確生產(chǎn)者和銷售者的售后服務(wù)和職責(zé)。
三、結(jié)語
綜上所述,雖然當(dāng)前的人工智能技術(shù)還處于“弱人工智能”水平,尚不具有法律主體資格,但是在未來,人工智能機器人最終會獲得一定的權(quán)利,肩負(fù)起屬于他們的義務(wù)和有限的責(zé)任。
“4-2-1”的家庭格局中的獨生子女,不僅要工作,還要生兒育女、贍養(yǎng)老人,壓力之大可以想象,我們對智能機器人的需求會愈來愈多,人工智能機器人必將會滲入我們社會生活的各個角落,甚至發(fā)展為我們社會中不可缺失的一個重要組成部分?!八麄儭笨赡馨缪菡吒鞣N角色,智能管家、家庭醫(yī)生、保姆、司機、親密朋友,甚至是寵物,即使是現(xiàn)在的人工智能技術(shù),以上幾種角色,智能機器人已經(jīng)可以實現(xiàn),伴隨著科技的不斷進(jìn)步,人工智能技術(shù)也一定會越來越超前。所以,我們在進(jìn)行有關(guān)人工智能機器人的法律設(shè)定時,除了要考慮到機器人在日常生活中,因為不同角色造成的損害可能適用不同的賠償方式或是承擔(dān)不同的損害責(zé)任以及“他們”可能和其他普通人或是其他智能機器人之間產(chǎn)生的各種糾紛和損害事故之外,還要考慮因為人工智能技術(shù)的不斷進(jìn)步所帶來的新的挑戰(zhàn)。
鑒于人們對人工智能產(chǎn)品的需求可能會越來越多,不僅科技人員要提高人工智能的技術(shù)水平,立法者和其他法律從業(yè)人員也要提高防范意識,時刻關(guān)注人工智能技術(shù)的發(fā)展,注意國際間的交流,研制出一套類型化的應(yīng)對機制并根據(jù)實際情形適時作出修正,以應(yīng)對人工智能不斷發(fā)展,從而更好的造福于人類。
參考文獻(xiàn)
[1] 陳莉.人工智能產(chǎn)品民事主體資格及侵權(quán)責(zé)任研究[J].武漢冶金管理干部學(xué)院學(xué)報,2018(06).
[2] 騰訊研究院、中國信通院互聯(lián)網(wǎng)法律研究中心、騰訊 AILab、騰訊開放平臺.人工智能[M].中國人民大學(xué)出版社,2017.
[3] 許輝猛,王飛翔.人工智能侵權(quán)責(zé)任認(rèn)定[J].長安大學(xué)學(xué)報:社會科學(xué)版,2018(07).
[4] 楊立新.人工類人格:智能機器人的民法地位——兼論智能機器人致人損害的民事責(zé)任[J].求實學(xué)刊,2018(04).
[5] 楊立新.從民法通則到民法總則:中國當(dāng)代民法的歷史性跨越[J].中國社會科學(xué),2018(02).
[6] 環(huán)球網(wǎng)國際新聞.德國通過首部關(guān)于自動駕駛汽車的法律[EB/OL].http://world.huanqiu.com/hot/201705/10663821.htm.