鄒曉紅 王乃冬
人工智能為服務(wù)特定領(lǐng)域誕生,基本以商品的形式存在,隨著社會(huì)的發(fā)展與科技的進(jìn)步,其使用已具有一定普遍性。比較典型的人工智能為智能音響、語(yǔ)音識(shí)別機(jī)器人、汽車(chē)自動(dòng)駕駛系統(tǒng),以及一些人工智能在線(xiàn)客服等。但是人工智能在快速發(fā)展的同時(shí),產(chǎn)生了一系列侵權(quán)事件,例如特斯拉自動(dòng)駕駛系統(tǒng),發(fā)生交通事故造成駕駛者死亡;“小胖”牌機(jī)器人發(fā)生傷人事件;蔚來(lái)汽車(chē)自動(dòng)駕駛發(fā)生交通事故,導(dǎo)致駕駛者死亡等。這些侵權(quán)事件的發(fā)生對(duì)我國(guó)現(xiàn)有的法律體系造成了巨大的沖擊與威脅,要求對(duì)人工智能侵權(quán)行為規(guī)制進(jìn)行相關(guān)的研究。同時(shí),人工智能基于算法而誕生,但是其運(yùn)行算法與其他算法不同,該算法的產(chǎn)生使得決策者與相對(duì)人之間的數(shù)字鴻溝加劇,進(jìn)而出現(xiàn)權(quán)利失衡、無(wú)處追責(zé)的情形愈發(fā)多見(jiàn),并由此引發(fā)了倫理問(wèn)題,值得進(jìn)一步討論和思考。
當(dāng)前,人工智能愈發(fā)盛行,使得我國(guó)侵權(quán)責(zé)任法傳統(tǒng)的歸責(zé)原則在智能環(huán)境下過(guò)錯(cuò)的認(rèn)定受到?jīng)_擊。[1]我國(guó)的侵權(quán)歸責(zé)原則,包括過(guò)錯(cuò)責(zé)任、無(wú)過(guò)錯(cuò)責(zé)任與公平責(zé)任,而人工智能基于其基本特征,侵權(quán)責(zé)任只能暫時(shí)適用產(chǎn)品責(zé)任。但是人工智能是否具有產(chǎn)品責(zé)任,則需要根據(jù)《產(chǎn)品質(zhì)量法》中,關(guān)于產(chǎn)品的國(guó)家標(biāo)準(zhǔn)與行業(yè)標(biāo)準(zhǔn),來(lái)判斷其是否具有產(chǎn)品缺陷,存在產(chǎn)品缺陷的人工智能才具有產(chǎn)品責(zé)任,因此人工智能引發(fā)的侵權(quán)問(wèn)題較難解決。
人工智能是社會(huì)與科技迅速發(fā)展的產(chǎn)物,與以往產(chǎn)生的新科技不同,其產(chǎn)品標(biāo)準(zhǔn)難以適應(yīng)其他“正常”產(chǎn)品的標(biāo)準(zhǔn)和要求。同時(shí),對(duì)產(chǎn)品設(shè)定的標(biāo)準(zhǔn)與要求,在實(shí)質(zhì)上是對(duì)產(chǎn)品的最低要求和標(biāo)準(zhǔn)。現(xiàn)今社會(huì),關(guān)于產(chǎn)品標(biāo)準(zhǔn)的制定和修改滯后,而滯后的標(biāo)準(zhǔn)更不能對(duì)人工智能產(chǎn)品起到規(guī)制作用。人工智能具有類(lèi)似人類(lèi)獨(dú)立思考的能力與獨(dú)立自主的行為能力,是社會(huì)發(fā)展中重要的一部分,為避免人工智能發(fā)展日益沖擊現(xiàn)有法律體系,對(duì)社會(huì)公眾的日常生活產(chǎn)生不良影響,我們需要對(duì)人工智能的侵權(quán)行為進(jìn)行規(guī)制,平衡人類(lèi)社會(huì)與人工智能之間的關(guān)系,維護(hù)法律權(quán)威。
馬長(zhǎng)山認(rèn)為:“掌握了數(shù)據(jù),就意味著掌握了資本和財(cái)富;掌握了算法(Algorithm),就意味著掌握了話(huà)語(yǔ)權(quán)和規(guī)制權(quán)?!盵2]人工智能算法的復(fù)雜性,使得其挑戰(zhàn)了法律的基本原則,對(duì)現(xiàn)有法律體系造成了沖擊。人工智能由算法、規(guī)則和模板組成,對(duì)其進(jìn)行監(jiān)管與規(guī)制,需要進(jìn)行外部監(jiān)管、算法公開(kāi)與個(gè)人數(shù)據(jù)賦權(quán)三種方式。
根據(jù)現(xiàn)有社會(huì)發(fā)展的科技數(shù)據(jù)顯示,我們已然步入算法時(shí)代,盡管人工智能受人類(lèi)支配,但是算法已經(jīng)開(kāi)始深入社會(huì)生活的各個(gè)方面,且大數(shù)據(jù)時(shí)代與信息化時(shí)代皆是以算法作為基本發(fā)展動(dòng)力。
對(duì)于算法的外部監(jiān)管與規(guī)制,應(yīng)當(dāng)從政府與平臺(tái)入手,再以法律法規(guī)對(duì)其進(jìn)行管理,例如《網(wǎng)絡(luò)安全法》與《數(shù)據(jù)安全法》。政府的監(jiān)管機(jī)構(gòu)應(yīng)當(dāng)使用“司法測(cè)試和新技術(shù)”來(lái)敦促算法相關(guān)企業(yè)遵守法律法規(guī)和其他內(nèi)控性質(zhì)的規(guī)范,不單純以命令式的硬性規(guī)定來(lái)規(guī)制算法技術(shù)。平臺(tái)的監(jiān)管應(yīng)當(dāng)為,算法平臺(tái)自身嚴(yán)格履行風(fēng)險(xiǎn)防范的義務(wù),對(duì)于自身的信息技術(shù)與數(shù)據(jù)進(jìn)行保護(hù)與管理,在此基礎(chǔ)上,配合現(xiàn)有管控制度,對(duì)算法活動(dòng)進(jìn)行監(jiān)督;算法活動(dòng)的監(jiān)督可以采用分級(jí)分類(lèi)管理的方式,先對(duì)不同的算法活動(dòng)進(jìn)行分類(lèi),對(duì)其可能產(chǎn)生的風(fēng)險(xiǎn)進(jìn)行等級(jí)劃分,平臺(tái)隨即對(duì)其制定不同的監(jiān)管方式。
另外,對(duì)算法進(jìn)行規(guī)制可以以公共滋擾定性算法妨害。當(dāng)算法運(yùn)行滿(mǎn)足公共滋擾的判定標(biāo)準(zhǔn),即足夠廣無(wú)差別地對(duì)群體造成傷害且無(wú)人負(fù)責(zé),就可以以公共滋擾對(duì)其定性,這就構(gòu)成了算法妨害,可以對(duì)算法進(jìn)行規(guī)制。算法妨害滿(mǎn)足公共滋擾的判定標(biāo)準(zhǔn),其造成的傷害是群體性的。算法中的數(shù)據(jù)在處理過(guò)程中可能被其他平臺(tái)采納,甚至通過(guò)顯化用戶(hù)的弱點(diǎn)而導(dǎo)致整個(gè)公共數(shù)據(jù)體系的癱瘓。算法妨害通過(guò)個(gè)人訴訟無(wú)法解決,需要通過(guò)集體訴訟方式處理,進(jìn)而以公共滋擾定性算法妨害在歸責(zé)原則的適用上,應(yīng)當(dāng)適用無(wú)過(guò)錯(cuò)責(zé)任。
算法公開(kāi)將在一定程度上對(duì)算法起到規(guī)制作用,但是算法公開(kāi)可能會(huì)引起算法知識(shí)產(chǎn)權(quán)被侵權(quán)的情形,因此以規(guī)制算法為目的的算法公開(kāi),需要三個(gè)條件,以保證算法的知識(shí)產(chǎn)權(quán)受到保護(hù),以及避免算法公開(kāi)導(dǎo)致其他主體權(quán)益受損。
第一,有特定指向的決策體系的公開(kāi)。算法的透明性可以部分實(shí)現(xiàn),算法公開(kāi)不應(yīng)當(dāng)是一般性的源代碼公開(kāi),一般性的源代碼公開(kāi)無(wú)法起到幫助規(guī)制算法的作用;而對(duì)于算法進(jìn)行解釋?zhuān)膊环纤惴ü_(kāi)的目的,因此應(yīng)當(dāng)有特定指向的決策體系的公開(kāi),為不同主體起到幫助作用。
第二,算法公開(kāi)需要區(qū)分。不同類(lèi)型的算法公開(kāi)的原則應(yīng)當(dāng)存在區(qū)別。例如公權(quán)力機(jī)構(gòu)以外機(jī)構(gòu)的算法,可以以商業(yè)秘密為由,進(jìn)行部分公開(kāi),保障自身權(quán)益;公權(quán)力機(jī)構(gòu)的算法公開(kāi),應(yīng)當(dāng)以公開(kāi)為原則,不公開(kāi)為例外,避免公權(quán)力機(jī)構(gòu)壟斷的產(chǎn)生;不同的主體應(yīng)當(dāng)根據(jù)情況的不同,承擔(dān)不同的責(zé)任以及算法公開(kāi)的程度。
第三,算法公開(kāi)的程度與范圍需要區(qū)分。不同主體進(jìn)行算法公開(kāi)的范圍與程度應(yīng)當(dāng)視情況進(jìn)行區(qū)分。例如,公權(quán)力機(jī)構(gòu)的算法公開(kāi)應(yīng)當(dāng)盡可能地公開(kāi),必要情況或特殊情況下不進(jìn)行公開(kāi),并且公權(quán)力機(jī)構(gòu)算法公開(kāi)的形式,應(yīng)當(dāng)采取普通人可以理解的方式進(jìn)行算法解釋?zhuān)环枪珯?quán)力機(jī)構(gòu)的其他主體的算法公開(kāi),應(yīng)當(dāng)比公權(quán)力機(jī)構(gòu)的要求寬松,因?yàn)榉枪珯?quán)力機(jī)構(gòu)難以構(gòu)成壟斷等危害公眾權(quán)益的情形。
個(gè)人數(shù)據(jù)賦權(quán)可以應(yīng)對(duì)人工智能算法問(wèn)題,本質(zhì)在于個(gè)人對(duì)數(shù)據(jù)的掌控。與個(gè)人數(shù)據(jù)賦權(quán)的相關(guān)法律規(guī)定,也是依賴(lài)個(gè)人對(duì)數(shù)據(jù)的控制,從其數(shù)據(jù)的角度著手,對(duì)人工智能算法進(jìn)行規(guī)制。歐美國(guó)家對(duì)于個(gè)人數(shù)據(jù)賦權(quán)的相關(guān)權(quán)益,為知情選擇權(quán)、數(shù)據(jù)訪(fǎng)問(wèn)權(quán)、數(shù)據(jù)刪除權(quán)等權(quán)益,全方位保護(hù)個(gè)人數(shù)據(jù)的相關(guān)權(quán)益,并且數(shù)據(jù)的控制者與處理者需要承擔(dān)維護(hù)個(gè)人數(shù)據(jù)安全的責(zé)任。
從個(gè)人數(shù)據(jù)賦權(quán)的角度對(duì)人工智能算法進(jìn)行規(guī)制,需要注重?cái)?shù)據(jù)的倫理規(guī)制與動(dòng)態(tài)規(guī)制,人工智能算法的創(chuàng)造與運(yùn)行,很大程度上取決于數(shù)據(jù)的累計(jì),大數(shù)據(jù)為人工智能算法的準(zhǔn)確性提供基礎(chǔ),但是人工智能算法倘若一味地依賴(lài)大數(shù)據(jù),則可能會(huì)侵犯公眾個(gè)人隱私。大數(shù)據(jù)本身就涉及到公民隱私的問(wèn)題,其本身具有混雜性。人工智能算法對(duì)大數(shù)據(jù)的運(yùn)用應(yīng)當(dāng)符合對(duì)個(gè)人數(shù)據(jù)處理僅用于初始目的,并且限期存儲(chǔ),一定時(shí)期自動(dòng)銷(xiāo)毀?,F(xiàn)今社會(huì),公民的個(gè)人隱私由于大數(shù)據(jù)的因素,時(shí)常受到侵犯,例如售樓處運(yùn)用人臉識(shí)別,對(duì)公民的消費(fèi)水平進(jìn)行調(diào)查,也是明確的侵犯公民個(gè)人隱私權(quán)的行為。人工智能算法對(duì)大數(shù)據(jù)的運(yùn)用,應(yīng)當(dāng)注重此類(lèi)數(shù)據(jù)處理是否符合相關(guān)倫理與人格保護(hù),而非一般性禁止數(shù)據(jù)的流通共享。[3]
人工智能侵權(quán)責(zé)任的分配需要在保護(hù)受害方的前提下進(jìn)行,以自動(dòng)駕駛汽車(chē)事件為例,倘若僅由人工智能的生產(chǎn)者承擔(dān)產(chǎn)品責(zé)任,無(wú)疑會(huì)阻礙科技的發(fā)展。人工智能侵權(quán)責(zé)任的分配應(yīng)當(dāng)依托現(xiàn)有侵權(quán)責(zé)任體系的基礎(chǔ)進(jìn)行完善,適度根據(jù)社會(huì)需要進(jìn)行調(diào)整。按需調(diào)整后的人工智能侵權(quán)責(zé)任分配體系應(yīng)當(dāng)完成風(fēng)險(xiǎn)分擔(dān)閉環(huán),保證侵權(quán)責(zé)任分配體系的完整性,為后期構(gòu)建相關(guān)法律框架提供基礎(chǔ)。
人工智能的侵權(quán)責(zé)任圍繞人工智能的設(shè)計(jì)者、生產(chǎn)商、銷(xiāo)售者與使用者而展開(kāi),這其中算法運(yùn)營(yíng)商的地位類(lèi)似于設(shè)計(jì)者,四者中是否適合成為適格被告需要具體討論。
第一,人工智能的設(shè)計(jì)者。不同階段設(shè)計(jì)者應(yīng)當(dāng)承擔(dān)不同的風(fēng)險(xiǎn)責(zé)任,研發(fā)期間產(chǎn)生侵權(quán)責(zé)任應(yīng)當(dāng)由設(shè)計(jì)者獨(dú)立承擔(dān)侵權(quán)責(zé)任。流入市場(chǎng)時(shí)期人工智能侵權(quán)責(zé)任的承擔(dān)需要視產(chǎn)品情況而定,倘若是可以被公眾發(fā)現(xiàn)的設(shè)計(jì)缺陷而產(chǎn)生的侵權(quán),應(yīng)當(dāng)由設(shè)計(jì)者承擔(dān)責(zé)任;倘若是由產(chǎn)品不可預(yù)知的風(fēng)險(xiǎn)導(dǎo)致的侵權(quán),應(yīng)當(dāng)判斷設(shè)計(jì)者是否盡到合理義務(wù),判斷其是否承擔(dān)過(guò)失責(zé)任。
第二,人工智能的生產(chǎn)者。根據(jù)對(duì)產(chǎn)品的法律規(guī)定,一個(gè)產(chǎn)品產(chǎn)生的侵權(quán)責(zé)任,主要由該產(chǎn)品的生產(chǎn)商承擔(dān)。由于產(chǎn)品本身包括產(chǎn)品的原材料與零部件,兩者的生產(chǎn)商也屬于該產(chǎn)品的生產(chǎn)商。人工智能由于產(chǎn)品缺陷導(dǎo)致的侵權(quán)責(zé)任,應(yīng)當(dāng)由參與產(chǎn)品生產(chǎn)的供應(yīng)商與生產(chǎn)商等所有主體一同承擔(dān),因?yàn)槠鋮⑴c主體均具有可責(zé)性。這與傳統(tǒng)的嚴(yán)格責(zé)任不同,有學(xué)者認(rèn)為采用過(guò)錯(cuò)責(zé)任能有效激勵(lì)人工智能產(chǎn)品企業(yè)創(chuàng)新,促使消費(fèi)者采取防范措施。[4]
第三,人工智能的銷(xiāo)售者?!肚謾?quán)責(zé)任法》第42條規(guī)定,倘若由于銷(xiāo)售者的過(guò)錯(cuò)致人損害,則需要銷(xiāo)售者承擔(dān),并且銷(xiāo)售者的過(guò)錯(cuò)導(dǎo)致產(chǎn)品存在缺陷,造成他人權(quán)益受損,同樣由銷(xiāo)售者承擔(dān)侵權(quán)責(zé)任。進(jìn)而,倘若產(chǎn)品為人工智能產(chǎn)品,而人工智能產(chǎn)品自身無(wú)缺陷,其缺陷是由銷(xiāo)售者的操作錯(cuò)誤或其他原因產(chǎn)生的,則侵權(quán)責(zé)任由銷(xiāo)售者承擔(dān),銷(xiāo)售者承擔(dān)的是過(guò)錯(cuò)責(zé)任。還有一種情形是,銷(xiāo)售者不能查明人工智能產(chǎn)品的供貨來(lái)源,則需要銷(xiāo)售者代替人工智能的生產(chǎn)者與設(shè)計(jì)者承擔(dān)侵權(quán)責(zé)任。《產(chǎn)品質(zhì)量法》規(guī)定,侵權(quán)行為的產(chǎn)生如果是由于銷(xiāo)售者的操作錯(cuò)誤等原因,則銷(xiāo)售者承擔(dān)賠償責(zé)任,與《侵權(quán)責(zé)任法》一樣,銷(xiāo)售者的責(zé)任是過(guò)錯(cuò)責(zé)任?!懂a(chǎn)品質(zhì)量法》的相關(guān)規(guī)定,即銷(xiāo)售者基于其過(guò)錯(cuò)承擔(dān)賠償責(zé)任,是《侵權(quán)責(zé)任法》銷(xiāo)售者基于過(guò)錯(cuò)承擔(dān)侵權(quán)責(zé)任的基礎(chǔ),同時(shí)也是生產(chǎn)者與銷(xiāo)售者進(jìn)行分責(zé)時(shí)的責(zé)任依據(jù)。根據(jù)《民法典》規(guī)定,倘若是由于產(chǎn)品缺陷而導(dǎo)致的權(quán)益受損,其損害賠償可以由生產(chǎn)者進(jìn)行承擔(dān),也可以由被侵權(quán)人向銷(xiāo)售者請(qǐng)求賠償,對(duì)于被侵權(quán)人而言,是由生產(chǎn)者與銷(xiāo)售者承擔(dān)賠償責(zé)任,在此條件下,生產(chǎn)者與銷(xiāo)售者成為一個(gè)整體,是嚴(yán)格責(zé)任的擴(kuò)張。
第四,人工智能的使用者。倘若人工智能產(chǎn)品本身不存在缺陷,在生產(chǎn)制造過(guò)程中也不存在缺陷,并且銷(xiāo)售者在銷(xiāo)售過(guò)程中為使用者展示了正確示范,最終侵權(quán)責(zé)任的產(chǎn)生來(lái)源于使用者自身的使用不當(dāng),則侵權(quán)責(zé)任由使用者自己承擔(dān)。其侵權(quán)責(zé)任的承擔(dān)可以參考法律對(duì)于動(dòng)物的管理與規(guī)定,動(dòng)物對(duì)他人產(chǎn)生侵權(quán)行為,應(yīng)當(dāng)由動(dòng)物的管理者承擔(dān)責(zé)任,動(dòng)物的管理者對(duì)動(dòng)物具有管控與約束的義務(wù)。基于動(dòng)物所具有的特殊危險(xiǎn)性,各國(guó)法律多將飼養(yǎng)動(dòng)物致害責(zé)任置于危險(xiǎn)責(zé)任體系中。[5]人工智能產(chǎn)品具有與動(dòng)物類(lèi)似的危險(xiǎn)性,因此也應(yīng)當(dāng)置于危險(xiǎn)責(zé)任體系中。基于人工智能產(chǎn)生侵權(quán)責(zé)任涉及了設(shè)計(jì)者、生產(chǎn)商、銷(xiāo)售商與使用者四者,單一判定其中一者或是多者承擔(dān)責(zé)任十分困難,人工智能侵權(quán)事實(shí)查明困難并且舉證困難,侵權(quán)責(zé)任的產(chǎn)生究竟是哪一方的過(guò)錯(cuò)判定十分復(fù)雜,并且耗時(shí)較長(zhǎng),在無(wú)法判定具體過(guò)錯(cuò)方時(shí),可以采用共同侵權(quán)責(zé)任分配的方式進(jìn)行歸責(zé)。
首先,共同侵權(quán)責(zé)任分配并不是要求四者承擔(dān)連帶責(zé)任而不查明事實(shí)真相,共同侵權(quán)責(zé)任分配存在兩種情況。第一,不真正連帶責(zé)任。不真正連帶責(zé)任的承擔(dān),是同一受害者被多數(shù)行為主體加害,或同一受害者的權(quán)益受損,來(lái)源于多主體的不同行為。這種情況下,實(shí)施加害行為的各行為主體產(chǎn)生了同一侵權(quán)責(zé)任,各承擔(dān)全部賠償責(zé)任,多行為主體中的一人承擔(dān)了賠償責(zé)任,則整體責(zé)任消失。對(duì)于人工智能領(lǐng)域而言,不真正連帶責(zé)任的行為主體,是人工智能的生產(chǎn)者、設(shè)計(jì)者、銷(xiāo)售者、使用者,當(dāng)這四者的行為都指向同一受害者時(shí),則產(chǎn)生不真正連帶責(zé)任,這四者中的每位主體都承擔(dān)全部賠償責(zé)任,有一主體承擔(dān)賠償責(zé)任后,則整體賠償責(zé)任消失。這時(shí)需要探討的是,倘若侵權(quán)責(zé)任的產(chǎn)生是由于人工智能的產(chǎn)品缺陷,則該責(zé)任由設(shè)計(jì)者與生產(chǎn)者承擔(dān);倘若侵權(quán)責(zé)任的產(chǎn)生,是由于銷(xiāo)售者的操作失誤而產(chǎn)生,而產(chǎn)品本身沒(méi)有缺陷,則責(zé)任還是由銷(xiāo)售者承擔(dān)。關(guān)于多主體各自承擔(dān)全部責(zé)任,受害者可以擇一起訴,任何一方先行賠付后,可以對(duì)真正的責(zé)任人再進(jìn)行事后追償。第二,連帶、按份責(zé)任。人工智能侵權(quán)責(zé)任的連帶責(zé)任由生產(chǎn)商、設(shè)計(jì)者與監(jiān)管機(jī)關(guān)共同承擔(dān)隨后按份分責(zé),對(duì)此,市場(chǎng)監(jiān)管者需要審查人工智能產(chǎn)品,并且審查產(chǎn)品這一行為本身應(yīng)是市場(chǎng)監(jiān)管者的義務(wù);倘若經(jīng)市場(chǎng)監(jiān)管者審查產(chǎn)品后,仍出現(xiàn)產(chǎn)品缺陷,應(yīng)由市場(chǎng)審查者承擔(dān)連帶責(zé)任,因?yàn)檫@屬于市場(chǎng)監(jiān)管者的失職,導(dǎo)致缺陷產(chǎn)品流入市場(chǎng)進(jìn)行銷(xiāo)售,在此情況下,應(yīng)由生產(chǎn)者、設(shè)計(jì)者、市場(chǎng)監(jiān)管者承擔(dān)責(zé)任,再根據(jù)銷(xiāo)售者是否存在過(guò)錯(cuò),討論是否需要銷(xiāo)售者承擔(dān)侵權(quán)責(zé)任。
其次,可以根據(jù)人工智能可能產(chǎn)生的風(fēng)險(xiǎn)系數(shù)的高低,設(shè)立無(wú)過(guò)錯(cuò)責(zé)任與過(guò)錯(cuò)責(zé)任。如汽車(chē)的自動(dòng)駕駛系統(tǒng),可以以駕駛員的注意義務(wù)為基礎(chǔ),對(duì)人工智能的責(zé)任進(jìn)行判斷。第一,無(wú)過(guò)錯(cuò)責(zé)任。以自動(dòng)駕駛汽車(chē)為例,過(guò)錯(cuò)責(zé)任的適用在自主性人工智能汽車(chē),因?yàn)樽灾餍匀斯ぶ悄芷?chē)的主要作用為自動(dòng)駕駛,將駕駛的行為由駕駛者過(guò)渡至汽車(chē),人工智能汽車(chē)則對(duì)駕駛中可能會(huì)產(chǎn)生的風(fēng)險(xiǎn)與問(wèn)題,具有注意義務(wù)。發(fā)生事故時(shí),事故的產(chǎn)生是由于人工智能未履行注意義務(wù),因此其責(zé)任的承擔(dān)與動(dòng)物致害歸責(zé)一致,適用無(wú)過(guò)錯(cuò)責(zé)任。第二,過(guò)錯(cuò)責(zé)任。以自動(dòng)駕駛汽車(chē)為例,倘若自動(dòng)駕駛系統(tǒng)是汽車(chē)的輔助系統(tǒng),汽車(chē)的駕駛主要需要由駕駛者完成,駕駛者對(duì)汽車(chē)行駛中的行人、道路與汽車(chē)具有注意義務(wù),無(wú)論發(fā)生事故時(shí),是否為自動(dòng)駕駛狀態(tài),駕駛者均存在一定的責(zé)任。在此,對(duì)于人工智能責(zé)任的承擔(dān)就應(yīng)當(dāng)適用過(guò)錯(cuò)責(zé)任。
人工智能法律人格與法律主體地位的賦予,一直是學(xué)界探討的問(wèn)題。學(xué)界普遍認(rèn)為,即使賦予人工智能法律人格,也只能是有限的法律人格,類(lèi)似于法律中的非法人組織。人工智能可以有民事權(quán)利能力,它在責(zé)任的承擔(dān)上,不能完全與其生產(chǎn)者、銷(xiāo)售者、設(shè)計(jì)者脫離,但是承認(rèn)人工智能的法律主體地位,仍然有利于明晰法律關(guān)系,促進(jìn)人工智能與社會(huì)的協(xié)同發(fā)展。賦予人工智能法律人格,設(shè)定人工智能的權(quán)利與義務(wù),可以更好的分擔(dān)責(zé)任,也可以為人工智能未來(lái)被納入法律軌道與體系打下基礎(chǔ)。
目前我國(guó)法律尚未出現(xiàn)關(guān)于人工智能致人損害的規(guī)定,從人工智能在我國(guó)社會(huì)發(fā)展中的性質(zhì)而言,它更類(lèi)似于一種商品。以社會(huì)群眾所能夠接觸到的人工智能而論,可以被定義為法律意義上的物品。關(guān)于法律人格的構(gòu)成,其不僅需要具備人的因素,即人體與人腦的生理學(xué)要素,并且擁有意識(shí)能力與獨(dú)立意志,同時(shí)還需要具備社會(huì)學(xué)要素,即需要具有獨(dú)立的社會(huì)角色。智能機(jī)器人不滿(mǎn)足擁有法律人格的生理學(xué)要素,即使其可以具有獨(dú)立的社會(huì)角色,但不具有人體和人腦,不具有法律上的人格。[6]
由于缺少針對(duì)人工智能的法律規(guī)定,與社會(huì)生活和公民相關(guān)的,人工智能侵權(quán)責(zé)任的承擔(dān),只能從產(chǎn)品責(zé)任的角度進(jìn)行解決。但是部分產(chǎn)品對(duì)于責(zé)任的承擔(dān),具有免責(zé)條款。免責(zé)條款可以幫助運(yùn)營(yíng)商和制造商規(guī)避責(zé)任的承擔(dān),倘若人工智能產(chǎn)品可以適用免責(zé)條款,進(jìn)而避開(kāi)責(zé)任的承擔(dān),人工智能領(lǐng)域?qū)⒏踊靵y?!懂a(chǎn)品質(zhì)量法》第31條和《侵權(quán)責(zé)任法》第42條規(guī)定的與產(chǎn)品缺陷致人損害的條款,即責(zé)任由生產(chǎn)者或銷(xiāo)售者承擔(dān),無(wú)疑增加了生產(chǎn)者與銷(xiāo)售者的法律責(zé)任。無(wú)論人工智能是不是法律意義上的商品或者物品,它與普通商品與物品的不同之處在于,人工智能的制造是現(xiàn)今社會(huì)并不成熟的領(lǐng)域,并且涉及到諸多風(fēng)險(xiǎn),簡(jiǎn)單的人工智能也可能致人損害,一味地將風(fēng)險(xiǎn)與責(zé)任推至生產(chǎn)商與銷(xiāo)售商一方面將抑制人工智能的發(fā)展,進(jìn)而打擊生產(chǎn)與銷(xiāo)售行業(yè)。人工智能的開(kāi)發(fā)涉及到算法的設(shè)計(jì),最終算法歸屬于算法運(yùn)營(yíng)商,以此而言,算法運(yùn)營(yíng)商也是人工智能的責(zé)任承擔(dān)者之一,僅要求生產(chǎn)者與銷(xiāo)售者承擔(dān)責(zé)任顯然不公平。因此,需要賦予人工智能法律主體地位,賦予其有限的法律人格,這可以對(duì)其他主體的權(quán)益進(jìn)行保護(hù)。在此基礎(chǔ)上,擁有有限法律人格的人工智能,將明確其權(quán)利義務(wù)關(guān)系,使得人工智能的生產(chǎn)者、銷(xiāo)售者、設(shè)計(jì)者等主體分離,避免由于人工智能的決斷而致其他主體產(chǎn)生損失。
以傳統(tǒng)觀(guān)念而言,法律主體是享有一定權(quán)利并可以承擔(dān)一定義務(wù)的人或者實(shí)體,實(shí)體指擁有自由意志可以履行義務(wù)的法律主體。人工智能目前不存在自由意志且缺少自主思維,同時(shí)人工智能尚無(wú)可以履行的社會(huì)義務(wù),進(jìn)而人工智能僅可以享有有限的法律人格,而該人格的享有以目前的社會(huì)現(xiàn)狀而言,是以人工智能承擔(dān)法律責(zé)任為目的的。通常在分析法律主體的特征時(shí),以三個(gè)角度進(jìn)行考慮。第一,實(shí)體的形而上學(xué)性質(zhì),這一角度要求法律主體具有理性與自主性。理性與自主性的要求將非人類(lèi)與一般客體排除在外,智力障礙者以及未滿(mǎn)八周歲的兒童皆不屬于該范疇,人工智能以此角度而言自然不應(yīng)當(dāng)享有法律人格;第二,以結(jié)果的角度,考慮某一實(shí)體倘若享有權(quán)利與義務(wù)的后果,胎兒或植物人則被剝奪了法律主體地位。以人工智能而言,人工智能享有權(quán)利與義務(wù)的后果雖然在法律層面與胎兒或植物人無(wú)異,但是人工智能確實(shí)存在履行義務(wù)的能力,進(jìn)而以此角度而言,人工智能是否應(yīng)該享有法律主體地位還存在一定疑問(wèn);第三,基于條件的方法論視角,法律主體性是法律體系建立的共同標(biāo)準(zhǔn)?;谶@一標(biāo)準(zhǔn),人或?qū)嶓w擁有了權(quán)利和義務(wù),同樣也承擔(dān)相應(yīng)的責(zé)任,法律規(guī)定一些實(shí)體法律人格的條件也來(lái)源于此。以公司為例,公司與人在人格的體現(xiàn)與本質(zhì)上并不相同,但是在法律層面,人與公司都屬于法律主體,都享有法律人格,進(jìn)而,當(dāng)人工智能享有法律主體地位,被賦予法律人格,最初的出發(fā)點(diǎn)是顧及社會(huì)發(fā)展的安全與穩(wěn)定及法律體系的完整,對(duì)人類(lèi)而言暫無(wú)危險(xiǎn),賦予人工智能有限的法律人格,使得人工智能可以承擔(dān)法律責(zé)任也是為未來(lái)強(qiáng)人工智能時(shí)代與超人工智能時(shí)代奠定基礎(chǔ)的表現(xiàn)。賦予人工智能主體地位的同時(shí),也應(yīng)對(duì)人工智能擬制權(quán)利設(shè)置權(quán)利邊界和權(quán)利保留,明確人工智能道德權(quán)利和行為效力的限度。[7]
現(xiàn)行人格制度下無(wú)生命的實(shí)體被法律排除在外,這使得人工智能享有有限的法律人格頗受爭(zhēng)議。人工智能確實(shí)是無(wú)生命的實(shí)體,并不擁有思維與自主性,倘若社會(huì)上承認(rèn)人工智能為一個(gè)自治的主體并賦予其法律人格,就需要在法律制度與規(guī)定中進(jìn)行體現(xiàn)。關(guān)于法律主體地位,法哲學(xué)家Hans Kelsen與J Austin存在不同觀(guān)點(diǎn),Hans Kelsen認(rèn)為將自然人等同于人類(lèi)的生物地位是錯(cuò)誤的,一個(gè)自然人僅僅是賦予了法律權(quán)利與行為義務(wù)的法律規(guī)范的個(gè)人化。[8]關(guān)于自然人擁有法律主體地位,J Austin認(rèn)為自然人是一個(gè)有權(quán)利和義務(wù)的人,是一個(gè)生物存在物的等價(jià)物。關(guān)于非自然人擁有法律主體地位,存在四種理論觀(guān)點(diǎn),其中“實(shí)在說(shuō)”這一理論觀(guān)點(diǎn),認(rèn)為法律實(shí)體由人創(chuàng)造而產(chǎn)生,但是法律實(shí)體本身就存在,并且是真實(shí)的?!皩?shí)在說(shuō)”中,人工智能的法律主體地位得到了體現(xiàn),盡管人工智能是被人為創(chuàng)造的,但人工智能確實(shí)是真實(shí)存在的。與此同時(shí),即便是人工智能也擁有學(xué)習(xí)與記憶及一定程度上自我決策的能力,但人工智能時(shí)代的自我決策部分仍然受人類(lèi)所引導(dǎo),強(qiáng)人工智能時(shí)代的人工智能才具有完全的自主決策能力。人工智能的特征表明其具有典型的行為能力、行使權(quán)利以及履行法律規(guī)定義務(wù)的能力。基于人工智能的智能性,可能會(huì)先于其授權(quán)代表的意愿,評(píng)估潛在后果,而不親自行使權(quán)利、履行義務(wù)。
另外,人工智能是否能夠被賦予有限的法律人格,還需要考慮人工智能是否能夠滿(mǎn)足獲得法律主體地位的實(shí)質(zhì)性要件。第一,人工智能是否具有意志能力。已知人工智能是人類(lèi)創(chuàng)造的類(lèi)人智能產(chǎn)品,但是人工智能的智能性來(lái)源于算法設(shè)計(jì),判斷人工智能是否具有意志能力的標(biāo)準(zhǔn),應(yīng)當(dāng)是脫離算法設(shè)計(jì)而言,即脫離算法設(shè)計(jì)后的人工智能倘若可以進(jìn)行自行學(xué)習(xí),則其具有意志能力。第二,人工智能能否滿(mǎn)足獲取法律主體地位的物質(zhì)性要件。倘若賦予人工智能法律主體地位,這意味著人工智能對(duì)其侵權(quán)行為將承擔(dān)責(zé)任,涉及到賠償責(zé)任時(shí),人工智能是否擁有屬于自己可支配的財(cái)產(chǎn)。根據(jù)社會(huì)發(fā)展,人工智能的財(cái)產(chǎn)只能來(lái)源于類(lèi)似汽車(chē)保險(xiǎn)的強(qiáng)制保險(xiǎn);或是在購(gòu)買(mǎi)者購(gòu)買(mǎi)人工智能產(chǎn)品時(shí)收取一定費(fèi)用作為責(zé)任附加費(fèi),以此設(shè)立該行業(yè)的責(zé)任基金,這些情況都需要伴隨人工智能的實(shí)際發(fā)展變化而進(jìn)行持續(xù)的判斷和探討。
人工智能時(shí)代的人工智能產(chǎn)品處于人類(lèi)可控制范圍內(nèi),發(fā)生侵權(quán)事件、產(chǎn)生侵權(quán)責(zé)任等可能來(lái)源于算法設(shè)計(jì)缺陷、生產(chǎn)研發(fā)期間產(chǎn)品測(cè)試故障、銷(xiāo)售者錯(cuò)誤示范或使用者使用不當(dāng),另一種情形是不法分子利用人工智能的運(yùn)行原理通過(guò)社交平臺(tái)散播不良信息,引起社會(huì)恐慌或是盜取用戶(hù)信息,侵犯公眾隱私,本文著重討論了第一種情形即人工智能產(chǎn)品侵權(quán)。
由于我國(guó)尚未將人工智能納入法律體系內(nèi),導(dǎo)致人工智能發(fā)生侵權(quán)事件后歸責(zé)困難,給予算法運(yùn)營(yíng)商、設(shè)計(jì)者、生產(chǎn)商等規(guī)避責(zé)任與風(fēng)險(xiǎn)的空間,同時(shí)人工智能侵權(quán)事件舉證困難導(dǎo)致上訴之路遙遙無(wú)期?;诖?,為完善法律體系,將人工智能現(xiàn)下已然產(chǎn)生的社會(huì)風(fēng)險(xiǎn)、未來(lái)強(qiáng)人工智能時(shí)代、超人工智能可能會(huì)產(chǎn)生的危險(xiǎn)及人工智能對(duì)法律體系產(chǎn)生的沖擊納入到考慮范圍內(nèi),可以先緩解人工智能為法律體系人格制度產(chǎn)生的沖擊,賦予人工智能有限的法律人格,方便后期加入更多人工智能的法律概念以及歸責(zé)原則;關(guān)于人工智能的歸責(zé),人工智能研發(fā)創(chuàng)造涉及多個(gè)部門(mén),針對(duì)其歸責(zé)需要分情況而討論,進(jìn)而可以選擇共同侵權(quán)原則,即不真實(shí)連帶責(zé)任與按份分責(zé)的方式進(jìn)行歸責(zé);關(guān)于人工智能的規(guī)制,不僅需要法律層面的規(guī)制,還需要社會(huì)規(guī)制,這其中包括了市場(chǎng)監(jiān)管與評(píng)估,倫理規(guī)制即在科技中加入更多道德的范疇,以及行業(yè)規(guī)制;關(guān)于人工智能的算法,可以以公共滋擾定性算法妨害,以及加強(qiáng)信息披露的方式進(jìn)行算法規(guī)制,防患于根本。不置可否,人工智能在社會(huì)發(fā)展道路上不可避免,未來(lái)強(qiáng)人工智能時(shí)代與超人工智能時(shí)代的來(lái)臨也是必然,因此,以人工智能的有限法律人格作為基礎(chǔ),明確歸責(zé)原則,通過(guò)法律規(guī)制與社會(huì)規(guī)制的共同作用,促進(jìn)未來(lái)人工智能與其他法律主體之間關(guān)系的解決,意義深遠(yuǎn)。