梁柯惠
(遼寧科技大學(xué),遼寧 鞍山 114000)
確認(rèn)人工智能產(chǎn)品致人損害的民事責(zé)任主體,首先要明確其引發(fā)致人損害的具體原因,概括而言存在下列可能:原因一,研發(fā)者,即產(chǎn)品具體程序的編寫(xiě)者,在研發(fā)人工智能產(chǎn)品時(shí),存在設(shè)計(jì)、技術(shù)方面的漏洞,且未能及時(shí)發(fā)現(xiàn)即投入生產(chǎn)。原因二,生產(chǎn)者在生產(chǎn)活動(dòng)中導(dǎo)致質(zhì)量制造方面的缺陷。原因三,銷(xiāo)售者因其銷(xiāo)售或儲(chǔ)藏行為導(dǎo)致產(chǎn)品發(fā)生問(wèn)題。原因四,占有者、使用者因其不當(dāng)?shù)氖褂眯袨榇嬖谥卮筮^(guò)失而致?lián)p害的產(chǎn)生。原因五,研發(fā)者、生產(chǎn)者、銷(xiāo)售者以及占有者、使用者均不存在過(guò)失且在合理范圍內(nèi)使用,而是由于人工智能產(chǎn)品的自主意識(shí)行為做出了不當(dāng)或錯(cuò)誤的判斷結(jié)果,導(dǎo)致?lián)p害后果的發(fā)生。
在原因五的復(fù)雜情況下,不能適用上述的產(chǎn)品質(zhì)量法和侵權(quán)責(zé)任法。原因如下:首先,研發(fā)者、生產(chǎn)者和銷(xiāo)售者均已盡到了注意義務(wù),不存在過(guò)失行為。若在此情況下仍要求上述主體承擔(dān)責(zé)任,則在承擔(dān)責(zé)任過(guò)重的情況下,將會(huì)對(duì)人工智能算法技術(shù)的創(chuàng)新和發(fā)展產(chǎn)生抑制的效果。其次,亦不能單純地將人工智能產(chǎn)品視為是占有者、使用者的動(dòng)產(chǎn),讓其自行承擔(dān)責(zé)任。由于占有者、使用者的預(yù)見(jiàn)性有限,且已然在使用過(guò)程中盡到合理的注意義務(wù),人工智能產(chǎn)品雖然是依據(jù)使用者的口令進(jìn)行一定的行為,但究其本質(zhì),是在完成研發(fā)者對(duì)其設(shè)計(jì)的相關(guān)程序,甚至在完成程序的同時(shí)還會(huì)發(fā)揮其獨(dú)立的意志,這是一種復(fù)雜的特殊情況。
從人工智能產(chǎn)品的本質(zhì)來(lái)看,人工智能產(chǎn)品的性質(zhì)還是產(chǎn)品,因此應(yīng)當(dāng)適用產(chǎn)品責(zé)任[1]。根據(jù)侵權(quán)責(zé)任法的規(guī)定,產(chǎn)品責(zé)任的主體是生產(chǎn)者和銷(xiāo)售者。然而人工智能產(chǎn)品是特殊的產(chǎn)品,由于人工智能產(chǎn)品能夠運(yùn)行、怎樣運(yùn)行的決定權(quán)在于其研發(fā)者,因此傾向于將研發(fā)者也列入至責(zé)任主體。此外,人工智能產(chǎn)品缺陷包括設(shè)計(jì)缺陷、生產(chǎn)缺陷和警示缺陷。其中,設(shè)計(jì)缺陷對(duì)應(yīng)設(shè)計(jì)者,警示缺陷對(duì)應(yīng)生產(chǎn)者。因此,在考慮責(zé)任承擔(dān)主體時(shí),應(yīng)當(dāng)將研發(fā)者也包含進(jìn)去。
例如,在美國(guó)第一起關(guān)于汽車(chē)自動(dòng)駕駛功能的交通事故案例中[2],明確責(zé)任承擔(dān)的主體還有一個(gè)必不可少的因素:考慮自動(dòng)駕駛汽車(chē)的分級(jí)標(biāo)準(zhǔn),國(guó)際汽車(chē)工程師協(xié)會(huì)將自動(dòng)駕駛汽車(chē)的無(wú)人駕駛程度分為五個(gè)級(jí)別,SAE0-2級(jí)是應(yīng)當(dāng)由駕駛員所監(jiān)控的駕駛環(huán)境,SAE 3-5級(jí)隨著級(jí)別的升高,自動(dòng)駕駛系統(tǒng)的可操控范圍越大,這種分級(jí)標(biāo)準(zhǔn)將汽車(chē)自動(dòng)駕駛功能的可操控程度進(jìn)行了明確的劃分,即駕駛輔助功能和自動(dòng)駕駛功能。就駕駛輔助功能而言,發(fā)生交通事故仍然按照傳統(tǒng)的交通事故一樣處理,現(xiàn)行法律能夠處理此類(lèi)問(wèn)題。而SAE3-5級(jí)車(chē)輛的駕駛員對(duì)于車(chē)輛自動(dòng)駕駛系統(tǒng)的介入程度存在差異,具體行駛過(guò)程中也可能會(huì)存在控制車(chē)輛的程度不同的情況。特斯拉公司在該事故中被認(rèn)定為無(wú)責(zé)正是因?yàn)槠渌鋫涞腁EB系統(tǒng)僅為自動(dòng)駕駛輔助的級(jí)別,若不對(duì)無(wú)人駕駛汽車(chē)的自動(dòng)化程度進(jìn)行區(qū)分,忽視其在駕駛過(guò)程中所發(fā)揮的作用,就會(huì)存在事故責(zé)任主體認(rèn)定的問(wèn)題。
侵權(quán)責(zé)任法第四十三條規(guī)定,被侵權(quán)人因產(chǎn)品存在缺陷而造成損害的,既可以請(qǐng)求產(chǎn)品的生產(chǎn)者承擔(dān)賠償責(zé)任,也可以向產(chǎn)品的銷(xiāo)售者請(qǐng)求賠償。因此,人工智能產(chǎn)品作為一種特殊的產(chǎn)品,其責(zé)任形態(tài)也應(yīng)當(dāng)是不真正連帶責(zé)任。但若想解決實(shí)務(wù)問(wèn)題,還應(yīng)當(dāng)依據(jù)上文所述,在責(zé)任主體中,除了已規(guī)定的生產(chǎn)者和銷(xiāo)售者外,還應(yīng)增加產(chǎn)品的研發(fā)者[3]。
此外,將人工智能產(chǎn)品致人損害的責(zé)任形態(tài)認(rèn)定為是不真正連帶責(zé)任還有利于明確各主體之間的責(zé)任劃分,通過(guò)法律規(guī)定使各主體各擔(dān)其責(zé),厘清研發(fā)者、生產(chǎn)者、銷(xiāo)售者各自的責(zé)任劃分和責(zé)任承擔(dān)范圍。在賦予被侵權(quán)人自由選擇責(zé)任主體的權(quán)利后,明確各主體之間的責(zé)任劃分,若損害不是由于自己的缺陷而產(chǎn)生,則任何一方在承擔(dān)賠償責(zé)任后,均對(duì)有責(zé)的一方享有追償?shù)臋?quán)利。做到了在損害結(jié)果發(fā)生時(shí)既有主體承擔(dān)責(zé)任,又保障了在責(zé)任承擔(dān)后各主體依據(jù)事實(shí)和證據(jù)向其他主體追責(zé)的權(quán)利。在解決實(shí)際問(wèn)題時(shí),對(duì)侵權(quán)責(zé)任的責(zé)任形態(tài)也予以充分考慮,從而使人工智能產(chǎn)品侵權(quán)責(zé)任的相關(guān)規(guī)定更加完善,在鼓勵(lì)人工智能科技產(chǎn)業(yè)蓬勃發(fā)展的同時(shí),也給予了被侵權(quán)人充分的消費(fèi)安全保護(hù)。
由于人工智能產(chǎn)品在發(fā)揮其具體功能時(shí)需要獲取有關(guān)使用者的各類(lèi)信息,正常情況下,其獲得這些信息的來(lái)源應(yīng)當(dāng)是來(lái)自使用者的同意和授權(quán),但是不能排除在一些情況下,使用者不愿意被知悉的信息被產(chǎn)品獲取后被其整理、分析,并被上傳到其他平臺(tái),被用于開(kāi)發(fā)潛在用戶(hù)、企業(yè)商用備案,甚至是買(mǎi)賣(mài)個(gè)人信息等非法或未經(jīng)使用者授權(quán)的其他用途[4]。而使用者通常因?yàn)椴涣私馄溥\(yùn)營(yíng)程序而無(wú)法及時(shí)知悉并阻止類(lèi)似事件的發(fā)生,當(dāng)使用者發(fā)現(xiàn)個(gè)人權(quán)利受到侵害為時(shí)已晚。此外,由于人工智能產(chǎn)品先進(jìn)的自主意志和學(xué)習(xí)功能,將會(huì)不可避免的導(dǎo)致其行為的不可預(yù)測(cè),進(jìn)而決定了結(jié)果總是滯后的發(fā)生,為損害結(jié)果的滯后性。
人工智能產(chǎn)品作為一種特殊的產(chǎn)品,會(huì)存在由于智能產(chǎn)品的自主意志進(jìn)行決策從而導(dǎo)致?lián)p害結(jié)果出現(xiàn)的情況,如果各主體能夠證明產(chǎn)品所致?lián)p害是由于科學(xué)技術(shù)水平不能發(fā)現(xiàn)而造成的缺陷,在這種極端情況下凸顯了為產(chǎn)品投保強(qiáng)制責(zé)任險(xiǎn)及商業(yè)險(xiǎn)的必要性。首先,為人工智能產(chǎn)品進(jìn)行投保是對(duì)被侵權(quán)人權(quán)利的有效保障,可以確保在缺少責(zé)任承擔(dān)主體時(shí),被侵權(quán)人的權(quán)利能夠得到及時(shí)有效地保護(hù)。其次,若將購(gòu)買(mǎi)強(qiáng)制責(zé)任險(xiǎn)及商業(yè)險(xiǎn)規(guī)定在法律之中,可以更好地督促研發(fā)者完善技術(shù)、生產(chǎn)者注重質(zhì)量、銷(xiāo)售者保障安全,利于人工智能科學(xué)技術(shù)的繁榮和發(fā)展。除對(duì)人工智能產(chǎn)品進(jìn)行投保外,在產(chǎn)品投入市場(chǎng)時(shí),由于科學(xué)技術(shù)水平有限尚未發(fā)現(xiàn)產(chǎn)品缺陷的,應(yīng)當(dāng)履行跟蹤服務(wù)義務(wù);若發(fā)現(xiàn)技術(shù)缺陷,則應(yīng)當(dāng)對(duì)存在缺陷的產(chǎn)品實(shí)施召回制度,因沒(méi)有及時(shí)采取召回措施而發(fā)生損害的,則仍然應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。
通過(guò)上文的分析論述可以清晰地認(rèn)識(shí)到,在人工智能技術(shù)飛速發(fā)展和廣泛應(yīng)用的現(xiàn)代社會(huì),對(duì)人工智能產(chǎn)品主體的研究是進(jìn)行其他研究的基礎(chǔ)和前提。為人工智能產(chǎn)品設(shè)置民事責(zé)任時(shí),應(yīng)當(dāng)秉持著在保證人類(lèi)社會(huì)安全的情況下,不能限制人工智能技術(shù)的發(fā)展這一基本理念,這就要求不能設(shè)置趨于嚴(yán)苛的責(zé)任,否則將過(guò)于加重科研人員的負(fù)擔(dān)、違背科學(xué)規(guī)律、阻礙科技的發(fā)展;亦不能設(shè)置過(guò)輕,否則不能滿(mǎn)足保障安全的基本準(zhǔn)則。
在通過(guò)分析人工智能產(chǎn)品特殊性質(zhì)后,也要敏感地認(rèn)識(shí)到現(xiàn)行民法在解決實(shí)際問(wèn)題時(shí)的局限性,很多關(guān)于侵權(quán)責(zé)任的細(xì)節(jié)問(wèn)題也尚未定論。在對(duì)美國(guó)發(fā)生關(guān)于無(wú)人駕駛汽車(chē)的具體案例進(jìn)行分析后,更為細(xì)致地對(duì)現(xiàn)行民法中關(guān)于侵權(quán)責(zé)任的原則、劃分、救濟(jì)等內(nèi)容的缺失和不足提出了建議。有理由相信,在加強(qiáng)對(duì)人工智能產(chǎn)品研發(fā)者、生產(chǎn)者、銷(xiāo)售者的倫理道德規(guī)范約束以及完善相關(guān)市場(chǎng)監(jiān)管制度的前提下,通過(guò)強(qiáng)制性的法律規(guī)定正式對(duì)責(zé)任體系進(jìn)行補(bǔ)充和修繕,使其受法律約束,從法律層面上降低人工智能產(chǎn)品所帶來(lái)的風(fēng)險(xiǎn),從而加速我國(guó)的人工智能科技產(chǎn)業(yè)的發(fā)展,推動(dòng)經(jīng)濟(jì)的進(jìn)步。