劉謝慈,賀馳宇
(湖南工業(yè)大學(xué) 法學(xué)院,湖南 株洲 412007)
風(fēng)險(xiǎn)社會(huì)是現(xiàn)代社會(huì)的一種伴生形態(tài),不同于傳統(tǒng)的危險(xiǎn)災(zāi)害,風(fēng)險(xiǎn)社會(huì)的誕生本身就是一種社會(huì)發(fā)展的結(jié)果。目前風(fēng)險(xiǎn)社會(huì)的治理主要依靠風(fēng)險(xiǎn)控制和剩余社會(huì)風(fēng)險(xiǎn)分擔(dān),二者相輔相成。近年來,科技治理風(fēng)險(xiǎn)社會(huì)的模式得到了廣泛關(guān)注,無論是用于精準(zhǔn)控制社會(huì)風(fēng)險(xiǎn)還是提供更科學(xué)的剩余社會(huì)風(fēng)險(xiǎn)分擔(dān)方案,實(shí)踐都已經(jīng)證明科技在帶來潛在風(fēng)險(xiǎn)的同時(shí)又能為風(fēng)險(xiǎn)社會(huì)賦能。其中,人工智能與社會(huì)治理的融合受到廣泛關(guān)注,它不僅關(guān)注傳統(tǒng)風(fēng)險(xiǎn),也關(guān)注新型風(fēng)險(xiǎn)的特殊性治理。根據(jù)社會(huì)學(xué)理論,“后人類”及“后人類社會(huì)”的出現(xiàn)以人工智能的誕生為標(biāo)志,通過人工智能與人腦的協(xié)作,推動(dòng)新的社會(huì)關(guān)系和社會(huì)形態(tài)出現(xiàn),同時(shí)也引發(fā)了風(fēng)險(xiǎn)治理研究范式的新一輪變革[1]。當(dāng)前,人工智能技術(shù)在我國(guó)司法方面的應(yīng)用已經(jīng)十分廣泛,國(guó)家高度重視人工智能技術(shù),把人工智能發(fā)展上升到國(guó)家戰(zhàn)略層面,整合各方資源,大力推動(dòng)人工智能創(chuàng)新,并且取得了不錯(cuò)的成果。無論是法律機(jī)器人“大?!?還是杭州互聯(lián)網(wǎng)法院,我國(guó)的“智慧司法”建設(shè)工程在國(guó)家的大力支持下,已經(jīng)走在了世界前列。但是快速發(fā)展的背后卻是相關(guān)制度建設(shè)的滯后,人工智能為人類社會(huì)發(fā)展創(chuàng)造了新的可能,另一方面也不斷引發(fā)各種社會(huì)問題和法律適用問題,擴(kuò)大了社會(huì)風(fēng)險(xiǎn)的覆蓋面和破壞性。
隨著人工智能技術(shù)的應(yīng)用領(lǐng)域愈發(fā)廣泛,隨之而來的倫理挑戰(zhàn)和侵權(quán)風(fēng)險(xiǎn)也逐漸顯現(xiàn)。智慧社會(huì)已經(jīng)初具雛形,但風(fēng)險(xiǎn)社會(huì)的矛盾也進(jìn)一步凸顯,人類社會(huì)所面臨的整體風(fēng)險(xiǎn)也在不斷增加,人工智能既提供了全新的治理方式,也帶來了新的問題,尤其近些年人工智能侵權(quán)事件屢屢發(fā)生,給整個(gè)社會(huì)帶來不小的隱患。因此,對(duì)于人工智能侵權(quán)的討論也越來越貼近現(xiàn)實(shí)。我國(guó)侵權(quán)責(zé)任體系高度依賴《民法典·侵權(quán)責(zé)任編》第一千一百六十五條構(gòu)建的行為人責(zé)任體系,而對(duì)于人工智能能否作為行為主體以及承擔(dān)責(zé)任這一問題還有待商榷,法律界對(duì)人工智能侵權(quán)主體地位的認(rèn)定眾說紛紜,這進(jìn)一步加劇了侵權(quán)風(fēng)險(xiǎn)意識(shí)的分化。在傳統(tǒng)的侵權(quán)糾紛中,侵權(quán)主體往往是明確的,而在人工智能侵權(quán)糾紛中,侵權(quán)主體的認(rèn)定卻一直是學(xué)術(shù)界的爭(zhēng)議焦點(diǎn)。有觀點(diǎn)認(rèn)為,對(duì)于人工智能侵權(quán)責(zé)任的認(rèn)定,可比照動(dòng)物侵權(quán)賠償責(zé)任的相關(guān)規(guī)定進(jìn)行判斷[2];也有觀點(diǎn)認(rèn)為,由于人工智能的行為邏輯是受其內(nèi)部程序規(guī)制的,因此應(yīng)由軟件開發(fā)者或人工智能產(chǎn)品所有權(quán)人承擔(dān)侵權(quán)責(zé)任。相較于傳統(tǒng)的侵權(quán)糾紛,侵權(quán)主體的特殊性是人工智能侵權(quán)糾紛最為顯著的特點(diǎn)[3]。就目前來看,賦予人工智能侵權(quán)主體地位的條件仍不具備,為了妥善解決人工智能侵權(quán)糾紛,合理分配侵權(quán)責(zé)任,勢(shì)必要對(duì)人工智能侵權(quán)主體地位問題進(jìn)行探討,提出有效解決途徑。人工智能侵權(quán)已然成為愈發(fā)嚴(yán)重的現(xiàn)實(shí)問題,我們既要妥善解決這些糾紛,也要保證社會(huì)的平穩(wěn)發(fā)展,更要以此為契機(jī),推動(dòng)侵權(quán)責(zé)任制度在風(fēng)險(xiǎn)社會(huì)下的轉(zhuǎn)型和進(jìn)步[4]。
對(duì)人工智能侵權(quán)主體地位的爭(zhēng)議,主要矛盾點(diǎn)在于確認(rèn)人工智能是否獨(dú)立地進(jìn)行意思表示,若無法準(zhǔn)確地判斷這一點(diǎn),對(duì)人工智能的屬性認(rèn)知就容易出現(xiàn)偏差,從而引發(fā)一系列的社會(huì)風(fēng)險(xiǎn)。自然人的獨(dú)立意志表達(dá)體現(xiàn)在民法領(lǐng)域,即人的意思自治。按照星野英一的觀點(diǎn),個(gè)人的意思自治意味著個(gè)人有加入或不加入某種法律關(guān)系的自由,以及有決定該法律關(guān)系內(nèi)容的自由[5]。這意味著需要人工智能以一個(gè)普通人的視角,通過理性、道德、情感等綜合因素地判斷,做出一個(gè)不僅符合邏輯且符合人性的行為選擇。顯然,目前的人工智能首先不具有這種能力,這種獨(dú)立意志的缺失,使得人工智能只能依照預(yù)設(shè)規(guī)則進(jìn)行工作,因而不能認(rèn)定其法律主體地位;其次,對(duì)于人工智能的意思表示難以進(jìn)行準(zhǔn)確辨別,簡(jiǎn)言之,在技術(shù)邏輯導(dǎo)向的人工智能侵權(quán)案件中,很難分辨“意思表示”是人還是機(jī)器做出的,這有可能使得幕后操縱者獲得雙重人格,借此來逃避法律責(zé)任。由于侵權(quán)主體是某一人工智能,責(zé)任由人工智能承擔(dān),不法分子完全可以躲在幕后操作,不用承擔(dān)任何責(zé)任,由此造成了侵權(quán)成本的降低,甚至可能造成社會(huì)秩序的混亂,進(jìn)一步放大了侵權(quán)風(fēng)險(xiǎn)。
基于人工智能的高科技屬性,適用技術(shù)的主體往往是一些規(guī)模巨大、實(shí)力強(qiáng)勁的企業(yè)或組織,其掌握著人工智能的運(yùn)行規(guī)則和相關(guān)數(shù)據(jù)。核心技術(shù)作為商業(yè)秘密的一種,相關(guān)持有主體依法享有不公開的權(quán)利。即使最基本的人工智能算法有一定的可行性予以公開,但后續(xù)人工智能在算法支持下進(jìn)行數(shù)據(jù)分析、智能決策以及深度學(xué)習(xí)的完整過程是無法簡(jiǎn)單敘述的[6]。而被侵權(quán)的對(duì)象,一般都是普通民眾,糾紛雙方的實(shí)力差距明顯,地位不對(duì)等。根據(jù)《中華人民共和國(guó)民事訴訟法》規(guī)定的舉證規(guī)則,首先應(yīng)由被侵權(quán)人就侵權(quán)行為的發(fā)生進(jìn)行舉證。但在人工智能侵權(quán)案件中,對(duì)于被侵權(quán)者來說,其不論是在技術(shù)上還是客觀條件上,取證都十分困難。如果人工智能技術(shù)背后的實(shí)際操控者有意隱瞞或者修改數(shù)據(jù),被侵權(quán)者的取證活動(dòng)將更加舉步維艱。此外,人工智能具有極強(qiáng)的自主性和不可預(yù)測(cè)性,可通過數(shù)據(jù)分析不斷學(xué)習(xí),這對(duì)原始記錄的留存和記載也造成了較大困難,甚至連開發(fā)者和使用者也無法有效還原客觀侵權(quán)過程,從而進(jìn)一步加劇了人工智能侵權(quán)行為的認(rèn)定困境。
侵權(quán)責(zé)任的主要意義在于使受害人在權(quán)利受到侵犯時(shí)能夠得到合理補(bǔ)償,而人工智能作為人造產(chǎn)物,不具有獨(dú)立財(cái)產(chǎn)權(quán),不能使用自己的財(cái)產(chǎn)來承擔(dān)責(zé)任,最終還是要追溯人工智能背后的使用者或其他有關(guān)責(zé)任人員來承擔(dān)責(zé)任,如此一來,賦予人工智能侵權(quán)主體地位就失去意義,反而使受害者遭受追責(zé)困難的風(fēng)險(xiǎn)。此外,如果要用人工智能自身的價(jià)值來承擔(dān)侵權(quán)責(zé)任,也存在諸多問題。一方面,人工智能自身價(jià)值難以估算,由于這一技術(shù)的特殊性,對(duì)其進(jìn)行準(zhǔn)確估值較為困難,其涉及的知識(shí)產(chǎn)權(quán)等因素,使得這一問題更加復(fù)雜化。從被侵權(quán)者的角度來說,當(dāng)事人只想得到合理補(bǔ)償,而人工智能的價(jià)值若無法換算成能夠流通的財(cái)產(chǎn),則沒有實(shí)質(zhì)意義,無論這一人工智能對(duì)于其利益相關(guān)者而言有著多大的價(jià)值,其價(jià)值衡量標(biāo)準(zhǔn)也難以得到普遍認(rèn)可。一方面,人工智能的價(jià)值難以分割,無法將自身的價(jià)值交付于受害者,而如果采用轉(zhuǎn)移使用權(quán)或者分割所得利益等方式,那實(shí)際上還是把人工智能看作是物,與汽車、手機(jī)等沒有區(qū)別,與法律主體這一地位自相矛盾。
從社會(huì)情感的角度出發(fā),普通民眾對(duì)于人工智能的接受度有限,人類是獨(dú)一無二的,因此在普通民眾心里,只能把人工智能視作高級(jí)機(jī)器,而不是看作是和自然人一樣的另一種智慧生命體。人工智能不具有情感體驗(yàn),不能接受或表達(dá)情感,智能機(jī)器人無法與人類產(chǎn)生實(shí)質(zhì)性的情感聯(lián)結(jié)。人類也很難接受人工智能和人類擁有相同地位。歸根結(jié)底,法律是統(tǒng)治階級(jí)意志的體現(xiàn),根本上代表的始終是人類自身的利益,作為人造產(chǎn)物,機(jī)器人的工具性價(jià)值決定其具有天然利他性而非利己性,因此不會(huì)像自然人一樣為自己謀求利益,客觀上并不需要此類權(quán)利,也難以行使權(quán)利。人工智能缺乏權(quán)利訴求,但是卻因?yàn)闇p輕社會(huì)風(fēng)險(xiǎn)或者加強(qiáng)人類對(duì)其控制的需要而承擔(dān)大量的義務(wù),這與權(quán)利與義務(wù)相平等的原則不符。此外,人工智能作為侵權(quán)責(zé)任主體還可能導(dǎo)致勞動(dòng)異化、社會(huì)關(guān)系混亂等一系列社會(huì)問題[7]。這些都增加了潛在的社會(huì)風(fēng)險(xiǎn),對(duì)現(xiàn)有的社會(huì)治理、法律體系造成嚴(yán)重沖擊,所以人工智能主體化問題并不是單純的法律問題,更牽涉?zhèn)惱淼赖?、公益目的及人類感情等。在風(fēng)險(xiǎn)社會(huì)之下,這些社會(huì)問題被進(jìn)一步放大,可以看出,人工智能侵權(quán)所引起的法律難題如何解決,在現(xiàn)行的法律體系內(nèi)似乎并沒有明確規(guī)定,這進(jìn)一步提高了技術(shù)治理的難度。
如果賦予人工智能法律主體地位,可能使得幕后操縱者獲得雙重人格,從而逃避法律責(zé)任,為自己謀取非法利益。與此相反,如果人工智能非主體化,則其設(shè)計(jì)者、使用者就必須承擔(dān)一定的風(fēng)險(xiǎn),當(dāng)人工智能主體引發(fā)侵權(quán)行為時(shí),這些相關(guān)責(zé)任人員必須為此負(fù)責(zé)。通常情況下,制造產(chǎn)業(yè)缺乏在安全性和謹(jǐn)慎性方面提高支出的原始驅(qū)動(dòng)力,而更多的是在事故產(chǎn)生之后所作出的補(bǔ)救和改進(jìn)[8]。基于規(guī)避風(fēng)險(xiǎn)的目的,設(shè)計(jì)者必須嚴(yán)謹(jǐn)?shù)卦O(shè)計(jì)程序,避免出現(xiàn)錯(cuò)誤;管理者是人工智能技術(shù)的首要控制主體,其對(duì)人工智能進(jìn)行嚴(yán)格管理并規(guī)范使用是其義務(wù)所在。此外,避免操作失誤或減少系統(tǒng)運(yùn)行錯(cuò)誤以避免人工智能對(duì)他人造成損害也屬于管理者的注意義務(wù)[9],所以管理主體需持續(xù)優(yōu)化管理機(jī)制,謹(jǐn)慎使用人工智能技術(shù),這樣就變相提高了有關(guān)責(zé)任人員的注意義務(wù)。人工智能的非主體化認(rèn)定,不僅能最大限度降低惡意利用人工智能技術(shù)開展違法犯罪活動(dòng)的可能性,而且可以通過完善設(shè)計(jì)和積極管理避免技術(shù)事故的發(fā)生,這無疑強(qiáng)化了設(shè)計(jì)和管理人員的謹(jǐn)慎義務(wù)。
對(duì)于人工智能侵權(quán)糾紛的被侵權(quán)者,最迫切的訴求是得到合理補(bǔ)償,而人工智能財(cái)產(chǎn)方面的特殊性使得其難以承擔(dān)侵權(quán)責(zé)任。與此相對(duì),人工智能非主體化則可以順利地找到一個(gè)能夠承擔(dān)責(zé)任的適格的民事法律主體。事實(shí)上,能夠控制人工智能系統(tǒng)的,一般都是實(shí)力雄厚的公司企業(yè),其有足夠的財(cái)力,完全有能力承擔(dān)侵權(quán)責(zé)任,向這些主體進(jìn)行追責(zé),為人工智能侵權(quán)行為承擔(dān)責(zé)任,對(duì)被侵權(quán)者進(jìn)行賠償,才更符合民法典侵權(quán)責(zé)任編的損害賠償目的,社會(huì)風(fēng)險(xiǎn)也能夠得到合理分散承擔(dān),故人工智能的非主體化更有利于受害人合法權(quán)益的保護(hù)。而對(duì)于民法典侵權(quán)責(zé)任編規(guī)定的“賠禮道歉”“恢復(fù)名譽(yù)”等方式,由相關(guān)責(zé)任人員來承擔(dān)責(zé)任更為恰當(dāng),將倫理道德納入人工智能開發(fā)企業(yè)的社會(huì)責(zé)任框架之中,對(duì)受到侵害的消費(fèi)者主動(dòng)承擔(dān)倫理道德責(zé)任[10],是侵權(quán)責(zé)任制度的應(yīng)有之義,同時(shí)也可以滿足被侵權(quán)者的情感需求。
人工智能技術(shù)誕生的同時(shí),也帶來了引發(fā)社會(huì)風(fēng)險(xiǎn)的可能性,所以自然也就成為社會(huì)治理的對(duì)象之一,但人工智能技術(shù)的出現(xiàn)也為社會(huì)治理賦予新的可能,為社會(huì)提供更多路徑來實(shí)施社會(huì)治理。人工智能是一項(xiàng)高科技產(chǎn)物,其中所涉及的技術(shù)和計(jì)算常人難以想象,雖然人工智能目前的發(fā)展取得了不錯(cuò)的成果,但是這個(gè)領(lǐng)域還有著大量的未知等待我們?nèi)グl(fā)掘,所以繼續(xù)發(fā)展會(huì)帶來怎樣的風(fēng)險(xiǎn),又會(huì)導(dǎo)致怎樣的侵權(quán)事件,這都是未知數(shù)。但可以預(yù)見的是,運(yùn)用人工智能技術(shù)治理風(fēng)險(xiǎn)社會(huì)是人類面對(duì)多元突發(fā)風(fēng)險(xiǎn)能夠給出的極佳解決方案,用人工智能創(chuàng)造一套從預(yù)警到補(bǔ)救的完整治理機(jī)制,或者利用人工智能找尋全新的治理措施,都具有一定的可行性。當(dāng)人工智能作為客體時(shí),可以成為社會(huì)治理的工具,為不同領(lǐng)域的治理工作提供強(qiáng)大助力。而當(dāng)人工智能作為主體時(shí),不僅本身帶來的侵權(quán)風(fēng)險(xiǎn)無法妥善化解,還使得社會(huì)風(fēng)險(xiǎn)進(jìn)一步加劇,人們不但要先解決人工智能主體化之后帶來的新問題,運(yùn)用人工智能還面臨著更多的限制,這反而制約了人工智能技術(shù)的效能發(fā)揮。
既然否定了人工智能的侵權(quán)主體地位,解決問題的關(guān)鍵就在于明確侵權(quán)主體,進(jìn)而合理分配侵權(quán)責(zé)任。當(dāng)人工智能被認(rèn)定為客體時(shí),完全可以參考民法典侵權(quán)責(zé)任編的相關(guān)內(nèi)容,在考慮一些特殊情況的基礎(chǔ)上,綜合行為過程的各種因素,確定侵權(quán)主體。首先,對(duì)于人工智能引發(fā)的侵權(quán)責(zé)任,如果侵權(quán)結(jié)果是由于人工智能設(shè)計(jì)者的設(shè)計(jì)缺陷造成的,應(yīng)由人工智能設(shè)計(jì)者承擔(dān)侵權(quán)責(zé)任,此時(shí)可參考產(chǎn)品責(zé)任——生產(chǎn)者與銷售者承擔(dān)無過錯(cuò)責(zé)任、不真正連帶責(zé)任,即生產(chǎn)者和銷售者對(duì)外均承擔(dān)無過錯(cuò)責(zé)任,銷售者對(duì)內(nèi)系過錯(cuò)責(zé)任,銷售者無過錯(cuò)的,生產(chǎn)者需承擔(dān)最終責(zé)任,銷售者承擔(dān)責(zé)任后有權(quán)向生產(chǎn)者全額追償;銷售者有過錯(cuò)的,銷售者承擔(dān)最終責(zé)任,生產(chǎn)者承擔(dān)責(zé)任后有權(quán)向銷售者全額追償[11]。其次,針對(duì)人工智能管理者,如果因其過錯(cuò)造成侵權(quán),其理應(yīng)承擔(dān)侵權(quán)責(zé)任。而在人工智能本身沒有設(shè)計(jì)缺陷的情況下,人工智能的使用者應(yīng)當(dāng)遵守操作規(guī)程,履行謹(jǐn)慎義務(wù),如果是使用者的過錯(cuò)導(dǎo)致了人工智能侵權(quán)行為的發(fā)生,則理應(yīng)由使用者承擔(dān)侵權(quán)責(zé)任[9]。此外,針對(duì)人工智能的特殊性,還可參考用人單位責(zé)任,將管理者和操縱者細(xì)分,進(jìn)一步明確責(zé)任主體,對(duì)外由管理者或單位承擔(dān)責(zé)任。例如,以管理者和使用者本身過錯(cuò)的大小對(duì)侵權(quán)責(zé)任進(jìn)行分配;在人工智能侵權(quán)行為產(chǎn)生原因不明的情況下,可由人工智能設(shè)計(jì)者和管理者承擔(dān)相關(guān)侵權(quán)行為的連帶責(zé)任[12];如果存在獨(dú)立于設(shè)計(jì)者和管理者之外的第三人非法控制了人工智能并進(jìn)行操縱,從而導(dǎo)致相關(guān)人工智能侵權(quán)損害的,應(yīng)當(dāng)認(rèn)定第三人為相關(guān)侵權(quán)行為責(zé)任主體并承擔(dān)相應(yīng)的侵權(quán)責(zé)任。
由于人工智能的特殊性,傳統(tǒng)的侵權(quán)責(zé)任承擔(dān)方式存在局限性。人工智能難以單獨(dú)承擔(dān)侵權(quán)責(zé)任,但如果人工智能不受控制而引發(fā)社會(huì)風(fēng)險(xiǎn),或人工智能程序運(yùn)行超出原始設(shè)定而造成侵權(quán)風(fēng)險(xiǎn),應(yīng)增加對(duì)人工智能進(jìn)行特殊無害化處理的責(zé)任承擔(dān)方式。根據(jù)侵權(quán)程度的不同或者危害性的大小,無害化處理可以有不同級(jí)別,當(dāng)人工智能嚴(yán)重威脅他人及社會(huì)安全或超出管理者控制時(shí),可以采用將人工智能的載體予以徹底銷毀的方式;當(dāng)人工智能只是某個(gè)程序設(shè)定不合理時(shí),可以將控制人工智能行為的電腦程序進(jìn)行無害化修改,其余部分繼續(xù)使用;再者,如果人工智能接收、使用了某些不良數(shù)據(jù)或數(shù)據(jù)受到惡意篡改,則可以將相關(guān)數(shù)據(jù)和學(xué)習(xí)記錄刪除,將人工智能程序恢復(fù)出廠狀態(tài)。在清除儲(chǔ)存空間的同時(shí),可設(shè)置相關(guān)禁止指令,防止再次發(fā)生類似侵權(quán)行為。特殊侵權(quán)責(zé)任承擔(dān)方式與普通侵權(quán)責(zé)任承擔(dān)方式相結(jié)合,或能更好地解決人工智能侵權(quán)糾紛。
侵權(quán)責(zé)任制度的意義不僅限于明確責(zé)任,更重要的是在于損害賠償。在人工智能非主體的前提下,將生產(chǎn)者和使用者作為侵權(quán)責(zé)任的承擔(dān)主體,能有效地保證被侵權(quán)者得到賠償,但過重的賠償責(zé)任可能會(huì)減弱生產(chǎn)者研發(fā)人工智能的積極性。而如果能引入商業(yè)保險(xiǎn)制度,將人工智能侵權(quán)引發(fā)的高額賠償款轉(zhuǎn)移給保險(xiǎn)公司來支付,則可最大程度降低生產(chǎn)者的顧慮[13],同時(shí)也能保證被侵權(quán)者可以在第一時(shí)間獲得救濟(jì),有效分擔(dān)了社會(huì)風(fēng)險(xiǎn)。但是,過低的投保責(zé)任又會(huì)使得企業(yè)通過保險(xiǎn)手段規(guī)避人工智能侵權(quán)的風(fēng)險(xiǎn),從而降低對(duì)人工智能的生產(chǎn)和監(jiān)管標(biāo)準(zhǔn)。鑒于人工智能特殊的高科技性和廣泛的應(yīng)用性,可以采取“雙軌制”的保險(xiǎn)模式,即對(duì)于生產(chǎn)者采取強(qiáng)制保險(xiǎn)制度,對(duì)于其他主體則采取商業(yè)保險(xiǎn)制度由其自愿選擇。對(duì)于人工智能侵權(quán)事件,大多數(shù)危險(xiǎn)源都是人工智能系統(tǒng),即責(zé)任承擔(dān)者指向生產(chǎn)者,生產(chǎn)者的強(qiáng)制保險(xiǎn)制度可以為大多數(shù)的人工智能侵權(quán)事件提供救濟(jì)保障,同時(shí)也通過強(qiáng)制保險(xiǎn)制度避免生產(chǎn)者逃避侵權(quán)責(zé)任的承擔(dān)。而商業(yè)保險(xiǎn)制度作為補(bǔ)充,則為使用者、管理者以及其他主體提供技術(shù)適用過程中的保障。
針對(duì)人工智能的特殊性,除了商業(yè)保險(xiǎn)制度外,還可以建立人工智能動(dòng)產(chǎn)登記制度。人工智能產(chǎn)品在流入市場(chǎng)之前必須強(qiáng)制登記,登記信息主要包括設(shè)計(jì)者和生產(chǎn)者的基本情況,以此獲得產(chǎn)品編號(hào)并登記在冊(cè)。此外,還需登記設(shè)計(jì)和生產(chǎn)的技術(shù)指標(biāo),通過登記制度的追溯功能可以確定人工智能產(chǎn)品設(shè)計(jì)者和生產(chǎn)者,進(jìn)而對(duì)其提出賠償要求[14]。還可以和人工智能的強(qiáng)制保險(xiǎn)制度相結(jié)合,在保證受侵權(quán)者第一時(shí)間得到救濟(jì)的同時(shí)提高向最終責(zé)任主體追償?shù)男?便于對(duì)人工智能行業(yè)的有效監(jiān)管。在出臺(tái)國(guó)家和行業(yè)的人工智能產(chǎn)品質(zhì)量標(biāo)準(zhǔn)之后,人工智能產(chǎn)品要進(jìn)行強(qiáng)制登記,相關(guān)監(jiān)管部門也要嚴(yán)格履行審核職責(zé),主要是查看人工智能產(chǎn)品的質(zhì)量和生產(chǎn)指標(biāo)是否符合監(jiān)管標(biāo)準(zhǔn),這也能為后續(xù)的持續(xù)監(jiān)管工作提供基礎(chǔ)條件。為了配合人工智能登記制度,相關(guān)責(zé)任主體需制定配套的人工智能產(chǎn)品質(zhì)量的國(guó)家和行業(yè)標(biāo)準(zhǔn),同時(shí)也要建立健全人工智能行業(yè)監(jiān)管制度。目前來看,雖然不能賦予人工智能法律主體地位,但適當(dāng)?shù)姆尚薷囊约靶袠I(yè)規(guī)則的制定是有必要的。對(duì)于人工智能這樣的高科技領(lǐng)域,在大力發(fā)展的同時(shí)需加強(qiáng)監(jiān)管力度。具體可以從以下方面入手:在人工智能制造業(yè),要對(duì)人工智能的設(shè)計(jì)制定嚴(yán)密的規(guī)則,甚至是樹立基本的工作原則;要對(duì)人工智能使用的數(shù)據(jù)進(jìn)行嚴(yán)密監(jiān)管,保證數(shù)據(jù)來源合法,數(shù)據(jù)使用合理。換言之,雖然確定了人工智能不作為責(zé)任承擔(dān)主體,而是由相關(guān)責(zé)任人員來承擔(dān)侵權(quán)責(zé)任,但是法律是維護(hù)社會(huì)秩序的最后一道防線,應(yīng)該盡量將問題在釀成重大后果之前妥善處理,防范風(fēng)險(xiǎn)于未然,這才契合風(fēng)險(xiǎn)社會(huì)的治理方式[15]。
人工智能技術(shù)在賦能社會(huì)治理的同時(shí)也帶來了未知的多樣化風(fēng)險(xiǎn),其不可感知性、不可計(jì)算性、不可控制性以及危害的全球性日益增長(zhǎng)[16],因此司法治理觀念轉(zhuǎn)變迫在眉睫。傳統(tǒng)侵權(quán)法采取一種矯正正義,意在調(diào)整侵權(quán)者與受害者之間的關(guān)系,使之平衡[17],但人工智能引發(fā)的侵權(quán)風(fēng)險(xiǎn)可能會(huì)造成難以估量的后果,例如惡意使用數(shù)據(jù)或泄露數(shù)據(jù),其不僅針對(duì)某一受害者,波及范圍往往涉及更為廣泛的社會(huì)領(lǐng)域。而單純采取矯正正義的侵權(quán)法難以應(yīng)對(duì)類似風(fēng)險(xiǎn),故應(yīng)考慮站在社會(huì)整體的角度來討論人工智能風(fēng)險(xiǎn)預(yù)防與責(zé)任分配。面對(duì)人工智能侵權(quán)帶來的新型風(fēng)險(xiǎn),侵權(quán)法不能只做“事后法”,僅僅給受害者提供補(bǔ)償和救濟(jì),而更應(yīng)該成為“事前法”,通過法的規(guī)范作用防止惡性侵權(quán)事件的發(fā)生。風(fēng)險(xiǎn)社會(huì)中的人工智能侵權(quán)不僅僅是個(gè)案問題,更是社會(huì)問題,侵權(quán)法不能僅站在個(gè)人立場(chǎng),而是需站在社會(huì)整體角度健全風(fēng)險(xiǎn)防范體系。在社會(huì)治理新格局下,人工智能在司法領(lǐng)域的深度拓展能為風(fēng)險(xiǎn)社會(huì)治理減壓,但人工智能侵權(quán)風(fēng)險(xiǎn)需要合理的控制和分擔(dān),為了在社會(huì)風(fēng)險(xiǎn)最小化和利益最大化之間達(dá)成平衡,必須妥善解決人工智能侵權(quán)主體、客體、行為方式、責(zé)任承擔(dān)等關(guān)鍵問題。從整體上看,一味將人工智能系統(tǒng)定位成侵權(quán)主體并不能保證侵權(quán)糾紛的妥善解決,技術(shù)倫理和法律治理的沖突會(huì)引發(fā)一系列問題。因此,只有將人工智能定位成法律客體,明確侵權(quán)主體的識(shí)別標(biāo)準(zhǔn)和責(zé)任承擔(dān)機(jī)制,優(yōu)化人工智能侵權(quán)行為的認(rèn)定規(guī)則,才能有效促進(jìn)侵權(quán)責(zé)任相關(guān)法律制度的完善,進(jìn)一步推動(dòng)風(fēng)險(xiǎn)社會(huì)治理的法治化進(jìn)程。