[摘 要]目前,學界對于人工智能致人損害的責任承擔主體的看法尚不統(tǒng)一,但就其本質而言,人工智能的“自主性”乃技術性的數(shù)據(jù)和算法的驅動,人工智能只能是人類的工具,不能成為法律主體。而且,人工智能發(fā)生致人損害行為時,并不能辨別其行動之于法律責任上的意義,不具備責任能力,故應由人類為其致?lián)p行為承擔侵權責任。參考谷歌旗下的深度思維公司對通用人工智能的五層分級標準以及其以人類與通用人工智能活動的交互程度為定義的自主性分級標準,人類承擔侵權責任的范圍也應有所區(qū)別。當人工智能的自主性程度處于第一級與第二級水平時,由人類承擔全部的侵權責任;當人工智能的自主性程度處于第三級及以上時,人類作為責任主體,可主張責任的減輕。責任主體可減輕的責任可通過保險制度對受害人進行全面救濟,以在緩解責任主體的責任負擔的同時,有效促進人工智能技術的發(fā)展。
[關鍵詞]人工智能;責任主體;侵權責任;責任能力;保險
[中圖分類號]D923 [文獻標識碼]A [文章編號]1671-8372(2025)01-0070-09
The liability subject identification and allocation of liability for damages caused by
artificial intelligence
ZHENG Hai-rong
(School of Law,Xiamen University,Xiamen 361005,China)
Abstract:At present,the academic community’s views on the liability subject for the damage caused by artificial intelligence(AI)are not consistent. In terms of its essence,the“autonomy”of AI is driven by technical data and algorithms;and only a tool for human beings,it cannot become a legal subject. Moreover,when artificial intelligence causes damage to people,it cannot distinguish the meaning of its actions in terms of legal liability,and does not have the ability to take the responsibility. Therefore,it should be human beings who bear tort liability for its damage. With reference to Google DeepMind’s five-tier classification standard for general AI and its autonomy rating criteria defined by the degree of human interaction with general AI actives,the scope of human liability for infringement should also be different. When the degree of autonomy of AI is at the first level and the second level,human beings bear all the tort liability. When the degree of autonomy of AI is at the third level and above,human beings,as the subject of liability,can claim the reduction of liability. The relievable liability of the liability subject can provide comprehensive remedy to the victim through the insurance system,so as to alleviate the liability burden of the liability subject and effectively promote the development of AI technology.
Key words:artificial intelligence(AI);liability subject;tort liability;liability capacity;insurance
一、引言
隨著人工智能技術的日新月異,人工智能致人損害的責任主體認定與責任承擔成為學界探討與反思的議題。其一,是緣于人工智能的自主性特征不斷增強,加劇了人工智能致人損害的風險。例如,生成式人工智能技術基于Transformer[1]架構,通過經(jīng)驗學習和技術性模仿,從生成到創(chuàng)造層面對人類的“超模擬”[2],就是人工智能強大的自主性特征之表現(xiàn)。因為這樣的生成式技術很可能產(chǎn)生諸如偏見、虛假信息、過度依賴、隱私安全、網(wǎng)絡安全、技術擴散等風險[3]。實踐中,已有許多人工智能侵權案件被訴至法院①,人工智能致人損害風險已然成為現(xiàn)實,亟待法律加以規(guī)范。其二,是因為人工智能技術的發(fā)展必然伴隨著法律規(guī)范、安全監(jiān)管等保障措施的建立。侵權責任規(guī)范作為人工智能致人損害的事后救濟手段,不僅能維護受害人的權益,促使人工智能技術朝著更為安全、可信賴的方向發(fā)展,還是實現(xiàn)我國在《全球人工智能治理倡議》[4]中提倡的“打造可審核、可監(jiān)督、可追溯、可信賴的人工智能技術”及“明確人工智能相關主體的責任和權力邊界,充分尊重并保障各群體合法權益”之目標的重要保障。早在2017年國務院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》之戰(zhàn)略目標中,我國就明確指出,到2025年要“初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力”,并最終“建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系”。該規(guī)劃明確提出,在法律法規(guī)方面應“開展與人工智能應用相關的民事與刑事責任確認、隱私和產(chǎn)權保護、信息安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關權利、義務和責任等”。
目前,我國尚未有人工智能的基礎性法律,為妥當分配人工智能致人損害帶來的風險和責任,亟需明確人工智能致人損害的責任主體與責任邊界[5]。首先,應探明人工智能的法律地位,厘定其是否享有法律主體資格。因為人工智能是否具有法律主體資格將直接影響到人工智能致人損害是由人工智能自身還是由其他主體來承擔責任的問題[6]。然而,既有研究主要從權利義務、自主意識、現(xiàn)實考量、與法人制度的對比等角度考量人工智能是否為法律主體[7-10],較少據(jù)此引申出關于人工智能是否具備責任能力的探討。而這正是責任主體認定的關鍵因素。原因在于,權利義務、自由意志等要素僅為主體是否有資格參與民事活動的判斷標準,欲使法律主體獨立承擔侵權責任,還應確保其具備責任能力。其次,應基于人工智能的分級,區(qū)分主體的歸責原則與責任承擔方式。隨著科學技術的迅猛發(fā)展,人工智能在性能、通用性、自主性等方面的差異及變化越來越大,極易導致法律調整的對象存在極大的不確定性,尤其是對于其中的風險種類和程度難以有效預見[11],若僅適用單一的歸責原則或責任分擔規(guī)則,可能無法有效應對未來不確定性極強的人工智能致人損害的后果,而法律也必將面臨包容性、適應性不足的困境,甚至出現(xiàn)頻繁修改法律的局面。因此,應以人工智能的分級為依據(jù),區(qū)分主體的歸責原則與責任承擔方式,積極應對未來不確定性程度極高的人工智能發(fā)展的需求。為此,本文將通過前提厘定,探討人工智能的法律地位,探究人工智能的自主性特征的本質,并以人工智能是否具備責任能力的探討為基礎,對人工智能致人損害的責任認定進行分級,構造人工智能致人損害的責任主體認定與責任分擔體系,以助力實現(xiàn)人工智能技術的發(fā)展與私法權益的保障之雙重目標。
二、前提厘定:人工智能不享有法律主體資格
伴隨人工智能自主性程度的不斷提高,學界對于能否賦予人工智能法律主體資格尚未有一致的看法。有學者主張,應當賦予人工智能法律主體資格,使其對自己致人損害的風險獨立承擔法律后果[12]。但是,也有學者指出,人工智能并未有自由意志,其出現(xiàn)之初就被賦予了全然工具性的意義,只能服務于人類的某些特定目的[13],不能以法律主體身份獨立承擔責任。為此,意欲探究人工智能致人損害的責任主體,唯有厘定人工智能的法律地位,方能厘清人工智能的自主性特征之本質,從而為人工智能致人損害的責任認定與承擔厘定必要的前提。
(一)自主性辨別:人工智能法律主體資格之爭
“傳統(tǒng)民法上的權利能力制度主要發(fā)揮著抽象的主體資格賦予功能,”[14]而對于法律主體資格的探討,實際上就是對權利能力的探討。一般而言,權利能力指的是“成為權利和義務載體的能力”[15],亦即基于權利能力制度,可以向一個人分配權利和義務[16]。根據(jù)學界的普遍觀點,只要有能力認知法律秩序并在法律秩序范圍內自由決定其行動的人,就能成為法律主體[17]。那么,人工智能是否有資格享有權利并承擔義務?是否有能力認知法律秩序并在法律秩序范圍內自由決定其行動?對此,法學界尚未達成一致的觀點。否定說認為人工智能不能成為法律主體,肯定說認為人工智能具備法律主體資格,折中說則主張應根據(jù)不同情況賦予人工智能法律主體地位。
具體而言,肯定說觀點從人工智能具備人的意識、能自主進行人類活動的角度,主張應當賦予人工智能法律主體資格。該觀點認為,人工智能借助神經(jīng)網(wǎng)絡進行深度學習,可以獨立收集和分析信息,自主解決既定的問題,具有一定程度的自由意識和自由意志,故在人工智能造成他人損害時,可以由設計、生產(chǎn)、設備提供者和使用者共同購買的保險或建立的基金來承擔賠償責任[18]。由此,也有學者主張賦予人工智能國際法律人格身份,并認為制定信息和通信系統(tǒng)的國際法律監(jiān)管規(guī)范的關鍵之一是承認人工智能國際法律人格身份[19]。另外,歐洲議會向民法規(guī)則委員會也提出給予具有自主性的機器人電子人格身份的建議,旨在使之能夠為其自身可能造成的任何損害負責[20]。
否定說主要從人工智能的技術性本質出發(fā),論證人工智能不具備人的“意志”或“意識”。依否定說的觀點,人工智能的自主性程度取決于機器被設計出的可以與其環(huán)境進行交互的復雜程度,該“自主性”只具有純技術的本質[20],并不能使人工智能具備人的意識、目的、意志、理性等根本要素[21],而且人工智能既無法理解相應法律的行止要求而被法律所調整,也不能理解財產(chǎn)之于自身的意義,只能通過被賦予法律人格才能達到責任限定效果,并不符合正義的基本要求[21]。因此,否定說認為,宜否定人工智能擁有獨立于人的“意識”,將其定位為法律客體而非法律主體,使其成為服務人類發(fā)展的“工具”,這樣才有助于最大限度地提高人工智能的社會效益[22]。
折中說認為,應根據(jù)人工智能的全部活動和狀態(tài),以場域為單位進行拆分,以此來確定人工智能是否具備法律主體資格。理由是,在智能化場域下,人工智能能夠以自身智能完成一定的人類行為而享有法律主體資格,理應受法律約束。但在非智能化場域下,人工智能因不具有智能能力,故其僅為物,不能成為侵權主體[23]。
這三種觀點均有一定的合理之處,但由于法律主體是法律及其構建的法治秩序中的一個基本范疇,是承載法的人格人,具備目的性和自律性[24]。因此,人工智能是否具備法律主體的這些屬性,是否具備人的自主意識,還須透過現(xiàn)象看本質,而某一事物的本質特征則往往通過對其定義的方式加以體現(xiàn)。
(二)實質探究:人工智能自主性的數(shù)據(jù)與算法本質
當前,有關人工智能的定義尚未統(tǒng)一,但大多數(shù)學者傾向于人工智能是“創(chuàng)建一個智能運行的計算機程序”或“創(chuàng)建一個可以模仿人類行為的計算機程序”[25]。也就是說,人工智能是制造智能機器的科學和工程,是計算機系統(tǒng)對人類智能過程的模擬,包括學習、推理、計劃制定、自我糾正、問題解決、知識表達、感知、運動、操縱和創(chuàng)造[26]。人工智能不同于傳統(tǒng)的計算機算法,它能夠在過往數(shù)據(jù)上進行數(shù)據(jù)擬合[27],這一特點使其能夠借鑒歷史的執(zhí)行動作,在相似的條件下采取合理的行動。這也意味著人工智能具備一定的自主性?;谌斯ぶ悄艿淖灾餍蕴卣?,有些情況下人類只是有限地參與人工智能的決策,例如汽車的輔助駕駛模式(要求駕駛員參與駕駛過程);有些情況下,人類可能根本不參與人工智能的決策,例如高頻交易算法(無需人類參與其活動),等等。除了自主性特征以外,人工智能內部算法的復雜性、自適應性和推理過程的隨機性,也使得人工智能在決策過程中具備了復雜性和不可預測性特征[28]。
人工智能基于自主性特征而作出的不可預測的行動,與人類依自由意志與自主意識而作出的行為,在一定程度上有共通之處。自主意識內含人的意識、目的、意志、理性等要素。雖然人工智能能夠模擬人類智能作出看似自主性的行動,但其并未具有獨立的自主意識,甚至不具備自我意識。沒有自我意識,即不可能存在自主意識。自我意識(self-awareness or self-consciousness)的本質是“我意識到自己的存在”“我與世界上的任何事物都不同”以及“如果我死了,那么我的自我和我周圍的世界將永遠消失”[29]而唯有理解自我的存在需要,才使人類擁有內省和反思的智能能力[29]。因此,自我意識是對主觀自我存在的意識,而主觀自我(subjective-self)則是一種內在的心理現(xiàn)象。就特定人而言,具備主觀自我,即為其意識到這世上只有一個自我,并且主觀自我及自我意識無法被復制[30]。在人工智能領域,即使是最為顯著的大語言模型,也僅是通過角色扮演(role play)的形式來模仿人類行為,以滿足人類的不同需求[31]。而大語言模型的不同角色扮演,則意味著其存在多個可被復制的“自我”,這就表明該“自我”只能是外在的客觀表現(xiàn)。因為它不具備主觀自我的唯一性與不可復制性特征。也就是說,雖然人工智能可以通過編程來模仿人類的多種意識,但唯有自我意識無法被編程 [30]。
據(jù)此,人工智能雖然能夠在過往的數(shù)據(jù)上進行數(shù)據(jù)擬合,并可借鑒歷史的執(zhí)行動作發(fā)展自己的行為,且具備一定的自主性與不可預測性,但其自主性特征在本質上只是一種源于算法程序的機械意志,而非心理認知意義上的自由意志[24]。這就意味著人工智能無法理解其自身行為的真正含義。例如,能通過分析人類圍棋比賽記錄,并從中學習策略和棋路的AlphaGo[32]。盡管AlphaGo在圍棋領域所向披靡,但因不能理解圍棋及對弈過程所代表的意義,也就無法以主觀自我的意識獨立思考,所以它只能是為了求勝而制作出的超級運算工具[21]。即使未來可能出現(xiàn)的人工智能超過人類的通用人工智能,但因同樣依賴于數(shù)據(jù)和算法的驅動,所以無論其自主性程度多高,也只能是人類的工具[30]。
綜上可知,私法主體資格的權利能力,不僅蘊含可以被實證法確認或否定的技術屬性,也內含著以自然法為基礎的人性尊嚴的倫理價值[33]。而人工智能則不具備自我意識與主觀自我,無法意識到自己是唯一的存在,既難以理解權利義務規(guī)范的內在邏輯及其對法律秩序的規(guī)范意義,也未能在法律秩序范圍內以自由意志獨立作出行為。在此意義上,人工智能不具備人格尊嚴的內涵,缺乏目的性與自律性,不能成為權利和義務的載體。因此,不應該賦予人工智能權利能力。
值得一提的是,有觀點類比未有人的“意識”卻也能被擬制為法律主體的法人制度,進而主張將人工智能擬制為法律主體[34]。這一觀點也值得商榷。原因在于,法人的本質是國家與市場協(xié)作的結果,自然人仍是法人組織的現(xiàn)實存在[35],具備獨立意志、目的性和自律性。因此,賦予法人法律主體地位并不違背權利能力體系的內在邏輯,而人工智能作為人類活動的工具,始終以人類需求為目的,只能處于法律客體地位。
三、基礎奠定:人工智能欠缺責任能力
人工智能不具備權利能力,不但從根本上否定了人工智能的法律主體地位,也直接否定了其成為責任主體的可能。不過,正如動物雖不享有法律主體資格但其確實能致人損害的事實,人工智能侵權在現(xiàn)實中也時有發(fā)生,尤其是在未來,通用人工智能以人類無法預測的方式致人損害的可能性將持續(xù)存在,屆時將面臨人工智能致人損害的責任承擔主體之現(xiàn)實問題。況且,即便是人工智能具備權利能力,享有法律主體資格,也應從責任能力層面對其能否獨立承擔侵權責任加以探究。原因在于侵權責任的承擔須以具備責任能力為前提。為此,除了在權利能力層面探究人工智能是否具備享有權利和負擔義務的資格之外,有必要對人工智能是否具備責任能力加以探討,以此奠定人工智能致人損害的責任認定與劃分的邏輯根基與規(guī)范基礎。
(一)人工智能不具備識別能力
在比較法上,關于自然人責任能力的判斷有不同的標準。譬如,日本及我國臺灣地區(qū)以識別能力作為責任能力的判斷標準,荷蘭法采年齡標準,德國法采“年齡+識別能力”標準[36]。受1922年制定的《蘇俄民法典》的影響,我國對于責任能力的判斷采廣義行為能力標準,即“行為人是否具有責任能力,取決于其有無相應的行為能力:有行為能力即有責任能力,無行為能力即無責任能力,限制行為能力人也有責任能力”[36]。在我國,民事行為能力的劃分以年齡和識別能力為標準,分為無民事行為能力人、限制民事行為能力人和完全民事行為能力人。因無民事行為能力人、限制民事行為能力人未達到一定的年齡或缺乏相應的識別能力,故其無法對造成他人損害的事實獨立承擔侵權責任。也就是說,非完全民事行為能力人無責任能力。實際上,無論是以年齡還是識別能力作為責任能力有無的判斷標準,目的均在于確定行為人是否具備“過錯能力”,即在邏輯上應先肯定加害人有責任能力,才能認定其有無故意或過失[37]。因為,只有具備責任能力的行為人,才有主觀可歸責性之可能,也才能對損害后果負擔侵權責任。
基于此,人工智能是否具備責任能力,能否形成主觀過錯,是判斷其能否獨立承擔侵權責任的決定性因素。就年齡來說,因人工智能不存在自然人的生理特性,故年齡因素在此不作為考量因素。就識別能力而言,通說認為識別能力是足以辨別自己的行為在法律上應負某種責任之能力[38]。如前述,盡管人工智能具備自主性特征,能以看似自主的方式作出一定的行動,但該自主性本質上是一種源于算法程序的機械意志,人工智能實際上并不具備辨別自己的行為在法律上應負某種責任的能力。例如,無人自動駕駛汽車在面對交警實施交通管制時,無法識別和理解這一管制的內涵,與交警的管制背道而馳,進而在綠燈亮起時以正常速度行駛,最終導致交通事故[39]。這表明,無人自動駕駛汽車缺乏辨別違背交通管制可能產(chǎn)生的后果及應承擔某種法律責任的能力。又如,在1981年,一家日本摩托車工廠的日本員工被人工智能機器人殺死,原因為該機器人錯誤地將該員工識別為危險因素,并計算出消除這種危險的最有效方法是將其推到相鄰的操作機器上,最終導致該員工當場死亡,而人工智能機器則繼續(xù)工作[40]。無獨有偶,韓國一家農(nóng)產(chǎn)品中心的工作人員被機器人誤以為是一箱甜椒而被機械臂放置于傳輸帶上,該員工最終遭受擠碎而死亡[41]。在未來,即使人工智能的智能水平可能與人類相當,甚至超過人類,但其在本質上也僅為技術層面的數(shù)據(jù)和算法運算邏輯,故不能真正辨別自身的行動之于人類社會、法律規(guī)范及法律秩序的意義。也就是說,人工智能本身無法被法律所調整,法律的強制、指引、教育、評價及預防功能對人工智能無法起作用。在這意義上,人工智能顯然不具備責任能力。
(二)傳統(tǒng)侵權責任主體認定之于人工智能侵權的參考
既然人工智能作為人類活動的延伸,乃人類實現(xiàn)自身目的的工具性手段,不具備法律主體資格與責任能力,無法形成主觀過錯及獨立承擔法律后果,那么在人工智能造成他人損害時,就應一律由人類來承擔侵權責任。在我國司法實務中,法院也通常著眼于現(xiàn)行法規(guī)范,將人工智能作為法律客體進行調整。例如,上海某公司在利用人工智能侵害他人肖像權、姓名權、一般人格權一案中①,法院認為,該公司作為網(wǎng)絡內容服務提供者,應對用戶自行創(chuàng)設“AI陪伴者”而造成他人人格權損害的行為承擔侵權責任。又如,北京某律師事務所訴北京某科技公司關于人工智能生成內容侵害他人著作權案件②,法院認為人工智能生成的內容不構成作品,軟件研發(fā)者(所有者)和使用者均不能以作者身份進行署名,否則即構成侵權。
由此可見,當前人類對人工智能活動的參與程度較大,有能力控制人工智能的行動,適用現(xiàn)行法規(guī)可以有效解決當前部分人工智能致人損害的問題。然而,不可否認的是,隨著科學技術的不斷發(fā)展,人工智能的自主性與不可預測性特征將愈發(fā)顯著,人類干預人工智能活動的作用力也將隨之降低,例如,人類目前對ChatGPT的輸出內容已不能完全控制。
為此,有必要找尋人工智能致人損害的責任主體認定與責任承擔方法,以此為具體的責任規(guī)則適用提供一般性的指引。類比我國為他人行為負責的責任及飼養(yǎng)動物損害責任的相關法律法規(guī),可為人工智能致?lián)p的責任主體認定與責任承擔提供一般性的指引。為他人行為負責的責任意指責任人自己沒有直接實施侵權行為,但要對他人致?lián)p的后果承擔侵權責任[42]。如用人單位對工作人員因執(zhí)行工作任務而造成他人損害的后果負責,監(jiān)護人對無民事行為能力人、限制民事行為能力人致人損害的后果負責,等等。責任人之所以要對他人的行為后果負責,原因在于責任主體未能對行為人履行正確的選任、監(jiān)督、管教或控制義務,未能阻止行為人實施侵權行為,由此導致了損害結果的發(fā)生[43]。與之類似的是飼養(yǎng)動物損害責任。飼養(yǎng)動物損害責任指的是動物飼養(yǎng)人、管理人或動物園應對動物致人損害的后果負責。動物的固有風險具有不可預測性,而動物飼養(yǎng)人、管理人或動物園作為這一風險的控制主體,顯然負有監(jiān)管、管理等義務來避免動物致人損害的后果發(fā)生。
相應地,人工智能作為人類活動的一種輔助工具,具備一定的自主性與不可預測性特征,可能產(chǎn)生損害后果,人類對此應負有相應義務來預防人工智能致人損害的結果發(fā)生,否則就應當對損害后果負責③。當人類違反相應義務而承擔責任時,應當在多大程度上為人工智能致人損害的后果承擔責任,需要以人類參與人工智能活動的程度作為考量因素。原因在于,當人類參與人工智能活動的程度較大時,適用人格權侵權、著作權侵權、產(chǎn)品責任、網(wǎng)絡侵權責任等現(xiàn)行法規(guī)就能有效解決人工智能致?lián)p的問題。因為此類利用人工智能實施的侵權行為與人類實施的其他致人損害的行為在性質上并無二致,其所不同的是侵權工具或手段發(fā)生了變化而已。當人類參與人工智能活動的程度較小,甚至不直接參與人工智能的活動時,人工智能的自主性特征更強,適用現(xiàn)行法規(guī)可能無法正確認定責任主體與劃分責任,因此可參照飼養(yǎng)動物責任的規(guī)定,對人工智能致?lián)p的責任作出認定與劃分。
四、人工智能侵權責任主體認定與責任分擔的方法與路徑
人類應在多大程度上對人工智能致人損害的后果負責,取決于人類參與人工智能活動的程度。而人類與人工智能的交互程度之判斷,則依賴于人工智能的等級劃分與自主性水平差異。
(一)基于性能、通用性與自主性的人工智能分級
谷歌旗下的深度思維公司(Google DeepMind)于2023年11月4日發(fā)布了通用人工智能的分級標準,主要是從性能及通用性角度對通用人工智能進行分級[44]。其中,性能指的是人工智能系統(tǒng)能力的深度,即其在特定任務上的表現(xiàn)效果。而通用性則指的是人工智能系統(tǒng)能力的廣度,即人工智能系統(tǒng)覆蓋的任務范圍。從性能來看,分為一到五級的水平,包括第一級“涌現(xiàn)”(emerging)、第二級“勝任”(competent)、第三級“專家”(expert)、第四級“大師”(virtuoso)和第五級“超人類”(superhuman)。從通用性來看,有狹義與通用的區(qū)分,狹義指的是人工智能只能處理特定的任務,而通用則指的是人工智能能夠處理廣泛的任務。于是,結合第一級至第五級的性能邊界與通用范疇,通用人工智能可分為五個層級。在“涌現(xiàn)”級別中,人工智能的性能相當或一定程度上高于一般人類的水平。在該級別中,通用人工智能已出現(xiàn),如OpenAI發(fā)布的ChatGPT,其在文本分類、理解、翻譯等多個任務中,均表現(xiàn)出不凡的性能。而在其余的第二級至第五級中,受通用性的影響,通用人工智能均未出現(xiàn)。不過,達到該性能水平的狹義人工智能均已出現(xiàn),且將各個級別的性能定義為:在“勝任”級別中,人工智能的性能水平超過領域內50%的人員,如蘋果公司(Apple Inc)的Siri、谷歌助理,等等;在“專家”級別中,人工智能的性能水平超過領域內90%的人員,如生成式圖像模型Imagen;在“大師”級別中,人工智能的性能水平超過領域內99%的人員,如國際商業(yè)機器公司(IBM)的超級計算機“深藍”(Deep Blue)以及AlphaGo;在第五級別“超人類”中,人工智能的性能水平超過領域內100%的人員,如AlphaFold、AlphaZero及StockFish。以AlphaFold為例,其在蛋白質結構預測任務上,以極大優(yōu)勢打敗了所有的結構生物學家。
不同級別的人工智能隱含著不同的風險,決定著人類與人工智能的交互程度差異,同時也反映了人工智能的自主性水平。針對人工智能的自主性水平差異,谷歌旗下的深度思維公司也進行了五級劃分[44]。第一級的人工智能作為工具,完全由人類來控制,包括前述“涌現(xiàn)”及“勝任”級別中的狹義人工智能。在第二級別中,人工智能作為人類活動的顧問,只在人類啟用時才能發(fā)揮實質性的作用,包括“勝任”和“專家”級別中的狹義人工智能,以及“涌現(xiàn)”級別中的通用人工智能。在第三級別中,人工智能作為合作者,與人類平等協(xié)作,包括“涌現(xiàn)”和“勝任”級別中的通用人工智能,以及“專家”級別的狹義人工智能。在第四級別中,人工智能作為專家,能夠主導與人類的交互,但人類仍然會進行任務監(jiān)督,包括“大師”級別的狹義人工智能和“專家”級別中的通用人工智能。在第五級別中,人工智能作為代理,是完全獨立自主的運行載體,該過程無任何人類活動參與,包括“大師”與超人類級別的通用人工智能。
盡管上述的分級是從性能、通用性及自主性角度對通用人工智能進行的劃分,但這三個標準實則也是狹義人工智能邁向通用人工智能的決定性要素。因為通用人工智能的分級,反映了人工智能從低級別到高級別的性能、通用性及自主性上的變化情況,體現(xiàn)了人工智能的“智能”深度及其與人類的“交互”程度,所以能夠為責任主體應在多大程度上為人工智能致?lián)p的法律后果負責提供合理的判斷標準。因而可以說人工智能的智能深度及其與人類的交互程度,是判斷人類這一責任主體之于損害后果的過錯程度與原因力大小的關鍵因素。
(二)人工智能分級下侵權責任主體的認定與責任分擔方法
依據(jù)性能及通用性的分級取決于人工智能作出行動的能力,自主性分級則取決于人工智能作出的行動是否以及在多大程度上有人類的參與,二者在一定程度上共同決定著人工智能造成他人損害的風險程度以及人類需要承擔侵權責任的可能性及負擔的比例。
具體而言,當人工智能的自主性水平處于第一級時,人工智能作為人類達成目的的工具,完全受人類控制,無論是意外事件、偶然事件還是故意的行為,人工智能濫用的風險更多來源于人類的行為[44]。因此,若人工智能造成了他人損害的后果,毫無疑問應當由人類承擔侵權責任。
當人工智能的自主性水平處于第二級時,人工智能成為人類活動的顧問,需要人類啟用才能發(fā)揮實質性作用。因此,處于這一級別的人工智能造成他人損害時,仍應由人類自行承擔侵權責任。但具體由誰承擔,則須依據(jù)具體侵權類型加以判斷,或是服務提供者、開發(fā)者,或是使用者等。例如,使用者使用GPT-4進行短文寫作,如果寫作內容侵害了他人的著作權,就應由該使用者承擔全部的侵權責任。
在人工智能的自主性水平處于第三級時,人工智能與人類處于平等協(xié)作的狀態(tài)。這一級別的人工智能自主性較強,在其造成他人損害時,應具體考量人類在其中的作用力,以此合理分擔責任。因為在現(xiàn)實中的某些情形中,人工智能可能并未發(fā)生任何系統(tǒng)故障或出現(xiàn)其他錯誤,但造成了他人權益損害的法律事實。例如,自動駕駛汽車本身并未有任何故障,但因無法識別交通管制的含義而導致交通事故。在此情境下,作為協(xié)作方的人類應對此承擔全部責任,但責任人可以基于人工智能的自主性較強且自身未有任何可責難性,主張減輕責任。
自主性水平處于第四級的人工智能雖然能主導任務的執(zhí)行,但在其造成他人損害時,因缺乏主體資格且未有識別能力,所以仍由提供任務監(jiān)督的人類承擔侵權責任。不過基于人工智能具備較大的自主性,責任主體同樣可以主張減輕責任。
在人工智能作為人類的代理時,就達到了最高的自主性水平,但基于人工智能的本質是數(shù)據(jù)和算法的驅動,人工智能的自主性縱使達到了最高水平,也不能獨立承擔責任,仍應依據(jù)具體情況由可能的責任主體承擔。例如人工智能的服務提供者、開發(fā)者、部署者、使用人、第三人等。與此同時,基于這種級別的人工智能自主性水平最高,已經(jīng)無限接近于甚至超過人類的智能水平,故而在其未有任何系統(tǒng)故障而自主地實施侵害他人權益的行為時,其服務提供者、開發(fā)者、部署者、使用人、第三人等責任人可以據(jù)此主張減輕責任。
(三)人工智能侵權責任主體可減輕責任的轉移路徑
前已述及,因人工智能的本質乃技術層面數(shù)據(jù)和算法的驅動,故而無法成為侵權責任的主體,不享有法律主體資格,不具備責任能力。不過,因不同級別的人工智能在性能、通用性及自主性上有所區(qū)別,據(jù)此產(chǎn)生的風險也應有差別。依據(jù)人類對人工智能活動的參與程度劃分責任主體的責任,實際上是對人類之于侵權損害后果的過錯力與原因力的探討。而人的主觀過錯和原因力因素則涉及其責任認定時的歸責原則。
具體來說,當人工智能的自主性水平處于第一級、第二級,即人工智能成為人類的工具或需要人類的參與才能發(fā)揮實質性作用時,無論人工智能在執(zhí)行任務時是否發(fā)生故障或遭受了電子病毒攻擊,均應由人類對其致人損害的后果承擔侵權責任。例如,在利用人工智能進行輔助治療的過程中,人工智能系統(tǒng)與醫(yī)生等相關操作者具有強烈的互動關系,操作者須對診斷的結果保持時刻的注意義務,以免出現(xiàn)誤診或者誤檢現(xiàn)象,否則就應承擔違反注意義務的過錯責任。在此情形下,操作者承擔的侵權責任應適用過錯歸責原則。
在人工智能的自主性水平處于第三級、第四級、第五級時,人類對其控制力度逐漸降低,參與其活動的程度也逐漸減少,但因人工智能不具備責任能力,無過錯可言,類似于飼養(yǎng)的動物不能承擔損害責任,所以人類也須對人工智能造成他人損害的后果承擔侵權責任。只不過,應根據(jù)具體情況來確定侵權責任的承擔主體,所適用的歸責原則也應有所區(qū)分。當人工智能本身存在缺陷、出現(xiàn)故障等情形時,服務提供者、開發(fā)者、部署者、使用人或第三人對此可能存在過錯,例如使用者使用環(huán)境不當、開發(fā)者設計錯誤等。此時應適用過錯歸責原則,由可能的責任主體承擔過錯責任。當人工智能本身不存在缺陷或未有使用不當情形時,可能的責任主體承擔無過錯責任,應適用無過錯歸責原則。
由此可見,當人工智能不具備責任能力而造成他人損害時,由人類承擔侵權責任。不過,具有較高自主性的人工智能對損害的發(fā)生具有較大的原因力。據(jù)此,可能的責任主體在承擔侵權責任之時,可主張減輕責任。然而,當責任主體主張責任減輕時,意味著受害人的損害得不到全面救濟,有違侵權法旨在全面保護受害人的立法目的。那么該減輕的部分應由誰承擔呢?
有學者建議人工智能的相關主體如使用者、設計者、生產(chǎn)者或設備供應商可共同出資,為人工智能購買保險,當人工智能造成他人損害時,以保險金來填補受害者的損失[45]。筆者認為,在人工智能侵權領域,以保險路徑來分散受害者無法獲得全面救濟的風險,具有較大的借鑒意義。具體來說,人工智能價值鏈上的相關主體可以單獨或共同出資購買人工智能致人損害的責任險(或人工智能強制責任保險),在人工智能造成他人損害而須由人類承擔侵權責任時,購買了此種保險的責任人可以援引保險責任,以保險金支付自身須承擔的部分,不過保險人享有對責任人的追償權。在某一責任人未購買人工智能責任保險而其他相關主體已購買的情形下,例如依具體情況認定由使用人承擔侵權責任,但使用人未出資購買責任保險,而其他相關人員購買了該人工智能的責任險。此時,如果受害人因責任人具備責任減輕事由而無法得到全額賠償,可直接援引人工智能項下的保險責任,要求保險人對其支付剩余的保險金。只不過,若因該責任人未出資購買責任保險,那么保險人支付保險金后可以向責任人主張追償。一言以蔽之,人工智能責任險不僅可以為責任人對他人負擔的侵權責任承擔支付義務,還可對受害人得不到救濟的部分予以填補。此外,設立人工智能侵權責任保險,不但可以分散相關主體如開發(fā)者、服務提供者等的風險,減少其動輒得咎的顧忌,還有利于促進人工智能業(yè)的蓬勃發(fā)展。
或許有觀點認為,可以通過設立人工智能侵權責任保險的方式,將保險金作為人工智能的財產(chǎn),以解決雖賦予人工智能法律主體地位但人工智能自身卻無任何財產(chǎn)可供賠償?shù)睦Ь?。筆者認為,賦予人工智能法律主體地位,會破壞法律主體體系的內在邏輯。因此,與其通過保險方式使人工智能具備賠償能力,不如直接否定其法律主體地位,將人工智能致人損害的后果直接由相關責任人來承擔。此外,還可結合人工智能的自主性程度,適當減輕責任主體的責任,并通過保險制度分散相關主體的風險,以達到給予受害人充分的損害賠償之目的。
綜上,人工智能不享有法律主體資格,不具備責任能力,無法成為責任主體。但依據(jù)人工智能自主性水平的差異,人類作為侵權責任主體所適用的歸責原則應有所差別,主張責任的減輕同樣也應有所不同。而通過保險金賠償?shù)姆绞?,既可有效緩解責任主體的責任負擔,亦可對受害者實現(xiàn)全面救濟,可謂兩全。
五、結語
我國法學界關于是否應當賦予人工智能法律主體資格存在爭議,在人工智能造成他人損害的責任承擔主體上亦莫衷一是。盡管人工智能具備一定的自主性和不可預測性特征,但其本質為技術層面的數(shù)據(jù)和算法的驅動,并不具有獨立于人類的意識、目的或意志,即不具備人的“自主意識”。盡管人工智能可以通過編程來模仿人類的多種意識,但能夠意識到自我存在的“自我意識”卻無法被編程,因而人工智能不具備自我意識。相應地,人工智能僅為執(zhí)行人的需求的“角色扮演”,缺乏主觀自我的唯一性與不可復制性特征,故其不具備能夠意識到這世上只存在一個自我的“主觀自我”。因此,人工智能不具備權利能力,不應成為法律主體。同時,由于人工智能本質上是一種源于算法程序的機械意志,不具備辨別自己的行為在法律上應負某種責任的能力,因而人工智能欠缺責任能力,不能成為責任主體。依此,人工智能致人損害的法律后果只能由人類來承擔。
至于人類作為責任主體應在多大程度上承擔責任,可以依據(jù)谷歌旗下的深度思維公司對通用人工智能按照性能、通用性為標準所作的五級劃分,以及基于人類參與人工智能活動的程度所確定的人工智能的自主性差異,劃分責任主體的責任承擔范圍。在人類與人工智能的交互性較強而人工智能的自主性程度較低時,即人工智能的自主性水平處于第一級、第二級別時,責任人應承擔人工智能致?lián)p的全部責任。當人類與人工智能的交互性較弱而人工智能的自主性程度較高時,即人工智能的自主性水平處于第三級、第四級、第五級別時,由于人工智能不具備責任能力,故仍由相關責任人承擔侵權責任,只是該責任人可以主張責任的減輕,原因在于具備較高自主性水平的人工智能本身對損害的發(fā)生具有較大的原因力。不過,責任主體可以減輕責任意味著受害人的損害得不到全面救濟。為此,可以通過保險路徑,由相關主體出資購買人工智能責任保險,以保險金來規(guī)避受害人可能無法全面受償?shù)娘L險。
當前,我國正加緊人工智能立法的進程,人工智能侵權的責任認定與責任承擔必然成為其中的重要關涉。依人工智能在性能、通用性、自主性方面的差異而對責任主體的責任認定與責任承擔的不同劃分,不僅能有效應對不同的侵權風險,也有助于人工智能法律規(guī)范適應未來不確定性極高的人工智能技術的發(fā)展,使人工智能始終朝著可信賴的目標前進。當然,本研究僅對人工智能的責任主體認定及責任分擔進行初步的、概括意義上的探討,有關具體的人工智能(如生成式人工智能)致人損害的責任主體(如服務提供者)之責任認定與責任承擔,亦值得進一步探究。
[參考文獻]
VASWANI A,SHAZEER N,PARMAR N,et al. Attention is all you need[C]. Proceedings of the 31st International Conference on Neural Information Processing Systems,Long Beach,CA,USA,2017:6000-6010.
龍柯宇.生成式人工智能應用失范的法律規(guī)制研究:以ChatGPT和社交機器人為視角[J].東方法學,2023(4):44-55.
OPENAI. Gpt-4 technical report[EB/OL].[2024-07-07]. https://cdn.openai.com/papers/gpt-4.pdf.
中國網(wǎng)信網(wǎng).全球人工智能治理倡議[EB/OL]. [2024-07-07]. https://www.cac.gov.cn/2023-10/18/c_1699291032884978.htm.
朱體正.人工智能時代的法律因應[J].大連理工大學學報(社會科學版),2018(2):97-102.
馮潔.人工智能體法律主體地位的法理反思[J].東方法學,2019(4):43-54.
張玉潔.論人工智能時代的機器人權利及其風險規(guī)制[J].東方法學,2017(6):56-66.
劉洪華.論人工智能的法律地位[J].政治與法律,2019(1):11-21.
劉小璇,張虎.論人工智能的侵權責任[J].南京社會科學,2018(9):105-110.
張志堅.論人工智能的電子法人地位[J].現(xiàn)代法學,2019(5):75-88.
張凌寒.中國需要一部怎樣的《人工智能法》:中國人工智能立法的基本邏輯與制度架構[J].法律科學(西北政法大學學報),2024(3):3-17.
ZIEMIANIN K. Civil legal personality of artificial intelligence. Future or utopia? [J]. Internet Policy Review,2021(2):1-22.
干建華.人工智能之法律地位批判[J].江海學刊,2023(2):184-190.
鄭曉劍.權利能力相對性理論之質疑[J].法學家,2019(6):60-73.
梅迪庫斯.德國民法總論[M].邵建東,譯.北京:法律出版社,2013:781.
LEENEN D. BGB Allgemeiner Teil:Rechtsgesch?ftslehre[M]. Berlin,München,Boston:De Gruyter,2015:15.
BRüNINGHAUS B. Die Stellung des Tieres im Bürgerlichen Gesetzbuch [M]. Duncker amp; Humblot,Berlin,1993:127.
駱正言.從自由意志談人工智能的法律主體資格[J].湖南社會科學,2020(2):43-50.
TALIMONCHIK V P. The prospects for the recognition of the international legal personality of artificial intelligence [J]. Laws,2021(4):1-11.
EUROPEAN PARLIAMENT. Civil Law Rules on Robotics [EB/OL]. [2024-07-07]. https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52017IP0051.
馮玨.自動駕駛汽車致?lián)p的民事侵權責任[J].中國法學,2018(6):109-132.
陳俊秀,李立豐.“機器意識”何以可能:人工智能時代“機器不能被騙”立場之堅守[J].大連理工大學學報(社會科學版),2020(6):108-114.
彭中禮,劉世杰. 從“特殊性”到“去特殊性”:人工智能法律規(guī)制路徑審視[J].濟南大學學報(社會科學版),2019(4):29-42.
劉練軍. 人工智能法律主體論的法理反思[J].現(xiàn)代法學,2021(4):73-88.
MITCHELL F. The use of artificial intelligence in digital forensics:an introduction [J]. Digital Evidence and Electronic Signature Law Review,2010,7:35-41.
HARKUT D G,KASAT K,HARKUT V D. Introductory Chapter:Artificial Intelligence Challenges and Applications [M/OL]. IntechOpen. 2019:1[2024-08-12] http://dx.doi.org/10.5772/intechopen.84624.
?ERKA P,GRIGIEN? J,SIRBIKYT? G. Liability for damages caused by artificial intelligence[J]. Computer Law amp; Security Review,2015(3):376-389.
RAJPUROHIT D S,SEAL R. Legal definition of artificial intelligence [J]. Supremo Amicus,2019,10:87-95.
WANG J C. Regarding constituents of subjective-self [J]. Philosophy Study,2019(4):171-180.
WANG J C. Self-awareness,a singularity of AI [J]. Philosophy Study,2023(2):68-77.
SHANAHAN M,MCDONELL K,REYNOLDS L. Role-play with large language models [J]. Nature,2023(7987):493-498.
SILVER D,HUANG A,MADDISON C J,et al. Mastering the game of Go with deep neural networks and tree search [J]. Nature,2016(7587):484-489.
鄭曉劍.“權利能力法律賦予說”之反思[J].法商研究,2024(1):59-70.
DAVIES C R. An evolutionary step in intellectual property rights - Artificial intelligence and intellectual property [J]. Computer Law amp; Security Review,2011(6):601-619.
黎四奇.對人工智能非法律主體地位的解析[J].政法論叢,2023(5):117-127.
鄭曉劍.侵權責任能力判斷標準之辨析[J].現(xiàn)代法學,2015(6):59-74.
王澤鑒.侵權行為[M].北京:北京大學出版社,2016:313.
鄭玉波.民法債編總論[M].北京:中國政法大學出版社,2003:136.
BASHAYREH M,SIBAI F N,TABBARA A,Artificial intelligence and legal liability:towards an international approach of proportional liability based on risk sharing [J]. Information amp; Communications Technology Law,2021(2):169-192.
HALLEVY G. The criminal liability of artificial intelligence entities:from science fiction to legal social control [J]. Akron Intellectual Property Journal,2010(2):171-201.
光明網(wǎng).把人當做甜椒,韓國發(fā)生機器人殺人事件![EB/OL].[2024-07-07].https://m.gmw.cn/2023-11/11/content_1303567570.htm.
竇海陽.侵權責任與隱私權:責任人和行為人分離情形下的考量[J]. 法學研究,2024(2):115-134.
王利明.侵權責任法[M].北京:中國人民大學出版社,2021:12.
MORRIS M R,SOHL-DICKSTEIN J,F(xiàn)IEDEL N,et al. Position:Levels of AGI for Operationalizing Progress on the Path to AGI[C]. Proceedings of the 41st International Conference on Machine Learning,Vienna,Austria,2024.
VLADECK D C. Machines without principals:liability rules and artificial intelligence [J].Washington Law Review,2014(1):117-150.
[責任編輯 祁麗華]