關(guān)鍵詞:自主安全悖論 社交人機交互 產(chǎn)品缺陷責(zé)任 具身智能 新興數(shù)字技術(shù) 鏈?zhǔn)截?zé)任治理
一、問題之提出
人工智能(AI)與人形機器人(也稱仿人機器人)的“雙劍合璧”,預(yù)示著“具身智能”時代的來臨。2023年11月2日,中國工業(yè)和信息化部頒布的《人形機器人創(chuàng)新發(fā)展指導(dǎo)意見》指出,人形機器人有望繼計算機、智能手機和新能源汽車之后,成為又一深刻改變?nèi)祟惿a(chǎn)與生活方式的顛覆性產(chǎn)品,并將重塑全球產(chǎn)業(yè)的發(fā)展格局。2022年,全球人形機器人市場規(guī)模達到11.1億美元,預(yù)計將在2023年至2030年以21.1%的年復(fù)合增長率增長。2023年12月29日,深圳某科技股份有限公司在香港交易所主板成功上市,標(biāo)志著“人形機器人第一股”誕生。預(yù)計到2035年,中國的人形機器人市場規(guī)模將達到1540億美元。然而,人形機器人也帶來了新的法律治理困境。正如歐洲議會在其關(guān)于機器人法律責(zé)任的決議中指出:“傳統(tǒng)規(guī)則無法充分應(yīng)對由機器人引起的法律責(zé)任問題,因為這些規(guī)則無法明確應(yīng)承擔(dān)賠償責(zé)任的相關(guān)方,并要求其補償所造成的損害?!逼┤纾翎t(yī)院在使用人形機器人作為手術(shù)助理時已盡到合理的注意義務(wù),但因人形機器人的自主性而對患者造成的損害,患者是否有權(quán)從醫(yī)院獲得賠償? 如果人形機器人的行為變化并非源于產(chǎn)品出廠時的缺陷,而是與其環(huán)境(包括非專業(yè)用戶)的實際交互經(jīng)驗所致,那么損害責(zé)任應(yīng)由誰來承擔(dān)? 同時,人形機器人在外觀和功能上與人類相似,隨著人形機器人自主性的不斷增強,其安全風(fēng)險亦隨之上升,有學(xué)者將這一現(xiàn)象稱作“自主安全悖論”。面對新興技術(shù)的挑戰(zhàn),責(zé)任制度的充分性和完整性至關(guān)重要。現(xiàn)有法律制度在應(yīng)對新興數(shù)字技術(shù)帶來的新風(fēng)險方面存在潛在不足,或?qū)⒂绊懮鐣钠诖托刨嚒?/p>
界定人形機器人的責(zé)任主體與責(zé)任范圍,涉及法律、倫理以及監(jiān)管層面的復(fù)雜問題。由于人形機器人在形態(tài)上的“仿人”特征及其與人類交互的特殊性,它們更易贏得人類的信任與好感。隨著共處時間的延長和互動的深入,人類對人形機器人的喜愛、依賴乃至愛慕之情都有可能隨之產(chǎn)生,使得人形機器人對人類精神利益的潛在侵犯問題愈發(fā)復(fù)雜。在理論層面,歐盟的研究者建議成立一個專門的基金來補償人工智能造成的傷害,并明確自主系統(tǒng)的直接責(zé)任。在美國,有學(xué)者認為保險可以作為確定責(zé)任歸屬的一種機制,建議強制人工智能的制造商或用戶購買保險,以彌補可能引發(fā)的損失。如此一來,受害者即使在責(zé)任不清晰的情形下也能通過保險公司獲得補償。日本的研究者則倡導(dǎo)更廣泛的社會責(zé)任,并推動在開發(fā)和使用過程中的風(fēng)險共擔(dān)。在實踐層面,美國政府制定了人工智能的最佳實踐指南,旨在推動安全、可靠且值得信賴的AI系統(tǒng)的發(fā)展與部署,而具體的人形機器人法律責(zé)任問題則被留給法院裁決。在此情況下,學(xué)界尚未對法律與人形機器人進行充分的交叉研究。明確人形機器人的自主侵權(quán)責(zé)任成為當(dāng)務(wù)之急,對人工智能產(chǎn)品責(zé)任的研究成果可以為此提供參考。本文試圖從隱喻視角對人形機器人侵權(quán)責(zé)任問題進行研究。
二、法律事實:人形機器人的技術(shù)特征
相較于非人形機器人,人形機器人展現(xiàn)出四項顯著特征。首先,在外觀與結(jié)構(gòu)上,人形機器人擁有與人類相似的形象,包含四肢、軀干及頭部等部分,這樣的設(shè)計使得人形機器人不僅在視覺上易于被人類所接納,而且在進行人機交互時亦顯得更為自然。其次,在移動方式上,人形機器人多采用雙腿行走,這與人類的行走模式相仿,使其在適應(yīng)多樣地形及環(huán)境條件時展現(xiàn)出更高的靈活性。再次,在交互能力方面,人形機器人由于在外形及行為舉止上更貼近人類,因此,能夠透過面部表情、手勢和語言與人類溝通,從而更精準(zhǔn)地理解并響應(yīng)人類的需求和指示,展現(xiàn)出更強的交互能力。最后,在應(yīng)用場景上,人形機器人在醫(yī)療、教育、家庭服務(wù)以及娛樂等領(lǐng)域扮演著類人角色,而非人形機器人則可能更多地應(yīng)用于工業(yè)生產(chǎn)和物流運輸?shù)忍禺愋詧鼍啊?/p>
人形機器人的特性使其在侵權(quán)責(zé)任制度的研究中具有獨特的價值。1942年, 著名科學(xué)家兼科幻作家艾薩克·阿西莫夫在短篇小說《轉(zhuǎn)圈圈》中,首次提出了“機器人三定律”,旨在為機器人的行為設(shè)定道德準(zhǔn)則,激發(fā)了公眾對于人形機器人安全、倫理和法律問題的深入思考,并為機器人相關(guān)法律的建設(shè)奠定了基礎(chǔ)。然而,“機器人三定律”具有時代局限性,并不能完全應(yīng)對人形機器人融入現(xiàn)代社會后可能出現(xiàn)的復(fù)雜局面。面對人形機器人發(fā)展所引發(fā)的一系列法律挑戰(zhàn),構(gòu)建治理規(guī)則時需要進一步厘清人形機器人的技術(shù)事實和法律風(fēng)險。
(一)人形機器人具有人形
人類是自然界中最先進的生物,人形機器人將是人類有史以來創(chuàng)造的最先進“創(chuàng)造物”。打造能夠模仿人類思考與行動的人形機器人,曾是人類長久以來的夢想,它起初只見于科幻小說之中,而今已步入現(xiàn)實之境。人形機器人概念的淵源,可追溯至公元前3世紀的神話故事《皮格馬利翁》。在故事中,雕刻家皮格馬利翁依照內(nèi)心中理想的女性形象,塑造了一尊象牙雕像,并將其命名為伽拉忒亞。由于皮格馬利翁對這尊雕像傾注了滿腔熱情,深陷了愛河。愛神維納斯被他的真摯情感所打動,賦予了雕像以生命,自此,兩者便快樂地共同生活。解構(gòu)該故事,伽拉忒亞事實上具備了人形機器人的三大特質(zhì):一是由人類所創(chuàng)造;二是擁有人類的形態(tài);三是能被賦予生命。皮格馬利翁的故事被視為人形機器人概念的雛形。20世紀,捷克作家卡雷爾·恰佩克在劇本《R.U.R.》中首次提出“機器人”的概念,并將其描述為具有與人類相似的外觀。
近年來,人形機器人在機械機構(gòu)、傳感器、驅(qū)動系統(tǒng)、控制系統(tǒng)、人機交互等方面的技術(shù)取得了長足的進步,其外在表現(xiàn)也更加接近人類,引發(fā)了“擬人化陷阱”的討論。由于材料科學(xué)和制造技術(shù)的發(fā)展,人形機器人的機械結(jié)構(gòu)逐漸輕量化、模塊化和柔性化。例如,日本某公司開發(fā)的“KHR-3HV”機器人采用了輕量化的碳纖維骨骼,重量僅為1.5千克卻能夠完成各種復(fù)雜的動作,不僅可以快速實現(xiàn)前進、后退等基本動作,還可以快速實現(xiàn)射擊、出拳、打招呼、倒立等高難度動作。傳感器是人形機器人感知外部環(huán)境的重要手段,人形機器人的傳感器種類和數(shù)量不斷增加,這使其更具“感知力”。例如,美國國防高級研究計劃局(DARPA)在MIT舉辦的機器人挑戰(zhàn)賽(DRC)中,參賽機器人使用了大量傳感器,包括攝像頭、激光雷達、深度傳感器等。隨著電機技術(shù)的發(fā)展,人形機器人逐漸采用電動驅(qū)動,可以實現(xiàn)更精準(zhǔn)地控制。例如,日本某公司開發(fā)的“Asimo”機器人采用了高性能的電機,能夠以7千米/小時的速度奔跑。隨著人工智能技術(shù)的發(fā)展,人形機器人的控制系統(tǒng)逐漸智能化、復(fù)雜化。例如,美國某公司開發(fā)的“Atlas”機器人采用了先進的控制算法,能夠在復(fù)雜地形上行走和奔跑。技術(shù)的不斷更迭,使得人形機器人與人類在外在結(jié)構(gòu)、感知力、運動功能實現(xiàn)、精確控制以及智能化等方面愈發(fā)相似。
相較于非人形,人形是機器人的最佳外形,機器人選擇人形具有功能優(yōu)勢。首先,人形機器人可以適應(yīng)人類環(huán)境。人形機器人可以在人類現(xiàn)有的環(huán)境中工作,而無需對環(huán)境進行大規(guī)模改造。現(xiàn)代社會的環(huán)境是為人類而設(shè)計的,因此機器人如果擁有與人類相似的體型和動作,就可以更容易地適應(yīng)現(xiàn)有的環(huán)境。其次,人形機器人可以使用人類工具。人形機器人可以直接使用專為人類設(shè)計的工具,而不需要重新設(shè)計或重新適配新工具,這能降低機器人的使用成本。最后,人形機器人可以與人類更親近。人性九七人與人類相仿的外形能減輕其“異類感”,使其能更容易被社會大眾所接受??偠灾?,人形機器人的“擬人化”特征使其區(qū)別于非人形機器人,能夠在人類現(xiàn)有的環(huán)境中高效工作、直接使用專為人類設(shè)計的工具并通過模擬人類的外形和行為增強用戶的接受度和信任感,從而在社交互動、情感支持和教育培訓(xùn)中發(fā)揮重要作用,也進一步產(chǎn)生新風(fēng)險。
(二)人機互動產(chǎn)生了“擬人化陷阱”
人形機器人不僅追求模仿人類的生理特征, 還在人機互動中模仿人與人的精神關(guān)聯(lián), 造成“人”這一基本概念的異化,模糊了人形機器人與人類的邊界,導(dǎo)致“擬人化陷阱”。人機交互是機器人與人類進行溝通和合作的重要手段,人形外觀強化了人內(nèi)傳播活動,這種人內(nèi)傳播關(guān)系不僅深刻地影響了個體的自我意識,也會影響其在現(xiàn)實社會中與他者的交往關(guān)系。早期的人機交互采取按鈕、指示燈等簡單方式,而人形機器人的交互方式逐漸向自然化、智能化方向發(fā)展。人形機器人綜合應(yīng)用數(shù)據(jù)、算法與計算能力,通過機器學(xué)習(xí)及深度學(xué)習(xí)的技術(shù)使其溝通能力可能超越了人類的平均水平,從而更容易引起公眾的共鳴和信任。然而,人形機器人的擬人化導(dǎo)致用戶將其視為具有人類思維和情感的實體,這會使用戶過度情感化地對待人形機器人,而忽視其非人類性和伴隨非人類性的局限性。人形機器人的外觀與人類相似,這使得用戶更容易與之進行交流和互動,但正是這種“擬人化”使其更易侵害個人隱私。故此,已有學(xué)者呼吁應(yīng)將科技倫理法律化,控制人形機器人的情感計算能力,并避免外觀設(shè)計產(chǎn)生過度操縱風(fēng)險。在應(yīng)用活動中,應(yīng)利用法律系統(tǒng)的權(quán)利義務(wù)工具和靈活的治理工具如合規(guī)認證、監(jiān)管沙箱等,以實現(xiàn)科技發(fā)展與安全之間的平衡。與人形機器人一樣,非人形機器人也會收集大量數(shù)據(jù)進行學(xué)習(xí),但其主要功能是完成特定的任務(wù),例如工業(yè)機器人、服務(wù)機器人和軍事機器人主要通過傳感器和編程來收集特定任務(wù)的相關(guān)數(shù)據(jù)。它們雖然也會產(chǎn)生隱私威脅,但更多是在既有技術(shù)和法律框架下進行監(jiān)控和數(shù)據(jù)收集,從而實現(xiàn)自身智能的自我迭代。而人形機器人通常具有人類的外形和行為特征,更容易被人類接受和信任,這種特殊性進一步擴大了人機交互語境下的“隱私悖論”。
人形機器人在信息提取和隱私侵害方面與非人形機器人不同。其一,人形機器人具備社會互動性。人形機器人可以通過模仿微笑、點頭以及與人對話等方式,在某些情況下與人類進行社交活動。在社交過程中,它們能夠利用人類對社交行為的自然反應(yīng)來提取信息,并可能通過恭維、恐懼等手段在不被察覺的情況下影響人類的行為和心理。人在與這些機器人互動時,會不自覺地表現(xiàn)出類似于與真人互動的反應(yīng),從而泄露個人敏感信息。其二,人形機器人具備空間侵入性。人形機器人展現(xiàn)出強大的互動和行動能力,能夠侵入私密空間、記錄私密活動,還能在自主決策和行動中造成實際損害,侵害用戶的人身財產(chǎn)權(quán)益。人形機器人在為人類提供服務(wù)的過程中,具備打開房門、柜門的能力,能夠進入比如掃地機器人無法進入的空間,可以收集更多人類的信息,從而產(chǎn)生更大的隱私侵害風(fēng)險。其三,人形機器人會減少人類的私密感。在與人類相處的過程中,人形機器人會以其“擬人化”的外觀對人類形成心理壓力,人類的私密空間因人形機器人而減少。智能機器人的外部數(shù)據(jù)處理能力越卓越,搭載的人工智能系統(tǒng)越為復(fù)雜,運用至實際場景所帶來的影響也將愈加不可預(yù)測。同時,人形機器人目前無法像人類那樣與物理環(huán)境進行精細流暢的交互,這些“僵硬”的人形機器人很容易侵權(quán)甚至可能對人類造成傷害。也就是說,人形機器人一旦進入人類的隱私活動空間,其擬人化勢必會為人類的隱私帶來更大的風(fēng)險。
通過對人形機器人的定義、概念來源、技術(shù)發(fā)展歷史、選擇仿人造型的優(yōu)勢及風(fēng)險考察發(fā)現(xiàn),人形機器人是人工智能、物聯(lián)網(wǎng)和機器人技術(shù)的結(jié)合體。人形機器人可以在很少或沒有人為控制或監(jiān)督的情況下執(zhí)行任務(wù),并通過自學(xué)習(xí)提高自身性能。由于其復(fù)雜的技術(shù)組成,在產(chǎn)品制造責(zé)任視角下,人形機器人的侵權(quán)判斷勢必會涉及各種組件、零件、軟件、系統(tǒng)、服務(wù)供應(yīng)商的責(zé)任區(qū)分。人形機器人在投放市場后的持續(xù)更新和升級、大數(shù)據(jù)和算法依賴以及人工智能決策的不透明性,進一步提升了判斷人形機器人行為和侵權(quán)損害責(zé)任的困難程度。
三、法律規(guī)范:人形機器人侵權(quán)風(fēng)險的應(yīng)對模式
構(gòu)建人形機器人侵權(quán)責(zé)任規(guī)則的重心在于應(yīng)對人形機器人的“自主安全悖論”。為了在不斷變化的環(huán)境中發(fā)揮預(yù)期作用,人形機器人必須根據(jù)實踐中的學(xué)習(xí)結(jié)果監(jiān)控自身并改善自身行為,也即具有自主性。然而,隨著人形機器人自主性的提高,其“決策”可能超出人類的理解范圍。人形機器人自主性越高就越不能將其簡單視為制造商、所有者或用戶等責(zé)任主體手中的工具。且由于目前的技術(shù)無法對人形機器人的決策行為形成足夠的控制力,根據(jù)傳統(tǒng)侵權(quán)法或產(chǎn)品責(zé)任法將人形機器人的侵權(quán)責(zé)任歸于特定方愈發(fā)困難和復(fù)雜,從而出現(xiàn)“責(zé)任差距”問題。
國際社會尚未有明確的人形機器人侵權(quán)責(zé)任法律規(guī)制, 僅有少量人工智能產(chǎn)品的規(guī)定可資借鑒。美國關(guān)注自動駕駛,目前由各州自行制定自動駕駛的責(zé)任規(guī)則,但很少有州試圖解決自動駕駛汽車的責(zé)任承擔(dān)問題,相應(yīng)立法工作主要集中在確定自動駕駛汽車是否可以在公共道路上行駛上。例如,田納西州法典第106條(a)規(guī)定,“涉及自動駕駛系統(tǒng)操作的車輛的事故責(zé)任應(yīng)根據(jù)產(chǎn)品責(zé)任法、普通法或其他適用的聯(lián)邦或州法律確定”。歐盟則對人工智能產(chǎn)品的責(zé)任承擔(dān)問題提出了解決進路,歐盟委員會于2022年9月28日提出了人工智能責(zé)任指令草案(以下簡稱AILD)和產(chǎn)品責(zé)任指令(以下簡稱PLD),提議將歐共體1985年建立的產(chǎn)品責(zé)任指令適用于人工智能產(chǎn)品,并建立使用披露和可反駁推定制度來完善制造商的嚴格責(zé)任。日本將機器人作為客體納入產(chǎn)品責(zé)任法的規(guī)制范疇,如果人工智能存在“缺乏通常應(yīng)提供的安全性”之缺陷,人工智能的制造商將根據(jù)產(chǎn)品責(zé)任法承擔(dān)責(zé)任。然而,日本對于人工智能何時應(yīng)被視為“缺乏其通常應(yīng)提供的安全性”這一問題尚無既定觀點。從整體上看,全球范圍內(nèi)專門針對人形機器人的立法尚未展開。
人形機器人是人類社會的新生事物,隱喻是一種應(yīng)用于新生事物的有效研究工具,可以幫助理解和解釋新事物。對人形機器人來說,隱喻的重要性不僅在于法律體系將如何理解和規(guī)范人形機器人,還在于法律體系將如何理解和規(guī)范人形機器人的用戶。在實踐中,歐盟委員會通過AILD將人形機器人視為“工具”適用產(chǎn)品責(zé)任指令;歐洲議會2017年2月16日決議以及向機器人民法規(guī)則委員會提出的建議《機器人技術(shù)民法規(guī)則》,主張賦予人形機器人“電子人”的法律人格;而日本道路運輸車輛法將移動機器人歸類為汽車或電動自行車,視為公共產(chǎn)品。通過隱喻的研究方法,將人形機器人比作其他人類熟悉的概念,如“工具”“兒童”“寵物”“電子人”“法人”等,可以更容易地揭示其功能、用途和對人類社會關(guān)系的潛在影響,以便汲取現(xiàn)有制度經(jīng)驗,進一步提煉出規(guī)制人形機器人侵權(quán)責(zé)任的內(nèi)在邏輯。
(一)將人形機器人擬制為“法人”的人類代表人理論
歐洲議會提案《機器人技術(shù)民法規(guī)則》采用了人類代表人理論,使人形機器人制造商承擔(dān)侵權(quán)責(zé)任。該草案規(guī)定:“從長遠來看要創(chuàng)設(shè)機器人的特殊法律地位,以確保至少最復(fù)雜的自動化機器人可以被確認為享有電子人的法律地位,有責(zé)任彌補自己所造成的任何損害,并且可能在機器人作出自主決策或以其他方式與第三人獨立交往的案件中適用電子人格?!备鶕?jù)人形機器人的復(fù)雜程度,法案所稱“最復(fù)雜的自動化機器人”應(yīng)當(dāng)指人形機器人。也就是說,歐盟視人形機器人為“法人”,賦予人形機器人以法律人格,負有監(jiān)護義務(wù)的人類代表,諸如制造商、經(jīng)營者等,對人形機器人所造成的損害負責(zé)。人形機器人在進入市場之前需要注冊登記成為有限責(zé)任的法人,擁有其制造商提供的一份基金,該基金可以在出現(xiàn)侵權(quán)時支持締約方的索賠。此提案在2017年提出后,于2022年被歐盟委員會在PLD中予以明確否定。法人實體之所以能夠作為一個獨立的法律主體,在于法人擁有簽訂合同、持有財產(chǎn)、負債、起訴和被起訴的能力,而賦予人形機器人電子人格可能會造成道德責(zé)任、因果關(guān)系和法律責(zé)任的錯位。2018年來自14個歐洲國家的156名人工智能專家發(fā)表公開信,公開反對歐盟議會關(guān)于人形機器人應(yīng)具有電子人法律地位的提案。一方面,人形機器人的責(zé)任體系構(gòu)建主要涉及人形機器人的責(zé)任能力,而非權(quán)利能力,在人形機器人缺乏受其支配財產(chǎn)的情況下沒有討論法律人格的必要。另一方面,人形機器人不會遭受痛苦,也就無所謂是否對其進行懲罰,將人形機器人視為可以承擔(dān)法律責(zé)任的實體是沒有意義的。總之,人形機器人被擬制為“電子人”會對現(xiàn)有法律體制造成巨大沖擊且缺乏法理基礎(chǔ)。
(二)將人形機器人視為“動產(chǎn)”的產(chǎn)品缺陷責(zé)任理論
依據(jù)1985年歐共體PLD法案,產(chǎn)品缺陷責(zé)任適用嚴格責(zé)任,即如果產(chǎn)品存在缺陷并導(dǎo)致?lián)p害,即使制造商沒有不當(dāng)行為,也應(yīng)對損害負責(zé),但要求受害人應(yīng)當(dāng)證明損害、缺陷以及缺陷與損害之間的因果關(guān)系。2022年,歐盟借助AILD草案將人工智能系統(tǒng)定義為“產(chǎn)品”,再通過適用PLD法案將人工智能侵權(quán)責(zé)任體系指向產(chǎn)品責(zé)任模式。然而,隨著人工智能技術(shù)的發(fā)展,PLD已不足以解決與其相關(guān)的所有法律問題。其一,受害人證明因果關(guān)系存在門檻過高。人形機器人是智能機器人,具有不可預(yù)測性,例如在人形機器人與生成式大模型合作的情形下,其可以根據(jù)用戶輸入生成合適的回答,但也可能生成無法預(yù)測的回答,甚至可能生成具有攻擊性或歧視性的字詞。再例如,人形機器人與人體工程學(xué)、心理學(xué)等技術(shù)交叉合作下,損害結(jié)果的產(chǎn)生可能牽涉人形機器人產(chǎn)業(yè)合作鏈條中的多個責(zé)任主體,其中的因果關(guān)系證明具有較高專業(yè)知識門檻。其二,缺陷的定義對產(chǎn)品責(zé)任的范圍有重大影響。如果法院容易認定缺陷,產(chǎn)品責(zé)任則趨向于嚴格責(zé)任;相反,如果證明產(chǎn)品有缺陷較為困難,產(chǎn)品責(zé)任則更接近于疏忽規(guī)則。例如,飛機自動駕駛系統(tǒng)的制造商很少被認定負有責(zé)任,這是由于飛機自動駕駛系統(tǒng)適用疏忽規(guī)則,飛機制造商只要制定了詳盡可執(zhí)行免責(zé)聲明和安全警告,就可以有效地保護其免于產(chǎn)品責(zé)任索賠。人形機器人的應(yīng)用也可能出現(xiàn)類似情形。
歐盟產(chǎn)品責(zé)任指令在“產(chǎn)品”“缺陷”“責(zé)任理由”“生產(chǎn)者”和“舉證責(zé)任”條款的執(zhí)行方面面臨挑戰(zhàn)。為了解決這些問題,控制人形機器人行為的算法及其開發(fā)者可能構(gòu)成責(zé)任鏈條中的一環(huán),對損害或傷害承擔(dān)一定責(zé)任。AILD草案規(guī)定,當(dāng)人工智能系統(tǒng)存在缺陷并造成損害時,受害人可以向人工智能系統(tǒng)提供商或?qū)⑵浼傻狡渌a(chǎn)品中的制造商尋求賠償。同時,AILD草案沒有脫離嚴格責(zé)任體系,并且朝著有利于用戶的角度細化。首先,針對人工智能系統(tǒng)的缺陷原因難以查明以及產(chǎn)品不符合安全的舉證責(zé)任難問題,草案減輕了復(fù)雜案件中用戶的舉證責(zé)任,同時放寬了索賠限制,確保在基于過錯的情況下遭受損失的索賠人能夠訴諸損害賠償或其他適當(dāng)?shù)难a救措施。其次,AILD明確表示,承擔(dān)產(chǎn)品缺陷責(zé)任的主體不僅包括硬件制造商,還包括影響產(chǎn)品工作方式的軟件提供商和數(shù)字服務(wù)提供商。如果對人工智能系統(tǒng)的設(shè)計或開發(fā)不當(dāng),或者沒有采取糾正措施來解決已發(fā)現(xiàn)的缺陷,軟件系統(tǒng)提供商也應(yīng)承擔(dān)責(zé)任。最后,AILD確保制造商對其已投放市場的產(chǎn)品在升級之后仍然具有責(zé)任,只要這些更改是由軟件更新或機器自學(xué)習(xí)觸發(fā)的??傊珹ILD旨在建立損害與人工智能系統(tǒng)“行為”之間的因果關(guān)系。然而,AILD仍未解決人工智能系統(tǒng)造成損害但無明顯缺陷產(chǎn)品或過錯的責(zé)任分配問題。當(dāng)制造商在人工智能產(chǎn)品投放市場后仍保持一定控制權(quán)時,現(xiàn)有法律規(guī)則難以解釋或認定技術(shù)革新下“更新”“升級”“缺陷”等行為的原因或責(zé)任主體。
考慮到人工智能系統(tǒng)的復(fù)雜性和不透明性,歐盟適用嚴格責(zé)任制度的可行性仍不確定。在侵權(quán)損害與被告行為之間無法建立因果關(guān)系的情況下,AILD草案不能對侵權(quán)損害提供充分救濟。如果不能排除人工智能技術(shù)造成的損害,可能出現(xiàn)責(zé)任分配不公平或效率低下的情況。為了解決該問題,應(yīng)首先討論在出現(xiàn)人形機器人擬人化陷阱現(xiàn)象的情況下,能否直接適用最小化風(fēng)險測試或嚴格責(zé)任標(biāo)準(zhǔn),還是合理的替代測試標(biāo)準(zhǔn)。如果將人形機器人視為更具有自主性的產(chǎn)品,并且在使用過程中產(chǎn)生了損害,責(zé)任可能更傾向被歸咎于機器人運營商或設(shè)計者,而不僅僅是被限制在硬件制造商或軟件提供商身上。面對人形機器人的責(zé)任問題,法律和倫理的交叉影響應(yīng)被考慮。在制定產(chǎn)品責(zé)任法時,立法者需要權(quán)衡保護用戶的權(quán)益和鼓勵技術(shù)創(chuàng)新的需要,同時也應(yīng)考慮人與機器之間的權(quán)責(zé)關(guān)系以及用戶對機器人行為的期待。
(三)將人形機器人視為“未成年人”或“寵物”的替代責(zé)任理論
替代責(zé)任是指責(zé)任主體在沒有過錯的情況下對其“監(jiān)護人”的侵權(quán)行為所承擔(dān)的相應(yīng)責(zé)任。如果視人形機器人為“未成年人”甚至“具有高度危險的寵物”,在現(xiàn)有的法律框架下,可以將替代責(zé)任原則作為追究人形機器人用戶責(zé)任的框架。根據(jù)日本產(chǎn)品責(zé)任法,運營商疏忽導(dǎo)致機器人責(zé)任,索賠人必須證明運營商沒有采取應(yīng)有的謹慎措施。我國民法典第1188條規(guī)定,無民事行為能力人、限制民事行為能力人造成他人損害的,由監(jiān)護人承擔(dān)侵權(quán)責(zé)任。監(jiān)護人盡到監(jiān)護職責(zé)的,可以減輕其侵權(quán)責(zé)任。人形機器人已具有非常豐富的應(yīng)用場景,例如在日本東京大學(xué)醫(yī)院使用人形機器人“Pepper”協(xié)助進行骨科手術(shù)?!癙epper”可以幫助醫(yī)生進行手術(shù)規(guī)劃并提供實時的手術(shù)信息。假設(shè)醫(yī)院及其工作人員已經(jīng)履行了所有可能的護理職責(zé),但由于人形機器人的自主性對患者造成了損害,患者能否從醫(yī)院處獲得損害賠償呢? 此種場景下適用替代責(zé)任可以追究人形機器人操作用戶的法律責(zé)任。
替代責(zé)任原則為追究人形機器人用戶的責(zé)任提供了一個框架。人形機器人類似“未成年人”或“寵物”,如果用戶未能履行其作為監(jiān)護人的義務(wù),并且導(dǎo)致了損害,根據(jù)替代責(zé)任原則,用戶可能被推定為違反了謹慎義務(wù),并承擔(dān)相應(yīng)的責(zé)任。確定用戶責(zé)任的因素包括用戶是否向人形機器人提供了適當(dāng)?shù)闹噶?、是否充分評估了潛在的風(fēng)險以及是否采取了措施防止損害等,這些因素的考量有助于確定操作用戶是否違反了謹慎義務(wù)。
然而, 替代責(zé)任理論的缺陷在于監(jiān)護關(guān)系的認定困難和復(fù)雜場景下監(jiān)護責(zé)任分配的合理性難題。人工智能的行為往往受到多種因素的影響,包括設(shè)計缺陷、數(shù)據(jù)輸入錯誤、外部環(huán)境變化等。將這些因素全部歸咎于監(jiān)護人可能不夠公平,也可能導(dǎo)致責(zé)任歸屬的混亂。或是在人形機器人責(zé)任事故發(fā)生之后,硬件、系統(tǒng)、算法以及操作用戶之間會相互推諉,在糾紛發(fā)生時難以查明事故原因,難以確定“監(jiān)護人”的身份。再者,基于人工智能技術(shù)的黑箱屬性,監(jiān)護人可能并不具備足夠的技術(shù)知識和能力來全面了解和控制人工智能的行為。因此,即使監(jiān)護人盡到了合理的注意義務(wù),也可能無法完全避免侵權(quán)行為的發(fā)生。進一步而言,過于嚴苛的監(jiān)護人責(zé)任將影響產(chǎn)業(yè)的創(chuàng)新動力,尤其是人機互動高度密切的人形機器人領(lǐng)域,如果監(jiān)護人因擔(dān)心承擔(dān)過重的侵權(quán)責(zé)任而過度限制人工智能的使用和發(fā)展,可能會對技術(shù)創(chuàng)新產(chǎn)生不利影響。特別是在高風(fēng)險領(lǐng)域,如自動駕駛、醫(yī)療診斷等,過度的法律責(zé)任可能阻礙新技術(shù)的應(yīng)用和推廣。此外,不同國家對于替代責(zé)任原則的適用可能存在差異,這可能導(dǎo)致跨國案件中的法律適用沖突。
(四)視人形機器人為社會公共產(chǎn)品的保險模式
保險機制可以分擔(dān)人形機器人可能帶來的風(fēng)險,使制造商、運營商和用戶都能夠更好地承擔(dān)責(zé)任,從而降低了參與者的風(fēng)險感。嚴格責(zé)任或者替代責(zé)任是單個實體之間的關(guān)系,無法從根本上解決“自主安全悖論”。如果采取集體責(zé)任理論,人形機器人的特定風(fēng)險由社會來分擔(dān),在受害方與責(zé)任方之間構(gòu)建人形機器人與用戶關(guān)系的可控整合,使得人形機器人廠家免于承擔(dān)無限責(zé)任,從而更愿意從事人形機器人的研發(fā)、生產(chǎn),而用戶也能認可人形機器人的安全性。保險機制可以作為監(jiān)管的一種手段,促進人形機器人技術(shù)的整合和安全應(yīng)用。集體責(zé)任理論視人形機器人為公共產(chǎn)品,保險不僅能夠為人形機器人公司和用戶提供風(fēng)險管理工具,而且可以作為促進人形機器人技術(shù)發(fā)展和整合的監(jiān)管機制。不僅如此,保險還能更好地處理人形機器人造成的損害,同時為人形機器人行業(yè)提供預(yù)防和補償功能。日本通過政策措施促進機器人技術(shù)在現(xiàn)實生活中的使用進而培育市場,很少關(guān)注歐洲討論的機器人倫理問題。例如,日本政府為了鼓勵自動駕駛技術(shù),在2025年左右實現(xiàn)高速公路上私家車的L48級自動駕駛,于20198年修訂了道路運輸車輛法(“RTVA”)和道路交通法(“RTA”),規(guī)定如果自動駕駛系統(tǒng)符合安全標(biāo)準(zhǔn),則允許使用該系統(tǒng)的汽車在公共道路上行駛,這使得“駕駛”的定義已被擴大到包括使用自動駕駛系統(tǒng)進行駕駛。這種產(chǎn)品安全認證制度可以確保制造商免于承擔(dān)責(zé)任。在人形機器人領(lǐng)域,如果產(chǎn)品被證明符合安全要求,人形機器人的生產(chǎn)商也可參照自動駕駛立法而不需要承擔(dān)侵權(quán)責(zé)任。用戶使用符合安全認證的人形機器人遭受損害或者致人損害,可以通過保險來獲得或作出賠償。保險公司是整個社會生態(tài)系統(tǒng)的一部分,為了使新興的數(shù)字技術(shù)盡可能安全,用戶需要為高風(fēng)險或災(zāi)難性風(fēng)險的案件投保,以確保對潛在的嚴重損害進行賠償。
對高度危險的公共產(chǎn)品設(shè)定第三方強制責(zé)任險具有非常多的先例。為了確保受害者能夠獲得充分的賠償,在新興數(shù)字技術(shù)造成的潛在傷害越發(fā)頻繁和嚴重的當(dāng)下,強制性責(zé)任保險可能是一種合適的選擇。保險基金可以在受害者無法獲得足額賠償?shù)那闆r下被用于保護受害者的權(quán)益,同時通過調(diào)整保費來提高人形機器人產(chǎn)品的安全認證級別。例如,機動車輛交通強制保險的原理是風(fēng)險分攤。所有機動車的所有人或管理人必須投保交強險,并將保費交到保險公司。當(dāng)發(fā)生交通事故時,由保險公司在責(zé)任限額內(nèi)對受害人進行賠償,從而減輕受害人的經(jīng)濟負擔(dān)。在交強險的范圍內(nèi),責(zé)任事故的原因無需被區(qū)分,造成的損害均由保險來賠償,且保險公司在交強險的范圍內(nèi)原則上沒有追索權(quán),除非用戶存在明顯故意的過錯導(dǎo)致事故發(fā)生。人工智能產(chǎn)品適用強制保險也有先例。美國內(nèi)華達州自動駕駛汽車法規(guī)定,車主在注冊自動駕駛汽車之前,需要提供一份特定類型的保險,而不是依賴運營商的責(zé)任保險。在這種情況下,車主被要求提供車輛責(zé)任保險,而不是駕駛員責(zé)任保險單。該法案旨在確保在發(fā)生交通事故時,受害人能夠獲得必要的賠償。正如歐盟《機器人民法規(guī)則的指令提案》第57條指出,解決日益自主的機器人造成的損害責(zé)任分配復(fù)雜性的一個可能的解決方案是強制性保險計劃,這為用保險機制解決人形機器人的侵權(quán)責(zé)任問題提供了法理支持。
保險機制可以通過創(chuàng)造責(zé)任緩沖區(qū)實現(xiàn)無過錯賠償。傳統(tǒng)的侵權(quán)法無法規(guī)制受害者無法識別侵權(quán)者的情況,這使得網(wǎng)絡(luò)犯罪對用戶構(gòu)成了嚴重威脅。為此,可以引入一種與適用于暴力犯罪受害者的無過錯賠償方案等效的無過錯補償方案,即允許因網(wǎng)絡(luò)犯罪而遭受嚴重人身傷害的人得到與暴力犯罪受害者相同的待遇。簡言之,受害者無需證明侵權(quán)者的過錯,而是通過滿足一系列明確的條件來獲得賠償。無過錯賠償方案可以為受害者提供更快速、更有效的補救措施,以此來更好地保護受害者的權(quán)益。因此,引入無過錯補償方案可以彌補傳統(tǒng)侵權(quán)法規(guī)則的不足,為受害者提供更完善的保護。然而,在強制性責(zé)任保險政策制定前,需要考慮各個行業(yè)特定情況的重要性。在所有領(lǐng)域普遍施行強制責(zé)任保險的缺陷在于,一方面保險公司可能不愿意為新生事物提供保險;另一方面要求強制保險增加了人形機器人的社會成本并可能會阻礙其技術(shù)創(chuàng)新。
視機器人為社會公共產(chǎn)品的保險模式雖然提供了一種有前景的解決方案,但也存在一些潛在的弊端。首先是成本問題。強制性責(zé)任保險可能增加人形機器人的生產(chǎn)成本和使用成本,從而抑制了其在市場上的競爭力,制造商、運營商和用戶可能因為需要支付較高的保險費用,而限制對人形機器人的使用和開發(fā)。其次,保險公司抵觸。保險公司可能因為缺乏足夠的歷史數(shù)據(jù)和經(jīng)驗來評估風(fēng)險而對涉及新興技術(shù)和潛在高風(fēng)險的領(lǐng)域持謹慎態(tài)度, 進而不愿提供相關(guān)的保險產(chǎn)品或者提高保險費率。再次,賠償難度。盡管保險機制可以提供賠償,但在實際操作中,賠償難度和賠償爭議仍然可能存在。受害者可能需要花費大量時間和精力來證明損害和索賠的合理性,會導(dǎo)致訴訟和爭端的增加。最后,責(zé)任模糊。由于人形機器人涉及多個參與者,如制造商、設(shè)計者、運營商和用戶,責(zé)任分配可能會變得復(fù)雜和模糊。保險機制可能無法完全解決責(zé)任歸屬的問題,導(dǎo)致賠償流程不夠順暢或公平。綜合而言,保險范式盡管為解決人形機器人責(zé)任問題提供了一種有前景的解決方案,但在實施過程中仍然需要克服一些挑戰(zhàn)和限制。
綜上所述,嚴格責(zé)任或替代責(zé)任體系在解決“自主安全悖論”的問題上尚顯不足,尤其是傳統(tǒng)的賠償責(zé)任規(guī)則可能導(dǎo)致訴訟過程和結(jié)果不盡如人意。相對而言,將人形機器人視作社會公共資產(chǎn),并提出強制性責(zé)任保險作為解決之道,借由風(fēng)險共擔(dān)的模式確保受害者能夠得到必要的補償是更好的方案。借助保險機制,無過錯賠償?shù)姆桨改軌虮宦鋵?。進一步而言,推行強制性責(zé)任保險與無過錯賠償方案不僅能彌補傳統(tǒng)侵權(quán)法規(guī)則的缺陷,而且對于明確人形機器人責(zé)任的歸屬問題亦具有重要意義。
四、構(gòu)建鏈?zhǔn)饺诵螜C器人侵權(quán)責(zé)任治理模型
人形機器人產(chǎn)品進入市場需要在事先預(yù)防、監(jiān)管范圍和責(zé)任原則三方面做好平衡。首先,事先預(yù)防是解決人工智能風(fēng)險而不過度降低其社會效益的方法,提升透明度、提高可解釋性、進行安全測試、理解和減輕風(fēng)險均是有效措施。例如, 谷歌DeepMind和斯坦福大學(xué)推出了人形機器人Mobile*ALOHA,通過雙手遠程操作的低成本開源硬件系統(tǒng)提升透明度。其次,行政引導(dǎo)和監(jiān)管對于人工智能產(chǎn)品從實驗室走向市場具有直接推動作用。2007年日本經(jīng)濟、貿(mào)易和工業(yè)部(METI)發(fā)布NGR(“下一代機器人”)使用的安全指南,闡述了確保NGR在其設(shè)計、制造、進口、安裝、維護、維修、銷售和使用等每個階段安全應(yīng)用的基本思路。最后,侵權(quán)責(zé)任體系位于人形機器人治理的末端,是人工智能侵權(quán)后果的補救措施。由上文對人形機器人產(chǎn)品責(zé)任范式的考察可知,采取單一的、不加區(qū)分的人形機器人治理范式無法滿足人形機器人責(zé)任主體多元、侵權(quán)形態(tài)多樣、侵權(quán)責(zé)任因果關(guān)系難以判斷的客觀情況。傳統(tǒng)的科層式規(guī)制體系已難以適應(yīng)人形機器人領(lǐng)域的規(guī)制需求,需要新的規(guī)制模式以適應(yīng)技術(shù)的快速變化和不確定性。應(yīng)構(gòu)建分別適用于人形機器人制造商、系統(tǒng)程序開發(fā)商、運營商和操作用戶的責(zé)任體系,鏈?zhǔn)饺诵螜C器人侵權(quán)責(zé)任治理模型的核心思想是根據(jù)各方對機器人行為的控制程度、技術(shù)開發(fā)和使用過程中的角色,以及對事故預(yù)防的成本和效率,形成從技術(shù)開發(fā)到最終使用的責(zé)任鏈條。 這個鏈條上包含了多個關(guān)鍵主體———開發(fā)商、制造商、前端運營商、用戶以及后端技術(shù)支持方,每個環(huán)節(jié)都有特定的責(zé)任和義務(wù)。
(一)適用漢德公式分配侵權(quán)責(zé)任
對人形機器人等新興技術(shù)不宜采取過為嚴苛的責(zé)任規(guī)制措施, 這也是國內(nèi)外法律規(guī)制的共識。正如上文所言,在“法人”范式下,人形機器人不具備法律主體資格所需的責(zé)任能力,不能獨立承擔(dān)責(zé)任,將責(zé)任歸咎于機器人,實質(zhì)上仍是人類而非機器人承擔(dān)責(zé)任。同時,在“保險”范式下,完全通過商業(yè)保險、設(shè)立賠償基金等方式承擔(dān)人形機器人的侵權(quán)責(zé)任,又使得人形機器人的使用成本過高?!胺ㄈ恕迸c“保險”范式將極大抑制消費者購買高風(fēng)險產(chǎn)品的意愿,使得當(dāng)傳統(tǒng)輔助設(shè)備和人形機器人處在同一市場競爭之時,消費者往往會更傾向于選擇風(fēng)險更低的傳統(tǒng)設(shè)備。為此,2023年7月10日,中國網(wǎng)信辦與其他六家監(jiān)管機構(gòu)協(xié)商,發(fā)布了中國首個生成型人工智能部門規(guī)章《生成式人工智能服務(wù)管理暫行辦法》,第3條提出“堅持發(fā)展與安全并重,促進創(chuàng)新與依法治理相結(jié)合”的發(fā)展宗旨。美國在2023年末發(fā)布關(guān)于安全、可靠和值得信賴的人工智能的行政命令,提出了安全有效的系統(tǒng)、防止算法歧視、通知和解釋、人工選擇、考慮和退出等五項原則,以積極推動人工智能產(chǎn)業(yè)發(fā)展。美國迎合了大多數(shù)行業(yè)參與者,采取最低程度的監(jiān)管,避免政策限制阻礙技術(shù)發(fā)展并剝奪他們獲得競爭優(yōu)勢的機會??梢?,法律制度設(shè)計應(yīng)平衡技術(shù)發(fā)展和責(zé)任分配的關(guān)系。
漢德公式是侵權(quán)法和產(chǎn)品責(zé)任法中的重要理論工具,尤其在處理復(fù)雜技術(shù)產(chǎn)品和高風(fēng)險場景時具有重要的應(yīng)用價值。1947年漢德法官提出了一個成本-效益分析的框架,以評估被控行為是否構(gòu)成過失。這種經(jīng)濟學(xué)導(dǎo)向的歸責(zé)模型,其核心是通過成本效益分析來確定最佳的責(zé)任分配,通過對預(yù)防成本、風(fēng)險和損害的權(quán)衡來判斷是否采取適當(dāng)?shù)念A(yù)防措施,而不是僅僅依賴于抽象的法律原則或主觀判斷。漢德法官提到,這種權(quán)衡能幫助更有效地分配責(zé)任,確保最小化社會成本。具體而言,漢德公式分析了預(yù)防措施的成本(B)與可能損害的概率(P)及損害結(jié)果的嚴重性(L)之間的關(guān)系。如果預(yù)防措施的成本低于損害的可能性與損害嚴重性的乘積,那么就應(yīng)采取預(yù)防措施。否則,責(zé)任應(yīng)由相關(guān)方承擔(dān)。在面對人形機器人“自主安全悖論”的情境下,漢德公式為確定侵權(quán)責(zé)任提供了一種有效的框架。其優(yōu)勢在于:其一,簡化復(fù)雜判斷。在機器人自主決策的情況下,如何判斷是否發(fā)生過失行為可能變得復(fù)雜。傳統(tǒng)的“全有或全無”因果關(guān)系理論有時過于嚴格,容易導(dǎo)致原告或被告承擔(dān)不公正的責(zé)任。通過引入成本效益分析,漢德公式能夠在不完全確定因果關(guān)系的情況下,為責(zé)任的分配提供一個合理的依據(jù)。通過明確將風(fēng)險、成本和潛在損害聯(lián)系起來,為法官和相關(guān)方提供了一種清晰的判斷框架,避免了主觀的推測。其二,平衡技術(shù)進步與安全防范。人形機器人在執(zhí)行任務(wù)時可能面臨多種安全風(fēng)險。通過漢德公式,能夠量化防止這些風(fēng)險的成本與發(fā)生事故的概率,從而判斷機器人制造商或操作者在設(shè)計、使用和管理過程中的責(zé)任是否合理。隨著機器人技術(shù)的進步,它們在自主性和智能化方面可能帶來更高的風(fēng)險。漢德公式提供了一種衡量技術(shù)創(chuàng)新帶來的潛在損害與防范成本之間平衡的方法,有助于判斷是否有必要采取額外的安全措施或限制。最后,適應(yīng)動態(tài)變化的法律環(huán)境,促進合理的責(zé)任分配。機器人和自動化技術(shù)的發(fā)展常常超前于現(xiàn)有法律體系。漢德公式靈活的應(yīng)用性使其能夠適應(yīng)不同情境下的法律判斷,特別是在技術(shù)進步帶來新型風(fēng)險時,能夠更好地調(diào)整標(biāo)準(zhǔn)。在面對人形機器人自主行為時,應(yīng)用漢德公式有助于合理分配制造商、操作者及其他相關(guān)方的責(zé)任。在處理人形機器人相關(guān)的法律問題時,漢德公式提供了一種經(jīng)濟學(xué)視角的框架,使得法律責(zé)任的分配更加科學(xué)和合理,尤其在機器人自主性和復(fù)雜性不斷提升的背景下,能為侵權(quán)責(zé)任的界定提供重要的理論支持。
人形機器人引起的損害責(zé)任應(yīng)分配給那些能以最低成本和最高效率預(yù)防損害的一方。具體而言,責(zé)任應(yīng)首先被分配給使用人形機器人并因此增加他人受傷風(fēng)險的消費者,對于使用人形機器人但不增加對他人傷害風(fēng)險的消費者適用過錯責(zé)任。對于制造商而言,即便其生產(chǎn)的人形機器人在進入市場后進行了自主學(xué)習(xí),制造商仍應(yīng)對產(chǎn)品缺陷導(dǎo)致的損害負責(zé)。若涉及主導(dǎo)使用相關(guān)技術(shù)并從中獲益的前端運營商,以及持續(xù)塑造相關(guān)技術(shù)特征并提供必要持續(xù)后端支持的后端運營商,則應(yīng)由對侵權(quán)行為擁有更多控制權(quán)的一方承擔(dān)嚴格責(zé)任。同時,正如歐盟《機器人民法規(guī)則指令提案》第56條的規(guī)定, 各方承擔(dān)的責(zé)任應(yīng)與其對機器人指令級別以及機器人實際自主程度的相對高低成比例,機器人的學(xué)習(xí)能力或自主性越強,以及機器人的訓(xùn)練時間越長,其訓(xùn)練者的責(zé)任就越大。在分配消費者與人形機器人制造商之間的責(zé)任時,應(yīng)當(dāng)確認機器人行為與其從消費者習(xí)得的運作模式之間的直接聯(lián)系。換言之,機器人操作用戶擔(dān)當(dāng)教師的角色,機器人接受教育的時長越長,操作用戶承擔(dān)的責(zé)任也就越重。
(二)適用合理的替代測試標(biāo)準(zhǔn)
將人形機器人視為“動產(chǎn)”“未成年人”以及“寵物”的責(zé)任承擔(dān)范式,實際上采取的是消費者期望標(biāo)準(zhǔn),為促進人形機器人的發(fā)展,應(yīng)采取合理的替代測試標(biāo)準(zhǔn)。消費者期望標(biāo)準(zhǔn)以一般消費者的期待為標(biāo)準(zhǔn)來評價產(chǎn)品的安全性,考慮產(chǎn)品是否具有作為消費者的買主所期待的安全性能、質(zhì)量或指示警告。消費者期望測試標(biāo)準(zhǔn)是以用戶對產(chǎn)品合理預(yù)期為基礎(chǔ)產(chǎn)品是否存在缺陷進行判定的標(biāo)準(zhǔn)。對于大多數(shù)傳統(tǒng)產(chǎn)品和服務(wù)而言,該標(biāo)準(zhǔn)因其強調(diào)用戶對產(chǎn)品品質(zhì)和性能的預(yù)期而適用,有效保障了用戶權(quán)益。然而,當(dāng)涉及人形機器人等高科技產(chǎn)品時,用戶對于產(chǎn)品的內(nèi)部機理和技術(shù)細節(jié)往往知之甚少,這可能導(dǎo)致消費者期望超出產(chǎn)品的實際性能。
在人工智能侵權(quán)案件中,確定侵權(quán)行為與損害結(jié)果之間的因果關(guān)系是關(guān)鍵。合理替代測試標(biāo)準(zhǔn)通過評估侵權(quán)行為是否對原權(quán)利人造成了實質(zhì)性的損害,并且這種損害是無法通過其他非侵權(quán)手段來避免的,亦有助于明確因果關(guān)系。例如,在面對復(fù)雜的侵權(quán)因果關(guān)系時,算法優(yōu)化的可行性可以考察當(dāng)下的技術(shù)水平是否存在一種設(shè)計,能夠更好地減少偏見或錯誤決策? 或是否有更合理方式改善訓(xùn)練數(shù)據(jù)的質(zhì)量與覆蓋范圍,從而減少風(fēng)險?是否存在更完善的安全防護設(shè)計以限制安全風(fēng)險的損害?如果答案都是否定的,那么不存在更優(yōu)的方案來防止損害,這樣的侵權(quán)行為是不具有可責(zé)性的。因此,合理的替代測試標(biāo)準(zhǔn)更側(cè)重于產(chǎn)品設(shè)計和制造過程的合理性及其可執(zhí)行性,如果制造商在產(chǎn)品交付時的科技知識水平無法預(yù)見到產(chǎn)品缺陷,則其便無須承擔(dān)責(zé)任。該標(biāo)準(zhǔn)主要考察產(chǎn)品是否遵循了技術(shù)層面的合理要求,是否存在可行的替代設(shè)計或技術(shù)路徑,以規(guī)避潛在風(fēng)險和損害。對于復(fù)雜如人形機器人的產(chǎn)品,制造商有責(zé)任通過合理的替代設(shè)計,盡可能降低產(chǎn)品風(fēng)險,確保其安全性與可靠性,但沒有能力完全符合消費者期望。由于人形機器人的擬人性和自主性,其帶來的風(fēng)險已經(jīng)超出產(chǎn)品質(zhì)量安全的范疇。例如,目前已出現(xiàn)人工智能伴侶唆使人類自殺的情況發(fā)生,在人形機器人具有親和力的外觀加之人工智能加持,其“擬人化陷阱”直接導(dǎo)致消費者對人形機器人產(chǎn)生感情、依賴,進而出現(xiàn)“因情受損”的情況將明顯增多,產(chǎn)品制造商只能在設(shè)計、生產(chǎn)時進行規(guī)避,而無法預(yù)料消費者將如何使用或如何訓(xùn)練人形機器人,也即無法充分滿足消費者對產(chǎn)品安全的期望。因此,相較于消費者期望測試標(biāo)準(zhǔn),“合理的替代測試標(biāo)準(zhǔn)”展現(xiàn)出更為顯著的優(yōu)越性,可以在提升產(chǎn)品安全性的同時進一步激發(fā)技術(shù)革新,助力人形機器人企業(yè)更精準(zhǔn)地認識和掌握產(chǎn)品風(fēng)險,以此確保用戶權(quán)益,推動行業(yè)持續(xù)健康發(fā)展。在評估設(shè)計是否存在缺陷以及責(zé)任承擔(dān)時,應(yīng)當(dāng)運用“合理的替代測試標(biāo)準(zhǔn)”。對于人形機器人的硬件故障,即便是在產(chǎn)品投放市場后才顯現(xiàn)出的缺陷,制造商也需要承擔(dān)無過錯責(zé)任。
(三)構(gòu)建鏈?zhǔn)截?zé)任治理模型
軟法治理范式對未來競爭極為關(guān)鍵,構(gòu)建鏈?zhǔn)截?zé)任模型將發(fā)揮核心作用。美國學(xué)者對立法、行政和司法三大機構(gòu)在人工智能領(lǐng)域的監(jiān)管效果進行了分析,認為通過激勵人工智能開發(fā)者將安全理念內(nèi)化在開發(fā)過程中,所產(chǎn)生的系統(tǒng)性外溢效果勝于直接監(jiān)管。采取鏈?zhǔn)截?zé)任順序?qū)τ谒茉旆€(wěn)固的責(zé)任框架具有積極作用。這樣的責(zé)任治理體系不僅可以激勵制造商研發(fā)安全可信產(chǎn)品,還能防止制造商因產(chǎn)品傷害問題而被牽涉入無止境的索賠法律訴訟。國際學(xué)者提出建立“制造商剩余責(zé)任”體制,即在運營商和受害者對自身疏忽導(dǎo)致的事故負責(zé)的同時,由制造商對非疏忽導(dǎo)致的事故承擔(dān)剩余責(zé)任。據(jù)此,我們可以構(gòu)建出人形機器人侵害財產(chǎn)權(quán)的鏈?zhǔn)截?zé)任順序。
首先,對于人形機器人事故造成的損害,由無需查究事故原因即可進行賠付的保險覆蓋絕大多數(shù)損失。當(dāng)人形機器人發(fā)生事故時,強制性責(zé)任保險應(yīng)優(yōu)先介入賠償。此種保險旨在確保受害者權(quán)益,提供迅速且便捷的賠償途徑,避免未知科學(xué)風(fēng)險對人形機器人用戶造成不合理的負擔(dān)。
其次,若損失超出保險賠償限額,應(yīng)在查明事故原因后,由過錯方承擔(dān)相應(yīng)責(zé)任,制造商則負擔(dān)剩余賠償義務(wù)。用戶和受害者需為其疏忽行為負責(zé),而制造商對并非由疏忽行為所導(dǎo)致的機器人事故承擔(dān)嚴格責(zé)任。如果事故發(fā)生是由于軟件系統(tǒng)的缺陷(如算法錯誤、訓(xùn)練數(shù)據(jù)偏差等),則不能僅由硬件制造商承擔(dān)責(zé)任,軟件和算法設(shè)計者也應(yīng)當(dāng)承擔(dān)相應(yīng)的責(zé)任。人形機器人應(yīng)配備記錄功能,類似飛機黑匣子的設(shè)備可以用于記錄機器人行為的軌跡和數(shù)據(jù),提供事故發(fā)生的詳細信息。這一記錄不僅僅涉及硬件故障,還包括機器人執(zhí)行算法的過程和決策路徑。若無法記錄或提供數(shù)據(jù)記錄的合理訪問,則應(yīng)倒置舉證責(zé)任,保護受害者權(quán)益。該機制有助于將軟件和算法的責(zé)任納入責(zé)任鏈條,確保在事故發(fā)生后,能夠追溯并確認責(zé)任的根源。
再次,制造商應(yīng)可援引“發(fā)展風(fēng)險例外”進行抗辯,依據(jù)通過“合理的替代測試”建立的技術(shù)標(biāo)準(zhǔn)評估是否存在“設(shè)計上的局限性”。如果損害發(fā)生在設(shè)計范圍內(nèi),人形機器人產(chǎn)品應(yīng)被認定存在缺陷,缺陷方應(yīng)賠償損害。相反,若損害超出設(shè)計范圍,則認定人形機器人無缺陷,制造商有權(quán)拒絕賠償。國家所制定的人形機器人技術(shù)標(biāo)準(zhǔn),應(yīng)作為評判產(chǎn)品缺陷的技術(shù)參考。
最后,作為前述考量的補充,若人形機器人的技術(shù)標(biāo)準(zhǔn)明顯滯后于行業(yè)發(fā)展水平,導(dǎo)致設(shè)計局限性顯著,且技術(shù)標(biāo)準(zhǔn)低于“合理的替代測試”,監(jiān)管機構(gòu)應(yīng)當(dāng)更新完善技術(shù)標(biāo)準(zhǔn),以提升人形機器人產(chǎn)品的安全性。司法機構(gòu)也可以借鑒合理的測試標(biāo)準(zhǔn),確定責(zé)任方存在過錯,據(jù)此承擔(dān)賠償責(zé)任。換句話說,通過建立健全的責(zé)任管理體系,自主安全悖論可以被有效規(guī)避。
綜上所述,構(gòu)建我國人形機器人侵權(quán)責(zé)任體系,應(yīng)基于三個核心原則:漢德責(zé)任公式、合理的替代測試標(biāo)準(zhǔn)和鏈?zhǔn)截?zé)任治理原則。漢德公式強調(diào),通過成本效益分析實現(xiàn)責(zé)任的公平和合理分配,依據(jù)責(zé)任主體對風(fēng)險的控制能力及其行為對損害發(fā)生的影響程度來確定責(zé)任的大小。這一原則不僅有助于從個體追責(zé)向社會風(fēng)險防范轉(zhuǎn)變,還能促進法律的公正性、合理性和適用性。通過這一框架,法律能夠更加科學(xué)地平衡個體責(zé)任與社會利益,確保責(zé)任分配既符合實際風(fēng)險,又能體現(xiàn)社會公共利益。合理的替代測試標(biāo)準(zhǔn)取代了傳統(tǒng)的消費者期望測試標(biāo)準(zhǔn),更加注重產(chǎn)品設(shè)計和制造過程中的合理性和可行性,強調(diào)是否存在可以避免潛在危險和損害的替代設(shè)計或技術(shù)路徑。這一標(biāo)準(zhǔn)的采用有助于平衡技術(shù)創(chuàng)新和產(chǎn)品安全,同時保護用戶權(quán)益。鏈?zhǔn)截?zé)任治理原則旨在建立一個明確的責(zé)任順序,首先通過保險機制賠償損失,其次由過錯方承擔(dān)超出保險限額的損失,最后由制造商在非疏忽事故中承擔(dān)剩余責(zé)任。此外,制造商可以主張發(fā)展風(fēng)險例外抗辯,而監(jiān)管和司法機構(gòu)應(yīng)根據(jù)技術(shù)發(fā)展適時更新技術(shù)標(biāo)準(zhǔn)。
結(jié)語
盡管哲學(xué)家普遍認為要求人形機器人作為法律主體承擔(dān)責(zé)任是不切實際的,但一系列實證研究表明,在某些情況下,公眾確實會將責(zé)任歸咎于人工智能系統(tǒng)和機器人。這一現(xiàn)象令人不安:人類的責(zé)任可能從人工智能系統(tǒng)的所有者、用戶或設(shè)計者被轉(zhuǎn)移到系統(tǒng)本身,從而削弱了人類應(yīng)承擔(dān)的責(zé)任。這種困窘現(xiàn)象預(yù)示著現(xiàn)行法律概念和框架難以有效應(yīng)對人形機器人可能引發(fā)的責(zé)任分配問題。然而,人形機器人等新技術(shù)的發(fā)展很大程度上取決于法律的確定性,特別是使用人形機器人所引起的損害責(zé)任分配相關(guān)的法律。面對這一挑戰(zhàn),我們需要重新審視和完善現(xiàn)有的法律制度,以充分平衡人形機器人技術(shù)發(fā)展與公民基本權(quán)益保障的齟齬。本文通過三個原則的有機結(jié)合,形成綜合性治理框架,試圖為我國人形機器人侵權(quán)責(zé)任體系的構(gòu)建提供一般性理論框架。當(dāng)然,人形機器人涉及的侵權(quán)場景和侵權(quán)標(biāo)的眾多,包括財產(chǎn)權(quán)、人身權(quán)、知識產(chǎn)權(quán)等,其侵權(quán)構(gòu)成要件也各不相同,如何細化規(guī)制上述問題,需要在未來結(jié)合實踐對不同權(quán)益進行更加深入的研究。