張建文 賈章范
摘要:無人駕駛汽車對以駕駛?cè)藛T主觀過錯為基礎的機動車交通事故責任產(chǎn)生了顛覆性影響,但其精密的人造物屬性和“社會允許的發(fā)展風險”的特征亦為產(chǎn)品責任和高度危險責任的適用提供了理論基礎。在現(xiàn)行交叉管理的行政體制下,我國不妨設立國家智能汽車創(chuàng)新發(fā)展領導小組,改革駕駛?cè)藛T資格制度和累積記分制度,為無人駕駛汽車安裝“黑匣子”并建立省級“黑匣子”分析中心,通過“雙保險”制度和賠償基金并行的方式實現(xiàn)國家監(jiān)管、技術創(chuàng)新與受害人救濟的綜合平衡。
關鍵詞:人工智能;無人駕駛汽車;歸責原則;法律應對
中圖分類號:D922.294文獻標識碼:A文章編號:1673-8268(2018)04-0031-07
一、問題的提出
2018年3月20日,優(yōu)步公司的無人駕駛汽車在美國亞利桑那州因未識別出橫穿車道的行人伊蓮·赫茲伯格而致其死亡。美國國家公路交通安全管理局(NHTSA)和國家運輸安全委員會(NTSB)隨后成立專案小組介入調(diào)查,優(yōu)步亦暫時中止其無人駕駛汽車項目[1]。從谷歌無人駕駛汽車與公交車發(fā)生碰撞[2]到特斯拉Models致車主約書亞·布朗死亡[3],再到奔馳汽車定位巡航系統(tǒng)失靈狂奔120公里[4],直至全球首例無人駕駛汽車致行人死亡案件,無人駕駛汽車在給人們帶來對未來社會美好憧憬的同時,亦引發(fā)了社會公眾對無人駕駛汽車安全性和可靠性的質(zhì)疑。
毫無疑問,無人駕駛汽車在緩解交通擁堵、減少環(huán)境污染、構建智慧城市等方面具有重要的社會價值,其背后亦隱藏著世界各國爭搶人工智能時代技術制高點和國際話語權的大國博弈,但無人駕駛汽車對駕駛?cè)藛T的取代仍有可能對以駕駛?cè)藛T主觀過錯為基礎的機動車交通事故責任體系造成顛覆性的影響,甚至引發(fā)人類能力退化[5]和社會單向度發(fā)展[6]的焦慮。然而,在無人駕駛汽車產(chǎn)業(yè)方興未艾之時,最直接和重要的挑戰(zhàn)則來自于無人駕駛汽車侵權后的責任認定和損害填補,通過合理的制度構建內(nèi)化產(chǎn)業(yè)發(fā)展過程中溢出的負外部性風險,以期實現(xiàn)技術創(chuàng)新、填補損害和有效監(jiān)管的綜合平衡。二、制度困境:無人駕駛汽車與現(xiàn)行法律體系的沖突無人駕駛汽車作為人工智能時代的典型產(chǎn)物,依靠信息采集系統(tǒng)收集的“數(shù)據(jù)血液”和深度學習算法組成的“智慧大腦”,能夠在運行自動化的基礎上實現(xiàn)遠距離運輸之目的,在某種程度上可能導致駕駛?cè)藛T的集體消亡。聯(lián)合國歐洲經(jīng)濟委員會于2016年公布的《維也納道路交通公約》明確肯定了無人駕駛技術在交通運輸領域的適用[7],以駕駛員主觀過錯為基礎的責任承擔體系亦會隨著無人駕駛系統(tǒng)的普及而重新進行梳理和構建,工具理性和價值判斷[8]相融合的無人駕駛汽車對現(xiàn)行法律體系的挑戰(zhàn)已然迫在眉睫。
(一)與駕駛資格制度相齟齬
根據(jù)現(xiàn)行的《道路交通安全法》和《機動車駕駛證申領和使用規(guī)定》(公安部第71號令),申領機動車駕駛證應符合特定的年齡條件和身體條件,在不違反禁止性申領條件的基礎上通過機動車駕駛考試方能取得機動車駕駛資格。傳統(tǒng)的機動車輛完全依賴于駕駛?cè)藛T的機械控制,且由于駕駛行為本身內(nèi)含特定的危險性而關乎公共安全,世界各國無不對駕駛員資格制度進行了具體而詳細的強制性規(guī)定,以期通過嚴格的資格準入防范因駕駛技術的不足而危及公共安全的行為。
但無人駕駛汽車擺脫了對駕駛?cè)藛T的技術依賴,憑借自動駕駛系統(tǒng)和數(shù)據(jù)采集系統(tǒng)即可實現(xiàn)安全運行的目的,不再需要特定的年齡條件和資格許可制度。換言之,無人駕駛汽車對傳統(tǒng)駕駛?cè)藛T的取代將使得駕駛資格制度退出歷史舞臺,只要具備特定程度的認知能力和操作能力即可成為無人駕駛汽車的操作者。但這并不意味著任何人在任何條件下均可對無人駕駛汽車進行操作,由于無人駕駛汽車在某種程度上仍具有危險品的性質(zhì),須以操作者具備特定程度的認知能力、行為能力和理解能力為必要條件。
(二)責任主體難以確定
侵權行為,指因不法侵害他人的權益,依法律規(guī)定,應對所生損害負賠償責任的行為[9]。在損害發(fā)生的基礎上,責任主體的確定具有至關重要的作用,其不僅關系到損害填補與受害人救濟,而且涉及到損害的分擔和可歸責性的探討,甚至影響著《侵權責任法》威懾與譴責功能的實現(xiàn)。
無人駕駛汽車產(chǎn)業(yè)不僅涉及自動駕駛系統(tǒng)的開發(fā)者、精密地圖的測繪者、汽車的生產(chǎn)者與銷售者、產(chǎn)品的消費者等諸多主體,還與無人駕駛汽車本身的系統(tǒng)開放性和高度自主性緊密相關。除了上述主體復雜的利益博弈,難以避免的系統(tǒng)漏洞、數(shù)據(jù)采集的不完整性、遭受黑客攻擊等原因也有可能導致無人駕駛汽車自動化決策錯誤。更為復雜的是,無人駕駛汽車通過深度學習算法和大數(shù)據(jù)分析功能而具備一定程度的自主性,能夠脫離原有的程序設計而不斷從行駛經(jīng)驗中進行學習,其高度自主性的背后可能隱藏著行為的不可預測性[10]和損害的難以歸責性[11]。值得注意的是,無人駕駛系統(tǒng)的本質(zhì)是由復雜的數(shù)學算法組成的人工智能駕駛系統(tǒng),其外觀與傳統(tǒng)的交通工具并無實質(zhì)差別,其本身的工具屬性決定了其在人物二分的民法視角下只能被納入物的范疇,且難以應對極具解釋張力的價值判斷與價值選擇,絕不可能成為責任主體而獨立承擔責任。
(三)與創(chuàng)構論因果觀相矛盾
在《侵權責任法》領域,因果關系亦經(jīng)歷了從實在論到描述論再到創(chuàng)構論的轉(zhuǎn)變。無人駕駛汽車通過自身的信息收集系統(tǒng)和網(wǎng)絡平臺海量的數(shù)據(jù)存儲自主作出行駛決策,而信息的數(shù)據(jù)化使因果關系量化獲得關系強度和正負性質(zhì)的同時,喪失了原有的必然性和方向性[12]。數(shù)據(jù)作為0和1的組合而表現(xiàn)出來的比特形式[13],不僅受制于信息載體的內(nèi)容,亦會隨著數(shù)據(jù)的不斷累積而呈現(xiàn)出某種較為清晰的發(fā)展趨勢,這也是大數(shù)據(jù)在發(fā)現(xiàn)和探尋規(guī)律時的基礎應用。但這是在消耗特定數(shù)據(jù)獨特性的基礎上而獲得的整體優(yōu)勢,使得特定的侵害行為與損害結果之間的因果關系趨于模糊而難以對主體進行歸責。
因果關系作為侵權人承擔民事責任的必要條件,應凸顯違法行為引發(fā)損害事實的客觀性[14]。在否定了無人駕駛汽車承擔民事責任的主體資格的同時,無人駕駛汽車通過深度學習而突破原有的程序設計和因自動化決策錯誤產(chǎn)生的損害也切斷了損害結果與特定主體的因果關系。責任主體本身的難以確定與因果關系趨于模糊相結合極易導致被害人陷于求助無門之困境,但在切斷因果關系的前提下,對特定主體進行客觀歸責而不考慮其主觀有責性亦不符合意思自治和自己責任之原則,為避免利益沖突的博弈主體陷入“零和困境”,亟須通過創(chuàng)構論因果觀確定相當性的責任標準。
(四)個人信息泄露的風險增大
在大數(shù)據(jù)和人工智能的時代背景下,個人信息承載著人格利益、商業(yè)利益和公共管理等多重價值,個人敏感信息的強化保護與國家基于公共管理目的之利用[15]應得到足夠的重視與肯定,但這并不意味著個人信息的一般性商業(yè)利用和經(jīng)營者去個人化的資料處理成為不受法律約束和保護的監(jiān)管盲區(qū)。究其原因,仍在于個人信息的數(shù)據(jù)化成為人工智能時代的“工業(yè)石油”,個人信息的自主決定權[16]與一般信息的商業(yè)化利用的背后隱藏著數(shù)據(jù)保護與信息流通的邏輯悖論,個人信息泄露的風險亦隨之擴大。
無人駕駛汽車需借助精密的地圖導航系統(tǒng)、強大的信息采集系統(tǒng)和高度智能的分析決策系統(tǒng),在高速運行的過程中必須時刻關注外界的風吹草動方能保證機動車運行的安全性。但位置信息、行車軌跡、乘車時間等點滴記錄的數(shù)據(jù)反復疊加即可拼湊出特定主體的日常生活軌跡,再加上無人駕駛汽車本身依賴不同主體的數(shù)據(jù)共享,個人從單純的信息接收主體變?yōu)閿?shù)據(jù)生產(chǎn)、數(shù)據(jù)接收與數(shù)據(jù)消費共同融合的新型角色,數(shù)字化生存[17]境遇下的個人信息泄露的風險亦隨之增大。值得注意的是,無人駕駛汽車自身的媒介屬性蘊含著極為重要的商業(yè)價值,海量的數(shù)據(jù)搜集和大數(shù)據(jù)的挖掘分析使預測性結果[18]的探尋成為可能,也容易使其成為黑客攻擊的對象而導致個人信息泄露。三、制度張力:特殊侵權類型的擴張適用融合了大數(shù)據(jù)分析和自動化決策的無人駕駛汽車極大地沖擊了《侵權責任法》對侵權主體、主觀過錯、因果關系等內(nèi)容的制度性安排,但無人駕駛汽車在非通用型人工智能階段造成的損害仍可通過《侵權責任法》自身的邏輯張力和制度安排進行擴張性解釋,通過類比的方法實現(xiàn)技術創(chuàng)新與制度穩(wěn)健的平衡和協(xié)調(diào)。具體而言,無人駕駛汽車導致的損害直觀地反映為機動車交通事故責任,也因其精密的人造物屬性而與產(chǎn)品責任密切相關,還有可能被視社會發(fā)展允許的風險而與高度危險責任具有一定的相關性。
(一)機動車交通事故責任
無人駕駛汽車是傳統(tǒng)汽車產(chǎn)業(yè)轉(zhuǎn)型升級的新方向,其外觀設計、歷史沿革、損害結果均與傳統(tǒng)的機動車輛具有極強的相似性,其損害責任的承擔與機動車交通事故具有較強的可類比性。但無人駕駛汽車最為顯著的特征即為對駕駛?cè)藛T的消減和替代,通過駕駛程序的自動化運行而實現(xiàn)運輸之目的,這同樣意味著以駕駛?cè)藛T主觀過錯為基礎的二元歸責體系[19]可能難以適用于無人駕駛汽車侵權責任的認定。
法定的注意義務是認定過錯的基本標準[20],在滿足當事人主觀可歸責性的基礎上尚須在客觀上違反了注意義務。將人類從枯燥煩悶的長距離駕駛中解放出來是無人駕駛汽車的核心價值,若對操作人課予注意義務,不僅大大限縮了操作者的主體資格范圍,亦無法實現(xiàn)無人駕駛汽車將駕駛?cè)藛T從繁重的駕駛?cè)蝿罩杏枰越夥诺臍v史使命。更重要的是,注意義務的邊界可能會因人為接管問題變得難以確定。在無人駕駛汽車的行駛過程中,何時進行人為干預、如何進行人為干預、人為干預的程度以及是否需要操作者具備特定的駕駛能力等均是亟須回應的問題。然而,若不對操作人員課予法定的注意義務,以預見可能性為中心的結果無價值型過失理論[21]便不存在適用的基礎和前提,對無人駕駛汽車操作者的追責亦喪失了正當性的依據(jù)。無論是否對無人駕駛汽車的操作者課予注意義務,均容易陷入技術目的與法律手段、主觀過錯與責任承擔的邏輯悖論,究其原因,仍在于無人駕駛對駕駛?cè)藛T的削減與代替使得以駕駛?cè)藛T主觀過錯為基礎的責任體系不具有可適用性。
(二)產(chǎn)品責任
在否定了無人駕駛汽車獨立承擔民事責任的基礎上,以駕駛?cè)酥饔^過錯為基礎的機動車交通事故責任亦因駕駛?cè)藛T的取代而不具有可行性,但無人駕駛汽車精密的人造物屬性為產(chǎn)品責任的適用留下空間。隨著傳統(tǒng)的汽車生產(chǎn)者向“技術+制造商+出行服務”的“三維一體”[22]模式轉(zhuǎn)型,無人駕駛汽車的生產(chǎn)者在獲得最大化市場價值的同時亦具備了損害負擔的能力。從風險控制的角度而言,排除故意破壞、黑客攻擊等可歸責于其他主體的因素,無人駕駛汽車的損害來自于自動駕駛系統(tǒng)難以避免的系統(tǒng)漏洞和因數(shù)據(jù)采集不完整而導致的自動化決策錯誤。而掌握核心技術的生產(chǎn)者作為風險的基本來源,具有較強的風險掌控能力,亦能通過集中化解風險的手段抽調(diào)出更多的社會資源。在追求利益最大化和損害最小化的過程中,社會整體亦會因事故的減少和技術的精進而獲得最大化的效益。在社會生活層面,由生產(chǎn)者承擔責任的方式能夠得到較為充分的實踐支撐,在客觀上具有較強的可行性。美國國家公路交通安全管理局(NHTSA)于2016年3月明確表示,谷歌無人駕駛汽車符合聯(lián)邦法律,且其司機是自動駕駛系統(tǒng),而非車主本人[23]。沃爾沃(Volvo)公司亦宣布對無人駕駛汽車的損害承擔責任。人工智能產(chǎn)品雖具備特定程度的自主性,但其來源于工程師和制造者的程序設計,且其智能限定于特定的應用場景,產(chǎn)品責任模式規(guī)避了人工智能主體資格的討論,能夠從反面角度對其可行性進行證成。
但《產(chǎn)品責任法》第四十一條規(guī)定了生產(chǎn)者在“產(chǎn)品投入流通時,引起損害的缺陷尚不存在”和“將產(chǎn)品投入流通時的科學技術水平尚不能發(fā)現(xiàn)缺陷的存在”等情形下的免責條款,無人駕駛汽車的大數(shù)據(jù)分析功能和自動化決策功能可能導致?lián)p害的不可預測性,但這并不影響生產(chǎn)者責任承擔的可行性。首先,發(fā)展風險的抗辯應符合消費者合理期待標準之核心要素[24],無論何種產(chǎn)品均應符合特定的質(zhì)量標準和性能,至少符合消費者對產(chǎn)品質(zhì)量和產(chǎn)品安全合理標準的期待,不能把發(fā)展風險當做自身拒絕承擔責任的借口。其次,隨著傳統(tǒng)汽車產(chǎn)業(yè)“三維一體”的結構重組,出行服務可能成為消費者與汽車生產(chǎn)者最核心的關系紐帶,提供安全的出行服務將成為合同履行的應有之義。最后,因系統(tǒng)漏洞或數(shù)據(jù)采集不完整等原因?qū)е碌牟豢深A測性風險可以作為無人駕駛汽車產(chǎn)業(yè)內(nèi)在的風險成本,溢出的負外部性風險可以通過生產(chǎn)者擔責的方式進行內(nèi)化,以期為受害者的救濟提供更為安全的基本保障。
(三)高度危險責任
高度危險責任起源于德國1838年公布的《普魯士鐵路企業(yè)法》中明確規(guī)定的“容易致人損害的企業(yè),雖企業(yè)主毫無過失,亦不得以無過失為免除賠償?shù)睦碛伞盵25]。作為危險性產(chǎn)業(yè)的專用法律術語,高度危險責任的目的在于協(xié)調(diào)現(xiàn)代社會發(fā)展而出現(xiàn)的高度危險作業(yè)的必要性與社會公眾生產(chǎn)、生活安全之間的矛盾。高度危險責任伴隨著現(xiàn)代社會發(fā)展與轉(zhuǎn)型而不斷增大,一般條款與具體列舉相結合 [26]的立法結構使得《侵權責任法》在對特殊侵權類型抽象的基礎上保持自身的開放性,通過自身的制度張力和邏輯建構不斷應對社會變遷對法律滯后性的挑戰(zhàn)。
無人駕駛汽車對社會發(fā)展具有極其重要的積極意義,可以被視為“被允許的社會風險”納入高度危險責任規(guī)制范疇,并通過一般性條款的擴張解釋達到法律解釋和體系化的功能[27]。另外,無人駕駛汽車雖然能夠極大地降低交通事故的發(fā)生概率,但高度危險責任的判斷標準并不在于危險發(fā)生的概率和可能性,而更多地關注預防事故的成本與發(fā)生事故的損失以及重新修復所耗費的成本。從活動風險和利益分布的角度[28]理解,在擺脫了人為干預的情形下,無人駕駛汽車事故的發(fā)生主要是由于自動駕駛系統(tǒng)的高度智能性,對操作者科以較高的注意義務并不能有效規(guī)避風險的發(fā)生或減少損害的發(fā)生。更為重要的是,無人駕駛汽車通過深度學習和大數(shù)據(jù)分析而具備的自動化決策功能,有可能突破原有程序設計而導致風險的不可預測性,但這正契合高度危險責任產(chǎn)生的理論基礎,也體現(xiàn)了民法對技術發(fā)展導致的風險采取的包容性和預防性態(tài)度。
綜合上述分析,無人駕駛汽車對駕駛?cè)藛T的消減與替代極大地沖擊了以駕駛?cè)藛T主觀過錯為基礎的機動車交通事故責任體系,但其精密的人造物屬性和自動化決策系統(tǒng)導致的風險不可預測性為產(chǎn)品責任和高度危險責任的適用預留了制度空間。具體而言,在不可歸責于外界因素的情形下,因無人駕駛汽車自身的質(zhì)量問題而導致的交通事故可通過產(chǎn)品責任的適用予以解決,隱藏在深度學習和自動化決策背后的不可預測性風險則可以通過高度危險責任予以解決。值得注意的是,雖然產(chǎn)品責任和高度危險責任都將責任承擔的最終主體指向了無人駕駛汽車的生產(chǎn)者,但產(chǎn)品責任更多地是基于產(chǎn)品自身的瑕疵或操作系統(tǒng)的漏洞等原因而具有可歸責性,且能夠在特定情形下適用懲罰性賠償,而深度學習和自動化決策本身導致不可預測性更多地適用于限定賠償數(shù)額的高度危險責任,以期更好地平衡技術創(chuàng)新與損害填補之間的矛盾。四、風險預防:因應性制度的構建與展開無人駕駛技術為當代中國汽車產(chǎn)業(yè)升級和經(jīng)濟模式轉(zhuǎn)型 [29]帶來了巨大的時代機遇,也為我國搶占人工智能時代技術制高點奠定了堅實的產(chǎn)業(yè)基礎,更為我國爭奪國際話語權和標準制定權提供了技術支持和制度支撐。面對無人駕駛技術對現(xiàn)行法律體系的種種沖擊,不妨借鑒域外先進的立法經(jīng)驗,從風險預防角度[30]制定統(tǒng)一的技術標準,采取妥當?shù)念A防性監(jiān)管措施,并改革現(xiàn)行的駕駛員資格制度,創(chuàng)建新的累積記分制度,在安裝“黑匣子”的基礎上建立省級的“黑匣子”分析中心,搭建產(chǎn)品責任保險與機動車強制責任保險并行的“雙保險”體系。
(一)監(jiān)管主體:權責統(tǒng)一的監(jiān)管機構
布魯金斯學會于2016年9月發(fā)布的《向前行駛:自動駕駛汽車在中國、歐洲、日本、韓國和美國的發(fā)展情況》報告明確指出:“中國自動駕駛汽車的關鍵在于制定國家層面的自動駕駛汽車政策框架,需要進一步明確監(jiān)管部門和監(jiān)管方式?!痹跓o人駕駛技術快速發(fā)展的時代背景下,多部委交叉監(jiān)管的模式極易導致創(chuàng)新項目的審批和許可被擱置而空耗時日,亟須權責統(tǒng)一、分工明確的領導小組進行統(tǒng)一的規(guī)劃和指引。國家發(fā)展和改革委員會于2018年1月5日發(fā)布的《智能汽車創(chuàng)新發(fā)展戰(zhàn)略(征求意見稿)》將國家智能汽車創(chuàng)新發(fā)展領導小組的成立作為加強組織實施的關鍵步驟,統(tǒng)籌安排全局性工作并審議研究重大問題。北京市交通委員會聯(lián)合北京市公安交通管理局、北京市經(jīng)濟和信息化委員會等部門于2017年12月15日發(fā)布的《北京市自動駕駛車輛道路測試管理實施細則(試行)》亦把自動駕駛測試管理機構作為自動駕駛汽車測試和運行的管理和審批機構。
但上述兩個文件均未對監(jiān)管主體進行具體詳細的職責分工,因此不妨借鑒美國國家公路交通安全管理局(NHTSA)于2017年9月發(fā)布的《自動駕駛系統(tǒng)2.0——安全愿景》(Automated Driving System 2.0: A Vision for Safety)中對美國國家公路交通安全管理局在無人駕駛汽車發(fā)展過程中的政府定位與監(jiān)管措施的詳細規(guī)定。具體而言,提供“技術中立”的市場環(huán)境,汽車制造經(jīng)驗與新技術的達標與否不具有直接相關性,不得排斥其他符合條件的主體進入無人駕駛領域的市場競爭,防止為技術創(chuàng)新和市場繁榮帶來不必要的負擔;提供駕駛執(zhí)照許可和登記注冊程序是各州政府的法定義務,應當對所有的無人駕駛汽車進行注冊和登記,并要求相關實體和測試者以擔保債券或自我保險的形式確定財務責任的要求;制定報告和溝通機制來實現(xiàn)測試者與公共安全機構、其他道路使用者和社會公眾的溝通與協(xié)調(diào),記錄交通道路事故;審查可能阻礙無人駕駛汽車運營的交通法律法規(guī),防止不必要的監(jiān)管阻礙無人駕駛汽車的發(fā)展。
(二)改革駕駛資格制度和累積記分制度
隨著無人駕駛汽車對駕駛?cè)藛T的取代,以駕駛?cè)藛T主觀過錯為基礎的機動車交通事故責任體系亦會隨之變動,無人駕駛汽車導致的交通事故責任更有可能向產(chǎn)品責任進行轉(zhuǎn)移。這意味著對駕駛?cè)藛T資格的限制不再成為必要,具備了特定的識別能力和理解能力的自然人均可成為無人駕駛汽車的操作者,而無需對操作者的年齡條件、身體條件和操作技術設置過高的門檻。另外,現(xiàn)行累積記分制度主要通過行政處罰的方式來促使駕駛?cè)藛T加強注意義務,因此無人駕駛汽車的運行需要更為獨特的累積記分制度[31]。在適用對象上,累積記分制度的約束對象是無人駕駛汽車本身而非操作者,以便查驗自動駕駛系統(tǒng)的完整性和駕駛行為的正確性。與現(xiàn)行記分制度相比,無人駕駛汽車的總體分值應適用更為嚴格的記分制度,并在發(fā)生扣分的情形時,同時通知無人駕駛汽車的生產(chǎn)者和操作者,以便生產(chǎn)者進行故障的檢修和排除,操作者能夠及時發(fā)現(xiàn)車輛本身存在的問題而作出相應的變動措施。
(三)安裝汽車“黑匣子”并建立省級“黑匣子”分析中心
無人駕駛汽車的核心在于自動駕駛系統(tǒng)以“智慧大腦”的形式對“數(shù)據(jù)血液”進行分析并發(fā)出執(zhí)行程序,在不需要人為機械控制的情形下實現(xiàn)汽車運行的自動化。數(shù)據(jù)的采集、分析和利用對無人駕駛汽車的運行具有極為重要的作用,不僅能夠?qū)崿F(xiàn)汽車運行的全過程記錄,還能對特定位置交通事故發(fā)生的概率進行統(tǒng)計和分析,更能在發(fā)生交通事故之后進行證據(jù)的保存和場景的還原。通過安裝汽車“黑匣子”,所有的無人駕駛汽車都縮小為大數(shù)據(jù)時代的一個信息結點,不斷向外發(fā)散的信息能夠匯總成特定時期我國的人口流動、信息流動、財富流動的整體趨勢,也能通過交通事故的智能化分析對易發(fā)生交通事故的地點進行改造和重整,還能在事故發(fā)生后及時通知交通管理機關、醫(yī)療援助機構和保險理賠組織,通過風險事先預防和事故迅速處理機制最大程度地減少交通事故帶來的社會損失。
但數(shù)據(jù)的記錄通常隱藏著個人的私生活信息,容易因黑客攻擊、系統(tǒng)故障等原因造成個人信息的泄露和隱私權的侵犯,且以二進制的比特形式的信息具有極強的專業(yè)性,導致個人難以在事故發(fā)生后得到專業(yè)權威的鑒定報告。因此,不妨建立省級黑匣子分析中心[32],通過公權力介入的方式對隱私權和個人信息進行嚴密保護,采取更為專業(yè)的技術防護減少遭受黑客攻擊的可能性,并能保證譯碼分析技術的公正性,在準確還原事故發(fā)生的基礎上得到更為全面的客觀的事故報告,更能借助大數(shù)據(jù)和人工智能技術有效降低國家的安全防控成本和數(shù)據(jù)統(tǒng)計成本。
(四)“雙保險”制度和賠償基金并行
雖然由生產(chǎn)者承擔無人駕駛汽車導致的損害具有較為妥當?shù)睦碚摶A和實踐經(jīng)驗的支撐,但由社會整體負擔的分散技術風險的“深口袋”(deep pocket)亦值得探索和追尋。強制責任保險是基于公共利益政策考量的特殊保險[33],以犧牲意思自治為代價換取了對第三人利益的特別保護和社會效益的最大化,生產(chǎn)者亦能通過強制保險制度分散自身的經(jīng)營風險。
在無人駕駛領域,因非人為因素導致的損害負擔應通過風險最小化的方式進行解決,機動車強制責任保險和產(chǎn)品責任強制保險應被納入立法考量的范疇,通過強制保險的方式為救濟受害人、分散經(jīng)營風險、維護社會穩(wěn)定提供較為妥善的制度保障。歐洲議會于2017年2月16日通過的《機器人民事法律規(guī)則》(以下簡稱《規(guī)則》)明確將強制性保險計劃納入解決機器人導致的民事責任的范疇,并考慮在強制保險無法覆蓋的情形下,通過專有的基金項目進行補充。具體而言,強制保險計劃主要為機器人所有可能造成的損害投保,并設立賠償基金來解決保險無法涵蓋的損害,亦呼吁保險業(yè)積極開發(fā)符合技術進步的新產(chǎn)品。為鼓勵制造者、程序員、所有者或使用者等主體積極加入強制保險計劃,《規(guī)則》為已向賠償基金捐款的主體設置了有限責任,并考慮為所有智能機器人創(chuàng)設一個普通基金或為每一個機器人創(chuàng)設單獨基金。無人駕駛汽車的機動車強制責任保險和產(chǎn)品責任保險并行制度與其類似,將無人駕駛汽車的生產(chǎn)者和所有者都納入風險負擔的范疇,在個體努力化解自身風險的同時實現(xiàn)社會整體利益的最大化。
五、結語
無人駕駛汽車產(chǎn)業(yè)的蓬勃發(fā)展為人類社會勾勒出人工智能時代的美好藍圖,但其對駕駛?cè)藛T的取代將直接沖擊以駕駛?cè)藛T主觀過錯為基礎的責任體系,在無人駕駛汽車頻頻發(fā)生交通事故的現(xiàn)實情形下,具體而詳細的制度構建成為必要。但這只是從《侵權責任法》角度對無人駕駛汽車造成的損害進行簡單的制度回應,即將來臨的人工智能時代將以更為激烈的方式?jīng)_擊著現(xiàn)行的法律體系、倫理體系和社會結構,亦須從更為廣闊的視角下進行規(guī)則的調(diào)整和理論的構建。
參考文獻:
[1]龔夢澤.自動駕駛首起命案優(yōu)步擔責 專家稱無人駕駛運用十年內(nèi)難落地[N].證券日報,2018-03-21(C02).
[2]劉佳.剛當上“司機”就撞了!谷歌首次承認無人車擔責[N].第一財經(jīng)日報,2016-03-02(A08).
[3]張燕.無人駕駛不能行進在法律“盲區(qū)”[N].重慶日報,2017-07-12(7).
[4]王欣.奔馳“失控”迷云:智能駕駛背后的反思[N].21世紀經(jīng)濟報道,2018-03-20(18).
[5]張玉潔.論無人駕駛汽車的行政法規(guī)制[J].行政法學研究,2018(1):69.
[6]刁生富,王吟.無人駕駛汽車焦點問題與社會治理探析[J].中國統(tǒng)計,2017(9):58.
[7]劉武俊.為無人駕駛汽車系上法律安全帶[N].證券時報,2018-01-19(A03).
[8]張婷婷.科技、法律與道德關系的司法檢視——以“宜興胚胎案”為例的分析[J].法學論壇,2016(1):138.
[9]王澤鑒.侵權行為[M].3版.北京:北京大學出版社,2016:67.
[10]司曉,曹建峰.論人工智能的民事責任:以自動駕駛汽車和智能機器人為切入點[J].法律科學(西北政法大學學報),2017(5):167.
[11]曹劍鋒.人工智能:機器歧視與應對之策[J].信息安全與通信保密,2016(12):17.
[12]王天思.大數(shù)據(jù)中的因果關系及其哲學內(nèi)涵[J].中國社會科學,2016(5):41.
[13]梅夏英.數(shù)據(jù)的法律屬性與民法定位[J].中國社會科學,2016(9):167.
[14]楊立新.侵權損害賠償[M].5版.北京:法律出版社,2010:96.
[15]張新寶.從隱私到個人信息:利益再衡量理論與制度安排[J].中國法學,2015(3):59.
[16]謝遠揚.信息論視角下個人信息的價值——兼對隱私權保護模式的探討[J].清華法學,2015(3):97.
[17]張建文.隱私權的現(xiàn)代性轉(zhuǎn)向與對公權力介入的依賴[J].社會科學家,2013(6):11.
[18]邵國松,黃琪.人工智能中的隱私保護問題[J].現(xiàn)代傳播,2017(12):4.
[19]李新天,印通.論機動車交通事故責任的賠償主體[J].時代法學,2014(12):22.
[20]吳祖祥.論醫(yī)療技術過錯——以醫(yī)療技術損害責任的法律適用為視角[J].東岳論叢,2011(3):168.
[21]楊劍鋒.結果無價值型過失論在汽車自動駕駛時代的展開——以交通肇事罪為切入[C]//李曙光.法大研究生:第1輯.北京:中國政法大學出版社,2017:93.
[22]高奇琦.共享智能汽車對未來世界的影響[J].學術前沿,2017(10):47.
[23]張?zhí)锟?智能駕駛汽車立法當加快[N].中國婦女報,2017-07-18(B03).
[24]賀琛.我國產(chǎn)品責任法中發(fā)展奉獻抗辯制度的反思與重構[J].法律科學(西北政法大學學報),2016(3):135.
[25]李顯東.侵權責任法[M].北京:北京大學出版社,2014:266.
[26]周友軍.我國危險責任一般條款的解釋論[J].法學,2011(4):152.
[27]王利明.論高度危險責任一般條款的適用[J].中國法學,2010(6):156.
[28]唐超.論高度危險責任的構成——《侵權責任法》第69條的理解與適用[J].北方法學,2017(4):81.
[29]鄭戈.人工智能與法律的未來[J].探索與爭鳴,2017(10):78.
[30]吳漢東.人工智能時代的制度安排與法律規(guī)制[J].法律科學(西北政法大學學報),2017(5):128.
[31]陳曉林.無人駕駛汽車對現(xiàn)行法律的調(diào)整及應對[J].理論學刊,2016(1):130-131.
[32]陳曉林.無人駕駛汽車致人損害的對策研究[J].重慶大學學報(社會科學版),2017(4):83.
[33]郭峰,胡曉柯.強制責任保險研究[J].法學雜志,2009(5):45.
Abstract:Driverless cars have a disruptive effect on motor vehicle accident liability based on the subjective fault of the driver, but their precise man-made attributes and “socially-allowed development risks” also provide theoretical basis for product liability and high risk liability. Under the current cross-administrative system, the National Leading Group of Intelligent Vehicle Innovation and Development may be established to reform the driver qualification system and accumulative scoring system, install “black box” for driverless cars and establish a provincial “black box” analysis center. The parallel approach of “double insurance” system and the compensation fund achieve a comprehensive balance between state supervision, technological innovation, and victim relief.
Keywords:artificial intelligence; driverless car; imputation principle; legal response(編輯:劉仲秋)