□鄭志峰
內(nèi)容提要 相較于機動車交通事故責任,產(chǎn)品責任在解決自動駕駛汽車責任分擔方面更具共識與優(yōu)勢,既高度契合自動駕駛汽車的事故特點,又可以直接督促生產(chǎn)者一方提高產(chǎn)品安全性能,并且能夠更好地救濟受害人和分散風險。自動駕駛汽車產(chǎn)品缺陷的認定面臨技術與法律層面的諸多障礙,當前并無成熟的技術標準可供適用,而消費者期待標準與風險效用標準也各自存在適用困境。理性算法標準將注意義務對準自動駕駛系統(tǒng)本身,充分挖掘產(chǎn)品設計缺陷背后的過失屬性,契合自動駕駛汽車的技術特征,增加了受害人救濟的可能,同時也稀釋了產(chǎn)品缺陷的負面評價,可以很好地緩解設計缺陷的認定難題。理性算法標準的適用需要區(qū)分不同階段的自動駕駛汽車、不同類型的危險,同時應從功能安全、預期功能安全以及網(wǎng)絡和數(shù)據(jù)安全三方面更新技術標準,完善生產(chǎn)者一方的警示義務與跟蹤觀察義務。
近年來,自動駕駛汽車在全球范圍日益頻繁地上路測試,相關法律法規(guī)配套也日益完善,自動駕駛汽車大規(guī)模商用化指日可待。2022 年8 月8日,交通運輸部發(fā)布《自動駕駛汽車運輸安全服務指南(試行)(征求意見稿)》征求公眾意見,鼓勵和規(guī)范自動駕駛汽車在運輸領域應用。2022 年10月28 日,工業(yè)和信息化部發(fā)布《道路機動車輛生產(chǎn)準入許可管理條例(征求意見稿)》,其中多個條文涉及自動駕駛汽車的準入規(guī)定。2022 年11 月2日,工業(yè)和信息化部再次發(fā)布《關于開展智能網(wǎng)聯(lián)汽車準入和上路通行試點工作的通知(征求意見稿)》,試圖通過試點城市、試點汽車生產(chǎn)企業(yè)、試點產(chǎn)品以及試點使用主體來推動自動駕駛汽車的上市和上路。這一系列監(jiān)管法規(guī)緊鑼密鼓地出臺,標志著我國自動駕駛汽車從道路測試正式邁入商業(yè)化示范應用新階段,自動駕駛汽車駛入尋常道路的腳步又更進一步。
與此同時,有關自動駕駛汽車的事故報道也常常見諸報端。既有來自Uber 公司的自動駕駛汽車在道路測試期間發(fā)生的嚴重事故,也有特斯拉、蔚來等企業(yè)生產(chǎn)的具有輔助駕駛功能的汽車引發(fā)的致命事件。如何處理自動駕駛汽車的責任問題,不僅關系到廣大人民群眾的生命財產(chǎn)安全,也直接影響著自動駕駛汽車產(chǎn)業(yè)的落地。從責任主體層面來看,自動駕駛汽車的侵權責任大體上可以分為兩類,一是使用人一方的責任,解決的是自動駕駛汽車上路后使用人等相關主體的責任,通常表現(xiàn)為機動車交通事故責任;二是生產(chǎn)者一方的責任,關注的是自動駕駛汽車上路前生產(chǎn)者、銷售者等主體的責任問題,一般體現(xiàn)為產(chǎn)品責任。相較于使用人一方的責任,產(chǎn)品責任是當前解決自動駕駛汽車事故責任最重要也更具共識的一種方式。然而,與傳統(tǒng)汽車相比,自動駕駛汽車的產(chǎn)品責任帶來了諸多新挑戰(zhàn)。其中,如何認定自動駕駛汽車的產(chǎn)品缺陷是關鍵。為此,本文將針對自動駕駛汽車產(chǎn)品缺陷的認定進行集中探討,以便為自動駕駛汽車產(chǎn)品責任的完善提供助益,為自動駕駛汽車產(chǎn)業(yè)發(fā)展掃清障礙。
對于自動駕駛汽車引發(fā)的事故責任,相較于追究使用人一方的機動車交通事故責任,產(chǎn)品責任的適用更為重要。
1.產(chǎn)品責任適用情形更為廣泛。從理論上看,自動駕駛汽車的責任類型可以分為機動車交通事故責任與產(chǎn)品責任,分別用以解決使用人一方的責任與生產(chǎn)者一方的責任,但兩種責任并不總是同時存在的。對于自動駕駛汽車造成第三人損害的情形,兩種責任類型都可以作為救濟受害人的渠道。但如果自動駕駛汽車造成損害的正是使用人一方自己,如自動駕駛汽車失控撞到路邊障礙物導致車內(nèi)使用人受傷,那么此時不存在適用機動車交通事故責任的空間,只能適用產(chǎn)品責任。考慮到這類事故的廣泛存在,產(chǎn)品責任的重要性不言而喻。
2.產(chǎn)品責任具有更普遍的共識。盡管有觀點質(zhì)疑自動駕駛汽車適用產(chǎn)品責任的正當性,或者主張自動駕駛汽車超出傳統(tǒng)產(chǎn)品范疇,失去適用產(chǎn)品責任的基本前提,①或者認為讓生產(chǎn)者一方承擔產(chǎn)品責任違反基本原理,②但總體上生產(chǎn)者一方承擔產(chǎn)品責任仍然是學界與產(chǎn)業(yè)界的普遍共識。③從歷史上看,產(chǎn)品責任已經(jīng)被充分證明對于新技術具有強大的適應能力,對于自動駕駛汽車亦是如此。④事實上,在侵權法的眼中,自動駕駛汽車的組件不過是傳統(tǒng)產(chǎn)品的新花樣,產(chǎn)品責任將繼續(xù)證明它有能力處理這種自動化技術帶來的復雜問題。⑤與此相對的是,使用人一方承擔何種責任存在各種不同觀點,如機動車交通事故責任說、一般侵權責任說、無過錯保有人責任說、高度危險責任說等,短時期內(nèi)出臺一套各方都滿意的方案十分困難。⑥此種背景下,細化產(chǎn)品責任的適用是一種更為務實的做法。
3.產(chǎn)品責任更加契合自動駕駛汽車的技術特征。對于傳統(tǒng)汽車而言,人車關系中以人為主導,使用人操控汽車的一舉一動,汽車不過是使用人行動的物理工具,加速、變道、剎車都是使用人行為的直接結果,體現(xiàn)的是使用人的自由意志。故此,當汽車發(fā)生交通事故時,首先要追究的是人的責任,機動車交通事故責任自然頻繁適用,產(chǎn)品責任退居其次。然而,當自動駕駛汽車到來后,人車關系發(fā)生反轉,自動駕駛汽車的運行全程由系統(tǒng)操控,使用人對于汽車的影響極大地減弱,事故發(fā)生的原因更多地來自于汽車本身?;诖?,可以預見的是,隨著自動駕駛技術的普及,產(chǎn)品責任將扮演更加重要的角色,如何適用產(chǎn)品責任成為關鍵。
4.產(chǎn)品責任能夠更好實現(xiàn)侵權責任的目標。正如2020 年歐盟《關于人工智能系統(tǒng)運行的責任立法倡議》 所說,“任何責任框架都必須能夠在有效保護潛在遭受傷害或損害之受害者的同時,提供足夠的余地使新技術、產(chǎn)品或服務的開發(fā)成為可能,并在二者之間達成平衡?!雹呦噍^于使用人一方的責任,產(chǎn)品責任能夠更好地實現(xiàn)這一目標。其一,救濟受害人。產(chǎn)品責任的主體為生產(chǎn)者一方,具有更強的責任承擔能力,能夠更好地救濟受害人,同時可以通過提高產(chǎn)品售價、購買保險等方式來分散風險。⑧其二,預防損害發(fā)生。相較于機動車交通事故責任,產(chǎn)品責任直接對準生產(chǎn)者一方,可以直接督促生產(chǎn)者一方提高自動駕駛汽車的安全性能,預防事故的發(fā)生。其三,促進產(chǎn)業(yè)發(fā)展。強調(diào)產(chǎn)品責任的優(yōu)先級,也是在變相解放作為消費者的使用人一方,增強消費者購買自動駕駛汽車的信心,最終推動自動駕駛汽車產(chǎn)業(yè)的發(fā)展與繁榮。⑨
5.產(chǎn)品責任對于其他人工智能產(chǎn)品具有參考意義。人工智能屬于賦能性科技,可以廣泛適用于交通、醫(yī)療、教育、金融、安防等各種領域。對于不同場景中的人工智能,使用人一方的責任規(guī)則常常大相徑庭,如自動駕駛汽車的使用人適用機動車交通事故責任,而醫(yī)療人工智能的使用人適用的則是醫(yī)療損害責任。與此相對的是,產(chǎn)品責任具有適用上的普適性,無論具體應用場景下的人工智能各自的功能用途有多么的不同,只要其是經(jīng)過生產(chǎn)、加工用以銷售的產(chǎn)品,就需要適用產(chǎn)品責任。歐盟《機器人技術民事法律規(guī)則》就指出:“根據(jù)產(chǎn)品責任的現(xiàn)行法律框架——產(chǎn)品生產(chǎn)者對故障負有責任——侵害行為的責任規(guī)則——產(chǎn)品使用者對其致害的行為負有責任——這些規(guī)則適用于機器人或人工智能造成的損害?!雹鈴倪@個角度來看,自動駕駛汽車作為最為典型的人工智能應用,解決其引發(fā)的產(chǎn)品責任具有更廣泛的參考價值,可以為其他人工智能應用的產(chǎn)品責任提供指導。
如上所述,產(chǎn)品責任對于解決自動駕駛汽車引發(fā)的責任問題非常重要,而產(chǎn)品責任適用的重點和難題又在于缺陷的認定。
1.缺陷要件是產(chǎn)品責任的核心。從規(guī)范層面看,產(chǎn)品責任適用的前提是產(chǎn)品存在缺陷,唯有缺陷產(chǎn)品造成他人損害,生產(chǎn)者才承擔產(chǎn)品責任。?我國《民法典》第1202 至1217 條確立了產(chǎn)品責任的基本規(guī)則,其構成要件包括產(chǎn)品缺陷、損害以及因果關系。其中,產(chǎn)品缺陷是承擔產(chǎn)品責任的核心與第一步,此后的因果關系要件也需建立在產(chǎn)品缺陷的基礎上。與此同時,產(chǎn)品缺陷也是生產(chǎn)者承擔產(chǎn)品責任的正當基礎?,F(xiàn)代社會,每一件投入某種使用的產(chǎn)品,都以一定方式、在一定程度上是危險的,只有當產(chǎn)品具有過度之風險,生產(chǎn)者才需承擔產(chǎn)品責任。?同樣,對于自動駕駛汽車來說,產(chǎn)品缺陷的認定也具有規(guī)范和產(chǎn)業(yè)層面的雙重意義,既是救濟受害人的核心要件,也是劃定生產(chǎn)者責任范圍的關鍵依據(jù)。
2.產(chǎn)品缺陷是自動駕駛汽車事故發(fā)生的主要原因。對于傳統(tǒng)汽車引發(fā)的交通事故,有調(diào)查顯示,95%與人類駕駛者的駕駛失誤有關,2.5%歸結于糟糕的路況和天氣,2.5%為技術故障。?自動駕駛取代人類駕駛后,交通事故發(fā)生的原因將會徹底轉變,因為使用人的原因導致交通事故的比重將會急劇降低,這也是自動駕駛汽車安全價值的體現(xiàn)。然而,自動駕駛汽車并非絕對安全的產(chǎn)品,在減少因使用人駕駛失誤引發(fā)的交通事故數(shù)量的同時,也會帶來新的產(chǎn)品缺陷風險,即由于自動駕駛汽車本身產(chǎn)品故障引發(fā)的事故比例將會相對提高。這也是汽車信息化、智能化發(fā)展必然面臨的趨勢??梢灶A見的是,自動駕駛汽車時代到來后,產(chǎn)品缺陷特別是算法系統(tǒng)軟件缺陷將是引發(fā)事故發(fā)生的主要原因,而非使用人一方存在過錯。?對此,如何判別產(chǎn)品故障究竟是否構成缺陷就顯得至關重要。
3.產(chǎn)品缺陷也決定了各方主體的責任分擔。自動駕駛汽車的責任分擔涉及諸多主體。從外部層面來看,起碼包括生產(chǎn)者一方與使用人一方。根據(jù)最高人民法院《關于審理道路交通事故損害賠償案件適用法律若干問題的解釋》第9 條規(guī)定,有產(chǎn)品缺陷的機動車造成損害的,除使用人一方承擔責任外,受害人還可以請求生產(chǎn)者一方承擔產(chǎn)品責任。無論生產(chǎn)者一方與使用人一方對受害人承擔何種責任,兩方內(nèi)部責任分擔的關鍵在于產(chǎn)品缺陷。如果自動駕駛汽車存在缺陷,縱使使用人一方對外承擔了機動車交通事故責任,對內(nèi)仍然可以據(jù)此向生產(chǎn)者一方追償。而從內(nèi)部層面來看,產(chǎn)品責任的主體通常包括生產(chǎn)者、銷售者,自動駕駛汽車的專業(yè)性還將增加許多新的責任主體,如自動駕駛算法系統(tǒng)的設計者、高精地圖的提供者等,各責任主體之間的責任分擔也需要依據(jù)產(chǎn)品缺陷來進行。
4.產(chǎn)品缺陷的認定也是產(chǎn)品責任適用的難題。其一,舊法不敷適用?!睹穹ǖ洹凡o關于產(chǎn)品缺陷認定的規(guī)定,需要根據(jù)《產(chǎn)品質(zhì)量法》進行判斷。然而,《產(chǎn)品質(zhì)量法》是以傳統(tǒng)工業(yè)產(chǎn)品為樣本構建的,主要適用的是各類有形動產(chǎn),很難照搬適用于算法系統(tǒng)主導的人工智能產(chǎn)品。?其二,新法持續(xù)空缺。當前,各國針對使用人一方的責任規(guī)則有不少法律法規(guī)出臺。例如,德國于2017 年5 月修訂《道路交通法》,明確自動駕駛汽車使用人與生產(chǎn)者的注意義務與賠償責任。?2021 年6 月,德國又通過了專門的《自動駕駛法案》。而歐盟層面更是專門針對人工智能系統(tǒng)的使用人一方責任出臺了《關于人工智能系統(tǒng)運行的責任立法倡議》。?相比較而言,有關自動駕駛汽車的產(chǎn)品責任還缺乏明確規(guī)定。2021 年3 月,公安部發(fā)布《道路交通安全法(修訂建議稿)》,第155 條模糊地提到“依法確定駕駛人、自動駕駛系統(tǒng)開發(fā)單位的責任”。2022年6 月,《深圳經(jīng)濟特區(qū)智能網(wǎng)聯(lián)汽車管理條例》出臺,第54 條規(guī)定使用人一方承擔責任后可以依法向生產(chǎn)者、銷售者追償。然而,如何認定產(chǎn)品缺陷追究生產(chǎn)者一方的產(chǎn)品責任仍然是個難題。
通常來說,產(chǎn)品缺陷包括制造缺陷、設計缺陷、警示缺陷以及跟蹤觀察缺陷。對于自動駕駛汽車來說,設計缺陷的判斷可能更為重要,也更加復雜。
自動駕駛汽車產(chǎn)品缺陷的認定非常困難,首要原因在于產(chǎn)品本身的技術特點。
1.汽車產(chǎn)品的專業(yè)性。汽車是工業(yè)革命時代的產(chǎn)物,是現(xiàn)代科技文明的集大成者。與普通日常生活中的產(chǎn)品不同,汽車產(chǎn)品本身就和人體一樣高度復雜,一輛汽車會有30000 到35000 個左右的零部件,包括發(fā)動機、底盤、車身以及電子電氣設備等部分,每個部分又有成百上千的零部件。這些零部件組成的高度精細化的現(xiàn)代汽車產(chǎn)品,其內(nèi)部構造與運行機制遠非普通人能夠理解。對于身為門外漢的受害人來說,根本不可能洞悉其中的運行機制,更遑論舉證證明產(chǎn)品存在缺陷。
2.人工智能產(chǎn)品的復雜性。如果說傳統(tǒng)汽車是前三次工業(yè)革命時代的杰出產(chǎn)品代表,那么人工智能產(chǎn)品則是第四次工業(yè)革命的新寵兒。與傳統(tǒng)產(chǎn)品相比,人工智能產(chǎn)品具有自主性、自我學習能力、算法黑箱等新特征,這使得產(chǎn)品缺陷的證明變得更加困難。特別是如果買賣開放來源的軟件,可以容許買受人發(fā)展自己的需求,或者甚至人工智能本身就是開放的,則責任追究難度上可能更高。?歐盟《機器人技術民事法律規(guī)則》就坦言,即使產(chǎn)品責任可以適用,“但是新一代機器人具備適應和學習能力,將使它們的行動必然存在一定程度的不可預測性,目前的法律框架無法充分涵蓋它們所造成的損害,這些機器人可以自主地從他們的個體特殊的經(jīng)歷中學習并且以一種唯一且不可預見的方式與他們的環(huán)境進行交互。”?自動駕駛汽車屬于人工智能產(chǎn)品,其行為和決策的不透明性使得缺陷認定面臨挑戰(zhàn)。?
3.自動駕駛汽車產(chǎn)品的復雜性。其一,自動駕駛汽車的構成。自動駕駛汽車作為傳統(tǒng)汽車的升級版本,在已有物理零件上增加了算法與數(shù)據(jù)模塊,內(nèi)部運行機制相較于傳統(tǒng)汽車又有幾何級別的提升。其二,自動駕駛汽車的技術等級。根據(jù)2021 年8 月發(fā)布的《汽車駕駛自動化分級》,自動駕駛汽車包括有條件自動駕駛、高度自動駕駛、完全自動駕駛三個級別,不同級別下系統(tǒng)的運行條件、執(zhí)行最小風險策略不同,這使得不同級別下自動駕駛汽車產(chǎn)品缺陷的認定并不一樣。例如,對于有條件的自動駕駛汽車,面對突如其來的暴雨天氣,系統(tǒng)認為超出其設計運行條件提醒駕駛人接管,駕駛人沒有接管導致事故發(fā)生,此種情況很可能不屬于產(chǎn)品缺陷。但對于完全自動駕駛汽車來說,系統(tǒng)理當可以應對任何行駛條件,在面臨突發(fā)情況時必須能夠自動執(zhí)行最小風險策略,否則就存在產(chǎn)品缺陷。其三,自動駕駛汽車的發(fā)展路線。自動駕駛汽車的發(fā)展路線一直存在車路協(xié)同與單車智能的爭議,這使得自動駕駛汽車的產(chǎn)品設計呈現(xiàn)諸多不確定性。相較于單車智能路線,車路協(xié)同路線強調(diào)自動駕駛汽車需要與道路上的其他人、車、路進行交互,如此一來自動駕駛汽車的構造將更多地考慮與外界進行信息與數(shù)據(jù)的交互,產(chǎn)品缺陷究竟是如何引起的也更加復雜。其四,自動駕駛汽車的安全場景。自動駕駛汽車的安全場景可以從兩個維度區(qū)分為四種,分別是已知安全、未知安全、已知危險與未知危險。相較于傳統(tǒng)汽車,自動駕駛汽車的已知危險區(qū)域因為算法、傳感器等各種軟件、硬件的引入會變得更加復雜,同時由于自主性、算法黑箱等原因導致未知危險區(qū)域會日益高發(fā),這些都增加了自動駕駛汽車產(chǎn)品缺陷認定的難度。
根據(jù)《產(chǎn)品質(zhì)量法》規(guī)定,缺陷的判斷標準包括不合理危險與技術標準兩類,其中不合理危險是根本標準。然而,兩種判斷標準的適用都很難得出明確的結論。
1.國家標準、行業(yè)標準的困境。早在2018 年12 月,工業(yè)和信息化部就印發(fā)《車聯(lián)網(wǎng)(智能網(wǎng)聯(lián)汽車)產(chǎn)業(yè)發(fā)展行動計劃》,提出充分發(fā)揮標準體系在車聯(lián)網(wǎng)產(chǎn)業(yè)生態(tài)中的基礎、引導和規(guī)范作用,加快推進實施《國家車聯(lián)網(wǎng)產(chǎn)業(yè)標準體系建設指南》。2021 年4 月,工業(yè)和信息化部編制了《智能網(wǎng)聯(lián)汽車生產(chǎn)企業(yè)及產(chǎn)品準入管理指南(試行)(征求意見稿)》,向社會公開征求意見,其中提到自動駕駛汽車產(chǎn)品安全要求。2021 年7 月,工業(yè)和信息化部出臺《關于加強智能網(wǎng)聯(lián)汽車生產(chǎn)企業(yè)及產(chǎn)品準入管理的意見》,針對自動駕駛功能產(chǎn)品安全管理提出四點指導要求,但并不構成指導自動駕駛汽車產(chǎn)品安全的國家標準、行業(yè)標準。此外,工業(yè)和信息化部相繼發(fā)布了《道路機動車輛生產(chǎn)準入許可管理條例(征求意見稿)》以及《關于開展智能網(wǎng)聯(lián)汽車準入和上路通行試點工作的通知(征求意見稿)》,試圖明確自動駕駛汽車的產(chǎn)品準入標準。然而,整體而言,我國尚未制定規(guī)范的自動駕駛汽車的國家標準,也沒有形成統(tǒng)一的行業(yè)標準,難以依靠技術標準來認定自動駕駛汽車的缺陷。?
與此同時,國家標準、行業(yè)標準之所以能夠作為判斷產(chǎn)品缺陷的重要方法,內(nèi)在邏輯是借助穩(wěn)定的技術標準來判別產(chǎn)品是否脫離安全范圍,但對于自動駕駛汽車而言存在諸多問題。首先,國家標準、行業(yè)標準僅僅是判斷產(chǎn)品缺陷的基本標準,產(chǎn)品是否存在缺陷最終需要依據(jù)不合理危險標準進行認定。其次,國家標準、行業(yè)標準制定成本高、過程繁瑣,同時具有天然的滯后性。而自動駕駛汽車等人工智能產(chǎn)品的發(fā)展日新月異,更新迭代快,想要借助技術標準來應對人工智能產(chǎn)品缺陷的認定并不容易。?最后,與傳統(tǒng)汽車不同,自動駕駛汽車屬于新一代汽車,以傳統(tǒng)汽車為樣本的技術標準思維難以照搬適用。具言之,傳統(tǒng)汽車通常關注的是功能安全,而自動駕駛汽車以算法與數(shù)據(jù)為中心,是信息化和智能化的新一代汽車產(chǎn)品,還需特別關注預期功能安全(Safety Of The Intended Functionality)、網(wǎng)絡與數(shù)據(jù)安全。對此,國際標準化組織于2018 年正式啟動全球首個自動駕駛安全國際標準 《道路車輛預期功能安全》(ISO/PAS 21448)的制定工作,旨在解決自動駕駛汽車因為預期功能或其實現(xiàn)的不充分性導致的危害而引發(fā)的不合理風險,如設備性能局限導致的危險、算法缺陷導致的危險、人員誤用導致的危險等。此外,自動駕駛汽車的數(shù)據(jù)化與網(wǎng)絡化趨勢,也讓網(wǎng)絡與數(shù)據(jù)安全問題前所未有的凸顯,這些都給自動駕駛汽車技術標準的制定帶來了挑戰(zhàn)。
2.不合理危險標準。對于不合理危險標準的具體判斷,學界存在消費者期待與風險效用兩種測試辦法,但都各自存在適用難題。
第一,消費者期待標準的困境。消費者期待標準,是指產(chǎn)品不合理危險的程度超過了購買該產(chǎn)品的普通消費者的預期,且該消費者必須具有為社會所共知的有關該產(chǎn)品性能的通常知識。?例如,美國《侵權法第二次重述:產(chǎn)品責任》第402A節(jié)采納了這一標準。有觀點指出,消費者期待標準適用更為簡單,既不需要披露過多的算法數(shù)據(jù),也更有利于救濟受害人,適合用于判斷自動駕駛汽車產(chǎn)品缺陷問題。?然而,消費者期待標準的適用并不容易。
一方面,消費者的界定難題。消費者期待標準預設的基本場景是,購買產(chǎn)品的消費者通常是使用產(chǎn)品的受害人。然而,自動駕駛汽車并非消費者私人場景中單獨使用的產(chǎn)品,而是在公共道路頻繁使用的通勤工具,這使得自動駕駛汽車的風險天然具有開放性,不安全危及的對象十分廣泛,包括使用人和道路交通的其他參與者。當自動駕駛汽車發(fā)生事故造成使用人損害時,姑且可以將使用人作為消費者來適用這一標準。但當自動駕駛汽車損害的是行人等其他交通事故參與者時,誰是合格的消費者就存在爭議。此時,將使用人作為消費者,以其合理期待來判斷自動駕駛汽車是否存在產(chǎn)品缺陷并不合適,對于受害人和生產(chǎn)者來說并不公平,而受害人又并非自動駕駛汽車產(chǎn)品的實際消費者。
另一方面,合理期待的界定非常模糊。正如歐洲報告所描述的那樣,消費者期待要求“填寫一個空白的公式”就是一個空罐子,標準的適用極其模糊。?特別是在考慮復雜產(chǎn)品(如汽車、藥品或者其他化學制品)設計的充分性時,消費者并不知道這些產(chǎn)品在不同情況下到底該如何設計才安全。當汽車以10 公里、20 公里甚至40 公里每小時速度撞上樹時,普通消費者怎么能知道被期待保護的程度??消費者期待標準的基本原則是消費者需要“對產(chǎn)品的設計有足夠的了解或熟悉,才能對其安全或性能有合理的期望”。?在適用傳統(tǒng)汽車時就飽受批評,適用于更為復雜的自動駕駛汽車就更難服眾。特別是在科幻作品的影響下,自動駕駛汽車常常以一種超現(xiàn)實的形象出現(xiàn)在大眾視野,法官要想借助充滿主觀色彩的消費者期待標準來認定自動駕駛汽車產(chǎn)品缺陷并非易事。此外,消費者期待標準無法處理明顯危險的情形,這意味著自動駕駛汽車的生產(chǎn)者一方可能會通過過度的危險警告來逃避責任。?
第二,風險效用標準的質(zhì)疑。風險效用標準關注產(chǎn)品是否存在更加安全的合理替代設計,如果存在更加安全的合理替代設計而沒有采用即存在缺陷。美國《侵權法第三次重述:產(chǎn)品責任》第2B節(jié)采納了風險效用標準。相較于消費者期待標準,風險效用標準更加客觀,關注的是產(chǎn)品設計的成本、安全以及效益的平衡。例如,多裝或者少裝一個傳感器,都有可能影響自動駕駛汽車的運行安全,也會影響車輛的成本,故有必要進行成本與效應的衡量。?
然而,對于自動駕駛汽車適用風險效用標準困難重重。其一,風險效用標準要求受害人舉證存在一種更為安全的設計,這使得受害人舉證成本更高,往往需要借助專業(yè)人士才能完成,讓索賠成為一件代價高昂的事情。?在自動駕駛汽車產(chǎn)業(yè)發(fā)展初期,是否真的存在這樣的專業(yè)人士是存疑的。而即使是專業(yè)人士,要想舉證存在更加安全的設計又談何容易,生產(chǎn)者并不會主動披露算法和數(shù)據(jù),替代設計方案無從下手。其二,風險效用標準強調(diào)成本與效益的分析,這種側重于經(jīng)濟層面的分析方法,不一定適合自動駕駛汽車。自動駕駛汽車的安全問題直接危及的是廣大交通參與者的生命健康,很難用單純的成本效用來分析,系統(tǒng)設計的成本很難與一條條鮮活的生命進行直接對比,且成本常??梢酝ㄟ^產(chǎn)品定價轉移,生產(chǎn)者以此抗辯缺乏合理性。
如上文所述,無論是國家標準、行業(yè)標準,還是不合理危險標準的兩種測試方法都存在各自的問題,難以很好地救濟受害人。筆者認為,在自動駕駛汽車設計缺陷的認定上,可以將設計缺陷要件背后的過失元素充分挖掘,將設計缺陷要件內(nèi)容由是否存在設計缺陷轉向是否違反注意義務,通過判斷自動駕駛系統(tǒng)本身是否違反特定的注意義務來認定其是否存在設計缺陷。而對于注意義務的違反,具體可以通過引入理性算法標準來完成,即發(fā)生事故的自動駕駛汽車產(chǎn)品是否符合一個理性算法的注意義務標準,以此破解缺陷認定的難題。
1.理性算法標準契合產(chǎn)品責任的過失屬性。理性算法標準來源于理性人標準,用以判斷行為人是否存在過失的問題,通常適用于過錯責任當中。盡管產(chǎn)品責任屬于無過錯責任,無需對生產(chǎn)者的過錯進行判斷,但缺陷要件本身飽含過失元素,特別是設計缺陷要件。從美國司法實踐來看,多年來,許多法院雖然聲稱已經(jīng)將嚴格責任適用于設計缺陷案件,但實際上適用的是類似過失的責任原則。?在歐洲,《產(chǎn)品責任指令》對于設計缺陷的判斷淪為風險與效用的比較,但這種比較是否真正區(qū)別于一般侵權法中適用的對“過錯”的探究也遭到了質(zhì)疑。特別是對于設計缺陷,發(fā)展風險抗辯的存在很大程度上削減了其責任的嚴格程度,具有了更多的過失屬性。?設計缺陷之所以采取過錯責任歸責,原因在于產(chǎn)品在設計研發(fā)階段充滿未知性,要求生產(chǎn)者承擔無過錯責任過于嚴格,只需要生產(chǎn)者盡到合理謹慎的態(tài)度,即滿足公眾對于設計安全的一般期待,這與制造缺陷脫離設計圖紙存在本質(zhì)區(qū)別。故此,設計缺陷實際上暗含過失元素,即違反某種程度的注意義務。而理性算法標準將設計缺陷的判斷內(nèi)容由是否存在缺陷轉化為是否違反特定的注意義務,抓住了設計缺陷問題的本質(zhì),也契合缺陷要件過失屬性的特征。當然,理性算法標準并不會改變產(chǎn)品責任無過錯責任的性質(zhì),只是將設計缺陷背后的過失以及注意義務凸顯。
2.理性算法標準適應自動駕駛汽車的產(chǎn)品屬性。按照《產(chǎn)品質(zhì)量法》的規(guī)定,設計缺陷是一種非常嚴重的產(chǎn)品缺陷,意味著產(chǎn)品在投入流通之前就存在不合理危險,同時設計缺陷的判斷受到發(fā)展風險抗辯的限制,即設計缺陷的判斷常常以投入流通為時間點。這一規(guī)則預設的前提是產(chǎn)品具有穩(wěn)定性,投入流通前屬于生產(chǎn)者控制的范疇,投入流通后屬于使用人控制的范疇。然而,與傳統(tǒng)產(chǎn)品不同,自動駕駛汽車等人工智能產(chǎn)品具有自主性和自我學習的能力,這意味著產(chǎn)品投入流通后究竟表現(xiàn)如何充滿了不可預測性,同時自動駕駛汽車在投入流通后還能通過交互不斷學習、升級和進化?;诖耍a(chǎn)者一方需要負擔特定的注意義務,這種注意義務應當是伴隨產(chǎn)品終身的,而不應當僅僅止步于投入流通之時。
與此同時,人工智能產(chǎn)品的核心是算法系統(tǒng),這使得軟件越來越成為設計缺陷判斷的重點,而現(xiàn)行對于軟件的使用常常受到拆封合同的限制,即沒有任何軟件是百分百完美的,只要用戶拆封使用該軟件時正常運行即可,服務商并不為軟件崩潰或死機造成的損失負責,因為前者無法預料到缺陷帶來的風險。?對此,理性算法標準具有強大的適應能力和針對性:首先,理性算法標準直擊自動駕駛汽車最為核心的算法模塊,重點針對算法系統(tǒng)本身的安全進行判斷,讓不合理危險的認定更為聚焦。同時對于算法系統(tǒng)的鎖定,意味著生產(chǎn)者必須對產(chǎn)品提供持續(xù)的服務,而不僅僅止于投入流通之時,用戶有權接受持續(xù)的更新和補丁服務。其次,理性算法標準強調(diào)根據(jù)具體產(chǎn)品、具體場景、具體行為、具體時間來具體判斷,以適應自動駕駛汽車不斷學習進化以及不可預測的特征。例如,汽車在出廠時自動駕駛系統(tǒng)為1.0 版本,投入使用兩年后系統(tǒng)升級為2.5 版本,按照理性算法標準,這意味著對于這輛自動駕駛汽車產(chǎn)品缺陷的判斷需要不斷提高注意義務的水平,以便適應它不斷升級的能力。最后,理性算法標準充分尊重自動駕駛系統(tǒng)自主性特征,將自動駕駛系統(tǒng)獨立于生產(chǎn)者一方與使用人一方單獨對待,看到了直接規(guī)制自動駕駛系統(tǒng)的必要性和可能性,符合算法日益“擬人化”的發(fā)展趨勢。?
3.理性算法標準能夠有助于克服缺陷認定的困境。一方面,理性算法標準優(yōu)于消費者期待標準。消費者期待標準強調(diào)以消費者對于產(chǎn)品的合理期待來判斷產(chǎn)品是否存在設計缺陷,本質(zhì)上屬于偏主觀色彩的標準,充滿了不確定性和模糊性。而理性算法標準將視角對準自動駕駛汽車本身,是更為客觀的標準,強調(diào)自動駕駛汽車產(chǎn)品在具體場景下的行為是否符合一個理性算法的注意義務標準,比較的對象是一個客觀存在的理性算法形象,這比消費者不切實際的期待更為確定和客觀。另一方面,理性算法標準優(yōu)于風險效用標準。風險效用標準強調(diào)風險與效用的比較,雖然相較于消費者期待標準更為客觀,但給消費者帶來了巨大的舉證負擔。對此,理性算法標準簡化了風險效用標準,不再強求消費者舉證一種更好的替代設計方案,只需要證明發(fā)生事故的自動駕駛汽車沒有達到一個理性算法的注意義務即可。從這個角度來看,理性算法標準吸收了消費者期待標準與風險效用標準的優(yōu)點,同時克服了兩者存在的不足,以市場上客觀存在的同類型算法形象作為判斷產(chǎn)品缺陷的參考標準,蘊含風險效用標準中合理替代設計的要求,又不拘泥于高成本的風險效用比較,同時直接將注意義務施加給自動駕駛系統(tǒng),也符合消費者合理期待的本質(zhì)精神,并且更為直接高效。
4.理性算法標準增加了受害人救濟可能。自動駕駛汽車的質(zhì)量狀態(tài)是非常多樣的,可能存在缺陷,也可能完全沒有缺陷,而更多的是處于有缺陷與沒有缺陷中間,即存在算法瑕疵或者算法錯誤的情況。按照產(chǎn)品責任的邏輯,受害人需要證明自動駕駛汽車存在缺陷,這無疑提高了受害人求償?shù)拈T檻,同時也忽視了現(xiàn)實世界中大量存在的中間狀態(tài),即存在某種程度的危險,但并未達到異常嚴重或者不合理的程度。對此,理性算法標準充分關注這些產(chǎn)品缺陷的中間狀態(tài),只要自動駕駛汽車的行為不符合理性算法標準,就認定其存在不合理危險,進而需要承擔責任。這樣就可以把算法瑕疵或者算法錯誤的情形納入進來,增加了受害人救濟的可能。
5.理性算法標準能夠克服缺陷要件的負面影響。與制造缺陷訴訟僅僅涉及一件產(chǎn)品不同,設計缺陷訴訟質(zhì)疑的是整條產(chǎn)品生產(chǎn)線上的完整性,因此其穿透了生產(chǎn)商規(guī)劃的整個核心。?為此,企業(yè)常常會花費巨大時間和精力成本,聘請最好的律師和專家來阻止原告的缺陷主張,以防缺陷對于企業(yè)聲譽帶來的負面影響。理性算法標準可以從兩個方面破解這一困境:一是打破缺陷必定導致十分嚴重的危害的印象,將算法瑕疵或者算法錯誤納入不合理危險當中,稀釋缺陷的嚴重程度,讓公眾對不合理危險有一個重新的認識。二是打破缺陷必定導致一批產(chǎn)品下架的結果,主張針對單個的人工智能產(chǎn)品進行具體認定。自動駕駛汽車出廠設置可能一樣,但流入市場后隨著使用的深入,每輛自動駕駛汽車算法性能和性格可能不一。一輛自動駕駛汽車在這一場景下發(fā)生事故,并不意味著同批次的其他自動駕駛汽車都會發(fā)生事故。此外,理性算法標準強調(diào)區(qū)分算法缺陷與算法錯誤。沒有算法缺陷的自動駕駛汽車產(chǎn)品也可能會出現(xiàn)算法錯誤,出現(xiàn)算法錯誤的自動駕駛汽車產(chǎn)品不一定就是算法缺陷,兩者需要區(qū)分對待。
6.理性算法標準適用具有切實可行性。理性算法標準以過失責任中的理性人為藍本,是切實可行的。對于傳統(tǒng)汽車來說,駕駛人操控汽車的運行,汽車是駕駛人的工具,法律以理性人標準對駕駛人提出了注意義務的要求,以確保汽車的安全運行。自動駕駛汽車到來后,機器駕駛取代人工駕駛,駕駛人的角色讓位于算法系統(tǒng)。雖然算法系統(tǒng)并不像駕駛人那樣具有“自然理性”,但在完成駕駛活動這一任務上,算法系統(tǒng)的“技術理性”足以讓其表現(xiàn)得像有理性的駕駛人一樣,甚至更加安全。由此一來,傳統(tǒng)針對駕駛人的理性人標準就需要讓位于針對算法系統(tǒng)的理性算法標準。與此同時,理性算法標準相較于理性人標準更為客觀和直接。例如,一輛自動駕駛汽車在距離障礙物150米遠時來不及剎車發(fā)生事故。對此,如果市場上大多數(shù)同類型的自動駕駛系統(tǒng)在同樣的速度、道路環(huán)境下都能在100 米遠就完成剎車避撞,那么發(fā)生事故的自動駕駛系統(tǒng)的表現(xiàn)就不符合理性算法標準。如此一來,理性算法標準的運用完全是可能的。?此外,這種理性算法標準是客觀存在的,且易于獲得。特別是當自動駕駛汽車相當普及的情況下,就會存在一個合理的自動駕駛汽車水平。此時,低于這一水平的自動駕駛汽車則會被認定存在缺陷。?
理性算法標準的適用需要考慮具體場景,強調(diào)在具體場景中去判斷自動駕駛汽車是否存在不合理危險。
1.理性算法標準的適用范圍。其一,理性算法標準僅適用于設計缺陷的判斷,并不適用于制造缺陷與警示缺陷。一方面,制造缺陷指的是產(chǎn)品本身背離了設計圖紙,從而使得產(chǎn)品存在不合理危險,生產(chǎn)者一方需要對此負擔無過錯責任,無需適用理性算法標準。另一方面,警示缺陷指的是生產(chǎn)者一方?jīng)]有以適當方式向消費者說明產(chǎn)品的使用方法以及危險防止方面應注意的事項,從而導致產(chǎn)品發(fā)生不合理危險,這種責任也有過失的性質(zhì),但針對的是生產(chǎn)者一方,適用理性人標準即可,無需適用理性算法標準。其二,理性算法標準在設計缺陷判斷中的位置。理性算法標準并非設計缺陷判斷的唯一標準,技術標準仍然是基本標準,理性算法標準只是判斷不合理危險的一種方法。第一步,確定造成事故的自動駕駛汽車是否符合國家標準、行業(yè)標準,如果不符合即存在不合理危險;第二步,如果符合國家標準、行業(yè)標準,或者沒有國家標準、行業(yè)標準,那么就需要檢驗造成事故的自動駕駛汽車是否達到了一個理性算法所應達到的注意義務。即使自動駕駛汽車符合國家標準、行業(yè)標準,也可能因為違反理性算法標準而存在不合理危險,進而認定存在產(chǎn)品缺陷。
2.理性算法標準的參考標準。無論是消費者期待標準,還是風險效用標準,都是在為產(chǎn)品安全提供合理的參考對象。理性算法標準的適用同樣需要確定一個參考標準。其一,理性算法形象的勾勒。理性人并非一個理想或者完美的人,而是一個共同體的普通成員。?同樣,對于自動駕駛汽車來說,理性算法標準提出的參考對象是市場上同類自動駕駛汽車的技術水平,這種技術水平不要求是行業(yè)內(nèi)最頂尖的技術水平,但一定是行業(yè)內(nèi)平均可以達到的技術水平。對于自動駕駛汽車,由于沒有使用人實際參與汽車的運行,法院審查的重點是汽車是否表現(xiàn)得如同它的程序應該呈現(xiàn)的那樣,法院可能會詢問事故中肇事的汽車是否達到了大多數(shù)其他自動駕駛汽車所能達到的標準。?如果其他廠商生產(chǎn)的汽車在還原情形下做出了同樣的應對措施,則產(chǎn)品不存在缺陷,如此可以減少產(chǎn)品缺陷認定標準難以把握的風險。?其二,理性算法形象的補白。理性算法標準脫胎于理性人標準,但并不等同于理性人標準。一輛自動駕駛汽車是否存在不合理危險,不能將其與使用人的水平進行簡單比較,以使用人的水平來要求自動駕駛汽車的安全程度是不合適的。但使用人的水平可以作為判斷理性算法標準的一個參考因素,原因在于人工智能本身模擬的就是人類的理性。如果一輛自動駕駛汽車在天氣、路況等都沒有任何問題的情況下,失控撞上一棵樹,造成了一個理性的使用人都不會發(fā)生的事故損害,那么可以認定自動駕駛汽車不符合理性算法標準。換言之,自動駕駛系統(tǒng)的表現(xiàn)要比一般駕駛人更加安全才合理,理性算法標準通常應當高于理性人標準。?當然,理性算法標準并不要求自動駕駛汽車的所有表現(xiàn)都全面超越駕駛人,在駕駛的舒適度、網(wǎng)絡安全以及應對突發(fā)事件等方面,自動駕駛汽車很可能不如駕駛人。
3.理性算法標準的具體適用。其一,車輛類型。理性算法標準強調(diào)將發(fā)生事故的自動駕駛汽車與相同或者類似功能的自動駕駛汽車進行比較,如此才能得出合理的結論。這一點與消費者期待標準與風險效用標準本質(zhì)上是相通的。一方面,不同智能等級的自動駕駛汽車安全水平不同,參照的算法形象也不一樣。對于有條件自動駕駛汽車,理當對比其他有條件自動駕駛汽車的安全水平,而對于高度自動駕駛汽車、完全自動駕駛汽車,也應當對比同等級的車輛。有觀點就指出,相較于有條件自動駕駛,由于高度自動駕駛與完全自動駕駛階段,用戶需要完全信任自動駕駛系統(tǒng),故此需要適用極其謹慎的標準。?另一方面,不同用途的自動駕駛汽車安全水平要求也不相同,需要構建的算法形象也要相應調(diào)整。在Bittner v.Am.Honda Motor Co.案中,被告本田公司試圖通過與雪地摩托車、普通摩托車等休閑類汽車的比較分析來捍衛(wèi)自己公司的全地形車的安全性,但這種比較被法院排除在外。因此,正如大型轎車的生產(chǎn)者不能通過與緊湊型小汽車的比較分析來捍衛(wèi)車輛的安全性能一樣,自動駕駛汽車的生產(chǎn)者也不能通過與傳統(tǒng)汽車或者不同用途的自動駕駛汽車進行比較來抗辯車輛的安全性。?其二,危險類型。從危險類型來看,自動駕駛汽車的危險包括已知危險與未知危險。對于已知危險而言,由于危險在自動駕駛汽車投入流通前已經(jīng)充分顯露,理性算法標準應當更加嚴格。而對于未知危險,由于危險類型不可預見,自動駕駛汽車投入流通前無法進行驗證,要求自動駕駛汽車對這類危險都具備良好的應對能力并不現(xiàn)實,因此,理性算法標準需相應調(diào)低。
1.技術標準的完善。對于汽車行業(yè)來說,汽車的信息化、智能化是一種趨勢,相關國家標準、行業(yè)標準需要盡快完善。以機械化、電氣化為基礎的傳統(tǒng)汽車,更加強調(diào)功能安全,而對于自動駕駛汽車來說,還需要注意預期功能安全以及網(wǎng)絡與數(shù)據(jù)安全。對此,《智能網(wǎng)聯(lián)汽車生產(chǎn)企業(yè)及產(chǎn)品準入管理指南(試行)(征求意見稿)》《關于加強智能網(wǎng)聯(lián)汽車生產(chǎn)企業(yè)及產(chǎn)品準入管理的意見》《道路機動車輛生產(chǎn)準入許可管理條例(征求意見稿)》以及《關于開展智能網(wǎng)聯(lián)汽車準入和上路通行試點工作的通知(征求意見稿)》都明確要求自動駕駛汽車產(chǎn)品滿足功能安全、預期功能安全、網(wǎng)絡與數(shù)據(jù)安全等過程保障要求。
第一,功能安全標準,主要解決自動駕駛系統(tǒng)的功能異常引發(fā)的不合理危險,在自動駕駛系統(tǒng)出現(xiàn)故障時,能夠迅速啟動保護或者采取糾正措施,防止發(fā)生危險事件。對于自動駕駛汽車來說,算法和數(shù)據(jù)模塊的加載使得汽車高度軟件化,同時各種傳感器、控制器、執(zhí)行器的加載也提高了硬件安全的難度,如何確保系統(tǒng)軟件硬件的功能安全變得越來越重要,需要更新與之匹配的國家標準、行業(yè)標準。
第二,預期功能安全標準,主要解決因為自動駕駛汽車系統(tǒng)預期功能或者實現(xiàn)不足產(chǎn)生的不合理危險。由于傳感系統(tǒng)和復雜算法的引入,自動駕駛汽車很可能出現(xiàn)沒有系統(tǒng)故障卻無法實現(xiàn)預期功能的情況,即預期功能安全問題,其主要來源為“系統(tǒng)性能局限及人為誤操作”,如異常天氣導致感知系統(tǒng)無法發(fā)揮預期功能、異常的道路環(huán)境超出算法識別能力、人機交互操作中人為誤觸引發(fā)系統(tǒng)混亂等。在 《道路車輛預期功能安全》(ISO/PAS 21448)的影響下,我國也正在推動自動駕駛汽車預期功能安全標準的制定。例如,《關于開展智能網(wǎng)聯(lián)汽車準入和上路通行試點工作的通知(征求意見稿)》 就明確要求企業(yè)必須具備預期功能安全保障的能力,建立預期功能安全開發(fā)流程和管理制度。
第三,網(wǎng)絡和數(shù)據(jù)安全標準,主要確保自動駕駛汽車電子電氣系統(tǒng)、組件和功能以及數(shù)據(jù)處于安全狀態(tài)。自動駕駛汽車的信息化使得數(shù)據(jù)傳輸變得高頻,系統(tǒng)必須與外界進行信息交互,這既為自動駕駛汽車的高度智能提供了助力,同時也產(chǎn)生了網(wǎng)絡和數(shù)據(jù)攻擊的危險。2020 年6 月,聯(lián)合國世界車輛法規(guī)協(xié)調(diào)論壇通過全球首個關于汽車網(wǎng)絡安全的強制性法規(guī)《網(wǎng)絡安全與網(wǎng)絡安全管理系統(tǒng)》。2021 年8 月,SAE 和國際標準化組織共同發(fā)布了一項針對道路車輛的網(wǎng)絡安全標準《道路車輛—網(wǎng)絡安全工程標準》(ISO/SAE 21434)。與此同時,我國于2021 年7 月出臺《汽車數(shù)據(jù)安全管理若干規(guī)定(試行)》,針對自動駕駛汽車的網(wǎng)絡安全和數(shù)據(jù)安全提出具體要求。2022 年2 月,《車聯(lián)網(wǎng)網(wǎng)絡安全和數(shù)據(jù)安全標準體系建設指南》正式出臺,明確自動駕駛汽車網(wǎng)絡安全與數(shù)據(jù)安全標準建設的具體內(nèi)容。此外,《關于開展智能網(wǎng)聯(lián)汽車準入和上路通行試點工作的通知(征求意見稿)》明確規(guī)定,自動駕駛汽車應當能夠防御來自車輛外部連接、通信通道、軟件升級、重要數(shù)據(jù)和個人信息、行為以及物理操控六個方面的安全威脅。
2.警示義務的重視。警示缺陷主要指生產(chǎn)者未就產(chǎn)品風險進行警示,從而讓產(chǎn)品的使用產(chǎn)生了不合理危險。當前,不少生產(chǎn)者對于汽車的自動駕駛功能并未盡到全面真實的警示,導致使用人在使用時產(chǎn)生了不合理危險。如果企業(yè)生產(chǎn)的是輔助功能的汽車卻宣稱是自動駕駛汽車,或者生產(chǎn)的是有條件自動駕駛汽車卻宣傳是高度自動駕駛汽車,那么這種警示義務的違反將會增加產(chǎn)品使用的不合理危險,導致原本可以避免的事故頻繁發(fā)生。?特別是對于自動駕駛汽車來說,汽車的已知危險與未知危險都相較傳統(tǒng)汽車更多,生產(chǎn)者的警示義務顯得非常重要,可以影響消費者對于產(chǎn)品的使用預期。?《關于加強智能網(wǎng)聯(lián)汽車生產(chǎn)企業(yè)及產(chǎn)品準入管理的意見》 就要求生產(chǎn)者履行警示義務,包括明確告知車輛功能及性能限制、駕駛員職責、人機交互設備指示信息、功能激活及退出方法和條件等信息。
3.跟蹤觀察義務的補充。根據(jù) 《民法典》第1206 條規(guī)定,生產(chǎn)者負有跟蹤觀察義務,對于產(chǎn)品投入流通后發(fā)現(xiàn)存在缺陷的,應當采取停止銷售、警示、召回等補救措施??紤]到自動駕駛汽車具有自主性與自我學習能力,能夠持續(xù)升級迭代,生產(chǎn)者的跟蹤觀察義務更為重要。其一,義務類型。對于自動駕駛汽車來說,生產(chǎn)者需要同時負擔積極跟蹤觀察義務與消極跟蹤觀察義務,?前者通過提供持續(xù)的系統(tǒng)服務、分析汽車數(shù)據(jù)記錄系統(tǒng)等來主動實現(xiàn),后者則通過車輛事故、負面評價事件來被動發(fā)起。其二,補救措施。對于自動駕駛汽車來說,需要根據(jù)產(chǎn)品缺陷的嚴重程度采取相應的措施。從理性算法標準出發(fā),產(chǎn)品缺陷可能是整批汽車都存在非常嚴重的算法缺陷,也可能是單個汽車偶發(fā)式的算法錯誤或者算法瑕疵,前者意味著自動駕駛系統(tǒng)存在功能安全問題,需要采取召回措施,后者很可能是發(fā)生了偶發(fā)性的預期功能安全事件,并不需要采取大規(guī)模召回,采取在線升級等打補丁的方式更為經(jīng)濟。
自動駕駛汽車是人工智能最為典型的應用,具有重要的社會價值。相較于機動車交通事故責任,產(chǎn)品責任在解決自動駕駛汽車事故責任方面更具共識和優(yōu)勢,能夠從前端直接督促生產(chǎn)者改進技術提升自動駕駛汽車的安全性能,同時生產(chǎn)者也更具賠償能力和風險分散能力。但產(chǎn)品責任的適用并不容易,產(chǎn)品缺陷的認定存在法律和技術層面的諸多障礙。為此,本文提出理性算法標準,同時輔之以技術標準的更新、警示義務的重視以及跟蹤觀察義務的補充,試圖綜合解決自動駕駛汽車設計缺陷的認定難題。當然,產(chǎn)品責任并不能解決自動駕駛汽車引發(fā)的全部損害問題,存在產(chǎn)品無缺陷但卻引發(fā)事故的情形,同時產(chǎn)品責任具有成本高、時間長等不足,為此需要通過機動車交通事故責任、事故責任保險等方式予以補充。簡言之,無論何種責任規(guī)則,都應當平衡各方利益,在充分救濟受害人的同時,充分考慮技術革新的動力,唯有如此才能促進自動駕駛汽車產(chǎn)業(yè)的發(fā)展,造福整個社會。
注釋:
①有關自動駕駛汽車產(chǎn)品屬性的爭議,請參見王樂兵:《自動駕駛汽車的缺陷及其產(chǎn)品責任》,《清華法學》2020 年第2 期;高完成、寧卓名:《人工智能產(chǎn)品致害風險及其侵權責任規(guī)制》,《河南社會科學》2021 年第4 期。
②許中緣:《智能汽車侵權責任立法——以工具性人格為中心》,《法學》2019 年第4 期。
③馮玨:《自動駕駛汽車致?lián)p的民事侵權責任》,《中國法學》2018 年第6 期。
④John Villasenor,Products Liability and Driverless Cars:Issues and Guiding Principles for Legislation,Brooking,2014,p.15.
⑤Ryan J.Duplechin,The Emerging Intersection of Products Liability,Cybersecurity,and Autonomous Vehicles,85 TENN.L.REV.803,2018,p.846.
⑥鄭志峰:《自動駕駛汽車交通事故責任的立法論與解釋論——以民法典相關內(nèi)容為視角》,《東方法學》2021年第3 期。
⑦Draft Report with Recommendations to the Commission on a Civ il Liability Regime for Artificial Intelligence,2020,paragraph A.
⑧Carrie Schroll,Splitting the Bill: Creating a National Car Insurance Fund to Pay for Accidents in Autonomous Vehicles,109 Nw.U.L.Rev.803,2015,p.818-819.
⑨鄭志峰:《自動駕駛汽車的交通事故侵權責任》,《法學》2018 年第4 期。
⑩Civil Law Rules on Robotics—European Parliament Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics(2015/2103(INL)),European Parliament,2017,paragraph AE.
?程嘯:《侵權責任法(第三版)》,法律出版社2021 年版,第561 頁。
???[美]戴維·G.歐文:《產(chǎn)品責任法》,董春華譯,中國政法大學出版社2012 年版,第125、108~109、159 頁。
?Sven A.Beiker,Legal Aspects of Autonomous Driving,52 Santa Clara L.Rev.1145,2012,p.1149.
?Gary E.Marchant,The Coming Collision Between Autonomous Vehicles and the Liability System,52 Santa Clara Law Review 1321,2012,p.1327-1328.
?王樂兵:《自動駕駛汽車的缺陷及其產(chǎn)品責任》,《清華法學》2020 年第2 期。
?張韜略、蔣瑤瑤:《德國智能汽車立法及〈道路交通法〉修訂之評介》,《德國研究》2017 年第3 期。
?European Parliament,Draft Report with Recommendations to the Commission on a Civil liability Regime for Artificial Intelligence,2020,Article 4,Article 8.
?劉靜怡主編:《人工智慧相關法律議題芻議》,元照出版集團2018 年版,第102 頁。
?Civil Law Rules on Robotics—European Parliament Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics(2015/2103(INL)),European Parliament,2017,paragraph AI.
?張力、李倩:《高度自動駕駛汽車交通侵權責任構造分析》,《浙江社會科學》2018 年第8 期。
?鄧建志、程智婷:《自動駕駛汽車適用產(chǎn)品責任的困境與對策》,《時代法學》2022 年第3 期。
?張欣:《我國人工智能技術標準的治理效能、路徑反思與因應之道》,《中國法律評論》2021 年第5 期。
???冉克平:《產(chǎn)品責任理論于判例研究》,北京大學出版社2014 年版,第95、88~89、160 頁。
?不少學者主張適用消費者期待標準,參見韓旭至:《人工智能的法律回應:從權利法理到致害責任》,法律出版社2021 年版,第147~148 頁;宋宗宇、林傳琳:《自動駕駛交通事故責任的民法教義學解釋進路》,《政治與法律》2020 年第11 期。
?楊立新主編:《世界侵權法學會報告(1):產(chǎn)品責任》,人民法院出版社2015 年版,第68 頁。
?Kevin Funkhouser,Note,Paving the Road Ahead:Autonomous Vehicles,Products Liability,and the Need for a New Approach,2013 Utah L.Rev.437,2013,p.456.
?K.C.Webb,Products Liability and Autonomous Vehicles: Who’s Driving Whom,23 Rich.J.L.&Tech.1,2017,p.29-30.
?參見楊潔:《論智能汽車產(chǎn)品缺陷認定及其責任承擔》,《東南大學學報(哲學社會科學版)》2020 年第6 期。
?Mythili Srinivasamurthy,Autonomous Vehicles and Complexities in Allocation of Liability,1 Jus Corpus L.J.360,2021,p.365.
?[英]肯·奧立芬特:《產(chǎn)品責任: 歐洲視角的比較法評論》,王竹、王毅純譯,《北方法學》2014 年第4 期。
?胡凌:《人工智能的法律想象》,《文化縱橫》2017 年第2 期。
?Karni Chagal-Feferkorn,The Reasonable Algorithm,2018U.Ill.J.L.Tech.&Pol'y 111,2018,p.146.
?Ryan Abbott,The Reasonable Computer: Disrupting the Paradigm of Tort Liability,The George Washington Law Review 1,2018,p.37-38.
?[日]彌永真生、宍戶常壽:《人工智能與法律的對話3》,郭美蓉、李鮮花、鄭超譯,上海人民出版社2021 年版,第149 頁。
?葉金強:《侵權過失判斷之中的理性人標準的建構》,《中德法學論壇》2010 年第8 期。
?[美]大衛(wèi)·C.弗拉德克:《負責人缺失的機器:責任規(guī)則與人工智能》,侯賀亮、余守濤譯,載趙萬一、侯東德主編:《法律的人工智能時代》,法律出版社2020 年版,第68 頁。
?孫建偉、袁曾、袁葦鳴:《人工智能法學簡論》,知識產(chǎn)權出版社2019 年版,第87 頁。
?Karni Chagal-Feferkorn,The Reasonable Algorithm,2018U.Ill.J.L.Tech.&Pol'y 111,2018,p.145.
?Ryan J.Duplechin,The Emerging Intersection of Products Liability,Cybersecurity,and Autonomous Vehicles,85 TENN.L.REV.803,2018,p.845.
?Gary Marchant &Rida Bazzi,Autonomous Vehicles and Liability: What Will Juries Do,26 B.U.J.Sci.&TECH.L.67,2020,p.97.
?鄭志峰:《車企要避免夸大宣傳輔助駕駛功能》,載《法治日報》2021 年8 月25 日。
?袁曾:《無人駕駛汽車侵權責任的鏈式分配機制——以算法應用為切入點》,《東方法學》2019 年第5 期。