陳峻林 鄒孟甫 羅霞
摘 要:隨著無人駕駛技術(shù)的逐步成熟,未來無人駕駛汽車的逐步普及也是大勢(shì)所趨。然而,目前無人駕駛汽車不可避免地會(huì)發(fā)生交通事故,由于無人駕駛汽車與傳統(tǒng)機(jī)動(dòng)車的巨大差異,交通事故責(zé)任認(rèn)定成為爭(zhēng)議的焦點(diǎn)。本文分析了無人駕駛汽車交通事故責(zé)任的認(rèn)定,提出了無人駕駛汽車交通事故責(zé)任的規(guī)則構(gòu)建。
關(guān)鍵詞:無人駕駛;汽車交通事故;侵權(quán);責(zé)任認(rèn)定
一、無人駕駛汽車概念
談及無人駕駛汽車首先須了解“人工智能”。所謂“人工智能”的定義可以分為兩部分,及“人工”和“智能”?!叭斯ぁ斌w現(xiàn)為通過人來制造和操作的;“智能”是智力和能力,及體現(xiàn)為智能性。美國(guó)麻省理工學(xué)院的溫斯頓教授認(rèn)為:“人工智能就是研究如何使計(jì)算機(jī)去做過去只有人才能做的智能工作?!?/p>
人工智能的運(yùn)用范圍極為廣泛,當(dāng)其與汽車相結(jié)合時(shí)就會(huì)出現(xiàn)智能汽車這一概念。而無人駕駛汽車就是智能汽車的一種,也可以稱為輪式移動(dòng)機(jī)器人,主要是依靠車內(nèi)精密的激光測(cè)距儀、視頻攝像頭、車載雷達(dá)、傳感器、人工智能系統(tǒng)為一體實(shí)現(xiàn)其自動(dòng)駕駛功能的機(jī)動(dòng)車。
二、無人駕駛汽車交通事故責(zé)任規(guī)則構(gòu)建
(一)歸責(zé)原則
(1)無人駕駛汽車之間的歸責(zé)原則
當(dāng)無人駕駛汽車和無人駕駛汽車發(fā)生交通事故時(shí),應(yīng)當(dāng)采用嚴(yán)格責(zé)任原則。在世界范圍內(nèi),道路交通安全問題都十分嚴(yán)峻,特別是高速公路的安全更為嚴(yán)峻。而無人駕駛汽車的安全性將會(huì)遠(yuǎn)遠(yuǎn)超過傳統(tǒng)汽車,因?yàn)樗械臒o人駕駛汽車都有防碰撞裝置,除非有設(shè)計(jì)缺陷,一般是不會(huì)發(fā)生交通事故的。無人駕駛汽車的最終目標(biāo),就是極大地減少交通事故。如果排除駕駛?cè)瞬僮魇д`的情形,則兩輛無人駕駛汽車之間發(fā)生事故的可能性微乎其微,若真的發(fā)生了交通事故,也往往可能是其自身的機(jī)械故障或程序錯(cuò)誤等原因,則此時(shí)應(yīng)適用嚴(yán)格的產(chǎn)品責(zé)任,由無人駕駛汽車的軟件設(shè)計(jì)者、生產(chǎn)者和銷售者承擔(dān)連帶責(zé)任。
(2)無人駕駛汽車與傳統(tǒng)機(jī)動(dòng)車之間的歸責(zé)原則
為了方便傳統(tǒng)機(jī)動(dòng)車車主一方維護(hù)自己的權(quán)利,筆者認(rèn)為應(yīng)當(dāng)進(jìn)行舉證責(zé)任倒置。無人駕駛汽車和傳統(tǒng)機(jī)動(dòng)車之間發(fā)生交通事故,應(yīng)當(dāng)采用過錯(cuò)推定的歸責(zé)原則。過錯(cuò)推定原則,使得傳統(tǒng)機(jī)動(dòng)車一方處于有利的訴訟地位,加重了無人駕駛汽車制造商的證明責(zé)任,切實(shí)地保護(hù)了傳統(tǒng)機(jī)動(dòng)車一方的合法權(quán)益,有利于促進(jìn)社會(huì)的穩(wěn)定和安全。因?yàn)槠胀ㄈ艘C明無人駕駛汽車存在過錯(cuò),真的是強(qiáng)人所難,其并不具備檢測(cè)無人駕駛汽車是否合格的專業(yè)水平,其則出于不利的法律訴訟地位。因而無人駕駛汽車采用過錯(cuò)推定原則,從損害事實(shí)中推定無人駕駛汽車有過錯(cuò),那么就使得被侵權(quán)人免除了舉證責(zé)任而處于有利的地位。
(3)無人駕駛汽車與非機(jī)動(dòng)車、行人之間的歸責(zé)原則
無人駕駛汽車與非機(jī)動(dòng)車、行人之間發(fā)生交通事故時(shí),應(yīng)與傳統(tǒng)機(jī)動(dòng)車與非機(jī)動(dòng)車、行人之間發(fā)生交通事故時(shí)適用相同的過錯(cuò)推定責(zé)任和嚴(yán)格責(zé)任。首先,只要無人駕駛汽車與非機(jī)動(dòng)車、行人之間發(fā)生交通事故時(shí),就推定無人駕駛汽車一方有過錯(cuò),以減輕非機(jī)動(dòng)車、行人一方的舉證責(zé)任。其次,如果無人駕駛汽車一方?jīng)]有過錯(cuò)的,則承擔(dān)不超過10%的賠償責(zé)任。但是,若非機(jī)動(dòng)車、行人故意碰撞的,則無人駕駛汽車一方可以完全免責(zé)。
(二)責(zé)任主體
(1)無人駕駛汽車的設(shè)計(jì)者、生產(chǎn)者和銷售者
無人駕駛汽車的設(shè)計(jì)和生產(chǎn),決定了汽車在運(yùn)行時(shí)的可靠性。若無人駕駛汽車在設(shè)計(jì)研發(fā)階段出現(xiàn)了問題,則會(huì)影響到產(chǎn)品從生產(chǎn)到使用的整個(gè)環(huán)節(jié)。無人駕駛汽車也是屬于商品的一種,因此在設(shè)計(jì)生產(chǎn)階段出現(xiàn)問題,則可向產(chǎn)品的設(shè)計(jì)者和生產(chǎn)者追責(zé)。
產(chǎn)品銷售者的責(zé)任在于銷售前妥善地保管產(chǎn)品并與消費(fèi)者進(jìn)行公平交易。若因銷售者的過錯(cuò)在產(chǎn)品運(yùn)輸、保管的過程中使產(chǎn)品存在缺陷,從而使無人駕駛汽車在運(yùn)行時(shí)發(fā)生事故,則應(yīng)當(dāng)由無人駕駛汽車的銷售者承擔(dān)責(zé)任。
(2)無人駕駛汽車的所有人和使用人
無人駕駛汽車本身無需控制即可將駕駛?cè)怂瓦_(dá)目的地,但在其運(yùn)行前,仍需駕駛?cè)诉M(jìn)行簡(jiǎn)單的操作。若因駕駛?cè)瞬僮魇д`或在無人駕駛汽車運(yùn)行期間違反操作規(guī)范或無人駕駛汽車的所有人未盡到注意及維修保養(yǎng)的義務(wù)從而發(fā)生交通事故的,應(yīng)由無人駕駛汽車的所有人和使用人承擔(dān)責(zé)任。
(三)免責(zé)事由
(1)產(chǎn)品免責(zé)事由
無人駕駛汽車屬于產(chǎn)品的范疇,因此其自然適用于產(chǎn)品的三種免責(zé)事由。第一,無人駕駛汽車還未進(jìn)入市場(chǎng)流通,還未產(chǎn)生大量潛在危險(xiǎn)可能性的;第二,無人駕駛汽車投入流通時(shí),引起損害的缺陷尚不存在的;第三,無人駕駛汽車投入流通時(shí)的科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷存在的。
(2)不可抗力
因人力不可抗拒的力量,包括某些自然現(xiàn)象(如地震、臺(tái)風(fēng)、洪水、海嘯等)和某些社會(huì)現(xiàn)象(如戰(zhàn)爭(zhēng)等)致使無人駕駛汽車造成損害的,不應(yīng)承擔(dān)責(zé)任。
(3)受害人故意或過失
受害人故意是指受害人明知自己的行為會(huì)發(fā)生損害后果,仍然追求損害后果的發(fā)生,或放任損害后果的發(fā)生。當(dāng)受害人因故意構(gòu)成免責(zé)事由時(shí),應(yīng)免除侵權(quán)者的責(zé)任。過失是指被侵權(quán)人對(duì)損害的發(fā)生也有過錯(cuò)的,可以減輕侵權(quán)人的責(zé)任。
(4)第三人原因
該過錯(cuò)主體是指除加害方和受害方之外的第三人的過錯(cuò)造成的損害。如黑客通過網(wǎng)絡(luò)篡改無人駕駛汽車的駕駛系統(tǒng)致使其發(fā)生交通事故造成他人損害的,應(yīng)由該黑客承擔(dān)責(zé)任。
三、結(jié)束語
無人駕駛汽車已逐漸與我們的生活息息相關(guān),正確地對(duì)待無人駕駛的發(fā)展,明確地認(rèn)定無人駕駛汽車交通事故責(zé)任的主體,有利于維護(hù)受害者的合法權(quán)益,促進(jìn)無人駕駛技術(shù)的發(fā)展,增加消費(fèi)者對(duì)無人駕駛汽車的認(rèn)識(shí),使無人駕駛汽車更加快速的進(jìn)入市場(chǎng)。同時(shí)初步構(gòu)建無人駕駛汽車交通事故責(zé)任規(guī)則,也有利于逐步地滿足未來人工智能高速發(fā)展的需要,以此為踏板構(gòu)架人工智能的一般規(guī)則。
參考文獻(xiàn)
[1]楊雨淋.我國(guó)無人駕駛汽車在道路交通事故中的侵權(quán)責(zé)任研究[J].理論觀察,2019(03):115-117.
[2]楊立新.自動(dòng)駕駛機(jī)動(dòng)車交通事故責(zé)任的規(guī)則設(shè)計(jì)[J].福建師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2019(03):75-88+169.
作者簡(jiǎn)介
陳峻林(1998—),男,漢族,四川眉山,本科,研究方向:民商法。
鄒孟甫(1999—),男,漢族,四川眉山,本科,研究方向:民商法。
羅霞(1997—),女,漢族,四川瀘州,本科,研究方向:法學(xué)。