摘 要 人工智能產(chǎn)品以其高度的安全性、精確性、自主性等特點(diǎn),被廣泛應(yīng)用于各個(gè)領(lǐng)域,給人們的生活帶來巨大便利;但由于技術(shù)水平不足或人為操作不當(dāng),人工智能產(chǎn)品也造成了許多難以挽回的傷害和損失。無人駕駛汽車在發(fā)生交通事故時(shí),應(yīng)如何確定責(zé)任主體以及認(rèn)定侵權(quán)責(zé)任,成為了法律上亟待解決的問題。我國應(yīng)在本國侵權(quán)責(zé)任制度框架的基礎(chǔ)上,完善對(duì)人工智能的法律規(guī)制。
關(guān)鍵詞 人工智能 侵權(quán)責(zé)任 無人駕駛
作者簡介:馬雪萌,西北大學(xué)法學(xué)院本科生。
中圖分類號(hào):D923.7 文獻(xiàn)標(biāo)識(shí)碼:A DOI:10.19387/j.cnki.1009-0592.2018.07.023
一、引言
2016年3月,谷歌旗下DeepMind公司開發(fā)的人工智能程序AlphaGo在圍棋人機(jī)大戰(zhàn)中,以總比分4:1戰(zhàn)勝了圍棋大師李世石;2017年5月,它又以3:0的總比分擊敗了排名世界第一的世界圍棋冠軍柯潔。AlphaGo的不敗戰(zhàn)績引發(fā)了人們對(duì)于人工智能技術(shù)的狂熱探索,但作為二十一世紀(jì)三大尖端技術(shù)(基因工程、納米科學(xué)、人工智能)之一,人工智能早已在交通、物流、醫(yī)療、教育、制造等眾多領(lǐng)域獲得了廣泛應(yīng)用,并取得了豐碩成果。
然而科學(xué)的進(jìn)步是一種悲喜交加的福音,人工智能產(chǎn)品致人損害的情況數(shù)見不鮮:上個(gè)世紀(jì)八十年代的日本,工業(yè)機(jī)器將工人置入機(jī)器壓死;2007年,美國食品藥品監(jiān)督管理局收到了多份指控醫(yī)療外科手術(shù)機(jī)器人對(duì)病人造成額外傷口及感染的投訴;2016年,網(wǎng)約車巨頭Uber公司的無人駕駛汽車因自動(dòng)駕駛系統(tǒng)故障撞向行人致其死亡,特斯拉汽車也因輔助駕駛功能失常釀成多起車禍……人工智能的危險(xiǎn)似乎從未停止,引起了人們對(duì)這一高精尖技術(shù)發(fā)展的極大恐慌與抵觸。
2017年我國國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》中明確指出,要“搶抓人工智能發(fā)展的重大戰(zhàn)略機(jī)遇,構(gòu)筑我國人工智能發(fā)展的先發(fā)優(yōu)勢,加快建設(shè)創(chuàng)新型國家和世界科技強(qiáng)國”??梢姡鳛閲H競爭的新焦點(diǎn)、社會(huì)發(fā)展的新動(dòng)力,對(duì)于人工智能的探索不能止步不前。因此,對(duì)人工智能產(chǎn)品侵權(quán)問題進(jìn)行必要的法律規(guī)制勢在必行。
二、人工智能的概念
人工智能(Artificial Intelligence,簡稱AI),即在研究人類智能活動(dòng)規(guī)律的基礎(chǔ)上,創(chuàng)建具有類似人類智能的人工系統(tǒng),以期讓計(jì)算機(jī)來完成某些只有人的智力才能勝任的工作,也就是研究如何應(yīng)用計(jì)算機(jī)的軟硬件來模擬人類某些智能行為的基本理論、方法和技術(shù)。
三、 人工智能產(chǎn)品侵權(quán)責(zé)任主體的范圍
一般侵權(quán)責(zé)任的構(gòu)成要件包括行為、過錯(cuò)、損害事實(shí)和因果關(guān)系,這些要件均圍繞著行為人展開,因此,確定人工智能產(chǎn)品侵權(quán)主體是侵權(quán)責(zé)任認(rèn)定的首要任務(wù)。由于人工智能產(chǎn)品常在無人或者少人的環(huán)境下運(yùn)行,其正常工作時(shí)人的參與性相對(duì)較低,所以在確定侵權(quán)主體時(shí)存在一定的特殊性,加大了主體確認(rèn)的難度。我們不妨按照人工智能產(chǎn)品的研發(fā)、生產(chǎn)、銷售和使用的順序,依次確定責(zé)任主體,即產(chǎn)品系統(tǒng)研發(fā)者、產(chǎn)品生產(chǎn)者、產(chǎn)品銷售者和產(chǎn)品使用者,分別分析他們的侵權(quán)責(zé)任主體地位。
(一)人工智能產(chǎn)品的系統(tǒng)研發(fā)者
人工智能產(chǎn)品致人損害,大多是由于系統(tǒng)出現(xiàn)故障,可能是出現(xiàn)卡頓以至于對(duì)危險(xiǎn)處理不及時(shí),也有可能是數(shù)據(jù)瑕疵以致于誤判外部復(fù)雜的環(huán)境,最終導(dǎo)致人身或財(cái)產(chǎn)損失。人工智能產(chǎn)品從屬性上看也屬于商品,自然可以依照《產(chǎn)品質(zhì)量法》對(duì)產(chǎn)品系統(tǒng)研發(fā)者追責(zé)。人工智能產(chǎn)品的系統(tǒng)貫穿該產(chǎn)品生產(chǎn)、銷售和使用等各個(gè)環(huán)節(jié),關(guān)乎產(chǎn)品的可靠性、穩(wěn)定性,甚至關(guān)乎實(shí)際使用人和相對(duì)人的人身財(cái)產(chǎn)安全,可謂是產(chǎn)品的核心,系統(tǒng)研發(fā)者本就承擔(dān)著重于其他參與者的安全保證責(zé)任。因此,由產(chǎn)品的系統(tǒng)研發(fā)者來承擔(dān)侵權(quán)責(zé)任也的確是合情合理的。
(二)人工智能產(chǎn)品的生產(chǎn)者
產(chǎn)品質(zhì)量作為與民生密切相關(guān)的問題,多年來一直為法律界所關(guān)注,遑論人工智能產(chǎn)品這一帶有極大挑戰(zhàn)性的新興領(lǐng)域。當(dāng)前市場中模仿、山寨盛行,常有不法生產(chǎn)者在生產(chǎn)時(shí)以假充真、以次充好,給消費(fèi)者帶來巨大困擾;不難想象,人工智能產(chǎn)品也必然會(huì)面臨這樣的窘境,此時(shí)產(chǎn)品的生產(chǎn)環(huán)節(jié)就顯得尤為重要。我國現(xiàn)有法律規(guī)范如《產(chǎn)品質(zhì)量法》,其中關(guān)于產(chǎn)品質(zhì)量監(jiān)督制度、產(chǎn)品生產(chǎn)者的責(zé)任和義務(wù)規(guī)定以及產(chǎn)品質(zhì)量引起事故的損害賠償與罰則規(guī)定等等,同樣也應(yīng)適用于人工智能產(chǎn)品。需要注意的是,人工智能產(chǎn)品與一般產(chǎn)品不同,它需要更高的精確度和安全性,對(duì)其生產(chǎn)的監(jiān)督檢查也應(yīng)該更加嚴(yán)格。
(三) 人工智能產(chǎn)品的銷售者
產(chǎn)品銷售者的責(zé)任主要產(chǎn)生在進(jìn)貨檢查驗(yàn)收、保持產(chǎn)品質(zhì)量、銷售合格產(chǎn)品等方面。如果因?yàn)殇N售者不當(dāng)經(jīng)營管理導(dǎo)致產(chǎn)品質(zhì)量受損或者銷售者銷售假冒偽劣產(chǎn)品,進(jìn)而造成侵權(quán)案件的產(chǎn)生,產(chǎn)品銷售者應(yīng)當(dāng)對(duì)此承擔(dān)責(zé)任。
(四) 人工智能產(chǎn)品的操作者
人工智能產(chǎn)品的使用者能否作為侵權(quán)責(zé)任主體是一個(gè)值得深入探討的問題。同一般產(chǎn)品一樣,人工智能產(chǎn)品的系統(tǒng)研發(fā)者、生產(chǎn)者和銷售者都是明確的,在歸責(zé)的時(shí)候也很好確認(rèn);但不同于一般產(chǎn)品的是,人工智能產(chǎn)品在正常工作時(shí)是無人或少人操作的,發(fā)生侵權(quán)行為后,直接認(rèn)定產(chǎn)品的操作者有責(zé)任似乎并不十分合理,但將所有責(zé)任歸于研發(fā)、生產(chǎn)或銷售者也難以服眾。
在這種情況下,操作者的資質(zhì)和過失就成為了主要考察對(duì)象:
1.人工智能產(chǎn)品作為一種科技含量極高的產(chǎn)物,操作它的人也應(yīng)該具備相對(duì)較高的資質(zhì)水平才能對(duì)其進(jìn)行良好的控制。如果操作者事先未經(jīng)任何訓(xùn)練就自由支配人工智能產(chǎn)品,造成自己或相對(duì)人的人身、財(cái)產(chǎn)損失,其應(yīng)當(dāng)承擔(dān)責(zé)任。
2.對(duì)于操作者的使用方法也應(yīng)當(dāng)著重考察,例如操作者是否實(shí)施了違反人工智能產(chǎn)品技術(shù)規(guī)范的行為,如果因操作者操作不當(dāng)造成侵權(quán),其應(yīng)當(dāng)承擔(dān)相應(yīng)責(zé)任。
3.鑒于人工智能的特殊性,應(yīng)當(dāng)考察操作者是否盡到高于對(duì)一般產(chǎn)品應(yīng)盡的注意義務(wù),在使用過程中是否仔細(xì)勘察周圍環(huán)境,確保正常情況下的使用安全。
4.任何產(chǎn)品都應(yīng)定期進(jìn)行維修保養(yǎng),人工智能產(chǎn)品更不能例外,操作者對(duì)人工智能產(chǎn)品是否盡到維修保養(yǎng)的義務(wù)也不應(yīng)被忽略,如果操作者過度使用產(chǎn)品或產(chǎn)品因年久失修產(chǎn)生故障造成侵權(quán),操作者應(yīng)當(dāng)承擔(dān)責(zé)任。
值得注意的是,通常情況下在進(jìn)行侵權(quán)責(zé)任歸責(zé)時(shí),對(duì)上述四種侵權(quán)責(zé)任主體的追責(zé)并不是擇一的,而是多元化的,《侵權(quán)責(zé)任法》中的過錯(cuò)推定原則、無過錯(cuò)責(zé)任原則以及追償制度等便是其證明。這樣的制度安排既是出于對(duì)這四種主體行為的約束,限制其設(shè)計(jì)、生產(chǎn)、銷售合格產(chǎn)品,正確操作產(chǎn)品;更是為了防止產(chǎn)品設(shè)計(jì)者、生產(chǎn)者、銷售者和操作者在責(zé)任承擔(dān)上相互推諉,損害相對(duì)人的合法權(quán)益。
四、人工智能產(chǎn)品侵權(quán)責(zé)任認(rèn)定
上述的四種在人工智能產(chǎn)品發(fā)生侵權(quán)后應(yīng)當(dāng)對(duì)此承擔(dān)責(zé)任的主體,在不同情況下,他們是否需要承擔(dān)侵權(quán)責(zé)任以及承擔(dān)責(zé)任的大小也是不同的。我們以無人駕駛汽車為例從以下三種情形為切入點(diǎn)進(jìn)行深入探究。
無人駕駛汽車也稱為輪式移動(dòng)機(jī)器人,是智能汽車的一種,主要依靠車內(nèi)的以計(jì)算機(jī)系統(tǒng)為主的智能駕駛儀來進(jìn)行無人駕駛,它能夠通過車輛內(nèi)部的傳感系統(tǒng)感知路況,自主規(guī)劃最佳行車路線并控制車輛到達(dá)目的地。根據(jù)美國國家公路交通安全管理局對(duì)汽車自動(dòng)化的分級(jí)條款,汽車分為非自動(dòng)化、特定功能自動(dòng)化、組合功能自動(dòng)化、有限的自主駕駛、全面的自主駕駛五級(jí),本文僅探討第五級(jí)即全面自主駕駛的無人駕駛汽車的侵權(quán)問題。
(一) 無人駕駛汽車與無人駕駛汽車之間
對(duì)于全面自主駕駛的無人駕駛汽車而言,汽車操作者只需設(shè)定預(yù)定到達(dá)的目的地即可,其余諸如規(guī)劃路線、道路行駛以及停泊車輛等工作均可由汽車自主完成。無人駕駛汽車盡管品牌眾多,但能夠在經(jīng)過試驗(yàn)后大規(guī)模投放市場,說明其在無人駕駛技術(shù)方面的基本功能相差無幾。兩輛技術(shù)幾乎相同的汽車,同樣具有極高的程序性和系統(tǒng)性,危機(jī)處理能力也都不低,正常行駛時(shí)發(fā)生車禍的可能性很低。此時(shí)的車禍原因很可能是汽車自身的故障所引起的,此時(shí)應(yīng)當(dāng)在汽車的生產(chǎn)與銷售環(huán)節(jié)追責(zé),即追究產(chǎn)品質(zhì)量問題。
(二)無人駕駛汽車與有人駕駛的傳統(tǒng)汽車之間
有人駕駛的傳統(tǒng)汽車在運(yùn)行時(shí),駕駛員者是全程參與的,車輛的行駛?cè)Q于人的意志因素;而無人駕駛汽車在工作時(shí)通常是無人或少人參與,且是事前的參與,例如設(shè)定路線、規(guī)劃時(shí)間等。對(duì)于傳統(tǒng)汽車而言,排除駕駛員未盡維修保養(yǎng)義務(wù)致使車輛發(fā)生故障的情況,其他因?yàn)椴豢煽沽σ鸬墓收显斐善囀Э氐那闆r,不應(yīng)追究駕駛員的責(zé)任。對(duì)于無人駕駛汽車則不同,由于事中無人或少人,全憑汽車自主運(yùn)行,追責(zé)的焦點(diǎn)應(yīng)向前轉(zhuǎn)移至操作者對(duì)路線、時(shí)間等規(guī)劃是否符合操作規(guī)范和操作者是否盡到應(yīng)盡的維修保養(yǎng)義務(wù)上。
另外,人工智能雖能夠模擬人的智力,但目前其在某些方面與人的智力尚有一定差距,體現(xiàn)在無人駕駛汽車上,便是其避險(xiǎn)能力相對(duì)于傳統(tǒng)汽車而言較低,對(duì)危險(xiǎn)的反應(yīng)速度可能會(huì)相對(duì)較差,因此傳統(tǒng)汽車在這種情況下受到的約束也應(yīng)相對(duì)較多。
(三)無人駕駛汽車與非機(jī)動(dòng)車、行人之間
無人駕駛汽車對(duì)危險(xiǎn)的反應(yīng)速度是低于非機(jī)動(dòng)車和行人的,因此在道路上行駛時(shí)其也應(yīng)該受到較高程度的保護(hù),但在傳統(tǒng)觀念看來,汽車與非機(jī)動(dòng)車、行人的地位并不平等,非機(jī)動(dòng)車和行人往往才是處于弱勢地位、需要保護(hù)的一方,所以最好的解決方法其實(shí)是將無人駕駛汽車與非機(jī)動(dòng)車、行人隔離,使其“各行其道”。但即便如此,無人駕駛汽車侵害非機(jī)動(dòng)車或行人的情況并非不會(huì)發(fā)生,這種情況的出現(xiàn),或許是其中一方的過錯(cuò),也有可能是雙方都有過錯(cuò),在此不討論非機(jī)動(dòng)車和行人的過錯(cuò),僅就無人駕駛汽車一方存在過錯(cuò)的情形進(jìn)行分析。無人駕駛汽車存在過錯(cuò)的原因主要有:(1)汽車系統(tǒng)研發(fā)者在進(jìn)行研發(fā)時(shí)方案不合理,但這種情況產(chǎn)生的可能性較小;(2)汽車生產(chǎn)者在生產(chǎn)汽車時(shí)存在過失,生產(chǎn)了不合格的產(chǎn)品;(3)汽車銷售者在銷售過程中沒有盡到檢查驗(yàn)收、保持汽車質(zhì)量或者銷售質(zhì)量合格汽車的義務(wù),致使汽車出現(xiàn)了質(zhì)量問題;(4)汽車操作者在操作過程中違反了技術(shù)規(guī)范或者沒有對(duì)汽車進(jìn)行合適的維修保養(yǎng)工作。
五、結(jié)語
技術(shù)進(jìn)步在帶來新的機(jī)遇的同時(shí),也不可避免的給法律提出了這樣或那樣的新問題和挑戰(zhàn)。我們已經(jīng)步入人工智能時(shí)代,越來越多的企業(yè)開始涉足人工智能產(chǎn)品的研發(fā)與生產(chǎn),不難想象人工智能將在我們未來的生活中扮演著何等重要的角色,而在其大量應(yīng)用于生活時(shí),也一定會(huì)產(chǎn)生諸如侵權(quán)責(zé)任等復(fù)雜的法律問題。在追究人工智能產(chǎn)品侵權(quán)責(zé)任時(shí),侵權(quán)責(zé)任主體的確定和在不同情形下的責(zé)任認(rèn)定就顯得尤為重要。
參考文獻(xiàn):
[1]吳漢東.人工智能時(shí)代的制度安排與法律規(guī)制.法律科學(xué)(西北政法大學(xué)學(xué)報(bào)).2017(5).
[2]陳曉林.無人駕駛汽車致人損害的對(duì)策研究.重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版).2017(4).
[3]張童.人工智能產(chǎn)品致人損害民事責(zé)任研究.社會(huì)科學(xué).2018(4).