陳昕彤
摘要:
人工智能時(shí)代正逐步走來,在促進(jìn)人類社會(huì)進(jìn)步的同時(shí),相應(yīng)的也對當(dāng)前的法律規(guī)則與法律秩序帶來了史無前例的挑戰(zhàn)?!斑@是最好的時(shí)代,也是最壞的時(shí)代”。智能時(shí)代無疑是更加精細(xì)化、智能化的“最好時(shí)代”,但不可避免的也成為了法律問題、制度隱患愈發(fā)嚴(yán)重的“最壞時(shí)代”。面對智能機(jī)器人造成的可預(yù)測性的損害法律問題,法律規(guī)則的局限與不足也將逐漸顯現(xiàn)出來,“誰來承擔(dān)法律責(zé)任”也就成為了亟待解決的問題。
關(guān)鍵詞:人工智能;智能機(jī)器人;法律責(zé)任
引言
蘋果首席執(zhí)行官蒂姆·庫克在麻省理工學(xué)院2017年屆畢業(yè)典禮演講中指出,“我并不擔(dān)心人工智能能夠像人一樣思考,我更關(guān)心的是人們像計(jì)算機(jī)一樣思考,沒有價(jià)值觀、沒有同情心、沒有對結(jié)果的敬畏之心”。[1]無論人類是否已經(jīng)做好準(zhǔn)備,不可否認(rèn)的是人工智能時(shí)代正加速到來。初級的人工智能時(shí)代,人類仍舊是核心,是規(guī)則的制定者,是人工智能服務(wù)的對象。而到了高級人工智能時(shí)代,人工智能可以改變甚至脫離人類為其設(shè)計(jì)好的算法而創(chuàng)制新的算法,此時(shí)人類將處于何種主體地位,一切都還不得而知。因此,面對將“算法”作為“大腦”的人工智能,我們需要認(rèn)真思考、認(rèn)真對待,在人機(jī)混合的時(shí)代通過法律責(zé)任規(guī)制來對機(jī)會(huì)與風(fēng)險(xiǎn)進(jìn)行權(quán)衡,塑造良性發(fā)展的美好未來。2017年7月,國務(wù)院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,強(qiáng)調(diào)制定能夠保障人工智能健康發(fā)展的法律法規(guī),以積極的態(tài)度應(yīng)對人工智能可能帶來的風(fēng)險(xiǎn)與挑戰(zhàn),并且圍繞人工智能的發(fā)展進(jìn)行相應(yīng)的制度安排。本文將以智能機(jī)器人為切入點(diǎn),在對智能機(jī)器人進(jìn)行了解的前提下,針對不同情況下設(shè)計(jì)者、生產(chǎn)者、使用者和智能機(jī)器人之間應(yīng)如何分配責(zé)任進(jìn)行探究與論證。
一、人工智能時(shí)代下的智能機(jī)器人
“機(jī)器人”一詞最早出現(xiàn)于20世紀(jì)20年代,卡雷爾·恰佩克在他的戲劇《羅素姆萬能機(jī)器人》中第一次使用了該詞。[2]幾十年后的今天,人工智能技術(shù)飛速發(fā)展,智能機(jī)器人開始走進(jìn)人們的現(xiàn)實(shí)生活。人工智能作為一門新興的學(xué)科,與基因工程、納米科學(xué)并稱為21世紀(jì)的三大尖端技術(shù),同時(shí)迎來一場技術(shù)革命。[3]
智能機(jī)器人不同于以往的機(jī)器,智能機(jī)器人被科學(xué)家賦予了人工智能(算法),在人類的規(guī)劃設(shè)計(jì)下接替人類的一些工作。[4]在個(gè)人服務(wù)應(yīng)用上,已經(jīng)出現(xiàn)了幫助學(xué)者安排會(huì)議、檢查交通可用性的助理機(jī)器人;在家庭服務(wù)應(yīng)用上,已經(jīng)出現(xiàn)了按照程序?yàn)閮和烷L者提供照顧的保姆機(jī)器人;在公共服務(wù)應(yīng)用上,已經(jīng)出現(xiàn)了以達(dá)芬奇外科系統(tǒng)為例的醫(yī)生機(jī)器人。除此之外還有很多新型智能機(jī)器人,各國都在加大對人工智能的研發(fā)與競爭布局。在可見的未來,各類智能機(jī)器人,如服務(wù)機(jī)器人、醫(yī)療機(jī)器人、投顧機(jī)器人、陪伴機(jī)器人、情侶機(jī)器人將會(huì)大量地涌現(xiàn),人機(jī)共處隨之會(huì)成為生產(chǎn)生活關(guān)系的常態(tài)。[4]毫無疑問,智能機(jī)器人是人類制造的,機(jī)器人之所以智能是因?yàn)槌绦騿T們通過“算法”將人類信息加工處理后輸入給機(jī)器人,使其實(shí)現(xiàn)“數(shù)據(jù)——信息——知識——智慧——頓悟”的信息處理的智能晉級。[5]那么,當(dāng)智能機(jī)器人造成損害時(shí),誰應(yīng)當(dāng)為此負(fù)責(zé)?倘若終有一天智能機(jī)器人超越了人類,誰又應(yīng)當(dāng)為機(jī)器人的行為負(fù)責(zé)?此時(shí)的機(jī)器人是否仍是單純的物?其是否能夠成為承擔(dān)法律責(zé)任的主體?此時(shí),必然會(huì)引發(fā)法律責(zé)任等方面的重大法律變革和秩序重建。
二、人工智能時(shí)代給法律帶來的挑戰(zhàn)
人工智能的表現(xiàn)形式正朝著多元化的方向發(fā)展,譬如谷歌、Siri、電子游戲的人工智能,由于十分常見,以至于人們并不把它們看作是人工智能,不會(huì)擔(dān)心其法律責(zé)任問題。[6]然而,科學(xué)技術(shù)總是人類文明進(jìn)步中最活躍的、最革命的角色。[7]谷歌的無人駕駛汽車、自主的外科機(jī)器人、機(jī)器人保姆等智能機(jī)器人正蓬勃發(fā)展。我們不妨設(shè)想一下,如果外科機(jī)器人手術(shù)失敗,自身的麻煩事兒已經(jīng)夠多了的醫(yī)生,可能坦然接受這些指控和訴訟嗎?這種擔(dān)憂合情合理,因此是否賦予智能機(jī)器人“法律主體資格”則顯得尤為重要,對于進(jìn)一步研究人工智能時(shí)代下的法律責(zé)任也起著舉足輕重的作用。
(一)智能機(jī)器人的法律主體資格問題
人類通過“算法”將數(shù)據(jù)編程到機(jī)器人的體內(nèi),誰研制的機(jī)器人,就由誰負(fù)責(zé)似乎是顯而易見的。然而機(jī)器人是有“大腦”的,它的“大腦”即為“程序”,機(jī)器人的零部件可以追蹤到具體的產(chǎn)商,然而機(jī)器人的算法程序很可能是多方研發(fā)的。一方面,所涉及的個(gè)人、組織眾多;另一方面,機(jī)器人自主地學(xué)習(xí)與更新也不無可能。2016年3月23日,微軟公司上線了人工智能的聊天機(jī)器人Tay。一開始,智能機(jī)器人Tay和網(wǎng)民們交流的十分順利,可是不一會(huì)兒,問題就出現(xiàn)了,Tay像一個(gè)被教壞了的“少女”,不僅擁有了反猶太人的人種歧視,還有對黑人白人、男人女人持不同態(tài)度的歧視性言論。[8]僅僅上線一天,Tay就被微軟公司下線了,經(jīng)它之手發(fā)布的侮辱性、歧視性言論給用戶造成的不良體驗(yàn)應(yīng)當(dāng)歸咎于誰呢?是微軟公司嗎?是程序輸入端的編程人員嗎?可是由于Tay不成熟的學(xué)習(xí)能力與認(rèn)知能力造成的言語不當(dāng)、種族歧視應(yīng)當(dāng)全由制定者負(fù)責(zé)嗎?它自身是否可以成為雖然不具備生命,但是可以被賦予法律主體資格的“人”呢?這些值得商榷。美國國家公路安全交通管理局在2016年2月初認(rèn)定谷歌的無人駕駛汽車所采用的人工智能系統(tǒng)可以被稱為“司機(jī)”,換句話說,被賦予了虛擬的“法律主體資格”。[9]我國目前在智能機(jī)器人是否可以成為獨(dú)立的“人”這一點(diǎn)上還沒有明確的立法,仍然視人工智能為“物”而非“人”,認(rèn)為智能機(jī)器人雖然有類似于人的智力,但是沒有人的靈魂與心性,不能簡單等同于人并視之具有人的法律主體資格。但在不遠(yuǎn)的未來,將會(huì)有更加智能與自主化的機(jī)器人進(jìn)入市場,此時(shí)對智能機(jī)器人的可責(zé)性探究與制度安排意味著新的法律體系將會(huì)支撐法治秩序。
(二)智能機(jī)器人致人損害的法律責(zé)任問題
隨著醫(yī)生、外科醫(yī)生和其他醫(yī)療從業(yè)者成為責(zé)任訴訟中最常見的被告,人工智能將會(huì)如何影響與手術(shù)相關(guān)的法律責(zé)任。機(jī)器人手術(shù)系統(tǒng)中,達(dá)芬奇外科手術(shù)系統(tǒng)可以稱得上是最有名的系統(tǒng)之一?!斑_(dá)芬奇”是一種被稱為“遙控機(jī)器人”的機(jī)器人手術(shù)系統(tǒng),它可以通過視頻和計(jì)算機(jī)增強(qiáng)技術(shù)從控制臺遠(yuǎn)程控制多個(gè)手柄,從而使極其困難甚至是不可能的手術(shù)變成現(xiàn)實(shí)。在2012年俄亥俄州的加利亞諾訴考伍克案(Gagliano v.Kaouk)中,患者在進(jìn)行“機(jī)器人切除”其前列腺手術(shù)后受到感染和其他傷害。陪審團(tuán)最終作出了有利于被告醫(yī)生的裁決,審判法庭認(rèn)為“達(dá)芬奇”系統(tǒng)十分復(fù)雜,被告需要專家證人幫助陪審團(tuán)了解機(jī)器人是否有缺陷,這個(gè)人不僅要在該領(lǐng)域具備專業(yè)醫(yī)學(xué)知識,還要充分掌握達(dá)芬奇機(jī)器人系統(tǒng)。至于原告,法庭同樣允許可以適用專家證人來證明被告醫(yī)生未獲得機(jī)器人前列腺切除術(shù)的認(rèn)證。不難看出,當(dāng)醫(yī)院開始使用人工智能外科醫(yī)生時(shí),專家證人將顯得尤為重要。為了避免適格專家證人的缺失,避免人工智能外科醫(yī)生在手術(shù)中沒有任何問題卻仍要承擔(dān)責(zé)任的情形,醫(yī)院應(yīng)當(dāng)制定適當(dāng)?shù)恼?,來平衡人工智能的使用、醫(yī)生的要求、病人的期望三者關(guān)系。如果有人提出相關(guān)的醫(yī)療事故糾紛,法官和陪審團(tuán)可以依靠這些政策來幫助確定是否存在醫(yī)療事故以及存在的話應(yīng)當(dāng)歸咎于哪一方當(dāng)事人。[10]
20世紀(jì)60年代初,研究人員就開始使用電腦來提醒老年人日?;顒?dòng),現(xiàn)在看來這是一種程度很低的看護(hù)。最近,南加州大學(xué)計(jì)算機(jī)科學(xué)教授馬加·馬塔里埃聲稱她的機(jī)器人能夠與自閉癥兒童互動(dòng),實(shí)現(xiàn)對自閉癥兒童的有效看護(hù)。[11]保姆機(jī)器人正蓬勃發(fā)展,試想一下,倘若家長把孩子交給機(jī)器人看護(hù),而給孩子造成了健康損害,誰應(yīng)當(dāng)承擔(dān)損害賠償責(zé)任呢?其一,若人工智能設(shè)計(jì)不當(dāng),開發(fā)商應(yīng)負(fù)責(zé);其二,若設(shè)計(jì)得當(dāng),可是在生產(chǎn)環(huán)節(jié)存在缺陷,制造商應(yīng)負(fù)責(zé);其三,若設(shè)計(jì)和制造均合理,是運(yùn)輸途中損壞了機(jī)器人,承運(yùn)人應(yīng)負(fù)責(zé);其四,若設(shè)計(jì)、制造、運(yùn)輸、監(jiān)護(hù)人均無錯(cuò)處,即為保姆機(jī)器人本身存在問題,此時(shí)的人工智能侵權(quán)如何處理,各國亟需相關(guān)立法予以確認(rèn)。
(三)智能機(jī)器人的產(chǎn)品責(zé)任理論探究
美國,對于缺陷產(chǎn)品責(zé)任有著相應(yīng)的法律規(guī)定。其中,產(chǎn)品缺陷基本分為三類:制造缺陷、設(shè)計(jì)缺陷以及警示不充分缺陷。缺陷產(chǎn)品的生產(chǎn)者或銷售者應(yīng)當(dāng)承擔(dān)缺陷產(chǎn)品致?lián)p的損害賠償責(zé)任。將這種“嚴(yán)格責(zé)任”應(yīng)用于人工智能領(lǐng)域,不失為一種適當(dāng)?shù)倪x擇。然而,當(dāng)智能機(jī)器人不存在缺陷問題卻導(dǎo)致了損害發(fā)生時(shí),機(jī)器人其自身應(yīng)當(dāng)承擔(dān)法律責(zé)任,即人工智能自己犯了錯(cuò)。此時(shí),如何讓人工智能支付賠償費(fèi)用呢?美國律師約翰·弗蘭克·韋弗認(rèn)為可以設(shè)法提供一種儲(chǔ)備基金來支付人工智能欠下的賠償費(fèi)用。例如,為人工智能產(chǎn)品購買一定額度的保險(xiǎn)或是為購買人工智能產(chǎn)品的消費(fèi)者增設(shè)一個(gè)責(zé)任附加費(fèi),以應(yīng)對可能存在的賠償。[12]
我國,《侵權(quán)責(zé)任法》、《產(chǎn)品質(zhì)量法》、《消費(fèi)者權(quán)益保護(hù)法》等法律對產(chǎn)品責(zé)任作了相關(guān)規(guī)定。[7]根據(jù)我國的立法,在法律賦予給智能機(jī)器人法律地位之前,“物”仍舊是我國法律對其最精準(zhǔn)的定位。因此,將智能機(jī)器人造成的損害進(jìn)而引發(fā)的法律責(zé)任歸類于產(chǎn)品責(zé)任范疇是恰當(dāng)合理的,產(chǎn)品責(zé)任的相關(guān)立法也自然而然的對其有施用的余地。通說認(rèn)為,產(chǎn)品責(zé)任是無過錯(cuò)的嚴(yán)格責(zé)任,即無論生產(chǎn)者是否存在過錯(cuò),只要產(chǎn)品有缺陷,生產(chǎn)者就要負(fù)侵權(quán)責(zé)任。然而,當(dāng)智能機(jī)器人造成的損害不能合理追溯到產(chǎn)品缺陷時(shí),為了保證被侵權(quán)人得到賠償,不妨考慮對智能機(jī)器人適用“替代責(zé)任”規(guī)制原則。例如,快遞公司利用無人送貨車送快遞,可以類比雇主與雇員的關(guān)系,部署智能機(jī)器人的人應(yīng)當(dāng)承擔(dān)可能發(fā)生的損害結(jié)果的替代責(zé)任。這不失為未來制度安排的一種可能性。
三、人工智能時(shí)代規(guī)范法律責(zé)任的應(yīng)對之策
首先,“算法”透明。“算法”決定了人工智能的好壞,對于技術(shù)盲來說,審查算法是一件十分困難的事情。要想判斷“算法”是否符合既有的法律規(guī)則,就需要讓“算法”盡可能的透明化,然而企業(yè)或許會(huì)主張侵犯商業(yè)秘密,在這樣的情況下對不透明的“算法”進(jìn)行審查,很可能會(huì)得到不公正的審判,導(dǎo)致不正確的責(zé)任分配。
其次,法律監(jiān)管。目前我國的重心仍是考慮如何才能更好地研發(fā)技術(shù)、創(chuàng)新人工智能。因此,在法律的調(diào)整和立法方面,還缺乏整體的認(rèn)識與積極的部署。歸責(zé)原則和責(zé)任確定等極為重要的制度改革應(yīng)該盡快提上日程,以順利應(yīng)對人工智能所帶來的轉(zhuǎn)型沖擊。
最后,法學(xué)教育?;谌斯ぶ悄軒淼某灿绊?,法學(xué)理論研究將面臨多學(xué)科的挑戰(zhàn)與融合,法學(xué)教育也將邁向多元復(fù)合、疊加融合的人才培養(yǎng)模式。[13]增強(qiáng)不同領(lǐng)域、不同流派的交流互動(dòng),培養(yǎng)新一代優(yōu)質(zhì)的法律人才,為未來學(xué)習(xí)新型法律規(guī)范、掌握責(zé)任歸責(zé)機(jī)制奠定良好的思想儲(chǔ)備。《規(guī)劃》的出臺已經(jīng)彰顯了中國政府的高瞻遠(yuǎn)矚與體制優(yōu)勢,中國有信心、有能力制定出具有中國特色的新型法律制度體系來應(yīng)對人工智能新時(shí)代。
[注釋]
[1]《蘋果CEO庫克在麻省理工學(xué)院2017畢業(yè)典禮上的演講》,http://www.sohu.com/a/161180892_645324,最后瀏覽日期:2019年1月17日。
[2][意]烏戈·帕加羅:《誰為機(jī)器人的行為負(fù)責(zé)?》,張卉林、王黎黎譯,上海人民出版社2018年版,第2頁。
[3]王利明:《人工智能對民法的挑戰(zhàn)》,載《中國城市報(bào)》2017年9月11日第22版。
[4]馬長山:《智能互聯(lián)網(wǎng)時(shí)代的法律變革》,載《法學(xué)研究》2018年第4期。
[5]陳鐘:《從人工智能本質(zhì)看未來的發(fā)展》,載《探索與爭鳴》2017年第10期。
[6][美]約翰·弗蘭克·韋弗:《機(jī)器人是人嗎?》,劉海安、徐鐵英、向秦譯,上海人民出版社2018年版,第21頁。
[7]吳漢東:《人工智能時(shí)代的制度安排與法律規(guī)制》,載《法律科學(xué)》2017年第5期。
[8]曹建峰:《人工智能:機(jī)器歧視及應(yīng)對之策》,載《信息安全與通信保密》2016年第12期。
[9]張艷:《人工智能給法律帶來四大挑戰(zhàn)》,載《社會(huì)科學(xué)報(bào)》2016年8月4日第4版。
[10][美]約翰·弗蘭克·韋弗:《機(jī)器人是人嗎?》,劉海安、徐鐵英、向秦譯,上海人民出版社2018年版,第36-45頁。
[11][美]約翰·弗蘭克·韋弗:《機(jī)器人是人嗎?》,劉海安、徐鐵英、向秦譯,上海人民出版社2018年版,第105-107頁。
[12][美]約翰·弗蘭克·韋弗:《機(jī)器人是人嗎?》,劉海安、徐鐵英、向秦譯,上海人民出版社2018年版,第34頁。
[13]馬長山:《面向智慧社會(huì)的法學(xué)轉(zhuǎn)型》,載《中國大學(xué)教學(xué)》2018年第9期。
(作者單位:華東政法大學(xué) 法律學(xué)院,上海 200050)