[德]霍斯特·艾丹米勒 著 李 飛 敦小匣 譯
機(jī)器人的崛起與人類的法律*
[德]霍斯特·艾丹米勒 著 李 飛 敦小匣 譯**
機(jī)器人的崛起和“機(jī)器人法律”的出現(xiàn)引發(fā)了一些重要問題。以無人駕駛汽車的場景為例(這些穿梭在公路上的機(jī)器人極有可能會(huì)給我們的日常生活及商業(yè)帶來革命性變革),可以從法律上得出如下觀點(diǎn):其一,機(jī)器人規(guī)制必須要針對(duì)特定機(jī)器人以及具體場景而定。這就要求對(duì)特定領(lǐng)域的“機(jī)器人行為”產(chǎn)生的微觀與宏觀效果有深刻的認(rèn)識(shí)。其二,(完善的)現(xiàn)有法律類型能夠被合理地應(yīng)用并對(duì)機(jī)器人予以規(guī)制。其三,機(jī)器人法律受到社會(huì)“深層次規(guī)范結(jié)構(gòu)”的影響。其四,如果該結(jié)構(gòu)是實(shí)用主義的,那么在不遠(yuǎn)的將來,智能機(jī)器人就會(huì)被當(dāng)作人類來對(duì)待。那就意味著,智能機(jī)器人應(yīng)當(dāng)被賦予法律人格,并因此有能力取得并持有財(cái)產(chǎn)以及訂立合同。其五,反對(duì)將機(jī)器人當(dāng)作人類一樣對(duì)待的理由源自于認(rèn)識(shí)論與本體論層面。
機(jī)器人 機(jī)器人法律 人工智能 無人駕駛汽車 事故責(zé)任 基本法律概念
一旦有法律人士參與到一場討論中,該話題的有趣部分往往就結(jié)束了。工程師與計(jì)算機(jī)專家在這方面有過之而無不及。在本文中,我將探討的是機(jī)器人與法律。因此,受主題所限,本文的娛樂前景可能有限。然而,法律與人工智能(AI)的互動(dòng)卻會(huì)提出一些令人激動(dòng)且頗為重要的問題;同時(shí),這些問題的答案無疑將會(huì)在未來數(shù)十年影響人類的命運(yùn)。
人工智能正在快速地影響著我們的生活及工作方式。隨著人們的日常工作(包括手工操作及認(rèn)知層面)變得越來越自動(dòng)化,預(yù)計(jì)到2025年,將會(huì)有大約三分之一的傳統(tǒng)職業(yè)被機(jī)器人(內(nèi)含人工智能[1]See Calo, Robotics and the Lessons of Cyberlaw, California Law Review 103 (2015), pp. 513, 532 et seq.)所取代。[2]See Hernaes, Artificial Intelligence, Legal Responsibility and Civil Rights, 22 August 2015, https://techcrunch.com/2015/08/22artificialintelligence-legal-responsibility-and-civil-rights/ (last visited on 10 March 2017). 關(guān)于這一問題的周全應(yīng)對(duì)及明智的政策選擇,See Ford, The Rise of Robots: Technology and the Treat of Mass Unemployment. London: Oneworld, 2015.法律將會(huì)決定人工智能的未來,比如,法律將決定人工智能允許使用的領(lǐng)域,新產(chǎn)品和新技術(shù)的成本,以及其他方面。此外,對(duì)人工智能的最初監(jiān)管決定將至關(guān)重要,這些決定可能會(huì)創(chuàng)建路徑依賴關(guān)系,并使日后更改管理過程變得困難。
規(guī)制人工智能將會(huì)充滿挑戰(zhàn)與困難。畢竟,法律是——并且始終是——由人類制定并服務(wù)于人類的。想想那些基礎(chǔ)概念吧,比如“人格”與“法律人格”。歷史上,這些概念都與人類(即自然人)有關(guān)。因此人工智能將會(huì)對(duì)法律體系產(chǎn)生影響:我們要如何對(duì)待機(jī)器人?我們要賦予它們法律人格嗎(使它們有權(quán)取得并持有財(cái)產(chǎn)、訂立合同等)?[3]關(guān)于這一問題的概要,可參見,比如,Kersten, Menschen und Maschinen, Juristenzeitung (JZ) 2015, pp. 1, 6-7.
在本文中,我將嘗試回答這些問題以及由于機(jī)器人崛起和“機(jī)器人法律”出現(xiàn)而引發(fā)的其他重要問題。本文的主要論點(diǎn)如下:其一,機(jī)器人規(guī)制必須要針對(duì)特定機(jī)器人以及具體場景而定。這就要求對(duì)特定領(lǐng)域的“機(jī)器人行為”產(chǎn)生的微觀與宏觀效果有深刻的認(rèn)識(shí)。其二,(完善的)現(xiàn)有法律類型能夠被合理地應(yīng)用并對(duì)機(jī)器人予以規(guī)制。其三,機(jī)器人法律受到社會(huì)“深層次規(guī)范結(jié)構(gòu)”的影響。其四,如果該結(jié)構(gòu)是實(shí)用主義的,那么在不遠(yuǎn)的將來,智能機(jī)器人就會(huì)被當(dāng)作人類來對(duì)待。那就意味著,智能機(jī)器人應(yīng)當(dāng)被賦予法律人格,并因此有能力取得并持有財(cái)產(chǎn)以及訂立合同。其五,反對(duì)將機(jī)器人當(dāng)作人類一樣對(duì)待的理由源自于認(rèn)識(shí)論與本體論層面。這些觀點(diǎn)都關(guān)系到機(jī)器人是否能思考(它們不能)以及成為人類意味著什么。
我將主要以無人駕駛汽車的場景為例來闡述這些論點(diǎn)——這些穿梭在公路上的機(jī)器人極有可能會(huì)給我們的日常生活及商業(yè)帶來革命性變革。[4]See Eidenmüller, Whose Fault? Firms, Products and Liability in the Age of Artificial Intelligence, BMW Welcomes: Artificial Intelligence, Munich 21 April 2016, https://www.youtube.com/watch?v=4b6qElmM_Ng&t=14s (last visited on 7 March 2017).然而,為了闡明機(jī)器人給我們的社會(huì)結(jié)構(gòu)帶來的巨大的潛在影響,我會(huì)舉出更多的例子予以說明。
目前,在機(jī)器人的諸多發(fā)展領(lǐng)域中,對(duì)無人駕駛汽車的討論最多。[5]See, for example, Lipson/Kurman, Driverless: Intelligent Carts and the Road Ahead. Cambridge, MA: MIT Press, 2016.事實(shí)的確如此,大多數(shù)汽車生產(chǎn)商都在試驗(yàn)無人駕駛汽車,這些汽車現(xiàn)已在世界各地的公路上進(jìn)行測(cè)試。[6]See "33 Corporations Working On Autonomous Vehicles", https://www.cbinsights.com/blog/autonomous-driverless-vehiclescorporations-list/ (last visited on 20 March 2017).谷歌似乎在這一領(lǐng)域一直處于領(lǐng)軍地位。[7]See "Google Self-driving Car Project", https://plus.google.com/+SelfDrivingCar (last visited on 10 March 2017).谷歌汽車的一個(gè)重要特征是其不斷旋轉(zhuǎn)的車頂攝像頭,這個(gè)攝像頭可以發(fā)射出64組激光柱并形成物體的3D影像,使汽車能夠自我定位。這種汽車的駕駛行為由復(fù)雜的軟件控制。
機(jī)器人另一個(gè)重要的應(yīng)用領(lǐng)域是醫(yī)學(xué)界。例如,型號(hào)只有1-10/1,000,000毫米大小的納米科技醫(yī)療機(jī)器人的模型已經(jīng)問世。[8]See "Nanotech Robots Travel Through Blood to Turn Off Tumor Cells", http://inhabitat.com/nanotech-robots-travel-through-blood-toturn-off-tumor-cells/ (last visited on 10 March 2017).這些納米科技醫(yī)療機(jī)器人將在病人的血液中穿行并進(jìn)入腫瘤,通過驅(qū)除一種重要的癌癥基因來進(jìn)行治療。
機(jī)器人也開始應(yīng)用于金融及金融咨詢行業(yè)。“機(jī)器金融顧問”的問世,可能會(huì)以其低成本、自動(dòng)化投資的優(yōu)勢(shì)對(duì)經(jīng)濟(jì)業(yè)務(wù)進(jìn)行重組。[9]See Bernard, Should A Robot Oversee Your Retirement Money?, New York Times of 3 May 2016, p. 15.比如,瑞銀集團(tuán)(UBS)最近宣布,其所屬的美國財(cái)富管理機(jī)構(gòu)的顧問將會(huì)利用機(jī)器人為資產(chǎn)雄厚的客戶提供服務(wù)。[10]See "UBS to Offer SigFig's Robo-platform to Its Financial Advisers", http://www.investmentnews.com/article/20160516/ FREE/160519939/ubs-to-offer-sigfigs-robo-platform-to-its-financial-advisers (last visited on 10 March 2017).這項(xiàng)技術(shù)已由一家位于圣弗蘭西斯科的新興公司開發(fā)出來,公司的7,000多名顧問將使用這項(xiàng)技術(shù),這家名為SigFig財(cái)富管理(SigFig Wealth Management)的公司是一家發(fā)展迅速的機(jī)器顧問生產(chǎn)商。[11]See https://www.sigfig.com/site/#/home/am (last visited 10 March 2017).
最后,人工智能也將會(huì)從根本上改變法律職業(yè)。[12]See Remus/Levy, Can Robots Be Lawyers? Computers, Lawyers, and the Practice of Law, https://papers.ssrn.com/so13/papers. cfm?abstract_id=2701092 (last visited on 11 March 2017); Susskind//Susskind, The Future of the Professions: How Technology will Transform the Work of Human Experts. Oxford: Oxford University Press, 2015, pp. 66-71; Kaplan, Humans Need Not Apply: A Guide to Wealth and Work in the Age of Artificial Intelligence. New Haven and London: Yale University Press, 2015, pp. 145-149.實(shí)際上,人工智能系統(tǒng)已開始輔助解決(自動(dòng)化的)糾紛案,[13]See Fatima/Kraus/Wooldridge, Principles of Automated Negotiation. Cambridge: Cambridge University Press, 2014. 在這個(gè)領(lǐng)域,領(lǐng)先的私人服務(wù)商是Modria公司。See http://modria.com/ (last visited on 11 March 2017).而且,“機(jī)器人律師”也開始登上舞臺(tái)。例如,2016年,美國一家律師事務(wù)所雇用了世界上第一個(gè)名為Baker Hostedler的人工智能律師,這個(gè)被認(rèn)證為ROSS-Intelligence的“機(jī)器人律師”應(yīng)用于破產(chǎn)重組與債權(quán)人權(quán)利保護(hù)部門。[14]See "The World's First Artificially Intelligent Lawyer Was Just Hired at a Law Firm", http://www.businessinsider.com/the-worlds-firstartificially-intelligent-lawyer-gets-hired-2016-5?IR=T (last visited on 10 March 2017).“機(jī)器人律師”主要應(yīng)用于文件檢索和查找歸類方面。[15]See Sobowale, How Artificial Intelligence is Transforming the Legal Profession, 1 April 2016, http://www.abajournal.com/magazine/ article/how_artificial_intelligence_is_transforming_the_profession (last visited on 20 March 2017).在英格蘭,預(yù)測(cè)編碼(為查找文件進(jìn)行的分類)最近在2016年5月17日的Brown vs BCA Trading一案中得到了高等法院的支持。[16]Brown v BCA Trading Ltd [2016] EWHC 1464 (Ch) (17 May 2016).“機(jī)器人律師”還將應(yīng)用于(在線)起草法律文件,[17]On "Computational Law" see, for example, Kaplan, Artificial Intelligence: What Everyone Needs to Know. Oxford: Oxford University Press, 2016, pp. 95-97.同時(shí)以區(qū)塊鏈技術(shù)為基礎(chǔ)的“智能合約”(smart contracts)將指日可待。[18]See, for example, Eyers, Lawyers Prepare for "Driverless M & A" as Smart Contract Era Dawns, 19 June 2016, http://www.afr.com/ technology/lawyers-prepare-for-driverless-ma-as-smart-contract-era-dawns-20160616-gpknyz (last visited 11 March 2017).
人工智能還會(huì)以“機(jī)器人法官”的形式出現(xiàn)?;谝唤M150,000例重罪案件組成的數(shù)據(jù),Kleinberg等人研究發(fā)現(xiàn),基于機(jī)器學(xué)習(xí)(machine learning)預(yù)測(cè)的釋放裁決(尚懸而未決的案件)將會(huì)在不提高犯罪率的前提下,減少25%的監(jiān)獄人數(shù),或者在不改變監(jiān)獄人數(shù)的情況下降低20%的犯罪率。[19]See Kleinberg/Lakkaraju/Leskovec/Ludwig/Mullainathan, Human Decisions and Machine Predictions, NBR Working Paper No. 23180, February 2017, http://www.nber.org/papers/w23180 (last visited on 11 March 2017).總之,機(jī)器人律師和機(jī)器人法官似乎會(huì)在諸多方面帶來顯著的正面影響,如使法律咨詢費(fèi)用更合理,作出的審判更準(zhǔn)確,并使多數(shù)人群獲得司法公正的機(jī)會(huì)。
就上述討論的例子而言,某些“機(jī)器人特征”對(duì)考慮機(jī)器人的規(guī)制很重要。正如前面提到的那樣,機(jī)器人是表現(xiàn)人工智能的一種形式,其組成部分包含了一個(gè)傳感器或其他的輸入機(jī)制、一個(gè)起控制作用的運(yùn)算法則以及對(duì)外界作出回應(yīng)的能力。[20]See Franklin, Introduction, in: Calo/Froomkin/Kerr (eds.), Robot Law. Cheltenham, UK and Northampton, MA: Edward Elgar, 2016, pp. x, xi.這三個(gè)部分一起組成了所謂的“感應(yīng)-思考-行為范式”。[21]See, for example, Hexmoor, Essential Principles for Autonomous Robotics. San Rafael, CA: Morgan & Claypool, 2013, p. 25.傳感器或其他的輸入機(jī)制可以從多個(gè)源頭獲得感應(yīng),就如同“網(wǎng)絡(luò)汽車”(networked cars)那樣。[22]See, for example, Lim/Balakrishnan/Eriksson/Gifford/Madden/Rus, Intelligent Transportation with Networked Cars, https://groups.csail. mit.edu/drl/wiki/images/0/0f/LimMobisysDemo08.pdf (last visited on 26 March 2017).如上所述,網(wǎng)絡(luò)汽車會(huì)利用攝像頭、來自GPS的交通數(shù)據(jù),以及來自互聯(lián)網(wǎng)的地理數(shù)據(jù)。
智能機(jī)器人具備機(jī)械學(xué)習(xí)的能力,例如,它們不但可以利用海量的現(xiàn)有數(shù)據(jù),而且還能利用來自實(shí)踐的數(shù)據(jù)以及其他新信息去調(diào)整它們的行為。[23]See Brynjolfsson/McAffe, The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. New York, NY and London: W. W. Norton, 2014, pp. 89-96; Kaplan (note 17 supra), pp. 27 et seq. (“因此,四個(gè)趨勢(shì)——計(jì)算速度與儲(chǔ)存的改進(jìn)、信息存儲(chǔ)從物理式到電子式的轉(zhuǎn)變、更容易使用 以及低成本、高分辨的數(shù)字感應(yīng)器——是從象征推理到機(jī)器學(xué)習(xí)過程中重新集中精力的主要驅(qū)動(dòng)器”, ibid. at p. 39)因此,在一定程度上,這些機(jī)器人被刻意設(shè)計(jì)得變幻莫測(cè)。[24]See Millar/Kerr, Delegation, Relinquishment and Responsibility: The Prospect of Expert Robots, in: Calo/Froomkin/Kerr (note 20 supra), pp. 102, 107.一個(gè)有趣的問題是,在某個(gè)時(shí)候,機(jī)器人能否達(dá)到超人(super-human)的智力水平。[25]See Generally Bostrom, Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.這種想法常被歸結(jié)為“奇點(diǎn)”(singularity)。[26]See Bostrom (note 25 supra), pp. 1-3; Ford (note 2 supra), pp. 225-245.機(jī)器人可能會(huì)獲知它們是怎樣被人類控制的,并實(shí)現(xiàn)自我控制。但就目前而言,關(guān)于“奇點(diǎn)”的爭辯還更多地停留在學(xué)術(shù)(以及虛構(gòu)的)層面,而非現(xiàn)實(shí)層面。
在各種形態(tài)的機(jī)器人當(dāng)中,一個(gè)重要的子類別便是“社交機(jī)器人”(social robots)。[27]See KPMG, Social Robots: 2016's New Bread of Social Robots is Ready to Enter Your World, 2016, https://assets.kpmg.com/content/dam/ kpmg/pdf/2016/06/social-robots.pdf (last visited on 26 March 2017).這種機(jī)器人是專門設(shè)計(jì)出來與人類互動(dòng)的,這類似于那些具有人類特征的兒童玩具。[28]關(guān)于這類玩具,比如,可參見"Netzagentur ruft Eltern auf, Puppe 'Cayla' zu zerstren", 16 February 2017, http://www.sueddeutsche. de/digital/ueberwachung-im-kinderzimmer-netzagentur-ruft-eltern-auf-puppe-cayla-zu-zerstoeren-1.3383009 (last visited on 26 March 2017)。研究已經(jīng)確認(rèn)了“社交機(jī)器人”的“社會(huì)價(jià)值”:人類把擬人化的機(jī)器人當(dāng)成人類一樣對(duì)待。[29]See Darling, Extending Legal Protection to Social Robots: The Effects of Anthropomorphism, Empathy, and Violent Behaviour towards Robotic Objects, in: Calo/Froomkin/Kerr (note 20 supra), pp. 213, 216 et seq.這就潛在地產(chǎn)生了重要的規(guī)制意義。
本文提出的第一個(gè)論點(diǎn)是,機(jī)器人規(guī)制必須基于“特定的機(jī)器人語境”,這要求對(duì)特定領(lǐng)域的“機(jī)器人行為”產(chǎn)生的微觀及宏觀效果有深刻的理解。我將以全自動(dòng)汽車的事故責(zé)任為例來闡述這一論點(diǎn),這是測(cè)試“機(jī)器人法律”很好的例子。
在未來的20到25年中,行駛在公路上的汽車大概會(huì)有75%為無人駕駛汽車。[30]See Kaplan (note 12 supra), p. 195 (“專家一致意見是,在未來的20年或25年中,公路上的汽車75%將會(huì)是自動(dòng)駕駛汽車); HopgoodGanim, Autonomous Car: The Regulatory and Liability Challenges, 8 April 2016, http://www.hopgoodganim.com.au/page/Publications/ Autonomous_Car_The_regulatory_and_liability_challenges/ (last visited on 11 March 2017).與這一趨勢(shì)相關(guān),會(huì)隨之出現(xiàn)許多重大的積極進(jìn)展。首先,我們看到的是,汽車事故會(huì)明顯減少。同時(shí)——也是更為重要的——死亡事故會(huì)減少。目前,世界上每年在汽車事故中喪生的人數(shù)大概有130萬。[31]See Gurney, Sue My Car Not Me: Products Liability and Accidents Involving Autonomous Vehicles, Journal of Law, Technology & Policy 2013, pp. 247, 250.這些致命的事故中大約有90%是由人為失誤造成的,9%是因環(huán)境條件引起的,不到1%的事故是因技術(shù)缺陷導(dǎo)致的。[32]See Statistisches Bundesamt, Verkehr auf einen Blick, 2013, p. 36, https://www.destatis.de/DE/Publikationen/Thematisch/ TransportVerkehr/Querschnitt/BroschuereVerkehrBlick0%20080006139004.pdf?__blob=publicationFile (last visited on 11 March 2017).其次,殘疾人、老年人的流動(dòng)會(huì)增加。同時(shí),駕駛的機(jī)會(huì)成本會(huì)顯著降低。平均算下來,我們一生中會(huì)花費(fèi)4年以上的時(shí)間用于開車,[33]See "30 Surprising Facts about How We actually Spend Our Time", 7 January 2015, http://distractify.com/old-school/2015/01/07/ astounding-facts-about-how-we-actually-spend-our-time-%201197818577 (last visited on 20 March 2017).而且,我們駕車時(shí),并非總能像開著寶馬一樣給你帶來“純粹的駕駛快感”。[34]See http://www.bmw.com/com/en/insights/brandcampaign_pleasure/experience.html?cm=Facebook (last visited on 9 March 2017).我們可以將花在車輪上的時(shí)間用于做更有價(jià)值的事情,如閱讀、思考或者僅僅只是做夢(mèng)。另外,由于汽車的共享,我們?cè)诖蠼稚峡吹降钠嚂?huì)越來越少,這將會(huì)節(jié)省停車空間,縮短出行時(shí)間并減少汽車尾氣排放。
不過,也會(huì)出現(xiàn)一些負(fù)面問題。首先,在某些行業(yè),會(huì)有更多人失業(yè)。出租車與公交車駕駛員顯然會(huì)首當(dāng)其沖。其次,隨著汽車聯(lián)網(wǎng)的普及,汽車更容易受到破壞性的網(wǎng)絡(luò)攻擊,[35]See Lin, The Ethics of Autonomous Cars, 8 October 2013, https://www.theatlantic.com/technology/archive/2013/10/the-ethics-ofautonomous-cars/280360/ (last visited on 11 March 2017).這樣,發(fā)生“重大事故”的風(fēng)險(xiǎn)就更大了。另外,盡管離奇的“小”事故比較少見,但是仍會(huì)發(fā)生。2016年上半年便發(fā)生了兩起這樣的事故。在一起事故中,一輛谷歌汽車在加州的芒廷維尤(Mountain View)變換車道時(shí)撞上了一輛公交車。[36]See https://www.youtube.com/watch?v=I9T6LkNm-5w (last visited on 9 March 2017).這輛谷歌汽車損毀嚴(yán)重,而公交車只是被輕微地剮蹭。在另一起較為嚴(yán)重的事故中,一輛以無人駕駛模式行駛的特斯拉汽車在佛羅里達(dá)州撞上了一輛貨車,特斯拉汽車的駕駛者在這起事故中喪生。[37]See https://www.theguardian.com/technology/2016/jun/30/tesla-autopilot-death-self-driving-car-elon-musk (last visited on 9 March 2017).顯而易見,特斯拉的傳感系統(tǒng)沒能識(shí)別對(duì)向駛來的貨車。
因此,上述事例表明,針對(duì)這種技術(shù)的宏觀與微觀影響,機(jī)器人的有效規(guī)制必須適當(dāng)調(diào)整——相關(guān)規(guī)制必須能夠應(yīng)對(duì)特定機(jī)器人帶來的社會(huì)變化,并同時(shí)能夠應(yīng)對(duì)日常生活中出現(xiàn)的風(fēng)險(xiǎn)與機(jī)會(huì)。
接下來,針對(duì)全自動(dòng)汽車的事故責(zé)任問題,我將闡述第二個(gè)論點(diǎn):(完善的)現(xiàn)有法律類型能夠被合理地應(yīng)用于機(jī)器人,并能有效規(guī)制它們的行為。其中,我將提出并回答的問題是:如果發(fā)生了事故,誰來承擔(dān)侵權(quán)責(zé)任?我不會(huì)分析現(xiàn)有的法律體系是如何處理這一問題的;[38]For the US see Gurney (note 31 supra), pp. 257-271; Karnow, The Application of Traditional Tort Theory to Embodied Machine Intelligence, in: Calo/Froomkin/Kerr (note 20 supra), pp. 51, 61-74; for Germany see Schulte-Nlke, Europisierung des Haftungsrechts, in: E. Lorenz (Hrsg.), Karlsruher Forum 2015: Europisierung des Haftungs- und des Versicherungsvertragsrechts (Karlsruhe: Verlag Versicherungswirtschaft, 2016), pp. 3, 31 et seq.; Lutz, Autonome Fahrzeuge als rechtliche Herausforderung, Neue Juristische Wochenschrift (NJW) 2015, pp. 119, 119-121.相反,如果有人來設(shè)計(jì)剮蹭事故的責(zé)任體系,我將對(duì)最佳“方案”頗感興趣。因此,我將考慮各種可能性:①無人承擔(dān)責(zé)任(“損失自負(fù)”);②汽車生產(chǎn)商承擔(dān)責(zé)任;③人工智能(設(shè)備)生產(chǎn)商承擔(dān)責(zé)任(并非汽車生產(chǎn)商);④汽車所有人承擔(dān)責(zé)任(全自動(dòng)汽車沒有“駕駛?cè)恕保?;⑤汽車自己承?dān)責(zé)任。最后一種可能性看上去似乎特別異想天開,但是,事情正在快速地演變。2015年,在瑞士的一件藝術(shù)裝置中,一個(gè)機(jī)器人在暗網(wǎng)(dark web)上購買了搖頭丸和一本偽造的匈牙利護(hù)照,還有其他東西。[39]See http://fusion.net/story/122192/robot-that-bought-ecstasy-and-a-fake-passport-online-released-from-swiss-prison/ (last visited on 9 March 2017).這個(gè)機(jī)器人——而非藝術(shù)家或者其他人——被圣加侖的警察局逮捕,并于三個(gè)月后釋放。
考慮到上述五種可能性,基于若干原因,汽車生產(chǎn)商的嚴(yán)格責(zé)任——第二個(gè)規(guī)制選擇——似乎更受青睞。[40]See Eidenmüller (note 4 supra); Eidenmüller, Wenn Maschinen tten, Süddeutsche Zeitung of 13 July 2016, p. 2.
首先,無人承擔(dān)責(zé)任的解決方案顯然無法接受??深A(yù)期的(事故)成本將不會(huì)被生產(chǎn)商予以內(nèi)化,因此,他們會(huì)在不當(dāng)激勵(lì)下以過低的成本與價(jià)格生產(chǎn)過量的汽車。與此同時(shí),在“無人承擔(dān)責(zé)任的機(jī)制”之下,我們將不愿意去購買和(或)使用自動(dòng)汽車——甚至可能會(huì)完全逃避此類活動(dòng)。
在汽車生產(chǎn)商的嚴(yán)格責(zé)任制度下,該責(zé)任的建立并不需要主觀過錯(cuò),只要具備有缺陷的產(chǎn)品和因果關(guān)系即可。生產(chǎn)商貌似最能有效控制風(fēng)險(xiǎn)并平衡“駕駛”全自動(dòng)汽車技術(shù)的收益與成本:生產(chǎn)商研發(fā)并使用人工智能,而且非常熟悉相關(guān)技術(shù)。例如,谷歌對(duì)上述汽車事故的反應(yīng)顯然迅速而老練,能夠很快地查找到造成事故的原因。[41]See "Google Self-driving Car Crashes into a Bus (update: statement)", 29 February 2016, https://www.engadget.com/2016/02/29/googleself-driving-car-accident/ (last visited on 26 March 2017).
此外,相較于嚴(yán)格責(zé)任制度,在生產(chǎn)與銷售全自動(dòng)汽車的過程中,過失責(zé)任制度要求法院確定生產(chǎn)商應(yīng)保持的謹(jǐn)慎程度。和所有新興、復(fù)雜的技術(shù)一樣,這項(xiàng)操作非常煩瑣。另外,過失責(zé)任制度并不控制生產(chǎn)商的“行為層次”(activity level),如汽車生產(chǎn)與銷售的數(shù)量。[42]See, for example, Jackson/Kaplow/Shavell/Viscusi/Cope, Analytical Methods for Lawyers. New York, NY: Foundation Press, 2003, pp. 404-405.因此,嚴(yán)格責(zé)任制度似乎是更好的選擇。
第三個(gè)規(guī)制選擇——人工智能(設(shè)備)生產(chǎn)商與汽車的生產(chǎn)商不是同一家時(shí),前者的責(zé)任如何?我認(rèn)為,在一項(xiàng)復(fù)雜的技術(shù)產(chǎn)品中,一般來說很難將事故的原因梳理清楚,特別是涉及全自動(dòng)汽車時(shí)。而且汽車生產(chǎn)商“控制著”系統(tǒng),包括所有的組成部件。所以,汽車生產(chǎn)商可能是“最低成本避免者”(cheapest cost avoider)。[43]如果當(dāng)事人能夠以零(交易)成本就可適用的責(zé)任規(guī)則討價(jià)還價(jià),他們將以最低的成本就當(dāng)事人的責(zé)任達(dá)成合同(避免承擔(dān)預(yù)見到的事故成本)(科斯定理)。See Coase, The Problem of Social Cost, Journal of Law and Economics 3 (1960), pp. 1 et seq.就對(duì)第三方的侵權(quán)責(zé)任而言,汽車生產(chǎn)商應(yīng)當(dāng)是唯一的責(zé)任承擔(dān)者。當(dāng)然,如果事故最終判定是由存在缺陷的人工智能設(shè)備造成的,汽車生產(chǎn)商可以從設(shè)備生產(chǎn)商那里獲得賠償。為了應(yīng)對(duì)這一風(fēng)險(xiǎn),法律應(yīng)該規(guī)定生產(chǎn)商購買產(chǎn)品責(zé)任保險(xiǎn)。
事實(shí)上,責(zé)任承擔(dān)問題的上述“解決方案”似乎是隨著市場與私人承包業(yè)務(wù)的變化而變化的。例如,在2015年年底,沃爾沃宣布將對(duì)無人駕駛汽車的后果承擔(dān)責(zé)任。[44]See "Volvo CEO: We will Accept All Liability When Our Cars are in Autonomous Mode", http://fortune.com/2015/10/07/volvo-liabilityself-driving-cars/ (last visited on 9 March 2017).在這一聲明中,沃爾沃向市場發(fā)出了一個(gè)強(qiáng)有力的信號(hào):我們對(duì)自己的技術(shù)有信心。這個(gè)信號(hào)給競爭者造成了很大壓力并迫使它們?nèi)绶ㄅ谥?。上述“方案”也借鑒了產(chǎn)品責(zé)任指令(85/374/EEC)所規(guī)定的法律現(xiàn)狀,但有一個(gè)例外:根據(jù)這一指令,汽車的生產(chǎn)商和零部件的生產(chǎn)商將承擔(dān)連帶責(zé)任[第3(1)、5、7(f)條]。[45]根據(jù)該指令,如果缺陷是由于生產(chǎn)商關(guān)于最終產(chǎn)品的設(shè)計(jì)或者指示而造成的話,零部件生產(chǎn)商不需要承擔(dān)責(zé)任。指令規(guī)定的法律責(zé)任是用來應(yīng)對(duì)因死亡或人身損害、財(cái)產(chǎn)損害(除了缺陷產(chǎn)品自身)的,指令第9條關(guān)于責(zé)任制度的規(guī)定并不影響第13條的合同責(zé)任。
嚴(yán)格侵權(quán)責(zé)任制度的一個(gè)問題就是:源于全自動(dòng)汽車所有人層面的事故要求汽車生產(chǎn)商承擔(dān)責(zé)任。所以,顯而易見,事故發(fā)生的可能性很大程度上取決于行為層面:公路上的汽車越多,發(fā)生的交通事故也會(huì)越多。同樣明顯的是,汽車所有人控制著行為層面,即取決于他(她)的個(gè)人喜好、商業(yè)模型等。只要把出租汽車公司和私家車車主放在一起想想即可。因此,控制汽車車主的行為水平是有效責(zé)任機(jī)制的重要組成部分。[46]See, for example, Shavell, Liability for Accidents, in: Polinsky/Shavell (eds.), Handbook of Law and Economics, Volume I. Amsterdam: Elsevier, 2007, pp. 139, 146 et seq.
我們可以想想解決這一問題的各種潛在“方案”。一個(gè)方案就是根據(jù)汽車所有人的行為情況,要求他們與生產(chǎn)商共同承擔(dān)責(zé)任;另一個(gè)方案就是將汽車的銷售與責(zé)任保險(xiǎn)捆綁在一起,保險(xiǎn)費(fèi)則依生產(chǎn)商、汽車類型、所有者或使用者的情況來確定。這種個(gè)性化的保險(xiǎn)現(xiàn)如今已可購得。這種保險(xiǎn)常被稱為“黑匣保險(xiǎn)”,這是因?yàn)槠嚿习惭b了一臺(tái)小型“黑匣”設(shè)備,尺寸如智能手機(jī)般大小,用來記錄汽車行駛的速度、距離以及汽車白天、晚上行駛的時(shí)間。[47]See, for example, http://www.rac.co.uk/insurance/car-insurance/black-box-insurance (last visited on 9 March 2017); https://www. confused.com/car-insurance/black-box/telematics-explained (last visited on 10 March 2017).這個(gè)設(shè)備通過監(jiān)測(cè)速度與轉(zhuǎn)彎也能確定駕駛風(fēng)格。此外,為了建立全面的駕駛資料,該設(shè)備還能記錄汽車通常行駛的道路類型以及晝夜運(yùn)行的時(shí)間。
到目前為止,我尚未討論第五個(gè)用于規(guī)制全自動(dòng)汽車引發(fā)事故的潛在應(yīng)對(duì)措施,即要求汽車自己承擔(dān)責(zé)任。但是,這個(gè)問題可以用來闡述本文的第三個(gè)論點(diǎn),即機(jī)器人法律會(huì)并且將會(huì)受到一個(gè)特定社會(huì)的“深層次規(guī)范結(jié)構(gòu)”的影響。[48]See also Eidenmüller (note 4 supra); Eidenmüller (note 40 supra); Eidenmüller, Robots' Legal Personality, Oxford Business Law Blog 8 March 2017, https://www.law.ox.ac.uk/business-law-%20blog/blog/2017/03/robots'-legal-personality (last visited on 9 March 2017).例如,如果一個(gè)社會(huì)的規(guī)范結(jié)構(gòu)是功利主義的(utilitarian),這一結(jié)構(gòu)將如何影響對(duì)上述問題的回應(yīng)呢?[49]未作批判的功利主義面向被采納的例子,參見Schirmer, Rechtsfhige Roboter?, Juristenzeitung (JZ) 2016, pp. 660, 663 et seq. (在符合特定目的的情況下,機(jī)器人在一定范圍內(nèi)具有權(quán)利能力。也即在以下兩種情況下總是有必要賦予其人格:或者是在將其視為獨(dú)立主體的情況下為了給予其必要的保護(hù);或者借此能夠給法律交往帶來額外的價(jià)值)。 然而,功利主義當(dāng)然屬于一種并不光彩的法律哲學(xué)。See, for example, Eidenmüller, Effizienz als Rechtsprinzip: Mglichkeiten und Grenzen derkonomischen Analyse des Rechts. Tübingen: Mohr Siebeck, 4th ed. 2015, pp. 187 et seq.
如前文提到的那樣,因?yàn)闄C(jī)器學(xué)習(xí),生產(chǎn)商無法(全面)預(yù)見智能汽車的行為。所以,我們開始思考可能會(huì)在某一時(shí)刻,被迫為汽車生產(chǎn)商尋找借口并要求汽車本身來承擔(dān)責(zé)任。從概念上來說,這暗示了我們需要承認(rèn)汽車有法律能力(legal capacity)。如果汽車能夠承擔(dān)責(zé)任,我們也許會(huì)得出這一結(jié)論:汽車也有權(quán)取得財(cái)產(chǎn)、訂立合同等。確實(shí),在實(shí)用主義的背景下,似乎有大量的觀點(diǎn)都支持朝這個(gè)方向發(fā)展。
其一,智能汽車看上去(在功能上)能夠有目的地從事一些活動(dòng)。它們展現(xiàn)了所謂“道德的”或“法律的”行為能力,比如,在某些類似的情境中,智能汽車可以像自然人一樣從事某些活動(dòng)。[50]Kaplan (note 12 supra), p. 87.其二,我們像對(duì)待自然人一樣對(duì)待擬人化的機(jī)器人。總體來看,難道我們不應(yīng)該賦予它們權(quán)利,發(fā)出反對(duì)人類虐待的信號(hào)嗎?[51]See Darling (note 29 supra), pp. 226-229.用這種方式保護(hù)機(jī)器人將會(huì)對(duì)人類的互動(dòng)產(chǎn)生有益的反饋效應(yīng)。其三,我們賦予公司以法律人格。法律學(xué)者們就公司人格是基于虛構(gòu)(如馮·薩維尼主張[52]See von Savigny, System des heutigen Rmischen Rechts, Zweyter Band (Berlin: Veit und Comp., 1840), p. 236 ["Die Rechtsfhigkeit wurde oben dargestellt als zusammenfallend mit dem Begriff des einzelnen Menschen (§ 60). Wir betrachten sie jetzt als ausgedehnt auf künstliche, durch blo?e Fiction angenommene Subjecte. Ein solches Subject nennen wir eine juristische Person ..."].)還是公司的某種“實(shí)體”(real),抑或有什么東西可以稱之為“真實(shí)的團(tuán)體人”(real group-person)(如馮·基爾克主張[53]See von Gierke, Rechtsgeschichte der deutschen Genossenschaft. Berlin: Weidmann, 1868, p. 1 ("Wie sich der Fortschritt der Weltgeschichte unwandelbar vollzieht, so erhebt sich in ununterbrochen aufsteigender Wlbung der erhabene Bau jener organischen Verbnde, welche in immer gr?eren und umfassenderen Kreisen den Zusammenhang alles menschlichen Seins, die Einheit in seiner bunten Mannichfaltigkeit, zuru?eren Erscheinung und Wirksamkeit bringen."))存在長期的爭議。智能汽車(機(jī)器人)似乎比公司法人更為“實(shí)在”。在此,我應(yīng)該指出,“人格”(persona)這個(gè)拉丁詞的原始意思就是面具或者角色。羅馬法承認(rèn)了各種作為非自然人卻享有權(quán)利并承擔(dān)義務(wù)的主體,比如自治城市(municipia)或者工會(huì)(collegia)。[54]See, for example, Thomas, Textbook of Roman Law. Amsterdam: North-Holland, 1976, pp. 387-388; du Plessis, Borkowski's Textbook on Roman Law. Oxford: Oxford University Press, 4th ed. 2010, pp. 85-87.
假如我們將智能汽車(機(jī)器)當(dāng)作人類來對(duì)待并賦予它們法律人格,我們可以將汽車的所有權(quán)與責(zé)任保險(xiǎn)捆綁在一起。這種安排將允許我們針對(duì)汽車事故考慮其他有創(chuàng)意的制裁措施,如取消汽車的法律能力,將汽車扣押一段時(shí)間(像瑞士Art Installation案一樣)或者直接將汽車銷毀。
誠然,對(duì)于考慮賦予智能汽車(機(jī)器)法律人格,我們大多數(shù)人會(huì)感覺非常不安。正如我引入本文論點(diǎn)時(shí)所表明的那樣,這些不安停留在認(rèn)識(shí)論[55]有關(guān)人工智能引起的認(rèn)識(shí)論的問題的概述,參見Crane, The Mechanical Mind: A Philosophical Introduction to Minds, Machines and Mental Representation. London and New York: Routledge, 3rd ed. 2016, pp. 77-90; Kaplan (note 17 supra), pp. 67 et seq.和本體論的層面上??梢哉f,因?yàn)橹挥腥祟惪梢岳斫鈾?quán)利與責(zé)任的意思,所以法律能力或者人格是與人類相關(guān)聯(lián)的。思考涉及對(duì)生活的積極投入,融入文化、特定情形的“專有技術(shù)”以及永遠(yuǎn)不會(huì)被規(guī)則架構(gòu)的常識(shí)。[56]This point was succinctly made by Dreyfus, What Computers Still Can't Do: A Critique of Artificial Reason. Cambridge, MA: MIT Press, 1992.思考遠(yuǎn)非形式上的符號(hào)操作(句法),而是涉及對(duì)這些符號(hào)的意思(語義學(xué))的感知,但機(jī)器人卻沒有這種感知能力。[57]Searle, Minds, Brains, and Programs, Behavioral and Brain Sciences 3 (1980), pp. 417-457.我們可以通過編程使機(jī)器人符合(conform)規(guī)則,但它們并不能遵守(follow)規(guī)則。[58]正如應(yīng)該從文中清除那樣,這一評(píng)估是基于比縮減的路徑(the reductionist approach)更豐富的遵守規(guī)則的觀念(a conception of rule-following)做成的。參見Kripke, Wittgenstein on Rules and Private Language. Cambridge, MA: Harvard University Press, 1982(. Kripke提出一個(gè)“懷疑的方案”。該方案采取了一個(gè)遵守規(guī)則的社會(huì)標(biāo)準(zhǔn):一個(gè)個(gè)體只要其行為與其所屬的群體中其他成員的行為一致就是遵守了規(guī)則。)對(duì)規(guī)則的遵守預(yù)設(shè)了對(duì)規(guī)則的意思的理解,然而,機(jī)器人并沒有這種理解能力,它們?cè)诮忉寣W(xué)(hermeneutics)這個(gè)學(xué)科并不活躍——而且,它們永遠(yuǎn)不會(huì)。
我將要提出的第二個(gè)論點(diǎn)——反對(duì)把機(jī)器人當(dāng)作人類——這類情形的論據(jù)存在于本體論層面。大體上,某一特定社會(huì)的法律以及賦予該特定社會(huì)成員的權(quán)利與義務(wù)是“人類境況”(human condition)的表達(dá)。法律反映了我們所認(rèn)為的人類有序交往的前提條件,但同時(shí)也反映了我們認(rèn)為處于人性核心的東西,以及處于核心的人何以為人的意義。我們要從整體上想想基本人權(quán),特別是言論自由,但也要想想諸如墮胎或者同性婚姻這類頗有爭議的問題。如果我們將法律人格賦予機(jī)器(即便這些機(jī)器都是智能的,甚至比人類還要聰明),讓它們有權(quán)取得財(cái)產(chǎn)、訂立合同,這簡直會(huì)使這個(gè)世界非人化(dehumanizing)。因此,將機(jī)器人當(dāng)作人類一樣對(duì)待將會(huì)使人類非人化,所以我們應(yīng)當(dāng)避免持有這種態(tài)度。[59]關(guān)于“人類的狀況”(human condition)被“大數(shù)據(jù)”的威脅,大體上可參見White, We, Robots: Staying Human in the Age of Big Data. Brooklyn, NY and London: Melville House, 2015.
公司的人格——弱化將機(jī)器人當(dāng)作人類對(duì)待的情形——是一個(gè)好的對(duì)立觀點(diǎn)嗎?本文并不這樣認(rèn)為。公司與機(jī)器人的重大區(qū)別在于,公司總是“通過”人類來運(yùn)營。由人來組成董事會(huì),且董事會(huì)的行為被歸結(jié)為公司的行為。同樣,在公司里,人工智能也變得越來越重要。[60]See Fenwick/Kaal/Vermeulen, The "Unmediated" and "Tech-Driven" Corporate Governance of Today's Winning Companies, https:// papers.ssrn.com/sol3/papers.cfm?abstract_id=2922176 (last visited on 26 March 2017).與此同時(shí),人類也會(huì)作出最終決定——至少在“奇點(diǎn)”(singularity)(超人智能的水平)到來之前是這樣的。
最后,人工智能提出了具有重大潛在社會(huì)影響且又復(fù)雜的監(jiān)管問題。通過上述討論,我們對(duì)此應(yīng)該有所了解了。如前所述,法律須規(guī)定人工智能可以被應(yīng)用的形式,以及在特定情境下使用(某種)人工智能可能要承擔(dān)的責(zé)任。只要想想比人類聰明的“醫(yī)療專家”就可以明白這一點(diǎn)。法律須界定機(jī)器人與(或)它們的所有者的權(quán)利與責(zé)任。由于越來越依賴人工智能,公司管理將會(huì)發(fā)生根本變化。
然而,更重要的是,使用人工智能帶來的問題必須予以重視。人工智能的使用無疑會(huì)是權(quán)力的重要來源。強(qiáng)勢(shì)的當(dāng)事人為了個(gè)人利益可能借助智能技術(shù)對(duì)交易施加壓力,處于弱勢(shì)地位的當(dāng)事人可能會(huì)蒙受損失。某些智能技術(shù)會(huì)是公共商品(public goods)嗎?它們應(yīng)當(dāng)以低成本為公眾所用嗎?
這些及其他問題都引發(fā)了深層次的哲學(xué)問題,而機(jī)器人法規(guī)將會(huì)被我所稱的社會(huì)的“深層次規(guī)范結(jié)構(gòu)”所影響。一個(gè)社會(huì)是基于功利主義的“良善”(the good)概念,還是基于人道主義或康德式的此一恰恰相反的觀點(diǎn)(即并非每一個(gè)有效用的或使財(cái)富最大化都必然是好政策),這一點(diǎn)是非常重要的。顯而易見的是,功利主義的“良善”概念傾向于將社會(huì)推進(jìn)到機(jī)器人依據(jù)法律最終扮演重要角色的方向。這就是機(jī)器人法律會(huì)形成規(guī)制多樣與規(guī)制競爭特征的其中一個(gè)原因:[61]關(guān)于不同法律領(lǐng)域中的規(guī)制競爭,比如可參見Eidenmüller, The Transnational Law Market, Regulatory Competition, and Transnational Corporations, Indiana Journal of Global Legal Studies 18 (2011), pp. 707 et seq.由于存在于不同社會(huì)的“深層次規(guī)范結(jié)構(gòu)”的重大差異,各國就共同政策(common policies)很難達(dá)成一致意見。此外,各國向人工智能產(chǎn)業(yè)吸引投資的動(dòng)機(jī)也激起了規(guī)制競爭?!肮δ苤髁x的國家”可能會(huì)制定更多“機(jī)器人友好型”(robot friendly)的法律,并迫使其他法域如法炮制。
最后,如上所述,人工智能也將從根本上改變立法與法律職業(yè)。這提出了一個(gè)有趣的問題——在將來某個(gè)時(shí)刻,(以人工智能為基礎(chǔ)的)智能立法是否會(huì)輔助我們規(guī)制人工智能產(chǎn)品與服務(wù)?智能技術(shù)無疑會(huì)在技術(shù)層面上為增強(qiáng)立法的效率提供重大幫助。另一個(gè)完全不同的問題是,這些技術(shù)是否能幫助我們解決需要作出復(fù)雜價(jià)值判斷的那些煩瑣的監(jiān)管問題?在這一點(diǎn)上,我深感懷疑。再者,機(jī)器既不能思考,也不能解決深?yuàn)W的哲學(xué)問題。沒有人比歌德更清楚明白地表述過這一點(diǎn):“只有人類能夠觸及那些不可思議的事物:他們辨別著、選擇著、判斷著 ”[62]Goethe, Das Gttliche, 1783, Verse 37-40.感謝南京師范大學(xué)法學(xué)院馬丁副教授提供的德語翻譯。
順便說一下,科學(xué)研究與寫作現(xiàn)今也可以得到人工智能的輔助,已經(jīng)有軟件可以寫作學(xué)術(shù)論文。[63]See http://connectedresearchers.com/online-tools-for-researchers/ (last visited on 26 March 2017).遺憾的是,我沒有找到可以幫助我準(zhǔn)備這篇文章的軟件。本文飽含了太多的人類的因素——因此這也是其缺點(diǎn)。
[學(xué)科編輯:李 飛 責(zé)任編輯:王 艷]
In this article, I attempt to answer fundamental questions raised by the rise of robots and the emergence of "robot law". The main theses developed in this article are the following: (i) robot regulation must be robot-and context-specific. This requires a profound understanding of the micro-and macro-effects of "robot behavior" in specific areas. (ii) (Refined) existing legal categories are capable of being sensibly applied to and regulating robots. (iii) Robot law is shaped by the "deep normative structure" of a society. (iv) If that structure is utilitarian, smart robots should, in the not too distant future, be treated like humans. That means that they should be accorded legal personality, have the power to acquire and hold property and to conclude contracts. (v) The case against treating robots like humans rests on epistemological and ontological arguments. These relate to whether machines can think (they cannot) and what it means to be human. I develop these theses primarily in the context of self-driving cars-robots on the road with a huge potential to revolutionize our daily lives and commerce.
robots; robot law; artificial intelligence; self-driving cars; accident liability; fundamental legal concepts
* 本文是霍斯特·艾丹米勒(Horst Eidenmüller)教授獲聘牛津大學(xué)講席教授(Freshfields Professor of Commercial Law)后在2016年6月9日舉行的就職演講基礎(chǔ)上完成的論文。該文保留了演講的形式,經(jīng)作者授權(quán),以中文形式全球首發(fā)。
** 霍斯特·艾丹米勒,牛津大學(xué)法律系教授,牛津大學(xué)圣休學(xué)院(St. Hugh's College)教授級(jí)研究員。李飛,南京師范大學(xué)法學(xué)院副教授,法學(xué)博士;敦小匣,外國語言學(xué)及應(yīng)用語言學(xué)碩士。