夏陳婷
內(nèi)容提要:人工智能技術(shù)推動社會進一步轉(zhuǎn)型,并不斷呈現(xiàn)深度學(xué)習(xí)、自主操控的新特征,由此必然會給法律體系帶來新的挑戰(zhàn)。人工智能產(chǎn)品存在刑事風(fēng)險,對其采取相應(yīng)的刑事規(guī)制不可避免。本文從風(fēng)險刑法角度選擇行之有效的人工智能犯罪刑事歸責(zé)原則,并討論在不同類型的人工智能犯罪中的適用,以探索有效的刑法規(guī)制原則,確保人工智能產(chǎn)品能夠在有益于人類共同利益的范圍內(nèi)進行研制開發(fā)。
人工智能的概念被認(rèn)為追溯于 “人工智能之父”Marvin Minsky在1956年夏季達特茅茨人工智能項目議案中所提出的:“讓機器從事需要人的智能的工作的科學(xué)”。①J.McCarthy,M.L.Minsky,N.Rochester,C.E.Shannon,A proposal for the Dartmouth summer research project on artificial intelligence, August 31,1955,see:http://www-formal.stanford.edu/jmc/history/dartmouth/, 2018 年 7 月 10日訪問。在人類神經(jīng)物理學(xué)、神經(jīng)解剖學(xué)以及 “圖靈機”(Turing Machine)的理論模型的研究基礎(chǔ)之上,Marvin Minsky在該項議案中提出:“人工智能研究建立在機器可以模擬人類的前提下,通過程序語言、構(gòu)建理論模型的方式幫助解決人類現(xiàn)實問題,并提高人類解決相關(guān)問題的能力”。從中可以看出,人工智能的理論前提是設(shè)計的模擬能力,而人工智能的模擬能力除了來自設(shè)計研究者的初設(shè)程序設(shè)定之外,更多地來自人工智能的深度學(xué)習(xí)能力。
根據(jù)深度學(xué)習(xí)能力的習(xí)得,人工智能產(chǎn)品迅速完成了代際的更替,不斷模仿并超越人類智慧的極限。作為對人工智能產(chǎn)品主體資格的確認(rèn),沙特阿拉伯于2017年10月26日在 “未來投資峰會”上授予Hanston Robotics公司研發(fā)的Sophia人形機器人合法公民身份。②https://www.cnbeta.com/articles/tech/664757.htm,2018年7月10日訪問。2018年3月21日,Sophia又作為代表參加聯(lián)合國可持續(xù)發(fā)展目標(biāo)亞洲和太平洋地區(qū)創(chuàng)新大會。盡管Sophia的創(chuàng)始人漢森承認(rèn),目前Sophia距離自我意識覺醒還很遠,因為其現(xiàn)在還處于 “嬰兒期”。但是可以預(yù)見到的是,伴隨著深度學(xué)習(xí)能力的發(fā)展,Sophia終會具有自主意識并能夠獨立支配自己的行為,成為辨認(rèn)控制能力和行為能力完備的 “人”。
作為發(fā)明者和創(chuàng)造者,人類在前幾次生產(chǎn)方式變革中仍然占據(jù)主宰者的地位,掌握著先進生產(chǎn)力的核心技術(shù)。但在以人工智能技術(shù)應(yīng)用為標(biāo)志的人工智能時代中,人工智能技術(shù)已經(jīng)逐步突破科技和人類的固有界限,技術(shù)由工具化走向擬人化、類人化,人類在此次變革中扮演的角色不再僅是技術(shù)發(fā)動者,同時也是技術(shù)承擔(dān)者、共享者。不可忽視的是,人工智能技術(shù)研發(fā)和應(yīng)用中存在倫理風(fēng)險、道德風(fēng)險以及相應(yīng)而生的法律風(fēng)險,其中涉及的刑事風(fēng)險不僅在于其會使得犯罪行為 “升級”,同時會使得部分犯罪的危害發(fā)生 “量變”。③劉憲權(quán):《人工智能時代的刑事風(fēng)險與刑法應(yīng)對》,載 《法商研究》2018年第1期。具體而言,人工智能產(chǎn)品涉及的刑事風(fēng)險主要表現(xiàn)在以下兩個方面:
其一,人工智能產(chǎn)品作為犯罪工具或犯罪手段存在。人工智能技術(shù)首先表現(xiàn)為在社會生活全方面覆蓋,無論是醫(yī)療科技、藝術(shù)創(chuàng)作、工業(yè)生產(chǎn)或者智能生活方面,都表現(xiàn)出強勁的發(fā)展?jié)摿?,同時也和人類的生產(chǎn)生活方式融合得更加緊密。人工智能技術(shù)可以使得產(chǎn)品更加智能化,同時也使得犯罪工具或犯罪手段更加先進,一方面幫助犯罪行為更加隱蔽,另一方面促使犯罪行為造成的后果更加嚴(yán)重、更加難以挽回。犯罪人利用人工智能技術(shù)作為犯罪工具或犯罪手段,不僅可以利用人工智能識別和決策功能中的漏洞,自動通過人工智能監(jiān)控系統(tǒng)的監(jiān)測或管理,而且可以通過干擾或欺騙人工智能監(jiān)控系統(tǒng),使得自己的犯罪行為合法化,不致遭受監(jiān)控或追查。
其二,人工智能產(chǎn)品作為獨立的犯罪主體存在。在現(xiàn)行的刑罰體系構(gòu)成中,只有自然人和單位可以成為刑事責(zé)任主體。但人工智能產(chǎn)品在具備獨立的辨認(rèn)控制能力和行為能力的前提下,在自主意識支配下實施或控制超出設(shè)計研發(fā)的程序范圍的犯罪行為,我們有理由認(rèn)定實施或控制類似犯罪行為的人工智能產(chǎn)品實現(xiàn)的是 “自己”的意識,和其他具有刑事責(zé)任能力的主體一樣,完全可以作為一種全新的刑事責(zé)任主體。在此情形下,人工智能產(chǎn)品對其在設(shè)計研發(fā)的程序范圍內(nèi)實施的行為不需要承擔(dān)刑事責(zé)任,但對其在設(shè)計研發(fā)的程序范圍之外實施的犯罪行為需要承擔(dān)相應(yīng)的刑事責(zé)任。
總之,人工智能產(chǎn)品開始具備獨立的辨認(rèn)控制能力和行為能力是其承擔(dān)相應(yīng)的刑事責(zé)任的前提。我們有必要在考慮人工智能在具備民事行為能力和刑事責(zé)任能力的前提下,思考如何界定人工智能的責(zé)任承擔(dān)和歸屬,從而為爭議問題的解決提供參照思路,積極應(yīng)對人工智能技術(shù)成熟后所面臨的社會風(fēng)險和法律挑戰(zhàn)。
正如同單位能夠被認(rèn)定為犯罪主體的依據(jù)主要在于其具備獨立的自由意志,人工智能基于深度學(xué)習(xí)能力也能夠獲得獨立的自由意志。從法律屬性上看,人工智能擁有的獨立意志相較于單位的集體意志,更符合 “法律人”的主體特征。既然可以將犯罪行為、刑事責(zé)任等歸責(zé)方法適用于單位,也完全可以將其適用于產(chǎn)生獨立意志的人工智能產(chǎn)品。刑法上的辨認(rèn)能力是對行為的性質(zhì)、后果、作用的認(rèn)識能力,其中包括事實層面的認(rèn)識和規(guī)范層面的認(rèn)識,人工智能的深度學(xué)習(xí)能力為其通過學(xué)習(xí)掌握事實層面和規(guī)范層面的辨認(rèn)能力提供可能;而刑法上的控制能力是根據(jù)對事實和規(guī)范的認(rèn)識控制自己行為的能力,人工智能通過程序設(shè)計和控制能夠具備相較于人類更強的控制能力。人工智能完全具備掌握刑法意義上的辨認(rèn)、控制能力的條件,因此其作為新的刑事法律主體納入刑事法律體系應(yīng)當(dāng)成為未來刑法的發(fā)展目標(biāo)。相應(yīng)地,如何規(guī)制人工智能犯罪便成為該前提之下的應(yīng)有之義。
針對人工智能的類型劃分,目前學(xué)界仍然存在不同觀點:有學(xué)者提出 “兩分法”,指出以人工智能產(chǎn)品是否具有辨認(rèn)能力和控制能力,可以將人工智能產(chǎn)品劃分為弱人工智能產(chǎn)品與強人工智能產(chǎn)品;⑥劉憲權(quán):《人工智能時代的 “內(nèi)憂”“外患”與刑事責(zé)任》,載 《東方法學(xué)》2018年第1期。也有學(xué)者提出 “三分法”,即按照意識的有無和程度的差別,人工智能可以劃分為弱人工智能、強人工智能和超人工智能。⑦黨家玉:《人工智能的倫理和法律風(fēng)險問題研究》,載 《信息安全研究》2017年第12期。筆者認(rèn)為,無論 “兩分法”還是 “三分法”,其類型劃分的依據(jù)仍然是對照人的辨認(rèn)能力和控制能力,判斷人工智能是否具有類比人類的能力,從而進一步判斷人工智能是否具備獨立承擔(dān)責(zé)任的前提。因此,無論人工智能具備和人類同樣的智能或是超越人類的智能,其本質(zhì)都在于認(rèn)定該人工智能已經(jīng)具備獨立承擔(dān)刑事責(zé)任的基礎(chǔ),即應(yīng)當(dāng)認(rèn)定該人工智能具有刑事責(zé)任能力。在筆者看來,在刑事法律的語境下,刑事責(zé)任能力的有無是討論人工智能刑事責(zé)任承擔(dān)的核心,“兩分法”解決了人工智能刑事責(zé)任判定的前提問題,因此更具有學(xué)術(shù)研究價值。
因此,根據(jù)人工智能產(chǎn)品是否具有辨認(rèn)能力和控制能力,可以相應(yīng)地確定人工智能是否具備相應(yīng)的刑事責(zé)任能力。因為目前人工智能技術(shù)還未發(fā)展到強人工智能水平,即便是已經(jīng)獲得公民身份的Sophia人形機器人還未達到自我意識覺醒的程度,故現(xiàn)有的人工智能產(chǎn)品還只能歸屬弱人工智能產(chǎn)品的范疇。在當(dāng)前人工智能還不具備完全刑事責(zé)任能力的前提下,如何界定人工智能的刑事責(zé)任承擔(dān)的范圍和程度具有重要的實證意義。目前的主流觀點認(rèn)為弱人工智能作出的判斷和行為仍是在程序控制范圍之內(nèi),即使實施了嚴(yán)重危害社會的行為,也只能將其視為設(shè)計者或使用者實施犯罪行為的 “工具”,人工智能產(chǎn)品本身不應(yīng)當(dāng)承擔(dān)刑事責(zé)任,而應(yīng)當(dāng)由人工智能產(chǎn)品的設(shè)計者或使用者承擔(dān)刑事責(zé)任。只有當(dāng)強人工智能超出設(shè)計和編制程序?qū)嵤┪:π袨?,才?yīng)當(dāng)獨立承擔(dān)刑事責(zé)任,同時負(fù)有預(yù)見義務(wù)和監(jiān)督義務(wù)的設(shè)計者或使用者也有被追究刑事責(zé)任的可能。⑧參加前引⑥,劉憲權(quán)文。也有觀點認(rèn)為人工智能僅是一項技術(shù),本身不具備刑事責(zé)任能力。機器人無論以何種方式承擔(dān)責(zé)任,最終的責(zé)任承擔(dān)者都是人。而人工智能觸犯法律,歸根到底是使用者、所有者、制造者在利用人工智能技術(shù)過程中違法犯罪,因而理應(yīng)由人來承擔(dān)刑事責(zé)任。⑨參加前引④,黃京平文。由此看來,目前學(xué)界探討的焦點還是人工智能產(chǎn)品犯罪以及刑事責(zé)任承擔(dān)的可能性,而對于強、弱人工智能犯罪的刑事歸責(zé)原則及方法尚無深入探討,而這對于弱人工智能時代已然來臨的當(dāng)下顯得準(zhǔn)備過于不足。以無人駕駛技術(shù)為例,因為沒有人工智能法律限制,該項技術(shù)尚未成熟便已經(jīng)上路行駛公測,導(dǎo)致相關(guān)道路交通安全事故頻頻發(fā)生。2018年3月18日晚10點,一輛Uber無人駕駛汽車在美國亞利桑那州坦佩市與一名正過馬路的行人相撞,后者不治身亡。該起全球首例無人駕駛汽車在公共道路上撞擊行人致死事件在暴露弱人工智能產(chǎn)品的技術(shù)缺陷的同時,也充分說明了法律應(yīng)對不足帶來的危害。同樣,對于類似案例的處理,也沒有形成公認(rèn)的刑事歸責(zé)原則供參照援用,大量案件停留在個案爭議的基礎(chǔ)之上,尚未形成系統(tǒng)的案件爭議解決機制。這也是本文關(guān)注并試圖解決的問題,筆者將在下文中繼續(xù)展開討論。
在我國刑法中,刑事歸責(zé)通常指的是刑事責(zé)任歸責(zé),即將違反刑事義務(wù)的行為歸因于行為人。⑩馮軍:《刑事責(zé)任論》,法律出版社1996年版,第18頁。刑事責(zé)任歸責(zé)是對廣義的定罪活動的一種抽象性概括,是以定罪或犯罪構(gòu)成的定罪意義為前提,依據(jù)犯罪構(gòu)成認(rèn)定犯罪是否成立,在此基礎(chǔ)上經(jīng)由刑事訴訟程序的有效配合,最終確定犯罪是否成立和刑事責(zé)任是否存在及其程度的一系列活動的總和,也是犯罪與刑事責(zé)任關(guān)系 (罪責(zé)關(guān)系)的集中展現(xiàn)。
現(xiàn)代刑事歸責(zé)理論產(chǎn)生于德日犯罪論體系背景之下,而德日的犯罪論體系是一種階層式的犯罪論體系,包括構(gòu)成要件符合性、違法性和有責(zé)性三個階層,不同于我國的犯罪構(gòu)成四要件的平面式犯罪論體系。而我國的犯罪構(gòu)成理論沒有明確區(qū)分刑事違法和刑事責(zé)任,完全符合犯罪構(gòu)成既是刑事違法的前提,也是刑事責(zé)任的成立條件。由于四要件的犯罪構(gòu)成理論自身不能涵蓋刑事責(zé)任能力和違法性阻卻事由等歸責(zé)要素,因此,有學(xué)者認(rèn)為四要件的犯罪構(gòu)成沒有很好地解決歸責(zé)問題,進而提出只有三階層的犯罪論體系才能使犯罪構(gòu)成合理化。①陳興良:《教義刑法學(xué)》,中國人民大學(xué)出版社2010年版,第128-129頁。筆者認(rèn)為,在我國的刑法體系中,適用犯罪構(gòu)成四要件論并沒有在前提上絕對否認(rèn)刑事歸責(zé)理論的適用,刑事歸責(zé)理論是一種實質(zhì)判斷構(gòu)成要件的理論,與犯罪構(gòu)成理論在刑事責(zé)任判定的過程中共同作用,最終在裁判活動中實現(xiàn)將違反刑事義務(wù)的行為歸因為行為人的目標(biāo),其歸責(zé)路徑與德日公認(rèn)的客觀歸責(zé)理論在本質(zhì)上是一致的。
一般認(rèn)為,刑事歸責(zé)是客觀歸責(zé)和主觀歸責(zé)的統(tǒng)一,包括行為歸責(zé)和結(jié)果歸責(zé),行為歸責(zé)的要素是從行為人到行為,而結(jié)果歸責(zé)的要素是從行為到結(jié)果??陀^歸責(zé)的目的在于確認(rèn)符合構(gòu)成要件的行為可以從客觀上歸責(zé)于行為人,同時構(gòu)成要件結(jié)果對于構(gòu)成要件行為是可以客觀歸責(zé)的;主觀歸責(zé)的目的則在于確認(rèn)行為人的行為故意在主觀上可以歸責(zé)于行為人,同時具體結(jié)果的發(fā)生對于故意來說是可以主觀歸責(zé)的?,F(xiàn)代刑事歸責(zé)理論的代表是德國學(xué)者羅克辛的客觀歸責(zé)理論,該理論的初衷在于解決過失犯罪的刑事歸責(zé)問題,將因果關(guān)系與歸責(zé)問題相區(qū)別,而兩者聯(lián)系的紐帶是法規(guī)范意義上的風(fēng)險,即行為制造并實現(xiàn)了刑法保護的風(fēng)險,則將產(chǎn)生的后果歸屬于行為人。②張明楷:《外國刑法綱要》,清華大學(xué)出版社2007年版,第126頁??偨Y(jié)傳統(tǒng)的刑事歸責(zé)理論,其理論的前提在于將行為人假設(shè)為自然人,其中無論風(fēng)險的制造、實現(xiàn)時導(dǎo)致刑事歸責(zé)或者風(fēng)險的減少、未實現(xiàn)時導(dǎo)致刑事歸責(zé)的排除,都離不開一般人的預(yù)見可能性這一判斷標(biāo)準(zhǔn),即行為人通過預(yù)見可能性判斷進而選擇制造或阻止、增加或減少風(fēng)險的形成并進而實現(xiàn)之??偠灾瑐鹘y(tǒng)的刑事歸責(zé)理論以行為人實施的侵害行為為基礎(chǔ),其默認(rèn)的責(zé)任主體是存在預(yù)見可能性缺失或認(rèn)識錯誤可能性的自然人。
人工智能犯罪作為技術(shù)進步的不利后果,既是工業(yè)社會的產(chǎn)物,也是風(fēng)險社會下技術(shù)性風(fēng)險③[德]烏爾里?!へ惪?《風(fēng)險社會》,何博聞譯,譯林出版社2004年版,第19頁。的典型體現(xiàn),其制造的社會風(fēng)險嚴(yán)重程度遠遠超出人類事先預(yù)警檢測和事后處理的能力,因此對人工智能犯罪進行刑事規(guī)制的必要性不言而喻。但是,人工智能作為高度理性的 “人”,具備準(zhǔn)確的預(yù)見能力和完備的認(rèn)識能力,不可能存在預(yù)見不足或認(rèn)識錯誤的情形,其不但能夠制造并實現(xiàn)法律不允許的風(fēng)險,而且能夠通過運算控制準(zhǔn)確避免風(fēng)險的減少和喪失,也就意味著人工智能一旦實施侵害行為,就應(yīng)當(dāng)承擔(dān)所有的不利后果,刑事歸責(zé)的論證過程顯得多余,同時也不存在刑事責(zé)任排除的余地。囿于傳統(tǒng)刑事歸責(zé)理論的責(zé)任主體限制,對其適用傳統(tǒng)的刑事責(zé)任歸責(zé)和刑事責(zé)任排除存在理論障礙,因此,有必要構(gòu)建符合風(fēng)險社會特征的人工智能犯罪歸責(zé)原則,解決規(guī)制人工智能犯罪的核心問題。
刑事歸責(zé)原則是在犯罪成立的基礎(chǔ)上進行刑事法律責(zé)任判定的基本準(zhǔn)則。不同于具體的刑事歸責(zé)過程,刑事歸責(zé)原則應(yīng)當(dāng)依據(jù)社會共同體的價值共識進行判斷,最大程度地體現(xiàn)刑法規(guī)范目的所蘊藏的憲法權(quán)利和基本原則等價值。
EOLDs過程中如醫(yī)生、患者、家屬無法達成一致意見時,經(jīng)患者及家屬知情同意,需請倫理委員會輔助EDLDs。倫理顧問審查患者醫(yī)療記錄,采訪治療患者的相關(guān)人員,綜合評估和推斷患者的生命質(zhì)量以及根據(jù)相關(guān)政策,幫助醫(yī)患雙方解決分歧,達成意見一致,并保存此次倫理記錄。實踐證明,倫理委員會的介入沒有影響患者的死亡率,但明顯地減少了ICU的無效治療。
傳統(tǒng)的刑事歸責(zé)原則的主要內(nèi)容在于法律責(zé)任的承擔(dān)以主觀上的過錯為前提條件,行為人的主觀過錯是承擔(dān)刑事責(zé)任的起點。故意或者過失作為主觀過錯的內(nèi)容,不僅是犯罪構(gòu)成的主觀構(gòu)成要件,同時也是確定刑事責(zé)任的前提。因此,行為人主觀上無過錯則不承擔(dān)刑事責(zé)任,簡言之,即“無罪過即無犯罪”,強調(diào)刑法中的主客觀相統(tǒng)一原則。隨著風(fēng)險社會、風(fēng)險概念的引入,傳統(tǒng)的過錯責(zé)任原則受到了沖擊,大量嚴(yán)重威脅社會公共利益的業(yè)務(wù)性犯罪伴隨著風(fēng)險社會業(yè)已出現(xiàn),但卻因為過錯責(zé)任原則的限制或者責(zé)任方復(fù)雜化等原因而出現(xiàn)刑事歸責(zé)不能的情況。面對技術(shù)進步帶來的眾多復(fù)雜難控的社會風(fēng)險,刑法理論界產(chǎn)生界分,有觀點認(rèn)為應(yīng)當(dāng)突破以過錯責(zé)任原則為基礎(chǔ)、以消極司法地位自守的罪責(zé)刑法的限制,將刑法的任務(wù)轉(zhuǎn)向風(fēng)險防控以維護安全,④郝艷兵:《風(fēng)險刑法:以危險犯為中心展開》,中國政法大學(xué)出版社2012年版,第66頁。也有觀點認(rèn)為應(yīng)當(dāng)堅持罪責(zé)刑法的謙抑性原則,守住刑法保障自由的底線。⑤勞東燕:《風(fēng)險社會與變動中的刑法理論》,載 《中外法學(xué)》2014年第1期。盡管刑法學(xué)界對此意見不一,但是社會實踐和法律發(fā)展依循其內(nèi)在規(guī)律發(fā)展嬗變,刑法作為解決社會防控的最后一道防線,其本身隨著時代的變更而不斷豐富自身的內(nèi)容。隨著刑事立法領(lǐng)域由結(jié)果本位向行為本位轉(zhuǎn)變,嚴(yán)格責(zé)任原則便成為刑法應(yīng)對風(fēng)險社會的重大風(fēng)險時所作的主動調(diào)試,在進行刑事歸責(zé)時強調(diào)主觀過錯與刑事歸責(zé)的適度分離。
刑法中的嚴(yán)格責(zé)任原則被認(rèn)為是英美法系所特有的刑事歸責(zé)原則,起源于民事侵權(quán)法,同時也是英美法系功利主義的集中體現(xiàn),主要應(yīng)用于英美國家的公共福利犯罪和少量道德犯罪中,它代表的是罪過 (或犯意)要求的邊緣化趨勢,即罪過之于犯罪定義的構(gòu)建與犯罪的認(rèn)定正在逐漸喪失決定力和影響力。⑥李立豐:《美國刑法犯意研究》,中國政法大學(xué)出版社2009年版,第132頁。嚴(yán)格責(zé)任原則是在認(rèn)定少數(shù)侵犯社會公共利益類犯罪時,因為責(zé)任人的主觀過錯難以直接證明或需要耗費過度的司法資源來證明,在此條件下認(rèn)定有無犯罪意圖對責(zé)任人來說都不是實質(zhì)性的歸責(zé)依據(jù),責(zé)任人即使提出無犯罪意圖的證據(jù)也無法對其進行刑事責(zé)任排除。嚴(yán)格責(zé)任原則的出現(xiàn)標(biāo)志過錯責(zé)任原則已被突破和變革,其強調(diào)以法規(guī)范的保護目的為導(dǎo)向進行責(zé)任分配,更加符合風(fēng)險社會的預(yù)防目的和安全價值的實現(xiàn),但在我國目前的刑法中尚未得到承認(rèn)。⑦參見前引⑤,勞東燕文。
正如前文所述,人工智能犯罪是技術(shù)性風(fēng)險的集中體現(xiàn),符合風(fēng)險社會中現(xiàn)代性和風(fēng)險不確定性并存的特征,同時人工智能產(chǎn)品通過深度學(xué)習(xí)能夠達到并超越人類智能的可能性又大幅增加了其制造不可控制的風(fēng)險的幾率。與此同時,由于人工智能產(chǎn)品中 “黑箱”技術(shù)⑧許可:《人工智能的算法黑箱與數(shù)據(jù)正義》,載 《社會科學(xué)報》2018年3月29日第6版。的使用導(dǎo)致其算法不透明,終端用戶并不清楚人工智能產(chǎn)品的算法是如何得出結(jié)論的,在此技術(shù)性障礙之下進行人工智能產(chǎn)品的決策說明成為一項不經(jīng)濟甚至不可能完成的任務(wù),而依照傳統(tǒng)的罪過責(zé)任原則,刑事責(zé)任主體的決策說明在刑事歸責(zé)過程中至關(guān)重要并且不可或缺。筆者由此認(rèn)為,基于人工智能犯罪的風(fēng)險不可控性和行為決策不透明性,對其刑事歸責(zé)適用嚴(yán)格責(zé)任原則更加符合人工智能時代的技術(shù)規(guī)范要求和法規(guī)范要求。
盡管如此,適用嚴(yán)格責(zé)任原則并不意味著必然招致絕對嚴(yán)格責(zé)任,即不問主觀心態(tài),由人工智能承擔(dān)全部責(zé)任,否則難免落入客觀歸罪或結(jié)果歸罪之嫌。實施嚴(yán)格責(zé)任的初衷在于減輕甚至不需要公訴方履行證明行為人主觀要件的證明責(zé)任,辯護方自然不能以主觀罪過的缺乏為由進行抗辯,但在某些國家也允許提出事實錯誤此種否定犯意的辯護理由,不過由行為人承擔(dān)證明責(zé)任而已。⑨周新:《英國刑法嚴(yán)格責(zé)任的構(gòu)造和借鑒》,載 《政治與法律》2011年第2期。隨著理論和司法實踐的深入,英美刑法中的嚴(yán)格責(zé)任原則經(jīng)歷從絕對的嚴(yán)格責(zé)任原則到相對嚴(yán)格責(zé)任原則的演化。作為與民法中的過錯推定責(zé)任相對應(yīng)的刑事歸責(zé)原則,相對嚴(yán)格責(zé)任原則一般要求舉證責(zé)任倒置和過錯推定原則,即公訴方在起訴時不負(fù)擔(dān)行為人的主觀罪過的舉證責(zé)任,但同時允許行為人提出無過失等辯護理由并承擔(dān)相應(yīng)的舉證責(zé)任。筆者認(rèn)為,相對嚴(yán)格責(zé)任原則同樣適用于嚴(yán)重危害社會公共安全和公共利益的人工智能犯罪,人工智能產(chǎn)品中 “黑箱”技術(shù)能夠在最大程度上掩飾或隱藏人工智能產(chǎn)品的主觀過錯,直接導(dǎo)致司法證明不能或者司法資源利用極不經(jīng)濟,從而難以直接有效地實現(xiàn)刑法的預(yù)防犯罪功能。相對嚴(yán)格責(zé)任原則蘊含的功利價值能夠最大程度地對抗人工智能產(chǎn)品帶來的刑事風(fēng)險,不僅有利于減輕公訴機關(guān)對人工智能主觀罪過的證明責(zé)任,在極大程度上提高訴訟效率,同時與人工智能犯罪的風(fēng)險不可控性和行為決策不透明性相契合。另外也應(yīng)該看到,我國刑法中規(guī)定的犯罪的實質(zhì)特征包括:社會危害性、刑事違法性和應(yīng)受刑罰處罰性,對人工智能犯罪適用相對嚴(yán)格責(zé)任原則并不違背犯罪的實質(zhì)特征,在承認(rèn)人工智能犯罪存在主觀過錯的前提下免除公訴機關(guān)相應(yīng)的證明責(zé)任實質(zhì)上沒有打破犯罪的基本構(gòu)成,也是風(fēng)險社會下刑事證明的應(yīng)對之舉。
如上文所述,面對人工智能犯罪風(fēng)險已然來臨的威脅,刑法的任務(wù)除了討論確認(rèn)具備獨立的辨認(rèn)能力和控制能力的強人工智能法律主體資格之外,更應(yīng)當(dāng)選擇合適的刑事歸責(zé)原則以解決不同情形下的人工智能犯罪的刑事責(zé)任規(guī)制。筆者在前文中已探討在人工智能時代引入相對嚴(yán)格責(zé)任的刑事歸責(zé)原則的可能性,但應(yīng)同時看到,考慮到嚴(yán)格責(zé)任原則對人權(quán)價值的限制,即使在英美法系國家中,其適用也是嚴(yán)格限定于制定法中的少量危害社會公共利益犯罪和道德犯罪。筆者認(rèn)為,我國對人工智能犯罪適用相對嚴(yán)格責(zé)任原則也應(yīng)當(dāng)實行嚴(yán)格的法定主義原則,即通過法律條文明文限制相對嚴(yán)格責(zé)任的刑事歸責(zé)原則的適用范圍和適用程度。在此前提下,針對人工智能的強弱之分,以及人工智能和自然人的結(jié)合程度,有必要確認(rèn)以過錯責(zé)任原則為主,以相對嚴(yán)格責(zé)任原則為補充的刑事歸責(zé)原則。
就弱人工智能產(chǎn)品的刑事歸責(zé)而言,目前學(xué)者多數(shù)持 “工具說”或 “代理說”,⑩吳漢東:《人工智能時代的制度安排與法律規(guī)制》,載 《法律科學(xué)》2017年第5期。認(rèn)為應(yīng)當(dāng)由人工智能產(chǎn)品的設(shè)計者或使用者承擔(dān)刑事責(zé)任,尤其在弱人工智能產(chǎn)品被使用者利用實施故意犯罪時應(yīng)當(dāng)根據(jù)自然人的主觀過錯,認(rèn)定由使用者承擔(dān)刑事責(zé)任。筆者認(rèn)為,盡管弱人工智能產(chǎn)品尚未具備完全的自我意識,從刑事責(zé)任能力認(rèn)定來看尚不具備獨立的辨認(rèn)能力和控制能力,不可能獨立實施故意犯罪,但也不完全等同于傳統(tǒng)的技術(shù)工具。弱人工智能具備深度學(xué)習(xí)能力,運用 “黑箱”技術(shù)作出相應(yīng)的決策,因此相應(yīng)具有一定的個體特征,即使由同樣的生產(chǎn)者按著同樣設(shè)計者的設(shè)計框架系統(tǒng)生產(chǎn),弱人工智能產(chǎn)品在 “智力”上仍有可能呈現(xiàn)個體差異,甚至出現(xiàn)超出設(shè)計者意圖的情形出現(xiàn)。①《俄羅斯一機器人一周內(nèi)兩度自主逃跑,或?qū)⒈徊鸾狻罚W(wǎng)易網(wǎng):http://tech.163.com/16/0623/18/BQ92HASN00097U7R.html,2018年7月10日訪問。此種情形下的人工智能過失犯罪應(yīng)當(dāng)如何進行刑事歸責(zé)存在爭議,筆者認(rèn)為有必要引入相對嚴(yán)格責(zé)任原則厘清人工智能程序設(shè)計者、生產(chǎn)者、所有者、使用者的責(zé)任分擔(dān)。以無人駕駛汽車的交通肇事案件為例,在使用者未參與駕駛行為的自動駕駛模式下,使用者因為沒有參與駕駛行為,因此排除其未盡到注意義務(wù)的責(zé)任,依照相對嚴(yán)格責(zé)任原則,應(yīng)當(dāng)由無人駕駛汽車的所有者、生產(chǎn)商或程序設(shè)計者承擔(dān)責(zé)任,但此種情況屬產(chǎn)品責(zé)任問題,應(yīng)由相關(guān)方承擔(dān)連帶賠償責(zé)任,相關(guān)方可以按照各自提出的主張排除和確定責(zé)任份額;在使用者部分參與駕駛行為的自動駕駛模式下,使用者雖可以以未完全參與駕駛排除自己未盡主要注意義務(wù)的責(zé)任,但依照相對嚴(yán)格責(zé)任原則,使用者在使用過程出現(xiàn)緊急狀態(tài)時未能采取及時有效的制動措施防止結(jié)果發(fā)生,應(yīng)當(dāng)承擔(dān)事故的刑事責(zé)任,使用者連同所有者、生產(chǎn)商或程序設(shè)計者承擔(dān)連帶賠償責(zé)任,相關(guān)方同樣可以按照各自提出的主張排除和確定責(zé)任份額。
就強人工智能產(chǎn)品的刑事歸責(zé)而言,如前所述,強人工智能具備類人的辨認(rèn)能力和控制能力,因此,具備相應(yīng)的刑事責(zé)任能力,因此對于其實施的犯罪行為,完全可以依照過錯責(zé)任原則進行刑事歸責(zé)。盡管有觀點認(rèn)為強人工智能的到來可能意味著人類的毀滅,②霍金:《讓人工智能造福人類及其賴以生存的家園》,搜狐網(wǎng):http://www.sohu.com/a/137173188_609518,2018年7月10日訪問。但筆者認(rèn)為科技改進生活的努力不會停止,法律不斷調(diào)適進而規(guī)制科技發(fā)展進程的努力同樣也不會停止。正因為如此,“立法者的任務(wù)不是建立某種特定的秩序,而只是創(chuàng)造一些條件,在這些條件下,一個有序的安排得以自生自發(fā)地建構(gòu)起來,并得以不斷地重構(gòu)”。③[德]弗里德利?!ゑT·哈耶克:《自由秩序原理》,鄧正來譯,生活·讀書·新知三聯(lián)書店1997年版,第201頁。筆者相信,立法者有足夠的智慧將強人工智能的發(fā)展限制在維護人類基本利益的范疇之內(nèi),因此,關(guān)于強人工智能產(chǎn)品的刑事歸責(zé)的討論并非沒有必要。
可以預(yù)見的是,未來人工智能和自然人結(jié)合的模式會成為常態(tài)。就人工智能和自然人結(jié)合體的刑事歸責(zé)而言,筆者認(rèn)為應(yīng)當(dāng)區(qū)別情況分別處置。在人工智能產(chǎn)品與自然人結(jié)合,且不影響自然人的辨識能力和判斷能力的情形下,此時的人工智能產(chǎn)品應(yīng)當(dāng)認(rèn)定為純粹的輔助工具,屬于弱人工智能,如輔助醫(yī)療改善系統(tǒng),那么結(jié)合體實施犯罪應(yīng)當(dāng)根據(jù)過錯責(zé)任原則,由其自身承擔(dān)刑事責(zé)任;在人工智能產(chǎn)品與自然人結(jié)合,且部分影響自然人的辨識能力和判斷能力的情形下,此時的人工智能產(chǎn)品理論上仍舊屬于弱人工智能,但其決策判斷引導(dǎo)或影響自然人實施犯罪行為,那么結(jié)合體實施犯罪應(yīng)當(dāng)適用相對嚴(yán)格責(zé)任原則,對人工智能產(chǎn)品生產(chǎn)者、設(shè)計者及結(jié)合體追究刑事責(zé)任;在人工智能產(chǎn)品與自然人結(jié)合,且主導(dǎo)和控制自然人的辨識能力和判斷能力的情形下,此時的人工智能產(chǎn)品理論上已經(jīng)屬于強人工智能,而強人工智能具備刑事責(zé)任能力,根據(jù)過錯責(zé)任原則理應(yīng)承擔(dān)刑事責(zé)任,此種情形下的結(jié)合體應(yīng)當(dāng)予以分解,對自然人免責(zé)。
人工智能技術(shù)不僅代表未來科技發(fā)展的方向,同時也是未來法律發(fā)展的推動力。2017年7月8日,國務(wù)院發(fā)布 《新一代人工智能發(fā)展規(guī)劃》,④《新一代人工智能發(fā)展規(guī)劃》,中華人民共和國中央人民政府官方網(wǎng)站:http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm,2018年7月10日訪問。明確提出建立人工智能法律法規(guī)、倫理規(guī)范和政策體系的要求。其中,人工智能立法的重要原則包括保護人類利益原則、透明性原則和責(zé)任原則,責(zé)任原則不僅意味著人工智能可以被問責(zé),還涉及人工智能應(yīng)當(dāng)如何被問責(zé)。因此,構(gòu)建行之有效的刑事歸責(zé)原則也是建立人工智能刑事法律的重要組成。