摘"要""人工智能犯罪絕非“未來性命題”,目前引發(fā)刑法學界較大爭議的是人工智能自主性犯罪問題。對此,“事后懲罰”方案認為應當承認人工智能的刑法主體地位,并在此基礎上重構刑罰體系,以應對人工智能自主性犯罪?!笆潞髴土P”方案立足于懲罰犯罪,缺乏現實基礎,并不可取。因此,人工智能自主性犯罪應當從事后懲罰轉向事前預防?!笆虑邦A防”方案的核心在于風險預防,其思路是通過民法、行政法、刑法等不同層面、不同維度的立法,防控人工智能風險,推動人工智能健康有序、安全可控地發(fā)展,以此達到預防人工智能自主性犯罪的目的。
關鍵詞""人工智能"人工智能自主性犯罪"事后懲罰"事前預防
作者簡介":""王超,中國人民公安大學法學院博士研究生。
一切研究都應當以問題為起點,在研究人工智能自主性犯罪的法律應對時,首先要回答其是否為真問題。就目前人工智能技術的發(fā)展水平來看,涉及人工智能犯罪的案件中,人工智能大多作為犯罪工具使用。例如,在路某、閆某開設賭場案中,被告人路某、閆某經共同預謀,創(chuàng)建了“盛世娛樂”賭博網站,并將人工智能概率計算軟件visionidol掛接到該賭博網站,用于推廣和招攬賭徒投注。"①在唐某侵犯公民個人信息案中,被告人唐某開發(fā)“星空互語人工智能電話機器人”軟件對外銷售,并向客戶收集利用該軟件撥打的電話號碼,后通過技術手段對上述電話號碼對應的機主姓名等信息進行匹配,形成可以識別特定自然人身份的信息并加以記錄。"②從這個意義上說,人工智能自主性犯罪只是學者們不切實際的“幻想”,是一個缺乏實踐基礎的“未來性命題”,沒有討論的現實意義。但是,人工智能技術是不斷發(fā)展的,近期大熱的ChatGPT、DeepSeek已經顛覆了我們對傳統(tǒng)人工智能的認知,倘若放任人工智能技術“野蠻生長”,人工智能自主性犯罪終將從科幻變成現實。因此,我們討論人工智能自主性犯罪,不是在討論如何應對已經真實發(fā)生的人工智能自主性犯罪,而是在討論如何避免此類犯罪在現實社會中發(fā)生。從這個意義上來講,人工智能自主性犯罪是一個人工智能技術發(fā)展過程中不得不面對的真問題。
一、人工智能犯罪與刑法回應
人工智能技術的應用使科幻和現實的界限逐漸模糊,人類正大踏步地走向人工智能社會。但不得不承認的是,人工智能技術的發(fā)展也帶來了諸多風險,引起人民普遍恐慌和廣泛討論的是人工智能犯罪問題。人工智能犯罪絕非“未來性命題”,從人工智能誕生至今,與人工智能相關的犯罪案件已屢見不鮮。例如,1978年,日本廣島一家工廠的切割機器人在切鋼板時發(fā)生意外轉身切割當值工人,該案被認為是世界上第一宗機器人殺人事件。參見馬治國、田小楚:《論人工智能體刑法適用之可能性》,《華中科技大學學報(社會科學版)》,2018年第2期。2000年,日本一名59歲的工人在一家摩托車廠被附近工作的智能機器人殺害。參見王耀彬:《類人型人工智能實體的刑事責任主體資格審視》,《西南交通大學學報(社會科學版)》,2019年第1期。2015年,德國大眾汽車制造廠機器人在被安裝和調制過程中將工人重重壓向金屬板,最終導致這名工人因傷重不治身亡。參見劉曉梅、劉雪楓:《人工智能刑事責任的主體問題探析》,《天津法學》,2019年第2期。因此,人工智能犯罪的刑事責任問題成為刑法學者亟須回答的問題。有學者將人工智能犯罪分為三種情形并分別討論不同情形下人工智能犯罪的刑事責任問題。第一種情形下,刑事責任可能會因制作人故意編程實施犯罪或用戶濫用人工智能實體實施犯罪而產生,此時由生產者和最終用戶承擔責任;第二種情形下,由于生產者在生產過程中的疏忽或魯莽,或者因用戶指示的行為的自然和可能后果而產生刑事責任,此時由生產者或用戶承擔責任;第三種情形下,它可能以完全獨立、完全自主的方式運行,如果這種人工智能實體犯罪,那么這種人工智能實體可以被追究刑事責任。Ankit Kumar Padhy, Amit Kumar Padhy, “Criminal liability of the artificial intelligence entities”, Nirma University Law, no. 2(2019).筆者原則上同意人工智能犯罪的劃分,但是對第三種情形下人工智能可以被追究刑事責任表示懷疑。
筆者根據人工智能在犯罪中的定位,將人工智能犯罪分成四種類型(或稱四種情形)。第一,以人工智能為犯罪對象的犯罪,包括針對人工智能實體和針對人工智能系統(tǒng)的犯罪。前者與普通犯罪無異,例如,盜竊、搶劫、侵占、故意毀壞人工智能實體,達到犯罪程度的,可以分別處以盜竊罪、搶劫罪、侵占罪、故意毀壞財物罪。后者,可以通過現行刑法第285條、第286條與侵犯計算機系統(tǒng)相關的犯罪予以應對。即《中華人民共和國刑法》第285條規(guī)定的非法侵入計算機信息系統(tǒng)罪、非法獲取計算機信息系統(tǒng)數據、非法控制計算機信息系統(tǒng)罪和第286條破壞計算機信息系統(tǒng)罪。當然,人工智能系統(tǒng)與計算機信息系統(tǒng)并不能完全等同,因而,當刑法第285條、第286條不足以應對侵犯人工智能系統(tǒng)的犯罪時,可以考慮增設非法侵入人工智能系統(tǒng)罪、非法獲取人工智能系統(tǒng)數據罪、非法控制或者破壞人工智能系統(tǒng)罪等新型罪名予以應對。趙帥、楊力:《侵犯人工智能數據安全的刑法規(guī)制——以〈刑法〉第286條為分析對象》,《學習與探索》,2021年第2期;皮勇:《人工智能刑事法治的基本問題》,《比較法研究》,2018年第5期。第二,因人工智能產品缺陷導致的犯罪。此類犯罪大多因相關責任人在人工智能產品的研究開發(fā)、設計制造、部署應用等過程中未盡到相應的注意義務而導致,因而此類犯罪中雖然是人工智能直接作用于被害人,但應當追究相關責任人的刑事責任。高銘暄主編:《當代刑法前沿問題研究》,人民法院出版社,2019年,第487頁。第三,以人工智能為犯罪工具的犯罪。該類犯罪是目前司法實踐中發(fā)生最多的犯罪,在這類犯罪中,人工智能僅被犯罪人作為犯罪工具使用,應直接追究犯罪人的刑事責任,人工智能不影響刑事責任的成立。第四,以人工智能為犯罪主體的犯罪。該類犯罪即所謂的人工智能自主性犯罪,是指人工智能以完全獨立、完全自主的方式運行,并在產生所謂自主意識的情形下實施犯罪行為。
應該說,在現行刑法的理論框架內,前三種犯罪的刑事責任問題較容易解決,但是人工智能自主性犯罪的刑事責任問題則引發(fā)了學界的較大爭議。有學者提出由于人工智能會產生自主意識和自由意志,因而應當承認人工智能的刑法主體地位,并在此基礎上重構刑罰體系,通過對犯罪的人工智能施以刑罰的方式應對人工智能的自主性犯罪。劉憲權、胡荷佳:《論人工智能時代智能機器人的刑事責任能力》,《法學》,2018年第1期。此種觀點試圖通過重塑刑罰體系來懲罰犯罪后的人工智能,達到應對人工智能自主犯罪的目的,因而可將其稱為事后懲罰的應對方案(以下簡稱“事后懲罰”方案)?!笆潞髴土P”方案立足于人工智能自主性犯罪已經真實發(fā)生的“幻想”,是建立在假設之上的方案,缺乏現實基礎,不具有可行性。筆者認為,應對人工智能自主性犯罪的問題應立足于現實基礎,從民法、行政法、刑法等多個層面、不同維度推進人工智能立法,防控人工智能風險,促進人工智能健康有序、安全可控地發(fā)展,以此達到預防人工智能自主性犯罪的目的。這可稱為事前預防的應對方案(以下簡稱“事前預防”方案)。
二、“事后懲罰”方案的現實性缺陷
(一)“事后懲罰”方案的主要觀點
1.承認人工智能的刑法主體地位
我國學者將人工智能分為弱人工智能和強人工智能,并認為強人工智能可以突破設計和編制的程序范圍,產生自主意識和獨立意志,并擁有認識和控制自己行為的能力,即具備刑法意義上的認識能力和控制能力,進而認為強人工智能可以成為獨立的刑法主體。劉憲權:《人工智能時代的“內憂”“外患”與刑事責任》,《東方法學》,2018年第1期。也有學者從刑法哲學的角度出發(fā)承認人工智能的刑法主體地位,該觀點認為從行為理論上看,具備足夠決策能力的人工智能所實施的行為是刑法意義上的行為;從罪責理論上看,現代罪責理論可以容納人工智能的罪責;從刑罰理論上看,對具有足夠理性能力的人工智能處以刑罰符合刑罰目的。江溯:《人工智能作為刑事責任主體:基于刑法哲學的證立》,《法制與社會發(fā)展》,2021年第3期。
2.重構刑罰體系
在承認人工智能可以成為刑法主體的基礎上,“事后懲罰”方案認為應當重構刑罰體系以懲罰犯罪后的人工智能。對于應當如何設置對人工智能的刑罰,有學者指出,適用于人工智能的刑罰有三種:刪除數據、修改程序、永久銷毀。刪除數據是將人工智能犯罪所產生的數據徹底刪除,并永久限制其再次獲取該數據;修改程序是通過修改人工智能的程序,使其失去深度學習的能力,無法再次產生自主意識和自由意志;永久銷毀是指對有實體的人工智能進行物理性銷毀,對沒有實體的人工智能刪除所有數據和程序。劉憲權:《人工智能時代刑事責任與刑罰體系的重構》,《政治與法律》,2018年第3期。也有學者認為對人工智能的刑事制裁包括徹底報廢、回收改造和設置罰金三種。蔡婷婷:《人工智能環(huán)境下刑法的完善及適用——以智能機器人和無人駕駛汽車為切入點》,《犯罪研究》,2018年第2期。還有學者指出,適用于人工智能的刑罰包含三種模式:修改程序(刪除數據)、永久銷毀、罰金。王耀彬:《類人型人工智能實體的刑事責任主體資格審視》,《西安交通大學學報(社會科學版)》,2019年第1期。另外有學者提出可以通過刪除程序(死刑)、限制使用(監(jiān)禁刑)、社區(qū)服務、設置罰金等方式懲罰犯罪后的人工智能。李興臣:《人工智能機器人刑事責任的追究與刑罰的執(zhí)行》,《中共青島市委黨校.青島行政學院學報》,2018年第4期??偟膩碚f,針對人工智能的刑罰體系主要包括三類刑罰:一是刪除數據、修改程序、銷毀系統(tǒng)等適用于人工智能系統(tǒng)的刑罰;二是限制使用、社區(qū)服務、銷毀實體等適用于人工智能實體的刑罰;三是既適用于人工智能系統(tǒng),也適用于人工智能實體的罰金刑。
(二)“事后懲罰”方案的缺陷
1.人工智能的分類不具備科學依據
我國學者將不具備辨認能力和控制能力的人工智能稱為弱人工智能,將具備辨認能力和控制能力的人工智能稱為強人工智能。劉憲權:《人工智能時代的“內憂”“外患”與刑事責任》,《東方法學》,2018年第1期。筆者認為這樣的分類缺乏現實基礎,并不可取。首先,刑法意義上的辨認能力和控制能力共同構成責任能力的核心內容。前者考察的是行為人能否辨認自己行為的意義、性質、作用、后果,是一種認識能力;后者考察的是行為人是否具有根據辨認能力實施或不實施某種行為的能力,是一種意志能力。周光權:《刑法總論》,中國人民大學出版社,2016年,第228頁。我們必須承認,人工智能基于強大的算法能力,可以輕易根據真實世界的不同變化而采取相應的“行為”,但是人工智能的這種“行為”只是輸入“1+1”則必然輸出“=2”的自動反應。在這個過程中,人工智能的所有“行為”都只是人工智能基于算法程序作出的選擇,而不是在認識到“行為”本身的社會價值和外部意義后再決定的行動或不行動。因此,人工智能不可能具備刑法意義上的辨認能力和控制能力。
其次,即使人工智能可以擁有辨認能力和控制能力,法律也難以對其進行判斷。辨認能力和控制能力是人類思想和精神層面的自我表達,時至今日,人類仍無法準確判斷自身的辨認能力和控制能力,因此通過立法推定自然人的辨認能力和控制能力是世界各國的普遍做法。以刑事責任年齡為例,根據我國刑法的規(guī)定,16周歲以上的自然人即具備完整的辨認能力和控制能力,但是我們很難說明差一天滿16周歲的人和16周歲已經滿一天的人在辨認能力和控制能力上有何差異??梢?,一個人的辨認能力和控制能力不能完全和年齡掛鉤,但是法律至少為辨認能力和控制能力的判斷提供了一個相對合理且可以執(zhí)行的標準。雖然刑事責任年齡的設定是一種“妥協(xié)”的產物,但是這種“妥協(xié)”是可以為絕大多數人所接受的。此外,精神疾病患者的辨認能力和控制能力如何判斷也一直困擾著人類,目前世界各國大多采用混合主義標準,即綜合精神疾病患者的生物學特征和心理學特征予以判斷,雖然這是目前較為科學的判斷標準,但是這一判斷標準依然飽受詬病。在這一判斷標準之下,將正常人認定為不具備辨認能力或控制能力的精神疾病患者,或者將精神疾病患者認定為具備辨認能力和控制能力的正常人,均是真實發(fā)生的案例。王超:《論精神病抗辯》,碩士學位論文,四川省社會科學院,2018年,第15-23頁。倘若人工智能通過自我學習、自我升級、自我進化可以擁有辨認能力和控制能力,法律應當如何為人工智能辨認能力和控制能力的判斷設定標準?就目前人工智能技術的發(fā)展水平來看,恐怕難以準確回答這一問題。在筆者看來,“事后懲罰”方案所謂擁有辨認能力和控制能力的強人工智能仍然只存在于科幻作品中,即使未來人類可以在技術層面解決人工智能辨認能力和控制能力的問題,研發(fā)制造出所謂的強人工智能,該種技術能否被廣泛應用也是值得思考的問題。這是因為一旦研發(fā)制造出具有自我意識和獨立意志的人工智能,科幻作品里人工智能統(tǒng)治世界、消滅人類的場景或許就會照進現實。屆時,我們討論的就不再是人工智能自主性犯罪的應對問題,而是人類自身的生存問題。
總而言之,在未來可見的時間范圍內,人工智能不可能擁有辨認能力和控制能力,因此基于辨認能力和控制能力對人工智能進行分類缺乏科學依據,也并不可取。筆者認為,自動駕駛技術作為人工智能技術的現實表達,可以參照汽車駕駛自動化的分級標準對人工智能進行科學分類。參照汽車駕駛自動化分級標準,可以將人工智能分為輔助型人工智能、半操控型人工智能、自主型人工智能王超:《人工智能刑法屬性的科學定位——“智慧型工具說”的提倡》,《湖北警官學院學報》,2022年第2期。(如表1所示)。在筆者的這一分級/類中,不存在可以脫離人類控制的人工智能,即無論哪一類型的人工智能,均處于人類的控制之中。如果人工智能可以完全脫離人類的控制,那么人類為其設置規(guī)則、規(guī)定刑罰只不過是老鼠給貓定規(guī)則,將毫無意義。
2.對人工智能處以刑罰難以達到刑罰的目的
刑罰的目的在于報應和預防。林山田認為,刑罰是對犯罪的報應,以刑罰報應犯罪,以刑罰的痛苦衡平犯罪的惡害,既體現了正義的理念,又增強了倫理的力量。報應強調刑罰的痛苦要和犯罪的惡害對等,要和社會的否定評價相當。假設人工智能故意殺人的事實成立,受害人的生命消失(犯罪)和人工智能被永久銷毀(刑罰)之間恐怕難以對等相稱。刑罰作為最嚴厲的制裁方式,主要是通過對犯罪人施加痛苦以達到報應犯罪的目的。人工智能作為非生命體,不可能感受到刑罰的痛苦,對其處以刑罰無法達到報應的目的。換言之,永久銷毀人工智能的刑罰難以報應人工智能故意殺人的犯罪,刑罰的痛苦與犯罪的惡害難以衡平,無法滿足社會大眾對于正義感的需求,更無法補償受害者及其家屬受到的傷害。
預防包括一般預防和特殊預防。一般預防旨在通過對犯罪人處以刑罰,威懾潛在犯罪人,產生嚇阻犯罪、預防犯罪的效果,以此向社會大眾表明違反刑法規(guī)范的法律后果,將公眾潛藏的犯罪欲望控制在一定限度之內。[德]漢斯·海因里?!ひ恕⑼旭R斯·魏根特:《德國刑法教科書》(上),徐久生譯,中國法制出版社,2017年,"第96-97頁。因此“害怕”這一心理要素在一般預防中至關重要,倘若潛在的犯罪人絲毫不“害怕”刑罰這一犯罪后的法律后果,一般預防也就失去了作用。那么人工智能是否會因刑罰而感到“害怕”呢?筆者認為這是值得懷疑的。“害怕”產生于人的內心深處,因人而異,很難說人工智能會具備這種心理要素。我們目前已經能在戰(zhàn)場上、火場中、太空里、深海下看到人工智能的身影,原因之一就是人工智能不會“害怕”這些場景。因而,對犯罪后的人工智能處以刑罰難以使其他人工智能感到“害怕”,無法達到預防其他人工智能犯罪的目的。此外,一般預防還有撫慰、教育受害者及其家屬,預防其犯罪的功能。但可以想象的是,當人工智能自主犯罪的事實發(fā)生后,受害人及其家屬害怕、擔憂、憤恨的恐怕不是人工智能,而是人工智能背后的相關主體,甚至可能是人工智能這項技術本身。此時僅對人工智能處以刑罰也就難以達到預防受害人及其家屬犯罪的目的。
林山田認為:就特殊預防而言,刑罰通過對犯罪人的矯治達到預防犯罪的目的,特殊預防思想下的刑罰是一種教育刑。刑罰的教育在于根除犯罪人的犯罪思想,使之不再犯罪,但眾所周知的是,教育是一個“春風化雨”的過程,刑罰也絕非可以教育任何人的工具。對于已經產生犯罪事實的人工智能而言,似乎只要將其系統(tǒng)中涉及犯罪的那部分程序或數據予以修改、刪除就可以達到根除犯罪思想的目的。但是,既然人工智能已經可以通過自我升級、自我進化擁有辨認能力和控制能力,人為將人工智能系統(tǒng)中與犯罪相關的那部分程序或數據修改、刪除,也很難能保證它不會通過自我升級、自我進化產生新的“犯罪思想”。
3.“事后懲罰”方案的刑罰方式缺乏可行性
“事后懲罰”方案針對人工智能的特殊性提出了三類刑罰,但是這三類刑罰的現實可行性是值得懷疑的。首先,刑罰是用公正報應犯罪,衡平犯罪惡害的法律手段,它具有社會倫理的否定評價功能。林山田認為:對犯罪人而言,刑罰是一種社會倫理上的否定評價;對犯罪行為而言,刑罰是一種具有社會倫理性的譴責或者非難。因此刑罰總是具有消極評價的內容,并包含令行為人痛苦的特征,這種“必要的痛苦”有助于被判刑人改惡從善。[德]漢斯·海因里?!ひ?、托馬斯·魏根特:《德國刑法教科書》(上),徐久生譯,中國法制出版社,2017年,第92頁。人是社會的動物,人無法離開社會而生活,社會倫理的否定評價對犯罪人而言是莫大的痛苦。人工智能作為非生命體,不具有社會屬性,社會對其做出的否定評價并不會對其造成任何影響,人工智能難以感受到社會倫理否定評價所帶來的痛苦。此外,前文已述,對人工智能處以刑罰難以達到刑罰報應犯罪和預防犯罪的目的,因此對于人工智能而言,刑罰也就失去了意義。
其次,從具體的刑罰措施來看,對人工智能處以刑罰更多是“事后懲罰”方案的想象。刪除數據、修改程序對于已經可以升級、進化出辨認能力和控制能力的人工智能而言毫無作用,因為它可以隨時升級、進化出新的數據和程序;永久銷毀人工智能實體后,載于其上的數據和程序完全可以被植入新的實體;勞役、自由刑等對非生命體而言毫無意義;至于罰金刑,最終依然會被轉嫁到人類身上。總之,“人工智能既不存在充分認識及嚴格遵守法律規(guī)范的意識,刑法也難以對其設置合適有效的制裁方式?!备读c:《刑法總論》,法律出版社,2020年,第129頁。
“事后懲罰”方案立足于人工智能已經犯罪這一“事實”,試圖論證人工智能可以成為除自然人、單位之外刑法上的第三類主體,并在此基礎上以重構刑罰體系的方式應對人工智能犯罪。先不論重構刑罰體系的方式是否經濟、合理,至少以目前以及未來可見時間范圍內人類的科技水平,超越設計程序而產生自主意識和自由意志的人工智能依然只是“科幻作品”中的美好想象。即使未來人類在科學技術層面可以實現想象到現實的轉變,這種轉變是否值得發(fā)生是超越人工智能自主性犯罪的難題。當人類試圖創(chuàng)造可以比肩人類自身的“作品”時,其背后不僅僅包括科學技術的要求,更難逾越的是倫理道德的藩籬。
三、“事前預防”方案的可行性路徑
“事前預防”方案的核心在于風險預防,即以立法的方式防控人工智能風險,推動人工智能安全可控、健康有序的發(fā)展,從源頭上遏制可能自主犯罪的超人工智能誕生,以此實現應對人工智能自主犯罪的目的。相比“事后懲罰”方案在假設前提的基礎上應對人工智能的自主性犯罪,“事前預防”方案更加符合實際,也更具科學性和可操作性?!笆虑邦A防”方案從民法、行政法、刑法等不同層面、不同維度進行立法,共同構建一套完整的法律體系,對人工智能風險進行防控,禁止研究開發(fā)、設計制造和部署應用可能自主犯罪的人工智能,確保人工智能安全可控、健康有序地發(fā)展,從源頭上遏制人工智能的自主性犯罪。
人工智能時代是一個偉大的時代。與此同時,人工智能也蘊藏著極大的風險。我國學者指出,人工智能面臨的風險包括不確定的技術風險、偏離設計應用的風險、被非法使用的風險、社會風險和倫理風險。龍衛(wèi)球:《科技法迭代視角下的人工智能立法》,《法商研究》,2020年第1期。另有學者認為,人工智能的風險包括倫理風險、極化風險、異化風險、應對風險和責任風險。馬長山:《人工智能的社會風險及其法律規(guī)制》,《法律科學(西北政法大學學報)》,2018年第6期。根據全國信息安全標準化技術委員會發(fā)布的《網絡安全標準實踐指南——人工智能倫理安全風險防范指引》,人工智能倫理安全風險包括失控性風險、社會性風險、侵權性風險、歧視性風險、責任性風險。全國信息安全標準化技術委員會秘書處:《網絡安全標準實踐指南——人工智能倫理安全風險防范指引》,https://www.tc260.org.cn/upload/2021-01-05/1609818449720076535.pdf。中國電子工業(yè)標準化技術協(xié)會發(fā)布的《〈信息技術人工智能風險評估模型〉團體標準(征求意見稿)》表明,人工智能的風險要素包括技術風險、應用風險和管理風險。其中技術風險包含數據風險、算法模型風險、系統(tǒng)風險應用風險包含對象風險、權利風險管理風險包含組織設計風險、人員管理風險、流程管理風險。全國團體標準信息平臺:《中國電子工業(yè)標準化技術協(xié)會關于〈信息技術人工智能風險評估模型〉團體標準征求意見的通知》, http://www.ttbz.org.cn/Home/Show/26993/。無論人工智能風險的具體內容是什么,不可否認的是,人工智能風險無法被徹底消滅,它與人工智能的發(fā)展相生相伴。為了避免人工智能風險的擴大化,必須通過立法對人工智能風險予以應對,將人工智能風險控制在可容忍的范圍內。推進人工智能領域的立法,不僅有利于促進人工智能健康有序、安全可控地發(fā)展,更是完善中國特色社會主義法律體系的要求。
(一)在《中華人民共和國民法典》中增設相應條款
2018年11月,一對經過基因編輯的嬰兒在中國健康出生,由于基因經過修改,這對嬰兒出生后可天然抵御艾滋病毒。仲崇山、蔡姝雯、王拓等:《“基因編輯嬰兒”打開了潘多拉魔盒?》,《新華日報》,2018年11月28日。全球范圍的科學家對此做出的反應近乎一致:基因編輯嬰兒實驗粗暴地突破了科學應有的倫理程序,應當堅決反對,強烈譴責?!痘蚓庉媼雰菏录?,理性比煽情重要》,《環(huán)球時報》,2018年11月27日。在這樣的背景之下,《中華人民共和國民法典》第1009條明確規(guī)定了從事基因編輯研究活動的基本原則?;蚓庉嬘型黄苽惱淼赖碌娘L險,人工智能也不例外。為了使人工智能安全可控、健康有序地發(fā)展,基于防范人工智能倫理風險的要求,可以參照《中華人民共和國民法典》第1009條,通過修正案的方式在《中華人民共和國民法典》中增設第1009條之一:從事與人工智能有關的研究開發(fā)、設計制造、部署應用等科研活動,應當遵守法律、行政法規(guī)和國家有關規(guī)定,不得危害人體健康,不得違背倫理道德,不得損害公共利益。
(二)推進人工智能專門立法
人工智能倫理安全風險的應對是世界性議題。2017年,聯(lián)合國發(fā)布《機器人倫理報告》,討論了人工智能所帶來的社會與倫理道德問題。2019年,歐盟委員會發(fā)布《人工智能道德準則》,提出人工智能可信賴的原則,最大程度降低人工智能風險。2019年2月,美國啟動“美國人工智能倡議”(以下簡稱“倡議”);同年9月,作為對“倡議”的回應,美國《國家人工智能研究與發(fā)展戰(zhàn)略計劃》得到更新,提出要積極應對人工智能倫理和法律的社會影響,確保人工智能系統(tǒng)安全。全國信息安全標準化技術委員會:《人工智能安全標準化白皮書(2019版)》, http://www.cesi.cn/images/editor/20191101/20191101115151443.pdf。
我國也出臺了一系列與人工智能相關的政策文件,旨在推動我國人工智能健康有序、安全可控地發(fā)展。這些文件包括:《新一代人工智能發(fā)展規(guī)劃》《新一代人工智能倫理規(guī)范》《新一代人工智能治理原則——發(fā)展負責任的人工智能》《促進新一代人工智能產業(yè)發(fā)展三年行動計劃(2018—2020)》《“互聯(lián)網+”人工智能三年行動實施方案》《關于促進人工智能與實體經濟深度融合的指導意見》《人工智能倫理安全風險防范指引》《國家新一代人工智能標準體系建設指南》《人工智能安全標準化白皮書(2019)》《人工智能標準化白皮書(2021)》等。但是無論聯(lián)合國等國際組織,還是美國、英國、德國等域外國家,抑或我國,對人工智能風險的應對大多停留在“戰(zhàn)略”“報告”“指南”“倡議”“計劃”“規(guī)劃”等層面,還未上升到法律(法案)層面。直到2021年4月21日,歐盟發(fā)布了《人工智能法案》,才在法律(法案)層面實現人工智能風險應對零的突破。作為全球范圍內首部人工智能綜合性法案,歐盟《人工智能法案》“旨在從國家法律層面限制AI技術發(fā)展帶來的潛在風險和不良影響”王偉潔、鄧攀科、呂志遠:《歐盟2021年〈人工智能法〉研究》,《信息安全研究》,2022年第2期。。
目前,我國在人工智能領域內的專門立法僅有《上海市促進人工智能產業(yè)發(fā)展條例》《深圳經濟特區(qū)人工智能產業(yè)促進條例》《上海市浦東新區(qū)促進無駕駛人智能網聯(lián)汽車創(chuàng)新應用規(guī)定》《天津市促進智能制造發(fā)展條例》等地方性法規(guī)。在人工智能這個大時代,這些立法顯然遠遠不夠。對此,我們應當以已經出臺的相關政策文件和地方性法規(guī)為基礎,同時參考歐盟《人工智能法案》中的積極部分,“盡早制定專門的人工智能法,以人工智能科技作為特殊規(guī)范對象……從人工智能的科技市場、科技風險和科技政策等具體問題入手……形成一套專門適用于人工智能研發(fā)和應用的具體規(guī)范體系”龍衛(wèi)球:《科技法迭代視角下的人工智能立法》,《法商研究》,2020年第1期。。
(三)在《中華人民共和國刑法》中增設相應新罪
雖然民法和行政法層面的相應立法都有助于防控人工智能風險,但是“人工智能作為一種社會變革的先進技術,理應受到刑法的保護,只有用刑法這種嚴苛的手段,才能保障人工智能健康有序地發(fā)展”唐亞南:《如何從刑法的維度對人工智能進行規(guī)制》,《法律適用》,2021年第4期。。然而現行《中華人民共和國刑法》(以下簡稱《刑法》)中缺乏應對人工智能自主性犯罪的相應規(guī)范,因此有必要“對人工智能領域涉及的刑事問題采取預防性刑法立法”李文吉:《論人工智能時代的預防性刑法立法》,《大連理工大學學報(社會科學版)》,2020年第5期。,在《刑法》中增設相應新罪。“事前預防”方案要求刑法通過增設新罪對不當進行人工智能研究開發(fā)、設計制造、部署應用以及使用的相關責任人處以刑罰,遏制可能會自主犯罪的人工智能的研究開發(fā)、設計制造、部署應用和使用,以此達到預防人工智能自主犯罪的目的。
1.增設新罪的原則
人工智能自主性犯罪有別于《刑法》中的其他犯罪,增設相應新罪時,除了遵守適用于增設其他新罪的一般性原則外,還應當遵循下列原則。
第一,人類利益優(yōu)先原則。無論人工智能發(fā)展到何種程度,其屬性定位始終是為人類所使用的工具,其目的也始終是“服務于人類利益、為了使人們能夠享受更大的幸福”李振林:《人工智能刑事立法圖景》,《華南師范大學學報(社會科學版)》,2018年第6期。。這是無可爭議的事實,也是發(fā)展人工智能應當遵循的大前提。即使是支持“事前懲罰”方案的學者,也認為承認人工智能刑法主體地位的本質是“為了更好地實現人類的利益”劉憲權:《人工智能時代機器人行為道德倫理與刑法規(guī)制》,《比較法研究》,2018年第4期。。國家相關文件已經指出,“確保人工智能始終朝著有利于人類的方向發(fā)展”中華人民共和國科學技術部:《發(fā)展負責任的人工智能:新一代人工智能治理原則發(fā)布》,http://www.most.gov.cn/kjbgz/201906/t20190617_147107.html。,這就是人類利益優(yōu)先原則的體現。因此,在《刑法》中增設預防人工智能自主犯罪的規(guī)范,必須堅持人類利益優(yōu)先原則,堅持以全人類利益為底線。
第二,發(fā)展與安全并重原則。發(fā)展是指發(fā)展人工智能產業(yè),安全是指保障總體國家安全。人工智能是一把雙刃劍,給人類帶來諸多福利之時,也蘊藏著極大的風險,增設相關新罪,必須堅持發(fā)展與安全并重原則。2014年,習近平在中央國家安全委員會第一次會議上創(chuàng)造性地提出總體國家安全觀,并指出貫徹落實總體國家安全觀應當重點把握五對關系“五對關系”分別是:既重視外部安全,又重視內部安全;既重視國土安全,又重視國民安全;既重視傳統(tǒng)安全,又重視非傳統(tǒng)安全;既重視發(fā)展問題,又重視安全問題;既重視自身安全,又重視共同安全。,其中就包括既重視發(fā)展問題,又重視安全問題。人工智能作為一項新興技術,刑法應當允許其有“生長”和“試錯”的空間,否則只會因噎廢食,不利于人工智能技術的發(fā)展。但是,人工智能的“生長”與“試錯”也必須在法律允許的框架內進行,一旦人工智能的發(fā)展逾越了法律的藩籬,甚至危害總體國家安全,必須使用最嚴厲的手段——刑罰予以修正。
第三,法律與技術協(xié)調原則。人工智能技術是不斷發(fā)展的,法律也必須針對技術的發(fā)展作出相應的調整,但是法律絕不是對技術的亦步亦趨,相反,技術的發(fā)展應當在法律的框架內進行。這就要求法律既要立足于當下的實踐,又要著眼于未來的發(fā)展。盲目承認人工智能的刑法主體地位脫離人工智能的發(fā)展實踐,顯然沒有遵循法律與技術協(xié)調原則。刑法對人工智能自主性犯罪的應對,必須著眼于人工智能的發(fā)展趨勢,遵循法律與技術協(xié)調原則,防控人工智能安全風險,避免人工智能自主性犯罪的發(fā)生。
2.增設新罪的具體設計
結合人工智能的發(fā)展現狀和未來預期,筆者認為從預防的角度應對人工智能自主性犯罪,可以在《刑法》中增設下列新罪。
(1)非法研發(fā)、制造、部署人工智能罪。人工智能的研究開發(fā)、設計制造、部署應用應當得到特別行政許可,任何單位或個人未經許可私自研究開發(fā)、設計制造、部署應用的,應當對相關責任人追究刑事責任。
(2)出售、購買、使用、持有非法研發(fā)、制造的人工智能罪。明知是非法研發(fā)、制造、部署的人工智能而出售、購買、持有或使用的,應當對相關責任人追究刑事責任。
(3)非法轉讓人工智能研發(fā)、制造資質罪。人工智能的研究開發(fā)者、設計制造者、部署應用者等具備人工智能研發(fā)、制造資質的單位或個人非法向不具備該資質的單位或個人轉讓研發(fā)、制造資質的,應當對相關責任人追究刑事責任。
(4)濫用人工智能技術罪、濫用人工智能罪。人工智能的研究開發(fā)者、設計制造者、部署應用者等掌握人工智能技術的單位或個人濫用人工智能技術,應當對相關責任人追究刑事責任。人工智能的用戶濫用人工智能深度學習、自我學習的能力,通過對合法使用的人工智能進行訓練,使其產生危害社會的能力的,應當對相關責任人追究刑事責任。劉憲權、房慧穎:《涉人工智能犯罪的前瞻性刑法思考》,《安徽大學學報(哲學社會科學版)》,2019年第1期。
(5)非法提供人工智能技術罪。人工智能的研究開發(fā)者、設計制造者、部署應用者等掌握人工智能技術的單位或個人非法向他人提供人工智能技術的,應當對相關責任人追究刑事責任。
(6)人工智能重大事故安全罪。人工智能的研究開發(fā)者、設計制造者、部署應用者以及用戶等在研究開發(fā)、設計制造、部署應用或使用人工智能的過程中,未盡到相應的管理義務或注意義務,進而導致人工智能產生危害社會的風險的,應當對相關責任人追究刑事責任。
四、結"語
落后就要挨打,“回顧近代歷史,中國正是因為與工業(yè)革命失之交臂,才與西方國家漸行漸遠,最終換來了屈辱和苦難的近代史”曹詩權:《習近平關于網絡安全法治的重要論述研究》,《公安學研究》,2018年第1期。。如今,新一輪科技革命的浪潮已經滾滾襲來,這給我們趕超西方帶來了重要的歷史機遇。我們必須牢牢抓住人工智能這個新一輪科技革命的“牛鼻子”,在人工智能的偉大時代實現中華民族偉大復興。但人工智能又是一把雙刃劍,它給我們帶來發(fā)展機遇的同時,也潛藏著不可估量的風險。在歐盟出臺《人工智能法案》的背景下,我國不僅要面對本國人工智能發(fā)展所帶來的風險,還要面對“西方發(fā)達國家以資本邏輯驅動的人工智能發(fā)展帶來的社會風險”張春芳、徐艷玲:《習近平人工智能發(fā)展重要論述:形成邏輯、內涵意蘊及實踐方略》,《河南師范大學學報(哲學社會科學版)》,2022年第2期。。我們必須正視人工智能發(fā)展帶來的風險,通過民法、行政法、刑法等不同層面、不同維度的法律法規(guī),將風險控制在可容忍的范圍內,推動人工智能健康有序、安全可控地發(fā)展。但是我國目前針對人工智能的法律法規(guī)相對滯后,不足以支撐人工智能健康有序、安全可控的發(fā)展,甚至“可能成為人工智能進一步創(chuàng)新發(fā)展的掣肘”閆海潮、胡金旭:《習近平關于人工智能發(fā)展重要論述的主要內涵及時代價值》,《鄧小平研究》,2020年第6期。。為此,從不同層面、不同維度推進人工智能立法,是防控人工智能風險,促進人工智能健康有序、安全可控發(fā)展的必由之路,也是預防人工智能自主性犯罪的可行之道。
〔責任編輯:李海中〕
①"參見山東省鄄城縣人民法院(2020)魯1726刑初368號判決書。
②"參見上海市浦東新區(qū)人民法院(2019)滬0115刑初5251號判決書。