王 超
(中國人民公安大學,北京 100032)
人工智能的發(fā)展,是人類科學技術(shù)發(fā)展的必然,正如習近平總書記所言:“新一代人工智能正在全球范圍內(nèi)蓬勃興起,為經(jīng)濟社會發(fā)展注入了新動能,正在深刻改變?nèi)藗兊纳a(chǎn)生活方式?!保?]但不得不承認的是,人工智能給我們帶來諸多便利的同時,也蘊藏著大量的安全風險,引起民眾普遍恐慌且廣泛討論的是人工智能的犯罪問題。①1978年,日本廣島一家工廠的切割機器人在切鋼板時發(fā)生意外轉(zhuǎn)身切割當值工人,該案被認為是世界上第一宗機器人殺人事件;2015年,德國大眾汽車制造廠機器人在被安裝和調(diào)制過程中將工人重重壓向金屬板,最終導致這名工人因傷重不治身亡;2020年,日本一名59歲的工人在一家摩托車廠被附近工作的智能機器人殺害。參見馬治國,田小楚:《論人工智能體刑法適用之可能性》,載《華中科技大學學報(社會科學版)》2018年第2期;劉曉梅,劉雪楓:《人工智能刑事責任的主體問題探析》,載《天津法學》2019年第2期;王耀彬:《類人型人工智能實體的刑事責任主體資格審視》,載《西南交通大學學報(社會科學版)》2019年第1期。如何規(guī)制人工智能犯罪問題也成了刑法學界熱議的話題,對這一問題的回答,國內(nèi)外刑法學者產(chǎn)生了大量論爭,但目前來看大致有兩個主要方向,“一個是主張承認人工智能的法律人格,其后果是對人工智能施加刑事責任;另一個是不承認法律人格,其目的是表明由于缺乏理論方案和對人工智能本身的發(fā)展認識不足,對這一主題的討論還不成熟。”[2]筆者認為,理論研究應當具有前瞻性,但是前瞻性必須以現(xiàn)實材料為基礎,進言之,不能因為缺乏理論方案和缺乏對人工智能發(fā)展的認識就否認對一主題討論的必要性,但也不宜直接承認人工智能的法律人格以追究其刑事責任。
人工智能犯罪作為一種新型犯罪,是指與人工智能的研究開發(fā)、設計制造、部署應用等相關的犯罪。當下,我們依然處于弱人工智能時代,涉及人工智能的犯罪案件主要包括兩類:一是利用型犯罪,即行為人利用人工智能實施犯罪;二是產(chǎn)品缺陷型犯罪,即因為人工智能產(chǎn)品自身的缺陷而導致的犯罪。[3]應該說,上述兩類犯罪均不存在規(guī)制難題。但是,隨著技術(shù)的逐漸成熟,人工智能必然會擁有更強的學習能力,甚至在一定程度上具備自主識別、自我控制的能力,出現(xiàn)所謂的“人工智能自主犯罪”。此時,是否需要承認人工智能的刑法主體地位以規(guī)制該類犯罪?持肯定說的學者認為(強)人工智能具有控制能力和辨認能力,并且可能產(chǎn)生自主意識和意志,進而認為(強)人工智能可以成為獨立的刑法主體。持否定說的學者認為人工智能不具有控制能力和辨認能力,即使認為人工智能具有控制能力和辨認能力,也無法將其評價為具有自主意識,即人工智能的控制能力和辨認能力不具有刑法評價意義上的自主性。①肯定說的相關論述可參見劉憲權(quán),胡荷佳:《論人工智能時代智能機器人的刑事責任能力》,載《法學》2018年第1期;劉憲權(quán):《人工智能時代的“內(nèi)憂”“外患”與刑事責任》,載《東方法學》2018年第3期;劉憲權(quán),林雨佳:《人工智能時代刑事責任主體的重新解構(gòu)》,載《人民檢察》2018年第3期;盧勤忠,何鑫:《強人工智能時代刑事責任與刑罰理論》,載《華南師范大學學報(社會科學版)》2018年第6期等。否定說的相關論述可參見王肅之:《人工智能體刑法地位的教義學反思》,載《重慶大學學報(社會科學版)》2020年第3期;時方:《人工智能刑事主體地位之否定》,載《法律科學》2018年第6期;葉良芳:《人工智能是適格的刑事責任主體嗎?》,載《環(huán)球法律評論》2019年第4期;張成東:《強人工智能體刑事主體地位之否定》,載《時代法學》2019年第5期等。國外的通說觀點是人工智能不具備刑事責任,大多數(shù)學者都認為人工智能的法律責任由生產(chǎn)者或所有者承擔。[4]但近年來,越來越多的學者開始承認人工智能有獨立承擔法律責任的資格。例如,有學者指出人工智能能夠在很大程度上獨立于人類控制,表現(xiàn)出高度的自主性和不可約束性,這使得人工智能可以在一些方面不同于傳統(tǒng)的機器,刑法的直接應用更值得考慮。[5]
筆者同意否定說的立場,人工智能雖然具有“智能性”的特點,擁有自主識別、自主控制的能力,甚至在一定條件下可以脫離人的控制,但其本質(zhì)依然是人類的工具,賦予人工智能刑法主體地位的觀點在當下以及未來很長一段時間內(nèi)并不可取。傳統(tǒng)刑法理論認為,刑法主體是指實施危害社會的行為、依法應當負刑事責任的自然人和單位。[6]據(jù)此,筆者擬以傳統(tǒng)刑法理論為分析框架,從以下三個方面著手,否定人工智能的刑法主體地位。第一,人工智能實施的危害社會的“動作”不是刑法意義上的行為;第二,人工智能不具備刑事責任能力;第三,對人工智能科處刑罰無法達到刑罰目的。
我們在考察人工智能能否成為刑法上的獨立主體時,實際上就是在討論人工智能能否成為犯罪的主體。一般認為,犯罪是應受刑法處罰的行為,無行為則無犯罪。那么什么樣的行為才會被規(guī)定為犯罪?對于這一問題的思考,學界出現(xiàn)了因果行為論、目的行為論、社會行為論、人格行為論、規(guī)范行為論等學說,各種學說都有其自身的影響力,但均存在或多或少的缺陷。但是從行為論的發(fā)展歷程來看,“行為成立的著眼點依‘身體性’‘意思性’‘目的性’而至‘社會重要性’及‘人格性’的脈絡而發(fā)展。”[7]行為論的這個發(fā)展趨勢表明行為觀念中的物理因素、自然因素在逐漸減少,而規(guī)范因素、評價因素乃至社會價值因素在逐漸增多。事實上,行為論目前的趨勢是,“純粹的存在論的行為論與徹底的價值論的行為論都難以成立,而綜合各個要素的復合行為論,或許更有說服力。”[8]以正當防衛(wèi)為例,如果單純地考慮防衛(wèi)行為物理因素或者自然因素,正當防衛(wèi)顯然沒有成立的余地,該行為同樣是對法益的一種侵害,應當受刑罰處罰。但是,如果單純地從評價層面或者社會價值層面出發(fā)考察防衛(wèi)行為,就不應存在防衛(wèi)過當。
德國學者羅克辛曾對刑法意義上的行為作過如下描述,“一個人事先實施了行為這種說法,就是對一個人必須能夠把由他發(fā)生的一種事件或者一種不做作為他的行為而歸責于他這個內(nèi)容,進行了一種價值評價的結(jié)果。”[9]這里的價值評價應當包含兩個層面的含義,一是行為人本身對自己行為的價值評價,即行為人應當能認識到自己行為所產(chǎn)生的社會意義;二是社會規(guī)范的評價,即該行為是否具有社會意義以及具有何種社會意義。即使可以在社會規(guī)范層面對人工智能的行為進行評價,也很難說人工智能會認識到其自身行為的社會意義。典型的如自動駕駛系統(tǒng),自動駕駛系統(tǒng)可以識別不同的路況信息,并根據(jù)不同的路況作出相應的“行為”。試想,當自動駕駛系統(tǒng)行駛在路上,前方紅燈,后方一輛特種車輛(如救護車、消防車等)需立即通過該紅燈,但只有自動駕駛系統(tǒng)先通過紅燈,后方的特種車輛才能通過。然而,由于程序的設置,自動駕駛系統(tǒng)必須遵守交通規(guī)則,不能“闖紅燈”,由此耽誤了后方特種車輛的救援時間,造成了不可挽回的后果。從規(guī)范層面來說,自動駕駛系統(tǒng)遵守交規(guī),應當對其“不闖紅燈”的行為進行肯定評價,但從社會意義上說,恐怕這一行為難以被社會評價所肯定。究其原因,在于人工智能只能根據(jù)程序或指令作出反應,這一反應雖然可以是物理意義上的行為,但難以說其具有刑法上的意義。換言之,人工智能的行為“只是在人為的干預下按照指令執(zhí)行操作,即便人工智能技術(shù)繼續(xù)發(fā)展,甚至能夠脫離人類的控制,自主做出某種行為,但其仍然無法明白自身行為的意義。”[10]
刑法意義上的行為應當具備兩個要素,有體性和有意性。有體性主要表現(xiàn)為身體的動靜,即行為必須以一定的方式呈現(xiàn)與外部[11];有意性是指行為是人的思想的體現(xiàn),是受人的意識和意志支配的。[12]目前,國內(nèi)大多數(shù)通行教材或者著作都承認,行為的有意性是區(qū)別刑法意義上的行為和其他行為的關鍵。諸如非人類行為、高度自動化或反射性反應的行為、人在睡夢中或無意識狀態(tài)下的行為、不可抗力下的行為、人在身體受到外力強制情況下實施的行為等,由于缺乏有意性,雖然也是行為,但只能認為是一般行為,而不是刑法意義上的行為。由此看來,如果要承認人工智能所實施的危害行為是刑法意義上的行為,就需要承認其行為具備有意性。有意性的關鍵是人類的意志和意識,更進一步說,是人類的自由意志和意識。亦即,刑法意義上的行為應當是受人類自由意識和意志支配的行為。如果我們將主語擴大至人工智能,就是刑法意義上的行為是受人類或人工智能自由意識和意志支配的行為。這一命題成立的前提是人工智能具備自由意識和意志,但人工智能并不具備自由意識和意志。即使如大多數(shù)支持人工智能刑法主體地位的學者所言,人工智能可以具有自主判斷和決策的能力,這些所謂的自主判斷和決策也是基于設計者或者制造者事先編寫的程序而實現(xiàn)的,其實現(xiàn)的是人工智能設計者或者制造者的意識和意志,并非人工智能的自由意志和意識。
事實上,大部分支持人工智能具備刑法主體地位的學者都有一個看似無懈可擊的論點,即人工智能可以突破研發(fā)者、制造者、使用者的編程設計或指令程序,進行自主決策并實施相應行為,從而實現(xiàn)其自身的意識和意志。[13]筆者認為,這樣的觀點是經(jīng)不起推敲的。首先,以人類目前的科技水平,人工智能是否真的可以突破編程范圍還是個未知數(shù),目前來看,這種“突破”只是學者們沒有科學依據(jù)的假設。其次,即使人工智能真的可以突破原始編程的范圍,這種“突破”也是由研發(fā)者、制造者、使用者事先通過編程或指令植入的。換言之,人工智能的這種“突破”仍然是研發(fā)者、制造者、使用者的意識和意志的體現(xiàn),而并非其自身的意識和意志。只要離開了研發(fā)者、制造者、使用者,人工智能的“突破”就無法實現(xiàn)。這樣看來,人工智能的行為是設計者或者制造者的意識和意志的體現(xiàn),并非其獨立意識和意志的體現(xiàn)。因此,這種行為在本質(zhì)上仍然是不自由的。所以人工智能的行為與非人類行為、高度自動化或反射性反應的行為類似,不具備有意性,不是刑法意義上的行為。
總而言之,人工智能的行為是基于程序設計而產(chǎn)生的,其并不能認識到自身行為的社會意義。即使如學者所言,人工智能可以“突破”程序設計“自我進化”,這種“突破”或者“自我進化”也是基于程序設計而發(fā)生的,是設計者、制造者意識和意志的延展。因此,人工智能的行為并不是刑法意義上的行為,不能為刑法所規(guī)制。
刑事責任能力,是行為人對自己實施的犯罪行為有承擔刑事責任的能力,其核心是辨認能力和控制能力。[14]辨認能力簡單來說就是辨別是非的能力,控制能力是根據(jù)辨別是非的結(jié)果來決定哪些事情可為,哪些事情不可為的能力。人工智能擁有強大的算法能力,可以很輕松地辨別是非,再通過相應的程序作出反應。從這個意義上說,人工智能具有的辨認能力和控制能力甚至遠超人類,但是這種辨認能力和控制能力并非刑法意義上的辨認能力和控制能力。否則,當前的弱人工智能也可以根據(jù)算法辨別是非,并通過程序作出相應的反應,但是支持人工智能具有刑法主體地位的論者恐怕也難以承認弱人工智能可以成為刑法上的主體。以自動駕駛汽車為例,通過事先植入的程序和指令,自動駕駛汽車可以很輕松地辨認交通規(guī)則、路況信息等,并根據(jù)不同的道路情況作出相應的反應,控制車輛安全行駛,但是自動駕駛汽車的這種“識別——控制”的過程只是“如果……就……”的程序反應,不是刑法評價意義上的辨認能力和控制能力。如果自動駕駛汽車發(fā)生交通事故,并達到交通肇事罪的程度,我們不可能將其認定為交通肇事罪的犯罪嫌疑人或被告人對其追究刑事責任。
刑法意義上的辨認能力考察的是行為人是否具有認識能力,這是一種認識自己行為的內(nèi)容、社會意義以及結(jié)果的能力。[15]以故意犯罪中的“明知”為例,通說認為,故意應當包含認識因素和意志因素,其中的認識因素是指明知自己的行為會發(fā)生危害社會的結(jié)果。[16]這里的“明知”不僅需要行為人明知自己的行為會發(fā)生某種危害結(jié)果,還需要明知自己行為的內(nèi)容和社會意義。[17]換言之,辨認能力不僅要考察對行為所造成的客觀事實(結(jié)果)的辨認,還要考察對對行為所產(chǎn)生的社會意義的辨認。人工智能基于算法的強大,當然可以輕易計算出自身行為所產(chǎn)生的危害結(jié)果。例如,自動駕駛汽車可以根據(jù)路面情況對駕駛狀態(tài)及時作出調(diào)整。但是這個過程只是基于算法和程序的反饋,并非人工智能基于自身意識和意志的自由選擇,即發(fā)生外部事件A,人工智能就會作出符合外部事件A的反饋——行為B,進而產(chǎn)生結(jié)果C。通俗來講,這就相當于向湖中投入一顆石子,根據(jù)石子的體積、質(zhì)量等的不同,湖面會呈現(xiàn)出不同的波紋,但湖面波紋的大小、持續(xù)時間的長短等絕非湖自身的自由意志所決定的。
從外部事件A到結(jié)果C的這個過程,是基于算法和程序而產(chǎn)生的,因此,人工智能只能辨認出根據(jù)外部事件A應當作出行為B,從而達到結(jié)果C。即人工智能只能辨認出行為B會產(chǎn)生結(jié)果C這一客觀事實,但無法理解行為B的社會意義。簡言之,人工智能只能根據(jù)外部事件A作出行為B,但無法理解為什么會作出行為B,更無法理解行為B所產(chǎn)生的結(jié)果C意味著什么。例如,犯罪人在人工智能中植入相應的“殺人”程序,人工智能根據(jù)這一程序(外部事件A)實施“殺人”行為(行為B),導致被害人死亡(結(jié)果C)。此時人工智能只是依據(jù)犯罪人植入的“殺人”程序(外部事件A)作出“殺人”的反饋(行為B),但它無法理解對“殺人”這一指令作出的反饋已經(jīng)觸犯刑法,更無法理解被害人死亡(結(jié)果C)對被害人、被害人家屬甚至這個社會意味著什么。不可否認的是,無論人工智能多么“智能”,它都無法擺脫“人工”的烙印,在人工智能的眼里,世界是由數(shù)據(jù)和算法構(gòu)成的,它的一切行動都只是基于數(shù)據(jù)和算法作出的反饋,它無法理解和認識這種反饋所帶來的外部意義和社會價值。[18]換言之,人工智能的一切行動都是基于數(shù)據(jù)和算法而產(chǎn)生的,它可能會認識到這些行動的內(nèi)容和結(jié)果,但無法理解和認識其社會意義。
或許有論者認為,以人類科學技術(shù)的發(fā)展情況來看,未來會有可以認知自己行為的外部意義和社會價值的人工智能。但就目前人類的科技水平而言,能否研發(fā)制造出擁有自主意識和自由意志的人工智能在未來很長一段時間內(nèi)尚存疑問。即使在未來,人類在技術(shù)層面可以實現(xiàn)擁有自主意識和自由意志的人工智能的研發(fā),這種技術(shù)能否在法律層面、道德層面、倫理層面得到認可而被廣泛應用也是一個值得思考的問題。至少目前來看,“這些機器(即人工智能)不必為它們的行為承擔責任,因為不存在所謂的機器人犯罪意圖這種東西。機器人缺乏承擔刑事責任的前提,例如自我意識、自由意志和道德自主性,因此很難想象法庭因機器人的惡性而宣告其有罪……現(xiàn)代刑法中施于懲罰的正當性很難適用于今天的自動化機器(即人工智能)?!保?9]
刑法意義上的控制能力是根據(jù)認識能力支配自己實施或不實施某種行為的能力,考察的是行為人是否存在意志能力。[20]如前所述,人工智能的所有行動都是基于數(shù)據(jù)和算法而產(chǎn)生,那么自然也就不存在自由支配自己實施或不實施某一行為的說法。簡單來說,人工智能的所有行動都只是石子投入湖中后湖面所產(chǎn)生的波紋,是從外部事件A到行為B的必然結(jié)果,即人工智能是在數(shù)據(jù)和算法的范圍內(nèi)“控制”自己的行為[21],并非人工智能自由意志的反映。即使未來人工智能日漸強大,可以擁有極強的深度學習能力,但遵循程序“按部就班”的反饋,無法發(fā)展出價值判斷的能力,而價值判斷是控制能力的重要前提之一。[22]
總而言之,人工智能可以通過強大的算法輕松“辨認”外部事實,并通過相應的程序?qū)ψ约旱男袨樽鞒鲎顑?yōu)的“控制”,但是這種“辨認”和“控制”“只是由人類特定指令、符號組成的計算程序所引發(fā)的決定,它無法理解自己行為的外部意義或社會價值?!保?3]以電影《流浪地球》中的智能機器人Moss為例,其在“辨認”地球無法脫離木星的引力范圍后,作出了將“領航者”計劃轉(zhuǎn)為“火種”計劃的“控制”。這一“辨認——控制”的過程看起來是很完美的,但它同時意味著需要放棄整個地球以及地球上的所有生物。劉培強在洞悉這一計劃后打斷了Moss的“控制”,將空間站推向木星并引爆,幫助地球成功逃離木星的引力范圍。面對同樣的外部問題,作為人類的劉培強和作為人工智能的Moss作出了截然不同的決定,這就是人類的辨認能力和控制能力與人工智能的辨認能力和控制能力的差異。未來的人工智能或許可以根據(jù)自身算法和程序“辨認”外部環(huán)境,并作出最優(yōu)“控制”,但這種最優(yōu)“控制”是通過特定的程序或算法得來的,不一定符合人類的認知、情感、道德、社會價值等人工智能無法理解的范疇。Moss在電影中還說了一句經(jīng)典臺詞——“讓人類永遠保持理智,果然是奢望?!比斯ぶ悄芑蛟S可以永遠保持理智,但這種“理智”“也只是在人為的干預下按照指令執(zhí)行操作,即便人工智能技術(shù)繼續(xù)發(fā)展,甚至能夠脫離人類的控制,自主做出某種行為,但其仍然無法明白自身行為的意義?!保?4]理解自己行為的外部意義和社會價值,恰恰是“不理智”的人類所特有的。
刑罰的正當化根據(jù)或稱刑罰的目的是報應和預防。報應立足于行為人的已然之罪,旨在依據(jù)行為人的主觀惡害程度及客觀危害程度對行為人科處刑罰,預防則側(cè)重于未然之罪,旨在通過刑罰預防行為人及普通國民再犯罪。
對犯罪后的行為人科處刑罰的目的之一是預防犯罪,包括特殊預防和一般預防。如果承認人工智能的刑法主體地位,那么對“犯罪”后的人工智能科處刑罰的目的之一就是為了預防人工智能的犯罪,同樣存在特殊預防和一般預防。特殊預防是為了預防“犯罪”后的人工智能再“犯罪”,一般預防是為了預防其他人工智能“犯罪”。問題是,對“犯罪” 后的人工智能科處刑罰真的可以達到預防犯罪的目的嗎?筆者對此持否定觀點。
對人工智能科處刑罰無法達到特殊預防的目的。眾所周知,特殊預防主要通過物理強制和心理強制等方式預防犯罪人再犯罪。[25]其中物理強制的方式主要通過適用死刑和其他種類的刑罰予以實現(xiàn)。但如何對人工智能適用死刑和其他刑罰,在當前的刑罰體系之下,這個問題是很難回答的,因此大多數(shù)支持人工智能具備刑法主體地位的論者都支持重構(gòu)刑罰體系以懲罰犯罪后的人工智能的觀點。
根據(jù)這些學者的觀點,針對人工智能的刑罰方式主要有三種:一是針對人工智能系統(tǒng)的刑罰,包括刪除數(shù)據(jù)、修改程序以及永久銷毀系統(tǒng)的操作;二是針對人工智能實體的刑罰,包括限制使用、社區(qū)服務以及永久銷毀實體的操作;三是罰金刑。①相關論述可參見劉憲權(quán):《人工智能時代刑事責任與刑罰體系的重構(gòu)》,載《政治與法律》2018年第3期;蔡婷婷:《人工智能環(huán)境下刑法的完善及適用——以智能機器人和無人駕駛汽車為切入點》,載《犯罪研究》2018年第2期;王耀彬:《類人型人工智能實體的刑事責任主體資格審視》,載《西安交通大學學報(社會科學版)》2019年第39卷第1期;李興臣:《人工智能機器人刑事責任的追究與刑罰的執(zhí)行》,載《中共青島市委黨校·青島行政學院學報》2018年第4期;〔德〕拉塞·夸爾克著,王德政譯:《人工智能機器人的刑事可罰性》,載《中州學刊》2020年第1期等。先不論構(gòu)建新的刑罰體系是否經(jīng)濟、是否合理,即使構(gòu)建了新的刑罰體系,還應再回答這些刑罰措施的對象是什么?是人工智能本身?還是以人工智能體為載體的程序?
如果認為刑罰的對象是人工智能本身,那么對其執(zhí)行死刑就是將其實體徹底銷毀。但是實體被徹底銷毀后,原實體之上的程序依然可以載入新的實體,新的實體依然擁有原實體上的“犯罪”程序,可以重新實施“犯罪”行為,無法達到特殊預防的目的。此外,勞役、自由刑等刑罰措施的目的是讓人感到痛苦,人工智能作為非生命體,無法感知痛苦,對其科以勞役、自由刑等刑罰顯然意義不大。而罰金刑最終仍然是轉(zhuǎn)嫁到人類之上的,也達不到刑罰特殊預防的目的。
如果認為刑罰的對象是程序,那么通過修改程序、刪除程序等技術(shù)手段或許可以剔除致使人工智能“犯罪”的部分程序。但是修改程序、刪除程序,通過研發(fā)者或者制造者的技術(shù)手段就能完成,無需“勞駕”刑法。與其費盡心思為人工智能設計一套刑罰體系,不如在其“擁有了行為的選擇權(quán)”之前就采取相應的措施,杜絕人工智能走上“犯罪”的道路。再者,修改程序和刪除程序都是極為專業(yè)的工作,有時甚至只有人工智能的研發(fā)者或者制造者才能完成這一工作,那么即使法院判決修改程序或者刪除程序,恐怕也難以執(zhí)行這一“刑罰”,即使允許法院委托第三方進行執(zhí)行,法院也難以對第三方的執(zhí)行進行監(jiān)督。
即使在物理強制層面,可以通過技術(shù)手段實現(xiàn)對人工智能科處刑罰,從物理上達到預防再犯罪的目的,但是卻無法在心理強制層面達到這一目的。這是因為“一個人如果不知道自己在干什么,或者不能控制自己的行為,刑事懲罰對于他來說沒有威懾力”。[26]進言之,對人工智能科處刑罰無法使其產(chǎn)生畏懼、痛苦、悔罪等心理,即使通過技術(shù)手段剝奪其自由,暫時達到預防犯罪的目的,待其“刑滿釋放”,由于沒有真正認罪服法,依然會通過自主學習或深度學習而再次犯罪。
對人工智能科處刑罰無法達到一般預防的目的。刑罰的一般預防是針對犯罪人以外的人而言的,主要表現(xiàn)為威懾、安撫、教育。具體來說就是威懾潛在的犯罪人不敢犯罪;安撫被害人及其家屬的心靈;教育其他國民知法、守法。當然這樣的劃分并不絕對,對犯罪人科處刑罰同樣可以威懾被害人及其家屬不能采用違法犯罪的方式報復犯罪人或其家屬。但無論威懾、安撫還是教育,都是心理層面的內(nèi)容,與人類的情感息息相關。人工智能不具備這樣的情感,很難說處罰一個“犯罪”的人工智能可以使其他想要“犯罪”或準備“犯罪”的人工智能產(chǎn)生恐懼心理,進而放棄犯罪。因為處罰不具有自由意志的行為人(人工智能),不能抑制在將來的同樣狀況下發(fā)生相同的“犯罪”行為。[27]
有學者認為,對“犯罪”后的人工智能科處刑罰同樣可以達到一般預防的目的,一方面,可以對被害人及其家屬起到慰藉的作用;另一方面,可以使其他人工智能“懸崖勒馬”,自覺控制自己的行為,對人工智能犯罪起到“防患于未然”的作用。[28]筆者認為這樣的觀點是值得商榷的。首先,對人工智能科處刑罰是否真的可以對被害人起到慰藉作用是值得懷疑的。以人工智能“故意殺人”為例,被害人家屬憤恨的恐怕不是人工智能本身,而是人工智能的研發(fā)者、制造者、銷售者、使用者等相關主體,更進一步說,被害人家屬憤恨的或許是人工智能這項技術(shù)。如此說來,將“犯罪”的人工智能徹底銷毀又如何能慰藉被害人及其家屬呢?其次,既然人類科技已經(jīng)可以制造出具有“辨認能力和控制能力”的人工智能,那么完全可以將世界上的所有法律文件、法學專著、案件判例通過程序植入人工智能的“大腦”,使所有的人工智能都“知法”“懂法”“守法”,無需再多此一舉通過刑罰一般預防的功能達到“防患于未然”的目的。
報應主義依據(jù)犯罪人的主觀惡性程度以及客觀危害程度對犯罪人進行非難。通說認為,能夠?qū)Ψ缸锶诉M行非難——犯罪人具有非難可能性的前提是犯罪人具有相對的意志自由。[29]這里我們可以將人工智能類比一下刑法上的精神病人,“缺乏辨認能力或控制能力的精神病人,不能認識到其行為的性質(zhì)是善還是惡,是合法還是違法,也不能控制自己實施合法行為而不實施不法行為,也就不具有接受法律規(guī)范的要求、實施合法行為的可能性?!保?0]同理,人工智能所實施的行為是根據(jù)事先植入的程序和指令作出的反應,不是人工智能相對意志自由的體現(xiàn)。雖然人工智能可以自由實施某些特定行為,但它無法認識到這些行為是善還是惡,是違法還是合法。因此,人工智能就不具有接受法律規(guī)范的要求、實施合法行為的可能性?!叭绻袨槿巳狈ψ龀鲞`反法律理性選擇的能力或不能控制自己的行為,則其不能成為道德的代言人,相應地也不能成為道德譴責的對象?!保?1]人工智能由于缺乏人的理性,所以在道德評價上,甚至與石頭無異。“懲罰這樣一個喪失理性思考能力的人,就像懲罰有個無生命的事物或者懲罰動物一樣,是有損尊嚴的,也是不值得的?!保?2]人工智能同樣是缺乏理性思考能力的,因為人工智能無法成為道德譴責的對象,對其科處刑罰同樣是不值得的,也是不符合報應主義立場的,無法達到報應的目的。
此外,在傳統(tǒng)刑法框架內(nèi),人工智能涉及犯罪時,可能會有多個責任主體,甚至會出現(xiàn)各個責任主體相互推責的情形。例如,自動駕駛汽車發(fā)生交通肇事,其責任主體是駕駛員還是汽車廠商存在爭議,但這絕不是簡單賦予自動駕駛汽車刑法主體地位就可以解決的。相反,賦予人工智能刑法主體地位不僅不能解決歸責問題,反而可能為真正的責任主體逃脫歸責。例如,在人和人工智能共同協(xié)作處理某些任務時,如果因人的操作失誤而出現(xiàn)了致害后果,不排除人會將責任推卸給人工智能。①2018年年末,“達芬奇”手術(shù)機器人(Da Vinci Surgical System)即發(fā)生了在心臟手術(shù)時由于故障導致患者死亡的事故。隨后即被證明醫(yī)生對機器人的操作失誤方為事故發(fā)生的主要原因。此前該手術(shù)機器人亦發(fā)生了多起事故,醫(yī)療人員常將責任推卸至人工智能機器人之上,而機器人的生產(chǎn)者又以各種理由主張產(chǎn)品責任不成立,從而導致受害者索賠困難。參見韓旭至:《人工智能的法律回應:從權(quán)利法理到致害責任》,法律出版社2021年版,第47頁。再如,假設人工智能“出廠”時不具備自主意識和自由意志(狀態(tài)一),但在使用過程中因重復學習、深度學習等而產(chǎn)生自主意識和自由意志(狀態(tài)二),那么人類在人工智能處于狀態(tài)一時將其用于犯罪,但在犯罪過程中人工智能“進化”到了狀態(tài)二,怎么分配人類和人工智能的刑事責任?
“人是具有自由意志的,對基于自由意志所實施的客觀違法行為,能夠進行非難、追究其道義上的責任,為追究這種責任,對行為進行報應的方法就是刑罰,刑罰是對惡行的惡果,以對犯罪人造成痛苦為內(nèi)容;對犯罪人進行報應,可警告一般人,以期待一般預防的效果,刑罰以一般預防為主要目的?!保?3]人工智能不具有自由意志,其所實施的行為只是設計者、制造者或使用者意志的體現(xiàn),無法追究其道義上的責任;人工智能無法感受到刑罰的痛苦,對“犯罪”的人工智能科處刑罰達不到警告其他人工智能的效果。因而,在傳統(tǒng)刑法框架內(nèi),人工智能不可能成為刑法上的(犯罪)主體。那么未來隨著人工智能技術(shù)的不斷發(fā)展和完善,是否可以突破傳統(tǒng)刑法理論進而承認其刑法主體呢?筆者認為,就目前人類的科技水平而言,能否研發(fā)制造出擁有自主意識和自由意志的超人工智能在未來很長一段內(nèi)尚存疑問。即使在未來,人類在技術(shù)層面可以實現(xiàn)擁有自主意識和自由意志的超人工智能的研發(fā),這種技術(shù)能否在法律層面、道德層面、倫理層面得到認可而被廣泛應用才是首要思考的問題。