□ 文 郭紀(jì)萍
在過去幾年里,人工智能被視為新一輪的科技熱點(diǎn)。圍繞著人工智能,算法、深度學(xué)習(xí)、大數(shù)據(jù)等一系列技術(shù)開始對人們生活產(chǎn)生影響。在刑法領(lǐng)域,人工智能已造成許多刑法不得不進(jìn)行評價的結(jié)果。2010年5月6日,美國股市大跌,道瓊斯指數(shù)在幾分鐘內(nèi)下跌6%后又急劇拉升,這次事件背后指向的是程序化交易的“超高速機(jī)器人交易員”,其內(nèi)置程序可以幫助它以遠(yuǎn)超人類交易員的速度搶先進(jìn)行交易。2016年5月,特斯拉Model S的車主在啟用自動駕駛功能時,撞上了一輛正在轉(zhuǎn)彎的大貨車,車主當(dāng)場死亡。目前,雖仍處在所謂的弱人工智能時代,但涉人工智能犯罪已經(jīng)使傳統(tǒng)刑法疲態(tài)盡顯。
在危害行為的實(shí)施者落實(shí)在人工智能本身上的情況下,適用四要件說、二階層說、三階層說等傳統(tǒng)刑法歸責(zé)體系,不管是圍繞人工智能管理者進(jìn)行分析還是人工智能本身,都會出現(xiàn)強(qiáng)烈的不兼容。如果一味地將人工智能工具化、手段化,將人工智能實(shí)施的所有行為都作為其管理者或使用者的附庸,而把人工智能造成的所有危害結(jié)果和刑事責(zé)任都?xì)w咎于人工智能的管理者或使用者身上,其刑事嚴(yán)苛程度則缺乏合理性基礎(chǔ)。但如果將人工智能完全剝離開其管理者,在保證無辜者不承擔(dān)不當(dāng)?shù)男塘P下,如何通過刑法的手段處置人工智能又是一個挑戰(zhàn)傳統(tǒng)刑事法治體系的問題。
人工智能刑事主體問題爭議的來源是人們對未來人工智能超脫人類控制實(shí)施危害行為的風(fēng)險預(yù)防。這樣的預(yù)防落實(shí)到刑法規(guī)制上,就是如何改進(jìn)刑法體系,為規(guī)制涉人工智能犯罪做準(zhǔn)備。而該問題的爭訟本質(zhì),就在于立足人類利益本位,確立人工智能自主失控犯罪的刑事責(zé)任歸屬,合理地將人工智能超出人為管控的危害行為所造成的危害結(jié)果與其管理者隔離開來。那么,如何合理地分配涉人工智能犯罪的刑事責(zé)任呢?在確立人工智能刑事主體地位之前,應(yīng)當(dāng)進(jìn)行怎樣的理論建構(gòu)呢?
從歷史研究的角度,動物法律主體地位論爭可為此提供借鑒作用,但人工智能本身有其特殊性,該特殊性是人工智能刑事責(zé)任能力的合理性基礎(chǔ),將該特殊性與法人刑事責(zé)任原理相結(jié)合,可為特定人工智能刑事主體地位確立奠定理論基礎(chǔ)。
從歷史研究的角度分析,可觀動物的法律主體地位的論爭也曾一度風(fēng)靡,探究其引發(fā)爭議的原因,與現(xiàn)下人工智能主體化問題有本質(zhì)上的相似之處。一方面,兩者都是非人類中心主義引發(fā)的思考,但是方向相反,對于動物主體人格化的思想是基于敬畏而尊重,而對于人工智能主體人格化的思想是基于未知而防御。另一方面,兩者都是作為一種動態(tài)之物卻具有自主性和失控性的特征,有能力造成同人力一般的嚴(yán)重危害結(jié)果。然此二者都從屬于人類,在法律地位上都屬于物,基于可控性和排他性而具備經(jīng)濟(jì)價值,基于自主性和工具性而產(chǎn)生使用價值。
動物法律主體地位論爭的問題來源于兩方面,一方面是人類對大自然的不可知引發(fā)對代際利益的思考,意圖賦予動物權(quán)利以規(guī)制人類行為,另一方面是面對動物對人類社會的侵害,試圖賦予動物法律主體地位以合理解決動物致害問題。前者的研究延續(xù)至今,后者的研究已經(jīng)形成動物致害法律模式。這實(shí)際上反映的是人類對其他生命主體的敬畏。當(dāng)人類意識到一切制度關(guān)系其他生命體的利益時,法律制度的價值導(dǎo)向也開始變化。這方面的動物法律主體論爭對人工智能刑事主體確立的理論思考并非毫無意義。
透視動物法律主體地位論爭沿革,對現(xiàn)下思考人工智能刑事主體地位的邏輯原理的借鑒作用,就在于可以像把握人與動物的關(guān)系一樣把握人與人工智能的關(guān)系。
動物與人工智能一樣,起初都是作為人所支配之物而進(jìn)入法律調(diào)整領(lǐng)域,但隨著經(jīng)濟(jì)社會的發(fā)展,人類需求逐漸多元化,動物和人工智能以其一定程度的自主性謀得區(qū)別于普通物的地位。這種地位既包括精神上的地位,如動物獲得人類道德關(guān)懷,人工智能獲得人類的敬畏,也包括物質(zhì)上的地位,即工具性勞動能力。這種態(tài)度異化根源,在于對動物和人工智能的控制力式微,而控制力式微的背后是人類對大自然和算法的不可知論。面對大自然的不可知,人類選擇敬畏的態(tài)度,為了代際利益而讓渡眼下的利益。而面對人工智能算法的不可知,人類也應(yīng)當(dāng)選擇謹(jǐn)慎的態(tài)度,考慮代際利益,對人工智能的開發(fā)嚴(yán)密規(guī)制,不可為了短暫的利益一味地增強(qiáng)人工智能的類人型能力,而不考慮人工智能產(chǎn)業(yè)的發(fā)展后果以及對人類未來的影響。這樣的思考對于確立人工智能刑事主體地位的意義在于,法律決定要賦予強(qiáng)人工智能或超人工智能刑事責(zé)任能力的前提,必須基于對人工智能研發(fā)信息長時間廣范圍深層次的了解,且同時已經(jīng)對人工智能技術(shù)進(jìn)行相當(dāng)程度的法律規(guī)制。
動物與人工智能的物格的異化來源都是其自主性和失控性。當(dāng)人工智能的危害能力與動物相當(dāng)時,對于人工智能的致害結(jié)果不必直接用刑法規(guī)制,比照民事侵權(quán)責(zé)任法動物致害責(zé)任制度來規(guī)制即可,就如俄羅斯格里森法案中的規(guī)定,不要求動物管理者承擔(dān)動物導(dǎo)致的刑法所評價的危害結(jié)果的刑事責(zé)任,但通過令動物管理者承擔(dān)民事責(zé)任而發(fā)揮法律保障作用。
動物體和人工智能體自身行為運(yùn)作機(jī)制仍有較大差異,完全比照動物致害責(zé)任模式規(guī)制人工智能致害存在巨大缺陷。動物法律模型先前已審查與預(yù)測人工智能實(shí)體在無人飛行器及其它領(lǐng)域的法律責(zé)任,包括“新一代機(jī)器人”。對于其引發(fā)的法律問題,動物法律模型可以為之提供答案,但核心問題仍然無法解決。俄羅斯格里申法案以當(dāng)前人工智能研發(fā)技術(shù)為基礎(chǔ),比照動物立法模式為機(jī)器人設(shè)置了特殊物格,但是考慮到未來電子人——代理人的情況也試圖比照法人刑事責(zé)任原理為其設(shè)立特殊的法律主體地位。確實(shí),如若人工智能開始涉及經(jīng)濟(jì)犯罪,動物法律模式則疲態(tài)盡顯,故仍應(yīng)當(dāng)從人工智能的思考能力與人類行為的相當(dāng)性考察來完善人工智能刑事主體地位之邏輯原理檢視。
欲確立人工智能刑事主體地位,必須先思考對人工智能適用刑法的可能性,即人工智能是否具備犯罪主體的構(gòu)成要素。筆者認(rèn)為這包括三要素:一是人工智能與人類認(rèn)知交互的可能性檢視,二是人工智能的辨認(rèn)控制能力,三是人工智能的責(zé)任能力。此三者能力需要同人工智能與人類行為的相當(dāng)性中來考察,因?yàn)橹悄軝C(jī)器人“主體資格”論證路徑無法憑空創(chuàng)立,只能基于對既有人類主體性證成原理不同程度的摹寫發(fā)展而成。
1.人工智能與人類認(rèn)知交互的可能性檢視
自然人天然為法律主體,現(xiàn)有的法律建構(gòu)都是圍繞人類意志展開,若人工智能要成為刑事法律關(guān)系的主體,其與自然人的辨認(rèn)控制能力必須有可兼容性和可交互性。人工智能的概念最早由麥卡錫提出,他認(rèn)為這是“關(guān)于智能計(jì)算機(jī)程序的科學(xué)”。而羅素和諾維格進(jìn)一步指出,人工智能實(shí)質(zhì)上是“一種現(xiàn)代的方法”,具有像人一樣思考、像人一樣行動、合理地思考、合理地行動四個維度。從這個意義來看,人工智能的目標(biāo)的確是獲得人類的思維和行動能力,人工智能與人類認(rèn)知交互確實(shí)存在可能。首先,其思考能力可以說是人類諸多解決問題的思路之一的復(fù)制本,這是人工智能同人類進(jìn)行認(rèn)知交互的客觀性基礎(chǔ)。其次,人工智能的思考排除情緒、情感、興趣等非理性因素的介入,使得其思考過程理性化而且可預(yù)知,這是人與人工智能相交互的安全基礎(chǔ)。
2.人工智能的辨認(rèn)控制能力檢視
犯罪行為的構(gòu)成要件上分為客觀行為和主觀意識,其體現(xiàn)的是犯罪主體的辨認(rèn)控制能力。符合該標(biāo)準(zhǔn)的只有強(qiáng)人工智能和超人工智能,基于對大數(shù)據(jù)的挖掘預(yù)測與深度學(xué)習(xí)結(jié)合產(chǎn)生的自主性與分離性,人工智能時代的算法已經(jīng)能夠根據(jù)大數(shù)據(jù)自行進(jìn)行深度學(xué)習(xí)進(jìn)而具備獨(dú)立的自主決策能力。這是人工智能與人類相當(dāng)?shù)谋嬲J(rèn)控制能力的客觀技術(shù)基礎(chǔ)。但仍應(yīng)注意到,人工智能同人類的辨認(rèn)控制能力有質(zhì)的差別,那就是主觀意識。有學(xué)者認(rèn)為,這個問題可以排除。因?yàn)槔硇允欠芍黧w的本質(zhì)特征,理性人是經(jīng)過法律形式化過濾的規(guī)范主體,并排斥了情緒、興趣、情感等非理性因素的介入。法律條文中的主體人與社會中的主體人并不完全等同,其是基于理性人的一種假設(shè),在本質(zhì)構(gòu)造上與類人型人工智能實(shí)體相符。但筆者認(rèn)為,這個問題不應(yīng)忽視,但這并不導(dǎo)致人工智能刑事主體資格的完全否定,而是人工智能的有限刑事責(zé)任能力的現(xiàn)實(shí)基礎(chǔ)。人工智能有望在某一專業(yè)領(lǐng)域的能力與人類有可比性,如電子代理人,但是其永遠(yuǎn)無法成為一個完整的人。人工智能就是為了實(shí)現(xiàn)人類某一目的生產(chǎn)研發(fā)的,其所有思考和行為的目的只是為了那一個目標(biāo),但終將不能擁有完整的人格。人工智能可能憑借超強(qiáng)計(jì)算能力在分析股票走勢上比人類更強(qiáng),但無法在工作結(jié)束后思考自己的婚姻、愛情、友情等專業(yè)以外的事務(wù)。而刑法所規(guī)制的自然人是允許其擁有七情六欲的,主觀條件是定位量刑的重要因素,因?yàn)檫@關(guān)系到犯罪概念的本質(zhì),即社會危害性。
3.人工智能的責(zé)任能力類人性檢視
有學(xué)者認(rèn)為,所謂責(zé)任能力,就是能夠理解法律的意義,控制并消除實(shí)行違法行為思緒的能力。若將法律條文以計(jì)算機(jī)語言的形式輸入人工智能的程序,那么一定程度上就可以理解法律條文并遵守。筆者認(rèn)為,責(zé)任能力還在于能夠承擔(dān)刑罰后果的能力,如此方能發(fā)揮刑罰懲治犯罪弘揚(yáng)正義的功能。對于理解法律的意義,人工智能的能力與人類有相當(dāng)性,人工智能法律咨詢機(jī)器人的存在便是證明。但是人工智能承擔(dān)刑罰后果,平復(fù)民憤的能力與人類有較大的差異。刑罰后果包括人身權(quán)和財(cái)產(chǎn)權(quán)的剝奪,此二者轉(zhuǎn)化到人工智能上應(yīng)當(dāng)有實(shí)質(zhì)的等價性,不可流于形式。
人工智能的思考能力與人類行為的相當(dāng)性檢視是確立人工智能刑事責(zé)任主體地位的必要理論前提,經(jīng)以上檢視可得知人工智能與人類并列作為刑事責(zé)任主體有合理性,但在人工智能的責(zé)任能力方面仍有缺陷。此問題可通過類比法人刑事責(zé)任能力的角度分析解決。同時,人工智能有限的辨認(rèn)控制能力即主觀意識的不完備,與單位有異曲同工之妙。
1.法人制度分擔(dān)風(fēng)險的可借鑒性
法人制度的發(fā)明為分散市場交易風(fēng)險做出了莫大的貢獻(xiàn),通過信托將商事活動的風(fēng)險分散到法人身上,實(shí)質(zhì)上是法人背后的人的組織體上。當(dāng)公司的管理者經(jīng)營不善時,其所導(dǎo)致的后果就由法人承擔(dān),公司的股東不需要為別人的過錯買單。人工智能刑事主體論爭的實(shí)質(zhì)意義在于對人工智能和其管理者之間進(jìn)行合理的刑事責(zé)任分配,不懲罰無辜者,不放縱有罪者。當(dāng)人工智能具備某個專業(yè)領(lǐng)域強(qiáng)自主性的思考和行為能力時,可以類比法人刑事責(zé)任原理,在人工智能和其管理者之間蒙上一層面紗,用以阻擋人工智能致害后果的波及。
有學(xué)者反對類比法人資格的設(shè)立,賦予人工智能設(shè)立刑事主體地位,其理由在于法人刑事責(zé)任的承擔(dān)者終究是人,法人行為來源于人的組織體的意志,而人工智能行為并不來源于人的意志,故此類比不妥當(dāng)。其實(shí),將人工智能擬制為刑事責(zé)任主體,并非為了合法地懲罰人工智能這種硅基合成物,其不利后果也仍是由該人工智能的研發(fā)者承擔(dān)。例如,一臺無人駕駛汽車撞死了人,這臺無人駕駛汽車被銷毀,這種處罰并非只結(jié)束于該汽車,其背后的研發(fā)者也承擔(dān)了隱形而重大的損失,那就是其花費(fèi)大量時間和精力造就的產(chǎn)品被法律否定。一間公司在經(jīng)營過程中觸犯了刑法,在被判處罰金后負(fù)債累累,面臨清算,其設(shè)立和管理者承擔(dān)的損失,也是其花費(fèi)大量時間和精力打造的產(chǎn)品被否定。
法人刑事責(zé)任雙罰制的原理就在于法人與自然人被作為不同形態(tài)的責(zé)任主體來差異對待,法人的危害行為導(dǎo)致的危害結(jié)果由法人承擔(dān),自然人的過錯則由自然人承擔(dān)。這種分配刑事責(zé)任風(fēng)險的機(jī)制對人工智能主體資格論爭也有一定的借鑒意義。
2.人工智能與單位有限刑事責(zé)任能力的可比照性
單位犯罪從主客觀要件上來講非人非物,其刑事責(zé)任的認(rèn)定與刑罰措施區(qū)別于自然人。只有刑法明確規(guī)定行為主體包括單位,單位才具有刑事責(zé)任能力,比如單位具備高利轉(zhuǎn)貸罪、非法吸收公眾存款罪的刑事責(zé)任能力,卻沒有強(qiáng)奸罪、侮辱罪、搶劫罪等的刑事責(zé)任能力。單位在刑法上屬于被擬制的法人,其僅有有限的責(zé)任能力,這點(diǎn)同人工智能的責(zé)任能力相同。人工智能無法具備完整人格,只能在某一專業(yè)領(lǐng)域與人類行為相當(dāng),其只具備有限行為能力,故僅具備有限責(zé)任能力。
賦予人工智能刑事主體地位,需要進(jìn)行嚴(yán)格的考量,一些學(xué)者所持的“一刀切”式地賦予強(qiáng)人工智能刑事主體地位是不可取的。對算法的不可知論本身就是確立人工智能刑事主體地位受到質(zhì)疑的客觀緣由。筆者認(rèn)為,目前仍處于弱人工智能階段,雖然強(qiáng)人工智能技術(shù)的研發(fā)如火如荼,但是否真會出現(xiàn),仍無法確切得知。確切地說,會出現(xiàn)怎樣的強(qiáng)人工智能,是在各個領(lǐng)域都同人類一樣能自主解決問題,還是只在特定專業(yè)領(lǐng)域解決問題的能力堪比人類甚至超過人類,都不得而知。筆者更傾向于后者,畢竟強(qiáng)人工智能無法同人類一樣擁有完整人格,隨著人類對計(jì)算機(jī)網(wǎng)絡(luò)技術(shù)的逐漸依賴,這樣的人工智能技術(shù)投入的研發(fā)成本應(yīng)當(dāng)會更多。
立足現(xiàn)實(shí),人工智能技術(shù)的最新研發(fā)成果諸如AlphaGo、機(jī)器人“索菲亞”、深藍(lán)等,都在某一專業(yè)領(lǐng)域有超人的能力,令世人驚嘆。從蒸汽時代、電氣時代到計(jì)算機(jī)時代,再到人工智能時代,對于人類而言是逐步解放雙手,將操作力、執(zhí)行力乃至思考力放諸于他物的過程。必須明確的是,人工智能已經(jīng)不是“機(jī)械自動化”而是“機(jī)械自主化”。這樣的自主能力發(fā)展過程會類似于從物到動物,再到堪比人類的過程。所謂人工智能的發(fā)展史,即從弱人工智能到強(qiáng)人工智能再到超人工智能,實(shí)際上也是人工智能對自己的“行為”的影響和作用逐步達(dá)到自控的歷史。
那么,對于確立人工智能刑事主體地位的路徑發(fā)展,也是從否定主體地位到肯定主體地位的發(fā)展。前者是基于人工智能的自主程度尚處于動物階段,而動物在刑法上尚不能成為主體。后者則是基于人工智能的自主程度已經(jīng)堪比人類,其所導(dǎo)致的危害結(jié)果不應(yīng)再由管理者承擔(dān),而是應(yīng)由其承擔(dān)。
首先,判斷人工智能是處在動物智商階段還是處在人類智商階段,應(yīng)先明確動物實(shí)施危害行為的原因。筆者認(rèn)為,這種原因都是基于天性,或受刺激做出的自然反抗,或?yàn)樯媛訆Z人類的生命或財(cái)產(chǎn)。當(dāng)人工智能還僅擁有同動物一樣的自保意識時,在人類觸發(fā)其保護(hù)機(jī)制,或使其運(yùn)作程序混亂,而導(dǎo)致人工智能對人類實(shí)施進(jìn)入刑法評價范圍的危害結(jié)果時,不應(yīng)將其視作刑事責(zé)任主體。
其次,刑法雖不能規(guī)制此類行為,但民法可以。只需比照侵權(quán)責(zé)任法的動物致害制度,分析雙方過錯情況,分配民事責(zé)任即可。這樣或許對于預(yù)防人工智能致害觸發(fā)“民刑倒掛”風(fēng)險有些可用之處。
當(dāng)人工智能的自主性已經(jīng)不僅停留在如動物一般的自保意識,而是進(jìn)入如人類一般有更多需求時,便應(yīng)當(dāng)考慮賦予其刑事責(zé)任能力。當(dāng)其對人類造成嚴(yán)重危害結(jié)果時,可比照單位犯罪制度進(jìn)行規(guī)制。
1.賦予人工智能刑事責(zé)任能力的前提
動物法律主體論爭的啟示包含對人與人工智能的關(guān)系的謹(jǐn)慎審視。人類應(yīng)當(dāng)考慮代際利益,切實(shí)管控人工智能產(chǎn)業(yè)的發(fā)展,既不能限制技術(shù)創(chuàng)新,也應(yīng)防止為私欲盲目研發(fā)的現(xiàn)象。2019年6月17日,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出了人工智能治理的框架和行動指南。這是中國促進(jìn)新一代人工智能健康發(fā)展,加強(qiáng)人工智能法律、倫理、社會問題研究,積極推動人工智能全球治理的一項(xiàng)重要成果。人工智能治理應(yīng)在立法上有一定保障,注重把握人工智能與人類和諧相處的原則。
賦予人工智能刑事責(zé)任能力,必須以全面深度掌握人工智能研發(fā)情況和運(yùn)作機(jī)制為前提。首先,應(yīng)僅允許部分專業(yè)領(lǐng)域的人工智能具備可與人類比肩的辨識控制能力,從而承擔(dān)有限的刑事責(zé)任風(fēng)險。其次,人工智能的犯罪能力內(nèi)容不可違背倫理。一個人工智能不可以實(shí)施強(qiáng)奸、猥褻、侮辱、誹謗等侵犯人格尊嚴(yán)的行為,一旦人工智能導(dǎo)致了侵犯人格尊嚴(yán)的后果,其管理者、使用者和研發(fā)者必須承擔(dān)嚴(yán)格責(zé)任,此時人工智能無主體資格。
2.比照法人刑事責(zé)任原理的制度構(gòu)建
可同法人一般具備刑事主體地位的人工智能,必須具備三個條件,在特定專業(yè)領(lǐng)域有堪比人類的自主行為能力,其運(yùn)作機(jī)制經(jīng)行政審查批準(zhǔn),有獨(dú)立的財(cái)產(chǎn)。人工智能無法同人類一樣有完整人格,但能在其從事的應(yīng)用領(lǐng)域比人類更專業(yè)。如同單位犯罪條件一樣,其設(shè)立之初的經(jīng)營范圍和經(jīng)營目的應(yīng)合法,可經(jīng)過行政審查。人工智能受罰應(yīng)足以平民憤,受罰金并接受程序改寫最為合理。
其次,在導(dǎo)致危害結(jié)果上,人工智能雖是自主的,但仍應(yīng)考慮人類與結(jié)果的聯(lián)系。縱觀各國刑法對“單位”的規(guī)定,大體可以歸納為單罰制、雙罰制和代罰制,造成這些區(qū)別的原因在于法人與自然人是否是完全不同的形態(tài)主體,是否給予差別對待,這也同人工智能始終與人類分不開而導(dǎo)致其主體地位存疑相似。因此,可參考“單位”這一主體的設(shè)定,將刑法的主體分為自然人、單位、人工智能,將人工智能類比單位采取雙罰制,將人工智能與其研發(fā)者共同作為主體承擔(dān)刑事責(zé)任。當(dāng)然,具體而言,由于人工智能可能存在脫離研究者意志,不能完全比照單位,要對不同情況進(jìn)行進(jìn)一步細(xì)分。例如,假設(shè)人工智能體的犯罪形態(tài)較為復(fù)雜,既有其自身的主觀故意、客觀不法,又有相關(guān)自然人的“操縱”事實(shí),則可參照雙罰制,分別對人工智能和相關(guān)自然人采取刑罰。
總而言之,確立主體地位也只是解決涉人工智能犯罪中,自然人與人工智能刑事責(zé)任分配不明問題的手段。人工智能犯罪的制度設(shè)計(jì)也當(dāng)參照單位犯罪,罪名有限且以雙罰制判處。格里申法案賦予“機(jī)器人—代理人”以民事主體地位,為避免民刑倒掛的風(fēng)險,未來強(qiáng)人工智能犯罪也可能都屬于經(jīng)濟(jì)犯罪,恰好單位犯罪絕大部分也屬于經(jīng)濟(jì)領(lǐng)域,比照法人刑事責(zé)任制度建構(gòu)未來可期?!?/p>