牛天寶
摘要:人類正經(jīng)歷第四次科技革命時(shí)代。新的科技革命帶來了生產(chǎn)力的發(fā)展,也帶來了社會(huì)關(guān)系的變革,刑法作為社會(huì)治理法應(yīng)積極應(yīng)對人工智能帶來的新變化。但是,刑法是保障法。應(yīng)保持立法克制。人工智能機(jī)器人本質(zhì)上屬于人類的創(chuàng)造物。不能獨(dú)立承擔(dān)刑事責(zé)任,對其施加“刑罰”沒有意義,賦予其刑事主體地位尚不具有現(xiàn)實(shí)可能性。人工智能機(jī)器人的操控者(制造者、所有者、入侵者)利用人工智能機(jī)器人實(shí)施犯罪行為應(yīng)承擔(dān)故意犯罪刑事責(zé)任。此外,人工智能機(jī)器人的制造者未盡到必要的安全注意和結(jié)果回避義務(wù),其所有者未盡到保證人的監(jiān)管義務(wù),均應(yīng)承擔(dān)過失責(zé)任。
關(guān)鍵詞:人工智能;機(jī)器人;刑事責(zé)任能力;否定;應(yīng)對
中圖分類號:DF611文獻(xiàn)標(biāo)志碼:A
DOI:10.3969/j.issn.1008-4355.2020.01.09
一、引言
人類正大踏步進(jìn)入以人工智能為代表的第四次科技革命時(shí)代。第四次科技革命給社會(huì)的發(fā)展帶來了革命性變化,人工智能技術(shù)將應(yīng)用到人類生活的方方面面,目前在部分領(lǐng)域已經(jīng)有相應(yīng)的人工智能產(chǎn)品,如谷歌公司戰(zhàn)勝圍棋世界冠軍的阿爾法狗、特斯拉公司生產(chǎn)的自動(dòng)駕駛汽車和美國的人工智能“律師”羅絲等??茖W(xué)技術(shù)是一把雙刃劍,其可以為人類服務(wù),給人類的生活帶來極大的便利,也可能帶來災(zāi)難性的風(fēng)險(xiǎn)。人類最擔(dān)心的問題之一就是:當(dāng)人工智能發(fā)展到一定程度時(shí),可能形成屬于自己的意識而選擇傷害自己或者做出傷害人類的行為。面臨未知的風(fēng)險(xiǎn),我國刑法學(xué)者未雨綢繆,基于人工智能發(fā)展帶來的挑戰(zhàn),提出了一系列解決方案。有學(xué)者提出了比較前瞻的觀點(diǎn),主張“強(qiáng)人工智能產(chǎn)品具有獨(dú)立人格和刑事責(zé)任能力。可以將其實(shí)施的嚴(yán)重危害社會(huì)的行為認(rèn)定為犯罪行為并給予刑罰處罰。”同樣,也有學(xué)者堅(jiān)持“人工智能不具備獨(dú)立于人類的權(quán)利和價(jià)值,將人工智能擬制為犯罪主體的設(shè)想不具有合理陛,且將加劇‘有組織的不負(fù)責(zé)任”。
當(dāng)前最具時(shí)代特點(diǎn)的科技進(jìn)步當(dāng)屬人工智能技術(shù)的迅猛發(fā)展和廣泛應(yīng)用。由此帶來法律調(diào)整的問題及挑戰(zhàn)。反映在刑事領(lǐng)域,核心爭議之一就是人工智能機(jī)器人的刑事責(zé)任能力問題。學(xué)界對于弱人工智能的刑事責(zé)任問題沒有較大爭議,一般認(rèn)為其僅具有工具屬性,不具有獨(dú)立的刑事責(zé)任能力。而分歧主要是針對強(qiáng)人工智能是否具有獨(dú)立的刑事責(zé)任能力。本文擬討論的人工智能機(jī)器人的刑事責(zé)任能力及其侵害法益后的刑事責(zé)任歸屬,是在強(qiáng)人工智能這個(gè)前提下展開的。所謂人工智能機(jī)器人是指具有感覺、反應(yīng)和思考能力的機(jī)器人,能識別周圍環(huán)境狀態(tài),根據(jù)所得到的信息,思考出采用什么樣的動(dòng)作,對外界做出反應(yīng)?;诖耍词故桥c人類外形相似,具有高度的實(shí)踐能力,但是只有靠人的操縱才能移動(dòng),就不能稱之為人工智能機(jī)器人。即使是單純的機(jī)器人清掃機(jī),如果是利用自身能力,認(rèn)識和判斷障礙物并自主進(jìn)行清掃的機(jī)器,也可以稱之為法律上的人工智能機(jī)器人,即本文所討論的強(qiáng)人工智能意義上的人工智能機(jī)器人。
本文認(rèn)為,人工智能機(jī)器人本質(zhì)上屬于人類的創(chuàng)造物,不能獨(dú)立承擔(dān)刑事責(zé)任,不應(yīng)賦予其刑事責(zé)任能力,對其施加“刑罰”沒有意義,基于現(xiàn)有的刑事法律規(guī)范與理論,尚可解決人工智能機(jī)器人肇事的刑事責(zé)任歸屬問題。
二、人工智能機(jī)器人刑事責(zé)任能力之否定
如前所述,關(guān)于人工智能機(jī)器人的刑事責(zé)任能力問題,有兩種相互對立的立場。與否定說相比,肯定說的論者更有責(zé)任論證人工智能機(jī)器人具有刑事責(zé)任能力,而作為否定說的論者只是對傳統(tǒng)刑法的堅(jiān)守,只需要提出肯定說的論證路徑存在瑕疵,不具有完全的說服力,即可否定人工智能機(jī)器人的刑事責(zé)任能力。本文對賦予人工智能機(jī)器人刑事責(zé)任能力持否定態(tài)度,雖然人工智能技術(shù)的飛速發(fā)展,使得人工智能機(jī)器人具有某些類人的能力,但是人工智能機(jī)器人在本質(zhì)上是人類創(chuàng)造、應(yīng)用和管理的對象,不應(yīng)因其表現(xiàn)出類人的智能,就將其視為人類社會(huì)的主體并賦予法律主體地位?,F(xiàn)階段,肯定說的論證尚不具有充分的說服力,要賦予人工智能機(jī)器人獨(dú)立的刑事主體地位,尚不具有現(xiàn)實(shí)可能性。
(一)人工智能機(jī)器人具有刑事責(zé)任能力的論證不充分
肯定人工智能機(jī)器人具有刑事責(zé)任能力的論者需要充分的理由論證人工智能機(jī)器人具有刑事責(zé)任能力,他們主要從人工智能機(jī)器人的辨認(rèn)和控制能力人手,提出類比法人擬制為刑事責(zé)任主體,并提出人工智能機(jī)器人具有受刑能力,針對其特點(diǎn)構(gòu)建了刑罰體系。然而,本文認(rèn)為肯定說的論者雖然提出了新穎的論證觀點(diǎn),但是依然未能充分論證人工智能機(jī)器人具有刑事責(zé)任能力。
1.無法從人工智能機(jī)器人具有辨認(rèn)和控制能力路徑論證其具有刑事責(zé)任能力
有論者指出,刑事責(zé)任主體的核心要件是辨認(rèn)、控制能力。強(qiáng)人工智能機(jī)器人具備刑事責(zé)任主體的核心要件一辨認(rèn)、控制力,因此強(qiáng)人工智能機(jī)器人能夠成為刑事責(zé)任主體。人工智能機(jī)器人可能在一定程度上具有辨認(rèn)和控制能力,但是我們不能忽略其辨認(rèn)和控制能力的來源——來源于人類,且人類可以左右其辨認(rèn)和控制能力。其次,還要考察人工智能機(jī)器人的辨認(rèn)和控制能力服務(wù)的對象——依然是人類,人工智能機(jī)器人自身并沒有獨(dú)立的價(jià)值追求。行為的目的乃是行為的基礎(chǔ),當(dāng)人工智能機(jī)器人沒有獨(dú)立于人類之外的獨(dú)立行為目的,其動(dòng)作也就無法稱之為刑法意義上的行為。再次,辨認(rèn)和控制能力是刑事責(zé)任主體的核心要素,但并非刑事責(zé)任主體的全部,其只是刑事責(zé)任主體地位論證的必要條件,而非充要條件。換言之,無責(zé)任能力是排除責(zé)任事由,并非因具有辨認(rèn)和控制能力而具有刑事主體地位,恰恰相反,是因?yàn)椴痪哂斜嬲J(rèn)和控制能力而排除了其承擔(dān)刑事責(zé)任的可能性。最后,人類具有刑事責(zé)任主體地位,是人類在漫長的社會(huì)發(fā)展進(jìn)程中不斷進(jìn)步發(fā)展而取得并經(jīng)立法予以確認(rèn)的,而不是靠別的種群賜予的。假使人工智能機(jī)器人靠人類的恩賜獲得了刑事責(zé)任主體地位,并沒有任何現(xiàn)實(shí)意義,實(shí)質(zhì)上依然是處于被人類制定法支配的客體地位。
2.無法類比法人擬制路徑論證人工智能機(jī)器人具有刑事責(zé)任能力
類比法人擬制人工智能機(jī)器人的刑事責(zé)任能力,依然具有難以克服的障礙。有論者從法人的角度出發(fā),認(rèn)為法人最初也沒有刑事責(zé)任主體地位,但是立法把法人擬制為和人類一樣的刑事責(zé)任主體。那么,人工智能機(jī)器人具有辨認(rèn)和控制能力,也應(yīng)當(dāng)可以像法人一樣擬制為刑事責(zé)任主體。人工智能體的法律人格可以“借鑒‘單位這一主體設(shè)定的理念。將現(xiàn)階段刑法中刑事責(zé)任的主體擴(kuò)充為自然人、單位和人工智能體”。雖然法人和人工智能機(jī)器人都不是自然人,都不具有人類的生理構(gòu)造與倫理觀念,但法人與人工智能的重大區(qū)別在于,法人總是“通過”人類來運(yùn)營,由人來組成董事會(huì),且董事會(huì)的行為被歸結(jié)為單位的行為。人工智能機(jī)器人的行為是人工智能機(jī)器人在一定程度下獨(dú)立自主的行為,并非由人直接決定和執(zhí)行,從這一點(diǎn)來看,存在根本性的差異。法人是以自然人為主體組合的人合性組織,其本質(zhì)上依然是自然人的聯(lián)合體。法人的行為決策是由其決策機(jī)關(guān)依法定程序而做出,其決策機(jī)關(guān)的組成人員是自然人,相當(dāng)于法人的決策實(shí)質(zhì)上依然是自然人所作出的。即使如此,在特定情況下還可能會(huì)否定法人的刑事責(zé)任主體地位,如設(shè)立的目的就是為了犯罪或者成立后的主要業(yè)務(wù)屬于犯罪等。而人工智能機(jī)器人,其智能雖然類似于人類,但是其在設(shè)計(jì)者完成相關(guān)編程以后,就與其辨認(rèn)和控制能力予以適當(dāng)分離,其執(zhí)行的是沒有生機(jī)的編程指令,或者是基于特定算法而產(chǎn)生的自我學(xué)習(xí)能力,其與自然人的辨認(rèn)和控制能力依然具有本質(zhì)的區(qū)別,也不同于法人的辨認(rèn)和控制能力,所以人工智能機(jī)器人也區(qū)別于具有自己獨(dú)立意志并作為自然人集合體的法人,將其作為擬制之人以享有法律主體資格,在法理上尚有斟榷之處。
3.無法從受刑能力路徑論證人工智能機(jī)器人具有刑事責(zé)任能力
刑罰的本質(zhì)是痛苦,刑罰只與犯罪相聯(lián)系,是施加給犯罪人的痛苦。有論者提出,人工智能機(jī)器人具有感知刑罰痛苦的能力,將其納入刑罰處罰范圍能夠?qū)崿F(xiàn)刑罰目的,也符合主體擬制的刑事立法規(guī)律,并設(shè)計(jì)了三種方式對智能機(jī)器人進(jìn)行刑罰處罰:刪除數(shù)據(jù)、修改程序、永久銷毀。而事實(shí)上,人工智能機(jī)器人究竟是否具有感知刑罰痛苦的能力,僅僅是建立在作者猜想的基礎(chǔ)之上,并沒有展示明確的科學(xué)依據(jù)。所謂刑罰,是對犯罪的反作用,是對實(shí)施了犯罪的人所作出的制裁,其目的在于通過科處刑罰而抑制乃至預(yù)防犯罪。首先,刑罰設(shè)計(jì)的基礎(chǔ)是受刑主體要有感知痛苦的能力,并基于刑罰的痛苦與犯罪所帶來的快樂的對比,趨利避害,從而做出適法的行為。如果不能論證受刑對象具有感知痛苦的能力,也就談不上通過科處刑罰而抑制和預(yù)防犯罪。其次,人工智能機(jī)器人主要用來服務(wù)人類,與制造它的主體、擁有它的主體以及使用它的主體之間存在諸多利益關(guān)聯(lián),銷毀人工智能機(jī)器人或者其中的數(shù)據(jù)、程序等行為勢必會(huì)損害與其緊密相關(guān)的其他主體的利益。再次,對人工智能機(jī)器人施加“刑罰措施”,看似處罰人工智能機(jī)器人,實(shí)際上卻是對人工智能機(jī)器人使用者或所有者利益的減損。機(jī)器人無論以何種方式承擔(dān)責(zé)任,最終的責(zé)任承擔(dān)者都是人。而人工智能機(jī)器人侵害法益,歸根到底是使用者、所有者、制造者在利用人工智能技術(shù)過程中違法犯罪,因而理應(yīng)由人來承擔(dān)刑事責(zé)任。最后,刪除數(shù)據(jù)、修改程序、永久銷毀等預(yù)防人工智能機(jī)器人侵害法益的合理對策,能有效抑制人工智能機(jī)器人侵害法益。但是,刪除數(shù)據(jù)、修改程序、永久銷毀等措施,在無法論證人工智能機(jī)器人具有刑事責(zé)任主體地位的情況下,與其說是刑罰措施,不如說是在緊急情況下為了保護(hù)人類的利益對物采取的行政強(qiáng)制措施。
(二)賦予人工智能機(jī)器人刑事責(zé)任能力與其他規(guī)范存在沖突
法律是社會(huì)控制的主要手段,但并非社會(huì)治理的唯一手段。法治現(xiàn)代化的基本要求之一就是法治系統(tǒng)內(nèi)部與外部的協(xié)調(diào)統(tǒng)一。刑法也不例外,在外部需要與倫理道德等協(xié)調(diào)一致,在內(nèi)部還需要與其他法律規(guī)范協(xié)調(diào)一致。法治社會(huì)的法律變革牽一發(fā)而動(dòng)全身,不能只從刑法方面討論人工智能機(jī)器人的刑事責(zé)任能力問題,還需要考慮與其他規(guī)范的協(xié)調(diào)一致。如果暫時(shí)無法做到協(xié)調(diào)一致,刑法應(yīng)秉持適當(dāng)?shù)谋J匦?。刑法作為保障法的性質(zhì)決定刑法需要與其他規(guī)范保持一致,隨著其他規(guī)范的變化而變化,而非強(qiáng)求其他法律規(guī)范適應(yīng)刑法的理論創(chuàng)新。
1.賦予人工智能機(jī)器人刑事責(zé)任能力與倫理規(guī)范存在沖突
在現(xiàn)有的立法體系以及刑罰歸責(zé)路徑阻卻下,將機(jī)器人作為刑事責(zé)任主體,有違人類對基本倫理的現(xiàn)有認(rèn)知。首先,承認(rèn)人工智能機(jī)器人的刑事責(zé)任主體地位,將導(dǎo)致人與人工智能機(jī)器人的關(guān)系難以厘定。如果承認(rèn)人工智能機(jī)器人的刑事責(zé)任主體地位,則意味著對人工智能機(jī)器人可以與人類一樣平等適用刑法規(guī)范。即使學(xué)者針對人工智能機(jī)器人設(shè)計(jì)了不同于自然人的刑罰,也依然是同一部刑法?,F(xiàn)在罪刑法定原則的思想基礎(chǔ)之一為民主主義,根據(jù)民主主義的要求,犯罪與刑罰必須由國民代表機(jī)關(guān)制定的法律來規(guī)定。如果將刑法適用于某一主體,該主體應(yīng)當(dāng)享有參與刑事立法的權(quán)利。那就意味著人工智能機(jī)器人應(yīng)與人類有平等的立法權(quán)。要想?yún)⑴c刑事立法,必須具有與自然人一樣的公民身份和平等的憲法地位。如此一來,人工智能機(jī)器人與人類的關(guān)系應(yīng)如何定位,人工智能機(jī)器人是否也應(yīng)享有選舉權(quán)與被選舉權(quán),是否可以當(dāng)選為國家機(jī)關(guān)領(lǐng)導(dǎo)人,是否可以領(lǐng)導(dǎo)人類的發(fā)展,都是需要破解的倫理難題。很顯然,從現(xiàn)在人工智能發(fā)展的階段來看,賦予其公民身份和立法權(quán)還很不現(xiàn)實(shí)。其次,既然人工智能機(jī)器人難以取得公民身份和立法參與權(quán),卻將人類制定的刑法適用于人工智能機(jī)器人。本質(zhì)上來講,還是沒有承認(rèn)人工智能機(jī)器人的主體地位,在我們內(nèi)心深處依然下意識地把其視為人類的工具,人工智能機(jī)器人仍處于可供支配的客體地位。既然無法接受人工智能機(jī)器人與人類的平等地位,那么在理論上與實(shí)踐上承認(rèn)其刑事責(zé)任主體地位將面臨一道難以跨越的鴻溝。
2.賦予人工智能機(jī)器人刑事責(zé)任能力與其他法律存在沖突
一般認(rèn)為,刑法學(xué)是處于后置地位的保障法,保障民事法律規(guī)范等前置法律規(guī)范的實(shí)施。實(shí)際上,刑法與其說是一種特別的法律,還不如說是對所有其他各種法律的認(rèn)可。刑法學(xué)的發(fā)展不是自我想象,而是需要基于自然科學(xué)和社會(huì)科學(xué)的成果,尤其在基礎(chǔ)概念方面需要與前置法律規(guī)范保持一致。刑法學(xué)的討論,不能脫離民法學(xué)的研究,相反應(yīng)當(dāng)以民法學(xué)的研究為基礎(chǔ)。其一,在民法學(xué)領(lǐng)域,將機(jī)器人視為“人”,賦予其相應(yīng)的主體資格,難以在現(xiàn)有的民法理論中得到合理的解釋。說到底,人工智能機(jī)器人的人工類人格仍然不是人格,仍然是物的屬性。人工智能機(jī)器人雖然有人的外觀形象,有人的一些功能,可以實(shí)施某些類似于人的行為甚至有一定自主性的行為,但它的基本屬性仍然是物。民法學(xué)者尚且認(rèn)為人工智能機(jī)器人不具有獨(dú)立的人格地位,不滿足人格的基本要素,其在本質(zhì)上只是人類的創(chuàng)造物,刑法上就承認(rèn)其主體地位未免顯得突進(jìn)。其二,假設(shè)人工智能機(jī)器人可以成為刑事責(zé)任主體,那么就應(yīng)當(dāng)對人工智能機(jī)器人與人類同等保護(hù)起來。如果毀壞了人工智能機(jī)器人,是應(yīng)當(dāng)認(rèn)定故意傷害罪還是故意毀壞財(cái)物罪?在民事侵權(quán)領(lǐng)域,其賠償標(biāo)準(zhǔn)是適用于物的標(biāo)準(zhǔn)還是需要單獨(dú)設(shè)立特定的標(biāo)準(zhǔn),是根據(jù)其價(jià)值評估還是根據(jù)其預(yù)期使用年限來確定賠償金額?刑法不只是懲罰,更應(yīng)是保障。對刑事主體地位理論的革新是一個(gè)系統(tǒng)工程,刑法不能忽視其他法律規(guī)范而單槍匹馬,孤軍深入。再次,上文談到的倫理障礙,也是憲法障礙。國家是基于社會(huì)契約而成立的,國家的目的在于保障人們的相互自由。憲法規(guī)范體系一般是遵從社會(huì)契約論的基本思想構(gòu)建起來的。憲法作為國家的根本大法,如果刑法承認(rèn)人工智能機(jī)器人的刑事主體地位,也應(yīng)以憲法賦予其主體地位為前提。研究法律問題特別是刑法問題不能基于可能的情況,而應(yīng)基于現(xiàn)實(shí)的情況。但是,就目前的情況來看,不管是憲法還是民法,就連刑法自身都沒有構(gòu)建完整的規(guī)范體系,此時(shí)下結(jié)論要賦予人工智能機(jī)器人的刑事主體地位,或是時(shí)間太早了點(diǎn)。
(三)賦予人工智能機(jī)器人刑事責(zé)任能力缺乏根本依據(jù)
除了無法論證人工智能機(jī)器人存在刑事能力的基礎(chǔ)以及賦予其刑事責(zé)任能力的后果無法協(xié)調(diào)一致以外,賦予人工智能機(jī)器人以刑事責(zé)任能力還面臨其自身屬性和科學(xué)依據(jù)的根本性障礙。就目前而言,人工智能機(jī)器人在本質(zhì)上只是人類的創(chuàng)造物,人工智能機(jī)器人的“智力”來源于人類,擬制其具有刑事責(zé)任能力的研究大多是建立在論者的設(shè)想之上,尚缺乏明確的科學(xué)依據(jù)。
1.人工智能機(jī)器人本質(zhì)上僅是人類創(chuàng)造物
對犯罪人追究刑事責(zé)任的哲學(xué)根據(jù)在于行為人具有相對的意志自由,或者說自由選擇能力,即行為人能選擇非犯罪行為卻選擇了犯罪行為,因而才追究其刑事責(zé)任。人工智能與人類智能并非一回事。人類有目的和意識,而機(jī)器并沒有目的和意識。機(jī)器仍然只是機(jī)器,雖有智能,但也是比較單一的信息處理能力,綜合智商遠(yuǎn)遠(yuǎn)比不上人類甚至其他動(dòng)物。人工智能輔助人,而不能完全代替人。人工智能機(jī)器人存在的根本目的是為人類服務(wù),其存在的終極意義仍然是一種工具價(jià)值,不會(huì)也不應(yīng)有追求自在價(jià)值的自由意志。其次,人類設(shè)計(jì)人工智能的目的,在于利用其在生產(chǎn)、生活、國防等領(lǐng)域代替人類從事一定的活動(dòng)。人工智能并沒有獨(dú)立于人類的權(quán)利和價(jià)值,而只有利益附屬性。人工智能機(jī)器人沒有獨(dú)立的價(jià)值追求,只有依附于人存在才能實(shí)現(xiàn)其價(jià)值。再次,人工智能機(jī)器人的控制和辨認(rèn)能力來源于程序與算法,不同于自然人的辨認(rèn)和控制能力。人工智能歸根結(jié)底是思維模擬,并非人的思維本身,決不能把機(jī)器思維與人腦思維等同起來。最后,人工智能就本質(zhì)而言,是對人的思維信息過程的模擬。也有學(xué)者從意識的廣延性、統(tǒng)一性與非邏輯性等屬性的角度,認(rèn)為機(jī)器人超越人腦形成獨(dú)立意識是根本不可能的。本質(zhì)上,機(jī)器人不是人,無法擁有人類的自我意識,更不具備人所擁有的社會(huì)自主適應(yīng)能力。與機(jī)器人不同,人能夠區(qū)別自身與其他事物及其他人的不同,能夠在成長過程中形成自身與其他事物具有相對穩(wěn)定的聯(lián)結(jié)關(guān)系但又與所有這些事物相區(qū)別的主觀感受實(shí)體。即自我意識——“我”。機(jī)器人永遠(yuǎn)只是人類創(chuàng)造的工具,其功能即使比人類意識的某些方面還要強(qiáng)大,也只是人類意識“自主性”的延伸。
2.人工智能機(jī)器人具有刑事責(zé)任能力缺乏科學(xué)依據(jù)
論者在論述人工智能機(jī)器人相關(guān)的問題時(shí),充滿主觀假想的色彩,比如有論者提出:“科學(xué)技術(shù)的發(fā)展究竟會(huì)帶來怎樣的人機(jī)關(guān)系,目前我們無法預(yù)知,筆者有如下設(shè)想?!边€有論者在關(guān)于強(qiáng)弱人工智能的分類與是否存在思考能力時(shí)認(rèn)為:“……強(qiáng)人工智能產(chǎn)品通過學(xué)習(xí),產(chǎn)生脫離程序的獨(dú)立意志,具備獨(dú)立思考能力”。人工智能機(jī)器人發(fā)展的未來充滿未知,將刑事理論建構(gòu)在設(shè)想和主觀認(rèn)為之上,據(jù)此認(rèn)為人工智能機(jī)器人具有刑事責(zé)任能力,缺乏說服力。再如,關(guān)于同一問題的論述,可能會(huì)有截然不同的說法,如有論者認(rèn)為“智能機(jī)器人與動(dòng)物不同,其與人類的溝通并無障礙,并具備意思表達(dá)的能力”,還有論者指出,“至少在目前,我們?nèi)祟惡蜋C(jī)器人之間的主觀交流和探討的基礎(chǔ)尚不存在”。這些充滿主觀性的詞語,正如國外論者所言,最終論點(diǎn)更多地停留在科幻小說領(lǐng)域,而不是實(shí)際的法律分析。如果沒有明確的自然科學(xué)依據(jù)作為研究的支撐,那么賦予人工智能機(jī)器人以刑事責(zé)任能力多少有點(diǎn)刑法學(xué)領(lǐng)域部分學(xué)者自說白話的感覺。
(四)從人工智能機(jī)器人的未來發(fā)展預(yù)測不應(yīng)賦予其刑事責(zé)任能力
在當(dāng)前科技發(fā)展水平以及可預(yù)測的未來,人工智能仍將長期處于弱人工智能發(fā)展階段,無論基于算法運(yùn)行的人工智能多么強(qiáng)大。形式理性層面對規(guī)則的推理都無法實(shí)現(xiàn)像人類運(yùn)用超規(guī)則之上的價(jià)值判斷。對人工智能機(jī)器人不能賦予主體地位,恰恰相反,應(yīng)當(dāng)處于人類的掌控之中,應(yīng)有足夠的智慧將強(qiáng)人工智能的發(fā)展限制在維護(hù)人類基本利益的范疇之內(nèi)。⑩人工智能技術(shù)不可能無限發(fā)展,人類必須在可掌控的范圍內(nèi)限制其無節(jié)制的發(fā)展。人工智能機(jī)器人歸根到底來源于人的智能,其智能來源于人類也應(yīng)受制于人類。人工智能機(jī)器人如同風(fēng)箏一般,不管其飛得再高,都不能脫離人類控制的線索。人工智能機(jī)器人一旦脫離了人類的控制,那么人與機(jī)器人的關(guān)系很可能會(huì)被改寫,最終人類很可能是自掘墳?zāi)埂?/p>
綜上而言,人工智能機(jī)器人本質(zhì)上屬于人類創(chuàng)造的物,其存在的價(jià)值在于為人類提供便捷、高效、安全的服務(wù),僅僅具有工具屬性,對人工智能機(jī)器人施加刑罰措施也沒有現(xiàn)實(shí)意義。目前,賦予人工智能機(jī)器人刑事主體地位,缺乏科學(xué)依據(jù)做支撐,也與其他法律規(guī)范難以協(xié)調(diào)一致,且具有倫理障礙,目前肯定說對人工智能機(jī)器人具有刑事責(zé)任能力的論證尚不具有充分的說服力。因此,在現(xiàn)階段承認(rèn)人工智能機(jī)器人具有獨(dú)立的刑事責(zé)任能力,賦予其刑事主體地位尚不具有現(xiàn)實(shí)可能性。
三、人工智能機(jī)器人侵害法益相關(guān)的刑事責(zé)任歸屬分析
人工智能機(jī)器人侵害法益案件隨著人工智能技術(shù)的發(fā)展而日益增多,如深圳高交會(huì)機(jī)器人“小胖”傷人案件、國內(nèi)首例“特斯拉自動(dòng)駕駛”車禍致死案和利用人工智能犯罪案件等。目前人工智能機(jī)器人還只是一個(gè)計(jì)算機(jī)程序,當(dāng)出現(xiàn)人工智能機(jī)器人侵害法益的案件時(shí),其制造者或所有者承擔(dān)相應(yīng)的民事責(zé)任并不存在法律障礙。但是,隨著人工智能技術(shù)的進(jìn)一步發(fā)展,本文所探討的人工智能機(jī)器人因被利用或自身錯(cuò)誤啟動(dòng)很可能嚴(yán)重侵害人們的生命健康權(quán)。應(yīng)追究的不再僅僅是制造者和所有者的民事責(zé)任,還要考慮相關(guān)案件發(fā)生后的刑事責(zé)任歸屬問題。
要解決人工智能機(jī)器人侵害法益案件的刑事責(zé)任歸屬問題,首先要明確人工智能機(jī)器人侵害法益案件發(fā)生的原因。從人工智能的獨(dú)立性角度,可以把涉人工智能機(jī)器人侵害法益的案件分兩大類型:第一,人類將人工智能機(jī)器人作為犯罪工具實(shí)施侵害法益的行為,行為主體可以是制造者、所有者以及人工智能機(jī)器人系統(tǒng)的侵入者;第二,人工智能機(jī)器人超出人類意志侵犯法益。關(guān)于第一種類型,人工智能機(jī)器人僅僅被作為實(shí)施特定犯罪的工具,在實(shí)踐中也不難認(rèn)定。關(guān)鍵在于第二種類型的侵害法益案件,隨著人工智能機(jī)器人研發(fā)的快速發(fā)展,與前一種類型相比,后一類型將造成更嚴(yán)重的后果。
本文排除了人工智能機(jī)器人獨(dú)立承擔(dān)刑事責(zé)任的現(xiàn)實(shí)可能性,但這并不意味著人工智能機(jī)器人所引發(fā)的危害社會(huì)的結(jié)果沒有相關(guān)主體承擔(dān)責(zé)任?;诂F(xiàn)行刑事法律規(guī)范而言,也可以對人工智能機(jī)器人侵害法益的刑事責(zé)任予以合理歸屬。本文將基于涉人工智能機(jī)器人侵害法益案件的類型,圍繞涉人工智能機(jī)器人侵害法益案件的相關(guān)主體——制造者(人工智能機(jī)器人的生產(chǎn)制造一般包含設(shè)計(jì)、研發(fā)和生產(chǎn)制造等流程,此處討論的制造者也包含設(shè)計(jì)、研發(fā)者)、所有者(此處討論的所有者為廣義上對人工智能機(jī)器人具有監(jiān)督管理責(zé)任的所有者和對人工智能機(jī)器人負(fù)有監(jiān)管義務(wù)的使用者)、非法侵入者逐一分析相關(guān)刑事責(zé)任的歸屬。
(一)人工智能機(jī)器人被作為犯罪工具使用侵害法益相關(guān)的刑事責(zé)任歸屬分析
人工智能機(jī)器人被作為犯罪工具使用的情況下,人工智能機(jī)器人的實(shí)際操控者實(shí)施了侵害法益的行為,應(yīng)當(dāng)由實(shí)際操控者承擔(dān)刑事責(zé)任。此時(shí),其操控者可能是輸入編程和算法的制造者,可能是人工智能機(jī)器人的所有者,也可能人工智能機(jī)器人系統(tǒng)的非法入侵者。
其一,當(dāng)制造者在制造設(shè)計(jì)人工智能機(jī)器人時(shí),就把其視為犯罪工具將相應(yīng)的指令輸入編程和算法,即人工智能機(jī)器人的制造者故意利用人工智能機(jī)器人實(shí)施侵害法益的行為。比如,制造者在制造人工智能機(jī)器人的時(shí)候,在程序中提前寫進(jìn)實(shí)施犯罪的程序編程,人工智能機(jī)器人在特定的場景下就會(huì)做出侵害法益的舉動(dòng)。此時(shí),人工智能機(jī)器人只是制造者實(shí)施犯罪的工具,對于人工智能機(jī)器人的制造者應(yīng)根據(jù)其實(shí)際侵犯法益的情況,按其涉及的罪名依法追究刑事責(zé)任。其二,在人工智能機(jī)器人交付所有者使用以后,所有者利用人工智能機(jī)器人的特性從事違法犯罪活動(dòng),比如紹興警方破獲的全國首例利用人工智能實(shí)施犯罪的案件,犯罪嫌疑人利用一種叫“快啊”打碼平臺進(jìn)行機(jī)器快速識別驗(yàn)證碼,從而達(dá)到迅速批量匹配賬號密碼的目的,進(jìn)而實(shí)施犯罪。對于此種類型的侵害法益的犯罪行為,應(yīng)對所有者依法追究相關(guān)責(zé)任。如果利用人工智能機(jī)器人傷害他人,則構(gòu)成故意傷害罪;如果利用人工智能機(jī)器人實(shí)施詐騙,則構(gòu)成詐騙罪等等。其三,還存在非法用戶入侵人工智能機(jī)器人的操作系統(tǒng),操控人工智能機(jī)器人實(shí)施侵害法益的犯罪行為。例如,黑客攻擊作為重要人物安保的人工智能機(jī)器人系統(tǒng),破壞其既有的程序編程,寫入對安保對象實(shí)施攻擊的編程,打算操控人工智能機(jī)器人對安保對象實(shí)施攻擊。這種情況下,黑客沒有獲得授權(quán)而非法入侵并控制計(jì)算機(jī)系統(tǒng),可以成立非法控制計(jì)算機(jī)信息系統(tǒng)罪。如果侵入的是國防建設(shè)、尖端科學(xué)技術(shù)領(lǐng)域的計(jì)算機(jī)信息系統(tǒng)的,還可能構(gòu)成非法侵入計(jì)算機(jī)信息系統(tǒng)罪。更嚴(yán)重的是,如果侵入人工智能機(jī)器人系統(tǒng)并控制人工智能機(jī)器人對安保對象實(shí)施了故意傷害或者故意傷人的具體犯罪行為的,則應(yīng)按其實(shí)際觸犯的罪名承擔(dān)故意傷害或故意殺人的刑事責(zé)任。
總之,對于將人工智能機(jī)器人作為犯罪工具而從事犯罪活動(dòng)的相關(guān)主體,除了涉嫌計(jì)算機(jī)系統(tǒng)方面的犯罪以外,應(yīng)按其實(shí)際侵害的法益情況確定其罪名,依法追究相應(yīng)的刑事責(zé)任。
(二)人工智能機(jī)器人超出人類意志侵犯法益的刑事責(zé)任歸屬分析
一般而言,人工智能機(jī)器人都會(huì)在既有的編程或者使用范圍內(nèi)實(shí)施特定的行為,但是人工智能機(jī)器人有可能失控而做出超出人類的意志實(shí)施侵害法益的舉動(dòng)。在現(xiàn)行法律體系中,尚未針對人工智能機(jī)器人侵害法益案件單獨(dú)設(shè)立相應(yīng)的罪名。那么,基于現(xiàn)行的刑事法律規(guī)范體系,作為人工智能機(jī)器人的制造者和所有者是否應(yīng)對人工智能機(jī)器人引發(fā)的事故追究刑事責(zé)任,則是我們首先考慮的選項(xiàng)。由于人工智能機(jī)器人在人的意志以外實(shí)施了侵害法益的行為,則排除了制造者和設(shè)計(jì)者的主觀故意。討論人工智能機(jī)器人在人類操控以外侵害法益引發(fā)的刑事責(zé)任歸屬。則需要厘清與此相關(guān)的主體對危害后果是否具有預(yù)見可能性,以及對危害后果的發(fā)生是否具有回避可能性。如果沒有預(yù)見可能,或者根本無法避免,則不能追究相關(guān)主體的刑事責(zé)任。
1.人工智能機(jī)器人制造者的刑事責(zé)任
對于人工智能機(jī)器人在人類操控以外做出侵害法益的舉動(dòng),一般應(yīng)排除制造者的犯罪故意,那么就要考量人工智能機(jī)器人的制造者是否存在犯罪過失。成立過失犯以行為發(fā)生侵害結(jié)果為條件,還要求實(shí)行行為與結(jié)果回避可能性。過失犯的成立,要求存在對結(jié)果認(rèn)識的可能性,也要有對結(jié)果的規(guī)避可能性。或許人類為了享受人工智能機(jī)器人提供的服務(wù),自愿承擔(dān)一定的風(fēng)險(xiǎn)。事實(shí)上,也不可能要求制造者和設(shè)計(jì)者能預(yù)見所有的風(fēng)險(xiǎn)并避免所有的事故。那么,在發(fā)展與風(fēng)險(xiǎn)之間,如何才能尋求一個(gè)恰當(dāng)?shù)钠胶恻c(diǎn),追究相關(guān)主體的刑事責(zé)任?人工智能機(jī)器人制造者的過失和允許的危險(xiǎn)應(yīng)認(rèn)定到什么程度,這將是人工智能機(jī)器人的制造者承擔(dān)刑事責(zé)任與否的基礎(chǔ)。
(1)人工智能機(jī)器人的制造者承擔(dān)刑事責(zé)任的基礎(chǔ)
首先,需要考慮人工智能機(jī)器人制造者對于危害結(jié)果是否具有預(yù)見可能性。人工智能機(jī)器人可以自行從周圍環(huán)境中收集信息,在對搜集的信息獨(dú)立評價(jià)后做出應(yīng)對決策,從而完成既定的任務(wù)。對于人工智能機(jī)器人收集到的信息如何解讀,如何應(yīng)對這些信息,制造者可能也無法完全預(yù)測。從學(xué)理上看,研發(fā)者與設(shè)計(jì)者對于智能主體而言,具有不可替代的地位和作用,甚至目前處于“獨(dú)占”狀態(tài),應(yīng)當(dāng)是首要的“倫理責(zé)任者”與安全的“守護(hù)者”,也是智能主體所面臨的刑事風(fēng)險(xiǎn)的首要來源。人工智能機(jī)器人制造者需要仔細(xì)考慮其開發(fā)的人工智能機(jī)器人的用途和屬性等。并根據(jù)其用途和基本屬性預(yù)見其可能給人類帶來的危險(xiǎn)。雖然說要求制造者完全預(yù)測人工智能機(jī)器人的行動(dòng)是不可能的,但絕大多數(shù)可能帶來法益侵害的類型都應(yīng)納入可預(yù)見的范疇。比如,開發(fā)自動(dòng)駕駛汽車的制造者如果仔細(xì)考慮自動(dòng)駕駛汽車的屬性,其應(yīng)當(dāng)預(yù)見到自動(dòng)駕駛汽車在道路上行駛時(shí)很可能遇到的突發(fā)狀況并采取提前設(shè)計(jì)相應(yīng)的程序以采取可靠的回避措施。如果僅僅推脫不能預(yù)見而否認(rèn)存在過失的責(zé)任,那就會(huì)產(chǎn)生無法向任何人追究責(zé)任的結(jié)果。
其次,需要考慮制造者是否履行了安全注意義務(wù)。過失犯罪成立的主要原因在于應(yīng)當(dāng)預(yù)見危害結(jié)果可能發(fā)生而沒有預(yù)見或者已經(jīng)預(yù)見到危害結(jié)果可能發(fā)生而未采取有力的措施予以避免。反映在人工智能機(jī)器人領(lǐng)域,過失犯罪本質(zhì)上是怠于履行安全注意義務(wù),即應(yīng)當(dāng)將可能產(chǎn)生的危害后果納入考慮的范疇而沒有。因未認(rèn)識犯罪事實(shí)而導(dǎo)致的結(jié)果的發(fā)生或者已經(jīng)預(yù)見到可能發(fā)生危害后果但是沒有采取恰當(dāng)?shù)拇胧┍苊饨Y(jié)果的發(fā)生。制造者對于人工智能機(jī)器人侵害法益行為擔(dān)責(zé)既需要有預(yù)見可能,也需要有對結(jié)果的回避可能性。但是,如何界定其預(yù)見的范圍以及回避的能力則存在較大難度?,F(xiàn)存刑事法律規(guī)范體系對此并沒有明確界定,只能依據(jù)一般的道義、倫理、習(xí)慣等社會(huì)規(guī)范,根據(jù)具體的實(shí)際情況予以合理的界定。
我國對產(chǎn)品質(zhì)量實(shí)行的是嚴(yán)格責(zé)任原則,要求產(chǎn)品的制造者具有嚴(yán)格的注意義務(wù)標(biāo)準(zhǔn)。這些標(biāo)準(zhǔn)和原則同樣適用于人工智能機(jī)器人的制造者,而且應(yīng)對制造者提出更加嚴(yán)格的注意義務(wù)。當(dāng)然,人工智能技術(shù)領(lǐng)域?qū)儆谛屡d的高科技領(lǐng)域,對于人工智能領(lǐng)域的風(fēng)險(xiǎn)尚不能完全認(rèn)識清楚,因此人工智能機(jī)器人的生產(chǎn)者最起碼應(yīng)按照國家安全標(biāo)準(zhǔn)生產(chǎn)人工智能產(chǎn)品。另外,如果人工智能機(jī)器人因錯(cuò)誤啟動(dòng)侵害法益,應(yīng)進(jìn)一步考量相關(guān)案件法益侵害的嚴(yán)重性和人工智能機(jī)器人帶來的收益之間的關(guān)系。我們?nèi)绻呀?jīng)做好準(zhǔn)備接受可能伴隨著危險(xiǎn)的新技術(shù),并且普遍能夠接受使用人工智能機(jī)器人可能會(huì)帶來無法預(yù)測的損失,即使最終發(fā)生侵害,也不一定強(qiáng)行處罰人工智能機(jī)器人的制造者。但是,如果因人工智能機(jī)器人嚴(yán)重侵害法益的舉動(dòng)危及人的生命,那么這必將是我們難以承受的風(fēng)險(xiǎn),刑法亦應(yīng)有所擔(dān)當(dāng)。因此,人工智能機(jī)器人制造者不可能因?yàn)槿斯ぶ悄軝C(jī)器人屬于新興的高科技產(chǎn)品而降低規(guī)避危害結(jié)果的注意義務(wù),相反,人工智能機(jī)器人制造者必須承擔(dān)更高的安全注意義務(wù)和結(jié)果回避義務(wù)。
(2)人工智能機(jī)器人的制造者承擔(dān)刑事責(zé)任的具體分析
上文概括性地厘清了人工智能機(jī)器人承擔(dān)刑事責(zé)任的基礎(chǔ)。即人工智能機(jī)器人的制造者在生產(chǎn)制造階段是否預(yù)見到人工智能機(jī)器人侵害法益的危險(xiǎn)以及是否履行了結(jié)果回避義務(wù)。但這并不是人工智能機(jī)器人制造者的全部安全注意義務(wù)。即使制造者生產(chǎn)的人工智能機(jī)器人達(dá)到了法律所要求的安全性,也不可能是完美無缺的,依然可能會(huì)面臨未知的風(fēng)險(xiǎn)。人工智能機(jī)器人出廠檢測合格卻在銷售投入使用之后的缺陷則是當(dāng)時(shí)尚未經(jīng)歷過的未知風(fēng)險(xiǎn),這些風(fēng)險(xiǎn)是在發(fā)生一定事故或者危險(xiǎn)之后才能發(fā)現(xiàn)的。因此,制造者對其生產(chǎn)制造的人工智能機(jī)器人發(fā)生侵害法益的風(fēng)險(xiǎn)一般是制造階段未認(rèn)識到、上市后才發(fā)現(xiàn)缺陷,此時(shí)應(yīng)及時(shí)采取召回等必要的安全措施。接下來,本文將依據(jù)人工智能機(jī)器人在生產(chǎn)制造和使用階段的不同情況進(jìn)一步探究其相關(guān)刑事責(zé)任歸屬問題。
其一,制造者在人工智能機(jī)器人制造階段的刑事責(zé)任。人工智能機(jī)器人制造技術(shù),屬于新興的高精尖科學(xué)技術(shù),對于此類產(chǎn)品不只是運(yùn)行程序比較專業(yè)和復(fù)雜,其研發(fā)和生產(chǎn)同樣具有高度的專業(yè)性,生產(chǎn)過程難免會(huì)出現(xiàn)難以預(yù)見的差錯(cuò)。制造者無法預(yù)見人工智能機(jī)器人可能發(fā)生的所有危險(xiǎn)情況,也就不能為所有的危險(xiǎn)情況提前做好編程設(shè)計(jì)。而且,人工智能機(jī)器人還有一定的學(xué)習(xí)能力,因此在生產(chǎn)階段更難以充分預(yù)測人工智能機(jī)器人可能侵害法益的全部風(fēng)險(xiǎn)??紤]到這一點(diǎn),制造者在將人工智能機(jī)器人投放市場之前,還要進(jìn)行充分的測驗(yàn),并對測驗(yàn)中出現(xiàn)的風(fēng)險(xiǎn)予以合理的解決。如果制造者生產(chǎn)的人工智能機(jī)器人符合安全技術(shù)標(biāo)準(zhǔn)并經(jīng)過充分實(shí)驗(yàn)才投入市場,即使發(fā)生了之前難以預(yù)見的危險(xiǎn),也不應(yīng)以出現(xiàn)了客觀危害后果而追究制造者的刑事責(zé)任。
但是,考慮到人工智能機(jī)器人的潛在危險(xiǎn)性和消費(fèi)者的安全需求會(huì)不斷增加,就不能以新興高科技為由將人工智能機(jī)器人侵害法益的危險(xiǎn)性全部轉(zhuǎn)嫁給使用者。因此,可以通過引入刑法上的產(chǎn)品責(zé)任來解決該問題。《產(chǎn)品質(zhì)量法》第49條規(guī)定,生產(chǎn)不符合保障人體健康和人身、財(cái)產(chǎn)安全的國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)的產(chǎn)品的,構(gòu)成犯罪的,依法追究刑事責(zé)任?!缎谭ā芬惨?guī)定了生產(chǎn)偽劣產(chǎn)品罪和生產(chǎn)不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪。單位犯罪的,對單位判處罰金,并對其直接負(fù)責(zé)的主管人員和其他直接責(zé)任人員追究刑事責(zé)任。因此,對于制造者在制造人工智能機(jī)器人過程中,明知生產(chǎn)的人工智能機(jī)器人不符合安全標(biāo)準(zhǔn)而投放市場的,應(yīng)當(dāng)依法追究其刑事責(zé)任。
其二,制造者在人工智能機(jī)器人使用階段的刑事責(zé)任。制造者在開始生產(chǎn)和銷售出人工智能機(jī)器人后,有責(zé)任持續(xù)觀察使用者的反映和人工智能機(jī)器人的實(shí)際運(yùn)行情況,并給予必要的反饋,如果出現(xiàn)了在生產(chǎn)階段事先未預(yù)料到的損害或風(fēng)險(xiǎn),有義務(wù)對人工智能機(jī)器人進(jìn)行必要的召回。制造者不僅在出廠以前要保障人工智能機(jī)器人質(zhì)量符合安全標(biāo)準(zhǔn),在出廠交付使用以后,也要關(guān)注消費(fèi)者的反應(yīng),同時(shí)關(guān)注人工智能機(jī)器人會(huì)出現(xiàn)故障,并繼續(xù)預(yù)測出侵害法益的可能性,避免由此帶來的后果。此外,如果事后發(fā)現(xiàn)人工智能機(jī)器人存在缺陷,就應(yīng)該向使用者發(fā)出警告,對缺陷產(chǎn)品,生產(chǎn)者應(yīng)當(dāng)全部召回。如果不盡到這種注意義務(wù),就可以作為或不作為的過失行為而追究刑事責(zé)任。
2.人工智能機(jī)器人所有者的刑事責(zé)任
除了人工智能機(jī)器人的制造者以外,還可以追究人工智能機(jī)器人所有者的監(jiān)督過失責(zé)任。在監(jiān)督過失中,最終的危害結(jié)果并非監(jiān)督者直接造成的,而是被監(jiān)督者的行為或者第三人的行為造成的。人工智能機(jī)器人的所有者是否承擔(dān)過失責(zé)任。主要在于能否認(rèn)定所有者對人工智能機(jī)器人是否具有保證人的地位,以及是否具有監(jiān)管的保證義務(wù)。如果人工智能機(jī)器人的所有者有防止人工智能侵害法益行為的可能性,就可以承認(rèn)所有者的保證人地位。
人工智能機(jī)器人在制造者生產(chǎn)完畢以后,經(jīng)過流通環(huán)節(jié),將人工智能機(jī)器人的所有權(quán)轉(zhuǎn)移給所有者。此時(shí),對人工智能機(jī)器人的監(jiān)管義務(wù)隨著所有權(quán)的轉(zhuǎn)移由制造者轉(zhuǎn)移給了所有者,所有者被賦予保證人的地位,所有者在發(fā)生操作錯(cuò)誤時(shí),應(yīng)當(dāng)在可以預(yù)見的范圍內(nèi)采取合理措施制止機(jī)器人侵害法益的行為。如果所有者存在監(jiān)督過失,在合理預(yù)見的范圍內(nèi)未能盡到管理和監(jiān)督的保證義務(wù)應(yīng)承擔(dān)相應(yīng)的責(zé)任。比如,人工智能機(jī)器人管家在接到客人來訪的信號以后,誤將客人認(rèn)為是非法闖入者,錯(cuò)誤地攻擊客人。此時(shí),如果人工智能機(jī)器人管家的所有者已經(jīng)發(fā)現(xiàn)并且能夠制止,但是未能采取有力的措施阻止人工智能機(jī)器人繼續(xù)傷人,則應(yīng)承擔(dān)相應(yīng)的過失責(zé)任。
四、結(jié)論
我們正經(jīng)歷的第四次科技革命的引領(lǐng)者是擁有人類智能所具有的學(xué)習(xí)、推理、論證等能力的人工智能機(jī)器人,人工智能機(jī)器人侵害法益的案件可能導(dǎo)致無法預(yù)測的損害結(jié)果。以規(guī)范人類行為為中心形成的傳統(tǒng)刑事司法體系和責(zé)任主義應(yīng)該如何面對是無法回避的問題。人工智能機(jī)器人屬于人類創(chuàng)造的物,其存在的價(jià)值在于為人類提供服務(wù),僅僅具有工具屬性,對人工智能機(jī)器人施加刑罰措施也沒有現(xiàn)實(shí)意義。目前,賦予人工智能機(jī)器人刑事主體地位,缺乏科學(xué)依據(jù)做支撐,也與其他法律規(guī)范難以協(xié)調(diào)一致,且具有倫理障礙。因此,在現(xiàn)階段承認(rèn)人工智能機(jī)器人具有獨(dú)立的刑事責(zé)任能力,賦予其刑事主體地位尚不具有現(xiàn)實(shí)可能性。將通用智能機(jī)器人作為與自然人并列的刑事責(zé)任主體存在較大難度,刑法對此應(yīng)堅(jiān)持謹(jǐn)慎、克制的態(tài)度。
鑒于現(xiàn)階段承認(rèn)人工智能機(jī)器人的刑事主體定位尚不具有現(xiàn)實(shí)可能性。人工智能機(jī)器人侵害法益案件可以根據(jù)實(shí)際情況歸責(zé)于人工智能機(jī)器人的制造者和所有者,或者非法侵入者。刑事責(zé)任主體的主觀過錯(cuò)主要是故意和過失兩類:如果人工智能機(jī)器人的制造者和所有者以及非法侵入者利用人工智能機(jī)器人作為工具從事犯罪活動(dòng),應(yīng)當(dāng)承擔(dān)相應(yīng)的故意犯罪刑事責(zé)任。如果人工智能機(jī)器人的制造者未盡到安全注意義務(wù)或者結(jié)果回避義務(wù),則應(yīng)承擔(dān)相應(yīng)的過失犯罪刑事責(zé)任;如果人工智能機(jī)器人的所有者未盡到管理義務(wù),則應(yīng)當(dāng)承擔(dān)監(jiān)督過失責(zé)任。
數(shù)字化革命不應(yīng)由立法者的臆想孤注一擲地應(yīng)對,而應(yīng)伴隨著謹(jǐn)慎、適度的法律演進(jìn)一同發(fā)展?,F(xiàn)在討論人工智能機(jī)器人的刑事責(zé)任還為時(shí)過早,刑法學(xué)應(yīng)立足于科學(xué)發(fā)展進(jìn)程,與其他前置性的法律規(guī)范及社會(huì)倫理等保持協(xié)調(diào)一致。在社會(huì)發(fā)展過程中出現(xiàn)新問題、新情況時(shí),我們應(yīng)克服刑事立法沖動(dòng),將目光穿梭于新情況與“舊”規(guī)范之間,善于從既有的刑事法律規(guī)范體系中尋求解決方案。