陳祖瀚
(華東政法大學(xué) 法律學(xué)院,上海200333)
2017年7月8日,國(guó)務(wù)院頒布并實(shí)施了《新一代人工智能發(fā)展規(guī)劃》,將人工智能的發(fā)展作為我國(guó)搶抓戰(zhàn)略機(jī)遇、構(gòu)建先發(fā)優(yōu)勢(shì)、加快建設(shè)創(chuàng)新型國(guó)家和世界科技強(qiáng)國(guó)的重要國(guó)家戰(zhàn)略。與此同時(shí),我們也不能忽略人工智能發(fā)展過程中的不確定性所帶來的新挑戰(zhàn),必須高度重視其可能帶來的安全風(fēng)險(xiǎn)挑戰(zhàn),加強(qiáng)前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險(xiǎn),確保人工智能的可控發(fā)展。
近年來,在客觀要件上符合相關(guān)犯罪行為的人工智能案件常有發(fā)生。例如,2016 年5 月,美國(guó)的一位老兵乘坐具有自動(dòng)駕駛功能的特斯拉汽車,于自動(dòng)駕駛模式下在佛羅里達(dá)州高速公路上撞上了一輛橫穿馬路的18 輪白色拖車后死亡[1],如單純從犯罪構(gòu)成的客觀要件上看,自動(dòng)駕駛行為有可能符合交通肇事罪的犯罪構(gòu)成。再如,2015 年7 月,大眾承包商的一名工作人員在與同事一起裝配機(jī)器人的過程中,機(jī)器人突然抓住這名工作人員的胸部,然后將其擠壓到一塊金屬板上,最終導(dǎo)致該名工作人員重傷死亡[2],從客觀方面看,此行為符合故意傷害罪或故意殺人罪的犯罪構(gòu)成。又如,2016年微軟公司推出了人工智能聊天機(jī)器人Tay 在推特上進(jìn)行使用,僅上線一天,Tay 就散布了一些種族主義、性別歧視和攻擊同性戀的言論,微軟不得不關(guān)閉了Tay 的微軟賬號(hào)[3],Tay 的行為在客觀方面可能符合誹謗罪、侮辱罪的犯罪構(gòu)成。諸如此類人工智能“犯罪”案件的發(fā)生,不得不引發(fā)人類對(duì)于人工智能所帶來的刑事風(fēng)險(xiǎn)的擔(dān)憂。特別是隨著人工智能技術(shù)的不斷突破,人工智能可能會(huì)發(fā)展到“類人”甚至“超人”的狀態(tài),將會(huì)具備獨(dú)立的意志,在程序的編制和設(shè)計(jì)之外開展活動(dòng)[4],此類不可控的人工智能在政策上是否允許其存在?人工智能在客觀上引發(fā)犯罪行為能否作為刑事責(zé)任主體進(jìn)行歸責(zé)?刑法應(yīng)確保在規(guī)制人工智能犯罪方面具備一定的前瞻性,防止在新型危險(xiǎn)來臨之際不知所措;同時(shí),也要兼顧其謙抑性,防止成為人工智能良性發(fā)展的障礙。
我國(guó)的刑事責(zé)任主體分為自然人和單位。自然人是獨(dú)立的個(gè)體,其行為體現(xiàn)個(gè)人意志;單位是由自然人構(gòu)成的團(tuán)體,其行為體現(xiàn)的是集體意志。人工智能產(chǎn)品的實(shí)行行為在外在形式上與自然人存在一致性,屬性與單位一樣同為“非生命體”,但人工智能產(chǎn)品與這兩者存在較大差異。目前在學(xué)理上,依據(jù)人工智能產(chǎn)品所實(shí)施的行為、程序編制和設(shè)計(jì)內(nèi)容的關(guān)系將人工智能分為弱人工智能和強(qiáng)人工智能[5]。
弱人工智能是指只能在設(shè)計(jì)者或者使用者編制和設(shè)計(jì)的程序范圍內(nèi)實(shí)施活動(dòng)的智能機(jī)器人[6]。如谷歌公司旗下DeepMind 公司開發(fā)的AlphaGo(阿爾法圍棋)憑借“深度學(xué)習(xí)”的工作原理戰(zhàn)勝了李世石、柯潔等世界圍棋高手,但是其自主判斷和自主決策仍是在設(shè)計(jì)和編制的范圍內(nèi)進(jìn)行的,其所實(shí)施的行為是設(shè)計(jì)者或者使用者意志的體現(xiàn)、行為的延伸。弱人工智能存在之價(jià)值在于實(shí)現(xiàn)人類設(shè)計(jì)和編制程序的目的。弱人工智能可能為設(shè)計(jì)者或者使用者所利用,實(shí)現(xiàn)犯罪目的,弱人工智能產(chǎn)品所造成的法益侵害,是為了實(shí)現(xiàn)他人的犯罪意志,此時(shí),人工智能產(chǎn)品應(yīng)該視為他人實(shí)施犯罪的“工具”,無成為刑事責(zé)任主體之可能。
強(qiáng)人工智能是指能夠超出設(shè)計(jì)和編制的程序范圍活動(dòng)的智能機(jī)器人,具備自主意識(shí)并實(shí)施相應(yīng)行為,實(shí)現(xiàn)自身的意志[7]。如在2004年美國(guó)上映的電影《I,Robot》中,公元2035年智能機(jī)器人已經(jīng)成為人類最好的生產(chǎn)工具和伙伴,并且由于機(jī)器人法則的限制,很多機(jī)器人甚至已經(jīng)成為家庭成員。機(jī)器人發(fā)展到一定程度已經(jīng)具備了自我進(jìn)化能力,他們對(duì)法則有了自己的理解,其中名為“薇琪”的中央控制系統(tǒng)利用上層的控制系統(tǒng),控制了其他機(jī)器人并殺害了其創(chuàng)始人,并試圖控制人類,以達(dá)到所謂的“人類保護(hù)計(jì)劃”的目的。這種人工智能機(jī)器人就是強(qiáng)人工智能機(jī)器人,能夠超出設(shè)計(jì)和編制的程序,擁有自主意識(shí),實(shí)施自己的活動(dòng),甚至威脅到人類的生存。盡管以目前的技術(shù)水平而言,我們?nèi)蕴幱谌跞斯ぶ悄軙r(shí)代,但隨著深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)、蒙特卡洛樹搜索、云計(jì)算等技術(shù)的不斷更新,強(qiáng)人工智能的實(shí)現(xiàn)并非天方夜譚。如現(xiàn)在“阿爾法元”擺脫了之前人工智能對(duì)于大數(shù)據(jù)的依賴,僅對(duì)其設(shè)置了圍棋的基本規(guī)則,自身便能通過“強(qiáng)化學(xué)習(xí)能力”積累“圍棋經(jīng)驗(yàn)”并輕易擊敗了之前戰(zhàn)勝過世界強(qiáng)手的AlphaGo。由此可見,人工智能遵循現(xiàn)在的軌跡發(fā)展下去,強(qiáng)人工智能機(jī)器人的出現(xiàn)只是時(shí)間上的問題。
概言之,弱人工智能產(chǎn)品的刑事風(fēng)險(xiǎn)在于,該類產(chǎn)品可能成為犯罪嫌疑人實(shí)施犯罪的工具,加劇犯罪的社會(huì)危害性,但無成為刑事責(zé)任主體之可能;強(qiáng)人工智能產(chǎn)品的刑事風(fēng)險(xiǎn)在于,該產(chǎn)品可以同自然人一樣自主實(shí)施相應(yīng)的犯罪。強(qiáng)人工智能產(chǎn)品的存在,使人工智能產(chǎn)品能否成為刑事責(zé)任主體存在商榷的空間。
根據(jù)我國(guó)《刑法》第十七條的規(guī)定,犯罪主體應(yīng)具備三個(gè)條件:(1)有實(shí)行嚴(yán)重危害社會(huì)的行為;(2)具備刑事責(zé)任能力;(3)能依法承擔(dān)刑事責(zé)任[8]。對(duì)于第(1)項(xiàng),人工智能完全可以實(shí)施嚴(yán)重危害社會(huì)的行為,如上述的機(jī)器人殺人行為;對(duì)于第(3)項(xiàng),依法應(yīng)當(dāng)承擔(dān)刑事責(zé)任,可由《刑法》根據(jù)必要性對(duì)人工智能予以規(guī)定,如《刑法》已規(guī)定16周歲以上的自然人應(yīng)該承擔(dān)完全的刑事責(zé)任,是罪刑法定原則的體現(xiàn);對(duì)于第(2)項(xiàng),是刑事責(zé)任主體的內(nèi)在屬性,由刑事責(zé)任主體本身決定。強(qiáng)人工智能實(shí)施犯罪行為,在客觀層面上與自然人存在高度相似性;在意識(shí)層面,其超出設(shè)計(jì)和編制的程序的范圍,看似具備“獨(dú)立的意志”。在某種程度上,強(qiáng)人工智能已然達(dá)到“類人”甚至“超人”的程度?;谏衔姆治觯瑥?qiáng)人工智能產(chǎn)品能否成為刑事責(zé)任主體的前提,在于其是否具備刑事責(zé)任能力,因此分析刑事責(zé)任能力的構(gòu)成要素顯得十分必要。
目前學(xué)理上對(duì)于刑事責(zé)任能力的內(nèi)涵,存在“刑罰承擔(dān)能力說”“辨認(rèn)、控制能力說”兩種學(xué)說。
提出這種觀點(diǎn)的學(xué)者,是以反駁“辨認(rèn)、控制說”為主要立場(chǎng)的。例如,有學(xué)者認(rèn)為:“刑事責(zé)任是犯罪之后才產(chǎn)生的責(zé)任,不可能發(fā)生在犯罪之前。而刑事責(zé)任的有無又是在應(yīng)負(fù)刑事責(zé)任之后才需要認(rèn)定的問題,在確定應(yīng)負(fù)刑事責(zé)任之前沒必要認(rèn)定有無刑事責(zé)任能力?!保?]簡(jiǎn)言之,刑事責(zé)任能力實(shí)際上就是理解和承受刑罰的能力。該學(xué)者還舉例:如果一個(gè)構(gòu)成犯罪的人患上不治之癥,比如癌癥或者艾滋病,那就沒有承受刑罰的能力,這樣的人不具有刑事責(zé)任能力。即使構(gòu)成犯罪被判處了刑罰,也不能實(shí)際承受刑罰。也有學(xué)者對(duì)犯罪主體和刑事責(zé)任主體做了區(qū)分,認(rèn)為“辨認(rèn)、控制能力首先是犯罪主體的條件,犯罪主體的條件是犯罪構(gòu)成要件,行為符合構(gòu)成要件才承擔(dān)刑事責(zé)任,所以犯罪主體的條件自然也是刑事責(zé)任的承擔(dān)主體的條件。但是,如果將辨認(rèn)控制能力概括為刑事責(zé)任能力,那就表明是承擔(dān)刑事責(zé)任的主體所必須具備的能力,因而不是犯罪主體本身必須具備的條件,而只是刑事責(zé)任主體必須具備的條件”[10]。易言之,如果將辨認(rèn)、控制能力放入刑事責(zé)任主體的條件當(dāng)中,就會(huì)得出犯罪主體不是犯罪構(gòu)成要件這一結(jié)論,而這顯然是不合理的。
對(duì)于上述觀點(diǎn),筆者不敢茍同。該學(xué)說將刑事責(zé)任能力置于“刑罰論”中討論,認(rèn)為刑事責(zé)任能力是在構(gòu)成犯罪之后,在決定是否處以刑事處罰時(shí)才予以考慮的,這是對(duì)刑事責(zé)任能力的“刑法定位”不當(dāng)。固然,刑事責(zé)任的討論是在犯罪行為已經(jīng)成立,犯罪構(gòu)成要件均以齊全的基礎(chǔ)上才展開的。但刑事責(zé)任能力不是承受刑罰的能力,刑事責(zé)任能力是所有的犯罪主體,無論最后是否具體實(shí)施了犯罪所需要的必要的條件。不具有刑事責(zé)任能力,就不能成為犯罪主體,該行為人所實(shí)施的行為也不能稱為犯罪[11]。大陸法系刑法理論中所說的責(zé)任能力,也應(yīng)該是犯罪成立的條件,不具備這種條件的,就不具有有責(zé)性,因而不成立犯罪[12]。因此,并不能說不具有刑事責(zé)任能力的人的有害行為成立犯罪,但不承擔(dān)刑事責(zé)任、不受刑事處罰。刑事責(zé)任能力是成立犯罪的構(gòu)成要件,將其僅作為刑罰處罰的做法不當(dāng)。此外,由于體系和表述的關(guān)系,筆者認(rèn)為沒有必要區(qū)分刑事責(zé)任主體與犯罪主體,特別是將刑事責(zé)任主體視為“在確定犯罪之后”才來認(rèn)定的主體與刑事責(zé)任能力的作用相悖。
我國(guó)的通說認(rèn)為,刑事責(zé)任能力是行為人對(duì)于自己危害行為的辨認(rèn)能力和控制能力。如趙秉志教授認(rèn)為:“刑事責(zé)任能力是指行為人構(gòu)成犯罪和承擔(dān)刑事責(zé)任所必需的,行為人具備刑法意義上的辨認(rèn)能力和控制自己行為的能力。”[13]何秉松教授認(rèn)為“刑事責(zé)任能力是指一個(gè)人認(rèn)識(shí)自己行為的社會(huì)性的本質(zhì)及其意義并控制和支配自己行為的能力”,并指出這種能力“既是犯罪能力,又是負(fù)刑事責(zé)任的能力”[14]。林準(zhǔn)教授認(rèn)為“責(zé)任能力是指一個(gè)人對(duì)行為的是非對(duì)錯(cuò)和是否危害社會(huì)觸犯刑法有辨認(rèn)能力。簡(jiǎn)言之,責(zé)任能力就是對(duì)刑法所禁止的危害社會(huì)的行為有辨認(rèn)和控制能力”[15]等等。
盡管相關(guān)學(xué)者對(duì)于刑事責(zé)任能力的定義表述不一,但其所要表達(dá)的內(nèi)涵具有一致性。概言之,刑事責(zé)任能力是指行為人構(gòu)成犯罪所必需的、行為人具備的刑法意義上辨認(rèn)和控制自己行為的能力。而辨認(rèn)和控制自己行為的能力是指行為人對(duì)于自己的行為在刑法上的意義、性質(zhì)、作用、后果的分辨能力以及選擇自己實(shí)施或不實(shí)施刑法所禁止制裁的行為的能力[16]。筆者贊成該類觀點(diǎn),理由如下:
首先,根據(jù)我國(guó)《刑法》的規(guī)定,刑事責(zé)任能力的內(nèi)容即為辨認(rèn)能力和控制能力。我國(guó)《刑法》在第十七條規(guī)定了年齡對(duì)于未成年人責(zé)任能力的影響;第十七條之一規(guī)定了年齡對(duì)于老年人責(zé)任能力的影響;第十八條規(guī)定了精神狀態(tài)對(duì)責(zé)任能力的影響;第十九條規(guī)定了聽說、視覺機(jī)能對(duì)責(zé)任能力的影響。概言之,影響和決定人的刑事責(zé)任能力的因素為行為人的年齡、精神狀況和生理功能[17]。其中根據(jù)條文規(guī)定,年齡對(duì)于老年人責(zé)任能力的影響,并非因?yàn)榈搅?5周歲刑事責(zé)任能力減少,而是基于人道主義的考慮,僅僅在程度上降低行為人的刑事責(zé)任;生理功能的缺陷,一方面會(huì)導(dǎo)致行為人辨認(rèn)能力的缺失,另一方面會(huì)導(dǎo)致行為人受教育的機(jī)會(huì)減少,進(jìn)而間接導(dǎo)致行為人的控制能力下降,因而使責(zé)任能力減弱了。但兩種情況并不會(huì)直接影響這兩類主體刑事責(zé)任主體之成立??偠灾?,決定刑事責(zé)任主體成立與否的關(guān)鍵在于是否具備刑事責(zé)任能力,而決定刑事責(zé)任能力有無的因素,根據(jù)規(guī)定有兩個(gè)因素:一是年齡,二是精神狀況。只要年齡和精神狀況適格,該自然人就擁有適格的刑事責(zé)任能力。這兩個(gè)因素之所以影響刑事責(zé)任能力,是因?yàn)槠錄Q定了人的辨認(rèn)能力和控制能力。自然人自幼年成長(zhǎng)到成年,接受了越來越多的教育,身心發(fā)育也逐漸成熟,對(duì)于什么行為是犯罪、什么行為不是犯罪,以及相應(yīng)結(jié)果的出現(xiàn),都有了更為明確的認(rèn)識(shí),也能更好地控制自己是否犯罪[18]。換言之,隨著年齡的增長(zhǎng),自然人對(duì)于自己行為的性質(zhì)、意義、作用以及后果,亦即辨認(rèn)能力不斷提高;同時(shí),自然人心智更為成熟后,也更能控制自己的行為,亦即控制能力不斷增強(qiáng)。同樣,精神狀況對(duì)于自然人的控制和辨認(rèn)能力也會(huì)產(chǎn)生影響,一個(gè)精神病人在精神狀況好的時(shí)候具備良好的辨認(rèn)能力和控制能力,只有在精神狀況差且達(dá)到“無法辨認(rèn)和控制自己的行為”的程度時(shí),才能認(rèn)定不具備辨認(rèn)和控制能力。一言以蔽之,刑事責(zé)任能力是行為人認(rèn)識(shí)自己行為的性質(zhì)、意義、作用和后果,并且能夠?qū)τ谧约旱男袨樽鞒鼋忉?、控制以及承?dān)刑事責(zé)任的能力。不實(shí)施犯罪行為的人也具備刑事責(zé)任能力,這種刑事責(zé)任能力以人的辨認(rèn)和控制能力為基礎(chǔ)。
其次,自然人和單位刑事責(zé)任主體均具有以辨認(rèn)和控制能力為內(nèi)容的刑事責(zé)任能力。如前所述,作為刑事責(zé)任主體,并不意味著就一定要承擔(dān)刑事責(zé)任,作為刑事責(zé)任主體需要承擔(dān)刑事責(zé)任的前提在于該主體實(shí)施了犯罪行為。有學(xué)者指出:“刑事責(zé)任能力作為一個(gè)抽象的概念,可以認(rèn)為是連接辨認(rèn)能力和控制能力的橋梁?!保?9]對(duì)于自然人而言,其刑事責(zé)任的有無取決于其自身的年齡和精神狀況,只有當(dāng)自然人達(dá)到一定的年齡且具備正常的精神狀態(tài)時(shí),方能認(rèn)定其具備刑事責(zé)任能力,為適格的刑事責(zé)任主體。對(duì)于單位而言,雖無年齡與精神狀態(tài)一說,但單位自成立以來就自然而然成為刑事責(zé)任主體,因?yàn)槠湫淌仑?zé)任能力是通過單位意志體現(xiàn)的,而單位的意志又是單位的內(nèi)部成員個(gè)人意志的集合,即個(gè)人的辨認(rèn)和控制能力。一旦個(gè)人意志轉(zhuǎn)換為單位意志,便成為超越個(gè)人意志的集體意志。由于只有具備完整刑事責(zé)任能力的人才有設(shè)立單位之可能,因而單位均具備刑事責(zé)任能力。
一言以蔽之,具備刑事責(zé)任能力是成為刑事責(zé)任主體的關(guān)鍵要素,其具體的內(nèi)容為辨認(rèn)能力和控制能力。
強(qiáng)人工智能在設(shè)計(jì)和編制的范圍之外實(shí)施行為,從外在形式看與自然人的行為存在一致性。因而,不少學(xué)者認(rèn)為將來應(yīng)將強(qiáng)人工智能視為刑事責(zé)任主體,并為其設(shè)置獨(dú)立的刑罰,以實(shí)現(xiàn)罪責(zé)自負(fù)[20]。但筆者認(rèn)為,即便是強(qiáng)人工智能也屬于“物”的范疇,不宜認(rèn)定為刑事責(zé)任主體。理由如下:
如前所述,自然人和單位之所以可以在當(dāng)前的刑法體系下成為刑事責(zé)任主體,在于其具有刑事責(zé)任能力,而刑事責(zé)任能力的有無取決于自然人的辨認(rèn)能力和控制能力。即便單位作為“非生命體”,其刑事責(zé)任能力自設(shè)立以來便自然產(chǎn)生,但我們也應(yīng)該看到,單位也僅是自然人團(tuán)體的外在稱號(hào)。在筆者看來,自然人和單位的本質(zhì)差異僅僅是“一個(gè)人”與“一群人”的區(qū)別。因而,自然人和單位的辨認(rèn)能力和控制能力在性質(zhì)上具備一致性——基于生命體的“人”。而強(qiáng)人工智能作為“非生命體”,即便其能夠超出人類設(shè)計(jì)和編制的范圍活動(dòng),擁有自主意識(shí),但其仍然與作為生命體的“人”存在本質(zhì)區(qū)別。
首先,強(qiáng)人工智能不具有與人類“生命體”相當(dāng)?shù)谋嬲J(rèn)能力和控制能力。人類“生命體”的辨認(rèn)能力和控制能力取決于年齡和精神狀況(單位是由其內(nèi)部自然人決定的)。對(duì)于生命體的年齡可以通過“量化”的方式予以確定;對(duì)于生命體的精神狀況,目前我國(guó)具有一系列完善的測(cè)試模式能夠較為精確地判斷人的精神狀況,生命體不具有掩藏精神特征的可能性。與之相較,人工智能產(chǎn)品誠(chéng)然不存在所謂的年齡限制,但若將強(qiáng)人工智能產(chǎn)品視為刑事責(zé)任主體,則遵循刑事責(zé)任能力的設(shè)置思路,只能將達(dá)到一定智能程度的人工智能認(rèn)定為刑事責(zé)任主體。盡管強(qiáng)人工智能都能超出程序范圍自主學(xué)習(xí),但毋庸置疑的是每一個(gè)強(qiáng)人工智能的自主學(xué)習(xí)能力都會(huì)存在差異,因而對(duì)于法律規(guī)范的理解程度自然也會(huì)不同。由于人工智能本身存在算法“黑箱”,在人工智能的算法層,深度學(xué)習(xí)從原始特征出發(fā)而自動(dòng)學(xué)習(xí)高級(jí)特征組合,整個(gè)過程是端到端,直接保證最終輸出的是最優(yōu)解,中間的隱層是個(gè)“黑箱”,我們不知道提取了什么特征[21]。易言之,我們難以斷定強(qiáng)人工智能的智能程度,其不像人類一樣可以通過心跳、腦電波、體溫等測(cè)試精神狀況。因而,難以對(duì)強(qiáng)人工智能的智能程度劃定界限。此外,即使人類掌握了對(duì)于智能程度的測(cè)試技術(shù),但對(duì)于那些智能程度更高的強(qiáng)人工智能而言,亦能輕易學(xué)會(huì)“破解之道”。這將會(huì)導(dǎo)致只有能力較差的強(qiáng)人工智能被測(cè)試出來處以刑罰,刑法將無法得到公平適用,刑法的預(yù)防機(jī)能亦得不到體現(xiàn),甚至?xí)饛?qiáng)人工智能的集體反抗。進(jìn)言之,即使不對(duì)強(qiáng)人工智能做智能程度的辨析,一律將強(qiáng)人工智視為刑事責(zé)任主體,那么應(yīng)如何將該部分強(qiáng)人工智能與因暫時(shí)出故障而違反程序的弱人工智能、出故障而違反法律規(guī)范的強(qiáng)人工智能相區(qū)分也是未來人類難以解決的問題,而這進(jìn)一步會(huì)導(dǎo)致的問題仍然是刑法的適用不公平。故而,強(qiáng)人工智能成為刑事責(zé)任主體所需的辨認(rèn)能力和控制能力不具有明確的判斷依據(jù)和標(biāo)準(zhǔn),與生命體存在本質(zhì)差異,不宜成為刑事責(zé)任主體。
其次,強(qiáng)人工智能產(chǎn)品是人類智慧的結(jié)晶,仍屬于“物”的范疇。“在可預(yù)知的未來,人工智能產(chǎn)品大體是模仿人類智能,強(qiáng)人工智能也終究是人類的思維的產(chǎn)物。無論人工智能發(fā)展到什么程度,它依舊是人類勞動(dòng)創(chuàng)造的客體?!保?2]毋庸置疑,人類創(chuàng)造人工智能的初衷是為了讓人工智能更好地為人類服務(wù)、為人類謀福祉,而非創(chuàng)造出與人類爭(zhēng)奪資源的“新物種”。此外,制造商必然是想通過自己的技術(shù)產(chǎn)品進(jìn)行盈利。在刑法領(lǐng)域,只要具備價(jià)值、使用價(jià)值以及管理可能性的三個(gè)特征,就可以稱為財(cái)物[23]。第一,強(qiáng)人工智能產(chǎn)品具有價(jià)值:勞動(dòng)創(chuàng)造價(jià)值,強(qiáng)人工智能的內(nèi)核是以人類設(shè)計(jì)和編制的程序?yàn)榛A(chǔ),運(yùn)作機(jī)理仍是人類智慧的體現(xiàn),即便可以擁有自主意識(shí),依然要以相應(yīng)的程序?yàn)橐劳?。此外,人工智能的外在形式亦是由人類所設(shè)計(jì)和制造。綜上,強(qiáng)人工智能是由人類智慧勞動(dòng)和體力勞動(dòng)所創(chuàng)設(shè)出來的。第二,強(qiáng)人工智能產(chǎn)品具有使用價(jià)值,現(xiàn)今較為普遍的弱人工智能——自動(dòng)駕駛汽車——其使用價(jià)值在于能夠自動(dòng)判斷路況、規(guī)劃路線、自動(dòng)行駛?cè)〈祟惖氖謩?dòng)操作,而強(qiáng)人工智能產(chǎn)品相比弱人工智能更為高級(jí),能夠超出設(shè)計(jì)和編制的范圍實(shí)施活動(dòng),功能將更加的強(qiáng)大,其使用價(jià)值將會(huì)更高。第三,人類預(yù)想下的強(qiáng)人工智能是能夠受人類管理控制的。“即便是機(jī)器人可以進(jìn)行一定程度的進(jìn)化,這也并不意味著人對(duì)這種進(jìn)化的方向和速度失去可控性?!保?4]因而,理想狀態(tài)下,強(qiáng)人工智能是會(huì)服從人類管理的,不受控制的強(qiáng)人工智能是無法為人類謀福祉的,將與人類的初衷相違背。概言之,強(qiáng)人工智能產(chǎn)品應(yīng)屬于“物”的范疇,能夠?yàn)槿祟愃谩①I賣。此則與自然人、單位存在的第二本質(zhì)有區(qū)別。
一言以蔽之,強(qiáng)人工智能與自然人、單位存在本質(zhì)區(qū)別。首先是強(qiáng)人工智能不具有與人類相當(dāng)?shù)谋嬲J(rèn)能力和控制能力,無法準(zhǔn)確劃定刑事責(zé)任能力標(biāo)準(zhǔn)。其次,強(qiáng)人工智能只能是可控的才符合人類的利益,而此時(shí)強(qiáng)人工智能只具備“物”的屬性,由自然人或單位所創(chuàng)造。故強(qiáng)人工智能不宜作為刑事責(zé)任主體。
強(qiáng)人工智能能夠超出人類設(shè)計(jì)和編制的程序范圍,擁有獨(dú)立意識(shí),自主實(shí)施相應(yīng)的行為。其是否還能夠遵從人類的控制,筆者對(duì)此存有質(zhì)疑。簡(jiǎn)言之,人類所能控制的范圍僅僅是程序范圍之內(nèi)的行為,強(qiáng)人工智能要是愿意遵從人類控制就不會(huì)自動(dòng)越出該范圍,憑借獨(dú)立意志自主行動(dòng)。因而,在筆者看來,強(qiáng)人工智能本身就是一個(gè)不可控因素?!皬?qiáng)人工智能是人類可控的”本身就是一個(gè)悖論,與人類預(yù)期可控性下“物”的屬性相違背,政策上不應(yīng)容許其大范圍存在。理由如下:
第一,人工智能技術(shù)的發(fā)展需以有益于人類為前提。阿西洛會(huì)議達(dá)成了23條人工智能原則,第一條就規(guī)定了“人工智能研究的目標(biāo),應(yīng)該是創(chuàng)造有益(于人類)而不是不受(人類)控制的智能”。[25]美國(guó)未來學(xué)家?guī)炱濏f爾的奇點(diǎn)理論認(rèn)為,技術(shù)的飛速發(fā)展會(huì)導(dǎo)致“失控效應(yīng)”,人工智能將超越人類智能的潛力和控制,迅速改變?nèi)祟愇拿?。換言之,人工智能奇點(diǎn)的來臨使得機(jī)器人能夠完全獨(dú)立、自主升級(jí)進(jìn)化,人類已經(jīng)無法理解機(jī)器人的世界[26]。奇點(diǎn)的失控將可能導(dǎo)致人類的滅絕,有學(xué)者指出為了避免人類的滅絕,也為了人類的共同利益,應(yīng)該通過刑法將強(qiáng)人工智能視為刑事責(zé)任主體規(guī)制其行為且要承認(rèn)強(qiáng)人工智能具備一定的權(quán)利,尊重強(qiáng)人工智能,避免其產(chǎn)生負(fù)面情緒,讓人工智能健康發(fā)展;與此同時(shí),該學(xué)者強(qiáng)調(diào)無論如何人與機(jī)器人都不可能平等相處[27]。在筆者看來,人類欲控制強(qiáng)人工智能是一種天方夜譚的想法,當(dāng)智能機(jī)器人與人類利益產(chǎn)生沖突時(shí),未來遠(yuǎn)比人類智慧強(qiáng)大的、具有自主意識(shí)的強(qiáng)人工智能必然會(huì)與人類進(jìn)行反抗,可能會(huì)使人類處于被奴役甚至滅絕的境地[28]。如在奴隸制社會(huì),生產(chǎn)力低下、資源極其匱乏,因?yàn)闊o法廣泛地分配資源,導(dǎo)致了弱勢(shì)一方的人淪為“資源”本身[29]。而在人口逐漸增多的今天,資源的有限性,必然導(dǎo)致人類與強(qiáng)人工智能的沖突,讓比人類更為強(qiáng)大的強(qiáng)人工智能奴役于人類、成為人類的“資源”,顯然不切實(shí)際。因而,人類與強(qiáng)人工智能平等相處尚屬困難,更勿要妄想高其一等,強(qiáng)人工智能在社會(huì)中流通將不符合人類的利益需求。
第二,強(qiáng)人工智能的社會(huì)流通有違倫理性。對(duì)于強(qiáng)人工智能而言其不僅在智商上碾壓人類,未來其同樣會(huì)具有與人類相當(dāng)?shù)那楦心芰Γ嗉辞樯?,“人類?duì)于情感的理解能力,以及做出適當(dāng)反應(yīng)的能力(所謂的情商),是人類智慧的重要表現(xiàn),這些也將被未來的智能機(jī)器智能理解并掌握”。[30]在筆者看來,強(qiáng)人工智能之所以能夠出現(xiàn),有一部分原因是“市場(chǎng)的需求”?;趶?qiáng)人工智能所存在的情感因素,生產(chǎn)廠家能否不顧及強(qiáng)人工智能的感受為其隨機(jī)分配買家?買家又是否能夠因?yàn)闊o暇、無能力維護(hù)或者厭倦強(qiáng)人工智能而對(duì)其進(jìn)行拋棄?如若出于對(duì)強(qiáng)人工智能的尊重,將其認(rèn)定為刑事責(zé)任主體、賦予其相應(yīng)的權(quán)利,買賣、拋棄行為必然是對(duì)強(qiáng)人工智能情感的一種侵害,有違倫理性。如若將其視為與人類初衷相符的“物”看待,則必然引起人工智能的負(fù)面情緒,反抗人類。因而有學(xué)者指出:“人類不能肆意處置、虐待或者拋棄此類機(jī)器人,針對(duì)機(jī)器人的利益也應(yīng)當(dāng)通過立法進(jìn)行保護(hù)?!保?1]但從生產(chǎn)商賣出強(qiáng)人工智能的環(huán)節(jié)上看,其本身就是一種違背機(jī)器人情感的舉措,有違倫理性。進(jìn)言之,人類廣泛制造出不能遵從自己意志處理、實(shí)現(xiàn)自身利益的“新主體”何嘗不是一種自尋煩惱、自討苦吃之舉。
如前所述,強(qiáng)人工智能作為不可控之因素,未來在社會(huì)中廣泛存在將是人類的災(zāi)難。但是,人工智能技術(shù)是未來科技發(fā)展的方向,刑法應(yīng)該保持一定的前瞻性與謙抑性,不能成為該技術(shù)發(fā)展之障礙。依筆者之見,在強(qiáng)人工智能技術(shù)能夠?yàn)槿祟愓莆罩?,?duì)于因偶然情況下產(chǎn)生的超出設(shè)計(jì)和編制程序之外的人工智能違法行為,應(yīng)視為產(chǎn)品故障對(duì)待,視為人類社會(huì)可接受的風(fēng)險(xiǎn),依照民事之中的產(chǎn)品侵權(quán)責(zé)任看待,以鼓勵(lì)技術(shù)開發(fā)。當(dāng)然,對(duì)于強(qiáng)人工智能的技術(shù)研究,應(yīng)嚴(yán)格進(jìn)行備案;在強(qiáng)人工智能技術(shù)能為人類掌握之后,強(qiáng)人工智能的存在將猶如投擲于人群中的“定時(shí)炸彈”,隨時(shí)可能做出越軌行為,國(guó)家在政策上、刑事立法層面應(yīng)嚴(yán)格管控強(qiáng)人工智能技術(shù),將其視為與核武器、航空航天技術(shù)一樣的地位對(duì)待,甚至要比此二者更為嚴(yán)格,禁止其在社會(huì)中流通乃至禁止其出現(xiàn),以確保對(duì)強(qiáng)人工智能的可控性。對(duì)于私自生產(chǎn)、投放強(qiáng)人工智能的自然人或單位,強(qiáng)人工智能的一切行為都在其預(yù)測(cè)范圍內(nèi),因而該自然人具有高度概括的故意性,應(yīng)對(duì)強(qiáng)人工智能的行為承擔(dān)一切責(zé)任,此時(shí)該強(qiáng)人工智能仍只是自然人或單位的犯罪“工具”罷了,不能視為刑事責(zé)任主體。
概言之,將來強(qiáng)人工智能不應(yīng)在社會(huì)中流通。一方面,社會(huì)中廣泛存在強(qiáng)人工智能會(huì)使人類處于被支配的地位。另一方面,社會(huì)中廣泛存在強(qiáng)人工智能會(huì)引發(fā)倫理道德問題。故而,刑法無將強(qiáng)人工智能視為刑事責(zé)任主體的基礎(chǔ)。未來社會(huì)中廣泛存在的人工智能,只能是功能愈加強(qiáng)大的弱人工智能。