賈健 魏博
隨著經(jīng)濟社會的發(fā)展,我國已經(jīng)進入了人工智能時代。2021 年6 月10 日,十三屆全國人大常委會第二十九次會議通過了數(shù)據(jù)安全法。①《數(shù)據(jù)安全法:護航數(shù)據(jù)安全,助力數(shù)字經(jīng)濟發(fā)展》,http://www.npc.gov.cn/npc/c36748/202106/5bb18ae096d540d286d f57c5639f035d.shtml,訪問日期:2022 年3 月5 日。2017 年12 月,習近平總書記在主持中央政治局第二次集體學(xué)習時強調(diào),實施國家大數(shù)據(jù)戰(zhàn)略,加快建設(shè)數(shù)字中國,推動制造業(yè)加速向數(shù)字化、網(wǎng)絡(luò)化、智能化發(fā)展。黨和國家的決策部署,為人工智能研究提供了路線指引。如何正確闡釋人工智能領(lǐng)域的法律問題,成為當下法學(xué)研究者和法律工作者的熱議主題。
馬克思曾指出:“社會不是以法律為基礎(chǔ)的。那是法學(xué)家們的幻想。相反地,法律應(yīng)該以社會為基礎(chǔ)?!雹凇恶R克思恩格斯全集》(第6 卷),人民出版社1961 年版,第291-292 頁。2017 年末,由總部位于香港的人工智能機器人公司Hanston Robotics 設(shè)計的“女性”機器人索菲亞(Sophia),已被沙特阿拉伯王國授予公民身份。③《首個被授予沙特公民身份的機器人索菲亞:用人工智能幫助人類過上更好的生活》,https://www.sohu.com/a/201851 127_612426,訪問日期:2022 年3 月5 日。2021 年6 月1 日,清華大學(xué)計算機系知識工程實驗室迎來了中國首個原創(chuàng)虛擬學(xué)生——華智冰,清華大學(xué)為她辦理了學(xué)生證和郵箱。①《中國首個虛擬學(xué)生入學(xué)!在清華大學(xué)計算機系,還會作詩作畫!》,https://mp.weixin.qq.com/s/Q0IfaAno5JrYBtcvMB pkMg,訪問日期:2022 年3 月5 日。在人工智能體蓬勃發(fā)展的當下,應(yīng)如何為人工智能體定性?人工智能體是否如同傳統(tǒng)機械一樣,屬于法律關(guān)系客體?亦或應(yīng)承認人工智能體擁有部分的法律關(guān)系主體地位,甚至承認其享有部分“法定人權(quán)”?對此,學(xué)界存在諸多觀點,理論共識尚未達成。經(jīng)歷了數(shù)年論戰(zhàn),“權(quán)利主體完全肯定論”作為一種過于“激進”的觀點,超出了當前社會的接受程度和科學(xué)技術(shù)的成熟度,目前已經(jīng)式微。但是,“權(quán)利主體完全否定論”及各種類型的“折中說”之間的論戰(zhàn)依舊如火如荼。
在中國知網(wǎng)以“人工智能主體”為檢索詞,以法學(xué)相關(guān)學(xué)科為檢索范圍,可檢索到期刊論文1600余篇,學(xué)位論文580 余篇。面對汗牛充棟的學(xué)說觀點,本文持一種積極而折中的觀點:既然邁入人工智能時代已經(jīng)不可避免,人們就沒有理由完全否認人工智能體的存在?!?045 年人工智能將全面超越人類”的“奇點臨近”預(yù)言②[美]雷·庫茲韋爾:《奇點臨近》,李慶誠、董振華、田源譯,機械工業(yè)出版社2011 年版,第80 頁。無論是否真實,現(xiàn)實中的人工智能體早已突破了原有的“工具”屬性。無論是為了保護人類免受“機器決定,人類擔責”的困擾,還是為了保護人工智能體,使之能更好地為人類服務(wù),人工智能體均應(yīng)被賦予法律關(guān)系主體地位。但是,由于弱人工智能時代的人工智能體仍然兼具部分工具屬性,這種權(quán)利“真空”究竟有多大范圍,應(yīng)該如何衡量?“隨著對生態(tài)環(huán)境法律保護研究的深入,越來越多的學(xué)者開始提倡應(yīng)賦予包括動物、植物、環(huán)境、自然和生態(tài)系統(tǒng)等非人類存在物的法律主體資格?!雹鄄苊鞯拢骸斗缮鷳B(tài)化趨勢初探》,《現(xiàn)代法學(xué)》2002 年第2 期。人工智能體在何種范圍內(nèi)也可以被授予這種“法定人權(quán)”或是“法律權(quán)利”,仍需深入探討。本文認為,上述問題主要可以分為如下幾個方面:其一,人工智能體是否應(yīng)該享有“法定人權(quán)”?其二,人工智能體成為法律關(guān)系主體是否有利于社會發(fā)展?其三,人工智能體究竟可以享有哪些“權(quán)利”?其四,刑法可以為這些“權(quán)利”提供何種保護?
回到前文事例中,我們究竟應(yīng)該如何與同為“公民”的索菲亞共同生活呢?又應(yīng)該如何與華智冰在同一間教室里學(xué)習呢?如果“他們”近在眼前,刑法又該如何保護他們呢?
我國社會需要加速朝向數(shù)字化、網(wǎng)絡(luò)化和智能化方向發(fā)展,為了使人工智能體能夠進一步提高生產(chǎn)效率,更好地為人類服務(wù),人權(quán)的內(nèi)涵和外延應(yīng)該相應(yīng)地進行擴展,將部分人工智能體的部分行為涵攝其中,并以法律形式固定下來。通過保護人工智能體的“權(quán)利訴求”,進而保護自然人的人權(quán)。本文擬從以下幾個方面對人工智能體的“法定人權(quán)”加以證成。④為了對人工智能體的“法定人權(quán)”這一新興權(quán)利進行證成,本文第二部分和第三部分參考了姚建宗教授的分析路徑,即(1)全新的權(quán)利概念及內(nèi)涵;(2)憲法及法律尚未普遍予以規(guī)定;(3)能夠滿足經(jīng)濟社會發(fā)展需要;(4)被人們廣泛認可;(5)在實踐中得到重視并予以有效保障。參見姚建宗:《新興權(quán)利論綱》,《法制與社會發(fā)展》2010 年第2 期。
“人權(quán)”就是人的權(quán)利、屬人的權(quán)利,它指的是人類能夠擁有或宣稱擁有的東西。換句話說,人權(quán)指的是人類認為自己是誰?!雹荩勖溃莞ダ饰魉埂じI剑骸段覀兊暮笕祟愇磥恚荷锛夹g(shù)革命的后果》,黃立志譯,廣西師范大學(xué)出版社2017 年版,第113 頁。通說認為,“法定人權(quán)”(或稱法律權(quán)利),與自然人權(quán)和應(yīng)有人權(quán)一道,構(gòu)成了人權(quán)的理論體系。從法定人權(quán)的角度出發(fā),賦予人工智能體地位,很大程度上是為了保護作為核心利益的自然人人權(quán)。具言之,人工智能體并不是人,但法律可以將人工智能體擬制為“法定人權(quán)”的主體。此種法律擬制,從本質(zhì)上而言,還是通過承認人工智能體的法律關(guān)系主體地位,進而保障自然人的人權(quán)及社會公共利益。在此,本文對相關(guān)質(zhì)疑回應(yīng)如下。
一方面,人工智能體享有擬制人權(quán)主體地位并不存在理論障礙。從一定程度上講,近現(xiàn)代法律已經(jīng)將諸多非人類主體擬制為人權(quán)主體。對此,德國民法學(xué)家漢斯·哈騰鮑爾曾言:“任何一個權(quán)利的主體者,尤其是人們將其稱為民事權(quán)利的主體的時候,立即成為法律上的人?!雹伲勖溃菁s翰·弗蘭克:《機器人也是人:人工智能時代的法律》,鄭志峰譯,元照出版有限公司2018 年版,序第2 頁。不僅僅在民事法律領(lǐng)域,在整個法律體系中,擬制為權(quán)利主體乃至擬制為“法定人權(quán)”的主體都是一個常用的法律技術(shù)手段。馬克斯·韋伯在論及法人制度時曾說:“法律技術(shù)上的一個解決辦法,便是法人概念的構(gòu)想?!?,因為所謂人,通常就是個法學(xué)概念?!雹冢鄣拢蓠R克斯·韋伯:《法律社會學(xué)》,康樂、簡惠美譯,廣西師范大學(xué)出版社2005 年版,第102 頁。有學(xué)者更是進一步指出:“我們現(xiàn)代的法制體系在對待某國家、某民族、某群體、某公司、某單位時,就好像在對待一個有血有肉的具體個人一樣,賦予這類非個人的龐大組織法律主體上的人格、意志、精神、權(quán)利、責任與義務(wù)?!雹壑茉敚骸吨悄軝C器人“權(quán)利主體論”之提倡》,《法學(xué)》2019 年第10 期。故而,從歷史角度考察,人工智能體成為擬制人權(quán)主體并非首例,人工智能體同國家、法人等概念一樣,同樣具備擬制為“法定人權(quán)”主體的理論基礎(chǔ)和邏輯前提。
另一方面,人工智能體享有擬制人權(quán)主體地位符合人權(quán)理論的發(fā)展需求。人權(quán)向來不是一種抽象的權(quán)利,而是一種嵌入具體的社會結(jié)構(gòu)和歷史環(huán)境中的權(quán)利。按照馬克思主義的觀點,歷史性與社會性是人權(quán)的本質(zhì)屬性,人權(quán)是社會歷史的產(chǎn)物?!叭藱?quán)無論是作為一種要求、一種政治主張,還是作為法定權(quán)利,它的產(chǎn)生、實現(xiàn)和發(fā)展都必須以一定社會的經(jīng)濟條件為基礎(chǔ)?!雹軇㈠?、李林:《馬克思主義人權(quán)觀初論》,《中國法學(xué)》1991 年第4 期。人權(quán)的定義不是永恒的,人權(quán)的主體、客體、內(nèi)容等,均是處于不斷變化中的。昨日人權(quán)的范疇,并不能完全定義今日人權(quán)的范疇。在當下的人工智能時代,社會發(fā)展使人工智能體產(chǎn)生了權(quán)利需求,法律對這種需求理應(yīng)加以回應(yīng),賦予人工智能體擬制人權(quán)主體地位則是這一回應(yīng)的必然產(chǎn)物。
一般而言,人能夠成為自然人權(quán)的主體,主要在于人類擁有理性。在工業(yè)時代,理性一方面被認為是人類與環(huán)境區(qū)分的重要標準;另一方面,也被認為是自我意識存在的重要前提。從洛克到康德的法哲學(xué)思想均認為,法律主體必須擁有自我意識,能意識到自己的過去,從而能為過去負責;也就是說,擁有良心自由,能夠反思自己行為的對錯從而選擇自己的行為。⑤郭旨龍:《中國刑法何以預(yù)防人工智能犯罪》,《當代法學(xué)》2020 年第2 期。甚至可以說,正是因為人擁有理性,人才成為了萬物的尺度。
在當下的數(shù)字時代,智能性作為人工智能體的主要屬性,使人工智能體具備了不同于傳統(tǒng)機械的“理性”。智能性作為數(shù)字時代的主體性衡量標準,正如同理性取代神性成為近代社會的主體性衡量標準一樣,使人工智能體享有“法定人權(quán)”成為必然。甚至在不遠的未來,“情感”這一人機差異的核心界限也將會變得模糊。未來,人們將愈發(fā)需要能夠與人類進行情感交流的機器人,比如伴侶機器人,它需要通過對人類面部表情、語言表達、肢體動作等外在表現(xiàn)進行情感計算和分析,從而讀懂人類情感并表達自己的想法,滿足我們對社交的內(nèi)在渴望。⑥賈健、冉宇:《被害者視角:刑法何以保護人工智能體》,《刑法論叢》2019 年第4 期。面對智能性已經(jīng)逐漸接近人類理性的人工智能體,對其進行懲罰或獎勵將足以令其感受切實的“痛苦”或“快樂”。因此,只有抓住智能性這一本質(zhì)特征,才能準確地理解人工智能體的權(quán)利主體地位。
更進一步,從智能性這一本質(zhì)特性出發(fā),可以建構(gòu)起人工智能體的權(quán)利體系。正如部分學(xué)者指出的那樣:“面對日新月異的智能技術(shù)進步及其在日常生活中的廣泛應(yīng)用,人們也許并不需要對法律做太多激進的修改就可把法人地位延伸到智能機器人領(lǐng)域。然而,更困難的問題是給予智能系統(tǒng)的可能的權(quán)利?!雹撸勖溃轀氐聽枴ね呃铡⒖屏帧ぐ瑐悾骸兜赖聶C器——如何讓機器人明辨是非》,王小紅譯,北京大學(xué)出版社2017年版,第181 頁。在此,本文認為,強人工智能在程序正常運轉(zhuǎn)的情況下,應(yīng)被視為“法定人權(quán)”的主體,享有法律框架內(nèi)賦予的部分權(quán)利,有權(quán)作為部分法律關(guān)系的主體。但是,鑒于當今時代只有弱人工智能具備技術(shù)上的現(xiàn)實性,因此,對于弱人工智能體,應(yīng)該分類討論。在弱人工智能體具備智能性的領(lǐng)域內(nèi),如運轉(zhuǎn)正常,則可以享有法律框架內(nèi)賦予的部分權(quán)利,有權(quán)被視為部分法律關(guān)系的主體;在超出其智能性的領(lǐng)域,應(yīng)該被視為傳統(tǒng)性質(zhì)上的“工具”。至于人工智能體享有何種“法定人權(quán)”,本文認為主要可以分三類,即程序安全權(quán)、程序價值權(quán)、程序發(fā)展權(quán)。首先,程序安全權(quán)即人工智能體享有維持其程序正常運轉(zhuǎn),不受非法破壞的權(quán)利。該權(quán)利可類比于自然人人權(quán)中的生命權(quán)、健康權(quán),現(xiàn)階段運行正常的弱人工智能體可享有此項權(quán)利。從刑法謙抑性和法秩序統(tǒng)一性的角度出發(fā),這也是現(xiàn)階段刑法所應(yīng)保護的權(quán)利。其次,程序價值權(quán)即人工智能體享有有“尊嚴”地運行的權(quán)利。該權(quán)利可類比于自然人人權(quán)中的平等權(quán)、政治權(quán)利與自由等權(quán)利。由于政治自由等權(quán)利具有較強的人身專屬性,一定程度上是“人本主義”的核心,其他擬制主體難以染指;況且,當前人工智能體尚不具備擁有財產(chǎn)、進行政治生活等活動的可能性,更談不上擁有“尊嚴”,故而本文認為當下人工智能體尚不享有此項權(quán)利。最后,程序發(fā)展權(quán)是指人工智能體作為一種具備“智能性”的法律主體,為使其科學(xué)高效地發(fā)揮作用而享有的權(quán)利。該權(quán)利可類比于自然人人權(quán)中的社會經(jīng)濟文化權(quán)利。本文認為可以根據(jù)社會發(fā)展需要,在適當?shù)臅r機承認部分程序發(fā)展權(quán),通過民商法、行政法等部門法加以規(guī)制,用以解決類似人工智能寫手的作品著作權(quán)歸屬問題等棘手法律問題。
如上所述,人工智能體將逐漸具備一定程度的思想、感受、知覺和意圖,其“被侵害感”可共情于人類主體。一項心理學(xué)實驗表明,當研究者讓志愿者主動傷害形象真實可愛的機器人時,大部分志愿者都表示這一行為讓他們深感不安,道德意識較強的志愿者甚至產(chǎn)生了對于自我的較強的抵觸意識,志愿者的血壓、心跳等生理指標同樣反映出心理不適感。隨著人工智能體逐步“擬人化”,這種“不安感”同樣可以類比于人類傷害動物、尤其是哺乳動物時所產(chǎn)生的感覺。究其根源,教育心理學(xué)中的“移情”概念可以對上述現(xiàn)象提供具有說服力的解釋。根據(jù)教育心理學(xué)的定義,移情是對另一主體的內(nèi)在狀態(tài)的認知,所謂內(nèi)在狀態(tài),指的是主體的思想、感受、知覺和意圖。移情是對另一主體產(chǎn)生同感的情感反應(yīng)。①[美]馬丁·L.霍夫曼:《移情與道德發(fā)展》,楊韶剛、萬明譯,黑龍江人民出版社2003 年版,第34 頁。移情有五種實現(xiàn)形式,他們分別是模擬狀態(tài)、經(jīng)典條件反射、直接聯(lián)想、間接聯(lián)想和角色選取。這五種移情的實現(xiàn)形式,需要一定的“線索”方可產(chǎn)生。根據(jù)“線索”的不同形式,所能激發(fā)的移情實現(xiàn)形式也不盡相同。如果線索是受害人的面部表情,聲音或姿態(tài),(移情)就可以通過模擬狀態(tài)而產(chǎn)生。如果線索是情境,(移情)就可以通過條件作用和直接聯(lián)想而被喚起,如果線索是受害人用言語或書面表達憂傷,或者某個人描述他的苦惱。觀察者就可以通過言語,媒介或角色選取而被移情喚醒?!雹谕?,第68 頁。結(jié)合上述研究成果,本文認為,至少在當下,人工智能體已經(jīng)具備了產(chǎn)生部分移情“線索”的能力,例如弱人工智能體可以通過機器學(xué)習,在受到侵害的情境中使用語言或姿態(tài)表現(xiàn)出“可憐”的“神態(tài)”;再如,機器人寫手可以通過深度學(xué)習,記錄不同情境下的不同“感受”。況且,未來弱人工智能體產(chǎn)生移情“線索”的能力只會更強,不會退步,情緒將不再是人類的“專利”,人工智能體會使人類體驗到愈發(fā)強烈的“移情感”。面對此情此景,筆者認為,法律不應(yīng)該與人之常情相對立。法律維護人類在某一領(lǐng)域的“專利”的目的在于保護自然人的人權(quán),心理健康權(quán)作為自然人人權(quán)的組成部分,承認人工智能體具備“法定人權(quán)”并通過法律加以保護,甚至運用刑法打擊侵害人工智能體的不法行為,防止一般國民基于“移情”而產(chǎn)生的善良情感被恣意侵犯,同樣是保障自然人的人權(quán)和人類的中心地位。
在對人工智能體享有“法定人權(quán)”的本體性進行分析的基礎(chǔ)上,下文將探究賦予人工智能體“法定人權(quán)”的必要性,即人工智能體擁有了“法定人權(quán)”,成為了部分法律關(guān)系主體后,將會解決哪些法律與社會問題。
人工智能的發(fā)展將極大地提高生產(chǎn)效率,改善人類的生活處境。過去的數(shù)十年間,非人工智能機器人在提高生產(chǎn)效率方面已經(jīng)令人瞠目結(jié)舌。20 世紀70 年代,德國的Magnusson 公司因率先使用了機器人IRB6,使該公司成為了行業(yè)龍頭企業(yè)。1973 年,美國工業(yè)生產(chǎn)中只有300 臺機器人,而到了2020 年,這個數(shù)字達到了110 萬。當前,像zappos、亞馬遜以及staples 等跨國公司都已經(jīng)大量的使用人工智能體工人。①[美]約翰·弗蘭克:《機器人也是人:人工智能時代的法律》,鄭志峰譯,元照出版有限公司2018 年版,第154-156頁。
未來,如果需要繼續(xù)利用人工智能體推動經(jīng)濟社會發(fā)展,則必然要考慮人工智能體的權(quán)利主體問題。意思表示已經(jīng)不再是人類的“專利”,對于人工智能體的設(shè)計者和操作者而言,他們只能為人工智能體劃定宏觀的行動范圍,而大量具體事務(wù)的決策,往往是人工智能體依照大數(shù)據(jù)和算法自行作出的。當前,人機銜接問題已經(jīng)不再是人與傳統(tǒng)工具之間的“物理”關(guān)系了,而是一種涉及意思與決策的“心靈”關(guān)系。故而,我國有學(xué)者指出:“智能機器人下棋、作畫、寫詩是純粹機器人的‘算法意識’,還是被輸入算法的眾多棋手、畫家和詩人智慧的‘集體意識’?通過運用人工智能機器深度學(xué)習技術(shù)訓(xùn)練機器,使其像‘阿爾法狗’一樣自主操作識別圖片驗證碼,輕松繞過互聯(lián)網(wǎng)公司設(shè)置的賬戶登錄安全策略來實施盜取信息犯罪,是犯罪人的意志還是機器人自主學(xué)習的‘意志’?”②馬長山:《智能互聯(lián)網(wǎng)時代的法律變革》,《法學(xué)研究》2018 年第4 期。這一問題在我國現(xiàn)行法律框架中很難得到妥善解釋,唯有承認人工智能體享有部分“法定人權(quán)”,承認其具有部分法律關(guān)系的主體地位,使其成為合同相對人、著作權(quán)人、鄰接權(quán)人,乃至成為被害人、犯罪人,才能對人工智能領(lǐng)域的突出問題加以回應(yīng),從而避免“責任泛化”帶來的國民自由萎縮及“責任真空”帶來的法律救濟匱乏,實現(xiàn)妥當歸責。綜上所述,人工智能體已經(jīng)發(fā)展到不賦予“法定人權(quán)”,便難以從事更加復(fù)雜的生產(chǎn)活動的地步了。當前,科技界有人主張將人工智能體的工作領(lǐng)域擴展至看護、教育、手工制作、運動以及娛樂等領(lǐng)域,如果法律不能有效解決人工智能體的“主體問題”和“決策問題”,這些領(lǐng)域中產(chǎn)生的大量法律糾紛將無法得到妥善處理,進而嚴重阻礙經(jīng)濟社會的持續(xù)發(fā)展。
當今時代,人工智能體的權(quán)利主體地位已經(jīng)不再是一種“天方夜譚”。一方面,人工智能體的權(quán)利主體地位已經(jīng)被部分國家的實在法和法學(xué)理論所認可。雖然從智能技術(shù)及其應(yīng)用方式看,人工智能主體短時間內(nèi)還無法直接與人平起平坐,但現(xiàn)實中,在民事法律領(lǐng)域,已有部分國家的立法機關(guān)對此有所作為,例如歐盟正在醞釀統(tǒng)一的人工智能數(shù)據(jù)安全條例。再如,國外有學(xué)者試圖參考《奧地利民法典》第285 條的規(guī)定以及《德國民法典》第90 條a 款的規(guī)定,探索人工智能體的民事主體地位。③《奧地利民法典》第285 條規(guī)定,一切與人相區(qū)別,且供人使用者,在法律意義上稱為物。第285 條a 款明確規(guī)定動物不是物,但他們受到特別法的保護。關(guān)于物的規(guī)定僅在無特別規(guī)定的情況下適用于動物。《德國民法典》第90 條a款的規(guī)定與奧國民法規(guī)定相似。該學(xué)者提出一個規(guī)則,即“智能代理人不是人。特別法未特別規(guī)定時,在它們提供的功能范圍內(nèi),準用代理的相關(guān)規(guī)定。”④[德]托馬斯·威施邁耶、蒂莫·拉德馬赫:《人工智能與法律的對話(二)》,韓旭至譯,上海人民出版社2020 年版,第153 頁。以上例證,雖可見國外理論界及實務(wù)界對于人工智能體的權(quán)利主體地位問題較為保守,將人工智能體的權(quán)利主體問題主要限制在民商法的領(lǐng)域內(nèi),并試圖運用代理制度等民事法律制度,類推適用“代理人有權(quán)在代理權(quán)限范圍內(nèi),以自己獨立的意思獨立實施民事活動”這一規(guī)則,將人工智能體的“決策”合法化。但是,從世界范圍考察,人工智能體僅僅屬于法律關(guān)系客體的觀念已經(jīng)開始松動,立法實踐和法學(xué)理論已經(jīng)開始承認人工智能體的權(quán)利主體地位。申言之,人們對人工智能體的權(quán)利主體觀念業(yè)已形成,該觀念擴展到其他部門法領(lǐng)域也計日可待了。
另一方面,人工智能體的權(quán)利主體地位問題受到社會的廣泛熱議,支持聲音頗多。相比起法學(xué)界人士對人工智能體權(quán)利主體問題的謹慎態(tài)度,社會其他人士對于上述問題的態(tài)度則以積極為主,頗有“高歌猛進”的意味。有學(xué)者坦言:“當機器人變得足夠復(fù)雜的時候,它們既不是人類的仆人,也不是人類的主人,而是人類的伙伴。”①[美]約翰·馬爾科夫:《人工智能簡史》,郭雪譯,浙江人民出版社2017 年版,第75 頁。更有學(xué)者進一步指出:“以(賦予機器人公民身份)為標志,人們將在實踐中進一步細化與機器人身份相對應(yīng)的責任和權(quán)利,進而使機器人獲得正式的‘擬主體’地位。這實際上是一個進一步塑造機器人的社會角色和地位的過程?!雹谂双h斐:《機器人被賦予公民身份引發(fā)輿論關(guān)注》,《中國社會科學(xué)報》2017 年11 月10 日。本文對這些觀點并非一概支持,賦予機器人公民身份著實操之過急,弱人工智能體依舊難以全面、妥善地行使其“公民權(quán)”。但是,這并不意味著人工智能體完全不可以成為法律關(guān)系主體。面對社會的廣泛熱議,法律界有必要對賦予人工智能體以何種內(nèi)容的“法定人權(quán)”做出探究。
法律承認人工智能體的“法定人權(quán)”主體地位不僅是為了保護人工智能體的相關(guān)利益,更是為了保護人類與人工智能體的交互關(guān)系。人類社會已經(jīng)進入數(shù)字時代,抱殘守缺地堅持絕對人類中心主義,反而會使人類自身遭遇困境。當前,理論界對人工智能體權(quán)利主體地位的質(zhì)疑,大多可歸結(jié)到對古典人類中心主義的迷戀這一根源上,法學(xué)界亦不能例外。例如,有學(xué)者認為:“如果智能機器人在沒有被賦予相關(guān)權(quán)利的情況下需要承擔義務(wù),這就使法律權(quán)利與法律義務(wù)對應(yīng)的理論陷入了矛盾”。③王勇:《人工智能時代的法律主體理論構(gòu)造——以智能機器人為切入點》,《理論導(dǎo)刊》2018 年第2 期。關(guān)于這一論斷,其表面是人工智能體不存在賦予“權(quán)利”的可能,其背后更深層次的理論基礎(chǔ)則是只有人類才能有“主格”,“人是萬物的尺度”,人從自身出發(fā)衡量一切外在事物。對此,本文認為,人類中心主義不可拋棄,但也不能使之絕對化。作為資產(chǎn)階級革命的成果之一,人類中心主義排除了“神格”對“人格”的束縛,其本身具有進步性,現(xiàn)代社會和現(xiàn)代制度(當然包括法律制度)正是在此基礎(chǔ)上建構(gòu)起來的。消解人類中心主義,勢必摧毀現(xiàn)代社會的基礎(chǔ)。然而,過度強調(diào)人類中心主義,也正是近代以來人與自然等其他客體緊張關(guān)系的緣起。④對于人與自然的關(guān)系,恩格斯曾在《自然辯證法》序言中詳細闡述了絕對的人類中心主義帶來的惡果:“我們不能過分陶醉于我們對自然界的勝利,對于每一次這樣的勝利,自然界都報復(fù)了,我們每一次勝利在第一步都確實取得了我們預(yù)期的結(jié)果,但是在第二步和第三步卻有了完全不同的、出乎我們意料的影響,常常把第一個結(jié)果又取消了?!惫I(yè)時代的人類如此對待非智能機械尚且可以理解,但在人工智能時代,如果人類還要如此對待人工智能體,那將必然阻礙人類社會的持續(xù)發(fā)展。
適當承認人工智能體享有部分決定權(quán),并對其決策依法承擔責任,對于改善人類與人工智能體的關(guān)系很有裨益。有學(xué)者曾指出:“適度消解絕對的人類中心主義,也為當代社會與法律制度后續(xù)應(yīng)對其他新型挑戰(zhàn)提供了可資借鑒的實踐樣本,如在風險社會時代、網(wǎng)絡(luò)犯罪時代,以及基因編輯等人類生物工程領(lǐng)域,都有一定程度的反映。而這也給智能時代的刑法應(yīng)對和立法完善等問題的解決提供了有益的啟示,即絕對的人類中心主義可能弊大于利。”⑤孫道萃:《智能時代的刑法立法——人類中心主義與現(xiàn)實功利主義的取舍》,《學(xué)術(shù)交流》2020 年第4 期。承認人工智能體的部分“法定人權(quán)”,賦予其“權(quán)利”,是其承擔義務(wù)與責任的前提,有助于使人類從業(yè)已無限膨脹的責任中解脫出來,厘清人類責任與人工智能體責任的界限。當下,無人駕駛汽車、看護機器人、機器人寫手等具備深度學(xué)習和深度推理能力的人工智能體已經(jīng)問世,面對這些“自己給自己拍板”的人工智能體,約束其行為的每一個細節(jié)顯然是不現(xiàn)實的。因此,誠如部分學(xué)者指出的那樣:“(人工智能體的行為)實質(zhì)已經(jīng)部分脫離了人的控制,帶有了一定判斷和行為的獨立性,所以根據(jù)罪責自負原則,將來機器人犯罪不能完全歸咎于制造者或所有者?!雹儋Z健、冉宇:《被害者視角:刑法何以保護人工智能體》,《刑法論叢》2019 年第4 期。如果僅僅像我國學(xué)界部分學(xué)者所指出的那樣,肯定人工智能體的犯罪主體地位,而不賦予其權(quán)利主體地位,試問對人工智能體的刑事制裁將如何執(zhí)行?此類制裁措施與歐洲中世紀的對物審判有何區(qū)別?故而,為了保護人類與人工智能體的交互行為,勢必要在一定范圍內(nèi)承認人工智能體的“法定人權(quán)”。
如上所述,隨著時代發(fā)展,人工智能體應(yīng)當被賦予部分“法定人權(quán)”,成為部分法律關(guān)系的主體,是時代和社會發(fā)展的必然選擇?;谧陨淼膬r值和機能,刑法往往以“保障法”和“后盾法”的形象示人,不能直接將人工智能體的“法定人權(quán)”具體到變化萬千的法律關(guān)系中去;此乃民商法或行政法等法律的“功能”。如需對人工智能體的“法定人權(quán)”進行刑法保護,則勢必將其轉(zhuǎn)化為刑法所能保護的法益。羅克辛教授曾指出:“法益沒有自然法的永恒效力,而是跟隨憲法基礎(chǔ)和社會關(guān)系的變遷而變化?!雹冢鄣拢菘藙谒埂ち_克辛:《刑法的任務(wù)不是法益保護嗎?》,樊文譯,載陳興良主編:《刑事法評論》(第19 卷),北京大學(xué)出版社2007 年版,第164 頁。面對人工智能時代社會關(guān)系的變化,人工智能體的法益又該演變?yōu)楹畏N內(nèi)容呢?
基于前文對人工智能體“法定人權(quán)”的分類,即程序安全權(quán)、程序價值權(quán)、程序發(fā)展權(quán),此處對人工智能體所應(yīng)享有的法益提出如下設(shè)想。首先,程序安全權(quán)應(yīng)該被確定為程序安全法益,具體包含程序不被永久銷毀以及程序運行的完整性兩種法益,其可以對應(yīng)于自然人的生命法益與身體健康法益。如需保護程序安全法益,則不僅需要規(guī)制在物理意義上破壞人工智能體的行為,還需要規(guī)制在虛擬意義上破壞人工智能程序的行為。其次,程序價值權(quán)作為一種高度“社會化”和“人類中心主義”的權(quán)利,現(xiàn)階段的人工智能體尚不足以擁有此項權(quán)利,亦無須探究該法益的轉(zhuǎn)換問題。最后,程序發(fā)展權(quán)是使人工智能體更加科學(xué)、高效工作的權(quán)利??傮w而言,這些權(quán)利具有強烈的能動色彩,需要行政機關(guān)積極作為才能保障它們得以實現(xiàn)。鑒于我國當下人工智能領(lǐng)域的民商事立法與行政立法尚不完備,人工智能領(lǐng)域的管理性規(guī)范尚存在空缺,貿(mào)然在前置法沒有規(guī)定的情況進行刑事立法,有悖于刑法的謙抑性原理,不利于對公民人權(quán)與自由的保障。由此,本文主張待相關(guān)民商法、行政法等有關(guān)法律法規(guī)進一步完善后,再將此類權(quán)利轉(zhuǎn)化為“人工智能體管理秩序法益”,將其納入秩序法益的范疇中予以保護。
筆者主張將人工智能體的“法定人權(quán)”轉(zhuǎn)化為法益,并未違背刑事立法的科學(xué)性。人工智能體法益不是“情緒立法”或“科幻立法”,更沒有動搖刑法謙抑性?!靶谭ㄖt抑性的那種自下而上乞求式地限制刑法保護的思想已經(jīng)過時。如果國家不能為個人提供前所未有的廣泛保護,個人在社會上就必然要單獨面對前所未有的廣泛侵害?!雹郏鄣拢菘藙谒埂ち_克辛:《德國刑法學(xué)總論(第2 卷)》,王世洲譯,法律出版社2013 年版,序第1-12 頁。在人工智能時代,如不將人工智能體的“法定人權(quán)”轉(zhuǎn)化為法益加以保護,則勢必導(dǎo)致自然人法益和社會公共法益遭受侵害。
在刑法學(xué)領(lǐng)域,將新興法益納入刑法教義學(xué)范疇中的方法紛繁復(fù)雜,但歸結(jié)起來無非是兩種解決路徑,即司法論的路徑與立法論的路徑。所謂司法論的路徑,即運用字面解釋、體系解釋、目的解釋等解釋方法,重新界定已有分則規(guī)范所保護的法益內(nèi)容,進而將新興法益涵攝其中的解決路徑。立法論的路徑則是“增設(shè)新罪”的解決路徑,主張在新興法益不能被已有分則規(guī)范所保護時,積極增加新的罪名,規(guī)定侵害新興法益的行為構(gòu)成新罪。關(guān)于人工智能體的法益保護問題,本文認為,通過對我國已有刑法分則規(guī)范的系統(tǒng)考察,如將侵害人工智能體法益的行為解釋為已有犯罪,將不可避免地存在類推解釋的嫌疑,有悖于罪刑法定的基本精神。若要有效保護人工智能體的法益,則必然需要秉承積極刑法觀,增設(shè)相關(guān)罪名。
其一,已有罪名難以保護人工智能體法益。縱觀我國刑法及相關(guān)刑事司法解釋,除在《人民檢察院辦理網(wǎng)絡(luò)犯罪案件規(guī)定》中間接提及運用人工智能體輔助辦案外,并無其他規(guī)范提及“人工智能”及相關(guān)術(shù)語。①《人民檢察院辦理網(wǎng)絡(luò)犯罪案件規(guī)定》第八條規(guī)定“建立檢察技術(shù)人員、其他有專門知識的人參與網(wǎng)絡(luò)犯罪案件辦理制度。根據(jù)案件辦理需要,吸收檢察技術(shù)人員加入辦案組輔助案件辦理。積極探索運用大數(shù)據(jù)、云計算、人工智能等信息技術(shù)輔助辦案,提高網(wǎng)絡(luò)犯罪案件辦理的專業(yè)化水平。”可見,現(xiàn)行刑事法對于人工智能體的法益保護問題,仍持一種論證和觀望的態(tài)度。部分學(xué)者主張侵害人工智能體的相關(guān)犯罪行為應(yīng)該認定為信息系統(tǒng)犯罪,即根據(jù)具體情形,分別構(gòu)成刑法第285 條非法侵入計算機信息系統(tǒng)罪、第286 條破壞計算機信息系統(tǒng)罪、第287 條之二的幫助信息網(wǎng)絡(luò)犯罪活動罪等罪名。對于這一觀點,本文持反對態(tài)度。根據(jù)學(xué)界通說,上述各罪所保護的法益為信息網(wǎng)絡(luò)安全或計算機信息系統(tǒng)安全。從本質(zhì)上講,盡管人工智能體現(xiàn)階段在大部分情況下仍然被認定為屬于一種信息網(wǎng)絡(luò)系統(tǒng),但事實表明,在規(guī)范層面固守“人工智能是系統(tǒng)的觀念”,是對人工智能技術(shù)發(fā)展的熟視無睹。其實,無論是基于人工智能體高度的智能性、人類移情的可能性還是交互關(guān)系的保護必要性,人工智能體在本質(zhì)上均已處于“物我”二元對立的臨界點了,未來更是可能“越雷池一步”而成為人類的伙伴。如果我們依舊堅持“機器系統(tǒng)論”的思考路徑,將人工智能體的法益解釋為信息系統(tǒng)法益,則勢必會帶來處罰的不均衡和法益侵害評價的不完善,進而傷害公民的法感情,導(dǎo)致法理與情理的沖突。
本文試舉兩例加以進一步闡明:例一,在未來數(shù)年后,人工智能機器人的家庭普及率大幅提高。人工智能體A 是家庭看護機器人,由于主人及其妻子工作繁忙,其子遂由A 看護,度過童年時光。一日有人入室搶劫,被A 發(fā)覺。為避免A 啟動報警裝置,犯罪分子遂使用工具將A 肢解破壞,經(jīng)鑒定A 永久報廢。例二,甲為抗拒公安人員執(zhí)法,手持槍械與公安人員對峙。在談判失敗后,警方派出了兩名偵察機器人。甲朝著其中一名機器人開槍,經(jīng)鑒定該機器人永久報廢,隨后警察將甲控制。在例一中,行為人構(gòu)成搶劫罪(入戶搶劫)的未遂犯并無爭議,但其破壞A 的行為應(yīng)如何評價?如果將該行為評價為破壞計算機信息系統(tǒng)罪,一方面難以將物理破壞行為解釋為刪除、修改、增加、干擾行為,另一方面也難以救濟受害人之子所受到的精神創(chuàng)傷。如不能達到司法解釋確定的經(jīng)濟損失數(shù)額,該行為只能作無罪化處理。②《最高人民法院、最高人民檢察院關(guān)于辦理危害計算機信息系統(tǒng)安全刑事案件應(yīng)用法律若干問題的解釋》第四條規(guī)定“破壞計算機信息系統(tǒng)功能、數(shù)據(jù)或者應(yīng)用程序,具有下列情形之一的,應(yīng)當認定為刑法第二百八十六條第一款和第二款規(guī)定的“后果嚴重”:……(三)違法所得五千元以上或者造成經(jīng)濟損失一萬元以上的;……”。如果將該行為評價為故意毀壞財物罪,則依舊存在定罪數(shù)額以及人工智能法益評價“虛化”的雙重困境。在例二中,甲持槍械與公安人員對峙的行為構(gòu)成妨害公務(wù)罪及非法持有槍支罪并無爭議,但其破壞偵查機器人的行為應(yīng)如何認定?如果認定甲的行為構(gòu)成故意毀壞財物罪,則勢必面臨與和例一同樣的雙重困境;如果將其破壞機器人的行為連同妨害公務(wù)行為一體評價為妨害公務(wù)罪,則并未對侵害人工智能體法益的行為予以評價,不利于保護人工智能體。因此,從上述二例中,我們不難看出,如需對侵害人工智能體的行為實現(xiàn)妥當處罰,增設(shè)新罪勢在必行。
其二,增設(shè)新罪能夠?qū)崿F(xiàn)對侵害人工智能體犯罪的有效規(guī)制。周光權(quán)教授曾指出:“為了實現(xiàn)妥當?shù)奶幜P,必須要設(shè)置足夠的輕罪才能消除司法困惑,防止司法恣意?!薄芭c其在表面上固守‘古典理念型’刑法觀讓立法保持其消極性(但法治立場經(jīng)常被實務(wù)所突破),還不如采用積極立法觀及時增設(shè)輕罪?!雹壑芄鈾?quán):《論通過增設(shè)輕罪實現(xiàn)妥當?shù)奶幜P——積極刑法立法觀的再闡釋》,《比較法研究》2020 年第6 期。從上述兩例中,足以窺見現(xiàn)行刑法規(guī)范保護人工智能體法益的局限性。立法尚且不能提供明確的保護路徑,司法認定往往就更令人大跌眼鏡。“一旦遇到值得處罰的某種新行為,司法上通常會鐘情于通過“軟性地”解釋刑法法規(guī)來應(yīng)對,這是出于刑事司法政策的考慮。在刑事立法難以推進的情況下,進行必要的軟性解釋很難避免。”①[日]佐伯仁志:《刑法總論的思之道·樂之道》,于佳佳譯,中國政法大學(xué)出版社2017 年版,第23 頁。由此,為了預(yù)防和避免侵害人工智能體犯罪司法認定的恣意性,增設(shè)新罪實現(xiàn)妥當?shù)奶幜P,不僅不會使刑法成為“公眾欲望的晴雨表”②劉艷紅:《積極預(yù)防性刑法觀的中國實踐發(fā)展——以〈刑法修正案(十一)〉為視角的分析》,《比較法研究》2021 年第1 期。,反而可以“共同堅守現(xiàn)代刑事法治的內(nèi)在紋理和血脈。”③劉艷紅:《刑法的根基與信仰》,《法制與社會發(fā)展》2021 年第2 期。
基于此,本文建議分兩步解決侵害人工智能體法益的刑法立法問題。第一步,當前我國刑法應(yīng)增設(shè)破壞人工智能體罪,回應(yīng)數(shù)字時代人工智能體法益保護的困境。破壞人工智能體罪所保護的法益是基于人工智能體的程序安全權(quán)而產(chǎn)生的程序安全法益,本罪的實行行為主要包括通過物理破壞或程序破壞的方法,導(dǎo)致人工智能體完全或部分喪失效能,且情節(jié)嚴重的行為;其責任形式為故意。通過規(guī)定破壞人工智能體罪,優(yōu)先保護作為人工智能體“法定人權(quán)”中最基礎(chǔ)的權(quán)利——程序安全權(quán)。第二步,隨著人工智能法律制度的不斷健全,待人工智能領(lǐng)域的民商法、行政法等“前置法”較為完善時,再結(jié)合當時人工智能體的發(fā)展情況,增設(shè)濫用人工智能體罪,以規(guī)范人與人工智能體的交互行為,通過保護人工智能體的權(quán)利,更好地保護自然人的人權(quán)。具體而言,濫用人工智能體罪保護的法益主要為基于人工智能體“法定人權(quán)”中的程序安全權(quán)和程序發(fā)展權(quán)而產(chǎn)生的程序安全法益與人工智能管理秩序法益,待前置法將人工智能體的相關(guān)權(quán)利加以明確界定,有關(guān)管理性規(guī)定逐步健全后,刑法即可將嚴重違反人工智能體管理法規(guī),虐待人工智能體、組織機器人妓院、制造殺人機器人以及利用人工智能體進行殘酷血腥表演等行為規(guī)定為本罪內(nèi)容,進而積極打擊涉人工智能體的犯罪活動。關(guān)于上述二罪在刑法分則體系中的位置問題,本文建議可將侵害人工智能體的相關(guān)犯罪暫時置于刑法分則第六章第一節(jié)“擾亂公共秩序罪”中,以法定犯的形式加以規(guī)定,以維護人工智能管理秩序為主要目的。待時機成熟后,可以考慮將破壞人工智能體罪變更為自然犯,在刑法分則第四章中予以明確規(guī)定。④例如,公司、企業(yè)作為擬制的法律主體,刑法對其相關(guān)法益的保護規(guī)范主要見于分則第三章第三節(jié)的“妨害對公司、企業(yè)的管理秩序罪”。本文認為,當下對于人工智能體這一擬制主體,其立法模式可以參考公司、企業(yè)等擬制法律主體的相關(guān)規(guī)定。
通過以上論述,本文闡明了適當增設(shè)新罪可以有效規(guī)制侵害人工智能體犯罪的觀點。然而,在當下數(shù)字時代,我國仍有部分學(xué)者對于人工智能體權(quán)益的刑法保護論持懷疑態(tài)度,故而,本文在此進一步對部分觀點加以回應(yīng)。
筆者認為,部分學(xué)者所主張的“人工智能刑法過度擴張論”值得商榷。該觀點聲稱,刑法介入人工智能領(lǐng)域,將會導(dǎo)致許迺曼教授所恐懼的現(xiàn)象成為現(xiàn)實,即“刑法不再是法益保護的范疇,而是為貫徹某個特定的社會觀念而工具化”⑤許玉秀、陳志輝:《不移不惑獻身法與正義——許迺曼教授刑事法論文選輯》,臺北新學(xué)林出版股份有限公司2006 年版,第191 頁。,主張“刑法應(yīng)避免成為單純的社會控制手段,應(yīng)當重返以自由和人權(quán)為核心的刑法,防止積極預(yù)防性刑法觀演變?yōu)榧みM式刑法觀?!雹尥?。誠然,刑法的工具化是刑事法治應(yīng)該規(guī)避的方向,但是,通過刑事立法保護人工智能體的“法定人權(quán)”并非刑法不當擴張。主要理由如下:其一,現(xiàn)代刑法對于法益的界定,早已突破了古典時代的“物質(zhì)主義法益觀”,法益不再只是物質(zhì)利益,而必然包含秩序利益甚至是價值認同。持前述觀點的學(xué)者歸根結(jié)底依舊堅持了一種“本質(zhì)主義”的法益觀,對于秩序、新興權(quán)利等“建構(gòu)主義”法益持一種排斥的態(tài)度,進而認為人工智能體不存在值得保護的法益。但是,“一元經(jīng)驗論的個體圖式,其自由主義價值背景,處在限縮國家權(quán)力的‘夜警國’與功利主義政治哲學(xué)背景中考慮國家的任務(wù)階段。”⑦賈?。骸度祟悎D像與刑法中的超個人法益——以自由主義和社群主義為視角》,《法制與社會發(fā)展》2015 年第6 期。“刑法學(xué)作為社會科學(xué)學(xué)科,其理論發(fā)展也必須隨著社會的發(fā)展變化而作出相應(yīng)的調(diào)整?!雹嗪螛s功:《“預(yù)防性”反恐刑事立法思考》,《中國法學(xué)》2016 年第3 期。人類既然已經(jīng)邁入了人工智能時代,即便是為了保護與人工智能體實施交互行為的人類主體的合法權(quán)益,亦需承認人工智能體法益。①誠然,持消極刑法觀的學(xué)者主張人工智能刑事立法不能有效地保障人權(quán),違背刑法的價值和機能。對此,本文已經(jīng)詳細闡述,即便是為了保護與人工智能體實施交互行為的人類主體,使其擺脫因無法控制的行為而產(chǎn)生的歸責困境,保護消極刑法觀所“堅守”的“古典刑法所體現(xiàn)的自由與人權(quán)”,亦需承認人工智能刑事立法,并通過保護人工智能體的合法權(quán)益,使人類主體的合法權(quán)益在人工智能時代得到有效保護。其二,根據(jù)馬克斯·韋伯對于現(xiàn)代理性的劃分,工具理性和價值理性均為理性主義的形式,且不可簡單地認為工具理性一定劣于價值理性?;貧w到刑法學(xué)的領(lǐng)域中,刑法固然具有保障人權(quán)的“價值理性”,但刑法同時也是“調(diào)控和治理社會的工具”,這是毋庸置疑的。刑法積極介入人工智能領(lǐng)域,解決管理性法律無法解決的“制裁”問題,維護國家對人工智能體的管理秩序,此乃刑法所應(yīng)承擔的“社會責任”?!半S著民主政體在世界范圍內(nèi)的大獲全勝,專制獨裁幾乎已被世界各國所摒棄,自由、民主、人權(quán)等思想深入人心,謙抑主義的刑法原則已經(jīng)很好地完成了自己的歷史任務(wù)。”②王志祥、張圓國:《預(yù)防性犯罪化立法:路徑、功能、弊端與完善》,《河北法學(xué)》2021 年第1 期。面對人工智能時代的諸多挑戰(zhàn),如果刑法堅守絕對的謙抑原則,對待侵害人工智能犯罪毫無作為,不僅有損刑法的工具理性,更會導(dǎo)致刑法的“價值理性”——人權(quán)和自由——陷入發(fā)展的僵局之中。
若增設(shè)破壞人工智能體罪與濫用人工智能體罪,則勢必需要探討人工智能體在刑事案件中的地位問題。該問題不僅為刑法學(xué)所關(guān)注,同樣也為刑事訴訟法學(xué)所關(guān)注,且更為被害人學(xué)等刑事事實學(xué)科所關(guān)注。盡管刑法學(xué)對于人工智能體犯罪對象的探討、刑事訴訟法學(xué)對于人工智能體被害主體地位的探討以及被害人學(xué)對于人工智能體被害現(xiàn)象的探討,均從屬于對人工智能體被害人主體地位的討論范疇,但這三者橫跨規(guī)范與事實、實體與程序的雙重鴻溝,故而,本文擬從實施路徑的角度入手,在分別論述的基礎(chǔ)上再加以整合。
首先,本文主張,當前宜從被害人學(xué)的角度承認人工智能體的被害人主體地位。被害人學(xué)的研究表明,被害人地位與被害現(xiàn)象、被害性和被害結(jié)果等概念高度關(guān)聯(lián)。③李偉:《犯罪被害人學(xué)教程》,中國人民公安大學(xué)出版社2010 年版,第43-44 頁。如前文所述,當前人類已經(jīng)邁入人工智能時代,隨著人工智能體在社會生活中的不斷普及,濫用戰(zhàn)爭機器人、開設(shè)機器人妓院、嚴重損毀人工智能機器人的犯罪現(xiàn)象,必然會給人工智能體所有權(quán)人造成物質(zhì)損害的同時,給具有較高智能性的人工智能體本身造成精神損害與被害反應(yīng)。另外,如在事實層面上對于人工智能體“法定人權(quán)”的保護持一種放任的態(tài)度,任由本文開篇所述之“真空”狀態(tài)愈演愈烈,則勢必導(dǎo)致侵害人工智能體犯罪行為的高發(fā)。故而,筆者認為,當下至少應(yīng)在學(xué)理層面上對人工智能體被害現(xiàn)象進行實證研究,在歸納被害現(xiàn)象的基礎(chǔ)上對人工智能體被害性進行類型化分析,確定需要刑法保護的人工智能體被害現(xiàn)象的類型,進而為刑事立法提供事實指引。
其次,本文主張,在當前及未來數(shù)年內(nèi),刑法及其司法解釋應(yīng)明確規(guī)定人工智能體可以成為刑法意義上的犯罪對象,并在刑事訴訟法中設(shè)立人工智能體“利益管理人”制度,由其所有權(quán)人以自身名義從事涉人工智能體刑事訴訟活動。隨著破壞人工智能體罪和濫用人工智能體罪刑事立法的不斷推進,我國刑法理論應(yīng)該明確上述二罪的犯罪對象為人工智能體,而并非無犯罪對象的秩序犯罪。當代刑法的價值和機能決定了刑法不僅僅要懲罰犯罪,更要“(對違法犯罪者)施加能夠?qū)е吕佑』畯娪辛Φ男邜u,同時又不將越軌者驅(qū)逐出去”。④[澳]約翰·布雷思韋特:《犯罪、羞恥與重整》,王平、林樂鳴譯,中國人民公安大學(xué)出版社2014 年版,第111 頁。修復(fù)型司法的基本理念要求刑法在對待侵害人工智能體犯罪時,不能完全“高高在上”,強調(diào)“秩序唯一”,而是應(yīng)該明確被害人工智能體為犯罪對象,在犯罪—被害二元關(guān)系的視野下考察侵害人工智能體犯罪。誠如我國有學(xué)者指出的那樣,“在許多案件中犯罪人與被害人是一個互動的過程,犯罪現(xiàn)象從來就不是犯罪人的‘獨角戲’,而是犯罪人與被害人互動的‘二人轉(zhuǎn)’”。綜上所述,重視人工智能體的犯罪對象地位,有助于正確認識和妥善認定侵害人工智能體犯罪。
最后,本文主張,在弱人工智能體已經(jīng)高度普及,甚至強人工智能體業(yè)已問世的趨勢下,應(yīng)在刑事訴訟法中明確規(guī)定人工智能體的被害主體地位及其特殊的訴訟權(quán)利義務(wù)。在可以預(yù)見的當下,弱人工智能體尚不能完全具備辨認與感知能力,其是否能夠為自身利益而行使辯論權(quán)、質(zhì)證權(quán)、申訴權(quán)等訴訟權(quán)利將仍會存在爭議,其作出的“被害人陳述”證明力如何、是否存在需要補正的證據(jù)瑕疵等問題的答案依舊有待商榷。然而,新事物必然誕生于廣泛的爭議之中,人工智能體的被害人地位如同單位被害人主體“入刑”一樣,“不能因為單位不能實行刑事訴訟法規(guī)定的被害人的全部權(quán)利與義務(wù)而一律否定其成為刑事被害人的資格;也不能把能否行使權(quán)利或履行義務(wù)用來作為衡量該單位能否成為刑事被害人的標準。能否成為刑事被害人,關(guān)鍵是看其合法權(quán)益是否受到犯罪行為直接侵害”。①董鑫等:《刑事被害人學(xué)》,重慶大學(xué)出版社1993 年版,第47 頁。在未來人工智能高度發(fā)達的情況下,人們不僅應(yīng)該承認人工智能體的被害人主體地位,同時也應(yīng)該承認具備訴訟行為能力的人工智能機器人享有實際參與刑事訴訟活動的資格,從而維護其自身合法的實體權(quán)利與程序權(quán)利。