張 斌
1956 年的達特茅斯會議最早提出人工智能(Artificial Intelligence)的概念。作為開啟人工智能發(fā)展新紀元的標志,達特茅斯會議同時也指明了人工智能的未來方向:“精確描述人的學習能力和智慧并利用機器人進行模擬。”[1]所謂人工智能,是指通過深度學習,模擬人類的思維和智慧,用以替代部分人類活動的一種計算機程序。人工智能體,指為實現(xiàn)人類感知、推理、決策、情緒、語言、行為等活動,由以算法、人工神經(jīng)網(wǎng)絡和大數(shù)據(jù)等技術為基礎的計算機控制系統(tǒng)和用來執(zhí)行系統(tǒng)命令的載體所組成的客觀實體。方興未艾的人工智能技術現(xiàn)如今已廣泛而深刻地參與人類生產(chǎn)生活,并在無人駕駛、醫(yī)療、金融等領域發(fā)揮舉足輕重的作用。
然而,當前的人工智能技術尚未發(fā)展完善,依然面臨諸多障礙,如在通用性,舉一反三的情景應對能力,情感、倫理道德理解能力等方面明顯不如人類。隨著科學研究的不斷深入,人工智能必將突破現(xiàn)有技術藩籬,向強人工智時代能跨越。人工智能的自主程度愈高,對其行為的預測和控制就愈加困難,這引發(fā)了人類對人工智能脫離人類控制的擔憂。即使暫不考慮將來可能的危機,眼下人工智能發(fā)展的負面效應諸如特斯拉汽車致人死亡案、紹興人工智能詐騙案等人工智能犯罪已經(jīng)足以引人關注,刑法對人工智能引發(fā)社會風險的應對尤為重要。刑法理論始終無法回避的問題是人工智能刑事犯罪對刑法人類中心主義造成的沖擊:人工智能體是否具備刑事責任主體資格?賦予人工智能體刑事責任主體地位是否可以實現(xiàn)刑法的目的和功能?
人工智能所涉及的刑事犯罪,歸納起來可分為兩種情形,第一種情形是其在特定領域具備智能,只能在程序設定的范圍內(nèi)執(zhí)行命令,也被稱為弱人工智能;第二種情形是其在所有領域具有通用性,能夠在設定程序之外自主決策,獨立行為,這種人工智能被稱為強人工智能。弱人工智體能實現(xiàn)的是人的意志,只能視作人的工具,造成的法益侵害,應當由設計者、制造者和使用者承擔;強人工智能體由于其行為的不可預測性,究竟由其自行承擔刑事責任還是由自然人承擔刑事責任還存在理論爭議,因此本文以強人工智能體為討論對象。如果將強人工智能體視作“人類的工具”“法律關系的客體”,那么在造成法益侵害時其本身并不承擔刑事責任,被害人可以依據(jù)《民法典》關于侵權責任的相關規(guī)定請求產(chǎn)品生產(chǎn)者、銷售者承擔民事賠償責任,甚至可以追究生產(chǎn)者、銷售者的刑事責任。如果將強人工智能體視作“主體”,勢必會顛覆當前的刑法人類中心主義理論體系,并建立“自然人、法人、人工智能體”為中心的三元刑事制裁體系。一般來說,特定主體之所以能夠成為法律上的“人”,是因為其被賦予法律人格并享有權利,承擔義務。法律人格是連接法與法律主體的介質(zhì),作為部門法的刑法也不例外。在刑事法律關系中,特定對象能否成為刑事責任主體,當以法律人格為先決條件,而非先入為主地判斷刑事責任能力問題。具有法律人格不一定具有刑事責任能力,但具有刑事責任能力一定具有法律人格。換言之,法律人格問題是判斷刑事責任主體資格的邏輯前提。在此意義上,如果要考察強人工智能體的刑事責任主體資格,就必須先解決能否賦予強人工智能體法律人格的問題,即強人工智能體應具備刑事責任主體資格的條件和基礎。本文認為,未來強人工智能體應當成為刑事主體,而非法律關系的客體。
行為自主性不斷增強,逐步突破輔助工具屬性的強人工智能體是現(xiàn)有以自然人為中心的刑法體系無法消減的社會風險,法律人格是決定未來強人工智能體法律關系地位的關鍵,也是厘清刑事責任、化解技術風險的途徑。法律人格作為實現(xiàn)特定目的的立法技術,賦予強人工智能體完全具有理論及現(xiàn)實基礎。
法律人格,概言之,即“私法上的權利和義務所歸屬的主體”[2]。人格權的演進經(jīng)歷了漫長而復雜的過程,在早期社會,建立在“身份”“等級”基礎之上的法律人格是不平等的,個體因身份、地位的差異所對應的權利義務內(nèi)容迥然不同。如在古羅馬法中,奴隸不享有自由權,不是法律保護的對象,只能成為法律關系的客體,自由民才會被賦予法律人格而享有權利承擔責任。在文藝復興、資產(chǎn)階級革命的影響和推動下,古代法律中的身份制度難以為繼,法律人格的不平等性由“平等”“契約自由”等理念替代,并最終實現(xiàn)所有個體人格由形式到實質(zhì)的平等。這一時期的法律人格以自然法的倫理性為基礎,認為人格應當受到尊重,隨后《人權宣言》確立了人生而平等的基本原則,繼而《法國民法典》也規(guī)定“所有法國人均享有私權”,《瑞士民法典》更是開創(chuàng)了實定法首次規(guī)定“人格權”的新局面。一旦法律人格被規(guī)定為實定法的原則,其倫理性基礎將逐漸為人們所忽略,以至于倫理性不再是法律人格的決定性要素,法人進而也被普遍認為具有法律人格[2]?!兜聡穹ǖ洹愤M一步超越了法律人格的倫理性基礎,將法律主體范圍由自然人擴大到法人[3]。
由上可知,法律人格經(jīng)由古羅馬法發(fā)展到近現(xiàn)代民法,歷經(jīng)了以身份為基礎到與倫理相結合這一發(fā)展歷程,并最終形成基于特定社會需求而生成的立法技術。這種由身份決定的“人可非人”到功利主義影響下的“非人可人”的立場演變說明,特定主體是否具有法律人格,并不以倫理性作為唯一判斷標準,而是實定法基于社會利益的必然回應[4],社會發(fā)展需要是法人法律人格作為立法技術的內(nèi)在動因。賦予強人工智能體法律人格意味著其得以享有權利、承擔責任,當前學者否認強人工智能體具有法律人格的主要原因是其不具有自然人的心理、生理特征,亦不具有理性個體的倫理性基礎。但是,法律人格作為客觀實在,以法律主體享有權利、承擔義務為內(nèi)容,以一般大眾普遍接受為前提,并以實現(xiàn)特定社會目的為目標,具有鮮明的先驗性、功利性特征。是否具備自然人特征諸如情感、直覺、心靈心性、舉一反三等不應成為賦予人工智能體法律人格的人為阻礙。
縱觀人類立法歷程,法律主體范圍經(jīng)歷了由“人是客體”“人可非人”的特定自然人到以倫理性為基礎的全部自然人并最終擴展到包括法人在內(nèi)的非理性主體的演變。各國立法實踐普遍將法律人格作為立法技術賦予法人等非理性主體,因為法人不僅廣泛參與各類社會經(jīng)濟活動,而且能夠作為刑事主體承擔刑事責任。然而,學界對法人的法律人格本質(zhì)并沒有形成共識,主要存在如下幾種學說:其一是法人擬制說。該學說緣起于13 世紀西方教會統(tǒng)治時期,教會之下準許個人成立社會團體并賦予其人格,后為薩維尼所繼承和發(fā)揚。其二是法人實在說。該學說認為法人團體因為具有團體意志而先于法律存在,法律不是創(chuàng)造而是承認了法人人格[5]。這些學說均不能完全自圓其說,法人擬制說讓法人的存在流于形式,“將法人人格基礎推給法律本身”[6];而法人實在說能夠提供法人承擔刑事責任的正當根據(jù),但不能說明雙罰制下法人和自然人共同承擔刑事責任的緣由。
盡管如此,我國依然基于社會經(jīng)濟發(fā)展的需要,將法人設定為刑事責任主體。法律的生命與進化源自社會發(fā)展的需要,法律人格的有無也不應只以倫理性作為衡量標準,而應當將其作為一種立法技術服務于人類自身發(fā)展。參照我國刑法單位犯罪的雙罰制,賦予強人工智能體刑事責任主體資格,形成以自然人、法人、人工智能體為核心的三元刑事制裁體系并不存在技術障礙。當前世界范圍內(nèi)的單位犯罪,主要包括單罰制和雙罰制。所謂單罰制,不處罰單位,只處罰直接負責的主管人員或其他直接責任人;所謂雙罰制,既要對單位判處罰金,也要處罰直接負責的主管人員或其他直接責任人。雙罰制可適用于研發(fā)者、生產(chǎn)者、銷售者、使用者和強人工智能體之間,它不同于民事侵權責任,當強人工智能體獨立決策、自主行動而侵害國家法益、公共法益或者公民個人法益時,由其自身承擔獨立的刑事責任。如果研發(fā)者、生產(chǎn)者、銷售者、使用者和強人工智能體對法益侵害結果均存在故意或過失時,可視情況采用雙罰制分別處以刑罰。
1.賦予強人工智能體法律人格的現(xiàn)實性:從“工具”到“主體”的流變
第一,強人工智能體逐步突破工具屬性。在早期場景應用中,通過預先設置算法和程序,人工智能只需重復執(zhí)行指令,特別是在無人駕駛汽車領域,人工智能仍然沒有擺脫人類控制,屬于輔助性工具。2018 年工業(yè)和信息化部、公安部、交通運輸部聯(lián)合印發(fā)《智能網(wǎng)聯(lián)汽車道路測試管理規(guī)范(試行)》,其中第25 條規(guī)定:“自動駕駛汽車在測試期間發(fā)生交通事故,應當按照道路交通安全法律法規(guī)認定當事人的責任。”據(jù)此,無人駕駛汽車因執(zhí)行程序指令所產(chǎn)生的結果是可預測的,法律責任應當轉移到自然人身上。隨著5G 網(wǎng)絡的商用、算法及深度學習技術的提升,人工智能的獨立性顯著增強,人類在決策過程中的參與度越來越低。2019 年9月,武漢市交通運輸部門頒發(fā)了全球首張無人駕駛汽車牌照,開啟了人工智能獨立參與商業(yè)運營的新局面。但無人駕駛汽車系統(tǒng)程序不可能窮盡所有路況場景,特別在面臨兩難選擇時,這便需要無人駕駛系統(tǒng)自主創(chuàng)造性地決策。此時人類很難預測行為結果,當發(fā)生交通事故時,解決刑事責任問題的最好途徑就是賦予強人工智能體法律人格,必要時由其承擔相應的刑事責任。2016 年5 月,歐洲議會法律事務委員會發(fā)布《關于機器人民事法律規(guī)則立法建議致歐盟委員會的報告草案》,要求從法律責任承擔的角度考慮創(chuàng)設電子人格[7]。強人工智能體作為不具備人之肉體、心靈、情緒,但能夠獨立決策的特殊主體,被賦予其電子人格契合當前實際。
第二,強人工智能體具備享有權利、承擔責任的條件。賦予強人工智能體法律人格就是賦予其法律權利并承擔法律義務?!啊悄苄浴悄壳叭祟愃苷J知的有關權利主體所必須具有的最本質(zhì)性的要素”[8]。也就是說,強人工智能體能夠成為權利主體的關鍵不在于其是否具備人之肉體和外形,而在于其是否和人一樣智能,這在科技的發(fā)展下并不難以實現(xiàn)。當前包括我國在內(nèi)的世界多國和組織早已針對人工智能體的法律地位進行研究和立法,歐盟法律事務委員會主張機器人的“工人”身份并賦予其特定的權利義務,2017 年沙特阿拉伯成為首個授予機器人公民身份的國家,同年我國國務院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》明確提出建立健全相關制度,“明確人工智能法律主體以及相關權利、義務和責任等”。與自然人主體不同,人工智能所享有的權利只能具有利他屬性,這是由其法律人格的基礎所決定的。其法律人格既然基于特定利益需求而產(chǎn)生,那么在生產(chǎn)生活中為人類帶來價值也是其實現(xiàn)權利、承擔責任的最終歸宿。不過,這種利他屬性并不會導致其在以利己性權利為主的法律體系中處于競爭劣勢。相反,這種權利的利他屬性正是人工智能快速社會化應用的原因,如陪伴型機器人能使人穩(wěn)定獲得情感利益,于是有更多人參與到與人工智能的合作關系當中,進而形成一種穩(wěn)定的法律關系。與此同時,人工智能的權利內(nèi)容不是無約束的,需要以“負面清單”的形式為人工智能設定權利邊界。刑法的視角下,人工智能不能基于自己的人身權利而行使防衛(wèi)權,但可以基于國家、集體、他人的人身和財產(chǎn)利益行使防衛(wèi)權,因為人的人身權利應當受到刑法的平等保護,但人工智能的價值不能等同于人類的生命、健康權益。
2.賦予強人工智能體法律人格的可能性:契合刑法的本質(zhì)
人工智能體刑事責任主體地位否定論者的觀點是,賦予強人工智能體刑事責任主體地位與刑法不具有兼容性。一方面,處罰強人工智能體無法實現(xiàn)刑法之目的與機能。刑法通過禁止和懲罰法益侵害行為來保護公共法益和個人法益免受不法侵害,其懲罰手段以剝奪主體權利造成其痛苦為必要,“否定刑罰的痛苦特征,無異于否定刑罰概念本身”[9]。就自然人而言,刑罰通過剝奪或限制社會活動資格造成情感上的痛苦,而刑罰并不能給強人工智能體帶來痛苦[10]。另一方面,我國的刑罰措施無法適用于強人工智能體。刑罰在本質(zhì)上就是剝奪主體的權利,強人工智能體沒有生命、自由、財產(chǎn)權利,無法適應我國以生命刑(死刑)、自由刑(管制、拘役、有期徒刑、無期徒刑)、財產(chǎn)刑(罰金、沒收財產(chǎn))和資格刑(剝奪政治權利)為內(nèi)容的刑罰體系[11]。
否定論者一味削足適履無益于人工智能時代刑事治理困境問題的解決,現(xiàn)有刑罰種類是否適合于人工智能不是其刑事主體資格的決定性因素,否則有因果倒置的邏輯錯誤。首先,處罰強人工智能體是刑法內(nèi)生邏輯的必然要求。刑法是規(guī)定犯罪、刑事責任和刑罰的法律規(guī)范,因此刑事犯罪的司法判斷邏輯順序為:特定主體在客觀上實施了符合構成要件且違法的行為,主觀上具有故意、過失且具有刑事責任能力,特定主體具有刑事主體地位,應當承擔刑事責任、接受刑事處罰。切不可犯“沒有適當?shù)男塘P措施——強人工智能體不具刑事責任主體資格”這樣本末倒置的邏輯錯誤。其次,處罰強人工智能體有利于合理分配刑事責任。在強人工智能體的社會化應用過程中,侵犯他人法益的事件時有發(fā)生,如2016 年特斯拉自動駕駛汽車發(fā)生車禍致人死亡,沒有相關主體因為諸如此類事故而承擔刑事責任,究其原因,不是因為犯罪結果沒有發(fā)生,而是由于刑法沒有將強人工智能體規(guī)定為制裁對象。雖然強人工智能體與生產(chǎn)者、銷售者、使用者可能并不構成共同犯罪,但由于生產(chǎn)者、銷售者、使用者沒有直接實施行為,根據(jù)行為與責任同時存在原則,即使他們具有故意或者過失的罪責,也無法追究其刑事責任。只有將強人工智能體規(guī)定為刑事責任主體,才能合理地分配刑事責任。
強人工智能體能否成為刑事責任主體取決于我國刑法對刑事責任主體要素的規(guī)定,根據(jù)《刑法》第17 條、第18 條、第19 條的相關規(guī)定,犯罪主體需要滿足三個條件:一是基于自由意志實施了危害行為;二是具備刑事責任能力;三是符合承擔刑事責任的要求,通過刑事制裁能夠達到特殊預防和一般預防的效果。筆者認為,以刑事責任而非本質(zhì)和內(nèi)容為視角,強人工智能體作為刑事責任主體能夠很好地契合刑法體系的內(nèi)在協(xié)調(diào)性。
自由意志是否存在,一直是學派之爭的焦點問題,既無法證實也無法證偽。古典學派強調(diào)人的行為是發(fā)揮主觀能動性的結果,而社會學派則認為人的行為選擇受外界支配。但問題在于,古典學派強調(diào)的理性的人是法律的一般抽象,而責任是對具體個人的司法判斷;社會學派強調(diào)責任是對危險性格的社會防衛(wèi),但完全否認自由意志可能導致人的主體地位喪失進而完全淪為工具。一方面,責任即非難,其本質(zhì)在于行為人有他行為之可能性而實施了不法行為,沒有意志自由就沒有責任,因此,與他行為之可能性具有某種等價關系的自由意志理當被承認,“意志自由問題是責任論的基礎”[12]。另一方面,“根本不可能存在這樣的情況,即立法者將特定行為規(guī)定為犯罪,卻并未因而表現(xiàn)出預防此類(犯罪)行為的意愿與目的”[13]。據(jù)此,預防犯罪是刑罰的正當性根據(jù),也是刑法存在的價值。根據(jù)費爾巴哈的“心理強制說”,只有承認自由意志才能實現(xiàn)刑罰的預防目的,因為就建立在自由意志基礎之上的理性人而言,刑罰既是一種激勵,促其棄惡從善,又是一種威懾,警醒世人不得重蹈覆轍,從而達到特殊預防和一般預防之目的。但同時我們也無法否認環(huán)境對個人的影響,從以上兩個角度看,相對自由意志論更容易為學界所普遍接受,強人工智能體也因其工作機制而具有自由意志。
眾所周知,人工智能技術以人工神經(jīng)網(wǎng)絡技術、算法和深度學習技術為依托,其工作的一般原理是,強人工智能體借助人工神經(jīng)網(wǎng)絡,模擬人腦信號傳輸,將數(shù)據(jù)進行二進制編碼并模式化為邏輯表達式[14],這些數(shù)據(jù)經(jīng)過算法模型的層層特征提取,自動發(fā)現(xiàn)數(shù)據(jù)規(guī)律并自主解決問題,整個過程并沒有任何人為設限。所謂自由意志,即“決斷免受感性沖動之強制的獨立性”[15]。一方面,強人工智能體能夠自行分析數(shù)據(jù)、自行決策,體現(xiàn)了其自主選擇的能力;另一方面,在無人為因素的參與下,其采用何種策略進行決策無人為干涉可能性,其行為更無預測可能性。強人工智能體的這種自主選擇和獨立決策能力早已得到證實。康奈爾大學創(chuàng)意機器人實驗室在實驗中欲通過深層神經(jīng)網(wǎng)絡深度學習技術來分類貓、狗、蜥蜴的圖像,但深層網(wǎng)絡卻自主決定追蹤研究人員的臉[16]。強人工智能體模擬人腦工作原理使其能夠像人一樣思考、決策,那么其擁有自由意志也是水到渠成的結果。
如前所述,意志自由是責任的基礎,但意志自由以行為人具有對其行為的價值評價和是非辨別能力為前提,具備善惡認知能力的人才會產(chǎn)生對自己行為的責任,才具有承擔法律責任的能力[17],動物或其他物質(zhì)由于不具備法秩序所倡導的法價值、社會價值觀等是非判斷能力,所以很難承擔對自己舉動的責任。特定個體是否承擔刑事責任與其刑事責任能力直接關聯(lián),如果不具有責任能力,即使實施了符合構成要件且違法的行為,也很難對其進行責難。責任能力以辨認能力和控制能力為內(nèi)容。一般而言,判斷自然人主體是否具備辨認能力和控制能力以刑事責任年齡和精神狀態(tài)作為參考,只要達到法定刑事責任年齡并且精神正常,即可認定其具有辨認能力和控制能力。
辨認能力是行為主體對自己行為性質(zhì)、社會意義、將產(chǎn)生特定后果的認知能力,它是行為主體具備控制能力的前提和基礎。與自然人不同,強人工智能體無法通過刑事責任年齡和精神狀態(tài)來衡量自身的辨認能力和控制能力,其辨認能力源自神經(jīng)網(wǎng)絡技術和深度學習技術下的自主思考能力。也正是因為強人工智能體的算法在深度學習時如何決策不為外界所知,也就是通常所說的“算法黑箱”,導致歧視、偏見等倫理危機時有發(fā)生。微軟推出的聊天機器人Tay 因涉嫌種族歧視言論引起巨大爭議而被迫下線,一些學者因而據(jù)此認為“Tay 自己并不知道和它‘聊天’的人所說的內(nèi)容和社會意義,也無法知道它自身反饋的‘聊天’內(nèi)容具有何種社會意義。[18]”這種邏輯存在明顯錯誤。機器人Tay的種族歧視言論無疑不符合社會主流價值觀念,但不能表明其不知聊天內(nèi)容和社會意義,只是說明其缺乏對聊天內(nèi)容的善惡分辨能力。如果事先為強人工智能體植入機器人倫理算法,在其運用算法深度學習時,具備規(guī)范的評價能力,能夠準確判斷行為是否具有正向的社會意義,則其必將具備認識能力。如通過算法植入“機器人三原則”①美國作家艾薩克·阿西莫夫提出機器人三原則內(nèi)容是:第一,機器人不得傷害人類,或坐視人類受到傷害而袖手旁觀;第二,除非違背第一法則,否則機器人必須服從人類的命令;第三,在不違背第一及第二法則的前提下,機器人必須盡可能地保護自己。,讓強人工智能體獲得辨別是非的能力,以該原則為標準判斷什么行為是善的,什么行為是惡的,進而也就具備了對其行為負責的能力。當然還可以通過算法植入人類道德、社會主流價值、法律規(guī)則等,讓其獲得更加全面、深刻的判斷力、領悟力。不過也應當看到,因為利益分歧、人際沖突和文化差異,世界范圍內(nèi)不可能存在完全統(tǒng)一的道德。當前世界各國也非常重視人工智能的倫理道德建設問題,2017 年國務院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》指出,到2025 年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系;特斯拉CEO 伊隆·馬斯克曾斥資1000 萬美元,用來研發(fā)一種人工智能倫理道德系統(tǒng),這些倫理道德的建設努力終將讓強人工智能體獲得如同自然人般的辨認能力。為強人工智能體加載倫理道德系統(tǒng)并非使得人工智能系統(tǒng)與自然人一樣平等地享有權利、履行義務,參與社會治理和資源分配,而是為了確保強人工智能體的正確發(fā)展方向,不至于脫離人類控制,危害人類。
強人工智能體的辨認能力是由事實到規(guī)范,由具體到抽象的過程,它需要在初始階段接受聲音、事實、事件、圖像、視頻等基礎事實材料,通過對基礎事實材料的深度加工而產(chǎn)生規(guī)范意識。對于具體事實層面的認識,強人工智能體完全可以通過傳感器來獲取。至于規(guī)范層面的認識,特別是對行為性質(zhì)、意義、后果的認識,僅僅依靠傳感器難以實現(xiàn),需要賦予其機器人道德。機器人道德是其判斷善惡是非的標準,具備了機器人道德的強人工智能體就具備了行為的善惡認識能力,進而具備了棄惡揚善的自由意志。如果決意從惡,就應當承擔刑事責任??刂颇芰Φ膶崿F(xiàn)是強人工智能體實現(xiàn)其行為的必備條件,在算法、數(shù)據(jù)傳輸、傳感器等技術的支持下,強人工智能體擁有著比人類反應速度更快、更精準的控制能力。具備了辨認能力、控制能力,強人工智能體也就具備了刑事責任能力,進而具備了承擔刑事責任的可能性。
強人工智能體刑事責任主體資格否定論者將以人類為中心的刑罰制度和措施機械地適用于強人工智能體,沒有考慮自然人與強人工智能體的內(nèi)在差異性,有諸多不可取之處,只有針對強人工智能體自身特性設定刑罰措施,使其刑事主體地位因刑罰措施的執(zhí)行而得以貫徹和體現(xiàn),方可最終實現(xiàn)刑法的善治。具體而言,筆者認為應當從如下幾個方面針對強人工智能體設定適當?shù)男塘P措施:
第一,針對強人工智能體設定資格刑,禁止其進入特定行業(yè)、從事特定行為、進入特定場所。因為賦予強人工智能體法律人格是基于功利主義的特定社會需求,因而進入特定行業(yè)、從事特定行為以實現(xiàn)人類利益需求是其終極使命和最終價值,它只能通過從事特定行為、參與社會活動而成為法律主體,這與法人的刑事責任主體資格取得并無二致。因此,剝奪其進入特定行業(yè)、從事特定行為的資格會造成其存在價值暫時或永久地喪失,并帶來自身乃至背后自然人情感上的痛苦,如此也就實現(xiàn)了刑法的目的。如果給強人工智能體的資格刑設定期限,其效果相當于針對自然人主體的生命刑和自由刑。
第二,針對強人工智能體設定財產(chǎn)刑。賦予強人工智能體法律人格就是賦予其法律規(guī)定的權利義務,也即可以參照法人賦予其相對獨立的財產(chǎn)權。剝奪強人工智能體的財產(chǎn)權,其所參與的社會經(jīng)濟活動也難以為繼,同時也會造成與強人工智能體利益相關的自然人的痛苦,迫使其盡到謹慎義務并督促其防止強人工智能體再次犯罪。
第三,針對強人工智能體設置恰當?shù)男塘P裁量和執(zhí)行措施。如前所述,強人工智能體因植入倫理道德算法而不具備善惡是非的辨認能力,當然也包括對社會秩序遵守和社會文化的認同,從而實現(xiàn)了由“工具人”到“社會人”角色的轉變。在此過程中,強人工智能體可以基于自由意志在深度學習中體會其行為的利弊,在犯罪的快感和刑罰的痛苦中權衡,刑罰的教育和威懾功能也得以體現(xiàn)[19]。同樣,刑罰的預防功能也可以在刑罰的執(zhí)行過程中得以實現(xiàn),通過指定適合于強人工智能體的累犯、自首、坦白、立功、減刑、假釋等刑罰量刑和執(zhí)行措鼓勵其盡早消除人身危險性并重返社會。
刑法理論因特定時代需求而產(chǎn)生,不同理論流派的演進均在特定的歷史時空具有現(xiàn)實意義。當前人工智能技術迅猛發(fā)展,其工具屬性逐漸減弱,獨立性逐步增強,催生出一系列法律問題。在刑法人類中心主義因此再次受到挑戰(zhàn)之際,有學者回應道:“人工智能并未對法律基礎理論、法學基本教義提出挑戰(zhàn),受到挑戰(zhàn)的只是如何將傳統(tǒng)知識適用于新的場景?!盵20]我們應當看到,在強人工智能體部分替代人類的趨勢下,其行為難以被預測,現(xiàn)行刑法體系無法解決無自然人行為情形下的歸責問題,行之有效的措施是及時調(diào)整刑法人類中心主義觀念,賦予強人工智能體法律人格,承認其刑法主體地位,發(fā)揮人工智能技術造福人類的正向價值。