劉曉梅,劉雪楓
(天津工業(yè)大學(xué) 法學(xué)院,天津 300387)
隨著科技的不斷發(fā)展,近年來“人工智能”呈爆發(fā)式增長。2017年年初,《新一代人工智能發(fā)展規(guī)劃》正式頒布,當(dāng)中明確指出,2020-2030年“人工智能發(fā)展戰(zhàn)略目標(biāo)三步走”[1]。2018年10月,國家政治局再次召開集體學(xué)習(xí),學(xué)習(xí)的主題是人工智能的發(fā)展現(xiàn)狀與發(fā)展前景,中共中央總書記,國家主席習(xí)近平在學(xué)習(xí)中提到,必須把人工智能的發(fā)展放在國家戰(zhàn)略層面,把握主動[2]。2018年11月20日下午,以“人工智能快速發(fā)展下的先進制造研發(fā)基地建設(shè)和世界智能大會”為主題的理論創(chuàng)新論壇在天津市社科聯(lián)舉行,該論壇圍繞人工智能發(fā)展中的理論焦點、實踐難點、發(fā)展重點展開交流,并承諾將以此次論壇為開端,依托社科界和智庫廣泛專家資源優(yōu)勢,凝聚管學(xué)研業(yè)界眾力,為天津人工智能產(chǎn)業(yè)發(fā)展服務(wù),助力天津先進制造研發(fā)基地高水平建設(shè),助推世界智能大會提升人文品質(zhì),為“五個現(xiàn)代化天津”建設(shè)貢獻力量。
當(dāng)前在人工智能發(fā)展中,其所涉及的法律風(fēng)險問題也開始顯現(xiàn)?;艚鹫J為,人工智能的迅猛發(fā)展,其可能產(chǎn)生自我意識和自主判斷,最終超越人類的人工智能有可能奴役人類甚至導(dǎo)致人類死亡[3]。2015年7月德國大眾汽車制造廠機器人在被安裝和調(diào)制過程中將工人重重壓向金屬板,最終導(dǎo)致這名工人因傷重不治身亡;2016年11月我國深圳高交會上參展的機器人“小胖”在移動時將展臺玻璃碰倒,劃傷了觀眾;2018年3月美國亞利桑那州一輛Uber自動駕駛汽車以64公里的時速撞向一名橫穿馬路的女性,造成該女性不治身亡,這是全球首起自動駕駛汽車撞死人類的事故……這一系列的機器人致人傷害或死亡的事件,其刑事責(zé)任認定問題引起理論界和實務(wù)界廣泛關(guān)注。2017年,《關(guān)于機器人民事法律規(guī)則的決議》在歐洲各國的議會上以高票數(shù)通過,決議中明確指出,自主機器人一旦引發(fā)事故,必須承擔(dān)起相應(yīng)的責(zé)任,但前提是要認可機器人作為“電子人”的法律地位。只有這樣,一旦發(fā)生由機器人引發(fā)的事故或造成的損害時,才能根據(jù)機器人的行為能力以及電子人格進行責(zé)任判定[4]。國務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中提到,人工智能的發(fā)展不能放任自由,必須正確引導(dǎo),機器人雖然與正常人不同,但同樣具備獨立的人格,應(yīng)當(dāng)擁有一定的權(quán)利,同時需要履行相應(yīng)的義務(wù)。為此,我國部分學(xué)者提出,從法律上認可人工智能系統(tǒng)作為一個“電子人”的地位,是大力發(fā)展人工智能的必然要求[5]。學(xué)界對人工智能的界定,簡單來說,就是通過先進的科學(xué)技術(shù),賦予機器人靈活的大腦,使其能夠按照指令完成任務(wù)。但是,一直以來,我國學(xué)者對人工智能的類型劃分存在不同觀點:有學(xué)者提出“兩分法”,指出人工智能應(yīng)當(dāng)按照強弱進行劃分[6];有學(xué)者提出“三分法”,即將人工智能劃分為三個等級,即超人工智能,強人工智能和弱人工智能。弱人工智能只能從事某方面的技術(shù)或操作[7],比如戰(zhàn)勝了世界圍棋冠軍的阿爾法狗;強人工智能在各個領(lǐng)域都擁有與人類同等的智慧,具有獨立解決問題的能力;超人工智能是在所有領(lǐng)域都超越人類大腦的超人工智能體;還有學(xué)者提出“再生智能”這一概念,將是否具有“再生智能”作為區(qū)分強弱人工智能的標(biāo)準。弱人工智能依賴于機器研發(fā)者事先預(yù)設(shè)的程序,不具備自我學(xué)習(xí)和創(chuàng)造的能力,不具備再生智能;強人工智能是指具備自我學(xué)習(xí)和創(chuàng)造功能,不僅僅依據(jù)研發(fā)者事先預(yù)設(shè)的程序和機理,自我能夠創(chuàng)設(shè)新智能的智能產(chǎn)品[8]。筆者贊同“二分法”,仿照自然人所具有的的辨認能力和控制能力來進行強弱人工智能分類。
弱人工智能只是在設(shè)計和編制的程序范圍內(nèi)進行活動,其實現(xiàn)的只是設(shè)計者或使用者預(yù)先設(shè)定好的程序算法,因其不具有辨認能力和控制能力,只能將其視為智能工具,其不具有刑事責(zé)任主體資格,無法獨立承擔(dān)刑事責(zé)任。
以“自動駕駛機動車”為例,按照目前通用的自動駕駛機動車的技術(shù)標(biāo)準,自動駕駛機動車的分級為L1-5級,但即便是最高級的完全自動駕駛機動車,也無法成為獨立的刑事責(zé)任主體,因為其完全自動駕駛的所有指令都是由人類開發(fā)者根據(jù)提前設(shè)計好的程序算法發(fā)出的,其只需要借助車身上裝載好的激光測距儀、雷達、傳感器等根據(jù)實際情況來履行程序指令就可達到完全自動駕駛。2016年5月7日,一輛2015年版ModelS拓速樂牌轎車與一輛拖掛車輛在美國佛羅里達州一段高速公路上相撞,導(dǎo)致駕駛員死亡。根據(jù)2013年美國國家公路交通安全管理局發(fā)布的機動車自動化標(biāo)準,該事故汽車屬于L2級自動駕駛汽車(部分自動駕駛機動車)。按照L2級自動駕駛機動車劃分的依據(jù),該車的輔助駕駛系統(tǒng)還不能識別所有的道路交通危險,不能代替駕駛員直接駕駛,因而在使用輔助駕駛功能時,操控者依然為駕駛員,其仍需維持高度警惕性,盡管其本人不直接操控車輛,車輛卻始終是處于其監(jiān)管下的,主要責(zé)任仍歸屬于該車輛的駕駛員[9]。據(jù)相關(guān)調(diào)查,該車不存在設(shè)計缺陷和制造缺陷,所以該事故責(zé)任不能歸責(zé)于機動車本身,也不能歸責(zé)于研發(fā)者、生產(chǎn)者,只能由該機動車駕駛員對安全行駛負全部責(zé)任。
目前人類尚處于弱人工智能時代,人工智能產(chǎn)品作為“智能工具”所造成的刑事責(zé)任問題主要有以下幾種情況:其一,行為人(研發(fā)者/使用者)故意利用弱人工智能產(chǎn)品實施犯罪的情形。研發(fā)者在弱人工智能產(chǎn)品出廠前就已經(jīng)在其系統(tǒng)中植入了類似于犯罪計劃的程序,且使用者并不知情,也從未想過利用該智能產(chǎn)品實施犯罪,那么只要弱人工智能產(chǎn)品實施了該程序所預(yù)設(shè)的犯罪行為,所有的刑事責(zé)任都應(yīng)當(dāng)由研發(fā)者承擔(dān)。另一種情況,研發(fā)者和使用者共謀利用弱人工智能產(chǎn)品實施犯罪行為,此時可參考共同犯罪,由研發(fā)者和使用者共同承擔(dān)刑事責(zé)任。還有一種情況,研發(fā)者在弱人工智能產(chǎn)品出廠前盡到了合理的注意義務(wù),且其無法預(yù)見出廠后該智能產(chǎn)品會造成危害結(jié)果,該人工智能產(chǎn)品實施危害行為是使用者故意為之,所有的刑事責(zé)任應(yīng)當(dāng)由使用者來承擔(dān)。其二,行為人過失致使弱人工智能產(chǎn)品犯罪的情形。這里的“過失”指的是弱人工智能產(chǎn)品的研發(fā)者或使用者違反了預(yù)見義務(wù)。在使用或研發(fā)弱人工智能產(chǎn)品時,人工智能技術(shù)可以避免危害結(jié)果的發(fā)生的情況下,研發(fā)者及使用者仍需肩負相應(yīng)的責(zé)任及義務(wù),最終未預(yù)見或已經(jīng)預(yù)見卻輕信能夠避免而導(dǎo)致危害結(jié)果的發(fā)生,表明一般過失犯罪成立,研發(fā)者或使用者應(yīng)承擔(dān)刑事責(zé)任[10]。其三,在研發(fā)或使用弱人工智能產(chǎn)品時,人工智能技術(shù)無法避免危害結(jié)果的發(fā)生。在該情形下,智能機器人的研發(fā)者或使用者已經(jīng)盡到了合理的注意義務(wù)卻仍未能避免危害結(jié)果的發(fā)生,所造成的危害結(jié)果不能由二者承擔(dān)。有學(xué)者提出,此種情形可以參照民法中的“嚴格責(zé)任”,人工智能產(chǎn)品的研發(fā)者或使用者成立監(jiān)督過失犯罪。筆者認為,不能參照民法中的“嚴格責(zé)任”認定研發(fā)者或使用者成立監(jiān)督過失犯罪。一是因為刑法不同于民法,民法中的“嚴格責(zé)任”也稱為無過錯責(zé)任,而刑法則遵循罪、責(zé)、刑相適應(yīng)原則,無過錯也即既無故意也無過失,強加其二者無過錯的刑事責(zé)任是不合理的;二是將所有責(zé)任都歸于研發(fā)者和使用者,無疑會阻礙“人工智能產(chǎn)業(yè)”的發(fā)展,使得研發(fā)者因忌憚法律風(fēng)險而無法致力于創(chuàng)新,使用者因畏懼承擔(dān)法律責(zé)任而不敢購買使用人工智能產(chǎn)品,導(dǎo)致人工智能產(chǎn)業(yè)喪失發(fā)展活力。
在弱人工智能時代,無論行為人是故意利用人工智能實施犯罪行為,還是由于過失而致使人工智能實施犯罪行為,都僅是把人工智能產(chǎn)品視作“智能工具”。為加強刑事風(fēng)險防控,劉憲權(quán)教授提出,未來我國刑法的改造可從下述幾方面入手:第一,從源頭防控風(fēng)險:增設(shè)濫用人工智能罪;第二,確立嚴格責(zé)任:增設(shè)人工智能事故罪[11];第三,適時考慮賦予強人工智能機器人刑事責(zé)任主體的地位[12]。而馬榮春教授認為,人工智能在實質(zhì)上不具有受刑能力,在人工智能造成損害的場合根本不存在刑事意義上針對其本身的“處罰空隙”問題[13]。目前AI應(yīng)用領(lǐng)域中,最為成熟的當(dāng)屬無人駕駛技術(shù)與智能醫(yī)療技術(shù),兩者對人們的生活及安全有極大影響,故應(yīng)受到高度關(guān)注,在上述AI應(yīng)用領(lǐng)域,駕駛與手術(shù)的過程作為行為主體的“人”已被虛化,并無實質(zhì)的參與行為?!叭恕蓖司佣€,如果基于“無行為則無犯罪”原則,使刑事責(zé)任主體無從可尋。查證AI的主觀罪過也是技術(shù)上的偽命題。所有的人在智能駕駛時代都成為潛在被害者,傳統(tǒng)的行為主體消失,將刑事歸責(zé)完全轉(zhuǎn)嫁到智能技術(shù)或智能汽車提供商顯失公平。筆者認為,應(yīng)當(dāng)堅持“技術(shù)中立”,為防控刑法風(fēng)險,應(yīng)當(dāng)推行強制保險制度來平衡用戶和生產(chǎn)商雙方的利害關(guān)系,加強被害人的救助補償制度[14]。
隨著尖端科技日新月異的發(fā)展,未來的機器人在很大幾率上會在無人介入的情境下做出系統(tǒng)算法中本無設(shè)定的行為。此時人工智能產(chǎn)品所做出的種種“行為”,有些并非是設(shè)計及制作過程設(shè)定的,而是具體操作時發(fā)生的變動,這些變動都是難以預(yù)估的,且是結(jié)合當(dāng)下的實際需求重新設(shè)定而做出的。所謂的強人工智能,實際上就是能夠決策及實施的行為不屬于設(shè)計及編程范疇的人工智能。當(dāng)強人工智能產(chǎn)品開始不受人類監(jiān)管時,其在運轉(zhuǎn)過程中可能會造成的對社會對個人的法益上的侵害結(jié)果,最終承擔(dān)責(zé)任的對象應(yīng)是誰,在刑法中并未明晰,在此情況下,就必須專門頒布“機器人刑法”。為了防止未來AI對人類法益實際產(chǎn)生侵害,國內(nèi)外很多學(xué)者提出“人工智能獨立承擔(dān)刑事責(zé)任”的觀點(下稱“獨立責(zé)任承擔(dān)說”)。“獨立責(zé)任承擔(dān)說”的核心依據(jù)是AI符合施加刑事責(zé)任的內(nèi)部要素,即獨立的“控制能力與可培養(yǎng)的辨認能力”?!蔼毩⒇?zé)任承擔(dān)說”為AI設(shè)定了有針對性的刑罰措施。這包括對AI懲處罰金刑;對AI施以自由刑;對AI施加死刑,包括對軀體的永久銷毀和對AI的數(shù)據(jù)予以刪除[15]。具體而言,“獨立責(zé)任承擔(dān)說”主要觀點如下:
根據(jù)我國《刑法》的規(guī)定,只要實施了能夠?qū)ι鐣a(chǎn)生危害的行為且具備刑事責(zé)任能力,即自我控制和辨認能力就能夠成為抽象的犯罪主體,至于“應(yīng)受刑罰處罰承擔(dān)責(zé)任”則是來源于罪刑法定原則,是立法者在肯定了強人工智能產(chǎn)品具備刑事責(zé)任能力并能夠?qū)嵤┚哂猩鐣:π缘男袨橹笤诹⒎ㄉ系倪x擇與回應(yīng),所以是否能夠?qū)嵤┪:ι鐣男袨榍揖邆湫淌仑?zé)任能力才是決定人工智能產(chǎn)品能否成為犯罪主體的本質(zhì)要件[16]。毋庸置疑,超出設(shè)計和編制程序的強人工智能能夠自主決策,且能夠基于自主意志實施具有社會危害性的行為,滿足成為犯罪主體的兩個條件,應(yīng)當(dāng)成為受刑法規(guī)制的犯罪主體。
站在歷史的長河中,循著“行為理論”與時俱進的發(fā)展歷程來看,當(dāng)中較為典型且有代表性的包含目的行為、社會行為、因果行為、自然行為等理論,這些理論是基于人的基礎(chǔ)上,以人的行為作為基礎(chǔ)而構(gòu)建[17],偉大的哲學(xué)家,思想家馬克思曾說:“法律的對象并不是人,而是人的行為?!庇纱丝梢姡墒墙⒃谌说男袨榛A(chǔ)上的,而“行為”又應(yīng)如何定性?“行為”是否必須是“人”的行為?然而,對于人的行為的討論,是否同樣適用于人工智能系統(tǒng)呢?雖然人工智能系統(tǒng)與正常人有所不同,但事實上,盡管人工智能系統(tǒng)不屬于生命體,但它的其余要素與“行為理論”完全吻合[18]。因此,賦予強人工智能機器人刑事主體資格是具有現(xiàn)實可能性的。
法律是案件判決的直接依據(jù),對違法犯罪行為進行懲罰,本質(zhì)上是為了預(yù)防犯罪,這種預(yù)防又可分為特殊預(yù)防與一般預(yù)防。一般認為,特殊預(yù)防的目的在于通過刑罰限制、剝奪犯罪主體的再犯能力,實現(xiàn)威懾與再社會化功能;而一般預(yù)防則是通過對犯罪人適用刑罰向一般社會主體宣告,犯罪就必須受罰,向一般社會主體施壓及震懾,從根源上杜絕犯罪行為的產(chǎn)生。強人工智能產(chǎn)品,雖然不具有人類的生物體征和肉體上的痛感,但其擁有自我控制與辨認能力,如若對其進行剝奪自由、毀損等處罰,其也會感到痛苦、自責(zé)與憤懣,并且人工智能的核心數(shù)據(jù)庫都是同步即時更新的,其他的人工智能犯罪人受到處罰,強人工智能產(chǎn)品也會受到威懾與教育,從而整體在人工智能產(chǎn)品中減少再犯率與犯罪率,以實現(xiàn)刑罰預(yù)防的功能與目的[19]。
“否定說”認為,強人工智能所具備的自我學(xué)習(xí)能力是人類所賦予的,不應(yīng)將其神圣化。是人類用他們已知的技術(shù)將一些材料組合起來再輔以核心算法創(chuàng)造了目前我們稱之為“人工智能”的東西,人工智能創(chuàng)造之初,就是為了便捷人類的生活,其地位在創(chuàng)造之初就已經(jīng)被設(shè)定,如若賦予其類人的法律地位,無疑是否定了人類最初的構(gòu)想,也不利于人類的可持續(xù)發(fā)展。人工智能的思維程序是機械式不帶有情感的,雖然其具備辨認和控制能力,能夠自主根據(jù)不同情況實施行為,但其仍舊無法感知、理解自身行為的意義,其執(zhí)行任務(wù)的基點仍是冷冰冰的代碼,無法像人類一樣基于某種特殊的情感而做出某種行為。如小米系統(tǒng)中的“小愛同學(xué)”、蘋果系統(tǒng)的Siri等等,對于閱讀的內(nèi)容具體為什么意思,這些人工智能并不了解,因各智能程序間存在的差異性使其無法學(xué)習(xí)、交流,且各程序的本體及知識表現(xiàn)形式也具有較大差異[20]。“否定說”指出,人工智能獨立承擔(dān)刑事責(zé)任不具有理論自洽性,強人工智能不能成為刑事責(zé)任主體,其主要理由如下:
有觀點指出,雖然具備獨立的自我辨認和控制能力是成為犯罪主體的前提,但是將人工智能過度的向自然人的抽象概念靠攏并賦予其主體資格無疑是荒謬的。自然人是具有社會屬性的,鑒于人的多面相性,強人工智能和自然人有本質(zhì)差別。假如人僅被都當(dāng)成抽象化、理性化的法律主體,那其將不會存在其它的面相。人與人工智能系統(tǒng)不同,人是一個實實在在的實體,具有思考能力,行為能力,需要與他人進行接觸[21]。因此,機器人再怎么“高智商”,它也不能成為“人”,“人”身上的種種獨特的屬性,是一個機器無論如何也無法具備的?!翱隙ㄕf”堅持強人工智能產(chǎn)品的犯罪主體地位是站在一個非常抽象的法律角度來考慮的,忽略了作為法律主體的自然人的其他面相。
黑格爾認為:犯罪本身就是一種經(jīng)過理性思考才作出的行為,一旦人產(chǎn)生了犯罪行為,就必須接受法律的懲罰,在他看來,犯罪是犯罪人自由意志的體現(xiàn)[22]。若要尋找正當(dāng)?shù)男塘P根據(jù),那必須由犯罪人的自由意志入手,實際上就是,犯罪人是通過犯罪來體現(xiàn)自由意志,那么自由意志不存在的情況下犯罪自然也不會形成,所以與刑法間也無實質(zhì)性的聯(lián)系[23]?,F(xiàn)代刑法確立主客觀相統(tǒng)一的犯罪構(gòu)成理論。犯罪行為是否成立,不僅需要考量犯罪行為對他人或社會所造成的損害,而且還要考慮犯罪人的作案動機和心理狀態(tài)。
1.強人工智能運行機理與人的意志自由進行形式匹配過于機械,與自然人的獨立意志不具有對等性
就算是強人工智能,也只是在人為的干預(yù)下按照指令執(zhí)行操作,即便人工智能技術(shù)繼續(xù)發(fā)展,甚至能夠脫離人類的控制,自主做出某種行為,但其仍然無法明白自身行為的意義,即便是做出了傷害性的行為,也可能談不上任何作案動機,因此,人工智能系統(tǒng)本身就沒有法律意義上的意志自由,與自然人的獨立意志不具有對等性。自由意志是尋找正當(dāng)?shù)呐刑幮塘P的根據(jù),其若不存在的,那么根據(jù)自然也無從找起,強人工智能不具備獨立意志,自然也就不具有被刑法規(guī)制的意義,不能成為名副其實的刑事責(zé)任主體。
2.強人工智能不具有理解并遵從法規(guī)范的能力,強人工智能行為屬性判斷無客觀標(biāo)準
刑事責(zé)任若要成立,作為行為主體需要滿足以下兩個條件:(1)對于法律規(guī)范,要有能夠認識、理解的可能與能力;(2)要能夠基于對法律規(guī)范的理解,具備在不同具體情境下抵制誘惑,即不做違法犯罪行為的意志力的可能性。但是,人工智能產(chǎn)品是在人類的努力下經(jīng)過研發(fā)而誕生,對法律條例并不了解,甚至完全沒有遵守法律條例的行為能力。換言之,即便人工智能系統(tǒng)違法了法律條例,作出了損害性行為,其本身也可能完全不自知,目前為止,人工算法并沒有能力完全干預(yù)人工智能系統(tǒng)的行為,欠缺刑法所要求的對法規(guī)范遵從的意志自由。而且強人工智能也可能會出錯,一旦算法錯誤,就會做出損害他人或社會的行為,那么從法律的層面來講,這是純屬的機器意外事故,還是人工智能系統(tǒng)經(jīng)過自主思考而作出的行為呢?人工智能系統(tǒng)是否應(yīng)當(dāng)承擔(dān)相應(yīng)的責(zé)任呢[24]?
若承認強人工智能的犯罪主體地位,就必須對其判處刑罰。我國刑法主要有五種主刑和四種附加刑,按照刑法輕重可分為管制、拘役、有期徒刑、無期徒刑和死刑;罰金、剝奪政治權(quán)利、沒收財產(chǎn)和驅(qū)逐出境[25]。由于人工智能并不是正常的行為人,不會產(chǎn)生與人體同等的感覺和道德上的負罪感,對其判處現(xiàn)有體制下的刑罰沒有人類所能理解的實際意義。對此有學(xué)者指出,可以通過對刑罰體系的重構(gòu)來實現(xiàn)對強人工智能的刑事處罰,實施特殊的刑法懲治手段,如刪除數(shù)據(jù)、修改程序、永久銷毀等[26]。有觀點認為上述看法不具有合理性,此類特殊的懲治手段無法實現(xiàn)刑罰的機能,強人工智能是冷冰冰的材料加以核心算法程序堆砌而成的產(chǎn)物,無血無肉,沒有自然人與生俱來的倫理上和道德上的制約與情感,其也無法從其他機器人受到的懲罰中吸取經(jīng)驗教訓(xùn)進而實現(xiàn)一般預(yù)防的功能。另外,如若承認強人工智能為犯罪主體,對其特殊規(guī)制,其無法與自然人一律平等地適用刑法,依法定罪量刑和行刑,勢必違反刑法面前人人平等原則,挑戰(zhàn)刑法基本原則,引發(fā)法律體系的動蕩。
盡管目前人類的技術(shù)還只是停留在弱人工智能階段,但是當(dāng)代科技迅猛發(fā)展的速度足以讓人類相信在不遠的將來,強人工智能不再是一個概念中的抽象物,而是真真切切會存在的具象物,所以對于人工智能產(chǎn)品目前以及未來可能會出現(xiàn)的一系列問題,還是應(yīng)當(dāng)考慮在先,思索在先?,F(xiàn)當(dāng)代人類社會所出現(xiàn)的弱人工智能產(chǎn)品是不具備刑事主體資格的,其在“使用”中所帶來的致人傷亡等嚴重法律后果,建議通過完善人工智能應(yīng)用被害人救助補償制度加以解決。
隨著科技發(fā)展日新月異,當(dāng)強人工智能產(chǎn)品實施了嚴重危害社會,侵害他人法益的行為時,刑法又該如何應(yīng)對?德國學(xué)者針對此問題有諸多不同看法,觀點大致分為兩派。一派的代表為希爾根多夫教授,其認為應(yīng)當(dāng)修改及完善當(dāng)前已有的刑法概念,開辟適用于機器人的刑法。另一派的代表為貝克與約爾登兩位教授,其認為刑法不可能適用于機器人,將此可能性直接抹殺,認為刑法是圍繞著人的,并嘗試解釋及修正現(xiàn)有刑法理論予以應(yīng)對[27]。本文在比較分析強人工智能主體“肯定說”和“否定說”的基礎(chǔ)上,對人工智能發(fā)展所帶來社會風(fēng)險有可能拓寬責(zé)任主體范圍,增加處罰危險犯等問題進行前瞻性反思。
當(dāng)前,人類尚處于弱人工智能時代,應(yīng)當(dāng)強調(diào)刑法的謙抑性,在變革與秩序、創(chuàng)新與守護之間把握動態(tài)平衡。同時積極響應(yīng)我國人工智能發(fā)展規(guī)劃的要求,促進有關(guān)人工智能發(fā)展的法律法規(guī)建設(shè),以期能夠進一步有效完善刑事防控系統(tǒng)。