華南農(nóng)業(yè)大學(xué)人文與法學(xué)學(xué)院 梁穎欣,梁雅淇
大數(shù)據(jù)和人工智能技術(shù)迅速發(fā)展是科技進步和發(fā)展的必然結(jié)果,人類已然邁入人工智能時代。2017年7月8日國務(wù)院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,進一步明確了我國新一代人工智能發(fā)展的戰(zhàn)略目標,將發(fā)展人工智能技術(shù)上升為重要國家戰(zhàn)略。隨著人工智能的發(fā)展,其在國內(nèi)外被運用于諸多領(lǐng)域,尤其是法律領(lǐng)域,在法律文書寫作、法律咨詢、案情預(yù)測以及案件審理輔助等方面。然而,人工智能是一把雙刃劍,在給社會發(fā)展帶來便利的同時也產(chǎn)生了無法預(yù)計的風險,刑法在人工智能發(fā)展和運用的過程中必然會受到影響,因此對于人工智能背景下可能出現(xiàn)的對刑法的挑戰(zhàn)需要進行探討,從而提出相應(yīng)的應(yīng)對策略。
人 工 智 能(Artificial Intelligence),英文縮寫為AI。人工智能最初是由麥卡錫在1956年提出的,但當時并沒有對人工智能作出詳細的定義。后來,“人工智能之父”馬文·明斯基指出,人工智能是指一門建立在其可以模擬人類的前提下,利用編程語言和理論模型來幫助解決人類的現(xiàn)實問題,并提高人類解決相關(guān)問題的能力的科學(xué)。也有其他的說法,稱人工智能是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。
由此可見,對于人工智能的定義,在學(xué)界尚未形成統(tǒng)一的意見,不同的學(xué)者有不同的理解。但無論如何,人工智能與人類有著密切聯(lián)系、不可分割,這一點無需質(zhì)疑。
當下,關(guān)于人工智能的分類,參照不同的分類標準有不同的分類方法,其中獲得較多學(xué)者認可的方法有“二分法”“三分法”和“四分法”,科學(xué)界關(guān)注較多的是“四分法”。由于法學(xué)更多考量行為人是否具有獨立的思考、辨認和控制能力,因此法學(xué)界多圍繞“二分法”對人工智能進行討論[1]。
1.弱人工智能
弱人工智能是指沒有自主意識和自我認知功能的人工智能系統(tǒng)與方法,并沒有真正推理和解決問題的智能機器[2]。弱人工智能是目前人工智能領(lǐng)域主要研究的內(nèi)容,但其智能范圍較窄,只擅長于某一特定領(lǐng)域,是執(zhí)行人類所賦予的指令的機器。當年戰(zhàn)勝世界圍棋冠軍的“阿爾法狗(AlphaGo)”便屬于弱人工智能體,日常生活中的人臉識別系統(tǒng)以及智能家電的計時等也屬于弱人工智能機器。
2.強人工智能
強人工智能是指能夠思考和解決問題的智能機器,具有高度的自主性[3],這種類似人類級別的人工智能。相比弱人工智能,強人工智能的職能范圍較寬,可以涉及多個領(lǐng)域。強人工智能知道自己在做什么,能夠自主思考、自主處理事務(wù),它不一定會按照人類預(yù)先設(shè)定的指令來運行,而是會根據(jù)不同的情況作出決定。目前強人工智能體并不多,但隨著科技的發(fā)展,強人工智能的增加是必然的,提前預(yù)見和對其進行國內(nèi)外研究的總結(jié)思考十分必要。
關(guān)于弱人工智能的刑事責任主體資格認定。由弱人工智能的概念可知,弱人工智能機器人受控于人類所設(shè)計的程序,其對所實施的一切行為都不具有獨立的意識,也不具有自我認知功能,其本質(zhì)只是使得人類工作和生活更便利的機器。因此,弱人工智能機器人不應(yīng)當具備刑事責任主體資格,其本身并不滿足刑法所規(guī)定的刑事責任主體具備的條件,這一點在學(xué)界幾乎沒有爭議。關(guān)于強人工智能的刑事責任主體資格認定。自強人工智能出現(xiàn)以來,在學(xué)界一直存在爭議,主要有肯定說、折中說和否定說三種觀點[4,5]。筆者認為,強人工智能機器人可以作為刑事責任的主體,主要原因有以下幾點:第一,當強人工智能機器人發(fā)展到一定階段時,可以脫離程序自主實施犯罪,這滿足了實施嚴重危害社會的行為的要件。第二,是否具備刑事責任能力主要看兩個方面,即年齡和精神狀況,這兩個方面都是以自身的辨認能力與控制能力為標準來衡量的。因此,能否成為刑法意義上的刑事責任主體取決于行為人對自己的行為是否具有辨認能力與控制能力。最后,雖然現(xiàn)行刑法對人工智能體自主犯罪未作出規(guī)定,但違法必究,一旦強人工智能機器人實施了犯罪行為,就應(yīng)當承擔刑事責任。綜上,強人工智能機器人符合構(gòu)成刑事責任主體的條件,應(yīng)當具有刑事責任主體資格。
人工智能在生活中的運用愈發(fā)多元化,人工智能可以使得產(chǎn)品智能化,也能使得犯罪工具和犯罪手段智能化[6]。在互聯(lián)網(wǎng)、大數(shù)據(jù)等新技術(shù)發(fā)展的今天,傳統(tǒng)犯罪的行為模式也因此發(fā)生改變,犯罪方法和手段更加多樣化,風險性越來越高。以最常見的信息收集為例,相比其他方式,線上收集信息是最便利的。在人工智能時代,獲取信息的時間是極短的,只要填寫人將資料進行上傳,這些資料就會集中在一起。用于工作固然是便利的,但一旦人工智能技術(shù)被不法分子利用或者人工智能機器人產(chǎn)生自主意識實施犯罪,所收集的信息就會被竊取或泄露,人們的信息安全得不到保障,長期下去更是會擾亂社會秩序,引起恐慌。
1.弱人工智能體被人利用,用作犯罪工具以實施犯罪
現(xiàn)今,人工智能體仍處于低級階段,其僅能夠執(zhí)行人類所設(shè)計的指令,無法辨認人類所輸入的指令是否具有危害性。2019年3月,有犯罪分子使用基于人工智能的軟件模仿一家英國能源公司首席執(zhí)行官的聲音,騙取其下屬22萬歐元。在我國首例利用AI人工智能犯罪案中,亦有人利用人工智能的自主識別能力,非法獲取公民的個人信息后大量販賣。國內(nèi)外大量出現(xiàn)的新型人工智能犯罪,在大多數(shù)情況下,是利用弱人工智能體的識別能力、改造能力等,將其作為犯罪工具,以實現(xiàn)犯罪目的,這是對犯罪客觀方面的挑戰(zhàn)。
2.研發(fā)人員或使用人員對弱人工智能體的監(jiān)督義務(wù)未履行導(dǎo)致過失犯罪
對于弱人工智能體而言,研發(fā)人員和使用人員是其發(fā)明主體和使用主體,這兩個主體對弱人工智能體有監(jiān)督義務(wù),以防出現(xiàn)危害社會的行為。弱人工智能體仍存在許多缺陷,如研發(fā)人員或使用人員未履行對弱人工智能體的監(jiān)督義務(wù),導(dǎo)致弱人工智能體出現(xiàn)危害社會的行為,開發(fā)者和使用者在主觀上存在監(jiān)督的過失,應(yīng)構(gòu)成過失犯罪。以無人駕駛為例,美國推出目前為止第一部也是唯一一部自動駕駛汽車法案—《聯(lián)邦自動駕駛汽車政策指南(FAVP)》,德國聯(lián)邦參議院在2017年6月頒布了《道路交通法》(第八修訂案),明確了使用自動駕駛系統(tǒng)時駕駛員所具備的權(quán)利以及需履行的義務(wù)。但我國現(xiàn)行刑法以懲罰故意犯罪為原則,懲罰過失犯罪為例外,且目前對弱人工智能體開發(fā)者和使用者的監(jiān)督義務(wù)未進行明確規(guī)定,因此很難追究研發(fā)人員和使用人員的監(jiān)督過失責任。長此以往,弱人工智能體所產(chǎn)生的危害后果將難以計量,對社會的危害將越來越大,這不利于保護受害人的合法權(quán)益和維護社會公平正義。
3.強人工智能體在自主意志的支配下實施犯罪
雖說現(xiàn)階段的人工智能體以弱人工智能體為主,但在科技高速發(fā)展的今天,強人工智能體的出現(xiàn)是社會發(fā)展的必然結(jié)果。由前述可知,強人工智能體具有自主意志,從某種程度上看,與人類幾乎沒有區(qū)別。強人工智能體完全脫離人類的控制,在自主意志的支配下實施犯罪,是無法歸責于研發(fā)人員或使用人員的,而按照目前的刑法規(guī)定,也無法將其定罪。現(xiàn)行刑法規(guī)定的犯罪主體僅僅是自然人和單位,未將強人工智能體納入其中,這就難以對強人工智能體的違法行為進行規(guī)制,這對于將來強人工智能體犯罪的責任追究有一定的難度。
由前述可知,強人工智能體在經(jīng)過深度學(xué)習(xí)后,能夠具備獨立意志和自我意識,甚至有可能按照自己的意志實施犯罪,此時強人工智能體已經(jīng)不再是機器,它具有了法律意義上的刑事責任主體地位。強人工智能體的出現(xiàn)是必然結(jié)果,而強人工智能體是否存在犯罪的可能性則取決于其學(xué)習(xí)的內(nèi)容。如果未來的某一天強人工智能體實施了犯罪,而刑法中沒有任何規(guī)定,它就可以凌駕于法律之上,利用法律的漏洞繼續(xù)犯罪。要想防患于未然,就要對強人工智能體的犯罪行為進行有效規(guī)制。因此,在刑法中應(yīng)當明確強人工智能體的刑事責任主體地位,將強人工智能體增加到刑法所規(guī)定的刑事責任主體當中,將強人工智能體刑事犯罪納入刑法的規(guī)制范圍。
近年來,人工智能犯罪事件層出不窮,而現(xiàn)行的法律在這一方面有所欠缺,目前也沒有任何國家將人工智能犯罪寫入本國刑法之中。但歐美地區(qū)一些國家已經(jīng)開始進行對人工智能立法的相關(guān)探討,歐盟早在2016年就已發(fā)布《歐盟機器人民事法律規(guī)則》,雖然是一個民事法律規(guī)則,但其中對人工智能的研發(fā)和審查人員制定了規(guī)則,并賦予了復(fù)雜的自主機器人以法律地位的可能性,這為日后制定專門的人工智能犯罪刑事法律規(guī)范打下了基礎(chǔ)。為對人工智能犯罪進行有效的規(guī)制,切實保障社會與公眾的利益,我國應(yīng)當借鑒英美法系國家的相關(guān)規(guī)定,增設(shè)與人工智能相關(guān)的罪名。對于弱人工智能犯罪,可以增設(shè)濫用人工智能產(chǎn)品罪[7],以防止當事人故意利用人工智能機器人實施犯罪,具體的定罪量刑可以參考刑法中已有的類似罪名。另外,還應(yīng)當設(shè)立人工智能重大責任事故罪[8],以防出現(xiàn)研發(fā)人員或使用人員未盡到監(jiān)督義務(wù)導(dǎo)致過失犯罪的情況,一旦由于監(jiān)督過失導(dǎo)致數(shù)據(jù)泄露或其他更嚴重的危害,其危害難以磨滅,控制人工智能的主體應(yīng)當承擔較重的責任,更應(yīng)該受到刑法的規(guī)制。
人工智能體存在的基礎(chǔ)是程序,對于程序可以進行數(shù)據(jù)刪除、修改以及永久銷毀。永久刪除人工智能體犯罪時所依賴的數(shù)據(jù),相當于刪去了人工智能體犯罪的工具,人工智能體無法再利用這些數(shù)據(jù)實施犯罪,但這遠遠不夠。隨著人工智能體段位的提升,找回已刪除的數(shù)據(jù)并不困難,而找回數(shù)據(jù)的過程屬于程序,對程序進行修改才能夠較為有效地阻止人工智能體犯罪,也可以通過對程序的修改引導(dǎo)人工智能體學(xué)習(xí)正面的、積極的數(shù)據(jù)。對于強人工智能體而言,前面兩種處罰措施都沒有太大的效果,因為此時強人工智能體已經(jīng)產(chǎn)生了自主意識,哪怕是刪除數(shù)據(jù)和修改程序也很難阻止其再次犯罪,故采取永久銷毀的方法來對強人工智能體的犯罪進行永久性處罰是最合適的。
當下,社會正處于人工智能時代,歸根結(jié)底,人工智能與人類傳統(tǒng)認知存在一定的偏差,傳統(tǒng)的刑法規(guī)定存在一定的滯后性。要在堅持刑法基本原則的同時,結(jié)合社會現(xiàn)狀,通過對比研究國內(nèi)外對于人工智能犯罪的研究和探索,以實現(xiàn)立法觀念的更新,從而更好地對相關(guān)的定罪量刑適用進行一定的調(diào)整。否則,隨著人工智能的發(fā)展,刑法的持續(xù)落后會導(dǎo)致人工智能犯罪無法得到規(guī)制,社會和公眾的利益無法得到保障,整個社會都會陷入困境。