陳偉丹 李方遠(yuǎn)
關(guān)鍵詞 弱人工智能 刑事責(zé)任主體 獨(dú)立意識(shí)
作者簡(jiǎn)介:陳偉丹,廣東工業(yè)大學(xué)政法學(xué)院,本科,研究方向:法學(xué);李方遠(yuǎn),廣東工業(yè)大學(xué)政法學(xué)院。
中圖分類號(hào):D924 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?文獻(xiàn)標(biāo)識(shí)碼:A ? ? ? ? ? ?? ? ? ? ? ?DOI:10.19387/j.cnki.1009-0592.2020.05.221
西方哲學(xué)家說過:“技術(shù)發(fā)展到一定程度后必然會(huì)有精神,如果技術(shù)發(fā)展更加智慧,它就會(huì)像大腦一般成為精神的更好載體?!?人工智能作為一種新興技術(shù),在交通、醫(yī)療、金融領(lǐng)域的應(yīng)用效果顯著,給人類帶來許多便利。目前人工智能技術(shù)還暫處于弱人工智能階段,該階段的人工智能體只在編制的程序區(qū)域內(nèi)具有超常的技術(shù)或操作,比如戰(zhàn)勝李世石、柯潔等圍棋世界冠軍的AlphaGo,但除了下圍棋外,該人工智能在其他領(lǐng)域一無所知。隨著AI不斷發(fā)展,出現(xiàn)了數(shù)起AI犯罪之后,刑法領(lǐng)域?qū)θ斯ぶ悄艿难芯咳找媾d起,目前已有不少學(xué)者對(duì)人工智能法律主體提出批判,并形成了“工具說”“電子奴隸說”等多種學(xué)說。
筆者認(rèn)為,雖然人工智能在計(jì)算、分析問題等方面的能力超過人類,但是其畢竟不具有同自然人一樣的獨(dú)立意識(shí),僅僅是局限于人類控制下的弱人工智能。對(duì)于弱人工智能是否應(yīng)該列為刑事主體,以下將以此展開討論。
在日常生活中人工智能可以進(jìn)行更高效率的數(shù)據(jù)收集、分析,幫助人類構(gòu)建舒適、安全和高效率的智慧環(huán)境。但是人工智能就是一把雙刃劍,帶來便利的同時(shí),也會(huì)帶來風(fēng)險(xiǎn),如2017年紹興破獲全國首例利用AI人工智能犯罪,在美國也發(fā)生了因自動(dòng)駕駛而引發(fā)的交通事故……面對(duì)這把雙刃劍,我們?cè)撊绾螒?yīng)對(duì)?對(duì)此,犯罪主體作為犯罪行為實(shí)施者與刑事責(zé)任的承擔(dān)者,是刑法中必須厘清的概念。筆者認(rèn)為,從自主意識(shí)、理性決策等方面考慮,決定賦予AI刑事主體資格是不可行的。
(一)不具有實(shí)質(zhì)性的情感和獨(dú)立意識(shí)
羅素和諾維格指出,人工智能具有像人一樣思考、行動(dòng)的工具、合理地思考、合理地行動(dòng)四個(gè)方面。 可見,未來人工智能的目標(biāo)是具有像人類一樣的思維和理性。
如今,人工智能的能力令人驚嘆,但是人工智能的判斷只是邏輯運(yùn)算的結(jié)果,而人類的意識(shí)并不是僅僅通過邏輯運(yùn)算產(chǎn)生的結(jié)果。人工智能雖然在某些方面可以模擬人類的感情,但是其不懂得人類生命的意義。首先弱人工智能不能像人一樣進(jìn)行外界的認(rèn)知,只會(huì)做出客觀的認(rèn)知,而人會(huì)帶有一定的主觀判斷;其次是情感過程,人工智能基于認(rèn)知是不會(huì)產(chǎn)生相應(yīng)的情感,產(chǎn)生特定的意志過程。如邊沁所說,人活在快樂與痛苦的主宰之下。 人會(huì)有思想,情緒,價(jià)值判斷等等,基于這些情感會(huì)引發(fā)不同的行為,但弱人工智能不會(huì)受這類因素而影響其后續(xù)的行為,人工智能全都是基于編寫好的程序,接收到相應(yīng)的信息后,根據(jù)固有的算法、特定的程序完成相應(yīng)的判斷,做出特定的行動(dòng)。那么可見弱人工智能是沒有能力在超出程序的范圍進(jìn)行自主的信息處理并作出自主的行動(dòng)??梢娖湟庵静⒎仟?dú)立,不能產(chǎn)生權(quán)利義務(wù)意識(shí),而是控制在由人編寫的程序中。
(二)不具備獨(dú)立承擔(dān)責(zé)任的能力
人工智能缺乏獨(dú)立意識(shí),它也沒有承擔(dān)責(zé)任的能力。另外,如果人工智能的犯罪“責(zé)任”由機(jī)器人承擔(dān),而利益由研發(fā)者或者使用者享受,那么無疑是與保護(hù)、發(fā)展人工智能的立法初衷相違背。
責(zé)任能力分為辨認(rèn)自己行為的能力和控制自己行為的能力,但因此來確定其是責(zé)任主體是不恰當(dāng)?shù)摹F┤?,在我國,不滿16周歲的未成年人同樣有辨認(rèn)能力和控制能力,但其一般認(rèn)為他們不具有刑事責(zé)任能力,因?yàn)樯鐣?huì)不認(rèn)同其具有刑事責(zé)任能力。這解釋在人工智能上,也是恰當(dāng)?shù)?。我們是透過外界來斷定一個(gè)人是否有自由意思。因此,目前人工智能還無法被人類認(rèn)同具有自由意思而為刑事主體。
同樣地,以黑猩猩為例,在美國紐約最高法院的一起“為黑猩猩申請(qǐng)人身保護(hù)令”訴訟中,法院收到了一項(xiàng)重要的科學(xué)專家證據(jù):人類和黑猩猩的DNA相似率接近99%;他們和人類在大腦結(jié)構(gòu)和認(rèn)知發(fā)展方面有相似之處,包括交流技能的平行發(fā)展 ;黑猩猩也表現(xiàn)出自我意識(shí),能在鏡子、照片和電視上認(rèn)出自己,并有能力對(duì)自己的行為進(jìn)行反思;他們表現(xiàn)出同情他人的能力,與他人的經(jīng)歷和情感相協(xié)調(diào),并模仿他人;他們的行為方式反映了道德傾向??梢?,在自然意義上的辨認(rèn)外界環(huán)境以及控制自身行動(dòng)上,其認(rèn)知能力、意志能力甚至比某些狀態(tài)下的人類還要強(qiáng)。但是,法院最終否認(rèn)了黑猩猩的法律人格,這是因?yàn)樗憩F(xiàn)出來的辨認(rèn)和控制能力同人工智能一樣不具有社會(huì)意義,社會(huì)對(duì)之成為主體資格并不認(rèn)同,對(duì)之像自然人般歸責(zé)沒有規(guī)制意義。另外,人工智能責(zé)任的承擔(dān)、對(duì)其科以刑罰,會(huì)使得人類的責(zé)任被讓渡,因此部分減少了人類的責(zé)任,這使得責(zé)任性被社會(huì)忽視,對(duì)于社會(huì)而言是沒有足夠的威懾力的。
(三)刑罰的不適應(yīng)性
刑罰的真正目的是懲罰犯罪,預(yù)防犯罪。一般認(rèn)為,“犯罪預(yù)防是刑罰的目的,是刑罰正當(dāng)化的根據(jù),為刑罰發(fā)動(dòng)提供了積極理由”。
在中國大陸主要的刑罰有財(cái)產(chǎn)刑,自由刑以及生命刑,刑罰的嚴(yán)厲程度依次上升。在弱人工智能看來,它本身并不擁有任何獨(dú)立財(cái)產(chǎn),更不用在人工智能身上適用財(cái)產(chǎn)刑了。自由刑是在一段時(shí)間內(nèi)限制罪犯的自由,令其改過自新,同時(shí)也能夠給其帶來一定的煎熬和痛苦,使得不敢再犯達(dá)到特殊預(yù)防的效果,且長(zhǎng)時(shí)間的自由刑對(duì)人的生理和心理都是極大的考驗(yàn)。而弱人工智能是一個(gè)程序,則更不會(huì)有限制自由一說,其并沒有達(dá)到刑罰的目的,因?yàn)閷?duì)其限制自由并不會(huì)給人工智能帶來痛苦。人工智能也不具有生命,所以生命刑也是無從談起??梢钥闯鑫覀儸F(xiàn)有的刑罰體系對(duì)于人工智能來說不具有適應(yīng)性,對(duì)人工智能實(shí)施刑罰達(dá)不到我們的刑罰目的。因此通過現(xiàn)行刑法無法規(guī)制弱人工智能,無法實(shí)現(xiàn)法律作用。我們沒有辦法通過對(duì)人工智能科以刑罰而指望其遵守法律,人工智能的意識(shí)只是人的意識(shí),最后真正受處罰的還是機(jī)器背后的人,就如同法人離不開背后的人,人類仍然是最終的責(zé)任承擔(dān)主體。
關(guān)于人工智能的主體地位在前文已經(jīng)闡述證明,人工智能應(yīng)以主體以外的客觀對(duì)象而存在?,F(xiàn)階段的弱人工智能,仍停留在為人所用的階段,可以說只能作為工具,嚴(yán)格來說,人工智能犯罪的實(shí)質(zhì)是人類犯罪,通過這個(gè)視角可以解決大部分涉人工智能犯罪的問題。筆者將圍繞“犯罪工具屬性”的人工智能犯罪模式以及其刑事責(zé)任歸責(zé)機(jī)制展開敘述。
(一)維持傳統(tǒng)責(zé)任主體故意犯罪的規(guī)制
現(xiàn)實(shí)中,看似機(jī)器人犯罪事件,諸如自動(dòng)駕駛汽車交通肇事事件……本質(zhì)是人類犯罪。人工智能故意犯罪是指研發(fā)者故意在弱人工智能系統(tǒng)中植入與該犯罪行為有關(guān)的程序去實(shí)施犯罪或者使用者故意改造并且利用人工智能的特定行為創(chuàng)造便利條件去犯罪。此種類型的故意犯罪中,人工智能被作為犯罪“工具”來使用,就如殺人犯中的刀、寵物主人發(fā)布一定指令讓其寵物狗去咬人。該情況下,人工智能是間接正犯,那么該研發(fā)者可以被認(rèn)定為正犯來追究責(zé)任。人工智能由此引發(fā)的刑事責(zé)任都應(yīng)當(dāng)由研發(fā)者承擔(dān)。
(二)構(gòu)造過失犯罪的懲罰規(guī)制
在絕大多數(shù)情況下,人工智能不會(huì)破圍引起犯罪結(jié)果或者損害結(jié)果發(fā)生。但是也存在程序錯(cuò)亂、偏離指令的情況。在刑法理論中,對(duì)于過失犯罪處罰的前提是違反了注意義務(wù)。以駕駛自動(dòng)汽車為例,如果研發(fā)員在人工智能投入市場(chǎng)使用之前沒有對(duì)其進(jìn)行質(zhì)量檢測(cè),違反了應(yīng)有的注意義務(wù),在機(jī)器適用期間發(fā)生了檢測(cè)時(shí)沒有預(yù)料到的風(fēng)險(xiǎn)時(shí),在可能的情況下要對(duì)產(chǎn)品進(jìn)行召回,如果制造者并未履行這一義務(wù),就要對(duì)風(fēng)險(xiǎn)產(chǎn)生的危害結(jié)果承擔(dān)責(zé)任。同樣的,人工智能使用者使用前未履行檢查機(jī)器是否有明顯的故障的義務(wù),就需要對(duì)該后果承擔(dān)刑事責(zé)任。
但是將不可預(yù)料的風(fēng)險(xiǎn)降低至零,也是不可能完全做到的。那么當(dāng)研發(fā)者、使用者都履行了注意義務(wù)還是避免不了事故發(fā)生的時(shí)候該如何規(guī)定呢?這個(gè)時(shí)候,不妨運(yùn)用比例原則,將AI所帶來的利益和此風(fēng)險(xiǎn),以及社會(huì)公眾能否容忍此風(fēng)險(xiǎn)繼續(xù)存在下去進(jìn)行權(quán)衡,想必,結(jié)果就很清晰了。
就現(xiàn)階段而言,人工智能離達(dá)到主體地位的差距仍然很大。我們可以對(duì)此有一定的憂慮,但現(xiàn)在就將人工智能定位刑事主體仍為時(shí)尚早。不可否認(rèn),人工智能已經(jīng)和我們的生活息息相關(guān),但是現(xiàn)在我們更應(yīng)該考慮的是如何在發(fā)展階段就讓人工智能不會(huì)逾越法律的邊界,在開始就將人工智能限定在一定的范圍內(nèi),將人們制造人工智能進(jìn)行更為嚴(yán)格的限定,這會(huì)比新增一個(gè)刑事主體更為簡(jiǎn)便。防患于未然,也不失為一種更好的選擇。
注釋:
PhilMcNally,SohaiInayatullay著.機(jī)器人的權(quán)利——二十一世紀(jì)的技術(shù)、文化和法律(上)[J].邵水浩,譯.世界科學(xué),1989(6).
韓旭至.人工智能法律主體批判[J].安徽大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2019(4).
[美]羅素,[美]諾維格著.人工智能:一種現(xiàn)代的方法(第3版)[M].殷建平,等,譯.北京:清華大學(xué)出版社,2013:3.
[英]邊沁著.道德與立法原理導(dǎo)論[M].時(shí)殷弘,譯.北京:商務(wù)印書館,2000:57.
儲(chǔ)陳城.人工智能可否成為刑事責(zé)任主體[N].檢察日?qǐng)?bào),2018年4月19日,第3版.
紐約法院為一對(duì)黑猩猩頒布了人身保護(hù)令[EB/OL].https://www.cnbeta.com/articles/deep/387303.htm,2020年4月11日訪問.
郝英兵.刑事責(zé)任論[M].北京:法律出版社,2016:序言7.