王馨慧 郝悅彤
(遼寧大學(xué) 遼寧 沈陽(yáng) 110000)
人工智能指的是在機(jī)器中模擬人類(lèi)智能,這些機(jī)器被編程后可以像人類(lèi)一樣思考、做出同人類(lèi)相似的舉動(dòng)。20世紀(jì)50年代,人工智能的概念就已經(jīng)被提出,因?yàn)橄冗M(jìn)的算法和計(jì)算能力及存儲(chǔ)能力的改進(jìn),近年來(lái),人工智能的發(fā)展速度與日俱增。由于其發(fā)展速度過(guò)于迅猛,目前,世界各國(guó)都十分關(guān)注人工智能的發(fā)展并出臺(tái)相關(guān)政策以積極應(yīng)對(duì)隨之而來(lái)的問(wèn)題。國(guó)務(wù)院于2017年頒布的《新一代人工智能發(fā)展規(guī)劃》,將發(fā)展人工智能技術(shù)提升到戰(zhàn)略高度,明確了人工智能在我國(guó)發(fā)展道路上的重要地位。鑒于目前我國(guó)刑法尚未考慮到人工智能的發(fā)展對(duì)刑法帶來(lái)的影響,筆者將論述人工智能所帶來(lái)的刑事風(fēng)險(xiǎn),對(duì)人工智能法律人格進(jìn)行研究,明確人工智能的刑事責(zé)任承擔(dān),并通過(guò)研究國(guó)際法的方式探討國(guó)內(nèi)立法。
從總體上來(lái)說(shuō),人工智能的發(fā)展可以分為三個(gè)階段,分別是普通智能時(shí)代,即人工智能的萌芽時(shí)代;弱人工智能時(shí)代,即人工智能的發(fā)展時(shí)代;強(qiáng)人工智能時(shí)代。
普通機(jī)器人的學(xué)習(xí)能力并未達(dá)到其他兩者的高度,而弱人工智能相較于強(qiáng)人工智能不具有辨認(rèn)能力和控制能力,因而其有為人所利用實(shí)施犯罪行為的風(fēng)險(xiǎn);強(qiáng)人工智能具有辨認(rèn)能力和控制能力,因而具有獨(dú)立人格與刑事責(zé)任能力,其嚴(yán)重危害社會(huì)的行為可以被界定為犯罪并予以刑事處罰。由于我國(guó)立法已對(duì)普通機(jī)器人作為犯罪工具的刑事責(zé)任承擔(dān)問(wèn)題進(jìn)行了相應(yīng)的規(guī)制,因此本文中不再展開(kāi)論述。
從總體上來(lái)說(shuō),弱人工智能時(shí)代的刑事風(fēng)險(xiǎn)可分為兩大類(lèi):第一類(lèi)是可能增大部分傳統(tǒng)犯罪的社會(huì)危害性;第二類(lèi)是可能導(dǎo)致新的犯罪類(lèi)型生成。
1.弱人工智能可能增大部分傳統(tǒng)犯罪的社會(huì)危害性
互聯(lián)網(wǎng)的快速發(fā)展雖然不能直接導(dǎo)致所有犯罪都異化,但是不可避免會(huì)使得部分傳統(tǒng)犯罪產(chǎn)生質(zhì)變或是量變。弱人工智能技術(shù)可通過(guò)與軍事相結(jié)合的方式給國(guó)家和公共安全領(lǐng)域帶來(lái)刑事風(fēng)險(xiǎn),人工智能武器便是弱人工智能與軍事相結(jié)合的成果。如果人工智能被恐怖分子等勢(shì)力利用,將會(huì)給人類(lèi)健康和世界和平帶來(lái)巨大的威脅。韓國(guó)科學(xué)技術(shù)院于2018年建立了人工智能研發(fā)中心,目的是研發(fā)適用于作戰(zhàn)指揮的人工智能技術(shù),消息一經(jīng)傳出,便遭到世界30多個(gè)國(guó)家的一致反對(duì)。可見(jiàn),盡管人工智能武器會(huì)給人類(lèi)社會(huì)帶來(lái)福祉,人們更關(guān)注其造成的社會(huì)危害性。
2.弱人工智能可能導(dǎo)致新的犯罪類(lèi)型生成
弱人工智能可與大數(shù)據(jù)結(jié)合產(chǎn)生新的犯罪形式。從我國(guó)最高人民法院、最高人民檢察院出臺(tái)的司法解釋及指導(dǎo)性案例中可以看出①,犯罪分子利用人工智能技術(shù)實(shí)施犯罪主要體現(xiàn)在其對(duì)大數(shù)據(jù)的濫用,產(chǎn)生新的濫用數(shù)據(jù)的犯罪形式。從最高人民法院、最高人民檢察院出臺(tái)的司法解釋可以看出,我國(guó)刑法及司法實(shí)踐側(cè)重于保護(hù)用于維護(hù)信息系統(tǒng)自身功能的、以訪問(wèn)控制為主要考慮的數(shù)據(jù),沒(méi)有關(guān)注數(shù)據(jù)自身內(nèi)容屬性上的價(jià)值與保護(hù)的必要性。[1]但是犯罪分子利用人工智能技術(shù)實(shí)施犯罪主要體現(xiàn)在其對(duì)大數(shù)據(jù)的濫用,產(chǎn)生新的濫用數(shù)據(jù)的犯罪形式。人工智能技術(shù)往往可以得到超出人類(lèi)預(yù)期的結(jié)果,一些數(shù)據(jù)從表面上看可能不包含關(guān)鍵的敏感信息,但是通過(guò)人工智能技術(shù)分析海量數(shù)據(jù),及對(duì)多個(gè)數(shù)據(jù)庫(kù)進(jìn)行綜合分析,最終完全有可能通過(guò)推演得到關(guān)鍵的敏感信息,甚至包括一些威脅國(guó)家安全的重要信息。
強(qiáng)人工智能時(shí)代的標(biāo)志就是強(qiáng)智能機(jī)器人的出現(xiàn),它可以在自主意識(shí)的支配下獨(dú)立決策。隨著技術(shù)的迭代更新,具備辨認(rèn)能力和控制能力的強(qiáng)人工智能機(jī)器人的出現(xiàn)并非無(wú)稽之談。如果未來(lái)科學(xué)技術(shù)發(fā)展到更高的階段,智能機(jī)器人具備了獨(dú)立思考的能力,對(duì)人類(lèi)來(lái)說(shuō)將會(huì)是一場(chǎng)滅頂之災(zāi),一場(chǎng)人類(lèi)與機(jī)器人之間的較量在所難免。因而,強(qiáng)人工智能時(shí)代的刑事風(fēng)險(xiǎn)主要是由人工智能產(chǎn)品因脫離人類(lèi)的控制而實(shí)施嚴(yán)重危害社會(huì)的犯罪行為造成的。
從法學(xué)研究角度來(lái)看,在判斷主體的法律人格時(shí),三個(gè)因素是主要的判斷依據(jù):行為能力層面、權(quán)利義務(wù)層面、法律意識(shí)層面,義務(wù)的履行需要以具備意識(shí)和選擇能力為前提。在最新的研究中,國(guó)際上的學(xué)者主要持有兩種觀點(diǎn):
1.法律人格主體說(shuō)
這一學(xué)說(shuō)主要是從傳統(tǒng)道德及倫理角度進(jìn)行分析,認(rèn)為法律人格主體不僅包含傳統(tǒng)意義上的法律主體,還應(yīng)該包括機(jī)器人等新興事物。
2.法律人格客體說(shuō)
這一學(xué)說(shuō)認(rèn)為自然人是不能被替代的,不可比擬的,機(jī)器人等不能成為法律主體,而只能成為法律關(guān)系客體,權(quán)利義務(wù)指向的對(duì)象。
會(huì)議要求,要進(jìn)一步細(xì)化落實(shí)國(guó)務(wù)院辦公廳關(guān)于做好非洲豬瘟等動(dòng)物疫病防控工作通知的任務(wù)分工,完善聯(lián)防聯(lián)控工作機(jī)制。近期,要組成督查組,赴各地特別是重點(diǎn)省份開(kāi)展非洲豬瘟防控工作督查,聚焦責(zé)任落實(shí)、應(yīng)急處置、生豬調(diào)運(yùn)和餐廚剩余物監(jiān)管等重點(diǎn)工作。要壓實(shí)地方的屬地管理責(zé)任,督促地方各級(jí)人民政府對(duì)本地區(qū)防控工作負(fù)總責(zé),切實(shí)落實(shí)有關(guān)防控措施,統(tǒng)籌做好養(yǎng)殖業(yè)生產(chǎn)安全和肉品供給保障。
在中國(guó)現(xiàn)今的司法實(shí)踐中,智能機(jī)器人屬于限制刑事責(zé)任能力主體,類(lèi)似于法人的刑事責(zé)任能力。當(dāng)刑事犯罪是由于其自身的不作為時(shí),例如,人性機(jī)器人不履行法律義務(wù),看護(hù)機(jī)器人不善待被看護(hù)人等,人工智能主體就要承擔(dān)相應(yīng)的刑事責(zé)任。這類(lèi)似于父母對(duì)子女的撫養(yǎng)義務(wù),兒女對(duì)父母的贍養(yǎng)義務(wù),如果未盡義務(wù),則有構(gòu)成遺棄罪、虐待罪等的可能。當(dāng)刑事犯罪是由于人工智能主體作為,例如智能機(jī)器人實(shí)施指令行為時(shí),其經(jīng)授意的行為引致的刑事責(zé)任將必須由“實(shí)際控制人”承擔(dān)。例如在美國(guó)近幾年出現(xiàn)的新型恐怖襲擊事件中,恐怖活動(dòng)組織利用人造機(jī)器人攜帶武器、彈藥、爆炸物等危險(xiǎn)物品在人員密集的場(chǎng)所或公共區(qū)域?qū)嵤┍ㄒu擊等恐怖活動(dòng)。在這類(lèi)事件中,雖然嚴(yán)重危害公共安全的犯罪行為的直接實(shí)施主體是人造機(jī)器人,但是,刑事責(zé)任是由教唆指示人造機(jī)器人實(shí)施該行為的恐怖分子承擔(dān)的。
人造程序,作為人類(lèi)使用頻率最高的人工智能產(chǎn)品,屬于無(wú)刑事責(zé)任能力。因?yàn)槿斯ぶ悄墚a(chǎn)品的刑事責(zé)任應(yīng)當(dāng)與其自主性相匹配。人造程序本身沒(méi)有辨別和控制能力,它在法律規(guī)制中尤其是責(zé)任承擔(dān)條款中不具有可責(zé)性。當(dāng)且僅當(dāng)人類(lèi),包括自然人、法人和其他組織,將其作為犯罪工具使用來(lái)實(shí)現(xiàn)人的犯罪目的的情況下,才有可能被納入刑法規(guī)制的范疇。
司法實(shí)踐中常見(jiàn)的利用人造程序可以實(shí)施的犯罪行為涵蓋刑法分則已有的大部分犯罪,如危害國(guó)家安全罪、危害公共安全罪、危害人身安全罪等。在這些種情況下,人造程序僅僅是犯罪工具,其本身不具備刑事責(zé)任能力,應(yīng)受刑罰處罰的是使用該工具的人。從這個(gè)角度看,人造程序和上述智能機(jī)器人在被教唆實(shí)施犯罪行為時(shí),二者具有相似的法律地位。
綜上所述,我國(guó)在面對(duì)人工智能主體的刑法規(guī)制的一系列問(wèn)題時(shí),需要以積極立法觀和風(fēng)險(xiǎn)立法觀相結(jié)合的角度進(jìn)行思考與探究。
隨著信息技術(shù)的飛速發(fā)展,人工智能領(lǐng)域得到了極大拓展,實(shí)現(xiàn)了廣泛應(yīng)用。人工智能武器是人工智能在軍事領(lǐng)域中的重大變革,對(duì)現(xiàn)有軍事管理與指揮體制造成了巨大沖擊。它能夠改變傳統(tǒng)的軍事斗爭(zhēng)形式,是贏得國(guó)家安全戰(zhàn)略的重要切入點(diǎn)。相較于自然人主題,人工智能武器信息化、專(zhuān)業(yè)化的程度高,在可控范圍內(nèi)能夠?qū)崿F(xiàn)精確打擊,降低軍事人員傷亡率并且能夠最大限度地避免和減少執(zhí)行任務(wù)過(guò)程中受客觀條件的影響。盡管如此,其弊端也是顯而易見(jiàn)的。
首先,人工智能的研發(fā)者、操縱者無(wú)法保證智能武器自身的絕對(duì)安全,因?yàn)槿斯ぶ悄馨l(fā)展過(guò)程中的弊端和負(fù)面因素會(huì)不可避免地傳輸?shù)饺斯ぶ悄芪淦魃?。其次,缺失人的倫理屬性的心理屬性的人工智能無(wú)法理解戰(zhàn)爭(zhēng)中自然人的心理變化。[2]缺少心理因素的智能武器,即使其思維方式、行為模式與人類(lèi)完全相同,也不是一個(gè)完整的“人”。正是因?yàn)榇嬖谶@樣的屬性,再加上人工智能武器在戰(zhàn)爭(zhēng)和武裝沖突中有取代戰(zhàn)斗員,甚至凌駕于戰(zhàn)斗員之上的趨勢(shì),智能武器無(wú)法判斷敵人下一步將會(huì)采取什么樣的行動(dòng),很有可能因人工智能武器的誤判,導(dǎo)致局勢(shì)向不利方向扭轉(zhuǎn),這給國(guó)際法尤其是國(guó)際人道主義法帶來(lái)了深遠(yuǎn)的影響。為應(yīng)對(duì)這些影響,國(guó)際人道法也應(yīng)進(jìn)行相應(yīng)的完善,并進(jìn)行法律規(guī)制。結(jié)合我國(guó)的立法現(xiàn)狀來(lái)看,我國(guó)未對(duì)人工智能武器所帶來(lái)的安全隱患進(jìn)行規(guī)制,因而可通過(guò)完善國(guó)際法的方式來(lái)促進(jìn)我國(guó)刑法在此方面的研究與規(guī)制。
人工智能武器的研發(fā)適用,不僅會(huì)產(chǎn)生多方面的輿論風(fēng)險(xiǎn),還將面臨巨大的輿論壓力。隨著人工智能技術(shù)的飛速發(fā)展,各國(guó)必須采取切實(shí)可行的舉措來(lái)強(qiáng)化人類(lèi)在武裝沖突進(jìn)程中武力使用問(wèn)題上的自主控制程度,盡可能防范人工智能武器研發(fā)使用所帶來(lái)的法律風(fēng)險(xiǎn)和道德壓力。
本文認(rèn)為,國(guó)際人道主義法針對(duì)刑事責(zé)任追究機(jī)制的完善應(yīng)充分考慮主觀的過(guò)錯(cuò),當(dāng)指揮官未按照人工智能武器的既定用途使用武器時(shí),當(dāng)程序設(shè)計(jì)者未承擔(dān)充分的注意義務(wù)導(dǎo)致程序設(shè)計(jì)錯(cuò)誤時(shí),當(dāng)生產(chǎn)商或產(chǎn)業(yè)工人沒(méi)有按照操作規(guī)范生產(chǎn)人工智能武器時(shí),上述四種主體應(yīng)當(dāng)承擔(dān)國(guó)際刑事責(zé)任。當(dāng)上述四類(lèi)主體不存在主觀過(guò)錯(cuò)時(shí),由國(guó)家承擔(dān)責(zé)任。
馬爾頓斯條款僅僅是關(guān)于適用國(guó)際法沒(méi)有規(guī)定的武器的準(zhǔn)則,它意味著國(guó)際人道主義法關(guān)于武器的規(guī)則應(yīng)當(dāng)以符合公眾良心的要求和人道主義原則的方式來(lái)解釋?zhuān)欢?,該條款不能禁止自治系統(tǒng),因?yàn)樗Q于習(xí)慣國(guó)際法的一項(xiàng)禁止性規(guī)則的存在。第一,人道主義原則只包括人工智能武器所遵循的國(guó)際人道主義法規(guī)則;第二,公眾良知可以從大會(huì)決議和立法條約等權(quán)威來(lái)源中推導(dǎo)出來(lái)。目前,還沒(méi)有這樣的權(quán)威來(lái)源禁止致命的自主系統(tǒng),相反,各國(guó)正在初步探索這種系統(tǒng)的能力。
現(xiàn)行法律體系下對(duì)于人工智能的法律人格規(guī)制缺位,學(xué)界亦對(duì)其是否具有法律人格持不同的態(tài)度。隨著人工智能的不斷發(fā)展,新一代的人工智能武器逐漸興起,此類(lèi)新式武器的出現(xiàn)勢(shì)必會(huì)引起不法之人利用該武器實(shí)施犯罪,給社會(huì)帶來(lái)巨大的危險(xiǎn)性。面對(duì)人工智能時(shí)代已經(jīng)或可能出現(xiàn)的刑事風(fēng)險(xiǎn),對(duì)刑法進(jìn)行一定的修正和完善是我國(guó)現(xiàn)階段的當(dāng)務(wù)之急,然而我國(guó)目前在這一領(lǐng)域仍存在制度空白的缺陷。結(jié)合我國(guó)的國(guó)情,既可以在原有犯罪的基礎(chǔ)上對(duì)人工智能犯罪進(jìn)行定位,也可以增設(shè)濫用人工智能罪,同時(shí)考慮到我國(guó)對(duì)此類(lèi)新式犯罪的立法經(jīng)驗(yàn)不足,可通過(guò)借鑒國(guó)際法的方式完善國(guó)內(nèi)立法,形成國(guó)內(nèi)法與國(guó)際法相統(tǒng)一的局面。
注釋?zhuān)?/p>
①2011 年最高人民法院、最高人民檢察院《關(guān)于辦理危害計(jì)算機(jī)信息系統(tǒng)安全刑事案件應(yīng)用法律若干問(wèn)題的解釋》第一條規(guī)定,獲取支付結(jié)算、證券交易、期貨交易等網(wǎng)絡(luò)金融服務(wù)的身份認(rèn)證信息10組以上的,或除此以外的身份認(rèn)證信息500組以上的,屬于“情節(jié)嚴(yán)重”的情形。