謝 丹 羅金丹
內(nèi)容提要:人工智能技術(shù)的迅猛發(fā)展及其在軍事領(lǐng)域的應(yīng)用,極大促進(jìn)了智能武器自主性能的提升,使其不僅可以自行選擇、識(shí)別、監(jiān)測、攻擊相應(yīng)目標(biāo),而且還能借助“深度學(xué)習(xí)算法”處理各種復(fù)雜的軍事任務(wù)。智能武器的特殊性及其推廣應(yīng)用,給現(xiàn)行軍事法特別是武裝沖突法帶來諸多嚴(yán)峻的挑戰(zhàn)。為此,應(yīng)進(jìn)一步確立并堅(jiān)持人類主導(dǎo)原則、嚴(yán)格責(zé)任原則和全面審查原則,切實(shí)加強(qiáng)對(duì)智能武器未知風(fēng)險(xiǎn)之防范,有效控制智能武器所帶來的法律后果。
人工智能自誕生之日,即被大量應(yīng)用于軍事領(lǐng)域。從自主制導(dǎo)彈藥、攻擊無人機(jī)到軍用機(jī)器人、智能C3I系統(tǒng)等,人工智能技術(shù)以其高效化、精確化、自動(dòng)化、邏輯化等效能,直接影響著戰(zhàn)爭形態(tài)、作戰(zhàn)樣式和指揮模式等。近年來,人類似乎不再主導(dǎo)戰(zhàn)術(shù)級(jí)“觀察—判斷—決策—行動(dòng)”循環(huán)①參見袁藝:《福祉亦或?yàn)?zāi)難:智能武器的未來》,載《軍事文摘》,2015(11),56~60 頁。,而是將這些職能直接賦予計(jì)算機(jī),從而使得以“深度學(xué)習(xí)算法”為核心、具有“人類智力”的智能化武器裝備和作戰(zhàn)體系(以下簡稱“智能武器”)應(yīng)運(yùn)而生。然而,從理論和實(shí)踐層面看,研發(fā)并使用智能武器,不可避免地帶來諸多法律問題。這已成為世界各國尤其是國際軍事法學(xué)界平衡科技發(fā)展與法律穩(wěn)定、軍事需要與人道原則所必須直面的現(xiàn)實(shí)課題。
隨著信息化戰(zhàn)爭逐步向智能化深入發(fā)展,軍事科技智能化的產(chǎn)物不斷涌現(xiàn),不僅體現(xiàn)在各類武器裝備的自主程度日益提高,而且還表現(xiàn)為其參與自主決策的領(lǐng)域越來越廣,從而形成“信息系統(tǒng)輔助人”向“智能系統(tǒng)代替人”的深度融合轉(zhuǎn)變。
智能武器,是指具有一定智力,能夠自主依據(jù)現(xiàn)行算法“有意識(shí)”地選擇、尋找、搜索、跟蹤、觀察、識(shí)別、攻擊目標(biāo),并且能夠自主學(xué)習(xí)、調(diào)整而無須人類干涉的裝備體系。由此可知,智能武器是一種“去人類化”的作戰(zhàn)裝備,在本質(zhì)上實(shí)現(xiàn)了人和工具的物理分離,使得武器不再依賴于人的參與,而只需通過相應(yīng)的數(shù)據(jù)和算法就能完成預(yù)設(shè)任務(wù)。
隨著人工智能軍事化應(yīng)用的不斷加強(qiáng),智能武器被賦予更加多樣化的角色和任務(wù)。例如,作為“云端大腦”提取信息并處理情報(bào)、羅列敵情并提出最佳應(yīng)對(duì)方案,作為“法律專家”為軍事指揮官提供實(shí)時(shí)咨詢、指揮控制無人化作戰(zhàn)平臺(tái)、協(xié)助武裝部隊(duì)作出拘留決定等。①參見許玥凡、張璦敏:《人工智能武器:福兮,禍兮?》,載《解放軍報(bào)》,2018-06-29??梢?,智能武器不再僅僅是殺傷敵方有生力量的工具,而是作為一種類人化的科技產(chǎn)品,具備學(xué)習(xí)、推理、適應(yīng)和自我修正等理性認(rèn)知功能,并且能夠執(zhí)行通常需要人類智能才能完成的復(fù)雜任務(wù)。這就要求我們進(jìn)一步拓展對(duì)智能武器現(xiàn)有內(nèi)涵的認(rèn)識(shí)。
基于此,新時(shí)代的智能武器,不僅包括能夠直接或間接殺傷敵方有生力量的外部智能武器,還應(yīng)包括作為“云端大腦”“數(shù)字參謀”等存在的內(nèi)部智能裝備。
軍事技術(shù)對(duì)人類參與的依賴程度將愈來愈低,隨之而來的是武器的自主性能將不斷提高。信息化武器裝備按照其自主化程度不同,可以劃分為以下四種:遠(yuǎn)程遙控操作、自動(dòng)化、自主化、擬人智能化。
遠(yuǎn)程遙控操作,亦稱為“人在循環(huán)中”(Human in the Loop)模式,它是一種最低級(jí)別的自主模式,意味著機(jī)器完全受控于人類,人與機(jī)器只是在空間層面實(shí)現(xiàn)初步分離。在該自主模式中,人類操作員根據(jù)自己的意志直接選擇、識(shí)別目標(biāo)并操作機(jī)器攻擊該目標(biāo),機(jī)器只能依照人類的命令展開行動(dòng)。
自動(dòng)化武器,是指一旦人類操作員選定目標(biāo),即無須進(jìn)一步人工輸入,就能在預(yù)先編程的參數(shù)范圍內(nèi)攻擊該目標(biāo)的武器。這類自主模式,亦稱為“人在循環(huán)上”(Human on the Loop)模式。在該模式中,人類仍控制著目標(biāo)選擇,決定著是否向目標(biāo)發(fā)射制導(dǎo)武器,并可以監(jiān)控、檢查武器的具體行為是否符合預(yù)設(shè)編程。
信息化戰(zhàn)爭對(duì)快速反應(yīng)能力的迫切需求,促使武器系統(tǒng)的自主性能更進(jìn)一步提升。這類武器,不僅能夠在發(fā)射后擁有自己的感知、運(yùn)動(dòng)和攻擊能力,而且還有能力決定攻擊哪些具體目標(biāo),然后根據(jù)預(yù)先“決定”采取行動(dòng)。該自主模式,亦稱為“人在循環(huán)外”(Human out of the Loop)模式。這類武器允許人工操作員行使最終否決權(quán)。也就是說,人類雖未參與“觀察—判斷—決策—行動(dòng)”的循環(huán),但仍享有在特定情況下中止完全自主武器攻擊的權(quán)力。
為搶占軍事技術(shù)制高點(diǎn),2010年以后,世界各國更加重視自主武器在軍事行動(dòng)中的有效應(yīng)用,擬人智能化武器快速進(jìn)入國際社會(huì)的視野。這類以大數(shù)據(jù)和深度學(xué)習(xí)算法為支撐的武器具備 “一些類似于人腦的能力”,甚至在特定方面擁有超越人類的智力,不僅能夠根據(jù)實(shí)時(shí)更新的數(shù)據(jù)自動(dòng)選擇、搜索、跟蹤、觀察、識(shí)別和攻擊目標(biāo),而且能通過不斷學(xué)習(xí)適應(yīng)復(fù)雜多樣的現(xiàn)實(shí)情況,甚至總結(jié)出能應(yīng)對(duì)復(fù)雜時(shí)空條件的“戰(zhàn)場思維”。由此帶來的是“算法博弈”成為未來戰(zhàn)爭的焦點(diǎn),取得算法優(yōu)勢的一方將能快速而準(zhǔn)確地預(yù)測戰(zhàn)場態(tài)勢、優(yōu)化作戰(zhàn)方法,進(jìn)而實(shí)現(xiàn)“未戰(zhàn)先勝”。②參見《人工智能助解放軍打贏未來戰(zhàn)爭》,載《參考消息》,2019-02-01。不僅如此,這類智能武器還能通過模擬人的行為準(zhǔn)則和決策過程來完成情報(bào)處理、法律咨詢、戰(zhàn)略規(guī)劃等多種軍事任務(wù),甚至能夠在該過程中自行構(gòu)建基本的運(yùn)算模型,從而實(shí)現(xiàn)自我完善。
近年來,世界各軍事強(qiáng)國為保持軍事優(yōu)勢,都在持續(xù)加大對(duì)智能武器的投資成本和研發(fā)力度,使得智能武器的水平和規(guī)模均得以迅速壯大。2018年,美國國防高級(jí)研究計(jì)劃局(DARPA)宣布,對(duì)人工智能的投資增加20億美元,用以布局下一代的軍用人工智能。①參見魯傳穎:《人工智能安全:挑戰(zhàn)與機(jī)遇》,載《重慶與世界》,2018(20),59~61頁。俄羅斯、以色列、德國等諸多國家,也在不斷增加對(duì)人工智能軍事化應(yīng)用的投資,人工智能技術(shù)被頻繁納入新一代常規(guī)導(dǎo)彈,以及防御情報(bào)、監(jiān)視和偵察系統(tǒng)中,以進(jìn)一步提升各類武器的精準(zhǔn)度和殺傷力。然而,各國對(duì)智能武器的過分青睞,以及相應(yīng)法律規(guī)則的嚴(yán)重缺失,引發(fā)了國際社會(huì)對(duì)智能武器軍備競賽的強(qiáng)烈擔(dān)憂。為此,聯(lián)合國在經(jīng)過2014年和2015年的兩次非正式會(huì)議后,于2016年12月16日在關(guān)于特定常規(guī)武器公約的聯(lián)合國會(huì)議上,成立了致命性自主武器系統(tǒng)政府專家組(LAWS GGE),專門負(fù)責(zé)研究致命性自主武器領(lǐng)域的新興技術(shù),并評(píng)估其對(duì)國際和平與安全的影響,從而為其國際治理提出相應(yīng)的意見和建議。②參見魯傳穎:《人工智能安全:挑戰(zhàn)與機(jī)遇》,載《重慶與世界》,2018(20),59~61頁。
事實(shí)上,自智能武器誕生之初,國際軍事法學(xué)界就開始注意并探究對(duì)其加以必要法律規(guī)制的問題。其中,討論最多且尚無定論的法理困惑主要集中在以下四個(gè)方面。
智能武器本身的合法性問題,是指智能武器作為一種在武裝沖突中常用的作戰(zhàn)手段,是否符合現(xiàn)行國際人道法的有關(guān)規(guī)則,能否被各國合法研制、生產(chǎn)、儲(chǔ)存和發(fā)展。對(duì)這一問題的回答,決定著這類武器是否需要自始被禁止或限制。從國際法視角看,《日內(nèi)瓦四公約關(guān)于保護(hù)國際性武裝沖突受難者的附加議定書》(以下簡稱《第一附加議定書》)第三十五條、第五十四條,以及《常規(guī)武器公約議定書一》《常規(guī)武器公約議定書二》《常規(guī)武器公約議定書三》等國際條約,均對(duì)武器本身的合法性問題予以規(guī)制。
國際人道法禁止或限制下列武器:一是不分皂白的武器,即武器不能以特定軍事目標(biāo)為攻擊對(duì)象,或者其使用效果不能按照《第一附加議定書》的要求加以限制。因?yàn)榇祟愇淦鬟`反了國際人道法中最基本的區(qū)分原則,極易造成平民生命受損失、平民受傷害和平民物體受損害。二是特別管制的武器,例如毒氣、地雷、燃燒武器、致盲激光武器、集束彈藥、化學(xué)武器、生物武器、核武器等。使用上述武器會(huì)給人類帶來過分傷害和不必要痛苦,或者會(huì)對(duì)自然環(huán)境造成廣泛、長期和嚴(yán)重的損害,不符合人道關(guān)懷和環(huán)境保護(hù)的價(jià)值目標(biāo)。
2014年,河北水利工作繼續(xù)深入貫徹落實(shí)十八屆三中全會(huì)精神和習(xí)近平總書記重要講話,緊緊圍繞黨中央、國務(wù)院和省委、省政府的重大決策部署,重點(diǎn)實(shí)施地下水超采綜合治理和農(nóng)業(yè)高效節(jié)水壓采,推進(jìn)水利重點(diǎn)項(xiàng)目建設(shè),落實(shí)最嚴(yán)格水資源管理制度,加快水利重點(diǎn)領(lǐng)域改革,加強(qiáng)農(nóng)田水利設(shè)施,加大依法治水力度,提升防洪抗旱減災(zāi)能力,為河北經(jīng)濟(jì)社會(huì)發(fā)展提供有力服務(wù)支撐。
至于智能武器是否屬于以上兩類武器的范疇,是否應(yīng)當(dāng)被自始禁止或嚴(yán)格限制,國際法學(xué)界至今尚未形成一致意見。
當(dāng)智能武器通過法律審查被認(rèn)為是合法武器時(shí),其將面臨另一個(gè)層面的問題:在武裝沖突過程中,如何合法使用智能武器以確保其在選擇和攻擊目標(biāo)時(shí)能夠充分尊重國際人道法的基本規(guī)則。
本質(zhì)上,智能武器的合法使用問題,是建立在“智能武器是合法武器”和“合法武器的非法使用”這兩個(gè)命題基礎(chǔ)之上的復(fù)合問題,意在通過規(guī)則設(shè)置來達(dá)到保護(hù)平民、保護(hù)環(huán)境、減少痛苦之最終目的。結(jié)合現(xiàn)行國際法規(guī)范看,“日內(nèi)瓦體系”對(duì)武器的使用方式作出了較為全面、系統(tǒng)的規(guī)定。具體包括:一是共同的禁止,即禁止使用會(huì)引起過分傷害和不必要痛苦或者可能會(huì)對(duì)自然環(huán)境造成廣泛、長期而嚴(yán)重?fù)p害的作戰(zhàn)方法;二是禁止不分皂白的攻擊;三是禁止對(duì)平民、民用物體、文化遺產(chǎn)和含有危險(xiǎn)力量的裝置進(jìn)行直接攻擊等。
除上述禁止性規(guī)范外,區(qū)分原則、比例原則、預(yù)防原則等國際人道法原則,亦從命令性規(guī)范的角度對(duì)智能武器的使用提出了強(qiáng)制要求。即智能武器在其“生命周期內(nèi)”必須以符合國際人道法原則的方式運(yùn)行,而這取決于該武器具體性能和使用環(huán)境的可確定性。然而,智能武器無法理解人類的感情、情緒、習(xí)慣等,進(jìn)而無法像人一樣思考和行動(dòng)。加之軍民兩用物體廣泛應(yīng)用于戰(zhàn)爭等現(xiàn)象,致使平民與戰(zhàn)斗員、民用物體與軍事目標(biāo)的區(qū)分難度增大。隨著人工智能的深入發(fā)展和戰(zhàn)場態(tài)勢的信息化演變,智能武器的技術(shù)性能和使用環(huán)境愈加復(fù)雜化。對(duì)此,合理解決智能武器的合法使用問題,亦是當(dāng)務(wù)之急。
智能武器的法律主體資格問題,本質(zhì)上是可否將“機(jī)器人”加以人格化或擬人化的問題。這是智能武器法律規(guī)制中的核心環(huán)節(jié),亦是研究智能武器歸責(zé)依據(jù)的前提和基礎(chǔ)。
對(duì)此,主要分歧意見有兩種,即支持人工智能人格化和反對(duì)人工智能人格化。具體到智能武器研制和應(yīng)用:一方面,智能武器越來越多地?fù)碛凶灾餍院途C合能力,使得其能夠作為獨(dú)立存在的“戰(zhàn)斗員”參與作戰(zhàn);另一方面,雖然智能武器作為事實(shí)上的“戰(zhàn)斗員”參與了敵對(duì)行動(dòng),但卻尚無“戰(zhàn)斗員”的法律主體地位,亦不能履行國際人道法賦予“戰(zhàn)斗員”的各項(xiàng)義務(wù)與責(zé)任。于是,智能武器的自主行為往往被歸責(zé)于其制造者、設(shè)計(jì)者、使用者和指揮者,由此引發(fā)的法律后果,亦被認(rèn)為是法律關(guān)系主體行為之延伸被包涵進(jìn)現(xiàn)行法律規(guī)范中。
智能武器的歸責(zé)問題,直接決定著受害人的權(quán)利能否得到切實(shí)救濟(jì),以及加害者的責(zé)任能否得到依法追究。在非對(duì)稱戰(zhàn)爭實(shí)踐中,高科技武器無故致傷亡的案例并不少見。例如,伊拉克戰(zhàn)爭中,美軍“愛國者”導(dǎo)彈將兩架盟軍飛機(jī)當(dāng)成伊拉克的“飛毛腿”導(dǎo)彈予以擊落,造成相關(guān)人員的巨大傷亡。①參見袁藝:《福祉亦或?yàn)?zāi)難:智能武器的未來》,載《軍事文摘》,2015(11),56~60頁。由于人類始終在決策環(huán)節(jié)控制武器的使用,因此,由相關(guān)國家與人員共同承擔(dān)損害責(zé)任,顯得于理可行、于法有據(jù)。
然而,智能武器致人損害卻有所不同。一方面,隨著智能武器具有越來越強(qiáng)的自主性與獨(dú)立性,相關(guān)人員已不再能時(shí)刻控制著智能武器的運(yùn)行軌跡,亦無法準(zhǔn)確預(yù)料其通過后天學(xué)習(xí)所確立的判斷規(guī)則。人的行為與損害后果之間的因果關(guān)系被大大削弱,由人類完全承擔(dān)智能武器致人損害的后果,似乎不再符合現(xiàn)行法律所確立的“責(zé)任自負(fù)原則”。另一方面,受法律規(guī)制的“滯后性”所決定,國際社會(huì)尚未形成專門規(guī)范智能武器研制、生產(chǎn)、應(yīng)用的相關(guān)規(guī)則,致使許多智能武器的使用國和實(shí)際操作者能夠“堂而皇之”地規(guī)避相應(yīng)法律的制裁。而智能武器本身具有的風(fēng)險(xiǎn)性和不可預(yù)測性,使得相關(guān)人員和國家不愿承擔(dān)其致人損害的產(chǎn)品責(zé)任,造成了責(zé)任依據(jù)和責(zé)任主體的雙重缺失,最終將不利于受害者的權(quán)利救濟(jì),以及對(duì)科技風(fēng)險(xiǎn)的防范。
為了解決這一困境,有學(xué)者在支持智能武器人格化的基礎(chǔ)上,進(jìn)一步提出由智能武器自身和相關(guān)人員共同承擔(dān)致人損害責(zé)任的設(shè)想。但隨之而來的是,人們不得不重新思考與之相關(guān)的歸責(zé)依據(jù)、歸責(zé)原則、責(zé)任履行、責(zé)任阻卻等一系列法律適用問題,以便使新型歸責(zé)機(jī)制能夠適應(yīng)人工智能時(shí)代智能武器發(fā)展應(yīng)用的現(xiàn)實(shí)需要。
2010年以來,信息化戰(zhàn)爭形態(tài)日益從“數(shù)字化+網(wǎng)絡(luò)化”的初級(jí)階段向“智能化+類人化”的高級(jí)階段演進(jìn)①參見袁藝:《福祉亦或?yàn)?zāi)難:智能武器的未來》,載《軍事文摘》,2015(11),56~60 頁。,智能武器作為軍事力量的重要組成部分,越來越多地參與非對(duì)稱戰(zhàn)爭,由此引發(fā)諸多涉及法益的新情況。但是,無論是現(xiàn)行國內(nèi)法抑或是國際法,均未能及時(shí)有效地規(guī)制由此引發(fā)的新問題。為更好地維護(hù)國家安全和軍事利益,增強(qiáng)我國在新軍事變革中保持戰(zhàn)略優(yōu)勢和道義主動(dòng),軍用智能機(jī)器人、軍用無人艦艇等智能武器的研發(fā)、生產(chǎn)和應(yīng)用不可避免。為此,需研究并明確智能武器發(fā)展應(yīng)用的基本法律原則,以確??萍嫉陌l(fā)展始終在合法的框架范圍內(nèi)進(jìn)行。
人類主導(dǎo)原則,亦可稱為有效控制原則,是指人類在選擇或攻擊目標(biāo)等關(guān)鍵環(huán)節(jié)上,必須確保能夠控制智能武器的運(yùn)行,無論這種控制是通過植入道德程序代碼抑或是植入自毀模式實(shí)現(xiàn)的。由此,智能武器的應(yīng)用必須受到合理的限制。
這是因?yàn)椋阂环矫?,智能武器雖然擁有比擬于人類的智力,但它并不具有人的政治意識(shí)、政治訴求和政治考量,亦不具備人的精神追求和道德意識(shí)。然而,軍事斗爭并不僅僅意味著武力的沖突,更是一種政治及道義的博弈和平衡。事實(shí)上,大到制定作戰(zhàn)方案、部署武器裝備,小到選定攻擊目標(biāo)、攻擊路線等,都蘊(yùn)含著政治上的考量,這是智能武器自主作戰(zhàn)所無法做到的。另一方面,隨著強(qiáng)人工智能的出現(xiàn)及其學(xué)習(xí)能力的不斷提升,智能武器極有可能根據(jù)其所接受的不同信息,演變出不同類型。由于數(shù)據(jù)信息是龐雜而不可預(yù)測的,加之人類輸入算法時(shí)存在失誤的風(fēng)險(xiǎn),即使是計(jì)算機(jī)編程員也無法確定其經(jīng)過后天學(xué)習(xí)將具備哪些能力,更遑論控制智能武器的后續(xù)獨(dú)立運(yùn)行。
當(dāng)代國際法格局和軍事斗爭實(shí)踐證明,簡單地禁止智能武器開發(fā)應(yīng)用,既不可行,也不現(xiàn)實(shí)?;诖耍邪l(fā)和應(yīng)用智能武器的底線應(yīng)當(dāng)是:保持人類對(duì)智能武器開火權(quán)的有效控制,確保人類永遠(yuǎn)是人機(jī)關(guān)系的主導(dǎo)者。從哲學(xué)角度來說,就是要避免智能武器形成“存在升級(jí)”②“存在升級(jí)”,指的是某種技術(shù)或制度的發(fā)明開拓了新的可能生活,并定義了一個(gè)新的可能世界。所以,這意味著存在方式的革命,而不僅僅是工具性的進(jìn)步。參見趙汀陽:《人工智能“革命”的“近憂”和“遠(yuǎn)慮”——一種倫理學(xué)和存在論的分析》,載《哲學(xué)動(dòng)態(tài)》,2018(4),5~12頁。,禁止研發(fā)出有能力對(duì)人類說“不”的智能武器。③參見趙汀陽:《人工智能“革命”的“近憂”和“遠(yuǎn)慮”——一種倫理學(xué)和存在論的分析》,載《哲學(xué)動(dòng)態(tài)》,2018(4),5~12頁。
通常而言,武器應(yīng)用致人損害的,由有關(guān)個(gè)人和國家依照過錯(cuò)責(zé)任原則、過錯(cuò)推定責(zé)任原則或無過錯(cuò)責(zé)任原則來承擔(dān)相應(yīng)的責(zé)任,與武器本身并不相關(guān)。然而,智能武器的類人化特征,卻使其侵害行為具備較強(qiáng)的自主性和獨(dú)立性,人的行為與損害結(jié)果之間的因果關(guān)系被大大削弱,致使智能武器致人損害的責(zé)任主體變得模糊。加之現(xiàn)有國際社會(huì)尚未明確智能武器的相關(guān)規(guī)則,對(duì)其致人損害的歸責(zé)機(jī)制仍存在較多的爭議。
筆者認(rèn)為,無論人工智能技術(shù)在何種程度上對(duì)現(xiàn)行武裝沖突法律體系提出挑戰(zhàn),智能武器都不應(yīng)被過度人格化,嚴(yán)格責(zé)任原則應(yīng)當(dāng)成為相關(guān)人員和國家承擔(dān)侵權(quán)責(zé)任的歸責(zé)依據(jù)。這是因?yàn)?,按照“人類主?dǎo)原則”要求,智能武器的應(yīng)用必須在人的控制范圍之內(nèi)進(jìn)行。也就是說,無論智能武器具備多高的自主性,它始終只是人認(rèn)識(shí)世界、改造世界的一項(xiàng)工具,其背后的使用者才是真正的法律關(guān)系主體。由于智能武器作為一種科技產(chǎn)品,本身就具有一定的風(fēng)險(xiǎn)性和不確定性,且其含有巨大的殺傷力和破壞性,易對(duì)攻擊目標(biāo)造成毀滅性損害。因此,有必要確立僅以危害結(jié)果為依據(jù)的嚴(yán)格責(zé)任原則,來促使智能武器的設(shè)計(jì)者、生產(chǎn)者和實(shí)際操作者更好地履行預(yù)防義務(wù),減少危害發(fā)生。
必須注意的是,不受人類控制或人類無法預(yù)測的智能武器,不應(yīng)被研制和生產(chǎn),更不應(yīng)被普及和應(yīng)用。因?yàn)?,這類武器從一開始就違反了科技發(fā)展的底線——“人類主導(dǎo)原則”,進(jìn)而極有可能對(duì)人類社會(huì)產(chǎn)生始料未及的副作用和巨大威脅。
全面審查原則主要包含以下兩個(gè)方面的內(nèi)容。
一是審查智能武器本身的合法性問題。即分析智能武器的設(shè)計(jì)、生產(chǎn)、試驗(yàn),是否滿足現(xiàn)行的研發(fā)標(biāo)準(zhǔn)和要求,是否違反規(guī)范新武器研究和發(fā)展的現(xiàn)行法規(guī)則。這是從事先預(yù)防的角度出發(fā),對(duì)智能武器本身存在的科技風(fēng)險(xiǎn)進(jìn)行防范的重要舉措。這使得不符合《第一附加議定書》 第三十六條①《第一附加議定書》第三十六條規(guī)定:“在研究、發(fā)展、取得或采用新的武器、作戰(zhàn)手段或方法時(shí),締約一方有義務(wù)斷定,在某些或所有情況下,該新的武器、作戰(zhàn)手段或方法的使用是否為本議定書或適用于該締約一方的任何其他國際法規(guī)則所禁止?!庇纱耍趪H法體系中明確了對(duì)新型武器進(jìn)行合法性審查的法律依據(jù)。規(guī)定的新型武器,能夠從萌芽之時(shí)就被相關(guān)國際法規(guī)則所禁止或限制。
二是審查合法的智能武器是否被非法使用的問題。一般來說,武器本身的合法性與武器使用的合法性是兩件截然不同的事情,應(yīng)當(dāng)區(qū)分開來加以審查。例如,錘子作為修理工具本身是合法的,但卻能夠被非法使用造成傷害,甚至用以故意殺人。由此可知,即使能查明智能武器本身具有合法性,也并不意味著智能武器就必然被合法使用。這就要求,智能武器被研制生產(chǎn)后,其具體的應(yīng)用過程,以及與之相關(guān)的作戰(zhàn)手段和使用方法,仍需加以進(jìn)一步審查和確認(rèn)。這是事中預(yù)防智能武器失控風(fēng)險(xiǎn)的現(xiàn)實(shí)需求,也是確保人類在智能武器運(yùn)行過程中能夠始終占據(jù)主導(dǎo)地位的重要措施,對(duì)于強(qiáng)化平民保護(hù)、預(yù)防科技風(fēng)險(xiǎn)等,均具有不可替代的重要意義。