王祖遠(yuǎn)
一個(gè)下雪的日子,兩國的士兵在邊界進(jìn)行例行巡邏。雙方皆配有帶自動(dòng)武器系統(tǒng)的履帶機(jī)器人,這種機(jī)器人配有機(jī)械槍和光學(xué)系統(tǒng),可分辨外來威脅,例如人類或是交通工具。當(dāng)雙方的巡邏隊(duì)伍在凹凸不平的地面慢慢交會(huì)時(shí),一名士兵不慎跌倒,觸發(fā)了他的突擊步槍。另一方機(jī)器人記錄到槍聲后將此舉解釋為攻擊行動(dòng),隨即決定進(jìn)行適當(dāng)回應(yīng)。不到一秒鐘,雙方的機(jī)器人在系統(tǒng)的命令下,將武器轉(zhuǎn)向人類目標(biāo),然后展開進(jìn)攻。一陣槍林彈雨過后,12名或死或傷的士兵四散倒臥在他們的機(jī)器人同伴身旁。最后兩國檢討此次事故,都將責(zé)任歸咎到對方身上……
雖然這個(gè)假設(shè)情況看似荒誕,但這些戰(zhàn)用機(jī)器人確實(shí)早已有雛形。
“自動(dòng)化”不受人類控制
愛沙尼亞的米爾蘭姆機(jī)器人公司研發(fā)出一款叫作THEMIS的機(jī)器人,全名為“履帶式混合模塊化步兵系統(tǒng)”。它的身體靠著小型坦克履帶移動(dòng),上方有遠(yuǎn)端武器炮塔,可搭載小口徑或大口徑的機(jī)械槍;它還配有鏡頭與目標(biāo)追蹤軟件,可讓炮塔按照設(shè)定追逐人類或物體。目前這套系統(tǒng)仍由人類控制,米爾蘭姆公司也如此堅(jiān)稱,但其實(shí)機(jī)器人的系統(tǒng)已能讓它自行判斷眼前情況,辨別可能的作戰(zhàn)目標(biāo)并進(jìn)行追蹤。米爾蘭姆公司官網(wǎng)上指出:“THEMIS有近乎無限的潛在用途?!?/p>
在戰(zhàn)爭中使用致命武器對抗作戰(zhàn)目標(biāo),過去一直是由人類做出決定,但這種情況可能很快面臨改變。人工智能、機(jī)器影像辨識和機(jī)器人等現(xiàn)代技術(shù)讓武器系統(tǒng)不需人類參與,便能確認(rèn)并殺死戰(zhàn)場上的敵人。
俄羅斯、中國、美國都在努力研發(fā)可將武器與感應(yīng)器、定位計(jì)算機(jī)配對的自動(dòng)平臺;英國和以色列早已使用具有自動(dòng)化功能的武器,包括可找尋并攻擊敵人雷達(dá)的飛彈、無人機(jī),以及無須人類命令便可決定發(fā)射炮火的交通工具與船艦。
“機(jī)器殺人”跨越道德
什么情況下軍事武器可以或應(yīng)該代理人類,決定由機(jī)器取走人類的生命?這個(gè)問題跨越道德,讓人思考戰(zhàn)爭的本質(zhì),如今軍事策劃者、人權(quán)組織、國防官員、研究分析師和倫理學(xué)家都尚未取得共識。
自動(dòng)殺人機(jī)器并不是新科技,其實(shí)數(shù)十年前早已有武器系統(tǒng)可以獨(dú)立辨識并攻擊目標(biāo)。在20世紀(jì)80年代和90年代,美國戰(zhàn)爭策劃者已測試可獨(dú)自辨認(rèn)目標(biāo)的魚叉反艦飛彈和戰(zhàn)斧巡弋飛彈,這兩種飛彈至今仍在人為監(jiān)控的情況下使用。
美國最先進(jìn)的自動(dòng)武器主要著重防御應(yīng)用。2003年美國在伊拉克的大型基地遭到攻擊,美國陸軍研發(fā)出“反火箭、火炮和迫擊炮”系統(tǒng),可偵測空中威脅并向人類操作員示警,當(dāng)人類按下按鈕,該系統(tǒng)可追蹤并發(fā)射可在空中自行爆炸的彈藥來炸毀威脅來源,借此減少人員傷亡與損害。
華盛頓智庫“新美國安全中心”高級研究人員沃克表示:“當(dāng)大量飛彈襲來,人類不可能說:‘好,你先擊毀那個(gè)飛彈。作戰(zhàn)信息中心的人員沒辦法跟上飛彈速度,因此美國策劃人員發(fā)展出方陣近迫武器系統(tǒng)和神盾戰(zhàn)斗系統(tǒng),它們可以聯(lián)結(jié)船艦和飛機(jī)上的感應(yīng)器辨認(rèn)空中威脅,操作人員輸入信息后,可自動(dòng)發(fā)射飛彈進(jìn)行攻擊?!?/p>
這些系統(tǒng)已被事先安排好,只要人類在某個(gè)時(shí)間點(diǎn)按下按鈕,機(jī)器就可做出一切決定。
在沃克看來,致命自動(dòng)武器的定義為:一旦人類解除限制,便可獨(dú)立決定摧毀對象與目標(biāo)的武器。
恐致更嚴(yán)重血腥沖突
沃克于2014年到2017年擔(dān)任美國國防部副部長,當(dāng)時(shí)他負(fù)責(zé)執(zhí)行國防部的“第三次抵消戰(zhàn)略”,即利用美軍最核心的創(chuàng)新科技打擊敵人的可能優(yōu)勢。美國第一次抵消戰(zhàn)略在美國前總統(tǒng)艾森豪威爾任內(nèi)實(shí)施,旨在建立美國核優(yōu)勢;第二次在20世紀(jì)70年代和80年代,強(qiáng)調(diào)美國計(jì)算機(jī)和導(dǎo)彈科技;第三次抵消戰(zhàn)略將結(jié)合人類與機(jī)器的優(yōu)點(diǎn),利用人工智能、機(jī)器自動(dòng)化來打造更快更聰明的網(wǎng)絡(luò)。
獨(dú)立致命武器的支持派認(rèn)為機(jī)器可降低錯(cuò)誤發(fā)生率。瑟瑞最近開始在美國陸軍訓(xùn)練與條令司令部監(jiān)控?cái)?shù)據(jù)科學(xué)、模型和模擬,他表示,機(jī)器人可在幾毫秒內(nèi)分析人類想象不到的大量數(shù)據(jù),并判斷出使用武器限制損害的最佳時(shí)間點(diǎn)。但是反對派表示,一旦致命機(jī)器人犯錯(cuò),將招致更嚴(yán)重的血腥沖突,這需要自動(dòng)武器持有國相互合作與約束。
雖然多數(shù)國家支持自動(dòng)武器在某種程度上由手動(dòng)控制,但卻難以解釋“實(shí)務(wù)上有效人為控制”的意義。美國海軍戰(zhàn)爭學(xué)院軍事倫理教授波林·尚克斯·考林表示,人類會(huì)譴責(zé)某種行動(dòng)或?qū)⒅侠砘?,這牽涉到人類會(huì)判斷這些行動(dòng)是否符合道德,如果今天不是人類做決定,那這就變成機(jī)器對機(jī)器的問題了。
如潘多拉盒子
電動(dòng)車大廠特斯拉創(chuàng)辦人馬斯克、已故英國理論物理學(xué)家霍金、蘋果公司共同創(chuàng)辦人沃茲尼克和多位人工智能研究人員,2015年曾簽署一封公開信,警告自動(dòng)武器可能成為暗殺、顛覆國家、壓迫人民和選擇性殺害特定種族的工具。
馬斯克曾指出,人工智能武器恐成人類最大威脅,一旦打開了這個(gè)潘多拉的盒子,就再也關(guān)不起來了。
盡管如此,沃克對道德問題的看法仍比較樂觀,他認(rèn)為未來人類會(huì)更不用擔(dān)心將控制權(quán)交給自動(dòng)武器代理,但他坦言人類必須采取行動(dòng),而且還有漫漫長路需要努力。
(編輯 巧克力)