8月21日,國際人工智能聯(lián)合會議(IJCAI)在澳大利亞墨爾本召開。在開幕式上,特斯拉公司的伊???馬斯克和谷歌公司的穆斯塔法?蘇萊曼牽頭,與來自26個國家的116名機器人和人工智能領域的專家聯(lián)合提交了一封公開信,共同呼吁禁止使用自主攻擊武器。
這封公開信獲得了多名在機器人領域有影響的專家的支持,并且著重強調了緊急行動的必要性,促使聯(lián)合國推遲了原計劃在21日召開的一個會議,專門來評估這一問題。目前,聯(lián)合國已經(jīng)投票決定,開始正式討論無人機、坦克和自動機關槍等武器的發(fā)展和使用問題。
人工智能技術正在讓自主武器系統(tǒng)變得更加致命。
這不是IJCAI第一次作為討論致命自主武器系統(tǒng)的平臺。兩年前,人工智能和機器人公司的一些創(chuàng)始人在布宜諾斯召開的會議上,曾經(jīng)向聯(lián)合國致公開信,呼吁聯(lián)合國阻止目前正在進行中的殺人機器人軍備競賽。這封公開信把無需人類指令便能夠選擇并攻擊目標的人工智能武器與無人機、巡航導彈等人類選擇打擊目標的武器有所區(qū)別。
在信中,這些技術領袖在常規(guī)武器公約的審查會議上警告說,繼火藥和核武器后,這一領域的軍備競賽可能會引發(fā)“第三次戰(zhàn)爭革命”。他們在信中寫道:“一旦研制成功,致命自主武器將使武裝沖突擴大到前所未有的規(guī)模,而且戰(zhàn)爭進展的速度也比人類理解的更快。這些自主武器可能成為恐怖行動的代名詞,會成為獨裁者和恐怖分子對無辜平民使用的武器,也有可能被黑客所利用,做出我們不愿看到的行為?!?/p>
盡管機器人士兵仍處于紙上談兵階段,可是計算能力和人工智能的迅速進步,增加了軍方在20年內把機器人士兵派上戰(zhàn)場的可能性。在這封公開信中,這些創(chuàng)始人表示,雖然對軍隊作戰(zhàn)人員來說,人工智能技術可以令戰(zhàn)場更加安全,但這種不受人類控制的武器會引發(fā)全球性人工智能軍備競賽。技術領袖們認為,留給人類采取行動的時間并不多,“潘多拉的盒子”一旦打開,就很難關上了。
此前,專家曾經(jīng)警告說,人工智能技術已經(jīng)達到了一個重要階段,即自主化武器的部署將在今后幾年內就可以投入使用,而非人們想象的還需要數(shù)十年。
專家們憂慮,具有自主作戰(zhàn)能力的攻擊型武器會降低戰(zhàn)爭的門檻,甚至有可能導致更多平民失去生命。
在今年的會議上,這些創(chuàng)始人呼吁把“缺乏道義的”致命自主武器系統(tǒng)加入到聯(lián)合國在1983年生效的《特定常規(guī)武器(CCW)公約》禁用的武器清單中,這份清單包括化學武器和蓄意使人失明的激光武器。
無障礙機器人公司的創(chuàng)始人瑞安?蓋瑞比表示:“與仍然處于科幻領域的人工智能表現(xiàn)不同,自主武器系統(tǒng)正處于發(fā)展的尖端,具有非?,F(xiàn)實的潛力,有可能對無辜百姓造成重大傷害,并引發(fā)全球不穩(wěn)定”。作為這封公開信的簽名者之一,馬斯克一再警告對人工智能前瞻性規(guī)范的必要性,將其稱為人類面臨的最大生存威脅。不過,也有其他一些專家認為,人工智能盡管存在巨大的破壞性潛力,但從現(xiàn)實來看仍然十分遙遠。
對此,不同國家在這一問題上的態(tài)度也有所差異。西班牙政府已經(jīng)明確表示,西班牙軍方目前沒有、也無意在未來開發(fā)任何基于人工智能的自主致命武器系統(tǒng),本國政府也不會資助任何相關領域的研究項目。然而,英國政府在2015年曾經(jīng)反對禁止使用致命自主武器的提議,英國外交部表示“國際人道主義法已經(jīng)針對這一領域提供了充分的監(jiān)管”,強調了英國并沒有發(fā)展致命的自主武器。
(責任編輯:黃貞靜)