• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能技術(shù)的武器化:國際安全風險及其治理*

      2023-08-19 15:01:29李國輝孔勐勍岳憶晨
      信息安全與通信保密 2023年5期
      關(guān)鍵詞:武器人工智能系統(tǒng)

      李國輝,孔勐勍,岳憶晨

      (山東大學,山東 威海 264200)

      0 引 言

      人工智能武器化,即在現(xiàn)代及未來的武器系統(tǒng)中廣泛使用人工智能技術(shù),以實現(xiàn)武器裝備的“數(shù)智化”。當前,人工智能化武器迅猛發(fā)展,其所具有的指揮高效、操作自動、行為智能、打擊精準等特點,能夠自主完成偵察、搜索、識別、瞄準、攻擊目標等任務,有的甚至還具有解讀自然語言的能力[1]。人工智能和武器系統(tǒng)愈加廣泛且深入的結(jié)合,不僅會對人類戰(zhàn)爭的模式產(chǎn)生重大影響,更將會給國際安全治理帶來諸多挑戰(zhàn)。本文在概述人工智能武器化應用現(xiàn)狀的基礎(chǔ)上,著重分析人工智能技術(shù)武器化所產(chǎn)生的國際安全影響及當前的治理機制,并嘗試探尋更為優(yōu)化的治理路徑。

      1 人工智能武器化的發(fā)展現(xiàn)狀

      美國是首個將人工智能運用至軍事領(lǐng)域的國家,早在1972年,美軍便使用“靈巧炸彈”炸毀了越南清化大橋[2]。當前,隨著人工智能技術(shù)的發(fā)展,主要軍事大國均已將人工智能視為顛覆性改變戰(zhàn)爭規(guī)則的關(guān)鍵技術(shù),紛紛投入大量資源,推進人工智能武器的研發(fā)與應用。

      1.1 主要國家人工智能武器化的應用現(xiàn)狀

      美國的人工智能武器,不管是其技術(shù)水平還是應用規(guī)模均居世界首位。在陸軍方面,美陸軍現(xiàn)已裝備一萬余套地面無人作戰(zhàn)平臺,其中多數(shù)已在伊拉克和阿富汗戰(zhàn)場上投入使用[3]。2030年之前,美國陸軍計劃實現(xiàn)“有人作戰(zhàn)系統(tǒng)”與“無人作戰(zhàn)系統(tǒng)”相互連通、智能協(xié)作。在空軍方面,美國在2018年就已經(jīng)擁有8 000多個空中無人系統(tǒng),基本覆蓋了世界上現(xiàn)存的所有型號的空中無人作戰(zhàn)系統(tǒng),且仍在推進算法戰(zhàn)、蜂群作戰(zhàn)、忠誠僚機等項目的開發(fā)[4]。2020年12月15日,美國空軍U-2偵察機裝上了人工智能系統(tǒng),這也是美國軍用飛機首次實現(xiàn)人工智能自主控制軍用系統(tǒng)。在海軍方面,2020年12月,美國政府公布了新的海軍長期發(fā)展計劃,其中無人系統(tǒng)的開發(fā)是重點。據(jù)悉,2022年至2026年,美國將撥款43億美元,用于建造12艘大型無人水面艦艇、1艘中型無人水面艦艇和8艘超大型無人潛航器[5]。此外,為進一步推進在人工智能武器化領(lǐng)域的縱深發(fā)展,美國在戰(zhàn)略、政策、科研等層面均采取了諸多措施。

      除美國外,俄羅斯的人工智能軍事應用也較為成熟。在陸軍方面,俄羅斯已成功研發(fā)出了多種陸用智能化武器及地面作戰(zhàn)系統(tǒng),如“天王星”系列陸戰(zhàn)機器人及無人戰(zhàn)車、運輸機器人、鏟車式機器人、菲多爾人形機器人等。在海軍方面,俄羅斯已將無人潛航器列為研發(fā)重點,并積極探究將核潛艇與無人潛航器深度融合的方式。此外,歐洲各國及日韓等亞洲國家也在積極研發(fā)、應用人工智能武器。中國亦高度重視人工智能的軍事化發(fā)展,已將無人系統(tǒng)應用于反恐、偵察、軍事訓練、邊境巡邏等領(lǐng)域。

      1.2 人工智能武器化的主要特點

      當前,人工智能武器化的研發(fā)與應用主要有以下特點。第一,以深度學習為基礎(chǔ)的專家決策系統(tǒng),是人工智能武器化應用的一大特色。人工智能能夠通過經(jīng)驗積累和自我學習不斷提升以戰(zhàn)場態(tài)勢的感知和評估為中心的“戰(zhàn)場思維”。同時,人工智能還可以利用自身所擁有的專家級推理分析能力,對各類戰(zhàn)場信息進行匯集、融合與分析。未來,人工智能武器被廣泛使用的信息化戰(zhàn)爭在一定程度上可以說是算法之爭,即誰擁有算法優(yōu)勢,誰就掌握了戰(zhàn)爭主動權(quán)。第二,人工智能武器化意味著各軍種裝備的人工智能化、無人化、高效化。在空軍領(lǐng)域,作為“數(shù)智化”典型代表的無人機系統(tǒng)目前正在向全天候、小型化、集體化作戰(zhàn)方向發(fā)展,其殺傷能力也大幅提高,甚至還催生出了全新的“蜂群戰(zhàn)術(shù)”作戰(zhàn)理論。在“數(shù)智化”的陸軍系統(tǒng)中,單兵系統(tǒng)和地面無人作戰(zhàn)平臺(軍用智能機器人、無人戰(zhàn)車等)被廣泛用于反坦克、自行搬運戰(zhàn)場物資、突擊掃雷、戰(zhàn)場布雷、彈藥補給等方面。例如,英國的“泰坦”無人戰(zhàn)車可搭載遙控機槍武器站和反坦克裝備,進行地面戰(zhàn)斗等。海軍領(lǐng)域的“數(shù)智化”應用主要集中于水上和水下機器人、無人艦艇3個方面。例如,美國的“章魚”機器人可用以檢測敵軍水下目標等。此外,隨著精確制導武器技術(shù)的不斷進步,智能彈藥近年來也成為人工智能武器化的重要研發(fā)與應用領(lǐng)域。第三,人工智能武器化帶來了軍事網(wǎng)絡(luò)安全等領(lǐng)域的人工智能變革。網(wǎng)絡(luò)安全已成為各國軍事博弈的核心與焦點。利用人工智能制造病毒,代替人類黑客,可以對軍方的網(wǎng)絡(luò)通信系統(tǒng)造成巨大破壞。擁有高度智能的作戰(zhàn)指揮系統(tǒng)和武器平臺一旦被敵方黑客攻擊,將面臨著戰(zhàn)術(shù)失利、機器故障等后果,甚至使智能化系統(tǒng)因受干擾而失控。

      2 人工智能武器化對國際安全的影響

      人工智能武器的研發(fā)及應用均已取得相當程度的發(fā)展。但當前,人工智能新技術(shù)存在諸多不確定性,人工智能武器化的治理機制也尚不完善。在此背景下,人工智能武器化給國際安全帶來了許多潛在的風險。

      2.1 弱化人類對于戰(zhàn)爭的把控權(quán)

      人工智能武器化將使人類愈發(fā)依賴智能化系統(tǒng)所提供的自主性信息及手段,甚至將戰(zhàn)爭的決定權(quán)讓渡給機器,這最終將導致人類在戰(zhàn)爭中的能動性被弱化。盡管人工智能的算法優(yōu)勢可以實現(xiàn)預先感知、預先決策,但隨著智能武器系統(tǒng)的廣泛使用,人類對戰(zhàn)爭準確認知的主動權(quán)也在遭受著侵蝕。算法優(yōu)勢的運用將會導致從戰(zhàn)術(shù)決策到執(zhí)行的時間越來越短,人類也將越來越難以適應快速的戰(zhàn)場變化,從而在戰(zhàn)爭中愈發(fā)被動。

      不僅如此,人工智能武器的應用或?qū)е聭?zhàn)爭烈度升級,人類將難以控制沖突的規(guī)模與程度。首先,由于人工智能技術(shù)的自我學習功能以及其非理智的行為邏輯具有不可預測性,因此人類將難以準確把握人工智能決策的因果機制。人工智能武器化背景下,算法的安全性和數(shù)據(jù)的可靠性將直接決定人工智能系統(tǒng)的安全性。但目前各國的人工智能技術(shù)并不成熟,算法和數(shù)據(jù)都具有相當程度的脆弱性。例如,在算法方面,算法漏洞問題經(jīng)常發(fā)生,這可能會引發(fā)人工智能武器的戰(zhàn)略誤判,或使人工智能武器遭到敵方的網(wǎng)絡(luò)入侵[6]。在數(shù)據(jù)方面,常見問題有數(shù)據(jù)泄露、數(shù)據(jù)污染、數(shù)據(jù)偏差等,這些問題都可能會使系統(tǒng)陷入信息困境、數(shù)據(jù)欺騙等。例如,北約的無人機在敘利亞、利比亞等地實施空襲時,就因算法偏差造成了大量平民的傷亡。其次,人工智能武器化背景下,人類在戰(zhàn)術(shù)層面的影響也將被不斷削弱,以至于人類難以掌控戰(zhàn)爭的發(fā)展走向。在智能化武器集群攻擊中,人類操作員不可能控制每一個作戰(zhàn)武器,作戰(zhàn)部署系統(tǒng)只能由人工智能來操縱,人類的介入將越來越集中于作戰(zhàn)中的最高層環(huán)節(jié),而在戰(zhàn)術(shù)層面的影響與控制能力則將被極大地削弱。

      2.2 增加戰(zhàn)爭發(fā)生的可能性

      人工智能武器化將會改變傳統(tǒng)戰(zhàn)爭的規(guī)則,降低戰(zhàn)爭門檻,大大增加戰(zhàn)爭爆發(fā)的可能性。人工智能武器化背景下,消滅敵方有生力量、破壞敵方傳統(tǒng)軍事戰(zhàn)爭體系等作戰(zhàn)法則將失去原有的意義。戰(zhàn)爭規(guī)則也將發(fā)生質(zhì)變,傳統(tǒng)戰(zhàn)爭形態(tài)將演變?yōu)椤皺C器代理人戰(zhàn)爭”?!皺C器代理人戰(zhàn)爭”為戰(zhàn)爭決策者提供了更為有效的軍事選擇。有研究認為,相較于無人機被擊落,軍事決策者更傾向于對有人駕駛的飛機被擊落采取激進的軍事反應[7]。因為“機器代理人戰(zhàn)爭”削弱了戰(zhàn)爭規(guī)則和戰(zhàn)爭成本對決策層的威懾力,降低了決策者的擔憂,因此,當沖突發(fā)生時,決策者將會更傾向于使用智能化的軍事武器解決爭端。

      同時,在智能化武器戰(zhàn)爭的背景下,民意對決策者動用武力的限制作用也將會被削弱。作戰(zhàn)平臺、精確制導導彈等技術(shù)的“數(shù)智化”,可以使作戰(zhàn)人員免于暴露于戰(zhàn)火之下,人員受傷概率也將隨之降低。由此,相較于派出作戰(zhàn)人員進行軍事行動,民眾將會更加支持政府在危險地區(qū)部署人工智能武器或者使用智能武器介入軍事沖突。

      此外,致命性人工智能武器一旦被恐怖組織、極端主義分子所掌握,武裝沖突爆發(fā)的可能性將會大大增加。由于獲取路徑多樣、操作門檻較低,人工智能武器很容易通過黑市流入恐怖分子及極端主義分子之手。再加上人工智能武器能夠降低發(fā)動恐怖襲擊的風險和人員成本,恐怖極端主義分子或?qū)⒃谌斯ぶ悄芪淦鞯募映窒?,更加肆無忌憚地發(fā)起武裝行動。

      2.3 沖擊現(xiàn)有國際秩序

      羅伯特·吉爾平認為,國家對科學技術(shù)的不同反應導致了不平衡的發(fā)展,而不平衡發(fā)展最終會導致權(quán)力的重新分配,進而影響國際體系的變革[8]。隨著全球化的發(fā)展,科技已成為大國博弈的前沿競技場。在人工智能武器化領(lǐng)域,美、英、法、德、日等大國紛紛制定并出臺了各種政策規(guī)劃。與此同時,人工智能技術(shù)也沖擊著傳統(tǒng)軍事力量的均勢格局。在各國戰(zhàn)略競爭的推動下,人工智能武器或?qū)⒋呱碌摹皣H安全困境”。

      首先,人工智能技術(shù)強國在新一輪的科技競技中間接獲得了更多的相對權(quán)力,原有的國際安全格局受到了挑戰(zhàn)。為化解崛起中的人工智能強國所帶來的安全風險,其他國家需要將更多的資源投入到新一代的武器研發(fā)之中。如此,便極有可能引發(fā)新一輪的科技軍備競賽,從而沖擊國際關(guān)系的穩(wěn)定。其次,人工智能武器化將會加劇國家間已有的資源不平等狀況,使國際關(guān)系的權(quán)力分布更加集中甚至極化。研發(fā)和應用人工智能武器需要數(shù)據(jù)、技術(shù)、人力、資本等諸多要素的支撐,而當前只有部分技術(shù)大國擁有相應的基礎(chǔ)與實力,弱小國家則面臨著被永久邊緣化的風險。在軍備競賽、技術(shù)鴻溝、權(quán)力分配不平等因素的共同作用下,國家間的互信將隨之減少,摩擦與沖突則將增加,最終現(xiàn)有國際秩序?qū)艿絼×覜_擊。

      2.4 挑戰(zhàn)國際法規(guī)的基本原則

      當前國際法對人工智能武器試驗、應用、追責的界定與規(guī)范尚不清晰,所以人工智能武器化給相關(guān)國際法及國際規(guī)范也帶來了嚴峻的挑戰(zhàn)。如前所述,“數(shù)智化”作戰(zhàn)系統(tǒng)的發(fā)展目標是無人作戰(zhàn)系統(tǒng),即在大多數(shù)情況下無須人類的直接干預。這將導致國際法難以約束人工智能武器的使用,更難以判定人工智能武器的責任歸屬。當人工智能武器因決策錯誤或技術(shù)故障而違反國際法和國際規(guī)范時,其責任到底應該由誰承擔,是指揮官、士兵還是技術(shù)人員或是武器制造商,針對這一問題,既存的國際法規(guī)尚未有明確的規(guī)定。此外,人工智能武器尚不具備近人的判斷力,在戰(zhàn)場上無法有效識別平民和戰(zhàn)斗人員,從而可能造成大量平民死傷,釀成人道主義災難,而這有違于國際人道法的區(qū)分原則和比例原則。

      此外,由于人工智能武器技術(shù)的軍民兩用性,某些人工智能技術(shù)甚至能夠作為民用品出口,這會導致相關(guān)武器在全球市場上交易與流通的泛濫,對規(guī)范常規(guī)武器貿(mào)易的《武器貿(mào)易條約》構(gòu)成新的挑戰(zhàn)。如何有效地規(guī)范自主武器的購買、轉(zhuǎn)讓、擴散,是現(xiàn)有常規(guī)武器貿(mào)易管控機制所面臨的新問題[9]。

      2.5 引發(fā)復合型危機

      人工智能技術(shù)與核武器、生化武器、網(wǎng)絡(luò)技術(shù)的結(jié)合將增加復合型危機發(fā)生的可能性。以核武器為例,為提高核武器的情報分析、輔助決策和對外反應能力,美、俄等核大國早已將人工智能技術(shù)應用到核武器的運載、預警及控制過程中。

      然而,由于人工智能技術(shù)的不成熟、不可靠性,核武器的自動化系統(tǒng)暗藏著諸多風險。在發(fā)射權(quán)方面,若將核武器的發(fā)射權(quán)讓渡給人工智能,一旦出現(xiàn)意外事故或戰(zhàn)略誤判,人工智能控制的核武器發(fā)射很有可能產(chǎn)生災難性的后果。在日常管理方面,核武器的自動化系統(tǒng)涉及多個部門,難免存在安全漏洞。同理,人工智能技術(shù)若與生化武器結(jié)合,也可能會因技術(shù)故障、管理失效、風險控制不當、技術(shù)濫用等原因,釀成人道主義災難。

      3 當前人工智能武器化的治理機制

      當前,國際社會就全面禁止人工智能武器的問題尚未達成全球共識,但人工智能武器化所帶來的國際安全問題已受到國際組織、政府等相關(guān)主體的廣泛關(guān)注。在各方共同努力下,人工智能武器化問題的相關(guān)治理機制已初步形成。

      3.1 國際層面的治理機制

      3.1.1 聯(lián)合國層面

      首先,《特定常規(guī)武器公約》(Convention on Certain Conventional Weapons,CCW)在限制人工智能武器化問題上發(fā)揮著一定的作用。關(guān)于自主武器系統(tǒng)的管控問題,《特定常規(guī)武器公約》的締約國已經(jīng)召開了多次會議。2016年,CCW會議決定建立由民間專家與國家代表團成員組成的“致命自動武器系統(tǒng)監(jiān)管專家組”(Group of Governmental Experts on Lethal Autonomous Weapons Systems,GGE),以便一同交流探討致命性自主武器系統(tǒng)的軍控問題。2019年,CCW第八次政府專家組會議提出了規(guī)范“致命性自主武器系統(tǒng)”開發(fā)及應用的11條指導原則,涉及技術(shù)、法律規(guī)范、道德倫理等方面。2021年12月,CCW第六次審議大會討論了限制“致命性自主武器系統(tǒng)”開發(fā)的事宜。

      除《特定常規(guī)武器公約》機制外,聯(lián)合國人權(quán)理事會(United Nations Human Rights Council,UNHRC)、聯(lián)合國大會第一委員會(即裁軍與國際安全委員會)、聯(lián)合國安全理事會(United Nations Security Council,UNSC)在禁止自主武器方面的作用也不容忽視。2013年5月,聯(lián)合國人權(quán)理事會“法外處決、即審即決或任意處決問題”調(diào)查員克里斯托夫·海恩斯強調(diào)稱,需要加緊考慮機器人技術(shù)的發(fā)展及其對法律、倫理和道德的影響[10]。自2013年以來,聯(lián)合國大會第一委員會每年都將自主武器問題作為國際議題之一展開討論。到2019年的年度會議為止,已有多達93個國家公開發(fā)表對致命性自主武器的觀點,有30個國家呼吁禁止致命性自主武器。聯(lián)合國安理會自2021年起也開始探討新興科技的開發(fā)利用。2021年5月17日,在中國的倡議下,“新興科技對國際和平與安全的影響”阿里亞模式會議召開,與會各方一致認為應加強彼此合作交流,充分利用聯(lián)合國等多邊主義機制,有效推進新興科技全球治理。這也是聯(lián)合國安理會首次就新興科技問題展開討論。

      3.1.2 國際非政府組織

      除聯(lián)合國層面的機制外,國際非政府組織也致力于探究人工智能武器化的問題,在限制自主武器方面發(fā)揮著自身獨特的作用。例如,早在2011年,紅十字國際委員會(International Committee of the Red Cross,ICRC)就公開對自主武器系統(tǒng)問題表示了關(guān)切。2015年以來,紅十字國際委員會一直致力于敦促各國就自主武器系統(tǒng)問題確立國際公認的限制標準,通過多種方式在限制自主武器方面發(fā)揮著影響力。首先,紅十字國際委員會在人工智能自主武器系統(tǒng)所涉及的相關(guān)法律法規(guī)、道德倫理、技術(shù)發(fā)展及軍事影響等方面發(fā)揮著重要作用。其次,紅十字國際委員會還通過發(fā)布《對武器系統(tǒng)自主性的限制:明確人類控制的實踐要素》《國際人道法及其在當代武裝沖突中面臨的挑戰(zhàn)》等一系列與自主武器相關(guān)的報告,說明自主武器系統(tǒng)的獨特性及風險性,并呼吁國際社會關(guān)注人工智能武器化問題。再者,紅十字國際委員會還積極參與CCW專家會議。例如,針對CCW政府專家組所擬定的指導原則的評注部分,紅十字國際委員會就曾提出了其自身的建議[11]。

      2013年,國際“殺手機器人禁令運動”組織成立,該組織旨在通過廣泛開展各類運動,給各國政府形成足夠大的壓力,以促使其就達成自主武器相關(guān)條約展開談判。此外,該組織還主張禁止研發(fā)人類無法有效控制的武器。目前,“殺手機器人禁令運動”已獲得來自60個國家的130多個團體的支持。

      3.1.3 知識共同體

      在規(guī)制人工智能武器化問題上,由人工智能研究者所組成的知識共同體也發(fā)揮著重要的作用。2015年7月28日,2 000余名研究人工智能的學者共同發(fā)表了一封公開信,呼吁國際社會采取措施防止自主性武器流向黑市、落入恐怖分子之手或引發(fā)軍備競賽[12]。此后,越來越多的來自不同國家、不同領(lǐng)域的科學家、企業(yè)家和工程師加入禁止自主化武器的行列,截至2022年1月,已有4 500多名相關(guān)學者在這封公開信上署名[13]。

      2018年7月18日,國際人工智能聯(lián)合會議召開,與會的2 000多名人工智能領(lǐng)域的知名人士簽署了《致命性自主武器宣言》,誓言不參與也不支持開發(fā)、制造、交易或使用致命性自主武器。2020年6月和11月,瑞典斯德哥爾摩國際和平研究所針對人工智能武器化的影響以及歐盟所應發(fā)揮的作用,發(fā)表了《人工智能對戰(zhàn)略穩(wěn)定和核風險的影響》《負責任的人工智能軍事應用》兩份報告。

      3.2 地區(qū)及國家層面的治理機制

      3.2.1 地區(qū)層面的治理機制

      與全球?qū)用娴闹卫頇C制相比,人工智能武器化的區(qū)域治理機制較少,目前只有區(qū)域一體化程度較高的歐盟嘗試出臺了相關(guān)方案。在《機器人民事法律規(guī)則》中,歐盟特別設(shè)定了“機器人憲章”“研究倫理委員會準則”等條款,還提出了成立統(tǒng)一的機器人技術(shù)和人工智能的監(jiān)管機構(gòu),為復雜的自動化機器人創(chuàng)設(shè)“電子人”法律地位等內(nèi)容[14]。2019年,歐盟委員會制定了《可信任的人工智能道德準則》,其中就人工智能的倫理規(guī)范做了詳細說明。2020年2月,歐盟發(fā)布了區(qū)域性文件之《人工智能白皮書》。此外,針對如何將致命性自主武器系統(tǒng)納入到歐洲法律框架下的問題,歐洲議會在2020年至2021年曾多次進行了正式討論。

      3.2.2 國家層面的治理機制

      基于人工智能武器化可能帶來的諸多問題,一些國家也嘗試從國內(nèi)立法和政策層面對人工智能武器的研發(fā)及使用進行規(guī)范??傮w來講,各國對人工智能武器管控方案的核心在于保持人類對武器系統(tǒng)的控制,而其難點在于如何管控完全自主的大規(guī)模致命性武器的研發(fā)與應用。

      美國早在2012年就發(fā)布了自主及半自主武器使用方面的政策指南,擬定了一些普遍適用的原則。2019年10月,美國政府首次回應了人工智能武器化所可能導致的倫理問題,同時強調(diào)了在國防部設(shè)立人工智能指導委員會的必要性。2020年2月,美國國防部正式確立了“負責的、公平的、可追溯的、可靠的、可治理的”等5項人工智能軍事化發(fā)展的原則。2021年4月,新美國安全中心(Center for a New American Security,CNAS)又提出了自主武器作戰(zhàn)使用的原則,強調(diào)了任何自主武器系統(tǒng)的使用須在有責任的人工指揮和控制鏈的指導下進行。

      歐洲方面,英國上議院人工智能特別委員會于2017年發(fā)布了報告,討論了統(tǒng)一自主武器國際概念及如何控制、監(jiān)督自主或完全自主武器的問題。法國于2018年制定了《人工智能技術(shù)國家標準化委員會出臺技術(shù)標準》,試圖通過研究倫理及實現(xiàn)標準化來構(gòu)建可信的人工智能系統(tǒng)。法國國防部還于2019年底成立了軍事倫理委員會,對軍人進行國際人道法和倫理教育,通過將人的認知等要素標準化,使人工智能系統(tǒng)認知程序開發(fā)更加簡單化與均質(zhì)化。德國政府也多次發(fā)表聲明,明確反對研發(fā)和使用完全自主性武器,提出應遵循“有所控制地發(fā)展人工智能武器”的原則。

      此外,澳大利亞、加拿大、巴西等國也紛紛出臺相關(guān)政策,反對武器完全自主化,呼吁建立國際友好、數(shù)據(jù)開放的共享環(huán)境,防止人工智能武器的濫用及軍備競賽的出現(xiàn)。同時,我國也一向重視人工智能方面的治理。2019年6月,國家新一代人工智能治理委員會提出了“和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協(xié)作、敏捷治理”等人工智能治理方面的相關(guān)原則。

      4 人工智能武器化的治理路徑

      如前所述,當前國際社會高度關(guān)注人工智能武器化的治理問題,相關(guān)治理機制也正在建立。基于既有的治理機制,本文將從宏觀的軍控機制、中觀的官民合作以及微觀的科研人員3個層面進一步探究人工智能武器化的治理路徑。

      4.1 宏觀層面:充分利用及創(chuàng)新現(xiàn)有軍控機制

      各國應充分利用現(xiàn)有的軍控機制及平臺,就人工智能武器化帶來的國際安全挑戰(zhàn)開展廣泛磋商,提高各方對人工智能及其所帶來的國際安全問題的重視,借鑒既有的同質(zhì)軍控框架以早日達成人工智能武器領(lǐng)域的統(tǒng)一協(xié)定。

      關(guān)于人工智能武器化的治理問題,國際社會已達成了一些共識,各國都同意必須始終對武器系統(tǒng)的關(guān)鍵性能進行有效且恰當?shù)目刂芠15]。基于現(xiàn)有共識,各國政府可在既有軍控機制下,進一步細化、深化相關(guān)行為準則。例如,各國政府可借《特定常規(guī)武器公約》政府專家組會議為平臺,進一步優(yōu)化信任磋商機制,用制定成本較低的行為準則來代替制定成本較高的法律規(guī)范。另外,關(guān)于人工智能化武器的規(guī)制也可借鑒常規(guī)武器的規(guī)約。目前各國在常規(guī)武器和大規(guī)模殺傷性武器的應用方面已達成了一系列的軍備控制協(xié)議。在人工智能武器的軍控問題上,可以嘗試借鑒既有的常規(guī)軍控協(xié)議的框架和思路。

      每個國家在人工智能領(lǐng)域的發(fā)展程度不同,先發(fā)國需要深化在人工智能領(lǐng)域內(nèi)的合作。若是僅僅依靠技術(shù)處于相對弱勢的國家,限制人工智能武器的全球性協(xié)議將很難推動。即便勉強達成類似協(xié)議,其效果也極有可能無法達到預期。相反,少數(shù)優(yōu)勢國家在維護全球戰(zhàn)略穩(wěn)定性上有諸多共同利益可尋。出于對失去技術(shù)強國地位或軍備競賽成本過高的擔心,優(yōu)勢國家可能更愿意簽訂雙邊軍控條約,以避免大國之間出現(xiàn)軍備競賽。因此,人工智能軍事強國可通過協(xié)商會談率先簽訂軍備控制的公報或協(xié)議,對軍備競賽加以限制。

      4.2 中觀層面:官民協(xié)作共同規(guī)范技術(shù)發(fā)展路徑

      政府部門及社會民眾應加強協(xié)作,共同致力于人工智能武器化的國際治理。各國政府應加強對于人工智能倫理道德及人工智能行為科學等問題的研究,探討人工智能的人格與數(shù)據(jù)安全問題,加大對武器系統(tǒng)的倫理與法律審查。例如,政府可以設(shè)立專門的倫理與審查委員會,制定統(tǒng)一的審查標準與分類標準。與此同時,各國還應加強公共教育,充分發(fā)揮輿論監(jiān)督、民眾監(jiān)督的作用,督促各國政府在社會的監(jiān)督下開展武器研究與管控。此外,個人也應轉(zhuǎn)變觀念,充分認識到人工智能武器化對國際安全的挑戰(zhàn),積極參與相關(guān)政策的提議與監(jiān)督。在社會監(jiān)督下,相關(guān)決策者需要充分考慮人工智能戰(zhàn)爭所帶來的負面社會效應及政治成本,從而在人工智能武器化議題中做出理性的選擇。

      4.3 微觀層面:用科技制衡科技

      用科技“制衡”科技的本質(zhì)即發(fā)揮“人”在科技應用中的決定性作用,使人工智能武器永遠難以脫離人類的控制。當前,在各國爭相部署自主武器的背景下,民族主義和資本的結(jié)合一定程度上打破了知識共同體的統(tǒng)一陣線,一些國家出現(xiàn)了科技研發(fā)人員支持政府升級軍備的現(xiàn)象。但是,這并不意味著人工智能科技研發(fā)人員的態(tài)度與政府的主張完全一致。人工智能科技研發(fā)人員在國際治理中可在以下兩個方面發(fā)揮重要的作用。首先,科研人員可以規(guī)避危險的技術(shù)路徑,防止出現(xiàn)完全自主的致命性武器。其次,科研人員可以在人工智能武器研發(fā)環(huán)節(jié)遵守相關(guān)規(guī)則,恪守國際道義。

      目前人工智能武器的研發(fā)透明度低,且缺少統(tǒng)一的監(jiān)管標準,亟須強化科研人員的責任意識,明確生產(chǎn)商的權(quán)責,遵循技術(shù)向善的理路。例如,可以為武器研發(fā)的科研人員及制造商制定倫理標準和規(guī)范手冊,對智能化武器的操作人員實施必要的道德約束。同時,還應提高技術(shù)研發(fā)的信息透明度,要求科研人員和生產(chǎn)商公布實驗數(shù)據(jù),確保人們明晰武器的實際殺傷力。在技術(shù)研究層面,對機器的倫理化改造難以完全實現(xiàn),但科研人員仍可嘗試將戰(zhàn)爭及武裝沖突的規(guī)則通過代碼編寫算法的方式轉(zhuǎn)化為人工智能武器的邏輯指令,從而將國際人道法精神內(nèi)嵌于人工智能武器之中,以建立起人工智能武器與國際人道法規(guī)則之間的對應關(guān)系,從根本上降低人工智能武器可能帶來的風險。

      5 結(jié) 語

      百年未有之大變局的時代背景下,以人工智能為中心的科學技術(shù)已成為各國打造新競爭優(yōu)勢的關(guān)鍵。但人工智能不應成為一場零和游戲,科技的創(chuàng)新和突破最終應更好地造福人類。未來的戰(zhàn)爭是信息化的戰(zhàn)爭,人工智能與武器結(jié)合或已成為不可逆轉(zhuǎn)的時代趨勢。人工智能武器化的安全治理任重道遠,需要國際社會各參與主體貢獻集體智慧,共同推動人工智能武器化的安全發(fā)展。在人類命運共同體理念的指引下,各國應秉持全球安全觀,積極尋求人工智能武器化規(guī)范方面的新共識,以早日形成具有普遍適用性的國際規(guī)范。

      猜你喜歡
      武器人工智能系統(tǒng)
      Smartflower POP 一體式光伏系統(tǒng)
      WJ-700無人機系統(tǒng)
      ZC系列無人機遙感系統(tǒng)
      北京測繪(2020年12期)2020-12-29 01:33:58
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      連通與提升系統(tǒng)的最后一塊拼圖 Audiolab 傲立 M-DAC mini
      一張圖看懂武器發(fā)展史
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      南風窗(2016年19期)2016-09-21 16:51:29
      請放下你的武器
      微山县| 广宁县| 沂水县| 额济纳旗| 通榆县| 上高县| 嘉祥县| 城口县| 遂川县| 乌海市| 乐都县| 崇左市| 湖州市| 陆河县| 德化县| 恩施市| 深圳市| 宜阳县| 湘乡市| 勃利县| 九江市| 来安县| 缙云县| 沛县| 龙井市| 淄博市| 永定县| 泰来县| 梁山县| 仁化县| 邢台市| 嘉义市| 禄丰县| 沾化县| 通城县| 高雄市| 固始县| 宜君县| 永康市| 鄂托克前旗| 大厂|