龍 坤 徐能武
(國防科技大學文理學院 長沙 410073)
隨著人工智能為核心驅(qū)動的新一輪技術(shù)革命、工業(yè)革命和軍事革命孕育興起,各國尤其是技術(shù)強國紛紛加大了對軍事智能化建設的投入和布局,力圖搶占先機,塑造新一輪戰(zhàn)略優(yōu)勢。作為以多次“抵消戰(zhàn)略”成功維持世界軍事霸權(quán)的國家,美國對于新一輪技術(shù)革命尤為敏感,在人工智能軍事化這一領(lǐng)域高度重視。新近具有代表性的言論是美國參聯(lián)會主席馬克·米利的演講,他于2021年8月2日在美國國家海軍聯(lián)盟(NLUS)舉辦的“海-空-天”全球海事博覽會上宣稱,人工智能、無人系統(tǒng)等技術(shù)是未來作戰(zhàn)必須具備的新興能力,將從根本上改變未來戰(zhàn)爭的作戰(zhàn)樣式。哪一國家掌握了這些技術(shù),就將具備顯著的乃至決定性的優(yōu)勢[1]。
人工智能的顛覆性潛力越來越受到美軍高層的重視,制定和實施人工智能倫理規(guī)范也成為美軍推進人工智能軍事應用的重要一環(huán)。2019年10月,美國國防創(chuàng)新委員會(DIB) 發(fā)布《人工智能準則:推動國防部以符合倫理的方式運用人工智能的建議》(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)報告(以下簡稱《準則》),提出了國防部運用人工智能的五項原則和十二條建議[2]。2020年2月24日,美國防部首席信息官達納·迪西和國防部聯(lián)合人工智能中心(Joint Artificial Intelligence Center,JAIC)主任杰克·沙納漢中將聯(lián)合對外宣布,美時任防長馬克·埃斯珀已正式采納國防創(chuàng)新委員會推薦的五項人工智能倫理原則,使其成為國防部在人工智能軍事應用領(lǐng)域的官方政策[3],引發(fā)國際廣泛關(guān)注。2021年5月26日,美國防部副部長凱瑟琳·??怂购炇饌渫?,進一步明確了“負責任地使用人工智能”(RAI)六項原則[4]。但從學術(shù)研究成果來看,目前國內(nèi)外還尚未有學者對美軍人工智能軍事應用倫理準則這一領(lǐng)域的相關(guān)問題進行系統(tǒng)的分析和考察。有鑒于此,本文將以當前美軍的人工智能倫理準則主要文件及具體舉措為主要研究對象,結(jié)合其在應用過程的相關(guān)進展,分析美軍高調(diào)推出人工智能軍事倫理準則的出臺背景、主要內(nèi)容和基本特點,揭示其背后的動因,并在此基礎上得出對我國和我軍的啟示。
美國防部出臺軍事人工智能準則有著重要的時代背景,并經(jīng)歷了一個長期的過程。隨著人工智能快速發(fā)展和應用,深刻影響軍事領(lǐng)域,與此相應的倫理問題也逐步凸顯,從而引發(fā)美軍對于制定人工智能倫理準則必要性的關(guān)注,并最終落實到行動中來。
1.1國際大勢:制定人工智能倫理準則的全球浪潮方興未艾人工智能是新一輪工業(yè)革命的主要驅(qū)動技術(shù),而人工智能倫理與規(guī)范則是未來智能社會的發(fā)展基石,算法偏見、安全性、可靠性、責任缺位等問題的凸顯使得制定人工智能倫理準則的必要性日益彰顯。因而,人工智能的倫理問題成為了世界上的熱點議題,已引起各國政府和學術(shù)界、企業(yè)界等的廣泛關(guān)注。迄今為止,歐盟[5]、英國、日本等國際組織和國家行為體以及人類未來研究所[6]、谷歌[7]等大型跨國企業(yè)等非國家行為體,均發(fā)布了人工智能的倫理準則(見表1)。美軍也意識到了制定人工智能倫理準則對其推動人工智能軍事應用的重要意義,因此“引領(lǐng)軍事人工智能倫理和安全標準制定”成為了美軍人工智能戰(zhàn)略的五大支柱之一。在這份人工智能戰(zhàn)略報告中,明確指出美國防部將“闡明以合法和合乎道德的方式使用人工智能的愿景和指導原則,以推廣我們的價值觀。我們將與來自學術(shù)界、私營企業(yè)和國際社會的領(lǐng)導人進行磋商,以推進軍事領(lǐng)域的人工智能倫理和安全?!盵8]美國防部出臺的這份倫理準則便是這一戰(zhàn)略在倫理準則方面的落地,其之所以引起國際社會的廣泛關(guān)注,主要在于首次正式將人工智能倫理準則延伸到軍事領(lǐng)域,為美軍推動人工智能軍事應用提供了專門的倫理規(guī)范。從公開資料來看,目前其他國家在軍事領(lǐng)域還沒有出臺官方的人工智能倫理準則。
表1 全球現(xiàn)有人工智能倫理準則倡議/政策
1.2國內(nèi)考量:人工智能軍事潛力、安全風險與倫理譴責的權(quán)衡產(chǎn)物人工智能在軍事領(lǐng)域具有重大應用價值。美國防部認為,人工智能在提升軍隊態(tài)勢感知能力、賦能武器裝備、預測性維護與供應以及簡化業(yè)務方面具有重大潛力,并專門成立國防部人工智能應用的統(tǒng)籌協(xié)調(diào)機構(gòu),著力推動人工智能在國家安全領(lǐng)域的運用。2018年6月27日,國防部副部長帕特里克·沙納漢簽署備忘錄,指示建立聯(lián)合人工智能中心(JAIC),以推動國家任務倡議,運用人工智能解決美國防部面臨的關(guān)鍵問題[9]。2019年2月,這一機構(gòu)成為了協(xié)調(diào)美國防部推動人工智能軍事應用、貫徹美軍人工智能戰(zhàn)略的核心機構(gòu)。據(jù)聯(lián)合人工智能中心負責人美國空軍中將約翰·杰克·沙納漢指出,這一機構(gòu)的研究重點領(lǐng)域包括情報探知、預測性維護與供應、救災和人道主義援助以及網(wǎng)絡空間等領(lǐng)域[10]。
美國政府和軍隊高度重視人工智能發(fā)展及應用,出臺大量政策大力推動人工智能的研發(fā)和軍事應用。特朗普政府2017年出臺的《美國國家安全戰(zhàn)略》中提到,美國將優(yōu)先發(fā)展數(shù)據(jù)科學、先進計算、人工智能等對經(jīng)濟增長和安全至關(guān)重要的新興技術(shù)[11]。《2018美國國防戰(zhàn)略概要》進一步強調(diào),先進自主系統(tǒng)是美軍需要塑造的關(guān)鍵能力之一,國防部將大力投資于自主、人工智能和機器學習的軍事應用,以獲得軍事競爭優(yōu)勢[12]。2019年2月11日,特朗普簽署《維護美國在人工智能時代的領(lǐng)導地位》行政命令,強調(diào)維持美國在人工智能領(lǐng)域的領(lǐng)導地位對美國經(jīng)濟和國家安全至關(guān)重要[13]。2月12日,美國防部發(fā)布《2018國防部人工智能戰(zhàn)略概要:利用人工智能促進安全與繁榮》報告,標志著美軍人工智能戰(zhàn)略的正式出臺[14]。9月12日,美空軍發(fā)布《2019空軍人工智能戰(zhàn)略》,確立了推動美空軍推動人工智能嵌入空軍力量建設的基本框架[15]。
但如前所述,人工智能軍事應用又存在算法偏見、責任缺位等重大安全風險,加之輿論譴責壓力,讓美軍越來越意識到制定人工智能倫理原則的重要性。分析來看,促使美軍加快制定軍事人工智能倫理準則的直接誘因是美軍與科技企業(yè)近些年日益凸顯的理念沖突。在人工智能快速發(fā)展和快速走向軍事領(lǐng)域的過程中,關(guān)于自主武器日益凸顯的國際爭議、谷歌終止Maven項目事件等使得美軍高層逐漸意識到制定軍事人工智能倫理準則的重要性。隨著人工智能日益走向軍事領(lǐng)域,美國國內(nèi)對這一趨向存在很多質(zhì)疑和反對意見,尤其是一些人工智能科技企業(yè)不贊成將人工智能技術(shù)軍事化,用于制造戰(zhàn)爭武器,對于美國防部存在強烈的不信任感,呼吁加強對于技術(shù)的監(jiān)管。例如,2018年3月,谷歌公司3 100多名員工聯(lián)名致信谷歌CEO,要求立即終止參與Maven項目,并聲明永不開發(fā)戰(zhàn)爭技術(shù)。其中的主要理由是擔心人工智能技術(shù)被用于戰(zhàn)爭目的,不符合公司“不作惡”的價值觀。不久后,超過百名學者和科學家再次聯(lián)合發(fā)聲,要求谷歌承諾既不參與也不支持自主武器的研發(fā)、制造、交易和使用[16]。2019年2月,數(shù)十名微軟員工也聯(lián)名抗議公司與美國陸軍簽署4.8億美元的合同[17]。正是在與人工智能私營科技企業(yè)關(guān)系日趨緊張的背景下,美國防部試圖通過制定人工智能倫理準則的方式,向外界保證美軍會以符合倫理和負責任的方式推動人工智能的軍事應用,從而塑造美軍內(nèi)外對于人工智能軍事應用的信任和信心,減少輿論障礙。
1.3美軍人工智能倫理準則的制定過程:從醞釀到出爐從時間周期來看,美軍人工智能倫理準則從初步醞釀到正式出爐歷經(jīng)了將近兩年的時間。2018年7月11日,美國國防部人工智能戰(zhàn)略首席設計師布倫丹·麥考德宣布啟動聯(lián)合人工智能中心的同時,指示國防創(chuàng)新委員會圍繞人工智能倫理原則指導為國防部遞交一份報告,指導未來人工智能系統(tǒng)以符合倫理的方式運用于軍事領(lǐng)域。該委員會是美國一個獨立的聯(lián)邦顧問委員會,旨在為美國防部高層提供政策建議,其成員包括來自谷歌、臉書等科技企業(yè)的高管和專家,目前的在研項目包括國防部5G生態(tài)系統(tǒng)、人工智能軍事應用原則等。美國國防創(chuàng)新委員會主席埃里克·施密特要求國防創(chuàng)新委員會科學和技術(shù)小組承擔這項工作。自此,美軍制定軍事人工智能準則的進程拉開了帷幕。在這一過程中,國防創(chuàng)新委員會召集了16位人工智能領(lǐng)域的杰出專家,進行了為期15個月的研究。在這一過程中,國防創(chuàng)新委員會科學技術(shù)小組委員會收集了大量線上和線下的意見建議,并與學術(shù)界、工業(yè)界數(shù)十位專家進行了三次圓桌討論會和兩次公眾聽證會,包括人工智能技術(shù)專家、軍方專家、人權(quán)律師、政治理論家、軍備控制活動家、科技領(lǐng)域企業(yè)家等。此外,國防創(chuàng)新委員會還舉行了一次“桌面推演”,以對現(xiàn)實政策情景中的原則進行測試。在此基礎上,國防創(chuàng)新委員會科學技術(shù)小組專家撰寫了這份《準則》報告,并在2019年10月遞交美國防部審議。如前所述,2020年2月,美國防部正式簽署這一文件,使其成為了美軍指導人工智能發(fā)展應用的官方政策。在此基礎上,2021年5月26日,凱瑟琳·??怂雇ㄟ^備忘錄的形式進一步明確了“負責任地使用人工智能”(RAI)六項原則。自此,美軍在人工智能軍事倫理準則領(lǐng)域的制度框架和規(guī)范基本成型。
美國國防創(chuàng)新委員會在《準則》中針對人工智能軍事運用問題提出了五大倫理原則,并提供了十二條具體的建議。其中,五大原則已經(jīng)被國防部采納,成為美軍在人工智能軍事應用領(lǐng)域的指導原則。
2.1五大核心原則《準則》共明確了人工智能軍事運用的五大原則,強調(diào)運用于作戰(zhàn)和非作戰(zhàn)領(lǐng)域的人工智能系統(tǒng)應當是負責任的、公正的、可追溯的、可靠的和可管控的,具體如下:
一是“負責任”原則。這一原則要求在美軍人工智能系統(tǒng)的開發(fā)、部署、使用等整個生命周期中,都應確保人類的適當判斷和介入。《準則》指出,只有人本身是法律賦予權(quán)利和義務的主體,因此,人而非人工智能系統(tǒng)才是需要承擔法律責任的實體所在。具體而言,按照軍事人工智能系統(tǒng)事故發(fā)生的時間順序,可以區(qū)分三個層次的責任鏈條:設計、開發(fā)和部署人工智能系統(tǒng)的決策責任機制;決策者在與敵方作戰(zhàn)期間采取行動的責任機制;以及作戰(zhàn)結(jié)束后的補救責任機制。這一責任鏈條的劃分將有助于將人類的判斷和責任掛鉤,避免問責空白這一后果的出現(xiàn)。
二是“公正”原則。這一原則強調(diào)美軍應采取審慎的行動,避免在開發(fā)戰(zhàn)斗或非戰(zhàn)斗人工智能系統(tǒng)時出現(xiàn)意外偏差和無意中對人造成傷害。美國防部有責任采取措施,確保人工智能軍事應用不產(chǎn)生歧視或其它有失公平的不良結(jié)果。但同時,報告也強調(diào)一些人工智能系統(tǒng)的“偏見”是有必要的,例如對軍人和平民、軍用物品和民用物品,應該使用更成功地瞄準特定敵方戰(zhàn)斗人員的人工智能系統(tǒng),并盡可能減少對平民、非戰(zhàn)斗人員的不利影響,這體現(xiàn)了美軍鮮明的實用主義色彩。
三是“可追溯”原則。該原則強調(diào)美軍人工智能工程學科應足夠先進,以便技術(shù)專家對美軍人工智能系統(tǒng)的技術(shù)、開發(fā)流程和操作方法有足夠的了解,提升其透明度。在人工智能系統(tǒng)的開發(fā)和部署的整個生命周期,都要確??勺匪菪?。具體而言,在開發(fā)階段,應將設計方法、相關(guān)設計文檔和數(shù)據(jù)源提供給適當?shù)呢P(guān)方。在部署階段,則要創(chuàng)建適當?shù)挠脩粼L問和權(quán)限日志。
四是“可靠”原則。這一原則要求美軍人工智能系統(tǒng)應具有明確的使用領(lǐng)域,并且此類系統(tǒng)的安全性和魯棒性應在其整個生命周期內(nèi)進行測試和保證??煽啃允呛饬肯到y(tǒng)發(fā)生故障頻率的指標。當前,實現(xiàn)人工智能系統(tǒng)的可靠性面臨諸多挑戰(zhàn),包括非線性模型、復雜的自適應系統(tǒng)、自學習系統(tǒng)、對抗性攻擊等問題。美國防部在武器系統(tǒng)的“測試和評估”(T&E)以及“驗證和確認”(vV&V))方面擁有較為成熟的經(jīng)驗,以確保武器系統(tǒng)性能符合預期。然而,當人工智能系統(tǒng)是不確定的、非線性的、高維的時候,傳統(tǒng)的測試和驗證技術(shù)就存在很多局限性。
五是“可管控”原則。該原則強調(diào)美軍人工智能系統(tǒng)的設計應符合其預期功能,同時要具有檢測、避免意外傷害和及時中斷的能力?!稖蕜t》特別提及了人工智能系統(tǒng)可能帶來非預期事故這一問題,并建議美國防部采取一定措施降低意外升級的風險。參考在股票市場的“熔斷機制”,《準則》指出美軍可以通過對特定系統(tǒng)授權(quán)使用武力的類型或數(shù)量進行限制,各種操作的分層授權(quán)等方法,來管控人工智能可能帶來的相關(guān)應用風險。
分析來看,《準則》中明確的這五大原則以“負責任”為統(tǒng)領(lǐng),強調(diào)了人工智能系統(tǒng)中的人類判斷是實現(xiàn)責任的關(guān)鍵。接著強調(diào)“公正”,直指算法偏見這一問題,同時又融合了國際人道法中的區(qū)分原則,強調(diào)不應片面追求公正,而忽視軍民和敵我區(qū)分。第三和第四原則聚焦系統(tǒng)的兩大特性——可靠性和可預測性。可靠性是衡量系統(tǒng)發(fā)生故障頻率的指標,而可預測性則是衡量系統(tǒng)在特定情況下性能(運行過程、產(chǎn)生結(jié)果等)的指標。相比可靠性作為所有復雜系統(tǒng)都存在的指標,可預測性則是自主系統(tǒng)特有的要求,這與原則中的“可追溯性”所要求的的透明和可審核是相互聯(lián)系的。最后強調(diào)的“可管控”原則結(jié)合了前面的可靠性、可追溯等原則,旨在避免系統(tǒng)出現(xiàn)重大事故,是一個兜底的原則。
2.2十二條技術(shù)和政策建議《準則》還提出了落實這五大原則的十二項具體建議,部分建議已經(jīng)被美國防部采納,成為未來的行動藍圖。筆者按照技術(shù)研究和政策措施兩方面將其總結(jié)如下:
技術(shù)研究方面,該報告提出了以下建議:依托美軍負責研究與工程的副部長辦公室培育和發(fā)展人工智能工程學科,將該部門的安全和責任傳統(tǒng)融入人工智能領(lǐng)域,將人工智能技術(shù)納入更大的領(lǐng)域復雜的工程系統(tǒng);依托發(fā)展、測試與評估辦公室強化人工智能測試和評估技術(shù)研究,改進現(xiàn)有的測試、評估和驗證程序,并在必要時為人工智能系統(tǒng)建設新的基礎設施。這些程序應遵循國防創(chuàng)新委員會“軟件獲取與實踐”研究中詳述的軟件驅(qū)動的測試與評估指南;制定人工智能系統(tǒng)的可靠性基準;強化對人工智能帶來新型安全問題的研究力度;加大對提升可重復性的研究力度;研究管理人工智能風險的具體方法;召開關(guān)于人工智能安全性和魯棒性的年會等。
在政策措施方面,《準則》建議通過官方渠道正式將這些原則政策化(目前美國防部已正式簽署);建立一個美軍范圍內(nèi)的人工智能指導委員會,負責確保監(jiān)督和執(zhí)行美軍人工智能戰(zhàn)略,并確保美軍人工智能項目符合人工智能倫理原則;強化在人工智能領(lǐng)域的人才培訓計劃,要求各軍兵種、作戰(zhàn)司令部、國防部長辦公室等都應制定與相應的人工智能技能和知識的培訓和教育計劃,使初級軍官、現(xiàn)役軍人和平民在職業(yè)生涯早期都可以接受人工智能培訓;聯(lián)合人工智能中心對這些倫理準則的具體落實進行監(jiān)督和審查,確保各部門正確落實這些倫理準則[18]。
2.3關(guān)于“負責任地使用人工智能”(RAI)六項原則在前述《準則》所提出的五項基本原則的基礎上,美國防部副部長凱瑟琳·希克斯進一步明確“負責任地使用人工智能”(RAI)六項原則如下:
一是負責任的人工智能治理。確保美軍各層級有明確的治理結(jié)構(gòu)和流程以進行監(jiān)督和問責,并闡明RAI的指導方針和政策,加速美國防部內(nèi)部采用RAI相關(guān)激勵措施。
二是作戰(zhàn)人員信任。對作戰(zhàn)人員持續(xù)進行人工智能相關(guān)知識的教育和測試,建立其對人工智能的信心。通過教育和培訓,建立一個測試、評估、驗證和確認的框架,整合實時監(jiān)測、算法信心指標和用戶反饋,以確??尚刨嚨娜斯ぶ悄苣芰Α?/p>
三是人工智能產(chǎn)品和采辦生命周期。通過系統(tǒng)工程和風險管理方法,開發(fā)工具、策略、流程、系統(tǒng)和指南,與整個人工智能產(chǎn)品采辦生命周期的RAI保持同步。
四是需求驗證。將RAI納入所有適用的人工智能需求,聯(lián)合需求監(jiān)督委員會建立并批準的聯(lián)合性能要求,以確保將RAI納入美軍適當?shù)娜斯ぶ悄苣芰Α?/p>
五是負責任的人工智能生態(tài)系統(tǒng)。建立國家和全球?qū)用娴膹姶笕斯ぶ悄苌鷳B(tài)系統(tǒng),改善美國國內(nèi)政府、學術(shù)、行業(yè)和其他利益攸關(guān)方之間的關(guān)系,強化與盟友和伙伴國之間的合作,推進基于共同價值觀的全球人工智能規(guī)范。
六是人工智能人才隊伍。重點是要建立、培訓、裝備和維持一支符合RAI要求的人工智能人才隊伍[4]。
相比之前提出的五項原則,這六大原則在“負責任”這一首要原則的基礎上,對人員信任、產(chǎn)品周期、生態(tài)系統(tǒng)等方面進行了具體和細化,變得更具操作性。
綜合分析來看,美國防部出臺的這份人工智能軍事應用倫理準則呈現(xiàn)出以下特點。
3.1冷戰(zhàn)思維與意識形態(tài)斗爭色彩明顯《準則》延續(xù)了特朗普上臺后強調(diào)大國競爭的一貫思路,意識形態(tài)斗爭色彩與冷戰(zhàn)思維十分明顯。特朗普政府的2017年《國家安全戰(zhàn)略報告》將中國視為戰(zhàn)略競爭對手,并指稱中俄等競爭對手國正在利用人工智能和機器學習技術(shù)進行情報搜集和數(shù)據(jù)分析,這將會增大美國的國家安全風險,美國必須要在人工智能等新興技術(shù)上保持領(lǐng)導地位[19]。此次美國國防創(chuàng)新委員會出臺的這份報告也彰顯了濃厚的意識形態(tài)對立色彩,將人工智能技術(shù)高度政治化?!稖蕜t》稱當前關(guān)于軍事人工智能領(lǐng)域的國際規(guī)范制定還是一塊“處女地”,因此近期在這一領(lǐng)域的舉措就會影響到這些國際規(guī)范是反映專制還是民主的理念,關(guān)乎專制主義與民主規(guī)范之間的競爭,將其拔高到意識形態(tài)斗爭的高度。此外,《準則》還將中國與俄羅斯等國家推進人工智能研發(fā)應用的做法進行無端放大,大力渲染其帶來的安全威脅,歪曲其防衛(wèi)意圖,并抹黑其為所謂“數(shù)據(jù)集權(quán)主義/專制主義”,以此為美國加快推動人工智能軍事應用提供合理性。但事實上,不管是在人工智能軍事應用相關(guān)的作戰(zhàn)概念(如算法戰(zhàn)、馬賽克戰(zhàn)),還是組織建設(如算法戰(zhàn)跨職能小組、聯(lián)合人工智能中心的建立)和實際應用(如運用智能無人機獵殺蘇萊曼尼),美國試圖通過人工智能謀求絕對安全的這些霸權(quán)思維和現(xiàn)實行動更大程度上誘發(fā)了當前世界上的人工智能軍備競賽。因此,這也體現(xiàn)了美國鮮明的“美國例外論”和“雙重標準”色彩。
3.2注重與美國現(xiàn)有理念和法律政策的協(xié)調(diào)作為世界上首份軍事領(lǐng)域的人工智能倫理準則報告,《準則》提出的五項原則十分注重與美國現(xiàn)有法律制度的協(xié)調(diào)?!稖蕜t》強調(diào)所提出的五項人工智能倫理原則是在美國防部現(xiàn)有倫理框架下制定的,與美軍心價值觀、政策指令和民主理念相一致的。報告梳理了美國防部現(xiàn)有倫理框架,包括美國憲法(U.S. Constitution)《美國法典》第十條、戰(zhàn)爭法( the Law of War)以及現(xiàn)有國際公約和國防部理念等。具體而言,美國國防部的核心價值觀包括領(lǐng)導力、專業(yè)精神、職責、誠信、道德、榮譽、勇氣和忠誠等。美國的民主理念包括個人尊嚴、個人權(quán)利(隱私權(quán)等)和法治(國際法相關(guān)條約)等。國防創(chuàng)新委員會專家將這些理念融入到了人工智能倫理準則中去,使之具體化。例如,“負責任”原則中強調(diào)了人對于武器系統(tǒng)進行必要控制的重要性,這一理念在美國防部2012年出臺的《3000.09指令》中已經(jīng)得到體現(xiàn),該文件強調(diào)“自主和半自主武器系統(tǒng)的設計應允許指揮官和操作員對其進行適當?shù)娜藶榕袛唷?,以及“授?quán)使用、指揮使用或操作自主和半自主武器系統(tǒng)的人必須嚴格地服從,并執(zhí)行戰(zhàn)爭法、適用的條約、武器系統(tǒng)安全規(guī)則和適用的交戰(zhàn)規(guī)則(ROE)”[20]。但需要指出的是,《準則》只注重吸收國內(nèi)和少數(shù)盟友及伙伴國的觀點,強調(diào)所謂的“民主價值觀同盟”,卻幾乎無視了與世界上其他國家的合作,具有明顯的“小圈子文化”和排他性特征。
3.3重視可操作性和實用性美國防部出臺的這份人工智能倫理原則十分注重可操作性。與國際上一般的人工智能倫理準則不同的是,這份《準則》不是對于人工智能“應然”倫理的空洞描述,而是提出了與五大倫理準則相適應的具體落實方案。例如,“負責任”原則強調(diào)人對武器系統(tǒng)的判斷和負責。人-機關(guān)系問題是對于如何運用自主武器系統(tǒng)的關(guān)鍵所在,而美國防部明確人應當對人工智能系統(tǒng)的整個生命周期行使適當?shù)娜祟惻袛嗪拓撚胸熑?,一方面是為了確保自主武器系統(tǒng)不脫離人的控制,避免系統(tǒng)故障等造成的誤殺誤傷事故。另一方面,這一原則也有利于使得自主武器的使用遵守國際人道法,避免問責空白這一困境的出現(xiàn)。因為,現(xiàn)有的國際人道法是針對人而非機器設立的,只要人對武器系統(tǒng)的整個周期保留適當?shù)呐袛?、介入和控制,一旦發(fā)生事故就可以將問責鏈條對應到具體的人,避免機器的濫殺濫傷行為無法問責?;谶@些理解,這份報告明確了人在整個人工智能系統(tǒng)研發(fā)、部署和使用等整個生命周期的責任。此外,美軍在五項原則基礎上提出的RAI六項原則,使之更加具體化,也充分體現(xiàn)了可操作性這一特點。
同時,《準則》也體現(xiàn)了鮮明的實用主義色彩。當前,人工智能的應用出現(xiàn)了很多算法偏見方面的問題,例如谷歌公司的人臉識別算法存在曾將黑人識別成“黑猩猩”的種族歧視問題,對當事人和整個黑人群體都帶來了傷害[21]。因此,國際人工智能技術(shù)社群十分強調(diào)算法公正這一問題。但美國防部這份準則在論述“公平”原則時,報告使用的是“equitable”而非“fair”一詞,并強調(diào)美國防部認為戰(zhàn)斗不可能也不應該是絕對公平的,因為美軍的核心目標是保持對任何潛在對手的不對稱優(yōu)勢,強化軍事實戰(zhàn)和威懾能力,以有利于己方的方式遏止沖突或在威懾失敗時快速打贏戰(zhàn)爭。從美軍的三次“抵消戰(zhàn)略”可以看出,美國一直以來的理念都是通過新興尖端科技塑造高于對手的不對稱戰(zhàn)略優(yōu)勢。如果一味強調(diào)對對手的公平,就會犯理想主義的錯誤。不難理解,美國防部是更想強調(diào)人工智能系統(tǒng)對于美軍內(nèi)部人員的公平,而非針對對手的公平,具備顯著的實用主義乃至單邊霸權(quán)色彩。此外,這一報告十分注重提升人工智能系統(tǒng)的可靠性和安全性,提出要加大對研究人工智能帶來的新型安全問題的投資力度,對人工智能時代的戰(zhàn)略競爭和新型威懾領(lǐng)域進行重點研究,特別是人工智能與網(wǎng)絡安全、量子計算、信息戰(zhàn)或生物技術(shù)等其他領(lǐng)域結(jié)合所帶來相關(guān)問題的研究。同時,《準則》還建議要研究應對人工智能軍事應用風險的具體方法。
應當看到,美軍率先推出人工智能軍事應用倫理準則既是迫于各方壓力的無奈之舉,同時背后也隱含著霸權(quán)邏輯。對此,應理性分析其帶來的客觀影響和局限,并得出一些對我軍事智能化建設的有益啟示。
4.1根本目的是為運用人工智能護持美軍霸權(quán)、化解安全風險和輿論障礙從歷史上看,美國的國家安全戰(zhàn)略觀傾向于通過樹立假想敵來帶動軍事力量建設和國家團結(jié),并以試圖以自身的技術(shù)優(yōu)勢和軍事霸權(quán)來確保自身的絕對安全,在人工智能這一新興戰(zhàn)略領(lǐng)域也體現(xiàn)了這樣的邏輯。美國防部認為,鑒于其他大國(尤其是中俄)在軍事人工智能領(lǐng)域的加快布局,美國推動人工智能的軍事應用刻不容緩,而倫理準則的制定是為安全、符合倫理和負責任使用人工智能的關(guān)鍵所在,因此也應當成為優(yōu)先事項。如果不盡快制定軍事倫理準則,美國將面臨兩方面的重大風險。一是人工智能系統(tǒng)在軍事應用時可能會出現(xiàn)問題、危害國家安全的風險,具體包括內(nèi)部的可靠性問題和外部的易受攻擊問題[22]。二是遭受外界批評制造戰(zhàn)爭機器、毫無倫理道德約束的輿論譴責,國際聲譽和軟實力受損。這一點已經(jīng)在上文所述的谷歌員工抗議Maven項目事件中得到了充分體現(xiàn)。有鑒于此,美軍高度重視防范這些風險,例如在數(shù)據(jù)安全方面,就采取了很多舉措。2021年6月23日,凱瑟琳·??怂乖趪啦咳斯ぶ悄芗夹g(shù)交流研討會開幕式上表示,美國防部已啟動“人工智能與數(shù)據(jù)加速”(ADA)計劃,力圖快速推進“聯(lián)合全域指揮控制”等相關(guān)概念深入發(fā)展,強調(diào)“必須確保所有數(shù)據(jù)都是可見的、可訪問的、可理解的、可連接的、可信賴的、可互操作的和安全的”,必須“將數(shù)據(jù)視為戰(zhàn)略資源”[23]??偠灾?,人工智能軍事應用的安全風險以及國內(nèi)外輿論道德壓力,都給美國制定人工智能軍事應用的倫理準則提出了需求和動力。正是看到了倫理準則對于以可靠和保證問責清晰的方式推進人工智能的軍事應用的重大意義,美軍才如此迅速地推出了軍事人工智能的倫理準則。因為唯有如此,美軍才有可能推進“第三次抵消戰(zhàn)略”的順利進行,維持美軍的科技優(yōu)勢與軍事霸權(quán),這也是美軍搶先推出人工智能倫理準則最本質(zhì)的目的。
4.2理性看待美國推出軍事人工智能倫理準則的影響與局限正如美時任防長埃斯帕在美軍人工智能倫理準則發(fā)布會上所提到的那樣,“美國必須與我們的盟友和伙伴一道,加速采用人工智能,并在國家安全應用方面發(fā)揮領(lǐng)導作用,以維持我們的戰(zhàn)略地位,在未來的戰(zhàn)場上占據(jù)優(yōu)勢,維護以規(guī)則為基礎的國際秩序?!盵3]客觀分析來看,美軍高調(diào)推出人工智能倫理準則,既有規(guī)范自身軍事人工智能發(fā)展應用之目的,也有為在世界范圍內(nèi)搶占先機和制高點積極準備之用意,最終希望在規(guī)范自身軍事人工智能發(fā)展的同時,在該領(lǐng)域塑造大幅領(lǐng)先于對手的絕對優(yōu)勢地位,為贏得未來戰(zhàn)爭提早進行戰(zhàn)略準備。換言之,美軍試圖以一種符合自身倫理道德和美國價值理念的方式,為人工智能軍事化掃清輿論障礙、引領(lǐng)國際軍事人工智能規(guī)范制定、維護美國的作戰(zhàn)優(yōu)勢和軍事霸權(quán)。未來,美軍能否將這些倫理原則落實還有待時間檢驗,能否通過這一準則完全彌合科技企業(yè)和國防部的理念分歧也存疑。同時,人工智能倫理與人工智能軍事應用存在一些固有矛盾有待解決,例如完全自主的致命性自主武器系統(tǒng)究竟能否研發(fā)和部署?各國在人工智能領(lǐng)域的軍備競賽是否會對全球戰(zhàn)略穩(wěn)定帶來嚴重沖擊?人工智能運用于核指揮系統(tǒng)是否符合戰(zhàn)爭倫理和引發(fā)意外核升級風險?這些問題目前在國際上存在較大爭議,也是這份倫理準則沒有涉及的。但在人工智能快速發(fā)展和應用的背景下,美國防部率先推出軍事領(lǐng)域的專門人工智能倫理準則,在國際上產(chǎn)生重大影響,這一動向仍然值得我們高度關(guān)注。
4.3重視我國軍事智能化發(fā)展過程中的安全管控和倫理規(guī)范制定中國作為人工智能發(fā)展大國,正加快推進“軍事智能化發(fā)展”和“機械化信息化智能化融合發(fā)展”[24],這體現(xiàn)我國已經(jīng)將基于人工智能的軍事智能化建設視為建設世界一流軍隊的關(guān)鍵支撐和基本向度,而軍事人工智能倫理規(guī)范制定則是為我國推進軍事智能化建設保駕護航的必要途徑。目前,在國家整體層面的人工智能倫理準則制定方面,我國已經(jīng)開始重視并初步采取了一些舉措。國務院于2017年出臺的《新一代人工智能發(fā)展規(guī)劃》強調(diào),要“加強人工智能相關(guān)法律、倫理和社會問題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架”[25]。2019年3月25日,北京智源人工智能研究院聯(lián)合一些高校、科研院所和產(chǎn)業(yè)聯(lián)盟,共同發(fā)布《人工智能北京共識》,對人工智能的研發(fā)、使用和治理三方面提出了各個參與方應該遵循的15條原則[26]。2019年6月17日,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,提出了人工智能治理的基本框架和行動指南[27]。2019年7月,我國正式組建中國國家科技倫理委員會。此外,我國還派出代表團多次參與聯(lián)合國《特定常規(guī)武器公約》框架下關(guān)于致命性自主武器系統(tǒng)(LAWS)的探討,就人工智能技術(shù)定義、倫理法律風險提出了見解[28]。2021年9月25日,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能倫理規(guī)范》,提出了增進人類福祉、促進公平公正、保護隱私安全、確??煽乜尚拧娀熑螕敗⑻嵘齻惱硭仞B(yǎng)等6項基本倫理要求和人工智能管理、研發(fā)、供應、使用等特定活動的18項具體倫理要求,旨在為從事人工智能相關(guān)活動的主體提供倫理指引[29]。軍隊方面,我國軍內(nèi)智庫專家曾于2017年在新加坡香格里拉對話大會演講中呼吁國家研發(fā)部署人工智能武器必須兼顧倫理道德約束[30]。然而,客觀上而言,我軍目前還沒有制定官方的軍事人工智能倫理原則文件,這不利于我們順利推進人工智能軍事應用和提升制定軍事人工智能規(guī)范中的國際話語權(quán)。一旦美國聯(lián)合盟友和伙伴國等所謂“民主價值觀同盟”將這些原則向全世界推廣,以占領(lǐng)“道德高地”的方式批判他國軍隊在人工智能軍事應用方面“沒有任何道德約束和禁忌”,我國可能面臨很大被動和國際輿論壓力。有鑒于此,應盡快結(jié)合我國實際情況和國家利益,聯(lián)合俄羅斯等國家,組織專家制定符合我國及廣大發(fā)展中國家發(fā)展利益的軍事人工智能倫理規(guī)范。
在人工智能迅速發(fā)展和走向軍事應用的背景下,美國防部在美國法律和長期價值觀的現(xiàn)有倫理框架基礎上,率先制定并推出了軍事領(lǐng)域的人工智能倫理準則,提出了軍用人工智能系統(tǒng)應當是“負責的、公平的、可追溯的、可靠的和可治理的”五項原則,并配套系列舉措大力推動這些原則的落地。一方面,我們要高度重視美軍在這一領(lǐng)域的動向,看清美軍率先推出軍事領(lǐng)域的人工智能倫理準則,既有規(guī)范美國軍事人工智能發(fā)展與應用之目的,也是為了破除阻礙美軍運用人工智能的輿論障礙,管控人工智能軍事應用可能帶來的內(nèi)外部風險,同時為搶占軍事人工智能倫理準則制定的國際主導權(quán),維持美軍科技優(yōu)勢和軍事霸權(quán)、贏得未來戰(zhàn)爭提早進行戰(zhàn)略準備。另一方面,也要反思我國在這一領(lǐng)域的不足,借鑒其通過制定倫理準則來為推動軍隊智能化建設管控安全風險、減輕輿論壓力的做法,加快推進適合我國國情、符合我軍軍情的軍事人工智能倫理準則制定,為推動和加快我國軍事機械化信息化智能化融合發(fā)展提供堅實支撐和有效保障。同時,還要積極參與人工智能領(lǐng)域的國際安全治理,探索構(gòu)建相應的國際規(guī)則和規(guī)范,為化解人工智能帶來的倫理、法律和安全風險,構(gòu)建人工智能時代的人類命運共同體貢獻中國智慧和中國方案。