摘" "要:隨著進入生成式人工智能時代,算法的快速發(fā)展和應(yīng)用顛覆了傳統(tǒng)的情報分析模式,成為情報信息采集和分析重要的工具。但隨著算法在軍事情報等重要領(lǐng)域的廣泛應(yīng)用,不僅引發(fā)了一系列挑戰(zhàn)和嚴重的安全風險,也引起全球范圍的擔憂。文章聚焦生成式人工智能視域下情報分析算法,在系統(tǒng)闡釋算法風險產(chǎn)生的內(nèi)外部因素的基礎(chǔ)上,通過有機融合協(xié)同治理、敏捷治理以及精準治理理論,構(gòu)建情報分析算法風險的多重治理機制框架。內(nèi)容包括:事前治理:情報分析算法風險的源頭治理;事中治理:情報分析算法風險的敏捷治理;事后治理:情報分析算法風險的精準治理。以期為有效防范和應(yīng)對生成式人工智能視域下情報分析算法風險提供參考,使情報分析能夠更好地服務(wù)于國家戰(zhàn)略需要。
關(guān)鍵詞:生成式人工智能;算法賦能;情報分析;風險治理;治理機制
中圖分類號:G353.1" "文獻標識碼:A" "DOI:10.11968/tsyqb.1003-6938.2024060
Research on Multi-layer Governance Mechanism for Algorithmic Risk in Intelligence Analysis under Generative Artificial Intelligence
Abstract With the emergence of generative artificial intelligence, the rapid advancement and application of algorithms have fundamentally transformed traditional models of intelligence analysis, establishing themselves as crucial tools for collecting and analyzing intelligence information. However, with the increasing application of algorithms in critical domains such as military intelligence, they have engendered a plethora of challenges and great security risks, thereby eliciting global apprehensions. This paper focuses on algorithmic risks in the context of intelligence analysis facilitated by generative artificial intelligence, systematically elucidating both internal and external factors that contribute to such risks. By seamlessly integrating theories on collaborative governance, agile governance, and precise governance into a cohesive framework, it establishes a multi-layered mechanism for governing algorithmic risk in intelligence analysis. This framework encompasses: Pre-event governance: source control over algorithmic risk in intelligence analysis; Mid-event governance: agile management of algorithmic risk in intelligence analysis; Post-event governance: precise handling of algorithmic risk in intelligence analysis. The objective is to provide guidance for effectively preventing and addressing algorithmic risks associated with intelligent analysis within the realm of generative artificial intelligence so that it may better serve national strategic requirements.
Key words Generative Artificial Intelligence; Algorithm Enablement; Intelligence Analysis; Risk Management; Governance Mechanism;
隨著生成式人工智能(GAI)時代的到來,從ChatGPT大語言模型到文生視頻模型Sora的發(fā)布,算法的自動化、智能化以及便捷化程度不斷提高,成為提高情報分析工作效率和準確度的有力途徑和新型生產(chǎn)工具,被廣泛應(yīng)用到情報分析豐富的應(yīng)用場景當中,在國際戰(zhàn)略和企業(yè)方面均有體現(xiàn):2023年8月,美國國家情報總監(jiān)辦公室(ODNI)發(fā)布了美國2023年《國家情報戰(zhàn)略》,強調(diào)充分利用開源、大數(shù)據(jù)、人工智能和先進的分析方法,提高準確洞察競爭對手意圖和行動的能力[1];2024年1月,OpenAI更新了其使用條款,不再禁止其技術(shù)用于軍事和戰(zhàn)爭目的。但同時算法也是一把“雙刃劍”,在賦能軍事情報、政治情報、金融情報等重要領(lǐng)域時可能引發(fā)“情報繭房”“深度偽造”等潛在的風險,引起了國際社會的廣泛關(guān)注和擔憂,特別是美國高科技公司與美國國防部及情報部門合作,利用算法打破俄烏沖突平衡事件以及詐騙分子利用“深度偽造”技術(shù)偽造公司高層的面部和聲音,詐騙2億港元事件、AI偽造拜登聲音的電話錄音等深受算法影響的重大事件發(fā)生后,給國家和社會造成的危害具有嚴重性、不可消除性和廣泛性。正是在生成式人工智能快速發(fā)展的大背景下,加強算法風險治理,防范和規(guī)避算法賦能情報帶來的一系列不確定性風險問題亟需解決。近年來,我國已相繼出臺了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》等政策法規(guī)以規(guī)制算法風險問題[2],這反映出我國已充分認識到算法安全發(fā)展的重要性,并逐步推進相關(guān)政策法規(guī)的完善,但實際在新質(zhì)生產(chǎn)力對技術(shù)創(chuàng)新有更高要求的背景下,國家對智能情報服務(wù)的需求不斷增加,當前國家層面仍然缺乏且急需關(guān)于情報分析算法風險治理機制的成果。因此,開展生成式人工智能視域下情報分析算法風險治理機制的研究,對充分發(fā)揮情報分析工作的“耳目、尖兵、參謀”作用,推動情報更好服務(wù)國家發(fā)展戰(zhàn)略具有重要意義。
1" "研究現(xiàn)狀
目前已知的文心一言、ChatGPT等國內(nèi)外先進的生成式大模型的核心都是以GPT算法作為支撐,或者以其作為根本原理來實現(xiàn)其功能和應(yīng)用[3]。鑒于此,本文將應(yīng)用在情報分析領(lǐng)域的生成式人工智能模型或算法統(tǒng)稱為情報分析算法進行分析。伴隨著情報分析算法的快速發(fā)展,其如何賦能情報分析引起了學者們的廣泛關(guān)注。張智雄等基于ChatGPT的技術(shù)能力特點和文獻情報工作的方法和模式,分析了其對文獻情報工作的影響[4]。湯珊紅等基于國防科技情報工作的本質(zhì)特征,從情報收集到情報生成過程探討生成式人工智能如何賦能國防科技情報[5]。劉逸倫等通過分析AIGC的技術(shù)特征和探討在科技情報服務(wù)中的技術(shù)應(yīng)用路徑和場景,構(gòu)建了AIGC賦能的科技情報智能服務(wù)框架[6]。但同時由于算法自動化決策的黑箱性質(zhì),導(dǎo)致情報可信性降低和難以保護數(shù)據(jù)主體的算法解釋權(quán)[7]等不確定性風險,引起了圖情領(lǐng)域?qū)W者的關(guān)注,算法具有公平性、可問責性以及透明性也逐漸成為學者廣泛認同的算法風險治理目標[8],現(xiàn)有研究主要聚焦在以下三個方面:
一是情報分析算法風險研究。主要探討應(yīng)用情報分析算法產(chǎn)生的風險。如張國慶等基于情報工作流程(TCPED)視角,探討ChatGPT對TCPED路徑下情報工作的影響[9]。張濤和馬海群結(jié)合實際應(yīng)用場景對算法引發(fā)的風險及其風險間的交互關(guān)系進行分析,并提出預(yù)防與規(guī)制算法風險的對策建議[10]。在此基礎(chǔ)上,通過構(gòu)建“數(shù)據(jù)-算法-流程”為一體的智能情報分析風險識別模型,深入探討智能情報分析領(lǐng)域數(shù)據(jù)與算法風險問題[11]。
二是區(qū)塊鏈賦能情報分析算法風險治理研究。主要基于區(qū)塊鏈的去中心化、自治性、不可篡改性、可追溯性等特點賦能算法風險治理。如馬海群和張濤從用戶層、機制層和過程層三個視角分析了區(qū)塊鏈賦能智能情報分析算法風險治理框架[12]。周穎玉等從價值、實踐、目標視角探討區(qū)塊鏈嵌入算法推薦的核心邏輯、過程和時間路徑[13]。
三是情報人員的算法素養(yǎng)研究。研究主題主要集中在平衡用戶對算法素養(yǎng)的期望與開發(fā)人員對算法透明度的責任、吸引用戶提高素養(yǎng)的方法、發(fā)展素養(yǎng)的情感和行為、解決新的算法鴻溝等方面[14]。如吳丹和劉靜通過分析算法素養(yǎng)研究的內(nèi)外部驅(qū)動因素和構(gòu)建算法素養(yǎng)能力框架,分別回答了“為什么需要研究算法素養(yǎng)”和“算法素養(yǎng)是什么”的問題[15]。高國偉和賀帆從科技情報人員的維度,基于TTD(Theory of Technology Dominance)理論探討情報人員在人工智能環(huán)境下提升專業(yè)素養(yǎng)發(fā)展方向[16]。
綜上所述,在生成式人工智能背景下,現(xiàn)有研究基于多種視角探討情報分析算法風險治理問題,從情報分析算法風險識別研究到引入?yún)^(qū)塊鏈嵌入情報分析算法風險治理研究等,但缺少對情報分析算法的風險治理機制系統(tǒng)研究的成果?;诖?,本文聚焦生成式人工智能視域下情報分析算法,在系統(tǒng)闡釋算法風險產(chǎn)生的內(nèi)部因素和外部環(huán)境因素的基礎(chǔ)上,通過有機融合協(xié)同治理理論、敏捷治理理論以及精準治理理論,構(gòu)建情報分析算法風險多重治理機制,以使算法更加安全可信地應(yīng)用于情報分析。
2" "情報分析算法風險影響因素分析
情報分析作為獲取、整合、分析和評估各類信息的關(guān)鍵環(huán)節(jié),能夠揭示出數(shù)據(jù)背后隱藏的深層次規(guī)律和趨勢。伴隨生成式人工智能時代算法的快速迭代更新和海量多源異構(gòu)數(shù)據(jù)的涌現(xiàn),通過自動化、智能化的更高效、更精準處理信息的理念被廣泛應(yīng)用于軍事、金融等情報工作領(lǐng)域,整體上呈現(xiàn)出從依靠人工檢索的傳統(tǒng)情報分析方式向算法賦能情報分析的計算方式演進的趨勢。在此背景下,認知情報分析算法風險,確保算法的安全可信尤為重要。因此,有必要基于算法賦能情報分析的邏輯,從算法內(nèi)部因素和算法外部環(huán)境因素兩個方面探討情報分析算法風險影響因素,以便更好地構(gòu)建情報分析算法風險的應(yīng)對機制。
2.1" " 算法內(nèi)部因素:數(shù)據(jù)與算法自身缺陷引發(fā)情報可信性風險
數(shù)據(jù)與算法自身缺陷是產(chǎn)生情報分析算法風險的源頭因素,其所引發(fā)的情報可信性風險阻礙了算法賦能情報分析的進程[17],主要體現(xiàn)在以下三個方面:一是算法訓(xùn)練數(shù)據(jù)存在偏差。通過算法快速挖掘和分析大量數(shù)據(jù)使其轉(zhuǎn)化為有效的情報信息是算法賦能情報分析最重要的優(yōu)勢之一。但算法本身也是基于已有的數(shù)據(jù)進行訓(xùn)練,訓(xùn)練數(shù)據(jù)的準確性、時效性、完整性會使得生成的算法不完善或生成“惡意算法”,從而引發(fā)算法偏見[18-19],導(dǎo)致情報分析結(jié)果的偏差。二是算法可解釋性缺陷。通過提高算法的可解釋性并追蹤其運行過程,是確保算法賦能情報分析可信性的重要保障[20]。但算法從情報信息輸入到情報結(jié)果輸出,通常由于自身的黑箱性質(zhì),導(dǎo)致情報分析過程難以解釋,使得情報分析人員難以理解和信任算法的輸出結(jié)果,喪失了情報分析結(jié)果的可信性。因此,如何嵌入領(lǐng)域知識和專家經(jīng)驗是提高算法可解釋性的重要手段。三是算法情報感知能力缺失。盡管算法在不斷進行迭代更新,從ChatGPT4.0到ChatGPT-4o、Sora為顯著標志,其智能化程度不斷提高,但算法仍無法完全感知內(nèi)外部環(huán)境對情報分析工作的影響,不具備情報人員的思維和判斷能力,對于復(fù)雜的任務(wù)仍需要進行人機協(xié)同工作。尤其在面對復(fù)雜場景及不確定環(huán)境時,算法僅能基于特定的訓(xùn)練數(shù)據(jù),無法充分學習到環(huán)境的特征,從而在情報分析時出現(xiàn)誤判的情況,是算法情報感知能力缺失的一個顯著表現(xiàn)。
2.2" " 主體環(huán)境因素:利益主體間算法權(quán)力失衡引發(fā)情報安全風險
基于多元治理主體協(xié)同參與風險治理的思路,情報分析算法風險治理涉及的利益相關(guān)主體應(yīng)包括:政府(監(jiān)管機構(gòu))、企業(yè)、情報機構(gòu)以及評估機構(gòu)(第三方)等,其間存在復(fù)雜的博弈關(guān)系。從確保算法可信和提高情報分析效率、質(zhì)量的目標出發(fā),情報分析算法風險治理相關(guān)利益者之間的關(guān)系可以通過合作博弈理論進行闡釋(見圖1)。合作博弈旨在使參與情報分析算法風險治理博弈的多方主體利益都有所增加,進而為情報有效賦能數(shù)字化經(jīng)濟發(fā)展和數(shù)字中國建設(shè)提供安全保障,促進整個社會利益增加。但同時由于不同利益相關(guān)者擁有算法權(quán)力不同,利益關(guān)系也不斷發(fā)生變化。而算法權(quán)力的失衡影響各利益相關(guān)者在情報分析算法風險治理中合作博弈關(guān)系的平衡[21],進而導(dǎo)致情報分析算法風險的形成。如在情報分析算法風險治理中,一是政府與企業(yè)之間的博弈:政府是算法的監(jiān)管機構(gòu),對算法進行行政監(jiān)管和問責,但由于算法黑箱的不確定性和“技術(shù)中立”使得問責主體的不明確,以及面臨我國算法治理法律規(guī)范體系尚未完善,導(dǎo)致政府與企業(yè)在博弈中經(jīng)常因為算法風險的難問責性處于被動防御和響應(yīng)的狀態(tài),進而使得治理效果不顯著、治理成本增加。二是情報機構(gòu)與企業(yè)之間的博弈:情報機構(gòu)是算法的使用者,企業(yè)是算法的設(shè)計者和擁有者,企業(yè)在算法權(quán)利方面具有主導(dǎo)性,并且由于情報人員算法素養(yǎng)問題和算法本身可解釋性差,使得情報人員在博弈中經(jīng)常因為算法權(quán)利的失衡處于弱勢。而合作博弈關(guān)系的失衡會導(dǎo)致利益相關(guān)者因為利益關(guān)系引發(fā)“情報信息泄露”“情報深度偽造”“情報分析算法濫用”等風險。并且隨著Sora的問世,創(chuàng)建虛假情報的成本大幅度降低,情報深度偽造從文字、圖像到視頻變得多元異構(gòu),將導(dǎo)致情報機構(gòu)信息分析難度增加,給國家和社會安全造成嚴重影響。
2.3" " 制度環(huán)境因素:算法風險治理制度固化引發(fā)潛在的情報風險
算法風險治理制度固化會引發(fā)潛在的情報風險,主要體現(xiàn)在兩個方面:一方面是算法風險治理制度固化可能導(dǎo)致情報獲取的滯后。以歐盟發(fā)布的《通用數(shù)據(jù)保護條例》制度為例,其對數(shù)據(jù)與算法進行了嚴格規(guī)定,為數(shù)據(jù)與算法安全治理建構(gòu)了制度框架。但同時不可否認的是嚴格的制度限制了算法的使用范圍和增加數(shù)據(jù)獲取成本[22],特別是針對情報分析領(lǐng)域,可能導(dǎo)致情報信息獲取的滯后性和不準確性。另一方面是算法風險治理制度固化可能降低情報分析算法應(yīng)用的力度和廣度。算法作為實現(xiàn)技術(shù)突破和應(yīng)用創(chuàng)新的關(guān)鍵所在,本質(zhì)上是一種具有許多潛在應(yīng)用的通用技術(shù),情報分析算法更多的是基于特定領(lǐng)域的訓(xùn)練數(shù)據(jù)精心設(shè)計而成。因此,面對情報分析領(lǐng)域存在軍事、政治、金融等多元的應(yīng)用場景,開展情報分析算法風險制度問責,需要充分考慮情報分析領(lǐng)域的特殊性和多元場景需求,為特定的情報分析領(lǐng)域制定算法應(yīng)用規(guī)則,可以讓對特定領(lǐng)域有更深入專業(yè)知識的監(jiān)管機構(gòu)為情報分析算法應(yīng)用制定適當?shù)囊?guī)則。如保險監(jiān)管機構(gòu)可能已經(jīng)考慮過如何應(yīng)對難以捉摸的信用評分模型帶來的風險,故而保險公司是否使用機器學習模型是無關(guān)緊要的。強迫所有領(lǐng)域部門對算法使用相同的規(guī)則,可能會對某些領(lǐng)域部門施加過多或重復(fù)的要求,而對其它領(lǐng)域部門則提供不足的要求,進而導(dǎo)致情報分析算法的適用性降低。
3" "情報分析算法風險多重治理機制構(gòu)建
通過分析生成式人工智能環(huán)境下情報分析算法風險影響因素可知,情報分析算法風險治理機制構(gòu)建需要具備四個特征:系統(tǒng)性、協(xié)同性、靈活性和準確性。(1)系統(tǒng)性。針對數(shù)據(jù)與算法自身缺陷引發(fā)情報可信性風險,需要關(guān)注算法設(shè)計到應(yīng)用決策的整體過程存在系統(tǒng)性風險[23],確保算法可信。(2)協(xié)同性。針對利益主體間算法權(quán)力失衡引發(fā)情報安全風險,需要關(guān)注算法賦能情報分析風險治理主體間的協(xié)同性,確保合作博弈關(guān)系的平衡。(3)靈活性。針對算法治理制度固化引發(fā)潛在的情報風險,需要關(guān)注應(yīng)用場景的多元化,有機協(xié)調(diào)多種治理手段,彌補制度的靈活性。(4)準確性。針對情報風險的不確定性引發(fā)治理成本增加,需要關(guān)注將不確定性的動態(tài)風險問題轉(zhuǎn)化為靜態(tài)的風險問題,將風險治理過程設(shè)計為標準化的精準治理路徑,提高治理的效率,節(jié)約風險治理成本,增加風險治理的績效價值。基于此,本文從制度和技術(shù)兩個層面,融合協(xié)同治理、敏捷治理和精準治理理論,并以風險管理的理論視角對算法全生命周期內(nèi)可能引發(fā)風險的地方進行韌性設(shè)計,構(gòu)建情報分析算法風險多重治理機制框架,具體有:事前治理:情報分析算法風險的源頭治理;事中治理:情報分析算法風險的敏捷治理;事后治理:情報分析算法風險的精準治理(見圖2)。
3.1" " 事前治理:情報分析算法風險的源頭治理
事前治理主要是指情報分析算法上線前的風險治理,旨在對算法風險進行防范,實現(xiàn)情報分析算法風險的源頭治理,包括算法備案和算法影響評估,即需要在情報分析算法上線前對算法進行備案和影響評估。(1)算法備案。其是進行算法影響評估、算法風險等級劃分、算法風險治理回溯的重要依據(jù),也是我國進行算法治理的主要手段之一,根據(jù)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第十九條算法備案規(guī)定取得初步成效,在第六批深度合成服務(wù)算法備案信息清單中已有492款算法進行了備案。但目前算法備案存在算法分級分類困難的問題,并沒有清晰的劃分需要算法備案的程度。因此,需要持續(xù)加強算法備案更新,其過程根據(jù)算法性質(zhì)逐層遞進主要包括三個方面:一是提供算法的簡短非技術(shù)描述,以及該算法是什么以及使用該算法的原因的概述;二是提供算法更詳細的技術(shù)信息,如誰擁有并負責該算法、有關(guān)算法的工作方式和算法使用的數(shù)據(jù)的具體詳細信息等[24];三是進行可解釋性計算,可解釋性計算是用于控制或提取算法操作邏輯的統(tǒng)計方法,必須在自動訓(xùn)練之前(即在數(shù)據(jù)集上)、期間和之后系統(tǒng)地應(yīng)用。這些計算可以降低算法的不透明度并控制其響應(yīng)及可變性,從而顯著降低技術(shù)歧視根源上的錯誤或算法偏見的風險。(2)算法影響評估。開展算法影響評估可以提前發(fā)現(xiàn)和糾正算法應(yīng)用中存在的問題和風險,保障算法應(yīng)用的合法性、合規(guī)性和安全性。2024年2月,全國信息安全標準委員會發(fā)布了《生成式人工智能服務(wù)安全基本要求》,從語料安全、模型安全、安全措施等方面提出了安全評估要求,為政府等相關(guān)機構(gòu)開展情報分析算法影響評估提供了重要參考。但目前在如何定義影響、如何評估影響以及如何建立健全的問責形式方面,仍然存在很大的模糊性[25]。算法監(jiān)管沙盒作為一種針對技術(shù)創(chuàng)新的柔性監(jiān)管制度,為開展情報分析算法風險影響評估提供了方向。其主要包括以下內(nèi)容:一是政府作為監(jiān)管機構(gòu)負責篩選、審查企業(yè)需要上線的情報分析算法項目,包括算法備案情況等;二是政府作為監(jiān)管機構(gòu)負責激勵達到要求的企業(yè)參與沙盒測試,并委托第三方評估機構(gòu)開展沙盒測試;三是通過第三方評估機構(gòu)在內(nèi)部環(huán)境下進行算法影響評估,包括數(shù)據(jù)保護影響評估、算法影響評估、倫理評估等進行審查,以確定潛在的安全問題,并在評估完成后將結(jié)果反饋給參與測試企業(yè)。在此過程中需重點關(guān)注監(jiān)管沙盒的協(xié)作,制定正確的激勵措施,加強企業(yè)和監(jiān)管機構(gòu)之間的合作,包括數(shù)據(jù)層面和算法層面。這意味著更廣泛地參與,允許代表最終用戶的情報機構(gòu)和企業(yè)參與算法規(guī)則的事前設(shè)計、評估和修訂,目的是在代表所有上述利益相關(guān)者的沙盒中進行預(yù)先測試;通過反復(fù)測試和反饋,擺脫偏見和操縱風險,然后大規(guī)模實施。算法監(jiān)管沙盒的構(gòu)建能夠幫助企業(yè)節(jié)約算法風險治理的成本,同時也使得政府掌握主導(dǎo)權(quán)并確保用戶權(quán)益。
3.2" " 事中治理:情報分析算法風險的敏捷治理
事中治理主要是指在情報分析上線后的風險治理,實現(xiàn)對情報算法風險問題的快速響應(yīng)和敏捷治理,包括情報分析算法風險分級分類、算法風險審計、算法素養(yǎng)教育以及算法風險動態(tài)監(jiān)測。(1)算法分級分類。在算法備案的基礎(chǔ)上,進行算法分級分類[26],對不同級別的風險需要采取不同的控制措施。盡管《規(guī)定》提出根據(jù)算法推薦服務(wù)的輿論屬性或者社會動員能力、內(nèi)容類別、用戶規(guī)模、算法推薦技術(shù)處理的數(shù)據(jù)重要程度、對用戶行為的干預(yù)程度等對算法推薦服務(wù)提供者實施分級分類管理,但尚未提出有針對性的方案?;诖?,本文借鑒歐盟《人工智能法案》提出的場景化劃分風險級別和參照數(shù)據(jù)安全分級分類的基礎(chǔ)上,結(jié)合情報分析應(yīng)用場景,提出情報分析算法風險分級分類(見表1),將情報分析算法風險分為不可接受風險、高風險、中風險和低風險四個等級,并闡明了每個風險等級所對應(yīng)的情報分析應(yīng)用場景內(nèi)容。(2)算法風險審計。它是算法風險監(jiān)管的有力武器,針對治理對象中的算法、數(shù)據(jù)及流程技術(shù)性、合規(guī)性風險,用以監(jiān)督算法的正當使用,進而推動算法向善。通常分為外部審計和內(nèi)部審計,兩者互為協(xié)同關(guān)系。外部審計主要由政府為主導(dǎo)機構(gòu)的合規(guī)性審計;內(nèi)部審計主要由企業(yè)內(nèi)部審計部門定期進行合規(guī)性和技術(shù)性審計。其過程主要包括:首先根據(jù)情報分析算法風險等級來確定算法是否有可能成為審查或?qū)徲嫷哪繕耍ǔV貙彶槌惋L險以外的算法;其次,確定以用戶算法需求為導(dǎo)向的算法審計利益相關(guān)方;最后,識別算法風險的影響因素和確定算法風險評估方法[27]。其中,針對算法本身的審計方法包括:代碼審計、非侵入性用戶審計、抓取審計和代理審計等[28]。(3)算法素養(yǎng)教育。情報機構(gòu)人員算法素養(yǎng)水平的高低決定了通過人機協(xié)同進行情報分析工作的效率和質(zhì)量。情報機構(gòu)需要通過定期開展算法素養(yǎng)教育培訓(xùn),培訓(xùn)內(nèi)容設(shè)置應(yīng)以安全應(yīng)用為導(dǎo)向,包括算法應(yīng)用技能知識以及算法安全專業(yè)知識、算法技術(shù)倫理規(guī)范及法律規(guī)范等[29],逐漸將情報分析算法黑盒性質(zhì)過渡到灰盒、白盒的狀態(tài),能夠感知情報分析算法對其決策的變化以及能夠以自主的方式理解、評估和使用算法[30]。(4)算法風險的動態(tài)監(jiān)測。生成式人工智能視域下的情報分析算法作為風險程度較高的創(chuàng)新性應(yīng)用,應(yīng)加強沙盒測試與真實業(yè)務(wù)場景的對接,通過擴展沙盒范圍到現(xiàn)實業(yè)務(wù)場景中,開展算法風險動態(tài)監(jiān)測,來最大限度地實現(xiàn)風險的預(yù)防和化解。具體需要通過政府聯(lián)合情報機構(gòu)協(xié)同構(gòu)建監(jiān)管沙盒,政府作為監(jiān)管機構(gòu)需制定清晰的監(jiān)管框架,提供法律和監(jiān)管支持,確保該框架能夠靈活適應(yīng)不同的測試需求并保護用戶權(quán)益;情報機構(gòu)作為用戶需要建立快速反應(yīng)的報告系統(tǒng),以便在識別潛在問題時迅速采取措施;除此之外,企業(yè)還需通過情報分析算法在實際應(yīng)用中的數(shù)據(jù)指標,定期對情報分析算法進行系統(tǒng)評估和有針對性的改進。
3.3" " 事后治理:情報分析算法風險的精準治理
事后治理主要是對情報分析算法風險治理過程進行回溯、問責與救濟,以設(shè)計精準治理路徑,優(yōu)化安全風險治理路徑,提高治理效率。一是算法風險回溯。算法風險治理整體上遵循PDCA循環(huán)思想,針對已識別的風險的緣由和治理過程進行回溯解決方案,總結(jié)治理經(jīng)驗,主要包括對訓(xùn)練數(shù)據(jù)進行回溯、對算法進行回溯以及對算法風險治理流程進行回溯三個部分:第一,對訓(xùn)練數(shù)據(jù)進行回溯,需要全面分析訓(xùn)練數(shù)據(jù)的來源和質(zhì)量,確定數(shù)據(jù)中存在的偏差、錯誤或不完整性等問題,深入理解其對算法性能和結(jié)果可能產(chǎn)生的影響;第二,對算法進行回溯,包括對算法的設(shè)計、實現(xiàn)和調(diào)優(yōu)過程記錄進行全面的審查,必要時重新對算法的復(fù)雜性、穩(wěn)定性和泛化能力等進行評估;第三,對算法風險治理流程進行評估,包括對算法開發(fā)、測試、部署和監(jiān)控等整個流程的梳理和分析,發(fā)現(xiàn)其中存在的漏洞和不足,從而制定相應(yīng)的改進措施。同時為保障溯源的安全透明和高效可信,應(yīng)用梯度顯著度、加密算法、時間戳技術(shù)實現(xiàn)算法風險全鏈路、端對端的溯源追蹤機制,以便找到算法風險源頭和構(gòu)建精準的算法風險治理路徑,如利用梯度顯著性回溯訓(xùn)練數(shù)據(jù)集問題,即通過算法預(yù)測的結(jié)果來反推產(chǎn)生結(jié)果原因,評估數(shù)據(jù)集的質(zhì)量。二是算法風險問責。通過算法風險回溯能夠精準地找到算法風險源頭,進而能夠?qū)崿F(xiàn)算法精準問責。算法風險問責需要政府根據(jù)大量實際情報分析算法風險治理案例,在《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等已有制度的基礎(chǔ)上,出臺特定領(lǐng)域的“軟法”標準,細化情報分析算法風險治理責任。提供算法問責的法律依據(jù)和規(guī)范。三是算法風險救濟。包括情報服務(wù)能夠獲得情報分析算法應(yīng)用決策的可解釋的權(quán)利[31],以及建立由于情報分析算法自動化決策等造成不公平或損害的申訴機制。
4" "結(jié)語
算法驅(qū)動情報分析或算法本身作為情報分析的生產(chǎn)要素,在生成式人工智能時代已成為不可回避的趨勢。本文在此背景下立足于國家對算法風險治理的戰(zhàn)略需求,在探討引發(fā)情報分析算法風險內(nèi)外部影響因素的基礎(chǔ)上,貫徹落實“有法可依、多元協(xié)同、多方參與的治理機制”等算法風險治理政策背景和戰(zhàn)略需求,以預(yù)防和解決情報分析算法風險問題,提高風險治理的系統(tǒng)性、協(xié)同性、靈活性和準確性為導(dǎo)向,融合協(xié)同治理、敏捷治理和精準治理理論,構(gòu)建了符合我國戰(zhàn)略需求的情報分析算法風險多重治理機制。該機制從情報分析算法的全生命周期內(nèi)的事前、事中、事后流程設(shè)計了多重治理機制解決方案的具體思路,為我國情報分析算法風險治理工作提供決策依據(jù)和參考,為情報分析算法風險治理研究提供思路,尤其是在生成式人工智能背景下,更應(yīng)該發(fā)揮這種多重治理機制的重要作用,為我國情報分析算法風險治理工作提供決策依據(jù)和參考。伴隨著情報分析算法的迭代升級和廣泛應(yīng)用,未來研究可以深度探索機制中要素的具體實踐,特別是在本文提出加強沙盒測試與真實業(yè)務(wù)場景的對接框架下,開展監(jiān)管沙盒在情報分析實際場景中的實踐研究,以更好地應(yīng)對復(fù)雜多變的情報分析算法風險問題。
參考文獻:
[1]" National Intelligence Strategy[EB/OL].[2024-08-10].https://www.dni.gov/files/ODNI/documents/National_Intelligence_Strategy_2023.pdf.
[2]" 羅飛,崔濱,辛小江,等.大語言模型嵌入圖書館知識服務(wù)的風險范式與管控策略[J].圖書與情報,2023(3):99-106.
[3]" 陳兵.如何加強對算法的治理[J].國家治理,2020(27):35-39.
[4]" 張智雄,于改紅,劉熠,等.ChatGPT對文獻情報工作的影響[J].數(shù)據(jù)分析與知識發(fā)現(xiàn),2023,7(3):36-42.
[5]" 湯珊紅,李曉松,趙柯然,等.生成式人工智能賦能國防科技情報[J].情報理論與實踐,2023,46(11):81-85,99.
[6]" 劉逸倫,黃微,張曉君,等.AIGC賦能的科技情報智能服務(wù):特征、場景與框架[J].現(xiàn)代情報,2023,43(12):88-99.
[7]" Chiao V.Fairness,accountability and transparency: notes on algorithmic decision-making in criminal justice[J].International Journal of Law in Context,2019,15(2):126-139.
[8]" 姜野.算法的法律規(guī)制研究[D].長春:吉林大學,2020.
[9]" 張國慶,肖延輝,田華偉,等.TCPED路徑下生成式人工智能對情報工作的影響——以ChatGPT為例[J].情報雜志,2024,43(6):79-88.
[10]" 張濤,馬海群.智能情報分析中算法風險及其規(guī)制研究[J].圖書情報工作,2021,65(12):47-56.
[11]" 張濤,馬海群.智能情報分析中數(shù)據(jù)與算法風險識別模型構(gòu)建研究[J].情報學報,2022,41(8):832-844.
[12]" 馬海群,張濤.區(qū)塊鏈賦能智能情報分析算法風險治理機制研究[J].圖書與情報,2023(1):48-56.
[13]" 周穎玉,柯平,劉海鷗.融合·賦能·共創(chuàng):區(qū)塊鏈嵌入算法推薦的未來發(fā)展圖景[J].圖書情報知識,2024,41(3):144-153.
[14]" Oeldorf-Hirsch A,Neubaum G.What do we know about algorithmic literacy?The status quo and a research agenda for a growing field[J].New Media amp; Society,2023:1-39.
[15]" 吳丹,劉靜.人工智能時代的算法素養(yǎng):內(nèi)涵剖析與能力框架構(gòu)建[J].中國圖書館學報,2022,48(6):43-56.
[16]" 高國偉,賀帆.人工智能賦能下情報人員的專業(yè)素養(yǎng)發(fā)展研究[J].數(shù)字圖書館論壇,2022(4):43-52.
[17]" 朱禹,陳關(guān)澤,陸泳溶,等.生成式人工智能治理行動框架:基于AIGC事故報道文本的內(nèi)容分析[J].圖書情報知識,2023,40(4):41-51.
[18]" 孫慶春,賈煥銀.算法治理與治理算法[J/OL].重慶大學學報(社會科學版):1-10[2024-03-20].http://hfffg5fce84748f1d
4cc2hxpvopx9cp9p560qv.fgfy.hlju.cwkeji.cn/kcms/detail/50.1023.C.20191207.1044.002.html.
[19]" 王靜靜,葉鷹.生成式AI及其GPT類技術(shù)應(yīng)用對信息管理與傳播的變革探析[J].中國圖書館學報,2023,49(6):41-50.
[20]" Xu Z.From algorithmic governance to govern algorithm[J].AI amp; SOCIETY,2024,39(3):1141-1150.
[21]" Walker R,Dillard-Wright J,Iradukunda F.Algorithmic bias in artificial intelligence is a problem—And the root issue is power[J].Nursing Outlook,2023,71(5):102023.
[22]" M?觟kander J,Juneja P,Watson D S,et al.The US Algorithmic Accountability Act of 2022 vs.The EU Artificial Intelligence Act: what can they learn from each other?[J].Minds and Machines,2022,32(4):751-758.
[23]" 劉倩倩,劉圣嬰,劉煒.圖書情報領(lǐng)域大模型的應(yīng)用模式和數(shù)據(jù)治理[J].圖書館雜志,2023,42(12):22-35.
[24]" Algorithmic Transparency Standard[EB/OL].[2024-07-25].https://www.gov.uk/government/collections/algorithmic-transparency-standard.
[25]" Watkins E A,Moss E,Metcalf J,et al.Governing algorithmic systems with impact assessments: Six observations[A].Proceedings of the 2021 AAAI/ACM Conference on AI[C].Ethics,and Society,2021:1010-1022.
[26]" 張濤,韋曉霞.我國算法治理政策法規(guī)內(nèi)容及框架分析[J].現(xiàn)代情報,2023,43(9):98-110.
[27]" Boer A,de Beer L,van Praat F.Algorithm Assurance:Auditing Applications of Artificial Intelligence[J].Advanced Digital Auditing,2023,149-183.
[28]" 張濤.通過算法審計規(guī)制自動化決策以社會技術(shù)系統(tǒng)理論為視角[J].中外法學,2024,36(1):261-279.
[29]" 崔文波,張濤,孫欽瑩,等.算法推薦風險影響因素系統(tǒng)動力學研究——以政策與科研主題協(xié)同為視角[J].圖書與情報,2023(1):66-76.
[30]" Dogruel L.What is algorithm literacy?A conceptualization and challenges regarding its empirical measurement[J].In M.Taddicken amp; C.Schumann(Eds.),Algorithms and Communication,2021(9):67-93.
[31]" 張凌寒.算法權(quán)力的興起、異化及法律規(guī)制[J].法商研究,2019,36(4):63-75.
作者簡介:劉曉麗,女,東北農(nóng)業(yè)大學經(jīng)濟管理學院講師,研究方向:計量經(jīng)濟學;崔文波,男,華東師范大學經(jīng)濟與管理學院、國家教育宏觀政策研究院博士研究生,研究方向:科技情報與信息分析;張濤,男,黑龍江大學信息管理學院教授,研究方向:數(shù)據(jù)與算法安全治理。
*本文系國家社會科學基金一般項目“數(shù)智環(huán)境下情報分析算法風險治理路徑研究”(項目編號:22BTQ064)研究成果之一。
收稿日期:2024-09-08;通訊作者:張濤((zhangtao@hlju.edu.cn);責任編輯:劉婷