摘要:[目的/意義]生成式人工智能是推動(dòng)數(shù)據(jù)要素高水平安全的新動(dòng)力,是助力政府?dāng)?shù)據(jù)安全高質(zhì)量發(fā)展的新引擎,是實(shí)現(xiàn)政府?dāng)?shù)據(jù)治理體系和治理能力現(xiàn)代化的新優(yōu)勢(shì)。[方法/過(guò)程]本文基于政府?dāng)?shù)據(jù)安全治理“黑箱階段—灰箱階段—白箱階段”的全生命周期流程,剖析生成式人工智能賦能各階段所引致的機(jī)遇與風(fēng)險(xiǎn),并提出應(yīng)對(duì)策略。[結(jié)果/結(jié)論]生成式人工智能可以最大化發(fā)揮其在事前監(jiān)測(cè)預(yù)警、事中應(yīng)急響應(yīng)、事后反饋評(píng)估的賦能作用,但也伴隨著可能產(chǎn)生數(shù)據(jù)泄漏、決策失誤、主體性危機(jī)等治理風(fēng)險(xiǎn)。而推動(dòng)生成式人工智能精細(xì)化治理、健全全域政府?dāng)?shù)據(jù)安全治理體系、培育全鏈路政府?dāng)?shù)據(jù)安全治理能力,是保障生成式人工智能良技善治的重要策略。
關(guān)鍵詞:政府?dāng)?shù)據(jù)安全治理 生成式人工智能 全生命周期 數(shù)據(jù)風(fēng)險(xiǎn)防控
分類號(hào):TP18;D63
DOI: 10.19318/j.cnki.issn.2096-1634.2024.04.01
1 引言
近年來(lái),科學(xué)技術(shù)尤其是智能技術(shù)的發(fā)展和應(yīng)用,被認(rèn)為是維護(hù)和保障國(guó)家安全的重要手段之一[1]。比如,聯(lián)邦學(xué)習(xí)、區(qū)塊鏈、數(shù)據(jù)匿名化等技術(shù)對(duì)于數(shù)據(jù)安全防護(hù)發(fā)揮著重要作用。2022年年末,作為先進(jìn)數(shù)字技術(shù)的階段性代表之一,ChatGPT以其超強(qiáng)的推理能力和信息整合能力為主要運(yùn)作核心[2],被認(rèn)定為具有“人類智力獨(dú)有能力”的高級(jí)功能。依靠先進(jìn)算法和強(qiáng)大算力,生成式人工智能具備了部分知識(shí)問(wèn)答、邏輯推理、意見(jiàn)建議等功能,在信息收集、風(fēng)險(xiǎn)預(yù)測(cè)、輔助決策、方案執(zhí)行等方面展現(xiàn)強(qiáng)大的應(yīng)用前景。2023年,OpenAI團(tuán)隊(duì)發(fā)布了新一代多模態(tài)預(yù)訓(xùn)練大模型GPT-4,相較于上一代模型,GPT-4在識(shí)別能力、應(yīng)用場(chǎng)景、內(nèi)容準(zhǔn)確性與多樣性等方面表現(xiàn)更優(yōu),能夠與數(shù)據(jù)安全治理的諸多環(huán)節(jié)深度鏈接并產(chǎn)生深刻影響,展現(xiàn)了更高的安全屬性[3]。然而,以ChatGPT為代表的生成式人工智能在帶來(lái)技術(shù)紅利的同時(shí),也會(huì)異化出“技術(shù)失控”及一系列衍生風(fēng)險(xiǎn),亟須實(shí)務(wù)界與學(xué)術(shù)界的集體警覺(jué)、探究論證與尋找出路。
當(dāng)前,學(xué)界有關(guān)生成式人工智能的研究焦點(diǎn)明確、領(lǐng)域分明,已有研究證實(shí)了生成式人工智能對(duì)經(jīng)濟(jì)增長(zhǎng)、技術(shù)創(chuàng)新、勞動(dòng)力市場(chǎng)、收入分配等諸多方面影響深刻[4-6]。然而,有關(guān)生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的研究仍不豐厚,相關(guān)內(nèi)容散落在數(shù)字政府、行政決策、政務(wù)服務(wù)生態(tài)、智能政務(wù)等領(lǐng)域中。在賦能關(guān)系闡明上,一方面,既有研究肯定了生成式人工智能在提升工作效率、降低行政成本、強(qiáng)化科學(xué)行政、優(yōu)化服務(wù)供給的作用[7],為政府策略制定、風(fēng)險(xiǎn)監(jiān)測(cè)、隱患防范、能力提升等方面創(chuàng)造了機(jī)遇[8-11];另一方面,其也客觀地揭示了生成式人工智能所引致的虛假信息泛濫、生成內(nèi)容侵權(quán)、技術(shù)高度依賴、弱勢(shì)群體歧視等系列風(fēng)險(xiǎn)[12-14]。在實(shí)際應(yīng)對(duì)策略上,既有研究指出應(yīng)重視生成式人工智能的立法監(jiān)管,建議統(tǒng)一算法規(guī)制法律體系[15],強(qiáng)化相關(guān)責(zé)任主體的監(jiān)管義務(wù)[16],不斷培育預(yù)防與應(yīng)對(duì)并重的適應(yīng)性治理理念,促進(jìn)包容審慎、以人為本的“善智”理念回歸[17-18],發(fā)揮其他數(shù)智技術(shù)的補(bǔ)充支持作用,通過(guò)開(kāi)放算法或代碼方式打破政府?dāng)?shù)據(jù)多元治理主體間的壁壘[19],以支撐數(shù)字加密、脫敏和甄別工作[20],不斷完善政府?dāng)?shù)據(jù)治理技術(shù)支持平臺(tái)[21]??傮w來(lái)看,既有研究較少關(guān)注政府?dāng)?shù)據(jù)安全治理領(lǐng)域,部分有關(guān)數(shù)字政府建設(shè)的文獻(xiàn)雖然對(duì)此有所涉及,但是針對(duì)性不足,不利于回應(yīng)生成式人工智能“如何賦能”政府?dāng)?shù)據(jù)安全治理的時(shí)代性課題。另外,既有研究未深入至政府?dāng)?shù)據(jù)安全治理的各個(gè)階段中,對(duì)生成式人工智能賦能政府?dāng)?shù)據(jù)“全棧安全”的過(guò)程性與系統(tǒng)性探究仍不豐厚,未能凸顯生成式人工智能對(duì)政府?dāng)?shù)據(jù)安全治理的獨(dú)特價(jià)值和帶來(lái)的嚴(yán)峻風(fēng)險(xiǎn)。
據(jù)此,本文秉承政府?dāng)?shù)據(jù)安全治理“醒早眺遠(yuǎn)”“全譜掃描”的核心理念,遵循政府?dāng)?shù)據(jù)安全生命周期治理的客觀規(guī)律,剖析生成式人工智能在安全風(fēng)險(xiǎn)潛伏的黑箱階段、危機(jī)爆發(fā)控制的灰箱階段以及致因消退恢復(fù)的白箱階段所帶來(lái)的機(jī)遇與風(fēng)險(xiǎn)[22],為全域化政府?dāng)?shù)據(jù)安全落地提供決策參考。
2 應(yīng)許之善:生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的機(jī)遇
依托可擴(kuò)展性、多場(chǎng)景適應(yīng)性和高連貫性的技術(shù)特征,生成式人工智能能夠以強(qiáng)大算力精準(zhǔn)監(jiān)測(cè)政府?dāng)?shù)據(jù)安全事件的風(fēng)險(xiǎn)閾值,以知識(shí)管理主動(dòng)輔助政府?dāng)?shù)據(jù)安全危機(jī)的響應(yīng)決策,以算法邏輯持續(xù)優(yōu)化政府?dāng)?shù)據(jù)安全治理的效能規(guī)程,形塑“安全監(jiān)測(cè)—安全響應(yīng)—安全反饋”的閉環(huán)式政府?dāng)?shù)據(jù)安全治理邏輯??偟膩?lái)說(shuō),生成式人工智能可以最大化發(fā)揮其在事前監(jiān)測(cè)預(yù)警、事中應(yīng)急響應(yīng)、事后反饋評(píng)估的賦能作用,如圖1所示。
2.1 黑箱階段:事前監(jiān)測(cè)預(yù)警
安全態(tài)勢(shì)感知是風(fēng)險(xiǎn)因子轉(zhuǎn)化為安全情報(bào)、助力安全決策的關(guān)鍵[23],是政府?dāng)?shù)據(jù)安全治理的發(fā)軔。數(shù)據(jù)安全風(fēng)險(xiǎn)往往具有多源、異構(gòu)、復(fù)雜、多模態(tài)的特征,這要求政府相關(guān)職能部門(mén)即使在沒(méi)有突發(fā)事件的放松狀態(tài)下,也要做好監(jiān)測(cè)預(yù)警工作。然而,面對(duì)政府?dāng)?shù)據(jù)安全事件的復(fù)雜性、多變性與耦合性,單純依靠政府部門(mén)或?qū)<抑腔垭y以有效研判與揭示不同風(fēng)險(xiǎn)情報(bào)之間的關(guān)聯(lián),極易出現(xiàn)政府?dāng)?shù)據(jù)安全風(fēng)險(xiǎn)監(jiān)測(cè)不利而導(dǎo)致的決策研判時(shí)滯。相比之下,生成式人工智能可以快速識(shí)別物理世界、人類社會(huì)和信息空間的相關(guān)風(fēng)險(xiǎn)因子,從而實(shí)現(xiàn)數(shù)據(jù)安全事件“大場(chǎng)景、超感知”的智能超鏈接[24]。
黑箱階段的核心任務(wù)是厘清安全風(fēng)險(xiǎn)源、安全風(fēng)險(xiǎn)活動(dòng)區(qū)域和安全風(fēng)險(xiǎn)頻率,并進(jìn)一步形成風(fēng)險(xiǎn)清單。具體而言,政府?dāng)?shù)據(jù)安全風(fēng)險(xiǎn)清單包括風(fēng)險(xiǎn)總覽清單與風(fēng)險(xiǎn)明細(xì)清單。風(fēng)險(xiǎn)總覽清單包括風(fēng)險(xiǎn)監(jiān)測(cè)趨勢(shì)、風(fēng)險(xiǎn)類型分布、風(fēng)險(xiǎn)分布排名等;風(fēng)險(xiǎn)明細(xì)清單包括風(fēng)險(xiǎn)觸發(fā)條件、風(fēng)險(xiǎn)節(jié)點(diǎn)標(biāo)記、風(fēng)險(xiǎn)場(chǎng)景特征等。政府?dāng)?shù)據(jù)安全治理的黑箱階段具體可以分為前端與后端兩個(gè)部分。前端主要指安全信息的采集與整合,后端則包含政府?dāng)?shù)據(jù)安全應(yīng)急響應(yīng)計(jì)劃的編制與生產(chǎn)。在前端,政府部門(mén)工作人員結(jié)合數(shù)據(jù)安全治理需求進(jìn)行任務(wù)設(shè)定與目標(biāo)錨定,生成式人工智能強(qiáng)大的自然語(yǔ)言處理功能可以通過(guò)深度學(xué)習(xí)的方式實(shí)現(xiàn)海量信息與數(shù)據(jù)的實(shí)時(shí)收集與動(dòng)態(tài)獲取,并按照工作人員設(shè)置的分類原則與分級(jí)規(guī)則對(duì)風(fēng)險(xiǎn)因子進(jìn)行聚類分析,有效整合數(shù)據(jù)安全事件的節(jié)點(diǎn)信息;在后端,生成式人工智能可以基于歷史數(shù)據(jù)和最佳實(shí)踐,擬定安全應(yīng)急響應(yīng)計(jì)劃的基本框架和具體步驟,提供關(guān)于威脅模型、漏洞分析、防御策
略等方面的建議。相關(guān)職能部門(mén)可以在此基礎(chǔ)上制定包含風(fēng)險(xiǎn)識(shí)別、證據(jù)匯總、日常監(jiān)控、信息紕漏、協(xié)同監(jiān)管等內(nèi)容的數(shù)據(jù)安全應(yīng)急響應(yīng)計(jì)劃。比如,上海市有機(jī)整合安全可視化、生成式人工智能、數(shù)字化智能分析平臺(tái)等技術(shù)工具,打造“一網(wǎng)統(tǒng)管”安全底座,針對(duì)多云環(huán)境、混合云環(huán)境下的公共數(shù)據(jù)安全管理效率低下的問(wèn)題,構(gòu)建包含安全態(tài)勢(shì)感知、數(shù)據(jù)安全監(jiān)控預(yù)警、數(shù)據(jù)安全風(fēng)險(xiǎn)分析、脆弱性管理等功能在內(nèi)的數(shù)據(jù)安全監(jiān)管平臺(tái),充分掃描出數(shù)據(jù)庫(kù)系統(tǒng)的安全漏洞和威脅,幫助數(shù)據(jù)庫(kù)保持在最佳安全、健康的狀態(tài),實(shí)現(xiàn)數(shù)據(jù)安全風(fēng)險(xiǎn)隱患的全流程預(yù)測(cè)預(yù)防,強(qiáng)化上海市云上應(yīng)用智能化、集約化安全運(yùn)營(yíng)能力[25]。
2.2 灰箱階段:事中應(yīng)急響應(yīng)
政府?dāng)?shù)據(jù)安全事件常常伴隨聚合性、關(guān)聯(lián)性和衍生性的多米諾效應(yīng)。為了避免初次危機(jī)造成的次生風(fēng)險(xiǎn)或衍生風(fēng)險(xiǎn),責(zé)任主體需錨定數(shù)據(jù)安全危機(jī)事件發(fā)生區(qū)域、應(yīng)急資源使用范圍、災(zāi)害處置核心業(yè)務(wù)及所需資源,并迅速做出應(yīng)急響應(yīng),防止風(fēng)險(xiǎn)因子能量積蓄膨脹造成的“激變”。然而,受傳統(tǒng)集權(quán)化管理模式的影響,縱向政府層級(jí)部門(mén)與橫向行政區(qū)劃地域常常出現(xiàn)“信息孤島”和“信息壁壘”,在政府?dāng)?shù)據(jù)安全事件應(yīng)急響應(yīng)過(guò)程中則是源于信息失真或滯后導(dǎo)致的部門(mén)協(xié)同不足,不利于應(yīng)對(duì)“非常規(guī)化”與“非程序化”數(shù)據(jù)安全突發(fā)事件的聯(lián)動(dòng)響應(yīng)。
生成式人工智能賦能數(shù)據(jù)安全突發(fā)事件實(shí)現(xiàn)了“權(quán)力運(yùn)行的技術(shù)化”,推進(jìn)了決策結(jié)構(gòu)和內(nèi)容的深層次變革[26]。生成式人工智能作為“外腦”能夠提供智能決策。傳統(tǒng)面向政府?dāng)?shù)據(jù)安全事件的應(yīng)急響應(yīng)工作是以任務(wù)為中心的“機(jī)械化”被動(dòng)響應(yīng)模式,難以應(yīng)對(duì)風(fēng)險(xiǎn)多維異構(gòu)、多源交織的復(fù)雜數(shù)據(jù)安全事件。相比之下,生成式人工智能依托智能化邏輯算法將龐雜的數(shù)據(jù)信息轉(zhuǎn)變?yōu)椤爸腔壑R(shí)”,并形成智能決策模型庫(kù)、智能決策經(jīng)驗(yàn)庫(kù)、智能決策規(guī)則庫(kù)、智能決策案例庫(kù)、智能決策工具庫(kù)等智能決策知識(shí)庫(kù),用于構(gòu)建包含智能決策支撐系統(tǒng)、智能決策處理系統(tǒng)和智能決策應(yīng)用系統(tǒng)在內(nèi)的政府?dāng)?shù)據(jù)安全事件智能決策系統(tǒng)。一旦發(fā)生數(shù)據(jù)安全突發(fā)事件,生成式人工智能可實(shí)時(shí)跟蹤事件發(fā)展態(tài)勢(shì)的節(jié)點(diǎn)信息,根據(jù)“情景畫(huà)像”描繪出數(shù)據(jù)安全事件發(fā)展的邏輯鏈條,適時(shí)調(diào)整應(yīng)急響應(yīng)決策的具體內(nèi)容,形成自主適應(yīng)式的“訓(xùn)練—判斷—決策—實(shí)施”循環(huán)響應(yīng)機(jī)制,有效遏制數(shù)據(jù)安全危機(jī)的蔓延與衍生。作為協(xié)作補(bǔ)充,生成式人工智能可以打破“數(shù)據(jù)孤島”、消除“數(shù)據(jù)噪聲”,克服部門(mén)協(xié)同不足,整合分散的公共資源。生成式人工智能的有效嵌入驅(qū)動(dòng)著政府?dāng)?shù)據(jù)安全事件應(yīng)急響應(yīng)由“科層式”向“扁平式”,“管理—控制”向“治理—協(xié)同”模式的轉(zhuǎn)變,以人機(jī)協(xié)同的方式逐步克服應(yīng)急決策主體內(nèi)部、應(yīng)急決策主體與應(yīng)急職能主體、應(yīng)急參與主體間協(xié)同不足的現(xiàn)實(shí)困局,促進(jìn)責(zé)任主體、時(shí)空過(guò)程、技術(shù)手段的耦合關(guān)聯(lián)與互動(dòng)融合,助力政府?dāng)?shù)據(jù)安全事件智能決策的生成。比如,山東省交通廳打造以安全運(yùn)營(yíng)為中心的數(shù)據(jù)安全與一體化數(shù)字平臺(tái),聚焦數(shù)據(jù)流動(dòng)和數(shù)據(jù)風(fēng)險(xiǎn)暴露,嘗試?yán)蒙墒饺斯ぶ悄艿葟?fù)雜系統(tǒng)模型算法和大數(shù)據(jù)智能分析等技術(shù)工具,形成數(shù)據(jù)識(shí)別、數(shù)據(jù)防護(hù)、安全監(jiān)控、安全響應(yīng)和溯源的安全能力資源池,有效解決并阻斷各類賬號(hào)訪問(wèn)風(fēng)險(xiǎn),為威脅遏制恢復(fù)、安全事件復(fù)審以及事件應(yīng)急響應(yīng)的閉環(huán)處置提供了支撐。
2.3 白箱階段:事后反饋評(píng)估
在政府?dāng)?shù)據(jù)安全治理的白箱階段,雖然數(shù)據(jù)安全整體態(tài)勢(shì)已趨于穩(wěn)定,但仍然有“余邪復(fù)盛”的風(fēng)險(xiǎn)。責(zé)任主體要保持對(duì)殘留威脅的持續(xù)關(guān)注,通過(guò)系統(tǒng)評(píng)估復(fù)盤(pán)來(lái)確保治理實(shí)踐與治理目標(biāo)的“關(guān)鍵性對(duì)齊”[27]。具體包括:一是保持對(duì)數(shù)據(jù)安全風(fēng)險(xiǎn)因子的實(shí)時(shí)監(jiān)測(cè),重點(diǎn)關(guān)注和聚焦響應(yīng)計(jì)劃中的人員、制度與技術(shù)配置,系統(tǒng)分析過(guò)往階段所涉及的行為舉措,獲得事后經(jīng)驗(yàn)性、保障性信息;二是客觀評(píng)估政府?dāng)?shù)據(jù)安全應(yīng)急響應(yīng)過(guò)程中存在的行為與決策偏差,并進(jìn)行持續(xù)調(diào)整與優(yōu)化,為應(yīng)對(duì)下一輪數(shù)據(jù)安全危機(jī)時(shí)迅速啟動(dòng)應(yīng)急方案做好保障。
對(duì)此,生成式人工智能主要從以下兩個(gè)方面賦能事后反饋評(píng)估。
第一,精準(zhǔn)問(wèn)責(zé)。政府?dāng)?shù)據(jù)安全突發(fā)事件打破了傳統(tǒng)行政區(qū)域與政府部門(mén)職能邊界,而跨區(qū)域、跨職能部門(mén)的協(xié)同響應(yīng)所帶來(lái)的交叉空白區(qū)域,成為一些地方政府“推諉責(zé)任”“不作為”的溫床,為主體問(wèn)責(zé)帶來(lái)難度。生成式人工智能通過(guò)算法邏輯匹配數(shù)據(jù)安全事件風(fēng)險(xiǎn)發(fā)生與主體履職盡責(zé)的關(guān)聯(lián)程度,建立同體問(wèn)責(zé)與異體問(wèn)責(zé)相協(xié)調(diào)的責(zé)任量化標(biāo)準(zhǔn)與溯源追責(zé)體系,對(duì)政府部門(mén)的響應(yīng)規(guī)劃、資源調(diào)度、決策流程、力量部署以及組織機(jī)制行為演化等內(nèi)容進(jìn)行評(píng)估,綜合考量過(guò)程責(zé)任與結(jié)果責(zé)任、事件復(fù)雜程度與主體認(rèn)知能力后進(jìn)行責(zé)任認(rèn)定,防止責(zé)任主體“不作為”“亂作為”“假作為”現(xiàn)象,有效糾正數(shù)據(jù)安全應(yīng)急預(yù)案和落地執(zhí)行過(guò)程中存在的疏漏。比如,以杭州市蕭山區(qū)大數(shù)據(jù)管理服務(wù)中心為例,不同服務(wù)模式和部署模式、信息共享平臺(tái)環(huán)境的復(fù)雜性增加了界定數(shù)據(jù)安全責(zé)任的難度,數(shù)據(jù)持續(xù)流動(dòng)導(dǎo)致責(zé)任劃分不清、權(quán)限難以控制、問(wèn)題難以追責(zé)、風(fēng)險(xiǎn)難以溯源等問(wèn)題,迫切需要建立終端可信識(shí)別,讓數(shù)據(jù)安全事件與安全責(zé)任精準(zhǔn)定義到人。因此,以生成式人工智能為核心的可疑第三方檢測(cè)模型算法,能夠利用事件同源分析、樣本同源分析和多種關(guān)聯(lián)分析等自動(dòng)化分析技術(shù),驅(qū)動(dòng)數(shù)據(jù)安全責(zé)任界定有理有據(jù)。
第二,知識(shí)學(xué)習(xí)。傳統(tǒng)政府?dāng)?shù)據(jù)安全事件通常采用類別化的知識(shí)學(xué)習(xí)模式,不利于經(jīng)驗(yàn)的全面反饋總結(jié),加上一些政府部門(mén)的數(shù)據(jù)安全風(fēng)險(xiǎn)調(diào)查報(bào)告宏觀空洞、流于形式,所提出的對(duì)策建議針對(duì)性不足、操作性不強(qiáng),對(duì)避免陷入新的風(fēng)險(xiǎn)陷阱、遭遇新的安全危機(jī)助益不大。相比之下,生成式人工智能基于多源數(shù)據(jù)的綜合集成與語(yǔ)義融合,能夠通過(guò)自主建模、圖形化組件和深度學(xué)習(xí)構(gòu)建政府?dāng)?shù)據(jù)安全知識(shí)圖譜,打通“數(shù)據(jù)—知識(shí)—服務(wù)”的轉(zhuǎn)化路徑。政府?dāng)?shù)據(jù)安全知識(shí)圖譜主要包含模式維、事件維和實(shí)體維。模式維,從領(lǐng)域知識(shí)庫(kù)以及歷史案例庫(kù)中提取并抽象出政府?dāng)?shù)據(jù)安全治理模式;事件維,重點(diǎn)關(guān)注政府?dāng)?shù)據(jù)安全事件屬性、邏輯演化規(guī)律和時(shí)空演變狀態(tài);實(shí)體維,涉及政府?dāng)?shù)據(jù)安全事件人員保障、物資保障、技術(shù)保障等資源配置。隨著政府?dāng)?shù)據(jù)安全知識(shí)圖譜的豐富,生成式人工智能可以進(jìn)一步厘清模式、事件和實(shí)體之間的關(guān)聯(lián),優(yōu)化政府?dāng)?shù)據(jù)安全知識(shí)管理體系。比如,浙江省某政務(wù)服務(wù)數(shù)據(jù)管理局持續(xù)豐富數(shù)據(jù)安全風(fēng)險(xiǎn)反饋評(píng)估策略,借助生成式人工智能持續(xù)學(xué)習(xí)、自我進(jìn)化的能力,對(duì)看似不相關(guān)的多方位情報(bào)進(jìn)行橫向、縱向關(guān)聯(lián),深度挖掘多維線索之間隱藏的內(nèi)在聯(lián)系,從攻擊、告警、異常中抽取事件、實(shí)體與模式間的關(guān)系,構(gòu)建直觀、明晰、可溯源的數(shù)據(jù)安全知識(shí)圖譜;通過(guò)對(duì)重要數(shù)據(jù)安全風(fēng)險(xiǎn)來(lái)源與行為等的“學(xué)習(xí)”,建立訪問(wèn)來(lái)源和訪問(wèn)行為的安全基線,并以此作為進(jìn)一步發(fā)現(xiàn)數(shù)據(jù)安全風(fēng)險(xiǎn)因子的基礎(chǔ)。
3 溢出之惡:生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的風(fēng)險(xiǎn)
生成式人工智能運(yùn)用算法智慧改變了由人作為單一主體的“鏈?zhǔn)健睌?shù)據(jù)安全風(fēng)險(xiǎn)應(yīng)對(duì)模式,不斷形塑“復(fù)合式”“立體式”的政府?dāng)?shù)據(jù)安全“人機(jī)共治”新格局。然而,由于信息技術(shù)內(nèi)嵌于政府治理并非總是產(chǎn)生正向影響,生成式人工智能的應(yīng)用仍然存在一系列可能的風(fēng)險(xiǎn)點(diǎn),需在厘清可能的風(fēng)險(xiǎn)表現(xiàn)之后,有針對(duì)性地提出應(yīng)對(duì)策略。
3.1 黑箱階段:數(shù)據(jù)泄漏
在黑箱階段,數(shù)據(jù)過(guò)度挖掘及其衍生的數(shù)據(jù)泄漏等風(fēng)險(xiǎn)成為生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理所引致的主要風(fēng)險(xiǎn)之一。對(duì)于生成式人工智能而言,其強(qiáng)大的內(nèi)容生成能力源于對(duì)海量數(shù)據(jù)的深度挖掘。為了通過(guò)多信源的相互補(bǔ)充與印證,構(gòu)建政府?dāng)?shù)據(jù)安全風(fēng)險(xiǎn)“感知網(wǎng)”,提升風(fēng)險(xiǎn)監(jiān)測(cè)預(yù)警的準(zhǔn)確性與“能見(jiàn)度”,生成式人工智能需要盡可能多地爬取數(shù)據(jù)用于建立巨大的語(yǔ)料庫(kù)。然而,目前缺乏對(duì)生成式人工智能數(shù)據(jù)收集問(wèn)題的相關(guān)標(biāo)準(zhǔn)與規(guī)制,在很大程度上容易產(chǎn)生數(shù)據(jù)過(guò)度采集和數(shù)據(jù)泄漏的安全隱憂。OpenAI在生成式人工智能訓(xùn)練過(guò)程中加入了“人類反饋強(qiáng)化學(xué)習(xí)”的訓(xùn)練方法,能夠根據(jù)工作人員的數(shù)據(jù)對(duì)照標(biāo)注進(jìn)行對(duì)抗強(qiáng)化訓(xùn)練,不斷糾正反饋模型的偏差,使生成式人工智能的表達(dá)方式與生成內(nèi)容更符合政府工作人員的偏好答案。因此,政府需要運(yùn)用大量數(shù)據(jù)對(duì)生成式人工智能進(jìn)行訓(xùn)練,提升其判斷、預(yù)測(cè)與輔助決策的能力。在訓(xùn)練數(shù)據(jù)過(guò)程中,“未經(jīng)授權(quán)”和“超越授權(quán)”獲得數(shù)據(jù)的情形若發(fā)生,則會(huì)加劇政府?dāng)?shù)據(jù)泄漏、數(shù)據(jù)投毒、逆向攻擊、模型竊取等風(fēng)險(xiǎn)。此外,生成式人工智能已經(jīng)具備了為部分代碼片段提供輔助指導(dǎo)和查缺補(bǔ)漏的功能,這無(wú)疑會(huì)降低惡意代碼編寫(xiě)的技術(shù)門(mén)檻和成本時(shí)間,若被不法分子惡意利用,深度造假、竊取機(jī)密情報(bào)、破解驗(yàn)證碼、蜂擁式攻擊等風(fēng)險(xiǎn)則會(huì)加劇,嚴(yán)重者可導(dǎo)致政府?dāng)?shù)據(jù)分類分級(jí)發(fā)生錯(cuò)誤、政府?dāng)?shù)據(jù)安全態(tài)勢(shì)研判失誤。
3.2 灰箱階段:決策失誤
在灰箱階段,數(shù)據(jù)質(zhì)量難以保證與決策后果不可預(yù)測(cè)成為生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的主要風(fēng)險(xiǎn)之一。目前,以“數(shù)據(jù)—算法—算力”為依托的生成式人工智能所使用的方法本質(zhì)上屬于整合、分類、歸納、判斷、試錯(cuò)等經(jīng)驗(yàn)與反饋方法,在方法論層面并不完備。政府?dāng)?shù)據(jù)安全突發(fā)事件應(yīng)急響應(yīng)涉及目標(biāo)、價(jià)值、環(huán)境等客觀事實(shí)。在此期間,生成式人工智能看起來(lái)功效顯著,能夠在對(duì)特定安全場(chǎng)景的預(yù)測(cè)基礎(chǔ)之上,自動(dòng)化編排方案并進(jìn)行比選,根據(jù)前置性安全目標(biāo)確定最優(yōu)決策方案,但實(shí)際上高度依賴政府以往的類似經(jīng)驗(yàn),這意味著歷史數(shù)據(jù)的完整性、有效性和準(zhǔn)確性至關(guān)重要。然而,政府?dāng)?shù)據(jù)范圍與體量的不斷擴(kuò)大會(huì)稀釋有效數(shù)據(jù),這在某種程度上增加了生成式人工智能經(jīng)過(guò)合并算法與深度學(xué)習(xí)后得到“滿意解”的難度。另外,政府?dāng)?shù)據(jù)安全突發(fā)事件充滿了變數(shù),應(yīng)急響應(yīng)往往需要跨區(qū)域、跨層級(jí)、跨部門(mén)的組織與人員協(xié)同,其資源、能力以及認(rèn)知均存在一定差異。這些方面正是生成式人工智能最難以把握的變量。此外,深度學(xué)習(xí)驅(qū)動(dòng)下生成式人工智能具有“幻覺(jué)傾向”,容易產(chǎn)生無(wú)意義或不真實(shí)的內(nèi)容,極有可能給出一個(gè)“有理有據(jù)”,卻是政府完全沒(méi)有考慮過(guò)的決策方案。特別是隨著政府工作人員對(duì)生成式人工智能逐漸產(chǎn)生信任,這種“幻覺(jué)傾向”的有害性會(huì)更加明顯,可能導(dǎo)致政府?dāng)?shù)據(jù)安全決策失誤,削弱政府的公信力。
3.3 白箱階段:主體性危機(jī)
在白箱階段,量責(zé)評(píng)估偏差與人的學(xué)習(xí)判斷能力削弱成為生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的主要風(fēng)險(xiǎn)之一。技術(shù)所引致的風(fēng)險(xiǎn)有可能來(lái)自系統(tǒng)的使用方式,也有可能來(lái)自系統(tǒng)的設(shè)計(jì)方式[28]。生成式人工智能擅長(zhǎng)的是利用大量投喂的學(xué)習(xí)資料后的“綜述式輸出”與根據(jù)統(tǒng)計(jì)概率的“查表式回答”[29],其內(nèi)容輸出主要受系統(tǒng)設(shè)定者內(nèi)嵌邏輯的影響。受“算法迷信”“技術(shù)至上”等觀念的影響,部分政府工作人員將模型生成的決策參考視為深思熟慮過(guò)的“標(biāo)準(zhǔn)答案”,成為問(wèn)責(zé)偏差的“龐大贊成基數(shù)”。在這種情況下,當(dāng)系統(tǒng)設(shè)定者以“把關(guān)人”的身份篩選數(shù)據(jù)信息時(shí),若將帶有偏見(jiàn)的信息植入數(shù)據(jù)模型庫(kù),則生成式人工智能生成的量責(zé)結(jié)果或?qū)⒊蔀槟承┬袨槭М?dāng)?shù)呢?zé)任主體規(guī)避責(zé)任、提供掩護(hù)的工具。隨著技術(shù)的深度嵌入與廣泛應(yīng)用,人與機(jī)器的界限更加模糊,基于生成式人工智能獨(dú)立做出的應(yīng)急響應(yīng)決策在實(shí)踐中一旦失靈,則可能引致人與技術(shù)之間推諉責(zé)任的現(xiàn)象。與此同時(shí),政府部門(mén)對(duì)智能系統(tǒng)熟悉度的日益提高,會(huì)加劇相關(guān)人員對(duì)智能設(shè)備的高度依賴,進(jìn)而影響責(zé)任主體治理經(jīng)驗(yàn)的總結(jié)與反饋能力的提升。當(dāng)政府工作人員的治理能力與生成式人工智能的迭代進(jìn)化形成明顯的“能力墮距”時(shí),人的獨(dú)特性主體優(yōu)勢(shì)在智能體時(shí)代將以“潤(rùn)人細(xì)無(wú)聲”的方式被邊緣化,引致主體性危機(jī)。
4 生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的應(yīng)對(duì)策略
天下之器,馭之以道。隨著認(rèn)知智能、類腦智能、混合智能等人工智能基礎(chǔ)理論與技術(shù)手段的突破發(fā)展,生成式人工智能逐漸成為政府治理可欲和可為的發(fā)展方向[30]。正如“ChatGPT之父”薩姆·奧特曼(Sam Altman)既肯定生成式人工智能的智慧特征,也承認(rèn)這種“力量倍增器”存在的潛在風(fēng)險(xiǎn),當(dāng)前,如何保障生成式人工智能與政府?dāng)?shù)據(jù)安全治理目標(biāo)、價(jià)值、理念的契合統(tǒng)一,在實(shí)現(xiàn)以智聚能與以智釋能的同時(shí),確保生成式人工智能的價(jià)值向善,成為政府?dāng)?shù)據(jù)安全治理的重要議題。本文基于前文分析,主要從技術(shù)、規(guī)則和組織三個(gè)維度提出應(yīng)對(duì)策略。
4.1 技術(shù)維度:推動(dòng)生成式人工智能精細(xì)化治理
政府應(yīng)通過(guò)“程序正義”與“價(jià)值向善”來(lái)降低生成式人工智能所可能引致的安全風(fēng)險(xiǎn)。具體包括兩方面。一是要做好數(shù)據(jù)源頭把關(guān),重點(diǎn)提升訓(xùn)練數(shù)據(jù)與數(shù)據(jù)標(biāo)注的質(zhì)量。在訓(xùn)練數(shù)據(jù)環(huán)節(jié),政府應(yīng)使用具有合法來(lái)源的數(shù)據(jù)和基礎(chǔ)模型,采用檢索增強(qiáng)的方式提高訓(xùn)練數(shù)據(jù)的實(shí)時(shí)性和真實(shí)性,避免生成涵蓋錯(cuò)誤信息、偏見(jiàn)觀點(diǎn)以及具有誘導(dǎo)傾向的內(nèi)容。在數(shù)據(jù)標(biāo)注環(huán)節(jié),政府應(yīng)嚴(yán)格制定標(biāo)注規(guī)則,適時(shí)開(kāi)展數(shù)據(jù)標(biāo)注質(zhì)量評(píng)估,并對(duì)標(biāo)注人員進(jìn)行培訓(xùn)。二是夯實(shí)算法代碼的開(kāi)源工作,增強(qiáng)算法代碼的可解釋性和透明度。生成式人工智能算法具有“黑箱”特性,表現(xiàn)為設(shè)計(jì)不公開(kāi)、運(yùn)行不透明、行為不可控以及決策機(jī)制難解釋。對(duì)此,應(yīng)進(jìn)一步明確算法備案要求,強(qiáng)化對(duì)算法機(jī)理的充分說(shuō)明和監(jiān)督檢查,建立健全投訴、舉報(bào)機(jī)制,提升算法的透明度與問(wèn)責(zé)性,以確保生成式人工智能的發(fā)展方向與政府?dāng)?shù)據(jù)安全治理的價(jià)值與目標(biāo)相統(tǒng)一。
4.2 規(guī)則維度:健全全域政府?dāng)?shù)據(jù)安全治理體系
從系統(tǒng)論出發(fā),應(yīng)不斷完善事前可監(jiān)測(cè)、事中全留痕、事后可追溯的全域政府?dāng)?shù)據(jù)安全治理體系(圖2),以確保生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的“全棧安全”。在制度層面,深化政府?dāng)?shù)據(jù)安全頂層設(shè)計(jì)與標(biāo)準(zhǔn)規(guī)范,共筑方針、規(guī)范、計(jì)劃等保障機(jī)制。在主體層面,明確政府部門(mén)業(yè)務(wù)人員、管理人員、決策人員、運(yùn)維人員以及數(shù)據(jù)分析師、數(shù)據(jù)安全工程師、數(shù)據(jù)科學(xué)家等主體的數(shù)據(jù)安全責(zé)任邊界,合理分配人工智能供應(yīng)鏈中的模型提供者、模型部署者和模型使用者的義務(wù)范圍,健全全流程、可溯源、可追責(zé)治理體系。在平臺(tái)層面,通過(guò)高效聯(lián)動(dòng)探針和矩陣產(chǎn)品的安全信息數(shù)據(jù),將多類型的日志、流量數(shù)據(jù)匯聚到平臺(tái)內(nèi),通過(guò)平臺(tái)的內(nèi)置模型進(jìn)行綜合分析,建立監(jiān)測(cè)預(yù)警平臺(tái)、應(yīng)急響應(yīng)平臺(tái)和安全評(píng)估平臺(tái)。在運(yùn)營(yíng)層面,確保模型、指標(biāo)、威脅情報(bào)的感知與研判,做實(shí)數(shù)據(jù)靜態(tài)脫敏、動(dòng)態(tài)脫敏、分類分級(jí)等工作,建立配套的分析研判中心和綜合防控中心,以保障數(shù)據(jù)安全管控平臺(tái)的安全運(yùn)營(yíng)。在流程層面,建立適應(yīng)數(shù)據(jù)動(dòng)態(tài)流動(dòng)的治理流程,形成安全防護(hù)、監(jiān)測(cè)預(yù)警、應(yīng)急響應(yīng)、安全評(píng)估的數(shù)據(jù)安全監(jiān)督管理閉環(huán),消解生成式人工智能賦能數(shù)據(jù)匯聚、流動(dòng)及交換共享過(guò)程中產(chǎn)生的數(shù)據(jù)安全風(fēng)險(xiǎn)。
4.3 組織維度:培育全鏈路政府?dāng)?shù)據(jù)安全治理能力
生成式人工智能雖然具備“矛”與“盾”的兩面性,但其出現(xiàn)直接對(duì)標(biāo)的是人的智慧,這意味著生成式人工智能對(duì)政府?dāng)?shù)據(jù)安全治理的影響,本質(zhì)上取決于相關(guān)責(zé)任主體現(xiàn)有的數(shù)據(jù)安全治理能力。據(jù)此,應(yīng)從環(huán)境安全、業(yè)務(wù)安全、訪問(wèn)安全、傳輸安全及安全管理等多個(gè)維度提升相關(guān)責(zé)任主體的安全防護(hù)能力,不斷細(xì)化數(shù)據(jù)安全管控粒度,實(shí)現(xiàn)全域數(shù)據(jù)集成、高效數(shù)據(jù)開(kāi)發(fā)、主動(dòng)數(shù)據(jù)共享、全面數(shù)據(jù)安全和精準(zhǔn)應(yīng)急響應(yīng)。在組織建設(shè)方面,不斷完善數(shù)據(jù)安全組織架構(gòu)、權(quán)責(zé)分配和溝通協(xié)作。在制度流程方面,規(guī)范數(shù)據(jù)安全領(lǐng)域的制度設(shè)計(jì)、流程執(zhí)行與法理標(biāo)準(zhǔn),確定業(yè)務(wù)系統(tǒng)內(nèi)、各業(yè)務(wù)系統(tǒng)間以及組織外部活動(dòng)的協(xié)調(diào)機(jī)制。在技術(shù)工具方面,應(yīng)注重政府?dāng)?shù)據(jù)安全治理的技術(shù)協(xié)同,不斷優(yōu)化神經(jīng)網(wǎng)絡(luò)、數(shù)據(jù)探針、多方計(jì)算、貝葉斯網(wǎng)絡(luò)、時(shí)序關(guān)聯(lián)等技術(shù)手段和產(chǎn)品工具,以保障數(shù)據(jù)安全“治理術(shù)”的功能拓展和價(jià)值增值。在人員能力方面,應(yīng)推動(dòng)數(shù)據(jù)安全治理職能部門(mén)或機(jī)構(gòu)的技術(shù)能力與專業(yè)素養(yǎng)建設(shè),除了協(xié)同安全監(jiān)管、行業(yè)主管、數(shù)據(jù)責(zé)任單位、使用單位及運(yùn)營(yíng)單位力量等主體之外,還應(yīng)協(xié)同數(shù)據(jù)安全業(yè)務(wù)系統(tǒng)開(kāi)發(fā)商、技術(shù)研發(fā)單位、安全治理咨詢企業(yè)、運(yùn)維服務(wù)企業(yè)等多方力量,構(gòu)建多元主體互動(dòng)與耦合聯(lián)動(dòng)的數(shù)據(jù)安全治理共同體,營(yíng)造數(shù)據(jù)安全治理合作生態(tài)。
5 結(jié)論與啟示
本文基于政府?dāng)?shù)據(jù)安全生命周期治理視角,探索生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的機(jī)遇與風(fēng)險(xiǎn),并有針對(duì)性地提出應(yīng)對(duì)策略??偟膩?lái)說(shuō),本文的邊際貢獻(xiàn)主要體現(xiàn)在兩個(gè)方面:一方面,區(qū)別于當(dāng)前對(duì)政府?dāng)?shù)據(jù)治理與人工智能的宏觀研究,本文重點(diǎn)考察生成式人工智能與政府?dāng)?shù)據(jù)安全治理的內(nèi)在關(guān)聯(lián),推進(jìn)了技術(shù)賦能政府?dāng)?shù)據(jù)治理的研究空間;另一方面,本文搭建了“黑箱階段—灰箱階段—白箱階段”的研究框架,從動(dòng)態(tài)視角明確了生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的內(nèi)在邏輯,從技術(shù)、規(guī)則和組織三個(gè)方面,為數(shù)智時(shí)代以數(shù)據(jù)要素高水平安全保障高質(zhì)量發(fā)展提供了實(shí)踐指導(dǎo)。
本文具有三方面的實(shí)踐啟示。第一,在數(shù)智時(shí)代背景下,隨著數(shù)據(jù)安全風(fēng)險(xiǎn)與治理活動(dòng)的復(fù)雜性逐漸超出人類大腦所能判斷和計(jì)算的最高閾值,傳統(tǒng)單純依靠“人治”的治理模式愈發(fā)“力不從心”。生成式人工智能采用深度學(xué)習(xí)技術(shù)和大型語(yǔ)料庫(kù)的訓(xùn)練模式,依托深度學(xué)習(xí)強(qiáng)大的特征學(xué)習(xí)與函數(shù)逼近能力,能夠即時(shí)理解指令、執(zhí)行指令并給予人性化反饋,實(shí)現(xiàn)智能化的人機(jī)交互,其賦能作用為政府?dāng)?shù)據(jù)安全策略制定、風(fēng)險(xiǎn)監(jiān)測(cè)、隱患防范等方面提供了新的機(jī)遇。第二,隨著作用范圍的擴(kuò)大與深化,生成式人工智能可以利用評(píng)價(jià)性反饋實(shí)現(xiàn)序貫行為學(xué)習(xí)和優(yōu)化控制,在反復(fù)調(diào)適與訓(xùn)練中提升環(huán)境適應(yīng)性能力,在政府?dāng)?shù)據(jù)安全治理過(guò)程中實(shí)現(xiàn)“不適應(yīng)—淺適應(yīng)—加深適應(yīng)—契合”的狀態(tài)更新和能力進(jìn)化。第三,與其他技術(shù)人工物一樣,生成式人工智能與人的意向性高度相關(guān),其功能可以被善使用,也可以被惡使用,需要相關(guān)責(zé)任主體的價(jià)值引領(lǐng)與制度規(guī)范,不斷明確生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的價(jià)值要求與功能限度,緩解技術(shù)賦能和安全防護(hù)之間的內(nèi)在張力,不斷探索二者“更優(yōu)”的融合方式與協(xié)同進(jìn)路。
作為一種建構(gòu)性探索,本文仍存在一些不足:僅從宏觀視角對(duì)生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理提供了基于全生命周期、全流程的思路啟示;實(shí)踐檢驗(yàn)與案例分析相對(duì)匱乏,等等。未來(lái),應(yīng)結(jié)合具體場(chǎng)景、不同案例、規(guī)制需求進(jìn)行細(xì)化、補(bǔ)充與完善,圍繞提升政府?dāng)?shù)據(jù)安全治理效能開(kāi)展持續(xù)性研究。
參考文獻(xiàn):
[1] 李貝雷. 人工智能嵌入國(guó)家安全的應(yīng)用場(chǎng)景、潛在風(fēng)險(xiǎn)及其應(yīng)對(duì)策略研究[J]. 情報(bào)雜志, 2023, 42(4): 20-26, 19.
LI B L. Artificial intelligence embedded in national security: Technology application scenarios, potential risks, and countermeasures[J]. Journal of Intelligence, 2023, 42(4): 20-26, 19.
[2] 張愛(ài)軍, 賈璐. 類ChatGPT人工智能語(yǔ)境下網(wǎng)絡(luò)輿情安全的風(fēng)險(xiǎn)樣態(tài)及其規(guī)制[J]. 情報(bào)雜志, 2023, 42(12): 180-187.
ZHANG A J, JIA L. Risk patterns and regulations of online public opinion Security in the context of ChatGPT[J]. Journal of Intelligence, 2023, 42(12): 180-187.
[3] 封帥. 國(guó)家安全學(xué)視域下的人工智能安全研究: 議題網(wǎng)絡(luò)建構(gòu)的初步嘗試[J]. 國(guó)際安全研究, 2023, 41(1): 26-49, 157.
FENG S. Research on artificial intelligence security from the perspective of national security studies: A preliminary attempt to construct an issue network[J]. Journal of International Security Studies, 2023, 41(1): 26-49, 157.
[4] ACEMOGLU D, AUTOR D. Skills, tasks and technologies: Implications for employment and earnings[M]// Handbook of Labor Economics. Amsterdam: Elsevier, 2011: 1043-1171.
[5] AUTOR D H, LEVY F, MURNANE R J. The skill content of recent technological change: An empirical exploration[J]. The Quarterly Journal of Economics, 2003, 118(4): 1279-1333.
[6] FUMAGALLI E, REZAEI S, SALOMONS A. OK computer: Worker perceptions of algorithmic recruitment[J]. Research Policy, 2022, 51(2): 104420.
[7] 劉瑋. ChatGPT類生成式人工智能嵌入數(shù)字政府建設(shè): 可供、限制與優(yōu)化——基于技術(shù)可供性視角[J]. 情報(bào)理論與實(shí)踐, 2023, 46(10): 69-76.
LIU W. ChatGPT-like generative Al embedded in digital government construction from technology affordance perspective: Affordance, limitation and optimization[J]. Information Studies: Theory & Application, 2023, 46(10): 69-76.
[8] 何振, 彭海艷. 人工智能背景下政府?dāng)?shù)據(jù)治理新挑戰(zhàn)、新特征與新路徑[J]. 湘潭大學(xué)學(xué)報(bào): 哲學(xué)社會(huì)科學(xué)版, 2021, 45(6): 82-88.
HE Z, PENG H Y. New challenges, features and paths of government data governance under the background of artificial intelligence[J]. Journal of Xiangtan University (Philosophy and Social Sciences), 2021, 45(6): 82-88.
[9] 汪玉凱. 數(shù)據(jù)治理的內(nèi)涵、困境及其實(shí)踐路徑[J]. 社會(huì)治理, 2023(3): 4-11.
WANG Y K. The connotation, dilemma, and practical path of data governance[J]. Social Governance Review, 2023(3): 4-11.
[10] 譚必勇, 劉芮. 英國(guó)政府?dāng)?shù)據(jù)治理體系及其對(duì)我國(guó)的啟示: 走向“善治”[J]. 信息資源管理學(xué)報(bào), 2020, 10(5): 55-65.
TAN B Y, LIU R. British government data governance system and its enlightenment to China: “good governance”[J]. Journal of Information Resources Management, 2020, 10(5): 55-65.
[11] VAN DIS E A M, BOLLEN J, ZUIDEMA W, et al. ChatGPT: Five priorities for research[J]. Nature, 2023, 614(7947): 224-226.
[12] 陳潭, 劉璇. 智能政務(wù)ChatGPT化的前景與隱憂[J]. 電子政務(wù), 2023(4): 36-44.
CHEN T, LIU X. The prospects and hidden worries of ChatGPT based intelligent government[J]. E-Government, 2023(4): 36-44.
[13] 汪波, 牛朝文. 從ChatGPT到GovGPT: 生成式人工智能驅(qū)動(dòng)的政務(wù)服務(wù)生態(tài)系統(tǒng)構(gòu)建[J]. 電子政務(wù), 2023(9): 25-38.
WANG B, NIU C W. From ChatGPT to GovGPT: Building a generative artificial intelligence driven government service ecosystem[J]. E-Government, 2023(9): 25-38.
[14] SEBASTIAN G. Do ChatGPT and other AI chatbots pose a cybersecurity risk?: An exploratory study[J]. International Journal of Security and Privacy in Pervasive Computing (IJSPPC), 2023, 15(1): 1-11.
[15] SHARMA A. The escalation of ChatGPT: How ChatGPT will exert influence on the legal profession?[J]. Jus Corpus Law Journal, 2023, (3): 106.
[16] 孔祥承. 國(guó)家安全視閾下生成式人工智能的法治應(yīng)對(duì): 以ChatGPT為視角[J]. 法治研究, 2023(5): 61-70.
KONG X C. The rule of law response to generative artificial intelligence from the perspective of national security[J]. Research on Rule of Law, 2023(5): 61-70.
[17] 張凌寒, 于琳. 從傳統(tǒng)治理到敏捷治理: 生成式人工智能的治理范式革新[J]. 電子政務(wù), 2023(9): 2-13.
ZHANG L H, YU L. From traditional governance to agile governance: Innovations in the governance paradigm of generative artificial intelligence[J]. E-Government, 2023(9): 2-13.
[18] 代金平, 覃楊楊. ChatGPT等生成式人工智能的意識(shí)形態(tài)風(fēng)險(xiǎn)及其應(yīng)對(duì)[J]. 重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版), 2023, 29(5): 101-110.
DAI J P, QIN Y Y. The ideological risks of generative artificial intelligence such as ChatGPT and its response[J]. Journal of Chongqing University (Social Science Edition), 2023, 29(5): 101-110.
[19] 李昊霖, 吳苑菲. 數(shù)字化時(shí)代政府?dāng)?shù)據(jù)協(xié)同安全治理路徑探究[J]. 網(wǎng)絡(luò)空間安全, 2023, 14(3): 35-40.
LI H F, WU Y F. Research on the path of government data a collaborative security governance in the digital age[J]. Cyberspace Security, 2023, 14(3): 35-40.
[20] 佟林杰, 劉博. 信息生態(tài)視域下政府?dāng)?shù)據(jù)開(kāi)放中的數(shù)據(jù)安全和隱私保護(hù)問(wèn)題研究[J]. 圖書(shū)館理論與實(shí)踐, 2020(5): 67-72.
TONG L J, LIU B. Research on data security and privacy protection in government data opening from the perspective of information ecology[J]. Library Theory and Practice, 2020(5): 67-72.
[21] 曹惠民, 鄧婷婷. 政府?dāng)?shù)據(jù)治理風(fēng)險(xiǎn)及其消解機(jī)制研究[J]. 電子政務(wù), 2021(1): 81-91.
CAO H M, DENG T T. Research on government data governance risks and their resolution mechanisms[J]. E-Government, 2021(1): 81-91.
[22] 胡峰. 基于壓電式理論的政府?dāng)?shù)據(jù)安全治理體系構(gòu)建及實(shí)現(xiàn)路徑研究[J]. 電子政務(wù), 2021(11): 103-116.
HU F. Research on the construction and implementation path of government data security governance system based on piezoelectric theory[J]. E-Government, 2021(11): 103-116.
[23] 王秉, 史志勇, 周佳勝. 安全情報(bào)視域下的安全態(tài)勢(shì)感知與塑造模型[J]. 情報(bào)理論與實(shí)踐, 2023, 46(1): 1-6.
WANG B, SHI Z Y, ZHOU J S. A model for safety & security situation awareness and shaping from a perspective of safety & security intelligence[J]. Information Studies: Theory & Application, 2023, 46(1): 1-6.
[24] 高文勇. 人工智能應(yīng)對(duì)突發(fā)事件的精準(zhǔn)治理: 基于“結(jié)構(gòu)-過(guò)程”維度的要素分析[J]. 學(xué)術(shù)探索, 2021(8): 85-95.
GAO W Y. Accurate governance of artificial intelligence in response to emergencies: Element analysis based on the “structure-process” dimension[J]. Academic Exploration, 2021(8): 85-95.
[25] 徐惠麗. 用安全筑牢上海“一網(wǎng)統(tǒng)管”底座,向世界展 現(xiàn)“中國(guó)之治”新境界[EB/OL]. (2021-04-27)[2023-06-02]. http://www.cnr.cn/shanghai/tt/20210427/ t20210427_525473276.shtml.
XU H L. Building the foundation of Shanghai’s “One Network Unified Management” with safety, showcasing a new realm of “Chinese governance” to the world[EB/OL]. (2021-04-27)[2023-06-02]. http://www.cnr.cn/shanghai/tt/20210427/ t20210427_525473276.shtml.
[26] 張龍輝, 肖克. 人工智能應(yīng)用下的特大城市風(fēng)險(xiǎn)治理: 契合、技術(shù)變革與路徑[J]. 理論月刊, 2020(9): 60-72.
ZHANG L H, XIAO K. Risk management of megacities in the application of artificial intelligence: Coincidence, technological changes and paths[J]. Theory Monthly, 2020(9): 60-72.
[27] 劉晨暉, 王能民. 基于壓電式理論的網(wǎng)絡(luò)安全事件應(yīng)急響應(yīng)體系: 美國(guó)的實(shí)踐啟示[J]. 情報(bào)雜志, 2021, 40(3): 112-117, 31.
LIU C H, WANG N M. A cyber security incident response system based on piezoelectric theory: The practice in the United States and its implications[J]. Journal of Intelligence, 2021, 40(3): 112-117, 31.
[28] 張璐. 通用人工智能風(fēng)險(xiǎn)治理與監(jiān)管初探: ChatGPT引發(fā)的問(wèn)題與挑戰(zhàn)[J]. 電子政務(wù), 2023(9): 14-24.
ZHANG L. Preliminary exploration of risk governance and regulation in general artificial intelligence-issues and challenges caused by ChatGPT[J]. E-Government, 2023(9): 14-24.
[29] 陳一, 徐衡. 共識(shí)、共舞、共進(jìn): 智聯(lián)社會(huì)的人工智能素養(yǎng)——基于類ChatGPT技術(shù)的討論[J]. 青年學(xué)報(bào), 2023(3): 38-42.
CHEN Y, XU H. Consensus, dance together, and progress together: The artificial intelligence literacy in the smart connected society—A discussion based on ChatGPT-like technology[J]. Youth Research, 2023(3): 38-42.
[30] 曾宇航, 史軍. 政府治理中的生成式人工智能: 邏輯理路與風(fēng)險(xiǎn)規(guī)制[J]. 中國(guó)行政管理, 2023, 39(9): 90-95.
ZENG Y H, SHI J. The application of generative artificial intelligence in government governance: Logical approach and risk regulation[J]. Chinese Public Administration, 2023, 39(9): 90-95.
作者貢獻(xiàn)說(shuō)明:
姚怡帆:確定研究選題,搭建論文框架,撰寫(xiě)論文初稿;
胡 峰:搜集文獻(xiàn),修改論文;
許正中:修改論文。
Opportunities, Risks, and Countermeasures for Empowering Government Data Security Governance with Generative Artificial Intelligence
Yao Yifan1 Hu Feng2, 3 Xu Zhengzhong4
1National Security School(School of Politics, Law and Public Administration)of Shaanxi Normal University, Xi’an 710119
2 Jiangsu Academy of Science and Technology for Development (Jiangsu Information Institute of Science and Technology), Nanjing 210042
3 National Security and Emergency Management Research Center of Nanjing Normal University, Nanjing 210023
4 Economics Teaching and Research Department of the Central Party School (National School of Administration), Beijing 100091
Abstract: [Purpose/Significance] Generative artificial intelligence serves as a novel driving force for promoting the high-level security of data elements. It acts as a catalyst for the high-quality development of government data security, and provides a strategic advantage in modernizing the government data governance system and its capabilities. [Method/Process] This study examines the full lifecycle process of the black box, gray box, and white box stages of government data security governance, and analyzes the opportunities and risks caused by the empowerment of generative artificial intelligence in each stage, and further propose response strategies. [Result/Conclusion] Generative artificial intelligence can significantly enhance pre-monitoring and early warning, emergency response during events, and post feedback evaluation. However, it also introduces governance risks such as data leakage, decision-making errors, and crisis of subjectivity. To mitigate these risks, it is imperative to advancing the refined governance of generative artificial intelligence, improving the comprehensive government data security governance system, and cultivating the full chain government data security governance capability are important strategies to ensure the good technology and governance of generative artificial intelligence.
Keywords: government data security governance generative artificial intelligence full lifecycle data risk prevention and control
收稿日期:2023-11-07 修回日期:2024-02-09