關鍵詞:生成式人工智能;個人信息保護;規(guī)制空間;合作規(guī)制
生成式人工智能的快速發(fā)展與廣泛應用,使個人信息保護面臨巨大風險。為了因應生成式人工智能的個人信息保護風險,各國(地區(qū))也在積極采取治理措施。在比較法中,意大利數(shù)據(jù)保護機構(gòu)于2023年4月對ChatGPT實施了為期一個月的臨時禁令,理由是OpenAI公司未能就其如何處理用戶和數(shù)據(jù)主體的個人數(shù)據(jù)提供透明的通知。歐洲數(shù)據(jù)保護委員會于2023年4月決定成立ChatGPT特別工作組,旨在研究和制定針對人工智能的通用政策,以確保個人數(shù)據(jù)的合法使用和保護。英國信息專員辦公室(ICO)于2024年1月推出一系列公開咨詢,主要內(nèi)容便是探討數(shù)據(jù)保護法的規(guī)定如何應用于生成式人工智能模型的開發(fā)和使用。雖然我國的《生成式人工智能服務管理暫行辦法》和《生成式人工智能服務安全基本要求》(TC260-003)均將“尊重個人信息權(quán)益”作為提供和使用生成式人工智能服務的基本原則,但仍然主要以“告知同意”制度作為實現(xiàn)機制。這不僅可能造成個人信息保護流于形式,而且可能妨礙訓練數(shù)據(jù)的匯聚,有必要進行制度重構(gòu)。在理論上,學術界圍繞生成式人工智能的法律規(guī)制展開了廣泛討論,主要聚焦于生成式人工智能的法律定位、安全風險、內(nèi)容治理等問題,對個人信息保護問題的討論尚顯不足?;诖?,本文以生成式人工智能的個人信息保護風險為研究對象,借助合作規(guī)制和規(guī)制空間理論,結(jié)合國內(nèi)外的最新治理實踐經(jīng)驗,試圖探索契合生成式人工智能的個人信息保護風險治理框架。
一、生成式人工智能中個人信息保護風險的類型化
基礎模型的一個關鍵前提是,海量無標記數(shù)據(jù)集可以與龐大的計算資源相結(jié)合,從而創(chuàng)建一個基礎,并在此基礎上為各種應用衍生出眾多產(chǎn)品。從生成式人工智能的技術邏輯與應用場景來看,其與個人信息處理之間存在密切聯(lián)系。理論上,從數(shù)據(jù)生命周期的角度看,人工智能數(shù)據(jù)集的開發(fā)及使用可以大致分為以下階段:問題建構(gòu)、數(shù)據(jù)收集、數(shù)據(jù)清理、數(shù)據(jù)標注、模型訓練、模型評估、模型部署與推理、數(shù)據(jù)分發(fā)。以此為參照,本文以《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)確立的基本原則及權(quán)利為基準,并將這些原則及權(quán)利映射到最有可能受到影響的階段,以此來建構(gòu)一個同時考慮數(shù)據(jù)生命周期與風險及挑戰(zhàn)的矩陣,如表1所示。這個矩陣的目的是提供一種分析方法,使利益相關者、政策制定者和監(jiān)管者能夠更容易地了解不同階段存在的個人信息保護風險。
(一)告知同意與選擇決定面臨的風險與挑戰(zhàn)
“告知同意”歷來是個人信息保護制度中的重要原則之一,不僅是個人信息處理行為的合法性來源,其背后更是關涉?zhèn)€人的自主性、知情權(quán)、選擇權(quán)與決定權(quán)等權(quán)利。長期以來,學者們從各個角度對“告知同意”在個人信息保護中的實效性提出批判質(zhì)疑。基于社會學的批判意見認為,大多數(shù)人在大多數(shù)時候都會忽略大多數(shù)隱私政策;基于認知的批判意見認為,即使人們確實看了隱私政策,他們也難以理解這些充斥著專業(yè)術語且冗長的內(nèi)容。在生成式人工智能中,告知同意與選擇決定所面臨的風險與挑戰(zhàn)更加嚴峻。一方面,生成式人工智能涉及的數(shù)據(jù)集來源非常廣,既包括從第三方供應商處購買的數(shù)據(jù)集,也包括通過網(wǎng)絡爬蟲自行收集的數(shù)據(jù)集,還包括用戶直接提供的數(shù)據(jù),所涉主體的多樣性及關系的復雜性,導致告知同意與選擇決定缺乏適用的現(xiàn)實條件。另一方面,生成式人工智能所涉及的數(shù)據(jù)規(guī)模巨大,如眾所周知的大語言模型GPT-3是在45TB的文本數(shù)據(jù)上訓練出來的,在此種情況下,要想從每個信息主體那里獲得同意充滿困難。
就告知同意與選擇決定面臨的風險與挑戰(zhàn)而言,如表1所示,主要與三個階段密切相關:首先是數(shù)據(jù)收集階段。如前所述,由于生成式人工智能所涉數(shù)據(jù)的規(guī)模巨大且來源復雜,這導致同意的一般有效要件(如具有同意的能力、充分知情、自愿且明確作出)難以得到滿足,“形式主義”的同意已經(jīng)成為規(guī)避許多其他實質(zhì)性個人信息保護義務的一種方式。其次是模型訓練階段。由于模型訓練涉及對大量個人信息的加工、分析和利用,為了最大限度提高大模型的性能,未經(jīng)用戶的同意就將其個人信息作為訓練數(shù)據(jù)便逐漸成為常態(tài)。最后是模型部署與推理階段。這一階段涉及對個人信息的進一步使用和提供,甚至可能涉及對敏感個人信息的自動化處理,在此情況下,個人信息的使用和提供極易超出個人同意的范圍,而且難以滿足單獨同意的特殊要求。
(二)目的明確與最小化面臨的風險與挑戰(zhàn)
在個人信息保護理論與實踐中,目的明確與最小化通常包含了三個層次:一是目的特定,即處理個人信息應當具有明確、合理的目的;二是直接相關,即處理個人信息的活動必須與處理目的直接相關;三是采取對個人權(quán)益影響最小的方式。在生成式人工智能中,目的明確與最小化也面臨風險與挑戰(zhàn)。一方面,個人信息處理目的難以在數(shù)據(jù)收集階段完全確定,難以達到明確且合理的標準,原因在于大數(shù)據(jù)、算法等底層技術的價值恰好就在于挖掘隱藏的信息或?qū)π畔⑦M行變革性利用,在一個充滿“驚人關聯(lián)”和計算機生成發(fā)現(xiàn)的世界中,很難預先知道“什么是必要的”;另一方面,基礎大模型的跨領域、跨場景應用,極易導致個人信息的處理目的脫離初始目的,因為這些算法并不總是由程序員設計或初步理解的,而且可能越來越多地由計算機創(chuàng)建。
就目的明確與最小化面臨的風險與挑戰(zhàn)而言,如表1所示,主要與四個階段密切相關:一是在數(shù)據(jù)收集階段,必須確保收集的數(shù)據(jù)是用于明確的目的,并且只收集實現(xiàn)這個目的所必需的最少量數(shù)據(jù)。然而,由于生成式人工智能的模型訓練通常需要大量的數(shù)據(jù),這可能導致過度收集數(shù)據(jù)的風險。二是在模型訓練階段、模型部署及推理階段以及數(shù)據(jù)分發(fā)階段,由于涉及個人信息的二次使用或者向其他個人信息處理者提供或公開個人信息,即使在數(shù)據(jù)收集階段能夠完全確立信息處理目的,但是二次使用或提供也極易違反初始目的的限制和約束,導致個人信息的違法處理。
(三)公開透明與信息訪問面臨的風險與挑戰(zhàn)
公開透明與信息訪問密切相關,只有公開個人信息的處理規(guī)則和明示處理的目的、方式和范圍,個人信息主體才能充分了解自身個人信息將面臨何種處理活動,進而作出進一步的決定。在傳統(tǒng)的信息處理場景中,公開透明的實現(xiàn)方式以及信息訪問的可見性更為直接,相比較而言,生成式人工智能提出了獨特的挑戰(zhàn)。一方面,在生成式人工智能中,個人信息是否被處理以及通過何種方式處理,通常只能通過回應某些提示時生成的特定輸出才能顯現(xiàn)。這意味著在沒有進行深入調(diào)查的情況下,確定個人信息是否被違法處理具有挑戰(zhàn)性。另一方面,如前所述,信息處理目的在很多情況下難以完全確定,再加上受到經(jīng)濟因素與技術復雜性及隱蔽性的影響,導致公開透明與信息訪問的難度加大,出現(xiàn)異化、限制及萎縮的困境。
就公開透明與信息訪問面臨的風險與挑戰(zhàn)而言,如表1所示,其主要與兩個階段密切相關:一是數(shù)據(jù)收集階段,由于受到市場競爭、商業(yè)模式迭代、技術復雜性等主客觀因素的影響,生成式人工智能服務提供者在數(shù)據(jù)收集階段完全明示個人信息的處理目的、方式和范圍的可能性較小。二是模型部署及推理階段,生成式人工智能模型是前代神經(jīng)網(wǎng)絡模型的自然延伸,這不同于傳統(tǒng)的數(shù)據(jù)存儲系統(tǒng),個人信息被嵌入到復雜的機器學習模型中,這便增加了完全明示信息的處理方式及范圍或者允許信息主體準確訪問其個人信息的難度。
(四)信息質(zhì)量與更正刪除面臨的風險與挑戰(zhàn)
個人信息處理活動與個人權(quán)益有著千絲萬縷的關系,個人信息質(zhì)量的好壞在許多場合決定個人權(quán)益是否產(chǎn)生不利影響,甚至受到損害。信息質(zhì)量的客觀標準是“準確性”和“完整性”,其與更正權(quán)、刪除權(quán)等權(quán)利的行使密切相關。生成式人工智能不僅對信息質(zhì)量原則提出根本性挑戰(zhàn),而且還從客觀上造成更正權(quán)、刪除權(quán)等權(quán)利難以行使。就信息質(zhì)量原則的挑戰(zhàn)而言,一方面,從網(wǎng)絡上收集的海量數(shù)據(jù)繼承了類似人類的偏見,再加上訓練數(shù)據(jù)集缺乏多樣性,導致生成式人工智能模型不僅強化了刻板印象,事實上還放大了,即所謂的“偏見進,偏見出”;另一方面,“幻覺”(hallucinations)問題被公認為是目前生成式人工智能模型最大的問題之一,它是指生成式人工智能模型在輸出內(nèi)容或信息時,不基于真實數(shù)據(jù),而是自信地編造事實的現(xiàn)象。這些編造的事實可能與訓練數(shù)據(jù)中的某些模式或特征相似,但實際上并不真實或準確。
就更正刪除面臨的挑戰(zhàn)而言,一方面,由于公開透明和告知同意本身存在缺陷,這種模糊性通常使個人不清楚其個人信息是否被生成式人工智能模型處理,從而使其行使更正、刪除等權(quán)利變得更加復雜。另一方面,即使個人意識到其個人信息被生成式人工智能模型處理并尋求更正或刪除,這種請求在技術上的可行性卻不高,原因在于生成式人工智能中的數(shù)據(jù)具有不可檢索性,難以準確追蹤特定個人的信息。從數(shù)據(jù)生命周期的角度看,信息質(zhì)量與更正刪除面臨的風險與挑戰(zhàn)最有可能發(fā)生在數(shù)據(jù)清理、數(shù)據(jù)標注、模型訓練、模型評估、模型部署與推理等階段。
(五)安全責任與信息泄露面臨的風險與挑戰(zhàn)
安全責任原則是個人信息保護制度中的重要原則之一,它要求個人信息處理者應當采取必要的措施保障個人信息的完整性、保密性和可用性,避免未經(jīng)授權(quán)訪問、非法使用、泄露及篡改。近年來,大規(guī)模的個人信息泄露事件屢見不鮮,而在生成式人工智能中,安全責任與信息泄露面臨更加獨特的風險與挑戰(zhàn)。一方面,生成式人工智能模型的訓練數(shù)據(jù)中可能會包含敏感個人信息,而模型可能會“記住”訓練數(shù)據(jù)中的細節(jié),也就是說,模型輸出可能會無意中泄露敏感個人信息;另一方面,惡意使用者可以通過“越獄攻擊”(jailbreak),繞過生成式人工智能模型的保護措施,使其輸出不符合預期或不安全的內(nèi)容,如暴力、色情、歧視、敏感信息等。
就安全責任與信息泄露面臨的風險與挑戰(zhàn)而言,如表1所示,其與三個階段密切相關:一是數(shù)據(jù)標注階段,可能會涉及對個人信息的處理,如對人臉、聲音等生物特征信息進行標注。如果數(shù)據(jù)標注者沒有采取必要的安全措施,如加密、脫敏、匿名化等,就可能導致個人信息的泄露或者濫用。二是模型部署與推理階段,可能會存在模型的泄露、不安全的應用、不安全的應用訪問等風險,導致敏感信息的泄露,或者產(chǎn)生不準確甚至錯誤的結(jié)果。三是數(shù)據(jù)分發(fā)階段,如果數(shù)據(jù)的接收方?jīng)]有采取適當?shù)臄?shù)據(jù)保護措施,可能會導致數(shù)據(jù)泄露。
二、生成式人工智能中個人信息保護風險治理的路徑選擇
面對生成式人工智能的個人信息保護風險,我們到底應當采取何種治理路徑呢?與傳統(tǒng)技術相比,生成式人工智能在技術發(fā)展和模式塑造方面具有高度的不確定性,導致現(xiàn)有的治理路徑面臨困境。正如荷蘭學者索菲亞·蘭喬達斯(Sofia Ranchordas)所指出的,規(guī)制機構(gòu)正處于十字路口,一方面,新興產(chǎn)業(yè)的創(chuàng)新不應被過度和過時的規(guī)制框架所扼殺;另一方面,確實有必要保護新興產(chǎn)業(yè)服務的用戶免受侵害?;诖?,有必要對既有的治理路徑進行分析評估。
(一)自上而下的集中式規(guī)制之不足
長期以來,政府主導是我國經(jīng)濟社會發(fā)展的基本模式,行政權(quán)幾乎滲透到社會生活的各個角落,命令控制型規(guī)制成為諸多領域的主導模式,新興技術領域亦不例外。就生成式人工智能中的個人信息保護風險治理而言,我國目前主要采取自上而下的(top-down)集中式規(guī)制,即由國家或政府主導,通過制定法律、行政法規(guī)、部門規(guī)章等規(guī)制規(guī)則,對生成式人工智能技術的研發(fā)、應用等活動進行統(tǒng)一規(guī)范和監(jiān)督管理。由于政府在整個治理格局中擁有最高的權(quán)威性,以國家高權(quán)作為其參與治理的后盾,因此自上而下的集中式治理有助于推動個人信息保護的基本原則及規(guī)則在生成式人工智能中的實施。然而,生成式人工智能本身屬于迭代快速的復雜技術,自上而下的集中式規(guī)制也面臨一些困境,難以有效因應個人信息保護面臨的風險與挑戰(zhàn)。
第一,既有規(guī)制規(guī)則主要側(cè)重于“規(guī)則之治”,忽視了“代碼之治”在整個人工智能治理中的重要性。既有規(guī)制規(guī)則制定了一系列行為規(guī)則,主要涉及生成式人工智能的使用范圍、隱私保護、數(shù)據(jù)安全等方面,其預設的對象主要是“人”,更具體地說是生成式人工智能服務的提供者。然而,由于生成式人工智能并非一個單一的技術手段,而是具有系統(tǒng)性、階段性、高度自主性的技術集合體。因此,僅僅依靠以“人”為適用對象的行為規(guī)則恐難以適應生成式人工智能的規(guī)制需求,需要通過技術手段來約束和規(guī)范生成式人工智能的“行為”,即所謂的“代碼之治”。此外,既有規(guī)制規(guī)則大多以前大數(shù)據(jù)時代的個人信息處理活動作為預設的調(diào)整對象,主要采用基于權(quán)利的方法,難以適應生成式人工智能中個人信息處理活動之特殊性。知情權(quán)、訪問權(quán)、刪除權(quán)等權(quán)利在“一對一”的顯性個人信息處理關系中尚且具有適用空間,但是一旦進入“多對一”“一對多”以及“多對多”的隱性個人信息處理關系中,所涉主體的類別更為多元、規(guī)模更為龐大,導致上述權(quán)利難以行使。
第二,既有規(guī)制主體主要依靠傳統(tǒng)官僚機構(gòu)的“正式權(quán)力”,忽視了其他主體的“非正式權(quán)力”。傳統(tǒng)的官僚機構(gòu)在規(guī)制生成式人工智能發(fā)展中發(fā)揮著重要作用,其正式權(quán)力在制定政策、法規(guī)和標準方面具有不可替代的地位。然而,隨著生成式人工智能技術的不斷發(fā)展,政府在治理中也面臨著挑戰(zhàn)。一方面,政府的官僚體制往往過于龐大,決策效率低下,難以適應人工智能快速變化的特點;另一方面,政府在制定政策時往往忽視了其他主體的意見和利益,導致治理措施的實際效果不盡如人意。因此,政府應當在規(guī)制人工智能時,充分考慮到其他主體的“非正式權(quán)力”,利用其他主體的信息優(yōu)勢和技術優(yōu)勢,形成更加包容和有效的治理格局。
第三,既有規(guī)制執(zhí)行受傳統(tǒng)“威懾式規(guī)制策略”的影響,監(jiān)督執(zhí)行過程具有非難性、對抗性和滯后性,忽視了對被規(guī)制者的勸服。自上而下的集中式治理往往采用的是“威懾式規(guī)制策略”,即通過設置高昂的違規(guī)成本,來威懾和懲罰那些違反規(guī)則的行為。這種規(guī)制策略,雖然在一定程度上可以起到預防和制止的作用,但也存在一些問題和局限性。一方面,這種規(guī)制執(zhí)行策略往往是基于對生成式人工智能的不信任,而不是基于對生成式人工智能的理解和尊重,因此會導致規(guī)制執(zhí)行過程具有非難性和對抗性,即規(guī)制機構(gòu)和被規(guī)制者之間的關系是敵對的,而不是合作的。這不僅會影響生成式人工智能的創(chuàng)新和發(fā)展,也會增加規(guī)制執(zhí)行的難度和成本。另一方面,生成式人工智能的研發(fā)及部署可能是不顯眼的(只需要很少的物理基礎設施)、離散的(人工智能系統(tǒng)的不同組件可能是在沒有特意協(xié)調(diào)的情況下設計的)、分散的(一個人工智能項目可能是由身處不同地方的幾十個人參與)和不透明的(外部觀察者可能無法發(fā)現(xiàn)人工智能系統(tǒng)潛在的有害特征)。這導致規(guī)制執(zhí)行過程具有滯后性,不僅會造成規(guī)制標準的失效和失準,也會引發(fā)規(guī)制效果的不確定和不可預測。
(二)自下而上的分散式規(guī)制之局限
在規(guī)制理論中,自我規(guī)制作為傳統(tǒng)上所謂命令控制型規(guī)制的替代方案,它利用規(guī)制對象的信息優(yōu)勢,讓規(guī)制對象承擔起規(guī)制自身的任務,屬于自下而上(bottom-up)的規(guī)制方法。長期以來,由于受到“發(fā)展型國家”模式的影響,我國互聯(lián)網(wǎng)領域的治理政策嵌入了濃厚的“發(fā)展導向主義”,抽象意義上的產(chǎn)業(yè)發(fā)展指標通常優(yōu)先于權(quán)利保護、風險安全等諸多非經(jīng)濟價值追求。在此背景下,有關個人信息保護的原則、規(guī)則及機制的選擇與設計則主要依賴企業(yè)或行業(yè)的自我規(guī)制。在比較法中,美國的信息隱私保護政策也一直依賴于企業(yè)或行業(yè)協(xié)會的自我規(guī)制,即由企業(yè)或行業(yè)協(xié)會制定有關個人信息收集、使用和轉(zhuǎn)讓的實質(zhì)性規(guī)則以及對其成員適用這些規(guī)則的程序,這為美國的數(shù)字技術創(chuàng)新和產(chǎn)業(yè)發(fā)展提供了足夠的彈性空間。隨著人工智能時代的來臨,受到路徑依賴的影響,自我規(guī)制也成為人工智能領域個人信息保護風險治理的重要路徑,主要措施包括由企業(yè)或行業(yè)協(xié)會制定并發(fā)布倫理標準、制定個人信息處理規(guī)則、成立內(nèi)部的科技倫理委員會等。
從保護個人信息權(quán)益的角度看,自我規(guī)制本身并不是壞事,它可以不受韋伯式官僚主義的束縛,有可能更加靈活和富有創(chuàng)造性。然而,從其他領域的規(guī)制實踐經(jīng)驗來看,純粹的自我規(guī)制框架在治理個人信息保護風險方面存在諸多局限性,可能難以達到理想的效果。一方面,數(shù)據(jù)已經(jīng)成為生成式人工智能的“燃料”,這意味著即使企業(yè)掌握更充分的信息和更先進的技術,但是它們未必有足夠的激勵來為公眾的個人信息權(quán)益保護尋找解決之道:另一方面,由企業(yè)或行業(yè)協(xié)會制定的自我遵守規(guī)則在總體上缺乏透明度,存在搭便車問題,并且沒有監(jiān)督和執(zhí)行機制,確保企業(yè)能夠遵守與個人信息保護相關的自愿性守則(voluntary codes)。此外,還有學者批判性地指出,就信息隱私保護而言,自我規(guī)制可能只是企業(yè)的“遮羞布”,其真正目的是規(guī)避更嚴格的政府規(guī)制。因此,必須審慎考量自我規(guī)制機制的設計,確保其不僅能夠反映專業(yè)知識,也能夠兼顧民主原則和公眾利益,進而提升自愿性守則制定的正當性以及公眾的認同感。
(三)邁向自中而外的方法:合作型規(guī)制空間
鑒于自上而下的集中式規(guī)制和自下而上的分散式規(guī)制存在不足,理論與實踐逐漸倡導一種自中而外的(middle-out)規(guī)制方法,即利用“中間”這一空間將“上游”和“下游”的利益相關者以及與之相關的法律、政策、計劃、程序、機制等結(jié)合起來,形成一個合作型規(guī)制空間?!耙?guī)制空間”(regulatory space)理論是由英國學者漢徹和莫蘭在克勞奇構(gòu)建的“政策空間”理論基礎上演化而來的,其主張采用全局考量的進路,關注規(guī)制環(huán)境中各主體之間的互動合作關系,關注權(quán)威及其他權(quán)力來源的多樣性,以及各種利益與行為的復雜存在。在此背景下,參照美國學者凱瑟琳-詹德布(Kathryn B.Jandab)等提出的理論框架,可以將生成式人工智能的合作型規(guī)制空間用圖1表示。
如圖1所示,就生成式人工智能的治理而言,合作型規(guī)制空間的構(gòu)成要素具有如下特征:首先,法律不是唯一的規(guī)制規(guī)則,技術標準以及倫理原則也是重要的規(guī)制規(guī)則。即便是法律,主要規(guī)則并不占據(jù)主導地位,大量的次要規(guī)則充斥其中。其次,上游行為者(立法機關、行政機關等)不再獨攬規(guī)制權(quán)威,中間行為者(行業(yè)協(xié)會、研究機構(gòu)等)也發(fā)揮重要的規(guī)制作用。不同規(guī)制主體之間并非傳統(tǒng)的對抗關系,而是轉(zhuǎn)向合作關系。最后,不同的規(guī)制體系之間并非孤立地存在,可以進行任意組合,最終實現(xiàn)法律、技術、倫理與市場之間的平衡。
從功能主義的視角出發(fā),合作型規(guī)制空間在生成式人工智能治理體系中扮演著多重角色,其影響模式主要可歸納為以下三個方面:
首先,合作型規(guī)制空間具有顯著的促成作用。這一作用主要體現(xiàn)在通過提供必要的信息交流平臺,確定并整合規(guī)制資源的來源,起草和形成法律規(guī)則,以及建立和維護利益相關者之間的互動關系。通過這些活動,合作型規(guī)制空間有助于開啟新的政策制定的大門,促進生成式人工智能的規(guī)制創(chuàng)新,同時鞏固和加強各利益相關者之間的合作關系,為其間的互信與互助打下堅實基礎。
其次,合作型規(guī)制空間發(fā)揮著重要的中介作用。它通過提供溝通對話的正式或非正式機制,為不同的立場、價值觀念以及利益訴求搭建一個交流協(xié)調(diào)的平臺。在這個平臺上,各方面可以通過對話和協(xié)商,尋求共識,處理分歧,從而在不同利益之間實現(xiàn)有效的協(xié)調(diào)與平衡。這種中介作用對于緩解沖突、構(gòu)建和諧的人機共存關系具有不可或缺的重要性。
最后,合作型規(guī)制空間還具備聚合作用。它能夠?qū)⒎稚⒌睦婧唾Y源聚集起來,形成合力,以推動共同的目標實現(xiàn)。在這個過程中,合作型規(guī)制空間不僅僅是資源和信息的集散地,更是協(xié)同共治的催化劑,通過聚合各方力量,合作型規(guī)制空間能夠有效地增強生成式人工智能規(guī)制政策的實施力度和社會影響力,進而提升整個治理體系的效能。
綜上所述,處于規(guī)制譜系兩端的“自上而下的集中式規(guī)制”和“自下而上的分散式規(guī)制”存在局限性,難以有效適應生成式人工智能中個人信息保護的規(guī)制需求。為了在人工智能技術創(chuàng)新與個人信息權(quán)益保護之間取得適當平衡,應當采取“自中而外的規(guī)制方法”,建構(gòu)合作型規(guī)制空間,整合各類規(guī)制規(guī)則、規(guī)制主體和規(guī)制工具,最終實現(xiàn)生成式人工智能的合作共治。
三、規(guī)制空間理論視域下個人信息保護風險的合作規(guī)制
按照合作型規(guī)制空間的構(gòu)成要素及影響方式,本文認為,可以通過調(diào)整和激活不同規(guī)制體系的回應性和敏捷性,推動生成式人工智能中個人信息保護風險的合作規(guī)制。
(一)建構(gòu)契合生成式人工智能的科技法律
法律對技術變革的反應主要有三種方式:涵攝、漸進式創(chuàng)新和范式轉(zhuǎn)變。當技術變革顛覆理論規(guī)則、改變權(quán)力關系、激化更深層次的社會矛盾時,一系列科技法律問題也隨之而來?!翱萍挤伞保═echlaw)旨在彌補傳統(tǒng)法律規(guī)制在應對技術風險方面的不足,如法律滯后、執(zhí)行困難等,在新的社會法律背景下以最佳方式解決熟悉的法律不確定性??萍挤傻呐d起和發(fā)展與數(shù)字技術的快速發(fā)展及創(chuàng)新密切相關,特別是在人工智能、區(qū)塊鏈、物聯(lián)網(wǎng)等領域??萍挤芍鲝垖⒎梢?guī)則和原則嵌入到技術系統(tǒng)中,使得技術系統(tǒng)在運行過程中自動遵守法律要求(如“代碼即法律”)。在理論上,也有論者將“科技法律”稱為“法律3.0”,即將技術性措施作為法律秩序的一部分,“我們必須在一個不再局限于由規(guī)則或規(guī)范所引導的規(guī)制環(huán)境中重新構(gòu)想法律,從而矯正對法律1.0的執(zhí)迷。換句話說,我們必須為法律3.0的技術主義維度創(chuàng)造空間”。
在比較法中,歐盟《一般數(shù)據(jù)保護條例》第25條“通過設計及默認保護數(shù)據(jù)”是科技法律的集中體現(xiàn),主要來源于早期的“通過設計保護隱私”原則。歐盟《人工智能法》在第10條體現(xiàn)了“通過設計保護數(shù)據(jù)”原則,并成為人工智能領域數(shù)據(jù)保護的指導性方針。根據(jù)該條規(guī)定,人工智能系統(tǒng),尤其是那些涉及使用數(shù)據(jù)來訓練模型的系統(tǒng),在開發(fā)時應當考慮一些不可或缺的數(shù)據(jù)治理實踐,主要包括:(1)相關的設計選擇;(2)數(shù)據(jù)收集過程;(3)數(shù)據(jù)準備處理操作,如注釋、標記、清理、更新、擴充和聚合;(4)對所需數(shù)據(jù)集的可用性、數(shù)量和適當性進行評估;(5)采取適當措施,發(fā)現(xiàn)、防止和紓解可能的偏見;等等。
在我國法語境下,《個人信息保護法》中并未設計類似于歐盟《一般數(shù)據(jù)保護條例》第25條的規(guī)定,而“人工智能法草案”尚處于討論制定中。為了妥善處理生成式人工智能的個人信息保護風險,應當在“人工智能法草案”中為“技術主義”預留空間,可以采用兩方面的措施:一是應當在“人工智能法草案”中規(guī)定“通過設計保護數(shù)據(jù)”原則,設計類似于歐盟《人工智能法》第10條的條款,要求在設計生成式人工智能系統(tǒng)時,應當從根本上考慮如何保護用戶的個人信息,而不是事后進行補救。二是應當在“人工智能法草案”中確立“技術規(guī)制技術”的理念,要求生成式人工智能服務提供方積極開發(fā)“基于人工智能的隱私增強技術”,既可以利用人工智能來界定信息隱私本身,也可以將人工智能作為個人信息保護的審計者和監(jiān)督者。
除此之外,在制定“人工智能法草案”時,還應當妥善處理好該法與《中華人民共和國民法典》《個人信息保護法》《中華人民共和國數(shù)據(jù)安全法》等法律的關系,既要尊重個人信息保護的基本價值,同時也應當考慮人工智能中個人信息處理活動的特殊性。事實上,生成式人工智能背景下的數(shù)據(jù)處理模式很難甚至不太可能與傳統(tǒng)的個人信息保護原則相協(xié)調(diào)。這一矛盾所導致的復雜法律問題首先歸咎于在起草個人信息保護法時沒有充分考慮到人工智能場景,因此有必要調(diào)整或修改現(xiàn)有的法律框架。
第一,確立基于風險的個人信息保護原則與規(guī)則。研究已經(jīng)表明,在人工智能時代,基于權(quán)利的方法普遍遭遇現(xiàn)實困境,諸多權(quán)利不具備有效行使的基本條件。對此,應當從兩個方面確立基于風險的個人信息保護原則與規(guī)則:一是將風險預防原則作為生成式人工智能中個人信息保護的基本原則;二是進一步加強算法審計、個人信息保護影響評估制度等風險控制機制的適用性。
第二,重塑生成式人工智能中個人信息的認定及相關保護規(guī)則。目前,我國的法律法規(guī)對于個人信息的認定,主要是基于傳統(tǒng)的數(shù)據(jù)處理方式,即以確定或可確定特定自然人為標準。然而,生成式人工智能可能會通過復雜的算法和邏輯,將看似無關的數(shù)據(jù)關聯(lián)起來,從而識別出特定自然人或社會人群。因此,有必要對以下幾類信息的保護規(guī)則作出回應:一是重新審視“匿名化個人信息”和“已公開個人信息”的保護規(guī)則,原因在于這兩類信息都是訓練數(shù)據(jù)集的重要來源,在生成式人工智能的處理中,前者的去匿名化風險大幅提高,后者也面臨再隱私化風險。二是明確“推理性個人信息”和“群體性信息”的保護規(guī)則,應當要求模型開發(fā)者向公眾報告其信息處理方法,并給個人提供“選擇退出”數(shù)據(jù)收集或匯聚的機制。
第三,以人工智能價值鏈合理分配個人信息保護義務與責任?,F(xiàn)有的個人信息保護立法通常將復雜的個人信息處理關系簡化為“個人信息處理者一個人信息主體”關系,并以此來分配權(quán)利和義務。然而,在生成式人工智能價值鏈中,所涉及的主體通常包括開發(fā)者、部署者、用戶、接收者等,個人信息處理關系變得更為復雜,需要充分考慮風險收益、合規(guī)成本、技術可行性等因素,合理分配個人信息保護義務和責任。若只關注開發(fā)者可能會導致過多和低效的合規(guī)義務;若只關注部署者和用戶可能會給一些因知識或資源有限而無法合規(guī)的主體帶來不合比例的負擔。
第四,建構(gòu)可信的公共訓練數(shù)據(jù)空間。在生成式人工智能中,絕大多數(shù)個人信息處理活動及風險均與訓練數(shù)據(jù)集的開發(fā)有關。對此,《生成式人工智能服務管理暫行辦法》第6條規(guī)定,要推動公共訓練數(shù)據(jù)資源平臺建設,擴展高質(zhì)量的公共訓練數(shù)據(jù)資源。本文認為,相關立法可以從以下兩個方面切入推動建構(gòu)可信的公共訓練數(shù)據(jù)空間:一是明確訓練數(shù)據(jù)的質(zhì)量標準及監(jiān)管措施,前者可能包括準確性、及時性、完整性等,后者可能包括持續(xù)監(jiān)測和評估訓練數(shù)據(jù)等。二是對規(guī)劃、設計、實施和維護公共訓練數(shù)據(jù)空間的法律要求進行規(guī)定,明確相關參與者的職責。
(二)引入監(jiān)管沙盒促成行政規(guī)制的包容審慎
監(jiān)管沙盒(regulatory sandbox)是指規(guī)制機構(gòu)為新興行業(yè)或技術提供一種創(chuàng)新試驗場,允許企業(yè)在一定的監(jiān)管框架下進行實驗和創(chuàng)新,同時規(guī)制機構(gòu)可以收集數(shù)據(jù)和了解相關風險,最終促成行政規(guī)制的包容審慎。數(shù)字化轉(zhuǎn)型對規(guī)制機構(gòu)提出了內(nèi)在挑戰(zhàn)。規(guī)制過早,就有可能阻礙創(chuàng)新;規(guī)制過晚,又可能使具有破壞性和危害性的創(chuàng)新進入市場和社會。因此,實驗性立法和監(jiān)管沙盒便成為數(shù)字化轉(zhuǎn)型中的主要規(guī)制工具。在比較法中,歐盟《人工智能法》便將監(jiān)管沙盒作為規(guī)制學習(regulatory learning)和創(chuàng)建“靈活、有利于創(chuàng)新、面向未來、以證據(jù)為基礎、有彈性的規(guī)制框架”的工具,以應對人工智能的顛覆性挑戰(zhàn)。
在生成式人工智能的個人信息保護方面,監(jiān)管沙盒可以起到以下三個方面的作用:首先,監(jiān)管沙盒規(guī)制可以提供一個安全的環(huán)境,保護個人信息不被濫用。通過設立監(jiān)管沙盒,可以限制生成式人工智能的數(shù)據(jù)訪問權(quán)限,確保個人數(shù)據(jù)得到充分的保護。規(guī)制機構(gòu)可以對生成式人工智能的數(shù)據(jù)使用和處理進行監(jiān)督,及時發(fā)現(xiàn)和糾正個人信息保護方面的問題。其次,監(jiān)管沙盒規(guī)制可以加強對生成式人工智能的算法和模型的審查。生成式人工智能的算法和模型是個人信息保護的關鍵。通過監(jiān)管沙盒規(guī)制,規(guī)制機構(gòu)可以對生成式人工智能的算法和模型進行審查和評估,確保其不會泄露個人隱私信息。最后,監(jiān)管沙盒規(guī)制可以建立一套有效的監(jiān)管機制,對生成式人工智能的應用場景進行監(jiān)督和管理,防止個人信息被濫用或不當使用。
根據(jù)監(jiān)管沙盒在其他領域的實踐經(jīng)驗,結(jié)合生成式人工智能的特性,通過監(jiān)管沙盒規(guī)制生成式人工智能的個人信息保護風險,可以采取如下程序:第一,確定適用范圍。監(jiān)管沙盒應該針對那些涉及個人信息處理或使用的生成式人工智能項目或產(chǎn)品,例如基于人臉識別的生成式圖像、基于語音識別的生成式音頻、基于文本分析的生成式文本等。第二,申請入駐。生成式人工智能項目或產(chǎn)品的開發(fā)者或提供者應該向規(guī)制機構(gòu)提交申請,說明項目或產(chǎn)品的目標、功能、技術原理、數(shù)據(jù)來源、數(shù)據(jù)處理方式、數(shù)據(jù)安全措施、風險評估等相關信息,并承諾遵守監(jiān)管沙盒的規(guī)則和要求。第三,審核通過。規(guī)制機構(gòu)應當對申請進行審核,評估項目或產(chǎn)品是否符合監(jiān)管沙盒的條件和標準,是否有利于技術創(chuàng)新和社會發(fā)展,是否有可能造成個人信息保護方面的風險或損害。如果審核通過,則允許項目或產(chǎn)品進入監(jiān)管沙盒進行試驗和測試。第四,實施監(jiān)督。規(guī)制機構(gòu)應當對進入監(jiān)管沙盒的項目或產(chǎn)品進行持續(xù)和有效的監(jiān)督,要求開發(fā)者或提供者定期報告試驗和測試的進展和結(jié)果,并及時發(fā)現(xiàn)和處理任何可能出現(xiàn)的問題或異常。同時,規(guī)制機構(gòu)也應當向公眾透明地披露監(jiān)管沙盒的運行情況和評估結(jié)果。第五,退出機制。監(jiān)管沙盒應當設定明確的退出機制,規(guī)定項目或產(chǎn)品在監(jiān)管沙盒中試驗和測試的期限和范圍,并根據(jù)試驗和測試的結(jié)果,決定項目或產(chǎn)品是否可以在正式的市場環(huán)境中運行或推廣,或者是否需要進行修改或完善。
(三)利用分層治理實現(xiàn)提供方的自我規(guī)制
在規(guī)制空間中,當規(guī)制問題過于復雜,或某個行業(yè)存在異質(zhì)性,或處于動態(tài)演進之中時,更適合去選用自我規(guī)制,因為規(guī)制對象可能對自身運營掌握著更多的信息與知識,因此更有可能找到最符合成本有效性要求的解決方案。生成式人工智能尚處于發(fā)展演變中,生成的內(nèi)容可能泄露或誤用用戶的隱私數(shù)據(jù),或者生成的內(nèi)容可能被惡意篡改或偽造,造成用戶的信任危機或法律糾紛。為了有效地防范和應對這些風險,生成式人工智能中的個人信息保護有必要采取自我規(guī)制的方式:一是自我規(guī)制可以更靈活地適應生成式人工智能的快速發(fā)展和變化,避免法律法規(guī)的滯后或過度干預。二是自我規(guī)制可以更有效地利用生成式人工智能服務提供方的專業(yè)知識和技術能力,提高個人信息保護的水平和效率。根據(jù)理論與實踐經(jīng)驗,本文認為,可以從數(shù)據(jù)、模型、內(nèi)容三個層面構(gòu)建生成式人工智能中個人信息保護風險的自我規(guī)制路徑。
第一,數(shù)據(jù)層面。生成式人工智能的開發(fā)者需要確保數(shù)據(jù)的來源合法、合規(guī)、合理,避免使用非授權(quán)或非公開的個人信息數(shù)據(jù)。同時,生成式人工智能的開發(fā)者也需要對數(shù)據(jù)進行脫敏、加密、分割等處理,降低數(shù)據(jù)被竊取或篡改的可能性。此外,生成式人工智能的開發(fā)者還應該建立數(shù)據(jù)的生命周期管理機制,規(guī)定數(shù)據(jù)的收集、存儲、使用、刪除等環(huán)節(jié)的標準和流程。
第二,模型層面。生成式人工智能的開發(fā)者需要采用可解釋、可驗證、可審計的生成式人工智能模型,提高模型的透明度和可信度。同時,生成式人工智能的開發(fā)者也需要對模型進行評估、測試、監(jiān)督等操作,檢測和消除模型中可能存在的偏差、誤差、漏洞等問題。此外,生成式人工智能的開發(fā)者還應該建立模型的責任追溯機制,明確模型的開發(fā)者、提供者、使用者等各方的權(quán)利和義務,確保模型的合法性和合理性。
第三,內(nèi)容層面。生成式人工智能的開發(fā)者需要對生成式人工智能產(chǎn)生的內(nèi)容進行標注、披露、審核等措施,區(qū)分和標識內(nèi)容的真實性和來源。同時,生成式人工智能的開發(fā)者也需要對內(nèi)容進行篩選、過濾、刪除等操作,防止內(nèi)容涉及侵犯個人隱私。此外,生成式人工智能的開發(fā)者還應該建立內(nèi)容的質(zhì)量評估機制,評價內(nèi)容的準確性、可靠性、有效性等指標,提升內(nèi)容的質(zhì)量。
(四)完善評估認證實現(xiàn)社會的第三方規(guī)制
相比于行政機關的直接規(guī)制和被規(guī)制者的自我規(guī)制,以第三方評估認證為代表的第三方規(guī)制具備諸多優(yōu)勢,包括高超的專業(yè)技術、對被規(guī)制者更好的檢查和監(jiān)督、對消費者更快的響應以及更高的效率。就生成式人工智能的個人信息保護風險治理而言,也有必要由具備專業(yè)性、公信力和權(quán)威性的組織或機構(gòu)(如行業(yè)協(xié)會、專業(yè)機構(gòu)、科研院所等)來對個人信息保護問題進行第三方評估認證。一方面,第三方評估認證可以充分利用社會組織的專業(yè)技術知識,提高生成式人工智能系統(tǒng)的個人信息保護水平,減少個人信息泄露和濫用的風險。另一方面,第三方評估認證可以增加用戶對生成式人工智能系統(tǒng)的信任,促進其廣泛應用,進而推動生成式人工智能行業(yè)的健康發(fā)展。
為了確保第三方評估認證能夠以具有成本效益的方式改善生成式人工智能的個人信息保護風險治理,可以采取如下措施:第一,確保第三方評估認證機構(gòu)的專業(yè)性和獨立性。第三方評估認證機構(gòu)應當具備專業(yè)的技術能力和豐富的經(jīng)驗,在評估生成式人工智能系統(tǒng)的個人信息保護措施時能夠進行全面、客觀和準確的評估。因此,應當通過法律法規(guī)對第三方評估認證機構(gòu)的專業(yè)技術能力、資格條件、質(zhì)量控制體系、職業(yè)操守等方面進行規(guī)定。第二,建立并實施有效的評估認證制度。第三方評估認證機構(gòu)可以對生成式人工智能系統(tǒng)的個人信息保護措施進行全面的檢查和評估:(1)可以要求系統(tǒng)提供相關的技術文檔和安全策略,以了解系統(tǒng)的設計和實施情況。(2)可以對系統(tǒng)進行實地檢查,包括對系統(tǒng)的數(shù)據(jù)存儲設備、網(wǎng)絡連接和安全控制等方面的檢查。(3)可以要求系統(tǒng)進行演示和測試,以驗證系統(tǒng)在處理個人信息時的安全性和合規(guī)性。第三,開展并加強持續(xù)的監(jiān)督和檢查工作。第三方評估認證機構(gòu)對已經(jīng)通過評估認證的生成式人工智能進行定期或不定期的現(xiàn)場或遠程核查,及時發(fā)現(xiàn)并糾正存在的個人信息保護問題。
結(jié)語
與大多數(shù)人工智能系統(tǒng)一樣,生成式人工智能也是數(shù)據(jù)驅(qū)動的。生成式人工智能模型的開發(fā)和使用給個人信息保護帶來了風險與挑戰(zhàn)。本文從數(shù)據(jù)生命周期的角度識別和評估了生成式人工智能中個人信息保護風險的類型,構(gòu)建了一個風險與周期階段相對應的矩陣。生成式人工智能對大規(guī)模數(shù)據(jù)集的依賴放大了這些風險,因此有必要采取一種系統(tǒng)性的整體治理方法。無論是“自上而下的集中式規(guī)制”,還是“自下而上的分散式規(guī)制”,均難以有效因應生成式人工智能中個人信息保護風險的復雜性和系統(tǒng)性。對此,本文提出采用“自中而外的規(guī)制方法”,建構(gòu)合作型規(guī)制空間。通過發(fā)揮合作型規(guī)制空間的促成、中介和聚合作用,既可以促進生成式人工智能技術創(chuàng)新,又能夠確保個人信息權(quán)益得到最大程度的保護。