摘 要:伴隨著生成式人工智能的崛起,無論是訓練數(shù)據(jù)集的跨域、多模態(tài),還是大模型應用潛在的算法歧視,都給傳統(tǒng)個人信息保護模式帶來了多維度的挑戰(zhàn),極大地限制了告知同意、目的限制等原則的現(xiàn)實價值。個人信息保護雖被納入檢察公益訴訟管轄范疇,但生成式人工智能的出現(xiàn)導致主體責任分散多元化等問題,需要行政公益訴訟制度作出回應?;趯Υ竽P汀盎糜X”與多模態(tài)、跨域數(shù)據(jù)集的分析,個人信息保護行政公益訴訟應在預防性規(guī)制和協(xié)作機制方面進行完善。具體的制度完善建議主要集中在建立跨行政區(qū)劃檢察案件管轄體系、“統(tǒng)-分”式行政公益訴訟監(jiān)督網(wǎng)、類案監(jiān)督治理模式以及以公共安全為主體的事前預防模式。
關鍵詞:生成式人工智能;個人信息保護;公益訴訟;大模型
中圖分類號:D925.3" 文獻標識碼:A" 文章編號:
1672-1101(2024)06-0033-08
收稿日期:2024-01-16
基金項目:合肥工業(yè)大學校級項目(JS2024ZSPY0012;JZ2024HGQA0103)
作者簡介:唐林(1992-),男,安徽合肥人,講師,博士,研究方向:數(shù)字法學。
Exploration and" Development of Administrative Public Interest Litigation for Personal Information Protection under" AIGC
TANG Lin
(School of Human and Law,Hefei University of Technology,Hefei" 230011,China)
Abstract: With the rise of" AIGC,whether it is the cross-domain and multi-modal training data sets,or the potential algorithm discrimination in the application of large models,it has brought multidimensional challenges to the traditional personal information protection mode,which greatly restricts" the practical value of the principles of consent and purpose limitation.Although personal information protection has been included in the jurisdiction of" procuratorial public interest litigation,the emergence of" AIGC" has led to problems such as the dispersion and diversification of subject responsibilities,which requires the administrative public interest litigation system to respond.Based on" the analysis of" the“hallucination”in large models and multimodal" cross-domain" datasets,the" administrative public interest litigation" for personal information protection" should be perfected in terms of preventive regulation and coordination mechanism.The specific system improvement suggestions mainly focus on the cross-administrative division procuratorial case jurisdiction system,the “unified and divided” administrative public interest litigation supervision network,the case-type supervision management" mode,and the pre-prevention mode with public safety as the main body.
Key words: AIGC;personal information protection;public interest litigation;large model
2019年,黨的十九屆四中全會通過《中共中央關于堅持和完善中國特色社會主義制度 推進國家治理體系和治理能力現(xiàn)代化若干重大問題的決定》,提出在中國特色社會主義法治體系框架下對當前公益訴訟案件范圍進行拓展。次年,最高人民檢察院第八檢察廳印發(fā)《關于積極穩(wěn)妥拓展公益訴訟案件范圍的指導意見》,進一步指出要積極、穩(wěn)妥探索辦理個人信息保護等領域公益損害案件。2021年,正式生效的《中華人民共和國個人信息保護法》(以下簡稱《個保法》)第70條設置了公益訴訟條款,將個人信息保護納入到檢察公益訴訟的范疇。隨著生成式人工智能(Artificial" Intelligence Generated" Content,AIGC)的崛起,大模型應用的快速部署給個人信息保護帶來了多維度的挑戰(zhàn),如虛假信息傳播、生成內(nèi)容濫用、算法歧視等。本文擬從行政公益訴訟視角,在既有的檢察實踐與制度基礎上,分析生成式人工智能框架下個人信息保護行政公益訴訟的發(fā)展路徑與未來展望。
一、生成式人工智能下的個人信息保護困境
所謂的生成式人工智能,本質是通過人工智能算法對數(shù)據(jù)進行生產(chǎn)、操控,是用于內(nèi)容自動化生成的一類技術集合[1]。2022年,美國人工智能實驗室OpenAI推出生成式人工智能應用ChatGPT,僅僅歷時2個月即累積了1億用戶,成為科技史上增長最快的現(xiàn)象級應用。該應用所依賴的大規(guī)模預訓練模型為知識表示與存儲方式開辟了新的方向——相較于既往的關系型數(shù)據(jù)庫表示方式,大規(guī)模預訓練語言模型主要采用深度學習的新型知識表示方法,通過在互聯(lián)網(wǎng)上收集大量可用數(shù)據(jù),并使用超大規(guī)模的參數(shù)進行訓練,進而實現(xiàn)對自然語言的理解和生成GPT模型基于Transformer架構,通過預訓練大規(guī)模語言模型使其具備對自然語言的理解能力。模型參數(shù)量的不斷增加也使得其性能逐漸提升,從GPT-1的1.17億參數(shù)到GPT-2的15億參數(shù),再到GPT-3的1 750億超大規(guī)模參數(shù)(GPT-4尚未披露具體的參數(shù)量,但參數(shù)量可能會達到100萬億級別),這將進一步提高模型的能力和性能。。
面對美國生成式人工智能大模型的高速發(fā)展,國內(nèi)以百度、阿里巴巴、華為、騰訊為代表的科技巨頭,科大訊飛、商湯科技等AI公司以及上海人工智能研究院、中科院等研究機構都紛紛開始布局大模型產(chǎn)業(yè)。據(jù)不完全統(tǒng)計,目前國內(nèi)主流大模型應用主要包括百度的文心一言、阿里云的通義千問、華為的盤古、科大訊飛的星火、上海人工智能實驗室的書生·浦語、中科院的百聆、商湯科技的日日新等,涵蓋自然語言處理、語音識別、多模態(tài)融合以及智能決策等多個領域和人工智能驅動的科學研究。
然而,大模型背后所依賴的生成式預訓練轉化器(Generative Pre-trained" Transformer,GPT)需要通過海量數(shù)據(jù)學習,將大模型的回答與語料庫中的內(nèi)容進行對比。當前用來訓練大模型的主流數(shù)據(jù)集仍然以英文為主
英文數(shù)據(jù)集有CommonCrawl、BooksCorpus、WiKipedia、ROOT等,最流行的CommonCrawl中文數(shù)據(jù)只占4.8%。,國內(nèi)部分頭部大模型團隊逐步開始利用私有數(shù)據(jù)庫來構建自己的中文數(shù)據(jù)集,并在特定場景和領域中建立核心優(yōu)勢壁壘,確保訓練出更具有效性和準確性的模型
如,百度擁有豐富的內(nèi)容生態(tài)數(shù)據(jù),包括文本、圖像、視頻等。利用這些數(shù)據(jù)可以訓練出更佳的自然語言模型以及更精準的圖像識別和視頻處理模型;騰訊擁有公眾號數(shù)據(jù),包含大量的文章和用戶行為數(shù)據(jù)。這些數(shù)據(jù)可以用于訓練推薦系統(tǒng)或文本生成模型,幫助用戶發(fā)現(xiàn)更加相關的內(nèi)容;知乎積累了大量的問答數(shù)據(jù),可以用于構建問答系統(tǒng)或者語義理解模型,提供更智能的問題回答和語義匹配;阿里巴巴擁有電商和物流數(shù)據(jù),有助于構建商品推薦系統(tǒng)、預測需求和優(yōu)化物流流程。。對于私有數(shù)據(jù)不具備優(yōu)勢的大模型團隊而言,開始全網(wǎng)爬取大規(guī)模、多樣性數(shù)據(jù),有助于訓練更通用的模型,不再局限于特定場景或領域。
不可否認的是,大模型在預訓練階段仍存在諸多數(shù)據(jù)合規(guī)風險:一方面,國內(nèi)大模型團隊構建的中文數(shù)據(jù)集往往會包含大量的公民個人信息,而期望大模型團隊對涉及的所有用戶履行告知同意義務幾乎是難以實現(xiàn)的;另一方面,大模型的預訓練數(shù)據(jù)集來自于開放的公共數(shù)據(jù),對于其處理個人信息是否屬于“合理范圍”以及是否會對個人基本權益造成重大影響等諸多問題依然是不確定的[2]。盡管《生成式人工智能服務管理暫行辦法》第7條提出AIGC提供者需對預訓練與優(yōu)化訓練的數(shù)據(jù)來源合法性負責等要求,但在預訓練過程中使用的中文數(shù)據(jù)集本身具有非接觸性特征,給告知同意原則的適用帶來了極大挑戰(zhàn)——如果每一次數(shù)據(jù)集的使用都必須建立在告知同意的基礎上,那么技術的使用效率將會嚴重受挫,甚至阻礙人工智能產(chǎn)業(yè)的創(chuàng)新,與當前鼓勵人工智能發(fā)展的政策導向相悖[3]。
伴隨著大模型的快速迭代與發(fā)展,含有公民個人信息的中文數(shù)據(jù)集開始呈現(xiàn)集中度高、規(guī)模大、領域拓展性強等特點
如,智源研究院在2023年5月發(fā)布了第二期中文通用開源指令數(shù)據(jù)集(COIG-PC)數(shù)據(jù)集,數(shù)據(jù)主要來自網(wǎng)絡上的實際數(shù)據(jù),由通用翻譯指令數(shù)據(jù)集、考試指令數(shù)據(jù)集、價值對齊數(shù)據(jù)集、反事實校正數(shù)據(jù)集、代碼指令數(shù)據(jù)集組成。在學術考試領域,從中國高考、公務員考試等中抓取并手動注釋了63.5千條指令,包含了中文世界中人類價值取向的數(shù)據(jù)。,點對點式的個人信息保護基礎模式已經(jīng)無法有效應對生成式人工智能帶來的大規(guī)模侵權挑戰(zhàn)
僅2022年,全國網(wǎng)信系統(tǒng)累計依法約談網(wǎng)站平臺8 608家,警告6 767家,罰款處罰512家,暫停功能或更新621家,下架移動應用程序420款,會同電信主管部門取消違法網(wǎng)站許可或備案、關閉違法網(wǎng)站25 223家,移送相關案件線索11 229件。2021年12月至2022年8月,工業(yè)和信息化部針對APP超范圍、高頻次索取權限,非服務場景所必需收集用戶個人信息,欺騙誤導用戶下載等違規(guī)行為進行了檢查,并對未按要求完成整改的APP先后進行了5批次的公開通報。參見新華網(wǎng)《2022年8608家網(wǎng)站平臺被網(wǎng)信部門約談》,http://www.news.cn/2023-01/27/c_1129314799.htm.。一方面,私益救濟在實際操作中受到諸多限制。通常,這類情況僅涉及向特定受害者道歉并補償其實際和精神上的損失,較少采取具有威懾效果的預防性訴訟或索求懲罰性賠償[4]。此外,個體受損情況不太明顯,也會導致救濟程序啟動存在一定困難。這是因為個人信息侵權主要體現(xiàn)在非物質層面的損害上,損害程度較輕,會導致維權收益與成本之間難以平衡的情況。又由于侵犯個人信息的影響范圍廣,受侵害的個體很難及時知曉相關侵權行為的發(fā)生,會阻礙個人信息權利的行使[5]。另一方面,公法保護下的行政資源分配有限,執(zhí)法的重心一般聚焦在關涉國家安全、社會穩(wěn)定的重大信息事件上,由此對個人信息保護方面的執(zhí)法關注捉襟見肘。與此同時,在當前鼓勵科技創(chuàng)新的大環(huán)境下,執(zhí)法部門對企業(yè)侵犯個人信息之行為表現(xiàn)出寬松的監(jiān)管態(tài)勢,執(zhí)法力度也相應減弱。
有鑒于此,《個保法》第70條規(guī)定將個人信息保護并入到公益訴訟管轄范圍。自新法實施以來,個人信息保護公益訴訟案件共計3 492件,其中訴訟磋商結案338件,訴前檢察建議2 754件,提起行政公益訴訟61件高檢網(wǎng).最高人民檢察院工作報告(第十四屆全國人民代表大會第一次會議 張軍 2023年3月7日)[EB/OL].(2023-03-17)[2023-07-20].https://www.spp.gov.cn/spp/gzbg/202303/t20230317_608767.shtml.。具體而言,個人信息保護相關的檢察公益訴訟案件主要涉及網(wǎng)站、移動端應用程序、小程序等違法違規(guī)收集處理公民個人信息,國家機關超范圍公開公民個人信息,通信、金融、快遞、醫(yī)療、教育等行業(yè)內(nèi)鬼違法泄露公民個人信息等領域。因此,在個人信息保護領域中引入檢察公益訴訟制度來應對大規(guī)模個人信息侵權事件的挑戰(zhàn),是個人信息保護法治建設中的重要制度創(chuàng)新,在實際中契合當下緊迫的現(xiàn)實需求[6]。
二、個人信息保護行政公益訴訟的制度與實踐
(一)個人信息保護行政公益訴訟的規(guī)范性解釋空間
首先,《個保法》第70條沒有明確禁止行政公益訴訟的適用。因此,對于檢察機關所提起的個人信息保護公益訴訟而言,除法律規(guī)范基礎較為充分外,相關的公益訴訟活動也在不斷地向縱深開展。2022年,根據(jù)最高檢的指導意見,最高檢第八檢察廳專門就貫徹執(zhí)行《個保法》、推進該領域的公益訴訟檢察工作,下發(fā)《關于貫徹執(zhí)行〈中華人民共和國個人信息保護法〉 推進個人信息保護公益訴訟檢察工作的通知》,要求深刻理解《個保法》中公益訴訟條款設置的關鍵意義,加快公益訴訟條款制度的落地,拓展公益訴訟檢察職能的邊界,明確將個人信息保護納入到檢察公益訴訟的體系范圍之內(nèi)。
其次,《個保法》第70條預留了行政公益訴訟機制運行的制度空間。根據(jù)修訂的《行政訴訟法》第25條,在諸如生態(tài)環(huán)境和資源保護、食品藥品安全、國有財產(chǎn)保護、國有土地使用權出讓等領域,檢察機關負有檢察監(jiān)督責任。該規(guī)定列舉了行政公益訴訟適用的領域,其中行政公益訴訟的主體資格、啟動和程序要件、適用領域等要素并沒有被《個保法》第70條排除。且有相關學者從憲法學角度論證了《個保法》屬于領域法,而非民事特別法[7]。因此,這意味著并不能從根本上排除《行政訴訟法》第25條適用于個人信息保護領域的可能性[8]。
(二)個人信息保護行政公益訴訟的政策與實踐
《行政訴訟法》第25條在列舉了以上4個檢察監(jiān)督領域后,通過“等”字來限定檢察院的受案范圍。一般而言,條款中的“等”字可以分為“等內(nèi)等”和“等外等”兩種解釋,但行政公益訴訟的外延界定并不只停留于邏輯層面,還需要強調政策性:政策的背后是“以人民為中心”的價值導向[9]。 自最高檢的指導意見發(fā)布之后,數(shù)個省份相繼發(fā)布《關于加強檢察機關公益訴訟工作的決定》,重點提出探索辦理包括“眾多公民信息保護”在內(nèi)的公益訴訟案件。2021年,《中共中央關于加強新時代檢察機關法律監(jiān)督工作的意見》 于“積極穩(wěn)妥推進公益訴訟檢察”部分,明確要求積極穩(wěn)妥拓展公益訴訟案件范圍中國政府網(wǎng).《中共中央關于加強新時代檢察機關法律監(jiān)督工作的意見》發(fā)布[EB/OL].(2021-08-02)[2023-07-20].https://www.gov.cn/zhengce/2021-08/02/content_5629060.htm.。盡管《個保法》第70條僅涉及民事公益訴訟,但最高檢的指導意見凸顯了個人信息公益保護的重要性,以及構建完善的個人信息保護辦案流程機制和拓展公益訴訟檢察職能的必要性。這對于行政公益訴訟在個人信息保護方面具有指導和規(guī)范意義。
實踐中,檢察機關在辦理行政公益訴訟案件中主要存在三種情形:行政機關作為個人信息處理者,行政機關作為產(chǎn)業(yè)、行業(yè)的監(jiān)管部門,以及行政機關作為履行個人信息保護的職能部門。如,江西省南昌市檢察院在辦理涉及手機應用軟件侵犯公民個人信息的行政公益訴訟案過程中,檢察機關依據(jù)《網(wǎng)絡安全法》、“三定方案”以及權力清單等,核實了省通信管理局、市公安局和市互聯(lián)網(wǎng)信息辦在個人信息保護的監(jiān)督管理方面履責不充分,并依此進行立案。此后,由于監(jiān)管涉及當?shù)囟鄠€相關職能部門,市檢察院采取了“磋商+聽證”的監(jiān)督模式,制發(fā)要求市公安局和市網(wǎng)信辦作出行政處罰的檢察建議且責令手機應用程序的運營主體有針對性地開展對照整改及優(yōu)化工作高檢網(wǎng).江西南昌市檢察院督促整治手機APP侵害公民個人信息行政公益訴訟案[EB/OL].(2021-05-18)[2023-07-20].https://www.spp.gov.cn/spp/dxwlzp2021/202105/t20210518_518484.shtml.。在廣東省惠州市檢察院督促整治違法采集消費者生物識別信息的公益訴訟案中,檢察機關對于部門房地產(chǎn)售樓處未經(jīng)消費者同意擅自采集、使用、儲存消費者人臉識別信息且相關監(jiān)管部門怠于履責的情況進行立案調查,并在之后向全市住房和城鄉(xiāng)建設局、市場監(jiān)督管理局、國土分局、房產(chǎn)管理局等17個行政機關發(fā)出行政公益訴訟訴前檢察建議,督促依法履職,消除隱患、加強監(jiān)管,規(guī)范行業(yè)自律,構建長效機制。收到檢察建議后,各相關行政機關積極履職,相繼出臺了《惠州市住房和城鄉(xiāng)建設局關于規(guī)范商品房銷售場所使用人臉識別系統(tǒng)的通知》《惠州市市場監(jiān)管局關于開展打擊侵害消費者個人信息違法行為專項行動方案》和《惠東縣房產(chǎn)管理局關于做好人臉識別信息相關工作的通知》等文件,以聯(lián)合執(zhí)法和督促限期自查自糾等方式要求徹底整改、規(guī)范管理高檢網(wǎng).個人信息保護檢察公益訴訟典型案例[EB/OL].(2023-03-30)[2023-07-20].https://www.spp.gov.cn/spp/xwfbh/wsfbt/202303/t20230330_609756.shtml#2.。
三、生成式人工智能框架下個人信息保護行政公益訴訟發(fā)展路徑
生成式人工智能的發(fā)展與應用給個人信息保護帶來了多維度的挑戰(zhàn),涵蓋了數(shù)據(jù)使用風險、生成內(nèi)容濫用風險、算法濫用風險等。當前,我國雖然初步構建了生成式人工智能的基本治理框架,但在個人信息行政公益訴訟的規(guī)則適用等方面存在不足。生成式人工智能應用的快速部署既凸顯了科技發(fā)展過程中的“破壞性創(chuàng)新”,也強化、提升了個人信息保護行政公益訴訟在公共安全治理中的功能與定位。
(一)大模型“幻覺”與預防性規(guī)制
作為生成式人工智能核心應用,大規(guī)模語言模型通常面臨著生成內(nèi)容的“幻覺”問題,即大模型生成的文本不遵循原文,或者不符合事實[10]。前者是指是否遵循輸入內(nèi)容,后者則為是否符合世界知識。簡而言之,就是大模型在不確定情況時,往往表現(xiàn)出捏造事實的傾向。由技術層面觀之,大模型“幻覺”出現(xiàn)的原因可劃分為兩個層面,即數(shù)據(jù)層面與模型層面[11]。數(shù)據(jù)層面主要是指收集的訓練數(shù)據(jù)混入虛假信息;模型層面則主要是指解碼算法[12]、暴露偏差[13]、參數(shù)知識[14]等問題。大模型“幻覺”會在包含海量個人信息的預訓練數(shù)據(jù)集基礎上,引發(fā)虛假信息傳播、個人信息濫用等嚴重侵犯個人權益的負面行為。
有鑒于此,行政公益訴訟所具備的預防性特征在個人信息保護領域的重要性尤為突出。在政府信息公開的領域中,已經(jīng)出現(xiàn)了關于預防性行政訴訟的討論,這些討論主要集中在使用“事中救濟”手段來維護當事人權益上,以此提高政府信息公開的效果[15]。而預防性行政公益訴訟的關鍵在于,針對公益損失的不可逆性,提倡事中或事前救濟[16]。隨著生成式人工智能的發(fā)展,大模型對個人信息侵犯造成的損害往往難以有效補救,因此,個人信息保護行政公益訴訟需逐漸從結果導向轉型至預防性規(guī)制導向,亦即在個人信息保護檢察監(jiān)督的過程中,檢察機關一旦發(fā)現(xiàn)了具有現(xiàn)實、緊迫的危險情形時,就應主動發(fā)起行政公益訴訟,而非像傳統(tǒng)檢察模式待到相關的公益損害發(fā)生,抑或是關聯(lián)的刑事案件結案之后再進行介入。行政公益訴訟的有效實施需要行政機構科學落實、執(zhí)行知情同意原則以及數(shù)據(jù)最小化原則,加強行政執(zhí)法的前端工作,以實現(xiàn)制度的預防性價值。
(二)跨越信息孤島:大模型多模態(tài)、跨領域與行政公益訴訟的交匯
如前所述,國內(nèi)科技互聯(lián)巨頭已經(jīng)通過私有數(shù)據(jù)庫來搭建中文數(shù)據(jù)集,在特定場景和領域中建立核心優(yōu)勢壁壘。而私有數(shù)據(jù)不具備優(yōu)勢的大模型團隊則需要通過全網(wǎng)爬取大規(guī)模、跨領域的數(shù)據(jù)。具體而言,百度“文心”的訓練數(shù)據(jù)量涵蓋了萬億級網(wǎng)頁端數(shù)據(jù)及十數(shù)億搜索引擎數(shù)據(jù)、圖片等;騰訊“混元”大模型的訓練數(shù)據(jù)來自微信公眾號、微信搜索等優(yōu)質數(shù)據(jù),2022年公眾號產(chǎn)出超3.9億篇文章,既包括專業(yè)領域內(nèi)容分析,亦涵蓋時事熱點分析;華為“盤古”大模型的訓練數(shù)據(jù)除公開數(shù)據(jù)外,還包括行業(yè)數(shù)據(jù),橫跨氣象、礦山、鐵路等行業(yè);問答知識平臺知乎則擁有由超過4 300萬創(chuàng)作者產(chǎn)生的3.5億多條優(yōu)質中文問答內(nèi)容,涉及政治、經(jīng)濟、文化、歷史、科技等門類。
大模型在跨領域、多模態(tài)訓練數(shù)據(jù)集基礎上,向生成內(nèi)容中引入算法歧視將更為隱蔽。如,2022年5月《柳葉刀》雜志發(fā)表一項AIGC在醫(yī)學成像領域的研究,指出其中可能存在的算法歧視風險 [17]。該項研究指出,涉及深度學習的算法模型往往能夠識別、處理多種成像技術影像,如CT和X光等,進而精準知曉病患的種族等信息,即使是被損壞、裁剪以及摻入噪聲處理后的醫(yī)學影像,也同樣能被準確識別。而在對患者種族作出判斷之后,模型將在此基礎上有針對性地給不同種族的患者制定生成區(qū)別性治療方案,由此造成多模態(tài)大模型的算法歧視風險。且此類建立在多模態(tài)、跨領域數(shù)據(jù)基礎上的算法歧視風險,一般研究者難以直接借助圖像特征予以甄別。隨著國內(nèi)大模型逐步開始具備圖像識別處理等多模態(tài)能力,生成式人工智能應用輸出內(nèi)容對特定群體的歧視問題將更為嚴峻??珙I域、多模態(tài)大模型帶來的公平性治理問題將給個人信息保護帶來愈加深刻的挑戰(zhàn)。
面對大模型的多模態(tài)、跨領域特征引發(fā)的算法歧視問題,檢察機關需要在涉及個人信息保護的行政公益訴訟協(xié)作機制方面,打破數(shù)據(jù)孤島形成檢察合力,全方位推動檢察履職。一直以來,“信息孤島”“數(shù)據(jù)壁壘”等問題始終制約著檢察機關監(jiān)督體系改革與建設光明網(wǎng).力爭每年推出一兩項重大改革新舉措——聚焦政法領域全面深化改革推進會[EB/OL].(2019-07-21)[2023-07-20].https://m.gmw.cn/baijia/2019-07/21/33014383.html.。AIGC時代下,個人信息保護行政公益訴訟需要破除“信息孤島”,促進公權力部門之間互聯(lián)互通[18],這也是數(shù)字中國建設的重要內(nèi)容之一。
2022年,最高檢共發(fā)布10項涉及電信網(wǎng)絡詐騙犯罪的典型案例,突出了檢察機關在訴源治理、協(xié)同推進社會治理方面的檢察實踐陜西省秦嶺北麓地區(qū)人民檢察院.最高檢發(fā)布打擊治理電信網(wǎng)絡詐騙及關聯(lián)犯罪典型案例[EB/OL].(2022-04-21)[2023-07-20].http://www.sn.jcy.gov.cn/xtxatly/ywgz/xsjcgz/202204/t20220421_277604.html.。期間,最高檢排查個人信息泄露渠道與相關人員,聚焦獲取、流通個人信息等環(huán)節(jié),提升了公益訴訟檢察部門的辦案聯(lián)動,加強了相關案件的源頭治理。同年,最高檢發(fā)布《關于加強刑事檢察與公益訴訟檢察銜接協(xié)作嚴厲打擊電信網(wǎng)絡犯罪加強個人信息司法保護的通知》,重點提出聚焦重點行業(yè)、領域以及群體;聚焦容易導致個人信息泄露風險的相關行業(yè);聚焦容易受到電信網(wǎng)絡詐騙違法犯罪侵害的老年人、在校學生、未成年人等重點群體
高檢網(wǎng).最高檢:嚴厲打擊行業(yè)“內(nèi)鬼”泄露公民個人信息違法犯罪[EB/OL].(2022-06-21)[2023-07-20].https://www.spp.gov.cn/spp/zdgz/202206/t20220621_560428.shtml.。該通知明確了辦案協(xié)作機制,要求完善刑事檢察、公益訴訟檢察協(xié)作機制,包括建立線索移送、同步介入、人員協(xié)作等。檢察機關需要在辦案中充分發(fā)揮橫向一體化優(yōu)勢,加強“四大檢察”各業(yè)務部門的銜接配合,注重從刑事案件中挖掘個人信息保護線索。對可能損害社會公共利益的案件,刑事檢察部門應向公益訴訟部門推送線索。
四、生成式人工智能背景下個人信息保護行政公益訴訟的展望
2022年 3月,《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》第 7 條對算法推薦服務提供者的安全主體責任進行了規(guī)定;2023年5月,互聯(lián)網(wǎng)信息辦公室通過了《生成式人工智能服務管理暫行辦法》,其中第9條規(guī)定生成式人工智能產(chǎn)品、服務提供者應當承擔“網(wǎng)絡信息內(nèi)容生產(chǎn)者責任”。換言之,主體責任機制構成了我國算法問責體系的核心[19]。面對生成式人工智能的興起,基于主體責任的算法問責制度需要進行相應調整。而這種制度的關鍵在于強調理解算法的本質,即作為技術規(guī)則和計算過程的核心要素;主張把算法看作是一種工具性規(guī)則,強調算法設計背后所反映的開發(fā)者的價值觀和技術追求。因此,主體責任的目的是揭開算法的外衣,從而使背后的開發(fā)者承擔相應的責任[20]。但生成式人工智能應用的出現(xiàn)可能會分散算法主體責任,使其依賴特定場景,進而模糊算法責任主體的認定邊界——個人信息保護風險將從研究開發(fā)者擴展到應用的部署方以及終端用戶。
(一)生成式人工智能與行政公益訴訟制度的完善
黨的二十大報告提出“加強檢察機關法律監(jiān)督工作”“完善公益訴訟制度”,賦予了新時代檢察工作更重的政治、法治以及檢察責任。
首先,個人信息保護行政公益訴訟應當充分融入到跨行政區(qū)劃檢察案件管轄體系之中。AIGC時代下,算法責任主體開始呈現(xiàn)出分散多元化、動態(tài)場景化等特征。介入相關個人信息保護問題的行政主管部門眾多,相應地,檢察機關也會面臨著介入監(jiān)督受阻等管轄權虛置問題。習近平總書記的重要講話以及黨的十八屆三中、四中全會的決定表明,設立跨區(qū)域檢察機關的實質在于其既區(qū)別于一般的地方檢察院,又有別于軍事等特定類型的檢察院[21]。其核心目的是消除地方和行業(yè)的不當影響,并從擴展檢察功能和促進區(qū)域間協(xié)調發(fā)展這兩方面進行考量。有鑒于此,個人信息保護行政公益訴訟需要推行特別案件集中管轄機制,將個人信息保護案件納入《設立跨行政區(qū)劃人民法院、人民檢察院試點方案》中的特殊案件集中管轄范圍,同時暢通跨區(qū)劃線索交辦、移交協(xié)查辦理機制,填補跨區(qū)劃行政公益訴訟介入監(jiān)督空白點
高檢網(wǎng).完善機制強化跨區(qū)劃審判法律監(jiān)督[EB/OL].(2021-12-10)[2023-07-20].https://www.spp.gov.cn/spp/zhuanlan/202112/t20211210_538543.shtml.。
其次,個人信息保護公益訴訟需要構建統(tǒng)一的綜合主管部門與相應的行業(yè)行政主管部門,并在此基礎上輔以個人信息保護行政公益訴訟配套機制。AIGC帶來的技術、行業(yè)變革使得個人信息保護的行政執(zhí)法資源分散化,應整合、優(yōu)化多個涉及個人信息保護的行政部門,借助互聯(lián)網(wǎng)信息辦公室的支持,重新調整工商、信息管理等部門的職責,建立統(tǒng)一的個人信息保護行政管理機構,以統(tǒng)籌監(jiān)管個人信息保護的執(zhí)法工作。
此外,在個人信息保護的行政公益訴訟體系中,應充分利用訴前程序的預防功能,主要通過向個人信息保護的主管部門提出檢察建議,并輔以向不同行業(yè)的主管部門制發(fā)檢察建議。在接收到檢察建議并進行整改的階段,個人信息保護的主管部門應負責領導、協(xié)調和督促各相關行業(yè)主管部門履行職責。這種做法不僅保障了行政裁量權,還能夠深入監(jiān)督,從而推動個人信息領域治理的系統(tǒng)化和整體化,有助于建立一個以統(tǒng)一監(jiān)管為主、分散共治為輔的公益訴訟監(jiān)督網(wǎng)絡。
(二)生成式人工智能助推行政公益訴訟的價值重塑
在AIGC應用崛起的當下,有關個人信息保護的法律監(jiān)督數(shù)量將呈指數(shù)級增長。但檢察監(jiān)督的內(nèi)在價值并不一定能夠通過數(shù)量得以釋放[22]。其關鍵在于通過具體的法律監(jiān)督案件,及時、準確挖掘具有普遍性、共同性問題,以類案監(jiān)督的方式打造“治理場景”,繼而實現(xiàn)法律監(jiān)督工作向社會系統(tǒng)治理方向上的轉變。就個人信息保護而言,AIGC大模型的算法與預訓練數(shù)據(jù)量勢必會給法律監(jiān)督工作帶來數(shù)量上的沖擊。因此,個人信息保護行政公益訴訟工作需要達到“辦理一案、治理一片”的效果,充分發(fā)掘AIGC監(jiān)管治理的特征。2023年4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《辦法》),對AIGC產(chǎn)品或服務的基本要求與責任承擔、安全評估與算法備案義務等方面進行了規(guī)定,體現(xiàn)了國家對以ChatGPT為代表的AIGC產(chǎn)品或服務的監(jiān)管態(tài)度。
AIGC監(jiān)管問題已受到全球普遍的關注。如,歐盟即將正式出臺施行的《人工智能法案》(以下簡稱《法案》)針對以ChatGPT為代表的AIGC應用專門制定了全新的監(jiān)管規(guī)則,旨在防范AIGC對經(jīng)濟秩序和社會秩序造成變革性風險,期望通過《法案》引領全球人工智能治理模式的發(fā)展方向。該《法案》對AIGC的監(jiān)管主要集中在監(jiān)管模式與版權問題上,延續(xù)了風險規(guī)制等歐盟治理方式,在第1(c)、1(d)條款中分別引入了“基礎模型”與“通用人工智能系統(tǒng)”的概念,用以區(qū)分以GPT為代表的生成式人工智能模型與適應于廣泛應用的人工智能系統(tǒng)。與此同時,《法案》還將人工智能應用場景分為“低風險、高風險、不可接受的風險”3個風險等級,但是并未將AIGC直接納入到3種風險場景中,而是有的放矢地將其定義為基礎模型的一種形式,暗指AIGC與一般人工智能之間存在本質性區(qū)別?;A模型旨在構建可以廣泛適配各種下游任務、賦能千行百業(yè)的通用模型,是大數(shù)據(jù)、大算力和大規(guī)模參數(shù)共同作用的結果。作為基礎模型的一種形式,AIGC的獨特性在于用戶的使用方式會直接決定應用涉及的風險等級。
在治理模式方面,該《法案》強調人工智能應用價值鏈具有保障用戶基本權利不受侵犯的義務,這意味著基礎模型價值鏈下游的分發(fā)者、進口者和部署者均需要充分保障用戶的基本權利?;A模型提供者的義務分為兩部分:在投入應用前,模型提供者需在獨立專家的參與下建立符合歐盟法律、法規(guī)要求的質量管理系統(tǒng),采取充分的保障措施來識別、降低可預見的風險,記錄剩余不可緩解的風險,并于歐盟數(shù)據(jù)庫中備案;在投放市場后,基礎模型提供者應履行透明度義務,其訓練模型不違反歐盟法律、不損害公民基本權利、符合行業(yè)先進實踐,記錄并公開受版權保護的訓練數(shù)據(jù)使用情況摘要。此外,當自然人群體或法人群體的權利受到損害時,有權向模型提供者或模型部署者投訴并獲得補償。
基于上述中歐在AIGC監(jiān)管方面的差異,本文認為涉及個人信息保護的行政公益訴訟工作更加需要構建適應AIGC大模型特點的立體化監(jiān)督模式,即借鑒歐盟法案對AIGC“基礎模型”與“通用人工智能系統(tǒng)”的概念區(qū)分和分階段監(jiān)管的做法,從“技術-產(chǎn)業(yè)-應用”全流程的視角出發(fā),在技術、產(chǎn)業(yè)和應用層面采取相適宜的監(jiān)督方式。以監(jiān)督促治理,重塑法律監(jiān)督社會治理層面的價值追求,“把追求個案正義提升到實現(xiàn)類案監(jiān)督、促進系統(tǒng)治理的更高追求上”[23]。
(三)生成式人工智能背景下行政公益訴訟與公共安全治理
個人信息保護是國家數(shù)據(jù)安全、網(wǎng)絡安全的基礎。數(shù)字經(jīng)濟的高質量可持續(xù)發(fā)展必然是以個人信息保護為基礎性前提,是網(wǎng)絡強國、數(shù)字中國建設的關鍵性要素。近年來,檢察機關探索個人信息保護檢察公益訴訟,積累了諸多系統(tǒng)治理、溯源治理的成功經(jīng)驗?!秱€保法》《反壟斷法》《反電信網(wǎng)絡詐騙法》中都開始設立了檢察公益訴訟條款,繼而將個人信息保護從行政公益訴訟“等外”領域納入法定新領域。2022年12月2日,中共中央、國務院發(fā)布《關于構建數(shù)據(jù)基礎制度更好發(fā)揮數(shù)據(jù)要素作用的意見》,明確提出“加大個人信息保護力度,推動重點行業(yè)建立完善長效保護機制”,強調“以維護國家數(shù)據(jù)安全、保護個人信息和商業(yè)秘密為前提”,要求“創(chuàng)新政府數(shù)據(jù)治理機制”“加強數(shù)據(jù)產(chǎn)權保護”“推動完善相關法律制度”。該文件的發(fā)布,為人民檢察院開展個人信息保護公益訴訟提出了新的要求:檢察院應當更加注重保護包含個人信息數(shù)據(jù)的公共數(shù)據(jù)、國有企業(yè)數(shù)據(jù)的安全;更加注意個人信息保護與反壟斷的銜接協(xié)同,助力打破“數(shù)據(jù)壟斷”;更加強調將督促履行反電信網(wǎng)絡詐騙職責作為個人信息數(shù)據(jù)安全溯源治理的抓手。
AIGC時代下,大模型的算法設計、預訓練數(shù)據(jù)往往包含紛繁復雜的偏見與價值觀,尤其是在國內(nèi)大模型發(fā)展初期,以ChatGPT、Stable Difussion為代表的海外成熟大模型應用占據(jù)著用戶市場絕大部分份額。大模型所需的數(shù)據(jù)集往往將現(xiàn)實社會中國家外部的政治力量、利益團體的意識形態(tài)與價值觀以編碼的形式融合進去,再以AIGC的應用生成內(nèi)容進行輸出,形成權力的馬太效應,破壞互聯(lián)網(wǎng)信息生態(tài)系統(tǒng)。因此,人民檢察院除了積極開展個人信息保護行政公益訴訟工作,還應當不斷加強行政公益訴訟在國家數(shù)據(jù)安全、公共安全治理中的防范功能。首先,要推動個人信息保護治理向事前預防模式的轉變,明確將個人信息保護納入國家公共安全體系;其次,要依托前述的個人信息保護綜合行政主管部門,透過AIGC大模型“技術-產(chǎn)業(yè)-應用”全流程視角充分發(fā)揮行政公益訴訟訴前檢察建議的督促糾正作用,拓展督促、支持起訴,監(jiān)督保障個人信息保護法等相關法律的有效實施;最后,要從重點加強對特定群體的特別保護向全面保護個人信息權益轉型,貫徹落實國家人權行動計劃,加強公民權利司法保護。
參考文獻:
[1] CAO Y H,LI S Y,LIU Y X,et al.A comprehensive survey of AI-generated content (AIGC):A history of generative AI from GAN to ChatGPT[Z/OL].(2023-03-07)[2023-07-20].https://arxiv.org/abs/2303.04226.
[2] 畢文軒.生成式人工智能的風險規(guī)制困境及其化解:以ChatGPT的規(guī)制為視角[J].比較法研究,2023(3):155-172.
[3] 劉艷紅.生成式人工智能的三大安全風險及法律規(guī)制:以ChatGPT為例[J].東方法學,2023(4):29-43.
[4] 張新寶,賴成宇.個人信息保護公益訴訟制度的理解與適用[J].國家檢察官學院學報,2021,29(5):55-74.
[5] 高富平.個人信息保護:從個人控制到社會控制[J].法學研究,2018,40(3):84-101.
[6] 薛天涵.個人信息保護公益訴訟制度的法理展開[J].法律適用,2021(8):155-164.
[7] 張翔.個人信息權的憲法(學)證成:基于對區(qū)分保護論和支配權論的反思[J].環(huán)球法律評論,2022,44(1):53-68.
[8] 蔣紅珍.個人信息保護的行政公益訴訟[J].上海交通大學學報(哲學社會科學版),2022,30(5):28-38.
[9] 溫輝.行政公益訴訟“等外”芻議[J].河北法學,2020,38(9):101-112.
[10] JI Z W,LEE N,F(xiàn)RIESKE R,et al.Survey of hallucination in natural language generation[J].ACM Computing Surveys,2023,55(12):1-38.
[11] LEE" K,IPPOLITO D,NYSTROM A,et al.Deduplicating training data makes language models better[Z/OL].(2022-03-24)[2023-07-20].https://arxiv.org/abs/2107.06499.
[12] LEE N,PING W,XU P,et al.Factuality enhanced language models for open-ended text generation[Z/OL].(2023-03-02)[2023-07-20].https://arxiv.org/abs/2206.04624.
[13] WANG C J,SENNRICH R.On exposure bias,hallucination and domain shift in neural machine translation[Z/OL].(2020-05-07)[2023-07-20].https://arxiv.org/abs/2005.03642.
[14] LONGPRE S,PERISETLA K,CHEN A,et al.Entity-based knowledge conflicts in question answering[Z/OL].(2022-09-10)[2023-07-20].https://arxiv.org/abs/2109.05052.
[15] 禹竹蕊.建立我國的預防性行政訴訟制度:以反政府信息公開訴訟為視角[J].廣西大學學報(哲學社會科學版),2017,39(3):107-111.
[16] 王春業(yè).論檢察機關提起“預防性”行政公益訴訟制度[J].浙江社會科學,2018(11):51-58,157.
[17] GICHOYA J W,BANERJEE I,BHIMIREDDY A R,et al.AI recognition of patient race in medical imaging: a modelling study[J].The Lancet Digital Health,2022(4): E406-E414.
[18] 吳思遠.數(shù)字檢察的法理反思[J].華東政法大學學報,2023,26(5):45-55.
[19] 張欣.生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管[J].現(xiàn)代法學,2023,45(3):108-123.
[20] 劉權.論互聯(lián)網(wǎng)平臺的主體責任[J].華東政法大學學報,2022,25(5):79-93.
[21] 田向紅.新時代跨行政區(qū)劃檢察改革的實踐與完善[J].中國檢察官,2023(1):3-6.
[22] 張薰尹.踐行習近平法治思想 發(fā)揮類案監(jiān)督優(yōu)勢:評最高檢民事檢察類案監(jiān)督典型案例[N].檢察日報,2021-11-24(7).
[23] 賈宇.論數(shù)字檢察[J].中國法學,2023(1):5-24.
[編輯:洪夢綺]