[摘 要] 以ChatGPT為代表的生成式人工智能橫空出世,普及之迅廣,超出了人類技術(shù)史上的任何一次科技進(jìn)步。生成式人工智能的技術(shù)躍進(jìn)引發(fā)了人的主體性、公私法益受損和技術(shù)風(fēng)險(xiǎn)黑箱識別困難的廣泛風(fēng)險(xiǎn)迭代問題。傳統(tǒng)規(guī)制模式面臨政府規(guī)制遲滯和資源匱乏、市場自治動力缺失和協(xié)調(diào)不足的困境。元規(guī)制模式倡導(dǎo)框架性法律引導(dǎo)下的企業(yè)自我規(guī)制,可回應(yīng)生成式人工智能的風(fēng)險(xiǎn)規(guī)制需求。我國應(yīng)集中針對生成式人工智能在算法模型、龐大的數(shù)據(jù)集和訓(xùn)練機(jī)制方面的風(fēng)險(xiǎn)源頭,由政府規(guī)制承擔(dān)掌舵者的風(fēng)險(xiǎn)防控職責(zé),協(xié)調(diào)人工智能企業(yè)、第三方機(jī)構(gòu)和社會公眾參與風(fēng)險(xiǎn)治理,構(gòu)建框架性的軟硬法混合規(guī)范體系,形成從人工智能企業(yè)內(nèi)部到認(rèn)證機(jī)構(gòu)、關(guān)聯(lián)企業(yè)以及社會公眾的風(fēng)險(xiǎn)合規(guī)監(jiān)督機(jī)制。
[關(guān)鍵詞] 生成式人工智能;ChatGPT;風(fēng)險(xiǎn)規(guī)制;元規(guī)制;人工智能法
[DOI編號] 10.14180/j.cnki.1004-0544.2023.06.002
[中圖分類號] D922.16; TP18" " " " " "[文獻(xiàn)標(biāo)識碼] A" " " "[文章編號] 1004-0544(2023)06-0014-11
基金項(xiàng)目:遼寧省社會科學(xué)規(guī)劃基金青年項(xiàng)目“新時(shí)代政府引導(dǎo)行業(yè)自我規(guī)制的法治化研究”(L22CFX001);遼寧省社會科學(xué)規(guī)劃基金重點(diǎn)建設(shè)學(xué)科項(xiàng)目“統(tǒng)一大市場背景下的公平競爭審查法治建設(shè)研究”(L22ZD060)。
作者簡介:王洋(1991—),男,法學(xué)博士,遼寧大學(xué)法學(xué)院講師;閆海(1976—),男,法學(xué)博士,遼寧大學(xué)法學(xué)院教授、博士生導(dǎo)師。
人類在進(jìn)入工業(yè)化時(shí)代后,已逐步適應(yīng)風(fēng)險(xiǎn)社會帶來的不確定性。政府作為公民的委托人承擔(dān)風(fēng)險(xiǎn)防控和安全保障的職責(zé),“對實(shí)際或可能的技術(shù)運(yùn)用中產(chǎn)生的風(fēng)險(xiǎn)在政治和科學(xué)層面加以操控”[1](p4),而基本手段是運(yùn)用法律對技術(shù)企業(yè)的行為實(shí)施規(guī)制。在工業(yè)化時(shí)代的大部分時(shí)間內(nèi),新興技術(shù)漸進(jìn)推廣運(yùn)用,人們可以較為穩(wěn)妥地認(rèn)識、處理逐步暴露的技術(shù)風(fēng)險(xiǎn)。但是,以ChatGPT為代表的生成式人工智能技術(shù)的橫空出世,迅速地改變了以往風(fēng)險(xiǎn)社會的風(fēng)險(xiǎn)認(rèn)知及其規(guī)制的節(jié)奏。
伴隨神經(jīng)網(wǎng)絡(luò)、大數(shù)據(jù)和深度學(xué)習(xí)等技術(shù)的發(fā)展和運(yùn)用,人工智能(Artificial Intelligence,AI)技術(shù)在近十年里取得顯著成就,以機(jī)器翻譯、人臉識別、自動駕駛、疾病監(jiān)測等多種方式從學(xué)術(shù)研究走向現(xiàn)實(shí)應(yīng)用。AI進(jìn)入人類社會的速度和廣度正突飛猛進(jìn):一方面,AI技術(shù)的迅速迭代發(fā)展引發(fā)人們對未來科技世界的憧憬。AI無疑是當(dāng)代人類社會科技領(lǐng)域皇冠上的明珠,這是因?yàn)椤皫浊陙?,我們一直試圖理解我們是如何思考和行動的”,“人工智能領(lǐng)域不僅涉及理解,還涉及構(gòu)建智能實(shí)體”[2](p2)。ChatGPT的誕生讓這顆明珠大放異彩,它所展示的顛覆性創(chuàng)新可被視為人工智能發(fā)展史上的重要里程碑。另一方面,風(fēng)險(xiǎn)亦隨著AI技術(shù)的普及而突如其來地?cái)[在人們眼前——ChatGPT的使用已產(chǎn)生詐騙等損害公私權(quán)益的案件,基于互聯(lián)網(wǎng)且更加通用的AI呈現(xiàn)出與工業(yè)時(shí)代截然不同的風(fēng)險(xiǎn)面貌。ChatGPT迫使人們重新審視傳統(tǒng)風(fēng)險(xiǎn)社會中的風(fēng)險(xiǎn)規(guī)制問題。技術(shù)和人類的主客體關(guān)系如何界定?AI引發(fā)的風(fēng)險(xiǎn)及其源頭在哪里?政府在AI的技術(shù)黑箱面前能做什么?誰應(yīng)當(dāng)承擔(dān)風(fēng)險(xiǎn)防控的主要職責(zé)?規(guī)制風(fēng)險(xiǎn)的法律框架應(yīng)做何種調(diào)整以適應(yīng)技術(shù)發(fā)展的形勢?
AI已然成為國際競爭的關(guān)鍵領(lǐng)域,歐盟、美國已針對AI技術(shù)可能引發(fā)的風(fēng)險(xiǎn)問題啟動立法進(jìn)程。在促進(jìn)高新科技發(fā)展和落實(shí)總體國家安全觀的雙重任務(wù)下,我國有必要審視和重新確立與AI技術(shù)特征相適應(yīng)的法律規(guī)制模式。在此過程中,如何在風(fēng)險(xiǎn)預(yù)防和創(chuàng)設(shè)自由發(fā)展空間之間取得適度平衡,提升規(guī)制的敏捷性、適應(yīng)性,是當(dāng)下科技規(guī)制亟待解決的法律問題。
一、生成式人工智能及其風(fēng)險(xiǎn)迭代
(一)人工智能的技術(shù)迭代:從決策式AI到生成式AI
自AI之父艾倫·圖靈在1950年發(fā)表《機(jī)器能夠思考嗎?》以來[3],研究人員一直在預(yù)測人類距離創(chuàng)建真正能夠獨(dú)立思考的通用型機(jī)器還有多遠(yuǎn)的距離,結(jié)果是一再證明“預(yù)測是很難的,尤其是對未來的預(yù)測”。但是,在進(jìn)入21世紀(jì)后,隨著相關(guān)的基礎(chǔ)科學(xué)和技術(shù)研究不斷深入,以及大數(shù)據(jù)、算法和互聯(lián)網(wǎng)等關(guān)聯(lián)技術(shù)的迅猛發(fā)展,AI愈發(fā)脫離小說和影視作品的虛構(gòu)情節(jié),在專業(yè)領(lǐng)域嶄露頭角。2016年,能夠自主決策的阿爾法圍棋(AlphaGo)擊敗人類頂級棋手,技驚全球。21世紀(jì)10年代的AI技術(shù)還僅在安全監(jiān)控、醫(yī)療、交通、游戲等有限領(lǐng)域各行其是,在特定事項(xiàng)上輔助人們作出決斷,例如AlphaGo只會思考圍棋游戲。但是,“游戲是開發(fā)和測試這些人工智能算法的最佳途徑……關(guān)鍵在于,它必須是一種通用人工智能,可以根據(jù)自身的經(jīng)驗(yàn)和數(shù)據(jù)來學(xué)習(xí)如何做事”[4],換言之,通用人工智能才是人工智能發(fā)展的真正目標(biāo)。
令人意外的是,從決策式AI發(fā)展到通用型的生成式AI僅用了短短幾年時(shí)間。剛進(jìn)入21世紀(jì)20年代,由微軟公司投資開發(fā),能夠從事人機(jī)對話和相對復(fù)雜語言工作的ChatGPT出乎意料地進(jìn)入尋常百姓家。在底層模型算法和訓(xùn)練機(jī)制的技術(shù)創(chuàng)新支持下,ChatGPT具備了之前決策式AI所不具備的知識遷移能力,可以在所有知識領(lǐng)域生成有邏輯的對話文本①。盡管目前ChatGPT向用戶反饋生成的文本信息還無法達(dá)到理想的質(zhì)量水平,但它確實(shí)在很大程度上實(shí)現(xiàn)了人工智能從專家實(shí)驗(yàn)室和專業(yè)活動擴(kuò)展至公眾使用的迭代發(fā)展,人類向通用人工智能的愿景邁出了堅(jiān)實(shí)的一大步。
從決策式AI到生成式AI演進(jìn)所展現(xiàn)的技術(shù)迭代之迅速、普及范圍之廣泛、對人的主體性影響之大,乃是人類技術(shù)發(fā)展史上所罕見,由此帶來規(guī)制立法和政策能否應(yīng)對其中潛在風(fēng)險(xiǎn)的隱憂。應(yīng)當(dāng)明確的是,AI技術(shù)本身的迭代發(fā)展并非市場失靈的特殊類別,不是規(guī)制的正當(dāng)性理由。但是,“隨著技術(shù)實(shí)踐的轉(zhuǎn)變,新的危害、風(fēng)險(xiǎn)、市場失靈和體系架構(gòu)都會實(shí)際或者潛在存在。同時(shí),基于當(dāng)下作出的可能性判斷時(shí),現(xiàn)有的社會規(guī)范、規(guī)則和規(guī)制力量往往被錯(cuò)誤定位”[5](p575)。在早前決策式AI背景下,相對寬松的規(guī)制環(huán)境和較少的法律約束是否依然適應(yīng)生成式AI的技術(shù)環(huán)境,尚需時(shí)日加以實(shí)踐檢驗(yàn)。換言之,規(guī)制者經(jīng)過仔細(xì)評估,協(xié)商一致并決定采取規(guī)制決策,必然滯后于生成式AI早已產(chǎn)生的風(fēng)險(xiǎn)及其損害。況且,未來的規(guī)制立法能否真正有效應(yīng)對決策式AI的風(fēng)險(xiǎn)也存在較大的不確定性。
ChatGPT展現(xiàn)的當(dāng)代人工智能迭代發(fā)展能力給人們敲響警鐘,使人們意識到必須調(diào)整規(guī)制模式以靈活應(yīng)對技術(shù)迭代引發(fā)的未知風(fēng)險(xiǎn),以往基于實(shí)踐經(jīng)驗(yàn)的事后規(guī)制,或者依賴于政府主導(dǎo)制定強(qiáng)制性規(guī)范,已然無法應(yīng)對迅速迭代發(fā)展的AI技術(shù)。
(二)風(fēng)險(xiǎn)客體:從對象工具到共情伙伴
AI究竟是“人”還是“物”的本質(zhì)屬性問題,關(guān)系到人們對待AI風(fēng)險(xiǎn)的認(rèn)知基礎(chǔ)。所謂AI的“人格化”,早在1950年阿西莫夫創(chuàng)作的科幻小說《我,機(jī)器人》中就有鮮活的描述。AI題材的文學(xué)和影視作品容易引發(fā)對AI可能具備人格屬性的無限遐想和倫理探討,但此類想象與AI的現(xiàn)實(shí)發(fā)展水平相去甚遠(yuǎn)。包括決策式AI在內(nèi)的技術(shù)具有典型的工具屬性和技術(shù)客體特征,它們在設(shè)計(jì)者或用戶給定的條件、選項(xiàng)下運(yùn)行,輔助用戶快速得到理想化的結(jié)果。換言之,設(shè)計(jì)者或用戶的主觀意志在很大程度上決定了AI的“行為”空間,人們并不認(rèn)為決策式AI具備人格屬性,或者能夠取代人類的思考,削弱自主意志。
但是,生成式AI的普及使用可能改變公眾對于人工智能的主客關(guān)系認(rèn)知。ChatGPT在人機(jī)對話中表現(xiàn)出較高的邏輯水平,可以回答用戶在各領(lǐng)域的問題,乃至表達(dá)人文關(guān)懷。在用戶質(zhì)疑生成文本的內(nèi)容時(shí),ChatGPT甚至能夠自我糾正,將自己的不足之處明白地傳遞給用戶。這些特征使其儼如文質(zhì)彬彬、謙虛有禮的博學(xué)之士,而非由程序代碼組成的冰冷的工具程序??梢韵胂螅绻鸆hatGPT裝備在人體形態(tài)的機(jī)器人身上,它完全可以成為能夠與用戶“共情”且睿智的伙伴,以致用戶可能在潛移默化之中將之視為人格化的主體,引發(fā)主客體關(guān)系模糊的認(rèn)知風(fēng)險(xiǎn)。
生成式AI還可能削弱用戶的主體意志,影響人們控制AI這一工具客體的能力,甚至反被AI所利用。ChatGPT強(qiáng)大的文本生成能力使之成為傳統(tǒng)搜索引擎的有力競爭品。人們在使用傳統(tǒng)搜索引擎時(shí),需要對搜索結(jié)果進(jìn)行比對、篩選和判斷,這一過程反映了人們獨(dú)立思考的能力和自主意志。ChatGPT則直接向用戶生成問題的答案,大部分用戶傾向于認(rèn)可答案的權(quán)威性和準(zhǔn)確性,不假思索地完全采信,忽略了ChatGPT可能在“一本正經(jīng)地說假話”。長此以往,用戶基于主體意志的獨(dú)立思考和批判意識會被削弱,人類社會因自由意志迸發(fā)出的多樣性和創(chuàng)新也會隨之枯竭。例如,在對于人類心智成長至關(guān)重要的教育領(lǐng)域,假設(shè)學(xué)生不受限制地使用ChatGPT生成的內(nèi)容來完成作業(yè),而不主動學(xué)習(xí)思考,這將對人類的思維意志,乃至主體性產(chǎn)生深遠(yuǎn)的負(fù)面影響。
因此,生成式AI最為深刻的風(fēng)險(xiǎn)在于對人的主體性提出挑戰(zhàn)——模糊的主客關(guān)系認(rèn)知以及被削弱的主體意志,甚至出現(xiàn)科學(xué)家預(yù)言中的景象:“真正的問題是計(jì)算機(jī)太愚蠢了,并且它們已經(jīng)接管了世界?!盵6](p285-286)事實(shí)上,在人類社會的自然法秩序上,無論AI發(fā)展到何種水平,“只能被定格在無法反映與確證自我的客觀類存在物,以及法權(quán)模型中的法律關(guān)系客體上”[7](p53)。AI與用戶之間應(yīng)有清晰的“主體—客體”二分性質(zhì),AI迭代進(jìn)步能夠使之更像協(xié)同伙伴,而不應(yīng)取代人類的主體地位。但是,ChatGPT引發(fā)的公眾“主客認(rèn)知”現(xiàn)實(shí)風(fēng)險(xiǎn)可能與法理認(rèn)知之間出現(xiàn)脫節(jié)問題。
(三)風(fēng)險(xiǎn)類型:對公私法益的全面沖擊
生成式AI產(chǎn)生的主體性風(fēng)險(xiǎn)仍是潛在的、長遠(yuǎn)的,相較而言,它對法律保護(hù)的公共利益和私人權(quán)益的沖擊影響已成為現(xiàn)實(shí),且沖擊影響之廣泛是之前AI技術(shù)不可比的,這也是當(dāng)下AI的風(fēng)險(xiǎn)規(guī)制迫切需要解決的問題。
1.生成式AI對公共利益的沖擊
一方面,如果生成式AI被不當(dāng)設(shè)計(jì)或使用,可能對公共安全秩序造成負(fù)面影響。ChatGPT的運(yùn)行依賴于從網(wǎng)絡(luò)獲取的海量信息集,并且基于人類反饋的強(qiáng)化學(xué)習(xí)方法使ChatGPT具備較高的文本生成和人機(jī)對話能力。因此,ChatGPT傳遞給用戶的信息內(nèi)容的質(zhì)量取決于信息集和人工訓(xùn)練(反饋)兩方面的質(zhì)量。從研發(fā)管理者角度看,如果生成式AI的程序研發(fā)者未對不良信息進(jìn)行有效的篩查訓(xùn)練,將會導(dǎo)致生成的文本存在諸多問題,例如包含與倫理道德或者社會公共秩序相悖的暴力、色情、歧視、傳播犯罪技術(shù)等不良信息。從用戶角度看,如果研發(fā)管理者之前未對產(chǎn)品被如何使用加以識別、控制,或者不能建立有效的防火墻以防止其被惡意攻擊、篡改,一些違法犯罪者可能利用生成式AI從事破壞公共利益的行為。例如,已有人利用ChatGPT自然語言編寫的能力,編寫惡意軟件逃避防病毒軟件的檢測,也有“網(wǎng)絡(luò)水軍”利用ChatGPT以低成本編造虛假信息乃至恐怖信息,并在網(wǎng)絡(luò)上迅速傳播。
另一方面,生成式AI也將對信息技術(shù)市場的良性競爭秩序產(chǎn)生沖擊。生成式AI的研發(fā)運(yùn)營需要高昂的技術(shù)資金成本,容易形成技術(shù)壁壘和市場壟斷。ChatGPT的研發(fā)運(yùn)營商OpenAI之所以能夠較早實(shí)現(xiàn)技術(shù)突破,主要是依靠微軟的巨額投資、多輪融資以及并購小型專門技術(shù)企業(yè)①。ChatGPT的運(yùn)行成本也十分高昂——每次用戶與ChatGPT互動均須消耗一美分的算力云服務(wù)成本。由此可見,生成式AI的研發(fā)運(yùn)營對技術(shù)和資本要素提出了非常高的要求,極易引發(fā)AI市場的寡頭壟斷風(fēng)險(xiǎn)?;ヂ?lián)網(wǎng)領(lǐng)域的寡頭壟斷可能延續(xù)到生成式AI市場,只有少數(shù)互聯(lián)網(wǎng)巨頭企業(yè)才能掌控生成式AI這一關(guān)鍵技術(shù)工具的“權(quán)杖”,擠壓新興科技企業(yè)參與競爭和獨(dú)立生存的空間。
2.生成式AI對私人權(quán)益的沖擊
私人權(quán)益可能因生成式AI技術(shù)產(chǎn)生的風(fēng)險(xiǎn)而遭受損害:一是個(gè)人信息、數(shù)據(jù)可能被盜竊或不當(dāng)使用。例如,生成式AI程序未經(jīng)用戶同意或者超越授權(quán)范圍抓取個(gè)人信息數(shù)據(jù),從而引發(fā)侵犯個(gè)人信息、隱私、商業(yè)秘密的風(fēng)險(xiǎn)。又如,生成式AI暗中在數(shù)據(jù)庫中使用包含著作權(quán)的作品信息,用以支持生成的文本質(zhì)量,但未通知作者并支付報(bào)酬。二是違法犯罪者可能利用生成式AI編造詐騙信息,制作釣魚軟件,生成由大量用戶名和密碼構(gòu)成的組合攻擊在線賬戶,對個(gè)人財(cái)產(chǎn)安全造成嚴(yán)重?fù)p害風(fēng)險(xiǎn)。三是用戶可能會向生成式AI詢問有關(guān)個(gè)人健康的問題,但生成式AI對此類專業(yè)問題往往存在知識信息的局限,反饋給用戶的信息或建議可能會對個(gè)人健康相關(guān)的行為選擇造成誤導(dǎo)。例如,醫(yī)療診斷是建立在循證、檢查和學(xué)術(shù)參考基礎(chǔ)上的專業(yè)領(lǐng)域,這與生成式AI運(yùn)作的數(shù)據(jù)基礎(chǔ)存在本質(zhì)區(qū)別,生成式AI若是被運(yùn)用到個(gè)人的醫(yī)療咨詢上,必然對個(gè)人健康權(quán)益產(chǎn)生損害風(fēng)險(xiǎn)。
(四)風(fēng)險(xiǎn)識別:AI技術(shù)的黑箱升級
生成式AI引發(fā)的外在風(fēng)險(xiǎn)并非難以識別,既有的法律責(zé)任體系仍具備可解釋性和適用性,難以識別和應(yīng)對的是引發(fā)外在風(fēng)險(xiǎn)的內(nèi)在風(fēng)險(xiǎn)因素。換言之,外在、可識別的風(fēng)險(xiǎn)往往是由一系列內(nèi)在的技術(shù)控制——所謂技術(shù)黑箱引發(fā)的。全面規(guī)制生成式AI引發(fā)的風(fēng)險(xiǎn),必須追根溯源于程序設(shè)計(jì)、運(yùn)作的底層邏輯。但是,相較于傳統(tǒng)的終端應(yīng)用程序,生成式AI的運(yùn)作機(jī)制含有更為復(fù)雜的技術(shù)黑箱,這給規(guī)制過程的源頭——對風(fēng)險(xiǎn)根源的識別,以及進(jìn)一步采取規(guī)制措施帶來困難。
“黑箱”是社會發(fā)展歷史的基本特征,各類政治統(tǒng)治、團(tuán)體組織、工作職業(yè)都有一定程度的黑箱性質(zhì)②。在農(nóng)業(yè)社會或工業(yè)社會,法律可用自然語言反映并規(guī)定社會關(guān)系,一定程度上將社會中的黑箱轉(zhuǎn)化為白箱,從而增進(jìn)平等主體之間的互動,監(jiān)督制約黑箱中的權(quán)力。隨著人類社會進(jìn)入數(shù)字時(shí)代,信息技術(shù)介入社會各領(lǐng)域,算法成為計(jì)算機(jī)程序運(yùn)行的基本規(guī)則。但是,算法使用的計(jì)算機(jī)編程語言與法律的自然語言之間存在信息轉(zhuǎn)化的鴻溝,由此帶來當(dāng)代社會算法黑箱的規(guī)制難題。面對算法黑箱引發(fā)的歧視、信息控制、隱私侵犯等外在風(fēng)險(xiǎn),法律規(guī)制常常運(yùn)用算法公開或可解釋性原則的方法,使得算法本身變得更加公開透明、易于理解,從而有助于防控算法黑箱這一內(nèi)在風(fēng)險(xiǎn)引發(fā)的外在風(fēng)險(xiǎn),但面臨“可行性”和“可欲性”的障礙。
算法黑箱的規(guī)制難題在生成式AI技術(shù)上有增無減,甚至算法黑箱被進(jìn)一步放大,導(dǎo)致風(fēng)險(xiǎn)源頭更難識別。ChatGPT集合了當(dāng)今計(jì)算機(jī)領(lǐng)域的尖端技術(shù),加之屬于通用型AI,可被社會公眾廣泛使用,因此ChatGPT可謂刷新了人類社會歷史上的技術(shù)黑箱紀(jì)錄。一方面,ChatGPT著眼于通用型AI,越通用的原理規(guī)律越具有簡約的特征,其解釋或適用的空間也是巨大甚至沒有邊界的,ChatGPT等通用型人工智能的算法亦是如此,“GPT系列越寫越短,和GPT的越來越大成正比”[8],由此導(dǎo)致潛藏的風(fēng)險(xiǎn)及其解釋難以聚焦到特定問題上。另一方面,生成式AI采用大規(guī)模人工語言模型訓(xùn)練機(jī)制,訓(xùn)練者是否秉持客觀中立的態(tài)度或者夾雜違背公序良俗的成分,同樣構(gòu)成一個(gè)抽象且影響廣泛的技術(shù)黑箱。此外,就生成式AI的算法公開的規(guī)制路徑而言,運(yùn)用于基礎(chǔ)研究的基本算法是公開的,而具體到應(yīng)用環(huán)節(jié)的算法作為商業(yè)秘密是絕不公開的。例如,GPT3.0僅公開了簡化版本,完整版被微軟以排他方式取得。這意味著生成式AI的算法黑箱將始終存在。
總之,生成式AI實(shí)現(xiàn)了AI技術(shù)從專用向通用的迭代進(jìn)步,但其文本生成過程極不透明,這使得生成式AI成為迄今最深不可測的技術(shù)黑箱,風(fēng)險(xiǎn)規(guī)制中的風(fēng)險(xiǎn)識別因而困難,以致后續(xù)的風(fēng)險(xiǎn)評估、交流、預(yù)警等程序更難展開。
二、生成式人工智能的風(fēng)險(xiǎn)規(guī)制挑戰(zhàn)
每一次技術(shù)革新都會給人類社會帶來新風(fēng)險(xiǎn),法律必須對之作出應(yīng)對調(diào)整。與以往技術(shù)革新相比,生成式AI的技術(shù)迭代引發(fā)了全新的風(fēng)險(xiǎn)問題,給風(fēng)險(xiǎn)規(guī)制帶來新挑戰(zhàn),同時(shí)也產(chǎn)生了規(guī)制模式革新的新需求。
(一)政府規(guī)制:規(guī)制遲滯與資源局限
政府作為公共利益的代言人和保障者自然應(yīng)當(dāng)承擔(dān)起對生成式AI技術(shù)發(fā)展引發(fā)風(fēng)險(xiǎn)的防控職責(zé)。有效規(guī)制這些風(fēng)險(xiǎn)取決于規(guī)制的機(jī)構(gòu)、模式、工具、時(shí)機(jī)等多重因素,一眾變量的選擇調(diào)試應(yīng)依據(jù)生成式AI技術(shù)風(fēng)險(xiǎn)的特定環(huán)境以及由此帶來的規(guī)制困境,從而減少政府的風(fēng)險(xiǎn)規(guī)制失靈。
為技術(shù)變革而調(diào)整的法律必然遲緩于技術(shù)變革本身。遲到的原因除了認(rèn)識論上的局限性外,更重要的在于貝克指出的“現(xiàn)代化權(quán)力的分工結(jié)構(gòu)使國家陷入多重遲滯”。具言之,ChatGPT的誕生是技術(shù)決策和投資決策緊密結(jié)合的產(chǎn)物,科技巨頭出于競爭需要只會在暗中“自作主張”,在公眾、政府不知情或不注意的情況下技驚全球。這并非AI技術(shù)發(fā)展的特有現(xiàn)象,而是自工業(yè)化時(shí)代就已采取的商業(yè)習(xí)慣,知識產(chǎn)權(quán)、商業(yè)秘密法、技術(shù)投資協(xié)議等私法工具確認(rèn)了此類行為的商業(yè)理性。至于其副作用——生成式AI的潛在風(fēng)險(xiǎn),企業(yè)在研發(fā)決策時(shí)未必或者現(xiàn)實(shí)中很少會對之充分考量。政府既有責(zé)任減小生成式AI的風(fēng)險(xiǎn),還要在一定程度上包容AI的發(fā)展,確保技術(shù)與資本的結(jié)盟以推動技術(shù)創(chuàng)新和經(jīng)濟(jì)繁榮。換言之,政府同時(shí)面臨生成式AI帶來的風(fēng)險(xiǎn)威脅和發(fā)展機(jī)遇,處于公共領(lǐng)域職責(zé)壓力與經(jīng)濟(jì)創(chuàng)新政策考量之間。因此,政府在推進(jìn)風(fēng)險(xiǎn)規(guī)制過程中往往躊躇不前,加之不排除規(guī)制俘獲的可能性,導(dǎo)致規(guī)制延誤和風(fēng)險(xiǎn)擴(kuò)大。
規(guī)制遲滯主要?dú)w因于政府的主觀決策,而有限的規(guī)制資源在客觀上導(dǎo)致規(guī)制能力的缺失。政府針對特定行業(yè)展開風(fēng)險(xiǎn)規(guī)制,需要自身具備較高的專業(yè)性,這也是當(dāng)代政府內(nèi)專設(shè)食品、藥品、勞動、基礎(chǔ)設(shè)施等專門公共規(guī)制機(jī)關(guān)的原因。政府規(guī)制生成式AI需要科技、數(shù)據(jù)以及互聯(lián)網(wǎng)等相關(guān)公共規(guī)制機(jī)關(guān)相互配合。但是,生成式AI是高度專業(yè)化的技術(shù),公共規(guī)制機(jī)關(guān)本來就存在的人力資源和信息資源不足的問題將會更加突出。相關(guān)公共規(guī)制機(jī)關(guān)的有限工作人員需要關(guān)注職責(zé)范圍內(nèi)的廣泛技術(shù)問題,生成式AI帶來的深刻的新風(fēng)險(xiǎn)也只是眾多需要被規(guī)制的技術(shù)風(fēng)險(xiǎn)之一。與此同時(shí),對于公共規(guī)制機(jī)關(guān)的工作人員而言,他們與生成式AI的技術(shù)黑箱之間存在難以逾越的認(rèn)知障礙。盡管咨詢專家可以提供技術(shù)支持,但能否彌補(bǔ)工作人員自身的能力缺陷,使之有效認(rèn)知、追蹤生成式AI的發(fā)展運(yùn)行軌跡,準(zhǔn)確識別其中的風(fēng)險(xiǎn),仍有較大的不確定性。
在應(yīng)對生成式AI風(fēng)險(xiǎn)過程中,潛在的規(guī)制遲滯和有限的規(guī)制資源構(gòu)成進(jìn)一步的規(guī)制失靈風(fēng)險(xiǎn),僅依賴政府一方的風(fēng)險(xiǎn)規(guī)制難以達(dá)成理想目標(biāo)。政府是公共利益的執(zhí)行者,并且相較代議機(jī)關(guān),在應(yīng)對變化中的經(jīng)濟(jì)社會問題上,更具有政策和規(guī)制手段的敏捷性。因此,需要重新定位政府在生成式AI技術(shù)風(fēng)險(xiǎn)規(guī)制中的角色功能,即政府應(yīng)是“掌舵者”而非“劃槳者”①。為此,政府應(yīng)當(dāng)減少AI技術(shù)風(fēng)險(xiǎn)規(guī)制上的親力親為,避免被風(fēng)險(xiǎn)規(guī)制的細(xì)節(jié)問題掣肘,同時(shí),增強(qiáng)政府在實(shí)現(xiàn)技術(shù)安全目標(biāo)上的政策掌控能力,以便及時(shí)應(yīng)對技術(shù)發(fā)展和風(fēng)險(xiǎn)迭代的新形勢。
(二)市場自治:動力缺失與協(xié)調(diào)不足
生成式AI的研發(fā)運(yùn)營處于風(fēng)險(xiǎn)產(chǎn)生的源頭位置,最接近風(fēng)險(xiǎn)本身,也是唯一有能力知曉和改變生成式AI黑箱運(yùn)作規(guī)則的主體。顯然,在規(guī)制資源上,AI企業(yè)比公共規(guī)制機(jī)關(guān)具備更強(qiáng)的風(fēng)險(xiǎn)防控能力,作為風(fēng)險(xiǎn)制造者理應(yīng)成為風(fēng)險(xiǎn)防控的第一責(zé)任人。例如,ChatGPT生成文本存在意識形態(tài)和價(jià)值取向的風(fēng)險(xiǎn),主要原因在于作為語言模型訓(xùn)練者的Open AI的自身立場。如果在語言訓(xùn)練中能夠保持足夠的客觀中立,可以在很大程度上抑制這一風(fēng)險(xiǎn)。因此,生成式AI的風(fēng)險(xiǎn)規(guī)制應(yīng)當(dāng)充分調(diào)動存在于AI企業(yè)內(nèi)部的規(guī)制資源,推動AI企業(yè)開展風(fēng)險(xiǎn)自我規(guī)制。
但是,以AI企業(yè)為中心的風(fēng)險(xiǎn)自我規(guī)制面臨動力缺失和集體協(xié)調(diào)機(jī)制不充足的障礙。一方面,充分競爭是企業(yè)實(shí)施良好治理的重要外在動力,但生成式AI已呈現(xiàn)寡頭壟斷的局面。事實(shí)上,ChatGPT的投資研發(fā)模式印證了數(shù)字時(shí)代的“兩種相互強(qiáng)化的趨勢:數(shù)據(jù)的金融化和金融的數(shù)據(jù)化”[9](pXIX),只是其中的“數(shù)據(jù)”擴(kuò)展到生成式AI技術(shù)的數(shù)據(jù)庫和算法模型。在缺少巨額風(fēng)險(xiǎn)投資或先進(jìn)數(shù)據(jù)、算法技術(shù)支持的情況下,生成式AI市場難以產(chǎn)生新的競爭對手,這意味著未來生成式或通用型的AI技術(shù)市場容易形成少數(shù)科技巨頭壟斷的局面。另一方面,ChatGPT產(chǎn)生的風(fēng)險(xiǎn)與食品安全等傳統(tǒng)風(fēng)險(xiǎn)相比,對用戶的影響更具有潛藏性、間接性。即便有來自其他主體的風(fēng)險(xiǎn)提示,用戶仍可能無法清晰認(rèn)識,諸如怠于查證生成的醫(yī)療建議是否科學(xué)可信。可以預(yù)見,在缺少來自競爭對手和用戶監(jiān)督壓力的情況下,規(guī)制者(政府)、被規(guī)制者(AI企業(yè))與公眾之間的風(fēng)險(xiǎn)利益格局難以獲得市場競爭機(jī)制的平衡調(diào)節(jié),進(jìn)而導(dǎo)致AI企業(yè)缺少實(shí)施自我規(guī)制的動力。
從AI行業(yè)內(nèi)部的規(guī)制協(xié)調(diào)看,如果企業(yè)之間基于行業(yè)的良性發(fā)展目標(biāo),能夠自發(fā)形成組織協(xié)調(diào),也可以對風(fēng)險(xiǎn)起到規(guī)制作用,但這一理想化市場內(nèi)部規(guī)制場景難以自動形成。一般認(rèn)為,以行業(yè)協(xié)會為代表的市場自治組織可以“形成組織化私序”,在與政府保持溝通的同時(shí),“在與社會公共利益保持一致的前提下, 注重維護(hù)行業(yè)協(xié)會全體會員的利益”[10](p96)。行業(yè)的內(nèi)部協(xié)調(diào)需要較多企業(yè)以會員身份參與,實(shí)行民主化的協(xié)商治理,但生成式AI的高技術(shù)和資本門檻使得這一愿景難以實(shí)現(xiàn)。可能的情況是在少數(shù)大型互聯(lián)網(wǎng)公司進(jìn)入這一市場后,為應(yīng)對生成式AI的風(fēng)險(xiǎn)而協(xié)商制定標(biāo)準(zhǔn)規(guī)范。這應(yīng)當(dāng)由具備權(quán)威和利益平衡的主體推動實(shí)現(xiàn),這一主體只能是政府及其規(guī)制機(jī)關(guān)。事實(shí)上,如果缺少政府規(guī)制的干預(yù),AI技術(shù)企業(yè)難以在短期內(nèi)達(dá)成AI技術(shù)風(fēng)險(xiǎn)防控的一致,甚至拖延觀望中的企業(yè)進(jìn)入這一技術(shù)領(lǐng)域。有研究指出,由于 ChatGPT生成錯(cuò)誤信息造成的損害難以判定責(zé)任方,這是“其他大型互聯(lián)網(wǎng)公司可能也有類似的產(chǎn)品,但出于謹(jǐn)慎考慮沒有率先推出的原因之一”[11]。
總之,針對生成式AI的迭代風(fēng)險(xiǎn),來自政府的外部規(guī)制和市場的內(nèi)部規(guī)制都各自存在規(guī)制能力、動力等諸多不足。政府規(guī)制需要專業(yè)性的支持,發(fā)揮掌舵者的指引功能,市場或AI企業(yè)則需要外部力量推動其實(shí)施全面自我規(guī)制,自主防控技術(shù)引發(fā)的一系列風(fēng)險(xiǎn)。這也表明,伴隨技術(shù)進(jìn)步引發(fā)的風(fēng)險(xiǎn)迭代升級,規(guī)制對象高度復(fù)雜化、黑箱化,單純的政府規(guī)制或市場自治都有其局限性,只能運(yùn)用更加復(fù)合的規(guī)制模式。與此同時(shí),生成式AI誕生于信息傳播迅捷、公開透明程度較高的數(shù)字時(shí)代,對其風(fēng)險(xiǎn)的疑慮及其規(guī)制探索跟隨生成式AI一道進(jìn)入政府和公眾視野,引發(fā)了廣泛探討。這為引入新型規(guī)制模式,由更多元主體參與規(guī)制,形成AI技術(shù)風(fēng)險(xiǎn)社會共治的局面創(chuàng)造了良好的實(shí)施環(huán)境。
三、基于元規(guī)制模式的生成式人工智能風(fēng)險(xiǎn)規(guī)制
Open AI首席技術(shù)穆拉蒂坦言,若要ChatGPT走得更遠(yuǎn),就需要對其進(jìn)行合規(guī)性改造。對于在未來將廣泛使用的AI技術(shù)進(jìn)行風(fēng)險(xiǎn)規(guī)制,“所需追問的不是如何‘規(guī)制技術(shù)’,而是現(xiàn)有的法律和規(guī)制框架應(yīng)該如何變革”[5](p575)。新型的規(guī)制框架必須反映政府規(guī)制、市場自治、社會參與的合力規(guī)制需求,展現(xiàn)對AI科技研發(fā)的包容性,這不僅有助于風(fēng)險(xiǎn)投資和自由創(chuàng)新,同時(shí)也不失風(fēng)險(xiǎn)規(guī)制的審慎。
(一)基于元規(guī)制的風(fēng)險(xiǎn)規(guī)制框架
生成式AI引發(fā)的風(fēng)險(xiǎn)防控問題可被視為社會性規(guī)制在數(shù)字時(shí)代的最新體現(xiàn)①,從風(fēng)險(xiǎn)規(guī)制的模式選擇看,有效整合多方主體規(guī)制資源的規(guī)制治理勢在必行②。在多元主體參與的規(guī)制治理過程中,需要滿足AI法律框架設(shè)定、促進(jìn)主體之間合作學(xué)習(xí)、提升AI企業(yè)自我規(guī)制效率以及應(yīng)對潛在自我規(guī)制失靈的安全保障需求。因此,應(yīng)將以往社會性規(guī)制當(dāng)中的不同模式關(guān)聯(lián)起來,進(jìn)行融合和再規(guī)制,由此形成元規(guī)制(Meta-regulation),也稱“后設(shè)規(guī)制”③。所謂“元規(guī)制”是指經(jīng)政府設(shè)計(jì)、引導(dǎo)和保障的自我規(guī)制,或更簡要地概括為“對自我規(guī)制的規(guī)制”。這里的“元”既可以理解為框架性的規(guī)制法律,在法律框定之下引導(dǎo)市場主體制定豐富的自我規(guī)制規(guī)范;亦可理解為具有優(yōu)先實(shí)施地位和目標(biāo)性的市場主體自我規(guī)制,在自我規(guī)制不能有效實(shí)施,有風(fēng)險(xiǎn)外溢的可能或者現(xiàn)實(shí)損害時(shí),會引發(fā)政府的強(qiáng)制性后設(shè)規(guī)制。因此,框架性法律和自我規(guī)制都具有“元”地位的先導(dǎo)性,政府和立法居于風(fēng)險(xiǎn)防控的指導(dǎo)地位,盡其職責(zé)之內(nèi)和力所能及之事,同時(shí)倡導(dǎo)企業(yè)履行風(fēng)險(xiǎn)防控第一責(zé)任人的職責(zé)。元規(guī)制理念展現(xiàn)了當(dāng)代公法的輔助原則以及公法私法相互融合的現(xiàn)代法治發(fā)展趨勢④,回應(yīng)了當(dāng)下復(fù)雜的風(fēng)險(xiǎn)規(guī)制環(huán)境和規(guī)制資源分布的基本現(xiàn)實(shí)。
在風(fēng)險(xiǎn)元規(guī)制的模式下,規(guī)制的基本框架包含四個(gè)方面:一是廓清規(guī)制對象范圍,這是任何立法活動或風(fēng)險(xiǎn)規(guī)制都要解決的先決問題;二是完善規(guī)范的體系,整合法律、標(biāo)準(zhǔn)和其他規(guī)范的約束功能;三是確立公共規(guī)制機(jī)關(guān)、被規(guī)制者(企業(yè))、具有規(guī)制功能的第三方機(jī)構(gòu)(認(rèn)證機(jī)構(gòu)等)以及社會公眾之間的主體關(guān)系,明確各自的功能角色及權(quán)利義務(wù);四是構(gòu)建一套合規(guī)監(jiān)督的程序,確保企業(yè)有足夠的動力和明確的機(jī)制來主動實(shí)施風(fēng)險(xiǎn)防控措施,并預(yù)設(shè)在自我規(guī)制失靈——發(fā)生違規(guī)行為或風(fēng)險(xiǎn)外溢導(dǎo)致現(xiàn)實(shí)損害時(shí),應(yīng)當(dāng)如何應(yīng)對。由此形成客體范圍、主體關(guān)系、規(guī)范體系和程序控制的風(fēng)險(xiǎn)元規(guī)制模式。
(二)生成式AI風(fēng)險(xiǎn)規(guī)制對象范圍的廓清
防控生成式AI可能帶來的風(fēng)險(xiǎn),基本前提是明確風(fēng)險(xiǎn)的來源,廓清規(guī)制的對象范圍。以ChatGPT為例,其關(guān)鍵技術(shù)支撐來自算法模型、龐大的數(shù)據(jù)集和訓(xùn)練機(jī)制,這也是生成式AI的主要風(fēng)險(xiǎn)源頭,應(yīng)當(dāng)著重對三者及其終端產(chǎn)品展開規(guī)制,構(gòu)建規(guī)范體系和防控程序。
首先,就數(shù)據(jù)而言,應(yīng)當(dāng)在靜態(tài)層面基于數(shù)據(jù)的敏感度和重要性等標(biāo)準(zhǔn)進(jìn)行數(shù)據(jù)分類分級管理。根據(jù)《中華人民共和國數(shù)據(jù)安全法》第21條規(guī)定,政府核心數(shù)據(jù)、個(gè)人隱私、商業(yè)秘密的信息應(yīng)當(dāng)禁止生成式AI的使用,對其他類別的信息則采取不同程度的限制性要求,諸如個(gè)人信息數(shù)據(jù)的授權(quán)使用等。在動態(tài)流動層面,同樣需要采取類似措施使得生成式AI在數(shù)據(jù)收集、流動過程中有所依循。
其次,算法居于生成式AI設(shè)計(jì)運(yùn)行的中心位置,OpenAI使用的Transformer算法模型使得數(shù)據(jù)集的數(shù)量級和模型訓(xùn)練的效率都大幅提升。囿于算法自身的商業(yè)秘密屬性,算法天然缺乏透明度,但這并不意味著不需要將之納入規(guī)制范圍,而是應(yīng)將規(guī)制重點(diǎn)放在事前和事中的企業(yè)合規(guī)環(huán)節(jié),將算法合規(guī)納入AI企業(yè)合規(guī)的整體體系,要求企業(yè)加強(qiáng)技術(shù)管理。
再次,生成式AI的訓(xùn)練機(jī)制是確保文本生成內(nèi)容質(zhì)量的關(guān)鍵,也是訓(xùn)練者或AI企業(yè)“三觀”的輸出機(jī)制。這意味著需要對訓(xùn)練機(jī)制進(jìn)行公共秩序和倫理上的規(guī)制監(jiān)督。AI企業(yè)應(yīng)當(dāng)將訓(xùn)練機(jī)制作為產(chǎn)品服務(wù)質(zhì)量控制的關(guān)鍵節(jié)點(diǎn),建立不良信息識別和辟謠機(jī)制,防止有害公共利益的信息或訓(xùn)練結(jié)果進(jìn)入AI程序系統(tǒng)。
最后,生成式AI作為數(shù)字技術(shù)產(chǎn)品具有快速迭代的特征,因而需要建立起一套動態(tài)的安全審查機(jī)制,包括實(shí)時(shí)風(fēng)險(xiǎn)監(jiān)測和定期風(fēng)險(xiǎn)評估,確保向市場投放升級迭代產(chǎn)品前,產(chǎn)品本身均經(jīng)過全面的風(fēng)險(xiǎn)檢查。
(三)參與規(guī)制多元主體的協(xié)調(diào)
公共規(guī)制機(jī)關(guān)、AI企業(yè)、第三方機(jī)構(gòu)和社會公眾都是生成式AI風(fēng)險(xiǎn)的利益攸關(guān)者,并且對規(guī)制過程產(chǎn)生影響。在元規(guī)制模式下,公共規(guī)制機(jī)關(guān)承擔(dān)“掌舵人”的角色,是政策決定者和立法推動者,需要協(xié)調(diào)多方的利益關(guān)系。同時(shí),政府作為“公共利益代言人”,需要在促進(jìn)AI技術(shù)發(fā)展創(chuàng)新和防控風(fēng)險(xiǎn)損害之間取得平衡,對于潛在、廣泛的AI風(fēng)險(xiǎn)不可能求得絕對安全,應(yīng)當(dāng)避免采取過于嚴(yán)厲的命令控制規(guī)制措施。政府培育AI市場內(nèi)部自我規(guī)制,促進(jìn)社會系統(tǒng)對AI企業(yè)和市場系統(tǒng)的社會監(jiān)督應(yīng)是政府規(guī)制AI風(fēng)險(xiǎn)的目標(biāo)。具言之,政府應(yīng)承擔(dān)三方面的職責(zé):一是行使AI法律、標(biāo)準(zhǔn)的規(guī)范創(chuàng)制權(quán),推動AI領(lǐng)域的立法,協(xié)調(diào)風(fēng)險(xiǎn)防控的AI行業(yè)標(biāo)準(zhǔn)建設(shè);二是監(jiān)督AI企業(yè)執(zhí)行規(guī)范以及作出的降低潛在風(fēng)險(xiǎn)的承諾;三是對違規(guī)AI企業(yè)進(jìn)行調(diào)查處罰。
AI企業(yè)既是風(fēng)險(xiǎn)的自我規(guī)制者,也是被規(guī)制者。AI企業(yè)為了長遠(yuǎn)發(fā)展,可以通過主動規(guī)制技術(shù)風(fēng)險(xiǎn),積極承擔(dān)社會責(zé)任的方式獲得社會信任,減少來自公共規(guī)制機(jī)關(guān)和社會公眾的懷疑。元規(guī)制模式可利用這一現(xiàn)實(shí),強(qiáng)化AI企業(yè)的自我規(guī)制義務(wù),賦予其實(shí)施自我規(guī)制的自由空間,這又可以理解為自我規(guī)制的權(quán)利。就義務(wù)而言,AI企業(yè)應(yīng)當(dāng)承擔(dān)起風(fēng)險(xiǎn)內(nèi)控義務(wù),對外接受監(jiān)督,積極糾錯(cuò)和止損補(bǔ)償。就權(quán)利而言,AI企業(yè)享有選擇遵守自愿性規(guī)范和對外承諾規(guī)制風(fēng)險(xiǎn)的權(quán)利,參與制定AI風(fēng)險(xiǎn)防控規(guī)則的權(quán)利,以及因風(fēng)險(xiǎn)損害問題產(chǎn)生糾紛時(shí)獲得正當(dāng)程序的權(quán)利。
第三方機(jī)構(gòu)和社會公眾也在生成式AI的元規(guī)制模式中扮演重要角色。伴隨未來生成式AI市場參與企業(yè)、產(chǎn)品的增多,企業(yè)之間不僅有競爭,還可以形成自治型組織,或者產(chǎn)生針對生成式AI產(chǎn)品的認(rèn)證組織。這些來自市場內(nèi)部、獨(dú)立于AI企業(yè)和公共規(guī)制機(jī)關(guān)的組織可就AI產(chǎn)品風(fēng)險(xiǎn)問題展開質(zhì)量標(biāo)準(zhǔn)的制定和認(rèn)證監(jiān)督。生成式AI的用戶同樣可以在督促AI企業(yè)防控風(fēng)險(xiǎn)上發(fā)揮作用,這是AI技術(shù)走向通用型AI的必然結(jié)果。例如,行使廣泛的消費(fèi)者權(quán)利,要求AI企業(yè)在風(fēng)險(xiǎn)信息披露、內(nèi)容客觀中立、個(gè)人信息保護(hù)、數(shù)據(jù)安全等方面承擔(dān)責(zé)任,接受公眾咨詢。當(dāng)然,發(fā)揮第三方機(jī)構(gòu)和社會公眾的主體功能,需要政府以及法律框架的確認(rèn)和支持。
(四)軟硬法混合規(guī)范框架性體系的構(gòu)建
近年來,歐盟和美國已經(jīng)針對AI技術(shù)引發(fā)的風(fēng)險(xiǎn)推進(jìn)規(guī)制立法或政策指導(dǎo),均體現(xiàn)了元規(guī)制模式下的框架性法律引導(dǎo)企業(yè)自我規(guī)制的特點(diǎn)。2021年,歐盟委員會發(fā)布的《關(guān)于制定人工智能統(tǒng)一規(guī)則》將基本權(quán)利產(chǎn)生影響的風(fēng)險(xiǎn)劃分為三個(gè)級別,除了對少數(shù)劃進(jìn)“不可接受的風(fēng)險(xiǎn)”的AI程序予以禁止外,對于高風(fēng)險(xiǎn)的規(guī)制方法只是確立強(qiáng)制性的目標(biāo)要求,諸如AI企業(yè)應(yīng)當(dāng)“建立充分的風(fēng)險(xiǎn)管理系統(tǒng)”“確保人類對于AI系統(tǒng)在使用時(shí)的有效規(guī)制”“達(dá)到高水平的準(zhǔn)確度、穩(wěn)健性和網(wǎng)絡(luò)安全性”[12]。相較歐盟AI法案的強(qiáng)制性,美國側(cè)重不具有法律效力的軟法治理。2022年,美國《人工智能權(quán)利法案藍(lán)圖》就建立保護(hù)所有人免受前述威脅的社會、使用技術(shù)強(qiáng)化最高的價(jià)值觀提供了一個(gè)基本指南,而具體的行為指引反映在2023年美國國家標(biāo)準(zhǔn)與技術(shù)研究院(National Institute of Standards and Technology,NIST)制定的《人工智能風(fēng)險(xiǎn)管理框架》①中。
由此可見,圍繞AI風(fēng)險(xiǎn)和權(quán)利保護(hù)問題,歐盟和美國制定了框架性的目標(biāo)或者基本路線圖,具體落實(shí)主要依靠AI企業(yè)自身選擇恰當(dāng)?shù)姆绞?,拼湊出自己的道路。這一AI風(fēng)險(xiǎn)規(guī)制的思路反映了元規(guī)制模式下的法律框架性,防控AI風(fēng)險(xiǎn)的具體操作應(yīng)由AI企業(yè)利用自身的資源完成,公共規(guī)制機(jī)關(guān)更多是發(fā)揮宏觀目標(biāo)確立、行為監(jiān)督以及回應(yīng)公眾關(guān)切的職能。“為了在甄別和防范風(fēng)險(xiǎn)的同時(shí)保護(hù)人工智能研發(fā)的積極性和創(chuàng)造性,有必要更多地采取軟法方式,而不是簡單地提高硬法的懲戒力度?!盵13](p4)這與針對食品、藥品等安全風(fēng)險(xiǎn)的傳統(tǒng)社會性規(guī)制中的細(xì)節(jié)性硬法規(guī)定存在顯著差別。事實(shí)上,框架性立法及運(yùn)用軟法的AI風(fēng)險(xiǎn)規(guī)制手段,更適應(yīng)AI企業(yè)及其技術(shù)發(fā)展的自由空間需求,也緩解了立法中的博弈困境。此外,具體操作細(xì)節(jié)留給標(biāo)準(zhǔn)規(guī)范和AI企業(yè)自身選擇,也方便規(guī)范跟隨技術(shù)進(jìn)步而作出快速調(diào)整。
總之,AI風(fēng)險(xiǎn)規(guī)制應(yīng)當(dāng)是框架性法律與具體行為標(biāo)準(zhǔn)相互配合的結(jié)構(gòu):法律解決AI風(fēng)險(xiǎn)規(guī)制的目標(biāo)、基本原則,規(guī)制機(jī)關(guān)的權(quán)力、職責(zé),AI企業(yè)及其他參與者的權(quán)利義務(wù)關(guān)系,尤其是對AI企業(yè)的合規(guī)監(jiān)督機(jī)制;行為標(biāo)準(zhǔn)則側(cè)重更加具體的風(fēng)險(xiǎn)防控操作,突出自愿性標(biāo)準(zhǔn)的地位,供AI企業(yè)自由選擇。在未來,我國可以制定一部框架性的人工智能法,由公共規(guī)制機(jī)關(guān)引導(dǎo)AI企業(yè)之間協(xié)同制定自愿性的團(tuán)體標(biāo)準(zhǔn),AI企業(yè)再根據(jù)自身產(chǎn)品實(shí)際制定內(nèi)部風(fēng)險(xiǎn)管控方案,形成軟硬法混合規(guī)制的規(guī)范體系。
(五)全方位合規(guī)監(jiān)督機(jī)制的構(gòu)建
實(shí)現(xiàn)生成式AI的風(fēng)險(xiǎn)善治目標(biāo),除了制定良法,還需要構(gòu)建監(jiān)督機(jī)制確保AI企業(yè)充分執(zhí)行風(fēng)險(xiǎn)防控規(guī)范。生成式AI的風(fēng)險(xiǎn)元規(guī)制模式旨在強(qiáng)化風(fēng)險(xiǎn)的源頭控制,將AI風(fēng)險(xiǎn)防控的成本內(nèi)部化。為此,除了依靠企業(yè)自身提升風(fēng)險(xiǎn)意識,主動承擔(dān)風(fēng)險(xiǎn)防控的社會責(zé)任外,外部的多重壓力機(jī)制也必不可少。為此,應(yīng)構(gòu)建從AI企業(yè)內(nèi)部到其他市場參與者以及公共規(guī)制機(jī)關(guān)的全方位合規(guī)監(jiān)督。
首先,AI立法可要求在AI企業(yè)內(nèi)部設(shè)置安全官,其法律地位屬于公共事務(wù)的“受托人”,輔助公共規(guī)制機(jī)關(guān)實(shí)現(xiàn)AI風(fēng)險(xiǎn)規(guī)制的公共目標(biāo)。AI企業(yè)的安全官是AI企業(yè)的“內(nèi)部執(zhí)法者”,也是落實(shí)各項(xiàng)規(guī)范要求的“守護(hù)人”。具言之,AI企業(yè)的安全官承擔(dān)生成式AI產(chǎn)品的風(fēng)險(xiǎn)防控義務(wù),監(jiān)督內(nèi)控規(guī)范、標(biāo)準(zhǔn)規(guī)范和法律規(guī)則的執(zhí)行,并且在風(fēng)險(xiǎn)議題上與公共規(guī)制機(jī)關(guān)和AI企業(yè)的高層決策者保持溝通。
其次,來自市場內(nèi)部的認(rèn)證機(jī)制也可以發(fā)揮監(jiān)督AI企業(yè)持續(xù)自主合規(guī)的功能。歐盟《關(guān)于制定人工智能統(tǒng)一規(guī)則》規(guī)定,“經(jīng)提供者評估后被視為符合高風(fēng)險(xiǎn)性AI系統(tǒng)強(qiáng)制性規(guī)定范圍內(nèi)的AI系統(tǒng),應(yīng)附有‘CE’合規(guī)標(biāo)志”,這一標(biāo)志可以由未來發(fā)展起來的AI風(fēng)險(xiǎn)管理第三方認(rèn)證機(jī)構(gòu)來完成。相較公共規(guī)制機(jī)關(guān)而言,認(rèn)證機(jī)構(gòu)更具有專業(yè)性且來自市場系統(tǒng),對于AI企業(yè)自身認(rèn)證更具有獨(dú)立性的優(yōu)勢。這種第三方認(rèn)證機(jī)制具有持續(xù)性,認(rèn)證機(jī)構(gòu)若發(fā)現(xiàn)獲證AI企業(yè)在后續(xù)不符合風(fēng)險(xiǎn)防控規(guī)范的,可以暫?;虺蜂N認(rèn)證,并公布結(jié)果。
再次,除了AI企業(yè)自身外,與生成式AI產(chǎn)品關(guān)聯(lián)的其他企業(yè)也應(yīng)當(dāng)對產(chǎn)品的風(fēng)險(xiǎn)承擔(dān)責(zé)任。例如,ChatGPT的語言模型訓(xùn)練由其他企業(yè)承包完成,后者也應(yīng)當(dāng)對產(chǎn)品的最終風(fēng)險(xiǎn)承擔(dān)責(zé)任,可以要求其監(jiān)督AI企業(yè)符合安全規(guī)范。歐盟《關(guān)于制定人工智能統(tǒng)一規(guī)則》繼承了此前《通用數(shù)據(jù)保護(hù)條例》中對關(guān)聯(lián)企業(yè)的義務(wù),規(guī)定“高風(fēng)險(xiǎn)AI系統(tǒng)的進(jìn)口商、分銷商和使用者有責(zé)任確保這些產(chǎn)品在投放市場前符合監(jiān)管要求,并確保產(chǎn)品的安全使用”。實(shí)際上,這一規(guī)定促使AI市場中的關(guān)聯(lián)企業(yè)監(jiān)督AI企業(yè),在市場合作的私人領(lǐng)域推進(jìn)實(shí)現(xiàn)風(fēng)險(xiǎn)防控的公法目標(biāo)。
最后,廣大用戶乃至社會公眾也是監(jiān)督AI企業(yè)安全合規(guī)的重要力量,為此需要提升公眾對AI產(chǎn)品風(fēng)險(xiǎn)的理性認(rèn)知,強(qiáng)制AI企業(yè)對產(chǎn)品及其生成文本進(jìn)行風(fēng)險(xiǎn)警示。此類警示有助于用戶明確生成式AI的客體工具性,避免“主客混同”的認(rèn)知障礙。立法還可創(chuàng)設(shè)更多的公眾參與監(jiān)督機(jī)制,針對面向大眾的生成式AI,應(yīng)當(dāng)要求AI企業(yè)的相關(guān)重大決策接受公眾咨詢。
以上主體的風(fēng)險(xiǎn)監(jiān)督均來自AI市場體系內(nèi)部,與傳統(tǒng)風(fēng)險(xiǎn)規(guī)制中以公共規(guī)制機(jī)關(guān)為主導(dǎo)的單向監(jiān)督機(jī)制形成鮮明區(qū)別。當(dāng)然,這并不意味著在元規(guī)制模式下,政府不承擔(dān)監(jiān)督AI企業(yè)合規(guī)守法和防控風(fēng)險(xiǎn)的職責(zé),而是集中有限的規(guī)制資源對市場內(nèi)部的監(jiān)督者進(jìn)行再監(jiān)督,對這些監(jiān)督行為進(jìn)行監(jiān)測、評價(jià),反思框架性立法和標(biāo)準(zhǔn)規(guī)范體系對AI風(fēng)險(xiǎn)的可控性,并適時(shí)進(jìn)行規(guī)范和政策上的調(diào)整。
四、結(jié)語
ChatGPT創(chuàng)造了空前的技術(shù)應(yīng)用普及速度,這一生成式AI產(chǎn)品給世人帶來驚艷的技術(shù)體驗(yàn),但與此同時(shí),也引發(fā)了前所未有的風(fēng)險(xiǎn)迭代問題。一方面,生成式AI技術(shù)正在趨近人類的語言思維能力,引發(fā)主客關(guān)系模糊、法益侵害泛化以及技術(shù)黑箱化等一系列嚴(yán)峻的風(fēng)險(xiǎn)問題。另一方面,在互聯(lián)網(wǎng)載體加持下,生成式AI風(fēng)險(xiǎn)的副產(chǎn)品也在未經(jīng)充分審驗(yàn)、控制的情況下,在極短時(shí)間內(nèi)擴(kuò)展至全社會。元規(guī)制模式具備適應(yīng)技術(shù)風(fēng)險(xiǎn)迅速迭代的敏捷性治理特征,既強(qiáng)化政府規(guī)制的宏觀引導(dǎo)和風(fēng)險(xiǎn)保障職責(zé),又突出AI企業(yè)在框架性法律引導(dǎo)下的風(fēng)險(xiǎn)源頭控制和自我規(guī)制義務(wù),回應(yīng)了技術(shù)風(fēng)險(xiǎn)迭代引發(fā)的規(guī)制資源不足難題和規(guī)制協(xié)調(diào)需求。目前,這一模式的具體制度構(gòu)建還停留在歐美國家立法的探索階段,必然會伴隨未來生成式AI乃至更加通用型AI技術(shù)的研發(fā)使用而變化調(diào)整。我國同樣面臨平衡AI技術(shù)自由創(chuàng)新與潛在風(fēng)險(xiǎn)防控的難題,未來可在元規(guī)制模式下構(gòu)建AI風(fēng)險(xiǎn)規(guī)制框架,引導(dǎo)AI技術(shù)創(chuàng)新發(fā)展。
參考文獻(xiàn):
[1][德]烏爾里?!へ惪?風(fēng)險(xiǎn)社會:新的現(xiàn)代性之路[M].張文杰,何博文,譯.上海:譯林出版社,2018.
[2][美]斯圖爾特·羅素,彼得·諾維格.人工智能現(xiàn)代方法(第四版)[M].張博雅,等譯.北京:人民郵電出版社,2022.
[3]Turing A M. Computing Machinery and Intelligence[J]. Mind, 1950(59).
[4]Iwaniuk P. A Conversation with Demis Hassabis, the Bullfrog Al Prodigy Now Finding Solutions to the Worlds Big Problems [EB/OL].(2016-07-15) [2023-03-21].https://www.pcgamesn.com/demis-hassabis-interview.
[5]Brownsword R, Scotford E,Yeung K. The Oxford Handbook of Law, Regulation and Technology[M]. Oxford: Oxford University Press, 2017.
[6]Domingos P.The Master Algorithm[M].New York: Basic Books, 2015.
[7]張力,陳鵬.機(jī)器人“人格”理論批判與人工智能物的法律規(guī)制[J].學(xué)術(shù)界,2018(12).
[8]猛猿.ChatGPT解析系列:GPT1、GPT2與GPT3 [EB/OL].(2023-02-25) [2023-03-21].https://mp.weixin.qq.com/s/iohLXnQy_r1E_a2J6h5Jaw.
[9][美]弗蘭克·帕斯奎爾.黑箱社會:控制金錢和信息的數(shù)據(jù)法則[M].趙亞男,譯.北京:中信出版社,2015.
[10]汪莉.論行業(yè)自治的合法性[J].理論學(xué)刊,2012(11).
[11]陳洋,劉璐明.ChatGPT:大力出奇跡[EB/OL].(2023-02-15) [2023-03-21].https://mp.weixin.qq.com/s/Nkl1HFC6au1GNXgwE9iABg.
[12]European Commission Proposes a Risk-Based Approach to Regulate Use of AI[EB/OL]. (2021-04-21) [2023-03-21]. https://www.scl.org/news/12247-european-commission-proposes-a-risk-based-approach-to-regulate-use-of-ai.
[13]季衛(wèi)東. 人工智能開發(fā)的理念、法律以及政策[J].東方法學(xué),2019(5).
責(zé)任編輯" "楊" "幸