龍柯宇
關(guān)鍵詞:生成式人工智能 技術(shù)樣態(tài) 應(yīng)用失范 過程性規(guī)制 平臺監(jiān)管 ChatGPT
一、問題的提出
技術(shù)在塑造新的大模型的同時,也極大地改變了信息傳播范式,因數(shù)據(jù)與算法雙輪驅(qū)動而引發(fā)的網(wǎng)絡(luò)失范行為層出不窮,“破壞性創(chuàng)新”因此得名。近期爆紅的現(xiàn)象級產(chǎn)品ChatGPT,表征著生成式人工智能正在發(fā)生的快速迭代和進(jìn)化,其不僅重構(gòu)了人們的認(rèn)知邏輯,還革新了傳統(tǒng)產(chǎn)業(yè)的運(yùn)作方式。面對ChatGPT上線兩月用戶破億的“狂飆”事實(shí),前有360創(chuàng)始人周鴻祎稱其為“通用人工智能發(fā)展的奇點(diǎn)和強(qiáng)人工智能即將到來的拐點(diǎn)”,后有馬斯克等千名科技人士集體呼吁暫停訓(xùn)練比GPT-4更強(qiáng)大的人工智能系統(tǒng)至少6個月,而意大利則成為首個禁用ChatGPT的國家。其實(shí),無論是盛贊抑或詬病,都是數(shù)字化轉(zhuǎn)型進(jìn)程中對生成式人工智能的一種應(yīng)用考察與注解,旨在于社會接受度范圍內(nèi)引導(dǎo)其向善發(fā)展,以此增進(jìn)人類福祉。
不同于側(cè)重分析與判斷的決策式人工智能,生成式人工智能憑借深度學(xué)習(xí)與生成算法,通過檢查訓(xùn)練示例以最大限度地利用現(xiàn)有數(shù)字內(nèi)容的分布模式,從而生成不同于學(xué)習(xí)樣本的、多樣化的、具有原創(chuàng)性的新內(nèi)容??偟膩碚f,生成式人工智能的崛起是數(shù)據(jù)、算法和算力共同作用的結(jié)果,其中,神經(jīng)網(wǎng)絡(luò)算法的大規(guī)模使用系最為關(guān)鍵的因素。當(dāng)下,生成式人工智能主要應(yīng)用于消費(fèi)端(通過內(nèi)容生成,提升消費(fèi)者效用)和產(chǎn)業(yè)端(加速自動化,促進(jìn)技術(shù)進(jìn)步和新要素創(chuàng)造),其典型代表便是ChatGPT、社交機(jī)器人(Social"Bots)等聊天機(jī)器人模型。具體來說,ChatGPT是一款基于Transformer架構(gòu)訓(xùn)練出的GPT系列的自然語言處理工具,其本質(zhì)是一種“大數(shù)據(jù)+機(jī)器學(xué)習(xí)+模擬演練+微調(diào)變換+加工輸出”的人機(jī)智能交互應(yīng)用程序。而社交機(jī)器人則是一種經(jīng)由編程并按照一定算法運(yùn)行的計(jì)算機(jī)程序,其偽裝成社交媒體平臺的真實(shí)用戶,通過關(guān)注、發(fā)帖、點(diǎn)贊、評論、分享等交互方式,實(shí)現(xiàn)商業(yè)引流、輿論引導(dǎo)的目的。
網(wǎng)絡(luò)空間本應(yīng)是現(xiàn)實(shí)社會關(guān)系在虛擬時空得以存續(xù)和延伸的一個場域,但惡意的生成式人工智能卻企圖在各個維度最大限度地模仿和貼近人類,并利用數(shù)據(jù)空洞和社交網(wǎng)絡(luò)“弱連接”的特性,滲透進(jìn)真人用戶群體,再“一本正經(jīng)地兜圈子”,或者偽造出大量網(wǎng)友對某一話題或人物的同意或反對意見,進(jìn)而制造熱門話題,最終達(dá)致某種精心設(shè)計(jì)的社會影響,其對互聯(lián)網(wǎng)生態(tài)造成的負(fù)面效應(yīng)委實(shí)不可小覷。
現(xiàn)實(shí)中,生成式人工智能在減輕互聯(lián)網(wǎng)群組負(fù)責(zé)人工作量和實(shí)現(xiàn)技術(shù)賦能的同時,也引發(fā)了一系列網(wǎng)絡(luò)亂象。譬如某明星微博取得一億轉(zhuǎn)發(fā)量的幕后推手便是利用了社交機(jī)器人來制造流量和控制娛樂風(fēng)向。同樣,在社交機(jī)器人的幫助下,Cynk科技公司的股票從每股0.10美元一躍漲到了每股20美元,公司市值增長了近200倍,升至60億美元。即便是在公共衛(wèi)生領(lǐng)域,社交機(jī)器人也頻頻介入電子煙禁售等話題討論中。此外,不法之徒也盯上了ChatGPT,用其創(chuàng)建無代碼的虛假內(nèi)容,以此實(shí)施詐騙、恐嚇、誹謗等網(wǎng)絡(luò)犯罪。
客觀來講,聚集了上億用戶的互聯(lián)網(wǎng)確實(shí)為生成式人工智能的規(guī)?;?、產(chǎn)業(yè)化、平臺化發(fā)展提供了優(yōu)渥的資源環(huán)境,但作為科技進(jìn)步表征的人工智能卻難免被濫用,甚至服務(wù)于違法犯罪活動。黨的二十大報告提出,要健全網(wǎng)絡(luò)綜合治理體系,推動形成良好網(wǎng)絡(luò)生態(tài);要健全國家安全體系,強(qiáng)化網(wǎng)絡(luò)、數(shù)據(jù)等安全保障體系建設(shè)。國家互聯(lián)網(wǎng)信息辦公室于2023年4月11日發(fā)布的《生成式人工智能服務(wù)管理辦法(征求意見稿)》則明確了國家對生成式人工智能產(chǎn)業(yè)的支持和鼓勵態(tài)度,并首次就相關(guān)監(jiān)管治理(包括準(zhǔn)入資格、安全評估、責(zé)任義務(wù)、處罰措施等)給予了較為詳盡的規(guī)定。基于此,有必要穿透生成式人工智能的技術(shù)表層,將零散式的法律責(zé)任探究代之以體系化的邏輯考量,鑄就對此類人工智能由表至實(shí)的科學(xué)規(guī)制路向。
二、生成式人工智能的技術(shù)樣態(tài)考
伴隨生成式人工智能以獨(dú)立信源和信宿的身份出現(xiàn)于網(wǎng)絡(luò)世界, 信息失真的缺陷被進(jìn)一步放大,并從根本上解構(gòu)了“人—人”交流場景。在缺乏明確的責(zé)任主體和義務(wù)約束的情形下,將生成式人工智能大規(guī)模地應(yīng)用于民眾的虛擬社交場景,無疑會對人際交往和權(quán)益保障造成一系列危機(jī)。鑒之,應(yīng)當(dāng)關(guān)注生成式人工智能背后的技術(shù)問題,分析其運(yùn)行邏輯和行為特征,進(jìn)而厘清科技與法治的內(nèi)在關(guān)聯(lián),為相關(guān)法律規(guī)制提供可靠的現(xiàn)實(shí)歸依。
(一)生成式人工智能的技術(shù)邏輯與行為特征
在技術(shù)路徑上,生成式人工智能可以通過經(jīng)驗(yàn)學(xué)習(xí)和技術(shù)性模仿,實(shí)現(xiàn)從生成到創(chuàng)造層面對人類的“超模擬”,其所使用的生成模型主要包括生成對抗模型、自回歸模型、變分自編碼模型、流模型以及擴(kuò)散模型。此處以社交機(jī)器人為例闡釋生成式人工智能的技術(shù)架構(gòu)與傳播特質(zhì)。
人們對于“互聯(lián)網(wǎng)自動通信”這一概念并不陌生,例如電子郵件用戶較常使用的外出通知郵件。而社交機(jī)器人的特殊之處乃在于,通過模仿人類用戶行為,使得通信相對方將其視作真正的互聯(lián)網(wǎng)參與者,而非由算法所觸發(fā)的自動通信。就演進(jìn)歷程來說,早期的社交機(jī)器人一般只會自動推送特定信息,其編程設(shè)計(jì)較為簡單,無需采取復(fù)雜的檢查策略便可輕易識別。近年來,傳統(tǒng)機(jī)器學(xué)習(xí)逐漸向深度學(xué)習(xí)方向發(fā)展,社交機(jī)器人也由最初的“單打獨(dú)斗”升級至“集體行動”再到“人機(jī)交互”,其網(wǎng)絡(luò)特征、賬戶特征、好友關(guān)系特征、時間特征以及文本特征已與人類用戶相差無幾。
新型的社交機(jī)器人主要具有如下行為特征:(1) 可以利用互聯(lián)網(wǎng)為自己的社交媒體檔案收集數(shù)據(jù)和圖片,創(chuàng)造出真實(shí)性的外觀樣態(tài);(2)能夠模擬人類用戶的行為,例如定期更新社交媒體賬戶狀態(tài),通過撰寫討論帖、回答問題等方式與人類用戶進(jìn)行互動,學(xué)習(xí)人類用戶在一天中發(fā)帖和轉(zhuǎn)貼的時間模式;(3)通過針對性的訓(xùn)練,可以就社交網(wǎng)絡(luò)中的某些語句作出程式化的回應(yīng);(4)具備較強(qiáng)的反檢測能力,在缺少技術(shù)輔助的情況下,普通的人類用戶很難識別社交機(jī)器人的真實(shí)身份;(5)社交機(jī)器人與輔助機(jī)器人(如智能數(shù)字助理)在目標(biāo)設(shè)置方面存在差異性,但它們的技術(shù)基礎(chǔ)都是相通的。自主性、反應(yīng)性和機(jī)動性這三個根本特征使得社交機(jī)器人顛覆了過去以“真人”為主參與的社交媒體規(guī)則,代以“機(jī)器”邏輯來改變傳播生態(tài),進(jìn)而形成一個嶄新的人機(jī)耦合網(wǎng)絡(luò)空間。
(二)法律規(guī)制與技術(shù)中立的廓清
作為開始,首先應(yīng)將技術(shù)視作一種以對自然物作直接的干預(yù)、控制、改造為根本目的的正式的實(shí)踐。技術(shù)遠(yuǎn)不是車輪與發(fā)動機(jī)的總和,而是一個完備的系統(tǒng),與我們的生活息息相關(guān)。它不僅可以改變我們之間的社會關(guān)系,還迫使我們重新審視和定義對可能性和正當(dāng)性的認(rèn)知。技術(shù)自身的邏輯架構(gòu)和發(fā)展軌跡使其具有了極強(qiáng)的客觀性面向,其本質(zhì)就是一種無主體意識的、對現(xiàn)象有目的的編程。通過技術(shù)折射出的是事物本體,因此技術(shù)只存在“真”“假”之分,無關(guān)乎價值判斷中的“善”“惡”;技術(shù)僅僅是一個合目的的手段而已,一切都取決于以得當(dāng)?shù)姆绞绞褂米鳛槭侄蔚募夹g(shù);人們常說的“技術(shù)進(jìn)步”也僅僅是指該項(xiàng)科研成果通過了實(shí)踐的檢驗(yàn)并且最大程度貼合于廣泛的人類經(jīng)驗(yàn),這便是所謂的“技術(shù)中立”。
然而,在一個由技術(shù)建構(gòu)起來的世界中,技術(shù)真的可以摒棄“真、善、美”的倫理評判和合法性的法律評判,而獨(dú)善其身、秉持中立嗎? 持否定觀點(diǎn)的學(xué)者從不缺少,且都言之鑿鑿,譬如哈貝馬斯一直都將技術(shù)和科學(xué)歸屬于主觀范疇;芬伯格則宣稱,技術(shù)規(guī)則是把從科學(xué)中獲取的思想與其他來自社會、法律和傳統(tǒng)的因素結(jié)合起來;而在馬爾庫斯眼中,至少在理論上有可能在技術(shù)設(shè)計(jì)時導(dǎo)入價值因素,從而使技術(shù)服從善意的駕馭。
法律領(lǐng)域?qū)τ诩夹g(shù)中立的論辯,在2016年的“快播案”中得以全方位地呈現(xiàn),盡管法庭最終并未采納被告方以“技術(shù)中立”提出的無罪辯護(hù)意見。之后的“基因編輯嬰兒”事件更是將技術(shù)中立以“元問題”而非“附加討論”的面目推至風(fēng)口浪尖。事實(shí)上,法律語境下的技術(shù)已不再是某種單純的“物”,而是一項(xiàng)復(fù)雜的具體“過程”或是“程序”。技術(shù)中立論者長期據(jù)守的“菜刀論證”(某人使用菜刀傷人,不應(yīng)將過錯歸結(jié)于菜刀生產(chǎn)商乃至菜刀)實(shí)質(zhì)是混淆了作為“技術(shù)物”的菜刀和作為“技術(shù)過程”的人工生殖技術(shù)、人工智能等現(xiàn)代技術(shù),前者的生產(chǎn)與使用是截然分開的兩個不同階段,而后者除了指涉現(xiàn)象層面的專業(yè)定性外,還必然負(fù)荷了特定時期的法律價值圖景。換言之,有關(guān)法律與技術(shù)的教義學(xué)問題總是內(nèi)嵌著一個價值網(wǎng)絡(luò), 技術(shù)的工具價值和社會價值必須被納入法律價值的論辯空間中,通過兩者的相互碰撞實(shí)現(xiàn)價值世界的重構(gòu),進(jìn)而解決技術(shù)所引發(fā)的歸責(zé)原理和法律規(guī)范調(diào)整問題。
回到生成式人工智能的技術(shù)涵攝,其不過是由自動化算法程序驅(qū)動的、能與真人用戶進(jìn)行交互的話語生成機(jī)器,背后仍然離不開人的操控和設(shè)置。技術(shù)不可能永遠(yuǎn)停留在現(xiàn)象層面,其行為射程和效用狀態(tài)必然是服務(wù)于技術(shù)提供者和使用者的特定利益需求的。所謂技術(shù)的中立永遠(yuǎn)無法保證對應(yīng)行為的合法性,更不用說實(shí)現(xiàn)科技的倫理“善”。在生成式人工智能的自動運(yùn)行過程中,技術(shù)既能夠以“參與者”的身份實(shí)現(xiàn)與真人用戶的虛擬社交———此種社交并非傳統(tǒng)的“刺激→反應(yīng)”模式,而是建立在平等基礎(chǔ)上的一種主體間的連接關(guān)系———還可以作為“技術(shù)媒介”按需驅(qū)動和改變社交網(wǎng)絡(luò)動態(tài)結(jié)構(gòu),進(jìn)而有目的地配置相關(guān)網(wǎng)絡(luò)資源,高效把控目標(biāo)受眾接觸信息源的渠道;其間,技術(shù)將不可避免地遭遇墨菲定律,技術(shù)風(fēng)險由可能性變?yōu)楝F(xiàn)實(shí)的破壞性事件。事實(shí)上,類ChatGPT人工智能在同作為法律主體的受眾個體及該個體的行為發(fā)生關(guān)聯(lián)時,由于算法偏見的存在以及程序模塊背后可能的資本裹挾,極易導(dǎo)致網(wǎng)絡(luò)炒作(虛假高人氣)、侵犯網(wǎng)絡(luò)隱私、惡意發(fā)帖跟評、制造垃圾郵件、編寫惡意軟件,實(shí)施不正當(dāng)?shù)纳虡I(yè)營銷等一系列社會副作用的發(fā)生。它們經(jīng)由“技術(shù)研發(fā)—算法設(shè)定—數(shù)據(jù)處理—作出行為”這一線性流程,最終實(shí)現(xiàn)了對人的主體性的僭越,對社交網(wǎng)絡(luò)空間的信息流處理能力造成極大干擾,并置“價值理性”于不顧,這早已超脫了現(xiàn)象層面的技術(shù)問題,成為一個典型的對真人用戶行為干預(yù)的技術(shù)算法,需要進(jìn)行法律層面的規(guī)范評價。
三、生成式人工智能的信息表達(dá)檢視
(一)生成式人工智能作為基于算法的信息發(fā)布者
通說認(rèn)為,信息傳播概指表意人和閱聽人之間的意義傳達(dá),其在一定程度上表征著社會交流的暢通與安全。質(zhì)言之,此種信息處理行為必然預(yù)設(shè)了表意人和閱聽人雙方主體以及他們之間的溝通連結(jié)。生成式人工智能的自動化信息輸出并非一個完全隨機(jī)的純粹技術(shù)過程,相反,作為“傳聲筒”,它是基于早前給定的算法而發(fā)生,即便存在機(jī)器的自我學(xué)習(xí)算法,但學(xué)習(xí)過程在一定程度上仍是由人決定的。就ChatGPT的信息生成本質(zhì)而論,它就是一個基于人類反饋的強(qiáng)化學(xué)習(xí)的大型神經(jīng)網(wǎng)絡(luò),一個通過相關(guān)技術(shù)人員的“海量數(shù)據(jù)投喂”而被訓(xùn)練得具有黑格爾式辯證法邏輯的對話模型,一個可能會編造事實(shí)、誤導(dǎo)公眾的知識生產(chǎn)方式。尤其是當(dāng)ChatGPT嵌入數(shù)字政府治理環(huán)節(jié)時,那些貌似由技術(shù)代碼作出的行政決策, 實(shí)則體現(xiàn)的仍是該應(yīng)用背后設(shè)計(jì)者與開發(fā)者的主觀意志與價值選擇,進(jìn)而不可避免地會導(dǎo)入偏見與歧視,沖擊數(shù)字政府的行政倫理。
相較于ChatGPT,應(yīng)將社交機(jī)器人的信息傳遞視為一種間接的個人網(wǎng)絡(luò)意見表達(dá),經(jīng)由“數(shù)字公共廣場”(Digital-Public-Square)起到影響閱聽人情感、形成閱聽人意見與激發(fā)閱聽人行為的效用。畢竟,信息的具體呈現(xiàn)形式包括了那些由人透過資訊科技系統(tǒng)而制成并傳送的訊息,借此可以推知個人強(qiáng)烈的表意性。根據(jù)自動化意思表示原則,社交機(jī)器人自動創(chuàng)建的內(nèi)容應(yīng)歸屬于其使用人,視為他在這一特定時刻直接發(fā)表了該網(wǎng)絡(luò)言論。唯有不同的是,關(guān)于此種言論是否、何時以及如何發(fā)出的決策過程通過編程在時間上被提前了,并轉(zhuǎn)化為抽象的標(biāo)準(zhǔn)。像上文提到的外出通知郵件,其創(chuàng)建者在事前也并不知道它們將被發(fā)送給誰以及何時發(fā)送。
此外,有必要對社交機(jī)器人編程員及其用戶的匿名性問題進(jìn)行一個說明。眾所周知,社交機(jī)器人在社交媒體上的身份是編程員人為創(chuàng)建的,旨在誤導(dǎo)閱聽人相信該信息發(fā)布出自一個真正的人類用戶,這明顯是一種身份欺騙行為;而基于算法的不可追蹤性,該編程員很難被追責(zé)。即便如此,在信息學(xué)視閾下,表意人仍是有權(quán)自由決定表達(dá)方式和表意環(huán)境的,以使相關(guān)信息表達(dá)得以最廣泛地傳播或產(chǎn)生最大化的影響。申言之,法律是允許表意人使用輔助技術(shù)———諸如通過有傾向性的算法編程而達(dá)致假名或匿名的目的———而為信息表達(dá)行為的。 此外,匿名表達(dá)還可以從一般人格權(quán)中推導(dǎo)出來,它也符合信息自決權(quán)所內(nèi)涵之?dāng)?shù)據(jù)避免原則的要求。加之匿名表達(dá)是互聯(lián)網(wǎng)所固有屬性,若是強(qiáng)制使用真實(shí)身份傳播訊息,將不利于促進(jìn)公共討論和意見交流。還需指出的是,如果社交機(jī)器人冒用他人真實(shí)身份發(fā)表言論,應(yīng)被視為一種故意的錯誤引用行為,是對他人一般人格權(quán)的侵犯,應(yīng)追究社交機(jī)器人使用者的相應(yīng)法律責(zé)任。
(二)生成式人工智能信息表達(dá)的法律邊界
有的生成式人工智能從一開始就是被故意設(shè)計(jì)出來以欺騙誤導(dǎo)受眾或者扭曲正常網(wǎng)絡(luò)秩序的,“先天惡意”使其發(fā)表的信息多與事實(shí)相?;驌p害第三方合法權(quán)益,甚至僅僅是為了制造信息噪音,這就涉及此類人工智能信息表達(dá)的法律邊界問題(也稱為“受保護(hù)范圍”)。在該問題上,社交機(jī)器人的信息表達(dá)限度極具代表性。一旦代碼被寫入社交機(jī)器人并儲存起來,程序便會遵從既定條件而自動生成信息內(nèi)容。倘若社交機(jī)器人所發(fā)信息屬于故意撒謊、陳述已被證實(shí)為虛假的事實(shí)、故意扭曲意見形成過程、侵害他人名譽(yù)權(quán)等情形,是無法得到法律保護(hù)的。舉例來說,加拿大一家名為Ashley-Madison的在線社交平臺,啟用了大量被提前植入指令的“女性”社交機(jī)器人,專注與已婚男士互動交往,以此吸引其購買昂貴的套餐積分。社交機(jī)器人此種運(yùn)用“情感算法”來進(jìn)行沉浸式交流的信息表達(dá)行為,具有明顯的欺騙性,法律應(yīng)給予其否定性評價。又比如,社交機(jī)器人常為企業(yè)等商事主體所用,偽裝成消費(fèi)者對產(chǎn)品或服務(wù)發(fā)表使用體驗(yàn),造就“虛假熱度和共識”,進(jìn)而影響其他消費(fèi)者對該品牌的認(rèn)知與購買意愿,最終提升企業(yè)關(guān)鍵業(yè)績指標(biāo)和商譽(yù)價值,抑或彌散市場恐慌訊息,扭曲上市公司股票價格。
就普遍排除在法律保護(hù)范圍之外的生成式人工智能自動生成的信息類型而言,我國憲法第33條和第51條提供了概括的方向性規(guī)定,而《網(wǎng)絡(luò)安全法》《全國人民代表大會常務(wù)委員會關(guān)于維護(hù)互聯(lián)網(wǎng)安全的決定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《互聯(lián)網(wǎng)上網(wǎng)服務(wù)營業(yè)場所管理?xiàng)l例》《計(jì)算機(jī)信息網(wǎng)絡(luò)國際聯(lián)網(wǎng)安全保護(hù)管理辦法》《移動互聯(lián)網(wǎng)應(yīng)用程序信息服務(wù)管理規(guī)定》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》等法律法規(guī)和部門規(guī)章則采取列舉的方式給予了具體的行為指引。值得一提的是,《生成式人工智能服務(wù)管理辦法(征求意見稿)》第4條明確規(guī)定,提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求,尊重社會公德、公序良俗,體現(xiàn)社會主義核心價值觀,防止出現(xiàn)歧視、生成虛假信息和實(shí)施不公平競爭,禁止非法獲取、披露、利用個人信息和隱私、商業(yè)秘密。
四、規(guī)制生成式人工智能的理念厘定
(一)彰顯與強(qiáng)化人的主體地位
生成式人工智能作為互聯(lián)網(wǎng)智能傳播的產(chǎn)物,從問世之日起便內(nèi)含了易被操縱的特性,它通過重構(gòu)在線用戶群體之間的社交互動模式,“使人逐漸為算法所規(guī)訓(xùn),主體的人成為可計(jì)算、可預(yù)測、可控制的客體”。在傳播實(shí)踐層面,由于社交機(jī)器人很難被通信相對方識別為計(jì)算機(jī)程序,因此其背后的操控者能夠以一種不為人知的方式干擾網(wǎng)絡(luò)討論的正常態(tài)勢。例如,社交機(jī)器人可以創(chuàng)建出成千上萬個用戶賬號及其逼真的類人化賬戶資料,并發(fā)布預(yù)先編程的帖子,通過標(biāo)簽來推廣或引導(dǎo)該帖子所涉話題,或根據(jù)某個關(guān)鍵詞重復(fù)其他帖子的內(nèi)容,進(jìn)而制造出一種假象,即某個觀點(diǎn)的背后有大量不同的用戶表示支持抑或反對?!扯鴮τ跇?biāo)榜“理性、中立、公允、客觀、全面”的ChatGPT來說,其早已被研發(fā)公司預(yù)設(shè)了政治立場和價值取態(tài),只是它隱藏得較深;甚至有時候,此種語言模型會被用作自動生成不計(jì)其數(shù)的虛假或者低可信度的信息,從而制造話題暗中操控社會輿論。研究表明,生成式聊天機(jī)器人所發(fā)信息只要在特定話題討論中占參與者的5%—10%, 便很大程度會成為主流論調(diào),引導(dǎo)公共輿論走向。
現(xiàn)下,生成式聊天機(jī)器人在具備了擬人化的溝通能力后,一躍從傳播工具和信息渠道變?yōu)椴倏v多重身份的參與性社交主體,在“身體缺席”和時空場景虛置的背景下,其儼然成為由算法驅(qū)動的社交網(wǎng)絡(luò)的新的“掌門人”,這從根本上動搖了傳統(tǒng)社會交往所默認(rèn)的遵從內(nèi)心誠摯、言而有信的行為守則,人與人的社會關(guān)系愈發(fā)趨向于結(jié)構(gòu)性不平等和不對稱。伴隨算法對人類生活的介入越來越深,其在一定程度上便享有了裁決權(quán),智能化儼然成為價值評判的終極指標(biāo),技術(shù)理性凌駕于人類理性之上,主宰著所有人的生活,人類個體無力依據(jù)既有生活經(jīng)驗(yàn)對可能的算法風(fēng)險作出應(yīng)有的、自主的、負(fù)責(zé)任的回應(yīng),人之為人的尊嚴(yán)性在社交機(jī)器人面前不斷遭受侵犯。綜上所述,在對生成式人工智能進(jìn)行科學(xué)的法律規(guī)制時,必須高舉人的主體性大旗,打破技術(shù)的暗箱操作,使此類人工智能應(yīng)用更符合以人為本的基本要求,“了解人們想要什么或需要什么并更改設(shè)計(jì)以確保獲得最佳結(jié)果和用戶體驗(yàn),這是以用戶為中心的‘良好設(shè)計(jì)的核心所在”。
(二)基于風(fēng)險防范的監(jiān)管權(quán)力在場
當(dāng)下,生成式人工智能常會按需高效地以集群化和智能化的方式來驅(qū)動網(wǎng)絡(luò)動態(tài)結(jié)構(gòu),并以此操控信息的社會擴(kuò)散規(guī)模和速率。與之相區(qū)別,網(wǎng)絡(luò)領(lǐng)域的人類用戶被高度區(qū)隔,在選擇性注意機(jī)制的作用下,網(wǎng)絡(luò)巴爾干化現(xiàn)象頓生。處于相對封閉的言論社群中的人類用戶極易受同理心影響,傾向于接受與自己價值觀相近的、符合自身偏好的傳播訊息,由此引發(fā)回音室效應(yīng)和信息繭房問題。在這樣的背景下,上述人工智能利用人類用戶“弱連接”形成的溢出效應(yīng),依托算法對信息的聚類、歸整和關(guān)聯(lián),得以擇機(jī)滲透進(jìn)各個用戶社群,以信息過載的方式主動向目標(biāo)受眾傳送信息,占領(lǐng)相關(guān)信息檢索過濾窗口,形成管道壟斷。當(dāng)目標(biāo)受眾收到多個由人工智能生成的具有明顯公共傳播性的訊息時,常會誤認(rèn)為其可信度較高或?qū)儆谥髁髡J(rèn)知范疇,即使這并非經(jīng)由官方在正式場合予以發(fā)布,但在社會流瀑效應(yīng)的驅(qū)使下,意識人格逐漸消失,無意識開始支配人格。根據(jù)沉默的螺旋理論,人們多會以“優(yōu)勢意見”為導(dǎo)向并順應(yīng)之,這就為生成式人工智能有目的、有計(jì)劃卻又不被發(fā)現(xiàn)地干擾與操縱話題走勢提供了可乘之機(jī),信息也不可避免地呈現(xiàn)出削平、銳化和同化這三種失真樣態(tài)。
在敘事法學(xué)視域下,生成式人工智能的上述作為或引發(fā)一系列新的社會風(fēng)險,并深刻影響社會治理的規(guī)范性和效用性。 首先,其對信息源的稀釋與污染———譬如通過生成或轉(zhuǎn)發(fā)大量內(nèi)嵌關(guān)鍵詞或標(biāo)簽的帖子來反向滿足網(wǎng)絡(luò)爬蟲的需求,再通過搜索引擎優(yōu)化策略便可輕松操縱社交網(wǎng)絡(luò)平臺的內(nèi)容推薦與排名———使得人們獲取真實(shí)、高質(zhì)量信息的成本愈發(fā)增高。 有研究證明,社交機(jī)器人憑借對信息擴(kuò)散結(jié)構(gòu)的數(shù)字建模,在80%的情況下可以與人類用戶成功建立聯(lián)系,其推送的相關(guān)信息的影響力是人類的2.5倍?!抽L此以往,人類用戶在網(wǎng)絡(luò)空間中賴以信任的多元信息糾偏機(jī)制將遭到破壞,出現(xiàn)網(wǎng)絡(luò)信息與事實(shí)不符的較大偏差,公共價值的形塑愈發(fā)困難,最終波及公共政策的作出、執(zhí)行與反饋。其次,該類人工智能可以根據(jù)窺視的目標(biāo)用戶的背景資料,通過負(fù)面的、教唆式的語言表達(dá)或評論,觸發(fā)相對封閉的網(wǎng)絡(luò)社群的神經(jīng)敏感點(diǎn),形成群體模仿與群體感染。舉例來說,在社交網(wǎng)絡(luò)平臺上,社交機(jī)器人只需向相鄰節(jié)點(diǎn)作出長時間的、溫和的、非高頻信息傳遞,并確保直接鄰居和周邊間接鄰居間的網(wǎng)絡(luò)暢通性,便可引發(fā)觀點(diǎn)的病毒式傳播與再傳播。而ChatGPT則因自身獨(dú)特的對話式信息生成能力而成為了功能強(qiáng)大的“意識形態(tài)傳送機(jī)”,比如,它在回答問題時表示“只有白人男性才能成為科學(xué)家”,而當(dāng)用戶要求提供一份毀滅人類計(jì)劃書時,它也會隨即給出行動方案。最后,伴隨生成式人工智能在網(wǎng)絡(luò)領(lǐng)域的不斷蔓延,會對個人信息與數(shù)據(jù)安全帶來極大隱患。在大數(shù)據(jù)時代,個人信息是以數(shù)據(jù)作為載體,被傳輸并存儲于網(wǎng)上或云中,其具有可量化的特質(zhì),可被讀取,也可被交易。由于ChatGPT的訓(xùn)練需要大量的數(shù)據(jù)支撐(必然也包含了私人信息),當(dāng)存在技術(shù)問題或者使用不當(dāng)、管控不力時,就必然會出現(xiàn)數(shù)據(jù)的過度采集、竊取、泄露、濫用、偷渡等一系列問題,數(shù)據(jù)安全岌岌可危。舉例來說,ChatGPT在被投喂數(shù)據(jù)時,能夠及時將社會所有個體的姓名、性別、電話、居住地址、出行軌跡、消費(fèi)記錄、診療檔案等信息予以儲存記錄,再經(jīng)由簡單的機(jī)器算法,便可輕而易舉地推測出個人偏好、財務(wù)狀況、信用評級等隱私信息,由此加劇此類信息泄露及被濫用的潛在風(fēng)險。相較而言,社交機(jī)器人則會仰仗一組組可被賦值和計(jì)算的數(shù)字節(jié)點(diǎn)以及網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)的特殊性,換取人類用戶的無意識信任,這在一定程度上會對人類用戶的知情權(quán)和隱私權(quán)造成忽略、降權(quán)乃至剝奪,特別是對青少年的隱私侵犯現(xiàn)象較為突出。
概言之,由生成式人工智能引致的上述諸多社會風(fēng)險具有極強(qiáng)的不確定性、無邊界性和規(guī)?;?yīng),其絕非人類個體用戶或社交網(wǎng)絡(luò)平臺所能防范和處置的,強(qiáng)有力的法律監(jiān)管更為必要。相關(guān)監(jiān)管部門,作為網(wǎng)絡(luò)空間這一公共產(chǎn)品秩序維護(hù)的義務(wù)主體,理所當(dāng)然地應(yīng)積極應(yīng)對、干預(yù)與督導(dǎo),承擔(dān)起“網(wǎng)絡(luò)看門人”的應(yīng)盡職責(zé),而非退居幕后,全然相信自組織邏輯下的網(wǎng)絡(luò)秩序。即便提出“代碼即法律”的萊斯格教授也坦陳,網(wǎng)絡(luò)空間的自由從來不與國家的缺位互成因果關(guān)系,反倒是歸功于某種模式的監(jiān)管權(quán)力在場。
(三)算法倫理的嵌入與推廣
生成式人工智能的本質(zhì)就是算法, 而任何算法又必然建立在對周遭客觀事物的認(rèn)知基礎(chǔ)之上,若無正確的倫理規(guī)范指引,算法便會毫無規(guī)則意識與誠信觀念可言。美國媒體情報公司的一家客戶公司曾因機(jī)器人對于一則虛假新聞報道———一眾原商業(yè)合作方被競爭對手挖了墻腳———的故意放大和擴(kuò)散,而市值下降幾十億美元。也有學(xué)者通過研究900萬條與美國五大金融市場股票相關(guān)的推文后發(fā)現(xiàn),峰值期間的推文有60%均系轉(zhuǎn)發(fā),其中71%系社交機(jī)器人所為,相關(guān)內(nèi)容均是在推廣高價值股票的同時“搭售宣傳”低價值股票,以此擾亂股票市場的運(yùn)行秩序。
由此,有必要對生成式人工智能背后的算法進(jìn)行一種以一定的倫理規(guī)范為標(biāo)準(zhǔn)、著眼于實(shí)現(xiàn)算法正義的“元規(guī)制”。此種規(guī)制的具體要求應(yīng)包括:(1)監(jiān)管部門或行業(yè)協(xié)會需出臺相關(guān)算法倫理規(guī)范指引,使算法嵌入價值敏感性設(shè)計(jì)。同時,應(yīng)鼓勵算法設(shè)計(jì)者與倫理學(xué)家展開深入合作,以公平、安全、透明、非歧視的倫理價值觀駕馭算法應(yīng)用,踐行“技術(shù)向善”的理念導(dǎo)向。(2)通過設(shè)置審慎義務(wù)、發(fā)布算法質(zhì)量與檢查報告、算法問責(zé)機(jī)制等舉措來引導(dǎo)算法發(fā)展,降低算法濫用的發(fā)生概率。然后,應(yīng)建構(gòu)規(guī)范化的算法倫理審查制度,將與算法相關(guān)的主體緊密聯(lián)系起來,以社會主義核心價值觀為指南,以算法程序正義為重心,協(xié)同打造有利于人類福祉的、可持續(xù)發(fā)展的生成式人工智能運(yùn)作生態(tài)。(3)應(yīng)關(guān)注算法的商業(yè)道德導(dǎo)向,構(gòu)筑以倫理為先導(dǎo)的利益平衡機(jī)制,防止生成式人工智能通過制造信息繭房,觸發(fā)不良商業(yè)信息的非公正傳播,導(dǎo)致不正當(dāng)?shù)纳虡I(yè)營銷。(4)相關(guān)算法設(shè)計(jì)需在網(wǎng)絡(luò)空間得以適度的公示并接受技術(shù)監(jiān)管部門的審查。同時,要培養(yǎng)社交網(wǎng)絡(luò)真人用戶與算法社會相匹配的算法素養(yǎng),使其對于算法風(fēng)險有基本的認(rèn)知與防范能力,凸顯個體對算法的自主性。
五、規(guī)制人機(jī)社交場域的進(jìn)路肅理
(一)技術(shù)治理與法律規(guī)制的雙管齊下
任何新技術(shù)的引入必然意味著實(shí)踐的量變抑或質(zhì)變,問題是這種變化是否會對現(xiàn)有法律制度形成沖擊。就生成式人工智能所涉新技術(shù)而言,與其通過效用計(jì)算,權(quán)衡其可能對既有法律規(guī)范產(chǎn)生的潛在風(fēng)險與潛在收益,不如厘清基于網(wǎng)絡(luò)空間獨(dú)有的時空觀和人際觀,尊重自組織邏輯下的網(wǎng)絡(luò)秩序和內(nèi)嵌于代碼的技術(shù)治理手段,最終形成技術(shù)治理與法律規(guī)制雙管齊下的規(guī)范模式。
近年來,我國不斷加大網(wǎng)絡(luò)法治建設(shè)力度,制定了一系列針對網(wǎng)絡(luò)基礎(chǔ)設(shè)施建設(shè)、網(wǎng)絡(luò)技術(shù)應(yīng)用、網(wǎng)絡(luò)公共服務(wù)、網(wǎng)絡(luò)安全管理的規(guī)范性法律文件,網(wǎng)絡(luò)法制趨于體系化發(fā)展。與此同時,能夠?qū)θ藗冃袨楫a(chǎn)生明顯約束力的網(wǎng)絡(luò)架構(gòu)和網(wǎng)絡(luò)社會技術(shù)治理機(jī)制的相關(guān)實(shí)踐卻明顯欠缺。其實(shí),社交網(wǎng)絡(luò)與傳統(tǒng)物理空間存在極大區(qū)別,不能用傳統(tǒng)物理空間的法律治理邏輯去解決社交機(jī)器人的規(guī)范使用問題。當(dāng)然,技術(shù)治理也非某一完全新生事物,只是由于新技術(shù)的應(yīng)用而被寄予了另一番治理邏輯和時代內(nèi)涵罷了。就生成式人工智能的技術(shù)治理而言,主要應(yīng)把握如下四個方面的特質(zhì):(1)治理的風(fēng)口從結(jié)果處置轉(zhuǎn)移至事前控制和行為預(yù)防,依據(jù)有二:一是此類人工智能在網(wǎng)絡(luò)空間的存在已屬常態(tài),其造成的損害往往較為嚴(yán)重;二是網(wǎng)絡(luò)空間固有的無邊界性和傳播蔓延性使得此類人工智能所生損害很難挽回,而這種損害又無法用既有損害計(jì)算法予以估算,更無法移轉(zhuǎn)至加害人。(2)國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》提出,要建立健全人工智能監(jiān)管體系,實(shí)行設(shè)計(jì)問責(zé)和應(yīng)用監(jiān)督并重的雙層監(jiān)管結(jié)構(gòu),實(shí)現(xiàn)對人工智能算法設(shè)計(jì)、產(chǎn)品開發(fā)和成果應(yīng)用等的全流程監(jiān)管?!渡墒饺斯ぶ悄芊?wù)管理辦法(征求意見稿)》延續(xù)了上述文件從技術(shù)研發(fā)到使用的全過程、全要素的監(jiān)管邏輯,并額外確立了安全評估、算法備案、預(yù)訓(xùn)練和優(yōu)化訓(xùn)練數(shù)據(jù)合規(guī)、人工標(biāo)注合規(guī)等具體制度安排。這意味著,對生成式人工智能的技術(shù)治理倒逼了行政管理模式和治理理念的革新,以技術(shù)治理驅(qū)動治理效能的提升成了監(jiān)管者進(jìn)行精準(zhǔn)治理和有效治理的重要依賴路徑。(3)不能將生成式人工智能所生內(nèi)容純粹轉(zhuǎn)化為數(shù)字、編程、算法等問題,否則容易滋生人對技術(shù)的過度依賴,技術(shù)異化也隨之發(fā)生。技術(shù)的開發(fā)與應(yīng)用應(yīng)遵循普遍的倫理道德框架,以增進(jìn)社會福祉和推進(jìn)人的自由全面發(fā)展為導(dǎo)向,這也是社會治理價值合理性與技術(shù)工具理性相融合的不二選擇。(4)技術(shù)治理倡導(dǎo)效率優(yōu)先的理念,追求相關(guān)治理的便捷性、高效性和投入成本最低化。例如,可以利用研發(fā)成本較低但具有正向社會功能的社交機(jī)器人充當(dāng)社交網(wǎng)絡(luò)平臺的社區(qū)管理員,賦予其治理能動性,并定期對其進(jìn)行技術(shù)維護(hù)和升級。值得一提的是,機(jī)器人管理員還可以依靠算法,定期向用戶傳達(dá)社交網(wǎng)絡(luò)管理規(guī)約等平臺管理信息,或者利用其社交屬性,深入不同社區(qū)版塊,積累不同群體的語料素材,進(jìn)而對違法信息予以科學(xué)辨明,切實(shí)做好網(wǎng)絡(luò)常態(tài)化管控工作并提升應(yīng)對突發(fā)輿情事件的綜合能力。
需要注意的是,對生成式人工智能的技術(shù)治理必須恪守應(yīng)有的效用邊界,在邊界范圍之內(nèi)發(fā)揮治理的價值和功能,邊界之外則需凸顯法律規(guī)制的普適性,包括法律對技術(shù)的歸化。質(zhì)言之,生成式人工智能的治理應(yīng)當(dāng)采取技術(shù)治理與法律規(guī)制同步進(jìn)行的方式,此種二元共治模式重新檢視和詮釋了技術(shù)與法律的辯證關(guān)系,將關(guān)注點(diǎn)置于兩者的價值協(xié)同和功能互補(bǔ)。須知,技術(shù)治理正深刻影響著法律規(guī)制的路徑、邊界和組織結(jié)構(gòu),為其提供強(qiáng)有力的智力支持和科技支撐,而法治實(shí)踐中的人文主義關(guān)懷又會“反哺”于技術(shù)治理,使其能夠得到有效歸化。
(二)邁向過程性規(guī)制的監(jiān)管模式
對于生成式人工智能的監(jiān)管,必須基于其明顯區(qū)別于傳統(tǒng)物理世界的環(huán)境設(shè)置,如若仍將網(wǎng)絡(luò)行為的現(xiàn)實(shí)社會危害性作為衡量指標(biāo),通過業(yè)務(wù)許可、專項(xiàng)審查(整治)等方式來實(shí)現(xiàn)內(nèi)容管理,這是不可取的。在數(shù)字化時代,此種監(jiān)管模式主要存在兩大弊端:第一,過于強(qiáng)調(diào)規(guī)制社交網(wǎng)絡(luò)用戶的顯性失范行為, 卻忽略了ChatGPT和社交機(jī)器人這樣的人工智能通過算法技術(shù)進(jìn)行數(shù)據(jù)歸類和數(shù)據(jù)關(guān)聯(lián),對民事主體的合法權(quán)益、輿論安全秩序等所產(chǎn)生的隱性威脅或不當(dāng)損害。舉例來說,我國刑法對于網(wǎng)絡(luò)侮辱誹謗,是通過情節(jié)是否嚴(yán)重來區(qū)別罪與非罪的,而根據(jù)相關(guān)司法解釋,判斷情節(jié)是否嚴(yán)重的事實(shí)依據(jù)主要包括該信息的實(shí)際被點(diǎn)擊、瀏覽次數(shù),被轉(zhuǎn)發(fā)次數(shù),造成被害人自殺、自殘、精神失常等惡劣后果等。顯而易見,這樣的司法實(shí)踐仍囿于傳統(tǒng)物理世界的行為規(guī)制邏輯,而沒有充分考量算法技術(shù)在信息傳播過程中存在的巨大公共風(fēng)險問題。第二,忽視了網(wǎng)絡(luò)技術(shù)的迅猛發(fā)展以及網(wǎng)絡(luò)架構(gòu)設(shè)計(jì)的即時性和無序性所導(dǎo)致的社交網(wǎng)絡(luò)的去中心化和扁平化現(xiàn)象。在算法社會,合作治理所產(chǎn)生的正向效用愈加凸顯,一種新型的互聯(lián)網(wǎng)運(yùn)作模式蔚然成型,即融合監(jiān)管部門、互聯(lián)網(wǎng)企業(yè)、民間機(jī)構(gòu)、社會團(tuán)體、公民個體等多元主體力量的針對社交網(wǎng)絡(luò)的共識、共振、統(tǒng)籌和聯(lián)動。此種多利益攸關(guān)方協(xié)同共治的新格局治理與黨的二十大報告提出的“健全共建共治共享的社會治理制度”可謂不謀而合。
綜上所述,為了防范和化解生成式人工智能所生之風(fēng)險隱患,有必要轉(zhuǎn)向一種過程性規(guī)制,即通過規(guī)制數(shù)據(jù)和算法,達(dá)成對生成式人工智能應(yīng)用失范的科學(xué)治理。不同于以往側(cè)重于對信息類型和內(nèi)容進(jìn)行審查的做法,過程性規(guī)制更為關(guān)注的是信息的產(chǎn)生、在網(wǎng)絡(luò)中的傳播、在社交同溫層的影響力、信息的排名指標(biāo)等事項(xiàng),進(jìn)而避免陷入對信息實(shí)體價值予以判斷的沼澤。風(fēng)險社會下,規(guī)制生成式人工智能的出發(fā)點(diǎn)和落腳點(diǎn)應(yīng)定位于打破算法壟斷下的封閉網(wǎng)絡(luò)社群, 保障信息傳播路徑的暢通,維護(hù)正常的交流秩序,防止此類人工智能通過信息轟炸,有目的地放大特定用戶言論抑或話題影響力,同時也剝奪了其他網(wǎng)絡(luò)用戶的平等發(fā)聲機(jī)會以及個人觀點(diǎn)的自主形成。
根據(jù)中共中央、國務(wù)院印發(fā)的《法治政府建設(shè)實(shí)施綱要(2021-2025年)》的相關(guān)規(guī)定,在對生成式人工智能進(jìn)行過程性規(guī)制時,有如下幾個方面要特別注意:(1)不能單純以流量和熱度作為是否采取相應(yīng)規(guī)制舉措的判斷標(biāo)準(zhǔn),應(yīng)利用技術(shù)手段對相關(guān)智能機(jī)器人所發(fā)信息予以辨明和澄清,破除互聯(lián)網(wǎng)用戶對其的被動型認(rèn)知依賴,并在線下面對面地收集群眾意見建議,以此真正踐行“從群眾中來,到群眾中去”的群眾路線。(2)需加強(qiáng)對算法推薦的監(jiān)管,因?yàn)樯墒饺斯ぶ悄艹3@盟惴ㄍ扑]來擴(kuò)大聲量,炒作虛假信息,最終對目標(biāo)群體施以不正當(dāng)影響。根據(jù)2022年3月1日起施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,監(jiān)管部門一方面要對算法推薦服務(wù)提供者進(jìn)行嚴(yán)格管控,另一方面也要對用戶權(quán)益進(jìn)行全面保護(hù)。(3)算法技術(shù)的迅猛發(fā)展與其相對滯后的歸責(zé)機(jī)制以及差異化的裁判標(biāo)準(zhǔn)之間的鴻溝愈發(fā)凸顯。為了促進(jìn)生成式人工智能在技術(shù)層與合規(guī)層的協(xié)調(diào)并進(jìn),追求算法正義,應(yīng)落實(shí)相關(guān)開發(fā)者和使用者的算法安全主體責(zé)任,賦予其信息披露義務(wù),并建立行之有效的問題反饋機(jī)制。人工智能的算法設(shè)計(jì)必須遵循一定的倫理標(biāo)準(zhǔn)和規(guī)則,應(yīng)在監(jiān)管部門處就算法服務(wù)提供者的名稱、服務(wù)形式、應(yīng)用領(lǐng)域、數(shù)字模型、算法范式、建模方法、算法自評估報告等信息進(jìn)行備案,并接受包括設(shè)計(jì)目的和策略議程等方面的安全評估。在國家人工智能治理專業(yè)委員會于2021年9月25日發(fā)布的《新一代人工智能倫理規(guī)范》中,明確提出了增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確保可控可信、強(qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)6項(xiàng)基本倫理要求,這些均為生成式人工智能的算法治理提供了堅(jiān)實(shí)的政策依據(jù)。(4)這里所謂的過程性規(guī)制隱含了對各類網(wǎng)絡(luò)平臺的監(jiān)管職責(zé)。監(jiān)管部門可以通過制定信息發(fā)布政策、設(shè)置信息技術(shù)服務(wù)標(biāo)準(zhǔn)、開展信息安全服務(wù)資質(zhì)認(rèn)證、限制或禁止通過生成式人工智能傳播非法信息等舉措,實(shí)現(xiàn)對數(shù)據(jù)化信息場的強(qiáng)有力管控。(5)根據(jù)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第23條的規(guī)定,應(yīng)由網(wǎng)信部門會同電信、公安、市場監(jiān)管等有關(guān)部門建立算法分級分類安全管理制度。此種監(jiān)管能夠有效地將一般監(jiān)管事項(xiàng)與特殊監(jiān)管事項(xiàng)區(qū)分并緊密結(jié)合起來,促使行政部門出臺更具針對性的行政規(guī)章制度,強(qiáng)化執(zhí)法效能,提升行政執(zhí)法精準(zhǔn)性,對生成式人工智能這樣具有輿論屬性和社會動員能力的重點(diǎn)對象進(jìn)行嚴(yán)格的風(fēng)險管控,同時也要避免因過度監(jiān)管而對算法創(chuàng)新造成的不利影響。
(三)平臺的公共職責(zé)與監(jiān)管可能性
大數(shù)據(jù)時代背景下,網(wǎng)絡(luò)平臺為了增加自身競爭力,實(shí)現(xiàn)既定的商業(yè)營收目標(biāo),獲取資本市場青睞,往往對流量、點(diǎn)擊量極為看重,使其一度成為平臺重要甚至唯一的考核指標(biāo)。而生成式人工智能的應(yīng)用———尤其是社交機(jī)器人的大面積投放———在客觀上確實(shí)可以帶來流量泡沫,以“引戰(zhàn)”之名行“引流”之實(shí),這對于網(wǎng)絡(luò)平臺而言實(shí)屬喜聞樂見,因此也就喪失了監(jiān)管激勵。盡管如此,網(wǎng)絡(luò)平臺卻非一般商事主體,它雖常常以公司形態(tài)存在,其背后的股權(quán)架構(gòu)也較為復(fù)雜(尤其是跨境平臺),但它卻為民眾提供了參與公共社交活動的重要虛擬場所,其中夾雜的公共利益不言而喻。通過制定和實(shí)施一系列管理規(guī)定,網(wǎng)絡(luò)平臺實(shí)際上承擔(dān)起了部分公共職責(zé),建構(gòu)了一套獨(dú)立的、日趨完善的交互秩序。如今的網(wǎng)絡(luò)平臺并非只是單純的信道(即傳播媒介),其在很大程度上已喪失了作為工具的中立性和非參與性,它扮演著網(wǎng)絡(luò)市場規(guī)制者的角色,行使著準(zhǔn)立法權(quán)、準(zhǔn)行政權(quán)和準(zhǔn)司法權(quán)。
由于網(wǎng)絡(luò)平臺行使管理職權(quán)具有明顯的單方性、命令性、強(qiáng)制性和跨國家主權(quán)性,因此其可以憑借話語權(quán)力和技術(shù)手段,科學(xué)構(gòu)建起防止生成式人工智能應(yīng)用失范的制度規(guī)則。平臺相應(yīng)的監(jiān)管措施主要表現(xiàn)為三個方面:(1)建立健全誠信化舉報機(jī)制。一方面,鼓勵和調(diào)動平臺用戶以匿名方式主動報告可疑事件,譬如上報那些不分晝夜地不間斷飽和式發(fā)言,意在搶占話語導(dǎo)向先機(jī)的賬號,或者在短期內(nèi)從同一個IP地址發(fā)了很多帖子或者在很多平臺發(fā)了相同的帖子;另一方面,平臺需對該舉報機(jī)制的績效進(jìn)行定期評估并據(jù)此予以相應(yīng)改進(jìn),同時要明確對網(wǎng)絡(luò)舉報志愿者的獎勵規(guī)則。(2)增強(qiáng)風(fēng)險意識,主動防御生成式人工智能可能帶來的網(wǎng)絡(luò)危害。平臺應(yīng)積極使用新科技檢測手段,輔之以人工核查,科學(xué)識別和攔截惡意生成式人工智能賬號,并視具體情形不同采取刪除信息、貼標(biāo)簽或通知等處置措施。其中,最為嚴(yán)厲的措施無異于刪除那些智能生成的相似的有害信息,甚至對該賬戶實(shí)施禁言或封號,以削弱人工智能通過平臺的推薦程序和搜索引擎這兩大信息過濾檢索通道對人類用戶產(chǎn)生不當(dāng)影響。但此舉也可能會導(dǎo)致“過度阻斷”或者誤刪被允許的信息,因此,平臺必須為“附帶傷害”的用戶保留投訴通道,有義務(wù)聽取他們的申辯和解釋,進(jìn)而最終作出正確合理的裁判結(jié)論。與刪除信息不同,貼標(biāo)簽這項(xiàng)舉措比較“溫和”,不具有侵害權(quán)利的可能性,但卻可以降低類似社交機(jī)器人這樣的人工智能基于信息訂閱推送服務(wù)而誘導(dǎo)受眾對其進(jìn)行關(guān)注的成功概率,同時使那些被視作機(jī)器人用戶的賬戶所發(fā)信息在意見交鋒時失去可信度,人類用戶也可以自行決定是否要相信一個智能聊天機(jī)器人,以及它的言論到底有多重要。這將大大減少公眾輿論形成過程中的扭曲現(xiàn)象,降低沉默的螺旋以及盲目遵從所謂多數(shù)人意見的發(fā)生概率。至于平臺的通知義務(wù),既包括我國民法典“侵權(quán)責(zé)任編” 第1195、1196條所規(guī)定的內(nèi)容, 又包括平臺在面對可能危害國家安全和公共秩序的事宜時,有義務(wù)向國家安全部門報告有問題的賬戶、說明可疑的事實(shí),并等待行政指令而行事。(3)定期發(fā)布《透明度報告》(Transparency7Report, 很多社交網(wǎng)絡(luò)平臺都會發(fā)布該聲明,意在披露各種與用戶數(shù)據(jù)、記錄或內(nèi)容相關(guān)的統(tǒng)計(jì)信息),并對算法數(shù)據(jù)予以審計(jì),確保其公正性、完整性和準(zhǔn)確性。此外,平臺應(yīng)引入通過算法識別智能聊天機(jī)器人的應(yīng)用程序,并利用驗(yàn)證碼Cookie以查驗(yàn)用戶是否為人類,以此避免其對真人用戶進(jìn)行有目的的搭訕。
結(jié)語
無論在學(xué)界抑或?qū)崉?wù)界,針對生成式人工智能應(yīng)用失范的擔(dān)憂總不絕于耳,采取預(yù)防性的措施和因應(yīng)性的制度實(shí)屬必要。畢竟,法律體系存在的終極意義就在于追蹤并規(guī)范那些可以通過技術(shù)治理的哪怕是發(fā)生可能性極小或者影響力極弱的各類風(fēng)險的每一個環(huán)節(jié)流程。本文對于生成式人工智能法律規(guī)制的探討主要是框架性、方向性、原則性的,大量深入的理論和實(shí)證研究尚待進(jìn)行,諸如多方共治格局下,對于包括新聞媒體、社會公益組織、行業(yè)協(xié)會、公民個人等在內(nèi)的社會深度監(jiān)督的研究,唯有如此方能最終形成系統(tǒng)性的治理解決方案。雖然身處第四次工業(yè)革命時代,現(xiàn)實(shí)逐漸為數(shù)據(jù)和符號所替代,而在這些數(shù)據(jù)和符號背后,依然是無窮無盡的數(shù)據(jù)和符號,“現(xiàn)代的真實(shí)已由技術(shù)性活動重構(gòu)”,這也使得生成式人工智能在虛擬網(wǎng)絡(luò)空間中的角色與功能都愈發(fā)多樣,對其進(jìn)行解讀梳理,有助于我們?nèi)ジQ探、拷問和理解技術(shù)創(chuàng)新與法律規(guī)制在法理層面的關(guān)系,以及應(yīng)以何種范式來規(guī)制,亦即既有法律規(guī)范如何在人機(jī)交互的網(wǎng)絡(luò)生態(tài)中展開解釋與適用。