歐陽林潔,張永紅
(西南大學(xué) 馬克思主義學(xué)院,重慶 400715)
生成式人工智能(Generative Artificial Intelligence)是基于訓(xùn)練數(shù)據(jù)和生成式算法,可以自主生成創(chuàng)造性的文本、圖像、音頻、視頻、3D交互內(nèi)容(如虛擬化身、虛擬物品、虛擬環(huán)境)的模型和技術(shù),[1](P2)ChatGPT正是其典型代表。生成式模型(Generative Model)的突破,讓生成式人工智能在自然語言處理、計(jì)算機(jī)視覺等信息科技領(lǐng)域的實(shí)踐應(yīng)用得以落地,開創(chuàng)了數(shù)字內(nèi)容生產(chǎn)模式革新的信息科技新時代。在信息科技高度嵌入人們生活的背景下,數(shù)字內(nèi)容生產(chǎn)模式的變革也將改變?nèi)藗兊恼J(rèn)知方式與行為模式,進(jìn)而將影響傳導(dǎo)至意識形態(tài)領(lǐng)域,我國意識形態(tài)工作將面臨諸多重大理論和實(shí)踐課題。
人工智能的意識形態(tài)風(fēng)險(xiǎn)命題,肇始于20世紀(jì)以降的科學(xué)技術(shù)與意識形態(tài)關(guān)系之爭。相關(guān)討論大體可分作“非意識形態(tài)論”和“技術(shù)統(tǒng)治論”兩派。雖然當(dāng)時兩派學(xué)者均未涉及人工智能的意識形態(tài)問題,但二者觀點(diǎn)交鋒的余波猶存?!胺且庾R形態(tài)論”以丹尼爾·貝爾等資本主義的辯護(hù)士為代表,將科學(xué)技術(shù)與意識形態(tài)相對立,片面強(qiáng)調(diào)科學(xué)技術(shù)對于社會的改造作用,并宣稱“意識形態(tài)已經(jīng)終結(jié)”。[2](P450~519)雖然“非意識形態(tài)論”在20世紀(jì)下半葉西方的“再意識形態(tài)化”運(yùn)動中破產(chǎn),但其對于科學(xué)技術(shù)與意識形態(tài)無涉的觀點(diǎn)卻影響至今。作為論戰(zhàn)的另一派,“技術(shù)統(tǒng)治論”則以法蘭克福學(xué)派為代表。他們認(rèn)為科學(xué)技術(shù)本身即是意識形態(tài)的一部分,發(fā)揮著“維護(hù)現(xiàn)有社會統(tǒng)治和導(dǎo)致社會墮落的意識形態(tài)作用”,堅(jiān)稱當(dāng)前的社會已經(jīng)掉入“技術(shù)統(tǒng)治”的窠臼,悲觀地將科學(xué)技術(shù)視作桎梏人類解放的枷鎖。[3](P1~11)在人工智能時代背景下,“技術(shù)統(tǒng)治論”的擁躉們也將人工智能技術(shù)視作一種意識形態(tài),一種服務(wù)于社會精英的統(tǒng)治工具。[4]事實(shí)上,這一觀點(diǎn)具有極強(qiáng)的迷惑性。它看似揭露了西方主導(dǎo)人工智能技術(shù)發(fā)展背景下的技術(shù)弊病與意識形態(tài)風(fēng)險(xiǎn),但本質(zhì)上是無視了科學(xué)技術(shù)的階級應(yīng)用差異,通過轉(zhuǎn)嫁責(zé)任給科學(xué)技術(shù)的方式,將人工智能技術(shù)本身進(jìn)行了全然的意識形態(tài)化與批判化,從而巧妙地掩蓋了技術(shù)應(yīng)用背后的資本主義社會的階級壓迫問題。因此,縱使“非意識形態(tài)論”與“技術(shù)統(tǒng)治論”對于科學(xué)技術(shù)與意識形態(tài)關(guān)系持截然相反的觀點(diǎn),但二者卻分別以“全無”或“全有”的方式否定了馬克思關(guān)于意識形態(tài)的理論。[5]他們將全部的注意力都集中在了物質(zhì)的、客觀的且作為生產(chǎn)力而存在的科學(xué)技術(shù)上,忽略了暗含在科學(xué)技術(shù)應(yīng)用背后的階級矛盾,因而也就喪失了厘清科學(xué)技術(shù)與意識形態(tài)關(guān)系的可能。所以,這兩派的觀點(diǎn)均難以成為準(zhǔn)確破解人工智能與意識形態(tài)關(guān)系命題的理論支撐。
科學(xué)技術(shù)意識形態(tài)風(fēng)險(xiǎn)分析的關(guān)鍵在于應(yīng)用領(lǐng)域,人工智能亦是如此。馬克思曾在《資本論》中指出,盡管“智力轉(zhuǎn)化為資本支配勞動的權(quán)力,是在以機(jī)器為基礎(chǔ)的大工業(yè)中完成的”,但也“要學(xué)會把機(jī)器和機(jī)器的資本主義應(yīng)用區(qū)別開來”,因?yàn)闄C(jī)器的資本主義應(yīng)用才是產(chǎn)生矛盾和對抗的源頭。[6](P438,444)馬克思以大量實(shí)際案例,詮釋了機(jī)器如何在具體的資本主義應(yīng)用場景中制造矛盾與對抗。例如,馬克思在剖析機(jī)器大生產(chǎn)導(dǎo)致工人勞動時間大幅延長的現(xiàn)象時指出:“作為資本,自動機(jī)在資本家身上獲得了意識和意志……而機(jī)器的有效壽命,顯然取決于工作日的長度或每天勞動過程的長度乘以勞動過程反復(fù)進(jìn)行的日數(shù)?!盵6](P416~417)原本用來節(jié)約勞動時間的機(jī)器,在資本主義應(yīng)用下卻導(dǎo)致了勞動時間的延長,這無疑是一種機(jī)器應(yīng)用的“異化”。馬克思的論述給予我們兩點(diǎn)啟示:一是科學(xué)技術(shù)的應(yīng)用具有鮮明的意識形態(tài)屬性,二是科學(xué)技術(shù)的風(fēng)險(xiǎn)源于具體應(yīng)用場景下科學(xué)技術(shù)應(yīng)用的“異化”。因此,對于人工智能的意識形態(tài)風(fēng)險(xiǎn)的剖析,也需要建立在意識形態(tài)辨析和應(yīng)用場景分類的基礎(chǔ)之上。當(dāng)前,國內(nèi)相關(guān)研究仍處于初期階段。雖然在人工智能意識形態(tài)屬性與人工智能意識形態(tài)風(fēng)險(xiǎn)樣態(tài)研究領(lǐng)域已有一定進(jìn)展,但既往研究對應(yīng)用場景的分類卻鮮有涉及。由于缺少對人工智能技術(shù)的具體應(yīng)用場景及意識形態(tài)風(fēng)險(xiǎn)類型化的關(guān)切,既往研究在論述人工智能的意識形態(tài)風(fēng)險(xiǎn)時,經(jīng)常出現(xiàn)抽象、泛化的現(xiàn)象,難以切中人工智能意識形態(tài)風(fēng)險(xiǎn)問題的要害。
生成式人工智能的意識形態(tài)風(fēng)險(xiǎn)源于技術(shù)應(yīng)用的“異化”。當(dāng)前科技界人士對于生成式人工智能的憂慮,顯然不是對正常技術(shù)應(yīng)用的擔(dān)憂,而是對于技術(shù)應(yīng)用“異化”的擔(dān)憂。為此,ChatGPT的母公司OpenAI專門對當(dāng)前最為先進(jìn)的生成式人工智能模型GPT-4技術(shù)應(yīng)用“異化”風(fēng)險(xiǎn)進(jìn)行了分析。OpenAI分析了GPT-4已知的十二種具體應(yīng)用“異化”的風(fēng)險(xiǎn),分別為幻象(Hallucinations)、有害內(nèi)容(Harmful Content)、放大偏見(Amplify Biases)、(1)OpenAI是從應(yīng)用場景的角度出發(fā),對此條目進(jìn)行命名,即對代表、分配和服務(wù)質(zhì)量的危害(Harms of representation, allocation, and quality of service)。而此項(xiàng)“異化”風(fēng)險(xiǎn)的核心是“放大偏見”,為便于讀者理解本文將條目名稱替換為“放大偏見”。虛假信息和行為誘導(dǎo)(Disinformation and Influence Operations)、武器擴(kuò)散(Proliferation of Conventional and Unconventional Weapons)、隱私(Privacy)、網(wǎng)絡(luò)安全(Cybersecurity)、潛在的緊急危險(xiǎn)行為(Potential for Risky Emergent Behaviors)、與其他系統(tǒng)的交互關(guān)系(Interactions with other Systems)、經(jīng)濟(jì)影響(Economic Impacts)、科技加速(Acceleration)和過度依賴(Overreliance)。[7]但以上的技術(shù)應(yīng)用“異化”的風(fēng)險(xiǎn)是OpenAI基于純粹技術(shù)視角評估所得出的,不能直接用于意識形態(tài)風(fēng)險(xiǎn)分析,因此需要結(jié)合具體的應(yīng)用場景,重新對生成式人工智能應(yīng)用“異化”的意識形態(tài)風(fēng)險(xiǎn)予以類型化處理。如果以不同應(yīng)用場景下生成式人工智能與意識形態(tài)風(fēng)險(xiǎn)間的因果關(guān)系為分類標(biāo)準(zhǔn),排除與意識形態(tài)關(guān)聯(lián)性較弱的具體風(fēng)險(xiǎn)后,可將生成式人工智能應(yīng)用“異化”的意識形態(tài)風(fēng)險(xiǎn)分為三類:(2)通說認(rèn)為意識形態(tài)具有階級性與社會性。以此為標(biāo)準(zhǔn),結(jié)合OpenAI分析報(bào)告中列舉的風(fēng)險(xiǎn)案例,本文將無法或極小概率導(dǎo)致意識形態(tài)混亂的具體風(fēng)險(xiǎn),以及僅以技術(shù)形式存在而不直接作用于社會群體的具體風(fēng)險(xiǎn)都排除在討論范圍之外。被排除的具體風(fēng)險(xiǎn)包括:隱私、網(wǎng)絡(luò)安全、與其他系統(tǒng)的交互、科技加速。一是基礎(chǔ)應(yīng)用場景下的原發(fā)性意識形態(tài)風(fēng)險(xiǎn)。此類風(fēng)險(xiǎn)源于技術(shù)自身的缺陷,包括幻象、有害內(nèi)容、放大偏見、潛在的意外危險(xiǎn)行為等。二是惡意應(yīng)用場景下的繼發(fā)性意識形態(tài)風(fēng)險(xiǎn)。此類風(fēng)險(xiǎn)產(chǎn)生于個人或組織的惡意應(yīng)用,包括虛假信息和行為誘導(dǎo)、武器擴(kuò)散等。三是長期應(yīng)用場景下的并發(fā)性意識形態(tài)風(fēng)險(xiǎn)。此類風(fēng)險(xiǎn)是一種附隨風(fēng)險(xiǎn),技術(shù)應(yīng)用僅發(fā)揮催化劑作用,包括經(jīng)濟(jì)影響、過度依賴等。
綜上,從馬克思對于機(jī)器應(yīng)用“異化”的觀點(diǎn)出發(fā),生成式人工智能的意識形態(tài)風(fēng)險(xiǎn)實(shí)際上是一個偽命題,真正的命題應(yīng)表述為生成式人工智能應(yīng)用的意識形態(tài)風(fēng)險(xiǎn)。只有緊扣生成式人工智能具體的應(yīng)用場景,才有可能厘清意識形態(tài)風(fēng)險(xiǎn)的生成機(jī)制,進(jìn)而探尋科學(xué)、有效的治理進(jìn)路。
生成式人工智能的發(fā)展給意識形態(tài)建設(shè)帶來了歷史性機(jī)遇,但也帶來了意識形態(tài)風(fēng)險(xiǎn)。這種意識形態(tài)風(fēng)險(xiǎn)本質(zhì)上是一種由技術(shù)應(yīng)用的“異化”所形成的對主流意識形態(tài)安全的威脅,包含風(fēng)險(xiǎn)因素、風(fēng)險(xiǎn)事故和風(fēng)險(xiǎn)損失三大要素。[8](P113)而生成式人工智能應(yīng)用的風(fēng)險(xiǎn)生成機(jī)制則表現(xiàn)為:基于生成式技術(shù)特征的風(fēng)險(xiǎn)因素,在應(yīng)用“異化”的過程中可能發(fā)生削弱主流意識形態(tài)凝聚力或引領(lǐng)力的風(fēng)險(xiǎn)事故,并最終導(dǎo)致主流意識形態(tài)認(rèn)同危機(jī)的風(fēng)險(xiǎn)損失。
原發(fā)性意識形態(tài)風(fēng)險(xiǎn)是一種基礎(chǔ)應(yīng)用場景下,嵌于技術(shù)底層的內(nèi)生性意識形態(tài)風(fēng)險(xiǎn)。它源自生成式人工智能技術(shù)的核心——生成式算法。在生成式人工智能出現(xiàn)前,人類是唯一的內(nèi)容生產(chǎn)主體,政治、文學(xué)、藝術(shù)等均來源于人類基于特定的物質(zhì)條件和社會關(guān)系基礎(chǔ)上的塑造。但生成式算法讓人工智能具備了這一此前由人類所“獨(dú)享”的能力,成為新的內(nèi)容生產(chǎn)主體。生成式算法的能力源于海量的數(shù)據(jù)訓(xùn)練和模型參數(shù)的微調(diào),以ChatGPT為例,“無監(jiān)督預(yù)訓(xùn)練+有監(jiān)督微調(diào)”即是其最初模型GPT-1的誕生范式。[9]但這一算法訓(xùn)練方法卻并非完美,即便迭代到了GPT-4模型,ChatGPT生成內(nèi)容的幻象、有害內(nèi)容、放大偏見、潛在的意外危險(xiǎn)行為等現(xiàn)象依舊存在。
首先,原發(fā)性風(fēng)險(xiǎn)發(fā)端于海量問題數(shù)據(jù)生成的“算法鋼印”風(fēng)險(xiǎn)因素。生成式算法以海量數(shù)據(jù)喂養(yǎng)的預(yù)訓(xùn)練模型為基石。所謂“算法鋼印”是指在預(yù)訓(xùn)練過程中如同鋼印一般烙印在生成式算法中的刻板化的意識形態(tài)。無人監(jiān)督的海量數(shù)據(jù)預(yù)訓(xùn)練造就了生成式算法的強(qiáng)大能力,但同時也將算法質(zhì)量與數(shù)據(jù)質(zhì)量相綁定。有研究顯示,即便是經(jīng)過人工篩選的數(shù)據(jù)質(zhì)量都已堪憂,[10]更遑論以未經(jīng)嚴(yán)格篩選的互聯(lián)網(wǎng)數(shù)據(jù)為訓(xùn)練來源的生成式算法。OpenAI所提及的幻象、有害內(nèi)容、放大偏見等問題最初均源于互聯(lián)網(wǎng)中的海量問題數(shù)據(jù)。而問題并未止步于此。由于不同語種的數(shù)據(jù)在互聯(lián)網(wǎng)中分布不均,且生成式人工智能技術(shù)仍處于西方領(lǐng)先的狀態(tài)之下,所以當(dāng)前的主流生成式算法均由英語等拉丁語系語種訓(xùn)練而成。OpenAI甚至未對GPT-4模型的中文水平進(jìn)行評估。[7]為驗(yàn)證GPT-4模型應(yīng)用的意識形態(tài)表現(xiàn),筆者與ChatGPT就中國歷史評價(jià)及中國臺灣地區(qū)地位等問題進(jìn)行了實(shí)驗(yàn)性對話。筆者發(fā)現(xiàn)ChatGPT不但在非中文對話中呈現(xiàn)出明顯的意識形態(tài)偏見,在進(jìn)行中文對話時,ChatGPT也存在混淆政治概念、負(fù)面評價(jià)誘導(dǎo)等問題。因而從意識形態(tài)角度來看,當(dāng)前主流的生成式算法是真正的西方技術(shù),并且其意識形態(tài)偏見已深深地印刻于算法之中。
其次,原發(fā)性風(fēng)險(xiǎn)生變于社會意識生產(chǎn)領(lǐng)域“逆向馴化”的風(fēng)險(xiǎn)事故。“逆向馴化”是指在“算法鋼印”的影響下生成式人工智能“異化”了原本的社會意識生產(chǎn)模式,在文藝、教育等領(lǐng)域?qū)θ藗冞M(jìn)行反向意識形態(tài)輸出的現(xiàn)象。原本的社會意識生產(chǎn)模式以社會實(shí)踐為基礎(chǔ),正如馬克思所指出的“普遍意識不過是以現(xiàn)實(shí)共同體、社會存在物為生動形式的那個東西的理論形式”,[11](P302)其生產(chǎn)過程必然經(jīng)過人的感知器官和社會器官的加工。但生成式人工智能的應(yīng)用卻顛覆了這一模式。生成式人工智能的社會意識生產(chǎn)并非源于現(xiàn)實(shí)的社會實(shí)踐,而是源于既有數(shù)據(jù)的整合。其所生產(chǎn)的數(shù)字內(nèi)容產(chǎn)品不會經(jīng)過任何人的感知器官或社會器官的加工,但卻會受到“算法鋼印”的“異化”影響,進(jìn)而引發(fā)“逆向馴化”的風(fēng)險(xiǎn)事故。一方面,“量”的碾壓將產(chǎn)生逆向擠占的效果。相較于人類,生成式算法的社會意識生產(chǎn)邊際成本近乎為零。生成式人工智能可在既往人類作品的基礎(chǔ)上,生成海量的文學(xué)、藝術(shù)作品,迅速充斥、擠占社會意識生產(chǎn)領(lǐng)域;另一方面,“質(zhì)”的低劣暗藏有馴化誘導(dǎo)的風(fēng)險(xiǎn)。以教育領(lǐng)域?yàn)槔?縱使人工智能在教育領(lǐng)域擁有巨大市場,但其本身仍應(yīng)符合“道德的、值得信賴的或負(fù)責(zé)任的”準(zhǔn)入標(biāo)準(zhǔn)。[12]從ChatGPT在教育領(lǐng)域的實(shí)際應(yīng)用來看,當(dāng)前的生成式人工智能不但無法提供必要的情感教育,而且存在大量捏造教育內(nèi)容的情形。[13]就意識形態(tài)而言,如果教育內(nèi)容中潛藏有意識形態(tài)偏見,將對受教育者的價(jià)值觀產(chǎn)生深遠(yuǎn)影響。因此,在生產(chǎn)能力強(qiáng)大且存在“算法鋼印”的生成式人工智能面前,人類會迅速從社會意識的生產(chǎn)者淪為被馴化者。而這種“逆向馴化”事故如若出現(xiàn),則必然威脅我國主流意識形態(tài)安全。
最后,原發(fā)性風(fēng)險(xiǎn)成形于人類封閉的被動的“認(rèn)知繭房”風(fēng)險(xiǎn)損失。馬克思將意識視作可以區(qū)分人類與動物的標(biāo)準(zhǔn),因?yàn)椤叭说念愄匦郧∏【褪亲杂傻淖杂X的活動”。[14](P96)然而,生成式人工智能的“逆向馴化”事故,可能“異化”這種“自由的自覺的”意識狀態(tài),進(jìn)而讓人類陷入封閉和被動的“認(rèn)知繭房”。其一,以“封閉”的虛擬互動取代“自由”的社會聯(lián)系。人是社會性動物,需要通過社會聯(lián)系來實(shí)現(xiàn)自身價(jià)值、維系自身存在。這種社會聯(lián)系必須是處于人“自由的”意識支配下的真正的聯(lián)系,而非形式上的、虛假的聯(lián)系。當(dāng)人們面對存在“算法鋼印”的生成式人工智能時,雖然可以通過比肩真實(shí)場景的互動交流,感受到表象化的社會聯(lián)系,但事實(shí)上卻離自由意識越來越遠(yuǎn)。因?yàn)檫@種社會聯(lián)系完全由算法所驅(qū)動,只要這種虛擬互動持續(xù)存在,人就會持續(xù)遭受潛在的“算法鋼印”的馴化,慢慢陷入封閉的“認(rèn)知繭房”。其二,以虛假的“自覺”掩蓋真實(shí)的“被動”。人類作為與生成式人工智能互動的發(fā)起者,極易產(chǎn)生一種“自覺的”錯覺,似乎整個互動過程都處于自己的意識掌控之下,從而低估了生成式人工智能的意識操控能力。但OpenAI的研究指出,以GPT-4為代表的生成式人工智能非常擅長羅織真實(shí)程度極高的虛幻內(nèi)容,甚至還有主動欺騙人類的意外危險(xiǎn)行為。[7]這意味著一旦人類沉浸于這種虛假的自覺,就可能經(jīng)由“逆向馴化”被動地落入“算法鋼印”編織的“認(rèn)知繭房”陷阱。受困于“認(rèn)知繭房”的人數(shù)愈多,對主流意識形態(tài)認(rèn)同的沖擊也就愈大,這種誕生于生成式算法本身的原發(fā)性意識形態(tài)風(fēng)險(xiǎn)也將沿著這條技術(shù)應(yīng)用的“異化”路徑,逐步成為現(xiàn)實(shí)的威脅。
繼發(fā)性意識形態(tài)風(fēng)險(xiǎn)與原發(fā)性意識形態(tài)風(fēng)險(xiǎn)不同,它并非是自然生成于技術(shù)應(yīng)用的“異化”路徑,而是誕生于個人或組織的惡意應(yīng)用場景之下。就意識形態(tài)領(lǐng)域而言,OpenAI的技術(shù)報(bào)告中有兩種具體風(fēng)險(xiǎn)與之相關(guān),即虛假信息和行為誘導(dǎo)、武器擴(kuò)散。所謂虛假信息和行為誘導(dǎo)是指生成式人工智能會遵循使用者的要求,生成一些虛假、有害或者誘導(dǎo)性內(nèi)容用于惡意攻擊。而武器擴(kuò)散則是指生成式人工智能可能會被用作網(wǎng)絡(luò)認(rèn)知對抗的武器。[15]兩種風(fēng)險(xiǎn)雖有不同,但所遵循的意識形態(tài)風(fēng)險(xiǎn)生成機(jī)制及樣態(tài)是一致的,二者均惡意利用了生成式人工智能的智能仿真技術(shù),試圖突破意識形態(tài)的把關(guān)機(jī)制,以摧毀主流意識形態(tài)的價(jià)值體系。
首先,“智能仿真”風(fēng)險(xiǎn)因素為繼發(fā)性風(fēng)險(xiǎn)的產(chǎn)生創(chuàng)造了先決條件。智能仿真(Intelligent Simulation Technology)是指人工智能與仿真技術(shù)的集成性應(yīng)用技術(shù),即利用人工智能技術(shù)還原或模擬物理世界。[16]隨著生成式人工智能時代的到來,智能仿真技術(shù)將迎來“模型即服務(wù)”(MaaS)的新模式。這意味著智能仿真中的仿真智能體技術(shù)(Agent Simulation)將直接為用戶提供服務(wù)。有學(xué)者認(rèn)為智能體要在現(xiàn)實(shí)社會中自主完成委托任務(wù),應(yīng)當(dāng)具備以下四種能力:自治性、社會能力、響應(yīng)性和能動性。[17]但對于意識形態(tài)安全而言,仿真智能體技術(shù)愈發(fā)成熟,其被惡意利用的概率就愈高,所導(dǎo)致的意識形態(tài)風(fēng)險(xiǎn)也愈大。從世界范圍來看,智能體已成為計(jì)算性宣傳(Computational Propaganda)的重要工具,即利用算法、自動化程序、大數(shù)據(jù)分析等方法在社交平臺發(fā)布誘導(dǎo)性信息,以實(shí)現(xiàn)操縱輿論的目的。在生成式算法廣泛應(yīng)用前,智能體僅能完成一些簡單、重復(fù)的計(jì)算性宣傳工作,如信息發(fā)布、信息收集和簡單交互。但生成式智能體的出現(xiàn)將徹底改變這一局面,它不僅具有極強(qiáng)的響應(yīng)性和能動性,具體表現(xiàn)與人類專業(yè)的宣傳人員相差無幾,[7]還具有一定的自治性和社會能力,能夠?qū)ι缃画h(huán)境進(jìn)行識別并按照既定要求自主完成對于人類社會交互行為的仿真。[18]出色的智能仿真能力,疊加生成式算法的深度合成技術(shù)(Deep Synthesis),將讓生成式智能體成為威脅意識形態(tài)安全的重大風(fēng)險(xiǎn)因素。
其次,“把關(guān)失效”風(fēng)險(xiǎn)事故為繼發(fā)性風(fēng)險(xiǎn)的擴(kuò)散撕開了制度豁口。列寧指出:“社會主義意識只能從外面灌輸進(jìn)去”,[19](P3,29)但何種意識需要灌輸必須經(jīng)過選擇,這種選擇的過程就是意識形態(tài)把關(guān)的過程。把關(guān)理論本質(zhì)上是一種信息控制范式,該理論認(rèn)為社會中所流動的信息只有經(jīng)過把關(guān)人的價(jià)值篩選才能進(jìn)入傳播渠道。傳統(tǒng)把關(guān)理論將把關(guān)人、把關(guān)內(nèi)容和把關(guān)效果視為研究重點(diǎn),[20]這在一定程度上也還原了大眾傳播時代意識形態(tài)把關(guān)制度的設(shè)計(jì)重點(diǎn)。然而,生成式人工智能的出現(xiàn)輕易地將意識形態(tài)把關(guān)制度撕開了豁口。其一,傳統(tǒng)把關(guān)人無法應(yīng)對仿真智能體把關(guān)對象。盡管遭遇互聯(lián)網(wǎng)興起的嚴(yán)峻挑戰(zhàn),把關(guān)制度仍不至于失效,因?yàn)榘殃P(guān)人已近乎布滿整個互聯(lián)網(wǎng)。[21]但這一結(jié)論成立的前提是把關(guān)對象為人類個體,而非仿真智能體。因?yàn)閻阂饪刂葡碌纳墒街悄荏w可以輕易偽裝成人類滲透進(jìn)公共信息平臺,在海量智能體的協(xié)同下,實(shí)現(xiàn)操控議題、轉(zhuǎn)移話題、挑唆情緒等意識形態(tài)操控目標(biāo)。作為把關(guān)對象的生成式智能體在惡意控制下將成為意識表達(dá)和傳播的重要參與者,而無論把關(guān)人是人類個體還是組織都難以應(yīng)對。[22]其二,傳統(tǒng)把關(guān)的內(nèi)容分析模式無法分辨深度合成內(nèi)容。傳統(tǒng)把關(guān)理論認(rèn)為對于信息內(nèi)容的把關(guān)應(yīng)當(dāng)經(jīng)過兩個階段,即信息采集和信息加工階段,而把關(guān)人會基于一定的價(jià)值判斷在這兩個階段中完成對于內(nèi)容的分析和把關(guān)。[23]因此,傳統(tǒng)把關(guān)的內(nèi)容分析模式高度依賴把關(guān)人對于信息來源及社會背景的認(rèn)知。但在互聯(lián)網(wǎng)背景下,碎片化的信息內(nèi)容呈現(xiàn)方式在打斷這一內(nèi)容分析模式的同時,也破壞了把關(guān)人對于信息背景的整體性認(rèn)知。此時,經(jīng)由生成式算法產(chǎn)生的深度合成信息的出現(xiàn),將徹底讓把關(guān)人無所適從,他們無法分辨合成信息的真?zhèn)?也就無法完成對于內(nèi)容的把關(guān)。其三,傳統(tǒng)把關(guān)的效果反饋機(jī)制難以穿透生成算法黑箱。傳統(tǒng)把關(guān)的效果反饋是調(diào)整把關(guān)機(jī)制的重要環(huán)節(jié),順暢的把關(guān)效果反饋應(yīng)建立在全面掌握把關(guān)過程的基礎(chǔ)之上。但對于生成式算法的算法黑箱而言,即便是設(shè)計(jì)者也一籌莫展。把關(guān)人自然更加難以把握信息內(nèi)容的生成規(guī)律,無法準(zhǔn)確評估把關(guān)效果。
最后,“價(jià)值失衡”風(fēng)險(xiǎn)損失是繼發(fā)性風(fēng)險(xiǎn)現(xiàn)實(shí)化產(chǎn)生的危害后果。繼發(fā)性意識形態(tài)風(fēng)險(xiǎn)是主觀惡意最強(qiáng)的“異化”風(fēng)險(xiǎn),對意識形態(tài)把關(guān)制度的突破不是其目的,其真正的目的在于摧毀我國主流意識形態(tài)價(jià)值體系。一方面,仿真智能體利用社會焦點(diǎn)事件助推政治極化。從境外仿真智能體參與計(jì)算宣傳的案例可見,智能體更擅長通過“標(biāo)簽劫持”引導(dǎo)輿論走向極化,以實(shí)現(xiàn)操控者的政治目的。[24]有研究顯示,中國也是境外計(jì)算宣傳進(jìn)行輿論滲透的重災(zāi)區(qū)。以境外社交媒體Twitter為例,其中約超過1/5與中國相關(guān)的帖文均由智能體發(fā)布,相關(guān)內(nèi)容主要發(fā)布在重大社會性事件發(fā)生后,集中在政治議題和人權(quán)議題上,以歪曲解讀、煽動對立為主。[25]當(dāng)前智能體的惡意應(yīng)用多以信息發(fā)布和轉(zhuǎn)發(fā)擴(kuò)散為主,極少進(jìn)行互動式傳播,但隨著智能仿真能力的不斷提升,仿真智能體制造政治極化的風(fēng)險(xiǎn)也將更大。另一方面,仿真智能體借助從眾效應(yīng)宣揚(yáng)西方價(jià)值。仿真智能體也可被用于制造虛假的社會共識,它可被部署在社交媒體上,集中放大特定的宣傳信息,并通過從眾效應(yīng)以形成對具體個體或價(jià)值觀的現(xiàn)實(shí)支持。有學(xué)者指出,2016年美國大選特朗普的競選集團(tuán)就應(yīng)用此項(xiàng)技術(shù)為特朗普贏得了廣泛支持。[26]事實(shí)上,仿真智能體對于社會意識的操縱都是一體兩面的,在進(jìn)行意識形態(tài)攻擊的同時,也必然伴隨著對另一價(jià)值觀的宣揚(yáng)。對于我國而言,無論是對社會主義核心價(jià)值體系的攻擊,還是對西方價(jià)值觀的宣揚(yáng),生成式人工智能惡意應(yīng)用者的根本目的均在于顛覆主流價(jià)值體系,造成“價(jià)值失衡”的意識形態(tài)風(fēng)險(xiǎn)損失。
并發(fā)性意識形態(tài)風(fēng)險(xiǎn)是生成式人工智能技術(shù)在長期應(yīng)用場景下所產(chǎn)生的附隨性風(fēng)險(xiǎn),同時也是一種最底層、最不可逆的意識形態(tài)風(fēng)險(xiǎn)。這種風(fēng)險(xiǎn)已觸及人的主體性問題,進(jìn)一步助推了近代以來資本主義生產(chǎn)方式所造就的人的異化危機(jī)。生成式人工智能的出現(xiàn)應(yīng)驗(yàn)了馬克思的判斷,“我們的一切發(fā)明和進(jìn)步,似乎結(jié)果是使物質(zhì)力量成為有智慧的生命,而人的生命則化為愚鈍的物質(zhì)力量”。[27](P776)即便OpenAI也不得不承認(rèn),經(jīng)濟(jì)影響和過度依賴的風(fēng)險(xiǎn)是生成式人工智能給人類社會所帶來的不容忽視的重大風(fēng)險(xiǎn)。前者將人從生產(chǎn)活動中排擠出去,令其失去了他的“類生活”;后者讓人脫離現(xiàn)實(shí),令其沉溺于“描繪他的真正的類生活的諷刺畫”中。[14](P53,25)在二者的綜合影響下,傳統(tǒng)的價(jià)值觀、道德感將逐漸解體,并最終導(dǎo)致社會信仰遷移的意識形態(tài)風(fēng)險(xiǎn)損失。
首先,“主客異位”的風(fēng)險(xiǎn)因素讓人的主體性地位遭遇空前的挑戰(zhàn)。馬克思曾詳細(xì)分析過人的異化現(xiàn)象,在其看來這些有悖人的類本質(zhì)的現(xiàn)象均源自資本主義生產(chǎn)關(guān)系下勞動的異化。[28]雖然這種勞動的異化會導(dǎo)致機(jī)器對人類的排擠,但機(jī)器本身的地位卻并未改變,不會危及人類的主體性地位。然而,生成式人工智能卻對人類的主體性地位發(fā)起了挑戰(zhàn),甚至從多個維度開始混淆人的本質(zhì)概念,最終將引發(fā)質(zhì)變。依照OpenAI的測試,GPT-4模型在眾多選拔類職業(yè)資格考試中均取得了超越常人的優(yōu)異成績,如美國研究生考試(GRE)、美國統(tǒng)一律師考試(MBE+MEE+MPT)等,[7]這意味著生成式人工智能在腦力勞動領(lǐng)域已初步具備了取代人類的能力。而隨著OpenAI收購挪威人形機(jī)器人公司1X,那些依靠人類多感官協(xié)調(diào)的技術(shù)性體力勞動也將面臨嚴(yán)峻挑戰(zhàn)。[29]并且這種取代可能不再是馬克思所描述的勞動生產(chǎn)關(guān)系中機(jī)器對于人類的排擠,而是更為底層的主體地位的替代,即“主客異位”。如果生成式人工智能獲得了主體地位并成為超越人類的存在,那么人類將必須為自身的存在尋找價(jià)值和意義,人的存在也將日益變得“虛無和荒謬化”。[30]這種“主客異位”必然挑戰(zhàn)以人為核心的意識形態(tài)基礎(chǔ),由此引發(fā)的意識形態(tài)風(fēng)險(xiǎn)也將是史無前例的。
其次,“解構(gòu)傳統(tǒng)”的風(fēng)險(xiǎn)事故激化了社會中原有的意識形態(tài)風(fēng)險(xiǎn)。馬克思雖力主批判資本主義的生產(chǎn)方式和意識形態(tài)所導(dǎo)致的人的異化現(xiàn)象,但他也承認(rèn)“以資本為基礎(chǔ)的生產(chǎn)……創(chuàng)造出一個物質(zhì)的和精神的普遍有用性體系”是“服從于人的需要”的,并具有“偉大的文明作用”。[31](P389~390)但長期應(yīng)用場景下的生成式人工智能卻正在從物質(zhì)層面和精神層面解構(gòu)這些以人為基礎(chǔ)的“普遍有用性體系”,激化原本就存在的意識形態(tài)風(fēng)險(xiǎn)。OpenAI列舉的經(jīng)濟(jì)影響和過度依賴的風(fēng)險(xiǎn)便是例證。一方面,經(jīng)濟(jì)影響的風(fēng)險(xiǎn)通過剝奪人類勞動機(jī)會的方式,從物質(zhì)層面解構(gòu)人類個體自我實(shí)現(xiàn)的基礎(chǔ),將人們困于自我價(jià)值否定的陷阱之中。馬克思雖然認(rèn)為資本主義生產(chǎn)關(guān)系所導(dǎo)致的勞動異化,讓人無法從勞動中感受到生命的價(jià)值,因此必須加以批判。但不可否認(rèn)的是,大部分被異化的人仍在生產(chǎn)關(guān)系中占據(jù)一席之地。而在OpenAI所預(yù)測的經(jīng)濟(jì)影響風(fēng)險(xiǎn)中,生成式人工智能可能導(dǎo)致經(jīng)濟(jì)體發(fā)生組織層面的變革,將相當(dāng)數(shù)量的人完全排除在勞動生產(chǎn)之外,同時疊加生成式模型的“加速”特性,(3)加速(Acceleration)是指生成式模型作為當(dāng)前最先進(jìn)的技術(shù),能夠讓企業(yè)或組織獲取先發(fā)紅利,因此企業(yè)或組織出于競爭的需要可能會陷入類似“賽車”比賽一樣的持續(xù)加速開發(fā)和部署的狀態(tài)。但社會卻尚未做好運(yùn)用制度性規(guī)范進(jìn)行“剎車”的準(zhǔn)備,導(dǎo)致生成式模型在不斷“加速”的過程中,存在完全“失控”的嚴(yán)重風(fēng)險(xiǎn)。被替代的人群范圍可能愈來愈大。由于生成式模型迭代的速度遠(yuǎn)超人類,被替代的人將永遠(yuǎn)失去追趕的機(jī)會,進(jìn)而掉入自我價(jià)值否定的陷阱。另一方面,過度依賴的風(fēng)險(xiǎn)通過令人類個體脫離社會環(huán)境,從精神層面解構(gòu)人類社會的現(xiàn)實(shí)基礎(chǔ),讓人們沉溺于個體的虛擬幻象之中。馬克思直言:“甚至當(dāng)我從事科學(xué)之類的活動,即從事一種我只是在很少情況下才能同別人直接交往的活動的時候,我也是社會的,因?yàn)槲沂亲鳛槿嘶顒拥摹!盵14](P122)事實(shí)上,人與社會的相互塑造關(guān)系決定了人的社會活動和享受無法脫離社會而單獨(dú)存在,與此同時人類社會的存在也有賴于永不停息的人的社會活動和享受。因此,任何將人的活動和享受抽離于現(xiàn)實(shí)社會的科技都是一種解構(gòu)人類社會基礎(chǔ)的力量。在進(jìn)入信息時代后,以虛擬的活動和享受替代現(xiàn)實(shí)社會的解構(gòu)進(jìn)程便已開啟,而生成式人工智能技術(shù)的出現(xiàn)更是加劇了這一趨勢。就人的活動而言,除去必要的物質(zhì)交換,生成式人工智能依靠強(qiáng)大的模型和數(shù)據(jù)足以在任何專業(yè)領(lǐng)域滿足普通人的知識和信息需求,在普通人心中塑造其智能權(quán)威的形象。而對于人的享受,生成式人工智能也可以通過精準(zhǔn)個體化定制,為每個個體提供專屬性服務(wù)。長此以往,生成式人工智能應(yīng)用的“異化”,也就逐漸將人類個體剝離出現(xiàn)實(shí)社會,并包裹在為個體打造的專屬虛擬幻象之中。
最后,“信仰遷移”的風(fēng)險(xiǎn)損失將造成主流價(jià)值觀消解的嚴(yán)重后果。信仰有個人信仰與社會信仰之別。從意識形態(tài)角度出發(fā),社會信仰源自特定文化共同體和特定人群的共同意識,是塑造主流價(jià)值觀的必爭之地。在生成式人工智能大規(guī)模應(yīng)用前,社會信仰之爭所折射的是不同社會生產(chǎn)方式下人的地位問題,如資本主義將宗教作為壓迫人民的統(tǒng)治工具,而馬克思主義信仰則致力于實(shí)現(xiàn)人的解放。但生成式人工智能的出現(xiàn),從主體層面對當(dāng)前以人為核心的社會信仰發(fā)起了挑戰(zhàn),在解構(gòu)社會傳統(tǒng)的同時,也為社會信仰遷移至以非人類為中心的“數(shù)據(jù)”或“超智能存在”提供了可能。從路徑上看,這種社會信仰的遷移不會是一蹴而就的,它至少可分為兩個階段,即解構(gòu)人類社會權(quán)威的階段和塑造非人類社會權(quán)威的階段。前一階段的特征為:以模型依賴解構(gòu)社會權(quán)威。有研究顯示,當(dāng)人們?nèi)狈θ斯ぶ悄芩仞B(yǎng)時,容易高度信賴人工智能模型。特別是在自己不熟悉的專業(yè)領(lǐng)域,人們可能將人工智能視作“客觀邏輯”的呈現(xiàn)。[32](P1~23)而隨著人們對生成式模型信任度的增長,人們也愈發(fā)難以質(zhì)疑或驗(yàn)證生成式模型的結(jié)論,與之相伴的則是依托于人類知識體系和主流價(jià)值觀的社會權(quán)威影響力的消弭。后一階段的特征為:以模型依賴塑造智能權(quán)威。一項(xiàng)針對人工智能依賴性的實(shí)證研究發(fā)現(xiàn),雖然人們可能會因各種緣由對具有可解釋性的人工智能產(chǎn)生“無理由的信任”(Unwarranted Faith),但其中那些不具備人工智能素養(yǎng)的人更有可能會將人工智能視作高于人類的智能存在。[33]這一結(jié)論印證了尤瓦爾·赫拉利所預(yù)言的“數(shù)據(jù)主義”出現(xiàn)的可能,也預(yù)示了社會信仰存在向非人類的智能權(quán)威遷移的巨大意識形態(tài)風(fēng)險(xiǎn)。
習(xí)近平總書記指出:“人工智能是引領(lǐng)這一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù),具有溢出帶動性很強(qiáng)的‘頭雁’效應(yīng)。”[34]面對生成式人工智能應(yīng)用所帶來的各種意識形態(tài)風(fēng)險(xiǎn),切不可諱疾忌醫(yī),以抵制技術(shù)的方式防范風(fēng)險(xiǎn)。而應(yīng)因勢利導(dǎo),針對不同類型的意識形態(tài)風(fēng)險(xiǎn),探尋切實(shí)可行的風(fēng)險(xiǎn)治理路徑。
生成式人工智能應(yīng)用的原發(fā)性意識形態(tài)風(fēng)險(xiǎn)根植于算法底層,單純依賴人力將難以破除根深蒂固的“算法鋼印”。因此,對于原發(fā)性意識形態(tài)風(fēng)險(xiǎn)的治理思路也應(yīng)從既往的“人工規(guī)訓(xùn)”轉(zhuǎn)向“技術(shù)規(guī)馴”。而從“技術(shù)規(guī)馴”的角度出發(fā),可衍生出兩條具體的治理路徑:一是錨定技術(shù)本身的治理路徑,強(qiáng)調(diào)對生成式算法的規(guī)制;二是錨定技術(shù)應(yīng)用場景的治理路徑,強(qiáng)調(diào)對生成式算法的馴化。
一方面,通過建立生成式算法備案與披露制度,增強(qiáng)技術(shù)透明度,強(qiáng)化對生成式人工智能技術(shù)本身的規(guī)制能力。生成式人工智能應(yīng)用的原發(fā)性風(fēng)險(xiǎn)治理應(yīng)擺脫依靠人工規(guī)訓(xùn)算法的路徑依賴。因?yàn)樵谝源竽P蜑榛A(chǔ)的生成式算法面前,即便是設(shè)計(jì)者也無法探查全部的潛在算法風(fēng)險(xiǎn),更毋言通過預(yù)先的人工干預(yù)來加以規(guī)避,人們能做的只是在發(fā)現(xiàn)問題后嘗試對算法進(jìn)行微調(diào)。[35]因此,通過備案和披露制度提升監(jiān)管機(jī)構(gòu)的反應(yīng)與規(guī)制能力,就成為了治理原發(fā)性意識形態(tài)風(fēng)險(xiǎn)的關(guān)鍵。2023年7月10日頒布的《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《管理辦法》)規(guī)定了生成式人工智能應(yīng)用提供者的合法性義務(wù),并確立了生成式算法備案與披露制度。但總體而言,當(dāng)前的備案與披露制度仍過于粗略,難以滿足治理需求。其一,備案與披露的類型過于單一,未能實(shí)現(xiàn)分級分類的監(jiān)管目標(biāo)。當(dāng)前的備案與披露制度,僅針對“具有輿論屬性或者社會動員能力”的生成式算法,但生成式人工智能應(yīng)用的原發(fā)性意識形態(tài)風(fēng)險(xiǎn)卻不一定發(fā)生在輿論領(lǐng)域。其二,備案與披露的內(nèi)容過于模糊,難以滿足精準(zhǔn)審慎的監(jiān)管要求。《管理辦法》準(zhǔn)用了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》中的備案程序制度。后者雖要求備案人披露“算法類型、算法自評估報(bào)告”等信息,但卻并未對算法概念進(jìn)行準(zhǔn)確界定。對于生成式算法的備案與披露,是只需要對算法類型進(jìn)行描述性的形式備案,還是需要對算法模型本身進(jìn)行實(shí)質(zhì)備案,以及備案內(nèi)容是否涉及敏感詞數(shù)據(jù)庫、分類器等必要內(nèi)容,均缺少明確規(guī)定。而有效治理的前提則在于提升技術(shù)透明度,強(qiáng)化與算法平臺的溝通協(xié)作。所以,國家應(yīng)盡快制定配套、細(xì)化的分級分類生成式算法備案與披露制度,進(jìn)一步明確備案登記的內(nèi)容和程序,切實(shí)提升對于生成式人工智能技術(shù)的規(guī)制能力。
另一方面,通過建立意識形態(tài)敏感領(lǐng)域應(yīng)用規(guī)范與強(qiáng)制定向訓(xùn)練制度,增強(qiáng)技術(shù)安全性,提升對于生成式人工智能應(yīng)用的馴化能力。如前所述,生成式算法的“算法鋼印”形成于海量問題數(shù)據(jù)的預(yù)訓(xùn)練模型,而破解之道同樣在此。為確保意識形態(tài)領(lǐng)域的安全,《管理辦法》明確將“具有輿論屬性或者社會動員能力的生成式人工智能服務(wù)”列入需要主動申請安全評估的類別,并明確生成式人工智能“從事新聞出版、影視制作、文藝創(chuàng)作等活動”時還應(yīng)遵守相應(yīng)領(lǐng)域的例外規(guī)定。在上文深度剖析生成式人工智能應(yīng)用的意識形態(tài)風(fēng)險(xiǎn)生成機(jī)制后,我們可以發(fā)現(xiàn)《管理辦法》的規(guī)定意在預(yù)防生成式人工智能應(yīng)用所可能引發(fā)的繼發(fā)性意識形態(tài)風(fēng)險(xiǎn)。但同時,我們也可以發(fā)現(xiàn)《管理辦法》顯然沒有考慮到生成式人工智能技術(shù)的全部應(yīng)用場景,進(jìn)而忽略了原發(fā)性意識形態(tài)風(fēng)險(xiǎn)這一風(fēng)險(xiǎn)類別。事實(shí)上,我國可參鑒歐盟的《人工智能法案》,對生成式人工智能技術(shù)應(yīng)用的關(guān)鍵領(lǐng)域劃分風(fēng)險(xiǎn)等級,將教育領(lǐng)域等可能發(fā)生原發(fā)性意識形態(tài)風(fēng)險(xiǎn)的敏感領(lǐng)域設(shè)置為高風(fēng)險(xiǎn)應(yīng)用領(lǐng)域。具體路徑可分作兩步:一是針對意識形態(tài)敏感領(lǐng)域設(shè)置特殊的應(yīng)用規(guī)范,明確生成式算法所必須具備的技術(shù)標(biāo)準(zhǔn);二是依據(jù)不同意識形態(tài)敏感領(lǐng)域的特點(diǎn)設(shè)置定向訓(xùn)練數(shù)據(jù)庫和敏感詞定向訓(xùn)練數(shù)據(jù)庫。《管理規(guī)定》雖強(qiáng)調(diào)要推動建立“公共訓(xùn)練數(shù)據(jù)資源平臺”,但卻并未規(guī)定強(qiáng)制性的定向訓(xùn)練制度。對于已經(jīng)存在“算法鋼印”的生成式人工智能,定向訓(xùn)練是糾正其算法偏見最直接有效的方法。因此國家應(yīng)加快生成式人工智能基礎(chǔ)設(shè)施和公共訓(xùn)練數(shù)據(jù)資源平臺的建設(shè),并要求在意識形態(tài)敏感領(lǐng)域提供服務(wù)的組織及個人,在正式開展業(yè)務(wù)前,必須使用指定的定向訓(xùn)練數(shù)據(jù)庫對算法模型進(jìn)行強(qiáng)制定向訓(xùn)練。例如,在教育領(lǐng)域,要求生成式人工智能技術(shù)在應(yīng)用前應(yīng)預(yù)先完成中國特色社會主義理論體系數(shù)據(jù)庫的定向訓(xùn)練,以避免在應(yīng)用過程中出現(xiàn)嚴(yán)重的政治及意識形態(tài)錯誤。只有如此,才能在最大程度上避免“算法鋼印”的意識形態(tài)威脅,消除“逆向馴化”所可能產(chǎn)生的“認(rèn)知繭房”效應(yīng),將西方技術(shù)馴化為中國技術(shù)。
生成式人工智能應(yīng)用的繼發(fā)性意識形態(tài)風(fēng)險(xiǎn)的癥結(jié)在于,傳統(tǒng)的把關(guān)人無法應(yīng)對仿真智能體所發(fā)起的全方位挑戰(zhàn)。因此,風(fēng)險(xiǎn)治理模式也必須與時俱進(jìn),由把關(guān)人理論下的“重點(diǎn)監(jiān)管”轉(zhuǎn)為“全鏈監(jiān)管”模式。為適應(yīng)在智能仿真技術(shù)加持下,計(jì)算宣傳智能體所可能發(fā)起的意識形態(tài)攻勢,“全鏈監(jiān)管”應(yīng)從以下兩方面入手。
一方面,完善分布式監(jiān)管網(wǎng)絡(luò),合理劃定權(quán)責(zé)。分布式監(jiān)管區(qū)別于把關(guān)人理論下的分段、重點(diǎn)監(jiān)管體系,其核心價(jià)值在于能有效彌合傳統(tǒng)中心式監(jiān)管體系所造成的監(jiān)管縫隙。傳統(tǒng)的中心式監(jiān)管體系以把關(guān)人為監(jiān)管核心,監(jiān)管責(zé)任高度集中于把關(guān)人,因此以“量”取勝、重點(diǎn)布控是慣常操作。但面對有生成式人工智能技術(shù)加持的仿真智能體,無論如何增加把關(guān)人的數(shù)量,也無法應(yīng)對可能隨時攻擊信息采集、選擇、編輯、審查、導(dǎo)向、發(fā)布等意識形態(tài)傳播全鏈條任意環(huán)節(jié)的仿真智能體。同時,在“模型即服務(wù)”模式日益盛行的當(dāng)下,把關(guān)權(quán)實(shí)際上已開始向算法平臺企業(yè)轉(zhuǎn)移。算法平臺企業(yè)在擁有篩選服務(wù)對象的巨大權(quán)力時,卻無需負(fù)擔(dān)相應(yīng)的監(jiān)管職責(zé),從而產(chǎn)生了巨大的監(jiān)管真空地帶。而《管理辦法》的“分類分級監(jiān)管”原則正體現(xiàn)了這種分布式監(jiān)管的理念,強(qiáng)調(diào)了生成式人工智能服務(wù)提供者的法律責(zé)任。然而可惜的是,《管理辦法》雖界定了“生成式人工智能服務(wù)提供者”的概念,但并未嚴(yán)格區(qū)分算法平臺與利用API(應(yīng)用程序可編程接口)的終端服務(wù)提供者。而角色的不同不僅意味著在傳播鏈條中的地位和能力差異,也意味著責(zé)任的不同。例如,OpenAI的政策研究中心主任Miles Brundage等人所提出的疑問,當(dāng)前的算法平臺能夠通過API控制申請使用生成式算法的終端服務(wù)提供者,但真正的問題是誰能通過申請?通過理由如何?算法平臺又該怎樣制定訪問權(quán)限規(guī)則?[36]模糊的規(guī)定意味著模糊的責(zé)任,并將最終導(dǎo)致架空責(zé)任條款的結(jié)果。因此,國家應(yīng)當(dāng)將分布式監(jiān)管的思路貫徹到底,打造符合生成式人工智能應(yīng)用路徑且權(quán)責(zé)一致的分布式監(jiān)管網(wǎng)絡(luò),以構(gòu)筑起治理繼發(fā)性意識形態(tài)風(fēng)險(xiǎn)的監(jiān)管體系。
另一方面,提升智能化監(jiān)管水平,以技術(shù)制約技術(shù)。對于惡意利用生成式人工智能技術(shù)所可能導(dǎo)致的風(fēng)險(xiǎn),《管理規(guī)定》從三個角度嘗試予以防范與治理,即自主監(jiān)管、用戶監(jiān)管和行政監(jiān)管??傮w而言,《管理規(guī)定》的監(jiān)管思路是清晰的,準(zhǔn)確切中了意識形態(tài)風(fēng)險(xiǎn)治理的要害。但規(guī)定中的技術(shù)含量仍然不高,所體現(xiàn)的更多的是倚賴把關(guān)人的傳統(tǒng)監(jiān)管思路,難以應(yīng)對以仿真智能體與深度合成技術(shù)為主要攻擊手段的繼發(fā)性意識形態(tài)風(fēng)險(xiǎn)。從可預(yù)期的實(shí)際治理效果來看,《管理規(guī)定》所重點(diǎn)倚賴的自主監(jiān)管和用戶監(jiān)管路徑恐難奏效。一是惡意利用必然回避現(xiàn)有規(guī)范,令自主監(jiān)管落空。繼發(fā)性風(fēng)險(xiǎn)源自惡意應(yīng)用。算法平臺如果直接參與了意識形態(tài)的計(jì)算宣傳或認(rèn)知對抗,便不可能遵守《管理規(guī)定》中的自主監(jiān)管條款。而如果是終端服務(wù)提供者所實(shí)施,也必然繞開了平臺監(jiān)管,更加不可能遵守《管理規(guī)定》的自主監(jiān)管規(guī)定,例如,為虛假的深度合成內(nèi)容加注標(biāo)識。二是惡意的深度偽造具有極強(qiáng)的迷惑性,讓用戶監(jiān)管失效?;ヂ?lián)網(wǎng)背景下的傳統(tǒng)監(jiān)管模式主要采取增加把關(guān)人的治理思路,即將用戶作為把關(guān)人吸納至監(jiān)管體系之中,實(shí)現(xiàn)把關(guān)人數(shù)量的指數(shù)級增長。但用戶監(jiān)管受限于個體的認(rèn)知與知識體系,對于可能引發(fā)社會意識形態(tài)風(fēng)險(xiǎn)的深度合成內(nèi)容,甚至是深度偽造的內(nèi)容則束手無策。因此,行政監(jiān)管才是應(yīng)對繼發(fā)性意識形態(tài)風(fēng)險(xiǎn)最為重要的手段。同時,為更好地應(yīng)對潛在的海量計(jì)算宣傳與認(rèn)知對抗意識形態(tài)攻擊,必須將監(jiān)管體系由以人工為主過渡到以技術(shù)為主,大力發(fā)展智能化監(jiān)管工具,如人民網(wǎng)開發(fā)的“人民審校”產(chǎn)品。只有以技術(shù)為依托,堅(jiān)持三管齊下,才能有效提升繼發(fā)性意識形態(tài)風(fēng)險(xiǎn)治理的智能化監(jiān)管水平。
并發(fā)性意識形態(tài)風(fēng)險(xiǎn)其本質(zhì)是一種顛覆以人為本價(jià)值體系的信仰危機(jī),故而風(fēng)險(xiǎn)治理的思路應(yīng)當(dāng)反其道而行。任何以人為本鞏固社會主流價(jià)值觀,并提升人們抵御智能依賴的方法,即為并發(fā)性意識形態(tài)風(fēng)險(xiǎn)的治理之道。
一方面,以強(qiáng)化“人機(jī)對齊”筑牢人工智能以人為本的價(jià)值觀?!豆芾磙k法》通過明確規(guī)定人工智能技術(shù)所應(yīng)遵循的準(zhǔn)則和要求的方式,對以上問題給予了回應(yīng)。但就規(guī)范層面而言,相關(guān)規(guī)定只是宣示性規(guī)范,是國家立場的宣告。事實(shí)上,當(dāng)前人機(jī)對齊的具體工作仍主要依靠生成式人工智能服務(wù)提供者,特別是算法平臺自主完成。例如,OpenAI所開發(fā)的InstructGPT預(yù)訓(xùn)練模型,就是采用“人類反饋強(qiáng)化學(xué)習(xí)”的人機(jī)對齊技術(shù)。但就實(shí)際效果而言,其只是一項(xiàng)“行動目標(biāo)對齊”技術(shù),而非“價(jià)值觀對齊”技術(shù)。因此,InstructGPT雖然讓ChatGPT的行為更像人類,但卻并未給出消減反人類價(jià)值觀行為的解決方案。[37]所以,欲實(shí)現(xiàn)價(jià)值觀層面的人機(jī)對齊,應(yīng)當(dāng)依賴國家和社會的力量,而非由算法平臺各行其是。國家應(yīng)主導(dǎo)人機(jī)對齊技術(shù)的發(fā)展,充分利用人工智能行業(yè)協(xié)會、學(xué)會、研究會等社會力量,共同制定生成式人工智能倫理標(biāo)準(zhǔn)和發(fā)展規(guī)劃,將以人為本價(jià)值觀深深地印刻在生成式人工智能的算法之中。
另一方面,以培育“智能素養(yǎng)”增強(qiáng)社會公眾的智能依賴抵御力。上文引述的研究表明,缺乏智能素養(yǎng)的社會公眾將更容易陷入對人工智能的過度依賴。那么反之,培育智能素養(yǎng)能否有效提升社會公眾的智能依賴抵御力?答案是肯定的。有研究顯示,公眾僅僅認(rèn)知到機(jī)器學(xué)習(xí)模型所可能存在的性能差異,就可顯著降低其對于模型的依賴程度。[38](P120~129)但可惜的是《管理辦法》再次將管理職責(zé)交給了算法平臺,僅要求提供者“采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務(wù)”。事實(shí)上,過度依賴現(xiàn)象并不僅發(fā)生在未成年人身上,預(yù)防并發(fā)性意識形態(tài)風(fēng)險(xiǎn)有賴于社會公眾智能素養(yǎng)的普遍提升,因此必須多管齊下。其一,在企業(yè)層面,應(yīng)對生成式人工智能服務(wù)提供者提出明確且清晰的規(guī)范要求。如在用戶登錄界面提示生成式算法的局限性,并列舉錯誤范例;又如為用戶提供生成內(nèi)容相關(guān)度與準(zhǔn)確性的提示,并標(biāo)明參考信息來源等。其二,在社會層面,應(yīng)注重針對社會公眾的宣傳。管理機(jī)關(guān)應(yīng)與宣傳機(jī)關(guān)協(xié)作搭建信息共享平臺,利用各種輿論契機(jī),加大針對社會公眾的人工智能通識性宣傳。其三,在教育層面,應(yīng)在各教育階段增設(shè)符合學(xué)生需求的智能素養(yǎng)教育內(nèi)容,盡快普及智能素養(yǎng)教育,從根本上提升社會整體的智能依賴抵御能力。