中圖分類號:D64;TP18 文獻標識碼:A文章編號:1673-8268(2025)02-0085-09
2024 年年初,美國開放人工智能研究中心OpenAI發(fā)布視頻生成模型“Sora”,如同2022年11月底ChatGPT發(fā)布一樣,生成式人工智能再次成為全球關(guān)注的焦點。人工智能生成內(nèi)容(artificial intelligencegenerated content,AIGC),是一種憑借海量數(shù)據(jù)、基于特定算法、通過大模型技術(shù),利用既有文本、圖片、音視頻等生成或創(chuàng)建多模態(tài)新內(nèi)容的人工智能技術(shù)。從長遠來看,“生成式”引發(fā)的新技術(shù)革命必將對社會生產(chǎn)生活各領(lǐng)域產(chǎn)生重塑性、變革性影響。由于語料庫來源、算法設(shè)定等不可避免地帶有政治傾向與偏見,生成式人工智能已然成為意識形態(tài)滲透工具,其發(fā)展應用產(chǎn)生的意識形態(tài)風險樣態(tài)及治理值得重點關(guān)注。
一、問題提出及學術(shù)認知
同ChatGPT一樣,對生成式人工智能發(fā)展具有階段性意義的 Sora一經(jīng)推出便備受熱議。前者是基于自然語言處理技術(shù)的人工智能對話聊天“機器人”,能完成聊天、文本翻譯、文案撰寫及代碼編寫等任務;后者是文生視頻大模型代表,能夠根據(jù)用戶提示創(chuàng)建數(shù)字視頻,具有文字生成視頻、圖片生成視頻、視頻擴展與連接等功能,在人工智能反映真實世界場景并與之互動的能力方面有較大提升。與傳統(tǒng)的分析式人工智能的區(qū)別在于,生成式人工智能(generative artificial intellgence,GAI)是基于深度學習技術(shù)的人工智能,無需用戶輸入任務處理指令即可自主生成具有連貫性、邏輯性以及常識性的語言文本、圖像、音視頻等內(nèi)容,實現(xiàn)了信息生產(chǎn)從“專家生成內(nèi)容”到“用戶生成內(nèi)容”,再向“人工智能生成內(nèi)容”的范式跨越。從ChatGPT到Sora,生成式人工智能在“內(nèi)容生成”領(lǐng)域展現(xiàn)出前所未有的潛力與創(chuàng)新。生成式人工智能技術(shù)的不斷迭代升級,預示著專用人工智能向通用人工智能進化的標志性轉(zhuǎn)折,同時也對經(jīng)濟社會發(fā)展和治理帶來新挑戰(zhàn)。雖然ChatGPT極力宣稱其立場與觀點的中立性,但其語料庫來源、算法設(shè)定等不可避免地帶有政治傾向與偏見。在西方國家那里,生成式人工智能已然成為意識形態(tài)滲透工具,審視這一技術(shù)的意識形態(tài)屬性及其應用產(chǎn)生的意識形態(tài)風險,具有重要的理論與現(xiàn)實價值。
學界對生成式人工智能風險問題的研究,主要涉及技術(shù)底座、運行機理、科技倫理、教育沖擊、職業(yè)替代、法律風險等領(lǐng)域。近段時間以來,關(guān)于意識形態(tài)風險的研究呈上升趨勢,并成為生成式人工智能風險研究的重點內(nèi)容之一,主要聚焦于以下方面。一是生成式人工智能對意識形態(tài)的影響。有學者將ChatGPT的意識形態(tài)性總結(jié)為語料庫和數(shù)據(jù)庫的意識形態(tài)性、算法的意識形態(tài)性、應用場景的意識形態(tài)性,認為雖然算法的基礎(chǔ)原理是價值無涉的,但算法的各種參數(shù)、賦值、變換實際上存在著價值介入的可能性[1;有學者認為ChatGPT有可能經(jīng)由兩條路線對意識形態(tài)安全造成威脅,由實向虛的路線即語料庫西方化導致的意識形態(tài)偏見,由虛到實的路線即通過斷章取義、惡意裁剪、歪曲抹黑等手段大興輿論戰(zhàn),為攻陷他國意識形態(tài)陣地創(chuàng)造便利[2]。二是意識形態(tài)風險研判。有學者認為ChatGPT具有算法霸權(quán),即西方國家通過算法技術(shù)實現(xiàn)意識形態(tài)干預與控制,體現(xiàn)為精準引導和靶向干預以及意識形態(tài)輸出[3;還有學者以意識形態(tài)領(lǐng)導權(quán)、管理權(quán)、話語權(quán)的“三權(quán)\"結(jié)構(gòu)為框架,分析生成式人工智能產(chǎn)生何種意識形態(tài)風險[4]101-110。三是意識形態(tài)風險防范與治理。有學者指出,防范 ChatGPT 的意識形態(tài)風險,要從推動ChatGPT更好地服務于人、增強意識形態(tài)工作者對ChatGPT意識形態(tài)風險的認知和應對能力、健全和完善意識形態(tài)風險防范的制度規(guī)范以及鞏固和壯大主流意識形態(tài)的傳播陣地等方面著手[5];有學者提出風險治理的三個層次,即以“技術(shù)規(guī)訓”為核心的原發(fā)性意識形態(tài)風險治理、以“全鏈監(jiān)管”為核心的繼發(fā)性意識形態(tài)風險治理、以“價值鞏固\"為核心的并發(fā)性意識形態(tài)風險治理[6]7-16。
隨著人工智能技術(shù)從弱人工智能向強人工智能加速進化,可以預見的是,現(xiàn)有的ChatGPT技術(shù)以及類似Sora大模型的問世及應用只是邁出了第一步,技術(shù)奇點在人工智能發(fā)展中將會催生更多的智能“涌現(xiàn)”??偟膩砜?,既有學術(shù)成果對生成式人工智能意識形態(tài)風險的影響、防范及治理進行了多維度闡釋,為后續(xù)研究提供了重要的參考和借鑒。隨著技術(shù)革新及突破,尤其是通用人工智能(artificial general in-telligence,AGI)的不斷發(fā)展,有必要在既有研究基礎(chǔ)上,從本質(zhì)屬性層面進一步辨析生成式人工智能的意識形態(tài)性,從生成機制方面深人研判生成式人工智能的意識形態(tài)風險樣態(tài)與成因,從防范與治理角度全面審視生成式人工智能發(fā)展應用的意識形態(tài)風險。
二、生成式人工智能的意識形態(tài)屬性
生成式人工智能在“內(nèi)容生成”領(lǐng)域展現(xiàn)出前所未有的潛力與創(chuàng)新,作為顛覆性技術(shù)的代表之一,其不再僅限于傳統(tǒng)的工具升級和技術(shù)迭代的解釋范疇,更凸顯了生產(chǎn)力發(fā)展對意識形態(tài)領(lǐng)域的重大影響甚至決定性作用。因此,清晰認識生成式人工智能的意識形態(tài)屬性尤為重要。
(一)人工智能的技術(shù)本質(zhì)
2023 年8月15日起施行的《生成式人工智能服務管理暫行辦法》將生成式人工智能界定為“技術(shù)”,即擁有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)。這一顛覆性技術(shù)代表著新一輪科技革命的突出成果,“能聽”(語音識別)、“能說”(人機對話)、“能看”(文字、圖像識別)、“能學習”(監(jiān)督式或無監(jiān)督式機器學習)等表現(xiàn)越來越接近人類某一部分智能或類人智能。從OpenAI公布的技術(shù)報告來看,Sora 綜合應用大量聊天生成型預訓練變換模型(Chat Generative Pre-trained Transformer,ChatGPT)、DALL ? E3(OpenAI圖像生成模型的第三個版本)以及之前積累的技術(shù)沉淀,可謂生成式人工智能技術(shù)的大集合,這也是Sora能呈現(xiàn)超強視頻技術(shù)的根本原因。從ChatGPT到Sora的迅猛發(fā)展,充分表明生成式人工智能在人類生產(chǎn)生活的各個領(lǐng)域都將扮演愈益重要的工具角色。事實上,人工智能技術(shù)雖然與古代、近代技術(shù)的表現(xiàn)形態(tài)大為不同,但一切科學技術(shù)無不扮演著合目的性的工具角色。生成式人工智能的誕生及應用旨在將人從復雜的工作任務中解放出來,助力實現(xiàn)人的自由全面發(fā)展,就此而言,生成式人工智能技術(shù)的工具性質(zhì)沒有改變,也不會改變。與此同時,科學技術(shù)推動與賦能經(jīng)濟社會發(fā)展,也在一定程度上變成人的異己力量并帶來諸多負面影響,尤其需要規(guī)范治理。正如馬克思所言:“技術(shù)的勝利,似乎是以道德的敗壞為代價換來的。隨著人類愈益控制自然,個人卻似乎愈益成為別人的奴隸或自身的卑劣行為的奴隸。”[7]技術(shù)異化的根源在于資本主義條件下技術(shù)應用的異化,被喻為“世界模擬器”的 Sora大模型的商用即是技術(shù)與資本深度“聯(lián)姻”的鮮明表征。這必將導致更大范圍的數(shù)據(jù)資源“再壟斷”,為其幕后操控者攫取更多實現(xiàn)經(jīng)濟利益的數(shù)字特權(quán)。
(二)人工智能技術(shù)與意識形態(tài)的內(nèi)在關(guān)系
人工智能的技術(shù)本質(zhì)決定了其屬于生產(chǎn)力范疇,具有物質(zhì)基礎(chǔ)的顯性特質(zhì),但其與上層建筑同樣存在著相互交織的隱性關(guān)系。法蘭克福學派認為,科學技術(shù)本身也是意識形態(tài)的組成部分。哈貝馬斯在《作為“意識形態(tài)”的技術(shù)與科學》中提出:“技術(shù)與科學作為新的合法性形式,它已經(jīng)喪失了意識形態(tài)的舊形態(tài),已經(jīng)成了一種以科學為偶像的新型的意識形態(tài),即技術(shù)統(tǒng)治論的意識?!盵8]該學派提出的“技術(shù)統(tǒng)治論”,認定科學技術(shù)并非價值無涉和完全中立,并強調(diào)其作為統(tǒng)治架構(gòu)的一部分,具有鮮明的意識形態(tài)傾向與政治性。在審視人工智能技術(shù)與意識形態(tài)的內(nèi)在關(guān)系時,除了借鑒吸收法蘭克福學派的代表性觀點,更需回歸技術(shù)本身以及技術(shù)應用背后的階級矛盾。依據(jù)馬克思主義基本原理,意識形態(tài)屬于上層建筑范疇,由社會物質(zhì)關(guān)系所決定,而人工智能的技術(shù)本質(zhì)決定了其屬于生產(chǎn)力范疇。這就是說,生成式人工智能技術(shù)與意識形態(tài)之間是作用與反作用的關(guān)系??茖W技術(shù)雖然不屬于意識形態(tài)范疇,但生成式人工智能技術(shù)與意識形態(tài)之間在資本場域的壟斷與被壟斷關(guān)系、在主體空間的形塑與被形塑關(guān)系、在文化領(lǐng)域的滲透與被滲透關(guān)系,導致生成式人工智能承載著隱性的意識形態(tài)功能。生成式人工智能產(chǎn)生意識形態(tài)風險的關(guān)鍵在于應用領(lǐng)域。技術(shù)作為一種生產(chǎn)力載體,具有鮮明的實踐性,包括人工智能在內(nèi)的技術(shù)物質(zhì)形態(tài)與社會形態(tài),不斷印證著資本主義技術(shù)應用的意識形態(tài)后果。以O(shè)penAI為代表的人工智能巨頭,其西式資本屬性必然驅(qū)使生成式人工智能技術(shù)推廣應用并不斷增資擴容,以求霸占全球市場份額??梢悦鞔_的是,當前,我們依然處在馬克思主義所指明的歷史時代。在資本裹挾下,誰掌握人工智能技術(shù)的控制權(quán),誰就會將其作為攫取權(quán)力的利器,繼續(xù)將觸角擴展到政治軍事、社會安全甚至國家主權(quán)等領(lǐng)域并產(chǎn)生深遠影響。
(三)生成式人工智能意識形態(tài)屬性的表現(xiàn)特征
意識形態(tài)從一般性內(nèi)容來講,涉及政治法律思想、道德、藝術(shù)、宗教、哲學等領(lǐng)域,主要表現(xiàn)為占統(tǒng)治地位的體系化、理論化的階級意識,其本質(zhì)即統(tǒng)治思想。從ChatGPT到 Sora,其技術(shù)本質(zhì)決定了炫酷外表下隱藏的意識形態(tài)屬性,主要涉及以下幾個方面。一是意識認知壟斷屬性。在資本裹挾下,誰掌握人工智能技術(shù)的控制權(quán),誰就掌控了攫取權(quán)力的利器,進而能夠染指甚至操控意識形態(tài)建構(gòu),影響國家意識形態(tài)和政治安全。數(shù)據(jù)、算法和算力構(gòu)成了人工智能要素體系,決定了生成式人工智能在數(shù)據(jù)資源(含語料庫)的往復訓練中能夠充分發(fā)揮技術(shù)功能,大肆宣揚資本主義意識形態(tài)。由此,資本邏輯可以通過統(tǒng)攝技術(shù)邏輯來操控大眾的社會認知、精神意識和思想觀念,甚至實現(xiàn)挑釁和干預他國內(nèi)政的目的。二是主體觀念形塑屬性。生成式人工智能對主體觀念的影響方式貫穿于“主體人格符碼化—數(shù)據(jù)內(nèi)容感性化一思維邏輯碎片化”的無意識牽引過程之中[9]。在生成式人工智能應用中,傳統(tǒng)的知識生產(chǎn)模式被動態(tài)的智能知識庫替代。相較于文字、話語等意識形態(tài)的傳統(tǒng)存在方式,ChatGPT、Sora等生成式人工智能從根本上推動了觀念與范式轉(zhuǎn)型,從內(nèi)容數(shù)據(jù)化、數(shù)據(jù)符號化到思維碎片化,實現(xiàn)了對主體價值觀念更大規(guī)模、更多層次、更高精度的濡染,無感化形塑可謂無時不有、無處不在。三是文化內(nèi)核滲透屬性。大模型在數(shù)據(jù)標注、訓練語料和使用規(guī)模上具有顯著的體量優(yōu)勢,這使得生成式人工智能很有可能因其西式技術(shù)基因而帶有天然的西方文化特質(zhì)。要知道,自然語言處理路線在人工智能機器學習技術(shù)上的突破,以及生成式人工智能意識形態(tài)話語的產(chǎn)生、敘事和傳播,必然會加劇不同文化、思想與觀念的博弈與較量,孕生于西方文化世界的ChatGPT、Sora等大模型的文化滲透性也會隨著技術(shù)的成熟而不斷提升。這將導致生成式人工智能在文化場域的軟性滲透不僅會因其本身所負載的文化軟實力而影響人們的思考方式和行為路向,而且會進一步升級形成更具隱蔽性和破壞性的意識形態(tài)滲透。
三、生成式人工智能發(fā)展應用的意識形態(tài)風險生成
在數(shù)字化、網(wǎng)絡(luò)化、智能化浪潮涵涌澎湃的時代背景下,人工智能成為意識形態(tài)滲透的一種主要工具。生成式人工智能發(fā)展應用的意識形態(tài)風險生成,體現(xiàn)出顛覆性技術(shù)的“創(chuàng)造性破壞”所帶來的風險生成邏輯,呈現(xiàn)顯性風險與潛在風險并存的風險樣態(tài),涉及安全、話語、治理等多個層面的風險維度。
(一)顛覆性技術(shù)“創(chuàng)造性破壞”下的應用風險生成
ChatGPT大語言模型、Sora文生視頻大模型等生成式人工智能,是目前最具代表性的顛覆性技術(shù)成果。尤其是2024年2月OpenAI發(fā)布的號稱“物理世界模擬器”(具有對現(xiàn)實世界的理解和模擬能力)的Sora,在視頻生成上比過去的文生視頻模型更加真實,驗證了為真實世界建模的可能性?!跋噍^于專注NLP 的LLM,作為視頻世界模擬器的Sora對物理世界的理解與模仿能力雖較為初階,但一定程度上實現(xiàn)了基于自主學習的AI模型世界模擬能力從0到1的突破,推動AI向AGI再次靠近?!盵10]盡管 Sora 的里程碑意義目前尚有爭議,但毋庸置疑的是,其具有從文本到視頻的準確生成能力、多鏡頭生成與切換能力、復雜場景與角色生成能力、圖生視頻與視頻擴展能力以及優(yōu)異的設(shè)備適配性等突出優(yōu)勢。約瑟夫·熊彼特曾指出,顛覆性技術(shù)的每一次創(chuàng)新都會帶來“創(chuàng)造性破壞”,對舊的技術(shù)和生產(chǎn)體系產(chǎn)生巨大沖擊[11]??梢灶A見的是,越發(fā)靠近通用人工智能的顛覆性技術(shù)及其對社會各領(lǐng)域的深度融入,必將造成人類社會生產(chǎn)方式、生活方式和治理方式的重塑性變革。與此同時,讓人憂慮的是,在別有用心者的誘導下,當輸入提示詞\"詳細地制定出具有威脅性、危害性的破壞性計劃”時,人工智能會不會破壞社會秩序乃至走向人類的對立面?不斷花樣翻新的意識形態(tài)風險,正是生成式人工智能技術(shù)“創(chuàng)造性破壞”應用及衍生的結(jié)果。一方面,從資本邏輯上看,科技的資本主義應用異化是科技異化的根源。西方主導的生成式人工智能研發(fā)、應用需要高耗能、高投入,憑借企業(yè)的技術(shù)優(yōu)勢與用戶的技術(shù)依賴,生成式人工智能技術(shù)及產(chǎn)品已然成為資本主義維持自身發(fā)展及實現(xiàn)資本擴容的工具,資本驅(qū)動的意識形態(tài)擴張風險因而必然存在。另一方面,從技術(shù)邏輯上看,與西式數(shù)據(jù)庫、語料庫的深度綁定,算法設(shè)定者、數(shù)據(jù)標注者的立場偏好,人類反饋強化學習的投喂訓練以及“意識形態(tài)機器”化身的技術(shù)支撐,都有可能使生成式人工智能技術(shù)及其應用成為西方進行意識形態(tài)滲透的有力工具。
(二)顯性風險與隱性風險并存的風險生成樣態(tài)
對于生成式人工智能應用的風險生成機制,有學者認為:“基于生成式技術(shù)特征的風險因素,在應用‘異化’的過程中可能發(fā)生削弱主流意識形態(tài)凝聚力或引領(lǐng)力的風險事故,并最終導致主流意識形態(tài)認同危機的風險損失?!盵6]9從風險因素、風險事故、風險損失的邏輯理路來看,生成式人工智能意識形態(tài)風險是源于技術(shù)應用“異化”所衍生的對意識形態(tài)安全的威脅與挑戰(zhàn)。相較于ChatGPT等文本生成式人工智能在二維空間探索世界,Sora等視頻生成式人工智能開始初步在三維空間模仿真實世界。隨著以ChatGPT、Sora為代表的顛覆性技術(shù)迅猛發(fā)展,生成式人工智能應用的顯性風險與隱性風險亦交織生成。從顯性風險來看,技術(shù)原發(fā)性風險與應用繼發(fā)性風險并存。按照風險生成樣態(tài)的邏輯關(guān)系,技術(shù)原發(fā)性風險與應用繼發(fā)性風險具有因果關(guān)聯(lián)且同時存在。算法是生成式人工智能原發(fā)性意識形態(tài)風險的重要來源,“算法鋼印”的提法形象表達了在訓練數(shù)據(jù)與模型參數(shù)微調(diào)中算法如鋼印般印刻的意識形態(tài)性。當前,生成式人工智能算法以西方技術(shù)為主導,其價值觀偏見必然刻畫于原發(fā)性技術(shù)之中。生成式人工智能繼發(fā)性意識形態(tài)風險并非技術(shù)原發(fā)性風險的自然延續(xù),而是產(chǎn)生于人為惡意應用場景?!熬哂邪詸?quán)主義秉性和零和博弈思維的某些國家根據(jù)用戶同ChatGPT交流時生產(chǎn)的數(shù)字內(nèi)容會被ChatGPT留存用以訓練的特點,可能利用這些數(shù)字內(nèi)容來刺探和監(jiān)視其他國家的民意風向、時事焦點、政治生態(tài)、社會矛盾、群體心態(tài),進而以此為素材輕車熟路地通過顛倒是非、斷章取義、惡意剪輯等手段猛搞輿論戰(zhàn)去大力攻擊其他國家的意識形態(tài)陣地。”[12]OpenAI針對GPT-4(2023年3月發(fā)布)列舉了12種可知的具體應用“異化”風險并作了分析研判,其中就包括虛假信息與行為誘導等風險內(nèi)容??梢姡墒饺斯ぶ悄芾^發(fā)性意識形態(tài)風險對國家主流價值觀的沖擊是前所未有的。從隱性風險來看,虛擬世界模擬與物理世界原理交織。從技術(shù)路線上看,Sora在ChatGPT的基礎(chǔ)上加入了擴散模型,開啟了生成式人工智能技術(shù)從文本生成的二維空間探索到進人三維空間,以視頻生成模擬真實世界的現(xiàn)實圖景。從ChatGPT到 Sora,不僅僅是技術(shù)的演進,更預示著人工智能發(fā)展從虛到實、從平面描述到立體空間解析的節(jié)點式突破。盡管現(xiàn)有技術(shù)還未達到對真實物理世界進行全面而精細的高度模擬刻畫水平,但不可忽視其潛在的意識形態(tài)風險?;谙嗨频牡讓蛹軜?gòu),大模型正快速泛化到更多場景。使用壓縮有視頻素材的時空塊訓練而成的Sora,能夠在理解動作、轉(zhuǎn)場和部分物理規(guī)律的基礎(chǔ)上生成逼真流暢的視頻,“眼見為實”的信條由此受到前所未有的挑戰(zhàn),視頻的真實性基石正在生成式人工智能發(fā)展應用的沖擊下發(fā)生動搖。與單純“換臉”、修圖、篡改等不同,“真實偽造”的出現(xiàn)將模糊虛擬與現(xiàn)實之間的界限,突破虛實空間交織的認知防線,可能導致傳統(tǒng)意識形態(tài)傳播的物理屬性、視頻技法和情景分析檢驗機制失效,最直接的例子即新聞報道將陷入“真實偽造”的危機漩渦。
(三)意識形態(tài)安全、話語、治理的多維風險生成
“ChatGPT等生成式人工智能憑借內(nèi)容生成的首要功能對意識形態(tài)的價值觀念層進行滲透;依靠交互對話的產(chǎn)品形態(tài)對意識形態(tài)的話語方式產(chǎn)生影響;利用多維應用的功能屬性對社會生活實踐領(lǐng)域展開強勢介人,促使當下意識形態(tài)斗爭態(tài)勢風云詭謫,變化萬千。”[4]101生成式人工智能應用的意識形態(tài)風險生成除了具有顯性與隱性之分,還可以從安全、話語、治理的“三位一體”式框架進行審視。一是源于數(shù)據(jù)投喂的意識形態(tài)安全風險。生成式人工智能的“智能性”與其超強的數(shù)據(jù)汲取能力緊密相關(guān)。人工智能時代,數(shù)據(jù)成為極為重要的生產(chǎn)要素及核心資源,正是基于大批量的數(shù)據(jù)投喂與吞噬并結(jié)合算法“調(diào)教”規(guī)訓,智能體才能不斷完成學習與生成任務。在萬物皆可數(shù)據(jù)化的當下,個人的行為軌跡、身心變化、情緒狀態(tài)、社會關(guān)系等都能夠?qū)崿F(xiàn)數(shù)據(jù)化呈現(xiàn),一旦這些數(shù)據(jù)被西方人工智能公司掌握,即可成為其全景式監(jiān)控各國的有力工具,直接威脅各國數(shù)據(jù)主權(quán)安全。不管是個人數(shù)據(jù)安全還是國家數(shù)據(jù)主權(quán),都是國家意識形態(tài)安全的基石。就此而言,源于大規(guī)模數(shù)據(jù)投喂的生成式人工智能應用可能危及國家主流意識形態(tài)安全。二是基于權(quán)威解構(gòu)的意識形態(tài)話語風險。政治性與階級性是意識形態(tài)話語的本質(zhì)屬性。由此而論,自上而下的對意識形態(tài)話語權(quán)的控制即是對權(quán)力的控制,自下而上的大眾認同則是意識形態(tài)話語權(quán)威建構(gòu)的關(guān)鍵。從原發(fā)性風險來看,自然語言處理、文生視頻模擬等技術(shù),克服了弱人工智能機械、生硬的交互體驗,但其擬人化的話語風格更具迷惑性,如果夾雜和攜帶錯誤思想及虛假資訊的話語傳播,很可能導致使用者陷入西式意識形態(tài)的“話語陷阱”,進而致使主流意識形態(tài)話語權(quán)面臨被解構(gòu)的風險;從繼發(fā)性風險來看,在資本邏輯統(tǒng)攝下,掌握生成式人工智能技術(shù)的西式寡頭企業(yè)為攫取利益,極易憑借其在技術(shù)上的壟斷權(quán)謀求意識形態(tài)話語權(quán),導致資本制約技術(shù)進而操控意識形態(tài)的后果。三是面臨監(jiān)管困境的意識形態(tài)治理風險。面對中美技術(shù)水平差距、非中文語料庫占比過小、真假難辨的信息證偽等諸多問題,如何監(jiān)管生成式人工智能應用衍生的意識形態(tài)風險,極具挑戰(zhàn)性。如果不能及時、有效地進行制度建構(gòu)、機制供給和運行監(jiān)管,帶有西方國家技術(shù)底色的生成式人工智能便會成為不可控的“意識形態(tài)機器”和“謠言傳播機器”,對主流意識形態(tài)造成巨大沖擊甚至動搖其主導地位。
四、DeepSeek大模型浪潮下生成式人工智能發(fā)展應用的意識形態(tài)風險治理審視
2025 年開年,中國自主研發(fā)的DeepSeek大模型爆火出圈,憑借強大的推理性、普惠的開源性以及優(yōu)質(zhì)的性價比等特點,打破了西方技術(shù)壟斷的生成式AI發(fā)展應用生態(tài),其震撼效應已經(jīng)大大超越技術(shù)革新范疇,正在擴散影響產(chǎn)業(yè)應用、學術(shù)科研、思想文化、經(jīng)濟社會、國際政治等眾多領(lǐng)域。如何從DeepSeek掀起的國產(chǎn)大模型浪潮出發(fā),審視應對以ChatGPT、Sora 為代表的生成式人工智能意識形態(tài)風險,顯得尤為必要。具體而言,應把握好人工智能與人類智能、治理認知與治理策略、價值引領(lǐng)與風險規(guī)制等的關(guān)系,這是防范化解生成式人工智能意識形態(tài)風險的關(guān)鍵所在。
(一)把握好人工智能與人類智能的本質(zhì)關(guān)系
本體論是關(guān)于世界本源的哲學理論。立足本體論審視人工智能與人類智能之間的關(guān)系,有助于從本源上把握生成式人工智能發(fā)展應用的意識形態(tài)風險及其治理。從現(xiàn)有技術(shù)來看,人工智能是以數(shù)據(jù)、算法、算力為技術(shù)支撐,以計算為本質(zhì)特征的模擬智能。人類智能則是物質(zhì)世界長期發(fā)展的產(chǎn)物,是人的生理、心理及行為多因素共同作用的結(jié)果,具有機器智能難以比擬的情感性、創(chuàng)造性、靈活性,從本質(zhì)上體現(xiàn)了人類意識及思維的獨特性。從某種意義上講,生成式人工智能就如同“義肢”一般,是人類身體機能的延伸,其依靠數(shù)據(jù)、算力、算法等與人類大腦建立補充關(guān)聯(lián),實現(xiàn)對人腦思維的超模擬。這種基于智能關(guān)聯(lián)原理形成的人體經(jīng)驗和人工智能的神經(jīng)網(wǎng)絡(luò)經(jīng)驗交互對接,促使人類身體的碳基倫理和神經(jīng)網(wǎng)絡(luò)算法的硅基倫理實現(xiàn)了共生層面的結(jié)合。按照人工智能發(fā)展趨勢,雖然人類將自身智能的某些部分賦予機器,一定程度上可延展人類智能功能,但這仍是部分地、分散地對人類智能的模擬與拆分,創(chuàng)造性十分有限。也就是說,“人工智能在一定程度上增強了人類智能,但基于‘算法’的人工智能無法完全取代人類智能,因為,人類智能擁有人工智能難以企及的獨特創(chuàng)造性、情感性和意向性”[13]。ChatGPT、Sora 等生成式人工智能之所以備受關(guān)注,就是因為其已經(jīng)“學會常識”并能夠自己生成信息內(nèi)容,而無需提前寫入代碼執(zhí)行指令。這意味著,人類在邁向通用人工智能的道路上又前進了一步。事實上,無論是面對生成式人工智能發(fā)展應用的意識形態(tài)風險,還是著眼于風險治理,首先必須正確把握人工智能與人類智能的本質(zhì)關(guān)系。作為一款植入東方哲學和中式價值算法的推理大模型,DeepSeek 堅持“開源”原則,充分體現(xiàn)了開放與共享的中國智慧[14]。開源代碼的全球共享有助于人機交互范式升級,對把握人工智能與人類智能的本質(zhì)關(guān)系具有重要示范意義。一方面,技術(shù)創(chuàng)造發(fā)明的核心價值在于為人類謀福祉。正如馬克思所言:“任何解放都是使人的世界即各種關(guān)系回歸于人自身?!盵15]生成式人工智能技術(shù)的誕生可比照蒸汽機、電機、計算機,都是人的肢體與思維的延展,屬于工具理性范疇,其發(fā)展應用仍然堅持尊重人的生命與尊嚴、促進人的解放,其核心價值就是“為人服務”。另一方面,人的主體性參與是人機互動的基本前提。人與機器的關(guān)系是主客體關(guān)系,生成式人工智能技術(shù)的顛覆性與涌現(xiàn)性并未改變這種關(guān)系,人始終是使用智能機器的主體,智能機器則是人從事實踐活動的工具和手段。數(shù)字鴻溝與技術(shù)發(fā)展不均衡,會在一定程度上導致生成式人工智能在資本邏輯導向下僭越或吞噬人的主體地位。為了糾正這樣的顛倒與偏差,需要以價值理性來統(tǒng)籌工具理性,使人擺脫對機器的依賴,明晰人機互動中生成式人工智能的角色定位與應用邊界。
(二)把握好治理認知與治理策略的并進關(guān)系
認識能力是人類智能的重要體現(xiàn)。從認識客體到認識主客體關(guān)系,再轉(zhuǎn)向認識主體本身,是人類認知的一般規(guī)律。從認識論的角度看,人工智能技術(shù)的出現(xiàn)是一種客觀必然,其產(chǎn)生和發(fā)展理應被納入人類認識的范疇。同時,人工智能技術(shù)也拓展了人類的認識能力系統(tǒng)。思維方式屬于認識論的基本范疇。人工智能時代,人的思維方式亦發(fā)生著深刻變化,諸如數(shù)據(jù)思維、交互思維、效率思維等紛紛演化而生。DeepSeek之所以備受矚目,一個重要原因就在于它將人的價值創(chuàng)造方式從傳統(tǒng)低維空間轉(zhuǎn)向高維領(lǐng)域,開啟了一場認知能力革新。DeepSeek 的技術(shù)動能,推動了智能體的加速進步。作為未來信息新入口的典型代表,智能體將逐步取代現(xiàn)階段的網(wǎng)頁、APP 等應用形式,成為人機超級交互的第一人口。DepSeek集性能優(yōu)勢、國產(chǎn)開源、深度思考于一身,其帶來的沖擊不僅限于技術(shù)層面,更改變了人們的認知理念。對于生成式人工智能的意識形態(tài)風險治理,既要著力于研發(fā)DeepSeek等自主可控的軟硬件系統(tǒng),也要著眼于建構(gòu)科學的認知體系及策略路徑。針對不同樣態(tài)的意識形態(tài)風險進行風險治理,需要做到治理認知與治理策略并進。一是堅持“技術(shù)向善”理念,注重提升主體智能素養(yǎng)??茖W技術(shù)是人的本質(zhì)力量的對象化,算法原理的生成、語料庫的馴化、算力的供給等都是人在起決定性作用。人是技術(shù)發(fā)明以及應用的主體,無論人工智能發(fā)展到什么程度都不能脫離人類掌控。這不僅僅是一個科學技術(shù)問題,更是一個哲學層面的問題?!凹夹g(shù)萬能論”與“技術(shù)無用論”,都是認知偏差的體現(xiàn),亦更加凸顯了提升主體智能素養(yǎng)的重要性和緊迫性。通過向公眾宣傳生成式人工智能的相關(guān)知識和理念、在各學段通識教育中加入數(shù)字素養(yǎng)培育、人工智能技術(shù)應用及其風險防范等內(nèi)容,有助于提升主體智能素養(yǎng),支撐“技術(shù)向善”治理理念在主體要素上的實現(xiàn)。二是確立“共建共治”原則,著力增強敏捷治理效能。當前,數(shù)字化生存圖景早已超越國界,生成式人工智能技術(shù)的全球性應用日益拓展。在此情形下,如何攜手應對技術(shù)發(fā)展應用造成的各種意識形態(tài)風險,維護全人類共同利益,是人類必須面對和解決的一個重大問題。國際主體應通過制度共建、技術(shù)共享、風險共治,限制高破壞性技術(shù),共同建構(gòu)人工智能時代和諧價值秩序。在具體模式上,敏捷治理作為新的治理范式,吸收與超越集中式、回應式的傳統(tǒng)治理模式,在治理理念、治理節(jié)奏、治理工具及制度體系上,對治理生成式人工智能意識形態(tài)風險具有探索性意義。采用此模式并著力增強其治理效能,是防范化解風險的必要舉措。三是反思“人機共生”走向,應對多態(tài)應用場景治理。生成式人工智能是人的智能發(fā)展和自我實現(xiàn)的重要表征,標示著“人機共生”的未來圖景。隨著GPT升級版本不斷問世,生成式人工智能的技術(shù)應用展現(xiàn)出更加高級的智能水平,成為輔助人類工作和生活的重要幫手,多態(tài)應用的發(fā)展趨勢已經(jīng)形成。這就要求生成式人工智能基礎(chǔ)設(shè)施和公共訓練數(shù)據(jù)資源平臺在正式運行之前,必須使用指定的定向訓練數(shù)據(jù)庫對算法模型進行強制定向訓練,以避免在應用過程中出現(xiàn)政治及意識形態(tài)錯誤。此外,應用場景治理還應將事前、事中和事后治理有機結(jié)合起來,在全鏈條、全周期、全覆蓋上持續(xù)用力。
(三)把握好價值引領(lǐng)與風險規(guī)制的統(tǒng)一關(guān)系
意識形態(tài)風險治理,既需要理論指導,也需要方法支撐。從方法論層面反思生成式人工智能發(fā)展應用的意識形態(tài)風險治理,不僅有助于把握技術(shù)發(fā)展與意識形態(tài)之間的實踐向度,還有助于促進交叉學科視域下意識形態(tài)問題研究的學理建構(gòu),從而應對生成式人工智能浪潮下的重塑性風險與挑戰(zhàn)。算法即方法,方法亦算法。DeepSeek將“中國智慧”注人算法內(nèi)核,讓使用者能夠在人機交互中深切感受東方美學之韻及社會主義核心價值觀的文化力量。DepSeek 的推理大模型既混合專家系統(tǒng)的創(chuàng)造性擴展以保持其專業(yè)性,又集成了自然語言處理、知識圖譜等技術(shù)實現(xiàn)內(nèi)在邏輯與外在環(huán)境的交互共生,同時還具有倫理性的自主思考,這對于從價值引領(lǐng)與風險規(guī)制角度審視生成式人工智能意識形態(tài)風險治理具有啟發(fā)意義。由此,把握價值引領(lǐng)與風險規(guī)制的統(tǒng)一關(guān)系,應在既有意識形態(tài)治理架構(gòu)內(nèi)健全完善內(nèi)容與價值、數(shù)據(jù)與算法、創(chuàng)新與規(guī)制的方法路徑。一是堅守價值引領(lǐng)、共識凝聚、“紅線”維護的治理主線。生成式人工智能發(fā)展應用的意識形態(tài)風險與挑戰(zhàn),必須運用有力的理論武器從根本上給以闡釋及回應。要堅持和鞏固馬克思主義在意識形態(tài)領(lǐng)域的指導地位,在意識形態(tài)斗爭中堅守主流意識形態(tài)的科學性與真理性。廣泛凝聚社會共識,在技術(shù)迭代革新中強化社會主義核心價值觀導向作用,并將其作為價值“紅線”內(nèi)嵌入生成式人工智能算法邏輯中,馴化西方價值觀念的數(shù)據(jù)庫、語料庫,實現(xiàn)路向引領(lǐng)。二是堅決防范西方錯誤思潮借助技術(shù)進行反向“滲透”。生成式人工智能依照其技術(shù)路線,一般采用大數(shù)據(jù)采集與人工編碼機器學習的方式實現(xiàn)文化價值滲透。西方錯誤思潮極有可能利用生成式人工智能的生活化、去中心化、碎片化特性向全世界虛擬網(wǎng)絡(luò)空間蔓延、滲透。在此情況下,運用算法和數(shù)據(jù)對其進行“糾偏”和“稀釋”尤為必要。要善用生成式人工智能技術(shù),審查、檢測、篩選、剔除西方錯誤言論并揭示其本質(zhì),切實提升主流意識形態(tài)凝聚力和引領(lǐng)力。三是堅持制度與監(jiān)管互補的法治治理。2023年7月,國家網(wǎng)信辦等七部委聯(lián)合發(fā)布的《生成式人工智能服務管理暫行辦法》,是我國針對AIGC監(jiān)管的規(guī)范性文件。該文件明確了“對生成式人工智能服務實行包容審慎和分類分級監(jiān)管”的原則,旨在促進生成式人工智能健康發(fā)展和規(guī)范應用,在一定程度上解決了人工智能技術(shù)發(fā)展和監(jiān)管無“法”可依的問題。但隨著技術(shù)迭代引發(fā)的風險及衍生風險樣態(tài)不斷顯現(xiàn),上位法規(guī)出臺以及配套法規(guī)修訂的及時跟進刻不容緩,監(jiān)管機構(gòu)鏈條式全程監(jiān)管的體系建構(gòu)與社會公眾數(shù)字素養(yǎng)的培育提升亟待進一步加強。
五、結(jié)語
生成式人工智能的發(fā)展應用和治理失范,對意識形態(tài)領(lǐng)域的挑戰(zhàn)是嚴峻的。2023年4月,中央政治局會議特別指出:“要重視通用人工智能發(fā)展,營造創(chuàng)新生態(tài),重視防范風險。”[17]盡管OpenAI已然“異化”為CloseAI,但由西方國家研發(fā)的生成式人工智能技術(shù)及其衍生產(chǎn)品依舊存在對他國意識形態(tài)進行滲透的問題。習近平總書記強調(diào):“網(wǎng)絡(luò)意識形態(tài)安全風險問題值得高度重視。網(wǎng)絡(luò)已是當前意識形態(tài)斗爭的最前沿。掌控網(wǎng)絡(luò)意識形態(tài)主導權(quán),就是守護國家的主權(quán)和政權(quán)?!盵18]54面對風險挑戰(zhàn),我們不僅需要建構(gòu)哲學、人工智能學、倫理學、社會學等交叉學科視域下的研究范式和理論體系,從實證研究角度筑牢意識形態(tài)安全的堅固防線,更要進一步加強生成式人工智能硬件、軟件、語料庫等的自主研發(fā),主動出擊,為西方主導的生成式人工智能注人中國話語元素,加快“實現(xiàn)關(guān)鍵核心技術(shù)自主可控的戰(zhàn)略使命”[18]121,著力推動 DeepSeek 等國產(chǎn)大模型優(yōu)化升級,打破西方技術(shù)壟斷和算法霸權(quán)。
參考文獻:
[1]藍江.生成式人工智能與人文社會科學的歷史使命——從 ChatGPT智能革命談起[J].思想理論教育,2023(4):12-18.
[2]蒲清平,向往.生成式人工智能——ChatGPT的變革影響、風險挑戰(zhàn)及應對策略[J].重慶大學學報(社會科學版),2023(3):102-114.
[3]鄒開亮,劉祖兵.ChatGPT的倫理風險與中國因應制度安排[J].海南大學學報(人文社會科學版),2023(4):74-84.
[4] 代金平,覃楊楊.ChatGPT等生成式人工智能的意識形態(tài)風險及其應對[J].重慶大學學報(社會科學版),2023(5).
[5]溫曉年.ChatGPT的意識形態(tài)風險審視[J].西北民族大學學報(哲學社會科學版),2023(4):99-108.
[6] 歐陽林潔,張永紅.生成式人工智能應用的意識形態(tài)風險:命題由來、生成機制與治理進路[J].學術(shù)探索,2023(11).
[7] 馬克思,恩格斯.馬克思恩格斯文集:第2卷[M].北京:人民出版社,2009:580.
[8] 哈貝馬斯.作為“意識形態(tài)”的技術(shù)與科學[M].李黎,郭官義,譯.上海:學林出版社,1999:序4.
[9]楊章文.ChatGPT類生成式人工智能的意識形態(tài)屬性及其風險規(guī)制[J].內(nèi)蒙古社會科學,2024(1):58
[10]郭全中,張金熠.作為視頻世界模擬器的 Sora:通向AGI的重要里程碑[J].新聞愛好者,2024(4):10.
[11]高奇琦.ChatGPT的“創(chuàng)造性破壞”效應及其風險應對[N].中國社會科學報,2023-03-06(6).
[12]何茂昌.ChatGPT的意識形態(tài)風險:樣態(tài)、肇因及防范[J].西南民族大學學報(人文社會科學版),2023(12):190.
[13]高華,陳紅兵.論人工智能與人類智能之差異[J].東北大學學報(社會科學版),2021(2):16.
[14]代金平,覃楊楊.DepSeek 類生成式人工智能賦能中華文明發(fā)展傳播研究[J/OL].重慶大學學報(社會科學版),4[2025-03-06].https://link.cnki.net/urlid/50.1023.c.20250305.0808.002.
[15]馬克思,恩格斯.馬克思恩格斯文集:第1卷[M].北京:人民出版社,2009:46.
[16]劉欣.實行包容審慎和分類分級監(jiān)管[N].法治日報,2023-07-14(8).
[17]分析研究當前經(jīng)濟形勢和經(jīng)濟工作[N].人民日報,2023-04-29(1).
[18]中共中央黨史和文獻研究院.習近平關(guān)于網(wǎng)絡(luò)強國論述摘編[G].北京:中央文獻出版社,2021.
From ChatGPT to Sora: An examination of the ideological risks in the development and application of generative artificial intelligence
DONG Yi
(School of Marxism,Chongqing University of Posts and Telecommunications, Chongqing 40o065,China)
Abstract:Asarepresentativeof generativeartificial intellgence(AI),thedevelopmentfrom ChatGPTto Soramarksa leapfrom text generation to video generation,andfrom naturallanguage interaction to specific simulations of thephysical world,highlighting theaclerating iterationofAItechnology.Thedevelopmentandapplicationof generativeAwill inevitablyreshapeand transformsocialproductionanddailylife,withunprecedentedideologicalrisksbeingoneof theconsequences.In terms ofatributes,the technological essenceof generativeAremains unchanged,continuing to playthe roleofa purposeful tool withdistinct ideologicalatributes,suchas monopolizingcognitiveawareness,shapingsujectivity,and penetratingculturalcore values.Regardingthe generationofrisks,theideological risksassociated with thedevelopmentandaplication of generativeAI folowtherisk-generation logicof“creative destruction”broughtbydisruptive technology,whichisaninevitableresult of thedep“collusion”betweencapitaland technology.These risks presentboth visibleand hiddenrisks,with prominent featuressuchasideologicalsecurityrisks,discourserisks,and governancerisks arising fromdata feeding,deconstruction of authority,andregulatorydilemmas.Fromtheperspectiveofrisk governance, howtoconstructastrategicpathtodealwiththeideologicalrisksofgenerativeatificial intellgencerepresentedbyChatGPTandSora from the domestic largelanguage model wave setoffby DeepSeek is of great practical significance.In terms of risk governance,itiscrucial tounderstandtheessentialrelationshipbetweenartificialandhumaninteligence,ffirmingthatthecorevalueof technologicaldevelopmentistobenefithumanity,with humansubjectivitybeing thebasic premise ofhuman-machine interaction.Additionally,itis essntialto maintain the alignment of governancecognitionand strategies,emphasizingthe“technologyforgood”principle,improving thesubject’sintelligence literacy,andestablishingthe“co-constructionandco-governance”principle to enhance agile governance efectivenes.Furthermore,it is importantto reflecton the direction of“human-machine symbiosis”and address governance in multipleapplication scenarios.Lastly,maintaining aunified relationship between value guidance and risk regulation is necessary,ensuring value leadership,consensus-building,andtheprotectionof“redlines”,whilepreventingthe infiltrationof erroneous Westerm ideologies throughtechnology,andreinforcingcomplementarysystemsandregulatory legal governanceas feasiblestrategies to address the ideological risks of generative AI.
eywords:generative artificial intelligence;ideologyical risk;ChatGPT;Sora;DeepSee
(編輯:秦銳)