摘 要:
知識(shí)異化即人類所創(chuàng)造的知識(shí)反過(guò)來(lái)成為異己的力量,對(duì)人自身的地位和能力形成控制、削弱等負(fù)面效應(yīng)的現(xiàn)象。人工智能,尤其是生成式大模型,其作為知識(shí)生產(chǎn)的強(qiáng)力工具能夠積極提升人類知識(shí)勞動(dòng)水平,但同時(shí)也蘊(yùn)含著知識(shí)異化的種種可能,包括導(dǎo)致知識(shí)主體“失能”、知識(shí)內(nèi)容“失真”、知識(shí)價(jià)值“失效”等。在生成式大模型時(shí)代來(lái)臨的今天,需要認(rèn)真分析和對(duì)待上述知識(shí)異化現(xiàn)象,使人工智能能夠更好地發(fā)揮促進(jìn)人與社會(huì)發(fā)展的積極效應(yīng)。
關(guān)鍵詞:
知識(shí)異化; 生成式人工智能; 大模型; 知識(shí)生產(chǎn)
B017; TP18 A 0011 09
大模型作為生成式人工智能(簡(jiǎn)稱“生成式大模型”)的橫空出世,開啟了知識(shí)生產(chǎn)的新時(shí)代,其強(qiáng)大的內(nèi)容或知識(shí)生產(chǎn)能力隱含著知識(shí)異化的種種可能,包括人被知識(shí)生產(chǎn)技術(shù)所異化(如人對(duì)作為知識(shí)生產(chǎn)技術(shù)的生成式人工智能大模型的過(guò)度依賴)而導(dǎo)致的知識(shí)主體的失能,以及知識(shí)的機(jī)器生產(chǎn)方式使知識(shí)在本質(zhì)與意義上失去真實(shí)性和稀缺性而導(dǎo)致的知識(shí)內(nèi)容的失真與知識(shí)價(jià)值的失效等異化現(xiàn)象。必須深入分析和認(rèn)真對(duì)待生成式大模型帶來(lái)的種種知識(shí)異化現(xiàn)象,使人工智能能夠更好地發(fā)揮促進(jìn)人與社會(huì)發(fā)展的積極效應(yīng)。
一、 “知識(shí)異化”的界定
生成式人工智能與傳統(tǒng)人工智能的區(qū)別在于,后者不具備知識(shí)生產(chǎn)能力,而生成式人工智能尤其是大模型由于在大數(shù)據(jù)、大算力和深度神經(jīng)網(wǎng)絡(luò)的強(qiáng)算法基礎(chǔ)上采用了Transformer構(gòu)架與多頭及長(zhǎng)距離注意力機(jī)制,通過(guò)預(yù)訓(xùn)練的方式將海量的知識(shí)整合到神經(jīng)網(wǎng)絡(luò)中,從而增強(qiáng)了模型的語(yǔ)言處理能力,可以生成新的內(nèi)容,如文本、圖像、音頻和視頻等,在此基礎(chǔ)上能夠以參數(shù)化的方式處理和操縱知識(shí),①因此具有強(qiáng)大的知識(shí)生產(chǎn)能力。生成式大模型使“萬(wàn)物皆可生成”的工作原理具體化為知識(shí)可以由智能機(jī)器所生產(chǎn)。當(dāng)知識(shí)可由智能機(jī)器來(lái)生產(chǎn)時(shí),知識(shí)異化的可能隨之出現(xiàn)。
作為一個(gè)新提出的概念,“知識(shí)異化”可以從多種維度推論和引申而來(lái),其含義首先可以從一般的“異化”來(lái)演繹?!爱惢币辉~源于拉丁文alienation和alienare,有轉(zhuǎn)讓、讓渡、脫離、差異、精神錯(cuò)亂等含義。在德國(guó)古典哲學(xué)中,“異化”被提升為哲學(xué)術(shù)語(yǔ),用來(lái)表達(dá)主體與自己創(chuàng)造出來(lái)的對(duì)象物之間的一種特殊關(guān)系:兩者之間發(fā)生疏離和分裂,人的創(chuàng)造物變成自己的對(duì)立物,成為反對(duì)自己、支配自己的異己力量,即反過(guò)來(lái)控制甚至奴役人,使人受其損害,從而產(chǎn)生負(fù)面影響。“主體隨著自身矛盾的發(fā)展產(chǎn)生的客體(自己的對(duì)立面),變成一種外在、異己的力量,凌駕于主體之上,反過(guò)來(lái)又束縛、壓制、控制、支配著主體,這就是異化。”①
以此關(guān)照人的知識(shí)活動(dòng),也可以看到類似的現(xiàn)象:人創(chuàng)造出來(lái)的知識(shí)同樣也可以逐漸脫離其原本的用途和意義,“反客為主”地演變?yōu)橹浜涂刂迫说牧α?,從而被知識(shí)所束縛、限制。“教條主義”或“本本主義”就是這種知識(shí)異化的典型,表現(xiàn)為人對(duì)書本知識(shí)的絕對(duì)崇拜,不敢越既有理論之“雷池”一步,人的行動(dòng)和認(rèn)識(shí)不是根據(jù)實(shí)際情況的變化而變化,而是將過(guò)去的知識(shí)作為一成不變的條條框框捆住自己的手腳、擋住自己的視線。此時(shí)的知識(shí)不僅不能發(fā)揮其應(yīng)有的引導(dǎo)實(shí)踐的作用,反而會(huì)產(chǎn)生種種負(fù)面效應(yīng),使人喪失對(duì)于知識(shí)的主體性。因此,基于“異化”的一般含義(自己的活動(dòng)及其產(chǎn)物成為統(tǒng)治、支配、奴役自己的異己力量),可將“知識(shí)異化”理解為:當(dāng)知識(shí)不再是人類智慧的結(jié)晶,而是變成一種異己的僵化的力量,反過(guò)來(lái)控制和支配人類時(shí),就發(fā)生了知識(shí)異化。
“知識(shí)異化”的含義也可以借鑒馬克思的“勞動(dòng)異化”來(lái)理解。馬克思在批判繼承黑格爾異化理論的基礎(chǔ)上,提出了自己的異化勞動(dòng)理論,揭示了在資本主義生產(chǎn)方式下勞動(dòng)者與勞動(dòng)產(chǎn)品、勞動(dòng)活動(dòng)、人的類本質(zhì)以及他人之間關(guān)系的異化。類似地,知識(shí)異化也可以理解為在特定社會(huì)和技術(shù)條件下,知識(shí)(作為人類智慧的結(jié)晶和創(chuàng)造力的體現(xiàn))不再是為了滿足人類對(duì)真理的追求和服務(wù)于人類自身的全面發(fā)展,而是轉(zhuǎn)變?yōu)橐环N外在的甚至是對(duì)抗人類的力量。例如,知識(shí)的獲取、傳播和應(yīng)用如果受到資本、權(quán)力和技術(shù)等外部因素的操控,知識(shí)往往就會(huì)失去其內(nèi)在的價(jià)值和意義,它不再是人們認(rèn)識(shí)世界、改造世界的工具,而是成為一種支配、控制甚至奴役人的力量,從而在其初衷和效果之間產(chǎn)生了疏離和對(duì)立。法蘭克福學(xué)派或文化馬克思主義就重點(diǎn)揭示和批判了這種意義上的知識(shí)異化。
“知識(shí)異化”的含義還可從相近的“信息異化”中受到啟發(fā)。信息異化是信息時(shí)代備受關(guān)注的現(xiàn)象。所謂信息異化, 指的是由人所創(chuàng)造的信息反過(guò)來(lái)成為可以離開人而存在的東西,并被對(duì)象化、功能化后成為可被頂禮膜拜的偶像性存在,甚至成為萬(wàn)物的本原、一切的根基。此時(shí)人作為信息的生產(chǎn)者和創(chuàng)造者,不但不能很好地管理信息,反而被各種信息(甚至無(wú)聊至極的信息)所牽制,成為被信息或信息的載體所控制的“客體”,它刻畫了人腦成為電腦的附庸、雙眼成為屏幕的附庸、手指成為鍵盤和鼠標(biāo)的附庸、現(xiàn)實(shí)生活成為虛擬生存的附庸等情形?!熬W(wǎng)絡(luò)沉溺”“手機(jī)控”“信息強(qiáng)迫癥”“信息消費(fèi)主義”等就是典型的信息異化現(xiàn)象。②究其實(shí)質(zhì),信息異化是人與信息關(guān)系的顛倒,是信息的主體喪失了對(duì)信息的控制能力,信息及其技術(shù)反客為主,成為外在的異己的力量(控制、統(tǒng)治和支配人的力量)。③可以說(shuō),信息異化是最近似于知識(shí)異化的概念,因?yàn)橹R(shí)就是信息的一種形態(tài),從而知識(shí)異化也是信息異化的一種表現(xiàn),從信息異化的存在必然推導(dǎo)出知識(shí)異化的存在。比如,“信息繭房”是信息異化的重要表現(xiàn),“知識(shí)繭房”也理所當(dāng)然是知識(shí)異化的一種形式:人變得只認(rèn)可和接受與自己信念相符的知識(shí),使自己的知識(shí)面越來(lái)越窄,以致走向“知識(shí)固化”“思維僵化”“認(rèn)知鎖定”等??梢哉f(shuō),知識(shí)向度上的信息異化就是知識(shí)異化。
歸結(jié)上述思路的共性,可以將“知識(shí)異化”視為在知識(shí)生產(chǎn)、傳播和應(yīng)用的過(guò)程中,知識(shí)逐漸脫離其本質(zhì)屬性和目的,變成人的一種異己力量,反過(guò)來(lái)控制和限制人的發(fā)展的現(xiàn)象。從總體上說(shuō),知識(shí)異化就是人與知識(shí)關(guān)系的顛倒,知識(shí)與人的本質(zhì)需求和發(fā)展相疏離。
知識(shí)異化是發(fā)生于特定社會(huì)條件下的現(xiàn)象,不同的原因可能造成不同特征的知識(shí)異化。生成式人工智能大模型的出現(xiàn),造就了特定的知識(shí)異化。人工智能作為智能機(jī)器,演進(jìn)到生成式大模型后,就可以作為知識(shí)機(jī)器來(lái)使用。生成式大模型通常是擁有超大規(guī)模參數(shù)和復(fù)雜計(jì)算結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型,這種模型通過(guò)大數(shù)據(jù)的訓(xùn)練具有了從海量數(shù)據(jù)中提取出關(guān)鍵信息和規(guī)律的能力,進(jìn)而能夠處理和完成多種復(fù)雜任務(wù),尤其是能夠生成高質(zhì)量的文本內(nèi)容,在人機(jī)對(duì)話中靈活地回應(yīng)各種問(wèn)題和要求,這些都是生成式大模型的強(qiáng)大內(nèi)容生成能力,也是其進(jìn)行知識(shí)生產(chǎn)的具體表現(xiàn)。借助生成式大模型這一知識(shí)生產(chǎn)的新型工具,人所進(jìn)行的知識(shí)生產(chǎn)可以從傳統(tǒng)的手工和腦力勞動(dòng)演變?yōu)榻柚斯ぶ悄艿臋C(jī)器生產(chǎn)過(guò)程,或人機(jī)合作的知識(shí)創(chuàng)作活動(dòng)。在這種新型的活動(dòng)中,人只要將生產(chǎn)什么樣知識(shí)的目的意圖“告訴”給機(jī)器,生成式大模型就會(huì)源源不斷地“吐出”人所需要的一切內(nèi)容,包括知識(shí)。這個(gè)過(guò)程使得人類的知識(shí)生產(chǎn)能力發(fā)生了一場(chǎng)類似工業(yè)革命的新突破,具有歷史發(fā)展里程碑的重大意義。與此同時(shí),這一巨變也引發(fā)了知識(shí)異化的可能,包括人被知識(shí)生產(chǎn)的新技術(shù)所異化:生成式大模型不僅導(dǎo)致知識(shí)主體(人)的多種能力在被技術(shù)取代的過(guò)程中逐漸衰退甚至完全喪失(失能),還導(dǎo)致知識(shí)失去其本真的規(guī)定性和原始意義與價(jià)值,從而在內(nèi)容上失真(如生成式大模型中的幻覺(jué)或“一本正經(jīng)的胡說(shuō)八道”)和在價(jià)值上失效(如知識(shí)的貶值或失去意義)。由此,生成式大模型導(dǎo)致的知識(shí)異化現(xiàn)象有可能惡化知識(shí)活動(dòng)的生態(tài),延緩知識(shí)社會(huì)的進(jìn)步,還可能阻礙人的全面發(fā)展,帶來(lái)種種新的風(fēng)險(xiǎn),因此必須對(duì)其高度關(guān)注并尋求積極的應(yīng)對(duì)之策。
二、 失能:知識(shí)主體的能力異化
生成式大模型的主職本是協(xié)助人的知識(shí)生產(chǎn),提高人的知識(shí)生產(chǎn)能力,然而它也可能對(duì)人形成一種特殊的異化:知識(shí)生產(chǎn)能力的喪失,或者說(shuō),“失能型異化”,即人被知識(shí)生產(chǎn)的新技術(shù)所異化。
技術(shù)與人的能力之間具有這樣一種一般關(guān)系:模擬人某一方面功能的技術(shù),在其成熟到一定程度后,就會(huì)形成從輔助、強(qiáng)化到替代的功能擴(kuò)張過(guò)程,在這一過(guò)程中,人的能力向自己的創(chuàng)造物轉(zhuǎn)移,工具替代了人的功能,而人的相關(guān)能力甚至主體地位則在工具面前被削弱了甚至喪失了,具體表現(xiàn)為人對(duì)技術(shù)的依賴越來(lái)越嚴(yán)重,以至于一旦離開技術(shù),人就不能進(jìn)行相關(guān)的活動(dòng)、完成相應(yīng)的任務(wù)。從人的某些體力活動(dòng)到智力活動(dòng)(如計(jì)算、記憶等),莫不如此。
生成式大模型憑借其海量的訓(xùn)練數(shù)據(jù)、復(fù)雜的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和先進(jìn)的算法優(yōu)化展現(xiàn)出了令人矚目的能力。它們能夠閱讀并理解大量文本,進(jìn)行高效的信息提取和概括,生成流暢且富有邏輯性的文本內(nèi)容,甚至生成新的觀點(diǎn),創(chuàng)造出人類未曾預(yù)料到的新知識(shí)。生成式大模型之所以具有這樣的能力,是因?yàn)槿斯ぶ悄軓摹八阉鞣妒健边M(jìn)化到了“創(chuàng)造范式”,為人提供了知識(shí)生產(chǎn)的好伙伴、好幫手,使得人只要擁有一個(gè)好的AI模型,尤其是大語(yǔ)言模型,就能獲得一個(gè)強(qiáng)大的數(shù)據(jù)生成器,它可以生成所有我們想講的和能講的話,①這些“話”就包括我們所需要的“知識(shí)”。也就是說(shuō),生成式大模型提供了強(qiáng)大的知識(shí)生產(chǎn)能力,人可以借助它讓知識(shí)“一鍵生成”,甚至在與腦機(jī)接口結(jié)合后還可以“一念生成”,②極大地提高知識(shí)的“產(chǎn)能”。
生成式大模型在一定意義上可稱為知識(shí)生成技術(shù)或智能化的知識(shí)生產(chǎn)技術(shù),前面提到的技術(shù)與人的能力關(guān)系問(wèn)題在這里復(fù)現(xiàn):人工智能使得大模型在知識(shí)生產(chǎn)中逐漸取得了與人類相似的地位,甚至在某些方面超越了人類,尤其是在處理大規(guī)模數(shù)據(jù)、進(jìn)行復(fù)雜計(jì)算和模擬等方面,隨之也就產(chǎn)生了人在知識(shí)生產(chǎn)中對(duì)大模型的依從甚至過(guò)度的依賴。這種依賴可能導(dǎo)致個(gè)人在面臨知識(shí)創(chuàng)作等任務(wù)時(shí)首先想到的是求助于人工智能,而不是依靠自己的思考和探索。長(zhǎng)此以往,這可能會(huì)削弱人類探索和形成知識(shí)的能力,因?yàn)樵谥R(shí)或答案一鍵生成的背景下,人們可能不再需要深入研究和思考,而是依賴于模型的輸出,這無(wú)疑會(huì)導(dǎo)致人在知識(shí)生產(chǎn)過(guò)程中的創(chuàng)造性和思考力的逐漸減弱。換句話說(shuō),當(dāng)人的能力主要體現(xiàn)為給智能機(jī)器寫提示詞的水平時(shí),人類的思維水平就反向地被人工智能所拉低,形成“人向機(jī)器對(duì)齊”的后果。
更具體地說(shuō),生成式大模型帶來(lái)的自動(dòng)化知識(shí)生產(chǎn)有可能導(dǎo)致人的知識(shí)生產(chǎn)技能轉(zhuǎn)移給大模型從而被其異化。論文寫作是標(biāo)準(zhǔn)的知識(shí)生產(chǎn)過(guò)程,需要一系列技能,如文獻(xiàn)的閱讀與概括、思想的組織與條理化、文稿的寫作與流暢化,生成式大模型可以提供從助讀、助思到助寫的幫助,人如果在這個(gè)過(guò)程中形成了對(duì)大模型的過(guò)度依賴,就會(huì)從“助”到“替”,走向大模型對(duì)人的“替讀”“替思”和“替寫”, 以至于有了生成式大模型,只要輸入提示詞,知識(shí)就可以從屏幕上流出,實(shí)現(xiàn)了從“知識(shí)創(chuàng)作”到“知識(shí)一鍵生成”的跨越。長(zhǎng)期依賴大模型進(jìn)行這種“便捷的”知識(shí)生產(chǎn),人們可能會(huì)忽視對(duì)傳統(tǒng)知識(shí)生產(chǎn)技能的掌握和提升,不再力求自己通過(guò)勤勉的閱讀、思考與寫作去創(chuàng)造知識(shí),而是直接利用人工智能生成的內(nèi)容。長(zhǎng)此以往,人就有可能越來(lái)越依賴其提供的信息和見解,以至于離開了大模型便“一事無(wú)成”,包括無(wú)法再寫作論文或生產(chǎn)知識(shí),從而失去創(chuàng)造知識(shí)的能力,也喪失主動(dòng)思考和解決問(wèn)題的能力,甚至獨(dú)立判斷的能力也逐漸減弱,相關(guān)的文獻(xiàn)閱讀、數(shù)據(jù)分析、邏輯推理、文章寫作等方面的能力難免退化,走向整體性的“認(rèn)知惰性”。這是一種特定類型的知識(shí)異化,即人的“失能型異化”。這里的所謂“失能”,就是指人們?cè)诿鎸?duì)某些任務(wù)時(shí),由于過(guò)度依賴人工智能而失去了獨(dú)立完成任務(wù)的能力?;谏墒酱竽P偷闹R(shí)創(chuàng)造日益趨向自動(dòng)化,過(guò)度使用它的人會(huì)不斷地在這個(gè)過(guò)程中“去技能化”,也就是“失能化”。
這種失能還會(huì)深刻觸及人類的主體性或主體地位。生成式大模型能夠獨(dú)立完成從數(shù)據(jù)采集、處理到分析、生成的全過(guò)程,甚至在某些領(lǐng)域能夠創(chuàng)造出具有創(chuàng)新性的知識(shí)內(nèi)容,這種轉(zhuǎn)變不僅改變了知識(shí)生產(chǎn)的流程和模式,也重新定義了知識(shí)生產(chǎn)的主體。人類不再是唯一的或主導(dǎo)的知識(shí)生產(chǎn)者,而是與人工智能共同協(xié)作,甚至在某些情況下被人工智能所取代。與大模型的強(qiáng)大能力相比,人類在知識(shí)生產(chǎn)中的某些能力顯得愈發(fā)渺??;人使用大模型的一些勞動(dòng)被智能機(jī)器所侵吞或淹沒(méi),人的作用在大模型面前逐漸變得微不足道。例如,隨著人工智能系統(tǒng)在閱讀理解、信息概括、寫作和文本生成等方面的能力不斷提升,那些曾經(jīng)被認(rèn)為是高級(jí)認(rèn)知技能的人類活動(dòng)變得不再那么獨(dú)特;在快速閱讀、海量信息處理、精準(zhǔn)概括以及高效寫作等方面,人類難以與經(jīng)過(guò)優(yōu)化訓(xùn)練的大模型相匹敵。這種能力上的差距,使生成式大模型在知識(shí)生產(chǎn)中的主導(dǎo)地位日益凸顯,也使得人在某些知識(shí)生產(chǎn)環(huán)節(jié)中逐漸失去競(jìng)爭(zhēng)力,從而被迫退出知識(shí)生產(chǎn)的諸多環(huán)節(jié),不再是知識(shí)生產(chǎn)的核心力量,而是淪為配角或輔助角色。這種轉(zhuǎn)變使得人類在知識(shí)生產(chǎn)中的地位逐漸下降,甚至可能被邊緣化,由此形成基于知識(shí)異化的人的本質(zhì)的異化。
對(duì)于人工智能的過(guò)度依賴,也意味著人在思考和寫作時(shí)可能會(huì)過(guò)于依賴預(yù)設(shè)的模式和框架,從而陷入一種被動(dòng)接受的狀態(tài),不再主動(dòng)探索和創(chuàng)新,由此會(huì)大大限制人的創(chuàng)造力發(fā)揮;而人一旦習(xí)慣于接受現(xiàn)成的答案而非主動(dòng)思考,就可能會(huì)失去探索未知世界的動(dòng)力,使人永不滿足的求知欲和創(chuàng)造性之主體性特質(zhì)受到削弱甚至摧毀。人過(guò)度依賴生成式人工智能來(lái)完成任務(wù),還使得人在與人工智能互動(dòng)的過(guò)程中逐漸失去主體地位,變成人工智能的附庸。例如,在社交媒體上,如果用戶過(guò)度依賴人工智能推薦的內(nèi)容,他們可能會(huì)失去自己的興趣和價(jià)值觀,完全按照人工智能的推薦來(lái)瀏覽信息。在工作場(chǎng)所,如果員工過(guò)度依賴人工智能生成的報(bào)告和分析,他們可能會(huì)失去自己的判斷力和決策能力,完全按照人工智能的建議來(lái)執(zhí)行任務(wù),由此出現(xiàn)令人擔(dān)憂的后果:“人類心智的核心能力因?yàn)锳I的濫用而倒退,人類心智水平的倒退,勢(shì)必帶來(lái)主體意志的逐步消退,而AI對(duì)于人類主體意志的侵犯,將導(dǎo)致難以承受的后果。”①或者說(shuō),當(dāng)一個(gè)人發(fā)現(xiàn)自己所創(chuàng)造的知識(shí)主要來(lái)源于外部智能體而非自身努力時(shí),他對(duì)于自己作為知識(shí)創(chuàng)造者的角色認(rèn)知?jiǎng)t可能發(fā)生改變。這種情況不僅會(huì)影響個(gè)人的職業(yè)滿足感,還可能對(duì)其自我價(jià)值感造成負(fù)面影響,產(chǎn)生“我是誰(shuí)?”這樣的存在主義問(wèn)題。這就是知識(shí)異化可能導(dǎo)向的終極異化——人類自我意識(shí)的喪失,人由此失去了對(duì)自身存在的認(rèn)識(shí)和理解。
人有一種不斷增強(qiáng)工具能力的追求,對(duì)知識(shí)工具如人工智能的追求也同樣如此,所導(dǎo)致的往往是知識(shí)工具的能力越來(lái)越強(qiáng),知識(shí)主體的能力則越來(lái)越弱,機(jī)器的進(jìn)化與人的退化同時(shí)發(fā)生。對(duì)于生成式大模型,人類普遍期待其能力更強(qiáng),可以為人類做越來(lái)越多的事情。例如:希望人工智能不僅會(huì)生成知識(shí),還會(huì)進(jìn)行推理;不僅能用于專業(yè)領(lǐng)域,而且能通用于所有領(lǐng)域;不僅能“搬運(yùn)”知識(shí),而且能“創(chuàng)造”知識(shí)。這實(shí)質(zhì)上是對(duì)通用人工智能和超級(jí)人工智能的追求。一旦具有超能力的人工智能出現(xiàn)了而又不能為人所掌控,就會(huì)發(fā)生人與人工智能之間的主客異位。所以,這里的失能型異化,就是指人造的知識(shí)工具在性能上遠(yuǎn)超人類自己,人反過(guò)來(lái)受到工具的排斥和壓制。因此,失能型的知識(shí)異化是人類需要認(rèn)真應(yīng)對(duì)的智能機(jī)器介入知識(shí)生產(chǎn)的新挑戰(zhàn)。
三、 失真:知識(shí)內(nèi)容異化
從柏拉圖以來(lái),知識(shí)在哲學(xué)上被界定為“被確證的真信念”,盡管葛蒂爾也找出了反例來(lái)否定這個(gè)界定,但總體上這個(gè)界定仍具有其合理性,它刻畫了知識(shí)所具有的最重要的本質(zhì)屬性:真實(shí)性和可靠性。在生成式大模型關(guān)聯(lián)的知識(shí)異化中,知識(shí)內(nèi)容的異化是另一種情形,即:由人工智能所生成的知識(shí)有可能背離知識(shí)的真實(shí)性和可靠性。因?yàn)槟壳暗纳墒酱竽P痛嬖谝粋€(gè)明顯的局限,就是它的幻覺(jué)或杜撰,使得由其生成的知識(shí)在質(zhì)量上大打折扣,出現(xiàn)知識(shí)在內(nèi)容上的“失真”,這種“失真”使來(lái)自大模型的知識(shí)尤其是一些關(guān)鍵的知識(shí)無(wú)法得以應(yīng)用,從而進(jìn)一步導(dǎo)致人們對(duì)其缺乏信任。知識(shí)生產(chǎn)的初衷本是為人提供準(zhǔn)確、可靠的信息和指導(dǎo),但生成式大模型的幻覺(jué)或杜撰使得它所生成的部分知識(shí)既不真實(shí),也未得到確證,還失去了其可靠性。隨著與知識(shí)生產(chǎn)的這些初衷相背離,大模型所生成的知識(shí)就與知識(shí)的本質(zhì)相疏離,形成知識(shí)內(nèi)容上的異化。
生成式大模型能夠以前所未有的速度生成大量知識(shí)。這些知識(shí)覆蓋了從基礎(chǔ)科學(xué)到日常生活的各個(gè)領(lǐng)域,看似滿足了人類對(duì)信息無(wú)限追求的需要,然而,這種繁榮的背后卻隱藏著質(zhì)量危機(jī)。盡管大模型能夠提高知識(shí)生產(chǎn)的效率,但其生成的知識(shí)的質(zhì)量往往會(huì)受到多種因素的影響,如數(shù)據(jù)質(zhì)量、模型設(shè)計(jì)、算法選擇等,尤其是大模型訓(xùn)練語(yǔ)料可能存在各種偏差與傾向,比如種族偏見、性別偏見、文化偏見、意識(shí)形態(tài)偏見等。①訓(xùn)練數(shù)據(jù)的這些偏差或算法的局限性會(huì)導(dǎo)致錯(cuò)誤信息的輸出,若將其作為被生產(chǎn)出來(lái)的知識(shí)加以廣泛傳播,如堆積到網(wǎng)絡(luò)中,就會(huì)謬種流傳、誤導(dǎo)公眾。傳統(tǒng)的知識(shí)生產(chǎn)通常需要經(jīng)過(guò)同行評(píng)審等過(guò)程來(lái)保證其準(zhǔn)確性和可靠性,但人工智能生成的知識(shí)由于其數(shù)量巨大,審核和驗(yàn)證這些知識(shí)的質(zhì)量就變得極其困難,缺乏足夠的人力和時(shí)間來(lái)確保每一條知識(shí)的準(zhǔn)確性和可靠性,所以錯(cuò)誤信息的誤導(dǎo)就有可能在大模型的介導(dǎo)下變得常態(tài)化?;蛘哒f(shuō),大模型驅(qū)動(dòng)的AIGC技術(shù)使內(nèi)容生成與制作的門檻大大降低,從而使虛假內(nèi)容呈現(xiàn)泛濫態(tài)勢(shì)。②因此,由人工智能生成的未經(jīng)審查的內(nèi)容,其權(quán)威性和可信度是值得質(zhì)疑的,這樣的內(nèi)容被視為知識(shí)無(wú)疑會(huì)損害知識(shí)的本真屬性,從而形成一種特定的異化。
機(jī)器生產(chǎn)知識(shí)的最大質(zhì)量問(wèn)題還是所謂的“幻覺(jué)”問(wèn)題。生成式大模型在生成知識(shí)時(shí)是基于已有的數(shù)據(jù)和模式來(lái)進(jìn)行推斷和預(yù)測(cè)的。然而,由于訓(xùn)練數(shù)據(jù)的不完整、算法的限制或輸入信息的模糊性等因素,大模型可能會(huì)產(chǎn)生幻覺(jué)或杜撰、捏造現(xiàn)象,使輸出的內(nèi)容與真實(shí)情況存在顯著差異,生成看似合理但實(shí)際上錯(cuò)誤或不存在的信息,這種現(xiàn)象影響了知識(shí)的準(zhǔn)確性和可靠性,導(dǎo)致對(duì)大模型的信任度下降。
在生成式大模型產(chǎn)生“幻覺(jué)”的多種因素中,“訓(xùn)練數(shù)據(jù)質(zhì)量問(wèn)題”是指大模型訓(xùn)練所依賴的海量數(shù)據(jù)往往來(lái)源于互聯(lián)網(wǎng),這些數(shù)據(jù)中不可避免地包含了錯(cuò)誤、過(guò)時(shí)、偏見等低質(zhì)量信息。這些低質(zhì)量數(shù)據(jù)在模型訓(xùn)練過(guò)程中被學(xué)習(xí)并內(nèi)化,進(jìn)而反映在其輸出結(jié)果中,使模型在生成知識(shí)時(shí)可能產(chǎn)生幻覺(jué)?!澳P退惴ň窒扌浴笔侵复竽P碗m然具備強(qiáng)大的處理能力,但其算法本身仍存在局限性。例如,模型在處理復(fù)雜邏輯推理或語(yǔ)義理解任務(wù)時(shí)可能表現(xiàn)不佳,導(dǎo)致生成的答案缺乏準(zhǔn)確性和深度?!吧刹呗圆划?dāng)”是指某些生成策略(如基于采樣的解碼方式)可能引入隨機(jī)性,也會(huì)導(dǎo)致模型在生成知識(shí)時(shí)產(chǎn)生幻覺(jué)??梢哉f(shuō),訓(xùn)練的水平就是生成式大模型的“天花板”,大模型不知道自己不知道,也不知道自己錯(cuò)在哪里,因而不具有糾錯(cuò)的能力,對(duì)一切問(wèn)題它都要應(yīng)答,哪怕是在自己不知道的領(lǐng)域。而自回歸的生成方式也可能導(dǎo)致幻覺(jué)累積,進(jìn)一步加劇問(wèn)題的嚴(yán)重性。此外,生成式大模型的決策過(guò)程往往不透明且難以解釋,這也是人們質(zhì)疑其輸出結(jié)果公正性和可信度的原因。
多種因素導(dǎo)致大模型生產(chǎn)的知識(shí)在真實(shí)性上受到質(zhì)疑, 使知識(shí)變得真?zhèn)坞y辨,人們?cè)诤A康男畔⒅泻Y選真實(shí)、有價(jià)值的知識(shí)則變得越來(lái)越困難,知識(shí)的真?zhèn)涡猿闪艘粋€(gè)嚴(yán)重的問(wèn)題。不準(zhǔn)確或錯(cuò)誤的知識(shí)不僅無(wú)法為用戶提供有價(jià)值的信息,還可能誤導(dǎo)用戶并產(chǎn)生負(fù)面影響,特別是在一些關(guān)鍵領(lǐng)域,如醫(yī)學(xué)、法律、金融等領(lǐng)域,錯(cuò)誤的知識(shí)可能導(dǎo)致嚴(yán)重的后果和損失。例如,如果一個(gè)醫(yī)療工作者依賴于人工智能提供的錯(cuò)誤建議,就可能導(dǎo)致誤診或誤治,對(duì)病人的健康甚至生命造成威脅。
更有甚者,當(dāng)用戶頻繁遇到由人工智能生成的錯(cuò)誤信息時(shí),他們對(duì)整個(gè)系統(tǒng)的信任度就會(huì)逐漸降低。這種“信任危機(jī)”不僅會(huì)影響個(gè)體用戶的體驗(yàn),還可能波及更廣泛的社會(huì)層面,比如科研機(jī)構(gòu)、教育部門以及商業(yè)企業(yè),使其對(duì)從大模型中獲得知識(shí)的可靠性持懷疑態(tài)度。這種不信任不僅影響了人們對(duì)大模型的使用和依賴程度,還可能對(duì)整個(gè)知識(shí)體系產(chǎn)生負(fù)面影響。因?yàn)楫?dāng)人們不再信任某個(gè)知識(shí)來(lái)源時(shí),他們可能會(huì)轉(zhuǎn)向其他不可靠的信息來(lái)源,這種轉(zhuǎn)變不僅浪費(fèi)了資源和時(shí)間,還可能導(dǎo)致整個(gè)社會(huì)的知識(shí)體系出現(xiàn)分裂和對(duì)立。因?yàn)椴煌娜后w可能擁有不同的信息來(lái)源和觀點(diǎn),他們之間的交流和合作將變得更加困難和復(fù)雜。進(jìn)一步地,人類決策過(guò)程中的不確定性也將隨之增加:無(wú)論是個(gè)人還是組織,在做出重要決策時(shí)都希望基于準(zhǔn)確可靠的數(shù)據(jù)和知識(shí),如果不能確保從人工智能獲取的信息是真實(shí)的,那么這個(gè)決策過(guò)程就會(huì)充滿不確定性和風(fēng)險(xiǎn),從而加劇社會(huì)的混亂和不穩(wěn)定。
知識(shí)在內(nèi)容上必須真實(shí)可靠,這是知識(shí)的本質(zhì)要求。與此相關(guān),從動(dòng)態(tài)的角度看,新生產(chǎn)出來(lái)的知識(shí)還應(yīng)該是豐富的、有新內(nèi)容的,即相較于先前的既有的知識(shí)來(lái)說(shuō),知識(shí)生產(chǎn)的產(chǎn)品還應(yīng)該具有創(chuàng)造性或新穎性。但生成式大模型使得知識(shí)生產(chǎn)呈現(xiàn)高效化的同時(shí)也走向了工業(yè)化、標(biāo)準(zhǔn)化和同質(zhì)化,缺乏知識(shí)的新穎性。雖然大模型可以模仿人類的語(yǔ)言風(fēng)格并提供看似合理的答案,但它們通常依賴于現(xiàn)有的數(shù)據(jù)集,很難超越已知的信息范圍。這意味著大模型很難產(chǎn)生真正具有創(chuàng)新性的思想和觀點(diǎn),它們可能只是簡(jiǎn)單地復(fù)制粘貼已有的信息,或者根據(jù)預(yù)設(shè)的模式生成符合特定模板或框架的內(nèi)容,所進(jìn)行的生成過(guò)程在本質(zhì)上是通過(guò)“預(yù)測(cè)下一個(gè)詞”的文字接龍或字句續(xù)寫,而沒(méi)有真正意義上的深入研究和思考。因此,由人工智能生成的內(nèi)容通常缺乏深度見解或創(chuàng)新思維,個(gè)性化的見解和獨(dú)特的思考方式也在高效快速生成的方式中不復(fù)存在,不同人使用相同模型時(shí)只會(huì)得到相似的結(jié)果,或傾向于生成符合大多數(shù)情況的標(biāo)準(zhǔn)答案,導(dǎo)致知識(shí)生產(chǎn)趨向標(biāo)準(zhǔn)化和同質(zhì)化,缺乏多樣化和創(chuàng)造性,不同領(lǐng)域的知識(shí)和觀點(diǎn)趨于相似和單一。在這個(gè)過(guò)程中,人們可能會(huì)逐漸失去對(duì)自己獨(dú)特經(jīng)驗(yàn)和知識(shí)的認(rèn)同感,知識(shí)與個(gè)體之間由此產(chǎn)生疏離或異化。
由于生成式大模型介導(dǎo)的知識(shí)生成速度極快,通過(guò)“快速響應(yīng)”機(jī)制來(lái)迅速生成看似合理的回答或文本不能深入分析問(wèn)題、評(píng)估多種可能性、進(jìn)行邏輯推理和驗(yàn)證;由于缺乏深度理解和推理能力,模型在解釋復(fù)雜概念、推導(dǎo)新理論或進(jìn)行跨學(xué)科整合時(shí)顯得力不從心,限制了知識(shí)的深度發(fā)展,從而降低了知識(shí)的質(zhì)量。大模型的使用本是為了提高知識(shí)內(nèi)容的質(zhì)量,但這一悖反的結(jié)果卻導(dǎo)致了知識(shí)內(nèi)容在質(zhì)量上被生成式大模型所反噬或異化。與此相關(guān),人們可能更傾向于接受大模型提供的“快餐式”知識(shí),而不是深入探究和反思,這就導(dǎo)致了知識(shí)與理解之間的疏離或異化。
四、 失效:知識(shí)通脹異化
生成式大模型以其強(qiáng)大的算法和海量數(shù)據(jù)為基礎(chǔ),極大地提高了知識(shí)生產(chǎn)的效率,甚至實(shí)現(xiàn)了知識(shí)的“一鍵生成”。然而,與此同時(shí),知識(shí)生產(chǎn)的門檻也大為降低,導(dǎo)致大量知識(shí)如潮水般涌現(xiàn)。巨大的知識(shí)產(chǎn)量難免導(dǎo)向“知識(shí)通脹”:數(shù)量巨大的知識(shí)由人工智能生產(chǎn)出來(lái)后,同貨幣超發(fā)導(dǎo)致通貨膨脹的情形一樣,知識(shí)也因過(guò)多的產(chǎn)出而降低其價(jià)值或失去其效用(失效),由知識(shí)的屬性所決定的崇高地位因此受損,知識(shí)的意義由此面臨新的挑戰(zhàn)。
隨著生成式人工智能技術(shù)的飛速發(fā)展,知識(shí)生產(chǎn)的速度和規(guī)模達(dá)到了前所未有的水平。這些技術(shù)能夠在短時(shí)間內(nèi)生成大量的文本、圖片、音頻和視頻等內(nèi)容,極大地提高了知識(shí)的產(chǎn)能,使知識(shí)的數(shù)量呈現(xiàn)出爆炸式的增長(zhǎng),人類由此進(jìn)入了一個(gè)知識(shí)生產(chǎn)效率極高的時(shí)代。在智能機(jī)器的加持下,知識(shí)可以被生成式大模型海量生產(chǎn)出來(lái),要多少有多少,難免發(fā)生知識(shí)通脹。如同發(fā)生通貨膨脹時(shí)難以維持貨幣的價(jià)值一樣,知識(shí)數(shù)量的無(wú)限膨脹必然使知識(shí)的質(zhì)量也難以得到保證。如前所述,由于人工智能算法的限制和訓(xùn)練數(shù)據(jù)的偏差,大模型生成的知識(shí)往往缺乏深度、準(zhǔn)確性和創(chuàng)新性,導(dǎo)致了大量低質(zhì)量甚至錯(cuò)誤的信息充斥網(wǎng)絡(luò)空間。正因?yàn)槿绱耍恍┲R(shí)傳播平臺(tái)(如學(xué)術(shù)期刊)不認(rèn)可從而禁止刊登由生成式大模型所生成的內(nèi)容。當(dāng)知識(shí)的價(jià)值隨著其供應(yīng)量的增加而相對(duì)下降時(shí),或者說(shuō),當(dāng)知識(shí)變得可以信手拈來(lái)且無(wú)處不在、大大超過(guò)社會(huì)的需求和吸收能力時(shí),它的稀缺性就會(huì)減弱,就像貨幣通脹中貨幣的購(gòu)買力下降一樣。由此,本來(lái)由人工智能帶來(lái)的人類知識(shí)產(chǎn)能的劇增和知識(shí)供給的爆發(fā)所帶來(lái)的知識(shí)革命的樂(lè)觀前景,也就蘊(yùn)含著反向的可能,即生成式大模型淪為“生產(chǎn)廉價(jià)文字內(nèi)容的加速器”。①
其實(shí)知識(shí)通脹在人工智能的影響之外早就以“學(xué)歷通脹”或“證書通脹”的方式在教育領(lǐng)域中有所表現(xiàn)。當(dāng)越來(lái)越多的人擁有高學(xué)歷或?qū)I(yè)證書時(shí),這些證書的實(shí)際價(jià)值就會(huì)降低,隨之在就業(yè)市場(chǎng)就會(huì)出現(xiàn)“證書通脹”的現(xiàn)象,從而導(dǎo)致知識(shí)的相對(duì)貶值。
當(dāng)然,真正的知識(shí)永遠(yuǎn)是稀缺和寶貴的,但知識(shí)的通脹導(dǎo)致一般性甚至低質(zhì)性的知識(shí)產(chǎn)能過(guò)剩,使真正的知識(shí)無(wú)法得到有效的傳播和關(guān)注,知識(shí)不能“變現(xiàn)”抑或知識(shí)的泡沫化造成了知識(shí)勞動(dòng)的極大浪費(fèi),使人陷入了這種無(wú)意義的“知識(shí)生產(chǎn)”之中。當(dāng)人與上述低質(zhì)信息打交道成為常態(tài)時(shí),人的知識(shí)勞動(dòng)就大量消耗在一些簡(jiǎn)單、重復(fù)的信息處理活動(dòng)上,而真正有價(jià)值的新知識(shí)、新觀點(diǎn)卻難以涌現(xiàn)。這種低效重復(fù)勞動(dòng)不僅浪費(fèi)了個(gè)人的精力,也嚴(yán)重削弱了社會(huì)的創(chuàng)造力,所以伴隨知識(shí)通脹的發(fā)生還會(huì)出現(xiàn)創(chuàng)造力的通縮。人們生產(chǎn)廉價(jià)文字或低質(zhì)信息所花費(fèi)的大量時(shí)間和精力通常無(wú)法給自己帶來(lái)實(shí)質(zhì)性的回報(bào),也不能對(duì)社會(huì)有所貢獻(xiàn)。所以,知識(shí)通脹會(huì)導(dǎo)致知識(shí)勞動(dòng)貶值或變得無(wú)意義。這種無(wú)意義的勞動(dòng)極可能削弱人的求知?jiǎng)恿蛣?chuàng)造欲求,影響知識(shí)生產(chǎn)者的積極性和成就感,導(dǎo)致人生意義的喪失和自我價(jià)值的失落,還可能導(dǎo)致整個(gè)社會(huì)對(duì)知識(shí)的重視程度降低。因?yàn)楫?dāng)知識(shí)不再被視為一種寶貴的資源時(shí),人們就不再愿意投入時(shí)間和精力去學(xué)習(xí)和探索新的知識(shí),從而限制了整個(gè)社會(huì)的知識(shí)進(jìn)步。
知識(shí)通脹的另一種危害是對(duì)人造成日益深重的信息過(guò)載。生成式大模型所生產(chǎn)的知識(shí)種類繁多、數(shù)量龐大且更換迅速。在知識(shí)大量生成的背景下,優(yōu)質(zhì)知識(shí)被淹沒(méi)在信息的海洋中,難以得到有效的傳播和關(guān)注,使人在魚龍混雜的海量知識(shí)信息中眼花繚亂,難以篩選出有價(jià)值的內(nèi)容;人們面對(duì)無(wú)限膨脹的知識(shí),很難聚焦于真正重要的內(nèi)容。隨著知識(shí)數(shù)量的爆炸式增長(zhǎng),許多信息實(shí)際上是冗余的、重復(fù)的,甚至是相互矛盾的。過(guò)多的信息也會(huì)使用戶感到困惑或難以消化,導(dǎo)致認(rèn)知負(fù)擔(dān)過(guò)重,使人們?cè)讷@取知識(shí)時(shí)需要付出更多的努力和時(shí)間成本,增加了學(xué)習(xí)的難度和壓力;此外,還會(huì)因?yàn)楹Y選和甄別信息的難度增加而導(dǎo)致決策失誤和資源浪費(fèi)。
知識(shí)通脹還間接地帶來(lái)了知識(shí)的版權(quán)和責(zé)任問(wèn)題。利用人工智能生成大量的內(nèi)容時(shí),往往會(huì)涉及復(fù)雜的版權(quán)歸屬問(wèn)題。一些知識(shí)傳播平臺(tái)(如學(xué)術(shù)期刊)禁止刊登生成式大模型所生成的內(nèi)容,即使引用也不行,這難免會(huì)讓參與人機(jī)合作進(jìn)行知識(shí)生產(chǎn)的人產(chǎn)生這樣的疑惑:在人借助知識(shí)機(jī)器所生成的內(nèi)容產(chǎn)品中,誰(shuí)的貢獻(xiàn)更大?這些內(nèi)容品所表達(dá)的是我的還是智能機(jī)器的觀點(diǎn)和看法?一些參與者在有利的情況下,可能傾向于將使用大模型生成的內(nèi)容作為自己的自主知識(shí)成果,而當(dāng)在知識(shí)內(nèi)容審核中發(fā)現(xiàn)錯(cuò)誤時(shí),則將問(wèn)題歸咎于智能機(jī)器的“幻覺(jué)”,這就是知識(shí)與責(zé)任的異化:隨著人工智能在知識(shí)生產(chǎn)中的參與度提高,責(zé)任歸屬變得模糊,在享受成果和承擔(dān)責(zé)任之間出現(xiàn)了新的不平衡。當(dāng)人工智能生成的知識(shí)產(chǎn)生問(wèn)題或爭(zhēng)議時(shí),很難確定責(zé)任方(究竟應(yīng)該由模型開發(fā)者、使用者還是模型本身來(lái)負(fù)責(zé)),這無(wú)疑是生成式大模型對(duì)知識(shí)產(chǎn)權(quán)的概念厘定與實(shí)踐操作所提出的挑戰(zhàn),也是知識(shí)與產(chǎn)權(quán)或責(zé)任之間的一種特殊的異化情形。
伴隨知識(shí)通脹而來(lái)的知識(shí)在功用上的失效或貶值,還形成了知識(shí)權(quán)力上的失衡。經(jīng)濟(jì)領(lǐng)域中的通貨膨脹通常會(huì)導(dǎo)致貧富差距的擴(kuò)大,知識(shí)生產(chǎn)領(lǐng)域中的知識(shí)通脹也會(huì)導(dǎo)致類似的結(jié)果。大模型的開發(fā)和應(yīng)用需要大量的數(shù)據(jù)和計(jì)算資源,這使得只有少數(shù)頭部企業(yè)或大廠才擁有研發(fā)大模型的雄厚實(shí)力,從而使相應(yīng)的知識(shí)生產(chǎn)技術(shù)集中在少數(shù)企業(yè)手中。它們通過(guò)收費(fèi)服務(wù)或廣告業(yè)務(wù)等獲取巨大的收益,使得使用大模型的知識(shí)生產(chǎn)者所創(chuàng)造的知識(shí)(如軟件代碼、文章、設(shè)計(jì)等)不再屬于他們自己,而是被企業(yè)或其他機(jī)構(gòu)所控制。如同數(shù)字勞動(dòng)的數(shù)據(jù)歸數(shù)字資本家所有一樣,知識(shí)勞動(dòng)者很難從他們的知識(shí)勞動(dòng)中獲得相應(yīng)的認(rèn)可或回報(bào)。這也是知識(shí)權(quán)力的一種不平衡。更廣義地說(shuō),只有掌握技術(shù)和資源的人或組織能夠有效利用大模型,從而掌握知識(shí)生產(chǎn)的主動(dòng)權(quán),甚至可能形成知識(shí)壟斷,加劇社會(huì)不平等,這也是知識(shí)權(quán)力對(duì)普通社會(huì)大眾所造成的一種知識(shí)異化。
五、 結(jié) 語(yǔ)
歸結(jié)以上的分析,生成式大模型所帶來(lái)的知識(shí)異化主要體現(xiàn)為知識(shí)主體的失能、知識(shí)內(nèi)容的失真和知識(shí)價(jià)值的失效三個(gè)方面。
面對(duì)知識(shí)主體的失能型異化,我們要看到:一方面,隨著生成式大模型在知識(shí)生產(chǎn)中的應(yīng)用越來(lái)越廣泛,知識(shí)生產(chǎn)主體的角色也必然發(fā)生新的變化,人不再是唯一的知識(shí)生產(chǎn)者,而是與人工智能共同協(xié)作,甚至在某些情況下還會(huì)被人工智能所取代。另一方面,這種變化要求人類必須適應(yīng)新的知識(shí)技術(shù)范式,并積極主動(dòng)地構(gòu)建一種人機(jī)合作的知識(shí)生產(chǎn)模式。在這種模式下,人類需要確保自己的主體地位,將提出任務(wù)、目標(biāo)的“權(quán)利”留給自己,并負(fù)責(zé)提供創(chuàng)意、靈感和決策等高層次的知識(shí)生產(chǎn)活動(dòng),而讓人工智能主要負(fù)責(zé)處理大量數(shù)據(jù)、進(jìn)行精細(xì)計(jì)算和輔助創(chuàng)作等低層次或重復(fù)性的工作。這種合理分工和高效協(xié)作可以充分發(fā)揮人類和人工智能的各自優(yōu)勢(shì),提高知識(shí)生產(chǎn)的效率和質(zhì)量。同時(shí),人類也需要不斷提升自身的技能和素質(zhì),以應(yīng)對(duì)人工智能帶來(lái)的挑戰(zhàn),并將這種挑戰(zhàn)轉(zhuǎn)變?yōu)檫M(jìn)一步發(fā)展自己、提升能力的新機(jī)遇。
面對(duì)知識(shí)內(nèi)容的失真型異化,需要圍繞提升知識(shí)質(zhì)量而采取一系列措施,如:不斷改進(jìn)模型的架構(gòu),加強(qiáng)模型的可解釋性和可控性(如使用模塊化或分層的模型設(shè)計(jì),以便更精細(xì)地控制信息的流動(dòng)和處理),引入人工審核和專家驗(yàn)證機(jī)制,將外部知識(shí)庫(kù)或常識(shí)性信息融入模型中,通過(guò)提供額外的監(jiān)督和指導(dǎo),幫助模型更好地理解世界的基本規(guī)律和事實(shí);優(yōu)化大模型的訓(xùn)練數(shù)據(jù)集(如對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行徹底的清洗,去除錯(cuò)誤、矛盾或低質(zhì)量的數(shù)據(jù)),通過(guò)使用多樣化且豐富的數(shù)據(jù)集進(jìn)行訓(xùn)練,以涵蓋更廣泛的情形和場(chǎng)景,提升知識(shí)多樣性;引入更多真實(shí)世界的數(shù)據(jù),特別是針對(duì)特定領(lǐng)域或任務(wù)的數(shù)據(jù);推動(dòng)跨學(xué)科研究和深度學(xué)習(xí)技術(shù)的進(jìn)一步發(fā)展,不斷完善大模型的設(shè)計(jì)和應(yīng)用場(chǎng)景,定期監(jiān)控模型的性能和輸出,根據(jù)反饋對(duì)模型進(jìn)行微調(diào),包括鼓勵(lì)用戶提供關(guān)于模型輸出的反饋,并將這些反饋納入模型的迭代過(guò)程中,通過(guò)這些措施來(lái)及時(shí)發(fā)現(xiàn)并糾正模型的“幻覺(jué)”現(xiàn)象。通過(guò)這些努力,可以在保持生成速度的同時(shí),不斷改進(jìn)其性能和準(zhǔn)確性,促進(jìn)知識(shí)的健康發(fā)展。
面對(duì)知識(shí)價(jià)值的失效型異化,需要加強(qiáng)人工智能技術(shù)的監(jiān)管和評(píng)估體系,確保生成的知識(shí)符合一定的質(zhì)量標(biāo)準(zhǔn)和倫理要求;還需要推動(dòng)知識(shí)篩選和推薦技術(shù)等知識(shí)管理工具的發(fā)展,幫助用戶快速找到有價(jià)值的信息和內(nèi)容。同時(shí),加強(qiáng)教育和引導(dǎo),提高公眾對(duì)高質(zhì)量知識(shí)的辨識(shí)能力和追求意識(shí),學(xué)會(huì)在知識(shí)通脹的背景下選擇有價(jià)值的知識(shí),不斷提高這種選擇的準(zhǔn)確性和有效性;通過(guò)政策引導(dǎo)和激勵(lì)措施,促進(jìn)知識(shí)的共享和平衡發(fā)展,確保不同社會(huì)群體和個(gè)體都能夠平等地獲取和使用知識(shí)資源,以縮小知識(shí)鴻溝和減少社會(huì)不平等。
總之,生成式大模型時(shí)代的知識(shí)異化是一個(gè)新出現(xiàn)的社會(huì)現(xiàn)象,它反映了技術(shù)進(jìn)步與人的發(fā)展之間的復(fù)雜關(guān)系。從總體上看,生成式大模型中的知識(shí)異化是知識(shí)生產(chǎn)變革中的次生支流,不是主流,不能因此而否認(rèn)生成式大模型的知識(shí)革命意義和積極進(jìn)步價(jià)值。當(dāng)然,從未雨綢繆的意義上來(lái)說(shuō),我們?cè)谙硎苋斯ぶ悄芗夹g(shù)帶來(lái)的便利和效率的同時(shí),也需要警惕其可能帶來(lái)的負(fù)面影響和挑戰(zhàn)。基于一種全面的辯證的視野,則需要看到生成式大模型的能力增強(qiáng)并不意味著人類將完全失去在知識(shí)生產(chǎn)中的作用。相反,人類可以通過(guò)與人工智能的協(xié)作和互補(bǔ),共同推動(dòng)知識(shí)生產(chǎn)的進(jìn)步和發(fā)展。通過(guò)加強(qiáng)技術(shù)研發(fā)的倫理約束、價(jià)值對(duì)齊以及加強(qiáng)人類自身的教育和素質(zhì)提升等措施,我們可以努力構(gòu)建一個(gè)人機(jī)和諧、人與人工智能相互包容、可持續(xù)發(fā)展的未來(lái)社會(huì)。
An Analysis of Generative Large Models and Knowledge Alienation
XIAO Feng
School of Marxism and Institute of Intelligent Philosophy and Culture,
Shanghai University, Shanghai 200444, China
Knowledge alienation refers to negative effects that human created knowledge turns into an alien force, controlling and weakening human’s own status and abilities. Artificial intelligence, especially generative large models, as powerful tools for knowledge production, actively improves human knowledge labor levels, while also contains various possibilities of knowledge alienation, including “disabled” knowledge subjects, “distorted” knowledge content, and “ineffective” knowledge value. In the era of generative large models, it is necessary to carefully analyze and deal with the phenomenon of knowledge alienation mentioned above in order to enable artificial intelligence to better play a positive role in promoting human and social development.
knowledge alienation; generative artificial intelligence; large models; knowledge production
責(zé)任編輯:曾 靜