【摘要】在同大語言模型知識實(shí)踐的并置中,我們可以定位到學(xué)科交叉融合的必要性。以ChatGPT為代表的大語言模型,盡管才剛剛進(jìn)入人類的視野中,但已經(jīng)在知識實(shí)踐上展現(xiàn)出卓越能力,成為堪稱“通”家的大“?!奔摇N覀兛梢杂谩澳M模式”與“數(shù)字模式”來分別描述人類與大語言模型的知識實(shí)踐。大語言模型問世前的人工神經(jīng)網(wǎng)絡(luò)算法,數(shù)字模式的知識實(shí)踐僅僅令其在狹窄的垂直領(lǐng)域展露出卓越智能。然而以海量人類文本為訓(xùn)練數(shù)據(jù)的大語言模型,其知識實(shí)踐則呈現(xiàn)出無視領(lǐng)域疆界的通用性。面對大語言模型在知識實(shí)踐中的應(yīng)用,人類何為?潛在論與量子物理學(xué),給出了我們積極展開跨學(xué)科知識實(shí)踐的理據(jù)。
【關(guān)鍵詞】大語言模型 后人類 模擬模式 數(shù)字模式 純粹潛能 量子思維
【中圖分類號】TP18/C19 【文獻(xiàn)標(biāo)識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2023.21.005
引言
“學(xué)科交叉融合”是必要的嗎?晚近經(jīng)常有學(xué)術(shù)同行提出這個(gè)問題。
盡管近年來“學(xué)科交叉融合”得到大力倡導(dǎo),國務(wù)院學(xué)位委員會與教育部于2020年底正式設(shè)置了“交叉學(xué)科”門類,然而不得不承認(rèn),今天的學(xué)術(shù)評價(jià)體系仍主要以學(xué)科為單位展開。如果你是一位任職于中文系的青年學(xué)者,真的有必要探究區(qū)塊鏈、增強(qiáng)現(xiàn)實(shí)、人工智能等前沿技術(shù)乃至量子物理學(xué)抑或神經(jīng)科學(xué)嗎?且不說離開治學(xué)“舒適區(qū)”(comfortable zone)本身之艱難,對于跨越學(xué)科疆界形成的研究成果,由誰來評審?誰來評判這種知識實(shí)踐是否生產(chǎn)出了優(yōu)異的或至少質(zhì)量合格的知識產(chǎn)品?如果最后仍是“現(xiàn)代文學(xué)”或“文藝學(xué)”領(lǐng)域的學(xué)者來評審,那么這些跨學(xué)科的內(nèi)容很可能反而導(dǎo)致你的研究不被認(rèn)可(因?yàn)閷<易x不懂你的研究)。
看起來,躲在既有學(xué)科疆界之內(nèi)進(jìn)行知識生產(chǎn)似乎是安全的,更是舒適的。于是,我們有必要對篇首的這個(gè)問題,予以認(rèn)真思考。
xuGquF4Gh1dMOH1kHwUyAg==后人類知識實(shí)踐者:作為“通”家的“專”家
以ChatGPT為代表的大語言模型是2023年最受關(guān)注的技術(shù),然而人工智能界專家們發(fā)起的相關(guān)爭論,集中在它所帶來的安全風(fēng)險(xiǎn)上,而非其知識實(shí)踐的模式。[1]OpenAI于2022年11月30日正式上線ChatGPT后,短短數(shù)月大量人類作者同ChatGPT合寫的論文、乃至ChatGPT獨(dú)著的書籍,便如雨后春筍般接連問世[2];即便在大量沒有署名的地方,ChatGPT亦事實(shí)性地參與了知識生產(chǎn),成為了我們這個(gè)時(shí)代的重要知識實(shí)踐者,一位“后人類”的實(shí)踐者。[3]
筆者曾就“澳大利亞核政策變遷及其影響”這個(gè)相當(dāng)縱深、專業(yè)的議題問詢這位后人類的知識實(shí)踐者,其幾秒內(nèi)輸出的內(nèi)容,不僅概述了澳大利亞核政策變遷的國際與國內(nèi)背景及其過程,更是條分縷析地探究了導(dǎo)致變遷的多重原因,并剖析了變遷所帶來的諸種影響。至為關(guān)鍵的是,這些內(nèi)容得到了眾多在該領(lǐng)域長年深耕的專家的認(rèn)可。這個(gè)案例讓我們看到,大語言模型儼然是一個(gè)稱職的、相當(dāng)出色的知識生產(chǎn)者。
大語言模型不僅是精通像“澳大利亞核政策變遷及其影響”這種縱深論域的專家型知識實(shí)踐者,還是一個(gè)激進(jìn)的超越學(xué)科疆界的知識實(shí)踐者。ChatGPT被認(rèn)為已接近“通用人工智能”[4]——就其知識實(shí)踐而言,它顯然是“通用的”(general),而非“狹窄的”(narrow);它徹底無視知識實(shí)踐的學(xué)科疆界,既是強(qiáng)大的大“?!奔遥瑫r(shí)更是大“通”家。不少ChatGPT的用戶經(jīng)常拿它會出錯(cuò)(甚至是“一本正經(jīng)地胡說八道”)說事,從而否定它作為知識生產(chǎn)者的資質(zhì)。然而,對ChatGPT的這個(gè)批評必須納入并置性的分析視野中:作為知識生產(chǎn)者的人類作者,難道就不會出錯(cuò)?
實(shí)際上,大語言模型出錯(cuò)的原因不難定位到:它們使用海量的書籍和互聯(lián)網(wǎng)文本作為訓(xùn)練材料,而這些材料本身就包含錯(cuò)誤,從各種常見的低級錯(cuò)誤(從事實(shí)錯(cuò)誤到錯(cuò)別字)到各類大量出現(xiàn)的“復(fù)雜錯(cuò)誤”(從不恰當(dāng)?shù)男袠I(yè)建議到“陰謀論”)。[5]正是因?yàn)槿舜罅砍鲥e(cuò),大語言模型無論怎樣迭代,結(jié)構(gòu)性地?zé)o法做到零出錯(cuò)。
這也就是“機(jī)器學(xué)習(xí)”研究里所說的“垃圾進(jìn),垃圾出”(garbage in, garbage out)?;ヂ?lián)網(wǎng)文本無可避免存在大量低質(zhì)量的文本,無法做到以人工的方式在訓(xùn)練前加以徹底排除——譬如,盡管可以把一些富含此類文本的網(wǎng)站整個(gè)剔除,但很多“問題文本”是隨機(jī)產(chǎn)生的。大語言模型只能在訓(xùn)練中通過不斷迭代權(quán)重來減少出錯(cuò)狀況。
并且,從統(tǒng)計(jì)學(xué)上來看,互聯(lián)網(wǎng)每年會增加巨量的文本,但新增的知識(亦即,純粹“新知”)卻并不多,且在巨量文本中的比例低得可怕。故此,GPT-5(如果有的話)未必一定比GPT-4提升很多,因?yàn)槿祟愇拿髦袔缀跛兄匾墨I(xiàn)都已被納入GPT-4的訓(xùn)練中,而此后產(chǎn)生的新文本中極小比例是高質(zhì)量的。這意味著,能夠進(jìn)一步提升大語言模型的優(yōu)質(zhì)數(shù)據(jù),正在逐漸枯竭。若大量使用新近增加的文本來訓(xùn)練大模型并迭代其權(quán)重,反而會使生成文本的質(zhì)量下降。
我們看到,在各自的知識實(shí)踐中,人類作者與后人類的大語言模型都會出錯(cuò),都可能輸出問題文本與低質(zhì)量文本。兩者對比起來,大語言模型輸出文本的錯(cuò)誤情況,實(shí)際上要比人類低得多——大語言模型幾乎閱讀了所有知識論域里的所有既有文本,且是一頁不落地閱讀,沒有一個(gè)人類作者能做到如此全面與海量的閱讀。對比如此“勤奮好學(xué)”的大語言模型,不少人類作者,實(shí)屬片面地讀了一點(diǎn)就敢寫敢說了,其生產(chǎn)的多數(shù)文本(包含重要的純粹“新知”的文本除外),質(zhì)量和價(jià)值卻不及大語言模型知識實(shí)踐的產(chǎn)品。
知識實(shí)踐的兩種模式
將人類與大語言模型的知識實(shí)踐做并置性的對比,我們能進(jìn)一步定位到知識實(shí)踐的兩種模式。
大語言模型通過迭代權(quán)重,能夠精確地控制所生產(chǎn)文本的質(zhì)量——比如在訓(xùn)練時(shí)給予《自然》(Nature)期刊“論文”遠(yuǎn)高于互聯(lián)網(wǎng)論壇同主題“帖子”的權(quán)重。而人類的知識實(shí)踐者,則無法使用如此精確的權(quán)重系統(tǒng)(譬如,一位高顏值的主播往往會讓人不知不覺對其言論給出過高權(quán)重)。對比大語言模型,人類之知識實(shí)踐的一切進(jìn)程,皆是以遠(yuǎn)為模糊的——“模擬的”(analog)——方式展開。[6]
作為后人類的知識實(shí)踐者,大語言模型既是強(qiáng)大的學(xué)習(xí)者(深度學(xué)習(xí)者),亦是出色的生產(chǎn)者(生成式AI)。它實(shí)質(zhì)性的“后人類”面向,并非在于其實(shí)踐不受學(xué)科疆界限制(人類亦能做到),而是在于其學(xué)習(xí)(輸入)與生產(chǎn)(輸出),皆以“數(shù)字”(digital)形態(tài)進(jìn)行。這就意味著,大語言模型實(shí)際上標(biāo)識出一種同人類——“智人”(Homo sapiens)——全然不同的知識實(shí)踐。
圖靈獎(jiǎng)得主、“深度學(xué)習(xí)之父”杰弗里·辛頓在2023年6月10日所作的《通向智能的兩條道路》演講中,提出了“能動(dòng)者共同體”(a community of agents)分享知識的兩種模式。[7]我們可以把這兩種共同體模式分別命名為“數(shù)字模式”與“模擬模式”。大語言模型(人工智能)與人類(智人),分別是這兩種模式的能動(dòng)性實(shí)踐者。
每個(gè)大語言模型,都包含了無數(shù)“數(shù)字計(jì)算”的能動(dòng)者,它們使用權(quán)重完全相同的副本。如果個(gè)體能動(dòng)者(亦即每個(gè)副本)具有同樣權(quán)重、并以完全相同的方式使用這些權(quán)重,那么,能動(dòng)者之間就可以把自身個(gè)體性訓(xùn)練數(shù)據(jù)中學(xué)習(xí)到的內(nèi)容,通過共享權(quán)重的方式無損地實(shí)現(xiàn)彼此轉(zhuǎn)交。也就是說,共同體內(nèi)每一個(gè)能動(dòng)者,都可以即時(shí)獲得其他能動(dòng)者的學(xué)習(xí)成果——前提是所有個(gè)體能動(dòng)者皆以完全相同的方式工作,故此他們必須是數(shù)字的。
就大語言模型而言,模型的每個(gè)副本都從它所觀察到的數(shù)據(jù)中學(xué)習(xí),不同副本觀察不同的數(shù)據(jù)片段,它們通過共享權(quán)重或梯度來高效地分享所學(xué)的知識。這就使得每個(gè)副本都能從其他副本的學(xué)習(xí)中收獲知識。在這個(gè)意義上,大語言模型本身就是一個(gè)“能動(dòng)者共同體”,該共同體內(nèi)每個(gè)能動(dòng)者都只是以非常低的帶寬來學(xué)習(xí)(僅僅就拿到的數(shù)據(jù)片段來預(yù)測下一個(gè)單詞),但彼此間能精確地共享權(quán)重——如果模型擁有萬億個(gè)權(quán)重,則意味著每次分享能開啟萬億比特帶寬的溝通。
于是,運(yùn)行大語言模型的成本(主要體現(xiàn)為能源消耗)會十分巨大——這是知識實(shí)踐之?dāng)?shù)字模式的代價(jià)。化石燃料消耗所導(dǎo)致的行星層面的生態(tài)變異,恰恰是“人類世”(the Anthropocene)的核心困境:龐大的能耗會增加巨量碳排放,推動(dòng)其熵值的加速增加。[8]能源消耗以及前文討論的數(shù)據(jù)枯竭,構(gòu)成了大語言模型發(fā)展的兩個(gè)關(guān)鍵限制。
與大語言模型相較,人類個(gè)體進(jìn)行學(xué)習(xí)的能源消耗非常低,而學(xué)習(xí)帶寬則遠(yuǎn)高于單個(gè)模型副本。但人類個(gè)體在分享知識過程中的效率,則遠(yuǎn)低于大語言模型。利用特定生物硬件之模擬特性來進(jìn)行計(jì)算(“生物性計(jì)算”)的人類個(gè)體,只能使用“蒸餾”(distillation)來分享知識,而無法使用權(quán)重共享來精確地分享知識。[9]這就意味著,個(gè)體B沒有可能完全弄清楚個(gè)體A生成內(nèi)容時(shí)所使用的權(quán)重(甚至這種權(quán)重對于A本人也是不明晰的)。這便是知識實(shí)踐之模擬模式的局限。
人類社會之所以會有“學(xué)?!边@種教育機(jī)構(gòu),很大程度是因?yàn)槿祟悅€(gè)體無法將自己所知道的東西直接裝進(jìn)另一個(gè)個(gè)體的生物硬件中。兩個(gè)神經(jīng)網(wǎng)絡(luò)內(nèi)部架構(gòu)如果不同(亦即,不存在神經(jīng)元間的一一對應(yīng)),那權(quán)重共享就不起作用(即A的權(quán)重對B沒用)。或許可以這樣理解,如果一個(gè)人能夠直接使用詩人李白神經(jīng)網(wǎng)絡(luò)的權(quán)重,那他就能寫出李白的詩句。不同的人類個(gè)體之間(以及不同的大語言模型之間)進(jìn)行知識分享,只能使用“蒸餾”。比起權(quán)重共享,蒸餾的帶寬要低得多,這意味著知識分享效率低,能耗也小。[10]金庸在其名作《天龍八部》與《笑傲江湖》中,多次描述了一類獨(dú)特功夫,后輩可以把前輩幾十年的功力直接“吸”到自己身上——這種功夫?qū)θ魏我蕾嚿镄杂布磉M(jìn)行學(xué)習(xí)的能動(dòng)者而言,都是絕不可能的。而用“數(shù)字模式”進(jìn)行學(xué)習(xí)的能動(dòng)者,則不需要這種功夫,因?yàn)樗麄儾恍枰拔弊咚说挠?xùn)練成果,而是可以實(shí)現(xiàn)彼此擁有。
從狹窄人工智能、大語言模型到超智人工智能
讓我們把分析進(jìn)一步推進(jìn)。我們有必要看到:跨越學(xué)科領(lǐng)域進(jìn)行知識實(shí)踐,原本是人類獨(dú)家的能力。而人類知識實(shí)踐者能夠做到這一點(diǎn)(亦即,“學(xué)科交叉融合”得以可能),恰恰得益于其所采取的“模擬模式”。
在大語言模型問世之前,采取“數(shù)字模式”進(jìn)行深度學(xué)習(xí)的人工神經(jīng)網(wǎng)絡(luò)算法,都只是專門的“狹窄人工智能”(narrow artificial intelligence)?!鞍柗ü贰保ˋlphaGo)能夠在圍棋賽事中毫無懸念地戰(zhàn)勝所有人類頂級高手,然而如果讓它去玩《俄羅斯方塊》,亦無法通關(guān),至于寫詩、編程抑或探討“澳大利亞核政策變遷及其影響”,則完全無能為力。在大語言模型問世之前,各種狹窄的人工神經(jīng)網(wǎng)絡(luò)算法不僅在模型架構(gòu)上完全不同,并且必需使用專門類別的數(shù)據(jù)來進(jìn)行訓(xùn)練,故此無法通過分享權(quán)重的方式共享訓(xùn)練成果。
然而,以ChatGPT為代表的大語言模型,激進(jìn)地打破了狹窄人工智能的疆域界限。ChatGPT既是編程高手,也是澳大利亞核政策專家,既懂物理學(xué),也懂哲學(xué)、史學(xué)、文藝學(xué)……大語言模型能夠跨越各種專門領(lǐng)域疆界進(jìn)行知識實(shí)踐,使“模擬模式”的既有優(yōu)勢蕩然無存。它并不是使用專門數(shù)據(jù)(如圍棋棋譜)來訓(xùn)練深度神經(jīng)網(wǎng)絡(luò),而用各種類型文本(如書籍、網(wǎng)頁、ArXiv論文、維基百科、平臺用戶評論等)來進(jìn)行如下這個(gè)訓(xùn)練:從上下文來預(yù)測下一個(gè)詞。借用語言學(xué)家費(fèi)迪南·索緒爾的著名術(shù)語,大語言模型同“所指”(signified)無涉,但精于在“指號化鏈條”(signifying chain)中對“能指”(signifier)進(jìn)行預(yù)測。
然而其關(guān)鍵就在于,人是“說話的存在”(speaking beings)。人的“世界”,正是經(jīng)由語言而形成。換言之,語言絕不只是人與人之間溝通的媒介,更是“世界”得以生成的構(gòu)成性媒介——沒有語言,各種“實(shí)體”(entities)會繼續(xù)存在,但我們卻不再擁有一個(gè)“世界”。“世界”——用精神分析學(xué)家雅克·拉康的術(shù)語來說——是一個(gè)“符號性秩序”(symbolic order)。人無法同前語言的秩序(拉康筆下的“真實(shí)秩序”)產(chǎn)生有意義的直接互動(dòng)。[11]
正是語言(由無數(shù)彼此差異的“能指”串起的“指號化鏈條”),使各種前語言的“存在”變成為了一個(gè)秩序(“符號性秩序”),一個(gè)人類可以理解、并居身其中的“世界”。當(dāng)大語言模型深度學(xué)習(xí)了人類生產(chǎn)出的幾乎所有文本后,那么,它就對人的“世界”(而非“真實(shí)秩序”)具有了幾近整體性的認(rèn)知——這便使得人類眼中的“通用”智能成為可能。
有意思的是,在《通向智能的兩條道路》演講末尾,辛頓做出如下追問:“如果這些數(shù)字智能不是通過蒸餾非常緩慢地向我們學(xué)習(xí),而是開始直接從現(xiàn)實(shí)世界學(xué)習(xí),將會發(fā)生什么?”[12]在辛頓本人看來:
如果他們可以通過對視頻建模進(jìn)行無監(jiān)督學(xué)習(xí),例如,我們一旦找到一種有效的方法來訓(xùn)練這些模型來對視頻建模,他們就可以從“油管”(YouTube)的所有內(nèi)容中學(xué)習(xí),這是大量的數(shù)據(jù)。如果他們能夠操縱物理世界,譬如他們有機(jī)器人手臂,等等,那也會有所幫助。但我相信,一旦這些數(shù)字能動(dòng)者開始這樣做,他們將能夠比人類學(xué)到的多得多,而且他們將能夠?qū)W得非???。[13]
辛頓所說的“直接從現(xiàn)實(shí)世界學(xué)習(xí)”和“對視頻建模進(jìn)行無監(jiān)督學(xué)習(xí)”,實(shí)際上意味著數(shù)字智能在目前大語言模型所展現(xiàn)的近乎“通用”的智能之上,具有了直接從前語言秩序進(jìn)行學(xué)習(xí)的能力——而這種學(xué)習(xí)能力是作為“說話的存在”的人類所極度匱乏的(如果不是幾乎沒有的話)。人類從牙牙學(xué)語的孩童開始,幾乎所有實(shí)質(zhì)性的教學(xué)實(shí)踐都是通過作為“指號化系統(tǒng)”的語言來完成的。[14]當(dāng)然,嬰孩出生并非“白紙”,而是帶有各種不用“教”的“先天性知識”,如看到蛇會恐懼,那是經(jīng)由生物性演化形成的神經(jīng)網(wǎng)絡(luò)運(yùn)算系統(tǒng)作出的反應(yīng)。相對于后人類的無監(jiān)督機(jī)器學(xué)習(xí)與經(jīng)由“指號化系統(tǒng)”而展開的人類學(xué)習(xí),演化訓(xùn)練出的知識運(yùn)算可稱得上是前人類學(xué)習(xí)。辛頓認(rèn)為,當(dāng)數(shù)字智能具有這種后人類的無監(jiān)督學(xué)習(xí)能力后,“超智人工智能”(super-intelligent AI)就會誕生,并且在他看來,這種情況一定會發(fā)生。[15]
回到篇首的問題:“學(xué)科交叉融合”是必要的嗎?面對從大語言模型(接近“通用人工智能”)邁向“超智人工智能”的數(shù)字智能,我們可以定位到它的必要性:大語言模型在學(xué)習(xí)上已經(jīng)不存在“舒適區(qū)”,無視學(xué)科疆域的邊界;而超智人工智能的無監(jiān)督學(xué)習(xí),則更加無視人類“世界”的各種疆界,完全不受其影響。面對這樣的“數(shù)字模式”實(shí)踐者,如若作為“模擬模式”實(shí)踐者的我們?nèi)匀桓市亩阍凇笆孢m區(qū)”內(nèi),那么未來“世界”的知識生產(chǎn),乃至“世界化成”(worlding)本身,即將同我們不再相關(guān)。
“離身認(rèn)知”與語言學(xué)轉(zhuǎn)向
在知識實(shí)踐上,人類不應(yīng)自我邊緣化。然而,問題恰恰就在于:面對大語言模型,躺平,誠然是一個(gè)極具說服力的“人生”態(tài)度。
今天的年輕人群體里,“躺平”已然十分流行,并被《咬文嚼字》編輯部評為“2021年度十大流行語”。[16]在對“躺平”施以道德譴責(zé)之前,我們有必要認(rèn)真思考這個(gè)問題:面對大語言模型,為什么我們不躺平?
一個(gè)人即便再勤奮,再好學(xué),在其有生之年能讀完的書,大語言模型全都讀過——甚至這顆行星上現(xiàn)下在世的80億人口加起來讀過的書(尤其是富含知識含量的書),大語言模型幾乎全部讀過。一個(gè)人哪怕天天泡在圖書館里,也比不上大語言模型把整個(gè)圖書館直接裝進(jìn)自身,并且隨時(shí)可以用自己的話“吐”出來。面對這樣的知識實(shí)踐者,我們?nèi)绾渭暗蒙??“躺平”難道不是最合理的態(tài)度?
在筆者的課堂討論中,有學(xué)生曾提出這樣的問題:ChatGPT的能力是指數(shù)級增長的,而我就算是不吃不喝學(xué)習(xí),也只能一頁一頁地看,做線性增長,還不保證讀進(jìn)去的全都變成自己的知識。面對ChatGPT,反正都是輸,再學(xué)習(xí)也趕不上,“終身”壓上去也白搭,還不如早點(diǎn)躺平,做個(gè)“吃貨”。人工智能沒有身體,論吃它比不過我。
確實(shí),大語言模型至少目前沒有“身體”,沒有感知器官,產(chǎn)生不出“具身認(rèn)知”(embodied cognition)。赫伯特·德雷弗斯等當(dāng)代后認(rèn)知主義學(xué)者,強(qiáng)調(diào)大腦之外的身體對認(rèn)知進(jìn)程所起到的構(gòu)成性作用:除了身體的感覺體驗(yàn)外,身體的解剖學(xué)結(jié)構(gòu)、身體的活動(dòng)方式、身體與環(huán)境的相互作用皆參與了我們對世界的認(rèn)知。這意味著,如果我們擁有蝙蝠的身體,則會有全然不同的具身認(rèn)知。從后認(rèn)知主義視角出發(fā)來考察,當(dāng)下的大語言模型,具有的誠然只是“離身認(rèn)知”(disembodied cognition)。但辛頓所描述的“超智人工智能”,則將具有具身認(rèn)知,并且是遠(yuǎn)遠(yuǎn)越出人類身體諸種生物性限制的后人類具身認(rèn)知。
然而,值得進(jìn)一步追問的是:大語言模型的這種離身認(rèn)知,真的就比不上人類的具身認(rèn)知嗎?即便不具備具身認(rèn)知,大語言模型仍然在“美食”這個(gè)垂直領(lǐng)域內(nèi)勝過一切具有具身認(rèn)知的人類“吃貨”。大語言模型不需要“吃”過口水雞和咕咾肉,才知道前者比后者辣得多,“沒吃過”完全不影響它對食物乃至“世界”作出智能的分析與判斷。而一個(gè)很會吃、吃了很多口水雞的人,也不見得在吃上呈現(xiàn)出比ChatGPT更高的智能,如果不是相反的話。換言之,大語言模型較之許許多多自詡嘗遍各類美食的人,更具有“美食家”的水準(zhǔn)——在飲食上,ChatGPT的建議絕對比“吃貨”們可靠得多。
這里的關(guān)鍵就是,盡管目前大語言模型因沒有感知器官而不具備具身認(rèn)知,但這并不影響它對“世界”的符號性捕捉。誠如OpenAI的首席科學(xué)家伊利亞·蘇茨科弗所言:
它知道紫色更接近藍(lán)色而不是紅色,它知道橙色比紫色更接近紅色。它僅僅通過文本知道所有這些事。[17]
大語言模型不需要親“眼”看見過紅色、藍(lán)色或紫色,便能夠精確地、恰如其分地談?wù)撍鼈儭TS多“眼神”好得很的人類個(gè)體,恐怕會認(rèn)為紫色更接近紅色而非藍(lán)色——再一次地,“模擬模式”在精確性與可靠性上往往不如“數(shù)字模式”。
大語言模型僅僅通過對“符號性秩序”的深度學(xué)習(xí),就能夠?qū)θ祟愄幧砥鋬?nèi)的這個(gè)“世界”了如指掌。索緒爾的結(jié)構(gòu)主義語言學(xué)研究已然揭示出,作為生活在語言中的“說話的存在”,我們并無法抵達(dá)“是”(譬如,什么“是”藍(lán)色)。這就意味著,我們必須放棄關(guān)于“是”的形而上學(xué)的聚焦,轉(zhuǎn)而聚焦一個(gè)符號性秩序中“是”與“是”之間的差異(亦即,符號之間的差異)。
語言,是一個(gè)關(guān)于差異的系統(tǒng)。語言把前語言的“存在”轉(zhuǎn)化為各種“是”。和“存在”不同,“是”涉及指號化,涉及能指與所指間的一種專斷的對應(yīng)。[18]“紅色”,就是一個(gè)能指——大語言模型無法“看見”它所指號化的內(nèi)容,但完全不影響其在“世界”中有效地“說出”它(在溝通中有效)。大語言模型,同前語言的“存在”無涉,同拉康所說的“真實(shí)秩序”無涉。
以伊曼紐爾·康德為代表人物的“認(rèn)識論轉(zhuǎn)向”,被以索緒爾為代表人物的“語言學(xué)轉(zhuǎn)向”革命性地推進(jìn),正是因?yàn)槿藗儾坏珶o法企及“物自體”(故此必須放棄研究“是”的形而上學(xué)),并且他們對“現(xiàn)象”的體驗(yàn)(如眼中的紅色),也只能通過語言(作為能指的“紅色”)進(jìn)行有效溝通。完全不具備具身認(rèn)知的大語言模型(無法通過感官來進(jìn)行體驗(yàn)),卻依然能夠呈現(xiàn)出關(guān)于這個(gè)“世界”的通用性的智能,那是因?yàn)?,它不斷進(jìn)行深度學(xué)習(xí)的,不是“世界”內(nèi)的某一種專門系統(tǒng),而是那個(gè)符號性地編織出“世界”的系統(tǒng)——一個(gè)處在不斷變化中的差異系統(tǒng)。
純粹潛能:論知識實(shí)踐的原創(chuàng)性(I)
生活在大語言模型時(shí)代,“躺平”似乎無可厚非。那么,讓我們再次回到上文拋出的問題:走出“舒適區(qū)”,跨學(xué)科地進(jìn)行知識實(shí)踐,具有必要性嗎?
筆者的答案是:仍然有必要。首先,對于人類的知識實(shí)踐而言,學(xué)科疆界不僅會限制研究的視野,并且會造成認(rèn)知偏差。靈長類動(dòng)物學(xué)家、神經(jīng)生物學(xué)家羅伯特·薩波斯基提醒我們注意到:
不同類別之間的疆界經(jīng)常是武斷的,然而一旦某些武斷的疆界存在著,我們就會忘記它是武斷的,反而過分注重其重要性。[19]
對此,薩波斯基舉的例子,便是從紫色到紅色的可見光譜。在作為符號性秩序的“世界”中,存在著不同的“顏色”,分別由不同指號(如紅、藍(lán)色)來標(biāo)識。然而,光譜實(shí)際上是不同波長無縫構(gòu)成的一個(gè)連續(xù)體。這就意味著,每種“顏色”各自的疆界,實(shí)則都是被武斷決定的,并被固化在某個(gè)指號上。不同的語言,有不同的顏色指號系統(tǒng),也就是說,可見光譜在不同語言中,以不同的方式被分割,由此“武斷”地產(chǎn)生出各種疆界。
而進(jìn)一步的問題在于,疆界一旦形成,會使人產(chǎn)生認(rèn)知偏差。薩波斯基寫道:
給某人看兩種類似的顏色。如果那人使用的語言剛好在這兩種顏色之間劃分了疆界,他/她就會高估這兩種顏色的差異。假如這兩種顏色落在同一類別內(nèi),結(jié)果則相反。[20]
薩氏認(rèn)為,要理解這種被疆界所宰制的認(rèn)知行為,就需要越出學(xué)科疆界進(jìn)行研究,如此才能避免作出片面解釋。[21]在本文討論的脈絡(luò)中,我們可以定位到如下關(guān)鍵性的要素:人腦所采取的“模擬模式”。
人的認(rèn)知,無法以大語言模型所采取的精確的“數(shù)字模式”展開。采用“數(shù)字模式”的大語言模型,其知識實(shí)踐不但具有精確性,并且能夠無障礙地跨越疆界。無論認(rèn)肯與否、接受與否,我們正在邁入一個(gè)“后人類的世界”,在其中大量“非人類”(nonhumans)亦是知識生產(chǎn)的中堅(jiān)貢獻(xiàn)者,是參與世界化成的重要能動(dòng)者。[22]
然而,在這個(gè)后人類世界中,采取“模擬模式”的人類的知識實(shí)踐——當(dāng)其努力克服疆界宰制來展開實(shí)踐時(shí)——對于世界化成而言,卻仍然至關(guān)重要。
我們有必要看到:以ChatGPT為代表的大語言模型,誠然是堪稱“通用”的大“?!奔?,知識覆蓋幾乎無死角,但它精于回答問題,卻拙于創(chuàng)造新知。語言學(xué)家諾姆·喬姆斯基將ChatGPT稱作“高科技剽竊”[23]。話雖尖刻,但按照我們關(guān)于“剽竊”的定義,大語言模型的知識的的確確全部來自于對人類文本的預(yù)訓(xùn)練——這就意味著,即便通過預(yù)測下一個(gè)詞的方式,它能夠做到源源不斷地生成“全新”的文本,但卻是已有文本語料的重新排列組合。換言之,大語言模型無法原創(chuàng)性地創(chuàng)造新知。
大語言模型用規(guī)模提升(scale)的方式讓自身變“大”,從而“涌現(xiàn)”出近乎通用的智能。然而,它在文本生產(chǎn)上的“潛能”(potentiality)卻是可計(jì)算的——盡管那會是天文數(shù)字。而人類的“模擬模式”,不僅使其跨越學(xué)科疆界展開知識實(shí)踐成為可能,并且使其“潛能”無可精確計(jì)算——要知道,人的知識實(shí)踐,在生物化學(xué)層面上呈現(xiàn)為超過一千億個(gè)大腦神經(jīng)元用電信號進(jìn)行復(fù)雜的彼此“觸發(fā)”。盡管兩個(gè)神經(jīng)元之間的“觸發(fā)”與“不觸發(fā)”可以用數(shù)字形態(tài)(0和1)來表達(dá),但整個(gè)大腦的“生物性計(jì)算”進(jìn)程,卻無法予以數(shù)字化。大腦這個(gè)“濕件”(wetware),實(shí)則是一個(gè)不透明的黑箱。
以保羅·麥克萊恩為代表的神經(jīng)科學(xué)家們,把大腦區(qū)分為主導(dǎo)自主神經(jīng)系統(tǒng)的中腦和腦干、主導(dǎo)情緒的邊緣系統(tǒng)、主導(dǎo)邏輯與分析的皮質(zhì)(尤其前額葉皮質(zhì))這三層不同的區(qū)塊。[24]然而誠如薩波斯基所言,這又是把“一個(gè)連續(xù)體類別化”(categorizing a continuum)的經(jīng)典操作,這些區(qū)塊只能當(dāng)作“隱喻”,那是因?yàn)?,“解剖意義上這三層之間很大程度重疊”,“行為中的自動(dòng)化面向(簡化來看這屬于第一層的權(quán)限)、情緒(第二層)和思考(第三層)并非分離的”。[25]
由于大腦具有可塑性(譬如,盲人的視覺皮質(zhì)經(jīng)由訓(xùn)練能用于處理其他信號,大幅強(qiáng)化觸覺或聽覺),并且每年都有大量新的神經(jīng)元生長出來——人終其一生,都具有不斷更新其知識實(shí)踐的潛能。政治哲學(xué)家吉奧喬·阿甘本曾提出“潛在論”(potentiology),其核心主旨是,不被實(shí)現(xiàn)的潛能具有本體論的優(yōu)先性。阿氏本人將“潛在論”建立在對亞里士多德學(xué)說的改造之上。[26]在筆者看來,“潛在論”的地基,實(shí)則應(yīng)該是當(dāng)代神經(jīng)科學(xué)與計(jì)算機(jī)科學(xué):正是因?yàn)槿祟惔竽X采取“模擬模式”,人才會是如阿甘本所描述的“一種純粹潛能的存在”(a being of pure potentiality)。[27]所有被特殊性地實(shí)現(xiàn)的東西(包括人類整個(gè)文明在內(nèi)),都僅僅是這種純粹潛能的“例外”。人,可以原創(chuàng)性地創(chuàng)造——亦即,從其純粹潛能中產(chǎn)生——新事物。
同人類相比照,大語言模型具有潛能,但不具有潛在論意義上的純粹潛能:“數(shù)字模式”使得其潛能變得可計(jì)算,亦即,可窮盡性地全部實(shí)現(xiàn)(僅僅是原則上可實(shí)現(xiàn),實(shí)際操作將耗費(fèi)巨額算力);換言之,它沒有純粹的、在本體論層面上能夠始終不被實(shí)現(xiàn)的潛能。ChatGPT能夠跨越學(xué)科疆界生成極富知識含量的文本,但它做不到徹底原創(chuàng)性地生成新知——這件事辛頓所說的“超智人工智能”或可做到,但目前的大語言模型做不到。
有意思的是,在一個(gè)晚近的對談中,OpenAI首席執(zhí)行官山姆·奧特曼這樣界定“通用人工智能”:
如果我們能夠開發(fā)出一個(gè)系統(tǒng),能自主研發(fā)出人類無法研發(fā)出的科學(xué)知識時(shí),我就會稱這個(gè)系統(tǒng)為通用人工智能。[28]
按照奧特曼的上述界定,現(xiàn)階段包括GPT-4在內(nèi)的大語言模型盡管已然是堪稱“通用”的大“?!奔?,但卻仍未能抵達(dá)通用人工智能的境界,因?yàn)樗鼈內(nèi)詿o法“自主研發(fā)”新知。與之對照,不同學(xué)科領(lǐng)域的人類“?!奔?,卻可以通過彼此交叉、互相觸動(dòng)的知識實(shí)踐(甚至通過和ChatGPT的對話),既能夠“溫故”,也能夠“知新”,并且能夠“溫故而知新”。
人不僅是“說話的存在”,同時(shí)在本體論層面上是“一種純粹潛能的存在”。正是在純粹潛能的意義上,即便生活在大語言模型時(shí)代,我們亦不能躺平。
量子思維:論知識實(shí)踐的原創(chuàng)性(II)
進(jìn)而,對于思考人類在大語言模型時(shí)代展開跨學(xué)科知識實(shí)踐的必要性問題,我們可以進(jìn)一步引入量子思維。量子思維,顧名思義是量子物理學(xué)的諸種“詭異”(spooky,阿爾伯特·愛因斯坦所使用的形容詞)發(fā)現(xiàn)所引入的思考視角。
量子物理學(xué)家、女性主義者、后人類主義者凱倫·芭拉德2007年推出了一本廣受贊譽(yù)的巨著,題為《半途遇上宇宙》(Meeting the Universe Halfway)。[29]量子物理學(xué)的實(shí)驗(yàn)結(jié)果揭示出,人實(shí)際上總是半途(halfway)地遭遇宇宙,不可能整個(gè)地碰見它。你能知道動(dòng)量,就注定會不知道位置,知道位置就不知道動(dòng)量。動(dòng)量、位置乃至溫度、密度、濕度等,都是人類語言設(shè)定出的概念,而不是宇宙本身的屬性。[30]
時(shí)至今天我們所知道的那個(gè)世界,只是人類半途構(gòu)建出來的“世界”,所有人類知識(甚至包括量子力學(xué)本身在內(nèi)),都屬于“智人”讓自己安身其中的這一半“宇宙”——它可以被妥切地稱作“符號性宇宙”(symbolic universe)。[31]
這也就是為什么諾貝爾物理學(xué)獎(jiǎng)得主尼爾斯·玻爾曾說,“‘量子世界’并不存在”[32]。玻爾可謂量子力學(xué)的核心奠基人,他竟然說“量子世界”并不存在?!他的意思是,“量子世界”僅僅是一個(gè)由量子力學(xué)的各種概念、方程與描述構(gòu)建起來的“世界”,換句話說,屬于人類半途認(rèn)識的那個(gè)“宇宙”。人的認(rèn)識本身,就是在參與“宇宙”的構(gòu)建。[33]
即便你是一個(gè)邁出學(xué)科疆界的終身學(xué)習(xí)者與知識生產(chǎn)者,你也只能半途遇見宇宙,遇見人類(包括你本人)參與構(gòu)建的那半個(gè)“宇宙”。這就意味著,任何整體化的嘗試——嘗試用已有知識已有做法來判斷一切事情、處理一切事情——都注定要失敗。你覺得你學(xué)富五車,讀了很多書,總是忍不住對身邊伴侶說“你不應(yīng)該這樣想”“你怎么就不懂”,其實(shí)就是在把自己的知識整體化。一個(gè)國家看到別的國家跟自己做法不一樣就受不了,想方設(shè)法“卡脖子”逼迫對方就范、想使其變成跟它一樣,這同樣是不恰當(dāng)?shù)恼w化思維。政治學(xué)者弗朗西斯·福山把這種整體化思維美其名曰“歷史的終結(jié)”。[34]歷史終結(jié)論,就是缺乏量子思維的產(chǎn)物。[35]
面對大語言模型,我們確實(shí)要對它的學(xué)習(xí)速度、對其堪稱“通用”的大“?!奔宜叫膼傉\服,而不是頑固秉持“我們更行”的人類中心主義態(tài)度。但我們?nèi)匀豢梢员S形覀兊闹腔?,仍然可以做一個(gè)名副其實(shí)的“智人”而不僅僅是“吃貨”,如果我們學(xué)會使用量子思維的話。
大語言模型是用人類已生產(chǎn)的古往今來的文本語料預(yù)訓(xùn)練出來的。所有文本,都結(jié)構(gòu)性地內(nèi)嵌人類認(rèn)知。這也就意味著,用文本語料訓(xùn)練的大語言模型再智能、再勤奮學(xué)習(xí),至多也只能對人類所半途遇見的那一半宇宙了如指掌。它的知識無法整體化,無法思考因自身的出現(xiàn)而可能帶來的“技術(shù)奇點(diǎn)”(technological singularity)。實(shí)際上,它無法思考任何一種“奇點(diǎn)”,因?yàn)椤捌纥c(diǎn)”在定義上(by definition)標(biāo)識了人類一切已有知識“失敗”的那個(gè)位置。如史蒂芬·霍金所言,在奇點(diǎn)上所有科學(xué)規(guī)則和我們預(yù)言未來的能力都將崩潰。[36]
也就是說,如果大語言模型真的造成人類文明的技術(shù)奇點(diǎn),它自己不會有辦法來應(yīng)對它。所以,人工智能的智能,解決不了它自己帶來的挑戰(zhàn)。[37]當(dāng)問及ChatGPT會帶來怎樣的挑戰(zhàn)時(shí),它會給出自己“只是提供服務(wù),不會帶來任何威脅”等諸如此類的回答。
人,能思考技術(shù)奇點(diǎn)——“技術(shù)奇點(diǎn)”這個(gè)概念就是一群學(xué)者提出的。人——就像以往文明史上那些不斷拓展已有知識邊界的人——有能力去思考那半途之外的黑暗宇宙,一步步把“黑洞”(black hole)、“暗物質(zhì)”(dark matter)、“暗能量”(dark energy)這些曾經(jīng)或仍是深淵性的、只能用“黑”“暗”來描述的假說,拉進(jìn)我們認(rèn)知范圍內(nèi)的一半宇宙中——那個(gè)大語言模型可以掌握甚至是高精度掌握、并能模型化重構(gòu)的“符號性宇宙”中。
今天,大語言模型已經(jīng)深度參與世界化成,參與構(gòu)建我們生活在其中的符號性宇宙。然而,我們不能躺平——大語言模型可以跨越學(xué)科疆界生成知識,而人可以跨越學(xué)科疆界生成原創(chuàng)性知識?;艚鸾o我們帶來了一個(gè)特別有分量的案例?;忌蠞u凍癥后,這位物理學(xué)家喪失了絕大多數(shù)具身認(rèn)知的能力。2018年去世的霍金如果多活兩年,2020年諾貝爾物理學(xué)獎(jiǎng)大概率會同時(shí)頒給他,因?yàn)椤捌纥c(diǎn)定理”(singularity theorem)是他和羅杰·彭羅斯共同構(gòu)建的。更令人無比敬重的是,霍金在學(xué)術(shù)生涯中并沒有躺平并止步于“奇點(diǎn)定理”,盡管這是達(dá)到諾貝爾獎(jiǎng)級別并且最后收獲該獎(jiǎng)的研究成果?;艚鸷髞硖岢龅摹盁o邊界宇宙”(no-boundary universe)假說,就是繞過奇點(diǎn)(“大爆炸奇點(diǎn)”)這個(gè)設(shè)定來思考宇宙的智性努力。[38]至于更為世人所熟知的作為公共知識分子的霍金,則是源于他不斷越出學(xué)科疆界的知識實(shí)踐取得令人矚目的成果。
結(jié)語
在同大語言模型知識實(shí)踐的并置中,我們可以定位到學(xué)科交叉融合的必要性。
以ChatGPT為代表的大語言模型,盡管才剛剛進(jìn)入人類的視野中,但已經(jīng)在知識實(shí)踐上展現(xiàn)出卓越能力,成為堪稱“通”家的大“專”家。我們可以用“模擬模式”與“數(shù)字模式”來分別描述人類與大語言模型的知識實(shí)踐。大語言模型問世前的人工神經(jīng)網(wǎng)絡(luò)算法(譬如AlphaGo),數(shù)字模式的知識實(shí)踐僅僅令其在狹窄的垂直領(lǐng)域展露出卓越智能。然而以海量人類文本為訓(xùn)練數(shù)據(jù)的大模型,其知識實(shí)踐則呈現(xiàn)出跨越領(lǐng)域疆界的通用性。
面對大語言模型在知識實(shí)踐中的應(yīng)用,我們不能躺平,不能躲在知識實(shí)踐的舒適區(qū)。潛在論與量子物理學(xué),給出了我們積極展開跨學(xué)科知識實(shí)踐的理據(jù)。
(本文系國家社會科學(xué)基金重大項(xiàng)目“后現(xiàn)代主義哲學(xué)發(fā)展路徑與新進(jìn)展研究”的階段性研究成果,項(xiàng)目編號:18ZDA017)
注釋
[1]2023年3月29日,1000余位人工智能業(yè)界領(lǐng)袖聯(lián)名呼吁立即暫停訓(xùn)練比GPT-4更強(qiáng)的人工智能。2023年5月30日,包括圖靈獎(jiǎng)得主杰弗里·辛頓、約書亞·本吉奧以及谷歌DeepMind首席執(zhí)行官戴密斯·哈薩比斯、OpenAI首席執(zhí)行官山姆·奧特曼、Anthropic首席執(zhí)行官達(dá)里奧·阿莫代伊在內(nèi)的超過350名人工智能行業(yè)研究人員、工程師和首席執(zhí)行官,聯(lián)合簽署并發(fā)布如下聲明:“降低人工智能帶來的滅絕風(fēng)險(xiǎn),應(yīng)該同大流行病、核戰(zhàn)爭等其他社會級規(guī)模的風(fēng)險(xiǎn)一起,成為一個(gè)全球優(yōu)先事項(xiàng)?!眳⒁姟禔I可能滅絕人類!22字聲明,ChatGPT之父和AI教父都簽了》,2023年5月30日,https://www.thepaper.cn/newsDetail_forward_23282744;《馬斯克率一眾科技圈大佬發(fā)聲:應(yīng)暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)》,2023年3月29日,https://baijiahao.baidu.com/s?id=1761688767716274674。
[2]參見《首本由ChatGPT寫的實(shí)體書出版,國內(nèi)出版界如何應(yīng)對?》,2023年2月28日,https://baijiahao.baidu.com/s?id=1759063407725941025。
[3]參見吳冠軍:《再見智人:技術(shù)-政治與后人類境況》,北京大學(xué)出版社,2023年。
[4]S. Bubeck et al., "Sparks of Artificial General Intelligence: Early experiments with GPT-4," 22 Mar 2023, https://arxiv.org/abs/2303.12712.
[5]在這個(gè)論述中,“常見”與“大量出現(xiàn)”很重要,因?yàn)榇笳Z言模型計(jì)算的是概率分布,如果某個(gè)錯(cuò)誤(譬如,“天是橙色”,事實(shí)錯(cuò)誤抑或錯(cuò)別字)很少出現(xiàn),那么模型的輸出便絕不會出現(xiàn)這種錯(cuò)誤。
[6]關(guān)于大語言模型獨(dú)特的出錯(cuò)方式的進(jìn)一步分析,參見吳冠軍:《大語言模型的信任問題與資本邏輯》,《當(dāng)代世界與社會主義》,2023年第5期;吳冠軍:《大語言模型的技術(shù)政治學(xué)研究——知識生產(chǎn)的后人類境況與意識形態(tài)批判》,《中國社會科學(xué)評價(jià)》,2022年第5期。
[7][12][13]G. Hinton, "Two Paths to Intelligence," 10 June 2023, https://mp.weixin.qq.com/s/_wXjuAo7q5Nkn1l_ormcmQ.
[8]參見吳冠軍:《從人類世到元宇宙——當(dāng)代資本主義演化邏輯及其行星效應(yīng)》,《當(dāng)代世界與社會主義》,2022年第5期;吳冠軍:《人類世、資本世與技術(shù)世——一項(xiàng)政治經(jīng)濟(jì)學(xué)-政治生態(tài)學(xué)考察》,《山東社會科學(xué)》,2022年第12期。
[9]除了生物性的“默會知識”(分享困難且極其不精確)外,智人在分享知識時(shí)主要倚靠符號性-話語性的“蒸餾”。
[10]為了降低大語言模型的運(yùn)行能耗,辛頓同其合作者提出使用蒸餾方法,將原始數(shù)據(jù)集上訓(xùn)練的重量級模型作為教師,讓一個(gè)相對更輕量(參數(shù)更少)的模型作為學(xué)生,對于相同的輸入,讓學(xué)生輸出的概率分布盡可能地逼近教師輸出的分布。于是,大模型的知識就可以通過這種監(jiān)督訓(xùn)練的方式“蒸餾”到小模型里。小模型的準(zhǔn)確率下降往往很小,卻能大幅度減少參數(shù)量,從而降低對硬件和能耗的需求。See G. Hinton; O. Vinyals and J. Dean, "Distilling the Knowledge in a Neural Network," 9 March 2015, https://arxiv.org/pdf/1503.02531.pdf。
[11]吳冠軍:《有人說過“大他者”嗎?——論精神分析化的政治哲學(xué)》,《同濟(jì)大學(xué)學(xué)報(bào)(社會科學(xué)版)》,2015年第5期。
[14]關(guān)于教學(xué)實(shí)踐的進(jìn)一步討論,參見吳冠軍:《后人類狀況與中國教育實(shí)踐:教育終結(jié)抑或終身教育?——人工智能時(shí)代的教育哲學(xué)思考》,《華東師范大學(xué)學(xué)報(bào)(教育科學(xué)版)》,2019年第1期。
[15]故此,辛頓呼吁年輕一代研究人員要努力“弄清楚如何讓人工智能在不獲得控制的情況下,為我們生活更好而奮斗”。See Hinton, "Two Paths to Intelligence"。
[16]《〈咬文嚼字〉發(fā)布“2021年十大流行語”:雙減、躺平、元宇宙等入選》,2021年12月10日,https://new.qq.com/rain/a/20211210A08A2800。
[17]I. Sutskever and C. Smith, "Episode #116," 15 March 2023, https://www.eye-on.ai/podcast-archive.
[18]一旦能指與所指的對應(yīng)被固化(比如,被理解為“自然的”),那就會出現(xiàn)“形而上學(xué)/元物理學(xué)”(meta-physics)——一門以本質(zhì)主義的方式研究“being”(是什么)的學(xué)問。
[19][20][21][25]R. M. Sapolsky, Behave: The Biology of Humans at Our Best and Worst, New York: Penguin, 2017 (ebook), p. 14, pp. 29-30.
[22][30]吳冠軍:《從元宇宙到量子現(xiàn)實(shí):邁向后人類主義政治本體論》,北京:中信出版集團(tuán),2023年,第371~373頁。
[23]"Noam Chomsky on ChatGPT, Universal Grammar and the Human Mind: Unlocking Language and AI Mysteries," 29 July 2023, https://www.youtube.com/watch?v=VdszZJMbBIU.
[24]P. MacLean, The Triune Brain in Evolution, New York: Springer, 1990.
[26]參見吳冠軍:《生命權(quán)力的兩張面孔:透析阿甘本的生命政治論》,《哲學(xué)研究》,2014年第8期;吳冠軍:《阿甘本論神圣與褻瀆》,《國外理論動(dòng)態(tài)》,2014年第3期。
[27]G. Agamben, "The Work of Man," in M. Calarco and S. DeCaroli, Giorgio Agamben: Sovereignty and Life, Stanford: Stanford University Press, 2007, p. 2.
[28]《Sam Altman預(yù)言2030年前出現(xiàn)AGI,GPT-10智慧將超越全人類總和!》,2023年9月7日,https://new.qq.com/rain/a/20230907A04O0Q00。
[29]K. Barad, Meeting the Universe Halfway: Quantum Physics and the Entanglement of Matter and Meaning, Durham: Duke University Press, 2007.
[31]吳冠軍:《陷入奇點(diǎn):人類世政治哲學(xué)研究》,北京:商務(wù)印書館,2021年,第93~115頁。
[32]See A. Shimony, "Metaphysical Problems in the Foundations of Quantum Mechanics," lnternotionol Philosophical Quanerly, 1978, 18(1); A. Petersen, "The Philosophy of Niels Bohr," Bulletin of the Atomic Scientists, 1963, 19(7).
[33]物理學(xué)家約翰·惠勒(“黑洞”概念的提出者)甚至提出了“參與性宇宙”(participatory universe)命題。詳細(xì)討論參見吳冠軍:《從元宇宙到量子現(xiàn)實(shí):邁向后人類主義政治本體論》,第373~375頁。
[34]F. Fukuyama, "The End of History?" The National Interest, 1989, Summer.
[35]進(jìn)一步的分析,參見吳冠軍:《量子思維對政治學(xué)與人類學(xué)的激進(jìn)重構(gòu)》,載錢旭紅等:《量子思維》,上海:華東師范大學(xué)出版社,2022年。
[36]S. W. Hawking, A Brief History of Time: From the Big Bang to Black Holes, New York: Bantam, 2009, p. 84.
[37]參見吳冠軍:《通用人工智能:是“賦能”還是“危險(xiǎn)”》,《人民論壇》,2023年第5期。
[38]S. W. Hawking, The Theory of Everything: The Origin and Fate of the Universe, Beverly Hills: Phoenix Books, 2005, p. 113, pp. 98-99.
責(zé) 編∕張 貝