[編者按]2024年4月8日,有“人工智能教父”之稱的杰弗里·辛頓(GeoffreyE.Hinton)在都柏林大學(xué)接受尤利西斯獎?wù)碌墨@獎感言里,對喬姆斯基提出了毫不客氣的批評:“語言學(xué)家被一個名叫喬姆斯基的人誤導(dǎo)了好幾代……他有一個偏執(zhí)古怪的理論,即語言不是學(xué)會的。他成功地說服很多人相信這一點。但這一看就知道純粹是胡言亂語。語言顯然是學(xué)會的。大型神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)語言,不需要任何先天結(jié)構(gòu),只是從隨機權(quán)重和大量數(shù)據(jù)開始。喬姆斯基卻仍然在說,但這并非真正的語言,這不算數(shù),這是不對的。許多統(tǒng)計學(xué)家和認知科學(xué)家也說,永遠不可能在這樣一個大網(wǎng)絡(luò)里學(xué)習(xí)語言。喬姆斯基從來沒有提出任何一種有關(guān)語義的理論。他的理論全是關(guān)于句法的。”這篇發(fā)言引起了中國語言學(xué)界的關(guān)注,陳國華教授把它譯為中文,以《杰弗里·辛頓接受尤利西斯獎?wù)聲r發(fā)表的獲獎感言》為題,發(fā)表在《當(dāng)代語言學(xué)》2024年第4期上。10月8日,霍普菲爾德(JohnJ.Hopfield)和辛頓以“通過人工神經(jīng)網(wǎng)絡(luò)實現(xiàn)機器學(xué)習(xí)的基礎(chǔ)性發(fā)現(xiàn)和發(fā)明”獲得諾貝爾物理學(xué)獎后,關(guān)于大語言模型和語言學(xué)發(fā)展、辛頓和喬姆斯基的話題再度爆火。
一位人工智能大家,獲得了諾貝爾物理學(xué)獎;他批評了一位美國的著名語言學(xué)家,卻引發(fā)了中國語言學(xué)者的熱烈討論,反思中國語言學(xué)的問題。這形成了一個奇妙的蝴蝶效應(yīng)。我刊隨即與《當(dāng)代語言學(xué)》編輯部籌劃,聯(lián)合舉辦“大語言模型與語言學(xué)發(fā)展座談會”。10月17日,座談會在商務(wù)印書館召開,線上線下學(xué)者各陳己見。我刊特就此設(shè)多人談欄目與學(xué)界共享。
數(shù)字智能和人類智能學(xué)習(xí)語言的方式不能等同
馮志偉(新疆大學(xué)中國語言文學(xué)學(xué)院) 近來,“人工智能教父”辛頓在2024年2月19日牛津大學(xué)的羅曼斯講座中,在4月8日獲得尤利西斯獎?wù)碌难葜v中,不斷地批評喬姆斯基,指責(zé)他的語言學(xué)理論是瘋狂的理論;甚至在10月8日得到獲諾貝爾獎的消息時,也不忘踩喬姆斯基一腳,指責(zé)他的理論是胡說八道。
辛頓不遺余力地批評喬姆斯基,主要原因在于他和喬姆斯基對于語言理解和人工智能發(fā)展的觀點存在著顯著的差異。
(1)語言習(xí)得機制。辛頓認為語言習(xí)得主要依賴于大語言模型的海量數(shù)據(jù)和神經(jīng)網(wǎng)絡(luò)的權(quán)重調(diào)整。他堅信人工智能系統(tǒng)通過輸入大量語言數(shù)據(jù),就可以像人類一樣學(xué)習(xí)到語言的結(jié)構(gòu)和意義。而喬姆斯基則主張“刺激貧乏論”,認為兒童在語言習(xí)得時接受的外在的語言數(shù)據(jù)不多,受到的刺激是貧乏的。人類天生具備一種內(nèi)在的語言習(xí)得機制,這種機制不是通過后天的刺激得來的,而是由先天的基因決定的。
(2)對大語言模型的理解。喬姆斯基認為,人工智能和人類在思考方式、學(xué)習(xí)語言與生成解釋的能力,以及道德思考方面有著極大的差異,如果ChatGPT式的機器學(xué)習(xí)程序繼續(xù)主導(dǎo)人工智能領(lǐng)域,那么人類的科學(xué)水平以及道德標準都可能因此降低。他指出,大語言模型依賴海量數(shù)據(jù)進行工作,實質(zhì)上只不過是一種“剽竊”。辛頓批評喬姆斯基的觀點,認為當(dāng)前的大語言模型有理解能力。辛頓強調(diào),現(xiàn)在人們必須研究如何將人工智能置于人類的控制之下,并投入大量的研究精力。辛頓對人工智能的快速發(fā)展表示擔(dān)憂,認為我們正處在歷史的某個關(guān)鍵點,在接下來的幾年時間里,我們需要弄清楚是否有辦法應(yīng)對這種威脅。特別是考慮到一旦這些人工智能失控,就會接管人類,使人類面臨生存威脅。
(3)方法論。辛頓的觀點代表了數(shù)據(jù)驅(qū)動和神經(jīng)網(wǎng)絡(luò)的方法,這是一種聯(lián)結(jié)主義的方法;而喬姆斯基的觀點則代表了基于規(guī)則的方法,這是一種符號主義的方法。
總的來說,辛頓關(guān)注的是數(shù)字智能,并試圖把數(shù)字智能推廣到人類智能;而喬姆斯基則側(cè)重于基于規(guī)則和符號主義的方法,關(guān)注的是人類智能。他們的爭論有助于推動人工智能領(lǐng)域的研究和發(fā)展。但辛頓批評喬姆斯基的理論是胡說八道,實在是有些過分了。
我們認為,數(shù)字智能學(xué)習(xí)語言的方式與人類學(xué)習(xí)語言的方式并不完全相同。人類的語言習(xí)得有先天的因素,也有后天的因素。而數(shù)字智能依賴海量數(shù)據(jù),并不存在刺激貧乏的問題,沒有先天的因素。不能因為數(shù)字智能不存在刺激貧乏而否認人類語言具有先天的因素;也不能把數(shù)字智能與人類智能等同起來,忽視了二者的差別。
辛頓批評喬姆斯基的是與非
陳國華(北京外國語大學(xué)外國語言研究所)2024年4月8日,有“人工智能教父”之稱的辛頓獲得了尤利西斯獎?wù)?。在頒獎儀式上發(fā)表的獲獎感言里,他對喬姆斯基展開了毫不客氣的批評:“他有一個偏執(zhí)古怪的理論,即語言不是學(xué)會的。他成功地說服很多人相信這一點。但這一看就知道純粹是胡言亂語。語言顯然是學(xué)會的。大型神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)語言,不需要任何先天結(jié)構(gòu),只是從隨機權(quán)重和大量數(shù)據(jù)開始。喬姆斯基卻仍然在說,但這并非真正的語言,這不算數(shù),這是不對的。”這段話包含兩個值得探究的議題。
一、人的語言能力是先天的還是后天學(xué)會的?
這是一個至今仍存在爭議的古老問題。我認為,爭議之所以一直存在,根本原因在于爭論者對于“語言”“能力”“學(xué)”這幾個基本概念的意義缺乏共識。如果我們把“語言”解讀成“說話”,人類顯然并非先天(即一出生)就有語言能力。嬰兒一出生就會哇哇叫;給他一個指頭之類的物體他會抓握;把他放入水里他會屏住呼吸,運動四肢。但我們不會把嬰兒的哇哇叫視為說話,不會把他手握物體視為使用工具,不會把他在水里的屏息運動視為潛泳。凡出生時不會而之后經(jīng)過自身努力才獲得的能力,都是學(xué)會的。因此,語言當(dāng)然是學(xué)會的。但是,所有動物,受其先天生理特征的限制,其學(xué)習(xí)能力都是有限的。鳥類永遠學(xué)不會像人類那樣哺育后代,人類也永遠學(xué)不會像絕大多數(shù)鳥類那樣揮動雙臂飛到天上。在這一意義上,人類的語言能力是人類獨具的一種受發(fā)育階段和各種后天情況制約的生理或先天機能。
如果我們把“語言”分解為口語和筆語(即書面語言)這兩種形式的語言,其獲得方式顯然不同。人類學(xué)說話,是其在嬰幼兒階段的一種本能的自發(fā)行為,只要有人不斷與他進行口頭交流,他就能學(xué)會對方的語言,不管對方說的是哪種語言,也不需要交流者刻意教他該語言詞匯的發(fā)音、意思和用法。人類學(xué)筆語,一般晚于學(xué)口語,而且不是其本能的自發(fā)行為,既需要他人刻意教授相關(guān)文字符號的寫法、讀音、意義、用法,也需要自己刻意學(xué)習(xí)這些知識。我推測,喬姆斯基看到嬰幼兒學(xué)習(xí)母語,既不需要老師像教算術(shù)那樣刻意地教,也不需要學(xué)生像學(xué)算術(shù)那樣刻意地學(xué),為了以示區(qū)別,遂將這一過程稱為“獲得”(acquisition,中文一般譯作“習(xí)得”,英文詞義本身不含“習(xí)”)。用“語言獲得”來形容母語口語的學(xué)習(xí),問題不大;用來指稱任何一種筆語的學(xué)習(xí),都屬于用詞不當(dāng)。
二、究竟什么是語言,語言機器產(chǎn)出的話語和文本是否算真語言?
究竟什么是語言,也是一個古老的問題。如果把語言定義為人類各族群發(fā)展出來的一套意思驅(qū)動(meaning-driven)、遵守常規(guī)(convention-abiding)、基于類推(analogy-based)、彼此不同(distinctfromoneanother)但大致可以互譯(essentiallytranslatableintoeachother)的符號系統(tǒng),把人類的言語行為(verbalbehavior,注意不是speechact)定義為個人為了表達意思,利用某一語符系統(tǒng)或語符處理系統(tǒng)與他人進行的交流;那么,無論人類自身的言語產(chǎn)出或人類所發(fā)明語符處理系統(tǒng)的言語產(chǎn)出,只要滿足這一定義,就可算作語言。換句話說,語言機器模仿人類自然語言產(chǎn)出的人工語言,只要足夠自然,能以假亂真,就是真語言。
目前ChatGPT產(chǎn)出的話語,盡管非常流暢、自然,具有極高的仿真度,但仍未完全達到以假亂真的水平。首先,它無法完全正確理解人類的各種語言產(chǎn)出;其次,它只是對人類的話語做出回應(yīng),不像人類的不同個體那樣,出于表達自己意思的欲望進行言語交流,也不具有個人言語(idiolect)的特定個性或風(fēng)格。只要使用者未提出特定要求,其所輸出話語的風(fēng)格明顯單一,且表達直白而啰嗦。
盡管如此,辛頓還是有足夠的底氣嚴詞批評喬姆斯基,因為他做到了包括喬姆斯基在內(nèi)的所有語言學(xué)家迄今遠遠無法做到的一件事,即讓機器產(chǎn)出了幾乎可以讓人以為是人類自然語言的話語。下一個問題是,語言學(xué)家該怎么辦?
辛頓獲得諾獎引發(fā)的思考
李宇明(北京語言大學(xué))霍普菲爾德和辛頓是人工智能領(lǐng)域的大師,獲得了2024年諾貝爾物理學(xué)獎。辛頓在獲獎前后多次批評喬姆斯基,說他的語言學(xué)理論誤導(dǎo)了好幾代人。辛頓2024年4月接受尤利西斯獎?wù)聲r的獲獎感言在《當(dāng)代語言學(xué)》2024年第4期刊登之后,引起了中國語言學(xué)界的較大反應(yīng),引發(fā)了對語言學(xué)發(fā)展問題的深刻思考。
大語言模型問世不久,就把諾貝爾物理學(xué)獎授予人工智能科學(xué)家,說明頒獎?wù)哒J識到人工智能對當(dāng)今世界發(fā)展的重要意義。的確如此,在數(shù)字時代,所謂新質(zhì)生產(chǎn)力都需要人工智能的加持。
語言智能是人工智能皇冠上的明珠。機器通過大數(shù)據(jù)處理就能“學(xué)會”語言,“獲得”語言智能,這是經(jīng)驗主義、數(shù)據(jù)統(tǒng)計在語言處理上取得的輝煌成績。喬姆斯基語言學(xué)重視理性演繹,重視解釋性,重視規(guī)律的揭示,引領(lǐng)語言學(xué)從經(jīng)驗主義發(fā)展到理性主義。科學(xué)本是尋求因果關(guān)系的,而以數(shù)據(jù)驅(qū)動的大語言模型重視的是統(tǒng)計頻率,據(jù)說沒有使用語言學(xué)的規(guī)則。在語言智能研究的歷史上,規(guī)則驅(qū)動也曾是主流理念,數(shù)據(jù)驅(qū)動也曾經(jīng)身處低谷?,F(xiàn)在有不少學(xué)者預(yù)測,數(shù)據(jù)驅(qū)動將來還會遇到發(fā)展的“天花板”,語言智能需要數(shù)據(jù)與規(guī)則“雙輪驅(qū)動”。由此可以理解辛頓為何會批評喬姆斯基。喬姆斯基做的是“語言科學(xué)”,要解釋的是人類習(xí)得語言的機制;辛頓做的是語言技術(shù),理論上也只是在“技術(shù)科學(xué)”的層面。不同路向、不同追求、不同科學(xué)層面,自然會有分歧、有批評。而且可以預(yù)見這種批評是暫時的,語言智能的發(fā)展不可能總是只采用經(jīng)驗主義路線。
語言學(xué)過去的研究精力主要在語言上,如果用“雞生蛋”做比喻,就是主要精力在研究雞蛋上。喬姆斯基將語言學(xué)引向?qū)δ鸽u的研究,探討母雞生蛋的原理。而人工智能的語言處理,是用“機器雞”生出蛋來。這對語言學(xué)提出了新的課題,即:不僅要研究碳基生命的“肉雞”所生之蛋(自然語言),還要驗證、修正喬姆斯基的原理;同時也需要研究硅基生命的“鐵雞”所生之蛋(機器的語言產(chǎn)品),以及鐵雞的生蛋原理;而且還需要研究這兩種蛋的異同、這兩種雞生蛋原理的異同,從而得出更高層面的語言學(xué)概括。語言學(xué)需要反思,需要開疆拓土,不能老在舒適區(qū)里慣性行走,更不能“抱殘守缺”。
“兩蛋兩雞”的研究,將極大豐富語言學(xué),提升語言學(xué)的水平和影響力。而且也將促使語言學(xué)為語言智能的發(fā)展做出應(yīng)有貢獻,提升語言學(xué)的學(xué)科穿透力。值得關(guān)注的是,當(dāng)前語言學(xué)的社會應(yīng)用場域已經(jīng)十分狹窄,主要有語言教學(xué)(特別是外語教學(xué))、翻譯、社會語言規(guī)劃等。如果能夠在語言數(shù)據(jù)、語言智能等領(lǐng)域找到作用域,也當(dāng)為語言學(xué)開辟一方現(xiàn)代生活的應(yīng)用場域。
親知是人腦語言學(xué)習(xí)的起點
陳保亞(北京大學(xué)中文系)基于辛頓反向傳播算法的人工神經(jīng)網(wǎng)絡(luò)及其大語言模型能夠生成嶄新的合法句子,說明大語言模型已經(jīng)獲得了一套可以生成自然語言文本的規(guī)則,解決了長期以來困惑自然語言處理的根本問題。這一進展對機器人發(fā)展的重要性,猶如自然語言符號系統(tǒng)的出現(xiàn)對人類發(fā)展的重要性。從此機器人可以和真人進行自然語言對話,直接閱讀、繼承和使用人類用自然語言記錄的浩瀚文本知識,并展開進一步的“認識”活動。
大語言模型還證實了哈里斯的分布理論的可行性。哈里斯在《從語素到話語》(1947)一文中提出了一種基于分布理論的發(fā)現(xiàn)程序,即只要對語素的分布做充分的描寫,就能生成全部話語。大語言模型唯一能夠利用的信息正是海量文本中語言片段的分布。大語言模型也證實了非線性回歸數(shù)學(xué)模型的可行性,因為大語言模型本質(zhì)上是不斷調(diào)整參數(shù)權(quán)重,最終回歸出能生成合法句子最佳模型。
不過喬姆斯基對大語言模型的質(zhì)疑仍然值得重視。大語言模型是一種從文本到文本的言知學(xué)習(xí)方式,而不是基于經(jīng)驗學(xué)習(xí)的親知學(xué)習(xí)方式?;谘灾膶W(xué)習(xí)模式需要以大數(shù)據(jù)和超強運算這樣一種強儲算能力為基礎(chǔ)。相比之下,人類學(xué)習(xí)依賴的是弱儲算能力,必須還原出規(guī)則。人類的強項在于從親知和言知的互動中還原規(guī)則。比如漢語人通過觸覺、味覺、視覺等在親知布、木頭、草的過程中獲得“質(zhì)料”的經(jīng)驗,由此類推出“布鞋、木鞋、草鞋”等都是質(zhì)料不同的鞋,這種類推可以平行周遍下去,生成“金鞋、玉鞋、銅鞋、鐵鞋、石鞋”等嶄新組合,由此還原出“質(zhì)料+鞋”的組合規(guī)則。
大語言模型證實了規(guī)則隱藏于分布,但人工神經(jīng)網(wǎng)絡(luò)黑箱如何提取規(guī)則還不清楚。人工神經(jīng)網(wǎng)絡(luò)是模仿動物神經(jīng)網(wǎng)絡(luò)而設(shè)計的,但動物中只有人類會語言,這說明大語言模型并未反映人腦語言學(xué)習(xí)的獨特機制。目前還沒有辦法有效區(qū)分動物神經(jīng)網(wǎng)絡(luò)和人腦神經(jīng)網(wǎng)絡(luò)。大語言模型并非像辛頓所說的那樣揭示了人腦語言學(xué)習(xí)機制,但是為理解人腦神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的差異提供了窗口。人是符號動物,認識人腦最終還是要以語言符號系統(tǒng)的起源、演化和運轉(zhuǎn)為中心。親知活動是人類語言習(xí)得的起點,也是人類不斷進行創(chuàng)造性認識活動的源泉,缺少親知的認識活動是從書本到書本的認識活動,無法超越文本界限。將來機器人如果發(fā)展出類似真人的生物屬性,能夠在親知和言知互動的基礎(chǔ)上完成自然語言學(xué)習(xí),將進一步提供一個從人工神經(jīng)網(wǎng)絡(luò)認識人腦神經(jīng)網(wǎng)絡(luò)的有效窗口。無論是現(xiàn)在的物理神經(jīng)網(wǎng)絡(luò)還是將來的生化神經(jīng)網(wǎng)絡(luò),都為認識人腦語言機制提供了窗口。
這是語言統(tǒng)計技術(shù)的勝利,也是語言天生理論的失敗
袁毓林(澳門大學(xué)人文學(xué)院中國語言文學(xué)系) 語言學(xué)素來跟諾貝爾獎沒有瓜葛。今年的諾貝爾物理學(xué)獎授予人工智能專家霍普菲爾德和辛頓的消息甫一傳出,不僅眾多網(wǎng)友一臉懵:“憑人工智能的成績怎么拿物理學(xué)獎呢?”而且,在貌似無關(guān)的語言學(xué)界也掀起不小的風(fēng)波。雖然從瑞典皇家科學(xué)院的授獎理由“表彰他們通過人工神經(jīng)網(wǎng)絡(luò)實現(xiàn)機器學(xué)習(xí)的基礎(chǔ)性發(fā)現(xiàn)和發(fā)明”上,看不出這跟語言學(xué)有一丁半點兒的關(guān)系;但是,敏銳的語言學(xué)家從諾獎官網(wǎng)對辛頓的采訪中,再次聽到了他批評喬姆斯基的聲音:“大語言模型比很多人想象的更接近于真正的理解,喬姆斯基對語言大模型的理解能力的判斷是錯誤的,大模型的成功駁斥了語言學(xué)家的理論”,云云。
其實,從2022年底ChatGPT爆火帶動人工智能進入大眾視野以來,被譽為“深度學(xué)習(xí)之父”乃至“人工智能教父”的辛頓,已經(jīng)多次在講演中直言不諱地批評喬姆斯基的語言觀。比如,他在《數(shù)字智能會取代生物智能嗎?》(2024年2月19日,牛津大學(xué))中說:“喬姆斯基曾說語言是天賦而非學(xué)會的,這很荒謬?!粋€沒有先天知識的大型神經(jīng)網(wǎng)絡(luò)僅僅通過觀察數(shù)據(jù)就能實際學(xué)習(xí)語言的語法和語義,……”。的確,辛頓領(lǐng)導(dǎo)他的團隊成功地把誤差反向傳播算法引入多層神經(jīng)網(wǎng)絡(luò)訓(xùn)練,開啟了深度學(xué)習(xí)的爆發(fā)式進步,為大語言模型理解和生成自然語言奠定了堅實的基礎(chǔ)。這次辛頓的獲獎,表明了國際權(quán)威學(xué)術(shù)機構(gòu)對他在人工智能領(lǐng)域的杰出貢獻的認可。從自然語言處理的角度,也許可以說:這是基于大規(guī)模語料統(tǒng)計的語言技術(shù)的勝利,也是喬姆斯基語言天生理論的失敗。因為,根據(jù)語言天賦論及與其相應(yīng)的普遍語法理論,人類語言是受到十分繁復(fù)和抽象的規(guī)則(原則與參數(shù))控制的,無法用馬爾可夫過程模型來刻畫,也是機器無法通過統(tǒng)計分析來學(xué)會的。但是,現(xiàn)代大型語言模型卻以“再造人類語言”的方式,能夠以接近于人類的水平來理解和生成自然語言。這種活生生的事實,使得辛頓有底氣在尤利西斯獎?wù)骂C發(fā)儀式(2024年春,都柏林大學(xué)學(xué)院)上說,喬姆斯基誤導(dǎo)了幾代人。無獨有偶,一位早年跟喬氏有過交集的國際知名語言學(xué)家,2023年末訪問澳門大學(xué),在談到喬姆斯基語言學(xué)理論和大語言模型時,也語重心長地對我說:“他把語言學(xué)的方向帶偏了?!痹捝僖舛?,發(fā)人深省。
懷著對于學(xué)術(shù)研究的敬畏心(不誤入歧途)和對于年輕學(xué)子的責(zé)任心(不誤人子弟),趁著大語言模型成為諾獎主角的東風(fēng),認真思考和討論下列問題不僅應(yīng)景而且必要:
(1)基于統(tǒng)計的語言大模型的成功,能不能顛覆語言天生理論及普遍語法理論?
(2)喬姆斯基生成語法理論及有關(guān)主張與研究范式,有沒有把語言學(xué)的方向帶偏?
學(xué)術(shù)的激烈交鋒會促進科技的深入發(fā)展
孫茂松(清華大學(xué)計算機科學(xué)與技術(shù)系) 辛頓對喬姆斯基的批評確實很不客氣,好像有點兒過了;但其實喬姆斯基對大語言模型缺陷的批判,也非常尖銳。兩方面的觀點是針尖對麥芒,火藥味兒十足。
我有一種未經(jīng)認真“考察”的感覺——在基本問題上秉持絕對化觀點,有我無你、誓不兩立,似乎是科學(xué)或技術(shù)大師們的行事常態(tài)。譬如,國際語音識別領(lǐng)域的先驅(qū)、美國工程院院士杰利內(nèi)克(FrederickJelinek)1988年曾經(jīng)放過一句“絕”話:“每當(dāng)我解聘一位語言學(xué)家,語音識別的性能就會提升?!狈从^我輩凡夫俗子,看問題往往比較“全面”“辯證”,既說甲好,也說乙不錯,但甲乙各存不足,以取長補短、相得益彰為宜。這樣一來,卻失去了學(xué)術(shù)態(tài)度上的鮮明性,背后的原因也許是缺乏學(xué)術(shù)洞見和深度。
目前發(fā)生的一個振聾發(fā)聵的事實是:大語言模型(機器)基本具備了比較高的遣詞、造句、寫文章的能力(盡管寫短篇乃至中篇小說還不行),這在人類歷史上稱得上史無前例的技術(shù)成就,是目前為止包括喬姆斯基理論在內(nèi)的全部語言學(xué)研究成果所未曾做到的。從這個意義上說,以喬姆斯基為代表的理性主義范式在與以語言大模型為代表的經(jīng)驗主義范式的競爭中,輸了一分(辛頓提及“喬姆斯基從來沒有提出任何一種有關(guān)語義的理論。他的理論全是關(guān)于句法的”,也不能說完全是偏頗的,因為機器寫不出開放式的流暢句子,很難說它真正掌握了語義)。實際上,訓(xùn)練大語言模型的基本算法策略只需用兩個詞語即可概括出來:一是“下一個詞預(yù)測”,一是機器的“自監(jiān)督學(xué)習(xí)”。貌似很簡約,但簡約不簡單,有一種“大道至簡”的味道。其實其中藏著深刻的計算機理,如“下一個詞預(yù)測”就與“所羅門諾夫歸納”密切相關(guān)。所羅門諾夫是1956年達特茅斯會議(該會議的成果之一是首創(chuàng)“人工智能”這個概念)的主要參加者之一,1964年發(fā)表了長篇論文《歸納推理的形式理論》,對相關(guān)問題進行了數(shù)學(xué)層次上的深入闡述,也重點討論了其與普遍圖靈機及喬姆斯基體系的關(guān)系,構(gòu)成了“下一個詞預(yù)測”策略的形式化基礎(chǔ)。所以辛頓的批評“喬姆斯基卻仍然在說,但這并非真正的語言,這不算數(shù),這是不對的”,是有一定道理的。
但上述情況并不能否認喬姆斯基提出的“語言的先天性理論”及“語言習(xí)得裝置”(languageacquisitiondevice)是一個合理、嚴肅的科學(xué)假設(shè)(雖然我感覺device這個詞有形“器物”的意味濃了一點兒,換成形而上的mechanism之類也許更穩(wěn)妥些)。辛頓說:“大型神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)語言,不需要任何先天結(jié)構(gòu),只是從隨機權(quán)重和大量數(shù)據(jù)開始?!痹谖铱磥恚S機權(quán)重的“大型神經(jīng)網(wǎng)絡(luò)”或可類比成喬姆斯基的“語言獲得裝置”,沒有這個預(yù)設(shè)的“大型神經(jīng)網(wǎng)絡(luò)”,大規(guī)模語言學(xué)習(xí)(訓(xùn)練)是無法完成的。此外,大語言模型在性能表現(xiàn)上確實也存在深刻的不足,如缺乏可解釋性及可信性等。如果能在模型中加入理性主義因素,是再好不過的,也是我們所期待的(雖然目前還遠沒有找到如何有效加入的方法)。
當(dāng)下需要抓緊進行的一個基礎(chǔ)研究問題是,盡快揭示出深藏于大語言模型之內(nèi)的“第一性原理”。近兩年國內(nèi)外已經(jīng)有一些大語言模型與腦科學(xué)、認知科學(xué)交叉的研究工作,如最近MIT發(fā)表的論文《概念幾何:稀疏自編碼器特征結(jié)構(gòu)》。大語言模型的結(jié)構(gòu)及其所有參數(shù)對人類是完全透明的,是個徹頭徹尾的“白箱”;人腦則不然,頂多可算作“灰箱”,研究起來很不直接。不少學(xué)者相信,把大語言模型的內(nèi)在機制及其動力學(xué)搞清楚了,會深切啟發(fā)并有力推動腦科學(xué)、認知科學(xué)的相關(guān)研究(包括人腦中的語言習(xí)得裝置究竟是怎樣的)。
因此,辛頓同喬姆斯基之間學(xué)術(shù)上激烈的“君子之爭”是件好事兒,會引發(fā)我們的思考并促使相關(guān)研究走向更加深刻。最后的結(jié)局不排除可能是這樣的:兩種觀點也許會殊途同歸,相互印證。通過研究大語言模型,我們對人腦“語言習(xí)得裝置”的研究和認識會更加具體化,而這反過來又會啟發(fā)我們設(shè)計乃至重構(gòu)更加有效的大語言模型。
人工智能給語言學(xué)研究帶來重大挑戰(zhàn)和機遇
徐 杰(澳門大學(xué)人文學(xué)院) 當(dāng)代人工智能突飛猛進,日新月異。這無疑給包括當(dāng)代語言學(xué)在內(nèi)的學(xué)術(shù)事業(yè)帶來了深遠影響。在語言學(xué)方面,這些影響有的是挑戰(zhàn),有的是機遇。
首先,人工智能給當(dāng)代語言學(xué)領(lǐng)域的重要分支計算語言學(xué)帶來了重大挑戰(zhàn)。曾幾何時,就連專做自然語言處理的工程師自己也認為,為了達到其語言工程的目的,應(yīng)該依靠而且只能依靠語言學(xué)科學(xué)家對語言規(guī)則的揭示和總結(jié)。而兼做自然語言處理的語言學(xué)家出于自身的專業(yè)訓(xùn)練和學(xué)術(shù)優(yōu)勢,理所當(dāng)然地,無一例外地,走規(guī)則導(dǎo)向的自然語言處理技術(shù)路線。但是誰也沒有料到,當(dāng)今的人工智能工程師居然改道而行,拋開了基于語言規(guī)則的模式而走大數(shù)據(jù)路線,并且在工程學(xué)意義上取得了很大的成功。原本視野之外的白貓異軍突起,居然還真的就捉住了一只大老鼠!這讓黑貓何以自處?在我們看來,面對嶄新的形勢,跨界到自然語言處理工程的語言學(xué)科學(xué)家們其實大可不必過于糾結(jié)焦慮。他們可以要么完全回歸對語言本體進行科學(xué)研究的老本行;要么干脆不理會ChatGPT們現(xiàn)在走的大數(shù)據(jù)白貓技術(shù)路線,鍥而不舍地繼續(xù)沿著自己原定的規(guī)則導(dǎo)向黑貓技術(shù)路線朝前走,其工作成果也許是下一代人工智能的突破口和增長點。久久為功,說不定能捉住更大更多的老鼠!
其次,人工智能給本體語言學(xué)研究帶來了一個重大機遇,那就是新一代人工智能以其強大的數(shù)據(jù)處理能力,給包括語言學(xué)在內(nèi)的所有學(xué)科的科學(xué)研究賦能,大幅度地強化其精度,大幅度地提高其效能。人工智能賦能現(xiàn)代語言學(xué)研究,在目前階段主要體現(xiàn)在兩個方面。其一是助力語言數(shù)據(jù)的收集和整理,語言學(xué)領(lǐng)域有許多分支學(xué)科對語言樣本和語料有很高的依賴性。計量語言學(xué),語言類型學(xué),比較語言學(xué),語料庫語言學(xué),等等,它們的成效主要取決于收集語言數(shù)據(jù)的范圍、數(shù)量和準確度。最早的時候,這些工作基本靠焚膏繼晷、兀兀窮年的手工操作自不必說,即使后來有了計算機技術(shù)的輔助,效能依然有限。在這些方面,今天的新一代人工智能正可以大顯神威。它們不僅可以近乎竭澤而漁式地收集語料數(shù)據(jù),還可以對這些數(shù)據(jù)進行初步的分類、整理和分析。其二是助力語言學(xué)數(shù)據(jù)的收集和整理。語言學(xué)是一門古老而嶄新的學(xué)科,古今中外的研究文獻可以說是汗牛充棟,浩如煙海。今天的年輕學(xué)者很快會發(fā)現(xiàn),自己一入門就被淹沒在各種理論、各類學(xué)說、似是而非的觀點以及對同一類語言現(xiàn)象多種多樣的分析方案中難以自拔,恍如霧里看花。這時大數(shù)據(jù)和深度學(xué)習(xí)技術(shù)就可以進來,對相關(guān)文獻進行收集整理,條分縷析,甚至對不同理論進行初步的鑒定和評價,以便去粗取精,讓人類學(xué)者很快站到學(xué)術(shù)研究的最前沿,如虎添翼,可收事半功倍之神效。
總而言之,人工智能帶來的重大挑戰(zhàn)是對當(dāng)代語言學(xué)領(lǐng)域的一個分支學(xué)科計算語言學(xué)和一種研究范式,也就是對單一語種表面現(xiàn)象的收集、觀察、整理和分析的重大挑戰(zhàn);而對本體語言學(xué)的高層次理論探索則是一個重大機遇。如能把握好這個機遇,科學(xué)規(guī)劃,人機分工,把語料的收集、整理和初步描寫乃至文獻綜述等粗活重活發(fā)包給機器,人類語言學(xué)家則可以集中精力和智慧于理論探索和解釋,中國語言學(xué)整體事業(yè)極有可能在較短時間內(nèi)實現(xiàn)跨越式發(fā)展,由現(xiàn)在的對單一語種的現(xiàn)象描寫轉(zhuǎn)型升級到跨語種、跨古今的高層次理論解釋。這正是我們多年來夢寐以求的美妙愿景!
辛頓對喬姆斯基語言理論批評的三個錯誤
司富珍(北京語言大學(xué)語言學(xué)系/喬姆斯基研究所)辛頓的尤利西斯獎獲獎感言中有3條與喬姆斯基語言理論相關(guān)的關(guān)鍵性批評意見:(1)“語言顯然是學(xué)會的”;(2)“大型神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)語言,不需要任何先天結(jié)構(gòu),只是從隨機權(quán)重和大量數(shù)據(jù)中開始學(xué)習(xí)”;(3)“喬姆斯基從來沒有提出任何一種有關(guān)語義的理論,他的理論都是關(guān)于句法的”。同時,他聲稱他所設(shè)計的語言模型“實際上是人類語言的工作模型”。眾多研究表明,這3條批評性意見代表了他本人以及一批觀點相近的“倒喬”派對于喬姆斯基理論的3個錯誤性理解。
我們倒著來看,先說第三條意見:“喬姆斯基從來沒有提出任何一種關(guān)于語義的理論,他的理論都是關(guān)于句法的”。只要認真閱讀喬姆斯基的原著,就知道這是明顯的錯讀錯解。喬姆斯基在最早期的著作《句法結(jié)構(gòu)》中就曾強調(diào):“形式特征和語義特征之間存在對應(yīng)關(guān)系,這一事實不能忽視。這種對應(yīng)關(guān)系應(yīng)該用一種更為一般的語言理論進行研究,該理論要包括語言形式理論和語言使用理論作為其組成部分……我們發(fā)現(xiàn),這兩個領(lǐng)域之間顯然存在頗具普遍意義的一些關(guān)系……我們應(yīng)該樂意看到語法將語言的句法框架獨立表現(xiàn)出來,讓其能夠支持語義描寫?!?972年,喬姆斯基又出版了《生成語法中的語義學(xué)研究》。語義學(xué)家海姆(Heim)和克拉策(Kratzer)也撰有《生成語法中的語義學(xué)》,從邏輯語義角度為喬姆斯基的語義理論提供了系統(tǒng)的形式化表達。喬姆斯基不同時期的文獻,如著作《句法理論的若干問題》《管轄和約束演講集》和《最簡方案》,論文《論名物化》(Remarksonnorminalization)等,也都有對句法與語義關(guān)系的系統(tǒng)性討論。只不過,喬姆斯基認為“不能把是否合語法的概念等同于是否有意義”,換言之,句法相對于語義是獨立的系統(tǒng)。
再看第二點:“大型神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)語言,不需要任何先天結(jié)構(gòu),只是從隨機權(quán)重和大量數(shù)據(jù)中開始學(xué)習(xí)”。這一結(jié)論可能反映了大語言模型工作的大部分事實,即隨機權(quán)重和海量數(shù)據(jù)在機器學(xué)習(xí)中的重要性,但它也恰恰反映出大語言模型與人類語言工作機制的不同:人類兒童可以在刺激貧乏的情況下習(xí)得母語,并且不管每個人接觸的語言環(huán)境差異多大,數(shù)據(jù)量差異有多大,其句法構(gòu)造方面的語言能力發(fā)展進程及語法完備程度卻幾無差異,這就是所謂語言習(xí)得的柏拉圖問題。它與機器基于海量數(shù)據(jù)存儲與訓(xùn)練的“豪華刺激”機制完全不同。
況且,所謂不需要任何“先天結(jié)構(gòu)”的說法也在一定程度上是個謊言。我們用辛頓自己使得過的方法對ChatGPT4.o進行了提問,結(jié)果表明,語言學(xué)家在大語言模型的數(shù)據(jù)庫中做了大量與語法、語義和語用相關(guān)的標注和校正工作。說不需要“先天結(jié)構(gòu)”,只是說未“顯性”使用喬姆斯基的形式化規(guī)則:盡管“大語言模型繞過了喬姆斯基所倡導(dǎo)的語言規(guī)則的明確形式化,但對語法、意義和語境等語言特征進行建模的需求卻深深植根于語言理論中”。語言學(xué)工作者間接參與給予的語法、語義知識可以與先天結(jié)構(gòu)類比。盡管它與人類語言的天賦性還有本質(zhì)區(qū)別,前者是“人工的”“外在的”,后者則是生物遺傳所決定的,“內(nèi)在的”,具有生物學(xué)的更復(fù)雜本質(zhì),更多謎題尚待更多跨學(xué)科協(xié)作下的探索。
最后來看“語言顯然是學(xué)會的”。大語言模型是數(shù)據(jù)驅(qū)動的模型,其基礎(chǔ)是外部主義的,你可以說它的語言的確是學(xué)習(xí)來的,或者用喬姆斯基的話來說,是一種高科技“剽竊”。而人類語言則是“生成”的,它具有大語言模型所不具備的創(chuàng)造性、刺激貧乏性,甚至“有限性”。比如莫羅(Moro)的幾項基于神經(jīng)影像學(xué)的實驗研究表明,人類語言官能既不能產(chǎn)出“不可能的結(jié)構(gòu)”,也無法理解“不可能的結(jié)構(gòu)”,而同時又可以創(chuàng)造出新的語法表達形式。我們團隊最近也有兩項實證研究,表明大語言模型不僅未展示出其創(chuàng)造性特點,而且在理解人類創(chuàng)新性語法表達形式時會表現(xiàn)出自相矛盾的情況。因此人類語言是“習(xí)得”的,這與機器的語言“學(xué)習(xí)”在機制和表現(xiàn)方面都有質(zhì)的區(qū)別。
語言學(xué)研究融入AI的三種方式
詹衛(wèi)東(北京大學(xué)中文系) 眾所周知,人工智能(AI)有符號主義和聯(lián)結(jié)主義兩條路線。借助下面的示意圖a,以語言智能為例,可以扼要展示兩條路線的核心區(qū)別。
要讓機器能模擬人的語言能力,需要回答一個基本問題:人說話的能力是怎么來的?
圖中右上方的句子樹形結(jié)構(gòu)圖代表了符號主義的回答:人說話的能力來自人腦的語言知識。機器需要像人腦一樣,預(yù)存名詞短語(NP)、動詞短語(VP)、形容詞短語(AdjP)和副詞短語(AdvP)等許多范疇,這些范疇之間形成樹狀結(jié)構(gòu)的組合模式。從根節(jié)點S開始,不斷推導(dǎo),直至葉子節(jié)點,就可以像人一樣,輸出句子了。
圖中左上方的模擬神經(jīng)網(wǎng)絡(luò)圖代表了聯(lián)結(jié)主義的回答:人說話的能力來自人腦的學(xué)習(xí)能力。機器中不需要預(yù)存任何范疇和組合模式知識。機器可以構(gòu)建人工神經(jīng)網(wǎng)絡(luò),通過觀察海量文本的詞語分布,神經(jīng)網(wǎng)絡(luò)可以調(diào)試出優(yōu)化的神經(jīng)元聯(lián)結(jié)參數(shù)(此即學(xué)習(xí)),直至涌現(xiàn)出語言能力,像人一樣,給上句就能接下句。
符號主義是知識驅(qū)動,聯(lián)結(jié)主義是數(shù)據(jù)驅(qū)動。符號主義的挑戰(zhàn)在于:知識從哪兒來?聯(lián)結(jié)主義的挑戰(zhàn)在于:數(shù)據(jù)從哪兒來(以及是否有足夠的算力從數(shù)據(jù)中學(xué)習(xí))?
從目前AI的發(fā)展來看,聯(lián)結(jié)主義AI的性能走在了前面:互聯(lián)網(wǎng)提供了海量數(shù)據(jù),GPU提供了超強算力,推動著聯(lián)結(jié)主義AI飛速發(fā)展。而符號主義AI尚未找到解決知識來源問題的好辦法。
將人類語言學(xué)知識預(yù)裝到計算機中來模擬人類語言智能的實踐效果不佳,原因就是人提供的規(guī)模有限的語言學(xué)知識往往覆蓋不了真實場景中的語言現(xiàn)象。同時機器預(yù)裝語言學(xué)知識后并沒有獲得學(xué)習(xí)能力,難以適應(yīng)現(xiàn)實世界的復(fù)雜變化情況。
由此,語言學(xué)研究如果要融入AI的發(fā)展浪潮,無外乎3種方式。(1)繼續(xù)符號主義路線。在現(xiàn)有知識框架下挖掘更高質(zhì)量、更大規(guī)模的語言學(xué)知識,仍舊以知識驅(qū)動的方式推進AI技術(shù)。但這一路線大致只適用于特定任務(wù)場景(如對精度、可控度要求高的任務(wù)),很難像大模型那樣更具通用性。(2)結(jié)合聯(lián)結(jié)主義路線。在語言學(xué)知識指導(dǎo)下制作高質(zhì)量訓(xùn)練和測試數(shù)據(jù)集,幫助機器基于小樣本數(shù)據(jù)學(xué)習(xí),更高效地提升其語言能力和智能水平。(3)提出一套全新的兼具學(xué)習(xí)能力和符號知識表征的語言學(xué)理論框架,實現(xiàn)可解釋的AI(缺乏可解釋性是聯(lián)結(jié)主義的先天缺陷:端到端的訓(xùn)練不關(guān)注中間推導(dǎo)過程)。
前兩個方式比較務(wù)實,語言學(xué)者可以發(fā)揮自己既有的語言學(xué)優(yōu)勢,積極擴大語言學(xué)知識范圍,將語言學(xué)知識轉(zhuǎn)化為計算機可用的資源(知識庫或數(shù)據(jù)集),助力AI發(fā)展。第三個方式志存高遠,非常有挑戰(zhàn)性,如能實現(xiàn),將意味著語言學(xué)理論研究和AI范式的重大突破。
辛頓沒能跳出“中文屋”
完 權(quán)(中國社會科學(xué)院語言研究所) 雖然辛頓絲毫不留情面地批判了喬姆斯基,但是我們不必妄自菲薄,以為語言學(xué)就要被人工智能(AI)取代了。實際上,我覺得我們依然有價值,甚至可以反過來給辛頓一些建議。
辛頓在演講中說:“大語言模型的工作方式,以及我們?nèi)祟惖墓ぷ鞣绞骄褪?,我們看到很多文本,或聽到很多詞串,進而獲知詞的特征,以及這些特征之間的交互作用。所謂理解,就是這么回事。神經(jīng)網(wǎng)絡(luò)模型正在以與人類完全相同的方式做理解?!钡?,我們真的就是這么理解的嗎?我覺得還不夠。
確實,這種方式,非常接近我們認知功能學(xué)派推崇的usage-basedlinguistics,基于使用的方式,簡而言之,用多了,就會了?;谑褂玫难芯糠ǖ幕炯僭O(shè)就是,語言知識是在聯(lián)想網(wǎng)絡(luò)中組織起來的,關(guān)聯(lián)網(wǎng)絡(luò)對使用頻率敏感,在語言使用中高頻的語例引起說話人心智中的固化,形成獨立表征。所以,認知語言學(xué)家對辛頓的說法,必然是舉雙手歡迎。但是,辛頓對意義的理解,還是缺了那么一些。
這就來到了我的主要觀點——辛頓沒能跳出“中文屋”。
塞爾(JohnSearle)1980年提出一個“中文屋”問題。他的目的是要反對圖靈測試,他認為一個計算機程序通過圖靈測試并不意味著它具有智能,至多只能是對智能的模擬。為了論證自己的觀點,塞爾提出了這樣一個思想實驗。
想象一個從小說英語、完全不會中文的人,被鎖在一個房間里。房間里有一盒漢字卡片和一本規(guī)則手冊。這本手冊用英文寫成,告訴人操作漢字卡片的規(guī)則,但并沒有說明任何一個漢字的含義。它不是漢英字典!只是一個操作特定漢字卡片的規(guī)程,本質(zhì)其實是一個程序。現(xiàn)在,房間外面有人向房間內(nèi)遞送紙條,紙條上用中文寫了一些問題,房間里的人只要嚴格按照規(guī)則操作,就可以用房間內(nèi)的漢字卡片組合出一些詞句,完美地回答輸入的問題。于是,這個人提供的輸出,就通過了關(guān)于“理解中文”這個心智狀態(tài)的圖靈測試。
然而,塞爾指出,這個人其實仍然一點兒也不會中文。更進一步,無論是在這個房間中,還是這個房間整體,都找不到任何理解中文的心智存在。因此,通過圖靈測試并不意味著擁有智能或者心智。不是擁有,只是功能上的模擬。就好像,假肢不是真胳膊。
塞爾真是了不起!現(xiàn)在看來,大語言模型展現(xiàn)出的強大功能,本質(zhì)上依舊是高仿的假肢。大模型依舊是“中文屋”。有人對目前前沿的所有GPT系統(tǒng)模型做了綜合性測試,發(fā)現(xiàn)沒有哪個模型不是仍舊處于“中文屋”的階段。判斷的標準有這樣幾個。(1)復(fù)雜的語義解析,如理解情緒、視覺體驗、隱喻、故事背景等。(2)情境推理,比如完成這樣的情景推理任務(wù):“遮陽傘是否適用于下雨天?”這需要世界知識。(3)創(chuàng)造性生成,也就是看它是否真正擁有與人類相似的想象力和認知創(chuàng)造性。我常常想,我給大模型輸入我正在寫的論文的前半段,它能不能給我生成后半段?答案不言自明。(4)自我意識與反思,這就是很多科幻小說里的機器人覺醒,比如電影《終結(jié)者》里的天網(wǎng)SKYNET覺醒后開始毀滅人類。
現(xiàn)在看來,目前的大模型遠遠沒有達到能夠覺醒的水平。所以我們不必擔(dān)心,SKYNET永遠不會派出T800。辛頓對AI的擔(dān)心,目前看來,是多余的。因為被困在“中文屋”里,是永遠造不出T800的,除非他愿意聽一聽我們認知語言學(xué)者的建議。
大家知道,認知語言學(xué)的背后,是體驗哲學(xué),是肉身哲學(xué),是心寓于身的哲學(xué)。我們能夠理解語言的意義,是因為我們從誕生起就在語言中感知。
我們要怎樣來幫辛頓跳出“中文屋”?答案其實薩丕爾100年前就在《語言論》里說過了,就是意義要從語言以外去理解,依靠經(jīng)驗。AI需要有人的人生經(jīng)驗,才能真的有理解?,F(xiàn)在圖像識別還不能叫作圖像感知,比方說,它識別出來這是貓了,就真的懂得這是貓嗎?其實還是不懂的。我們是怎么認識貓的?依靠經(jīng)驗!我們不只是看了很多貓,而且還摸過、抱過、聽過,討厭過或喜歡過,跟貓在一起有故事。這才是意義。在我看來,現(xiàn)在的AI離理解意義還差十萬八千里。要先有感知,才有認知,再有經(jīng)驗,再形成概念,才到語言,這就是意義的整體論。辛頓需要語用整體論幫助他,幫助AI理解意義。
我希望辛頓們最終能跳出“中文屋”,帶給我們更好的AI。到那個時候,再像現(xiàn)在這樣做語言學(xué),恐怕真的要下崗了。我希望這事兒發(fā)生在我退休之后!
辛頓與喬姆斯基之爭中的三個事實
王 偉(中國社會科學(xué)院語言研究所) 這次辛頓得諾貝爾物理學(xué)獎,引起全球廣泛關(guān)注。因為這個契機,辛頓今年4月在都柏林大學(xué)學(xué)院獲尤利西斯獎?wù)聲r嚴厲批評喬姆斯基的演講(我有幸獲得辛頓的授權(quán),在《當(dāng)代語言學(xué)》2024年第4期發(fā)表了陳國華教授翻譯的演講全文),引起了更多語言學(xué)同行的重視。持有不同立場的學(xué)者,對此爭議紛紜,這種情況是可以理解的。不過,我認為,在這個問題上,區(qū)分客觀事實和主觀態(tài)度,是最重要的事情。這一點,對于剛剛或即將進入語言學(xué)這個專業(yè)的年輕人來說,尤為關(guān)鍵。
所有這些爭議的源頭,是這樣一個重要的事實:以辛頓為代表的人工智能領(lǐng)域的科學(xué)家,找到一種用大語言模型開發(fā)人工神經(jīng)網(wǎng)絡(luò)系統(tǒng)的方法,即通過“喂”給系統(tǒng)超級巨量的真實語言數(shù)據(jù),訓(xùn)練系統(tǒng)獲得生成合乎語法的句子的能力,并且勝任與人類持續(xù)對話的任務(wù)。以ChatGPT為代表的這類系統(tǒng),在運用語言方面表現(xiàn)出前所未有的高水平,比如可以完美分析出對話者提供的笑話為什么好笑,“笑點”何在,等等。
第二個重要的事實是,至今沒有任何人類語言學(xué)家能夠開發(fā)出這樣的語言生成系統(tǒng),令它只生成合乎語法的句子,而絕不會生成不合乎語法的句子。“任何人類語言學(xué)家”,當(dāng)然也包括主流語言學(xué)家喬姆斯基。
無論如何指出ChatGPT的缺點,或者試圖證明它擁有的根本不是人類的語言能力,都無法改變以上事實。我們知道,“深藍”系統(tǒng)在國際象棋方面戰(zhàn)勝了所有人類棋手,AlphaGo則在圍棋方面打遍天下無敵手。毫無疑問,這些計算機系統(tǒng)獲得下棋能力的方法,當(dāng)然跟人類不同。它們跟ChatGPT一樣,都是靠“暴力”運算來實現(xiàn)各自的能力。但是,我們能因此否認計算機系統(tǒng)擊敗人類棋手這一事實嗎?當(dāng)然不能。
第三個事實,與喬姆斯基有關(guān)。ChatGPT橫空出世之初,喬姆斯基率先發(fā)難,攻擊它“剽竊”。現(xiàn)在我們知道,他說的根本不是事實,這只是他的主觀態(tài)度。他顯然只是在發(fā)泄個人的不滿情緒。道理很簡單,如果我們了解一下ChatGPT的原理,便會知道,這些系統(tǒng)并不儲存任何具體的句子。它的“本事”,是可以學(xué)習(xí)從文本中提取詞的特征,以網(wǎng)絡(luò)形式通過數(shù)量驚人(千億數(shù)量級)的參數(shù)來表征這些特征之間的相互作用,并依據(jù)這些知識,來預(yù)測下一個詞的特征。而預(yù)測下一個詞(原文為token,在寬泛意義上與“詞”大體相當(dāng)),是辛頓在40多年前就提出的人類生成句子的“第一性原理”。ChatGPT這樣的系統(tǒng),其實是一大堆以網(wǎng)絡(luò)形態(tài)存在的參數(shù),而不是迄今為止人類曾經(jīng)說過的所有句子。如果依據(jù)這樣的知識系統(tǒng)生成合乎語法的句子,是一種“剽竊”,那么世界上就沒有不剽竊的人,包括喬姆斯基自己在內(nèi)。因為喬姆斯基等于是在說,學(xué)習(xí)就是剽竊。
前年年底ChatGPT崛起,令我大受震撼。我當(dāng)時決定不揣淺陋,以業(yè)余愛好者的身份觀察、學(xué)習(xí)、判斷,試圖窺見這一事件對中國語言學(xué)的意義。我先后在多所大學(xué)和學(xué)術(shù)機構(gòu)分享自己的觀察和分析,得到大量反饋。令我印象最深刻的是,外語、翻譯等專業(yè)學(xué)子的焦慮情緒。他們害怕的是,自己所學(xué)的專業(yè),將在日益強大的人工智能的威脅下,變得一文不值。我當(dāng)時對他們的建議是,主動擁抱人工智能工具,盡快學(xué)習(xí)并掌握這一利器,并把自己的專業(yè)知識和機器擅長的能力結(jié)合起來,只有這樣才有希望避免被徹底淘汰。借此機會,我仍然堅持當(dāng)初的建議,同時還要鼓勵這些年輕人,尤其是上文所說的“剛剛或即將進入語言學(xué)這個專業(yè)的年輕人”,認清以上3個事實,看清歷史發(fā)展的趨勢,在獨立的理性思考基礎(chǔ)上,做出明智的選擇。
人、人腦與人工智能
劉 暢(中國人民大學(xué)哲學(xué)院) 我想提兩個問題。
第一,語言活動中囊括的種種行為反應(yīng),如規(guī)則學(xué)習(xí)、語義理解、符號識別等,其真正的主體是什么?
對此有兩類回答。一類是還原論的進路,認為(或默認)語言活動的主體是人腦。另一類是反還原論的,也是我所傾向的進路,主張人腦不是主體,人才是主體——是你我在說話,在交流,在思考,而不是你我的大腦。
我愿引入一組區(qū)分:自主的反應(yīng)和自發(fā)的反應(yīng)。語言活動是典型的自主反應(yīng)。我要說些什么,要怎么說,原則上是由我自主控制的。對于我自主所做的事情,我通常不經(jīng)觀察就知道我做的是什么,我這樣做的理由是什么。自發(fā)的反應(yīng)卻并非如此,比如免疫系統(tǒng)的反應(yīng)。人類的免疫系統(tǒng)能偵測到病原體的入侵,并自發(fā)地做出一系列復(fù)雜精妙的免疫反應(yīng)。但所有的免疫反應(yīng)都是在無意識層面進行的,無需基于行動理由的理解,也無法自主地加以控制。當(dāng)然,我可以自主地借藥物來調(diào)節(jié)免疫系統(tǒng)的反應(yīng)。但我能自主控制的是我服用藥物的動作,而不是我的免疫反應(yīng)。
只有自主的反應(yīng),才屬于狹義上“我所做的事情”。問:“你在干啥呢?”答:“我在消化食物?!边@是個玩笑,因為“消化食物”這樣的反應(yīng)顯然不屬于正常意義上“我所做的事情”。與其說我在蠕動腸道,不如說是腸道自己在蠕動。
那么,人腦的反應(yīng)——包括單個神經(jīng)元的反應(yīng),以及整個神經(jīng)網(wǎng)絡(luò)的反應(yīng)——是自主的,還是自發(fā)的?我認為答案是顯而易見的:大腦的所有反應(yīng)都是自發(fā)的,不是自主的。就像我無法控制白細胞的產(chǎn)生一樣,我也無法控制腦神經(jīng)元的激活。人腦的自發(fā)反應(yīng),構(gòu)成了人的自主反應(yīng)的神經(jīng)生理基礎(chǔ),不過,它們?nèi)允莾深惒煌瑢用娴幕顒?。是人腦在功能層面成就了人的思想、認知,而不是人腦自己在思想、在認知;正如是我借助眼睛看,而不是眼睛自己在看。
我們可以把有關(guān)意識主體的追問,轉(zhuǎn)化為有關(guān)行為方式的追問。“人”與“人腦”的不同,歸根到底,是這兩類行為反應(yīng)方式的不同。一個行為反應(yīng)是以自知的、可控的、有意識的、有邏輯的方式做出的,還是不自知、不可控、無意識、無邏輯的,往往存在顯見的、系統(tǒng)的差異。我們能清晰地分辨兩者,而不必訴諸某種“靈魂實體”的預(yù)設(shè)。以自主方式做出的反應(yīng),就是有意識主體參與的反應(yīng),“我”的反應(yīng);而無意識主體參與的反應(yīng),則是自發(fā)的。
第二,如果人工智能成功模擬了人類神經(jīng)系統(tǒng)的自發(fā)反應(yīng)機制,這是否意味著它擁有了與人類相當(dāng)?shù)母惺?、理解、認知的能力?比如,是否應(yīng)當(dāng)認為ChatGPT具備了語言學(xué)習(xí)的能力?
辛頓的回答顯然是肯定的。實際上,他所有的表述都建立在對這一立場認可的基礎(chǔ)上。說他“默認”了這一立場或許更準確些,因為辛頓似乎并沒考慮過要對此給出任何辯護或反思。
但我相信,問題的正確答案應(yīng)當(dāng)是否定的。如果說,一個人類主體具備的種種自主能力,本就不能一對一地還原到這個人的腦神經(jīng)網(wǎng)絡(luò)上;那么,一套人工智能哪怕完美復(fù)刻了人類的腦神經(jīng)網(wǎng)絡(luò),也一樣不等于就具備了任何與人類相當(dāng)?shù)淖灾髂芰ΑKM的,只是人的自主活動得以實現(xiàn)的功能性基礎(chǔ),而不是自主活動本身。
我贊同完權(quán)老師的判斷——“中文屋”依舊未被打破。我的觀點更進一步:塞爾的“中文屋”,原本的著眼點是對語義的理解能否還原為對句法規(guī)則的掌握;不過,假若不論語義的學(xué)習(xí)還是句法的學(xué)習(xí),都只在自主、有意識的層面才是可能的,那么,人工智能的首要問題就不在于如何從句法上升到語義,而在于它壓根不懂語義,也不懂句法。人工智能沒有認知能力,沒有規(guī)范能力,它只是具有認知、規(guī)范能力的人類所動用的一個技術(shù)工具而已。
“人工智能”的名號往往給人一種錯覺,仿佛它能與人類智能并駕齊驅(qū),是智能實現(xiàn)的另一條可能路徑。這在很大程度上掩蓋了“人工智能”作為技術(shù)工具的實質(zhì)。人工智能的發(fā)明本是用以替代人類勞作的,而不是用以替代人類的;盡管像其他技術(shù)工具一樣,對它的不當(dāng)處置,也可能毀滅人自身。