【摘要】人工智能的發(fā)展推動社會科學研究在廣度與深度上產(chǎn)生了質的飛躍,基礎研究、知識創(chuàng)造將更加呈現(xiàn)跨學科交叉的趨勢,形成了人工智能驅動的社會科學研究范式變革,對社會科學的知識生產(chǎn)和傳播產(chǎn)生了革命性影響。一方面,人工智能以其強大的數(shù)據(jù)和算法全面賦能社會科學的發(fā)展;另一方面,人工智能也顯著改變著人類的行為和決策方式,引發(fā)了道德、倫理、隱私、規(guī)范等新的社會問題,使人工智能治理成為社會科學的重要研究對象。當前,有必要在闡釋人工智能賦能社會科學的深層次機理的基礎上,剖析人工智能時代社會科學的“變”與“不變”,并就進一步促進人工智能與社會科學的融合發(fā)展提出對策建議。
【關鍵詞】人工智能? 社會科學研究? 賦能機制? 人工智能治理? 未來展望
【中圖分類號】TP18/G642.3? ? ? ? ? ? ? ? ? ?【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2024.04.012
人工智能與經(jīng)濟社會發(fā)展的深度融合,使人工智能的應用從科技領域延伸至社會科學領域,推動了人工智能驅動的社會科學范式變革,對社會科學的知識生產(chǎn)和傳播產(chǎn)生了革命性影響。一方面,人工智能為社會科學研究提供了新的工具、方法和手段,基礎研究、知識創(chuàng)造將更加呈現(xiàn)跨學科交叉的趨勢,衍生出了計算社會科學、計算法學、數(shù)字人文等新的學科和學術增長點。另一方面,人工智能重構著人類的生產(chǎn)、生活和思維方式,顯著改變著人類的行為和決策模式,形成了新的社會形態(tài),引發(fā)了道德、倫理、規(guī)范等領域新的社會問題,使人工智能自身成為了社會科學重要的研究對象。把握人工智能對社會科學的影響,不僅要看到其帶來的積極效果,也要充分認知其所引發(fā)的新的問題,理性研判未來人工智能賦能社會科學的發(fā)展趨勢,確保其符合人類社會的基本倫理和價值,并充分尊重人在知識創(chuàng)造中的主體作用。
人工智能賦能社會科學的底層邏輯
人工智能尤其是生成式人工智能(AIGC)的快速更新迭代,以其強大的多模態(tài)數(shù)據(jù)處理能力,讓人們對人工智能的總結、提煉、抽象、推理、創(chuàng)作等能力充滿了憧憬。大語言模型(LLM)可以對文本、聲音、圖像、視頻等多模態(tài)大數(shù)據(jù)進行強有力的數(shù)據(jù)處理、信息提取與建模分析,其生成的內容也可以成為社會科學研究的重要素材。例如,美國OpenAI公司研發(fā)的ChatGPT針對互聯(lián)網(wǎng)或特定大型文本數(shù)據(jù)集進行訓練,從這些訓練數(shù)據(jù)中學習語言模式、語法、上下文和語義,然后運用訓練出的算法處理和生成文本內容,據(jù)此完成語言翻譯、文本摘要、情感分析、聊天和文本寫作等任務。
從本質上講,人工智能大模型是在對人類現(xiàn)存知識和經(jīng)驗進行機器學習和訓練的基礎上,生成強大的算法和模型來揭示與關聯(lián)人類現(xiàn)存知識和經(jīng)驗。ChatGPT就是一個機器學習模型,基于給定的訓練數(shù)據(jù),根據(jù)某些單詞或單詞序列一起出現(xiàn)的概率來生成文本,本質上并不是理解文本數(shù)據(jù),而是在根據(jù)概率預測文本數(shù)據(jù)。[1]大模型巨大的語料庫和超乎尋常的算力,共同支撐了其強大的知識揭示和關聯(lián)能力,使其擁有了更加精準的預測能力,這是人類所不可比擬的。大模型的預測能力體現(xiàn)在對人類現(xiàn)存知識和經(jīng)驗的識別精準度,以及在此基礎上進行預測和研判的能力上。以文獻學為例,人工智能將以往被分割和隔絕的文獻資料重新連接,最大程度地促進文獻關聯(lián)與知識發(fā)現(xiàn),改變了學者對文獻、知識的認識路徑,促進了學術研究、知識生產(chǎn)的快速迭代和更新(劉石、李飛躍,2021)。在人工智能的幫助下,研究人員可以通過大數(shù)據(jù)和算法,更好地理解社會運行規(guī)律、解決社會現(xiàn)實問題、預測社會未來趨勢。其作用至少體現(xiàn)在如下三個方面。
第一,為社會科學研究提供強大的新工具和新手段。人工智能大大強化了以數(shù)據(jù)為基礎的社會科學實證研究范式。大語言模型如ChatGPT使用了海量大數(shù)據(jù)甚至是整個互聯(lián)網(wǎng)文本數(shù)據(jù),對文本、聲音、圖像、視頻等多模態(tài)大數(shù)據(jù)進行數(shù)據(jù)處理、信息提取與建模分析,可以有效支撐文獻綜述、理論建構、研究設計、收集數(shù)據(jù)、分析數(shù)據(jù)、文本撰寫等研究任務。大模型的基礎數(shù)據(jù)庫匯聚了世界上盡可能多的存量知識,雖然不能說是全樣本,但已經(jīng)是關于人類知識的非常大的樣本。從知識樣本接近全樣本量的角度看,大模型給出的答案可能讓人類個體無限接近理性。
人工智能也為文獻研究、文化遺產(chǎn)保護和活化利用等提供了更加高效便捷的手段。數(shù)字技術推動了古籍整理和利用的轉型升級,創(chuàng)新了文獻生產(chǎn)方式、變革了文本呈現(xiàn)形態(tài)、拓展了文獻獲取方式,對于古籍整理、保護和傳承發(fā)揮了至關重要的作用(劉石、李飛躍,2021)。2021年9月,國際儒學聯(lián)合會在杭州、臺北兩地連線,向臺灣民間機構云贈送《文瀾閣四庫全書》,這樣一部皇皇巨著通過數(shù)字化整理,可以被更廣泛、更便捷地檢索和使用(楊永恒,2023)。清華大學郭黛姮教授團隊在查閱歷史資料基礎上,借助虛擬現(xiàn)實及增強現(xiàn)實技術,構建了“數(shù)字圓明園”,再現(xiàn)了圓明園昔日的恢弘場景。
第二,促使社會科學研究的數(shù)據(jù)來源發(fā)生革命性轉變。傳統(tǒng)社會科學研究往往通過問卷調查、行為實驗、半結構化訪談、多主體建模、參與式觀察等方式收集數(shù)據(jù),獲得個人、群體、文化族群及其動態(tài)演進特征的概括性描述。人工智能可以幫助研究者及時快速收集大規(guī)模數(shù)據(jù),從中提取有價值的信息并進行分析。大語言模型利用深度學習來捕捉文本和語言中的復雜關系,包括上下文語境和準確語義,甚至能夠捕捉諷刺、隱喻或情感等細微的語言細節(jié)(Bubeck et al., 2023)。這種超強的語言識別能力可以幫助研究者快速有效地收集和處理包括文本和語音在內的多模態(tài)數(shù)據(jù)。
人工智能也可以成為研究者干預控制下的數(shù)據(jù)收集主體,向不同研究對象(可以是人或人工智能)采集數(shù)據(jù)。通過設置適當?shù)臈l件,大語言模型能夠準確模擬社會科學研究中的人類行為反應,從而取代實驗對象或受試人群進行數(shù)據(jù)收集(Argyle et al., 2023)。研究人員也可以利用模擬參與者的數(shù)據(jù)形成假設,然后在受試人群中進行實證檢驗(Park et al., 2023)。相對于傳統(tǒng)的便利樣本,大語言模型能夠創(chuàng)建與訓練語料同樣多樣化的樣本,可以比傳統(tǒng)數(shù)據(jù)采集方法更為準確地描述人類行為和社會動態(tài)。
第三,顯著提升了人類對社會問題的分析和洞察能力。與傳統(tǒng)的抽樣調查方法相比,人工智能大模型通過對大規(guī)模數(shù)據(jù)集的預訓練,可以汲取大量的人類經(jīng)驗和觀點,進而提升研究結論的可推廣性(Grossmann et al., 2023)。研究人員也可以通過人工智能情景模擬,認識政策干預的潛在影響,從而形成更有效的整體方案?;诙嘀黧w建模的大語言模型(LLM-ABM)可以在深度學習的基礎上,總結和推導各類決策或行為規(guī)則,模擬具有特定特征和信仰的個體之間的互動(Park et al., 2023)。例如,捕捉不同理論學派或意識形態(tài)派別的觀點,針對特定案例如古巴導彈危機,模擬多決策主體的參與情形,評估可能發(fā)生的各種“假設”情景,并針對不同情景進行決策推演(Tetlock et al., 1991)。
大語言模型尤其適合應用于涉及暴力的高風險或者明顯不能有大量人類個體參與的情形。在類似情形的研究中,可以先運用大語言模型在模擬人群中進行測試,為擬開展的研究提供信息支撐,例如,研究虛假信息在社交網(wǎng)絡中的傳播模式;或者通過創(chuàng)建侵犯者和受害者原型,來研究在線性侵犯行為(Pennycook et al., 2020)。對于這些難度較大和風險較高的情形,因為存在道德風險,很難進行自然實驗,而且可能對人類參與者造成傷害,因此利用大語言模型等人工智能來輔助研究是有效的替代方案。
人工智能給社會科學帶來的影響
研判人工智能給社會科學帶來的影響,可以從兩個視角思考。一方面,人工智能帶來了社會科學研究范式的變革,催生了一批新的學科和學術增長點;另一方面,人工智能引發(fā)了道德、倫理、規(guī)范等領域新的社會問題,使人工智能自身成為社會科學重要的研究對象。
人工智能帶來的社會科學研究范式變革。普林斯頓大學教授、著名社會學家謝宇指出,不斷發(fā)展的人工智能使人文社科研究出現(xiàn)全新研究范式,改變了過去社會科學相對單一的研究視角,讓不同領域的專家共同解決復雜的社會問題。[2]人工智能引發(fā)的社會科學研究范式變革,主要體現(xiàn)在如下三個層面。
第一,從理論驅動轉向數(shù)據(jù)和算法驅動。傳統(tǒng)的社會科學研究主要是基于學者的觀察和實驗提出理論假設,通過收集數(shù)據(jù)對假設進行實證,從而推動理論的不斷發(fā)展和演進,這實際上是一種理論驅動的研究范式。人工智能的數(shù)據(jù)思維、算法思維為社會科學研究帶來了新的思維范式和方法論指引,拓展了社會科學的研究樣態(tài)、觀察視域和運用場景,促使社會科學研究從“小數(shù)據(jù)輔助”向“大數(shù)據(jù)發(fā)現(xiàn)”模式轉變,催生了數(shù)據(jù)和算法驅動的社會科學研究。
這種思維方式在底層邏輯上與以實證研究為主流的傳統(tǒng)范式是一致的,但克服了后者的一些顯著缺陷。實證研究是以數(shù)據(jù)為基礎,運用統(tǒng)計學方法推斷變量之間的邏輯關系尤其是因果關系,從而揭示社會運行規(guī)律(洪永淼、汪壽陽,2023)。在實證策略上,傳統(tǒng)實證研究構建理論模型,用盡可能少的變量解釋盡可能多的數(shù)據(jù)關系,從復雜社會現(xiàn)象中捕捉主要矛盾。由于理論驅動建立在各種假設基礎上,因此結論常常受到所假設理論模型的限制(Breznau et al., 2022, PNAS)。[3]研究表明,基于同一組數(shù)據(jù),不同人使用不同的理論模型會得到不同的結論,這也是理論驅動的缺陷。
數(shù)據(jù)驅動的人工智能大模型無需假設具體的理論模型,而是基于對大規(guī)模存量數(shù)據(jù)和知識的深度挖掘和訓練,試圖捕捉大數(shù)據(jù)中的所有可能性,從大數(shù)據(jù)中獲得變量之間的邏輯關系,以得到更加穩(wěn)健的結論,這實際上克服了理論驅動范式下研究結論可能會因理論模型的改變而變化的缺陷(洪永淼、汪壽陽,2023)。
第二,推動社會科學學者轉向更高層次、更具創(chuàng)新的研究活動。過去的社會科學研究往往是以問題導向、好奇心驅動,尋求對復雜社會現(xiàn)象的理論解釋,為拓展人類認知世界的前沿邊界作出邊際貢獻。人工智能大模型出現(xiàn)后,人類可以更多地依賴大模型認識世界,這有利于把學者從傳統(tǒng)思維框架下的簡單重復工作中解放出來,使其轉而關注更重大的理論和現(xiàn)實問題,從而顯著提升了人類認識世界的能力。學者可以把資料收集、文獻梳理、數(shù)據(jù)分析、文本撰寫等工作交給人工智能去完成,自身的精力則主要聚焦在提出問題、構建理論等更加復雜、更具創(chuàng)新性,也更難以被人工智能取代的研究活動上。在大模型的賦能下,理論會從孤立的、單一的理論變成結構性、系統(tǒng)性的理論,成為對整個社會系統(tǒng)的近似描述,這無疑將大大推動理論創(chuàng)新,促使以往的點狀創(chuàng)新向系統(tǒng)集成創(chuàng)新轉變。
第三,促進文理工學科交叉,打破傳統(tǒng)社會科學的學科邊界。人工智能的發(fā)展具有一定的顛覆性,推動社會科學研究在廣度與深度上產(chǎn)生了質的飛躍,使跨學科、多視角、集成式的社會科學研究成為可能。人工智能時代的基礎研究、知識創(chuàng)造將更加呈現(xiàn)跨學科交叉的趨勢,同時也衍生出了一些新的學科方向,如計算社會科學、計算法學、計算政治學、智能傳播學、數(shù)字人文等。2021年底,教育部辦公廳公布了首批教育部哲學社會科學實驗室名單,要求實驗室充分利用現(xiàn)代信息技術和先進實驗手段,推進學科交叉融合,創(chuàng)新研究范式和方法。首批公布的9家試點實驗室(北京大學語言學實驗室,清華大學計算社會科學與國家治理實驗室,中國傳媒大學國家輿情實驗室,中國政法大學數(shù)據(jù)法治實驗室,南開大學經(jīng)濟行為與政策模擬實驗室,吉林大學生物考古實驗室,合肥工業(yè)大學數(shù)據(jù)科學與智慧社會治理實驗室,武漢大學文化遺產(chǎn)智能計算實驗室,上海師范大學、上海市教育科學研究院教育大數(shù)據(jù)與教育決策實驗室)[4]基本上都具有跨學科特點,幾乎都把計算技術和人工智能作為重要的工具和手段。
正如劉石、李飛躍(2021)指出的,人工智能推動人文社會科學形成了“數(shù)據(jù)驅動、實證優(yōu)先”的大數(shù)據(jù)思維,帶動學術研究實現(xiàn)從片面性到整體性、從演繹式到歸納式、從因果性到相關性、從解釋性到求是性的轉變,給人文社科學者帶來了認知方式、學術理念和研究范式的變化,并有可能發(fā)現(xiàn)此前無從發(fā)現(xiàn)的現(xiàn)象、提出此前難以提出的設想、開展此前難以開展的工作、解決此前不可能解決的問題。
人工智能成為社會科學重要的研究對象??萍几锩爱a(chǎn)業(yè)變革在造福人類的同時,也會帶來潛在的風險和威脅,有關人工智能技術應用的政治、經(jīng)濟和社會影響及其規(guī)制的研究日益成為人文社科學者關注的重要議題?!叭斯ぶ悄苤浮?、圖靈獎得主約書亞·本吉奧(Yoshua Bengio)和杰弗里·辛頓(Geoffery Hinton)曾經(jīng)指出,“人工智能的威脅并不是虛構出來的。大模型的樣本量如果足夠大,會有糾偏功能。但它也會產(chǎn)生更大的極化效應,身處其中的人類其實沒有太多的選擇權,從眾效應肯定會進一步放大”。[5]
第一,人工智能深刻改變社會的基本形態(tài)與運行模式。[6]人工智能等數(shù)字技術的廣泛應用,推動形成了與現(xiàn)實物理世界并存的虛擬數(shù)字世界。人們在虛擬世界通過虛擬身份完成人與人之間、人與機器之間的交互,也會產(chǎn)生對自身和自身關系的構建訴求,使其中的生產(chǎn)生活方式、社會關系與交往互動的范式、規(guī)范等發(fā)生重構,衍生出基于數(shù)字空間的新興文化形態(tài)(楊永恒,2023)。硬件技術、算法規(guī)則和人的行為共同建構著虛擬數(shù)字世界,其中,硬件技術支撐了數(shù)字世界的物理構建,提供了人機交互接口;基于算法的軟件技術則提供了數(shù)字世界的社會運行規(guī)則和秩序,而人類在數(shù)字空間的行為交互,則是對虛擬數(shù)字世界持續(xù)的人文塑造(楊永恒,2023)。在數(shù)字虛擬世界,個體和社會的存在形式、運作邏輯、社會關系和文化形態(tài)都發(fā)生了重大變化,顯著區(qū)別于現(xiàn)實世界,由此引發(fā)了數(shù)字空間的法律規(guī)則和行為觀、價值觀、道德觀、倫理觀等嶄新議題,成為了社會科學研究的熱點話題。
第二,人工智能引發(fā)意識形態(tài)和社會偏見等問題?;ヂ?lián)網(wǎng)數(shù)據(jù)存在海量的虛假信息與固化的社會偏見,人工智能尚無法確認其表述內容的真實性和客觀性。大語言模型是依賴現(xiàn)實語料庫進行訓練的,因而可能會延續(xù)現(xiàn)實社會中存在的偏見和價值偏差,并通過快速和低成本的應用加劇這些偏見和偏差。Luo等(2023)發(fā)現(xiàn),ChatGPT存在語言偏見,主要基于英語數(shù)據(jù)進行訓練,并基于英美視角生成“規(guī)范性”觀點。ChatGPT也被發(fā)現(xiàn)有宗教偏見、政治偏見和意識形態(tài)偏見(Hartmann et al., 2023)。生成式人工智能還存在復雜性和不確定性、不透明和“隨機鸚鵡”現(xiàn)象、事實錯誤、認知錯誤、惡意使用、環(huán)境成本等問題(政光景、呂鵬,2023)。城鄉(xiāng)、區(qū)域和代際之間的數(shù)字鴻溝,也使得生成式人工智能所依賴的大數(shù)據(jù)必然存在“樣本選擇偏差”,進而影響結論的可靠性與科學性。此外,大模型背后的資本和利益,事實上也決定了它所代表的意識形態(tài)。ChatGPT之所以能夠面世,符合美國的主流價值是必須的,否則根本無法上市。人工智能也可能被“武器化”,成為各方角力的新戰(zhàn)場,甚至成為進行輿論引導的新的工具和武器。
第三,人工智能引發(fā)新的公共治理問題。個體既是真實世界的個體,也是虛擬世界的個體,而人工智能技術模糊了虛實世界的位格關系,將導致符號世界、虛擬世界、物理世界從三界同構走向三界異構(?;w、于劍,2023)。虛擬空間與物理空間之間的滲透和融合,致使虛擬社會越來越能實質性地影響現(xiàn)實社會,很多事件都是在網(wǎng)絡空間發(fā)酵,然后再蔓延到現(xiàn)實空間(楊永恒,2023)?,F(xiàn)實世界與虛擬世界中的人、人工智能和社會綜合構成一個新型“生態(tài)體系”,算法權力、數(shù)字資本主義、人工智能治理等議題成為學術界研究和反思的重點。越來越多的學者開始關注人工智能技術應用中的倫理、道德和規(guī)范問題。陳振明指出,從“AI for Science”到“AI for Social Science”以及“AI for Public Policy”,人工智能驅動下的公共治理正在興起,公共政策研究的知識形態(tài)、范圍、主題和方法也將隨之改變,數(shù)據(jù)治理和算法治理成為人工智能公共治理的兩大基礎問題。[7]
對社會科學中人工智能應用的深層次思考
毫無疑問,人工智能正在變革并將持續(xù)變革社會科學范式,更多的影響還需要更長的時間去觀察,也不排除各種影響的累積和交互,最終將帶動社會科學研究范式發(fā)生從量變到質變的顛覆性變化。當前,社會各界對人工智能大模型的發(fā)展既滿懷憧憬和期待,也充滿了疑慮。這就需要我們對人工智能與社會科學的深度融合,進行更加理性地思考和研判。至少有如下四個層面的問題值得深入思考。
第一,如何理性看待人工智能輔助社會科學研究的性質。ChatGPT擁有有史以來最為龐大的數(shù)據(jù)量,并以此作為基礎語料訓練集,再加上基于神經(jīng)網(wǎng)絡機器學習算法構建的大模型,輔之以驚人的算力,引發(fā)了革命性的智能行為。但是從機制上講,ChatGPT是一個機器學習模型,只能基于給定的訓練數(shù)據(jù),根據(jù)某些單詞或單詞序列一起出現(xiàn)的概率來生成文本,本質上并不是理解文本數(shù)據(jù),而是根據(jù)最大的概率來預測文本數(shù)據(jù)。[8]人工智能大模型采用的方法類似于最大似然估計法,是在汲取人類現(xiàn)存知識的基礎上,以遠超人類的能力和效率來最大程度地揭示現(xiàn)存知識之間的關聯(lián)。
洪永淼和汪壽陽(2023)指出,目前人工智能技術只有預測能力,并沒有人的意識或理解能力,還不具備與人類一樣的批判性思維與想象力,無法從現(xiàn)有數(shù)據(jù)中推斷或預測出重大創(chuàng)新成果。此外,大模型所依托的大數(shù)據(jù)語料庫雖然規(guī)模龐大,但也僅是人類社會的一個樣本。大模型是無法窮盡所有可能性的,況且人類社會在不斷進步,人類知識體系也在不斷更新。如果大模型能夠窮盡所有可能性,則實際上就變成了一個封閉系統(tǒng),這就違背了人類社會開放性和不斷進化的基本特征。
第二,如何處理好理論與數(shù)據(jù)之間的關系。人工智能大大強化了以數(shù)據(jù)為基礎的社會科學實證研究范式,例如,ChatGPT使用了海量大數(shù)據(jù)甚至是整個互聯(lián)網(wǎng)文本數(shù)據(jù),但這并沒有改變社會科學實證研究從樣本推斷總體的本質。同時,人類發(fā)展是一個漫長的歷史過程,即使互聯(lián)網(wǎng)大數(shù)據(jù)的樣本容量極大,也只是人類社會歷史長河全景中的一個片段。縱使在當下,互聯(lián)網(wǎng)大數(shù)據(jù)也只是整個社會全貌中的一個局部呈現(xiàn)。基于大數(shù)據(jù)的社會科學實證研究仍然是從樣本推斷總體,以及根據(jù)樣本特征進行外推預測(洪永淼、汪壽陽,2023)。
此外,人工智能推斷的并不是真正的因果關系。實驗方法是識別、測度因果關系的最有效方法,但大數(shù)據(jù)基本上是觀測數(shù)據(jù)而非實驗數(shù)據(jù),因此基于人工智能的因果推斷本質上是一種預測關系或相關關系(洪永淼、汪壽陽,2023)。要識別因果關系,依靠人工智能的關系推斷是遠遠不夠的,還必須有理論的指導或引入實驗的方法。洪永淼(2023)以經(jīng)濟學為例,預判社會科學研究不會也不可能被人工智能工具所取代——“以ChatGPT為代表的大模型技術是人工智能在自然語言處理技術領域的一大突破,但大模型也存在算法風險、經(jīng)濟可解釋性等問題,因此數(shù)據(jù)驅動范式必須與經(jīng)濟理論相結合。如果沒有經(jīng)濟思維和經(jīng)濟理論的指引,很難找到經(jīng)濟學意義上的因果關系”[9]。
第三,如何確??煽靠尚诺娜斯ぶ悄茯寗友芯?。人工智能大模型基于大量的多模態(tài)數(shù)據(jù)進行訓練,能夠模擬人類的反應和行為,幫助研究人員快速測試有關人類行為的理論假設。這種研究結論的效度取決于數(shù)據(jù)本身的代表性,比如,能否準確反映不同人口群體的特征和觀點。訓練模型可以捕捉社會中存在的文化偏見(Abid et al., 2021),但這種偏見是否準確地反映了人群特點,抑或僅僅是模型構建的產(chǎn)物?大語言模型工程師對預訓練模型進行調適,依據(jù)的是“應然世界”而不是“實然世界”(Bai et al., 2022),這雖然有助于減少模型訓練中的偏見(Weidinger et al., 2022),但可能會影響人工智能輔助社會科學研究的有效性。
此外,人工智能大模型所特有的“黑匣子”性質,不利于評估研究結論背后深層次的潛在機制,也不利于研究結果的復制和推廣,在解釋力上存在巨大挑戰(zhàn)。例如,大模型動輒千億級的參數(shù),[10]不利于識別社會現(xiàn)象背后的主因與次因、主要矛盾與次要矛盾。雖然大模型在預測準確性上表現(xiàn)不俗,但在理論解釋力上還存在較大不足。這些事實上都涉及研究過程的透明度和結果的可復制性。
正如柏拉圖的洞穴隱喻,生活在洞穴的囚犯看到了墻上的影子,就認為這些影子是真實的。大語言模型等生成式人工智能依賴的是現(xiàn)存人類知識和文化中描述人類體驗的“陰影”,這些陰影為它們所代表的現(xiàn)象提供了真實但有限的看法——這是人工智能輔助社會科學研究所存在的一個顯著局限,而且研究中存在的代表性偏差、抽樣方法、個人主義方法論等,也會給研究結果的可靠性帶來沖擊。
第四,如何確保人工智能時代社會科學研究中人的主體性。人工智能驅動的社會科學研究,指向的是一種人機協(xié)同的知識生產(chǎn)方式,能夠極大地解放研究生產(chǎn)力并釋放出巨大的創(chuàng)新潛力(雷環(huán)捷,2023)。[11]但與此同時,也要避免人對機器過分依賴以至于喪失了人的主體性。對于學術研究而言,人和人的交流是至關重要的。如果完全讓技術主導,最后將不可避免導致人的主體性的喪失。在技術主導下,人和人的交流會日益減少,最后都會變成人和技術的交流,技術會成為中心。從根本上講,作為建構在人類知識基礎之上的智能模式,大語言模型等生成式人工智能應該符合人類社會的基本倫理和價值。
總結與展望
人工智能對社會科學的學科體系、學術體系和話語體系產(chǎn)生了程度不一的影響。其中,學術體系受到的影響最為直接,尤其是在基礎理論、研究方法、研究數(shù)據(jù)三個方面,而且人工智能本身也成為社會科學的研究對象和新的學術增長點;學科體系受到的影響也開始顯現(xiàn),如人工智能、數(shù)字技術與社會科學等的交叉融合,既衍生出新的學科增長點,也模糊了社會科學的學科邊界;在話語體系方面,機器語言、社會偏見、意識形態(tài)等對現(xiàn)實世界和虛擬世界的話語體系所產(chǎn)生的影響也正在逐步顯現(xiàn)。
中國走在全球人工智能技術的前列,再加上超大的人口規(guī)模和經(jīng)濟體量,人工智能技術的應用前景十分廣闊,這必然會給中國哲學社會科學帶來深刻的變革、創(chuàng)造難得的機遇,也將為建構中國自主的知識體系、引領全球思想觀念變革提供強大的動能。具體建議如下。
一是平衡好傳統(tǒng)范式與新范式之間的關系,推動人工智能與社會科學的深度融合。社會科學學者應積極擁抱人工智能,充分利用海量數(shù)據(jù)資源和多模態(tài)數(shù)據(jù)處理能力,更加有效地揭示人類社會復雜系統(tǒng)的運行與發(fā)展規(guī)律。同時也要認識到,強調數(shù)據(jù)和算法驅動,并不意味著理論驅動不重要,理論探索仍是人類不斷拓展認知前沿的主要途徑;強調大模型并不意味小模型不重要,大小模型分別適用于不同情境;強調大數(shù)據(jù)并不意味“小”數(shù)據(jù)不重要,“小”數(shù)據(jù)的信息密度通常更高;強調文本數(shù)據(jù)等非結構化大數(shù)據(jù),也并不意味著結構化數(shù)據(jù)不重要,后者能夠提供更加簡約、精準的信息。此外,要提升人工智能模型的透明度和結果的可重復性,例如,倡導開源大語言模型、公開未經(jīng)調適的預訓練模型以及提升方法論的透明度。確??煽靠尚诺娜斯ぶ悄茯寗友芯浚瑢τ诶萌斯ぶ悄芴嵘祟愓J識社會和改造社會的能力至關重要(Grossmann et al., 2023)。
二是要加快構建中國自主的大語言模型。中國走在了數(shù)字經(jīng)濟和人工智能技術的前列,在人工智能驅動社會科學發(fā)展方面具有得天獨厚的優(yōu)勢。大語言模型需要利用大量數(shù)據(jù)進行訓練,使用者越多的文字和語言越易于發(fā)展大語言模型。在全球范圍內,漢語是全球使用人口規(guī)模僅次于英語的語言,而且中華文明是世界上唯一從未間斷的文明,累積了其他國家無法比擬的大規(guī)模中文語料庫。下一步應充分發(fā)揮中國在人工智能領域的技術優(yōu)勢和研發(fā)能力,依托中國巨大的人口規(guī)模和博大精深的中華文明,加快構建中國自主的大語言模型,并利用中國超大市場規(guī)模優(yōu)勢加速更新迭代,同時要以開放包容的態(tài)度鼓勵全球用戶的參與,努力形成具有全球影響力的大語言模型,夯實人工智能時代社會科學研究的數(shù)字基礎設施根基。
三是要維護好人工智能時代的意識形態(tài)安全。哲學社會科學具有很強的政治屬性和意識形態(tài)屬性,維護人工智能時代哲學社會科學的意識形態(tài)安全,是構建中國特色哲學社會科學的題中之義。生成式人工智能如ChatGPT在全球范圍所產(chǎn)生的沖擊波,不可避免地會波及到意識形態(tài)領域,并對青少年的價值觀和行為模式產(chǎn)生直接影響。維護好人工智能時代的意識形態(tài)安全,除加快構建中國自主的大語言模型外,也要對ChatGPT等歐美主導的大語言模型秉持開放的態(tài)度。如果ChatGPT能夠深度學習更大規(guī)模的中文語料庫,盡可能掌握中文的語法、詞匯、語義,更多地熟悉中國的歷史文化、當代理論和前沿動態(tài),充分理解中華文化的價值觀、倫理觀和道德觀,則將顯著提升ChatGPT語料庫的全球代表性。此外,要引導中國用戶理性地看待和使用ChatGPT,中國用戶與ChatGPT之間的深度交互實際上也是對ChatGPT的持續(xù)訓練,有助于幫助其更好地理解中國主流的文化價值,矯正其對中華文化的認知偏差。這既有利于提升中華文化在西方大語言模型中的認知度、接受度和傳播力,也有助于推動ChatGPT等歐美主流大語言模型逐漸成為開放包容、兼收并蓄的文化新空間。
四是要加強人工智能研究中的倫理建設和價值引領。要清醒認識和及時研判人工智能與社會科學融合中的倫理問題,提出基本的倫理原則和規(guī)范,及時應對人工智能可能引發(fā)的倫理風險。首先,要認清生成式人工智能創(chuàng)作內容的實質,堅持人在社會科學研究中的主體地位,不過度、盲目追求自動化,確保人工智能研究符合人類的基本價值。其次,要及時制定使用規(guī)范和指南,積極回應人工智能大模型中的道德和倫理問題,如數(shù)據(jù)隱私、算法歧視、環(huán)境成本以及結果濫用等。最后,要充分預估和有效控制人工智能在社會科學領域應用中的風險和不確定性,防止誤用和濫用,確保其理論創(chuàng)新和知識創(chuàng)造符合學術規(guī)范和科研誠信。
總之,人工智能的發(fā)展和在社會科學領域的廣泛應用,顯著提升了學者理解和認知人類社會的能力,也為探索人類社會數(shù)字文明的走向提供了可能。但同時我們必須深刻地認識到,人工智能變革了社會科學發(fā)展的范式,但并不會根本改變社會科學學者認知和揭示人類社會規(guī)律的根本使命,尤其是對“真理”的追求,這可能是超越傳統(tǒng)范式與人工智能新范式的根本價值所在。發(fā)展人工智能驅動的社會科學研究,必須立足人的主體性,以價值理性駕馭工具理性,讓人工智能研究在符合人類基本價值和倫理的前提下,實現(xiàn)與社會科學的深度融合,不斷推動社會科學的創(chuàng)新性發(fā)展,提升人類認知社會和改造社會的能力,讓人工智能技術點亮人類文明的美好未來。
注釋
[1][8]《〈時代〉專訪ChatGPT:我還有很多局限,但人類應準備好應對AI》,2022年12月11日,https://www.ctdsb.net/c1673_202212/1595016.html。
[2]謝宇在復旦大學人工智能與社會研究(2023)學術研討會上的主旨演講,《“AI+”為人文社科研究帶來全新范式》,《文匯報》,2023年10月27日。
[3][9]洪永淼在2023年春季首屆中國數(shù)字經(jīng)濟發(fā)展和治理學術年會上的主旨演講,《人工智能新近發(fā)展及其對經(jīng)濟學研究范式的影響》,2023年2月18日。
[4]參見《教育部辦公廳關于公布首批教育部哲學社會科學實驗室名單的通知》(教社科廳函〔2021〕22號)。
[5]轉引自高奇琦等:《人工智能時代的社會科學研究》,《中國社會科學報》,2023年12月22日。
[6]關于這方面的更多論述,可參閱楊永恒:《文化數(shù)字化與數(shù)字文化化:對數(shù)字文化發(fā)展再審視》,《人民論壇·學術前沿》,2023年第1期。
[7]陳振明在復旦大學人工智能與社會研究(2023)學術研討會上的主旨演講,2023年10月26日。
[10]大型語言模型(LLM)是在具有大量參數(shù)的大型未標記數(shù)據(jù)集上進行訓練的,GPT-3經(jīng)過超過1750億個參數(shù)的訓練,而GPT-4的模型參數(shù)在1.8萬億左右,13萬億訓練數(shù)據(jù)、一次訓練成本6300萬美元。參見https://www.semianalysis.com/p/gpt-4-architecture-infrastructure?nthPub=11。
[11]轉引自雷環(huán)捷,《人工智能與人文社會科學攜手共進》,《中國社會科學報》,2023年7月25日。
參考文獻
劉石、李飛躍,2021,《大數(shù)據(jù)技術與傳統(tǒng)文獻學的現(xiàn)代轉型》,《中國社會科學》,第2期。
酈全民,2019,《當人工智能“遇見”計算社會科學》,《人民論壇·學術前沿》,第10期。
洪永淼、汪壽陽,2023,《人工智能新近發(fā)展及其對經(jīng)濟學研究范式的影響》,《中國科學院院刊》,第3期。
楊永恒,2023,《文化數(shù)字化與數(shù)字文化化:對數(shù)字文化發(fā)展再審視》,《人民論壇·學術前沿》,第1期。
桑基韜、于劍,2023,《從ChatGPT看AI未來趨勢和挑戰(zhàn)》,《計算機研究與發(fā)展》,第6期。
政光景、呂鵬,2023,《生成式人工智能與哲學社會科學新范式的涌現(xiàn)》,《江海學刊》,第4期。
A. Abid; M. Farooqi and J. Zou, 2021, "Large Language Models Associate Muslims with Violence," Nature Machine Intelligence, 3, pp. 461-463.
G. Pennycook; J. McPhetres; Y. Zhang; J. G. Lu and D. G. Rand, 2020, "Fighting COVID-19 Misinformation on Social Media: Experimental Evidence for a Scalable Accuracy-Nudge Intervention," Psychological Science, 31(7), pp. 770-780.
I. Grossmann; M. Feinberg; D. C. Parker; N. A. Christakis; P. E. Tetlock and W. A. Cunningham, 2023, "AI and the Transformation of Social Science Research," Science, 380(6650), pp. 1108-1109.
J. S. Park; J. C. O'Brien; C. J. Cai; M. R. Morris; P. Liang and M. S. Bernstein, 2023, "Generative Agents: Interactive Simulacra of Human Behavior," https://arxiv.org/abs/2304.03442.
J. Hartmann; J. Schwenzow and M. Witte, 2023, "The Political Ideology of Conversational AI: Converging Evidence on ChatGPT's Pro-environmental, Left-libertarian Orientation," https://arxiv.org/abs/2301.01768.
L. P. Argyle; E. C. Busby, N; Fulda, J. R. Gubler; C. Rytting and D. Wingate, 2023, "Out of One, Many: Using Language Models to Simulate Human Samples," Political Analysis, 31(3), pp. 337-351.
L. Weidinger; J. Uesato and M. Rauh et al., 2022, "Taxonomy of Risks Posed by Language Models," in 2022 ACM Conference on Fairness, Accountability, and Transparency (ACM, 2022), pp. 214-229.
N. Breznau; E. M. Rinke and A. Wuttke et al., 2022, "Observing Many Researchers Using the Same Data and Hypothesis Reveals a Hidden Universe of Uncertainty," Proceedings of the National Academy of Sciences, 119(44).
P. E. Tetlock; C. B. McGuire and G. Mitchell, 1991, "Psychological Perspectives on Nuclear Deterrence," Annual Review of Psychology, 42(1), pp. 239-276.
Q. Luo; M. J. Puett and M. D. Smith, 2023, "A Perspectival Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, Wikipedia, and YouTube," https://arxiv.org/abs/2303.16281.
S. Bubeck; V. Chandrasekaran and R. Eldan et al., 2023, "Sparks of Artificial General Intelligence: Early Experiments with GPT-4," https://arxiv.org/abs/2303.12712v2.
Y. Bai; S. Kadavath and S. Kundu et al., 2022, "Constitutional AI: Harmlessness from AI Feedback," https://arxiv.org/abs/2212.08073.
責 編∕桂 琰? 美 編∕梁麗琛