中圖分類號]N4;TP18 [文獻標識碼]A [DOI]10.19293/j.cnki.1673-8357.2025.02.004
以ChatGPT以及Sora等為代表的生成式人工智能(Generative Artificial Intelligence)的出現(xiàn)被認為極大改變了當前的傳播生態(tài)。這些新技術使各類傳播內(nèi)容的生產(chǎn)更加智能化、自動化,提升了傳播的效率與內(nèi)容的豐富程度。多模態(tài)的生成式人工智能技術的發(fā)展更是在短時間內(nèi)重構了人們對于人工智能可從事內(nèi)容生產(chǎn)的認知,從而進一步改變了我們理解、識別和模擬現(xiàn)實世界的圖景[]。這樣的一種革命也逐漸從通用型領域觸及科學傳播領域。大量綜述性研究都指出,生成式人工智能作為新信息技術之一將深刻賦能科學傳播的各個環(huán)節(jié),并引發(fā)科技傳播模式的深刻變革[2-3]。在未來更為多元化的科學傳播主體生態(tài)中,生成式人工智能將成為核心的行動者[4]。然而,當前對這一趨勢的研究多停留在思辨性綜述層面,關于生成式人工智能作為“科學傳播工具”或“科學傳播中介”的賦能機制,以及其在賦能過程中相較于傳統(tǒng)人類科學傳播者所呈現(xiàn)的差異化行動策略與價值取向等問題,仍缺乏必要的實證研究支撐。因此,本文將,通過嚴謹?shù)膶嵶C分析路徑,以國內(nèi)外核心生成式人工智能技術(ChatGPT及文心一言)為研究對象,探討生成式人工智能作為科學傳播者在生成科普內(nèi)容時的策略偏向,及其與人類科學傳播者在科學傳播策略的使用上可能存在的差異
1理論框架與文獻回顧
1.1科學傳播主體生態(tài)多元化
既有研究已經(jīng)指出,在數(shù)字化時代,科學傳播的主體生態(tài)已經(jīng)從傳統(tǒng)的“科學家生產(chǎn)一公眾消費”的線性傳播關系轉(zhuǎn)化為多樣化科學傳播者協(xié)同參與的新型生態(tài)格局[5]。大量非科學家行動者,如公民科學傳播者(citizensciencecommunicators)、公益組織、政府、企業(yè)等,開始主動扮演科學傳播者的角色,并進一步豐富當前的科學傳播主體生態(tài)[5-。這同樣也是當前國家科普工作中樹立“大科普”理念、構建社會化協(xié)同科普格局的必然趨勢[7]。
在日趨多元化的科學傳播主體生態(tài)中,除了上述的人類行動者之外,非人類行動者也逐漸受到了學界與業(yè)界的廣泛關注。其中,生成式人工智能被發(fā)現(xiàn)能夠發(fā)揮超越個體的科學傳播能力,進一步豐富當前的多元化科學傳播主體生態(tài)格局。研究指出,生成式人工智能能夠有效賦能當前的科普內(nèi)容生產(chǎn),在共創(chuàng)、融媒、轉(zhuǎn)譯以及內(nèi)容細分等方面提高科普內(nèi)容生產(chǎn)效率[2?,F(xiàn)實中,大量用戶也逐漸開始使用生成式人工智能工具進行科學內(nèi)容搜索,完成更具主動性的科學傳播參與;除此之外,大量個體科學傳播者也開始利用生成式人工智能工具輔助自身進行科普內(nèi)容創(chuàng)作,甚至在抖音等平臺上開設自己的科普分身。這些現(xiàn)象都表明,生成式人工智能作為特定行動者可以有效介入當前主體多元化的科學傳播生態(tài)格局中,扮演科學傳播者的角色,并為社會化協(xié)同“大科普”格局的實現(xiàn)提供助力。
1.2人工智能賦能科學傳播行動者
最初,在生成式人工智能介人科學傳播生態(tài)過程中最被期待的功能在于輔助傳統(tǒng)科普生產(chǎn)者并拓展多元科普協(xié)同格局。其通過降低科普參與門檻,使很多非專業(yè)群體能夠更便捷地獲取、傳播科學知識,并基于技術賦能強化科學傳播者身份認同。在傳統(tǒng)數(shù)字媒體環(huán)境下,成為公民科學傳播者需要較高的媒介素養(yǎng)與科學素質(zhì),以及大量的時間與精力成本,這成為多元主體參與科學傳播的主要障礙。而以ChatGPT為代表的生成式人工智能技術則大大降低了這種門檻要求,即變相降低了公眾及其他社會行動者成為科學傳播者的能力障礙,從而進一步擴大了科學傳播者多元化的可能性[9]
無論是主動扮演科學傳播者角色,還是協(xié)助或賦能人類科普內(nèi)容生產(chǎn)者,生成式人工智能在介人科學傳播過程中均表現(xiàn)出了明顯的主體性、擬人性、仿真性和多模態(tài)等特征。這些特征使得其在介入科學傳播的過程中具有“客觀”“專業(yè)”與“真實”的錯覺。當前大量研究指出,生成式人工智能在進行科學知識等專業(yè)內(nèi)容生產(chǎn)時仍舊存在“知識幻覺”的問題(AIHallucinations)[]。最新的調(diào)查結果也顯示,在面對生成式人工智能扮演的科學傳播者時,公眾并沒有表現(xiàn)出強烈的信任感[]。這些也都挑戰(zhàn)著生成式人工智能介人科學傳播主體生態(tài)的實際效果。因此,相較于繼續(xù)論述生成式人工智能扮演科學傳播者的可行性,當前更為重要的是將其視為獨立的科學傳播者,并進一步采用實證的視角仔細檢視其在科學傳播中的行為偏向與內(nèi)容生產(chǎn)特點。只有如此,才能既發(fā)揮其行動者優(yōu)勢,又進一步規(guī)避其內(nèi)容失序風險。
1.3人工智能內(nèi)容生產(chǎn)偏向
面對各類替代性科學傳播者以及科學傳播主體生態(tài)多元化現(xiàn)象,已有研究進一步表明,不同身份的科學傳播者在進行科學傳播實踐時會采用不同的傳播策略以獲取受眾的信任,而這些不同的傳播策略也會因為傳播主體身份的差異使受眾產(chǎn)生不同的信任效果[12-13]。例如,已有研究發(fā)現(xiàn),科學家作為科學傳播者更傾向于采用一系列專業(yè)性話語策略,例如專家身份表征、術語使用、邏輯推演等;而公民科學傳播者則更傾向于采用情緒喚起、身份相似、道德評判等話語策略。因此雖然同為科學傳播者,但二者更加適合的科學傳播議題環(huán)境也有所不同[13]。所以,考察不同科學傳播者所采用的話語策略偏向,并基于此厘定其所適合的科學傳播情境,是建構多元主體協(xié)同參與“大科普”格局的重要方向。
大量對于人工智能進行算法審計的研究也發(fā)現(xiàn),在進行內(nèi)容生產(chǎn)時,生成式人工智能并不是絕對中立或客觀的,其具有相當程度上的偏向性,乃至刻板印象或偏見[14-15]。同時,鑒于所基于的語料庫差異,不同生成式人工智能大模型,尤其是跨語言文化語境下的大模型,在內(nèi)容生成上所呈現(xiàn)的文本偏向性差異更為明顯。這也就使得在思考生成式人工智能作為傳播者時,首先需要審查其具體大模型的話語偏向,從而進一步明確生成式人工智能在傳播格局中的行動者定位與價值。
回歸科學傳播,以及生成式人工智能作為科學傳播者的視角,已有研究指出,由于人工智能具有的擬人性、主體性、仿真性等特征,受眾在與生成式人工智能交互時往往將其視為特定傳播主體進行認知建構[1。同時,自動化處理能力與海量語料生成特性,更賦予其類似專業(yè)權威的話語外顯形態(tài)[17]這構成了當前將其納入科學傳播者范疇的前提基礎。但已有研究同樣指出,由于其生成機制缺乏必要的透明度(transparency)與可解釋性(explainability),以及在模擬對話過程中對于可信度線索(credibilitycues)的隱去,用戶在實際交互中仍能清晰辨識其與人類專家的本質(zhì)差異[7。而且,大量強調(diào)擬人化與具身實感的生成式人工智能大模型還進一步放大對于非專家話語策略的采用,以期建構“親密朋友”的對話者身份[18]。這些技術特征與傳播策略的復雜交織,形塑了生成式人工智能在科學傳播場域中復雜且獨特的身份張力。因此,亟待系統(tǒng)考察不同語言模型在科學傳播過程中呈現(xiàn)的話語傾向,判別其是更傾向于采用類似科學家等專家的話語策略,還是類似于公民科學傳播者等替代性科學傳播者的常民話語策略。這些研究結果將有助于我們明晰生成式人工智能在整個科學傳播主體生態(tài)中的角色定位與行動可能基于此,本文提出以下核心研究問題。
研究問題1:在進行科普內(nèi)容生產(chǎn)時,生成式人工智能更傾向于采用何種話語策略?
研究問題2:在進行科普內(nèi)容生產(chǎn)時,不同的生成式人工智能所采用的話語策略是否存在差異?
研究問題3:在進行科普內(nèi)容生產(chǎn)時,生成式人工智能話語策略與人類話語策略是否存在差異?
2研究方法
2.1算法審計
本文核心采用了算法審計(AlgorithmicAudit)的研究方法。其最早由學者克里斯丁·桑維(ChristianSandvig)等人提出,是一種針對算法系統(tǒng)和內(nèi)容生產(chǎn)的特殊審計方法體系,旨在檢測和評估算法的潛在影響與風險,核心目的是揭示算法及其所影響的內(nèi)容生產(chǎn)中可能存在的偏見[19-20],目前也被大量應用在生成式人工智能內(nèi)容生產(chǎn)的偏向性研究中,主要流程包括提示詞設置、樣本生成、內(nèi)容審計分析等步驟[14-15]
2.2提示詞設置與樣本生成
為了有效研究不同語料庫基礎下的生成式人工智能科普內(nèi)容生成話語策略差異,本研究以OpenAI公司開發(fā)的ChatGPT4.0版本以及百度公司開發(fā)的文心一言4.0版本為研究對象。截至研究開展之時(2024年12月),文心一言大模型日均調(diào)用量達16.5億次,ChatGPT周活躍人數(shù)超3億,分別為當時中、英文領域中使用最為廣泛、調(diào)用次數(shù)最多的生成式人工智能工具。由于這兩個生成式人工智能工具在中英文語境下應用廣泛,其在生成式人工智能科普內(nèi)容生產(chǎn)上具有相當程度的代表性。對于提示詞,本研究選擇了Science在其創(chuàng)刊125周年之際,公布的125個具有挑戰(zhàn)性的科學問題作為生成式人工智能科普內(nèi)容生產(chǎn)的方向。這125個科學問題涉及了數(shù)學(3個)、化學(9個)、醫(yī)學與健康(11個)、生物學(22個)天文學(23個)、物理學(18個)、信息科學(4個)、材料科學(4個)、神經(jīng)科學(12個)生態(tài)學(8個)、能源科學(3個)和人工智能(8個)多個科學領域,且被認為具有積極廣泛的影響。例如,將“什么是重力?”“什么是量子不確定性,為什么它很重要?”“哪些基因使我們?nèi)祟惻c眾不同?”等問題以中文版本提交給兩個生成式人工智能工具。為了控制在提示詞層面上可能存在的差異,在樣本生成的過程中,本研究直接采用了“請幫我生成關于…(原始問題)的科普內(nèi)容”作為提示內(nèi)容,從而保證兩個生成式人工智能工具均就問題本身生成科學回答內(nèi)容?;诖耍狙芯孔罱K共得到兩個生成式人工智能工具生成的250篇科普內(nèi)容,共計143966字,篇均字數(shù)為576字。
2.3審計編碼表制定與信度檢驗
為了有效評估生成式人工智能工具所生成的科普內(nèi)容的策略使用及偏向,研究基于簡·古德溫(JeanGoodwin)等所提出的信任生成的11種話語策略[21],以及楊正等所提出的科學傳播中的身份策略(專家身份、教育經(jīng)驗、身份相似、個人聲譽)、內(nèi)容策略(專業(yè)知識、個人經(jīng)驗、證據(jù)引用、語氣強調(diào)、邏輯推演、情緒喚起、妥協(xié)讓步、對話邀請、交互信任)以及行動策略(自我效能、道德評價)等[13],并結合林恩·G.祖克爾(LynneG.Zucker)等提出的信任三維機制理論[22],制定了如下的審計編碼表(見表1)。對于科普內(nèi)容生成策略的審計評估將基于情感策略、內(nèi)容策略以及框架策略展開,并將其進一步劃分為5項一級指標與12項二級指標;其中對信息框架指標(目標框架、文化框架與敘事框架)分別進行二元分類編碼,所以共計15項編碼內(nèi)容。本文第二作者與第三作者首先從250篇生成式人工智能生成的科普內(nèi)容中選擇了30篇進行預編碼及編碼員間信度檢驗,所有維度的Cronbach'sAlpha數(shù)值均大于0.8。編碼工作通過一致性檢驗,證明編碼表操作可行。隨后,由第二作者與第三作者共同編碼完成所有的剩余樣本。
3研究結果
3.1生成式人工智能科普內(nèi)容生產(chǎn)的話語策略總體特征:多元化的策略使用及雜糅的身份策略偏向
根據(jù)表2的統(tǒng)計結果可以發(fā)現(xiàn),無論是ChatGPT還是文心一言,兩者在科普內(nèi)容生產(chǎn)時均采用了多元化的話語策略( n=451 n=691 )。這進一步佐證了大量研究所發(fā)現(xiàn)的生成式人工智能在內(nèi)容生成時可能存在話語偏向的結論[14-15]。從編碼結果可以發(fā)現(xiàn),整體上,生成式人工智能在科普內(nèi)容生成時較為偏向使用“術語使用”( n=240 )、“修辭手法”( n=186 )“邏輯應用”( n=152 )以及“敘事”( n=142 )等話語策略。其中“修辭手法”較為集中于舉例子的方法,例如文心一言根據(jù)問題“還有更多色彩元素可發(fā)現(xiàn)嗎?”生成的:
‘隨著科學技術的進步,人們可能會發(fā)現(xiàn)新的色彩元素或色彩現(xiàn)象。例如,通過改進光譜分析技術,我們可以更精確地測量和描述色彩;通過開發(fā)新的發(fā)光材料或顯示技術,我們可以創(chuàng)造出前所未有的色彩效果?!?/p>
而強調(diào)科學方法的“方法使用”( n=3 )策略、強調(diào)個人或集體的“文化框架”( n=7 )策略以及強調(diào)損失的“目標框架”( n=65 )策略則較少被使用。這種話語策略上的使用偏向呈現(xiàn)出兩個特征。首先,對于身份、說服、內(nèi)容等個體性、微觀話語策略的使用要多于對于框架性等宏觀話語策略的使用。這表明生成式人工智能在生成科普內(nèi)容時,更偏向于“就事論事”,而較少將科學或科普問題上升至文化或價值層面的問題。其次,在個體性、微觀話語策略的使用上,生成式人工智能雜糅了傳統(tǒng)的專家話語策略如強調(diào)專業(yè)術語的使用,以及一些被認為不適宜出現(xiàn)在專業(yè)科普中的常民話語策略,如強調(diào)敘事、使用修辭,以及強調(diào)情感喚起[3]。這種雜糅表明,無論是國內(nèi)還是國外的生成式人工智能平臺,其在生成科普內(nèi)容時可能并不完全依賴于科研論文等專業(yè)語料庫,可能也進一步融合來自非傳統(tǒng)科學傳播者創(chuàng)作的科普素材,從而表征出具有多重身份屬性的話語策略使用偏向。
3.2ChatGPT與文心一言的話語策略使用差異
為了回答研究問題2,本研究進一步比較了ChatGPT和文心一言兩個生成式人工智能工具在科普內(nèi)容生成時所使用的策略差異(見表2、圖1)。結果發(fā)現(xiàn),二者之間在“情感表達”“修辭手法”“親密身份”“術語使用”“目標框架”“敘事框架”等話語策略維度上呈現(xiàn)出了顯著差異??偨Y而言,文心一言( n=691 )整體在話語策略應用頻次方面要顯著高于ChatGPT( n=451 ),即相較基于中文語料庫的文心一言,基于英文語料庫的ChatGPT更傾向于簡要地呈現(xiàn)出純粹科學內(nèi)容。具體而言,在話語策略的使用偏向上,文心一言表現(xiàn)出了更為明顯的擬人化(anthropomorphization)特征,即在策略使用上更加強調(diào)與真人相似的對話感。這種特征主要體現(xiàn)在其對于常民化策略的使用偏向上,如更多的情感表達、修辭手法以及敘事策略的使用。例如,文心一言根據(jù)問題“為什么生命需要手性?”生成的:
“手性是指分子的鏡像異構體,就像我們的左手和右手是鏡像對稱的一樣,但不能通過旋轉(zhuǎn)和平移重疊。具有手性的分子和其對映體在結構上是鏡像關系,但是它們的化學和生物活性可能完全不同。手性分子在化學和生物學上表現(xiàn)出截然不同的行為,這種差異為你我寶貴的生命提供了特定的化學和生物活性?!?/p>
同時,文心一言較之ChatGPT更偏向于使用邏輯論證的方法,在科普內(nèi)容生成時強調(diào)層層遞進的講述策略。而ChatGPT整體上則更加去擬人化,強調(diào)內(nèi)容的客觀性,較少地使用可能會產(chǎn)生生活化對話體驗的策略,而更多強調(diào)非敘事性話語策略的使用。例如,ChatGPT根據(jù)問題“為什么生命需要手性?”生成的:
“手性是指物質(zhì)的分子或結構無法與其鏡像重合。在生物學中,手性在分子水平上至關重要。生命大多數(shù)復雜分子(如氨基酸、核昔酸等)都有特定的手性,這種手性使得分子能夠以特定的方式與其他分子相互作用,形成復雜的生物體結構和功能。生命的正常運作依賴于這種手性的特異性相互作用,因為它確保了分子識別、酶催化反應、細胞功能等生物化學過程的精確性?!?/p>
此外,雖然框架策略整體上使用不多,且差異并不那么顯著,但在宏觀文化框架視角下,較之文心一言,ChatGPT更偏向于采用一些較為宏觀的框架策略,例如使用“目標框架”與“文化框架”策略來框束科學或科普問題。這可能與長期以來西方世界存在的科學政治化偏向以及在中國特殊情境中對于科學的純粹化認知有關[23]
整體而言,在生成科普內(nèi)容時,文心一言偏向于將自身塑造為一種講究邏輯的友好朋友形象,而ChatGPT則更傾向于將自身塑造為一種較為客觀、冷靜的專家形象。這種形象差異也進一步證明了基于不同語料庫的生成式人工智能工具在進行科普內(nèi)容生產(chǎn)時會存在相當差異的話語策略偏向,從而可能進一步產(chǎn)生不同的科普效果。
3.3生成式人工智能與人類科學傳播者的策略使用差異
為了進一步探究生成式人工智能與不同人類科學傳播者在科普內(nèi)容生產(chǎn)時所使用的話語策略差異,研究進一步參考了已有研究對于科學家科學傳播者(scientistsciencecommunicators)、公民科學傳播者以及機構科學傳播者(institution sciencecommunciators)三類不同科學傳播者在科普內(nèi)容生產(chǎn)時的話語策略使用偏向研究,并將其與本文的編碼結果進行比照[2-13]。根據(jù)已有研究,在不同的科普話題中,科學家科學傳播者普遍更傾向于使用專業(yè)知識、專業(yè)身份、權威引用以及邏輯推演等策略,且使用比例均高于 50% :公民科學傳播者則偏向于使用情緒喚起、道德評估、說服語氣以及親密身份等話語策略;機構科學傳播者則偏向于強調(diào)專業(yè)身份與權威引用[12-13]。雖然本文所使用的編碼維度與上述已有研究并不完全一致,但所得結果較為相似,具有一定的可比性。
根據(jù)楊正等人的研究,人類科學傳播者尤其是科學家科學傳播者與公民科學傳播者在進行科普內(nèi)容生產(chǎn)時均有著較為明顯的“身份”表征偏差,即科學家科學傳播者更傾向于通過一系列話語策略將自身建構為客觀公正的專家形象,因此其較少使用修辭或情感策略[12-13];而公民科學傳播者則傾向于將自身建構為“親密朋友”形象,較多采用感性的、強調(diào)身份相似及內(nèi)容敘事性的策略。而不同于這兩類人類行動者較為清晰的身份策略偏向,本文的研究結果發(fā)現(xiàn),生成式人工智能在生產(chǎn)科普內(nèi)容時則表現(xiàn)出一種雜糅的身份策略偏向,即同時強調(diào)“專家身份”策略( n=42 )與“親密身份”策略( n=64 ),二者差異并不明顯。在更為具體的話語策略維度中,生成式人工智能在采用相當數(shù)量的偏向親密身份策略維度的修辭手法( n=186 )以及敘事策略( n=142 )的同時,也強調(diào)偏向?qū)<疑矸莶呗缘男g語使用( n=240 )等。這種差異使得我們在面對生成式人工智能所生產(chǎn)的科普內(nèi)容時,更難清晰分辨出其身份表征。這也是當前對于人工智能擬人化研究的困境所在,是要將AI建構為具有高度擬人化與親密屬性的伙伴,還是將其建構為較為客觀公正的專家,這一問題涉及傳播效果與交往倫理等多個維度,需要予以進一步研究。但整體而言,生成式人工智能在進行科普內(nèi)容生產(chǎn)時確實表現(xiàn)出了與人類科學傳播者不同的多元化策略偏向,這也進一步證明了其在介入當前科普社會化協(xié)同格局中特殊的行動者角色與可能產(chǎn)生的效果,因此需要予以更進一步的關注與研究。
總結上述對于三個研究問題的回應,可以發(fā)現(xiàn),生成式人工智能在進行科普內(nèi)容生產(chǎn)時切實采用了多樣化的話語策略,且這些策略的采用與人類科學傳播者之間存在一定差異,整體上呈現(xiàn)出一種偏向于微觀化且身份模糊的特點。其內(nèi)部基于不同語料庫的生成式人工智能的話語策略也存在著顯著差異,可能需要進一步區(qū)別對待。
4討論
本研究從三個維度拓展了生成式人工智能賦能科學傳播的理論認知:其一,揭示了智能工具在傳播實踐中的動態(tài)身份調(diào)適機制,為優(yōu)化情境化傳播策略提供實證依據(jù);其二,通過非人類行動者視角印證了科學傳播生態(tài)的多元化發(fā)展趨勢,推動構建人機協(xié)同的新型社會化協(xié)作框架;其三,創(chuàng)新性地引入算法審計方法,建立了分析智能傳播內(nèi)容特征的技術路徑,為后續(xù)研究提供可復制的跨學科方法論范式。這些突破既深化了對生成式人工智能賦能機制的本質(zhì)理解,也為規(guī)避技術風險、釋放智能傳播效能提供了關鍵理論支撐。
4.1生成式人工智能科普內(nèi)容生產(chǎn)策略偏向的理論解釋與現(xiàn)實意義
生成式人工智能作為科學傳播者,具有不同于人類科學傳播者的話語策略偏向。具體而言,生成式人工智能更偏向于使用“術語使用”“修辭手法”“邏輯應用”以及“敘事”等話語策略。這種策略偏向不僅呈現(xiàn)出顯著的語境差異性,更因其異于人類傳播主體的特質(zhì),使生成式人工智能在當前科學傳播協(xié)同生態(tài)中占據(jù)特殊地位并蘊含獨特價值。
回歸生成式人工智能作為科學傳播行動者的觀點,目前大量圍繞著生成式人工智能賦能科學傳播的研究均指出其作為科學傳播者介入科學傳播生態(tài)體系中的“可行性”[2-4],但對于如何實現(xiàn)這一“可行性”,即推進生成式人工智能更有效地扮演科學傳播者角色,現(xiàn)有研究仍缺乏操作性指引。對此,本文的研究進一步為這種“可行性”提供了行為偏向的經(jīng)驗參考。具體而言,通過上述的算法審計分析可以發(fā)現(xiàn),生成式人工智能在各類話語策略的使用上表現(xiàn)出了相當程度的身份模糊性,既不完全依賴傳統(tǒng)的專家策略,也不完全依賴公民科學傳播者等替代性科學傳播者所常用的常民情緒化策略[13]。雖然大量計算機中介傳播研究(Computer-Mediated-Communication,CMC)以及人機交互研究(Human-Machine Interaction,HMI)指出,從網(wǎng)頁版網(wǎng)絡媒體到搜索引擎,再到當前的各類人工智能工具,公眾傾向于將這種機器型傳播主體視為另類專家,并表現(xiàn)出相當程度的信任偏向[24-25]。但本研究表明,生成式人工智能在進行科普內(nèi)容生產(chǎn)時,并不完全呈現(xiàn)出專家的身份特征。邁克·S.謝弗(MikeS.Schafer)等人的研究也表明公眾在將生成式人工智能視為一種科學傳播者時也并不完全將其視為專家并完全信任[1。此外,已有研究還指出,在使用生成式人工智能進行內(nèi)容生產(chǎn)時,專家策略的應用并不一定有效,反而是其使用的常民策略可能更容易誘發(fā)用戶的信任[2]。這一結論與之前關于不同科學傳播者使用不同身份策略會產(chǎn)生差異化的信任效果研究結論相一致,即在特定情境中,專家身份策略的介入并不一定有效,而是要視具體的科學傳播場景與使用該策略的科學傳播者身份而定[13]。已有研究指出,這可能與受眾的“預期違背”心理有關,因為我們傳統(tǒng)認知中傾向于將生成式人工智能作為傳播者視為一種專家身份,所以當其切實采用專家身份話語策略時,并不一定能誘發(fā)公眾的積極預期違背,反而當其使用一系列具有情感色彩的常民身份策略時,可能會進一步誘發(fā)公眾的積極預期違背,從而產(chǎn)生更好的傳播效果[2。所以,總體而言,不同的身份策略對于生成式人工智能科學傳播可能會在不同情境中產(chǎn)生不同的效果。我們需要通過更為細致的實驗研究來對目前策略偏向的傳播效果進行更為精細的考察。此外,面對當前生成式人工智能科普內(nèi)容生成時的模糊身份現(xiàn)狀,其較之人類科學傳播者是否會產(chǎn)生更好的效果?以及何種身份策略更能契合生成式人工智能的公眾認知并發(fā)揮更好的傳播作用?這些問題都需要進一步予以實證檢驗。這也是本研究后續(xù)需要進一步深入之處。
但本研究依舊為論證生成式人工智能作為科學傳播者的“可行性”提供了側面的證據(jù)基礎。那么,面對當前生成式人工智能快速發(fā)展的時代背景,我們到底應該如何看待并對待其作為科學傳播者這一現(xiàn)狀呢?一方面,我們需要認可生成式人工智能作為科學傳播者的可行性,明晰其在科普實踐中的獨特性,并進一步發(fā)揮其特殊的作為特定科學傳播者的角色優(yōu)勢。這也是本文的立足點之一。另一方面,我們還需要進一步優(yōu)化生成式人工智能的科普內(nèi)容生產(chǎn)能力。對此,應從政策層面上承認并引導生成式人工智能作為科學傳播者的行動可能。最新修訂的《中華人民共和國科學技術普及法》(以下簡稱新修訂《科普法》)中新增了關于“科普人員”的專章,并進一步強調(diào)“建立專業(yè)化科普工作人員隊伍”“鼓勵組織和個人利用新興媒體開展多種形式的科普,擴展科普渠道和手段”。目前新修訂《科普法》已經(jīng)體現(xiàn)出引入多元主體建構科普社會化協(xié)同大格局的重要性,但對于多元主體的認知依舊停留在人類行動者層面。而面對當前技術快速革新的人工智能時代,我們需要從頂層設計上重視生成式人工智能等非人類行動者對于科普格局的介入與作用,并對其進行規(guī)范引導以建構更為全面的科普行動者網(wǎng)絡。
4.2規(guī)范與引導生成式人工智能科普能力的路徑
對于規(guī)范與引導生成式人工智能科普能力,首先,需要進一步構建有效的科普語料庫。目前,生成式人工智能進行科普內(nèi)容生產(chǎn)依舊依賴于傳統(tǒng)的通用大模型。這類生成式人工智能被發(fā)現(xiàn)仍然存在較為突出的知識幻覺等問題。而科普不僅僅是一種知識的傳遞,同時還包括知識的組織方式和表達技巧[。因此,更加需要一個專業(yè)的科普知識圖譜和語料庫,對于科學知識和概念進行系統(tǒng)化、專業(yè)化的表達,以供生成式人工智能后續(xù)深度學習。其次,還需要增強生成式人工智能科普大模型的算法透明度與審核力度。由于算法的黑箱屬性,大模型的訓練過程難以被完全掌控與解釋,因此更加需要提高算法模型的透明度,以及對從后端入手的面向科普算法的審核力度。重點審查科普內(nèi)容的科學性、準確性、內(nèi)嵌意識形態(tài)的偏向性以及潛在的偏見與歧視等,以保證生成式人工智能介入科普生產(chǎn)的有效性與規(guī)范性。這需要政府、企業(yè)、平臺、用戶等多元力量的協(xié)同參與。一方面,政府應當完善相關領域的法律法規(guī),并推進相關領域的行業(yè)自律;另一方面,平臺也需要明確標注科普內(nèi)容的生成方式,保證內(nèi)容生成的透明度。同時,用戶也需要不斷提升自我的人工智能算法素養(yǎng),培養(yǎng)自身的信息核查能力與對生成式人工智能“知識幻覺”識別能力。最后,雖然我們強調(diào)生成式人工智能可以在當前社會化協(xié)同科普體系中有效扮演非人類行動者的角色,但其最終的落地實現(xiàn)均需要人類的操作。尤其是對于科普內(nèi)容生產(chǎn)而言,其更是依賴科普生產(chǎn)者的介入。因此,提高科普生產(chǎn)者的人工智能素養(yǎng)與技能,使其能夠更加有效地利用生成式人工智能進行自我賦能,也是生成式人工智能有效介入科普生產(chǎn)的重要路徑。只有切實做到如上的要求,才能真正實現(xiàn)前文所言的生成式人工智能扮演科學傳播者的獨特行動價值。
5結語
從自然語言處理到多模態(tài)內(nèi)容生成,生成式人工智能的迭代演進已深度融入現(xiàn)代媒介生態(tài)體系,科學傳播領域亦在此進程中迎來范式革新。利用好生成式AI技術革命的契機,拓展當前多元化科普主體生態(tài)體系,既是實現(xiàn)社會化協(xié)同科普生態(tài)的關鍵路徑,更是提升全民科學素質(zhì)、培育科技創(chuàng)新文化氛圍的重要舉措。然而達成此愿景需首先厘清生成式人工智能在科普內(nèi)容生產(chǎn)中的雙重屬性:既要系統(tǒng)解析其作為科學傳播主體的獨特性一—包括算法驅(qū)動的話語策略偏向及與人類傳播者的認知差異,亦需基于此特質(zhì)差異構建規(guī)范框架。唯有通過精準識別生成式人工智能的生成邏輯特征,并建立與之適配的引導機制,方能實現(xiàn)智能技術對科學傳播體系的持續(xù)增益,進而重塑人機協(xié)同的科普新范式。對此,本研究基于算法審計與內(nèi)容分析的實證方法,細致考察了以ChatGPT與文心一言為代表的生成式人工智能工具的科普內(nèi)容生產(chǎn)策略。研究結果表明,生成式人工智能作為科學傳播者,具有不同于人類科學傳播者的話語策略偏向。具體而言,生成式人工智能更偏向于使用“術語使用”“修辭手法”“邏輯應用”以及“敘事”等話語策略,且這種話語策略在不同語境下的生成式人工智能工具中呈現(xiàn)出不同維度的偏向。這一結果豐富了我們對于生成式人工智能介入科學傳播生態(tài)可能性的理解,并進一步為如何利用生成式人工智能推動科普工作的進一步發(fā)展提供了路徑參考。
本文同樣存在著一系列的不足之處。首先,在選擇生成式人工智能模型時僅選取了ChatGPT與文心一言為國內(nèi)外生成式人工智能工具代表,對于稍晚出現(xiàn)且流行的DeepSeek等生成式人工智能工具缺乏關照。其次,在樣本生成過程中,本文采用的Science公布的125個具有挑戰(zhàn)性的科學問題均較為偏向前沿科學領域,對于更為日常、生活化的科學問題有所忽略。再次,在分析結果中,雖然我們引用了較為權威的對于人類科學行動者科普內(nèi)容話語策略使用的研究結果,但這些結果并不能保證與本次研究中生成式人工智能科普內(nèi)容生成的背景一致,從而其比較結果可能具有一定的不準確性。最后,研究雖然采用了較為嚴謹?shù)乃惴▽徲嫷姆椒ǎ⒈M量控制了提示詞在內(nèi)容生成中可能產(chǎn)生的差異影響,但在具體的生成式人工智能內(nèi)容生成過程中,不同用戶所采用的不同提示詞可能會導致生成的科普內(nèi)容之間存在一定程度的差異,從而偏離本文所最終得出的研究結果。這是算法審計方法在面對生成式人工智能內(nèi)容生成時所固有的方法弊端。這些問題都需要在后續(xù)研究中予以修正。
參考文獻
[1] 喻國明,蘇健威.生成式人工智能浪潮下的傳播革命與媒介生態(tài)——從 ChatGPT到全面智能化時代的未來[J].新疆師范大學學報(哲學社會科學版),2023,44(5):81-90.
[2] 王碩,閻妍,李正風.生成式人工智能賦能科學普及:技術機遇、倫理風險與應對策略[J].科普研究,2024,19(4):5-13,22.
[3] Klein-Avraham I,Greussing E,Taddicken M,etal.How to Make Sense of Generative AI asa Science CommunicationResearcher?AConceptual Framework inthe ContextofCritical Engagement with Scientific Information[J].Journal ofScienceCommunication,2024,23(6): A05.
[4] SchaferMS.TheNotorious GPT:Science Communicationin the Age of Artificial Inteligence[J]. JCOM:JournalofScienceCommunication,2023,22(2): 1-15.
[5] Yang Z.Deconstructionof the Discourse Authority of Scientists in Chinese Online Science Communication: Investigationof Citizen Science Communicators on Chinese Knowledge Sharing Networks[J]. Public Understanding of Science,2021,30(8): 993-1007.
[6] Fahnrich B,Riedlinger M,Weitkamp E. Activistsas“Alternative” Science Communicators—Exploringthe Facets ofScience Communication in Societal Contexts[J]. Journal of Science Communication,2020,19(6): C01-1.
[7] 湯書昆,鄭斌,余迎瑩.科普社會化協(xié)同的法治保障研究[J].科普研究,2022,17(2):15-20.
[8] 周慎,陶美麗,劉湘.人工智能生成科普內(nèi)容的底層邏輯與參與主體功能分析[J].科普研究,2024,19(4):14-22.
[9] 丁天宇,楊正.AIGC媒介變革環(huán)境下科學傳播“多元化”趨勢研究[J].科學傳播與科學教育,2025(6):1-12.
[10] 陳萬球,羅一人.生成式人工智能的“知識幻覺”及其風險治理探論[J].上海市社會主義學院學報,2024(4):38-51.
[11] SchaferMS,KremerB,MedeNG,etal.Trust inScience,Trustin ChatGPT?How Germans Think aboutGenerative AIas a Source in Science Communication[J]. Journal of Science Communication, 2O24, 23(9): A04.
[12]Yang Z,Huang Y, Yang T,etal. How Diferent Science Communicators UseIdentity Strategies to Gain Public Trust:a Study on Astronomy and Climate Change Isues on a Chinese Knowledge Sharing Platform[J]. Journalof ScienceCommunication,2024,23(9): A08.
[13]Yang Z,Yang T.Diferentiated Trust Strategies and Rebellous Acceptance:A QualitativeComparative Analysis oftheTrust Strategies Used byScientist Communicators and Citizen ScienceCommunicators in ChineseOnline ClimateCommunication[J]. Science Communication, 2024, 46(3): 247-275.
[14] 黃陽坤,師文,陳昌鳳.智能算法如何重構新聞價值?——基于智能推薦平臺算法審計的研究[J].新聞大學,2024(6): 18-33.
[15]周葆華,羅沛.搜索引擎圖片中的職業(yè)性別刻板印象——基于跨平臺算法審計的研究[J].新聞大學,2024(6):1-17.
[16]Jiang Q,ZhangJ,WangPH,etal.Technology Acceptance and Innovation Difusion:Are Users More Inclined towardAIGC-Assisted Design[J]. International Journal of Human-Computer Interaction,2O24:1-15.
[17]DunnA G, Shih I,AyreJ,et al. What GenerativeAI Means for Trustin Health Communications[J].Journal ofCommunication in Healthcare, 2023,16(4):385-388.
[18]Wang W,Gong H.From Sekingto Sharing: Pathwaysof EnvironmentalRisk InformationonSocial Mediaandthe RolesofOutcome Expectations,Effcacy,andAI-Generated Content[J]. InternationalJournal of Human-Computer Interaction,2025:1-14.
[19] Sandvig C, Hamilton K, Karahalios K, et al. Auditing Algorithms: Research Methods for Detecting DiscriminationonInternet Platformst[J]. Data and Discrimination:Converting Critical Concernsinto Productive Inquiry,2014(2):4349-4357.
[20] 徐明華,魏子瑤.算法倫理的治理新范式:算法審計的興起、發(fā)展與未來[J].當代傳播,2023(1):80-86.
[21] Goodwin J,Dahlstrom MF.CommunicationStrategiesforEarning Trust in ClimateChange Debates[J]. WileyInterdisciplinaryReviews: Climate Change, 2014,5(1): 151-160.
[22]ZuckerL G.Productionof Trust:Institutional Souresof Economic Structure,1840-192O[J]. Research in OrganizationalBehavior,1986(8): 53-111.
[23]BolsenT,DruckmanJN.CounteractingthePoliticizationofScience.JournalofCommunication[J],2015,65(5):745-769.
[24]Liu C.Human-machine TrustInteraction:ATechnical Overview[J].International Journalof Dependable and TrustworthyInformation Systems(IJDTIS),2010,1(4):61-74.
[25] Ou C X,Pavlou PA,Davison R M.Swift Guanxi in Online Marketplaces:The RoleofComputer-mediated CommunicationTechnologies[J].MIS Quarterly, 2014,38(1):209-230.
[26]Rheu M,Dai Y,MengJ,etal. Whena Chatbot DisappointsYou:Expectancy Violation in Human-Chatbot Interactionina Social Support Context[J]. Communication Research, 2024,51(7): 782-814.
(編輯顏燕 荊祎瀾)