【摘 要】生成式人工智能技術(shù)的迅猛發(fā)展對學(xué)術(shù)出版業(yè)產(chǎn)生了巨大影響,在拓展學(xué)術(shù)出版資源、推動內(nèi)容創(chuàng)作、優(yōu)化編輯流程、豐富產(chǎn)品形式等方面進行了重塑,也帶來了潛在的學(xué)術(shù)倫理失范、技術(shù)控制下的思維困境以及加劇全球?qū)W術(shù)出版差距等問題。應(yīng)用研發(fā)者應(yīng)增強算法透明性,確保訓(xùn)練數(shù)據(jù)的質(zhì)量和合法性;國家應(yīng)建立健全AIGC的管理規(guī)范和制度;出版行業(yè)應(yīng)加強與生成式人工智能的深度融合,突出編輯在倫理判斷、價值判斷等方面的綜合價值;出版單位要高度重視人才隊伍建設(shè),提高編輯的媒介使用素養(yǎng)。
【關(guān)" 鍵" 詞】生成式人工智能;學(xué)術(shù)出版;人工智能生成內(nèi)容;核心價值
【作者單位】胡錦輝,陜西師范大學(xué)馬克思主義學(xué)院;許加彪,陜西師范大學(xué)馬克思主義學(xué)院,陜西師范大學(xué)新聞與傳播學(xué)院。
【中圖分類號】G230.7 【文獻(xiàn)標(biāo)識碼】A 【DOI】10.16491/j.cnki.cn45-1216/g2.2024.24.009
隨著科技的迅猛發(fā)展,生成式人工智能成為當(dāng)今社會的熱點。生成式人工智能通過深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)技術(shù),借助自然語言處理、圖像識別及數(shù)據(jù)分析等功能,實現(xiàn)了對文本的快速整合與生成,推動了學(xué)術(shù)出版流程的創(chuàng)新。目前,針對生成式人工智能在學(xué)術(shù)出版領(lǐng)域的研究多集中于版權(quán)歸屬、技術(shù)倫理和學(xué)術(shù)倫理等方面,對其實際應(yīng)用中所面臨的風(fēng)險與挑戰(zhàn)缺乏系統(tǒng)性評估。本文聚焦生成式人工智能在學(xué)術(shù)出版領(lǐng)域的應(yīng)用現(xiàn)狀和潛在風(fēng)險,探索生成式人工智能技術(shù)下學(xué)術(shù)出版高質(zhì)量發(fā)展的路徑。
一、生成式人工智能推動學(xué)術(shù)出版流程創(chuàng)新
生成式人工智能具備自然語言處理、圖像識別、信息整合、文本生成和數(shù)據(jù)分析判斷的強大功能。利用這些優(yōu)勢,生成式人工智能可以輔助科研人員完成部分工作,有助于提高科研人員的工作效率及質(zhì)量。以下是生成式人工智能賦能學(xué)術(shù)出版領(lǐng)域的幾個方面。
1.拓展學(xué)術(shù)出版資源的獲取渠道
生成式人工智能正在快速地改變和革新學(xué)術(shù)出版流程。學(xué)術(shù)出版流程涵蓋從資源獲取、管理、分析、內(nèi)容創(chuàng)作、編輯校對到發(fā)布傳播的全過程。在此過程中,生成式人工智能以其強大的數(shù)據(jù)處理和分析能力,為學(xué)術(shù)研究人員提供有力支持,拓展了學(xué)術(shù)出版資源,提升了研究效率和質(zhì)量。科研人員在探索和剖析學(xué)術(shù)資源時面臨的語言障礙和工具局限,都能通過創(chuàng)新的AI輔助工具(如Research Rabbit.ai和Semantic Scholar)得到突破。這些工具遵循用戶指引,能精準(zhǔn)鎖定相關(guān)文獻(xiàn)資料,不僅能從海量文獻(xiàn)中提取核心關(guān)鍵詞和主題短語,精準(zhǔn)把握研究議題,助力科研人員快速理解文獻(xiàn)核心論點,還能依據(jù)用戶需求智能化地完成文獻(xiàn)分類與摘要生成,將精煉整合的信息直接呈現(xiàn)給用戶,極大提升學(xué)術(shù)研究的效率和質(zhì)量。
2.促進學(xué)術(shù)出版內(nèi)容的創(chuàng)作
在傳統(tǒng)學(xué)術(shù)創(chuàng)作中,研究者常面臨初稿撰寫耗時費力的問題,生成式人工智能技術(shù)能提供有效輔助。通過深度學(xué)習(xí)海量學(xué)術(shù)資源,生成式人工智能能夠精準(zhǔn)把握論文的結(jié)構(gòu)框架及學(xué)術(shù)語言特點。研究者僅需提供核心關(guān)鍵詞與文章大綱,生成式人工智能即可快速生成符合學(xué)術(shù)標(biāo)準(zhǔn)的初稿,顯著縮短初稿準(zhǔn)備周期。此外,生成式人工智能在優(yōu)化文本內(nèi)容方面展現(xiàn)了卓越效能,能夠剖析文本結(jié)構(gòu),識別邏輯漏洞,建議增補更多佐證材料或調(diào)整論述順序,使文本邏輯清晰、層次分明。這一優(yōu)化流程能夠助力研究者提升學(xué)術(shù)論文寫作的邏輯性和表述力,使研究成果更為嚴(yán)謹(jǐn)。
鑒于不同學(xué)術(shù)領(lǐng)域及學(xué)科的論文寫作風(fēng)格與規(guī)范有所差異,生成式人工智能能夠根據(jù)不同學(xué)科屬性與期刊標(biāo)準(zhǔn)調(diào)整其生成內(nèi)容的側(cè)重點。例如:在理工科論文撰寫中,側(cè)重數(shù)據(jù)精確度與實驗步驟的翔實闡述;在人文學(xué)科論文撰寫中,側(cè)重理論框架搭建及觀點的深入論證。這種面向個體需求的適應(yīng)能力使得生成式人工智能在學(xué)術(shù)創(chuàng)作中能有效適配多元化的用戶需求。此外,生成式人工智能在跨越語言障礙方面發(fā)揮了重要作用,特別是為非英語母語國家研究人員撰寫英文學(xué)術(shù)文章提供了巨大幫助。通過學(xué)習(xí)海量英文學(xué)術(shù)資料,生成式人工智能能夠?qū)⒅形膬?nèi)容轉(zhuǎn)化為符合英語表達(dá)習(xí)慣和學(xué)術(shù)規(guī)范的文本,確保其作品與國際學(xué)術(shù)標(biāo)準(zhǔn)相符。
3.優(yōu)化學(xué)術(shù)出版編輯流程
在編輯校對環(huán)節(jié),早期主要依靠編輯的專業(yè)知識進行判斷,不僅耗時耗力,而且時效性和準(zhǔn)確性有限。生成式人工智能為編輯校對工作帶來了革命性變化,其基于智能輔助審校系統(tǒng),采用自主設(shè)計的深度神經(jīng)網(wǎng)絡(luò)模型,能夠?qū)W(xué)術(shù)領(lǐng)域的大規(guī)模文本進行自動學(xué)習(xí),發(fā)現(xiàn)語言規(guī)律,實現(xiàn)智能校對[1]。該系統(tǒng)可以識別并糾正語法、拼寫錯誤及不當(dāng)用語,確保內(nèi)容符合國家語言文字規(guī)范標(biāo)準(zhǔn),這大大減少了人工校對的工作量,提高了校對的效率和準(zhǔn)確性。
在稿件價值判斷方面,生成式人工智能利用數(shù)據(jù)挖掘技術(shù),可從論文中提取關(guān)鍵信息,如研究問題、研究方法、實驗結(jié)果等,對論文進行深度分析,識別重要觀點、創(chuàng)新點和研究趨勢,這有助于編輯快速了解論文的核心內(nèi)容,從而更好地評估其學(xué)術(shù)價值[2]。此外,生成式人工智能還可以對稿件研究內(nèi)容的關(guān)鍵詞進行學(xué)術(shù)趨勢預(yù)測,生成關(guān)鍵詞的學(xué)術(shù)關(guān)注度曲線,幫助編輯判斷稿件的新穎性和創(chuàng)新性。通過這些功能,生成式人工智能大幅提升了編輯對稿件的學(xué)術(shù)價值和創(chuàng)新性的判斷能力,減少了編輯的主觀誤判。
在選擇送審專家方面,編輯需要了解審稿專家的研究現(xiàn)狀,判斷送審稿件與專家的研究方向是否相符。基于生成式人工智能的智能采編系統(tǒng),可通過關(guān)鍵詞搜索快速找到相關(guān)學(xué)者的詳細(xì)信息,包括姓名、單位、研究方向、職稱、文獻(xiàn)發(fā)表數(shù)量、總被引頻次、歷史發(fā)文情況等[3],這些信息可以幫助編輯全面了解專家的專業(yè)背景,以挑選合適的審稿專家。
可見,生成式人工智能在編輯內(nèi)容校對、稿件價值判斷和選擇送審專家等環(huán)節(jié)發(fā)揮了重要作用,通過自動化和智能化手段顯著提高了編輯工作的效率和質(zhì)量。
4.豐富學(xué)術(shù)出版產(chǎn)品形態(tài)
生成式人工智能技術(shù)不僅拓寬了學(xué)術(shù)出版資源的獲取渠道、促進了學(xué)術(shù)出版內(nèi)容的創(chuàng)作,還豐富了學(xué)術(shù)出版的產(chǎn)品形態(tài)。生成式人工智能能將多元模態(tài)信息進行轉(zhuǎn)換與整合,如將文字信息轉(zhuǎn)化為語音、視頻和圖片等多種表現(xiàn)形式,為學(xué)術(shù)出版內(nèi)容創(chuàng)作增添創(chuàng)新性和多樣性,推動學(xué)術(shù)出版產(chǎn)品形態(tài)的多元化發(fā)展。
從聽覺維度來看,生成式人工智能能夠創(chuàng)作出音頻學(xué)術(shù)敘事。這一創(chuàng)新模式不僅惠及視障群體,也為廣大受眾開辟了嶄新的知識體驗途徑。音頻學(xué)術(shù)敘事使抽象的學(xué)術(shù)理論變得栩栩如生,增強了內(nèi)容的吸引力。例如,將歷史學(xué)術(shù)文章轉(zhuǎn)化為音頻,通過場景再現(xiàn)、匹配音樂與音效,讓聽眾仿佛親歷其境,從而促進聽眾對復(fù)雜信息的理解與記憶。
從視覺維度來看,生成式人工智能通過對學(xué)術(shù)素材的智能化標(biāo)注與加工,實現(xiàn)了學(xué)術(shù)內(nèi)容的可視化表達(dá)。AI系統(tǒng)能夠自主分析學(xué)術(shù)文獻(xiàn)中的數(shù)據(jù)及結(jié)論,生成高品質(zhì)的圖形、圖表與信息圖譜,幫助讀者準(zhǔn)確把握研究結(jié)論,提升認(rèn)知率。
此外,通過生成式人工智能處理,學(xué)術(shù)論文被重塑為視頻演說、動態(tài)模擬及音頻解說,構(gòu)建出全方位的學(xué)習(xí)模式。這種技術(shù)促使學(xué)術(shù)知識通過多樣化的表達(dá)途徑獲得重生,也為知識的擴散與實踐探索開辟了更廣闊的路徑。隨著技術(shù)的演進和應(yīng)用的深化,生成式人工智能將在學(xué)術(shù)出版領(lǐng)域扮演日益重要的角色,推動學(xué)術(shù)表現(xiàn)形式向多元化與高效化的學(xué)術(shù)出版生態(tài)邁進。
二、生成式人工智能給學(xué)術(shù)出版帶來的挑戰(zhàn)
2023年,《科學(xué)》雜志主編霍爾頓·索普撰文指出,ChatGPT在不到兩個月內(nèi)已成為一種“文化轟動”,這種技術(shù)在文學(xué)創(chuàng)作中可能非常有趣且有用,但可能對科學(xué)界和學(xué)術(shù)界帶來嚴(yán)重的影響和挑戰(zhàn)[4]。生成式人工智能在使用過程中面臨諸多問題,如侵犯版權(quán)風(fēng)險、增加學(xué)術(shù)不端檢測難度、引發(fā)學(xué)術(shù)內(nèi)容偏見、導(dǎo)致技術(shù)控制下的思維困境以及加劇全球?qū)W術(shù)出版差距等,我們需要對可能產(chǎn)生的影響進行深入審視。
1.潛在的學(xué)術(shù)倫理失范
一是侵犯版權(quán)風(fēng)險。生成式人工智能模型的成熟度不僅取決于算法和算力,還與訓(xùn)練數(shù)據(jù)的數(shù)量和質(zhì)量有關(guān)。生成式人工智能的大語言模型通過大量數(shù)據(jù)反復(fù)訓(xùn)練,在眾多可能性中挑選與判斷,從而輸出最佳解決方案。然而,如果訓(xùn)練數(shù)據(jù)包含受版權(quán)保護的文本,生成的學(xué)術(shù)內(nèi)容可能構(gòu)成侵權(quán),這不僅觸及學(xué)術(shù)倫理,還會牽涉法律層面。為規(guī)避此類風(fēng)險,生成式人工智能研發(fā)者在篩選訓(xùn)練素材時應(yīng)選擇通過正規(guī)渠道獲得授權(quán)的數(shù)據(jù),建立健全數(shù)據(jù)使用規(guī)范,確保數(shù)據(jù)供應(yīng)方與使用方明確知曉并同意數(shù)據(jù)的使用方式和來源。盡管生成式人工智能在學(xué)術(shù)出版領(lǐng)域應(yīng)用效果顯著,但版權(quán)風(fēng)險不容忽視。研發(fā)者與使用者必須高度關(guān)注版權(quán)問題,確保使用人工智能技術(shù)產(chǎn)生的學(xué)術(shù)成果不侵犯他人版權(quán),共同維護學(xué)術(shù)研究的誠信與合規(guī)性。
二是增加學(xué)術(shù)不端檢測難度。生成式人工智能基于大量文本數(shù)據(jù)進行訓(xùn)練,通過學(xué)習(xí)文本片段之間的關(guān)系掌握語言模式和語法結(jié)構(gòu),能夠生成內(nèi)容豐富、邏輯嚴(yán)密的文本。雖然生成內(nèi)容與特定源文本類似,但其本質(zhì)是基于模型學(xué)習(xí)后的重組與創(chuàng)新。傳統(tǒng)的學(xué)術(shù)不端檢測工具主要依賴文本匹配和相似度分析來識別抄襲行為,對直接復(fù)制和粘貼的內(nèi)容檢測效果顯著,但對生成式人工智能生成的內(nèi)容往往束手無策。原因在于,生成式人工智能的文本生成過程復(fù)雜,傳統(tǒng)檢測工具難以捕捉其知識相關(guān)性,這使得學(xué)術(shù)不端行為的檢測難度大幅增加[5]。
三是增加學(xué)術(shù)內(nèi)容偏見。生成式人工智能尤其是大語言模型在自然語言處理領(lǐng)域取得了顯著進展,能夠生成高質(zhì)量、連貫的文本。然而,由于訓(xùn)練數(shù)據(jù)和算法設(shè)計的局限性,導(dǎo)致生成式人工智能在生成內(nèi)容時可能帶有偏見,如數(shù)據(jù)偏見、性別偏見、年齡偏見、語言偏見、職業(yè)偏見、地理偏見和人物形象偏見等,這些偏見可能對學(xué)術(shù)研究的公平性和公正性產(chǎn)生影響[6]。生成式人工智能的偏見主要源于兩個方面。一方面,訓(xùn)練數(shù)據(jù)的不均或錯誤。如果訓(xùn)練數(shù)據(jù)中某個群體的語言使用頻率較低,模型生成的文本可能對該群體代表性不足;若訓(xùn)練數(shù)據(jù)錯誤,模型可能生成不準(zhǔn)確甚至不符合學(xué)術(shù)規(guī)范的虛假內(nèi)容。另一方面,算法設(shè)計者無意識地將自身的認(rèn)知偏見融入數(shù)據(jù)標(biāo)注和設(shè)計中,這些偏見可能針對某些特定的邊緣化群體并以刻板印象、排他性規(guī)范等形式體現(xiàn)。即使設(shè)計者主觀上力求公正客觀,也無法完全克服自身固有的無意識的認(rèn)知偏見,這種偏見通過代碼的形式進入算法設(shè)計環(huán)節(jié),最終導(dǎo)致算法生成的學(xué)術(shù)內(nèi)容中包含固有偏見[6]。
2.技術(shù)控制下的思維困境
生成式人工智能的崛起為學(xué)術(shù)出版帶來了前所未有的變革。然而,長期依賴這種技術(shù)可能導(dǎo)致主體判斷能力的退化,福柯所說的“規(guī)訓(xùn)”以及麥克盧漢筆下的“延伸意味著截除”概念將成為現(xiàn)實。這不僅會造成主客體顛倒的現(xiàn)象,影響人類的批判性思維和決策能力,還會引發(fā)新的異化問題。
“異化”(Alienation)一詞最早見于中世紀(jì)經(jīng)院哲學(xué)家圣·奧古斯丁的著作,指主體成為他物,是主體的自我喪失狀態(tài)。在智媒體時代,這一概念重新煥發(fā)了新的意義。人們在追求極致的身體享受和便利時,往往只接收和傳遞自己感興趣的內(nèi)容,缺乏理性批判,逐漸成為馬爾庫塞筆下的“單向度的人”,即從雙向度思維轉(zhuǎn)向肯定性單向度思維,無法正確認(rèn)識自己及周圍世界[6]。當(dāng)人類過度依賴生成式人工智能,逐漸喪失對它的控制時,反而成了生成式人工智能技術(shù)下的持存物,人被物化了,出現(xiàn)了人的異化現(xiàn)象[6]。研究者通過獨立思考、實驗驗證和批判性分析,推動學(xué)術(shù)領(lǐng)域的不斷發(fā)展和進步,這種創(chuàng)造性的思維是人工智能難以替代的。在學(xué)術(shù)出版過程中,人類的價值不僅在于內(nèi)容的生成,更在于對內(nèi)容的審查、評價和改進。編輯和研究者之間通過交流和討論,不斷完善和創(chuàng)新學(xué)術(shù)成果。因此,學(xué)術(shù)出版應(yīng)警惕過度依賴生成式人工智能,這關(guān)乎人類的能動性和自由意志[7]。
3.加劇全球?qū)W術(shù)出版差距
生成式人工智能通過深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)技術(shù),借助自然語言處理、圖像識別及數(shù)據(jù)分析等功能,實現(xiàn)了對文本的快速整合與生成,優(yōu)化了學(xué)術(shù)出版編輯流程,從而推動了學(xué)術(shù)出版全流程的創(chuàng)新與高效。生成式人工智能技術(shù)的開發(fā)和應(yīng)用離不開高端硬件設(shè)備的供給、大規(guī)模數(shù)據(jù)存儲及處理能力,以及強有力的人才、技術(shù)支撐。掌握了前沿創(chuàng)造性人工智能技術(shù)的國家科研人員、學(xué)術(shù)出版機構(gòu)能夠更便捷地獲取最新研究成果和文獻(xiàn)資料,從而快速產(chǎn)出高水平的科研產(chǎn)品,提升其在全球?qū)W術(shù)界的知名度與影響力。反之,未掌握創(chuàng)造性人工智能技術(shù)的國家,難以獲得足夠的學(xué)術(shù)資源和優(yōu)化編輯流程支持,其科研效率較低,成果也較難獲得國際關(guān)注與認(rèn)可。人才、技術(shù)接入機會的差距,導(dǎo)致全球?qū)W術(shù)出版領(lǐng)域的差距進一步擴大。
三、探索生成式人工智能賦能學(xué)術(shù)出版高質(zhì)量發(fā)展的新路徑
為最大限度發(fā)揮生成式人工智能的優(yōu)勢并減少潛在風(fēng)險,本文提出以下建議:生成式人工智能應(yīng)用開發(fā)者應(yīng)確保訓(xùn)練數(shù)據(jù)的質(zhì)量和合法性,公開算法機制,避免引入偏見;國家應(yīng)建立健全AIGC管理規(guī)范和制度,確保其應(yīng)用生成的內(nèi)容不對學(xué)術(shù)出版造成不良影響;出版行業(yè)應(yīng)強調(diào)編輯的主體性,凸顯其在倫理、價值、科學(xué)和審美判斷中的核心作用;出版單位須重視人工智能人才隊伍建設(shè),通過持續(xù)培訓(xùn)和專業(yè)學(xué)習(xí)提升編輯的媒介使用素養(yǎng),以此更好地應(yīng)對挑戰(zhàn)。
1.增強生成式人工智能算法的透明性,確保訓(xùn)練數(shù)據(jù)的質(zhì)量和合法性
一方面,增強生成式人工智能算法的透明性。隨著信息技術(shù)的發(fā)展,生成式人工智能憑借其卓越的創(chuàng)造能力和廣泛的應(yīng)用,正逐漸融入社會各領(lǐng)域。然而,應(yīng)用過程中涌現(xiàn)的問題也成為矚目的焦點,尤其是生成式人工智能算法的透明性問題。生成式人工智能算法的基本運作邏輯及其深層運行原理應(yīng)具備透明度,深入了解算法的行為模式與決策路徑,對于指導(dǎo)和監(jiān)督AI技術(shù)的實際應(yīng)用具有重要意義。算法透明是指能夠看到系統(tǒng)的全局,并通過分析的方式對系統(tǒng)進行審查。算法透明性體現(xiàn)在兩個層面。第一層是操作邏輯層透明性。算法的操作邏輯層要求在給定輸入數(shù)據(jù)的情況下,輸出結(jié)果可以預(yù)測,包括操作的執(zhí)行順序和條件序列均應(yīng)可見。在執(zhí)行特定任務(wù)時,生成式人工智能系統(tǒng)的所有操作流程、涉及的參數(shù)及條件都應(yīng)保持可視化與可預(yù)見性。這種透明性有助于開發(fā)者和用戶洞察AI的基礎(chǔ)運行邏輯,增強對AI的信任感。第二層是算法的解釋層透明性,即強調(diào)揭示其內(nèi)在工作機制原理,涵蓋數(shù)據(jù)處理的基本原則及生成數(shù)據(jù)輸出的理論依據(jù)。具體而言,當(dāng)生成式人工智能產(chǎn)出特定內(nèi)容時,應(yīng)能詳述背后的數(shù)據(jù)處理依據(jù)與決策推理過程。這種透明性有助于用戶深化理解并有效甄別信息結(jié)果,從而減少因虛假信息引發(fā)的誤解與混亂。這兩個層面的透明性確保了算法的整體設(shè)計和工作機制對外部觀察者是清晰的,從而減少了算法在實際應(yīng)用中的黑箱效應(yīng)。
另一方面,確保訓(xùn)練有關(guān)的數(shù)據(jù)質(zhì)量和合法性要求。大語言模型的構(gòu)建依賴于龐大且優(yōu)質(zhì)的數(shù)據(jù)集進行訓(xùn)練,以此實現(xiàn)其卓越的文本生成與理解能力。數(shù)據(jù)質(zhì)量不僅是模型訓(xùn)練的根本,還直接影響模型效能與應(yīng)用場景的效果。高質(zhì)量數(shù)據(jù)應(yīng)具備真實性、精確度和客觀性,這不僅能增強模型的生成性能,還能減少輸出內(nèi)容中的謬誤與傾向性。相反,若訓(xùn)練數(shù)據(jù)充斥錯誤信息與偏頗觀點,模型在文本生成時不僅會復(fù)制,還會放大這些弊端,導(dǎo)致生成文本失準(zhǔn)或含有歧視性表述。因此,在籌備訓(xùn)練數(shù)據(jù)階段,實施嚴(yán)格的數(shù)據(jù)篩選與凈化工序以確保數(shù)據(jù)的優(yōu)良品質(zhì)與可靠性尤為重要。在構(gòu)建大型模型的訓(xùn)練過程中,數(shù)據(jù)的合法性是不可或缺的考量因素。這包括確保數(shù)據(jù)采集途徑的合法性、尊重知識產(chǎn)權(quán)歸屬以及遵守個人隱私權(quán)益的保障規(guī)范[8]。隨著數(shù)據(jù)隱私保護法律體系的完善,生成式人工智能提供商必須高度重視數(shù)據(jù)合法性。此處所述的合法性不僅涉及數(shù)據(jù)獲取的正當(dāng)性,還包括數(shù)據(jù)處理與加工環(huán)節(jié)的合規(guī)操作。服務(wù)商在執(zhí)行數(shù)據(jù)管理和儲存操作時,應(yīng)實施合理且有效的管理策略,維護數(shù)據(jù)的安全性與隱私保護,杜絕數(shù)據(jù)的非法泄露與濫用。從數(shù)據(jù)質(zhì)量把控到合法性確認(rèn),每一步驟均需周密設(shè)計與嚴(yán)格管理,以最大限度地挖掘數(shù)據(jù)潛力,推動生成式人工智能技術(shù)的持續(xù)演進與廣泛應(yīng)用。
此外,面對生成式人工智能帶來的潛在風(fēng)險,國家立法部門應(yīng)著手制定相關(guān)條款,明確規(guī)定所有AI生成內(nèi)容需明確標(biāo)注,以此提升公眾辨別此內(nèi)容的能力。同時,還應(yīng)成立監(jiān)管實體部門,監(jiān)控與指導(dǎo)AI生成的內(nèi)容,以保證其合法性及符合倫理道德規(guī)范。出版單位應(yīng)建立健全學(xué)術(shù)問責(zé)體系,要求研究者投稿時明確聲明其作品中采用的AI生成內(nèi)容未涉及剽竊或篡改行為,與作者簽訂學(xué)術(shù)誠信協(xié)議書。
2.把握編輯主體性的核心價值
在未來的學(xué)術(shù)出版領(lǐng)域,編輯必須把握好在人機互動過程中自身的主體性價值。雖然人工智能技術(shù)可以生成多模態(tài)內(nèi)容,甚至參與寫作、編輯、制作、分發(fā)、核查等全流程的內(nèi)容生產(chǎn),但其在情感表達(dá)、價值觀和倫理判斷方面仍無法與人類相比[2]。因此,復(fù)雜且多變量的思考仍主要依賴于人類,這意味著在內(nèi)容生產(chǎn)把關(guān)過程中,人類始終是組織者和目標(biāo)制定者[2]。隨著技術(shù)的飛速發(fā)展,編輯須具備判斷能力,特別是在面對技術(shù)進步與主體性之間的關(guān)系時,要警惕工具使用對價值判斷的影響,確保技術(shù)為人類服務(wù)。編輯不僅是內(nèi)容的加工者,還是綜合判斷的守護者。這些判斷涉及倫理、價值、科學(xué)和審美等多個層面,是編輯工作中的關(guān)鍵要素。它們不僅決定了學(xué)術(shù)內(nèi)容的方向與質(zhì)量,還決定了其社會影響與學(xué)術(shù)貢獻(xiàn)。盡管人工智能技術(shù)的應(yīng)用可承擔(dān)部分基礎(chǔ)性任務(wù),但真正的學(xué)術(shù)判斷、意識形態(tài)引導(dǎo)以及對復(fù)雜問題的深層次理解,仍依賴于人類編輯的學(xué)術(shù)修養(yǎng)與綜合素質(zhì)[9]。因此,面對人工智能時代的到來,編輯應(yīng)牢牢掌握內(nèi)容選擇的引導(dǎo)權(quán),強化自身主體意識,同時深化學(xué)術(shù)專長,成長為具備廣闊視野和專業(yè)判斷力的專家型編輯,以嶄新的姿態(tài)迎接人工智能時代的到來。
3.加強編輯的媒介使用素養(yǎng),強化技術(shù)人才儲備
為應(yīng)對全球?qū)W術(shù)出版領(lǐng)域的差距,出版機構(gòu)應(yīng)積極采取相應(yīng)措施。作為學(xué)術(shù)期刊的把關(guān)人,編輯人員不僅要具備廣博的專業(yè)知識,還要掌握生成式人工智能的相關(guān)技術(shù)和應(yīng)用,以嶄新的姿態(tài)迎接人工智能時代的到來。從出版機構(gòu)的角度而言,必須加大人才隊伍建設(shè)的投入力度。邀請行業(yè)內(nèi)的權(quán)威專家介紹人工智能技術(shù)的最新進展及實踐應(yīng)用,引導(dǎo)編輯熟練掌握新興技術(shù)的理論基礎(chǔ)與實踐操作。通過這種方式,編輯能夠更深刻地理解人工智能技術(shù)在日常工作中的應(yīng)用方法,從而有效提升工作效率與質(zhì)量。出版機構(gòu)還應(yīng)引入前沿的AI工具及軟件,協(xié)助編輯在稿件篩選、校驗、數(shù)據(jù)處理等環(huán)節(jié)提高工作效率和準(zhǔn)確性,同時成立專門的技術(shù)小組,負(fù)責(zé)智能出版系統(tǒng)的研發(fā)與維護,為編輯及時提供技術(shù)咨詢服務(wù)與問題解決方案。通過以上措施,有望在提升編輯能力、優(yōu)化出版流程以及推動技術(shù)創(chuàng)新等方面取得實質(zhì)性進展,從而有效縮小學(xué)術(shù)出版領(lǐng)域因生成式人工智能技術(shù)發(fā)展而產(chǎn)生的差距,促進學(xué)術(shù)出版的高質(zhì)量發(fā)展。
|參考文獻(xiàn)|
[1]肖延兵,余朔. 生成式人工智能賦能學(xué)術(shù)出版應(yīng)用場景探討[J]. 中國出版,2024(6):44-46.
[2]喻國明,楊雅. 生成式AI與新質(zhì)內(nèi)容生產(chǎn)力:從理論解讀到實際應(yīng)用[M]. 北京:人民郵電出版社,2024.
[3]劉建軍,張凌之. 學(xué)術(shù)期刊編輯的探索與創(chuàng)新[M]. 北京:科學(xué)出版社,2017.
[4]沈錫賓,王立磊,劉紅霞. 人工智能生成內(nèi)容時代學(xué)術(shù)期刊出版的機遇與挑戰(zhàn)[J]. 數(shù)字出版研究,2023(2):27-33.
[5]尤凱,王雪,李新紅. 生成式人工智能對學(xué)術(shù)期刊的影響與建議:以ChatGPT為例[J]. 出版廣角,2024(6):77-80
[6]陳小平. 人工智能倫理導(dǎo)引[M]. 合肥:中國科學(xué)技術(shù)大學(xué)出版社,2021.
[7]蔣雪穎,劉欣. 生成式人工智能技術(shù)下的學(xué)術(shù)生產(chǎn)與出版:變革、失范與路徑[J]. 數(shù)字圖書館論壇,2023(5):64-71.
[8]李巨星,姜瑩. 生成式人工智能賦能出版高質(zhì)量發(fā)展:價值意義、現(xiàn)實梗阻與調(diào)治路徑[J]. 科技與出版,2024(7):103-111.
[9]張明慧,玉璐,楊軍. 禁用還是擁抱:生成式人工智能與中國社科期刊原創(chuàng)把關(guān)[J]. 出版發(fā)行研究,2023(8):49-55.