文/張新玲 謝永生 章權(quán)
2022年11月30日,美國OpenAI研發(fā)的聊天機器人程序ChatGPT一經(jīng)發(fā)布便迅速火爆全網(wǎng),引起全球互聯(lián)網(wǎng)界、學(xué)術(shù)界及產(chǎn)業(yè)界的關(guān)注和熱議。OpenAI此前還發(fā)布了GPT-1、GPT-2和GPT-3,ChatGPT是基于第三代大模型GPT-3的升級產(chǎn)品,是在GPT-3.5上進(jìn)行微調(diào)而誕生。2023年3月14日,智能水平更高、專業(yè)學(xué)術(shù)基準(zhǔn)性能及圖片識別能力更強的GPT-4發(fā)布,再次引爆了人們對ChatGPT的關(guān)注。與此同時,我國的人工智能技術(shù)也取得了很大的進(jìn)展,2023年3月16日,國內(nèi)首款對標(biāo)ChatGPT及GPT-4的大語言模型“文心一言”正式發(fā)布。此外,國內(nèi)大量“類ChatGPT大語言模型”也蜂擁而出,也可用于文本生成。ChatGPT預(yù)示著一個新時代的啟幕,將極大推動人工智能發(fā)展乃至信息產(chǎn)業(yè)革命。
ChatGPT被稱為學(xué)術(shù)界的“靈丹妙藥”,可以幫助研究人員閱讀文獻(xiàn)、分析數(shù)據(jù)、撰寫論文,是研究人員不可多得的學(xué)術(shù)研究助手。但ChatGPT缺乏準(zhǔn)確、充分傳達(dá)復(fù)雜科學(xué)概念和信息所需的知識和專長的能力,缺乏評估處理信息真實性和可靠性的能力,因此其最顯著的缺點是生成的信息不總是準(zhǔn)確的,即ChatGPT輸出的論文有可能在數(shù)據(jù)、結(jié)論、意識形態(tài)、科技倫理方面存在錯誤和誤導(dǎo)性信息,這對學(xué)術(shù)出版尤其有害,加上錯誤信息還沒有高效的識別軟件,因此,相關(guān)內(nèi)容審查需要作者、編輯及審稿人的仔細(xì)核實、驗證及修改,需要花費大量的人力和時間。
ChatGPT屬于人工智能,但又不是普通的人工智能,在很多方面遠(yuǎn)超普通人工智能。社會層面已開啟ChatGPT融合發(fā)展及對策研究,如ChatGPT與教育、新聞出版及圖書館行業(yè)等的相關(guān)研究。因此,本文重點研究ChatGPT等對學(xué)術(shù)期刊的挑戰(zhàn)及對策,以期在理論上豐富人工智能時代學(xué)術(shù)期刊發(fā)展模式的研究內(nèi)容,在實踐上幫助期刊積極應(yīng)對ChatGPT帶來的挑戰(zhàn),及時制定發(fā)展規(guī)劃,調(diào)整發(fā)展路徑,為構(gòu)建新時代學(xué)術(shù)期刊的發(fā)展模式提供參考。
對學(xué)術(shù)期刊來說,ChatGPT可協(xié)助審稿、策劃組稿、編輯加工等,提高期刊出版發(fā)行和學(xué)術(shù)傳播的效率和質(zhì)量,給學(xué)術(shù)期刊帶來新的發(fā)展機遇,但由于ChatGPT輸出的學(xué)術(shù)論文存在不確定性,也給學(xué)術(shù)期刊帶來很大的挑戰(zhàn)。
人類技術(shù)發(fā)展史表明,新技術(shù)的廣泛應(yīng)用將會引發(fā)新的法律風(fēng)險。ChatGPT強大功能的背后,也暗藏很多法律風(fēng)險隱患,首要的就是知識產(chǎn)權(quán)風(fēng)險和著作權(quán)問題。在數(shù)據(jù)源獲取階段,ChatGPT對數(shù)據(jù)集的使用可能涉及對原始作品權(quán)利人的知識產(chǎn)權(quán)侵權(quán)風(fēng)險;在內(nèi)容生成階段,ChatGPT或其權(quán)利人對其生成的信息是否享有著作權(quán),是否會產(chǎn)生知識產(chǎn)權(quán)法律風(fēng)險,還存在爭議。解決這些法律風(fēng)險問題對未來ChatGPT的技術(shù)研發(fā)和應(yīng)用尤為重要。
1.ChatGPT應(yīng)用過程中的知識產(chǎn)權(quán)風(fēng)險。ChatGPT在學(xué)術(shù)論文的生成過程中用到大量人類作者創(chuàng)作的文字作品,這可能侵犯了他人的著作權(quán)。ChatGPT不直接抄襲他人的文本,而是形成對他人作品的一種重新的組合。而《著作權(quán)法》本身并不保護(hù)人的觀點或思想,保護(hù)的是這種觀點或思想的表達(dá)形式,所以ChatGPT使用人的語言的模式很可能會規(guī)避掉《著作權(quán)法》對著作權(quán)的保護(hù)。此外,有學(xué)者指出,ChatGPT用3000億單詞的語料數(shù)據(jù)和1750億的參數(shù),很大程度上依賴CommonCrawl、WebText、維基百科和書籍語料庫等海量數(shù)據(jù),這就涉及“文本數(shù)據(jù)挖掘”是否需要相應(yīng)的知識產(chǎn)權(quán)授權(quán)及是否侵犯“復(fù)制權(quán)”的問題。OpenAI公司是否取得了這些公司的授權(quán)?使用這些數(shù)據(jù)是否存在知識侵權(quán)風(fēng)險?有學(xué)者認(rèn)為ChatGPT是一個高科技剽竊系統(tǒng);有國外新聞媒體指責(zé)OpenAI在不支付任何費用的情況下使用他們的文章來訓(xùn)練ChatGPT。ChatGPT在學(xué)術(shù)論文創(chuàng)作過程中所用數(shù)據(jù)面臨很大的知識產(chǎn)權(quán)風(fēng)險,若該問題得不到妥善解決,可能會使ChatGPT輔助生成的學(xué)術(shù)論文受到侵權(quán)的影響,這種現(xiàn)象不僅影響學(xué)術(shù)論文的知識傳播及使用,還會影響作者的聲譽和學(xué)術(shù)期刊的發(fā)展。
2.ChatGPT輔助生成的學(xué)術(shù)論文的著作權(quán)問題。ChatGPT生成的內(nèi)容著作權(quán)歸誰,人工智能是否應(yīng)被承認(rèn)為作者等問題引起學(xué)界和業(yè)界人士的激烈爭論。學(xué)術(shù)界存在兩種不同的觀點:一種認(rèn)為ChatGPT有著作權(quán)和署名權(quán)。《著作權(quán)法》的一個重要功能是保護(hù)著作權(quán),如果是人工智能機器人的生成物由人類署名,就算抄襲,因此,應(yīng)給人工智能生成物署名。另一種認(rèn)為:“權(quán)利—義務(wù)—責(zé)任”一體,著作權(quán)人應(yīng)就所生成的內(nèi)容負(fù)責(zé),權(quán)利和義務(wù)是相伴相生的,人們?nèi)绻oChatGPT權(quán)利,那它必須承擔(dān)義務(wù),如果存在侵害著作權(quán)的問題,同樣應(yīng)由著作權(quán)人來承擔(dān)相應(yīng)責(zé)任,但ChatGPT只是一個信息處理工具,無法為生成的內(nèi)容承擔(dān)責(zé)任,所以責(zé)任還是在ChatGPT的使用者身上。因此,人工智能不具備主體資格屬性的獨創(chuàng)性,不存在著作權(quán)意義。
從Web of Science數(shù)據(jù)庫調(diào)查可知,從2022年11月ChatGPT發(fā)布以來,截至2023年4月12日,僅有5篇論文將ChatGPT列為共同作者。從目前的呼聲及學(xué)術(shù)期刊發(fā)布的聲明看,人們大多數(shù)傾向于ChatGPT輔助生成的論文無相應(yīng)的著作權(quán)。Nature發(fā)表聲明“任何大型語言模型工具(比如ChatGPT)都不能成為論文作者”,Science明確禁止將ChatGPT列為論文的合著者,Springer-Nature聲明不能將ChatGPT列為作者,eLife主編邁克爾·艾森(Michael Eisen)表示ChatGPT不可能是作者。我國也有期刊做出了回應(yīng),《暨南學(xué)報(哲學(xué)社會科學(xué)版)》不接受ChatGPT單獨或聯(lián)合署名的文章。
ChatGPT具有強大的數(shù)據(jù)搜集和智能文本生成功能,但在準(zhǔn)確性和創(chuàng)新性方面存在缺陷:其缺乏評估處理信息真實性和可靠性的能力;論文的生成是執(zhí)行“搜索—整合—生成”的指令過程,不太具備創(chuàng)新能力,很難生成新的觀點和想法,沒有真正意義上的思考創(chuàng)造。這引起了期刊出版者的質(zhì)疑,ChatGPT準(zhǔn)確性和創(chuàng)新性的缺陷能否承擔(dān)學(xué)術(shù)論文的輔助寫作的重任?ChatGPT輔助學(xué)術(shù)論文寫作的規(guī)范是什么?如何揚長避短,合理利用ChatGPT的優(yōu)勢同時避免其錯誤信息?當(dāng)前對此還缺乏相應(yīng)的規(guī)范指導(dǎo),不同的學(xué)術(shù)期刊各自為政,比較混亂,影響了學(xué)術(shù)期刊行業(yè)的發(fā)展。如Science禁止在投稿論文中使用ChatGPT生成的文本;Nature、Critical Care、Belitung Nursing Journal等20余個期刊的相關(guān)文章在致謝中將ChatGPT的應(yīng)用情況簡要說明,但不夠詳細(xì)。ChatGPT在學(xué)術(shù)界扮演的角色越來越重要,相關(guān)部門和期刊出版者應(yīng)盡快出臺ChatGPT輔助學(xué)術(shù)論文的使用規(guī)范,引導(dǎo)作者合法合理地使用ChatGPT。
比爾·蓋茨說:“ChatGPT像互聯(lián)網(wǎng)發(fā)明一樣重要,將會改變世界?!泵鎸υ絹碓綇姶蟮腃hatGPT,宜疏不宜堵,封堵政策是最不可行的,學(xué)術(shù)期刊應(yīng)采取積極開放的態(tài)度,勇敢應(yīng)對時代進(jìn)步與技術(shù)發(fā)展帶來的挑戰(zhàn)。
審稿是決定學(xué)術(shù)期刊文章質(zhì)量的關(guān)鍵環(huán)節(jié),目前學(xué)術(shù)期刊審稿制度主要是“三審制”,而ChatGPT的出現(xiàn)給當(dāng)前的審稿制度帶來一個很大的考驗。美國西北大學(xué)的一項研究顯示,ChatGPT撰寫的論文摘要和內(nèi)容竟然“騙”過了期刊編輯和審稿人。因為ChatGPT輸出的論文存在信息準(zhǔn)確性低和原創(chuàng)性差的問題,需要期刊編輯和同行評議人對論文進(jìn)行更加細(xì)致、專業(yè)的審查和篩選。ChatGPT背景下學(xué)術(shù)期刊必須更新審稿方式,提高審稿質(zhì)量,更加注重學(xué)術(shù)論文的知識準(zhǔn)確性和創(chuàng)新性審查。
1.嚴(yán)控編輯初審環(huán)節(jié),提高審稿質(zhì)量。按當(dāng)前的審稿程序,初審主要審查重復(fù)率、研究方向、研究價值、是否涉及敏感話題等,這些都是大方面的,很少涉及文章的詳細(xì)內(nèi)容。為防范ChatGPT的濫用,需改進(jìn)傳統(tǒng)的初審模式,加大初審力度,重點關(guān)注文章的內(nèi)容錯誤,包括數(shù)據(jù)、倫理、政治性審查、參考文獻(xiàn)等,為文章復(fù)審做好鋪墊。在送審之前應(yīng)加強與作者的溝通和交流,為作者提供詳細(xì)的修改意見,以保證學(xué)術(shù)論文內(nèi)容的準(zhǔn)確性和科學(xué)性,從源頭消滅學(xué)術(shù)論文中的錯誤信息。
2.增加復(fù)審內(nèi)容,豐富復(fù)審形式。其一,注重內(nèi)容準(zhǔn)確性審查。傳統(tǒng)上復(fù)審的主要內(nèi)容是:創(chuàng)新性、科學(xué)性、學(xué)術(shù)不端、先進(jìn)性及重要性。當(dāng)前,復(fù)審要增加專業(yè)內(nèi)容準(zhǔn)確性審查,包括數(shù)據(jù)是否可靠、理論依據(jù)是否可靠、是否具有明顯政治傾向等。建議期刊編輯將重點審查內(nèi)容羅列在審稿單上,引導(dǎo)審稿人的審稿思路。
其二,豐富審稿形式。智能時代復(fù)審作為有效的學(xué)術(shù)質(zhì)量控制機制也應(yīng)不斷創(chuàng)新發(fā)展,不能局限于傳統(tǒng)的復(fù)審模式。小組/協(xié)作式同行評議模式比較適合論文各項內(nèi)容的全面細(xì)致審查,該模式是基于團(tuán)隊的同行評議方法,多名審稿人對稿件進(jìn)行評議,共同提交綜合審稿意見完成審稿,彌補審稿人知識點的盲區(qū),有助于各學(xué)科論文內(nèi)容信息的全面審查。
可以預(yù)見的是,在未來ChatGPT等人工智能技術(shù)很難禁用。期刊必須制定ChatGPT的使用規(guī)范,使ChatGPT真正服務(wù)于期刊和作者。規(guī)范的制定要建立在詳細(xì)了解ChatGPT在輔助學(xué)術(shù)研究方面的優(yōu)勢和局限的基礎(chǔ)上,搞清楚ChatGPT在哪些方面可替代人類,哪些是人類必須要主導(dǎo)和把關(guān)的。當(dāng)前,學(xué)術(shù)期刊界對ChatGPT的主要使用規(guī)范有兩種:禁止使用和限制性使用。鑒于ChatGPT在數(shù)據(jù)搜集、優(yōu)化整合等方面優(yōu)于人工,但在創(chuàng)新性及準(zhǔn)確性方面尚有缺陷,對原創(chuàng)性要求高的期刊可禁止使用ChatGPT,其余可采取限制性使用。綜合考慮,因當(dāng)前ChatGPT在創(chuàng)新性及準(zhǔn)確性方面存在的弊端,限制性使用可能是比較適合的選擇??山ㄗh研究者在文章的構(gòu)思、數(shù)據(jù)搜集、優(yōu)化整合、可讀性提高方面使用,但在學(xué)術(shù)論文的關(guān)鍵部分不能使用,在論文創(chuàng)作中用過ChatGPT的部分,應(yīng)在文章適當(dāng)?shù)牡胤阶雒鞔_且詳細(xì)的說明,以便于編輯對ChatGPT生成的內(nèi)容進(jìn)行審查。
為提高數(shù)據(jù)的透明性,更有力地阻止ChatGPT輸出的錯誤信息,期刊可要求投稿者提交原始數(shù)據(jù)和程序、處理數(shù)據(jù)、研究材料、公式推導(dǎo)過程、質(zhì)性研究資料、總結(jié)后的詳細(xì)數(shù)據(jù)等相關(guān)附件,并在期刊網(wǎng)站上公開原始數(shù)據(jù)。實際上,國內(nèi)外很多期刊尤其是實驗科學(xué)領(lǐng)域已采用公開原始數(shù)據(jù)的模式,以提高科學(xué)研究的可重復(fù)性(在學(xué)術(shù)研究領(lǐng)域,可重復(fù)性指的是針對同一研究問題,其他研究者的獨立研究可以借助作者提供的方案再現(xiàn)實驗結(jié)果)。例如,我國期刊《中國工業(yè)經(jīng)濟(jì)》、國際期刊Nature及子刊也要求作者提供與論文結(jié)論有關(guān)的所有數(shù)據(jù)。未來,越來越多的研究者會將ChatGPT用于學(xué)術(shù)論文寫作,公開論文原始數(shù)據(jù)將是有效預(yù)防濫用ChatGPT的有效舉措。
ChatGPT在學(xué)術(shù)界的應(yīng)用也帶來期刊界對人工智能技術(shù)人才的巨大需求。當(dāng)前我國很多領(lǐng)域都缺乏人工智能人才,當(dāng)務(wù)之急是對期刊編輯人員進(jìn)行規(guī)范化、專業(yè)化技能培訓(xùn),使編輯人員熟練掌握數(shù)據(jù)搜集、智能審稿系統(tǒng)的應(yīng)用,將所學(xué)應(yīng)用到期刊的審稿及編輯出版中,提升編輯人員的信息素養(yǎng)。通過對近幾年開展的編輯業(yè)務(wù)培訓(xùn)的調(diào)查,發(fā)現(xiàn)人工智能相關(guān)的課程已出現(xiàn)在編輯業(yè)務(wù)培訓(xùn)中,如中國期刊協(xié)會開設(shè)的“智能審校技術(shù)在期刊審稿及編校質(zhì)量提升中的應(yīng)用”課程,幫助編輯學(xué)習(xí)智能審校技術(shù),受到大量編輯的好評。但當(dāng)前關(guān)于人工智能的培訓(xùn)較少,需要增加人工智能培訓(xùn)的相關(guān)課程。
ChatGPT、GPT-4及“文心一言”等人工智能技術(shù)的發(fā)展及應(yīng)用尚在起步階段,未來可能給學(xué)術(shù)期刊帶來更大機遇和挑戰(zhàn)。人機協(xié)同時代,學(xué)術(shù)期刊應(yīng)加快與人工智能融合發(fā)展,強化學(xué)術(shù)期刊人工智能人才隊伍建設(shè),制定明確的人工智能使用規(guī)范,引導(dǎo)作者合理合法地使用人工智能工具,構(gòu)建積極、健康的學(xué)術(shù)環(huán)境,共同促進(jìn)學(xué)術(shù)研究的繁榮發(fā)展。