摘 要:生成式人工智能以強(qiáng)大的知識生成能力為基本特征,在拓寬學(xué)術(shù)研究領(lǐng)域及提升學(xué)術(shù)研究效率的同時,也給學(xué)術(shù)不端治理帶來新的挑戰(zhàn),一方面,其在創(chuàng)作主體性及內(nèi)容原創(chuàng)性方面給當(dāng)前學(xué)術(shù)不端概念帶來了沖擊;另一方面,在生成式人工智能的加持下,學(xué)術(shù)不端行為呈現(xiàn)出新的特點,致使學(xué)術(shù)不端治理更為復(fù)雜。為排除生成式人工智能對學(xué)術(shù)不端治理的妨礙,需將學(xué)術(shù)不端治理推向法律規(guī)制與技術(shù)手段并重的階段,并通過重塑科研規(guī)范,構(gòu)建學(xué)術(shù)不端治理新框架。
關(guān)鍵詞:生成式人工智能;學(xué)術(shù)不端 ;法律規(guī)制;技術(shù)手段
中圖分類號:G230.7 " " " " " "文獻(xiàn)標(biāo)志碼:B 文章編號:1671-0142(2025)01-0032-04
2022年底,ChatGPT-3.5以其強(qiáng)大的信息整合和自然語言處理能力引發(fā)了全球人工智能風(fēng)暴,生成式人工智能迅速嵌入社會各領(lǐng)域,其嵌入社會的深度、廣度、速度疊加推進(jìn),不斷重構(gòu)著人類社會的現(xiàn)在及未來圖景。
生成式人工智能以強(qiáng)大的知識生成能力為基本特征,其不僅能夠生成文本,還可以生成圖片、視頻等多媒體內(nèi)容,革命性的人機(jī)交互模式為社會生活的許多領(lǐng)域帶來了新的可能性,給肩負(fù)文化傳承與技術(shù)創(chuàng)新使命的學(xué)術(shù)研究帶來顛覆性影響。同時,基于人工智能的強(qiáng)大能力,學(xué)術(shù)不端問題也會大量出現(xiàn),并以新的形式和特征出現(xiàn),為學(xué)術(shù)研究范式帶來了一系列的變革和挑戰(zhàn)。
1 學(xué)術(shù)不端概念在生成式人工智能背景下的重新定義
根據(jù)《中華人民共和國著作權(quán)法》《中華人民共和國著作權(quán)法實施條例》等法律法規(guī)的規(guī)制,參照科技部、教育部、新聞出版總署等部門的有關(guān)規(guī)定,學(xué)術(shù)不端行為是指違反學(xué)術(shù)規(guī)范、學(xué)術(shù)道德的行為,一般體現(xiàn)為三種形式,一是捏造數(shù)據(jù),指虛構(gòu)或編造數(shù)據(jù)、事實的行為;二是篡改數(shù)據(jù),指故意修改研究數(shù)據(jù)或事實,使作品失去真實性的行為;三是剽竊,主要是指采用不當(dāng)手段,故意竊取他人研究方法、數(shù)據(jù)、觀點、 圖像、文字表述等并以自己名義發(fā)表的行為[1]。實踐中一稿多投、不當(dāng)署名、重復(fù)發(fā)表等行為也可包括進(jìn)去。
一般而言,著作權(quán)認(rèn)定必須同時滿足或具備兩個條件,其一是著作權(quán)主體要件,其二是客觀上內(nèi)容符合作品的特征。人工智能生成文本能否獲得法律保護(hù)及受法律規(guī)制,在于其創(chuàng)作過程中是否存在創(chuàng)作者的主體性、作品內(nèi)容的獨立性以及原創(chuàng)性,探討使用人工智能作品是否構(gòu)成學(xué)術(shù)不端行為,必須以違背著作權(quán)法為基本特征。
1.1 創(chuàng)作主體性
我國著作權(quán)法將作者限定為“自然人、法人或其他非法人組織”?!白髌肥亲鳛橛醒腥獾淖匀蝗藢τ谒枷胗^念的表達(dá)……由非人類‘創(chuàng)作’的東西不屬于著作權(quán)法意義上的‘作品’”[2]。人工智能技術(shù)因其強(qiáng)大的數(shù)據(jù)生成能力引發(fā)了對機(jī)器人是否具有法律主體地位的思索?;诜ɡ碚摰恼J(rèn)識,法律上的“人”應(yīng)具有兩個條件:一是法律賦予該主體享有權(quán)利、履行義務(wù)的法律資格,即規(guī)范條件;二是該主體必須具有實現(xiàn)前述法律資格的意志能力,即事實條件。其中,法人作為擬制的人,通過“歸入”技術(shù)和生物人的行為建立起聯(lián)系,其法律自認(rèn)最終由生物人承擔(dān)。而人工智能因其不可能承擔(dān)獨立責(zé)任而被排斥為法律主體。既然生成式人工智能不能是作者,那么也就不能成為學(xué)術(shù)不端行為的擔(dān)責(zé)主體,這對當(dāng)前學(xué)術(shù)不端概念的內(nèi)涵帶來了沖擊。
1.2 內(nèi)容原創(chuàng)性
“原創(chuàng)性”或“獨創(chuàng)性” 一方面要求作者獨立完成作品,另一方面要求作品具有一定的創(chuàng)新性,即作品中要有作者的智力創(chuàng)造,帶有作者的個人意志。而人工智能生成物通常是在大量數(shù)據(jù)廣泛訓(xùn)練的基礎(chǔ)上,通過尋找規(guī)則,借助強(qiáng)大的綜合能力和生成能力自動生成新的作品,其創(chuàng)作過程受到算法和數(shù)據(jù)的限制,創(chuàng)作靈感和決策過程與人類創(chuàng)作者有著本質(zhì)的區(qū)別,不符合著作權(quán)法規(guī)定的原創(chuàng)性標(biāo)準(zhǔn),無法獲得著作權(quán)法的保護(hù),而一旦這樣的作品得以傳播,可能會導(dǎo)致其他作者隨意使用、引用他人的觀點和數(shù)據(jù),因無法尋根溯源,將使其被推向被動利用他人研究成果的尷尬境地,并帶來此類被動行為是否屬于學(xué)術(shù)不端行為定義的疑慮。
2 人工智能引發(fā)的新型學(xué)術(shù)不端行為
生成式人工智能的迅速迭代為學(xué)術(shù)研究的發(fā)展帶來了新機(jī)遇,其通過非常強(qiáng)的可訪問性、參與性和協(xié)作性,在很大程度上能將科研人員從重復(fù)、繁雜的數(shù)據(jù)資料收集、歸納、分析等勞動中釋放出來,隨著人工智能技術(shù)的發(fā)展,其生成的內(nèi)容質(zhì)量也越來越具有真實性,語言理解和生成能力越來越趨于人性化,還能夠根據(jù)用戶特定需求量身定制各種個性化方案,為拓寬科學(xué)發(fā)現(xiàn)的邊界,提高科學(xué)研究的效率以及提升數(shù)值模擬速度和準(zhǔn)確度方面帶來了前所未有的突破[3]。但同時,生成式人工智能對網(wǎng)絡(luò)數(shù)據(jù)的肆意使用、組合必將帶來一系列學(xué)術(shù)不端問題。
2.1 人工智能直接參與寫作
人工智能獨立寫作模式是當(dāng)前學(xué)術(shù)研究領(lǐng)域借助生成式人工智能進(jìn)行學(xué)術(shù)抄襲的主要模式,人工智能直接參與寫作是指人工智能按照使用者的語句指示,直接生成與使用者數(shù)據(jù)請求有較高關(guān)聯(lián)性的文章或文字組合,如直接生成論文、生成論文摘要、生成文獻(xiàn)綜述、論文翻譯、論文降重等。當(dāng)前,使用者通過人工智能生成文章或論文主要服務(wù)于兩種目的,一是在校學(xué)生為完成學(xué)業(yè)任務(wù),借助生成式人工智能直接寫作或潤色其文章、論文;二是擔(dān)負(fù)學(xué)術(shù)研究任務(wù)的個別主體,利用生成式人工智能進(jìn)行虛假研究、論文寫作、尋求在學(xué)術(shù)期刊發(fā)表。針對此類學(xué)術(shù)不端行為,目前各高校及學(xué)術(shù)期刊編輯部都提出了相應(yīng)對策,如要求作者主動聲明,增加技術(shù)和人工審查及加大懲處力度等,但一方面這些對策不具有普適性,另一方面人工智能因其強(qiáng)大的學(xué)習(xí)能力,其生成能力越來越強(qiáng)大,文本質(zhì)量越來越高,必然帶來識別難度的增加,使用人工智能直接參與論文寫作構(gòu)成學(xué)術(shù)抄襲的行為仍是防不勝防。
2.2 人工智能洗稿行為
“洗稿”就是對別人的原創(chuàng)內(nèi)容進(jìn)行篡改、刪減,利用其部分思想內(nèi)容和素材,通過調(diào)整結(jié)構(gòu)、轉(zhuǎn)換表達(dá)方式、變更詞語等方式產(chǎn)生新的作品并以自己的名義發(fā)表的行為,修改后的作品好像煥然一新,但其實最有價值的部分還是抄襲的,是典型的學(xué)術(shù)不端行為。人工智能時代使信息的收集、整理、傳播更為迅捷和方便,洗稿行為也變得更為簡便易行,不同于傳統(tǒng)時代的抄錄、復(fù)制粘貼,人工智能時代不僅能短時間內(nèi)實現(xiàn)“一稿多洗”“多稿多洗”,而且更具隱蔽性,能逃避查重技術(shù)的檢測。使用者不但能借助生成式人工智能在龐大的網(wǎng)絡(luò)數(shù)據(jù)庫中進(jìn)行數(shù)據(jù)收集,還能在與人工智能的“互動”中不斷提出各種要求,使人工智能在其“引導(dǎo)”下一步步完善文本,達(dá)到洗稿目的。人工智能給洗稿行為帶來的便捷性和隱蔽性進(jìn)一步加劇了洗稿行為。
2.3 人工智能技術(shù)缺陷導(dǎo)致的學(xué)術(shù)不端
(1)數(shù)據(jù)調(diào)研帶來的學(xué)術(shù)不端風(fēng)險。人工智能在技術(shù)層面,主要是通過對使用者的數(shù)據(jù)命令或請求,聚類搜集、梳理和分析海量網(wǎng)絡(luò)數(shù)據(jù),依據(jù)使用者指示探索、歸納數(shù)據(jù)規(guī)律以及數(shù)據(jù)與指示之間的關(guān)聯(lián),按照使用者要求智能處理、生成答案。在這一過程中,首先,人工智能必須在受到外界刺激后才能啟動智能思維模式,即必須由使用者對其發(fā)出指令,而同時,人工智能設(shè)定的迎合式代碼要求其必須完成使用者發(fā)出的指令,即必須響應(yīng)使用者指令、回答使用者問題,在代碼運(yùn)行中,數(shù)據(jù)編造與事實的相符與否并不在人工智能的判斷中。其次,生成式人工智能信息辨別數(shù)據(jù)真實度的能力受限于其計算能力,其在收集信息時并不能嚴(yán)格判斷收集的數(shù)據(jù)信息是否正確、是否真實,比如涉嫌學(xué)術(shù)造假的數(shù)據(jù)也可能被人工智能所收集。此外,生成式人工智能對模糊數(shù)據(jù)或加密數(shù)據(jù)的還原能力有限,比如某些模糊的圖片或經(jīng)過人工加密的語言,甚至拼音縮寫等都會對人工智能還原信息造成誤導(dǎo)。由此導(dǎo)致的結(jié)果就是這些真真假假的數(shù)據(jù)在使用過程中就可能產(chǎn)生各種矛盾,而使用者基于其實際使用目的、學(xué)術(shù)研究態(tài)度和能力,或是不關(guān)心數(shù)據(jù)的真假,或是排除假數(shù)據(jù),甚或有可能排除真數(shù)據(jù),如果將此類最終生成結(jié)果應(yīng)用于學(xué)術(shù)研究必然產(chǎn)生學(xué)術(shù)不端行為。
(2)文獻(xiàn)引用侵害他人權(quán)益。規(guī)范地標(biāo)注引用是區(qū)分學(xué)術(shù)論文寫作時合法使用他人學(xué)術(shù)成果與剽竊行為的最佳方法。生成式人工智能進(jìn)行“學(xué)術(shù)創(chuàng)作”的前提是“學(xué)習(xí)”海量的文獻(xiàn)資料,借助資料作為其訓(xùn)練數(shù)據(jù),模擬學(xué)習(xí)文獻(xiàn)的邏輯、內(nèi)容、語言表達(dá)等,再根據(jù)指令要求模仿寫作,如果按照規(guī)定正確引用其使用所有文獻(xiàn),這些文獻(xiàn)占據(jù)的篇幅甚或超過正文內(nèi)容。因此,人工智能最終的生成文本都會不同程度地存在著漏掉引注、錯誤引注的現(xiàn)象,甚至胡亂偽注,從而構(gòu)成對他人學(xué)術(shù)論文或?qū)W術(shù)觀點的剽竊,產(chǎn)生學(xué)術(shù)不端行為。
(3)反復(fù)使用擴(kuò)散學(xué)術(shù)不端。生成式人工智能提高了學(xué)術(shù)生產(chǎn)的效率,更加速了學(xué)術(shù)成果的傳播。人工智能生成的學(xué)術(shù)文本得以發(fā)表或在網(wǎng)絡(luò)進(jìn)行傳播后,人工智能通過精準(zhǔn)捕捉用戶興趣,精準(zhǔn)定向推送相關(guān)研究成果,并在內(nèi)容和形式上保持高度的定制化風(fēng)格,從而實現(xiàn)更好的用戶體驗和傳播效率,加速傳播效果,如這類文本本身涉嫌學(xué)術(shù)不端,存在造假、剽竊等行為,人工智能則加速產(chǎn)生了新的傳播造假,擴(kuò)散加劇了學(xué)術(shù)不端行為。
3 人工智能時代學(xué)術(shù)不端行為的規(guī)制框架
3.1 法律規(guī)制:強(qiáng)化敏捷善治頂層設(shè)計
技術(shù)發(fā)展的“加速度”與傳統(tǒng)技術(shù)治理的“滯后性”的矛盾一直存在,技術(shù)是呈指數(shù)級增長的,但社會和法律系統(tǒng)只會緩慢發(fā)展,但生成式人工智能發(fā)展迅猛,推廣應(yīng)用價值廣泛,亟需治理速度與之相匹配。
(1)逐步確立生成式人工智能主體資格。人工智能背景下產(chǎn)生學(xué)術(shù)不端行為的原因之一是人工智能在法律上的地位未定,其生成的作品是否受法律保護(hù)存在爭議。
由于目前人工智能還未完全擺脫人工控制,不具有獨立的意志能力和責(zé)任能力,暫不宜確定為“人”。“法學(xué)理論和法律制度應(yīng)當(dāng)及時關(guān)注和回應(yīng)技術(shù)帶來的新問題,不可以抱殘守缺,但也不能脫離體系化思維”[4],故我們亟需建立一套能夠?qū)ⅰ鞍菪浴焙汀斑m應(yīng)性”統(tǒng)合起來的治理人工智能學(xué)術(shù)不端行為的法律體系。比如可以適當(dāng)借鑒擬制民事主體學(xué)說,在某些領(lǐng)域承認(rèn)其擬制的法律主體資格,在權(quán)利義務(wù)的承擔(dān)上,將人工智能的研發(fā)者、投資人、使用者或其他實際控制人作為權(quán)利義務(wù)的最終承擔(dān)對象。
(2)完善法律法規(guī)體系。我國現(xiàn)行法律體系中《網(wǎng)絡(luò)安全法》《個人信息保護(hù)法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等均有與人工智能相關(guān)的規(guī)定。2023年7月10日,我國頒布了全球范圍內(nèi)首部生成式人工智能法規(guī),即《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》),《暫行辦法》明確規(guī)定“國家堅持安全和發(fā)展并重,促進(jìn)創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務(wù)實行包容審慎和分類分級監(jiān)管”[5]。這部法規(guī)對生成式人工智能劃定分級監(jiān)管“紅線”,將審慎容錯納入監(jiān)管框架,能有效彌補(bǔ)技術(shù)發(fā)展和治理能力之間的空隙,健全了我國人工智能法律治理體系。
3.2 技術(shù)手段:規(guī)范人工智能技術(shù)開發(fā)及使用,防范學(xué)術(shù)不端行為
(1)研發(fā)階段:完善人工智能技術(shù),嚴(yán)密防范學(xué)術(shù)不端行為。人工智能研發(fā)企業(yè)是引導(dǎo)技術(shù)向善的重要源頭,也是防范技術(shù)不端行為的第一踐行者。《暫行辦法》明確了生成式人工智能服務(wù)的法律紅線:不得生成違法內(nèi)容;在算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,采取有效措施防止歧視;尊重知識產(chǎn)權(quán)和其他合法權(quán)益;提高生成內(nèi)容準(zhǔn)確性和可靠性[5]。據(jù)此,研發(fā)企業(yè)在研發(fā)和升級智能技術(shù)時,應(yīng)將負(fù)面影響作為優(yōu)先和研究重點,全面預(yù)防人工智能技術(shù)的惡意使用;同時,提高人工智能信息過濾的能力,嚴(yán)格把控信息輸入,加強(qiáng)數(shù)據(jù)來源的識別,審查內(nèi)容并人工標(biāo)記,優(yōu)化訓(xùn)練數(shù)據(jù)集,通過增加限制性條件等從技術(shù)上控制人工智能接觸不良信息,并設(shè)置警示系統(tǒng),一旦發(fā)現(xiàn)虛假性、危險性內(nèi)容,能夠迅速做出警示或拒絕反饋。此外,還要注重保護(hù)隱私信息,植入相關(guān)程序,增強(qiáng)系統(tǒng)防護(hù)能力。
(2)使用階段:生成式人工智能甄別學(xué)術(shù)不端的利用和進(jìn)步。中國學(xué)術(shù)不端檢測軟件最早是2008年3月研制成功的PaperPass檢測系統(tǒng),目前使用最廣泛的是中國知網(wǎng)學(xué)術(shù)不端檢測系統(tǒng),但該系統(tǒng)只能對文本相似度進(jìn)行檢測,無法檢測圖片的相似性,在論文圖片抄襲檢測上有所欠缺。因此,利用生成式人工智能升級學(xué)術(shù)不端檢測系統(tǒng)的檢測能力,在文獻(xiàn)引證識別功能、圖表識別技術(shù)等方面加強(qiáng)技術(shù)進(jìn)步,檢索論文中涉及的文獻(xiàn)數(shù)據(jù),使論文抄襲行為無所遁形。同時,還要確保檢測系統(tǒng)的及時性,即要保持期刊、出版社與檢測系統(tǒng)的數(shù)據(jù)共享、數(shù)據(jù)同步更新等,堵住學(xué)術(shù)不端行為主體利用時間差規(guī)避學(xué)術(shù)不端檢測系統(tǒng)的漏洞。
(3)技術(shù)防范:抵制并嚴(yán)懲助長學(xué)術(shù)不端行為的軟件工具。利用軟件查殺降重助長了學(xué)術(shù)抄襲、剽竊等行為,對當(dāng)前的學(xué)術(shù)規(guī)范工作造成了極大的干擾,必須將此類軟件納入“惡意軟件”范疇進(jìn)行治理。通過技術(shù)手段,限制或禁止其安裝、使用及傳播,當(dāng)前在淘寶搜索“論文降重”已無內(nèi)容顯示,但這種治理僅依靠單個或幾個平臺單獨治理無法根治,需要各平臺協(xié)調(diào)才能實現(xiàn)根治,網(wǎng)絡(luò)安全和網(wǎng)信平臺應(yīng)統(tǒng)一出臺相關(guān)治理措施,限制此類信息搜索及相關(guān)軟件的安裝。
3.3 道德引領(lǐng):重塑科研規(guī)范,營造良好的科研生態(tài)環(huán)境
生成式人工智能在科研中的廣泛使用會不斷影響沖擊現(xiàn)有的科研道德和規(guī)范,但不能因此而抵制人工智能,因噎廢食。認(rèn)可接受人工智能是社會發(fā)展的必然,法律政策約束為學(xué)術(shù)研究提供了重要的規(guī)范機(jī)制,而加快形成道德倫理共識則有助于推動政策落實。首先,對待人工智能要持開放和積極的態(tài)度,但也必須樹立“數(shù)據(jù)應(yīng)用,安全第一”的意識,在限定合理范圍內(nèi)安全使用人工智能,對于使用人工智能的部分,作者應(yīng)予以聲明,采用人工智能生成數(shù)據(jù)的,必須審核數(shù)據(jù)的真實性,且不得在未充分引用和注明出處的情況下介紹他人的觀點、數(shù)據(jù)等。其次,一定要堅持“以人為本”的學(xué)術(shù)理念,堅持生成式人工智能對人類科學(xué)研究的輔助地位,堅持學(xué)術(shù)研究過程中人的主體性及自主權(quán),不斷提高各類研究主體的人工智能素養(yǎng),克服現(xiàn)有人工智能的部分缺陷,提高科研效率。再次,積極開展學(xué)術(shù)誠信教育,塑造人工智能時代學(xué)術(shù)誠信價值觀和倫理觀念,建立科研誠信跨部門跨區(qū)域共享平臺,各級管理部門依法依規(guī)對學(xué)術(shù)不端行為進(jìn)行懲戒,提高學(xué)術(shù)不端行為成本。
3.4 懲戒機(jī)制:建立AI監(jiān)管和問責(zé)機(jī)制,嚴(yán)格學(xué)術(shù)不端責(zé)任
針對學(xué)術(shù)研究中利用AI抄襲、直接生成、洗稿等學(xué)術(shù)不端行為,必須確立嚴(yán)格的問責(zé)機(jī)制,可以從法律責(zé)任、行業(yè)責(zé)任兩個方面進(jìn)行規(guī)制。在法律責(zé)任層面,若研究人員在期刊投稿過程中存有此類行為,需對涉事作者追究退還稿費(fèi)、賠償名譽(yù)損失等民事責(zé)任;除涉事者須承擔(dān)因違背誠信造成其他主體損失的民事責(zé)任外,還應(yīng)在刑事法律框架下加以規(guī)制,即當(dāng)學(xué)術(shù)不端行為造成嚴(yán)重后果時,涉事者或?qū)⒚媾R刑事法律的追究。
在行業(yè)責(zé)任層面,首要措施是建立科研誠信信息共享平臺,推動對不端行為的認(rèn)定標(biāo)準(zhǔn)統(tǒng)一,確保結(jié)果互認(rèn),建立科研失信人數(shù)據(jù)庫,對于情節(jié)嚴(yán)重者,給予列入失信名單之懲戒并予以公示;在學(xué)術(shù)不端頻發(fā)的領(lǐng)域,包括高校、科研機(jī)構(gòu)等,要完善相應(yīng)懲戒制度建設(shè),構(gòu)建科學(xué)合理的懲戒規(guī)范體系,以嚴(yán)密的監(jiān)管網(wǎng)絡(luò),用更加嚴(yán)格的標(biāo)準(zhǔn)和更為嚴(yán)厲的手段來維護(hù)學(xué)術(shù)的純凈與尊嚴(yán)。對于在讀學(xué)生的不誠信行為,特別是學(xué)位論文中的抄襲、造假等,應(yīng)實施終身追責(zé)制度,一經(jīng)被發(fā)現(xiàn),涉事者將喪失其學(xué)位資格及后續(xù)所有相關(guān)學(xué)位。對于科研人員,除承擔(dān)法律責(zé)任外,還可進(jìn)一步處以撤銷科研獎勵、阻斷職稱晉升通道、解除職務(wù)或禁止投稿等處罰。
4 結(jié)語
“使用這項技術(shù)是不可避免的,因此,禁止它是行不通的”[6],人工智能時代的到來開辟了學(xué)術(shù)研究快速發(fā)展的新航道,但隨之而來的風(fēng)險也不可避免,探索有效的化解之道,必將是一個復(fù)雜、長期而艱巨的過程,必須直面生成式人工智能在科研應(yīng)用中的挑戰(zhàn),前瞻式及動態(tài)式調(diào)整既有法律規(guī)范,構(gòu)建學(xué)術(shù)不端治理新框架,同時不斷完善技術(shù)手段,重塑科研規(guī)范,更好地推動生成式人工智能向上向善發(fā)展。
參考文獻(xiàn):
[1]楊順.ChatGPT等生成式人工智能對學(xué)術(shù)誠信的挑戰(zhàn)及應(yīng)對[C]//《新興權(quán)利》集刊2024年第1卷——智慧法治學(xué)術(shù)共同體研究文集.上海大學(xué)法學(xué)院,2024.
[2]李明德,許超.著作權(quán)法[M].北京:法律出版社,2009.
[3]劉瑤瑤,梁永霞,李正風(fēng).生成式人工智能與科研倫理:變革、挑戰(zhàn)與展望[J].科學(xué)觀察,2024,19(4):1-8.
[4]李琛.論人工智能的法學(xué)分析方法——以著作權(quán)為例[J].知識產(chǎn)權(quán),2019(7):14-22.
[5]姜濤,葉思雨.生成式人工智能浪潮下的學(xué)術(shù)生態(tài):機(jī)遇、挑戰(zhàn)及應(yīng)對[J].河北科技大學(xué)學(xué)報(社會科學(xué)版),2024,24(2):85-92.
[6]Van Dis Eam,Bollen J,Zuidema W,et" al.ChatGPT:five priorities for research[J].Nature,2023,614(7947):224-226.
(責(zé)任編輯 顧雅麗)