2023年8月,我國頒布的《生成式人工智能服務管理暫行辦法》(以下簡稱《人工智能管理辦法》)確立了發(fā)展與安全并重的國家戰(zhàn)略方針,強調(diào)創(chuàng)新與法治的有機統(tǒng)一,旨在激發(fā)生成式人工智能領域的創(chuàng)新活力。2023年公布的《中華人民共和國學位法(草案)》(以下簡稱《學位法草案》)首次將“人工智能代寫”納入學術不端行為的范疇,并在第三十三條作出規(guī)定。正式法律文本并未直接使用“人工智能代寫”這一表述,學術界和技術界認為這體現(xiàn)了立法者審慎而開放的態(tài)度,為AIGC(人工智能生成內(nèi)容)技術在學術寫作中的合理應用預留了探索空間,有效應對了技術快速發(fā)展的現(xiàn)實挑戰(zhàn)。
一、AI技術應用侵權案例分析
2024年2月,廣州互聯(lián)網(wǎng)法院在生成式AI服務侵犯著作權的生效判決中認定〔(2024)粵0192民初113號民事判決書〕。法院認定,部分涉案生成圖片保留了原美術作品的獨創(chuàng)性表達,并在多個關鍵特征上與原作高度相似,構成實質(zhì)性相似。盡管生成圖片在保留獨創(chuàng)性表達的基礎上形成了新的特征,被告的行為仍侵犯了原作的改編權。
2024年4月23日,北京互聯(lián)網(wǎng)法院對全國首例AI生成聲音人格權侵權案〔(2023)京0491民初12142號民事判決書〕作出一審判決。該判決明確指出:在聲音具有可識別性的前提下,自然人聲音權益的保護范圍應延伸至AI生成的聲音。即便已獲得錄音制品的授權,也不意味著對聲音進行AI化處理獲得了許可。未經(jīng)權利人同意,擅自使用或允許他人使用錄音制品中的聲音,均構成侵權行為。
由此可見,無論是學術研究還是藝術創(chuàng)作領域,AIGC的權屬認定都需要從多個維度進行考量。相關人員既要探討AIGC的主體身份,分析作品客體的特征,也要審視其潛在風險并采取預防措施。這不僅是避免AI生成內(nèi)容因與原始作品過于相似而構成侵權的必要之舉,還是防止學術不端等問題的關鍵所在。
二、AIGC在論文寫作中的著作權歸屬
(一)AIGC的主體性探討:身份類型多元化
技術創(chuàng)新與創(chuàng)作實踐的深度融合,不僅重塑了著作權領域中傳統(tǒng)作者身份的認定標準,更催生出多元化的創(chuàng)作主體格局。在AIGC領域,創(chuàng)作主體的界定呈現(xiàn)出三個主要維度。
第一,算法使用者作為直接創(chuàng)作主體,其法律地位值得關注。雖然AIGC依托算法這一技術工具,但其產(chǎn)出內(nèi)容具有獨立性和新穎性,權利歸屬與控制權仍歸于人類主體。《中華人民共和國著作權法》(以下簡稱《著作權法》)以獨創(chuàng)性為保護要件,強調(diào)作品必須體現(xiàn)作者的智力創(chuàng)造,這一原則在AIGC領域同樣適用。
第二,算法開發(fā)者的著作權主體地位亟待明確。我國法律在處理天然孳息歸屬問題時,堅持“原物主義”與“生產(chǎn)主義”相結合的原則,這一理念可為AIGC創(chuàng)作主體認定提供借鑒。若將算法開發(fā)者視為原始創(chuàng)作主體,其作品可被視為原始創(chuàng)作的衍生成果。當作品生成過程涉及開發(fā)者與投資者的共同參與時,則需要依據(jù)職務作品或委托作品的相關規(guī)定,審慎認定權利歸屬。
第三,實質(zhì)性投資者的主體地位不容忽視。在洛克財產(chǎn)權理論的指導下,《著作權法》確立了“創(chuàng)作即所有”的基本原則。當投資行為在創(chuàng)作過程中發(fā)揮決定性作用時,權利歸屬可能傾向于實質(zhì)性投資者。這一趨勢在數(shù)據(jù)庫等投資密集型創(chuàng)作領域尤為明顯,充分體現(xiàn)了資本投入對權利歸屬的重要影響。
(二)表現(xiàn)維度:AIGC用于論文寫作的客體特征
根據(jù)AIGC創(chuàng)作過程中的人工介入程度與貢獻維度,其生成內(nèi)容可劃分為兩大類別:一類是人工智能獨立完成的創(chuàng)作成果,一類是在人工智能創(chuàng)作過程中受到用戶操作影響的作品。
第一,人工智能獨立創(chuàng)作作品。此類作品僅需要用戶提供基礎指令,人工智能系統(tǒng)即可自主完成創(chuàng)作全過程。關于其是否符合《著作權法》中“原創(chuàng)性”與“創(chuàng)造性”的核心要件,學界正積極探索具有說服力的解釋路徑。在確保權益保障與責任明晰的前提下,通過合同自治的方式,權利主體與使用方可預先達成共識,構建以所有者為核心的權利框架。這種基于意思自治的契約安排,有助于明晰雙方的權利義務邊界。
第二,人機協(xié)作型創(chuàng)作作品。在此類創(chuàng)作過程中,需要重點關注人工智能對原始數(shù)據(jù)的引用問題,首要任務是完成數(shù)據(jù)清洗工作,并準確評估人工智能的貢獻度。同時,著作權的界定必須對人類提供的創(chuàng)造性輸入進行精準識別與界定。在確立判斷標準時,相關人員應著重考察三個核心要素。創(chuàng)作主體資格,即創(chuàng)作主體必須限定為具有法律人格的自然人或法人。這是確保創(chuàng)作活動符合人類創(chuàng)造力本質(zhì)和知識產(chǎn)權保護基本原則的前提條件。實質(zhì)性參與程度,重點評估人類在創(chuàng)作過程中是否作出實質(zhì)性貢獻,這是衡量人類智力投入的關鍵指標。獨創(chuàng)性與個性化表達,作為評估人類智力貢獻的核心要素,也是區(qū)分人工智能創(chuàng)作與人類創(chuàng)作的本質(zhì)標準。
三、AIGC在論文寫作中的現(xiàn)狀審視
ChatGPT等人工智能工具在學術寫作領域展現(xiàn)出了生成高質(zhì)量文本的能力,但其潛在的濫用風險同樣值得警惕?,F(xiàn)行法律框架是否具備充分的規(guī)制手段應對這一問題,值得深入探討?!陡叩葘W校預防與處理學術不端行為辦法》對高等教育機構內(nèi)各類人員的學術活動進行了明確規(guī)范,其中列舉的七種學術不端情形中,不當使用ChatGPT生成文本可能涉及兩項核心條款。一是“剽竊他人學術成果”。即便文本由AI生成,若未適當標注其輔助性質(zhì)而直接作為個人研究成果呈現(xiàn),則構成對“潛在創(chuàng)作者”(包括AI訓練數(shù)據(jù)貢獻者及算法設計者)的間接剽竊。二是“由他人代寫”。雖然該條款最初針對自然人代寫行為,但若將ChatGPT視為創(chuàng)作工具而規(guī)避個人研究責任,則其行為本質(zhì)亦可歸入“代寫”范疇。
在“剽竊”認定方面,我國高校學位論文依賴查重軟件進行評估。然而,ChatGPT生成內(nèi)容多為重新闡述而非直接復制,導致傳統(tǒng)查重工具難以有效識別其潛在的學術不端行為。就“代寫”行為的判定而言,關鍵在于確認內(nèi)容是否由非作者本人完成。查重比例僅影響行為嚴重程度,而不改變行為性質(zhì)。但是,確定“代筆者”身份時面臨更大挑戰(zhàn)。現(xiàn)行法律制定時尚未預見人工智能的介入,傳統(tǒng)上“他人”被限定為自然人。從立法本意出發(fā),禁止代寫的核心在于確保學術成果的真實性與原創(chuàng)性。因此,“他人”概念可擴展至包括任何非作者本人參與創(chuàng)作的方式或工具。依此嚴格解釋,利用ChatGPT協(xié)助完成的論文確實可能構成違反學術規(guī)范的“代寫”行為。但是,這種解釋在實際應用中的合理性與可操作性仍有待進一步探討和實證研究。
若將ChatGPT輔助完成的論文嚴格界定為“代寫作品”,恐有學術不端之嫌。這一觀點雖在理論上成立,但實際操作的合理性與可行性仍存爭議,其適用范圍與邊界亟待深入探討與審慎評估。這一現(xiàn)象既折射出現(xiàn)行法律體系在面對新興技術時的滯后性,也凸顯了重新審視學術誠信評判標準的必要性。因此,在應對ChatGPT等人工智能工具在學術領域的應用時,我們既要保持審慎態(tài)度,更需積極探索建立科學、合理的監(jiān)管機制,以平衡技術創(chuàng)新與學術規(guī)范之間的關系。
四、AIGC在學術論文寫作中的
風險應對策略
(一)加強對論文造假識別與預防策略
大型語言模型為學術創(chuàng)新注入了新的活力,但其創(chuàng)新效能呈現(xiàn)出顯著的學科差異性。研究表明,這些模型在組合創(chuàng)新和應用創(chuàng)新領域展現(xiàn)出較強的推理能力,而在原始創(chuàng)新方面則相對薄弱?;谶@一特性,期刊編輯應當建立差異化的審稿機制:對具有獨創(chuàng)性的研究成果予以優(yōu)先發(fā)表,對模型易于生成的組合創(chuàng)新類論文實施更加嚴格的審查,對模式化特征明顯的應用型論文采用更為審慎的評估標準。這一分類評審體系不僅強化了編輯在維護學術規(guī)范中的核心作用,更有效降低了由大語言模型生成論文的誤判風險。
值得注意的是,隨著大語言模型推理能力的持續(xù)提高,這一技術正成為人工智能發(fā)展的重要方向,未來識別模型生成論文的難度將顯著增加。因此,期刊編輯必須保持對技術前沿的敏銳洞察,不斷完善評審策略,以應對日益復雜的學術環(huán)境,確保學術出版的質(zhì)量與公信力。
(二)高校對學生應用AIGC技術的監(jiān)管策略
現(xiàn)行法律框架并未對輔助寫作工具的使用設定明確禁令,這為AIGC技術在學術寫作領域的應用奠定了合法性基礎?!度斯ぶ悄芄芾磙k法》在規(guī)范AIGC技術時,樹立“包容審慎”的監(jiān)管理念,在確保安全合規(guī)的前提下,對AIGC技術的創(chuàng)新應用持開放態(tài)度。同時,《人工智能管理辦法》強調(diào)實施“分類分級監(jiān)管”策略,通過科學劃分風險等級,制定差異化監(jiān)管措施,有效防范和化解潛在法律風險。在此背景下,高等教育機構應當從學術專業(yè)視角出發(fā),構建多維度論文檢測與評估體系,精準識別并防范抄襲、造假等學術不端行為。同時,學校應引導學生主動承擔學術道德建設責任,通過系統(tǒng)學習與內(nèi)化學術規(guī)范,提升對學術不端行為嚴重后果的認知。
(三)科學界定AIGC寫作技術的應用邊界
當前,基于風險分級策略的AIGC技術監(jiān)管模式已成為國際共識。歐盟將AI系統(tǒng)風險劃分為不可接受風險、高風險、有限風險和最低風險四個等級,并配套相應監(jiān)管措施。加拿大、澳大利亞等國家也相繼推出類似立法計劃,實施分類分級管理。在論文寫作中,合理應用AIGC技術進行文獻閱讀輔助、研究思路拓展、文章格式優(yōu)化等,可視為提高寫作效率與質(zhì)量的有效補充。但是,這不應取代學生的獨立思考和原創(chuàng)性創(chuàng)作。將AIGC技術的輔助功能等同于“代寫”顯然有失偏頗。然而,若學生過度依賴AIGC技術,直接使用其生成或復制文本,缺乏個人思考與分析,則違背了學術獨立性要求,應被界定為“代寫”行為。
結語
AIGC技術的興起為學術界帶來雙重影響:一方面推動知識創(chuàng)新與傳播,另一方面也增加了學術不端行為的隱蔽性與復雜性。面對這一挑戰(zhàn),學術界與教育界亟需采取積極措施,通過技術創(chuàng)新與制度完善、重構學術誠信體系,維護研究的嚴謹性,構建更加健康、透明、高效的學術生態(tài)。通過上述措施,學術界和教育界可以在充分發(fā)揮AIGC技術的積極作用的同時,有效防范其潛在風險,最終實現(xiàn)技術創(chuàng)新與學術誠信的平衡發(fā)展,推動學術生態(tài)的持續(xù)優(yōu)化和進步。這種協(xié)同努力不僅有助于維護學術研究的嚴謹性和公信力,還將為知識創(chuàng)新和人才培養(yǎng)開辟新的途徑,為構建更加開放、包容、創(chuàng)新的學術環(huán)境奠定堅實基礎。
(作者單位:蘭州財經(jīng)大學法學院)