從最初的資料搜集到如今具備“深度思考功能”,可以直接生成論文文本,人工智能在論文寫作中的角色似乎逐漸從輔助檢索轉(zhuǎn)變?yōu)楠毩⒆珜?。誠然,人工智能的運用能為論文寫作帶來諸多便利,但同時也會對傳統(tǒng)的學(xué)術(shù)規(guī)范、評價體系等產(chǎn)生巨大影響。為了應(yīng)對人工智能的沖擊,不同國家和地區(qū)進行了積極探索,總體而言,形成了“以軟法原則為指導(dǎo),以具體規(guī)章制度為補充”的人工智能規(guī)范體系。
歐盟于2024年3月20日頒布了《關(guān)于生成式人工智能在研究領(lǐng)域負責(zé)任使用的指南》(以下簡稱《負責(zé)任使用指南》),為人工智能在學(xué)術(shù)領(lǐng)域的運用搭建了基本的規(guī)范框架。
《歐洲研究誠信行為準則》(以下簡稱《研究準則》)是《負責(zé)任使用指南》制定的根基。根據(jù)《研究準則》,研究人員在學(xué)術(shù)研究中應(yīng)當(dāng)遵守可靠性、誠實性、尊重性與責(zé)任性四大原則??煽啃栽瓌t旨在確保研究數(shù)據(jù)的準確性和完整性,拒絕數(shù)據(jù)造假和篡改。在使用人工智能時,研究人員需要驗證和重現(xiàn)人工智能生成的結(jié)論,對其負有注意義務(wù)。誠實性原則是指無論研究結(jié)果是否符合預(yù)期假設(shè),研究人員都應(yīng)當(dāng)如實報告。若研究過程中使用了人工智能,研究人員必須披露人工智能的使用情況,確保研究過程的透明性。尊重性原則強調(diào)研究人員在研究過程中,應(yīng)保護研究參與者的隱私和數(shù)據(jù)安全,同時還應(yīng)考慮到技術(shù)的局限性、環(huán)境影響和社會影響等。責(zé)任性原則明確了研究成果的責(zé)任主體,即研究人員本人應(yīng)當(dāng)對自己的研究成果負責(zé)。倘若使用了人工智能,研究人員需要對其生成的內(nèi)容進行審核和驗證,以確保結(jié)論符合研究標準。
在上述原則的基礎(chǔ)上,《負責(zé)任使用指南》也對研究人員、研究組織以及研究資助機構(gòu)在人工智能的使用方面提出了相應(yīng)建議。
對研究人員,其應(yīng)對人工智能生成或支持生成的內(nèi)容的完整性負責(zé),詳細說明其在研究過程中如何使用了人工智能。此外,研究人員也應(yīng)注意隱私保護和知識產(chǎn)權(quán)保護,并避免在諸如同行評審、評估研究提案等敏感活動中大量使用人工智能。對研究組織,《負責(zé)任使用指南》強調(diào),研究組織應(yīng)當(dāng)促進、指導(dǎo)和支持人工智能的負責(zé)任使用,通過提供相關(guān)培訓(xùn),幫助研究人員驗證人工智能的輸出內(nèi)容。同時,研究組織也應(yīng)當(dāng)積極監(jiān)控、全程監(jiān)管,保護個人隱私和知識產(chǎn)權(quán),以防止可能的人工智能濫用行為。對研究資助機構(gòu),《負責(zé)任使用指南》指出,研究資助機構(gòu)應(yīng)設(shè)計開發(fā)符合倫理的人工智能,以支持其在研究活動中的使用。同時,研究資助機構(gòu)應(yīng)實時審查人工智能的使用情況,并要求研究人員在使用人工智能時保持透明。
總體而言,《負責(zé)任使用指南》為學(xué)術(shù)界人工智能的使用提供了簡單且可操作的建議,其中的原則性條款以及相關(guān)建議也為后續(xù)出版社、學(xué)術(shù)機構(gòu)等規(guī)范標準的制定提供了參考與依據(jù)。
日本文部科學(xué)省出臺了《2024科學(xué)技術(shù)創(chuàng)新白皮書》(以下簡稱《白皮書》),其以“人工智能帶來的科學(xué)技術(shù)的創(chuàng)新與變革”為主題,就人工智能在日本的普及狀況、研發(fā)動向以及規(guī)范措施等進行了闡述。對于人工智能在研究領(lǐng)域中的應(yīng)用,《白皮書》指出,人工智能的深度學(xué)習(xí)會產(chǎn)生“黑盒效應(yīng)”:人們有時無法理解人工智能生成的信息,甚至?xí)ζ涮摌?gòu)的內(nèi)容產(chǎn)生“事實確實應(yīng)當(dāng)如此”的“幻覺”。因此,對于人工智能,不僅要持續(xù)精進技術(shù),也要保障人工智能生成內(nèi)容的透明性與可靠性。故在學(xué)術(shù)研究中,人工智能的運用應(yīng)當(dāng)遵循如下規(guī)則:
第一,科研數(shù)據(jù)的公開與共享規(guī)則。《白皮書》提出,公開并共享研究過程中產(chǎn)生的所有數(shù)據(jù)是非常重要的,這將有助于日本建設(shè)更加完善的研究院科研數(shù)據(jù)云,也有利于打造更適于人工智能開發(fā)、運用與管理的環(huán)境。
第二,研究內(nèi)容的可重復(fù)性規(guī)則。該規(guī)則要求在運算模型、運算程序等條件相同的情況下,人工智能生成的內(nèi)容應(yīng)當(dāng)能夠“再現(xiàn)”。這意味著,人工智能的生成結(jié)論不能是偶然的、隨機的,而應(yīng)當(dāng)是準確的、可靠的。此外,研究人員也應(yīng)當(dāng)適時公開人工智能的基礎(chǔ)模型與訓(xùn)練模型,以確保研究內(nèi)容可被再現(xiàn)。
第三,科研論文的提交規(guī)則。人工智能一定程度上改變了科研論文的寫作模式,它可以自動生成論文的草稿,也能幫助進行檢查校對。因此,《白皮書》特別強調(diào):不允許人工智能成為論文的作者。倘若在論文撰寫過程中使用了人工智能,作者必須進行標識與披露,且禁止使用人工智能生成的圖像。作者僅可在披露的前提下,利用人工智能改善文章的語言表達。此外,作者也應(yīng)當(dāng)注意信息的保密,以防止個人隱私、保密數(shù)據(jù)的泄露。
第四,與知識產(chǎn)權(quán)相關(guān)的規(guī)則。《白皮書》認為,根據(jù)日本版權(quán)法的規(guī)定,只有人類創(chuàng)作的作品才享有著作權(quán)。日本文化廳在2024年發(fā)布的《人工智能與著作權(quán)問題的理解》中也指出,人工智能生成的內(nèi)容是否能被視為“作品”取決于“人”在創(chuàng)作過程中的參與程度。如果在創(chuàng)作過程中,“人”沒有創(chuàng)造性貢獻,那么該成果就不能被視為“作品”,也自然不能受法律保護。不過,《白皮書》也并未完全限制人工智能的使用。根據(jù)日本版權(quán)法第30條第4款的規(guī)定,在創(chuàng)作過程中,如果是出于信息分析等目的,而非代替作者進行思想或情感的表達,那么在必要范圍內(nèi),人工智能的運用是被允許的。
綜合來看,日本的人工智能規(guī)范標準呈現(xiàn)為“開放與監(jiān)管并行”的結(jié)構(gòu),反映了日本在鼓勵人工智能發(fā)展的同時,對學(xué)術(shù)研究真實性和倫理性的高度重視。
隨著人工智能在教師和學(xué)生群體中的廣泛運用,美國高校也紛紛出臺相關(guān)規(guī)定,以指導(dǎo)并規(guī)范人工智能的使用??傮w而言,美國高校對于人工智能的運用主要呈現(xiàn)為“明確禁止”與“允許使用但需嚴格遵守規(guī)定”兩種態(tài)度。
為了應(yīng)對人工智能的沖擊,不同國家和地區(qū)進行了積極探索,總體形成了“以軟法原則為指導(dǎo),以具體規(guī)章制度為補充”的人工智能規(guī)范體系。
第一,明確禁止。塞勒姆州立大學(xué)對于人工智能參與論文寫作的規(guī)定較為明確,其核心立場是禁止在寫作課程中使用生成式人工智能。該大學(xué)的教師里斯·霍洛維茨指出,寫作、分析和批判性思維能力的培養(yǎng)是該課程的主要目標,因此所有寫作作業(yè)必須由學(xué)生本人完成。在塞勒姆州立大學(xué)的政策體系下,使用人工智能生成的內(nèi)容將被視為抄襲,同時會直接影響學(xué)生的學(xué)術(shù)誠信記錄。即使在諸如文獻綜述、作業(yè)初步思路生成的情形下,學(xué)生可能被允許使用人工智能,但在提交作業(yè)時,學(xué)生必須進行明確標注。
第二,允許使用但需嚴格遵守規(guī)定。大多數(shù)美國高校并未絕對禁止人工智能的運用。就如霍華德法學(xué)院教師霍華德·布魯克納所言:“生成式人工智能對于產(chǎn)生想法、確定資料來源、綜合文本以及開始了解某個主題的基本內(nèi)容很有價值。”
面對人工智能可能會帶來的侵權(quán)、個人信息泄露等潛在風(fēng)險,加州大學(xué)伯克利分校、普林斯頓大學(xué)等高校出臺了相應(yīng)政策,以規(guī)范人工智能的應(yīng)用。例如,康奈爾大學(xué)專門成立了人工智能委員會,并陸續(xù)發(fā)布了教學(xué)、科研和行政管理使用指南,是目前相對全面的指引。對于人工智能在學(xué)術(shù)研究中的運用,康奈爾大學(xué)強調(diào),研究人員對使用人工智能生成的作品負有最終責(zé)任,并應(yīng)當(dāng)確保內(nèi)容的準確性和原創(chuàng)性。具體而言,研究人員負有驗證責(zé)任,即需要對人工智能生成的內(nèi)容進行驗證,確保其準確性和可靠性。而在作品展示中,研究人員需要標明作品中人工智能生成的內(nèi)容,并遵守隱私原則,不能泄露或共享學(xué)校的機密、專有或受監(jiān)管的數(shù)據(jù)。
(作者單位系上海師范大學(xué))
編輯:張鈺梅" " zhangclaire08@163.com