摘要:生成式大模型的突破促使人機(jī)協(xié)同的深度與廣度不斷拓展,人們對AIGC產(chǎn)品的依賴性越來越強(qiáng)。尤其對于大學(xué)生群體,需端正他們對AIGC工具屬性的認(rèn)知,引導(dǎo)他們理解、運用生成內(nèi)容版權(quán)自主要素,包括輸入端的智力投入與獨創(chuàng)性實操、輸出端的所屬領(lǐng)域與表現(xiàn)形式合規(guī),以保護(hù)自身使用AIGC過程中的版權(quán)權(quán)益。文章探討人機(jī)協(xié)同時代AIGC版權(quán)自主要素教學(xué)引導(dǎo)實踐,旨在為相關(guān)教學(xué)實踐提供參考。
關(guān)鍵詞:AIGC;人機(jī)協(xié)同;版權(quán)自主要素;教學(xué)引導(dǎo)
中圖分類號:D923.41;TP18 文獻(xiàn)標(biāo)識碼:A 文章編號:1004-9436(2024)21-0-05
2022年底,ChatGPT橫空出世,促使整個人工智能生成內(nèi)容(Artificial Intelligence Generated Content,簡稱AIGC)產(chǎn)業(yè)顛覆式發(fā)展,上線僅兩個月,注冊用戶數(shù)量就已超過1億。隨后,百度的“文心一言”、科大訊飛的星火大模型等國產(chǎn)AIGC產(chǎn)品也陸續(xù)推出,并迅速占領(lǐng)市場。可以預(yù)見的是,未來,用戶大規(guī)模使用AIGC進(jìn)行多模態(tài)內(nèi)容生產(chǎn)將成為不可逆的常態(tài)。某種程度上而言,真正意義上的人機(jī)協(xié)同時代已經(jīng)到來。然而,人機(jī)協(xié)同共創(chuàng)生產(chǎn)模式的鋪開也使相關(guān)版權(quán)問題變得更加復(fù)雜。2023年底,北京互聯(lián)網(wǎng)法院有關(guān)中國首例AI生成圖片著作權(quán)侵權(quán)案為用戶在使用開源AIGC過程中如何捍衛(wèi)自己的版權(quán)利益提供了指向,該案肯定了原告在借助StableDiffusion這一開源AI大模型進(jìn)行內(nèi)容生成時所付出的智力投入以及其中涉及的個性化表達(dá)[1]。落實到教學(xué)場景中,當(dāng)代大學(xué)生對AIGC的使用逐漸增多,如何引導(dǎo)學(xué)生在正確使用AIGC的同時掌握版權(quán)自主要素,在生成創(chuàng)造性內(nèi)容時保護(hù)自身權(quán)益,成為重要話題。
1 AI 1.0到2.0:人機(jī)協(xié)同的進(jìn)一步迭代
早在1950年,“人工智能之父”圖靈就在其論文《計算機(jī)器與智能》(Computing Machinery and Intelligence)中提出了一個標(biāo)準(zhǔn),即當(dāng)他人無法區(qū)分是在跟機(jī)器還是人交流時,那么該機(jī)器就具備了“思考”能力[2],自此機(jī)器在某種程度上就被賦予了內(nèi)容創(chuàng)造意義。進(jìn)入21世紀(jì),算法技術(shù)迎來井噴式發(fā)展,機(jī)器寫稿、生成式人工智能直接把AI從1.0時代推升到2.0時代[3]。但初期機(jī)器寫稿自然語言生成能力相對有限,在紅極一時后,伴隨著應(yīng)用范圍不斷縮水而逐漸消失在大眾視野。2022年通用大模型的突破則把機(jī)器寫稿這一領(lǐng)域向前推進(jìn)了一大步,不僅使機(jī)器擺脫了固定化套路生產(chǎn),更全方位推動了人機(jī)協(xié)同的量級迭代。
首先,創(chuàng)作主體的量級迭代。創(chuàng)作主體數(shù)量呈幾何式增長,對比早期寫作機(jī)器人多被專業(yè)媒體應(yīng)用于特定領(lǐng)域新聞生產(chǎn),生成式大模型則成為市場化應(yīng)用產(chǎn)品,其使用者逐漸下沉到大眾市場。以文心一言為例,2024年初,其用戶數(shù)量就已突破2億,API日均調(diào)用量超過2億[4],某種意義上,他們均擁有“作者”身份。此外,創(chuàng)作主體所涉領(lǐng)域也更加豐富。此前主要創(chuàng)作主體有Narrative Science(敘事科技)、Automated Insights(自動視野)等科技公司,也有新華社、今日頭條等專業(yè)機(jī)構(gòu),但生成式大模型降低了使用門檻,專業(yè)壁壘被消除,來自各領(lǐng)域、各行業(yè)的用戶均可加入內(nèi)容創(chuàng)作主體隊伍。
其次,創(chuàng)作能力的量級迭代。和AI 1.0階段不同,以ChatGPT為代表的2.0階段應(yīng)是迄今為止最先進(jìn)的自然語言生成模型,具備解決各種NLP任務(wù)的能力[5]。具體表現(xiàn)在以下三個方面:其一,創(chuàng)作速率極大提升。已知訓(xùn)練一次13.2億參數(shù)的GPT-3 XL模型所需算力約為27.5 PFlop/s-day[6],而根據(jù)現(xiàn)階段的AI算力水平估計,到2032年,生成式人工智能將使美國年生產(chǎn)率增幅達(dá)到1.7%至3.5%[7]。其二,創(chuàng)作內(nèi)容極大豐富。AIGC使內(nèi)容創(chuàng)作專業(yè)性與成本進(jìn)一步稀釋,大量主體加入使AIGC創(chuàng)作內(nèi)容占比極大提升,據(jù)估算,到2025年,生成式AI產(chǎn)生的內(nèi)容將從目前的1%提升到10%[8]。其三,創(chuàng)作內(nèi)容形態(tài)極大豐盈。AIGC可生成圖像、視頻、音頻等多模態(tài)形式,如新聞、小說、繪畫、電影等多種題材。并且內(nèi)容風(fēng)格多樣化,無論是中式還是西式、魔幻還是現(xiàn)實、嚴(yán)肅還是幽默,AIGC都可以輕松應(yīng)對。
整體而言,人機(jī)協(xié)同進(jìn)程的加深意味AIGC正朝著如移動設(shè)備一樣更加常態(tài)化的應(yīng)用方向發(fā)展。因此,如何使用它成為關(guān)鍵話題。如何讓大學(xué)生將AIGC變成有利的創(chuàng)作工具,繼而享有內(nèi)容作品的版權(quán),就變得尤為重要。
2 開源AIGC用戶版權(quán)自主要素兩端實踐引導(dǎo)
當(dāng)學(xué)生借助開源生成式AI創(chuàng)作內(nèi)容時,需了解版權(quán)自主要素,以確保自己創(chuàng)作的內(nèi)容符合著作權(quán)作品的要求。必須確保所創(chuàng)作內(nèi)容符合著作權(quán)作品的四大要件:屬于文學(xué)、藝術(shù)和科學(xué)領(lǐng)域,具有獨創(chuàng)性,有一定形式表現(xiàn),是智力成果。
2.1 輸入端:智力投入與獨創(chuàng)性實操指引
為了生成高質(zhì)量內(nèi)容,很多有關(guān)輸入指令的說明被設(shè)計出來,AIGC應(yīng)用師、提示工程師等新興職業(yè)也應(yīng)運而生??梢姡此坪唵蔚妮斎氩僮麟[藏著大學(xué)問,它左右著生成內(nèi)容的差異。在實操輸入過程中,用戶能夠直接掌握作品創(chuàng)作主動權(quán),并體現(xiàn)出自我付出。
2.1.1 智力投入:用戶提示詞(指令)的輸入指引
滿足智力成果這一要件就意味著需要有一定的智力投入與付出。此時輸入指令涵蓋的關(guān)鍵詞、需求指向與參數(shù)設(shè)置等均是用戶腦海中思維構(gòu)念的外在體現(xiàn)與落實,也就是說,越是細(xì)致的輸入,越能反映用戶自身所付出的智力勞動程度,也就越能使用戶掌握版權(quán)的自主性。這就要求在輸入提示詞指引時盡可能地考量細(xì)節(jié)性要素。
第一,注重提示詞的客觀性,以保證內(nèi)容真實生成。無論是何種作品,都必須以事實為基礎(chǔ),確保所傳播信息無誤導(dǎo)、無歧視。必須保證提示詞的內(nèi)容來源可靠,尤其是基于歷史記載以及統(tǒng)計數(shù)據(jù)等,須在遵守基本常識的前提下引用一些權(quán)威平臺所提供的內(nèi)容作為支撐材料。須保證表述中立,避免輸入帶有強(qiáng)烈主觀情感色彩或立場傾向的詞,須考慮不同人群的多元文化背景,避免出現(xiàn)冒犯語言或形成刻板印象。還須保持對經(jīng)濟(jì)社會最新發(fā)展動態(tài)的關(guān)注,適時更新提示詞中的關(guān)鍵信息,以提高機(jī)器決策的時效性。
第二,注重提示詞的精準(zhǔn)性,以保證內(nèi)容定向生成。指令與提示詞輸入的精確度會影響用戶的最直接需求以及機(jī)器運行任務(wù)調(diào)動的明確程度。這就要向?qū)W生強(qiáng)調(diào)輸入提示詞須滿足以下三個要點:其一,內(nèi)容建構(gòu)層面的精準(zhǔn),即主題確定、細(xì)節(jié)信息詳細(xì)、各參數(shù)指標(biāo)豐富;其二,語言表達(dá)層面的精準(zhǔn),即語法結(jié)構(gòu)正確,能夠避免理解障礙,詞語使用準(zhǔn)確,避免含糊詞義造成偏差;其三,邏輯生成層面的精準(zhǔn),即應(yīng)構(gòu)成連貫邏輯步驟的敘述,并加入約束條件,確保底層偏好的生成。遵循此要素的提示詞輸入,不僅能保證生成的最終確定方向,還有助于減少生成式大模型的訓(xùn)練時間與資源消耗,提升內(nèi)容生成效率。
第三,注重提示詞的創(chuàng)新性,以保證內(nèi)容創(chuàng)意生成。為降低固有模板化、重復(fù)化內(nèi)容的輸出概率,要求學(xué)生創(chuàng)新性地輸入提示詞:新穎的概念、想法或視角等元素可以引導(dǎo)AI生成內(nèi)容免于落入俗套,前沿的技術(shù)、理念、成果等元素可以引導(dǎo)AI生成更具吸引力的內(nèi)容,跨藝術(shù)、科學(xué)、文化領(lǐng)域的融合元素可以引導(dǎo)AI生成質(zhì)量更高的內(nèi)容。
2.1.2 獨創(chuàng)性:人機(jī)互動過程的個性化判斷指引
如果在人機(jī)互動中僅依靠機(jī)器提示生硬操作,那么所生成的內(nèi)容便是機(jī)器學(xué)習(xí)的“機(jī)械性智力成果”,其不具備作品屬性,也不能獲得版權(quán)保護(hù)。此時,要引導(dǎo)學(xué)生在借助機(jī)器創(chuàng)作時對互動頻率與互動質(zhì)量兩個層面予以主動控制。
首先,積極對話,增加人機(jī)互動頻率。AIGC技術(shù)十分依賴訓(xùn)練數(shù)據(jù)集,用戶通過高頻率的指令不斷給系統(tǒng)投喂多樣化數(shù)據(jù),也是AIGC系統(tǒng)反復(fù)更新學(xué)習(xí)的過程。此時,要引導(dǎo)學(xué)生刻意增加人機(jī)協(xié)同交互的次數(shù)與速率,多次交互可以協(xié)助用戶調(diào)整參數(shù)、優(yōu)化結(jié)果。人機(jī)協(xié)同交互持續(xù)時間,每次互動的時長涉及用戶個人交互習(xí)慣與任務(wù)的復(fù)雜程度,一次性大量輸入指令與多次但每次少量輸入指令會影響機(jī)器反應(yīng)的效率與精度。人機(jī)協(xié)同交互的周期間隔影響著特定需求結(jié)果的呈現(xiàn)持續(xù)性。向大模型提供更多嘗試機(jī)會與創(chuàng)作指導(dǎo),繼而掌握對最終生成內(nèi)容的可控性。
其次,提升人機(jī)互動質(zhì)量,增強(qiáng)內(nèi)容的明確性。在第一輪內(nèi)容生成后,系統(tǒng)會提供“重新生成”“繼續(xù)問我”等類似提示指令。如果僅是不斷點擊所列提示,那么看似在進(jìn)行人機(jī)互動,實則是機(jī)器在引導(dǎo)用戶生產(chǎn)內(nèi)容方向。因此,在使用AIGC時,一是要注重交互的深度,即在清晰、明確表達(dá)自我需求與意圖的同時,提供更多有關(guān)上下文、內(nèi)在邏輯、輔助資料等參考信息,供機(jī)器進(jìn)一步挖掘;二是要注重交互的自然度,即在適應(yīng)AI系統(tǒng)交互方式的基礎(chǔ)上,給予系統(tǒng)真實反饋與積極建議,以協(xié)助提升系統(tǒng)的交互功能與效果;三是要注重交互的個性化程度,即提前設(shè)置個人偏好,如類型、風(fēng)格等基本素材,利用多模態(tài)方式進(jìn)行充分的自我表達(dá),以增強(qiáng)交互的靈活性,促進(jìn)AIGC系統(tǒng)不斷學(xué)習(xí)與改進(jìn)。
2.2 輸出端:所屬領(lǐng)域與表現(xiàn)形式合規(guī)引導(dǎo)
僅有輸入端的操作還不能確保對生成內(nèi)容的完全主導(dǎo)性,最終生成內(nèi)容是否符合作品范疇,是否符合作品規(guī)范,仍需進(jìn)一步探討。因此,輸出端內(nèi)容需“屬于文學(xué)、藝術(shù)和科學(xué)領(lǐng)域”,并“有一定形式表現(xiàn)”。
2.2.1 所屬領(lǐng)域:生成內(nèi)容遵循的規(guī)范指向
要想使生成內(nèi)容屬于文學(xué)、藝術(shù)與科學(xué)等領(lǐng)域,其最后生成的內(nèi)容就必須具備相關(guān)領(lǐng)域作品的基本規(guī)范。
首先,基本內(nèi)容真實。無論是哪個領(lǐng)域的作品,或多或少都會包含一定基礎(chǔ)事實:對于新聞報道、科學(xué)研究這些專業(yè)屬性較強(qiáng)的作品,其數(shù)據(jù)、圖表等必須保證真實性,不允許杜撰、虛構(gòu);對于文學(xué)作品而言,則會存在時代背景、人物所處環(huán)境、生活道具等基本事實元素。若基本信息的真?zhèn)未嬉?,不僅違背學(xué)術(shù)道德,還有可能導(dǎo)致版權(quán)爭議。
其次,基本元素完備。就目前而言,AIGC基本可以完成各種模態(tài)的內(nèi)容輸出,而每種模態(tài)以及每種題材、主體都有其自身的內(nèi)在元素要求。如果內(nèi)部組件不完整,那么內(nèi)容就不具備完整性,也就不能被視為作品。小說等文本類要有人物形象、故事情節(jié)、自然與社會環(huán)境等,廣告宣傳等圖像類要有傳播目標(biāo)、個性信息等,動畫等視頻類要有畫質(zhì)、節(jié)奏、配樂等。缺少任何一個元素、組件,都有可能削弱內(nèi)容的規(guī)范性。
最后,遵守基本法規(guī)。其一,要合乎知識產(chǎn)權(quán)。如果存在未經(jīng)他人授權(quán)直接使用或直接抄襲、剽竊等行為,那么從源頭上,該作品就無法獲得版權(quán)保護(hù)。其二,要合乎傳播規(guī)范與安全。所生成內(nèi)容應(yīng)避免存在暴力、色情、欺詐等違法信息,且不得泄露他人隱私。其三,合乎文化敏感性。面對民族信仰時,要避免AIGC輸出存在冒犯內(nèi)容;在跨語言轉(zhuǎn)換語境時,更要尊重他方語言表達(dá)習(xí)慣和使用習(xí)俗,尊重目標(biāo)受眾的歷史與文化符號。
2.2.2 形式表現(xiàn):生成內(nèi)容外在呈現(xiàn)指向
作品的表現(xiàn)形式可以是文字、圖像、音頻、視頻等,可以選擇生成單一模態(tài)作品,也可以選擇多模態(tài)形式作品。與此同時,這些模態(tài)中又蘊(yùn)含情感、審美的外顯。
表現(xiàn)形式要適配、可感知。適配的表現(xiàn)形式一方面能夠?qū)?nèi)容承載的信息與情感有效且充分地表達(dá)出來,也能通過細(xì)節(jié)讓受眾理解內(nèi)容、共情作者;另一方面能激發(fā)受眾的分享意愿,尤其是圖像、音視頻內(nèi)容,其表現(xiàn)形式的細(xì)微差異在感官效果上天差地別,不適配的表達(dá)會直接影響受眾的觀感。
表現(xiàn)形式要穩(wěn)定、一致。一是輸入與輸出素材表現(xiàn)要一致。如果輸入的形式要求、素材要求與輸出存在較大偏差,說明系統(tǒng)并沒有確切理解用戶指令。二是生成內(nèi)容內(nèi)部形式要一致,也就是內(nèi)在風(fēng)格和調(diào)性前后一致,前者主要強(qiáng)調(diào)語言語境、布局等安排,后者主要強(qiáng)調(diào)情節(jié)、人物圍繞何種情感展開,或是幽默,或是悲傷,最終達(dá)成外在表現(xiàn)形式與內(nèi)在情感表達(dá)的統(tǒng)一。三是跨模態(tài)要一致,即前后模態(tài)以及不同模態(tài)轉(zhuǎn)換表達(dá)流暢。通常情況下,輸出內(nèi)容不會拘泥于單一模態(tài),也不會始終保持某一模態(tài),只有跨模態(tài)一致性的內(nèi)容才能夠適應(yīng)多場景應(yīng)用。
表現(xiàn)形式要覆蓋、可復(fù)制。一是要做到無損或低損復(fù)制,可采用生成標(biāo)準(zhǔn)文件格式在保持內(nèi)容原始質(zhì)量的同時,奠定數(shù)字內(nèi)容廣泛傳播的基礎(chǔ);二是要能夠跨平臺與多設(shè)備兼容,這就要求作品的表現(xiàn)形式能夠覆蓋多樣應(yīng)用場景、多元應(yīng)用設(shè)備;三是要能夠高效分發(fā)到廣大受眾,使作品在短時間內(nèi)覆蓋廣泛群體,實現(xiàn)信息的快速傳遞與共享。
3 追蹤與評估:開源AIGC版權(quán)自主要素保障落實指引
“輸入端+輸出端”版權(quán)要素為開源平臺用戶成為版權(quán)主體提供了實操依據(jù),下一步則是采取適當(dāng)方法保障這些要素落實,這樣才能協(xié)助學(xué)生提升工具使用效率。
3.1 輸入端記錄追蹤:采用區(qū)塊鏈技術(shù)打造清晰版權(quán)鏈指引
區(qū)塊鏈技術(shù)的特征是去中心化、不可篡改以及可溯源,可以有效記錄版權(quán)內(nèi)容的生成、確權(quán)、交易及維權(quán)全部過程,以真實、完整的數(shù)據(jù)記錄驗證、確保用戶的參與程度。因此,從2020年底開始,“當(dāng)事人通過區(qū)塊鏈等方式保存、固定和提交證據(jù)”就已經(jīng)被法律允許[9]。目前,國內(nèi)已涌現(xiàn)出不少區(qū)塊鏈數(shù)字版權(quán)服務(wù)平臺。可見,用戶完全可以選擇一個合適的區(qū)塊鏈平臺協(xié)助確權(quán)與維權(quán)。
首先,引導(dǎo)學(xué)生選擇適配的區(qū)塊鏈平臺,并創(chuàng)建區(qū)塊鏈賬戶,確保數(shù)字身份的唯一性。個人可通過區(qū)塊鏈技術(shù)的去中心化身份認(rèn)證(Decentralized Identifier,簡稱“DID”)預(yù)防匿名或假冒身份的用戶在平臺冒領(lǐng)成果的欺詐行為。在DID系統(tǒng)中,每個用戶都可以在分布式賬本上生成唯一標(biāo)識來驗證、管理、控制其數(shù)字身份。在此身份下,可以進(jìn)一步細(xì)分賬戶權(quán)限,根據(jù)需要分配不同角色的訪問與編輯權(quán)限,從而避免惡意行為對內(nèi)容的供給與篡改。
其次,引導(dǎo)學(xué)生構(gòu)建可追溯版權(quán)鏈,確認(rèn)版權(quán)歸屬要素??蓪⒆髡咝畔?、創(chuàng)作時間、輸入端的每一步指令、互動操作、作品本身,甚至是對作品的評估審核記錄都登記到區(qū)塊鏈上,并通過時間戳以及加密算法確保所登記每個操作的可追溯性和安全性。這些登記在冊的記錄都將成為版權(quán)歸屬的重要佐證,可以通過掌握的私鑰來證明自己對作品的主導(dǎo)權(quán),即便在一段時間后對前期內(nèi)容進(jìn)行修改、調(diào)整,以上操作也會被更新記錄并接續(xù)前期記錄,形成完整的版權(quán)鏈條。在發(fā)生任何版權(quán)爭議和糾紛時,都可通過查詢、調(diào)取區(qū)塊鏈記錄予以解決。
最后,引導(dǎo)學(xué)生使用智能合約實現(xiàn)自動化版權(quán)交易與管理。智能合約是區(qū)塊鏈技術(shù)的核心應(yīng)用之一,是應(yīng)對數(shù)字盜版等行為的有效手段。它不依賴第三方,是依靠網(wǎng)絡(luò)上多個節(jié)點共同認(rèn)證,理論上只要智能合約被部署到區(qū)塊鏈上,其附著的數(shù)據(jù)與內(nèi)容就不可能被篡改。在執(zhí)行過程中,智能合約可以根據(jù)預(yù)設(shè)條件與規(guī)則自動觸發(fā)運行機(jī)制,開啟確權(quán)、授權(quán)、交易等一系列操作,極大地降低人力與時間成本。與此同時,智能合約對每一筆版權(quán)使用、交易情況均有記錄,一旦出現(xiàn)侵權(quán)行為,其能夠觸發(fā)侵權(quán)警告等維權(quán)機(jī)制。
目前,已經(jīng)有不少區(qū)塊鏈平臺將時間戳直接對接公證機(jī)構(gòu)相關(guān)系統(tǒng),為區(qū)塊鏈存證提供了更為可靠的證據(jù)能力[10]。無疑,區(qū)塊鏈技術(shù)對開源AIGC用戶版權(quán)保護(hù)大為有利。
3.2 輸出端對比評估:多維度驗證開源AIGC用戶版權(quán)貢獻(xiàn)指引
單就輸出操作記錄還不能完全保障版權(quán)自主性,還需對生成結(jié)果予以評估,并對比市場上現(xiàn)有的相關(guān)作品,才能得出最終版權(quán)歸屬結(jié)論。
一方面,學(xué)生需借助量化指標(biāo)來驗證版權(quán)主導(dǎo)型。一是重復(fù)率。快速檢測出生成作品與已有作品之間的關(guān)聯(lián),直接反映原創(chuàng)程度。在AIGC大趨勢下,諸多第三方或自構(gòu)查重系統(tǒng)均可對文學(xué)藝術(shù)、科學(xué)研究等不同領(lǐng)域和文本、圖像、音頻等不同模態(tài)的內(nèi)容進(jìn)行相似度檢測??蓞⒖枷嚓P(guān)領(lǐng)域重復(fù)率達(dá)標(biāo)線,如一般期刊論文重復(fù)率在10%~15%,有的期刊則要求重復(fù)率在5%以下。小說、繪畫等藝術(shù)創(chuàng)作領(lǐng)域,重復(fù)率要求相對寬松一些,核心在于創(chuàng)意與元素呈現(xiàn),因此對標(biāo)準(zhǔn)創(chuàng)意元素的相似度更為實用。二是多樣率??梢栽u估輸入指令的復(fù)雜程度以及輸出端內(nèi)容的多維化。借助算法公式設(shè)定,對內(nèi)容覆蓋的廣度、風(fēng)格、語言、觀點等進(jìn)行量化測量。例如,主題多樣性可以采用信息熵來衡量主題分布的均勻性,風(fēng)格多樣性可以借助風(fēng)格特征向量相似度計算,語言多樣性則可以通過詞匯、句型種類等量化。三是一致率。對比輸入端預(yù)期與最終生成內(nèi)容是否一致,繼而體現(xiàn)個體貢獻(xiàn)程度。對于文本,通過自然語言處理和機(jī)器學(xué)習(xí)可以比較生成內(nèi)容與參考詞匯、語法的相似性,且可以檢查內(nèi)容的邏輯連貫程度;對于圖像,則可以通過色彩準(zhǔn)確度、噪點、失真來評估內(nèi)容內(nèi)部是否和諧。
另一方面,學(xué)生可邀請第三方對生成內(nèi)容進(jìn)行版權(quán)估量。很多時候,客觀數(shù)值并不能完全替代主觀評價,很多作品的思想情感與內(nèi)在邏輯呈現(xiàn)是無法僅靠數(shù)據(jù)評估的。可以通過第三方輔助完成相關(guān)評估。一是專業(yè)評審。專業(yè)老師憑借自身的知識與經(jīng)驗對輸入端與輸出端進(jìn)行評估。在評審過程中,可以提供區(qū)塊鏈上的記錄,并以量化指數(shù)作為參考,繼而增強(qiáng)評估的權(quán)威性與科學(xué)性。二是用戶點評。可發(fā)布作品供用戶閱讀后收集反饋意見來評估其創(chuàng)意度與質(zhì)量,綜合用戶評論、評分、建議來了解內(nèi)容存在的問題以及受歡迎程度。還可以邀請用戶參與A/B測試,對比不同版本內(nèi)容生成效果,或者對比生成內(nèi)容與現(xiàn)有相似內(nèi)容之間的差異,以多數(shù)人投票來反饋生成內(nèi)容的原創(chuàng)性程度,繼而以更加市場化的標(biāo)準(zhǔn)界定版權(quán)歸屬。
綜上,在輸出端結(jié)合客觀數(shù)據(jù)指標(biāo)與主觀評估結(jié)果對開源AIGC生成內(nèi)容進(jìn)行較為科學(xué)、全面的驗證,能夠佐證版權(quán)是否歸屬學(xué)生個體。
4 結(jié)語
在人機(jī)協(xié)同時代,大學(xué)生群體作為內(nèi)容創(chuàng)作者,對AIGC的依賴會越來越普遍,與其以堵塞的方式禁止使用,不如以疏導(dǎo)的方式讓其掌握使用的基本要素與準(zhǔn)則。引導(dǎo)他們正確使用工具,培養(yǎng)他們的創(chuàng)新能力和版權(quán)保護(hù)意識,使其能夠在AIGC時代更好地創(chuàng)作和學(xué)習(xí)。
參考文獻(xiàn):
[1] 北京互聯(lián)網(wǎng)法院.李某與劉某一審民事判決書,(2023)京0491民初11279號[EB/OL].中國裁判文書網(wǎng),(2023-
11-27)[2024-10-01]. https://wenshu.court.gov.cn/website/wenshu/181029CR4M5A62CH/index.html.
[2] Turing A.M. Computing machinery and intelligence[J]. Mind, 1950(49): 433-460.
[3] 張慧,佟彤,葉鷹. AI 2.0時代智慧圖書館的GPT技術(shù)驅(qū)動創(chuàng)新[J].圖書館雜志,2023(5):4-8.
[4] 王聰彬.百度CEO李彥宏:文心一言用戶數(shù)突破2億,讓開發(fā)者成為AI時代的主角[EB/OL].澎湃新聞·澎湃號,(2024-04-17)[2024-10-22]. https://www.thepaper.cn/newsDetail_forward_27048371.
[5] 金家琴,劉煒. AI 2.0時代的數(shù)字學(xué)術(shù)及其范式變革[J].圖書館雜志,2023(11):10-21.
[6] Brown T, Mann B, Ryder N, et al. Language models are few-shot Learners[J]. Neural Information Processing Systems, 2020, 5(28): 1-75.
[7] Ollie O.D., Duncan R. New work, new world[EB/OL]. Cognizant,(2024-10-10)[2024-10-22]. https://www.cognizant.com/us/en/gen-ai-economic-model-oxford-economics.
[8] 鄭滿寧.人工智能技術(shù)下的新聞業(yè):嬗變、轉(zhuǎn)向與應(yīng)對:基于ChatGPT帶來的新思考[J].中國編輯,2023(4):35-40.
[9] 最高人民法院.關(guān)于加強(qiáng)著作權(quán)和與著作權(quán)有關(guān)的權(quán)利保護(hù)的意見[EB/OL].最高人民法院官網(wǎng),(2020-11-16)[2024-10-25]. https://www.court.gov.cn/fabu/xiangqing/272221.html.
[10] 林軻亮,汪源.區(qū)塊鏈應(yīng)用視域下數(shù)字作品保護(hù)現(xiàn)狀與破局路徑[J].中國編輯,2023(3):40-45.
基金項目:本論文為2023年度國家社科基金重大項目“全媒體傳播體系下出版深度融合發(fā)展研究”成果,項目編號:23amp;ZD218;2020年度國家社科基金重點項目“構(gòu)建三維一體的全媒體傳播體系研究”成果,項目編號:20AZD058;上海市哲學(xué)社會科學(xué)規(guī)劃課題“后疫情時代算法資訊平臺從業(yè)者倫理困境及應(yīng)對策略研究”成果,項目編號:2020EXW002
作者簡介:袁帆 (1990—) ,女,博士,講師,研究方向:智能媒體、數(shù)字出版;張世豪 (2001—) ,男,研究方向:新媒體。