【摘 要】生成式人工智能技術(shù)賦能文化產(chǎn)業(yè)領(lǐng)域進(jìn)入發(fā)展快車道,這觸動(dòng)了傳統(tǒng)版權(quán)和創(chuàng)作倫理的界限。通過深入分析人工智能在文化產(chǎn)業(yè)鏈中的角色,尤其是“黑箱”操作和結(jié)果的不可預(yù)測(cè)性,探討國內(nèi)外對(duì)于人工智能介入文化創(chuàng)作生產(chǎn)的法律立場(chǎng)和實(shí)踐,有助于全面應(yīng)對(duì)數(shù)智時(shí)代的法律和倫理挑戰(zhàn)。基于此,AIGC賦能下的文化產(chǎn)業(yè)治理應(yīng)建立在分層法治框架上,在技術(shù)基礎(chǔ)層、模型層和應(yīng)用層采取具體的法律措施,以平衡文化創(chuàng)新與版權(quán)保護(hù)間的矛盾,確保技術(shù)變革不會(huì)侵犯合法權(quán)益,促進(jìn)AIGC賦能下的文化產(chǎn)業(yè)實(shí)現(xiàn)可持續(xù)、高質(zhì)量的創(chuàng)新發(fā)展。
【關(guān) 鍵 詞】人工智能;AIGC;技術(shù)應(yīng)用;分層治理
【作者單位】王紫琪,同濟(jì)大學(xué)人文學(xué)院;解學(xué)芳,同濟(jì)大學(xué)人文學(xué)院。
【基金項(xiàng)目】國家社會(huì)科學(xué)基金重大項(xiàng)目“數(shù)字文化產(chǎn)業(yè)高質(zhì)量發(fā)展的政策設(shè)計(jì)與實(shí)現(xiàn)路徑研究”(23&ZD087)。
【中圖分類號(hào)】D923.41;G230.7 【文獻(xiàn)標(biāo)識(shí)碼】A 【DOI】10.16491/j.cnki.cn45-1216/g2.2024.13.008
生成式人工智能(AIGC,Artificial Intelligence
Generated Content)是人工智能從1.0時(shí)代邁入2.0時(shí)代的重要標(biāo)志。GAN、CLIP、Transformer、Diffu
sion、預(yù)訓(xùn)練模型、多模態(tài)技術(shù)以及生成算法等技術(shù)的積累與融合[1],加速了AIGC的崛起,并推動(dòng)了其技術(shù)能力和內(nèi)容多樣性的增長(zhǎng)。AIGC在文化產(chǎn)業(yè)領(lǐng)域的加速迭代和迅猛發(fā)展觸動(dòng)了傳統(tǒng)版權(quán)和創(chuàng)作倫理的界限,AIGC技術(shù)的泛用性及其背后的經(jīng)濟(jì)利益,引發(fā)了一場(chǎng)關(guān)于知識(shí)產(chǎn)權(quán)、創(chuàng)新激勵(lì)和文化生產(chǎn)權(quán)力結(jié)構(gòu)的全球性變革。如:《紐約時(shí)報(bào)》起訴OpenAI和微軟,指控它們未經(jīng)授權(quán)使用其百萬篇文章來訓(xùn)練人工智能;版權(quán)圖庫網(wǎng)站Getty Images指控Stability AI從其圖庫中復(fù)制了超過1200萬張圖片及相關(guān)的標(biāo)題和元數(shù)據(jù);好萊塢編劇罷工,反對(duì)創(chuàng)意階層為AI“打工”,要求限制制片方在編劇創(chuàng)作過程中對(duì)AI技術(shù)的使用。這些事件揭示了AIGC賦能文化產(chǎn)業(yè)領(lǐng)域所引發(fā)的技術(shù)應(yīng)用與傳統(tǒng)著作權(quán)法之間的沖突。
從現(xiàn)有研究來看,當(dāng)前人工智能生成內(nèi)容的學(xué)理研究大多聚焦于文化產(chǎn)業(yè)領(lǐng)域中生成物的可版權(quán)性、作品性、正當(dāng)性保護(hù)、權(quán)利分配等方向,而對(duì)于人工智能生成內(nèi)容的糾紛與沖突背后的法理邏輯以及破解之道等問題的研究不多[2]。在生成式人工智能在文化產(chǎn)業(yè)領(lǐng)域不斷展現(xiàn)其“涌現(xiàn)能力”之際,我們應(yīng)思考和審視現(xiàn)有版權(quán)制度的邏輯是否需要應(yīng)時(shí)代需求進(jìn)行調(diào)整。
一、循環(huán)場(chǎng)域:AIGC賦能文化產(chǎn)業(yè)的莫比烏斯之環(huán)
1.侵權(quán)糾紛處理界定之難題
AIGC賦能文化產(chǎn)業(yè)面臨兩大關(guān)鍵問題:一是提供生成內(nèi)容服務(wù)的AI供應(yīng)商所使用的模型輸入數(shù)據(jù)是否侵犯了他人的著作權(quán);二是人工智能生成內(nèi)容(如文本、圖像、視頻、音頻)是否受到著作權(quán)法的保護(hù),以及其在被他人商業(yè)化使用時(shí)是否構(gòu)成侵權(quán)。這兩個(gè)問題相互關(guān)聯(lián)——前者直接影響后者是否應(yīng)受保護(hù),這種關(guān)聯(lián)性使得AIGC賦能文化產(chǎn)業(yè)領(lǐng)域的侵權(quán)糾紛處理變得復(fù)雜,如同一個(gè)莫比烏斯環(huán),即輸入數(shù)據(jù)是否侵權(quán)決定了輸出內(nèi)容的法律地位,而輸出內(nèi)容的法律地位又會(huì)反作用于輸入數(shù)據(jù)的選擇,雙方不斷相互影響,形成難以簡(jiǎn)單界定的循環(huán)。對(duì)此,我國已有初步的規(guī)范可依。2023年8月15日起施行的《生成式人工智能服務(wù)管理暫行辦法》第七條明確規(guī)定,生成式人工智能服務(wù)提供者應(yīng)遵循法律規(guī)定,規(guī)范進(jìn)行預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等數(shù)據(jù)處理活動(dòng),并確保訓(xùn)練數(shù)據(jù)在涉及知識(shí)產(chǎn)權(quán)時(shí)不侵犯他人依法享有的權(quán)利。其中的難點(diǎn)在于侵權(quán)數(shù)據(jù)的認(rèn)定。
眾所周知,大模型的訓(xùn)練數(shù)據(jù)是海量的,且一般屬于商業(yè)機(jī)密,在無法掌握被告訓(xùn)練數(shù)據(jù)庫的情況下,原告往往難以舉證[3]。如國內(nèi)的奧特曼案和《紐約時(shí)報(bào)》起訴OpenAI案,都是原告基于生成式人工智能服務(wù)的輸出內(nèi)容與原告的知識(shí)產(chǎn)權(quán)內(nèi)容之間的高度相似性,推斷侵權(quán)行為,指控被告的生成式人工智能服務(wù)輸出內(nèi)容涉嫌侵犯其知識(shí)產(chǎn)權(quán)。在國際上也有相關(guān)判決。美國的“黎明的扎利亞案”對(duì)ChatGPT類產(chǎn)品生成內(nèi)容的版權(quán)屬性作出否定性裁決。法院認(rèn)為,用戶利用AI繪圖工具隨機(jī)生成的漫畫內(nèi)容缺乏自然人的創(chuàng)造性投入,不構(gòu)成版權(quán)作品。而在國內(nèi),北京互聯(lián)網(wǎng)法院在線公開審理了“春風(fēng)送來了溫柔”糾紛案。法院認(rèn)為,原告創(chuàng)作的圖片(AI文生圖)由其獨(dú)立完成,體現(xiàn)了作者的個(gè)性化表達(dá),因此涉案圖片具備“獨(dú)創(chuàng)性”要件,符合作品的定義,屬于美術(shù)作品,受著作權(quán)法保護(hù),原告成功主張了著作權(quán)。
2.自我引用內(nèi)容生成之幻相
自我引用是AIGC模式下生成內(nèi)容的顯著特征之一。AI通過分析大量數(shù)據(jù)進(jìn)行學(xué)習(xí)和生成內(nèi)容,這些數(shù)據(jù)往往是由人類產(chǎn)生、包含自我引用和復(fù)雜思維的內(nèi)容。AI在生成新內(nèi)容時(shí),實(shí)際上是在不斷引用和重組已有信息。一方面,自我引用在AI生成內(nèi)容的過程中起到重要作用。通過合理處理和應(yīng)用自我引用,AI不僅能生成高質(zhì)量和一致性的內(nèi)容,還能提升自身的創(chuàng)造力和邏輯性。這種循環(huán)性和自我引用性使得AI生成的內(nèi)容更接近人類思維的深度和復(fù)雜性。另一方面,盡管AI生成內(nèi)容是在自我引用基礎(chǔ)上進(jìn)行新的組合和呈現(xiàn),但其仍然依賴已有數(shù)據(jù),這使得生成內(nèi)容的原創(chuàng)性和版權(quán)歸屬問題變得模糊。如在2018年,名為“Portrait of Edmond de Belamy”的AI生成藝術(shù)作品引發(fā)版權(quán)爭(zhēng)議,該作品由法國藝術(shù)團(tuán)體Obvious使用GAN算法創(chuàng)作,GAN算法利用14世紀(jì)至20世紀(jì)間羅格斯大學(xué)的研究員和藝術(shù)家Robbie Barrat整理的15000幅肖像畫訓(xùn)練集進(jìn)行訓(xùn)練,雖然GAN生成的作品是新的組合,但由于其產(chǎn)生的作品與不同肖像畫存在部分相似性,因此引起了廣泛的輿論關(guān)注。
二、人因要素:AIGC賦能文化產(chǎn)業(yè)的生產(chǎn)邏輯
AIGC賦能文化產(chǎn)業(yè)的循環(huán)場(chǎng)域,依賴于創(chuàng)意階層在各個(gè)階段的參與和干預(yù)。沒有創(chuàng)意階層的干預(yù),數(shù)據(jù)的選擇、模型的設(shè)計(jì)和訓(xùn)練、內(nèi)容的評(píng)估和反饋都無法得到有效實(shí)施,這將直接影響整個(gè)循環(huán)過程的質(zhì)量和效果。國內(nèi)外已有的AI生成內(nèi)容的判決并非采取“一刀切”的做法。細(xì)讀相關(guān)裁判文書可以發(fā)現(xiàn),不同的審判結(jié)果源于法官對(duì)案件中獨(dú)創(chuàng)性程度的不同評(píng)估。不可辯駁的事實(shí)是,現(xiàn)行法規(guī)滯后于大規(guī)模模型訓(xùn)練以及新興數(shù)據(jù)權(quán)益保護(hù)的發(fā)展步伐。在AI相關(guān)的司法審判中,法官擁有比商事審判和民事審判更廣泛的解釋權(quán)和判斷自由。同時(shí),ChatGPT等AI產(chǎn)品的出現(xiàn)在某種程度上實(shí)現(xiàn)了人類長(zhǎng)期以來的愿望——從“發(fā)明輔助工具”到“培育得力助手”。在“工具階段”,我們經(jīng)常討論的是工具的輔助和賦能創(chuàng)作。而進(jìn)入“助手時(shí)代”,我們不得不面對(duì)機(jī)器是否能獨(dú)立思考和創(chuàng)作等主體性問題的深層挑戰(zhàn)[4]。在當(dāng)前的法律框架下,定義和歸屬文化產(chǎn)業(yè)領(lǐng)域人工智能的創(chuàng)作權(quán),首先要厘清人工智能生成內(nèi)容究竟是誰在其中進(jìn)行“創(chuàng)作”,以及如何被創(chuàng)作出來的。要想回答這些問題,需要我們對(duì)AI技術(shù)背后的機(jī)理有更深入的理解,認(rèn)識(shí)數(shù)據(jù)處理和算法優(yōu)化過程是如何轉(zhuǎn)化為用戶對(duì)話和內(nèi)容生成的。
1. 底層生產(chǎn)邏輯:模型生成與“思維”的本質(zhì)
在以ChatGPT為代表的文生文領(lǐng)域,AIGC智能文本生成類應(yīng)用展現(xiàn)了驚人的語言理解和生成能力,其核心大型語言模型本質(zhì)上是基于大量語言數(shù)據(jù)對(duì)文本進(jìn)行合理延續(xù),這種基于模式識(shí)別和統(tǒng)計(jì)推斷的方法并非真正的“思維”。在圖像生成領(lǐng)域,無論是文生圖還是圖生圖的模型,都是先接收用戶輸入的文本內(nèi)容或圖片與文本的組合,然后對(duì)這些內(nèi)容進(jìn)行解析,生成含有“噪音”的圖片,再通過各種去噪采樣方案提升圖片質(zhì)量。去噪過程可以類比為雕刻或在畫面的黑白灰關(guān)系中進(jìn)行細(xì)節(jié)雕琢,這種雕琢力源于海量圖片數(shù)據(jù)的訓(xùn)練和學(xué)習(xí)。同樣的原理也適用于音頻和視頻生成領(lǐng)域。以O(shè)penAI的MuseNet、谷歌的Music LM、騰訊的TME Studio為代表的音頻生成類應(yīng)用,以及OpenAI發(fā)布的首款文生視頻大模型Sora等視頻生成應(yīng)用為例,與圖像和文本相比,它們需要處理音頻波形、生成圖像幀,并考慮時(shí)間的連貫性和動(dòng)態(tài)信息。但它們的底層生成邏輯與AIGC文生文和文生圖并無二致,均基于用戶提供的信息和需求,以及深度神經(jīng)網(wǎng)絡(luò)對(duì)大量作品的學(xué)習(xí),從抽象概念演化為具體產(chǎn)出。在這過程中,用戶可以通過篩選作品、遞進(jìn)式調(diào)整等方式,使作品呈現(xiàn)更多符合個(gè)人喜好和需求的特性,這是人工智能生成內(nèi)容過程中不可或缺的人的參與。
2. 用戶參與模式:AIGC應(yīng)用從被動(dòng)型走向驅(qū)動(dòng)型
在AIGC領(lǐng)域,技術(shù)進(jìn)步和用戶需求的變化推動(dòng)用戶參與模式經(jīng)歷了從被動(dòng)接受到主動(dòng)驅(qū)動(dòng)的轉(zhuǎn)變,用戶可以選擇合適的方式來部署和利用AIGC技術(shù)?;诖?,當(dāng)前使用生成式人工智能的能力方式總體可以歸納為三類:直接使用、提示工程、大模型微調(diào)。直接使用是指用戶通過供應(yīng)商提供的AIGC應(yīng)用,不提供信息或者僅提供1—2個(gè)關(guān)鍵詞,直接一次性生成隨機(jī)內(nèi)容。在此過程中,用戶的互動(dòng)和參與極為有限,大多數(shù)內(nèi)容創(chuàng)造的決策和細(xì)節(jié)均由AI自主完成。用戶在這種情況下扮演的角色主要是觸發(fā)和接收生成結(jié)果,不涉及對(duì)內(nèi)容創(chuàng)作過程的深度定向或細(xì)節(jié)調(diào)整。提示工程是指用戶通過對(duì)AIGC應(yīng)用發(fā)出提示指令來微調(diào)少量參數(shù),引導(dǎo)預(yù)訓(xùn)練的語言模型執(zhí)行特定的下游任務(wù),主要通過文本對(duì)話的形式操控語言模型,以達(dá)到指定的輸出結(jié)果。如在“春風(fēng)送來了溫柔”糾紛案中,原告通過AI繪圖工具Stable Diffusion對(duì)人物及其呈現(xiàn)方式等畫面元素使用提示詞進(jìn)行了設(shè)計(jì),并通過參數(shù)設(shè)置來調(diào)整畫面布局和構(gòu)圖,從而創(chuàng)作出作品。大模型微調(diào)是指擁有一定技術(shù)基礎(chǔ)的用戶可以通過LoRA、Adapter和Prefix-tuning等方法微調(diào)基礎(chǔ)大模型以適應(yīng)特定任務(wù)。這種方法適用于數(shù)據(jù)集類似但數(shù)據(jù)量較小的情況,能有效提高計(jì)算效率和精確度,且所需的訓(xùn)練資源較少,適合社區(qū)用戶和個(gè)人開發(fā)者。sNPWiqwr5yXBkRi+o6IGQw==以一個(gè)在大規(guī)模圖像數(shù)據(jù)集上訓(xùn)練過的預(yù)訓(xùn)練圖像分類模型為例,為了將其應(yīng)用于特定領(lǐng)域的圖像分類任務(wù)(如醫(yī)學(xué)圖像分類),用戶可以加載預(yù)訓(xùn)練模型的權(quán)重,凍結(jié)大部分分類層以保留通用特征,并添加一個(gè)新的輸出層,其節(jié)點(diǎn)數(shù)應(yīng)與新任務(wù)的類別數(shù)相匹配。然后對(duì)該新添加的輸出層進(jìn)行微調(diào)。利用用戶從其他來源獲取的圖像數(shù)據(jù)集來調(diào)整原模型的參數(shù),能夠確保模型既能保留通用特征,又能學(xué)習(xí)并適應(yīng)新任務(wù)的特定特征。
3. 價(jià)值創(chuàng)造邏輯:藝術(shù)性表達(dá)和工業(yè)化生產(chǎn)
AIGC賦能文化產(chǎn)業(yè)存在兩種價(jià)值創(chuàng)造邏輯,即藝術(shù)性表達(dá)和工業(yè)化生產(chǎn)。從藝術(shù)性表達(dá)的角度來看,以美國的AIGC作品《太空歌劇院》為例,該作品憑借其富有創(chuàng)意的敘事和視覺效果,獲得了美國科羅拉多州藝術(shù)博覽會(huì)數(shù)字藝術(shù)類冠軍。雖然AIGC在畫面生成方面發(fā)揮了重要作用,但人類創(chuàng)作者在創(chuàng)作過程中仍占據(jù)主導(dǎo)地位。創(chuàng)作者杰森·艾倫通過對(duì)生成內(nèi)容的指導(dǎo)、篩選和調(diào)整,確保了作品具有獨(dú)特的藝術(shù)性和情感深度。在藝術(shù)性表達(dá)的價(jià)值創(chuàng)造邏輯中,AIGC扮演輔助者的角色,為人類創(chuàng)作者提供大量的素材和創(chuàng)新工具,但作品的最終呈現(xiàn)仍依賴于人類的審美判斷與創(chuàng)意方向。在工業(yè)化生產(chǎn)的價(jià)值創(chuàng)造邏輯中,AIGC技術(shù)實(shí)現(xiàn)了空前的生產(chǎn)效率。例如,阿里巴巴的AI設(shè)計(jì)師“魯班”利用AIGC技術(shù)在雙十一促銷日期間生成了數(shù)千萬張海報(bào)。在此過程中,人類設(shè)計(jì)師更多地充當(dāng)監(jiān)督者和優(yōu)化者的角色,為AIGC提供模板和生產(chǎn)規(guī)則,并在生成過程中進(jìn)行實(shí)時(shí)監(jiān)控。與藝術(shù)性表達(dá)相比,工業(yè)化生產(chǎn)更注重規(guī)?;托?。AIGC在內(nèi)容生成上具有更強(qiáng)的自主性,從而實(shí)現(xiàn)了文化產(chǎn)業(yè)領(lǐng)域的降本增效目標(biāo)。與此同時(shí),人類設(shè)計(jì)師與機(jī)器的協(xié)作催生了“訓(xùn)機(jī)師”這一新職業(yè),將人類的創(chuàng)造力與人工智能的計(jì)算能力相結(jié)合,使設(shè)計(jì)師能夠更有效地引導(dǎo)和優(yōu)化AI的工作,滿足特定的商業(yè)和市場(chǎng)需求。
三、法律維度:AIGC賦能文化產(chǎn)業(yè)的著作權(quán)歸屬分歧
傳統(tǒng)著作權(quán)法旨在保護(hù)人類創(chuàng)作者的智力成果。然而,人工智能在無人干預(yù)的情況下生成復(fù)雜內(nèi)容,如文學(xué)作品、音樂、圖像、設(shè)計(jì)乃至音視頻等,引發(fā)了新型著作權(quán)歸屬的問題,成為當(dāng)前亟待解決的時(shí)代命題。在法律層面,法律界面臨定義和保護(hù)這些非人類創(chuàng)作成果的挑戰(zhàn),需重新審視現(xiàn)行法律框架,以平衡AIGC技術(shù)進(jìn)步與知識(shí)產(chǎn)權(quán)保護(hù)的關(guān)系。
1. 核心原則:聚焦是否具有“獨(dú)創(chuàng)性”的智力成果
各國著作權(quán)認(rèn)定的核心是作品必須通過作者的獨(dú)立智力勞動(dòng)和創(chuàng)造性活動(dòng)而產(chǎn)生,才能受到法律保護(hù)。2021年修訂的《中華人民共和國著作權(quán)法》明確了作品的法律保護(hù)定義,即“文學(xué)、藝術(shù)和科學(xué)領(lǐng)域內(nèi)具有獨(dú)創(chuàng)性且能以一定形式表現(xiàn)的智力成果”。在此定義中,“獨(dú)創(chuàng)性”和“智力成果”是版權(quán)制度界定“作品”概念的核心要素。該定義強(qiáng)調(diào),無論智力成果的創(chuàng)造投入了多少勞動(dòng)或資本,其成為版權(quán)保護(hù)對(duì)象的關(guān)鍵屬性是其“獨(dú)創(chuàng)性”。因此,“獨(dú)創(chuàng)性”不僅是法律保護(hù)的前提,也是權(quán)利人主張其版權(quán)的基礎(chǔ),并且是版權(quán)制度整體架構(gòu)的基石[5]。全球各國版權(quán)法律及國際版權(quán)公約均以不同方式明確了“獨(dú)創(chuàng)性”的核心原則,確保創(chuàng)作的原創(chuàng)性得到認(rèn)可和保護(hù)。
2. 爭(zhēng)議焦點(diǎn):人工智能生成內(nèi)容中的人類干預(yù)程度
在文化產(chǎn)業(yè)領(lǐng)域,學(xué)界普遍認(rèn)同人工智能在當(dāng)前階段不具有著作權(quán)主體地位。國際社會(huì)在這一問題上的法律框架和實(shí)踐各異,但總體上可以歸納為三種類型[6]。其一,《保護(hù)文學(xué)和藝術(shù)作品伯爾尼公約》并未明確規(guī)定AI生成作品的權(quán)利歸屬,而多數(shù)國家的版權(quán)法都要求作品必須有“人類作者”。其二,美國的《版權(quán)登記指南:包含人工智能生成材料的作品》明確指出,沒有人類創(chuàng)作因素的AI生成物不能獲得版權(quán)保護(hù),拒絕登記那些僅由機(jī)器、純粹的機(jī)械過程或僅有指令輸入而沒有人類作者任何創(chuàng)造性投入情況下隨機(jī)或自動(dòng)運(yùn)行產(chǎn)生的作品,并在審查時(shí)根據(jù)具體情況進(jìn)行個(gè)案判斷。其三,《歐盟人工智能技術(shù)發(fā)展知識(shí)產(chǎn)權(quán)報(bào)告》強(qiáng)調(diào),技術(shù)創(chuàng)作應(yīng)在現(xiàn)有知識(shí)產(chǎn)權(quán)法框架下獲得保護(hù),但AI單獨(dú)創(chuàng)作的作品可能不符合版權(quán)法的原創(chuàng)性要求。此外,國際保護(hù)知識(shí)產(chǎn)權(quán)協(xié)會(huì)(AIPPI)也指出,只有在人類有干預(yù)的情況下,AI生成物才可能獲得版權(quán)保護(hù)。
“人類干預(yù)”和“人類創(chuàng)作因素”指的是作品創(chuàng)作過程中必須有作者的直接參與和智力勞動(dòng)。這些概念在國際保護(hù)知識(shí)產(chǎn)權(quán)協(xié)會(huì)和美國版權(quán)局的文件中均有體現(xiàn)。因此,人工智能生成產(chǎn)物的過程中是否有人為介入,成為決定其是否受到知識(shí)產(chǎn)權(quán)保護(hù)的判斷標(biāo)準(zhǔn)。然而,“人工干預(yù)”的具體程度仍需進(jìn)一步探討[7]。生成式人工智能的產(chǎn)出物在大模型學(xué)習(xí)資料、生成指令、結(jié)果修正等方面都離不開人的參與,而“人工干預(yù)AI創(chuàng)作”的標(biāo)準(zhǔn)目前存在爭(zhēng)議[8]。
3.平臺(tái)策略:獨(dú)占版權(quán)和將版權(quán)與風(fēng)險(xiǎn)責(zé)任轉(zhuǎn)嫁的博弈
在文化產(chǎn)業(yè)領(lǐng)域,生成式AI向公眾提供服務(wù)時(shí)所涉及的版權(quán)認(rèn)定,主要體現(xiàn)在用戶與AI生成內(nèi)容之間的博弈。以騰訊與上海盈訊科技之間的著作權(quán)權(quán)屬、侵權(quán)糾紛及商業(yè)賄賂不正當(dāng)競(jìng)爭(zhēng)糾紛案為例,騰訊自主開發(fā)了人工智能寫作輔助系統(tǒng),并利用該系統(tǒng)完成了一篇文章。在官網(wǎng)發(fā)表涉案文章時(shí),騰訊在文末注明“本文由騰訊機(jī)器人Dreamwriter自動(dòng)撰寫”。原告主張對(duì)涉案文章享有著作權(quán),而被告上海盈訊科技在其網(wǎng)站上傳播并使用了該文章,原告要求被告停止傳播、刊登聲明、賠償經(jīng)濟(jì)損失和合理開支等。法院最終認(rèn)定原告是適格的主體,被告侵犯了原告的著作權(quán)。與此類似的是北京互聯(lián)網(wǎng)法院在線公開審理的“春風(fēng)送來了溫柔”糾紛案,此案著作權(quán)歸屬的判決依據(jù)在于AI生成內(nèi)容過程中人類智力和獨(dú)創(chuàng)性的體現(xiàn),即人的參與程度。使用者訓(xùn)練越精準(zhǔn),可選擇性越多,最終取得生成內(nèi)容著作權(quán)的可能性越大。
與國內(nèi)AIGC平臺(tái)不同,國外AIGC平臺(tái)更關(guān)注擴(kuò)大收費(fèi)用戶規(guī)模,為此他們甚至愿意為用戶承擔(dān)潛在的訴訟費(fèi)用。根據(jù)OpenAI的使用條款,只要用戶遵守使用條款(包括使用限制),OpenAI就會(huì)將其在輸出內(nèi)容中的所有權(quán)和利益轉(zhuǎn)讓給提供輸入內(nèi)容的用戶。微軟、谷歌、OpenAI等多家公司都承諾,若付費(fèi)用戶因使用其提供的AIGC產(chǎn)品或服務(wù)而面臨第三方侵權(quán)索賠,公司同意承擔(dān)相應(yīng)的賠償責(zé)任。2023年9月7日,微軟發(fā)布了Copilot版權(quán)承諾書,表示若商業(yè)用戶因使用Copilot或其生成輸出內(nèi)容而遭到第三方基于版權(quán)的侵權(quán)訴訟,微軟將同意為該用戶辯護(hù)并支付因案件產(chǎn)生的賠償金,前提是該用戶已使用產(chǎn)品中內(nèi)置的防護(hù)裝置和內(nèi)容過濾器,并遵守其他條款。平臺(tái)通過用戶協(xié)議明確權(quán)利歸屬和責(zé)任劃分,是減少潛在沖突的有效方法[9]。此外,由于機(jī)器學(xué)習(xí)的特性,不同用戶可能會(huì)從AI中獲得相同或相似的輸出內(nèi)容。根據(jù)OpenAI的條款,只有獨(dú)有且唯一的輸出內(nèi)容才有資格進(jìn)行權(quán)利轉(zhuǎn)讓。
四、分層善治:法治框架內(nèi)AIGC賦能文化產(chǎn)業(yè)高質(zhì)量發(fā)展進(jìn)路
AIGC賦能文化產(chǎn)業(yè)是數(shù)字化、智能化時(shí)代的需求,簡(jiǎn)單粗暴的“抵制”并不是明智之舉,更為理性和前瞻性的做法是在法治框架內(nèi)劃分權(quán)責(zé)、制定適應(yīng)AI新技術(shù)的規(guī)則。隨著算法、數(shù)據(jù)和算力的不斷提升以及AI芯片、智能傳感器、云計(jì)算服務(wù)等關(guān)鍵技術(shù)的發(fā)展,AIGC賦能文化產(chǎn)業(yè)正逐漸形成一個(gè)多層次、高度集成的技術(shù)文化生態(tài)系統(tǒng)。這表明,隨著AI等新興技術(shù)在文化產(chǎn)業(yè)領(lǐng)域的深度應(yīng)用,對(duì)相關(guān)法律問題的研討——從知識(shí)產(chǎn)權(quán)保護(hù)到數(shù)據(jù)隱私,再到反壟斷法規(guī)和內(nèi)容版權(quán),已成為文化產(chǎn)業(yè)可持續(xù)高質(zhì)量發(fā)展的關(guān)鍵。
1. 上游基礎(chǔ)層:AIGC賦能文化產(chǎn)業(yè)底層驅(qū)動(dòng)的法規(guī)創(chuàng)新
AIGC賦能文化產(chǎn)業(yè)的上游基礎(chǔ)層提供人工智能技術(shù)和基礎(chǔ)設(shè)施,成為整個(gè)系統(tǒng)的重要支柱,這包括數(shù)據(jù)供給、數(shù)據(jù)分析與標(biāo)注、創(chuàng)造者生態(tài)層和相關(guān)算法的開發(fā)。在基礎(chǔ)層中,AI芯片、智能傳感器、云計(jì)算服務(wù)、數(shù)據(jù)類服務(wù)以及5G通信等共同為AIGC賦能文化產(chǎn)業(yè)提供技術(shù)支撐,數(shù)據(jù)、算力和算法是其底層驅(qū)動(dòng)的核心要素。在數(shù)據(jù)層面,AIGC依賴高質(zhì)量且多樣的數(shù)據(jù)資源,包括結(jié)構(gòu)化與非結(jié)構(gòu)化數(shù)據(jù),來源涵蓋用戶、公開域和私有域數(shù)據(jù),處理方式包括篩選、標(biāo)注、增強(qiáng)等,以確保數(shù)據(jù)的質(zhì)量與適用性。在算力層面,CPU、GPU、DPU等半導(dǎo)體設(shè)備與服務(wù)器,大模型算力集群和基于IaaS的分布式訓(xùn)練環(huán)境,為AIGC提供了堅(jiān)實(shí)的基礎(chǔ)。在算法層面,通過模型設(shè)計(jì)、訓(xùn)練、推理和部署構(gòu)建完整的機(jī)器學(xué)習(xí)平臺(tái),實(shí)現(xiàn)對(duì)實(shí)際業(yè)務(wù)的全面覆蓋和支撐。上游基礎(chǔ)層依靠全面的人工智能技術(shù)與數(shù)智基礎(chǔ)設(shè)施,奠定了AIGC賦能文化產(chǎn)業(yè)系統(tǒng)的重要基石。為確保這一體系的可持續(xù)發(fā)展,相關(guān)部門應(yīng)完善AIGC法律和監(jiān)管體系。
第一,健全與規(guī)范數(shù)據(jù)要素市場(chǎng)的法律體系。數(shù)據(jù)作為訓(xùn)練大模型的基礎(chǔ),其質(zhì)量、可獲得性和合規(guī)性直接影響AIGC的效能和安全。數(shù)據(jù)具有非競(jìng)爭(zhēng)性、無限復(fù)制性和獨(dú)特的生命周期,并在價(jià)值創(chuàng)造方面具有規(guī)模報(bào)酬遞增、規(guī)模效應(yīng)、質(zhì)量依賴和高度異質(zhì)性等特征[10]。一方面,由于數(shù)據(jù)的非競(jìng)爭(zhēng)性,其可以被多個(gè)數(shù)據(jù)處理者同時(shí)使用,而不會(huì)影響其自身價(jià)值,因此傳統(tǒng)的交易機(jī)制不再是最有效的資源配置方式。另一方面,數(shù)據(jù)要素的價(jià)值高度依賴于模型、模型中的其他數(shù)據(jù)以及應(yīng)用場(chǎng)景等因素,導(dǎo)致其在交易中的價(jià)值具有高度不確定性,阻礙了數(shù)據(jù)的自由流通。例如,Reddit上的聊天內(nèi)容成為谷歌、OpenAI和微軟等企業(yè)訓(xùn)練AI大模型的素材,Stack Overflow計(jì)劃從2024年起向大型AI開發(fā)商收取數(shù)據(jù)訪問費(fèi)用,這表明數(shù)據(jù)供應(yīng)商對(duì)其內(nèi)容的價(jià)值認(rèn)識(shí)逐漸加深,通過商業(yè)化策略來實(shí)現(xiàn)其價(jià)值最大化,并促使行業(yè)制定更為精細(xì)和高效的數(shù)據(jù)管理和交易機(jī)制。這有助于確保數(shù)據(jù)來源的合法性、處理過程的透明度以及使用目的的明確性,減少數(shù)據(jù)使用中的侵犯隱私、數(shù)據(jù)盜用等不當(dāng)行為,為AI公司提供清晰的合法獲取和使用數(shù)據(jù)的途徑。
第二,優(yōu)化算力分配與監(jiān)管的法律框架。在AIGC時(shí)代,算力已逐漸成為新的生產(chǎn)力標(biāo)志。在數(shù)智時(shí)代,竊取算力如同電氣時(shí)代盜竊電力,兩者都是非法占有主要生產(chǎn)資源的行為[11]。我國已有司法實(shí)踐表明,在安邦非法控制計(jì)算機(jī)信息系統(tǒng)案中,法院通過刑法對(duì)算力盜竊行為進(jìn)行規(guī)制,但當(dāng)前的處罰方式是在非法控制計(jì)算機(jī)信息系統(tǒng)罪和盜竊罪中選擇較重的罪名進(jìn)行處罰。由于缺乏針對(duì)算力規(guī)制和監(jiān)管的措施,在各種軟件均可潛在非法利用用戶硬件算力的現(xiàn)狀下,算法濫用和算力盜竊問題日益嚴(yán)重。在此情境下,應(yīng)建立監(jiān)管體系,規(guī)制算力市場(chǎng),避免算力資源的濫用和竊取,維護(hù)數(shù)智時(shí)代的生產(chǎn)秩序和資源公平性,并推動(dòng)算力資源和數(shù)字資源的開放共享,促進(jìn)算力資源的健康發(fā)展。
第三,提升算法合規(guī)性與安全性評(píng)估的法律標(biāo)準(zhǔn)?!八惴礄?quán)力”已成為技術(shù)領(lǐng)域的普遍共識(shí)。隨著數(shù)字經(jīng)濟(jì)的持續(xù)發(fā)展,算法的作用和影響將愈發(fā)顯著。然而,算法作為由人設(shè)計(jì)的分析和決策工具,往往具有固有的利益偏向,如果不加以管控,可能會(huì)損害社會(huì)的公平和秩序。當(dāng)前我國尚未出臺(tái)算法如何分類分級(jí)及實(shí)施監(jiān)管的具體制度,在通過算法挖掘數(shù)據(jù)價(jià)值、推動(dòng)經(jīng)濟(jì)發(fā)展的同時(shí),應(yīng)堅(jiān)持遵循算法積極向上、向善的原則,在發(fā)展數(shù)字經(jīng)濟(jì)與保護(hù)個(gè)人權(quán)益之間找到平衡。一方面,建立算法開發(fā)和部署的合規(guī)性要求,特別是對(duì)于敏感應(yīng)用場(chǎng)景;另一方面,引入第三方算法審核機(jī)制,確保算法的公平性和安全性,避免可能存在的偏見和歧視。此外,設(shè)立算法沙盒環(huán)境,便于企業(yè)在受控環(huán)境中進(jìn)行算法測(cè)試。
2.中游技術(shù)層:增強(qiáng)AIGC賦能文化產(chǎn)業(yè)的大模型安全保障
AIGC賦能文化產(chǎn)業(yè)的技術(shù)層涉及AI的垂直化、應(yīng)用化以及場(chǎng)景化的模型和應(yīng)用工具,涵蓋底層通用大模型和中間層模型,包括開源和非開源的基礎(chǔ)模型,以及模型托管平臺(tái)。當(dāng)前,AIGC充分展現(xiàn)了高質(zhì)量訓(xùn)練數(shù)據(jù)在文化產(chǎn)業(yè)價(jià)值創(chuàng)造中的疊加和倍增作用。大模型訓(xùn)練語料及其輸出結(jié)果將成為未來社會(huì)和文化生產(chǎn)中的重要數(shù)據(jù)資產(chǎn),其有序流轉(zhuǎn)和合規(guī)使用是發(fā)展數(shù)字經(jīng)濟(jì)的應(yīng)有之義。
第一,相關(guān)部門應(yīng)加強(qiáng)大模型訓(xùn)練語料的安全合規(guī)認(rèn)證與管理。隨著AI技術(shù)在文化產(chǎn)業(yè)領(lǐng)域的應(yīng)用日益廣泛,其對(duì)語料的依賴也日益增加。在此背景下,確保訓(xùn)練語料的質(zhì)量和安全性,防止誤導(dǎo)信息或不當(dāng)內(nèi)容被學(xué)習(xí)和放大,保證大模型的輸出結(jié)果符合公序良俗和法律法規(guī)要求,是促進(jìn)AIGC賦能文化產(chǎn)業(yè)健康發(fā)展的必要條件。此外,建立合規(guī)認(rèn)證體系不僅有助于監(jiān)管機(jī)構(gòu)有效監(jiān)督管理AI產(chǎn)品的開發(fā)和應(yīng)用,也為AI企業(yè)提供了規(guī)范操作的框架,使其在創(chuàng)新中注重倫理與責(zé)任。
第二,監(jiān)管機(jī)構(gòu)應(yīng)規(guī)制AIGC大模型的網(wǎng)絡(luò)安全風(fēng)險(xiǎn)和隱私泄露問題。從現(xiàn)有安全風(fēng)險(xiǎn)來看,攻擊者可能通過惡意數(shù)據(jù)操縱模型,如輸入帶有特定關(guān)鍵詞或結(jié)構(gòu)的數(shù)據(jù),試圖使模型產(chǎn)生偏差或錯(cuò)誤結(jié)果。對(duì)此,亟須加快制度設(shè)計(jì),在數(shù)據(jù)輸入上建立嚴(yán)格的過濾和驗(yàn)證機(jī)制。此外,如果模型在包含敏感信息或個(gè)人信息的數(shù)據(jù)上訓(xùn)練,攻擊者可能通過特定查詢推斷出訓(xùn)練數(shù)據(jù)的內(nèi)容,即所謂的“推斷攻擊”。因此,亟須在規(guī)制舉措上采用差分隱私技術(shù),減少特定數(shù)據(jù)對(duì)模型輸出的影響,并在數(shù)據(jù)集中采取刪除或匿名化敏感信息等手段保護(hù)用戶的隱私安全。
3.下游應(yīng)用層:完善AIGC賦能文化產(chǎn)業(yè)的內(nèi)容規(guī)范
AIGC賦能文化產(chǎn)業(yè)的應(yīng)用層面涉及向消費(fèi)者提供文字、圖片、音視頻等內(nèi)容生成服務(wù),并根據(jù)不同的價(jià)值創(chuàng)造邏輯分為直接生產(chǎn)消費(fèi)內(nèi)容、結(jié)合底層系統(tǒng)生產(chǎn)高附加值內(nèi)容、提供內(nèi)容生產(chǎn)輔助工具以及提供體系化解決方案四大類別。目前,大型語言模型在生成過程中可能出現(xiàn)的“幻覺”現(xiàn)象如邏輯問題、關(guān)鍵信息混淆或無中生有等,仍難以完全消除[12]。這些問題源于模型的訓(xùn)練方式——通過大量文本數(shù)據(jù)的統(tǒng)計(jì)學(xué)習(xí)來預(yù)測(cè)下一詞匯或句子,生成對(duì)話和文本。雖然這種方式能夠提高輸出內(nèi)容的流暢性,但同時(shí)也可能引入事實(shí)性錯(cuò)誤。因此,AIGC開發(fā)者和技術(shù)提供者需嘗試結(jié)合生成模型與外部檢索機(jī)制來提高內(nèi)容的準(zhǔn)確性和相關(guān)性,如在生成過程中實(shí)時(shí)查詢外部信息源,以驗(yàn)證和豐富生成內(nèi)容,規(guī)范AIGC賦能文化產(chǎn)業(yè)的健康有序發(fā)展。
第一,相關(guān)部門應(yīng)加大對(duì)深度偽造技術(shù)的監(jiān)管與打擊力度。當(dāng)前,AI換臉、語音模擬、人臉合成、視頻生成等惡意應(yīng)用手段生成的深度偽造信息,不僅加深了公眾對(duì)公開信息的不信任度,還可能導(dǎo)致虛假的信息與形象被用于詐騙、政治干預(yù)、煽動(dòng)暴力等破壞公共利益的行為,造成極大的安全風(fēng)險(xiǎn)。對(duì)此,應(yīng)明確界定深度偽造技術(shù)的合法與非法用途,加大對(duì)非法使用的處罰力度,引入“惡意使用”和“知情同意”的法律概念,確保只有在獲得被仿造者明確同意的情況下才能使用其面部或聲音數(shù)據(jù)。對(duì)于利用深度偽造技術(shù)從事詐騙、政治干預(yù)、煽動(dòng)暴力和犯罪的行為,應(yīng)明確規(guī)定更為嚴(yán)厲的刑事處罰,并將深度偽造視為情節(jié)加重因素。
第二,相關(guān)單位應(yīng)加強(qiáng)知識(shí)產(chǎn)權(quán)的配置與保護(hù)措施。上文提到的奧特曼案和《紐約時(shí)報(bào)》起訴OpenAI案表明,盡管此類訴訟不斷增加,但并非所有指控都能得到法律支持,因?yàn)橐延休^多案例法支持轉(zhuǎn)化性使用作為合理使用。例如:涉及剽竊檢測(cè)器TurnItIn.com案件的判例允許吸收作品以創(chuàng)建數(shù)據(jù)庫用于揭露學(xué)生的剽竊行為;“Kelly v.Arriba Soft”(凱利訴Arriba軟件公司侵權(quán)案)案例認(rèn)定以縮略圖形式復(fù)制和展示照片屬于合理使用;美國谷歌圖書案中,法院認(rèn)為谷歌在未授權(quán)的情況下將受版權(quán)保護(hù)的書籍電子化供檢索并展示小部分內(nèi)容屬于“合理使用”。這些被認(rèn)定為“合理使用”的案件通常依賴于具體事實(shí),并不能作為完全的參考標(biāo)準(zhǔn)應(yīng)用到不同程度類似的案件中。因此,應(yīng)明確定義生成式人工智能產(chǎn)出內(nèi)容的知識(shí)產(chǎn)權(quán)歸屬和使用界限,鼓勵(lì)法院在判例中探索和闡述AI與知識(shí)產(chǎn)權(quán)關(guān)系的具體法律問題,使法律適應(yīng)AI技術(shù)發(fā)展的需求。
第三,非營(yíng)利性機(jī)構(gòu)使用AIGC服務(wù)公共文化或公益活動(dòng)時(shí),應(yīng)享有一定的豁免政策。如非營(yíng)利組織在使用AI進(jìn)行數(shù)據(jù)分析、健康管理、教育培訓(xùn)時(shí),可以免于某些商業(yè)性規(guī)定的限制,以此更有效地利用AI技術(shù)提升文化服務(wù)質(zhì)量和覆蓋范圍。特別是在傳統(tǒng)文化領(lǐng)域,可通過AIGC賦能推動(dòng)中華優(yōu)秀傳統(tǒng)文化的數(shù)智化創(chuàng)新進(jìn)程[13]。此外,為確保AIGC賦能過程的透明和合法,可建立非營(yíng)利AI應(yīng)用備案制度,要求相關(guān)機(jī)構(gòu)定期提交AI應(yīng)用報(bào)告,接受社會(huì)監(jiān)督和法律審查,確保AI應(yīng)用不會(huì)對(duì)社會(huì)造成負(fù)面影響,并適時(shí)承擔(dān)相應(yīng)的法律責(zé)任和道德義務(wù)。
第四,相關(guān)部門應(yīng)加快AIGC賦能文化產(chǎn)業(yè)應(yīng)用的認(rèn)證制度和補(bǔ)償機(jī)制。如:對(duì)符合規(guī)定的AI應(yīng)用進(jìn)行認(rèn)證,提供準(zhǔn)入和信用評(píng)級(jí)參考;對(duì)AI應(yīng)用進(jìn)行動(dòng)態(tài)監(jiān)測(cè)和評(píng)估,及時(shí)發(fā)現(xiàn)和處理潛在的風(fēng)險(xiǎn)和問題。以算法責(zé)任為中心的美國模式提出 “反歧視、回饋與救濟(jì)、算法可問責(zé)、算法可解釋、數(shù)據(jù)來源、算法可審計(jì)驗(yàn)證與檢測(cè)”的原則,主張建立算法失靈的社會(huì)補(bǔ)償機(jī)制、算法脫軌的問責(zé)歸責(zé)機(jī)制[14]。由此,確保AIGC技術(shù)既促進(jìn)文化產(chǎn)業(yè)創(chuàng)新,又尊重傳統(tǒng)價(jià)值,以開放式創(chuàng)新與倫理守正創(chuàng)新并舉的發(fā)展基準(zhǔn),賦予AIGC賦能文化產(chǎn)業(yè)高質(zhì)量發(fā)展的人文關(guān)懷和法律責(zé)任。
|參考文獻(xiàn)|
[1]花建. 提升數(shù)字文化消費(fèi)新機(jī)制:FCS研究框架、三大維度和提升重點(diǎn)[J]. 上海財(cái)經(jīng)大學(xué)學(xué)報(bào),2023(6):15-27.
[2]李曉宇. 博弈論下人工智能生成數(shù)據(jù)作品中利益沖突及破解[J]. 科技與法律(中英文),2022(3):51-59.
[3]周學(xué)峰. 生成式人工智能侵權(quán)責(zé)任探析[J]. 比較法研究,2023(4):117-131.
[4]司曉. 奇點(diǎn)來臨:ChatGPT時(shí)代的著作權(quán)法走向何處:兼回應(yīng)相關(guān)論點(diǎn)[J]. 探索與爭(zhēng)鳴,2023(5):79-86.
[5]于文. 利益平衡的修辭術(shù):“獨(dú)創(chuàng)性”概念的生成、誤讀與反思[J]. 現(xiàn)代出版,2022(3):75-89.
[6]張春春,孫瑞英. 如何走出AIGC的“科林格里奇困境”:全流程動(dòng)態(tài)數(shù)據(jù)合規(guī)治理[J]. 圖書情報(bào)知識(shí),2024(2):39-49.
[7]張凌寒,郭禾,馮曉青,等. 人工智能生成內(nèi)容(AIGC)著作權(quán)保護(hù)筆談錄[J]. 數(shù)字法治,2024(1):1-26.
[8]種曉明. AIGC賦能出版業(yè)背景下版權(quán)監(jiān)管新路徑研究[J]. 科技與出版,2023(8):96-104.
[9]譚佐財(cái). ChatGPT的法律風(fēng)險(xiǎn)與治理路徑[J]. 湖南科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023(3):117-125.
[10]翁翕. 加快推進(jìn)數(shù)據(jù)要素市場(chǎng)化建設(shè)充分發(fā)揮數(shù)據(jù)要素作用[J]. 中國經(jīng)貿(mào)導(dǎo)刊,2022(3):31-32.
[11]湯道路. 算力盜用:一種新型財(cái)產(chǎn)侵害[J]. 政法論叢,2022(3):132-140.
[12]劉莊. 幻象與本相:法律人工智能及其他[J]. 中國法律評(píng)論,2024(2):128-138.
[13]雷文宣,解學(xué)芳. 從封存式到活態(tài)化:中華優(yōu)秀傳統(tǒng)文化的數(shù)智化創(chuàng)新[J]. 出版廣角,2023(19):11-18.
[14]解學(xué)芳,祝新樂. “智能+”時(shí)代AIGC賦能的數(shù)字文化生產(chǎn)模式創(chuàng)新研究[J]. 福建論壇(人文社會(huì)科學(xué)版),2023(8):16-29.