摘要:人工智能可以通過大量的數(shù)據(jù)進行訓(xùn)練,學(xué)習(xí)數(shù)據(jù)中的規(guī)律和特征,高效生成新的內(nèi)容,這不僅引發(fā)了創(chuàng)作模式的改革,同時也給版權(quán)豁免制度帶來了挑戰(zhàn)。版權(quán)豁免制度設(shè)立的初衷在于平衡本權(quán)與他權(quán)。然而,隨著人工智能帶來的技術(shù)變革和產(chǎn)業(yè)調(diào)整,版權(quán)豁免制度在應(yīng)對智能創(chuàng)作時暴露出了觀念邊界、規(guī)范邊界以及條件邊界受限等問題。對此,需要探索版權(quán)豁免制度的梯度式拓展策略,首先是主體拓展,針對“個人使用”條款的擴張解釋。其次是原理拓展,將合理使用步驟化考量轉(zhuǎn)向綜合性考量。再次是規(guī)則拓展,增加智能創(chuàng)作豁免專項條款。最后是經(jīng)濟拓展,探索人工智能征稅制度,從而保證“生動化創(chuàng)作”與“自動化創(chuàng)作”都能獲得合理的規(guī)范支持與發(fā)展空間。
關(guān)鍵詞:智能創(chuàng)作;版權(quán)豁免;算法作者;人工智能征稅;三步檢驗法
一、引言
生成式人工智能技術(shù)不僅僅是簡單地執(zhí)行預(yù)定的任務(wù),而是一種利用復(fù)雜的算法、模型和規(guī)則,通過大規(guī)模數(shù)據(jù)集中學(xué)習(xí),以創(chuàng)造新的內(nèi)容的人工智能技術(shù)。生成式人工智能已在廣泛的領(lǐng)域中開展應(yīng)用、發(fā)揮效能,其中之一就是智能創(chuàng)作。智能創(chuàng)作是指利用人工智能技術(shù)來輔助或完全自動化創(chuàng)作的一種方法,也可以被理解為“算法創(chuàng)作”,人工智能通過更具智能化特征的現(xiàn)代算法并使用由數(shù)以萬計的現(xiàn)有作品組成的數(shù)據(jù)作為訓(xùn)練材料,例如文本、圖像、音樂等,通過反復(fù)訓(xùn)練,檢測數(shù)據(jù)中的創(chuàng)意特征和模式,并提取創(chuàng)作模型,在此基礎(chǔ)上生成內(nèi)容??梢钥闯?,人類創(chuàng)作與智能創(chuàng)作都依賴于對于現(xiàn)有作品的分析和學(xué)習(xí),對于前者,版權(quán)法中設(shè)置了相應(yīng)的豁免制度,如合理使用、法定許可、強制許可等,旨在保護著作權(quán)人利益的同時,也考慮知識的再生產(chǎn)和文化進步的公共目標;但該制度并未給后者保留合理的適用空間,機器學(xué)習(xí)過程中對大量作品的復(fù)制、存儲、整理等特定行為會侵擾到版權(quán)人的權(quán)利領(lǐng)地,引發(fā)以復(fù)制權(quán)為核心的著作權(quán)權(quán)利紛爭,不明朗的抗辯規(guī)則致使智能創(chuàng)作產(chǎn)業(yè)中多方主體的困惑與詰問。
對此,國內(nèi)外已展開立法與研究的嘗試,立法上,歐盟的“文本與數(shù)據(jù)挖掘例外”為科學(xué)研究領(lǐng)域內(nèi)的數(shù)據(jù)獲取提供了規(guī)范支持;英國版權(quán)法也將非商業(yè)的計算分析不可避免的復(fù)制行為設(shè)置為豁免條款;法國的知識產(chǎn)權(quán)法典允許社會公眾對已發(fā)表的、合法獲取的科學(xué)作品以及數(shù)據(jù)庫文獻進行非營利性的挖掘。而日本和美國則采取更為寬松的應(yīng)對策略,日本版權(quán)法規(guī)定只要對作品的利用“并非為了欣賞作品所表達的思想或情感”則具備合理性空間,美國則在判例中多次通過“合理使用四要素”判定模式,對數(shù)據(jù)挖掘行為的正當性予以認可。在研究視角中,域外學(xué)者較早開始從“轉(zhuǎn)化性使用”的角度論證智能創(chuàng)造的數(shù)據(jù)獲取合理性。國內(nèi)的研究中多數(shù)指向明確,為人工智能創(chuàng)作增加特定的“限制與例外”條款,從而“一針見血”地解決“權(quán)利病癥”;也有學(xué)者防微杜漸,注重“內(nèi)調(diào)”,區(qū)分“作品性使用”與“非作品性使用”,將“作品性”使用作為侵權(quán)成立之要件,在前端完成規(guī)制?;厮輾v史,新技術(shù)對于法律的沖擊已多次上演,每一次規(guī)則的重塑都為今天的抉擇提供了“藥方”,但無論智能技術(shù)引發(fā)的爭議是“頑疾”還是“輕癥”,都須把準市場“脈門”,標本同治。本文試圖從“版權(quán)豁免”這一元視角出發(fā),系統(tǒng)性地梳理現(xiàn)有的豁免規(guī)則在遭遇智能創(chuàng)作時的困境,并“由表及里”從主體、原理、規(guī)則、經(jīng)濟多維度為智能創(chuàng)作提供梯度式豁免策略,以期在“創(chuàng)作革命”的變局之中尋找規(guī)范與技術(shù)之平衡。
二、智能創(chuàng)作的機理與爭議
智能創(chuàng)作是基于算法和數(shù)據(jù)的內(nèi)容生成方式,它的創(chuàng)作過程是通過學(xué)習(xí)數(shù)據(jù)模式并根據(jù)指令生成對應(yīng)內(nèi)容,而人類創(chuàng)作則是源自情感、經(jīng)驗、思維和靈感的表達。就創(chuàng)作動機而言,智能創(chuàng)作最初以功能為導(dǎo)向,與解決實際問題、娛樂或展示技術(shù)相關(guān),而人類創(chuàng)作被認為是出于個性表達、思想交流、藝術(shù)探索等更為復(fù)雜和多樣的動機,對比之下不禁會引發(fā)對于創(chuàng)作本質(zhì)的再思考。
(一)智能創(chuàng)作的技術(shù)機理
智能創(chuàng)作的基礎(chǔ)是機器學(xué)習(xí)算法。這些算法可以通過大量的數(shù)據(jù)進行訓(xùn)練,學(xué)習(xí)數(shù)據(jù)中的模式、規(guī)律和特征,然后根據(jù)學(xué)習(xí)到的知識生成新的作品。生成模型是人工智能生成作品的核心,常見的生成模型包括生成對抗網(wǎng)絡(luò)(GAN)、變分自編碼器(VAE)、自回歸模型等。在生成文本作品方面,自然語言處理技術(shù)起著關(guān)鍵作用,這些技術(shù)包括詞嵌入、循環(huán)神經(jīng)網(wǎng)絡(luò)、注意力機制等,能夠理解和生成自然語言,并生成具有語法正確性和語義連貫性的文本。
具體的技術(shù)步驟則可以概括為以下幾個環(huán)節(jié):首先是數(shù)據(jù)的收集與準備,包括圖像、音頻、文本等各種類型的數(shù)據(jù),然后進行數(shù)據(jù)預(yù)處理,如去除噪音、標準化格式、處理缺失值,以確保數(shù)據(jù)的質(zhì)量和一致性。其次,模型的選擇和優(yōu)化。根據(jù)生成的作品類型和需求,選擇適合的生成模型,使用準備好的數(shù)據(jù)集對選擇的模型進行訓(xùn)練,通過選擇優(yōu)化算法調(diào)整模型參數(shù),以使模型能夠?qū)W習(xí)數(shù)據(jù)的特征和分布。在訓(xùn)練過程中,還需要對模型進行調(diào)優(yōu)和驗證,這涉及調(diào)整模型的超參數(shù)、正則化、應(yīng)用數(shù)據(jù)增強等方法。最后是作品生成,完成指令任務(wù),也需對生成的作品進行評估,以確保其質(zhì)量符合預(yù)期,這可能涉及使用定量指標(如生成的圖像質(zhì)量指標、文本的流暢性指標等)和定性評估(如使用者的主觀評價)。
(二)智能創(chuàng)作引發(fā)的表達與審美爭議
智能創(chuàng)作帶來的最大變革就是創(chuàng)造祛魅,打破了長久以來作者中心主義下建立的創(chuàng)作觀。作者中心主義隨著主體范式的興衰而興衰,主體范式的興起賦予了作者創(chuàng)作者的地位,而主體范式的衰落使作者淪為功能作者。作者之創(chuàng)造不再是個性的詮釋,而淪落為一種話語實踐與功能性表達。民間文學(xué)作品、孤兒作品、作者商標化意味著著作權(quán)領(lǐng)域中作者的終結(jié)、作者中心主義的衰退。對此,人類作者立場存在不同的觀點,即便智能創(chuàng)作可以模仿人類的創(chuàng)作路徑,形成與其形似的文學(xué)藝術(shù)作品,但終究無法穿透外在形式傳遞精神內(nèi)核,并根據(jù)社會狀況批判性地提供信息和意義。正是因為人工智能缺乏體驗社會環(huán)境的條件,無法像人類一樣生活在現(xiàn)實之中,其生產(chǎn)的內(nèi)容無法真正意義上符合人類的道德愿景并產(chǎn)生共鳴。智能創(chuàng)造的開發(fā)者和經(jīng)營者試圖以技術(shù)打破創(chuàng)作的現(xiàn)有規(guī)則,提出創(chuàng)造方式改革的口號,并自主創(chuàng)作不屬于任何現(xiàn)有風格的內(nèi)容,這是對創(chuàng)作歷史與在先作品的否定。
此外,智能創(chuàng)造究竟是帶來了新的審美體驗,還是僅僅造成了審美同化亦是一個爭議問題。支持前者的觀點認為,作品的價值并非單純源自作者自我的情感傾訴與表達,公眾的審美體驗與審美共鳴更是審美的意義所在。換言之,作品的價值應(yīng)超越于作者個人層面,而追求普遍性的結(jié)果。因此,智能創(chuàng)作所帶來的藝術(shù)形式革新會產(chǎn)生個體感受與公共經(jīng)驗的新一輪互動交織,這是對美學(xué)的重新思考和有益探索。支持后者的觀點則認為文學(xué)藝術(shù)審美的獨特性在于它不依賴于理性思考,而是捕捉并呈現(xiàn)那些非規(guī)律性的、不可量化甚至難以表征的靈感,而智能創(chuàng)造不具備這種特性。生成式人工智能系統(tǒng)提供了允許用戶嘗試不同風格和圖案進行藝術(shù)創(chuàng)作的工具,但在人工智能系統(tǒng)中開發(fā)行為和指令輸入行為絕不能與審美行為相混淆。審美行為的核心在于過程與體驗,簡單的提示詞修正是不夠的,關(guān)鍵在于是否創(chuàng)造性地利用了文學(xué)和藝術(shù)的靈感來源。
對于著作權(quán)法而言,處置爭議的辦法在于思考現(xiàn)有制度與規(guī)則的適用空間與修正方向,使得“生動化創(chuàng)作”與“自動化創(chuàng)作”都能獲得合理的發(fā)展空間,既要為人類作者提供在審美領(lǐng)域生存的經(jīng)濟手段,也為智能產(chǎn)業(yè)提供持續(xù)進步的法治支持。
三、智能創(chuàng)作中的版權(quán)豁免制度邊界分析
版權(quán)豁免制度是指在特定情況下,對版權(quán)法律規(guī)定的權(quán)利范圍進行一定程度限制的制度。這種制度通常是為了平衡著作權(quán)與公眾利益之間的關(guān)系,以保護公共利益,促進文化和社會發(fā)展而設(shè)立的,但由于立法技術(shù)與實踐環(huán)境等原因,實際中本權(quán)與他權(quán),私益與公益之間并沒有因此而獲得妥善協(xié)調(diào),隨著人工智能帶來的技術(shù)變革和產(chǎn)業(yè)調(diào)整,版權(quán)豁免的制度邊界也越發(fā)明顯。
(一)觀念的邊界:算法作者的主體否定
算法的本質(zhì)是一種抽象化的、可執(zhí)行的計算過程,通過對數(shù)據(jù)進行操作和轉(zhuǎn)換,以解決特定問題或執(zhí)行特定任務(wù),并注重計算復(fù)雜性、正確性、效率和應(yīng)用范圍等方面的考量。算法的誕生通常始于對一個實際問題或計算任務(wù)的識別和理解,因此,其具有明確的目標指向性和角色定位,即人類的執(zhí)行工具。然而,人工智能算法具有更高級別的智能和自適應(yīng)能力,可以根據(jù)環(huán)境變化和數(shù)據(jù)反饋調(diào)整自身行為,算法的自主化決策正在實現(xiàn)著對人類決策的延伸甚至超越,當“機器的表現(xiàn)越來越像人”時,創(chuàng)作領(lǐng)域中“算法作者”的合法性才具備了討論空間。有學(xué)者提出,判斷人工智能是否可以定義為作者,本質(zhì)上是一個評估版權(quán)法在多大程度上要求人性的過程。這也就意味著如果版權(quán)法將作者身份明確為人類的聰明才智或智力勞動,那么算法作者的空間可能就很狹窄。然而,如果法律將重點從創(chuàng)作者轉(zhuǎn)移到作品所針對的受眾的需求上,那么人工智能更容易被納入該作者版圖之中。
從上位的法理層面來看,法律主體的構(gòu)成前提是自由之意志,基于此而產(chǎn)生的思考、感知、決策和行動的能力使自然人成為具有法律地位和能力的主體,能夠享有和行使法律所規(guī)定的權(quán)利和承擔相應(yīng)的義務(wù)。而人工智能缺乏自我意識、情感以及主觀體驗,并不具備人類的綜合認知和情感智慧,也無法進行社會交往和倫理感知,在關(guān)鍵特征上難以滿足法律主體的要求。而在下位的著作權(quán)法層面中,“作者中心主義”所奉行的浪漫主義作者創(chuàng)作觀,使得著作權(quán)制度成為以作者為核心構(gòu)建的權(quán)利保護體系,算法作者不具備一個合格的權(quán)利地位。具體言之,人格理論視野下自然人的人格利益被視為作品的保護合法性的重要來源,作品與作者之間存在“親緣關(guān)系”,作品是作者的精神延續(xù),人格理論強調(diào)著作權(quán)不僅僅是保護作者的經(jīng)濟利益,更是保護作者的精神利益和人格尊嚴;而人格的來源并非智能或智力,其源自自由意志或者主動思考的能力,使得人類對于自己的思想與行為有自我決定與自我表達的本領(lǐng),而人工智能的創(chuàng)作是任務(wù)式創(chuàng)作,是接收指令后的特定算法輸出,而非自我情緒之表達,這也使得其在人格理論中無法成為著作權(quán)意義上的作者。此外,激勵理論也認為版權(quán)法的主旨正是通過專有權(quán)利的賦予實現(xiàn)對于作者的激勵效果,以保證創(chuàng)作的持續(xù)性,但人之外的主體,包括動物或人工智能無法理解這種激勵,因此,并無必要確認其作者資格。
基于此,域內(nèi)外現(xiàn)有立法與司法對于算法作者的主體否決是一致的。此前,美國版權(quán)局針對登記《黎明的曙光》(Zarya of the Dawn)——一部包含利用生成式人工智能系統(tǒng)Midjourney創(chuàng)造的圖像的漫畫的請求作出了駁回決定,其理由在于作者身份必須局限于“人類作者”,而用戶所作的文本提示不足以被視為“人類著作”;同樣,歐盟法院也多次宣布,著作權(quán)僅適用于獨創(chuàng)性表達,而獨創(chuàng)性必須反映為“作者個人的智力原創(chuàng)”。在我國“人工智能生成圖片著作權(quán)侵權(quán)第一案”中,法院對于人工智能生成圖片是否應(yīng)當被認定為作品做出了與域外截然不同的判決,其認為涉案圖片具備“獨創(chuàng)性”要件,應(yīng)當被認定為作品,受到著作權(quán)法保護,但不容忽視的是,其肯定涉案圖片能構(gòu)成作品的前提是認為該創(chuàng)作中體現(xiàn)了人的獨創(chuàng)性智力投入,且本質(zhì)上仍然是人利用工具完成的創(chuàng)作。
歐盟于今年3月13日通過的《人工智能法案》規(guī)定了人工智能禁止應(yīng)用情形,原則上任何試圖操作人類行為,利用人性弱點等的人工智能系統(tǒng)都被嚴格禁止,具體還包括使用人類潛意識、操作性的,損害知情決策能力,造成重大損害的,推斷人類敏感屬性的生物識別分類,以及通過社會評分歸類,形成不利待遇等情形。其反映的是人類主體和監(jiān)督的一般原則,應(yīng)當把人工智能系統(tǒng)作為尊重人類尊嚴和個人自主權(quán)的工具來進行開發(fā)和使用,其運作方式由人類控制和監(jiān)督。由此不難看出,人工智能的工具化定位還將持續(xù)很長一段時間,要在以人為本的法律制度中完成客體到主體的轉(zhuǎn)型,與其依賴于理論的重新審視,不如寄希望于技術(shù)發(fā)展的潛力。
(二)規(guī)范的邊界:侵權(quán)抗辯規(guī)則的缺失
著作權(quán)在賦權(quán)的同時也設(shè)置了權(quán)利的限制,通過構(gòu)建相應(yīng)的侵權(quán)抗辯規(guī)則以滿足社會對知識和信息的需求,同時也體現(xiàn)了法律對社會關(guān)系和多方利益進行有目的的調(diào)控。我國著作權(quán)法中侵權(quán)抗辯規(guī)則主要分為合理使用與法定許可兩類,其中法定許可的各項規(guī)則在智能創(chuàng)造情境中并無適用余地,而在合理使用制度中,表面上能為智能創(chuàng)作提供侵權(quán)抗辯的包括三項規(guī)則。分別是“個人使用條款”與“教學(xué)研究使用條款”以及“適當引用條款”,前兩款主要針對的是智能創(chuàng)造的前端,即對于數(shù)據(jù)信息的獲取和分析;后一款則是針對智能創(chuàng)造的后端,即指令內(nèi)容的輸出。
第一是“個人使用條款”,即《著作權(quán)法》第二十四條第一款“為個人學(xué)習(xí)、研究或者欣賞,使用他人已經(jīng)發(fā)表的作品。”但此條款中限于主體與客體的要求,無法包容智能創(chuàng)作的情境。主體上,“個人”有明確類別限制和數(shù)量限制,類別上只能是自然人,而不包括法人和其他組織,因為法人和其他組織一般無法推定其僅具有單純的非功利目的;數(shù)量上一般只能包括單個個體及家庭,而不能延及整個多人組成的科研團隊,在現(xiàn)有的人工智能工具主義視角下,法律并不承認人工智能創(chuàng)作主體的資格。因此,只能將其背后的技術(shù)研發(fā)團隊作為主體,那么其數(shù)量上也無法滿足上述要求。
第二是“教學(xué)研究使用條款”,即《著作權(quán)法》第二十四條第六款規(guī)定的“為學(xué)校課堂教學(xué)或者科學(xué)研究,翻譯、改編、匯編、播放或者少量復(fù)制已經(jīng)發(fā)表的作品,供教學(xué)或者科研人員使用,但不得出版發(fā)行?!敝悄軇?chuàng)作行為并不符合該條款中使用目的、使用方式的要求。使用目的上,“教學(xué)研究使用條款”適用于課堂教學(xué)或科研,然而目前的智能創(chuàng)作多是商業(yè)化產(chǎn)品,是屬于商業(yè)性目的的相關(guān)活動;使用方式上,智能創(chuàng)造所要求的數(shù)據(jù)量級也明顯會超出“少量復(fù)制”的標準。
第三是“適當引用條款”,即《著作權(quán)法》第二十四條第二款規(guī)定的“為介紹、評論某一作品或者說明某一問題,在作品中適當引用他人已經(jīng)發(fā)表的作品?!庇捎谥悄軇?chuàng)造的輸出階段會有直接的內(nèi)容呈現(xiàn),因此在判斷是否構(gòu)成對現(xiàn)有作品的侵權(quán)或者是否構(gòu)成合理使用不具備較大爭議。只要其輸出內(nèi)容并沒有原封不動地再現(xiàn)原作品或與原作品實質(zhì)性相似,而只是沿襲其風格、主旨、概念等抽象的思想領(lǐng)域元素,或者是采用了新的理念、視角,在對原作品的使用過程中增添了新的價值和功能,形成了與原作有實質(zhì)性區(qū)別的新內(nèi)容,那么可以認定其對于原作具備了較高的“轉(zhuǎn)化性”程度,從而侵權(quán)抗辯成功的幾率也更大。
綜上,在現(xiàn)有的著作權(quán)法框架下,要在輸出端判別智能生成內(nèi)容是否具有合法性較為簡單,只要開發(fā)者能不斷優(yōu)化模型,盡量避免生成與在先作品存在實質(zhì)性相似的成果,則可以有效地抵御侵權(quán)指控。但如果在輸入端既想獲得豐富的數(shù)據(jù)信息養(yǎng)分,又想不面臨侵權(quán)風險,依據(jù)現(xiàn)有的合理使用制度是難以實現(xiàn)的,這嚴重阻礙了虛擬現(xiàn)實生態(tài)中智能創(chuàng)造的可能性。當然,并不排除可以通過獲取合法的版權(quán)授權(quán)解決這一問題,但由于人工智能對于作品信息學(xué)習(xí)的稀疏性、多量性以及隨機性,無論是精準授權(quán)還是自愿許可都將附隨極高的交易成本,因此,該策略也缺乏可行性。
(三)條件的邊界:“三步檢驗法”的技術(shù)缺陷
合理使用制度在轉(zhuǎn)化為國內(nèi)立法時,未采取“因素主義”的范式,不完全依賴于個案情況的綜合評估來確定是否構(gòu)成合理使用。而是采用嚴謹?shù)摹皸l文主義”,列舉合理使用的具體場景,限制自由裁量,但與此同時,“三步檢驗法”仍作為前置條件,形成了具有“因素主義”表象的“過濾機制”。
其“表象性”體現(xiàn)在對于“三步檢驗法”的第一步——“合理使用僅限于特殊情況下”已做出了窮盡式的列舉,也就是必須屬于法定的情形之后,才有進一步討論是否構(gòu)成合理使用的空間。并且相較于同樣采用列舉式的大陸法系立法而言,列舉的數(shù)量是有限的,這就會導(dǎo)致合理使用的適用情景受到進一步限制。尤其在版權(quán)權(quán)利擴張的趨勢下,對于“特殊情況”局限于文本主義(textualism)的解釋方法,將難以在利益對立中尋求平衡。有觀點認為“特殊情況”作為第一步,并不涉及價值層面的探討,即便是無意義的例外也可納入其中,只要總體范圍是有限制的、狹窄的即可。但在新技術(shù)不斷更迭的背景下,“特殊性”需要結(jié)合實際情景的目的性予以考量才更具合理性,只有在基于公共政策的角度上被視作是基本正當?shù)牟庞羞M一步檢驗的必要。這一方面可以防止列舉式無法應(yīng)對新現(xiàn)象的困境,另一方面,后兩步側(cè)向于版權(quán)人利益的考慮,如果不在第一步中補充使用者以及公共利益的考慮,那么將會導(dǎo)致雙方利益的失衡加劇。
三步檢驗法的第二步是“不得影響該作品的正常使用”。但對于“正?!钡慕忉屚ǔ>邆鋽U張性的傾向,從《伯爾尼公約》的立法沿革與脈絡(luò)來看,“正常使用”應(yīng)當是任何可以給作者帶來實質(zhì)性利益的使用,并且針對這些使用方式不得添加限制和例外,否則將是對作者應(yīng)有權(quán)利之剝奪。換言之,一切“現(xiàn)有的使用”和“潛在的使用”都將不被允許,所謂現(xiàn)有的使用指的是只要落入權(quán)利內(nèi)容所控制的某一特定行為即滿足條件,即便該使用并不涉及其他的權(quán)利內(nèi)容,且其盈利方式主要源自其他權(quán)利內(nèi)容;而潛在的使用則是為權(quán)利人的進一步兜底,可以將預(yù)期發(fā)生的與權(quán)利人利益相沖突的方式也涵蓋其中,即便該方式是權(quán)利人原本始料未及的。虛擬現(xiàn)實與人工智能等新技術(shù)創(chuàng)新和顛覆了原有的對于作品的利用方式,但從經(jīng)驗主義的角度來看,這些全新的方式盡管不會落入“現(xiàn)有”的范疇,不屬于一種對作品的典型化常規(guī)化的使用,但這種使用會對權(quán)利人潛在的利益產(chǎn)生重大影響,因此,仍然可以歸屬于“正常使用”。這便是“因素主義”表象化的第二重體現(xiàn)。
三步檢驗法的最后一步是“不得不合理的損害著作權(quán)人的合法權(quán)益”,其意味著如果是合理地損害了著作權(quán)人的合法權(quán)益則可享有豁免,這其實是“比例原則”在著作權(quán)中的重要體現(xiàn),而如何判斷“合理”與否則多有歧義,從權(quán)利人角度來看,第一要判斷使用目的上是否合理,第二則要判斷為實現(xiàn)該目的所采取的手段是否合理,第三還要判斷目的和手段之間是否存在唯一的對應(yīng)關(guān)系。換言之,須判斷是否存在可以實現(xiàn)該目的的其他手段,且其他手段對于權(quán)利人具有更小的侵害性。然而,上述方法中越是步驟化的細致分析,越體現(xiàn)了公共利益在考量上的缺位,這也是“因素主義”表象化的第三重體現(xiàn)。是否“合理”不應(yīng)該忽視倫理與道德的需求,并且在價值次序上,公共利益也不應(yīng)落后于個人權(quán)利,否則合理使用制度多元化的價值目標將被保護作者這單一內(nèi)涵所取代。
四、智能創(chuàng)作中版權(quán)豁免制度的拓展路徑
智能創(chuàng)作中的版權(quán)豁免制度拓展需要考慮如何找到權(quán)益的平衡點,并為智能創(chuàng)作提供合理的規(guī)范支持。對此,需分別從主體方面、原理方面、規(guī)則方面以及經(jīng)濟方面尋求梯度式拓展路徑,以期為人類創(chuàng)作與智能創(chuàng)作的融合共生,打造一個穩(wěn)定且可持續(xù)的版權(quán)環(huán)境。
(一)主體拓展:“個人使用”條款的擴張解釋
最優(yōu)先的策略往往是對現(xiàn)有規(guī)則調(diào)整最小的方式,而在現(xiàn)有的“合理使用”框架下,想要使得智能創(chuàng)造版權(quán)豁免能夠成立,那么可以從法律解釋的路徑中嘗試將“個人使用”作為數(shù)據(jù)獲取的抗辯理由,“研究、學(xué)習(xí)或者欣賞”不僅是人類創(chuàng)作所必須的前置程序,對于人工智能而言,亦是如此。唯一的障礙,是如何打通“算法”轉(zhuǎn)化為“個人”的窗口。
將“算法”轉(zhuǎn)化為“個人”,其核心在于版權(quán)法是否在規(guī)范和理論上具有足夠的“非人性化”彈性。最具有參考性的先例是“法人作者”的法律擬制。該擬制的前提是考慮到投資回報的重要性,規(guī)?;膭?chuàng)作市場將版權(quán)分配給最有能力在形式意義上利用作品的經(jīng)濟行為者,使其能夠有效地保證文化市場的發(fā)展;擬制的正當性則是以“共同意志”“團體人格”形成的“擬制人格”以及民事責任承擔的可行性作為支撐。但由于“個人使用”條款并不適用于商業(yè)性質(zhì)的使用,故“法人”難以轉(zhuǎn)化為此處的“個人”。因此,將“算法”轉(zhuǎn)化為“個人”的剩余方法就是找到算法創(chuàng)作與個人創(chuàng)作的共通性。
從創(chuàng)作的過程來看,傳統(tǒng)的符號主義(Symbolism)認為可以利用物理符號系統(tǒng)及有限合理性原理來實現(xiàn)人工智能,思維的基本單元是符號,而基于符號的一系列運算就構(gòu)成了認知的過程,所以人和計算機都可以被看成具備邏輯推理能力的符號系統(tǒng),但符號主義人工智能與人類的差距在于面對復(fù)雜情景的反應(yīng)能力,對于超出模型范圍和數(shù)據(jù)儲備的創(chuàng)作指令,前者無法有效地給出回應(yīng)。而聯(lián)結(jié)主義(Connectionism)的主要原理為神經(jīng)網(wǎng)絡(luò)及神經(jīng)網(wǎng)絡(luò)間的連接機制與學(xué)習(xí)算法,它通過模擬生物神經(jīng)系統(tǒng)來實現(xiàn)學(xué)習(xí)和適應(yīng),具有良好的模擬人腦處理信息的能力,在數(shù)據(jù)和計算資源有保障的前提下,甚至使得現(xiàn)有的生成式人工智能被捕捉到“意識涌現(xiàn)”的可能性。而意識本就是人類創(chuàng)作的直接驅(qū)動力,是一種經(jīng)驗直覺的外化體現(xiàn),意識既在一般情形下指導(dǎo)著題材的選擇和素材的利用,也在特殊情形中催生“靈感”,為作品注入個性化和感性色彩,使作品能夠更好地傳達作者的思想情感體驗。生成式人工智能的模型算法在海量參數(shù)的支持下,面對提示詞的引導(dǎo),總會產(chǎn)生生成特定內(nèi)容的“偏向”或“沖動”,這就產(chǎn)生了壓倒性概率引發(fā)的直覺。這也給“機器幻覺”(如ChatGPT的“脫軌”現(xiàn)象:胡編亂造事實、信息和數(shù)據(jù),言語攻擊,歧視與偏見等)問題的解釋提供了除技術(shù)局限之外的一種可能,因為,“幻覺”亦是“直覺”的一種表現(xiàn)。
從創(chuàng)作的結(jié)果來看,人工智能生成的內(nèi)容和人類創(chuàng)作內(nèi)容在外觀上的差異性將隨著智能技術(shù)的發(fā)展而逐漸縮小。相較于部分粗制濫造的人造文化產(chǎn)品,人工智能生成物更能保證基本的質(zhì)量標準和效率水平。并且,目前人工智能創(chuàng)作中存在的機械化模式化烙印也可能被視作一種獨特藝術(shù)形式,形成了前所未有的數(shù)字美學(xué)流派。如藝術(shù)家Refik Andol就是數(shù)據(jù)和機器智能美學(xué)的先驅(qū),他認為人工智能是人類意識的合作者,數(shù)據(jù)即顏料,算法則可以深入外部現(xiàn)實中未被認識的層次。這讓我們看到了“作品中心主義”的可取性,這種觀念強調(diào)作品的獨立性和完整性,認為作品應(yīng)該被看作是一個獨立的實體,其價值應(yīng)該基于其自身的美學(xué)、形式、意義和表現(xiàn)力等方面來評估,而不是基于作者、讀者或社會的背景與價值觀。當對于作品的評判不再取決于人格要素的含量,而只專注于作品本身,那么將更有利于文化生產(chǎn)突破傳統(tǒng)的藝術(shù)框架和規(guī)范,探索新的表現(xiàn)形式,從而推動藝術(shù)和文學(xué)的創(chuàng)新發(fā)展,這正是著作權(quán)法的立法宗旨所在。正如有學(xué)者所言:“人格價值論的立法取向并不能絕對排斥實用主義的制度選擇。”
另外,司法部門對于作品價值性的判斷一直保持警惕,這在重塑作者身份的概念方面發(fā)揮了重要作用。例如在歐盟法院的判例中認為作品能否“產(chǎn)生美學(xué)效果”這一事實對決定它是否是受版權(quán)法保護的作品沒有影響。司法應(yīng)當盡量抑制自身對于美學(xué)評判的沖動,平凡的作品和極具藝術(shù)造詣的佳作都應(yīng)當在法律層面一視同仁,這種抑制為非人類版權(quán)保護機制提供了切口,如果禁止法官對作品進行審美判斷,那么作品中所包含的情感、思緒、品位等人性要素也會被排除在法院的審查之外。
(二)原理拓展:步驟化考量轉(zhuǎn)向綜合性考量
在比較法的視野下,更容易觀察出不同制度背景下人們?nèi)绾螒?yīng)對相同的問題。我國現(xiàn)有的“權(quán)利的限制”制度立法較為完整地沿襲了國際條約中“三步檢驗法”的判定規(guī)則,并且以封閉清單的形式列舉了允許的權(quán)利例外情形,這使得法院在應(yīng)對人工智能技術(shù)帶來的創(chuàng)作變革時面臨困境:若嚴格遵循步驟化的規(guī)則推導(dǎo),那么現(xiàn)有的例外情形無法適用,人工智能創(chuàng)作將在“三步檢驗法”的“第一步”就被否決。而美國的“fair use”制度中保持了足夠的開放性,法院在判定是否構(gòu)成“fair use”時,并不受到法條文本的限制,而可以將“使用的目的與性質(zhì)、被使用作品的性質(zhì)、使用的量與質(zhì)、使用對于作品潛在市場價值的影響”作為考量因素,進行綜合判斷,在學(xué)理上被稱為“四要素規(guī)則”,并且對于這些因素立法中使用了“shall include”,這也表明四個要件并非全部,法官還可以根據(jù)案件情況增加新的因素進行判斷,這就為人工智能創(chuàng)作的侵權(quán)抗辯保留了解釋空間。
事實上,我國法院在面對新技術(shù)帶來的社會糾紛時,早已習(xí)慣以意圖主義為指向開拓想象性重構(gòu),在“立法者的思考中重新制定法”。對于第一步的“特殊情況”,法院嘗試突破法條所列舉條款,以“酌定”替代“法定”,在個案中擴大能夠適用的情形;在第二步與第三步中則以更為具體的“四要素規(guī)則”作為參照,彌補“正常使用”“不合理”的抽象缺陷。但如果“法律續(xù)造”成為常態(tài),不僅無法給予技術(shù)明確的指引和導(dǎo)向,導(dǎo)致同案兩判的現(xiàn)象頻發(fā),更可能助長“司法造法”之沖動,引發(fā)法律系統(tǒng)紊亂。
需要明確的是,一方面,“三步檢驗法”的定位應(yīng)當是“對于權(quán)利限制的限制”,其并不直接限制著作權(quán),而是對于“權(quán)利的限制”條款的一般約束,故其“檢驗”的重點也不應(yīng)是對作品使用行為的合理性,而應(yīng)是限制該使用行為的合理性。這也就意味著越是明確的檢驗規(guī)則越能發(fā)揮其約束的功能;另一方面,增加合理使用規(guī)則的彈性合乎技術(shù)發(fā)展的趨勢,在人工智能創(chuàng)作的過程中涉及著作權(quán)控制的多項行為,前端的學(xué)習(xí)行為為后端的輸出行為提供支持或輔助,但如果嚴格以環(huán)節(jié)為單位逐個分析,即便生成內(nèi)容與在先作品截然不同,智能創(chuàng)作也將難以構(gòu)成合理使用,但如果將智能創(chuàng)作行為作為整體看待,從使用角度與被使用角度進行多維判斷,將得出更為公正的結(jié)論。在“四要素”的規(guī)則中,盡管智能創(chuàng)作前端需要大量的作品作為學(xué)習(xí)養(yǎng)分,提取當中的詞句組合、色彩搭配等的表達要素,難以完全滿足“使用的量和質(zhì)”以及“被使用作品性質(zhì)”的標準,但其使用作品的目的將作為事實性信息進行功能性利用,這種使用方式并不涉及原作品的再現(xiàn),而是基于對原作品的客觀處理和分析形成新的表達,不會對原作品的商業(yè)價值和潛在市場份額造成直接沖擊。故而,在綜合考量的思路下,智能創(chuàng)作至少具備了通過檢驗的空間,這也是為什么有學(xué)者認為確保具有社會效益的使用不被排除的唯一辦法就是規(guī)定開放式合理使用條款。
因此,“三步檢驗法”在智能創(chuàng)作時代中的新解應(yīng)當脫離封閉與抽象,規(guī)范層面扶正“四要素規(guī)則”,靈活開放新的權(quán)利限制情形,以綜合化考量取代原有的步驟化考量,這將有效地引導(dǎo)司法中“法外創(chuàng)新”扭轉(zhuǎn)為“法內(nèi)創(chuàng)新”,保證同案審判的一致性,同時也能更好地滿足智能創(chuàng)作的現(xiàn)實需求。
(三)規(guī)則拓展:增加智能創(chuàng)作豁免專項條款
在面對人工智能帶來的社會變革時,多數(shù)觀點認為不應(yīng)急于求變,而應(yīng)當發(fā)掘現(xiàn)有制度的回應(yīng)能力。但有時,新型技術(shù)不只給規(guī)則帶來了適用難題,也如同一面放大鏡,暴露出了更深層次的原理問題。此時,理論與規(guī)則的調(diào)整獲得了正當性。“權(quán)利的限制”一詞本就是一種“作者至上”觀點下的產(chǎn)物,堅守了“權(quán)利中心”的立場,傳達了一種例外性的立法情緒,輕視了著作權(quán)生態(tài)中“使用者”的法律地位。從語言學(xué)角度來看“權(quán)利的限制”亦暗含著對于作品使用這一行為的消極評價,特定情況下對于作品的使用容易被定義為來自權(quán)利人的“恩賜”,這將不利于作品利用方式改革的嘗試,壓縮新技術(shù)產(chǎn)業(yè)發(fā)展空間。因此,首先要轉(zhuǎn)化的觀念就是:“權(quán)利限制”應(yīng)當正名為“合理使用”,使“合理使用”的內(nèi)涵不僅存于學(xué)理領(lǐng)域,而應(yīng)進入規(guī)范之中,這樣“合理使用”才能“名正言順”地作為使用者權(quán)利配置的機制而存在,為使用者提供清晰的行為指引。
數(shù)據(jù)挖掘是智能創(chuàng)作的必要程序,但是數(shù)據(jù)挖掘與傳統(tǒng)版權(quán)制度之間的對立關(guān)系也是顯而易見的。數(shù)據(jù)本身并不屬于版權(quán)保護的范圍,受版權(quán)保護的是體現(xiàn)獨創(chuàng)性的數(shù)據(jù)的排列組合。歐盟《數(shù)字化單一市場版權(quán)指令》也明確“文本和數(shù)據(jù)挖掘也可以僅針對不受版權(quán)保護的單純事實或數(shù)據(jù)(mere facts or data)”。然而,對于生成式人工智能而言,訓(xùn)練素材不僅包括數(shù)據(jù),還包括版權(quán)法保護的作品,并且后者能提供更多實質(zhì)性的內(nèi)容和表達組合。為了防止版權(quán)制度成為數(shù)字經(jīng)濟與科學(xué)創(chuàng)新的阻力,歐盟設(shè)置了“以科學(xué)研究目的的文本和數(shù)據(jù)挖掘例外”以及“不限制目的的文本和數(shù)據(jù)挖掘”,為數(shù)據(jù)挖掘執(zhí)行復(fù)制、提取、儲存行為提供規(guī)范支持。前者主體僅限于科研機構(gòu)以及文化遺產(chǎn)機構(gòu),包括公共圖書館、博物館、檔案館等,后者主體則不做限制,但版權(quán)人有權(quán)利保留的選項,可以禁止用戶執(zhí)行數(shù)據(jù)挖掘。相較之下,日本《著作權(quán)法》第30條之4的“不以欣賞作品原有價值為目的利用豁免條款”更加明確鼓勵人工智能數(shù)據(jù)訓(xùn)練,即對創(chuàng)作的作品內(nèi)容本身進行使用,而不是出于欣賞、娛樂、教育或藝術(shù)等原有價值的目的。日本文化廳與內(nèi)閣人工智能戰(zhàn)略部門在《人工智能與著作權(quán)法關(guān)系》解釋性文件中明確,在開發(fā)和訓(xùn)練階段,應(yīng)鼓勵開發(fā)者創(chuàng)新但不應(yīng)侵害著作權(quán)人正當利益。在將他人的作品用于人工智能開發(fā)時,如果“使用行為不是為了侵占他人表達的思想或感受,則可以未經(jīng)著作權(quán)人的許可使用受著作權(quán)保護的作品?!?/p>
在我國合理使用列舉式的模式下,新增智能創(chuàng)作合理使用條款是便捷的立法選擇。但需要明確以下問題:首先,在立意上是采取更聚焦的“數(shù)據(jù)挖掘例外”還是一般性“非欣賞性例外”?本文傾向于后者,立法的經(jīng)驗早已揭示了在應(yīng)對技術(shù)革命時兼容性強的規(guī)則才能釋放更大的空間價值,后者的優(yōu)勢在于只要行為手段是對作品實質(zhì)內(nèi)容信息的分析和算法模型內(nèi)部的加工處理等并且行為并不旨在向公眾傳播作品的表達內(nèi)容都可獲得豁免,能夠有效地防范技術(shù)與社會關(guān)系變化帶來的未知風險,即使將“非欣賞性”例外作為合理使用的兜底條款亦同樣符合著作權(quán)法基本原理。其次,是否要為著作權(quán)人設(shè)立“權(quán)利保留”以及類似的“退出機制”?歐盟《數(shù)字化單一市場版權(quán)指令》的做法是“作者默示許可+選擇性退出”,作者默示許可智能創(chuàng)造企業(yè)將其作品用于機器學(xué)習(xí),但同時賦予作者選擇自己的作品可以不被用于機器學(xué)習(xí)的權(quán)利。而日本對此持開放態(tài)度,在其看來,合理使用制度需要以構(gòu)建數(shù)據(jù)共有、靈活利用之社會環(huán)境的整體目標加以檢討,給予著作權(quán)人保留退出機制將違背這一制度的本意。因此,對我國而言,權(quán)利保留與否取決于究竟是堅守作者權(quán)利中心的底線,還是以技術(shù)發(fā)展優(yōu)先為導(dǎo)向。
(四)經(jīng)濟拓展:人工智能征稅制度
版權(quán)制度本質(zhì)上是市場調(diào)節(jié)失靈時的彌補機制,多數(shù)規(guī)則的確立不過是對市場經(jīng)驗的規(guī)范性確認,因此,版權(quán)法律制度難以完全取代市場本身的效能。在面對新技術(shù)所產(chǎn)生的社會變革時,更應(yīng)當理性地看待市場與規(guī)范的關(guān)系,“若無特別必要,應(yīng)該主要依賴市場所存在的激勵機制?!?/p>
在智能創(chuàng)作的版權(quán)豁免制度構(gòu)建中有一個重要的問題在于如何看待人類創(chuàng)作與智能創(chuàng)作的經(jīng)濟關(guān)系。當智能創(chuàng)作能夠用足夠的文學(xué)藝術(shù)作品充斥市場并且表現(xiàn)出能夠取代人類表達的潛力時,是否仍然需要對人類創(chuàng)造力進行額外激勵或獎勵存在爭議。在生成環(huán)節(jié),由于創(chuàng)造行為不再由人類執(zhí)行,因此難以從激勵理論中找到論點;但從學(xué)習(xí)環(huán)節(jié)來看,人工智能并非“創(chuàng)造者”而是“模仿者”,智能系統(tǒng)只有在有機會從無數(shù)人類創(chuàng)作作品中推導(dǎo)出模型之后,才能模仿人類的文學(xué)和藝術(shù)作品,在先作品成為以訓(xùn)練為目的的資源。人類的創(chuàng)造力不僅設(shè)計出了新的競爭對手——人工智能,同時也在為競爭對手提供獲得市場優(yōu)勢的素材,所以只有當智能創(chuàng)作能夠徹底擺脫對于人類作品的需求時,取締人類報酬制度才是公平的,而就現(xiàn)階段技術(shù)發(fā)展來看還為時尚早。
關(guān)于報酬制度的設(shè)立模式也可分為前端支付體系和后端支付體系兩種。前端支付體系通常需要以“權(quán)利保留”作為前提從而建立機器學(xué)習(xí)的報酬協(xié)議,在使用者表達出支付意愿并支付報酬之后可以將其作品轉(zhuǎn)化為數(shù)據(jù)進行學(xué)習(xí)。但這種模式存在著明顯的實踐弱點,首先,其依賴于規(guī)范度較高的權(quán)利限制體系,在未配備“權(quán)利保留”或者靈活考察的合理使用制度下其可能會喪失報酬基礎(chǔ);其次,能否建立安全可靠的支付接口、自動化支付程序以及技術(shù)保障措施存在疑慮;第三,在缺乏人工智能透明度強制措施的前提下,難以保證使用者會嚴格遵循報酬協(xié)議,尤其是在生成內(nèi)容與在先作品存在較大差異的情形下,作者也無法實現(xiàn)有效舉證。
相比而言,后端支付體系更具可行性,其本質(zhì)上是對人工智能技術(shù)開發(fā)者和應(yīng)用供應(yīng)商所規(guī)范的一次性征稅制度。一次性征稅方法的概念輪廓可以理解為該系統(tǒng)將服務(wù)于創(chuàng)造新的收入來源以支持人類作者工作的總體目的,改善人類作者的生活和工作條件。此外,征稅制度將使人工智能生成內(nèi)容的使用成本更高,從而增加人類作者與生成式人工智能系統(tǒng)競爭的機會。其優(yōu)勢是明顯的,首先,與側(cè)重于生成維度和人工智能素材學(xué)習(xí)的報酬支付相比,以產(chǎn)出為導(dǎo)向的征稅方法不會給科技產(chǎn)業(yè)帶來不利影響,反而可以促使其優(yōu)化盈利策略;其次,以產(chǎn)出為導(dǎo)向的征稅制度可以減少因為“權(quán)利保留”規(guī)則而產(chǎn)生的內(nèi)容獲取障礙,稅額收入可以作為引誘作品開放的籌碼;再者,一次性征稅制度所面臨的信任問題較少,特定作品的使用與報酬不再是問題的焦點,主要考慮如何確立合理的應(yīng)納稅所得額和稅率,這可以從人工智能提供商的營業(yè)收入以及智能創(chuàng)作的市場占比加以權(quán)衡。
五、結(jié)語
印刷技術(shù)的產(chǎn)生大幅降低了文化藝術(shù)內(nèi)容的生產(chǎn)成本,促使了版權(quán)法的問世。而智能創(chuàng)作的出現(xiàn),是創(chuàng)意生產(chǎn)的又一次革命,版權(quán)法如何應(yīng)對人工智能帶來的挑戰(zhàn)以及如何設(shè)計符合新型創(chuàng)作生態(tài)的激勵機制充滿爭議。但可以明確的是,一方面,人工智能將伴隨著算法和模型的不斷優(yōu)化繼續(xù)深耕于創(chuàng)作領(lǐng)域,另一方面,如果版權(quán)法在人類創(chuàng)作與智能創(chuàng)作的權(quán)利之間設(shè)置明顯尖銳的區(qū)別,那么不可避免地將產(chǎn)生負面的影響。因此,版權(quán)法應(yīng)時刻警惕避免成為技術(shù)發(fā)展的阻礙,并在原理和規(guī)則之中探索引導(dǎo)技術(shù)向善的良方。
The Boundaries and Expansion of Copyright Exemption System in Intelligent Creation
Abstract: Artificial intelligence can be trained through a large amount of data to learn patterns and features within the data, efficiently generating new content. This not only triggers a reform in creative modes but also poses challenges to the copyright exemption system. The original purpose of establishing the copyright exemption system is to balance proprietary rights and third-party rights. However, with the technological revolution and industrial adjustments brought about by artificial intelligence, the copyright exemption system has exposed conceptual boundaries, institutional boundaries, and conditional boundaries when dealing with intelligent creation. Therefore, it is necessary to explore expansion strategies for the copyright exemption system. Firstly, expanding the subject, by expanding the interpretation of “personal use” clauses; secondly, expanding the principles, shifting from step-by-step considerations of fair use towards comprehensive considerations; thirdly, expanding the rules, adding specific clauses for intelligent creation exemptions; and finally, expanding economically by exploring a taxation system for artificial intelligence. This ensures that both “vivid creation” and “automated creation” receive reasonable regulatory support and development space.
Keywords: Intelligent Creation; Copyright Exemption; Algorithm Author; Artificial Intelligence Taxation; Three-step Test Method
基金項目:本文系2023年度教育部人文社會科學(xué)研究規(guī)劃青年基金項目“智能創(chuàng)作時代數(shù)據(jù)挖掘的版權(quán)豁免理論調(diào)試與制度構(gòu)建”(項目批準號:23YJCZH109)的階段性研究成果。
作者簡介:李想,上海理工大學(xué)出版學(xué)院講師、碩士生導(dǎo)師,華東政法大學(xué)在職博士后。