【摘 要】為了更好地應(yīng)用AIGC,促進(jìn)社會(huì)生產(chǎn)效率的提高,探討AIGC著作權(quán)侵權(quán)案件中停止侵害的措施具有一定的意義。人工智能生成內(nèi)容容易與訓(xùn)練語料構(gòu)成“作品再現(xiàn)”,具有侵犯著作權(quán)的較高風(fēng)險(xiǎn)。由于人工智能大模型基于概率預(yù)測(cè)輸出內(nèi)容,不存在對(duì)訓(xùn)練語料的直接復(fù)制,其構(gòu)成訓(xùn)練語料的“模仿性再現(xiàn)”,而非“復(fù)制性再現(xiàn)”,侵權(quán)程度并不嚴(yán)重,不宜一律適用停止侵害。在具體的停止侵害措施方面,做出停止侵害承諾這種方式過于容易,難以達(dá)到停止侵害的效果,司法可要求服務(wù)提供者引入過濾機(jī)制,但不得要求其達(dá)到完全防止再次生成侵權(quán)內(nèi)容的程度。刪除侵權(quán)語料并更新模型、銷毀或者停用模型這兩種措施或違背利益平衡,或履行成本過高,不宜采用。
【關(guān)" 鍵" 詞】生成式人工智能;著作權(quán);侵權(quán);停止侵害措施;模仿性再現(xiàn)
【作者單位】方貴敏,武漢大學(xué)法學(xué)院。
【基金項(xiàng)目】國(guó)家社會(huì)科學(xué)基金重大項(xiàng)目“網(wǎng)絡(luò)化開放創(chuàng)新范式下企業(yè)知識(shí)產(chǎn)權(quán)市場(chǎng)化保護(hù)與價(jià)值轉(zhuǎn)化法律機(jī)制研究”階段性成果(21amp;ZD141)。
【中圖分類號(hào)】D923.41 【文獻(xiàn)標(biāo)識(shí)碼】A 【DOI】10.16491/j.cnki.cn45-1216/g2.2024.23.012
生成式人工智能是具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)。采用生成式人工智能技術(shù)所生成的內(nèi)容一般被稱為人工智能生成內(nèi)容(AI Generated Contents,全文簡(jiǎn)稱AIGC)。自O(shè)penAI于2022年底發(fā)布ChatGPT以來,人工智能大模型在全球范圍內(nèi)掀起了有史以來規(guī)模最大的浪潮,各種國(guó)內(nèi)外大模型相繼面世,競(jìng)爭(zhēng)日益激烈,引發(fā)了侵權(quán)方面的擔(dān)憂。研究顯示,AIGC容易與訓(xùn)練語料構(gòu)成“作品再現(xiàn)”,即人工智能大模型容易生成與部分訓(xùn)練語料內(nèi)容相似的內(nèi)容[1]。當(dāng)人工智能生成內(nèi)容與他人作品構(gòu)成實(shí)質(zhì)性相似時(shí),可能侵犯著作權(quán)。
一旦構(gòu)成著作權(quán)侵權(quán),生成式人工智能的開發(fā)者、用戶或者其他服務(wù)提供者可能需要承擔(dān)停止侵害等侵權(quán)責(zé)任。參考廣州互聯(lián)網(wǎng)法院(2024)粵0192民初113號(hào)判決書,在我國(guó)廣州互聯(lián)網(wǎng)法院審理的“AIGC服務(wù)提供者著作權(quán)侵權(quán)第一案”中,原告主張被告應(yīng)停止生成侵權(quán)圖片并將原告享有著作權(quán)的物料從訓(xùn)練集中刪除。法院認(rèn)定構(gòu)成著作權(quán)侵權(quán)后,要求服務(wù)提供者承擔(dān)停止侵權(quán)的民事責(zé)任,即被告應(yīng)當(dāng)停止生成,具體應(yīng)達(dá)到不能生成與受保護(hù)的奧特曼形象實(shí)質(zhì)性相似的圖片的程度,但不支持原告將物料(訓(xùn)練語料)從訓(xùn)練集中刪除的請(qǐng)求。在AIGC著作權(quán)侵權(quán)案件中,哪些措施能夠?qū)崿F(xiàn)停止侵害?停止侵害這一責(zé)任承擔(dān)方式在生成式人工智能著作權(quán)侵權(quán)的場(chǎng)合是否應(yīng)當(dāng)有所限制?本文對(duì)上述問題展開探討。
一、網(wǎng)絡(luò)環(huán)境中著作權(quán)侵權(quán)停止侵害的復(fù)雜性
停止侵害是民事權(quán)利排他性的具體體現(xiàn),是民事權(quán)利效力的必然延伸[2]。根據(jù)《中華人民共和國(guó)民法典》第179條,停止侵害是民事責(zé)任的承擔(dān)方式之一,《中華人民共和國(guó)著作權(quán)法》第52條亦將停止侵害作為著作權(quán)侵權(quán)的主要責(zé)任承擔(dān)方式之一進(jìn)行了明確規(guī)定。
在物理世界中,一般存在清晰可見的侵權(quán)材料、侵權(quán)產(chǎn)品以及易于識(shí)別的侵權(quán)行為,停止侵害的方式一般較為直接且便于操作。然而,在網(wǎng)絡(luò)環(huán)境中,侵權(quán)行為與網(wǎng)絡(luò)技術(shù)緊密交織,傳統(tǒng)的物理措施往往難以達(dá)到停止侵害的效果,被侵權(quán)者必須借助網(wǎng)絡(luò)技術(shù)措施或者其他措施停止侵害。在此背景下,依附于計(jì)算機(jī)軟硬件條件的“刪除”“屏蔽”“斷開鏈接”成為網(wǎng)絡(luò)侵權(quán)案件中停止侵害責(zé)任方式的具體適用方法[3]。隨著網(wǎng)絡(luò)技術(shù)的深度發(fā)展,其他新措施也可被用于制止侵權(quán)。根據(jù)《生成式人工智能服務(wù)管理暫行辦法》第14條,“停止傳輸”“停止生成”等措施為生成式人工智能實(shí)現(xiàn)停止侵害提供了可能。
如果說在現(xiàn)實(shí)世界中實(shí)現(xiàn)停止侵權(quán)的技術(shù)難度較低,那么現(xiàn)代網(wǎng)絡(luò)技術(shù)的復(fù)雜性以及網(wǎng)絡(luò)環(huán)境中侵權(quán)行為的隱秘性則大大增加了特定技術(shù)措施達(dá)到停止侵權(quán)效果的不確定性。除非對(duì)技術(shù)原理有著較為深入的理解,裁判者難以判斷特定措施是否能夠達(dá)到停止侵害的效果,一旦裁判不當(dāng),則可能打破網(wǎng)絡(luò)創(chuàng)新生態(tài)。
二、AIGC著作權(quán)停止侵害的措施梳理
生成式人工智能的開發(fā)和運(yùn)用涉及模型設(shè)計(jì)者、訓(xùn)練數(shù)據(jù)來源者、服務(wù)提供者、用戶等主體。由于參與主體的多元性,在AIGC構(gòu)成著作權(quán)侵權(quán)的場(chǎng)合,并非都由單一主體承擔(dān)侵權(quán)責(zé)任。然而,用戶等其他主體承擔(dān)停止侵害責(zé)任的方式較為直接,服務(wù)提供者承擔(dān)停止侵害責(zé)任的方式較為復(fù)雜。鑒于此,本文主要探討服務(wù)提供者承擔(dān)停止侵害責(zé)任的具體措施。總的來說,服務(wù)提供者承擔(dān)停止侵害的責(zé)任方式主要包括做出停止侵害承諾、引入內(nèi)容過濾機(jī)制、刪除侵權(quán)語料并更新模型、銷毀或停用模型這幾種,下文分別展開討論。
1.做出停止侵害承諾
在人工智能生成內(nèi)容最終被認(rèn)定為侵權(quán)時(shí),未盡到合理注意義務(wù)的服務(wù)提供者應(yīng)當(dāng)做出不再出現(xiàn)相同內(nèi)容的承諾,而非直接刪除侵權(quán)內(nèi)容。該種主張的主要理由是人工智能生成內(nèi)容僅為特定用戶所接觸,其傳播范圍僅限于發(fā)出生成指令的特定用戶,未達(dá)到公開狀態(tài),也不會(huì)留存于公開平臺(tái)[4]。關(guān)于應(yīng)當(dāng)承諾不再出現(xiàn)相同內(nèi)容還是相似內(nèi)容,該種觀點(diǎn)認(rèn)為,相似的承諾太過寬泛和模糊,會(huì)讓服務(wù)提供者承擔(dān)過于嚴(yán)苛的責(zé)任,因而服務(wù)提供者承諾不再出現(xiàn)相同內(nèi)容即可[4]。
對(duì)服務(wù)提供者來說,承諾不再出現(xiàn)相同內(nèi)容的侵權(quán)責(zé)任承擔(dān)方式成本較低,且易于承擔(dān),是否實(shí)際兌現(xiàn)承諾以及采取何種措施實(shí)現(xiàn)停止侵害完全由服務(wù)提供者自行決定。該種責(zé)任方式有利于促進(jìn)生成式人工智能的發(fā)展,但力度輕乎其微,極易被規(guī)避而無法達(dá)到停止侵害的效果。由于承諾的模糊性以及負(fù)擔(dān)的有限性,生成式人工智能的服務(wù)提供者實(shí)際上可能不會(huì)兌現(xiàn)承諾。此外,大模型具有高度自主性,幾乎不會(huì)生成完全相同的內(nèi)容,如果僅限于承諾不出現(xiàn)相同的侵權(quán)內(nèi)容,極有可能會(huì)讓承諾無法發(fā)揮應(yīng)有的效果。
2.引入內(nèi)容過濾機(jī)制
通過引入內(nèi)容過濾機(jī)制,大模型能夠識(shí)別潛在的侵權(quán)內(nèi)容并在前端阻止結(jié)果輸出。在生成式人工智能場(chǎng)合,內(nèi)容過濾機(jī)制能夠作用于兩個(gè)環(huán)節(jié):一是模型訓(xùn)練階段,二是服務(wù)提供階段。由于本文討論的重點(diǎn)是侵權(quán)責(zé)任,此處主要涉及服務(wù)提供階段的內(nèi)容過濾機(jī)制。
傳統(tǒng)過濾技術(shù)主要包括URL過濾技術(shù)、關(guān)鍵詞過濾技術(shù)及其二者的結(jié)合[5]。如今,隨著計(jì)算機(jī)技術(shù)的深入發(fā)展,以分類模型為代表的深度學(xué)習(xí)模型也能實(shí)現(xiàn)內(nèi)容過濾的功能,且效率更高。全國(guó)網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)在其發(fā)布的國(guó)家標(biāo)準(zhǔn)文件《生成式人工智能服務(wù)安全基本要求》明確要求,服務(wù)提供者在向使用者提供服務(wù)時(shí)“應(yīng)采取關(guān)鍵詞、分類模型等方式對(duì)使用者輸入信息進(jìn)行檢測(cè)”。然而,該標(biāo)準(zhǔn)并非國(guó)家強(qiáng)制性標(biāo)準(zhǔn),因而不具有強(qiáng)制約束力。
從目前的技術(shù)發(fā)展成熟度來看,引入內(nèi)容過濾機(jī)制存在難以克服的矛盾。一方面,成本較低的普通過濾技術(shù)無法完全過濾侵權(quán)內(nèi)容。另一方面,過濾效果較為優(yōu)越的新型過濾技術(shù)成本過于高昂,服務(wù)提供者難以負(fù)擔(dān)。關(guān)鍵詞過濾的基本技術(shù)原理主要涉及創(chuàng)建關(guān)鍵詞庫(kù)和算法模型,該算法能夠檢索特定文本內(nèi)容是否包含違規(guī)關(guān)鍵詞,并決定是否進(jìn)行過濾或屏蔽。在生成式人工智能的場(chǎng)合,關(guān)鍵詞過濾技術(shù)使得大模型能夠識(shí)別含有侵權(quán)內(nèi)容的指令并迅速響應(yīng),一旦特定關(guān)鍵詞觸發(fā)警戒機(jī)制,系統(tǒng)便會(huì)發(fā)出異常提示。然而,由于享有著作權(quán)的作品及作品元素?cái)?shù)不勝數(shù),雖然服務(wù)提供者可以及時(shí)更新關(guān)鍵詞庫(kù),但是仍然無法囊括所有享有著作權(quán)的作品名稱等關(guān)鍵信息。此外,當(dāng)涉及同一作品名稱存在多種表達(dá)方式以及被譯為其他語言版本的作品時(shí),關(guān)鍵詞庫(kù)也無法囊括作品的其他表達(dá)及其各種譯文,因而無法完全避免再次生成相同或者類似侵權(quán)內(nèi)容的情況。新型過濾技術(shù)包括梯度方法、在上下文中遺忘等深度學(xué)習(xí)模型,這些技術(shù)雖然能夠讓大模型“忘記”某些內(nèi)容,但是存在消耗過多計(jì)算資源、實(shí)施成本較高的問題[6]。
在司法裁判中,裁判者可以要求服務(wù)提供者引入過濾機(jī)制,但不宜要求其達(dá)到不得再次生成相同或者類似侵權(quán)內(nèi)容的效果。在“AIGC服務(wù)提供者著作權(quán)侵權(quán)第一案”中,被告在被訴后已經(jīng)采取了關(guān)鍵詞屏蔽措施,不過未能完全達(dá)到預(yù)防再次侵權(quán)的效果。具體而言,被告已經(jīng)引入關(guān)鍵詞過濾機(jī)制,并將“奧特曼”設(shè)置為關(guān)鍵詞,然而可能未將奧特曼的不同系列名稱均設(shè)置為關(guān)鍵詞,包括“迪迦”“泰羅”“雷歐”等,案件審理時(shí)裁判人員輸入“迪迦”仍然會(huì)產(chǎn)生相關(guān)圖片??陀^而言,由于奧特曼系列涉及眾多名稱,服務(wù)提供者難以考慮到所有相關(guān)關(guān)鍵詞并將其加入詞庫(kù)。盡管服務(wù)提供者可以通過對(duì)關(guān)鍵詞進(jìn)行語義關(guān)聯(lián)擴(kuò)大關(guān)鍵詞涵蓋范圍,但仍然無法窮盡所有關(guān)鍵詞??梢?,關(guān)鍵詞過濾技術(shù)較為煩瑣復(fù)雜,難以完全實(shí)現(xiàn)停止生成侵權(quán)內(nèi)容。雖然服務(wù)提供者通過可編程接口(以下簡(jiǎn)稱API)提供服務(wù),但其并未參與模型的開發(fā)工作,并不掌握模型使用的語料,其采取一般的過濾措施即可滿足停止侵害要求。
3.刪除侵權(quán)語料并更新模型
在傳統(tǒng)的網(wǎng)絡(luò)著作權(quán)侵權(quán)案件中,服務(wù)提供者可以在后臺(tái)執(zhí)行刪除或者斷開鏈接的措施以實(shí)現(xiàn)停止侵害。然而,在生成式人工智能場(chǎng)景中,其內(nèi)容是即時(shí)生成的,并非由網(wǎng)絡(luò)用戶提前上傳,服務(wù)提供者無法直接刪除侵權(quán)內(nèi)容。鑒于訓(xùn)練語料與生成內(nèi)容具有密切關(guān)聯(lián),生成式人工智能的服務(wù)提供者可通過刪除侵權(quán)語料實(shí)現(xiàn)停止侵權(quán)。
在模型訓(xùn)練者與服務(wù)提供者不是同一主體且服務(wù)提供者不具備模型微調(diào)能力時(shí),司法不應(yīng)要求服務(wù)提供者采取這一停止侵害措施。在“AIGC服務(wù)提供者著作權(quán)侵權(quán)第一案”中,原告主張將奧特曼語料從訓(xùn)練集中刪除。不過,從最終判決來看,法院并未支持刪除語料的請(qǐng)求。遺憾的是,判決書中未說明不支持該項(xiàng)措施的理由,可能原因是涉案的被告是API服務(wù)提供者,而非直接參與模型開發(fā)與訓(xùn)練的主體,其在技術(shù)上無法進(jìn)行刪除侵權(quán)語料這一操作,所以法院未支持該項(xiàng)請(qǐng)求。
有學(xué)者提出,在訓(xùn)練語料持有人與模型持有人分離的情況下,即收集訓(xùn)練語料的主體與使用語料進(jìn)行訓(xùn)練的主體不相同時(shí),刪除侵權(quán)語料難以實(shí)現(xiàn)[7]。本文認(rèn)為,該種觀點(diǎn)并不成立。即使大模型的訓(xùn)練語料為交易所得,也并不妨礙大模型訓(xùn)練者對(duì)語料進(jìn)行適當(dāng)?shù)奶幚?。即使大模型?xùn)練者不具備直接處理數(shù)據(jù)的能力,其也可以通過合同安排要求訓(xùn)練語料的提供者對(duì)數(shù)據(jù)進(jìn)行必要處理。
刪除侵權(quán)語料面臨的適用障礙是識(shí)別及準(zhǔn)確刪除侵權(quán)語料的技術(shù)難度較大,以及更新模型的成本較高。刪除侵權(quán)語料的前提是識(shí)別侵權(quán)語料,而識(shí)別語料在技術(shù)上并不容易實(shí)現(xiàn)。大模型的訓(xùn)練語料涉及書籍、網(wǎng)頁、百科知識(shí)、代碼等,訓(xùn)練語料大小達(dá)到TB(太兆字節(jié))級(jí)以上,在包含海量?jī)?nèi)容的訓(xùn)練集中識(shí)別享有著作權(quán)的特定內(nèi)容并非易事。再加上大模型訓(xùn)練內(nèi)容多數(shù)為未標(biāo)注數(shù)據(jù),加大了識(shí)別特定內(nèi)容的難度??梢?,若沒有功能強(qiáng)大的識(shí)別算法的支持,訓(xùn)練語料的提供者很難識(shí)別特定侵權(quán)內(nèi)容。在識(shí)別特定侵權(quán)內(nèi)容之后,精準(zhǔn)地刪除特定侵權(quán)語料亦需要復(fù)雜且強(qiáng)大算法的支持。
需要強(qiáng)調(diào)的是,僅刪除侵權(quán)語料而不更新模型無法達(dá)到預(yù)防再次侵權(quán)的目的。由于在先語料已被大模型吸收學(xué)習(xí)并形成了參數(shù),刪除語料后只有讓大模型重新學(xué)習(xí)才能夠生成新的參數(shù),從而抹去此前的學(xué)習(xí)痕跡,降低再次生成侵權(quán)內(nèi)容的可能性。大模型的重新訓(xùn)練與初次訓(xùn)練一樣,需要耗費(fèi)巨大的算力,成本很高。研究顯示,訓(xùn)練1個(gè)包含1.1億個(gè)參數(shù)的模型需要耗費(fèi)0.25萬美元至5萬美元,訓(xùn)練1個(gè)包含3.4億個(gè)參數(shù)的模型需要耗費(fèi)1萬美元至20萬美元,訓(xùn)練1個(gè)包含15億個(gè)參數(shù)的模型需要耗費(fèi)8萬美元至1600萬美元[8]??梢?,要求服務(wù)提供者更新模型相當(dāng)于讓其重新訓(xùn)練模型,成本過于高昂。
4.銷毀或停用模型
基于阻止侵權(quán)結(jié)果繼續(xù)擴(kuò)大、防止侵權(quán)行為再次發(fā)生、剝奪侵權(quán)人的侵權(quán)能力等考量,權(quán)利人往往會(huì)提出銷毀侵權(quán)物品或者侵權(quán)工具的主張。銷毀模型是最具威懾力的停止侵害責(zé)任承擔(dān)方式。在紐約時(shí)報(bào)訴OpenAI案中,紐約時(shí)報(bào)主張摧毀所有ChatGPT模型以達(dá)到停止侵害的目的。此外,雖然目前尚未有權(quán)利人提出徹底停用大模型這一主張,其也無疑屬于停止侵害的有力措施之一。
現(xiàn)實(shí)情況是,銷毀或者停用模型的主張很難得到法律支持。除非被專門用于實(shí)現(xiàn)侵權(quán),在一般情況下,人工智能大模型應(yīng)被定性為侵權(quán)工具,而非侵權(quán)物。關(guān)于侵權(quán)工具,《與貿(mào)易有關(guān)的知識(shí)產(chǎn)權(quán)協(xié)議》第46條規(guī)定,可以責(zé)令將其清除出商業(yè)渠道,未提供銷毀這一處置措施?!吨腥A人民共和國(guó)著作權(quán)法》第52條有關(guān)民事責(zé)任的部分亦未列出銷毀這一做法,僅在第53條中規(guī)定侵權(quán)行為同時(shí)損害公共利益的,由主管著作權(quán)的部門責(zé)令停止侵權(quán)行為,予以警告,沒收違法所得,沒收、無害化銷毀處理侵權(quán)復(fù)制品以及主要用于制作侵權(quán)復(fù)制品的材料、工具、設(shè)備等??梢姡輾Т竽P瓦@一責(zé)任承擔(dān)方式過于嚴(yán)重。徹底停用大模型則意味著大模型將由一分鐘能夠輸出上千個(gè)字的活體模型轉(zhuǎn)變?yōu)槌了P?,如此一來,大模型的?shí)用價(jià)值無法得到體現(xiàn),投資者也難以收回投資成本??傊?,摧毀或者停用模型違背提供侵權(quán)救濟(jì)應(yīng)當(dāng)與保護(hù)權(quán)益平衡的救濟(jì)原則。
客觀來說,摧毀大模型也具有操作難度。部分大模型基于開源大模型訓(xùn)練而來,如果開源大模型使用了包含著作權(quán)的訓(xùn)練語料,其又被其他主體用于優(yōu)化訓(xùn)練并獲得新的大模型,此時(shí)要求所有后續(xù)模型開發(fā)者都摧毀模型并不現(xiàn)實(shí)??傊輾Щ蛘咄S媚P蜁?huì)造成社會(huì)資源的嚴(yán)重浪費(fèi),可能會(huì)產(chǎn)生因維護(hù)個(gè)別權(quán)利人的利益而損害公共利益的消極后果。
三、停止侵害在AIGC著作權(quán)侵權(quán)案件中的限制適用理由
與不動(dòng)產(chǎn)具有清晰的權(quán)利邊界相比,包括著作權(quán)在內(nèi)的知識(shí)產(chǎn)權(quán)的權(quán)利邊界具有高度不確定性,作品的創(chuàng)作建立在合理借鑒前人作品的基礎(chǔ)上。以著作權(quán)為代表的知識(shí)產(chǎn)權(quán)權(quán)利邊界的模糊性會(huì)導(dǎo)致一味適用財(cái)產(chǎn)規(guī)則而產(chǎn)生效率低下的后果[9]。與人身權(quán)、物權(quán)等最基本的民事權(quán)利具有極強(qiáng)的排他性不同,知識(shí)產(chǎn)權(quán)的排他性不是絕對(duì)的,知識(shí)產(chǎn)權(quán)的價(jià)值需要通過作品傳播才能夠?qū)崿F(xiàn),不應(yīng)一律適用停止侵害的措施[10]。此外,知識(shí)產(chǎn)權(quán)本質(zhì)上是一種競(jìng)爭(zhēng)工具,知識(shí)產(chǎn)權(quán)排他權(quán)的過度行使可能會(huì)導(dǎo)致競(jìng)爭(zhēng)效率降低[11]。
在生成式人工智能著作權(quán)侵權(quán)案件中,停止侵害責(zé)任應(yīng)當(dāng)被限制適用,主要理由在于:人工智能生成內(nèi)容為模仿性再現(xiàn)而非復(fù)制性再現(xiàn),生成過程存在模型開發(fā)者等主體的貢獻(xiàn)。目前來看,大模型侵害著作權(quán)的程度并不嚴(yán)重。在此前提下,司法可以要求服務(wù)提供者引入內(nèi)容過濾機(jī)制,但不得要求其達(dá)到完全防止再次生成侵權(quán)內(nèi)容的程度。刪除侵權(quán)語料并更新模型、銷毀或停用模型這兩種停止侵害措施或違背利益平衡,或履行成本過高,不宜采用。
1.從侵權(quán)內(nèi)容的性質(zhì)上看,AIGC為模仿性再現(xiàn)
從著作權(quán)權(quán)利客體形式和實(shí)質(zhì)的結(jié)構(gòu)出發(fā),可將著作權(quán)侵權(quán)行為分為復(fù)制性再現(xiàn)與模仿性再現(xiàn)兩種,其分別對(duì)應(yīng)著再現(xiàn)和傳播兩種使用權(quán)利客體的行為[12]。對(duì)于復(fù)制性再現(xiàn),由于整個(gè)復(fù)制、再現(xiàn)及傳播的過程中行為人沒有任何獨(dú)創(chuàng)性的貢獻(xiàn)及值得保護(hù)的利益,在認(rèn)定侵權(quán)行為成立后,應(yīng)該以唯一確定的方式承擔(dān)停止侵害責(zé)任,立即停止對(duì)作品的使用,包括但不限于銷毀侵權(quán)復(fù)制品、斷開和刪除網(wǎng)絡(luò)鏈接等[12]。對(duì)于模仿性再現(xiàn),應(yīng)當(dāng)以侵權(quán)判斷標(biāo)準(zhǔn)為依據(jù),即根據(jù)實(shí)質(zhì)性相似的程度與可能性確定不同的適用方式,停止侵權(quán)責(zé)任并不適用[12]。
從生成式人工智能的生成原理來看,生成內(nèi)容屬于模仿性再現(xiàn),而非復(fù)制性再現(xiàn),因而生成式人工智能著作權(quán)侵權(quán)場(chǎng)合不宜直接適用停止侵權(quán)這一責(zé)任方式。具體到人工智能大模型,根據(jù)OpenAI官網(wǎng)的介紹,大模型是由大量的參數(shù)以及執(zhí)行參數(shù)的代碼組成的,大模型在訓(xùn)練階段并不會(huì)存儲(chǔ)或者復(fù)制訓(xùn)練語料中的內(nèi)容。大模型開發(fā)者在廣泛收集語料、組建語料庫(kù)之后,會(huì)將包含各種內(nèi)容的語料打碎成最?。ú豢刹鸱郑┑恼Z義可識(shí)別單元,然后大模型會(huì)通過自注意力機(jī)制學(xué)習(xí)、記憶這些最小語義單元之間的關(guān)聯(lián),以學(xué)習(xí)詞元之間如何銜接以及哪些詞元最有可能被組合到一起。不存在一個(gè)囊括各種內(nèi)容的數(shù)據(jù)庫(kù)可以讓大模型直接調(diào)取、復(fù)制并拼湊內(nèi)容,大模型在生成內(nèi)容時(shí)基于概率預(yù)測(cè)下一個(gè)單詞,如此循環(huán)往復(fù)生成較連貫通順的回答[13]。如學(xué)者所言,在生成內(nèi)容時(shí),ChatGPT對(duì)訓(xùn)練數(shù)據(jù)庫(kù)中作品內(nèi)容的學(xué)習(xí)利用,可以理解為細(xì)化到海量作品中每一個(gè)字的引用,而不會(huì)復(fù)現(xiàn)特定作品,甚至不會(huì)直接復(fù)現(xiàn)特定作品中的段落和語句。所以,ChatGPT實(shí)際上不存在對(duì)在先訓(xùn)練作品的實(shí)質(zhì)性引用,從而不會(huì)侵犯在先作品中受著作權(quán)法保護(hù)的外在表達(dá)[14]。由于人工智能生成內(nèi)容與人類作品構(gòu)成模仿性再現(xiàn),而非復(fù)制性再現(xiàn),不得在AIGC著作權(quán)侵權(quán)場(chǎng)合直接適用停止侵害這一責(zé)任。
2.違背利益平衡原則或者履行成本過高
當(dāng)存在事實(shí)上或者法律上無法做到停止侵害、履行成本過高,以及違背利益平衡原則或者損害公共利益等情形時(shí),司法裁判不應(yīng)適用停止侵害的責(zé)任承擔(dān)方式[15]。判決生成式人工智能服務(wù)提供者銷毀或者停用模型屬于過于偏向權(quán)利保護(hù)的做法,違背利益平衡原則。除此之外,在生成式人工智能著作權(quán)侵權(quán)案例中,要求服務(wù)提供者停止侵害可能履行成本過高,法院在判決中應(yīng)謹(jǐn)慎適用停止這一侵權(quán)責(zé)任。
履行成本過高是一個(gè)相對(duì)概念,應(yīng)以權(quán)利人因侵權(quán)人不停止侵害而可能遭受的損失為參照[15]。如同多數(shù)知識(shí)產(chǎn)權(quán)侵權(quán)一樣,著作權(quán)人因人工智能大模型生成與其作品相似的內(nèi)容而遭受的損害常常難以精確計(jì)算,這也解釋了目前在幾乎所有關(guān)于生成式人工智能的訴訟中,原告均主張適用法定賠償。但是,如果僅有作品被大模型訓(xùn)練使用或大模型生成了相似內(nèi)容的行為,而生成內(nèi)容未被另行大規(guī)模商業(yè)化利用,著作權(quán)人遭受的損失一般不多。相比之下,AIGC服務(wù)提供者承擔(dān)停止侵害的成本十分高昂。如前所述,刪除侵權(quán)語料并更新模型的費(fèi)用動(dòng)輒幾千萬美元,能夠承擔(dān)如此巨額成本的服務(wù)提供者寥寥無幾。此時(shí),可以引導(dǎo)服務(wù)提供者與權(quán)利人充分協(xié)商,自行確定許可費(fèi)以解決糾紛,而非判決停止侵害,引入責(zé)任規(guī)則比依賴財(cái)產(chǎn)規(guī)則更為合適[16]。法院可適當(dāng)提高賠償數(shù)額,謹(jǐn)慎適用停止侵害這一侵權(quán)責(zé)任方式。
根據(jù)上文分析,表1列出了生成式人工智能停止侵害各項(xiàng)措施在技術(shù)難度等級(jí)、履行成本高低以及嚴(yán)厲程度等級(jí)的情況。由表1可以看出,做出停止侵害承諾的技術(shù)難度最低,履行成本也較低。但是也屬于最為“軟弱無力”的措施,威懾力不強(qiáng),難以實(shí)現(xiàn)停止侵害效果。銷毀或者停用模型的技術(shù)難度也較低,但過于嚴(yán)厲,履行成本高,一般也不宜適用。過濾機(jī)制的技術(shù)難度、履行成本以及嚴(yán)厲程度均處于中等水平(普通過濾措施較為容易實(shí)施,但是以深度學(xué)習(xí)為代表的新型過濾措施則難度較高,成本也較高),可以要求服務(wù)提供者引入過濾機(jī)制以實(shí)現(xiàn)停止侵害,但鑒于難以構(gòu)建完整的關(guān)鍵詞詞庫(kù)且大模型具有自主性,不得要求過濾機(jī)制達(dá)到完全防止再次生成侵權(quán)內(nèi)容的程度。刪除侵權(quán)語料及更新模型的履行成本高,法院應(yīng)當(dāng)謹(jǐn)慎判決適用這類措施。
值得一提的是,除了上述措施,還存在一些其他新型遺忘技術(shù)能夠在不重新訓(xùn)練模型的前提下消除侵權(quán)語料對(duì)大模型的影響。例如,微軟研發(fā)了一種遺忘受著作權(quán)保護(hù)作品語料的前沿技術(shù)。這種技術(shù)包含3個(gè)關(guān)鍵點(diǎn):一是使用受版權(quán)保護(hù)的增強(qiáng)模型來識(shí)別需要?jiǎng)h除的語料元素;二是將相關(guān)元素替換為通用性表達(dá),使模型生成替代性表達(dá);三是根據(jù)替代性表達(dá)對(duì)模型進(jìn)行微調(diào),使模型能夠有效擦除原始的語料文本[17]。該種遺忘技術(shù)能夠在不更新訓(xùn)練模型的情況下擦除享有著作權(quán)的內(nèi)容,所消耗的訓(xùn)練資源較少,實(shí)踐性更強(qiáng),未來若能在實(shí)踐中應(yīng)用,或可成為服務(wù)提供者承擔(dān)停止侵害責(zé)任的有效方式。
四、結(jié)語
生成式人工智能是人類社會(huì)發(fā)展的一大突破。通過輔助人類完成內(nèi)容檢索、內(nèi)容理解、內(nèi)容生產(chǎn)等任務(wù),生成式人工智能能夠顯著提高重復(fù)性勞動(dòng)的效率,助力發(fā)展數(shù)字時(shí)代下的新質(zhì)生產(chǎn)力,提高社會(huì)生產(chǎn)效率。生成式人工智能在給社會(huì)帶來福音的同時(shí),也給法律適用帶來了挑戰(zhàn)。侵權(quán)責(zé)任的承擔(dān)事關(guān)生成式人工智能技術(shù)的發(fā)展空間,通過剖析生成式人工智能生成內(nèi)容的技術(shù)原理,系統(tǒng)分析停止侵害的具體措施,裁判者應(yīng)在AIGC著作權(quán)侵權(quán)案件中限制適用停止侵害的責(zé)任形式,防止高昂成本成為這一前沿技術(shù)的發(fā)展桎梏。
|參考文獻(xiàn)|
[1]NICHOLAS CARLINI,JAMIE HAYES,MILAD NASR,et al. Extracting Training Data from Diffusion Models[J].arXiv preprint,2023(1):1-31.
[2]楊濤. 知識(shí)產(chǎn)權(quán)法中的停止侵害救濟(jì)制度[J]. 法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017(5):101-114.
[3]張新寶. 侵權(quán)責(zé)任法[M]. 5版. 北京:中國(guó)人民大學(xué)出版社,2020.
[4]陳兵. 促進(jìn)生成式人工智能規(guī)范發(fā)展的法治考量及實(shí)踐架構(gòu):兼評(píng)《生成式人工智能服務(wù)管理暫行辦法》相關(guān)條款[J]. 中國(guó)應(yīng)用法學(xué),2023(4):108-125.
[5]宋振源. 計(jì)算機(jī)信息網(wǎng)絡(luò)內(nèi)容過濾技術(shù)探析[J]. 中國(guó)科技信息,2009(23):86.
[6]從訓(xùn)練好的LLM中消除受版權(quán)保護(hù)的數(shù)據(jù):可能嗎?[EB/OL]. (2024-03-22)[2024-11-25].
https://blog.csdn.net/L1558198727/article/details/136925287.
[7]SAMUELSON PAMELA.How toThink about Remedies in the Generative AI Copyright Cases[J].Communications of the ACM,2024(7):27-30 .
[8]OR SHARIR,BARAK PELEG,YOAV SHOHAM. The Cost of Training NLP Models:A Concise Overview[J]. arXiv e-prints,2020(4):1-6.
[9]陳武. 權(quán)利不確定性與知識(shí)產(chǎn)權(quán)停止侵害請(qǐng)求權(quán)之限制[J]. 中外法學(xué),2011(2):357-368.
[10]唐義虎. 知識(shí)產(chǎn)權(quán)侵權(quán)責(zé)任研究[M]. 北京:北京大學(xué)出版社,2015.
[11]李揚(yáng),許清. 知識(shí)產(chǎn)權(quán)人停止侵害請(qǐng)求權(quán)的限制[J]. 法學(xué)家,2012(6):75-92.
[12]楊淦. 知識(shí)產(chǎn)權(quán)停止侵害責(zé)任適用方式的類型化構(gòu)造[J]. 上海交通大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023(10):80-94.
[13]肖仰華. 生成式語言模型與通用人工智能:內(nèi)涵、路徑與啟示[J]. 社會(huì)科學(xué)文摘, 2024(4):17-19.
[14]司曉. 奇點(diǎn)來臨:ChatGPT時(shí)代的著作權(quán)法走向何處:兼回應(yīng)相關(guān)論點(diǎn)[J]. 探索與爭(zhēng)鳴,2023(5):79-86.
[15]何懷文,陳如文. 我國(guó)知識(shí)產(chǎn)權(quán)停止侵害請(qǐng)求權(quán)限制的法律原則[J]. 浙江大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2015(2):133-150.
[16]劉云開. 人工智能生成內(nèi)容的著作權(quán)侵權(quán)風(fēng)險(xiǎn)與侵權(quán)責(zé)任分配[J]. 西安交通大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2024(6):166-177.
[17]YUANSHUN Yao,XIAOJUN XU,YANG LIU. Large Language Model Unlearning[J]. arxiv,2024(2). https://arxiv.org/abs/2310.10683.