【摘要】 從人工智能文生文、文生圖到文生視頻場景創(chuàng)作都是基于人機(jī)協(xié)作的范式迭變,人工智能人機(jī)協(xié)作范式在內(nèi)容生產(chǎn)領(lǐng)域和作品市場化領(lǐng)域具有鮮明的競爭優(yōu)勢。不同于傳統(tǒng)創(chuàng)作工具,人工智能人機(jī)協(xié)作的著作權(quán)意義涵蓋人工智能內(nèi)容生成的人本邏輯性、生成內(nèi)容稀缺性的激勵轉(zhuǎn)向以及生成內(nèi)容著作權(quán)法規(guī)范的便宜性。在人工智能文生視頻的可版權(quán)性認(rèn)定上:輸入階段,用戶的提示詞輸入行為滿足著作權(quán)法上創(chuàng)造性智力勞動的要求,確保人工智能模型輸出的視頻內(nèi)容體現(xiàn)用戶的個性化選擇;輸出階段,用戶決定輸出視頻的內(nèi)容主題和畫面風(fēng)格以及對輸出視頻畫面內(nèi)容的調(diào)整和優(yōu)化,具有寬泛的選擇空間,體現(xiàn)用戶的個性化選擇和安排。因此,在文生視頻的版權(quán)侵權(quán)風(fēng)險及責(zé)任承擔(dān)上,應(yīng)確定人工智能文生視頻用戶和商業(yè)化應(yīng)用者的過錯責(zé)任原則,而人工智能模型開發(fā)者符合“技術(shù)中立原則”免負(fù)侵權(quán)責(zé)任。
【關(guān)鍵詞】人工智能 文生視頻 可版權(quán)性 思想/表達(dá)二分法
【中圖分類號】G230 【文獻(xiàn)標(biāo)識碼】A 【文章編號】1003-6687(2025)4-087-08
【DOI】 10.13786/j.cnki.cn14-1066/g2.2025.4.012
近年來,以ChatGPT為代表的人工智能模型被廣泛運用于人類創(chuàng)作場景,顯著提升了不同行業(yè)、不同領(lǐng)域的工作效率和勞動質(zhì)量。美國人工智能公司OpenAI發(fā)布的文生視頻大模型Sora再一次為人工智能模型深度介入內(nèi)容創(chuàng)作領(lǐng)域提供了強(qiáng)有力的技術(shù)保障。人工智能文生視頻是指用戶根據(jù)視頻創(chuàng)作需求,在人工智能模型中輸入文本提示詞,通過參數(shù)調(diào)試,進(jìn)而生成視頻的人工智能創(chuàng)作場景。在互聯(lián)網(wǎng)內(nèi)容生產(chǎn)領(lǐng)域,AIGC將取代傳統(tǒng)的PGC模式和UGC模式,成為最為重要的內(nèi)容生產(chǎn)來源。[1]隨著人工智能技術(shù)的迭變與創(chuàng)新,人工智能用戶生成內(nèi)容的著作權(quán)相關(guān)話題再次引起學(xué)界熱議。
然而,立法層面對此仍保持觀望態(tài)度。法律規(guī)范缺失難以避免地引發(fā)不同司法實踐判決結(jié)果的沖突:在2018年的“北京菲林律師事務(wù)所訴北京百度網(wǎng)訊公司案”①中,法院否定人工智能模型生成內(nèi)容的可版權(quán)性。在2019年的“騰訊訴網(wǎng)貸之家案”②中,法院肯定人工智能模型生成內(nèi)容的可版權(quán)性。2023年,在被業(yè)界稱為AI文生圖著作權(quán)侵權(quán)第一案①中,法院再次肯定人工智能模型文生圖的可版權(quán)性。域外實踐方面,美國版權(quán)局對于人工智能模型和人類共同生成的內(nèi)容,要求著作權(quán)申請人應(yīng)解釋人類作者對作品的獨創(chuàng)性貢獻(xiàn),再對人類創(chuàng)作部分進(jìn)行個案審查和認(rèn)定。②而歐盟同樣強(qiáng)調(diào)人工智能模型內(nèi)容生成過程中人類意志的控制作用。
我國人工智能的技術(shù)發(fā)展逐漸從文生文、文生圖向文生視頻的媒介生產(chǎn)方式轉(zhuǎn)變。人工智能文生文、文生圖的著作權(quán)法問題已初見端倪。人工智能文生視頻作為最新的內(nèi)容生產(chǎn)樣態(tài),其可能面臨的著作權(quán)風(fēng)險必須引起關(guān)注,以促進(jìn)“法技”協(xié)同和產(chǎn)業(yè)化應(yīng)用。本文首先從一般性的角度出發(fā),探究從文生文、文生圖到文生視頻的人工智能人機(jī)協(xié)作的技術(shù)迭變,分析技術(shù)迭變和人機(jī)協(xié)作方式背后所映射的著作權(quán)法意義;其次,從特殊性角度基于文本輸入、視聽輸出,分析人工智能文生視頻的可版權(quán)性認(rèn)定規(guī)則;最后,從人工智能文生視頻所衍生的版權(quán)侵權(quán)責(zé)任承擔(dān)角度,提出人工智能文生視頻版權(quán)侵權(quán)風(fēng)險所涉相關(guān)主體的責(zé)任配置方式。
一、人機(jī)協(xié)作的技術(shù)迭變:從文生文、文生圖到文生視頻的人工智能模型
1. 人工智能模型人機(jī)協(xié)作的競爭優(yōu)勢
與傳統(tǒng)人類創(chuàng)作工具所不同的是,人工智能模型人機(jī)協(xié)作的內(nèi)容創(chuàng)作模式是人機(jī)深度融合下的創(chuàng)作場景優(yōu)化,在內(nèi)容生產(chǎn)的創(chuàng)作成本和內(nèi)容的市場化傳播方面具有明顯的競爭優(yōu)勢。[2]在人工智能內(nèi)容生產(chǎn)環(huán)節(jié),人工智能模型以工具身份融入人類的創(chuàng)作活動,極大地降低了生成內(nèi)容的創(chuàng)作成本。著作權(quán)法保護(hù)自然人的創(chuàng)作行為,依據(jù)洛克勞動財產(chǎn)理論的賦權(quán)解釋,自然人的創(chuàng)作勞動行為賦予其支配勞動成果自然法意義上的權(quán)利。[3]在著作權(quán)分配體系中,自然人的創(chuàng)作事實是一個重要的分配依據(jù),它決定成為作品權(quán)利歸屬的一項基本的分配原則。[4]在人工智能內(nèi)容創(chuàng)作環(huán)節(jié),用戶文本輸入與人工智能模型文本(圖片、視頻)輸出相融合,基于人工智能模型內(nèi)容生產(chǎn)的自動化和模式化特點,人類初次創(chuàng)作的行為成本和難度都在大幅降低。在內(nèi)容的市場化傳播方面,人工智能內(nèi)容契合Web3.0的技術(shù)邏輯,依托算法推送提升信息內(nèi)容的傳播效率。意志理論認(rèn)為,作品是作者人格意志的外化,作品的市場化傳播不僅是實現(xiàn)作者個人名譽和成就的重要手段,同時也是實現(xiàn)創(chuàng)作經(jīng)濟(jì)價值的主要渠道。[5]作品的市場化傳播一直以來與外部的傳播媒介緊密相關(guān),生成式人工智能技術(shù)的蓬勃發(fā)展使作品傳播的運行機(jī)制發(fā)生顛覆性變革和系統(tǒng)性重構(gòu),作品的傳播方式呈現(xiàn)智能化、個性化、交互性與自主性特點。
2. 人工智能模型人機(jī)協(xié)作的著作權(quán)意義
人工智能重構(gòu)人機(jī)關(guān)系,將推進(jìn)人機(jī)關(guān)系由它異關(guān)系轉(zhuǎn)變?yōu)榫呱黻P(guān)系,即人工智能從外在的準(zhǔn)他者形態(tài)逐漸轉(zhuǎn)變?yōu)榕c人類智能相互耦合的形態(tài)。[6]人工智能人機(jī)協(xié)作的著作權(quán)意義至少涵蓋人工智能內(nèi)容生成的人本邏輯性、生成內(nèi)容稀缺性的激勵轉(zhuǎn)向以及生成內(nèi)容著作權(quán)法規(guī)范的便宜性三個層次。
(1)人工智能內(nèi)容生成的人本邏輯性。意志理論是知識產(chǎn)權(quán)財產(chǎn)正當(dāng)性的一項重要理論淵源,創(chuàng)作主體基于自身的創(chuàng)造性勞動取得作品的原始權(quán)利。在人工智能內(nèi)容生成環(huán)節(jié),同樣表現(xiàn)出知識產(chǎn)權(quán)意志理論的人本邏輯性。
一是人的主體性始終是人工智能生成內(nèi)容可版權(quán)性的必備要素。[7]作為創(chuàng)作主體的人富有創(chuàng)作意圖和思想情感,這是人工智能模型所無法比擬的。創(chuàng)作意圖是作者自由意志的體現(xiàn),人工智能模型依靠算法、算力、訓(xùn)練數(shù)據(jù)輸出拼湊式內(nèi)容,而該內(nèi)容直接服務(wù)于用戶基于創(chuàng)作意圖輸入的文本指令。人工智能模型不具備人的創(chuàng)作意圖,在主體身份上不能賦予人工智能模型利益實體地位。思想情感是作者進(jìn)行內(nèi)容創(chuàng)作的內(nèi)在驅(qū)動,人工智能模型無法理解人工智能生成內(nèi)容的情感表達(dá),更無法因受到作品的聲譽激勵而進(jìn)行自主創(chuàng)作。
二是人機(jī)協(xié)作人工智能內(nèi)容生成過程中,人類創(chuàng)作者具有主導(dǎo)性。人工智能內(nèi)容能夠獲得著作權(quán)保護(hù)的前提預(yù)設(shè),除了自然人決定作品表達(dá)的主體性要件外,自然人在人機(jī)協(xié)作的內(nèi)容生成過程中須占主導(dǎo)性地位,而人工智能模型僅具有輔助性功能。以文生視頻大模型Sora的人機(jī)協(xié)作為例,用戶的文本指令為Sora場景構(gòu)建、角色動畫、轉(zhuǎn)場特效等畫面內(nèi)容的生成提供了指引。一方面,在Sora的畫面內(nèi)容生成過程中,用戶根據(jù)創(chuàng)作意圖進(jìn)行內(nèi)容的篩選和調(diào)整;另一方面,在Sora的畫面內(nèi)容生成結(jié)束后,用戶根據(jù)視聽內(nèi)容的市場化傳播要求,進(jìn)行最終的內(nèi)容整合,使其成為具有獨創(chuàng)性的完整作品。從本質(zhì)上來看,人工智能模型的技術(shù)定位依然屬于自然人的創(chuàng)作工具。
(2)人工智能內(nèi)容生成稀缺性的激勵轉(zhuǎn)向。知識產(chǎn)權(quán)制度賦予自然人創(chuàng)作者對知識產(chǎn)品的排他性壟斷權(quán),以法定排他性和競爭性來保障創(chuàng)新主體的收益期待,激勵創(chuàng)新活動和知識傳播以實現(xiàn)社會財富的最大化。[8]從需求與供應(yīng)關(guān)系角度看,作品屬稀缺性資源,著作權(quán)法通過設(shè)置著作權(quán)以激勵更多的作品產(chǎn)出。在人機(jī)協(xié)作的人工智能內(nèi)容生成過程中,著作權(quán)法通過設(shè)置著作權(quán)的激勵面向,使關(guān)注焦點從機(jī)器面向調(diào)整為用戶行為面向。理由有兩方面:一是著作權(quán)法關(guān)注自然人創(chuàng)作行為的激勵,由人工智能模型自動生成的內(nèi)容不具可版權(quán)性,因為人工智能模型不具利益實體地位,無法受到激勵;二是用戶的文本輸入行為影響人工智能生成內(nèi)容的質(zhì)量,人工智能內(nèi)容重于生成的稀缺性源自用戶文本表達(dá)的獨創(chuàng)性。[9]由于人工智能模型在文字語言理解層面具有差異性,不同提示詞的文本輸入會影響最終生成內(nèi)容的表達(dá)質(zhì)量。高質(zhì)量的人工智能輸出內(nèi)容有賴于用戶在使用人工智能模型時付出的提示詞勞動,用戶的這一創(chuàng)造性智力勞動,最終成為人工智能內(nèi)容可版權(quán)性的重要判定理據(jù)。
(3)人工智能生成內(nèi)容著作權(quán)法規(guī)范的便宜性?,F(xiàn)代產(chǎn)權(quán)制度不僅關(guān)注社會激勵效益,而且關(guān)注基于產(chǎn)權(quán)界定所產(chǎn)生的社會代價即界權(quán)成本問題。從我國現(xiàn)行立法制度規(guī)范來看,對于海量人工智能生成內(nèi)容的產(chǎn)權(quán)界定選擇,既有著作權(quán)、專利等結(jié)構(gòu)化方案,又有反不正當(dāng)競爭法一般條款的兜底性產(chǎn)權(quán)保護(hù)路徑。其中,著作權(quán)分析框架提供的事后確權(quán)模式在系統(tǒng)性降低界權(quán)成本方面體現(xiàn)出巨大的認(rèn)知優(yōu)勢,適合廣泛應(yīng)用于解決海量的創(chuàng)新利益分配問題。[10]著作權(quán)的產(chǎn)權(quán)界定方式與人工智能生成內(nèi)容的概率性相契合。由于人工智能生成內(nèi)容屬于低概率的產(chǎn)出客體,用戶即便在同一人工智能模型中輸入近似的提示詞,其生成內(nèi)容也會存在差異性,因此著作權(quán)的事后產(chǎn)權(quán)界定方式有利于節(jié)省人工智能生成內(nèi)容的界權(quán)成本。
隨著大數(shù)據(jù)、區(qū)塊鏈等人工智能技術(shù)的應(yīng)用不斷推動著作權(quán)保護(hù)客體的擴(kuò)大,新型智力創(chuàng)作成果不斷涌現(xiàn),[11]著作權(quán)分析框架所具有的應(yīng)對新型智力創(chuàng)作成果的適應(yīng)性和靈活性優(yōu)勢更加凸顯。著作權(quán)制度的誕生和歷史發(fā)展與人類科技文明進(jìn)步緊密相連,特別是與作品創(chuàng)作和傳播的技術(shù)手段息息相關(guān)。著作權(quán)制度創(chuàng)新性發(fā)展與技術(shù)良性互動的歷史性經(jīng)驗表明,其制度的靈活性足以應(yīng)對人工智能生成內(nèi)容的規(guī)范性要求。著作權(quán)分析框架內(nèi)靈活的獨創(chuàng)性要件、著作權(quán)權(quán)屬規(guī)則以及權(quán)利登記制度,能夠為人工智能生成內(nèi)容的利益分配提供可靠支持。[12]
二、人工智能模型文生視頻的可版權(quán)性認(rèn)定:從文本輸入到視聽表達(dá)
1. 人工智能模型文生視頻用戶文本輸入行為的著作權(quán)法定性
以O(shè)penAI推出的人工智能模型Sora為例,用戶根據(jù)視頻創(chuàng)作需求輸入合適的提示詞,繼而觸發(fā)Sora后續(xù)的協(xié)作行為。用戶文本輸入行為是人機(jī)協(xié)作的啟動,也影響著視頻內(nèi)容的畫面輸出,用戶文本輸入行為是否構(gòu)成著作權(quán)法所保護(hù)的創(chuàng)造性智力勞動關(guān)乎人工智能模型文生視頻的可版權(quán)性認(rèn)定,須將用戶文本輸入行為置于著作權(quán)的分析框架中進(jìn)行考量。
依據(jù)洛克勞動財產(chǎn)理論,著作權(quán)法保護(hù)自然人的智力勞動,并基于智力勞動這一事實證明自然人對智力勞動成果享有財產(chǎn)權(quán)。只有著作權(quán)法意義上的勞動才是智力勞動成果受著作權(quán)法保護(hù)的必要條件,自然人一般性的智力投入與智力勞動成果受著作權(quán)法保護(hù)之間不存在推論關(guān)系。對此,可以從著作權(quán)思想/表達(dá)二分法原理來考察。一方面,著作權(quán)法不保護(hù)思想范疇的智力投入。理由在于,著作權(quán)是一種典型的排他性財產(chǎn)權(quán),自然人如果基于思想范疇的智力投入便可以獨占思想,這顯然與思想的共享性特點相違背,同時也會給后來的創(chuàng)新者帶來極大的創(chuàng)作成本。另一方面,思想/表達(dá)二分法肯定自然人的創(chuàng)造性智力勞動,認(rèn)可自然人和勞動成果之間是“作者—作品”的專有關(guān)系。自然人足夠的創(chuàng)造性智力勞動是作品受著作權(quán)法保護(hù)的必要條件,創(chuàng)造性智力勞動在作品創(chuàng)作過程中體現(xiàn)為自然人對特定類別作品創(chuàng)作的表達(dá)空間。[13]如果自然人對于某一類作品創(chuàng)作僅有有限的表達(dá)空間,那么自然人的智力勞動投入則往往歸屬于思想范疇。思想/表達(dá)二分法基于自然人的創(chuàng)造性智力勞動反映財產(chǎn)法上人與物的關(guān)系,同時,根據(jù)著作權(quán)法的利益分配規(guī)則來進(jìn)一步明確基于客體的人與人之間的關(guān)系。
在人工智能模型Sora的技術(shù)應(yīng)用場景中,用戶的提示詞輸入行為是否滿足著作權(quán)法上創(chuàng)造性智力勞動之要求,關(guān)鍵在于提示詞輸入行為是否具備足夠的表達(dá)空間,體現(xiàn)用戶的個性化選擇和編排。以O(shè)penAI官方網(wǎng)站發(fā)布的關(guān)于“東京街頭”的提示詞為例,用戶輸入的提示詞具有較為豐富的創(chuàng)造性選擇空間,體現(xiàn)用戶在輸入階段的選擇和安排。①具體表現(xiàn)在以下三方面。其一,提示詞對于視頻故事發(fā)生的場景選用和選擇影響著視頻的故事情節(jié)和觀眾的情感共鳴。提示詞將場景選擇在室外的街道,在場景布置中選擇冬季的落雪和晴朗的天氣來烘托視頻故事氣氛。其二,提示詞對于鏡頭語言的運用。提示詞要求鏡頭跟隨幾名行人穿過熙熙攘攘的城市街道,并同時反映有人在路邊小攤購物的畫面。由此,鏡頭的選擇和設(shè)計應(yīng)為:采用俯拍的角度,在焦距選用上選擇短焦,在景別選擇上采取近景和特寫方式,在鏡頭運動上應(yīng)當(dāng)伴隨著行人推移,從而創(chuàng)造出不同的空間感和動態(tài)效果來展示東京街頭的熱鬧繁華。其三,提示詞對角色和運動的安排。提示詞通過對行人肢體動作的捕捉來推進(jìn)劇情,同時要求通過路邊的攤販兜售商品來豐富視頻畫面內(nèi)容。由此可見,用戶提示詞的文本輸入在視頻內(nèi)容的主題、場景、角色、動作、情感、屬性、鏡頭語言等方面具有豐富的創(chuàng)造性空間,滿足著作權(quán)法上創(chuàng)造性智力勞動之要求。
2. 人工智能模型文生視頻畫面內(nèi)容的獨創(chuàng)性認(rèn)定
上述用戶提示詞的輸入行為是人工智能模型文生視頻人機(jī)協(xié)作的啟動階段,后續(xù)還包括人工智能模型文本解析、視頻生成以及用戶對生成視頻的調(diào)整和修改。人工智能模型文本解析階段,即人工智能模型利用自身的大語言模型來分析用戶的提示詞文本,并從中提取出文本的關(guān)鍵信息,如主題、人物、動作、地點、時間和情緒等。在視頻生成階段,人工智能模型利用自身的Transformer和DALL·E3技術(shù)架構(gòu)將解析的文本信息與數(shù)據(jù)集中合適的視頻相混合,重新創(chuàng)建一個符合提示詞要求的視頻。同時,人工智能模型還可以根據(jù)用戶的提示詞指令重新調(diào)整和修改視頻畫面,以滿足用戶需要。如根據(jù)用戶的喜好,重新修改生成視頻的畫面風(fēng)格,使用新素材來豐富視頻的畫面內(nèi)容。在用戶對生成視頻的調(diào)整和修改階段,用戶對最終人工智能生成內(nèi)容進(jìn)行整體性或者細(xì)節(jié)性的增刪來滿足用戶的要求。因此,簡單來看,可以將人工智能文生視頻的生成邏輯理解為:文本輸入—文本解析—視頻生成—內(nèi)容調(diào)整。
文生視頻的生成過程,也是人機(jī)協(xié)作的創(chuàng)作過程。人工智能模型在視頻創(chuàng)作的第二、三階段充分展現(xiàn)機(jī)器的智能性和生成性,但不能否定用戶在文生視頻生成過程中對視聽畫面內(nèi)容表達(dá)的實質(zhì)性貢獻(xiàn),用戶在第一、四階段所付出的創(chuàng)造性智力投入,體現(xiàn)用戶的選擇性空間,滿足著作權(quán)法的作品獨創(chuàng)性要求。著作權(quán)法上的獨創(chuàng)性是一個相對性的概念,包括“獨”和“創(chuàng)”兩個方面,揭示獨創(chuàng)性所蘊含的“作品來源于本人”和“作品體現(xiàn)出創(chuàng)造性”兩層含義。[14]
在人機(jī)協(xié)作背景下,人工智能生成內(nèi)容獨創(chuàng)性的判斷,應(yīng)主要從用戶貢獻(xiàn)的絕對量判斷用戶的個性化選擇空間。[15]具體可以包括以下兩個方面。
第一,用戶決定人工智能文生視頻的內(nèi)容主題和畫面風(fēng)格,表達(dá)創(chuàng)作意圖和思想情感。主題在視頻創(chuàng)作中占據(jù)核心地位,是視頻創(chuàng)作的靈魂,它直接指向作者所要表達(dá)的創(chuàng)作意圖和思想情感,涵蓋作者想要向觀眾傳遞的價值觀。用戶通過提示詞的文本輸入設(shè)定視頻創(chuàng)作中的主題,引導(dǎo)人工智能模型生成符合特定主題需求的內(nèi)容方向和整體框架。此外,用戶決定人工智能文生視頻的內(nèi)容主題的同時,也直接決定視頻的整體視聽風(fēng)格。人工智能模型對于色調(diào)、音樂、音效、剪輯節(jié)奏等技術(shù)手段的運用,會根據(jù)用戶設(shè)定的主題進(jìn)行調(diào)整,以強(qiáng)化主題氛圍,創(chuàng)造獨特的視覺和聽覺體驗。
第二,用戶對人工智能模型輸出視頻的調(diào)整和優(yōu)化,主要包括用戶對視頻內(nèi)容的質(zhì)量控制、邏輯優(yōu)化、細(xì)節(jié)優(yōu)化以及新表達(dá)的添加。用戶對視頻內(nèi)容的質(zhì)量控制,需要用戶不斷實時地調(diào)整其輸入的文本指令,確保人工智能模型輸出的視頻內(nèi)容符合預(yù)期。邏輯優(yōu)化需要用戶對視頻內(nèi)容進(jìn)行調(diào)整以符合日常邏輯,如人臉識別的清晰度、動作的流暢性以及場景的邏輯合理性等。細(xì)節(jié)優(yōu)化需要用戶關(guān)注視頻內(nèi)容細(xì)節(jié)之處的優(yōu)化,如人物與場景之間的作用關(guān)系、不同人物動作之間的相互關(guān)系等。新表達(dá)的添加意味著用戶對于畫面內(nèi)容進(jìn)行實質(zhì)性的修改,可增加視頻畫面的獨創(chuàng)性表達(dá),提升視頻的觀感和專業(yè)度??梢姡谌藱C(jī)協(xié)作生成的文生視頻生成過程中,用戶的行為不是一般的技巧性勞動,而是具備創(chuàng)造性的智力投入,確保人工智能模型輸出的視頻內(nèi)容體現(xiàn)用戶的個性化選擇。[16]
3. 用戶在文生視頻生成過程中對輸出視頻畫面內(nèi)容具有控制力
也許有觀點認(rèn)為,盡管用戶在文本輸入和內(nèi)容調(diào)整階段的貢獻(xiàn)可能形成獨創(chuàng)性表達(dá),但是在人工智能模型文本解析—視頻生成環(huán)節(jié),用戶對于人工智能模型最終生成的視頻形態(tài)缺乏控制,無法認(rèn)定視頻輸出結(jié)果與用戶行為之間的作用力。該觀點涉及兩個問題:一是人工智能模型對于視頻內(nèi)容的貢獻(xiàn)可能大于用戶的行為貢獻(xiàn);二是用戶對人工智能模型文生視頻生成過程缺乏控制,可能不構(gòu)成對用戶個性化選擇和安排的固定。以下分別對這兩個問題逐一分析。
對于第一個問題,涉及人工智能模型與用戶對最終輸出結(jié)果的貢獻(xiàn)比較問題,本質(zhì)上是關(guān)于文生視頻的獨創(chuàng)性判斷標(biāo)準(zhǔn)的選擇問題。[17]在人工智能模型技術(shù)不斷發(fā)展的時代背景下,人工智能模型作為強(qiáng)大的知識生產(chǎn)、內(nèi)容生產(chǎn)工具有力地介入知識生產(chǎn)和創(chuàng)造的各個環(huán)節(jié),機(jī)器在內(nèi)容生產(chǎn)過程中的地位和能力日益突出。著作權(quán)法將人機(jī)互動視為一個法律關(guān)系整體,并以此為基礎(chǔ)認(rèn)定創(chuàng)作行為,進(jìn)而判斷其獨創(chuàng)性。[18]“人—機(jī)”貢獻(xiàn)的相對比例判斷方式要求證明用戶的獨創(chuàng)性貢獻(xiàn)須大于人工智能模型的技術(shù)貢獻(xiàn),方可滿足著作權(quán)法的獨創(chuàng)性要求,這種做法實際上變相提高了著作權(quán)法具備一定程度的創(chuàng)造性的獨創(chuàng)性門檻,割裂了人機(jī)互動的整體性法律關(guān)系。從人機(jī)互動的整體性來看,只要用戶絕對量的創(chuàng)造性投入滿足著作權(quán)法的獨創(chuàng)性要求,那么該生成內(nèi)容就受到著作權(quán)法保護(hù)。
對于第二個問題,用戶對人工智能模型文生視頻生成過程缺乏控制,可能不構(gòu)成對用戶個性化選擇和安排的固定。本文認(rèn)為,用戶在提示詞的文本輸入階段和內(nèi)容調(diào)整階段決定人工智能模型文生視頻內(nèi)容,對文生視頻內(nèi)容具有直接支配力。對此,可以借助前文提及的Sora技術(shù)生成的有關(guān)“東京街頭”的視頻畫面及其對應(yīng)的提示詞進(jìn)行論證。一方面,在用戶的提示詞文本輸入環(huán)節(jié),用戶主要從視頻故事發(fā)生的場景、鏡頭語言的運用、角色和運動的安排方面對于文生視頻的畫面輸出內(nèi)容進(jìn)行控制。如在場景選用上,用戶提示詞將場景選擇在室外的街道,那么人工智能模型便不會生成室內(nèi)的場景布置。在鏡頭語言的運用上,用戶的提示詞要求鏡頭跟隨幾名行人穿過城市街道,并同時反映有人在路邊小攤購物的畫面,人工智能模型鏡頭的選擇和設(shè)計就必須采用俯拍的鏡頭角度,而不能是仰拍或平拍的鏡頭角度,在焦距選用上則必須選擇短焦,而不能是長焦??梢?,在文本輸入階段,盡管畫面內(nèi)容的生成工作交由人工智能模型來完成,但人工智能模型對于畫面內(nèi)容的支配始終遵從并服務(wù)于用戶即創(chuàng)作者的文本指令。
另一方面,在內(nèi)容調(diào)整階段,用戶對于文生視頻畫面的調(diào)整是實時的,用戶對于視頻畫面內(nèi)容的變動有著明確的控制力和可預(yù)見性。在內(nèi)容調(diào)整階段,用戶對最終人工智能生成內(nèi)容進(jìn)行整體性或者細(xì)節(jié)性的增刪來滿足用戶的要求,如用戶可以運用不同的剪輯技巧(如蒙太奇、交叉剪輯、跳切等)來連接鏡頭和控制視頻畫面內(nèi)容的節(jié)奏,而對于剪輯手法產(chǎn)生的視頻畫面效果,用戶已有預(yù)期。
三、人工智能模型文生視頻的版權(quán)侵權(quán)風(fēng)險及責(zé)任承擔(dān)
1. 人工智能模型文生視頻的版權(quán)侵權(quán)風(fēng)險識別
從人工智能模型文生視頻的生成機(jī)制來看,最終輸出的視頻內(nèi)容可能對原創(chuàng)作者的部分財產(chǎn)權(quán)構(gòu)成侵權(quán)。一是復(fù)制權(quán)。由于人工智能文生視頻模型在訓(xùn)練過程中學(xué)習(xí)了大量的在線視聽作品,因此在人工智能生成視頻時,可能會無意識地復(fù)制或模仿這些作品的元素,如場景、角色、對話等。如果人工智能模型文生視頻內(nèi)容與他人原創(chuàng)視聽作品素材在表達(dá)而非思想上構(gòu)成實質(zhì)性相似,則侵犯在先視聽作品的復(fù)制權(quán)。[19]二是演繹權(quán)。我國著作權(quán)法意義上的演繹行為包括翻譯、改編、攝制和匯編等。以文生視頻生成過程侵犯改編權(quán)為例,如果文生視頻內(nèi)容在最終表達(dá)上具有獨創(chuàng)性,但同時保留他人原創(chuàng)作品的部分基礎(chǔ)表達(dá),那么該文生視頻生成過程是對他人數(shù)字化視聽作品素材的改編,屬于改編權(quán)的控制范疇,仍存在侵權(quán)風(fēng)險。三是信息網(wǎng)絡(luò)傳播權(quán)。隨著數(shù)字技術(shù)的應(yīng)用和網(wǎng)絡(luò)服務(wù)的普及,人工智能模型文生視頻內(nèi)容極易被用戶傳播至互聯(lián)網(wǎng)領(lǐng)域,個體用戶將成為文生視頻內(nèi)容市場化傳播的獨立節(jié)點。如果文生視頻內(nèi)容不屬于“全新作品”的理想狀態(tài)即在信息網(wǎng)絡(luò)平臺上傳播,則很可能構(gòu)成對他人視聽數(shù)字作品素材信息網(wǎng)絡(luò)傳播權(quán)的侵害,具有侵權(quán)風(fēng)險。
2. 人工智能模型文生視頻的版權(quán)侵權(quán)責(zé)任認(rèn)定
(1)人工智能模型文生視頻的用戶適用過錯責(zé)任原則。在人工智能模型文生視頻生成過程中,不論從用戶與文生視頻內(nèi)容利益聯(lián)系的緊密度、用戶對文生視頻內(nèi)容的實際貢獻(xiàn)度,還是從文生視頻內(nèi)容的表達(dá)形成過程來看,將文生視頻權(quán)利歸屬安排給用戶是最契合現(xiàn)行著作權(quán)法律理念和現(xiàn)實情況的制度選擇?;凇皺?quán)責(zé)一致”原則,既然用戶享有生成視頻的著作權(quán),就應(yīng)由用戶來承擔(dān)生成內(nèi)容可能引發(fā)的版權(quán)侵權(quán)責(zé)任。根據(jù)《中華人民共和國民法典》第一千一百六十五條第(一)款確立的一般侵權(quán)責(zé)任,在著作權(quán)法尚未對用戶文生視頻存在的侵權(quán)行為責(zé)任做出特殊規(guī)定的情況下,應(yīng)當(dāng)以過錯責(zé)任原則作為用戶的歸責(zé)原則。
對于用戶文生視頻的著作權(quán)侵權(quán)行為應(yīng)當(dāng)適用過錯責(zé)任原則的理由在于以下幾點。第一,從利益平衡的角度來看,過錯責(zé)任原則是平衡用戶利益和在線視聽創(chuàng)作者利益的必然選擇。人工智能模型文生視頻是人機(jī)協(xié)作的最新范式,過錯責(zé)任原則在激勵用戶使用新型創(chuàng)作工具進(jìn)行視頻創(chuàng)作的同時,應(yīng)當(dāng)尊重和保護(hù)在先視聽創(chuàng)作者的知識產(chǎn)權(quán)利益。過錯責(zé)任的制度目的和利益平衡的現(xiàn)實需求相吻合,并最終確保所涉及的各種社會利益的平衡發(fā)展,避免某種社會利益的實現(xiàn)以損害其他社會利益為代價。第二,從市場競爭關(guān)系來看,過錯責(zé)任原則限制用戶文生視頻行為可能對在線視聽創(chuàng)作者市場利益的損害。人工智能模型文生視頻大大降低了著作權(quán)法對用戶的創(chuàng)作時間和創(chuàng)作能力的要求,用戶利用人工智能模型故意誘導(dǎo)其生成與他人原創(chuàng)視聽作品相似的內(nèi)容并進(jìn)行規(guī)?;瘋鞑?,將不可避免地擠占他人原創(chuàng)視聽作品的市場份額,損害在線視聽創(chuàng)作者的市場利益。過錯責(zé)任原則基于用戶的過錯要件,將預(yù)防性限制人工智能模型文生視頻的使用者群體利用人工智能模型進(jìn)行惡意競爭的情形。第三,從價值取向上來看,無過錯責(zé)任原則反映了現(xiàn)代法治的正義觀,而不關(guān)注對于不法行為的預(yù)防和懲戒。有學(xué)者指出,無過錯責(zé)任制度的基本思想不在于對“反社會”性質(zhì)的制裁,而是對不幸損害之合理分配。[20]在人工智能模型文生視頻生成過程中,用戶行為所引發(fā)的著作權(quán)風(fēng)險除了關(guān)注侵權(quán)行為本身導(dǎo)致的利益損害,還應(yīng)當(dāng)包括對侵權(quán)行為的否定性評價。因此,無過錯責(zé)任原則在人工智能模型文生視頻用戶侵權(quán)行為的適用空間有限。
(2)人工智能文生視頻模型商業(yè)化應(yīng)用者適用過錯責(zé)任原則。與人工智能模型文生視頻用戶的著作權(quán)侵權(quán)責(zé)任一樣,本文認(rèn)為,人工智能文生視頻模型商業(yè)化應(yīng)用者的責(zé)任承擔(dān),同樣宜采用過錯責(zé)任原則。過錯責(zé)任原則的設(shè)定有利于鼓勵和加快人工智能的技術(shù)創(chuàng)新,也有助于防范人工智能文生視頻模型商業(yè)化應(yīng)用中可能出現(xiàn)的版權(quán)風(fēng)險。
在人工智能文生視頻模型使用者和商業(yè)化應(yīng)用者均有過錯的前提下,可以利用過錯責(zé)任進(jìn)行分擔(dān),也可根據(jù)不同情形來認(rèn)定各方主體的責(zé)任。[21]但問題在于,如何認(rèn)定人工智能文生視頻模型商業(yè)化應(yīng)用者的過錯?對此,學(xué)界存在不同觀點。有觀點認(rèn)為,人工智能商業(yè)化應(yīng)用者的過錯認(rèn)定應(yīng)以技術(shù)性審查為標(biāo)準(zhǔn),結(jié)合內(nèi)容生產(chǎn)場景、提供者風(fēng)險預(yù)見能力差異化構(gòu)建內(nèi)容審查的注意義務(wù)。[22]也有觀點認(rèn)為,人工智能商業(yè)化應(yīng)用者的注意義務(wù)水平應(yīng)介于嚴(yán)格審查義務(wù)與“通知—必要”措施之間,表現(xiàn)為規(guī)避版權(quán)侵權(quán)的設(shè)計義務(wù)與用戶誘導(dǎo)侵權(quán)的治理義務(wù)。[23]本文認(rèn)為,上述觀點均是從不同角度探究人工智能商業(yè)化應(yīng)用者的過錯認(rèn)定標(biāo)準(zhǔn),具有一定的合理性。人工智能商業(yè)化應(yīng)用者的過錯認(rèn)定應(yīng)當(dāng)從現(xiàn)有技術(shù)水平出發(fā),以現(xiàn)有技術(shù)水平標(biāo)準(zhǔn)來判斷人工智能商業(yè)化應(yīng)用者是否盡到了采取必要措施的義務(wù),是否盡到了預(yù)防和防范的義務(wù),從而認(rèn)定其是否具有過錯。[24]具體來看,在文生視頻的人機(jī)協(xié)作場景中,一方面,文生視頻著作權(quán)侵權(quán)損害的發(fā)生依據(jù)損害發(fā)生時的技術(shù)水平,人工智能文生視頻模型商業(yè)化應(yīng)用者是否采取必要措施來預(yù)知和預(yù)防著作權(quán)侵權(quán)損害的發(fā)生,人工智能文生視頻模型商業(yè)化應(yīng)用者在能夠采取必要措施而沒有采取的情況下,應(yīng)認(rèn)定人工智能商業(yè)化應(yīng)用者存在過錯。另一方面,在著作權(quán)侵權(quán)損害有擴(kuò)大的情形時,人工智能文生視頻模型商業(yè)化應(yīng)用者還應(yīng)在現(xiàn)有技術(shù)水平條件下采取必要措施,避免著作權(quán)侵權(quán)損害的進(jìn)一步擴(kuò)張。
為了平衡人工智能商業(yè)化應(yīng)用者與視聽作品著作權(quán)人的利益,還應(yīng)類推適用“通知—刪除”規(guī)則。使用者利用人工智能文生視頻的著作權(quán)風(fēng)險與一般用戶利用網(wǎng)絡(luò)服務(wù)實施的侵權(quán)行為在風(fēng)險性質(zhì)和法律評價上具有相似性。[25]從法律效果上來看,若拒絕“通知—刪除”規(guī)則在人工智能商業(yè)化應(yīng)用者中的適用,一旦發(fā)生文生視頻的著作權(quán)侵權(quán)行為,人工智能商業(yè)化應(yīng)用者就必須承擔(dān)間接侵權(quán)責(zé)任,對于人工智能商業(yè)化應(yīng)用者而言太過嚴(yán)苛。從技術(shù)規(guī)范層面來看,人工智能商業(yè)化應(yīng)用者在文生視頻的視頻生成階段缺乏對AI模型輸出內(nèi)容的實質(zhì)控制力,加之用戶后續(xù)的內(nèi)容調(diào)整,人工智能商業(yè)化應(yīng)用者實質(zhì)上無法一一審查文生視頻最終輸出的畫面信息。從經(jīng)濟(jì)效率層面來看,人工智能商業(yè)化應(yīng)用者無法對所有用戶文生視頻輸出內(nèi)容進(jìn)行事前審查,在權(quán)利人發(fā)現(xiàn)文生視頻內(nèi)容構(gòu)成侵權(quán)并通知人工智能商業(yè)化應(yīng)用者采取必要措施時,人工智能商業(yè)化應(yīng)用者能夠以相對較低的成本方式來刪除侵權(quán)信息或防止侵權(quán)信息的再度生成,符合“最便宜的成本規(guī)避者”理論的效率要求。[26]因此,在人工智能商業(yè)化應(yīng)用者中類推適用“通知—刪除”規(guī)則,無論是從經(jīng)濟(jì)效率層面還是從技術(shù)規(guī)范層面來說,均具有其合理性。
(3)人工智能文生視頻模型開發(fā)者符合“技術(shù)中立原則”,免負(fù)侵權(quán)責(zé)任。版權(quán)法上的“技術(shù)中立原則”源自索尼案,也被稱為實質(zhì)性非侵權(quán)用途原則,其基本含義是:銷售一種同時具有合法和非法用途的商品,可免負(fù)侵權(quán)法律責(zé)任。[27]“技術(shù)中立原則”在人工智能文生視頻著作權(quán)侵權(quán)領(lǐng)域的適用,旨在協(xié)調(diào)人工智能技術(shù)創(chuàng)新與知識產(chǎn)權(quán)利益保護(hù)之間的沖突關(guān)系。文生視頻模型開發(fā)者對于最終人工智能輸出的視頻畫面內(nèi)容涉及的侵權(quán)問題,應(yīng)當(dāng)根據(jù)“技術(shù)中立原則”免負(fù)侵權(quán)責(zé)任。具體而言,體現(xiàn)在以下三方面。
首先,人工智能文生視頻模型開發(fā)者對使用者文生視頻內(nèi)容侵權(quán)與否缺乏可預(yù)見性,在主觀要件上不存在故意或過錯。人工智能文生視頻模型開發(fā)者通過API接口為下游的用戶和模型商業(yè)化應(yīng)用者提供一項通用技術(shù)或服務(wù),在用戶群體使用人工智能文生視頻模型的過程中,該模型開發(fā)者對于最終輸出的視頻畫面內(nèi)容并不存在事前的主觀態(tài)度和價值判斷。
其次,人工智能文生視頻模型開發(fā)者對使用者文生視頻內(nèi)容不存在實質(zhì)意義上的控制力。根據(jù)危險控制理論,離危險源越近的人,越容易控制危險的發(fā)生,注意義務(wù)的分配也隨之提高。[28]在人工智能文生視頻的人機(jī)協(xié)作范式下,文生視頻的輸出內(nèi)容取決于使用者的文本輸入和視頻模型的內(nèi)容生成,相較于使用者和視頻模型的商業(yè)化應(yīng)用者,人工智能文生視頻的模型開發(fā)者對于視頻畫面的輸出內(nèi)容控制力更弱。在此情形下,根據(jù)危險控制理論,將注意義務(wù)分配給文生視頻的模型開發(fā)者便不再具有成本優(yōu)勢。
最后,人工智能文生視頻模型開發(fā)者并未從文生視頻的著作權(quán)侵權(quán)風(fēng)險中直接獲利。一般而言,直接從侵權(quán)風(fēng)險中獲利的主體更有行為動機(jī)去提高侵權(quán)概率和擴(kuò)大侵權(quán)損害,法律應(yīng)對該類行為主體分配更高的注意義務(wù)。然而,在人工智能文生視頻的人機(jī)協(xié)作場景中,文生視頻的模型開發(fā)者未從文生視頻的著作權(quán)侵權(quán)風(fēng)險中直接獲利,甚至部分模型開發(fā)者在人工智能研發(fā)過程中有意規(guī)避數(shù)據(jù)訓(xùn)練行為可能面臨的侵權(quán)風(fēng)險。因此,人工智能文生視頻模型開發(fā)者提供的文生視頻技術(shù)或服務(wù)符合“技術(shù)中立原則”,開發(fā)者對于最終人工智能輸出的視頻畫面內(nèi)容涉及的侵權(quán)風(fēng)險免負(fù)侵權(quán)責(zé)任。
結(jié)語
科技與法律之間的互動關(guān)系始終是著作權(quán)法所關(guān)注的恒久命題。人工智能文生視頻作為最新的人機(jī)協(xié)作范式,真正將使用者的創(chuàng)作意圖和思想情感凝結(jié)于人機(jī)共創(chuàng)的文生視頻畫面中。人工智能文生視頻畫面內(nèi)容充分展現(xiàn)人機(jī)協(xié)作的創(chuàng)作場景,從用戶文本輸入到視頻畫面的視聽表達(dá)輸出,既有自然人用戶的創(chuàng)造性,又有效融合了人工智能的智能性,屬于著作權(quán)法上的獨創(chuàng)性表達(dá),受到著作權(quán)法保護(hù)。技術(shù)的變遷除了引發(fā)人工智能文生視頻畫面的可版權(quán)性問題外,還誘發(fā)版權(quán)侵權(quán)風(fēng)險的責(zé)任承擔(dān)問題。人工智能文生視頻模型商業(yè)化應(yīng)用者的責(zé)任承擔(dān),宜采用過錯責(zé)任原則,在實踐效果上有利于鼓勵和加快我國人工智能的技術(shù)創(chuàng)新。而人工智能文生視頻模型開發(fā)者對于最終人工智能輸出的視頻畫面內(nèi)容涉及的侵權(quán)問題,則應(yīng)當(dāng)根據(jù)“技術(shù)中立原則”免負(fù)侵權(quán)責(zé)任。
參考文獻(xiàn):
[1] 林韶. Web3.0時代智慧出版內(nèi)容的著作權(quán)授權(quán)許可范式轉(zhuǎn)型[J]. 出版發(fā)行研究,2024(12):74-81.
[2] 曹博. 人工智能輔助生成內(nèi)容的著作權(quán)法規(guī)制[J]. 比較法研究,2024(1):76-90.
[3] 李永明,向璐丹,章奕寧. 開放創(chuàng)新范式下知識產(chǎn)權(quán)權(quán)利歸屬問題研究——基于用戶創(chuàng)新、同儕創(chuàng)新典型實踐之內(nèi)在特征[J]. 浙江大學(xué)學(xué)報(人文社會科學(xué)版),2024,54(2):60-74.
[4] 李琛. 著作權(quán)基本理論批判[M]. 北京:知識產(chǎn)權(quán)出版社,2013:8.
[5] 曹博. 智力成果權(quán)利化的程序難題及其破解[J]. 福建師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2024(1):142-152,172.
[6] 喻國明,蘇健威. 生成式人工智能浪潮下的傳播革命與媒介生態(tài)——從ChatGPT到全面智能化時代的未來[J]. 新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023,44(5):81-90.
[7] 王國柱. 人工智能生成物可版權(quán)性判定中的人本邏輯[J]. 華東師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023(1):133-142,205.
[8] 林韶. 共享經(jīng)濟(jì)時代知識產(chǎn)權(quán)財產(chǎn)認(rèn)識論變革與治理——以網(wǎng)絡(luò)化開放創(chuàng)新為切入點[J/OL]. 科學(xué)學(xué)研究,1-14[2025-02-01]. https://doi.org/10.16192/j.cnki.1003-2053.20240603. 001.
[9] 李揚,涂藤. 論人工智能生成內(nèi)容的可版權(quán)性標(biāo)準(zhǔn)[J]. 知識產(chǎn)權(quán),2024(1):68-84.
[10] 蔣舸. 論著作權(quán)法的“寬進(jìn)寬出”結(jié)構(gòu)[J]. 中外法學(xué),2021(2):327-345.
[11] 林韶. 版權(quán)保險制度:內(nèi)在原理、國別經(jīng)驗及發(fā)展路徑[J]. 西南金融,2023(10):69-79.
[12] 鄧文. 以ChatGPT為代表的人工智能內(nèi)容的可版權(quán)性研究[J]. 政治與法律,2023(9):84-97.
[13] 袁鋒. 論新技術(shù)環(huán)境下作品獨創(chuàng)性的判斷——以“選擇空間法”為視角[J]. 華中科技大學(xué)學(xué)報(社會科學(xué)版),2020(5):94-102.
[14] 王國柱. 著作權(quán)法中作品獨創(chuàng)性的作品類型邏輯[J]. 法商研究,2024(1):183-200.
[15] 蔣舸. 論人工智能生成內(nèi)容的可版權(quán)性:以用戶的獨創(chuàng)性表達(dá)為視角[J]. 知識產(chǎn)權(quán),2024(1):36-67.
[16] 黃云平. 人工智能生成內(nèi)容的可版權(quán)性問題辨析[J]. 浙江大學(xué)學(xué)報(人文社會科學(xué)版),2024,54(2):75-90.
[17] 劉斌,楊志鵬. “人—機(jī)”關(guān)系視角下AIGC的可版權(quán)性與版權(quán)分配路徑芻議[J]. 中國編輯,2024(2):84-91.
[18] 徐小奔. 論人工智能生成內(nèi)容的著作權(quán)法平等保護(hù)[J]. 中國法學(xué),2024(1):166-185.
[19] 馮曉青,沈韻. 生成式人工智能版權(quán)問題研究[J]. 中國版權(quán),2023(2):15-22.
[20] 王澤鑒. 民法學(xué)說與判例研究[M]. 北京:中國政法大學(xué)出版社,1997:162.
[21] 王利明. 生成式人工智能侵權(quán)的法律應(yīng)對[J]. 中國應(yīng)用法學(xué),2023(5):27-38.
[22] 高陽. 通用人工智能提供者內(nèi)容審查注意義務(wù)的證成[J]. 東方法學(xué),2024(1):189-200.
[23] 刁佳星. 生成式人工智能服務(wù)提供者版權(quán)侵權(quán)注意義務(wù)研究[J]. 中國出版,2024(1):25-30.
[24] 王若冰. 論生成式人工智能侵權(quán)中服務(wù)提供者過錯的認(rèn)定——以“現(xiàn)有技術(shù)水平”為標(biāo)準(zhǔn)[J]. 比較法研究,2023(5):20-33.
[25] 卡爾·拉倫茨. 法學(xué)方法論[M]. 黃家鎮(zhèn),譯. 北京:商務(wù)印書館,2020:479.
[26] 周學(xué)峰. 生成式人工智能侵權(quán)責(zé)任探析[J]. 比較法研究,2023(4):117-131.
[27] 張今. 版權(quán)法上“技術(shù)中立”的反思與評析[J]. 知識產(chǎn)權(quán),2008(1):72-76.
[28] 司曉. 網(wǎng)絡(luò)服務(wù)提供者知識產(chǎn)權(quán)注意義務(wù)的設(shè)定[J]. 法律科學(xué)(西北政法大學(xué)學(xué)報),2018(1):78-88.
The Copyright Qualification and Liability Allocation of Artificial Intelligence Text-to-Video Works
LAI Li-na1,2(1.School of Law, Hangzhou Dianzi University, Hangzhou 310018, China; 2.Intellectual Property Research Institute, Hangzhou Dianzi University, Hangzhou 310018, China)
Abstract: Artificial intelligence paradigms, which have evolved from text-to-text composition to text-to-image synthesis, and to the creation of video scenes based on human-AI collaboration more recently, represent a paradigm shift in collaborative practices. The AI human-AI collaborative model holds distinct competitive advantages in both content production domains and market-oriented applications. Unlike traditional creative tools, the copyright implications for AI human-AI collaboration encompass the anthropocentric logic underpinning AI content creation, a shift towards incentivizing content scarcity and the adaptability to copyright law regulations. Regarding the copyright eligibility of AI-generated videos, during the input stage, users' prompt inputs need to meet the criteria for creative intellectual labor under copyright law, ensuring that the video content generated by the AI model reflects the users' individualized choices. In the meanwhile, at the output stage, users will decide on the thematic content and visual style of the output video and have broad discretion to adjust and optimize the video's visual contents, thereby manifesting their personalized selections and arrangements. Therefore, regarding the copyright infringement risks and liability assumption for text-to-video generated by AI, the principle of fault liability should be established for users and commercialized users respectively, while developers of AI models are exempt from infringement liability in accordance with the principle of technological neutrality.
Key words: generative AI; text-to-video; copyrightability; idea-expression dichotomy