[摘要]隨著生成式人工智能,如ChatGPT等產(chǎn)品的快速崛起,在顯著提升生產(chǎn)效率的同時,也引發(fā)了著作權(quán)侵權(quán)問題,AIGC在數(shù)據(jù)輸入、機器學習、內(nèi)容輸出等階段均存在侵犯復(fù)制權(quán)與演繹權(quán)的風險。通過分析不同著作權(quán)體系國家對AIGC可版權(quán)性的判斷標準后,文章發(fā)現(xiàn),AIGC服務(wù)提供者應(yīng)承擔主要的侵權(quán)責任,因其在侵權(quán)風險的產(chǎn)生與內(nèi)容的直接提供中扮演著核心角色。為有效應(yīng)對AIGC帶來的著作權(quán)侵權(quán)挑戰(zhàn),文章提出了雙軌制的救濟措施:一是明確侵權(quán)責任分配的事后救濟途徑,確保著作權(quán)人的權(quán)益得到有效維護;二是采取數(shù)字權(quán)利管理系統(tǒng)的事前救濟措施,通過技術(shù)手段預(yù)防侵權(quán)行為的發(fā)生。
[關(guān)鍵詞]人工智能生成物;生成式人工智能;著作權(quán)侵權(quán);侵權(quán)救濟;可版權(quán)性
隨著技術(shù)的飛速發(fā)展,人工智能(AI)已成為引領(lǐng)科技變革的重要力量,在提升生產(chǎn)效率同時也引發(fā)了諸多倫理與法律爭議。AI在發(fā)展初期主要局限于執(zhí)行簡單、明確且重復(fù)性高的任務(wù),而隨著其智能化程度的提高,其學習能力也隨之提升。2022年,ChatGPT的面世,更是激起了學界的廣泛討論,該產(chǎn)品能依據(jù)用戶指令自動生成內(nèi)容,并基于自然語言處理技術(shù),實現(xiàn)與人類深度且流暢的交流[1]。這標志著AI進入生成式人工智能階段,可以在無人類干預(yù)情形下自行抓取信息并生成內(nèi)容[2],其雖然提高了生產(chǎn)效率,但也帶來了一系列法律問題,如著作權(quán)侵權(quán)問題等,亟待解決。
一、人工智能生成物的著作權(quán)侵權(quán)風險類型
人工智能生成物(Artificial Intelligence GeneratedContent,簡稱AIGC)指由人工智能技術(shù)生成的內(nèi)容,這些內(nèi)容可以是文本、圖像、音頻、視頻等多種形式。以往的科學技術(shù)會對作品的存在形式、權(quán)利類型和權(quán)利限制造成影響。而如今的生成式人工智能不僅影響著作權(quán)人的傳播權(quán),而且已經(jīng)對著作權(quán)人的復(fù)制權(quán)、演繹權(quán)造成了損害。
(一)AIGC侵犯復(fù)制權(quán)的風險
AIGC的產(chǎn)生需要經(jīng)歷“數(shù)據(jù)輸入—機器學習—內(nèi)容輸出”三個階段,而其侵犯復(fù)制權(quán)的風險在每個階段皆有體現(xiàn)。第一,在數(shù)據(jù)輸入與機器學習階段,即內(nèi)容輸出階段前,此階段生成式人工智能并不與公眾直接交互,其運行核心在于“對既有作品的數(shù)字化轉(zhuǎn)制與存儲”[3]。生成式人工智能會從公共領(lǐng)域搜集版權(quán)作品作為訓練材料,并存儲有關(guān)副本,而在此過程中不可避免地會抓取未經(jīng)著作權(quán)人明確授權(quán)的版權(quán)內(nèi)容,故可能會侵犯抓取作品的復(fù)制權(quán)。同時,在進入深度學習與強化訓練前,生成式人工智能依賴開發(fā)者預(yù)先整合的海量數(shù)據(jù)資源,這些數(shù)據(jù)通過自然語言處理(NLP)技術(shù)轉(zhuǎn)化為數(shù)據(jù)模型或副本,供算法迭代優(yōu)化[4]。此轉(zhuǎn)換過程,本質(zhì)仍是對版權(quán)作品的數(shù)字化復(fù)制,若數(shù)據(jù)源中包含未經(jīng)授權(quán)的數(shù)字作品或受版權(quán)法保護的數(shù)據(jù)庫內(nèi)容,則會構(gòu)成對復(fù)制權(quán)的侵犯。第二,在內(nèi)容輸出階段,同樣存在侵犯著作權(quán)人復(fù)制權(quán)的風險。不同于前兩個階段的內(nèi)部數(shù)字化復(fù)制,內(nèi)容輸出階段涉及對作品中獨創(chuàng)性元素的公開展示或再現(xiàn),旨在讓公眾能夠直接感知或接觸。若AIGC與用于訓練的基礎(chǔ)數(shù)據(jù)作品間存在顯著的實質(zhì)性相似,則構(gòu)成對原作品復(fù)制權(quán)的侵犯。
(二)AIGC侵犯演繹權(quán)的風險
演繹作品指通過對現(xiàn)有作品進行改編、整合、或翻譯等,創(chuàng)造出蘊含原創(chuàng)元素的新作品形態(tài)。當AIGC展現(xiàn)出一定的獨創(chuàng)性,而核心內(nèi)容依然沿用先前作品的基本表述框架時,則AIGC有可能被界定為演繹作品,故若生成式人工智能的開發(fā)者或服務(wù)提供商未事先征得原作品權(quán)利人的許可,AIGC就可能會侵犯版權(quán)作品的演繹權(quán)。
依據(jù)著作權(quán)法第十條第1項第14款對“改編權(quán)”的規(guī)定,“改編權(quán)”是改變原有作品,進而創(chuàng)作出新穎且具有獨創(chuàng)性作品的權(quán)利。從這一法律條文的邏輯出發(fā),未經(jīng)著作權(quán)人許可而進行改編完成的作品,須具有獨創(chuàng)性才可能會侵犯改編權(quán)。而AIGC的獨創(chuàng)性一直是具有爭議性的話題,縱觀我國有關(guān)人工智能生成物的司法實踐,可見司法機構(gòu)傾向于對其采取有條件保護的司法原則[5]。例如,在“騰訊與盈訊糾紛案”中,法院認定涉案文章雖由Dreamwriter軟件生成,但其外在展現(xiàn)形式源于創(chuàng)作者的個性化設(shè)計與編排,具備獨創(chuàng)性,因此符合著作權(quán)法對文字作品的保護標準。這體現(xiàn)了人工智能生成物可能蘊含創(chuàng)造性,并存在侵犯改編權(quán)的風險。
在生成式人工智能技術(shù)的數(shù)據(jù)處理流程中,依據(jù)是否對輸入數(shù)據(jù)進行標記及處理方式的不同,其“機器學習”可被劃分為監(jiān)督學習、半監(jiān)督學習及無監(jiān)督學習三類[6]。盡管生成式人工智能常用的生成式對抗網(wǎng)絡(luò)(GANs)技術(shù)屬于無監(jiān)督學習范疇,不涉及數(shù)據(jù)標記過程,因此在直接的數(shù)據(jù)分析階段不直接觸犯改編權(quán),但無論是何種監(jiān)督程度的學習方式,均涉及對數(shù)據(jù)的篩選、組織及整合,這些行為在本質(zhì)上可視為一種“匯編”操作,有可能對原版權(quán)作品的匯編權(quán)構(gòu)成潛在侵犯[7]。
二、人工智能生成物的可版權(quán)性探究
探討AIGC的可版權(quán)性,對明確其法律地位、責任主體及后續(xù)保護措施具有重要意義。若AIGC具有可版權(quán)性,便意味著著作權(quán)人可能會突破至“人”以外的群體;若其不具有可版權(quán)性,則不應(yīng)被納入著作權(quán)保護范疇。當前,關(guān)于人工智能生成內(nèi)容的可版權(quán)性,尚無明確結(jié)論,主要爭議點在于其生成的內(nèi)容是否具有獨創(chuàng)性。
以美國為代表的版權(quán)體系國家,其著作權(quán)法對獨創(chuàng)性的探索歷史悠久,1903年的Bleistein案奠定了獨創(chuàng)性寬松判定的基礎(chǔ),即作品與既有作品間存在細微差異即可。然而,隨著法律演進,1991年的Feist案進一步調(diào)整了獨創(chuàng)性的判斷標準,對判斷標準進行細化,強調(diào)獨創(chuàng)性應(yīng)超越形式差異,蘊含基本的主觀創(chuàng)造性。2023年3月,美國版權(quán)局進一步明確,基于AI技術(shù)(如ChatGPT、Midjourney)自動生成的內(nèi)容不享有著作權(quán)保護,而人類使用軟件(如Photoshop)創(chuàng)作的圖像則受保護。這表明,美國更傾向于依據(jù)生成物的客觀特征與經(jīng)濟價值,來逆向推斷其獨創(chuàng)性,重視個性表達的微弱體現(xiàn)。相比之下,以德國為代表的作者權(quán)體系國家,則強調(diào)獨創(chuàng)性必須根植于作者的主觀能動性與思想創(chuàng)造,明確區(qū)分創(chuàng)造性智力活動與機械性勞動。依此標準,作品應(yīng)為作者人格之延伸,正如黑格爾所言“唯有通過心靈的創(chuàng)造性活動方能成就藝術(shù)”[8]。此標準排除了諸如臨摹、解題等機械勞動成果,認為它們未體現(xiàn)作者獨特的人格特征。
在我國,關(guān)于AIGC的版權(quán)性問題,存在三種主流觀點:第一,有學者認為AIGC僅是算法與模板的產(chǎn)物,缺乏人類精神活動的痕跡,難以構(gòu)成作品[9];第二,一些學者主張AIGC雖由算法生成,但其內(nèi)容與形式均受人類干預(yù),體現(xiàn)了人類意志,應(yīng)受版權(quán)保護[10];第三,鑒于人工智能的快速發(fā)展,部分學者認為這種趨勢會對現(xiàn)有著作權(quán)法律體系造成沖擊,故倡導(dǎo)對獨創(chuàng)性判斷標準及著作權(quán)歸屬機制進行必要調(diào)整以適應(yīng)技術(shù)發(fā)展[11]。
三、人工智能生成物的侵權(quán)主體確定
如上所述,不同著作權(quán)體系的國家對人工智能生成物獨創(chuàng)性的判斷標準并不統(tǒng)一,我國對AIGC的可版權(quán)性判斷,無論是學術(shù)界還是實務(wù)界均存在爭議。鑒于技術(shù)發(fā)展的復(fù)雜性與現(xiàn)行法律規(guī)定的限制性,AIGC確已引發(fā)著作權(quán)侵權(quán)問題,且無可避免,因此明確AIGC侵權(quán)主體對解決侵權(quán)問題具有重要意義。
(一)傳統(tǒng)網(wǎng)絡(luò)著作權(quán)侵權(quán)的主體及責任
在我國民法體系中,網(wǎng)絡(luò)侵權(quán)責任屬于特殊侵權(quán)責任的一種,其核心在于明確網(wǎng)絡(luò)服務(wù)提供者、被侵權(quán)人以及實際侵權(quán)人三者之間的法律關(guān)系架構(gòu)[12]。傳統(tǒng)網(wǎng)絡(luò)侵權(quán)行為主要指網(wǎng)絡(luò)用戶通過互聯(lián)網(wǎng)平臺侵犯他人合法權(quán)益,網(wǎng)絡(luò)用戶作為直接侵權(quán)者承擔主要責任,但當網(wǎng)絡(luò)服務(wù)提供者未盡到注意義務(wù)或未能采取適當措施有效遏制侵權(quán)行為時,也要承擔間接侵權(quán)責任。
根據(jù)《中華人民共和國民法典》第1194條的規(guī)定,網(wǎng)絡(luò)侵權(quán)損害賠償責任的判定遵循“過錯責任原則”,包括故意和過失兩種。網(wǎng)絡(luò)用戶及網(wǎng)絡(luò)服務(wù)提供者在故意狀態(tài)下違反保護他人權(quán)益的基本義務(wù),在過失狀態(tài)下則是對其應(yīng)盡注意義務(wù)的疏忽。根據(jù)《中華人民共和國民法典》的有關(guān)規(guī)定,網(wǎng)絡(luò)服務(wù)提供者還要遵循“通知—刪除”規(guī)則,用于評估網(wǎng)絡(luò)服務(wù)提供者是否充分履行了注意義務(wù)[13],并據(jù)此判斷其是否存在主觀過錯。著作權(quán)人發(fā)現(xiàn)網(wǎng)絡(luò)用戶侵犯其著作權(quán)后,可通知網(wǎng)絡(luò)服務(wù)提供者刪除相應(yīng)侵權(quán)內(nèi)容,網(wǎng)絡(luò)服務(wù)提供者接到通知后,須告知網(wǎng)絡(luò)用戶并采取行動,否則須對損害擴大部分承擔連帶責任。
(二)人工智能生成物的侵權(quán)主體確定
在探討人工智能生成物的侵權(quán)主體時,首要問題是人工智能是否具備作為法律主體來承擔侵權(quán)責任的能力。學界對此存在不同的觀點,包括完全主體資格、有限主體資格以及無主體資格等[14]。從技術(shù)維度審視,AIGC的侵權(quán)內(nèi)容實質(zhì)上是基于人類開發(fā)者精心設(shè)計的算法,由人工智能產(chǎn)品直接產(chǎn)出的結(jié)果。然而,無論是“智能算法”抑或是“智能化產(chǎn)品”,均屬于法律關(guān)系的客體范疇,缺乏成為法律主體的資格條件,故生成式人工智能本身無法被界定為侵權(quán)主體,亦不具備承擔侵權(quán)責任的法律能力。而法人和非法人組織之所以被法律認可為主體,源于其擁有理性從事法律活動的能力,能夠承擔民事法律后果,并展現(xiàn)積極認知與改造世界的能動性。反觀人工智能產(chǎn)品或智能算法,其所有活動均嚴格遵循人類開發(fā)者預(yù)設(shè)的技術(shù)邏輯與操作規(guī)范,處于人類技術(shù)控制之下,缺乏法律主體所必備的自主決策與意識能力。
在確定了人工智能產(chǎn)品本身不具有法律主體資格后,我們可以進一步分析傳統(tǒng)網(wǎng)絡(luò)侵權(quán)責任的主體。其一是網(wǎng)絡(luò)用戶,AIGC是由網(wǎng)絡(luò)用戶與AIGC服務(wù)提供者共同作用而產(chǎn)生的。盡管網(wǎng)絡(luò)用戶作為指令的發(fā)起者,在AIGC的創(chuàng)造過程中扮演關(guān)鍵角色,但是作為人工智能產(chǎn)品的消費者,他們往往對AIGC可能引發(fā)的侵權(quán)不承擔過錯責任。網(wǎng)絡(luò)用戶與AIGC服務(wù)提供者之間構(gòu)建起一種類似于“完工合同”的關(guān)系框架,在此框架下,若AIGC涉及版權(quán)糾紛,AIGC服務(wù)提供商則需承擔由此引發(fā)的違約責任。從合同關(guān)系的構(gòu)建維度審視,網(wǎng)絡(luò)用戶作為信賴利益的享有者,處于守約方地位,他們既無法預(yù)見也難以有效甄別AIGC輸出的侵權(quán)屬性,更無須承擔審查、比對或篩選潛在侵權(quán)內(nèi)容的法律義務(wù)。因此,司法機構(gòu)在界定侵權(quán)損害賠償?shù)呢熑沃黧w時,不宜將網(wǎng)絡(luò)用戶直接視為侵權(quán)行為的主體。然而,若網(wǎng)絡(luò)用戶在明知先前作品存在的情況下,故意利用人工智能產(chǎn)品重復(fù)生成與原作具有實質(zhì)性相似的內(nèi)容,則其行為應(yīng)被認定為積極的侵權(quán)行為,須承擔相應(yīng)的法律責任。
其二是生成式人工智能算法提供平臺。算法作為技術(shù)方案本身并不具備自主執(zhí)行能力,AIGC中侵權(quán)內(nèi)容的出現(xiàn),本質(zhì)上可歸因于人為干預(yù)乃至操控。具體而言,AIGC侵權(quán)內(nèi)容的產(chǎn)生首先依賴于AI算法設(shè)計者的技術(shù)奠基,隨后由生成式AI服務(wù)平臺作為媒介,通過網(wǎng)絡(luò)用戶的輸入操作激活算法,最終演化成AIGC侵權(quán)內(nèi)容并傳播至公共領(lǐng)域。相較于產(chǎn)品設(shè)計者,AIGC服務(wù)平臺作為直接面向市場的服務(wù)提供者,應(yīng)承擔更多侵權(quán)責任。這是因為設(shè)計者并不直接介入服務(wù)的提供過程,而AIGC服務(wù)平臺,作為商業(yè)運營的主體,對AI技術(shù)及算法的設(shè)計、優(yōu)化及市場投放擁有更高的控制權(quán)與決策權(quán)。值得注意的是,多數(shù)生成式AI產(chǎn)品依據(jù)著作權(quán)法被歸類為“職務(wù)作品”范疇[15],在此框架下,AIGC服務(wù)平臺不僅是產(chǎn)品的孵化者,還是面向公眾提供商業(yè)服務(wù)的服務(wù)者。綜上所述,AIGC服務(wù)平臺不僅為AI產(chǎn)品的誕生注入了資金與技術(shù)活力,還間接提供了侵權(quán)內(nèi)容產(chǎn)生的商業(yè)土壤,實質(zhì)上扮演了著作權(quán)侵權(quán)風險催生者的角色。因此,AIGC侵權(quán)內(nèi)容的涌現(xiàn)與其服務(wù)平臺的服務(wù)行為之間存在著直接的邏輯鏈條,在侵權(quán)行為里應(yīng)承擔直接侵權(quán)責任。作為風險的源頭,AIGC服務(wù)平臺在將AI技術(shù)推向市場之前,必須構(gòu)建健全的風險管理體系,預(yù)見潛在的損害并主動采取預(yù)防措施。
四、人工智能生成物的侵權(quán)救濟途徑
(一)事后救濟:明確AIGC的侵權(quán)責任分配
1.網(wǎng)絡(luò)用戶的侵權(quán)責任
AIGC侵權(quán)后,網(wǎng)絡(luò)用戶所應(yīng)承擔的侵權(quán)責任包含兩個方面:一是停止侵害;二是基于過錯責任進行損害賠償。就停止侵害責任而言,鑒于著作權(quán)作為民事權(quán)利中的絕對權(quán),故著作權(quán)人有權(quán)在遭受侵害時,要求侵權(quán)行為人終止侵害行為,包括停止任何進一步的利用和傳播侵權(quán)內(nèi)容的行為,同時網(wǎng)絡(luò)用戶一旦意識到AIGC構(gòu)成侵權(quán),亦應(yīng)立即停止侵害。
關(guān)于損害賠償責任的歸責,司法機構(gòu)應(yīng)以網(wǎng)絡(luò)用戶在AIGC生成及傳播過程中出現(xiàn)過錯為原則。通常而言,網(wǎng)絡(luò)用戶基于對AIGC服務(wù)提供者的信任而使用其人工智能產(chǎn)品,在AIGC生成過程中并不存在過錯,因此無須對侵權(quán)內(nèi)容負責。然而,當網(wǎng)絡(luò)用戶在使用該人工智能產(chǎn)品時,輸入了大量且具體的指令,使得生成內(nèi)容體現(xiàn)了用戶的明確表達而構(gòu)成侵權(quán)時,則應(yīng)承擔相應(yīng)損害賠償責任。在AIGC傳播過程中,若網(wǎng)絡(luò)用戶明知其利用和傳播的AIGC為侵權(quán)作品,卻仍繼續(xù)利用或傳播,且未采取措施防止損害擴大,則應(yīng)與AIGC服務(wù)提供者就損害擴大部分承擔連帶責任。根據(jù)《中華人民共和國民法典》規(guī)定,網(wǎng)絡(luò)服務(wù)提供者在履行注意義務(wù)且不知曉傳播內(nèi)容涉嫌侵權(quán),或在知曉后采取必要措施防止損害擴大的,可以免除其責任,而在AIGC侵權(quán)中網(wǎng)絡(luò)用戶對人工智能產(chǎn)品的掌控度明顯低于網(wǎng)絡(luò)服務(wù)提供者,因此網(wǎng)絡(luò)用戶可參照“避風港原則”主張免責。
2.網(wǎng)絡(luò)服務(wù)提供者的侵權(quán)責任
AIGC服務(wù)提供者兼具開發(fā)與服務(wù)雙重角色,對其設(shè)計研發(fā)的生成式人工智能更為了解,因此不宜將“避風港原則”作為其責任判定的基準,當AIGC侵權(quán)時,其應(yīng)承擔類似于原創(chuàng)“作者”的責任。以往,網(wǎng)絡(luò)著作權(quán)侵權(quán)責任的歸責原則以“過錯責任”為主,輔以“過錯推定原則”,然而作為新興社會性風險的引發(fā)者,AIGC服務(wù)提供者應(yīng)采用無過錯責任原則。其一,出于保護著作權(quán)人合法權(quán)益的考量,盡管AIGC服務(wù)提供者已竭力阻止侵權(quán)內(nèi)容生成,但風險依舊難以避免,并損害著作權(quán)人的利益,而采用過錯原則或過錯推定原則可能會導(dǎo)致著作權(quán)人的部分經(jīng)濟損失無法得到補償。其二,從社會風險合理分配的角度出發(fā),AIGC服務(wù)提供者采用無過錯責任原則,能更好地體現(xiàn)法律的理性與公正,它強調(diào)AIGC服務(wù)提供者必須對其平臺上侵權(quán)內(nèi)容的生成承擔明確的侵權(quán)責任。這一要求旨在促使AIGC服務(wù)提供者在當前的技術(shù)能力框架內(nèi),積極預(yù)防侵權(quán)行為的發(fā)生,并有效遏制侵權(quán)后果的蔓延,從而達成風險防控的合理化與責任分擔的公平性。
(二)事前救濟:建立數(shù)字版權(quán)管理系統(tǒng)
因復(fù)制成本低廉且收益頗豐,AIGC侵權(quán)行為頻發(fā)。盡管事后救濟可以在一定程度上捍衛(wèi)著作權(quán)人的權(quán)益,但其固有的缺陷如高昂的訴訟成本、有限的賠償額度以及侵權(quán)主體身份識別的困難,均對著作權(quán)人維權(quán)造成了阻礙。鑒于事后救濟的局限性,我們應(yīng)積極尋求借助現(xiàn)代科技力量,為人工智能創(chuàng)作作品的著作權(quán)人提供前置性保護措施,以期達到防患于未然的目的。
事前保護的核心在于遏制未經(jīng)授權(quán)的訪問與利用人工智能創(chuàng)作成果。為此,司法機構(gòu)可依托先進技術(shù)建立全面的數(shù)字版權(quán)保護框架,該框架通過加密與封裝技術(shù),將待保護的人工智能創(chuàng)作內(nèi)容置于安全屏障之內(nèi),并整合所有針對該內(nèi)容的訪問請求交由統(tǒng)一的數(shù)字版權(quán)管理系統(tǒng)中處理。著作權(quán)人能夠靈活設(shè)定訪問權(quán)限,系統(tǒng)依據(jù)預(yù)設(shè)條件自動審核并控制訪問權(quán)限的授予,從而在源頭上構(gòu)建起一道“電子防護網(wǎng)”,有效遏制非法獲取與使用行為,預(yù)先阻止?jié)撛谇謾?quán)的發(fā)生。為促進這一數(shù)字版權(quán)保護框架的有效運作,司法機構(gòu)首要任務(wù)是構(gòu)建一個標準化的著作權(quán)信息注冊體系,鼓勵并要求著作權(quán)人通過該平臺詳盡登記其作品信息,以官方認證的登記證書作為權(quán)屬確認的依據(jù)。這一舉措不僅明確了作品的權(quán)利歸屬,還為后續(xù)利用數(shù)字版權(quán)管理系統(tǒng)實施精準、高效的保護奠定了堅實基礎(chǔ)。
[參考文獻]
[1]肖婉婷,肖靈敏,馮鐘鳴.生成式人工智能產(chǎn)品版權(quán)保護問題研究:以ChatGPT為視角[J].對外經(jīng)貿(mào),2024(06):88-91.
[2]張凌寒.生成式人工智能的法律定位與分層治理[J].現(xiàn)代法學,2023(04):126-141.
[3]劉云開.人工智能生成內(nèi)容的著作權(quán)侵權(quán)風險與侵權(quán)責任分配[J/OL].西安交通大學學報(社會科學版),1-13[2024-07-15].http://kns.cnki.net/kcms/detail/61.1329.C.20240604.1353.004.html.
[4]徐小奔,楊依楠.論人工智能深度學習中著作權(quán)的合理使用[J].交大法學,2019(03):32-42.
[5]吳漢東.論人工智能生成內(nèi)容的可版權(quán)性:實務(wù)、法理與制度[J].中國法律評論,2024(03):113-129.
[6]趙宏偉,茹克婭·霍加.生成式AI背景下著作權(quán)侵權(quán)樣態(tài)及其風險治理[J].網(wǎng)絡(luò)安全與數(shù)據(jù)治理,2023(09):59-64.
[7]徐龍.機器學習的著作權(quán)困境及制度方案[J].東南學術(shù),2022(02):237-245.
[8]黑格爾.美學:第一卷[M].朱光潛,譯.北京:商務(wù)印書館,1979.
[9]劉影.人工智能生成物的著作權(quán)保護初探[J].知識產(chǎn)權(quán),2017(09):44-50.
[10]曹新明,咸晨旭.人工智能作為知識產(chǎn)權(quán)主體的倫理探討[J].西北大學學報(哲學社會科學版),2020(01):94-106.
[11]吳漢東.人工智能生成作品的著作權(quán)法之問[J].中外法學,2020(03):653-673.
[12]楊明.《侵權(quán)責任法》第36條釋義及其展開[J].華東政法大學學報,2010(03):123-132.
[13]吳漢東.論網(wǎng)絡(luò)服務(wù)提供者的著作權(quán)侵權(quán)責任[J].中國法學,2011(02):38-47.
[14]成素梅,高詩宇.智能機器人應(yīng)有法律主體資格嗎?[J].西安交通大學學報(社會科學版),2020(01):115-122.
[15]李偉民.職務(wù)作品制度重構(gòu)與人工智能作品著作權(quán)歸屬路徑選擇[J].法學評論,2020(03):108-124.
[作者簡介]李玉琦(2000—),女,山東濰坊人,山東科技大學碩士研究生。