谷永超, 趙 邁
(河南大學(xué)法學(xué)院,河南開封475001)
隨著科學(xué)技術(shù)的快速發(fā)展,人工智能已悄然進(jìn)入文學(xué)藝術(shù)創(chuàng)作領(lǐng)域,并獨(dú)立創(chuàng)作出許多令人贊嘆的作品,給文學(xué)藝術(shù)創(chuàng)作領(lǐng)域帶來了創(chuàng)新。與此同時(shí),人工智能也給現(xiàn)有的著作權(quán)刑法保護(hù)帶來了沖擊。例如,人工智能是否可以作為和自然人一樣的法律主體?其生成物是否應(yīng)當(dāng)受到刑法的保護(hù)?本文擬對(duì)這些問題進(jìn)行分析,以期助益于我國刑法對(duì)人工智能生成物著作權(quán)的保護(hù)。
按照《中華人民共和國刑法》 (以下簡(jiǎn)稱《刑法》) 第二百一十七條規(guī)定,侵犯著作權(quán)罪的犯罪對(duì)象是《中華人民共和國著作權(quán)法》 (以下簡(jiǎn)稱《著作權(quán)法》) 規(guī)定的作品,對(duì)于人工智能生成物能否被視為《著作權(quán)法》意義上的作品,學(xué)術(shù)界一直沒有定論,如有的學(xué)者認(rèn)為人工智能的運(yùn)作過程僅是數(shù)據(jù)和程序堆砌的結(jié)果,不能突顯作者個(gè)性,因而其生成物不是作品[1];有的學(xué)者則認(rèn)為人工智能工作過程中排除了人的參與,體現(xiàn)了人工智能的自主意識(shí),因而其生成物是作品[2]。由于人工智能在著作權(quán)法上的屬性不清,致使刑法難以介入。界定人工智能生成物的屬性時(shí),必須遵循正確的邏輯思維。依照傳統(tǒng)的著作權(quán)思路,只有人類的創(chuàng)作內(nèi)容才能被視為作品。在考察人工智能生成物是否屬于作品時(shí),不能太拘泥于主體要件,否則便會(huì)陷入邏輯悖論,即 “ 因?yàn)橹黧w不是人,所以相關(guān)內(nèi)容不是作品,因?yàn)橄嚓P(guān)內(nèi)容不是作品,所以它沒有作者和著作權(quán)歸屬 ”[1]。因此,我們先不考慮主體因素,而從形式和實(shí)質(zhì)角度去分析人工智能生成物是否應(yīng)被納入 “ 作品 ” 這一范疇。
從實(shí)質(zhì)上看,由《中華人民共和國著作權(quán)法實(shí)施條例》 (以下簡(jiǎn)稱《著作權(quán)法實(shí)施條例》) 第二條可知, “ 獨(dú)創(chuàng)性 ” 是衡量一個(gè)表達(dá)能否成為作品的根本標(biāo)準(zhǔn)。獨(dú)創(chuàng)性要求作品必須能夠體現(xiàn)創(chuàng)作者獨(dú)特的思考,然后通過創(chuàng)作者獨(dú)特的表達(dá)方式和技巧形成,不得對(duì)現(xiàn)有作品進(jìn)行抄襲或者實(shí)質(zhì)模仿。基于該標(biāo)準(zhǔn),人工智能生成物只要是由其自主思考完成的,就應(yīng)當(dāng)屬于《著作權(quán)法》意義上的作品范疇。申而論之, “ 獨(dú)創(chuàng)性 ” 的判斷應(yīng)該是純粹客觀的評(píng)價(jià),即僅以最后的生成物來判斷是否與既有表達(dá)重復(fù)。 “ 獨(dú)創(chuàng)性指稱、描述、限定的對(duì)象,是且僅是表達(dá)。 ”[3]只要最終投入市場(chǎng)的表達(dá)是獨(dú)一無二的,那該生成物就具有獨(dú)創(chuàng)性。至于表達(dá)背后所蘊(yùn)藏的作者的思想,不是判斷獨(dú)創(chuàng)性時(shí)應(yīng)該考慮的問題。按照思想與表達(dá)二分法的一般原理,無論作者在形成表達(dá)過程中的思想多么與眾不同,均與《著作權(quán)法》無關(guān),只有在抽象的思想具象為表達(dá)后,才有在著作權(quán)領(lǐng)域討論的可能性。在判斷獨(dú)創(chuàng)性時(shí)如果將考察范圍擴(kuò)至創(chuàng)作過程,實(shí)際上已經(jīng)超出了《著作權(quán)法》的規(guī)制范疇。由此可見,那些從人工智能生成過程來否定其獨(dú)創(chuàng)性的觀點(diǎn)犯了價(jià)值判斷優(yōu)于實(shí)質(zhì)判斷的錯(cuò)誤,他們其實(shí)不是在否定某個(gè)表達(dá)本身,而是在事后回溯整個(gè)創(chuàng)作過程而得出人工智能生成物不是作品的結(jié)論。至于那些從獨(dú)特思想、人格因素來否定獨(dú)創(chuàng)性的觀點(diǎn)錯(cuò)誤更加明顯[4]。如前所述,獨(dú)創(chuàng)性的判斷是實(shí)實(shí)在在地比較一個(gè)表達(dá)與現(xiàn)有表達(dá)是否重復(fù),而不是比較抽象意義上的情感、人格等因素。誠然,有些人工智能生成物是隨機(jī)產(chǎn)出的,可能存在邏輯難以自洽的問題,缺乏豐富、細(xì)膩的情感,在藝術(shù)水準(zhǔn)上有待提升,但是,這是評(píng)價(jià)一部作品優(yōu)劣的標(biāo)準(zhǔn),和判斷一個(gè)表達(dá)是否是作品無關(guān)。
從形式上看,人工智能生成物和人類的創(chuàng)作物并無不同。多數(shù)情形下讀者難以準(zhǔn)確判斷一個(gè)表達(dá)究竟是自然人創(chuàng)作的還是人工智能完成的。加利福尼亞大學(xué)的音樂教授戴維·科普曾經(jīng)開發(fā)出一套名為EMI 的模仿巴赫作曲風(fēng)格的電腦程序,在俄勒岡大學(xué)舉辦的一次公開較量中,他演奏了三支曲子——巴赫作品、EMI 制作的作品和當(dāng)?shù)氐囊晃灰魳穼W(xué)教授拉爾森的作品。最后的較量結(jié)果令人驚訝,聽眾把EMI 制作的當(dāng)作是真正的巴赫作品,把巴赫的作品當(dāng)作是拉爾森的作品,把拉爾森的作品當(dāng)作是電腦制作的。如果同樣一個(gè)表達(dá),自然人創(chuàng)作的被認(rèn)為是 “ 作品 ” ,人工智能創(chuàng)作的被認(rèn)為不是作品,這樣的結(jié)論于情于理都難以讓人信服。一方面,這會(huì)打擊人工智能研發(fā)者的熱情。人工智能生成物和人類的創(chuàng)作物形式上無任何區(qū)別,但卻得不到同等保護(hù),面對(duì)權(quán)利更易遭受侵犯的現(xiàn)實(shí),人工智能研發(fā)勢(shì)必會(huì)持續(xù)衰落。另一方面,相較于自然人創(chuàng)作的作品,使用人工智能創(chuàng)作物面臨的訴訟風(fēng)險(xiǎn)更小,市場(chǎng)會(huì)毫不猶豫地選擇后者。人類作者失去了競(jìng)爭(zhēng)優(yōu)勢(shì)和利益激勵(lì),其創(chuàng)作和表達(dá)的欲望會(huì)大大削減,藝術(shù)領(lǐng)域?qū)⒚媾R不可避免的頹敗和凋敝[5]。另外,這樣的判斷方式會(huì)變相鼓勵(lì)人們把人工智能生成物當(dāng)作自己的創(chuàng)作物投入市場(chǎng),打亂市場(chǎng)秩序,更加不利于法律管制。
綜上所述,從形式和實(shí)質(zhì)兩個(gè)層面分析,人工智能生成物均符合《著作權(quán)法》意義上的作品的要求,因此其應(yīng)該納入《著作權(quán)法》保護(hù)的范疇,進(jìn)而屬于侵犯著作權(quán)罪的犯罪對(duì)象。這是推動(dòng)文藝作品市場(chǎng)健康發(fā)展的必然選擇。
《刑法》將 “ 未經(jīng)著作權(quán)人許可 ” 作為侵犯著作權(quán)罪成立的必要條件,即如果行為人復(fù)制、發(fā)行或者出版他人作品時(shí)已獲得著作權(quán)人的許可,那么該行為就不構(gòu)成犯罪。與傳統(tǒng)的著作權(quán)權(quán)屬認(rèn)定相比,人工智能生成物的創(chuàng)作主體具有多元性,司法工作人員很難逐一確認(rèn)各參與主體的身份并審查行為人是否具有合法授權(quán)。人工智能生成物權(quán)利歸屬的模糊不清致使司法實(shí)踐中 “ 未經(jīng)許可 ” 的認(rèn)定十分復(fù)雜,甚至成了著作權(quán)刑事司法工作者的最大難題。確認(rèn)人工智能生成物的權(quán)利歸屬,對(duì)認(rèn)定著作權(quán)犯罪有舉足輕重的意義。一般來說,以人工智能的智能化程度為標(biāo)準(zhǔn),可以將其劃分為弱人工智能和強(qiáng)人工智能,不同類型人工智能的生成物具有不同的生成機(jī)制,進(jìn)而致使二者具有不同的權(quán)利歸屬主體。由于我們現(xiàn)在仍處于弱人工智能時(shí)代,所以討論著作權(quán)歸屬僅針對(duì)弱人工智能。
有學(xué)者主張?jiān)O(shè)立專門的電子人制度[6]。持該種觀點(diǎn)的學(xué)者認(rèn)為,當(dāng)前人工智能已然可以脫離人的操控,逐步實(shí)現(xiàn)自主化、意識(shí)化,不是純粹作為行為客體,因此在法律層面應(yīng)該承認(rèn)其主體地位。另外,國際社會(huì)也有設(shè)立電子人制度的先例,如2017 年10 月26 日,香港漢森機(jī)器人公司生產(chǎn)的機(jī)器人索菲亞被沙特阿拉伯授予了公民身份。然而目前人工智能應(yīng)用技術(shù)發(fā)展不夠成熟,如果賦予人工智能獨(dú)立的法律主體地位,由其享有生成物的著作權(quán),在實(shí)踐中難以得到有效規(guī)制。弱人工智能時(shí)代的人工智能沒有自己的意志,人工智能對(duì)特定事物的反應(yīng)、生成的音樂或者詩歌作品以及進(jìn)行的語音答復(fù)都只不過是人工智能設(shè)計(jì)者、使用者價(jià)值取向的反映,與人工智能的自我選擇無關(guān)。在此背景下,人工智能只是手段,不是目的。換言之,弱人工智能時(shí)代的人工智能只是人類處理事務(wù)的輔助工具,不具有自身獨(dú)立的思維方式。具備獨(dú)創(chuàng)性要素的人工智能作品表達(dá)來源是人工智能設(shè)計(jì)者和使用者的獨(dú)創(chuàng)性的智力勞動(dòng)[7]。人工智能技術(shù)的發(fā)展方興未艾,此時(shí)貿(mào)然設(shè)立新的制度恐過于激進(jìn)。因此,人工智能生成物的著作權(quán)理應(yīng)歸屬于人工智能背后的 “ 人 ” 。
在著作權(quán)的具體分配上,最優(yōu)路徑應(yīng)是將著作權(quán)賦予人工智能的所有者。弱人工智能時(shí)代,將著作權(quán)賦予人工智能本身并無意義,人工智能就其本身而言并無利益需求,也就無所謂是否得到精神刺激或者物質(zhì)滿足。為人工智能生成物設(shè)立法律保護(hù)其實(shí)歸根結(jié)底還是考慮到人工智能生成物的商業(yè)利益分配問題,以助益人工智能產(chǎn)業(yè)的良性發(fā)展。人工智能生成作品過程中涉及了多方主體,賦權(quán)給人工智能的所有者可以實(shí)現(xiàn)利益的最大化。一方面,版權(quán)制度要考慮經(jīng)濟(jì)性,將人工智能的所有權(quán)與其生成物的著作權(quán)分離,那所有權(quán)人的權(quán)益便形同虛設(shè)。如果在轉(zhuǎn)讓人工智能產(chǎn)品時(shí),還保留人工智能的著作權(quán),所有者后續(xù)使用人工智能生成物成本過高,理性消費(fèi)者勢(shì)必會(huì)拒絕購買人工智能。無法獲得經(jīng)濟(jì)回報(bào)的研發(fā)人員和設(shè)計(jì)人員會(huì)失去研發(fā)熱情,從而導(dǎo)致整個(gè)產(chǎn)業(yè)鏈的停滯不前。只有賦權(quán)給人工智能的所有者并保障其獲得收益的可能性,著作權(quán)法語境下的人工智能產(chǎn)業(yè)才會(huì)形成完整的鏈條[8]。另一方面,賦權(quán)給人工智能的所有者更能刺激消費(fèi),所有者在擁有人工智能之后可以通過行使著作權(quán)獲取收益和回報(bào),最大限度發(fā)揮人工智能的價(jià)值,從而激發(fā)消費(fèi)者購買人工智能的熱情,帶動(dòng)整個(gè)科技產(chǎn)業(yè)鏈的發(fā)展。另外,我國《著作權(quán)法》規(guī)定的著作權(quán)人除了公民以外還有法人和其他組織。當(dāng)人工智能的設(shè)計(jì)者并非基于個(gè)人意志而是代表法人或者其他組織的意志設(shè)計(jì)、生產(chǎn)人工智能時(shí),該法人或者組織是人工智能的所有者,人工智能生成物應(yīng)被視為該法人或組織意志的延伸,其生成物的著作權(quán)應(yīng)該歸屬于該法人或組織。
人工智能技術(shù)的飛速發(fā)展給我們的藝術(shù)生活領(lǐng)域帶來了活力,與此同時(shí),新的刑事風(fēng)險(xiǎn)也伴隨這種高級(jí)智能而來。人工智能生成作品的原理是對(duì)一個(gè)充斥著海量類似作品的數(shù)據(jù)庫進(jìn)行模仿、學(xué)習(xí)、再加工,但其在對(duì)這些類似作品進(jìn)行重組、學(xué)習(xí)時(shí)很可能沒有獲得著作權(quán)人的許可??萍紩r(shí)代人工智能很容易利用技術(shù)優(yōu)勢(shì)實(shí)施違法犯罪行為,并且著作權(quán)刑事司法工作者很難找到確切證據(jù)。面對(duì)新型侵權(quán)方式,《刑法》必須及時(shí)做出應(yīng)對(duì),為從刑事層面解決人工智能的侵權(quán)問題提供應(yīng)對(duì)之策。
現(xiàn)階段人工智能沒有類似于自然人的獨(dú)立意志,將其納入刑法規(guī)制的主體范疇沒有現(xiàn)實(shí)意義,因此,當(dāng)前人工智能引發(fā)的侵犯著作權(quán)案件,犯罪主體應(yīng)該是利用人工智能實(shí)施犯罪行為的自然人。一方面,人工智能是作為自然人的工具出現(xiàn)的,它始終依賴于數(shù)據(jù)、算法和規(guī)則,逃不出人類預(yù)設(shè)的程序。人工智能生成內(nèi)容是基于接收到的人類信息篩選、取舍的代價(jià)[9],既然它被人類操控,當(dāng)然應(yīng)該由 “ 背后之人 ” 為犯罪行為負(fù)責(zé)。另一方面,不從倫理、道德維度討論弱人工智能作為獨(dú)立的侵權(quán)主體的趨向,僅僅從責(zé)任向度出發(fā),人工智能亦無法在實(shí)施了侵犯他人的著作權(quán)行為之后獨(dú)立承擔(dān)法律責(zé)任。事實(shí)上,對(duì)受害人而言最重要的是自己的損失有沒有得到賠償,而不是誰來賠償損失。人工智能不是一個(gè)獨(dú)立的法律主體,沒有可供支配的、獨(dú)立的財(cái)產(chǎn),由自然人承擔(dān)責(zé)任更能保護(hù)受害人的利益。
根據(jù)現(xiàn)代刑法理論,侵犯著作權(quán)的犯罪主體應(yīng)該是人工智能的使用者,因?yàn)槭褂谜弑揪驼加小⑹褂萌斯ぶ悄?,天然地具有訴訟優(yōu)勢(shì)。但人工智能和普通工具相比更加智能,它甚至可以在某些方面完全替代人的行為。人工智能會(huì)使犯罪人以最低的成本獲得最大的利益,相較于一般的侵犯著作權(quán)犯罪,社會(huì)危害性更大且侵權(quán)主體多樣。另外,人工智能的侵權(quán)客體一般都不是單一作品,而是數(shù)個(gè)著作權(quán)人的作品集合,如微軟小冰為創(chuàng)作詩歌,整合、分析、學(xué)習(xí)了500 多位詩人的詩歌,因此在追責(zé)問題上不應(yīng)僅局限于使用者,對(duì)其他主體也應(yīng)進(jìn)行規(guī)制。人工智能的設(shè)計(jì)者是人工智能產(chǎn)生的源頭,嚴(yán)格設(shè)計(jì)者的責(zé)任對(duì)遏制人工智能犯罪更有效率。首先,在弱人工智能時(shí)代,無論最終如何利用人工智能都逃不脫程序之預(yù)設(shè)。所有的數(shù)據(jù)和程序都是為了完成特定任務(wù)而存在的,而完成特定任務(wù)的過程背后蘊(yùn)藏的是設(shè)計(jì)者的價(jià)值觀,攜帶著設(shè)計(jì)者價(jià)值觀的人工智能在運(yùn)算過程中實(shí)施了侵犯著作權(quán)的行為,設(shè)計(jì)者自然難辭其咎。其次,人工智能設(shè)計(jì)者一般都具有強(qiáng)大的技術(shù)優(yōu)勢(shì)和資金優(yōu)勢(shì),因此他們?cè)讷@取資料、數(shù)據(jù)等方面十分便利,為了給人工智能深度學(xué)習(xí)提供訓(xùn)練數(shù)據(jù),極可能未經(jīng)權(quán)利人許可以商業(yè)目的數(shù)字化非電子數(shù)據(jù)[10],此時(shí)應(yīng)該由設(shè)計(jì)者承擔(dān)刑事責(zé)任。如果使用者在使用該人工智能生成作品時(shí),知道或應(yīng)當(dāng)知道數(shù)據(jù)庫中包含大量侵權(quán)作品,那就有可能和設(shè)計(jì)者構(gòu)成共同犯罪。
人工智能的使用者和設(shè)計(jì)者對(duì)人工智能而言是首要的 “ 倫理責(zé)任者 ” 與 “ 安全守護(hù)者 ” ,也是智能主體刑事風(fēng)險(xiǎn)的首要來源[11],最有可能及時(shí)遏制犯罪行為。在罪名確定方面,除了侵犯著作權(quán)罪之外,可考慮在刑法分則條文中增設(shè)新的罪名,明確人工智能設(shè)計(jì)者與使用者的預(yù)見義務(wù)和監(jiān)督義務(wù)。設(shè)計(jì)者應(yīng)該在設(shè)計(jì)之初對(duì)可能發(fā)生的刑事風(fēng)險(xiǎn)進(jìn)行預(yù)估,同時(shí)使用者作為人工智能的控制主體應(yīng)該承擔(dān)一定的監(jiān)督義務(wù)。當(dāng)人工智能實(shí)施了侵犯著作權(quán)的犯罪行為時(shí),除了追究直接利用人工智能實(shí)施犯罪的主體侵犯著作權(quán)罪的刑事責(zé)任外,還應(yīng)追究未履行預(yù)見、監(jiān)督義務(wù)的設(shè)計(jì)者或使用者的刑事責(zé)任。當(dāng)然,囿于一定時(shí)期內(nèi)人類認(rèn)知水平的有限性,這種預(yù)見義務(wù)和監(jiān)督義務(wù)不能無限擴(kuò)張,應(yīng)以設(shè)計(jì)者和使用者在設(shè)計(jì)當(dāng)時(shí)和使用當(dāng)時(shí)的人工智能技術(shù)的發(fā)展水平為標(biāo)準(zhǔn)來評(píng)判犯罪行為發(fā)生時(shí)設(shè)計(jì)者和使用者是否盡到了預(yù)見、監(jiān)督義務(wù)。
另外,我國現(xiàn)行的刑罰體系不能完全適用于人工智能,雖然人工智能本身不承擔(dān)刑事責(zé)任,但是司法實(shí)踐中也不能忽視對(duì)涉案人工智能的處理。人工智能 “ 黑箱 ” 是客觀存在的,這個(gè) “ 黑箱 ” 中的運(yùn)算程序如果沒有倫理和法律的束縛,極有可能造成不可控的惡果。目前的刑罰體系應(yīng)該做出相應(yīng)修改以期符合人工智能的發(fā)展需求,可以考慮增設(shè)刪除數(shù)據(jù)、修改程序、永久銷毀等處理手段[12]。刪除數(shù)據(jù)是針對(duì)初犯并且沒有造成嚴(yán)重后果的人工智能,抹去其 “ 犯罪記憶 ” 并輸入正面的數(shù)據(jù),達(dá)到 “ 教育 ” 的目的;修改程序是針對(duì)那些多次被刪除數(shù)據(jù)以后仍無法改正的人工智能,這種人工智能僅通過刪除犯罪數(shù)據(jù)已無法達(dá)到遏制犯罪行為的目的,只能從根本上修改其程序,從而限制它的學(xué)習(xí)能力;永久銷毀相當(dāng)于死刑,是針對(duì)那些 “ 人身危險(xiǎn)性 ” 較高并造成嚴(yán)重社會(huì)危害性的人工智能,這種人工智能已經(jīng)無法挽救只能永久性銷毀。根據(jù)人工智能的可改造性程度不同建立刑罰階梯,體現(xiàn)刑罰的層次性。
在弱人工智能時(shí)代,人工智能的智能化程度還未達(dá)到可以單獨(dú)作為法律主體的地步,如同 “ 中文屋 ” 中那個(gè)只懂英文的人,他對(duì)中文一竅不通,但在規(guī)則操控下仍可以與門外的人正常交流。人工智能生成物雖然可以認(rèn)定為作品,其運(yùn)行原理和自然人的思維活動(dòng)具有相同的邏輯進(jìn)程,然而形式化的程序和字符決定了人工智能無法真正理解其生成的內(nèi)容。因此,不論是著作權(quán)享有還是刑事責(zé)任承擔(dān)都應(yīng)歸屬于自然人。人工智能技術(shù)的快速迭代直接沖擊了傳統(tǒng)的倫理、道德觀念和法律制度。為妥善解決人工智能帶來的各種問題,必須對(duì)人工智能生成物的著作權(quán)問題進(jìn)行深入分析,以解決司法實(shí)踐中面對(duì)新興技術(shù)的無措。為適應(yīng)人工智能的不斷變革,可以考慮合理增設(shè)新的罪名以及新的刑罰措施以滿足司法實(shí)務(wù)的迫切需求,但要注意在法律變革時(shí)避免見招拆招式的被動(dòng)性,應(yīng)立足于科學(xué)性和長(zhǎng)遠(yuǎn)性,循序漸進(jìn)地做出改變,以順應(yīng)科技的發(fā)展。