史繼紅
ChatGPT(Chat Generative Pre- trained Transformer),是美國人工智能研究實驗室OpenAI推出的人工智能技術(shù)驅(qū)動的語言處理工具,它通過連接大量的語料庫來訓(xùn)練模型,因此擁有遠超人類的語言理解和文本生成能力,它不單能流暢地與人聊天,還能完成撰文寫詩、繪畫視頻、製訂方案、翻譯編碼等任務(wù)。
2023年一月,ChatGPT的月活用戶已突破1億,成為史上增長最快的消費者應(yīng)用。2023年2月2日,微軟官方公告表示,旗下所有產(chǎn)品將全線整合ChatGPT,除此前宣佈的搜索引擎必應(yīng)、Office外,微軟還將在雲(yún)計算平臺Azure中整合ChatGPT,Azure的OpenAI服務(wù)將允許開發(fā)者訪問AI模型。
但與此同時,IT業(yè)的領(lǐng)軍者擔(dān)心,ChatGPT已經(jīng)被黑客們用於策劃網(wǎng)絡(luò)攻擊時使用。另有調(diào)查顯示,截止2023年1月,美國89%的大學(xué)生都是用ChatGPT做作業(yè),巴黎政治大學(xué)宣佈,該校已向所有學(xué)生和教師發(fā)送電子郵件,要求禁止使用ChatGPT等一切基於AI的工具,旨在防止學(xué)術(shù)欺詐和剽竊,多家學(xué)術(shù)期刊發(fā)表聲明,完全禁止或嚴(yán)格限制使用ChatGPT等人工智能機器人撰寫學(xué)術(shù)論文。因為他們認為:使用ChatGPT完成作業(yè)和寫論文是不道德和不健康的學(xué)習(xí)方式,常用ChatGPT的學(xué)生們逐漸失去自主思考的能力。所以,這類人工智能技術(shù)可能為商業(yè)和民生帶來顛覆性的機遇,但同時也伴隨著巨大的風(fēng)險。
在ChatGPT及其他AI智能應(yīng)用產(chǎn)品火爆全球,資本紛紛嗅機而動之際,我們今天卻是來潑一瓢冷水的。在經(jīng)濟不景氣,裁員很嚴(yán)重的今天,絕大部分普通人不會因ChatGPT的火爆興奮,而是非常擔(dān)憂,我們法律人也不例外。方案文本創(chuàng)作等這類的工作被智能取代了,還能有我們坐在電腦前的人什麼事兒呢?我們就來談?wù)劮娠L(fēng)險,盤點一下還真不少,完全有可能拖一下ChatGPT或類似AI應(yīng)用的「後腿」。
侵害他人著作權(quán)
討論這個問題之前,我們先要弄清楚,如果ChatGPT創(chuàng)作的具有個性化的作品有著作權(quán)的話,誰是作者?這和誰是著作權(quán)人是兩個概念。作者是指文學(xué)、藝術(shù)和科學(xué)作品的創(chuàng)作人,根據(jù)《著作權(quán)法》的規(guī)定,作者按照以下標(biāo)準(zhǔn)進行認定:創(chuàng)作作品的公民(自然人)是作者,這是作者最基本的認定原則。就算是職務(wù)創(chuàng)作或者其他繼受原因使非自然人拿到了著作權(quán),但按以往的樸素理解,最先創(chuàng)作的一定是一個或若幹個自然人。所以,不少法律專家認為ChatGPT生成的文本等內(nèi)容是基於大量數(shù)據(jù)的統(tǒng)計和應(yīng)用生成的,首先,它不是人,不是著作權(quán)法意義上的創(chuàng)作者,不具有自己的思想和創(chuàng)新,很難構(gòu)成著作權(quán)法保護的作品,皮之不存,毛將附焉。ChatGPT作品是智能機器模仿人類創(chuàng)作的成果,其創(chuàng)作過程和創(chuàng)作結(jié)果與人類創(chuàng)作類似,但是AI並非理性人,它沒有創(chuàng)作動機,也無自己的創(chuàng)意表達,其創(chuàng)作並非表達思想,而是在虛擬空間從大量輸入作品中發(fā)現(xiàn)規(guī)律,生成模板,利用算法組合素材的機械過程,所以,ChatGPT不是作者,其生成的內(nèi)容不能受著作權(quán)法的規(guī)制。
雖然司法界存在不同的聲音,比如深圳南山法院在審理騰訊訴盈訊案中,認可了騰訊利用智能寫作Dreamwriter創(chuàng)作的,被發(fā)佈在互聯(lián)網(wǎng)上的文章著作權(quán)人為騰訊,但在菲林律所訴百度公司案中,北京互聯(lián)網(wǎng)法院不認可菲林對其利用智能可視化軟件自動生成的報告享有著作權(quán)。但主流仍傾向於認定人工智能生成物無法獲得版權(quán)保護。如2019年,國際保護知識產(chǎn)權(quán)協(xié)會(AIPPI)發(fā)佈《人工智能生成物的版權(quán)問題決議》,認為人工智能生成物在其生成過程中有人類幹預(yù),且該生成物符合受保護作品應(yīng)滿足的其他條件情況下,能夠獲得保護,對於生成過程無人類幹預(yù)的人工智能生成物無法獲得版權(quán)保護。
《暨南學(xué)報(哲學(xué)社會科學(xué)版)》發(fā)佈關(guān)於使用人工智能寫作工具的說明提到,暫不接受任何大型語言模型工具(例如:ChatGPT)單獨或聯(lián)合署名的文章。在論文創(chuàng)作中使用過相關(guān)工具,需單獨提出,並在文章中詳細解釋如何使用以及論證作者自身的創(chuàng)作性。如有隱瞞使用情況,將對文章直接退稿或撤稿處理。
非但如此,ChatGPT生成的文本等,其來源主要靠海量的他人作品數(shù)據(jù)挖掘技術(shù),其內(nèi)容為人使用,還可能侵犯別人的著作權(quán),因為這類人工智能可能未經(jīng)過權(quán)利主體授權(quán),「借鑒」了一些受著作權(quán)保護的文本、視頻、代碼等,直接獲取複制到自己的數(shù)據(jù)庫中,並在此基礎(chǔ)上進行模仿、修改、拼湊。對於這部分內(nèi)容,若不能構(gòu)成中國著作權(quán)法所規(guī)定的「合理使用」的情形,則可能引發(fā)侵權(quán)糾紛。不過另人擔(dān)憂的是,筆者認為,隨著ChatGPT等人工智能技術(shù)的發(fā)展,系統(tǒng)和算法會自動優(yōu)化分析和處理,使其生成的文本和內(nèi)容繞開跟原有作品相同或相似的表達,從而規(guī)避侵害著作權(quán)的風(fēng)險,但源生根本,如果人類創(chuàng)作者認為絞盡腦汁的創(chuàng)作還不如一個人工智能,創(chuàng)作動力會大大減弱,缺少人的創(chuàng)作,ChatGPT的發(fā)展是不是會遇到瓶頸呢?另外,ChatGPT在建立語料庫、生成文本時,如果使用了非公開的開源代碼,或使用開源代碼商用未辦理許可的,也可能會導(dǎo)致侵權(quán)。
信息合規(guī)化問題及泄露風(fēng)險
ChatGPT對挖掘的信息、數(shù)據(jù)來源無法進行事實核查,可能存在個人數(shù)據(jù)與商業(yè)秘密泄露和提供虛假信息的隱患。
ChatGPT生成文本依托海量數(shù)據(jù)庫信息挖掘加工,包括大量的互聯(lián)網(wǎng)用戶自行輸入的信息,這就引發(fā)了一些問題,當(dāng)用戶輸入個人數(shù)據(jù)或商業(yè)秘密等信息時,ChatGPT將其納入自身的語料庫而產(chǎn)生泄露個人隱私及商業(yè)秘密的風(fēng)險。雖然ChatGPT承諾刪除所有個人身份信息,但未說明篩查、刪除或屏蔽方式,未精細匿名化處理可識別的自然人的相關(guān)信息,也不能完全判斷商業(yè)信息是公開信息還是非公開信息,這類信息仍然具有泄露風(fēng)險。
另外,如果C h a t G P T挖掘的數(shù)據(jù)信息是不準(zhǔn)確的,甚至有不法分子惡意訓(xùn)練人工智能,使其提供詐騙信息、釣魚網(wǎng)站等內(nèi)容,需要一定的專業(yè)知識才能辨別真?zhèn)畏丛p,這類辨別與反詐等安全監(jiān)管系統(tǒng)有漏洞的,很可能有損害公民、企業(yè)人身、財產(chǎn)安全。這需要ChatGPT或其他AI系統(tǒng)加強監(jiān)管安全方面的處理,對生成疑似違法信息時進行攔截或提示用戶存在安全風(fēng)險。
山寨ChatGPT亂相迭生
不少商家也瞅準(zhǔn)大「商機」,亂搶「一杯羹」。有媒體就提醒,中國迅速出現(xiàn)了一批名字中包含「ChatGPT」的微信公眾號、小程序產(chǎn)品,這些產(chǎn)品的服務(wù)方式大多先讓你免費試用,次數(shù)用盡,就開始按使用條數(shù)或者時間收取費用,而且往往「一經(jīng)購買,概不退換」。
這種山寨ChatGPT費用一點不便宜,OpenAI為每個注冊賬號提供18美元額度,可以供用戶與ChatGPT進行大約3600次對話;而在一些山寨公司的服務(wù)中,免費對話僅4次,當(dāng)免費的對話次數(shù)額度用盡後,系統(tǒng)就提示需充值額度後才可繼續(xù)使用,充值額度分為9.99元20次、199.99元3000次等,最高檔為999.99元無限次對話額度,有效期一年需要支付。而該些服務(wù)賬號中,有點良心的,是讓用戶通過直聯(lián)OpenAI的接口所獲得服務(wù),沒良心的,壓根貨不對板,使用的是其他開發(fā)的仿制對話模型,往往存在回復(fù)延遲較長、內(nèi)容出現(xiàn)低級錯誤等問題,屬於完全的山寨,購買這類產(chǎn)品的用戶就是上當(dāng)受騙。
社會與國家安全問題
前面已述不法分子可以訓(xùn)練ChatGPT進行詐騙犯罪活動,同樣也可以在使用者失去自行查閱不同搜索結(jié)果並自行判斷的機會時,可以通過訓(xùn)練ChatGPT實現(xiàn)信息與答案的相對壟斷,ChatGPT便容易成為輿情的操縱工具?,F(xiàn)網(wǎng)絡(luò)犯罪分子已經(jīng)在嘗試使用ChatGPT創(chuàng)建惡意軟件,雖然黑客攻擊通常需要高水平的編程知識,但ChatGPT提供了廉價幫助。
中國2022年出臺的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》中明確要求,人工智能的算法應(yīng)當(dāng)堅持社會主義主流價值觀,不能利用算法危害國家安全和社會公共利益、擾亂經(jīng)濟秩序和社會秩序、侵犯他人合法權(quán)益。今年1月10日起施行的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》中明確,任何組織和個人不得利用深度合成服務(wù)制作、複制、發(fā)佈、傳播法律、行政法規(guī)禁止的信息,不得利用深度合成服務(wù)從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經(jīng)濟和社會秩序、侵犯他人合法權(quán)益等法律、行政法規(guī)禁止的活動。
為了國家與社會安全,為了合法財產(chǎn)安全,對人工智能監(jiān)管,需要深入人工智能系統(tǒng)整個生命周期的每個具體環(huán)節(jié),貫穿在模型的建立、語料庫的標(biāo)注、模型訓(xùn)練、投放市場後的迭代優(yōu)化中。此外,還包括語料庫的篩選標(biāo)準(zhǔn)、參與人工監(jiān)察的人員培訓(xùn)規(guī)程的制定,還需要加強對人工智能的倫理規(guī)制,積極引導(dǎo)對價值觀、道德觀負責(zé)任的人工智能研發(fā)與應(yīng)用活動,促進人工智能健康發(fā)展。