祝洛斌
青島科技大學(xué),山東 青島 266061
2023 年由OpenAI 發(fā)布的ChatGPT 在互聯(lián)網(wǎng)中大火,將生成式人工智能一時間推上風(fēng)口浪尖,ChatGPT 在2022 年推出之初,并未如此引人關(guān)注。同時期的生成式人工智能軟件還有Midjourney,該兩款軟件為當(dāng)下生成式人工智能的代表作品,一款為語言對話類軟件,另一款為畫圖類軟件。令人驚訝的是無論對話類還是畫圖類軟件,生成式人工智能的發(fā)展遠(yuǎn)超乎我們想象。
OpenAI 對ChatGPT 的研究發(fā)展實則早已于2018 年開始,彼時的人工智能軟件多數(shù)處于大數(shù)據(jù)訓(xùn)練階段,從ChatGPT3.0 版本面世后,才開始真正引發(fā)大家關(guān)注。該語言對話模型的智能程度雖然未能和人類相似,但也遠(yuǎn)超于之前所有的對話類人工智能軟件。用戶不僅僅可以與其正常對話,也可以糾正其錯誤,并且引導(dǎo)其學(xué)習(xí),最終獲得更為智能的問答。例如,可以讓其模仿寫作、撰寫代碼等。之后發(fā)布的ChatGPT4.0 版本中,其智能程度愈加先進(jìn),在與其對話時,其所展現(xiàn)的不再是之前大多數(shù)對話模型所產(chǎn)生的割裂感,而是向世人展示出相當(dāng)于人類的對話思路、答案。
生成式人工智能的發(fā)展速度是讓人驚訝的,每一次的模型迭代升級,都會默默改變我們未來的生活,但同時其帶來的風(fēng)險也不容小覷。2023 年3 月,包括特斯拉創(chuàng)始人埃隆·馬斯克在內(nèi)的千名專家公開呼吁暫停訓(xùn)練ChatGPT4.0 后續(xù)數(shù)據(jù)模型至少6個月并簽署公開信,其后,同年4 月11 日我國國家互聯(lián)網(wǎng)信息辦公室公開發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》。我國各大科技公司在ChatGPT 爆火后,陸續(xù)公布自身旗下的生成式人工智能產(chǎn)品,但是該類型產(chǎn)品未來會發(fā)展到何種程度,我們不得而知,不過其已對目前已有的法律體系造成了重大的影響。本文將從生成式人工智能的工作原理簡要剖析,進(jìn)一步分析可能產(chǎn)生的法律風(fēng)險,并提出應(yīng)對措施。
生成式人工智能采用深度合成技術(shù),其基于機(jī)器學(xué)習(xí)方法從海量的數(shù)據(jù)庫中學(xué)習(xí),同時進(jìn)行糾錯訓(xùn)練,再從數(shù)據(jù)庫中選擇并生成相對應(yīng)的內(nèi)容。根據(jù)OpenAI 公司官網(wǎng)介紹,ChatGPT 是一個大型的語言訓(xùn)練模型產(chǎn)生的內(nèi)容生成器,工作時首先通過其核心算法模擬人類語言規(guī)則,其次便是在該算法的基礎(chǔ)上進(jìn)行神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí),在學(xué)習(xí)的過程之中利用海量的數(shù)據(jù)輸入進(jìn)行訓(xùn)練,最終達(dá)到當(dāng)下可以在人類語言規(guī)則基礎(chǔ)上輸出內(nèi)容的目的。通過與用戶對話的方式可以糾正其錯誤,最終用戶便可得到其想要的相關(guān)答案,使用ChatGPT 時輸入的資料可以是語言文本、圖片圖像、計算機(jī)代碼等。自ChatGPT 爆火以來,國內(nèi)外互聯(lián)網(wǎng)公司的很多軟件都宣傳接入其端口,大量學(xué)者盛贊其足以改變世界,但在其飛速發(fā)展的背后,存在的風(fēng)險被提及的少之又少。眾所周知,法律的現(xiàn)實問題之一就是具有滯后性,目前科技所帶來的挑戰(zhàn)正在浮現(xiàn),各國已經(jīng)陸續(xù)開始針對生成式人工智能進(jìn)行一定的規(guī)制,因此,以下將針對生成式人工智能的主要工作原理對其風(fēng)險進(jìn)行簡要分析。
1.侵犯個人網(wǎng)絡(luò)數(shù)據(jù)及商業(yè)秘密安全
規(guī)避生成式人工智能所帶來的風(fēng)險可以從生成式人工智能的工作原理下手。首先從其輸入信息開始,ChatGPT 的對話水平能達(dá)到現(xiàn)在的擬人程度,其需要海量的數(shù)據(jù)進(jìn)行訓(xùn)練,對于該訓(xùn)練數(shù)據(jù)以及使用時其作出的多數(shù)回答,都需要引用現(xiàn)成的網(wǎng)絡(luò)數(shù)據(jù),但該訓(xùn)練數(shù)據(jù)OpenAI 公司并沒有披露其來源。在當(dāng)下的互聯(lián)網(wǎng)時代,我國對于個人網(wǎng)絡(luò)數(shù)據(jù)的保護(hù),主要依靠于《網(wǎng)絡(luò)安全法》、《中華人民共和國個人信息保護(hù)法》(以下簡稱《個人信息保護(hù)法》),其中《個人信息保護(hù)法》第十三條規(guī)定,處理個人信息需要取得本人同意。而目前生成式人工智能的特點便是前期需要海量數(shù)據(jù)訓(xùn)練,如果其在網(wǎng)絡(luò)數(shù)據(jù)中搜集個人信息進(jìn)行訓(xùn)練,則不可能獲得每個人的同意,若訓(xùn)練所用的數(shù)據(jù)為公共網(wǎng)絡(luò)平臺的開放數(shù)據(jù),其也可能侵犯《個人信息保護(hù)法》中第二十七條、第三十五條等規(guī)定,原因在于,其對于公開個人信息的訓(xùn)練使用是否在合理范圍內(nèi)、是否會對個人權(quán)益造成重大影響等均是不可知的,因為生成式人工智能存在算法黑箱,無法得知其所搜集的數(shù)據(jù)來源,包括我國已經(jīng)公布的生成式人工智能平臺也未對訓(xùn)練數(shù)據(jù)的出處做出詳細(xì)說明[1]。
除去關(guān)乎個人隱私的數(shù)據(jù)之外,還有多數(shù)公司的商業(yè)秘密同樣可能受到侵犯。用戶在使用ChatGPT 時,通常是通過對話交互的方式來進(jìn)行,而與其交流時用戶所提供的信息同樣會變成其學(xué)習(xí)的資源。之后其他用戶再使用ChatGPT 時,其可能會借助于以往用戶所輸入的信息進(jìn)行回答,同時根據(jù)OpenAI 中ChatGPT 使用協(xié)議第3(c)條“為了幫助OpenAI 提供和維護(hù)服務(wù),您同意并指示我們可以使用內(nèi)容來開發(fā)和改進(jìn)服務(wù)。您可以在這里閱讀更多內(nèi)容,了解如何使用內(nèi)容來提高模型性能”,表明了OpenAI 對用戶所輸入的信息會進(jìn)行訓(xùn)練利用。若用戶在使用ChatGPT時輸入相關(guān)公司商業(yè)秘密,便有可能出現(xiàn)泄露的風(fēng)險。例如,2023 年4 月某星電子公司在引入ChatGPT 不到20 天便發(fā)生了3 起相關(guān)的商業(yè)秘密泄露事件,其中包括半導(dǎo)體相關(guān)代碼以及會議記錄。該次事件體現(xiàn)了目前生成式人工智能對數(shù)據(jù)使用的規(guī)范存在漏洞。當(dāng)此類應(yīng)用開始大規(guī)模推廣,更多公司機(jī)構(gòu)開始接入ChatGPT 時,必然出現(xiàn)更多的商業(yè)秘密或是國家機(jī)密泄露的風(fēng)險。
2.侵犯他人知識產(chǎn)權(quán)風(fēng)險
根據(jù)《中華人民共和國著作權(quán)法》中的相關(guān)規(guī)定,著作權(quán)的創(chuàng)作主體為自然人,因此,依據(jù)現(xiàn)有法律規(guī)定,ChatGPT 等生成式人工智能無法取得著作權(quán)[2]。但是,在學(xué)界中針對這一問題尚存在相當(dāng)?shù)臓幾h。同時在實務(wù)當(dāng)中,以廣東省深圳市南山區(qū)人民法院(2019)粵0305 民初14010 號判決書為例,2019 年某訊訴上海某盈科技有限公司,法院認(rèn)定某訊旗下D 軟件所生成的文章具有獨創(chuàng)性,即在獨立創(chuàng)作及外在表現(xiàn)上是否與已有作品存在一定程度的差異或具備最低程度的創(chuàng)造性上進(jìn)行分析判斷,該文章具有獨創(chuàng)性,故承認(rèn)其受到相應(yīng)的著作權(quán)保護(hù)。對于生成式人工智能是否能取得著作權(quán),實踐中存在較多爭議,本文便不做討論,此處僅從其使用過程中可能造成的對著作權(quán)等知識產(chǎn)權(quán)的侵犯風(fēng)險進(jìn)行分析。
按照生成式人工智能的工作原理,整個運行流程由三方共同參與,即軟件方平臺方、訓(xùn)練該軟件者或者是提供生成特殊圖像文字作品的代碼提供者以及最終的使用方。若最終的作品存在侵權(quán),則很難對這三方進(jìn)行責(zé)任劃分。在訓(xùn)練與使用生成式人工智能軟件之時,通常我們會使用大量現(xiàn)成的圖像或者是文字作品;對于已經(jīng)發(fā)行的作品,若人工智能自行索取或是被人惡意進(jìn)行投放訓(xùn)練,這是否會侵犯該作品作者的著作權(quán)、其產(chǎn)生的作品又是否與其用于訓(xùn)練的作品版權(quán)相關(guān)等問題都值得深思。
3.生成內(nèi)容虛假、違法風(fēng)險
自從互聯(lián)網(wǎng)時代蓬勃發(fā)展開始,網(wǎng)絡(luò)謠言、網(wǎng)絡(luò)暴力等不良現(xiàn)象層出不窮。生成式人工智能所產(chǎn)出的作品,因其特點所產(chǎn)生的虛假違法信息的傳播風(fēng)險更大。依然從ChatGPT 的運行機(jī)制來看,使用大量數(shù)據(jù)進(jìn)行訓(xùn)練時,若對數(shù)據(jù)信息沒有強(qiáng)有力的監(jiān)管,輸入進(jìn)行訓(xùn)練的數(shù)據(jù)存在違法違規(guī),那所得出的內(nèi)容也常常存在著虛假違法的風(fēng)險。雖然OpenAI 在宣傳ChatGPT 時特別說明了其核心算法處于中立,并且屏蔽了色情、暴力、歧視等內(nèi)容[3]。但在實際使用之中,使用者依然可以通過誘導(dǎo)等手段,使ChatGPT 輸出不良信息,突破本身算法所約束的規(guī)定。同時,ChatGPT 在遇到部分問題時,可能會直接編造答案,讓人真假難辨,該類信息若經(jīng)過傳播極有可能造成大規(guī)模虛假信息蔓延。隨著生成式人工智能的不斷發(fā)展進(jìn)步,類似的風(fēng)險若沒有及時得到規(guī)避,可能會讓網(wǎng)絡(luò)環(huán)境愈發(fā)糟糕。
若國外生成式人工智能全面進(jìn)入我國開展經(jīng)營活動,或是我國同類軟件可以達(dá)到相近的智能程度,其產(chǎn)生的各類風(fēng)險是不可避免的。因此,現(xiàn)階段應(yīng)當(dāng)依據(jù)生成式人工智能的特點,作出針對性的規(guī)定,對相關(guān)法律解釋進(jìn)行詳盡的規(guī)制。下文將對可能存在的問題提出相應(yīng)的解決思路。
對于生成式人工智能所帶來的挑戰(zhàn),我們應(yīng)當(dāng)積極應(yīng)對。由于法律具有滯后性,這導(dǎo)致當(dāng)下多數(shù)生成式人工智能都缺乏法律的規(guī)制,因此我們應(yīng)當(dāng)從立法入手。2023 年4 月,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》,這是我國首部針對生成式人工智能制定的法律法規(guī),但其中多數(shù)細(xì)則是引用當(dāng)下現(xiàn)成的法律,這對于復(fù)雜新穎的生成式人工智能是遠(yuǎn)遠(yuǎn)不夠的。例如其中第二條提到,“本辦法所稱生成式人工智能,是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)”。根據(jù)該條我們不難看出,是對于幾乎所有類型的生成式人工智能類型統(tǒng)一進(jìn)行規(guī)制,但文本圖片與代碼的生成邏輯、技術(shù)等具有非常大的差別,因此對生成式人工智能的規(guī)制需要分類進(jìn)行。從技術(shù)角度出發(fā),針對每類不同的特點進(jìn)行更加細(xì)致的規(guī)定,以保障生成式人工智能的平穩(wěn)發(fā)展;也可以從整個產(chǎn)業(yè)鏈進(jìn)行分區(qū)治理,生成式人工智能主體為內(nèi)容生成者、內(nèi)容服務(wù)平臺、內(nèi)容服務(wù)使用者,對于生成式人工智能的立法規(guī)制,絕不是一部法律就可以完成的。對于產(chǎn)業(yè)鏈中的各個環(huán)節(jié),應(yīng)當(dāng)詳盡分類考究。法律規(guī)制是對其發(fā)展的保駕護(hù)航,同時也需要掌握好限度,過于嚴(yán)格的規(guī)制反而會限制其正常發(fā)展。
生成式人工智能能夠達(dá)到目前的智能化、擬人化程度,有一點不可忽略,那便是其通過大量數(shù)據(jù)進(jìn)行訓(xùn)練。為保證訓(xùn)練數(shù)據(jù)的精準(zhǔn)度,目前甚至催生出相對應(yīng)的人工智能訓(xùn)練師崗位,主要職責(zé)是精準(zhǔn)訓(xùn)練生成式人工智能大模型。無論是文本圖像還是代碼生成,生成式人工智能在經(jīng)過數(shù)據(jù)訓(xùn)練后依然可能出現(xiàn)錯誤,此時就需要糾正其錯誤并進(jìn)行相對應(yīng)的專項數(shù)據(jù)指導(dǎo)。我國目前生成式人工智能行業(yè)仍處在大模型進(jìn)行數(shù)據(jù)訓(xùn)練的環(huán)節(jié),對于其訓(xùn)練使用的數(shù)據(jù)則是整個生成式人工智能發(fā)展的重中之重。對于該部分法律保護(hù)通常依托于《個人信息保護(hù)法》,再者便是還處于征求意見階段的《生成式人工智能服務(wù)管理辦法(征求意見稿)》,其中第七條規(guī)定,平臺訓(xùn)練生成式人工智能的數(shù)據(jù)中涉及個人信息的應(yīng)當(dāng)取得信息主體同意。但從實際情況來看,該規(guī)定很難被遵守。
利用海量數(shù)據(jù)訓(xùn)練人工智能是當(dāng)下共識,若每一次涉及個人信息都需要完全許可,便如同天方夜譚。因此,對于當(dāng)下需要的訓(xùn)練數(shù)據(jù)和使用時所需要投入的數(shù)據(jù),首先,應(yīng)當(dāng)明晰其特殊屬性,在保證個人信息安全的前提下,讓其保持在類似于“沙盒”(是一種安全機(jī)制,能夠為運行中的程序提供隔離環(huán)境)的特定分區(qū)中進(jìn)行單獨訓(xùn)練;其次,在使用軟件中用戶投入數(shù)據(jù)進(jìn)行對話操作,該步驟有強(qiáng)烈的主觀性,故應(yīng)當(dāng)詳細(xì)說明并告知使用者風(fēng)險;最后,平臺服務(wù)商應(yīng)當(dāng)在程序中提高數(shù)據(jù)敏感度,防止違法違規(guī)數(shù)據(jù)被運用到訓(xùn)練中。
生成式人工智能與之前各類新技術(shù)不同,具有更強(qiáng)的專業(yè)性、自我學(xué)習(xí)能力,這使得監(jiān)管難度提高。首先,應(yīng)當(dāng)確定監(jiān)管主體范圍,目前法律法規(guī)中監(jiān)管主體龐雜,涉及部門眾多,反而可能無法有效進(jìn)行管理[4]。對于新技術(shù)的態(tài)度應(yīng)當(dāng)更加寬容,對生成式人工智能發(fā)展?fàn)顩r進(jìn)行全程的監(jiān)督,尤其是核心算法部分,應(yīng)當(dāng)及時在國家備案,必要時對其進(jìn)行跟蹤研究,以備不時之需;其次,監(jiān)管機(jī)構(gòu)應(yīng)當(dāng)與業(yè)界保持聯(lián)動,從專業(yè)角度評估風(fēng)險,并以更全面的方式指導(dǎo)實施;最后,監(jiān)管部門應(yīng)引導(dǎo)該行業(yè)制定其行業(yè)標(biāo)準(zhǔn),形成行業(yè)內(nèi)部制約,進(jìn)一步規(guī)范行業(yè)行為。
生成式人工智能的發(fā)展是大勢所趨,科技的發(fā)展無法完全被掌控。針對這一問題,我們可以做好準(zhǔn)備迎接其挑戰(zhàn)。從目前主要的生成式人工智能工作原理來看,生成式人工智能依然處于“野蠻發(fā)展”階段,主要存在訓(xùn)練數(shù)據(jù)來源不清晰、算法“黑箱”難以明晰、缺乏體系的整體監(jiān)管等問題,全球各國對其都處于一個監(jiān)管的起步期,對于其可能存在的風(fēng)險,我們應(yīng)當(dāng)積極應(yīng)對,從源頭入手,具有針對性地進(jìn)行逐一破解。總之,生成式人工智能的發(fā)展壯大是一個必然趨勢,我們需要積極應(yīng)對其中的挑戰(zhàn)和風(fēng)險,同時也要充分挖掘其潛力和優(yōu)勢,促進(jìn)生產(chǎn)力的不斷提升和社會的發(fā)展進(jìn)步。