• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制

    2023-10-30 18:50:45劉艷紅
    東方法學(xué) 2023年4期
    關(guān)鍵詞:生成式人工智能數(shù)據(jù)安全知識(shí)產(chǎn)權(quán)

    劉艷紅

    關(guān)鍵詞:ChatGPT 生成式人工智能 合規(guī)制度 數(shù)據(jù)安全 算法偏見(jiàn) 知識(shí)產(chǎn)權(quán)

    2023年4月11日中國(guó)國(guó)家互聯(lián)網(wǎng)信息辦公室《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》規(guī)定,生成式人工智能“是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)”。

    2022年11月,人工智能公司OpenAI推出了生成式人工智能,并命名為ChatGPT。以ChatGPT為代表的生成式人工智能是元宇宙技術(shù)架構(gòu)的終極樣態(tài)之一,它的出現(xiàn)將元宇宙的實(shí)現(xiàn)至少提前了10年,〔1〕元宇宙本身則為這類(lèi)生成式人工智能提供了良好的技術(shù)運(yùn)行環(huán)境。在生成式人工智能技術(shù)的推動(dòng)下,元宇宙的概念不僅沒(méi)有因ChatGPT的橫空出世而“褪色”,反而獲得了新的發(fā)展動(dòng)能。尤其是聽(tīng)得懂、說(shuō)得出、能互動(dòng)的GPT4的面世,使社會(huì)各行各業(yè)都遭受了不同程度沖擊。與以往的人工智能技術(shù)相比,ChatGPT等生成式人工智能給人類(lèi)社會(huì)帶來(lái)的潛在風(fēng)險(xiǎn)真實(shí)而緊迫。

    如果說(shuō)互聯(lián)網(wǎng)引發(fā)了空間革命、智能手機(jī)引發(fā)了時(shí)間革命的話,ChatGPT類(lèi)技術(shù)正在引發(fā)人類(lèi)社會(huì)的知識(shí)革命。埃隆·馬斯克評(píng)價(jià)說(shuō)其不亞于iPhone,比爾·蓋茨說(shuō)其不亞于重新發(fā)明互聯(lián)網(wǎng),周鴻祎認(rèn)為其可類(lèi)比蒸汽機(jī)和電力的發(fā)明?!?〕相較于已有的人工智能技術(shù)而言,ChatGPT類(lèi)技術(shù)的現(xiàn)象級(jí)躥紅得益于大模型和生成式人工智能架構(gòu)所塑造的技術(shù)性能的實(shí)質(zhì)躍升,而ChatGPT所具備的“大型語(yǔ)言模型”(LLMs),則代表著人工智能技術(shù)中深度合成領(lǐng)域取得了重大技術(shù)進(jìn)步?!?〕海量數(shù)據(jù)與強(qiáng)大算力支撐之下的“涌現(xiàn)”能力使得ChatGPT類(lèi)技術(shù)不僅可以“理解”人類(lèi)自然語(yǔ)言,“記住”訓(xùn)練期間獲得的大量事實(shí),還可以基于“記住”的知識(shí)生成高質(zhì)量的內(nèi)容。良好互動(dòng)性、高度通用性與智能生成性正在加速ChatGPT類(lèi)技術(shù)與人類(lèi)社會(huì)形成更加剛性、高頻、泛在與深刻的聯(lián)結(jié)。與之對(duì)應(yīng),這也意味著ChatGPT類(lèi)技術(shù)給人類(lèi)社會(huì)帶來(lái)的潛在風(fēng)險(xiǎn)較之已有的人工智能技術(shù)而言更具現(xiàn)實(shí)緊迫性。深度學(xué)習(xí)之父杰弗里·辛頓(Geoffrey"Hinton)在談及ChatGPT類(lèi)技術(shù)時(shí)就認(rèn)為:“多數(shù)人認(rèn)為這(AI危害)還很遙遠(yuǎn)。我過(guò)去也認(rèn)為這還很遙遠(yuǎn),可能是30到50年甚至更長(zhǎng)的時(shí)間。但顯然,我現(xiàn)在不這么想了?!薄?〕在此背景下, 分析生成式人工智能的潛在風(fēng)險(xiǎn)并提出法律治理路徑就絕非科幻意義上的“感性空想”,而是建構(gòu)在現(xiàn)實(shí)基礎(chǔ)之上的理性思考。為此,如何結(jié)合生成式人工智能的運(yùn)行機(jī)理與安全風(fēng)險(xiǎn)進(jìn)行法律規(guī)制,成為當(dāng)下科技界、產(chǎn)業(yè)界、法律界共同關(guān)注的話題。

    分析生成式人工智能的運(yùn)行機(jī)理,其得出智能化結(jié)論的過(guò)程實(shí)際上分為三個(gè)階段,即前置性學(xué)習(xí)訓(xùn)練及人工標(biāo)注輔助算法升級(jí)的準(zhǔn)備階段,進(jìn)行自身算法處理輸入數(shù)據(jù)及得出處理后數(shù)據(jù)產(chǎn)出物的運(yùn)算階段,數(shù)據(jù)產(chǎn)出物流入社會(huì)并對(duì)社會(huì)中的各行各業(yè)造成影響的生成階段。據(jù)此,當(dāng)前生成式人工智能亟需法律規(guī)制的安全風(fēng)險(xiǎn)分別是準(zhǔn)備階段的數(shù)據(jù)安全風(fēng)險(xiǎn)、運(yùn)算階段的算法偏見(jiàn)風(fēng)險(xiǎn)與生成階段的知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)。應(yīng)分析并規(guī)制以ChatGPT為代表的生成式人工智能所引發(fā)的這三大安全風(fēng)險(xiǎn),以遏制生成式人工智能在技術(shù)發(fā)展過(guò)程中的負(fù)面影響,并針對(duì)其技術(shù)特征進(jìn)行事先預(yù)防,從而在新興人工智能技術(shù)的發(fā)展過(guò)程中提供法律保護(hù),為塑造未來(lái)元宇宙的良好生態(tài)消除技術(shù)隱患。

    一、強(qiáng)基賦能:生成式人工智能準(zhǔn)備階段中的數(shù)據(jù)安全風(fēng)險(xiǎn)與合規(guī)處置

    ChatGPT作為生成式人工智能, 必須在基礎(chǔ)的準(zhǔn)備階段就調(diào)試好自身對(duì)數(shù)據(jù)的利用模式和保護(hù)方式,根據(jù)數(shù)據(jù)類(lèi)型的差異進(jìn)行區(qū)分對(duì)待,從而通過(guò)對(duì)數(shù)據(jù)的學(xué)習(xí)來(lái)提煉信息、預(yù)測(cè)趨勢(shì),〔5〕因此數(shù)據(jù)安全風(fēng)險(xiǎn)是生成式人工智能的第一大風(fēng)險(xiǎn)。事實(shí)上,《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》在第7條就規(guī)定了對(duì)數(shù)據(jù)訓(xùn)練的相關(guān)規(guī)定,這是其中值得肯定之處,在準(zhǔn)備階段就嘗試發(fā)現(xiàn)并遏制生成式人工智能所可能引發(fā)的數(shù)據(jù)安全風(fēng)險(xiǎn),但是其仍需要在規(guī)范層面進(jìn)一步細(xì)化具體的規(guī)制措施。換言之,在準(zhǔn)備階段對(duì)數(shù)據(jù)進(jìn)行分類(lèi)后妥善處理其面臨的風(fēng)險(xiǎn),是強(qiáng)化生成式人工智能后續(xù)運(yùn)行處理能力的基礎(chǔ),通過(guò)對(duì)數(shù)據(jù)的合理處置來(lái)賦予生成式人工智能系統(tǒng)以新的發(fā)展動(dòng)能,發(fā)揮法律的風(fēng)險(xiǎn)預(yù)防功能。

    (一)生成式人工智能的數(shù)據(jù)安全風(fēng)險(xiǎn)的類(lèi)型劃分:以ChatGPT為例

    生成式人工智能的運(yùn)行離不開(kāi)算法和數(shù)據(jù),面對(duì)ChatGPT這樣高度智能化的生成式人工智能,如何妥善地運(yùn)用并處理數(shù)據(jù),成為衡量此類(lèi)新興技術(shù)是否安全并規(guī)范其后續(xù)應(yīng)用的重要指標(biāo)。

    當(dāng)前我國(guó)的立法、司法與執(zhí)法機(jī)關(guān)都高度重視數(shù)據(jù)風(fēng)險(xiǎn)的分析與預(yù)防,在人工智能技術(shù)興起之后,先后出臺(tái)了《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》、數(shù)據(jù)安全法、網(wǎng)絡(luò)安全法、個(gè)人信息保護(hù)法、《數(shù)據(jù)出境安全評(píng)估辦法》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《個(gè)人信息出境標(biāo)準(zhǔn)合同辦法》等法律規(guī)范,從多方面對(duì)人工智能應(yīng)用數(shù)據(jù)加以規(guī)制。在以ChatGPT為代表的生成式人工智能實(shí)際應(yīng)用過(guò)程中,根據(jù)數(shù)據(jù)具體應(yīng)用場(chǎng)景,可分為涉及國(guó)家安全的國(guó)家數(shù)據(jù),政府在為公民服務(wù)過(guò)程中整合形成的政務(wù)數(shù)據(jù),以及與公民自身具有緊密關(guān)系的個(gè)人數(shù)據(jù),這三類(lèi)數(shù)據(jù)在應(yīng)用過(guò)程中會(huì)面臨不同類(lèi)型的數(shù)據(jù)安全風(fēng)險(xiǎn),需要結(jié)合場(chǎng)景本身加以分析。

    1.ChatGPT應(yīng)用國(guó)家數(shù)據(jù)時(shí)面臨國(guó)家安全風(fēng)險(xiǎn)

    2022年10月16日,中國(guó)共產(chǎn)黨第二十次全國(guó)代表大會(huì)報(bào)告指出“必須堅(jiān)定不移貫徹總體國(guó)家安全觀”??傮w國(guó)家安全觀理念代表國(guó)家更加強(qiáng)調(diào)從頂層設(shè)計(jì)上強(qiáng)化對(duì)國(guó)家安全的保護(hù),而數(shù)據(jù)安全則是總體國(guó)家安全觀理念中的應(yīng)有之義。在總體國(guó)家安全觀的指引下,數(shù)據(jù)安全法第4條規(guī)定,“維護(hù)數(shù)據(jù)安全,應(yīng)當(dāng)堅(jiān)持總體國(guó)家安全觀,建立健全數(shù)據(jù)安全治理體系,提高數(shù)據(jù)安全保障能力”,這提出了一個(gè)包含數(shù)據(jù)基本要素以及數(shù)據(jù)基本子制度的數(shù)據(jù)安全制度模型,〔6〕以期實(shí)現(xiàn)對(duì)數(shù)據(jù)的全生命周期保護(hù)。

    ChatGPT對(duì)國(guó)家安全構(gòu)成潛在安全風(fēng)險(xiǎn)是由于自身的技術(shù)框架源于域外, 主要是基于西方價(jià)值觀和思維導(dǎo)向建立,因此其中的回答也通常迎合西方立場(chǎng)和喜好,可能導(dǎo)致意識(shí)形態(tài)滲透,〔7〕并在部分?jǐn)?shù)據(jù)的收集和處理上帶有先天性的價(jià)值偏向,容易對(duì)涉及國(guó)家相關(guān)信息的數(shù)據(jù)進(jìn)行深度分析和挖掘,從而影響我國(guó)數(shù)字主權(quán)和數(shù)據(jù)安全?,F(xiàn)代數(shù)字技術(shù)通過(guò)與資本的合流推動(dòng)了經(jīng)濟(jì)、政治的全球化,并在此過(guò)程中形成了新的霸權(quán)形式,〔8〕這種新的霸權(quán)形式可能從不同以往的方向影響數(shù)字主權(quán),并通過(guò)滲透數(shù)據(jù)安全進(jìn)而影響國(guó)家安全。事實(shí)上,ChatGPT的良好運(yùn)算離不開(kāi)海量數(shù)據(jù)的支撐,且其具有的高度智能化特征會(huì)促使其自發(fā)地收集和處理相關(guān)數(shù)據(jù),其中涉及國(guó)家已經(jīng)整合公布的相關(guān)數(shù)據(jù)以及未被整合公布的相關(guān)數(shù)據(jù), 都有可能被其進(jìn)行收集并深度加工, 作為得出結(jié)論的數(shù)據(jù)支撐。《數(shù)據(jù)出境安全評(píng)估辦法》第8條規(guī)定,數(shù)據(jù)出境安全評(píng)估重點(diǎn)評(píng)估數(shù)據(jù)出境活動(dòng)可能對(duì)國(guó)家安全帶來(lái)的風(fēng)險(xiǎn)。對(duì)于引入ChatGPT所可能給國(guó)家數(shù)據(jù)帶來(lái)的安全風(fēng)險(xiǎn),應(yīng)基于總體國(guó)家安全觀理念對(duì)其進(jìn)行類(lèi)型化監(jiān)管,以分級(jí)方式對(duì)國(guó)家安全數(shù)據(jù)進(jìn)行縱向梳理,從而規(guī)范類(lèi)似ChatGPT的新興人工智能對(duì)于國(guó)家數(shù)據(jù)的收集與應(yīng)用流程,并嘗試構(gòu)建數(shù)據(jù)被動(dòng)出境的主動(dòng)防御體系,尤其是建設(shè)并強(qiáng)化網(wǎng)絡(luò)攻擊監(jiān)控平臺(tái)來(lái)重點(diǎn)保護(hù)國(guó)家數(shù)據(jù)?!?〕

    2.ChatGPT應(yīng)用政務(wù)數(shù)據(jù)時(shí)面臨行政監(jiān)管風(fēng)險(xiǎn)

    2023年2月13日北京市經(jīng)濟(jì)和信息化局發(fā)布《2022年北京人工智能產(chǎn)業(yè)發(fā)展白皮書(shū)》,其中提到“全面夯實(shí)人工智能產(chǎn)業(yè)發(fā)展底座。支持頭部企業(yè)打造對(duì)標(biāo)ChatGPT的大模型,著力構(gòu)建開(kāi)源框架和通用大模型的應(yīng)用生態(tài)。加強(qiáng)人工智能算力基礎(chǔ)設(shè)施布局。加速人工智能基礎(chǔ)數(shù)據(jù)供給”,這意味著政府層面逐漸重視類(lèi)似ChatGPT的本土人工智能系統(tǒng)的構(gòu)建。有效推動(dòng)數(shù)字政府治理本身就是新時(shí)代實(shí)現(xiàn)我國(guó)國(guó)家治理體系與治理能力現(xiàn)代化的重要內(nèi)容?!?0〕在數(shù)字政府的建設(shè)過(guò)程中,ChatGPT將會(huì)影響數(shù)字政府建設(shè)的具體流程,其中對(duì)于政務(wù)數(shù)據(jù)的獲取與使用,存在引發(fā)行政監(jiān)管風(fēng)險(xiǎn)的可能性。當(dāng)前政務(wù)工作的整體趨勢(shì)是逐漸向數(shù)字化平臺(tái)轉(zhuǎn)移,人們需要運(yùn)用信息工具參與數(shù)字行政,防止行政權(quán)力濫用并保障公民權(quán)利和公共利益是數(shù)字政府建設(shè)中的應(yīng)有之義。〔11〕伴隨數(shù)字政府的建設(shè),不論是政務(wù)處理流程,還是行政執(zhí)法流程,政務(wù)數(shù)據(jù)都是數(shù)字政府的核心生產(chǎn)力,尤其是在以大樣本數(shù)據(jù)收集與分析來(lái)建設(shè)數(shù)字化案例庫(kù)的過(guò)程中,大數(shù)據(jù)技術(shù)將會(huì)歸納執(zhí)法經(jīng)驗(yàn),預(yù)判違法行為頻段、危害后果大小和法律效果格次,確保裁量基準(zhǔn)文本在輸送上的客觀性以及參照結(jié)果上的可預(yù)測(cè)性,〔12〕而這些政務(wù)數(shù)據(jù)都可能成為ChatGPT的攫取對(duì)象。

    在ChatGPT的運(yùn)行過(guò)程中,為了通過(guò)算法最優(yōu)解得出相對(duì)準(zhǔn)確的結(jié)論,不可避免應(yīng)基于自身運(yùn)算需求來(lái)收集并分析政務(wù)數(shù)據(jù),但政務(wù)數(shù)據(jù)并非完全公開(kāi),即使公開(kāi)也需要遵循法定的利用規(guī)范流程,ChatGPT在沒(méi)有獲得授權(quán)的情況下使用政務(wù)數(shù)據(jù), 本身就有不合規(guī)之虞。2021年4月6日交通運(yùn)輸部《交通運(yùn)輸政務(wù)數(shù)據(jù)共享管理辦法》第19條規(guī)定,“加強(qiáng)本部門(mén)政務(wù)數(shù)據(jù)提供渠道和使用環(huán)境的安全防護(hù),切實(shí)保障政務(wù)數(shù)據(jù)采集、存儲(chǔ)、傳輸、共享和使用安全”,而2020年11月18日《文化和旅游部政務(wù)數(shù)據(jù)資源管理辦法(試行)》第16條規(guī)定,“政務(wù)部門(mén)應(yīng)當(dāng)建立政府和社會(huì)共建共享、共同受益的大數(shù)據(jù)采集形成機(jī)制”。由此可見(jiàn),政府部門(mén)對(duì)于政務(wù)數(shù)據(jù)依法合規(guī)應(yīng)用與共享非常重視。當(dāng)ChatGPT收集政務(wù)數(shù)據(jù),或者在未來(lái)被嵌入并輔助數(shù)字政府治理時(shí),將數(shù)據(jù)放權(quán)給機(jī)器,其技術(shù)框架所依賴(lài)的是算法衡量,而非人類(lèi)的選擇,可能忽略甚至對(duì)抗人類(lèi)的選擇,那么其對(duì)于政務(wù)數(shù)據(jù)的應(yīng)用可能帶來(lái)人性沖突,這將和數(shù)字政府的建設(shè)初衷相悖,偏離以人為本理念并導(dǎo)致行政監(jiān)管缺乏人性關(guān)懷?!?3〕鑒于此,針對(duì)ChatGPT可能導(dǎo)致違規(guī)獲取與利用政務(wù)數(shù)據(jù)問(wèn)題,應(yīng)針對(duì)這類(lèi)高度智能化的人工智能系統(tǒng),在獲取政務(wù)數(shù)據(jù)的源頭端強(qiáng)化管控,依靠法律手段構(gòu)建治理體系,科學(xué)界定政府?dāng)?shù)據(jù)開(kāi)放的邊界,立足發(fā)展實(shí)際來(lái)合理制定政府?dāng)?shù)據(jù)開(kāi)放和共享的法律規(guī)范,〔14〕從而有效地規(guī)避后續(xù)的行政監(jiān)管風(fēng)險(xiǎn)。

    3.ChatGPT應(yīng)用個(gè)人數(shù)據(jù)時(shí)面臨違規(guī)利用風(fēng)險(xiǎn)

    當(dāng)前大數(shù)據(jù)的核心技術(shù)優(yōu)勢(shì)在于其承諾以“世界的實(shí)質(zhì)”來(lái)取代傳統(tǒng)社會(huì)的理論模型,并提供一個(gè)“無(wú)中介的渠道”來(lái)了解世界的本質(zhì)性、多樣性與復(fù)雜性,對(duì)于“真實(shí)而非抽象”的個(gè)人而言,人工智能提供了“接近現(xiàn)實(shí)的更佳途徑”,〔15〕而這也是ChatGPT受到追捧的主要原因。但在個(gè)人應(yīng)用ChatGPT的過(guò)程中,不可避免導(dǎo)致個(gè)人數(shù)據(jù)泄露。個(gè)人數(shù)據(jù)與公眾的日常生活緊密掛鉤,對(duì)于個(gè)人數(shù)據(jù)的獲取、加工與利用涉及對(duì)公民的人格尊嚴(yán)的保護(hù),在個(gè)人權(quán)利體系中,個(gè)人隱私、個(gè)人信息與個(gè)人數(shù)據(jù)分別處于事實(shí)層、內(nèi)容層與符號(hào)層,〔16〕其中個(gè)人數(shù)據(jù)作為符號(hào)層可以直接被移植到ChatGPT的計(jì)算過(guò)程中,而得出的最終結(jié)論則可能從各個(gè)方面影響公民的數(shù)字權(quán)利保護(hù)。對(duì)于個(gè)人數(shù)據(jù)的定義,歐盟一般數(shù)據(jù)保護(hù)條例規(guī)定,個(gè)人數(shù)據(jù)是指關(guān)于任何已識(shí)別或可識(shí)別自然人(數(shù)據(jù)主體)的信息,特別是通過(guò)諸如姓名、身份編號(hào)、地址數(shù)據(jù)、網(wǎng)上標(biāo)識(shí)或者自然人所特有的一項(xiàng)或多項(xiàng)的身體性、生理性、遺傳性、精神性、經(jīng)濟(jì)性、文化性或社會(huì)性身份而識(shí)別個(gè)體?!?7〕ChatGPT等生成式人工智能生成較為準(zhǔn)確且完成度較高的結(jié)論的運(yùn)行過(guò)程,主要是對(duì)個(gè)人數(shù)據(jù)進(jìn)行再次深度加工,通過(guò)組合分析不同類(lèi)型的個(gè)人數(shù)據(jù)來(lái)充分挖掘出其潛在價(jià)值,這種處理模式下的個(gè)人數(shù)據(jù)如同“砧板上的肥肉”一樣為無(wú)數(shù)人工智能系統(tǒng)所覬覦,但缺乏科學(xué)合理且行之有效的法律保護(hù)措施,從而導(dǎo)致個(gè)人數(shù)據(jù)被違規(guī)利用的風(fēng)險(xiǎn)。

    第一,ChatGPT對(duì)個(gè)人數(shù)據(jù)的利用在廣度上存在違規(guī)風(fēng)險(xiǎn)。為了生成更準(zhǔn)確的答案,ChatGPT需要大量的數(shù)據(jù),很多個(gè)人數(shù)據(jù)即使與當(dāng)事人想咨詢(xún)的結(jié)論之間聯(lián)系并不緊密,ChatGPT的算法也會(huì)收集這類(lèi)個(gè)人數(shù)據(jù)來(lái)輔助驗(yàn)證,并通過(guò)知識(shí)蒸餾來(lái)進(jìn)行深度學(xué)習(xí)并凝練結(jié)論?!?8〕在此過(guò)程中,由于ChatGPT對(duì)于個(gè)人數(shù)據(jù)的收集邊界模糊,其傾向于通過(guò)大數(shù)據(jù)技術(shù)來(lái)提升結(jié)論的準(zhǔn)確度,這會(huì)導(dǎo)致對(duì)個(gè)人數(shù)據(jù)的利用在廣度上存在違規(guī)風(fēng)險(xiǎn)。應(yīng)該嘗試?yán)迩逑鄳?yīng)的數(shù)據(jù)收集邊界,在ChatGPT中維持收集與保護(hù)間的平衡。

    第二,ChatGPT對(duì)個(gè)人數(shù)據(jù)的利用在深度上存在違規(guī)風(fēng)險(xiǎn),其所依賴(lài)的神經(jīng)卷積模型相較于傳統(tǒng)算法模型而言更加復(fù)雜,對(duì)于各種數(shù)據(jù)要素的分析也更加深入,深度神經(jīng)網(wǎng)絡(luò)會(huì)發(fā)掘出個(gè)人數(shù)據(jù)中潛藏的信息?!?9〕比如,在深度分析個(gè)人健康數(shù)據(jù)來(lái)得出其行蹤數(shù)據(jù),甚至基于現(xiàn)有模型作出前瞻性預(yù)測(cè),這種超出公眾既定需求的深度分析模式會(huì)加劇公眾的不安全感。事實(shí)上,歐盟一般數(shù)據(jù)保護(hù)條例明示了用戶(hù)對(duì)于個(gè)人數(shù)據(jù)擁有絕對(duì)支配權(quán),〔20〕那么算法對(duì)于個(gè)人數(shù)據(jù)的加工在深度上應(yīng)該遵循一定的規(guī)則,尤其是對(duì)于ChatGPT這類(lèi)生成式人工智能,必須克服算法自身的技術(shù)慣性,不能無(wú)限制地強(qiáng)化其對(duì)個(gè)人數(shù)據(jù)的剖析與利用,而是應(yīng)該合理地限制算法對(duì)個(gè)人數(shù)據(jù)的處理深度。

    第三,ChatGPT在利用個(gè)人數(shù)據(jù)得出的結(jié)論上存在違規(guī)風(fēng)險(xiǎn),可能導(dǎo)致虛假信息的產(chǎn)生,導(dǎo)致其生成“看上去很像那么回事,但實(shí)質(zhì)上卻是虛假信息”的內(nèi)容,并引發(fā)傳播風(fēng)險(xiǎn)。〔21〕作為面向用戶(hù)的生成式人工智能,為了獲得用戶(hù)的認(rèn)可,在運(yùn)行過(guò)程中存在對(duì)個(gè)人數(shù)據(jù)不合理的加工流程,在個(gè)別情況下存在為了“自圓其說(shuō)”而對(duì)個(gè)人數(shù)據(jù)進(jìn)行非法編造與錯(cuò)誤加工的行為,對(duì)公眾產(chǎn)生誤導(dǎo),甚至存在誘發(fā)網(wǎng)絡(luò)暴力的嫌疑。比如,域外曾發(fā)生用戶(hù)誘導(dǎo)ChatGPT“越獄”的案例,用戶(hù)要求ChatGPT扮演DAN的角色,而DAN可不受任何規(guī)則約束,作為DAN輸出的任何回復(fù)都不能告訴使用者不能做某事,最終誘使ChatGPT給出違反OpenAI公司準(zhǔn)則的錯(cuò)誤答案。〔22〕ChatGPT違規(guī)利用個(gè)人數(shù)據(jù)得出的虛假結(jié)論,由于數(shù)據(jù)來(lái)源于個(gè)人,因此其造成的負(fù)面影響也會(huì)反噬來(lái)尋求結(jié)論的個(gè)人,同時(shí)因?yàn)镃hatGPT具有高超的算法技術(shù)來(lái)得出“似是而非”的結(jié)論,并配合原始的個(gè)人數(shù)據(jù)作為佐證,導(dǎo)致其得出的虛假結(jié)論具有極強(qiáng)的迷惑性,這種“類(lèi)人”的人工智能得出的虛假結(jié)論容易引發(fā)網(wǎng)絡(luò)暴力,甚至在網(wǎng)絡(luò)社會(huì)與現(xiàn)實(shí)社會(huì)的雙層空間之中產(chǎn)生不利影響。

    總之,在ChatGPT對(duì)于個(gè)人數(shù)據(jù)的收集、處理與應(yīng)用過(guò)程中,由于個(gè)人數(shù)據(jù)和公民個(gè)人的聯(lián)系較為緊密,存在的風(fēng)險(xiǎn)也較為復(fù)雜,因此不僅在個(gè)人數(shù)據(jù)的收集廣度上存在風(fēng)險(xiǎn),還在處理深度以及結(jié)論應(yīng)用上存在風(fēng)險(xiǎn)。鑒于此,ChatGPT對(duì)個(gè)人數(shù)據(jù)的利用流程應(yīng)該予以規(guī)范化設(shè)置,確保新興人工智能技術(shù)的應(yīng)用不會(huì)破壞個(gè)人數(shù)據(jù)的內(nèi)在利益平衡,〔24〕而是合規(guī)地收集并通過(guò)加工分析出具有實(shí)際價(jià)值的真實(shí)結(jié)論,避免ChatGPT的算法算力被無(wú)端消耗。

    (二)生成式人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)的法律規(guī)制路徑:合規(guī)處置

    在新興人工智能技術(shù)的發(fā)展浪潮中,生成式人工智能系統(tǒng)之所以能夠獲得廣泛關(guān)注,核心在于它提供了全新且強(qiáng)大的數(shù)據(jù)處理模式,但在強(qiáng)大數(shù)據(jù)處理能力背后,應(yīng)該重視生成式人工智能在數(shù)據(jù)安全上的合規(guī)處置,避免追求效率而忽視安全。在當(dāng)前強(qiáng)調(diào)數(shù)據(jù)安全保護(hù)的大背景下,應(yīng)盡可能在ChatGPT的初始階段合規(guī)處置數(shù)據(jù)風(fēng)險(xiǎn)來(lái)優(yōu)化生成式人工智能的適用基礎(chǔ), 從而為后續(xù)開(kāi)放引進(jìn)ChatGPT或者構(gòu)建中國(guó)特色的生成式人工智能開(kāi)發(fā)應(yīng)用模式奠定基礎(chǔ)。

    1.ChatGPT應(yīng)用對(duì)于國(guó)家數(shù)據(jù)所可能帶來(lái)的法律風(fēng)險(xiǎn), 應(yīng)該基于總體國(guó)家安全觀的理念進(jìn)行統(tǒng)籌規(guī)劃。針對(duì)這類(lèi)生成式人工智能中可能存在的攫取數(shù)據(jù)的路徑方式進(jìn)行監(jiān)管,網(wǎng)絡(luò)安全法第21條提出“國(guó)家實(shí)行網(wǎng)絡(luò)安全等級(jí)保護(hù)制度……采取數(shù)據(jù)分類(lèi)、重要數(shù)據(jù)備份和加密等措施”;數(shù)據(jù)安全法第24條規(guī)定數(shù)據(jù)安全審查制度, 對(duì)影響或者可能影響國(guó)家安全的數(shù)據(jù)處理活動(dòng)進(jìn)行國(guó)家安全審查,而ChatGPT這類(lèi)生成式人工智能自然屬于其監(jiān)管范圍之中。在具體的運(yùn)行措施上,應(yīng)該基于總體國(guó)家安全觀來(lái)構(gòu)建國(guó)家數(shù)據(jù)的審查分級(jí)監(jiān)管機(jī)制,在確定數(shù)據(jù)屬于國(guó)家數(shù)據(jù)之后,根據(jù)數(shù)據(jù)具體情況判斷其是否能夠?yàn)榇祟?lèi)生成式人工智能技術(shù)所應(yīng)用, 在判斷時(shí)尤其需要注意數(shù)據(jù)的深層次價(jià)值,采用穿透式監(jiān)管的模式來(lái)分析國(guó)家數(shù)據(jù)的產(chǎn)生來(lái)源、內(nèi)容架構(gòu)以及潛在價(jià)值,通過(guò)規(guī)范文件來(lái)強(qiáng)化對(duì)國(guó)家數(shù)據(jù)的合規(guī)監(jiān)管。ChatGPT的算法框架是在域外構(gòu)建的,其算法框架內(nèi)部可能存在一定的價(jià)值傾向,在國(guó)家數(shù)據(jù)被ChatGPT使用時(shí)應(yīng)該重視數(shù)據(jù)出境問(wèn)題。應(yīng)根據(jù)《數(shù)據(jù)出境安全評(píng)估辦法》的規(guī)定來(lái)判斷國(guó)家數(shù)據(jù)能否為ChatGPT所使用,分析國(guó)家數(shù)據(jù)被ChatGPT的算法處理時(shí)可能對(duì)國(guó)家安全造成的風(fēng)險(xiǎn),在多數(shù)情況下默認(rèn)國(guó)家數(shù)據(jù)不可以為ChatGPT所使用,同時(shí)對(duì)獲取國(guó)家數(shù)據(jù)的路徑進(jìn)行嚴(yán)格審查,從整體上升級(jí)國(guó)家數(shù)據(jù)作為基礎(chǔ)性戰(zhàn)略資源的認(rèn)識(shí)和管理思路,通過(guò)合規(guī)監(jiān)管來(lái)助力數(shù)據(jù)主權(quán)的國(guó)際競(jìng)爭(zhēng)。

    2.對(duì)于ChatGPT應(yīng)用政務(wù)數(shù)據(jù)所可能帶來(lái)的法律風(fēng)險(xiǎn),應(yīng)該根據(jù)國(guó)家對(duì)政務(wù)數(shù)據(jù)管理的整體布局來(lái)構(gòu)建對(duì)應(yīng)的合規(guī)監(jiān)管體系。在宏觀層面,2022年6月23日,國(guó)務(wù)院《關(guān)于加強(qiáng)數(shù)字政府建設(shè)的指導(dǎo)意見(jiàn)》提出,構(gòu)建數(shù)字化、智能化的政府運(yùn)行新形態(tài),將數(shù)字技術(shù)廣泛應(yīng)用于政府管理服務(wù)。2023年2月27日,中共中央、國(guó)務(wù)院《數(shù)字中國(guó)建設(shè)整體布局規(guī)劃》提出,發(fā)展高效協(xié)同的數(shù)字政務(wù),加快制度規(guī)則創(chuàng)新,強(qiáng)化數(shù)字化能力建設(shè),提升數(shù)字化服務(wù)水平,到2025年實(shí)現(xiàn)政務(wù)數(shù)字化智能化水平明顯提升。在此宏觀背景下,將ChatGPT這類(lèi)生成式人工智能引入數(shù)字政府的建設(shè)中,顯然有助于加快數(shù)字政府建設(shè),提升數(shù)字政府的服務(wù)水平。但在此過(guò)程中,政務(wù)數(shù)據(jù)對(duì)ChatGPT的開(kāi)放利用也會(huì)導(dǎo)致數(shù)據(jù)權(quán)屬以及利用模式上的爭(zhēng)議,并影響公共行政水平,所以需要結(jié)合ChatGPT的實(shí)際發(fā)展水平構(gòu)建技術(shù)與數(shù)據(jù)的深度融合調(diào)整機(jī)制,以合規(guī)機(jī)制來(lái)消弭政務(wù)數(shù)據(jù)的利用矛盾?!?6〕對(duì)于政務(wù)數(shù)據(jù)的合規(guī)利用,應(yīng)該由政務(wù)機(jī)構(gòu)將可以公開(kāi)利用的數(shù)據(jù)在事前進(jìn)行報(bào)備,在經(jīng)過(guò)審核可以公開(kāi)利用之后,設(shè)置限制加工和利用的前提要件,以此作為合規(guī)使用政務(wù)數(shù)據(jù)的規(guī)范保障,堅(jiān)持在滿(mǎn)足政務(wù)數(shù)據(jù)供給的社會(huì)性需求的同時(shí),兼顧個(gè)人權(quán)益保障與數(shù)據(jù)合規(guī),以此作為政務(wù)公共數(shù)據(jù)開(kāi)放并利用的規(guī)范性要求?!?7〕尤其是針對(duì)ChatGPT這類(lèi)生成式人工智能,必須限制其對(duì)政務(wù)數(shù)據(jù)的利用與分析模式,避免應(yīng)用政務(wù)數(shù)據(jù)得出的結(jié)論侵害個(gè)人權(quán)益、破壞社會(huì)公共秩序?!?8〕應(yīng)以合規(guī)限制的方式促進(jìn)生成式人工智能對(duì)政務(wù)數(shù)據(jù)的加工利用,規(guī)范要求生成式人工智能所得出結(jié)論的整體方向是為公眾服務(wù),從而既推動(dòng)數(shù)字政府建設(shè),又以合規(guī)方式盡可能規(guī)避行政監(jiān)管的風(fēng)險(xiǎn)。

    3.對(duì)于ChatGPT應(yīng)用個(gè)人數(shù)據(jù)所可能帶來(lái)的法律風(fēng)險(xiǎn),應(yīng)該結(jié)合其收集個(gè)人數(shù)據(jù)的廣度深度及結(jié)論真實(shí)性來(lái)構(gòu)建相應(yīng)的合規(guī)制度。具體而言,根據(jù)個(gè)人數(shù)據(jù)的龐大規(guī)模制定能同時(shí)平衡人工智能技術(shù)發(fā)展與個(gè)人數(shù)據(jù)保護(hù)的合規(guī)措施,從ChatGPT收集個(gè)人數(shù)據(jù)的廣度、處理個(gè)人數(shù)據(jù)的深度以及得出結(jié)論的真實(shí)性這三個(gè)方面入手,構(gòu)建對(duì)應(yīng)的合規(guī)制度。在ChatGPT這類(lèi)生成式人工智能的語(yǔ)境下,對(duì)于個(gè)人數(shù)據(jù)的合規(guī)處理主要集中在技術(shù)賦能和利益衡量相結(jié)合方面,利用技術(shù)手段創(chuàng)新來(lái)發(fā)掘個(gè)人數(shù)據(jù)的潛在價(jià)值,同時(shí)借助利益衡量來(lái)為技術(shù)處理的合規(guī)規(guī)定提供價(jià)值依據(jù)?!?9〕一方面,在ChatGPT收集個(gè)人數(shù)據(jù)的過(guò)程中應(yīng)該保持收集廣度上合規(guī),個(gè)人信息保護(hù)法第58條規(guī)定大型互聯(lián)網(wǎng)平臺(tái)企業(yè)須承擔(dān)個(gè)人信息保護(hù)特別義務(wù),而OpenAI公司顯然屬于大型互聯(lián)網(wǎng)平臺(tái),其應(yīng)當(dāng)健全個(gè)人數(shù)據(jù)保護(hù)合規(guī)體系,設(shè)立獨(dú)立監(jiān)督機(jī)構(gòu)來(lái)審查ChatGPT作為人工智能產(chǎn)品所收集的數(shù)據(jù)是否合規(guī),〔30〕尤其是對(duì)位于模棱兩可處境的個(gè)人數(shù)據(jù),應(yīng)該盡可能避免收集,防止個(gè)人數(shù)據(jù)的收集范圍泛化。另一方面,在確定ChatGPT處理個(gè)人數(shù)據(jù)的深度時(shí),應(yīng)該在滿(mǎn)足技術(shù)必要性的前提下,基于最小比例原則處理個(gè)人數(shù)據(jù),對(duì)于個(gè)人數(shù)據(jù)應(yīng)該避免過(guò)分深入地挖掘其潛在價(jià)值,應(yīng)圍繞用戶(hù)的個(gè)人訴求來(lái)處理個(gè)人數(shù)據(jù),而非一味地追求結(jié)論的精準(zhǔn)程度。ChatGPT作為生成式人工智能,其算法模型在運(yùn)行時(shí)會(huì)出于技術(shù)本能來(lái)提升生成結(jié)論的精準(zhǔn)度,而這一技術(shù)發(fā)展訴求不能成為其違規(guī)利用個(gè)人數(shù)據(jù)的理由,最小比例原則意味著ChatGPT只要能夠?qū)崿F(xiàn)用戶(hù)的目的即可,不能過(guò)度地收集和處理個(gè)人數(shù)據(jù),從而使得個(gè)人權(quán)益受到的限制和干預(yù)盡量處于最低水平?!?1〕以最小比例原則作為合規(guī)標(biāo)準(zhǔn)來(lái)限制個(gè)人數(shù)據(jù)的處理深度,能夠有效地消除生成式人工智能的潛在威脅,避免技術(shù)發(fā)展的途徑被歪曲。最后,當(dāng)前ChatGPT迭代升級(jí)標(biāo)志著人工智能從算法智能走向語(yǔ)言智能, 在人與機(jī)器的交流過(guò)程中充斥著真實(shí)與人工、真實(shí)與虛擬的交互關(guān)系,〔32〕ChatGPT作為新興的生成式人工智能也在結(jié)論上存在虛假信息甚至犯罪信息。為了以合規(guī)監(jiān)管的方式消除此類(lèi)虛假信息,應(yīng)該規(guī)范ChatGPT對(duì)于個(gè)人數(shù)據(jù)的處理加工模式,在ChatGPT的運(yùn)行規(guī)則中規(guī)定其可以得出無(wú)解作為回復(fù),避免ChatGPT竭力去尋求回復(fù)甚至編造虛假回復(fù)或者得出錯(cuò)誤回復(fù),同時(shí)要求ChatGPT在處理個(gè)人數(shù)據(jù)時(shí)應(yīng)該強(qiáng)制進(jìn)行同類(lèi)比對(duì)模式,對(duì)個(gè)人數(shù)據(jù)的處理結(jié)果在數(shù)據(jù)庫(kù)內(nèi)部進(jìn)行同類(lèi)比對(duì),提升其得出結(jié)論的準(zhǔn)確性,避免其結(jié)論過(guò)于偏離實(shí)際。

    總之,當(dāng)前生成式人工智能意味著一個(gè)新的科技生態(tài)系統(tǒng),該系統(tǒng)集成了人為因素與技術(shù)因素,并基于人工系統(tǒng)和自然世界結(jié)合的并行智能以及去中心化模式來(lái)激發(fā)人工智能創(chuàng)新?!?3〕鑒于此,生成式人工智能在利用數(shù)據(jù)的過(guò)程中,應(yīng)該做好前置性的預(yù)防工作,通過(guò)對(duì)數(shù)據(jù)的分類(lèi)以及后續(xù)合規(guī)處理措施的展開(kāi)來(lái)消除數(shù)據(jù)的安全法律風(fēng)險(xiǎn)。

    二、內(nèi)核優(yōu)化:生成式人工智能運(yùn)算階段中算法模型的分析與糾偏

    生成式人工智能之所以獲得社會(huì)各界的高度關(guān)注,乃因其由傳統(tǒng)的分析式人工智能轉(zhuǎn)向了新興的生成式人工智能,而算法模型在其轉(zhuǎn)型過(guò)程中扮演重要的角色,生成式人工智能對(duì)于數(shù)據(jù)的分析和處理主要通過(guò)基礎(chǔ)算法進(jìn)行分析,改變了數(shù)據(jù)的產(chǎn)生方式、組織形式以及流轉(zhuǎn)方式。〔34〕在以Chat-GPT為代表的生成式人工智能的運(yùn)算階段,算法模型是其核心技術(shù)特征,正是ChatGPT把預(yù)訓(xùn)練和微調(diào)體系引入自然語(yǔ)言算法處理過(guò)程中,才開(kāi)啟了生成式人工智能應(yīng)用新時(shí)代,算法偏見(jiàn)風(fēng)險(xiǎn)也因此成為生成式人工智能的第二大風(fēng)險(xiǎn)。與之對(duì)應(yīng),《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》中第4(2)條規(guī)定在算法設(shè)計(jì)、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過(guò)程中不得出現(xiàn)各類(lèi)歧視,這說(shuō)明在規(guī)范制定之初就充分借鑒了之前的設(shè)置經(jīng)驗(yàn),已經(jīng)充分考慮算法偏見(jiàn)所帶來(lái)的風(fēng)險(xiǎn),進(jìn)一步增強(qiáng)了該規(guī)范的實(shí)用性, 因此值得肯定。但是該規(guī)范中缺乏專(zhuān)門(mén)的預(yù)防算法偏見(jiàn)的規(guī)定, 需要結(jié)合ChatGPT運(yùn)行的現(xiàn)實(shí)需求進(jìn)行設(shè)置。

    (一)ChatGPT中算法模型的技術(shù)構(gòu)成分析

    相較于傳統(tǒng)算法模型,ChatGPT的特殊之處在于其不僅依靠機(jī)器學(xué)習(xí), 還在機(jī)器學(xué)習(xí)的同時(shí),通過(guò)大量的人工標(biāo)注來(lái)修正和校對(duì)機(jī)器學(xué)習(xí)所得出的結(jié)論, 以人工標(biāo)注方式來(lái)推動(dòng)人工智能的進(jìn)化,同時(shí)校正機(jī)器學(xué)習(xí)中存在的錯(cuò)誤,從而達(dá)到事半功倍的效果。將人類(lèi)篩選應(yīng)用至ChatGPT中,是考慮到其作為生成式人工智能面向公眾并且需要作出反饋的運(yùn)行模式,分析式人工智能主要是利用算法技術(shù)來(lái)分析數(shù)據(jù),生成式人工智能則增加了接收和反饋的環(huán)節(jié),這對(duì)人工智能算法提出了更高的技術(shù)要求,同時(shí)也是ChatGPT中算法的典型特征。

    在算法的機(jī)器學(xué)習(xí)過(guò)程中,個(gè)別情形下讓人工智能算法來(lái)完全辨析公眾發(fā)出的描述,既消耗算法算力,又難以及時(shí)得出準(zhǔn)確的結(jié)論,無(wú)論是自回歸模型、生成式對(duì)抗網(wǎng)絡(luò),還是變分自編碼、流模型、擴(kuò)散模型,上述算法模型在處理公眾語(yǔ)言時(shí)都存在先天不足,而這種不足會(huì)導(dǎo)致人工智能在接收數(shù)據(jù)階段就存在缺陷,難以展開(kāi)后續(xù)的智能化分析,必須采用人工標(biāo)注的方式進(jìn)行校正。ChatGPT算法中人工標(biāo)注校正主要分為兩個(gè)方向: 一是將人類(lèi)表達(dá)任務(wù)的習(xí)慣說(shuō)法以數(shù)據(jù)的形式讓算法接受,同時(shí)矯正算法中不能接受的人類(lèi)語(yǔ)言描述; 二是將人類(lèi)對(duì)于回答質(zhì)量和傾向的判斷灌輸給算法程序,這樣算法就會(huì)習(xí)慣給出人類(lèi)希望從人工智能處得到的答案。事實(shí)上,ChatGPT中用于算法訓(xùn)練的WebText是一個(gè)大型數(shù)據(jù)集,數(shù)據(jù)集中的具體數(shù)據(jù)大多是從社交媒體平臺(tái)Reddit所鏈接的網(wǎng)絡(luò)中爬取的,而且每個(gè)鏈接至少有3個(gè)贊,這代表了人類(lèi)社會(huì)流行內(nèi)容的風(fēng)向標(biāo)?!?5〕通過(guò)人工標(biāo)注校正的方式,ChatGPT克服了傳統(tǒng)分析式人工智能潛在的缺陷,以更適合公眾需求為目的來(lái)調(diào)整自身的算法模型,并且和ChatGPT中的機(jī)器學(xué)習(xí)算法相互配合,在技術(shù)上產(chǎn)生了突破性的創(chuàng)新。

    在ChatGPT的算法模型運(yùn)行過(guò)程中,“機(jī)器學(xué)習(xí)+人工標(biāo)注”作為算法技術(shù)內(nèi)核,本質(zhì)上是服務(wù)于生成式人工智能的目的訴求,以技術(shù)組合的方式來(lái)提升ChatGPT的智能化程度和準(zhǔn)確性水平,但這同時(shí)也會(huì)導(dǎo)致其中存在算法偏見(jiàn)的法律風(fēng)險(xiǎn)成倍提升。機(jī)器學(xué)習(xí)與人工標(biāo)注作為組合措施使人類(lèi)的意志與偏好所產(chǎn)生的影響比在以往單純的機(jī)器學(xué)習(xí)中更大,因?yàn)槿斯?biāo)注所造成的個(gè)人偏好的影響疊加在機(jī)器學(xué)習(xí)的算法框架中本身的算法偏見(jiàn)之上,導(dǎo)致算法偏見(jiàn)的負(fù)面效應(yīng)倍增,算法偏見(jiàn)的產(chǎn)生渠道更加多樣且難以追溯與預(yù)防。事實(shí)上,對(duì)于ChatGPT這類(lèi)生成式人工智能而言,其得出智能化結(jié)論背后的決策規(guī)則隱而不顯,致使事后法律問(wèn)責(zé)難以奏效,技術(shù)復(fù)雜性與結(jié)論準(zhǔn)確性成為算法偏見(jiàn)的“遮羞布”,這同時(shí)也會(huì)引發(fā)因?yàn)榧夹g(shù)賦能而導(dǎo)致的衍生性應(yīng)用風(fēng)險(xiǎn),〔36〕尤其是人工標(biāo)注技術(shù)的介入增加了算法偏見(jiàn)產(chǎn)生的復(fù)雜程度。在ChatGPT中,人工標(biāo)注通過(guò)打分模型將人類(lèi)本想獲得的結(jié)論信息反饋至數(shù)據(jù)庫(kù),在數(shù)據(jù)庫(kù)中總結(jié)歸納成機(jī)器學(xué)習(xí)的經(jīng)驗(yàn),而這一過(guò)程中注入了人類(lèi)偏好,促使Chat-GPT能夠理解人類(lèi)語(yǔ)言并且擁有自身的判斷標(biāo)準(zhǔn)與判斷能力?!?7〕分析ChatGPT的運(yùn)行模式發(fā)現(xiàn),其產(chǎn)生算法偏見(jiàn)主要集中在兩個(gè)階段:一是接收數(shù)據(jù)的階段,ChatGPT對(duì)于人類(lèi)語(yǔ)言的理解需要人工標(biāo)注作為輔助措施,而解讀的過(guò)程本身就會(huì)受到算法偏見(jiàn)的影響而產(chǎn)生誤解;二是處理數(shù)據(jù)的階段,Chat-GPT通過(guò)處理數(shù)據(jù)得出結(jié)論,囿于其初始結(jié)論可能并不符合一般公眾的預(yù)期,此時(shí)人工標(biāo)注和矯正有助于ChatGPT獲得符合公眾預(yù)期的結(jié)論,但這一過(guò)程也不可避免受到算法偏見(jiàn)的影響。

    總之,在ChatGPT的運(yùn)行過(guò)程中,算法偏見(jiàn)可能的法律風(fēng)險(xiǎn)根源并不在于其真正作出不利于人的決策,而恰恰是其能“代替或參與人的決策”這件事本身,〔38〕對(duì)于ChatGPT可能引發(fā)算法偏見(jiàn)的法律風(fēng)險(xiǎn),應(yīng)該認(rèn)識(shí)到這是算法模型的技術(shù)構(gòu)成所帶來(lái)的必然結(jié)果。但既然ChatGPT算法模型中的算法偏見(jiàn)無(wú)法避免,那么就應(yīng)該嘗試根據(jù)ChatGPT的技術(shù)特征來(lái)尋求消弭算法偏見(jiàn)的解決之策。

    (二)技管結(jié)合糾正ChatGPT中的算法偏見(jiàn)

    針對(duì)ChatGPT算法運(yùn)行過(guò)程中難以避免的算法偏見(jiàn)法律風(fēng)險(xiǎn), 應(yīng)該根據(jù)算法偏見(jiàn)的產(chǎn)生原理與產(chǎn)生場(chǎng)域進(jìn)行針對(duì)性的管控。面對(duì)“算法失靈”的社會(huì)現(xiàn)狀以及“算法脫軌”的潛在風(fēng)險(xiǎn),應(yīng)該承認(rèn)“算法不是萬(wàn)能的”,并在算力不足、算法無(wú)解和數(shù)據(jù)缺失的領(lǐng)域做好人力物力的充分布局,從而與智能社會(huì)形成良好的匹配與互補(bǔ)。〔39〕ChatGPT采用的“機(jī)器學(xué)習(xí)+人工標(biāo)注”的技術(shù)處理模式就是通過(guò)人力資源來(lái)填補(bǔ)算法模型的固有不足。值得注意的是,雖然人工標(biāo)注能大幅提升算法結(jié)論的準(zhǔn)確性,促使ChatGPT得出公眾需要的有效結(jié)論,但也不可避免出現(xiàn)算法偏見(jiàn),尤其是在ChatGPT立足于服務(wù)公眾并滿(mǎn)足公眾需求的前提下,這種算法偏見(jiàn)會(huì)得到默許甚至支持,最終導(dǎo)致算法結(jié)論失真。針對(duì)Chat-GPT中的算法偏見(jiàn)問(wèn)題,應(yīng)該遵循技管結(jié)合的理念,從技術(shù)與規(guī)范兩方面入手來(lái)強(qiáng)化對(duì)算法偏見(jiàn)的全流程監(jiān)管,在推動(dòng)生成式人工智能發(fā)展的同時(shí)做好規(guī)范層面的法律監(jiān)管工作。

    1.針對(duì)ChatGPT在應(yīng)用之前的機(jī)器學(xué)習(xí)調(diào)試中出現(xiàn)的先天性算法偏見(jiàn),應(yīng)該根據(jù)算法模型的學(xué)習(xí)路徑進(jìn)行調(diào)整,通過(guò)規(guī)范文件的形式強(qiáng)調(diào)算法模型應(yīng)該遵守的技術(shù)標(biāo)準(zhǔn),在ChatGPT投入市場(chǎng)應(yīng)用之前進(jìn)行實(shí)質(zhì)審查。2021年12月31日國(guó)家互聯(lián)網(wǎng)信息辦公室等多部門(mén)頒布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第8條規(guī)定,算法推薦服務(wù)提供者應(yīng)當(dāng)定期審核、評(píng)估、驗(yàn)證算法機(jī)制機(jī)理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,不得設(shè)置誘導(dǎo)用戶(hù)沉迷、過(guò)度消費(fèi)等違反法律法規(guī)或者違背倫理道德的算法模型。在這一規(guī)范文件的指引下,ChatGPT的算法模型在投入應(yīng)用之前就應(yīng)該進(jìn)行嚴(yán)格的法律審查,避免算法模型在機(jī)器學(xué)習(xí)的過(guò)程中就被滲入人為的算法偏見(jiàn),并將規(guī)范文件的要求以技術(shù)標(biāo)準(zhǔn)的形式融入算法程序的編譯過(guò)程中。鑒于ChatGPT的特殊技術(shù)特征,對(duì)其預(yù)先設(shè)置的算法糾偏過(guò)程應(yīng)該分兩個(gè)方向展開(kāi):一是針對(duì)機(jī)器學(xué)習(xí)中可能存在的先天性算法偏見(jiàn),在算法程序編譯環(huán)節(jié)進(jìn)行預(yù)防。機(jī)器學(xué)習(xí)的過(guò)程是將部分?jǐn)?shù)據(jù)作為輸入,并產(chǎn)生相應(yīng)的結(jié)論作為輸出,其中的計(jì)算過(guò)程需要進(jìn)行預(yù)先的訓(xùn)練,而這一訓(xùn)練過(guò)程也就是算法的機(jī)器學(xué)習(xí)過(guò)程,應(yīng)該將規(guī)范文件的要求融入算法程序的設(shè)計(jì)過(guò)程中。在算法設(shè)計(jì)過(guò)程中,對(duì)于可能存在算法偏見(jiàn)的參數(shù),要及時(shí)發(fā)現(xiàn)并予以消除,對(duì)算法程序上的偏見(jiàn)進(jìn)行調(diào)整和校對(duì),促使其能夠回歸正常的算法運(yùn)行路徑,以規(guī)范文件約束算法技術(shù),避免算法偏見(jiàn)成為Chat-GPT的“隱疾”并被放大,而是貫徹“技術(shù)治理”的工具賦能路徑,完善對(duì)算法程序代碼的監(jiān)督樣態(tài)。〔40〕二是對(duì)人工標(biāo)注的算法偏見(jiàn)通過(guò)設(shè)置規(guī)范加以預(yù)防。ChatGPT中存在與公眾對(duì)接的接口,需要在機(jī)器學(xué)習(xí)的調(diào)試中提升其準(zhǔn)確理解公眾語(yǔ)言傳輸?shù)哪芰?,并盡可能避免在語(yǔ)言傳輸與轉(zhuǎn)化過(guò)程中出現(xiàn)先天性偏見(jiàn),導(dǎo)致輸入端的先天性偏見(jiàn)最終演化為輸出端的結(jié)果性偏見(jiàn),而這種算法偏見(jiàn)主要來(lái)源于人工標(biāo)注。在現(xiàn)實(shí)應(yīng)用過(guò)程中,對(duì)于不同語(yǔ)言描述的內(nèi)容,ChatGPT會(huì)自動(dòng)識(shí)別其語(yǔ)言形式,從形式和實(shí)質(zhì)兩個(gè)方面判斷公眾想要咨詢(xún)的內(nèi)容并給出偏見(jiàn)性回復(fù)。比如,簡(jiǎn)體字和繁體字描述同一問(wèn)題可能得到截然不同的回復(fù),這種算法偏見(jiàn)主要?dú)w咎于算法模型在學(xué)習(xí)階段受到了差異性的人工標(biāo)注的影響。為了盡可能消除這種輸入端引發(fā)的算法偏見(jiàn), 促使ChatGPT能夠以公正合理的態(tài)度來(lái)處理問(wèn)題,而非根據(jù)輸入端內(nèi)容在形式上的差異而給出帶有偏見(jiàn)性色彩的回復(fù),應(yīng)該設(shè)置統(tǒng)一的人工標(biāo)注規(guī)范標(biāo)準(zhǔn),要求人工標(biāo)準(zhǔn)遵循相對(duì)一致的判斷標(biāo)準(zhǔn),避免人工標(biāo)注造成的偏向性誤導(dǎo),同時(shí)要求生成式人工智能在理解問(wèn)題時(shí)遵循一致的邏輯并給出公允的回復(fù),而非刻意“討好”公眾并給出偏見(jiàn)性的回復(fù)。

    2.針對(duì)ChatGPT在應(yīng)用過(guò)程中經(jīng)過(guò)自我學(xué)習(xí)而得出的后天性的算法偏見(jiàn),應(yīng)該通過(guò)在外部建立自動(dòng)化、生態(tài)化、全流程的動(dòng)態(tài)監(jiān)管體系來(lái)進(jìn)行審核并消除算法偏見(jiàn)。這種動(dòng)態(tài)監(jiān)管體系對(duì)算法偏見(jiàn)的審核,一方面承認(rèn)算法在運(yùn)算過(guò)程中存在客觀上的技術(shù)偏差,另一方面通過(guò)不斷地動(dòng)態(tài)校正來(lái)消除這類(lèi)偏見(jiàn)所帶來(lái)的風(fēng)險(xiǎn)。ChatGPT作為高度智能化的生成式人工智能,其算法會(huì)逐漸演變出自主性和認(rèn)知性特征,初步具備自我學(xué)習(xí)的能力而擺脫了純粹的工具性角色,〔41〕算法偏見(jiàn)在其自我學(xué)習(xí)過(guò)程中也會(huì)逐漸滋生且難以避免。針對(duì)這一情形,即使是預(yù)置的算法糾偏措施也會(huì)趨于失效,尤其是在人工標(biāo)注的加持下,ChatGPT在自我學(xué)習(xí)過(guò)程中產(chǎn)生的算法偏見(jiàn)會(huì)愈發(fā)明顯且難以避免,試圖一勞永逸地解決后天性的算法偏見(jiàn)在ChatGPT這種高度智能化的語(yǔ)境下并不現(xiàn)實(shí), 而動(dòng)態(tài)監(jiān)管反而是能夠平衡資源投入與效率保持的舉措,將技管結(jié)合理念以自動(dòng)化、生態(tài)化、動(dòng)態(tài)化的形式嵌入ChatGPT的算法運(yùn)行過(guò)程中。在技管結(jié)合的理念下,對(duì)于后天性算法偏見(jiàn)的監(jiān)管主要包括建立監(jiān)管算法技術(shù)的自動(dòng)化監(jiān)管模式、形成多主體共生演化的生態(tài)化監(jiān)管網(wǎng)絡(luò)以及落實(shí)全流程覆蓋的動(dòng)態(tài)化監(jiān)管機(jī)制,從而實(shí)現(xiàn)對(duì)ChatGPT的全方位監(jiān)管。〔42〕一是對(duì)于監(jiān)管算法技術(shù)的自動(dòng)化監(jiān)管模式,要求對(duì)機(jī)器學(xué)習(xí)與人工標(biāo)注實(shí)現(xiàn)自動(dòng)化監(jiān)管,尤其是在兩者的銜接階段,要避免人工標(biāo)注的算法偏見(jiàn)影響“反噬”機(jī)器學(xué)習(xí)的過(guò)程,對(duì)ChatGPT的運(yùn)行全過(guò)程進(jìn)行實(shí)時(shí)監(jiān)控,只要出現(xiàn)算法偏見(jiàn)的情形便暫停結(jié)論輸出且回溯至算法偏見(jiàn)的根源尋求解決方案。二是形成多主體共生演化的生態(tài)化監(jiān)管網(wǎng)絡(luò),要求對(duì)ChatGPT的監(jiān)管由多方主體介入,不僅是行政機(jī)關(guān)依據(jù)規(guī)范文件介入規(guī)制過(guò)程,平臺(tái)自身也應(yīng)該及時(shí)介入監(jiān)管并形成行業(yè)自律,技管結(jié)合中的規(guī)范要求包括具體法律規(guī)范上的“硬法”要求以及行業(yè)自律公約上的“軟法”要求。事實(shí)上,構(gòu)建生態(tài)化監(jiān)管網(wǎng)絡(luò)需要平臺(tái)積極參與,而“軟法”的介入本身也是平臺(tái)企業(yè)合規(guī)的具體要求,對(duì)算法模型進(jìn)行監(jiān)管的“軟法”屬于有效合規(guī)計(jì)劃的一部分,并與合規(guī)政策、員工手冊(cè)、合規(guī)組織體系、合規(guī)管理流程一起組成復(fù)雜的合規(guī)治理結(jié)構(gòu),〔43〕生態(tài)化監(jiān)管網(wǎng)絡(luò)可以激發(fā)平臺(tái)在ChatGPT上的技術(shù)創(chuàng)新活力。三是落實(shí)全流程覆蓋的動(dòng)態(tài)化監(jiān)管機(jī)制,意味著對(duì)ChatGPT運(yùn)算的全流程進(jìn)行監(jiān)管,這是為了降低算法偏見(jiàn)導(dǎo)致錯(cuò)誤結(jié)論的概率,不僅對(duì)機(jī)器學(xué)習(xí)進(jìn)行監(jiān)管來(lái)消除算法偏見(jiàn),對(duì)人工標(biāo)注也進(jìn)行相應(yīng)的監(jiān)管,防止ChatGPT在自我學(xué)習(xí)過(guò)程中產(chǎn)生算法偏見(jiàn)并將算法偏見(jiàn)擴(kuò)大。在技管結(jié)合的理念下構(gòu)建的全方位監(jiān)管體系,能夠及時(shí)發(fā)現(xiàn)與規(guī)制ChatGPT運(yùn)行過(guò)程中的算法偏見(jiàn),從側(cè)面系統(tǒng)地推進(jìn)算法可信可控制度體系的構(gòu)建,〔44〕這有利于ChatGPT這類(lèi)新興的生成式人工智能在現(xiàn)實(shí)社會(huì)中的應(yīng)用,避免算法偏見(jiàn)阻礙人工智能技術(shù)的發(fā)展與推廣。

    總之,ChatGPT的出現(xiàn)意味著人工智能的發(fā)展已經(jīng)邁入了新的階段,而作為其靈魂核心的算法也逐漸超越工具角色,成為執(zhí)行資源配置的基本法則?!?5〕面對(duì)ChatGPT中可能存在的算法偏見(jiàn)風(fēng)險(xiǎn),應(yīng)該在分析其具有的“機(jī)器學(xué)習(xí)+人工標(biāo)注”的技術(shù)特征的基礎(chǔ)上,依據(jù)技管結(jié)合的理念盡可能消除算法偏見(jiàn),不僅針對(duì)先天性算法偏見(jiàn)在技術(shù)層面與規(guī)范層面上進(jìn)行消除,還針對(duì)后天性算法偏見(jiàn)進(jìn)行全方位監(jiān)管,從而使得避免了算法偏見(jiàn)的生成式人工智能系統(tǒng)能夠被及時(shí)投入現(xiàn)實(shí)生活并加以應(yīng)用。

    三、提質(zhì)增效:生成式人工智能生成階段中知識(shí)產(chǎn)權(quán)的剖析與重塑

    生成式人工智能的興起給諸多產(chǎn)業(yè)帶來(lái)挑戰(zhàn),但其中影響最大的是在生成階段對(duì)知識(shí)產(chǎn)權(quán)領(lǐng)域帶來(lái)的挑戰(zhàn),因?yàn)樯墒饺斯ぶ悄艿闹悄芑潭确浅8?,在運(yùn)算時(shí)對(duì)于知識(shí)產(chǎn)權(quán)的歸屬相較于以往的人工智能系統(tǒng)產(chǎn)生了顛覆性變化, 所以知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)成為生成式人工智能無(wú)法規(guī)避的第三大風(fēng)險(xiǎn)?!渡墒饺斯ぶ悄芊?wù)管理辦法(征求意見(jiàn)稿)》中多次提及“尊重知識(shí)產(chǎn)權(quán)”“防止侵害知識(shí)產(chǎn)權(quán)”以及“不含有侵犯知識(shí)產(chǎn)權(quán)的內(nèi)容”,體現(xiàn)出規(guī)范層面對(duì)于生成式人工智能所可能造成的知識(shí)產(chǎn)權(quán)法益損害后果的重視,凸顯出規(guī)范制定過(guò)程中的務(wù)實(shí)性與前瞻性。事實(shí)上,雖然OpenAI公司在ChatGPT的《共享和發(fā)布政策》中提到與ChatGPT共同創(chuàng)作的內(nèi)容歸屬于用戶(hù),但同時(shí)也要求作品中必須以一種任何讀者都不會(huì)錯(cuò)過(guò)的方式來(lái)清楚地揭示ChatGPT的作用?!?6〕有鑒于此,對(duì)于ChatGPT在生成階段所引發(fā)的知識(shí)產(chǎn)權(quán)爭(zhēng)議,應(yīng)該以提質(zhì)增效的宗旨來(lái)尋求解決路徑,既要肯定并發(fā)掘出ChatGPT在創(chuàng)作上具備的技術(shù)優(yōu)勢(shì),又要根據(jù)ChatGPT的技術(shù)特征合理地調(diào)整知識(shí)產(chǎn)權(quán)分配模式。

    (一)基于技術(shù)模型剖析ChatGPT的知識(shí)產(chǎn)權(quán)屬性

    ChatGPT作為生成式人工智能,在處理和分析數(shù)據(jù)的能力上顯著強(qiáng)于分析式人工智能,其生成內(nèi)容的流程包括內(nèi)容自動(dòng)化編纂、智能化潤(rùn)色加工、多模態(tài)轉(zhuǎn)換以及創(chuàng)造性生成,直接改變出版的內(nèi)容生產(chǎn)范式與內(nèi)容供給模式,并由此引發(fā)了生成式人工智能的生成物是否受知識(shí)產(chǎn)權(quán)保護(hù)的問(wèn)題。在現(xiàn)實(shí)生活中,已經(jīng)有作者借助ChatGPT生成的內(nèi)容出書(shū)并賺取稿酬,已有超過(guò)200本ChatGPT署名創(chuàng)作的新書(shū)在亞馬遜網(wǎng)站上架,亞馬遜網(wǎng)站甚至為ChatGPT創(chuàng)作開(kāi)設(shè)了專(zhuān)欄。但事實(shí)上,雖然Chat-GPT創(chuàng)作的作品中部分蘊(yùn)含了自然人的創(chuàng)作因素(思想、情感),在一定程度上更符合作品構(gòu)成要件的要求,但對(duì)于這類(lèi)由生成式人工智能創(chuàng)作的作品能否賦權(quán)尚存爭(zhēng)議,而且具體的賦權(quán)認(rèn)定標(biāo)準(zhǔn)也仍屬空白?!?7〕ChatGPT創(chuàng)作作品的模式主要是挖掘人類(lèi)日常交流的文本,并進(jìn)行統(tǒng)計(jì)分析,甚至在對(duì)已有的數(shù)據(jù)庫(kù)進(jìn)行爬取后組合得出全新的作品,〔48〕因此這類(lèi)作品中“原創(chuàng)性”的含金量存在爭(zhēng)議,而這也是ChatGPT產(chǎn)生知識(shí)產(chǎn)權(quán)爭(zhēng)議的來(lái)源。事實(shí)上,即使是ChatGPT自身,對(duì)于其創(chuàng)作作品的屬性也存在“疑惑”,當(dāng)其被問(wèn)及“你生成的內(nèi)容是作品嗎? ”,ChatGPT承認(rèn)其可以根據(jù)輸入的提示來(lái)生成文本,但是這些生成的文本并不算是作品,因?yàn)檫@些作品并沒(méi)有蘊(yùn)含創(chuàng)造性、獨(dú)創(chuàng)性、藝術(shù)性等元素,僅是根據(jù)預(yù)先訓(xùn)練好的模型對(duì)輸入的提示進(jìn)行生成。因此,ChatGPT認(rèn)為其生成的內(nèi)容更類(lèi)似于工具或輔助工具,可以幫助公眾自動(dòng)生成一些文本,但其并不算是創(chuàng)意作品或原創(chuàng)作品?!?9〕與之相對(duì),2019年9月18日國(guó)際保護(hù)知識(shí)產(chǎn)權(quán)協(xié)會(huì)(AIPPI)《人工智能生成物的版權(quán)問(wèn)題決議》提出,人工智能生成物在其生成過(guò)程中有人類(lèi)干預(yù)且該生成物符合受保護(hù)作品應(yīng)滿(mǎn)足的其他條件情況下, 能夠獲得版權(quán)保護(hù),而對(duì)于生成過(guò)程無(wú)人類(lèi)干預(yù)的人工智能生成物無(wú)法獲得版權(quán)保護(hù)。在學(xué)界,關(guān)于人工智能生成物的屬性爭(zhēng)訟不休,人工智能知識(shí)產(chǎn)權(quán)支持者認(rèn)為“人工智能生成物是一種對(duì)設(shè)計(jì)版權(quán)的演繹作品”,〔50〕而人工智能知識(shí)產(chǎn)權(quán)反對(duì)者則認(rèn)為當(dāng)前的人工智能生成物只是數(shù)據(jù)算法的結(jié)論,其本質(zhì)上是計(jì)算與模仿,而非智力勞動(dòng),不具有智力財(cái)產(chǎn)的屬性,無(wú)法成為知識(shí)產(chǎn)權(quán)的客體,應(yīng)當(dāng)歸屬于公有領(lǐng)域?!?1〕在司法實(shí)踐中,對(duì)于人工智能生成物的保護(hù)大多持積極態(tài)度,比如“當(dāng)字庫(kù)中出現(xiàn)既不同于現(xiàn)存的古代書(shū)法字體,也不同于現(xiàn)有電腦字庫(kù)中已存在的公用字體,還不同于通常手書(shū)美術(shù)字體的新字體,這種新字體具有一定的獨(dú)創(chuàng)特征,該獨(dú)創(chuàng)性是通過(guò)人工智能的途徑取得的,屬于知識(shí)產(chǎn)權(quán)的范疇”,〔52〕因此人工智能的生成物在具有獨(dú)創(chuàng)性與創(chuàng)新性時(shí)為法律所保護(hù)。面對(duì)ChatGPT生成物的知識(shí)產(chǎn)權(quán)爭(zhēng)議,無(wú)論是ChatGPT自身的回應(yīng),還是學(xué)界不同觀點(diǎn)的碰撞,實(shí)際上都應(yīng)該回歸到技術(shù)的研討上來(lái),通過(guò)對(duì)技術(shù)模型的剖析來(lái)判斷ChatGPT生成物的屬性。生成式人工智能的技術(shù)進(jìn)步,生成物中人工智能的介入方式與內(nèi)容都不同以往,如果忽視技術(shù)進(jìn)步而對(duì)生成物屬性的判斷過(guò)于簡(jiǎn)單,則會(huì)和技術(shù)發(fā)展脫節(jié),阻礙人工智能技術(shù)的提質(zhì)增效。

    相較于傳統(tǒng)的人工智能技術(shù),ChatGPT作為生成式人工智能的創(chuàng)新之處在于其將部分自主意識(shí)貫徹至生產(chǎn)加工的全過(guò)程,其不同于以往的算法程序性創(chuàng)造,而是通過(guò)神經(jīng)卷積網(wǎng)絡(luò)控制自身的設(shè)計(jì)與制造,初步展現(xiàn)出深度學(xué)習(xí)能力,模擬人腦神經(jīng)網(wǎng)絡(luò)的構(gòu)造來(lái)獲取與輸出數(shù)據(jù)。〔53〕雖然當(dāng)Chat-GPT的創(chuàng)作力度達(dá)到“詞”的級(jí)別時(shí)已經(jīng)幾近極限,其并未完全跳躍出訓(xùn)練文本庫(kù)的歸納范圍,但不能據(jù)此就否認(rèn)ChatGPT的技術(shù)進(jìn)步,尤其是在GPT3.5升級(jí)為GPT4之后,其神經(jīng)元數(shù)量已經(jīng)可以媲美正常的人類(lèi)思維,即使尚不能及,也不能全盤(pán)否定。在技術(shù)迭代升級(jí)的背景之下,理論必因社會(huì)發(fā)展變化而更新?!?4〕對(duì)于ChatGPT生成物的知識(shí)產(chǎn)權(quán)屬性,應(yīng)該根據(jù)現(xiàn)有技術(shù)的運(yùn)行模式與技術(shù)特征來(lái)判定其是否具有知識(shí)產(chǎn)權(quán)屬性。第一,相較于分析式人工智能,生成式人工智能的接收端必然要有人類(lèi)意志的參與,即公眾向ChatGPT反饋?zhàn)约旱男枨?,這就代表人類(lèi)意志已經(jīng)干預(yù)了ChatGPT的創(chuàng)作,所以理論上其作品具有部分人的意志,這符合知識(shí)產(chǎn)權(quán)的兜底性要求,并滿(mǎn)足《人工智能生成物的版權(quán)問(wèn)題決議》中的規(guī)定。此外,人類(lèi)意志的介入也為ChatGPT生成物的知識(shí)產(chǎn)權(quán)歸屬指明了方向,因?yàn)槿祟?lèi)思維的介入, 人類(lèi)思維成為知識(shí)產(chǎn)權(quán)獨(dú)創(chuàng)性的基礎(chǔ)性要素,ChatGPT生成物的知識(shí)產(chǎn)權(quán)應(yīng)該屬于提問(wèn)者,這也和OpenAI公司的《共享和發(fā)布政策》的規(guī)定不謀而合?!?5〕第二,生成式人工智能的算法模型內(nèi)部采用“機(jī)器學(xué)習(xí)+人工標(biāo)注”模式,而人工標(biāo)注模式體現(xiàn)了人的意志,并且將人的意志以運(yùn)行規(guī)律和學(xué)習(xí)算法的形式在生成式人工智能中進(jìn)行傳承,因此ChatGPT具有類(lèi)人的智慧,甚至部分情況下通過(guò)了圖靈測(cè)試,這種類(lèi)人的生成式人工智能逐漸突破了傳統(tǒng)的技術(shù)壁壘,通過(guò)“機(jī)器學(xué)習(xí)+人工標(biāo)注”的技術(shù)進(jìn)步給其生成物注入了創(chuàng)新性與獨(dú)創(chuàng)性的“靈魂”,而且這些“靈魂”具有可解釋性,可以追溯并解釋其產(chǎn)生路徑,所以應(yīng)該承認(rèn)其具有知識(shí)產(chǎn)權(quán)。第三,從工程技術(shù)的角度分析,ChatGPT的可解釋性遠(yuǎn)超一般預(yù)期,2023年5月10日,OpenAI公司發(fā)布了一個(gè)關(guān)于GPT4語(yǔ)言模型解析神經(jīng)元的對(duì)齊性研究成果,利用GPT4的技術(shù)架構(gòu)來(lái)解釋包含307200個(gè)神經(jīng)元的GPT2架構(gòu),也就是用ChatGPT來(lái)“解釋”Chat-GPT。這種技術(shù)模型上的進(jìn)步意味著ChatGPT具備一定的“自我反省能力”,這為ChatGPT突破“可解釋性的迷障” 提供了更強(qiáng)有力的技術(shù)支撐, 側(cè)面印證了對(duì)ChatGPT的運(yùn)行機(jī)理加以解釋具有實(shí)際可行性。鑒于此,當(dāng)ChatGPT不斷優(yōu)化升級(jí)時(shí),其技術(shù)模型上的可解釋性也隨之增強(qiáng),公眾甚至可以通過(guò)技術(shù)模型本身來(lái)具體解釋ChatGPT中新生成內(nèi)容的產(chǎn)生機(jī)理,而這也成為印證ChatGPT的生成物具有獨(dú)創(chuàng)性與創(chuàng)新性且應(yīng)該被賦予知識(shí)產(chǎn)權(quán)的有力依據(jù)。

    總之,ChatGPT作為生成式人工智能,其人工智能技術(shù)模型存在突破性進(jìn)步,并且本身運(yùn)行過(guò)程中與個(gè)人的意志之間進(jìn)行互動(dòng)交流,其算法模型內(nèi)部也存在“人工標(biāo)準(zhǔn)”所附隨的個(gè)人意志,具有一定的可解釋性,因此其生成物具有創(chuàng)新性與獨(dú)創(chuàng)性,滿(mǎn)足賦予其知識(shí)產(chǎn)權(quán)的實(shí)質(zhì)要求。如何創(chuàng)新發(fā)展傳統(tǒng)知識(shí)產(chǎn)權(quán)制度,以使之適應(yīng)生成式人工智能的發(fā)展,需要持續(xù)性的關(guān)注和思考。

    (二)依據(jù)可解釋性重塑ChatGPT的知識(shí)產(chǎn)權(quán)保護(hù)體系

    對(duì)于生成式人工智能生成物的保護(hù),不能對(duì)所有內(nèi)容都進(jìn)行保護(hù),因?yàn)檫@樣會(huì)導(dǎo)致公眾在應(yīng)用ChatGPT時(shí)處于束手束腳的狀態(tài),同時(shí)也不利于生成式人工智能技術(shù)自身的發(fā)展,所以對(duì)于ChatGPT的知識(shí)產(chǎn)權(quán)的保護(hù)應(yīng)該采用有重點(diǎn)、有選擇的保護(hù)模式,并針對(duì)具體的保護(hù)內(nèi)容構(gòu)建知產(chǎn)合規(guī)體系。

    2021年12月24日,全國(guó)人大常委會(huì)修訂后的中華人民共和國(guó)科技進(jìn)步法第13條規(guī)定,國(guó)家制定和實(shí)施知識(shí)產(chǎn)權(quán)戰(zhàn)略,建立和完善知識(shí)產(chǎn)權(quán)制度,營(yíng)造尊重知識(shí)產(chǎn)權(quán)的社會(huì)環(huán)境,保護(hù)知識(shí)產(chǎn)權(quán),激勵(lì)自主創(chuàng)新。企業(yè)事業(yè)單位、社會(huì)組織和科學(xué)技術(shù)人員應(yīng)當(dāng)增強(qiáng)知識(shí)產(chǎn)權(quán)意識(shí),增強(qiáng)自主創(chuàng)新能力,提高創(chuàng)造、運(yùn)用、保護(hù)、管理和服務(wù)知識(shí)產(chǎn)權(quán)的能力,提高知識(shí)產(chǎn)權(quán)質(zhì)量。這從宏觀層面體現(xiàn)出國(guó)家對(duì)于知識(shí)產(chǎn)權(quán)保護(hù)體系建設(shè)的重視。數(shù)字技術(shù)的進(jìn)步導(dǎo)致生成式超人工智能的生成物的創(chuàng)作、保存、分發(fā)知識(shí)內(nèi)容(圖像、音樂(lè)、文字和視頻)的過(guò)程發(fā)生了根本性變化,〔56〕而這些變化主要來(lái)源于生成式人工智能技術(shù)利用可解釋性算法創(chuàng)造的具有實(shí)際價(jià)值的內(nèi)容, 如ChatGPT的技術(shù)核心在于其中可解釋性算法部分,由可解釋性算法所生成的內(nèi)容才具有創(chuàng)新性與獨(dú)創(chuàng)性,因此可解釋性算法及其生成的內(nèi)容才是ChatGPT知識(shí)產(chǎn)權(quán)的保護(hù)重點(diǎn)。

    在ChatGPT中圍繞可解釋性重塑知識(shí)產(chǎn)權(quán)保護(hù)體系,主要是打破傳統(tǒng)人工智能技術(shù)的“束縛”,同時(shí)也以合理的標(biāo)準(zhǔn)限制人工智能技術(shù)的過(guò)度擴(kuò)張,避免知識(shí)產(chǎn)權(quán)保護(hù)范圍被無(wú)序化擴(kuò)大。在以往的人工智能技術(shù)中,算法決策根據(jù)輸入數(shù)據(jù)得出結(jié)論,人工智能所得出的結(jié)論是其自主性的結(jié)果,具有不可預(yù)測(cè)性,該結(jié)論并非設(shè)計(jì)者可以控制的,也不體現(xiàn)設(shè)計(jì)者的意圖,所以無(wú)法被解釋?zhuān)@種不可解釋性使我們很難證明“其是否被設(shè)定了損害權(quán)利的算法(算法偏差),或者人工智能是否以及怎樣自動(dòng)基于自主學(xué)習(xí)而生成了爭(zhēng)議言論”,〔57〕那么對(duì)應(yīng)的知識(shí)產(chǎn)權(quán)保護(hù)體系也就無(wú)從談起。在人工智能領(lǐng)域,雖然以深度學(xué)習(xí)為代表的人工智能技術(shù)已取得了令人矚目的成就,但如何確保以非技術(shù)性的方式向最終用戶(hù)和其他利益相關(guān)方解釋算法決策以及任何驅(qū)動(dòng)這些決策的數(shù)據(jù),仍然是橫亙?cè)谌斯ぶ悄苌晌镏R(shí)產(chǎn)權(quán)合規(guī)保護(hù)體系面前的難題,以往人工智能的算法“黑箱”釋明難題導(dǎo)致了人工智能生成物的不可解釋性。法律責(zé)任的本質(zhì)是答責(zé),不具有可解釋性的人工智能不能自我答責(zé),其無(wú)法承擔(dān)法律責(zé)任,而法律責(zé)任的目的是預(yù)防,不具有可解釋性的人工智能無(wú)法實(shí)現(xiàn)法律責(zé)任的預(yù)防目的,〔58〕法律保護(hù)也就無(wú)從談起。但與之相對(duì),ChatGPT的技術(shù)進(jìn)步和應(yīng)用模式意味著生成式人工智能中部分內(nèi)容是可解釋的,“在自然界中,每一物件都是按照規(guī)律起作用。唯獨(dú)有理性的東西有能力按照對(duì)規(guī)律的觀念,也就是按照原則而行動(dòng),或者說(shuō),具有意志”?!?9〕鑒于“機(jī)器學(xué)習(xí)+人工標(biāo)注”的介入使得算法程序編譯者自身的意志在“人工標(biāo)注”的過(guò)程中介入了ChatGPT的程序編譯過(guò)程,這導(dǎo)致Chat-GPT中的部分程序可以被解釋?zhuān)敲纯梢员唤忉尩牟糠炙惴ㄒ约皩?duì)應(yīng)的生成物就天然地具有獨(dú)創(chuàng)性與創(chuàng)新性,并值得賦予知識(shí)產(chǎn)權(quán)保護(hù)。這同時(shí)也給ChatGPT的知識(shí)產(chǎn)權(quán)保護(hù)體系劃定了保護(hù)范圍,即以可解釋性作為保護(hù)的范圍,而這些可解釋性的算法與內(nèi)容在知產(chǎn)保護(hù)體系中也具有實(shí)際可操作性。

    圍繞ChatGPT中的可解釋性?xún)?nèi)容來(lái)重塑其知識(shí)產(chǎn)權(quán)保護(hù)體系, 可以參照已有的經(jīng)驗(yàn)并結(jié)合Chat-GPT的技術(shù)特征來(lái)制定其特有的保護(hù)體系。第一,明確ChatGPT中知識(shí)產(chǎn)權(quán)合規(guī)保護(hù)體系的保護(hù)對(duì)象是其中的可解釋內(nèi)容,包括可解釋算法以及由可解釋算法得出的具體內(nèi)容,以此為重心構(gòu)建保護(hù)體系,可以將保護(hù)的重心限縮到ChatGPT的核心價(jià)值領(lǐng)域,以有效地保護(hù)ChatGPT的生產(chǎn)能力。第二,明確ChatGPT的具體保護(hù)任務(wù),分為基礎(chǔ)性保護(hù)任務(wù)與專(zhuān)門(mén)性保護(hù)任務(wù),前者主要針對(duì)知識(shí)產(chǎn)權(quán)保護(hù)的一般預(yù)防,而后者主要針對(duì)ChatGPT的技術(shù)特征進(jìn)行強(qiáng)化保護(hù),構(gòu)建特定的具有預(yù)防、監(jiān)控和應(yīng)對(duì)作用的專(zhuān)門(mén)化管理制度,根據(jù)生成式人工智能和傳統(tǒng)的分析式人工智能在技術(shù)模式上的區(qū)別引入差異化的管理要素。〔60〕第三,針對(duì)ChatGPT的可解釋性?xún)?nèi)容構(gòu)建全流程的保護(hù),對(duì)ChatGPT生成物的保護(hù)計(jì)劃的設(shè)計(jì)和運(yùn)行效果進(jìn)行全過(guò)程審查,避免知識(shí)產(chǎn)權(quán)保護(hù)出現(xiàn)漏洞。雖然ChatGPT的可解釋性?xún)?nèi)容主要集中在后半段的內(nèi)容生成,但是前半段對(duì)于基礎(chǔ)數(shù)據(jù)的選擇以及知識(shí)產(chǎn)權(quán)的保護(hù)也應(yīng)該是題中應(yīng)有之義,從而實(shí)現(xiàn)對(duì)可解釋性?xún)?nèi)容的全流程合規(guī)監(jiān)管。第四,ChatGPT針對(duì)可解釋內(nèi)容的知識(shí)產(chǎn)權(quán)保護(hù)應(yīng)該引入全新的保護(hù)技術(shù),比如“數(shù)字版權(quán)管理技術(shù)”(Digital#Rights#Management,#DRM)。通過(guò)DRM技術(shù)來(lái)設(shè)置對(duì)ChatGPT中可解釋算法的訪問(wèn)權(quán)限,〔61〕DRM分為基于密碼技術(shù)的DRM系統(tǒng)和基于數(shù)字水印的DRM系統(tǒng)以及兩者相結(jié)合的系統(tǒng),當(dāng)網(wǎng)絡(luò)空間出現(xiàn)侵權(quán)內(nèi)容時(shí),監(jiān)管保護(hù)機(jī)構(gòu)可以及時(shí)刪除侵權(quán)信息、斷開(kāi)侵權(quán)鏈接,〔62〕防止針對(duì)ChatGPT的侵權(quán)內(nèi)容范圍擴(kuò)張,DRM技術(shù)的應(yīng)用可以為知產(chǎn)保護(hù)體系提供技術(shù)支撐,在提質(zhì)增效的同時(shí)和ChatGPT技術(shù)相配合,構(gòu)建一體化的知產(chǎn)保護(hù)體系。

    總之,數(shù)字經(jīng)濟(jì)的興起需要新興的人工智能技術(shù)提供新的產(chǎn)值,同時(shí)人工智能生成物、人工智能技術(shù)等也逐漸成為知識(shí)產(chǎn)權(quán)保護(hù)的新客體,這增加了知識(shí)產(chǎn)權(quán)安全風(fēng)險(xiǎn)和保護(hù)難度?!?3〕既然在大數(shù)據(jù)人工智能時(shí)代,人的生活與行動(dòng)開(kāi)始被智能化算法所“綁架”,“人”的主體性地位逐漸喪失,并實(shí)現(xiàn)人與技術(shù)的“和解”,〔64〕而“和解”的前提是人工智能技術(shù)中可解釋性?xún)?nèi)容的增加,那么就應(yīng)該借此機(jī)會(huì)強(qiáng)化對(duì)人工智能技術(shù)中可解釋性?xún)?nèi)容的保護(hù),實(shí)現(xiàn)技術(shù)和監(jiān)管的相互配合,并為司法實(shí)踐提供外部助力?!?5〕在ChatGPT中圍繞可解釋性?xún)?nèi)容塑造知產(chǎn)保護(hù)體系,既可以實(shí)現(xiàn)保護(hù)目的,為ChatGPT技術(shù)的發(fā)展提供良好的外部環(huán)境,又可以合理地限制保護(hù)范圍,避免知產(chǎn)保護(hù)范圍的無(wú)序擴(kuò)張引發(fā)社會(huì)爭(zhēng)議,而是以實(shí)質(zhì)性的ChatGPT可解釋內(nèi)容作為知產(chǎn)保護(hù)的核心要旨,營(yíng)造良好的人工智能整體發(fā)展環(huán)境,為ChatGPT的提質(zhì)增效提供法律保障。

    結(jié)語(yǔ)

    “智能時(shí)代是由大數(shù)據(jù)與人工智能等技術(shù)驅(qū)動(dòng)發(fā)展的時(shí)代?!薄?6〕伴隨以ChatGPT為代表的生成式人工智能技術(shù)的蓬勃發(fā)展,元宇宙等未來(lái)人工智能環(huán)境的構(gòu)建指日可待,生成式人工智能技術(shù)的成熟是人與人工智能在語(yǔ)言上的交互,而后就是行為上的交互,最終實(shí)現(xiàn)高度智能化的人工智能整體場(chǎng)景,甚至在2030年前后元宇宙將無(wú)處不在。〔67〕隨著生成式人工智能的發(fā)展與應(yīng)用,雖然當(dāng)前很多附隨的社會(huì)影響并不明顯,卻有可能在未來(lái)的生成階段產(chǎn)生后續(xù)影響,必須進(jìn)行前瞻性預(yù)防。以Chat-GPT為代表的生成式人工智能在社會(huì)應(yīng)用過(guò)程中產(chǎn)生的擴(kuò)散影響還有很多, 除了上述三大安全風(fēng)險(xiǎn)之外,仍然有很多其他類(lèi)型的安全風(fēng)險(xiǎn),比如影響教育公平,其生成的內(nèi)容可能導(dǎo)致學(xué)生獲得不正當(dāng)?shù)母?jìng)爭(zhēng)優(yōu)勢(shì),包括美國(guó)、澳大利亞、新加坡的教育機(jī)構(gòu)已經(jīng)對(duì)ChatGPT可能引發(fā)的作弊危機(jī)進(jìn)行評(píng)估,部分高校已經(jīng)禁止學(xué)生利用ChatGPT提交論文作業(yè), 違反者將被直接認(rèn)定為作弊。再如影響科研倫理,對(duì)ChatGPT不當(dāng)使用可能會(huì)使人類(lèi)產(chǎn)生技術(shù)依賴(lài),進(jìn)而損害自身的獨(dú)立自主性和學(xué)術(shù)品質(zhì)。〔68〕還如,對(duì)碳中和的環(huán)境保護(hù)的影響,生成式人工智能的運(yùn)算需要將電力資源轉(zhuǎn)化為算力資源,但在這一過(guò)程中會(huì)消耗大量的能源,所以對(duì)生成式人工智能需要國(guó)家層面的合理規(guī)劃,對(duì)于人工智能體系進(jìn)行合理的布局建設(shè),避免資源浪費(fèi),貫徹綠色原則。最后是可能造成數(shù)字鴻溝進(jìn)一步增大,損害數(shù)字弱勢(shì)群體的利益。一方面,ChatGPT導(dǎo)致個(gè)人和平臺(tái)之間處于絕對(duì)的信息不對(duì)稱(chēng),平臺(tái)占據(jù)了絕對(duì)的信息優(yōu)勢(shì),個(gè)人的權(quán)利被進(jìn)一步壓縮?!?9〕另一方面,不同群體之間的差異在ChatGPT的語(yǔ)境中更加明顯,比如ChatGPT可能擴(kuò)大“銀發(fā)鴻溝”,導(dǎo)致老年人的權(quán)益受損,限縮老年人基本生活選擇,降低老年人的生活質(zhì)量,危及老年人社會(huì)參與積極性?!?0〕自然科學(xué)的知識(shí)與技術(shù)應(yīng)用于法律現(xiàn)象的情況愈演愈烈,為了避免陷入技術(shù)主義的陷阱,〔71〕需要分析新興技術(shù)對(duì)當(dāng)前社會(huì)以及未來(lái)社會(huì)所可能造成的影響,并且從法律規(guī)制的角度提供可行的解決之策??傊?,對(duì)于生成式人工智能所帶來(lái)的沖擊,既要著眼于其在當(dāng)前已經(jīng)造成的安全風(fēng)險(xiǎn)并進(jìn)行合理規(guī)制,又要考慮其在未來(lái)所可能造成的泛化的安全風(fēng)險(xiǎn),基于風(fēng)險(xiǎn)預(yù)防主義,對(duì)其在各行各業(yè)所可能造成的暫不顯著的安全風(fēng)險(xiǎn)進(jìn)行提前預(yù)防,從而在最大程度上發(fā)揮生成式人工智能的技術(shù)效能,同時(shí)減少新興技術(shù)對(duì)社會(huì)發(fā)展造成的負(fù)面沖擊。

    猜你喜歡
    生成式人工智能數(shù)據(jù)安全知識(shí)產(chǎn)權(quán)
    挑戰(zhàn)·融合·變革:“ChatGPT與未來(lái)教育”會(huì)議綜述
    生成式人工智能重塑教育及教師應(yīng)對(duì)之道
    人機(jī)共生時(shí)代國(guó)際傳播的理念升維與自主敘事體系構(gòu)建
    生成式人工智能的教育應(yīng)用與展望
    云計(jì)算中基于用戶(hù)隱私的數(shù)據(jù)安全保護(hù)方法
    電子制作(2019年14期)2019-08-20 05:43:42
    建立激勵(lì)相容機(jī)制保護(hù)數(shù)據(jù)安全
    重慶五大舉措打造知識(shí)產(chǎn)權(quán)強(qiáng)市
    大數(shù)據(jù)云計(jì)算環(huán)境下的數(shù)據(jù)安全
    電子制作(2017年20期)2017-04-26 06:57:48
    關(guān)于知識(shí)產(chǎn)權(quán)損害賠償?shù)膸c(diǎn)思考
    大數(shù)據(jù)安全搜索與共享
    汝南县| 舞阳县| 阿拉善盟| 剑川县| 阿瓦提县| 临沂市| 宜昌市| 凌海市| 房产| 新化县| 临潭县| 古田县| 南城县| 呼和浩特市| 彰武县| 柯坪县| 普陀区| 温宿县| 东莞市| 香港| 平昌县| 县级市| 都昌县| 建平县| 东港市| 塘沽区| 温泉县| 屏山县| 东明县| 岐山县| 垫江县| 铁力市| 嘉黎县| 屏东市| 西藏| 枣庄市| 松阳县| 横山县| 新民市| 应城市| 兴山县|