李緒青 朱閣
[摘要] ChatGPT是人工智能生成內(nèi)容的典型應(yīng)用成果。這項(xiàng)技術(shù)以大數(shù)據(jù)學(xué)習(xí)作為基礎(chǔ)并通過(guò)相應(yīng)算法不斷優(yōu)化而成,其風(fēng)險(xiǎn)主要體現(xiàn)在數(shù)據(jù)和算法的使用上。同時(shí)其所展現(xiàn)的強(qiáng)大能力將對(duì)人類社會(huì)的方方面面以及個(gè)人權(quán)益造成嚴(yán)重影響。本次技術(shù)革新的延展性甚至超過(guò)20世紀(jì)初的互聯(lián)網(wǎng)技術(shù),任何國(guó)家不可能對(duì)此置身事外。人工智能系大勢(shì)所趨,開(kāi)展風(fēng)險(xiǎn)認(rèn)知、治理策略研究刻不容緩,同時(shí)應(yīng)以高效的機(jī)制體制建設(shè)規(guī)范其健康發(fā)展。
[關(guān)鍵詞] 人工智能;? 數(shù)據(jù)安全;? 治理與監(jiān)管
[中圖分類號(hào)] TP18? ? ? ? ?[文獻(xiàn)標(biāo)識(shí)碼] A? ? ? ? ?[文章編號(hào)] 0529-1445(2023)06-0049-03
ChatGPT向世人展現(xiàn)了人工智能技術(shù)在文本處理領(lǐng)域的極致效率和巨大潛力,使得AIGC(Artificial Intelligence Generated Content,即人工智能生成內(nèi)容)這一賽道受到各國(guó)廣泛關(guān)注,頭部公司蜂擁進(jìn)入,訓(xùn)練并推出自己的AIGC應(yīng)用。AIGC在本質(zhì)上是一種生產(chǎn)方式的變革,推動(dòng)內(nèi)容生產(chǎn)方式從“作坊式”走向“流水線”。今后,熟練掌握各個(gè)AIGC產(chǎn)品使用方式的人,就像一個(gè)指揮官,通過(guò)發(fā)送指令的方式指揮AI產(chǎn)出不同的內(nèi)容。
當(dāng)前,從圖像、語(yǔ)音、文本、視頻、設(shè)計(jì)、音樂(lè)、代碼、數(shù)字人、游戲等多個(gè)方向看,AIGC技術(shù)已經(jīng)在各個(gè)領(lǐng)域得到廣泛應(yīng)用和發(fā)展。未來(lái)兩三年,AIGC的初創(chuàng)公司和商業(yè)落地案例將持續(xù)增加。目前由人工智能生成的內(nèi)容占所有內(nèi)容的比例不到1%,根據(jù)Gartner預(yù)測(cè),到2025年,這一比例將達(dá)到10%。1鑒于AIGC爆發(fā)出來(lái)的巨大生產(chǎn)力,人工智能生成的內(nèi)容占所有內(nèi)容的比例將會(huì)呈現(xiàn)指數(shù)型增長(zhǎng)。
AIGC技術(shù)應(yīng)用潛藏多種風(fēng)險(xiǎn)
AIGC技術(shù)在通過(guò)大數(shù)據(jù)學(xué)習(xí)賦能各領(lǐng)域發(fā)展的同時(shí),其自帶的風(fēng)險(xiǎn)及被惡意使用的后果也可以帶來(lái)毀滅性的影響。AIGC技術(shù)系以大數(shù)據(jù)學(xué)習(xí)作為基礎(chǔ)并通過(guò)相應(yīng)算法不斷優(yōu)化而成,因此其自身風(fēng)險(xiǎn)首先體現(xiàn)在數(shù)據(jù)和算法的使用上。
數(shù)據(jù)安全問(wèn)題首當(dāng)其沖。目前,ChatGPT并未公開(kāi)其訓(xùn)練數(shù)據(jù)的來(lái)源和具體細(xì)節(jié),而其他公司也將預(yù)訓(xùn)練時(shí)所使用的數(shù)據(jù)作為商業(yè)機(jī)密未向社會(huì)公開(kāi),不禁讓人質(zhì)疑其所使用的訓(xùn)練數(shù)據(jù)是否為合法方式獲取,是否獲得相關(guān)權(quán)利人的授權(quán)。同時(shí),用戶在使用ChatGPT過(guò)程中,會(huì)被收集個(gè)人信息或其他資料,因此,存在泄露個(gè)人信息、商業(yè)秘密或國(guó)家秘密的風(fēng)險(xiǎn)。前不久,韓國(guó)某公司就爆出三起因員工使用ChatGPT,導(dǎo)致該公司的半導(dǎo)體設(shè)備測(cè)量數(shù)據(jù)、產(chǎn)品良率等內(nèi)容傳輸?shù)紺hatGPT訓(xùn)練數(shù)據(jù)庫(kù)的事件。
算法歧視和偏見(jiàn)需要重視。已有實(shí)例表明,ChatGPT存在一定的歧視性因素。美國(guó)加州大學(xué)計(jì)算機(jī)認(rèn)知科學(xué)家對(duì)ChatGPT進(jìn)行測(cè)試,發(fā)現(xiàn)輸出結(jié)果存在種族偏見(jiàn)和性別偏見(jiàn)問(wèn)題。比如,ChatGPT在對(duì)話中表示,只有白人男性才會(huì)成為科學(xué)家。此外,研究表明ChatGPT具有政治傾向和立場(chǎng),這可能會(huì)對(duì)普通人的思維模式和認(rèn)知產(chǎn)生影響,引發(fā)不同階層的對(duì)立和日常矛盾的激化。
自然人人身權(quán)利易受侵害。隨著AIGC技術(shù)在繪畫、聲音等與人身權(quán)利密切相關(guān)的領(lǐng)域大放異彩,許多人便動(dòng)起了歪心思。在北京互聯(lián)網(wǎng)法院審理的“AI陪伴”案件中,用戶可以通過(guò)涉案軟件,使用原告的姓名、肖像創(chuàng)設(shè)虛擬人物,同時(shí)還可以與該AI角色設(shè)定身份關(guān)系,設(shè)定任意相互稱謂,通過(guò)制作素材“調(diào)教”角色,從而獲得與原告近乎真實(shí)的互動(dòng)體驗(yàn)。法院經(jīng)審理認(rèn)定,被告未經(jīng)同意使用原告的姓名、肖像,設(shè)定涉及原告人格自由和人格尊嚴(yán)的系統(tǒng)功能,構(gòu)成對(duì)原告姓名權(quán)、肖像權(quán)、一般人格權(quán)的侵害。
學(xué)術(shù)規(guī)范風(fēng)險(xiǎn)凸顯。自2022年底發(fā)布以來(lái),ChatGPT被許多學(xué)生用于完成作業(yè)或撰寫論文,對(duì)學(xué)術(shù)研究工作造成了重大沖擊。利用ChatGPT完成學(xué)習(xí)任務(wù)可以很好地避開(kāi)論文查重等問(wèn)題,且質(zhì)量效率遠(yuǎn)超此前許多商家開(kāi)發(fā)的解題軟件,對(duì)學(xué)生極具誘惑力。考慮到在教育科研領(lǐng)域可能引發(fā)的問(wèn)題,許多學(xué)校、組織陸續(xù)發(fā)出聲明,禁止或嚴(yán)格限制學(xué)生使用ChatGPT進(jìn)行論文寫作。
對(duì)社會(huì)運(yùn)行的沖擊不容忽視。隨著AIGC技術(shù)被不斷深挖,并與教育、醫(yī)療、繪畫等領(lǐng)域相融合,可以預(yù)見(jiàn)在不久的將來(lái),各行各業(yè)都將接入AI大模型。這勢(shì)必導(dǎo)致行業(yè)內(nèi)原本從事較為簡(jiǎn)單和重復(fù)性工作的勞動(dòng)崗位被取代,同時(shí)也會(huì)加劇不同層次人員之間的信息差。
堵與疏的抉擇
對(duì)于ChatGPT技術(shù)的發(fā)展,不同國(guó)家采取了不一樣的監(jiān)管措施。2023年3月31日起,意大利禁止使用ChatGPT,德國(guó)、加拿大等國(guó)也表示出于數(shù)據(jù)保護(hù)方面的考慮,將禁止使用ChatGPT或?qū)θ斯ぶ悄懿扇「訃?yán)格的監(jiān)管。
早在2021年,歐盟為積極應(yīng)對(duì)人工智能的高速發(fā)展,提出《歐洲議會(huì)和理事會(huì)關(guān)于制定人工智能統(tǒng)一規(guī)則》,這是世界范圍內(nèi)最為系統(tǒng)的人工智能立法探索,該法案已經(jīng)經(jīng)歷多輪討論和修改。其最新草案提出,應(yīng)該嚴(yán)格禁止“對(duì)人類安全造成不可接受風(fēng)險(xiǎn)的人工智能系統(tǒng)”,包括有目的地操縱技術(shù),利用人性弱點(diǎn)或根據(jù)行為、社會(huì)地位和個(gè)人特征等進(jìn)行評(píng)價(jià)的系統(tǒng)等。該草案還要求人工智能公司對(duì)其算法保持人為控制,提供技術(shù)文件,并為高風(fēng)險(xiǎn)應(yīng)用建立風(fēng)險(xiǎn)管理系統(tǒng)。
美國(guó)于2022年秋季公布《人工智能權(quán)利法案藍(lán)圖》,確定五個(gè)原則,涉及系統(tǒng)的安全有效性、算法歧視的保護(hù)、數(shù)據(jù)隱私問(wèn)題、通知和解釋問(wèn)題以及人工替代方案、考慮和退路等方面,意在指導(dǎo)規(guī)范人工智能系統(tǒng)的設(shè)計(jì)、使用和部署。2023年1月,美國(guó)發(fā)布《人工智能風(fēng)險(xiǎn)管理框架》,將可信度考量納入設(shè)計(jì)、開(kāi)發(fā)、使用和評(píng)估AI產(chǎn)品、服務(wù)和系統(tǒng)中,并基于其他機(jī)構(gòu)的AI風(fēng)險(xiǎn)管理工作,要求確保制定過(guò)程公開(kāi)、透明。
事實(shí)上,我國(guó)一直高度重視人工智能技術(shù)的發(fā)展和治理,從2017年國(guó)務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)劃》,到2022年《最高人民法院關(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見(jiàn)》,我國(guó)人工智能治理各級(jí)文件中均提出了“安全可控”的治理目標(biāo),具體制度層面均提到建立公開(kāi)透明的制度體系、建立相應(yīng)問(wèn)責(zé)機(jī)制、加強(qiáng)技術(shù)和應(yīng)用全流程監(jiān)管等。2023年4月,國(guó)家網(wǎng)信辦發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(以下簡(jiǎn)稱《管理辦法》),面向社會(huì)公開(kāi)征求意見(jiàn)?!豆芾磙k法》共21條,對(duì)生成內(nèi)容、責(zé)任主體、訓(xùn)練數(shù)據(jù)、算法設(shè)計(jì)、用戶管理等方面均制定了監(jiān)管要求。
發(fā)展與監(jiān)管并駕齊驅(qū)
科技治理為科技創(chuàng)新保駕護(hù)航,人工智能治理已成為重要的國(guó)際科技競(jìng)爭(zhēng)力。我國(guó)是最早對(duì)人工智能進(jìn)行監(jiān)管治理的國(guó)家之一,對(duì)于如何通過(guò)制度設(shè)計(jì)平衡科技發(fā)展和風(fēng)險(xiǎn)防范之間的關(guān)系,至今仍是擺在我們面前迫切需要解決的難題。
大力發(fā)展人工智能基礎(chǔ)設(shè)施建設(shè)。人工智能技術(shù)的發(fā)展離不開(kāi)三個(gè)核心要素:數(shù)據(jù)、算法、算力。AI大模型的訓(xùn)練離不開(kāi)大量合法、優(yōu)質(zhì)的數(shù)據(jù);AI大模型輸出優(yōu)質(zhì)的內(nèi)容離不開(kāi)優(yōu)秀的算法;AI大模型進(jìn)行大規(guī)模運(yùn)算離不開(kāi)強(qiáng)大的算力支持。對(duì)于基礎(chǔ)設(shè)施建設(shè),必須在體制機(jī)制、人才培養(yǎng)、資金投入方面共同發(fā)力,同時(shí)鼓勵(lì)企業(yè)將相應(yīng)的產(chǎn)品商業(yè)化,反哺企業(yè)的科研創(chuàng)新。
確定人工智能技術(shù)發(fā)展的元規(guī)則。人工智能的迅猛發(fā)展以及可能給人類社會(huì)帶來(lái)的顛覆性改變是可以預(yù)見(jiàn)的,開(kāi)發(fā)者在編程之初應(yīng)提前做好規(guī)范設(shè)計(jì)。人工智能作為人類的生產(chǎn)工具,其所產(chǎn)出的內(nèi)容不得損害人類發(fā)展,因此需要對(duì)損害國(guó)家安全、社會(huì)公共利益、個(gè)人權(quán)利的內(nèi)容進(jìn)行限制??煽匦耘c倫理性應(yīng)當(dāng)作為規(guī)范人工智能技術(shù)發(fā)展中的元規(guī)則,這樣才能避免開(kāi)發(fā)者為了自身利益盲目無(wú)序地開(kāi)發(fā)人工智能技術(shù),對(duì)人類社會(huì)產(chǎn)生不可逆的損害后果。
建立數(shù)據(jù)登記、流轉(zhuǎn)制度。人工智能技術(shù)的發(fā)展水平,很大程度上取決于其進(jìn)行預(yù)訓(xùn)練的數(shù)據(jù)規(guī)模和質(zhì)量。除公開(kāi)可查閱的數(shù)據(jù)外,大量?jī)?yōu)質(zhì)的數(shù)據(jù)掌握在不同的公司手中,如何確定其權(quán)屬、權(quán)利類型以及公司是否享有使用權(quán)、能否進(jìn)行流轉(zhuǎn),目前尚未明確規(guī)定。建立數(shù)據(jù)登記制度,一方面可以審核數(shù)據(jù)來(lái)源的合法性、安全性,另一方面可以明確數(shù)據(jù)的權(quán)利方。建立數(shù)據(jù)流轉(zhuǎn)制度,是解決人工智能科技公司合法合規(guī)獲取優(yōu)質(zhì)數(shù)據(jù)問(wèn)題的有效途徑,能夠提高優(yōu)質(zhì)數(shù)據(jù)的利用程度。
構(gòu)建完備的治理機(jī)制。對(duì)于人工智能技術(shù)的監(jiān)管,需要從源頭進(jìn)行嚴(yán)格把關(guān),在確保數(shù)據(jù)的合法性、安全性之外,還應(yīng)確保所運(yùn)行的算法安全可靠、符合人倫常理等要求?!豆芾磙k法》第6條對(duì)算法備案提出要求,即對(duì)進(jìn)入市場(chǎng)的大數(shù)據(jù)模型嚴(yán)格把關(guān)。此外,還需要建立健全投訴反饋機(jī)制,以公眾監(jiān)督方式提升對(duì)大數(shù)據(jù)模型運(yùn)行過(guò)程的監(jiān)管力度,對(duì)于利用AI大模型進(jìn)行違反法律法規(guī)活動(dòng)的開(kāi)發(fā)者和使用者,應(yīng)予以相應(yīng)處罰,從而構(gòu)建起一套事前備案、事中監(jiān)督、事后懲罰的治理機(jī)制。
厘清責(zé)任主體。當(dāng)前,大多數(shù)人工智能公司為了規(guī)避風(fēng)險(xiǎn),在服務(wù)協(xié)議中將生成內(nèi)容的權(quán)益和責(zé)任轉(zhuǎn)移給用戶,這似乎符合權(quán)責(zé)利相統(tǒng)一的原則。但由于ChatGPT算法模型的復(fù)雜性和“算法黑箱”的存在,普通用戶難以充分理解其運(yùn)行邏輯,對(duì)生成內(nèi)容缺乏相應(yīng)的預(yù)期。在此背景下,要求用戶對(duì)ChatGPT生成內(nèi)容承擔(dān)全部責(zé)任,有失公平。因此,在侵權(quán)行為發(fā)生后,如何劃定開(kāi)發(fā)者和使用者的責(zé)任,是立法、執(zhí)法、司法部門需要共同面對(duì)的挑戰(zhàn)。
AI生成內(nèi)容須標(biāo)識(shí)。當(dāng)前AI大模型在文本、繪畫、聲音等方面生成的內(nèi)容,人類已經(jīng)難以分辨,甚至在某些特定場(chǎng)景下超出了一般人的創(chuàng)作能力。而隨著AI大模型的開(kāi)發(fā),其所創(chuàng)造的內(nèi)容勢(shì)必將遠(yuǎn)超一般人的辨別能力。對(duì)于AI大模型生成的內(nèi)容進(jìn)行標(biāo)識(shí)已經(jīng)取得共識(shí),《管理辦法》第16條要求,對(duì)生成或者編輯的信息內(nèi)容采取技術(shù)措施進(jìn)行標(biāo)識(shí)。但目前對(duì)于標(biāo)識(shí)方式還沒(méi)有具體規(guī)定,市場(chǎng)上大部分AI大模型生成的內(nèi)容也沒(méi)有進(jìn)行標(biāo)注,需要有關(guān)部門基于內(nèi)容市場(chǎng)流轉(zhuǎn)及治理的考慮,進(jìn)一步出臺(tái)更加細(xì)致的規(guī)范性文件。
[參考文獻(xiàn)]
[1]國(guó)家互聯(lián)網(wǎng)信息辦公室.生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)[EB/OL].http://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm.
(作者簡(jiǎn)介:李緒青,北京互聯(lián)網(wǎng)法院綜合審判一庭法官助理;朱閣,北京互聯(lián)網(wǎng)法院綜合審判一庭副庭長(zhǎng))
責(zé)任編輯 / 任? ?征