摘" " " 要:生成式人工智能法律問題日益凸顯,對人類社會(huì)帶來了嚴(yán)重的負(fù)面影響,迫切需要進(jìn)行源頭治理。運(yùn)用扎根理論對我國18份生成式人工智能的法律政策文本進(jìn)行編碼分析,研究揭示生成式人工智能法律風(fēng)險(xiǎn)的復(fù)雜來源涵蓋數(shù)據(jù)、算法、系統(tǒng)和人為層面的多層次關(guān)系。在數(shù)據(jù)風(fēng)險(xiǎn)方面,包括非法獲取、泄露、留存以及數(shù)據(jù)質(zhì)量的瑕疵等問題。算法風(fēng)險(xiǎn)涵蓋模型設(shè)計(jì)、黑箱風(fēng)險(xiǎn)以及歧視、霸權(quán)和操縱等潛在風(fēng)險(xiǎn)。系統(tǒng)風(fēng)險(xiǎn)包括失控、社會(huì)性、侵權(quán)性和責(zé)任性風(fēng)險(xiǎn)。人為風(fēng)險(xiǎn)主要表現(xiàn)為數(shù)據(jù)投毒、惡意使用和技術(shù)依賴等風(fēng)險(xiǎn)。對數(shù)據(jù)風(fēng)險(xiǎn),倡導(dǎo)建立語料來源黑名單、獲得信息時(shí)取得個(gè)人同意,并加強(qiáng)訓(xùn)練數(shù)據(jù)管理。對算法風(fēng)險(xiǎn),包括技術(shù)治理和制度治理,應(yīng)提高服務(wù)透明度、規(guī)則可解釋性,促進(jìn)模型更新升級,并建立安全評估和內(nèi)容審核等制度。對系統(tǒng)風(fēng)險(xiǎn),治理側(cè)重于強(qiáng)化安全技術(shù)研發(fā)、完善技術(shù)標(biāo)準(zhǔn),關(guān)注公共利益、個(gè)人利益保障和明確責(zé)任認(rèn)定。對人為風(fēng)險(xiǎn),治理涉及主管部門、研究開發(fā)者、設(shè)計(jì)制造者、部署應(yīng)用者和用戶,建立法規(guī)準(zhǔn)則、推動(dòng)技術(shù)發(fā)展、提供清晰說明、保障用戶選擇權(quán),并強(qiáng)調(diào)用戶的主觀善意和積極參與治理。這些措施構(gòu)建了一個(gè)系統(tǒng)全面的生成式人工智能源頭治理體系。
關(guān)" 鍵" 詞:生成式人工智能;法律風(fēng)險(xiǎn);源頭治理;數(shù)據(jù)治理;算法治理
中圖分類號:TP18" " " "文獻(xiàn)標(biāo)識碼:A" " " "文章編號:1007-8207(2025)02-0092-13
一、問題的提出
生成式人工智能作為顛覆性技術(shù),已成為我國科技創(chuàng)新的重要引擎,其強(qiáng)大潛力和廣泛應(yīng)用前景為社會(huì)發(fā)展帶來了顯著紅利。然而,隨著其不斷發(fā)展,生成式人工智能引發(fā)的法律問題愈發(fā)凸顯。生成式人工智能法律風(fēng)險(xiǎn)是指在該技術(shù)研發(fā)和應(yīng)用過程中產(chǎn)生的對法律實(shí)踐造成的負(fù)面影響和不利后果,主要包括數(shù)據(jù)安全風(fēng)險(xiǎn)、算法歧視風(fēng)險(xiǎn)、生成內(nèi)容侵權(quán)風(fēng)險(xiǎn)以及其他違法犯罪風(fēng)險(xiǎn)等。為了有效緩解法律風(fēng)險(xiǎn)所引發(fā)的技術(shù)和應(yīng)用問題,有必要深入分析生成式人工智能法律風(fēng)險(xiǎn)的來源并提出相應(yīng)的源頭治理對策。
一方面,生成式人工智能法律風(fēng)險(xiǎn)的根源涉及技術(shù)、倫理、法律等多個(gè)層面的復(fù)雜關(guān)系,這需要采用整體性視野和系統(tǒng)性方法來理解和解決這些多層面的復(fù)雜性。扎根理論強(qiáng)調(diào)對問題的全面性和系統(tǒng)性理解,它不僅關(guān)注表面現(xiàn)象,還致力于深入挖掘問題的本質(zhì),并揭示問題各個(gè)層次之間的關(guān)系。這種全面性和系統(tǒng)性的研究方法有助于應(yīng)對涉及多個(gè)層面的復(fù)雜性。另一方面,法律政策文本通常包含政府對生成式人工智能治理的法規(guī)引導(dǎo)和制度建設(shè)。通過分析這些文本,可以了解國家在生成式人工智能治理方面的立法、政策方向,為相關(guān)法規(guī)和制度的建設(shè)提供參考。基于以上緣由,筆者采用扎根理論深入剖析18份生成式人工智能法律政策文本,挖掘各法律政策文本之間的內(nèi)在邏輯關(guān)系,梳理各種法律風(fēng)險(xiǎn)類型及其相應(yīng)的治理對策,為構(gòu)建一個(gè)全面而一致的生成式人工智能源頭治理體系提供參考。
二、數(shù)據(jù)來源與研究方法
(一)數(shù)據(jù)來源
筆者采用以下方法進(jìn)行法律政策文本的檢索與篩選。首先,在北大法寶、聚法、威科先行等官方網(wǎng)站使用“生成式人工智能”“人工智能”“風(fēng)險(xiǎn)”“治理”等關(guān)鍵詞進(jìn)行檢索。其次,在上述檢索結(jié)果的基礎(chǔ)上,通過“滾雪球”方式擴(kuò)大關(guān)聯(lián)度較高的文件范圍。最后,通過人工審核方式對法律政策文本進(jìn)行梳理,以確保沒有漏掉與這些關(guān)鍵詞密切相關(guān)的法律政策文件。法律政策文本的篩選主要遵循以下原則:一是在發(fā)布主體方面,文本收集側(cè)重于國家層面發(fā)布的相關(guān)政策,而對地方政府發(fā)布的法律規(guī)范或治理政策不予采納。二是在法律政策內(nèi)容方面,文本收集既包含發(fā)展規(guī)劃、行動(dòng)規(guī)劃等發(fā)展型政策文件,也包括管理規(guī)定、技術(shù)標(biāo)準(zhǔn)、倫理規(guī)范等規(guī)制型政策文件。此外,雖然部分政策文件的名稱未明確提及法律風(fēng)險(xiǎn)或風(fēng)險(xiǎn)治理,但其具體規(guī)定與生成式人工智能法律風(fēng)險(xiǎn)治理緊密關(guān)聯(lián),因此這部分政策文本也進(jìn)入研究視野。經(jīng)過篩選,最終共獲得了自2017年6月至2024年1月的18份政策文本(見表1)。
(二)研究方法
采用程序性扎根理論分析方法,對篩選出的18份政策文本的全部條款內(nèi)容進(jìn)行深入而全面的研究。首先,對篩選出的18份政策文本的全部條款內(nèi)容進(jìn)行了全面細(xì)致梳理。通過這一初步的整體性觀察,確保了對法律政策文本的全面理解。其次,運(yùn)用程序性扎根理論的分析方法,對具體內(nèi)容進(jìn)行了深層次的開放性編碼、主軸性編碼和選擇性編碼。這一編碼過程有助于透徹把握生成式人工智能法律風(fēng)險(xiǎn)的多樣性和復(fù)雜性,使得問題的關(guān)鍵方面能夠得到清晰而詳盡的呈現(xiàn)。最終,通過這一系統(tǒng)性的分析,得以明確生成式人工智能法律風(fēng)險(xiǎn)的來源、內(nèi)涵以及相關(guān)的治理措施(見圖1)。
三、生成式人工智能法律風(fēng)險(xiǎn)的根源解析
學(xué)術(shù)界在生成式人工智能法律風(fēng)險(xiǎn)的解析中采用了多元的視角和標(biāo)準(zhǔn),推動(dòng)了對該領(lǐng)域的深入研究。有學(xué)者從ChatGPT技術(shù)的倫理特性入手,將生成式人工智能風(fēng)險(xiǎn)分為道德判定障礙風(fēng)險(xiǎn)、社會(huì)偏見刻板化風(fēng)險(xiǎn)、用戶數(shù)據(jù)去隱私化風(fēng)險(xiǎn)以及科技學(xué)術(shù)異化風(fēng)險(xiǎn)等方面。[1]也有學(xué)者提出了人工智能倫理價(jià)值標(biāo)準(zhǔn),如自由、自主、平等、公平、和諧以及可持續(xù)等,基于這些標(biāo)準(zhǔn),分析出人類決策自主受控風(fēng)險(xiǎn)、侵犯隱私風(fēng)險(xiǎn)、加劇社會(huì)偏見或歧視風(fēng)險(xiǎn)等六種生成式人工智能風(fēng)險(xiǎn)的表現(xiàn)形式。[2]此外,還有學(xué)者從技術(shù)、責(zé)任、人際和制度層面提出生成式人工智能風(fēng)險(xiǎn)包括算法偏見風(fēng)險(xiǎn)、數(shù)據(jù)隱私泄露風(fēng)險(xiǎn)、責(zé)任邊界模糊風(fēng)險(xiǎn)等。[3]這些研究為深入理解生成式人工智能法律風(fēng)險(xiǎn)提供了豐富的理論基礎(chǔ)和分類框架。通過扎根理論對18份法律政策文本進(jìn)行生成式人工智能法律風(fēng)險(xiǎn)編碼分析。研究結(jié)果表明,生成式人工智能法律風(fēng)險(xiǎn)根源在于數(shù)據(jù)風(fēng)險(xiǎn)、算法風(fēng)險(xiǎn)、系統(tǒng)風(fēng)險(xiǎn)和人為風(fēng)險(xiǎn)四種類型(見表2)。
(一)數(shù)據(jù)風(fēng)險(xiǎn)
數(shù)據(jù)風(fēng)險(xiǎn)是指在生成式人工智能的技術(shù)使用過程中,由數(shù)據(jù)引發(fā)的法律風(fēng)險(xiǎn)。在收集階段,存在數(shù)據(jù)非法獲取的風(fēng)險(xiǎn),主要表現(xiàn)為侵犯他人知識產(chǎn)權(quán)、侵犯他人知情權(quán)以及數(shù)據(jù)缺乏其他合法來源。在使用階段,可能發(fā)生數(shù)據(jù)泄露的風(fēng)險(xiǎn),具體表現(xiàn)為個(gè)人信息、隱私和商業(yè)秘密被非法披露,甚至牽涉到非法提供國家秘密。在銷毀階段,存在數(shù)據(jù)非法留存的風(fēng)險(xiǎn),即行為人未及時(shí)清理用戶的輸入信息。在整個(gè)數(shù)據(jù)運(yùn)行過程中,存在數(shù)據(jù)質(zhì)量瑕疵風(fēng)險(xiǎn),即可能出現(xiàn)訓(xùn)練數(shù)據(jù)不真實(shí)、不準(zhǔn)確、不客觀、代表性不足的問題,也可能存在訓(xùn)練數(shù)據(jù)不完整、不及時(shí)、不一致、不規(guī)范等問題。
(二)算法風(fēng)險(xiǎn)
算法風(fēng)險(xiǎn)是指生成式人工智能算法在設(shè)計(jì)和運(yùn)行中產(chǎn)生的潛在法律風(fēng)險(xiǎn),主要表現(xiàn)在兩個(gè)方面:算法內(nèi)生性風(fēng)險(xiǎn)和算法衍生性風(fēng)險(xiǎn)。算法內(nèi)生性風(fēng)險(xiǎn)包含兩種類型:一是模型設(shè)計(jì)風(fēng)險(xiǎn),即在模型設(shè)計(jì)初期存在可能違反法律規(guī)范、背離倫理道德、不符合技術(shù)標(biāo)準(zhǔn)等的潛在風(fēng)險(xiǎn);二是算法黑箱風(fēng)險(xiǎn),主要表現(xiàn)為生成式人工智能運(yùn)行過程的不透明性和不可解釋性,導(dǎo)致運(yùn)行結(jié)果的不可靠性。算法衍生性風(fēng)險(xiǎn)包含三種類型:一是算法歧視風(fēng)險(xiǎn),即算法運(yùn)行結(jié)果可能出現(xiàn)對種族、民族、性別、年齡、職業(yè)等的歧視;二是算法霸權(quán)風(fēng)險(xiǎn),即生成式人工智能服務(wù)提供者可能利用算法實(shí)施壟斷行為,采取不合理限制和其他不正當(dāng)競爭手段;三是算法操縱風(fēng)險(xiǎn),即服務(wù)提供者利用算法介入信息呈現(xiàn),影響網(wǎng)絡(luò)輿論,可能實(shí)施不合理差別待遇甚至規(guī)避監(jiān)督管理。
(三)系統(tǒng)風(fēng)險(xiǎn)
系統(tǒng)風(fēng)險(xiǎn)是由生成式人工智能運(yùn)行系統(tǒng)的自身特性引發(fā)的法律風(fēng)險(xiǎn)。系統(tǒng)風(fēng)險(xiǎn)可以具體分為四個(gè)方面:失控性風(fēng)險(xiǎn)、社會(huì)性風(fēng)險(xiǎn)、侵權(quán)性風(fēng)險(xiǎn)和責(zé)任性風(fēng)險(xiǎn)。失控性風(fēng)險(xiǎn)體現(xiàn)為生成式人工智能系統(tǒng)在運(yùn)行過程中可能存在不安全、不穩(wěn)定和不持續(xù)的風(fēng)險(xiǎn)。這種風(fēng)險(xiǎn)可能源于系統(tǒng)的設(shè)計(jì)缺陷、技術(shù)漏洞或操作失誤,導(dǎo)致系統(tǒng)無法正常運(yùn)轉(zhuǎn)或產(chǎn)生不可預(yù)測的行為。社會(huì)性風(fēng)險(xiǎn)表現(xiàn)為生成式人工智能系統(tǒng)的使用可能對國家制度、國家形象和國家穩(wěn)定等方面帶來潛在威脅。這種風(fēng)險(xiǎn)可能來自系統(tǒng)的應(yīng)用場景、數(shù)據(jù)來源和使用方式,導(dǎo)致系統(tǒng)與國家利益產(chǎn)生沖突或引發(fā)社會(huì)不穩(wěn)定因素。侵權(quán)性風(fēng)險(xiǎn)體現(xiàn)為生成式人工智能系統(tǒng)在運(yùn)行過程中可能侵犯經(jīng)濟(jì)秩序、社會(huì)秩序以及生成的有害信息被肆意傳播。這種風(fēng)險(xiǎn)可能來自系統(tǒng)的信息處理、數(shù)據(jù)挖掘和使用方式,導(dǎo)致系統(tǒng)對個(gè)人隱私、商業(yè)機(jī)密和社會(huì)公共利益造成侵害。責(zé)任性風(fēng)險(xiǎn)表現(xiàn)為當(dāng)前生成式人工智能的侵權(quán)責(zé)任主體不明確,責(zé)任界限模糊。這種風(fēng)險(xiǎn)可能源于系統(tǒng)開發(fā)者、使用者及相關(guān)責(zé)任方之間的責(zé)任劃分不明確,導(dǎo)致在問題發(fā)生時(shí)難以確定責(zé)任方并追究相應(yīng)的法律責(zé)任。
(四)人為風(fēng)險(xiǎn)
人為風(fēng)險(xiǎn)是指行為人為實(shí)現(xiàn)其目的,利用生成式人工智能技術(shù)時(shí)引發(fā)的法律風(fēng)險(xiǎn)。人為風(fēng)險(xiǎn)主要體現(xiàn)為數(shù)據(jù)投毒風(fēng)險(xiǎn)、惡意使用風(fēng)險(xiǎn)和技術(shù)依賴風(fēng)險(xiǎn)。首先,數(shù)據(jù)投毒風(fēng)險(xiǎn)源自行為人對訓(xùn)練數(shù)據(jù)的惡意操作,通過在數(shù)據(jù)集中引入錯(cuò)誤信息或偏見,影響生成式人工智能系統(tǒng)的輸出結(jié)果。這可能導(dǎo)致系統(tǒng)產(chǎn)生不準(zhǔn)確、不公正或具有誤導(dǎo)性的決策,對個(gè)人、社會(huì)甚至國家層面產(chǎn)生負(fù)面影響。其次,惡意使用風(fēng)險(xiǎn)包括使用者利用生成式人工智能技術(shù)傳播虛假信息,誤導(dǎo)公眾或操縱輿論,以及利用技術(shù)進(jìn)行網(wǎng)絡(luò)炒作、惡意發(fā)帖、制造垃圾郵件、惡意編寫軟件等不當(dāng)使用行為。[4]這些惡意行為不僅破壞網(wǎng)絡(luò)生態(tài)環(huán)境,還可能引發(fā)社會(huì)信任危機(jī)和法律糾紛。最后,技術(shù)依賴風(fēng)險(xiǎn)指使用者過度依賴、過度沉迷生成式人工智能技術(shù),以至于失去對自身行為和決策的控制。過度依賴可能導(dǎo)致人類主體性的削弱,使人變得過于依賴技術(shù),從而影響其獨(dú)立思考和自主決策的能力。
四、生成式人工智能法律風(fēng)險(xiǎn)的源頭治理
學(xué)術(shù)界對生成式人工智能法律風(fēng)險(xiǎn)治理提出了多元而全面的觀點(diǎn)。一些學(xué)者從倫理視角出發(fā),強(qiáng)調(diào)在治理中凸顯人文關(guān)懷,通過重新構(gòu)思倫理主體責(zé)任、強(qiáng)化倫理政策導(dǎo)向和創(chuàng)新倫理運(yùn)行機(jī)制,以實(shí)現(xiàn)人工智能與倫理的良性互動(dòng)。[5]另一些學(xué)者則以法治思維為基礎(chǔ),主張通過法治手段明確限定人工智能技術(shù)的發(fā)展邊界,以確保其安全、可控和健康發(fā)展。[6]還有學(xué)者從技術(shù)和制度協(xié)同的視角出發(fā),提倡在多個(gè)層面全面治理生成式人工智能法律風(fēng)險(xiǎn),以應(yīng)對其復(fù)雜而多層次的挑戰(zhàn)。[7]這些觀點(diǎn)共同為生成式人工智能法律風(fēng)險(xiǎn)治理提供了廣泛而深入的思考和方法。筆者基于生成式人工智能法律風(fēng)險(xiǎn)的來源,將治理思路與各個(gè)風(fēng)險(xiǎn)來源一一對應(yīng),提出數(shù)據(jù)風(fēng)險(xiǎn)源頭治理、算法風(fēng)險(xiǎn)源頭治理、系統(tǒng)風(fēng)險(xiǎn)源頭治理以及人為風(fēng)險(xiǎn)源頭治理,這一綜合性源頭治理體系框架包含了技術(shù)、倫理、法律等治理手段,以確保治理的全面性和可持續(xù)性。
(一)數(shù)據(jù)風(fēng)險(xiǎn)的源頭治理
生成式人工智能的數(shù)據(jù)風(fēng)險(xiǎn)貫穿于其運(yùn)行的各個(gè)階段,因此,需要根據(jù)不同階段的特點(diǎn)采取相應(yīng)的治理措施(見表3)。
首先,在生成式人工智能的數(shù)據(jù)獲取階段,著重關(guān)注數(shù)據(jù)的來源和處理。其一,建立知情同意原則。多部法律規(guī)范明確規(guī)定,在進(jìn)行訓(xùn)練數(shù)據(jù)處理活動(dòng)時(shí),服務(wù)提供者應(yīng)使用具有合法來源的數(shù)據(jù),并在涉及個(gè)人信息的情況下取得個(gè)人同意或符合法律、行政法規(guī)規(guī)定的其他情形。這一原則為確保數(shù)據(jù)處理的合法性和透明性提供了法律保障。其二,建立語料來源黑名單制度。該制度規(guī)定任何來自黑名單來源的數(shù)據(jù)都不能用于訓(xùn)練生成式人工智能系統(tǒng),有助于排除潛在的風(fēng)險(xiǎn)來源,防止系統(tǒng)在訓(xùn)練過程中受到不良數(shù)據(jù)的影響。其三,建立安全評估制度。通過對各語料來源進(jìn)行安全評估,特別關(guān)注是否包含超過一定比例的違法不良信息,有助于鑒別潛在的風(fēng)險(xiǎn)并及時(shí)作出處理。其四,保存信息采集記錄。這一措施旨在確保服務(wù)提供者隨時(shí)可以證明其數(shù)據(jù)采集活動(dòng)是在法律和倫理框架內(nèi)進(jìn)行的,從而避免潛在的法律責(zé)任和隱私問題。其次,在數(shù)據(jù)使用階段,防止數(shù)據(jù)泄露或非法提供顯得至關(guān)重要。為此,個(gè)人信息處理者應(yīng)主動(dòng)履行個(gè)人信息保護(hù)義務(wù),切實(shí)遵守相關(guān)法律法規(guī),嚴(yán)禁非法披露他人的個(gè)人信息、個(gè)人隱私以及其他用戶輸入信息等。同時(shí),相關(guān)部門在履行職責(zé)過程中,對于獲知的國家秘密和商業(yè)秘密也應(yīng)當(dāng)承擔(dān)保密義務(wù),確保數(shù)據(jù)在使用過程中的安全性和機(jī)密性。這樣的措施有助于有效防范潛在的數(shù)據(jù)泄露風(fēng)險(xiǎn),維護(hù)用戶隱私及敏感信息的安全。再次,在數(shù)據(jù)銷毀階段,切實(shí)杜絕個(gè)人信息處理者非法留存?zhèn)€人信息的行為。為此,需加強(qiáng)訓(xùn)練數(shù)據(jù)管理,采取必要措施以保障訓(xùn)練數(shù)據(jù)的安全性。具體而言,要對數(shù)據(jù)進(jìn)行備份和加密等,以確保在銷毀過程中數(shù)據(jù)能夠得到妥善處理,有效防范潛在的非法留存風(fēng)險(xiǎn)。最后,確保數(shù)據(jù)質(zhì)量是生成式人工智能關(guān)注的關(guān)鍵方面。法律規(guī)范和技術(shù)標(biāo)準(zhǔn)明確規(guī)定了數(shù)據(jù)應(yīng)當(dāng)滿足的質(zhì)量要求,例如《生成式人工智能服務(wù)管理暫行辦法》要求采取有效措施提升訓(xùn)練數(shù)據(jù)質(zhì)量,強(qiáng)化其真實(shí)性、準(zhǔn)確性、客觀性和多樣性。同時(shí),應(yīng)積極拓展數(shù)據(jù)資源,擴(kuò)充高質(zhì)量的公共訓(xùn)練數(shù)據(jù),主動(dòng)進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)質(zhì)量評估,并及時(shí)驗(yàn)證標(biāo)注內(nèi)容的準(zhǔn)確性,以確保訓(xùn)練數(shù)據(jù)的高質(zhì)量。只有具備高質(zhì)量的訓(xùn)練數(shù)據(jù),生成式人工智能技術(shù)才能保持準(zhǔn)確性和可靠性。
(二)算法風(fēng)險(xiǎn)的源頭治理
鑒于生成式人工智能算法風(fēng)險(xiǎn)主要呈現(xiàn)為算法內(nèi)生性風(fēng)險(xiǎn)和算法衍生性風(fēng)險(xiǎn),為了有效應(yīng)對這一問題,算法風(fēng)險(xiǎn)的治理需要從技術(shù)和制度兩個(gè)方面同時(shí)著手(見表4)。
從技術(shù)治理的角度來看,首先,規(guī)避算法黑箱風(fēng)險(xiǎn),重點(diǎn)突破語法邏輯、字符概念和深度語義分析等核心技術(shù),以促進(jìn)人類與機(jī)器之間的有效溝通和自由交互。這需要生成式人工智能服務(wù)提供者增強(qiáng)服務(wù)透明度,公開服務(wù)機(jī)制的核心信息,并提升檢索、選擇、推送等規(guī)則的透明度,以保障規(guī)則的可解釋性。其次,對模型設(shè)計(jì)風(fēng)險(xiǎn)的治理需要通過促進(jìn)模型更新升級和加強(qiáng)模型優(yōu)化訓(xùn)練來實(shí)現(xiàn)。模型設(shè)計(jì)者應(yīng)建立多層次的倫理道德判斷結(jié)構(gòu)和人機(jī)協(xié)作的倫理框架,制定模型在更新、升級時(shí)的安全管理策略,并在完成模型重要更新升級后進(jìn)行安全評估和重新備案。在模型訓(xùn)練過程中,將生成內(nèi)容的安全性作為評價(jià)模型的主要指標(biāo)之一,引導(dǎo)模型生成積極正向內(nèi)容。對于服務(wù)過程中和定期檢測時(shí)發(fā)現(xiàn)的安全問題,可通過有針對性的指令微調(diào)、強(qiáng)化學(xué)習(xí)等方式進(jìn)行模型優(yōu)化。
從制度治理的角度來看,法律政策文本明確規(guī)定了生成式人工智能服務(wù)提供者應(yīng)當(dāng)遵守和履行的關(guān)鍵制度。首先,從程序性制度的角度看,服務(wù)提供者在向公眾提供生成式人工智能產(chǎn)品服務(wù)前,需要申報(bào)安全評估,并按照法律規(guī)定履行算法備案、變更和注銷備案手續(xù)。此外,服務(wù)提供者還需建立完善的辟謠機(jī)制,及時(shí)應(yīng)對虛假信息傳播,并保存相關(guān)記錄。其次,從實(shí)體性制度出發(fā),服務(wù)提供者需履行信息安全主體責(zé)任,建立算法機(jī)制審核、科技倫理審查、信息發(fā)布審核、數(shù)據(jù)安全、個(gè)人信息保護(hù)、應(yīng)急處置等管理制度。在處理生成式人工智能生成的內(nèi)容時(shí),需要對其進(jìn)行標(biāo)識,并采取技術(shù)或人工方式進(jìn)行審核。同時(shí),建立健全識別違法和不良信息的特征庫,完善入庫標(biāo)準(zhǔn)、規(guī)則和程序,強(qiáng)化用戶模型和標(biāo)簽的管理。[8]在服務(wù)版面頁面生態(tài)管理方面,應(yīng)當(dāng)建立完善人工干預(yù)和用戶自主選擇機(jī)制。
(三)系統(tǒng)風(fēng)險(xiǎn)的源頭治理
系統(tǒng)風(fēng)險(xiǎn)主要體現(xiàn)為生成式人工智能系統(tǒng)本身的失控性,以及由系統(tǒng)引發(fā)的對國家、社會(huì)和個(gè)人利益的侵犯。因此,通過推動(dòng)系統(tǒng)的可控性、保護(hù)國家和公共利益、維護(hù)個(gè)人權(quán)益以及明確責(zé)任認(rèn)定,可以有效治理系統(tǒng)風(fēng)險(xiǎn)(見表5)。
首先,堅(jiān)持安全可控原則。研發(fā)生成式人工智能應(yīng)貫徹安全性、可用性、可追溯性原則。為此,應(yīng)完善人工智能基礎(chǔ)共性、互聯(lián)互通、行業(yè)應(yīng)用、網(wǎng)絡(luò)安全等技術(shù)標(biāo)準(zhǔn),加強(qiáng)人工智能網(wǎng)絡(luò)安全技術(shù)研發(fā),強(qiáng)化人工智能產(chǎn)品和系統(tǒng)的網(wǎng)絡(luò)安全防護(hù)。[9]其次,實(shí)現(xiàn)公共利益保護(hù)。不論是制度規(guī)范還是技術(shù)標(biāo)準(zhǔn),都明確要求生成式人工智能相關(guān)主體遵循、傳播社會(huì)主義核心價(jià)值觀,禁止利用人工智能技術(shù)從事任何非法活動(dòng),以防損害國家利益和社會(huì)利益。再次,強(qiáng)化對個(gè)人權(quán)益的保障。法律明文禁止生成式人工智能服務(wù)提供者、服務(wù)使用者等侵犯他人身心健康。同時(shí),著重保護(hù)個(gè)人的隱私權(quán)、名譽(yù)權(quán)和知情權(quán)等,維護(hù)個(gè)人的尊嚴(yán)與自由,及時(shí)處理個(gè)人關(guān)于更正、刪除、屏蔽其個(gè)人信息的相關(guān)請求。當(dāng)服務(wù)提供者發(fā)現(xiàn)侵權(quán)行為或者出現(xiàn)法律規(guī)范禁止的行為時(shí),及時(shí)采取警示、限制功能、暫停服務(wù)、關(guān)閉賬號等處置措施,完善應(yīng)急處置機(jī)制,防止危害持續(xù)。最后,建立問責(zé)制度。由于當(dāng)前應(yīng)用實(shí)踐中,生成式人工智能權(quán)利義務(wù)主體并不明晰,因此建立問責(zé)制度成為必要。需開展與生成式人工智能應(yīng)用相關(guān)的民事、行政、刑事責(zé)任確認(rèn)等法律問題研究,同時(shí)建立與之配套的責(zé)任追溯制度,明確法律主體以及相關(guān)的權(quán)利義務(wù)和責(zé)任承擔(dān)。
(四)人為風(fēng)險(xiǎn)的源頭治理
人為風(fēng)險(xiǎn)是由生成式人工智能相關(guān)主體主觀惡意引發(fā)的法律風(fēng)險(xiǎn)。因此,對人為風(fēng)險(xiǎn)的治理主要涉及主管部門、研究開發(fā)者、設(shè)計(jì)制造者、部署應(yīng)用者和用戶這五大主體,需要進(jìn)行相應(yīng)的規(guī)范和監(jiān)管(見表6)。
在我國主管部門層面,針對生成式人工智能法律風(fēng)險(xiǎn)治理,采取了多層次的戰(zhàn)略和措施。首先,通過《中國關(guān)于加強(qiáng)人工智能倫理治理的立場文件》,明確了堅(jiān)持倫理先行的原則,及時(shí)回應(yīng)國內(nèi)和國際的倫理關(guān)切。其次,在監(jiān)管路徑上保持包容審慎的態(tài)度,實(shí)施分類分級監(jiān)管,制定相應(yīng)規(guī)則和指引,確保不同級別的服務(wù)得到適當(dāng)?shù)谋O(jiān)管與指導(dǎo)。再次,面對倫理法規(guī)的“硬法缺失”,呼吁立法機(jī)構(gòu)建立并完善倫理準(zhǔn)則、規(guī)則和問責(zé)機(jī)制,以明確人工智能相關(guān)主體的權(quán)責(zé)邊界,全面保障各方的法定權(quán)益。[10]此外,倡導(dǎo)各主體之間的協(xié)同與聯(lián)動(dòng),建立健全政府、企業(yè)、行業(yè)組織等的合作機(jī)制,以加強(qiáng)法律風(fēng)險(xiǎn)治理的整體協(xié)調(diào)。[11]最后,提倡優(yōu)化發(fā)展環(huán)境,深化國際合作,充分利用雙邊和多邊國際合作機(jī)制,推動(dòng)在關(guān)鍵領(lǐng)域的創(chuàng)新應(yīng)用,拓寬交流渠道,實(shí)現(xiàn)優(yōu)勢互補(bǔ)與共贏。[12]
在研究開發(fā)者層面,首先,應(yīng)明令禁止研究開發(fā)追求損害人的基本權(quán)利的人工智能技術(shù)。避免研發(fā)可能被惡意濫用、對人權(quán)產(chǎn)生負(fù)面影響的技術(shù)。其次,在自主性人工智能的研究中,需謹(jǐn)慎進(jìn)行具有自我復(fù)制或自我改進(jìn)能力的研究,并持續(xù)評估潛在的失控性風(fēng)險(xiǎn)。此外,應(yīng)持續(xù)提升生成式人工智能的可解釋性和可控性。再次,在關(guān)鍵決策方面,如研究開發(fā)數(shù)據(jù)集的選擇和算法的選取,必須記錄并建立回溯機(jī)制,以及對人工智能法律風(fēng)險(xiǎn)的事項(xiàng)進(jìn)行必要的預(yù)警、溝通和回應(yīng)。最后,為促進(jìn)合作、互信和技術(shù)多元化的良性發(fā)展,鼓勵(lì)研究開發(fā)者積極推動(dòng)合作、競爭與技術(shù)發(fā)展。
在設(shè)計(jì)制造者層面,首先,亟需規(guī)定嚴(yán)禁設(shè)計(jì)和制造可能對公共利益或個(gè)人權(quán)利造成損害的人工智能系統(tǒng)、產(chǎn)品或服務(wù)。與此同時(shí),需要不斷提升人工智能系統(tǒng)、產(chǎn)品和服務(wù)的可解釋性和可控性。為實(shí)現(xiàn)這一目標(biāo),設(shè)計(jì)制造者應(yīng)承擔(dān)向部署應(yīng)用者及時(shí)、準(zhǔn)確、完整、清晰、無歧義地闡明生成式人工智能系統(tǒng)、產(chǎn)品或服務(wù)的功能、局限、安全風(fēng)險(xiǎn)和潛在影響的義務(wù)。其次,在設(shè)計(jì)中,必須設(shè)立系統(tǒng)、產(chǎn)品或服務(wù)的事故應(yīng)急處置機(jī)制,包括但不限于人工緊急干預(yù)機(jī)制。此外,應(yīng)明確事故處理流程,確保在發(fā)生人工智能倫理安全風(fēng)險(xiǎn)時(shí)能夠迅速做出響應(yīng),例如停止問題產(chǎn)品的生產(chǎn)、召回問題產(chǎn)品等。同時(shí),為提高透明度,設(shè)計(jì)制造者還應(yīng)設(shè)定事故信息回溯機(jī)制,例如通過黑匣子技術(shù)實(shí)現(xiàn)無人駕駛事故信息的回溯。最后,為有效應(yīng)對可能產(chǎn)生的損失,設(shè)計(jì)制造者還需建立人工智能安全風(fēng)險(xiǎn)的必要保障機(jī)制,例如購買保險(xiǎn)等方式,為受損方提供救濟(jì)。
在部署應(yīng)用者層面,首先,當(dāng)使用生成式人工智能作為直接決策依據(jù)并影響個(gè)人權(quán)利時(shí),應(yīng)確保存在清晰、明確、可查的法律法規(guī)等依據(jù)。其次,在公共服務(wù)、金融服務(wù)、健康衛(wèi)生、福利教育等領(lǐng)域作出重要決策時(shí),若采用不可解釋的人工智能,應(yīng)僅將其作為輔助決策手段,而非直接依據(jù),并需主動(dòng)發(fā)現(xiàn)人工智能安全風(fēng)險(xiǎn),持續(xù)改進(jìn)部署應(yīng)用過程。此外,必須向用戶及時(shí)、準(zhǔn)確、完整、清晰、無歧義地說明人工智能相關(guān)系統(tǒng)、產(chǎn)品或服務(wù)的功能、局限、風(fēng)險(xiǎn)以及可能的影響,并解釋相關(guān)應(yīng)用過程及應(yīng)用結(jié)果。[13]同時(shí),應(yīng)以清晰明確、易于操作的方式向用戶提供拒絕、干預(yù)及停止使用人工智能相關(guān)系統(tǒng)、產(chǎn)品或服務(wù)的機(jī)制。在用戶拒絕或停止使用后,應(yīng)盡可能提供非人工智能的替代選擇方案。最后,為防范潛在事故,應(yīng)設(shè)置事故應(yīng)急處置機(jī)制,包括人工緊急干預(yù)機(jī)制、中止應(yīng)用機(jī)制等,明確事故處理流程。這樣可以確保在人工智能安全風(fēng)險(xiǎn)發(fā)生時(shí)及時(shí)響應(yīng),提供清晰明確、易于操作的投訴、質(zhì)疑與反饋機(jī)制,并提供包含人工服務(wù)在內(nèi)的響應(yīng)機(jī)制,進(jìn)行必要的處理和補(bǔ)償。
在用戶層面,首先,使用人工智能應(yīng)當(dāng)秉持主觀善意的原則,充分發(fā)揮人工智能的積極作用,而不應(yīng)將生成式人工智能用于惡意目的,損害社會(huì)價(jià)值和個(gè)人權(quán)利等。其次,用戶應(yīng)主動(dòng)了解所面臨的生成式人工智能安全風(fēng)險(xiǎn),并向其他主體積極反饋相關(guān)信息。此外,用戶應(yīng)積極參與生成式人工智能倫理治理實(shí)踐,及時(shí)向主管部門或服務(wù)提供者反饋,并協(xié)助解決在使用生成式人工智能產(chǎn)品與服務(wù)過程中發(fā)現(xiàn)的技術(shù)安全漏洞、政策法規(guī)缺失、監(jiān)管力度不足等問題。[14]最后,為更好地應(yīng)對生成式人工智能的風(fēng)險(xiǎn)挑戰(zhàn),用戶應(yīng)主動(dòng)了解生成式人工智能產(chǎn)品與服務(wù)的運(yùn)營、維護(hù)、應(yīng)急處置等各使用環(huán)節(jié)所需的技能,以確保生成式人工智能產(chǎn)品與服務(wù)的安全使用和高效利用。通過這些積極的措施,用戶不僅能更好地保障自身權(quán)益,也有助于共同維護(hù)人工智能領(lǐng)域的安全。
結(jié)" 語
“人的每種實(shí)踐與選擇,都以某種善為目的?!保?5]任何技術(shù)的應(yīng)用和創(chuàng)新應(yīng)當(dāng)以服務(wù)人類社會(huì)的整體福祉和道德原則為導(dǎo)向。然而,在生成式人工智能迅猛發(fā)展的同時(shí),也面臨著由生成式人工智能引發(fā)的一系列風(fēng)險(xiǎn)挑戰(zhàn)。只有明確并正視這些挑戰(zhàn),才能更有效地預(yù)防和應(yīng)對風(fēng)險(xiǎn)。本文通過運(yùn)用扎根理論,深入梳理了18份重要的政策文本,提煉出生成式人工智能法律風(fēng)險(xiǎn)的四大來源,即數(shù)據(jù)風(fēng)險(xiǎn)、算法風(fēng)險(xiǎn)、系統(tǒng)風(fēng)險(xiǎn)和人為風(fēng)險(xiǎn)。在充分認(rèn)識這些法律風(fēng)險(xiǎn)的基礎(chǔ)上,提出了相應(yīng)的針對性“技術(shù)-倫理-法律”治理策略,旨在引導(dǎo)生成式人工智能走向善的軌跡,促進(jìn)人與人工智能之間的可持續(xù)和諧發(fā)展。
【參考文獻(xiàn)】
[1]陳元,黃秋生.ChatGPT技術(shù)中的人工智能倫理風(fēng)險(xiǎn)及其科學(xué)祛魅[J].湖南科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023(3):135-142.
[2]趙志耘,徐峰,高芳,等.關(guān)于人工智能倫理風(fēng)險(xiǎn)的若干認(rèn)識[J].中國軟科學(xué),2021(6):1-12.
[3]馮永剛,席宇晴.人工智能的倫理風(fēng)險(xiǎn)及其規(guī)制[J].河北學(xué)刊,2023(3):60-68.
[4]龍柯宇.生成式人工智能應(yīng)用失范的法律規(guī)制研究——以ChatGPT和社交機(jī)器人為視角[J].東方法學(xué),2023(4):44-55.
[5]王東,張振.人工智能倫理風(fēng)險(xiǎn)的鏡像、透視及其規(guī)避[J].倫理學(xué)研究,2021(1):109-115.
[6]潘志玉.人工智能應(yīng)用的倫理風(fēng)險(xiǎn)及法治應(yīng)對[J].學(xué)習(xí)與探索,2022(7):61-67.
[7]肖藝能.數(shù)字經(jīng)濟(jì)時(shí)代人工智能的倫理風(fēng)險(xiǎn)及治理[J].山西財(cái)經(jīng)大學(xué)學(xué)報(bào),2023(S2):77-79.
[8]劉輝,雷崎山.生成式人工智能的數(shù)據(jù)風(fēng)險(xiǎn)及其法律規(guī)制[J].重慶郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2024(4):40-51.
[9]陳濤,冉龍亞,明承瀚.政務(wù)服務(wù)的人工智能應(yīng)用研究[J].電子政務(wù),2018(3):22-30.
[10]張鋌.人工智能的倫理風(fēng)險(xiǎn)治理探析[J].中州學(xué)刊,2022(1):114-118.
[11]譚九生,楊建武.人工智能技術(shù)的倫理風(fēng)險(xiǎn)及其協(xié)同治理[J].中國行政管理,2019(10):44-50.
[12]杜嚴(yán)勇.人工智能倫理風(fēng)險(xiǎn)防范研究中的若干基礎(chǔ)性問題探析[J].云南社會(huì)科學(xué),2022(3):12-19.
[13]文婷.類ChatGPT應(yīng)用的法律風(fēng)險(xiǎn)與合規(guī)建議[J].特區(qū)實(shí)踐與理論,2023(2):40-45.
[14]宋艷,陳琳,李琴,等.人工智能倫理風(fēng)險(xiǎn)感知、信任與公眾參與[J].科學(xué)學(xué)研究,2022(7):1153-1162+1171.
[15](古希臘)亞里士多德.尼各馬可倫理學(xué)[M].席申白,譯.北京:商務(wù)印書館,2003:11.
The Source Governance of the Legal Risk of
Generative Artificial Intelligence
Xu Wei, Li Wenmin
Abstract: The legal issues of generative artificial intelligence have become increasingly prominent, which has brought serious negative impacts on human society and urgently needs source governance. Based on the grounded theory, 18 legal policy texts of generative artificial intelligence in China are coded and analyzed. The research reveals the complex sources of legal risks of generative artificial intelligence, covering multi-level relationships at the data, algorithm, system and human levels. In terms of data risks, including illegal acquisition, disclosure, retention, and data quality defects. The algorithmic risks cover model design, black-box risks, and potential risks such as discrimination, hegemony, and manipulation. System risk includes runaway, social, tort and liability risk. Human risks are mainly manifested as data poisoning, malicious use and technical dependence. Trace the source and carry out source governance: for data risks, advocate the establishment of a blacklist of corpus sources, obtain personal consent when obtaining information, and strengthen training data management. For algorithmic risks, including technical governance and institutional governance, service transparency and rule interpretability should be improved, model updating and upgrading should be promoted, and systems such as security assessment and content review should be established. For system risks, governance focuses on strengthening security technology research and development, improving technical standards, paying attention to public interests, personal interests protection and clear responsibility identification. For man-made risks, governance involves competent authorities, research developers, design manufacturers, deployers and users, establish laws and regulations, promote technological development, provide clear instructions, protect users’ right to choose, and emphasize users’ subjective goodwill and active participation in governance. These measures have constructed a systematic and comprehensive generative artificial intelligence governance system.
Key words: generative artificial intelligence; legal risks; source governance; data governance; algorithmic governance
(責(zé)任編輯:王正橋)