摘" 要:
“三經(jīng)九緯”法治新模式在生成式人工智能治理中是較“規(guī)制論”更為“厚”的概念。現(xiàn)有規(guī)制之“薄”需要引入新的法治模式來解決生成式人工智能面臨的真問題和新挑戰(zhàn),包括在技術(shù)基礎、應用、標準、可融合的數(shù)據(jù)算法、可評估的可信度、可轉(zhuǎn)化的規(guī)范、對話商談和主體間統(tǒng)分結(jié)合等方面進行法律的適應性改進。在國家戰(zhàn)略—產(chǎn)業(yè)孵化—立法規(guī)范三個經(jīng)度中,通過部門規(guī)章轉(zhuǎn)換產(chǎn)業(yè)端需求并改進技術(shù)規(guī)范,形成生成式人工智能治理路徑上的改進策略,包括探索回應型、轉(zhuǎn)化改進型和促進包容型法治新模式。
九緯是指技術(shù)基礎、應用和標準等國家戰(zhàn)略的緯度,數(shù)據(jù)質(zhì)量、算法優(yōu)化和算力設施等產(chǎn)業(yè)孵化的緯度,法律目的、原則、規(guī)則等立法規(guī)范的緯度。
關鍵詞:生成式人工智能;法治新模式;“三經(jīng)九緯”
中圖分類號:DF03" 文獻標志碼:A
DOI:10.3969/j.issn.1008-4355.2024.03.10" 開放科學(資源服務)標識碼(OSID):
文章編號:1008-4355(2024)03-0140-19
收稿日期:2023-08-06
基金項目:
國家社科基金一般項目“個人信息權(quán)利行使的平衡機制研究”(19BFX127)
作者簡介:
許娟(1972—),女,湖北仙桃人,南京信息工程大學大數(shù)據(jù)法治研究院院長、法學與公共管理學院教授,博士生導師,法學博士。
①
參見劉方喜:《能量·信息·動因:人工智能生產(chǎn)工藝學批判》,載《閱江學刊》2021年第2期,第6頁。
②
參見李佳師:《大模型落地“三重門”》,載電子信息產(chǎn)業(yè)網(wǎng),https://www.cena.com.cn/ic/20230627/120576.html,2024年5月1日訪問。
在生成式人工智能的新紀元中,智能的演變呈現(xiàn)出兩種顯著趨勢。一方面,由機器自行產(chǎn)生的智能逐漸替代人的智力,成為新的動力源泉,甚至可以稱作智能器官的替代品①;另一方面,機器正被巧妙地嵌入、植入、分拆、打散和重構(gòu)到我們的日常生活與工作流程之中②,以實現(xiàn)流程的再造與優(yōu)化。這兩種趨勢的功能性創(chuàng)造不僅擴展了原有的人與人之間的雙邊關系,還通過引入人與機器人之間的新方式,共同構(gòu)建人與人、人與機器人、借助機器人的人與人之間交互的復雜生態(tài)系統(tǒng)。這一變革重塑了我們的生產(chǎn)方式和生活方式。
為了有效應對生成式人工智能帶來的與人類語境融合參見王天恩:《信息及其基本特性的當代開顯》,載《中國社會科學》2022年第2期,第90-113頁。的挑戰(zhàn),我們應引入“三經(jīng)九緯”法治新模式中的“厚”思維結(jié)構(gòu)和概念體系。這一舉措旨在提升現(xiàn)有“薄”規(guī)制概念劉藝:《論我國法治政府評估指標體系的建構(gòu)》,載《現(xiàn)代法學》2016年第4期,第15頁。在生成式人工智能領域的相關性緯度,從而更全面地解決其伴隨的風險與困境?!叭?jīng)”是指以國家戰(zhàn)略、產(chǎn)業(yè)孵化、立法規(guī)范三個方面為經(jīng)
,“九緯”是指在“三經(jīng)”的基礎上,進一步衍生出國家戰(zhàn)略層面的技術(shù)基礎、應用和標準的宏觀事實緯度,產(chǎn)業(yè)孵化層面的數(shù)據(jù)質(zhì)量、算法優(yōu)化和算力設施的微觀事實緯度,以及立法規(guī)范層面的法律目的、原則、規(guī)則等多緯度結(jié)構(gòu)體系。
一、解決既有規(guī)制困境需要引入“三經(jīng)九緯”法治新模式
(一)既有生成式人工智能規(guī)制面臨的問題和挑戰(zhàn)
1.技術(shù)基礎緯度的功能分派與規(guī)制不足
當前,法學理論界對生成式人工智能人機互動模式
的技術(shù)基礎的認知尚有不足,一般的規(guī)制也難以觸碰到生成式人工智能的技術(shù)內(nèi)核。因此,改變這種規(guī)制狀況的首要問題在于厘清生成式人工智能的技術(shù)基礎?;谏墒饺斯ぶ悄艽竽P停夹g(shù)基礎可分為“以提示詞為核心的技術(shù)基礎”和“以私人定制化聊天為核心的技術(shù)基礎”兩類。
以提示詞為核心的對話語義技術(shù)是生成式人工智能服務的關鍵,且貫穿于“請求—回應”的人機交互過程。參見韓旭至:《生成式人工智能治理的邏輯更新與路徑優(yōu)化——以人機關系為視角》,載《行政法學研究》2023年第6期,第37頁。盡管通用大模型能有效提供文本生成服務,但囿于提示詞的指示作用,用戶在很多情況下必須依賴官方網(wǎng)站或優(yōu)化提問指令以精準描述提示詞來獲取有效內(nèi)容。例如,在法律領域,高質(zhì)量法律數(shù)據(jù)的缺乏使得構(gòu)建多模態(tài)中文數(shù)據(jù)集變得困難,對法律類的提示詞的整合能力不足也限制了大模型的應用。因此,需要對生成服務進行法律類提示詞的微調(diào),并增強對生成內(nèi)容中法律知識的驗證功能,借助用戶反饋構(gòu)建強化學習機制,以減少知識幻覺并提升大模型在法律場景中的應用能力。參見王祿生:《ChatGPT類技術(shù):法律人工智能的改進者還是顛覆者?》,載《政法論壇》2023年第4期,第59頁。人類決策與生成在更多時候會運用到符號化、抽象化、理論化的知識進行推理,而大模型則尚無法準確理解語言背后的真正含義。參見王祿生:《從進化到革命:ChatGPT類技術(shù)影響下的法律行業(yè)》,載《東方法學》2023年第4期,第65頁。通過對用戶原始自然語言進行對比預測編碼,能夠使大模型在一定程度上學習到對人類行為的理解。See Junhui Yi,et al., Multiview Predictive Coding with Contrastive Learning for Person Re Identification, Pattern Recognition, Vol.129,2022,p. 1678.然而,現(xiàn)有的規(guī)制理論在區(qū)分提示詞語言與法律語言差異方面存在不足,導致生成的法律評判的內(nèi)容有所欠缺。例如,不區(qū)分一般惡意交互和嚴重欺詐交互,或?qū)⒁话汨Υ门c惡意欺詐一并規(guī)制,不符合法律規(guī)制的精細化要求。為提升生成式人工智能在法律等垂直應用領域的服務效果,需要解決數(shù)據(jù)供給、提示詞整合、知識驗證等問題,并改進現(xiàn)有的規(guī)制理論,以更好地適應大模型技術(shù)的發(fā)展和應用領域的需求。
以“私人定制化聊天”為核心的技術(shù)基礎,存在于“模型即服務”張欣:《生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管》,載《現(xiàn)代法學》2023年第3期,第120頁。的優(yōu)化人機模式交互模式之中。該類大模型類似Transformer-XL模型,在長文本理解和信息提取任務上表現(xiàn)出色。See Zihang Dai,et al. ,Tranformer-XL: Attentive Language Models beyond a Fived-Length Conext,In Prceedings of the 57th Annual Meeting of the Association for Computational Inguistics, A ssociation for Computational Linguisties, 2978-2998( 2019).OpenAI的官方博客中描述了大模型在信息檢索和摘要方面的潛力。其本質(zhì)是一款語言優(yōu)化大師,而不是預設正確答案或給出正解的機器人。除了文本理解功能以外,大模型還具備一定的語言理解和語法糾錯能力,可以提供文檔校對和編輯的輔助功能。See Brown T B, Language Models are Few-Shot Learners,Neural Information Processing Systems, Article 159, 2020,p.1894.在文檔校對和編輯能力方面,大模型建立在某個時間節(jié)點之前的知識庫而不是實時的大數(shù)據(jù)之上,所用的推理模式是缺省推理,其結(jié)論并不具有保真性。參見熊明輝:《多維考察ChatGPT》,載《中國社會科學報》2023年3月6日,第5版。大模型面對一些無法回答的時候會表示:“很抱歉,我無法直接提供……”,以表達其審慎對話的態(tài)度。在缺乏細節(jié)的對話語義下,其私人定制化聊天只能作為用戶參考,而不能作為用戶采納的憑據(jù),所以其規(guī)制對象應當從服務平臺轉(zhuǎn)移到用戶。然而現(xiàn)有的規(guī)制卻沒有區(qū)分服務平臺和服務對象,造成生成式人工智能規(guī)制的目的緯度不足的困境。概言之,既有以個性化服務為核心的技術(shù)基礎的規(guī)制論要么過度依賴于期待大模型功能發(fā)展的未來治理,要么缺乏解決現(xiàn)有技術(shù)缺陷和應用瑕疵的高風險治理功能。
2.技術(shù)應用緯度的規(guī)制不穩(wěn)定、多點規(guī)制和數(shù)據(jù)監(jiān)管分類不明等困境
生成式人工智能面臨技術(shù)應用風險的困境,包括以下三點:其一,數(shù)據(jù)要素供給緯度的規(guī)制不穩(wěn)定。數(shù)據(jù)收集和使用對于ChatGPT這種大模型的訓練和學習非常重要。然而,由于涉及個人隱私權(quán)、數(shù)據(jù)泄露和濫用等問題,各國政府對ChatGPT規(guī)制此起彼伏。2023年,
ChatGPT被意大利政府叫停使用,經(jīng)過技術(shù)風險評估并解決相關問題后,才恢復使用。See X." M、M." C、H." HE、L." Ch:《AIGC研發(fā)及應用數(shù)據(jù)隱私合規(guī)義務識別———以意大利監(jiān)管ChatGPT為切入點》,載微信公眾號“合規(guī)小叨客”,https:∥mp.weixin.qq.com/s/fkbYqMyLcZPwYJCWmg-LqQ,2024年5月17日訪問。因此,ChatGPT等大模型在數(shù)據(jù)收集和使用方面面臨不穩(wěn)定的規(guī)制環(huán)境,需要各國政府加以改變;其二,數(shù)據(jù)安全和保護緯度的規(guī)制多點化。ChatGPT模型存儲和處理的海量數(shù)據(jù)需要安裝插件介入,大量外接的插件帶來非法侵入、數(shù)據(jù)泄露、第三方控制等安全問題,存在多點規(guī)制難題。ChatGPT面臨的數(shù)據(jù)安全和保護問題復雜多變,需在多方監(jiān)管下確保插件安全性以防范非法侵入和數(shù)據(jù)泄露;其三,數(shù)據(jù)治理和監(jiān)管分類不明。當前法律框架缺乏科學的分類監(jiān)管設置,沒有為ChatGPT的快速迭代留出足夠的應對空間,導致對數(shù)據(jù)權(quán)利保護的不合理、不平衡和不充分,需要增加個人隱私權(quán)、企業(yè)數(shù)據(jù)權(quán)和公共數(shù)據(jù)利益的對話緯度。在目前的法律框架下,ChatGPT的數(shù)據(jù)治理和監(jiān)管分類不明確,需要科學設置分類監(jiān)管并為快速迭代留出應對空間,以平衡數(shù)據(jù)權(quán)利。
3.技術(shù)標準緯度的算法問責困境
時下,各種各樣的生成式人工智能(AIGC或GPT或BOT)大模型不斷涌現(xiàn),這些新興的算法技術(shù)也帶來了新的隱私和安全風險參見劉艷紅:《人工智能法學研究的反智化批判》,載《東方法學》2019年第5期,第121頁。,且現(xiàn)有技術(shù)標準及其風險評級尚不清晰,相關的法律法規(guī)和政策需要相應地更新和完善。
第一,對生成不當內(nèi)容和偏見問題的規(guī)制之困。當前,ChatGPT在面對錯誤、問責和法律責任等問題時,暴露出規(guī)制的不足。參見《浙江首例,用ChatGPT制作虛假視頻,她被警方抓捕》,載成都商報紅星新聞官方賬號,https://baijiahao.baidu.com/s?id=1770897020064902012amp;wfr=spideramp;for=pc,2024年3月8日訪問。由于可能對法律語境理解不充分,ChatGPT生成的內(nèi)容或許不精確或具有誤導性,同時,其對法律概念的理解不足還可能引發(fā)對法律意見或判斷的錯誤解讀,這增加了在法律領域生成不當內(nèi)容和偏見的風險,以及規(guī)制此類問題的難度。由于訓練數(shù)據(jù)中的偏見和歧視性內(nèi)容可能被ChatGPT反映在其回答中,不充分的數(shù)據(jù)控制易導致具有偏見的生成結(jié)果,這在法律領域可能造成不公正后果,并加劇制度性不平等,從而展現(xiàn)出對生成不當內(nèi)容和偏見問題的規(guī)制難題。例如,在機器的反透明性問題上,批評者指出算法的不透明性可能讓生成式人工智能產(chǎn)出包含不當內(nèi)容與偏見的結(jié)果參見支振鋒:《生成式人工智能大模型的信息內(nèi)容治理》,載《政法論壇》2023年第4期,第34頁。,這往往與訓練數(shù)據(jù)中的偏見有關,也與缺乏對AI輸出的主動監(jiān)督機制有關。這種狀況揭示了當前對于AI引發(fā)的內(nèi)容和偏見問題在規(guī)制上存在的困境,具體表現(xiàn)為:在現(xiàn)有法律和監(jiān)管框架下,由AI造成的一般負面影響難以與經(jīng)濟損失、人身傷害等嚴重負面影響進行區(qū)分,這突顯了在法律和監(jiān)管層面上對生成不當內(nèi)容和偏見問題的規(guī)制之困。
第二,對隱私問題的一體化規(guī)制之難。在技術(shù)風險之外,生成式人工智能大模型對海量數(shù)據(jù)的依賴進一步暴露了個人隱私保護的薄弱環(huán)節(jié),盡管差分隱私等強有力的隱私保護技術(shù)已投入使用,但這些措施仍無法徹底解決與算法透明度和數(shù)據(jù)泄露相關的所有問題。這展現(xiàn)了制定全面一體化隱私規(guī)制的困境。鑒于生成式人工智能的應用場景廣泛且復雜,包括人臉合成、語音合成、虛擬現(xiàn)實等,采取不加分析的粗放式一體化規(guī)制難以解決復雜應用場景帶來的問題。2023年5月,美國國會研究處發(fā)布的《生成式人工智能和數(shù)據(jù)隱私:初探》報告,通過系統(tǒng)性分析生成式人工智能使用數(shù)據(jù)的方式及其可能引發(fā)的隱私風險,揭示了對隱私問題實施一體化規(guī)制的復雜性。參見王金鈞:《域外觀察/美國國會研究處發(fā)布〈生成式人工智能和數(shù)據(jù)隱私:初探〉報告》,載微信公眾號“CAICT互聯(lián)網(wǎng)法律研究中心”,https:∥mp.weixin.qq.com/s/O_Eoy073uA9wir0FLoV34A,2024年5月3日訪問。該報告為制定更為精細化和精準化的隱私保護措施提供了重要參考,同時也揭示了在數(shù)據(jù)隱私保護方面需要面對不同技術(shù)應用和數(shù)據(jù)類型所帶來的多樣化挑戰(zhàn)。
(二)既有規(guī)制路線需要引入“三經(jīng)九緯”法治新模式
為了積極推動生成式人工智能的發(fā)展,國家互聯(lián)網(wǎng)信息辦公室(以下簡稱“網(wǎng)信辦”)于2023年4月發(fā)布了《生成式人工智能服務管理辦法(征求意見稿)》,其中的多個條款引發(fā)了社會熱議?;貞@些爭議后,網(wǎng)信辦等七部門于7月10日聯(lián)合發(fā)布了《生成式人工智能服務管理暫行辦法》(以下簡稱《管理辦法》)作為管理措施。《管理辦法》在立法依據(jù)上新增了《科學技術(shù)進步法》,突出了對科技進步的支持;明確了國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結(jié)合的原則;在生成式人工智能服務方面實行包容審慎和分類分級監(jiān)管,既體現(xiàn)了對技術(shù)發(fā)展的支持,也注重了安全和依法治理。此外,《管理辦法》還對數(shù)據(jù)訓練方面作出規(guī)定,放寬了對研發(fā)企業(yè)的要求,減輕了其在數(shù)據(jù)來源合法性和知識產(chǎn)權(quán)保護方面的責任,鼓勵更多的企業(yè)積極參與生成式人工智能的研發(fā)和創(chuàng)新。
我國在世界上首次以立法形式界定生成式人工智能概念,
按照《管理辦法》界定,生成式人工智能是以算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等為技術(shù)基礎生成的模型。盡管相關規(guī)定為生成式人工智能的發(fā)展提供了政策支持,但存在立法體系化程度方面的不足。
1.可融合數(shù)據(jù)算法緯度的立法路線圖不清晰
現(xiàn)有生成式人工智能的研究主要以“數(shù)據(jù)緯度治理”和“算法緯度治理”研究見長?!皵?shù)據(jù)緯度治理”始終關注數(shù)據(jù)保護與隱私問題,集中討論生成式人工智能的內(nèi)容治理,并運用風險預防原則,控制人工智能生成的話語空間,以數(shù)據(jù)主權(quán)強化生成式人工智能治理權(quán)。參見鈄曉東:《風險與控制:論生成式人工智能應用的個人信息保護》,載《政法論叢》2023年第4期,第61頁;鈄曉東:《論生成式人工智能的數(shù)據(jù)安全風險及回應型治理》,載《東方法學》2023年第5期,第107頁。歐盟通過對個人數(shù)據(jù)權(quán)利的嚴格保護,形成了對人工智能的源頭規(guī)制模式參見汪慶華:《人工智能的法律規(guī)制路徑:一個框架性討論》,載《現(xiàn)代法學》2019年第2期,第198頁。,并在人工智能立法中把算法作為數(shù)據(jù)的一個內(nèi)容緯度展開?!八惴ň暥戎卫怼闭撜吆粲?,立法者應當要求開發(fā)者公開算法的運行機制和基本原理,確保算法的決策過程具有可解釋性,避免算法偏見和歧視。參見張凌寒:《生成式人工智能的法律定位與分層治理》,載《現(xiàn)代法學》2023年第4期,第127頁。美國通過司法判例對算法的法律性質(zhì)進行分析,在搜索引擎算法的案例中,算法被視為言論,而在刑事輔助審判系統(tǒng)中的算法則被認定為商業(yè)秘密。參見汪慶華:《人工智能的法律規(guī)制路徑:一個框架性討論》,載《現(xiàn)代法學》2019年第2期,第199頁。我國通過分散式的立法對算法在電子商務、新聞內(nèi)容推薦及智能投資顧問等領域的技術(shù)應用分別進行了回應參見汪慶華:《人工智能的法律規(guī)制路徑:一個框架性討論》,載《現(xiàn)代法學》2019年第2期,第201頁。,并通過數(shù)據(jù)算法融合立法中的責任與審核機制構(gòu)建,明確算法使用者對算法在具體場景中應用產(chǎn)生的后果負責。然而,我國生成式人工智能治理需要擺脫將人工智能治理等同于數(shù)據(jù)治理的困境,一方面結(jié)合人工智能數(shù)據(jù)法的適應性,另一方面融合數(shù)據(jù)的算法緯度。應明確要求算法開發(fā)者遵守公正、平等和合法原則,并對算法的合法合規(guī)性承擔責任,同時需建立審核機構(gòu)來評估算法是否符合相關原則,并承擔算法審核不通過的責任。參見劉輝:《雙向驅(qū)動型算法解釋工具:以默示算法共謀為場景的探索》,載《現(xiàn)代法學》2022年第6期,第68頁。正如有學者指出:隨著算法技術(shù)的法律規(guī)制不斷升級,需要不斷增進數(shù)據(jù)立法的持續(xù)性參見劉澤剛:《論算法認知偏差對人工智能法律規(guī)制的負面影響及其矯正》,載《政治與法律》2022年第11期,第55頁。,促進數(shù)據(jù)算法的統(tǒng)合治理,以描繪清晰的算法緯度立法路線圖。
2.可信緯度的風險可評估制度鏈缺失
可信既是生成式人工智能的倫理要求,也是技術(shù)要求。從理論上看,可信倫理通過技術(shù)標準實現(xiàn)對風險的可評估,可評估是可信(正題)與風險(反題)的節(jié)點問題,可評估是風險的可信標準,即風險的可評估是生成式人工智能的可信緯度。從實踐論上看,數(shù)據(jù)信息風險可評估立法是生成式人工智能規(guī)制的藍本。從技術(shù)上看,當下數(shù)據(jù)分級分類確權(quán)授權(quán)制度是風險評估的趨勢。在立法上,《個人信息保護法》第55條、第56條確立了隱私風險評估制度;《數(shù)據(jù)安全法》第30條確立了重要數(shù)據(jù)定期風險評估制度和預報送風險評估報告制度?!稊?shù)據(jù)出境安全評估辦法》和《數(shù)據(jù)出境安全評估申報指南(第一版)》確立了向境外傳輸AIGC數(shù)據(jù)的出境安全評估制度。然而現(xiàn)有的生成式人工智能立法規(guī)制模式尚不能覆蓋不同級別的風險評估,風險分級分類的解釋性不足導致評估標準不清晰。
同時《管理辦法》中沒有規(guī)定生成式人工智能服務產(chǎn)品風險原則、規(guī)則和技術(shù)要求,以及標準—認證—認可風險分級分類評估制度。以上表明生成式人工智能的規(guī)制缺乏可信緯度的風險可評估制度鏈。
3.可轉(zhuǎn)化為立法規(guī)范的技術(shù)標準的缺失
我國生成式人工智能快速發(fā)展的同時,相應的法律環(huán)境和法治水平卻面臨著技術(shù)標準缺失的困境,需要在技術(shù)增強型法治理念的統(tǒng)領下,將技術(shù)標準轉(zhuǎn)化為立法規(guī)范。從全球角度看,在借鑒俄羅斯人工智能舉國發(fā)展戰(zhàn)略和歐盟《人工智能法案》基礎上,圍繞人工智能技術(shù)邏輯與標準制定具有權(quán)威性、可執(zhí)行性和適應性的法律框架是解決標準缺失問題的可行路徑。然而現(xiàn)有的研究缺乏足夠的創(chuàng)新實踐的理論概括能力,亟待在既有理論基礎上凝練出可轉(zhuǎn)化為立法規(guī)范的技術(shù)標準,以構(gòu)成生成式人工智能法治新模式的規(guī)則緯度。
(三)多緯度的事實需要引入“三經(jīng)九緯”法治新模式
ChatGPT已經(jīng)廣泛應用于法律領域,包括法律研究、文件分析和虛擬法律助手等方面,它能夠生成類人的回應并提供法律洞見。然而,人們對于使用ChatGPT的可靠性、準確性和倫理影響存在極大的理論分歧。
1.既有商談模式需要在“三經(jīng)九緯”之間對話商談
ChatGPT存在知識幻覺等問題,導致其服務行為的法律評價面臨著非法性不明帶來的不確定性參見許娟:《數(shù)字法學的二進制遞歸符碼》,載《中國社會科學報》2019年10月9日,第5版。,同時,在價值層面,ChatGPT面臨著“技術(shù)引發(fā)倫理困境論”“人類危機風險治理論”“生成式人工智能引發(fā)的民主危機論”等價值危機。高位的價值拷問與現(xiàn)實的低端應用之間存在落差,生成式人工智能和法律規(guī)范的連接媒介需要借鑒哈貝馬斯的事實與規(guī)范之間的商談模式參見[德]哈貝馬斯:《在事實與規(guī)范之間:關于法律和民主法治國的商談理論》,童世駿譯,生活·讀書·新知三聯(lián)書店2014年版,第128-144頁。,模擬對話商談的“三經(jīng)九緯”這一“厚”的治理結(jié)構(gòu)是解決這一落差的破解之道。同時,在將模擬商談對話的技術(shù)程序應用于法律領域時,將生成式人工智能轉(zhuǎn)化為法律事實,并將法律事實轉(zhuǎn)化為法律規(guī)范,從而推動生成式人工智能立法建設,進而以規(guī)則之治帶動法治新模式。
2.既有“主體間性”理論需要在“三經(jīng)九緯”之間統(tǒng)分結(jié)合
從生成式人工智能技術(shù)端和產(chǎn)業(yè)端出發(fā),只有在人—機—人之間不斷交往對話,才能擠掉AI的泡沫,促進用戶—企業(yè)(機器開發(fā)方)—政府之間的深度對話。這一觀點得到了
斯坦內(nèi)娃等學者的支持,他們認為需要考慮用戶對高質(zhì)量數(shù)據(jù)的關注和需求,提高人—機對話能力,并指出,由于人工智能和機器人技術(shù)的快速發(fā)展,以人工智能主體理論結(jié)合社會回應型的法學方法,不僅應當在法規(guī)和標準制定過程中發(fā)揮作用,也要在機器監(jiān)督和機器反饋中回應法治可及性。See Mila Staneva amp; Stuart Elliott,Measuring the Impact of Artificial Intelligence and Robotics on the Workplace,in Alexandra Shajekamp;Ernst Andreas Hartmann eds. ,New Digital Work, Institute for Innovation and Technology,Vol.4,16-30(2023).另外,在企業(yè)自治方面,普遍缺乏大模型服務平臺的容錯機制和激勵機制。政府應當激勵大模型服務平臺企業(yè)自主完善數(shù)據(jù)管理和保護措施,在制定和實施相關法規(guī)和標準時,要考慮到大模型服務平臺企業(yè)的利益。
古德曼和弗拉克斯曼等學者提出,深度學習中的算法決策法規(guī)可以促進技術(shù)創(chuàng)新和發(fā)展。經(jīng)深度學習后的數(shù)據(jù)開放共享,其大規(guī)模利用率更高。See Goodman Brvce amp; Flaxman Seth, European Union Regulalions on Algorihmice Decision-Making and a “Right to Explanation”, Al Magazine, Vol. 38,53-54(2017).這一觀點得到了曹靜宇等學者
的支持,他們認為復雜智能體領域中的深度學習需要采用共享方法。See Jingyu Cao et al. ,Hierarchical Multi-Agent Reinforcement Learning for Cooperative Tasks with Sparse Rewards in Continuous Domain,Neural Computing and Applications, Vol. 36, 2024,p.283.在用戶—企業(yè)—政府既有的三方主體間基礎上,大模型服務平臺在人—機—人之間進行統(tǒng)和分兩種方式展開服務,包括在人—機之間進行技術(shù)轉(zhuǎn)化,在人—法之間開展試驗改進,以技術(shù)的可用和可及來充分回應社會需求,并且在智能社會實驗中探索大模型應用的新場景。
二、“三經(jīng)九緯”法治新模式的基本展開
人與機器人的行為在法治空間中各有界定,遵循事實與規(guī)范原則,分為國家戰(zhàn)略宏觀事實、產(chǎn)業(yè)孵化微觀事實和立法規(guī)范等三個層面。宏觀層面聚焦國家戰(zhàn)略,構(gòu)建立法目的;微觀事實關注
產(chǎn)業(yè)孵化中的智能社會實驗,創(chuàng)新立法原則;立法規(guī)范層面提煉規(guī)則,在立法目的和立法原則的基礎之上創(chuàng)制規(guī)則,形成“國家戰(zhàn)略—產(chǎn)業(yè)孵化—立法規(guī)范”的法治道路。此道路衍生出“三經(jīng)九緯”模式,涵蓋人工智能基礎、應用、風險評估等方面,結(jié)合數(shù)據(jù)、算法、算力等核心要素,形成目的、原則和規(guī)則的法律體系。生成式人工智能的“三經(jīng)九緯”法治新模式,旨在通過促進、回應和包容型路徑,整合三個層面內(nèi)容,確保技術(shù)創(chuàng)新與法治規(guī)范相協(xié)調(diào),包括在技術(shù)基礎層,洞察生成式人工智能趨勢,考慮社會影響;在技術(shù)產(chǎn)業(yè)層,緊跟技術(shù)產(chǎn)業(yè)發(fā)展,預見法律規(guī)范要求;在服務應用層,關注服務提供者運營實況,滿足公眾服務需求。
(一)引入“三經(jīng)九緯”法治新模式之宏觀事實第一經(jīng)中的三個緯度:基礎、應用和標準的重要性
在國家宏觀背景下,2023年全國網(wǎng)絡安全和信息化工作會議強調(diào)發(fā)展應用人工智能技術(shù)?!叭斯ぶ悄?生成式”的疊加結(jié)構(gòu)增強了認知,但卻加劇了風險。為應對新一代人工智能的技術(shù)風險,需將技術(shù)標準轉(zhuǎn)化為倫理標準,持續(xù)試驗改進,平衡技術(shù)進步與風險管理,確保生成式人工智能在法治的軌道上穩(wěn)健前行。
1.第一緯:技術(shù)基礎緯度
生成式人工智能的自然語言處理等關鍵技術(shù)持續(xù)突破的同時,仍面臨以下技術(shù)基礎瓶頸。首先,自然語言技術(shù)的同質(zhì)化與創(chuàng)意生成之間存在矛盾。當前大多數(shù)訓練數(shù)據(jù)側(cè)重于非專業(yè)領域,導致輸出文本的性能受限,難以滿足用戶的多樣化需求,大模型的基礎和應用前景面臨挑戰(zhàn)。其次,圖片識別工具在提高生成式人工智能模型透明度的同時,也帶來了真?zhèn)坞y以識別的風險,這對模型的可靠性和安全性提出了更高要求。此外,人機交互技術(shù)的瓶頸同樣亟待突破。雖然國外微軟新必應和國內(nèi)百度等企業(yè)的大模型開放為用戶提供了更好的體驗,但個性化生成和交互能力尚未觸及行業(yè)標準的上限,資本和技術(shù)雙輪驅(qū)動能力受到限制。在創(chuàng)意生成方面,雖然OpenAI等領軍企業(yè)已有重要技術(shù)突破,如GPT-3語言模型,但用戶體驗與宣傳之間存在差距,需要進一步優(yōu)化和推廣。最后,自主學習作為提升生成式人工智能模型適應性、可解釋性和決策能力See Finn C,Abbeel P amp; Levine S,Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks,Proceedings of the 34th International Conference on Machine Learning, PMLR70,1131-1132(2017).的關鍵技術(shù),目前其以預訓練模型為主導的適應性交互和創(chuàng)意生成功能仍有限。因此,我們需要深入挖掘技術(shù)基礎緯度,把握生成式人工智能內(nèi)容生成的本質(zhì),以實現(xiàn)技術(shù)的突破和創(chuàng)新。
2.第二緯:技術(shù)應用緯度
生成式人工智能的技術(shù)應用緯度體現(xiàn)在其服務的多樣化與專業(yè)化上。現(xiàn)階段,生成式人工智能技術(shù)應用服務分為普通平臺服務和政府特殊采購服務。普通平臺服務,如阿里巴巴的“法鏈”和螞蟻金服的“智能草案”,雖提供泛在的智能交互,但技術(shù)應用緯度受限于市場與技術(shù)轉(zhuǎn)化能力,以及用戶認知和應用能力的差異。這些服務在人機互動智能化程度和生成能力方面仍有提升空間。政府特殊采購服務,則聚焦于專業(yè)定制化的機器人服務,如IBM的“Watson”和中國科學院的“小藍”機器人,展現(xiàn)了更為精準和深入的技術(shù)應用。在刑事審理參見張晗、鄭偉昊、竇志成等:《融合法律文本結(jié)構(gòu)信息的刑事案件判決預測》,載《計算機工程與應用》2023年第3期,第255頁。、犯罪預測參見朱文慧、陳高鏈、王燕:《服刑人員情緒調(diào)節(jié)與行為制止系統(tǒng)的設計與實現(xiàn)》,載《計算機科學與應用》2022年第3期,第576頁。、物證分析參見劉志軍:《可信電子數(shù)據(jù)取證及規(guī)則運用研究》,武漢大學出版社2020年版,第14頁。、證據(jù)識別參見黃玲、劉邦凡:《基于圖像分析的車禍現(xiàn)場識別技術(shù)研究》,載《現(xiàn)代電子技術(shù)》2017年第12期,第117-118頁。等法律領域,這些服務能夠提供智能問答、案例分析和決策支持,展示了技術(shù)應用緯度的專業(yè)性和廣度。政府采購服務的技術(shù)應用通過“探索實驗”的方式,開展智能社會實驗,為法律領域提供了更為專業(yè)和智能的服務。這種服務模式不僅拓寬了技術(shù)應用緯度,也為社會發(fā)展和治理帶來了新的機遇和挑戰(zhàn)。
3.第三緯:技術(shù)標準緯度
面對生成式人工智能在技術(shù)應用緯度上的挑戰(zhàn),《管理辦法》雖全面但難以完全覆蓋其規(guī)制需求。因此,自律機制和行業(yè)標準成為管理風險的關鍵。在技術(shù)標準層面,歐盟通過多次修訂法案,逐步強化對AI技術(shù)的監(jiān)管。從2019年的《人工智能道德準則》到2024年通過的《人工智能法案》,歐盟不斷提升生成式人工智能的透明度要求,以應對大模型風險。這些努力不僅形成了有效的風險監(jiān)管思路,也為技術(shù)應用緯度的標準化奠定了堅實的立法基礎。在技術(shù)標準緯度上,歐盟的“風險四分法”為AI技術(shù)的監(jiān)管提供了明確框架。危險型AI,即可能直接威脅生命、自由、基本權(quán)利的技術(shù),如ChatGPT Transformer模型在敏感法律決策中的應用,必須受到嚴格限制。高風險AI,影響公共安全、基礎設施等領域的技術(shù),需持續(xù)監(jiān)測風險并采取管理措施,確?!度斯ぶ悄芊ò浮返?條規(guī)定的落實。限制型AI則針對特定領域或活動,如敏感案件中的生成式人工智能使用,需經(jīng)專業(yè)監(jiān)督審查。低風險AI技術(shù),如輔助文書起草、數(shù)據(jù)分析等,應鼓勵發(fā)展以提高效率和準確性。面對
“責任鴻溝”風險,構(gòu)建法治支撐的技術(shù)標準制定程序See Matthew U. Scherer et al.,Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies,Harvard Journal of Law amp; Technology,Vol. 29,2016,p.353.和多元協(xié)同的用戶參與機制See H. Korala et al.,Design and Implementation of a Platform for Managing Time-Sensitive Iot Applications,2020 IEEE 6th International Conference on Collaboration and Internet Computing,49-50(2020).至關重要。同時,應加強法律法規(guī)與風險標準的銜接融合,確保技術(shù)標準導向與風險標準相結(jié)合,形成生成式人工智能特有的可信倫理路徑。這樣,我們不僅能有效規(guī)避風險,還能促進技術(shù)的健康發(fā)展,避免法律系統(tǒng)扭曲、不公或違反原則的情況。
(二)引入“三經(jīng)九緯”法治新模式之微觀事實第二經(jīng)中的三個緯度:數(shù)據(jù)、算法、算力的重要性
生成式人工智能內(nèi)容生成及服務能力核心為數(shù)據(jù)、算法和算力三要素。這三要素不僅構(gòu)成了技術(shù)基礎,也是內(nèi)容治理的關鍵。數(shù)據(jù)是生成式人工智能的基石,決定了內(nèi)容的質(zhì)量和多樣性。算法作為處理數(shù)據(jù)的核心,直接影響內(nèi)容的生成方式和準確性。算力則是支撐數(shù)據(jù)和算法高效運行的基礎。針對這兩種生成式人工智能ChatGPT大模型,一方面,服務平臺作為內(nèi)容的集散地,需建立嚴格的內(nèi)容審核機制,結(jié)合人工智能技術(shù)和人工審核,確保內(nèi)容的合規(guī)性和健康性。另一方面,服務行為本身也需受到監(jiān)管,確保文本生成服務在遵循用戶意圖的同時,不產(chǎn)生違法、有害或低俗內(nèi)容。通過內(nèi)容治理,確保生成式人工智能內(nèi)容生成及服務能力健康、有序發(fā)展。
1.第四緯:數(shù)據(jù)質(zhì)量緯度
在第四緯度,即數(shù)據(jù)質(zhì)量緯度上,生成式人工智能的運作核心在于數(shù)據(jù)的質(zhì)量與合規(guī)性。數(shù)據(jù)不僅關乎技術(shù)的成敗,更涉及歧視性
See Kim P.T.,Data-Driven Discrimination at Work. William and Mary Law Review, Vol.58,2017,p.884.、合法性See Florid L. amp; Taddeo M.,What is Data Ethics? Philosophical Transactions of the Royal Society A Mathematical Physical and Engineering Sciences,Vol. 374,2016,p.2083.和隱私保護See Stahl B. C. et al. ,The Ethics of Computing: A Survey of the Computing-Oriented Literature,ACM Computing Surveys,Vol. 48,26- 28(2016).等敏感議題。因此,高質(zhì)量數(shù)據(jù)的保護和利用研究至關重要,包括數(shù)據(jù)的知識產(chǎn)權(quán)與個人隱私保護、審查、安全、交互、共享等方面。對于自然語言處理模型,高質(zhì)量數(shù)據(jù)是其訓練與優(yōu)化的基石,無論是語言文本、語料庫還是知識圖譜,都需要經(jīng)過嚴格篩選和處理,以確保模型的準確性和可靠性。正如艾倫·圖靈所強調(diào),理解自然語言是實現(xiàn)人工智能的基礎,而這離不開大量高質(zhì)量語言數(shù)據(jù)的支持。See Turing A. M,Computing Machinery and Intelligence,Mind,Vol. 236,445-446(1950).2023年10月11日發(fā)布的《生成式人工智能服務安全基本要求(征求意見稿)》強調(diào)建立語料來源黑名單制度,旨在提高語料質(zhì)量和模型性能,包括不使用黑名單數(shù)據(jù)、安全評估語料來源、提高語料多樣性及確保來源可追溯性。
此外,生成式人工智能可能引發(fā)的知識幻覺,實質(zhì)上是語言幻覺,可能導致思維混亂和網(wǎng)絡安全威脅。為此,《網(wǎng)絡安全法》等法律法規(guī)為應對此類問題提供了法律保障。同時,服務平臺運營商在數(shù)據(jù)采集、存儲、使用、分析、加密、脫敏和共享過程中,需遵循《數(shù)據(jù)安全法》的規(guī)定,以確保數(shù)據(jù)安全。此外,自然語言處理涉及大量個人數(shù)據(jù)和敏感信息,因此必須嚴格遵守《個人信息保護法》的相關條款,防止數(shù)據(jù)泄露和濫用,保護用戶隱私和安全。這些法律法規(guī)共同構(gòu)成了生成式人工智能數(shù)據(jù)質(zhì)量保障的法律框架,為技術(shù)的健康發(fā)展提供了堅實的法律基礎。
2.第五緯:算法優(yōu)化緯度
重視算法的公平性與可解釋性,在大模型算法優(yōu)化中占據(jù)核心地位。為確保公眾對算法決策的信任與理解,需從法律層面明確大模型算法的權(quán)屬、應用責任、交易流通及保護等關鍵問題。同時,在技術(shù)上,需精心設計自動化決策程序,并深入研究自然語言分析與深度學習算法等議題?!叭斯ぶ悄芊ㄊ痉斗?.0(專家建議稿)”第17條提出:“國家支持人工智能算法創(chuàng)新,依法加強基礎模型保護,促進基礎模型創(chuàng)新開發(fā)、應用推廣?!边@一建議為算法優(yōu)化提供了學理層面的參考。在算法優(yōu)化的立法實踐中,應嚴格遵循《管理辦法》第17條“提供具有輿論屬性或者社會動員能力的生成式人工智能服務”的規(guī)定。這意味著在優(yōu)化過程中,需要充分考慮算法可能對社會、經(jīng)濟、文化等方面產(chǎn)生的影響,并進行相應的社會風險評估和應對策略制定。在新一代人工智能算法優(yōu)化的實際應用中,涌現(xiàn)出大模型服務司法的例證,包括引導社情民意的AI調(diào)解員及小額訴訟AI法官。通過研究這些特定數(shù)字司法場景下的AI應用,我們發(fā)現(xiàn)優(yōu)化后的算法可以有效減少公眾對算法黑箱的擔憂,進而提升公眾對算法決策的信任度。
3.第六緯:算力設施緯度
在生成式人工智能的應用中,AI的算力對法治新模式產(chǎn)生了重要影響。為促進這種影響,我們需要加強算力平臺的兼容性和適用性,規(guī)劃管理并維護算力設施,建立公共算力資源平臺。根據(jù)“人工智能法示范法1.0(專家建議稿)”第16條第2款的建議,國家應制定算力資源供給政策,推動平臺建設與利用,加強算力科學調(diào)度,為人工智能技術(shù)與產(chǎn)業(yè)發(fā)展提供公共算力支持。在社會層面,AI算力與大數(shù)據(jù)相結(jié)合,可以顯著提升法治的公平性和效率。通過分析海量社會數(shù)據(jù),我們能夠洞察潛在的不平等現(xiàn)象,助力政府公正地制定政策。同時,算力設施可用于社會輿情的監(jiān)測和預測,以回應社會對法治新模式的期望。在法律領域,算力設施方面的發(fā)展推動了生成式人工智能創(chuàng)新。例如,在在線爭端解決中,AI的算力能夠自動化并加速糾紛解決過程,從而提高司法數(shù)據(jù)訪問的效率和成本效益。此外,結(jié)合區(qū)塊鏈技術(shù)的智能合約算力的資源,有助于增強合同執(zhí)行的透明性和可信度,有效減少訴訟和糾紛的發(fā)生。
(三)引入“三經(jīng)九緯”法治新模式之立法規(guī)范第三經(jīng)中的三個緯度:目的、原則和規(guī)則的重要性
生成式人工智能的宏觀背景和微觀現(xiàn)狀正逐步融入立法規(guī)范,其核心在于技術(shù)規(guī)則與法律規(guī)范的適配與轉(zhuǎn)化。
斯蒂爾戈等學者指出,數(shù)據(jù)質(zhì)量、模型偏差等因素影響著機器學習算法的技術(shù)規(guī)則,進而影響法律規(guī)則實施See Stilgoe J., Owen R. amp; Macnaghten P.,Developing a Framework for Responsible Innovation,Research Policy,Vol. 9,1695-1696(2013).,由此微觀分析立法規(guī)范至關重要。當前,各國正致力于構(gòu)建以數(shù)據(jù)和算法為核心的人工智能框架性立法。我國已發(fā)布多項相關法規(guī),如《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《網(wǎng)絡音視頻信息服務管理規(guī)定》《網(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》《中國關于加強人工智能倫理治理的立場文件》,但仍需完善全國性框架立法;國際上,美國《人工智能權(quán)利法案的藍圖》明確了公民在使用自動化系統(tǒng)時的五項核心權(quán)利,包括安全有效保護、算法歧視保護、數(shù)據(jù)隱私、提示和解釋,以及替代和退出措施,而歐盟《人工智能法案》則引入了全面規(guī)則,針對高風險人工智能系統(tǒng)設計、開發(fā)和使用,并強調(diào)促進可信人工智能方案的全球推廣,形成以規(guī)則為基礎、以價值為導向的人工智能方案。
1.第七緯:法律目的緯度
生成式人工智能以其高度智能和自主性,對個人隱私、道德規(guī)范、社會權(quán)益等產(chǎn)生深遠影響,也更易觸及法律倫理底線。因此,其立法需求更為迫切和細致。法律界需通過明確法律概念、界定法益目的,制定專門化、細致化的立法目的論,以維護社會秩序和公共利益。從法益保護的內(nèi)容上看,生成式人工智能立法規(guī)范中目的緯度主要對應個人隱私、企業(yè)發(fā)展、數(shù)據(jù)主權(quán)、數(shù)據(jù)安全等法益保護。參見王錫鋅:《個人信息權(quán)益的三層構(gòu)造及保護機制》,載《現(xiàn)代法學》2021年第5期,第105頁。從法益目的評價來看,通過對法律的內(nèi)部規(guī)制進行法益評價來體現(xiàn)民主的立法目的。參見曹博:《算法歧視的類型界分與規(guī)制范式重構(gòu)》,載《現(xiàn)代法學》2021年第4期,第121頁。在這種觀點中,法律的內(nèi)部規(guī)制是通過法律概念、規(guī)則和標準來實現(xiàn)規(guī)制目的,而不涉及法律的制定、執(zhí)行和解釋過程中的外部機制和約束。因此,明晰生成式人工智能的法律概念并界定其法益目的,對于有效地制定立法目的至關重要。在諸多概念和分類中,
有學者將“生成式人工智能服務提供者與其他形式的人工智能服務提供者進行區(qū)分,并定義其特征和應用范圍”。參見徐偉:《論生成式人工智能服務提供者的法律地位及其責任———以ChatGPT為例》,載《法律科學(西北政法大學學報)》2023年第4期,第78頁。主體性目的論者提出,生成式人工智能的發(fā)展涉及不同主體的法益,需要圍繞技術(shù)社會化和社會技術(shù)化兩個技術(shù)治理的緯度展開參見竇爾翔、段玉聰:《升維超越:中國應對GPT-AGI的戰(zhàn)略選擇》,載《海南大學學報(人文社會科學版)》2023年第4期,第64頁。,協(xié)調(diào)性目的論者進一步指出,確保技術(shù)創(chuàng)新、經(jīng)濟績效、社會利益之間的科技倫理協(xié)調(diào)是生成式人工智能立法目的亟待解決的問題。參見龍衛(wèi)球:《人工智能立法的“技術(shù)—社會+經(jīng)濟”范式———基于引領法律與科技新型關系的視角》,載《武漢大學學報(哲學社會科學版)》2020年第1期,第71頁。
生成式人工智能服務提供者的法律權(quán)責、技術(shù)治理緯度及科技倫理協(xié)調(diào),均構(gòu)成立法目的論的核心要素。人工智能服務提供者的類型化目的論、主體性目的論與協(xié)調(diào)性目的論為生成式人工智能的立法目的論提供了多元視角。然而,面對目的不明、平衡困難和持續(xù)挑戰(zhàn)的立法現(xiàn)狀,我國并未簡單選擇歐盟的風險規(guī)制立法模式或美國以法秩序穩(wěn)定為主的立法路徑,而采取了以技術(shù)發(fā)展為基石的整體性系統(tǒng)性立法模式。這一模式以法律原則為導向,將技術(shù)轉(zhuǎn)化為立法途徑,旨在通過相關法規(guī)在目標制定、內(nèi)容規(guī)范及執(zhí)行層面的統(tǒng)一整合,構(gòu)建一個系統(tǒng)完備、相互配合的法律框架。這一框架確保了各項法規(guī)之間的內(nèi)在邏輯和一致性,體現(xiàn)了對法律進行整體性和系統(tǒng)性闡釋
的理念
參見於興中、鄭戈、丁曉東:《生成式人工智能與法律的六大議題:以ChatGPT為例》,載《中國法律評論》2023年第2期,第5頁。,強調(diào)法律原則的重要性,以及通過法律原則來指導和推動立法工作的必要性。這種立法模式不僅符合當前我國生成式人工智能立法的實際需求,奠定了立法目的論基礎也為法律原則導向下的技術(shù)轉(zhuǎn)化型立法路徑參見[英]羅杰·布朗斯沃德:《法律3.0:規(guī)則、規(guī)制和技術(shù)》,毛海棟譯,北京大學出版社2023年版,第18頁。提供了有益的借鑒和啟示。
2.第八緯:法律原則緯度
為有效應對ChatGPT知識幻覺和算法偏見等問題,必須從基本價值上引導技術(shù)發(fā)展,將包括公共性、公平性、合法性等基本價值轉(zhuǎn)化為法律原則,實現(xiàn)以技術(shù)為基礎,以價值為導向的法律原則路徑,主要包括:共治原則、共益原則和透明度原則。
第一,共治原則。共治原則意味著從以監(jiān)管為中心轉(zhuǎn)向協(xié)力互補的善治軌道參見吳元元:《食品安全共治中的信任斷裂與制度因應》,載《現(xiàn)代法學》2016年第4期,第60頁。,包括:(1)解決生成式人工智能服務平臺的所有權(quán)之爭。共治原則將生成式人工智能視為一種公共資源,主張確立公共所有權(quán),以確保其持續(xù)可用性、公平性和社會效益。(2)解決控制權(quán)之爭。目前一些開源社區(qū)將人工智能的控制權(quán)力歸屬于公眾,而不是封閉在少數(shù)組織或個人所有和壟斷權(quán)力之中?!叭斯ぶ悄芊ㄊ痉斗?.0(專家建議稿)”第16條第3款提出:“鼓勵和支持高等院校、科研機構(gòu)、企業(yè)和其他組織建設人工智能算力基礎設施、開源開發(fā)平臺和開源社區(qū),開展算力資源市場化交易,引導各行業(yè)合理有序使用算力資源,提升算力基礎設施利用效能?!保?)確立透明度義務。共治原則強調(diào)多方參與和透明度,平衡各方的利益和權(quán)力,確保決策過程的公正性和合理性。
第二,共益原則。生成式人工智能的模型之大、資本之巨、性能之紊等因素導致對其的評價出現(xiàn)兩極化,阻礙了共益原則的推行。首先,有關生成式人工智能的知識體系更新周期長,導致其無法及時回應社會和專業(yè)的問題。需要加強數(shù)據(jù)集合的及時性和多樣性,以使生成式人工智能能夠跟上社會共益需求。在算法模型方面也需要不斷迭代和改進,以提高生成式人工智能的生成結(jié)果的準確性和實用性。其次,生成式人工智能所需的高算力資源和服務器數(shù)量超出了普通企業(yè)的經(jīng)濟承受能力,需要探索更加可行和經(jīng)濟的解決方案來滿足人工智能技術(shù)的資源需求,促進技術(shù)應用的廣泛性和普惠性。最后,生成式人工智能的準確率尚不足以應對具有一定邏輯要求的工作任務,需要對生成式人工智能的訓練和測試過程進行改進,提高其對復雜問題和邏輯推理的處理能力。同時,也要加強監(jiān)管和審核機制,避免生成式人工智能在輸出信息時出現(xiàn)誤導、偏見或偏差的情況;還需要提升算法的精確度,提高生成式人工智能企業(yè)的商業(yè)信譽,以共益原則作為維護算法權(quán)力行使的邊界。
第三,透明度原則。一個可以被采用的有效生成式人工智能必須經(jīng)過透明度原則的檢驗。透明度原則應涵蓋模型的結(jié)構(gòu)、訓練數(shù)據(jù),以及對輸入和輸出之間關系的理解,通過可視化、可解釋性模型和規(guī)范化等方法來擴展透明度的研究方向See Chiyuan Zhang, et al. ,Understanding Deep Learning (Still) Requires Rethinking Generalization,Communications of the ACM, Vol. 64,2021,p.107.,進而通過可解釋性模型提供對決策過程的解釋和相關信息來實現(xiàn)決策樹、規(guī)則提取和局部可解釋性方法
。
生成式人工智能的透明度原則圍繞以下三個難題展開:(1)解釋之難。生成式人工智能通常使用深度學習等多模態(tài)擬合技術(shù)生成文本、圖像等內(nèi)容,其決策過程的復雜,難以被解釋和被用戶理解?!秱€人信息保護法》第24條第3款對個人權(quán)益有重大影響的自動化決策中的說明義務局限在一般性產(chǎn)品說明書義務。歐盟《人工智能法案》第3條將說明義務規(guī)則擴展到一般性可視正義的原則。(2)錯誤之軛。生成式人工智能有時候會產(chǎn)生不準確、偏見或令人困惑的輸出。由于其復雜性和缺乏透明度,人們很難確定這些問題的根源,并對生成式人工智能的輸出進行有效監(jiān)督和管理。(3)倫理之虛。生成式人工智能廣泛應用于社交媒體、新聞報道、藝術(shù)創(chuàng)作等領域,其輸出的內(nèi)容可能涉及虛假信息等倫理方面的問題,生成式人工智能運用中的語言偽造現(xiàn)象也屬于倫理方面的問題。
3.第九緯:法律規(guī)則緯度
歐盟通過《人工智能法案》,將對人工智能的監(jiān)管從起初的柔性規(guī)制路徑,轉(zhuǎn)向立法規(guī)范路徑。各國紛紛采取法律規(guī)則來監(jiān)管人工智能系統(tǒng)(包括生成式)的開發(fā)和使用。如生成式人工智能在進行數(shù)據(jù)訓練時涉及大量的個人信息。在處理這些信息方面,《個人信息保護法》第24條規(guī)定了三個重要規(guī)則:決策透明、信息自決和重大利益。首先,決策透明原則要求生成式人工智能的開發(fā)者和使用者必須對其決策過程進行充分和透明的說明,以保證用戶能夠理解算法背后的推理和預測過程。其次,信息自決原則要求生成式人工智能的使用者僅能在用戶自愿同意的情況下,獲取和使用個人信息。最后,重大利益原則要求生成式人工智能的開發(fā)者和使用者必須保證算法的使用和數(shù)據(jù)處理,符合公共利益和社會倫理。
三、“三經(jīng)九緯”法治新模式應對生成式人工智能的治理路徑
“三經(jīng)九緯”法治新模式從法律目的、原則、規(guī)則等三個緯度出發(fā),探索構(gòu)建技術(shù)轉(zhuǎn)化和試驗改進、社會回應和場景探索以及促進激勵和穩(wěn)健包容的立法建設路徑,以使傳統(tǒng)法律制度更為適應生成式人工智能發(fā)展的需求。
(一)就法律目的緯度而言,采取技術(shù)轉(zhuǎn)化+試驗改進的促進型法治建設路徑
1.圍繞生成式人工智能“三經(jīng)九緯”的技術(shù)適應轉(zhuǎn)化型法治
隨著自然語言技術(shù)的飛速發(fā)展,生成式人工智能的法治模式需要適應自然語言的技術(shù)特點來進行轉(zhuǎn)化并改進。技術(shù)增強型法治可以分為以下兩種類型:一是技術(shù)適應型法治,根據(jù)不同技術(shù)特點和應用場景,制定相應法律法規(guī)。參見季衛(wèi)東:《新文科的學術(shù)范式與集群化》,載《上海交通大學學報(哲學社會科學版)》2020年第1期,第11頁。例如,針對信息泄露問題,出臺《個人信息保護法》;針對數(shù)據(jù)安全問題,制定《數(shù)據(jù)安全法》。二是技術(shù)轉(zhuǎn)化型法治,將技術(shù)成果轉(zhuǎn)化為法律實踐,在解決實際問題的過程中形成規(guī)范性科技。一項研究顯示,使用規(guī)范性科技概念,可以將法律決策權(quán)從決策者轉(zhuǎn)移給代碼或代碼設計者。這一概念是由荷蘭蒂爾堡大學的庫普斯(Bert-Jaap Koops)教授提出的。See Koops E J,Criteria for Normative Technology: An Essay on the Acceptability of “Code as Law” in Light of Democratic and Constitutional Values,in R Brownswordamp;K Yeung eds. , Regulating technologies,Hart Publishing,157-159(2008).技術(shù)增強型法治需要從增強法律對大模型的適應性、大模型與法律的可轉(zhuǎn)化性兩個方面出發(fā)進行技術(shù)轉(zhuǎn)化和試驗改進,以此推動法治模式兼具價值論和目的論。
第一,大模型與法律之間的適應性問題。法律適應技術(shù)變革引發(fā)的技術(shù)適應型法治新模式,主要表現(xiàn)為:(1)法律目的的適應性。明確每種生成式人工智能與每個法律目標之間的聯(lián)系和關系。例如,大模型語言處理技術(shù)需要遵守隱私保護的底線法治原則,確保個人信息安全。(2)應用場景的適應性。根據(jù)大模型在法律場景中的應用以實現(xiàn)法律目標的改進。例如,自然語言處理技術(shù)可以被用于審理案件時的文本分析和信息篩選,以提高審判效率。(3)法律規(guī)范的適應性。明確每個法律目標對技術(shù)的規(guī)范作用。例如,高透明度、可解釋性和可追溯性的要求會促使技術(shù)開發(fā)者設計更加透明和可追蹤的系統(tǒng),以提高公平性和可信度,包括客觀上的可信度與主觀上的可信度,而法律責任追究機制的底層客觀規(guī)范與法律可信頂層主觀倫理一道,共同在生成式人工智能適應性上發(fā)生規(guī)范作用。參見唐林垚:《人工智能時代的算法規(guī)制:責任分層與義務合規(guī)》,載《現(xiàn)代法學》2020年第1期,第199頁。
第二,大模型與法律之間的可轉(zhuǎn)化性問題。生成式人工智能的自主創(chuàng)新本質(zhì)與法律的穩(wěn)定屬性之間存在顯著對比,然而,這并非阻礙了技術(shù)向法律的轉(zhuǎn)化,反而促進了技術(shù)與法律融合的適應性探索與改進。參見彭輝、姚頡靖:《美日韓科技立法的轉(zhuǎn)型與升級:演化歷程與路徑選擇》,載《東南法學》2016年第1期,第45頁。根據(jù)《管理辦法》第3條的規(guī)定,促進創(chuàng)新與依法治理相結(jié)合的原則,意味著要采取有效措施鼓勵生成式人工智能的創(chuàng)新發(fā)展。這不僅將科技創(chuàng)新納入法治的維度,還涵蓋了技術(shù)向法律的轉(zhuǎn)移、技術(shù)的法理內(nèi)嵌及技術(shù)語言向法律語言的轉(zhuǎn)譯。當前,技術(shù)與法律之間的思維范式存在不可通約的問題,這需要從國家戰(zhàn)略層面打破兩者之間的隔閡。在世界各國,人工智能的宏觀背景通常被納入國家技術(shù)戰(zhàn)略當中。在相關法律法規(guī)的制定過程中,生成式人工智能可以提升法治運作的效率和質(zhì)量,自動化審批、電子文件處理、智能化數(shù)據(jù)管理等方面均是其應用范疇。此外,該技術(shù)還可以擴大公眾參與和監(jiān)督的范圍與形式,如通過在線訴訟、在線問答征求意見、數(shù)據(jù)透明等方式增加公眾對政府機構(gòu)和企業(yè)的監(jiān)督力度。
2.通過負面清單和備案審查制度進行管理方式的試驗改進
“試驗改進型法”是一種介于立法授權(quán)與行政授權(quán)之間的新型授權(quán)制度。其核心是將法律決策授權(quán)給特定試驗主體來實施,包括暫調(diào)或暫停部分法律的適用。本質(zhì)上,這種授權(quán)制度是法律施行力中止和新試驗法制定的有機組合,并不屬于法律修改。因此,“試驗改進型法”也屬于類似行政特許的權(quán)力授權(quán)。有關部門通過行政許可或設置市場準入制度,牽頭制定并定期更新人工智能產(chǎn)品、服務負面清單。“試驗改進型法”采取正反兩種管理方式,在裁量基準幅度范圍內(nèi),對負面清單內(nèi)的產(chǎn)品、服務實施許可管理,對負面清單外的產(chǎn)品、服務實施備案管理。例如,
有專家建議在人工智能法立法中設立“人工智能管理制度”專章,其目的在于探索生成式人工智能行政許可制度的試驗改進,鼓勵政府機關、事業(yè)單位、國有企業(yè)及其他依法具有管理公共事務職能的組織,在政務服務、公共管理等領域開展人工智能技術(shù)應用先行先試,優(yōu)先采購和使用安全可靠的人工智能產(chǎn)品和服務。
(二)就法律原則緯度而言,采取探索場景+社會回應的回應型法治建設路徑
生成式人工智能能力是多模態(tài)人機交互的集成,是數(shù)量巨大的自然人的集體智慧外化,其超大問答系統(tǒng)通過模擬社會交互,推動社會可信度和價值對齊,以回應社會需求。采取以原則導向治理路徑
不僅能夠適應技術(shù)快速變化的敏捷治理,還能回應社會需求并促進技術(shù)轉(zhuǎn)化應用,確保技術(shù)發(fā)展與社會價值平衡,促進實現(xiàn)生成式人工智能的道德性。
1.透明度原則是探索可信的場景正義的具體化
目前,技術(shù)應用中的透明度問題已經(jīng)引起了越來越多的討論。為回應目前人工智能在實踐中存在的透明度問題,增強透明度和可信度,需要建立更加清晰、公正和規(guī)范的場景應用標準,并通過有效的監(jiān)督和反饋機制,使用戶能夠獲得詳細的解釋和說明,深入挖掘透明度原則的潛力,實現(xiàn)數(shù)字空間的規(guī)范化、法治化和智能化發(fā)展。參見駱正林:《數(shù)字空間、人工智能與社會世界的秩序演化》,載《閱江學刊》2023年第6期,第95頁。在具體應用場景中,相關機構(gòu)研發(fā)的法律機器人在適用透明度原則時應從以下四方面展開:
第一,堅持理由的一致性。
融合“法律整合”理念,確保法律機器人在算法與規(guī)則設計時,綜合考慮道德、正義、效率等多元價值。這樣的設計旨在實現(xiàn)法律決策的全面性和公眾利益的最大化,從而減少決策失誤,提高透明度和可信度。
第二,推行設計全過程的說明解釋。法律機器人的決策過程與依據(jù)必須采用易懂易解的算法和規(guī)則,并經(jīng)過嚴格審查與測試,以確保其準確性與可靠性。同時,必須強化系統(tǒng)監(jiān)督與維護,確保運作透明,并構(gòu)建有效的反饋機制。這樣的做法旨在讓用戶能夠充分了解法律機器人的工作原理和決策依據(jù),從而增強其對技術(shù)應用的信任感。
第三,避免內(nèi)容偏差。應警惕認知偏差對法律機器人透明度的影響。參見[美]丹尼爾·卡尼曼:《思考,快與慢》,胡曉姣、李愛民、何夢瑩譯,中信出版社2012年版,第112頁。在算法與規(guī)則制定中,應充分考慮心理學偏差,如確認偏誤和羊群效應,設計合理的機制與程序來防范其影響。這樣的設計旨在確保法律機器人在處理案件時能夠保持客觀、公正的態(tài)度,減少主觀偏見和錯誤判斷。
第四,強化語言認知功能。應通過優(yōu)化法律機器人的規(guī)則模型與自然語言處理技術(shù),采用清晰、簡潔、易于理解的語言表達方式。參見[美]本杰明·李·沃爾夫:《語言、思維與現(xiàn)實———沃爾夫文集》,高一虹等譯,商務印書館2012年版,第56頁。該書提出的語言生成和解析的規(guī)則模型,提高語言增強認知功能。這樣的改進旨在提高公眾對機器人決策過程與依據(jù)的認知和理解,從而進一步增強透明度和可信度。
綜上所述,透明度原則在探索可信的場景正義中發(fā)揮著至關重要的作用。通過堅守理由的一致性原則、推行設計全過程的說明解釋原則、貫徹避免內(nèi)容偏差原則以及強化語言認知功能原則,我們可以更好地推進技術(shù)應用的發(fā)展,實現(xiàn)數(shù)字空間的規(guī)范、法治和智能化。
2.公平原則是回應并優(yōu)化大模型算法偏差的具體化
大模型算法在設計編寫、數(shù)據(jù)處理、運行應用等階段出現(xiàn)的偏差導致了算法歧視、不公平競爭和濫用等現(xiàn)象。參見姚尚建:《數(shù)字治理中的權(quán)力控制與權(quán)利破繭》,載《理論與改革》2022年第3期,第132頁。需要在明確各類算法偏差的具體問題的基礎上,強化公平原則,回應社會對修正算法偏差的期待。
一方面,公平原則首要任務是解決算法歧視問題。這種歧視源于由算法產(chǎn)生的權(quán)力結(jié)構(gòu)
。在大模型算法的操控下,平臺企業(yè)等控制者與用戶建立了單向的橫向權(quán)力關系??刂普邠碛邪凑沼脩艄逃袑傩赃M行分類的能力,并且可以單方面設定算法規(guī)則,而用戶則無法選擇退出,只能接受這些決策結(jié)果。參見陳吉棟:《人工智能法的理論體系與核心議題》,載《東方法學》2023年第1期,第66頁。因此,在監(jiān)管層面預防和治理算法歧視時需要對算法權(quán)力進行規(guī)制。在算法歧視的具體認定上,應以算法根據(jù)用戶特征做出的決策作為行為要件,以用戶受到不利的差別對待作為結(jié)果要件。如果涉及算法開發(fā)、部署、使用的相關方能證明這種差別對待是合理的,則不構(gòu)成算法歧視。
另一方面,公平原則在面對大模型算法中偏差和錯誤的及時修正和改進方面扮演著重要角色。為了確保算法的決策過程公正且透明,曹靜宇等學者提出將元學習與層次強化學習相結(jié)合,通過不斷改進和優(yōu)化算法,實現(xiàn)在復雜多智能體系統(tǒng)中的強化學習,提升算法的公平性和準確性。See Jingyu Cao,et al. ,Hierarchical Multi-Agent Reinforcement Learning for Cooperative Tasks with Sparse Rewards in Continuous Domain,Neural Computing and Applications,Vol. 36,2024,p.273.賓斯強調(diào)了模型公平性的必要性,即需要對機器學習模型進行持續(xù)的監(jiān)控和調(diào)整,以及時發(fā)現(xiàn)并修正模型中的任何偏差和錯誤,確保模型在不同情境下都能保持公平性。See Reuben Binns,F(xiàn)airness in Machine Learning: Lessons from Political Philosophy, Proceedings of the 1st Conference on Fairness, Accountability and Transparency, Vol. 81,153-154(2018).此外,
古德曼和弗拉克斯曼討論了歐盟的算法決策法規(guī),指出這些法規(guī)不僅回應了公眾對于算法決策透明度和公平性的關切,而且促進了技術(shù)創(chuàng)新和發(fā)展,認為這些法規(guī)要求生成式人工智能系統(tǒng)必須滿足公平性要求,并支持系統(tǒng)創(chuàng)新發(fā)展,以確保技術(shù)進步同時兼顧社會道德和法律責任。See Goodman B. amp; Flaxman S.,European Union Regulations on Algorithmic Decision-Making and a Right to Explanation,AI Magazine, Vol.38 ,2017,p. 50.卡洛及其他學者則提出了法律體系在面對生成式人工智能的快速發(fā)展時,應具備社會回應型和探索場景型的特點。他們強調(diào),大模型算法的設計和應用應當遵循規(guī)范化、易于理解的語言表達方式,這有助于確保公眾能夠理解決策過程和依據(jù),從而增加人工智能系統(tǒng)的接受度。See Calo Ryan,Robotics and the Lessons of Cyberlaw, California Law Review,Vol. 103,2014,p.513.綜上所述,公平原則在優(yōu)化大模型算法偏差方面的具體化措施涉及多個層面:包括算法公平性、模型公平性、法規(guī)回應性以及公眾接受性等。
(三)就法律規(guī)則緯度而言,采取促進激勵+穩(wěn)健包容的包容型法治建設路徑
鑒于生成式人工智能具有穩(wěn)健包容的技術(shù)屬性,我們應當將這些屬性轉(zhuǎn)化為相應的法律規(guī)則,確保這些規(guī)則包容審慎
。世界各國人工智能立法盡管各有差異,但基本原理都體現(xiàn)為將算法技術(shù)應用中的倫理困境轉(zhuǎn)化為可信屬性,進而形成法律制度運行的邏輯,包括:制定算法運行環(huán)境、技術(shù)認證和技術(shù)安全標準體系,規(guī)定算法開發(fā)、部署、使用等主體的安全保障義務等。
1.生成式人工智能算力的技術(shù)激勵和包容型法治動因
《管理辦法》第3條規(guī)定了包容審慎的規(guī)則之治,即對生成式人工智能服務實行包容審慎和分類分級監(jiān)管。在數(shù)字化時代,包容性法治的重要性日益凸顯。作為對生成式人工智能的制度安排
,包容性法治應成為數(shù)字化時代下維護公正、保障公民權(quán)利的重要手段。數(shù)字領域中的算法和技術(shù)應當避免人工智能系統(tǒng)或者其他數(shù)字服務對某些群體的歧視和排斥?!豆芾磙k法》第4條第2款規(guī)定:在算法設計、訓練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務等過程中,采取有效措施防止產(chǎn)生民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等歧視。開放和寬容的態(tài)度是實現(xiàn)包容性法治的關鍵。在數(shù)字化時代,當個體可能面臨信息繭房和數(shù)字鴻溝的挑戰(zhàn)時,應采取措施以規(guī)避劣勢、發(fā)揮優(yōu)勢,減少人為偏見,并拓寬人類的知識與能力邊界?!豆芾磙k法》中明確了
鼓勵自主創(chuàng)新、促進國際交流與合作、推動基礎設施建設
等原則,旨在克服數(shù)字化時代的挑戰(zhàn),推動生成式人工智能的健康發(fā)展,提升算力資源利用效率,確保數(shù)據(jù)資源的安全性和可信度。
隨著人工智能技術(shù)的迅速發(fā)展和廣泛應用,人工智能倫理問題也愈加突顯。其中,生成式人工智能的魯棒性
(可理解為人工智能系統(tǒng)的抗干擾性)
和人工智能倫理標準中的包容性被視為屬性轉(zhuǎn)變?yōu)闃藴实牡浞?。博斯特羅姆
等學者探討了魯棒性作為人工智能倫理問題和人工智能對齊問題的一個視角,并提出將機器學習模型的魯棒性作為人工智能開發(fā)中的重要因素,以幫助理解人工智能系統(tǒng)如何對外界變化做出反應,從而提高人工智能的可靠性See Bostrom Nick,Superintelligence: Paths , Dangers , Strategies, Oxford University Press,2014,p. 68.;
喬賓等學者調(diào)查了全球各個組織對于人工智能倫理問題的看法和建議,注意到包容性被普遍認為應當成為人工智能倫理標準之一,以保證人工智能技術(shù)滿足不同人群的需求和關注點。See Anna Jobin, Marcello Ienca amp; Effy Vayena,The Global Landscape of AI Ethics Guidelines, Nature Machine Intelligence, Vol. 1,389-390(2019).《管理辦法》第10條中也有類似規(guī)定:
“提供者應當明確并公開其服務的適用人群、場合、用途,指導使用者科學理性認識和依法使用生成式人工智能技術(shù),采取有效措施防范未成年人用戶過度依賴或者沉迷生成式人工智能服務?!?/p>
2.法治為生成式人工智能算力的技術(shù)激勵提供動因
法治對生成式人工智能算力技術(shù)轉(zhuǎn)化至關重要,為生成式人工智能提供規(guī)范的運行軌道,為技術(shù)創(chuàng)新提供了制度保障,為技術(shù)的交流合作提供了指引和方向。(1)完善規(guī)則之治。
通過明確的規(guī)則指引,確保技術(shù)應用和創(chuàng)新在法治軌道上發(fā)展,同時應對技術(shù)應用中可能出現(xiàn)的風險,如《個人信息保護法》第55條、第56條對信息安全風險影響評估的條件和內(nèi)容進行了細化,為企業(yè)在應用生成式人工智能算力時提供了明確的法律指導。然而,仍需明確風險評估概念以提升法律實施效果。此外,還需完善安全保障和風險評估義務規(guī)定,強化契約約束,構(gòu)建公平、透明、可信賴的法治環(huán)境,為技術(shù)持續(xù)創(chuàng)新和健康發(fā)展提供保障。(2)推動創(chuàng)新之治。
通過明確的規(guī)則指引,鼓勵生成式人工智能算力的創(chuàng)新和發(fā)展,為其提供更加廣闊的應用場景和市場?!豆芾磙k法》《生成式人工智能服務安全基本要求(征求意見稿)》
及部分學者建議稿等,均指出了創(chuàng)新發(fā)展原則,并通過知識產(chǎn)權(quán)保護和技術(shù)創(chuàng)新等手段,加強生成式人工智能算力的技術(shù)研究和開發(fā),推動其向更高端領域、更復雜的應用場景拓展。(3)促進合作之治。
通過明確的規(guī)則指引,
促進不同機構(gòu)之間的合作和交流,形成合力,共同推動生成式人工智能算力的技術(shù)轉(zhuǎn)化和應用,共同化解技術(shù)風險、市場風險。
3.生成式人工智能關鍵技術(shù)突破與法治互嵌
第一,生成式人工智能知識庫構(gòu)建技術(shù)與法治空間的互嵌是為了促進法治和技術(shù)的良性發(fā)展。生成式人工智能和DAO平臺等知識庫的廣泛應用,提高了數(shù)據(jù)收集的精細化、精準度和時效性。通過設計“技術(shù)轉(zhuǎn)化+試驗改進”“探索場景+社會回應”“促進激勵+穩(wěn)健包容”三個規(guī)范模塊,突破傳統(tǒng)知識庫的構(gòu)建方式,建立起具有轉(zhuǎn)化、回應和促進功能司法轉(zhuǎn)化、回應、促進氣候治理的邏輯,對生成式人工智能技術(shù)轉(zhuǎn)化、回應、促進數(shù)據(jù)治理具有啟發(fā)價值。參見朱明哲:《司法如何參與氣候治理——比較法視角下的觀察》,載《政治與法律》2022年第7期,第18-19頁。的生成式人工智能知識庫。以司法場景為例,可以
借助知識庫構(gòu)建,強化生成式人工智能介入司法數(shù)據(jù)優(yōu)化治理。為了體現(xiàn)“探索場景+社會回應”“促進激勵+穩(wěn)健包容”,可以通過生成式人工智能,增加具有評論區(qū)功能的知識庫,增加用戶對話的技術(shù)功能,促進公眾參與互動,探索新的智能社會實驗,形成參與式的法治空間。當前,全國各地正在推進的開放群島、開源社區(qū)建設,為生成式人工智能知識庫提供了技術(shù)轉(zhuǎn)化和試驗改進的新場景,為法治和技術(shù)的融合提供更好的支持和推動。
第二,生成式人工智能算法在歧視預測預警技術(shù)上的突破與法治價值的深度融合尤為關鍵。目前,我們面臨的主要挑戰(zhàn)在于生成式人工智能在預測預警算法歧視、算法偏見等現(xiàn)象時,存在預測效果評估的精準性不足、風險預警的時效性不強,以及誤報、漏報等問題。為了應對這些挑戰(zhàn),應當研發(fā)針對海量數(shù)據(jù)分析的生成式人工智能算法歧視預測預警技術(shù),通過構(gòu)建智能算法歧視風險評估模型智能算法歧視風險評估模型的一個例證是:2018年,美國職業(yè)足球大聯(lián)盟(MLS)使用了一種名為“Soccer Analytics”(足球分析)的人工智能算法來預測球員的表現(xiàn)。該算法使用多個指標,如速度、力量、技術(shù)等,來計算每個球員在比賽中的預計表現(xiàn)。然而,有研究表明,這種算法存在性別和種族歧視問題。例如,在對加拿大女子足球隊進行測試時,算法低估了這些運動員的表現(xiàn)。為了解決這個問題,研究人員構(gòu)建了一個智能算法歧視風險評估模型。他們首先對足球數(shù)據(jù)進行收集和處理,以消除可能存在的歧視偏差。然后,他們使用機器學習算法訓練新的足球分析模型,并在訓練過程中嘗試消除歧視性特征。接下來,他們對新模型進行了評估,并發(fā)現(xiàn)其性能要優(yōu)于以前的模型。最后,他們提出了一系列改進方案,包括收集更多樣化的數(shù)據(jù)、審查和調(diào)整算法參數(shù)等,以避免歧視問題。通過構(gòu)建智能算法歧視風險評估模型,研究人員可以更好地了解算法中的歧視問題,并采取措施來減少或消除這些問題。此外,該模型也有助于促進公平和平等的職業(yè)足球機會,提高足球運動員在職業(yè)比賽中的表現(xiàn)。See Stark C. et al. , Fairness Perceptions of Algorithmic Decisionmaking:A Systematic Review of the Empirical Literature,Big Data Society,Vol. 9,2021,p.2.,攻克關鍵技術(shù)難題,實現(xiàn)對算法歧視行為的精準預測和及時預警。例如,為了強化對生成式人工智能算法中潛在歧視行為的檢測和監(jiān)管,公平AI聯(lián)盟和美國聯(lián)邦貿(mào)易委員會曾聯(lián)合發(fā)起“AI并非無罪”的行動宣言See Michael Veale, Max Van Kleek amp; Reuben Binns,F(xiàn)airness and Accountability Design Needs for Algorithmic Support in High-Stake Public Secstor Decision-Making,In Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems (CHI’18). Association for Computing Machinery, NY, USA, Paper No. 440,10-12(2018).
,以強化生成式人工智能應用的公平性和合規(guī)性。
第三,實現(xiàn)生成式人工智能產(chǎn)品風險智能識別應用技術(shù)與風險法治的深度融合至關重要。當前,生成式人工智能產(chǎn)品缺乏完善的風險分類分級和技術(shù)標準體系。例如,ChatGPT在提供法律咨詢和文書撰寫服務時,就存在知識幻覺和算法偏見帶來的風險,包括錯誤解讀法律條款的風險和傳遞不準確法律信息的風險。因此,需要運用自然語言處理和知識圖譜技術(shù),從侵犯法益角度對風險進行分級分類,研發(fā)風險評估模型,深化風險識別和評估策略的研究,從而提升風險識別的效率與準確性、加強風險防控能力,為生成式人工智能的包容型法治建設提供技術(shù)保障。
結(jié)語
“三經(jīng)九緯”法治新模式關注數(shù)據(jù)要素的法律權(quán)屬、市場化,以及生成式人工智能算法原理的可信性及其檢驗標準的完善等問題,以在法律框架中融入技術(shù)維度為基本理念?!叭?jīng)九緯”法治新模式直面生成式人工智能在重點應用場景、技術(shù)與產(chǎn)品標準、風險等級識別與控制體系等方面的制度化與法治化挑戰(zhàn),并試圖針對數(shù)據(jù)法律認知模糊、風險標準分級分類控制技術(shù)體系缺失等問題提出初步解決方案,以促進生成式人工智能的健康、有序發(fā)展為目標。
ML
A New Model of Rule of Law for Generative Artifical Intelligence Focusing on “Three Longitudinal and Nine Latitudinal Aspects”
XU Juan
(Big Data Rule of Law Research Institute,Nanjing University of Information Science amp; Technology, Nanjing 210044, China)
Abstract:
The new rule of law model of “
three longitudinal" and nine latitudinal aspects” is a richer concept than “regulation theory” in generative artificial intelligence governance. The “thinness” of existing regulations requires the introduction of new rule of law models to solve the real problems and new challenges faced by generative AI, including the improvement of the applicability of laws in the aspects of technical basis, technical application, technical standards, convergentable data algorithms, evaluable credibility, transformable norms, dialogue and negotiation, and the integration between entities. The nine dimensions corresponding to three aspects respectively refer to the dimensions of technical basis, technical application and technical standards, data quality, algorithm optimization and computing facilities, and legal purposes, legal principles and legal rules. In the three aspects of national strategy - industry incubation - legislative norms, through ministerial regulations to transform the needs of the industrial side and improve technical norms, to form an improvement strategy on the path of generative AI governance, including exploring a new mode of response, transformation and improvement, and promoting inclusive rule of law.
Key words:" Generative Artificial Intelligence; New Rule of Law Model; “Three Longitudinal and Nine
Latitudinal Aspects”
本文責任編輯:董彥斌
青年學術(shù)編輯:任世丹