羅亞海
(臨沂大學 法學院, 山東 臨沂 276000)
生成式發(fā)展可以追溯到1950年的“圖靈測試”,測試的主要目的是判斷機器是否可以模仿人類并與人類進行交互。人工智能發(fā)展大致經(jīng)歷了“利用機器學習進行分析和預測、通過深度學習進行視覺和語言處理、生成式人工智能”三個階段(1)參見張彥坤、王雪梅、汪衛(wèi)國:《生成式人工智能對經(jīng)濟社會的影響》,《通信世界》2023年第16期。,進而呈現(xiàn)出計算智能、感知智能、認知智能等人工智能的不同層級。較之傳統(tǒng)人工智能,生成式人工智能(AIGC)除了擁有和分析式AI類似的預測功能外,它們還能根據(jù)決策獨立作出判斷、生成內(nèi)容(2)參見陳永偉:《超越ChatGPT:生成式AI的機遇、風險與挑戰(zhàn)》,《山東大學學報》(哲學社會科學版)2023年第3期。,不僅能夠提煉信息,還可以通過利用現(xiàn)有的數(shù)字內(nèi)容檢查、訓練實例,學習其模式和分布(3)參見畢文軒:《生成式人工智能的風險規(guī)制困境及其化解:以ChatGPT的規(guī)制為視角》,《比較法研究》2023年第3期。。具言之,以ChatGPT為代表的生成式人工智能大模型,可以根據(jù)預設或給定的提示以及上下文語境進行模式創(chuàng)建,從而具有自感知、自決策、自執(zhí)行、自適應、自學習等特征。生成式人工智能的判斷、數(shù)據(jù)分析和生成能力是除了人類以外的任何智慧主體所未曾呈現(xiàn)過的能力,因此生成式人工智能面臨著倫理失控、數(shù)據(jù)歧視和價值觀破壞、知識產(chǎn)權(quán)侵權(quán)、生成內(nèi)容違法等問題。當前,“全球人工智能發(fā)展步入治理軌道”(4)趙陽:《全球人工智能發(fā)展步入法治軌道》,《法治日報》2023年11月20日,第5版。,AIGC法律治理研究是不能繞過的問題,需要從一個交叉法學和跨學科的視角來探討生成式人工智能的法律治理問題,需要以法治現(xiàn)代化價值為指引,凝聚共識、轉(zhuǎn)換理念,對生成式人工智能的治理架構(gòu)進行有益探索。
當前,學理上對生成式人工智能的研究主要聚焦于人工智能的應用(5)相關研究見宋保振、秦瑞標:《論生成式人工智能應用風險的法律規(guī)制》,《上海政法學院學報(法治論叢)》2023年第6期;苗逢春:《生成式人工智能技術原理及其教育適用性考證》,《現(xiàn)代教育技術》2023年第11期。、人工智能的風險特征(6)相關研究如漆晨航:《生成式人工智能的虛假信息風險特征及其治理路徑》,《情報理論與實踐》,https://link.cnki.net/urlid/11.1762.G3.20231128.1005.002;鞠宏磊、申欣雨:《生成式人工智能產(chǎn)品的內(nèi)容安全風險及監(jiān)督路徑》,《經(jīng)濟問題》2023年第12期;陳兵、董思琰:《生成式人工智能的算法風險及治理基點》,《學習與實踐》2023年第10期。和生成式人工智能的規(guī)制(7)吳育珊、杜昕:《生成式人工智能的安全風險與法律規(guī)制》,《嶺南學刊》2023年第5期;鄭曦、朱溯蓉:《生成式人工智能的法律風險與規(guī)制》,《長白學刊》2023年第6期。,基于生成式人工智能治理的研究涉及到治理中的倫理問題,生成內(nèi)容的風險及其治理對策,生成式人工智能的風險及其包容性法律治理等具體應用(8)李亞玲等:《人工智能生成內(nèi)容的潛在風險及治理對策》,《智能科學與技術學報》2023年第3期;鈄曉東:《論生成式人工智能的數(shù)據(jù)安全風險及回應型治理》,《東方法學》2023年第5期;郭小東:《生成式人工智能的風險及其包容性法律治理》,《北京理工大學學報》(社會科學版)2023年第6期;董扣艷、張雨晴:《生成式人工智能發(fā)展與治理的哲學省思》,《福建師范大學學報》(哲學社會科學版)2023年第4期。。生成式人工智能的治理是現(xiàn)代科技治理需要面對的新問題,也是法治現(xiàn)代化對法律制度、法治精神和價值判斷的新需求,也必然是國家治理體系和治理能力現(xiàn)代化的題中之義,因此需要在法治現(xiàn)代化的進程中進行生成式人工智能發(fā)展的治理制度構(gòu)建,以實現(xiàn)科技發(fā)展更好服務于人民美好生活需要。
生成式人工智能的法律治理本質(zhì)屬于科技應用治理范疇,雖然和傳統(tǒng)的科技治理有共同之處,但更有作為新興科技的獨特的特征呈現(xiàn)。生成式人工智能作為第四次工業(yè)革命的代表性技術,當然內(nèi)蘊科技創(chuàng)新激勵和科技風險控制之間的制度性平衡。從現(xiàn)代性的視角來說,當代社會政治國家正在向技術國家演化,一個科技“利維坦”正在形成,“生成式人工智能在國家、社會、私權(quán)利三個層面產(chǎn)生的風險,具有損害方式隱蔽、損害結(jié)果嚴重兩大特點”(9)商建剛:《生成式人工智能風險治理元規(guī)則研究》,《東方法學》2023年第3期。。生成式人工智能基于輸入者中心主義的現(xiàn)實,數(shù)據(jù)選擇、強制的算法規(guī)則選擇可能造成內(nèi)容的偏見及數(shù)據(jù)歧視,以要素、算法和算力為基礎的生成式人工智能,缺乏透明的算法規(guī)則,數(shù)據(jù)正義的實現(xiàn)無法直接呈現(xiàn),這就容易造成生成內(nèi)容可能用于虛假的信息傳播等違背公序良俗和社會主義核心價值觀的情形出現(xiàn),同時,生成式人工智能在數(shù)據(jù)訓練和數(shù)據(jù)使用中,可能事實上造成對借鑒內(nèi)容侵權(quán)的風險和高度模仿的風險,甚至有淪為網(wǎng)站釣魚和宣傳虛假信息等違法犯罪行為工具的可能。
“伴隨政治國家中心主義的衰落,以政治國家建構(gòu)為目的的現(xiàn)代政治應做出必要調(diào)整”(10)齊延平:《論人工智能時代法律場景的變遷》,《法律科學(西北政法大學學報)》2018年第4期。。生成式人工智能治理需要法律制度的構(gòu)建來規(guī)導政府和公民之間的合作和一致行動,需要建立有效風險識別的法律制度,實現(xiàn)正確的價值引領,避免重物質(zhì)輕風險的價值傾向,避免科技“創(chuàng)造性破壞”的尷尬,發(fā)展負責任的生成式人工智能?,F(xiàn)代性導入了一些先前時代基本或者完全不知道的新的風險參量(11)喬治·瑞澤爾:《后現(xiàn)代社會理論》,謝立中譯,北京:華夏出版社,2003年,第208頁。,因此生成式人工智能的法律治理需要探求新的制度供給。治理視角下的制度構(gòu)建需要思考如何通過憲法和部門法的制度安排對“生成式”進行價值鎖定,需要審視治理制度依存的價值基礎,斟酌治理制度的現(xiàn)實條件,凝練治理的基本理念共識和制度規(guī)則,建立有效的風險識別機制,凝聚法律風險理念,構(gòu)建有效引領人工智能發(fā)展的法律規(guī)范體系。
人工智能時代的科技治理需要重視主觀價值判斷的影響,回答“應該”是什么的問題,對生成式人工智能闡釋也不能脫離這個問題?!敖詠?人們一般認為憲法應當是規(guī)范、控制國家權(quán)力、保障公民權(quán)利,建立在民主制度基礎之上的法”(12)儀喜峰:《憲法之維解讀》,《經(jīng)濟研究導刊》2015年第5期。。在此基礎上的法律制度是調(diào)整國家和公民之間以及公民和公民之間的關系。在現(xiàn)代語境中,人工智能時代科技治理應該妥善處理科技和人的關系(13)參見張弦:《我們需要怎樣的全球科技治理》,《學習時報》2020年8月28日,第2版。。從憲法和法律價值的角度而言,人工智能時代科技治理中科技和人的關系問題是科技治理的核心問題,而“將憲法價值與科技價值加以平衡的重要平臺就是憲法”(14)韓大元:《科技發(fā)展要基于人的尊嚴和憲法共識》,《北京日報》2018年12月3日,第14版。。自然科學的發(fā)展讓認知論從神本主義發(fā)展到物本主義,從物本主義發(fā)展到人本主義(15)參見江國華:《憲法哲學導論》,北京:商務印書館,2007年,第79-82頁。。自然科學的發(fā)明和發(fā)現(xiàn)讓傳統(tǒng)崇尚神靈的世界認知模式發(fā)展到了物本主義世界觀,這時候的科學與人本發(fā)生了分立,科學不以人為中心,人有了物化的風險和危機,并有了成為科技附庸的風險,生活領域成為無關重要的角落。以ChatGPT為代表的生成式人工智能較之傳統(tǒng)人工智能技術,具有更高精的參數(shù)、更強的計算能力和數(shù)據(jù)訓練能力,呈現(xiàn)出鮮明的自我學習和自我迭代的特征,隨著“自主性”水平提高,輸出數(shù)據(jù)的準確定風險增加,生成式人工智能帶來的這種擔憂更為突出。
事實上,人工智能的“潘多拉魔盒”并未單純地釋放美好和善意,同時也包含了可能危害人類利益的一面,存在物本主義的風險和非理性。這一切都在表明,科技特別是當下的智能科技將自己當作了世界的中心,將人類當作了附庸。隨著現(xiàn)代人本主義的興起,人作為主體的研究日益深入,人本主義將人類的生活領域作為研究對象,不再將人與物的二元對立作為理論前提,而是開始以人為主體的社會機構(gòu)作為事實背景來探索法律與社會之間的內(nèi)在關系。這就將人們的認知從二元論中解放出來,開始從政治國家和市民社會的和諧融合中來解釋社會管理和公民權(quán)利之間的關系,并希冀籍此尋找公民和政府的有效合作途徑(16)參見黑格爾:《法哲學原理:或自然法和國家學綱要》,范揚、張企泰譯,北京:商務印書館,1996年,第321-322頁。。當人們以此判斷來闡發(fā)法律在生成式人工智能治理中的作用時,是對法律制度的供給需求的一種表達。正如習近平總書記所指出的,“我們要依法保障全體公民享有廣泛的權(quán)利,保障公民的人身權(quán)、財產(chǎn)權(quán)、基本政治權(quán)利等各項權(quán)利不受侵犯……保障人民群眾對美好生活的向往和追求”(17)參見習近平:《在首都各界紀念現(xiàn)行憲法公布施行30周年大會上的講話》,北京:人民出版社,2012年,第10頁。,而這必然建立在基于不同的國家基礎和時代特征的不同價值判斷之上。
人工智能的發(fā)展尚缺乏根據(jù)人類價值來進行結(jié)果控制的能力,尚不能夠確保在道德邊界內(nèi)實現(xiàn)“生成”控制。如果說物本主義及早期人本主義的“人”和“物”的關系還是嚴格從物理形態(tài)上來區(qū)分的話,生成式人工智能下“人”的界定則面臨更為深層次的理論思索,“人”和“物”的關系可能面臨全新的規(guī)則構(gòu)建。在傳統(tǒng)弱人工智能背景下,“智能”為作為主體的人所控制,人工智能的作用是輔助性的,并嚴格按照主體的預設進行運行并根據(jù)預期實現(xiàn)設定的目標或者行為。但是在AIGC階段,人工智能所體現(xiàn)的自我更新和學習能力,使其具有獨立表達意識的特征,加之算法規(guī)則的“黑箱”化,可能會對人類發(fā)生反向引導,并事實上通過生成內(nèi)容的不可控性,對傳統(tǒng)意義上的人類主體地位產(chǎn)生沖擊,關于人工智能主體資格問題的討論就是一個最直接的反映。不可否認,人們對法律制度的價值有不同的認知和期待,但是最終必將形成相對一致的觀念,并成為法律治理制度價值理念不可或缺的組成部分。堅持人工智能發(fā)展中確保人的最終價值就是共識?!叭说纳媾c發(fā)展,人的尊嚴與自由,是人類組織共同體的價值追求與終極關懷”(18)劉茂林等:《憲法是組織共同體的規(guī)則》,《法學評論》2007年第5期。。生成式人工智能的法律治理制度要以人的普遍的主體價值為終極關懷,這需要在生成式人工智能背景下凝練法律治理的新秩序,實現(xiàn)AIGC治理的法的價值和規(guī)范指引,并據(jù)此對治理模式進行現(xiàn)代性重構(gòu)。
治理理念在20世紀90年代才被引入到政府、非政府組織(NGO)管理中(19)參見吳希金等:《科技治理體系現(xiàn)代化:概念、特征與挑戰(zhàn)》,《科學學與科學技術管理》2015年第8期。。當前科技治理有兩條線路:其一為美國模式,是政府中立模式,表現(xiàn)為法不禁止則可行,政府不會主動介入科技活動,該模式認為科技倫理是科技發(fā)展的桎梏;其二為歐洲模式,歐洲認識到了科技非理性對社會的沖擊,采用的是審慎的監(jiān)管原則,為科技發(fā)展制定規(guī)則。中國法治發(fā)展要實現(xiàn)重點領域和新興領域立法,對人工智能的法律治理也是如此。以生成式人工智能為代表的科技新治理體系需要在中國式法治現(xiàn)代化基礎上謀求一致的行動,國家發(fā)揮對人工智能為代表的科技調(diào)控功能成為必要的選擇。國務院于2017年7月發(fā)布的《新一代人工智能發(fā)展規(guī)劃》開啟了人工智能法律治理的歷程,2023年5月國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《生成式人工智能服務管理暫行辦法》則直接對標生成式人工智能的治理問題。在當代,治理本身的內(nèi)涵較之以往已更為豐富,特別是公共權(quán)力機關在治理中的傳統(tǒng)角色已經(jīng)逐漸改變(20)郭銳:《人工智能的倫理風險及其治理》,《北京航空航天大學學報》(社會科學版)2020年第6期。。因此人工智能法律治理應該遵循中國現(xiàn)代法治精神來協(xié)調(diào)政府、個人與社會的關系,需要體現(xiàn)以“人民為中心”的制度面向,突出人工智能發(fā)展對保障和促進人民福祉的意義,體現(xiàn)法律治理的中國特色和法治自信。
生成式人工智能的法律治理不僅需要國內(nèi)法治的一致行為和國家(地區(qū))間的協(xié)同一致,而且需要反對以某些國家和地區(qū)為主導的局部利益導向的治理制度面向。因此人工智能治理的法律秩序建立需要依賴良好的基于法律共識的治理體系,實現(xiàn)法律對人工智能發(fā)展的秩序鎖定,體現(xiàn)法律治理現(xiàn)代性特征的治理模式,并達成一致行動,這就是人工智能治理的共同體理念。以生成式人工智能為代表的新一輪科技革命讓傳統(tǒng)的法律科技治理規(guī)范不能解釋和解決科技與社會現(xiàn)實之間基于現(xiàn)代科技發(fā)展造成的緊張關系。因此生成式人工智能法律治理要與中國法治現(xiàn)代化的價值判斷相一致,具備應對人工智能發(fā)展風險的能力,并最終表現(xiàn)為生成式人工智能發(fā)展的價值向度明確化、規(guī)制制度具體化,明確生成式人工智能的倫理準則和道德要求,不得破壞社會公共秩序和危害國家與社會安全,規(guī)范和引導生成式人工智能技術的發(fā)展和應用。生成式人工智能法律治理需要“堅持在法治軌道上統(tǒng)籌社會力量、平衡社會利益、調(diào)節(jié)社會關系、規(guī)范社會行為,依靠法治解決各種社會矛盾和問題,確保我國社會在深刻變革中既生機勃勃又井然有序”(21)習近平:《在中共十八屆四中全會第二次全體會議上的講話(2014年10月23日)》,中共中央文獻研究室編:《習近平關于全面依法治國論述摘編》,北京:中央文獻出版社,2015年,第11頁。。對現(xiàn)代性的人工智能治理解讀要在對社會轉(zhuǎn)型、結(jié)構(gòu)改革等背景的深刻認識下進行,探尋其新的內(nèi)涵,并據(jù)此對法律治理作出新的詮釋和新的構(gòu)想。
在生成式人工智能發(fā)展中,傳統(tǒng)的主流的法治觀念和法治理念發(fā)生了不同程度的變化,法律價值和制度背后的價值理念在相互作用中引發(fā)社會變遷。就當前AIGC技術的應用來看,其缺乏完善的安全性標準,沒有明確AIGC技術服務、內(nèi)容傳播與技術應用方面的法律責任制度。中國法治現(xiàn)代化對生成式人工智能的法律制度供給提出了新的要求,沒有完善的AIGC技術相關立法與分級分類的監(jiān)管手段,AIGC技術的安全性難以得到保障。傳統(tǒng)的法治定型化模式下,社會和法律制度的變遷受控于法律實施的結(jié)果。人工智能治理的制度需求顯然超越了現(xiàn)行法律的制度供給。而科技成果的應用往往會先于法律制度的變遷,一旦科技得到應用,科技帶來的直接利益會讓人利令智昏,從某種意義上講,現(xiàn)代社會的風險是被財富這個肇事者制造出來的(22)參見喬治·瑞澤爾:《后現(xiàn)代社會理論》,第209頁。。而生成式人工智能帶來的便利性和實用性會麻痹人們對風險的認知,但是風險卻必然存在。因此在生成式人工智能法律治理問題上必須要有法律倫理上的界限??萍际前l(fā)展的利器,也可能成為風險的源頭。要前瞻研判科技發(fā)展帶來的規(guī)則沖突、社會風險、倫理挑戰(zhàn),完善相關法律法規(guī)、倫理審查規(guī)則及監(jiān)管框架(23)習近平:《在中國科學院第二十次院士大會、中國工程院第十五次院士大會、中國科協(xié)第十次全國代表大會上的講話》,《人民日報》2021年5月29日,第2版。。人工智能的法律治理必須根植于中國法治的現(xiàn)實狀況,并需要將治理嵌入到我國轉(zhuǎn)型時期的法治發(fā)展特有的歷史規(guī)律中去,以法律制度回應社會發(fā)展的需要,且需順應中國法治現(xiàn)代化發(fā)展的規(guī)律,據(jù)此讓人工智能的發(fā)展順應當代法治所反映的社會生活。
法治的功能不限于規(guī)范現(xiàn)有的行為,調(diào)整現(xiàn)有的關系,也在于要引領科技、經(jīng)濟、社會發(fā)展和人們的思想行為(24)張文顯:《“未來法治”當為長遠發(fā)展謀》,《新華日報》2018年12月4日,第15版。。生成式人工智能的法律治理需要重視法律文本和法治觀念的價值引領,謀求科技治理中的價值鎖定,并據(jù)此實現(xiàn)科技治理的法治化?!胺ㄖ问侨祟愓挝拿鞯闹匾晒?是現(xiàn)代社會治理的基本手段”(25)習近平:《論堅持全面依法治國》,北京:中央文獻出版社,2020年,第183頁。。因此以人工智能為代表的科技治理需要法律制度及其價值具有前瞻性的思索和構(gòu)建,以便應對現(xiàn)代科技帶來的可能風險。基于法治中國的現(xiàn)實情境,一方面需要促進法律規(guī)范和法律文獻更能夠有效融合法治對生成式人工智能為代表的科技法律秩序塑造的需求,并據(jù)此引導法治的轉(zhuǎn)型,同時又要依賴具有現(xiàn)代內(nèi)涵的法律制度,以法律制度的耦合機制應對人工智能背景下可能引發(fā)的科技風險。這既要反映對應然秩序的堅持,也要體現(xiàn)對成文法治的有效概括。
法治現(xiàn)代化要求要發(fā)展負責任的生成式人工智能,生成式人工智能法律治理要滿足現(xiàn)代法治的價值需求。我們從事法治建設、法治改革,要有未來意識、未來眼光,要把握科技、經(jīng)濟、社會發(fā)展的規(guī)律和趨勢,把握國家治理體系和社會治理體系的現(xiàn)代化方向(26)張文顯:《“未來法治”當為長遠發(fā)展謀》。。在模型、數(shù)據(jù)、算力等要素高度迭代和演進中,生成式人工智能的治理需要充分認知其科技特性,思索其所引發(fā)的社會問題,既要看到其生成式技術對人工智能發(fā)展的支撐,也要看到生成式人工智能可能引發(fā)的問題。人工智能等現(xiàn)代科技成果的廣泛應用,也引發(fā)了社會各界對人工智能的法律、倫理和社會影響的持續(xù)關注和激烈討論,呼吁重視AI倫理,加強AI治理,踐行科技向善,發(fā)展安全可信、負責任的人工智能(27)參見曹建峰:《人工智能治理:從科技中心主義到科技人文協(xié)作》,《上海師范大學學報》(哲學社會科學版)2020年第5期。。毫無疑問,生成式人工智能激發(fā)了人們對發(fā)展通用人工智能的積極性和想象力,當然人工智能本身也能帶來良好的經(jīng)濟前景,但是也導致了可能的風險和挑戰(zhàn)。生成式人工智能的發(fā)展所帶動的社會轉(zhuǎn)型必然引發(fā)科技制度的變遷,因此生成式人工智能法律治理現(xiàn)代化目標的實現(xiàn)需要法治現(xiàn)代化價值的鎖定,并據(jù)此實現(xiàn)人工智能治理的價值指引。
在法治現(xiàn)代化語境中,生成式人工智能的法律治理需要保障以全社會的創(chuàng)新收益為基本點,保障治理制度在制度沖突解決、社會問題控制和科技公共管理等方面的作用,需要運用中國智慧,統(tǒng)籌創(chuàng)新和倫理、發(fā)展和安全、效益和風險的關系,打造負責任的生成式人工智能治理體系。在生成式人工智能風險的法律控制上,不僅僅要對制度事實進行確認,還要對社會的價值共識和根本規(guī)范進行構(gòu)建。“生成式”風險治理體系的構(gòu)建需要厘定現(xiàn)代法治如何實現(xiàn)風險治理目的及其科技風險預防義務的法治界限兩個根本性問題。需要從單純的“向后看”確認事實變化逐步發(fā)展到“向前看”,為未來提供規(guī)范指引(28)參見翟國強:《轉(zhuǎn)型社會憲法修改的模式與功能》,《法學評論》2020年第2期。。
法治現(xiàn)代化是人類文明發(fā)展的風向標,基于生成式人工智能的安全發(fā)展,需要有全球安全和全球文明意識。生成式人工智能的發(fā)展應該符合人類文明發(fā)展的方向,比之形式法治,實質(zhì)法治更加突出個人在社會生活中的自由與權(quán)利,更加關注國家所確立的個人合法愿望與尊嚴可能得以實現(xiàn)的經(jīng)濟的、政治的、社會的與文化的條件,更加注重維護和實現(xiàn)社會公平正義,因而更加能夠維護法治的核心價值(29)參見公丕祥:《習近平的法治與國家治理現(xiàn)代化思想》,《法商研究》2021年第2期。。2023世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會人工智能賦能產(chǎn)業(yè)發(fā)展論壇發(fā)布了《發(fā)展負責任的生成式人工智能研究報告及共識文件》,標志生成式人工智能治理邁出堅實的一步,代表著目前法治現(xiàn)代化對生成式人工智能治理最大的共識。生成式人工智能的治理需要滿足人工智能為代表的科技對現(xiàn)代法律制度的功能需求,妥善處理人與社會、人與自然之間的關系,發(fā)揮法律對科研的價值引領作用?!叭祟愐卫伟盐湛萍及l(fā)展的歷史軌跡,避免科技發(fā)展改變?nèi)说摹黧w化’屬性”(30)羅亞海:《人工智能“未來法治”語境下財產(chǎn)權(quán)創(chuàng)新研究》,《江漢論壇》2020年第4期。。同時,需要充分審視生成式人工智能發(fā)展對傳統(tǒng)社會結(jié)構(gòu)、社會主流價值理念、人倫關系和社會關系的顛覆性影響,在尚未對人工智能發(fā)展的未來風險充分預知的情況下應予以較多限制,甚至應該劃定禁止活動的區(qū)域,隨著認知的成熟而逐漸減少限制或者予以改變。確立以尊重人的存在和人格尊嚴、保障人的健康和人類整體利益、安全為最終目標的治理原則。
生成式人工智能被認為正在引發(fā)人類社會的知識革命(31)劉艷紅:《生成式人工智能的三大安全風險及法律規(guī)制——以ChatGPT為例》,《東方法學》2023年第4期。。從風險的角度而言,包括“生成”準備中的數(shù)據(jù)風險、運算中的算法歧視風險,生成內(nèi)容呈現(xiàn)中的財產(chǎn)權(quán)益風險。具體到法律治理層面可以概括為應用數(shù)據(jù)對國家安全的風險,應用政務數(shù)據(jù)面臨的行政監(jiān)管風險,應用個人數(shù)據(jù)導致的侵害個體權(quán)利風險。這必然要回答生成式人工智能風險的法律規(guī)制問題。“人類之所以需要法治,就是要思考科技可能帶來什么樣的非理性的后果,如何通過法治降低科技發(fā)展可能帶來的風險與非理性,如何通過憲法控制科技對人類文明、尊嚴與未來的威脅”(32)韓大元:《當代科技發(fā)展的憲法界限》,《法制現(xiàn)代化研究》2018年第5期。。從生成式人工智能法律治理的角度而言,法律制度需要實現(xiàn)促進人工智能對社會發(fā)展的作用和預防其可能引發(fā)的風險兩層目的,風險規(guī)制成為當前最大的共識。當然人工智能帶來的可能風險在不同的發(fā)展階段,其重點問題和風險呈現(xiàn)也是不一樣的。在國家轉(zhuǎn)為以經(jīng)濟建設為主要任務的階段,科技治理體現(xiàn)為對知識傳播和吸收以及保障知識轉(zhuǎn)化為經(jīng)濟的可能的引導,在風險社會面向上,科技治理體現(xiàn)為國家通過制度體系系統(tǒng)構(gòu)建科技創(chuàng)新體系。從制度事實上來看,“中國正在步入風險社會”(33)王旭:《論國家在憲法上的風險預防義務》,《法商研究》2019年第5期。。
面對以人工智能為代表的飛速發(fā)展的現(xiàn)代科學技術,人類必須高度關注技術對社會關系和社會觀念所帶來的巨大沖擊,同時充分利用法律的引導、規(guī)制和促進功能,實現(xiàn)法律與技術進步的良性互動(34)趙萬一:《面對人工智能,法律應該做什么》,《光明日報》2019年5月12日,第7版。。在當下階段,生成式人工智能發(fā)展帶來的挑戰(zhàn)體現(xiàn)為基于“社會-技術”雙重關系下的持續(xù)和包容性發(fā)展。科技風險治理經(jīng)歷了基礎性研究和共識技術支持、注重科技能力創(chuàng)新和推動“社會-技術”一體化三個階段(35)參見楊洋:《科技創(chuàng)新治理的歷史演進與治理難題》,《科技中國》2021年第4期。。對生成式人工智能而言,“既然在大數(shù)據(jù)人工智能時代,人的生活與行動開始被智能化算法所‘綁架’,‘人’的主體性地位逐漸喪失,并實現(xiàn)人與技術的‘和解’,而‘和解’的前提是人工智能技術中可解釋性內(nèi)容的增加,那么就應該借此機會強化對人工智能技術中可解釋性內(nèi)容的保護,實現(xiàn)技術和監(jiān)管的相互配合,并為司法實踐提供外部助力”(36)劉艷紅:《生成式人工智能的三大安全風險及法律規(guī)制——以ChatGPT為例》。。這體現(xiàn)在生成式風險應對機制上,既要關注其對社會發(fā)展的助益作用,同時要做好必要的風險規(guī)制。
工業(yè)文明征服了自然,形成了“人化自然”,這種改變帶來了風險,從本質(zhì)上講,風險規(guī)制又需要根植于人類社會。人工智能風險控制與科技治理面向相一致,在人工智能風險治理中,法治需要國家承擔起風險預防的義務,需要承擔維護國家安全和公民權(quán)利的責任,保障人的基本價值和國家治理能力和治理體系現(xiàn)代化目標的實現(xiàn),在權(quán)利保護和風險控制中實現(xiàn)平衡?!皬娬{(diào)賦予公民權(quán)利也并非是毫無限制的,過度賦權(quán)有可能會阻礙生成式人工智能的發(fā)展。所以必須尋找公民權(quán)利與人工智能發(fā)展的一個平衡點”(37)孔祥承:《國家安全視閾下生成式人工智能的法治應對——以ChatGPT為視角》,《法治研究》2023年第5期。。生成式人工智能的風險預防包含“監(jiān)測—評估—控制”、“反思—協(xié)調(diào)—學習”、“處置—轉(zhuǎn)移—分散”和“完善—發(fā)展—容忍”四種范式(38)參見王旭:《論國家在憲法上的風險預防義務》。。生成式人工智能的風險治理需要在充分審視現(xiàn)代科技的基本特征和表象的變化基礎上,實現(xiàn)切實契合科技發(fā)展規(guī)則的現(xiàn)代性流變。根據(jù)通行的風險理論,法律風險理論需要包含可容忍風險、可預防風險和需要規(guī)避的風險三個層次。人工智能背景下科技風險治理要體現(xiàn)制度的層次性,構(gòu)建“科技創(chuàng)新活動中人與社會、人與自然、人與人關系的思想和行為準則,其規(guī)定了科技工作者及其共同體應恪守的價值觀念、社會責任和行為規(guī)范”(39)朱步樓:《加快構(gòu)建科技倫理治理體系》,《中國社會科學報》2021年3月30日,第4版。。以現(xiàn)實風險為基礎的法律賦能本質(zhì)上體現(xiàn)的是風險轉(zhuǎn)化問題,科技自身的創(chuàng)造力需要遵守法律規(guī)范,保證新時代科技的創(chuàng)新治理與社會觀念、意識認知相一致。
現(xiàn)代法治需要從價值判斷入手,構(gòu)建新的價值秩序,引領生成式人工智能的價值評價體系和風險預防體系。針對人工智能法律治理,“要深度參與全球科技治理,貢獻中國智慧,塑造科技向善的文化理念,讓科技更好增進人類福祉,讓中國科技為推動構(gòu)建人類命運共同體作出更大貢獻”(40)習近平:《在中國科學院第二十次院士大會、中國工程院第十五次院士大會、中國科協(xié)第十次全國代表大會上的講話》。。數(shù)字科技發(fā)展不平衡、規(guī)則不健全、秩序不合理等問題日益凸顯,不同國家和地區(qū)間的數(shù)字鴻溝不斷拉大,現(xiàn)有網(wǎng)絡空間治理規(guī)則難以反映大多數(shù)國家的意愿和利益(41)參見張文顯:《習近平法治思想的理論體系》,《法制與社會發(fā)展》2021年第1期。。營造科技公共安全體系,科技治理中的安全意識和應急機制相較于目前應有“質(zhì)”和“量”的提升。科學技術的不斷發(fā)展,日益把全人類聯(lián)系成命運與共、休戚相關的一個整體(42)王亞軍:《習近平關于科學技術重要論述的多維視域》,《中共南寧市委黨校學報》2021年第2期。。在生成式人工智能背景下社會呈現(xiàn)出從“需求型團結(jié)”到“科技焦慮型團結(jié)”轉(zhuǎn)換,安全價值理念將替代平等價值理念成為主流。任何一條憲法規(guī)則都應當被當作維護和促進“人類共同生活”的原則(43)江國華:《憲法哲學導論》,第262頁。。法治的現(xiàn)代化同樣有這樣的價值需求。
在科技文明、特別是人工智能等新科技發(fā)展的語境中,科技治理規(guī)則的構(gòu)造需要從秩序觀向風險觀轉(zhuǎn)化,需要實現(xiàn)從“財富—分配”的邏輯向“風險—分配”的邏輯轉(zhuǎn)化,反過來這需要借助新的價值秩序構(gòu)造來規(guī)避生成式人工智能可能的風險。生成式人工智能的法律治理需要充分關注法治現(xiàn)代性的價值訴求,人工智能的法律治理首要的美德是公正而不是效率,這根源于公共權(quán)力的公共性特征、人民的基本權(quán)利框架和社會的公共理性。
規(guī)范的價值表現(xiàn)于國家、社會和人民的利益的維護,這不僅體現(xiàn)了法治共同體規(guī)則的意義,也體現(xiàn)了共同體的價值追求,生成式人工智能的法律治理體系要體現(xiàn)法治的歷史規(guī)律,在表達法治的現(xiàn)實存在的基礎上實現(xiàn)法律秩序價值引導。就生成式人工智能而言,人們的生活會因為智能算法而受到綁架,人的主體地位具有逐漸喪失的可能,個人隱私權(quán)等權(quán)利會因為數(shù)據(jù)使用而受到侵害,生成式人工智能創(chuàng)造的財產(chǎn)性權(quán)益如何得到保護,數(shù)據(jù)應用中的國家安全等在其治理中需要呈現(xiàn)應有的價值秩序。作為科技治理的生成式人工智能問題要當然地浸潤著公共精神,因此公共利益應為生成式人工智能治理的首要的價值目標?!叭祟惿鐣墓餐瑑r值在法律共同體的視野下當然的表現(xiàn)為現(xiàn)代法治文明所具有的精神內(nèi)涵,即使在不同語境下,也應該堅守法律最低倫理的目標”(44)羅亞海:《法律共同體的中國特色素稟及其憲法構(gòu)造》,《法學論壇》2018年第6期。。在人工智能發(fā)展中的績效價值、人的基本權(quán)利保護和人類價值維護中做出“差序”排列,這種目的的實現(xiàn)需要借助法律機制來實現(xiàn)價值引導,用符合現(xiàn)代性需求的制度引導人工智能發(fā)展制度自身具備道德的合理性,從而保證法律規(guī)范價值的實現(xiàn)。
生成式人工智能發(fā)展過程中始終伴隨風險性、不確定性、用途多重性及可變性等拷問,因此生成式人工智能發(fā)展需要在科技的智慧性和自主性背景下維護人的尊嚴,增進人類福祉。傳統(tǒng)科技立法制度難以滿足對當下時代科技發(fā)展的涵蓋和社會現(xiàn)實的呼應,需要在人工智能發(fā)展中的現(xiàn)代性體系中重新思考人工智能發(fā)展的新的制度規(guī)則,引導法律治理的一致行為和社會公眾的廣泛參與,借此凝聚社會共識,以此實現(xiàn)國家對人工智能發(fā)展的“優(yōu)良治理”?,F(xiàn)代科技發(fā)展語境下的科技是服務于人類的,不能超越這個底線,同時要看到在現(xiàn)代科技發(fā)展中人的性質(zhì)的改變,法律制度的構(gòu)建不能再一味的以傳統(tǒng)生物規(guī)則為評判的標準,因為“根據(jù)現(xiàn)代生物學,最早出現(xiàn)的晚期智人在解剖學上與現(xiàn)代人毫無區(qū)別”(45)韓水法:《人工智能時代的人文主義》,《中國社會科學》2019年第6期。。而事實上,“生成式人工智能的智能化、類人化特性逐漸凸顯,開始超越算法的工具屬性而凸顯主體性潛能”(46)張欣:《生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管》,《現(xiàn)代法學》2023年第3期。。人的尊嚴體現(xiàn)于人的主體性價值,這就要求應該以人的內(nèi)在價值為基礎,避免將人作為“人”的價值外化或者工具化,而生成式人工智能可能會導致這種情形發(fā)生。
人工智能的法律治理首先要融入“共治”的理念,既要著眼人工智能的社會意義,又要體現(xiàn)廣泛的社會性和人的固有價值,這種共識需要轉(zhuǎn)化為具體的法律制度。學界以往的研究基本局限于科技對法律的作用、法律對科技的反作用這樣一種線性思維上,而當科技進步逐漸主導我們的生活、主宰我們的世界的時候,這種思維方式和理論模式顯然已經(jīng)失效,代之而起的是法律和科技共治模式(47)參見張文顯:《構(gòu)建法科共治、法德共治、多元共治的法律秩序》,《北京日報》2020年8月3日,第9版。?!拔磥砩墒饺斯ぶ悄芊諔玫闹卫響斒巧鐣鞣焦餐瑓⑴c,技術治理行業(yè)自律先行,在總結(jié)經(jīng)驗凝聚共識的基礎上建立有效的治理機制”(48)宋華健:《論生成式人工智能的法律風險與治理路徑》,北京理工大學學報(社會科學版),https://doi.org/10.15918/j.jbitss1009-3370.2023.1621。。生成式人工智能治理的現(xiàn)代化必須認識到人的性質(zhì)的改變可以容納哪些科技要素,得以讓傳統(tǒng)維護人的尊嚴制度體系接受創(chuàng)新,無論是關于人工智能是否要賦予其主體的爭論,還是關于人工智能對人類隱私權(quán)利侵權(quán)的擔憂,都是傳統(tǒng)制度體系所不能涵蓋的,這需要法律規(guī)范對人的主體性特征因人工智能而發(fā)生的變化作出回應。我們要以人的福祉為首位原則,發(fā)展科技的根本目的是增進人的福祉,這與我國“以人民為中心”的發(fā)展思想相一致(49)雷瑞鵬:《科技倫理治理的基本原則》,《北京日報》2020年5月11日,第9版。。
生成式人工智能發(fā)展中需要尊重、促進人的基本自由及人的尊嚴,要確保相稱性和不損害,保障安全和非歧視,具有可持續(xù)性,能夠有效保護隱私權(quán)和數(shù)據(jù),可以實現(xiàn)人類監(jiān)督和決定,算法規(guī)則的透明度和可解釋性等問題引發(fā)了以人工智能為代表的法律制度背景的變遷。社會變遷之主要內(nèi)部來源之一,是科技及其在工業(yè)和社會技術中的大量運用(50)伯納德·巴伯:《科學與社會秩序》,顧昕等譯,北京:生活·讀書·新知三聯(lián)書店,1991年,第245頁。。生成式人工智能治理體系的構(gòu)建需要在“應然”與“實然”上做出價值判斷,在治理上實現(xiàn)倫理制度補給,在斟酌生成式人工智能特殊技術背景的基礎上構(gòu)建風險防范體系,體系的構(gòu)建需要以不確定法律概念為載體,在風險及損害后果的蓋然性上做出判斷,在“足夠可能”和僅僅構(gòu)成“可能性”上做出價值斟酌,引入“公共利益”、“人的尊嚴價值”和“重大風險隱患”等不確定因素。對“剩余風險”做出切實的判斷,在促進生成式人工智能對數(shù)字社會意義上思索人性尊嚴的相對化,并以“全民應該承擔的社會合理負擔”和生成式人工智能的挑戰(zhàn)的平衡中實現(xiàn)制度設計。
生成式人工智能的自主性特征必然要需要法律治理體系的增容,因為它的發(fā)展事實上推動了法律體系和研究方法的改變,這導致現(xiàn)有法律制度對傳統(tǒng)自身體系產(chǎn)生沖擊,其引發(fā)的社會變遷最終表現(xiàn)為法律治理對法律制度的需求,這種嬗變讓現(xiàn)代法治從政治、經(jīng)濟屬性拓展到更為關注科技屬性。初級工具時代的科技很難和法律制度發(fā)生勾連,科技的探索僅僅是初步的延伸人類身體的技能;在機器工業(yè)時代,協(xié)作勞動承載了團體意識,科技具有了團體屬性,客觀上引發(fā)了不以身份塑造的階層,導致以公法體系的誕生。這個時期公法制度的主要使命是完成政治權(quán)力分配和人的權(quán)利保障之間的關系,并延伸出調(diào)整以市場為載體的經(jīng)濟關系。工業(yè)革命帶來的沖擊和變化不僅與科學技術的發(fā)展緊密相連,也必然要求包括法學在內(nèi)的社會科學進行不斷變革才能與之相匹配(51)劉憲權(quán):《對人工智能法學研究“偽批判”的回應》,《法學》2020年第1期。。以人工智能為代表的科技革命致使科技法治的屬性泛化,人的尊嚴如何維護、科技風險如何控制、甚至法學理論的研究范式和研究方法都面臨新的追問。以人工智能法律主體資格等一系列問題將人工智能治理制度創(chuàng)新拉上了日程。當然科技發(fā)展的憲法應對在理論界不是一個新的話題(52)早期相關論述有韓大元:《論現(xiàn)代科學技術對憲法學的影響》,《科技與法律》1996年第1期;韓大元:《簡論現(xiàn)代科學技術價值與憲法價值的沖突》,《法學家》2000年第3期;何士青、段勇:《論科技異化的立法應對》,《河南財經(jīng)政法大學學報》2013年第3期。,生成式人工智能法律治理需要一個交叉法學的視野。對公法角度而言,雖然生成式人工智能具有巨大的發(fā)展?jié)摿?人工智能發(fā)展的今天,“憲法的價值體系面臨人權(quán)消解、法治系統(tǒng)的權(quán)力失衡和民主新可能的問題”(53)楊學科:《人工智能的憲法挑戰(zhàn)和憲法彈性回應》,《青島科技大學學報》(社會科學版)2021年第3期。,需要公法制度作出應對。對部門法而言,在生成式人工智能發(fā)展中人格權(quán)及財產(chǎn)權(quán)權(quán)益的認定和保護需要現(xiàn)有法律制度實現(xiàn)增容。
生成式人工智能較之傳統(tǒng)科學技術引發(fā)的系列問題讓治理制度面臨前所未有的現(xiàn)實需求性和緊張性。法律解釋的方法已經(jīng)不能夠滿足科技發(fā)展對法治的需求,而是需要進行人工智能的立法補給,以法治現(xiàn)代內(nèi)涵為基礎價值體系來容納新價值形式,并籍此實現(xiàn)法治對新科技發(fā)展的價值意識的凝聚。生成式人工智能的法律治理需要構(gòu)建科技發(fā)展的特定價值體系,“人類中心主義”作為法治的基本價值需要在治理立法中得到體現(xiàn),這包括人工智能的法律主體資格、生成式人工智能可能的數(shù)據(jù)歧視問題、人工智能的侵權(quán)責任承擔、人工智能在法律實踐中的應用和風險如何控制等問題。但是從人工智能發(fā)展的事實以及對法治需求的角度而言,則需要更為宏觀的敘事和更為深邃的視野,需要構(gòu)建公法和私法疊加的科技治理體系。
生成式人工智能的治理首先要著眼現(xiàn)有法律制度對相關問題的“容納”關系,充分思索現(xiàn)有的問題有哪些可以涵蓋于現(xiàn)有法律制度,唯有現(xiàn)有制度不能夠解決或者不能夠以法律解釋等方式予以解決的情形下方可探討治理制度的創(chuàng)新。當然人工智能發(fā)展中的科技倫理規(guī)則和科技風險控制制度的法律構(gòu)建也是人工智能治理的重要內(nèi)容,需要法律制度實現(xiàn)有效的拓展。生成式人工智能的發(fā)展規(guī)則和技術手段對人的基本權(quán)利和財產(chǎn)權(quán)將會產(chǎn)生連鎖的反應,這種反應是兩面性的,很多現(xiàn)實案例告訴我們,特別是負面性的挑戰(zhàn)是連鎖性的。事實上人工智能發(fā)展已經(jīng)具有了可能壓制人的風險,其發(fā)展的風險需要法治的體系構(gòu)建和價值體現(xiàn),人工智能科技治理的法律制度需要確立其發(fā)展制度的基本原則,要規(guī)范科技研究的手段,禁止侵犯利用成果侵犯公民的基本權(quán)利,明確人工智能科研自由的邊界,甚至禁止某些數(shù)據(jù)訓練和算法規(guī)則和算法領域的應用,以符合服務于人的尊嚴和人類福祉的目的。
人工智能發(fā)展中的非理性尚不能作出最終的判斷,因此,尋求倫理規(guī)則的重構(gòu)具有現(xiàn)實意義,要借助人工智能倫理將生成式人工智能打造成倫理的人工智能。要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德(55)習近平:《加強領導做好規(guī)劃明確任務夯實基礎推動我國新一代人工智能健康發(fā)展》,《人民日報》2018年11月1日,第1版。。既然社會現(xiàn)象中不存在單一的決定因素,因此在社會總體發(fā)展上,就不能只考慮物的因素,還要把人的因素考慮進去(56)陳喜貴:《維護政治理性——雷蒙·阿隆的政治哲學》,北京:中央編譯出版社,2004年,第234頁。。這需要基于生成式人工智能治理中的倫理規(guī)則來保障實現(xiàn)??傮w上講,生成式人工智能需要促進人類福祉就是最大的倫理,“人工智能技術應用的倫理邊界取決于人這個主體”(57)唐代興:《從AlphaGo到ChatGPT:人工智能的倫理邊界何在?》,《哲學分析》2023年第6期。。對于“人類福祉”的認識應該具有更廣闊的視野,需要有人類命運共同體意識,要超越國家、地域和意識形態(tài)的約束,并需要將其凝練為人類的一種“普遍權(quán)利”,而這種權(quán)利的普遍實現(xiàn),需要借助具體倫理規(guī)則制度的構(gòu)建。
基于中國法治“以人民為中心”的價值基礎,增進人工智能發(fā)展中的倫理規(guī)則嵌入,讓以人工智能為代表的科技風險得到合理的安排和控制,法律在風險應對中要對風險作“類型化”的區(qū)分,需要避免的風險、需要容忍的風險在法律制度上要作出合理安排,并通過具體的部門法科技法律倫理規(guī)則的構(gòu)建予以變通和實現(xiàn)?!耙餐晟茢?shù)據(jù)治理規(guī)則,確保數(shù)據(jù)的安全有序利用;要促進數(shù)字經(jīng)濟和實體經(jīng)濟融合發(fā)展,加強數(shù)字基礎設施建設,促進互聯(lián)互通;要提升數(shù)字經(jīng)濟包容性,彌合數(shù)字鴻溝”(58)《習近平出席二十國集團領導人第十四次峰會并發(fā)表重要講話》,《人民日報》2019年6月29日,第1版。。對以生成式人工智能為代表的新科技而言,法的倫理規(guī)則意味著人工智能發(fā)展中的道德前瞻性和道德約束性,而治理的法律規(guī)則可以表述為個人主義的道德共同體呈現(xiàn),法律倫理規(guī)則的凝練需要體現(xiàn)法治在維護社會公平和發(fā)展中的程序公正。主體在法律價值中居于核心地位,因此,生成式人工智能倫理規(guī)則的構(gòu)建首要的是保障個人主體價值的實現(xiàn)。倫理規(guī)則的抽象最終需要借助法律制度安排來實現(xiàn)。以法律制度作為科技共同體的規(guī)則方式,需要在該問題上對法律與科技關系進行現(xiàn)代性的思考,立法的歷史和科技的歷史具有內(nèi)在的對應性,科技價值需要實現(xiàn)和治理體系價值的平衡,科技的目標要符合法治的價值訴求,并依據(jù)具體的部門法規(guī)則來保障實現(xiàn)。
倫理規(guī)則的抽象最終需要實現(xiàn)其從理念向法律制度的轉(zhuǎn)換,通過治理制度實現(xiàn)轉(zhuǎn)換和制度安排。科技治理規(guī)則的發(fā)展具有歷史的階段性特征,早期工業(yè)革命和現(xiàn)代人工智能時代的科技革命具有明顯的不同時代特征,但是根本上講科技倫理規(guī)則是人的道德規(guī)則,而不是機器的倫理規(guī)則,規(guī)則的最終目的是約束人的行為而不是其他。因此倫理規(guī)則要從生成式人工智能數(shù)據(jù)訓練和算法監(jiān)管等方面約束技術生成者的行為入手,來保障和追求每個人的權(quán)利和自由,維護每個人的尊嚴和平等。同時,人工智能的法律倫理要體現(xiàn)道德共同體屬性,并以此為媒介改變?nèi)藗冊谏墒饺斯ぶ悄芗夹g使用上各自為政的現(xiàn)實,形成共同的道德語言,重新構(gòu)造人工智能發(fā)展服務于人類整體利益的規(guī)則?,F(xiàn)代的法治文明已經(jīng)認識和維護了這一原則,但是在以人工智能為代表的科技發(fā)展的今天,需要在厘定生成式人工智能倫理規(guī)則需求基礎上實現(xiàn)制度補給。風險預防義務的背后是人類社會的危險世界觀(現(xiàn)代性)向風險世界觀(第二現(xiàn)代性)轉(zhuǎn)變的歷史過程(59)參見王旭:《論國家在憲法上的風險預防義務》。。基于中國法治現(xiàn)代化“以人民為中心”的價值基礎,“可通過調(diào)整合理使用制度與強化公共領域保留原則,使得人工智能對公共利益的剝削以人們對人工智能生成物的廣泛獲得與利用作為補償,實現(xiàn)公共利益的損益相抵”(60)林秀芹、郭壬癸:《人工智能對知識產(chǎn)權(quán)正當性理論的挑戰(zhàn)與應對》,《知識產(chǎn)權(quán)》2023年第11期。,增進人工智能發(fā)展中的倫理規(guī)則嵌入,讓人工智能發(fā)展的風險得到合理的安排和控制,并通過治理中的法律倫理規(guī)則實現(xiàn)價值引領,讓科技發(fā)展能夠滿足現(xiàn)代法治的需求,體現(xiàn)出應有的數(shù)字公平。
“社會系統(tǒng)與技術現(xiàn)實之間的結(jié)構(gòu)性耦合變得習以為常”(61)參見尼克拉斯·盧曼:《風險社會學》,孫一洲譯,南寧:廣西人民出版社,2020年,第148頁。。生成式人工智能的治理體系應該包括完善的制度規(guī)范、健全的治理機制、強化倫理監(jiān)管、細化法律規(guī)則和倫理審查規(guī)則以及規(guī)范科學研究等幾個方面。AIGC的法律治理,首先要構(gòu)建生成式人工智能的技術應用的相關制度。法治現(xiàn)代化謀求開放的理論體系,注重治理主體的多元化,在科技治理中,法律制度、倫理體系和道德觀念都要發(fā)揮重要作用。人工智能治理必須協(xié)同多元主體,融合多元價值,加強全球合作與對話,構(gòu)建平衡、包容的人工智能治理體系(62)參見王碩:《人工智能呼喚更好“治理”》,《人民政協(xié)報》2021年12月9日,第7版。。AIGC的法律治理需要新的立法來應對生成式所產(chǎn)生的新問題,要基于中國國情,建立規(guī)范生成式人工智能技術應用領域的法律法規(guī)。要明確生成式人工智能的責任主體和責任方式,凸顯數(shù)據(jù)安全和知識產(chǎn)權(quán)保護,保證生成式人工智能的良法治理。因此,“法律創(chuàng)制必須體現(xiàn)和反映人民的根本利益”(63)參見李濤:《國家治理現(xiàn)代化的改革動力與法治路徑》,《廣東社會科學》2021年第2期?!,F(xiàn)代法治文明已經(jīng)認識和維護了這一原則,在生成式人工智能為代表的新科技時代,針對現(xiàn)代科技發(fā)展的新特征,謀求現(xiàn)代化的法律治理應該重新構(gòu)造人工智能乃至整個科技體系服務于人類整體利益的規(guī)則,確立人類優(yōu)先和安全優(yōu)先原則。法律的創(chuàng)制要以憲法為依據(jù),其最終目的在于保障人民的福祉,AIGC的法律治理要構(gòu)建應對生成式人工智能的未知風險制度。法律是控制風險的重要手段,生成式人工智能的治理現(xiàn)代化需要發(fā)揮以憲法為基礎的科技治理法律體系的完善。通過科技法治和科技倫理規(guī)則的構(gòu)建指引我們以“社會多元共治、動態(tài)風險防控為理念,適應當代社會科技發(fā)展速度帶來的治理需求,形成包含倫理道德、政策、法律、技術在內(nèi)的多層次倫理和法律治理框架”(64)參見張文顯:《習近平法治思想的理論體系》。。生成式人工智能的法律治理要依托《生成式人工智能服務管理辦法》,并有效結(jié)合《網(wǎng)絡安全法》、《數(shù)據(jù)安全法》、《網(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》、《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》、《個人信息保護法》等新興領域法律法規(guī),依托《民法典》等保障公民權(quán)益,解決突出問題。生成式人工智能風險治理中,法律風險體系既需要有效應對和規(guī)避風險,也需要一定程度的風險容忍機制。
AIGC的法律治理需要加強對生成式人工智能生成物的監(jiān)管。生成式的算法設計、模型構(gòu)建、數(shù)據(jù)訓練的設定,以及到生成物的使用,都需要法律的監(jiān)管。以生成式人工智能的訓練數(shù)據(jù)真實性、客觀性、準確性、公平性為事前審查內(nèi)容,實現(xiàn)生成式人工智能的安全性、可見性和可追責性價值引領。以數(shù)據(jù)糾正、數(shù)字正義和歧視規(guī)避等為事中監(jiān)督的主要內(nèi)容。以生成式人工智能的契約責任設定、行政懲罰、刑事責任追究體現(xiàn)事后監(jiān)督管理。AIGC法律治理致力謀求生成式人工智能風險的責任制度要體現(xiàn)科技誠信機制、受試者和消費者利益保護機制。這對科技發(fā)展中的透明性提出更高的要求,讓科技成果的運用切實滿足制度建設的根本目的,避免無效科技對人類的無訴性侵害。同時還要構(gòu)建科研主體的科技道德自律機制,通過科技命運共同體的構(gòu)建,借助法律治理體系凝練風險治理中的現(xiàn)代性共識,達成因行為協(xié)同一致的制度實效。
生成式人工智能的法律治理需要構(gòu)建公平制度。轉(zhuǎn)型期的中國必須始終高度關注和重視解決社會公平正義問題,這是國家治理現(xiàn)代化和法治發(fā)展面臨的重大議題(65)參見公丕祥:《中國特色社會主義法治道路的時代進程》,《中國法學》2015年第5期。。立法上需要構(gòu)建人工智能發(fā)展的“均等化”使用機制和公眾參與機制?!皩τ捎谥贫劝才挪唤∪斐傻挠羞`公平正義的問題要抓緊解決,使我們的制度安排更好體現(xiàn)社會主義公平正義原則,更加有利于實現(xiàn)好、維護好、發(fā)展好最廣大人民根本利益”(66)習近平:《切實把思想統(tǒng)一到黨的十八屆三中全會精神上來》,《人民日報》2014年1月1日,第2版。??萍及l(fā)展不能只體現(xiàn)少數(shù)人需要,而是要著眼建立普遍多數(shù)人的受益機制,并將其凝練為主要的倫理規(guī)則。這需要構(gòu)建公民自主、社會需要和國家價值中立的機制耦合,需要審視傳統(tǒng)科技規(guī)則中自我校正機制所不能涵蓋的風險。對個人而言,既需要體現(xiàn)公眾對科學發(fā)展的理解和信任機制,也需要滿足個體需要的公眾參與機制,對社會而言,既需要充分體現(xiàn)科技共同體、人文共同體和廣泛的社會共識回應,也需要國家在堅守科技發(fā)展的“價值中立”的基礎上,建立科技發(fā)展的倫理監(jiān)督機制,實現(xiàn)法律治理、國家監(jiān)管和公眾監(jiān)督的有效銜接。