周尚君 羅有成
正義是法治的底色和永恒的價值追求,同時也是時代的反映,其理論內(nèi)涵和存在形態(tài)隨著時代的發(fā)展而有所變化。隨著以互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能和區(qū)塊鏈等為代表的新一代科技革命不斷邁向縱深,數(shù)字技術(shù)正在以前所未有的方式重新構(gòu)造社會行為、社會關(guān)系和社會結(jié)構(gòu),同時也引發(fā)了正義理念的深刻變革。數(shù)字社會的這種改造,是價值、制度與技術(shù)的系統(tǒng)性結(jié)構(gòu)化重建。(1)參見周尚君:《數(shù)字社會對權(quán)力機(jī)制的重新構(gòu)造》,《華東政法大學(xué)學(xué)報》2021 年第5 期。大數(shù)據(jù)和算法不只關(guān)乎思維和技術(shù),更重要的是它已經(jīng)變成一整套知識生產(chǎn)和建構(gòu)體系;不僅塑造了一種全新的社會適應(yīng)機(jī)制,還改變了法律的價值導(dǎo)向和人類的正義認(rèn)知。數(shù)字正義、數(shù)據(jù)正義、算法正義、代碼正義等概念頻頻出現(xiàn),成為現(xiàn)代性正義價值體系中的新形態(tài)。(2)參見馬長山:《智能互聯(lián)網(wǎng)時代的法律變革》,《法學(xué)研究》2018 年第4 期。
數(shù)字正義的提出,正是基于大數(shù)據(jù)和算法嵌入社會生活過程中所誘發(fā)的諸多不正義。其中,表現(xiàn)最為突出的是算法黑箱和算法歧視。從形式上看,算法黑箱的形成是由于信息不對稱,數(shù)據(jù)輸入與數(shù)據(jù)輸出之間存在“隱層”,這也進(jìn)一步導(dǎo)致決策過程不可解釋;算法不透明形成偏好,忽視甚至強化已有的不平等和不正義,加劇數(shù)據(jù)歧視。但從根源上看,問題不在于大數(shù)據(jù)和算法,而在于人的意志及其行為。算法自動化決策本質(zhì)上仍是人為編制的解決問題的過程,人的設(shè)計意圖和價值取向決定了它的運算法則。也就是說,自動化算法決策,看似屏蔽了“主觀人為”,但其形成決策的知識、邏輯、邊界和價值基準(zhǔn)是被預(yù)置的。(3)參見齊延平:《數(shù)智化社會的法律調(diào)控》,《中國法學(xué)》2022 年第1 期。因此,數(shù)字正義的本質(zhì)是社會正義而非“機(jī)器正義”。它表面上看是“機(jī)器與人類”的關(guān)系,但實質(zhì)上仍是人與人之間的關(guān)系。(4)參見鄭戈:《數(shù)字社會的法治構(gòu)型》,《浙江社會科學(xué)》2022 年第1 期。換言之,人類自身的價值偏見和不正義行為構(gòu)成數(shù)字正義出場的實質(zhì)理由。在數(shù)字社會,僅僅追問代碼是否正確執(zhí)行是遠(yuǎn)遠(yuǎn)不夠的,我們還需要繼續(xù)追問,它對社會而言意味著什么?是好(善)是壞(惡)?也正因如此,杰克·巴爾金教授提出,“規(guī)制的核心問題不是算法,而是使用算法的人,以及允許自己被算法支配的人。我們需要的不是阿西莫夫定律,而是控制和指導(dǎo)人類創(chuàng)造、設(shè)計及使用機(jī)器人、人工智能體和算法的法則”。(5)杰克· 巴爾金:《算法社會中的三大法則》,劉穎、陳瑤瑤譯,《法治現(xiàn)代化研究》2021 年第2 期。這個“法則”指向的就是數(shù)字正義,即如何以正義原則引導(dǎo)新興數(shù)字技術(shù)對社會、法律與倫理進(jìn)行重塑,以及如何為算法自動化決策劃定正當(dāng)邊界。
數(shù)字化轉(zhuǎn)型背景下法治建構(gòu)的目標(biāo)之一,是建設(shè)一個能對算法自動化決策進(jìn)行有效規(guī)制的法律體系,通過“更新或構(gòu)建新的正義原則”,(6)韓水法:《人工智能時代的人文主義》,《中國社會科學(xué)》2019 年第6 期。以數(shù)字正義的實現(xiàn)推動更高水平的社會正義的實現(xiàn)。數(shù)字社會條件下,數(shù)字正義是社會正義不可或缺的有機(jī)組成部分,直接關(guān)乎社會主體享有數(shù)字技術(shù)發(fā)展成果的機(jī)會、條件、能力和實效。圍繞數(shù)字正義的現(xiàn)實命題,尤其是面對國家提出的“實現(xiàn)算法公平和算法向善”的治理目標(biāo),如何通過法律規(guī)制保障數(shù)字正義,是法學(xué)理論亟待解決的重大時代命題?;诖?,本文擬對數(shù)字正義的內(nèi)涵、形態(tài)、實踐及優(yōu)化等問題進(jìn)行探討,以期為數(shù)字正義的實現(xiàn)提供理論指引。
數(shù)字正義的理論內(nèi)涵可凝練于兩個核心問題:一方面,要對數(shù)字正義指向的問題域及其基本內(nèi)涵予以明確,這是理解數(shù)字正義的邏輯起點;另一方面,要對數(shù)字正義的表現(xiàn)形式予以歸納,這是判斷數(shù)字正義是否實現(xiàn)的有效依據(jù)。
學(xué)界對數(shù)據(jù)正義、算法正義和計算正義等概念展開過專門探討。有學(xué)者認(rèn)為,數(shù)據(jù)正義是一種關(guān)于如何公平合理地生成、分配、解釋和使用數(shù)據(jù)的價值觀,核心要求是數(shù)據(jù)使用的“可見性、事先約定和防范不公平對待”;(7)參見Linnet Taylor,“What is Data Justice? The Case for Connecting Digital Rights and Freedoms Globally”,Big Data & Society, Vol.4, No.2, 2017, pp.1-14; Elizabeth Joh,“Data Mistakes and Data Justice”,Jotwell:The Journal of Things We Like(Lots), 2016, pp.201-202。算法正義更多強調(diào)算法設(shè)計、應(yīng)用過程中應(yīng)遵循的理性道德原則和價值期待,既涵蓋實體和程序,也包括過程和結(jié)果;(8)參見李曉輝:《算法商業(yè)秘密與算法正義》,《比較法研究》2021 年第3 期;林曦、郭蘇建:《算法不正義與大數(shù)據(jù)倫理》,《社會 科學(xué)》2020 年第8 期。計算正義是在人工智能的計算思維與人類價值世界碰撞的背景下,為了維護(hù)共同善而建構(gòu)的一系列價值原則。(9)參見鄭玉雙:《計算正義:算法與法律之關(guān)系的法理建構(gòu)》,《政治與法律》2021 年第11 期。數(shù)字正義則有更豐富的規(guī)范背景及正義要求。如果我們采用一種假定人權(quán)、正義和法治的先驗價值的公理學(xué)方法,從數(shù)字技術(shù)維度對社會關(guān)系、社會結(jié)構(gòu)和社會問題予以評價,其指向的便是數(shù)字正義問題。(10)參見Yulia Razmetaeva, Sergiy Razmetaev,“Justice in the Digital Age: Technological Solutions, Hidden Threats and Enticing Opportunities”,Access to Justice in Eastern Europe, Vol.2, No.10, 2021, pp.105-106。廣義上的數(shù)字正義,既包括對因機(jī)器人、人工智能體和算法應(yīng)用產(chǎn)生的算法歧視、算法霸權(quán)、人權(quán)受損等社會問題的規(guī)范指引,也包括對數(shù)字技術(shù)是否符合人類社會正義要求的價值評判。有學(xué)者將數(shù)字正義理解為依托一系列數(shù)字技術(shù)來提升司法的效率和公平,以數(shù)字化方式“接近”正義。(11)參見伊森·凱什、奧娜·拉比諾維奇·艾尼:《數(shù)字正義:當(dāng)糾紛解決遇見互聯(lián)網(wǎng)科技》,趙蕾、趙精武、曹建峰譯,北京:法律出版社2019 年版,第74 頁。也有學(xué)者提出,數(shù)字正義是建立在人類固有的尊嚴(yán)之上,指導(dǎo)數(shù)字時代美好生活的內(nèi)在價值。(12)參見克利福德·G. 克里斯琴斯:《數(shù)字時代的新正義論》,劉沫瀟譯,《全球傳媒學(xué)刊》2019 年第1 期。盡管數(shù)字正義指向的內(nèi)容十分廣泛,但它首先是一個關(guān)乎人類自身的價值定位問題,它的目標(biāo)仍是根本性的社會正義。因此,本文以數(shù)字技術(shù)開發(fā)、設(shè)計和應(yīng)用中的不正義作為數(shù)字正義指向的問題域,將數(shù)字正義定義為數(shù)字技術(shù)應(yīng)用,尤其是算法應(yīng)用滿足人權(quán)、正義、法治價值的一種理想狀態(tài)。
從數(shù)字正義的內(nèi)涵來講,首先,數(shù)據(jù)資源的合理分配是數(shù)字正義實現(xiàn)的根本依據(jù)。在數(shù)字社會,分配正義更多體現(xiàn)在大數(shù)據(jù)資源的合理分配上,因為其直接與資源、機(jī)會、財富、能力和權(quán)力等相聯(lián)系。將大數(shù)據(jù)資源的合理分配置于數(shù)字正義的框架下,就要求政府建立一個公平公正的數(shù)據(jù)收集、使用和存儲體系,消解不同數(shù)據(jù)主體之間數(shù)據(jù)占有、使用的不平等,確保每個數(shù)據(jù)主體從數(shù)據(jù)輸入到數(shù)據(jù)輸出過程的參與平等和結(jié)果正義。當(dāng)然,數(shù)據(jù)資源的合理分配還內(nèi)蘊了對個體數(shù)據(jù)權(quán)益、平臺數(shù)據(jù)權(quán)益、數(shù)據(jù)市場秩序和數(shù)據(jù)行業(yè)發(fā)展等多種利益進(jìn)行協(xié)調(diào)的要求,其中不僅包括數(shù)據(jù)權(quán)益的分配,也包括數(shù)據(jù)隱私保護(hù)、數(shù)據(jù)風(fēng)險提示以及數(shù)據(jù)安全維護(hù)等義務(wù)的分配。
其次,數(shù)字權(quán)利的充分配置是數(shù)字正義實現(xiàn)的基本保障。數(shù)字正義問題是新興數(shù)字技術(shù)與人類價值原則產(chǎn)生沖突的產(chǎn)物,也是算法權(quán)力擴(kuò)張、異化產(chǎn)生的危害后果。從權(quán)利視角來看,數(shù)字權(quán)利是以大數(shù)據(jù)和算法為依據(jù)的利益,(13)參見徐梓文:《論新興權(quán)利的證立標(biāo)準(zhǔn)——以權(quán)利概念的學(xué)說為切入》,《法律和政治科學(xué)》2021 年第1 輯。而大數(shù)據(jù)和算法利益是數(shù)字正義的實質(zhì)表達(dá)。權(quán)利可以有效對抗數(shù)據(jù)和算法掌握者對數(shù)據(jù)主體正當(dāng)利益的剝奪,同時也將數(shù)據(jù)主體的正當(dāng)利益轉(zhuǎn)化為法律權(quán)利予以明確保護(hù)。新型的數(shù)字權(quán)利并不是一個扁平的權(quán)利單元,而是一個寬廣豐厚的權(quán)利束,其中包括數(shù)據(jù)訪問權(quán)、數(shù)據(jù)更正權(quán)、數(shù)據(jù)刪除權(quán)、算法解釋請求權(quán)、人工接管權(quán)、免受自動決策權(quán)等一系列數(shù)據(jù)權(quán)利和算法權(quán)利。它一方面強化了數(shù)據(jù)主體的自主性和責(zé)任性,另一方面也通過傾斜性的權(quán)利配置保障數(shù)字正義的實現(xiàn)。
再次,算法決策的公開透明是數(shù)字正義實現(xiàn)的外在表征。與AI 自主學(xué)習(xí)相關(guān)的算法包含了大量的隨機(jī)性和不確定性,它能夠根據(jù)自主積累的數(shù)據(jù)自動學(xué)習(xí)并生成高級的決策結(jié)果。在此決策過程中存在著不可見的“隱層”,從而導(dǎo)致算法黑箱問題。按照現(xiàn)代正當(dāng)程序的預(yù)設(shè),“黑箱”之內(nèi)可能隱藏著算法不公或算法操縱,應(yīng)讓那些對結(jié)果抱有懷疑的人可以打開“黑箱”看個究竟。但由于人工神經(jīng)網(wǎng)絡(luò)(ANN)的機(jī)器通過一個復(fù)雜的分層結(jié)構(gòu)進(jìn)行算法學(xué)習(xí),它們的決策規(guī)則不是預(yù)先編程的,而通常是人類無法理解的。(14)參見Cary Coglianese, David Lehr,“Transparency and Algorithmic Governance”,Administrative Law Review, Vol.71, No.1, 2019, p.14。即便算法完全透明化,用戶或公眾也未必能理解其運作邏輯。因此,算法決策流程的公開需要符合普通用戶的常識判斷和理解能力,必要時應(yīng)用通俗易懂的方式向被決策對象解釋,即“用可理解的術(shù)語向人類表達(dá)”。(15)Cynthia Rudin,“Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use Interpretable Models Instead”,Nature Machine Intelligence, Vol.1, No.5, 2019, p.206.算法的可解釋性是在算法透明基礎(chǔ)上的自然延伸要求,二者共同構(gòu)成了數(shù)字正義實現(xiàn)的外在表征。
最后,代碼規(guī)制的規(guī)范有效是數(shù)字正義實現(xiàn)的內(nèi)在要求。代碼是架構(gòu)在網(wǎng)絡(luò)空間的基礎(chǔ)表現(xiàn)形式,它與算法具有天然的緊密聯(lián)系。算法運作取決于代碼如何設(shè)計,故代碼也可以對算法進(jìn)行逆向治理。機(jī)器學(xué)習(xí)模型所依賴的代碼本身不具備規(guī)范性,也并不包含正義的元素。但它一旦確定并伴隨算法廣泛應(yīng)用于社會權(quán)力運行系統(tǒng)之中,就能夠持續(xù)地引導(dǎo)、改變和塑造人們的網(wǎng)絡(luò)空間行為,由此可見“代碼即法律”(16)勞倫斯· 萊斯格:《代碼2.0:網(wǎng)絡(luò)空間中的法律》,李旭、沈偉偉譯,北京:清華大學(xué)出版社2018 年版,第6 頁。之論斷所言不虛。盡管代碼對傳統(tǒng)法律及其產(chǎn)生的正義空間造成一定沖擊,但不能因此否定代碼,而是要在代碼創(chuàng)造的新型技術(shù)空間中構(gòu)建規(guī)范有效的代碼治理方案,并通過法律的基本價值來抑制代碼規(guī)制的偏好,這構(gòu)成了數(shù)字正義實現(xiàn)的內(nèi)在要求。
從表現(xiàn)形式來看,數(shù)字正義主要表現(xiàn)為分配正義、程序正義、互動正義和信息正義四種形式。(17)參見Sason A. Colquitt, et al., “Justice at the Millennium: A Meta-Analytic Review of 25 Years of Organizational Justice Research”,首先,分配正義涉及信息處理者與大數(shù)據(jù)生產(chǎn)者之間數(shù)據(jù)資源的合理分配,以及如何在數(shù)字技術(shù)應(yīng)用中為個體提供平等參與的機(jī)會。一方面,分配正義是一種關(guān)于“應(yīng)得”的正義。個人信息和數(shù)據(jù)直接相關(guān)的利益的合理分配,以及在此基礎(chǔ)上產(chǎn)生的權(quán)利義務(wù)的合理配置,是在數(shù)字社會中實現(xiàn)分配正義的前提。同時,數(shù)據(jù)收集、數(shù)據(jù)存儲、數(shù)據(jù)處理和數(shù)據(jù)應(yīng)用等環(huán)節(jié),涉及數(shù)據(jù)主體、數(shù)據(jù)控制者和數(shù)據(jù)監(jiān)管者等多元主體,因此分配正義的實現(xiàn)程度取決于多元主體的利益需求的滿足程度。②另一方面,分配正義也是一種讓每一個體享有公平機(jī)會的正義,比如獲取和使用數(shù)字技術(shù)的機(jī)會公平,訓(xùn)練數(shù)字技能的機(jī)會公平,以及在“用戶畫像”過程中用戶享有的平等進(jìn)入機(jī)會。
其次,程序正義涉及數(shù)字技術(shù)應(yīng)用背后的過程和邏輯,具體是指透明、準(zhǔn)確、參與、可問責(zé)要素在大數(shù)據(jù)、算法、云計算、區(qū)塊鏈等數(shù)字技術(shù)中的滿足程度。③例如,數(shù)據(jù)清洗、分類、處理和分析過程是否具有透明性,又在多大程度上能夠保障用戶獲得通知、聽取意見和說明理由的權(quán)利;瞬時完成的算法自動化決策能否保證當(dāng)事人的權(quán)利救濟(jì)和事后問責(zé);依托云服務(wù)來傳輸、存儲和處理的大規(guī)模數(shù)據(jù)是否得到有效的監(jiān)管或控制;去中心化的區(qū)塊鏈技術(shù)能否滿足用戶最大程度參與的需求,能否允許每個用戶自行決定數(shù)據(jù)內(nèi)容、目的和形式;等等。盡管傳統(tǒng)程序正義理論應(yīng)用于數(shù)字技術(shù)的方式發(fā)生了重大變化,技術(shù)正當(dāng)程序、程序性數(shù)據(jù)正當(dāng)程序、算法正當(dāng)程序等概念頻頻出現(xiàn),但程序正義的核心價值理念并沒有改變。用計算機(jī)科學(xué)的術(shù)語來講,正當(dāng)程序的價值理念具有“魯棒性”,即在受到持續(xù)擾動時仍保持原有的性能,只不過其更加凸顯對數(shù)字技術(shù)綜合應(yīng)用過程的深度技術(shù)介入。④
再次,互動正義涉及個體的尊嚴(yán),旨在通過協(xié)商和對話,為公民多種權(quán)利、利益和負(fù)擔(dān)的公正處理提供指引?!耙环N正義觀的恰當(dāng)特征是它應(yīng)當(dāng)公開地表示人們的相互尊重?!雹菰跀?shù)據(jù)挖掘過程中,計算機(jī)系統(tǒng)基于差別對待的底層邏輯,會對不同人群實行分類,根據(jù)他們的特征進(jìn)行編碼和賦值,用以表明其優(yōu)先等級、風(fēng)險程度和商業(yè)價值。并且,自動控制系統(tǒng)建立起一套自我參照體系,完全不需要與外界的用戶進(jìn)行溝通和協(xié)商,而這種自我指涉的體系往往傾向于強化現(xiàn)實社會中的不平等。因此,互動正義要求在數(shù)字技術(shù)應(yīng)用過程中為個人、技術(shù)團(tuán)體、行業(yè)協(xié)會等構(gòu)建商談程序和機(jī)制,讓用戶或受決策者擁有提出異議和陳述理由的機(jī)會。個體應(yīng)當(dāng)既能夠?qū)τ嬎銠C(jī)系統(tǒng)提出異議,也能夠在專業(yè)審查人員的協(xié)助下開展審查并及時糾正錯誤,這被視為一種直覺性的個體尊嚴(yán)需求。⑥
最后,信息正義涉及向用戶提供相應(yīng)的信息與解釋。在數(shù)據(jù)采集、分析和應(yīng)用環(huán)節(jié)中,大數(shù)據(jù)公司、算法平臺所使用的數(shù)據(jù)庫和算法并不對用戶開放,由此用戶無法檢視計算機(jī)系統(tǒng)的正當(dāng)性和合理性,這可能會造成整個數(shù)據(jù)化過程缺乏“透明度”。這種“不透明”如果嵌入大數(shù)據(jù)運行的基礎(chǔ)設(shè)施之中,就會使知情選擇權(quán)、個人信息自決權(quán)、算法質(zhì)疑權(quán)、免受自動決策權(quán)等一系列重要的數(shù)字權(quán)利變得毫無意義。⑦因此,信息正義要求攻破數(shù)據(jù)黑箱和算法黑箱,實現(xiàn)數(shù)據(jù)化過程的可見性、可解釋性。歐盟2019 年發(fā)布的《人工智能倫理準(zhǔn)則》(Ethics Guidelines for Trustworthy AI),對大數(shù)據(jù)系統(tǒng)的可見性和可解釋性作出了明確要求,比如要求大數(shù)據(jù)公司和算法平臺向用戶提供數(shù)據(jù)處理及其自動化決策的相關(guān)信息與解釋理由。數(shù)據(jù)和算法控制者提供的信息與解釋符合信息正義的程度,在很大程度上也影響到用戶對程序正義實現(xiàn)程度的評估。
Journal of Applied Psychology, Vol.86, No.3, 2001, p.427.
② 郭春鎮(zhèn):《數(shù)字化時代個人信息的分配正義》,《華東政法大學(xué)學(xué)報》2021 年第3 期。
③ 參見Thomas B. Nachbar,“Algorithmic Fairness, Algorithmic Discrimination”,Florida State University Law Review, Vol.48, No.2, 2021, pp.556-557.
④ 參見劉東亮:《技術(shù)性正當(dāng)程序:人工智能時代程序法和算法的雙重變奏》,《比較法研究》2020 年第5 期。
⑤ 約翰· 羅爾斯:《正義論》,何懷宏、何包鋼、廖申白譯,北京:中國社會科學(xué)出版社1988 年版,第177 頁。
⑥ 參見Andrew D. Selbst , Solon Barocas,“The Intuitive Appeal of Explainable Machines”,Fordham Law Review, Vol.87, No.3, 2018, p.1085.
⑦ 參見Margot E. Kaminski,“The Right to Explanation, Explained”,Berkeley Technology Law Journal, Vol.34, No.1, 2019, p.213.
人類已不可避免地邁入“無處不計算”的數(shù)字社會,數(shù)字化構(gòu)成了人們理解社會關(guān)系、分析社會問題的重要維度,也成為評價社會主體生存狀況的關(guān)鍵依據(jù)。同時,數(shù)字化塑造正義空間,使正義的存在形態(tài)發(fā)生了從“比例正義”到“計算正義”、從“個體正義”到“群組正義”、從“契約正義”到“場景正義”、從“接近正義”到“可視正義”的深刻轉(zhuǎn)型。
自古希臘以來,如何實現(xiàn)對條件相等的人分配相等的利益,一直是正義理論的中心問題。畢達(dá)哥拉斯用數(shù)的平方來說明正義,把正義理解為事物之間一種和諧穩(wěn)定的比例關(guān)系。后來亞里士多德提出,在社會成員與其他成員的關(guān)系上,正義是某些事物的“均等”觀念。(18)參見亞里士多德:《政治學(xué)》,吳壽彭譯,北京:商務(wù)印書館1965 年版,第148 頁。霍布斯也認(rèn)為正義就是將個人的本分額按合理比例分配給每一個人。(19)參見霍布斯:《利維坦》,黎思復(fù)、黎廷弼譯,北京:商務(wù)印書館1985 年版,第114—115 頁。正義就是合比例,不正義就是破壞比例。這一正義理念延續(xù)至今,不僅構(gòu)成了社會主體認(rèn)同實踐行動的標(biāo)準(zhǔn),還進(jìn)而塑造了現(xiàn)代法治的內(nèi)生狀態(tài)。
但在數(shù)字社會,隨著云計算、知識圖譜技術(shù)和神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法的出現(xiàn),人類通過代碼設(shè)置、數(shù)據(jù)運算與機(jī)器自動化判斷可以呈現(xiàn)出更精確、更客觀的“正義”。人工智能的本質(zhì)在于“計算”,(20)參見Sarah Valentine,“Impoverished Algorithms: Misguided Governments, Flawed Technologies, and Social Control”,Fordham Urban Law Journal, Vol.46, No.2, 2019, p.364.“計算”處理的基本元素是大數(shù)據(jù)。機(jī)器通過對全樣本數(shù)據(jù)的清洗、分類和結(jié)構(gòu)化處理,將“正義”的構(gòu)成成分拆解為以計算元素為基本單元的微分形態(tài),并用0 和1 的特殊語言組合系統(tǒng)來表達(dá)。(21)參見蔡星月:《算法正義:一種經(jīng)由算法的法治》,《北方法學(xué)》2021 年第2 期。除了對正義進(jìn)行技術(shù)上的分解之外,算法還對具體場景中的正義進(jìn)行賦值和數(shù)字轉(zhuǎn)換,并通過數(shù)學(xué)建模對正義展開分布式運算。算法沖擊了人們的價值世界,同時促使新的正義空間和價值形態(tài)產(chǎn)生。人的生存狀態(tài)可以轉(zhuǎn)換為數(shù)字化的在線生存狀態(tài),大數(shù)據(jù)集的完備性、算法模型的科學(xué)性和計算結(jié)果的正當(dāng)性逐漸成為人類實踐行動的評價標(biāo)準(zhǔn)。因此,數(shù)字時代的正義建立在數(shù)理邏輯的基礎(chǔ)之上,正義的數(shù)據(jù)化和計算化正逐步替代傳統(tǒng)上對正義的比例衡量。
現(xiàn)代社會結(jié)構(gòu)建立在個體正義的基礎(chǔ)之上,強調(diào)個人的自由、平等權(quán)利的不可侵犯性,以及不同個人利益之間的不可替代性。個體的集合組成了社會,法律通過盡可能保障個體的正義來維護(hù)整個社會的正義。正是通過保護(hù)個人權(quán)利,人們才保護(hù)了共同的善,從而服務(wù)了大多數(shù)人的利益。
然而,大數(shù)據(jù)、云計算、無監(jiān)督式機(jī)器學(xué)習(xí)等數(shù)字技術(shù)的發(fā)展突破了以個體正義為核心的正義觀,而代之以一種效率優(yōu)先的“群組正義觀”。(22)參見鄭智航:《人工智能算法的倫理危機(jī)與法律規(guī)制》,《法律科學(xué)(西北政法大學(xué)學(xué)報)》2021 年第1 期?!叭航M正義觀”是建立在相關(guān)關(guān)系分析基礎(chǔ)上的正義觀,其實質(zhì)是從正義決定論跳躍到正義概率論。計算機(jī)并不是“思考”,而是依據(jù)邏輯處理數(shù)據(jù)。算法通過數(shù)據(jù)模型或代碼表達(dá)意見,在相關(guān)性的概率計算基礎(chǔ)上認(rèn)識現(xiàn)實世界的規(guī)律,并從適當(dāng)?shù)拇蟾怕适录霭l(fā)來論證決策的正當(dāng)性。它將群組而不是個人作為分析單位,在展開分布式運算時,機(jī)器會對貼上“標(biāo)簽”的不同群組作同質(zhì)化處理,以相關(guān)性分析的均等性去逼近群組的正義性。同時,在深度學(xué)習(xí)算法的加持下,機(jī)器學(xué)習(xí)模型的數(shù)據(jù)分析能力得到進(jìn)一步提升。它不僅可以根據(jù)多層次特征信息進(jìn)行分組,還能憑借希爾排序算法、聚類算法、C4.5 分類算法等不同算法系統(tǒng)的相互疊加,自行從輸入信息中獲得最合理的輸出結(jié)果。因此,算法在海量大數(shù)據(jù)中高效篩選出最能體現(xiàn)正義維度的信息,并對其進(jìn)行分組排序、邏輯嵌套與循環(huán)遞歸,以尋求建立全新群組正義的各種可能性。
傳統(tǒng)工商業(yè)社會強調(diào)主體平等、意思自治和忠誠允諾。正義所要求人的“規(guī)定地位”和“規(guī)定義務(wù)”并不是以固定身份的形式出現(xiàn)的,而是可以根據(jù)自己的意愿以契約的形式出現(xiàn)。自羅馬法以后,對這種“契約正義”理念的認(rèn)同,一直都是人類理解正義的主流方式。正如后來羅爾斯所總結(jié)的,“正義的原則是一種公平的協(xié)議或契約的結(jié)果”。(23)約翰· 羅爾斯:《正義論》,第12 頁。
進(jìn)入數(shù)字社會,人工智能擁有了場景化的“思維方式”,能夠根據(jù)不同的場景和情形進(jìn)行差異化數(shù)據(jù)分析、程序建模,最終實現(xiàn)精準(zhǔn)畫像。諸如量身定制的醫(yī)療方案、個性化的資訊推薦、一事一議的商業(yè)交易等場景化決策方案成為常態(tài),人們對公正的期待從傳統(tǒng)的契約平等開始轉(zhuǎn)換到新型的“場景正義”。機(jī)器學(xué)習(xí)模型能夠在海量大數(shù)據(jù)中篩選出不同場景的“更優(yōu)解”,通過高頻次的擬合或仿生嘗試,甚至可以提煉出完全符合個體現(xiàn)實條件的規(guī)則。例如,神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法在處理數(shù)據(jù)的同時,也時刻在具體場景中產(chǎn)生新數(shù)據(jù),持續(xù)不斷地更新和優(yōu)化原始數(shù)據(jù),以確定原始數(shù)據(jù)與輸出結(jié)果的“最佳判斷”。算法改變了人們對傳統(tǒng)契約正義理論的理解,正義價值在滿足契約公平的條件下,也應(yīng)在場景化的決策方案中得以展現(xiàn)和接受檢驗。雖然基本的契約正義原則仍然在數(shù)字社會發(fā)揮重要的引導(dǎo)作用,但很多具體的正義權(quán)衡則需要基于定制場景來完成。這既構(gòu)成人工智能發(fā)展的重要動力,又使得數(shù)字社會的正義呈現(xiàn)出新的維度。
“接近正義”,也稱為“實現(xiàn)正義”,主張司法應(yīng)向更容易理解、更容易利用、更加親民的方向發(fā)展,強調(diào)公民尋求司法救濟(jì)的便捷。(24)參見Deborah L. Rhode,Access to Justice, Oxford: Oxford University Press, 2004, pp.4-5。在進(jìn)入數(shù)字社會之前,對于尋求司法救濟(jì)的普通公民來說,供給正義的法律之門莊嚴(yán)而神秘。人們很難接近司法,不僅受到物理時空、技術(shù)設(shè)備和知識能力的制約,還面臨司法決策機(jī)制、信息和流程不透明的物理障礙。
在數(shù)字社會,大數(shù)據(jù)、算法和算力的深度融合為更加接近正義奠定了現(xiàn)實基礎(chǔ)。數(shù)字技術(shù)可以有效化解實現(xiàn)傳統(tǒng)社會正義的各種物理障礙,使物理空間上的“接近正義”邁向跨越物理—虛擬雙重空間的“可視正義”。集約高效、線上線下交融、覆蓋性整合的司法平臺建設(shè)實現(xiàn)了信息的分享可視;網(wǎng)絡(luò)庭審、ODR 模式、“移動微法院”等軟件系統(tǒng)實現(xiàn)了超時空的場景可視;案件信息庫、電子卷宗庫、司法區(qū)塊鏈實現(xiàn)了全要素的數(shù)據(jù)可視。(25)參見馬長山:《司法人工智能的重塑效應(yīng)及其限度》,《法學(xué)研究》2020 年第4 期。在全新的“可視正義”樣態(tài)之下,正義女神摘下了蒙眼布,戴上了柏拉圖所隱喻的“古各斯戒指”,全方位窺視著“法律之門”內(nèi)的審理數(shù)據(jù)、司法業(yè)務(wù)和決策機(jī)制等信息。(26)參見李晟:《略論人工智能語境下的法律轉(zhuǎn)型》,《法學(xué)評論》2018 年第1 期。同時,“可視正義”能夠?qū)崿F(xiàn)效率和公平的結(jié)合,促進(jìn)程序正義和實體正義的雙重實現(xiàn)。(27)參見周尚君、伍茜:《人工智能司法決策的可能與限度》,《華東政法大學(xué)學(xué)報》2019 年第1 期。算法在極短時間內(nèi)自動處理海量的司法數(shù)據(jù)和文書,發(fā)掘出具有重要意義的隱藏規(guī)律,并通過簡潔的語言予以呈現(xiàn)。然后,它在“生成式學(xué)習(xí)”的操作層面下根據(jù)給定條件進(jìn)行客觀的行為評估以及規(guī)范續(xù)造,可以為每個當(dāng)事人量身定做“接近”正義的過程。
大數(shù)據(jù)和算法沖擊了傳統(tǒng)的價值世界,同時促進(jìn)新的正義形態(tài)產(chǎn)生,以“計算、群組、場景、可視”為核心特征的數(shù)字正義應(yīng)運而生。無論是數(shù)字正義的理論內(nèi)涵還是形態(tài)變化,都需要置于具體的制度實踐中加以分析,也需要法律實踐充實其內(nèi)容。當(dāng)前,在我國數(shù)字化戰(zhàn)略實施過程中,復(fù)合型規(guī)范制度體系已初步建立,數(shù)據(jù)源頭規(guī)制、算法賦權(quán)制衡和平臺算法問責(zé)等制度,已成為我國法律規(guī)制保障數(shù)字正義的實踐基點。在這一規(guī)范框架及其實施體系下動態(tài)地探尋數(shù)字正義的實踐機(jī)制,可以形成關(guān)于數(shù)字正義的價值論分析資源和圖景。
我國目前尚未針對大數(shù)據(jù)和算法制定系統(tǒng)性的法律,相關(guān)規(guī)定和制度設(shè)計散見于不同層級的法律規(guī)范、政策性文件及技術(shù)標(biāo)準(zhǔn)中,它們共同構(gòu)成了我國保障數(shù)字正義實現(xiàn)的規(guī)范依據(jù)??傮w來看,涉及大數(shù)據(jù)和算法規(guī)制的規(guī)范體系可分為基礎(chǔ)性規(guī)范、專門性規(guī)范和補充性規(guī)范三個層次?;A(chǔ)性規(guī)范為數(shù)字正義的實現(xiàn)創(chuàng)造了外部環(huán)境,提供了基本的法律規(guī)制依據(jù);專門性規(guī)范直接且明確指向算法自動化決策,重點解決算法歧視、算法歸化、算法操縱等算法不正義問題;補充性規(guī)范則進(jìn)一步細(xì)化了大數(shù)據(jù)和算法規(guī)制的基本原則和具體制度,構(gòu)成了保障數(shù)字正義實現(xiàn)的有益補充。
1.基礎(chǔ)性規(guī)范
基礎(chǔ)性規(guī)范主要包括《個人信息保護(hù)法》(以下簡稱《個保法》)《數(shù)據(jù)安全法》《網(wǎng)絡(luò)安全法》《電子商務(wù)法》《互聯(lián)網(wǎng)信息服務(wù)管理辦法》《網(wǎng)絡(luò)數(shù)據(jù)安全管理條例(征求意見稿)》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定(征求意見稿)》等。這些法律規(guī)范針對大數(shù)據(jù)和算法應(yīng)用的不正義情形進(jìn)行了基礎(chǔ)性規(guī)定。其中,《個保法》第24 條專門引入自動化決策概念,不僅明確了算法決策透明和結(jié)果公正兩項基本原則,還在部分借鑒歐盟《一般數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation)的基礎(chǔ)上,規(guī)定了算法解釋權(quán)、算法拒絕權(quán)兩項新型算法權(quán)利。(28)參見王瑩:《算法侵害類型化研究與法律應(yīng)對——以〈個人信息保護(hù)法〉為基點的算法規(guī)制擴(kuò)展構(gòu)想》,《法制與社會發(fā)展》2021 年第6 期?!峨娮由虅?wù)法》第18 條和第40 條則針對大數(shù)據(jù)殺熟現(xiàn)象,對平臺的明示告知、為用戶提供選擇權(quán)、保障用戶隱私等義務(wù)作出了基本規(guī)定。此外,《數(shù)據(jù)安全法》《網(wǎng)絡(luò)安全法》立足“安全”的治理目標(biāo),與《個保法》合理分工、相輔相成,通過建立安全管理制度、安全審查制度、安全問責(zé)制度和安全應(yīng)急處理機(jī)制保障我國網(wǎng)絡(luò)運行安全和數(shù)據(jù)安全。
2.專門性規(guī)范
2021 年9 月17 日,國家互聯(lián)網(wǎng)信息辦公室、中央宣傳部等九部門聯(lián)合發(fā)布了《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》(以下簡稱《算法治理指導(dǎo)意見》) 。 2021 年12 月31 日,國家互聯(lián)網(wǎng)信息辦公室等四部門聯(lián)合發(fā)布了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《算法推薦管理規(guī)定》)。 《算法治理指導(dǎo)意見》和《算法推薦管理規(guī)定》的最大特點在于首次直接以“算法”命名,是針對算法出臺的專門性規(guī)范?!端惴ㄖ卫碇笇?dǎo)意見》從宏觀上明確了“逐步建立治理機(jī)制健全、監(jiān)管體系完善、算法生態(tài)規(guī)范的算法安全綜合治理格局”的目標(biāo),以及提出了“堅持權(quán)益保障,引導(dǎo)算法應(yīng)用公平公正、透明可釋,充分保障網(wǎng)民合法權(quán)益”的原則。 《算法推薦管理規(guī)定》一方面從“算法推薦服務(wù)”著手,針對算法黑箱、算法歧視、信息繭房、輿論操控、不正當(dāng)競爭、用戶權(quán)益保護(hù)等問題作出了明確規(guī)定,另一方面也充分體現(xiàn)出算法安全、算法公平和算法向善的內(nèi)在規(guī)制價值。(29)參見許可:《算法規(guī)制體系的中國建構(gòu)與理論反思》,《法律科學(xué)(西北政法大學(xué)學(xué)報)》2022 年第1 期??梢灶A(yù)見,隨著算法應(yīng)用實踐的不斷深化以及算法規(guī)制理念的更新,我國將來還會出臺直接針對算法的法律基礎(chǔ)規(guī)范,例如“算法安全法”“算法問責(zé)法”甚至“算法法”。
3.補充性規(guī)范
我國保障數(shù)字正義的法律規(guī)制在其他規(guī)范、政策性文件和技術(shù)標(biāo)準(zhǔn)中也有較為清晰的呈現(xiàn),比較具有代表性的是《App 違法違規(guī)收集使用個人信息行為認(rèn)定方法》《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》(以下簡稱《網(wǎng)絡(luò)治理規(guī)定》)《信息安全技術(shù)個人信息安全規(guī)范》(以下簡稱《信息安全規(guī)范》)。這些規(guī)范針對大數(shù)據(jù)和算法在不同領(lǐng)域應(yīng)用過程中產(chǎn)生的算法侵害現(xiàn)象,具體規(guī)定了認(rèn)定標(biāo)準(zhǔn)、監(jiān)管路徑、責(zé)任追究和處置措施等內(nèi)容。例如,《網(wǎng)絡(luò)治理規(guī)定》第12 條對設(shè)置平臺的算法推薦模型、建立人工干預(yù)機(jī)制和用戶自主選擇機(jī)制進(jìn)行了規(guī)定; 《信息安全規(guī)范》第7、8 部分分別對“用戶畫像”的使用限制和個人信息主體的權(quán)利作出了詳細(xì)規(guī)定。另外,我國《新一代人工智能倫理規(guī)范》《新一代人工智能治理原則》還對人工智能提出了“增進(jìn)人類福祉、公平公正和可控可信”的倫理要求。
《算法治理指導(dǎo)意見》提出的“構(gòu)建算法安全綜合治理格局”,以及《新一代人工智能治理原則》確立的八項基本原則,(30)我國《新一代人工智能治理原則》突出了發(fā)展“負(fù)責(zé)任的人工智能”這一主題,強調(diào)和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理等八項原則。是通過法律規(guī)制手段保障數(shù)字正義實現(xiàn)的基本遵循。但這些綱領(lǐng)性的治理目標(biāo)和原則,難以滿足數(shù)字正義實現(xiàn)過程中法律規(guī)制在主體、工具、內(nèi)容、程序等方面的復(fù)雜要求。通過法律實現(xiàn)數(shù)字正義,既需要規(guī)制目標(biāo)的宏觀指引,也需要具體制度安排的落實。從上述大數(shù)據(jù)和算法規(guī)制的基本法律框架來看,我國保障數(shù)字正義實現(xiàn)的實踐主要圍繞源頭數(shù)據(jù)規(guī)制、數(shù)據(jù)賦權(quán)制衡和平臺算法問責(zé)三個維度及其聯(lián)結(jié)關(guān)系來展開。
1.源頭數(shù)據(jù)規(guī)制
由于算法從源頭上依賴數(shù)據(jù)“喂養(yǎng)”,所以可通過規(guī)范數(shù)據(jù)的收集、使用來對算法施加影響,確保算法決策結(jié)果公正。為實現(xiàn)這一目標(biāo),我國通過多部法律規(guī)范架構(gòu)起了“基本原則+具體權(quán)利”的規(guī)制模式。首先,《網(wǎng)絡(luò)安全法》第41 條明確了網(wǎng)絡(luò)運營者收集數(shù)據(jù)的合法正當(dāng)、知情同意和公開收集原則,《數(shù)據(jù)安全法》第32 條重申了數(shù)據(jù)收集的合法正當(dāng)原則。其次,《個保法》設(shè)置了多個條款全面規(guī)定數(shù)據(jù)處理者的合法正當(dāng)、合理、誠信、最小化、公開透明、保證質(zhì)量等原則。最后,《個保法》第四章引入一套個人數(shù)據(jù)權(quán)利體系來保障數(shù)據(jù)正義的具體實現(xiàn)。它以個體對數(shù)據(jù)的自決權(quán)為核心,在《民法典》個人信息相關(guān)條文的基礎(chǔ)上細(xì)化了知情權(quán)、查閱復(fù)制權(quán)、更正補充權(quán)、要求刪除權(quán)等具體權(quán)利形態(tài)。(31)參見王利明、丁曉東:《論〈個人信息保護(hù)法〉的亮點、特色與適用》,《法學(xué)家》2021 年第6 期。同時,為了確保賦予數(shù)據(jù)主體的各項權(quán)利得以充分實現(xiàn),《個保法》第52、55、56 條通過個人信息保護(hù)負(fù)責(zé)人制度和個人信息保護(hù)影響評估制度的構(gòu)建,給個人信息處理者施加了更多的義務(wù)。因此,我國通過數(shù)據(jù)收集、處理和使用原則的確立以及數(shù)據(jù)權(quán)利義務(wù)的設(shè)置,既形成了保障數(shù)字正義實現(xiàn)的基本框架,又從數(shù)據(jù)源頭上初步構(gòu)筑起了算法規(guī)制的規(guī)范起點。
2.算法賦權(quán)制衡
《個保法》在借鑒歐盟《一般數(shù)據(jù)保護(hù)條例》的基礎(chǔ)上,專門設(shè)置條款(第24 條)規(guī)定了算法解釋權(quán)和免受自動決策權(quán)。算法解釋權(quán)基于公開透明的正當(dāng)程序要求,旨在消除算法黑箱下隱藏的信息不正義和程序不正義情形。但《個保法》對算法解釋權(quán)的規(guī)定較為簡單化和模糊化,并未進(jìn)一步規(guī)定解釋權(quán)對象、內(nèi)容、啟動時間點以及解釋方式、程度等具體問題。對此,《算法治理指導(dǎo)意見》初步明確了解釋的對象,將算法的“結(jié)果解釋”作為算法解釋的中心,第13 條提出“督促企業(yè)及時、合理、有效地公開算法基本原理、優(yōu)化目標(biāo)、決策標(biāo)準(zhǔn)等信息,做好算法結(jié)果解釋”?!八惴ńY(jié)果解釋”具體是指提供決策結(jié)果理由的說明。因為算法解釋權(quán)并不要求算法控制者提供決策樹、預(yù)定義模型和底層代碼的解釋,而是提供一種有意義的理由說明,使得決策結(jié)果的依據(jù)能夠為用戶所理解。(32)參見Bruno Lepri, et al.,“Fair, Transparent, and Accountable Algorithmic Decision-Making Processes”,Philosophy & Technology, Vol.31, No.3, 2018, pp.614-616。免受自動決策權(quán)則充分體現(xiàn)了互動正義的要求,它能夠在法律規(guī)制中發(fā)揮尊重用戶個體自治和避免算法歧視擴(kuò)散的優(yōu)勢。另外,免受自動決策權(quán)的適用前提是算法決策對個人權(quán)益具有重大影響,但是否對個人權(quán)益構(gòu)成重大影響的客觀判斷標(biāo)準(zhǔn),還有待后續(xù)法律或司法解釋進(jìn)一步明確。
3.平臺算法問責(zé)
網(wǎng)絡(luò)平臺的崛起,一方面創(chuàng)造了新型的社會互動結(jié)構(gòu),另一方面也帶來了大數(shù)據(jù)殺熟、算法霸權(quán)、算法操縱等一系列社會不正義問題。我國以平臺規(guī)制為抓手,通過要求收集數(shù)據(jù)、構(gòu)建系統(tǒng)和應(yīng)用的平臺承擔(dān)相應(yīng)法律責(zé)任,初步確立起了以平臺算法問責(zé)為核心的制度框架。有學(xué)者將這種框架提煉為平臺“穿透式監(jiān)管”。(33)參見張凌寒:《平臺“穿透式監(jiān)管”的理據(jù)及限度》,《法律科學(xué)(西北政法大學(xué)學(xué)報)》2022 年第1 期。具體來看,《電子商務(wù)法》第18、40 條規(guī)定了平臺的明示義務(wù)和個性化推薦算法的消費者保護(hù)義務(wù),第38 條要求平臺承擔(dān)事前的資質(zhì)審查義務(wù)與安全保障義務(wù)。 《數(shù)據(jù)安全管理辦法》第23、24 條分別規(guī)定了平臺的“定推”標(biāo)識義務(wù)和算法“合成”信息標(biāo)識義務(wù)。 《網(wǎng)絡(luò)治理規(guī)定》第12 條對網(wǎng)絡(luò)平臺建立健全人工干預(yù)機(jī)制和用戶自主選擇機(jī)制的義務(wù)作出了規(guī)定。同時,《個保法》不僅明確了平臺追責(zé)的直接指向是自動化決策,還在平臺責(zé)任的追責(zé)機(jī)制中,將平臺注意義務(wù)從簡單的“明知應(yīng)知”擴(kuò)張至算法設(shè)計、應(yīng)用、輸出結(jié)果全流程。在此基礎(chǔ)上,《個保法》第66 條和《算法推薦管理規(guī)定》第31 條則進(jìn)一步落實了平臺的信息保護(hù)責(zé)任,具體包括警告、責(zé)令改正、強制執(zhí)行、罰款甚至刑事處罰等責(zé)任。
數(shù)字正義的實踐機(jī)制表明,我國已經(jīng)初步搭建起多層級的復(fù)合型規(guī)范制度體系,在法律和政策層面為針對數(shù)字技術(shù)濫用的執(zhí)法、司法提供了有力支撐。但是,隨著數(shù)字技術(shù)的迭代更新以及算法權(quán)力的不斷擴(kuò)張,新技術(shù)新領(lǐng)域新問題迫使我們?nèi)耘f需要不斷思考“算法與法律的互動方式和正義空間”,(34)鄭玉雙:《計算正義:算法與法律之關(guān)系的法理建構(gòu)》,《政治與法律》2021 年第11 期。思考如何促進(jìn)算法公平實踐形態(tài)的實現(xiàn)和法律規(guī)制效能的提高。關(guān)于數(shù)字正義治理結(jié)構(gòu)優(yōu)化的探討,還需要結(jié)合數(shù)字正義的理論內(nèi)涵和具體實踐,圍繞基礎(chǔ)機(jī)制、實施機(jī)制和保障機(jī)制等方面展開。
從上述數(shù)字正義的理論內(nèi)涵來看,保障數(shù)字正義的基本前提是充分配置數(shù)字權(quán)利。每一個具體的數(shù)字正義問題能否解決的背后,都或多或少隱含著公眾數(shù)字權(quán)利是否充分配置的事實。而且,法律規(guī)制的本質(zhì)就在于保護(hù)權(quán)利和正當(dāng)利益。由此,數(shù)字正義和法律規(guī)制因數(shù)字權(quán)利而聯(lián)結(jié),數(shù)字權(quán)利機(jī)制構(gòu)成了法律規(guī)制保障數(shù)字正義的基礎(chǔ)性機(jī)制。圍繞這一基礎(chǔ)性機(jī)制展開對數(shù)字正義治理結(jié)構(gòu)優(yōu)化的討論,主要包括如下兩個方面:
首先,實現(xiàn)公眾數(shù)字權(quán)利配置的充分性和全面性。數(shù)字正義通過權(quán)利機(jī)制來成就自身,在數(shù)字社會,正義同樣集中體現(xiàn)在權(quán)利體系上。從數(shù)字正義的實踐機(jī)制來看,《個保法》雖然首次規(guī)定了算法解釋權(quán)和免受自動決策權(quán),但并未明確其行使方式、程度、標(biāo)準(zhǔn)和時間點等具體內(nèi)容。以算法解釋權(quán)為例,其解釋方式是人工解釋還是機(jī)器解釋,解釋時間點是事前還是事后,解釋程度是系統(tǒng)性解釋還是個案性解釋,都存在解釋爭議與適用困境。(35)參見丁曉東:《基于信任的自動化決策:算法解釋權(quán)的原理反思與制度重構(gòu)》,《中國法學(xué)》2022 年第1 期。因此這兩項數(shù)字權(quán)利的具體內(nèi)容亟待后續(xù)法律及司法解釋作出具體規(guī)定。同時,算法解釋權(quán)是數(shù)字權(quán)利的核心,需要法律的充分配置。算法解釋權(quán)通過個體對自動化的知情與控制來保護(hù)公眾的合法權(quán)益,但是它也會和個人隱私權(quán)、商業(yè)秘密權(quán)發(fā)生沖突,因而需要在立法中限定其解釋對象、條件和范圍,平衡算法解釋權(quán)的保護(hù)和社會多元利益的保護(hù)。在立法形式上,可由專門機(jī)構(gòu)發(fā)布統(tǒng)一解釋指南予以精細(xì)規(guī)定,在解釋指南中充分明確解釋權(quán)的具體內(nèi)容和技術(shù)要求。另外,單憑算法解釋權(quán)和免受自動決策權(quán)還不足以應(yīng)對深度學(xué)習(xí)算法的復(fù)雜化趨勢,有必要在以后出臺的相關(guān)法律中增設(shè)人工干預(yù)權(quán)、算法質(zhì)疑權(quán)與表達(dá)觀點權(quán),進(jìn)一步豐富數(shù)字權(quán)利束。算法質(zhì)疑權(quán)和表達(dá)觀點權(quán)提供表達(dá)數(shù)字正義訴求的機(jī)會和條件,同時也可以通過公眾共同理解的嵌入提升算法決策的合法性、有效性和科學(xué)性。(36)參見Margot E. Kaminski, Jennifer M. Urban, “The Right to Contest AI”,Columbia Law Review, Vol.121, No. 7, 2021, pp.1961-1963。人工干預(yù)權(quán)則強調(diào)在人工智能系統(tǒng)的整個生命周期建立人類審核監(jiān)督程序,它是防止算法不正義情形發(fā)生和維護(hù)人類尊嚴(yán)的重要保障。
其次,建構(gòu)多元的權(quán)利救濟(jì)方案。數(shù)字權(quán)益不同于一般的權(quán)益,它具有特殊性。傳統(tǒng)單一救濟(jì)方案可能無法應(yīng)對數(shù)字權(quán)益侵害的復(fù)雜性,(37)參見Julie E. Cohen,“Information Privacy Litigation as Bellwether for Institutional Change”,DePaul Law Review, Vol. 66, No.2, 2017, p.548。因此有必要引入平臺救濟(jì)、個人司法救濟(jì)以及公益訴訟救濟(jì)相結(jié)合的多元方案。在大數(shù)據(jù)和算法侵害公眾合法權(quán)益的情形下,公眾可先通過用戶申訴渠道提出意見,要求平臺公開算法的基本原理、優(yōu)化目標(biāo)和決策標(biāo)準(zhǔn)等信息,并對算法結(jié)果作出相應(yīng)解釋。平臺則應(yīng)規(guī)范處理用戶申訴并及時反饋,切實保障用戶的合法權(quán)益。如果平臺救濟(jì)無果,公眾可通過司法程序維護(hù)其數(shù)字權(quán)益。法律規(guī)制保障數(shù)字正義所依據(jù)的相關(guān)數(shù)據(jù)權(quán)利,如數(shù)據(jù)資源公平分享權(quán)、算法解釋權(quán)和免受自動決策權(quán)等權(quán)利類型,其可訴性已在我國《個保法》中得到承認(rèn)。(38)參見我國《個人信息保護(hù)法》第50 條。公眾可以上述權(quán)利為依據(jù),請求法院為保障數(shù)字權(quán)益而作出特定的判決,要求對因大數(shù)據(jù)和算法應(yīng)用造成的合法權(quán)益損害予以賠償。另外,行政機(jī)關(guān)對算法負(fù)有法定的監(jiān)管職責(zé),同時行政機(jī)關(guān)也是算法的開發(fā)者、使用者,在公共治理領(lǐng)域中廣泛應(yīng)用算法決策,因此可通過行政公益訴訟制度的充分運用來實現(xiàn)數(shù)字正義。行政公益訴訟的范圍應(yīng)進(jìn)一步拓展,將數(shù)字正義指向的公共利益也納入保護(hù)范圍。檢察機(jī)關(guān)可根據(jù)自動化決策導(dǎo)致公共利益受損的事實,向負(fù)有監(jiān)管職責(zé)的行政機(jī)關(guān)提出檢察建議,或者向人民法院提起公益訴訟。(39)參見我國《行政訴訟法》第25 條??傊?,多元權(quán)利救濟(jì)方案是數(shù)字權(quán)利機(jī)制的基本保障,也是上述程序正義、信息正義的實質(zhì)表達(dá)和具體呈現(xiàn)。
如前文所述,保障數(shù)字正義的規(guī)范依據(jù)散見于法律、規(guī)章、政策性文件和技術(shù)標(biāo)準(zhǔn)中,這種立法狀況必然導(dǎo)致我國對算法的法律規(guī)制系統(tǒng)性不足,規(guī)制主體、規(guī)制工具和規(guī)制對象之間的聯(lián)系不夠緊密。同時,鑒于算法的技術(shù)復(fù)雜性,要想達(dá)到數(shù)字正義所要求的規(guī)制效果,需要調(diào)整規(guī)制思路,形成整體意義上的規(guī)制效用。也就是說,算法規(guī)制應(yīng)具有整體性,能夠合理聯(lián)結(jié)不同規(guī)制主體和規(guī)制工具,更需要容納發(fā)展變化的社會要求和正義價值,將系統(tǒng)化的實施機(jī)制有機(jī)融入整個法治體系中,以保障數(shù)字正義的最終實現(xiàn)。
首先,提升算法規(guī)制實施主體的協(xié)同性,形成多元共治的規(guī)制主體系統(tǒng)。算法規(guī)制問題是一個特殊且復(fù)雜的問題,其中不僅存在廣泛的公共風(fēng)險,而且事后追責(zé)的效果有限。如何建立多元化的風(fēng)險控制體系,如何在算法系統(tǒng)的整個生命周期中落實不同主體的責(zé)任,又如何平衡不同主體間的利益沖突,這些都需要借助規(guī)制主體的系統(tǒng)化安排來解決。而且,《算法治理指導(dǎo)意見》明確提出建立“多元協(xié)同、多方參與的治理機(jī)制”。下一步應(yīng)從這一基本要求出發(fā),既強調(diào)政府政策倡導(dǎo)與科學(xué)監(jiān)管,也重視公民、社會、企業(yè)、行業(yè)組織等主體的互動,通過不同規(guī)制主體法律地位的確認(rèn)、權(quán)利義務(wù)機(jī)制的安排以及社會監(jiān)督機(jī)制的構(gòu)建,形成多元協(xié)同的算法規(guī)制主體系統(tǒng)。這不僅與數(shù)字正義的理論內(nèi)涵相契合,也增強了數(shù)字正義實現(xiàn)過程中法律規(guī)制的實施效能。
其次,強化算法規(guī)制實施工具的系統(tǒng)性,形成功能互補的規(guī)制工具系統(tǒng)。算法規(guī)制工具的應(yīng)用不單要考慮法律,還要考慮技術(shù)、倫理、自律等規(guī)制工具的組合適用,以此來完成算法規(guī)制的系統(tǒng)化實施。具體而言,一是在法律制度的頂層設(shè)計基礎(chǔ)上,構(gòu)建代碼逆向治理機(jī)制,深入機(jī)器學(xué)習(xí)算法的核心內(nèi)部展開動態(tài)化監(jiān)管。例如,可根據(jù)社會需要的動態(tài)變化將算法誘發(fā)的風(fēng)險劃分為不同等級,并通過代碼一一設(shè)定對應(yīng)的動態(tài)因素閾值,從而以低成本方式實現(xiàn)對算法運行全過程的動態(tài)監(jiān)管。(40)參見郭哲:《反思算法權(quán)力》,《法學(xué)評論》2020 年第6 期。代碼逆向治理機(jī)制的構(gòu)建,也是上述數(shù)字正義實現(xiàn)的內(nèi)在要求。二是注重倫理規(guī)制,制定一套人工智能的道德規(guī)范。首份人工智能倫理問題全球性協(xié)議《人工智能倫理問題建議書》(Recommendation on the Ethics of Artificial Intelligence)和我國《新一代人工智能倫理規(guī)范》均強調(diào)了人工智能的倫理規(guī)制原則。算法設(shè)計者和開發(fā)者應(yīng)對算法前置性地施加以人為本的整體倫理負(fù)載,在人機(jī)關(guān)系中注意凸顯數(shù)字正義所要求的人的尊嚴(yán)和價值優(yōu)先原則。(41)參見陸幸福:《人工智能時代的主體性之憂:法理學(xué)如何回應(yīng)》,《比較法研究》2022 年第1 期。三是推進(jìn)行業(yè)內(nèi)部制定自治規(guī)范和技術(shù)標(biāo)準(zhǔn)。在算法應(yīng)用相關(guān)規(guī)范和標(biāo)準(zhǔn)制定中,應(yīng)強化算法安全可控、可解釋、可問責(zé)和公平公正的價值指引。另外,企業(yè)自行制定的自治規(guī)范和技術(shù)標(biāo)準(zhǔn)經(jīng)實踐檢驗成熟時,可將其納入法律標(biāo)準(zhǔn)或通用技術(shù)指南中,進(jìn)一步推廣應(yīng)用??傊?,數(shù)字正義具有包容性和整體性,不僅需要法律、技術(shù)、倫理和自律機(jī)制的協(xié)同共治,還需要形成算法規(guī)制的合力,以此促進(jìn)其在保障數(shù)字正義中發(fā)揮最佳作用。
算法是否達(dá)到了上述數(shù)字正義所要求的分配合理、程序正當(dāng)、尊嚴(yán)優(yōu)先和可信可控,又是否會誘發(fā)安全、倫理、責(zé)任等多元風(fēng)險,需要通過算法影響評估制度來判斷。(42)參見Andrew D. Selbst,“Disparate Impact in Big Data Policing”,Georgia Law Review, Vol.52, No.1, 2017, pp. 168-182。同時,通過算法影響評估制度來理解、研判算法究竟反映何種規(guī)則,又會產(chǎn)生何種經(jīng)濟(jì)社會效應(yīng),在保障數(shù)字正義目標(biāo)實現(xiàn)上具有重要作用。實踐中,《個保法》第55 條初步明確了利用個人信息進(jìn)行自動化決策時,應(yīng)當(dāng)事前進(jìn)行個人信息保護(hù)影響評估,并在第56 條規(guī)定了評估的主要內(nèi)容。但是,算法影響評估結(jié)構(gòu)體系有著自身的獨特要求,其具體設(shè)計和實施機(jī)制需要在《個保法》基礎(chǔ)上進(jìn)一步優(yōu)化。
首先,就評估理念而言,算法影響評估應(yīng)堅持整體性、動態(tài)性的評估理念。一方面,不能僅限于算法的技術(shù)或政策評估,而應(yīng)對算法應(yīng)用的技術(shù)、意識形態(tài)、社會公平和道德倫理等風(fēng)險展開全面評估,從整體性和全局性出發(fā)考察算法潛在的不正義情形,并設(shè)定多層次、多元價值觀的評估指標(biāo)。另一方面,算法影響評估應(yīng)采取動態(tài)的評估理念,結(jié)合上述“場景正義”的要求,根據(jù)算法的具體應(yīng)用場景設(shè)置動態(tài)的評估標(biāo)準(zhǔn),并隨算法技術(shù)的變化及時更新。另外,考慮到算法影響評估的道德倫理要求,在評估過程中要兼顧對算法本身以及對應(yīng)數(shù)據(jù)集的評估。尤其要對可能產(chǎn)生系統(tǒng)性歧視風(fēng)險的“污染”數(shù)據(jù)集進(jìn)行重點評估,仔細(xì)審查算法模型在輸入與輸出之間的非因果關(guān)系,并嚴(yán)格設(shè)定其倫理信任閾值。
其次,就評估主體而言,算法影響評估需要專業(yè)技術(shù)人員的介入。數(shù)據(jù)源的挑選是否公平,分析和預(yù)測工具的選取是否恰當(dāng),算法模型和運算法則的設(shè)計是否合理,以及計算結(jié)果的解讀是否正確等,需要通過專家知識來研判。實踐中可借鑒美國聯(lián)邦《2019 年算法問責(zé)法案》(Algorithmic Accountability Act 2019)的規(guī)定,設(shè)立專門的“算法師”,對算法的公平性、準(zhǔn)確性、可控性和安全性進(jìn)行評估。(43)參見維克托· 邁爾-舍恩伯格、肯尼思· 庫克耶:《大數(shù)據(jù)時代:生活、工作與思維的大變革》,盛楊燕、周濤譯,杭州:浙江 人民出版社2013 年版,第226—230 頁。對于高風(fēng)險或?qū)姍?quán)益有重大影響的自動化決策系統(tǒng),則有必要在“算法師”的基礎(chǔ)上,吸納政府、科研機(jī)構(gòu)、具有專業(yè)知識的社會公眾、同行評審等多方力量展開組合性評估。
最后,就評估方法而言,算法影響評估需要重視評估工具的智能化賦能。數(shù)字正義具有不同層面的社會正義要求,其實現(xiàn)與否需要綜合法律、技術(shù)、倫理和代碼才能判斷,加之神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)算法日益復(fù)雜化,傳統(tǒng)評估方法顯然無法滿足算法影響評估的需要。對此,應(yīng)對評估工具進(jìn)行智能化賦能,用“算法評估算法”。簡單來說,可設(shè)計出一種算法影響評估模型,通過該模型就能夠向算法監(jiān)管機(jī)構(gòu)和社會公眾證明算法隨機(jī)選擇輸入數(shù)據(jù)的公平性,以及自動化決策是根據(jù)一套統(tǒng)一規(guī)則做出的且不存在任何歧視性輸出結(jié)果。(44)參見Joshua A. Kroll, et al., “Accountable Algorithms”,University of Pennsylvania Law Review, Vol.165, No.3, 2017, p.637。實踐中已經(jīng)有了新的探索。例如,加拿大《自動化決策指令》(Directive on Automated Decision-Making)規(guī)定,算法掌控者應(yīng)當(dāng)運用動態(tài)編程語言開發(fā)開源性算法影響評估模型,并依據(jù)該指令附錄C 的評估要求為其設(shè)置權(quán)重、配比風(fēng)險系數(shù)和設(shè)定評分編碼。(45)參見Government of Canada, “Directive on Automated Decision-Making”, https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592, 2019-02-05。
數(shù)字技術(shù)正在塑造人類文明的新實踐,它既對傳統(tǒng)價值世界造成了沖擊,也使正義的理論內(nèi)涵與存在形態(tài)發(fā)生了深刻變化。數(shù)字正義成為社會正義一種新的重要機(jī)制,作為指導(dǎo)和約束人類開發(fā)、設(shè)計、應(yīng)用數(shù)字技術(shù)的價值準(zhǔn)則,其出發(fā)點和落腳點是社會正義而非“機(jī)器正義”。數(shù)字正義的實踐機(jī)制及其優(yōu)化問題應(yīng)在這一基本理解下進(jìn)行討論方具有意義。未來已來,但邁向數(shù)字正義之路道阻且長。當(dāng)前和今后很長時期內(nèi),大數(shù)據(jù)和算法無疑將呈現(xiàn)出更大的現(xiàn)實力量,也必然給人類價值體系造成更大的沖擊。它“可能會從根本上改變我們與法律的關(guān)系,機(jī)器而非人類終將成為正義的仲裁者”。(46)Ann Kristin Glenster,“Privacy, Due Process, and the Computational Turn: The Philosophy of Law Meets the Philosophy of Technology”,Cambridge Law Journal, Vol.76, No.1, 2017, p.208.無論如何,怎樣接受和使用這種力量依然取決于人類自身,依然取決于人類在通往正義之路的進(jìn)程中所做出的倫理判斷。也就是說,人類所構(gòu)建的關(guān)于大數(shù)據(jù)和算法的法律規(guī)制體系,包含著規(guī)制的價值沉淀、意義結(jié)晶化和客觀化過程,無論哪種規(guī)制路徑,都無法回避數(shù)字正義這一價值治理維度。(47)參見周尚君:《地方政府的價值治理及其制度效能》,《中國社會科學(xué)》2021 年第5 期。只有在清晰明確的數(shù)字正義的指引下,才能在算法崛起誘發(fā)的一系列社會困境和挑戰(zhàn)中厘清方向。而且,數(shù)字正義不僅來自算法的數(shù)學(xué)邏輯,更來自我們的社會經(jīng)驗,以及我們?nèi)绾螀f(xié)調(diào)算法決策的效率、精度與人類正義價值的法律保障。(48)參見PRB. Fortes,“Paths to Digital Justice: Judicial Robots, Algorithmic Decision-Making, and Due Process”,Asian Journal of Law and Society, Vol.7, No.3, 2020, p.467。因此,歸根結(jié)底,“誰編碼、如何編碼以及如何使用編碼并不只是一個技術(shù)問題,而是一個實實在在的社會正義問題”。(49)董青嶺、朱玥:《人工智能時代的算法正義與秩序構(gòu)建》,《探索與爭鳴》2021 年第3 期。
當(dāng)然,數(shù)字正義的實現(xiàn)機(jī)制是一個包含法律、技術(shù)及倫理等諸多要素的系統(tǒng)工程,法律規(guī)制是保障其實現(xiàn)的主要手段,但僅僅依靠法律規(guī)制尚不足以解決數(shù)字正義實現(xiàn)過程中的所有問題。本文雖然強調(diào)規(guī)制實施工具的系統(tǒng)性,統(tǒng)籌考慮不同規(guī)制工具的功能優(yōu)勢和作用機(jī)理,把技術(shù)與倫理要求融入法治體系之中,但是如何在數(shù)字正義的實現(xiàn)機(jī)制中促成多種制度的銜接和協(xié)調(diào),如何最大化發(fā)揮技術(shù)和倫理交互作用的效能,還有待進(jìn)一步研究。