劉佳明
內(nèi)容提要:立法性算法是有權(quán)機關(guān)依照一定程序使用的、能夠?qū)駲?quán)利義務(wù)產(chǎn)生實質(zhì)性影響的公共決策算法。與傳統(tǒng)立法一樣,立法性算法會改變社會資源的分配格局以及人們行為的活動空間,甚至能對公民的權(quán)利和義務(wù)產(chǎn)生實質(zhì)性影響。但是,立法性算法所固有的技術(shù)性特征,規(guī)避了公眾對立法性算法程序設(shè)計的參與和監(jiān)督。一方面,構(gòu)成立法性算法的人工語言與普通公眾熟知的自然語言之間存在巨大鴻溝,普通公眾因不具備人工語言相關(guān)基礎(chǔ)知識,難以在算法程序設(shè)計中與之進行平等對話和有效溝通,從而使得作為民主性補充渠道的公眾參與難以有效進行,進而可能引發(fā)監(jiān)督失效、權(quán)責(zé)失衡的問題。另一方面,立法性算法會不自覺地嵌入設(shè)計者的個人偏好和價值判斷,它并不能完全展現(xiàn)“技術(shù)中立”理想下的客觀和真實,甚至還會出現(xiàn)偏差,從而可能引發(fā)算法尋租和算法濫用的問題。要克服立法性算法的缺陷,就要求算法程序的設(shè)計必須以透明度和問責(zé)制為主要原則,確保公眾對立法性算法的充分參與和必要的權(quán)利救濟途徑。
在法學(xué)領(lǐng)域,有關(guān)算法的研究主要聚焦于討論算法與法律之間的內(nèi)在關(guān)系?;蚴菍⑺惴ㄒ暈榉?,認(rèn)為人類正逐漸成為算法統(tǒng)治的客體;(1)又稱“算法法律化”,即人類正逐漸進入算法統(tǒng)治的時代。參見鄭戈:《算法的法律與法律的算法》,載《中國法律評論》2018年第2期?;蚴菍⒎梢暈樗惴?,認(rèn)為法律職業(yè)者面臨即將被算法所取代的危機;(2)也稱“法律算法化”,即法律職業(yè)者的推理和判斷在多大程度上能夠被算法所取代,或者說,法律在多大程度上能夠被算法所取代。參見胡凌:《人工智能的法律想象》,載《文化縱橫》2017年第2期?;蚴钦J(rèn)為算法和法律二者是協(xié)同共生的關(guān)系,尋求用算法推動法律、用法律規(guī)訓(xùn)算法的雙向規(guī)范策略(3)算法和法律二者是協(xié)同、共生的關(guān)系,即算法和法律相互影響。參見馬長山:《智慧社會的治理難題及其消解》,載《求是學(xué)刊》2019年第5期。。也許“算法即法律”在當(dāng)前還言過其實,(4)參見陳景輝:《人工智能的法律挑戰(zhàn):應(yīng)該從哪里開始?》,載《比較法研究》2018年第5期。但是,不可否認(rèn),無論在私人領(lǐng)域還是公共領(lǐng)域,人類越來越依賴于算法來進行相關(guān)決策。通過將大數(shù)據(jù)分析和預(yù)測技術(shù)相結(jié)合,算法主體透過算法技術(shù)有能力增強其對公民的影響力甚至控制力,從而能夠在事實上擴張自身的權(quán)力,并實質(zhì)性影響到公民的權(quán)利義務(wù)關(guān)系,因而必須通過法律對此進行有效規(guī)制。(5)參見周輝:《算法權(quán)力及其規(guī)制》,載《法制與社會發(fā)展》2019年第6期。但是,當(dāng)前對公共決策領(lǐng)域中算法的規(guī)制未能深入系統(tǒng)內(nèi)部的運行邏輯,導(dǎo)致權(quán)力主體對通過程序執(zhí)行法律的背后行動理由未能提供合理論據(jù)和說明,因而也就難以有效應(yīng)對可能出現(xiàn)的算法尋租和算法濫用問題。對此,應(yīng)當(dāng)將公共決策領(lǐng)域中的一部分算法視為立法性算法,從而將立法的民主化和科學(xué)化價值導(dǎo)向滲透到算法程序的設(shè)計之中,并通過信息公開、公眾參與和專家輔助等制度,以民主機制和正當(dāng)程序保護對算法程序設(shè)計的共同體進行持續(xù)有效的監(jiān)控、質(zhì)詢和改造,從而促進立法性算法“黑箱”的程序性凈化。
目前學(xué)界關(guān)于何為“算法”尚未達成共識,有關(guān)算法的概念在計算機科學(xué)、數(shù)學(xué)和人文社科等領(lǐng)域不盡相同,試圖為算法尋找一個能夠涵蓋所有領(lǐng)域的概念十分困難。在計算機科學(xué)領(lǐng)域,算法被看作是用某種方法解決問題的策略機制,它被具體化為一組準(zhǔn)確且完整的描述或一系列清晰的指令。在數(shù)學(xué)領(lǐng)域,算法則通常被用來描述解決某一問題的操作步驟,它們可以通過數(shù)字符號、算盤、圖表和計算工具等來執(zhí)行。(6)參見〔美〕瑟格·阿比特博、吉爾·多維克:《算法小時代:從數(shù)學(xué)到生活的歷變》,任軼譯,人民郵電出版社2017年版,第6頁。人文社科中所討論的算法主要是決策算法,“即在特定情況下所采取的最佳行動,對數(shù)據(jù)進行最佳解釋的算法,這些算法能否增強或取代人類的分析和決策,通常取決于數(shù)據(jù)和規(guī)則的范圍或規(guī)?!?7)孫保學(xué):《人工智能算法倫理及其風(fēng)險》,載《哲學(xué)動態(tài)》2019年第10期,第94頁。。一般而言,針對任何可用于計算的程序操作或決策過程,都可以歸入算法的認(rèn)識范疇,但是,這并不意味著所有與算法有關(guān)的問題都可以被納入公眾的討論范圍。事實上,人們對那些公共利益遭受損害,并有可能引發(fā)權(quán)利義務(wù)沖突的算法決策更為關(guān)心。在法學(xué)領(lǐng)域,人們的關(guān)注點聚焦于算法決策的不確定性和不透明性,前者是指基于算法所作出的決策難為他人預(yù)測,后者則是指通過算法形成決策所依賴的實質(zhì)理由和價值取舍難為他人所知。這種算法決策被形象地稱為算法“黑箱”。這意味著那些受自動化算法影響的人無法確定決策是如何產(chǎn)生的,也無法對決策背后的因果關(guān)系進行邏輯和推理解釋,公眾因而也就喪失了對其問責(zé)的可能。
從實踐來看,算法作為一種特殊的決策機制,同時也被視為一種用于建構(gòu)社會秩序理想模型的方式。在公共政策與公共治理中,權(quán)力主體能夠借助算法實現(xiàn)政策制定與治理過程的動態(tài)化、精細(xì)化,從而影響社會主體之間的利益分配關(guān)系。(8)參見前引〔5〕,周輝文。一方面,以大數(shù)據(jù)分析和預(yù)測技術(shù)為基礎(chǔ)的自動化算法被廣泛用于社會治理領(lǐng)域,從而產(chǎn)生大量為受監(jiān)管實體量身定制的決策或指令,這些決策或指令影響和塑造著不同的社會主體。另一方面,在算法治理之下,這些決策和指令能夠參與選擇、決定與我們生活相關(guān)的各類信息,并最終發(fā)展成為管理、判斷、調(diào)節(jié),甚至能夠限制或約束人們行動和生活的強大實體,在客觀上也就具有權(quán)力屬性。(9)關(guān)于“算法作為一種權(quán)力”的觀點最早是由大衛(wèi)·比爾(David Beer)提出,他認(rèn)為算法能對每個人施加控制力和影響力,在客觀上也是作為一種權(quán)力形態(tài)而存在。See David Beer,Power through the Algorithm?Participatory Web Cultures and the Technological Unconscious,11 New Media & Society,985(2009).因此,就公共領(lǐng)域中的某些決策算法而言,其與傳統(tǒng)立法在調(diào)整社會關(guān)系與分配社會利益上具有同質(zhì)性,即二者都向社會主體提供行為規(guī)范,都能改變社會主體之間既有的利益分配格局和行為活動空間,甚至還能對其權(quán)利義務(wù)產(chǎn)生實質(zhì)性影響。(10)參見蔣舸:《作為算法的法律》,載《清華法學(xué)》2019年第1期。例如,在公共政策制定與社會治理領(lǐng)域,包括經(jīng)濟政策的精準(zhǔn)預(yù)測和分析,民生管理的精準(zhǔn)調(diào)度和服務(wù)以及公共場所日益增長的自動化監(jiān)控,這些算法的使用都會涉及立法的內(nèi)容。
算法與立法既存在共性,也存在一定的差異性。根據(jù)算法主體的不同,可以將其劃分為公權(quán)力算法和私權(quán)力算法。前者是指公權(quán)力機關(guān)所運用的算法,后者一般是指平臺企業(yè)、數(shù)據(jù)服務(wù)公司等私人主體所運用的算法。而“公權(quán)力算法”根據(jù)程序性標(biāo)準(zhǔn)又可以劃分為“立法性算法”和“非立法性算法”。立法性算法是指有權(quán)機關(guān)依照一定程序運用的,能夠?qū)竦臋?quán)利義務(wù)產(chǎn)生實質(zhì)性影響的公共決策算法。例如在疫情防控期間,各地使用的健康碼,其背后使用的算法就是嚴(yán)格依照國務(wù)院有關(guān)部門制定的《個人健康信息碼》系列國家標(biāo)準(zhǔn)所形成,這些算法能夠根據(jù)獲取的數(shù)據(jù)信息自動作出決策對公民行為進行規(guī)范和調(diào)整,甚至還能對公民的權(quán)利義務(wù)關(guān)系產(chǎn)生實質(zhì)性影響,如影響公民的消費、出行、工作、生活等。而非立法性算法則是指非經(jīng)特定程序運用的,但同樣能夠?qū)竦臋?quán)利義務(wù)產(chǎn)生實質(zhì)性影響的公共決策算法。例如“文明碼”作為健康碼功能的延伸已經(jīng)從防疫擴展至醫(yī)療、養(yǎng)老等其他民生領(lǐng)域,它采用積分模式來對公民的權(quán)利義務(wù)產(chǎn)生實質(zhì)性影響,但是,該算法缺乏明確的法律授權(quán),或沒有依照特定的立法程序產(chǎn)生,因此,該算法屬于非立法性算法。此外,包括公共領(lǐng)域中廣泛運用的人臉識別監(jiān)控算法、社會信用評分算法、智能輔助公共決策算法等,這些算法的使用范圍都有可能涉及公民的實質(zhì)性權(quán)利義務(wù),但由于其產(chǎn)生過程未嚴(yán)格依照立法程序進行,因而屬于非立法性的算法。因為立法性算法和非立法性算法以其產(chǎn)生過程是否受到立法程序的約束為標(biāo)準(zhǔn)而進行劃分,(11)本文將立法視為是一種對不同群體之間利益矛盾和權(quán)利沖突進行化解和協(xié)調(diào)的行為秩序安排。如果用以表示此行為秩序安排的形式是規(guī)則化的法律語言,那么此立法就是成文法。如果是裁判,則是判例法。而如果它的表達形式是算法,那么就是立法性算法。所以對立法性算法的產(chǎn)生過程進行程序性規(guī)范也就顯得尤為重要。事實上,公共決策領(lǐng)域中廣泛存在的算法是立法性算法,但算法固有的技術(shù)特征規(guī)避了立法程序?qū)λ惴ㄔO(shè)計的監(jiān)督和約束作用,從而導(dǎo)致大量立法性算法以非立法性形式在社會治理領(lǐng)域呈現(xiàn)。但是,立法是一種帶有價值判斷和利益取向的行為秩序安排活動,要使法更好地符合社會需求,就必須通過立法程序?qū)⒉煌嬷黧w的認(rèn)識納入評判立法質(zhì)量的標(biāo)準(zhǔn)體系之中。(12)參見張恭善:《立法學(xué)原理》,上海社會科學(xué)院出版社1991年版,第62頁。
人們之所以需要法律,是因為人類社會歸根結(jié)底是一個由各種利益關(guān)系交織在一起的復(fù)雜體,法律對社會關(guān)系的調(diào)整實質(zhì)上也是對社會利益的調(diào)整,而權(quán)利義務(wù)或權(quán)力責(zé)任等法律概念只是社會主體利益需求在法律上的具體表現(xiàn)形式?!袄孀鳛榭陀^范疇,對法律起著決定性的作用?!?13)張文顯:《法理學(xué)》,法律出版社2009年版,第143頁。而人們之所以需要以立法的形式來制定法律,是因為立法作為一種創(chuàng)制權(quán),它以對權(quán)力和權(quán)利為代表的利益進行分配為目標(biāo),立法能夠以其公開和透明的程序讓普通民眾參與其中,并通過合理的整合機制使不同利益群體得以和諧相處。(14)參見黃信瑜、石東坡:《立法博弈的規(guī)制及其程序表現(xiàn)》,載《法學(xué)雜志》2017年第2期。因此,立法過程也就是不同社會主體利益需求的表達和博弈過程。(15)參見楊煉:《論現(xiàn)代立法中的利益結(jié)構(gòu)》,載《理論月刊》2011年第11期。以司法部2020年2月27日發(fā)布的《外國人永久居留管理條例(征求意見稿)》為例,該條例自公布以來就引發(fā)了社會各界的高度關(guān)注,它的本意是通過賦予外國人永久居留資格來吸引國外人才參與本國建設(shè),從而促進國內(nèi)經(jīng)濟社會發(fā)展。但是,該條例所規(guī)定之內(nèi)容存在諸多不足,導(dǎo)致其自公布以來就受到社會輿論的關(guān)注。所幸《中華人民共和國立法法》(以下簡稱《立法法》)第67條專門規(guī)定行政法規(guī)的起草過程應(yīng)當(dāng)向社會公布,并廣泛聽取公眾意見。因為將立法公之于眾,無疑會對立法者的選擇和決斷產(chǎn)生一種無形的壓力,從而促使立法活動能夠更充分地吸納并聽取公眾意見。如果不對立法性算法的產(chǎn)生進行類似規(guī)范,這些問題將會同樣出現(xiàn)。
而公權(quán)力機關(guān)之所以需要借助算法的形式實施社會管理,也主要是因為算法對優(yōu)化治理流程、改善治理精準(zhǔn)度以及提升治理效能具有明顯的幫助作用。(16)參見陳鵬:《智能治理時代的政府:風(fēng)險防范和能力提升》,載《寧夏社會科學(xué)》2019年第1期。然而,在算法治理過程中,看似理性的算法卻會引發(fā)一系列的算法危機,“算法歧視”“算法合謀”“算法黑箱”等問題層出不窮。(17)參見張欣:《連接與失控:面對算法社會的來臨,如何構(gòu)建算法信任?》,載《法治周末》2019年5月30日,第12版。因為隨著社會數(shù)字化程度的提高,每個人的生活細(xì)節(jié)將變得越來越數(shù)據(jù)化,政府收集和處理數(shù)據(jù)的算法系統(tǒng)會對公民權(quán)利義務(wù)產(chǎn)生實質(zhì)性影響。數(shù)據(jù)作為算法的根基,決定著算法的目標(biāo)和實現(xiàn)路徑。與此同時,算法也可以被簡化為以數(shù)據(jù)和假設(shè)為基礎(chǔ)的歸納過程。然而,數(shù)據(jù)的缺失和預(yù)設(shè)條件的不合理將直接影響算法的輸出結(jié)果。當(dāng)不同決策參數(shù)的權(quán)重不是由公眾參與選擇,而是基于特定主體的個人判斷之時,算法總是會存在某種程度的不可預(yù)測性。即使公眾能夠直接親歷算法程序設(shè)計的全過程,由于對每一個算法程序設(shè)計參數(shù)缺乏必要的理解,普通民眾也將很難做出有效的選擇。事實上,在智慧城市建設(shè)中,“以支持政府決策和治理為名的大數(shù)據(jù)中心建設(shè)雖然如火如荼,但以算法形式改善決策和治理的成功案例卻十分稀少”(18)胡小明:《政府大數(shù)據(jù)應(yīng)用效益反省》,載https://www.chinathinktanks.org.cn/content/detail?id=hapu4w96,最后訪問時間:2021年9月20日。。因為算法程序的設(shè)計過程是封閉的,普通公眾難以參與到立法性算法程序的設(shè)計當(dāng)中,而在這種公眾參與缺失和監(jiān)督失效的情形下,更容易誘發(fā)算法尋租和算法濫用問題。
作為一種社會規(guī)范形式,法律的本質(zhì)是對各種利益進行調(diào)節(jié)和分配,其終極目標(biāo)是保障全民利益的相對均衡,而立法則是為實現(xiàn)利益均衡進行的制度設(shè)計和選擇,立法過程也就被視為一個多重相互沖突的利益之間進行博弈和選擇的過程。(19)參見前引〔14〕,黃信瑜、石東坡文。在這個過程中,面對不同群體的利益訴求和相互沖突,立法部門不僅要對利益做出合理選擇和價值取舍,還需要通過完善的制度安排使不同利益群體得以和諧相處。但是,現(xiàn)代社會是一個利益格局多元化的社會,由立法者代表立法已經(jīng)越來越難以充分反映和實現(xiàn)不同民眾之間的利益需求。一方面,由于立法是一項專門性活動,立法權(quán)只掌握在少部分人手中,但是,權(quán)力始終會存在被濫用的可能,而現(xiàn)代法治的基本要求是對各種權(quán)力,尤其是作為公共權(quán)力的立法權(quán)予以合法性和正當(dāng)性的制約,從而防止權(quán)力不當(dāng)使用。因此,尋求對立法權(quán)進行有效控制是現(xiàn)代法治要求的應(yīng)有之義。另一方面,代議制民主不僅僅意味著“大多數(shù)人的統(tǒng)治”和“少數(shù)服從多數(shù)”,它還必須實現(xiàn)對弱勢群體的保護以及對少數(shù)人的尊重。這就需要在一定程度上實現(xiàn)立法權(quán)的回歸,以公眾參與彌補立法代表在反映民意方面之不足。(20)參見易有祿:《立法程序的功能分析》,載《江西社會科學(xué)》2010年第5期。對權(quán)力機關(guān)而言,保證公眾親歷立法過程,可以在更加全面、客觀和公正的把握民意的基礎(chǔ)之上,最大限度地減少立法失誤,實現(xiàn)立法的科學(xué)性和民主性要求。對民眾而言,通過直接親歷立法過程,能夠更加直觀地表達自己的利益訴求,從而保障自己的監(jiān)督權(quán),這些在我國《立法法》的相關(guān)規(guī)定中都有充分的證明。
根據(jù)我國《立法法》第4、5條之規(guī)定,立法應(yīng)當(dāng)依照法定程序,體現(xiàn)人民意志,堅持立法公開以及保障人民通過多種途徑參與立法。此項規(guī)定不僅具有傳達并聽取公眾意見的形式意義,更重要的是它對保障公眾參與和監(jiān)督立法過程所切實發(fā)揮的作用具有實質(zhì)性的意義。在美國,公眾參與立法不僅比較普遍,而且所涉及范圍也較廣,基本包括憲法修改、國家基本法律的制定,甚至地方政策的出臺都有公民參與其中。美國公眾參與立法的合法性權(quán)利最早來源于《聯(lián)邦憲法第一修正案》的相關(guān)規(guī)定,(21)《美國聯(lián)邦憲法第一修正案》規(guī)定:“國會不應(yīng)當(dāng)就設(shè)立宗教及其事務(wù)制定法律,也不應(yīng)當(dāng)通過制定法律限制公民的言論自由、新聞自由、和平集會的權(quán)利,以及向政府申請獲得救濟的權(quán)利?!彼梢越忉尀橘x予國會一項積極的責(zé)任,即為公民提供一種充分的機會,能夠就公共事務(wù)進行有意義的討論和辯論。而任何對公民為維護公共利益而實施的各種合法行為進行的限制或阻止均不受憲法保護,并且公民可以就此申請救濟。此外,美國聯(lián)邦程序法、(22)《美國聯(lián)邦程序法》第552條規(guī)定公眾參與機制的規(guī)則制定情形,而第553條列舉了不適用公眾參與機制的規(guī)則制定情形。信息自由法以及聯(lián)邦咨詢委員會立法等法律規(guī)范文件也都對公民參與立法的合法性權(quán)利作出了明確而又細(xì)致的規(guī)定,并逐漸形成了集立法聽證制度、公眾評議反饋制度和立法信息公開制度“三位一體”的法律程序保護模式。盡管美國的現(xiàn)實國情和立法模式與我國有很大的不同,但法律的制定、修改以及實施等過程所追求的目標(biāo)具有重疊性,即通過公眾參與來保障立法過程的公開和透明。要言之,民主進程的推進需公眾的普遍參與,他們須相互接觸和了解,并通過公開討論來參與公共生活,從而確定相互之間的共同利益并達成共識。(23)See Czapanskiy K.Syma,Manjoo R,The Right of Public Participation in the Law-making Process and the Role of Legislature in the Promotion of This Right,19 Duke Journal of Comparative & International Law,1,15(2008).與此同時,公眾的有效參與和監(jiān)督還能以規(guī)范化的內(nèi)部操作節(jié)省法律的外部執(zhí)行成本,從而避免立法實踐中的種種弊端。對阿倫特而言,公共政治生活需要人與人之間的相互辯論和理解,他們通過討論和辯論確定共同的利益和價值目標(biāo),并努力實現(xiàn)這些目標(biāo),這種公開討論能夠使人們擱置爭議、凝聚共識。(24)See Saliternik Michal,Big Data and the Right to Political Participation,21 University of Pennsylvania Journal of Constitutional Law,713,727(2019).因此,強調(diào)公眾對立法性算法程序的有效參與和監(jiān)督具有實踐必要性。
算法通常被描述為通過“黑箱”將輸入轉(zhuǎn)換為輸出,一般公眾無法通過“黑箱”去理解這種轉(zhuǎn)變?nèi)绾伟l(fā)生,也不能用傳統(tǒng)統(tǒng)計的直觀和因果語言來描述這種關(guān)系。如果算法在公共決策領(lǐng)域的使用遭遇廣泛質(zhì)疑,也主要是因為算法與傳統(tǒng)人類決策存有本質(zhì)不同。首先,算法決策不能用人類所能理解的術(shù)語來進行解釋,它不可避免地會不透明。其次,這些決策是基于大量數(shù)據(jù)識別的相關(guān)關(guān)系,而不是經(jīng)證實的因果關(guān)系,在某種意義上還帶有明顯的隨機性,因而不可避免地會出現(xiàn)錯誤。最后,算法決策不可避免地會反映特定群體的價值判斷和選擇,因而會帶有較強的主觀性。(25)See Berman Emily,A Government of Laws and Not of Machines,98 Boston University Law Review,1277,1283(2018).這些特點以看不見的方式成為威脅現(xiàn)代民主法治框架的關(guān)鍵性要素。進一步而言,算法技術(shù)的專業(yè)特性還會對公眾有效參與立法性算法程序設(shè)計造成阻礙。因為算法決策的形成通常包含對歷史數(shù)據(jù)的收集與分析、為實現(xiàn)某個目標(biāo)而構(gòu)建模型和編碼、為算法提供輸入以及對輸入數(shù)據(jù)的應(yīng)用規(guī)定進行算法操作等流程。(26)See Brauneis Robert,Ellen P.Goodman,Algorithmic Transparency for the Smart City,20 Yale Journal of Law and Technology,103,113-114(2018).這意味著那些無法產(chǎn)生數(shù)字?jǐn)?shù)據(jù)的人可能會因此喪失參與公共事務(wù)討論的重要機會。即使有,公眾參與決策的過程也具有被動性或間接性,他們無法充分表達自己的利益需求和價值偏好,也缺乏必要的途徑將其轉(zhuǎn)化為立法選擇。即使公眾與立法機關(guān)之間存在直接溝通的數(shù)字交流平臺,但“算法是一個隨機的過程,不同變量之間往往會存在復(fù)雜的、不可預(yù)測的交互作用效應(yīng)”(27)Coglianese Cary,Lehr David,Regulating by Robot:Administrative Decision Making in the Machine Learning Era,105 Georgetown Law Journal,1147,1172,1199(2017).。換言之,算法“黑箱”的性質(zhì)會對結(jié)果差異造成影響,這種可能性已被大多數(shù)學(xué)者和政策制定者所認(rèn)識。更為重要的是,算法決策結(jié)果不能直觀地被解釋,也不能支持傳統(tǒng)上立法機關(guān)對立法行為的背后因果關(guān)系進行辯護和說明。(28)參見前引〔27〕,Coglianese Cary、Lehr David文,第1167頁。這些都構(gòu)成立法程序無法限制和約束立法性算法的重要理由。
然而,在算法治理過程中,“當(dāng)國家獲得數(shù)據(jù)產(chǎn)權(quán)和算法制定主導(dǎo)權(quán),壟斷了作為未來主要公共產(chǎn)品的人工智能技術(shù),并通過這種技術(shù)無限地干預(yù)社會,國家與社會的關(guān)系很大程度上將依賴于政府在推廣和應(yīng)用該項技術(shù)時是否遵循民主原則,并與社會進行廣泛深入的協(xié)商”(29)張春滿、王震宇:《未來已來?人工智能的興起與我國國家治理現(xiàn)代化》,載《社會主義研究》2019年第4期,第99頁。。由于立法性算法并非立法者根據(jù)法定程序與公眾平等對話溝通締造之物,而是一種復(fù)雜的算法程序,并且立法文本也不是傳統(tǒng)意義上的自然語言文本,而是非專業(yè)人士難以理解的人工語言文本,立法性算法程序的設(shè)計可能會面臨公眾參與的缺失和監(jiān)督的失效,而在這種公眾可參與性和可監(jiān)督性降低的情況下,其不利影響可能更為明顯。美國學(xué)者科恩曾將民主比喻為一種社會管理體制,在該體制中,社會成員大體上能直接或間接地參與公共決策。(30)參見〔美〕科恩:《論民主》,聶崇信等譯,商務(wù)印書館1988年版,第10頁。就立法程序而言,公眾參與是以公開的立法活動來保障那些可能受立法結(jié)果影響的普通民眾,能夠擁有平等的機會來參與立法的全過程,并對立法結(jié)果產(chǎn)生實質(zhì)性的影響。這不僅關(guān)乎權(quán)力之間的分工和配合,也是公民權(quán)利對立法權(quán)力制約和限制的體現(xiàn)。
程序?qū)Ψ芍贫鹊奶魬?zhàn)由來已久,心理學(xué)家一直致力于運用程序正義原則來研究法律制度的公平感。顧名思義,程序正義只關(guān)注糾紛解決的程序性事項,而不涉及實質(zhì)性結(jié)果,因而它與“實質(zhì)”的公平無關(guān),而與人們對公平的認(rèn)識有關(guān),是對人們所認(rèn)為的公平程序的研究。程序正義的社會心理學(xué)研究揭示,“當(dāng)法律權(quán)威無法讓人們得到一個他們所期望的結(jié)果時,通過一個公平的程序來做出決定,更有可能獲得人們的認(rèn)可和接受”(31)李昌盛、王彪:《“程序公正感受”研究及其啟示》,載《河北法學(xué)》2012年第3期,第63頁。。程序公開一直以來被視為是實現(xiàn)程序正義的基本標(biāo)準(zhǔn)和內(nèi)在要求。就立法程序而言,程序公開要求立法過程和結(jié)果都要向社會公開,使公眾能夠親歷立法全過程,并為監(jiān)督立法提供一種可能。作為程序民主的重要運行機制,公眾參與的核心正是以一種較為完善的程序正義來確保實質(zhì)正義,用公平正當(dāng)?shù)牧⒎ǔ绦騺肀U狭⒎ńY(jié)果的實質(zhì)公正。程序正義在算法決策領(lǐng)域的研究發(fā)現(xiàn),決定一個人是否相信某一特定算法程序的公平性有以下四個重要因素:(1)決策者是否以平等的態(tài)度對待他人與自己的互動;(2)決策者是否被認(rèn)為是中立的;(3)決策者是否被認(rèn)為是可信的;以及(4)個人是否有平等的機會參與決策過程。(32)See Ric Simmons,Big Data and Procedural Justice:Legitimizing Algorithms in the Criminal Justice System,15 Ohio State Journal of Criminal Law,573,575-576(2018).如果運用這些因素來評估立法性算法,在算法未向公眾充分披露、公眾難以有效參與立法性算法程序設(shè)計過程之時,公眾的程序正義感要大大降低。
算法是為實現(xiàn)特定行為而設(shè)計,必須按照給定的流程和軌道運行,其中包括構(gòu)成算法的技術(shù)、工具和方法,它們有自己特殊的詞匯、語法,以及編譯單詞、句子和文本的規(guī)則。(33)See Alexey V.Lisachenko,Law as a Programming Language,37 Review of Central and East European Law,115,118(2012).而語言正是由復(fù)雜的語義和句法結(jié)構(gòu)的網(wǎng)、鏈和矩陣構(gòu)成,它由基本符號、語形規(guī)則、語義規(guī)則三個部分組成。語言根據(jù)形成方式的不同可以分為自然語言和人工語言,前者可稱之為日常語言,是人們在日常生活中在特定的語言范圍內(nèi)所反復(fù)使用的某種民族語。后者則是人類根據(jù)特殊需求而創(chuàng)造的符號或符號體系,其根本屬性是人造語言。(34)參見胡澤洪:《現(xiàn)代邏輯視野中的語言與思維》,載《哲學(xué)研究》1997年第6期。算法正是借助于一套人工語言符號系統(tǒng)運用演繹體系以使其嚴(yán)格化的一套程序或方法,因此,算法語言屬于人工語言的一種。但是,算法語言又與人工語言有很大不同,因為算法語言不是機器的符號表征系統(tǒng),而是人類語言的符號表征系統(tǒng)。(35)關(guān)于符號表征系統(tǒng),皮亞杰認(rèn)為符號表征是認(rèn)知發(fā)展的核心,是指個體用來代表其他事物的東西,符號表征能力是人類所獨有的一種能力。在其符號表征系統(tǒng)的最基本層次上,計算機只能有兩種狀態(tài),即存在或不存在某種電磁現(xiàn)象。它可以處理任何信息,無論是文字、圖形或聲音,這些都可以用二進制數(shù)字符號在計算機程序中得以表示。(36)See J C.Smith,Machine Intelligence and Legal Reasoning,73 Chicago-Kent Law Review,277,279-280(1998).數(shù)字是計算機領(lǐng)域運用的一種基本語言,它們與技術(shù)有著千絲萬縷的聯(lián)系。布爾邏輯與二元數(shù)字的融合形成了計算機設(shè)計的基本結(jié)構(gòu),它蘊含了三個基本運算and、or和not,主要處理兩種實體,比如true或false,yes或no,open或closed,on或off,0或1。當(dāng)程序按照布爾原理予以排列時,其能創(chuàng)建一種既可以執(zhí)行數(shù)學(xué)運算又可以執(zhí)行邏輯運算的電路。算法主體能夠通過借助計算機程序來完成復(fù)雜的社會治理目標(biāo),這些目標(biāo)由機器翻譯成一個龐大的目錄,其中包含所有可能場景的簡單命令。在算法世界里,這些指令被認(rèn)為是算法主體依據(jù)治理目標(biāo)以及個體行為來進行校準(zhǔn)的。(37)See Casey A.Niblett A,The Death of Rules and Standards,92 Indiana Law Journal,1401,1405,1418(2017).例如算法主體可能越來越依賴由大數(shù)據(jù)支持的方法來定制微觀指令,或通過數(shù)據(jù)化分析對社會主體進行自動化監(jiān)管,而不是依據(jù)法律或一般規(guī)則。
語言是一種信息交換的符號系統(tǒng)。哈貝馬斯將交往活動視為以符號為媒介的相互作用和理解,而“相互作用是按照必須遵守的規(guī)范進行,它規(guī)定著相互行為的期待,并且必須得到至少兩個行動主體(人)的理解和承認(rèn)”(38)〔德〕尤爾根·哈貝馬斯:《作為“意識形態(tài)”的技術(shù)與科學(xué)》,李黎等譯,學(xué)林出版社1999年版,第49頁。。雖然“語言是人們按照一定的規(guī)則表達和交流自己思想意志的工具,而立法語言作為表達法律規(guī)范內(nèi)容的唯一工具,只能以特定的語言形式而存在”(39)前引〔12〕,張恭善書,第254頁。。但構(gòu)成立法性算法的人工語言對普通公眾而言難以理解。因為信息在人和機器之間至少需通過三個層次的傳遞,每個層次都有其獨特的語言,第一層次是機器可讀的二進制語言,第三個層次是只有人類才能理解的自然語言,連接這兩個層次的是一組人和機器都能理解的編程語言。(40)See Anne von der lieth Gardner,An Artifificial Intelligence Approach to Legal Reasoning,MIT Press Cambridge,1987,pp.24-26.而公眾參與立法中的“公眾”應(yīng)該是一個能夠自主表達和接受意見,并能夠自覺、自主地參與討論并影響立法決定的普通群體。(41)參見王怡:《認(rèn)真對待公眾輿論——從公眾參與走向立法商談》,載《政法論壇》2019年第6期。這就需要以同等的語言作為溝通媒介。法律雖是以特定話語進行程式化的表達,構(gòu)成立法性算法程序的人工語言和自然語言之間存在的差別,在某種意義上可以視為專家話語和公眾話語在立法互動過程中的差別。然而,作為一種利益協(xié)調(diào)和分配機制,法律還必須與社會其他制度相互聯(lián)結(jié)。特別是,在自然語言交流中它還必須尋求與任何可能存在的人際交往建立確定的聯(lián)系。(42)See Waldron Jeremy,Law and Disagreement,Oxford University Press,1999,p.105.就立法性算法而言,如果過度關(guān)注人工語言的一般性,而忽視自然語言的內(nèi)在特性,以及它在促進人際交往和實現(xiàn)制度安排方面的價值和意義,往往容易導(dǎo)致公眾在算法程序設(shè)計過程中的缺失。而一旦大數(shù)據(jù)與人工智能成為立法權(quán)力機關(guān)的主要信息來源,作為民主性補充渠道的公民立法參與機制將較難發(fā)揮作用,這是因為公民由于不具備與此相關(guān)的專業(yè)知識,而無法表達其利益或反駁相應(yīng)的科學(xué)依據(jù),即使表達出與之相反的意見也可能被斥以誤解科學(xué)技術(shù)的立法依據(jù)(43)參見錢大軍:《立法權(quán)回收中人工智能的應(yīng)用及其悖反》,載《上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2019年第6期。。因此,在算法治理之下,協(xié)商式民主的真正難題可能并非在于保證不同利益群體達成共識,而在于如何跨越自然語言和人工語言之間的鴻溝,為公眾參與立法提供一個能夠平等對話和溝通的橋梁。
在算法決策中,表面上中立的算法可能會產(chǎn)生社會實質(zhì)性的偏見結(jié)果。因為,“技術(shù)本身是一種帶有明顯偏向性的思維和結(jié)構(gòu)(structure),它影響和塑造了形形色色的‘行動者’(agent),而技術(shù)的后果往往也會超出人們的原初設(shè)定”(44)袁光鋒:《政治算法、“幻影公眾”與大數(shù)據(jù)的政治邏輯》,載《學(xué)海》2015年第4期,第51頁。。盡管算法決策的產(chǎn)生可能遵循相同的程序規(guī)則,但它仍會強化系統(tǒng)中業(yè)已存在的偏見和誤差。在特殊情況下,算法對輸入數(shù)據(jù)做出的假設(shè)并不總是正確,也并非總是按照設(shè)計者的預(yù)期進行運作。無論這些因素是故意還是偶然所致,算法總會或多或少地受到個人或集體偏見的影響。例如,在算法程序的價值滲入上主要存在兩種路徑,“一是程序開發(fā)人員在設(shè)計算法時,參數(shù)設(shè)定會受到主觀價值偏好的影響;二是用戶在使用智能設(shè)備之時,可以根據(jù)自己的需要設(shè)置相應(yīng)的算法應(yīng)用參數(shù)”(45)〔美〕溫德爾·瓦拉赫、科林·艾倫:《道德機器:如何讓機器人明辨是非》,王小紅等譯,北京大學(xué)出版社2017年版,第1頁。。而在一個復(fù)雜算法程序中,算法的實際偏差很可能是由不同程序員指定的規(guī)則組合而成的,單個程序員的偏見通過匯集可能會產(chǎn)生更大的累積效應(yīng),由此作出的決策雖然能夠有效代替?zhèn)鹘y(tǒng)人腦的決策形式,但也可能會使其遭受質(zhì)疑。此外,數(shù)據(jù)挖掘?qū)λ惴ㄆ钜蔡貏e敏感,為確保數(shù)據(jù)挖掘揭示的模式比分析中的特定樣本更適用,樣本必須按比例代表整個人群。(46)See Solon Barocas,Andrew D.Selbst,Big Data’s Disparate Impact,104 California Law Review,671,686(2016).一旦某個樣本中包含特定類別不成比例的代表,那么該樣本的分析結(jié)果可能偏向于支持或反對代表過多或不足的類別。因此,將算法視為客觀中立的想法實質(zhì)上會掩蓋算法內(nèi)部運行的復(fù)雜情況,會忽視算法內(nèi)部邏輯的系統(tǒng)性和結(jié)構(gòu)性不公平因素,同時也會對算法的非中立性技術(shù)特性缺乏清醒的認(rèn)識。
事實上,立法性算法同樣并非具有中立性,一旦算法程序只是由特定主體控制產(chǎn)生,那么據(jù)此作出的決策,其公平性和合法性就將大大降低。因為公共決策的產(chǎn)生不能僅僅代表某一群體價值偏好或利益取向的簡單集合,它須是受影響者之間真正協(xié)商的結(jié)果,其中包括交流合理的觀點和建議以及共同尋求解決問題的辦法,這種協(xié)商模式能夠強化參與者的能動性和自我實現(xiàn),同時也能保證決策的科學(xué)性和民主性。在桑斯坦看來,協(xié)商可以聚合信息和觀念,使群體作為一個整體比其最好的成員知曉更多,做得更好,而協(xié)商的一個關(guān)鍵目標(biāo)就是確保能夠獲得廣泛分散的信息,并將其納入公共決策系統(tǒng)之中。(47)參見〔美〕桑斯坦:《信息烏托邦》,畢競悅譯,法律出版社2008年版,第52-56頁。雖然算法技術(shù)的誕生是為了將無限包圍在有限之中,但算法“黑箱”的出現(xiàn)卻加深了人類對算法運行過程中數(shù)據(jù)輸入或輸出的認(rèn)知盲點,從而打開了通向無限的大門。(48)See Erika Giorgini,Algorithms and Law,5 Italian Law Journal,131,148,149(2019).在立法領(lǐng)域,傳統(tǒng)立法權(quán)能夠受到憲法、法律或社會公眾等諸多力量的有效監(jiān)督和制約,而立法性算法的生成過程則對這些限制性力量構(gòu)成了突破,并有可能規(guī)避來自后者的制約和限制,這是人類可能面臨的新難題。
在當(dāng)下,有權(quán)機關(guān)利用算法可以較為快速、準(zhǔn)確地掌握社會公眾關(guān)注的焦點問題,并能真正了解社會公眾的真實需求,從而提高社會治理效率并推動國家治理績效的改進,以及改變部分領(lǐng)域的治理格局。(49)參見陳鵬:《算法時代的國家治理:在算法與法律之間》,載《法治社會》2019年第6期。但是,數(shù)據(jù)輸入和輸出、程序的設(shè)計也有可能會受到特定主體的影響和控制,使得受算法影響的主體被排除在參與和監(jiān)督的程序之外。為避免由此可能產(chǎn)生的不利后果,立法性算法的產(chǎn)生必須在遵循法定的程序要求下進行。與傳統(tǒng)立法中的立法公開、公眾參與、社會聽證等制度所能帶來的效果類似,公開透明及其問責(zé)兩個維度的算法治理目標(biāo)同樣可以在保障公眾參與和監(jiān)督算法程序設(shè)計上發(fā)揮重要作用。
立法程序?qū)α⒎ㄐ运惴ǖ脑僖?guī)范應(yīng)當(dāng)要求算法公開透明,這成為立法性算法規(guī)制領(lǐng)域的一個原則性建議。算法治理目標(biāo)的實現(xiàn)最終能否獲得理想效果,取決于公眾是否能夠準(zhǔn)確、及時地獲取有效的算法設(shè)計信息,并能對其決策內(nèi)容展開自由和公開的辯論。因此,權(quán)力機關(guān)在使用算法之前,應(yīng)當(dāng)嚴(yán)格遵照《立法法》第5條關(guān)于立法公開、公眾參與相關(guān)規(guī)定之要求。一方面,根據(jù)立法公開的基本原則,算法程序需要披露相關(guān)算法規(guī)則,其中包括正在優(yōu)化的目標(biāo)函數(shù)、用于優(yōu)化的方法以及算法的輸入變量和源代碼,如此方能保證公眾對算法程序設(shè)計的知情權(quán),從而有利于社會公眾(尤其是專業(yè)人士)針對立法性算法實施監(jiān)督,以及對算法決策提出公平性和合理性質(zhì)疑。另一方面,算法程序的設(shè)計既要注重公眾的形式參與,同時也要注重公眾的實質(zhì)參與,公眾意見在立法性算法程序中得以反映則是公眾參與的實質(zhì)性表現(xiàn)。國外學(xué)者認(rèn)為通過引入“法律設(shè)計”(50)斯坦福大學(xué)法律設(shè)計實驗室的瑪格麗特·哈根是最早提出“法律設(shè)計”一詞的人之一。哈根將其定義為一種以用戶為中心的意識形態(tài),被視為實現(xiàn)以人為中心的設(shè)計的過程、思維方式和機制集。思維的概念,將用戶的意見集中于嵌入算法系統(tǒng)之中,以確保技術(shù)解決方案從一開始就設(shè)計為滿足法律技術(shù)終端用戶的需求,(51)See Toohey Lisa、Moore Monique,Dart Katelane,Toohey Dan,Meeting the Access to Civil Justice Challenge:DigitalmInclusion,Algorithmic Justice,and Human-Centred Design,19 Macquarie Law,133,153(2019).以此提升公眾對算法程序設(shè)計的參與感。作為一種評估和創(chuàng)建法律服務(wù)系統(tǒng)的新模式,它主要通過對算法的過程、思維方式和機制的控制來幫助人類構(gòu)建和測試更好的法律行為模式,從而使非技術(shù)專業(yè)群體都能參與其中并獲得授權(quán)。(52)參見前引〔51〕,Toohey Lisa、Moore Monique、Dart Katelane、Toohey Dan文,第153-154頁。
另外,隨著公眾需求的多樣化、利益主體的多元化以及立法技術(shù)的復(fù)雜化,有效的公眾參與既要重視個體化的單方參與,同時也要重視組織化的社會參與。前者能為個人發(fā)表意見提供平等對話溝通之平臺,而后者能夠彌補個體因知識欠缺、能力不足導(dǎo)致立法參與缺失之不足。一方面,鑒于算法決策有可能加劇新的社會分層和拉大不同社會群體的差距,其程序的設(shè)計至少必須為那些生活在數(shù)據(jù)流之外的邊緣群體提供保障,保證那些數(shù)據(jù)足跡較小的群體在分配公共產(chǎn)品或服務(wù)之時有足夠的發(fā)言權(quán),以致不會受到算法的不平等對待。(53)See Lerman Jonas,Big Data and Its Exclusions,66 Stanford Law Review Online,55,61(2013-2014).與此同時,還應(yīng)當(dāng)保證算法決策須是根據(jù)同一套特定程序產(chǎn)生,并在每種情況下都平等一致地適用于任何人。因為對特定程序的遵守能夠代替那些對公民權(quán)利義務(wù)產(chǎn)生實質(zhì)性影響的算法決策產(chǎn)生的嚴(yán)格證明,并確保算法決策的產(chǎn)生是依賴于同樣的一套技術(shù)標(biāo)準(zhǔn)。須注意的是,算法程序設(shè)計的公開雖然能夠為公眾參與大開方便之門,但并不意味著所有人都能夠平等參與其中,即使可以,也會因流于形式而違背立法公開制度設(shè)計的初衷,而公眾參與算法程序設(shè)計的實際效果也會大大降低。由于算法所包含的知識內(nèi)容通常比較晦澀難懂,鑒于算法技術(shù)的專業(yè)性和算法語言的特殊性,在很多情況下,缺乏必要專業(yè)知識基礎(chǔ)的普通公眾很難參與到立法性算法程序設(shè)計當(dāng)中。對此,可通過引入“交流型專家”(54)譚笑:《技術(shù)問題決策中的專家話語和公眾話語——柯林斯(重思專能)的方案》,載《開放時代》2014年第6期,第220頁。來協(xié)助技術(shù)內(nèi)核部分,“在專家和公眾之間實現(xiàn)知識傳遞和共識達成,并在決策過程中細(xì)化和具化公眾參與的能力,從而保障公眾的實質(zhì)參與”(55)前引〔54〕譚笑文,第220頁。。作為連接公眾和權(quán)力機關(guān)的中間橋梁,“交流型專家”的作用在于將一些難以理解的算法人工語言向普通公眾進行傳遞,并對算法程序的設(shè)計提出專業(yè)性的意見和建議。(56)See Danielle K.Citron,Technological Due Process,85 Washington University Law Review,1249,1312(2007-2008).
在科學(xué)技術(shù)與民主關(guān)系的認(rèn)知、判斷與沖突之中,公眾對立法性算法程序設(shè)計的有效參與,還須保證其擁有掌握或了解算法技術(shù)的基礎(chǔ)知識與判斷能力,從而為立法性算法的民主化和科學(xué)化發(fā)展提供必要的條件,這既是在人工智能時代保持公眾獨立思考和批判能力的基本要求,也是應(yīng)對社會治理領(lǐng)域算法化方向轉(zhuǎn)變的重要舉措。因此,注重立法方法和觀念的時代轉(zhuǎn)變,培育公眾對立法性算法程序設(shè)計的參與技能,增強公眾的民主參與意識也顯得尤為重要。
事實上,對于涉及一些隨機因素的決策過程,即使是系統(tǒng)源代碼、輸入、操作環(huán)境和結(jié)果的完全透明,也不能排除結(jié)果可能以不可檢測的方式被錯誤地固定的可能性。(57)See Joshua A.Kroll,Solon Barocas,Edward W.Felten,Joel R.Reidenberg,David G.Robinson,Harlan Yu,Accountable Algorithms,165 University of Pennsylvania Law Review,633,650(2017).算法的語言和操作系統(tǒng)對于普通民眾來說非常難以理解,即使專家也常常難以理解算法程序的全部運行過程。因此,算法公開對于保障公眾有效的參與和監(jiān)督而言,其作用范圍十分有限。在此基礎(chǔ)之上,學(xué)界普遍認(rèn)為通過設(shè)計算法責(zé)任機制來促使利益相關(guān)者實現(xiàn)問責(zé)的目標(biāo),同樣能達到監(jiān)督和約束效果。算法問責(zé)體現(xiàn)為算法解釋,它能讓算法決策相對人有機會在充分知情的情形下主張自己的權(quán)利,并要求算法控制者以自然語言或可視化技術(shù)對算法邏輯尤其是輸入數(shù)據(jù)與輸出結(jié)果之間的相關(guān)性進行解釋。(58)參見解正山:《算法決策規(guī)制——以算法“解釋權(quán)”為中心》,載《現(xiàn)代法學(xué)》2020年第1期。就立法性算法的解釋而言,則表現(xiàn)為算法主體對算法決策產(chǎn)生邏輯的解釋要清晰、合理和言之有據(jù),不能違背憲法、法律相關(guān)規(guī)定的基本要求,并在算法解釋程序上能夠妥善處理公眾可能提出的質(zhì)疑。
傳統(tǒng)上,立法解釋的目的主要服務(wù)于法律實施,立法解釋工作是通過闡明法律概念、填補法律漏洞以及探究立法原義等方式,來促使存在爭議的法律規(guī)則能夠得以有效實施。而對立法性算法進行解釋的原理同樣在于,通過賦予公眾獲得關(guān)于立法性算法解釋的權(quán)利,以明確權(quán)力機關(guān)的解釋義務(wù)和技術(shù)責(zé)任,提高算法的透明度和公眾參與度,實現(xiàn)權(quán)力主體的可歸責(zé)性和公眾權(quán)利的可救濟性,從而推動立法程序和立法性算法的深度融合,最終能夠形成利益均衡、公平一致的算法決策。作為一種對算法決策產(chǎn)生過程公開原則之不足的補救辦法,對立法性算法的解釋既直觀地表現(xiàn)為一種打開“黑箱”的手段,通過公眾對算法程序的參與和監(jiān)督允許公眾對算法決策提出質(zhì)疑和糾正,同時也為公眾權(quán)利救濟提供一種必要的途徑。然而,作為一種事后的規(guī)制手段,對算法進行解釋必須受到立法程序的嚴(yán)格限制。因為根據(jù)權(quán)力的性質(zhì)和層級不同,其解釋的主體和程序以及解釋的效力也有所不同。因此,立法性算法解釋的相關(guān)程序設(shè)置理應(yīng)在立法解釋的框架范圍內(nèi)進行。
在現(xiàn)代民主社會里,社會正義和制度正義的實現(xiàn)要求保障和促進不同利益群體以合法的形式進行立法需求的表達和主張。而立法程序的意義就在于限制和消除立法活動中的恣意因素,廣泛聽取和接納不同群體的主張,以協(xié)調(diào)不同群體之間的利益沖突,進而制定出體現(xiàn)實質(zhì)正義的法律。盡管當(dāng)下人們還無法對算法程序的設(shè)計和應(yīng)用進行有意義的控制,但立法性算法與一般算法不同,它的產(chǎn)生必須嚴(yán)格依照立法程序的相關(guān)規(guī)定進行,保證公眾對立法性算法程序設(shè)計全過程的知情、參與和監(jiān)督。這既是保障公民權(quán)利的重要體現(xiàn),也是實現(xiàn)算法決策民主化和科學(xué)化的關(guān)鍵環(huán)節(jié)。因此,要實現(xiàn)立法程序?qū)α⒎ㄐ运惴ǖ脑僖?guī)范,就要求算法程序的設(shè)計必須以公開透明和問責(zé)制為主要原則,以確保公眾對立法性算法的充分參與和必要的權(quán)利救濟。