文/張凌寒
在人工智能時代,自動化決策嵌入政府的行政治理中,撼動了傳統(tǒng)行政活動的運行規(guī)律和基本范式。算法自動化決策給傳統(tǒng)行政正當(dāng)程序帶來了挑戰(zhàn)。更重要的是,算法可以提前預(yù)測風(fēng)險,進而調(diào)配行政資源,這一活動卻完全不受正當(dāng)程序的控制。以禁飛名單為例,算法根據(jù)既往違法人員的特征,預(yù)測高風(fēng)險人群并禁止其登上飛機。換句話說,被禁飛的人并非已經(jīng)違法而是有違法風(fēng)險。但是,直到被阻止登上飛機之前,公民并不知曉其被列入名單,也不知曉被列入名單的原因與過程。保證行政活動可信和正當(dāng)?shù)男姓?dāng)程序面臨失靈的風(fēng)險。在算法自動化決策逐步廣泛深度嵌入行政活動的背景下,如何堅持、修正和發(fā)展正當(dāng)程序原則是亟待研究的重大議題。
算法自動化決策加強了行政機關(guān)對治理對象信息處理分析能力,產(chǎn)生了行政權(quán)力的增強效應(yīng)。同時,算法自動化決策使正當(dāng)程序控制失靈。此消彼長下,形成了“權(quán)力—權(quán)利”失衡的格局。
算法自動化決策的應(yīng)用使得行政機關(guān)與治理對象的信息不對稱得到了極大緩解,有效增強了政府的權(quán)力運行的廣度、深度和密度。首先,政府收集的信息數(shù)量和質(zhì)量得到了極大提高。海量信息有效助力于行政檢查、行政命令等多種行政活動。其次,政府處理、輸出信息的能力增強,因此行政執(zhí)法力度與強度也遠強于過去。最后,政府通過算法自動化決策對行政活動大數(shù)據(jù)進行分析,預(yù)測評估行政相對人的風(fēng)險指標(biāo),在違規(guī)發(fā)生之前進行干預(yù)。算法自動化決策成為行政權(quán)力實現(xiàn)和有效運行的能源和催化劑,也在此基礎(chǔ)上強化了其說服權(quán)力行使對象的能力。
算法自動化決策的不透明性遮蔽了行政公開原則,算法設(shè)計運行的技術(shù)壟斷架空了公眾參與原則,算法決策黑箱無法為相對人提供理由說明,算法自動化決策與行政正當(dāng)程序產(chǎn)生了嚴(yán)重沖突。
從信息論角度觀察,正當(dāng)程序制度實際上是一種信息工具,通過在政府與行政相對人之間建立信息溝通機制,緩解行政相對人的信息不對稱。正當(dāng)程序制度的核心內(nèi)容包含著行政活動前的“信息發(fā)送”工具、行政活動中的“信息溝通”工具、行政行為后的“信息糾正”工具。盡管信息不對稱無法最終消除,但通過正當(dāng)程序“發(fā)送信息”是法律對行政行為的基本合法性要求。
然而,行政正當(dāng)程序的信息發(fā)送功能由于算法自動化決策阻礙無法實現(xiàn)。無論是反應(yīng)型算法壓縮行政程序各個環(huán)節(jié)造成行政正當(dāng)程序的缺省,還是預(yù)測型算法直接作為內(nèi)部決策規(guī)避行政正當(dāng)程序,最終均導(dǎo)致行政相對人無法接收到行政機關(guān)通過行政正當(dāng)程序發(fā)送的信息。具體而言,尤其以行政公開原則、公眾參與原則與說明理由規(guī)則為甚。
算法導(dǎo)致的行政公開原則缺失可分為兩類原因:不愿公開與公開不能。第一類原因是算法的采購、設(shè)計與運行,甚至算法的存在本身,政府基于各種考慮可公開而不愿公開。第二類原因是“算法黑箱”造成的公開不能:數(shù)據(jù)收集由于公共利益豁免知情同意規(guī)則而不透明、算法決策過程由于商業(yè)秘密保護而不公開、數(shù)據(jù)分析結(jié)果與決策之間轉(zhuǎn)換不公布。
算法不透明可能由于政府嚴(yán)重的技術(shù)依賴形成惡性循環(huán)。這進一步導(dǎo)致了某個專門的算法系統(tǒng)長期壟斷某行政部門的行政活動技術(shù)支持,更加缺乏來自社會公眾的監(jiān)督。因此,調(diào)和算法自動化決策與行政信息公開的原則需平衡三方利益:要求企業(yè)披露算法的相關(guān)信息,又不損害商業(yè)秘密和競爭優(yōu)勢,同時還能夠確保公眾監(jiān)督。
公眾參與原則的核心理念是“聽取公眾意見”:第一,公眾應(yīng)有權(quán)利參與行政活動,這體現(xiàn)了正當(dāng)程序的公共意志形成功能;第二,在具體行政行為中,應(yīng)充分聽取當(dāng)事人的陳述和申辯。算法自動化決策系統(tǒng)由私營公司“技術(shù)壟斷”,因此,公眾的參與權(quán)難以得到保障。
在算法廣泛嵌入行政活動的背景下,公眾參與原則面臨兩重障礙。第一,公眾參與行政活動面臨私營企業(yè)技術(shù)壟斷的障礙。公眾沒有機會在行政活動中融入自身的價值判斷和權(quán)利主張,無法實現(xiàn)對行政權(quán)力濫用的程序性控制。第二,自動化(半自動)行政行為根據(jù)算法設(shè)定的規(guī)則運行,這一過程由行政機關(guān)與技術(shù)公司壟斷,沒有為行政相對人提供陳述與申辯的機會。算法自動化決策既回避了行政決策的公眾參與和聽證,也消解了具體行政行為層面的當(dāng)事人陳述和申辯的程序,造成了公眾參與原則的缺失。
類型分布分別是感染性職業(yè)暴露47例次,其中黏膜暴露4例次(8.16 %),銳器傷43例次(87.76%);化學(xué)性職業(yè)暴露1例次(2.04%);其他職業(yè)暴露1例次(2.04%)。
預(yù)測型算法作出行政決策的時點是在行政對象做出行為之前,依據(jù)是大數(shù)據(jù)的相關(guān)關(guān)系而非因果關(guān)系,因此無法提供理由說明,可能違反法律面前人人平等的原則。而且,算法預(yù)測準(zhǔn)確率無法保證,一旦出錯可能造成無法挽回的損失。
算法深度學(xué)習(xí)與相關(guān)可能存在的預(yù)測失真問題由于算法自動化決策無法提供理由說明,算法決策缺乏有效的法律程序控制,易于不斷自我肯定與強化,造成行政行為持續(xù)性錯誤與相對人權(quán)利受損。
首先,應(yīng)增強算法自動化決策的可見性,并將其作為行政信息公開的基本要求。政府應(yīng)公布政府部門自動化決策清單,讓公眾知曉哪些行政活動有自動化決策的參與,了解算法自動化決策可能帶來的權(quán)利影響。
其次,算法作出決策的基本規(guī)則和因素權(quán)重,應(yīng)該對公眾與社會公開。各類智能機器、評估模型等自動化設(shè)備的設(shè)置及啟用以及運作方式,都由行政機關(guān)發(fā)出指示,行政機關(guān)仍是行政程序的主宰,所作出的表示或決定,都是行政機關(guān)的行為,具有法效意思及規(guī)制效力,性質(zhì)上仍為具體行政行為。形式的改變并不能豁免政府信息公開的義務(wù)。
以上是行政信息公開原則對算法自動化決策應(yīng)用于行政活動的基本要求。除此之外,行政信息公開原則面臨著算法黑箱的挑戰(zhàn),需作出相應(yīng)的調(diào)整。
首先,行政機關(guān)收集數(shù)據(jù)同樣受到“合法、正當(dāng)、必要”原則的限制,應(yīng)在行政活動中逐漸將此類規(guī)則細化。以新冠疫情防控為例,無論是健康碼對個人敏感數(shù)據(jù)的大規(guī)模收集與使用,還是大數(shù)據(jù)對公民的追蹤定位,包括社區(qū)出入居民的信息登記,均應(yīng)有公共衛(wèi)生緊急狀態(tài)作為正當(dāng)性基礎(chǔ)。在由緊急狀態(tài)恢復(fù)為日常狀態(tài)之后,即使疫情狀態(tài)防控常態(tài)化,也應(yīng)避免對公民個人數(shù)據(jù)的收集與追蹤常態(tài)化。
其次,盡管基于公共利益考慮無法要求政府再次獲得數(shù)據(jù)個體的知情同意,但起碼應(yīng)在平臺向個體收集數(shù)據(jù)時,作出“不利行為”通知。例如,應(yīng)提示行政相對人,自動化決策結(jié)果參考了個人的公開信息、犯罪記錄、信息記錄,甚至可能是社交媒體使用情況。
此外,法律應(yīng)及時劃定政府獲取第三方平臺數(shù)據(jù)的邊界,防止政府以公共利益為名無限度獲取平臺通過知情同意收集的用戶數(shù)據(jù),并規(guī)定政府做好相關(guān)的數(shù)據(jù)安全保障工作。
堅持行政公開原則,必須衡平商業(yè)秘密保護與公民正當(dāng)權(quán)利之間的價值位階。一套算法系統(tǒng)可對多個行政相對人產(chǎn)生法律效力,一旦發(fā)生錯誤可能產(chǎn)生彌散化的損害后果。而具備正當(dāng)性的規(guī)則應(yīng)具有可預(yù)測性,這種對規(guī)則的知情權(quán)既是一種人權(quán),也是可依據(jù)我國憲法推導(dǎo)出的公民權(quán)利。相對于私營公司的商業(yè)秘密保護,顯然價值位階更高。
算法自動化決策系統(tǒng)信息公開的不足會導(dǎo)致民眾對政府公權(quán)力信任的不足,民眾信任的缺失可能導(dǎo)致更多的上訴,抵消掉算法系統(tǒng)帶來的行政效率提高效應(yīng)。因此,未來在政府內(nèi)部增加專業(yè)力量,由既懂行政規(guī)則又懂技術(shù)的人員來監(jiān)督算法設(shè)計運行,方為解決之道。
行政信息公開應(yīng)包括該行政決策結(jié)果在何種程度參考了算法自動化決策結(jié)果的信息。對于某個具體的行政行為,算法自動化決策可能起到不同程度的作用:直接成為生效的行政行為或需要進行進一步人工審核。在此意義上,算法自動化決策對具體行政行為的干預(yù)程度和行政決策的可逆性應(yīng)向行政相對人公開??紤]到行政權(quán)力有著諸多不可讓渡的空間,并且涉及國家等基本概念的存系,應(yīng)盡量減少算法直接作出行政決定的情況。
同時,應(yīng)尤其注意算法自動化決策結(jié)果對技術(shù)弱勢群體的說明方式。應(yīng)在信息公開環(huán)節(jié)同樣照顧老人、受教育程度較低人群等技術(shù)弱勢群體,以簡明(例如圖畫)方式對公眾說明算法自動化決策。
行政正當(dāng)程序中的公眾參與原則具有重要的實體權(quán)利保障功能,應(yīng)從加強公眾參與與恢復(fù)相對人陳述和申辯權(quán)利兩個方面,發(fā)展算法治理時代的行政正當(dāng)程序。
算法影響評估是既有行政制度資源的發(fā)展,可參考環(huán)境影響評估等類似的相關(guān)制度。政府使用算法自動化決策前,行政相對人、研究人員和決策者共同參與影響評估。這為公眾提供了算法系統(tǒng)部署前發(fā)現(xiàn)問題、表達訴求主張,甚至反對使用算法的機會。這一過程本身就是向社會提供算法系統(tǒng)信息的機制,能夠讓公眾更加了解情況、增加算法透明度,并讓政府部門、算法研發(fā)人員和公眾進行富有成效的對話。
算法自動化決策的評估程序,不僅是公眾參與的有效路徑,也是算法設(shè)計者和使用者(平臺或政府)進行自我監(jiān)管的重要方式。例如,我國中央網(wǎng)信辦要求算法應(yīng)用進行自我安全評估。舉輕以明重,由政府部門購買使用的算法自動化決策,應(yīng)在投入使用并切實影響公民權(quán)利之前,經(jīng)過公眾參與的算法評估程序。
首先,應(yīng)避免全自動行政行為直接對當(dāng)事人發(fā)生法律效力,保證行政相對人可以收到算法自動化決策的有效通知,并將其作為行政行為生效的必經(jīng)程序。當(dāng)算法作出了不利于當(dāng)事人的決定時,按照正當(dāng)程序應(yīng)該提供有效通知。算法自動化決策應(yīng)以對相對人的及時通知作為后續(xù)行政活動展開的基礎(chǔ),公民可以主張相關(guān)內(nèi)容的更改、撤銷或者無效,方可為公民提供后續(xù)的救濟路徑。
其次,應(yīng)保證當(dāng)事人有陳述和申辯的權(quán)利,確保公民獲得人工干預(yù)算法自動化決策的權(quán)利。算法自動化決策做出具體行政行為的情況下,具體個案的聽證成本極高,并不符合成本—收益分析法。歐盟《通用數(shù)據(jù)保護條例》(GDPR)第22條為類似境遇的相對人提供了出路:相對人具有不受完全的自動化決策支配的權(quán)利,以及獲得人為干預(yù)的權(quán)利。該條款的目的旨在保護數(shù)據(jù)主體的利益,保障數(shù)據(jù)主體可以參與對其重要的決策。
由于數(shù)據(jù)來源的不透明、算法黑箱等因素,算法自動化決策的過程難以為個體所知曉。算法治理時代應(yīng)在適用算法自動化決策時堅持并修正行政行為說明理由的制度。
各國的立法者與學(xué)界已達成共識,自動化決策的算法應(yīng)當(dāng)具備可解釋性,使得用戶有權(quán)知曉決策的原因。
如果將算法自動化決策看作是專家論證,行政決策的科學(xué)性也必然要求建立行政決策專家咨詢的說明理由制度。算法自動化決策經(jīng)常以“專家決策輔助系統(tǒng)”的形式參與行政決策,行政部門應(yīng)以其理性解釋回應(yīng)公眾疑問,這既是對行政決策理性內(nèi)涵的解釋,也是對公眾的一種負(fù)責(zé)任的回應(yīng)。無法提供理由說明的專家意見直接影響行政決策的效力。在司法實踐中,以專家咨詢結(jié)論說理不充分為由否定行政決策的個案并不鮮見。
算法解釋權(quán)已經(jīng)從理論逐步發(fā)展為各國的具體制度。法國2016年頒布實施的《數(shù)字共和國法》規(guī)定了較為具體的針對公共部門的算法解釋權(quán)。加拿大公共部門算法的自動化決策指令在2020年4月生效,要求使用算法決策的公共部門應(yīng)就其決策,甚至包括決策中使用的變量,向受影響的個人提供有意義的解釋??梢?,向行政相對人個體提供具體的算法解釋具有不可替代的制度價值,并逐漸成為各國實踐。算法影響評估制度并不能代替算法解釋權(quán)制度,因為其旨在規(guī)避事前風(fēng)險,而非進行事后的個體救濟。
理由說明不僅要使相對人知曉決定是如何作出的,同時還應(yīng)提供相對人可修正自動化決策的方法。具體的自動化決策算法解釋的理由說明包括:具體決策的理由和原因,以及產(chǎn)生決策結(jié)果的個人數(shù)據(jù)。
政府部門提供的算法解釋應(yīng)遵循以下標(biāo)準(zhǔn):第一,自動化決策的算法解釋應(yīng)由監(jiān)管部門統(tǒng)一提供格式解釋文本,保證算法設(shè)計者和使用者提供的解釋客體完整且無遺漏;第二,政府應(yīng)作出具體行政行為的理由說明,如不能提供理由則應(yīng)視為沒有理由,這可能直接導(dǎo)致政府算法自動化決策的行為失效;第三,解釋語言清晰平實,應(yīng)遵循具體行政行為說明理由的要求,或以書面形式作出,或在做出行政行為時必須說明,方便為日后行政訴訟與算法問責(zé)留存證據(jù)。
在算法治理時代,亟須遵循行政正當(dāng)程序的制度精神以改變對算法“技術(shù)中立”的錯誤認(rèn)識,避免“算法監(jiān)獄”與“算法暴政”的產(chǎn)生。算法治理時代,堅持、修正與發(fā)展正當(dāng)程序的具體制度,是政府負(fù)責(zé)任地應(yīng)用算法自動化決策的基本要求。