2007年,時(shí)任馬里蘭大學(xué)法學(xué)教授的希特倫提出了“技術(shù)性正當(dāng)程序”的概念,強(qiáng)調(diào)通過優(yōu)化計(jì)算機(jī)程序設(shè)計(jì)提高自動(dòng)化決策系統(tǒng)的透明性和可問責(zé)性。此前,德國著名行政法學(xué)家毛雷爾教授在1999年就已經(jīng)提出,必須從法治國家的角度認(rèn)識(shí)和規(guī)范“專門的技術(shù)程序”。申言之,再復(fù)雜、高深的技術(shù)程序也不允許從法治國家的規(guī)范中逃逸,否則就會(huì)形成法治國家的“蟲洞”,最終造成法治國只剩下一個(gè)“合法性的空殼”。
排除偏見,確保算法的公開、透明和程序一致性。排除算法歧視的技術(shù),需要借助于算法的公開、透明,同時(shí)確保程序的一致性。
第二,說明理由,提高算法的可解釋性。算法的解釋方法因算法模型的不同而有較大差異。影響算法可解釋性的關(guān)鍵因素,除了算法的透明度(白箱模型或黑箱模型),還有算法結(jié)構(gòu)的復(fù)雜度。在具體的解釋方法上,需要根據(jù)具體情況靈活運(yùn)用或者綜合運(yùn)用預(yù)建模的解釋和建模后的解釋、全局解釋與局部解釋等方法。同時(shí),提供審計(jì)跟蹤記錄以保證算法的可解釋性。
第三,聽取意見,包括允許質(zhì)疑、事后聽證、專業(yè)審計(jì)以及及時(shí)糾錯(cuò)。其一,對(duì)自動(dòng)化決策應(yīng)當(dāng)允許提出質(zhì)疑和挑戰(zhàn)。其二,自動(dòng)化決策的適用場(chǎng)景只能采取事后聽證。這也意味著:自動(dòng)化決策不能完全免除聽證,但聽證的形式可以變通。其三,在專業(yè)審計(jì)人員的協(xié)助下審查算法并及時(shí)糾錯(cuò)。
技術(shù)的發(fā)展帶來治理模式的轉(zhuǎn)變,自動(dòng)化行政方式下的行政處罰制度發(fā)展也出現(xiàn)了一定的變化性與不確定性。為了在這樣的變化中保護(hù)相對(duì)人的基本權(quán)利,需要構(gòu)建一定的程序底線,不管技術(shù)如何變化,相對(duì)人可以通過程序的保護(hù)來獲得應(yīng)有的公正。在自動(dòng)化行政時(shí)代,正當(dāng)程序原則還將繼續(xù)發(fā)揮重要作用。
第一,提高透明度與可解釋性。自動(dòng)化行政處罰中如果在程序、證據(jù)等方式中,使用了包含人工智能算法等在內(nèi)的新技術(shù),當(dāng)這種新技術(shù)對(duì)相對(duì)人權(quán)益產(chǎn)生重大影響時(shí),應(yīng)當(dāng)對(duì)這種技術(shù)影響處罰決定的方式做出解釋,或者說,應(yīng)當(dāng)至少保有解釋的能力。第二,確保技術(shù)運(yùn)用中的形式公平。在行政處罰這樣的負(fù)擔(dān)行為中應(yīng)當(dāng)建立起一系列程序公平的具體要求,從而使得新技術(shù)平等地適用于每一個(gè)體以及程序的設(shè)計(jì)不會(huì)特別地不利于特定的人。第三,評(píng)估與認(rèn)證??梢酝ㄟ^專業(yè)機(jī)構(gòu)與專業(yè)人士對(duì)技術(shù)手段予以測(cè)試,交流和發(fā)布可能存在的風(fēng)險(xiǎn),滿足正當(dāng)程序的需求,同時(shí)提高公眾的可接受度。
另外,在現(xiàn)階段的行政處罰中,自動(dòng)化系統(tǒng)出現(xiàn)錯(cuò)誤所導(dǎo)致的責(zé)任形式還難以以“人的行為”作為類比,而更多地接近于“物的瑕疵”。自動(dòng)化行政處罰的賠償責(zé)任中采用無過錯(cuò)責(zé)任原則更為恰當(dāng)。不過也應(yīng)當(dāng)注意到,自動(dòng)化系統(tǒng)錯(cuò)誤所導(dǎo)致的行政賠償責(zé)任與一般的物之責(zé)任還是存在明顯不同的。比如按照我國現(xiàn)行法,公共設(shè)施致害的“物的瑕疵”責(zé)任不納入國家賠償?shù)姆秶前凑彰袷鲁绦蛱幚淼?。這對(duì)于行政處罰錯(cuò)誤的責(zé)任和救濟(jì)來說是明顯不合適的。隨著技術(shù)的不斷發(fā)展,這兩種責(zé)任之間的不同還將愈發(fā)明顯。因此,從長(zhǎng)遠(yuǎn)來看,將自動(dòng)化系統(tǒng)錯(cuò)誤導(dǎo)致的責(zé)任予以單獨(dú)類型化,確定專門的責(zé)任構(gòu)成要件,是一種更為可取的路徑。
第一,基于行政信息公開原則增強(qiáng)算法自動(dòng)化決策透明度?,F(xiàn)有算法自動(dòng)化參與的行政活動(dòng)中,我國法律作出了一定調(diào)整,但仍在某些領(lǐng)域需要行政信息公開規(guī)則的回歸。首先,應(yīng)增強(qiáng)算法自動(dòng)化決策的可見性,作為行政信息公開的基本要求。其次,算法作出決策的基本規(guī)則和因素權(quán)重,應(yīng)該對(duì)公眾與社會(huì)公開。具體包括行政信息公開原則在算法數(shù)據(jù)收集環(huán)節(jié)的貫徹、行政信息公開原則與保護(hù)算法商業(yè)秘密的衡平以及行政信息公開與算法決策輸出的說明等三個(gè)方面。
第二,基于公眾參與原則進(jìn)行算法影響評(píng)估。行政正當(dāng)程序中的公眾參與原則具有重要的實(shí)體權(quán)利保障功能,應(yīng)從加強(qiáng)公眾參與與恢復(fù)相對(duì)人陳述和申辯權(quán)利兩個(gè)方面,發(fā)展算法治理時(shí)代的行政正當(dāng)程序。具體包括以算法影響評(píng)估保證公眾參與算法系統(tǒng)訂購與使用、將通知與申辯環(huán)節(jié)作為算法決策生效必經(jīng)程序等兩個(gè)方面。
第三,基于說明理由規(guī)則創(chuàng)設(shè)算法解釋權(quán)。由于數(shù)據(jù)來源的不透明、“算法黑箱”等因素,算法自動(dòng)化決策的結(jié)果是如何得出的卻難以為個(gè)體所知曉。算法治理時(shí)代應(yīng)在適用算法自動(dòng)化決策時(shí)堅(jiān)持并修正行政行為說明理由的制度。具體包括發(fā)展算法解釋權(quán)說明具體行政行為的理由、行政行為算法解釋的內(nèi)容和標(biāo)準(zhǔn)以及解釋語言清晰平實(shí)以書面形式作出等三個(gè)方面。
第一,從廣義的角度來看,行政程序也是救濟(jì)路徑之一,如告知、聽證等。對(duì)于處罰數(shù)額不大、情節(jié)認(rèn)定較容易的違法情形,自動(dòng)化執(zhí)法完全可以引入,同時(shí)為了保障相對(duì)人的程序性權(quán)利,減少或避免后續(xù)出現(xiàn)的救濟(jì)等問題,應(yīng)要求當(dāng)事人知情、確認(rèn)并認(rèn)可,而不能單純依賴自動(dòng)化執(zhí)法機(jī)器,不然很容易使相對(duì)人陷于“無知之幕”的恐慌之中。告知環(huán)節(jié)本身也應(yīng)依行政程序法的要求,行政機(jī)關(guān)應(yīng)采取短信、網(wǎng)絡(luò)等電子化方式輔之以書面告知等形式。此外,還有一點(diǎn)需要強(qiáng)調(diào),即依賴自動(dòng)化行政所作出的決定,在技術(shù)手段上需要確保行政相對(duì)人,即指令施加對(duì)象的可識(shí)別性。在多數(shù)情況下,自動(dòng)化行政更適宜于可采用簡(jiǎn)易程序的場(chǎng)合,實(shí)際上也就排除了聽證會(huì)的適用問題。如果自動(dòng)化行政在獲取信息的后續(xù)過程中,出現(xiàn)了諸如隱私權(quán)的侵?jǐn)_等問題,也就依然需要程序上的保障,尤其是正當(dāng)程序的保障。技術(shù)性正當(dāng)程序要求告知、聽證等必要的程序適用,尤其當(dāng)自動(dòng)化行政決定涉及公民的人身權(quán)、自由權(quán)時(shí);同時(shí)還須在技術(shù)上采用無歧視的數(shù)據(jù)挖掘技術(shù),避免個(gè)人被歧視;此外,還要求行政機(jī)關(guān)作出一定的理由說明。
第二,在特定的情形之下,作為傳統(tǒng)的救濟(jì)方式——申訴,仍存在適用的必要性。然而,基于自動(dòng)化行政的特征,我們需要對(duì)現(xiàn)有的申訴、信訪制度進(jìn)行一定程度上的改革以適應(yīng)信息時(shí)代。例如,設(shè)立機(jī)器智能委員會(huì)等專業(yè)委員會(huì)來辨別判定一些涉及自動(dòng)化行政的專業(yè)性問題。再如,歐洲議會(huì)法律事務(wù)委員會(huì)主張建立歐洲機(jī)器人和人工智能機(jī)構(gòu);還有些學(xué)者主張建立跨國的、獨(dú)立的、多利益相關(guān)的人工智能和數(shù)據(jù)委員會(huì)。他們認(rèn)為,人工智能不僅僅是一個(gè)公用事業(yè),一旦成熟就需要被監(jiān)管,它更是重塑生活、互動(dòng)和環(huán)境的強(qiáng)大力量,是人類棲息地向信息圈深刻轉(zhuǎn)變的一個(gè)部分。人工智能專業(yè)委員會(huì)不應(yīng)僅僅是行政機(jī)關(guān)的智囊團(tuán),也應(yīng)當(dāng)為行政機(jī)關(guān)和普通公民之間搭建橋梁,對(duì)于自動(dòng)化行政決策發(fā)揮說明、闡釋作用。在處置申訴、信訪過程中可以借鑒這種專業(yè)委員會(huì)的設(shè)置目標(biāo),即加入專業(yè)性的考量因素,借助第三方委托、協(xié)助等方式,更好地提升申訴、信訪處置的水平以及行政機(jī)關(guān)處理自動(dòng)化行政所涉問題的能力。如健康碼實(shí)施至今,各地都有設(shè)立復(fù)核制度,通過網(wǎng)絡(luò)化的復(fù)核實(shí)則也是信息化時(shí)代的一種申訴方式。下一步,司法實(shí)踐領(lǐng)域可借鑒英國法的經(jīng)驗(yàn),設(shè)立數(shù)據(jù)保護(hù)專員為數(shù)據(jù)控制者提供數(shù)據(jù)方面的建議,處理申訴。
第三,針對(duì)瑕疵指令所導(dǎo)致的不同后果,行政程序、行政活動(dòng)抑或事實(shí)行為更易在復(fù)議和訴訟環(huán)節(jié)發(fā)揮作用??傮w上,更多情況下,數(shù)據(jù)來源的瑕疵在自動(dòng)化行政決定中更容易構(gòu)成復(fù)議和訴訟中的證據(jù)來源。算法瑕疵在理論上是有可能構(gòu)成復(fù)議、訴訟的直接審查對(duì)象的,也就是說,伴隨著法院審查算法能力的加強(qiáng),未來也應(yīng)具備審查算法的能力。系統(tǒng)瑕疵,則更多被歸入事實(shí)行為,即使因此產(chǎn)生了對(duì)相對(duì)人權(quán)利義務(wù)的影響,也有復(fù)議、訴訟的可能性。在現(xiàn)有的法律體系下,審查對(duì)象實(shí)際上依然只是依據(jù)自動(dòng)化行政所作出的相應(yīng)的決定,而非自動(dòng)化行政本身。在復(fù)議和訴訟環(huán)節(jié),涉及自動(dòng)化行政的案件需考量幾點(diǎn):首先,從系統(tǒng)的設(shè)定、算法的設(shè)計(jì)等方面來看,自動(dòng)化行政在當(dāng)下更多地發(fā)揮了“輔助”和“助手”的功能,即便在直接作出決定的情形中也是如此。因此,在絕大多數(shù)情形下,相應(yīng)責(zé)任也應(yīng)歸由行政機(jī)關(guān)及其工作人員承擔(dān),除非有相反證據(jù)可以排除其責(zé)任。其次,舉證責(zé)任的分配或者相關(guān)問題的解釋,都應(yīng)本著有利于行政相對(duì)人的角度來進(jìn)行。隨著自動(dòng)化行政的發(fā)展,更需要加強(qiáng)對(duì)事前、事中的控制,司法機(jī)關(guān)作為最后的救濟(jì)主體,在未來會(huì)面臨著更多算法審查的挑戰(zhàn)。
〔文獻(xiàn)來源〕
余凌云:《交警非現(xiàn)場(chǎng)執(zhí)法的規(guī)范構(gòu)建》,載《法學(xué)研究》2021年第3期。
謝明睿、余凌云:《技術(shù)賦能交警非現(xiàn)場(chǎng)執(zhí)法對(duì)行政程序的挑戰(zhàn)及完善》,載《法學(xué)雜志》2021年第3期。
劉東亮:《技術(shù)性正當(dāng)程序:人工智能時(shí)代程序法和算法的雙重變奏》,載《比較法研究》2020第5期。
胡敏潔:《自動(dòng)化行政的法律控制》,載《行政法學(xué)研究》2019年第2期。
胡敏潔:《論自動(dòng)化行政中的瑕疵指令及其救濟(jì)》,載《北京行政學(xué)院學(xué)報(bào)》2021年第4期。
張凌寒:《算法自動(dòng)化決策與行政正當(dāng)程序制度的沖突與調(diào)和》,載《東方法學(xué)》2020年第6期。
馬顏昕:《自動(dòng)化行政的分級(jí)與法律控制變革》,載《行政法學(xué)研究》2019年第1期。
馬顏昕:《自動(dòng)化行政方式下的行政處罰:挑戰(zhàn)與回應(yīng)》,載《政治與法律》2020年第4期。