□胡敏潔
(浙江大學光華法學院,浙江杭州310008)
自動化行政被日漸廣泛運用于行政領域之中,它具有使行政決定更為精確、一致,以及節(jié)約成本并有助于成本收益,減少行政官員任意用權等優(yōu)點,但同時也可能帶來諸多問題,如破壞正當程序、產生算法黑箱等[1]。例如,2018年,杭州某公民參加了小客車指標搖號,并于2019年6月獲得了指標,但由于未接到通知,直到2020年指標已過期時才發(fā)現。根據《杭州市小客車總量調控管理規(guī)定》第46條規(guī)定,逾期未使用的,視為放棄指標,自有效期屆滿次日起,兩年內不得申請增量指標。該情形實際上是由于系統(tǒng)發(fā)送失敗,導致該公民未獲得相關短信。面對此種情況,該行政相對人如何才能獲得相應救濟?再如,2014年最高人民法院發(fā)布的指導案例26號“李健雄訴廣東省交通運輸廳政府信息公開案”。原告于2011年6月1日通過廣東省人民政府網絡系統(tǒng)向被告廣東省交通運輸廳提出政府信息公開申請,根據《中華人民共和國政府信息公開條例》規(guī)定,被告應在當月23日前答復原告,但被告未在法定期限內答復及提供所申請的政府信息,故原告請求法院判決確認被告未在法定期限內答復的行為違法;而被告廣東省交通運輸廳辯稱,由于外網進入內網數據處理需要一定的時間,致使被告未能收到,進而未能及時受理申請①“李健雄訴廣東省交通運輸廳政府信息公開案”,參見廣東省廣州市越秀區(qū)人民法院一審行政判決書(2011)越法行初字第252號。。此案中公民是按照要求通過政府公眾網絡提交政府信息公開申請,但如何界定收到政府信息公開申請起算日期?再如,新冠肺炎疫情防控期間,由于某種技術故障、個人信息更新不及時,或者在高鐵途經中高風險地區(qū)但乘客未下車的情況下,仍然可能導致健康碼顯示為不合格,相對人又該如何尋求救濟?可以預見,諸如此類具有瑕疵的指令在自動化行政指令頻繁使用的未來,會更多地浮出水面。
參考行政行為瑕疵理論,本文所指的自動化行政瑕疵指令主要是指基于自動化行政中的數據來源錯誤、算法錯誤以及系統(tǒng)錯誤等產生的瑕疵,情況嚴重的情形下也可包括違法的自動化指令,如存在歧視、違背公平等瑕疵指令。
由于自動化行政很多情形下為“一次性”生成,需要對自動化行政中產生的瑕疵指令加以區(qū)分并依不同路徑給予救濟和保障。本文所探討的問題正集中于此,即對于因自動化行政中產生的瑕疵指令所引發(fā)的后果,行政相對人如何獲得相應的救濟。
自動化行政中的瑕疵指令來源于多種可能,我們不能僅從其表象來判斷法律責任或者救濟措施。這種表象背后所形成的機理,包括后續(xù)的相應救濟手段各異。
任何一種自動化行政都需要搜集數據。如果數據來源出現問題,那以此得出的結論則從根本上就是錯誤的。例如,健康碼生成過程中,因個人不慎填寫了錯誤數據導致紅碼而無法現場修正;再如,信息獲取時識別錯誤,2018年,寧波交警執(zhí)法時曾通過自動化人臉識別系統(tǒng)所搜集的董明珠“違法”信息,實則為相應的車身廣告上的照片,并無真實違法事件發(fā)生①參見《董明珠闖紅燈被交警公示?人臉識別出錯鬧烏龍》,https://baijiahao.baidu.com/s?id=161779451500800089 9&wfr=spider&for=pc.;還有,電子監(jiān)控設備由于其固有的缺陷,可能會無法辨識某一時刻的特定行為所導致的錯誤判斷。2020年公安部修改的《道路交通安全違法行為處理程序規(guī)定》②參見公安部關于修改《道路交通安全違法行為處理程序規(guī)定》(公安部令第157號)。第22條規(guī)定,“交通技術監(jiān)控設備記錄或者錄入道路交通違法信息管理系統(tǒng)的違法行為信息,有下列情形之一并經核實的,應予以消除:警車、消防車、救護車、工程救險車執(zhí)行緊急任務的;機動車被盜搶期間發(fā)生的;有證據證明救助危難或者緊急避險造成的;現場已被交通警察處理的;因交通信號指示不一致造成的;……其他應予消除的情形?!被谠摋l所規(guī)定的消除情形進行反向思考,也可認為,錄入道路交通違法信息管理系統(tǒng)的違法行為信息有可能會出現與實際情況不符合的“錯誤”情形。
如在“高瑞麗與鄭州市公安局交警十大隊公安交通處罰案”中,原告年審核驗時,遇到被告以原告車輛有“電子眼”違章記錄為由要求交納罰款,否則不給審車,直到2013年12月11日,原告在被迫交納“電子眼”違章罰款后,車輛才審驗③“高瑞麗與鄭州市公安局交警十大隊公安交通處罰案”,參見河南省鄭州市金水區(qū)人民法院一審行政判決書(2014)金行初字第124號。。該案原告認為,被告所采用的電子眼均沒有依法向計量法規(guī)定的政府計量監(jiān)督管理部門申請安裝檢定和強制性年度檢驗,該“電子眼”的信息作為處罰依據是不合法的。當然,法院最終認為《中華人民共和國計量法》相關規(guī)定因機動車年檢的行政主體與交通違法處理的行政主體不同,前者為質檢部門,后者為交通管理部門;機動車年檢并非作為被告的交管部門的法定職責,原告所稱的被告濫用職權沒有依據。然而,這并不表明“電子眼”即使未經年審也不存在合法性的問題,只是在本案中因為主體不適格,法院未予以認定。再如當下,公共治理的許多領域都在使用的信用評價懲戒機制,信用評價其實也是基于各種各樣的數據來源,如果這些數據本身存在問題,結果亦然?!渡虾J嗅t(yī)療衛(wèi)生人員權益保障辦法》第37條規(guī)定:公安機關等應當依法及時向市公共信用信息平臺歸集相關信息;相關違法行為輕微或者主動消除、減輕違法行為危害后果的,不予歸集;市衛(wèi)生健康主管部門應當匯總前款規(guī)定的失信信息,及時推送至醫(yī)療衛(wèi)生機構及醫(yī)療保障機構④參見《上海市醫(yī)療衛(wèi)生人員權益保障辦法》(上海市人民政府令第40號,2021年3月1日發(fā)布)。。
自動化行政縮減了公務人員的裁量空間,將規(guī)則以電子化形式確定,這在一定程度上有助于行政主體更為理性地處理案件,但也正因為其非常固定和機械化,導致行政指令過于依賴數據反受其制約,從而滋生由數據錯誤所導致的諸多問題。
計算機不僅是數字計算器,還是數字和符號處理器。它需要按照一定的規(guī)則進行計算,或者比較擅長計算以及類似工作[2],但如果出現了部分指令錯誤或者缺損,其最終也會給出一個錯誤的結果。例如,健康碼實施以后,實際上各地就發(fā)生過很多例由于后臺信息搜集錯誤所導致的非正常變碼案例,因健康碼顯示與實際不符而申請復核的人數僅在上線四天內便有三萬余人⑤參見《“杭州健康碼”網絡復核通道開通》,杭州新聞網,https://hznews.hangzhou.com.cn/chengshi/content/2020-02/16/content_7677066.htm.。各地在具體信息搜集程序上差異明顯,也存在統(tǒng)一規(guī)范等方面的問題。技術后臺基于哪些數據比對分析?對各類數據如何賦值?在數據沖突時如何處理?如何具體確定風險等級的評定標準以及動態(tài)調整的具體依據為何?這些由行政機關設定的標準并未被公開[3]。
再如,某個內部系統(tǒng)指令設計可能存在問題,因為即使最好的程序設計者,都會存在不足。由于缺乏具有個案特點的語境,同時交通違法測速中也需要一些傳統(tǒng)的警察領域知識,算法會出現一定的瑕疵,包括缺乏適當的傳感器數據或無法處理軟件中的高級認知功能[4]。
就目前人類所處的智能時代而言,自動化行政所依托的智能系統(tǒng)本身難免具有瑕疵,不能獨立作出行政決策,典型的如各種道路上所設置的交通電子化監(jiān)控設備?!兜缆方煌ò踩`法行為處理程序規(guī)定》第15條規(guī)定,公安機關交通管理部門可以利用交通技術監(jiān)控設備收集、固定違法行為證據;交通技術監(jiān)控設備應當符合國家標準或者行業(yè)標準,并經國家有關部門認定、檢定合格后,方可用于收集違法行為證據;交通技術監(jiān)控設備應當定期進行維護、保養(yǎng)、檢測,保持功能完好。在“方毅與金華市公安局交通警察支隊公安行政管理、道路交通管理二審案”中,上訴人指出,交通技術監(jiān)控設備如果不符合法律規(guī)定,就等于這么多年一直在侵犯社會公眾的巨大合法經濟利益還有安全利益……法律既然規(guī)定了需要對交通技術監(jiān)控設備定期維護、校準、檢測,交警當然必須要依法執(zhí)行①“方毅訴金華市公安局交通警察支隊公安行政管理、道路交通管理二審行政案”,參見浙江省金華市中級人民法院二審行政判決書(2020)浙07行終字195號。。上訴人的主張雖然較為樸素,但實際上也生動地表明了機器故障可能會引發(fā)的問題。當然,法院最終認為在認定違法行為的證據確實充分的情況下,是否達到該技術規(guī)范要求以及是否提供設備維護證據,并不影響案涉行政處罰合法性的認定。
再如,行文之初的最高人民法院指導案例26號中,被告廣東省交通運輸廳辯稱:原告申請政府信息公開通過的是廣東省人民政府公眾網絡系統(tǒng),即省政府政務外網(以下簡稱省外網),而非被告的內部局域網(以下簡稱廳內網)。由于被告的廳內網與互聯網、省外網有物理隔離,互聯網、省外網數據都無法直接進入廳內網處理,需通過網閘以數據“擺渡”方式接入廳內網辦理,因此被告工作人員未能立即發(fā)現原告在廣東省人民政府公眾網絡系統(tǒng)中提交的申請,致使被告未能及時受理申請。從中我們可以看出,系統(tǒng)故障會影響信息公開申請的時間點,也會對后續(xù)事實的認定產生影響。
自動化行政指令以數據為基礎,依托于各種計算機系統(tǒng),借助算法進而形成某個規(guī)則、命令。從行政機關來看,它替代了各種行政人員的調查取證,甚至發(fā)展到現在,可以在自動收集證據的基礎上自動直接作出行政決定。例如,在“田志鵬訴陜西省西安市公安局站前分局行政處罰糾紛案”中,西安市公安局交通警察支隊設立了道路交通違法自助繳納系統(tǒng)。田志鵬因在交警大廳處理違章時,沒有出具簡易程序《處罰決定書》,違反了《道路交通安全法》中關于處罰程序的規(guī)定,請求依法撤銷行政處罰決定②“田志鵬訴陜西省西安市公安局站前分局行政處罰糾紛案”,參見西安鐵路運輸法院一審行政判決書(2017)陜7102行初1115號。。這種自動化行政是否還須遵循傳統(tǒng)的行政程序法要求?相應的后續(xù)救濟措施應當為何?這便是對自動化行政帶來的瑕疵指令所應當考慮的法規(guī)范基礎。
相對于傳統(tǒng)行政而言,自動化行政最直觀的特征是,自動化行政指令一般是電子化的,而我們傳統(tǒng)的行政活動方式以及決定常常強調書面、正式等要求,即所謂的要式行政行為;僅僅對于一些緊急情況或者行為內容較為簡單的情形,可能采用非要式行政行為方式。這是形式意義上的差別,而從實質比較來看,自動化行政指令易出現瑕疵,至少有如下兩個方面:
1.縮減裁量:自動化行政縮減了行政機關工作人員的裁量空間。依靠指令,這種裁量成為了機械化的規(guī)則制定,裁量中須考量的相關因素可以通過系統(tǒng)事先的設定輸入,不需要考量的相關因素則事先被剔除。機器將計算出數以百萬計連接的微指令,這些指令可以實現法律規(guī)范的策略目標。這個復雜的微指令目錄可以針對行為的小實例應用于更大的行為動作網絡,實現更廣泛的目標[5]43。當然,法哲學家對此頗有爭議,因為在他們看起來法律必然是模糊和不確定的,法律推理過程需要理解和支持類比推理的原則[6]。再比如,法律往往要求實現公平,那這種公平可以被量化嗎?首先,公平是一個模糊的概念,法律上的公平被翻譯成算法公平可能存在困難;其次,公平被量化、被算法化可能帶來歧視問題。美國聯邦貿易委員會(FTC)發(fā)布的《大數據:包容性工具抑或排斥性工具?》(Big Data:a Tool for Inclusion or Exclusion?)報告,特別關注大數據中的歧視和偏見問題:數據集是否具有代表性?所使用的數據模型是否會導致偏見?基于大數據進行預測的準確性如何?對大數據的依賴是否會導致道德或者公平性問題?這些問題往往都伴隨著縮減裁量而產生[7]。盡管我們一直為濫用裁量權所困,但基于行政的效率考量以及個案決定要求,它的存在卻是必要的。當我們從一個需要個性化判斷的行政決定走向規(guī)程化的程序中,社會的整體利益、人性情感、地方習俗等因素都可能被忽略。
2.縮減程序:自動化行政縮減了行政行為的程序環(huán)節(jié)。如在“田志鵬訴陜西省西安市公安局站前分局行政處罰糾紛案”中,田志鵬認為,在交警大廳處理違章時,行政主體沒有出具簡易程序《處罰決定書》,違反了《道路交通安全法》的程序規(guī)定。法院在審判中認為,田志鵬的違法行為事實清楚,被告適用簡易程序符合規(guī)定,至于未出具《處罰決定書》,那是因為自助繳納系統(tǒng)本身可以自行打印且被告在處理大廳公示了違法處理流程,張貼有《法律文書補打流程告知》以及相關操作說明;田志鵬可依據操作說明在處理大廳自助系統(tǒng)打印出《處罰決定書》,但原告未按照上述告知內容打印,因而其主張被告沒有明示自助繳費,不向其出具《處罰決定書》等意見,法院不予采納,其訴訟請求被駁回。該案從形式上來看,程序被縮減,但實質上轉移為另一種形式,即自助打印,而此時原告已繳納罰款,可視為自行放棄了相應權利。但這里自然提出相關問題,是不是自動化行政所依賴的程序都是簡易程序?或者可以缺省必要的程序?此時是否可以將行政主體的義務轉化為行政相對人的權利?自動化執(zhí)法系統(tǒng)會威脅程序性權利,即相對人被通知和進行申辯的機會。為救濟相對人的合法權益,任何自動化執(zhí)法系統(tǒng)都應該有大量的失效保護、冗余備份及相關機制,以確保完成適當的通知且個人可以有效地對自動出具的懲戒提出上訴[8]。
算法是自動化行政的核心內容。理解算法,才能理解緣何自動化行政會產生瑕疵并引發(fā)諸多問題?!八惴ň褪且幌盗兄噶?,告訴計算機該做什么”?!八惴ǖ暮诵木褪前凑赵O定程序運行以期獲得理想結果的一套指令”[8]。所有的算法都包括如下共同特點:輸入、輸出、明確性、有限性、有效性。自動化行政發(fā)展的趨勢便是學習型算法,這種算法會增加諸多人類所具有的判斷,具有直覺和獨創(chuàng)性,可以根據概率來權衡可能的未來。盡管當下我們上文所討論的很多問題還稱不上是這種學習型算法,但類似地,技術監(jiān)控也好,自動化罰款繳納系統(tǒng)也罷,這其中都存在技術盲區(qū),即所謂的算法黑箱。我們無法知道系統(tǒng)背后所考量的因素是什么,算法的不公開、不透明使得自動化行政容易出現漫無邊際的裸奔感[9]。
由此,自動化行政便會產生包括隱私權保護、個人信息保護在內的與人權保護相關的核心命題①General Data Protection Regulation(GDPR)即《通用數據保護法案》于2018年5月25日正式生效。其中便強調了數據安全和隱私保護問題,強調數據隱私是公民的基本權利。?;谖覈F有的行政行為救濟路徑,可根據《行政訴訟法》第16條第12款規(guī)定,認為行政機關侵犯其他人身權、財產權等合法權益的,可提起訴訟。然而問題在于,“等合法權益”在自動化行政中,常常被淹沒在算法黑箱之中。算法形成的黑箱進一步擴展而成為網絡化。我們很多人時刻生活在網絡化的社會中,自己的信息何時、如何以及是否被侵犯,很多時候甚至無從得知。換言之,依據黑箱中算法的自動化行政并不能像傳統(tǒng)行政行為一樣,依賴某個決定及時知曉自己的權益保護情況,這些都增加了對瑕疵指令進行后續(xù)救濟的難度。
對自動化行政中的瑕疵指令救濟除了上述權利基礎之外,還需要進一步明確其指令的相關救濟可歸入傳統(tǒng)行政法視域中的哪些范疇之內。依數據來源瑕疵、算法瑕疵、系統(tǒng)瑕疵三種主要類型,實際上對應著幾種救濟的可能性,即針對行政程序、行政活動以及事實行為的救濟。如圖1所示。
1.數據來源瑕疵:由于數據是作為基礎性的數據搜集和分析依據,一般來說不會直接構成某個決定,所以在某種意義上,它類似于一種行政程序。如“高瑞麗與鄭州市公安局交警十大隊公安交通處罰案”的一審行政判決書中,“電子眼”所搜集相關信息成為后續(xù)行政處罰的依據,在行政訴訟法中是一種證據材料①“高瑞麗與鄭州市公安局交警十大隊公安交通處罰案”,參見河南省鄭州市金水區(qū)人民法院一審行政判決書(2014)金行初字第124號。。當這作為一種程序時,單獨依賴這種程序所作出的決定確實可能存在合法性的問題。本案中就車輛在鄭州機場轄區(qū)的違法信息記錄,原告如有異議,應當向該路段的交通管理部門提出。原告主動到被告處接受異地違法信息處理,且對《處罰決定書》標明的“如是異地交通違法,無異議后簽名確認”等內容未表示異議,原告在被處罰人簽名處簽署姓名并主動履行罰款繳納義務,這是對自己權利的處分行為,應當視為對違法事實沒有異議。換言之,相對人等于自己放棄了相應的陳述、申辯等程序性權利。本案中,電子眼所搜集的信息并未構成最終決定,而是因為被處罰人簽名、繳納罰款的實際行為認可了該行政處罰的有效性。當然,數據來源的瑕疵情形有很多種,如自己填寫信息錯誤則應屬于歸由自己的原因,需要有充分的理由說明才能予以更正。
2.算法瑕疵:由于絕大多數情形下,算法背后所依賴的仍然是設定算法的技術人員,且這種利用機器所作出的自動化行政決定,其內容也是由公務人員確定并通過輸入程序來實現的,因而,這種依賴算法的決定是一種行政活動。相應地,由于算法錯誤所導致的問題,也應歸由行政機關及其工作人員承擔相應的責任。然而,基于算法黑箱等因素,如果是純粹的全自動化行政決定,如何審查算法仍需要進一步探究。換言之,算法也是一種“法”的實質,對于算法瑕疵的審查應該成為自動化行政發(fā)展后的獨立命題,并不屬于當下行政法律體系中的既有內容。
3.系統(tǒng)瑕疵:此時,更接近于一種事實行為,也會引起后期的賠償問題。理論上,自動化系統(tǒng)的問題可能是由于不可抗力的自然因素,也可能是由于人為因素所導致的錯誤。如果是前者,沒有合法性的問題,但由此造成的損害也會產生賠償問題;而如果是后者,由于這個系統(tǒng)與行政機關之間的密切關聯,也應由行政機關及其工作人員負主要責任。
綜上所述,基于自動化行政的過程,即數據來源、算法(黑箱)再到所形成的系統(tǒng),這樣一個數據流向下,有些相關問題可在現有的法律體系中得以部分調整。但更多的救濟則需要依賴更具有針對自動化行政特點的救濟方式,對此后文仍將進一步加以探討。
基于上述基礎,我們可探索性地給出一個對自動化行政中瑕疵指令進行救濟的可能路徑。
從廣義的角度來看,行政程序也是救濟路徑之一,如告知、聽證等。上文已討論過自動化行政會縮減程序,那么這種縮減程序的邊界在哪里?是否會因縮減程序產生后續(xù)的救濟問題呢?這兩個問題實際上可以歸入一種,即自動化行政指令帶有黑箱屬性,使得很多程序都在實際上被縮減,使得行政相對人的權利、義務依然受到相應的影響。總結前文所討論的數個自動化罰款繳納案例發(fā)現:一般來說,對于自動化行政指令而言,更適合被用在能夠采用簡易程序處理的案件之中。當然,隨著科技的發(fā)展,未來人工智能如果能夠處理復雜的編碼和個案情形,也不排除它會從根本上挑戰(zhàn)我們現有的行政程序法規(guī)范。對于處罰數額不大、情節(jié)認定較容易的違法情形,自動化執(zhí)法完全可以引入,同時為了保障相對人的程序性權利,減少或避免后續(xù)出現的救濟等問題,應要求當事人知情、確認并認可,而不能單純依賴自動化執(zhí)法機器,不然很容易使相對人陷于“無知之幕”的恐慌之中。告知環(huán)節(jié)本身也應依行政程序法的要求,行政機關應采取短信、網絡等電子化方式輔之以書面告知等形式。此外,還有一點需要強調,即依賴自動化行政所作出的決定,在技術手段上需要確保行政相對人,即指令施加對象的可識別性。例如,在很多地方和領域都采取的人臉識別中,對行政主體的識別賦予優(yōu)先性是基本要求。即使在采用電子化監(jiān)控設備的道路交通執(zhí)法中,行政主體對車輛基本信息的識別也是需要被優(yōu)先考慮的。
除了上述簡單程序外,復雜程序中的一些救濟程序的采用是否還有可行之處?如聽證會。筆者認為,在多數情況下,自動化行政更適宜于可采用簡易程序的場合,實際上也就排除了聽證會的適用問題。如果自動化行政在獲取信息的后續(xù)過程中,出現了諸如隱私權的侵擾等問題,也就依然需要程序上的保障,尤其是正當程序的保障。例如,在新冠肺炎疫情防控期間,有些地方要求公職人員“不得通過互聯網、社交軟件等途徑捏造、傳播、散布謠言,要保守工作秘密,不擅自發(fā)布、傳播、泄露非公開發(fā)布的疫情防控工作信息”①參見《通化市關于嚴明新冠肺炎疫情防控期間紀律要求的通知》(中共通化市紀律檢查委員會通化市監(jiān)察委員會2020年2月14日發(fā)布)。。2020年2月4日,中央網絡安全和信息化委員會辦公室發(fā)布的《關于做好個人信息保護利用大數據支撐聯防聯控工作的通知》明確指出:為疫情防控、疾病防治收集的個人信息,不得用于其他用途;任何單位和個人未經被收集者同意,不得公開姓名、年齡、身份證號碼、電話號碼、家庭住址等個人信息,因聯防聯控工作需要,且經過脫敏處理的除外②參見《關于做好個人信息保護利用大數據支撐聯防聯控工作的通知》(中央網絡安全和信息化委員會辦公室2020年2月4日發(fā)布)。。《網絡安全法》第43—45條也規(guī)定了相應的個人信息保護有關內容。
技術性正當程序要求告知、聽證等必要的程序適用[9],尤其當自動化行政決定涉及到公民的人身權、自由權時;同時還須在技術上采用無歧視的數據挖掘技術,避免個人被歧視;此外,還要求行政機關作出一定的理由說明[10]。例如,英國在2018年《數據保護法案》第14條規(guī)定,使用人工智能的公共管理部門必須在合理期限內以書面形式就自動化決策內容盡快通知被執(zhí)行自動化決策的主體,數據主體可以在收到通知后一個月內,要求公共組織重新考慮對自己作出的自動化決策,或由自然人對決策進行重新評估③參見Data Protection Act 2018,https://www.legislation.gov.uk/ukpga/2018/12/contents.。
作為傳統(tǒng)的救濟方式,申訴是常用的方式。在自動化行政中是否還能適用?其實類似于程序,在特定的情形之下,這些手段仍存在適用的必要性。然而,基于自動化行政的特征,我們需要對現有的申訴、信訪制度進行一定程度上的改革以適應信息時代。例如,設立機器智能委員會等專業(yè)委員會來辨別判定一些涉及到自動化行政的專業(yè)性問題。再如,歐洲議會法律事務委員會主張建立歐洲機器人和人工智能機構;還有些學者主張建立跨國的、獨立的、多利益相關的人工智能和數據委員會。他們認為,人工智能不僅僅是一個公用事業(yè),一旦成熟就需要被監(jiān)管,它更是重塑生活、互動和環(huán)境的強大力量,是人類棲息地向信息圈深刻轉變的一個部分[11]。
中國實際上也有諸多類似的機構,例如中國自動化學會模式識別與機器智能(Pattern Rec?ognition and Machine Intelligence,PRMI)專業(yè)委員會成立于1981年,是國際模式識別協會(IAPR)的成員組織。此外,還有機器學習專業(yè)委員會、自然語言理解專業(yè)委員會、離散智能計算專業(yè)委員會、智能教育技術專業(yè)委員會、智能控制與智能管理專業(yè)委員會等。這些委員會更強調專業(yè)性,常常容易走向技術精深化的建構路徑,而對于公民參與的提升作用還很有限,甚至大多數普通公民無從知曉它們的存在。人工智能專業(yè)委員會不應僅僅是行政機關的智囊團,也應當為行政機關和普通公民之間搭建橋梁,對于自動化行政決策發(fā)揮說明、闡釋作用。在處置申訴、信訪過程中可以借鑒這種專業(yè)委員會的設置目標,即加入專業(yè)性的考量因素,借助第三方委托、協助等方式,更好地提升申訴、信訪處置的水平以及行政機關處理自動化行政所涉問題的能力。如健康碼實施至今,各地都有設立復核制度,通過網絡化的復核實則也是信息化時代的一種申訴方式。
下一步,司法實踐領域可借鑒英國法的經驗,設立數據保護專員(Data Protection Officer)為數據控制者提供數據方面的建議,處理申訴。實際上,我國有些地方實踐中已有類似的做法,例如《上海市公共數據和一網通辦管理辦法》第43條規(guī)定,公共管理和服務機構應當設置或者確定專門的安全管理機構并確定安全管理責任人①參見《上海市公共數據和一網通辦管理辦法》(滬府令9號)。。安全管理責任人與英國的數據保護專員角色多少有些類似,但是不同點在于,安全管理責任人多為行政機關內部的工作人員,常以技術責任為主,并不擴展到申訴等后續(xù)責任的處理。值得注意的是,由于自動化行政的“即時性”更強,因此在有相應系統(tǒng)的情形下不能或者不必適用傳統(tǒng)的時效制度規(guī)定。相應地引起行政相對人權益減損的時效規(guī)定也需考慮作出調整,尤其是一些可以及時確定的救濟措施可在第一時間予以處理,如健康碼信息的復核,一旦發(fā)現問題需及時予以恢復。
針對瑕疵指令所導致的不同后果,行政程序、行政活動抑或事實行為更易在復議和訴訟環(huán)節(jié)發(fā)揮作用??傮w上,更多情況下,數據來源的瑕疵在自動化行政決定中更容易構成復議和訴訟中的證據來源。算法瑕疵在理論上是有可能構成復議、訴訟的直接審查對象的,也就是說,伴隨著法院審查算法能力的加強,未來也應具備審查算法的能力。系統(tǒng)瑕疵,則更多被歸入事實行為,即使因此產生了對相對人權利義務的影響,也有復議、訴訟的可能性。在現有的法律體系下,審查對象實際上依然只是依據自動化行政所作出的相應的決定,而非自動化行政本身。
在復議和訴訟環(huán)節(jié),涉及到自動化行政的案件需考量幾點:首先,從系統(tǒng)的設定、算法的設計等方面來看,自動化行政在當下更多地發(fā)揮了“輔助”和“助手”的功能,即便在直接作出決定的情形中也是如此。因此,在絕大多數情形下,相應責任也應歸由行政機關及其工作人員承擔,除非有相反證據可以排除其責任;其次,舉證責任的分配或者相關問題的解釋都應本著有利于行政相對人的角度來進行。例如,在上述指導性案例26號“李健雄訴廣東省交通運輸廳政府信息公開案”中,一審法院認為,由于廣東省人民政府“政府信息網上依申請公開系統(tǒng)”作為政府信息申請公開平臺所應當具有的整合性與權威性,如未作例外說明,則從該平臺上遞交成功的申請應視為相關行政機關已收到原告通過互聯網提出的政府信息公開申請。至于外網與內網、上下級行政機關之間對于該申請的流轉屬于行政機關內部管理事務,不能成為行政機關延期處理的理由。從最高人民法院選擇此案例作為指導性案例的原因來看,也是因為本案例對于網絡電子數據證據效力的認定正確,充分考慮了當事人舉證能力平衡問題,對于規(guī)范行政機關網上受理政府信息公開申請,保護公眾依法申請政府信息公開的權利具有一定意義[12],本案例對于指導類似案件的審判具有積極作用。當然在很多情形下,自動化行政所涉及的電子化文件,在行政訴訟或者復議中實則轉化為證據,可適用行政訴訟證據規(guī)則等來加以認定。實際上,隨著自動化行政的發(fā)展,更需要加強對事前、事中的控制,司法機關作為最后的救濟主體,在未來會面臨著更多算法審查的挑戰(zhàn)。
自動化行政為我們編織了一張密密麻麻的網絡,使得本就涉及“從搖籃到墳墓”的行政法學內容更加與公民生活息息相關。面對數字化,行政機關既可以利用自動化行政,提高行政效率,但也會因自動化行政,對正當程序、隱私保護、意思自治等產生影響。這也是一種新型的技術風險,行政機關可以將規(guī)則通過機器編碼化來防范與應對。由此,如何確定這些編碼,確定算法仍將依賴于法律與信息技術專家自身的努力。
李建良曾指出,AI發(fā)展若要有與之相應的良好人文條件和思辨環(huán)境,認識論與規(guī)范論二者交疊互傳的思考元素須進入公法秩序之中[13]。當人類面對鋪天蓋地、無邊無際的數位入侵時,法律制度與秩序是否需要“人性保留”的規(guī)范機制和實踐構想,還需要慎重考慮。換言之,作為可能與自動化行政時常相伴的人類,在系統(tǒng)創(chuàng)設之時便應考量到尊嚴、平等、公平等人性價值,即先要去盡可能避免后續(xù)所產生的問題。自動化行政瑕疵指令的處理,需要我們充分考量自動化行政特點,在必要情況下仍然需要輔助于人工復核等手段。如果將自動化行政視為行政過程,我們更需要從紛繁復雜的網絡化表象中,厘清各種法律關系、行為屬性,以確定后續(xù)救濟的相應路徑。
然而實際上,基于其獨特性,仍存在諸多需要進一步探討的問題??梢哉f,技術革命將影響法律指令的結構,以及代表公權力的行政主體與相對人之間的關系。甚至還有學者認為,未來將更為強調立法者如何選擇目標,而不是如何實施法律,學術界對司法行為等主題的興趣將逐漸消失[5]53。對此,我們不得而知。但從困在算法里的騎手們①參見《外賣騎手,困在系統(tǒng)里》,《人物》微信公眾號,2020年9月8日發(fā)布,http://baijiahao.baidu.com/S?id=1677231323622d6633&wfr=spider&for=pc,訪問日期:2021年2月5日。到因北斗掉線而被處罰直至自殺的司機[14],自動化行政以及技術革命所帶來的挑戰(zhàn)已然無法回避。深處算法時代,行政法的“變”與“不變”仍待我們進一步探究。