韓軼 張婷
摘? ? ? 要:隨著時代的發(fā)展,人工智能技術(shù)已被廣泛應(yīng)用于行政處罰立案、調(diào)查取證、決定、執(zhí)行環(huán)節(jié),對于提升行政處罰效率、保障行政處罰公正性、增強(qiáng)行政處罰精準(zhǔn)度起到了積極作用。實踐中,人工智能的應(yīng)用尚存在數(shù)據(jù)收集出現(xiàn)瑕疵、程序性要求易受減損、決策可接受度或?qū)⑾陆?、?zé)任承擔(dān)主體和歸責(zé)原則難以確定等風(fēng)險。對此,需要審慎推進(jìn)人工智能的應(yīng)用,明確其在行政處罰中的邊界。
關(guān)? 鍵? 詞:算法;人工智能;行政處罰;技術(shù)功用
中圖分類號:D922.11? ? ? ? 文獻(xiàn)標(biāo)識碼:A? ? ? ?文章編號:1007-8207(2022)05-0077-08
收稿日期:2022-02-04
作者簡介:韓軼,河海大學(xué)法學(xué)院副教授,法學(xué)博士,研究方向為憲法學(xué);張婷,河海大學(xué)法學(xué)院碩士研究生,研究方向為行政法學(xué)。
主流觀點認(rèn)為,人工智能是指能夠在繁雜環(huán)境中進(jìn)行感知、學(xué)習(xí)、推理、溝通等智能化行為的機(jī)器。[1]人工智能的出現(xiàn)和發(fā)展,正深刻改變著經(jīng)濟(jì)關(guān)系、社會關(guān)系、政治關(guān)系以及法律結(jié)構(gòu)與形態(tài),將人類社會帶入一個嶄新的智能紀(jì)元。作為人類智慧的結(jié)晶,人工智能展現(xiàn)出鮮明的賦能特征,可以顯著提升行政處罰效能,但是也誘發(fā)了一些潛在風(fēng)險,技術(shù)功用的有限性逐步凸顯。因此,面對人工智能有限的技術(shù)功用,行政處罰領(lǐng)域如何審慎推進(jìn)新興技術(shù)的應(yīng)用成為亟待解決的現(xiàn)實問題。
一、行政處罰中人工智能的興起
(一)應(yīng)用空間梳理
行政處罰程序包括一般程序和簡易程序。以一般程序為例,大致分為立案、調(diào)查取證、告知、作出處罰決定、送達(dá)與執(zhí)行等環(huán)節(jié),而人工智能的應(yīng)用也主要包括以下幾個方面:
一是立案階段。人工智能被廣泛用于信息的收集與處理,通過人工智能可以發(fā)現(xiàn)案件的線索來源,分析解讀行政相對人的違法行為、評估研判其違法情節(jié),啟動行政處罰的立案程序。如江西省鷹潭市市場監(jiān)督管理局通過智慧管理平臺實時監(jiān)控后廚作業(yè)區(qū)域,抓拍不規(guī)范行為并在平臺預(yù)警,其后臺指揮中心便能及時發(fā)現(xiàn)和派出有關(guān)人員前往現(xiàn)場檢查,收集立案線索。[2]二是調(diào)查取證階段。以道路交通中的違章行為為例,交通管理部門通過對車輛檢測、光電成像、自動控制、網(wǎng)絡(luò)通信、計算機(jī)多種技術(shù),對機(jī)動車闖紅燈、違章停靠、逆行、超速等違章行為進(jìn)行全天候監(jiān)控,[3]將違法事實以抓拍、錄像等形式加以固定并作為行政處罰的證據(jù)。三是決定階段。如南京市公安局推出行政案件自動量罰系統(tǒng),對于需要行政處罰的案件,執(zhí)法民警可以登錄人工智能系統(tǒng)輸入案情,再選擇界面上的從輕、從重、減輕等備選情節(jié),該系統(tǒng)將會自動生成行政處罰結(jié)果。[4]這種舉措排除了民警的警齡、經(jīng)驗、性格等因素對處罰決定造成的影響,規(guī)范了執(zhí)法人員自由裁量權(quán)的行使,有效遏制了差別懸殊的判罰現(xiàn)象。四是執(zhí)行階段。目前,多數(shù)城市對于交通違法人員進(jìn)行處罰時都會運(yùn)用人臉識別技術(shù)并輔以電子眼系統(tǒng),將行為人的照片長達(dá)一周地曝光在道路一旁屏幕上以表懲罰。雖然這種同步曝光行為沒有被列為行政處罰,但是其法律效果近似于已被明確為行政處罰的“通報批評”,也會對相對人的聲譽(yù)產(chǎn)生一定的影響,可以在事實上被認(rèn)定為行政處罰。[5]同時,行政部門還會利用人工智能技術(shù)實時監(jiān)督受處罰的行政相對人的履行情況,確保行政處罰的有效執(zhí)行??梢?,將人工智能應(yīng)用于行政處罰已不再局限于某一單一場景或者狹窄范圍,而逐漸展露出范圍全面性的時代特征。[6]
(二)技術(shù)功用解構(gòu)
首先,人工智能的應(yīng)用能夠提升行政處罰效率。傳統(tǒng)的行政處罰場景中,行政機(jī)關(guān)受制于有限的執(zhí)法資源和“運(yùn)動式”的處罰模式,往往難以全面、高效地發(fā)現(xiàn)違法行為,但是借助于人工智能,行政處罰可以依托機(jī)器內(nèi)置算法的嵌入優(yōu)勢①,以較小的執(zhí)法成本實現(xiàn)大規(guī)模的持續(xù)性監(jiān)管,[7]及時且全方位地發(fā)現(xiàn)違法事實,提升行政處罰的效率與廣度。其次,人工智能的應(yīng)用有助于保障行政處罰的公正性。行政處罰活動具有一定的自由裁量特征,裁量本身烙有強(qiáng)烈的主觀色彩,容易受到個人喜惡、價值觀念等主觀因素的影響,如“關(guān)系罰”“人情罰”。[8]而人工智能以“技術(shù)中立”為原則,能夠?qū)⒅庇X、偏見等非理性因素排除在決策過程之外,[9]避免裁量恣意,增強(qiáng)處罰決定客觀公正的合法化外觀。再次,人工智能的應(yīng)用有利于增強(qiáng)行政處罰的精準(zhǔn)度。一方面,人工智能技術(shù)的實質(zhì)是建立一種基于海量數(shù)據(jù)挖掘的認(rèn)知范式,其挖掘和預(yù)測的結(jié)果相對準(zhǔn)確;另一方面,通過整合散見于各個單行法規(guī)、條例中的處罰規(guī)定,可以建立起清晰的法律規(guī)則圖譜,補(bǔ)強(qiáng)行政處罰決定的合法、合理程度。
二、行政處罰中人工智能的技術(shù)功用存有限度
(一)外在表征:人工智能介入行政處罰的潛在風(fēng)險
⒈數(shù)據(jù)收集出現(xiàn)瑕疵。一是數(shù)據(jù)收集錯誤。一方面,人工智能作為一項技術(shù),其潛在的漏洞可能會使數(shù)據(jù)收集出現(xiàn)錯誤,干擾后續(xù)對數(shù)據(jù)的分析與判斷;另一方面,人工智能設(shè)備的老化、磨損等原因,包括所應(yīng)用的設(shè)備未依法檢定、逾期未檢定或檢定不合格,也會導(dǎo)致收集的數(shù)據(jù)不可靠,干擾處罰決定的準(zhǔn)確性,如“方某訴金華市公安局交通警察支隊公安行政管理、道路交通管理二審案”中的上訴人認(rèn)為,交通技術(shù)監(jiān)控設(shè)備如果不符合法律規(guī)定,就等于一直侵犯公眾的合法經(jīng)濟(jì)利益和安全利益①。從外部條件來看,人工智能也會受到天氣、人為破壞等外界因素的影響,如應(yīng)用智能抓拍系統(tǒng)捕獲交通違法行為時,因光線、視野的影響,出現(xiàn)較為普遍的“誤拍”情形。[10]二是數(shù)據(jù)碎片化或不相關(guān)。在信息篩選方面,一些不相關(guān)或者碎片化的數(shù)據(jù)可能被一并收集,無法鏡像式地模擬出完整的現(xiàn)實,如應(yīng)用智能抓拍系統(tǒng)捕獲交通違法行為時,如果沒有全面而完整地記錄全部過程,容易根據(jù)碎片化的證據(jù)作出錯誤的處罰決定。
⒉程序性要求易受減損。一是人工智能的應(yīng)用容易滋生技術(shù)依賴,壓縮人工審核的空間。《中華人民共和國行政處罰法》(以下簡稱《行政處罰法》)第四十一條規(guī)定:“電子技術(shù)監(jiān)控設(shè)備記錄違法事實應(yīng)當(dāng)真實、清晰、完整、準(zhǔn)確。行政機(jī)關(guān)應(yīng)當(dāng)審核記錄內(nèi)容是否符合要求;未經(jīng)審核或者經(jīng)審核不符合要求的,不得作為行政處罰的證據(jù)?!比欢姓C(jī)關(guān)往往傾向于信賴技術(shù)系統(tǒng)的記錄,在未經(jīng)人工審核的情況下直接依據(jù)這一記錄作出處罰決定,如由于疏于審核抓拍系統(tǒng)識別錯誤后生成的違章信息,常州市發(fā)生多起“張冠李戴”的交通違章處罰行為。[11]二是人工智能應(yīng)用過程中的信息不對稱和瞬時性特征極易架空行政相對人陳述、申辯等程序性權(quán)利。根據(jù)《中華人民共和國行政訴訟法》(以下簡稱《行政訴訟法》)第七十條和第七十四條有關(guān)法院撤銷判決和確認(rèn)違法判決的規(guī)定②,陳述、申辯等程序性權(quán)利是公共行政的合法性來源之一,也是公眾自主的權(quán)利映射和實現(xiàn)載體,通過行使這些程序性權(quán)利,相對人得以達(dá)成對公共事務(wù)的政治參與和自我管理。一方面,信息不對稱擠壓溝通空間。人工智能的算法代碼被技術(shù)的設(shè)計者和使用者所壟斷,而披露規(guī)則的缺位和信息能力的限囿導(dǎo)致行政相對人處于弱勢地位。這種不均衡的信息配置格局致使相對人難以獲悉相關(guān)的技術(shù)規(guī)則,容易喪失溝通和辯駁的機(jī)會;另一方面,人工智能運(yùn)行的瞬時性架空程序性權(quán)利。隨著智能化程度的提高,行政處罰全過程將在人工智能內(nèi)部瞬間完成,這種瞬時性能夠縮短甚至跳過人類反應(yīng)的時間,使相對人無法在決策作出之前及時行使程序性權(quán)利,只能被動接受算法決策結(jié)果。目前,人工智能在行政處罰中的應(yīng)用仍是階段性和輔助性的,程序性的要求、步驟暫未被機(jī)器自動吞噬,但是信息通知的不及時以及行政機(jī)關(guān)對機(jī)器執(zhí)法正確性的預(yù)設(shè)也容易造成相對人程序性權(quán)利的缺失,如寧波市一抓拍系統(tǒng)誤將某輛公交車上董某珠的照片識別為其本人,判定其存在闖紅燈行為,直接同步曝光違法信息,相對人的程序性權(quán)利被棄之一隅。根據(jù)《行政處罰法》第四十一條規(guī)定,行政行為不能因采用電子證據(jù)而限制或者變相限制當(dāng)事人的陳述權(quán)、申辯權(quán),但是對于如何防止這種限制的發(fā)生仍有待研究。[12]
⒊決策可接受度或?qū)⑾陆?。實質(zhì)上,行政處罰是通過制裁手段矯正違法行為所致的秩序失范,其兼具制裁和保障雙重功能。[13]在實體層面,合法且合理的決策是提高處罰決定可接受度的根本保證;在程序?qū)用?,處罰理由的充分說明是提高處罰決定可接受度的必然要求。然而,將人工智能應(yīng)用于行政處罰決定階段時,決策的可接受度在實體和程序方面均面臨著挑戰(zhàn)。
在實體上,決策的合理性存在不足。為消弭法律概念的不確定性、增強(qiáng)規(guī)則適用的彈性,法律賦予了行政機(jī)關(guān)一定的自由裁量權(quán),但是這種自由裁量權(quán)也存在濫用的風(fēng)險。因此,必須對自由裁量權(quán)加以約束,這也是將人工智能應(yīng)用于處罰決定階段的初衷。誠然,借助機(jī)器進(jìn)行裁量,可以將執(zhí)法人員天然攜帶的主觀因素抽離出去,通過機(jī)器學(xué)習(xí)生成一類案件普遍適用的決策邏輯,但與此同時,提高規(guī)則適用靈活度的人性化因素和社會整體性架構(gòu)對行政權(quán)的關(guān)聯(lián)度要求也被一并剔除,這意味著決策的實質(zhì)正義和可接受程度不免受到影響。一方面,算法決策的依據(jù)是機(jī)器學(xué)習(xí)下的普遍性規(guī)則,個案的特殊性不再被納入考量范圍;另一方面,一項行政決定的作出需要進(jìn)行必要的利益衡量和價值判斷,這一過程所需參照的道德觀念、公共管理政策動向等關(guān)聯(lián)性因素難以通過數(shù)據(jù)化形式充分表征,使機(jī)器失去“軟性”衡量、覺察能力,在對復(fù)雜案件進(jìn)行裁量時就可能導(dǎo)致決策的合理性欠佳。
在程序上,說明理由義務(wù)難以履行。根據(jù)正當(dāng)程序原則,在作出行政處罰這種不利于相對人利益的決定時,除非有法定保密事由,行政機(jī)關(guān)均應(yīng)當(dāng)說明理由。[14]但是將人工智能應(yīng)用于處罰決定時,這一義務(wù)可能遭到以下原因的阻隔:首先,算法自身的“黑箱性”,即算法只能在輸入和輸出這兩個過程被可視化,其信息處理過程不能被識別和理解。[15]基于這一難題,行政機(jī)關(guān)常常主張算法不具有可解釋性,不論是行政機(jī)關(guān)還是算法模型的設(shè)計者都無法釋明決策的生成過程。其次,法定保密事由成為行政機(jī)關(guān)拒絕說明理由的“避風(fēng)港”,行政機(jī)關(guān)往往聲稱算法涉及商業(yè)秘密、國家秘密,造成客觀上不能披露。再次,公眾信息素養(yǎng)缺失。因相對人不具備專業(yè)性的解碼能力,算法決策的正當(dāng)性證成面臨困境,弱化了行政處罰的教育與利導(dǎo)效果。
⒋責(zé)任承擔(dān)主體和歸責(zé)原則難以確定。傳統(tǒng)行政處罰中,法律擬制的主體結(jié)構(gòu)包括行政組織體和行政公務(wù)人員。而在人工智能嵌入行政處罰的場景下,其主體結(jié)構(gòu)包含作為抽象架構(gòu)的行政組織體、作為實際執(zhí)行者的人工智能系統(tǒng)、作為具體個人的系統(tǒng)研發(fā)者以及作為市場主體的系統(tǒng)生產(chǎn)者和銷售者,呈現(xiàn)“科技滲透”和“公私融合”的樣態(tài),導(dǎo)致傳統(tǒng)基于公務(wù)人員職務(wù)行為設(shè)計的問責(zé)體系難以適用。同時,傳統(tǒng)的歸責(zé)原則以人類行為和社會實踐為基礎(chǔ),其原有的法律邏輯與人工智能不相吻合。一方面,作為人工智能技術(shù)的核心,算法具有“黑箱性”,因內(nèi)部結(jié)構(gòu)不可被拆解,難以對其運(yùn)行展開準(zhǔn)確的過錯判斷;另一方面,由于人工智能自身的原因?qū)е绿幜P錯誤、侵犯行政相對人權(quán)益時,傳統(tǒng)法律中的因果關(guān)系判斷方式可能遭遇窘境:若將這一侵權(quán)行為歸咎于人工智能,似乎難以對機(jī)器進(jìn)行問責(zé);若將人工智能自主學(xué)習(xí)后造成的錯誤歸咎于設(shè)計者或使用者,似乎因欠缺直接的因果關(guān)聯(lián)而不具說服力。[16]
(二) 內(nèi)在成因:行政處罰的復(fù)雜性與人工智能的單一性存在張力
⒈技術(shù)之維:行政公開與算法黑箱難求共生。行政公開被視為建設(shè)法治政府不可或缺的手段,要求行政處罰必須公開地、在毫無疑問能被相對人看見的情況下實施。[17]與之相異,算法常常被賦予封閉性、“黑箱性”的特征,算法的運(yùn)行存在著人類無法窺見的隱藏層,這意味著輸入的數(shù)據(jù)和輸出的結(jié)果已知明確,但是算法內(nèi)部的推理過程卻無法洞悉,算法黑箱帶來的直接后果就是不透明和不公開。一方面,算法實現(xiàn)了無人力干預(yù)下的信息提取、數(shù)據(jù)訓(xùn)練和自主學(xué)習(xí),決策的運(yùn)行流程居于黑箱閉環(huán)狀態(tài);另一方面,算法的”黑箱性”、商業(yè)性和專業(yè)性造成了客觀上的公開不能,算法決策陷入不可知論的泥潭之中。隨著人工智能技術(shù)的應(yīng)用,算法黑箱也猶如一把達(dá)摩克利斯之劍懸于處罰決定上空,與行政的公開性要求相背離。
⒉實踐之維:人本邏輯與技術(shù)應(yīng)用難達(dá)平衡?!耙匀藶楸尽钡倪壿嬂砟钍枪残姓膬?nèi)在意蘊(yùn),要求由具體的人來實踐公共行政的目標(biāo)和效果。實踐中,行政處罰的方式應(yīng)突出人的主體性地位和主導(dǎo)性作用,但是因人工智能的介入極易導(dǎo)致“人本”邏輯被忽視,行政處罰的技術(shù)化特征容易演變成一種技術(shù)依賴傾向。
⒊價值之維:價值理性與工具理性難尋協(xié)調(diào)。工具理性是一種單向度的思維范式,強(qiáng)調(diào)通過某種工具和手段實現(xiàn)主體需求以達(dá)成實踐目的,效率最大化為其追逐目標(biāo)。價值理性則始終以價值觀念為行為準(zhǔn)則,并不在意行為的成本和可預(yù)見的后果,其追求真與善的統(tǒng)一。[18]一項處罰決定的作出需要兼顧工具理性與價值理性的雙重訴求,雖然秉承工具理性范式的人工智能一定程度上可匡正主觀因素給處罰決定制造的公正性偏頗,但是若過度夸大工具理性的作用,忽視或者放棄對價值理性的追求,則可能催生決策的反人文性,而對決策結(jié)果的忠實遵循將導(dǎo)致正義的“流產(chǎn)”和政府公信力的“削弱”。
三、 人工智能介入行政處罰的邊界設(shè)計
(一) 場域邊界:明確人工智能的應(yīng)用范圍
德國《行政程序法》第35a條對全自動行政行為的適用作出限定,規(guī)定只有在具體法律、法規(guī)命令和規(guī)章明確規(guī)定時才可被適用,即所謂的“法律保留”,嚴(yán)格排除了存在裁量和判斷情形下的適用。[19]通常認(rèn)為,全自動行政行為是指行政機(jī)關(guān)依照法定職權(quán),借助電子技術(shù)和設(shè)備由機(jī)器全程完成行政程序,作出個案規(guī)范性的且有直接外部效力的單方行為。[20]在我國,行政處罰中人工智能的應(yīng)用尚未達(dá)到這一階段,但是德國《行政程序法》的規(guī)定對于明確我國人工智能在行政處罰中的應(yīng)用場景仍具借鑒意義。
在法律保留方面,人工智能在行政處罰中的適用范圍也應(yīng)有一定保留,需要以列舉或概括方式在立法中加以明確,建立適當(dāng)?shù)目山槿肭鍐闻c不可介入清單,如對于類似證據(jù)收集等輔助性、技術(shù)性事項,違法事實清楚且法律依據(jù)明確、可以當(dāng)場作出行政處罰,易于數(shù)據(jù)化、類別化的事項[21]以及其他不涉及相對人重大利益的簡單事項,可以允許人工智能的應(yīng)用;而對于情況較為復(fù)雜或者違法情節(jié)嚴(yán)重的行政處罰案件,應(yīng)嚴(yán)格禁止人工智能的應(yīng)用。
在裁量方面,若同德國《行政程序法》一樣,全面排除人工智能在裁量場景中的適用未免過于謹(jǐn)慎保守,可能會限制人工智能的發(fā)展前景,應(yīng)當(dāng)允許人工智能的應(yīng)用。[22]如南京市環(huán)保局推出的“環(huán)保行政處罰自由裁量輔助決策系統(tǒng)”,[23]通過算法決策和人力裁量之間的相互佐證,在行政效率和個案正義方面實現(xiàn)了雙贏,這種應(yīng)用顯然是值得肯定的。
(二)主體邊界:強(qiáng)調(diào)“人主機(jī)輔”的基本理念
隨著人工智能在行政處罰中的應(yīng)用,人們開始對人工智能是否將完全替代行政機(jī)關(guān)進(jìn)行處罰產(chǎn)生疑慮。有學(xué)者認(rèn)為,人類思考的過程最終可以用算力愈益強(qiáng)大的計算機(jī)來模擬和替代,[24]社會的組織機(jī)制包括法律最終也可以由機(jī)器來操作和管理,[25]這種看法有失偏頗。因為行政處罰決定往往蘊(yùn)含著利益衡量和價值判斷,需要在綜合權(quán)衡各種因素的情況下靈活作出,而“機(jī)器總是帶有僵硬死板的潛在可能”,[26]其難以實現(xiàn)復(fù)雜個案的最優(yōu)化裁量。因此,人工智能與行政機(jī)關(guān)在行政處罰語境中不是取代與被取代的零和關(guān)系,應(yīng)是“人主機(jī)輔”的合作共贏。
所謂“人主機(jī)輔”,意指始終堅持行政機(jī)關(guān)的主體性在場,人工智能的應(yīng)用只能是輔助性的。具言之,人工智能可介入的范圍內(nèi),無論將其應(yīng)用于哪一事項、哪一階段,行政機(jī)關(guān)都應(yīng)履行審查義務(wù),人工智能至多起到預(yù)處理作用,尤為關(guān)鍵的是行政處罰的最終決策權(quán)必須歸于行政機(jī)關(guān),處罰決定權(quán)的不可讓渡應(yīng)是人工智能應(yīng)用于行政處罰的首要原則。
(三)行為邊界:加強(qiáng)對人工智能的技術(shù)管控
⒈保障系統(tǒng)質(zhì)量?!凹夹g(shù)應(yīng)用本身便可能帶來安全與不安全兩種后果傾向,這取決于技術(shù)本身的風(fēng)險屬性?!盵27]為此,行政機(jī)關(guān)有必要強(qiáng)化系統(tǒng)內(nèi)部的管理,核查數(shù)據(jù)、算法等因素的質(zhì)量,保證人工智能系統(tǒng)的安全性和魯棒性。具言之,保障系統(tǒng)質(zhì)量是以內(nèi)部管控的方式對抗技術(shù)誘發(fā)的未知性風(fēng)險,主要包括以下三個方面:一是設(shè)置行政機(jī)關(guān)內(nèi)部管理的規(guī)范準(zhǔn)則,為識別和處理人工智能系統(tǒng)中存在的違規(guī)設(shè)置構(gòu)建總體框架;[28]二是查看算法中描述變量、相關(guān)性和結(jié)論的源代碼,委托專業(yè)人員測試算法設(shè)計是否有違法律倫理、是否準(zhǔn)確寫入相關(guān)規(guī)則、是否遵循規(guī)范標(biāo)準(zhǔn);三是按照要求設(shè)置人工智能系統(tǒng)、定期核查系統(tǒng)的運(yùn)行狀況、根據(jù)技術(shù)標(biāo)準(zhǔn)及時更新系統(tǒng)。
⒉增強(qiáng)算法透明度。一是公開算法,這是實現(xiàn)算法透明的前提。就公開內(nèi)容而言,應(yīng)公開有意義和有特定指向的算法決策體系,而非初始性的技術(shù)源代碼和算法架構(gòu)。[29]就公開范圍而言,應(yīng)建構(gòu)一種“適度透明”的標(biāo)準(zhǔn),而不宜完全公開算法。這是因為算法涉及多方利益,為了平衡公益與私益,須對算法披露的范圍予以限制。二是說明理由,這是實現(xiàn)算法透明的核心。說明的內(nèi)容主要包括人工智能系統(tǒng)的運(yùn)行過程、輸出結(jié)果、算法決策的推理過程和因素權(quán)重以及算法決策對相對人權(quán)利的影響程度;說明的方式應(yīng)考慮技術(shù)的復(fù)雜性,倘若對每一處技術(shù)細(xì)節(jié)都仔細(xì)說明,顯然過程冗長,因此可將事前解釋轉(zhuǎn)為事后監(jiān)督,即在相對人對處罰決定沒有異議時,行政機(jī)關(guān)可以不主動說明,但是需要保留解釋的權(quán)力,相對人存在異議時,再對個案加以事后監(jiān)督。[30]
(四)制度邊界:保障相對人的救濟(jì)權(quán)利
隨著行政機(jī)關(guān)對人工智能的依賴程度攀深,算法決策可能實質(zhì)性地替代人性化決策,直接影響相對人的利益。一旦技術(shù)開始對人的利益產(chǎn)生直接影響和控制,其往往會失去純粹性而具有權(quán)力屬性。[31]為此,有必要通過程序設(shè)計賦予行政相對人一定的權(quán)利,避免受到技術(shù)權(quán)力方面的侵害。一是應(yīng)充分保障行政相對人的知情權(quán)和選擇權(quán);二是保證相對人陳述申辯、獲得解釋和要求聽證的權(quán)利,賦予相對人對于重大事項隨時要求人工介入的權(quán)利;[32]三是若相對人對依據(jù)算法決策作出的處罰決定不服,行政復(fù)議只能由人工進(jìn)行。
①嵌入優(yōu)勢是指算法結(jié)構(gòu)性嵌入社會權(quán)力運(yùn)行系統(tǒng),借助經(jīng)濟(jì)與政治權(quán)力實時干預(yù)人的行為,從而對社會進(jìn)行無孔不入的構(gòu)建、干預(yù)、引導(dǎo)和改造。
①參見浙江省金華市中級人民法院二審行政判決書(2020)浙07行終字195號。
②《行政訴訟法》第七十條規(guī)定:“行政行為有下列情形之一的,人民法院判決撤銷或者部分撤銷,并可以判決被告重新作出行政行為:(一)主要證據(jù)不足的;(二)適用法律、法規(guī)錯誤的;(三)違反法定程序的;(四)超越職權(quán)的;(五)濫用職權(quán)的;(六)明顯不當(dāng)?shù)??!薄缎姓V訟法》第七十四條規(guī)定:“行政行為有下列情形之一的,人民法院判決確認(rèn)違法,但不撤銷行政行為:(一)行政行為依法應(yīng)當(dāng)撤銷,但撤銷會給國家利益、社會公共利益造成重大損害的;(二)行政行為程序輕微違法,但對原告權(quán)利不產(chǎn)生實際影響的?!?/p>
【參考文獻(xiàn)】
[1]鄭曦.人工智能技術(shù)在司法裁判中的運(yùn)用及規(guī)制[J].中外法學(xué),2020,(3):674.
[2]魏瓊,徐俊暉.人工智能在行政處罰中的應(yīng)用及法律規(guī)制[J].時代法學(xué),2021,(1):15.
[3]胡敏潔.自動化行政的法律控制[J].行政法學(xué)研究,2019,(2):58.
[4]黎慈.人工智能嵌入行政執(zhí)法的法理分析:現(xiàn)狀、風(fēng)險與應(yīng)對[J].湖北社會科學(xué),2020,(7):135.
[5][30]謝明睿,余凌云.技術(shù)賦能交警非現(xiàn)場執(zhí)法對行政程序的挑戰(zhàn)及完善[J].法學(xué)雜志,2021,(42):52-58.
[6]王祿生.司法大數(shù)據(jù)與人工智能技術(shù)應(yīng)用的風(fēng)險及倫理規(guī)制[J].法商研究,2019,(2):103.
[7]張凌寒.算法權(quán)力的興起、異化及法律規(guī)制[J].法商研究,2019,(4):66.
[8]李立.人機(jī)共同規(guī)范行政處罰裁量權(quán)[N].法制日報,2010-08-13(006).
[9]張恩典.人工智能算法決策對行政法治的挑戰(zhàn)及制度因應(yīng)[J].行政法學(xué)研究,2020,(4):37.
[10]朱奕帆.人工智能參與行政治理的法律風(fēng)險控制研究[D].大連:東北財經(jīng)大學(xué)碩士學(xué)位論文,2019:27.
[11][28]雷剛,喻少如.算法正當(dāng)程序:算法決策程序?qū)φ?dāng)程序的沖擊與回應(yīng)[J].電子政務(wù),2021,(12):19-30.
[12]胡建淼.行政處罰法修訂帶來行政執(zhí)法的新考驗[N].學(xué)習(xí)時報,2021-03-03(002).
[13]張春林.主觀過錯在行政處罰中的地位研究——兼論行政處罰可接受性[J].河北法學(xué),2018,(5):98.
[14]姜明安.行政法與行政訴訟法(第2版)[M].北京:北京大學(xué)出版社,2005:73.
[15]呂俊延.人工智能時代的政府治理困境[N].中國社會科學(xué)報,2019-05-29(007).
[16]賈開,蔣余浩.人工智能治理的三個基本問題:技術(shù)邏輯、風(fēng)險挑戰(zhàn)與公共政策選擇[J].中國行政管理,2017,(10):42.
[17](英)彼得·斯坦,約翰·香德.西方社會的法律價值[M].王獻(xiàn)平譯.北京:中國人民公安大學(xué)出版社,1990:97.
[18]陳思.算法治理:智能社會技術(shù)異化的風(fēng)險及應(yīng)對[J].湖北大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2020,(1):161.
[19]馬顏昕.自動化行政的分級與法律控制變革[J].行政法學(xué)研究,2019,(1):89.
[20]章劍生.現(xiàn)代行政法總論[M].北京:法律出版社,2014:136.
[21]陳飏,裴亞楠.論自動化行政中算法決策應(yīng)用風(fēng)險及其防范路徑[J].西南民族大學(xué)學(xué)報(人文社會科學(xué)版),2021,(1):79.
[22][32]查云飛.人工智能時代全自動具體行政行為研究[J].比較法研究,2018,(5):175-177.
[23]查云飛.行政裁量自動化的學(xué)理基礎(chǔ)與功能定位[J].行政法學(xué)研究,2021,(3):116.
[24]鄭戈.算法的法律與法律的算法[J].中國法律評論,2018,(2):76.
[25]鄭戈.人工智能與法律的未來[J].探索與爭鳴,2017,(10):78.
[26]王正鑫.機(jī)器何以裁量:行政處罰裁量自動化及其風(fēng)險控制[J].行政法學(xué)研究,2022,(2):8.
[27]張旺,劉戟鋒.技術(shù)倫理學(xué)視域下的網(wǎng)絡(luò)安全規(guī)范路徑——以人工智能技術(shù)為例[J].湖湘論壇,2018,(2):131.
[29]丁曉東.論算法的法律規(guī)制[J].中國社會科學(xué),2020,(12):153.
[31]梅夏英,楊曉娜.自媒體平臺網(wǎng)絡(luò)權(quán)力的形成及規(guī)范路徑——基于對網(wǎng)絡(luò)言論自由影響的分析[J].河北法學(xué),2017,(1):40.
The Application and Boundary Consideration of Artificial Intelligence
in Administrative Punishment
Han Yi,Zhang Ting
Abstract:With the development of The Times,artificial intelligence technology has been widely used in administrative punishment filing,investigation and evidence collection,decision and execution,which has played a positive role in improving the efficiency of administrative punishment,ensuring the fairness of administrative punishment and enhancing the accuracy of administrative punishment.In practice,there are still some risks in the application of artificial intelligence,such as flaws in data collection,vulnerable to derogation of procedural requirements,declining acceptability of decisions,and difficulty in determining the subject of responsibility and the principle of attribution.Therefore,it is necessary to promote the application of artificial intelligence prudently and clarify its boundary in administrative punishment.
Key words:algorithm;artificial intelligence;administrative punishment;technology function