——性別平等保護視角下智慧司法的規(guī)制路徑"/>
劉 玫 陳慧君
(1.中國政法大學 刑事司法學院,北京 100088;2.華東政法大學 中外法律文獻中心,上海 201620)
大數(shù)據(jù)時代下,數(shù)據(jù)洪流幾乎已經觸及所有社會領域?;跈C器學習、算法自動化決策而產生的人工智能,日益滲透到當代生活的各個方面,并在現(xiàn)代社會的實質性決策中發(fā)揮著越來越重要的作用,從在線個性化定制、保險和信貸決策到預測性警務等,不一而足[1]。人工智能系統(tǒng)是一個可以為給定的目標提出建議、做出預測或決定的機器系統(tǒng)[2]。人工智能技術中的算法決策系統(tǒng)(Algorithmic Decision Making-Systems,ADMs)是基于特定機器學習而構建,并通過數(shù)據(jù)訓練優(yōu)化模型進而作出決策的系統(tǒng)[3]。
智慧司法在一般人工智能的基礎上融合司法實踐的特征,是人工智能等現(xiàn)代科學技術賦能司法的一種新的司法運行和管理形態(tài)[4]。在訴訟中應用人工智能,對于高效、準確完成大量司法工作具有促進意義?;跈C器學習和算法決策的刑事司法人工智能尤其側重算法技術的開發(fā)與應用,并在各國司法實踐中屢見不鮮。例如美國的COMPAS(1)COMPAS(Correctional Offender Management Profiling for Alternative Sanctions)算法工具的原理是,收集和處理行為人的犯罪史、簡歷、心理信息等數(shù)據(jù),按照一定的算法計算出其風險值。在許多聯(lián)邦州的司法實踐中,該工具也被用來輔助作出取保候審或者假釋的決定,以及在法庭中確定量刑或者其他措施。參見Katherine Freeman,“Algorithmic Injustice:How the Wisconsin Supreme Court Failed to Protect Due Process Rights in State v.Loomis”,North Carolina Journal of Law & Technology,2016,18(5)。、PSA(2)PSA(Pretrial Public Safety Assessment)是目前在美國應用最廣泛的審前風險評估模型,2017年美國聯(lián)邦地區(qū)法院中近90%的被告人通過PSA系統(tǒng)評估審前風險。該系統(tǒng)由作為保釋制度改革試點州的美國肯塔基州開發(fā),評估結果表現(xiàn)為再次被逮捕、不出庭和因暴力犯罪被捕風險的綜合分數(shù)。參見高通:《逮捕社會危險性量化評估研究——以自動化決策與算法規(guī)制為視角》,《北方法學》2021年第6期。和英國的HART等評估工具,均與預測被追訴人人身危險性和再犯風險有關。即使是先前一直對其持保守態(tài)度、否定量刑模式化和數(shù)字化的德國,近期也在量刑時開始關注“類案推薦”或“量刑指南”[5]。
中國刑事訴訟運用算法輔助決策的司法實踐起步較晚,但得力于科技的進步與政策的支持,現(xiàn)階段發(fā)展勢頭正猛,在司法效果上已取得不俗的成績。例如全國檢察機關智慧檢務行動指南(2018-2020年)推進的“智能量刑輔助系統(tǒng)”等。但是司法實踐中算法工具所具有的性別歧視性風險不可不察。一方面,中國現(xiàn)行法律制度尚無體系性的反歧視法律制度,法律平等原則難以在隱蔽的歧視性風險中發(fā)揮實質作用;另一方面,中國現(xiàn)階段法律人工智能實現(xiàn)性別平等存在現(xiàn)實困境,除了法律數(shù)據(jù)不充分、不真實、結構化不足、深度學習型算法缺位外[6],目前的算法決策系統(tǒng)在數(shù)據(jù)收集和模型設計上還沒有統(tǒng)一適用的公平標準,無法完全排除故意和無意識的性別歧視。此外,刑事訴訟中被追訴人本身就在訴訟信息和訴訟地位上處于劣勢,其知情權利可能因為算法工具中性別歧視性風險的隱蔽性而更難得到保障。
因此,就智慧司法的規(guī)制問題而言,本文側重于討論刑事訴訟中司法機關主動運用算法決策系統(tǒng)輔助裁判時產生的性別歧視問題,追問如何在智慧司法的背景下作出公正裁判、解釋裁判原理,保障訴訟權利平等實現(xiàn)。就本文所討論的性別歧視而言,主要指女性被追訴人在訴訟中所遭遇的不利于己且不合理的不平等待遇。該定義具有社會通常觀念下認為不可接受的差別對待或劣勢地位等負面含義,與包含有利和可接受的區(qū)別性對待不同。
刑事司法運用算法決策工具評估行為人的人身危險性和再犯風險,雖然在特定情況下可以減輕司法機關和被追訴人的訴訟負擔,但是其同樣可能在不同的訴訟階段產生性別歧視性風險。
在審前保釋階段,算法工具的使用可能影響司法機關對犯罪嫌疑人人身危險性的判斷與是否執(zhí)行羈押的決定。例如美國刑事司法使用PSA算法工具評估犯罪嫌疑人的審前公共安全指數(shù)。實證研究顯示,盡管PSA的結論總體上對法官是否決定釋放被捕者沒有影響,但是PSA可能會使法官傾向于對女性被捕者較為寬宥,其同時鼓勵法官對被認為有風險的男性被捕者作出較嚴厲的決定(3)Imai,K.,Jiang,Z.,Greiner,D.J.,et al.“Experimental Evaluation of Algorithm-Assisted Human Decision-Making:Application to Pretrial Public Safety Assessment”,2021,available at https://imai.fas.harvard.edu/research/files/PSA.pdf,最后訪問日期:2022年4月29日。。
在審中量刑階段,司法機關運用算法工具預測犯罪行為人的再犯風險,可能因存在歧視性風險而違反程序正義。在美國Loomis v.Wisconsin案中,法院在量刑時使用了COMPAS算法工具進行風險評估,并據(jù)此認為被告人具有一般犯罪和暴力犯罪的再犯風險。被告人針對法院所使用的COMPAS算法工具,分別就基于準確信息判處刑罰、獲得個別化量刑權利和量刑中不當使用性別評估,根據(jù)正當程序原則提出上訴(4)State v.Loomis,881 N.W.2d 749 (Wis.2016):754,755,757.。被告人認為,該算法基于群體性數(shù)據(jù)而非其個人情況進行預測,而且考慮了性別因素,算法的知識產權保密性也使他無法質疑算法的有效性。但是,威斯康星州最高法院支持在有限的范圍內使用該算法,并認為在量刑時進行COMPAS風險評估,有助于向量刑法庭提供盡可能多的信息,以達到個別化的判決。就性別評估問題,COMPAS對性別因素的使用促進了量刑的準確性,有利于被告人和司法系統(tǒng)(5)State v.Loomis,881 N.W.2d 749 (Wis.2016):767.。此外,法院未對COMPAS的使用作出任何實質性限制或采取措施要求算法控制者讓渡其算法所有權,包括公開量刑算法的源代碼或以簡樸的自然語言對算法進行解釋[7]。
本案中,威斯康星州最高法院確認COMPAS作為刑事風險評估算法的合憲性,體現(xiàn)了對采納自動化決策的一種傾向性,一定程度上忽視了“自動化偏見”的負面影響。所謂自動化偏見,是指即使計算機系統(tǒng)所依賴的數(shù)據(jù)不準確,人類通常也會信賴其所生成的評估,并將計算機所提供的建議轉化為最終決定[8]。實證研究表明,人機交互式算法決策系統(tǒng)中的決策者即使認為自動化系統(tǒng)的建議可能是不完整、不準確,甚至是錯誤的,往往也不會反駁該建議,反而給予更積極的評價[9]。其中部分原因在于,機器學習的普及同時受到商業(yè)利益和政策目標的推動,導致相關從業(yè)者尋求更多“數(shù)據(jù)驅動的決策”[10]。
中國各級法院正在積極開發(fā)智能化審判輔助系統(tǒng),讓算法系統(tǒng)學習相關判例及其裁判說理,在保證同案同判的結果公正和充分論理的基礎上提升審判效率。以在上海等地試行的“206系統(tǒng)”為例,該系統(tǒng)主要運用實體關系識別和分析、司法要素自動提取、輔助量刑建議等技術,力圖形成統(tǒng)一適用的證據(jù)標準和證據(jù)規(guī)則指引,構建人工智能技術支撐的公檢法司機關刑事辦案系統(tǒng)。然而,使用司法人工智能處理案例特征與數(shù)據(jù)庫檢索到的案例之間的類似性并做傾向性推理和判斷,存在一種純粹的法律實證主義預設[11]。其在排除司法機關主觀恣意的同時,也可能復制先前案例中的歧視性因素,進而通過自動化偏見延續(xù)到后案之中。
綜上所述,人工智能在司法實踐運用過程中所存在的性別歧視性風險,一方面源于算法工具本身的公平性和可理解性,另一方面通過司法機關依賴算法結論作出裁判的自動化偏見作用于個體。
首先,男性和女性的再犯率確有不同,這種性別上的區(qū)分一定程度上對預測再犯風險是有效的。2012年,荷蘭蒂爾堡大學進行了一項實證研究,旨在比較不同犯因在預測男女兩性的再犯風險時的相關性(6)在荷蘭,緩刑服務部門通過評估罪犯的風險和犯因向檢察機關和法院提出建議,并制定監(jiān)督和矯治計劃。該研究使用了荷蘭緩刑服務部門的一個數(shù)據(jù)庫,其包含了從2004年11月(緩刑服務部門開始使用結構化風險評估工具)到2007年9月進行的所有風險和犯因評估的數(shù)據(jù)。數(shù)據(jù)經過清理后(刪除中斷的評估以及對同一罪犯的第二次或第三次評估),最后樣本包括16329份評估。參見Leontien M.van der Knaap,Daphne L.Alberda,Paul Oosterveld,Marise Ph.Born,“The Predictive Validity of Criminogenic Needs for Male and Female Offenders:Comparing the Relative Impact of Needs in Predicting Eecidivism”,Law and Human Behavior,2012,36(5)。。研究結果表明,在一般犯罪和暴力犯罪方面,男性兩年內的再犯率高于女性。略高于1/3的男性(36.5%)在兩年內重新犯罪,而略高于1/5的女性(22.4%)重新犯罪。男性(12.1%)和女性(5.1%)暴力犯罪的兩年再犯率都較低。統(tǒng)計學上的檢驗顯示,再犯率在男性和女性之間有顯著差異[12]。
但是,僅僅通過區(qū)分男女性別這一簡單變量進行評估的效果卻是有限的。由于刑事司法中風險預測型工具的開發(fā)需要大量樣本數(shù)據(jù),而現(xiàn)實生活中男性的犯罪率通常高于女性,故男性樣本數(shù)量占比更大[13]。例如,中國學者曾就被告人身份差異對量刑的影響進行實證研究,其在J市四家基層法院十年間審理的盜竊案件中隨機抽取了1060件,發(fā)現(xiàn)樣本中的男性被告人占84.0%,女性被告人則僅占16.0%[14]。所以,主要針對男性罪犯群體進行開發(fā)的算法工具,其變量的選擇和模型的建構很大程度上參考了以男性再次犯罪為主的文獻和案例[15]。由此,包含于評估再犯風險型算法模型中的風險因素可能不是與女性最相關的因素,且有可能存在不影響男性再犯幾率而與女性更相關的因素,其卻因與男性無關而未被選入現(xiàn)有的算法模型中。然而,這種基于男性數(shù)據(jù)的算法模型卻常常同時對女性使用。
例如,犯因和一般再犯率之間的相關性方面,存在顯著的性別差異。在犯罪歷史、住宿、財務、與朋友的關系、毒品和酒精濫用、認知技能(思維和行為)以及對犯罪的態(tài)度方面,男性與一般再犯的關系明顯強于女性。而對于女性罪犯來說,受教育水平、工作情況、與家庭和伴侶的關系以及情感問題與一般再犯的相關性比男性罪犯的更強[16]。2019年,英國薩里大學有關刑事司法中算法性別歧視的實證研究也得出了類似的結論(7)該研究收集了6172名在佛羅里達州Broward縣被逮捕者的信息,并于其被捕后不久的2013年和2014年使用COMPAS算法工具中的一般再犯風險對這些人進行了評估。該縣治安機關自2008年以來一直使用COMPAS為司法裁決提供信息。參見Melissa Hamilton,“The Sexist Algorithm”,Behavioral Sciences & the Law,2019,37(2)。。多數(shù)再犯風險評估工具包含的所謂“性別中立”因素,例如犯罪史、年齡、心理健康、藥物濫用等,并不像所設想的那樣公平,因為其中很多因素與男性再犯的相關性更高。而一些與性別相關的因素,尤其是性虐待、生育壓力等,與女性再犯風險的預測更為相關[17]。
因此,算法模型對再犯風險的預測在性別上產生了差異效度,即算法決策系統(tǒng)未能以相同水平的準確度在兩個性別組進行預測,特別是系統(tǒng)性地高估或低估了女性的再犯風險。誠然,系統(tǒng)性地高估或低估再犯風險或許能夠對各個變量做出很好的區(qū)分,但是對相關個體實際風險的預測準確性可能較差[18]。實證研究顯示,COMPAS算法工具在被用來預測一般再犯風險時,低、中、高三個風險等級中的女性再犯率都低于男性(分別低9、12、10個百分點),且這種差異具有統(tǒng)計學意義上的顯著性。此時,COMPAS便是系統(tǒng)性地高估了女性的再犯風險。可以說,超過10%差異的中高風險分類對男女不同性別而言,根本沒有相同的預測效用,COMPAS在性別預測平等意義上不具有公平性[19]。
此外,算法涉及多維歧視的問題。根據(jù)歐盟指令(Council Directive 2000/43/EC)重述,女性通常是多維歧視的受害者(8)Council Directive 2000/43/EC of 29 June 2000 Implementing the Principle of Equal Treatment between Persons Irrespective of Racial or Ethnic Origin,Recitals (14),https://lexparency.org/eu/32000L0043/PRE/,最后訪問日期:2022年4月29日。。多維歧視主要包括疊加歧視和交叉歧視。疊加歧視是指存在兩個以上受保護屬性,但各自單獨考量而形成的歧視。交叉歧視則是同時考量兩個以上受保護屬性而產生的差異影響。設想一個具有兩個變量的模型,分別為種族(如黑人和白人)和性別(如男性和女性),二者在人口中獨立且均勻地隨機分布。當分別審查種族變量和性別變量時,可能產生疊加歧視;但如果同時審查這兩個變量的任意組合(如黑人女性),則可能產生交叉歧視。在后一種情形下,算法不僅無法做到準確預測,而且易使受保護弱勢群體和對照群體的界定變得模糊,從而不利于證明歧視的存在[20]。
性別歧視是社會經濟發(fā)展與文化結構下的產物,其本身存在于社會的各個領域。在智慧司法背景下,算法模型的復雜性和司法裁決的不透明很可能固化甚至強化這種歧視,而且方式十分隱蔽和難以察覺。識別并避免智慧司法中的性別歧視,對于保護人之基本權利、維護個體正義、實現(xiàn)社會公平,具有重要意義。分析中國現(xiàn)有法律制度規(guī)定,盡管法律平等原則已然建立,數(shù)據(jù)安全保護義務與個人信息權利也有法可循,但是這些規(guī)定對智慧司法背景下的算法決策系統(tǒng)而言,仍力有不逮。
首先,在原則性規(guī)范層面,《憲法》第33條、《刑事訴訟法》第6條、《民事訴訟法》第8條以及《行政訴訟法》第8條均作出類似規(guī)定,即公民在法律面前一律平等,包括享有平等的訴訟權利和訴訟地位,并且平等地適用法律。此外,《婦女權益保障法》第2條第1款和第2款更是在男女性別平等保護上作出了明確的表述:“婦女在政治的、經濟的、文化的、社會的和家庭的生活等各方面享有同男子平等的權利。實行男女平等是國家的基本國策。國家采取必要措施,逐步完善保障婦女權益的各項制度,消除對婦女一切形式的歧視?!逼渲?,人工智能運用于司法實踐所可能產生的性別歧視,屬于“一切形式的歧視”的應有之義。這種歧視違反法律平等原則,應受法律規(guī)制。
其次,在數(shù)據(jù)規(guī)范層面,《數(shù)據(jù)安全法》第28條對于數(shù)據(jù)處理活動以及研究開發(fā)數(shù)據(jù)新技術,規(guī)定了應“有利于促進經濟社會發(fā)展,增進人民福祉,符合社會公德和倫理”的要求,構成平權算法的原則性條款。此外,該法還將包括數(shù)據(jù)的收集、存儲、使用、加工、傳輸、提供、公開等在內的數(shù)據(jù)處理行為均納入其調整范圍,要求數(shù)據(jù)處理活動應履行數(shù)據(jù)安全保護義務,加強風險監(jiān)測,保障數(shù)據(jù)安全(9)參見《數(shù)據(jù)安全法》第3條、第27條、第29條。。根據(jù)《個人信息保護法》第24條和第48條的規(guī)定,對個人信息進行自動化決策時應遵循決策透明與結果公正的要求。通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求信息處理者對其信息處理規(guī)則予以解釋說明,并有權拒絕信息處理者僅通過自動化決策的方式作出決定。該法第50條和第55條還要求個人信息處理者建立便捷的個人行使權利的申請受理和處理機制,并在特定情形下進行個人信息保護影響評估。結合中國現(xiàn)有的法院信息化實踐和案件智能輔助系統(tǒng),依托現(xiàn)代技術的辦案和管理平臺,案件卷宗實現(xiàn)電子化,類案推薦、量刑輔助和偏離預警等審理逐步智能化[21]。當事人的信息,包括犯罪歷史、教育情況等過去不變的靜態(tài)信息和訊問情況、專家鑒定等新形成的動態(tài)信息,均作為數(shù)據(jù)納入司法系統(tǒng),作為算法自動化程序運行的對象,應無疑義。
但是,輔助司法機關作出裁決的算法決策結果,是否屬于“對個人權益有重大影響的自動化決策”,值得商榷。因為刑事訴訟遵循直接言詞原則,訴訟進程的最終結果須由直接審理案件的法官作出,而不能代之以自動化的算法系統(tǒng)。直接原則要求審理法官應對整個庭審的訴訟進程親自感知,特別是親自進行證據(jù)調查,要親眼觀察、親耳聆聽。法官負有查明真相的義務,須將對裁判作出有意義的事實和證據(jù)全部納入證據(jù)調查程序,對案件進行必要的法庭審理,在庭審中經過直接審理和言詞辯論獲取新的信息,對證據(jù)進行綜合判斷,依自由心證原則作出裁判。言詞原則是一種對形式進行約束的原則,即法庭審理活動應當以口頭溝通的方式實現(xiàn),適用于整個庭審活動,特別是證據(jù)調查程序。只有在法庭審理過程中通過言語進行的陳述和討論,特別是庭審中對被告人的訊問、對證人和鑒定人的質證、文書宣讀以及最后陳述等,才能構成裁判的基礎。直接原則與言詞原則二者須緊密結合,才能實現(xiàn)刑事訴訟法上有關自由心證的要求,即法官應當依據(jù)其親自對案件的全面審理,自由地形成對證據(jù)調查結果的確信,并作出裁判。因此,就司法裁決的形成而言,算法工具的自動化結論通常作為一種司法機關作出裁決的決策支持,其至多屬于半自動化決策,最終仍應由法官在親自審理案件后進行取舍。
然而,即使對信息處理與數(shù)據(jù)安全作廣義理解,認為智慧司法背景下的數(shù)據(jù)自動化處理,亦應同時受到現(xiàn)行《個人信息保護法》和《數(shù)據(jù)安全法》的調整,刑事司法系統(tǒng)所固有的運行邏輯卻使當事人在主張適用上述法律時困難重重。在智慧司法的背景下,司法機關以強大的信息獲取、分析和運用能力,期望借助算法決策系統(tǒng)作出更準確的判斷,但是卻有擴大司法機關與被追訴人之間地位、能力不平等的風險。因為辯方在相關數(shù)據(jù)庫訪問、算法規(guī)則理解等方面均處于劣勢。當被追訴人希望適用前述有關平等原則和數(shù)據(jù)保護的規(guī)定時,其可能在發(fā)現(xiàn)歧視或提出證據(jù)等階段就舉步維艱。因此,即使寄希望于傳統(tǒng)法釋義學對《個人信息保護法》和《數(shù)據(jù)安全法》的上述規(guī)定作擴張解釋,仍然無法使性別平等的倫理要求在算法形成伊始便發(fā)揮指導刑事訴訟運行、規(guī)制算法決策的作用。
綜上所述,就智慧司法背景下的性別平等保護而言,對于公平概念的界定、歧視行為的認定及其證明責任等實質性內容,相關算法治理仍然是原則性的、碎片化的,尚無反歧視法、信息保護法、人工智能法為司法實踐中的性別平等提供體系性的法律保護。
算法規(guī)則不健全,主要體現(xiàn)在算法形成中的數(shù)據(jù)挖掘和建立模型以及算法形成后的公平性評價等方面。
第一,算法模型形成中的數(shù)據(jù)挖掘階段沒有規(guī)范性標準約束程序開發(fā)者的主觀判斷,是算法模型嵌入性別歧視性風險的原始階段和主要成因。數(shù)據(jù)挖掘的關鍵是賦予每個個體以統(tǒng)計意義上相似群體的品質,形成一個區(qū)分個體的正當性基礎。由此模型能夠自動化地對數(shù)據(jù)進行分類、估計變量值或者預測未來的結果[22]。在數(shù)據(jù)挖掘的過程中,數(shù)據(jù)經訓練后確定其中的統(tǒng)計學關系,具有相同關系的數(shù)據(jù)集合形成自動化運行的“模型”。但其中的各個步驟未在行業(yè)或司法系統(tǒng)達成共識或有效監(jiān)管,沒有形成統(tǒng)一的規(guī)范標準,故均存在主觀的判斷。因此,智慧司法背景下的數(shù)據(jù)挖掘可能對本應受法律保護的公民作出不公正的負面評價,使其系統(tǒng)性地處于相對不利的地位。而且,與人為主觀的決策不同,數(shù)據(jù)挖掘經過定義目標變量、數(shù)據(jù)訓練、根據(jù)模型作出決策等過程,使性別歧視性風險更為隱蔽,其往往很難在算法系統(tǒng)中被追溯到。
一方面,對于形式簡單、內容互斥的問題,目標變量的定義可以借助現(xiàn)有的類別標簽進行劃分,因此一般沒有爭議。但是在刑事司法中,目標變量往往涉及抽象類別的創(chuàng)設。例如對行為人再犯風險的預測,其中“再犯風險”的準確含義并不明顯,無法由類別標簽將其所有的可能值劃分為互斥的數(shù)據(jù)類別?!霸俜革L險”實則是程度問題,其可能會隨數(shù)據(jù)的不同而發(fā)生改變,故應以連續(xù)變量為形式的數(shù)據(jù)設置閾值來定義類別,屬于定量定義[23]。因此,當不存在統(tǒng)一的理想定義,類別標簽又不夠精確時,必然存在程序開發(fā)人員的主觀判斷。另一方面,數(shù)據(jù)訓練是針對示例數(shù)據(jù)的學習過程,包含標記示例、數(shù)據(jù)收集、特征選擇等環(huán)節(jié)。示例數(shù)據(jù)的標記是人為地為基礎數(shù)據(jù)分配標簽的主觀過程[24]。例如對何種因素達到何種程度會揭示行為人具有再犯風險設置標簽。在數(shù)據(jù)收集環(huán)節(jié)中,如果數(shù)據(jù)或選定的特征不正確或者不具代表性,則也可能會產生歧視性模型,尤其是可能產生過擬合的現(xiàn)象。特別是當不同類別的樣本數(shù)量差別過大,數(shù)量過少的數(shù)據(jù)將無法有效代表該類別數(shù)據(jù)的整體分布情況,此時易形成過擬合[25]。而且,數(shù)量差距懸殊的大小樣本還可能導致特征不明顯的少數(shù)群體數(shù)據(jù)直接被歸屬到多數(shù)群體的噪音數(shù)據(jù)之中[26]。就性別歧視問題而言,以男性罪犯數(shù)據(jù)為依據(jù)的數(shù)據(jù)訓練和模型設計,往往容易導致算法決策系統(tǒng)性地高估女性的再犯風險。
第二,在算法形成后沒有評價公平性的統(tǒng)一標準。試舉美國COMPAS工具的公平性爭議為例。獨立媒體ProPublica質疑該算法工具的預測結果在輔助司法機關作出裁判時存在種族和性別等方面的歧視(10)Angwin,J.,Larson,J.,Mattu,S.,et al.,“Machine Bias”,https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing,最后訪問日期:2022年4月29日。。COMPAS的開發(fā)者Northpointe公司對此進行反駁,批評了ProPublica的統(tǒng)計學方法。實際上,二者的結果并不矛盾,只是雙方對算法是否公平的問題分別采取不同的標準,從而得出了完全相反的結論[27]。由此可見,即使是較早實踐智慧司法的美國,亦沒有對算法的公平性形成統(tǒng)一的評價體系,這不利于訴訟當事人發(fā)現(xiàn)并主張自己受到了歧視。
算法決策系統(tǒng)強調計算機的學習性,即通過將特定數(shù)據(jù)和相應結果輸入,不斷訓練該系統(tǒng)進行學習。在這個過程中,人類思考中的因果關系被數(shù)據(jù)間的關聯(lián)關系所替代。在一定程度上,基于龐大數(shù)據(jù)庫和高速機器運轉的智能化決策系統(tǒng)會比人類的思考過程更加準確和迅捷,但是數(shù)據(jù)的選擇和算法程式的設計卻無法避開人的智力和傾向。此時,如果沒有法律規(guī)范的規(guī)制、監(jiān)管體系的約束和對不受歧視權利的充分保障,則很難避免有關性別歧視的因素滲入算法決策系統(tǒng),甚至性別歧視在智慧司法的背景下形成一種難以察覺和救濟的結構性歧視。
智慧司法背景下的性別歧視性風險,不僅體現(xiàn)在用以訓練和優(yōu)化算法模型的數(shù)據(jù)樣本和開發(fā)者建模過程中存在偏差,其還因司法實踐上的各種不透明風險而加劇,導致當事人可能難以意識到性別歧視的發(fā)生,繼而難以在訴訟權利的行使上實現(xiàn)性別平等。
首先,算法黑箱不透明,司法決策難理解。算法模型原理固有的復雜性及其結果的不易理解,表現(xiàn)在事實和法律兩個方面。在事實層面,刑事訴訟領域中基于機器學習而生成的算法系統(tǒng),常常是復雜的人機交互,外行人往往無法理解。如果數(shù)據(jù)挖掘將歧視性案例視為可以學習的有效示例,那么該模型可能會簡單地復制這些先例中所涉及的性別歧視。如果數(shù)據(jù)挖掘從有性別歧視的總體樣本中得出推論,則任何基于該推論的決策都可能系統(tǒng)性地使那些在數(shù)據(jù)集合中被低估或高估的人群處于不利地位[28]。而這種歧視的隱蔽性在于,經過數(shù)據(jù)訓練后,算法模型似乎形成了一組可靠且公正的示例,算法系統(tǒng)從中歸納出決策規(guī)則。該決策再通過抽象到無法知悉算法基礎性代碼層面的信息來掩蓋故意或無意識的歧視。在法律層面,開發(fā)和使用算法決策系統(tǒng)者可以主張知識產權法和數(shù)據(jù)保護法等相關規(guī)定,避免他人掌握系統(tǒng)運行的原理,從而阻止他人入侵算法系統(tǒng)、破壞算法模型,保護商業(yè)秘密等經濟利益。
以刑事司法中的量刑輔助系統(tǒng)為例,鑒于法官作出的量刑裁判本身就是一項綜合犯罪構成要件和各種犯罪情節(jié)的模糊決策,作為案件輔助的算法決策系統(tǒng)所得到的結果也是一個模糊的決策函數(shù),因此其很難以可視化的方式呈現(xiàn)或公開算法[29]。司法機關、被追訴人與社會公眾也會由于時間有限、資源不足以及缺乏必要的專業(yè)知識而無法充分理解裁判作出的理由。試問,當被追訴人難以獲取有效的算法信息,性別歧視問題也很難被意識到,其將如何對評估結果中涉及性別的要素進行辯護準備?更遑論主張法律的平等保護。
其次,訴訟信息不透明,訴訟地位不對稱。司法機關在基于風險性預測工具進行裁判時,往往未能充分保障訴訟當事人的知情權。這一點在2017年美國的Kansas v.Walls案件中體現(xiàn)得尤為明顯。原審法院根據(jù)LSI-R(11)LSI-R是一個客觀的、可量化的、包含54個項目的風險/需求分類工具。該工具由10個子量表組成,其中包括“靜態(tài)”(例如犯罪歷史)和“動態(tài)”(例如酒精/毒品問題、同伴和家庭/婚姻)風險因素。盡管靜態(tài)風險因素通常不能改變,但它們仍然可以預測再犯罪可能性。動態(tài)風險因素是可變的,并為重點干預提供方向。參見Level of Service Inventory Scoring Guide May 2009,https://cssd.ctclearinghouse.org/images/customer-files-email/1537-Level_of_Service_Inventory_Scoring_Guide.pdf,最后訪問日期:2022年4月29日。評估考量對Walls的緩刑條件。LSI-R評估的結果表明Walls是一個具有高再犯風險的待處緩刑者,而法院未將Walls的LSI-R評估的完整副本供律師審查。Walls在上訴中辯稱,審查和驗證評估報告中包含的問題、答案和評分決定,是其所享有的憲法性權利。與前述Loomis案件的裁決不同,本案中的堪薩斯州上訴法院對預測型工具的使用得出了不同的結論,認為被告人有權獲得LSI-R評估報告。原審法院未能向辯方律師提供LSI-R的完整副本,剝奪被告人在質疑裁判時可獲得準確信息的權利,侵犯了被告人在庭審量刑階段以正當程序獲得裁判的權利,構成自由裁量權的濫用,屬于法律錯誤(12)State of Kansas v.John Keith Walls,No.116,027,The Court of Appeals of the State of Kansas (2017)。。盡管該案法官在救濟程序中確認了被告人的知情權利,但不可否認的是,基于數(shù)據(jù)獲取與分析能力形成的訴訟地位不平等,智慧司法的應用加劇了被追訴人的劣勢地位,導致其無法有效地參與到訴訟程序中。這與現(xiàn)代刑事訴訟賦予被追訴人的訴訟主體地位與訴訟權利,難謂有合。
再次,自由裁量不透明,權力限度無約束。法官在量刑時的自由裁量空間可能掩蓋前述歧視性風險的存在。Loomis案中的威斯康星最高法院認為,原審法官享有自由裁量權,其僅僅是把COMPAS中對性別的評估作為量刑裁判的基礎之一,且被告人無法證明該法官實際上僅以性別為量刑依據(jù)。這種對法官自由裁量空間的認可,一方面是因為人本身認知能力的有限性,另一方面是為了要求法官對每一個個案的具體特性都進行公正的對待,并依據(jù)行為人罪行所具有的相關特征決定其刑罰。因為一般性的指導規(guī)范無法應對司法實踐中眾多細微且不同的情形[30]。然而,算法決策的輔助雖然在一定程度上可以排除自由裁量權的主觀片面或恣意行使,但在算法邏輯不透明、訴訟信息不對稱的情況下,這也可能產生另一種恣意——法官過度依賴算法決策而怠于對個案可能涉及的法理人情、權利保障、利益衡量等進行考察,反而以其自由裁量權掩蓋自身對個體公正的忽略。此時,算法決策系統(tǒng)在功能意義上對刑事司法裁判的“輔助”可能異化為責任的推諉[31]。質言之,法官在定罪量刑時所遵循的自由心證原則和所享有的自由裁量權往往會成為司法不透明的正當理由,特別是當法官借助智能辦案輔助系統(tǒng)、利用其算法決策結果作為依據(jù)進行裁判時。此時,裁判究竟在多大程度上以算法決策結果為基礎,除法官本人以外,無從得知。即使被追訴人提出裁判作出的過程和結果存在性別歧視,法官亦得以其未完全根據(jù)算法結果進行判斷,且享有自由裁量空間為理由駁回該異議。
綜上所述,算法決策系統(tǒng)的“黑箱”困境導致訴訟當事人難以理解司法裁判的依據(jù),裁判邏輯的模糊性可能會引發(fā)暗箱操作等不良后果。司法機關基于國家保密機制和商業(yè)秘密保護不提供具體算法邏輯和相關數(shù)據(jù)[32],使得本身就沒有能力獨立獲取數(shù)據(jù)、分析算法的被追訴人無法充分知悉經由人工智能輔助辦案的裁判理由,進而不能進行有針對性的辯護。
智慧司法背景下的算法決策系統(tǒng)自始存在性別歧視性風險,該風險又因人工智能和司法實踐的不透明因素而易被掩蓋。當事人往往難以察覺其不受歧視的權利已經被侵害,故不知應受法律保護而主張救濟,或者縱使當事人欲主張司法救濟卻無有效手段對權利被侵害的事實進行證明,這些均與法律面前人人平等原則的要求相違背。但是,不能因為算法預測系統(tǒng)中存在性別歧視性風險就因噎廢食,盲目地刪除其中的性別變量。實證調查和理論研究表明,性別本身不是風險性因素,而且在公平的前提下要將性別納入算法模型,有利于提高預測的準確性,更好地為司法決策提供支持,維護社會利益,保護公共安全[33]。故此,有必要探究性別平等保護視角下智慧司法的規(guī)制路徑。
1.嵌入平權倫理
禁止歧視的本質在于尊重人類尊嚴這一憲法最高價值,其旨在保障人的主體性地位,強調尊重人的多樣性和獨特性[34]。禁止性別歧視,理固當然。目前算法系統(tǒng)有關性別歧視的不平等待遇和差別影響,多數(shù)因為其損害的不可預測性而未能落入隱私性權利或個人數(shù)據(jù)保護等法規(guī)范的范疇進行調整[35]。但是國家對這一憲法性利益負有保護義務。若不對受造于人、應用于人的算法進行兩性平權方面的規(guī)制,則很可能使其隱蔽而廣泛地侵害女性受平等對待的權利,甚至成為一種對抗國家相關保護義務的“免死金牌”[36]。
從算法工具的自律性規(guī)制出發(fā),現(xiàn)階段的算法決策系統(tǒng)尚未形成統(tǒng)一的公平概念,本身還不具備倫理判斷的功能。相反,刑事風險評估工具結果中的性別偏見甚至歧視可能會導致對女性群體作出更為不利的裁判,產生算法公平的問題。不公平的算法決策系統(tǒng)不僅侵害個體以正當程序進行刑事訴訟的權利,尤其是根據(jù)充分的訴訟信息進行辯護的自主權利,而且降低社會一般公眾對司法系統(tǒng)的信任度。因此,有必要通過嵌入平權倫理的規(guī)范進行外部約束。
刑事訴訟旨在查明實質真相,刑事司法預測型算法決策系統(tǒng)亦應以實現(xiàn)實體公正和公平為目標。自比較法觀之,歐洲司法效率委員會明確要求歐洲各法院在引入信息與通信技術時不應侵害人類尊嚴和司法的象征意義[37]。作為歐洲第一個關于司法人工智能所涉道德原則的文本,《在司法系統(tǒng)及其相關環(huán)境中使用人工智能的歐洲道德憲章》直接強調了反歧視原則的核心地位,要求在司法系統(tǒng)開發(fā)和部署人工智能的階段應特別審慎地對待任何歧視的發(fā)展或加劇,促進使用機器學習和跨學科分析來避免這種歧視。確認存在該種歧視的,須采取糾正措施中和所產生的風險,并提高權利人的相關意識[38]。綜觀中國現(xiàn)行法律法規(guī),憲法和訴訟法等提出了平等原則的基本要求,《數(shù)據(jù)安全法》第28條和《個人信息保護法》第24條等內容形成算法治理的框架性條款,《網(wǎng)絡信息內容生態(tài)治理規(guī)定》《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》等在互聯(lián)網(wǎng)信息服務行業(yè)規(guī)范層面對算法安全治理提出了具體要求。國家新一代人工智能治理專業(yè)委員會于2021年發(fā)布《新一代人工智能倫理規(guī)范》,要求人工智能全生命周期應融入倫理道德,并貫穿管理、研發(fā)、供應和使用各個階段,特別是在數(shù)據(jù)采集和算法開發(fā)中,應加強倫理審查、充分考慮差異化訴求,促進公平公正,避免偏見和歧視(13)參見《新一代人工智能倫理規(guī)范》第1條、第4條、第13條。。但是,司法系統(tǒng)中涉及公權力的算法往往因與社會公共利益有關而成為倫理性要求和原則性規(guī)定的例外。是故,中國現(xiàn)行法缺乏可以有效制約智慧司法的平權倫理和相應規(guī)范。
綜上所述,鑒于算法決策的技術特點與其最終的使用結果是否合乎公平之間并非一一對應,智慧司法的規(guī)制路徑宜以規(guī)制對象所要實現(xiàn)的功能出發(fā),構建適用于智慧司法算法決策系統(tǒng)的特定性規(guī)則,并嵌入性別平等的倫理要求。使算法系統(tǒng)嵌入倫理、實現(xiàn)公平決策的要求作為法律法規(guī)確定下來,形成司法實踐中實現(xiàn)男女平等、保障公平正義的規(guī)范基礎。
2.規(guī)范算法公平
性別平等保護的倫理理念在智慧司法中的落地,須規(guī)范算法系統(tǒng)的公平概念,并依據(jù)性別歧視產生的原因確立相應的公平標準。對此,應構建性別歧視的概念,捋清算法發(fā)生性別歧視的原因,確定數(shù)據(jù)挖掘和建立模型中存在歧視所適用的證明標準,將技術語言轉化為法律語言。
公平,首先是一個社會和倫理概念。同時,算法決策系統(tǒng)中的公平基于特定目標群體進行定義,與個人層面的公平之間存在差別,具有統(tǒng)計學意義。因此,通常在現(xiàn)實世界中憑借直觀感受和樸素良心即能夠作出的公平性評價,在算法世界中卻仍是一個模糊概念。而且,算法系統(tǒng)設計者和軟件編程者在干預算法數(shù)據(jù)模型時的歧視和其他價值判斷根植于算法系統(tǒng)的每個環(huán)節(jié)。一些自動生成的相關性和推論看似客觀,也有可能隱含歧視[39]。這種歧視性風險通常須在法律、倫理、統(tǒng)計等不同的公平概念之間進行權衡后才能被確定。因此有必要進行技術與法律等多學科的對話,需要法學、計算機科學、社會學和統(tǒng)計學等領域的專家進行跨學科合作,通過反歧視性的法律制度確定技術話語中出現(xiàn)的公平概念和構成歧視的標準。就立法技術而言,性別歧視概念的構建有開放式、封閉式和半封閉式等多種方案。封閉式規(guī)定為立法機關終局性地確定反歧視的禁止分類清單,以求高度的法律確定性。開放式則表現(xiàn)為司法機關能夠對性別不平等進行正當性審查,從而靈活適應現(xiàn)代社會的發(fā)展[40]。鑒于中國尚未專門制定反歧視方面的法律法規(guī),宜以一般平等原則為指導、以“示例+其他”的半封閉模式規(guī)制智慧司法的算法決策。
此外,還應由外部引入公共的第三方進行算法公平性的監(jiān)管,包括數(shù)據(jù)訪問、模型調整等。該中立的第三方作為一個集中的專家監(jiān)管機構,應由性別比例相當?shù)墓?、司法機關與行業(yè)人員合作制定規(guī)范性指南和專業(yè)標準,從而使算法工具在準確性和公平性之間取得平衡。而且,還應當設計規(guī)制算法程序的技術工具作為輔助,確保第三方監(jiān)管的公平性,例如秘密文檔的數(shù)字復制品被第三方機構持有以確保每個決策使用同樣決策邏輯的加密承諾技術、檢驗決策程序可復制的公平選擇機制等[41]。由此,通過公正的外部監(jiān)管來糾正算法模型中錯誤的相關性,同時避免或降低由于算法開源所造成的對創(chuàng)新和效率方面的負面影響,并對被錯誤評估而受不利影響的被追訴人進行輔助,避免算法延續(xù)社會歧視。
算法決策模型的優(yōu)點之一是遵循數(shù)理邏輯,消除人為決策中所存在的歧視,但前提是其所使用的數(shù)據(jù)不存在歧視。這要求算法工具的開發(fā)者應正視且重視性別歧視,帶著性別平等的意識進行算法設計和評估[42]。對此,應當以平權倫理為基本理念,以規(guī)范的公平標準為依據(jù),一方面對智慧司法背景下算法決策系統(tǒng)進行多方面的平權性設計,另一方面以合適的方式對形成的算法工具及其使用進行解釋,提高算法結果的可理解性。
1.內塑平權算法
首先,在算法模型選取目標變量階段,主張應當刪除所有性別敏感屬性、僅保留中立屬性來保證公平性的觀點,不足為采。敏感屬性區(qū)別于中立屬性,是個體所特有的屬性,例如種族、性別、宗教和殘疾情況等。誠然,算法工具的技術性脫敏能夠迅速剔除算法系統(tǒng)中的性別變量,但是這種做法并非一勞永逸。一方面,性別本身有一定的預測效力,去除該變量會降低預測結果的準確性[43]。美國刑事司法統(tǒng)計數(shù)字顯示,婦女的再犯罪率遠低于男性,但是婦女在監(jiān)獄中的表現(xiàn)卻相對較差。因此,使用具有性別屬性作為變量的評分系統(tǒng),在刑事司法中對男性和女性進行區(qū)分處遇,具有科學依據(jù)[44]。另一方面,即使不考慮性別,敏感屬性仍然可能在未被排除的其他屬性中體現(xiàn)出來。因為看似中立的屬性可能成為敏感屬性的“代理”(proxy)。例如,性別分布差異明顯的職業(yè)可以是性別的一種代理形式[45]。故在刑事司法中,應將女性的相關因素納入司法預測型算法中,而不是單純地去除性別變量。由此,在提高預測準確性的同時,平衡女性在司法預測中的弱勢訴訟地位。
其次,對于很難被準確定義的“再犯風險性”,數(shù)據(jù)挖掘過程中不妨嘗試對這種模糊的定量概念作出多種定義,分別就對被追訴人所在社區(qū)、特定職業(yè)、受害人等進行獨立評分,再對不同方面的風險性評估進行統(tǒng)計學分析[46]。而且,使用算法系統(tǒng)的司法機關應有權訪問形成算法模型和結論的基礎數(shù)據(jù),并有權限收集更多數(shù)據(jù)。如此一來,不僅司法機關可以在斟酌各項結果后進行審慎裁判,而且也使得數(shù)據(jù)的追溯和校正成為可能,從而減少數(shù)據(jù)挖掘、算法建模和算法應用中的性別歧視性風險。
再次,在算法的數(shù)據(jù)訓練階段,各個環(huán)節(jié)都可能存在性別歧視性風險。例如,使用性別歧視性的示例數(shù)據(jù)進行數(shù)據(jù)訓練,從不具代表性的樣本中提取該類性別群體的屬性,等等。根據(jù)法律平等原則,在司法領域不允許性別等受保護屬性直接或間接在裁判作出時發(fā)揮作用。對此,算法模型的構建不僅應設計合理的相關關系,而且其所使用的訓練數(shù)據(jù)樣本還應能夠按比例代表整個總體,以此避免模型對代表性不足的類別作出錯誤的預測。其中,尤其應在數(shù)據(jù)挖掘過程中選擇和補充與男性相當?shù)呐詳?shù)據(jù)樣本,從而在兩性預測平等的意義上歸納有效的決策規(guī)則、建立平權模型。
此外,平權算法的塑造還須對算法系統(tǒng)開發(fā)者的組成和作為算法系統(tǒng)使用者的司法機關進行規(guī)制。一方面,在算法決策系統(tǒng)建模的過程中,需要開發(fā)人員不斷進行干預和校準,或改變現(xiàn)有變量的權重,或增加與性別相關的特定變量。為此,參與開發(fā)者應包括具有性別平等意識和犯罪學研究背景的學者,且應適當提高女性的人數(shù)比例,防止以男性為主導的人工智能專業(yè)人士在創(chuàng)建算法時無意識地引入性別偏見[47]。另一方面,應對司法機關人員進行算法性別歧視的培訓,包括基礎理論、歧視性裁判先例等內容。研究表明,接受過此類培訓者更可能仔細審查算法系統(tǒng)的結果,有助于減少歧視性結論的作出[48]。盡管司法機關不是算法決策系統(tǒng)的設計者,但是其在性別平等的意識下使用、審查和反饋算法工具,有利于平權算法在動態(tài)完善中得以實現(xiàn)。
2.構建算法解釋
在智慧司法所使用的算法決策系統(tǒng),挖掘個人信息,基于已有的訓練數(shù)據(jù)形成算法模型,綜合分析個體可能實施的行為和風險程度。其中,個人數(shù)據(jù)的收集、運算以及算法決策結論的依據(jù)、邏輯等,作為輔助司法裁判的信息,屬于對被追訴人有重要影響的訴訟信息。被追訴人應擁有知悉和異議的權利,并對此提出辯護意見。但是,機器學習型算法與人類思考不同。人類作為可以相互理解的社會性動物,在嘗試預測和解釋他人行為時所具有的自然優(yōu)勢,無法應用于對算法行為方式的理解[49]。被追訴人更因其劣勢的訴訟地位而難以發(fā)現(xiàn)算法中隱含的歧視,進而無法充分行使其訴訟權利。為此,有必要在技術層面優(yōu)化算法解釋方法,為司法透明與知情權保障提供技術支撐。
算法的可解釋性不僅是人工智能與司法機關之間建立互信的必要前提[50],也是智慧司法使被追訴人接受訴訟結果、對一般公眾具有公信力的重要前提。因此,刑事司法中對于算法解釋的應用,主要包括技術人員對作為算法系統(tǒng)使用者的司法機關進行解釋、司法機關對被追訴人的解釋,二者均旨在以自然語言解釋算法決策的原理。本文以向被追訴人進行算法解釋為分析重點。
算法解釋,通常分為全局解釋和局部解釋。全局解釋是一種以模型為中心的解釋,提供包括設置信息、訓練元數(shù)據(jù)、性能指標和處理信息等關于整個算法決策模型的廣泛信息[51]。但是,數(shù)據(jù)和算法系統(tǒng)所有人和相關權利人一般不傾向于打開“黑匣子”,以避免泄露商業(yè)秘密或侵犯他人隱私等權利。實際上,司法機關可以不對完整的算法模型進行解釋,而是選擇在輸入記錄的基礎上進行局部解釋。其以輸入樣本為導向,旨在幫助人們理解深度學習模型對每一個特定輸入樣本的決策過程和決策依據(jù)[52]。例如,以主題為中心的解釋方法作為一種局部解釋,側重于在算法工具、司法機關和被追訴人之間建立聯(lián)系,從而提供對權利人“有意義的”解釋。但是主題解釋僅定位那些待解釋對象所在的部分區(qū)域,無法解釋模型的整體決策行為,不能就每個特征對模型決策結果的貢獻程度進行定量分析。對此,基于變量擾動性和敏感性分析進行的解釋方法作為另一種局部解釋,根據(jù)變量的擾動對模型判定結果的影響來判斷模型對于變量的依賴程度。例如在COMPAS模型中,可對性別和種族等變量及模型的相關變化進行度量,以此解釋模型對于不同變量的依賴程度[53]。此外,“反設事實解釋”(Counterfactual Explanations)方法提供了能夠改變決策的最小信息量,有助于被解釋者理解決策的原因,而不需要掌握模型的內部邏輯[54]。
與全局解釋相比,局部解釋優(yōu)勢明顯。其通過專注于算法系統(tǒng)中的某個區(qū)域,以更簡單和更易理解的方式構建解釋模型,兼顧被追訴人知情權和商業(yè)秘密、知識產權的保護。此時,解釋不僅促進理解,而且被視為幫助被追訴人選擇訴訟行為的一種手段。司法機關則可以根據(jù)被追訴人欲實現(xiàn)的訴訟目標來衡量解釋的范圍與內容。不過,局部解釋并非無可指摘。其對于系統(tǒng)性了解算法工具的功能或者自動化決策的原理內容并無助益。反設事實解釋更是無法提供數(shù)據(jù)性的證據(jù)來輔助評價算法是否存在性別歧視。
值得注意的是,過度追求算法的可解釋性可能不利于算法預測的準確性。通常情況下,具有更多變量的復雜系統(tǒng)會具有更高的預測準確性。但是以人類理解為導向的解釋模型旨在理解系統(tǒng)的主要邏輯,傾向于采用更簡單的解釋模型,最終可能因追求易解釋性而簡化原算法模型,從而導致后者預測性能的弱化。在智慧司法背景下,算法工具輔助司法機關作出裁判,故算法預測的準確性和可解釋性既是技術問題,也是公共政策和公共安全問題[55]。選擇何種解釋方法或組合解釋,應在算法工具預測準確性與可理解性、技術發(fā)展與公共利益之間進行權衡,并以被追訴人理解決策原因、充分行使辯護權為目的構建算法解釋機制。
1.明確知情權利束
在傳統(tǒng)的刑事訴訟中,一定程度上仍然存在信息的不對稱、武器的不平等。面對具有專業(yè)法律知識的檢察機關和法院工作人員,刑事訴訟中的被追訴人通常是不熟悉法律的公民。盡管武器平等原則沒有在憲法或法律性文件中被明文規(guī)定,但是武器平等實現(xiàn)與否,對于涉及行為自由與安定性等人格性權利,具有顯著影響[56]。因此,武器平等原則是實現(xiàn)公正審判權的基本要求。根據(jù)程序公正原則的要求,國家就平衡武器不平等這種被追訴人所承受的結構性不利益,負有訴訟照管等幫助義務(14)BGH,Beschl.vom 14.05.1974-1 StR 366/73=LMRR 1974,2。。其應為被追訴人有效參與訴訟提供條件,保障被追訴人在刑事訴訟中的基本權利不受侵犯。其中,保障被追訴人知情權是刑事訴訟武器平等的必要保障。
算法決策輔助司法作出裁判的情況下,被追訴人往往難以獲得相關訴訟信息,知情權難以保障,進而人格尊嚴受尊重與受公正審判的基本權利受到損害。而且實證研究結果顯示,算法工具在對女性被追訴人的人身危險性和再犯風險進行評估時,相關關系的不當設計和訓練數(shù)據(jù)樣本過少可能導致系統(tǒng)性地高估女性群體的再犯風險,導致性別歧視。所以,司法機關如何使被追訴人了解算法工具的結論及理由,不僅是實現(xiàn)程序公正與被追訴人權利保障的基本前提,同時也是刑事司法人工智能實現(xiàn)性別平等的必要條件。
算法解釋是智慧司法背景下訴訟知情權的一部分,被追訴人有權請求司法機關解釋算法決策,應無疑義[57]。但無救濟則無權利,僅僅算法解釋請求權尚不足以保證被追訴人充分行使其知情權。因此,為了對可能受到性別歧視的個體提供周延的保護,應對知情權利設置配套的救濟性權利,形成知情權利束。不同于個人信息保護意義上的數(shù)據(jù)權利束強調個人對數(shù)據(jù)的知情與控制[58],知情權利束重在個體對司法中所運用的算法決策進行透明性制約。智慧司法中知情權利束的構造,由司法機關的告知義務為依托,以算法數(shù)據(jù)更正權、算法結果解釋權為基礎性權利,以算法結果異議權為救濟性權利。
算法數(shù)據(jù)更正權,以司法機關在使用算法工具前負有告知義務為前提。司法機關應告知該算法工具的特點、功能和使用目的,并在保護知識產權與商業(yè)秘密的前提下說明所涉數(shù)據(jù)的基本情況(15)對此,有學者提出應強化訴訟中的信息開示制度,將刑事訴訟中的閱卷權改造為“數(shù)據(jù)訪問權”。參見鄭曦:《人工智能技術在司法裁判中的運用及規(guī)制》,《中外法學》2020年第3期。。由此,被追訴人能夠預先知道算法決策將會輔助司法機關進行追訴,并提前對此進行必要的辯護準備。但司法機關一旦決定使用算法工具的,不宜容許被追訴人的反對意見發(fā)生當然的阻卻效力。因為刑事司法機關負有法定追訴和查明真相的義務,其認為有必要使用算法工具的,涉及公共利益之實現(xiàn)。在告知算法工具數(shù)據(jù)的基本情況后,被追訴人應享有請求更正算法數(shù)據(jù)的權利。但是該權利以自身數(shù)據(jù)正誤和可能導致歧視為限,并由司法機關對該主張是否合理進行裁斷。
算法結果解釋權,賦予被追訴人請求司法機關以適當方法解釋算法結果的權利。算法解釋應為被追訴人熟悉的自然語言,且能被一般公眾所充分理解,不得利用公民理解或使用數(shù)據(jù)的困難進行片面披露。
算法結果異議權,意味著被追訴人有權對已經形成并被司法機關使用的算法結果提出反對意見。在對裁判提出上訴權之外,另賦予被追訴人此項權利,是為避免司法機關自由裁量權的恣意行使。當被追訴人主張司法機關使用存在性別歧視性風險的算法結果而作出錯誤裁判,而司法機關以其并未使用算法結果或者綜合考慮其他因素為由主張自由裁量權的,不利于被追訴人以原裁判存在性別歧視為由提出上訴。因此,針對被追訴人對算法結果提出的異議,法院應當對該異議進行審查,同時檢察機關應參與審查以發(fā)揮法律監(jiān)督的作用。如果該異議被駁回而被追訴人提出上訴的,上訴審法院應對該異議中所涉及的算法工具及其結果,再次進行審查。
2.倒置舉證責任
性別平等保護理念未能對算法開發(fā)人員和適用算法的司法機關形成有效的約束力,主要原因在于權利當事人難以證明甚至察覺歧視的存在,從而無法主張其受到歧視,進而獲得法律救濟。按照傳統(tǒng)的法律關系分析,過錯、侵害行為與因果關系等是責任成立的必要條件,但算法歧視的存在及其與損害后果的因果關系卻難以證明。因此,從責任分配所產生的社會效益出發(fā),鑒于司法機關在收集、分析數(shù)據(jù)和使用算法輔助決策的過程中占據(jù)絕對優(yōu)勢,應對舉證責任的分配作出調整。
自比較法觀之,美國法關于歧視的認定提出了差別待遇和差別影響等概念(16)有學者還提出了超越差別待遇和差別影響的公平概念,參見Zafar,M.B.,Valera,I.,Gomez Rodriguez,M.,and Gummadi,K.,“Fairness beyond Disparate Treatment & Disparate Impact:Learning Classification without Disparate Mistreatment”,In the 26th International World Wide Web Conference (WWW),2017。。二者分別作為反分類和反從屬歧視理論的判斷標準,前者要求證明算法決策主體具備歧視的主觀故意,重在保障個體公正;后者則以客觀主義為特征,強調群體性公正,聚焦于社會、經濟層面的結構性歧視(17)參見張恩典:《反算法歧視:理論反思與制度建構》,《華中科技大學學報(社會科學版)》2020年第5期;有關兩種理論的具體分析,參見Siegel,Reva B.,“Equality Talk:Antisubordination and Anticlassification Values in Constitutional Struggles over Brown”,Harvard Law Review,2004,117(5);Balkin,Jack M.and Siegel,Reva B.,“The American Civil Rights Tradition:Anticlassification or Antisubordination?”,https://ssrn.com/abstract=380800。。在歐洲文獻和司法實踐中對應的反歧視機制分別被稱為直接歧視與間接歧視。前者是指相比他人,具有受保護屬性者受到不利待遇,強調由主張被歧視者先還原決策過程、證明存在歧視,但算法決策系統(tǒng)發(fā)展得過于復雜而難以還原的,司法實踐采納間接歧視的概念,即表面中立的規(guī)定、標準或做法使受保護群體比其他人處于更不利地位[59]。此時歐洲法院采用所謂的“黃金標準”來對歧視事實進行初步認定,當原告主張自身具有受保護屬性,但特定規(guī)定、標準或做法使其與對照群體相比顯著受到不利待遇,即推定歧視存在,舉證責任倒置,由算法系統(tǒng)的使用者舉證推翻該推定,或者被告方證明前述規(guī)定、標準或做法因目的合法而客觀上具有正當性,且為目的之實現(xiàn)而有必要的,亦不構成歧視[60]。但“黃金標準”對判斷算法歧視的一體適用性有待商榷。“黃金標準”要求的是司法機關在確定弱勢群體、對照群體和“特別不利待遇”的證據(jù)時須基于具體的案件事實進行全面的比較和評估,并衡量案件發(fā)生地的政治、社會和法律背景。所以,該標準主要解決的仍是社會認知層面的不平等問題,難以通過明確恒定的規(guī)則或示例來將算法歧視的概念和相關群體定義成法律標準[61]。故其并未實質性涉及算法決策系統(tǒng)內部的歧視性問題。
智慧司法背景下的算法公平往往涉及的是間接歧視。其中,性別歧視是主要歧視類型之一。但是,僅依賴舉證責任倒置機制無法有效保障被追訴人不受到性別歧視。其仍須先以平權倫理嵌入法規(guī)與算法規(guī)則、算法解釋真正落地為突破,從而使被追訴人意識到算法決策存在歧視,且知悉其中的必要信息。在被追訴人據(jù)此完成初步的提出證據(jù)責任后,由司法機關對不存在歧視承擔舉證責任。就提出證據(jù)責任方面來看,歐洲司法實踐中推定歧視存在的“黃金標準”因其模糊性而無法全面調整算法決策的公平性問題。對此,根據(jù)歧視概念及其產生原因進行反歧視法律制度的構建,是有效實施舉證責任倒置機制的必要前提。
司法實踐與實證研究顯示,智慧司法背景下的算法預測模型存在性別歧視性風險,主要體現(xiàn)在性別變量與結果的相關性模糊、預測效度上存在系統(tǒng)性誤差以及多維歧視等問題。雖然中國法律已規(guī)定平等原則,但是針對智慧司法背景下的算法決策系統(tǒng),圍繞反歧視的綜合性法律制度仍然缺位。在算法規(guī)范層面,算法形成未受平權倫理價值的約束,缺乏算法公平性概念的規(guī)范界定,導致數(shù)據(jù)挖掘與算法建模階段嵌入性別歧視性風險,算法形成后亦沒有評價公平性的統(tǒng)一標準。而且,就司法不透明阻礙平等訴權的實踐而言,算法黑箱難題和訴訟地位的不對等導致被追訴人難以獲得算法輔助裁判的準確信息,其知情權難以保障。司法機關對算法決策的傾向也借由自由裁量權而難以被約束。因此,雖然算法決策系統(tǒng)在智慧司法的實踐中被寄予厚望,但其在促進效率的同時應當持守公平。在性別平等保護視角下規(guī)制智慧司法的發(fā)展,應分別從規(guī)范、算法和訴訟等維度出發(fā),將平權倫理嵌入調整算法輔助系統(tǒng)的規(guī)則之中,將公平性概念貫穿于算法工具的開發(fā)、使用和解釋的全過程,以此保障被追訴人在知悉、證明和救濟等多方面行使其訴訟權利。