張式澤
在算法決策逐步廣泛且深度嵌入司法活動的背景下,刑事司法領域的人工智能應居輔助地位已成為國際社會的共識,受到來自司法人員的天然“監(jiān)視”。不過,這把“人工干預”的雙刃劍也將司法人工智能劃進了算法決策法律規(guī)制的盲區(qū),在此背景下,如何對刑事司法領域輔助智能系統(tǒng)進行合法化規(guī)制成為了一項重大敏感而又未經(jīng)深入探討的課題。
具體而言,“站立”在法官旁邊的智能算法系統(tǒng)的司法性質如何界定?該系統(tǒng)做出的輔助性決策如何定性,訴訟參與主體能否對其進行質疑、抗辯?在公民個人信息與算法權利紛紛興起的背景下,當事人能否對司法輔助智能系統(tǒng)申請脫離算法的排除權利?法官的問責機制是否會發(fā)生變化?如果進行更深入的思考,我們還可以追問,運用人工智能技術預測、評估當事人的相關行為是否可欲?如果說數(shù)字科技再次燃起了人類對司法實質正義的渴望,那么在“追求更優(yōu)質的決策”的技術崇拜浪潮中,如何保障司法中的規(guī)范性建構及其理念基礎(例如法官權威與司法公信力)不被破壞?或許,如何保障司法輔助智能系統(tǒng)能夠讓我們距離司法公正更近而非更遠,是當下需要破解的難題。
基于此,本文提出一種系統(tǒng)性規(guī)制刑事司法輔助智能系統(tǒng)的實質化人工干預的概念,指對刑事司法領域人工智能設備及其決策予以人為管理、控制、評價和約束的制度體系。該體系不僅包括司法機關對人工智能系統(tǒng)平臺的日常監(jiān)督、約束和系統(tǒng)化評估制度,而且包括在事務性或決策性輔助場景下訴訟主體對人工智能決策的審查、評價與救濟機制。在此概念基礎上,本文將對刑事司法領域人工智能適用現(xiàn)狀及其暴露出的問題進行考察分析,討論輔助智能及其決策在不同國家的司法定位情況,提出實質化人工干預機制的制度標準。
人工智能的革命性浪潮席卷了人類社會的方方面面,司法領域自然也概莫能外。因由大數(shù)據(jù)和深度學習等算法技術的突破,人工智能在司法領域的應用,從以判例法分析、檢索資料等機械、被動式的法學知識與案例資訊的查詢工具,轉變?yōu)槟軌驅崿F(xiàn)分析海量數(shù)據(jù)、輔助審查判斷和自動化分析預測的高度精密復雜的智能化系統(tǒng)。具體而言,人工智能在司法中的應用與發(fā)展前景主要包括以下幾個方面。其一,法律資料與判例法檢索。法律資料系統(tǒng)的構建,是希望借此幫助司法人員或民眾方便查找各級法院裁判及相關法學資料,從而了解實務判例或專家學者的研究成果。其二,增進法律觸達,提升司法效率。如使用智能聊天軟件使公眾可以使用自然語言獲取現(xiàn)有的法律信息、文書模板、相關法律判例;通過自動化或調解員在線的方式在線解決訴訟爭議;對爭議解決過程進行定性和定量評估,作為替代性爭議解決機制選擇的依據(jù);幫助制定某些民事糾紛的量化標準、相關司法人員的業(yè)績考核指標等。其三,推測輔助判斷。在刑事偵查、緩起訴、量刑、假釋、監(jiān)所管理與矯正等方面輔助審查判斷證據(jù),使用算法評估再犯風險,并對量刑區(qū)間進行數(shù)字化規(guī)范。
與民事、行政執(zhí)法相比,犯罪預警、當事人再犯風險評估和量刑數(shù)字規(guī)范化是刑事司法領域特有的應用。對當事人人身危險程度和再犯風險進行評估的系統(tǒng)也被稱為風險評估工具(risk-need assessment tool),依據(jù)案件犯罪事實與被告?zhèn)€人背景進行系統(tǒng)運算,運用不同因素所形成的加權數(shù)值整理分析,從而預測被告或罪犯的再犯率。受選擇性失能(selective incapacitation) 運動的影響,美國司法部門近幾十年來大量引入風險評估工具,在偵查破案、審查科學證據(jù)可采性、評估保釋和預測案件審理結果等領域應用廣泛(1)郭春鎮(zhèn)、黃思晗:《刑事司法人工智能信任及其構建》,《吉林大學社會科學學報》2023年第2期。。相較而言,歐盟在《2016年刑事犯罪領域個人信息保護指令》中,雖然認可了算法決策在刑偵領域適用的合法性,但在歐洲委員會成員國的刑事司法系統(tǒng)中尋找使用人工智能算法應用的實例卻并不容易,法官在刑事審判中使用預測工具更是罕見。原因在于,歐洲刑事司法領域使用人工智能系統(tǒng)通常由歐洲司法效率委員會和非政府組織處理,其響應級別相對較低,且通常未被納入成員國公共政策和評估范圍。因此,大部分歐洲司法效率委員會成員國在司法領域只能引用公共領域目前使用的智能輔助工具,主要體現(xiàn)為審前階段的預測性警務活動。
量刑數(shù)字規(guī)范化系統(tǒng)是基于裁判文書大數(shù)據(jù)深度學習案情特征和判決結果,根據(jù)訴訟文書提供的事實、情節(jié),預測正在審理案件的實體量刑區(qū)間,并自動統(tǒng)計、精準推送類似案例裁判情況供法官參考的輔助智能系統(tǒng)。雖然該系統(tǒng)做出的預測不對法官具有拘束力,但該預測具有對法官的裁判產(chǎn)生一定影響的可能。有學者將量刑數(shù)字規(guī)范化視為廣義的AI法官,因為“它做了案件間的比較與含蓄的處理建議”(2)左衛(wèi)民:《AI法官的時代會到來嗎——基于中外司法人工智能的對比與展望》,《政法論壇》2021年第5期。。例如在我國臺灣地區(qū),2018年臺灣地方法院啟用“量刑趨勢建議系統(tǒng)”為法官提供參考,同時也將該系統(tǒng)為控辯雙方及民眾開放使用。
在我國,研發(fā)應用現(xiàn)代人工智能技術、構建智慧司法已經(jīng)成為推動我國司法體制改革、強化審判體系與審判能力現(xiàn)代化建設的重要抓手。2016年中共中央辦公廳、國務院辦公廳印發(fā)的《國家信息化發(fā)展戰(zhàn)略綱要》首次將“智慧法院”建設納入國家信息化發(fā)展戰(zhàn)略,隨后2017年國務院與最高人民法院先后發(fā)布《新一代人工智能發(fā)展規(guī)劃》和《最高人民法院關于加快建設智慧法院的意見》,提出要推進人工智能在證據(jù)收集、案例分析、法律文件閱讀與分析中的應用,實現(xiàn)法院審判體系和審判能力的智能化的改革主張。2021年最高人民法院又印發(fā)《人民法院信息化建設五年發(fā)展規(guī)劃(2021—2025)》,強調要建設司法數(shù)據(jù)和智慧法院大腦,為各類應用提供智能平臺支持。于是,在頂層設計與政策的推動下,各地方法院紛紛研發(fā)、建設司法領域人工智能系統(tǒng),形成了多點開花、廣泛分布且各具特色的改革局面。例如,北京市開發(fā)的智能審判系統(tǒng)“睿法官”依托大數(shù)據(jù)和智能算法可以以案情要素匹配方式生成“案情畫像”并給出“裁判建議”。上海市研發(fā)的刑事案件智能輔助辦案系統(tǒng)(206系統(tǒng))可以依托專家經(jīng)驗和模型算法制定出證據(jù)審查標準指引,幫助法官“全案證據(jù)審查判斷”,還可以對當事人進行“社會危險性評估”,建立“量刑預測模型,提供量刑建議參考”。此外,該系統(tǒng)還能夠實現(xiàn)嫌疑人社會危險性評估、電子卷宗移送、類案搜索推送、量刑預測與參考、文書自動生成和減刑假釋案件線上全程辦理等多項模塊化功能。
總體而言,我國人工智能系統(tǒng)在刑事訴訟領域分布廣泛,適用程度深入。不僅涵蓋刑事訴訟偵查階段“犯罪預測系統(tǒng)”和“大數(shù)據(jù)偵查”等技術性偵查體系建設,而且還包含審查起訴階段“數(shù)字檢察”等檢察業(yè)務智能化建設和“智慧司法”等審判體系與審判能力現(xiàn)代化建設。具體到刑事司法領域,數(shù)字案件管理、電子卷宗、智能語音識別、判例和同案的推送、證據(jù)審查判斷、量刑偏離預警與量刑預測、當事人社會危險性評估等子系統(tǒng)的建立也不同程度地嵌入和影響刑事司法體系的運行過程。
在刑事司法領域,人工智能技術與系統(tǒng)研發(fā)、應用的重心依舊集中在刑事犯罪預測、嫌疑人再犯風險評估、基于歷史裁判規(guī)律提供法官量刑分布的量刑參考系統(tǒng)和增進線上司法觸達等領域,“其共同點多為追求效率、正確性及一致性,緩解人類主觀偏見”(3)林勤富:《智慧法院之發(fā)展與界限(上)——演算法、科技治理與司法韌性》,《月旦法學雜志》2022年第4期。。不過,刑事司法領域輔助智能的應用在帶來增益的同時,也逐漸暴露出不少弊端。
因由在私法與行政法領域對人工智能系統(tǒng)規(guī)制的思考與借鑒,刑事訴訟領域的學者也逐漸開始對司法人工智能予以關注與思考。目前針對刑事司法輔助智能系統(tǒng)的質疑與批判依舊主要集中于數(shù)據(jù)質量和算法技術兩個方面。
在數(shù)據(jù)質量方面,輔助智能系統(tǒng)在刑事司法領域應用效果的達至,受制于司法裁判數(shù)據(jù)質量本身的優(yōu)劣。司法裁判數(shù)據(jù)因受現(xiàn)實多重因素的影響具有不穩(wěn)定性。具體而言,一是司法數(shù)據(jù)總量不充分,實踐中大量裁判文書、司法數(shù)據(jù)未能完全統(tǒng)計,樣本容量不足;二是司法數(shù)據(jù)部分失真,實務中因由多重復雜的主客觀因素的影響,統(tǒng)計偏差、數(shù)據(jù)造假等現(xiàn)象難以避免,部分司法數(shù)據(jù)的可靠性存在風險;三是司法數(shù)據(jù)結構化不足,錄入數(shù)據(jù)庫的裁判文書由于其文義表達的多樣性與復雜性,導致輔助智能系統(tǒng)會出現(xiàn)“檢索遺漏”或“學習忽略”等情形,進而影響輔助智能系統(tǒng)生成決策的準確性。
在算法技術方面,以上海市研發(fā)的206系統(tǒng)為例,該系統(tǒng)的核心算法體現(xiàn)了“深度神經(jīng)網(wǎng)絡模型”下的“深度學習”,即“在某些輸入信息與某些目標信息之間建立起特定種類的映射關系的過程”(4)徐英瑾:《人工智能哲學十五講》,北京大學出版社2021年版,第52—53頁。。這種技術機制并不具備尋找數(shù)據(jù)因果關系的能力,其做出的決策不具有嚴謹?shù)目茖W性;算法系統(tǒng)自身也通常難以對其生成的結論給出符合邏輯的解釋,存在“算法黑箱”現(xiàn)象。此外,算法也并非“不犯錯”:一項研究揭示了美國風險評估工具COMPAS系統(tǒng)的使用會帶來某種歧視性影響——非裔美國人在判刑后兩年內(nèi)的累犯高風險率是其他人群的兩倍(5)李翠萍、張竹宜、李晨綾:《人工智慧在公共政策領域應用的非意圖歧視:系統(tǒng)性文獻綜述》,《公共行政學報》2022年第63期。。許多算法在對嫌疑人的風險偏差的策略選擇上“傾向于容忍謹慎錯誤,亦即嚴懲犯罪,寧可過高地評估風險可能性也不輕饒犯罪嫌疑人”(6)林洹民:《自動決策算法的風險識別與區(qū)分規(guī)制》,《比較法研究》2022年第2期。,而這卻恰好與刑事司法程序正義理念背道而馳。不難想象,在當前刑事司法領域大量應用輔助智能算法系統(tǒng)的背景下,未經(jīng)深入了解而天然地傾向于相信算法決策的“科學性”,甚至任由算法系統(tǒng)影響和“綁架”司法人員做出的裁決將會帶來巨大的司法風險。
基于對算法決策自身局限性的考慮,歐盟通過的《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,GDPR)確定了人工干預(human intervention)這種救濟方式,原則上許多對公民權利產(chǎn)生重大影響的自動化決策都必須有人工干預。人工干預也被視為繼規(guī)制數(shù)據(jù)、算法問責后的第三大人工智能應對方式。但也因對司法領域人工智能居于輔助地位的共識,對司法領域人工智能系統(tǒng)的規(guī)制并未引起學者們的重視。當這種人工干預只是形式意義上的,依靠人工(法官)的參與行為本身而不是以參與的程度和實際效果作為人工干預的實質性標準,“僅僅以最終由人類負責判斷,就認為公民能夠從算法的不公正評價中逃脫”(7)山本龍彥、尾崎愛美:「アルゴリズムと公正」、『科學技術社會論研究』第16巻(2018年12月)、第96—107頁。,這種想法顯然過于樂觀。因為某種程度上,刑事領域的“人工參與”可能會演變?yōu)槿斯ぶ悄芩惴ㄆ缫暸c非公正決策的“遮羞布”。
首先,形式化的人工干預無法保障法官的自主性地位。一方面,我國智慧司法改革將智能系統(tǒng)的應用深入到刑事司法的諸多領域,法官需要面對來自輔助智能系統(tǒng)的實質性影響與權力侵蝕。如果深入考察地方法院智能系統(tǒng)的工作機制則不難發(fā)現(xiàn),司法系統(tǒng)內(nèi)部并未對人工智能的應用進行嚴格限制。在網(wǎng)上辦案的流程要求下,智能系統(tǒng)能夠實現(xiàn)自動掃描并提取電子卷宗信息、對證據(jù)進行識別審查判斷、社會危險性評估、量刑預測和量刑偏離預警等多重功能。這意味著,每一起案件都需要經(jīng)歷法官與智能系統(tǒng)的雙重“裁判”,智能系統(tǒng)在實際上“已經(jīng)進入到司法決策的核心環(huán)節(jié),且已經(jīng)構成司法審判決策的實質性部分”,而法官僅“在其中起著復合確認的作用”(8)孫慶春:《人工智能司法決策研究》,重慶大學2021年博士論文,第85頁。。機械性、被動型與缺乏創(chuàng)造性是科技的工具理性被詬病的主要原因,法律的生命恰恰在于經(jīng)驗而非純粹的邏輯。許多閃爍著人性光輝的偉大判決都是法官價值理性行為的結果,遠非科技化的智能系統(tǒng)所能涵蓋與拘束。后者在損害法官權威的同時,會弱化公民的法律信念。另一方面,法官需要面臨智能系統(tǒng)對其裁判過程進行記錄和考核,還會受到智能系統(tǒng)的某種實質性“拘束”:如果法官做出的裁判與智能系統(tǒng)做出的預測結果差異過大且法官堅持自己的裁判決定,該案件將被發(fā)送至法官聯(lián)席會議或者提交至審判委員會討論(9)王靜:《法官績效考核制度實證研究——基于地方性規(guī)則樣本的分析》,《中國應用法學》2018年第6期。。法官裁判受到來自智能系統(tǒng)的監(jiān)控和影響,卻缺乏對智能系統(tǒng)預測結果進行風險評估的能力,其后果就是司法獨立性與法官的主體性“正在消失”(10)徐駿:《智慧法院的法理審思》,《法學》2017年第3期。。
其次,形式化的人工干預無法保障訴訟程序價值。輔助智能系統(tǒng)在司法實踐中的可欲性,核心在于運用工具理性排除人為因素的干涉,讓法院在立案、審判、執(zhí)行、案件管理和便民服務方面更加客觀化、標準化和規(guī)范化。但是,智能系統(tǒng)的應用也會帶來一系列的負面影響:國家機關對智能系統(tǒng)的單方應用會加劇控辯雙方的實質不平等,使當事人有效辯護難以實現(xiàn);地方上下級法院有時應用同樣的智能系統(tǒng)得出近乎一致的“裁判預測”,可能會架空傳統(tǒng)審級制度,使訴訟參與人甚至包括法官都淪為“自動化決策的執(zhí)行者”(11)胡銘、張傳璽:《人工智能裁判與審判中心主義的沖突及其消解》,《東南學術》2020年第1期。。更有甚者,由于智能系統(tǒng)可以在算法中瞬間得出相應結果,此時已無法再分離出訴訟活動的程序、步驟和方法,正當程序及其價值也因此懸置。(12)趙宏:《公共決策適用算法技術的規(guī)范分析與實體邊界》,《比較法研究》2023年第2期。訴訟參與人在智能系統(tǒng)應用中被邊緣化和客體化,有違人工智能以人為本的倫理準則和發(fā)展理念。
許多國家和地區(qū)近年來出臺了多項規(guī)制人工智能的法律法規(guī)或政策性文件,但總體而言,其在刑事訴訟領域的適用仍缺乏有效銜接。許多對人工智能系統(tǒng)進行規(guī)制的法律法規(guī)采用了形式化的人工干預標準,該標準不適用于司法領域的輔助智能系統(tǒng)。早在1995年歐盟就出臺了《個人數(shù)據(jù)保護指令》(以下簡稱“《指令》”),并在第十五條規(guī)定“數(shù)據(jù)主體享有免受基于用戶側寫的完全自動化決策的權利”。但在SCHUFA案中德國聯(lián)邦法院裁定,由人工智能系統(tǒng)做出的信用評價不屬于《指令》第十五條所界定的自動化決策范疇,因為銀行對其客戶的信用評價是由自然人在自動化決策的“輔助”下完成的(13)Urteil des VI. Zivilsenats vom 28. 1. 2014 - VI ZR 156/13.;法國最高法院也采取了類似的態(tài)度(14)Cour de Cassation, Chambre criminelle, Audience publique du 24 septembre 1998, No de pourvoi 97- 81.748, Publié au bulletin.?!吨腥A人民共和國個人信息保護法》(以下簡稱“《個人信息保護法》”)第七十三條規(guī)定:“自動化決策,是指通過計算機程序自動分析、評估個人的行為習慣、興趣愛好或者經(jīng)濟、健康、信用狀況等,并進行決策的活動?!庇纱丝梢?該情境下決策活動的做出主體為計算機程序。再結合該法第二十四條第三款“拒絕個人信息處理者僅通過自動化決策的方式作出決定”的內(nèi)容可知,我國對自動化決策概念的界定也采用了形式化標準,司法輔助智能系統(tǒng)不在“自動化決策”概念之內(nèi)。
雖然我國《個人信息保護法》將“刑事司法機關處理個人信息的行為借由國家機關這一概念與規(guī)范工具統(tǒng)一納入個人信息保護法律的框架內(nèi)”(15)程雷:《刑事訴訟中適用〈個人信息保護法〉相關問題研究》,《現(xiàn)代法學》2023年第1期。,但在實際上國家機關司法輔助智能系統(tǒng)并未受到《個人信息保護法》的有效規(guī)制。例如,違反該法規(guī)定的司法人員的裁決應當如何處理并未明確,能否被認定為違反正當程序撤銷或宣告無效尚無定論。此外,《個人信息保護法》對司法輔助智能系統(tǒng)最低限度的公開要求和算法系統(tǒng)的風險評估標準也尚待進一步明確。
雖然在刑事司法領域,人工智能系統(tǒng)居于輔助地位已成共識,但其主體性卻并非沒有爭議。有法院系統(tǒng)的學者在談及該問題時,認為“系統(tǒng)起到的是輔助偵查員、檢察官、法官辦案的作用”(16)崔亞東:《人工智能與司法現(xiàn)代化 以“審判為中心的訴訟制度改革:上海刑事案件智能輔助辦案系統(tǒng)”的實踐與思考》,上海人民出版社2019年版,第104頁。。雖然強調了其輔助地位,卻也將系統(tǒng)定位為司法認知的主體,“對辦案人員收集的證據(jù)進行審查、校驗、把關、發(fā)現(xiàn)瑕疵、矛盾點,及時提示辦案人員查證、補正”(17)崔亞東:《人工智能與司法現(xiàn)代化 以“審判為中心的訴訟制度改革: 上海刑事案件智能輔助辦案系統(tǒng)”的實踐與思考》,上海人民出版社2019年版,第104頁。。對此,有學者在刑法學場域內(nèi)認為,“主張人工智能具有主體資格……不具有現(xiàn)實性意義”(18)儲陳城:《人工智能時代刑法的立場和功能》,《中國刑事法雜志》2018年第6期。;“權利義務能力是定義法律主體的唯一標準,但人工智能在權利義務中根本不可能實現(xiàn)統(tǒng)一性原則”(19)劉艷紅:《人工智能法學研究的反智化批判》,《東方法學》2019年第5期。。
回歸刑事司法場域,基于以下因素的考慮,人工智能輔助系統(tǒng)應被作為司法認識論中的客體而非主體對待。首先,在利用智能算法進行裁判的過程中,法官是司法審判過程的主體,智能系統(tǒng)則是幫助法官進行公正裁判的輔助工具。如果一個人用槍殺了另一個人,究竟是人應當承擔責任還是槍應該承擔責任?對此拉圖爾認為,槍和人共同導致了受害者的死亡,槍和人不是分離的,而是相互交織在一起的,二者共同組成了一個復合的行動者。(20)張衛(wèi):《技術倫理學何以可能?》,《倫理學研究》2017年第2期。技術在某種程度上只是使人延伸的媒介,不能成為另一個獨立的“人”。在司法領域,法院(法官)是構建輔助智能系統(tǒng)的倡導者、合作開發(fā)者和實際使用者,是對智能系統(tǒng)進行人工干預和做出有效裁決的主體,也是司法責任及適用智能系統(tǒng)可能帶來風險的實際承擔者。司法智能系統(tǒng)作為一項輔助工具,不具有成為主體的倫理基礎和責任能力。
其次,輔助智能系統(tǒng)雖然由法院(法官)等司法權主體構建,但該算法系統(tǒng)并不因此擁有相應的司法權能。在沒有法律層面明確規(guī)定的條件下,僅憑智能系統(tǒng)的“輔助”功能就賦予其司法主體或準司法主體的地位是不恰當?shù)?。實際上,智能系統(tǒng)做出的任何決策或意見,除非擁有法定權力的公職人員予以確認,否則它不具有任何法律拘束力。比較法層面,美國法官在實踐中有的將智能系統(tǒng)作為“言論”處理,享有絕對化的“言論自由”權;有的則將其作為“商業(yè)秘密”處理,認為該算法不應受到公開化的披露;德國學者則將其視為“一種產(chǎn)品”。(21)陳景輝:《算法的法律性質:言論、商業(yè)秘密還是正當程序?》,《比較法研究》2020年第2期。但無論何種觀點,均將智能系統(tǒng)視為認識的對象,并未賦予其主體地位?!度斯ぶ悄軇?chuàng)新發(fā)展道德倫理宣言》也在第六條明確,無論人工智能的自主意識能力進化到何種階段,都不能改變其由人類創(chuàng)造的事實。
最后,對輔助智能系統(tǒng)認識論方面的客體化定位,可以避免將輔助智能決策納入法院系統(tǒng)“認知共同體”的趨勢。在法官司法認知的過程中,陪審員、專業(yè)法官會議、審判委員會、上級法院都可能參與司法認知過程,與法官具有一致的認知立場與目的,是法官樂于求諸的可以提供“一種范式趨同的類審判認識”的“認知共同體”。(22)張若楓:《刑事審判認識論》,中國人民公安大學2022年博士論文,第69頁。它們作為法官的輔助性主體可以輔助法官做出更為專業(yè)與合理的判決,對法官的影響也是多維度多方面的。與之相較,輔助智能系統(tǒng)存在著自身難以克服的“先天不足”,其決策科學性、專業(yè)性、價值理性的權衡和裁判的社會、政治效果目前都難以與“認知共同體”給出的輔助意見相媲美。相反,如果將其納入“認知共同體”,還會加重司法人員對技術手段的依賴,弱化法官和其他輔助認知主體的自主性、能動性,甚至腐蝕“認知共同體”的制度意義。
在我國證據(jù)法領域,人工智能系統(tǒng)做出的決策一般被稱為大數(shù)據(jù)證據(jù)。對于大數(shù)據(jù)證據(jù)的屬性,有觀點認為,“未來的證據(jù)法當中,大數(shù)據(jù)分析報告有必要單列出來作為獨立的證據(jù)種類,而大數(shù)據(jù)中那些跟案件相關的數(shù)據(jù)信息,可以納入電子數(shù)據(jù)這一既有的法定證據(jù)種類范疇”(23)何家弘、鄧昌智、張桂勇等:《大數(shù)據(jù)偵查給證據(jù)法帶來的挑戰(zhàn)》,《人民檢察》2018年第1期。。不過,一方面,大數(shù)據(jù)分析報告內(nèi)容性質和應用領域復雜多變,單列為獨立的證據(jù)種類不利于實踐操作;另一方面,實踐中還存在諸如價格認定書、未成年人犯罪社會調查報告和交通事故責任認定書等難于歸類的證據(jù),單設獨立的大數(shù)據(jù)分析報告也無法解決證據(jù)分類的全部問題。事實上,自2012年我國刑訴法就對證據(jù)種類規(guī)定采取了開放式的態(tài)度(24)張吉喜、孔德倫:《論刑事訴訟中的大數(shù)據(jù)證據(jù)》,《貴州大學學報(社會科學版)》2020年第4期。,對大數(shù)據(jù)證據(jù)屬性的認定不必拘泥于法定證據(jù)種類。還有觀點認為,大數(shù)據(jù)證據(jù)應當被視為鑒定意見。(25)何家弘、鄧昌智、張桂勇等:《大數(shù)據(jù)偵查給證據(jù)法帶來的挑戰(zhàn)》,《人民檢察》2018年第1期。不過,從鑒定意見的本質而言,它是“由專業(yè)知識補充的經(jīng)驗論斷”,其“科學性、真實性和權威性,在很大程度上不取決于鑒定意見本身,而依賴于鑒定人的主體屬性、鑒定過程和判斷能力”(26)陳瑞華:《鑒定意見的審查判斷問題》,《中國司法鑒定》2011年第5期。。同時,鑒定人與鑒定意見之間還具有較強的人身依附關系,他們之間密不可分,在特定情形下還需要鑒定人出庭作證。與之相比,算法系統(tǒng)在邏輯歸納、經(jīng)驗判斷等能力方面的不足及其無法給出決策理由的黑箱困境,致使目前的算法系統(tǒng)還難以賦予大數(shù)據(jù)報告同等的科學性與權威性。此外,目前算法報告的出具機構很少具有鑒定資質,沒有相應資質的機構出具的大數(shù)據(jù)報告在實踐中也難以被視為鑒定意見。
事實上,智能系統(tǒng)決策在表現(xiàn)方式和應用領域方面的差異性是造成其屬性問題眾說紛紜的主要原因。人工智能不是一個單一的、同質的對象,它是能夠處理數(shù)據(jù)、設計復雜計算機處理任務的科學和技術(數(shù)學、統(tǒng)計學和計算機科學)的集合。受制于實踐領域的不同,人工智能使用不同的預先配置的屬性和不同的歸納方法以近乎自動化的方式將一組觀察結果(輸入)與一組可能的結果(輸出)進行關聯(lián),從而形成各種差異化的決策。在司法領域,輔助智能決策主要表現(xiàn)為犯罪預警、刑事風險評估和量刑規(guī)范化預測三種,本質上都是基于算法形成的對海量數(shù)據(jù)的規(guī)律性認識,在不同應用領域表達為相關性(線索證據(jù))、可能性(風險評估)與合理性(量刑規(guī)范)。
犯罪預警,作為大數(shù)據(jù)偵查的一種,通過數(shù)據(jù)挖掘技術對海量數(shù)據(jù)進行對比、分析和篩選,從而鎖定犯罪嫌疑人、發(fā)現(xiàn)案件證據(jù)資料和偵查方向。在大數(shù)據(jù)時代,犯罪預警系統(tǒng)可以采用數(shù)據(jù)挖掘和算法模擬技術,基于公共機構的個人數(shù)據(jù)和犯罪記錄,對包括犯罪地理區(qū)域、犯罪群體、特定人群未來的犯罪風險等方面進行評估預測,從而實現(xiàn)精準、科學的犯罪治理。由于司法實務中,犯罪預警的主要作用在于“發(fā)現(xiàn)案件線索或鎖定犯罪嫌疑人,其本身是證據(jù)來源的前置性工作而非證據(jù)收集工作本身”(27)程雷:《大數(shù)據(jù)偵查的法律控制》,《中國社會科學》2018年第11期。,除了極少數(shù)信息能夠直接作為犯罪證據(jù)外,犯罪預警系統(tǒng)做出的決策一般作為提供偵查方向的線索供內(nèi)部參考,在庭審中有時表現(xiàn)為“破案報告”或“到案經(jīng)過”等完善偵查邏輯鏈的線索材料。
廣義上可將刑事風險評估視為一種不可補正的“瑕疵證據(jù)”。刑事風險評估決策反映的是算法系統(tǒng)在數(shù)學概率層面上對數(shù)據(jù)相關性的意見,應作為一種意見型參考資料。該類參考資料在實務中與社會輿論、新聞評論、測謊證據(jù)等類似,法官無法綜合傳統(tǒng)的邏輯法則、經(jīng)驗法則和利益衡量原則對其證明力予以裁量,加之數(shù)據(jù)質量瑕疵與算法黑箱等因素導致該評估決策在證明力上存在固有瑕疵。因此,刑事風險評估決策原則上不得單獨作為量刑輕重的依據(jù),“謹為價值評估之參考資料,不得影響其實質上之審判”(28)管歐:《法院組織法論》,三民書局1990年版,第49頁。。
量刑規(guī)范化預測,屬于司法事項的認知。證據(jù)法學上的認知是指顯著而無需證明的事項。量刑規(guī)范化預測系統(tǒng)的數(shù)據(jù)基礎往往是已經(jīng)生效的司法判決,該信息為審判法院管轄區(qū)域內(nèi)所周知并且基本無發(fā)生異議的可能的司法事項。從理論上,各項認知事項又可以分為應予認知和可予認知。應予認知是指國內(nèi)法及其他法官裁判過程中必須了解的事項。法官不得以非其所知,或者不能記憶而拒絕認知,相反法官應當盡力查詢可靠資料獲得認知;可予認知則是法官在自由裁量的范疇內(nèi)自行決定是否認知。對應予認知和可予認知的判斷標準,美國聯(lián)邦法院認為“對所有事項,法院均為可予認知,如當事人聲請并提供必要資料時,法院應予認知”(29)李學燈:《證據(jù)法比較研究》,五南圖書出版有限公司1992年版,第30頁。。一般認為,法官對于本院的司法記錄,尤其是對于同一案件或相關案件的司法記錄,屬于應予認知的范疇;而對于其他法院的已有判決、案件進行及其他事項,“只能用為參考之助,未可一概視為先例而受其拘束”(30)李學燈:《證據(jù)法比較研究》,五南圖書出版有限公司1992年版,第27頁。,多屬于可予認知的范疇。因此,量刑規(guī)范化預測理論上屬于可予認知,對法官裁判無必然拘束力。我國某些地區(qū)的試點將量刑規(guī)范化預測結果與法官績效考評掛鉤的做法,實質性地將原屬于可予認知的事項強行納入了應予認知的范疇,不僅侵犯了法官辦案裁量的獨立自主權,而且也不符合人工智能系統(tǒng)“輔助”辦案的初衷。
在關于人工智能可能面臨的風險防控和公民權益侵犯的問題上,學者多采取算法規(guī)制進路,或進行技術性改進,或采取程序性規(guī)制,試圖通過賦予算法以科學性、正當性來解決算法對公民權利可能造成的侵害。雖然這樣的改善思路適用于多數(shù)自動化決策的場域,但對于司法領域而言并不對癥。
首先,司法領域具有獨立的認知邏輯與價值取向。以系統(tǒng)論和社會實在構建的角度而言,法律體系與科學體系在概念構成和認知邏輯上互不相通、獨立存在。進入法律領域的科學認知方式應當以法律的邏輯化為主導。這一點在司法鑒定和專家證人上體現(xiàn)得十分明顯,“法官對專家證言的接納在實踐中并非以科技領域的標準為導向”,“如果不加分辨地直接使用科學結論,無論如何都會導致歪曲對法律審判行為所追求和表達的社會意義具有重大價值的東西”。(31)劉濤:《科技與刑事司法互動的系統(tǒng)論觀察》,《政治與法律》2018年第12期。
其次,唯有人類主體才具備倫理指引的有效性。實際上,法官在傳統(tǒng)審判過程中也存在“非理性謬誤”,例如產(chǎn)生錨定效應、框架效應等。人工智能基于數(shù)據(jù)、算法等方面的固有缺陷也同樣是不完美的。此時,面對同樣存在“誤差”的人類主體與機器,為何要強調人工干預的優(yōu)先順位?原因在于,至少目前為止,唯有人類主體才能接受技術倫理的指引。就技術而言,技術的發(fā)展不具有特定的規(guī)律性與合理性,本質是主體意志外化的產(chǎn)物。技術的可欲源自它對人類現(xiàn)實缺憾的彌補。換言之,技術是人類能力向外延伸開拓的載體,也是人類認知和改造世界的橋梁,其最終價值是讓人類實現(xiàn)選擇自由。但是,自由的選擇并非沒有邊界,“對自由與選擇的規(guī)制和權衡在社會領域存在多重維度,例如基于倫理學中對公共善的追求,基于道德指引或者法律規(guī)范的約束”(32)張衛(wèi):《技術倫理學何以可能?》,《倫理學研究》2017年第2期。。倫理在本質上就是為人類的自由選擇提供指引,也唯有人類主體自身才是解決包括人工智能在內(nèi)的技術危機的關鍵。因此,如何實現(xiàn)實質化人工干預,才是司法領域面對智能化技術挑戰(zhàn)最應優(yōu)先考慮的。
歐洲司法效率委員會在《關于在司法系統(tǒng)及其環(huán)境中使用人工智能的歐洲倫理憲章》中規(guī)定了司法領域適用智能系統(tǒng)的五項基本原則,其中的使用者控制原則就反映了主體控制原則的精神內(nèi)核。主體控制原則是指,在司法領域使用人工智能工具系統(tǒng)過程中,司法人員在任何時候都能夠監(jiān)控、審查產(chǎn)生決策的數(shù)據(jù)及算法系統(tǒng),并根據(jù)特定案件的具體情況自由裁量不受系統(tǒng)約束;人工智能系統(tǒng)無論何時都應當增加而非限制訴訟參與主體的自主權。
主體控制原則具體表現(xiàn)為兩個方面,一方面是明確主體對人工智能系統(tǒng)決策的效力干預。一是智能系統(tǒng)生成地對相對人生命財產(chǎn)等基本權利造成影響的決策只具有參考價值,不具有當然效力。唯有經(jīng)過主體自主審查、裁量和判斷方能對相對人基本權利做出處分。二是明確雖然部分司法事項可以交由智能系統(tǒng)進行自動化處理(例如網(wǎng)上智能立案系統(tǒng)),但相關主體和相對人可以隨時獲得人工干預的救濟權利。
另一方面,主體應當對智能系統(tǒng)本身進行監(jiān)管和評估。就監(jiān)管而言,一是對算法系統(tǒng)進行立法規(guī)制,即將算法尤其在公共領域中應用的算法納入監(jiān)控管理體系。目前,歐盟推出了《算法問責及透明度監(jiān)管框架》,從“價值與概念、原則與基礎、評估與影響、透明與合作、行業(yè)標準、人權保障”(33)任穎:《算法規(guī)制的立法論研究》,《政治與法律》2022年第9期。等方面對算法系統(tǒng)進行了全面規(guī)制。我國有關算法系統(tǒng)的立法主要是2021年頒布的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》,但該規(guī)定的適用對象僅為“算法推薦服務”,未對司法領域主流的決策性算法規(guī)制問題做出回應。二是應當制定司法領域智能系統(tǒng)的評價標準。2017年國務院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,隨后在2018年我國又先后制定并通過了《國家人工智能標準化總體組工作章程》《國家智能制造標準體系建設指南(2018年版)》和《人工智能標準化白皮書(2018版)》??傮w上看,上述規(guī)范性文件對我國人工智能標準化工作起到了奠基和促進作用,但主要集中于生物識別、人機交互等領域,司法領域智能系統(tǒng)的評價標準著墨不多。就評估而言,算法評估制度始于美國《算法問責法》,目的在于“建立一套標準化的評估體系,對即將投入應用的算法進行事先審查,從而對其適用后果予以客觀評估”(34)趙宏:《公共決策適用算法技術的規(guī)范分析與實體邊界》,《比較法研究》2023年第2期。。加拿大也于2019年推出了《自動化決策指令》,以公正、正當、公開、責任等原則構建算法評估制度。在歐盟,GDPR第三十五條第一款要求對算法系統(tǒng)“評估其必要性和合比例性,并通過評估對數(shù)據(jù)處理行為可能產(chǎn)生的風險加以管理”(35)程嘯:《個人信息保護法理解與適用》,中國法制出版社2021年版,第420頁。。相較而言,我國《個人信息保護法》中雖然也對自動化決策規(guī)定了評估事項,但規(guī)定的內(nèi)容較為粗疏,缺乏對犯罪預警、司法審判等領域算法決策評估的針對性,并且在評估環(huán)節(jié)也缺乏有效的公眾參與和對評估結果的公開披露,人工干預機制尚未實質化。
由此可見,由主體控制原則中的監(jiān)管和評估化解了司法領域相關輔助智能系統(tǒng)的決策性算法規(guī)治問題,未來還需要國家多個相關部門組織一體化的監(jiān)管與評估體系,出臺更為科學、合理、細化的監(jiān)管辦法與評估標準,從數(shù)據(jù)結構化建設、參數(shù)采集與抓取、算法評估與更新、數(shù)據(jù)庫公開與維護、相對人權利保障與救濟等層面出臺類別化、體系化的主體控制法律框架,以此保障和實現(xiàn)我國刑事司法人工智能系統(tǒng)平穩(wěn)、快速與長效發(fā)展。
司法領域輔助智能系統(tǒng)的應用不僅需要考慮其是否有利于提升訴訟效率、優(yōu)化犯罪治理體系、提升司法觸達效果、規(guī)范刑事司法案件管理和有助于法官做出公正判決,還要考慮智能系統(tǒng)介入司法帶來的權力體系重組、規(guī)范性制度及其理念基礎的重構等一系列變化與挑戰(zhàn),是否順應我國司法改革的客觀要求,是否符合司法規(guī)律。換言之,智能系統(tǒng)在司法領域的應用必定是有界限的。目前對智能系統(tǒng)在司法領域的有限性探討尚無定論,包括但不限于以下方面。其一,主體邊界。目前的智能系統(tǒng)并不具備成為獨立的法律主體的可能,因此也就不能被認為是刑事訴訟的參與主體,更不具備相應的主體權利(力)。其二,價值邊界。人工智能系統(tǒng)在司法領域的應用喚起了人們對實質正義的渴望。技術人員、司法人員和公眾對人工智能決策準確性、合理性的期待,本質是在科學外衣下對實質正義的新一輪追求。但是,司法領域對實質正義價值的追求應當有其必要限度。實質真實僅是眾多人類社會美好價值的一部分。如果放縱對實質正義的追求,夸大人工智能系統(tǒng)在科學性、實現(xiàn)實質正義方面的效用,不僅影響包括程序正義在內(nèi)的其他價值的實現(xiàn),而且使人類社會誤入技術專制的歧途,走上與法治相反的道路。其三,司法公共利益邊界。如果某項決策會對司法公共領域或公共利益產(chǎn)生重大影響,為審慎起見,不能將該決策全部交由人工智能處理;當一項公共決策可能存在一定的裁量空間時,為保證該決策的個別化與人性化,該決策不能全部交由人工智能處理,應保留相關決策主體的酌處權。
在司法領域如何使用人工智能從而在保護公民基本的權利和提高司法效率之間維護平衡是必須考慮的問題。畢竟,人工智能很有可能成為我們刑事司法生態(tài)系統(tǒng)的永久組成部分,刑事司法中的多數(shù)決策,都有可能對公民的生命、自由以及財產(chǎn)安全等諸多權益產(chǎn)生影響。因此,堅持構建實質性的人工干預機制,也就意味著產(chǎn)生法律或類似效力的決定總是需要由人類主體做出,并要求該主體可以對其所做出的決定負責。申言之,構建實質性的人工干預機制就必須為刑事司法領域的人工智能系統(tǒng)制定明確的法律責任分配模式,而這一領域的監(jiān)管規(guī)定(人工干預)應始終保持司法人員的問責制。問責制在本質上是一種“解釋和證明行為正當?shù)牧x務”(36)Mark Bovines, “Analyzing and Assessing Accountability: A Conceptual Framework”, 13 Eur. L. J. 4, 450 (2007).,因此傳統(tǒng)刑事訴訟框架中的司法責任制、法官給出判決論證等既有制度作為問責制的組成部分在內(nèi)容上并無太多變化。不過,在輔助智能應用于司法領域的特定背景下,法官解釋和論證裁判的內(nèi)容、形式或適用程度上是否會受智能系統(tǒng)的影響而有所變化卻是一個值得深入思考的問題。
在內(nèi)容上,我國《個人信息保護法》第二十四條賦予了相對人在特定條件下要求信息處理者解釋說明的權利。與下文“僅通過自動化決策”相較而言,這種“通過自動化決策方式”做出的決策并不必然排斥某種程度上的人工干預,這是否意味著,法官具有對是否采納輔助智能系統(tǒng)的決策予以說明的義務。理論上,如果將法官該部分的心證公開,對是否采納輔助智能評估意見予以解釋說明,使之成為法官說理論證的內(nèi)容,如此可以有效避免人工干預的形式化風險。畢竟,人工干預的關鍵不在于人類干預自動化決策過程的參與性,而在于在該過程中人類介入的實質性,或者說是人工干預的有效性。
在形式和程度上,隨著智能系統(tǒng)的發(fā)展,未來法官在部分案件中的論證可能會被數(shù)據(jù)資料或算法程式取代;法官對裁判的論證在程度上也可能隨著智能系統(tǒng)愈發(fā)科學化、合理化而有所降低。不過,無論法官說理論證的形式和程度如何變化,由法官保障裁判正當性的制度價值不會改變。司法領域科學化與正確性并非最重要的。司法追求的也從來都不是真理,毋寧是一種社會秩序和滿足民眾正義感的儀式。法官在事實認定、法律涵攝和價值判斷等方面發(fā)揮的作用是人工智能系統(tǒng)所無法取代的。對裁判“出于人性于真實事件的同理,且認知法條與先例并非當然為公平正義”(37)林勤富:《智慧法院之發(fā)展與界限(下)——演算法、科技治理與司法韌性》,《月旦法學雜志》2022年第5期。的論證,確保判決邏輯性、可歸責性和民眾的可接受性的實現(xiàn),都需要法官主體性的參與。這也是司法領域堅持人工干預,并構建有效干預機制的意義所在。
在刑事司法領域,對算法智能系統(tǒng)進行適度的信息告知與算法披露,是充分尊重和保障訴訟參與人基本權利的前提,也是對算法系統(tǒng)和個人數(shù)據(jù)信息進行規(guī)制和救濟的前置條件。一般而言,信息公開與算法披露應當包含以下內(nèi)容。
其一,信息告知原則。與私法領域適用的告知原則相比較,刑事司法領域的告知原則使用無疑存在諸多限制。我國《個人信息保護法》第三十五條規(guī)定:“國家機關為履行法定職責處理個人信息,應當依照本法履行告知義務;有本法第十八條第一款規(guī)定的情形,有法律、行政法規(guī)規(guī)定應當保密或者不需要告知的情形的,可以豁免告知義務?!边@一規(guī)定實質確立了公法領域以信息告知為原則,將“保密要求或不需要告知的情形”與“妨礙國家機關履行法定職責”作為信息告知豁免的例外。具體而言,一是對于告知的信息,應當至少包括應用主體名稱,應用場景與目的,系統(tǒng)功能及安全性介紹,監(jiān)督及救濟方式,可能存在的風險等相關信息。二是對于告知的對象,《個人信息保護法》第十七條和第三十五條規(guī)定僅賦予了“個人”享有被信息處理者告知的權利,倘若適用于刑事司法領域顯然不甚合理。囿于刑事訴訟中多數(shù)嫌疑人(被告人)權利意識的淡漠和權利行使能力的不足,應當將告知對象擴大至嫌疑人(被告人)及其法定代理人、辯護人和被害人等訴訟參與人。
其二,部分決策內(nèi)容的相對公開。相對公開是指司法人員基于個案裁量權向當事人或訴訟參與人就相關的數(shù)據(jù)信息和決策結果在有限范圍內(nèi)進行的公開與披露。其披露目的與必要限度在于使當事人或利益相關方能夠查閱、質疑、變更、刪除與其利益有關的數(shù)據(jù)信息,提升智能系統(tǒng)決策透明度、準確性與科學性;同時,確保當事人了解智能系統(tǒng)的決策結果,及時調整辯護策略,保障其參與訴訟、行使辯護的有效性及其主體地位。2017年法國頒布的《法國行政法典》確認了在行政智能領域公民可以了解“算法模型所依賴的數(shù)據(jù)及其來源”和“算法模型導致的結果”(38)Lilian Edwards &Michael Veale, Enslaving the Algorithm: From a “Right to an Explanation” to a “Right to Better Decisions”, 16 (3) IEEE Security &Privacy 46 (2018).。從目前掌握的資料看,我國刑事智能辦案系統(tǒng)使用的個人信息及其決策結果多被作為司法系統(tǒng)的內(nèi)部資料,尚未全部公開,建議未來將輔助智能系統(tǒng)作出的有關嫌疑人社會危險性評估和量刑參考的決策結論及相關數(shù)據(jù),在量刑程序(或批捕程序)對被告人(嫌疑人)及其法定代理人、辯護人和被害人等有限的利益相關方進行披露,并訊問(詢問)相關方的意見,以確保相對人能夠及時核校相關信息,并就該信息所反映的事實真?zhèn)翁岢霎愖h。同時,限定公開范圍有利于維護相對人的個人隱私,對有關相對人被披露的信息內(nèi)容,司法工作人員及辯護律師應當予以保密。