胡 佳
(四川大學 法學院,四川 成都 610207)
人工智能(Artificial Intelligence,AI)是研究、開發(fā)用于模擬、延伸和擴展人的智能理論、方法、技術(shù)及應用系統(tǒng)的一門技術(shù)科學。2017年7月國務院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,將發(fā)展人工智能上升為國家戰(zhàn)略。其中,“推進社會治理智能化”部分提出要建設“智慧法庭”,“促進人工智能在證據(jù)收集、案例分析、法律文件閱讀與分析中的應用,實現(xiàn)法院審判體系和審判能力智能化”。2019年《人民法院信息化建設五年發(fā)展規(guī)劃(2019-2023)》提出“充分挖掘人工智能技術(shù)在法院領域的應用潛力,為 2021 年到 2025 年以智慧司法知識為中心的信息化建設奠定基礎”,將法院系統(tǒng)的人工智能建設作為重點任務進行部署。在國家政策文件的積極推動下,各地法院主動將人工智能運用到刑事審判活動中,涌現(xiàn)出許多智能系統(tǒng)建設的創(chuàng)新成果。可以說,人工智能運用已經(jīng)深刻影響著司法審判領域,成為審判工作的“新常態(tài)”。受此影響,理論界對審判中人工智能運用的關注度和研究熱情也與日俱增①在“中國知網(wǎng)”以“審判”“人工智能”為關鍵詞進行檢索發(fā)現(xiàn),2016年及以前的文獻數(shù)量為個位數(shù),個別年份甚至出現(xiàn)研究空白,如2014和2009年。2017年及之后的文獻數(shù)量猛增,2019年達168篇,2020年達187篇。理論界對審判中人工智能運用的研究熱情可見一斑。檢索日期為2021年11月26日。,法律人工智能已然成為學術(shù)研究的熱點、重點。相關研究集中于人工智能對司法裁判的影響和沖擊、審判中人工智能運用風險的應對舉措等等。相較于政策層面和司法實務的積極主動姿態(tài),理論界在對審判中人工智能運用懷抱期待的同時,更多了一份謹慎的反思。盡管存在認為人工智能未來會替代人類法官的樂觀主義者,但是當前法學界基本形成了一個共識,即人工智能僅僅是輔助法官裁判,司法審判的主宰者仍然是人類法官。因此,在推進法院信息化智能化建設中,需要處理好人工智能輔助與法官獨立審判(或稱審判自主性)之間的關系,也即確定輔助的限度何在。[1]正如司法責任制改革中通過出臺正負面權(quán)責清單明確法官行權(quán)邊界一樣,規(guī)范人工智能既要從正向明確人工智能介入審判的允許范圍,也要從反向界定人工智能介入審判的負面清單,防止變相替代、操縱。相較于民商事審判,刑事審判是一個較為傳統(tǒng)且保守的領域,效率與公平、形式正義與實質(zhì)正義的沖突體現(xiàn)最為明顯,為了研究的典型性和集中性,本文主要探討刑事審判中人工智能運用的界限問題。
從計算機技術(shù)問世以來,法學研究者就開始追問“機器能否開展法律推理”“人類法官是否會被機器法官所取代”等問題。隨著技術(shù)和法律的不斷發(fā)展,這一討論持續(xù)深化并形成觀點派系。樂觀主義者認為人工智能會逐步取代人類法官,形成“人工智能為主,法官為輔”的司法局面。①莊永廉,等.人工智能與刑事法治的未來[J].人民檢察.2018,(1):41-48.也有論者認為“如果未來的法律機器人因其功能強大而大行其道,法官的必要性就會降低甚至變得沒有必要?!眳⒁姼咂骁堸i.論人工智能對未來法律的多方位挑戰(zhàn)[J].華中科技大學學報(社會科學版).2018,(1):86-96 ;還有論者認為“人工智能成為裁判主體,現(xiàn)實來看是可能的和可行的?!眳⒁姺杜d科.智能裁判的科學內(nèi)涵[J].溫州大學學報(社會科學版).2020,(2):49-57.“算法裁判或?qū)⒊蔀榉傻慕K極形態(tài)”[2],人工智能可以代替法官直接作出裁判。中立期待者則認為人工智能運用應當堅持輔助性原則[3],不能完全取代司法工作者,只能作為工具或輔助手段形式存在。[4]最高人民法院院長周強同志曾明確指出“無論多么先進的人工智能,都是法官的輔助,裁判的主體只能是法官”[5],這代表著我國目前的主流觀點。
對于人工智能只能發(fā)揮輔助作用的原因,現(xiàn)有研究已經(jīng)進行了十分全面深入的論述,且基本達成共識。本文將之簡單歸納為:(1)人工智能本身的限制。除算法黑箱、算法歧視外,不允許人工智能裁判的緣由還在于,其可能只有權(quán)力沒有責任。而如果不能為決斷本身所負責,那么作出決斷的行為將失去基礎。[6]并且“有多少人工,就有多少智能”的法則在法律人工智能產(chǎn)品上體現(xiàn)得十分明顯[7],意味著法律人工智能的智能程度實際上是較為有限的。(2)司法裁判的獨特性。人工智能的認識論基礎是“認知可計算化”[7],而左右司法裁判的價值衡量、經(jīng)驗和情感卻無法計量,“人工智能判決是一種價值真空的判決”[8],難以實現(xiàn)政治效果、社會效果和法律效果相統(tǒng)一。人工智能判決與人類裁判具有形式判斷與實質(zhì)判斷、歸納推理與演繹推理、標準司法與個別正義的根本分歧。(3)政策考量。人工智能裁判還可能毀損司法權(quán)的獨立性、法定性和儀式感,造成信息不對稱而進一步加劇刑事審判的控辯失衡,沖擊審級制度等等。
至于輔助審判的范圍,各界均認可人工智能用于非審判事務的可行性,實務中也確實取得了良好效果。例如上海市徐匯區(qū)人民法院將人工智能應用于創(chuàng)新庭審記錄改革,使庭審時間節(jié)省了約1/3。江蘇省蘇州市中級人民法院通過庭審語音智能轉(zhuǎn)換、電子質(zhì)證“隨講隨翻”等智能應用,將法官事務性工作剝離約40%,書記員事務性工作減少約50%,案件平均審判效率提高30%左右。②江蘇推廣智慧審判蘇州模式 提高案件審判效率[EB/OL].人民網(wǎng)(手機)2017年4月16日,http://m.people.cn/n4/2017/0416/c1549-8770962.html,2021-11-08.同時,個案學習后疑難復雜案件識別正確率達95%以上[9],切實提升了審判監(jiān)督管理的精準性。不過,基于輔助定位的人工智能能否介入審判事務以及介入的程度,各界有不同認識。有論者認為人工智能可以適當裁判輕微的刑事案件。[10]也有論者認為人工智能輔助裁判應該多適用于民商事案件,而非刑事案件。[11]在具體事項上,有論者認為人工智能應當避免涉及實體利益的裁判。[12]也有論者認為人工智能可以就證據(jù)能力之有無和證明力之強弱,給出概率上的參考。[13]還有論者認為不能用于證明能力的實質(zhì)判斷,但可以檢驗形式性要素。不能獨立應用于證明力判斷,但可以以技術(shù)手段發(fā)現(xiàn)證據(jù)矛盾之處。[3]雖然沒能達成統(tǒng)一認識,但總歸而言人工智能輔助審判應當有“允許”與“禁止”之分。
與理論界對人工智能輔助審判的猶疑不同,技術(shù)的日益智能化使得各地法院的智能輔助系統(tǒng)建設闊步向前,如北京高院“睿法官”智能研判系統(tǒng)、上海高院刑事案件智能輔助辦案系統(tǒng)(簡稱“206”系統(tǒng))、貴州省“政法大數(shù)據(jù)執(zhí)法監(jiān)督智慧云平臺”、杭州互聯(lián)網(wǎng)法院智能證據(jù)分析系統(tǒng)以及廣州互聯(lián)網(wǎng)法院的“類案批量智審系統(tǒng)”,等等。刑事審判中人工智能的運用幾乎已經(jīng)實現(xiàn)對刑事訴訟流程的全覆蓋。[14]109其功能重點表現(xiàn)在以下三個方面:
證據(jù)標準指引一般用于審前程序,主要是對辦案過程中需要收集的證據(jù)以及證據(jù)收集規(guī)范進行具體化和規(guī)范化。截至2018年10月,上?!?06系統(tǒng)”對該市刑事案件常涉的71個罪名進行標準制定,形成校驗點12989個[14]123,實現(xiàn)分層、分類、分段指引。在案件證據(jù)進入辦案系統(tǒng)之初,即可告知是否存在證據(jù)缺漏,以促進證據(jù)收集的全面性、充分性。
證據(jù)規(guī)則指引是對證據(jù)三性和非法證據(jù)排除等規(guī)則的快速檢索機制,例如通過整合最高法《關于適用<中華人民共和國刑事訴訟法>的解釋》以及相應規(guī)定,將電子數(shù)據(jù)的審查判斷固定為17個具體方面。同時明確什么情況下屬于瑕疵電子證據(jù)、如何補正,以及非法電子證據(jù)的排除等等。審判人員只需要對照證據(jù)規(guī)則指引就可以確定證據(jù)能否采信,或要求補正,或予以排除。
證據(jù)自動校驗包括單一證據(jù)校驗和證據(jù)鏈與全案證據(jù)審查判斷。前者既可在庭下使用,也可以在庭審中使用,后者則常常在庭下使用。單一證據(jù)校驗是建立在證據(jù)規(guī)則指引的基礎上,依據(jù)“海量數(shù)據(jù)挖掘+辦案專家總結(jié)”的校驗規(guī)則,從單個證據(jù)的程序、形式和內(nèi)容三方面進行比對校驗,自動生成審查結(jié)論。例如在上海市二中院運用“206系統(tǒng)”的首次庭審中,系統(tǒng)發(fā)現(xiàn)涉案扣押物品缺乏相應扣押筆錄,并給予法官證據(jù)瑕疵提示,法院依據(jù)提示要求公訴人對瑕疵證據(jù)進行了補正說明。此外,“206系統(tǒng)”通過適用證據(jù)模型,可以對上傳的證據(jù)材料能否形成完成、閉合的證據(jù)鏈條進行初步判定。對同一查證事項下的證據(jù)印證關系,各類查證事項的邏輯符合性,以及被告人供述的矛盾進行審查判斷。[14]112例如系統(tǒng)可以提請法官注意,針對是否與被害人相識這一事實,被告人多次作出矛盾供述,從而促進證據(jù)的實質(zhì)審查。還可以利用系統(tǒng)的證據(jù)鏈審查功能判斷當事人是否具有搶劫意圖,構(gòu)成搶劫罪還是故意殺人罪或盜竊罪,是否具有如實供述情節(jié)等等。
智能量刑輔助是司法與技術(shù)結(jié)合的最早領域之一,也是探索經(jīng)驗較為豐富的領域之一。計算機技術(shù)較為普及時,我國就曾出現(xiàn)機器量刑的嘗試①最早可追溯至上世紀80年代末,只是那時主要停留在對量刑情節(jié)個數(shù),各類情節(jié)權(quán)重評價以及處罰程序等的初步運算。新京報在2004年5月23日刊發(fā)題為《輸入犯罪情節(jié)電腦作出量刑》的消息。2006年山東省淄博市淄川區(qū)還曾研制出電腦量刑軟件,參見郭新磊: 淄博電腦量刑挑戰(zhàn)自由裁量權(quán)[N].民主與法制時報.2006-09-11(A01).,只是當時還停留在初步的機器計算。目前,人工智能量刑輔助主要包括類案推送、量刑參考、裁判偏離預警和社會危險性評估功能四個方面。江蘇法院量刑輔助流程遵循“圖譜構(gòu)建→情節(jié)解析→權(quán)重排序→類案識別→模型訓練→量刑預測→偏離預警”七大步驟。當一個刑事案件進入系統(tǒng)后,智能輔助辦案系統(tǒng)會根據(jù)深度神經(jīng)網(wǎng)絡自動抽取案件信息,在海量案件庫中查找最相近的案件進行自動推送,以供辦案人員參考。依托量刑預測模型,系統(tǒng)可以實現(xiàn)自動依據(jù)歷史量刑數(shù)據(jù)推薦量刑。如果法官的裁判結(jié)果與類案裁判結(jié)果發(fā)生重大偏離,系統(tǒng)則會自動預警(根據(jù)偏離度的不同,預警的程度也不同),并進行犯罪定性和量刑差異性分析,必要時還可以提請院庭長行使監(jiān)督管理職權(quán)。系統(tǒng)中的社會危險性評估模型還能對涉案人員進行社會危險性評估,影響刑罰執(zhí)行方式,如緩刑的適用。
民事審判中人工智能運用則走得更遠。福建等地試行的交通事故“智能裁判系統(tǒng)”,可以通過分析原告的起訴狀和被告的答辯狀,生成案件基本要素。法官只需要對要素進行篩選,就能點擊獲得裁判文書。浙江嘉興的金融智審系統(tǒng)不僅能夠自動生成判決書稿,還能利用AI助理主持和推進庭審,法官根據(jù)反饋、核查后確認宣判即可。②法官判案調(diào)解寫文書 有個廈門造AI助理[EB/OL].http://www.taihainet.com/news/xmnews/xqzmr/2020-09 -26/243 1106_3.html, 2021-11-08.民事訴訟的改革動向往往代表著刑事訴訟的發(fā)展方向,如在線訴訟機制的適用。
人工智能運用具有科學性、可重復校驗性和快速性的特點,科學性體現(xiàn)在可以識別出肉眼無法直接辨別的證據(jù)問題,如可以直接審查出圖片是否經(jīng)過篡改,提高證據(jù)審查的準確性;可以總結(jié)出案件的共識性、一般性規(guī)律,為辦理案件提供整體性參考,實現(xiàn)量刑的均衡性??芍貜托r炐泽w現(xiàn)在智能系統(tǒng)可以對在案證據(jù)進行反復驗證,為法官決策提供實時參考。快速性體現(xiàn)在利用系統(tǒng)自動運算可以快速得出數(shù)據(jù)化結(jié)論,大大減少個案的人力投入,提高司法效率。因為有具體數(shù)據(jù)作為支撐,人工智能輔助審判對于促成“好的裁判”生成具有明顯優(yōu)勢和積極作用。然而,從上述簡要梳理也可以看出,當前刑事審判中人工智能運用從審前的證據(jù)充分性審查,庭前的全案證據(jù)審查功能,庭中的單一證據(jù)校驗,到庭后的量刑預測輔助、類案推送和社會危險性評估,幾乎貫穿刑事案件辦案始終。輔助的事項逐漸拓展至證據(jù)審查、案件裁量環(huán)節(jié),間接決定著證據(jù)的“去留”與案件的定性和量刑。從證據(jù)標準指引到證據(jù)自動校驗,再到量刑智能輔助,人工智能距離裁判的核心事務——定罪量刑越來越近。從證據(jù)的數(shù)據(jù)化到法律規(guī)則的代碼化,再到算法模型的自動結(jié)果,司法人員的裁判權(quán)力在智能系統(tǒng)的層層引導提示下,算法技術(shù)的不斷嵌入下逐漸被削弱,可能影響法官的獨立審判地位。
審判中的人工智能已趨“全能”,這不得不引起我們的注意和警惕。在智能技術(shù)發(fā)展加快、法律與技術(shù)融合深化的當下,反思人工智能輔助審判的界限具有必要性和現(xiàn)實意義。
在法律人工智能深度應用之前,為了使法官專司裁判,提高審判質(zhì)效,司法改革就曾嘗試實現(xiàn)審判輔助事務與審判核心事務的分離。截至目前,《法官法》《人民法院組織法》等法律法規(guī)還沒有對兩者進行明確的區(qū)分。審判輔助事務既可以被理解為程序性保障事務和判斷實施類事務的集合,前者如庭審記錄、卷宗裝訂等,后者如訴訟保全等。也可以被理解為除開庭審理和作出裁判以外的其他所有訴訟事項??梢姡瑢崉罩袑徟休o助是一個多義且十分寬泛的概念,容易形成不同理解,與審判的邊界較為模糊,容易造成混同。
司法責任制改革后,最高法根據(jù)人員類型的不同對審判權(quán)力及其事項進行劃分。最高法《關于完善人民法院司法責任制的若干意見》(以下簡稱《意見》)第九條、第十三條和第十四條分別規(guī)定,法官負責行使審判權(quán)力、法官助理負責完成審判輔助性工作、書記員負責審判事務性工作。第十三條列舉的審判輔助性工作主要包括形式審查訴訟材料、協(xié)助證據(jù)交換,受法官委托或協(xié)助法官辦理保全,準備與案件審理相關的參考資料等等,簡言之就是排除實質(zhì)判斷的事項。審查證據(jù)、開展庭審活動、提出案件處理意見均屬于法官的審判權(quán)力,法官助理和書記員無從干涉。盡管許多地方都將法律人工智能系統(tǒng)稱為AI助理,法官也認為自己仿佛“多了一個助理”,但是實務中法律人工智能系統(tǒng)可以進行證據(jù)審查、提出量刑意見,顯然已經(jīng)超出前述《意見》對法官助理的職責定位。當然,“輔助審判”不等于“審判輔助”,前者的“輔助”是動詞,指“從旁幫助”,所以輔助審判不一定只針對審判輔助性事項,也可以被理解為對法官裁判提供參考。是故,人工智能不僅可以履行法官助理的職責,還可以幫助法官作出決策,而這就代表了人工智能可以介入到法官決策的各個訴訟階段、各類事項,帶來人工智能權(quán)力無限擴張的隱患。
毫無疑問,人工智能輔助審判意味著人工智能運用是次要,法官審查判斷是主要核心。而當前人工智能輔助系統(tǒng)不但引導法官開展審判活動,還要求法官在不采納人工智能意見(如類案量刑)時進行必要說明。法官判斷與人工智能計算的主次地位已經(jīng)不太明顯,甚至有所顛倒。如果不對人工智能應用進行必要限制,可能導致其功能膨脹而直接決定案件裁判,違背審判中智能運用的初衷。
一方面,只有堅持人工智能的輔助地位,保留人類法官的決策權(quán)力,才能實現(xiàn)權(quán)責一致。司法責任制改革是司法改革的“牛鼻子”,具有基礎性、關鍵性地位,目的在于實現(xiàn)“讓審理者裁判,讓裁判者負責”。其邏輯前提是權(quán)利與責任的協(xié)調(diào)一致。當法官無法獨立、直接地行使案件審判權(quán)時,片面強調(diào)審判責任是不合理的。人工智能系統(tǒng)是虛擬的,不具有責任意識也無法對外承擔責任。如果允許人工智能干涉案件裁判,或者賦予其數(shù)據(jù)結(jié)果以強制約束力,實質(zhì)上也是對法官獨立行權(quán)的“干預”。由于無法追究人工智能責任,容易形成人工智能“有權(quán)而無責”、人類法官“無權(quán)而擔責”的吊詭局面,造成消極裁判。
另一方面,只有堅持人工智能的輔助地位,才能實現(xiàn)技術(shù)準確與審判智慧的有機統(tǒng)一,確保裁判公正。如上文所述,人工智能技術(shù)難以進行價值判斷、情理判斷,無法滿足司法裁判的獨特性。不僅如此,我國的法律人工智能還處于初步發(fā)展階段,實務應用的絕大多數(shù)人工智能屬于“弱人工智能”。人工智能運用的前提問題——數(shù)據(jù)的質(zhì)量和完整性還沒有得到保障,技術(shù)發(fā)展遠遠沒有達到可以準確作出裁判的程度,相應計算結(jié)果只能作為參考而無法成為終局性結(jié)論,否則容易造成誤判。
全球范圍來看,規(guī)范和限制人工智能尤其是法律人工智能運用是總體趨勢。以歐洲和美國為例,法律人工智能主要用于為私主體提供法律服務而非執(zhí)法司法機關辦理案件,少數(shù)用于司法領域的人工智能運用也一直飽受爭議,從而催生出相應的限制性舉措。針對美國的COMPAS量刑風險評估系統(tǒng),理論研究者犀利指出風險評估的種族不平等來源,不是輸入的數(shù)據(jù),也不是特定的算法或算法方法,而是預測自身。①Mayson, S.G., Bias in, bias out, 128(8) Yale L.J.2218 (2019).美國Loomis一案中威斯康星州最高法院認為考量(consider)而不是依靠(rely)風險評估結(jié)果,不違背正當法律程序;同時也認為風險評估報告中應該提醒使用方注意,系統(tǒng)可能會對不同人種或少數(shù)族群的犯罪者作出不當分類。②State v.loomis.
歐洲國家智能技術(shù)發(fā)展較為成熟,但歐盟成員國的法官似乎還沒有對預測性軟件進行日常的實際應用。③《European Commission for the Efficiency of Justice (CEPEJ)》.Adopted at the 31st plenary meeting of the CEPEJ(Strasbourg, 3-4 December 2018).而且,歐盟還出臺了多項規(guī)范法律人工智能運用的提案。如2018年12月歐洲司法效率委員會通過《關于在司法系統(tǒng)及其環(huán)境中使用人工智能的歐洲倫理憲章》,確立人工智能司法運用的四大基本原則。④全稱為《European ethical charter on the use of artificial intelligence in judicial systems and their environment》提出尊重基本權(quán)利原則、非歧視原則、質(zhì)量和安全原則、透明公正公開原則以及“用戶控制”原則[EB/OL].https://www.coe.int/en/web/cepej/cepej-european-ethical-charter-on-the-use-of-artificial-intelligence-ai-in-judicial-systems-and-their-environment,2021-11-01.2021年4月歐盟委員會又發(fā)布人工智能統(tǒng)一規(guī)則提案,其第5條明確了禁止的人工智能實踐,包括造成或可能造成對自然人或整個群體不利或負面待遇的智能評估等四種情形;第6條劃定了高風險人工智能系統(tǒng)的分類,并在附錄中進行詳盡列舉,包括用于自然人的犯罪風險評估,調(diào)查或起訴過程中的證據(jù)可靠性評估,或者協(xié)助司法機關研究和解釋事實與法律以進行具體應用等等。作為應對,提案要求加重系統(tǒng)提供者的義務,如系統(tǒng)投入使用之前應進行符合性評估(conformity assessment)等,違反則會受到相應處罰。⑤該提案全稱為《Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts》.EUR-Lex - 52021PC0206 - EN - EUR-Lex https://eur-lex.europa.eu/legal-content/EN/TXT/?qi d=1623335154975&uri=CELEX%3A52021PC0206 ,2021-11-01.歐盟成員國的法國甚至還禁止私主體將法官和書記官的個人數(shù)據(jù)用于評估、分析、比較或預測他們的實際做出或?qū)⒁龀龅膶I(yè)行為。[15]
相比之下,我國司法機關是法律人工智能的主要運用主體,且智能應用的深度和廣度均位于世界前列。國家政策層面十分重視促進、扶持和發(fā)展人工智能產(chǎn)業(yè),較少提及人工智能的審查規(guī)制,約束機制付之闕如。⑥只有個別協(xié)會發(fā)出倡議。如2019年6月中國新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,提出和諧友好、公平公正、包容共享等綱領性治理原則。司法機關雖然堅持強調(diào)人工智能的輔助地位,但是也沒有針對性出臺相應限制舉措。實務運行更加關注人工智能的“能”,而非“不能”。在法律人工智能強勢發(fā)展之際,有必要確立其邊界,防止過猶不及。
為了確保法律人工智能運用更好地輔助法官決策,而又不至于替代“法官決策”,有必要為其確立輔助邊界。
證實與證偽是檢驗科學性與正確性的兩種基本方式。證偽遵循的是消極解構(gòu)思路,即通過檢驗和糾正錯誤來獲得真理。人工智能輔助審判應當以證偽的邏輯運行,而非證實。原因在于,一方面人工智能輔助審判以深度學習歸納海量數(shù)據(jù)中的共性規(guī)律,以類推思維得出數(shù)據(jù)化結(jié)果。個性化數(shù)據(jù)在自動計算過程中被忽略,將共性規(guī)律直接適用于個案裁判可能存在不適當。另一方面人工智能將案件要素文本化、代碼化并進行功能模擬,過程具有形式化特點,得出的結(jié)論更趨向于形式正義。而形式正義與實質(zhì)正義往往是矛盾關系,直接采納人工智能結(jié)論可能造成機械司法。是故,人工智能輔助審判應當通過證偽發(fā)揮糾偏功能,以作為校驗在案證據(jù)是否完全、證據(jù)審查是否準確以及量刑是否均衡的標尺。具體而言,在證據(jù)標準指引方面,案件證據(jù)導入后系統(tǒng)會提示缺乏哪些證據(jù)材料,以彌補法官審查的不足。但是即便證據(jù)指引中的每一類證據(jù)均在案,也無法證明在案證據(jù)達到了確實充分、排除合理懷疑的證明標準。對于確有特殊原因無法收集某類證據(jù)的案件,在實質(zhì)審查證據(jù)后認為達到證明標準的,仍然可以定罪量刑;在證據(jù)校驗方面,法官在辦案中可以利用智能系統(tǒng)對單一證據(jù)、證據(jù)鏈及全案證據(jù)體系進行審查,以發(fā)現(xiàn)證據(jù)瑕疵或矛盾,為證據(jù)審查提供思路和方向。對于發(fā)現(xiàn)證據(jù)瑕疵或矛盾的,應當要求控辯雙方進行說明。而沒有發(fā)現(xiàn)證據(jù)瑕疵或矛盾仍然無法說明證明的充分性,還需要法官在聽取庭審的基礎上進行實質(zhì)判斷和邏輯經(jīng)驗架構(gòu);在量刑輔助方面,類案推送為辦案法官提供參考,偏離預警則提供裁判結(jié)果的檢驗。偏離不等于錯誤,但裁判偏離的案件應當要求加強裁判說理,對于偏離程度較高的案件還可以提請院庭長監(jiān)督。
總而言之,人工智能系統(tǒng)可以檢查校對法官裁判的合法性和合理性,而不能直接生成裁判結(jié)果本身。
1.是參考性輔助而非規(guī)范性輔助。參考指“參證有關材料來幫助研究和了解”。[16]參考性輔助是指人工智能得出的結(jié)論只作為法官裁量的考慮因素,不具有強制約束力。規(guī)范性參考是指人工智能得出的結(jié)論對于法官裁判具有規(guī)范作用,法官必須采納,如不采納則需要給出合理的理由。①甄航.人工智能介入量刑機制:困境、定位與解構(gòu)[J].重慶大學學報(社會科學版),2020,(6):10.不過該文認為人工智能給出的“量刑”應當對法官具有規(guī)范作用。人工智能得出的結(jié)論是非終局性的,允許算法使用不代表替代或剝奪法官自由裁量權(quán)。智能工具的使用旨在服務于法官決策,而不是加以限制。司法人員在任何時候都應當享有根據(jù)案件具體特點推進司法流程,做出司法判決的權(quán)力,而不必須受制于人工智能得出的結(jié)論。只有將人工智能輔助審判定位為參考性輔助,才能在尊重法官獨立審判地位基礎上實現(xiàn)智能輔助與人類智慧的良性互動,不至于越俎代庖。為了案件質(zhì)量的過程監(jiān)管,可以要求法官對裁判結(jié)果與類案具有重大偏差的案件,在系統(tǒng)內(nèi)進行說明,但不得強制要求采納。正因為只作為參考性輔助,法官采納人工智能結(jié)論的也應當進行釋明說理。
2.應注意人工智能工具價值與公正價值的協(xié)調(diào)衡量。技術(shù)帶來審判效率的大幅提升,例如證據(jù)鏈和全案證據(jù)審查判斷功能。以盜竊案件為例,法院梳理證據(jù)的時間大約平均減少了30%-50%。但是,刑事審判中人工智能運用的工具價值不能涵蓋或超越公正價值。例如,要確保基本的三方訴訟結(jié)構(gòu),防止算法歧視影響法官客觀中立地位,保障被追訴人無罪推定權(quán)利;要確保被追訴人辯護權(quán)的有效行使。例如要思考解決被告人在傳統(tǒng)司法審判中享有的針對審判人員或者公訴方的訴訟權(quán)利如何適用于人工智能系統(tǒng)的問題。
1.案件范圍。其一可以適用于情節(jié)簡單、標準客觀或主觀裁量較少的案件。例如醉酒型危險駕駛案件,這類案件的法律行為和量刑情節(jié)有限,智能識別和理解的難度較小,準確度較高。而且醉酒型危險駕駛案件還有明顯的“數(shù)量標準”即血液酒精含量,更加契合人工智能數(shù)據(jù)化分析方法和形式推理邏輯;其二盡量避免適用于重大疑難復雜案件。重大疑難復雜案件中證據(jù)和法律關系交錯復雜,當前的“弱人工智能”很難精準識別分析。其三禁止適用于新類型案件和社會影響廣泛的案件。人工智能系統(tǒng)是對已發(fā)生的案件數(shù)據(jù)的學習歸納與總結(jié),新類型案件面臨基礎數(shù)據(jù)缺失,人工智能難以得出有效判斷。新型案件審判可能還涉及法律續(xù)造,應當謹慎行之。例如自動駕駛汽車交通犯罪案件。而社會影響廣泛的案件與人倫、情理密切關聯(lián),觸動公眾敏感神經(jīng),案件裁判需要回應社會輿情、衡量倫理法理與情感,人工智能不具備“人”的主體身份,無法感同身受,也難以結(jié)合法理和情理進行判斷。當前民眾對司法的信任依托于法律制度和法官的個人能力,而不是科技技術(shù),在社會影響廣泛的案件適用人工智能也不利于維護司法公信力。
2.輔助事項上,一是情感價值判斷與法律價值判斷的劃分,情感價值判斷交給人類法官,關于法律的問題則可以交給人工智能;二是涉及實體利益的事項與涉及程序利益的事項的劃分。涉及實體利益的事項與公民的人身自由財產(chǎn)等密切關聯(lián),涉及審判的本質(zhì)與核心,應交由人類法官。而涉及程序性利益的事項可以適當交給人工智能;三是證據(jù)審查上應當側(cè)重于形式判斷,而不是實質(zhì)判斷。人工智能可以也非常擅長開展形式性要素檢驗,如勘驗筆錄是否具有事由時間地點、勘驗人員簽名、見證人簽名等八項內(nèi)容,收集提取電子數(shù)據(jù)是否為兩名以上偵查人員。在此方面,人工智能具有優(yōu)越于人類判斷的效率和精準度,可以快速檢測出哪一部分缺失或存在瑕疵,由此側(cè)面反映證據(jù)的證據(jù)能力和證明力。對于已經(jīng)開展的單個證據(jù)評價和全案證據(jù)評價,人工智能應該通過算法模擬或證據(jù)模型推算對單個證據(jù)或全案證據(jù)進行似真概率測算,提供定量分析結(jié)果而非定性結(jié)論,避免審理人員片面相信某一證據(jù)。在量刑參考方面,人工智能計算結(jié)果應當有區(qū)間幅度,同時表明幅度不同的影響因素,給予法官決策參考。
3.訴訟階段上,應當避免庭審中人工智能的輔助判斷。由AI助理主持和推進庭審,法官進行補充和確認的做法有損法官的庭審指揮權(quán)。人工智能變相成為庭審的主導者,法官成為形式參與者,超越了人工智能輔助審判的范疇。在算法不公開的背景下在庭審中利用人工智能輔助判斷,容易導致辯方無從發(fā)表質(zhì)證意見,有損公平審判權(quán)。人工智能輔助審判是對辦案方式的革新,應當主要用于庭下環(huán)節(jié)。
司法實務中個案情況錯綜復雜,情感判斷與價值判斷、涉及實體利益的事項與涉及程序利益的事項不是涇渭分明。以海量數(shù)據(jù)為基礎,經(jīng)過復雜算法模型計算而得的結(jié)果具有天然的可信性,致使法官客觀上難以反駁。在激增的案件數(shù)量、法定的審理期限以及嚴格的績效考核的多重壓力下,加之人的惰性,縱然法官知道人工智能計算的結(jié)果可能存在偏誤,也會傾向于積極評價,甚至不排除產(chǎn)生過度依賴。為此,一是要采取相應措施保障人工智能系統(tǒng)的中立、客觀與公正,尤其是在系統(tǒng)上線運行之前,需要加強第三方專業(yè)評估。二是要注重保障被追訴人知情權(quán)和質(zhì)證權(quán),被追訴人享有對人工智能計算結(jié)果提出異議的權(quán)利,并要求司法機關拒絕采納該計算結(jié)果。對于采納人工智能計算結(jié)果作出判決的,應當在裁判文書中進行說理,三是要保障被追訴人事后獲得救濟的權(quán)利,對于一審采納類案量刑推薦區(qū)間進行裁判,被追訴人上訴的,二審不應再適用同樣的人工智能系統(tǒng)進行量刑輔助,否則會削弱審級制度,損害當事人上訴權(quán)。
不論人工智能發(fā)展到何種程度,都只能作為人類的輔助工具,而無法替代人類的決策地位。正如德國學者發(fā)出的警告:人工智能不知人生為何物,又如何能夠裁決人民的人生?[6]即使人工智能能夠做出比人類法官更加精準的裁判,也無法替代人類審判。因為司法權(quán)力和司法責任必須對等。人工智能計算結(jié)果不具有強制力和約束力,人類法官享有拒絕采納的權(quán)力,甚至可以在特殊情況下排除人工智能的輔助。本文不是否定人工智能在刑事審判領域的運用,只是在人工智能在審判領域大放異彩之際,提出一些疑問和“冷思考”,即人工智能輔助審判必須有限度并應當進行規(guī)范。