文/熊秋紅
人類社會發(fā)展以科技創(chuàng)新為引擎,經(jīng)歷了從農(nóng)業(yè)社會、工業(yè)社會到信息社會的變遷,而信息社會以互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等為主要特征。在刑事司法領(lǐng)域,由于人工智能可以在短時間內(nèi)分析及處理大量的資料信息,因而被運用于犯罪預(yù)測、犯罪偵查和犯罪預(yù)防;運用于預(yù)測個體是否會再次犯罪、是否會在開庭日出庭等的可能性,從而影響關(guān)于保釋和緩刑的決定;運用于分析量刑總體態(tài)勢,從而影響檢察官和法官關(guān)于量刑的決定;運用于評估罪犯的風(fēng)險等級,從而影響關(guān)于假釋和矯正措施的決定??梢灶A(yù)見,未來人工智能在刑事司法中的應(yīng)用范圍將會逐漸擴大。刑事訴訟立法應(yīng)當(dāng)如何回應(yīng)人工智能的運用,成為一個亟待研究的問題。
從世界范圍內(nèi)來看,目前刑事司法領(lǐng)域的人工智能應(yīng)用,主要集中在偵查、保釋、暫緩起訴、量刑、假釋或監(jiān)獄內(nèi)的矯治及管理等領(lǐng)域。
(一)犯罪預(yù)測。相關(guān)研究表明,利用人工智能分析大量的既有信息,如犯罪記錄、報案資料、經(jīng)濟(jì)數(shù)據(jù)、地理資料等,可以進(jìn)行以下四種類型的犯罪預(yù)測:(1)預(yù)測犯罪可能發(fā)生的地點及時間;(2)預(yù)測可能進(jìn)行犯罪的人;(3)預(yù)測可能成為犯罪者的特征;(4)預(yù)測可能成為被害者之人。
(二)犯罪偵查。人工智能在刑事偵查中起著情報智能收集、情報數(shù)據(jù)智能研判、證據(jù)智能獲取、犯罪嫌疑人智能拘捕等作用,具有風(fēng)險防控提前化、信息渠道多元化、數(shù)據(jù)采集精確化、刑事證明精細(xì)化等特點。
(三)輔助審前羈押與保釋。在刑事司法中,人工智能可以作為風(fēng)險評估工具,用于輔助審前程序中關(guān)于羈押與保釋、附條件不起訴或暫緩起訴等決策。如在美國,許多州將人工智能作為保釋程序中的風(fēng)險評估工具,包括對公共安全的風(fēng)險和不出庭的可能性,而非被告人是否有能力繳納一定數(shù)量的保釋金。
(四)輔助量刑。量刑可以說是刑事審判程序中最為困難的工作,量刑偏差和量刑不均衡是長期存在的全球性問題。運用人工智能輔助量刑,越來越成為各國共同的趨勢。
(五)輔助假釋與矯正。在刑罰執(zhí)行方面,可以結(jié)合人工智能的數(shù)據(jù)預(yù)測,從服刑人、其家庭及社會等相關(guān)因素切入,探討再犯危險因子,預(yù)測其再犯可能性,通過建立再犯風(fēng)險評估指標(biāo)體系,綜合評估服刑人的表現(xiàn)、社會危險性、再社會化可能性等,避免僅憑司法工作人員的主觀經(jīng)驗進(jìn)行是否予以假釋的判斷,并以此確定對罪犯采取的具體矯正措施。
(六)其他領(lǐng)域的應(yīng)用。在我國,除了犯罪預(yù)測與偵查,輔助保釋、量刑、假釋和矯正之外,人工智能還應(yīng)用于其他一些刑事司法領(lǐng)域,如證據(jù)審查判斷、文書生成、訴訟監(jiān)督等。
基于人工智能強大的數(shù)據(jù)搜集和分析能力,該技術(shù)對于刑事政策的制定者、對于計算機和數(shù)據(jù)科學(xué)家而言,無疑是一個具有吸引力的工具。從其他國家和地區(qū)的討論情況看,贊成者一般認(rèn)為,人工智能的使用具有以下優(yōu)勢:其一,有助于減少案件積壓;其二,有助于限制人為的偏見;其三,人工智能具有科學(xué)性和專業(yè)性,操作起來也方便快捷,是一個有利于提高司法人員辦案質(zhì)效的科技手段。反對者則認(rèn)為,人工智能技術(shù)介入和引導(dǎo)刑事司法可能因為使用了不可靠的數(shù)據(jù),給刑事司法中的當(dāng)事人造成傷害,人工智能的使用將會帶來以下問題:其一,準(zhǔn)確性問題;其二,公平性問題;其三,透明度問題;其四,權(quán)利保障問題。
對于人工智能在刑事司法中的應(yīng)用,我國理論界和實務(wù)界總體上持樂觀態(tài)度,主要原因在于在刑事司法中使用人工智能具有以下幾方面的優(yōu)勢:其一,有利于打擊犯罪;其二,有利于“同案同判”;其三,有利于提高訴訟效率。
部分學(xué)者對人工智能介入刑事司法持保留甚至反對立場,認(rèn)為人工智能的介入會帶來以下弊端:其一,導(dǎo)致司法人員機械司法;其二,背離司法的親歷性原則;其三,造成冤假錯案,破壞司法公正;其四,侵犯公民的隱私權(quán);其五,有勞民傷財之嫌;其六,模糊司法責(zé)任。
關(guān)于人工智能在刑事司法中的應(yīng)用,存在著積極主義和消極主義兩種不同立場。持積極主義立場者更多地看到了使用人工智能帶來的增強打擊犯罪的能力、提高司法效率、貫徹客觀主義等好處。持消極主義立場者往往固守傳統(tǒng)的法律理念及其制度文化,對于刑事司法中的自動化決策抱有相當(dāng)程度的憂慮:一方面擔(dān)心沖擊司法人員的主體地位,另一方面懷疑自動化決策的準(zhǔn)確性、公正性以及研發(fā)成本與收益是否成正比的問題。對于政策制定者而言,前者產(chǎn)生了“鼓勵創(chuàng)新”模式,后者產(chǎn)生了“預(yù)警原則模式”。有學(xué)者試圖調(diào)和這兩種不同的立場,提出了“刑事司法人工智能的包容性規(guī)制”的主張。
國內(nèi)外學(xué)術(shù)界和實務(wù)界圍繞人工智能在刑事司法中的應(yīng)用所引發(fā)的爭論,其原因在于人工智能應(yīng)用對于社會的基本規(guī)范體系及其道德基礎(chǔ)帶來了極大的沖擊和挑戰(zhàn)。概而言之,人工智能對刑事司法制度帶來的沖擊和挑戰(zhàn)主要在于合法性、公正性、民主性、有效性、倫理性等五個方面的問題。
(一)合法性問題。法律發(fā)展滯后于技術(shù)發(fā)展導(dǎo)致司法實務(wù)中人工智能的應(yīng)用面臨“合法性赤字”或者合法性質(zhì)疑。在許多國家和地區(qū),現(xiàn)行刑事訴訟法尚未對人工智能的應(yīng)用進(jìn)行規(guī)制,而通過解釋既有法條容納人工智能應(yīng)用容易產(chǎn)生合法性爭議。
(二)公正性問題。鑒于公正性是司法制度的本質(zhì)特征,因此公正性問題成為人工智能應(yīng)用于刑事司法時的核心爭議。將人工智能技術(shù)用于犯罪預(yù)測和偵查,導(dǎo)致偵查模式從回應(yīng)式偵查走向預(yù)防性偵查,警方對犯罪的應(yīng)對主動化和長效化,警方在獲得犯罪預(yù)測結(jié)果后對“犯罪熱區(qū)”進(jìn)行特別干預(yù),部署警力定向打擊某類犯罪。一旦將某一區(qū)域劃為“犯罪熱區(qū)”,警察會更傾向于在該區(qū)域發(fā)動攔停、盤查,甚至采取逮捕等強制性措施,并且自覺或不自覺地降低證明標(biāo)準(zhǔn),這樣居住在該區(qū)域的居民,其人身自由和隱私權(quán)等更易受到限制或者侵害。人工智能系統(tǒng)依靠大數(shù)據(jù)和算法運行所產(chǎn)生的結(jié)果,可能固化甚至放大不平等的風(fēng)險。有研究指出:人工智能風(fēng)險評估工具在刑事司法中運用時,往往不成比例地高估來自少數(shù)族群的個人犯罪再犯率。在未對公民進(jìn)行事先告知并征得同意、其他正當(dāng)程序機制保障欠缺的情況下,大數(shù)據(jù)偵查可能產(chǎn)生較大的侵害公民隱私權(quán)的風(fēng)險。
(三)民主性問題。人工智能在刑事司法中的應(yīng)用是否符合法治社會的民主性要求,主要在于其是否具有透明性與可問責(zé)性。人工智能應(yīng)用中的“法律黑匣子”和“技術(shù)黑匣子”給刑事司法的透明性和可問責(zé)性帶來了巨大的挑戰(zhàn)。算法比司法人員自由裁量具有更為不透明的特性導(dǎo)致對于司法決策的監(jiān)督和審查變得更加困難。人工智能的自動化特征,通常使受其影響者難以覺察和知悉,人工智能系統(tǒng)決策的過程與方法,也往往缺乏詳細(xì)的說明,其決策過程和結(jié)果是否公平,難以進(jìn)行監(jiān)督和審查。大數(shù)據(jù)偵查通過相關(guān)性原理進(jìn)行分析和預(yù)測,難以對其中的因果關(guān)系進(jìn)行具體說明。應(yīng)用人工智能系統(tǒng)決策可能出錯,一旦出錯,算法的責(zé)任難以追查,人的責(zé)任難以歸咎。
(四)有效性問題。如果在刑事司法中通過人工智能作出的決定,可以避免司法人員的偏見,在公正性方面明顯優(yōu)于人類判斷的結(jié)果,那么,人工智能的使用無疑就具有可接受性。但是,對此問題尚無明確的答案。人工智能系統(tǒng)以實然面的統(tǒng)計資料為基礎(chǔ),往往難以將應(yīng)然面的社會期待納入其中。就量刑輔助系統(tǒng)而言,在保障量刑的一貫性和一致性方面具有助益,但在保障量刑適當(dāng)性方面存在局限。如果在過去的司法實踐中存在量刑普遍偏低或普遍偏高的現(xiàn)象,人工智能系統(tǒng)提供給法官的量刑參考數(shù)據(jù),可能背離國民的法律情感,從而誤導(dǎo)法官量刑。
(五)倫理性問題。將人工智能應(yīng)用于刑事司法中,需要解決訴訟主體對于人工智能系統(tǒng)中的自主學(xué)習(xí)有多大的決定能力、對于人工智能系統(tǒng)產(chǎn)生的結(jié)果有多大的控制能力等問題。為了確保人類的情感與尊嚴(yán),將刑事司法的決策權(quán)完全交給機器,這是不能接受的。目前多是將人工智能作為刑事司法中的輔助性工具加以使用,并未產(chǎn)生取代人類決策的危機?,F(xiàn)在的關(guān)鍵問題是要解決司法人員應(yīng)當(dāng)如何與機器進(jìn)行合作的問題,即人機如何協(xié)同的問題。
人工智能對于法治的影響可謂喜憂參半。一方面,人工智能帶來的可預(yù)見性、可度量性和高效率,有利于促進(jìn)法治;另一方面,使用人工智能帶來了各種可測和不可測的風(fēng)險。為了防范人工智能所帶來的風(fēng)險,安全和以人為本成為兩項最為重要的倫理原則。2018年,歐盟成立了由52名專家組成的“歐盟人工智能高級專家組”,該專家組在2019年發(fā)布了關(guān)于《可信賴人工智能倫理準(zhǔn)則》。其中根據(jù)尊重人類自主、避免危害、公平、可解釋性等倫理原則,提出了七項基本要求:人權(quán)機構(gòu)和監(jiān)督,技術(shù)的穩(wěn)健性和安全性,隱私和資料管理,透明度,多樣性、非歧視性和公平性,社會和環(huán)境福祉,問責(zé)制。上述原則和基本要求理應(yīng)適用于刑事司法中人工智能的應(yīng)用場景。
我國采取發(fā)展優(yōu)先的立場積極推進(jìn)人工智能在刑事司法中的應(yīng)用,因此,出現(xiàn)了人工智能使用泛化的局面,但從司法實踐中的實際運用來看,在大數(shù)據(jù)偵查、輔助量刑等領(lǐng)域相對深入,在其他領(lǐng)域的運用尚處于淺表的層次。由于在刑事司法中使用人工智能尚未形成成熟的經(jīng)驗,相關(guān)研究也只是初步展開,目前對此進(jìn)行專門立法、系統(tǒng)立法尚為時過早,更為緊迫的是對刑事司法中人工智能的應(yīng)用提供方向性指導(dǎo)。
首先,應(yīng)當(dāng)認(rèn)識到,在刑事司法這一特殊的領(lǐng)域,人工智能的應(yīng)用具有較大的局限性。以量刑智能輔助系統(tǒng)為例,設(shè)計科學(xué)的量刑智能輔助系統(tǒng)存在不少困難:其一是案件信息數(shù)字化、結(jié)構(gòu)化之困難,其二是案件信息數(shù)字化轉(zhuǎn)換存在技術(shù)障礙,其三是刑罰適用統(tǒng)一化與個別化的矛盾難以調(diào)和。
其次,對于刑事司法中人工智能應(yīng)用的規(guī)制應(yīng)當(dāng)從數(shù)據(jù)治理、算法治理和應(yīng)用系統(tǒng)治理三個基本層面展開。從數(shù)據(jù)治理的角度看,應(yīng)當(dāng)保障資料的全面性、準(zhǔn)確性以及合法性;從算法治理的角度看,應(yīng)當(dāng)保障算法的科學(xué)性、透明性和公正性;從應(yīng)用系統(tǒng)治理的角度看,應(yīng)當(dāng)保障應(yīng)用系統(tǒng)的安全性、有效性和訴訟主體使用應(yīng)用系統(tǒng)的平等性。
最后,應(yīng)當(dāng)堅守司法人員在刑事司法中的主導(dǎo)地位,實行規(guī)則指導(dǎo)與智能輔助相結(jié)合。人工智能的介入使得刑事司法在法治主義之上疊加了“技治主義”,無論是法治主義還是技治主義,都不應(yīng)當(dāng)動搖司法人員的主導(dǎo)地位。司法人員不能以人工智能的運用來推卸司法責(zé)任,人工智能只是輔助手段,真正在刑事司法中起主導(dǎo)作用以及決定案件最終處理結(jié)果的還應(yīng)當(dāng)是司法人員。每個案件、每個被追訴人均有差異,用過去的資料預(yù)測未來,僅能作為參考,不能直接決定案件處理的結(jié)果,犯罪嫌疑人、被告人的刑事責(zé)任最終仍然需要由警察、檢察官、法官綜合各種因素后審慎判斷。司法人員在規(guī)則指導(dǎo)與智能輔助下決策,要兼顧實然與應(yīng)然,通過人工智能系統(tǒng)立足實然,通過規(guī)則指導(dǎo)糾正實然中的執(zhí)法偏差,并且回應(yīng)社會公眾對合理執(zhí)法、公正司法的期待。
人工智能在刑事司法中的應(yīng)用已經(jīng)是不可逆轉(zhuǎn)的大趨勢,其正在經(jīng)歷由淺入深、由窄到寬的發(fā)展過程。在瞬息萬變的數(shù)字時代,刑事訴訟理念和制度發(fā)展應(yīng)當(dāng)與時俱進(jìn)。刑事司法中所開發(fā)的人工智能應(yīng)用系統(tǒng)基于系統(tǒng)論、控制論以及信息論的理論成果,采用數(shù)學(xué)模型的統(tǒng)計技巧和信息科技,集法律規(guī)定與專家經(jīng)驗、案例分析于一體,具有增進(jìn)效能、避免錯誤、減少成本等益處,但也存在新的人權(quán)保障風(fēng)險,在科技化與自動化、數(shù)字化與虛擬化的趨勢下,正當(dāng)法律程序原則實質(zhì)轉(zhuǎn)化為“科技正當(dāng)程序”。為此,應(yīng)當(dāng)創(chuàng)新治理方式,防止自動化決策的偏見和錯誤,建立新的人權(quán)保障標(biāo)準(zhǔn),并對現(xiàn)有法律制度進(jìn)行開創(chuàng)性的解釋和發(fā)展。基于人工智能運用于刑事司法可能產(chǎn)生的風(fēng)險以及人工智能介入刑事訴訟本身所具有的局限性,在使用人工智能時應(yīng)當(dāng)保障數(shù)據(jù)的全面性、準(zhǔn)確性以及合法性,保障算法的科學(xué)性、透明性和公正性,保障應(yīng)用系統(tǒng)的安全性、有效性和訴訟主體使用應(yīng)用系統(tǒng)的平等性,并且堅守司法人員在刑事司法中的主導(dǎo)地位,做到人工智能介入有限、運用有度、輔助有力。
由于人工智能在刑事司法中的應(yīng)用涉及法律問題和技術(shù)問題,因此,對其進(jìn)行規(guī)則治理應(yīng)當(dāng)同時從法律和技術(shù)層面展開,人工智能應(yīng)用系統(tǒng)的研發(fā)和有關(guān)的規(guī)則制定應(yīng)當(dāng)由法律專家和技術(shù)專家共同組成的專家咨詢委員會進(jìn)行審查。人工智能的應(yīng)用應(yīng)當(dāng)趨利避害、揚長避短,妥善處理安全與自由、公正與效率、實然與應(yīng)然的關(guān)系,達(dá)致多元法律價值的平衡和兼顧。在研發(fā)和運用人工智能的過程中,應(yīng)當(dāng)注重對其公平性的全過程檢視,保障受人工智能決策影響的當(dāng)事人可以適時更正不當(dāng)或錯誤的自動決策結(jié)果;受到人工智能系統(tǒng)決策影響的當(dāng)事人應(yīng)當(dāng)具有要求解釋的權(quán)利;在人工智能系統(tǒng)的有效性存疑的情況下,受到人工智能系統(tǒng)決策影響的當(dāng)事人應(yīng)當(dāng)享有“退出的權(quán)利”,選擇只接受單純的人為決策。在我國,人工智能在刑事司法中的應(yīng)用從粗放式發(fā)展走向精細(xì)化規(guī)制,將是數(shù)字時代刑事法治發(fā)展的必由之路。