林 靜
(華東政法大學(xué) 經(jīng)濟(jì)法學(xué)院,上海 201600)
隨著“十四五”規(guī)劃的發(fā)布,人工智能被列為國家重點發(fā)展的科技前沿領(lǐng)域之一,人工智能融入各個行業(yè)必將成為以后重要的發(fā)展趨勢。在互聯(lián)網(wǎng)、大數(shù)據(jù)、機(jī)器學(xué)習(xí)等現(xiàn)代技術(shù)尤其是人工智能算法和算力迅速發(fā)展的背景下,面對優(yōu)質(zhì)司法資源稀缺的情況,人工智能與司法審判深度融合有著廣闊的前景。
目前,一些地方已經(jīng)開始了這方面的嘗試。例如,上海市高級人民法院開發(fā)的“上海刑事案件智能輔助辦案系統(tǒng)”(簡稱“206系統(tǒng)”)在全市得到廣泛使用,并得到最高人民法院的認(rèn)可;北京的“睿法官”系統(tǒng)與法官日常辦案無縫對接,推進(jìn)同案同判;還有重慶的“法治云”、河北的“智審”等人工智能系統(tǒng)與法院審判系統(tǒng)相結(jié)合,共同推進(jìn)了司法審判智能化。如此高歌猛進(jìn)的趨勢也引發(fā)了人們對人工智能時代司法活動的憂慮,開始考慮法律領(lǐng)域可能遭受的來自于人工智能的巨大挑戰(zhàn)。美國首席大法官John Roberts在出席一場活動時被問到,是否曾預(yù)見到有朝一日“智能機(jī)器在人工智能的驅(qū)動下協(xié)助法庭裁決,甚至是更有爭議的司法裁決”。他回應(yīng)道:“這一天已經(jīng)近在眼前,這也給司法部門的工作帶來了巨大壓力?!?/p>
面對人工智能時代所蘊(yùn)含的危機(jī),探討司法裁判人工智能化的實現(xiàn)可能性,即司法裁判人工智能化是否能夠?qū)崿F(xiàn)就成為一個前提性問題,而我們又將如何應(yīng)對這一時代大趨勢?基于此,本文將歸納司法裁判人工智能化的理論依據(jù),借此對“人工智能取代論”作出回應(yīng)。在此過程中,將司法裁判人工智能化帶來的挑戰(zhàn)剝離出來,并在此基礎(chǔ)上嘗試探討人工智能在司法實踐中應(yīng)用的定位與法律規(guī)制路徑。
人工智能簡稱AI,是對人的思維的信息過程的模擬。根據(jù)人工智能是否具有自我思考能力并能否付諸實踐進(jìn)行劃分,可以將人工智能分成三個發(fā)展階段:弱人工智能時代、強(qiáng)人工智能時代和超人工智能時代。①其中,弱人工智能(Artificial Narrow Intelligence,簡稱ANI)不具備思考能力,也不會有自我意識,如Alpha Go圍棋程序;強(qiáng)人工智能(Artificial General Intelligence,簡稱AGI),是可以勝任人類所有工作的人工智能,指在各方面都能和人類比肩的人工智能;超人工智能(Artificial Super Intelligence,簡稱ASI)則擁有自我意識和情感等,被認(rèn)為具有超越人類的能力,即在所有領(lǐng)域及所有認(rèn)知功能都比最強(qiáng)的人類大腦聰明很多的人工智能。迄今,這種超人工智能尚未出現(xiàn)。目前,人工智能技術(shù)在我國司法實踐中的應(yīng)用處于弱人工智能與強(qiáng)人工智能并用的階段,且仍然在不斷深化。學(xué)界對此持積極態(tài)度,主要有以下三種理由。
德國的馬克斯·韋伯有這樣一句經(jīng)典名言:“現(xiàn)代法官是自動售賣機(jī),民眾投進(jìn)去的是訴狀和訴訟費(fèi),吐出來的是判決和從法典上抄下來的理由。”②參見馬克思·韋伯.論經(jīng)濟(jì)與社會中的法律[M].張乃根,譯.北京:中國大百科全書出版社,1998:62.這種“自動售賣機(jī)理論”,就成為“人工智能替代論”的前身。與韋伯的形式理性思想構(gòu)圖的發(fā)展相伴隨的是19世紀(jì)概念法學(xué)的興盛。在概念法學(xué)的視域中,法官只需從法律體系中發(fā)現(xiàn)法律即可完成對案件的判斷,在司法裁判中具體體現(xiàn)為“三段論”的要求:以法律規(guī)范為大前提,以從生活事實中分離出的法律事實作為小前提,針對法律事實,法官尋找法律根據(jù),繼而作出法律決定。
人工智能裁判系統(tǒng)的構(gòu)建是通過將自然語言轉(zhuǎn)化為法律語言,再將法律語言進(jìn)一步轉(zhuǎn)化為計算機(jī)語言,在模擬“三段論”的剛性邏輯路徑的基礎(chǔ)上編制算法和程序,形成一種計算機(jī)的自動推理模型。人工智能與法律領(lǐng)域的學(xué)者試圖以這樣的一種方式描述法律和法律推理,即生成能夠在一個計算機(jī)程序中實現(xiàn)的模型[1]。由此可知,司法裁判中的人工智能系統(tǒng)建立的算法邏輯嚴(yán)格依照法律形式主義的要求,將法官的裁判邏輯固定化下來,用一種“算法邏輯”取代了人腦中的主觀決策,形成一種數(shù)據(jù)驅(qū)動型的正義。其實,一直以來法官判案何嘗不是在以一種粗淺的方式計算著正義,試圖建立可以解釋正義的標(biāo)準(zhǔn)化衡量尺度,就法官裁判和算法裁判的本質(zhì)而言,都是在為各種爭議和糾紛提供一種可操作性的衡量標(biāo)準(zhǔn)。從這個意義上來講,人工智能裁判已經(jīng)具備了裁量正義的雛形,并且人工智能通過算法構(gòu)建正義具有天然的優(yōu)勢:可以將法官裁判帶來的主觀性風(fēng)險降到最低,最大限度的實現(xiàn)同案同判等。③參見蔡星月.算法正義:一種經(jīng)由算法的法治[J].北方法學(xué),2021(2):140.
在實踐中,司法資源的緊缺也是司法部門積極采用互聯(lián)網(wǎng)、大數(shù)據(jù)、云計算、人工智能等新型信息技術(shù)以提高司法效率的重要原因。近些年來,隨著社會經(jīng)濟(jì)結(jié)構(gòu)轉(zhuǎn)型和公民權(quán)利意識的增強(qiáng),一些法院受理的案件數(shù)量增長較快,法官人均辦案件數(shù)也相應(yīng)地增長較快,這就成為司法領(lǐng)域大數(shù)據(jù)和人工智能應(yīng)用越來越廣泛的原因之一。
在一定條件下,人工智能基于大量的數(shù)據(jù)基礎(chǔ)和強(qiáng)大的計算能力,可以快速分析案情,準(zhǔn)確地做出決斷,比如可以迅速計算損害賠償、預(yù)估刑期等。尤其是在審理復(fù)雜疑難案件時,因為人工智能裁判系統(tǒng)是封閉式裁判和歸納式裁判,所以它可以快速提取關(guān)鍵信息并與同類案件進(jìn)行比對,從而得出較為科學(xué)的結(jié)論。在技術(shù)情況允許的條件下,上述過程可能在很短時間內(nèi)完成,人工智能審判將大大地節(jié)省司法資源,提高司法效率,盡可能地滿足社會成員的司法需求。①參見羅維鵬.人工智能裁判的問題歸納與前瞻[J].國家檢察官學(xué)院學(xué)報,2018(5):24.
從另一方面看,人工智能裁判可以摒棄法官在司法裁判中可能出現(xiàn)的價值偏差,杜絕因法官個人的司法腐敗行為而污染了整個司法公正的泉源,導(dǎo)致司法公信力的下降。②英國哲學(xué)家培根在《司法論》里提出了著名理論:“一次不公正的審判,比十次犯罪所造成的危害還要尤烈,因為犯罪不過弄臟了水流,而不公正的審判則敗壞了水的源頭?!痹僬?,人工智能在法律領(lǐng)域的適用已經(jīng)取得了相當(dāng)?shù)某晒?,建立了法律知識庫、法律信息檢索系統(tǒng)和法律專家系統(tǒng)等輔助型法律智能系統(tǒng),為決策型司法智能系統(tǒng)奠定了技術(shù)和經(jīng)驗基礎(chǔ)??梢哉f,司法裁判人工智能化是人工智能時代司法工作的重要發(fā)展趨勢之一。
人工智能技術(shù)在司法領(lǐng)域的廣泛應(yīng)用推動了法學(xué)學(xué)科的思維創(chuàng)新,隨著人工智能技術(shù)日新月異的發(fā)展,法律研究呈現(xiàn)出智能化、自動化的趨勢。在案件預(yù)測技術(shù)上,人工智能系統(tǒng)裁決的算法是剛性的,因此通過對成千上萬份判決書進(jìn)行自然語言的處理,可以構(gòu)建模型來預(yù)測案件判決結(jié)果。人們不再像卡夫卡的小說《法律之門》中所描述的那樣,可以走近“法律之門”,但難以邁入門內(nèi),更難觀測“門”內(nèi)的設(shè)置、工序流程和決策機(jī)制,而通過人工智能技術(shù),可以消解因物理時空條件局限而導(dǎo)致的正義實現(xiàn)難題,使物理上的“接近正義”邁向數(shù)字意義上的“可視爭議”。③參見馬長山.司法人工智能的重塑效應(yīng)及其限度[J].法學(xué)研究,2020(4):24.人工智能裁判的實現(xiàn)也對法學(xué)教育提出了挑戰(zhàn),要求技術(shù)人員和法律專家之間必須通力合作。國務(wù)院在2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》就提出,要培養(yǎng)掌握“人工智能+法律”的復(fù)合型人才。由此可見,法律與人工智能的結(jié)合是時代發(fā)展大趨勢,這也在一定程度上推動了法學(xué)教育的探索革新,開始更加注重對法學(xué)專業(yè)學(xué)生跨學(xué)科融合的教育培養(yǎng)。
同時,借助大數(shù)據(jù)技術(shù),可以準(zhǔn)確評估和統(tǒng)計在社會治理中存在的問題,對司法系統(tǒng)自身的改革提供支持。建立在客觀數(shù)據(jù)和真實信息基礎(chǔ)上的智慧司法直觀展示了公正的意涵,通過“看得見”和“說得出”的體制嚴(yán)格限制司法內(nèi)部系統(tǒng)的不公正因素,推動構(gòu)建以網(wǎng)絡(luò)化、陽光化、智能化為主要特征的現(xiàn)代司法。人工智能技術(shù)帶來的客觀性、科學(xué)性和合理性有效改進(jìn)了司法和社會之間的良好關(guān)系,引導(dǎo)建設(shè)新型的訴訟社會關(guān)系,有力促成了審判體系和審判能力的現(xiàn)代化[2]。
盡管計算機(jī)代碼運(yùn)算可以比人類更有效地進(jìn)行法律邏輯的推理和演算,進(jìn)而提高司法裁判的效率。但是,從司法領(lǐng)域人工智能助力的實現(xiàn)路徑和司法裁判的法理上來看,人工智能不能也不應(yīng)取代法官成為司法裁判主體。
法律人工智能決策是效仿法官裁判的過程。因此有必要對法官的裁判活動進(jìn)行細(xì)致觀察和整體描述?!叭握摗敝鲝垼ü俦仨毷芊梢?guī)范的拘束,嚴(yán)格限制法官審判權(quán)中的自由裁量部分。正如拉爾夫·克里斯滕森將規(guī)范適用想象為,將個案歸屬到一般性規(guī)范之下的過程(涵攝),而不是對規(guī)范做進(jìn)一步填充或具體化的程序[3]14。因此,法官作為裁判者的權(quán)力僅限于在現(xiàn)有的法律規(guī)范下作出邏輯推論,進(jìn)行涵攝。在這種機(jī)械的法律推理觀的場景下,司法裁判者只是法律的搬運(yùn)工,司法裁判的含義僅限于機(jī)械判斷層面。如果裁判過程真如數(shù)學(xué)問題一樣可以通過推演和計算得出正確結(jié)論,那么機(jī)器的運(yùn)作效率與正確率是遠(yuǎn)高于人類的。然而,在實踐中法官審理具體案件究竟是如何得出判決的呢?審判過程是否真的如同韋伯描述的機(jī)械涵攝的程序呢?
法官裁判是一個復(fù)雜的判斷和決策過程。德國法學(xué)家約瑟夫·埃塞爾指出,司法判決是有創(chuàng)意的活動,其亦參與逐步自我實現(xiàn)的法秩序(相當(dāng)于在作用中的法)之發(fā)展及續(xù)造。當(dāng)司法判決逾越法律文本劃定的界限時,它經(jīng)常求助于法律推得(或據(jù)稱可由法律推得)的“一般法律思想”或“原則”[3]18。法律體系的普遍實用性要求在制定法律時高度凝練要件,使得要件抽象化。因此,就使得法官在適用法律規(guī)范裁判案件時,需要發(fā)揮嚴(yán)格的邏輯推理以及主觀能動性在法律規(guī)范和案件事實之間來回穿梭。事實上,在司法實踐中,每個個案都或多或少有異于以往其他案件之處,一些案件的個體化和地域化色彩還十分鮮明。
法律形式主義理論將裁判過程歸納為一種機(jī)械式的法律推理觀,忽視了法官作為推理主體的社會性,即法官具有的主觀能動性和法律推理靈活性,更進(jìn)一步講,法律形式主義發(fā)展到極端會成為“本本中的法律”。美國現(xiàn)實主義法學(xué)派對其僵化性進(jìn)行了深刻的批判?;裟匪狗ü倬兔鞔_提出,“法律的生命并不在于邏輯而在于經(jīng)驗”[4],這種價值觀念在英美法系國家表現(xiàn)得尤為突出。英美法系國家的法官經(jīng)常頭戴白色假發(fā)的一個原因是為了表明自己的專業(yè)、權(quán)威和德高望重,以長者的姿態(tài)作出判決。邏輯推理自然可以幫助法官審判案件,但是根據(jù)社會政策和邏輯等連接法律規(guī)范和案件事實并進(jìn)行價值判斷,有助于法官從多個角度看待案件,這就要求法官有一定程度的自由裁量權(quán)。①參見張保生.人工智能法律系統(tǒng)的法理學(xué)思考[J].法學(xué)評論,2001(5):17.自由裁量權(quán)的授予也對法官的職業(yè)素養(yǎng)提出了更高的要求。在美國,大多數(shù)法官曾做過律師,具有法學(xué)學(xué)位和職業(yè)律師的經(jīng)驗是成為一名法官最基本的資格要求。
由此可以看出,法官在司法實踐中要尋求個案的正當(dāng)裁判,不僅需要邏輯上嚴(yán)謹(jǐn)?shù)耐评?,也需要有豐富的實踐經(jīng)驗作為積淀,從而在法律規(guī)范無法滿足事實案件的需求時根據(jù)高度抽象的法律原則和倫理道德作出裁判。而人工智能裁判的基礎(chǔ)是算法,它是基于研發(fā)人員輸入的計算機(jī)語言作為數(shù)據(jù)庫,在導(dǎo)入案件事實后,對已有的數(shù)據(jù)進(jìn)行篩選從而得到最匹配的法律規(guī)范,在此基礎(chǔ)上作出嚴(yán)密的邏輯推理得到裁判結(jié)果。但是,人工智能的法律裁判并未考量非規(guī)范性要素,無法在高度抽象化的法律規(guī)范和具體案件事實之間搭建起說理的堅實橋梁。
人工智能發(fā)揮司法裁判以研發(fā)人員輸入的數(shù)據(jù)庫為基礎(chǔ),以算法邏輯為路徑,受到嚴(yán)密的限制。人工智能具有處理和操作算法符號的功能,但是可能并不理解這些符號背后的含義。相較于人工智能,法官作為主體具有感性認(rèn)識,其依據(jù)經(jīng)驗、認(rèn)知和信仰作出裁判的路徑是人工智能目前無法企及的。
1.產(chǎn)生的非客觀性
就人工智能的產(chǎn)生而言,其算法的科學(xué)性也是存疑的。人工智能的算法和代碼的設(shè)計都要依靠編程人員的設(shè)計與選擇,因此受到研發(fā)人員或研發(fā)公司的限制?,F(xiàn)在市面上大部分人工智能產(chǎn)品是由商業(yè)群體帶著很強(qiáng)的目的性研發(fā)出來的,因而導(dǎo)致人工智能產(chǎn)品本身在誕生時就帶有特殊的價值觀,這就有悖于司法的中立性。當(dāng)下我們也無法保障設(shè)置人工智能產(chǎn)品算法的編程人員全都具備法律知識背景,他們往往缺乏對社會科學(xué)的深刻認(rèn)識。因此,依賴編程人員將已有的法律規(guī)制準(zhǔn)確寫入程序是不現(xiàn)實的。同時,還要考慮到,人工智能的數(shù)據(jù)庫是基于已有的法律規(guī)范和案件,不可能超前于現(xiàn)有的法律,而法律本身相較于現(xiàn)實又有一定的滯后性。在一些疑難案件中,人工智能審判無法作出富有創(chuàng)新性的判決,在這種情況下,法官可以結(jié)合具體要件和案件的特殊性作出裁決,這種優(yōu)越性是人工智能裁判無法比擬的。
2.算法應(yīng)用的非透明化與偏見
人工智能的算法系統(tǒng)以大數(shù)據(jù)為基礎(chǔ),其作出的審判決策本質(zhì)上是一個運(yùn)算結(jié)果,但我們只能看到輸入的數(shù)據(jù)以及得出的結(jié)果,對中間的運(yùn)算過程一概不知,由此可能會導(dǎo)致出現(xiàn)“算法黑箱”或“算法獨裁”。①參見高奇琦、張鵬.論人工智能對未來法律的多方位挑戰(zhàn)[J].華中科技大學(xué)學(xué)報(社會科學(xué)版),2018(1):94.英國《衛(wèi)報》就曾發(fā)表評論指出,人工智能可能已經(jīng)出現(xiàn)種族和性別等偏見,這種偏見并非來自于機(jī)器本身,而是機(jī)器在學(xué)習(xí)人類語言時吸收消化了人類語言中約定俗成的理念,從而導(dǎo)致算法歧視。②參見蘇令銀.透視人工智能背后的“算法歧視”[N].中國社會科學(xué)報,2017-10-10(5).2018年,在我國引發(fā)輿論熱議的“大數(shù)據(jù)殺熟”事件就引發(fā)了大眾對商家濫用大數(shù)據(jù)技術(shù)和算法歧視的擔(dān)憂,有媒體通過對2008名受訪者進(jìn)行的一項調(diào)查,顯示51.3%的受訪者遇到過互聯(lián)網(wǎng)企業(yè)利用大數(shù)據(jù)“殺熟”的情況,59.2%的受訪者指出在大數(shù)據(jù)面前信息嚴(yán)重不對稱,消費(fèi)者處于弱勢地位。③參見杜園春,等.51.3%受訪者遭遇過大數(shù)據(jù)“殺熟”[N].中國青年報,2018-03-15(7).
隨著人工智能的發(fā)展與應(yīng)用,算法歧視帶來的問題已經(jīng)擴(kuò)大到人類日常生活和社會事物中,逐步影響人類社會經(jīng)濟(jì)發(fā)展的方方面面。更為嚴(yán)峻的問題是,算法歧視在形式上更具開放性和隱蔽性,帶來的風(fēng)險具有不可預(yù)知性和不確定性[5]。
在通常情況下,“自動售賣機(jī)”的運(yùn)行原理是建立在“法律的公理體系”之上的。如果法律體系可以被建構(gòu)得像公理體系那樣,法學(xué)家便可以像數(shù)學(xué)家那樣工作,法學(xué)問題也可以像數(shù)學(xué)問題一樣通過“計算”予以解決。④參見宋旭光.論司法裁判的人工智能化及其限度[J].比較法研究,2020(5):82-83.這種理論構(gòu)建的必要前提是法律本身可以做到完美無缺、邏輯自足,可以與具體的個案事實形成恰當(dāng)?shù)膶?yīng)關(guān)系,法律適用者如法官的角色就只能像是一臺“自動售貨機(jī)”:投入法條和事實,輸出法律判決。但是,考慮到法律的抽象性、語言的開放性和社會生活的變化性等特征,這種關(guān)于法治的理想構(gòu)圖在理論和實踐上是根本不存在的。
1.法律的抽象性
法律并非是完美無缺的,法律是人為制定的,是從現(xiàn)實生活中抽象而來的,不可能超越現(xiàn)實生活。相反,生活是復(fù)雜多樣的,立法者永遠(yuǎn)也無法窮盡,更無法模擬將來會出現(xiàn)的案件。法官在裁判具體案件過程中發(fā)現(xiàn)現(xiàn)存的法律制度無法解決面前的爭議,一般會層層上報給上一級人民法院或是等待有關(guān)部門對法律規(guī)范重新作出解釋。回望法律信息的發(fā)展史,我們不難發(fā)現(xiàn),司法審判實際上是科技進(jìn)步推動司法大數(shù)據(jù)顛覆司法小數(shù)據(jù),或者說,從小數(shù)據(jù)向大數(shù)據(jù)司法的演進(jìn),并帶動司法理念改革的過程。⑤參見李飛.人工智能與司法的裁判及解釋[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2018(5):33.這也是在實踐中不斷出臺法律修正案和司法解釋的原因之一:法律自其產(chǎn)生之日起與實踐之間就有一道無法逾越的鴻溝。
2.語言的開放性
法律解釋是法律推理的必要前提。但是,法律不可能通過強(qiáng)調(diào)用語的規(guī)范嚴(yán)格達(dá)到準(zhǔn)確的表達(dá),因為語言本身具有“開放”的特性,它會因語境的不同而出現(xiàn)歧義和模糊。法律用語又不同于數(shù)理邏輯及科學(xué)性語言,它并不是外延性明確的概念,即使是較為明確的概念,仍然經(jīng)常包含一些本身欠缺明確界限的要素。法律的適用是一種對向交流的過程,法官在考慮可能適用的法條時,就可能會對規(guī)范文字的精確意義產(chǎn)生懷疑。⑥參見楊春福.顯現(xiàn)的法律與隱在的法律——從語言學(xué)的角度分析[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2009(2):5.法官在每一個案件中引用法律規(guī)范進(jìn)行裁判都是法律解釋的過程,而法律解釋的辯證性對人工智能自然語言理解提出了嚴(yán)峻的挑戰(zhàn)。人工智能法律系統(tǒng)對法律知識庫中的規(guī)則進(jìn)行簡單機(jī)械檢索是不夠的,需要跨越到社會知識庫進(jìn)行“跨庫檢索”。如同法官那樣,綜合諸如政策、道德、原則之類的價值考慮和對白紙黑字規(guī)則的具體解釋對案件作出判決,這就要求人工智能具有更高的主觀意識和靈活性。①參見張保生.人工智能法律系統(tǒng):兩個難題和一個悖論[J].上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2018(6):34-35.
3.社會的變化性
瞬息萬變的現(xiàn)代生活與人工智能所要求的法律的穩(wěn)定性是相悖的。只有在法律規(guī)則具有一定的確定性和穩(wěn)定性的前提下,人工智能所依靠的龐大數(shù)據(jù)庫才能作為裁判的有效邏輯前提和基礎(chǔ)。但是,人類所面對的客觀世界的不確定性決定了法律規(guī)則的確定性是相對的。哲學(xué)家休謨就曾指出,“確定普遍的政治準(zhǔn)則,應(yīng)當(dāng)慎之又慎;在精神領(lǐng)域和物質(zhì)世界中經(jīng)??梢园l(fā)現(xiàn)無規(guī)律的和異常的現(xiàn)象”[6]。正因為客觀世界的確定性與不確定性并存,確定性的法律規(guī)則的描述是片面的,這決定了法律必須具有開放性,亟需在司法裁判中識別是否需要采取各種人為干預(yù)進(jìn)而彌補(bǔ)這一缺陷,以實現(xiàn)具體的司法公正。②參見李琦.法的確定性及其相對性——從人類生活的基本事實出發(fā)[J].法學(xué)研究,2002(5):35-36.
機(jī)器或程序能否成為裁判主體也是存疑的。學(xué)術(shù)界曾對人工智能究竟能否在刑事和民事范疇領(lǐng)域內(nèi)作為法律主體展開了激烈的探討。目前,學(xué)術(shù)界的主流觀點還是不承認(rèn)人工智能的法律主體地位,認(rèn)為在法律層面上將其定位為法律客體是較為妥當(dāng)?shù)?,主要理由是人工智能不具備獨立性和自主性,無法解決人工智能創(chuàng)造出來的物的歸屬問題,也沒有能力承擔(dān)法律責(zé)任。③參見崔文成.淺談人工智能的法律地位[J].上海法學(xué)研究集刊,2020(7):13-14.
理性是人類區(qū)別于其他生物的一個重要特征。運(yùn)用理性對少量信息和規(guī)則進(jìn)行推理和演繹是人類獨有的能力。哲學(xué)家康德指出,“那些其實存在不以我們的意志為依據(jù),而以自然的意志為依據(jù)的東西,如果它們是無理性的東西,就叫做物件。與此相反,有理性的東西叫做人身,因為它們的本性表明自身自在地就是目的,是種不可被當(dāng)作手段使用的東西,從而限制了一切人性,并且是一個受尊重的對象”。④參見康德.道德形而上學(xué)原理[M].苗力田,譯.上海:上海人民出版社,2002:46.此外,康德提出的“人為自然立法”命題,充分肯定了人的主體性的能動作用。由此,康德將理性與倫理價值標(biāo)識為主體的重要構(gòu)成要件。同樣的,自然人在司法裁判領(lǐng)域的理性和倫理價值判斷能力也是目前人工智能不具備的。⑤參見鄧經(jīng)超.人工智能對法教義學(xué)構(gòu)成挑戰(zhàn)嗎?[J].法律與倫理,2020(1):124-125.
從人工智能的產(chǎn)生原理來說,人工智能既是一項試圖理解人類認(rèn)知的科學(xué),也是一門試圖構(gòu)建具有類似人類能力機(jī)器的工程學(xué)科。我們肯定人工智能邏輯推理的智能度,但實際司法裁判的過程并非純粹的邏輯推理,即并非簡單的事實推理與匹配工作。邏輯經(jīng)驗主義者想要構(gòu)造的科學(xué)語言是不存在的,其堅持的事實與價值并不是絕對二分的。司法意義上的審判活動是具有判斷性質(zhì)的,而且判斷的范圍不僅僅限于對象的自然屬性,還需要事物的價值屬性作為補(bǔ)充。司法裁判追求的公平正義是各方博弈的結(jié)果,是各方利益的平衡,這是個靈動的過程,必須由道德、倫理等加以保障?,F(xiàn)實生活中的大部分疑難案件或有爭議的案件難點不在于尋找適當(dāng)?shù)姆梢?guī)范進(jìn)行涵攝,而在于價值認(rèn)知層面。法官在一些具有爭議性案件中的裁決任務(wù)其實本質(zhì)上是價值的衡量與抉擇,需要在案件中傳遞出特定的價值觀,對社會公眾的行為起引導(dǎo)作用。只有在與時俱進(jìn)的價值判斷中才能實現(xiàn)司法裁判追求的核心價值,這不是人工智能機(jī)械剛性的算法路徑可以完成的。
當(dāng)下人工智能不斷改革創(chuàng)新,其應(yīng)用貫徹到人們生產(chǎn)生活的方方面面,一些人已經(jīng)完全適應(yīng)、習(xí)慣甚至依賴人工智能。從人工智能的發(fā)展速度來看,新一代人工智能正在全球范圍內(nèi)蓬勃興起。從供給的角度來看,司法科技應(yīng)用是符合技術(shù)發(fā)展潮流的,但是,不能因此對其持過分樂觀和寬容的態(tài)度。當(dāng)前,社會和法學(xué)界中大部分人對人工智能的態(tài)度是較為寬容的,對其背后隱含的風(fēng)險過于樂觀。①參見季衛(wèi)東.人工智能時代東司法權(quán)之變[J].東方法學(xué),2018(1):126-127.
從弱人工智能到強(qiáng)人工智能,再到超人工智能的發(fā)展過程是人類逐漸依賴人工智能的過程,人工智能在司法裁判中的應(yīng)用發(fā)展過程是人工智能裁判與司法正義不斷匹配的過程。但是,也要防止另外一種極端的情況發(fā)生,那就是算法有可能會成為司法權(quán)的代名詞,人類的權(quán)利義務(wù)的判定權(quán)有可能不再掌握于人類自己的手中。到那時,司法公信力完全取決于人工智能的發(fā)展水平,那將有陷入過度依賴人工智能困境的危險。如果人類任由人工智能肆意發(fā)展而不加以規(guī)范與約束,那這在本質(zhì)上反而不利于司法的進(jìn)步。人工智能算法絕不僅僅是一項單純的技術(shù)性問題,其蘊(yùn)含的政治風(fēng)險、安全風(fēng)險與倫理道德風(fēng)險同樣不容忽視。②參見汪懷君,汝緒華.人工智能算法歧視及其治理[J].科學(xué)技術(shù)哲學(xué)研究,2020(2):101.近些年,眾多科技公司的算法都被檢測出存在風(fēng)險、倫理或道德方面的問題。例如,谷歌公司的搜索算法將黑人標(biāo)記為“大猩猩”;微軟公司的人工智能聊天機(jī)器Tay出乎意料的被“教”成了一個集反猶太人、性別歧視、種族歧視等于一身的“不良少女”;2018年國內(nèi)出現(xiàn)的飛豬大數(shù)據(jù)“殺熟”現(xiàn)象,引起眾多消費(fèi)者的不滿。在司法領(lǐng)域出現(xiàn)算法歧視,很可能會侵害公民權(quán)利甚至危害其生命安全。并且,如果司法領(lǐng)域的算法歧視在被冠以法院名義后更不易被發(fā)現(xiàn),其輸出的錯誤價值觀在司法的引導(dǎo)功能下呈放大效果,會極大沖擊社會的倫理價值,由此引發(fā)的社會后果不堪設(shè)想。
有的學(xué)者認(rèn)為,編程可以被執(zhí)行的重要條件或者說重要限制在于程序必須足夠簡單,并能在許多案件中被不斷重復(fù)而沒有顯著的變化。但是,即使是簡單案件通常并不足以簡單到可以用計算機(jī)模型來標(biāo)準(zhǔn)化的地步。大多數(shù)的案件在外來因素的沖擊之下是很難標(biāo)準(zhǔn)化的,更別提是疑難案件了。③參見馮潔.人工智能對司法裁判理論的挑戰(zhàn):回應(yīng)及其限度[J].華東政法大學(xué)學(xué)報,2018(2):25.假如司法程序完全像人工智能程序那樣簡單地標(biāo)準(zhǔn)化,這無異于是在挑戰(zhàn)社會因素和自然因素的多樣性,另一方面,將所有的可能性歸納在簡單的算法程序中是不現(xiàn)實的,也切斷了當(dāng)事人可以從程序事項上獲得的救濟(jì)。人工智能介入司法領(lǐng)域使得傳統(tǒng)法律構(gòu)建的“權(quán)力—權(quán)利”制衡關(guān)系面臨新的挑戰(zhàn),信息化和數(shù)字化使得包括網(wǎng)絡(luò)主體在內(nèi)的第三方主體強(qiáng)制介入原本的二元格局。④參見裴煒.個人信息大數(shù)據(jù)與刑事正當(dāng)程序的沖突及其調(diào)和[J].法學(xué)研究,2018(2):43.在社會發(fā)展網(wǎng)絡(luò)化和數(shù)字化的背景下,人工智能可能會對訴訟各方關(guān)系的互動模式產(chǎn)生較大影響。相比之下,國家權(quán)力具有天然的優(yōu)越性,其在信息的獲取上會有壓倒性的優(yōu)勢,此時,就要防止出現(xiàn)利用這種天然的優(yōu)越性侵害公民司法權(quán)利的情況發(fā)生。
司法是維護(hù)社會公平正義的最后一道防線。可以預(yù)見的是,司法裁判人工智能化會對社會產(chǎn)生較大的影響,特別是當(dāng)機(jī)器參與或主導(dǎo)的司法裁判出現(xiàn)錯案時,如果審判責(zé)任的歸屬和劃分不清晰、不明確,就會極大地影響司法的公信力。例如,美國威斯康星州訴盧米斯一案中以COMPAS系統(tǒng)評估報告為依據(jù)指導(dǎo)定罪量刑的做法,就受到了公眾的廣泛質(zhì)疑。在我國現(xiàn)行的法律制度框架下,機(jī)器尚未取得法律主體資格,不能獨立承擔(dān)法律責(zé)任。在司法審判人工智能化的場景下,審判責(zé)任在法官、智能系統(tǒng)和研發(fā)人員之間的安排無論如何分配都會引發(fā)社會爭議,導(dǎo)致司法公信力的下降。⑤參見周尚君,伍茜.人工智能司法決策的可能與限度[J].華東政法大學(xué)學(xué)報,2019(1):62.
當(dāng)下不斷發(fā)展的人工智能技術(shù)已經(jīng)開始逐漸影響司法領(lǐng)域,這對司法裁判提出了挑戰(zhàn)。司法機(jī)構(gòu)必須適時調(diào)整法律解釋的方向和策略,以適應(yīng)司法裁判人工智能化的發(fā)展進(jìn)程。從社會發(fā)展情況看,嚴(yán)格規(guī)范人工智能的司法應(yīng)用已經(jīng)迫在眉睫。筆者認(rèn)為,遵循上述人工智能在司法領(lǐng)域適用的基本理念,可以在四個維度對其進(jìn)行規(guī)制,包括明確人工智能在司法應(yīng)用中的法律地位、各級法院區(qū)別適用、規(guī)制人工智能編譯者和確立明確的價值觀導(dǎo)向等,以實現(xiàn)其對法治的促進(jìn)作用。
對于人工智能的法律地位,筆者認(rèn)為,應(yīng)堅持客體說中的工具論,即人工智能只能作為法律權(quán)利和義務(wù)的客體,不能獲得法律主體地位。當(dāng)前,可以將人工智能技術(shù)作為幫助法官裁判的工具,將其定位為一種“決策輔助”或“參謀者”的角色。未來,在逐步完善人工智能算法及司法數(shù)據(jù)庫的同時,不斷探索人工智能在司法領(lǐng)域新的應(yīng)用。
隨著智慧法院建設(shè)工作的推進(jìn),我國各地法院已經(jīng)開始逐步建立相應(yīng)的人工智能輔助司法系統(tǒng),輔助司法人員處理在訴前、訴中和訴后程序中的機(jī)械性、重復(fù)性工作,這有利于司法人員抽出更多的時間處理人工智能無法處理的案件。例如,在訴前階段,建設(shè)完整的訴訟信息數(shù)據(jù)平臺,從源頭上暢通維權(quán)渠道、疏導(dǎo)社會糾紛,并從中得到來自現(xiàn)實生活的一手?jǐn)?shù)據(jù),為司法政策的出臺提供信息數(shù)據(jù)。在訴訟階段,加強(qiáng)程序正義,依靠智能筆錄系統(tǒng)和智能輔助證據(jù)分析系統(tǒng),結(jié)合智能量刑標(biāo)準(zhǔn)建議分析,為法官的裁判建構(gòu)基礎(chǔ)。在訴后階段,可借助便捷的信息傳播技術(shù)及時公開裁判信息,增強(qiáng)司法過程的透明度,加強(qiáng)司法公開。同時,做好基于大數(shù)據(jù)的風(fēng)險計算和風(fēng)險控制,完善輿情管理機(jī)制等。①參見宋保振.智慧社會背景下司法治理的理念轉(zhuǎn)變與實踐創(chuàng)新[J].山東大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2020(4):98.
考慮到各級人民法院管轄案件的范圍以及其裁判結(jié)果帶來的社會影響的不同,不同級別的法院的人工智能在適用上應(yīng)當(dāng)有所區(qū)分,并作出相應(yīng)的限制。
最高人民法院、高級人民法院、中級人民法院、基層人民法院的案件管轄范圍呈階梯式遞減狀態(tài)。由于大多數(shù)較為簡單的案件分流至基層人民法院,近年來,“案多人少”的狀況已經(jīng)成為基層法院工作的常態(tài),所以其對人工智能輔助系統(tǒng)的需求是最為迫切的。為緩解司法資源緊張的狀態(tài),應(yīng)當(dāng)有序推進(jìn)智慧法院的建設(shè)工作,重點在司法資源緊缺和人工智能發(fā)展水平較高的地方先行試點人工智能輔助系統(tǒng),如果能取得較好的成效,再逐步面向全國的基層法院推廣。最高人民法院和高級人民法院受理的案件或是性質(zhì)較為嚴(yán)重,或是當(dāng)事人對基層法院的判決存在爭議,或是案件的影響范圍較廣,這幾類案件在司法裁判的各個環(huán)節(jié)都需要有資歷的法官結(jié)合法律經(jīng)驗、社會背景等諸多要素作出最為合理的判決,對人工智能的使用需要持謹(jǐn)慎態(tài)度。
人工智能在司法領(lǐng)域的應(yīng)用需要跨越法律與計算機(jī)編程這兩個專業(yè)領(lǐng)域,這就要求,負(fù)責(zé)司法審判人工智能應(yīng)用程序的編譯者既要精通編程專業(yè),還要有良好的法學(xué)、哲學(xué)、社會學(xué)、經(jīng)濟(jì)學(xué)等社會科學(xué)和人文學(xué)科的知識儲備。人工智能代碼和算法是剛性的,但是,如果編程人員只懂編程,缺乏應(yīng)有的其他素養(yǎng),那么編制出來的代碼是無法應(yīng)用到司法實踐中的。因此,為了更好地應(yīng)對人工智能時代的到來,要從源頭上抓起,培養(yǎng)出順應(yīng)時代潮流的綜合型人才。
具體來說,在培養(yǎng)司法領(lǐng)域人工智能產(chǎn)品的編譯者時,應(yīng)在法學(xué)教育體系中融入程序編譯的相關(guān)課程,積極推進(jìn)學(xué)科交叉融合,努力培養(yǎng)復(fù)合性專業(yè)人才??紤]到該編程工作的人工智能產(chǎn)品是用于司法領(lǐng)域的工作崗位,且將來可能會輔助法官完成司法審判工作,對該編程人員的專業(yè)標(biāo)準(zhǔn)要求應(yīng)不低于當(dāng)前法官崗位的要求。
對司法領(lǐng)域的人工智能產(chǎn)品的制造生產(chǎn)鏈進(jìn)行事先審查也是很重要的環(huán)節(jié)。當(dāng)前,人工智能產(chǎn)品大多數(shù)是由商業(yè)公司創(chuàng)造出來的,受知識產(chǎn)權(quán)保護(hù),具有排他性。但是,多數(shù)商業(yè)公司都是以盈利為目的的,很難保證他們創(chuàng)造出來的人工智能產(chǎn)品完全符合司法部門的要求。因此,涉及司法領(lǐng)域的人工智能產(chǎn)業(yè)的發(fā)展是不能完全交由市場的,可能國家權(quán)力適當(dāng)介入會產(chǎn)生較好的結(jié)果。例如,可以嘗試由國有企業(yè)進(jìn)行研發(fā)、設(shè)計和生產(chǎn)制造,形成類似于鐵路、電力和通信行業(yè)的布局效果。
人工智能技術(shù)的迅猛發(fā)展以及司法領(lǐng)域人工智能技術(shù)的應(yīng)用,為法律規(guī)制提出了現(xiàn)實要求。目前,各個國家都開始從技術(shù)鼓勵、政策應(yīng)對逐步走向制度規(guī)制,如德國的《聯(lián)邦數(shù)據(jù)保護(hù)法》、加拿大的《個人信息保護(hù)法案》、法國的《數(shù)字共和國法》、英國的《2017年數(shù)據(jù)保護(hù)法案(草案)》、歐盟的《通用數(shù)據(jù)保護(hù)條例》(GDPR)等等。我國已頒布了一系列戰(zhàn)略規(guī)劃,相關(guān)的立法也勢在必行[7]。但是,目前對人工智能的規(guī)范尚處在一個大框架內(nèi),未對特定領(lǐng)域進(jìn)行單獨立法,這就需要對人工智能產(chǎn)業(yè)發(fā)展進(jìn)行原則性、方向性的指引,以便于調(diào)解和處理各種錯綜復(fù)雜的利益沖突。在人工智能立法領(lǐng)域,強(qiáng)調(diào)社會公共利益優(yōu)先理念,突出利益平衡要求具有重要意義,這是因為人工智能技術(shù)及其應(yīng)用不但是一個技術(shù)革新,而且也是一個對人類未來影響深遠(yuǎn)且關(guān)系每一個人切身利益的重大歷史事件。①參見趙萬一.機(jī)器人的法律主體地位辨析——兼談對機(jī)器人進(jìn)行法律規(guī)制的基本要求[J].貴州民族大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2018(3):159-162.在明確人工智能工具論的前提下,人工智能必須以人類優(yōu)先原則為限,人工智能法律規(guī)制應(yīng)以維護(hù)社會公眾利益為其優(yōu)先選項。當(dāng)然,國家的法律只能提供宏觀的原則性指導(dǎo),更精細(xì)、更靈活和更專業(yè)的規(guī)制需要通過行業(yè)規(guī)范來實現(xiàn)。隨著人工智能的進(jìn)一步發(fā)展,形成體系化的行業(yè)自律監(jiān)督規(guī)范也是指日可待的。
司法領(lǐng)域的人工智能化是歷史發(fā)展的大趨勢,但機(jī)遇與風(fēng)險往往是并存的。“人工智能取代論”過分夸大了算法在司法裁判中的作用,人工智能應(yīng)當(dāng)被限制在工具范疇內(nèi)以實現(xiàn)人類利益最大化。放眼未來,隨著人工智能的不斷發(fā)展,其在司法審判領(lǐng)域?qū)⒋笥锌蔀?。同時,當(dāng)人工智能被賦予人類的某些特質(zhì)后,應(yīng)如何認(rèn)定、協(xié)調(diào)人工智能和法官在司法審判中的作用,以及防范其背后所蘊(yùn)含的風(fēng)險,或許是更為值得關(guān)注的問題。