文/陳霖煊
人工智能在警務(wù)領(lǐng)域的不斷深化應(yīng)用,使得執(zhí)法效率和執(zhí)法科技水平大大提升。人工智能要在執(zhí)法環(huán)境中獲得社會公眾的信任,不僅要遵守法律規(guī)定,還應(yīng)當(dāng)符合倫理原則。
因此,2018 年12 月,歐盟執(zhí)法效率委員會(CEPEJ)在現(xiàn)有監(jiān)管制度的基礎(chǔ)上,通過了第一個歐洲文書指引——《關(guān)于在法律系統(tǒng)及其執(zhí)法環(huán)境中使用人工智能的歐洲倫理憲章》(以下簡稱:歐洲倫理憲章),以確保人工智能不僅納入公共政策,而且也納入倫理道德框架。
歐洲倫理憲章不僅闡述了在執(zhí)法系統(tǒng)中使用人工智能(AI)的倫理原則,還為政策制定者、立法者和執(zhí)法專業(yè)人員如何應(yīng)對國家執(zhí)法程序中人工智能的快速發(fā)展提供了指導(dǎo)框架。
歐盟執(zhí)法效率委員會指出,在法律系統(tǒng)中使用人工智能工具和服務(wù),旨在提高司法的效率和質(zhì)量,值得鼓勵。然而,它必須以負責(zé)任的方式,尊重個人的基本權(quán)利,符合《歐洲人權(quán)公約》(ECHR)和歐洲委員會公約108 號保護個人數(shù)據(jù)條例,以及其他基本的原則。
歐洲倫理憲章指出,人工智能發(fā)展應(yīng)以增進人類共同福祉為目標,應(yīng)保障個人基本權(quán)利,促進人機和諧。執(zhí)法決策和數(shù)據(jù)的處理必須目標明確,且完全符合歐洲人權(quán)公約保障的基本權(quán)利和公約保護個人數(shù)據(jù)條例。當(dāng)人工智能作為工具用于解決法律爭端或作為工具來協(xié)助執(zhí)法決策或指導(dǎo)公民時,其核心宗旨是保障公民權(quán)利和獲得執(zhí)法公正、公平審判的權(quán)利。使用人工智能時還應(yīng)尊重法治原則,確保執(zhí)法機關(guān)在決策過程中的獨立性。因此,應(yīng)優(yōu)先按倫理和人權(quán)考慮設(shè)計人工智能法律工具,符合基本社會價值觀。
鑒于人工智能數(shù)據(jù)處理方法可能會通過分組或分類處理個人或群體數(shù)據(jù),從而揭示現(xiàn)有社會的歧視,公共政策執(zhí)行者必須確保人工智能處理法律數(shù)據(jù)不再產(chǎn)生或加劇現(xiàn)有社會歧視,保障人工智能法律數(shù)據(jù)不會被歧視性分析或使用。此外,在部署人工智能研發(fā)時需要特別注意社會敏感數(shù)據(jù),其中可能包括所謂的種族或族裔出身、社會經(jīng)濟背景、政治觀點、宗教或哲學(xué)信仰、遺傳數(shù)據(jù)、生物特征數(shù)據(jù)、與健康有關(guān)的數(shù)據(jù)或有關(guān)性取向的數(shù)據(jù)。如果權(quán)威部門和行政執(zhí)法部門發(fā)現(xiàn)這種歧視后,有必要采取措施糾正,以限制風(fēng)險,并考慮提高利益攸關(guān)方的認識。最重要的是,相關(guān)部門應(yīng)該鼓勵使用人工智能模型和多學(xué)科科學(xué)分析來打擊這種社會歧視。
歐盟執(zhí)法效率委員會指出,人工智能法律數(shù)據(jù)模型的設(shè)計應(yīng)該能夠廣泛地利用相關(guān)執(zhí)法專業(yè)人員的專業(yè)知識,并邀請法律和社會科學(xué)領(lǐng)域的研究人員、經(jīng)濟學(xué)家、社會學(xué)家和哲學(xué)家等,參與到人工智能執(zhí)法程序設(shè)計環(huán)節(jié)中,推動國際組織、政府部門、科研機構(gòu)、教育機構(gòu)、企業(yè)、社會組織、公眾在人工智能發(fā)展與治理中協(xié)調(diào)互動。在充分尊重人工智能道德倫理原則和實踐的前提下,由項目團隊共享共建共治,并通過實踐反饋不斷加強。
在安全性能方面,執(zhí)法決策的數(shù)據(jù)被輸入到人工智能算法的程序中時,應(yīng)確保法律數(shù)據(jù)認證來源,保證法律數(shù)據(jù)實際使用過程真實可靠;人工智能法律應(yīng)用過程必須可追溯,以確保法律實施的質(zhì)量和安全;所創(chuàng)建的數(shù)據(jù)模型和算法必須能夠在安全的環(huán)境中進行存儲和執(zhí)行,以確保系統(tǒng)的完整性和安全隱秘性。
人工智能要堅持普惠性和包容性,切實保護各相關(guān)主體合法權(quán)益,推動全社會公平共享人工智能帶來的益處,促進社會公平正義和機會均等。透明、公正、公平的原則要求:使用數(shù)據(jù)工具時必須平衡知識產(chǎn)權(quán)和信息透明度之間的關(guān)系,保證公正性和知識完整性,以免產(chǎn)生法律后果;必須符合法律程序,形成科學(xué)閉環(huán)設(shè)計,因為法律數(shù)據(jù)選擇過程和法律數(shù)據(jù)的質(zhì)量和準確性直接影響到法律執(zhí)行階段;必須保證數(shù)據(jù)處理方法公開透明,以便接受外部監(jiān)督審計。除此之外,人工智能系統(tǒng)還可以用清晰的專業(yè)語言來解釋所提供的服務(wù)、已開發(fā)的智能工具和可能潛在的法律風(fēng)險。國家法律部門或法律專家可以負責(zé)認證和監(jiān)督審計,并提供建議。行政司法部門可以頒發(fā)認證,并定期進行審查。
一是必須通過使用人工智能工具增加服務(wù)而不是限制服務(wù)。二是執(zhí)法系統(tǒng)的專業(yè)人員在任何時候都應(yīng)能夠?qū)彶閳?zhí)法決策和法律數(shù)據(jù),并根據(jù)特定案件的具體特點,不完全受到司法結(jié)果的約束。同時人工智能工具提供的解決方案必須具有法律約束力,且必須以清晰可理解的語言告知公民。公民有權(quán)獲得法律咨詢、有權(quán)進入法庭、有權(quán)在執(zhí)法過程實施前或期間獲得由人工智能告知的對案件事先處理方式,并有權(quán)提出異議。三是當(dāng)使用任何基于人工智能的信息系統(tǒng)時,都應(yīng)該為公民提供人機結(jié)合方案,并與來自執(zhí)法系統(tǒng)的執(zhí)法人員進行商議。
在這些原則中,尊重人權(quán)和不歧視是根本性原則。