2023年,ChatGPT掀起全球熱潮,重新定義人類知識,加速現(xiàn)實社會變革,而這僅是當前人工智能快速發(fā)展的一個縮影。隨著人工智能賦能警務,人的智能與人工智能之間的絕對界限正被打破。對美國刑事執(zhí)法人工智能的審視可沿以下兩條線索展開。
一是人工智能技術演變與應用脈絡。從弱人工智能應用到類ChatGPT大模型引入,美國刑事執(zhí)法人工智能融合應用歷經(jīng)三次技術浪潮,不僅將警務技術發(fā)展推向智能化邏輯演變方向,也掀起犯罪預防、打擊與治理的結構性變革。究其本質(zhì),人工智能作為一種技術賦能,在警務中體現(xiàn)的是以數(shù)據(jù)為應用基礎、以算法為應用驅(qū)動,實現(xiàn)以機器換人力、以智能增效能的邏輯,重塑傳統(tǒng)刑事執(zhí)法行為與模式——治理主體機器化、治理體系算法化、治理節(jié)點前置化,但本質(zhì)上只專注于特定任務表現(xiàn),缺乏人類判斷力、同理心與處理復雜社會互動的能力。
二是技術與社會環(huán)境間的相互形塑。當一項技術的影響不可分割地源于其設計和社會背景的結合,技術中立不再適用,必須考慮技術本身具有的倫理屬性。在新冠疫情沖擊下美國財政赤字、公共債務大幅上升,以“工作而非監(jiān)獄”“關心而非警察”為口號的“撤資警察”(Defund the Police)運動加劇警方面臨的負擔過重、資金不足與人員短缺困境,基于人工智能的“精準警務”興起,公私合作研發(fā)治理模式在提升整體安全治理能力的同時塑造市場力量,帶來大規(guī)模商業(yè)活動。而人工智能嵌入刑事執(zhí)法對既有警務倫理、正義理念帶來的挑戰(zhàn)和種族歧視、暴力執(zhí)法等根深蒂固的“美國病”交織,迫使美國警方反思其合法性基礎。在后弗洛伊德時代,美國警察何為?如何改進人工智能警務的監(jiān)管與問責,修補破碎社會中的裂痕?
一、人工智能在美國刑事執(zhí)法中的融合觀察
(一)第一次浪潮:專家系統(tǒng)在美國刑事執(zhí)法中的先行先試
人工智能常被誤解為一項單一的新興技術,但實際上,人工智能是一個涵蓋廣泛方法與技術的計算機科學領域。人工智能之父約翰·麥卡錫在1956年將其定義為“制造智能機器的科學與工程”。在概念層面,人工智能意味著機器能夠獨立感知、響應環(huán)境,在無人類直接干預下執(zhí)行通常需要人類智慧與決策的任務。
20世紀80年代,模仿人類專家邏輯規(guī)則和推理思維構建人工智能專家系統(tǒng)的技術浪潮興起,美國警界認為計算機程序可緩解因經(jīng)驗豐富的偵查人員退休而造成的人才流失,F(xiàn)BI(美國聯(lián)邦調(diào)查局)率先推動以專家系統(tǒng)形式將人工智能應用于犯罪偵查。FBI分析師大衛(wèi)·伊科夫指出,“犯罪人格分析專家利用人工智能技術捕捉連環(huán)暴力犯罪分子側寫相關難以捉摸的決策規(guī)則”——美國國家暴力犯罪分析中心開發(fā)“側寫者”系統(tǒng),基于犯罪側寫員經(jīng)驗和研究,匯聚來自犯罪現(xiàn)場處置、暴力犯罪逮捕計劃報告等FBI數(shù)據(jù)庫中的數(shù)據(jù),進行犯罪模式分析,尋找已知或未知犯罪人線索,并對犯罪預防策略進行有效性評估,為偵查人員提供咨詢建議。1989年,美國檢察官編寫《執(zhí)法中的人工智能和專家系統(tǒng)手冊》,介紹專家系統(tǒng)在計算機輔助調(diào)度、案件偵辦和警察培訓等方面的實際應用,對馬里蘭州巴爾的摩警察局在1988年至1990年間開展的入室盜竊專家系統(tǒng)試點進行案例分析。
專家系統(tǒng)在本質(zhì)上是“知識庫+推理機”的組合,從人類專家中采集知識,編寫大量指令,以“if-then”規(guī)則運算并在硬件中執(zhí)行,完成特定領域問題推理,但并沒有學習或處理不確定性問題的能力。然而,專家系統(tǒng)在復雜犯罪分析中展現(xiàn)出的潛力,為更廣泛的人工智能技術在美國刑事執(zhí)法中拓展應用奠定基礎。
(二)第二次浪潮:機器學習在美國刑事執(zhí)法中的應用普及
21世紀以來,人工智能技術和警務改革的雙重演進與融合推動美國以“數(shù)據(jù)+智能”為關鍵要素的現(xiàn)代化偵查治理模式不斷形成完善。
機器學習的崛起標志著人工智能發(fā)展迎來第二次浪潮,海量數(shù)據(jù)、低成本大規(guī)模并行計算以及持續(xù)優(yōu)化的學習技術,實現(xiàn)圖像和文本識別、自然語言處理等任務突破,為偵查破案賦能增效。在視頻偵查中,機器學習在特征提取、對象識別、行為分析、實時監(jiān)控等方面具備天然優(yōu)勢。在經(jīng)歷2001年“9·11”恐怖襲擊事件、2013年波士頓馬拉松爆炸案后,美國深刻意識到通過精準人臉識別和影像系統(tǒng)快速鎖定犯罪嫌疑人的重要性,F(xiàn)BI投資10億美元研發(fā)“下一代識別系統(tǒng)”(NGI),各州警方加大對人工智能驅(qū)動的智能視頻與圖像監(jiān)控、自動車牌讀取、無人機巡查等領域開發(fā)部署?!皥鼍袄斫狻笔敲绹鴩宜痉ㄑ芯克攸c資助的人工智能研發(fā)方向之一,旨在實現(xiàn)無人工干預下識別視頻中正在進行的犯罪活動,如“一個人拔出手槍向商店櫥窗開槍”。電子前沿基金會數(shù)據(jù)顯示,截至2023年7月,美國約849個警察局采用人臉識別,約35個警察局采用視頻分析。
機器學習重新定義美國刑事執(zhí)法中的“取證”,顯著提升偵查人員對物證的識別和解釋能力——深度學習模型經(jīng)過訓練可識別復雜數(shù)據(jù)集中的模式和異常,提升DNA、指紋、虹膜、語音分析等的靈敏度、準確性,美國警方將其應用于懸置多年的性侵、兇殺、失蹤等冷案分析,2018年成功查獲在1970至1980年代犯下數(shù)十宗性侵與殺人案的“金州殺手”。此外,基于神經(jīng)網(wǎng)絡的犯罪現(xiàn)場照片和視頻分析工具可突出顯示隱藏的武器、細微的斗爭跡象等可能被人眼忽略的細節(jié)。2012年至今,非營利公司索恩與美國警方合作,開發(fā)具備機器學習功能的聚光燈(Spotlight)軟件,掃描互聯(lián)網(wǎng)、暗網(wǎng)色情廣告,自動查找失蹤兒童并標記高風險廣告,據(jù)稱為警方減省60%人口販賣調(diào)查時間。索恩還發(fā)起阿耳特彌斯項目,掃描網(wǎng)上歷史聊天記錄發(fā)現(xiàn)潛在兒童性侵者。
與此同時,問題導向警務、情報主導警務、熱點警務、社區(qū)警務等思想與改革運動勃興,預測性分析等機器學習方法與美國警務改革發(fā)展潮流相契合,有助于發(fā)現(xiàn)隱藏的犯罪模式和趨勢,實現(xiàn)更積極主動的犯罪預防。2010年前后,洛杉磯警察局和紐約警察局率先開展犯罪時空預測實驗。在加州大學洛杉磯分校布蘭廷厄姆教授技術支持下,將過去10年內(nèi)刑事案件記錄匯總成為數(shù)據(jù)集用于訓練算法,以深具地域預測性特質(zhì)的財產(chǎn)犯罪(入室竊盜、汽車竊盜)進行試驗,基于犯罪類型、犯罪地點和犯罪時間進行預測,為警方重點巡邏犯罪熱點時空提供前瞻性建議、降低犯罪率和受害率,之后延伸至重大槍支兇殺案、幫派犯罪等不太受地域規(guī)律和熟悉特性限制的犯罪種類。值得關注的是,鑒于試驗成果相對成功,洛杉磯警局與布蘭廷厄姆教授共同開設創(chuàng)業(yè)公司PredPol,目前已成為市場龍頭,號稱“美國每33人中就有1人受到PredPol公司提供的安全保護”。萬國商業(yè)機器公司(IBM)與孟菲斯、紐約警察局合作,推出藍色鎮(zhèn)壓(Blue CRUSH)計劃,基于SPSS預測分析揭示毒品、武器、賣淫等潛在犯罪趨勢,標識廢棄住房等影響犯罪趨勢的長期因素,偵查人員不僅可以看到當前犯罪熱點的多層地圖,還可以看到警務部署和戰(zhàn)術變化帶來的犯罪情況變遷。大數(shù)據(jù)企業(yè)帕蘭提爾、律商聯(lián)訊等也紛紛加入賽道,當前基于地點的預測性警務已不再是純粹警察內(nèi)部輔助系統(tǒng),而是一項每年價值數(shù)百萬美元的業(yè)務、大規(guī)模商業(yè)活動。
不限于犯罪時空,美國預測性警務進一步拓展至對受害者、犯罪人的預測,“以人為本”的警務計劃在美國各地蔓延。芝加哥警察局將“利用人工智能算法、根據(jù)關聯(lián)和行為預測暴力犯罪受害者”納入減少暴力犯罪戰(zhàn)略。帕斯科縣警長辦公室發(fā)起“高發(fā)犯罪者”項目,涉嫌盜竊、毒品與暴力犯罪被捕的人將被算法系統(tǒng)分配分數(shù),若之后在警方報告中出現(xiàn)五次以上將被賦予“增強分”,分數(shù)與犯罪風險掛鉤,被認定為“高發(fā)犯罪者”意味著要接受警方更嚴格的盤查。2016年,美國首份《國家人工智能研發(fā)戰(zhàn)略計劃》將“安全和執(zhí)法”列為利用人工智能推進的國家優(yōu)先事項,提出執(zhí)法和安全官員可通過使用模式檢測來檢測個人行為者的異常行為或預測危險人群的行為,從而幫助建立一個更安全的社會。伊格納斯在《算法治理——后人類時代的政治與法律》中指出,我們正在見證“從人類執(zhí)法到數(shù)字系統(tǒng)執(zhí)法”的轉變。
然而,關于技術與警務的反思并不止步于此,以機器學習為代表的人工智能技術已深度嵌入美國警務與司法改革過程。2018年12月,時任美國總統(tǒng)特朗普簽署《第一步法》(First Step Act),規(guī)定建立聯(lián)邦罪犯風險和需求評估系統(tǒng)(PATTERN),精確測量罪犯在監(jiān)禁期間的再犯風險變化,以風險評分為基礎決定是否提前釋放或分配至生產(chǎn)性活動,推動罪犯走向無犯罪(crime-free)生活的第一步。這項舉措深刻反映了美國對20世紀80年代以來嚴打犯罪政策的反思,對大規(guī)模監(jiān)禁帶來的社會混亂的擔憂,也是美國利用人工智能技術優(yōu)化犯罪治理路徑的重要體現(xiàn)。
2020年以來,轟動全美的弗洛伊德案進一步暴露出美國執(zhí)法機構長期存在的暴力執(zhí)法和系統(tǒng)性種族歧視問題,民主黨人士發(fā)起“撤資警察”運動,認為“問題是制度性的,減少傷害的唯一方法是從警察手中奪走權力和資金”,主張大幅削減警方預算,用財政手段倒逼警察減少暴力執(zhí)法現(xiàn)象。基于新冠疫情和全國“撤資警察”運動帶來的雙重壓力,美國警方面臨十多年來未見的預算縮減,人員流失率達到歷史最高水平,新警招聘困難,暴力犯罪激增。基于人工智能的“精準警務”(Precision Policing)應運而生,提倡在充滿挑戰(zhàn)的環(huán)境中適當使用資源,加強基于證據(jù)的犯罪防控,提升透明度和問責制,針對性處置微型犯罪人群(Micro Criminal Populations),而非擴大警務范圍。聲思(SoundThinking)等行業(yè)企業(yè)推出槍擊檢測、犯罪追蹤、巡邏部署、社交媒體監(jiān)控等人工智能產(chǎn)品,承諾讓資源緊張的警察局更高效地利用警務與犯罪分析資源,在提高犯罪威懾的同時,不增加警察與公眾的不利接觸。2023年4月,紐約警察局宣布在時代廣場部署K5自主安全機器人,配備360度攝像頭和多個麥克風,用于監(jiān)控周圍環(huán)境是否存在可疑活動、人員并實時報告,在案發(fā)后也可提供關于暴力襲擊、武裝搶劫、盜竊車輛等最佳證據(jù)。
(三)第三次浪潮:類ChatGPT大模型在美國刑事執(zhí)法中應用前瞻
當前,人工智能技術迎來第三次浪潮的開端,強調(diào)提升人工智能模型的解釋性與通用性。這意味著工程師們致力于構建能夠模擬真實世界體驗、與人類進行自然互動交流以及在新任務、新情境下快速完成學習和思考的系統(tǒng)。ChatGPT是2022年由美國開放人工智能(OpenAI)公司發(fā)布的自然語言處理預訓練模型,GPT-4升級為多模態(tài)模型,代表第三次浪潮中具有一定解釋性和通用性特征的人工智能系統(tǒng)之一,但本質(zhì)上仍屬于特定領域的模型。
具備多模態(tài)的GPT-4能高效準確處理多源數(shù)據(jù),在發(fā)現(xiàn)犯罪活動熱點、監(jiān)控社交媒體平臺和在線論壇、分析海量數(shù)據(jù)識別線索關聯(lián)性、為面部識別軟件提供底層算法支撐等方面的潛力已獲得美國學界和警界關注。2023年6月,F(xiàn)BI局長克里斯托弗·雷就“人工智能以及FBI如何專注于快速變化的前沿”發(fā)表講話,表示FBI將向人工智能轉型,一方面,預測并防御使用人工智能和機器學習實施惡意網(wǎng)絡攻擊等犯罪活動的威脅;另一方面,利用人工智能對偵查活動中收集的海量數(shù)據(jù)進行分類、排序。有研究提出,GPT-4通過分析證據(jù)和案件檔案可生成有關案件歷史和背景的詳細報告,幫助偵查人員了解犯罪發(fā)生原因以及如何更好地進行偵查。馬爾辛·弗朗茨凱維奇稱,馬薩諸塞州警察局使用GPT-4分析過去二十年的冷案,F(xiàn)BI將GPT-4納入工具箱,用于線索分析與生成。
大型語言模型憑借規(guī)模龐大的語料體系、先進的預訓練算法以及優(yōu)異的微調(diào)算法,具備強大的語言理解和生成能力。2023年3月,奧斯汀警察局宣布與維賽特姆公共安全公司(Versaterm Public Safety)合作,推出對話式人工智能驅(qū)動的“非緊急在線報告系統(tǒng)”,適用于犯罪嫌疑人已不在現(xiàn)場、對個人沒有直接危險的情況。社區(qū)成員可通過語音、短信、網(wǎng)頁或APP與虛擬調(diào)查員聯(lián)系,在人工智能引導的調(diào)查訪談中提供斗毆、盜竊、詐騙、騷擾、非法侵入、兒童監(jiān)護等信息,虛擬調(diào)查員全程專心傾聽、耐心提問并無縫響應,按照國家犯罪數(shù)據(jù)申報系統(tǒng)(NIBRS)要求自動生成犯罪報告,在警方驗證后自動向個人提供案件編號和處置情況,支持英語、西班牙語、法語、中文等20多種語言。奧斯汀警察局表示,如今警方接到的求助電話比以往任何時候都多,公眾服務期望也達到歷史最高水平。這種針對非緊急情況的人工智能方案有助于簡化犯罪報告程序,為社區(qū)提供即時安全服務與個性化關注,提升處理其他優(yōu)先事項的能力。
二、人工智能在美國刑事執(zhí)法中存在的問題和挑戰(zhàn)
(一)發(fā)展的基礎問題
1.數(shù)據(jù)質(zhì)量:制約刑事執(zhí)法人工智能發(fā)展的基礎難題
無論是專家系統(tǒng)、機器學習,還是大型語言模型,本質(zhì)都是數(shù)據(jù)驅(qū)動的智能。數(shù)據(jù)用于訓練、測試和推理,塑造警用人工智能的預測、決策和生成能力。然而,美國國家司法研究所指出,“數(shù)據(jù)質(zhì)量差和數(shù)據(jù)不足”已構成主要發(fā)展障礙。犯罪黑數(shù)、刑事隱案存在,記錄、報告并分析犯罪活動的數(shù)據(jù)和統(tǒng)計信息可能只代表部分已發(fā)生的犯罪情況,家暴、性侵害、幫派暴力、毒品犯罪等領域數(shù)據(jù)收集與報告具有局限性,致使依賴于犯罪統(tǒng)計數(shù)據(jù)的人工智能系統(tǒng)產(chǎn)生扭曲結果;數(shù)據(jù)壁壘、融合壁壘凸顯,美國各州人工智能警務系統(tǒng)平臺建設多各自為政,數(shù)據(jù)難以流動共享;信息噪聲、數(shù)據(jù)中毒值得關注,尤其是對警用大型語言模型而言,不完整的訓練數(shù)據(jù)、虛假信息和未及時更新的數(shù)據(jù)集都可能導致推理偏差,模型被引導學習錯誤數(shù)據(jù)后可能造成數(shù)據(jù)中毒和模型反轉。
2.算法黑箱:困擾刑事執(zhí)法人工智能應用的核心難點
賓夕法尼亞大學教授理查德·伯克在《人工智能、預測性警務和執(zhí)法風險評估》中強調(diào),人們關于人工智能警務準確性、公平性和透明性的擔憂是真實存在的,法律和政治必須在各優(yōu)先事項間取得合理平衡。由于深度學習驅(qū)動的人工智能系統(tǒng)的復雜性,即使是系統(tǒng)創(chuàng)建者往往也難以解釋深度學習算法輸入如何導致特定輸出,給警方在刑事執(zhí)法環(huán)境中使用人工智能技術與系統(tǒng)帶來額外風險——損害警用人工智能系統(tǒng)在決策過程中的透明度,并在警用人工智能系統(tǒng)受到質(zhì)疑或必須解釋輸出結論時產(chǎn)生困難。
3.人工智能素養(yǎng):推動刑事執(zhí)法人工智能融合的關鍵
人工智能素養(yǎng)既是一種“個人能夠批判性評估人工智能技術、與人工智能進行有效溝通和協(xié)作的能力”,也是一種“能夠?qū)⑷斯ぶ悄茏鳛楣ぷ骰驅(qū)W習工具的能力”。在個人層面,2023年對北卡羅來納州等地警務人員調(diào)研發(fā)現(xiàn),多數(shù)人既不熟悉人工智能,也不了解人工智能的局限性。在組織層面,面對外源性人工智能技術嵌入,警方能否接納及在多大程度上接納,決定技術與警務互動的廣度與深度。美國國家司法研究所強調(diào),業(yè)務工作流程的改變和組織文化的抵制比純粹技術問題更有挑戰(zhàn)性。在戰(zhàn)略層面,格蘭特·弗格森指出,由于具備人工智能專業(yè)知識的員工不足,警察局等政府機構在現(xiàn)代化轉型中依賴于技術供應商、在采購談判中處于被動地位,可能帶來政府技術采購的“失權”風險。
(二)警務合法性危機
未來學家羅伊·阿馬拉在談到人工智能與執(zhí)法時表示,人們傾向于高估一項技術的短期效用,卻低估技術的長期影響。人工智能不僅構成美國刑事執(zhí)法工具,也實質(zhì)性改變刑事執(zhí)法行為。自弗洛伊德案以來,美國警務改革呼聲高漲,針對預測性警務、大規(guī)模監(jiān)控等抗議也愈演愈烈,迫使警方重新審視權力合法性基礎。美國警務的核心目標在于維護公共安全、預防犯罪和騷亂,尊重公民憲法權利,并遵循合法警務(Legitimacy policing)的基本要求——確保警方有足夠能力、對犯罪作出適當反應、維護執(zhí)法公正并贏得公眾信任。警務合法性反映美國警方在社會中被認可、接受的程度以及是否在法律、倫理框架下行使權力,而近年的警務合法性危機為人工智能應用提供了反思維度。
1.比例原則挑戰(zhàn)
合法警務中比例原則要求犯罪預防措施給公民帶來的風險與要實現(xiàn)的犯罪減少目標相稱,但刑事執(zhí)法人工智能的引入可能侵犯公民諸多法定權利?;趥€體的犯罪預測工具引入,可能會導致追訴活動在刑事立案之前啟動,而機器學習支持下海量信息匯總、分析產(chǎn)生的犯罪嫌疑人畫像加劇偵查人員形成有罪推定傾向,潛在侵犯個人無罪推定權利;通過基于地點的算法巡邏管理系統(tǒng)、自動槍擊檢測系統(tǒng),警方可能將高犯罪率區(qū)域、多重預測警報區(qū)域作為判斷是否存在逮捕、搜查或扣押“合理依據(jù)”(Probable Cause)的因素,改變警察對所巡邏社區(qū)和所遇到人員的看法和行為,同時在本質(zhì)上拓展了美國憲法第四修正案中合理依據(jù)的界限,因為這種判斷基于數(shù)據(jù)分析,而非已有事實證據(jù);人工智能賦能的全面監(jiān)控網(wǎng)絡引發(fā)公眾對隱私和人權侵犯的擔憂,有研究者引入美國刑訴中的“馬賽克理論”進行分析,指出即使是若干非重大信息片段的結合也可形成揭示目標個人生活模式的完整信息鏈條。此外,警察數(shù)據(jù)收集、交易問題引發(fā)學界關注,一是關于數(shù)據(jù)代理,警方將安全機器人、監(jiān)控系統(tǒng)所收集數(shù)據(jù)的控制權部分交給私營公司的行為引發(fā)爭議;二是關于數(shù)據(jù)采購,憲法第四修正案判例法限制政府收集特定類型公民數(shù)據(jù),然而伴隨公私合作深化,技術供應商越來越多地收集、匯聚、處理公民數(shù)據(jù)并將其出售給警方,警方采購公民數(shù)據(jù)的合憲性受到質(zhì)疑。
2.公平原則隱憂
合法警務中公平原則要求警方對所有群體平等執(zhí)行法律并提供保護,美國刑事執(zhí)法人工智能涉及的公平問題要在反種族主義、反歧視性警務大浪潮下理解。
司法部對聯(lián)邦罪犯風險和需求評估系統(tǒng)審查發(fā)現(xiàn),與白人囚犯相比,系統(tǒng)將少數(shù)族裔囚犯再犯率高估2%到8%。鄧肯·普維斯指出,預測性警務等刑事執(zhí)法人工智能在運作中存在系統(tǒng)性種族主義。多數(shù)警務算法所基于的數(shù)據(jù)是逮捕數(shù)據(jù),但在犯罪率相似的前提下,美國有色人種逮捕率遠高于白人?;跉v史數(shù)據(jù)的預測將不可避免出現(xiàn)盲點,而算法引入重現(xiàn)并放大了社會偏見和歧視,侵犯個人被平等對待的權利。“失控反饋循環(huán)”理論在美國學術界引發(fā)熱議,當警方“瞄準”特定社區(qū)或地域,帶來更多警察接觸、攔截和逮捕,生成更多犯罪報告,當這些犯罪數(shù)據(jù)反饋到機器學習模型中,又會引導算法將警察引回同一區(qū)域造成過度執(zhí)法。
3.信任與問責困境
公眾對警方的信任和支持是合法警務的關鍵,當警方對行為負責并愿意承擔后果時,人們更有信心與之互動。然而,美國警方面臨人工智能系統(tǒng)問責困境:第一,責任主體難以明確,各類刑事執(zhí)法人工智能從設計到部署全過程涉及多個主體,包括人工智能本體、人工智能及其算法設計者、人工智能所有者以及人工智能使用者。若運行過程中發(fā)生誤判、錯判、侵權,歸因歸責將會變得異常難以厘定。算法黑箱可能導致刑事執(zhí)法人工智能操作、決策、生成過程缺乏透明度、可解釋性,而美國警方一般立場是“不能對我們不理解的事項負責”,進一步加劇公眾懷疑和不信任。第二,技術外包缺乏公眾監(jiān)督。美國電子隱私信息中心于2023年9月發(fā)布的報告《外包與自動化:人工智能公司如何接管政府決策》指出,警察局等政府機構采購人工智能系統(tǒng)在一定程度上是將決策外包給供應商,而供應商多以人工智能軟件、模型系專有商業(yè)信息為由,將決策程序保密或繞過問責機制,這意味著諸多人工智能系統(tǒng)沒有受到有意義的公眾監(jiān)督。
三、探尋美國人工智能警務發(fā)展與規(guī)制的良性互動空間
(一)統(tǒng)籌發(fā)展與安全的內(nèi)在邏輯
刑事執(zhí)法人工智能具有技術屬性、警務屬性、社會屬性高度融合的特征,在賦能警務工作的同時帶來諸多挑戰(zhàn)與風險,但美國并未否定人工智能技術在社會發(fā)展與治理創(chuàng)新過程中的應用價值。以洛杉磯警察局為例,盡管在多年當?shù)氐种葡掠?020年結束長達十年的犯罪預測實驗,在《2019-2021年戰(zhàn)略計劃》中仍將“數(shù)據(jù)驅(qū)動警務”作為降低犯罪的關鍵舉措,在《2021-2023年戰(zhàn)略計劃》中提出“利用新興技術向巡邏警官傳送實時犯罪數(shù)據(jù)”。美國國家司法研究所也指出,人工智能有望成為刑事司法生態(tài)中“永久性構成要素”,將持續(xù)資助犯罪預測、公共安全視頻和圖像分析、DNA分析、槍擊檢測等人工智能項目。在更廣闊的宏觀層面,2023年以來,美國白宮接連發(fā)布《拜登-哈里斯政府宣布采取新行動促進負責任的人工智能創(chuàng)新,保護美國人的權利和安全》《拜登-哈里斯政府采取新措施推進負責任的人工智能研究、開發(fā)和部署》等政策,提出加大人工智能研發(fā)投資,使其更好地為公共利益服務。在《2025財年預算的機構研發(fā)優(yōu)先事項》備忘錄中,白宮科技政策辦公室將“設計、試點和評估應用人工智能改善政府職能和公共服務”作為研發(fā)重點。在可預見的未來,人工智能作為公共安全產(chǎn)品,有望進一步拓展美國刑事執(zhí)法應用范圍,加快警務科技創(chuàng)新,而現(xiàn)實中的治理關鍵是如何將技術缺陷與人的因素帶來的法律、倫理、安全問題最小化。
(二)構建人工智能應用監(jiān)管體系
審查與監(jiān)督的主要目的在于解釋和追責,實現(xiàn)損害可以被評估、控制和補救,平衡警方技術使用需求與公民權利保障。美國國家標準與技術研究所將“審計、測試和評估”列入人工智能風險管理框架。2023年以來,在聯(lián)邦層面,美國參議院引入《評估人工智能法案》,要求成立內(nèi)閣級人工智能工作組,對聯(lián)邦機構采購、部署、應用的人工智能系統(tǒng)進行評估并提出整改意見。在地方層面,2023年6月,美國得克薩斯州頒布《成立人工智能咨詢委員會法》。州長雅培表示:“人工智能作為生活和勞動力中的革命性工具變得日益普遍,必須確保這項技術以負責任、合乎倫理的方式開發(fā)……為保障公民隱私和自由,簽署該法成立人工智能咨詢委員會,研究并監(jiān)管州機構開發(fā)、使用人工智能的情況?!痹摲鞔_州機構應在2024年7月1日前向人工智能咨詢委員會和參眾議院匯報所有正在開發(fā)、使用或采購的自動化決策系統(tǒng)情況,如系統(tǒng)是否用于獨立決策及決策對公民的影響,系統(tǒng)是否經(jīng)過第三方測試、是否存在已知偏見,所輸入數(shù)據(jù)是如何生成、收集和處理的,系統(tǒng)中數(shù)據(jù)是否安全存儲、處理,是否與其他實體共享系統(tǒng)和數(shù)據(jù)的訪問權限及原因等,人工智能咨詢委員會負責審查、提出行政建議并評估是否有必要制定倫理準則。此外,馬薩諸塞州眾議院引入《建立自動決策委員會法案》,若法案通過意味著政府自動化決策委員會將審查執(zhí)法機構使用人工智能進行決策的行為。雖然這些立法并非專門針對警察機構,但聯(lián)邦與地方警察也在規(guī)制范圍內(nèi),在一定意義上強化警方使用人工智能的責任意識。
(三)推進系統(tǒng)與決策的透明公正
技術正當程序強調(diào)透明、準確、參與等核心要素,重新將“人”引入技術決策進程中。美國白宮發(fā)布的《人工智能權利法案藍圖》提出“通知和解釋原則”,強調(diào)公眾應知曉組織正在使用自動化系統(tǒng)及其如何產(chǎn)生有影響力的結果。2023年以來,在聯(lián)邦層面,美國參議院引入《透明自動化治理法案》,提出“關鍵決策”概念,若法案通過意味著采用人工智能作出與特定個人或群體的地位、權利、財產(chǎn)或福祉緊密相關的決定及對個人生活產(chǎn)生重大影響的決定,應告知公眾、保持信息透明,并提供針對不準確、有偏見決定的申訴渠道。在地方層面,康涅狄格州州長簽署《關于人工智能、自動決策和個人數(shù)據(jù)隱私的法》,自2023年起行政服務部門對警察局等州機構使用人工智能情況進行年度清查并在州開放數(shù)據(jù)門戶網(wǎng)站上公布清查報告,包括系統(tǒng)名稱和供應商、系統(tǒng)功能和用途、系統(tǒng)是否用于獨立制定或?qū)嵸|(zhì)性支持相關結論和判斷以及系統(tǒng)在部署前是否進行影響評估;在2024年2月1日前,管理政策辦公室制定并建立警察局等州機構使用人工智能系統(tǒng)相關的開發(fā)、采購、部署、使用和評估政策程序,確保系統(tǒng)不會基于膚色、種族、信仰、性取向等特征對個人或群體帶來非法歧視,并在管理政策辦公室網(wǎng)站上公布政策程序文本。
(四)強化數(shù)據(jù)保護與權限管控
數(shù)據(jù)安全范式的核心要素是“可控性”,強調(diào)將數(shù)據(jù)收集、分析、再利用納入風險管控過程。美國“警察數(shù)據(jù)倡議”在促進開放數(shù)據(jù)使用的同時,鼓勵警方與社區(qū)共同解決問題,增進理解和問責。2023年以來,美國參議員霍利在《未來人工智能立法指導原則》中提出個人數(shù)據(jù)保護總體原則,禁止人工智能模型未經(jīng)同意收集敏感個人數(shù)據(jù),并對個人數(shù)據(jù)濫用行為予以嚴厲處罰。針對警方數(shù)據(jù)采購與監(jiān)控,美國兩黨引入《第四修正案不可出售法案》,要求警方在迫使數(shù)據(jù)經(jīng)紀人披露數(shù)據(jù)前必須獲得法院授權,并禁止警方采購從用戶賬戶設備秘密抓取、通過黑客攻擊或違反隱私政策和用戶協(xié)議等非法方式獲取的公民數(shù)據(jù)。針對公私合作中隱私侵權風險,美國電子隱私信息中心建議通過立法或內(nèi)部規(guī)則制定,要求警察局等州機構在人工智能技術采購合同中內(nèi)置個人數(shù)據(jù)保護條款、強化技術外包過程的數(shù)據(jù)安全監(jiān)督與控制,將供應商二級數(shù)據(jù)使用風險納入考量,禁止供應商在完成合同后將數(shù)據(jù)或從中推斷出的信息用于其他目的。
(五)人工智能倫理與最佳實踐
在新一輪人工智能科技革命背景下,美國司法界與學界開始反思人機協(xié)同的犯罪治理模式,探索人工智能倫理與最佳實踐。美國國家司法研究所發(fā)布多份指導文件,構建人工智能工具倫理與關鍵問題列表,建議刑事執(zhí)法領導者在考慮人工智能方案時將技術可行性、倫理適當性、操作可實現(xiàn)性等納入考量,對人工智能的技術本質(zhì)、執(zhí)法需求、相關背景及局限性有清醒認知,作出審慎恰當?shù)牟渴鹁駬瘛C绹鴩揖瘎昭芯克粲鯊娀绦蛘x教育培訓,推動基于公平和尊重的犯罪熱點警務活動,改善公眾對警務合法性、犯罪預防活動有效性的評價。在美國國家科學基金會資助下,學界積極關注負責任警務人工智能開發(fā)最佳實踐,建議開發(fā)?員、警方和社區(qū)在技術全生命周期緊密協(xié)作,引入去偏見技術優(yōu)化模型,利用“藍色數(shù)據(jù)”“明亮數(shù)據(jù)”診斷警察巡邏中存在的問題或危險行為,進行第三方安全測試認證,將犯罪分析與非執(zhí)法導向、更柔和、更貼近社區(qū)需求的教育與預防措施相結合等。
2023年10月,美國總統(tǒng)拜登簽署《關于安全、可靠和可信地開發(fā)和使用人工智能的行政令》,提出人工智能警務相關的風險防控目標和行動。行政令指示司法部部長與國土安全部部長、科技政策辦公室主任一起向總統(tǒng)提交一份關于在刑事司法系統(tǒng)中使用人工智能的報告,重點關注人工智能應用如何在保護公民隱私、權利和自由的前提下提高執(zhí)法效率、準確性,報告應包含最佳執(zhí)法實踐,提供人工智能使用指南,并幫助解決預測性算法、面部識別、生物識別等技術使用過程中的數(shù)據(jù)儲存、訪問問題。此外,司法部部長需審查司法部“調(diào)查因人工智能使用而導致執(zhí)法人員在合法情況下剝奪公民權利的情況”的能力,優(yōu)化執(zhí)法人員教育培訓。
[基金支持:國家社會科學基金重大項目《網(wǎng)絡信息安全監(jiān)管法治體系構建研究》(21amp;ZD193)項目階段性成果]
【作者簡介】王彩玉,公安部第三研究所網(wǎng)絡安全法律工程師,主要研究網(wǎng)絡安全、網(wǎng)絡犯罪防治立法;梁立增,中國人民公安大學信息網(wǎng)絡安全學院警務碩士、山東省濟南市公安局網(wǎng)絡安全保衛(wèi)支隊民警,研究方向為網(wǎng)絡安全管理、網(wǎng)絡安全法制建設。
(責任編輯:馮苗苗)