• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      算法決策:人工智能驅(qū)動(dòng)的公共決策及其風(fēng)險(xiǎn)*

      2021-09-22 08:58:58吳進(jìn)進(jìn)
      開(kāi)放時(shí)代 2021年5期
      關(guān)鍵詞:決策者議程決策

      ■吳進(jìn)進(jìn) 符 陽(yáng)

      [內(nèi)容提要]作為一種自主算法決策,人工智能技術(shù)已經(jīng)滲透到公共決策過(guò)程的各個(gè)環(huán)節(jié),使公共決策模式產(chǎn)生重大變革。本文基于公共政策循環(huán)理論的視角,提出了一個(gè)人工智能算法對(duì)公共政策的問(wèn)題界定與議程設(shè)置、政策制定、政策執(zhí)行和政策評(píng)估四個(gè)階段的影響與應(yīng)用的分析框架,指出人工智能算法通過(guò)其大數(shù)據(jù)處理能力和預(yù)測(cè)分析能力,對(duì)提高公共決策的科學(xué)性、精準(zhǔn)性和有效性發(fā)揮了巨大的作用。與此同時(shí),人工智能算法存在的算法偏見(jiàn)、預(yù)測(cè)偏差和算法“黑箱”等問(wèn)題可能引發(fā)公共決策失靈和合法性危機(jī)。最后,本文還提出,為了合理利用人工智能技術(shù)提高公共決策的有效性,規(guī)避算法決策的風(fēng)險(xiǎn),決策者應(yīng)關(guān)注人工智能算法決策與人類(lèi)常規(guī)性決策的應(yīng)用范圍、適用性以及兩者之間的互補(bǔ)協(xié)調(diào)關(guān)系,同時(shí)在算法驅(qū)動(dòng)的公共決策各個(gè)環(huán)節(jié)中加強(qiáng)公共參與,建立參與式算法決策框架。

      一、引言

      人工智能(artificial intelligence,AI)是計(jì)算機(jī)科學(xué)的一個(gè)分支,其目的是開(kāi)發(fā)一種具有智能行為的機(jī)器,實(shí)現(xiàn)在沒(méi)有明確編程命令的情況下,使計(jì)算機(jī)自主采取行動(dòng)。機(jī)器學(xué)習(xí)和大數(shù)據(jù)是人工智能的兩大核心要素。機(jī)器學(xué)習(xí)是人工智能的大腦,是支持人工智能的基礎(chǔ)算法;大數(shù)據(jù)則是實(shí)現(xiàn)人工智能算法運(yùn)算的基礎(chǔ)原料。機(jī)器學(xué)習(xí)基于算法來(lái)解析和訓(xùn)練數(shù)據(jù),進(jìn)行學(xué)習(xí),從現(xiàn)實(shí)世界中識(shí)別模式,發(fā)現(xiàn)趨勢(shì),作出預(yù)測(cè)和決策,并在此基礎(chǔ)上執(zhí)行特定任務(wù)。算法就是對(duì)解題方案的準(zhǔn)確而完整的描述,是一系列解決問(wèn)題的清晰指令。算法代表著用系統(tǒng)的方法描述、解決問(wèn)題的策略機(jī)制,對(duì)一定規(guī)范的輸入,在有限時(shí)間內(nèi)獲得所要求的輸出。從本質(zhì)上說(shuō),人工智能就是一種基于算法的自主決策系統(tǒng)。以大數(shù)據(jù)為基礎(chǔ)的,以機(jī)器學(xué)習(xí)及深度學(xué)習(xí)算法為核心的人工智能自主決策系統(tǒng)被稱(chēng)為算法決策(Zouri?dis,van Eck&Bovens,2020)。

      決策是行政行為的核心。一方面,隨著人工智能的興起,人工智能對(duì)公共決策系統(tǒng)中的官僚與專(zhuān)家決策等常規(guī)決策模式起到了重塑作用。目前,國(guó)內(nèi)外學(xué)者對(duì)大數(shù)據(jù)驅(qū)動(dòng)的公共決策優(yōu)化研究較為豐富,如大數(shù)據(jù)影響“公共決策循環(huán)”的模型化研究(H?chtl,Parycek &Sch?llhammer,2016),大數(shù)據(jù)驅(qū)動(dòng)的議程設(shè)置信息化、備擇方案討論全民化、決策執(zhí)行自動(dòng)化、決策評(píng)估實(shí)時(shí)化以及全過(guò)程跨領(lǐng)域綜合集成化等五個(gè)方面的公共決策創(chuàng)新研究等(陳一帆、胡象明,2019)。但是,人工智能算法對(duì)公共決策過(guò)程和環(huán)節(jié)如何發(fā)揮影響,影響機(jī)制是什么等問(wèn)題尚未在理論和實(shí)證層面上得到充分回答。另一方面,算法決策的風(fēng)險(xiǎn)問(wèn)題也引起越來(lái)越多的警惕和探討。部分學(xué)者對(duì)人工智能應(yīng)用于公共決策持謹(jǐn)慎態(tài)度,認(rèn)為人工智能算法的內(nèi)在缺陷及其不當(dāng)使用,如算法偏差、算法錯(cuò)誤、算法歧視、算法“黑箱”、審查難等問(wèn)題(Osoba &Welser,2017;Chiao,2019),將產(chǎn)生嚴(yán)峻的行政倫理問(wèn)題,如人工智能對(duì)決策公平、公正、透明性和可問(wèn)責(zé)性的挑戰(zhàn),侵犯公民信息隱私權(quán),加劇社會(huì)不平等(于文軒,2017)。然而,這些探討較少分析人工智能算法決策在公共決策過(guò)程中產(chǎn)生的風(fēng)險(xiǎn)的具體形式及其來(lái)源。

      借鑒大數(shù)據(jù)驅(qū)動(dòng)的公共決策循環(huán)模型(H?chtl,Parycek &Sch?llhammer,2016),以及人工智能對(duì)政府與公共政策影響的最新研究(Val?le-Cruz et al.,2019),本文首先基于政策學(xué)者對(duì)政策過(guò)程經(jīng)典的四個(gè)階段劃分(Dunn,2015),發(fā)展一個(gè)人工智能算法在公共決策領(lǐng)域中應(yīng)用形態(tài)與作用機(jī)制的分析框架,呈現(xiàn)人工智能對(duì)公共決策各階段與過(guò)程的深刻影響。其次,本文將對(duì)公共決策各個(gè)階段的算法決策風(fēng)險(xiǎn)及其來(lái)源問(wèn)題進(jìn)行探討。最后,本文還將討論如何平衡人工智能算法決策與常規(guī)決策之間的關(guān)系,闡述這兩類(lèi)決策機(jī)制的適用范圍和互補(bǔ)關(guān)系,并對(duì)提高算法決策的公眾參與性,規(guī)避算法決策的風(fēng)險(xiǎn)提出若干政策建議。

      二、人工智能驅(qū)動(dòng)的公共決策:一個(gè)分析框架

      人工智能在公共決策中巨大的應(yīng)用潛力源于人工智能的兩大基本能力。第一,人工智能的大數(shù)據(jù)生成和處理功能為公共決策提供了豐富的決策信息。信息是決策的基石,在決策的全過(guò)程中發(fā)揮至關(guān)重要的影響。在充斥著復(fù)雜性和不確定性的決策環(huán)境下,海量的信息充斥在各個(gè)領(lǐng)域和活動(dòng)中。然而,信息規(guī)模越大,信息的結(jié)構(gòu)性就越差。相當(dāng)大比例的數(shù)據(jù)呈現(xiàn)非結(jié)構(gòu)形態(tài),如圖像數(shù)據(jù)、自然語(yǔ)言數(shù)據(jù)、文本數(shù)據(jù)、語(yǔ)音視頻數(shù)據(jù)等。據(jù)國(guó)際數(shù)據(jù)公司(International Data Corporation,IDC)的預(yù)測(cè),2018年到2025年之間,全球產(chǎn)生的數(shù)據(jù)量將會(huì)從33 澤字節(jié)(ZB)增長(zhǎng)到175 澤字節(jié),其中超過(guò)80% 的數(shù)據(jù)都是處理難度較大的非結(jié)構(gòu)化數(shù)據(jù)。①然而,人類(lèi)的思維能力和運(yùn)算速度十分有限,在搜集和處理海量非結(jié)構(gòu)化數(shù)據(jù)時(shí)存在著成本高、速度低和準(zhǔn)確率低的劣勢(shì)。非結(jié)構(gòu)化數(shù)據(jù)需轉(zhuǎn)化為計(jì)算機(jī)可以處理的結(jié)構(gòu)化數(shù)據(jù)才會(huì)方便決策者進(jìn)一步分析。人工智能的機(jī)器學(xué)習(xí)與深度學(xué)習(xí)方法憑借文本挖掘、知識(shí)庫(kù)自動(dòng)構(gòu)建、圖像視頻識(shí)別與生成、自然語(yǔ)言處理等技術(shù),快速、便捷且大規(guī)模地將非結(jié)構(gòu)化數(shù)據(jù)轉(zhuǎn)化為結(jié)構(gòu)化數(shù)據(jù)。例如,對(duì)于語(yǔ)言形式多樣而意義模糊的自然語(yǔ)言數(shù)據(jù),人工智能可以減少文本的模糊性,識(shí)別不同的詞匯,連接語(yǔ)言中的邏輯,解讀語(yǔ)言的背景知識(shí),對(duì)語(yǔ)言與文本進(jìn)行標(biāo)記和分類(lèi)。當(dāng)前,人工智能可以快速地閱讀海量的政策文本,并對(duì)政策內(nèi)容進(jìn)行分類(lèi)(Rice &Christopher,2021)。人工智能的圖像識(shí)別技術(shù)通過(guò)抽取識(shí)別圖像的各種特征,幫助網(wǎng)站運(yùn)營(yíng)商和政府網(wǎng)絡(luò)監(jiān)管部門(mén)對(duì)視頻和圖片進(jìn)行質(zhì)量、版權(quán)、涉恐涉黃鑒別和標(biāo)記。

      第二,人工智能機(jī)器學(xué)習(xí)算法的預(yù)測(cè)分析能力為公共決策提供直接的支持。人工智能使用算法來(lái)分析數(shù)據(jù),并從中學(xué)習(xí),從而對(duì)現(xiàn)實(shí)世界中的事件作出決策和預(yù)測(cè)。由人工智能算法驅(qū)動(dòng)的決策基于大數(shù)據(jù)和高緯數(shù)據(jù)篩選預(yù)測(cè)因子,建構(gòu)非線性和高度交互的預(yù)測(cè)模型,非常準(zhǔn)確地預(yù)測(cè)了高度復(fù)雜的現(xiàn)象與數(shù)據(jù)間的關(guān)系(Mullain?athan &Spiess,2017)。人工智能算法決策在提升預(yù)測(cè)的精確性上具有人腦判斷、專(zhuān)家預(yù)測(cè)和傳統(tǒng)統(tǒng)計(jì)模型無(wú)法比擬的優(yōu)勢(shì)。首先,由于人腦獲取和處理信息能力的局限、非理性的偏見(jiàn)和情感因素的影響,人腦的預(yù)測(cè)效果遠(yuǎn)不及統(tǒng)計(jì)模型(Grove &Meehl,1996),而傳統(tǒng)的統(tǒng)計(jì)模型無(wú)法應(yīng)對(duì)現(xiàn)實(shí)世界的變量間復(fù)雜而模糊的關(guān)系與模式,難以準(zhǔn)確地還原真實(shí)的數(shù)據(jù)生成過(guò)程,以因果推斷為目標(biāo)的傳統(tǒng)統(tǒng)計(jì)模型的預(yù)測(cè)能力十分有限。與傳統(tǒng)統(tǒng)計(jì)模型不同,人工智能算法主要關(guān)注的是預(yù)測(cè)的準(zhǔn)確性,允許數(shù)據(jù)自己決定變量的擬合過(guò)程,從而盡可能精確地?cái)M合實(shí)際的數(shù)據(jù)點(diǎn),隨著模型擬合的準(zhǔn)確性的提高,人工智能算法的預(yù)測(cè)能力也就越強(qiáng)。人工智能算法憑借其優(yōu)越的預(yù)測(cè)分析能力為公共決策提供了強(qiáng)大的智能支持。

      21世紀(jì),特別是2010年以來(lái),人工智能對(duì)公共決策的介入呈現(xiàn)一個(gè)由淺到深,由邊緣到核心的過(guò)程。人工智能最初對(duì)公共決策的影響主要集中在簡(jiǎn)化政府一線服務(wù)部門(mén)工作流程,改善市民服務(wù)和提高機(jī)構(gòu)辦事效率方面,如自動(dòng)回答市民問(wèn)題,輔助工作人員填寫(xiě)和搜索文檔,對(duì)顧客需求進(jìn)行分類(lèi)和選擇服務(wù)路徑,翻譯和起草文件等(Mehr,2017)。一項(xiàng)研究表明,人工智能的自動(dòng)化能力可以幫助工作人員在執(zhí)行記錄信息、處理文檔表格等基本行政任務(wù)時(shí)節(jié)省30%的時(shí)間(Viechnicki&Eggers,2017)。隨著政府活動(dòng)對(duì)人工智能算法開(kāi)放度越來(lái)越高,人工智能算法也開(kāi)始介入公共決策的核心環(huán)節(jié),如政策制定、執(zhí)行與評(píng)估環(huán)節(jié),并且參與到政府的一些核心公共服務(wù)與決策領(lǐng)域,如公共交通、醫(yī)療、教育、環(huán)境、公共安全與社會(huì)福利領(lǐng)域。算法驅(qū)動(dòng)的公共決策的典型案例包括美國(guó)沃森人工智能(Watson AI)輔助醫(yī)療診斷,中國(guó)杭州和新加坡等地城市智慧交通信號(hào)燈與擁堵預(yù)警系統(tǒng),美國(guó)洛杉磯等地實(shí)施的人工智能犯罪區(qū)域風(fēng)險(xiǎn)預(yù)測(cè)和火警檢測(cè)系統(tǒng)等(Berryhill et al.,2019)。在這一階段,算法決策的任務(wù)不僅僅是簡(jiǎn)化行政流程,處理程序性和重復(fù)性任務(wù)這些簡(jiǎn)單的行政工作,而且是充分發(fā)揮人工智能的大數(shù)據(jù)處理和分析預(yù)測(cè)能力,提高公共服務(wù)的效率、質(zhì)量和精準(zhǔn)性,創(chuàng)新公共服務(wù)的供給,甚至決定資源配置和權(quán)利分配這些公共決策的核心問(wèn)題。

      那么人工智能的大數(shù)據(jù)處理與預(yù)測(cè)分析能力如何與公共決策相結(jié)合,為公共決策系統(tǒng)提供支持呢?本文發(fā)展了一個(gè)人工智能驅(qū)動(dòng)公共決策過(guò)程的分析框架,呈現(xiàn)人工智能對(duì)政府公共決策各個(gè)階段的深刻影響。為了便于簡(jiǎn)潔地理解復(fù)雜的公共政策系統(tǒng)和決策過(guò)程,政策學(xué)者把政策過(guò)程劃分為四個(gè)相互聯(lián)系的階段:政策問(wèn)題界定與議程設(shè)置、政策方案設(shè)計(jì)與政策制定、政策執(zhí)行,以及政策評(píng)估。筆者將逐一探討在公共決策的四個(gè)階段中,人工智能的兩大功能如何發(fā)揮作用(見(jiàn)圖1)。表1 概括了人工智能的大數(shù)據(jù)處理和預(yù)測(cè)分析在決策四個(gè)階段中的具體實(shí)踐形態(tài)及其影響。

      圖1:人工智能與公共決策循環(huán)

      (一)人工智能、政策問(wèn)題界定及議程設(shè)定

      政策問(wèn)題界定和議程設(shè)定是公共決策過(guò)程的起點(diǎn),公共決策首先要確定政策應(yīng)該優(yōu)先解決哪些問(wèn)題?對(duì)政策議程設(shè)定的研究主要關(guān)注兩類(lèi)問(wèn)題:一是社會(huì)問(wèn)題的性質(zhì)是什么,政府干預(yù)這一問(wèn)題的必要性何在,即問(wèn)題界定。問(wèn)題界定在議程設(shè)定過(guò)程中發(fā)揮著特殊作用,社會(huì)問(wèn)題能否進(jìn)入議程在很大程度上取決于問(wèn)題如何被社會(huì)認(rèn)知和建構(gòu),如問(wèn)題產(chǎn)生的結(jié)果是好的還是壞的,問(wèn)題的重要性程度如何,以及問(wèn)題是否有解決的方案(Baumgartner &Jones,2015)。二是在大量社會(huì)問(wèn)題中,哪些問(wèn)題被決策者所關(guān)注,這些問(wèn)題如何進(jìn)入政策議程,即政策議程設(shè)置。政府內(nèi)外的行動(dòng)者總是尋求以各種手段來(lái)影響問(wèn)題界定和議程設(shè)定過(guò)程。傳統(tǒng)上,除了政府決策者外,新聞媒體的傳播,專(zhuān)家學(xué)者的決策咨詢和利益集團(tuán)的游說(shuō)活動(dòng)等都是影響政策議程的重要手段(Kingdon,1995)。議程設(shè)定過(guò)程的核心是如何使政策問(wèn)題從公共議程上升到?jīng)Q策者注意力范圍內(nèi),并進(jìn)入正式政策議程?,F(xiàn)有研究發(fā)現(xiàn),有多種模式推動(dòng)了政策問(wèn)題進(jìn)入決策議程(Howlett&Ramesh,2003):第一種是外部倡議模式,即社會(huì)力量通過(guò)動(dòng)員公眾支持推動(dòng)政府關(guān)注某一政策問(wèn)題;第二種是內(nèi)部倡議模式,指的是決策相關(guān)者不用公眾支持而影響議程,如利益集團(tuán)獨(dú)立動(dòng)員某些社會(huì)群體直接影響政府決策;第三種模式是支持動(dòng)員模式,是沒(méi)有公眾參與的決策議程初步確定后,政府再動(dòng)員公眾支持該項(xiàng)政策問(wèn)題;第四種模式是整合模式,即當(dāng)一項(xiàng)政策問(wèn)題已經(jīng)獲得公眾的廣泛支持和共識(shí)后,政府再順應(yīng)民意推動(dòng)議程建立。在大數(shù)據(jù)時(shí)代,人工智能是影響問(wèn)題界定和塑造議程設(shè)定模式的重要手段,通過(guò)不同于傳統(tǒng)的媒體、利益團(tuán)體和專(zhuān)家行為的方式發(fā)揮影響。

      表1:公共決策過(guò)程中的人工智能算法應(yīng)用

      首先,人工智能的大數(shù)據(jù)處理能力是政府內(nèi)外各類(lèi)行動(dòng)者界定問(wèn)題的重要工具或平臺(tái)。在大數(shù)據(jù)時(shí)代,微博、微信、推特和臉書(shū)等在線社交工具成為重要的線上公共問(wèn)題討論和決策參與平臺(tái),社交媒體大數(shù)據(jù)作為重要的公共輿論形態(tài),是決策者獲取信息和議程設(shè)置的重要來(lái)源。一方面,政府決策者在設(shè)置政策議程時(shí)越來(lái)越重視網(wǎng)絡(luò)大數(shù)據(jù)和在線公共輿論。當(dāng)一項(xiàng)公共問(wèn)題引發(fā)熱議或輿論風(fēng)暴時(shí),決策者可以利用人工智能技術(shù),如自然語(yǔ)言處理、文本情感分析、數(shù)據(jù)挖掘和圖形識(shí)別等分析事件或問(wèn)題引發(fā)的輿論動(dòng)向,如輿論內(nèi)容、輿論情緒及其變化趨勢(shì)與傳播途徑等,從而有助于決策者掌握事件或問(wèn)題成因,對(duì)其可能產(chǎn)生的政治社會(huì)后果進(jìn)行精準(zhǔn)識(shí)別,決定是否將該事件納入政策議程。在這種意義上,人工智能算法可以有效地實(shí)現(xiàn)議程設(shè)定的外部動(dòng)員,使得某些政策問(wèn)題可以快捷地進(jìn)入政策議程。另一方面,決策者面臨的問(wèn)題信息高度龐雜,而決策者在注意力、認(rèn)知能力和信息處理能力方面存在局限性(Workman,Jones&Jochim,2009),某些社會(huì)問(wèn)題的利益相關(guān)者傾向于利用人工智能技術(shù)搜集和處理有利于自身利益的數(shù)據(jù),特別是社交媒體數(shù)據(jù),隨后對(duì)這些數(shù)據(jù)進(jìn)行結(jié)構(gòu)化處理,將結(jié)構(gòu)化數(shù)據(jù)傳遞給政府決策者。因此,人工智能的大數(shù)據(jù)處理能力助力議程設(shè)定的內(nèi)部動(dòng)員,有助于某些利益團(tuán)體所偏好的政策問(wèn)題引起決策者的注意力,從而推動(dòng)這些問(wèn)題進(jìn)入決策議程。

      其次,決定決策者是否把某項(xiàng)問(wèn)題納入政策議程的一個(gè)重要考慮是問(wèn)題自身的性質(zhì),對(duì)于那些過(guò)度復(fù)雜、成因未明,或者現(xiàn)階段缺乏解決方法的問(wèn)題,決策者很難將其納入決策議程(Ander?son,2003)。人工智能的預(yù)測(cè)分析能力,可以幫助決策者預(yù)測(cè)問(wèn)題的發(fā)生概率、復(fù)雜性或嚴(yán)重程度,或者分析問(wèn)題的成因、后果以及解決思路,從而輔助決策者判斷哪些問(wèn)題可以成為政策問(wèn)題。在議程設(shè)置階段,人工智能的預(yù)測(cè)分析能力得到較為普遍的應(yīng)用。在經(jīng)濟(jì)領(lǐng)域,政府利用人工智能技術(shù)進(jìn)行未來(lái)年度的經(jīng)濟(jì)預(yù)測(cè),為中長(zhǎng)期經(jīng)濟(jì)政策的制定提供基礎(chǔ)。在公共衛(wèi)生領(lǐng)域,“谷歌流感趨勢(shì)”通過(guò)分析以“流感檢測(cè)”為關(guān)鍵詞的幾十億次搜索記錄來(lái)預(yù)測(cè)流感發(fā)病率,在初期預(yù)測(cè)的準(zhǔn)確率很高,輔助疾控部門(mén)決定是否啟動(dòng)流感緊急應(yīng)對(duì)程序(Butler,2013)。在公共安全領(lǐng)域,政府部門(mén)通過(guò)對(duì)社交媒體的大數(shù)據(jù)分析和處理,判斷抗議、騷亂等危機(jī)爆發(fā)與蔓延的趨勢(shì),從而提前采取維護(hù)秩序和防止沖突升級(jí)的政策措施(Leetaru,2011)。

      (二)人工智能與政策制定

      政策備選方案的提出和選擇是公共決策的關(guān)鍵步驟,特別是政策方案的抉擇也被稱(chēng)為最典型的決策過(guò)程。根據(jù)理性主義政策分析模式,政策制定過(guò)程需要首先明確政策目的,繼而理性地分析備選方案,同時(shí)政府部門(mén)通過(guò)使用各類(lèi)知識(shí)、技術(shù)和工具完善方案設(shè)計(jì),然后陳述各個(gè)政策方案,按照標(biāo)準(zhǔn)對(duì)方案效果進(jìn)行評(píng)估和預(yù)測(cè),最后對(duì)方案進(jìn)行選擇(韋默、瓦伊寧,2013)。在現(xiàn)代社會(huì)中,政策方案是否被接受取決于多種因素,其中兩個(gè)基本因素尤為受到關(guān)注:一是方案的合法性和政治支持,被公眾特別是目標(biāo)群體廣泛接受的政策方案無(wú)疑具有更高的合法性;二是政策方案的技術(shù)可行性和實(shí)施效果的可預(yù)期性。

      在方案設(shè)計(jì)和制定環(huán)節(jié),政策制定者需要借助各種倡議活動(dòng),利用專(zhuān)家知識(shí)、技術(shù)工具,特別是信息收集和處理技術(shù)使得方案具備合法性和滿足績(jī)效條件。整個(gè)政策方案的設(shè)計(jì)和選擇過(guò)程都是建立在信息處理的基礎(chǔ)上,人工智能算法憑借其信息處理和預(yù)測(cè)分析能力,在政策方案設(shè)計(jì)和制定環(huán)節(jié)中發(fā)揮著顯著的作用。首先,人工智能可以推動(dòng)對(duì)備選方案進(jìn)行充分的公眾選擇和討論,從而有助于優(yōu)化備選方案的質(zhì)量,并且使方案獲得廣泛的公眾支持,為政策執(zhí)行創(chuàng)造良好的環(huán)境。人工智能的自然語(yǔ)言處理等技術(shù)可以對(duì)互聯(lián)網(wǎng),特別是新興社交媒體上公眾關(guān)于政策方案的建議、評(píng)論、留言等非結(jié)構(gòu)化數(shù)據(jù)進(jìn)行深入的文本挖掘和情感分析,從而確定這些數(shù)據(jù)的特征趨勢(shì),識(shí)別其中的不同政策偏好(Kama?teri,2015:71-77)。其次,人工智能模型的強(qiáng)大預(yù)測(cè)能力可以精準(zhǔn)預(yù)測(cè)各個(gè)政策方案的實(shí)施效果,為方案的選擇提供依據(jù)。在政策方案選擇的傳統(tǒng)成本收益分析框架中,人工智能算法可以預(yù)測(cè)政策的成本和收益,從而指導(dǎo)政策方案的選擇。在醫(yī)療政策領(lǐng)域,人工智能算法被用于預(yù)測(cè)個(gè)體潛在的疾病風(fēng)險(xiǎn)及醫(yī)療成本,并基于預(yù)測(cè)結(jié)果指導(dǎo)醫(yī)療政策重點(diǎn)干預(yù)那些具有較高患病風(fēng)險(xiǎn)的對(duì)象,以及治療成本更高的病人。這不僅可以使得有限的醫(yī)療、護(hù)理資源得到合理配置,而且能夠控制醫(yī)療費(fèi)用的增長(zhǎng)。在預(yù)測(cè)政策成本前,決策者還需要識(shí)別政策目標(biāo)群體,例如要預(yù)測(cè)某項(xiàng)稅收優(yōu)惠政策的成本,那么必須先預(yù)測(cè)這項(xiàng)政策所涉及的目標(biāo)群體數(shù)量,從而計(jì)算稅收優(yōu)惠可能導(dǎo)致的減稅總額。在美國(guó)十分流行的人工智能算法輔助司法決策中,對(duì)于犯罪嫌疑人的處理有不同的政策方案:關(guān)押等待審訊、取保候?qū)徱约爸苯尤氇z。使用人工智能算法,根據(jù)既有的犯罪數(shù)據(jù),基于犯罪嫌疑人特質(zhì)、案件信息等相關(guān)特征,預(yù)測(cè)他們?cè)俅畏缸锏母怕?,從而決定他們是入獄還是被取保候?qū)彛↘leinberg et al.,

      2017)。

      (三)人工智能與政策執(zhí)行

      無(wú)論是強(qiáng)調(diào)明確政策目標(biāo)和決策者控制能力的自上而下的模式,還是強(qiáng)調(diào)決策執(zhí)行部門(mén)自由裁量權(quán)以及上級(jí)決策者與政策執(zhí)行部門(mén)上下協(xié)調(diào)互動(dòng)的自下而上的模式,政策執(zhí)行最核心的癥結(jié)就是信息不對(duì)稱(chēng)問(wèn)題。執(zhí)行者比政策制定者,政策目標(biāo)群體比執(zhí)行者具有信息優(yōu)勢(shì),他們很容易消極執(zhí)行政策或者規(guī)避政策,決策者及時(shí)而充分地獲取政策執(zhí)行信息,就能有效地對(duì)執(zhí)行過(guò)程進(jìn)行監(jiān)督或協(xié)調(diào)。人工智能算法能夠?yàn)閳?zhí)行過(guò)程提供實(shí)時(shí)而充足的執(zhí)行信息,緩解因信息偏差和不對(duì)稱(chēng)而導(dǎo)致的執(zhí)行偏差和梗阻問(wèn)題。在政策執(zhí)行環(huán)節(jié),人工智能基于其預(yù)測(cè)分析和大數(shù)據(jù)處理能力對(duì)目標(biāo)主體與執(zhí)行方案進(jìn)行精準(zhǔn)選擇(H?chtl,Parycek&Sch?llhammer,2016)。

      第一,人工智能的大數(shù)據(jù)處理能力使得決策者獲取和處理政策執(zhí)行信息的能力有了巨大的提升。人工智能可以實(shí)時(shí)獲取海量的政策執(zhí)行數(shù)據(jù),并對(duì)非結(jié)構(gòu)化數(shù)據(jù)進(jìn)行結(jié)構(gòu)化處理,從而把結(jié)構(gòu)化數(shù)據(jù)迅速傳輸給決策者和政策執(zhí)行部門(mén)。在交通和社會(huì)治安領(lǐng)域,基于人工智能的攝像與人臉識(shí)別系統(tǒng)可以實(shí)時(shí)傳輸人車(chē)流量和道路交通擁堵?tīng)顩r、街道人群密集程度和可疑人物等信息。在新冠疫情防控戰(zhàn)役中,口罩佩戴識(shí)別、自動(dòng)測(cè)溫、防疫健康信息碼等基于人工智能算法的疫情防控系統(tǒng)被廣泛使用,使得疫情防控部門(mén)可以第一時(shí)間獲取中高風(fēng)險(xiǎn)對(duì)象的特征、行程及其密切接觸對(duì)象等信息。

      第二,人工智能的預(yù)測(cè)分析能力可以輔助決策者識(shí)別政策執(zhí)行的目標(biāo)主體、重點(diǎn)對(duì)象和執(zhí)行方案,提高執(zhí)行的自動(dòng)化程度。在政策執(zhí)行過(guò)程中,哪些目標(biāo)群體是政策執(zhí)行的主要目標(biāo),執(zhí)行過(guò)程中哪些環(huán)節(jié)或領(lǐng)域可能出現(xiàn)問(wèn)題,針對(duì)不同的問(wèn)題,哪些執(zhí)行工具和方案更為有效,這些問(wèn)題都是決定政策執(zhí)行成敗的關(guān)鍵。人工智能基于對(duì)執(zhí)行中信息的分析,能夠精準(zhǔn)地預(yù)測(cè)哪些執(zhí)行問(wèn)題會(huì)出現(xiàn),出現(xiàn)的概率是多少,或者根據(jù)個(gè)體的社會(huì)經(jīng)濟(jì)特征和行為模式精準(zhǔn)識(shí)別政策的目標(biāo)群體及其行為,從而可以顯著提高執(zhí)行的精準(zhǔn)性和成功率。在交通領(lǐng)域,人工智能系統(tǒng)可以根據(jù)街頭實(shí)時(shí)反饋的路況數(shù)據(jù),預(yù)測(cè)道路擁堵程度,從而自動(dòng)變換紅綠燈,減輕交通擁堵程度,減少行人車(chē)輛等待時(shí)間。

      (四)人工智能與政策評(píng)估

      政策評(píng)估是政策執(zhí)行中的動(dòng)態(tài)信息或執(zhí)行完成后對(duì)績(jī)效與結(jié)果的評(píng)價(jià)和反饋活動(dòng)。在公共決策環(huán)節(jié)中,對(duì)政策績(jī)效進(jìn)行評(píng)估一直是一個(gè)難題,主要的障礙是政策績(jī)效信息難以測(cè)量或難以搜集和處理,而且缺少科學(xué)準(zhǔn)確的評(píng)估方法。此外,政策評(píng)估也是一個(gè)政治行為,某些部門(mén)為了避免被追究責(zé)任,保持組織穩(wěn)定而刻意使政策目標(biāo)模糊而難以測(cè)量,使得政策評(píng)估流于形式(Hood,2002)。在大數(shù)據(jù)時(shí)代,人工智能算法可以有效緩解由于信息短缺、監(jiān)控?zé)o力以及部門(mén)利益等因素導(dǎo)致的政策評(píng)估難題。人工智能可以廣泛用于對(duì)于政策執(zhí)行實(shí)時(shí)數(shù)據(jù)的反饋和政策執(zhí)行效果的監(jiān)控與預(yù)測(cè),在解決績(jī)效信息獲取和測(cè)量難題方面上具有獨(dú)特的優(yōu)勢(shì)。一方面,人工智能的大數(shù)據(jù)處理能力將幫助決策者第一時(shí)間獲取政策執(zhí)行的實(shí)時(shí)數(shù)據(jù),實(shí)現(xiàn)持續(xù)的政策評(píng)估。人工智能對(duì)執(zhí)行系統(tǒng)的反饋數(shù)據(jù)、外部的新聞報(bào)道、社交媒體等數(shù)據(jù)的挖掘,可以幫助決策者迅速發(fā)現(xiàn)政策執(zhí)行走樣現(xiàn)象,監(jiān)測(cè)到官員的違規(guī)行為或執(zhí)行目標(biāo)的違背政策行為,極大地促進(jìn)了對(duì)政策實(shí)施效果進(jìn)行實(shí)時(shí)評(píng)估。另一方面,決策者利用人工智能算法對(duì)政策實(shí)施效果進(jìn)行精準(zhǔn)預(yù)測(cè),政策實(shí)施后把人工智能的預(yù)測(cè)結(jié)果和實(shí)際結(jié)果進(jìn)行比較,評(píng)估政策預(yù)測(cè)結(jié)果的實(shí)現(xiàn)程度。在教育領(lǐng)域,美國(guó)華盛頓哥倫比亞特區(qū)利用教師績(jī)效評(píng)估系統(tǒng)(IMPACT),基于教師教學(xué)技巧、行為管理和學(xué)生成績(jī)的9 個(gè)績(jī)效指標(biāo),利用人工智能算法預(yù)測(cè)和評(píng)估教師工作績(jī)效并進(jìn)行打分(Cameron,2017)。

      盡管對(duì)政策過(guò)程四個(gè)階段的劃分和論述有助于啟發(fā)我們理解政策過(guò)程的基本面貌和要素,但是實(shí)際的政策過(guò)程中各個(gè)環(huán)節(jié)都呈現(xiàn)交叉融合、高度互動(dòng)和循環(huán)往復(fù)的特征(Sabatier,1999)。首先,政策執(zhí)行與政策評(píng)估相互融合交織,執(zhí)行過(guò)程中決策者時(shí)刻關(guān)注政策效果,對(duì)政策實(shí)施情況進(jìn)行實(shí)時(shí)監(jiān)督與評(píng)估。其次,政策執(zhí)行、政策評(píng)估與政策制定環(huán)節(jié)也密不可分,決策者通過(guò)對(duì)政策執(zhí)行的監(jiān)控和對(duì)政策效果的評(píng)估,不間斷地調(diào)整和改變政策目標(biāo)和政策方案,對(duì)政策方案進(jìn)行再制定。最后,政策方案制定環(huán)節(jié)與政策議程設(shè)置環(huán)節(jié)也是循環(huán)往復(fù)、來(lái)回互動(dòng)的,政策方案的設(shè)計(jì)、政策工具的選擇在很大程度上取決于政策問(wèn)題的界定和利益相關(guān)方對(duì)議程設(shè)置的影響,當(dāng)問(wèn)題界定發(fā)生變化時(shí),政策方案也會(huì)被重新設(shè)計(jì)。由于現(xiàn)實(shí)政策過(guò)程具有非線性的來(lái)回往復(fù)、互動(dòng)互構(gòu)屬性,算法驅(qū)動(dòng)的公共決策過(guò)程也呈現(xiàn)上述特征。一些政府部門(mén)利用人工智能技術(shù)對(duì)包括社交媒體在內(nèi)的互聯(lián)網(wǎng)使用者發(fā)帖和評(píng)論大數(shù)據(jù)的搜集和處理,可以第一時(shí)間評(píng)判政策執(zhí)行過(guò)程中公眾的意見(jiàn)和反饋的問(wèn)題,為決策者調(diào)整政策或執(zhí)行方式提供支持,這一過(guò)程就包含了政策執(zhí)行、評(píng)估和政策再制定等內(nèi)容。我國(guó)部分省份扶貧與農(nóng)業(yè)資金管理的“互聯(lián)網(wǎng)+ 監(jiān)察”平臺(tái)通過(guò)對(duì)資金直接發(fā)放的數(shù)據(jù)進(jìn)行脫敏和分類(lèi)處理后,在數(shù)據(jù)平臺(tái)上統(tǒng)一公布,最大限度地對(duì)社會(huì)公開(kāi),公眾可以直接在平臺(tái)上查詢自己和他人的補(bǔ)貼信息,對(duì)于不恰當(dāng)或違法的資金使用情況進(jìn)行投訴和舉報(bào)(鄔彬、肖漢宇,2020),這個(gè)人工智能算法平臺(tái)同時(shí)實(shí)現(xiàn)了政策執(zhí)行監(jiān)控和政策效果評(píng)估的目的。

      三、人工智能算法決策的風(fēng)險(xiǎn)

      盡管人工智能算法決策極大地提高了公共決策的技術(shù)理性,然而,現(xiàn)實(shí)中人工智能算法并不完美,存在著算法偏差、偏見(jiàn)和不透明等風(fēng)險(xiǎn),對(duì)公共決策循環(huán)的各階段都可能帶來(lái)不同程度的威脅,對(duì)公共決策的公正、公開(kāi)等公共價(jià)值產(chǎn)生潛在的危害,從而導(dǎo)致不可忽視的政治社會(huì)問(wèn)題。

      (一)問(wèn)題界定與政策議程設(shè)置階段的算法風(fēng)險(xiǎn)

      在這一階段,人工智能引發(fā)的決策風(fēng)險(xiǎn)主要體現(xiàn)為數(shù)據(jù)自身的偏差以及人為操縱問(wèn)題引發(fā)的預(yù)測(cè)失敗和偏誤,由此導(dǎo)致問(wèn)題界定與政策議程設(shè)置的偏離與錯(cuò)誤。人工智能算法的大數(shù)據(jù)處理和預(yù)測(cè)分析技術(shù)都強(qiáng)烈依賴(lài)歷史訓(xùn)練數(shù)據(jù)的特征和模式,歷史數(shù)據(jù)的偏差和偏見(jiàn)很可能導(dǎo)致人工智能數(shù)據(jù)處理和預(yù)測(cè)分析結(jié)果的偏誤。在問(wèn)題界定時(shí),決策者利用人工智能處理相關(guān)數(shù)據(jù),分析并預(yù)測(cè)問(wèn)題的形式及其成因,然而即使是大數(shù)據(jù)也未必能反映數(shù)據(jù)的全貌,大數(shù)據(jù)的代表性有時(shí)反而不如抽樣數(shù)據(jù)。特別是當(dāng)前的人工智能使用的大數(shù)據(jù)多是來(lái)源于包括社交媒體在內(nèi)的互聯(lián)網(wǎng)和傳統(tǒng)新聞媒體,這些數(shù)據(jù)背后的用戶分布不具有人口統(tǒng)計(jì)學(xué)上的代表性,利用這些大數(shù)據(jù)做出的問(wèn)題界定和公眾態(tài)度分析很可能是不真實(shí)的。更嚴(yán)重的是,部分社交媒體的公眾態(tài)度與意見(jiàn)也是不穩(wěn)定的,很容易受到一些突發(fā)事件、媒體傾向性報(bào)告的影響,或者受到部分意見(jiàn)領(lǐng)袖輿論操縱與網(wǎng)絡(luò)事件的積極參與者策略性發(fā)聲的干擾,這時(shí)經(jīng)過(guò)人工智能分析后進(jìn)行的問(wèn)題界定和提出的政策議題很可能偏離真實(shí)的公眾偏好,甚至反映的是部分人群和特殊利益集團(tuán)的偏好。其中一個(gè)典型的現(xiàn)象是網(wǎng)絡(luò)上假新聞和煽動(dòng)性信息的泛濫,不僅加劇了社會(huì)分裂與政治沖突,而且容易操縱公眾態(tài)度,誤導(dǎo)政府決策行為。②

      (二)政策方案設(shè)計(jì)與決策階段的算法風(fēng)險(xiǎn)

      在政策方案設(shè)計(jì)與決策階段,人工智能算法決策的主要風(fēng)險(xiǎn)表現(xiàn)為兩個(gè)方面:一是政策方案受人為輿論操縱而形成虛假支持,導(dǎo)致政策方案“劣幣驅(qū)逐良幣”;二是人工智能算法預(yù)測(cè)的巨大偏差導(dǎo)致政策方案失敗引發(fā)的政治社會(huì)風(fēng)險(xiǎn)。首先,政策方案設(shè)計(jì)階段同樣可能出現(xiàn)虛假公共輿論或公眾輿論被人為操縱的問(wèn)題。一些政治團(tuán)體、極端組織或者特殊利益團(tuán)隊(duì)可能利用人工智能技術(shù)自動(dòng)生成虛假或欺騙性信息,傳播極端仇視性言論攻擊不利于其自身的政策方案,或竭力鼓吹符合自身利益的政策方案,進(jìn)而誘導(dǎo)公眾輿論導(dǎo)向,推動(dòng)或阻止立法通過(guò)某些政策方案。③其次,人工智能對(duì)政策方案成本收益與政策實(shí)施效果的預(yù)評(píng)估也很可能出現(xiàn)偏差。一些人工智能算法基于陳舊的數(shù)據(jù),或者有偏誤的歷史數(shù)據(jù),提出的政策方案本身就是有偏差的,或者只適用于特定場(chǎng)景和國(guó)情下的政策問(wèn)題,面臨新政策環(huán)境時(shí)很可能無(wú)法產(chǎn)生作用。在人工智能醫(yī)療領(lǐng)域,沃森腫瘤人工智能治療方案就受到很多非議,批評(píng)者認(rèn)為沃森腫瘤人工智能診療主要是基于醫(yī)學(xué)期刊文章和專(zhuān)家提出的虛擬案例建立預(yù)測(cè)模型,訓(xùn)練數(shù)據(jù)中很少有現(xiàn)實(shí)的腫瘤診療病例,這就導(dǎo)致沃森腫瘤人工智能系統(tǒng)很可能無(wú)法給出準(zhǔn)確的方案,甚至給出的治療建議與標(biāo)準(zhǔn)化的治療指南相沖突(Ross&Swetlitzi,2017)。

      (三)政策執(zhí)行階段的算法風(fēng)險(xiǎn)

      在政策執(zhí)行環(huán)節(jié),人工智能算法決策的風(fēng)險(xiǎn)主要體現(xiàn)在由于存在算法偏差和“黑箱”問(wèn)題而產(chǎn)生的執(zhí)行偏差與失敗,引發(fā)公共政策合法性危機(jī)。盡管人工智能算法通過(guò)不斷改進(jìn)數(shù)據(jù)質(zhì)量,調(diào)整模型參數(shù)和更換更高級(jí)的算法能夠提高預(yù)測(cè)的準(zhǔn)確率,但是預(yù)測(cè)誤差和失誤總是難免,沒(méi)有一個(gè)算法的預(yù)測(cè)準(zhǔn)確率是100%。如果輸入模型的數(shù)據(jù)本身有著系統(tǒng)性偏差,那么就會(huì)給模型預(yù)測(cè)結(jié)果帶來(lái)極大的偏誤。在政策執(zhí)行過(guò)程中,有偏誤的人工智能系統(tǒng)可能會(huì)對(duì)政策目標(biāo)群體識(shí)別失敗,產(chǎn)生假陽(yáng)性和假陰性兩類(lèi)誤差問(wèn)題。假陽(yáng)性誤差使得執(zhí)行者把不符合政策特征的錯(cuò)誤對(duì)象當(dāng)作正確對(duì)象處理,導(dǎo)致政策執(zhí)行成本上升或政策資源的浪費(fèi)。假陰性誤差則會(huì)把正確的政策對(duì)象排除在外,導(dǎo)致政策執(zhí)行嚴(yán)重扭曲甚至失敗。人工智能導(dǎo)致在政策執(zhí)行中產(chǎn)生假陰性誤差并不少見(jiàn)。在衛(wèi)生領(lǐng)域,從2009年到2018年,英國(guó)國(guó)家健康系統(tǒng)的乳腺癌篩查調(diào)度軟件出現(xiàn)預(yù)測(cè)誤差,導(dǎo)致約45 萬(wàn)名68 歲到71 歲的女性失去了最后一次進(jìn)行乳腺癌檢查的機(jī)會(huì),其結(jié)果可能致使135人到270人提前死亡(Charette,2018)。

      算法決策的“黑箱”和不透明特征使得政策執(zhí)行缺少透明性和參與性,損害了政策執(zhí)行的合法性。政策執(zhí)行具有合法性的前提除了政策的有效性外,另外一個(gè)重要原則是保證過(guò)程的公開(kāi)公平和民主參與。在官僚體制的技術(shù)理性主導(dǎo)下,政策執(zhí)行的透明性和參與性已經(jīng)遭到很大的削弱。然而人工智能算法的“黑箱”特征使得算法決策面臨更加顯著的決策不透明、責(zé)任不清晰、問(wèn)責(zé)難度大的困境。首先,復(fù)雜精巧的人工智能算法本身就是一個(gè)“黑箱”(Burrell,2016)。盡管使用者知道算法預(yù)測(cè)結(jié)果和準(zhǔn)確度,但是由于模型擬合過(guò)程涉及大量變量和數(shù)據(jù),預(yù)測(cè)因子和結(jié)果之間缺少因果聯(lián)系,預(yù)測(cè)過(guò)程往往太過(guò)復(fù)雜而難以直觀理解。算法決策的“黑箱”特征一方面導(dǎo)致政府部門(mén)使用者只能選擇相信算法的準(zhǔn)確性和公正性,使得算法決策無(wú)法得到有效監(jiān)督和及時(shí)糾正。另一方面,對(duì)于政策目標(biāo)群體,由于政府部門(mén)無(wú)法解釋算法決策過(guò)程,公眾當(dāng)然也不能理解算法決策的正當(dāng)性,這就導(dǎo)致算法決策難以獲得公眾的支持和信任。其次,人工智能算法決策可能使得執(zhí)行失誤的責(zé)任歸屬難以界定,加大公眾問(wèn)責(zé)的難度。當(dāng)前公共決策算法機(jī)器系統(tǒng)都是由第三方公司開(kāi)發(fā)維護(hù),一旦發(fā)生由算法失靈而導(dǎo)致的決策失誤,就可能引發(fā)重大社會(huì)問(wèn)題和損失,責(zé)任追究和政治問(wèn)責(zé)將面臨更大的難度。政府部門(mén)可能將責(zé)任推給算法和算法開(kāi)發(fā)公司,算法開(kāi)發(fā)公司則以商業(yè)秘密為由拒絕公開(kāi)接受外部審查,其結(jié)果使得問(wèn)責(zé)過(guò)程漫長(zhǎng)而難以產(chǎn)生定論。英國(guó)乳腺癌篩查漏檢丑聞發(fā)生后,英國(guó)國(guó)家衛(wèi)生醫(yī)療服務(wù)體系(NHS)、公共衛(wèi)生局(PHE)以及負(fù)責(zé)軟件開(kāi)發(fā)的日立咨詢公司都在相互指責(zé)對(duì)方(Donnelly,2018)。

      (四)政策評(píng)估的算法風(fēng)險(xiǎn)

      在政策評(píng)估環(huán)節(jié),算法決策的主要風(fēng)險(xiǎn)來(lái)自評(píng)估中存在的算法歧視和偏差問(wèn)題。盡管人工智能基于其大數(shù)據(jù)挖掘和生成能力能夠?qū)崟r(shí)獲取政策執(zhí)行信息,但是人工智能系統(tǒng)獲取的執(zhí)行信息并不總是公正和準(zhǔn)確的。人工智能算法最主要的偏見(jiàn)可能源于數(shù)據(jù)本身。一方面,可能由于數(shù)據(jù)樣本較小,訓(xùn)練集數(shù)據(jù)與整體數(shù)據(jù)分布存在較大的偏差,使得使用訓(xùn)練集擬合的模型無(wú)法對(duì)樣本外未知數(shù)據(jù)進(jìn)行準(zhǔn)確的預(yù)測(cè)。另一方面,即使樣本數(shù)據(jù)量夠大,但是數(shù)據(jù)集也可能出現(xiàn)歷史遺留的數(shù)據(jù)偏誤問(wèn)題。人工智能模型基于歷史數(shù)據(jù)做出預(yù)測(cè),由于政治社會(huì)體制、人類(lèi)決策和文化中的既有偏誤,有些歷史數(shù)據(jù)本身就是高度不平衡的。數(shù)據(jù)集存在的不平衡性使得某類(lèi)群體數(shù)據(jù)在樣本中被過(guò)度代表,而其他類(lèi)型的群體則代表性不足,導(dǎo)致在預(yù)測(cè)模型中,某些預(yù)測(cè)因子偏向于某類(lèi)群體,典型的例子就是人工智能算法中存在種族和性別偏見(jiàn)問(wèn)題。很多美國(guó)法院使用北角(Northpointe)公司基于人工智能算法設(shè)計(jì)的犯罪風(fēng)險(xiǎn)評(píng)估系統(tǒng)(Criminal Risk Assess?ment)預(yù)測(cè)犯罪行為。然而,2016年,知名的非營(yíng)利媒體“為了人民”(ProPublica)調(diào)查發(fā)現(xiàn),美國(guó)一些法院使用這套系統(tǒng)預(yù)測(cè)犯罪風(fēng)險(xiǎn)和法庭對(duì)犯罪嫌疑人進(jìn)行保釋和量刑決策時(shí),認(rèn)為黑人比白人再次犯罪的概率更高,這種不利于有色人種的人工智能犯罪風(fēng)險(xiǎn)評(píng)估在美國(guó)司法系統(tǒng)里越來(lái)越普遍。④導(dǎo)致預(yù)測(cè)偏見(jiàn)的根源是美國(guó)歷史上犯罪和再犯罪統(tǒng)計(jì)中黑人等有色人種比例過(guò)高,美國(guó)司法體系對(duì)黑人等有色人種的歧視問(wèn)題十分突出(Angwin et al.,2016)。

      此外,一些程序性的行政任務(wù)執(zhí)行過(guò)程比較簡(jiǎn)單,人工智能評(píng)估可以保證較高的準(zhǔn)確性和公正性,但是對(duì)于政策績(jī)效難以測(cè)量的活動(dòng),人工智能評(píng)估系統(tǒng)難以做到準(zhǔn)確可靠,再加上決策者和政策執(zhí)行者的偏好,以及利益相關(guān)者的機(jī)會(huì)主義行為導(dǎo)致的政策執(zhí)行過(guò)程的扭曲和偏差,使一些偏誤和虛假的信息大量涌現(xiàn),從而使得人工智能在政策評(píng)估時(shí)發(fā)生偏差。在教育領(lǐng)域,2011年美國(guó)休斯敦市獨(dú)立學(xué)區(qū)利用算法模型“教育增值評(píng)價(jià)系統(tǒng)”,根據(jù)學(xué)生的標(biāo)準(zhǔn)化測(cè)試成績(jī)來(lái)決定教師的獎(jiǎng)金,隨后學(xué)區(qū)還進(jìn)一步使用這一算法來(lái)決定教師的聘用,此舉引發(fā)了教師工會(huì)的強(qiáng)烈不滿。他們認(rèn)為該系統(tǒng)評(píng)估、評(píng)價(jià)的學(xué)生標(biāo)準(zhǔn)化成績(jī)并不能完全反映教師的工作投入,而且決定學(xué)生成績(jī)的因素很多,有些是教師無(wú)法掌控的,因此該系統(tǒng)的評(píng)估結(jié)果既不準(zhǔn)確也不公平。后來(lái)經(jīng)過(guò)評(píng)估,發(fā)現(xiàn)這一系統(tǒng)的預(yù)測(cè)過(guò)程不僅難以解釋?zhuān)医Y(jié)果也不精確,法院最終推翻了該算法的決策(Zeph,2017)。

      四、政策建議

      基于對(duì)人工智能驅(qū)動(dòng)公共決策過(guò)程及其風(fēng)險(xiǎn)的論述,本文對(duì)公共決策者如何合理利用人工智能技術(shù)提高公共決策的有效性,同時(shí)規(guī)避算法決策的潛在風(fēng)險(xiǎn),提出相應(yīng)的政策建議。

      (一)合理選擇算法決策與常規(guī)決策

      在公共決策系統(tǒng)中,根據(jù)算法對(duì)決策過(guò)程主導(dǎo)性的高低,算法決策和人類(lèi)常規(guī)決策之間的關(guān)系及其互動(dòng)形態(tài)主要呈現(xiàn)以下三種模式(Zouri?dis,van Eck&Bovens,2020):第一種是算法自主決策模式。這類(lèi)模式中,算法取代人類(lèi)常規(guī)決策,決策過(guò)程完全自動(dòng)化,人類(lèi)決策者幾乎沒(méi)有自由裁量空間,近乎聽(tīng)命于算法。這類(lèi)模式的典型形式如對(duì)城市道路等市政設(shè)施壞損的智能監(jiān)控與預(yù)警。第二種模式是算法輔助模式,算法在公共決策中發(fā)揮著重要作用,對(duì)人類(lèi)常規(guī)決策起到輔助和支持作用。但是,人類(lèi)常規(guī)決策仍然是主導(dǎo)性的,人類(lèi)決策者對(duì)算法輔助過(guò)程保持著獨(dú)立的判斷、干預(yù)和控制。當(dāng)下,算法輔助模式應(yīng)用范圍越來(lái)越廣泛,除了一些公共安全和應(yīng)急管理決策,如火警、犯罪熱點(diǎn)地區(qū)、安全衛(wèi)生檢測(cè)外,還進(jìn)一步發(fā)展到對(duì)公民社會(huì)權(quán)利和資格的分配領(lǐng)域,如社會(huì)救助對(duì)象界定、疾病預(yù)測(cè)、考試成績(jī)判定、教師績(jī)效評(píng)估等。第三種模式可以被稱(chēng)為算法咨詢模式。這個(gè)模式里,算法對(duì)公共決策是可有可無(wú)的,算法介入決策的程度不深,大多情況是在數(shù)據(jù)收集過(guò)程中被選擇性地使用。算法對(duì)人類(lèi)常規(guī)決策只起到?jīng)Q策咨詢的作用,如提供相關(guān)數(shù)據(jù)信息,算法預(yù)測(cè)的結(jié)果也只是作為人類(lèi)常規(guī)決策的參考,并不會(huì)對(duì)人類(lèi)決策起到?jīng)Q定性作用或重要的輔助作用。

      上述三種決策模式的選擇主要取決于決策任務(wù)和場(chǎng)景的特征。主流觀點(diǎn)認(rèn)為,人工智能在決策中的優(yōu)勢(shì)主要體現(xiàn)在高度重復(fù)性、機(jī)械性或日常性的行政程序性場(chǎng)景中,不需要官僚行使過(guò)多的自由裁量權(quán)和進(jìn)行價(jià)值判斷(Bullock,2019)。這類(lèi)決策場(chǎng)景任務(wù)相對(duì)簡(jiǎn)單直觀,有一套固定的決策程序,同時(shí)能夠產(chǎn)生海量的具有重復(fù)性行政大數(shù)據(jù),數(shù)據(jù)間關(guān)系也易于理解,從而有利于發(fā)揮人工智能大數(shù)據(jù)生成和預(yù)測(cè)分析能力,因此比較適合算法主導(dǎo)和算法輔助的決策模式。在公共政策過(guò)程的幾個(gè)環(huán)節(jié)中,相對(duì)而言,事務(wù)性問(wèn)題界定和程序性政策執(zhí)行階段更適合算法主導(dǎo)模式。但是,另一方面,在一些具有高度復(fù)雜性的,需要較多自由裁量權(quán)、價(jià)值判斷和靈活處理的政策制定、執(zhí)行和評(píng)價(jià)等政策過(guò)程,人工智能就不擅長(zhǎng)了。一項(xiàng)研究表明,政府決策者對(duì)待算法決策的態(tài)度隨著決策任務(wù)復(fù)雜性的增加而趨向消極,決策復(fù)雜性越高,決策者對(duì)算法決策的認(rèn)可度就越低(Nagtegaal,2021)。在高度復(fù)雜的任務(wù)中,人類(lèi)決策應(yīng)該是主導(dǎo)性的。此外,公共政策制定過(guò)程除了要求有提高效率,降低成本等技術(shù)理性外,更重要的是要遵守公正、公開(kāi)與合法性等公共價(jià)值原則。對(duì)于涉及價(jià)值判斷、社會(huì)鑒別和倫理評(píng)價(jià)等活動(dòng),如人的生命安全、人身自由、社會(huì)權(quán)利分配,應(yīng)該避免由算法主導(dǎo)決策。在這些領(lǐng)域,公眾更加偏好常規(guī)性的官僚決策或公眾參與政策制定,對(duì)算法有著天然的不信任感和恐懼心理,任何微小的人工智能預(yù)測(cè)偏差都可能引發(fā)公眾的強(qiáng)烈不滿和政治爭(zhēng)議??傊?,應(yīng)避免對(duì)人工智能技術(shù)及其推動(dòng)的算法決策的迷信,審慎決定哪些類(lèi)型的公共政策的決策適用于人工智能技術(shù),平衡算法決策和人類(lèi)常規(guī)決策的關(guān)系,實(shí)現(xiàn)算法決策和人類(lèi)決策各就其位,各得其所,通過(guò)相互協(xié)調(diào)和配合提高公共決策的效率和合法性。

      (二)建立參與式的算法決策框架

      在算法驅(qū)動(dòng)的公共決策各個(gè)環(huán)節(jié)中加強(qiáng)公共參與,建立參與式的算法決策框架。公共決策的本質(zhì)特征在于“公共”,公共的價(jià)值觀包括決策結(jié)果的公平公正,以及決策過(guò)程的公開(kāi)和公眾參與。算法驅(qū)動(dòng)的公共決策過(guò)程也應(yīng)該尊崇上述公共決策的基本價(jià)值觀。針對(duì)算法決策中存在的“黑箱”和歧視問(wèn)題,公開(kāi)與公眾參與理應(yīng)占據(jù)更重要的角色。算法決策各個(gè)環(huán)節(jié)的公眾參與也是避免人工智能算法決策風(fēng)險(xiǎn)的關(guān)鍵。因此,本文倡導(dǎo)建立參與式的算法決策框架,這個(gè)框架應(yīng)該包括以下幾個(gè)要素:第一,要吸納政策相關(guān)者和利益主體參與算法的設(shè)計(jì),算法決策方案的制定和選擇過(guò)程中。為了避免因數(shù)據(jù)偏見(jiàn)和偏差問(wèn)題而導(dǎo)致的問(wèn)題界定和議程設(shè)置的偏離和謬誤,應(yīng)通過(guò)大規(guī)模公眾調(diào)查、代表性利益相關(guān)方的訪談與協(xié)商懇談會(huì)等民主參與方式進(jìn)行算法設(shè)計(jì)和構(gòu)建,并提高算法的公開(kāi)性和透明性,如通過(guò)協(xié)商或投票等公眾參與方式來(lái)確定算法應(yīng)該使用的特征集。第二,算法決策的結(jié)果在政策方案制定或?qū)嵤┣?,?yīng)該向社會(huì)公開(kāi),接受公眾和利益相關(guān)方的意見(jiàn)和反饋,最后再?zèng)Q定是否采用或?qū)嵤?。在條件允許的情況下,將算法決策提供的方案和人類(lèi)決策制定的方案進(jìn)行比較,涉及敏感的權(quán)利分配決策時(shí),要看算法決策是否比人類(lèi)決策更能促進(jìn)分配的公平性。第三,由于算法存在的偏差或失誤可能引發(fā)政策執(zhí)行的偏差與失敗風(fēng)險(xiǎn),應(yīng)在政策執(zhí)行過(guò)程中建立公眾參與和干預(yù)機(jī)制。本文建議建立人工智能研究人員與社會(huì)科學(xué)、人文、性別、醫(yī)學(xué)、環(huán)境和法律等方面的專(zhuān)家進(jìn)行合作交流的制度體系,如在政府或公司層面建立人工智能倫理委員會(huì),委員會(huì)成員由各領(lǐng)域?qū)<?、企業(yè)和政府人士構(gòu)成,對(duì)算法系統(tǒng)進(jìn)行政治與倫理審查。當(dāng)決定使用人工智能進(jìn)行公共決策時(shí),除了政府決策者和算法設(shè)計(jì)者,利益相關(guān)者和公眾都應(yīng)該有權(quán)利和機(jī)會(huì)監(jiān)控人工智能算法決策運(yùn)作全過(guò)程,特別要警惕模型可能產(chǎn)生的偏見(jiàn)、歧視和不公平問(wèn)題。在問(wèn)題和風(fēng)險(xiǎn)產(chǎn)生時(shí)決策者應(yīng)及時(shí)進(jìn)行干預(yù),并且為受到不公正待遇的群體提供權(quán)利救濟(jì)。

      注釋?zhuān)?/p>

      ①姚春鴿:《大數(shù)據(jù)時(shí)代的大變革》,載《人民郵電報(bào)》2012年5月29日,第2版。

      ②一個(gè)典型的例子是2016年美國(guó)大選期間“劍橋分析”這一政治人工智能公司,利用5000 萬(wàn)臉書(shū)(Facebook)用戶信息進(jìn)行人工智能分析與預(yù)測(cè),分析這些用戶的心理特征和政治偏好,并進(jìn)而推動(dòng)定制政治廣告和新聞,從而影響用戶的投票行為。

      ③除了劍橋分析公司的事例外,近年出現(xiàn)了一種名為“深度偽造”(deepfake)的人工智能換臉技術(shù)可以逼真?zhèn)卧炷承╊I(lǐng)導(dǎo)人的視頻和語(yǔ)音信息,極大提高虛假信息的可信度,使其影響力瞬間被千萬(wàn)倍擴(kuò)大,獲得大量公眾關(guān)注,進(jìn)而操縱公眾情緒,引發(fā)社會(huì)混亂從而達(dá)到某些特殊目的。

      ④美國(guó)司法部原部長(zhǎng)埃里克·霍爾德就警告基于人工智能預(yù)測(cè)的犯罪概率評(píng)分系統(tǒng)可能會(huì)誤導(dǎo)法庭判決,他說(shuō):“盡管該系統(tǒng)的設(shè)計(jì)出于善意,但是我擔(dān)心它會(huì)破壞個(gè)性化和公平正義,加劇在刑事司法系統(tǒng)和社會(huì)中已經(jīng)普遍存在的不公正問(wèn)題”(Angwin et al.,2016)。

      猜你喜歡
      決策者議程決策
      熱浪滾滾:新興市場(chǎng)決策者竭力應(yīng)對(duì)通脹升溫 精讀
      為可持續(xù)決策提供依據(jù)
      德國(guó)《2010議程》議會(huì)辯論的話語(yǔ)分析
      第六屆全球深商大會(huì)議程
      決策為什么失誤了
      “最關(guān)鍵”的施工力量——決策者、執(zhí)行者與實(shí)施者
      G20為推動(dòng)落實(shí)2030年可持續(xù)發(fā)展議程注入新動(dòng)力
      會(huì)面議程
      臺(tái)聲(2015年22期)2015-02-01 10:01:46
      決策者聲望尋求行為、團(tuán)隊(duì)努力與團(tuán)隊(duì)績(jī)效
      軟科學(xué)(2014年8期)2015-01-20 15:36:56
      充耳不聞與從諫如流:建議采擇研究述評(píng)
      那坡县| 阜宁县| 澜沧| 西林县| 普定县| 徐州市| 镇巴县| 宜州市| 谷城县| 益阳市| 哈尔滨市| 壤塘县| 维西| 左云县| 黄山市| 双柏县| 依安县| 荔浦县| 玉环县| 罗江县| 岳普湖县| 开原市| 东山县| 和田县| 乌拉特中旗| 含山县| 齐河县| 裕民县| 新宾| 伊宁县| 绥德县| 南漳县| 通榆县| 建宁县| 高安市| 齐河县| 旅游| 葵青区| 开平市| 栾川县| 冷水江市|