柳亦博 高 潔 李軼倩
從目前信息技術(shù)的發(fā)展趨勢看,人類將生活在一個充滿人造智慧體的世界,這些智慧體未必以人形機(jī)器的物理形態(tài)顯現(xiàn),而是以智能助手的形象出現(xiàn)在手機(jī)、汽車、各類家電的信息推送中。當(dāng)前,對人工智能的研究是以大學(xué)和科研院所為主力,這使它作為一門計(jì)算機(jī)科學(xué)分支的屬性更加凸顯,但事實(shí)上,人工智能開發(fā)不僅需要技術(shù)的進(jìn)步,更需要相應(yīng)的哲學(xué)和人文社會科學(xué)同步發(fā)展。2017 年國務(wù)院印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,旨在搶抓人工智能發(fā)展的重大戰(zhàn)略機(jī)遇,構(gòu)筑我國人工智能發(fā)展的先發(fā)優(yōu)勢,為建設(shè)創(chuàng)新型國家和世界科技強(qiáng)國指明方向。同時,該規(guī)劃預(yù)示著人工智能將與政府治理進(jìn)行深度融合,行政部門將借助人工智能輔助決策來應(yīng)對高度復(fù)雜、高度不確定的后工業(yè)社會公共問題。基于此,我們應(yīng)對人工智能參與行政決策可能產(chǎn)生的諸種問題進(jìn)行深入探討,以便更公開透明地展示公共政策的邏輯,而非利用算法的復(fù)雜性和行政權(quán)力運(yùn)行的非公開性[1],將行政決策變成難以監(jiān)督的“黑箱”。算法對人的控制比傳統(tǒng)權(quán)威對人的控制更隱蔽、更細(xì)密,人工智能借助全面覆蓋社會各個領(lǐng)域的信息優(yōu)勢,通過高效的推送潛移默化地改變行政倫理的價值排序,進(jìn)而逐步取消傳統(tǒng)人類社會的倫理多樣性,將人統(tǒng)攝在算法編織的巨網(wǎng)中。本文的核心關(guān)切即從行政哲學(xué)角度討論人工智能參與公共決策可能產(chǎn)生的倫理風(fēng)險,并針對這些風(fēng)險提出應(yīng)對之道。
隨著大數(shù)據(jù)、云計(jì)算、認(rèn)知科學(xué)和機(jī)器學(xué)習(xí)的深度發(fā)展,人工智能技術(shù)的社會適應(yīng)性場域隨之?dāng)U大[2],以一種籠罩性的方式懸在社會之上。人類通過強(qiáng)調(diào)自身存在論的主權(quán),即強(qiáng)調(diào)每個人都是自己的邏輯起點(diǎn),不再需要?dú)v史的起點(diǎn),不再被歷史說明也不再被社會條件或他人的觀點(diǎn)說明[3](P7),迂回地宣示人工智能在存在論意義上的從屬地位。但人越強(qiáng)調(diào)自身存在論的主權(quán),強(qiáng)調(diào)每個人不再被歷史、社會和自然定義,所有人可以為自己選擇“最優(yōu)的”人的概念,反而令人工智能越有可能全面介入社會生活、獲取人類信息進(jìn)而幫助人成為兼具一切優(yōu)越功能的“超人”。智能設(shè)備源源不斷地向云端上傳著數(shù)據(jù),對這些數(shù)據(jù)的清洗和分析幫助人工智能全面覆蓋國家和社會的各個領(lǐng)域,最終算法的邏輯將取代人類傳統(tǒng)的集體行動邏輯。即便人們能夠察覺這個邏輯轉(zhuǎn)向,也很難阻止算法主導(dǎo)和控制社會,同時,聽從算法的建議去行動意味著,一切存在不再只是“我思”的對象,人不再是決策時唯一的主體,隨即人們會發(fā)現(xiàn)放棄自主選擇、聽從智能建議將成為一種新的理性,基于這一理性的人類認(rèn)知模式和組織模式將徹底改變。
西蒙將管理的實(shí)質(zhì)視為決策[4](P5),決策活動是現(xiàn)代行政組織的一項(xiàng)核心活動,行政組織的大量職能也是圍繞決策活動展開的。從效能合法性與權(quán)力合法性,即政府是否實(shí)現(xiàn)了有效的管理及是否具有管理社會的權(quán)力兩個角度考察行政決策。在傳統(tǒng)行政決策模式中,行政組織借助擇優(yōu)而任的選聘制度、依靠官員自身的管理才能,通過個人的直覺判斷和主觀經(jīng)驗(yàn)提出決策方案,實(shí)現(xiàn)決策的效能合法性;當(dāng)個人的倫理判斷和經(jīng)驗(yàn)抉擇受限而難以確保有效決策時,行政組織往往通過集體決策這種程序正義來試圖保證結(jié)果正義。然而,隨著人類社會進(jìn)入充滿風(fēng)險和不確定性的后工業(yè)社會,人類掌握的信息和科學(xué)決策所需要的信息差越來越大,“有限理性”問題凸顯。政治學(xué)和管理學(xué)發(fā)現(xiàn)依靠直覺作出的判斷時常失靈,在倫理學(xué)中,直覺主義因穩(wěn)定性較差而飽受批評??梢哉f,現(xiàn)代性基本宣告了直覺在決策領(lǐng)域等同于愚昧,將僅靠直覺和經(jīng)驗(yàn)的決策傳統(tǒng)及生產(chǎn)感性知識的相似性思維一并貼上了非理性的標(biāo)簽,而與之相對的分析性思維被賦予了一種代表理性的“光環(huán)”[5]。
算法受到這一影響,人工智能的五種主要算法流派中,主張所有信息都可簡化為操作符號和方程的符號學(xué)派、主張用計(jì)算模仿自然選擇的進(jìn)化學(xué)派和主張運(yùn)用概率推理解決不確定性問題的貝葉斯學(xué)派,因更接近分析性思維的特征而被行政組織承認(rèn)和接納。與之相反,主張學(xué)習(xí)人腦神經(jīng)元連接的聯(lián)結(jié)學(xué)派和主張?jiān)诓煌瑘鼍爸姓覍は嗨菩缘念愅茖W(xué)派,則因更接近相似性思維而遭到拋棄[6](P66)。符號學(xué)派、進(jìn)化學(xué)派和貝葉斯學(xué)派三種算法的一個共有問題是,它們在幫助行政組織追求理性選擇時會表現(xiàn)出強(qiáng)烈的功利主義傾向。當(dāng)功利主義被應(yīng)用于整個社會層面的幸福計(jì)算時,就需要計(jì)算不同人之間不同性質(zhì)的快樂與痛苦,并執(zhí)行能使眾人的快樂總量減去痛苦總量所得到的數(shù)值最大的選項(xiàng),這對算力的要求已經(jīng)遠(yuǎn)遠(yuǎn)超出了人腦的極限,只能由大數(shù)據(jù)和行政權(quán)力雙重加持下的人工智能去實(shí)現(xiàn)。
隨著人工智能與行政組織的深度嵌合,人工智能的發(fā)展恰好為傳統(tǒng)的行政決策模式的改進(jìn)提供了技術(shù)支持。當(dāng)前人工智能發(fā)展較好的國家,都已在公共決策中將其智能建議吸納進(jìn)來——人工智能不僅可以提升現(xiàn)代公共行政的服務(wù)效率和質(zhì)量,同時算法能在很大程度上重塑公共價值。首先,人工智能借助大數(shù)據(jù)和機(jī)器學(xué)習(xí),能夠精準(zhǔn)識別某一群體甚至個體的需求,成為預(yù)判和矯正“理性無知”的可行機(jī)制,這是以犧牲部分隱私為代價獲得的社會秩序的穩(wěn)定和政府公共責(zé)任的實(shí)現(xiàn)。其次,人工智能以大數(shù)據(jù)為基礎(chǔ),在復(fù)雜的環(huán)境和海量的數(shù)據(jù)場景中尋找數(shù)據(jù)之間的相關(guān)性,連續(xù)為決策制定提供支持,確實(shí)能夠加強(qiáng)政府回應(yīng)公共需求的能力。算法的計(jì)算本質(zhì)使其在面對復(fù)雜公共事務(wù)時,能夠穩(wěn)定地借助功利主義倫理避免陷入多元價值沖突,這在提高行政決策效率方面效果顯著。然而,更快就意味著更好嗎?在普遍對效率崇拜的時代,這是一個需要反思的大問題?!靶省眱H僅是行政組織追求的眾多公共價值之一,它在優(yōu)先性排序上并不突出,在政府決策的多數(shù)情境中,“公平”“自由”等價值都要優(yōu)于“效率”。行政組織追求的效率原指盡可能地利用稀缺資源以實(shí)現(xiàn)有價值的公共目標(biāo),但在人工智能介入公共決策后,算法的效率追求偏離了原本的理性目標(biāo),效率不再是實(shí)現(xiàn)有價值目的之方式,而是成為人們的目的和崇拜對象,這意味著效率本身被算法賦予了新價值,成為一種被價值化的大寫的“效率”。
從契約理論的視角看,政府代行公權(quán)力的基礎(chǔ)之一是社會共同體擁有足夠的基本共識,進(jìn)而使政治權(quán)力獲得構(gòu)建制度的力量[7]。但是,社會存在基本共識并不等于社會價值的一致性,也不等于價值排序的同一性,因?yàn)槟骋粌r值的重要程度是因人而異且隨著時間變化的。一個人的價值觀念總是難以跳出他所處的那個時代的局限性,社會主流價值觀的變化很大程度上會令一個人的價值觀念同步變化。價值排序存在差異,意味著人們在面對相同情境時,對各種價值理念按照優(yōu)先次序進(jìn)行排列選擇的結(jié)果大相徑庭。對于政府而言,由于大量公共價值難以公度或化約,在面對價值和原則沖突時就難以確定何者優(yōu)先,甚至很難從過去的經(jīng)驗(yàn)中快速篩選出相關(guān)信息以資參考,這就難免會令政府陷入諸如“平等”與“自由”、“效率”與“公平”、“尊重個體”與“關(guān)注集體”等各種各樣的決策困境,這些困境的本質(zhì)是“倫理兩難”。行政組織需要在幾乎同樣重要的多種價值中作出選擇,人們不僅希望這個選擇能夠?qū)崿F(xiàn)好的結(jié)果,同時要有教化社會的積極意義?;诖?,政府在充滿奇特問題的風(fēng)險社會選擇更多地依靠人工智能技術(shù)進(jìn)行公共決策,減少因價值分歧導(dǎo)致的行動遲滯,就是一種明智之舉而非懶政之舉。至少對于政府而言,事后為政策尋找解釋的難度遠(yuǎn)小于在兩難決策中快速作出判斷的難度。
行政倫理作為公共組織內(nèi)部的道德規(guī)范體系、行政人員應(yīng)遵循的原則性規(guī)范,主要用于指導(dǎo)行政組織的內(nèi)部成員的行為,同時進(jìn)行道德判斷。雖然理論上說,行政組織是在行政倫理的規(guī)束下開展行動的,但組織內(nèi)部的決策者依然擁有靈活的自由裁量空間,可以通過自身的價值排序和倫理判斷進(jìn)行抉擇。在人工智能技術(shù)全面介入公共決策后,對于算法倫理來說的“最優(yōu)選擇”未必與行政人員的“最善選擇”重合,不會陷入“倫理兩難”之中的算法可能對傳統(tǒng)行政倫理觀念形成挑戰(zhàn)。隨著技術(shù)的發(fā)展,當(dāng)人工智能逐漸進(jìn)入通用人工智能階段,即人造智慧體擁有可完成任何認(rèn)知任務(wù)且完成的至少和人類一樣好的能力時[8](P61),我們將無法保證行政人員依然擁有靈活的自由裁量空間,依然不被算法的無形規(guī)則所控制,更難以斷言彼時社會的主流倫理是一種朝向人與人平等共處的倫理。因此,我們有必要對人工智能介入行政決策可能引發(fā)的倫理危機(jī)及對行政倫理的影響進(jìn)行審慎反思。
行政組織是在反復(fù)遭遇“倫理兩難”的過程中漸進(jìn)把握、調(diào)整和改良自身價值觀念的,在面對各種兩難的決策中,行政倫理的指向是對相互沖突的價值進(jìn)行優(yōu)先排序的關(guān)鍵依據(jù)。行政決策是在行政倫理指導(dǎo)下的行為選擇,行政倫理的價值判斷是行政決策的基礎(chǔ)和前提,即表層行政決策的變化反映了深層以價值排序?yàn)楹诵牡男姓惱淼淖兓?。由于人工智能在政府決策領(lǐng)域應(yīng)用十分廣泛,并且數(shù)字治理準(zhǔn)則的更新速度較快、周期較短,直接討論人工智能對行政組織價值排序的影響可能導(dǎo)致研究內(nèi)容泛而不精、研究問題舍本逐末,因此,我們將研究聚焦在人工智能的“數(shù)據(jù)”“算法”和“算力”這三個最核心的基本要素上[9]。
人工智能不僅是一種覆蓋面廣、嵌入社會生活深的治理工具,同時在不斷通過機(jī)器學(xué)習(xí)進(jìn)行自我迭代,不斷接近一種具有行動能力的治理主體,這種類主體為行政部門提供的“智慧建議”也在不斷接近治理術(shù),而非僅僅是一種智庫式的政策參考。在海量數(shù)據(jù)面前,人類不得不借助人工智能處理大數(shù)據(jù),人工智能對行政決策確實(shí)起到了優(yōu)化的作用,但算法的邏輯因此蔓延到“計(jì)算領(lǐng)域”之外的公共空間,這是否會導(dǎo)致行政組織內(nèi)的工具理性被過度放大而價值理性遭到過度抑制?在借助人工智能改善行政決策的同時,我們應(yīng)當(dāng)關(guān)注哪些方面以考察那些可能出現(xiàn)的倫理危機(jī)?為此本研究將按照人工智能治理的基本要素,從數(shù)據(jù)、算法、算力三個方面討論“人工智能+行政決策”的行政倫理風(fēng)險。
隨著人工智能技術(shù)的不斷發(fā)展,以機(jī)器學(xué)習(xí)為核心的新一代人工智能以數(shù)據(jù)為驅(qū)動要素,進(jìn)行自我訓(xùn)練,實(shí)現(xiàn)算法的自我生成,并且成為現(xiàn)階段與將來人工智能的應(yīng)用與發(fā)展的主要模式[10]。機(jī)器獲得智能的唯一方式是掌握數(shù)據(jù),人工智能技術(shù)的發(fā)展對大數(shù)據(jù)的依賴性很強(qiáng),數(shù)據(jù)的結(jié)構(gòu)化程度、自身的可靠性及開放程度都會影響到未來人工智能的走向和進(jìn)展速度?;谶@一前提,各國政府為了讓自身在智能時代不落人后,會盡可能地向人工智能開放數(shù)據(jù)源以訓(xùn)練其預(yù)測的精度。掌握了海量公民數(shù)據(jù)的人工智能,基于社會計(jì)算的效率與效用最大化邏輯,將為每個社會行動者(既包括公民個人也包括社會組織)量身打造一套政策組合方案。在這套個性化的方案中,行動者無疑是被算法精準(zhǔn)地區(qū)別對待了,換言之,即每個行動者被給予一套很難察覺到的歧視性方案。相比人類的偏見而言,算法的偏見更容易引發(fā)大規(guī)模的負(fù)面效應(yīng)。
人工智能對“數(shù)據(jù)流量”價值的關(guān)注,一定程度上轉(zhuǎn)移了決策者對其他不可量化的公共訴求的注意力,使那些數(shù)據(jù)流量低但關(guān)系民生的重大社會問題被忽視。比如,沒有智能手機(jī)的老年群體或低收入群體,可能在數(shù)據(jù)生產(chǎn)量上遠(yuǎn)遠(yuǎn)落后于深諳互聯(lián)網(wǎng)社交的“Z世代”,但數(shù)字化程度低絕不意味著就應(yīng)當(dāng)被忽視。如果決策者將人工智能的數(shù)據(jù)清洗和挖掘結(jié)果作為了解公眾態(tài)度和界定社會問題的唯一依據(jù)[11],那么,關(guān)切老年和窮困群體的公共議題就難以快速進(jìn)入政策議程,這將導(dǎo)致那些最需要社會系統(tǒng)支持的人反而在數(shù)字治理中被系統(tǒng)性地拋棄了。事實(shí)上,人工智能對數(shù)據(jù)的依賴會引發(fā)一系列公共價值的優(yōu)先級變化,那些能夠更快、更多生產(chǎn)數(shù)據(jù)的“價值”將被人工智能賦予更多權(quán)重,這意味著城鄉(xiāng)差異、東西差異、代際差異、行業(yè)差異等本已存在的不平等現(xiàn)象將在人工智能參與公共決策之后進(jìn)一步惡化[12],而非得到改善。
數(shù)據(jù)自身的可靠性存疑,還體現(xiàn)在供人工智能訓(xùn)練的數(shù)據(jù)本身的公平性問題上。數(shù)據(jù)集很可能是人類行政決策的大量案例,但由于人類的道德判斷方式天然地帶有歧視[13],加之機(jī)器學(xué)習(xí)對數(shù)據(jù)集的歸納更多依據(jù)相關(guān)關(guān)系,而不重視長邏輯鏈條和對深層本質(zhì)原因的探求[14],那么,以人類為主要學(xué)習(xí)對象的人工智能幾乎不可避免地習(xí)得并保留那些歧視性的理由。這不是聳人聽聞的想象,而是已經(jīng)出現(xiàn)的實(shí)情:美國部分法院使用犯罪風(fēng)險評估系統(tǒng)預(yù)測犯罪風(fēng)險和法庭對犯罪嫌疑人進(jìn)行保釋和量刑決策時,人工智能基于過去的數(shù)據(jù)學(xué)習(xí)會作出“黑人比白人再次犯罪的概率更高”的判斷,并據(jù)此拒絕對有色人種的假釋申請[8](P143)。毫無疑問,這種帶有種族歧視的人工智能決策的生成反映了美國社會深層的種族不平等,人工智能在學(xué)習(xí)和訓(xùn)練時沒有辦法剔除這種深植在美國社會和政治系統(tǒng)中的“痼疾”,最終的決策結(jié)果必然帶有對少數(shù)、邊緣群體的歧視。
“算法”因其自身在事實(shí)上的模糊性與復(fù)雜性而尚未在學(xué)界形成具體的定義,我們可以將它分為兩大類:一類是傳統(tǒng)算法,即邏輯嚴(yán)密的運(yùn)行程序被提前輸入機(jī)器中,使其能夠在特定條件下作出既定決策;另一類是機(jī)器通過學(xué)習(xí)獲得的新算法,即算法的自我迭代,根據(jù)已有的數(shù)據(jù)進(jìn)行自我訓(xùn)練、自我學(xué)習(xí),最終能在新情境下作出預(yù)設(shè)之外的判斷[14]。這兩種分類其實(shí)代表了實(shí)現(xiàn)人工智能介入行政決策的兩種思路,傳統(tǒng)算法對應(yīng)的就是一種借助提前輸入的算法對所有情況的全預(yù)測使人工智能實(shí)現(xiàn)道德判斷的被動、機(jī)械的方法,但現(xiàn)實(shí)世界中的特殊情況和例外情況無法被窮盡,算法難免遭遇失靈;另一種就是讓人工智能模仿人類道德判斷,形成對基本價值觀的“主觀”理解,從而主動、自發(fā)地完成行政決策,但相應(yīng)地,這種方法帶來更多的倫理風(fēng)險。此時,人工智能的“學(xué)習(xí)”具有不可控的特征,并以此為基礎(chǔ)進(jìn)行自我調(diào)整與自我生產(chǎn),生成難以理解的機(jī)器思維。通過大量底層簡單的“激活單元”相互交織,可在高層自發(fā)涌現(xiàn)出復(fù)雜的智能行為并呈現(xiàn)涌現(xiàn)性和自主性的特點(diǎn),即智能是一種由算法底層的簡單規(guī)則生成的復(fù)雜行為,它并不由預(yù)定的算法前提所決定,但機(jī)器學(xué)習(xí)一旦涉及多層神經(jīng)網(wǎng)絡(luò),問題就變成了非線性數(shù)學(xué),不同變量之間的關(guān)系就糾纏不清[15]。同時,算法倫理最有可能依照結(jié)果導(dǎo)向的、價值中立的、遵循數(shù)學(xué)邏輯的、完美匹配功利主義價值觀的“最大期望集正義”原則[16],而只用“0”和“1”來計(jì)算的智能算法難以定義公平與正義,更可能導(dǎo)致人工智能在壓縮個人隱私空間的基礎(chǔ)上為個人賦值、將個人量化,帶來生命權(quán)的不平等[17],這種將人類道德簡化的決策邏輯必然會削弱行政組織的合法性基礎(chǔ)。
算法的穩(wěn)定性、安全性、可解釋性與公平性是信息時代的政府維持社會穩(wěn)定的主要目標(biāo),但由于機(jī)器學(xué)習(xí)多輪之后的算法實(shí)際上是一個“黑箱”,要令算法符合上述倫理要求往往帶有很強(qiáng)的隨機(jī)性。我們可以將“雙層功利主義”視為打開算法黑箱的鑰匙,即認(rèn)為算法基于一種雙層判斷體系來實(shí)現(xiàn)公共利益:一般情況下,應(yīng)用便利的規(guī)則功利主義作為決策依據(jù),僅當(dāng)出現(xiàn)新的變量、原則沖突或者需要自我證成時,才使用行為功利主義原則并用“模仿人類”作為終極解釋。但隨著算法工程師對人工智能決策樹的深入了解,人們發(fā)現(xiàn)這種判斷過于復(fù)雜。事實(shí)上,算法并不對所謂“好”或“壞”的行動,或者“善”或“惡”的結(jié)果進(jìn)行道德區(qū)分,算法只是統(tǒng)計(jì)過去人們在面對相似問題時所作出的決策,分析這些決策與最終人們期望結(jié)果的相關(guān)性(如何判斷結(jié)果是否滿足人們的期望,是可以從事后文本中出現(xiàn)的積極或消極詞匯頻率這個指標(biāo)得出結(jié)論的),最終生成一個在概率上最可能滿足多數(shù)人的方案。而對于這個方案的道德判斷和解釋,其實(shí)都是人類賦予的,很容易陷入用論題來證明論據(jù)真實(shí)性、用論據(jù)再去證明論題成立的循環(huán)論證之中。人們很難在這種循環(huán)論證中發(fā)現(xiàn)算法內(nèi)含的問題。
“算力”是處理數(shù)據(jù)的能力。在信息時代的國際競爭大環(huán)境下,算力不僅是國家競爭能力高低的核心指標(biāo)之一,同時是識別并抵御境外網(wǎng)絡(luò)襲擊的“防火墻”基石——那些算力不足的國家甚至無法建構(gòu)學(xué)習(xí)模型來標(biāo)出網(wǎng)絡(luò)中的“異常行為”。同時,網(wǎng)絡(luò)戰(zhàn)爭是一種典型的“不對稱戰(zhàn)爭”,即一方的算力也許不及另一方,但依舊有能力給對手造成嚴(yán)重的傷害。在這場沒有硝煙的戰(zhàn)爭中,有能力建設(shè)自己算法的大國政府都陷入了“劇場效應(yīng)”——當(dāng)劇場前排觀眾站起來后,坐在后面的觀眾也不得不起身??謶至畲髧黄染砣脒@場算力競賽,沒有政府敢將人工智能開發(fā)作為可外包的公共產(chǎn)品,而是將其作為國家發(fā)展戰(zhàn)略由政府統(tǒng)管。所以,算力競賽將導(dǎo)致大國不僅在信息技術(shù)上展開競爭,同時會在制造芯片等核心設(shè)備的資源上進(jìn)行爭奪,在國際貿(mào)易中相互角力,這種競爭的后果就是大國的行政擴(kuò)權(quán)。對于信息時代而言,掌握了數(shù)據(jù)也就掌握了最大的資源和權(quán)力,此時的政府已很難把握行政擴(kuò)權(quán)與行政集權(quán)之間的度,往往是在技術(shù)飛速發(fā)展帶來的紅利中未遭遇多少阻力就實(shí)現(xiàn)了行政集權(quán)。事實(shí)上,行政集權(quán)并非必然導(dǎo)致社會活力降低或者交易成本高昂,但集權(quán)與智能監(jiān)控的組合,難免會引發(fā)人們對“環(huán)形敞視監(jiān)獄”的擔(dān)憂。所以,參與算力競賽的大國政府在出現(xiàn)行政集權(quán)之前可能民調(diào)的支持率頗高,但在集權(quán)之后,可能遭遇來自國內(nèi)的質(zhì)疑和抗議。
在算力的競賽中,人工智能技術(shù)的發(fā)展帶來的廣泛且棘手的問題還表現(xiàn)在央地關(guān)系之間、政社關(guān)系、政企關(guān)系三方面關(guān)系的變化。第一,算力的提升將造成信息的倒流,使目前地方對于中央的信息優(yōu)勢倒置,憑借大數(shù)據(jù)和輿情監(jiān)測機(jī)制,中央的信息處理能力顯著優(yōu)于地方,帶來權(quán)力向國家的重新集中[18],形成中心對邊緣優(yōu)質(zhì)資源的虹吸,并向邊緣轉(zhuǎn)移自身風(fēng)險。第二,算力的提升將彌補(bǔ)政府對社會治理的空隙,實(shí)現(xiàn)政府對社會各個治理領(lǐng)域的全覆蓋,使社會自組織缺乏足夠的孵化空間,進(jìn)而排斥社會主體參與治理決策和監(jiān)督[12]。第三,算力的提升可能造成技術(shù)龍頭企業(yè)和政府的合謀,使國家治理變成一種專家治國和智能極權(quán)的結(jié)合體[5],此時作為民主宿敵的“護(hù)衛(wèi)者統(tǒng)治”就躍上了政治舞臺。一種更灰暗的世界想象是,隨著智能技術(shù)的成熟,人工智能將成為可以設(shè)計(jì)自身軟件和硬件的更高階的智慧體,這會使世界不再需要力量制衡,而是出現(xiàn)絕對強(qiáng)者的絕對控制,人類社會的法律、制度、倫理等文明結(jié)晶都將不再被需要,進(jìn)而也宣告人類文明的滅亡[13]。這種觀點(diǎn)過于悲觀,人工智能如果在可預(yù)見的未來不會發(fā)展成為強(qiáng)人工智能,也就不會出現(xiàn)科幻作品中人工智能毀滅人類文明的一幕。無論人工智能會不會成為人類世界的終結(jié)者,在算力上展開競爭的大國將大概率拖拽著全世界走向霍布斯式的“自然狀態(tài)”,在這種狀態(tài)下沒有哪個國家是贏家。
人工智能模型設(shè)計(jì)、建立、運(yùn)行的透明度和合理性的呈現(xiàn)及這些算法建議在人類決策和行動中作用的發(fā)揮是相互關(guān)聯(lián)的兩個階段[19],共同作用于算法實(shí)踐和結(jié)果。政府作為數(shù)字治理中最關(guān)鍵的行動者,必須積極回應(yīng)人工智能參與行政決策可能引發(fā)的倫理風(fēng)險問題。當(dāng)前,人工智能參與政府決策尚處在初級階段,算法治理的應(yīng)用領(lǐng)域多屬于數(shù)據(jù)量巨大、操作重復(fù)性較高、任務(wù)多線程同步的行政場景,如交通擁堵管理、道路維護(hù)、公共場所安全監(jiān)控、程序性行政審批、逃漏稅的識別與處罰等[20]。但隨著數(shù)據(jù)的積累,即便技術(shù)沒有獲得飛躍式的提升,人工智能也可以根據(jù)以往的歷史數(shù)據(jù)建立多個近似模型來不斷逼近真實(shí)情況。通過這種方式訓(xùn)練出來的人工智能將拓展到更多、更復(fù)雜的應(yīng)用場景中,如流行病預(yù)警、極端氣象預(yù)測,并與行政組織更深度地嵌合在一起,同時算法的邏輯會對行政倫理,尤其是功利主義之外的行政倫理思想(如道義倫理、契約倫理、德性倫理等)形成強(qiáng)烈沖擊。一個負(fù)責(zé)任的政府必須找到行政倫理與算法邏輯能夠“互利共生”的合作之道,而非任由人工智能擺置行政決策。
雖然人工智能能夠?qū)⑿姓M織中的許多人從多數(shù)日常的勞動中解放出來,但這并不意味著一部分公務(wù)人員將面臨失業(yè),事實(shí)相反,人工智能參與公共決策非但沒有使政府編制縮小,反而讓各級政府紛紛成立數(shù)字治理的專業(yè)化部門,最終使政府規(guī)模上升。人工智能決策的數(shù)據(jù)歷史和判斷邏輯可能會延續(xù)并強(qiáng)化人類社會現(xiàn)有的歧視現(xiàn)象。這是因?yàn)?,針對這個問題行政組織需要在決策生成階段對人工智能的結(jié)果進(jìn)行倫理審查,并根據(jù)審查的結(jié)論逆向演繹算法的“問題根源”。雖然當(dāng)前人工智能在政府中的應(yīng)用還處于初級階段,但由于人工智能學(xué)習(xí)的對象是人類,算法已經(jīng)習(xí)得了歧視性的數(shù)據(jù),其決策無疑將帶有某些“偏見”。個體在一定程度上保留“偏見”是化簡復(fù)雜外部世界的一種策略,但如果行政組織保留同等程度的“偏見”,對于整個社會而言也是災(zāi)難性的——人們對公義的要求普遍高于對私德的要求,他們無法接受一個無法平等對待公民的政府。要確認(rèn)人工智能是否真的存在偏見,以及存在何種程度的偏見,必須由政府組織專業(yè)的倫理審查機(jī)構(gòu)進(jìn)行評判,所有評判的過程和理由都需要向社會公布。
雖然人類尚未對行政倫理的應(yīng)然形態(tài)形成共識,但在更一般的意義上,多數(shù)行政組織還是可以接受一些普適性的基本原則。政府對人工智能的倫理審查,應(yīng)當(dāng)基于這些普適性的基本原則,而非基于意識形態(tài)或者訴諸情感的判斷。這些基本原則包括四個重要的特征:第一,保存生命原則,即任何情況下都不以人的生命為代價換取更好的結(jié)果,哪怕是犧牲少數(shù)拯救多數(shù);第二,平等原則,即在面對不得不令部分人受益、其他人受損的情境時,不總是以受益和受損的人數(shù)差值為決策依據(jù);第三,自由原則,即不會為了實(shí)現(xiàn)整體目標(biāo)而抑制或阻礙個體追尋自己目標(biāo)的自由,除非該目標(biāo)本身不正當(dāng);第四,多樣性原則,即盡可能確保人有多元化的體驗(yàn),而非只向其展示他所慣習(xí)的那些可能,即便后者在所有可能性中被認(rèn)為是最積極的體驗(yàn)。所有倫理審查都應(yīng)圍繞四個基本特征進(jìn)行逐一核查和分析,確保人工智能在保存生命和文化多樣性、保護(hù)人的平等和自由方面始終在進(jìn)行積極的學(xué)習(xí)和探索。
對于行政組織而言,它不僅需要將行政倫理具象化為對組織內(nèi)部公務(wù)人員的職業(yè)要求,還應(yīng)將其擴(kuò)展至深層的意識形態(tài)與行政文化建設(shè)層面,使行政系統(tǒng)的各層級人員樹立正確的行政倫理觀,內(nèi)化為具有普遍認(rèn)同的自覺思維。在決策準(zhǔn)備中以審慎的態(tài)度看待人工智能的數(shù)據(jù)收集分析結(jié)果及人工智能作出的備選方案;在決策過程中對危及原則性價值的人工智能決策結(jié)果進(jìn)行制止;在決策反饋中對數(shù)據(jù)和算法進(jìn)行倫理審查,重點(diǎn)針對人工智能決策結(jié)果與主流價值觀念之間出現(xiàn)的矛盾,反向核查其機(jī)制與過程中不自覺的不公正之處,促使其修正和改進(jìn)[21]。在整個決策前、決策中、決策后的過程中,應(yīng)始終保持一種隨時可以將人工智能程序從行政決策中抽離的“懸隔機(jī)制”,一旦出現(xiàn)緊急問題可以立刻叫停算法決策,并迅速由應(yīng)急行政團(tuán)隊(duì)接手和處置。對人工智能的倫理審查不僅要制度化、周期化,更重要的是,審查過程需要政府全程主導(dǎo)把控,而非以該領(lǐng)域的專業(yè)性為托詞將這項(xiàng)工作外包出去,因?yàn)檫@涉及國家安全、政府能力、民生保障等諸多重要領(lǐng)域,必須由政府設(shè)立專門化的組織去處理。
人類要以一種共同體的形式生活在一起,就離不開一個社會成員共有的“公共價值池”,倫理可以說是在這個池中不同的價值出現(xiàn)沖突時判斷何者更重要的依據(jù)。在信息技術(shù)的飛速發(fā)展中,算法倫理同時侵入公共倫理和私人倫理領(lǐng)域,由于信息的不對稱性、算法的抗解性、關(guān)鍵技術(shù)的保密性,加之公共問題本身的高度復(fù)雜性,使整個決策過程的責(zé)任鏈條很難被清晰指出。這就意味著,一旦行政組織聽從人工智能的建議導(dǎo)致某種倫理危機(jī),是很難厘清整個事件中各主體的責(zé)任邊界的,甚至我們無法確定在這個過程中官僚制本身是否需要承擔(dān)一定的責(zé)任。有觀點(diǎn)認(rèn)為,人工智能介入下的行政決策出現(xiàn)責(zé)任困境,究其根本,是主體模糊的問題[22]。行政學(xué)強(qiáng)調(diào)行政決策是一個連續(xù)的過程,是多方合力的結(jié)果,但人工智能介入行政決策將導(dǎo)致政府作為單一的責(zé)任主體的局面徹底改變。對此有學(xué)者建議訴諸政府、人工智能、技術(shù)企業(yè)的聯(lián)合道德責(zé)任[23],然而,行政哲學(xué)對是否可以賦予人工智能主體性這個大問題持審慎懷疑的態(tài)度。即使有學(xué)者認(rèn)為,對人工智能自由意志的質(zhì)疑并不能否認(rèn)其具有道德責(zé)任能力[24],我們也無法使用目前人類社會的互動方式與它和諧相處。比如,人類社會現(xiàn)行的懲罰方式(如訓(xùn)斥、罰款或監(jiān)禁、勞教等)在面對人工智能時都失效了?;谏鲜鲈?,政府更需要作為一個積極的行動者開展公共價值治理,否則,政府將在一系列人工智能可能引發(fā)的公共價值失序或行政決策猶豫中疲于解釋,落入循環(huán)論證之中。
算法的邏輯一旦成為行政決策的主導(dǎo)邏輯,人工智能的建議就會成為行政決策的主要依據(jù),在多大程度上按照人工智能的建議去行動將成為考核一個政府治理水平的核心指標(biāo)。不難想象,一種新的“沒有政府的治理”即將出現(xiàn),政府的大部分決策職能會被算法取代。為了避免這種情況出現(xiàn),政府會牢牢抓住那些可以塑造公共價值的政策工具,如教育系統(tǒng)、新聞媒體、社交網(wǎng)絡(luò)等,但政府這種近乎本能的反應(yīng)恰恰會進(jìn)一步強(qiáng)化人工智能重塑公共價值的能力。在有效利用智能設(shè)備的無縫隙信息推送方面,人工智能塑造“信息繭房”的能力遠(yuǎn)超人類的行政組織,在信息繭房中的人們甚至很難察覺自己的價值觀念已經(jīng)被潛移默化地改變了。對于數(shù)字時代的政府而言,首先應(yīng)當(dāng)轉(zhuǎn)變的是公共價值治理的思路,從“道義”的或者“德性”的角度去創(chuàng)造人們的共識,而不是與人工智能搶奪“效率”維度的價值高地,因?yàn)榈滦院偷懒x這一類美德是人工智能無法通過一層層的“算法進(jìn)化樹”習(xí)得的。政府應(yīng)盡快完善行政法規(guī),同時推動立法機(jī)構(gòu)開展針對人工智能參與公共決策的立法工作,對算法的公開范圍和程度作出明確規(guī)定并保障公民的知情權(quán),以制度建構(gòu)加強(qiáng)政府對信息社會公共價值塑造和監(jiān)督的基礎(chǔ)能力。此外,對人工智能的立法應(yīng)關(guān)注它在每一個細(xì)分領(lǐng)域里表現(xiàn)出的特殊性,對人工智能的規(guī)制需要具體化和場景化[25],不能用“一刀切”的方式去簡單應(yīng)對這個新生事物。
人工智能技術(shù)介入行政決策,不可避免地會把人數(shù)據(jù)化、抽象化、標(biāo)簽化,這對人類的社會結(jié)構(gòu)和組織形態(tài)將產(chǎn)生何種影響我們尚未可知,但目前掌握前沿人工智能技術(shù)的組織都或多或少出現(xiàn)了組織形態(tài)科層化和集權(quán)化的趨勢。公權(quán)力與人工智能技術(shù)的結(jié)合很可能會出現(xiàn)行政集權(quán)現(xiàn)象。雖然人類社會的進(jìn)步離不開技術(shù)的發(fā)展,但并不是每種技術(shù)都能與人類社會兼容。對于人工智能技術(shù)而言,目前最重要的是如何在將其作為治國的重要工具時不落入技治主義的陷阱。技治主義的主旨是社會運(yùn)行的理性化,尤指政治運(yùn)作的科學(xué)化,主張借助專家治國的實(shí)踐形式實(shí)施科學(xué)管理。從本質(zhì)上說,技治主義是一種建基于進(jìn)步主義和技術(shù)治理原則之上的系統(tǒng)的技術(shù)治理理論[26]。在思考現(xiàn)代性本質(zhì)時,政治哲學(xué)家揭示了技治主義潛藏的危機(jī),可能讓遵奉它的公共部門面臨公信力的崩解,也可能出現(xiàn)與平等主義和公民參與的緊張,或者遭遇對作為其基礎(chǔ)的科學(xué)知識有效性的質(zhì)疑[27]。
對于來自他者的算力競賽壓力,更需要明確技術(shù)的邊界,尤其應(yīng)明確人工智能不可以在哪些公共領(lǐng)域應(yīng)用。唯此才能根據(jù)實(shí)踐不斷調(diào)整人與技術(shù)的關(guān)系,而非不假思索地將人工智能技術(shù)拋入公共問題的所有場景。如果算法使用這些不加揀選的數(shù)據(jù)“野蠻生長”,這個過程極易出現(xiàn)無法預(yù)期的偏差[28]。為了避免這種情況發(fā)生,即使我們無法將算法與權(quán)力徹底分開,也必須通過規(guī)范智能技術(shù)的適用邊界來限制算法與權(quán)力的組合。一旦我們將視角轉(zhuǎn)向約束權(quán)力,就會看到人工智能技術(shù)需要的是一種跨學(xué)科的發(fā)展,這不僅需要計(jì)算機(jī)科學(xué)的進(jìn)步,同時需要相應(yīng)的哲學(xué)、倫理學(xué)及政治學(xué)、行政學(xué)、法學(xué)和管理學(xué)的發(fā)展。唯有通過人文與社會科學(xué)的發(fā)展來完成一次對社會的再啟蒙,才能實(shí)現(xiàn)人與人工智能的和諧共生,也只有通過再啟蒙,才能讓人保持審慎的清醒,理性地辨識自身的需求和算法的期望,盡力不以算法的邏輯作為道德判斷的唯一標(biāo)準(zhǔn)。在啟蒙完成之前,人工智能技術(shù)應(yīng)該被限制在拯救人類免于苦難的公共領(lǐng)域,如公共衛(wèi)生、醫(yī)療急救、公共安全監(jiān)控等,而不應(yīng)當(dāng)作控制社會或發(fā)動進(jìn)攻的工具,如操弄選舉、分析股市、發(fā)動網(wǎng)絡(luò)戰(zhàn)爭或者操縱無人機(jī)遠(yuǎn)程刺殺等。
概言之,在可預(yù)見的未來,人工智能參與行政決策是時代的大勢所趨,但在借助人工智能技術(shù)提高決策效率的同時,應(yīng)當(dāng)看到數(shù)據(jù)、算法、算力三方面可能存在的倫理危機(jī)隱患。人工智能對行政決策的控制越深,越有可能引發(fā)決策歧視、循環(huán)論證、行政集權(quán)及行政自利,這將打破以人類傳統(tǒng)倫理觀念為根基的公共價值排序邏輯,讓行政部門頻繁陷入倫理兩難之中。為保證行政倫理對最大“善”的決策結(jié)果促成,我們強(qiáng)調(diào)應(yīng)當(dāng)從加強(qiáng)倫理審查、突出公共價值治理、明確技治邊界三方面積極回應(yīng)決策倫理風(fēng)險,促進(jìn)人工智能與政府治理的協(xié)調(diào)發(fā)展。從當(dāng)前的人工智能技術(shù)的發(fā)展方向來看,無論是弱人工智能還是未來可能出現(xiàn)的強(qiáng)人工智能,都很難自行演化成為人工道德體,因而政府必須積極承擔(dān)起在人工智能參與決策時加以必要引導(dǎo)和干預(yù)的責(zé)任,打破算法為個體量身定做的“過濾氣泡”“信息繭房”和“回音室”[29],通過行政哲學(xué)區(qū)分算法給出的“對的決策”和我們需要的“善的決策”,引導(dǎo)人類朝向一種良善的可能世界前行。