白 彬,趙麗英
(山西財經大學 公共管理學院,太原 030006)
作為新一輪科技革命的核心驅動力,人工智能技術在其研發(fā)與應用的過程中,不可避免地會涉及一系列復雜性與動態(tài)性并存的倫理問題,僅憑個人自省、倫理道德等單向面的應對措施,難以應對潛在的人工智能倫理風險[1]。在此背景下,各國政府和組織開始積極尋求并制定人工智能倫理的價值原則、行動指南和制度規(guī)范,通過推進人工智能倫理制度化建設來提升實際的倫理規(guī)范效力,這成為加強人工智能倫理治理的新的著力點[2]。2021年初,《網絡安全標準實踐指南——人工智能倫理安全風險防范指引》的頒布,為我國人工智能倫理規(guī)范的初步建構奠定了重要基礎[3]。同年9月,《新一代人工智能倫理規(guī)范》的制定實施又極大地推進了我國人工智能倫理制度化進程。但我們也應當明晰,目前我國暫未制定專門的人工智能倫理規(guī)范制度,絕大部分人工智能倫理的準則、規(guī)范和制度仍呈碎片化狀態(tài)分布于不同政策及法律文件之中。這一方面暴露出新時代我國人工智能倫理體系建構的缺位與不足,另一方面也為我國人工智能倫理制度化建設的發(fā)展和完善提供了良好的契機。據(jù)此,探索人工智能倫理制度化的影響因素和生成邏輯,對加快我國人工智能倫理制度化建設進程,長效推進我國人工智能治理工作具有重要意義。
人工智能倫理(ethics of Artificial Intelligence)屬于科技倫理的范疇[4],是對人工智能倫理問題及其生成風險進行倫理思考的新興研究領域[5],主要包括對人工智能相關的倫理理論、指導方針、原則、規(guī)則和法規(guī),以及如何遵循倫理規(guī)范來設計與運行人工智能的探索[6]。聯(lián)合國教科文組織在《人工智能倫理問題建議書》中,將人工智能倫理定義為“對人工智能技術進行規(guī)范性評估和指導的動態(tài)管制基礎”[7]。在人工智能和大數(shù)據(jù)技術迅猛發(fā)展的疊加效應下,學界和業(yè)界對人工智能倫理風險及其治理的關注度日漸提升,經歷了從人工智能倫理價值到倫理風險規(guī)制策略研究的逐步深入[8-12]。但由于人工智能倫理的治理本身兼具公共性與復雜性,單一強調人工智能倫理的價值認同和“發(fā)現(xiàn)問題—分析成因—提出對策”的線性框架思路,仍然難以通過當下嚴峻復雜的現(xiàn)代性風險考驗,因此還需構建可信、可行的人工智能倫理亟需的規(guī)則制度,以推進人工智能倫理的制度化建設。
制度化是從規(guī)則到行為等一系列范疇和現(xiàn)象規(guī)范化、普遍化的過程,主要包括規(guī)制型制度化、契約型制度化和建構型制度化三種類型[13]。人工智能倫理制度化是將人工智能倫理的價值與要求轉化為國家規(guī)范化、常態(tài)化的正式性行動原則、集體規(guī)約與管理制度的過程。根據(jù)制度化的分類,可將人工智能倫理制度化大致分為三類:人工智能倫理治理適用的法律法規(guī)、管理辦法、框架協(xié)議等強制性制度化,以倫理道德為基礎的權責劃分、行為準則等約束性制度化,受文化環(huán)境和個人觀念影響的共同行為邏輯。目前,學界在人工智能倫理制度化方面展開了較為豐富的研究,主要可分為以下三方面:一是問題指向方面,認為人工智能倫理制度的落后會加劇人工智能的倫理風險[14],并從制度規(guī)范層面的人工智能倫理規(guī)范缺失、倫理監(jiān)管機制不完善等方面分析了人工智能倫理問題的成因[15];二是實踐路徑方面,要求政府主體根據(jù)技術使用的不同場景,制定指導性和規(guī)范性的人工智能倫理政策[16],將社會對人工智能的價值選擇制度化為具體的法律法規(guī)等[17];三是內容分析方面,提煉出國內外人工智能倫理規(guī)范文件中涉及的基本倫理原則[9],總結已有人工智能倫理原則的特征[18],并學習借鑒IEEE人工智能倫理規(guī)范實施機制等[19],為進一步探討人工智能倫理制度化建設提供了重要參考。
回顧既有研究發(fā)現(xiàn),學界圍繞人工智能倫理風險與治理困境提出了極具價值的思路及對策,針對人工智能倫理制度化的“事后”規(guī)制和實踐方向方面,雖然已形成了較為豐富的研究成果,但仍然存在一定的研究不足:一方面,既有研究多是從應然性角度提出制度層面的理論框架和路徑方向,缺少實然性角度的實證分析。另一方面,人工智能倫理制度化“事前”領域的研究略顯不足,鮮有學者對人工智能倫理政策生成階段的影響因素和作用機制進行探索。據(jù)此,本文立足于人工智能倫理制度化的“事前”階段,基于我國人工智能倫理相關政策文本材料,運用扎根理論對我國人工智能倫理制度化的影響因素展開實證研究,揭示各因素對人工智能倫理制度化的生成邏輯,為我國人工智能倫理制度化建設提供理論指導。
1.研究方法
扎根理論是由Glaser與Strauss提出的基于經驗材料建立理論的質性研究方法,這種方法主張不事先預設立場,而是帶著研究問題,具體深入被研究領域中獲取研究資料,通過系統(tǒng)、詳盡地描述和反思研究現(xiàn)象與情境,并從中提煉理論,可用于破解經驗研究中的雙重困境[20]。人工智能倫理制度化過程需要經過一系列政策轉化,以探索人工智能倫理制度化的作用因素及其互動關系會涉及的因素識別和過程解讀,扎根理論和政策文本分析方法與本文的研究目的相適配。因此,本文選用此研究方法,運用Nvivo12質性分析軟件對我國相關政策文本進行逐級編碼和內容調整,分析作用于我國人工智能倫理制度化的關鍵因素,概括其有效推進的核心邏輯。
2.數(shù)據(jù)來源
政策文本作為研究公共政策和公共管理問題的切入點具備邏輯合理性和操作可行性,能為政策過程分析提供豐富可靠的經驗數(shù)據(jù)[21]。本文采用的政策文本數(shù)據(jù)源自“北大法寶”智能服務平臺,通過“人工智能倫理”“技術倫理”“科技倫理”等關鍵詞,對中央相關部門發(fā)布的政策文本及其解讀文本進行初步篩選,并在對應政府官方網站進行復查,以保證政策文本的真實性和原始性。值得注意的是,由于我國人工智能倫理制度建構仍在起步階段,大部分政策文件標題并未完全與研究主題吻合,但其正文中包含與人工智能倫理有較高關聯(lián)度的政策文本,因此也被列入篩選范圍之中。經過對初篩文本的粗略通讀、二次篩選剔除關聯(lián)度較低的文本后,最終保留的政策文本共計32份,本文選取部分政策文件列表說明,如表1所示。
表1 我國人工智能倫理相關政策文件列表(部分)
本研究遵循扎根理論相應流程,通過開放式編碼、核心編碼和選擇性編碼對政策文本數(shù)據(jù)進行分析,提煉和歸納作用于人工智能倫理制度化的核心要素,并在飽和度檢驗的基礎上生成理論模型。
1.開放式編碼
開放性編碼是對樣本材料內容在反復斟酌、推敲、比對、精煉的基礎上,科學合理地提取初始概念、歸納初始范疇的過程。本文將政策文本材料中切合研究主題、表達行動緣由的文本視為一個有效的原始語句。在剔除與研究主題無關的內容之后,對與研究內容有較高相關度的原始語句的概念內涵進一步識別,最終提煉出77個初始概念和26條初始范疇,因考慮篇幅因素,選取部分初始概念和范疇列表予以說明,如表2所示。
表2 開放式編碼的初始范疇及其概念(部分)
2.核心編碼
核心編碼是扎根理論方法的第二階段,根據(jù)初始范疇之間的邏輯、類屬關系歸納得出更高一級的主范疇。本研究在充分考慮人工智能倫理規(guī)范的實施背景和各要素關系的基礎上,對開放式編碼得到的26個初始范疇進行反復比較和深度解析,發(fā)現(xiàn)其主要內容可以進一步提煉為8個主范疇,如下頁表3所示。
表3 核心編碼的主范疇及其初始范疇
3.選擇性編碼
選擇性編碼過程是對主范疇之間的邏輯關系做進一步的提煉歸納,以“故事線”的方式描述其脈絡架構,得出能夠貫穿始終、反映全貌的核心范疇。通過對主范疇的再次聚攏和精煉,以三個核心類屬對圍繞主范疇的“故事線”進行概括,如下頁表4所示。在發(fā)生條件、輔助工具和聯(lián)結行為三個關鍵要素的共同作用下,人工智能倫理制度得以產生與落地。最后,通過對隨機預留出的6條政策文本語句作飽和度檢驗樣本再次編碼后,發(fā)現(xiàn)并未增加新的重要概念、范疇及關系。因此,本研究所得結論通過飽和度檢驗。
表4 核心編碼的主范疇及其初始范疇
扎根理論三級編碼分析結果表明,發(fā)生條件、輔助工具和聯(lián)結行為是人工智能倫理制度化的主要影響因素。據(jù)此,本研究構建出人工智能倫理制度化的“條件—工具—行為”模型(見下圖),并對其進行理論闡釋,有助于厘清各要素的具體內涵及其互動關系,明晰人工智能倫理制度化的具體生成機理。
圖 人工智能倫理制度化的“條件—工具—行為”模型
1.發(fā)生條件:人工智能倫理制度化的驅動力
我國人工智能倫理制度化具有多重發(fā)生條件,其中外在風險社會情境、決策者的價值感知和自上而下的政治勢能構成了最主要的驅力來源。
經濟社會情境變化是影響政策變遷和制度安排的重要因素[22],其中,風險社會情境作為一種特殊情境,能夠對社會產生高強度、廣范圍的大型沖擊影響[23]。當代人工智能的發(fā)展產生了諸多技術倫理風險和社會治理風險,具體包括影響社會價值、侵犯個人權利、影響公平公正、模糊責任邊界在內的諸多倫理安全風險,以及數(shù)字鴻溝、數(shù)據(jù)安全、隱私保護等全球性非傳統(tǒng)安全風險等,都對當前傳統(tǒng)倫理規(guī)范帶來強力沖擊。不過,風險與人為的決定緊密相關,能夠對被規(guī)范化、制度化的原則施以控制[24]。在這一外在風險情境的驅動下,中央相關部門制定了《人工智能倫理安全風險防范指引》《中國關于加強人工智能倫理治理的立場文件》等專項文件,出臺了突發(fā)公共衛(wèi)生事件等緊急狀態(tài)下的科技倫理審查規(guī)則,力求“最大限度降低風險,確保人工智能安全、可靠、可控發(fā)展”。由此,風險情境作為一種重要外部驅動條件,能夠促使我國人工智能倫理規(guī)范制度的構筑,以最大化發(fā)揮出抵御風險之“圍墻”的隔離功能[25]。
計劃行為理論認為,個體行為會受到自身行為意愿的直接影響[26],而價值感知是提升其行為意愿的重要條件[27]。從本文視角來看,價值感知可以看作是政府對人工智能倫理制度化建設成本及其前景價值的綜合評估。黨的十九大以來,在國家預期愿景、現(xiàn)實問題需求、多方重點關注等因素驅動下,我國政府對人工智能倫理制度的建構產生了較高的前景價值感知,認為人工智能倫理制度化能夠滿足我國“推動人工智能健康快速發(fā)展”和“促進科技事業(yè)健康發(fā)展”的要求,有利于解決算法歧視、公民個人權益保護等現(xiàn)實問題,同時契合我國“建設創(chuàng)新型國家和世界科技強國”“形成人工智能治理中國準則和標準”等良好預期愿景。在此內部高價值感知條件的驅動下,我國政府對人工智能倫理制度化建設的行為意愿隨之提高,最終產生了人工智能倫理制度制定、落地與實施的實際行為。
政治勢能是我國公共領域中具有本土化優(yōu)勢的經驗總結和“高位推動”現(xiàn)象的學理表述[28],是由政治系統(tǒng)內、部門內主體的非對稱地位之間產生的發(fā)展態(tài)勢和政治影響能量[29]。我國自上而下的政治勢能以國家指導思想、國家戰(zhàn)略目標、中央部門部署,以及下達重要文件和指示批示等方式科學分配政治資源,發(fā)揮出強大的價值信念引領與歷史使命判斷。具體來看,中央關于加快發(fā)展新一代人工智能、建設數(shù)字中國等重要部署,“實現(xiàn)和諧友好、公平公正、包容共享、安全可控的人工智能”等具體論述,為政府積極建構人工智能倫理制度提供了戰(zhàn)略方向;以習近平新時代中國特色社會主義思想為主的指導思想,會同黨的十九大以來歷次會議中凝練出的共識精神,在黨中央統(tǒng)籌人工智能倫理制度化建設進程中起到了價值引領作用;再如,中央政府在人工智能三步走戰(zhàn)略中明確要求的人工智能法律法規(guī)、倫理規(guī)范和政策體系的戰(zhàn)略目標指向,督促了人工智能倫理制度化目標的如期實現(xiàn)??梢?我國政治勢能在傳遞過程中形成了高于常規(guī)運行體制的制度期望與制度壓力,是人工智能倫理制度化的突出驅動條件,也成為人工智能倫理價值上升為具體規(guī)則要求的重要行動杠桿。
2.輔助工具:人工智能倫理制度化的托動力
輔助工具即保證政府如期實現(xiàn)人工智能倫理制度化目標的工具和方式,是托動人工智能倫理制度建設工作開展的關鍵。本文通過對現(xiàn)有政策文本的概念提取,整合出經驗準備、保障基礎和配套支持三方面要素。
人工智能倫理制度化的經驗準備中包括了必要的前瞻研判意識和廣泛調研工作,能更好地解決現(xiàn)實問題,也能更有把握地判定發(fā)展態(tài)勢[30]。首先,前瞻研判意識具有長遠性與戰(zhàn)略性,能夠把握事物發(fā)展的前進方向。在相關制度政策出臺前,中央部委基于深入調研、充分開展理論實踐研究等扎實準備,對科技發(fā)展帶來的倫理風險和規(guī)則沖突進行了全方位綜合研判,分析了人工智能倫理制度化建設必需的條件、要素與預期效果,以規(guī)劃性、籌謀性和事前性意識把控人工智能倫理制度化進程。其次,對多方信息廣泛精準的調研則是提升人工智能倫理政策制定與實施可信度的必要準備工作。在具體實踐中,我國基于先前的人工智能發(fā)展規(guī)劃,從不同群體角度出發(fā)開展調研,通過網上建議征集、科技界與社會意見征求、專家反復研討,廣泛凝聚共識,對發(fā)揮人工智能倫理新生規(guī)范制度的民主性、實踐性優(yōu)勢具有重要意義。
我國既有法律法規(guī)的規(guī)制和科研技術基礎是托動人工智能倫理制度化的主要保障基礎。一方面,人工智能倫理規(guī)則制度的建構與完善,遵循《科技進步法》中對倫理治理責任的明確規(guī)定,將《個人信息保護法》《數(shù)據(jù)安全法》等法律法規(guī)作為規(guī)制保障,使人工智能倫理制度化建設有法可依、有據(jù)可循,人工智能倫理規(guī)范實施工作更加“成熟”、更加“定型”[31],是實現(xiàn)人工智能倫理制度化公平正義的重要保障。另一方面,專家學者與技術人才的知識儲備,與其開展的各項人工智能研發(fā)與應用活動、人工智能行為科學倫理、人工智能法律倫理等基礎理論研究與實踐應用,構筑起我國堅實的人工智能科研技術基礎。專業(yè)人士對人工智能倫理評估的多元觀點,為制度構建提供更為客觀、中立和穩(wěn)健的政策建議,在一定程度上彌補了民意上的片面性和非理性的缺陷,保證了人工智能倫理規(guī)范內容的科學性。
配套支持主要從制度體系安排、倫理意識培育、科技人才培養(yǎng)方面為人工智能倫理制度化的建設起到托動支撐作用。首先,我國《國家信息化發(fā)展戰(zhàn)略綱要》和《“十四五”國家信息化規(guī)劃》,以及數(shù)據(jù)安全標準體系建設、監(jiān)管審查機制等配套部署與布局,為推進人工智能倫理制度的落實工作提供了方向指引。《新一代人工智能治理原則》和《新一代人工智能發(fā)展規(guī)劃》的先后頒布又為我國人工智能倫理制度化建設輔以更加深入與細化的銜接支持。其次,國家重點強調相關利益主體的倫理意識培育,如加強公共部門工作人員的公共倫理意識、增強技術人員的科研精神和公民的數(shù)字道德倫理教育,都為促進社會主體間的行為自覺,推進人工智能倫理政策實施提供堅實的倫理認知基礎。最后,高水準的科技人才隊伍是推進人工智能倫理制度化建設的根本。對此,政府專門成立了人工智能高層次人才培養(yǎng)專家委員會,以加強對人工智能技術專業(yè)研究生的培養(yǎng),也為實現(xiàn)我國人工智能倫理制度化的重大突破提供人才支持。
3.聯(lián)結行為:人工智能倫理制度化的助動力
聯(lián)結行為是指參與人工智能倫理制度化建設的多方主體之間的互動行為。研究發(fā)現(xiàn),國際視域下的競爭與合作和國內視域下的多元協(xié)作,是助力人工智能倫理制度化持續(xù)推進的聯(lián)結行為。
習近平提出的“人類命運共同體”拓展了人工智能治理領域研究的新視角。近年來,各國對人工智能倫理風險治理的進展與反思也呈現(xiàn)出了全球化的競合圖景[2]。從國際競爭來看,人工智能的安全和發(fā)展已然成為各大經濟體競相布局的焦點,各國政府紛紛出臺人工智能倫理相關政策法規(guī),避免錯失國家發(fā)展機遇。在此競爭態(tài)勢的助力下,中國加快了制定人工智能倫理標準體系建設的步伐,力圖在新一輪國際科技競爭中搶占優(yōu)勢。再從國際合作來看,我國政府在人工智能倫理領域積極開展全球協(xié)作,為人工智能倫理制度化建設植入包容基因。不僅組織專家積極參與世衛(wèi)組織的《衛(wèi)生健康領域人工智能倫理與治理指南》、聯(lián)合國教科文組織的《人工智能倫理問題的建議書》等文件的制定,還與歐盟科技創(chuàng)新委員會聯(lián)合舉辦了有關科技倫理方面的研討會。在為制定國際人工智能倫理規(guī)范貢獻“中國智慧”與“中國力量”的同時,也將人工智能倫理的全球共識原則融入我國人工智能倫理規(guī)范之中。由此,良好的國際競合行為產生了對標國際和共治共享的聯(lián)結效應,對我國人工智能倫理制度的產生和調整有著明顯的強化助動作用。
多元協(xié)作是在治理體系中納入社會多元主體,基于民主、溝通、協(xié)同、配合和參與公共事務治理的聯(lián)結行為[32]。從各文件實施細則可以看出,人工智能倫理制度化建設涉及一系列相關方的相互協(xié)調和協(xié)同努力,主要包括以下四種:一是政府主導。中央政府充分發(fā)揮在規(guī)劃引導、政策支持、安全防范、財政投入、環(huán)境營造等方面的主導作用,以戰(zhàn)略方向、目標引導公共機構、高校和社會團體等進行研究和創(chuàng)新活動[33]。二是地方部門協(xié)同。各地區(qū)網信、公安、科技、安全等主管部門,具體負責倫理規(guī)范制定、宣傳教育、監(jiān)管審查等相關工作,以部門間的工作協(xié)同和信息共享統(tǒng)籌推進人工智能倫理制度化進程。三是特設機構與社會組織的參與。國家成立新一代人工智能治理專業(yè)委員會和科技倫理委員會,負責指導和統(tǒng)籌人工智能倫理體系建設;科技類學會、協(xié)會、研究會等211家社團組織,陸續(xù)設置了關于科技倫理方面的專委會或者分支機構,參與制定相關倫理規(guī)范或標準。四是專業(yè)力量的匯聚。通過研究院、高等院校、科技企業(yè)等單位的技術支持,以及科學、工程學、法學等跨學科專家助力,人工智能倫理安全風險治理體系建設得以持續(xù)推動。在這一過程中,多元主體聯(lián)結的行動勢能通過能量的不斷傳遞、轉換和凝聚,為促進不同學科倫理認知的形成、融合,響應不同主體的倫理訴求提供了強力助動效能。
對于人類歷史而言,制度的生成和演進始終是一個變化的過程,應當根據(jù)社會現(xiàn)實需求自覺構建推動制度變革[34]。隨著人工智能技術廣泛使用,社會逐漸變成“全景敞視監(jiān)獄”,個人的自由空間不斷被壓縮,技術倫理問題與安全風險治理進程不斷加速,人工智能倫理制度化建設必將成為大數(shù)據(jù)背景下公共治理的內在要求。據(jù)此,本文基于政策文本分析視角,運用扎根理論對人工智能倫理制度化的影響因素及其生成邏輯展開分析,建構出人工智能倫理制度化“條件—工具—行為”模型,得出以下結論:外部風險情境、內部價值感知和政治勢能是人工智能倫理制度化的主要發(fā)生條件,經驗準備、保障基礎和配套支持是人工智能倫理制度化的必要輔助工具,國際競合和多元協(xié)作是人工智能倫理制度化的重要聯(lián)結行為,在驅力、托力和助力的合力作用下,實現(xiàn)了我國人工智能倫理規(guī)則及制度從無到有的過程,持續(xù)推動我國人工智能倫理制度化的進展。
由于我國人工智能倫理政策文本存在較大的分散性與難發(fā)現(xiàn)性,研究過程中可能存在相關政策文本收集不充分、不完整的情況。同時,本文主要聚焦于人工智能倫理制度化過程影響要素的研究,未對政策實際執(zhí)行、評估等其他階段的影響要素進行剖析。未來將通過進一步的實證研究來驗證和優(yōu)化本文結論,并嘗試從其他階段過程出發(fā),對該主題進行更深入的探索,從更深遠的層面為人工智能倫理價值的嵌入與全球人工智能治理的成功提供可能通道。