王琳琳
(吉林警察學(xué)院,吉林 長春 130117)
從上世紀(jì)90年代開始,數(shù)字經(jīng)濟經(jīng)歷了互聯(lián)網(wǎng)經(jīng)濟、數(shù)據(jù)經(jīng)濟至算法經(jīng)濟的迭代發(fā)展。從技術(shù)上講,算法是編碼程序,是代碼中起決策作用的部分,或者說算法是為迅速實現(xiàn)預(yù)期結(jié)果而編譯出的一系列邏輯步驟。從法律政策角度看算法特指決策算法,OECD(經(jīng)濟合作與發(fā)展組織)明確將算法界定為能夠做出影響現(xiàn)實世界或網(wǎng)絡(luò)空間的預(yù)測、推薦或決定的機器系統(tǒng),算法雖有不同層次的自主性,但其目標(biāo)均由人類確定。[1]目前算法決策被廣泛應(yīng)用于私人領(lǐng)域和公共領(lǐng)域,它可以用來接管、替代、補充或輔助人類判斷、預(yù)測、決定。在私人領(lǐng)域,算法決策已經(jīng)成為諸多商業(yè)模式的基石;在公共領(lǐng)域,算法輔助決策因具有強大的統(tǒng)計預(yù)測能力、推薦能力,能夠用來解決人類難以決策的復(fù)雜問題。①例如,美國利用COMPAS算法對“未來罪犯”概率預(yù)測評分,虛擬律師Ross在Baker &Hostetler律師事務(wù)所提供法律服務(wù),電子商務(wù)平臺按用戶購物習(xí)慣推薦商品。當(dāng)然除決策外,算法還可以有多種用途,如圍棋機器人AlphaGo可以與人類展開對弈,繪畫機器人AARON能夠自主創(chuàng)作。本文與OECD一致,算法主要指預(yù)測、推薦、決定算法,本文統(tǒng)稱為決策算法。一般來說,劃時代的新技術(shù)總會推動社會變革,社會關(guān)系的變化必然引起法律規(guī)范的調(diào)整,因此新技術(shù)的法律治理充滿挑戰(zhàn)。算法經(jīng)濟時代,算法滲透到生活方方面面,隨著算法決策的廣泛應(yīng)用,算法變成了一種新的控制機制,成為國家和市場之外的新制度和新力量。本文主要研究算法控制性及其產(chǎn)生機理,梳理了算法控制社會表現(xiàn)及法律風(fēng)險,以政策為導(dǎo)向提出算法治理原則和法律邏輯,并在此基礎(chǔ)上提出了算法治理的法律策略。
計算和大數(shù)據(jù)無處不在,算法決策已經(jīng)成為公共服務(wù)創(chuàng)新和商業(yè)模式創(chuàng)新的基礎(chǔ)。當(dāng)我們想要認知算法及其產(chǎn)生的力量時,視其為單純的代碼似乎是不正確,算法是社會生態(tài)系統(tǒng)的一部分,我們應(yīng)找到其作為獨立實體與社會所發(fā)生的相互作用關(guān)系。[2]算法決策改變了算法運用管理者與公眾(算法被決策人)之間的關(guān)系,也改變了社會的制度構(gòu)成和權(quán)力結(jié)構(gòu)。因此算法也被認為是一種新機制,具有約束控制的特性(governance)。[3]
算法作為一種技術(shù),能夠直接影響和控制人的利益,算法因此失去了純粹性而具有權(quán)力屬性。[4]算法控制力與國家權(quán)力、行政權(quán)力不同,它是非科層化、具有自執(zhí)行性、多元網(wǎng)絡(luò)實體間的分布式控制力量,它的形成有獨特的機制和機理。
1.從技術(shù)特性上看,網(wǎng)絡(luò)是有自組織性的生態(tài)系統(tǒng),算法是構(gòu)架網(wǎng)絡(luò)生態(tài)系統(tǒng)的重要組成部分,通過運算網(wǎng)絡(luò)信息流處理邏輯,形成去中心化的調(diào)控模式。21世紀(jì)的互聯(lián)網(wǎng)是超級網(wǎng)絡(luò),即每個端點都可以與其他端點相連接的網(wǎng)絡(luò)。依據(jù)群體感應(yīng)原理,超級網(wǎng)絡(luò)社會是由網(wǎng)絡(luò)要素(包括個人、機構(gòu)、協(xié)議、信息、機器、程序等)所組成的均衡、協(xié)作且能夠自我調(diào)節(jié)和自我組織的生態(tài)系統(tǒng),即具有自組織性、能夠擺脫人為控制的有機體。超級網(wǎng)絡(luò)的自組織性并不是一種直接、單一的因果性力量,它的組織過程比較微妙,其生命力不來自網(wǎng)絡(luò)上某一個交流或交易,而是來自持續(xù)變化即動態(tài)發(fā)展的交流或交易。因此,這種自組織模式是非中心化的調(diào)控模式,其控制不由某個人或某個機構(gòu)所決定,而是多元主體通過網(wǎng)絡(luò)工具及機制相互作用形成,并以信息流的方式呈現(xiàn)出來。當(dāng)算法引入信息流時,信息處理由算法完成,算法編輯信息流的計算邏輯,回應(yīng)信息流并根據(jù)信息流情況進行操作。當(dāng)出現(xiàn)失靈或錯誤時,算法通過不斷的試錯、糾錯提升其適應(yīng)網(wǎng)絡(luò)生態(tài)的能力,使其隨著網(wǎng)絡(luò)發(fā)展不斷進化,可以說算法具有控制性,它以代碼的形式重塑了網(wǎng)絡(luò)的控制規(guī)則。
2.從控制形式上看,網(wǎng)絡(luò)環(huán)境下算法控制是數(shù)字化、自我執(zhí)行、多元網(wǎng)絡(luò)實體之間的分布式過程控制。我們能體驗到的是,人類尤其是算法的研發(fā)、運用管理者控制著算法,實際上,算法也在指引和控制著我們的交易和交流。當(dāng)我們的生活被信息化、數(shù)據(jù)化時,資本、人口、產(chǎn)品、基因、傳媒內(nèi)容等均以數(shù)字的形式在網(wǎng)絡(luò)空間傳播,算法的計算邏輯便成為組織生活的標(biāo)準(zhǔn)和原則。如算法通過建立在個人信息基礎(chǔ)之上的市場行為或國家監(jiān)視行為,將人們打分、評價、分類并貼上標(biāo)簽。人們被算法邏輯控制,算法影響個體及集體的行為、影響人們的選擇、影響社會秩序的建構(gòu)。也就是說,算法之下隱藏著算法的組織力、行動力和控制力。算法憑借其在通信網(wǎng)絡(luò)中的監(jiān)視、分類、組織、過濾、決定、傳輸數(shù)據(jù)等力量實現(xiàn)控制,其執(zhí)行力不來自外部,不依賴管理機構(gòu)強制執(zhí)行,也不由人們的信賴和信仰來保障,因此算法控制是無等級且具有自我執(zhí)行性的力量。算法控制力分布在網(wǎng)絡(luò)中,遍及網(wǎng)絡(luò)每一個角落,其控制過程是非人類的,不模擬人類決策,換句話說,算法控制是在網(wǎng)絡(luò)交易和交流中產(chǎn)生的,一種以代碼形式存在的調(diào)控性力量。[5]
3.從技術(shù)功能上看,算法是問題解決機制,它在自動決策過程中充當(dāng)守門人角色,即通過控制網(wǎng)絡(luò)信息傳播,限制或促進某些行為喜好,建立調(diào)控基本構(gòu)架或確立調(diào)控的主要決定性因素,進而決定商品、服務(wù)或是傳媒內(nèi)容的生產(chǎn)、分配和消費。可以說,隨著算法應(yīng)用日趨深入,算法在思想意識、行為模式及社會秩序等方方面面發(fā)揮著形塑和構(gòu)建作用。網(wǎng)絡(luò)社會中,市場、政治、公共關(guān)系、傳媒等都要通過信息與社會公眾發(fā)生互動。算法對網(wǎng)絡(luò)信息進行再分配,能決定哪些參數(shù)是相關(guān)的(評價排序)、什么內(nèi)容可以被看到(個性推薦)、可預(yù)測趨勢是什么(犯罪預(yù)測)、何種產(chǎn)品應(yīng)當(dāng)被生產(chǎn)和消費(算法編輯)。如新聞聚合平臺根據(jù)信息流算法對其用戶進行個性化新聞推薦,決定用戶能夠看到什么并不斷強化。因此,算法在組織活動、實施行為、施行功能的過程中,不僅決定公眾接受的信息,而且能夠向公眾灌輸價值觀、調(diào)整人們行為。算法是準(zhǔn)社會制度,它像政治法律制度和市場機制一樣,起到構(gòu)建公共秩序的作用。
4.從應(yīng)用效果上看,算法不是中性的技術(shù),政府或企業(yè)基于公共利益或企業(yè)利益的需要,可能將管制思想嵌入算法中,政府或企業(yè)監(jiān)管不直接作用于人,而是間接由算法規(guī)制來實現(xiàn),算法的安排本身便是權(quán)力的安排。網(wǎng)絡(luò)空間構(gòu)架經(jīng)歷了由自由范式向管控范式的發(fā)展,算法是其主要的技術(shù)支撐。也就是說,雖然算法是種技術(shù),但在受政府或企業(yè)影響的社會化進程中,監(jiān)控理念逐漸嵌入其中,例如早期TCP/IP協(xié)議僅有數(shù)據(jù)包傳輸功能而不能查看內(nèi)容,隨著網(wǎng)絡(luò)監(jiān)控思想的產(chǎn)生,TCP/IP協(xié)議被植入新的算法,網(wǎng)絡(luò)管理員被賦予了審查網(wǎng)絡(luò)數(shù)據(jù)包內(nèi)容的權(quán)限,算法加強了網(wǎng)絡(luò)的規(guī)制力。[6]從私益角度看,一些公司基于監(jiān)管思想,利用算法阻攔所有包含即時聊天內(nèi)容或與外部進行郵件往來的數(shù)據(jù)包,甚至是截取電子郵件來對員工工作能力和表現(xiàn)進行評價分析??梢哉f,算法編譯出網(wǎng)絡(luò)空間的權(quán)限或權(quán)力規(guī)則,并且由于算法調(diào)控的自我執(zhí)行性,算法權(quán)力安排成本更低且更加有效。
5.從應(yīng)用場景上看,算法主要有四種應(yīng)用類型,這四種應(yīng)用場景產(chǎn)生不同層次的算法控制。
(1)互聯(lián)網(wǎng)基本構(gòu)架算法——網(wǎng)絡(luò)社會意識形態(tài)的技術(shù)表達。它發(fā)揮互聯(lián)網(wǎng)基礎(chǔ)設(shè)施作用,決定網(wǎng)絡(luò)社會意識形態(tài)——是自由還是規(guī)制。此種算法控制是全局性算法控制,針對互聯(lián)網(wǎng)上所有用戶,重塑國家、資本和公民的關(guān)系,具有構(gòu)建社會的力量。
(2)平臺算法——算法與資本的結(jié)合。平臺算法是在平臺上以低成本、高效率的方式匹配商品、服務(wù)、資訊的生產(chǎn)與消費、供應(yīng)與需求,通過組織分配各種資源獲取收益的算法。平臺尤其是為數(shù)不多卻主宰市場的超級平臺,具有數(shù)據(jù)、注意力、技術(shù)等優(yōu)勢,能夠產(chǎn)生規(guī)模效應(yīng),大規(guī)模用戶使用平臺就要受平臺算法的約束與規(guī)制,算法也因此掌握了較多的價值和較強的控制力。
(3)輔助公共決策算法——算法與公權(quán)力的結(jié)合。它指應(yīng)用于失業(yè)、救濟、財政預(yù)算、稅收管理、社會治安、公共安全等公共事業(yè)領(lǐng)域,輔助公共決策的自動決策算法,其控制力來源于公權(quán)力對算法形式理性的依賴。這一領(lǐng)域,算法邏輯便是權(quán)力行使邏輯,是配置公共資源或提供公共服務(wù)的邏輯,其結(jié)果是“把官僚制的工具理性弊端推向新高度”。[7]
(4)私人領(lǐng)域自動決策算法——算法對現(xiàn)實空間的直接作用。它指應(yīng)用于現(xiàn)實的私人活動空間,替代或輔助人工決策的算法,適用于輔助醫(yī)療、法律服務(wù)、銀行貸款、入職測試等方方面面。這種算法通過補充或替代專業(yè)人才的技能和經(jīng)驗,對影響人們利益的事項作預(yù)測、評價和判斷,進而控制人們的社會生活。算法控制能夠催生強力,伴生歧視、不公等技術(shù)風(fēng)險,算法治理不僅要實現(xiàn)算法控制理性化,也要規(guī)避算法控制產(chǎn)生的各種侵害。
信息時代,社會關(guān)系可以由數(shù)字形式展現(xiàn)出來。算法控制遍布網(wǎng)絡(luò)空間,作為獨立實體,算法是社會生態(tài)系統(tǒng)的一部分,它能夠塑造文化、分配資源、調(diào)控行為,算法對現(xiàn)實社會的形塑作用是算法控制的外在表現(xiàn)。
1.算法塑造文化。
(1)調(diào)控思想市場。網(wǎng)絡(luò)傳媒環(huán)境中,信息是海量、復(fù)雜且碎片化的,網(wǎng)絡(luò)導(dǎo)航、傳媒內(nèi)容的生產(chǎn)消費等過程須由算法輔助完成,搜索引擎算法、內(nèi)容推薦算法能有效幫助人們檢索信息或選擇瀏覽內(nèi)容,無技術(shù)支撐的人力篩選則力有不逮。在思想市場中,算法的價值甚至要重于內(nèi)容的價值,算法計算思想市場上的大數(shù)據(jù),分析思想市場需求、預(yù)測精神產(chǎn)品趨勢。算法傳媒消費數(shù)據(jù)是算法傳媒生產(chǎn)的驅(qū)動性資源,算法邏輯替代專業(yè)標(biāo)準(zhǔn),對精神產(chǎn)品生產(chǎn)、傳播進行決策。當(dāng)然不同算法之間會有競爭,競爭情況反過來又共同影響算法傳媒消費。換句話說,傳媒消費活動以數(shù)據(jù)的形式反饋給算法,算法決定在搜索和推薦過程中如何應(yīng)用和處理這些數(shù)據(jù),作為其處理結(jié)果的算法輸出又反過來建立或是限制傳媒消費的體驗。[8]因此,算法發(fā)揮調(diào)控思想市場的作用,它指引精神產(chǎn)品的生產(chǎn)、分配和消費。
(2)形塑集體意識。第一,在智能社會,算法提供、聚合信息并對其進行組織和分類,通過選擇或回避某些信息、知識,算法強化了某種道德觀、價值理念的產(chǎn)生和傳播,并凸顯了它們在社會中的作用。[9]也就是說,算法通過邏輯計算調(diào)控傳媒內(nèi)容,進而影響人們的思想觀念和行為意識。算法因此成為塑造個人認知和集體意識的機制,社會行為秩序是社會共同意識和共同信念體系的產(chǎn)物,憑借知識、文化和價值觀的力量,算法構(gòu)建了社會整體的行為模式。第二,在電子通信時代算法是大眾傳媒技術(shù),任何一種傳媒技術(shù)都會帶來革命性變化,它不僅改變?nèi)藗兊慕涣鞣绞?,而且促使背后的意識、文化、社交、法律和權(quán)力結(jié)構(gòu)發(fā)生改變。[10]正如印刷術(shù)催生了古騰堡革命,印刷機的發(fā)明對天主教的沒落起到極大推動作用,影印文化推動了知識爆發(fā),開啟了文藝復(fù)興和啟蒙運動之路。算法技術(shù)興起給生產(chǎn)消費模式、資源分配模式、政府監(jiān)管模式都帶來巨大改變。計量我們?nèi)粘I?、交易和通訊的理性分析計算機制被算法標(biāo)準(zhǔn)化,人類被算法“圈養(yǎng)”,算法統(tǒng)治成為常態(tài)并成為人類的共同意識,算法已經(jīng)引發(fā)了一場新的革命性文化。
2.算法分配資源。
(1)互聯(lián)網(wǎng)中注意力是稀缺資源,算法能夠用來分配注意力。技術(shù)生產(chǎn)力不是孤立或單向運行的,它是關(guān)系性的力量。注意力體現(xiàn)了信息網(wǎng)絡(luò)技術(shù)時代新的社會技術(shù)關(guān)系屬性。網(wǎng)絡(luò)時代是信息爆炸的時代,在海量數(shù)據(jù)面前,人類信息處理能力捉襟見肘,消費者注意力的競爭成為商業(yè)競爭的主要內(nèi)容,這也被稱為注意力經(jīng)濟。注意力經(jīng)濟下,資金不一定是稀缺的,但時間和注意力卻是商家必爭的稀缺資源。[11]算法的力量在于,依據(jù)其所確定的參數(shù)和權(quán)重對信息進行選擇和分類,算法決定了在公共領(lǐng)域內(nèi),什么可以被看到或不被看到,可以以何種方式被何人看到。算法分配注意力資源的過程實際也是利益的分配過程,一方注意力的獲得是以他方注意力的缺失為代價的,因此算法成為了注意力資源的分配工具。①據(jù)Facebook統(tǒng)計,平均而言,與Facebook整合的媒體網(wǎng)站,其推薦流量增長了300%。Danny Sullivan,“By The Numbers:How Facebook Says Likes &Social Plugins Help Websites”,https://searchengineland.com/by-the-numbers-how-facebook-says-likes-social-plugins-help-websites-76061,last visited on 17 September,2020.
(2)大規(guī)模網(wǎng)絡(luò)共享平臺是各種市場要素的集散中心,平臺算法是新的經(jīng)濟組織形式。共享平臺是依靠算法為供需雙方匹配交易的網(wǎng)絡(luò)平臺,它以大量的分散契約為特征,形成動態(tài)、復(fù)雜、扁平、點對點的交易結(jié)構(gòu)。共享平臺對生產(chǎn)、交易活動有規(guī)范、控制和保障能力,直接在個體之間組織大規(guī)模的服務(wù)、商品的交換。這種對生產(chǎn)、交易活動的組織作用,與傳統(tǒng)經(jīng)濟中公司通過資本投入,雇傭個體集中化地生產(chǎn)、銷售產(chǎn)品或者提供服務(wù),在實質(zhì)功能上已無差別,[12]因此共享平臺算法是超越公司的新型經(jīng)濟制度形式。
(3)公共領(lǐng)域算法輔助決策發(fā)揮公共服務(wù)和公共資源分配作用。例如犯罪熱點算法預(yù)測軟件,通過大數(shù)據(jù)繪制犯罪熱點圖,可以看出哪些地方犯罪高發(fā),何種犯罪的犯罪率高,從而使警方可以有針對性地向犯罪高發(fā)地段配置更多的警力資源,實現(xiàn)預(yù)防和控制犯罪的目的。
3.算法調(diào)控行為。
(1)算法以輕推(nudging)方式引導(dǎo)行為。算法可以以不被察覺的方式潛移默化地引導(dǎo)人們的行為。2010年Facebook做了一個實驗,測試推送信息對選舉產(chǎn)生的影響。實驗證明推送附帶“你的朋友投票”這樣的社會信息,比推送單純的競選信息更能影響投票人。這一實驗說明Facebook有通過發(fā)揮“守門人”作用引導(dǎo)人們行為并改變選舉投票率的能力,而實驗過程并沒有通知任何被測試人,也未獲得被測試人許可。[13]
(2)算法改變行為界限。有研究表明,人們擔(dān)心電子商務(wù)環(huán)境下個人信息被濫用,但當(dāng)共享信息能夠換來免費服務(wù)時,人們?nèi)栽敢庾龀鲎尣健#?4]當(dāng)互聯(lián)網(wǎng)已經(jīng)嵌入人們生活方方面面時,人們對隱私問題也不再如從前那樣焦慮和不安。[15]這意味著,算法改變了人們對隱私的敏感度,人們對一些由算法帶來的風(fēng)險變得越來越寬容。[16]
(3)算法制定網(wǎng)絡(luò)行為規(guī)則。算法有權(quán)力特質(zhì),它以數(shù)據(jù)化、自動化、聯(lián)通性、虛擬社區(qū)甚至是社會基礎(chǔ)設(shè)施的形式,規(guī)范人們之間的社會關(guān)系和互動狀態(tài)。比如算法在屏蔽垃圾郵件或要求用戶提供個人信息時,它發(fā)揮的是政策制定者的作用,即算法以默認的方式確定了網(wǎng)絡(luò)行為規(guī)則。享受網(wǎng)絡(luò)服務(wù)就要被動接受算法規(guī)制,因此算法通過制定網(wǎng)絡(luò)行為規(guī)則產(chǎn)生了調(diào)控社會秩序的能力。
算法是復(fù)雜的控制機制。在商業(yè)領(lǐng)域,算法由企業(yè)運營管理,企業(yè)實現(xiàn)了對算法控制的接管,常會發(fā)生商業(yè)利益與社會公益的矛盾;更甚者,因為技術(shù)優(yōu)勢,平臺企業(yè)被國家賦予了新的私人執(zhí)法權(quán),這種權(quán)力轉(zhuǎn)嫁不但導(dǎo)致行政權(quán)力行使規(guī)則遭受破壞,而且加重了企業(yè)商業(yè)自由與社會責(zé)任之間的沖突。在公共領(lǐng)域,算法輔助決策的正當(dāng)性和合法性受算法自身邏輯風(fēng)險和算法黑箱風(fēng)險的制約。因此,與任何調(diào)控機制一樣,算法也有自身局限,存在失靈危險。
算法應(yīng)用邏輯風(fēng)險是算法作為社會生態(tài)系統(tǒng)一部分,隨其廣泛應(yīng)用而自然產(chǎn)生的外部效應(yīng),是算法處于中立狀態(tài)下,沒有外部力量干擾時發(fā)生的無主觀惡意的技術(shù)風(fēng)險。
1.算法監(jiān)視有侵害隱私的風(fēng)險。大數(shù)據(jù)背景下,算法已經(jīng)使數(shù)字監(jiān)視變?yōu)楝F(xiàn)實,我們的活動軌跡和隱私以數(shù)據(jù)的形式被記錄和存儲,政府或企業(yè)根據(jù)活動數(shù)據(jù)對人們進行性狀分析,這就是數(shù)字監(jiān)視。[17]在商業(yè)領(lǐng)域,網(wǎng)絡(luò)平臺越來越依賴用戶和消費者的網(wǎng)上行為軌跡去進行產(chǎn)品、服務(wù)和媒體內(nèi)容的預(yù)測分析或定向投放,網(wǎng)絡(luò)平臺公司有足夠的經(jīng)濟動機去搜羅網(wǎng)絡(luò)用戶的個人信息。它們時刻關(guān)注、追蹤、搜集用戶的軌跡數(shù)據(jù),用戶瀏覽了什么、點擊了什么、購買了什么都在平臺公司的掌控之下。尤其是大平臺公司,儼然已經(jīng)成為網(wǎng)絡(luò)數(shù)據(jù)生成、儲存中心,例如“谷歌已經(jīng)創(chuàng)建了復(fù)雜的數(shù)據(jù)監(jiān)控基礎(chǔ)設(shè)施,能夠為使用其產(chǎn)品的數(shù)百萬用戶創(chuàng)建強大的數(shù)字檔案”。[18]大平臺公司就像信息黑洞一樣,不斷釋放并累積增加其在網(wǎng)絡(luò)空間中吸收信息的能力。相較于傳統(tǒng)監(jiān)視而言,算法監(jiān)視對個人信息的搜集和追蹤具有相對的不可感知性、獨立性和不可避免性,因此它也更加復(fù)雜。不僅如此,國家及公共安全的需要更是強化了算法監(jiān)視的生存空間。算法聯(lián)合大數(shù)據(jù)的使用,改變了國家監(jiān)視模式,使其由定向?qū)彶檗D(zhuǎn)向規(guī)模監(jiān)控、由訓(xùn)誡轉(zhuǎn)為控制。算法監(jiān)視使國家可以大規(guī)模、不特定地過濾、分析、評估、存儲個人信息,國家可以用最簡單、高效和有價值的方式實現(xiàn)公共安全目標(biāo)。個人被算法量化并被標(biāo)簽分類,在國家面前,個人變得前所未有的透明。[19]
2.算法個性化有削弱民主的風(fēng)險。算法建立在共享現(xiàn)實的基礎(chǔ)上,但卻產(chǎn)生了個性化的技術(shù)特點。算法應(yīng)用是由大數(shù)據(jù)驅(qū)動的即時性、自動化決策過程,具有情景依賴性和個人定制性,個體人口特征、行為習(xí)慣及交往信息等能夠影響算法對個體的評價,進而產(chǎn)生了個性化的計算結(jié)果。個性化同時也激化了個體化和碎片化,而它們恰恰會對民主造成傷害。個體化和碎片化會侵蝕一般行為準(zhǔn)則和公共制度,進而會降低社會一致性并威脅社會秩序。為了抵消個體化和碎片化帶來的風(fēng)險,需要加大有效控制和訓(xùn)誡,因此也就削弱了個性化所允諾的自治和行動自由。[20]不僅如此,個性化算法使網(wǎng)絡(luò)形成了“過濾泡”,它加強了相同人之間的聯(lián)系,強化了相同的體驗、觀點和文化,因此喪失了網(wǎng)絡(luò)空間人與人關(guān)聯(lián)的多樣性。也就是說,“過濾泡”產(chǎn)生了“回聲室”效應(yīng),它可能會擴大政治兩級分化,因此算法使我們得以在網(wǎng)絡(luò)空間中彰顯個性,但也可能會侵害我們的自由和民主。
3.算法評價有損害公平的風(fēng)險。算法評價打分被廣泛應(yīng)用于金融、雇傭、搜索推薦等領(lǐng)域,人們的生活、信譽以及搜索相關(guān)性等被算法打分并分級。算法評價打分本應(yīng)該是中立的,但由于算法評級要依據(jù)一定的標(biāo)準(zhǔn)和尺度,這些標(biāo)準(zhǔn)可能帶有天然的“歧視”或“不公”;或者由于人類行為的輸入,算法被間接地嵌入了具有偏向性的價值觀。這就使算法“打分”產(chǎn)生了不公風(fēng)險,特定個體或弱勢群體很可能因算法評級而遭受不正當(dāng)評價甚至歧視待遇。無論是故意的還是間接的,強化這些標(biāo)準(zhǔn)是算法打分系統(tǒng)的固有特征,算法每一次更新調(diào)整都有可能造成“歧視”的擴大。[21]除一般性“歧視”外,算法打分還可能是特定指向的,即針對某一特定對象,此時算法結(jié)果受人為操縱,可能用來排擠競爭對手、用來保持自己的競爭優(yōu)勢或是賺取廣告利潤。如Search King,Inc.v.Google Tech.,Inc.案中,Search king與Google存在廣告業(yè)務(wù)競爭關(guān)系,Google被訴持續(xù)惡意降低Search king在其搜索引擎中的排名,給其商業(yè)機會帶來巨大損失。[22]
目前對算法尤其是AI算法最主要的詰難是算法黑箱。算法黑箱使算法不具有完全的可理解性和可控制性,“黑箱” 幕布導(dǎo)致公眾與算法應(yīng)用管理者之間產(chǎn)生信息不對稱,不但使公眾無法預(yù)判自己的行為后果,而且引發(fā)了算法應(yīng)用管理者的道德風(fēng)險,算法黑箱為主觀惡意行為打開方便之門。
1.算法黑箱降低了人們對算法應(yīng)用的預(yù)見力和控制力。AI決策采用的是機器學(xué)習(xí)算法,即通過輸入數(shù)據(jù)和預(yù)期目標(biāo),輸出能夠產(chǎn)生新算法的算法。[23]換句話說,機器學(xué)習(xí)過程中新算法推演由算法自我編譯完成,很多情況下,人們不知道新算法如何產(chǎn)生,也不知道算法會如何做出決策。即使是一些簡單的機器學(xué)習(xí)算法,它的設(shè)計者也不能對其進行完全解釋,何況模擬神經(jīng)元網(wǎng)絡(luò)的深度學(xué)習(xí)算法更加復(fù)雜。雖然這不意味著以后的AI技術(shù)會朝著不可知的方向發(fā)展,但深度學(xué)習(xí)從本質(zhì)上來講是一個巨大的黑箱。甚至有觀點認為直到深度學(xué)習(xí)算法可以被人類理解或能夠?qū)θ祟愂褂谜哓撠?zé),它都不應(yīng)被大規(guī)模的廣泛應(yīng)用。[24]
2.算法黑箱與數(shù)據(jù)瑕疵耦合,不斷強化算法決策潛在風(fēng)險。如果訓(xùn)練數(shù)據(jù)有瑕疵,比如數(shù)據(jù)反應(yīng)性別、種族等歧視性價值觀,而算法恰將其作為決策參數(shù)進行評估,那么系統(tǒng)做出的決策很有可能是不公正的。算法系統(tǒng)又因受反饋回路影響,隨著AI持續(xù)決策,偏見和歧視便被嵌入算法中并被不斷固化和擴大。[25]或者,每個人都有可能在數(shù)據(jù)庫中被貼上不良標(biāo)簽,若不良記錄是因網(wǎng)上無意的“失誤”行為引起,而這些不良信息恰是自動決策參數(shù)且權(quán)重較大時,將會引起一連串無法控制的不利后果?!耙坏┠硞€軟件將某人歸類為不良信用者、好逸惡勞者或邊際消費者,那么其他的經(jīng)濟系統(tǒng)決策時都會參照這一定性?!保?6]人們的偶然行為有可能成為定性標(biāo)簽,并且隨著數(shù)據(jù)不斷共享,不良標(biāo)簽的影響隨之不斷擴大。不幸的是,算法黑箱讓人們無法知道其評估標(biāo)準(zhǔn)是什么,是哪個失誤行為或特質(zhì)讓其付出如此慘重代價,因此也就難以對測評結(jié)果提出反對、質(zhì)疑和抗議。
3.算法黑箱可能引發(fā)道德風(fēng)險,用來掩蓋不正當(dāng)行為。算法具有復(fù)雜性,這為政府和大型企業(yè)以算法之名行不當(dāng)行為之實提供可乘之機,算法黑箱使惡意的不公、歧視、壟斷、擾亂競爭、侵害消費者權(quán)益等行為有了正當(dāng)?shù)募傧蟆9雀枋撬惴ê谙湮幕拇?,多次因搜索排名問題被提起訴訟。谷歌被指控在其涉足或計劃涉足的領(lǐng)域,通過降級排名或惡意過濾的方式,排擠競爭對手、壓制收購目標(biāo),妨礙新興公司發(fā)展。[27]由于搜索推薦結(jié)果是由算法做出的,人們無法確定降序或過濾是算法自然計算的結(jié)果,還是人為干預(yù)的結(jié)果,算法黑箱由此為運營者躲在算法之后覆上一層神秘的面紗。優(yōu)步也被指責(zé)故意使用激增定價算法,制造出一個不準(zhǔn)確反映供需關(guān)系的“虛假市場”,優(yōu)步可以按自己的想法對用戶收取更多的費用。[28]定價不公這種擾亂市場秩序、侵害消費者權(quán)益的行為,同樣被算法黑箱掩蓋了。算法黑箱為惡意行為打開了方便之門,此種情況下,算法風(fēng)險不單純來自算法技術(shù)本身,更多的是來自算法運營者的主觀意愿。
算法決策通常會發(fā)生算法、平臺、私營公司三種力量的耦合,追求個人利益最大化的私營公司執(zhí)行算法強大的控制力,生成特殊的私人權(quán)力。算法決策過程中商業(yè)價值與公共利益相互交織,產(chǎn)生了新的利益沖突,算法權(quán)力極易發(fā)生異化。
1.算法權(quán)力濫用擾亂秩序。算法或多或少來自私營者有目的的設(shè)計研發(fā)。受商業(yè)利益驅(qū)動,研發(fā)者、運營者傾向于強化能夠?qū)崿F(xiàn)其利益最大化的特殊標(biāo)準(zhǔn)。因此,算法在發(fā)揮調(diào)控作用、構(gòu)建社會現(xiàn)實時,公共利益機能受到威脅,其所應(yīng)承擔(dān)的社會責(zé)任遭受沖擊,最終鞏固了已有的社會不平等或創(chuàng)造了新的社會不公,干擾了正常的政治秩序或經(jīng)濟社會秩序。尤其像谷歌、蘋果這樣的超級平臺,雖然它們需要依靠第三方程序來吸引客戶,但它們有多種方法去利用自己的算法權(quán)力。如優(yōu)先保護自己旗下的產(chǎn)品,排斥與其存在競爭關(guān)系或相互沖突的程序;為廣告收入而脅迫第三方程序開發(fā)者做出妥協(xié)等。由于第三方程序?qū)Τ壠脚_極度依賴,程序開發(fā)者與超級平臺間產(chǎn)生了嚴(yán)重的力量失衡,即便像優(yōu)步這樣的應(yīng)用程序,也逃離不了谷歌或蘋果這種超級平臺的噩夢。[29]
2.算法權(quán)力壟斷形成算法霸權(quán)。當(dāng)算法賦權(quán)使互聯(lián)網(wǎng)平臺成長為超級平臺時,算法注意力分配優(yōu)勢配合大數(shù)據(jù)壟斷地位,使網(wǎng)絡(luò)效應(yīng)急劇擴大。超級平臺不但能化解來自外部的競爭壓力,如采取防御性措施打擊對其主導(dǎo)地位產(chǎn)生威脅的新興行業(yè)或創(chuàng)新企業(yè),而且能夠決定鏈接其上的第三方應(yīng)用程序的生死命運。超級平臺是規(guī)則的制定者,它既可以通過降低注意力將應(yīng)用程序踢出其生態(tài)系統(tǒng),也可以以相反的方式成就某一程序。這也就使超級平臺有能力完成產(chǎn)業(yè)鏈上的垂直兼并,從而占據(jù)互聯(lián)網(wǎng)的下游產(chǎn)業(yè)。互聯(lián)網(wǎng)下游產(chǎn)業(yè)乃至消費者都被圈養(yǎng)在超級平臺下,算法使超級平臺擁有了強者越強的超級霸權(quán)。[30]
3.公私權(quán)力錯位甚至合謀侵蝕權(quán)利。算法編譯了互聯(lián)網(wǎng)構(gòu)架,創(chuàng)設(shè)了互聯(lián)網(wǎng)特征,具有構(gòu)建社會的力量。算法編寫主要采用私營化的商業(yè)模式,即算法尤其是網(wǎng)絡(luò)基礎(chǔ)設(shè)施算法和社會影響力較大的平臺算法主要由大科技公司設(shè)計開發(fā),政府直接管制算法經(jīng)營者便能間接管理社會。網(wǎng)絡(luò)服務(wù)商或平臺經(jīng)營者因此成為政府關(guān)注的焦點,并成為極具價值的合作伙伴,互聯(lián)網(wǎng)平臺成為算法秩序下的守門人。這種做法實際上是“迫使平臺加強對用戶內(nèi)容的私人審查,從而協(xié)助甚至替代監(jiān)管部門完成整飭市場秩序的公共目標(biāo)”。[31]對經(jīng)營者來說,相較于挑戰(zhàn)國家審查政策,與國家合作能夠帶來更多的利潤,從商業(yè)理性出發(fā),合作是經(jīng)營者的優(yōu)先選擇。也就是說,算法的背后是權(quán)力機關(guān)與經(jīng)營者間執(zhí)法轉(zhuǎn)嫁的事實,而從規(guī)范治理角度看,這種轉(zhuǎn)嫁需要有法律授權(quán)、經(jīng)過正當(dāng)程序,否則極易造成權(quán)力錯位,甚至公私合謀。進一步說,平臺算法雖然具有較強控制力,能夠引導(dǎo)市場交易,但其經(jīng)營者不具備執(zhí)法的資格和能力,算法私人執(zhí)法程序、方式等方面的規(guī)范建設(shè)尚不健全,平臺守門的正當(dāng)基礎(chǔ)和行為規(guī)制尚需完善。不僅如此,執(zhí)法轉(zhuǎn)嫁使平臺經(jīng)營者擔(dān)負了過重的失察問責(zé)義務(wù),其成本最終極可能轉(zhuǎn)嫁到平臺用戶身上,造成對私法關(guān)系的侵?jǐn)_和私人權(quán)益的侵害。
算法控制主要有兩類風(fēng)險:一類是產(chǎn)生非理性化的算法權(quán)力;另一類是侵害公認的價值和利益。算法治理,其目的是通過多種策略的運用防控算法控制風(fēng)險,在人類與算法之間形成和諧共存關(guān)系。算法治理不是單純的法律技術(shù)問題,它需要在理性的法律政策指引下展開。算法能夠驅(qū)動創(chuàng)新發(fā)展,能給社會經(jīng)濟帶來巨大紅利。目前歐盟和美國關(guān)于算法政策已趨于達成共識,如何使本國在算法國際競爭中獲得領(lǐng)先地位,是歐美各國制定算法政策時所關(guān)注的主要問題。因此,算法治理的政策核心是使算法的運用能夠滿足人的需求,能夠提升社會效益和人類福祉,同時又能將算法控制的負面效應(yīng)和法律風(fēng)險降到最低。
多元治理旨在綜合運用多種治理措施實現(xiàn)治理效能最大化。算法治理有多種可選擇措施,每種治理措施的激勵機制、調(diào)控力度、適用條件及治理局限都不相同,沒有一種措施可以解決所有問題,算法治理更宜采用多元化治理方案。
1.以技術(shù)創(chuàng)新為助力共同防控算法控制風(fēng)險。社會系統(tǒng)由四種力量調(diào)控:市場、法律、社群規(guī)范與構(gòu)架。①社會系統(tǒng)由四種力量調(diào)控:市場、法律、社群規(guī)范及構(gòu)架。算法作為構(gòu)架調(diào)控的一種,與市場、法律和社群規(guī)范是相互制約和依賴的。網(wǎng)絡(luò)空間中四種規(guī)制應(yīng)當(dāng)保持平衡,算法規(guī)制并非不受約束,其能力要接受市場規(guī)律、法律規(guī)范或社群規(guī)范的檢驗,否則就有可能受到市場機制或法律規(guī)范、社群規(guī)范的懲罰。參見〔美〕勞倫斯·萊斯格著,李旭,沈偉偉譯:《代碼2.0:網(wǎng)絡(luò)空間的法律》,清華大學(xué)出版社2009年版,第132頁~第137頁。政府監(jiān)管僅是風(fēng)險防控的一種手段,技術(shù)進步、市場調(diào)節(jié)等,同樣可以治理算法控制帶來的風(fēng)險。尤其是在算法經(jīng)濟時代,“技術(shù)正在創(chuàng)造新的機會,它比算法透明更精妙、更有彈性,使自動決策更符合法律和政策目標(biāo)。”[32]當(dāng)政府監(jiān)管無效時,技術(shù)防范可能更加有效。在互聯(lián)網(wǎng)平臺商業(yè)關(guān)系中心化之際,數(shù)據(jù)資源掌握在互聯(lián)網(wǎng)巨頭手中,各個平臺公司基于壟斷形成數(shù)據(jù)孤島,數(shù)據(jù)資源濫用丑聞不斷爆出,②2018年3月,Cambridge Analytica被發(fā)現(xiàn)利用用戶行為數(shù)據(jù)操縱美國大選;同月,文章《大數(shù)據(jù)“殺”你沒商量:住同樣酒店,你就得比別人貴》揭露,攜程和滴滴利用大數(shù)據(jù)對用戶進行差異性定價。區(qū)塊鏈技術(shù)因其分布式記賬特點,能夠?qū)崿F(xiàn)開放、透明和民主,成了打破數(shù)據(jù)壟斷壁壘、重構(gòu)數(shù)據(jù)大資產(chǎn)、重建互聯(lián)網(wǎng)商業(yè)生態(tài)的重大武器。目前,全球首個人工智能與區(qū)塊鏈結(jié)合的自治網(wǎng)絡(luò)Singularity NET已經(jīng)建立,它成功搭建了針對算法的去中心化平臺。在決策的可理解性方面,卡內(nèi)基梅隆大學(xué)研究出了定量輸入測量方法,不需要分析代碼就能測出算法系統(tǒng)里每個因素的影響程度,為解決算法透明與商業(yè)秘密沖突問題提供了可能性。[33]可以說,一種算法設(shè)置某種控制,便有可能產(chǎn)生抵消這種控制的另一種算法。
2.政府監(jiān)管應(yīng)與企業(yè)自治形成復(fù)合治理。人們擔(dān)心智能算法的安全性、公平性及其給人類生活和公共利益帶來的各種風(fēng)險。實際上,企業(yè)自身也在積極實施應(yīng)對之策,算法運營公司多以企業(yè)社會責(zé)任形式確立算法運營公共利益原則或建立內(nèi)部質(zhì)量評估制度。尤其是算法應(yīng)用的大公司,通過確定搜索中立原則、數(shù)據(jù)最小化原則或建立風(fēng)險評估機制、投訴調(diào)查機制等,對算法應(yīng)用進行內(nèi)部審查或外部咨詢,以實現(xiàn)算法的安全、有效和符合倫理?!罢?、市場和社會的現(xiàn)實關(guān)聯(lián)和協(xié)同互動直接影響著國家共同體內(nèi)各個領(lǐng)域的運行、發(fā)展,以及相應(yīng)的組織和規(guī)則的建設(shè)?!保?4]市場在資源配置過程中起基礎(chǔ)和決定作用,為避免消費者“用腳投票”、維護企業(yè)長期盈利能力、促進企業(yè)長期發(fā)展,互聯(lián)網(wǎng)航頭企業(yè)有一定的風(fēng)險防范和約束權(quán)力的主觀愿望。在市場失靈領(lǐng)域,政府為維持宏觀經(jīng)濟穩(wěn)定,制定和實施一系列優(yōu)化公共服務(wù)、保障公平競爭、加強市場監(jiān)管、維護市場秩序的政策和措施,但它們并不一定恰當(dāng)有效。GDPR就被指責(zé)過于嚴(yán)格,對AI行業(yè)發(fā)展不夠友好。歐盟對數(shù)據(jù)處理的監(jiān)管將會限制AI發(fā)展?jié)摿?,?shù)據(jù)保護正在為AI產(chǎn)業(yè)制造壁壘,損害了歐盟在AI產(chǎn)業(yè)的競爭優(yōu)勢。[35]而政府監(jiān)管失靈這一問題卻有可能依靠企業(yè)自治糾正,如Facebook正在積極開發(fā)區(qū)塊鏈技術(shù),以期解決目前算法技術(shù)所帶來的假新聞、網(wǎng)絡(luò)霸凌,數(shù)據(jù)隱私保護和過度商業(yè)化等問題,以去中心化思路實現(xiàn)權(quán)力向個人的下放。[36]算法的企業(yè)自治還包括產(chǎn)業(yè)或行業(yè)自治,即產(chǎn)業(yè)或行業(yè)通過實施各種措施,如確定行業(yè)規(guī)范、產(chǎn)業(yè)標(biāo)準(zhǔn)或建立認證機構(gòu)、倫理審查機構(gòu)等來維護公共利益,實現(xiàn)促進產(chǎn)業(yè)發(fā)展的目的。
分類治理原則將算法決策區(qū)分為商業(yè)領(lǐng)域算法決策和公共領(lǐng)域算法決策。通過對照不同領(lǐng)域算法決策特點,結(jié)合不同治理措施在激勵機制、利益沖突及管理力度等方面的差異,有針對性地優(yōu)先適用恰當(dāng)?shù)闹卫聿呗院痛胧?/p>
1.商業(yè)領(lǐng)域要注重市場因素及行業(yè)自治對算法治理的影響。商業(yè)領(lǐng)域算法治理首選市場機制。市場機制是需求方解決機制,依賴消費者反應(yīng)和技術(shù)供給,法律要給予充分尊重。相對于制造風(fēng)險的算法,消費者會選擇對隱私、歧視、審查等風(fēng)險提供技術(shù)解決方案的算法。如果算法使用了匿名化技術(shù)、加密技術(shù)、無追蹤技術(shù)等,該算法平臺將更受消費者青睞。商業(yè)領(lǐng)域算法治理要尊重市場力量,允許算法運營者以改變商業(yè)策略或?qū)λ惴ㄟM行技術(shù)改進的方式減少算法風(fēng)險。否則不但不利于商業(yè)模式的多樣化發(fā)展,而且強行干擾了消費者的市場選擇,是對公共利益的雙重侵害。例如個性化推薦算法有降低人的知識多樣性及侵害民主的風(fēng)險,但作為一種產(chǎn)品營銷模式,應(yīng)當(dāng)由消費者來決定其市場,通過個性化推薦算法標(biāo)識技術(shù)及賦予終端消費者關(guān)閉個性推薦的選擇權(quán)來實現(xiàn)算法的共同治理。當(dāng)然算法市場調(diào)節(jié)有自身局限,市場調(diào)節(jié)前提是市場是開放自由的且有可替代選擇,存在能夠防治風(fēng)險的算法技術(shù)且該技術(shù)不會降低消費者的體驗,除此之外消費者還要知道潛在風(fēng)險的存在。行業(yè)自治也存在局限,它受行業(yè)碎片化和異質(zhì)化限制,而算法決策恰恰應(yīng)用于不同領(lǐng)域和場景,這意味著算法決策要依適用領(lǐng)域建立各自的治理標(biāo)準(zhǔn),這對新興行業(yè)來說具有一定的難度。[37]因此,當(dāng)市場調(diào)節(jié)和行業(yè)自律失效時,則應(yīng)當(dāng)發(fā)揮政府干預(yù)的作用。
2.公共領(lǐng)域算法決策要遵守既有法律對權(quán)力行使的規(guī)范要求,符合公共決策的條件、標(biāo)準(zhǔn)和流程。如公共領(lǐng)域在啟用算法時,要對算法進行決策影響評估。紐約大學(xué)人工智能研究所(New York University’s AI Now Institute)提出了公共領(lǐng)域評估算法影響的初步框架,確立了確定算法損害何時發(fā)生、如何發(fā)生的主要步驟。[38]再如,信息公開、信息透明對社會正義至關(guān)重要,關(guān)系到公共決策是否公平和正當(dāng),因此當(dāng)司法領(lǐng)域運用算法決策時,可以要求公開源代碼,使公共領(lǐng)域算法決策實現(xiàn)最大化公開,以便決策更好地接受公眾監(jiān)督。[39]另外,公共領(lǐng)域算法應(yīng)用,因缺少替代性市場選擇或市場控制比較集中,導(dǎo)致市場機制無法發(fā)揮作用,更應(yīng)加大政府監(jiān)管力度。若商業(yè)領(lǐng)域出現(xiàn)算法歧視,用戶可以選擇不使用算法產(chǎn)品或平臺,有瑕疵算法因此會遭受市場淘汰,私營公司有更迭算法技術(shù)的動機。但在公共領(lǐng)域,因缺少市場規(guī)制,算法運用者缺少主動改進動機,因此較為嚴(yán)厲的監(jiān)管措施,如算法問責(zé),更能實現(xiàn)算法風(fēng)險防控的目的。
治理效益原則旨在促進算法技術(shù)進步和產(chǎn)業(yè)創(chuàng)新發(fā)展。算法治理具有成本,無論選擇何種治理方式我們都應(yīng)在成本和收益之間進行權(quán)衡,選擇出最佳治理形式。技術(shù)創(chuàng)新與技術(shù)風(fēng)險總是相伴而生,治理效益原則利于在有效監(jiān)管中鼓勵技術(shù)創(chuàng)新和產(chǎn)業(yè)進步。
1.以成本——收益為評估準(zhǔn)則。新通信技術(shù)的產(chǎn)生總是會給社會帶來巨大變革,從口語交流、手抄文字、印刷革命到電子通信,每一次技術(shù)更迭,都會在新舊秩序之間形成巨大的價值張力,新技術(shù)在監(jiān)管與放任之間的斗爭從未停息。一種技術(shù)最終能否獲得信任并盛行,并不取決于它是否有利于維護舊秩序的安定,而是由其在社會經(jīng)濟發(fā)展中產(chǎn)生的效用和功能所決定。[40]智能算法也不例外,一方面算法提高了效率、方便了生活、促進了協(xié)作,另一方面它也存在加劇不公、侵犯隱私、形成壟斷的風(fēng)險。是否對AI算法進行監(jiān)管,給予何種程度的監(jiān)管,是利弊權(quán)衡過程中成本——收益的比較,而不是單方面看它給舊價值、舊秩序體系帶來怎樣的沖擊。這是一種手段和目的的分析方法,即算法監(jiān)管力度與其風(fēng)險應(yīng)成比例,算法監(jiān)管應(yīng)是妥當(dāng)?shù)?、必要的,給被監(jiān)管者帶來最小損害而不是過重負擔(dān)。《通用數(shù)據(jù)保護條例》(GDPR)是這方面失敗的例子,GDPR出臺后,搜集、分享、使用數(shù)據(jù)已經(jīng)成為制約歐盟AI產(chǎn)業(yè)發(fā)展的最大障礙。如第17(1)條的刪除權(quán)(right to erasure)與無監(jiān)督機器學(xué)習(xí)算法相沖突。無監(jiān)督機器學(xué)習(xí)算法從其所處理的數(shù)據(jù)中不斷推演新算法,此種算法需要記住其訓(xùn)練數(shù)據(jù)以維持其計算出的規(guī)則,刪除數(shù)據(jù)不僅會降低算法準(zhǔn)確性,甚至有可能對算法造成整體性破壞。第6條的數(shù)據(jù)再利用禁止權(quán)(prohibition on repurposing data),使公司難以利用數(shù)據(jù)進行創(chuàng)新功能、改進服務(wù)的實驗,不但增加企業(yè)成本,也降低了消費者體驗。[41]因此,GDPR遭遇諸多指責(zé)。歐盟成員國開始意識到,與美國和亞洲國家相比,GDPR將使歐盟AI產(chǎn)業(yè)喪失競爭力,GDPR改革迫在眉睫。[42]2019年12月17日,在歐盟委員會最后一次聽證會上,主席馮德萊恩提出了指導(dǎo)歐盟數(shù)據(jù)戰(zhàn)略的四大目標(biāo),提議修訂GDPR,修改對企業(yè)搜集使用數(shù)據(jù)的不必要限制,歐盟算法治理開始呈現(xiàn)出數(shù)據(jù)驅(qū)動創(chuàng)新的新跡象。[43]
2.以疏導(dǎo)風(fēng)險為監(jiān)管思路。在對待新技術(shù)上,美國和歐盟采用了兩種不同的思路,美國在數(shù)字經(jīng)濟領(lǐng)域內(nèi)的技術(shù)創(chuàng)新和應(yīng)用能夠保持領(lǐng)先地位,很大程度上取決于其在監(jiān)管上的鼓勵創(chuàng)新原則,而不是如GDPR采用預(yù)防原則。預(yù)防原則會抑制創(chuàng)新——一部限制數(shù)據(jù)分享和使用的綜合性數(shù)據(jù)保護法,會限制企業(yè)創(chuàng)新自由,對于想實現(xiàn)算法經(jīng)濟繁榮的國家,走預(yù)防性監(jiān)管路線可能是個錯誤。[44]當(dāng)然,風(fēng)險預(yù)防有其優(yōu)勢,我們要警惕的是模式化、高成本的極端預(yù)防。我們的社會是風(fēng)險社會,算法監(jiān)管的目標(biāo)是控制風(fēng)險,即使風(fēng)險降低、可控且可償,而不是消除風(fēng)險。創(chuàng)新必然伴隨風(fēng)險和錯誤,不是所有的風(fēng)險和錯誤都不可容忍,尤其是當(dāng)創(chuàng)新具有社會進步意義、技術(shù)更迭較快或國際競爭激勵時,過度監(jiān)管意味著高昂的機會成本。[45]技術(shù)創(chuàng)新風(fēng)險監(jiān)控目標(biāo)應(yīng)當(dāng)是激勵合目標(biāo)行為,減少欲回避行為,而不是設(shè)定一刀切的防護欄。GDPR規(guī)定了自動決策的透明性原則,從高標(biāo)準(zhǔn)的解釋權(quán)、知情權(quán)、公開義務(wù)角度,確定了算法自動決策運用管理者應(yīng)履行的義務(wù)。如第13條~第15條授予數(shù)據(jù)權(quán)人算法邏輯重要信息獲取權(quán)(right to receive“meaningful information about the logic involved”),但如果要準(zhǔn)確解釋每個個體決策的邏輯則會犧牲算法的準(zhǔn)確性,這是算法技術(shù)的固有特點。所以,GDPR以防范風(fēng)險和預(yù)防干預(yù)為目標(biāo),本意雖好,但高規(guī)格的透明性要求極易與運營者的商業(yè)利益或知識產(chǎn)權(quán)發(fā)生沖突。并且這些要求在人類決策時并未提出,反向激勵了放棄算法決策的選擇,從而抑制了算法經(jīng)濟發(fā)展?;蛘哌\用者為繼續(xù)使用算法,也可能選擇以違反義務(wù)、欺騙、設(shè)定復(fù)雜交易結(jié)構(gòu)或?qū)λ惴ㄟM行復(fù)雜解釋等方式,逃避透明性要求,從而維護自身的商業(yè)利益,法律規(guī)則也便失去了實效性?!霸噲D拉開復(fù)雜性之幕以防止不受歡迎的結(jié)果,即令人難以置信又威脅人工智能和機器學(xué)習(xí)的整體進步。”[46]算法監(jiān)管應(yīng)當(dāng)有利于應(yīng)用者在算法運行中試錯糾錯的修正行為,有利于以自主方式選擇風(fēng)險控制策略和措施,而不是為了追求零風(fēng)險而使運用者裹足難行。
治理客觀原則旨在保障算法治理合理、可行及有效。算法雖是技術(shù),但卻是關(guān)系性的技術(shù)。它不但普遍介入各種社會關(guān)系,并且引起了社會關(guān)系的革命性變革。算法作為社會事實,其治理應(yīng)當(dāng)尊重算法技術(shù)現(xiàn)實,唯此方能制定出客觀、合理的治理策略。
1.尊重算法技術(shù)特點,確保治理切實可行。算法治理要遵循規(guī)范與事實之間辯證規(guī)律。法律是事實性與有效性之間的媒介,若算法治理不考慮自身技術(shù)特點,有可能導(dǎo)致算法治理難以發(fā)揮作用。算法透明性的諸多提議中,有一種觀點認為算法代碼應(yīng)當(dāng)公開。但算法向公眾公開,意味著它同時要面臨黑客攻擊、惡意利用算法等問題(比如垃圾郵件投放、隱藏逃稅行為等)。并且算法極為復(fù)雜,即便是向第三方機構(gòu)或追責(zé)主體公開,哪怕?lián)碛凶顧?quán)威的專家和最全面的信息,也較難解釋算法如何工作以及每部分算法有何種作用,更何況理解算法邏輯規(guī)則并不等于理解算法決策規(guī)則。密歇根大學(xué)計算機科學(xué)家研究指出,即便算法公開,但該算法起到何種作用,專家之間是存在嚴(yán)重分歧的,算法風(fēng)險評測較難實行,算法缺陷評估貌似合理但可行性較低。[47]并且對于一些高級的AI系統(tǒng),它們依靠數(shù)千層仿真神經(jīng)元解釋數(shù)據(jù),研發(fā)者也無法解釋它是如何決策的。即便能解釋,單純針對靜態(tài)代碼的監(jiān)管,無法確保它確實是被運用到特定決策中,還是在限定的數(shù)據(jù)集中按程序員所期望的方式運行,[48]算法解釋的實際效果可能并不會讓人滿意。GDPR公布后,歐盟第29條工作組發(fā)布了關(guān)于自動決策的指南,明確指出透明性并不必然要求對算法進行復(fù)雜解釋,或?qū)⑺惴ㄈ抗_,而是以簡潔易懂的方式告知決策過程中的標(biāo)準(zhǔn)和原理,使人足以理解決策的理由。[49]
2.算法治理應(yīng)立足于可預(yù)期的現(xiàn)實風(fēng)險。不僅是GDPR,《致歐盟委員會的機器人民事法律規(guī)則建議》(European Parliament Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics)也受到了不切實際、過度監(jiān)管的指責(zé)。在報告草案階段,歐洲機器人協(xié)會(EUnited Robotics)從機器人產(chǎn)業(yè)實際出發(fā),對其做了回應(yīng)性評述。該評述指出,《草案報告》提供了問題的解決方案,而有些問題實際上是不存在的,而且可能以后也不會存在,歐盟層面統(tǒng)一的管理準(zhǔn)則,對歐洲產(chǎn)業(yè)確有一定益處,但過度的監(jiān)管會阻礙進一步發(fā)展,不單會限制機器人的行業(yè)競爭,而且會對歐洲制造業(yè)造成整體傷害。舉例來說,至少從中期看,人工智能增強了人的參與性而不是相反,機器人遠未到達能夠使其背后的人類或機構(gòu)免責(zé)的自主程度,因此沒有創(chuàng)設(shè)電子人格的必要,在專業(yè)應(yīng)用領(lǐng)域也無需引入機器人技術(shù)強制保險制度。[50]歐盟過度監(jiān)管有其文化根源,古希伯來人關(guān)于戈拉姆(Golem)的神話①Golem,希伯來傳說中用粘土、石頭或青銅制成的無生命的巨人,注入魔力后可行動,但無思考能力。,形塑了西方集體意識對人類創(chuàng)造物失控的畏懼情結(jié)。人工智能的嚴(yán)格監(jiān)管,并不完全根源于可能產(chǎn)生的實際問題,而是反映了西方民眾對機器人失控的非理性擔(dān)憂。[51]而非理性擔(dān)憂不但達不到風(fēng)險防范、促進福祉的目的,反而會扼殺創(chuàng)新和進步。算法監(jiān)管不是一蹴而就的,在整合既有立法資源基礎(chǔ)上,采用漸進主義且務(wù)實、謹(jǐn)慎的監(jiān)管路線更為合理。
算法治理政策向法律策略轉(zhuǎn)換,需要發(fā)現(xiàn)算法治理的法律邏輯。算法治理法律邏輯由算法治理目的和其結(jié)構(gòu)性矛盾決定。算法治理目的主要是實現(xiàn)算法控制的理性化及算法侵害的可控化。圍繞這兩個問題,算法治理有兩個不可回避的結(jié)構(gòu)性矛盾:一是算法控制模式的非中心化與算法控制力的集中化傾向之間的矛盾;二是算法用途工具性與算法運作自主性之間的矛盾。算法治理結(jié)構(gòu)性矛盾的化解路徑,決定了算法治理的法律邏輯,決定了算法治理的權(quán)力、義務(wù)、責(zé)任關(guān)系和算法治理法律策略的選擇。
算法治理有多種模式。歐盟通過賦予數(shù)據(jù)主體數(shù)據(jù)權(quán)來控制自動化決策和人像分析算法的應(yīng)用,美國通過建立算法問責(zé)制實現(xiàn)對算法風(fēng)險的管理和控制,我國以平臺治理為路徑來治理算法。[52]算法治理是人工智能時代的新課題,我們需要從系統(tǒng)角度構(gòu)建相互協(xié)調(diào)的算法治理體系。無論何種路徑,算法治理都有其所要實現(xiàn)的目的和所應(yīng)遵循的法律邏輯。
1.算法控制理性化,即通過分散算法控制避免形成壟斷性的算法權(quán)力,這是算法權(quán)力的配置邏輯。在網(wǎng)絡(luò)這樣的自組織生態(tài)系統(tǒng)中,算法通過處理信息流的技術(shù)優(yōu)勢和充當(dāng)守門人的功能特點,既給人類社會帶來前所未有的福利,也帶來了前所未有的挑戰(zhàn)。如何保障算法能夠服務(wù)于人類,能夠公正地分配資源、促進個人自由發(fā)展,是個重要的政治問題、政策問題和法律問題。
(1)從技術(shù)上看,算法控制不是單向的,算法決策各要素之間相互依賴,尤其是應(yīng)用管理者、用戶、算法的互動對算法控制有決定性作用,因此理性的算法控制應(yīng)當(dāng)體現(xiàn)用戶(公眾)的意志,應(yīng)當(dāng)是算法運用管理者、終端用戶共同參與的控制,因此算法控制治理應(yīng)是參與性的治理。進一步說,非外力干擾的理想狀態(tài)下,終端用戶影響算法反饋回路的判斷,影響算法的修整和調(diào)試,用戶在算法控制機制中發(fā)揮重要作用,算法應(yīng)用管理和算法使用能夠相互重塑。[53]因此有學(xué)者指出,算法守門人與傳統(tǒng)守門人不同,它不是單向的中心化控制模式,而是去中心化的多方合力模式。[54]
(2)從功效上看,算法發(fā)揮著社會制度的作用,既對個體、集體和社會產(chǎn)生控制,同時又受其制約,制度要求對所有接受規(guī)制的人均應(yīng)是正當(dāng)?shù)暮涂山邮艿?,即制度?yīng)當(dāng)體現(xiàn)公共理性的精神,[55]因此算法治理應(yīng)當(dāng)是開放、多元的形式。算法的社會控制模式不是理論性的科層化結(jié)構(gòu),而是分布式的、非中心化的網(wǎng)絡(luò)結(jié)構(gòu),在網(wǎng)絡(luò)空間中,算法對不同群體會產(chǎn)生不同的影響。比如信息流個性推薦算法,對平臺企業(yè)來說能夠?qū)崿F(xiàn)定向廣告精準(zhǔn)投放;對個體用戶來說雖然符合其興趣、品味和愛好,但也使其不能獲取多樣化信息。站在不同立場,算法產(chǎn)生了不同效用?!肮怖硇缘墓餐瓌t,產(chǎn)生于平等公民之間的反思平衡過程?!保?6]因此算法是否具有正當(dāng)性,不能是單向的判斷標(biāo)準(zhǔn),不能以一方意見壓制或取代另一方意見,算法治理應(yīng)是開放、參與及對話式的過程,這是對算法決策的約束,凸顯出利益相關(guān)者參與、民主的規(guī)范化流程等措施在算法治理中的重要地位。
(3)從現(xiàn)實看,算法控制有向算法運用管理人手中集中的傾向,尤其是超級平臺更是掌握了強大的算法控制力,向公眾配置一定的算法治理權(quán)有利于實現(xiàn)理性化的算法控制。算法由運用管理人控制,并不意味著算法控制權(quán)必然分配到其手中??刂茩?quán)的分配是以治理效果為標(biāo)尺的,即將控制權(quán)分配到能控制風(fēng)險的人手中。算法治理需要在算法運用管理人和公眾之間形成平衡性的制約關(guān)系,而這種關(guān)系即便不是在公共決策領(lǐng)域,也不能很好地通過私權(quán)機制實現(xiàn)。雖然平臺在終端用戶初建賬戶時,可以通過合同約定雙方權(quán)利義務(wù)關(guān)系,但算法是不斷更新的,合同不能完全預(yù)判所有規(guī)則,因此不能完全適應(yīng)具有變化性的長期關(guān)系。更何況終端用戶只有接受或不接受的權(quán)利,沒有“議價”能力。而支配性權(quán)利的弊端在GDPR中已經(jīng)顯現(xiàn)出來,因此建立公眾參與的治理權(quán)機制,公眾作為利益相關(guān)人參與算法治理,可能是更佳選擇。
2.算法侵害可控化,即通過合理設(shè)定法律上的權(quán)責(zé)關(guān)系防范糾正算法對公認價值的侵害,這是算法風(fēng)險的配置邏輯。依行動者網(wǎng)絡(luò)理論(Actor-Network-Theory),任何能促使行為發(fā)生或引起行為變化的因素,無論是人類還是技術(shù)都可以成為行動者,行動者在由其行為所引起的相互作用關(guān)系中充當(dāng)代理人角色。[57]算法的復(fù)雜程度決定著算法的可測度和可控度。對于復(fù)雜算法,如機器學(xué)習(xí)算法配合大數(shù)據(jù)和神經(jīng)元網(wǎng)絡(luò)能夠挖掘事物之間不可測的相關(guān)性,也就是說機器學(xué)習(xí)算法決策有一定的不可測性,在結(jié)果預(yù)測度較低的情況下,算法黑箱又使算法難以理解和解釋,因此對于應(yīng)用管理人來說機器學(xué)習(xí)算法的可控性相對較低。但這不意味著算法不受控制,應(yīng)用管理者可以預(yù)設(shè)算法所要解決和處理的問題,人類雖不直接向算法傳遞規(guī)則,但卻編排了計算機化的規(guī)則創(chuàng)建過程。[58]因此,可以說算法應(yīng)用管理者對算法進行了委托授權(quán),只不過行動者網(wǎng)絡(luò)理論的代理并不是標(biāo)準(zhǔn)的法律代理,它表明在算法與其運用管理人之間存在類似代理的關(guān)系,算法充當(dāng)代理人角色或者說算法是準(zhǔn)代理人(agent-like)。[59]算法代理對焦算法的風(fēng)險負擔(dān)問題?;诖砝碚?,算法應(yīng)用管理人應(yīng)當(dāng)負擔(dān)算法風(fēng)險,應(yīng)當(dāng)對算法造成的損害承擔(dān)法律責(zé)任,但此種責(zé)任具有有限性。算法充當(dāng)其應(yīng)用管理人的代理人角色,但不可否認的是,算法具有自主性、回應(yīng)性、主動性和社會性。因此,無論在法律上算法是否能夠成為獨立的主體,在實際上算法都不完全受制于應(yīng)用管理人,二者并不具有完全的行動一致性。即便算法由應(yīng)用管理人設(shè)計、使用、控制,但數(shù)據(jù)、用戶等情況都會對算法決策產(chǎn)生影響。從算法決策邏輯看,算法模型受訓(xùn)練數(shù)據(jù)影響,在終端用戶產(chǎn)生新數(shù)據(jù)的基礎(chǔ)上反饋回路又會推演新的算法,算法以“不為人知”的計算邏輯不斷更新。從決策個案角度看,以利用社交媒體平臺傳播虛假新聞為例,雖然平臺可能因算法模型激勵或助推了假新聞的制造和傳播,但假新聞產(chǎn)生和傳播是多方行為的結(jié)果,改變推動假新聞的激勵結(jié)構(gòu)并糾正其可能造成的傷害,平臺和其他參與者都應(yīng)參與其中。因此,在算法風(fēng)險負擔(dān)上,應(yīng)用管理人并不是承擔(dān)算法風(fēng)險的唯一責(zé)任人,或者至少應(yīng)用管理人不宜承擔(dān)算法的全部責(zé)任,這體現(xiàn)了算法公正的要求。
OECD將算法應(yīng)用分為四個階段:第一階段是數(shù)據(jù)、設(shè)計和模型階段,即規(guī)劃設(shè)計、數(shù)據(jù)收集處理以及模型構(gòu)建;第二階段是驗證和確認;第三階段是部署使用(deployment);第四階段是管理監(jiān)控(operation and monitoring)。[60]算法治理應(yīng)對照算法應(yīng)用階段,尋找每一階段的治理側(cè)重,并依算法治理法律邏輯設(shè)計有針對性的治理策略。
1.利益分享的權(quán)屬結(jié)構(gòu)。在信息社會,算法之所以重要,是因為人們需要在海量數(shù)據(jù)中做出判斷、選擇和決策,這是人力所不能及的。因此,大數(shù)據(jù)與算法共生共進,數(shù)據(jù)治理可以用來治理算法,這也被稱為源頭治理。作為源頭治理的數(shù)據(jù)權(quán)是典型的束狀權(quán)利結(jié)構(gòu),它是一種框架性權(quán)利,在不同主體手中體現(xiàn)不同的利益需求、顯現(xiàn)不同的特性。數(shù)據(jù)權(quán)涉及數(shù)據(jù)生產(chǎn)者與數(shù)據(jù)使用者、數(shù)據(jù)私利與數(shù)據(jù)公益之間的矛盾,不宜從單一角度做權(quán)屬規(guī)定。因此對于數(shù)據(jù)權(quán)來說,可以從利益形態(tài)和法律之力等方面做多維度分割,形成利益分享式的權(quán)屬結(jié)構(gòu)。
(1)對個人來說,數(shù)據(jù)權(quán)的意義在于保護自然人的基本權(quán)利和自由,特別是避免泄露個人隱私,但除了權(quán)力——服從這一法律之力形式外,數(shù)據(jù)權(quán)還可以采用請求——義務(wù)形式,即數(shù)據(jù)使用人承擔(dān)不侵害個人隱私的義務(wù),通過反射利益形式保護個人數(shù)據(jù)權(quán)益,這一義務(wù)履行方式是靈活多樣的,比如采用匿名化的數(shù)據(jù)脫敏技術(shù)。實際上,許多歐洲公司已經(jīng)承諾,如果可以擴大GDPR規(guī)定的權(quán)限,它們愿意承擔(dān)保障人權(quán)的義務(wù)。[61]
(2)對企業(yè)來說,企業(yè)對數(shù)據(jù)資源控制與數(shù)據(jù)自由流動的公共利益之間的沖突是數(shù)據(jù)權(quán)的又一矛盾,這一沖突可以通過合理解讀數(shù)據(jù)法律屬性解決。數(shù)據(jù)首先是種公共產(chǎn)品,不具有排他性和獨占性,只是為實現(xiàn)算法經(jīng)濟優(yōu)勢,法律才保護企業(yè)對數(shù)據(jù)的控制及交易,鼓勵企業(yè)充分挖掘大數(shù)據(jù)的使用價值。由此可以看出,數(shù)據(jù)的控制和操作規(guī)則是平衡數(shù)據(jù)主體、數(shù)據(jù)控制者、社會利益的結(jié)果,不宜采用傳統(tǒng)的私權(quán)規(guī)則。[62]并且歐盟部分成員國,已經(jīng)著手實施了鼓勵數(shù)據(jù)流通和共享的戰(zhàn)略。德國的策略是讓研究和開發(fā)人員更廣泛地訪問公共數(shù)據(jù),這有可能使GDPR確認的個人數(shù)據(jù)使用“默認禁止”規(guī)則演變?yōu)椤澳J開放”規(guī)則;芬蘭擬實施公私伙伴協(xié)作戰(zhàn)略,以促成數(shù)據(jù)在公共部門和企業(yè)間自由流動以及在市場上二次利用;法國提議要善于利用公共利益條款,使個人數(shù)據(jù)能夠被有效地加以利用;英國建議建立數(shù)據(jù)信托制度,通過確立信托義務(wù)實現(xiàn)數(shù)據(jù)共享的公平和安全,這一制度可能會促成敏感和專屬數(shù)據(jù)的共享。[63]
2.參與性的公眾治理權(quán)力。網(wǎng)絡(luò)空間是公共、開放、自治的空間,算法應(yīng)尊重這一事實,但由于算法由大互聯(lián)網(wǎng)企業(yè)所掌控,資本的介入使得算法較難保持中立,因此算法民主格外重要。算法民主要求算法治理體現(xiàn)公共理性,賦予公眾算法治理權(quán)。
(1)知情權(quán)框架下的算法解釋權(quán)。算法運用管理人應(yīng)當(dāng)向終端用戶或利益相關(guān)者解釋算法系統(tǒng)如何設(shè)計及所涉數(shù)據(jù)的基本信息,或者解釋算法所要解決的問題、所發(fā)揮的功能、所欲實現(xiàn)的目標(biāo)及有可能產(chǎn)生的結(jié)果。并且從廣義角度看,知情權(quán)要求算法解釋要明確何種條件下可以對算法系統(tǒng)實施人為干預(yù)、什么情況下公眾可以對算法決策提出質(zhì)疑。[64]但解釋權(quán)并不一定要解釋有關(guān)算法決策邏輯的詳細信息,否則會導(dǎo)致算法運用管理人因“算法黑箱”而難以履行義務(wù),也可能侵犯其專有信息或知識產(chǎn)權(quán)。
(2)守門性的選擇控制權(quán)。算法民主要求建立算法應(yīng)用管理人與公眾對話、制衡的協(xié)同守門機制,分化算法應(yīng)用管理人對算法的控制。法律設(shè)定標(biāo)準(zhǔn)化的規(guī)范要求,被監(jiān)管人按法律規(guī)定履行相應(yīng)義務(wù)是獨白式的算法治理模式。能保證行為的合法性,但較難兼顧行為的合理性。算法治理應(yīng)當(dāng)反映公共事務(wù),應(yīng)當(dāng)有利于形成公眾的集體行動。如在網(wǎng)絡(luò)反不正當(dāng)競爭領(lǐng)域,瀏覽器屏蔽視頻播放器廣告是否違法,應(yīng)當(dāng)加入對消費者因素的考量,通過賦予消費者“in”或“out”的選擇權(quán),綜合判斷新的干擾算法是不正當(dāng)競爭行為,還是一種受保護的新商業(yè)模式。又或者在數(shù)據(jù)應(yīng)用層面,可以通過賦予數(shù)據(jù)產(chǎn)生者告知權(quán)或一定的控制權(quán),來免除其遭受侵犯隱私或第三方侵?jǐn)_的擔(dān)憂。[65]數(shù)據(jù)控制權(quán)的“度”不以私法上的絕對權(quán)為標(biāo)準(zhǔn),而是達到能夠?qū)?shù)據(jù)運用起到守門作用即可。
3.約束性的算法應(yīng)用規(guī)則。算法產(chǎn)生算法權(quán)力,算法應(yīng)用管理人開發(fā)使用算法時要遵循一定的規(guī)則,制約和規(guī)范算法權(quán)力行使,避免算法權(quán)力濫用。
(1)透明公開原則。透明公開原則旨在使算法權(quán)力接受公眾監(jiān)督,即權(quán)力的行使不應(yīng)因其采用算法而躲避正當(dāng)性規(guī)定。該原則要求“在一定范圍內(nèi)將技術(shù)性的構(gòu)成和功能加以披露,轉(zhuǎn)譯成普通人可理解的文字,以增強技術(shù)產(chǎn)品的可信性”。[66]或要求義務(wù)人發(fā)布透明度報告,以便對錯誤率、數(shù)據(jù)質(zhì)量、數(shù)據(jù)使用和緊急偏倚等問題進行基準(zhǔn)測試。不過監(jiān)管機構(gòu)應(yīng)作加密承諾或允許算法應(yīng)用管理人使用加密工具,以保護商業(yè)秘密或隱私。要指出的是,透明原則并不特指算法代碼透明。主張代碼透明者認為,公開算法代碼和決策數(shù)據(jù),有利于公眾識別算法侵害,因此即便基于商業(yè)秘密的考慮,代碼及數(shù)據(jù)不向社會公眾開放,也應(yīng)向監(jiān)督機構(gòu)公開。但問題在于,即使代碼公開,公眾也較難分辨和識別真正有用的信息。因此,代碼透明不是透明原則的硬性要求。當(dāng)然,為了獲取公眾的關(guān)注和信賴,算法運用管理人可以自主選擇是否開源代碼,以供公眾查看或監(jiān)督。在算法解釋可行的情況下,如算法評估所依賴的變量較易判斷,運用管理人也可以對其公開的算法進行解釋。
(2)安全有效原則。算法運用管理人有義務(wù)保證算法是安全且有效的,即在正常使用、可預(yù)見使用、錯誤使用或是在其他不利條件下,算法功能正常,不會造成不合理的安全風(fēng)險。[67]當(dāng)然這并不是要求算法完全無誤才可以適用,而是當(dāng)算法出現(xiàn)一定錯誤率時,應(yīng)當(dāng)改進算法或是選擇人工審查方式。例如置信措施(Confidence Measures),要求某些算法在預(yù)測或決策時使用多種統(tǒng)計措施來評估其置信度,如果某一決策其置信度不高則應(yīng)轉(zhuǎn)為人工審查方式,而不是停止決策進程。[68]或是要求算法應(yīng)用管理人能識別、記錄、闡釋算法及數(shù)據(jù)風(fēng)險的產(chǎn)生來源或不確定性的產(chǎn)生來源,以便公眾能夠預(yù)期及理解最壞的情況。
(3)公平正義原則。對算法決策來說,公平正義既是其程序性要求,也是實體性要求。在程序正義方面,如決策標(biāo)準(zhǔn)一致是人類決策應(yīng)當(dāng)遵守的原則之一,它對算法同樣適用。決策標(biāo)準(zhǔn)一致,要求算法決策應(yīng)當(dāng)使用相同的策略,決策策略在數(shù)據(jù)輸入之前應(yīng)當(dāng)確定下來并記錄在案,并且決策結(jié)果可重復(fù)。[69]實體正義方面,要求算法決策要符合實體性的政策選擇,如非歧視原則,因算法能將歧視系統(tǒng)化和隱秘化,該原則對算法決策極為重要。要強調(diào)的是,算法決策規(guī)則和法律規(guī)則有所不同,前者是標(biāo)準(zhǔn)化、硬性的、技術(shù)性準(zhǔn)則,后者是模糊、有彈性、衡量性的規(guī)范。因此,政策制定者需要確定能為算法識別、運用和操作的公平正義標(biāo)準(zhǔn)。有學(xué)者提出了判斷算法非歧視的事后標(biāo)準(zhǔn),即如果我們無法從結(jié)果中推斷出被決策主體的屬性,那么決策就是非歧視性的。[70]
4.動態(tài)化的風(fēng)險監(jiān)控義務(wù)。參與性的治理權(quán)能夠分化算法控制,但與算法侵害防范并不具有必然的因果聯(lián)系。算法風(fēng)險監(jiān)控義務(wù),要求算法應(yīng)用管理人以盡最大努力降低算法侵害的方式,盡責(zé)地測試、監(jiān)控算法所能產(chǎn)生的潛在風(fēng)險,即面對未知風(fēng)險,要求算法運用管理人通過算法試錯糾錯識別、檢測其有可能產(chǎn)生的損害,并對錯誤進行修正改正,使算法風(fēng)險降到最低。風(fēng)險監(jiān)控義務(wù)貫穿算法設(shè)計研發(fā)、投入使用全過程,是動態(tài)性、過程性的義務(wù)。
風(fēng)險監(jiān)控義務(wù)的優(yōu)點是:(1)使風(fēng)險歸屬于最能對其進行掌控的人。風(fēng)險配置的一項原則是將風(fēng)險分配給最容易控制風(fēng)險的人。AI算法具有自主性不等同于其具有自主意識,總體上說AI是按照人的意愿工作的,AI自主性的提升不代表人的責(zé)任隨之減弱。[71]大腦與算法是不同的系統(tǒng),人類決策依靠大腦思維,算法決策依靠的是信息處理,即使是超級人工智能,它雖有強大的計算能力,但還不足以擁有人類大腦的全部認知,更何況我們目前也沒有任何可能實現(xiàn)這一目標(biāo)的技術(shù)。[72]即是說,就目前而言我們的AI算法是執(zhí)行特定任務(wù)的專用人工智能,它用來完成人類指令、擴展人的意志。在本質(zhì)上算法是邏輯計算,其訓(xùn)練數(shù)據(jù)由人類掌控,參數(shù)權(quán)重可受人為干預(yù),因此算法本身無關(guān)善惡,算法風(fēng)險治理不僅要關(guān)注算法,更要關(guān)注算法應(yīng)用管理者的行為,使算法風(fēng)險歸控于最能對其產(chǎn)生控制的人手中。
(2)降低算法道德風(fēng)險。算法不獨立于它的運用管理者,與任何技術(shù)一樣,它可能被不道德、不負責(zé)地使用。由數(shù)據(jù)驅(qū)動的機器學(xué)習(xí)算法,它雖不采用人工規(guī)則而是依靠數(shù)據(jù)訓(xùn)練摸索規(guī)律,但算法目標(biāo)是由人確定的,機器學(xué)習(xí)探索出的模型是讓人們更接近目的。[73]比如搜索引擎推薦結(jié)果,是“將判斷嵌入算法對事實進行組織、分類形成事實集合,判斷和算法代表了搜索引擎公司的觀點,反映公司關(guān)于向用戶呈現(xiàn)何種內(nèi)容的主張”。[74]因此,算法風(fēng)險可能來自其運用者主觀意圖的嵌入,因外部主體很難斷定算法運行邏輯和其發(fā)揮的作用,在算法運用管理主體和社會公眾之間產(chǎn)生了信息的不對稱。若僅從算法解釋入手,由于算法解釋具有專業(yè)性,有可能使解釋權(quán)淪為運用管理者掩蓋主觀故意和過失的投機工具。而風(fēng)險監(jiān)控義務(wù),不僅強調(diào)算法決策透明和公開,而且從風(fēng)險控制過程和結(jié)果角度為運用管理人設(shè)定行為規(guī)則,因其以風(fēng)險監(jiān)控為基準(zhǔn),不考慮行為人的主觀惡意,在一定程度上降低了濫用算法的道德風(fēng)險。
(3)符合算法技術(shù)特點。傳統(tǒng)決策所遵循的是因果律,將決策看作是動機——目的——行動——結(jié)果的過程,強調(diào)決策的可理解性和可解釋性。而AI算法技術(shù)的特點或說優(yōu)勢,正是在于它在海量數(shù)據(jù)中,通過機器學(xué)習(xí)找到了數(shù)據(jù)之間所含信息的相關(guān)性,這種相關(guān)性某種程度上替代了因果關(guān)系,使人們在難以揭示因果關(guān)系的情況下也能形成決策,消除了不確定性。[75]換句話說,AI技術(shù)的核心思維是相關(guān)性,而不是因果關(guān)系。風(fēng)險監(jiān)控義務(wù)從輸入和輸出環(huán)節(jié)入手,不需要對算法決策因果關(guān)系進行解釋,從數(shù)據(jù)的客觀公正及結(jié)果試錯糾錯角度,建立起符合算法思維的防控方式。2016年白宮發(fā)布的一份關(guān)于大數(shù)據(jù)與民權(quán)方面的報告,將這一義務(wù)稱之為算法系統(tǒng)的“設(shè)計責(zé)任”。[76]比起透明度,更好的解決方案是對算法的結(jié)果進行系統(tǒng)測試,以評估其后果的性質(zhì),而不是針對算法本身。即便算法產(chǎn)生不可預(yù)測結(jié)果,因它仍是在人為設(shè)定的框架和限制內(nèi)運行,對算法結(jié)果進行系統(tǒng)測試仍具可行性。
5.彈性的問責(zé)機制。問責(zé)制的基本原則是,算法系統(tǒng)應(yīng)有多種控制措施,目的是確保算法能夠按應(yīng)用者意圖工作,使算法風(fēng)險能夠被應(yīng)用者識別、控制,損害后果能夠被糾正。從字面上看,問責(zé)意味著,發(fā)生損害時一方有權(quán)就損害相關(guān)問題進行詢問,另一方有義務(wù)給予回應(yīng),并且被問責(zé)主體有責(zé)任時需要遭受否定性懲罰。其有三條基本準(zhǔn)則:一是追責(zé)主體享有執(zhí)行監(jiān)管處罰的權(quán)力;二是被追責(zé)人有義務(wù)以公開透明方式行使權(quán)力;三是被追責(zé)人能夠修正不正當(dāng)?shù)男袨?。?7]
問責(zé)制的優(yōu)點在于:(1)可以基于風(fēng)險是否發(fā)生、風(fēng)險類型、算法運用管理人的意圖等情況對運用管理人進行追責(zé),使責(zé)任人不至于承擔(dān)過于嚴(yán)苛的負擔(dān),即是說算法問責(zé)一方面是運用管理人責(zé)任的確認機制,另一方面也是排除其責(zé)任的衡量機制。算法問責(zé)制確定了算法決策發(fā)生侵害時的可歸責(zé)性,明確了追責(zé)的具體要件和標(biāo)準(zhǔn),根據(jù)損害情況、被追責(zé)者主觀情況及其對風(fēng)險的控制情況,決定是否對算法運用管理人追責(zé)及給予何種程度的懲罰,被問責(zé)主體不會承受明顯高于收益情況的過重風(fēng)險防控負擔(dān)。算法問責(zé)可以讓運用管理人更好地設(shè)計和實施預(yù)防損害的政策和策略,運用管理人可以依自身情況選擇多樣性的技術(shù)和程序機制,算法治理因此具有較強的彈性和靈活度。如果有證據(jù)證明會發(fā)生損害或不公結(jié)果時,監(jiān)管部門可以介入調(diào)查追責(zé)。
(2)算法問責(zé)能夠?qū)⒍喾N監(jiān)管措施納入責(zé)任制度框架。算法問責(zé)通過規(guī)定構(gòu)成要件確定責(zé)任認定標(biāo)準(zhǔn),構(gòu)成要件可以以概念涵攝的形式將算法監(jiān)管相關(guān)措施納入其中。如在算法復(fù)雜性較低、算法解釋可行的情況下,公開義務(wù)、解釋義務(wù)的履行可以用來判斷運營人的主觀意圖,即通過判斷算法運用管理人是否采取相應(yīng)措施保證算法按其意圖進行工作,判斷其違法行為的主觀狀態(tài)。[78]所以,算法追責(zé)是一個綜合多種治理措施的框架,它不是馴服權(quán)力的某一項具體的法律技術(shù),多概念的涵攝使追責(zé)制更加包容,適用范圍更加廣泛。
(3)算法問責(zé)可以促進其他治理措施得到更好落實。如公開義務(wù)、解釋義務(wù)的履行情況可以用來輔助判斷算法運用人的主觀意圖,風(fēng)險監(jiān)控措施或置信措施等可以用來判定算法運用人是否違反法定義務(wù),因此追責(zé)制從懲罰角度促使責(zé)任人去積極履行各種義務(wù),促進多種治理措施落到實處。算法運用管理人有動力實施這些治理策略,不僅是出于對公眾安全的考慮,而且還是為了證明他們負責(zé)地識別、糾正了潛在的有害后果,從而使其能夠免于追責(zé)。[79]
互聯(lián)網(wǎng)時代的產(chǎn)業(yè)革命,算法決策技術(shù)廣泛運用,給舊秩序帶來深刻的沖擊和挑戰(zhàn)。算法以代碼形式重塑網(wǎng)絡(luò)行為規(guī)則,能夠形塑認知、意識和價值觀,分配注意力、產(chǎn)品和服務(wù),引導(dǎo)行為、塑造秩序,它成為新的控制機制,產(chǎn)生促進社會變革的力量。有控制便可能有失靈,算法也不例外,算法監(jiān)視、算法歧視、算法黑箱、算法權(quán)力異化等風(fēng)險,侵蝕著算法帶來的巨大紅利。算法產(chǎn)生風(fēng)險,但現(xiàn)階段,它仍是經(jīng)濟社會發(fā)展核心競爭力的重要組成部分,各國都在積極尋求治理算法風(fēng)險的可行之策。算法是變革性技術(shù),在社會結(jié)構(gòu)升級過程中,算法治理牽涉多維矛盾關(guān)系,需要確定理性的政策導(dǎo)向,在政府監(jiān)管與技術(shù)創(chuàng)新,個人價值與產(chǎn)業(yè)發(fā)展之間尋求平衡。算法治理的法律任務(wù)是明確目標(biāo)、聚焦問題、確定底線,運用法律技術(shù)化解結(jié)構(gòu)化矛盾、構(gòu)造合理的權(quán)利義務(wù)關(guān)系。本文提出的法律策略,無論是利益分享的權(quán)屬結(jié)構(gòu)、公眾參與的治理權(quán)力,還是約束性的算法應(yīng)用規(guī)則、動態(tài)的風(fēng)險監(jiān)控義務(wù)、彈性的問責(zé)機制,都是在綜合考量現(xiàn)實侵害、技術(shù)特點及產(chǎn)業(yè)發(fā)展基礎(chǔ)上的思考,盡管不夠成熟,卻映射了算法治理切實可行又有持續(xù)生命力的美好愿望。