□ 文 趙遲遲 劉 森
大數(shù)據(jù)時(shí)代,算法的自動(dòng)化決策深度嵌入公私各領(lǐng)域,雖在效率提升、成本控制、精準(zhǔn)度提高等方面有所裨益,但也復(fù)刻甚至強(qiáng)化了偏見與歧視。置身于“算法社會(huì)”,如何克服算法歧視,保證算法公平實(shí)值思考。在規(guī)制策略上,相較于以往技術(shù)層面的解決方案,法律規(guī)制不僅能夠避免技術(shù)治理陷入失靈困境,亦能為受害者提供妥善救濟(jì),將算法的社會(huì)危害性降至最低。正因如此,本文著眼于算法歧視的法律規(guī)制研究,在厘清歧視成因的基礎(chǔ)上借鑒域外有益經(jīng)驗(yàn),通過構(gòu)建本土化規(guī)制路徑來為今后的算法安全立法提供理論參考。
追根溯源,算法決策的不透明既源于算法的復(fù)雜性、專業(yè)性所建構(gòu)的技術(shù)壁壘,又出于保護(hù)商業(yè)秘密的特別需要。
長期以來,人們一直認(rèn)為算法只注重效率和準(zhǔn)確性而不會(huì)受到人為因素的影響,但算法歧視的出現(xiàn)徹底改變了此種“算法中性”理念。一方面,與計(jì)算機(jī)領(lǐng)域盛行的GIGO定律相對(duì)應(yīng),在算法領(lǐng)域,同樣存在“Bias in,Bias out”(簡稱“BIBO”)的類似表述。倘若輸入數(shù)據(jù)內(nèi)含不公正要素,輸出結(jié)果亦將帶有歧視性色彩;另一方面,算法是計(jì)算機(jī)系統(tǒng)中的運(yùn)行操作流程,表現(xiàn)為由專業(yè)人員編寫的一連串源代碼或數(shù)學(xué)程式。在此過程中,算法開發(fā)者極有可能將自我偏見投射到算法之中。另外,人為歧視亦可能在人無意識(shí)的狀態(tài)下實(shí)現(xiàn)對(duì)算法的深度嵌入。
首先,輸入數(shù)據(jù)的確定,主要靠隨機(jī)抽樣。不同類型的數(shù)據(jù)之間存在多寡之分,能夠被抽中成為樣本的數(shù)據(jù)往往是在統(tǒng)計(jì)上占多數(shù)族群的那一類,一些稀有但重要的數(shù)據(jù)就可能不被選上;其次,人應(yīng)用算法并不苛求其能夠做到絕對(duì)精準(zhǔn),在實(shí)際運(yùn)作中更加追求“決策性價(jià)比”。對(duì)于部分量少的數(shù)據(jù),算法極有可能將其歸入量多的數(shù)據(jù)之中,或者直接作為錯(cuò)誤數(shù)據(jù)而舍棄。如此一來,不但無法保證樣本數(shù)據(jù)的多樣化,還將直接影響決策結(jié)果的公正與合理。
算法決策的透明度缺失,如同一個(gè)“黑箱”。對(duì)普通公眾而言,其所能知曉的只有最終的決策結(jié)果,決策流程、依據(jù)以及方式等內(nèi)容均無從得知。即便公開算法源代碼,缺乏專業(yè)知識(shí)的人所看到的也僅是由0和1組成的字符串,仍然難以理解。追根溯源,算法決策的不透明既源于算法的復(fù)雜性、專業(yè)性所建構(gòu)的技術(shù)壁壘,又出于保護(hù)商業(yè)秘密的特別需要。
透明度的缺失為算法歧視提供了便利的生成空間。首先,算法“黑箱”帶來天然的技術(shù)屏障,在技術(shù)控制力得到強(qiáng)化的同時(shí),“算法作惡”的可能性大為提升;其次,決策過程的不可描述使得算法極易通過不成比例的數(shù)據(jù)聯(lián)結(jié)出相關(guān)性,因降維挖掘,各種隱性歧視隨之產(chǎn)生;最后,決策當(dāng)事人存在明顯的信息劣勢(shì),即便存在差別待遇,受不利影響的當(dāng)事人亦因信息隔絕而不自知。
基于強(qiáng)大的算力優(yōu)勢(shì)與深度的自主學(xué)習(xí)能力,加之算法“黑箱”所提供的可操作化空間,算法正日益擺脫“工具性”的角色定位,取而代之的則是社會(huì)資源調(diào)配能力的顯著增強(qiáng)。算法正日益形成一種介乎于公私權(quán)利之間的“準(zhǔn)公權(quán)力”,即“算法權(quán)力”。對(duì)于權(quán)力,需要構(gòu)建起完善的監(jiān)督制約機(jī)制,否則任由其“野蠻生長”,必然造成權(quán)力異化。就算法權(quán)力而言,現(xiàn)行法律的規(guī)制不足使其得以進(jìn)一步擴(kuò)張,在異化過程中逐步侵蝕公民權(quán)益空間,引發(fā)算法歧視、算法合謀等社會(huì)問題。
美國的算法歧視規(guī)制側(cè)重于對(duì)結(jié)果的審查,一旦發(fā)現(xiàn)特定群體遭受不公正對(duì)待,將對(duì)有關(guān)主體進(jìn)行問責(zé)。2017年12月,紐約市議會(huì)通過了《政府部門自動(dòng)決策系統(tǒng)法案》(以下簡稱《系統(tǒng)法案》)。作為美國首部算法治理法案,《系統(tǒng)法案》確立了以“外部問責(zé)”為核心的算法規(guī)制方向,形成了以問責(zé)為主要手段的規(guī)制策略。隨后,美國國會(huì)議員又提出了首個(gè)聯(lián)邦層面的人工智能法案——《算法問責(zé)法案》(以下簡稱《法案》),并于2022年2月推出了《法案》的2.0版本?!斗ò浮吠瑯硬尚袉栘?zé)制,但在問責(zé)之前又規(guī)定了事前評(píng)估與事中審查兩項(xiàng)基本義務(wù)。一方面,被涵蓋實(shí)體,即聯(lián)邦貿(mào)易委員會(huì)所管轄的任何個(gè)人、合伙企業(yè)或公司在使用新的自動(dòng)化決策系統(tǒng)做出關(guān)鍵決策前,應(yīng)當(dāng)進(jìn)行系統(tǒng)化的影響評(píng)估,并提交相應(yīng)的評(píng)估總結(jié)報(bào)告;另一方面,在決策過程中,被涵蓋實(shí)體需要自行審查所用技術(shù)是否存在對(duì)人的不公正對(duì)待。而一旦造成歧視性后果,被涵蓋實(shí)體則需要及時(shí)提出補(bǔ)救或減輕措施。
算法權(quán)力異化引發(fā)“權(quán)力—權(quán)利”失衡,個(gè)體因權(quán)利缺失而受算法制約。為此,以《通用數(shù)據(jù)保護(hù)條例》(以下簡稱《GDPR》)為基礎(chǔ),歐盟主張讓普通公民享有更多算法權(quán)利以擺脫算法的支配與控制,從而有效抑制算法歧視。第一,《GDPR》在前言部分直接規(guī)定數(shù)據(jù)控制者應(yīng)當(dāng)采取合適措施以確保個(gè)人數(shù)據(jù)安全,防止因種族或民族起源等原因而對(duì)自然人產(chǎn)生歧視性影響;第二,賦予公民知情權(quán)。在任何情況下,公民都有權(quán)知曉自動(dòng)化決策的具體情況并表達(dá)個(gè)人觀點(diǎn)或作適當(dāng)干預(yù),數(shù)據(jù)控制者亦應(yīng)提供與算法邏輯相關(guān)的有意義信息;第三,賦予公民拒絕權(quán)。公民有權(quán)在任意時(shí)間拒絕或撤回同意與其相關(guān)的各種數(shù)據(jù)處理活動(dòng),包括可能對(duì)其產(chǎn)生歧視性影響的自動(dòng)化決策活動(dòng)。在無例外情況下,公民并不受限于依靠自動(dòng)化數(shù)據(jù)處理的決策結(jié)果,且不得建立在特殊類別的個(gè)人數(shù)據(jù)基礎(chǔ)上。
公平是社會(huì)的重要價(jià)值之一,算法歧視正是對(duì)公平理念的背離,故而有必要重塑算法公平理念,將偏離的價(jià)值取向予以糾正。首先,算法公平應(yīng)貫穿算法運(yùn)行的全過程,保證過程公平與結(jié)果公平。一方面,過程公平端賴于運(yùn)行前偏見數(shù)據(jù)的剔除,運(yùn)行中操作流程的透明度提高以及運(yùn)行后決策結(jié)果的審查與調(diào)適;另一方面,結(jié)果公平不僅是形式上的“人人平等”,更應(yīng)是綜合個(gè)體差異、行業(yè)類別、社會(huì)影響等諸要素的實(shí)質(zhì)平等;其次,法律的算法和算法的法律不應(yīng)成為一個(gè)閉環(huán),它們之間必須有人作為起點(diǎn)和終點(diǎn)。作為算法運(yùn)行的直接參與者與主要控制者,開發(fā)者與使用者均應(yīng)秉持公平理念,對(duì)算法歧視保持高度警惕。算法開發(fā)者不但需要在設(shè)計(jì)算法時(shí)避免將自我偏見嵌入算法,還應(yīng)當(dāng)在設(shè)計(jì)完成后進(jìn)行試運(yùn)行以確保算法公平。算法使用者則需要對(duì)算法的運(yùn)作過程作全方位掌控,及時(shí)發(fā)現(xiàn)并排除任何可能影響算法公平的因素;最后,算法歧視本質(zhì)上是對(duì)社會(huì)偏見的映射,重塑算法公平理念應(yīng)盡力消除現(xiàn)實(shí)社會(huì)中的偏見與歧視,從整體上營造反歧視氛圍。而構(gòu)建公平社會(huì),需要全體成員的共同關(guān)注與參與,通過加強(qiáng)德行教育以使公平正義理念深入人心,積極引導(dǎo)社會(huì)成員知善、向善和行善,做到行為向善、科技向善。
一方面,權(quán)力本身應(yīng)受制約,需從內(nèi)部明確算法適用范圍與權(quán)力行使程序;另一方面,算法權(quán)力與普通公眾力量對(duì)比懸殊,應(yīng)從外部賦予公民權(quán)利以對(duì)抗算法權(quán)力。
3.2.1 算法權(quán)力的內(nèi)部規(guī)制
首先,并非任何領(lǐng)域都需要且可以由算法作出決策。根據(jù)參與決策的不同程度,可將算法適用范圍劃分為絕對(duì)允許區(qū)、相對(duì)禁止區(qū)與絕對(duì)禁止區(qū)。在絕對(duì)允許區(qū),各種繁重且復(fù)雜的工作可全然交由算法完成,而在相對(duì)禁止區(qū),算法僅可為輔助性工具,關(guān)鍵決策依然由人作出。至于絕對(duì)禁止區(qū),因決策事項(xiàng)能對(duì)特定個(gè)人或群體產(chǎn)生法律效力,故整個(gè)決策過程應(yīng)由人獨(dú)立完成,算法并不能介入其中;其次,在權(quán)力行使上應(yīng)引入行政法上的正當(dāng)程序原則,但需作適度調(diào)適以契合權(quán)力運(yùn)行的實(shí)際情況。具體而言,除一般意義上的告知、陳述、申辯等程序外,應(yīng)特別增加提升算法可見性的程序,以確保算法權(quán)力實(shí)時(shí)處于被監(jiān)督狀態(tài),相對(duì)人能對(duì)權(quán)利運(yùn)行作整體把握與評(píng)估,從而有效防止權(quán)力異化,降低損害發(fā)生概率。
3.2.2 算法權(quán)力的外部規(guī)制
第一,賦予公民控制權(quán),包括算法決策控制權(quán)與個(gè)人數(shù)據(jù)控制權(quán)。公民既有權(quán)依憑個(gè)人意愿決定是否將某一事項(xiàng)的決策權(quán)讓渡給算法,又享有個(gè)人數(shù)據(jù)自決權(quán),包括數(shù)據(jù)處理前的知情同意權(quán)、數(shù)據(jù)處理中的異議權(quán)以及數(shù)據(jù)處理后的刪除權(quán)。第二,賦予公民解釋權(quán)。當(dāng)利用算法對(duì)相對(duì)人作出不利決定時(shí),算法開發(fā)者與使用者應(yīng)向相對(duì)人闡明原因、依據(jù)、過程、邏輯以及意義。倘若拒絕解釋或解釋不當(dāng),則意味著算法決策確有失范之處,相對(duì)人不但可以要求算法使用者采取糾正措施,改正算法錯(cuò)誤,亦有權(quán)直接退出算法決策并追究有關(guān)主體的法律責(zé)任。
為防范算法歧視,有必要構(gòu)建算法審查制度。
為防范算法歧視,有必要構(gòu)建算法審查制度。首先,受制于算法技術(shù)壁壘與算法隱性歧視,包括決策相對(duì)人在內(nèi)的普通群眾并無能力審查出算法錯(cuò)誤。而倘若要求算法所有者進(jìn)行自我審查與評(píng)估,又將徒增運(yùn)營成本,且可信度有限,難以收到預(yù)期效果。鑒于此,就審查主體而言,較為可行的方式應(yīng)是另行設(shè)置專門的算法審查機(jī)構(gòu),即算法審查委員會(huì)(以下簡稱“算委會(huì)”)。算委會(huì)主要由計(jì)算機(jī)、人工智能等領(lǐng)域的專業(yè)人員與法律專家所組成,并可適度吸納部分工商業(yè)代表與普通群眾以滿足各方主體的利益訴求。算委會(huì)相對(duì)獨(dú)立,與決策當(dāng)事人不存在任何利益沖突,專職負(fù)責(zé)算法安全審查工作;其次,就具體流程而言,算法所有者應(yīng)在算法開發(fā)后、投入使用前向算委會(huì)提交有關(guān)材料,包括算法的基本信息、遵循的技術(shù)標(biāo)準(zhǔn)、應(yīng)用范圍以及風(fēng)險(xiǎn)預(yù)測(cè)和控制等。算委會(huì)在收到材料后應(yīng)立即開展審查工作,一旦發(fā)現(xiàn)被審查算法存在歧視風(fēng)險(xiǎn),有權(quán)將材料退回并要求算法所有者及時(shí)改進(jìn)算法。算法審查以二次為限,倘若經(jīng)二次審查后仍有歧視可能,算委會(huì)便可將該問題算法直接剔除,禁止投入使用。對(duì)于未經(jīng)審查而擅自使用者,算委會(huì)有權(quán)叫停并對(duì)相關(guān)責(zé)任人給予處罰。除此之外,為避免算法所有者出于經(jīng)濟(jì)利益的考量而在通過事前審查后又擅自改變運(yùn)行邏輯以致另生歧視風(fēng)險(xiǎn)情況的發(fā)生,算委會(huì)應(yīng)當(dāng)開展不定期的動(dòng)態(tài)審查,實(shí)現(xiàn)對(duì)算法的全過程監(jiān)督與管理;最后,在歧視的判斷問題上,學(xué)界存在以主觀意圖為標(biāo)準(zhǔn)的“差別待遇說”與以客觀結(jié)果為標(biāo)準(zhǔn)的“差別性影響說”。相比較而言,“差別待遇說”存在虛置可能,采行“差別性影響說”更為妥當(dāng)。一方面,算法歧視具有高度隱秘性,在難以識(shí)別的情況下欲證明算法所有者具有歧視意圖較為困難;另一方面,算法所有者的主觀偏見僅為算法歧視的成因之一。受多種因素影響,即便不存在人為歧視,亦可能產(chǎn)生歧視現(xiàn)象,造成損害后果。這意味著算法歧視中,由于缺乏歧視意圖這一主觀要件,“差別待遇說”將面臨適用困境。
前述措施失靈,算法歧視已然產(chǎn)生,需要引入問責(zé)機(jī)制以救濟(jì)受害者。首先,算法決策當(dāng)事人能力有限,即便遭受算法歧視,一般也無法通過私力救濟(jì)維護(hù)自身合法權(quán)益。加之算法決策具有反復(fù)和普遍性,更易造成群體性的不公正,故而引入集體訴訟制度更加符合現(xiàn)實(shí)需要;其次,因算法歧視而侵權(quán)并不適用傳統(tǒng)的因果關(guān)系理論,算法決策依據(jù)的是相關(guān)關(guān)系。因果關(guān)系必定是相關(guān)關(guān)系,但相關(guān)關(guān)系卻不一定是因果關(guān)系。進(jìn)一步言,算法決策注重對(duì)數(shù)據(jù)的量化分析,不同輸入數(shù)據(jù)間當(dāng)存一定相關(guān)性,否則將嚴(yán)重影響算法決策的精準(zhǔn)性。根據(jù)皮爾遜相關(guān)系數(shù),相關(guān)系數(shù)r的絕對(duì)值大于或等于0.8,就可稱變量間具有極強(qiáng)相關(guān)性。有鑒于此,在算法問責(zé)的場(chǎng)域內(nèi),宜將0.8作為標(biāo)準(zhǔn)系數(shù)。倘若數(shù)據(jù)間的相關(guān)系數(shù)未達(dá)到0.8,則說明算法模型不盡合理,決策結(jié)果亦存在可能導(dǎo)致對(duì)人不公正對(duì)待的錯(cuò)誤;再次,鑒于信息鴻溝的當(dāng)然存在,在舉證責(zé)任的分配問題上,不宜沿用傳統(tǒng)的“誰主張,誰舉證”的舉證規(guī)則,較為妥適之法應(yīng)是由更具舉證優(yōu)勢(shì)的算法開發(fā)者與使用者承擔(dān)舉證責(zé)任,證明其為確保算法公正而在主觀上不存在任何故意或過失,客觀上也已經(jīng)采取了必要措施,履行了應(yīng)盡義務(wù);最后,算法應(yīng)用場(chǎng)景廣泛,不同場(chǎng)景下所關(guān)涉的利益主體與形式存有差異,生成的算法歧視的影響力與危害性亦有所區(qū)別。例如,由犯罪預(yù)測(cè)算法所引發(fā)的種族歧視給相對(duì)人造成的損害是巨大的,而由服務(wù)推薦算法所帶來的價(jià)格歧視對(duì)消費(fèi)者的影響則相對(duì)較小。為此,就算法責(zé)任的承擔(dān)方式而言,應(yīng)當(dāng)具體問題具體分析,先根據(jù)具體情況確定不同級(jí)別的問責(zé)標(biāo)準(zhǔn),再基于問責(zé)標(biāo)準(zhǔn)在民事、行政以及刑事責(zé)任中作出精細(xì)化選擇,要求責(zé)任人承擔(dān)以上三種責(zé)任之一種或多種。
大數(shù)據(jù)時(shí)代,算法基于強(qiáng)大的技術(shù)優(yōu)勢(shì)而前景廣闊。但我們不能就此陷入“技術(shù)烏托邦”之中,算法背后所隱藏的風(fēng)險(xiǎn)以及在應(yīng)用過程中暴露出的問題同樣不容忽視,算法歧視便為其中之一。應(yīng)當(dāng)看到,算法技術(shù)不僅帶來偏見與歧視,亦在一定程度上改變了歧視樣態(tài),給傳統(tǒng)歧視規(guī)制帶來深刻挑戰(zhàn)。現(xiàn)階段,我國對(duì)算法歧視缺乏應(yīng)有重視,尚未形成系統(tǒng)完備的法律規(guī)制體系,因而有必要加強(qiáng)國際合作,積極探索符合國情的本土化規(guī)制路徑。誠然,從法律層面規(guī)制算法歧視的具體舉措并不限于上文所述,但所有的規(guī)制措施,都須以人為本,努力維護(hù)人的主體價(jià)值。唯有如此,方能在推動(dòng)算法技術(shù)進(jìn)步的同時(shí)營造平等公正的技術(shù)氛圍,有效應(yīng)對(duì)算法歧視帶來的風(fēng)險(xiǎn)與挑戰(zhàn)。