蘇宇
內(nèi)容摘要:算法解釋在算法治理中舉足輕重。算法解釋承載著權(quán)益保障、社會交往和風(fēng)險治理三重意義,其在技術(shù)層面上的障礙正在逐漸被突破,可以通過多種技術(shù)機制實現(xiàn)。在算法治理活動中,應(yīng)根據(jù)常規(guī)場景、關(guān)鍵場景和爭議場景分別限定選擇解釋的路徑選擇和技術(shù)方案,通過凍結(jié)機制、抽樣機制和鏡像機制固定算法解釋,并使之接受外部的驗證與審查,確保算法解釋真實、有效。算法解釋的系列機制應(yīng)被進一步構(gòu)建為體系化的算法解釋制度,在這一制度框架內(nèi),對解釋路徑與精度、解釋時限、解釋瑕疵責(zé)任等要素的合理配置,可以實現(xiàn)社會效益與規(guī)制負擔(dān)的精細平衡。
關(guān)鍵詞:算法解釋 算法驗證 算法黑箱 算法透明度 機器學(xué)習(xí) 算法治理
中圖分類號:DF0 文獻標(biāo)識碼:A 文章編號:1674-4039-(2024)01-0081-95
算法解釋在算法治理研究及法律實踐中正逐漸成為最引人注目的主題之一。在理論上,算法解釋方面的法律關(guān)系早已“成為算法法學(xué)研究的核心命題之一”;〔1"〕在實踐中,“各國立法者紛紛要求算法決策具備可解釋性,并將其置于算法治理議程的首要位置”。〔2"〕以機器學(xué)習(xí)為代表的人工智能算法帶來了“算法黑箱”的新問題,并將算法解釋議題一舉推至焦點位置?!?"〕由于規(guī)則清晰、邏輯分明,傳統(tǒng)的自動化決策在損害歸責(zé)和權(quán)益救濟等問題上并未帶來太多挑戰(zhàn),而帶有“黑箱”性質(zhì)的算法模型則不然,機器學(xué)習(xí)和決策的過程隱遁于眾多“隱層”背后,使算法決策的歸責(zé)、監(jiān)督與救濟均面臨重重困難。〔4"〕如能清晰地解釋算法決策的因素考量范圍及權(quán)重等實際依據(jù),則人工智能算法決策的關(guān)鍵難題就可以被解決,算法決策的風(fēng)險就可以在很大程度上在已有的治理體系中得到防范和化解。因此,國內(nèi)外學(xué)界對算法解釋、算法解釋(請求)權(quán)、算法可解釋性以及算法透明、算法公開等相關(guān)議題的研究,短短幾年內(nèi)即已熱浪滔天。
與此同時,算法解釋相關(guān)制度實踐和技術(shù)研究也在持續(xù)推進。例如,歐盟通用數(shù)據(jù)保護條例(以下簡稱GDPR)有關(guān)算法解釋權(quán)的條款早已備受矚目,美國總統(tǒng)簽署的《關(guān)于安全、可靠、可信地開發(fā)和使用人工智能的行政命令》也提出了人工智能模型透明度及受監(jiān)管實體對模型的解釋能力之要求。在我國,除個人信息保護法第24條外,國內(nèi)有關(guān)部門發(fā)布的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡稱《算法推薦規(guī)定》)、《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》)及《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》等規(guī)章及規(guī)范性文件也已將算法解釋的相關(guān)制度納入算法治理的制度實踐。在技術(shù)層面,算法解釋的技術(shù)研究可謂如火如荼,多元化的技術(shù)路線各擅勝場,其基本數(shù)學(xué)原理也正得到逐步揭示。
然而,這遠不意味著算法解釋的研究已“大功告成”,尤其法學(xué)人對算法解釋的研究尚遠不足以回應(yīng)實踐的需求與挑戰(zhàn)。算法解釋或算法公開透明的原則性規(guī)定,遠不足以規(guī)范和指引頭部平臺企業(yè)主要算法模型的算法解釋,因為這些超大型復(fù)雜算法模型往往包含數(shù)以億計原始特征及向量特征(或規(guī)模類似的數(shù)據(jù)圖),〔5$〕生成式人工智能大模型的規(guī)模和特性使算法解釋變得更為困難,〔6$〕而企業(yè)對于提供算法解釋擁有幾乎不受限制的自由度;算法模型的不斷修改和迭代使算法解釋可能迅速失效;用戶無法判斷算法解釋的準(zhǔn)確性和有效性;司法機關(guān)也往往缺乏審查算法解釋的能力。這一切都使得居于算法治理研究中心位置的算法解釋在制度實踐中面臨重重困難。伴隨生成式人工智能興起,算法解釋及相關(guān)機制的地位進一步面臨質(zhì)疑,〔7$〕算法解釋制度是否還具備足夠的重要性和現(xiàn)實意義,亟待深入探討。
上述一系列難題歸根到底可以被歸結(jié)為四個基礎(chǔ)性問題:算法解釋何以可能? 算法解釋為何必要? 算法解釋何從實現(xiàn)? 算法解釋如何保真? 逐一清楚回答這四個問題,算法解釋制度的整體輪廓也將隨之歷歷可見。
一、算法解釋何以可能:算法解釋的技術(shù)原理
(一)算法解釋的邏輯前提:“黑箱型”算法導(dǎo)致決策規(guī)則模糊
“算法解釋”是一個內(nèi)涵特定的專業(yè)術(shù)語,其中的“解釋”是指人類與(機器)決策者之間的一個交互面,同時滿足既是決策者的精確代理,又能為人類所理解,〔8$〕這就使算法解釋不同于算法披露、算法公開或算法透明等概念。本質(zhì)上,算法解釋致力于提供一種中介機制,致力于以人類思維能理解的方式,揭示何種輸入變量或變量的組合會在何種程度上影響到輸出的結(jié)果。用戶、相對人或社會公眾渴望理解算法系統(tǒng)為何如此決策,理解不同因素通過何種過程、以何種程度影響到系統(tǒng)的判斷和決定,進而了解是否可能存在歧視、偏見等倫理或法律風(fēng)險。
算法解釋以“黑箱型”算法的存在和應(yīng)用為前提。并非所有算法都是“黑箱型”的算法,也并非所有算法模型都需要解釋。傳統(tǒng)的自動化判斷或決策往往是基于因果關(guān)系作出,人類主體只需要知曉決策規(guī)則,即可獲悉輸入與輸出之間的因果關(guān)系,繼而發(fā)現(xiàn)系統(tǒng)的缺陷或可能致使自身承受不利后果的因素,進而采取有利于責(zé)任追究或權(quán)益保障的行動。然而,以深度學(xué)習(xí)為代表的人工智能算法判斷或決策建基于相關(guān)性而非因果性,而輸入與輸出之間的相關(guān)性又具有強烈的非線性特征,使決策邏輯模糊化,不能通過簡單的規(guī)則推知或衡量輸入與輸出之間的關(guān)系, 因此當(dāng)機器學(xué)習(xí)算法興起后,“算法黑箱”的問題才真正被提出,而算法解釋的需求也才隨之出現(xiàn)。〔9$〕不同算法在自身可解釋性及算法解釋需求方面存在巨大差異。決策樹、貝葉斯推理等基于明確因果規(guī)則的算法本身具有較強的可解釋性,〔10+〕甚至本身就被認定為所謂“自解釋模型”,無須再進行算法解釋。〔11"〕需要進行解釋的對象是隨機森林、支持向量機等帶有“黑箱”色彩的模型,而尤以深度學(xué)習(xí)算法模型為最典型的代表。
各種機器學(xué)習(xí)算法都試圖讓機器尋求盡可能逼近(approximate)算法決策目標(biāo)函數(shù)的方案,“算法黑箱”的存在主要源于用大量簡單函數(shù)的復(fù)合形態(tài)逼近復(fù)雜的目標(biāo)函數(shù)之算法設(shè)計思路??聽柲缏宸颉⒅Z德表示定理(Kolmogorov-Arnold"Representation"Theorem)表明多元連續(xù)的復(fù)合函數(shù)可以被表示為單元連續(xù)函數(shù)的有限復(fù)合,基于這一定理,深度神經(jīng)網(wǎng)絡(luò)等“黑箱型算法”就可以采取堆疊單元連續(xù)函數(shù)的方式逼近目標(biāo)函數(shù),從而實現(xiàn)“萬有逼近”(universal9approximation)之能力?!?2"〕這些單元連續(xù)函數(shù)的復(fù)合形態(tài)呈現(xiàn)出典型的“黑箱”特征,完全脫離了人類的常規(guī)分析思路和決策邏輯,遠離了人類的直觀理解?!?3"〕在客觀世界中,輸入變量與輸出結(jié)果之間的關(guān)系往往是高度非線性化的關(guān)系,要逼近此種關(guān)系,就需要往單元連續(xù)函數(shù)的復(fù)合過程中插入若干次非線性化計算過程(如神經(jīng)網(wǎng)絡(luò)中的非線性激活函數(shù)),線性與非線性計算的復(fù)雜交替,導(dǎo)致輸入與輸出之間的關(guān)系難以通過單一的顯性表達式體現(xiàn),造成所謂的“不可解釋性”。與人類的邏輯思維過程格格不入。算法決策過程中的各種中間變量和參數(shù)并不對應(yīng)生活世界的任何意義載體,不能如同規(guī)則樹等自解釋算法一樣,用生活世界的概念或?qū)ο髽?gòu)成規(guī)則以解釋算法決策的邏輯過程。即便是后來居上的Transformer等自解釋能力較強、同樣擁有“萬有逼近”能力的算法,〔14"〕決定其輸出結(jié)果的Query、Key、Value和WO等向量通常也沒有生活世界的直接對應(yīng)概念及意義,〔159〕需要人為建立認知上的轉(zhuǎn)化和連接。
“萬有逼近”能力造就了機器學(xué)習(xí)的輝煌,也塑成了人工智能的“算法黑箱”。人類需要尋找理解“黑箱型”算法模型的道路。算法解釋本質(zhì)上就是為人類建立一套可以理解算法模型的概念、意義和結(jié)構(gòu),以符合人類思維的認知圖式反過來“再逼近”算法模型在某一時刻所呈現(xiàn)的狀態(tài),從而對算法模型的運行建立一定預(yù)期的活動。
(二)算法解釋的實現(xiàn)機理:全局因果關(guān)系的弱化表達
人類習(xí)慣通過以“為什么”形式的因果式追問來理解一個決策者的邏輯,然而,“算法黑箱”的技術(shù)特點決定了人類難以直接從中獲取有效的決策規(guī)則和因果知識,導(dǎo)致人類在尋求回答“為什么”的因果性問題上遭遇顯著困難。〔169〕不過,即便在不易獲得因果解釋時,解釋者也可以通過提供其他有價值的關(guān)系以促進人類主體的理解?!?79〕只要人類能夠理解全部或其所關(guān)心的局部變量如何影響了算法模型的最終輸出,就足以滿足人類主體理解算法的需求并指引其采取行動,這就使算法解釋成為可能。
不可否認,“當(dāng)下算法治理領(lǐng)域多以算法解釋權(quán)作為核心突破點, 但當(dāng)算法架構(gòu)變得極度復(fù)雜和自主時,對算法進行預(yù)測和解釋都將變得十分困難”;〔189〕然而,算法解釋的障礙也在不斷被突破。因果解釋是人類理解決策機制的習(xí)慣方式, 雖然非因果解釋仍然可以對模型的運作方式提供有效和有用的解釋,但許多解釋者仍然熱衷于優(yōu)先追求因果解釋。〔199〕不過,如果解釋者執(zhí)著于追求精確的、全局性的因果關(guān)系,在某些場合將面臨巨大的困難。退而求其次,人類理解世界的思維工具并不必然需要借助十分精確的全局因果關(guān)系,人類主體也可以通過相對“弱化”的版本去表達和理解算法模型的思路,例如通過相關(guān)關(guān)系、近似關(guān)系、局部因果關(guān)系等將算法模型的計算過程轉(zhuǎn)化為人類能理解的某種思維圖式,針對性地服務(wù)于權(quán)益保障、社會交往、風(fēng)險治理乃至算法優(yōu)化等目標(biāo)。這就為算法解釋的實施提供了廣闊的可能空間。
1.基于可靠歸因的解釋
精準(zhǔn)可靠的歸因解釋是對因果理解的最優(yōu)替代。主流的歸因解釋算法包括三條主要路線:基于梯度的歸因、基于逐層反向傳播的歸因和基于遮擋的歸因,這些歸因算法已經(jīng)可以被統(tǒng)一到泰勒交互體系中,并且形成了歸因解釋可靠性的評價標(biāo)準(zhǔn)?!?0%〕輸入變量與輸出結(jié)果之間的歸因評價結(jié)果也可以通過“貢獻度”或“預(yù)測力”衡量,只要能精確計算出每一種輸入變量對輸出結(jié)果的貢獻度,也能有效幫助人類理解算法認知和決策的原因,這一思路引出了沙普利值方法等算法解釋方案?!?1%〕可靠歸因解釋的問題是計算量巨大,但通過近似估計、局部計算、優(yōu)化算法等方式,可以根據(jù)解釋需求策略性地降低計算負擔(dān)?!?2%〕
如果人類主體關(guān)心的并不是各種輸入變量如何一般性地影響最終的輸出結(jié)果,而是改變既有的特定事實是否會導(dǎo)致改變輸出結(jié)果,則可以訴諸基于“反事實解釋”的算法解釋方案,例如尋找穿越?jīng)Q策邊界的最短路徑或特定路徑。〔23%〕人類主體有時特別關(guān)注如何最簡潔地改變某一現(xiàn)實因素(如性別、年齡、種族等)以扭轉(zhuǎn)決策結(jié)果,基于反事實解釋提供局部的因果理解可一定程度上滿足算法解釋需求,在判斷隱藏偏見、衡量機器學(xué)習(xí)算法公平性方面尤其具有優(yōu)勢?!?4%〕
2.基于相關(guān)性的解釋
相關(guān)性是人類在因果性之外認識事物之間關(guān)系的又一重要路徑。統(tǒng)計學(xué)上可以刻畫相關(guān)關(guān)系的工具已經(jīng)比較成熟, 例如統(tǒng)計學(xué)上的Pearson函數(shù)可以完全地刻畫變量之間的整體線性相關(guān)關(guān)系,而基于Sklar定理的Copula函數(shù)可以進一步發(fā)現(xiàn)和計算變量之間的非線性相關(guān)關(guān)系。〔257〕面對機器學(xué)習(xí)算法,測量一系列輸入與輸出之間的相關(guān)關(guān)系比測量因果關(guān)系更為容易,此種相關(guān)關(guān)系主要可以從受控輸入與觀測輸出之間的統(tǒng)計結(jié)果得到測量,例如在保持其他變量不變或?qū)ζ渌凶兞窟M行積分的前提下,通過隨機置換或搜索網(wǎng)格等方式多次改變指定特征變量的取值,觀察指定特征變量對輸出結(jié)果的邊際影響,這一思路引出了局部依賴圖(Partial%Dependence%Plot,PDP)、個體條件期望(Individual7Conditional7Expectation,ICE)等算法解釋方案。〔267〕此類解釋往往具有模型無關(guān)性,并且要求不甚嚴苛,因此,也可以在量化的算法解釋中得到適用。
3.基于近似值的解釋
在不要求提供精確解釋的條件下,解釋者可利用某種可解釋的“白箱模型”(如線性模型)從局部“再逼近”目標(biāo)算法模型,即從關(guān)鍵局部提供一種近似的理解。這一思路可以針對不同類型的算法模型進行比較便利的解釋,引出了模型無關(guān)的局部解釋(LIME)方法等算法解釋方案,〔277〕適用范圍廣且簡單易用。LIME方法還可以比較便利地用于解釋圖像分類算法的關(guān)鍵細節(jié)并生成識別標(biāo)簽,提供可視化的圖像解釋,例如對卷積神經(jīng)網(wǎng)絡(luò)智能診斷肺部疾病的圖像識別機制進行解釋和標(biāo)識,〔28#〕因此在實踐中也經(jīng)常被應(yīng)用,歐盟《算法問責(zé)及透明度監(jiān)管框架》對這一解釋方法亦予以肯定。不過LIME方法理論上并不嚴謹,即便提供近似解釋也不是十分穩(wěn)定。
以上不同解釋思路共同奠定了算法解釋的技術(shù)基礎(chǔ)。對于中小規(guī)模的算法模型,“算法黑箱”已逐漸不再阻礙人類對算法運行邏輯的探知。當(dāng)然,算法的系統(tǒng)性解釋,往往意味著算法決策機制一定程度的公開,會對企業(yè)知識產(chǎn)權(quán)保護帶來一定的挑戰(zhàn)?!?9#〕不過,算法解釋針對的是算法模型的最終性能和效果,并不要求披露知識產(chǎn)權(quán)及反不正當(dāng)競爭法所保護的動力學(xué)機制及學(xué)習(xí)過程設(shè)計。只要算法模型自身對商業(yè)秘密采取一定防護措施,能夠避免攻擊者利用公開輸入輸出結(jié)果通過建立“影子模型”的方式實現(xiàn)模型竊取,前述不同路線的算法解釋亦同樣無法暴露算法模型中的關(guān)鍵參數(shù)及技術(shù)細節(jié),從而確保了消費者/公眾知情權(quán)、監(jiān)管利益及商業(yè)秘密保護的平衡。
質(zhì)言之, 人類主體可以通過相當(dāng)豐富的手段使算法模型的行為和結(jié)果盡可能為人類所理解,而此種解釋活動對于算法治理而言有著不可替代的基礎(chǔ)性意義。不僅如此,人工智能算法模型還可能實現(xiàn)自我解釋,例如Transformer算法中的多頭注意力機制可能會一定程度上導(dǎo)致“算法黑箱”的消解:盡管注意力并不直接等同于解釋,但注意力可以被轉(zhuǎn)化為比較可信的、富有意義的解釋,〔30#〕這就使得大模型以后有可能實現(xiàn)“自解釋”。不過,在自解釋人工智能徹底實現(xiàn)以前,外部算法解釋所能提供的治理價值仍然難以被替代。
二、算法解釋為何必要:算法解釋的法理意義
算法解釋的法理意義可以被概括為權(quán)益保障意義、社會交往意義和風(fēng)險治理意義,每一種意義都有助于使人工智能算法回歸人類可理解、可交流、可控制的范圍,使算法治理能夠徹底穿透技術(shù)上的“黑箱”而落到實處。
(一)權(quán)益保障意義
基于算法在公共領(lǐng)域和私人領(lǐng)域的不同應(yīng)用,算法解釋與知情權(quán)、平等權(quán)、申辯權(quán)、隱私權(quán)、個人信息法益乃至人格尊嚴等多種法益的保障密切相關(guān),隱含著新型的規(guī)范訴求和法律關(guān)系。在“黑箱”面前,用戶、相對人和公眾想要了解的主要是算法判斷或決策的具體原因,這關(guān)涉到背后的人類主體是否正確地按照法律倫理和價值考慮了相關(guān)因素, 并將其準(zhǔn)確地通過算法設(shè)計及模型訓(xùn)練體現(xiàn)出來。在社會生活中,有大量權(quán)利或尚未被權(quán)利化的利益亟待算法解釋的保障?!?1#〕對算法相關(guān)信息的理解有助于其規(guī)避風(fēng)險、作出合理選擇乃至尋求法律救濟。
這一需求的權(quán)利化所對應(yīng)的權(quán)利即算法解釋權(quán)或算法解釋請求權(quán)。算法解釋權(quán)既可以是要求對算法模型的系統(tǒng)功能進行一般性解釋的權(quán)利, 也可以是要求對個案決策基礎(chǔ)進行個別解釋的權(quán)利。〔32#〕這一權(quán)利的法理意義日益凸顯,其在最基礎(chǔ)的層面可以被歸屬于某種“知情權(quán)”(the8right# to#know),更可以被進一步強化為“理解權(quán)”(the#right#to#understand),〔338〕還可以在更深的層次被構(gòu)建為跨越公私法的某種正當(dāng)程序權(quán)利,即與算法決策結(jié)果存在利害關(guān)系的當(dāng)事人,在自己的命運或利益被算法決定之前,應(yīng)當(dāng)有了解算法決策的邏輯和原因、進而向自動化系統(tǒng)或其背后的實際決策者提出陳述和申辯的合理機會。在世界范圍內(nèi),已有許多學(xué)者在類似意義上探討“技術(shù)性正當(dāng)權(quán)利”(technological,due,process),這一概念日益得到公法學(xué)界的認可?!?4,〕面對“算法黑箱”,算法解釋是保障上述正當(dāng)程序價值必不可少的基礎(chǔ)性工具,它使人有機會認識和理解算法決策的邏輯,盡可能避免遭受“黑箱型技術(shù)”的操作或剝削,〔35,〕并在涉及自身的不利決定中采取最有利于保障自身權(quán)益的行動。
然而, 由于算法解釋技術(shù)與實踐暫未成熟, 算法解釋的權(quán)利化始終面臨難題。在世界范圍內(nèi),GDPR的制定激發(fā)了算法解釋權(quán)的研究熱潮。在GDPR的制定過程中,算法可解釋性的重要性不斷被強調(diào),然而其正式文本卻未直接規(guī)定算法解釋權(quán);與算法解釋權(quán)最為相關(guān)的是第22條及序言第71條,但相關(guān)規(guī)定是否以此種形式真正確立了算法解釋權(quán),尚面臨一定爭議。〔36,〕我國個人信息保護法第24條第3款規(guī)定:“通過自動化決策方式作出對個人權(quán)益有重大影響的決定, 個人有權(quán)要求個人信息處理者予以說明,并有權(quán)拒絕個人信息處理者僅通過自動化決策的方式作出決定?!庇杏^點認為這一規(guī)定確立了算法解釋權(quán),〔37,〕但此處的“說明”是否必然包含算法解釋,尚無確切結(jié)論。
在其他相關(guān)國內(nèi)外立法中,美國信貸機會均等法(ECOA)與公平信用報告法(FCRA)中規(guī)定的不利行動告知條款,以及2017年《關(guān)于算法透明性和可問責(zé)性的聲明》中提及的算法解釋原則,似乎從立法上肯定了算法解釋權(quán),但三項法律文件均未真正確立算法解釋權(quán),至多僅僅是“鼓勵使用算法決策系統(tǒng)的機構(gòu)主動對算法過程和特定決策提供解釋”,而這一鼓勵性要求在該《聲明》中的七項原則中是唯一一項并非“應(yīng)當(dāng)”實現(xiàn)的原則。〔38,〕美國算法問責(zé)法(草案)中規(guī)定了有限的算法解釋權(quán),但這一草案遲遲未能成為正式立法。我國《算法推薦規(guī)定》的征求意見稿試圖將優(yōu)化算法可解釋性和透明度作為一項義務(wù)加以規(guī)定,但正式生效的版本則將其改為一項鼓勵性的要求。
上述立法實例表明,算法解釋盡管對于算法社會中的權(quán)益保障有著不可替代的重要價值,但其作用仍未能完全在法治實踐中得到發(fā)揮。目前,國內(nèi)外多種規(guī)制思路及相應(yīng)法律規(guī)范均著眼于通過算法解釋要求研發(fā)者履行算法透明義務(wù),〔39,〕如果能夠從制度層面為不同應(yīng)用場景設(shè)定合理的算法解釋方案,能夠保證算法解釋的可靠、可行、可得,算法解釋的權(quán)益保障意義將更加彰顯。
(二)社會交往意義
算法解釋在加深技術(shù)信任、促進社會和諧方面也有豐富的社會交往意義。涉及個人切身利益的算法決策系統(tǒng)可以被視為某種“技術(shù)驅(qū)動的規(guī)則制定行為”,〔40,〕而人難以遵從其不能理解的規(guī)則?!?1,〕人對算法決策的不知情、不理解、不接受,容易引發(fā)社會糾紛和矛盾,甚至在某些事件的推動下可能引發(fā)與算法決策的群體對抗。對人工智能系統(tǒng)為什么以某種方式工作的解釋有助于消除對人工智能和相關(guān)算法應(yīng)用的誤解,進而建立起社會各界對人工智能產(chǎn)業(yè)發(fā)展的準(zhǔn)確認知和良好信心。〔42,〕在更深層意義上,所謂“算法黑箱”使算法決策的思維基礎(chǔ)抽離于語義世界和交往行為體系之外,割裂了社會交往中連接人與人的主體際性,可能引發(fā)深刻的矛盾。我國算法治理實踐已經(jīng)意識到了這一點,如《算法推薦規(guī)定》第12條鼓勵算法推薦服務(wù)提供者“優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性”,以達到“避免對用戶產(chǎn)生不良影響,預(yù)防和減少爭議糾紛”的目標(biāo)。算法解釋是增強算法可解釋性和算法透明度要求的重要基礎(chǔ),即便算法解釋結(jié)果不能直接地被所有受眾理解,只要能使接受過良好教育的非專業(yè)受眾理解,在算法應(yīng)用相關(guān)公共利益和個體權(quán)益足夠重要時,從專業(yè)群體到普羅大眾的多級社會傳播機制也有助于擴展算法解釋相關(guān)知識和結(jié)論的理解范圍,〔43%〕進而提升社會對相關(guān)算法的認知、理解和共識。
算法解釋不僅能提升人對算法及其合理應(yīng)用的接受度,更有助于彌合“數(shù)字鴻溝”。就社會內(nèi)部不同群體之間的“數(shù)字鴻溝”而言,這一理論最初包含“接入溝”與“使用溝”的區(qū)分,其后,學(xué)者又將1970年的“知識溝”學(xué)說也引入“數(shù)字鴻溝”理論之中。“知識溝”的形成取決于交往技能、知識基礎(chǔ)及社會關(guān)系等要素,〔44%〕信息供給上的差異、信息使用上的差別以及不同的信息接收策略都可能導(dǎo)致“知識溝”的出現(xiàn)或加深?!?5%〕“知識溝”意味著獲取信息的能力和結(jié)果上的不平等,最終會導(dǎo)致在社會中產(chǎn)生一種信息危機,形成信息落差、知識分割、貧富分化等深層后果。〔46+〕算法解釋具備彌合“數(shù)字鴻溝”的力量,因為不同路徑和精度的算法解釋有助于使不具備算法相關(guān)知識的公眾對算法設(shè)計的邏輯及決定算法判斷結(jié)果的因素建立比較直觀的認識,進而一定程度上彌合信息差與“知識溝”。
(三)風(fēng)險治理意義
算法解釋之所以成為算法治理研究者日益關(guān)注的中心議題之一,離不開算法解釋的風(fēng)險治理意義。在最根本的層面上,為人工智能提供解釋有兩個層面的正當(dāng)性理據(jù):內(nèi)在主義層面關(guān)注受影響的人的權(quán)利,因為算法解釋尊重了一個人對自由意志和自我控制的需求;工具主義層面則關(guān)注算法的可解釋性(亦包括算法解釋本身)作為改進人工智能并糾正其錯誤的工具?!?7%〕由此,算法解釋可以成為一種貫通主觀與客觀需求的風(fēng)險治理機制。早在2019年,歐盟《算法問責(zé)及透明度監(jiān)管框架》就反復(fù)強調(diào)算法解釋的重要性,并注意到了算法解釋的風(fēng)險治理意義。2023年美國國家標(biāo)準(zhǔn)與技術(shù)研究院發(fā)布的《人工智能風(fēng)險管理框架》,更不僅專門設(shè)置可解釋性要求,還將一個算法模型是否得到有效解釋作為風(fēng)險測量依據(jù)之一?!?8%〕
整體上,算法解釋可以在三個層面上防御、消減和規(guī)制算法風(fēng)險:首先,算法解釋有助于凸顯算法決策的邏輯和影響因素,為用戶、相對人和監(jiān)管者識別、規(guī)避或控制算法風(fēng)險提供必要信息,甚至大幅增加風(fēng)險預(yù)防時間和能力、大幅縮短規(guī)制距離及降低監(jiān)管成本;其次,算法解釋有助于向外界傳遞算法模型中包含的關(guān)鍵有用信息,不僅有利于外部專業(yè)人士及時判斷和發(fā)現(xiàn)潛藏風(fēng)險,更有利于算法應(yīng)用運營者和專業(yè)第三方發(fā)現(xiàn)真實的算法決策邏輯及效果,促使其及時推動算法模型的糾偏與完善;最后,算法解釋有助于加強算法問責(zé),通過量化和反事實的解釋,算法決策的責(zé)任存否及歸屬問題可以得到比較清晰的認識,進而通過精準(zhǔn)到位的問責(zé)倒逼相關(guān)方強化算法風(fēng)險的防御和應(yīng)對機制。對于應(yīng)用算法的政府活動而言,算法解釋還有助于遏制濫用公權(quán)力之風(fēng)險,使借助人工智能算法的政府決策與行政行為接受更充分的監(jiān)督。在美國的一些案件中,算法解釋的缺失被視為違反正當(dāng)程序的要求,行政機關(guān)因此而需要承擔(dān)法律責(zé)任;行政機關(guān)盲目依賴算法系統(tǒng)的判斷造成醫(yī)療補助接受者的家庭護理時間被無端大幅削減等危害后果,也因此而為司法裁判所糾正?!?9#〕
算法解釋的風(fēng)險治理意義,關(guān)鍵在于算法解釋一定程度上消減了“算法黑箱”所造成的信息差,為多方主體提供必要的基礎(chǔ)性信息,從而消減不確定性。只要掌握了一定程度的信息,基于信息論的研究,不確定性可以通過多種途徑被度量和約簡,從而使治理主體能夠在不確定性條件下獲得最優(yōu)的規(guī)制策略或治理方案。〔50#〕
算法解釋的三重意義使其在算法治理中占據(jù)不可替代的基礎(chǔ)性地位。然而,法律人關(guān)心的是算法解釋如何能夠被建構(gòu)為一種預(yù)期明確、行之有效的制度,使之嵌入一定法律關(guān)系框架中,確保其權(quán)益保障、社會交往及風(fēng)險治理意義得到穩(wěn)定、充分實現(xiàn)。制度是人類設(shè)計出來的、用以形塑人們相互交往的一系列約束,界定并限制了人們的選擇集合,能減少社會生活的不確定性?!?1#〕
三、算法解釋何從實現(xiàn):算法解釋的主要實現(xiàn)路徑與場景適配
迄今為止,人類對算法解釋路徑的探索已經(jīng)發(fā)現(xiàn)了多種能夠一定程度上揭示算法決策機理的方式。盡管還沒有一種方式能夠精確衡量人類在這方面的理解度,〔52#〕也難以為算法解釋建立統(tǒng)一的評價與審查機制,但卻也使算法解釋可以靈活、開放地嘗試更豐富的思路和方法。整體上,算法解釋研究業(yè)已探索出花樣繁多的技術(shù)路線和實施方案,有助于算法解釋的場景化、制度化實現(xiàn)。
(一)算法解釋的主要實現(xiàn)路徑
算法解釋的基本路徑可以在最寬泛的含義上劃分為兩種:一是基于算法模型本身的邏輯,提供不能通過數(shù)值計量精確驗證的圖文說明;二是提供對“輸入———輸出”之間相關(guān)關(guān)系或因果關(guān)系的量化描述。我們不妨將有具體技術(shù)路線、可以量化準(zhǔn)確性及精確度的解釋稱為“硬解釋”,將僅提供難以精細量化及評估的圖文說明稱為“軟解釋”。兩類解釋的內(nèi)容與方法顯然不同,適用場景亦顯然有別。
1.硬解釋
“硬解釋”要求能對輸入與輸出之間的關(guān)系提供量化的分析結(jié)果,此種結(jié)果可以為風(fēng)險治理與權(quán)益保障提供比較精確的證據(jù)或決策參考依據(jù)。由于某一輸入變量對輸出結(jié)果的影響可能是強烈非線性的,特定輸入變量對輸出結(jié)果的影響程度可以允許用某種統(tǒng)計數(shù)值(如平均值)、區(qū)間(如上下界)或粗顆粒指標(biāo)(如影響力等級)表示。
在“硬解釋”的范圍內(nèi),盡管發(fā)展歷程不長,算法解釋的技術(shù)路線已經(jīng)相當(dāng)豐富。例如,基于可闡釋解釋器的研究,算法解釋的主要方案包括決策樹(Decision# Tree,DT)、決策規(guī)則集(Decion#Rules,DR)、特征重要性(Features8 Importance,F(xiàn)I)、顯著性掩碼(Saliency#Mask,SM)、敏感性分析(Sensitivity8Analysis,SA)、局部依賴圖、原型選擇(Prototype8 Selection,PS)及激活最大化(Activation8Maximization,AM)等幾種?!?38〕不同解釋方案的基本路徑歸根到底是兩種機制的組合:一種是轉(zhuǎn)述,即使用可解釋性更強的模型及方式(如規(guī)則化模型和可視化方式等)近似地表述原模型的“輸入———輸出”間關(guān)系,如DT、DR、PS均包含通過系列規(guī)則或典型實例之類能使人類更容易理解方式的轉(zhuǎn)述; 另一種是干擾,即通過對輸入變量的人為控制和調(diào)整,發(fā)現(xiàn)不同輸入對輸出的影響方式與程度,如SA、AM均包含對輸入變量的調(diào)整策略。各種解釋方案基本上都是兩種基本工作機制不同程度結(jié)合的結(jié)果。值得注意的是,干擾(干預(yù))也是因果發(fā)現(xiàn)的基本進路之一,〔54#〕在解釋大型算法模型時,即便僅靠對輸入變量的干擾很難還原算法決策的整個因果關(guān)系,但對于算法中每一個特定的分類結(jié)果解釋而言,通過干擾的手段卻完全可以在輸入與分類結(jié)果之間建立對其歸因情況的認識,〔55#〕還可以進一步由此提供量化的算法透明度報告。
在林林總總的“硬解釋”路徑中,一些技術(shù)路線越來越顯示出特殊的重要價值。以沙普利值方法為例, 該方法能夠清晰顯示每一輸入變量對任意輸出二元分類結(jié)果的影響方向及程度(量化貢獻度)。沙普利值方法與其他FI、SA路線的算法解釋方法的不同之處在于,它是能夠無偏地滿足線性可加、冗員性、對稱性和效能性四個良好性質(zhì)的貢獻量化指標(biāo),〔56#〕這使得它能夠全面、確定、可靠、有效地揭示全部輸入變量對輸出結(jié)果的量化貢獻,盡管其計算成本暫時相對較高,〔57#〕亦已成為理論和實踐密切關(guān)注的關(guān)鍵解釋方法。未來可以滿足這些性質(zhì)或類似標(biāo)準(zhǔn)的“硬解釋”方法將有機會在關(guān)鍵場景發(fā)揮決定性作用。
2.軟解釋
“軟解釋”在具體表述形式和詳略程度方面有相當(dāng)高的自由度,主要是致力于實現(xiàn)算法解釋的社會交往意義,兼顧權(quán)益保障和風(fēng)險治理需求?!败浗忉尅笨梢栽诓恍枰_計算的權(quán)益保障場景下,通過更為生動、形象的解說方式,面向不具備專業(yè)知識和能力的相對人、用戶或公眾說明其關(guān)心的問題,尤其有利于針對個體的特點進行通俗易懂的個性化解釋。對基于關(guān)系溝通的立場、以信任原則為基礎(chǔ)的算法解釋權(quán)行使場景而言,〔58#〕“軟解釋”更是必不可少的。2021年9月,美團通過圖文說明的方式,披露了騎手配送時間的計算規(guī)則,闡述了預(yù)估送達時間背后的算法邏輯,〔591〕就是一個典型的“軟解釋”實踐。對于許多缺乏專業(yè)知識和數(shù)理思維的用戶或相對人,“軟解釋”有時更加靈活和實用。
不僅如此,“軟解釋”還可以和“硬解釋”相結(jié)合,在“硬解釋”提供的相關(guān)關(guān)系或因果關(guān)系結(jié)構(gòu)及數(shù)值基礎(chǔ)上進行比較深入的說明和講解?!败浗忉尅辈⒉槐厝慌懦鈱ο嚓P(guān)數(shù)值的表述,不過,為保證算法解釋的有效性,法律規(guī)范也應(yīng)對“軟解釋”提出基礎(chǔ)性的要求。
(二)算法解釋路徑的選擇
人工智能算法及其應(yīng)用的多樣性極為豐富,不同場景對算法性能和特點的要求差別巨大,因此算法解釋的路徑選擇也應(yīng)當(dāng)基于算法規(guī)制的場景化規(guī)制原理而具體確定?!?0#〕自靜態(tài)的權(quán)益保障視角觀之,在涉及重大公共利益或個體生命權(quán)、健康權(quán)、人格權(quán)、個人敏感信息等重要法益的關(guān)鍵場景,算法解釋顯然應(yīng)當(dāng)盡可能保證精度和時效性;自動態(tài)的權(quán)益保障視角觀之,在發(fā)生法律糾紛或爭議的場景中,算法解釋應(yīng)能在一般化的闡釋和說明之外,針對爭議點作出專門回應(yīng)。因此,算法解釋路徑的選擇至少需要區(qū)分三種場景,不妨命名為“常規(guī)場景”“關(guān)鍵場景”和“爭議場景”,分別適用不同的算法解釋路徑。
1.常規(guī)場景
在并不涉及重大公共利益或個體重大法益,也不存在法律糾紛的常規(guī)場景中,算法解釋只需要滿足基礎(chǔ)性的知情需求即可,此時應(yīng)當(dāng)允許算法應(yīng)用運營者自行選擇算法解釋路徑。即便解釋者提供了相對充分的算法解釋,普通人也極少愿意花時間和精力去了解,因此并無必要設(shè)置過高的規(guī)制負擔(dān)?!?1#〕英國信息專員辦公室和艾倫·圖靈研究所共同編制的《人工智能決策解釋》(Explaining#Decisions#Made#with#AI)中列舉的算法解釋類型中,第一種類型“原理解釋”就僅僅要求“以可訪問、非技術(shù)性的方式說明人工智能作出決策的理由”?!?2#〕蓋因在常規(guī)場景中,算法解釋的社會交往意義更為突出,只要普通人能夠了解算法決策的基本思路即可滿足要求。在常規(guī)場景中,“軟解釋”甚至可以是主要的算法解釋路徑,因為算法的解釋技術(shù)和解釋效果之間存在間隙,還需綜合考慮用戶的能力以實現(xiàn)最佳溝通效果,〔63#〕“軟解釋”所包含的文字說明乃至圖示等在此可以發(fā)揮良好作用。近年來,域外大型互聯(lián)網(wǎng)平臺如亞馬遜、谷歌、YouTube、Uber等在其隱私政策中包含一定程度的算法披露,基本上可被視為在常規(guī)場景中提供“軟解釋”的實踐,〔64#〕類似機制亦可在國內(nèi)的算法治理中應(yīng)用。
2.關(guān)鍵場景
在涉及重大公共利益或個體重大權(quán)益保障的關(guān)鍵場景中,數(shù)值化的信息無論對于權(quán)益保障還是風(fēng)險治理目標(biāo)的實現(xiàn)都有舉足輕重的價值,因此應(yīng)當(dāng)要求算法應(yīng)用運營者盡可能提供“硬解釋”。如果算法不太復(fù)雜,一些更為簡潔的“硬解釋”也是可接受的,例如歐盟2019年通過的《提升網(wǎng)絡(luò)中介服務(wù)商業(yè)用戶公平性與透明度規(guī)定》(EU#2019/1150)第5條規(guī)定“網(wǎng)絡(luò)中介服務(wù)的提供者應(yīng)在其條款和條件中規(guī)定決定排名的主要參數(shù),以及這些主要參數(shù)相對于其他參數(shù)的相對重要性的原因”,如果商戶的直接或間接付費可能影響排名,則還需要根據(jù)這些參數(shù)“說明這些可能性以及此類報酬對排名的影響”。此種“硬解釋”也是目前國外算法披露實踐的重要構(gòu)成部分,致力于保護平臺商戶或用戶的合法權(quán)益?!?5#〕只要解釋結(jié)果能夠確切地包含法律規(guī)范所關(guān)注的因果關(guān)系或相關(guān)關(guān)系,解釋者在具體解釋方法的選擇上應(yīng)有合理的自主決定空間。
3.爭議場景
在涉及法律糾紛或爭議的場景中,算法解釋必須能夠針對爭議個案的關(guān)鍵因素提供翔實、清晰的解釋。此種解釋應(yīng)當(dāng)滿足法律救濟的需求,即能夠?qū)λ惴P洼敵龅哪撤N結(jié)果是否由某一因素所導(dǎo)致提供有足夠置信度的證明。即便由于技術(shù)所限,暫時無法產(chǎn)生足夠的證明力,也應(yīng)當(dāng)能夠使其具備作為證據(jù)的條件。對此,算法解釋應(yīng)當(dāng)指向特定的因果關(guān)系,要求算法應(yīng)用運營者提供針對爭議事實的反事實解釋則是目前最為直觀的選擇。反事實解釋試圖發(fā)現(xiàn)對輸入變量作何種改變能夠獲得特定輸出結(jié)果,并且還不需要打開“算法黑箱”從而沒有導(dǎo)致數(shù)據(jù)泄露的風(fēng)險?!?6#〕一些國家的律師已經(jīng)非常熟悉在民事訴訟中運用反事實解釋構(gòu)建因果證明,而澳大利亞的監(jiān)管機構(gòu)和法院已由此種路徑深入分析人工智能信息工具的算法細節(jié)以保護消費者權(quán)益?!?7#〕在引人注目的澳大利亞競爭與消費者委員會訴優(yōu)棧案中,包括PDP、ALE(Accumulated#Local#Effect,累積局部效應(yīng))和反事實解釋等方法均被用于探討優(yōu)棧公司的算法考慮各種因素的優(yōu)先性和影響力,而包括反事實解釋在內(nèi)的算法解釋方法為法院認定優(yōu)棧公司的算法誤導(dǎo)消費者提供了堅實的依據(jù)?!?8#〕
要求解釋者提供此種反事實解釋并不排斥其可同時提供其他類型的算法解釋,各種算法解釋可以相互印證,為糾紛解決提供充分的事實根據(jù),但反事實解釋應(yīng)屬其中的必選項。尤其是在當(dāng)事人對某一關(guān)鍵變量的作用提出質(zhì)疑的權(quán)益救濟場景中,此種反事實解釋可以清晰表明此種變量的改變在多大程度上能實質(zhì)性地影響算法模型的輸出結(jié)果,〔69#〕從而更加堅實地表明算法模型中是否包含了不適當(dāng)?shù)目剂俊?/p>
目前,多種算法解釋方案在技術(shù)和實踐層面正不斷走向成熟,算法解釋逐漸具備作為人工智能算法應(yīng)用運營者之法律義務(wù)的現(xiàn)實基礎(chǔ)。然而,算法解釋的實際效果和作用可能備受質(zhì)疑,“因為算法本身不斷學(xué)習(xí)、不斷變化,在算法披露的那一刻過后,披露的算法就已經(jīng)過時”?!?0#〕更多的挑戰(zhàn)或已接踵而至:形成算法解釋以后,面對不斷迭代和調(diào)整的算法模型,算法解釋會不會迅速失效?如何避免“濫竽充數(shù)”的算法解釋? 面對大型乃至超大型算法模型,如何在有限的時間和技術(shù)條件下確定算法解釋是否準(zhǔn)確?只有解決這些問題,才能確保算法解釋真實、有效,在算法治理中發(fā)揮基礎(chǔ)性的作用。
四、算法解釋如何保真:算法解釋的固定、驗證與審查
為解決前述系列挑戰(zhàn),算法解釋至少應(yīng)有三重配套機制:第一,由于機器學(xué)習(xí)算法的相關(guān)代碼往往處于不斷進化、迭代和修改等變動過程之中,為避免作出解釋后馬上修改算法模型而使解釋失去意義,應(yīng)當(dāng)規(guī)定算法解釋作出后一定時間內(nèi)的固定機制,便于驗證和固定證據(jù);第二,為判斷算法解釋是否真實、準(zhǔn)確,在某些對于權(quán)益保障有精確計量需求的場景下,應(yīng)當(dāng)引入算法驗證機制;第三,基于監(jiān)管問責(zé)和權(quán)益救濟的需要,對于算法解釋引致相關(guān)損害或引發(fā)爭議的,應(yīng)當(dāng)建立公正、專業(yè)的審查機制。對于在權(quán)益保障和風(fēng)險治理(尤其是算法問責(zé))中起到關(guān)鍵作用的“硬解釋”而言,這些機制尤其不可或缺。
(一)算法解釋的固定
代碼和參數(shù)的持續(xù)變動始終是算法解釋的難題,算法解釋很容易陷入“刻舟求劍”的困境?!?1#〕必須使算法解釋能夠以某種方式被固定, 才能避免剛解釋就失效乃至臨時修改算法以捏造解釋的問題。技術(shù)上,可以固定算法解釋的主要方案有三:一是規(guī)定作出算法解釋后一定時間內(nèi)凍結(jié)算法的迭代演化和人為修改;二是規(guī)定作出算法解釋時須采取一定的技術(shù)措施,封存或完整提供算法模型(含主要參數(shù))的鏡像;三是提供足夠豐富的參數(shù)樣本且采取保真措施,供監(jiān)管者和用戶對算法模型在一定時間截面內(nèi)的運行情況進行驗證。
1.凍結(jié)機制
對于不涉及公民重要權(quán)益保障的算法模型(如休閑娛樂內(nèi)容的算法推薦), 如需要進行算法解釋,可以要求算法應(yīng)用運營者在提出解釋后一定時間內(nèi)限制(凍結(jié))模型的改動和參數(shù)的變化,使用戶、相對人或監(jiān)管方有時間進行有效的算法驗證操作。當(dāng)然,在技術(shù)條件允許的情況下,可以對開放式的大型語言模型等不便完全凍結(jié)的算法模型實行更為靈活的“弱凍結(jié)機制”,即不是完全禁止算法模型和參數(shù)的變化,但算法模型和參數(shù)的變動幅度不能達到影響相應(yīng)精度之算法解釋的程度。
對于通過凍結(jié)機制固定的算法模型,無論是解釋本身不實,還是解釋后因擅自修改算法模型導(dǎo)致解釋不對應(yīng)原始的真實模型,都應(yīng)當(dāng)同等承擔(dān)算法解釋失實的法律責(zé)任。為更嚴謹?shù)貐^(qū)分這兩類解釋失實的原因,也可以依托技術(shù)性正當(dāng)程序理論中強調(diào)的完整留存“審計軌跡”(audit-trail)之類的規(guī)則,〔72#〕要求算法應(yīng)用運營者留存作出算法解釋前直至規(guī)定凍結(jié)時間結(jié)束的完整審計軌跡或系統(tǒng)操作流水記錄,確保算法應(yīng)用運營者如實履行義務(wù)。
2.鏡像機制
對于需要頻繁修改和迭代但體量不大的算法模型,可以要求算法應(yīng)用運營者提供作出算法解釋之時算法模型的鏡像以供監(jiān)管機構(gòu)審查;在不涉及商業(yè)秘密保護或公平競爭風(fēng)險的情況下,也可以開放給用戶或相對人以接受驗證。這一鏡像應(yīng)當(dāng)真實、完整地包含算法模型的所有代碼和參數(shù)。對于成熟的人工智能企業(yè)而言,備份算法模型鏡像是必備的基礎(chǔ)能力之一,對于實現(xiàn)容器化的云平臺而言,訓(xùn)練過程所需的框架、工具庫和依賴庫也都可以集成到鏡像環(huán)境中。〔73&〕因此要求企業(yè)提供鏡像盡管可能增加企業(yè)的規(guī)制負擔(dān),但亦屬基本可行。
算法模型鏡像的提供有助于深入和精確地驗證算法解釋的準(zhǔn)確性,但算法應(yīng)用運營者提供鏡像后,在算法和數(shù)據(jù)方面的商業(yè)秘密面臨顯著風(fēng)險。對此,除強調(diào)監(jiān)管部門的保密義務(wù)外,還可以采取技術(shù)保護措施, 在確保數(shù)據(jù)安全的環(huán)境中自行或委托可信第三方保存算法模型鏡像并開放驗證接口,保證商業(yè)秘密不受侵犯。
3.抽樣機制
解釋者如不方便提供鏡像,也可以按相關(guān)標(biāo)準(zhǔn)或規(guī)范的要求,由專業(yè)機構(gòu)或監(jiān)管者在不干擾算法模型運行前提下持續(xù)征集、采集和留存一定數(shù)量的真實輸入輸出樣本,并在算法解釋作出后核驗相關(guān)時段樣本,檢驗算法解釋是否真實有效。如果樣本中輸入輸出之間的關(guān)系分布明顯偏離算法解釋所提供的量化貢獻影響,或者改變特定輸入變量所觀察到的輸出結(jié)果變化總體情況與反事實解釋不符,就可以認為算法解釋存在真實性或準(zhǔn)確性問題。更加確切的判斷結(jié)論可以由算法審計機制提供。
抽樣機制操作成本低,但技術(shù)難度較高。如果樣本采集量較大,采樣過程中算法模型可能發(fā)生修改和迭代,則應(yīng)當(dāng)考慮小幅調(diào)整算法解釋的精度要求,使之能夠容納一定時段內(nèi)算法模型及參數(shù)的微小變化,或者結(jié)合前文提及的“弱凍結(jié)機制”,保證樣本采集的有效性。面對豐富多樣的算法模型,如何基于盡可能小的數(shù)據(jù)采集量,對算法解釋的真實性和準(zhǔn)確性作出精準(zhǔn)判斷,需要精深的統(tǒng)計學(xué)研究支持,這是一項非常專業(yè)且前沿的挑戰(zhàn)。
(二)算法解釋的驗證與審查
算法解釋一旦被有效固定,用戶、相對人、利害關(guān)系人乃至公眾就可以在一定條件下對算法解釋進行驗證,負有監(jiān)管或救濟職責(zé)的機關(guān)則可以對算法解釋進行審查。
1.算法解釋的驗證
對于實質(zhì)性影響用戶/相對人重要權(quán)益或社會公共利益的人工智能算法應(yīng)用及其解釋,理論上應(yīng)當(dāng)允許當(dāng)事人、利益相關(guān)方或社會公眾驗證算法解釋的真實性和準(zhǔn)確性。然而,有觀點擔(dān)心解釋算法可能會導(dǎo)致商業(yè)秘密和技術(shù)秘密的泄露,〔74&〕為保護商業(yè)秘密和競爭法益,可以利用前述“安全環(huán)境+開放驗證接口”的方式或其他類似方法構(gòu)建可信驗證流程,使相關(guān)主體在不接觸源代碼及參數(shù)的情況下有條件進行驗證。不過,即便如此,算法解釋的驗證也面臨“模型竊取”的風(fēng)險:攻擊者通過觀察輸入與輸出之間的關(guān)系,可以訓(xùn)練影子模型(shadow#model)模擬目標(biāo)算法模型的性能,進而獲取目標(biāo)算法模型的關(guān)鍵參數(shù)或超參數(shù),從而完成對算法模型的竊取,甚至倒推其中的部分原始訓(xùn)練數(shù)據(jù)?!?5&〕對此,算法驗證的實施仍需謹慎,可以規(guī)定部分限制措施,例如推行實名制、限制操作次數(shù)、保留操作記錄的驗證機制,防止惡意競爭對手利用算法驗證的機會實施模型竊取或其他惡意攻擊行為。
2.算法解釋的審查
算法解釋的審查要求相當(dāng)強的專業(yè)性,審查者必須對人工智能算法知識及統(tǒng)計學(xué)原理有比較深入的了解。在行政監(jiān)管和向上級主管部門提出申請的行政復(fù)議案件中,網(wǎng)信、公安、工信等監(jiān)管機構(gòu)通常應(yīng)當(dāng)有專業(yè)工作人員承擔(dān)算法解釋審查相關(guān)工作;在涉及算法解釋審查的復(fù)議和訴訟中,應(yīng)當(dāng)探索借助行政復(fù)議中的專家咨詢制度和專家陪審員機制發(fā)揮作用,例如引入可以承擔(dān)審查職責(zé)的專業(yè)人士,經(jīng)過嚴格篩選后進入特定的專業(yè)子庫以供抽選,〔76%〕通過陪審和合議等制度發(fā)揮作用。
算法解釋的審查要點應(yīng)當(dāng)因算法解釋路徑不同而異。對于不包含算法模型相關(guān)數(shù)值的“軟解釋”,由于其難以提供細顆粒度的解釋結(jié)果且缺乏較為精確的衡量尺度,審查者只要判斷其是否符合算法解釋的基礎(chǔ)性要求即可,重點是審查其內(nèi)容是否與算法設(shè)計的實際邏輯相一致,有無虛假或夸大陳述,能否有效消除一般相對人或用戶的懷疑、增強相對人或用戶的信任。對于包含數(shù)值的“軟解釋”以及各種“硬解釋”,則需要有一定的標(biāo)準(zhǔn)和規(guī)范指引算法審查的進行。相關(guān)審查一般需要算法決策翔實數(shù)據(jù)的支持。例如在美國,廣泛使用的申請人跟蹤系統(tǒng)(applicant%tracking%system,%ATS)及類似工具為算法雇傭決策下的合規(guī)審計追蹤提供了支持, 公司借助ATS可以依法獲取求職者一系列身份和行為數(shù)據(jù)并依此作出決策、接受合規(guī)審計等外部審查,在算法決策過程中全程記錄的相關(guān)數(shù)據(jù)對于向?qū)彶檎咦C明不存在歧視情形起到關(guān)鍵作用?!?78〕由于算法解釋路徑和方法較為豐富,相關(guān)的標(biāo)準(zhǔn)和規(guī)范也應(yīng)當(dāng)包含多元化的規(guī)則及指標(biāo), 采取類似于《人工智能算法金融應(yīng)用評價規(guī)范》(JR/T%0221-2021)第7部分的設(shè)計,根據(jù)算法模型的不同種類,提供廣泛覆蓋現(xiàn)有技術(shù)路線的可選規(guī)則?!?88〕惟有當(dāng)相關(guān)標(biāo)準(zhǔn)或技術(shù)性規(guī)范確立了各種主要解釋方法的審查要點及解釋符合度指標(biāo),對算法解釋的審查才能真正實現(xiàn)有據(jù)可依、預(yù)期清晰、令人信服。
五、構(gòu)筑算法解釋制度:算法解釋機制的體系化整合
算法解釋的路徑選擇、固定、驗證與審查等機制的建立,不僅有助于實現(xiàn)算法解釋的三重意義,還可以使算法解釋成為算法治理的樞紐,構(gòu)建體系化的算法解釋制度,有力支撐算法備案審查、算法影響評估、算法審計、算法問責(zé)等其他算法治理制度的運行。
(一)算法解釋制度的基本構(gòu)造
算法解釋制度以算法解釋的技術(shù)原理為基礎(chǔ),通過算法解釋權(quán)和算法解釋義務(wù)嵌入法律關(guān)系之中,將《算法推薦規(guī)定》等既有法律規(guī)范中的算法可解釋性和透明度要求整合為算法模型設(shè)計和運行的標(biāo)準(zhǔn),使之通過算法解釋義務(wù)的適當(dāng)履行而得以實現(xiàn)。算法應(yīng)用運營者履行算法解釋義務(wù)應(yīng)符合法律規(guī)定的內(nèi)容與相關(guān)技術(shù)標(biāo)準(zhǔn)之要求,作出解釋后,部分情況下須通過凍結(jié)、抽樣或鏡像機制使算法解釋得到固定,進而接受基于算法解釋權(quán)或算法解釋義務(wù)的驗證與審查。
首先,此種制度可以充實算法解釋權(quán)和算法解釋義務(wù)的內(nèi)容,使其根據(jù)不同場景聯(lián)結(jié)于不同的標(biāo)準(zhǔn)和要求,建立明確的、有層次的規(guī)范預(yù)期。算法解釋權(quán)和算法解釋義務(wù)并不必然需要完全對應(yīng),對于部分涉及重大公共利益的算法應(yīng)用,即便法律規(guī)范未賦予用戶算法解釋權(quán),也可以徑行賦予算法應(yīng)用運營者以算法解釋義務(wù)。當(dāng)算法解釋權(quán)發(fā)動時,解釋義務(wù)的履行原則上不需要向用戶詳細講解系統(tǒng)的整體技術(shù)架構(gòu)和運作細節(jié),而是主要提供與用戶或相對人利益密切相關(guān)的內(nèi)容,但解釋者愿意主動作出更豐富或更深入解釋說明的亦應(yīng)為法所容許乃至鼓勵。〔798〕
其次,此種制度可以連結(jié)優(yōu)化算法可解釋性和算法透明度之要求,并使這兩種要求各展所能。算法可解釋性是算法模型的客觀屬性,即某一算法在技術(shù)架構(gòu)上是否具備了作算法解釋的條件;算法透明度則是算法運行結(jié)果與主觀預(yù)期的關(guān)系,即對某一算法應(yīng)用所作的解釋說明在多大程度上能夠展現(xiàn)算法決策的內(nèi)在邏輯以及特定因素在算法中的實際影響力,使用戶對算法運行的原理與結(jié)果建立明確的認識與穩(wěn)定的預(yù)期。〔80#〕顯然,算法透明度要求通過算法解釋即可實現(xiàn),因而其可直接與不同精度的算法解釋標(biāo)準(zhǔn)相聯(lián)結(jié),面向用戶、相對人或公眾發(fā)揮作用;算法可解釋性要求則可以指引算法應(yīng)用運營者采取便于履行算法解釋義務(wù)的算法設(shè)計方案, 在更靠前的算法治理階段發(fā)揮引導(dǎo)作用。當(dāng)然,算法透明度要求或算法透明原則的落實還應(yīng)輔之以算法影響評估等事后規(guī)制手段,〔81#〕而精準(zhǔn)可靠的算法解釋對于算法影響評估也可以起到重要的參考作用。
再次,此種制度有助于明確算法責(zé)任。其一,體系化的算法解釋制度有助于確定算法解釋責(zé)任,評判算法應(yīng)用運營者是否準(zhǔn)確、完整、及時地按照相應(yīng)要求和標(biāo)準(zhǔn)提供算法解釋,是否履行了數(shù)據(jù)和算法治理方面的合規(guī)義務(wù)。其二,如果錯誤的算法解釋有可能被用戶、相對人或公眾信賴而導(dǎo)致其遭受損害,此種制度中包含的固定、驗證和審查機制還有助于評估算法解釋如何以及多大程度上導(dǎo)致了損害、是否具有相應(yīng)的主觀過錯,進而確定算法解釋者所承擔(dān)的責(zé)任。其三,算法解釋還可以在許多場合幫助行政和司法機關(guān)判斷算法致害的歸因情況、責(zé)任歸屬及分配問題。
最后,此種體系化的算法解釋制度還有助于支撐算法備案審查、算法影響評估、算法審計等其他算法治理制度的運行。其一,此種制度可以使部分重要算法模型在備案時同步提供算法解釋成為可能,強化算法備案審查的深度和實效。其二,合乎一定標(biāo)準(zhǔn)且有證據(jù)支持的算法解釋結(jié)果對于評估算法的實際影響而言非常有利,伴隨算法解釋的驗證報告可以成為算法影響評估結(jié)果的主要依據(jù)。其三,算法解釋和驗證可以一定程度上為算法審計提供便利,例如算法驗證的入口可以為審計方法中的“抓取審計”“馬甲審計”和“協(xié)作式審計”等開啟通道,〔82#〕尤其是有利于第三方審計的進行。
(二)算法解釋制度的價值平衡要素
1.解釋路徑與精度
算法解釋路徑與精度是算法解釋制度中平衡規(guī)制負擔(dān)和規(guī)制收益的最重要因素。算法解釋的路徑不僅需要包括“軟解釋”與“硬解釋”,還需要充分關(guān)注“軟”“硬”解釋的中間路徑。易言之,“軟解釋”與“硬解釋”之間可以存在一個過渡性的譜系。不同場景中,當(dāng)事人權(quán)益保障的精確計量需求越高,算法解釋就應(yīng)當(dāng)越趨向于“硬解釋”,反之,就可以更多地趨向于“軟解釋”。
這個過渡性的譜系可以體現(xiàn)為“硬解釋”的“相對軟化”:如果難以精確獲得輸入變量對輸出結(jié)果的影響權(quán)重或貢獻度,或者擔(dān)心提供此種解釋會泄露算法模型中隱含的商業(yè)秘密,就應(yīng)當(dāng)允許解釋者引入權(quán)重區(qū)間或權(quán)重等級的方式,放寬量化貢獻表示的精度。例如,對信貸額度評估算法模型的輸出結(jié)果,假設(shè)在各種影響因素中,學(xué)歷因素的影響為0.231、收入因素的影響為0.889,那么就既可以將學(xué)歷因素的影響表述為0.2-0.3、將收入因素的影響表述為0.8-0.9,也可以將學(xué)歷因素標(biāo)記為“2星”影響因子、將收入的重要程度標(biāo)記為“4星半”影響因子等。這樣既不容易導(dǎo)致算法模型被專業(yè)攻擊者通過推理破解,也使得企業(yè)形成和維護算法解釋變得相對簡便和穩(wěn)定。采取“相對軟化”解釋時,算法解釋的精度可以根據(jù)權(quán)益保障需求動態(tài)調(diào)整,在用戶或相對人的知情權(quán)、理解權(quán)或正當(dāng)程序權(quán)利越重要的場景中,算法解釋的精度就越需要提升。
2.解釋時限
由于算法模型處于不斷迭代和演化之中,算法解釋必須及時提供,時滯越長,解釋失真而產(chǎn)生誤導(dǎo)風(fēng)險的可能性越大。伴隨算法模型調(diào)整的實時解釋固然是最優(yōu)選項,但并非所有業(yè)態(tài)中的算法模型都有條件實現(xiàn)實時解釋,尤其是算法模型的非凸性(不能通過局部最優(yōu)解獲得全局最優(yōu)解)限制了算法解釋的速度?!?37〕在算法解釋固定機制的輔助下,可以考慮“變動解釋”和“定期解釋”二者擇一的制度設(shè)計,由算法應(yīng)用運營者自行選擇算法解釋時效保證方案:既可以選擇每次算法模型變動后同步提供算法解釋,也可以選擇定期解釋,解釋頻率的確定則取決于算法解釋時效性與公共利益及個體權(quán)益的相關(guān)程度。在法律設(shè)置算法解釋請求權(quán)的前提下,解釋時限的設(shè)置則應(yīng)首先考慮權(quán)益保障需求,要求解釋者建立在較短時限內(nèi)完成算法解釋的技術(shù)機制。
3.解釋瑕疵責(zé)任
算法解釋如果出現(xiàn)缺漏、偏差或錯誤,一定程度上設(shè)置解釋瑕疵責(zé)任是必要的。對于公權(quán)力主體而言,法律應(yīng)當(dāng)設(shè)置相應(yīng)的補救乃至賠償機制。由于公眾存在特殊信賴,解釋瑕疵如果足以導(dǎo)致相對人基于誤信而采取錯誤選擇、引致合法權(quán)益的損失,公權(quán)力主體應(yīng)承擔(dān)與信賴利益相稱的補救或賠償責(zé)任。對于市場主體而言,對產(chǎn)品或服務(wù)的解釋瑕疵可能涉及對消費者知情權(quán)的侵害,在構(gòu)成警示瑕疵時可以適用產(chǎn)品責(zé)任規(guī)則;尤其是明知算法系統(tǒng)存在缺陷與風(fēng)險而未告知的,應(yīng)承擔(dān)懲罰性賠償責(zé)任?!?47〕其他情況下,應(yīng)區(qū)分算法解釋是否可以被算法應(yīng)用運營者與用戶締結(jié)的合同涵蓋、是否侵害用戶合法權(quán)益,根據(jù)具體情況分別適用合同法或侵權(quán)法之責(zé)任形式。
算法解釋制度的運行必然對算法應(yīng)用運營者造成一定的規(guī)制負擔(dān),目前的技術(shù)發(fā)展仍然難以兼顧模型的預(yù)測性能和自動化決策過程結(jié)果的全面留痕及可解釋性,部分情形下追求算法解釋的程度越高則模型的性能越差。〔857〕如果解釋瑕疵責(zé)任過輕,則算法應(yīng)用運營者可能寧愿承受懲罰而避免充分履行解釋義務(wù);責(zé)任設(shè)置過重,則又將降低算法性能、增加規(guī)制成本,甚至產(chǎn)生“寒蟬效應(yīng)”,妨礙市場主體積極開發(fā)和利用創(chuàng)新的、前沿的復(fù)雜算法模型。輕重兩端之間的平衡點,應(yīng)當(dāng)取決于具體算法解釋場景中公共利益和個體權(quán)益保障的重要性,使解釋瑕疵責(zé)任顯著高于規(guī)制負擔(dān)而又符合比例原則之要求。
本文系2022年度國家社會科學(xué)基金一般項目“算法解釋制度的體系化構(gòu)建研究”(項目批準(zhǔn)號:22BFX016)的階段性研究成果。