陳玉婷
人工智能時代,算法推薦技術成為互聯網平臺分析、分發(fā)海量數據信息的工具,廣泛運用于各行業(yè)領域中,有效提高了企業(yè)、平臺的信息處理能力,創(chuàng)造了巨大的商業(yè)價值。然而對于普通用戶而言,算法推薦是一把“雙刃劍”。一方面,算法推薦從海量數據中尋找到了滿足用戶意圖或興趣愛好的內容,有效減少了用戶需要瀏覽大量無效數據而造成的時間與精力的浪費;另一方面,算法推薦技術的應用需以海量的用戶信息為基礎,對用戶信息的過度挖掘與不合理使用,引發(fā)了個人隱私泄露、算法標簽侵害、算法歧視等侵害用戶個人信息權益的風險。
在算法推薦技術運行的全過程中,用戶作為其個人信息合法權益的享有者,不僅被迫承受了決策結果錯誤或不公所致的權益受損,而且對信息分析階段中算法的決策過程及分發(fā)階段中決策結果做出的原因一無所知??梢?,算法決策過程呈現出了常人所無法參與的未知地帶。這種“未知”,被隱喻為“算法黑箱”,是算法自我運行、延展和進化帶來的各種不透明因素的總稱。根據Jenna Burrell 撰寫的論文可知,算法的不透明性包含三種形式:一是算法學習的自主性引發(fā)的黑箱特性;二是作為國家秘密或商業(yè)秘密的不透明;三是技術專業(yè)所致的相對的不透明。在算法自動化決策的過程中,算法不透明的黑箱屬性,引發(fā)了不確定、不準確的決策過程或結果,遮蔽了算法技術的運行機理,是導致用戶個人信息權益受損的主要原因之一。
當前,算法推薦技術的濫用引發(fā)了用戶個人信息權益的致害風險,行政機關作為社會公共事務的處理者,被學者們普遍認為是有職責并且有能力在個人信息保護領域中發(fā)揮監(jiān)管治理作用的主體,此觀念也為我國《個人信息保護法》所采納?!秱€人信息保護法》第60 條規(guī)定,國家網信部門、國務院有關部門、縣級以上地方人民政府有關部門(以下簡稱監(jiān)管部門)需履行個人信息保護職責?!秱€人信息保護法》第七章也規(guī)定了警告、罰款、責令改正、沒收違法所得、責令暫?;蛘呓K止提供服務等大量違法處罰措施。但是,在進行處罰之前,用戶權益已然受到損害。這種聚焦于事后監(jiān)管的治理方式重在止損而非防范,造成了事前和事中監(jiān)管的缺位,難以阻止損害事實的發(fā)生,也無法適應科技快速發(fā)展下規(guī)制算法推薦技術的要求。
歐盟、美國在數據、算法領域起步發(fā)展時間較早,其立法實踐處于世界前沿。歐盟2018 年5 月生效的《通用數據保護條例》(以下簡稱《GDPR》)開創(chuàng)了大數據時代個人數據保護制度的先河,引入關于處理個人數據的一般原則,主張從數據源頭端規(guī)范算法應用,以防止對用戶個人信息權益等的侵害。2022 年2 月美國民主黨參議員提出《算法問責法》,成為美國關于算法治理專門立法的最新探索。法案構建了算法影響評估制度以實現對算法風險的動態(tài)化、常態(tài)化監(jiān)測,及時防控算法推薦技術在各運行階段存在的風險。以歐盟、美國為代表的發(fā)達國家的算法治理經驗,可為我國算法治理模式的完善和治理制度的構建提供有益的參考。
《GDPR》第5 條1(a)規(guī)定“對涉及到數據主體的個人數據,應當以合法的、合理的和透明的方式來進行處理”?!昂戏ā币髷祿幚碚哂刑幚碛脩魝€人數據的有效理由,至少應滿足《GDPR》第6 條所規(guī)定的“處理的合法性”中的一項條件,其中最為常見的即“征得用戶同意”?!肮币髮€人數據的處理應當是公平公正而無差別待遇的。例如以價格歧視為代表的算法歧視,實行“同物不同人不同價”的差別待遇即為違反公平性原則?!巴该餍浴币髷祿幚碚唔氁郧宄⒑唵?、明了的方式向用戶說明其個人數據是如何被處理的,包括數據處理者的身份及使用個人數據的方式和原因??梢?,合法、公正、透明性原則能夠從數據處理合規(guī)的角度對算法侵害進行防治。
算法影響評估制度反映的是一種風險治理的理念。該制度要求設計或運營主體就自動化決策系統的應用流程、數據使用、系統設計等內容進行評判,以明確該系統的影響水平和風險等級的一種算法治理實踐。根據《算法問責法》的規(guī)定,算法影響評估制度分為算法使用前的評估和算法使用中的評估兩部分。算法使用前的評估指在利用新的自動化決策算法之前,就已知的危害、缺點、故障案例、預期目標等的內容進行評估。算法使用中的評估要求算法使用者僅在收集必要數據的基礎上,就隱私風險、算法性能等進行持續(xù)評估,以考量是否需要對算法進行限制。就美國的算法影響評估制度進行歸納,大致可分為評估主體、內容、程序、時間、監(jiān)督五個方面。
(1)強化服務提供者的告知義務
形式層面,首先,算法推薦服務提供者在處理用戶個人信息前需嚴格遵守《個人信息保護法》第17 條的規(guī)定,向用戶提供使用協議及隱私政策等內容,明確告知用戶需對其個人信息進行處理。告知的方式應當具有顯著性,采取條理清晰、通俗易懂的語言,降低用戶的閱讀負擔。使用協議及隱私政策的語言不應頻繁使用專業(yè)術語等使用戶難以理解,以做到真實、準確、完整地履行告知義務。其次,算法推薦服務提供者還應避免對用戶采取“一攬子”的告知形式,應區(qū)分信息的處理種類,采用“普通信息+特殊信息”的告知方式。對于與用戶人格無關的內容,如用戶的昵稱、用戶名、密碼等可采用概括式的告知方式。而針對“特殊信息”,即用戶的“隱私信息”或“敏感信息”等,應依據《個人信息保護法》第29 條的規(guī)定,采取逐一告知的方式。
實質層面,首先,算法推薦服務提供者需依《個人信息保護法》第17 條的規(guī)定,明確告知處理用戶個人信息的處理者名稱、對用戶個人信息的處理目的、方式、類別及保存期限等內容,還需遵循《個人信息保護法》第7 條中與《GDPR》相對應的透明性原則,明確告知用戶其個人信息是否會提供給第三方、是如何被處理的等內容。其次,針對需處理用戶隱私信息或敏感信息的算法推薦服務提供者,需依據《個人信息保護法》第30 條的規(guī)定,逐一告知用戶處理其個人信息的必要性以及對個人權益將產生的影響。
通過形式層面與實質層面相結合的方式,增強算法推薦服務提供者的告知義務,削弱算法自主學習的不透明性所致的對用戶個人信息處理種類、目的及方式的不確定性及基于算法語言專業(yè)性的相對不透明性。同時,強化對用戶隱私信息及敏感信息的保護,專門區(qū)分信息種類進行告知并要求逐項獲得授權。確保用戶能夠根據算法推薦服務提供者所提供的信息了解信息處理行為可能對個人權益產生的影響,維護用戶對其個人信息的控制權、知情權及隱私權。
(2)構建個人信息享有者與處理者間多元溝通機制
針對部分算法推薦服務提供者濫用商業(yè)秘密為由進行抗辯,不愿告知用戶算法運行規(guī)則及機理,使得用戶難以理解決策過程及決策結果的情形,可以借鑒歐盟《GDPR》第12 條的規(guī)定,在用戶與算法推薦服務提供者間構建溝通渠道,要求算法推薦服務提供者在不透漏算法作為商業(yè)秘密而被保護的部分的情況下,針對用戶的需求,作出可以被普通大眾所明晰的解釋。通過此溝通渠道的構建,一方面,既防止了商業(yè)秘密為由的抗辯事由的濫用,又滿足了算法推薦服務提供者保護其商業(yè)秘密的需求;另一方面,削弱了算法作為商業(yè)秘密的不透明性。通過要求算法推薦服務者向用戶進行解釋的方式,由用戶從內部層面對服務提供者進行監(jiān)督,防止其人為干涉算法運行。最終,通過雙方的溝通交流,使得用戶了解算法的運行規(guī)則,知曉決策過程及決策結果做出的原因,削弱因算法作為商業(yè)秘密的不透明性所引發(fā)的舉證困難及技術專業(yè)性所致的相對不透明性。
對算法自動決策下個人信息保護體系的完善主要從內部層面對算法推薦技術進行規(guī)制,但內部層面的規(guī)制尚有不足之處,如算法自主學習所依托的初始程序及收集的數據信息本身存在偏差的情形,這并非是算法推薦服務提供者或用戶所能控制的,因而還需完善以監(jiān)管部門為主導的從外部層面的規(guī)制,提前進行風險評估與防控,彌補從內部層面進行規(guī)制的不足。通過內部規(guī)制與外部規(guī)制相結合的方式,以實現對算法推薦技術的全面規(guī)制。
為完善我國監(jiān)管部門因事前及事中監(jiān)管缺位使得算法推薦技術濫用而未被規(guī)制的問題,通過向發(fā)達國家規(guī)制算法推薦技術的立法例的借鑒,可參照美國算法影響評估制度,融入歐盟《GDPR》處理數據的原則的規(guī)定,構建符合我國實際情況的算法影響評估制度,以完善監(jiān)管體系,規(guī)制算法推薦技術?;谒惴ㄓ绊懺u估是一個新的制度,為使得制度的構建更為貼近我國實情,還可參照我國的環(huán)境影響評價制度。我國《環(huán)境影響評價法》2002 年出臺,2018 年進行修正,法律頒布至今已21 年,其制度的構建較為成熟且被證實行之有效。因此,還可借鑒我國環(huán)境影響評價制度以構建算法影響評估制度,這也更為符合歷史和邏輯的合理性。
算法影響評估制度的構建對算法運行的事前及事中流程進行動態(tài)監(jiān)管,提前進行風險評估并設立預防程序,能夠提早發(fā)現問題并解決,可促進研發(fā)主體為通過審批而以負責任的態(tài)度進行系統研發(fā),還可防止人為干涉算法的運行,減少了算法侵害。同時,融入了監(jiān)管部門進行審批,以“審批通過”作為市場準入標準,提高了“準入”門檻,促進了算法行業(yè)整體素質的提升,有效限制了算法推薦技術的濫用。最終,將評估報告總結后公開,既保護了商業(yè)秘密,促進了數字經濟的發(fā)展,又提高了算法的透明度。
算法影響評估制度的構建使以監(jiān)管部門為主導的外部層面的規(guī)制得以完善,協同個人信息保護體系的內部層面的規(guī)制,構成了對算法推薦技術的全方位規(guī)制,但就問責層面還略有欠缺。因而,最后還需以算法影響評估制度為基,完善問責體系,將之與影響評估制度相銜接,進一步完善算法自動決策下的個人信息保護體系。
監(jiān)管部門在審批結束后,將在總結評估報告的內容后,匿去商業(yè)秘密,向公眾公開。故而,用戶可根據監(jiān)管部門公開的內容,評估、對比算法推薦服務提供者告知的對個人信息的處理情況與實際處理情況間的差距。用戶評估、比對后,針對算法推薦服務提供者未如實告知即處理個人信息的情況,可向其追究責任。
為保障未如實告知用戶實際處理情況的違法違規(guī)的算法推薦服務提供者被追責,可根據算法影響評估制度中對算法影響不同類別的劃分,對應不同的責任原則。具體而言,針對輕度影響,對應過錯責任原則;針對中度影響,對應過錯推定責任,服務提供者不能證明其沒有過錯的,應當承擔侵權責任;針對重度影響,對應無過錯責任,無論服務提供者是否有過錯,皆需承擔責任。例如,用戶在對比溝通記錄與監(jiān)管部門發(fā)布的總結報告后發(fā)現,某類別為重度影響的算法推薦服務提供者并未告知某一事項或告知內容與監(jiān)管部門的總結報告不一致,造成對知情權益的侵害,即可要求其承擔侵權責任。
最終,通過對問責體系的完善,敦促算法推薦服務提供者保證其與用戶溝通交流內容及提交予監(jiān)管部門評估材料的真實性。