戴藝晗
(華東政法大學(xué)國(guó)際法學(xué)院,上海,201620)
新一輪科技革命的推動(dòng)使得人類正加速邁向數(shù)字社會(huì),手機(jī)支付、網(wǎng)上掛號(hào)、APP打車、在線學(xué)習(xí)、網(wǎng)絡(luò)訂餐、協(xié)同辦公逐漸成為人們生活、工作的常態(tài)[1]?!霸诰€課堂、互聯(lián)網(wǎng)醫(yī)院、智慧圖書館、智能小區(qū)……從購(gòu)物消費(fèi)、居家生活、旅游休閑、交通出行等各類場(chǎng)景,到教育、醫(yī)療、養(yǎng)老、就業(yè)、助殘等重點(diǎn)領(lǐng)域,數(shù)字化服務(wù)迭代升級(jí),數(shù)字生活新形態(tài)不斷涌現(xiàn),數(shù)字社會(huì)建設(shè)取得長(zhǎng)足進(jìn)展。”[2]算法對(duì)社會(huì)資源和信息的分配機(jī)制有重要影響[3],私人生活和公共治理領(lǐng)域的數(shù)字化建立在對(duì)蘊(yùn)含各種機(jī)會(huì)(如就業(yè)機(jī)會(huì)、教育機(jī)會(huì)等)的信息的訪問基礎(chǔ)上。因此,蘊(yùn)含各種機(jī)會(huì)的信息的傳播方式至關(guān)重要,因其提供了獲取關(guān)乎人類生存和發(fā)展、繁榮和福祉至關(guān)重要資源的途徑。大型互聯(lián)網(wǎng)公司手握精確校準(zhǔn)信息分布的巨大權(quán)利,控制著對(duì)各類機(jī)會(huì)信息的訪問機(jī)會(huì)。傳統(tǒng)印刷或廣播媒體即使針對(duì)特定受眾,也無法阻止任何特定個(gè)人訪問其發(fā)布的信息;相較之下,算法權(quán)力逐漸演變?yōu)椤皽?zhǔn)公權(quán)力”[4],大型互聯(lián)網(wǎng)公司有能力通過大數(shù)據(jù)和預(yù)測(cè)算法精確定位受眾,影響信息的傳遞,以不透明的方式?jīng)Q定哪些用戶能夠接收信息、哪些用戶被排除在外,從而危害社會(huì)公平。本文以臉書(Facebook)“納米定位”廣告為例,結(jié)合網(wǎng)上招聘的運(yùn)作模式,闡明預(yù)測(cè)算法如何控制對(duì)以就業(yè)信息為代表的機(jī)會(huì)信息的訪問并可能會(huì)加劇甚至惡化現(xiàn)有的不平等模式,進(jìn)而損害社會(huì)公平公正。要解決此類困境,需要明確以下三個(gè)問題:什么是機(jī)會(huì)信息?決定機(jī)會(huì)信息被誰看到的算法是如何運(yùn)作的?如何從法律責(zé)任認(rèn)定及追究層面規(guī)制預(yù)測(cè)算法對(duì)機(jī)會(huì)信息訪問的控制所導(dǎo)致的不公平不公正現(xiàn)象?
數(shù)字化正成為一種全球趨勢(shì),對(duì)社會(huì)的影響日益加深[5]。私人生活和公共治理變得越來越數(shù)字化,以海量數(shù)據(jù)為基礎(chǔ)的機(jī)器學(xué)習(xí)算法正在廣泛入侵私人生活和公共治理領(lǐng)域[6]。隨著日常生活的方方面面被捕捉為數(shù)據(jù)以及數(shù)字媒介交易的普及,獨(dú)特標(biāo)識(shí)符和個(gè)人識(shí)別信息(如姓名、用戶名、地址、電子郵件、電話、信用卡號(hào)碼、身份證、車牌等)越來越多地被用于訪問服務(wù),大量涉及城市及其公民實(shí)時(shí)和可操作的數(shù)據(jù)由一系列公共和私人組織定期生成。這些數(shù)據(jù)來源于公用事業(yè)公司(電、氣和水的使用),運(yùn)輸供應(yīng)商(位置/移動(dòng)、旅行流),移動(dòng)電話運(yùn)營(yíng)商(位置/移動(dòng)、應(yīng)用程序使用和行為),旅游和住宿網(wǎng)站(評(píng)論、地點(diǎn)/移動(dòng)和消費(fèi)),社交媒體網(wǎng)站(意見、照片、個(gè)人信息和位置/移動(dòng)),政府和公共管理機(jī)構(gòu)(服務(wù)、績(jī)效和調(diào)查),金融機(jī)構(gòu)和零售連鎖(消費(fèi)、地點(diǎn)),私人監(jiān)視和保安公司(位置、行為),應(yīng)急服務(wù)(安全、犯罪、治安),家用電器和娛樂系統(tǒng)(行為、消費(fèi))等[7]。公民的社交活動(dòng)被吸收為數(shù)據(jù)的同時(shí)被量化和分類[8]。數(shù)據(jù)被組織并存儲(chǔ)在數(shù)字?jǐn)?shù)據(jù)庫(kù)中,很容易被連接和共享。
當(dāng)今社會(huì)呈現(xiàn)兩種日益發(fā)展并相互交集的趨勢(shì):即在發(fā)展理論中強(qiáng)調(diào)公平公正理念和在發(fā)展實(shí)踐中由于大量使用數(shù)據(jù)而有可能導(dǎo)致的不平等不公正現(xiàn)象[9]。大量數(shù)據(jù)的累積使得我們的在線體驗(yàn)越來越個(gè)性化,這種提高個(gè)性化的動(dòng)力由復(fù)雜的機(jī)器學(xué)習(xí)算法驅(qū)動(dòng)[10],技術(shù)和大數(shù)據(jù)分析能力、人工智能和機(jī)器學(xué)習(xí)的飛速發(fā)展為識(shí)別分析與自動(dòng)化決策提供了溫床,對(duì)個(gè)人權(quán)利產(chǎn)生了潛在的重大影響。識(shí)別分析與自動(dòng)化決策延續(xù)現(xiàn)有的刻板印象(stereotypes)和社會(huì)分化(social segregation)模式,決定了哪些信息能被哪些人看到,限制了個(gè)人對(duì)信息的自主選擇權(quán),算法技術(shù)重新賦能與賦權(quán)原有傳播主體的同時(shí)也影響和解構(gòu)了傳統(tǒng)傳播生態(tài)[11]。
算法對(duì)相關(guān)性而非因果性的追求以及由于決策過程不透明從而導(dǎo)致的黑箱效應(yīng)使得算法有可能成為嚴(yán)重侵犯人格尊嚴(yán)或公民基本權(quán)利的“大規(guī)模數(shù)學(xué)殺傷性武器”[12]。鑒于此,我國(guó)《個(gè)人信息保護(hù)法》第二十四條規(guī)定“通過自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定,個(gè)人有權(quán)要求個(gè)人信息處理者予以說明,并有權(quán)拒絕個(gè)人信息處理者僅通過自動(dòng)化決策的方式作出決定?!?022年3月1日起施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱《算法管理規(guī)定》)第十七條也指明“算法推薦服務(wù)提供者應(yīng)用算法對(duì)用戶權(quán)益造成重大影響的,應(yīng)當(dāng)依法予以說明并承擔(dān)相應(yīng)責(zé)任?!庇纱丝梢?,當(dāng)算法對(duì)個(gè)人權(quán)益造成重大影響時(shí),尤其需要保障其透明度和計(jì)算結(jié)果的公平公正。算法的公正問題被視為當(dāng)今人工智能領(lǐng)域的核心倫理問題之一[13]。某些信息的顯示與否會(huì)對(duì)社會(huì)公平產(chǎn)生重大影響,本文將此類信息概括為機(jī)會(huì)信息,即對(duì)個(gè)人權(quán)益有重大影響的信息。下段將結(jié)合相關(guān)域內(nèi)和域外規(guī)則界定“對(duì)個(gè)人權(quán)益有重大影響”的具體含義。
我國(guó)《個(gè)人信息保護(hù)法》以及《算法管理規(guī)定》并未就“對(duì)用戶權(quán)益造成重大影響”進(jìn)行詳細(xì)界定。國(guó)家標(biāo)準(zhǔn)《信息安全技術(shù) 個(gè)人信息安全規(guī)范》(GB/T 35273-2020)第7.7條也沒有具體定義“對(duì)個(gè)人信息主體權(quán)益造成顯著影響”,只是列舉了幾種具體情形,即自動(dòng)決定個(gè)人征信及貸款額度、用于面試人員的自動(dòng)化篩選等。我國(guó)《信息安全技術(shù) 個(gè)人信息安全影響評(píng)估指南》(GB/T 39335-2020)第5.5.1條從“限制個(gè)人自主決定權(quán)”“引發(fā)差別性待遇”“個(gè)人名譽(yù)受損或遭受精神壓力”“人身財(cái)產(chǎn)受損”四個(gè)維度對(duì)個(gè)人權(quán)益影響進(jìn)行評(píng)估,未具體定義或明確什么情形構(gòu)成“重大影響”。從域外立法角度出發(fā),歐盟《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,以下簡(jiǎn)稱GDPR)第22條規(guī)定“數(shù)據(jù)主體應(yīng)當(dāng)有權(quán)不被僅僅靠自動(dòng)化處理包括歸檔,來對(duì)其做出對(duì)數(shù)據(jù)主體產(chǎn)生法律影響或類似嚴(yán)重影響的決策”。然而GDPR在其文本中也未明確定義“法律影響或類似嚴(yán)重影響”或具體界定其范圍。歐盟WP29工作組制定的《關(guān)于自動(dòng)化個(gè)人決策目的和識(shí)別分析目的準(zhǔn)則》(Guidelines on Automated Individual Decision-making and Profiling for the Purposes of Regulation 2016/679)將“產(chǎn)生法律影響”定義為影響一個(gè)人的法律地位或合法權(quán)利的事情,如住房福利;同時(shí)將“具有類似重大影響的決定”定義為對(duì)個(gè)人的環(huán)境、行為或選擇產(chǎn)生同等法律影響的決定,如無需人工干預(yù)的電子招聘。
結(jié)合上述規(guī)則,本文將對(duì)個(gè)人權(quán)益有重大影響的機(jī)會(huì)信息概括為:獲得與否會(huì)對(duì)數(shù)據(jù)主體的法律地位或基本法律權(quán)利產(chǎn)生影響或?qū)€(gè)人的環(huán)境、行為或選擇產(chǎn)生同等法律影響的信息,例如蘊(yùn)含就業(yè)機(jī)會(huì)的信息、接受教育機(jī)會(huì)的信息等。
本章以臉書“納米定位”廣告為例來闡明預(yù)測(cè)算法如何影響用戶對(duì)機(jī)會(huì)信息的訪問。信息算法系統(tǒng)中存在三大主體:一是信息(廣告)發(fā)布主體,一般是以大型互聯(lián)網(wǎng)公司為首的網(wǎng)絡(luò)服務(wù)提供商,借助算法技術(shù)發(fā)布信息和廣告的平臺(tái);二是信息(廣告)主體,即有需求發(fā)布信息和廣告的主體;三是信息(廣告)接受者,即信息算法技術(shù)及其產(chǎn)品的接受者。例如,字節(jié)跳動(dòng)在臉書上發(fā)布招聘程序員的廣告,程序員A看到了這個(gè)信息,那么臉書是信息(廣告)發(fā)布主體,字節(jié)跳動(dòng)是信息(廣告)主體,程序員A是信息(廣告)接受者。機(jī)會(huì)信息往往以廣告的形式呈現(xiàn),誰有權(quán)訪問這些廣告與社會(huì)平等和公平息息相關(guān)。大型互聯(lián)網(wǎng)公司通過預(yù)測(cè)算法控制對(duì)機(jī)會(huì)信息的訪問主要通過廣告定位以及廣告發(fā)布兩個(gè)過程完成。在廣告定位階段,廣告商提交構(gòu)成其廣告內(nèi)容的文本和圖像并選擇目標(biāo)參數(shù);在廣告發(fā)布階段,平臺(tái)基于許多因素,如廣告商的預(yù)算、廣告效果以及廣告與用戶的預(yù)測(cè)相關(guān)性等將廣告投放給特定用戶[14]。以臉書為例,廣告商在廣告定位階段必須做出以下選擇:(1)廣告內(nèi)容:廣告商通常會(huì)提供廣告標(biāo)題、文字、圖像以及視頻,這些統(tǒng)稱為廣告創(chuàng)意;(2)受眾選擇:廣告商需要選擇他們希望哪些平臺(tái)用戶,即受眾可以看到廣告;(3)出價(jià)策略:廣告商需要說明他們?cè)敢鉃閺V告展示支付多少費(fèi)用[14]。廣告商輸入上述所有信息后,提交廣告平臺(tái)以供審核;一旦獲得批準(zhǔn),廣告將進(jìn)入發(fā)布階段[14]。廣告發(fā)布是指廣告平臺(tái)向用戶展示廣告的過程,廣告平臺(tái)通過廣告拍賣確定向用戶展示廣告的機(jī)會(huì)(例如,當(dāng)用戶使用瀏覽服務(wù)時(shí)廣告位可用),即從包含當(dāng)前用戶的所有廣告中確定向哪個(gè)受眾展示哪個(gè)廣告[14]。
臉書是全球最大的社交媒體平臺(tái)以及美國(guó)和全球數(shù)字廣告行業(yè)的第二大參與者,廣告占公司收入的比重很大。臉書能夠成功發(fā)展其廣告業(yè)務(wù)的主要原因之一在于它收集了大量與其用戶相關(guān)的數(shù)據(jù)[15]。臉書能夠根據(jù)其廣告平臺(tái)附加的興趣來唯一識(shí)別用戶,即臉書的廣告管理工具可以使每個(gè)廣告都能精準(zhǔn)投放給事先預(yù)定的一個(gè)臉書用戶[16],這一過程被稱為“納米定位”(nanotargeting)。廣告商通過將用戶個(gè)人身份信息(如姓名、地址、出生日期)和其他屬性信息(例如政治派別或是否訪問過公司的網(wǎng)站)上傳到臉書來指定他們想要定位的特定個(gè)人用戶。上傳此信息后,臉書基于這些信息來識(shí)別平臺(tái)上的相應(yīng)用戶,并向他們投放廣告[17]。臉書為廣告商提供了廣泛的配置參數(shù),包括但不限于:位置(國(guó)家、地區(qū)等),人口統(tǒng)計(jì)參數(shù)(性別、年齡等),行為(移動(dòng)設(shè)備、操作系統(tǒng)、使用的網(wǎng)絡(luò)瀏覽器等)和興趣(運(yùn)動(dòng)、食物等),進(jìn)而為廣告商提供了“在正確的時(shí)間向正確的人展示正確的廣告的機(jī)會(huì)”[18]。臉書還鼓勵(lì)廣告商通過使用可用屬性在其目標(biāo)受眾中包含或排除某些類型的用戶,以求縮小受眾范圍[19]。廣告商可用于定位的特定功能因平臺(tái)而異,但通常包括人口統(tǒng)計(jì)屬性、行為信息、用戶的個(gè)人身份信息(PII)、移動(dòng)設(shè)備ID和網(wǎng)絡(luò)跟蹤像素[20]。由于定位功能的多樣性以及對(duì)敏感定位特征(如用戶人口統(tǒng)計(jì)和興趣)的使用,引發(fā)了歧視的擔(dān)憂。根據(jù)廣告商的定位,某些用戶群體可能被排除在某些廣告的顯示之外[14]。2018年3月,美國(guó)國(guó)家公平住房聯(lián)盟(National Fair Housing Alliance)及其三個(gè)成員組織對(duì)臉書提起訴訟,因?yàn)樗试S廣告商基于種族、宗教、性別和殘疾等特征決定哪些受眾可以看到相關(guān)住房廣告[21]。
廣告定位階段主要涉及來自廣告商的輸入,而廣告投放階段很大程度上落在廣告平臺(tái)的控制之下,也會(huì)產(chǎn)生歧視性的后果。盡管廣告商可以通過多種方式定位(或排除)看到其廣告的特定用戶群體,但平臺(tái)廣告投放過程也會(huì)對(duì)誰最終看到廣告產(chǎn)生影響,當(dāng)廣告商使用臉書提供的“相似受眾”工具功能時(shí),臉書會(huì)使用其廣泛的數(shù)據(jù)來分析源受眾中用戶的屬性,并識(shí)別具有相似屬性的其他臉書用戶[14]。雖然雇主最初通過選擇源受眾來定義目標(biāo)群體,但臉書的算法確定了定義此受眾的相關(guān)屬性以及哪些其他用戶將實(shí)際收到廣告[14]。一項(xiàng)研究表明當(dāng)廣告商試圖向全社會(huì)無差別投放五個(gè)木材行業(yè)招聘廣告時(shí),臉書的廣告投放算法并未聽從此指令而是將此廣告投放給了超過90%的男性用戶和超過70%的白人用戶;此外,當(dāng)研究人員試圖向全社會(huì)無差別投放五個(gè)門衛(wèi)就業(yè)機(jī)會(huì)廣告時(shí),廣告投放算法將廣告投放給超過65%的女性用戶和超過75%的黑人用戶[14]。之所以會(huì)出現(xiàn)這些廣告投放偏差,是因?yàn)槟槙膹V告投放算法根據(jù)以往的用戶參與度和印象數(shù)據(jù)推斷出哪些類別的用戶更有可能參與廣告。盡管廣告商已經(jīng)明確表示希望無差別投放廣告,臉書仍然有可能做出有傾斜的投放[14]。用戶對(duì)廣告的參與與否可以反映與其種族、年齡等相關(guān)的個(gè)人偏見和經(jīng)歷。當(dāng)算法識(shí)別出此類參與模式時(shí),將尋求根據(jù)這些趨勢(shì)優(yōu)化廣告活動(dòng)、以擴(kuò)大投資回報(bào),這意味著在某些情況下,算法可以基于歷史數(shù)據(jù)推斷將偏見永久化。在此過程中,算法可能會(huì)通過排除某些群體看到此類廣告的機(jī)會(huì),阻礙平等的結(jié)果。因此,旨在最大化臉書點(diǎn)擊次數(shù)和利潤(rùn)的廣告系統(tǒng)會(huì)成為機(jī)會(huì)平等的障礙。臉書的廣告投放算法決定了目標(biāo)受眾中的哪些用戶實(shí)際收到了廣告,即使廣告商使用中性定位標(biāo)準(zhǔn)并打算覆蓋不同的受眾,廣告定位算法也可能以有偏見的方式分發(fā)有關(guān)機(jī)會(huì)的信息,如圖1所示。
圖1 廣告定位算法分發(fā)機(jī)會(huì)信息流程Fig.1 The Process of How Advertising Targeting Algorithm Distributes Opportunity Information
廣告最終展示給誰是廣告商和廣告平臺(tái)共同作用的結(jié)果,倘若廣告發(fā)布平臺(tái)只是將顧客最想購(gòu)買產(chǎn)品的廣告精準(zhǔn)展示給特定目標(biāo)受眾,結(jié)果可能無傷大雅,但是倘若廣告發(fā)布平臺(tái)選擇展示的是機(jī)會(huì)信息,則有可能造成社會(huì)不公平。后文以就業(yè)信息為例,闡明預(yù)測(cè)算法對(duì)機(jī)會(huì)信息訪問控制的影響。
預(yù)測(cè)算法通過觀察過去的行為模式而構(gòu)建,旨在基于歷史數(shù)據(jù)、統(tǒng)計(jì)建模和機(jī)器學(xué)習(xí)等分析技術(shù),對(duì)未來的結(jié)果做出預(yù)測(cè)。因此,這些系統(tǒng)可能會(huì)以反映現(xiàn)有不平等的方式分發(fā)有關(guān)未來機(jī)會(huì)的信息,并可能強(qiáng)化業(yè)已存在的劣勢(shì)模式[22]。以招聘廣告為例,《中華人民共和國(guó)勞動(dòng)法》(2018年修正)第十二條、第十三條規(guī)定勞動(dòng)者就業(yè),不因民族、種族、性別、宗教信仰不同而受歧視;婦女享有與男子平等的就業(yè)權(quán)利。在錄用職工時(shí),除國(guó)家規(guī)定的不適合婦女的工種或者崗位外,不得以性別為由拒絕錄用婦女,因此在招聘廣告中,不得設(shè)置“民族、種族、性別、宗教信仰”等限制;不得對(duì)女性設(shè)置“性別”限制(國(guó)家規(guī)定的不適合女性的工種或崗位除外)提高對(duì)婦女的錄用標(biāo)準(zhǔn)?!吨腥A人民共和國(guó)就業(yè)促進(jìn)法》(2015年修正)第三條、第二十九條、第三十條、第三十一條也都有錄用員工時(shí)禁止歧視的規(guī)定。如果企業(yè)在招聘廣告中含有上述歧視性信息,勞動(dòng)者可以向法院提起訴訟,造成財(cái)產(chǎn)損失或者其他損害的可以要求賠償。然而,現(xiàn)如今“嵌入人工智能的歧視不再像過去一般露骨,而是隱匿到數(shù)字世界的角落悄無聲息地侵蝕社會(huì)公平正義,”[23]招聘廣告中的歧視由顯性的“只招男生”“男生優(yōu)先”的說明轉(zhuǎn)化為根據(jù)大數(shù)據(jù)算法精準(zhǔn)投放招聘廣告,例如美國(guó)卡內(nèi)基梅隆大學(xué)的學(xué)者曾經(jīng)做過用一種名為ADFisher的釣魚軟件模擬普通用戶瀏覽求職網(wǎng)站的實(shí)驗(yàn),以統(tǒng)計(jì)谷歌(Google)推送“年薪20萬美元以上的職位”的廣告數(shù)據(jù),結(jié)果顯示男性收到1,852次推送,女性只收到318次,女性得到“高薪”職位推薦的機(jī)會(huì)僅為男性的1/6[24]。換言之,女性被排除在了高薪廣告的展示之外。
現(xiàn)今的勞務(wù)市場(chǎng)中,求職者和雇主都傾向于在提供求職信息的平臺(tái)上注冊(cè)并提供有關(guān)可用機(jī)會(huì)和所需技能或經(jīng)驗(yàn)的信息。提供求職信息的平臺(tái)并非被動(dòng)地發(fā)布這些信息,而是通過推動(dòng)求職者申請(qǐng)某些工作并向雇主推薦特定申請(qǐng)人來積極促進(jìn)工作的匹配過程。推薦系統(tǒng)既依賴用戶提供的數(shù)據(jù),也依賴平臺(tái)收集的數(shù)據(jù),并基于內(nèi)容推薦和協(xié)同過濾[25]。基于內(nèi)容的推薦根據(jù)物品或內(nèi)容的元數(shù)據(jù),發(fā)現(xiàn)物品或內(nèi)容的相關(guān)性,接著基于用戶過往留下的數(shù)字痕跡對(duì)其偏好的展示或表達(dá)向其推薦類似的項(xiàng)目或物品,例如,通過挖掘用戶過往看過的電影向其推薦類似的電影[25]。協(xié)作過濾首先使用統(tǒng)計(jì)技術(shù)尋找與目標(biāo)用戶有相同喜好的相似用戶,然后根據(jù)相似用戶的偏好或?qū)傩韵蚰繕?biāo)用戶推薦,基本原理就是利用用戶訪問行為的相似性來互相推薦用戶可能感興趣的資源[25]。
在雇主發(fā)布職位空缺后,算法會(huì)掃描數(shù)萬份求職者的簡(jiǎn)歷,在其中尋找符合雇主指定要求的候選人,然后將職位空缺顯示給這些候選人,算法還會(huì)預(yù)測(cè)雇主最感興趣的候選人,將他們標(biāo)記為“最佳匹配”,列在雇主可見隊(duì)列的頂部。提供求職信息的平臺(tái)還會(huì)決定鼓勵(lì)哪類求職者申請(qǐng)職位或者被推薦為合適的人選優(yōu)先向雇主展示,從而影響雇主看到哪些候選人。推薦系統(tǒng)每一次類似的干預(yù)必然會(huì)促進(jìn)一些機(jī)會(huì),同時(shí)掩蓋其他機(jī)會(huì)。提供求職信息的平臺(tái)最終控制了求職者和雇主潛在機(jī)會(huì)的可見性。盡管求職者可以選擇提供哪些個(gè)人信息或使用求職平臺(tái)上的廣告控制來刪除關(guān)于他們一些興趣推斷[26],但卻無法控制平臺(tái)對(duì)他們可能做出的負(fù)面推斷,提供求職信息的平臺(tái)最終決定了哪些因素用于預(yù)測(cè)可能的匹配項(xiàng),例如,平臺(tái)可能會(huì)推斷出特定用戶“對(duì)在建筑工地工作不感興趣”,因此即使雇主試圖聯(lián)系這類特定用戶,平臺(tái)也不會(huì)向該用戶展示建筑工地工作的廣告,平臺(tái)會(huì)以求職者和雇主都不知道的方式將他們排除在機(jī)會(huì)信息之外。例如,亞馬遜開發(fā)了一個(gè)自動(dòng)招聘系統(tǒng),以便人工智能系統(tǒng)可以查看簡(jiǎn)歷并挑選出最佳候選人。為此,亞馬遜向系統(tǒng)提供了過去十年申請(qǐng)亞馬遜工作的人的簡(jiǎn)歷,然而這些投簡(jiǎn)歷的候選者,大部分都是男性,根據(jù)這些數(shù)據(jù),亞馬遜的系統(tǒng)通過學(xué)習(xí)將簡(jiǎn)歷上的“女性”一詞降級(jí),從而提高男性候選人的排名[27]。
預(yù)測(cè)算法對(duì)就業(yè)機(jī)會(huì)信息訪問的控制提供了一個(gè)視角,看似中立的關(guān)聯(lián)數(shù)據(jù)可能已經(jīng)被身份化,基于集體認(rèn)同的資源配置模式無形中限制了個(gè)體決策的空間,具有相同集體身份的個(gè)體擁有相似的資源,即使彼此無意接觸,也會(huì)自發(fā)地呈現(xiàn)出相似的決策偏好。集體認(rèn)同在資源配置中的作用越明顯,個(gè)體決策的認(rèn)同色彩越強(qiáng),明顯中性的特征就越有可能充當(dāng)集體身份(如性別和殘疾)的中介,誘導(dǎo)人工智能輸出歧視性結(jié)果[23]。歧視以及歧視所導(dǎo)致的社會(huì)不公等現(xiàn)象在日常生活中高頻發(fā)生,并“以產(chǎn)品工程設(shè)計(jì)的表象掩蓋了社會(huì)工程設(shè)計(jì)的實(shí)質(zhì)”[28]。在線優(yōu)化系統(tǒng)中對(duì)廣告結(jié)果的公共利益審查比傳統(tǒng)媒體要困難得多。對(duì)傳統(tǒng)媒體廣告中超出預(yù)期規(guī)范的定位和投放很容易被公眾發(fā)覺,監(jiān)督起來比較容易,相較之下,預(yù)測(cè)算法對(duì)機(jī)會(huì)信息訪問的控制很難審查[29]。在雇主或房東選擇屬性來定義其目標(biāo)受眾后,其廣告不會(huì)簡(jiǎn)單地顯示給符合所選標(biāo)準(zhǔn)的每個(gè)人,甚至有可能不會(huì)顯示給這些用戶的隨機(jī)樣本。相反,臉書等在線廣告平臺(tái)擁有確定符合條件的受眾中的哪些人將實(shí)際看到特定廣告的權(quán)利。
現(xiàn)代社會(huì)公平主要表現(xiàn)在六個(gè)方面:權(quán)利公平、機(jī)會(huì)公平、規(guī)則公平、效率公平、分配公平和社會(huì)保障公平[30]。在現(xiàn)代社會(huì)中,社會(huì)公平首先意味著社會(huì)權(quán)利的公平,承認(rèn)和保障社會(huì)主體享有平等的生存權(quán)和發(fā)展權(quán),即要求社會(huì)制度安排和非制度安排給予每個(gè)社會(huì)主體生存和發(fā)展的平等機(jī)會(huì)[30],勞動(dòng)權(quán)利、教育機(jī)會(huì)、職業(yè)選擇等不受家庭背景、種族、性別、資本占有狀況等因素的限制和影響[30]。機(jī)會(huì)公平是指社會(huì)主體參與社會(huì)活動(dòng)要求社會(huì)保障機(jī)會(huì)均等,機(jī)會(huì)公平是實(shí)現(xiàn)權(quán)利公平的前提[30]。在信息社會(huì)中,公民權(quán)利的正常行使是基于信息多樣化的保障,而預(yù)測(cè)算法通過控制機(jī)會(huì)信息的獲取來?yè)p害社會(huì)公平,尤其是機(jī)會(huì)公平和權(quán)利公平。
不僅僅局限于就業(yè)機(jī)會(huì)信息,預(yù)測(cè)算法控制對(duì)所有機(jī)會(huì)信息的訪問重點(diǎn)解決的是信息資源的最佳匹配問題,核心在于提高效率以及商業(yè)利益最大化,體現(xiàn)了“用戶”思維,忽略了著眼于社會(huì)公平正義、民生福祉的公眾思維[11]。在復(fù)雜的預(yù)測(cè)分析工具以及模型的幫助下,任何組織現(xiàn)如今都可以使用過去和當(dāng)前的數(shù)據(jù)可靠地預(yù)測(cè)未來幾秒、幾分鐘、幾天甚至幾年的趨勢(shì)和行為。在數(shù)字應(yīng)用中,用戶擁有一個(gè)看不見且多個(gè)維度的數(shù)字身份,這個(gè)身份包含了使用習(xí)慣、個(gè)人品味、偏好、個(gè)性特征和社交圖譜等組合。然而,這種數(shù)字身份的構(gòu)建并非直接基于用戶的人格或自我意識(shí),而是基于可測(cè)量數(shù)據(jù)點(diǎn)的集合和算法對(duì)數(shù)據(jù)點(diǎn)的解釋。換言之,在人工智能眼中,無論多么復(fù)雜的用戶身份,都能被數(shù)字所取代。這些數(shù)據(jù)可以用于社會(huì)分類和區(qū)分人群,使某些類別的人群獲得優(yōu)先地位的同時(shí)邊緣化和排除其他類別的人。除了社會(huì)經(jīng)濟(jì)地位之外,性別、種族和原籍地還有助于確定我們屬于哪個(gè)數(shù)據(jù)庫(kù)、社交媒體平臺(tái)系統(tǒng)如何使用我們的數(shù)據(jù)以及可能對(duì)我們產(chǎn)生的影響[31]。社交媒體平臺(tái)現(xiàn)如今不僅僅是公共話語的居間商,它們構(gòu)成公共話語[32];他們不只是傳遞蘊(yùn)含各種機(jī)會(huì)的信息(如就業(yè)機(jī)會(huì)、教育機(jī)會(huì)等)的平臺(tái),他們借由分類、篩選和整理信息重新定義了勞動(dòng)力、教育市場(chǎng)[10]。預(yù)測(cè)算法對(duì)機(jī)會(huì)信息訪問的控制所導(dǎo)致對(duì)社會(huì)公平正義的侵犯在法律責(zé)任認(rèn)定及追究方面存在諸多問題。
我國(guó)《算法管理規(guī)定》規(guī)制應(yīng)用算法推薦技術(shù)提供互聯(lián)網(wǎng)信息服務(wù)(以下簡(jiǎn)稱算法推薦服務(wù)),并將應(yīng)用算法推薦技術(shù)定義為“利用生成合成類、個(gè)性化推送類、排序精選類、檢索過濾類、調(diào)度決策類等算法技術(shù)向用戶提供信息”(第二條),《算法管理規(guī)定》還在第四條明確指出提供算法推薦服務(wù),應(yīng)當(dāng)遵循公正公平、公開透明、科學(xué)合理和誠(chéng)實(shí)信用的原則,然而《算法管理規(guī)定》第五章法律責(zé)任中并無關(guān)于違反第四條的相關(guān)規(guī)定。此外,《算法管理規(guī)定》第十六條闡明算法推薦服務(wù)提供者應(yīng)用算法對(duì)用戶權(quán)益造成重大影響的,應(yīng)當(dāng)依法予以說明并承擔(dān)相應(yīng)責(zé)任,但是預(yù)測(cè)算法對(duì)機(jī)會(huì)信息訪問的控制很難察覺,“在數(shù)字場(chǎng)景中,歧視被重構(gòu)為0和1的組合,因果關(guān)系也隨之被封裝進(jìn)算法鑄造的黑盒中,‘前因’與‘后果’更加晦暗不清。最直觀意義上,算法以代碼形式存在,首先形成感知維度上的黑盒。施害人的偏見由算法表達(dá)并執(zhí)行,即使是最赤裸裸的歧視亦披上數(shù)字隱身衣?!盵23]
即使用戶能夠證明機(jī)會(huì)信息以歧視性方式分發(fā),損害賠償?shù)淖C明也并非易事,必須依賴一系列假設(shè),即如果預(yù)測(cè)算法不存在歧視,招聘者A會(huì)看到招聘廣告;如果招聘者A看到招聘廣告,她會(huì)申請(qǐng)此職位;如果招聘者A申請(qǐng)此職位,她會(huì)被錄用。傳統(tǒng)責(zé)任計(jì)劃與預(yù)測(cè)算法造成的危害不匹配,反歧視法傾向于尋找特定的個(gè)體受害者,但算法驅(qū)動(dòng)過程的歧視性影響是系統(tǒng)性的[33]。預(yù)測(cè)算法對(duì)機(jī)會(huì)信息訪問的控制損害的是不特定主體的基本權(quán)利,這些權(quán)利的享有人和利益侵害的力度具有不確定性,危害后果具有難以遏制性,且受到損害的個(gè)體難以獲得救濟(jì)[34],原因在于預(yù)測(cè)算法依賴于統(tǒng)計(jì)概括,具有集體維度,問題的系統(tǒng)性使得很難追蹤對(duì)特定人的確切影響。此外,預(yù)測(cè)算法通常使用動(dòng)態(tài)機(jī)器學(xué)習(xí)技術(shù)來生成預(yù)測(cè),并且不斷地結(jié)合新數(shù)據(jù)并實(shí)時(shí)更新,給追責(zé)帶來了挑戰(zhàn)[10]。
預(yù)測(cè)算法對(duì)機(jī)會(huì)信息訪問的規(guī)制離不開制度規(guī)則的建構(gòu)和對(duì)責(zé)任的明確。
以大型互聯(lián)網(wǎng)公司為首的網(wǎng)絡(luò)服務(wù)提供者雖然本質(zhì)上還是社會(huì)商業(yè)力量,但因其擁有巨大的權(quán)力資源和能量,得以突破權(quán)利空間,進(jìn)入權(quán)力領(lǐng)域[35],當(dāng)網(wǎng)絡(luò)服務(wù)提供者濫用其擁有的巨大權(quán)力來影響互動(dòng)從而造成歧視性影響時(shí),他們應(yīng)該承擔(dān)責(zé)任。個(gè)人將看到哪些信息和廣告最終取決于由網(wǎng)絡(luò)服務(wù)提供者即平臺(tái)所控制的算法。由于多種因素影響在線信息和廣告的投放,廣告商選擇的目標(biāo)標(biāo)準(zhǔn)并不能確保其指定接收者一定能看到廣告,雇主可能試圖無差別地投放招聘廣告,然而即使選擇了中性的定位標(biāo)準(zhǔn),由于平臺(tái)的協(xié)同過濾,接收廣告的實(shí)際受眾可能會(huì)沿著年齡、性別或其他可能導(dǎo)致歧視的特征傾斜。當(dāng)今許多互聯(lián)網(wǎng)平臺(tái)服務(wù)提供商在分配機(jī)會(huì)信息的訪問方面發(fā)揮著重要作用,可能會(huì)產(chǎn)生重大的社會(huì)影響,應(yīng)該對(duì)此負(fù)責(zé),法律應(yīng)該確保技術(shù)朝著更公平方向發(fā)展。如果用人單位在求職平臺(tái)發(fā)布的招聘廣告中規(guī)定只招男生,勞動(dòng)者可以向人民法院提起訴訟。招聘平臺(tái)蓄意設(shè)計(jì)規(guī)則將招聘廣告只顯示給男性用戶或者利用大數(shù)據(jù)將女性求職者排除在外同樣違反了就業(yè)歧視的規(guī)定,也需要明確責(zé)任。
為他人提供的內(nèi)容承擔(dān)責(zé)任可能會(huì)威脅到某些平臺(tái)運(yùn)營(yíng)商的生存能力,因此美國(guó)《通信規(guī)范法案》(Communications Decency Act)第230條(47 U.S.C.§230)為充當(dāng)?shù)谌絻?nèi)容發(fā)布者的互聯(lián)網(wǎng)平臺(tái)提供了廣泛的法律豁免權(quán)①美國(guó)《通信規(guī)范法案》203條第(C)(1)款規(guī)定:交互式計(jì)算機(jī)服務(wù)的提供者或用戶不得被視為其他信息內(nèi)容提供者提供的任何信息的發(fā)布者或發(fā)言人。。這種豁免權(quán)最近解決了針對(duì)臉書訴訟的核心問題,臉書認(rèn)為其廣告平臺(tái)應(yīng)受到《通信規(guī)范法案》第230條的保護(hù),部分原因在于其廣告商全權(quán)負(fù)責(zé)決定在何處、如何以及何時(shí)發(fā)布廣告[36]。然而,臉書在投放階段的獨(dú)立行動(dòng)對(duì)于確定廣告展示的方式、時(shí)間和對(duì)象至關(guān)重要,并且可能產(chǎn)生非法結(jié)果,這些影響對(duì)于在臉書投放廣告的廣告商而言可能是不可見的,甚至可能導(dǎo)致廣告商的責(zé)任。在確定是否適用第230條保護(hù)措施時(shí),法院會(huì)考慮互聯(lián)網(wǎng)平臺(tái)是否“實(shí)質(zhì)性地助長(zhǎng)”了被指控的非法行為。
我國(guó)《民法典》第1195條、1196條也為網(wǎng)絡(luò)服務(wù)提供者提供了“避風(fēng)港原則”?!氨茱L(fēng)港原則”適用的前提條件是:(1)網(wǎng)絡(luò)(技術(shù))服務(wù)提供者僅僅提供互聯(lián)網(wǎng)技術(shù)服務(wù),并沒有提供網(wǎng)絡(luò)內(nèi)容服務(wù);(2)網(wǎng)絡(luò)(技術(shù))服務(wù)提供者對(duì)第三方提供的互聯(lián)網(wǎng)信息的侵權(quán)與否并不知情。以上兩個(gè)條件必須同時(shí)具備,否則將不能適用“避風(fēng)港原則”進(jìn)行責(zé)任免除抗辯。
平臺(tái)在什么情況下要為內(nèi)容負(fù)責(zé),關(guān)鍵在于厘清責(zé)任。如果有證據(jù)證明作為招聘平臺(tái)用戶的用人單位利用大數(shù)據(jù)將女性求職者排除在外,那么用人單位可能要負(fù)責(zé)。如果有證據(jù)證明一個(gè)平臺(tái)蓄意設(shè)計(jì)規(guī)則將招聘廣告只顯示給男性用戶看,那么平臺(tái)也要負(fù)責(zé)。當(dāng)互聯(lián)網(wǎng)平臺(tái)服務(wù)商設(shè)計(jì)定位算法來確定哪些廣告投放給哪些用戶時(shí),它就已經(jīng)超越了網(wǎng)絡(luò)服務(wù)提供者的角色,其不只是網(wǎng)絡(luò)內(nèi)容提供者的簡(jiǎn)單傳聲筒以及發(fā)布者,而是參與了某些編輯工作,正如前文所述,招聘網(wǎng)站通常會(huì)整理信息、添加上下文或評(píng)論,例如向求職者推薦機(jī)會(huì)、對(duì)申請(qǐng)人進(jìn)行排名等,網(wǎng)絡(luò)服務(wù)提供者此時(shí)已經(jīng)轉(zhuǎn)變?yōu)榫W(wǎng)絡(luò)內(nèi)容提供者,不能適用“避風(fēng)港原則”進(jìn)行責(zé)任免除抗辯。對(duì)投放機(jī)會(huì)廣告算法的審查應(yīng)該考慮廣告定位和廣告投放兩個(gè)階段,首先對(duì)廣告定位階段廣告商輸入的數(shù)據(jù)是否存在歧視進(jìn)行審查,其次對(duì)廣告投放階段互聯(lián)網(wǎng)服務(wù)提供者運(yùn)用的內(nèi)容過濾和協(xié)同過濾等算法是否存在歧視進(jìn)行審查。
明確平臺(tái)責(zé)任包括兩個(gè)方面:一是平臺(tái)的數(shù)據(jù)可查義務(wù)。為保證機(jī)會(huì)信息分發(fā)的透明性,平臺(tái)應(yīng)當(dāng)對(duì)數(shù)據(jù)的收集方式、來源、內(nèi)容、處理過程及依據(jù)進(jìn)行詳細(xì)記載,并就訓(xùn)練得到的算法進(jìn)行真實(shí)詳細(xì)的闡釋,說明存在的缺陷與可能出現(xiàn)的風(fēng)險(xiǎn)。二是平臺(tái)的解釋性義務(wù)。對(duì)機(jī)會(huì)信息的訪問涉及當(dāng)事人的切身利益?!八惴ǖ膮⑴c必須是可解釋的,而算法的不透明性與可解釋性之間存在沖突,如果算法無法解釋,則構(gòu)成對(duì)當(dāng)事人的不公對(duì)待,且可能帶來系統(tǒng)性風(fēng)險(xiǎn)?!盵37]政策制定者在尋求防止歧視方面,需要仔細(xì)考慮信息發(fā)布平臺(tái)本身運(yùn)行的優(yōu)化作用,而非僅僅考慮信息商的目標(biāo)選擇。首先,信息投放中的歧視可能與信息定位無關(guān),因此對(duì)信息定位階段的限制可能無法解決信息投放階段引起的歧視。特定信息如廣告出現(xiàn)的位置受到廣告商(指定其目標(biāo)受眾)、其他廣告商(競(jìng)爭(zhēng)廣告空間)、用戶本身(選擇是否點(diǎn)擊特定廣告)以及協(xié)調(diào)廣告發(fā)布平臺(tái)的影響[10]。這些參與者之間的互動(dòng)由平臺(tái)的專有算法進(jìn)行調(diào)解,整個(gè)過程不透明。因此平臺(tái)的解釋性義務(wù)需要將信息定位和信息投放階段的解釋權(quán)皆考慮在內(nèi)。算法權(quán)力的規(guī)制和監(jiān)督需要從算法的設(shè)計(jì)源頭上構(gòu)建“技術(shù)性正當(dāng)程序”,即通過程序的代碼化實(shí)現(xiàn)以下要求:算法公開透明,具有程序一致性;允許對(duì)決策結(jié)果產(chǎn)生懷疑,在專業(yè)人員的協(xié)助下審查算法,及時(shí)糾正錯(cuò)誤[38];算法在信息定位以及信息投放階段都是可解釋的等。
此外,平等權(quán)的現(xiàn)有法律保護(hù)模式采用行為主義邏輯和矯正正義的法律理念,這實(shí)際上是一種事后主義的處理方法,更注重對(duì)行為結(jié)果的控制,而單純的事后處理為時(shí)過晚且成本很高,效果不佳,并未使法律規(guī)制延伸至算法歧視的每個(gè)角落[39]。因此事后責(zé)任制度可能并非防止歧視性損害的最佳方式,應(yīng)該研究監(jiān)管模型,以事前預(yù)防盡量減輕因使用預(yù)測(cè)算法而使某些個(gè)人和群體喪失接觸機(jī)會(huì)信息的權(quán)利以致危害社會(huì)平等公平的風(fēng)險(xiǎn)。
人類生活對(duì)數(shù)據(jù)、信息和算法的依賴日益加深,邁入了所謂“數(shù)據(jù)說話、算法為王”的時(shí)代[35],在這個(gè)時(shí)代中,公民權(quán)利的正常行使建立在信息多元化能夠得到充分保障的基礎(chǔ)之上。預(yù)測(cè)算法影響人們接觸信息的方式,某些信息會(huì)對(duì)數(shù)據(jù)主體的基本權(quán)利產(chǎn)生法律影響或類似嚴(yán)重影響,本文將這類信息歸納為機(jī)會(huì)信息。預(yù)測(cè)算法通過控制社會(huì)不同個(gè)體或團(tuán)體對(duì)機(jī)會(huì)信息的訪問,損害了數(shù)字時(shí)代的機(jī)會(huì)公平并有可能侵害勞動(dòng)就業(yè)等各項(xiàng)基本人權(quán)。預(yù)測(cè)算法在信息定位和投放階段皆可決定與數(shù)據(jù)主體基本權(quán)利息息相關(guān)的招聘廣告等機(jī)會(huì)信息最終向誰展示,換言之,機(jī)會(huì)信息的最終展示是廣告商(互聯(lián)網(wǎng)內(nèi)容提供商)定位和網(wǎng)絡(luò)平臺(tái)(互聯(lián)網(wǎng)服務(wù)提供者)投放共同作用的結(jié)果。網(wǎng)絡(luò)平臺(tái)在控制對(duì)機(jī)會(huì)信息訪問上擁有巨大權(quán)利,由互聯(lián)網(wǎng)服務(wù)提供者變成了互聯(lián)網(wǎng)內(nèi)容提供商,需要對(duì)造成的歧視性后果承擔(dān)責(zé)任。明確互聯(lián)網(wǎng)服務(wù)提供者責(zé)任可以從規(guī)定平臺(tái)的數(shù)據(jù)可查義務(wù)以及平臺(tái)的解釋性義務(wù)出發(fā),建議以事前預(yù)防來盡量減少因使用預(yù)測(cè)算法限制機(jī)會(huì)信息展示從而導(dǎo)致社會(huì)不公平的風(fēng)險(xiǎn)。