藍亭亭
(華東政法大學(xué),上海 200042)
在大數(shù)據(jù)時代,算法技術(shù)的應(yīng)用滲透至勞動關(guān)系各個階段,并且根據(jù)不同階段的特征產(chǎn)生相應(yīng)的適用模式。在勞動關(guān)系建立階段,即用人單位招聘階段,人力資源領(lǐng)域?qū)崿F(xiàn)了算法技術(shù)的深度參與,以期提高招聘效率,減輕企業(yè)招聘負擔(dān)。領(lǐng)英、智聯(lián)招聘、前程無憂等以算法利用為核心的網(wǎng)絡(luò)招聘平臺成為各大企業(yè)人才招聘的主要路徑之一。用人單位在雇傭決策上對算法技術(shù)的依賴性不斷提高。由理性精確的算法進行雇傭決策看似排除了HR 的主觀偏見,但是招聘算法技術(shù)真正做到無偏見、無歧視了嗎?
數(shù)據(jù)來自于對社會現(xiàn)象的總體記錄,算法是于虛擬世界中解決現(xiàn)實問題的策略機制?!凹夹g(shù)中立”無法為“算法中立”背書,算法自誕生伊始,便背離了“價值中立”原則。算法歧視指依靠數(shù)據(jù)挖掘與機器深度學(xué)習(xí)(deep learning)的自動決策系統(tǒng)對信息主體進行分析、作出決策時,由于非中立性訓(xùn)練數(shù)據(jù)或設(shè)計偏差,對信息主體進行差別對待進而導(dǎo)致的歧視性后果[1]。算法思維的固有缺陷、算法設(shè)計者主觀認知偏差、算法技術(shù)本身的數(shù)據(jù)漏洞與樣本偏差、算法“黑箱”等問題導(dǎo)致算法歧視具有普遍性、隱匿性和頑固性等特點[1]。因而在人工智能為人類活動帶來通訊便利、降低成本、提高效率等一系列益處的同時,潛存的算法歧視卻逐漸成為了其新創(chuàng)優(yōu)勢下的隱憂。
在國外,算法決策和偏見、隱私和數(shù)據(jù)保護等相關(guān)問題受到各國相關(guān)規(guī)制機構(gòu)在立法上與學(xué)術(shù)上的關(guān)注,力圖采取措施緩解算法技術(shù)運用于招聘過程中可能產(chǎn)生的偏差。在國內(nèi),算法技術(shù)運用于招聘時產(chǎn)生的歧視風(fēng)險屬于新興研究領(lǐng)域,國內(nèi)研究成果較少。我國司法實踐目前雖未出現(xiàn)因算法技術(shù)運用于招聘時所產(chǎn)生的歧視案件,但是隨著算法技術(shù)在勞動用工領(lǐng)域進一步發(fā)展,算法參與招聘決策所引發(fā)的就業(yè)歧視將會成為勞資爭議焦點?;诖?本文試圖梳理可能產(chǎn)生的風(fēng)險與解決之道。
算法技術(shù)應(yīng)用于招聘過程的一大賣點是承諾提高招聘質(zhì)量,顯著消除招聘過程中的人為偏見與主觀性,改善如殘疾人、女性、高齡勞動者等就業(yè)弱勢群體的雇傭前景,被合理規(guī)制的人工智能將有利于發(fā)現(xiàn)社會中的就業(yè)歧視現(xiàn)象[2]。
在招聘過程中,算法技術(shù)可以深度參與“招聘漏斗”(recruitment funnel)的四個階段,即“尋找、篩選、面試與選擇候選人”[3]。目前,許多大型公司都將算法招聘工具作為提高招聘效率、降低招聘成本的利器,主要通過數(shù)字廣告投放、簡歷分析系統(tǒng)、視頻面試系統(tǒng)這三個程序貫穿用人單位招聘的全流程。
1.數(shù)字廣告投放
在“招聘漏斗”的“尋找”階段,算法會從用人單位的角度出發(fā)尋找匹配程度較高的勞動者。算法基于對海量數(shù)據(jù)的學(xué)習(xí),形成穩(wěn)定預(yù)測模型,進而對新輸入進行輸出預(yù)測。最常見的便是各大購物軟件通過對用戶歷史瀏覽進行收集分析后,提供特定的商品推薦。同理,在人力資源領(lǐng)域使用該種定位工具,針對性投放廣告將助長就業(yè)歧視。例如,2017年,美國通信公司Verizon 在Facebook上投放了一則僅針對居住于美國首都或者最近訪問美國首都并對金融展現(xiàn)濃厚興趣的25 至36 歲人群的廣告[4]。此外,用人單位還可以通過現(xiàn)有員工“人物畫像”來定位人力市場里的“酷似受眾群體”[5],利用算法進行信息匹配從而提高數(shù)字招聘廣告投放的針對性和有效性。
2.簡歷分析系統(tǒng)
在“招聘漏斗”的“篩選”階段,算法會掃描求職者的簡歷,識別與成功招聘相關(guān)的關(guān)鍵詞和特征信息,如工作經(jīng)歷、歷任雇主、學(xué)歷證書等,之后算法衡量每一個指標(biāo)的分數(shù)并為每一個候選人進行評分排序。而只有算法判定簡歷與所招聘職位相匹配時才有機會被用人單位查看。在這個過程中,算法是否完全中立呢? 據(jù)路透社報導(dǎo)稱,亞馬遜停止了預(yù)期實現(xiàn)招聘流程自動化的人工智能招聘工具,因為他們確定該工具對婦女有偏見。公司發(fā)現(xiàn),在這套人工智能招聘工具的運用中,性別成為了一項區(qū)分標(biāo)準(zhǔn),軟件開發(fā)人員和其他技術(shù)職位候選人的評分單因性別便會產(chǎn)生差異,算法偏好于男性候選人,如果簡歷分析得知求職者畢業(yè)于女?;蛘邘в小芭浴弊謽?便會受到算法的負面評價[6]。國內(nèi)智能招聘網(wǎng)站也正在進行向數(shù)字化招聘的轉(zhuǎn)變。例如,線上招聘平臺“云聘會”主打核心功能便是簡歷采集與解析,針對用人單位所需崗位畫像推薦合適人才。
3.視頻面試系統(tǒng)
在“招聘漏斗”的“面試”與“選擇候選人”階段,用人單位可以使用視頻面試系統(tǒng)對求職者預(yù)面試進行初步篩選。算法通過分析求職者在錄像視頻中的面試表現(xiàn)(包括其面部表情、語音語速、眼神交流等)進行數(shù)據(jù)收集、處理與分析,判斷求職者的工作風(fēng)格、勤勉度、忠誠度與所求職崗位匹配的“成功可能性”并進行評分和排名[5]。例如,2020年5月,網(wǎng)絡(luò)求職平臺“智聯(lián)招聘”推出“AI易面”這一功能,旨在通過對求職者進行語義分析、神態(tài)分析、智力評測、性格測試等一系列結(jié)構(gòu)化測試,智能評判求職者是否符合預(yù)設(shè)的候選人畫像,借此快捷完成人崗匹配。
1.基于訓(xùn)練數(shù)據(jù)的歧視性風(fēng)險
算法技術(shù)具有實證主義屬性,以數(shù)據(jù)挖掘和信息處理作為決策基礎(chǔ),通過量化而非質(zhì)性的手段解構(gòu)人類行為與社會現(xiàn)象,通過數(shù)理分析的方式構(gòu)建模型識別不同屬性的因果關(guān)系和相關(guān)關(guān)系。存在偏差的訓(xùn)練數(shù)據(jù)會直接導(dǎo)致算法模型表達偏差,這便是算法技術(shù)“偏差輸入,偏差輸出”的問題[7]。當(dāng)算法分類和決策基于不準(zhǔn)確、不全面的信息時,歧視會體現(xiàn)在算法的表達之中,這些表達往往是人類偏見的延續(xù),通過訓(xùn)練數(shù)據(jù)嵌入算法決策,不斷形成一個閉環(huán)。普林斯頓大學(xué)艾琳·卡利斯坎(Aylin Caliskan)等學(xué)者使用內(nèi)隱關(guān)聯(lián)測試(IAT)量化人類偏見時發(fā)現(xiàn),在利用高頻溝通語言對算法系統(tǒng)進行訓(xùn)練時,機器學(xué)習(xí)程序從文本語料庫中自動推導(dǎo)的語義中包含了類似人類思維中的偏見[8]。算法從人類社會習(xí)得對受保護屬性(protected attribute)的歧視,并將其嵌入決策體系之中,算法應(yīng)用的高歌猛進將在更大更深的社會層面滲透算法歧視的影響力。
2.基于設(shè)計偏差的歧視性風(fēng)險
在分年齡和分性別進行回歸的基礎(chǔ)上,為了更好地考察新老兩代不同性別農(nóng)民工的差異,本文對農(nóng)民工群體同時進行了年齡和性別的分組回歸。結(jié)果發(fā)現(xiàn),新媒體使用對于新生代女性農(nóng)民工的工作匹配表現(xiàn)出了顯著影響,并且與前一回歸結(jié)果類似,社交媒體使用時間與APP 下載種類數(shù)量都與新生代女性農(nóng)民工的工作匹配呈現(xiàn)出了明顯的倒U型影響趨勢。從系數(shù)的絕對值上看,社交媒體使用時間(0.039)即新媒體使用的深度比APP下載種類數(shù)量(0.005)對工作匹配的影響更為重要。
設(shè)計偏差產(chǎn)生的原因可能來源于“技術(shù)偏見”和“社會偏見”兩種方式?!凹夹g(shù)偏見”來源于目前算法技術(shù)本身限制、不精準(zhǔn)的模型和錯誤的設(shè)計決策?!吧鐣姟眲t根植于“社會制度、實踐和態(tài)度”,在設(shè)計過程中被嵌入代碼系統(tǒng),成為算法技術(shù)天生的歧視,即“編碼凝視”[9]。當(dāng)個人存在有意識或無意識的偏見時,這種偏見會被投射進算法系統(tǒng)設(shè)計和開發(fā)之中,并在算法決策時有所表征。機器學(xué)習(xí)建立于不同類別的數(shù)據(jù)集基礎(chǔ)上,通過算法設(shè)計者手動分類的數(shù)據(jù)標(biāo)簽不可避免地存在主觀因素,而且通過數(shù)據(jù)記錄并不能可靠和準(zhǔn)確地識別、標(biāo)記各種跨文化的情感和情感表達。
基于通說,一般將“歧視”解釋為“因某些特征對個體區(qū)別對待,如依據(jù)種族、年齡、性別、國籍、宗教信仰、社會出身等因素,人為地在人們之間制造差異、不平等對待,其結(jié)果是損害了機會平等和待遇平等,其實質(zhì)是對人生而平等原則之違反”[10]。在現(xiàn)有法律法規(guī)規(guī)制下,一般將就業(yè)歧視視為侵權(quán)行為對其規(guī)制,其侵害的客體是公平就業(yè)權(quán)利[11]。算法技術(shù)引入職場領(lǐng)域后代替用人單位對招聘作出自動化決策時,顯現(xiàn)出的“歧視性行為”相比于傳統(tǒng)就業(yè)歧視而言是一種新型侵權(quán)行為,在現(xiàn)行法律框架之下是否能找到既有法律資源進行規(guī)制成為亟需關(guān)注的問題。因此,有必要探討是否將上述算法技術(shù)在招聘過程中展現(xiàn)的歧視類型納入現(xiàn)行法律制度框架內(nèi),并審查現(xiàn)有法律規(guī)制是否存在規(guī)制漏洞或偏差,以此為基礎(chǔ)考慮是否對現(xiàn)有法律制度進行調(diào)整與解釋。
從立法上看,基于訓(xùn)練數(shù)據(jù)與設(shè)計偏差的歧視性風(fēng)險,算法招聘歧視陷入因果關(guān)系和責(zé)任認定的難題,傳統(tǒng)侵權(quán)責(zé)任的適用陷入困境。目前法律法規(guī)對算法招聘歧視的規(guī)制僅來源于綜合性法律?!秱€人信息保護法》《網(wǎng)絡(luò)安全法》等法律提出透明性原則、最小侵害原則等數(shù)據(jù)處理原則以期確保數(shù)據(jù)挖掘與利用的合法性與正確性,同時賦予個人信息所有者訪問權(quán)、更正權(quán)、刪除權(quán)等數(shù)據(jù)處理的權(quán)利,對個人信息處理者的行為進行事前規(guī)制[12]。《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》制定更具有針對性的算法推薦規(guī)定,明確了算法推薦服務(wù)提供者的主體責(zé)任。其中第4 條明確了算法推薦服務(wù)的公平公正原則,第20 條“算法推薦服務(wù)提供者向勞動者提供工作調(diào)度服務(wù)的,應(yīng)當(dāng)保護勞動者取得勞動報酬、休息休假等合法權(quán)益,建立完善平臺訂單分配、報酬構(gòu)成及支付、工作時間、獎懲等相關(guān)算法”是對勞動用工領(lǐng)域的精準(zhǔn)規(guī)制,但局限于勞動關(guān)系存續(xù)期間平臺用工中對勞動者勞動報酬、休息休假等權(quán)益的保護,并未提及招聘階段的就業(yè)歧視問題。而與事前規(guī)制相比,我國對事后規(guī)制的研究與實踐尚未成熟,法律未對招聘中所發(fā)生的算法歧視的責(zé)任承擔(dān)予以明確,勞動者在受到算法招聘歧視后將陷入求法無門的困境。
在理論學(xué)界,學(xué)者對于算法歧視的歸責(zé)問題莫衷一是。有學(xué)者堅持適用如產(chǎn)品責(zé)任等傳統(tǒng)責(zé)任框架的規(guī)制路徑[13],將產(chǎn)品責(zé)任中的謹慎標(biāo)準(zhǔn)延伸至人工智能產(chǎn)品領(lǐng)域,提議健全完善謹慎算法標(biāo)準(zhǔn)進行算法歸責(zé)[14]。然而產(chǎn)品責(zé)任以產(chǎn)品的缺陷為基礎(chǔ),證明產(chǎn)品存在缺陷以及缺陷與損害結(jié)果之間的因果關(guān)系對于受歧視的求職者來說意味著技術(shù)上與經(jīng)濟上的雙重負累。另外,囿于技術(shù)的開放性、迭代性與法律的兜底性、滯后性之間的沖突,如何定義謹慎義務(wù)的合理標(biāo)準(zhǔn)仍然是一個開放性論題。也有學(xué)者認為侵權(quán)行為的責(zé)任主體應(yīng)該是人工智能,而不是具體操作者。理由是具有自我辨認能力與控制能力的人工智能擁有行為的選擇權(quán),應(yīng)該獨立承擔(dān)責(zé)任,若將侵害他人的行為完全歸責(zé)于研發(fā)者與使用者實為不妥[15]。但是,如何判斷何為真正的“人工智能”? 達到怎樣標(biāo)準(zhǔn)的“人工智能”切實具有自我選擇權(quán)? 這些問題尚未明朗之際便將責(zé)任規(guī)于“人工智能”并不能使得被侵權(quán)者獲得救濟。在“人工智能”還未取得明確法律主體地位前,應(yīng)該確保算法歧視的責(zé)任能夠追溯到自然人或法人主體。也有學(xué)者認為《個人信息保護法》第24 條規(guī)定“個人信息處理者利用個人信息進行自動化決策,應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正”體現(xiàn)立法者的技術(shù)治理思路,直接將平臺算法作為法律監(jiān)管對象,而不再糾結(jié)主觀過錯與違法結(jié)果等傳統(tǒng)法律歸責(zé)的認知,確立了平臺算法問責(zé)制與以平臺治理為核心的算法自動決策治理框架[16]。此種觀點將平臺的注意義務(wù)從算法設(shè)計擴張至結(jié)果輸出,貫穿算法自動決策的設(shè)計、部署、運行與結(jié)果全過程以保證自動化決策結(jié)果的公平性與合理性。平臺責(zé)任追究的對象已然穿透平臺的技術(shù)面紗,直抵平臺技術(shù)的底層邏輯——算法。然而對于技術(shù)治理的解釋極其容易匿于算法黑箱之后。算法系統(tǒng)的自我解釋性差,艱深復(fù)雜的運行規(guī)則如同一個“黑箱”,給出的只是一個冰冷的數(shù)字。它是如何得出結(jié)論,依據(jù)什么,難以被審計與監(jiān)管。
目前,立法實踐和理論學(xué)界關(guān)注點多聚焦于算法技術(shù)在應(yīng)用過程中的事前規(guī)制,對于算法技術(shù)事后規(guī)制的關(guān)注稍有不足,對于算法歸責(zé)問題也各抒己見,未成統(tǒng)一論調(diào)。故有必要結(jié)合算法技術(shù)在招聘過程中的應(yīng)用場景與技術(shù)特征對傳統(tǒng)侵權(quán)責(zé)任規(guī)制機制進行擴展性研究與探討,檢驗于既有法律框架之下算法歸責(zé)的騰挪空間和創(chuàng)新路徑。
如前文所述,在“人工智能”還未明確取得法律主體地位之前,直接將責(zé)任歸于算法本身言之尚早。開發(fā)人員認為,算法是中立的,只是容易嵌入有偏見的數(shù)據(jù)或陷入被社會不當(dāng)使用的錯誤環(huán)境中。而使用者聲稱算法很難識別,更不用說理解了,因此排除了使用者在使用中道德含義的任何罪責(zé)[17]。但是我們應(yīng)該認識到,歧視首先是一種道德行為,只有道德主體才能夠?qū)λ诉M行具有價值判斷與價值選擇色彩的歧視行為,而一個道德主體最基本特性就在于能動性[18]。從用人單位使用定位工具進行廣告投放,到基于訓(xùn)練數(shù)據(jù)輸入偏差的歧視,最后到源自設(shè)計者固有認知偏差與逐利思想的歧視,都可以看到“人”的能動性。所以,算法招聘歧視的責(zé)任主體應(yīng)當(dāng)是“人”,主要是算法設(shè)計者與算法使用者(用人單位),而非人工智能算法本身。
我國對于算法歧視歸責(zé)體系的建構(gòu)尚未形成統(tǒng)一的觀點,產(chǎn)品責(zé)任、人工智能擔(dān)責(zé)、平臺問責(zé)等理論都試圖用一個較為宏大的理論解決錯綜復(fù)雜的算法責(zé)任問題。但是,算法會由于適用對象、適用主體、所涉目的的不同存在巨大差異,機械的使用產(chǎn)品責(zé)任、平臺問責(zé)等原則均未結(jié)合具體場景具體分析[19]。所以,在不同算法招聘歧視場景下,各個主體參與程度與方式不同,需要運用算法規(guī)制的場景化原理,結(jié)合具體場景進行分析。
1.廣告定向投放場景的責(zé)任主體
2.簡歷分析與視頻面試場景的責(zé)任主體
而在簡歷分析系統(tǒng)與視頻面試系統(tǒng)這兩個場景中,雖然算法分析結(jié)果呈歧視性,但是用人單位在這兩個系統(tǒng)運作過程中的參與度很小甚至未參與其中,用人單位并未作出直接或者有意識的決定來排除某一個求職者,這時算法歧視的責(zé)任主體又為誰? 用人單位需要對此負責(zé)嗎? 算法越是被構(gòu)造為令人難以理解的自主系統(tǒng),就越能將責(zé)任歸因于算法和設(shè)計算法的公司。
美國作為算法規(guī)制的先行者,自算法歧視等社會問題出現(xiàn)至今,已經(jīng)發(fā)布多項法案進行規(guī)制,例如,2017年美國公共政策委員會(USACM)聯(lián)合歐洲公共政策委員會發(fā)布的《算法透明度和責(zé)任聲明》、2019年的《算法問責(zé)法案》、2021年的《算法正義和在線平臺透明度法案》,通過一系列法案建立算法問責(zé)的外部治理與實踐模式??傊?美國將算法歧視所帶來的損害后果歸責(zé)于算法設(shè)計者和算法使用者[20]。我國國務(wù)院于2017年發(fā)布的35 號文件《新一代人工智能發(fā)展規(guī)劃》中明確要求“實行設(shè)計問責(zé)和應(yīng)用監(jiān)督并重的雙層監(jiān)管結(jié)構(gòu)”,說明在算法責(zé)任框架下規(guī)制算法設(shè)計的責(zé)任獲得考慮。在簡歷分析系統(tǒng)與視頻面試系統(tǒng)中,為算法歧視承擔(dān)法律責(zé)任的,應(yīng)該是那些(有意或無意)注入歧視因子或有義務(wù)卻未能及時排除歧視因子的主體。首先是基于訓(xùn)練數(shù)據(jù)偏差而導(dǎo)致的歧視,相關(guān)人員在挖掘、收集、處理個人信息數(shù)據(jù)時,應(yīng)保證數(shù)據(jù)用于自動化決策結(jié)果公平公正。數(shù)據(jù)的處理者在選取、收集與輸入的過程中的歧視性操作導(dǎo)致歧視性結(jié)果的,應(yīng)當(dāng)承擔(dān)相應(yīng)的法律責(zé)任。另外是基于設(shè)計偏差的歧視,算法設(shè)計者在數(shù)據(jù)標(biāo)簽標(biāo)注時懲罰受保護屬性以及設(shè)計過程中其他歧視行為所導(dǎo)致的算法決策歧視后果的,也應(yīng)對此承擔(dān)法律責(zé)任。此外,在算法后期自我更新、迭代進化過程中需要進行定期評估與核查。如果是核查者玩忽職守甚至于忽略算法自我進化后呈現(xiàn)新的歧視傾向,則要承擔(dān)相應(yīng)法律責(zé)任[21]。
基于歧視來源的不同場景考慮不同的責(zé)任承擔(dān)主體,無法完全列舉出歧視行為產(chǎn)生的具體情形,也無法穿透算法技術(shù)黑箱進行責(zé)任規(guī)制?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》于2022年3月1日正式實施,第24 條規(guī)定了算法推薦服務(wù)提供者履行備案手續(xù)的義務(wù),備案信息包括名稱、服務(wù)形式、應(yīng)用領(lǐng)域、算法類型、算法自評估報告、擬公示內(nèi)容等信息。此時可以考慮完善備案制度防患于未然。一個算法系統(tǒng)可能是多個算法程序的集合,每個底層算法程序嵌入對應(yīng)的“法律識別標(biāo)識符”,對編碼進行充分的審計記錄,這樣才能為之后可能發(fā)生的責(zé)任規(guī)制提供依據(jù),避免多方主體推諉的情形出現(xiàn)。
算法歧視給平等原則帶來了巨大的挑戰(zhàn),不僅關(guān)系到求職者機會平等的問題,更牽涉經(jīng)濟發(fā)展與社會正義之間的博弈。我國主流平等觀的價值追求以用人績效為中心,認為歧視的本質(zhì)是否定“量能就業(yè)”,并據(jù)此構(gòu)建起反就業(yè)歧視法的“侵權(quán)法模式”[22]。
1.過錯原則與過錯推定原則的適用難點:勞動者舉證責(zé)任過重
我國侵權(quán)責(zé)任的歸責(zé)原則主要有三種,分別為無過錯原則、過錯推定原則與過錯原則。雖然我國侵權(quán)責(zé)任大部分經(jīng)由過錯責(zé)任進行規(guī)制,但是過錯責(zé)任原則并不當(dāng)然適用于招聘過程中的算法歧視情形。過錯責(zé)任原則下,勞動者對招聘歧視的證明責(zé)任除了證明用人單位存在歧視行為、自己遭受損害結(jié)果和其間的因果關(guān)系外,還需證明用人單位存在歧視的主觀故意,這樣的舉證證明責(zé)任分配機制缺乏合理性。算法背靠能夠簡化問題分析與弱化責(zé)任歸屬的技術(shù)黑箱,即使將各項指標(biāo)與數(shù)據(jù)的的輸入與輸出可視化,但藏于其后的還有錯綜復(fù)雜的倫理判斷與法權(quán)關(guān)系,要求受到歧視的求職者透過算法背后近乎匪夷所思的原理與互動機制[23]去判斷算法設(shè)計者的主觀狀態(tài)實為強人所難。而過錯推定原則通過舉證責(zé)任倒置看似加重了算法設(shè)計者的證明責(zé)任,減輕受害者的訴訟負擔(dān),但是算法設(shè)計者擁有高深的專業(yè)知識與雄厚的財富能力,只要堅稱“算法模型結(jié)構(gòu)合理,信息數(shù)據(jù)完善”,外人也難以考證。即使是相關(guān)領(lǐng)域的專業(yè)人員,在算法技術(shù)更新迭代速度迅猛的背景之下,對于其詳細運行規(guī)則與輸出結(jié)果有時也難言其道。過錯責(zé)任與過錯推定責(zé)任在招聘中的算法歧視均面臨適用困境,很難在招聘算法歧視的事后規(guī)制上發(fā)力,反而成為被歧視的求職者尋求法律救濟的障礙。
2.無過錯責(zé)任原則的適配性:傾斜保護勞動者
從利益考量上,無過錯責(zé)任原則在招聘算法歧視場景下的適用,傾斜保護勞動者這一弱勢群體,符合法律追求正義的主流價值觀?;谕ㄕf,無過錯責(zé)任原則不問行為人主觀上是否有過錯,只要有侵權(quán)行為、損害后果以及二者間的因果關(guān)系,責(zé)任主體就應(yīng)承擔(dān)民事責(zé)任。算法招聘歧視具有隱蔽性特征,證明用人單位在其中的主觀故意與勞動者而言負擔(dān)沉重,不具有可操作性。認定算法招聘歧視的責(zé)任時,應(yīng)當(dāng)關(guān)注侵權(quán)行為的客觀影響,而非歧視的主觀故意。無過錯責(zé)任原則抑制用人單位權(quán)力邊界擴張,減輕勞動者證明責(zé)任,使反招聘歧視制度設(shè)計更加平衡勞資雙方力量,于弱勢勞動者而言是一種維護自身權(quán)益的武器,于用人單位而言是一種提高注意審慎義務(wù)的警醒。其實,從我國《個人信息保護法》第24條的規(guī)定“個人信息處理者利用個人信息進行自動化決策,應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正”也能看出立法者不再將主觀過錯作為算法設(shè)計者的擔(dān)責(zé)條件,突破其“技術(shù)中立”的抗辯,要求算法設(shè)計者為算法結(jié)果公平公正承擔(dān)責(zé)任,需保證算法自動化決策公平合理。綜上所述,基于保障求職者平等就業(yè)權(quán)利與保證算法技術(shù)公平公正的角度出發(fā),招聘過程中所出現(xiàn)的算法歧視情形應(yīng)當(dāng)適用無過錯責(zé)任原則。
當(dāng)算法設(shè)計者或者算法使用者進行招聘歧視行為,除精神損害賠償與公開賠禮道歉等侵害一般人格權(quán)擔(dān)責(zé)方式外,還應(yīng)承擔(dān)懲罰性賠償責(zé)任,以完善算法招聘歧視的責(zé)任承擔(dān)方式。算法招聘歧視會給求職者帶來精神損害與物質(zhì)損失,包括但不限于工作機會喪失,因性別、年齡等受保護屬性被算法懲罰等,上述侵害理應(yīng)受到侵權(quán)責(zé)任的規(guī)制。那么算法招聘歧視應(yīng)該適用何種歸責(zé)方式,即相關(guān)責(zé)任主體依照何種進路為招聘中的算法歧視承擔(dān)法律責(zé)任? 通過具體案件析理提升招聘歧視責(zé)任承擔(dān)的清晰度。從最高院發(fā)布的第185 號指導(dǎo)案例可以看出,法院將用人單位侵害勞動者的平等就業(yè)權(quán)視為人格權(quán)侵權(quán),要求用人單位承擔(dān)公開賠禮道歉、賠償精神撫慰金及合理維權(quán)費用的民事責(zé)任。算法招聘歧視本質(zhì)上也是對勞動者平等就業(yè)權(quán)的侵害,算法是招聘歧視的一種方式,但這種方式具有其獨特性?;谡衅杆惴ㄒ碌恼衅钙缫暬蛟S只表現(xiàn)為算法輸出的一個判斷或者決策,并未“直接”侵犯求職者的人身和財產(chǎn)權(quán)益,但是毋庸置疑,招聘算法歧視間接、客觀地使求職者承受了巨大的財產(chǎn)損失,侵害其平等就業(yè)權(quán)利。所以,如因算法歧視損害他人人身、財產(chǎn)安全,被侵權(quán)人除了有權(quán)請求算法設(shè)計者、算法使用者承擔(dān)損害賠償、賠禮道歉、恢復(fù)名譽、消除影響等一般侵權(quán)責(zé)任[24]外,還可以根據(jù)算法招聘歧視的侵害規(guī)模調(diào)整懲罰性賠償數(shù)額。從制度價值與運用機理上,懲罰性賠償制度具有鮮明的實用主義傾向,其意義在于增加算法設(shè)計者與算法使用者的違法成本,對抗資本侵襲。
在技術(shù)驅(qū)動的算法語境下,完善招聘時算法歧視的責(zé)任規(guī)制順應(yīng)了國務(wù)院《新一代人工智能發(fā)展規(guī)劃》的要求,也回應(yīng)了大數(shù)據(jù)時代新技術(shù)應(yīng)用對法律提出的挑戰(zhàn)。我國目前規(guī)范算法技術(shù)的法律法規(guī)體系聚焦于事前規(guī)制,囿于個人信息數(shù)據(jù)保護與個人信息權(quán)益維護的思維,難以覆蓋招聘時算法技術(shù)廣泛利用個人信息數(shù)據(jù)以及本身設(shè)計偏差所導(dǎo)致的算法歧視風(fēng)險,以及后續(xù)對算法歧視的法律救濟。算法歧視治理目前或陷入“技術(shù)治理的解釋性難度過高”的操作困境,或沉于“產(chǎn)品責(zé)任的審慎義務(wù)標(biāo)準(zhǔn)難以明確”的桎梏之中。招聘中的算法歧視需要更加細致的規(guī)定,從不同發(fā)生場景判斷算法歧視的責(zé)任主體,明確算法歧視的無過錯責(zé)任原則以及具體擔(dān)責(zé)方式。依靠算法技術(shù),招聘歧視進入了一個新的場景,呈現(xiàn)出新的方式,法律很難行至科技之前,但法律的治本之道永遠不會被時代拋棄?!秱€人信息保護法》已經(jīng)為算法歧視發(fā)生后的事后追責(zé)與侵權(quán)救濟指明了方向與路徑[25],明確招聘中算法歧視的責(zé)任框架才能讓求職者在權(quán)利被侵害時有法可循,有法可靠。將算法技術(shù)應(yīng)用于越來越重要的社會和經(jīng)濟決策,除了被視為一種風(fēng)險,還能被視為一種潛在的機會。法律總是在為技術(shù)進步所產(chǎn)生的影響做最后一道防線,希望社會在追求技術(shù)進步的同時也不忘為那些被技術(shù)進步所影響的人提供法律救濟,兼顧高新技術(shù)發(fā)展與人類權(quán)益保障才能實現(xiàn)社會整體的“帕累托最優(yōu)”。