郭銳 卞哲
人臉識別技術(shù)是基于人的面部特征信息進(jìn)行身份識別的一種生物識別技術(shù)。近年來,人臉識別技術(shù)在經(jīng)濟(jì)文化發(fā)展、國家安防管理及社會公共利益等方面有諸多用途,如尋找走失兒童、追蹤罪犯、更方便地接入智能手機(jī)和取款機(jī)、幫助機(jī)器人通過識別身份和情感與人類互動,還可以在一些醫(yī)學(xué)研究中協(xié)助診斷或遠(yuǎn)程跟進(jìn)患者的治療情況。
然而,一項可以在人們不知情的情況下遠(yuǎn)程識別并區(qū)別對待的技術(shù),存在非常危險的可能性。麻省理工學(xué)院(MIT)算法決策研究者切爾西·巴拉巴斯(Chelsea Barabas)指出,“人工智能領(lǐng)域的痛苦在于,它沒有看到自己的工作如何與科學(xué)的悠久歷史相吻合,科學(xué)被用來將針對邊緣人群的暴力合法化,并把人們分層和分離?!?1社會需要一個真正覺醒的時刻,讓我們更清楚、更敏銳地意識到人臉識別技術(shù)的問題。
人臉識別的困境:隱私與公平性
除了目前在準(zhǔn)確率、穩(wěn)健性、安全性等技術(shù)本身的局限,人臉識別的主要困境存在于隱私與公平性兩個層面。人臉信息與傳統(tǒng)的隱私不同,它既涉及有關(guān)人格權(quán)、肖像權(quán)的私法問題,也因公共行政的廣泛使用而應(yīng)在公法上予以審慎對待。在公平性問題中,一方面是個人的平等保護(hù),另一方面是公共秩序的需求。然而,追求平衡也許是一個誤區(qū)——解決人臉識別帶來的問題,并不能求助于個案中私益與公益的平衡,而應(yīng)致力于合理而明確的規(guī)制。單純的利益平衡會使人臉識別的問題陷入倫理相對主義的泥沼。2
人臉識別帶來的公平性的困境,源于數(shù)據(jù)與算法。3在看似中立的人臉識別算法中,或者因算法設(shè)計者的偏見,或者訓(xùn)練算法時使用了有問題的數(shù)據(jù)集,會使人臉識別出現(xiàn)歧視性結(jié)果。麻省理工學(xué)院同行評審研究發(fā)現(xiàn),與其他類似軟件相比,Rekognition系統(tǒng)識別女性和黑人的正確率很低,據(jù)《紐約時報》報道,該軟件將女性誤認(rèn)為男性的比例高達(dá)19%;如果納入膚色進(jìn)行統(tǒng)計,則有31%的黑人女性被標(biāo)記為男性。4該種差錯往往導(dǎo)致歧視的結(jié)果,這也是為什么在喬治·弗洛伊德之死引起的全美抗議中,示威者的訴求中便包括要求警方放棄人臉識別技術(shù)。5
此外,算法歧視還可能提高社會偏見和刻板印象的風(fēng)險。人臉識別在認(rèn)證面部信息的同時,也在后臺認(rèn)證基于人臉識別和多種個人數(shù)據(jù)形成的用戶畫像。因此,它并非為了在證明個體基礎(chǔ)身份上實現(xiàn)“去身份化”,而是進(jìn)一步豐富細(xì)化個人的數(shù)字身份,因而可能加劇“身份”對個體的不良影響。6
人臉識別治理路徑的探索
鑒于人臉識別出現(xiàn)的問題,世界范圍內(nèi)多國紛紛尋求人臉識別的治理路徑。在歐洲,歐盟監(jiān)管機(jī)構(gòu)的工作重點(diǎn)是,針對人臉識別技術(shù)創(chuàng)建一個適用于行政和商業(yè)領(lǐng)域的統(tǒng)一監(jiān)管框架,歐盟的成員國則提供補(bǔ)充或具體國家的指導(dǎo)。歐盟于2020年12月15日提出《數(shù)字服務(wù)法》(Digital Service Act, DSA)與《數(shù)字市場法》(Digital Market Act, DMA)草案,均涉及到個人信息與隱私保護(hù)的問題,意圖通過強(qiáng)而有力的監(jiān)管架構(gòu),形成兼顧人權(quán)保障與公平競爭的數(shù)字環(huán)境。《數(shù)字服務(wù)法》還指出歐委會需要對算法、人工智能和數(shù)據(jù)管理系統(tǒng)分析有關(guān)的外部研究。7相比之下,美國針對人臉識別技術(shù)區(qū)分了公共行政與商業(yè)領(lǐng)域的使用行為,商業(yè)領(lǐng)域?qū)θ四樧R別的應(yīng)用已經(jīng)受到生物特征數(shù)據(jù)隱私立法和司法先例的約束,地方和州一級的立法者則針對政府發(fā)布了人臉識別應(yīng)用的指南。
歐美在人臉識別技術(shù)監(jiān)管方面的探索包括:第一,明確了迫在眉睫的問題,如該技術(shù)可能侵犯到個人隱私、造成潛在的偏見和不準(zhǔn)確的結(jié)果;第二,起草或制定了相應(yīng)的法律規(guī)范,著重強(qiáng)調(diào)公共利益和個人權(quán)利的對抗與制衡,以及確保適當(dāng)?shù)谋O(jiān)管。歐洲與美國對人臉識別的治理思路也存在不少差異:歐洲在包括人臉識別問題在內(nèi)的數(shù)據(jù)權(quán)益保護(hù)范疇中,強(qiáng)調(diào)“以人為中心的方法”,立足于私人領(lǐng)域與公共領(lǐng)域的緊密關(guān)系,形成了公私領(lǐng)域統(tǒng)一的管理框架;而美國則突出對公民自由及公民權(quán)利的保障,區(qū)分了公共行政使用行為與商業(yè)使用行為,分別對二者進(jìn)行管控。
人臉識別問題的倫理反思與應(yīng)對
從倫理角度考察,人工智能技術(shù)最深層的問題是“創(chuàng)造秩序危機(jī)”?!皠?chuàng)造秩序危機(jī)”,簡而言之,是人所創(chuàng)造的技術(shù)對人的反噬。8無論是人們憧憬的超級人工智能、通用人工智能,還是現(xiàn)在廣泛應(yīng)用的專用人工智能,技術(shù)對人反噬的可能性都顯而易見。對今天的人類社會而言,有兩個難以解決的問題讓我們遭遇這一危機(jī)。一是終極準(zhǔn)則難題:人類社會缺乏解決諸多問題的共識,導(dǎo)致人工智能沒有已知的道德準(zhǔn)則來指引其決策;二是因果關(guān)系難題:人工智能缺乏對決策后果之倫理意義的認(rèn)知,對決策結(jié)果的倫理判斷能力不足,因而在其決策與其他社會影響之間難以建立因果聯(lián)系。9“創(chuàng)造秩序危機(jī)”這一概念,能夠幫助我們理解人對人工智能技術(shù)中固化的價值進(jìn)行校準(zhǔn)的必要性,以及這種校準(zhǔn)本身的局限。在中國人工智能倫理的標(biāo)準(zhǔn)化工作中,總體組提出“人的根本利益原則”和“責(zé)任原則”兩大原則,是對上述兩個難題的直接應(yīng)對。10
在人臉識別技術(shù)的應(yīng)用中,可以通過引入“人的根本利益原則”和“責(zé)任原則”來思考法律規(guī)制的路徑??紤]到人臉識別在我國的應(yīng)用遠(yuǎn)比歐盟和美國廣泛,我國更應(yīng)全面地思考人臉識別問題的立法和規(guī)制。在“人的根本利益原則”和“責(zé)任原則”的指引下,可以通過一種“融合式設(shè)計”(inclusive design)進(jìn)行人臉識別的立法與規(guī)制,側(cè)重關(guān)注社會的長遠(yuǎn)利益和弱勢群體的平等權(quán)利。在立法中,“融合式設(shè)計”意味著確立合法性、正當(dāng)性和必要性三大基本原則。
針對公共行政領(lǐng)域的人臉識別,應(yīng)當(dāng)遵守合法性原則。合法性原則要求公共行政部門對人臉識別技術(shù)的應(yīng)用必須有法律明確授權(quán);同時,在涉及個人權(quán)利時,行政機(jī)關(guān)的決定還要遵守比例原則。需要指出的是,人臉識別語境下的合法性原則不同于最小傷害原則。這不僅僅是由于在現(xiàn)實中人臉識別技術(shù)的最小化傷害無法量化與實現(xiàn),更重要的原因在于價值平衡的進(jìn)路并不適用于此。我們不能寄希望于在具體的執(zhí)法與司法環(huán)節(jié)中,通過權(quán)衡公益和私益間的最小傷害來對人臉識別技術(shù)的使用行為進(jìn)行規(guī)制,而應(yīng)設(shè)定明確的法律授權(quán)標(biāo)準(zhǔn),禁止發(fā)生在法律授權(quán)以外的使用行為,保證公共行政中應(yīng)用人臉識別技術(shù)的“零傷害”。
正當(dāng)性原則與必要性原則主要適用于商業(yè)使用的情境。正當(dāng)性原則意味著,在沒有法律禁止的情況下,商業(yè)組織和社會機(jī)構(gòu)使用人臉識別技術(shù)必須正當(dāng),這是人工智能倫理原則中責(zé)任原則的展現(xiàn)。11商業(yè)機(jī)構(gòu)在開發(fā)和應(yīng)用人臉識別技術(shù)時,應(yīng)當(dāng)建立明確的責(zé)任體系:數(shù)據(jù)處理者須具備風(fēng)險評估、合規(guī)處理、安全存儲、運(yùn)行監(jiān)督以及應(yīng)對發(fā)生數(shù)據(jù)泄露、非法使用等事故的能力,具體表現(xiàn)為擁有數(shù)據(jù)處理的風(fēng)險評估報告、相應(yīng)政策性處理指南以及具備相應(yīng)的監(jiān)督機(jī)制。而就必要性原則而言,其內(nèi)涵主要包括兩方面內(nèi)容:其一,符合目的必要性,即使用人臉識別必須是提供產(chǎn)品或服務(wù)所必需;其二,符合手段必要性,即沒有更安全、便捷、易接受的其他方式來實現(xiàn)提供產(chǎn)品或服務(wù)的目的。
具體而言,在人臉識別技術(shù)收集數(shù)據(jù)的階段,應(yīng)以“知情-同意”為前提,同時保障個人的拒絕權(quán)和刪除權(quán)。“知情-同意”應(yīng)作為部署人臉識別技術(shù)的必備前提。在公共行政使用中,這一前提意味著于公共場所安裝的攝像頭應(yīng)滿足透明度的要求,例如在顯著位置標(biāo)識部署設(shè)備的政府機(jī)構(gòu)名稱以及數(shù)據(jù)負(fù)責(zé)機(jī)構(gòu)名稱。當(dāng)然,在商業(yè)使用中,“知情-同意”本身不能違反合法性、正當(dāng)性和必要性原則,亦不能成為收集方或使用方規(guī)避責(zé)任的手段。此外,保障個人的拒絕權(quán)和刪除權(quán),在公共行政使用和商業(yè)語境中均需有相應(yīng)的具體規(guī)定。
再者,在面部信息被人臉識別系統(tǒng)收集直至使用的階段,一是應(yīng)滿足目的限制和公平性保障。公共部門或商業(yè)主體對面部信息的收集與使用行為是否正當(dāng),關(guān)鍵取決于該行為所追求的目的是否正當(dāng),即符合公共利益或數(shù)據(jù)主體私益的要求。公平性保障要求保證技術(shù)應(yīng)用的非歧視性,避免因識別人臉帶來的種族、性別、身份等方面的歧視性做法。二是應(yīng)具備理性關(guān)聯(lián),即實施行為與行為目的之間應(yīng)當(dāng)具有相對緊密的關(guān)聯(lián)性。如果收集、使用及處理面部信息的行為并不能達(dá)到設(shè)想的目的,則該行為是不能被評價為合理的。在公共行政中使用人臉識別技術(shù),應(yīng)充分論證使用行為的必要性,包括召開聽證會和重大項目的合法性評估,以及對特殊需要人群提供替代方案;在商業(yè)語境和社會機(jī)構(gòu)使用人臉識別技術(shù),應(yīng)提供替代方案,以防產(chǎn)生歧視性后果。
1 Richard Van Noorden: The Ethical Questions that Haunt Facial Recognition Research, Nature, Vol 587, 19 November 2020.
2郭銳:《人工智能的倫理和治理》,8-12頁,法律出版社,2020年8月。
3人工智能領(lǐng)域的算法風(fēng)險主要包括算法安全問題、算法可解釋性問題、算法歧視問題以及算法決策困境問題。而在人臉識別中,其風(fēng)險集中體現(xiàn)在涉及隱私的算法安全問題和算法歧視問題。參見郭銳:《人工智能的倫理與治理》,載《人工智能》2019年第1期。
4 Maya shwayder, Police facial recognition tech could misidentify people at protests, experts say (Jun. 8, 2020), https://www.jinse.com/news/blockchain/711734.html.
5參見《亞馬遜宣布:禁止美國警方使用其人臉識別服務(wù)一年》,2020年6月11日,https://xw.qq.com/cmsid/TEC2020061100137300,最后訪問時間:2021年3月12日。
6人工智能技術(shù)之所以飽受青睞,原因之一便在于算法能針對具體問題給出針對性解決方案。但從技術(shù)上講,任何效率的提升必然涉及對公民的分類,而分類直接或者間接地關(guān)乎公民的基本權(quán)利。參見郭銳:《人工智能的倫理與治理》第六章,法律出版社,2020.
7 EUROPEAN COMMISSION: Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on contestable and fair markets in the digital sector (Digital Markets Act), Brussels, 15.12.2020, COM(2020) 842 final, 2020/0374 (COD).
EUROPEAN COMMISSION: Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on a Single Market For Digital Services (Digital Services Act) and amending Directive, 2000/31/EC, Brussels, 15.12.2020, COM(2020) 825 final, 2020/0361 (COD).
8 關(guān)于“創(chuàng)造秩序危機(jī)”,見《人工智能的倫理和治理》引論部分。郭銳:《人工智能的倫理和治理》,12-20頁,法律出版社,2020年8月。
9 研究者指出,機(jī)器對人類倫理規(guī)范的學(xué)習(xí)涉及到自治(autonomy)、社群(community)、身份(identity)、價值(value)及移情(empathy)等多個層面的系統(tǒng)學(xué)習(xí),MCBRIDE N. The Ethics of Driverless Cars. ACM SIGCAS Computers and Society,2016, 45(3):179–184,轉(zhuǎn)引自白惠仁:《自動駕駛汽車的倫理、法律與社會問題研究述評》,載《科學(xué)與社會》,第8卷第1期2018年。
10這兩個原則,見《人工智能標(biāo)準(zhǔn)化白皮書》(2018版)。
11 參見郭銳:《人工智能的倫理與治理》,載《人工智能》2019年第1期。