胡曉萌,李 倫
(1.湖南師范大學(xué) 人工智能道德決策研究所,湖南 長(zhǎng)沙 410081;2.大連理工大學(xué) 大數(shù)據(jù)與人工智能倫理法律與社會(huì)研究中心,遼寧 大連 116023)
萊布尼茨曾說(shuō):世界上沒(méi)有兩片完全相同的樹(shù)葉。這個(gè)世界上也找不出兩張完全相同的人臉,即使是雙胞胎的臉也存在細(xì)微差異而得以區(qū)分,所以人臉成為辨別個(gè)人身份的一個(gè)重要途徑。自動(dòng)人臉識(shí)別技術(shù)(Automatic Face Recognition,AFR)的初衷便是賦予計(jì)算機(jī)具有像人一樣識(shí)別人臉的能力。自動(dòng)人臉識(shí)別技術(shù)通過(guò)人的面部特征進(jìn)行身份的識(shí)別和辨認(rèn),是一種重要的生物識(shí)別技術(shù)。本文所要討論的人臉識(shí)別技術(shù)就是自動(dòng)人臉識(shí)別技術(shù)。
大數(shù)據(jù)、人工智能的發(fā)展引來(lái)了商業(yè)和資本對(duì)人臉識(shí)別技術(shù)的追捧。商業(yè)巨頭和創(chuàng)業(yè)團(tuán)隊(duì)紛紛進(jìn)入人臉識(shí)別這個(gè)人工智能最熱門(mén)的賽道。但是,隨著人臉識(shí)別技術(shù)的發(fā)展和應(yīng)用,人們對(duì)該技術(shù)的消極對(duì)抗情緒也越來(lái)越強(qiáng)。如2018年5月,36歲的英國(guó)人布里奇斯向法庭控訴南威爾士警察局侵犯了他的隱私權(quán),因警方未經(jīng)他本人同意而使用人臉識(shí)別系統(tǒng)掃描其面部,成為英國(guó)首起人臉識(shí)別的法律訴訟。2018年8月,瑞典數(shù)據(jù)監(jiān)管機(jī)構(gòu)對(duì)當(dāng)?shù)匾凰咧虚_(kāi)出第一張基于GDPR的人臉識(shí)別的罰單。2019年11月,杭州野生動(dòng)物世界強(qiáng)制游客“刷臉”入園,當(dāng)事人郭兵將其告上法庭,成為我國(guó)“人臉識(shí)別第一案”。
人臉識(shí)別技術(shù)最開(kāi)始以公共安全和國(guó)家安全為價(jià)值使命而得到發(fā)展和應(yīng)用。但是如果安全這個(gè)價(jià)值訴求被放大而導(dǎo)致人臉識(shí)別技術(shù)被濫用的話,勢(shì)必會(huì)引起隱私、歧視等一系列倫理風(fēng)險(xiǎn)。人們甚至開(kāi)始擔(dān)心人臉識(shí)別技術(shù)會(huì)使人暴露在無(wú)處不在的監(jiān)視之中,演變成現(xiàn)實(shí)版的“楚門(mén)的世界”,世界各國(guó)也提高了對(duì)人臉識(shí)別技術(shù)的警惕。2019年5月14日,美國(guó)舊金山成為全球第一個(gè)通過(guò)立法禁止政府使用人臉識(shí)別監(jiān)視技術(shù)的大城市。英國(guó)也出臺(tái)政策限制人臉識(shí)別技術(shù)的應(yīng)用。
人臉識(shí)別技術(shù)的倫理風(fēng)險(xiǎn)與技術(shù)的濫用和可靠性問(wèn)題密切相關(guān),本文將從人臉識(shí)別技術(shù)的濫用和可靠性問(wèn)題著手,分析人臉識(shí)別技術(shù)引起的倫理風(fēng)險(xiǎn),最后基于非力量倫理和責(zé)任倫理提出相應(yīng)的倫理原則和規(guī)制建議。
通過(guò)對(duì)人臉識(shí)別技術(shù)發(fā)展歷史的回溯,我們可以發(fā)現(xiàn)人臉識(shí)別技術(shù)因公共安全和國(guó)家安全的價(jià)值需求而得以發(fā)展和應(yīng)用。20世紀(jì)中葉,美國(guó)科學(xué)家開(kāi)始了人臉識(shí)別技術(shù)研究。此后的數(shù)十年間,美國(guó)當(dāng)局投入大量資金支持人臉識(shí)別技術(shù)的研究,其背后的利益和價(jià)值訴求始終圍繞公共安全和國(guó)家安全。根據(jù)公共安全和國(guó)家安全的需求變化以及人臉識(shí)別的技術(shù)特點(diǎn),人臉識(shí)別技術(shù)分為幾何特征時(shí)代、統(tǒng)計(jì)特征時(shí)代、大數(shù)據(jù)時(shí)代三個(gè)階段。
第一,幾何特征時(shí)代(1964年~1990年):1964年美國(guó)計(jì)算機(jī)科學(xué)家伍迪·布萊索(Woody Bledsoe)在一個(gè)情報(bào)機(jī)構(gòu)的資助下進(jìn)行人臉識(shí)別技術(shù)的研究。他提出的基于人臉幾何結(jié)構(gòu)特征的識(shí)別方法,也是最早的人臉識(shí)別技術(shù)的方法。[1]7金出武雄、柯比與西羅維奇等人在此基礎(chǔ)上發(fā)展了基于幾何特征的人臉識(shí)別技術(shù)。
第二,統(tǒng)計(jì)特征時(shí)代(1991年~1997年):20世紀(jì)60、70年代開(kāi)始,美國(guó)進(jìn)入毒品、藥物泛濫的時(shí)代,毒品被美國(guó)當(dāng)局認(rèn)定為國(guó)家第一公敵。1990年9月紐約時(shí)報(bào)-CBS民意調(diào)查將毒品列為全美排名第一的社會(huì)問(wèn)題[2]。由毒品滋生的犯罪和艾滋病是第二和第三大問(wèn)題。1993年,美國(guó)國(guó)防部反毒品技術(shù)開(kāi)發(fā)計(jì)劃辦公室出于監(jiān)控吸毒人員、控制毒品泛濫、維護(hù)公共安全的需求,啟動(dòng)了具有里程碑意義的人臉識(shí)別技術(shù)(Facial Recognition Technology,F(xiàn)ERET)項(xiàng)目。特征臉(Eigenface)識(shí)別方法、“Fisher face”識(shí)別方法、彈性圖匹配識(shí)別技術(shù)等都是這一時(shí)期出現(xiàn)的具有代表性的人臉識(shí)別方法。1996年,艾提克(Atick)等人提出的局部特征人臉識(shí)別分析方法(Local Feature Analysis,LFA)具有較高的描述和判別能力,在此方法上開(kāi)發(fā)了著名的FaceIt人臉識(shí)別商用系統(tǒng)。[3]21998年,英國(guó)倫敦的紐漢區(qū)安裝了Visionics公司的250多套FaceIt系統(tǒng),它可以自動(dòng)掃描經(jīng)過(guò)攝像頭前的人的臉部,并在罪犯數(shù)據(jù)庫(kù)中搜索、比對(duì),發(fā)出預(yù)警。
第三,大數(shù)據(jù)時(shí)代(1998年~至今):這一時(shí)期,人臉識(shí)別技術(shù)從實(shí)驗(yàn)室走到了實(shí)用的商業(yè)階段。人臉識(shí)別技術(shù)開(kāi)始通過(guò)使用由多層神經(jīng)網(wǎng)絡(luò)組成的深度學(xué)習(xí)算法,從大規(guī)模數(shù)據(jù)中自動(dòng)學(xué)習(xí)分類(lèi)信息,準(zhǔn)確率獲得極大提升,在動(dòng)態(tài)人臉識(shí)別、較差環(huán)境下、低分辨率等應(yīng)用場(chǎng)景中人臉識(shí)別準(zhǔn)確率較低的問(wèn)題也逐漸得到解決。
美國(guó)在2001年遭受9·11襲擊之后,國(guó)家安全成為美國(guó)政府關(guān)注的重要問(wèn)題,生物識(shí)別技術(shù)被認(rèn)為是解決公共安全問(wèn)題的終極手段,人臉識(shí)別技術(shù)被認(rèn)為是極為重要的生物識(shí)別技術(shù)。在9·11事件后的幾天,Viisage Technology的首席執(zhí)行官宣稱(chēng):“如果部署了我們的人臉識(shí)別技術(shù),則可能甄別出恐怖分子?!盵4]2014年,美國(guó)聯(lián)邦調(diào)查局應(yīng)用洛克希德·馬丁公司花費(fèi)10億美元建造的新一代人臉識(shí)別技術(shù)系統(tǒng)(Next Generation Identification,NGI)來(lái)追蹤罪犯。
美國(guó)心理學(xué)家保羅·??寺?Paul Ekman)是表情識(shí)別的奠基性人物,他確定了人臉43塊肌肉可以創(chuàng)造1萬(wàn)個(gè)面部特征,其中3000個(gè)表情是有意義的,并于1978年建立面部動(dòng)作編碼系統(tǒng)(Facial Action Coding System,F(xiàn)ACS)。9·11事件后,美國(guó)FBI-CIA聯(lián)合反恐組與??寺献鲗?duì)特種特工、安保人員等開(kāi)展相關(guān)的面部表情識(shí)別培訓(xùn),用以確定潛伏在大型公共場(chǎng)所人群中的恐怖分子和可能造成公共安全威脅的人員。[5]16
在??寺难芯炕A(chǔ)上,美國(guó)政府資助了自動(dòng)面部表情識(shí)別方面的研究。2009年,匹茲堡大學(xué)團(tuán)隊(duì)研發(fā)的自動(dòng)面部表情識(shí)別系統(tǒng)(Automatic Facial Expression Recognition System,AFERS)在FACS的手動(dòng)操作基礎(chǔ)上實(shí)現(xiàn)了自動(dòng)化。加州大學(xué)圣地亞哥分校團(tuán)隊(duì)研發(fā)的計(jì)算機(jī)表情識(shí)別工具箱(The Computer Expression Recognition Toolbox,CERT),是基于機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺(jué)方法的全自動(dòng)面部表情識(shí)別系統(tǒng)。該系統(tǒng)能夠自動(dòng)檢測(cè)視頻流中的正臉表情,包括憤怒、厭惡、恐懼、喜悅、悲傷、驚奇和輕蔑,以及頭部姿勢(shì)等30個(gè)面部動(dòng)作單元。這些技術(shù)系統(tǒng)后被運(yùn)用于公共安全監(jiān)控、駕駛員疲勞自動(dòng)檢測(cè)等諸多方面。
目前人臉識(shí)別技術(shù)的應(yīng)用主要分為三大類(lèi):(1)身份驗(yàn)證,即人臉識(shí)別系統(tǒng)將掃描存入的人臉圖像進(jìn)行特征提取,創(chuàng)建模板,在今后的身份驗(yàn)證中進(jìn)行匹配驗(yàn)證,屬于一對(duì)一匹配。比如使用人臉識(shí)別的企業(yè)考勤功能、手機(jī)的面部識(shí)別解鎖功能,都是典型的人臉識(shí)別的身份驗(yàn)證功能應(yīng)用。(2)身份識(shí)別,是一個(gè)一對(duì)多的匹配過(guò)程。在這個(gè)過(guò)程中,系統(tǒng)需要對(duì)不明身份的人進(jìn)行識(shí)別。這個(gè)應(yīng)用功能也是人臉識(shí)別技術(shù)最開(kāi)始得以發(fā)展的重要原因,主要應(yīng)用于公共安全領(lǐng)域。執(zhí)法部門(mén)在將采集的照片與現(xiàn)有數(shù)據(jù)庫(kù)進(jìn)行比對(duì)時(shí),會(huì)使用身份識(shí)別系統(tǒng)。如2017年我國(guó)四川省九寨溝縣公安局推廣使用的移動(dòng)警務(wù)終端是典型的人臉識(shí)別的身份識(shí)別功能應(yīng)用。該終端具備“采集即錄入、錄入即比對(duì)、比對(duì)即發(fā)現(xiàn)”的功能,只需現(xiàn)場(chǎng)拍下一張人臉照片,即可與四川省人口信息管理系統(tǒng)和在逃人員、吸毒人員等特殊數(shù)據(jù)庫(kù)進(jìn)行比對(duì),數(shù)秒內(nèi)出結(jié)果。(3)狀態(tài)識(shí)別,判斷被檢測(cè)對(duì)象的精神狀態(tài)、注意力等。該應(yīng)用功能來(lái)自于保羅·??寺鼊?chuàng)立的表情識(shí)別體系?;谶@三類(lèi)功能應(yīng)用方向,人臉識(shí)別技術(shù)目前已經(jīng)在公共安全、社區(qū)和企業(yè)管理、金融、交通、教育、移動(dòng)通信、司法刑偵等領(lǐng)域得到了應(yīng)用。
人臉識(shí)別技術(shù)的大規(guī)模商業(yè)應(yīng)用遍地開(kāi)花,而國(guó)家和行業(yè)對(duì)這一新興技術(shù)的監(jiān)管顯得有些滯后。人臉識(shí)別技術(shù)被應(yīng)用在很多非必要的場(chǎng)景,濫用現(xiàn)象十分嚴(yán)重。人臉識(shí)別技術(shù)的倫理風(fēng)險(xiǎn)主要包括隱私泄露、識(shí)別錯(cuò)誤、安全風(fēng)險(xiǎn)和歧視等四個(gè)方面的倫理風(fēng)險(xiǎn)。
人們每天出現(xiàn)在攝像頭下數(shù)百次,人臉數(shù)據(jù)在人們避無(wú)可避的情況下就被采集了。通過(guò)技術(shù)手段,很容易將人臉信息與身份信息關(guān)聯(lián)起來(lái)。隨之而來(lái),人們行動(dòng)軌跡、日常工作生活、興趣愛(ài)好等個(gè)人隱私信息都會(huì)被挖掘出來(lái)。人臉識(shí)別技術(shù)引起的個(gè)人隱私泄露風(fēng)險(xiǎn),以及由此引起的個(gè)人自由喪失的風(fēng)險(xiǎn),可能使人們生活在實(shí)時(shí)監(jiān)視的狀態(tài)之中。本杰明·黑爾(Benjamin Hale)提出了一個(gè)未來(lái)主義的思想實(shí)驗(yàn)[6]149:想象一個(gè)社會(huì),這個(gè)社會(huì)擁有無(wú)處不在的人臉識(shí)別技術(shù)監(jiān)控系統(tǒng),以防范人們從事犯罪活動(dòng),最終達(dá)成一個(gè)完美的警務(wù)理想。他認(rèn)為,這種治理方式會(huì)侵蝕人們的自由意志,因?yàn)槿藗儾蝗シ缸锊⒉皇腔诘赖碌膭?dòng)機(jī),而是因?yàn)橛腥嗽诒O(jiān)視。
2015年,美國(guó)巴爾的摩警察局通過(guò)人臉識(shí)別,結(jié)合社交媒體的照片,識(shí)別在弗雷迪·格雷逝世的抗議活動(dòng)中抗議者并進(jìn)行了逮捕。喬治敦隱私與技術(shù)中心的研究表明,美國(guó)52個(gè)執(zhí)法機(jī)構(gòu)中,只有俄亥俄州犯罪調(diào)查局這一個(gè)機(jī)構(gòu)制定了人臉識(shí)別技術(shù)政策,明確禁止使用該技術(shù)跟蹤從事受保護(hù)的言論自由的個(gè)人。[7]2018年,浙江省杭州某中學(xué)在課堂中使用人臉識(shí)別技術(shù),實(shí)時(shí)對(duì)學(xué)生的課堂行為進(jìn)行統(tǒng)計(jì)分析。這套“智慧課堂行為管理系統(tǒng)”針對(duì)學(xué)生的閱讀、舉手、書(shū)寫(xiě)、起立、聽(tīng)講、趴桌子等6種行為,結(jié)合面部表情是高興、傷心,還是憤怒、反感,分析學(xué)生在課堂上的狀態(tài),如果系統(tǒng)分析得出某位學(xué)生不專(zhuān)注的結(jié)論,會(huì)向任課老師發(fā)出提醒。后續(xù)的課堂人臉識(shí)別系統(tǒng)還加入了針對(duì)任課教師行為的統(tǒng)計(jì)和分析,以保證任課教師授課的敬業(yè)程度和教學(xué)效果。2021年全國(guó)“兩會(huì)”代表委員對(duì)人臉識(shí)別技術(shù)進(jìn)課堂提出了批評(píng),人臉識(shí)別技術(shù)不僅使師生們面臨隱私泄露的風(fēng)險(xiǎn),而且可能促使學(xué)生在一個(gè)無(wú)時(shí)不刻的監(jiān)視環(huán)境中出現(xiàn)表演型人格。[8]
目前支撐人臉識(shí)別技術(shù)的深度學(xué)習(xí)算法,高度依賴(lài)數(shù)據(jù)集,對(duì)訓(xùn)練數(shù)據(jù)集的質(zhì)量要求較高。我們每天在攝像頭下出現(xiàn)數(shù)百次,人臉數(shù)據(jù)很容易就被搜集作為訓(xùn)練數(shù)據(jù)集或?qū)φ諗?shù)據(jù)集。但是深度學(xué)習(xí)算法模型存在可靠性問(wèn)題,深度學(xué)習(xí)模型離開(kāi)訓(xùn)練使用的場(chǎng)景數(shù)據(jù),其實(shí)際效果就會(huì)降低。[9]28由于訓(xùn)練數(shù)據(jù)和實(shí)際應(yīng)用數(shù)據(jù)存在區(qū)別,訓(xùn)練出的模型被用于處理未學(xué)習(xí)過(guò)的數(shù)據(jù)時(shí),準(zhǔn)確率就會(huì)降低。其次,也存在由于數(shù)據(jù)流通不暢、數(shù)據(jù)質(zhì)量良莠不齊和關(guān)鍵數(shù)據(jù)集缺失等造成的數(shù)據(jù)集質(zhì)量較低的情況,質(zhì)量較低的數(shù)據(jù)集是無(wú)法訓(xùn)練出一個(gè)可靠的算法。再次,人臉識(shí)別系統(tǒng)在人臉抓取、分析、識(shí)別的過(guò)程中存在一些局限性,比如面部遮擋及裝飾,或者兩張人臉的相似程度較高(雙胞胎),容易造成人臉識(shí)別的不準(zhǔn)確,所以人臉識(shí)別技術(shù)存在錯(cuò)誤識(shí)別的風(fēng)險(xiǎn)。
喬治敦隱私與技術(shù)中心的研究指出,美國(guó)大多數(shù)執(zhí)法機(jī)構(gòu)沒(méi)有采取任何措施來(lái)保證他們的人臉識(shí)別系統(tǒng)的識(shí)別結(jié)果是準(zhǔn)確的,尤其是在實(shí)時(shí)或大型數(shù)據(jù)庫(kù)中使用時(shí)人臉識(shí)別不如指紋識(shí)別準(zhǔn)確度高。當(dāng)時(shí)只有舊金山和西雅圖地區(qū)的兩家執(zhí)法機(jī)構(gòu)在將要購(gòu)買(mǎi)人臉識(shí)別系統(tǒng)的時(shí)候,才要求對(duì)系統(tǒng)的準(zhǔn)確性進(jìn)行測(cè)試,并且要求系統(tǒng)滿(mǎn)足一定的正確率。美國(guó)FBI在其人臉識(shí)別系統(tǒng)的隱私影響評(píng)估中承認(rèn),其系統(tǒng)可能不夠正確、可靠。[10]32雖然FBI聲稱(chēng)它的系統(tǒng)擁有85%概率可以在相似排序前50名的待定人員照片中找到真正的目標(biāo)人,但也只有當(dāng)真正的目標(biāo)人的圖像儲(chǔ)存在人臉數(shù)據(jù)庫(kù)中時(shí)才會(huì)成功。如果目標(biāo)人的圖像不在數(shù)據(jù)庫(kù)中,系統(tǒng)仍然會(huì)產(chǎn)生一個(gè)或多個(gè)潛在的匹配人選,那么這些不是目標(biāo)人的匹配人選就極有可能并未犯罪而成為被追捕的犯罪嫌疑人。因?yàn)槭澜缟嫌泻芏嗳碎L(zhǎng)相相似,隨著數(shù)據(jù)庫(kù)中人數(shù)的增加,相似面孔出現(xiàn)的概率越大,識(shí)別匹配的準(zhǔn)確性就會(huì)越低。2019年埃塞克斯大學(xué)皮特·福西(Pete Fussey)教授的一項(xiàng)研究表明,英國(guó)警方使用的人臉識(shí)別技術(shù)有81%的概率可以將一個(gè)普通人識(shí)別成通緝犯。[11]58
安全風(fēng)險(xiǎn)主要分為數(shù)據(jù)安全和技術(shù)安全兩部分。數(shù)據(jù)安全是全球關(guān)注的熱點(diǎn)問(wèn)題,人臉識(shí)別的數(shù)據(jù)安全隱患和漏洞就像是一把“達(dá)摩克利斯之劍”。大規(guī)模的數(shù)據(jù)泄露事件頻頻發(fā)生,個(gè)人數(shù)據(jù)泄露條目數(shù)以?xún)|計(jì)。這些數(shù)據(jù)泄露事件的原因,主要是黑客攻擊、企業(yè)內(nèi)鬼泄露以及數(shù)據(jù)存儲(chǔ)管理疏忽等,其中人臉數(shù)據(jù)等生物識(shí)別數(shù)據(jù)因具有較高的交易價(jià)值而成為黑客攻擊的重點(diǎn)對(duì)象。
有些人臉識(shí)別技術(shù)應(yīng)用的場(chǎng)景,如小區(qū)、學(xué)校安保等,其網(wǎng)絡(luò)安全管理受限于成本而不具有很強(qiáng)的防御黑客攻擊能力,數(shù)據(jù)安全風(fēng)險(xiǎn)隱患較大。雖然有一些小區(qū)安保的人臉識(shí)別系統(tǒng)數(shù)據(jù)存儲(chǔ)在本地,但是缺乏嚴(yán)格的數(shù)據(jù)安全及管理標(biāo)準(zhǔn),他人很容易從內(nèi)部IT人員或保安人員處獲得人臉數(shù)據(jù)。人臉等生物特征無(wú)法輕易改變,并且會(huì)伴隨人的一生,因此這些數(shù)據(jù)泄露所造成的的危害會(huì)是永久的、全社會(huì)的。更可怕的是,如果有機(jī)構(gòu)從安全相對(duì)松懈的小區(qū)門(mén)禁系統(tǒng)盜取某個(gè)重要目標(biāo)人物的生物特征數(shù)據(jù),那么這個(gè)人的行蹤會(huì)變得非常容易追蹤,人身安全和隱私面臨巨大的威脅。
技術(shù)領(lǐng)域永遠(yuǎn)存在“道高一尺,魔高一丈”的定律,再安全可靠的技術(shù)手段,都有被攻破的可能,人臉識(shí)別技術(shù)也不例外。技術(shù)安全風(fēng)險(xiǎn)是人臉識(shí)別技術(shù)的重大風(fēng)險(xiǎn)。2019年12月美國(guó)人工智能公司Kneron用特制的3D面具,成功欺騙了包括支付寶和微信在內(nèi)的諸多人臉識(shí)別支付系統(tǒng),完成了購(gòu)物支付程序。Kneron的首席執(zhí)行官Albert Liu說(shuō):“這表明人臉識(shí)別技術(shù)并未達(dá)到安全標(biāo)準(zhǔn)......走捷徑是以犧牲安全為代價(jià)的?!盵12]
此外,當(dāng)人臉識(shí)別技術(shù)全面應(yīng)用于支付驗(yàn)證、入戶(hù)驗(yàn)證等場(chǎng)景,犯罪分子通過(guò)脅迫他人則更容易采用刷臉獲得身份驗(yàn)證。在這個(gè)意義上,作為身份驗(yàn)證的人臉識(shí)別技術(shù)比此前的密碼輸入驗(yàn)證方式具有更大的風(fēng)險(xiǎn)。
人臉識(shí)別技術(shù)不是孤立的技術(shù),是受多方面影響的,必然要與其他的數(shù)據(jù)、算法相關(guān)聯(lián),難以避免歧視性因素。第一,在訓(xùn)練人臉識(shí)別算法時(shí)采用了某個(gè)特殊群體的數(shù)據(jù),雖然這一選擇不一定是主觀決定的。第二,與人臉識(shí)別技術(shù)相關(guān)聯(lián)的其他算法中存在偏見(jiàn)。第三,在具體應(yīng)用中存在偏見(jiàn),這相對(duì)于前兩類(lèi)問(wèn)題更隱蔽、更難識(shí)別,但其造成的危害一樣是難以估量的。
人臉識(shí)別技術(shù)在識(shí)別非洲裔美國(guó)人方面呈現(xiàn)出顯著的歧視問(wèn)題。2012年由美國(guó)聯(lián)邦調(diào)查局參與的一項(xiàng)研究表明,人臉識(shí)別技術(shù)對(duì)非裔美國(guó)人、其他少數(shù)民族、婦女等人群的識(shí)別準(zhǔn)確率相較而言都非常低,而人臉表情識(shí)別、情緒識(shí)別造成的歧視問(wèn)題更為顯著[13]1789。一項(xiàng)研究表明,目前商業(yè)應(yīng)用的大多數(shù)人臉表情識(shí)別、情緒識(shí)別系統(tǒng)都缺乏科學(xué)性,因?yàn)槿藗內(nèi)绾瓮ㄟ^(guò)面部表情表達(dá)情緒,不同文化背景的人們有不同的表達(dá)方式,即使是同一個(gè)人表達(dá)情緒都存在很大的差異[14]29。
人臉識(shí)別技術(shù)在公共安全領(lǐng)域起著重要的作用,但是由于人臉識(shí)別技術(shù)的濫用和技術(shù)可靠性問(wèn)題引起了個(gè)人隱私泄露、識(shí)別錯(cuò)誤、安全風(fēng)險(xiǎn)和歧視等倫理風(fēng)險(xiǎn)。對(duì)人臉識(shí)別技術(shù)的發(fā)展和應(yīng)用,我們既要保持開(kāi)放、包容和信心,也要保持理性審慎的態(tài)度。因此,需要建立健全人臉識(shí)別技術(shù)應(yīng)用標(biāo)準(zhǔn)和倫理規(guī)范,對(duì)人臉識(shí)別技術(shù)應(yīng)用的場(chǎng)景和范圍做出合理規(guī)定,使人臉識(shí)別技術(shù)更好地為人們生活服務(wù)。面對(duì)人臉識(shí)別技術(shù)的倫理風(fēng)險(xiǎn),我們從技術(shù)倫理的視角出發(fā),基于非力量倫理和面向未來(lái)的責(zé)任倫理提出人臉識(shí)別技術(shù)倫理規(guī)制的原則。
力量倫理的第一原則是尋求一切能做的事情,無(wú)限獲得力量。法國(guó)哲學(xué)家埃呂爾指出“人不再關(guān)心應(yīng)該做什么,而是考慮能做什么?!盵15]35追求最大的力量之后,必須不遺余力,最大化地使出全部力量。力量倫理意味著,人的行為準(zhǔn)則是“能夠即應(yīng)當(dāng)”。人臉識(shí)別技術(shù)的濫用就是遵從技術(shù)力量倫理的要求。但是,對(duì)人臉識(shí)別技術(shù)力量的崇拜導(dǎo)致人臉識(shí)別技術(shù)被濫用到很多非必要的場(chǎng)景,隱私泄露、錯(cuò)誤識(shí)別、安全和歧視等倫理風(fēng)險(xiǎn)也就相應(yīng)增大并且危害嚴(yán)重。埃呂爾提出限制技術(shù)的非力量倫理方案[16]。非力量倫理主張,人類(lèi)有能力實(shí)現(xiàn)的事情不一定要去做,對(duì)人臉識(shí)別技術(shù)的發(fā)展和應(yīng)用做出限制,使其服務(wù)于人的價(jià)值訴求。
尤納斯將責(zé)任分為形式責(zé)任和實(shí)質(zhì)責(zé)任。形式責(zé)任,即回溯責(zé)任,對(duì)行為產(chǎn)生的后果承擔(dān)責(zé)任;實(shí)質(zhì)責(zé)任,即前瞻責(zé)任,對(duì)將要做什么做出選擇,是面向未來(lái)的責(zé)任。尤納斯“未來(lái)的倫理學(xué)”主要討論的是實(shí)質(zhì)責(zé)任[17]123。在現(xiàn)代科技時(shí)代,掌控技術(shù)已成為人類(lèi)的一種虛妄,人們無(wú)法控制和預(yù)見(jiàn)技術(shù)行為在未來(lái)造成的影響,更無(wú)法承擔(dān)技術(shù)造成危害的責(zé)任。因此,形式責(zé)任失效,能夠確保人類(lèi)在未來(lái)持續(xù)存在的只能是實(shí)質(zhì)責(zé)任。正如人臉這一面部特征信息的敏感性和重要性,人們不可能在人臉數(shù)據(jù)被泄露后換一張臉,對(duì)于人臉數(shù)據(jù)泄露的事后追責(zé)就失去了意義,所以對(duì)于人臉識(shí)別技術(shù)的倫理風(fēng)險(xiǎn)防范應(yīng)著眼于未然。
基于非力量倫理和面向未來(lái)的責(zé)任倫理,本文提出并闡述如下四個(gè)倫理原則,進(jìn)一步提出防范人臉識(shí)別技術(shù)倫理風(fēng)險(xiǎn)的規(guī)制建議。
非力量倫理主張,人類(lèi)有能力的事情不一定要去做,應(yīng)該平衡技術(shù)的風(fēng)險(xiǎn)與收益,在某些場(chǎng)景中人臉識(shí)別技術(shù)的使用不是必要的,就應(yīng)當(dāng)放棄使用。2019年5月14日,美國(guó)舊金山監(jiān)督委員會(huì)投票通過(guò)《停止秘密監(jiān)視條例》(Stop Secret Surveillance Ordinance)[18],使舊金山成為美國(guó)第一個(gè)禁止政府使用人臉識(shí)別監(jiān)視技術(shù)的大城市。該《條例》要求對(duì)所有監(jiān)視技術(shù)提案實(shí)行社區(qū)控制、透明和問(wèn)責(zé)制,要求政府部門(mén)制定監(jiān)管監(jiān)視技術(shù)使用的政策,解釋購(gòu)置新監(jiān)視工具的合理性,最后由舊金山監(jiān)管委員會(huì)決定是否購(gòu)買(mǎi)使用這些技術(shù)。
必須使用人臉識(shí)別技術(shù)時(shí),要明確人臉識(shí)別技術(shù)的使用邊界。政府在公共安全領(lǐng)域必須應(yīng)用人臉識(shí)別技術(shù)時(shí),應(yīng)該采取風(fēng)險(xiǎn)最小的方案。首先,盡可能通過(guò)對(duì)生物識(shí)別信息進(jìn)行處理,如提取信息特征、而不直接留存?zhèn)€人面部特征信息的方式進(jìn)行應(yīng)用,即使在留存?zhèn)€人面部特征信息的情形中,保存也不得超出實(shí)現(xiàn)功能目的所必需的最短時(shí)間。2019年3月15日英國(guó)發(fā)布的《警方使用自動(dòng)人臉識(shí)別技術(shù)和監(jiān)控?cái)z像系統(tǒng)指南》(Guidance:The Police Use of Automated Facial Recognition Technology with Surveillance Camera Systems)[19]就明確了最小必要原則,如在公共場(chǎng)所使用和操作自動(dòng)人臉識(shí)別技術(shù)監(jiān)控?cái)z像系統(tǒng)必須始終用于特定目的,該目的必須是一個(gè)合法目的,并且這個(gè)目的的達(dá)成是迫切且必需的。其次,攝像頭的投放數(shù)量和投放范圍要適當(dāng),不同部門(mén)的攝像系統(tǒng)應(yīng)納入統(tǒng)一管理,避免重復(fù)建設(shè),同時(shí)不能過(guò)度干涉?zhèn)€人的私生活。
企業(yè)在收集人臉數(shù)據(jù)時(shí)應(yīng)遵守最小必要原則,考慮使用人臉識(shí)別技術(shù)是否必要,必須使用時(shí)應(yīng)做到最小范圍收集數(shù)據(jù)。例如,GDPR第9條規(guī)定,在處理使用人臉數(shù)據(jù)時(shí),生物特征數(shù)據(jù)屬于個(gè)人數(shù)據(jù)的“特殊類(lèi)別”,除非某些特殊情況外,不得處理該類(lèi)數(shù)據(jù),即遵循“原則禁止,特殊例外”的最小必要原則。同時(shí),人臉識(shí)別研發(fā)和服務(wù)提供商有義務(wù)限制人臉識(shí)別技術(shù)的使用,在對(duì)方不能保證技術(shù)使用的安全性、合理性的情況下應(yīng)拒絕提供服務(wù),如微軟出現(xiàn)過(guò)拒絕向其他機(jī)構(gòu)提供人臉識(shí)別技術(shù)服務(wù)的先例,亞馬遜員工也曾聯(lián)名要求企業(yè)決策層停止向警方出售其人臉識(shí)別技術(shù)服務(wù)。
面向未來(lái)的責(zé)任倫理強(qiáng)調(diào)前瞻性地履行保護(hù)個(gè)人權(quán)益的責(zé)任,人臉識(shí)別技術(shù)的應(yīng)用應(yīng)該尊重個(gè)人知情同意的權(quán)利。在個(gè)人充分、明確知曉人臉數(shù)據(jù)會(huì)被如何收集、使用以及人臉識(shí)別技術(shù)應(yīng)用后果的情形下,得到信息主體明確的同意,才能夠使用人臉識(shí)別技術(shù)。國(guó)內(nèi)外關(guān)于個(gè)人信息保護(hù)的法律規(guī)范對(duì)人臉數(shù)據(jù)等生物識(shí)別數(shù)據(jù)的收集和使用都做出了尊重個(gè)人知情同意權(quán)利的規(guī)定。比如GDPR規(guī)定,人臉識(shí)別技術(shù)商業(yè)應(yīng)用可適用的唯一例外是獲得了數(shù)據(jù)主體的明示同意,即用戶(hù)清楚、具體且自主地授權(quán)企業(yè)收集、使用其人臉數(shù)據(jù)。
個(gè)人享有知情同意的權(quán)利,在此權(quán)利基礎(chǔ)上,人們?cè)诒灰蟆八⒛槨睍r(shí)有拒絕的權(quán)利。而且,人們?cè)诰芙^“刷臉”的時(shí)候,機(jī)構(gòu)應(yīng)提供其他方式滿(mǎn)足人們驗(yàn)證通過(guò)的需求。此外,企業(yè)的業(yè)務(wù)范圍可能發(fā)生改變,那么用戶(hù)人臉數(shù)據(jù)收集時(shí)的使用目的是否和目前一致,應(yīng)采取內(nèi)部審查機(jī)制,并與用戶(hù)和社會(huì)同步更新,獲得新的同意。
責(zé)任倫理不僅要求當(dāng)下的責(zé)任,也要求未來(lái)的責(zé)任,人臉識(shí)別技術(shù)當(dāng)下和未來(lái)都不能對(duì)人造成傷害。人臉識(shí)別技術(shù)的錯(cuò)誤識(shí)別、隱私、安全風(fēng)險(xiǎn),都可能對(duì)個(gè)人造成巨大的傷害。
為了遵守和踐行不傷害原則,避免人臉識(shí)別技術(shù)可能造成的傷害。首先,政府牽頭、企業(yè)積極參與制定人臉識(shí)別技術(shù)的技術(shù)標(biāo)準(zhǔn),為技術(shù)研發(fā)提供可靠性基礎(chǔ);其次,建立完善人臉識(shí)別技術(shù)的數(shù)據(jù)安全保障機(jī)制,政府和企業(yè)應(yīng)當(dāng)采取網(wǎng)絡(luò)安全措施,采取數(shù)據(jù)加密、病毒防護(hù)、訪問(wèn)控制、員工培訓(xùn)等補(bǔ)充措施,保障人臉識(shí)別技術(shù)系統(tǒng)和數(shù)據(jù)的安全;再次,企業(yè)應(yīng)當(dāng)建立技術(shù)可靠性保障制度,采取措施來(lái)確保人臉識(shí)別技術(shù)系統(tǒng)的結(jié)果準(zhǔn)確性、穩(wěn)定性,識(shí)別和消除歧視、錯(cuò)誤識(shí)別等問(wèn)題;最后,研發(fā)和使用人臉識(shí)別技術(shù)的企業(yè)或機(jī)構(gòu)應(yīng)當(dāng)建立問(wèn)責(zé)制,提升相關(guān)人員的安全意識(shí)和職業(yè)道德意識(shí),建立關(guān)于人臉識(shí)別技術(shù)的審計(jì)和懲罰機(jī)制。
針對(duì)人臉識(shí)別技術(shù)可能造成的歧視風(fēng)險(xiǎn),應(yīng)該從訓(xùn)練數(shù)據(jù)集、算法的設(shè)計(jì)、檢測(cè)審查等多個(gè)環(huán)節(jié)著手,貫徹公正原則,避免對(duì)部分人群、社區(qū)的歧視。英國(guó)《警方使用自動(dòng)人臉識(shí)別技術(shù)和監(jiān)控?cái)z像系統(tǒng)指南》提出的第二條倫理原則明確規(guī)定監(jiān)控?cái)z像系統(tǒng)系統(tǒng)應(yīng)該用于促進(jìn)公正。
為了確保公正,應(yīng)推動(dòng)建立人臉識(shí)別技術(shù)的第三方評(píng)估審查體系。人臉識(shí)別技術(shù)具有一定的技術(shù)門(mén)檻,需要專(zhuān)業(yè)人員和機(jī)構(gòu)對(duì)技術(shù)進(jìn)行評(píng)估審查。有效的審查機(jī)制,可以發(fā)現(xiàn)、改善人臉識(shí)別技術(shù)的錯(cuò)誤識(shí)別、偏見(jiàn)等問(wèn)題,同時(shí)也能避免誤用和濫用,促進(jìn)人臉識(shí)別技術(shù)系統(tǒng)的安全、穩(wěn)定性,幫助人臉識(shí)別技術(shù)系統(tǒng)獲得公眾的信任。
人臉識(shí)別技術(shù)價(jià)值初衷是為了安全,并且為社會(huì)生活提供了諸多便利,然而,技術(shù)一旦被濫用就會(huì)對(duì)人和社會(huì)造成一系列的倫理風(fēng)險(xiǎn)和問(wèn)題。技術(shù)的發(fā)展和應(yīng)用應(yīng)始終以人的福祉為核心,人的價(jià)值更不應(yīng)讓步于技術(shù)的發(fā)展和應(yīng)用。人臉數(shù)據(jù)極其敏感,在現(xiàn)實(shí)版“楚門(mén)的世界”尚未真正到來(lái)之前,應(yīng)當(dāng)遵從技術(shù)的非力量倫理和責(zé)任倫理,對(duì)人臉識(shí)別技術(shù)的發(fā)展和應(yīng)用進(jìn)行相應(yīng)的倫理規(guī)制,發(fā)揚(yáng)技術(shù)的善,規(guī)避技術(shù)的惡,最終實(shí)現(xiàn)人與技術(shù)的自由關(guān)系。