湯建華
內(nèi)容提要:人臉識(shí)別技術(shù)在社會(huì)生活中的應(yīng)用越來(lái)越廣。人臉識(shí)別技術(shù)早期應(yīng)用目的是維護(hù)社會(huì)安全,其不合理擴(kuò)散引發(fā)了倫理風(fēng)險(xiǎn),數(shù)據(jù)主體的隱私泄露侵犯人的自由和主體性,算法歧視危及社會(huì)公平正義。對(duì)于人臉識(shí)別技術(shù)的擴(kuò)散需要進(jìn)行法律規(guī)制,針對(duì)隱私保護(hù),需要在法律上構(gòu)建知情同意原則、最小必要原則和不傷害原則;針對(duì)算法歧視需要在法律上構(gòu)建算法中立原則和公正原則。其中,知情同意原則具有優(yōu)先性,圍繞知情同意原則的具體建構(gòu),歐盟立法采取了“原則—例外”的特別同意模式,即原則上禁止處理人臉數(shù)據(jù),除非數(shù)據(jù)主體同意以及法律允許。我國(guó)采取了“隱私權(quán)+個(gè)人信息”雙重保護(hù)模式,體現(xiàn)了寬松同意模式。兩種模式均無(wú)法逃脫價(jià)值沖突的困境,需要建構(gòu)一種具備可操作性的動(dòng)態(tài)同意模式。
我們所處的社會(huì)是一個(gè)數(shù)字社會(huì),數(shù)字化乃是大勢(shì)所趨,人體的諸多生物信息皆可被數(shù)字化,比如人體的體型、指紋、虹膜和面部特征等。數(shù)字化社會(huì)當(dāng)然也有隱憂,數(shù)字信息尤其是人臉信息一旦無(wú)法由人們自己完全掌控,將會(huì)給人們生活帶來(lái)一系列的倫理風(fēng)險(xiǎn)。為了避免這些可能的風(fēng)險(xiǎn)演變?yōu)檎嬲奈kU(xiǎn),需要法律作出一系列回應(yīng)。
人臉識(shí)別技術(shù)的應(yīng)用存在著合理的標(biāo)準(zhǔn),這一標(biāo)準(zhǔn)就是技術(shù)的應(yīng)用必須以尊重和保護(hù)人類為目的,技術(shù)永遠(yuǎn)只能充當(dāng)人類改造世界的手段,而不能侵犯人類的主體性,這可以被稱作技術(shù)應(yīng)用的目的理性。在這一標(biāo)準(zhǔn)下,人臉識(shí)別技術(shù)的最初應(yīng)用是符合目的理性的,這可以從人臉識(shí)別技術(shù)在不同方面的最初應(yīng)用看出來(lái)。例證有三:第一,人臉識(shí)別技術(shù)的最初官方應(yīng)用是為了維護(hù)社會(huì)治安,最初應(yīng)用可以追溯到20世紀(jì)60年代,美國(guó)社會(huì)治安惡化,毒品泛濫成為危害社會(huì)的首要問(wèn)題,美國(guó)為了控制毒品犯罪,維護(hù)社會(huì)安全,開(kāi)啟了人臉識(shí)別技術(shù)的發(fā)展。(1)胡曉萌、李倫:《人臉識(shí)別技術(shù)的倫理風(fēng)險(xiǎn)及其規(guī)制》,《湘潭大學(xué)學(xué)報(bào)》2021年第4期。第二,人臉識(shí)別技術(shù)最初商業(yè)應(yīng)用是為了防范犯罪,最早的人臉識(shí)別技術(shù)的商業(yè)系統(tǒng)是Facelt,英國(guó)倫敦的紐漢區(qū)曾安裝了250多套Facelt人臉識(shí)別商用系統(tǒng),用于識(shí)別犯罪嫌疑人。(2)張曉華、山世光、高文、曹波:《若干自動(dòng)人臉識(shí)別技術(shù)評(píng)測(cè)與分析》,《計(jì)算機(jī)應(yīng)用研究》2005年第6期。第三,我國(guó)人臉識(shí)別技術(shù)的規(guī)模應(yīng)用始于2008年北京奧運(yùn)會(huì),(3)蘇楠、吳冰、徐偉、蘇光大:《人臉識(shí)別綜合技術(shù)的發(fā)展》,《信息安全研究》2016年第2期。其目的也是為了維護(hù)社會(huì)安全。
人臉識(shí)別技術(shù)在與人的關(guān)系上必然涉及兩方面的內(nèi)容:一是人臉信息的輸入,人臉屬于人的生物信息,人臉數(shù)據(jù)庫(kù)的建立必須以采集人臉數(shù)據(jù)為基礎(chǔ);二是人臉信息的存儲(chǔ),人臉識(shí)別技術(shù)發(fā)揮身份識(shí)別功能必須驗(yàn)證人臉是否與人臉數(shù)據(jù)庫(kù)中的人臉信息一致,因而最初獲取到的人臉數(shù)據(jù)信息必須被存儲(chǔ)起來(lái)以供具體應(yīng)用時(shí)充當(dāng)對(duì)比對(duì)象。所以,人臉識(shí)別技術(shù)的應(yīng)用必然導(dǎo)致人臉信息的采集和存儲(chǔ)。人的生物信息可以鏈接到其他信息上用于刻畫(huà)其行為習(xí)慣和社會(huì)交往,等等,例如結(jié)合人臉信息和消費(fèi)、出行信息,從而判斷行為人的消費(fèi)習(xí)慣和喜好,從而方便商業(yè)集團(tuán)更好地掌握消費(fèi)者群體的信息,開(kāi)展有針對(duì)性的商業(yè)服務(wù),以最小的經(jīng)濟(jì)成本換取最大的經(jīng)濟(jì)收益。在這樣的商業(yè)利益驅(qū)動(dòng)下,人臉識(shí)別技術(shù)行業(yè)發(fā)展日漸繁榮,有調(diào)查顯示,人臉識(shí)別行業(yè)在2022年的市場(chǎng)規(guī)?;?qū)⑦_(dá)到67億元。(4)楊智杰:《人臉識(shí)別十字路口:臉的恐慌》,《中國(guó)新聞周刊》2019年第11期。
不過(guò),我們很難證明以上人臉識(shí)別技術(shù)的應(yīng)用符合保衛(wèi)社會(huì)的目的理性。例如,小區(qū)或?qū)懽謽堑娜四橋?yàn)證,出入口控制完全可以使用其他的非生物信息驗(yàn)證方式,此類人臉識(shí)別應(yīng)用場(chǎng)景無(wú)法經(jīng)由目的理性證成。根據(jù)《人臉識(shí)別應(yīng)用場(chǎng)景合規(guī)報(bào)告(2021)》,有超過(guò)七成的校區(qū)/寫(xiě)字樓強(qiáng)制人臉門(mén)禁,有48%的受訪者認(rèn)為人臉識(shí)別有被濫用的趨勢(shì)。(5)該報(bào)告的數(shù)據(jù)轉(zhuǎn)引自富東燕:《人臉識(shí)別無(wú)處不在,我們的隱私是否安全?》,《中國(guó)婦女報(bào)》2021年12月24日第4版。人臉識(shí)別技術(shù)的不合理擴(kuò)散也由此滋生了社會(huì)矛盾,被稱為“中國(guó)人臉識(shí)別第一案”的郭兵訴杭州市野生動(dòng)物園服務(wù)合同糾紛案便是例證。
人臉識(shí)別技術(shù)本身并不涉及倫理評(píng)價(jià)問(wèn)題,其最初應(yīng)用因?yàn)榉险?dāng)目的而具有合理性。這是人臉識(shí)別技術(shù)合理應(yīng)用的必要不充分條件。如果人臉識(shí)別技術(shù)的擴(kuò)散超出了正當(dāng)目的,這種技術(shù)應(yīng)用便異化了,從而不再合理,不合理的技術(shù)應(yīng)用便具有進(jìn)行倫理評(píng)價(jià)的必要性。我們需要對(duì)人臉識(shí)別技術(shù)的擴(kuò)散進(jìn)行認(rèn)真的倫理反思,剖析人臉識(shí)別技術(shù)擴(kuò)散的倫理風(fēng)險(xiǎn),這一倫理反思是法律規(guī)制的正當(dāng)性基礎(chǔ)。
人臉識(shí)別技術(shù)的具體應(yīng)用因超出了維護(hù)公共安全這一目的或者具有了其他不合理目的,從而引發(fā)倫理風(fēng)險(xiǎn)。這一倫理風(fēng)險(xiǎn)體現(xiàn)在兩個(gè)層面:第一,數(shù)據(jù)主體的隱私泄露風(fēng)險(xiǎn)侵犯人的自由和主體性;第二,算法歧視侵害社會(huì)公平正義。
人臉識(shí)別技術(shù)引發(fā)隱私泄露,從而侵犯?jìng)€(gè)人的主體性與自由,這一論點(diǎn)如果成立,必須論證三方面的內(nèi)容:第一,為何隱私的本質(zhì)是個(gè)人的主體性與自由;第二,為何人臉識(shí)別技術(shù)涉及隱私泄露的可能性;第三,人臉識(shí)別技術(shù)引發(fā)隱私泄露的現(xiàn)實(shí)性。
關(guān)于隱私的本質(zhì)是個(gè)人的主體性和自由的問(wèn)題,需要論證何為隱私以及隱私與個(gè)人主體性和自由的關(guān)系。這需要回到關(guān)于隱私的基本概念和理論上去,對(duì)此雖然有不同的理論觀點(diǎn),但這些觀點(diǎn)具有內(nèi)在一致性。對(duì)其總結(jié)如下:其一,隱私權(quán)的實(shí)質(zhì)就是不受打擾的權(quán)利,隱私是一種排他性自由。(6)李石:《消極自由與積極自由辨析——對(duì)以賽亞·柏林“兩種自由概念論”的分析與批評(píng)》,《云南大學(xué)學(xué)報(bào)》2008年第6期。其二,隱私權(quán)與私人生活的私密性具有天然聯(lián)系,在私人領(lǐng)域與公共領(lǐng)域二分法的基礎(chǔ)之上。(7)Tom Gerety,Redifining Privacy,Harv. C. R.-C.L.L.Rev.,1977(12).其三,隱私承載著人格利益,個(gè)人自主決定其喜好,決定其生活方式和不為人知的生活軌跡,這些都是個(gè)人對(duì)于自己的人格塑造,維護(hù)隱私相當(dāng)于維護(hù)個(gè)性發(fā)展的多樣化,維護(hù)每個(gè)人的人格和自主。(8)Laurence H.Tribe,American Constitution Law,1978.其四,從社會(huì)的角度來(lái)看,每個(gè)人生存在社會(huì)中都有自己的角色,這一角色可以通過(guò)許多數(shù)據(jù)信息表現(xiàn)出來(lái),人們只需要知悉該角色的部分?jǐn)?shù)據(jù)信息。(9)陳宏達(dá):《個(gè)人資料保護(hù)之研究》,1992年輔仁大學(xué)碩士學(xué)位論文。因而,社會(huì)或他人不必知悉個(gè)人的全部信息,那些不必為人所知的信息就是隱私。其五,從個(gè)人的生存角度出發(fā),每個(gè)人的心靈深處都有獨(dú)處的欲望,要求不被接觸。(10)Gavison R.,Privacy and the Limits of Law,Yale Law Journal,1980,89(3),pp.421-471.因此,數(shù)據(jù)隱私具有倫理正當(dāng)性,其與個(gè)人主體性與自由這一價(jià)值密切相關(guān),并且隱私具有個(gè)人獨(dú)享性。
人臉識(shí)別技術(shù)涉及隱私泄露的可能性。這是源于人臉識(shí)別技術(shù)的技術(shù)特征,人臉識(shí)別技術(shù)中數(shù)據(jù)控制者和數(shù)據(jù)主體的關(guān)系處于緊張之中。一般而言,隱私是不為人所知的,由隱私主體所控制、知悉。所以,在應(yīng)然的意義上,隱私信息應(yīng)當(dāng)僅僅由隱私主體所擁有。但是由于人臉識(shí)別技術(shù)中的三個(gè)對(duì)象之間的關(guān)系,人臉識(shí)別技術(shù)在應(yīng)用中必然要收集和存儲(chǔ)人臉信息,這就意味著人臉數(shù)據(jù)時(shí)刻處于不受數(shù)據(jù)主體控制的狀態(tài),而是受到數(shù)據(jù)控制者的控制。
只有當(dāng)人臉識(shí)別技術(shù)造成了實(shí)際的隱私泄露問(wèn)題,這種技術(shù)應(yīng)用才是不合理的,才是真正引發(fā)倫理風(fēng)險(xiǎn)的。在美國(guó),全國(guó)各地的警察部門(mén)經(jīng)常使用人臉識(shí)別技術(shù)來(lái)識(shí)別和跟蹤個(gè)人——無(wú)論是過(guò)馬路、被監(jiān)控?cái)z像頭捕捉還是參加抗議活動(dòng)。(11)ACLU of Maryland,Aclu Urges Justice USTICE Department to Investigate the Use and Impact of Face Recognition,https://www.aclu-md.org/en/press-releases/aclu-urges-justice-department-investigate-use-and-impact-face-recognition,最后訪問(wèn)時(shí)間:2022年1月22日。人臉識(shí)別技術(shù)與社會(huì)上廣布的攝像頭相結(jié)合,算法可以隨時(shí)跟蹤所有人的公共活動(dòng),人們的行動(dòng)沒(méi)有任何個(gè)性化和隱秘性可言,算法能夠精確計(jì)算出所有人的生活習(xí)慣和社會(huì)交往。如果這樣的技術(shù)淪為了監(jiān)控工具,個(gè)人的自由和主體性便蕩然無(wú)存。
算法歧視具有難以察覺(jué)性、持續(xù)性和不可逆性。算法歧視可能根源于兩方面的原因:第一,算法歧視可能由程序本身的設(shè)計(jì)錯(cuò)誤造成,因?yàn)樗惴ㄔ谝欢ǔ潭壬鲜浅绦騿T個(gè)性的展現(xiàn),不同程序員因其性別、年齡、價(jià)值觀念、宗教信仰、認(rèn)識(shí)水平和道德水平的不同,盡管遵循同樣的技術(shù)方法,他們所設(shè)計(jì)出來(lái)的算法也可能不同。第二,算法歧視可能源自深度學(xué)習(xí),由于深度學(xué)習(xí)樣本數(shù)據(jù)的不全面,導(dǎo)致算法在對(duì)待某種數(shù)據(jù)時(shí)得出的結(jié)果與其他數(shù)據(jù)不同。這一特征是算法的“后天因素”。自動(dòng)人臉識(shí)別的擴(kuò)散應(yīng)用在這些缺陷因素的影響下,對(duì)具有特定性別、種族或地域特征的人的歧視將是持續(xù)性的。同時(shí),算法的隱蔽性、不可解釋性以及技術(shù)中立原則又使得算法歧視難以察覺(jué)。
人臉識(shí)別技術(shù)的算法歧視問(wèn)題已經(jīng)被證實(shí)。美國(guó)公民自由聯(lián)盟(American Civil Liberties Union)強(qiáng)烈反對(duì)人臉識(shí)別技術(shù),其認(rèn)為人臉識(shí)別技術(shù)在女性和有色人種的識(shí)別上屢屢出錯(cuò)。美國(guó)公民自由聯(lián)盟做了一組測(cè)試,首先將美國(guó)國(guó)會(huì)議員的照片與犯罪數(shù)據(jù)庫(kù)中的照片進(jìn)行對(duì)比,結(jié)果有5%的人匹配上了。而單獨(dú)拿非裔美國(guó)議員與犯罪數(shù)據(jù)庫(kù)中的照片進(jìn)行對(duì)比,識(shí)別錯(cuò)誤率超過(guò)了20%。(12)ACLU of Maryland, Biden Must Halt Face Recognition Technology to Advance Racial Equity,https://www.aclu.org/news/privacy-technology/biden-must-halt-face-recognition-technology-to-advance-racial-equity,最后訪問(wèn)時(shí)間:2022年1月22日。2018年,麻省理工學(xué)院研究團(tuán)隊(duì)發(fā)現(xiàn),商業(yè)人臉識(shí)別系統(tǒng)中存在著明顯的種族歧視和性別歧視,通過(guò)對(duì)亞馬遜Rekongnition軟件的測(cè)試發(fā)現(xiàn),該人臉識(shí)別系統(tǒng)對(duì)于白人男性的面部識(shí)別相對(duì)準(zhǔn)確,但對(duì)黑人女性的面部識(shí)別錯(cuò)誤率高達(dá)三分之一,這些發(fā)現(xiàn)也為官方所證實(shí)。(13)ACLU of Maryland, Biden Must Halt Face Recognition Technology to Advance Racial Equity,https://www.aclu.org/news/privacy-technology/biden-must-halt-face-recognition-technology-to-advance-racial-equity,最后訪問(wèn)時(shí)間:2022年1月22日。還有研究表明,目前商業(yè)應(yīng)用的大多數(shù)人臉表情識(shí)別、情緒識(shí)別系統(tǒng)都缺乏科學(xué)性。(14)J.Barrett L.F.,Adolphs R.,Marsella S.,et al.,Emotional Expressions Reconsidered:Challenges to Inferring Emotion from Human Facial Movements,Psychological Science in the Public Interest,2019 (1).之所以缺乏科學(xué)性,是因?yàn)樵撓到y(tǒng)所采用的統(tǒng)一標(biāo)準(zhǔn)的不可能性,身處不同的文化背景中的人,其表情的文化含義有所不同。
這些實(shí)證研究揭示了人臉識(shí)別技術(shù)的“雙重錯(cuò)誤”,一方面表明了人臉識(shí)別在技術(shù)上的不可靠性,另一方面則對(duì)比顯示了人臉識(shí)別技術(shù)的算法歧視?;蛟S有人會(huì)認(rèn)為,有色人種的人臉識(shí)別錯(cuò)誤的原因可能是可選數(shù)據(jù)集有限,對(duì)此觀點(diǎn)我們需要指出的是,人臉識(shí)別技術(shù)在人臉驗(yàn)證時(shí)確實(shí)是以人臉數(shù)據(jù)庫(kù)為對(duì)比基礎(chǔ)的,這似乎可以歸結(jié)為算法技術(shù)本身深度學(xué)習(xí)的有限性,這也是導(dǎo)致算法歧視的原因之一,其背后反映造成算法歧視的美國(guó)社會(huì)環(huán)境。由此可見(jiàn),人臉識(shí)別技術(shù)的擴(kuò)散加劇了算法歧視,侵害社會(huì)公平正義。人臉識(shí)別技術(shù)擴(kuò)散危害社會(huì)公平正義的最終根源在于人或社會(huì)本身,而人臉識(shí)別技術(shù)的擴(kuò)散又強(qiáng)化了對(duì)于社會(huì)公平正義的侵害。如果不加以干預(yù),這種惡性循環(huán)將持續(xù)進(jìn)行下去。又由于算法歧視本身的難以察覺(jué),如果不對(duì)人臉識(shí)別技術(shù)的擴(kuò)散進(jìn)行自覺(jué)的規(guī)制,其后果將是人的不斷異化。
人臉識(shí)別技術(shù)造成的倫理風(fēng)險(xiǎn)包括隱私泄露和算法歧視,對(duì)于防范和規(guī)制這一問(wèn)題,可以有兩種方式:一是法律調(diào)整方式;二是非法律調(diào)整方式。法律調(diào)整方式相對(duì)于非法律調(diào)整方式的優(yōu)點(diǎn)在于,法律能夠以權(quán)威的方式安排數(shù)據(jù)主體和數(shù)據(jù)適用者的法律權(quán)利和法律義務(wù),從而建立起人臉識(shí)別技術(shù)使用的行為規(guī)范。
第一,保護(hù)數(shù)據(jù)主體的主體性,需要貫徹知情同意原則。知情同意原則根植于主體的自主性,可以從主體的自主性中推導(dǎo)而來(lái)。其一,在應(yīng)然的意義上,一切自然人都是自由的,除他自己同意之外,無(wú)論什么事情都不能使他受制于任何世俗的權(quán)力。(15)〔英〕洛克:《政府論》下篇,葉啟芳、瞿菊農(nóng)譯,北京:商務(wù)印書(shū)館,2013年,第74頁(yè)。其二,作為自由自主的人,有權(quán)將其意志體現(xiàn)在任何事物中。(16)〔德〕黑格爾:《法哲學(xué)原理》,范揚(yáng)、孫企泰譯,北京:商務(wù)印書(shū)館,2013年,第24頁(yè)。其三,任何一個(gè)成年的、心智健全的人都有權(quán)利自主決定如何處置自己的信息。數(shù)據(jù)控制者需充分尊重?cái)?shù)據(jù)主體的知情同意權(quán),只有在得到了相關(guān)數(shù)據(jù)主體的明示同意后才能采集其人臉數(shù)據(jù),禁止在未經(jīng)同意的情況下收集人臉數(shù)據(jù)。作為一項(xiàng)法律原則,知情同意原則的貫徹需要數(shù)據(jù)控制者對(duì)于法律的充分敬重,也需要數(shù)據(jù)主體充分意識(shí)到自己的法定權(quán)利,為維護(hù)自己的權(quán)利而斗爭(zhēng)。數(shù)據(jù)主體有權(quán)拒絕不合理的人臉數(shù)據(jù)采集行為,有權(quán)要求數(shù)據(jù)控制者公布相關(guān)數(shù)據(jù)的具體使用以及對(duì)此進(jìn)行審查。
第二,保護(hù)數(shù)據(jù)主體的自由,需要在法律上構(gòu)建最小必要原則和不傷害原則。最小必要原則要求在有諸多能夠達(dá)到技術(shù)目的的情況下,數(shù)據(jù)控制者在使用人臉識(shí)別技術(shù)時(shí)應(yīng)當(dāng)采取對(duì)于數(shù)據(jù)主體的自由侵害最小的方案。最小必要原則是比例原則的一部分。數(shù)據(jù)控制者在使用人臉識(shí)別技術(shù)時(shí)首先要遵守目的的正當(dāng)性,其搜集的數(shù)據(jù)不能用于非法目的,并且該搜集行為也是合目的性的,例如為了公共安全等。保護(hù)數(shù)據(jù)主體的自由還應(yīng)當(dāng)在法律上構(gòu)建不傷害原則。人臉識(shí)別技術(shù)的擴(kuò)散應(yīng)用不應(yīng)當(dāng)對(duì)個(gè)體造成傷害。不傷害原則可以導(dǎo)向三種具體化規(guī)則:第一種規(guī)則是要求技術(shù)的不斷進(jìn)化,即要求人臉識(shí)別技術(shù)要不斷完善,減少錯(cuò)誤率,相關(guān)數(shù)據(jù)存儲(chǔ)系統(tǒng)也要不斷增強(qiáng)安全性,防止黑客攻擊,關(guān)于人臉識(shí)別技術(shù)的評(píng)估系統(tǒng)和技術(shù)測(cè)試也需要不斷進(jìn)化,以便提升人臉識(shí)別技術(shù)的可靠性。第二種規(guī)則要求是傷害補(bǔ)償,如果發(fā)生了數(shù)據(jù)泄露事件,數(shù)據(jù)控制者需要及時(shí)止損,采取必要措施減少傷害,另外也需要對(duì)受到隱私泄露危害的相關(guān)主體給予補(bǔ)償。第三種規(guī)則要求是人臉識(shí)別技術(shù)研發(fā)企業(yè)具備職業(yè)道德以及人臉識(shí)別技術(shù)使用者的安全意識(shí)。
第三,數(shù)據(jù)主體的主體性和自由、知情同意原則、最小必要原則和不傷害原則之間具有特定關(guān)系。數(shù)據(jù)主體的主體性和自由是確立相關(guān)法律原則的范導(dǎo)性原則和價(jià)值基礎(chǔ),其他法律原則衍生自數(shù)據(jù)主體的主體性和自由,而在主體性和自由之間,主體性又具有絕對(duì)優(yōu)先性,主體性標(biāo)示著人相對(duì)于客體的優(yōu)先地位,在保證人相對(duì)于客體的優(yōu)先地位的基礎(chǔ)上才能確立人的自由,無(wú)主體性的自由是不可想象的,無(wú)自由的主體性卻是能夠接受的,例如基于個(gè)人同意放棄一定的權(quán)利和自由,正是由于個(gè)人的主體性,才具有放棄一定自由的可能性。所以圍繞數(shù)據(jù)主體的主體性建立的知情同意原則是第一原則,要優(yōu)先圍繞數(shù)據(jù)主體的自由建立的最小必要原則和不傷害原則。根據(jù)這些法律原則,數(shù)據(jù)主體應(yīng)當(dāng)充分意識(shí)到自己的法定權(quán)利,數(shù)據(jù)控制者應(yīng)當(dāng)充分意識(shí)到自身的法律義務(wù),只有征得數(shù)據(jù)主體的同意,履行了告知義務(wù)、遵守最小必要原則和不傷害原則,數(shù)據(jù)控制者對(duì)于人臉數(shù)據(jù)的合理使用才能夠得以證成。換言之,如果知情同意原則沒(méi)有發(fā)揮作用,則最小必要原則和不傷害原則發(fā)揮作用也是不可想象的,因?yàn)樵谶壿嬌?,?shù)據(jù)控制者必須首先在知情同意原則的引導(dǎo)下獲取了數(shù)據(jù)主體的同意之后,在數(shù)據(jù)收集和數(shù)據(jù)存儲(chǔ)階段才會(huì)受到最小必要原則和不傷害原則的調(diào)整。所以,知情同意原則相比于最小必要原則和不傷害原則具有優(yōu)先性。
針對(duì)算法歧視建立的法律原則更多地與技術(shù)本身有關(guān),屬于相對(duì)具體的法律原則,包括算法中立原則和公正原則。
第一,要在法律上構(gòu)建算法中立原則。算法歧視的一部分原因在于機(jī)器學(xué)習(xí),人臉識(shí)別技術(shù)需要抓取人臉數(shù)據(jù),形成人臉數(shù)據(jù)庫(kù),針對(duì)數(shù)據(jù)本身可能隱匿的社會(huì)偏見(jiàn)信息,可采用算法監(jiān)測(cè)的技術(shù)治理手段,確保算法的中立性。為了保證數(shù)據(jù)收集的無(wú)偏見(jiàn),對(duì)此需要進(jìn)行數(shù)據(jù)清洗工作,運(yùn)用一定的算法檢測(cè)手段來(lái)避免社會(huì)交往空間中的偏見(jiàn)。(17)趙友華、蔡振華:《人工智能時(shí)代行政決策體制優(yōu)化的技術(shù)范式與風(fēng)險(xiǎn)因應(yīng)》,《理論月刊》2020年第2期。由此減少外部社會(huì)生活中的固有偏見(jiàn)對(duì)于算法中立性的影響。算法中立的實(shí)現(xiàn)主要是通過(guò)技術(shù)手段,這些數(shù)據(jù)清洗技術(shù)既可以內(nèi)嵌于人臉識(shí)別技術(shù)之中,又可以外在于人臉識(shí)別技術(shù),設(shè)立專門(mén)的數(shù)據(jù)清洗中心,對(duì)人臉識(shí)別技術(shù)進(jìn)行監(jiān)測(cè)。
第二,要在法律上構(gòu)建公正原則。造成算法歧視的另一原因是算法研發(fā)人員的個(gè)性因素。算法研發(fā)人員應(yīng)當(dāng)秉持公正原則,加強(qiáng)對(duì)算法研發(fā)人員的行業(yè)倫理規(guī)制。公正原則導(dǎo)向了兩種具體的規(guī)則要求:一方面,應(yīng)當(dāng)構(gòu)建算法研發(fā)行業(yè)準(zhǔn)入和監(jiān)管制度,進(jìn)行算法研發(fā)的人員須通過(guò)一定的倫理測(cè)試方可進(jìn)入該職業(yè),以減小算法研發(fā)人員的道德傾向?qū)τ谒惴ㄖ辛⑿缘那趾?,在進(jìn)行倫理測(cè)試時(shí),尤其要注意算法研發(fā)人員對(duì)于少數(shù)群體的倫理態(tài)度。另一方面,應(yīng)當(dāng)構(gòu)建算法研發(fā)行業(yè)監(jiān)管制度,不斷強(qiáng)化對(duì)算法研發(fā)的審查工作,要求算法本身必須符合一定的倫理標(biāo)準(zhǔn)方可投入使用。
知情同意原則在這些法律原則中具有優(yōu)先性,是第一原則,這是知情同意原則與其他原則得以區(qū)分的關(guān)鍵。以上所述原則并非是一個(gè)松散的列舉式關(guān)系,而是具有內(nèi)在脈絡(luò)的原則體系。
第一,采用以上法律原則是基于人臉識(shí)別技術(shù)帶來(lái)危及人的主體性和自由以及社會(huì)公平正義的倫理風(fēng)險(xiǎn),這兩種倫理風(fēng)險(xiǎn)處于不同的層面。其一,隱私泄露所帶來(lái)的危害主要是針對(duì)個(gè)體的,算法歧視的危害則針對(duì)整個(gè)社會(huì)。其二,隱私泄露更不易被察覺(jué),帶有隱蔽性,在當(dāng)事人不知情的情況下,當(dāng)事人的相關(guān)數(shù)據(jù)信息便有可能被加以非法利用。算法歧視則更為公開(kāi),也是可以經(jīng)過(guò)驗(yàn)證的。其三,隱私泄露主要是與數(shù)據(jù)主體和數(shù)據(jù)控制者有關(guān),算法歧視主要與算法處理有關(guān)。其四,隱私泄露與人臉識(shí)別技術(shù)固有缺陷無(wú)關(guān),更多地涉及數(shù)據(jù)控制者的倫理道德水平,取決于數(shù)據(jù)控制者對(duì)于數(shù)據(jù)主體的尊重,而算法歧視則是人臉識(shí)別技術(shù)的固有缺陷,甚至是一切技術(shù)的固有缺陷,其所帶來(lái)的倫理風(fēng)險(xiǎn)更多地需要公共行動(dòng)來(lái)加以回應(yīng)?;谝陨喜町悾槍?duì)兩種倫理風(fēng)險(xiǎn)所構(gòu)建的法律原則也不盡相同,但其共同指向人臉識(shí)別技術(shù)不合理擴(kuò)散而引發(fā)的問(wèn)題。
第二,與隱私泄露風(fēng)險(xiǎn)相比,算法歧視造成的危害是社會(huì)性的,往往涉及對(duì)于某一群體的不公正對(duì)待,不同于個(gè)體的隱私泄露問(wèn)題。如果說(shuō)隱私泄露不尊重個(gè)體,那么歧視除了不尊重個(gè)體之外,主要是社會(huì)的結(jié)構(gòu)性問(wèn)題,屬于正義問(wèn)題。正義是社會(huì)的首要美德, 借用“詞典式序列”是為了突出知情同意原則的優(yōu)先性,關(guān)于“詞典式”序列的說(shuō)法(18)〔美〕約翰·羅爾斯:《正義論》,何懷宏等譯,北京:中國(guó)社會(huì)科學(xué)出版社,2009年,第26頁(yè)。具有不同于個(gè)人主體性和自由的價(jià)值指向。正義問(wèn)題是復(fù)雜的,實(shí)現(xiàn)不歧視需要多方面的努力,既包括哲學(xué)上的探討,也需要制度安排。這里所闡述的針對(duì)算法歧視設(shè)立的法律原則及相關(guān)制度僅僅是更大的關(guān)于社會(huì)正義理論構(gòu)想的一部分,算法中立原則和公正原則僅僅是為了糾正算法歧視而確立的相對(duì)具體的法律原則,由之可以導(dǎo)出一系列的具體措施,但是它們也是有限的。前已述及,人臉識(shí)別技術(shù)危害社會(huì)公平正義的最終根源在于人本身,在于社會(huì)環(huán)境,而人臉識(shí)別技術(shù)擴(kuò)散又強(qiáng)化了對(duì)于社會(huì)公平正義的侵害。消除算法歧視的最終方案在于良序社會(huì)的建立。
第三,知情同意原則是規(guī)范人臉識(shí)別技術(shù)應(yīng)用的首要法律原則,與其他法律原則相比具有排他性和優(yōu)先性,知情同意原則相比于其他法律原則處于“詞典式序列”的優(yōu)先性,只有承認(rèn)知情同意原則才能承認(rèn)其他原則。知情同意原則之所以處于如此優(yōu)先的地位,是因?yàn)閿?shù)據(jù)主體是其人臉數(shù)據(jù)的唯一正當(dāng)所有者,其他主體使用該數(shù)據(jù)主體的人臉數(shù)據(jù)的唯一例外便是經(jīng)過(guò)該數(shù)據(jù)主體的同意。在主體性上,每個(gè)人都是目的王國(guó)的立法者,都應(yīng)當(dāng)?shù)玫酵鹊淖鹬?。所以,每個(gè)人都不具有相對(duì)于其他人的“多余的權(quán)利和自由”,除非部分主體自愿讓渡出自己的權(quán)利和自由。知情同意原則的優(yōu)先性體現(xiàn)在兩方面:一方面在于,知情同意原則相對(duì)于最小必要原則和不傷害原則具有優(yōu)先性;另一方面在于,知情同意原則相比于算法中立原則和公正原則也具有優(yōu)先性。所以,如果知情同意原則未發(fā)揮作用,那么算法中立原則和公正原則將是無(wú)實(shí)際意義的空原則,只有經(jīng)過(guò)數(shù)據(jù)主體的同意,人臉識(shí)別技術(shù)才能夠收集和存儲(chǔ)人臉數(shù)據(jù),才能談得上技術(shù)的改進(jìn)問(wèn)題。否則,引導(dǎo)技術(shù)改進(jìn)的原則便無(wú)實(shí)際意義。
如何具體地構(gòu)建知情同意原則,通過(guò)法律技術(shù)將之具體化為行動(dòng)規(guī)則,是需深入研究的問(wèn)題,歐盟與我國(guó)采取了兩種不同的知情同意模式。
歐盟出臺(tái)了成熟的個(gè)人資料保護(hù)法,被稱為“通用數(shù)據(jù)保護(hù)條例”(General Data Protection Regulation),該條例是圍繞知情同意原則而構(gòu)建的。(19)以下分析均基于歐盟“通用數(shù)據(jù)保護(hù)條例”的相關(guān)規(guī)定。
第一,針對(duì)同意的表示方式,通用數(shù)據(jù)保護(hù)條例規(guī)定同意必須基于當(dāng)事人自愿作出,并且是在知悉相關(guān)的情況之后作出,關(guān)于面部數(shù)據(jù)要求當(dāng)事人必須明示同意。可見(jiàn)歐盟對(duì)于敏感個(gè)人信息的保護(hù)力度強(qiáng)于其他個(gè)人信息,不僅對(duì)于人臉數(shù)據(jù)的處理進(jìn)行“原則—例外”式的立法模式,還對(duì)“例外”施加了諸多限制,體現(xiàn)在同意的生效條件、特殊同意問(wèn)題以及不需同意的法律允許等。
第二,同意的生效條件。首先,同意是否生效涉及證明的問(wèn)題,在舉證義務(wù)的分配上,通用數(shù)據(jù)保護(hù)條例規(guī)定數(shù)據(jù)控制者負(fù)有舉證義務(wù),數(shù)據(jù)控制者應(yīng)當(dāng)證明數(shù)據(jù)主體已經(jīng)同意其處理數(shù)據(jù)主體的個(gè)人數(shù)據(jù)。其次,如果數(shù)據(jù)主體的同意與其他事項(xiàng)并列于書(shū)面文件中,通用數(shù)據(jù)保護(hù)條例規(guī)定,書(shū)面文件中涉及的其他事項(xiàng)應(yīng)當(dāng)與同意的事項(xiàng)明確區(qū)別開(kāi)來(lái),這要求數(shù)據(jù)主體的同意必須清楚而明確地表達(dá)出來(lái)。復(fù)次,數(shù)據(jù)主體的同意范圍不能超過(guò)通用數(shù)據(jù)保護(hù)條例允許的范圍,否則同意無(wú)效,這是“原則—例外”的立法模式所發(fā)揮的效果。又次,數(shù)據(jù)主體的同意不是一次性的、持續(xù)性的同意,數(shù)據(jù)主體有撤回權(quán),并且可以隨時(shí)撤回自己的同意。數(shù)據(jù)處理的合法性只有在數(shù)據(jù)主體同意的時(shí)段中存續(xù),在撤回同意前的數(shù)據(jù)處理是合法的,并且數(shù)據(jù)主體有權(quán)被告知自己擁有撤回權(quán)。最后,同意必須基于自愿,在評(píng)估同意是否基于自愿時(shí),要考慮到相關(guān)合同的目的與同意事項(xiàng)的范圍是否符合比例,如果同意的范圍超出了履行合同的目的,則可推定當(dāng)事人的同意并非基于自愿,這體現(xiàn)了最小必要原則對(duì)于同意的限制;另外,特殊同意問(wèn)題。未成年人是同意的特殊主體,如果數(shù)據(jù)控制者需要收集未成年人的個(gè)人數(shù)據(jù),必須獲得其代理人的同意或者授權(quán)。在舉證責(zé)任上,數(shù)據(jù)控制者應(yīng)當(dāng)核實(shí)未成年人的代理人是否已經(jīng)同意或授權(quán)?;隗w系解釋,未成年人的同意或授權(quán)也應(yīng)當(dāng)符合同意的生效條件。關(guān)于行使刑事定罪和罪行的個(gè)人數(shù)據(jù)是同意的特殊事項(xiàng),只有官方法律授權(quán)的情況下才能進(jìn)行,因?yàn)槿魏侮P(guān)于刑事犯罪的數(shù)據(jù)都應(yīng)當(dāng)由公權(quán)力機(jī)關(guān)保存。
第三,不需同意的法律允許。數(shù)據(jù)主體的生物識(shí)別信息原則上被禁止處理,這一例外包括兩個(gè),一是經(jīng)過(guò)數(shù)據(jù)主體的同意,二是無(wú)需同意的法律允許,不需同意的特殊處理便屬于后者,它包括諸多情形:其一,數(shù)據(jù)處理者負(fù)有社會(huì)保障等義務(wù),在履行義務(wù)的范圍內(nèi)進(jìn)行數(shù)據(jù)處理,這一處理符合最小必要原則;其二,為了保護(hù)數(shù)據(jù)主體的更大利益而無(wú)法取得該數(shù)據(jù)主體的同意;其三,以政治、哲學(xué)、工會(huì)為目的的協(xié)會(huì)等非營(yíng)利組織在合法以及具有適當(dāng)?shù)陌踩U系那闆r下進(jìn)行數(shù)據(jù)處理,所處理的數(shù)據(jù)僅僅涉及該組織內(nèi)部人員,相關(guān)數(shù)據(jù)不對(duì)外披露;其四,處理數(shù)據(jù)主體已經(jīng)公開(kāi)的個(gè)人數(shù)據(jù);其五,法院在行使司法職能時(shí)使用個(gè)人數(shù)據(jù),該個(gè)人數(shù)據(jù)是為了達(dá)到司法目的所必須的;其六,為了醫(yī)學(xué)和公共健康和其他公共利益、科學(xué)研究和歷史研究、統(tǒng)計(jì)目的而進(jìn)行數(shù)據(jù)處理,并且符合相關(guān)法律規(guī)定。數(shù)據(jù)通用保護(hù)條例并沒(méi)有設(shè)置兜底性條款,也就是說(shuō),除了數(shù)據(jù)主體的同意和上述法律允許的范圍,其他情況下的人臉數(shù)據(jù)處理都是非法的。
“原則—例外”的立法模式以及例外中的“法律允許”均體現(xiàn)了法律優(yōu)先,并沒(méi)有將一切事項(xiàng)均交給個(gè)人同意,這似乎違背了知情同意原則的主導(dǎo)地位。其實(shí)不然,知情同意原則一定程度上是當(dāng)事人意思自治的表現(xiàn),(20)賀栩栩:《比較法上的個(gè)人數(shù)據(jù)信息自決權(quán)》,《比較法研究》2013年第2期。但是在法律領(lǐng)域,法律優(yōu)先也有其正當(dāng)性,法律優(yōu)先表明了意思自治的倫理風(fēng)險(xiǎn),是基于意思自治的風(fēng)險(xiǎn)而設(shè)置的,如果將意思自治放在最重要的地位上,可能產(chǎn)生兩個(gè)極端。一方面,數(shù)據(jù)主體或許基于個(gè)體認(rèn)知和特定目的而無(wú)法作出最佳決定,最終可能“自由得一無(wú)所有”,例如為了獲得報(bào)酬而隨意出賣自身的敏感個(gè)人信息,而沒(méi)有意識(shí)到個(gè)人數(shù)據(jù)的重要性。另一方面,數(shù)據(jù)主體有可能無(wú)法意識(shí)到公共利益的重要性,過(guò)分看重個(gè)人數(shù)據(jù),這可能阻礙社會(huì)進(jìn)步和公共利益的實(shí)現(xiàn)。歐盟的“原則—例外”立法模式是知情同意理論中特別同意理論的體現(xiàn),在介紹我國(guó)的寬松同意模式之后,后文會(huì)對(duì)二者進(jìn)行比較分析。
我國(guó)法律對(duì)于個(gè)人數(shù)據(jù)也進(jìn)行了保護(hù),在一定程度上借鑒了歐盟的做法。我國(guó)采取了“隱私權(quán)+個(gè)人信息”雙重保護(hù)模式:第一,我國(guó)對(duì)個(gè)人數(shù)據(jù)采取了“隱私權(quán)”的保護(hù)方式,自然人享有隱私權(quán)。任何組織或者個(gè)人不得以刺探、侵?jǐn)_、泄露、公開(kāi)等方式侵害他人的隱私權(quán)。第二,我國(guó)對(duì)個(gè)人數(shù)據(jù)也采取了“個(gè)人信息”的保護(hù)模式,自然人的個(gè)人信息受法律保護(hù)。個(gè)人信息是以電子或者其他方式記錄的能夠單獨(dú)或者與其他信息結(jié)合識(shí)別特定自然人的各種信息。生物識(shí)別信息屬于個(gè)人信息,受到法律保護(hù)。第三,在“隱私權(quán)”和“個(gè)人信息”的適用上,如果是個(gè)人信息中的私密信息,則適用有關(guān)隱私權(quán)的規(guī)定;如果隱私權(quán)部分沒(méi)有規(guī)定的,適用有關(guān)個(gè)人信息保護(hù)的規(guī)定。
在對(duì)個(gè)人信息處理上,我國(guó)也采用了知情同意原則,這體現(xiàn)在:第一,處理個(gè)人信息應(yīng)當(dāng)遵循合法、正當(dāng)、必要原則,不得過(guò)度處理。第二,處理個(gè)人信息要符合的必要條件是征得該自然人或者其監(jiān)護(hù)人同意,并且需要公開(kāi)處理信息的規(guī)則和明示處理信息的目的、方式和范圍。個(gè)人信息的處理包括個(gè)人信息的收集、存儲(chǔ)、使用、加工、傳輸、提供、公開(kāi)等。第三,除了個(gè)人知情同意可以正當(dāng)化個(gè)人信息處理之外,法律和行政法規(guī)的規(guī)定也可以成為處理個(gè)人信息的理由。處理已經(jīng)公開(kāi)的個(gè)人信息以及為了維護(hù)公共利益和數(shù)據(jù)主體的合法權(quán)益而實(shí)施的數(shù)據(jù)處理行為無(wú)需經(jīng)過(guò)數(shù)據(jù)主體的同意。第四,針對(duì)個(gè)人同意的要求,個(gè)人應(yīng)當(dāng)在充分知情的情況下同意,個(gè)人信息發(fā)生變更也需要告知個(gè)人并重新征得個(gè)人的同意,個(gè)人有權(quán)撤回同意,但是撤回同意前的數(shù)據(jù)處理仍然正當(dāng)。針對(duì)未成年人的同意需要其監(jiān)護(hù)人代理。
由上可見(jiàn),我國(guó)對(duì)于個(gè)人信息的處理原則也是知情同意原則,看起來(lái)似乎也采取了“原則—例外”模式,其實(shí)不然,歐盟的“原則”乃是原則上禁止對(duì)人臉數(shù)據(jù)的處理,例外是“法律允許”和“知情同意”,我國(guó)則并沒(méi)有確立“原則上禁止對(duì)人臉數(shù)據(jù)進(jìn)行處理”,而是要求數(shù)據(jù)處理不僅要遵循一系列要求,同時(shí)確立了合法處理人臉數(shù)據(jù)的“例外”,即“知情同意”和用兜底條款表達(dá)的法律允許。我國(guó)并未采取歐盟“原則—例外”的保護(hù)模式,這樣的做法留下了空白:一方面,當(dāng)事人可能隨意授權(quán),而無(wú)法維護(hù)自己的實(shí)質(zhì)利益,由于沒(méi)有采取原則上禁止收集敏感個(gè)人信息的這一原則,當(dāng)事人便可以在很多情況下允許數(shù)據(jù)處理,即便這些情況有可能侵害數(shù)據(jù)主體的權(quán)利。另一方面,這種保護(hù)模式采取了兜底性規(guī)定,雖然《個(gè)人信息保護(hù)法》列舉了其他不需要數(shù)據(jù)主體同意的法律允許的情況,但是也最終采取兜底性規(guī)定,也就是說(shuō),為了公共利益而實(shí)施的其他行為以及法律行政法規(guī)規(guī)定的其他情形可以突破數(shù)據(jù)主體的同意而進(jìn)行數(shù)據(jù)處理,這有可能導(dǎo)致私權(quán)利被大大壓縮。
歐盟和我國(guó)都在立法上貫徹了知情同意原則,歐盟模式可以被稱作“原則—例外”模式,其把數(shù)據(jù)主體的同意置于崇高的地位,從而數(shù)據(jù)控制者進(jìn)行數(shù)據(jù)處理則困難重重。歐盟模式貫徹的是知情同意原則中的特別同意理論,這是知情同意原則的經(jīng)典模型,即必須為了維護(hù)個(gè)人自決而明確同意的對(duì)象。特別同意理論認(rèn)為數(shù)據(jù)主體的同意應(yīng)當(dāng)是具體的有針對(duì)性的,數(shù)據(jù)主體的同意應(yīng)當(dāng)單獨(dú)而明確。與之相對(duì)的是數(shù)據(jù)控制者的告知應(yīng)當(dāng)是全面而詳細(xì)的,不能有所模糊。特別同意理論也強(qiáng)調(diào)同意的邊界范圍,如果數(shù)據(jù)控制者的數(shù)據(jù)處理超出同意的邊界,則不再合法,需要重新征求數(shù)據(jù)主體的同意并履行全面詳細(xì)的告知義務(wù),如果數(shù)據(jù)控制者更新了數(shù)據(jù)處理事項(xiàng),則也需要重新獲得數(shù)據(jù)主體的同意。需要指出的是,“原則—例外”模式所體現(xiàn)的特別同意理論過(guò)分強(qiáng)調(diào)了數(shù)據(jù)主體的權(quán)利和自由,也具有一定的弊端。
歐盟的“原則—例外”模式在充分尊重?cái)?shù)據(jù)主體的主體性和自由的同時(shí),可能會(huì)產(chǎn)生兩種實(shí)踐效果:一是數(shù)據(jù)主體的主體性和自由確實(shí)得到了實(shí)際上的保護(hù),但是數(shù)據(jù)控制者由于巨大的成本和法律負(fù)擔(dān)而不再具有經(jīng)濟(jì)上的激勵(lì),從而不再具有發(fā)展技術(shù)的積極性;二是數(shù)據(jù)控制者為了維護(hù)人臉識(shí)別技術(shù)應(yīng)用的商業(yè)價(jià)值而繼續(xù)大肆擴(kuò)散人臉識(shí)別技術(shù),從而無(wú)視法律規(guī)則,而由于數(shù)據(jù)主體和數(shù)據(jù)控制者的分離,數(shù)據(jù)主體往往無(wú)法掌握人臉數(shù)據(jù)的具體使用,數(shù)據(jù)主體的主體性和自由便常常處于被侵犯的狀態(tài)。這種困境是兩方價(jià)值的沖突造成的:一方面,為了避免人臉識(shí)別技術(shù)擴(kuò)散帶來(lái)的倫理風(fēng)險(xiǎn),我們需要堅(jiān)決維護(hù)知情同意這一原則,保護(hù)數(shù)據(jù)主體的權(quán)利和自由;另一方面,又不能忽視人臉識(shí)別技術(shù)的正當(dāng)使用,促進(jìn)人臉識(shí)別技術(shù)的發(fā)展和相關(guān)人臉數(shù)據(jù)的合理使用,從而發(fā)揮技術(shù)本身造福于人類的初衷。
相比之下,我國(guó)模式可以被稱作“隱私權(quán)+個(gè)人信息”雙重保護(hù)模式。雖然是雙重保護(hù),相比于歐盟的法律規(guī)定,我國(guó)關(guān)于知情同意原則的法律規(guī)則卻并不是很多。雖然確認(rèn)了數(shù)據(jù)主體的撤回權(quán)等,但同意的生效條件和數(shù)據(jù)控制者的舉證義務(wù)和論證負(fù)擔(dān)等付之闕如。不采取“原則—例外”模式意味著我國(guó)模式?jīng)]有過(guò)分強(qiáng)調(diào)數(shù)據(jù)主體的權(quán)利,以避免過(guò)分保護(hù)的弊端,但又給予數(shù)據(jù)主體以“隱私權(quán)+個(gè)人信息”雙重保護(hù),同時(shí)再以不對(duì)數(shù)據(jù)控制者施加過(guò)多具體義務(wù)而與這種雙重保護(hù)模式對(duì)沖。我國(guó)模式并未過(guò)分強(qiáng)調(diào)數(shù)據(jù)主體同意的具體性,降低了數(shù)據(jù)控制者的告知標(biāo)準(zhǔn),其所體現(xiàn)的不是特別同意模式。同時(shí),我國(guó)采取的也不是極端的概括同意模式,概括同意模式認(rèn)為,數(shù)據(jù)主體同意人臉數(shù)據(jù)處理時(shí)做出的同意是寬泛而概括的,這種同意模式典型地體現(xiàn)在我國(guó)的《涉及人的生物醫(yī)學(xué)研究倫理審查辦法》中,即允許參加者自愿簽署同意未來(lái)所有研究的概括同意書(shū)。所以,我國(guó)采取的是一種寬松同意模式,如果按照對(duì)于個(gè)人權(quán)利和自由的保護(hù)強(qiáng)度繪制光譜,寬松同意模式應(yīng)當(dāng)位于特別同意模式與概括同意模式之間但更靠近概括同意模式之處,它雖然克服了特別同意模式的弊端,但也帶有了概括同意模式的弊端,即弱化了對(duì)數(shù)據(jù)主體的個(gè)體性和自由的保護(hù)強(qiáng)度,降低了數(shù)據(jù)控制者的告知標(biāo)準(zhǔn)。
歐盟和我國(guó)的兩種模式的缺陷,其實(shí)也是特別同意模式和概括同意模式的困境,為了克服這種非此即彼的困境,需要構(gòu)建一種平衡個(gè)人權(quán)利與技術(shù)應(yīng)用需要的“動(dòng)態(tài)同意模式”。(21)還有學(xué)者提出了附條款同意模式和分層與分階段同意模式。附條款同意認(rèn)為同意應(yīng)當(dāng)附加排除條款。分層與分階段同意認(rèn)為應(yīng)當(dāng)將相關(guān)信息進(jìn)行分類和分層,讓數(shù)據(jù)主體分層與分階段同意。這些同意模式也處于本文所繪制的同意模式的光譜上,不再具體介紹。參見(jiàn)田野:《大數(shù)據(jù)時(shí)代知情同意原則的困境與出路——以生物資料庫(kù)的個(gè)人保護(hù)信息為例》,《法制與社會(huì)發(fā)展》2018年第6期;石佳友、劉思齊:《人臉識(shí)別技術(shù)中的個(gè)人信息保護(hù)——兼論動(dòng)態(tài)同意模式的建構(gòu)》,《財(cái)經(jīng)法學(xué)》2021年第2期;陳曉云等:《“動(dòng)態(tài)+泛知情同意”在醫(yī)療機(jī)構(gòu)實(shí)施初探》,《中國(guó)醫(yī)學(xué)倫理學(xué)》2018年第4期;單芳、毛新志:《生物樣本庫(kù)研究中知情同意問(wèn)題的倫理挑戰(zhàn)和應(yīng)對(duì)》,《自然辯證法通訊》2019年第3期。理由在于:第一,要在大數(shù)據(jù)時(shí)代這一背景下看待人臉識(shí)別技術(shù)的應(yīng)用,大數(shù)據(jù)時(shí)代,人臉識(shí)別技術(shù)應(yīng)用獲得同意的難度和成本上升。大數(shù)據(jù)處理使得數(shù)據(jù)處理的更新更加頻繁,如果每次更新都需要同意,那么同意征集的頻次便大大增加,因?yàn)橥庵辉谔囟ǚ秶鷥?nèi)生效。每次同意都意味著時(shí)間成本和金錢(qián)成本。所以,數(shù)據(jù)控制者為了節(jié)省時(shí)間成本和金錢(qián)成本會(huì)反向選擇不經(jīng)過(guò)當(dāng)事人同意而徑直處理數(shù)據(jù),這使得同意的作用虛化了。第二,個(gè)人自決能力問(wèn)題。并且個(gè)人缺乏同意能力,有時(shí)無(wú)法理解個(gè)人信息給自己帶來(lái)的風(fēng)險(xiǎn)和收益是否成正比。同時(shí),大數(shù)據(jù)時(shí)代下的人臉識(shí)別技術(shù)更應(yīng)當(dāng)實(shí)現(xiàn)對(duì)數(shù)據(jù)權(quán)利的保護(hù),因?yàn)橄啾扔谄渌麜r(shí)期,大數(shù)據(jù)的使用結(jié)合人臉識(shí)別技術(shù)的擴(kuò)散更容易侵害個(gè)人的隱私數(shù)據(jù)。換言之,動(dòng)態(tài)同意模式需要兼顧數(shù)據(jù)主體的權(quán)利和自由與數(shù)據(jù)控制者對(duì)人臉數(shù)據(jù)的合理使用和人臉識(shí)別技術(shù)的正當(dāng)應(yīng)用。動(dòng)態(tài)同意模式主張利用現(xiàn)代網(wǎng)絡(luò)信息技術(shù)搭建一個(gè)交流平臺(tái),使得信息處理和知情同意成為一個(gè)持續(xù)、動(dòng)態(tài)、開(kāi)放的過(guò)程,數(shù)據(jù)主體可以隨時(shí)了解最新信息,自由選擇加入或退出。(22)田野:《大數(shù)據(jù)時(shí)代知情同意原則的困境與出路——以生物資料庫(kù)的個(gè)人保護(hù)信息為例》。這是在特別同意與概括同意之間的第三條道路。
在動(dòng)態(tài)同意模式下,數(shù)據(jù)主體可以基于自己的個(gè)性化選擇去同意或不同意,它的優(yōu)點(diǎn)有很多。(23)石佳友、劉思齊:《人臉識(shí)別技術(shù)中的個(gè)人信息保護(hù)——兼論動(dòng)態(tài)同意模式的建構(gòu)》。第一,使得數(shù)據(jù)主體成為中心,授權(quán)有效性大大增加,能夠充分實(shí)現(xiàn)意思自治。個(gè)人能夠?qū)θ四樞畔⑦M(jìn)行管理,更為知情,而現(xiàn)行的人臉識(shí)別協(xié)議中均需要數(shù)據(jù)主體閱讀重點(diǎn)信息,動(dòng)態(tài)同意模式更好地保護(hù)了數(shù)據(jù)主體的知情權(quán)。第二,動(dòng)態(tài)同意模式要求充分的數(shù)據(jù)信息披露,人臉識(shí)別技術(shù)的快速發(fā)展必然導(dǎo)致信息處理的透明性成為關(guān)注的焦點(diǎn),要求數(shù)據(jù)控制者實(shí)時(shí)有效地向個(gè)人表明人臉數(shù)據(jù)如何采集、如何處理以及如何進(jìn)行安全保障,等等。第三,動(dòng)態(tài)同意模式充分保障數(shù)據(jù)主體的撤回權(quán),不同于傳統(tǒng)的一次性、持續(xù)性同意模式,數(shù)據(jù)主體可以隨時(shí)撤回自己的同意,隨時(shí)產(chǎn)生新的同意,數(shù)據(jù)主體自由決定同意與否,充分尊重了數(shù)據(jù)主體的自主性。第四,動(dòng)態(tài)同意模式具有現(xiàn)實(shí)性,利用大數(shù)據(jù)、互聯(lián)網(wǎng)5G技術(shù)搭建動(dòng)態(tài)同意平臺(tái)并非技術(shù)難題,通過(guò)該平臺(tái),數(shù)據(jù)控制者能夠獲得有效的同意,數(shù)據(jù)主體能夠及時(shí)知悉相關(guān)信息。由上可見(jiàn),動(dòng)態(tài)同意模式避免了非此即彼的同意困境,而是將數(shù)據(jù)主體和數(shù)據(jù)控制者置于一個(gè)動(dòng)態(tài)、開(kāi)放和合作的信息交流過(guò)程之中,將數(shù)據(jù)主體和數(shù)據(jù)控制者視作合作者,數(shù)據(jù)主體能夠隨時(shí)獲取信息,自由選擇加入或者退出,既降低了同意的成本和難度,維護(hù)了人臉識(shí)別技術(shù)應(yīng)用的商業(yè)價(jià)值,又保護(hù)了數(shù)據(jù)主體的權(quán)利和自由,避免了人臉識(shí)別技術(shù)擴(kuò)散的倫理風(fēng)險(xiǎn)。當(dāng)然,動(dòng)態(tài)同意模式也有其局限性,它雖然賦予了數(shù)據(jù)主體更大的自主性,主體能夠隨時(shí)加入或退出,但是頻繁地加入或退出也會(huì)影響數(shù)據(jù)處理效率,從而再次造成資源的浪費(fèi)。另外,數(shù)據(jù)主體能否從動(dòng)態(tài)同意平臺(tái)中真正知悉所需信息,也有待實(shí)證研究。
對(duì)于構(gòu)建動(dòng)態(tài)同意模式如何從理論走向現(xiàn)實(shí)的問(wèn)題,需要注意以下幾點(diǎn):第一,動(dòng)態(tài)同意模式中的信息交流不是無(wú)序的,而是受規(guī)則指引的,需要依據(jù)信息本身的重要程度進(jìn)行分層,一般認(rèn)為,個(gè)人信息可以分為一般個(gè)人信息和敏感個(gè)人信息,人臉數(shù)據(jù)屬于敏感個(gè)人信息,人臉數(shù)據(jù)本身又可以細(xì)化出更多的信息,這涉及人臉識(shí)別技術(shù)如何識(shí)別人臉的技術(shù)過(guò)程,因?yàn)槿四樧罱K是以數(shù)字化的方式存儲(chǔ)于人臉數(shù)據(jù)庫(kù)中,人臉識(shí)別技術(shù)將人的面部信息進(jìn)行分類分析,這些信息有的屬于確定人體生物特征的不可或缺的信息,有的則屬于其他信息,動(dòng)態(tài)同意模式要求將信息進(jìn)行分門(mén)別類,以便數(shù)據(jù)主體能夠知悉并選擇同意使用哪些信息。第二,在動(dòng)態(tài)同意模式下,人臉數(shù)據(jù)處理的場(chǎng)景和風(fēng)險(xiǎn)必須被告知,不同的應(yīng)用場(chǎng)景,人臉識(shí)別技術(shù)所造成的風(fēng)險(xiǎn)具有程度差異,人臉數(shù)據(jù)信息利用場(chǎng)景也可能發(fā)生轉(zhuǎn)換,因此要建立評(píng)估人臉數(shù)據(jù)信息利用的風(fēng)險(xiǎn),風(fēng)險(xiǎn)評(píng)估要實(shí)現(xiàn)告知數(shù)據(jù)主體,以供數(shù)據(jù)主體決定同意的參考。第三,動(dòng)態(tài)同意模式需要提供差異化同意方案,數(shù)據(jù)主體的偏好可能是不一致的,有的數(shù)據(jù)主體會(huì)允許使用更多的人臉數(shù)據(jù),有的主體則排斥過(guò)多人臉數(shù)據(jù)的使用,數(shù)據(jù)主體同意偏好具有多樣性。(24)Zubin Master et al.,Biobanks,Consent and Claims of Consensus,Nature Methods,Vol.9,No.9 ,2012,pp.885-888.數(shù)據(jù)控制者應(yīng)當(dāng)提供多元化的同意方案,允許具有不同同意偏好的人參與,只要在法律法規(guī)允許的范圍內(nèi),同意方案在理論上是可以無(wú)限的。第四,信息披露機(jī)制要具有持續(xù)性,特別同意模式和概括同意模式下的信息披露是一次性的,數(shù)據(jù)主體的權(quán)利行使也是一次性的,動(dòng)態(tài)同意模式要求數(shù)據(jù)控制者持續(xù)披露人臉數(shù)據(jù)的使用,對(duì)其使用目的、使用方法進(jìn)行持續(xù)的公開(kāi)。第五,一定程度上允許寬泛同意,這一點(diǎn)是與信息披露的持續(xù)性相一致的,因?yàn)榧幢銛?shù)據(jù)控制者能夠做到及時(shí)更新人臉數(shù)據(jù)的使用方法和使用目的,等等,數(shù)據(jù)主體卻不一定無(wú)時(shí)無(wú)刻需要處于同意的“待命”狀態(tài),數(shù)據(jù)控制者可以提供寬泛同意的選項(xiàng)以供數(shù)據(jù)主體選擇來(lái)模糊化同意的具體性,從而獲得使用人臉數(shù)據(jù)的一定自由空間,但也需要指出,對(duì)于寬泛同意需要匹配嚴(yán)格的監(jiān)督措施。當(dāng)然這些具體措施的建議僅僅是有利于動(dòng)態(tài)同意模式從理論步入現(xiàn)實(shí),人們當(dāng)然也可以提出更多的措施,在這個(gè)意義上,實(shí)踐操作并沒(méi)有唯一正確答案,而具體的實(shí)踐操作也可能創(chuàng)新出其他措施。
數(shù)字化社會(huì)和大數(shù)據(jù)時(shí)代中如何應(yīng)對(duì)技術(shù)發(fā)展所帶來(lái)的一系列問(wèn)題已經(jīng)成為焦點(diǎn)問(wèn)題,數(shù)字化帶給我們的不僅有便利,還有風(fēng)險(xiǎn)。正如其他技術(shù)一般,人臉識(shí)別技術(shù)最初是為了保衛(wèi)社會(huì)而誕生的,它給人們帶來(lái)了一系列的便利,但其快速擴(kuò)散也引發(fā)了一系列倫理風(fēng)險(xiǎn),為此需要確立相應(yīng)的防范措施。本文所提供的動(dòng)態(tài)同意模式只是應(yīng)對(duì)人臉識(shí)別技術(shù)擴(kuò)散的一種制度建議,在未來(lái),全面規(guī)制人臉識(shí)別技術(shù)的不合理擴(kuò)散,回歸目的理性,不僅需要學(xué)界提供合理的制度建議,還需要與實(shí)務(wù)部門(mén)和技術(shù)部門(mén)一同前行。