宋 偉 劉子荷
(中國(guó)科學(xué)技術(shù)大學(xué) 知識(shí)產(chǎn)權(quán)研究院,安徽 合肥 230041)
智能社會(huì),算法與人們的生活結(jié)合得愈發(fā)緊密。一方面,算法的技術(shù)屬性和價(jià)值體現(xiàn)引發(fā)保護(hù)需求;另一方面,算法應(yīng)用所造成的負(fù)面影響反映問(wèn)責(zé)需求。算法是一把雙刃劍,對(duì)其加以保護(hù)的同時(shí)也不能忽視其滋生的各種社會(huì)問(wèn)題,如算法歧視、侵害個(gè)人數(shù)據(jù)信息和司法救濟(jì)危機(jī)等。算法規(guī)制與算法保護(hù)共同構(gòu)成智能社會(huì)治理的關(guān)鍵內(nèi)容,二者相輔相成,算法規(guī)制是保障算法發(fā)揮積極、公正作用的題中之義。
在算法知識(shí)產(chǎn)權(quán)保護(hù)模式的激烈學(xué)術(shù)爭(zhēng)論中,眾多學(xué)者提出算法可專(zhuān)利化的觀點(diǎn)。然而,專(zhuān)利制度的保護(hù)范式與黑箱算法的秘密性之間存在沖突,并會(huì)進(jìn)一步加深其不透明之處,具體表現(xiàn)為二:一是專(zhuān)利保護(hù)對(duì)算法源代碼的公開(kāi)易破壞其商業(yè)秘密效能;二是專(zhuān)利制度不披露用戶(hù)的個(gè)人數(shù)據(jù),算法決策相對(duì)人的相關(guān)權(quán)益缺乏保障??梢?jiàn),算法規(guī)制面臨的主要困境為算法所有者的商業(yè)秘密利益與社會(huì)公眾權(quán)益的沖突與協(xié)調(diào)。以此為出發(fā)點(diǎn),本文結(jié)合算法應(yīng)用階段的利益保護(hù)特征,構(gòu)建算法的事前與事后解釋制度,以期豐富其規(guī)制路徑。
在人工智能輸入的數(shù)據(jù)和輸出的答案之間,存在公眾無(wú)法洞悉的“隱層”,可稱(chēng)為“黑箱”。黑箱是控制論中的概念,作為一種隱喻,它指的是那些不為人知的、不能打開(kāi)、不能從外部直接觀察其內(nèi)部狀態(tài)的系統(tǒng),①陶迎春:《技術(shù)中的知識(shí)問(wèn)題——技術(shù)黑箱》,《科協(xié)論壇》2008年第7期。即黑箱在輸入端輸入數(shù)據(jù)并在輸出端產(chǎn)生結(jié)果,但該數(shù)據(jù)的運(yùn)作過(guò)程則只為部分人掌握。這意味著算法并不是透明的,主要體現(xiàn)在以下兩個(gè)方面。
二是算法所有者有目的地不披露商業(yè)秘密和其他信息。對(duì)于算法的法律性質(zhì),學(xué)者莫衷一是,其中就包括將其視為商業(yè)秘密。法律文本一般將商業(yè)秘密定義為不為社會(huì)公眾所知曉、能為權(quán)利人帶來(lái)經(jīng)濟(jì)回報(bào)、具有實(shí)用性并經(jīng)權(quán)利人采取保密措施的技術(shù)信息和經(jīng)營(yíng)信息。也就是說(shuō),商業(yè)秘密具有秘密性、實(shí)用性、保密性、價(jià)值性。④梁志文:《論算法排他權(quán):破除算法偏見(jiàn)的路徑選擇》,《政治與法律》2020年第8期。算法作為人工智能的核心技術(shù)具有嚴(yán)格的秘密性。算法運(yùn)作以大量數(shù)據(jù)作為支撐,這些數(shù)據(jù)中承載著用戶(hù)的標(biāo)簽信息和行為信息。單純的用戶(hù)數(shù)據(jù)并不構(gòu)成商業(yè)秘密,但經(jīng)過(guò)海量獲取和分析總結(jié)后,便可以依此做出預(yù)測(cè),為用戶(hù)提供參考信息,借以獲得巨額的商業(yè)利潤(rùn)。此時(shí),這些數(shù)據(jù)就具備了商業(yè)秘密的屬性。事實(shí)上,各大平臺(tái)如新浪、抖音等幾乎都會(huì)建立自己獨(dú)立的數(shù)據(jù)庫(kù)并禁止他人擅自使用這些數(shù)據(jù),新浪就曾以淘友技術(shù)公司和淘友科技公司非法抓取、使用新浪微博用戶(hù)信息為由控告其不正當(dāng)競(jìng)爭(zhēng)并最終獲賠200余萬(wàn)元。⑤宋心蕊、趙光霞:《非法抓取新浪微博用戶(hù)信息 脈脈被判賠二百萬(wàn)》,http://media.people.com.cn/n1/2017/0114/c40606-29022810.html, 最后訪問(wèn)時(shí)間:2022年3月16日。2016年,美國(guó)威斯康星州的Wisconsin vs Loomis 案中,法官也將COMPAS算法視為商業(yè)秘密。該案中,被告Loomis否認(rèn)參與犯罪,但通過(guò)同意認(rèn)罪協(xié)議放棄了受審的權(quán)利。他簽訂的認(rèn)罪協(xié)議將實(shí)際判刑留給威斯康星州巡回法院法官酌情決定。法官接受了被告的認(rèn)罪,并下令進(jìn)行風(fēng)險(xiǎn)評(píng)估,評(píng)估采用的算法是COMPAS系統(tǒng),其預(yù)測(cè)被告具有高審前風(fēng)險(xiǎn)、高再犯風(fēng)險(xiǎn)和高暴力再犯風(fēng)險(xiǎn)。因而,與控方和辯方商定的緩刑一年不同,巡回法院以被告未經(jīng)車(chē)主同意駕駛機(jī)動(dòng)車(chē)輛為由判處被告“七年監(jiān)禁四年緩刑”。被告進(jìn)而要求披露COMPAS 風(fēng)險(xiǎn)報(bào)告中的信息包括訪問(wèn)軟件代碼和算法權(quán)重。兩個(gè)請(qǐng)求都被法院拒絕,理由是COMPAS算法是專(zhuān)有的且涉及商業(yè)秘密。①Washington A L.,“How to Argue with an Algorithm: Lessons from the COMPAS-ProPublica Debate”,Colorado Technology Law Journal,NO.17(2018).
黑箱不透明性的兩項(xiàng)內(nèi)容各有所指、各有側(cè)重,本文主要針對(duì)算法黑箱在有監(jiān)督學(xué)習(xí)下產(chǎn)生的不透明性進(jìn)行分析和解決。一方面,就當(dāng)今算法的發(fā)展?fàn)顟B(tài)與應(yīng)用范圍來(lái)看,在運(yùn)行算法中有監(jiān)督學(xué)習(xí)仍占據(jù)主要地位,大部分算法需要人工的預(yù)先干預(yù),有監(jiān)督學(xué)習(xí)算法的應(yīng)用范圍無(wú)疑更為廣泛。另一方面,無(wú)監(jiān)督學(xué)習(xí)的最大特點(diǎn)在于只有機(jī)器了解內(nèi)部的運(yùn)行邏輯和規(guī)則,而人無(wú)法了解,算法自身在做出上一個(gè)決定后的不特定時(shí)間內(nèi)可能會(huì)有所不同,并且當(dāng)算法自動(dòng)更新多次時(shí),難以確定決策的具體時(shí)間點(diǎn)。在這種情況下討論無(wú)監(jiān)督學(xué)習(xí)的不透明性存在嚴(yán)重的技術(shù)障礙,不具備可行性。
隨著以算法為運(yùn)作核心的人工智能大量出現(xiàn)并占據(jù)重要地位,實(shí)務(wù)界不斷呼吁將基礎(chǔ)算法納入專(zhuān)利法的保護(hù)范圍之中。據(jù)《2021—2022 中國(guó)人工智能計(jì)算力發(fā)展評(píng)估報(bào)告》統(tǒng)計(jì),我國(guó)2020 年發(fā)布的GPT-3 深度學(xué)習(xí)模型參數(shù)高達(dá)1750 億,是當(dāng)時(shí)全球最大的AI巨量模型;2021 年發(fā)布的“源1.0”參數(shù)升至2457 億,參數(shù)增長(zhǎng)高達(dá)40%,是當(dāng)前全球最大規(guī)模的中文AI 巨量模型。②浪潮服務(wù)器公眾號(hào):《〈2021—2022 中國(guó)人工智能計(jì)算力發(fā)展評(píng)估報(bào)告〉A(chǔ)I 城市算力TOP10 再出黑馬》,https://mp.weixin.qq.com/s/icf8o8g1M-XK2333J83SiQ,最后訪問(wèn)時(shí)間:2022年7月8日。人工智能產(chǎn)業(yè)持續(xù)發(fā)展,針對(duì)算法改進(jìn)及應(yīng)用的研發(fā)投入也逐步增加,使得算法發(fā)明獲得專(zhuān)利保護(hù)的需求也逐步提高。③劉強(qiáng):《人工智能算法發(fā)明可專(zhuān)利性問(wèn)題研究》,《時(shí)代法學(xué)》2019年第4期。實(shí)現(xiàn)算法的可專(zhuān)利化有利于提高企業(yè)對(duì)人工智能核心技術(shù)的自主掌控能力,從而進(jìn)一步提高科技領(lǐng)域的創(chuàng)新積極性。1972 年美國(guó)最高法院判決Gottschalk vs Benson 一案中,法院裁定計(jì)算機(jī)程序算法不可申請(qǐng)專(zhuān)利。④Gottschalk v.Benson, 409 U.S.63, 93 S.Ct.253, 34 L.Ed.2d 273,1972 U.S.LEXIS 129,175 U.S.P.Q.(BNA)673.然而,1994 年到2003 年間,美國(guó)授予的包含算法的發(fā)明數(shù)共79390件。⑤Zoracki A C.,“When Is an Algorithm Invented? The Need for a New Paradigm for Evaluating an Algorithm for Intellectual Property Protection ”. Albany Law Journal of Science and Technology,NO.15(2004).自此之后,理論界掀起關(guān)于算法是否可專(zhuān)利化的討論熱潮。除此之外,對(duì)于算法采取何種知識(shí)產(chǎn)權(quán)保護(hù)模式眾說(shuō)紛紜——版權(quán)保護(hù)模式也囊括其中??傮w來(lái)看,學(xué)界的觀點(diǎn)主要聚焦于算法的專(zhuān)利適格性之上,盡管可專(zhuān)利性判斷的具體標(biāo)準(zhǔn)尚未達(dá)成一致,但將算法納入可專(zhuān)利對(duì)象的態(tài)度卻是相同的。
如前所述,黑箱算法中往往涉及企業(yè)的商業(yè)秘密和大量用戶(hù)的隱私數(shù)據(jù)。而公開(kāi)性是專(zhuān)利的一大特征,算法可專(zhuān)利化則意味著算法的公開(kāi)。在這一層面,專(zhuān)利和商業(yè)秘密對(duì)算法的保護(hù)手段是截然不同的,專(zhuān)利制度旨在以技術(shù)信息的公開(kāi)來(lái)獲取限期壟斷地位,而商業(yè)秘密則具有相反的功能即通過(guò)保密來(lái)獲得更大的競(jìng)爭(zhēng)優(yōu)勢(shì)。專(zhuān)利制度公開(kāi)源代碼蘊(yùn)含對(duì)算法商業(yè)價(jià)值的挑戰(zhàn),而保留個(gè)人數(shù)據(jù)則有損私主體的權(quán)益。
1.破壞商業(yè)秘密效能
在大數(shù)據(jù)時(shí)代,算法源代碼是企業(yè)據(jù)以保持競(jìng)爭(zhēng)優(yōu)勢(shì)的關(guān)鍵所在。一個(gè)成功的算法源代碼需要投入巨額成本加以開(kāi)發(fā),重要性不言而喻。從企業(yè)強(qiáng)烈抗拒披露源代碼的態(tài)度可以窺見(jiàn)公開(kāi)的不利影響。例如,在Williams vs Apple 一案中。Aconfora 的證詞詳細(xì)介紹了蘋(píng)果公司iCloud 存儲(chǔ)算法的工作原理,對(duì)此蘋(píng)果公司向加州法院提出了不予披露該項(xiàng)信息的請(qǐng)求,理由是公開(kāi)披露這些工作原理會(huì)損害蘋(píng)果公司的利益。具體而言,會(huì)泄露決定數(shù)據(jù)上傳優(yōu)先級(jí)和區(qū)域位置的算法參數(shù),而這些信息與蘋(píng)果公司的競(jìng)爭(zhēng)能力密切相關(guān)。①Williams v.Apple, Inc, 2021 U.S.Dist.LEXIS 114028, *1, 2021 WL 2476916.
考慮到專(zhuān)利制度是為獲得對(duì)某一發(fā)明創(chuàng)造的限期壟斷而放棄保密的權(quán)衡,專(zhuān)利權(quán)的喪失甚至專(zhuān)利權(quán)的限期性都會(huì)導(dǎo)致圍繞算法技術(shù)的保密性增加。資本增殖與商業(yè)利益增加是商業(yè)公司的建立初衷。當(dāng)社會(huì)公共利益與公司的競(jìng)爭(zhēng)優(yōu)勢(shì)發(fā)生沖突時(shí),為維系公司的存在和運(yùn)行,公共利益的實(shí)現(xiàn)不會(huì)是商業(yè)公司的首要選擇。②李曉輝:《算法商業(yè)秘密與算法正義》,《比較法研究》2021年第3期??梢岳斫獾氖?,相較于以向公眾尤其是競(jìng)爭(zhēng)對(duì)手公開(kāi)源代碼換取短期的壟斷地位,算法所有者將更希望對(duì)該算法保密。已有研究也表明:當(dāng)技術(shù)先發(fā)優(yōu)勢(shì)很大時(shí),發(fā)明者通常會(huì)使用保密措施來(lái)擴(kuò)大領(lǐng)先優(yōu)勢(shì);當(dāng)逆向工程很簡(jiǎn)單時(shí)——例如在制藥行業(yè)——公司將傾向于依靠專(zhuān)利來(lái)保護(hù)先發(fā)優(yōu)勢(shì)。③Levine D S, Sichelman T,“Why do Startups Use Trade Secrets”,Notre Dame Law Review,NO.94(2018).而算法作為一種專(zhuān)業(yè)信息,很難實(shí)施逆向工程,公開(kāi)將嚴(yán)重降低算法所有者的競(jìng)爭(zhēng)能力。
2.個(gè)人私權(quán)利受損
協(xié)商民主經(jīng)歷統(tǒng)一戰(zhàn)線(xiàn)的孕育和生長(zhǎng)后,發(fā)展為一種獨(dú)立的社會(huì)主義協(xié)商民主形式,成為我國(guó)社會(huì)主義民主政治的特有形式和獨(dú)特優(yōu)勢(shì)。它以自身豐富的內(nèi)涵和制度優(yōu)勢(shì)促進(jìn)統(tǒng)一戰(zhàn)線(xiàn)的發(fā)展。
我國(guó)對(duì)專(zhuān)利說(shuō)明書(shū)的具體要求為:發(fā)明或?qū)嵱眯滦偷臋?quán)利說(shuō)明書(shū)做出的說(shuō)明應(yīng)當(dāng)清楚、完整,以所屬技術(shù)領(lǐng)域的技術(shù)人員能夠?qū)崿F(xiàn)為準(zhǔn)。盡管我國(guó)對(duì)專(zhuān)利充分公開(kāi)的判斷標(biāo)準(zhǔn)限定為“能夠?qū)崿F(xiàn)”,但“清楚、完整”的要求是否能與“能夠?qū)崿F(xiàn)”這一條件等同成為獨(dú)立的要求向來(lái)備受爭(zhēng)議,我國(guó)“清楚、完整”的要求與《美國(guó)專(zhuān)利法》中的“書(shū)面描述”要求類(lèi)似,有學(xué)者對(duì)此持肯定意見(jiàn),認(rèn)可“書(shū)面描述”和“能夠制造和使用”是兩個(gè)獨(dú)立的要求。在此背景下,美國(guó)聯(lián)邦巡回上訴法院以“全席審理”的方式審理了Ariad vs Lilly案,探討《美國(guó)專(zhuān)利法》中是否存在單獨(dú)的書(shū)面描述要求。④呂炳斌:《專(zhuān)利說(shuō)明書(shū)充分公開(kāi)的判斷標(biāo)準(zhǔn)之爭(zhēng)》,《中國(guó)發(fā)明與專(zhuān)利》2010年第10期。但無(wú)論持哪方觀點(diǎn),不可否認(rèn)的是專(zhuān)利說(shuō)明書(shū)中僅對(duì)客體結(jié)構(gòu)進(jìn)行公開(kāi),而并不涉及到其中所收集到的數(shù)據(jù)。
在信息技術(shù)領(lǐng)域,谷歌既利用其專(zhuān)利搜索技術(shù)生成的數(shù)據(jù)為其提供競(jìng)爭(zhēng)優(yōu)勢(shì),也利用用戶(hù)的大量信息,如以前的搜索查詢(xún)、位置、社交網(wǎng)絡(luò)數(shù)據(jù)和其他個(gè)人信息,而這些信息可能會(huì)在其專(zhuān)利到期之后仍作為商業(yè)秘密保留,以改善其當(dāng)前的搜索查詢(xún)及針對(duì)這些用戶(hù)的定向廣告。⑤Simon B M:“Sichelman T.Data-generating Patents”,Northwestern University Law Review & NULR Online,NO.111(2016).當(dāng)今,個(gè)人信息早已明碼標(biāo)價(jià),數(shù)據(jù)成為“新型貨幣”。谷歌搜索引擎專(zhuān)利在有效期內(nèi)以及期限到期時(shí)以商業(yè)秘密的方式保留大量用戶(hù)數(shù)據(jù),結(jié)合用戶(hù)的青睞方向、個(gè)人喜好和消費(fèi)水平向用戶(hù)推送個(gè)性化產(chǎn)品,這些商品質(zhì)量和種類(lèi)相同卻實(shí)行不同的定價(jià)。我國(guó)2022年3月1日施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(下文簡(jiǎn)稱(chēng)《規(guī)定》)對(duì)該現(xiàn)象做出了明確規(guī)制?!兑?guī)定》第十七條說(shuō)明:算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶(hù)提供不針對(duì)其個(gè)人特征的選項(xiàng),或者向用戶(hù)提供便捷的關(guān)閉算法推薦服務(wù)的選項(xiàng)。至3月15日,抖音、今日頭條、微信、淘寶、百度、大眾點(diǎn)評(píng)、微博、小紅書(shū)等App均已上線(xiàn)算法關(guān)閉鍵,允許用戶(hù)在后臺(tái)一鍵關(guān)閉“個(gè)性化推薦”?!兑?guī)定》第二條中所說(shuō)的算法推薦技術(shù)是指利用生成合成類(lèi)、個(gè)性化推送類(lèi)、排序精選類(lèi)、檢索過(guò)濾類(lèi)、調(diào)度決策類(lèi)等算法技術(shù)向用戶(hù)提供信息。推薦算法的核心在于向用戶(hù)提供信息,但決策權(quán)仍掌握在用戶(hù)手中,例如,視頻平臺(tái)根據(jù)用戶(hù)的收藏夾推薦其他類(lèi)似高分電影,導(dǎo)航軟件綜合車(chē)輛數(shù)量、路況等因素向用戶(hù)推薦最優(yōu)路線(xiàn),在這類(lèi)算法推薦服務(wù)中,算法與用戶(hù)之間經(jīng)歷互動(dòng)過(guò)程,用戶(hù)享有選擇自由而非算法單方面決定,此時(shí)算法作為工具被算法使用者控制。然而,在算法自動(dòng)化決策領(lǐng)域,用戶(hù)的主體性不斷喪失。數(shù)據(jù)主體無(wú)法真正參與決策的形成過(guò)程,算法基于用戶(hù)提供的數(shù)據(jù)與衍生信息生成最終結(jié)果,而用戶(hù)無(wú)力對(duì)結(jié)果提出異議或改變??梢?jiàn),現(xiàn)有的法律規(guī)定無(wú)法充分解決算法損害個(gè)人私權(quán)利的問(wèn)題。
算法已經(jīng)成為各個(gè)領(lǐng)域的重要參與者。根據(jù)自動(dòng)化偏差理論,算法越無(wú)處不在,人們就越發(fā)依賴(lài)它。①Packin N G,“Consumer Finance and AI: The Death of Second Opinions?”,New York University Journal of Legislation and Public Policy,NO.22(2019).算法服務(wù)以不同的方式嵌入人們的日常生活,并不止步于推薦服務(wù)。借助技術(shù)的優(yōu)勢(shì)與用戶(hù)對(duì)大數(shù)據(jù)計(jì)算能力的信任,算法的工具屬性逐漸減弱。在諸多領(lǐng)域中限制乃至消除用戶(hù)的決策自主性與能動(dòng)性,重構(gòu)了算法平臺(tái)、用戶(hù)和個(gè)人數(shù)據(jù)之間的關(guān)系。某公民就曾被美國(guó)聯(lián)邦尋親處使用的算法誤認(rèn)定為“拒付撫養(yǎng)費(fèi)的父母”,莫名得到一張20.6萬(wàn)美元的罰單。②盧克·多梅爾:《算法時(shí)代:新經(jīng)濟(jì)的新引擎》,中信出版社,2016。據(jù)《中國(guó)日?qǐng)?bào)》雙語(yǔ)新聞報(bào)道,隨著疫情形勢(shì)的嚴(yán)峻,許多公司的辦公模式改成了居家遠(yuǎn)程辦公。而一家名為enaible的科創(chuàng)公司開(kāi)發(fā)了一款A(yù)I 技術(shù),它可以遠(yuǎn)程衡量員工的工作速度,提出更高效的工作方法。一家致力于阻止政府和大公司濫用技術(shù)的非營(yíng)利法律公司Foxglove 的聯(lián)合創(chuàng)始人Cori Crider 認(rèn)為,enaible 公司的機(jī)器學(xué)習(xí)算法在訓(xùn)練的數(shù)據(jù)集中也會(huì)存在偏差,也就是說(shuō)算法的原始數(shù)據(jù)可能就天然地將不公正因素納入其中,如果這些算法被用來(lái)評(píng)估員工的表現(xiàn),當(dāng)出現(xiàn)不公正的考核時(shí),員工就很難對(duì)這樣的考核提出申訴。③《“云監(jiān)工”軟件上線(xiàn)!網(wǎng)友:再也不能愉快地“摸魚(yú)”了》,https://cloud.tencent.com/developer/news/644856,最后訪問(wèn)時(shí)間:2022年7月8日。在這些領(lǐng)域,算法權(quán)力不斷擴(kuò)張并滋生風(fēng)險(xiǎn),卻欠缺相應(yīng)的規(guī)制與救濟(jì)措施,原因在于:算法對(duì)個(gè)人數(shù)據(jù)的使用隱含在黑箱之中不為人所知,所作決策的依據(jù)無(wú)需告知公眾,公眾難以質(zhì)疑算法的錯(cuò)誤決策。算法歧視并不僅僅停留在價(jià)格領(lǐng)域,在刑事定罪量刑、醫(yī)學(xué)治療領(lǐng)域也廣泛存在。算法歧視引致的權(quán)利失衡,不僅是抽象層面平等權(quán)的失衡,還包括具象層面隱私權(quán)、選擇權(quán)的失衡。④張莉莉、朱子升:《算法歧視的法律規(guī)制:動(dòng)因、路徑和制度完善》,《科技與法律(中英文)》2021年第2期。在涉及到算法歧視的救濟(jì)時(shí),由于用戶(hù)數(shù)據(jù)未公開(kāi),算法所有者往往以算法錯(cuò)誤等借口搪塞權(quán)利人,權(quán)利人尋求損失賠償受阻。
算法作為一門(mén)技術(shù)本身具有中立性,而算法一旦應(yīng)用所產(chǎn)生的社會(huì)效應(yīng)則必然具備雙面性。倡議以知識(shí)產(chǎn)權(quán)保護(hù)算法自無(wú)不可,但不能忽視算法黑箱在實(shí)際生活中引起的私主體平等權(quán)危機(jī)、私人資本支配公權(quán)力、司法救濟(jì)危機(jī)和侵害個(gè)人數(shù)據(jù)信息等重重風(fēng)險(xiǎn)。相較于算法保護(hù),算法規(guī)制的優(yōu)先級(jí)更高。若不加以辨別和篩選便將所有算法納入保護(hù)對(duì)象,將危及一眾算法決策相對(duì)人。
正如前文所述,以專(zhuān)利制度來(lái)保護(hù)算法并不意味著私主體知曉對(duì)本人有重大影響的決策是如何做出、個(gè)人數(shù)據(jù)是否被濫用、當(dāng)算法發(fā)生決策失誤和隱性歧視時(shí)該如何救濟(jì)自身權(quán)利。在私人領(lǐng)域,在線(xiàn)零售巨頭亞馬遜就曾開(kāi)發(fā)出一種算法用以做出招聘決策,該算法可以依據(jù)求職者的簡(jiǎn)歷對(duì)其進(jìn)行排名,從而實(shí)現(xiàn)招聘的自動(dòng)化。結(jié)果該算法挑選的男性求職者數(shù)量遠(yuǎn)超于女性,原因在于開(kāi)發(fā)者以過(guò)去十年提交的技術(shù)工作簡(jiǎn)歷作為設(shè)計(jì)算法挑選候選人的標(biāo)準(zhǔn),而擔(dān)任該工作的員工大部分都是男性。①Bornstein S,“Antidiscriminatory Algorithms”.Alabama Law Review,NO.70(2018).在公共領(lǐng)域,管理美國(guó)密歇根州逃犯重罪犯政策的算法不正當(dāng)?shù)厝∠顺^(guò)19000 名居民獲得食品援助福利的資格,而沒(méi)有使其得到足夠的通知或聽(tīng)取意見(jiàn)的機(jī)會(huì)。管理科羅拉多州公共福利系統(tǒng)的算法中發(fā)現(xiàn)了900多個(gè)錯(cuò)誤,導(dǎo)致數(shù)十萬(wàn)個(gè)不正確的醫(yī)療補(bǔ)助、食品券和福利資格確定。②Bunnell N.Remedying Public-Sector Algorithmic Harms,“The Case for Local and State Regulation via Independent Agency”,olumbia Journal of Law and Social Problems,NO.54(2020).據(jù)股城網(wǎng)2018 年3 月的報(bào)道,某位用戶(hù)經(jīng)常通過(guò)旅行網(wǎng)站預(yù)訂某酒店的房間,一晚價(jià)格通常在380—400元左右;而在淡季的某日,該旅客以自己的賬號(hào)登錄該網(wǎng)站查詢(xún)到該酒店價(jià)格仍為380元,但隨后登錄其朋友賬號(hào)查詢(xún),酒店價(jià)格卻顯示為300 元。③股城網(wǎng):《同一酒店兩個(gè)價(jià)格 小心掉入大數(shù)據(jù)“殺熟”圈套》,https://consumer.gucheng.com/201803/3383747.shtml,最后訪問(wèn)時(shí)間:2022年5月29日,這些例子足以說(shuō)明黑箱算法產(chǎn)生的負(fù)面影響之廣泛。需要看到的是,算法被所有者賦予了公平正義的價(jià)值內(nèi)涵,希望借以做出客觀決策,從而克服人類(lèi)的主觀偏見(jiàn)。但欠缺透明度的算法非但不能實(shí)現(xiàn)公正價(jià)值的應(yīng)然到實(shí)然轉(zhuǎn)變,反倒會(huì)置算法決策相對(duì)人于不利地位。在此背景下,算法解釋?xiě)?yīng)運(yùn)而生,其旨在破除算法黑箱的屏障,通過(guò)解釋算法的自動(dòng)化決策來(lái)規(guī)制算法黑箱,進(jìn)而達(dá)到緩和乃至消除算法決策隱私以及歧視風(fēng)險(xiǎn)的目的。④張恩典:《大數(shù)據(jù)時(shí)代的算法解釋權(quán):背景、邏輯與構(gòu)造》,《法學(xué)論壇》2019年第4期。
專(zhuān)利保護(hù)算法以公開(kāi)代碼為指向,所有者又往往將代碼作為商業(yè)秘密予以嚴(yán)格保護(hù),拒絕使公眾知曉具體內(nèi)容。代碼的完全公開(kāi)無(wú)疑會(huì)打擊所有者的創(chuàng)造積極性,但一味不披露又會(huì)造成一系列負(fù)面影響。代碼的商業(yè)秘密屬性確實(shí)對(duì)算法的解釋構(gòu)成一定的限制,但這種限制是相對(duì)的而不是絕對(duì)的。平衡二者之間的緊張關(guān)系可以借鑒比例原則,比例原則是指通過(guò)比較利益的位階高低尋找平衡點(diǎn),并最終以最緩和的方式侵害低位階利益,這種侵害同時(shí)也不得超過(guò)必要限度。落實(shí)到算法解釋與商業(yè)秘密的沖突之中,則是為了保護(hù)算法決策相對(duì)人的正當(dāng)利益,了解算法模型的內(nèi)部運(yùn)作與考慮因素從而評(píng)估該算法的公平程度,可以適當(dāng)?shù)姆绞接邢薅鹊赝黄扑惴ǖ纳虡I(yè)秘密保護(hù)。狹義的比例原則也要求以最緩和的手段來(lái)實(shí)現(xiàn)算法說(shuō)明的目的。由此,算法說(shuō)明應(yīng)當(dāng)以最緩和的方式進(jìn)行,減少對(duì)商業(yè)秘密的破壞和侵害。⑤呂炳斌:《論個(gè)人信息處理者的算法說(shuō)明義務(wù)》,《現(xiàn)代法學(xué)》2021年第4期。
總而言之,算法解釋制度是解決算法歧視、算法不可責(zé)性、個(gè)人平等權(quán)保護(hù)以及算法所有者維護(hù)競(jìng)爭(zhēng)優(yōu)勢(shì)等問(wèn)題的共同需求,有助于促進(jìn)算法自動(dòng)化決策中公正價(jià)值的充分發(fā)揮,是算法所有者利益和算法決策相對(duì)人利益的平衡點(diǎn),對(duì)于雙方都具有重要意義。解決該問(wèn)題的關(guān)鍵在于構(gòu)建一個(gè)事前解釋和事后解釋相結(jié)合的機(jī)制,既要注重面對(duì)特定相對(duì)人、特定具體決策的解釋?zhuān)矐?yīng)當(dāng)著眼于一般意義上的系統(tǒng)功能說(shuō)明,只有這種貫穿于算法自動(dòng)化決策全過(guò)程的算法解釋才能切實(shí)保障社會(huì)公眾的個(gè)人權(quán)益。
本文中算法的事后解釋指的是:當(dāng)算法自動(dòng)化決策對(duì)算法決策相對(duì)人產(chǎn)生法律上或者經(jīng)濟(jì)上的顯著影響時(shí),相對(duì)人向算法所有者提出請(qǐng)求,要求其提供具體決策解釋?zhuān)⒏聰?shù)據(jù)或錯(cuò)誤,算法所有者以不同方式回應(yīng)算法直接影響者和間接影響者請(qǐng)求的制度。①?gòu)埩韬骸渡虡I(yè)自動(dòng)化決策的算法解釋權(quán)研究》,《法律科學(xué)(西北政法大學(xué)學(xué)報(bào))》2018年第3期。
1.算法事后解釋的形式
主體對(duì)解釋的關(guān)注以對(duì)算法透明度和自身權(quán)益保障的需求為驅(qū)動(dòng)力,算法決策相對(duì)人的救濟(jì)困境產(chǎn)生算法的問(wèn)責(zé)需求。而從邏輯學(xué)的角度考慮:?jiǎn)栘?zé)需要理由,理由需要解釋。為了證明算法生成結(jié)果的合理性,算法所有者有必要對(duì)該算法的運(yùn)行過(guò)程進(jìn)行解釋。那么,算法決策相對(duì)人需要什么形式的解釋?zhuān)颗e例來(lái)說(shuō),在Selex vs Google 一案中,唯一公開(kāi)的算法是以三層流程圖的結(jié)構(gòu)展現(xiàn),它概述了控制模塊將根據(jù)指定的考慮因素確定是直接還是間接發(fā)出呼叫的三步過(guò)程。然而,除非結(jié)合包含在說(shuō)明書(shū)中的查找表來(lái)查看該結(jié)構(gòu),否則,本領(lǐng)域普通技術(shù)人員將無(wú)法辨別本發(fā)明的參數(shù)。②Selex Communs, Inc.v.Google Inc., 2013 U.S.Dist.LEXIS 50061, 2013 WL 1412334.谷歌的這類(lèi)解釋是不可取的,它具有真實(shí)性但毫無(wú)意義。衡量需要什么形式的解釋?zhuān)艽蟪潭壬先Q于權(quán)利主體的請(qǐng)求內(nèi)容。為了回應(yīng)算法決策相對(duì)人的糾錯(cuò)和權(quán)利救濟(jì)需求,算法所有者要對(duì)算法進(jìn)行解釋?zhuān)员阋粋€(gè)普遍不具有算法專(zhuān)業(yè)知識(shí)的群體理解??梢?jiàn),在算法的事后解釋中,相關(guān)的技術(shù)細(xì)節(jié)并不是解釋的重點(diǎn),需要披露的是算法是如何利用用戶(hù)的相關(guān)數(shù)據(jù)得出決策結(jié)果,哪些因素被考量在內(nèi)。
2.必要時(shí)的反事實(shí)解釋
受算法自動(dòng)化決策影響的主體范圍十分普遍,算法決策的具體相對(duì)人為該決策的直接影響對(duì)象,除此之外還包括大量間接影響對(duì)象。以招聘算法為例,若應(yīng)聘者A對(duì)招聘結(jié)果提出異議并得到支持,A 是該招聘算法的直接影響對(duì)象,其他應(yīng)聘者則是間接影響對(duì)象。面向具體決策相對(duì)人的事后解釋無(wú)法解決用戶(hù)隱私與他人知情權(quán)之間的沖突。前者以打開(kāi)算法黑箱的方式,向數(shù)據(jù)主體說(shuō)明其具體隱私數(shù)據(jù)在算法中的運(yùn)用與考量,期間無(wú)需向第三人披露數(shù)據(jù)主體的相關(guān)信息,因而并不侵犯?jìng)€(gè)人隱私權(quán)。而當(dāng)解釋對(duì)象轉(zhuǎn)變?yōu)殚g接影響者后,該類(lèi)主體同樣具有對(duì)算法決定提出異議的權(quán)利,但受個(gè)人信息保護(hù)權(quán)益限制,前文提及的解釋方法已不適用。對(duì)此,本文提出反事實(shí)解釋?xiě)?yīng)對(duì)該困境。反事實(shí)解釋并不試圖以個(gè)人隱私數(shù)據(jù)為基礎(chǔ)闡述算法決策的工作原理,它旨在通過(guò)提供最少的影響決策的關(guān)鍵性信息,使無(wú)權(quán)知悉相關(guān)個(gè)人數(shù)據(jù)的主體在不打開(kāi)算法黑箱的情況下了解該決策的合理性與公正性,期間無(wú)需透露任何敏感信息。其克服了在保護(hù)數(shù)據(jù)主體隱私的情況下對(duì)間接影響者做出解釋的挑戰(zhàn),以便其理解算法依據(jù)何種理由做出決定、對(duì)不利決定進(jìn)行反駁并可以根據(jù)現(xiàn)有的決策邏輯做出相應(yīng)轉(zhuǎn)變從而在未來(lái)獲得期望結(jié)果。
在伍德沃德(Woodward)看來(lái)“解釋是一個(gè)闡明反事實(shí)依賴(lài)系統(tǒng)模式的事情”,也就是說(shuō),解釋必須能夠用來(lái)回答解釋項(xiàng)的“如果情況不同”(what if things had been different)問(wèn)題或反事實(shí)問(wèn)題。①初維峰:《因果解釋的反事實(shí)理論與自然律》,《科學(xué)技術(shù)哲學(xué)研究》2019年第4期。反事實(shí)解釋是指通過(guò)闡述導(dǎo)致該決定所依賴(lài)的事實(shí)變量,當(dāng)該變量發(fā)生變化后所導(dǎo)致的結(jié)果的說(shuō)明。如前述的招聘算法中,其他應(yīng)聘者請(qǐng)求算法所有者對(duì)應(yīng)聘者A 改變的結(jié)果進(jìn)行解釋時(shí),得到的答案形式為:如果A 的工作經(jīng)驗(yàn)低于5 年,那么他將不會(huì)獲得這份工作。而應(yīng)聘者A 本人得到的解釋將會(huì)為:因?yàn)槟愕墓ぷ鹘?jīng)驗(yàn)為8年,符合崗位要求,因而獲得該崗位。反事實(shí)解釋通過(guò)識(shí)別影響決策的變量,這種變量是一種概括性概念而非具體數(shù)值,聯(lián)系算法工作的邏輯,描述當(dāng)算法內(nèi)部變量發(fā)生變化時(shí)所產(chǎn)生的不同結(jié)果。反事實(shí)解釋的陳述形式由兩部分組成,即決定變量(如工作經(jīng)驗(yàn))和結(jié)論(如得到工作),其特點(diǎn)為結(jié)論與現(xiàn)存事實(shí)相反,解釋并不涉及決策相對(duì)人的數(shù)據(jù)信息。內(nèi)部邏輯構(gòu)成為現(xiàn)有影響決策的關(guān)鍵變量的具體值導(dǎo)致了現(xiàn)存事實(shí)即結(jié)論,當(dāng)該變量發(fā)生變化滿(mǎn)足某種條件且其他變量保持不變時(shí),結(jié)論隨之發(fā)生改變。
受解釋對(duì)象和范圍的限制,反事實(shí)解釋的適用場(chǎng)景有限。其無(wú)法揭示黑箱算法的內(nèi)部邏輯,作為因果解釋的屬概念,反事實(shí)解釋以最直接的途徑將主體的數(shù)據(jù)與算法所有者植入算法的篩選標(biāo)準(zhǔn)相結(jié)合,相對(duì)模糊地反映了算法中的因果關(guān)系。但對(duì)于算法系統(tǒng)基本原理的闡述仍有諸多欠缺。從反事實(shí)解釋的陳述形式來(lái)看,一個(gè)乃至多個(gè)反事實(shí)的存在,表面上反映了該算法納入的多種考慮因素,但從算法所有者的利益立場(chǎng)出發(fā),諸如種族、性別等歧視性因素勢(shì)必置身于陰影之下。為了根除算法系統(tǒng)的不公平性,應(yīng)增加其他形式的解釋制度克服相關(guān)挑戰(zhàn)。
算法的事后解釋是給予用戶(hù)個(gè)人的私法請(qǐng)求權(quán)。②劉云:《論可解釋的人工智能之制度構(gòu)建》,《江漢論壇》2020年第12期。用戶(hù)可以通過(guò)提起個(gè)案訴訟來(lái)滿(mǎn)足自己的具體需求,但是這種事后解釋僅適用于算法決策相對(duì)人的權(quán)益被侵害之后的司法救濟(jì),其普適性不高。其在算法糾錯(cuò)效率、公共利益的保護(hù)等方面也存在一定的局限性,難以實(shí)現(xiàn)對(duì)算法權(quán)力的有力規(guī)制,需要引入算法的外部監(jiān)管和運(yùn)營(yíng)方負(fù)有說(shuō)明義務(wù)的模式對(duì)算法進(jìn)行事前解釋?zhuān)瑥亩鴮?shí)現(xiàn)對(duì)算法的全面治理。個(gè)人權(quán)益的保護(hù)應(yīng)始于算法投入應(yīng)用之前,通過(guò)外部監(jiān)管力量的介入和算法所有者的自律從根源上防范算法可能導(dǎo)致的種種風(fēng)險(xiǎn)。
與黑箱算法相似的是,藥品數(shù)據(jù)的保護(hù)同樣面臨該問(wèn)題:首先,從企業(yè)視角出發(fā),藥品的開(kāi)發(fā)也需要長(zhǎng)時(shí)間的測(cè)試與人力金錢(qián)投入,具備商業(yè)秘密的屬性;其次,藥品的作用機(jī)制如同一個(gè)黑盒不可預(yù)測(cè)。人體是現(xiàn)存最復(fù)雜的系統(tǒng)之一,具有的遺傳變異、生物途徑、蛋白質(zhì)表達(dá)模式、代謝物濃度和運(yùn)動(dòng)模式(僅舉出幾十個(gè)變量中的幾個(gè))對(duì)每個(gè)人的影響都不同,而這些變量中只有少數(shù)被科學(xué)家充分理解。當(dāng)一種藥物不起作用或患者患上罕見(jiàn)疾病時(shí),原因可能是某些遺傳變異、代謝物濃度或環(huán)境差異——或者這些變量中的幾個(gè)以醫(yī)生可能永遠(yuǎn)無(wú)法理解的方式共同作用。③Ford R A, Price W, Nicholson I I.,“Privacy and Accountability in Black-Box Medicine”,MichiganTechnology Law Review,NO.23(2016).這帶來(lái)的挑戰(zhàn)——藥品數(shù)據(jù)的保護(hù)與問(wèn)責(zé)之間的矛盾,與本文所探討的算法事前解釋制度所要克服的困難不約而同。對(duì)此,以美國(guó)的藥品數(shù)據(jù)保護(hù)模式為例,1997 年《食品、藥品和化妝品條例》第355 節(jié)、1984 年《藥品價(jià)格競(jìng)爭(zhēng)與專(zhuān)利期延長(zhǎng)法》以及1983 年《孤兒藥品法》規(guī)定了對(duì)藥品試驗(yàn)數(shù)據(jù)的排他權(quán)利保護(hù)。④馮潔菡:《TRIPS 協(xié)議下對(duì)藥品試驗(yàn)數(shù)據(jù)的保護(hù)及限制——以國(guó)際法和比較法為視角》,《武大國(guó)際法評(píng)論》2010年第1期。該保護(hù)模式的重點(diǎn)就在于安全性與有效性,其保護(hù)目的正與構(gòu)建算法事前解釋制度的要求相契合。
1.算法外部監(jiān)管:公開(kāi)源代碼的審核與測(cè)試
算法的事前解釋建立在保護(hù)算法的秘密性利益的基礎(chǔ)之上,因而外部的監(jiān)管力量重點(diǎn)在于主管機(jī)關(guān)對(duì)算法所有者向其公開(kāi)的源代碼進(jìn)行審核和監(jiān)督,確保算法并沒(méi)有將種族等不公平因素納入評(píng)估機(jī)制之中。如拉姆和艾薩克(Lum & Isaac)在研究預(yù)測(cè)性警務(wù)系統(tǒng)(PredPol)時(shí)就發(fā)現(xiàn)了其存在嚴(yán)重偏見(jiàn),該系統(tǒng)標(biāo)記可能發(fā)生犯罪的區(qū)域時(shí),輸入該算法的數(shù)據(jù)似就已經(jīng)存在偏差——雖然毒品犯罪分布在各個(gè)城市,但警察逮捕的毒品犯罪卻不成比例地位于非白人地區(qū),這就表明該算法不恰當(dāng)?shù)貙?lái)自代表性不足的群體的人標(biāo)記為有犯罪風(fēng)險(xiǎn)。①Castets-Renard C.Accountability of Algorithms in the GDPR and Beyond,“A European Legal Framework on Automated Decision-Making”,F(xiàn)ordham Intellectual Property, Media & Entertainment Law Journal,NO.30(2019).
算法行業(yè)的高創(chuàng)新率與理解的專(zhuān)業(yè)性要求算法監(jiān)管機(jī)關(guān)必須具備獨(dú)立的法律地位與專(zhuān)業(yè)的知識(shí)人才,從而有效應(yīng)對(duì)算法進(jìn)入市場(chǎng)之前廣泛的測(cè)試與評(píng)估。與藥品數(shù)據(jù)保護(hù)制度類(lèi)似,算法所有者在享有一定期限的市場(chǎng)排他權(quán)的同時(shí),需要向特定群體公開(kāi)源代碼,確保其維持一定的競(jìng)爭(zhēng)優(yōu)勢(shì),保證其獲得足夠的經(jīng)濟(jì)回報(bào),實(shí)現(xiàn)激勵(lì)算法創(chuàng)新的目標(biāo)。②前引④,第103頁(yè)??紤]到民主透明度和商業(yè)競(jìng)爭(zhēng)之間的緊張關(guān)系,算法的公開(kāi)只要求最低限度的必要披露——源代碼披露對(duì)象僅限于行政主管機(jī)關(guān),源代碼對(duì)于非專(zhuān)家人員來(lái)說(shuō)是難以辨認(rèn)的,因而無(wú)需向公眾尤其是競(jìng)爭(zhēng)對(duì)手公開(kāi)源代碼,從而適當(dāng)?shù)乇Wo(hù)公司的商業(yè)秘密。
出于保護(hù)公共利益的考慮,對(duì)于算法所有者申報(bào)的源代碼,主管機(jī)關(guān)可對(duì)其進(jìn)行靜態(tài)與動(dòng)態(tài)測(cè)試,判斷該算法是否合理且公正,確保算法決策過(guò)程符合管理決策的社會(huì)道德及法律標(biāo)準(zhǔn)。算法的隱性歧視可能難以發(fā)現(xiàn),但可以通過(guò)分析算法的源代碼,以便事前審查算法的運(yùn)作標(biāo)準(zhǔn),并在運(yùn)行中進(jìn)行驗(yàn)證。靜態(tài)測(cè)試著重于確定程序的運(yùn)行邏輯,例如接收的數(shù)據(jù)的性質(zhì)、可以產(chǎn)生的輸出類(lèi)型、程序的一般形式以及程序?qū)嵤┲猩婕暗募夹g(shù)。特別是,靜態(tài)分析可以揭示出導(dǎo)致程序以特定方式運(yùn)行的輸入類(lèi)型。③Kroll J A, Huey J, Barocas S, et al,“Accountable Algorithms”,University of Pennsylvania Law Review, NO.165(2017).在這種情況下,主管機(jī)關(guān)可以初步判斷出在輸入端輸入相同的數(shù)據(jù)類(lèi)型可產(chǎn)生一樣的結(jié)果。盡管源代碼是對(duì)自身程序的精確說(shuō)明,但仍然不能保證其在現(xiàn)實(shí)世界發(fā)生變化時(shí)會(huì)保持準(zhǔn)確。因此需要結(jié)合輸入數(shù)據(jù)對(duì)信息進(jìn)行動(dòng)態(tài)分析——它可以針對(duì)不同的輸入表現(xiàn)出截然不同的輸出或行為,而靜態(tài)分析沒(méi)有考慮到具體的運(yùn)行場(chǎng)景。動(dòng)態(tài)運(yùn)行是指在運(yùn)行算法程序的同時(shí)通過(guò)特定輸入的數(shù)據(jù)來(lái)評(píng)估輸出,該法是對(duì)靜態(tài)審查的結(jié)果進(jìn)行二次判斷,即算法在運(yùn)行實(shí)踐中是否符合審查標(biāo)準(zhǔn)。
算法事前解釋的核心內(nèi)容在于以何種激勵(lì)方式鼓勵(lì)算法所有者公開(kāi)源代碼。正如現(xiàn)代交換理論代表人物之一霍曼斯所言:人類(lèi)行為是個(gè)人之間進(jìn)行報(bào)酬和懲罰的交換,交換理論的核心是工具理性。④戴丹:《從功利主義到現(xiàn)代社會(huì)交換理論》,《蘭州學(xué)刊》2005年第2期。與此相對(duì)應(yīng),美國(guó)的藥品數(shù)據(jù)保護(hù)同樣體現(xiàn)出藥品所有者相關(guān)數(shù)據(jù)的保密利益與用藥安全等公共利益之間的矛盾,其保護(hù)的具體規(guī)定為:新藥申請(qǐng)人為了獲得首次上市批準(zhǔn)而向食品藥品監(jiān)督管理局提交的證明藥品安全性和有效性的未公開(kāi)實(shí)驗(yàn)數(shù)據(jù),食品藥品監(jiān)督管理局在有效保護(hù)期內(nèi)不得再利用該數(shù)據(jù)批準(zhǔn)其他仿制藥的上市。①楊莉、李野、岳晨妍:《美國(guó)的藥品數(shù)據(jù)保護(hù)及啟示》,《中國(guó)藥房》2007年第10期。算法所有者也應(yīng)享有類(lèi)同權(quán)利——源代碼一旦上報(bào)主管機(jī)關(guān)并審核通過(guò),算法所有者可以獲得一定保護(hù)期內(nèi)的排他使用權(quán),在該保護(hù)期內(nèi)禁止目標(biāo)代碼相同或高度相似的算法進(jìn)入人工智能市場(chǎng),除非其能獲得前申請(qǐng)人的使用授權(quán)。由此,披露要求給算法所有者帶來(lái)的成本將顯著減少,有利于成功建立算法解釋制度并使算法所有者遵守增加的披露負(fù)擔(dān)。
2.算法內(nèi)部規(guī)制:面向使用者的披露與說(shuō)明
算法的公開(kāi)程度因披露對(duì)象的不同而有所變化,與面向主管機(jī)關(guān)的披露不同,算法所有者面向公眾的事前解釋類(lèi)似于美國(guó)證券交易監(jiān)督委員會(huì)的披露內(nèi)容,這些披露不涉及算法源代碼等方面的商業(yè)秘密或其他技術(shù)細(xì)節(jié),但提供算法如何運(yùn)作、什么因素是有意義的變量、采用何種邏輯等信息。無(wú)形的“算法之手”對(duì)特定個(gè)人或群體進(jìn)行不公平推斷或?qū)⑺麄儭皹?biāo)簽化”,如今大數(shù)據(jù)分析技術(shù)在分類(lèi)篩選時(shí)很可能會(huì)因種種不恰當(dāng)?shù)睦碛蓪⒅黧w劃分入某種類(lèi)型,并限制其權(quán)利或排除其機(jī)會(huì)。②解正山:《算法決策規(guī)制——以算法“解釋權(quán)”為中心》,《現(xiàn)代法學(xué)》2020年第1期。此類(lèi)算法的運(yùn)作過(guò)程隱蔽性強(qiáng),單純依賴(lài)事后的個(gè)案救濟(jì)無(wú)法有效對(duì)抗算法帶來(lái)的危害。在這種情況下,相關(guān)的披露義務(wù)將會(huì)促使算法所有者對(duì)算法進(jìn)行可持續(xù)的管理。信息披露使公眾更容易發(fā)現(xiàn)公司的非法或不道德行為并比較它們的表現(xiàn),因此公司將面臨更廣泛的監(jiān)控,避免不滿(mǎn)足公眾標(biāo)準(zhǔn)而在競(jìng)爭(zhēng)激烈的人工智能市場(chǎng)失去市場(chǎng)份額。
以算法推薦服務(wù)設(shè)置的披露說(shuō)明為例:中國(guó)青年報(bào)社會(huì)調(diào)查中心聯(lián)合問(wèn)卷網(wǎng),對(duì)1144 名受訪者進(jìn)行的一項(xiàng)調(diào)查顯示,75.3%的受訪者曾被算法推薦服務(wù)困擾過(guò)。③王品芝、潘澤強(qiáng):《75.3%受訪者曾被算法推薦服務(wù)困擾》,《中國(guó)青年報(bào)》2022年3月24日,第10版。《規(guī)定》出臺(tái)之后,53.8%的受訪者表示會(huì)選擇關(guān)閉算法推薦功能。④王品芝、潘澤強(qiáng):《算法新規(guī)施行53.8%受訪者表示會(huì)選擇關(guān)閉算法推薦》,《中國(guó)青年報(bào)》2022 年3 月24 日,第10版。目前,包括抖音在內(nèi)的多個(gè)平臺(tái)上線(xiàn)的算法關(guān)閉鍵,多無(wú)明顯提示或說(shuō)明,算法平臺(tái)將關(guān)閉鍵掩藏于軟件深處。個(gè)性化推薦使平臺(tái)可預(yù)測(cè)或推斷消費(fèi)者的數(shù)據(jù)與其提供的產(chǎn)品和服務(wù)之間的關(guān)系,進(jìn)而實(shí)現(xiàn)商業(yè)追求。部分APP如抖音、小紅書(shū)的商業(yè)模式本身就建立在個(gè)性化推薦的基礎(chǔ)之上,依托于今日頭條團(tuán)隊(duì)開(kāi)發(fā)的供需匹配程序,為每位短視頻觀看者推薦他更喜歡的視頻是抖音短視頻平臺(tái)的競(jìng)爭(zhēng)優(yōu)勢(shì)之一。⑤王水蓮、李志剛、杜瑩瑩;《共享經(jīng)濟(jì)平臺(tái)價(jià)值創(chuàng)造過(guò)程模型研究——以滴滴、愛(ài)彼迎和抖音為例》,《管理評(píng)論》2019年第7期。與此同時(shí),抖音在個(gè)性化推薦設(shè)置界面強(qiáng)調(diào)了用戶(hù)可以通過(guò)長(zhǎng)按不感興趣的選項(xiàng)調(diào)整所看內(nèi)容,且關(guān)閉個(gè)性化推薦之后可能會(huì)降低使用體驗(yàn)。受該模式吸引的用戶(hù)困于有限的關(guān)閉動(dòng)機(jī)和理性,個(gè)人數(shù)據(jù)的保護(hù)難以真正實(shí)現(xiàn)。實(shí)證研究表明,簡(jiǎn)化的披露或警告標(biāo)簽對(duì)消費(fèi)者了解隱私披露與否、披露信息的意愿或?qū)﹄[私權(quán)的期望幾乎沒(méi)有影響。⑥Busch C.,“Implementing personalized law ”,The University of Chicago Law Review,NO.2(2019).目前的通知范式作為算法規(guī)制工具的有效性存疑。
個(gè)性化推薦說(shuō)明算法技術(shù)不僅有能力基于個(gè)人數(shù)據(jù)向用戶(hù)提供個(gè)性化推薦的設(shè)置通知且產(chǎn)生積極效果,且表明用戶(hù)傾向于以個(gè)性化方式獲取信息。奧爾波特說(shuō),“社會(huì)范疇化主導(dǎo)著我們整個(gè)思維生活……人類(lèi)心智必須在范疇的幫助下才能思考……范疇一旦形成,就會(huì)成為平常的預(yù)前判斷的基礎(chǔ)。我們不可能避免這個(gè)過(guò)程,生活中的秩序端賴(lài)這個(gè)過(guò)程”。⑦高明華:《偏見(jiàn)的生成與消解:評(píng)奧爾波特〈偏見(jiàn)的本質(zhì)〉》,《社會(huì)》2015年第1期。所謂的以個(gè)人興趣為核心的“信息繭房”本身,其實(shí)是由個(gè)人的選擇和注意所決定的。當(dāng)前的個(gè)性化推薦設(shè)置界面,無(wú)論是什么形式,都沒(méi)有考慮到用戶(hù)的隱私數(shù)據(jù)使用傾向。個(gè)性化推薦服務(wù)收集的數(shù)據(jù)類(lèi)型眾多(包括瀏覽記錄、收藏、發(fā)布信息、關(guān)注信息、訪問(wèn)日期和時(shí)間等),不同人的隱私保護(hù)意愿程度、使用目的(如排序精選、檢索過(guò)濾等)不同。目前的通知方式并未考慮到用戶(hù)的隱私保護(hù)意愿,對(duì)于個(gè)性化推薦服務(wù)設(shè)置的通知應(yīng)當(dāng)突破現(xiàn)有的標(biāo)準(zhǔn)范式而改為個(gè)性化通知,采取分層通知的辦法,可借助彈窗等工具明顯告知用戶(hù)該類(lèi)算法需要利用何種數(shù)據(jù)提供何種信息,在保證用戶(hù)充分知情權(quán)的基礎(chǔ)上實(shí)現(xiàn)選擇權(quán)。
構(gòu)建算法的事前與事后解釋制度有助于破除算法黑箱的屏障,維護(hù)算法社會(huì)的公平正義。算法規(guī)制在兼顧所有者商業(yè)秘密利益的同時(shí),需協(xié)調(diào)社會(huì)公眾利益,站在二者的中間立場(chǎng),用算法保護(hù)察算法問(wèn)責(zé),以算法問(wèn)責(zé)促算法保護(hù)。具而言之,即在算法實(shí)際應(yīng)用之前有限度地披露相關(guān)信息并審查其公正性;并在算法進(jìn)入市場(chǎng)之后,賦予特定人救濟(jì)權(quán)利,確保公眾知情權(quán)的同時(shí)妥善處理其與個(gè)人隱私數(shù)據(jù)之間的緊張關(guān)系。