李文姝 劉道前
【摘要】人工智能與互聯(lián)網(wǎng)、大數(shù)據(jù)的加速融合誘發(fā)新型社會(huì)風(fēng)險(xiǎn),提出了信息規(guī)制的新訴求??偨Y(jié)信息規(guī)制的相對(duì)性、公共性特征,反思信息自決機(jī)制,應(yīng)當(dāng)基于利益平衡的立場(chǎng),適恰地處理信息領(lǐng)域個(gè)人利益與公共利益的緊張關(guān)系。隱私場(chǎng)景理論為處理這種緊張關(guān)系提供了進(jìn)路,強(qiáng)調(diào)信息的適當(dāng)流通,建構(gòu)了信息規(guī)范的四項(xiàng)參數(shù),反對(duì)信息類型的二分法,提供了特定場(chǎng)景中“適當(dāng)”的分析工具。激勵(lì)與規(guī)范的視域下,應(yīng)當(dāng)從基于使用場(chǎng)景與敏感程度的同意規(guī)則,差異化應(yīng)用場(chǎng)景,以及法律、標(biāo)準(zhǔn)、協(xié)議、代碼的規(guī)范體系,技術(shù)自我規(guī)制四方面探索場(chǎng)景理論的應(yīng)用。
【關(guān)鍵詞】人工智能 ?信息規(guī)制 ?隱私場(chǎng)景理論 ?利益平衡
【中圖分類號(hào)】A811 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?【文獻(xiàn)標(biāo)識(shí)碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2019.06.008
基于James Andrew Bates案的風(fēng)險(xiǎn)考量。James Andrew Bates因一起發(fā)生在其家中的一級(jí)謀殺罪案件被指控,美國(guó)阿肯色州本頓維爾警方持許可令對(duì)其家中進(jìn)行搜查,發(fā)現(xiàn)包括亞馬遜Echo在內(nèi)的智能設(shè)備,并要求亞馬遜公司提供該智能設(shè)備在案發(fā)當(dāng)晚錄下且保存在云端服務(wù)器的音頻資料。亞馬遜最初以涉及用戶隱私為由拒絕,在貝茨同意后才予以提供。貝茨案中,亞馬遜公司的處理方式與蘋(píng)果公司拒絕聯(lián)邦調(diào)查局解鎖犯罪嫌疑人賽義德·法魯克的蘋(píng)果手機(jī)極為相似,但又存在區(qū)別于后者的新問(wèn)題:智能設(shè)備無(wú)時(shí)無(wú)刻不在記錄并存儲(chǔ)著用戶信息(除了Echo之外,警方還通過(guò)smart meter發(fā)現(xiàn)在被害人死亡的時(shí)間有大量的水被使用),這種信息收集區(qū)別于以往的電子通訊工具、互聯(lián)網(wǎng)社交平臺(tái),因?yàn)橹悄芗揖釉O(shè)備的功能不是社會(huì)交互,該應(yīng)用場(chǎng)景中的用戶對(duì)“戶”具有合理的隱私價(jià)值預(yù)期,具有更強(qiáng)的自治性,而這種價(jià)值預(yù)期為正當(dāng)法律程序所回應(yīng)。貝茨案聽(tīng)證階段提出,法院有責(zé)任確保提供的信息能夠有針對(duì)性地適用于該案的具體情況,也將為未來(lái)刑事司法程序中如何處理此類信息創(chuàng)造先例。智能家居設(shè)備時(shí)刻向云端傳送用戶數(shù)據(jù),可供處理、分析和利用,形成“個(gè)人的量化身份”。貝茨案涉及個(gè)人信息、數(shù)據(jù)控制方與刑事司法之間的關(guān)系處理,這些爭(zhēng)議在我國(guó)同樣存在,其實(shí)質(zhì)是技術(shù)發(fā)展誘發(fā)的新型關(guān)系處理。
科學(xué)技術(shù)的高度發(fā)展既是風(fēng)險(xiǎn)社會(huì)的特征,也是風(fēng)險(xiǎn)社會(huì)的成因。彼得·休伯(Peter Huber)在貝克風(fēng)險(xiǎn)理論的基礎(chǔ)上,將風(fēng)險(xiǎn)區(qū)分為“私人風(fēng)險(xiǎn)”(private risk)和“公共風(fēng)險(xiǎn)”(public risk)[1]。巨量級(jí)數(shù)據(jù)的出現(xiàn)、計(jì)算能力的增強(qiáng)、理論算法的革新共同促成了第三次人工智能浪潮的興起,包括機(jī)器學(xué)習(xí)、生物特征識(shí)別、虛擬現(xiàn)實(shí)/增強(qiáng)現(xiàn)實(shí)等關(guān)鍵技術(shù),借助信息數(shù)據(jù)的獲取、流動(dòng)與使用發(fā)揮作用。人工智能與互聯(lián)網(wǎng)、大數(shù)據(jù)的加速融合正在全面地改變國(guó)家-社會(huì)的基本結(jié)構(gòu)、社會(huì)主體的行為與決策方式、政府監(jiān)管模式及其所附帶的政策體系,被稱為“技術(shù)統(tǒng)治”和“新的政治空間”[2],人類正在進(jìn)入“一切皆可計(jì)算”的時(shí)代。與此同時(shí),智能科技革命也誘發(fā)了信息與隱私領(lǐng)域的新型社會(huì)風(fēng)險(xiǎn)。貝茨案僅僅展現(xiàn)出人工智能視域下信息規(guī)制爭(zhēng)點(diǎn)的一隅,信息及隱私領(lǐng)域的爭(zhēng)點(diǎn)已不僅僅存在于前述公權(quán)力介入的場(chǎng)景。機(jī)器學(xué)習(xí)可以識(shí)別圖像或視頻中隱藏的信息,例如,商場(chǎng)研發(fā)面部識(shí)別系統(tǒng)識(shí)別顧客情緒,神經(jīng)網(wǎng)絡(luò)算法通過(guò)面部識(shí)別來(lái)判斷人的性取向……利用人工智能進(jìn)行的信息監(jiān)測(cè)與分析可能引發(fā)數(shù)字、物理、政治安全風(fēng)險(xiǎn),如自動(dòng)化監(jiān)測(cè)(如分析大量收集的數(shù)據(jù))、說(shuō)服、欺騙,會(huì)擴(kuò)大與侵犯隱私和操縱社交相關(guān)的威脅[3]。與此同時(shí),人工智能技術(shù)的惡意使用會(huì)帶來(lái)新型公共安全風(fēng)險(xiǎn),例如公安部督辦的“2017·01·03”侵犯公民個(gè)人信息、提供非法侵入計(jì)算機(jī)信息系統(tǒng)工具案。技術(shù)發(fā)展伴隨著現(xiàn)有風(fēng)險(xiǎn)的擴(kuò)張、新型風(fēng)險(xiǎn)的產(chǎn)生、典型風(fēng)險(xiǎn)的特征變化,提出了新的規(guī)制訴求。
信息領(lǐng)域個(gè)人利益與公共利益的緊張關(guān)系。首先,信息主體對(duì)信息控制力的減弱。人工智能的本質(zhì)在于數(shù)據(jù)處理系統(tǒng)的輸入與輸出關(guān)系,其核心是基于超強(qiáng)的算力與學(xué)習(xí)能力,對(duì)個(gè)人信息的分析、使用與處理加劇了信息保護(hù)與數(shù)據(jù)利用的沖突,從根本上消解了信息的主觀管理能力。人工智能算法日益廣泛地滲透到用戶畫(huà)像、事件抓取、信息個(gè)性化推送等領(lǐng)域,讓渡部分信息,才能享受智能化服務(wù),信息主體或主動(dòng)或被動(dòng)地成為“透明人”。人像識(shí)別技術(shù)應(yīng)用場(chǎng)景中,相對(duì)人姓名、性別、年齡、職業(yè),甚至不同情境下的情緒、行為、軌跡等大量關(guān)聯(lián)信息,都被收集、處理與使用,寬泛的授權(quán)協(xié)議減損了“知情同意”規(guī)范的效力。而廣泛的應(yīng)用場(chǎng)景衍生出更多行為異化。例如Facebook數(shù)據(jù)泄露事件中,用戶授權(quán)登陸帳戶后的“點(diǎn)贊”“好友”等信息被用于“學(xué)術(shù)研究目的”,劍橋分析公司甚至出于政治目的利用了用戶數(shù)據(jù),F(xiàn)acebook還承認(rèn)用戶的公開(kāi)數(shù)據(jù)可能被非法抓取,通過(guò)反向搜索非法獲取了用戶的個(gè)人數(shù)據(jù)。
其次,巨量級(jí)數(shù)據(jù)深度分析引發(fā)的爭(zhēng)議。當(dāng)信息數(shù)據(jù)的社會(huì)價(jià)值和經(jīng)濟(jì)價(jià)值逐步得到認(rèn)同,監(jiān)管規(guī)則與措施的滯后在一定程度上導(dǎo)致了數(shù)據(jù)安全和隱私保護(hù)領(lǐng)域的風(fēng)險(xiǎn)。利用人工智能技術(shù)進(jìn)行信息收集、處理、使用,容易推導(dǎo)出公民更多的隱私。這主要涉及如下亟需解決的問(wèn)題:其一,數(shù)據(jù)所有權(quán)、數(shù)據(jù)交易規(guī)則等數(shù)據(jù)行為基本秩序仍未明確;其二,數(shù)據(jù)處理與使用的信息不對(duì)稱,隨著數(shù)據(jù)的爆炸式增長(zhǎng)和云計(jì)算能力的指數(shù)級(jí)進(jìn)步,信息主體深陷“黑箱”,無(wú)法充分知曉個(gè)人信息在何時(shí)、何種場(chǎng)景下被收集、分析、使用、處理;其三,平衡數(shù)據(jù)使用方、數(shù)據(jù)控制方及數(shù)據(jù)主體的三方利益。作為現(xiàn)代社會(huì)的主要治道,如何設(shè)置與調(diào)整“激勵(lì)”與“規(guī)制”科技發(fā)展的法律價(jià)值目標(biāo)?如何預(yù)測(cè)、預(yù)防和緩解技術(shù)發(fā)展與應(yīng)用帶來(lái)的隱私、安全風(fēng)險(xiǎn)?如何建構(gòu)與設(shè)計(jì)法律規(guī)范體系?其實(shí)質(zhì)在于如何處理技術(shù)發(fā)展與應(yīng)用中的個(gè)人利益與公共利益的緊張關(guān)系。
傳統(tǒng)解釋工具的思辨。第一,信息規(guī)制的相對(duì)性與公共性。人工智能通過(guò)計(jì)算機(jī)發(fā)掘數(shù)據(jù)的能力,通過(guò)信息流動(dòng)與使用,使法治從消極的危險(xiǎn)消除模式延伸到積極預(yù)防模式。網(wǎng)絡(luò)法律關(guān)系中的權(quán)利保護(hù),已經(jīng)無(wú)法沿用工業(yè)時(shí)代的權(quán)利保護(hù)模式,這種保護(hù)的出發(fā)點(diǎn)不是基于公權(quán)力的暴政,而是基于權(quán)利自身的需求。人工智能應(yīng)用帶來(lái)國(guó)家與社會(huì)、公法與私法界限變遷,通過(guò)采集、存儲(chǔ)、使用個(gè)人數(shù)據(jù)帶來(lái)新的權(quán)利內(nèi)容與責(zé)任,借助個(gè)人數(shù)據(jù)所完成的用戶畫(huà)像,可以呈現(xiàn)個(gè)人的經(jīng)濟(jì)狀況、興趣偏好、行為軌跡等,引發(fā)傳統(tǒng)權(quán)利法理的變革。人工智能技術(shù)應(yīng)用使“人-人”的關(guān)系轉(zhuǎn)變?yōu)椤叭?技術(shù)-人”,尊嚴(yán)與隱私、安全與自由之外的數(shù)據(jù)、虛擬生物信息等進(jìn)入權(quán)利視野。
人工智能應(yīng)用場(chǎng)景中,信息本身即具有相對(duì)性,從用戶的角度是用戶的個(gè)人信息,從服務(wù)提供者角度是服務(wù)信息,從國(guó)家機(jī)關(guān)角度是政府監(jiān)管信息。以用戶畫(huà)像為例,其包含多個(gè)主體利益,既有信息自決的內(nèi)容,也有經(jīng)營(yíng)自主權(quán)的內(nèi)容。自然人對(duì)個(gè)人信息的利益不是積極的、絕對(duì)的,而是防御性的、相對(duì)的,數(shù)據(jù)保護(hù)也絕不限于財(cái)產(chǎn)權(quán)的歸屬和分配[4]。相較傳統(tǒng)的權(quán)利保護(hù)視角,風(fēng)險(xiǎn)防范及利益平衡的視角更能夠回應(yīng)人工智能應(yīng)用場(chǎng)景中的信息規(guī)制基礎(chǔ)——財(cái)產(chǎn)權(quán)或人格權(quán)屬性之外,必須考量公共利益。信息規(guī)制是國(guó)家、企業(yè)(機(jī)構(gòu))、個(gè)人多方主體的共同作用,涉及商業(yè)平臺(tái)、技術(shù)開(kāi)發(fā)主體、數(shù)據(jù)提供方等,通過(guò)信息的收集、流動(dòng)、分析和使用,提升公共福祉,創(chuàng)新社會(huì)治理。信息規(guī)制不能脫離信息業(yè)發(fā)展和社會(huì)公益。
第二,信息自決的挑戰(zhàn)與變革。美國(guó)的傳統(tǒng)控制理論、德國(guó)的信息自決權(quán)理論是主導(dǎo)信息立法的基礎(chǔ)理論,這些理論強(qiáng)調(diào)個(gè)人自我決定在信息規(guī)制中的作用,實(shí)質(zhì)是強(qiáng)調(diào)自然人在信息社會(huì)中的主體地位。人工智能技術(shù)依靠強(qiáng)大的信息感知及計(jì)算能力,實(shí)現(xiàn)個(gè)人信息的挖掘、使用、流動(dòng),消解了傳統(tǒng)信息自決機(jī)制中主體的主觀管理能力,技術(shù)發(fā)展使個(gè)人信息的收集與使用更加便利,出示證件、經(jīng)批準(zhǔn)的檢查或搜查,以及當(dāng)事人同意等正當(dāng)法律程序被消解。爭(zhēng)議開(kāi)始出現(xiàn),如公共區(qū)域的人像識(shí)別、數(shù)據(jù)采集是否需要有明顯標(biāo)示?是否要求企業(yè)在收集用戶信息前獲得明示同意?針對(duì)特殊類型信息的收集是否適用行政許可規(guī)制工具?從公共數(shù)據(jù)中推導(dǎo)出個(gè)人信息,從個(gè)人信息中推導(dǎo)出與個(gè)人有關(guān)的其他人員(親友、同事)信息(在線行為、人際關(guān)系等),遠(yuǎn)超出最初個(gè)人同意披露的范圍。但是,物聯(lián)網(wǎng)中巨大量級(jí)的用戶數(shù)據(jù)在各個(gè)設(shè)備和系統(tǒng)之間頻繁傳輸處理,不加區(qū)分地將所有場(chǎng)景均設(shè)置以用戶同意為前提將產(chǎn)生巨大的信息利用成本,減損流通與共享的收益,亦不具備可操作性。
信息自決面臨挑戰(zhàn)的基本命題——為什么要進(jìn)行信息規(guī)制?我們保護(hù)的是個(gè)人信息本身,是建立在個(gè)人信息上的利益,還是預(yù)防個(gè)人信息的風(fēng)險(xiǎn)?信息自決的內(nèi)涵應(yīng)該是控制個(gè)人信息的使用,還是控制對(duì)其不正當(dāng)?shù)氖褂??如果我們?duì)這項(xiàng)基本命題的解讀是預(yù)防信息領(lǐng)域的風(fēng)險(xiǎn),則風(fēng)險(xiǎn)或利益侵害的存在是規(guī)制工具適用的前提,而這種風(fēng)險(xiǎn)或侵害不是恒定的、絕對(duì)的,而是流動(dòng)的、相對(duì)的、場(chǎng)景式的。如果我們對(duì)命題的解讀是保護(hù)個(gè)人信息,則規(guī)制進(jìn)路的前提是明確權(quán)利的范圍、實(shí)現(xiàn)方式、主張及責(zé)任模塊。這是完全不同的規(guī)制進(jìn)路,所以,信息規(guī)制的基本立場(chǎng)是我們首先要明確的問(wèn)題,這決定著我們的規(guī)制對(duì)象和基本原則。
基本立場(chǎng):風(fēng)險(xiǎn)防范、利益平衡抑或權(quán)利保護(hù)?我們應(yīng)當(dāng)在何種語(yǔ)境下敘述信息領(lǐng)域個(gè)人利益與公共利益緊張關(guān)系的實(shí)質(zhì)?北京百度網(wǎng)訊科技公司與朱某隱私權(quán)糾紛案中[5],判決的敘事邏輯并沒(méi)有將用戶畫(huà)像與個(gè)性化推薦置于人格權(quán)、隱私保護(hù)的范疇。
權(quán)利保護(hù)語(yǔ)境下,權(quán)利范圍的爭(zhēng)議是廣泛存在的。個(gè)人識(shí)別信息(Personally identifiable information)曾經(jīng)是信息隱私監(jiān)管規(guī)則的核心和邊界。法律適用的基本假設(shè)是,只有個(gè)人識(shí)別信息才被法律所保護(hù),如果不涉及個(gè)人識(shí)別信息,則不可能有隱私侵害,但信息隱私法中個(gè)人識(shí)別信息的定義尚存爭(zhēng)議。在人工智能時(shí)代的強(qiáng)大算力下,非個(gè)人識(shí)別信息也可以與個(gè)人相聯(lián)系,并且可以重新識(shí)別被識(shí)別的數(shù)據(jù),二者之間并不是不可變的,非個(gè)人識(shí)別信息可能在某一事件中被轉(zhuǎn)化為個(gè)人識(shí)別信息,技術(shù)的發(fā)展深刻地影響著二者的界限,且這種界限的界定必須基于特定的場(chǎng)景。[6]基于權(quán)利保護(hù)的視角論證,預(yù)設(shè)了個(gè)人對(duì)于自身用戶畫(huà)像應(yīng)當(dāng)有控制的權(quán)利,“挑出個(gè)人信息”的數(shù)據(jù)保護(hù)是為了公平與隱私[7]。但該視角必須回應(yīng)個(gè)人信息的基本范疇,有學(xué)者提出了個(gè)人識(shí)別信息2.0的概念,包含“已識(shí)別信息”與“可識(shí)別信息”兩類,對(duì)個(gè)人面臨的不同風(fēng)險(xiǎn)程度建立有針對(duì)性的法律保護(hù)[8],這種進(jìn)路既避免了美國(guó)對(duì)個(gè)人識(shí)別信息的簡(jiǎn)化主義觀點(diǎn)(the United States' reductionist view),也避免了歐盟的擴(kuò)張主義觀點(diǎn)(the European Union' s expansionist view)。簡(jiǎn)化主義觀點(diǎn)認(rèn)為信息隱私監(jiān)管只保護(hù)已識(shí)別的數(shù)據(jù),因此留下太多的個(gè)人信息而沒(méi)有法律保護(hù);擴(kuò)張主義觀點(diǎn)認(rèn)為,如果信息已經(jīng)與某一特定的人相聯(lián)系,或?qū)?lái)可能與之相聯(lián)系,則應(yīng)當(dāng)被保護(hù),這一觀點(diǎn)將已識(shí)別和可識(shí)別的數(shù)據(jù)視為等同數(shù)據(jù)。也有學(xué)者提出,信息隱私監(jiān)管法律規(guī)范必須剝離個(gè)人識(shí)別信息的概念,尋找新的范式進(jìn)行規(guī)范。[9]……中國(guó)法律中個(gè)人信息的概念還是與身份識(shí)別聯(lián)系起來(lái)[10],而數(shù)據(jù)權(quán)利法理尚不成熟,“可識(shí)別性”的實(shí)踐邊界不清,容易導(dǎo)致規(guī)則的遲滯與對(duì)風(fēng)險(xiǎn)的放任,抑或規(guī)則的局限與不自洽。在此基礎(chǔ)上,更重要的命題在于,主體對(duì)信息的權(quán)利主張是什么?是否應(yīng)當(dāng)由個(gè)人來(lái)主張權(quán)利實(shí)現(xiàn)?在權(quán)利種類似乎已經(jīng)明確的情況下,權(quán)利主張介入程度的譜系是什么?如何根據(jù)不同場(chǎng)景,分配個(gè)人不同的權(quán)利主張強(qiáng)度?規(guī)則如何保障?規(guī)制的成本與效益如何?例如,能否強(qiáng)制企業(yè)進(jìn)行非精準(zhǔn)推送?是否賦予企業(yè)從第三方間接收集個(gè)人信息時(shí),核實(shí)第三方收集、轉(zhuǎn)讓個(gè)人信息的合法性的義務(wù)(信息的間接收集人信息來(lái)源合法性的注意義務(wù))?
本文論證的基本立場(chǎng),即信息規(guī)制的目的是風(fēng)險(xiǎn)防范與利益平衡。回歸風(fēng)險(xiǎn)防范與利益平衡的立場(chǎng),很多規(guī)范邏輯也更容易厘清[11],亦將避免信息規(guī)制成本收益的失衡,避免切斷數(shù)據(jù)利用帶來(lái)的技術(shù)損害。例如,匿名化信息(包括行為標(biāo)簽、群體畫(huà)像)是否可能納入個(gè)人信息范疇以及作為國(guó)際通例的信息規(guī)制措施的平衡考量[12]。本文所指的信息規(guī)制,是指基于風(fēng)險(xiǎn)預(yù)防與利益平衡,為規(guī)范信息收集、使用、分析、流動(dòng)等提供的制度供給、政策激勵(lì)、外部約束、公私合作的過(guò)程。從法律與技術(shù)雙重立場(chǎng)識(shí)別與控制信息風(fēng)險(xiǎn),實(shí)現(xiàn)技術(shù)發(fā)展的激勵(lì)與規(guī)范。
基于利益平衡的隱私場(chǎng)景理論。其一,隱私場(chǎng)景理論的內(nèi)涵與構(gòu)造。信息的“適當(dāng)”流通、分享是隱私場(chǎng)景公正性理論的邏輯起點(diǎn)。信息的規(guī)制不是單面向地基于權(quán)利的保護(hù)或者對(duì)侵權(quán)行為的壓制,而是以社會(huì)整體利益作為考量,基于利益關(guān)系的平衡,使規(guī)制合目的、合比例,降低規(guī)制的對(duì)抗成本。Helen Nissenbaum提出了隱私場(chǎng)景理論(Theory of Contextual Integrity),認(rèn)為隱私不在于安全或控制,而是個(gè)人信息的適當(dāng)流通(a right to appropriate flow of personal information),并通過(guò)場(chǎng)景公正性的基本框架強(qiáng)化了這種“適當(dāng)”。隱私仍然是一項(xiàng)需要通過(guò)立法和其他途徑保護(hù)的重要的權(quán)利和價(jià)值,但是要強(qiáng)調(diào)其在特定場(chǎng)景下的公正及不同場(chǎng)景之間的區(qū)別。[13]
Michael Walzer突破了傳統(tǒng)自由主義的方式,重新審視了社會(huì)的公正與正義,建構(gòu)了多元正義理論,在普適正義的基礎(chǔ)上提出了“復(fù)合平等”(complex equality),即不同領(lǐng)域的獨(dú)特的正義準(zhǔn)則。Michael Walzer認(rèn)為,當(dāng)社會(huì)商品按照不同的分配標(biāo)準(zhǔn)分配時(shí),就會(huì)實(shí)現(xiàn)復(fù)合的平等,即正義的標(biāo)志。各領(lǐng)域是相對(duì)自治的,依據(jù)多元正義理論,存在“不同領(lǐng)域不同的人的不同結(jié)果”[14]。根據(jù)另一個(gè)領(lǐng)域的標(biāo)準(zhǔn)分配一個(gè)領(lǐng)域的社會(huì)商品構(gòu)成不公正。[15]隱私場(chǎng)景理論正是基于多元正義理論而建構(gòu),認(rèn)為同樣的信息在不同的社會(huì)群體中隱私參數(shù)不同[16],其原因在于隱私是一個(gè)文化上的相對(duì)偏好,而不是一個(gè)普適的人類價(jià)值。隱私場(chǎng)景理論的框架正是來(lái)源于這個(gè)視角。這個(gè)框架的核心在于不同場(chǎng)景信息規(guī)范的建構(gòu)[17],回應(yīng)個(gè)人信息的傳輸、交流、轉(zhuǎn)換、分配、擴(kuò)散。場(chǎng)景公正性與信息規(guī)范相結(jié)合,即“個(gè)人信息的適當(dāng)流通”中“適當(dāng)”的判斷標(biāo)準(zhǔn)是信息的流動(dòng)是否符合特定場(chǎng)景下的信息流動(dòng)規(guī)范。Helen Nissenbaum認(rèn)為,信息規(guī)范構(gòu)造包含以下參數(shù):具體化的情景(行為類型、目的)、主體(信息的接受者和發(fā)送者等主體、主體之間的關(guān)系)、信息的類型和屬性、傳輸原則(主體之間以何種條件共享信息、進(jìn)一步傳播的條件)。[18]其中,信息的類型和屬性不僅僅是個(gè)人或者非個(gè)人(公有的)、高度敏感或者非敏感這樣的一維的、二分的邏輯[19],相同的信息在不同場(chǎng)景下呈現(xiàn)出不同的敏感程度。如何判斷是否侵犯了隱私,需要依據(jù)特定社會(huì)場(chǎng)景描述個(gè)人信息流動(dòng)的參數(shù),進(jìn)而得出結(jié)論,規(guī)則應(yīng)當(dāng)基于不同的場(chǎng)景制定。
其二,隱私場(chǎng)景理論的實(shí)現(xiàn)路徑及意義。傳統(tǒng)信息規(guī)制模式下,主導(dǎo)隱私保護(hù)的三項(xiàng)原則,即限制政府對(duì)公民的監(jiān)視和使用有關(guān)公民的信息;限制獲取敏感或私人信息;限制侵入被視為私人或個(gè)人的場(chǎng)所。規(guī)范與現(xiàn)實(shí)的衡量,不僅要考量其在特定場(chǎng)景下所促進(jìn)的價(jià)值與收益,也要考量其對(duì)社會(huì)整體的價(jià)值與收益。信息規(guī)制影響的價(jià)值包括:預(yù)防基于信息的損害、信息平等、自主、自由、維護(hù)重要的人際關(guān)系、民主和其他社會(huì)價(jià)值觀。[20]個(gè)人信息的收集、共享、流通的價(jià)值包括言論自由[21]和新聞自由、經(jīng)濟(jì)效率[22]和盈利能力、開(kāi)放政府和安全。傳統(tǒng)的原則存在灰色地帶,在政治和法律調(diào)查的其他領(lǐng)域一直沿用的公私二分法是不適用的,而普適性的框架和規(guī)則也難以奏效。隱私場(chǎng)景理論與傳統(tǒng)隱私保護(hù)原則是不同的,隱私場(chǎng)景理論實(shí)質(zhì)是個(gè)人信息的個(gè)人利益與公共利益的平衡,在技術(shù)應(yīng)用的具體場(chǎng)景下實(shí)現(xiàn)個(gè)人信息保護(hù),從技術(shù)激勵(lì)與規(guī)范的角度,實(shí)現(xiàn)信息的恰當(dāng)使用與社會(huì)發(fā)展。
Helen Nissenbaum結(jié)合克林頓-萊溫斯基性丑聞、美國(guó)《金融服務(wù)現(xiàn)代化法案》、加拿大《個(gè)人信息保護(hù)及電子文檔法案》以及醫(yī)療處方隱私展示了如何借助隱私場(chǎng)景理論論證權(quán)利保障與侵害[23],為論證何謂信息“適當(dāng)?shù)亓鲃?dòng)”提供了分析工具。人工智能技術(shù)發(fā)展過(guò)程中,數(shù)據(jù)的收集、分析、流通直接關(guān)系到算法及其結(jié)果的公平性、準(zhǔn)確性。而隨著互聯(lián)網(wǎng)+、大數(shù)據(jù)、智能技術(shù)的發(fā)展,“普遍性、一致性、抽象邏輯化的生活方式逐漸淡去,而根據(jù)特定情形、地域和對(duì)象的數(shù)據(jù)分析、場(chǎng)景定制、程序建模,則逐漸成為一種發(fā)展趨勢(shì)”[24]。利用隱私場(chǎng)景理論,細(xì)化考量因素,能夠在具體場(chǎng)景(法律關(guān)系)中厘清信息規(guī)制的界限。
基本原則:信息保護(hù)的激勵(lì)與規(guī)范之爭(zhēng)。隱私場(chǎng)景理論的核心在于信息的適當(dāng)流動(dòng),數(shù)據(jù)對(duì)技術(shù)發(fā)展至關(guān)重要,也是數(shù)字經(jīng)濟(jì)時(shí)代商業(yè)運(yùn)行的基礎(chǔ),信息在特定應(yīng)用場(chǎng)景之下往往具有多重身份。例如,網(wǎng)約車軟件收集、分析、使用的信息不僅僅是消費(fèi)者的行動(dòng)軌跡,也是機(jī)構(gòu)(企業(yè))的服務(wù)信息,這些信息與數(shù)據(jù)的收集是商業(yè)運(yùn)行之必需。所以,信息規(guī)制的前提是要充分考量具體場(chǎng)景及目的,同時(shí)區(qū)分網(wǎng)絡(luò)法律關(guān)系中信息數(shù)據(jù)的收集、使用、共享行為,基于個(gè)人利益與公共利益平衡,進(jìn)行規(guī)范的建構(gòu)。歐盟《一般數(shù)據(jù)保護(hù)條例》(下文簡(jiǎn)稱GDPR)除了規(guī)定合法透明、目的限制、準(zhǔn)確性等原則之外,還將限期儲(chǔ)存原則作為個(gè)人數(shù)據(jù)處理的基本原則,即對(duì)于能夠識(shí)別數(shù)據(jù)主體的個(gè)人數(shù)據(jù),其儲(chǔ)存時(shí)間不得超過(guò)實(shí)現(xiàn)其處理目的所必需的時(shí)間,并在后章規(guī)定個(gè)人數(shù)據(jù)的刪除權(quán)。但美國(guó)ITIF發(fā)布了GDPR對(duì)人工智能影響的報(bào)告,提及GDPR中的刪除權(quán)、禁止其他目的使用、懲罰性模式等規(guī)定在實(shí)踐中對(duì)人工智能發(fā)展可能或已然的不利影響?!皠h除人工智能系統(tǒng)運(yùn)行中關(guān)鍵規(guī)則的數(shù)據(jù)可能會(huì)降低準(zhǔn)確性,并限制其對(duì)其他數(shù)據(jù)主體的好處,甚至完全破壞人工智能系統(tǒng)?!薄敖箶?shù)據(jù)用于除首次收集之外的任何其他目的,企業(yè)難以使用數(shù)據(jù)進(jìn)行創(chuàng)新。這將限制公司在歐盟開(kāi)發(fā)或使用人工智能改善服務(wù)的能力?!盵25]一方面,全面評(píng)估新規(guī)的影響,對(duì)實(shí)現(xiàn)有效的激勵(lì)與規(guī)范具有現(xiàn)實(shí)意義。另一方面,技術(shù)發(fā)展使得權(quán)利保護(hù)的程度在不同的社會(huì)歷史階段、文化背景里呈現(xiàn)出不同的敘事,不同國(guó)家利益與產(chǎn)業(yè)利益背景下,歐盟模式與美國(guó)模式在信息規(guī)制方面呈現(xiàn)出不同側(cè)重。美國(guó)聯(lián)邦通信委員會(huì)發(fā)布的《保護(hù)寬帶和其他通信服務(wù)用戶隱私條令》因過(guò)于嚴(yán)苛的監(jiān)管于2017年被廢止,但隨著Facebook數(shù)據(jù)泄露事件的發(fā)酵,引入歐盟數(shù)據(jù)保護(hù)模式的呼聲在美國(guó)日益高漲。將隱私場(chǎng)景理論作為信息規(guī)制工具,可以避免前述簡(jiǎn)化主義與擴(kuò)張主義的沖突,使信息規(guī)制符合比例性與目的性,以對(duì)個(gè)人利益、商業(yè)利益、社會(huì)總體利益最優(yōu)的方式實(shí)現(xiàn)對(duì)技術(shù)發(fā)展的激勵(lì)與規(guī)范。
基于使用場(chǎng)景與敏感程度的同意規(guī)則。傳統(tǒng)的保護(hù)模式是用戶的絕對(duì)主動(dòng),唯有經(jīng)過(guò)信息主體的知情和同意,收集處理行為才是合法的,這種風(fēng)險(xiǎn)與責(zé)任的分配機(jī)制是源于信息保護(hù)傳統(tǒng)脈絡(luò)。諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)得主、普林斯頓教授Sir Angus Deaton提出的隱私數(shù)據(jù)信息交易系統(tǒng)或是對(duì)傳統(tǒng)知情同意模式下數(shù)據(jù)授權(quán)的回應(yīng)。但巨量級(jí)數(shù)據(jù)的使用與流通場(chǎng)景中,同意無(wú)法在全部場(chǎng)景下均以明示的方式作出,“一刀切”的知情同意風(fēng)險(xiǎn)分配機(jī)制并不符合人工智能的技術(shù)應(yīng)用特征,既會(huì)導(dǎo)致規(guī)則的失靈,又會(huì)對(duì)技術(shù)發(fā)展帶來(lái)傷害。隱私場(chǎng)景理論更符合信息保護(hù)模式的實(shí)踐,知情與同意應(yīng)當(dāng)區(qū)分?jǐn)?shù)據(jù)的敏感程度與使用場(chǎng)景。
基于使用場(chǎng)景的區(qū)分包括規(guī)范的場(chǎng)景與個(gè)案的場(chǎng)景。規(guī)范的場(chǎng)景,是指具有普遍性、一致性、抽象邏輯化的場(chǎng)景模塊。如GDPR規(guī)定了不需要識(shí)別的處理(Article 11)、數(shù)據(jù)控制者與處理者的關(guān)系(Article 26),以及對(duì)個(gè)人數(shù)據(jù)的處理?xiàng)l件和特殊數(shù)據(jù)問(wèn)題。按照GDPR的規(guī)定,知情同意并非數(shù)據(jù)處理的唯一合法性條件,還有合同履行、法律義務(wù)履行等,但其他條件的適用是非常審慎的(Article 6);GDPR還規(guī)定了“禁止處理顯示基因數(shù)據(jù)、為了特定識(shí)別自然人的生物性識(shí)別數(shù)據(jù)、以及和自然人健康、個(gè)人性生活或性取向等”特殊類型數(shù)據(jù)的處理?xiàng)l件,并規(guī)定了基于數(shù)據(jù)主體同意、實(shí)質(zhì)性公共利益等共10項(xiàng)例外(Article 9)。個(gè)案的場(chǎng)景,是指包含了具體化的情景、主體、傳輸原則的場(chǎng)景。
在不同場(chǎng)景的基礎(chǔ)上,基于數(shù)據(jù)敏感程度的區(qū)分,理想的模型是針對(duì)個(gè)人敏感信息采用選擇同意(opt-in)模式,而針對(duì)非敏感信息,在相應(yīng)場(chǎng)景中以合理的手段收集、留存、使用信息的同時(shí),強(qiáng)調(diào)默示同意的用戶對(duì)信息處理有撤回同意(選擇退出opt-out)的選擇權(quán),即“默示同意+選擇性退出”的同意機(jī)制,并針對(duì)敏感信息設(shè)置更為嚴(yán)格的透明原則。隱私場(chǎng)景理論的基本觀點(diǎn),信息類型的劃分,敏感程度的判斷,不是絕對(duì)的,一分為二的,而是相對(duì)于特定的場(chǎng)景而言。技術(shù)層面,個(gè)人信息控制者可以通過(guò)默示條款的方式,使得信息主體完全不知道自身的信息正在被收集;通過(guò)對(duì)大量的非敏感信息的收集和處理可以識(shí)別個(gè)人的敏感信息。但是,如果取消個(gè)人敏感信息與非敏感信息的差別保護(hù),要求個(gè)人信息收集時(shí)全部適用明示同意,又會(huì)涉及巨大的規(guī)制成本,與信息流動(dòng)的本質(zhì)與收益有所沖突。
差異化應(yīng)用場(chǎng)景的規(guī)范要素。Helen Nissenbaum預(yù)設(shè)了隱私場(chǎng)景理論的前景,將不同的歷史階段、地域、社會(huì)文化構(gòu)建到任何給定場(chǎng)景的信息規(guī)范中,信息規(guī)制將鼓勵(lì)今后對(duì)突出領(lǐng)域進(jìn)行研究,以揭示這些領(lǐng)域的技術(shù)創(chuàng)新如何影響信息規(guī)范。[26]智能算法造就了新的權(quán)力形態(tài),也亟需新的利益分配模式,以及不同傳輸原則的規(guī)范描述。成熟的規(guī)則設(shè)計(jì)尚需系統(tǒng)把握人工智能算法與系統(tǒng)的特點(diǎn),考慮到人工智能技術(shù)不同類型的應(yīng)用場(chǎng)景,除了共性技術(shù)外,不同人工智能產(chǎn)品在不同行業(yè)場(chǎng)景中進(jìn)行數(shù)據(jù)獲取與使用存在明顯的個(gè)性化需求與技術(shù)特色,必須進(jìn)行類型化差異化規(guī)制,根據(jù)技術(shù)應(yīng)用場(chǎng)景和信息類型制定不同的技術(shù)標(biāo)準(zhǔn)及系統(tǒng)安全設(shè)計(jì)方案,回應(yīng)不同應(yīng)用場(chǎng)景信息安全保障需求。差異化規(guī)制思路在美國(guó)表現(xiàn)為敏感領(lǐng)域(如醫(yī)療檔案、金融數(shù)據(jù)等)的分散式立法、設(shè)立行業(yè)規(guī)范。
隱私場(chǎng)景理論中信息規(guī)范的基本構(gòu)造,應(yīng)當(dāng)根據(jù)不同場(chǎng)景(行為類型、目的)、主體(信息的接受者和發(fā)送者等主體、主體之間的關(guān)系)、信息的類型和屬性、傳輸原則(主體之間以何種條件共享信息、進(jìn)一步傳播的條件),設(shè)計(jì)不同的規(guī)制方案。“一刀切”的監(jiān)管與風(fēng)險(xiǎn)控制方案無(wú)法回應(yīng)人工智能的技術(shù)特征和復(fù)雜多變的應(yīng)用場(chǎng)景,針對(duì)不同的應(yīng)用場(chǎng)景建立差別化的信息治理方案是人工智能信息規(guī)制的顯著特征,實(shí)質(zhì)是情境化、差別化、類型化的風(fēng)險(xiǎn)責(zé)任分配。例如,視頻、音頻采集識(shí)別分析系統(tǒng)(如谷歌“隱私分析個(gè)性化內(nèi)容智能家居”專利、亞馬遜的語(yǔ)音交互分析與關(guān)聯(lián)個(gè)性化推薦專利等)在智能家居場(chǎng)景中的應(yīng)用,該場(chǎng)景中通過(guò)視頻、音頻的采集、識(shí)別進(jìn)行的家庭結(jié)構(gòu)、情緒、愛(ài)好、生活習(xí)慣分析,與基于商品交易平臺(tái)、互聯(lián)網(wǎng)搜索平臺(tái)數(shù)據(jù)收集、分析而進(jìn)行的個(gè)性化推送,從預(yù)防基于信息的損害、信息平等、自主、自由、維護(hù)重要的人際關(guān)系、民主等價(jià)值衡量的視角是有所區(qū)別的。前者需要更為嚴(yán)苛的隱私保護(hù)技術(shù)、絕對(duì)主義路徑的必要數(shù)據(jù)界定,遵循更為嚴(yán)格的透明原則,即該場(chǎng)景下技術(shù)企業(yè)負(fù)有更多充分披露隱私數(shù)據(jù)使用和保護(hù)原則與目的的義務(wù)。但在規(guī)范內(nèi)容編制的過(guò)程中,要注意一般性規(guī)范的提煉,防止將監(jiān)管引向碎片化。例如,GDPR條款的基本格式多為“基本規(guī)則+除外條款”,情境化、差異化的同時(shí)兼顧統(tǒng)一性的基本規(guī)制思路,例如限期儲(chǔ)存的一般性規(guī)則與例外,獲得信息主體同意后處理的一般性規(guī)則與例外等。
法律、標(biāo)準(zhǔn)、協(xié)議、代碼的多元規(guī)范體系。第一,多元糾紛解決進(jìn)路的規(guī)范建構(gòu)。《刑法》第285條規(guī)定了提供侵入、非法控制計(jì)算機(jī)信息系統(tǒng)的程序、工具罪,《關(guān)于辦理侵犯公民個(gè)人信息刑事案件適用法律若干問(wèn)題的解釋》等為刑事打擊惡意利用人工智能侵犯?jìng)€(gè)人信息或提供工具行為提供了法律基礎(chǔ)。規(guī)范的目的是保障人工智能健康發(fā)展,能夠平衡個(gè)人信息保護(hù)和數(shù)據(jù)應(yīng)用,與技術(shù)發(fā)展創(chuàng)新相適應(yīng)是衡量立法效果的關(guān)鍵因素。一套切實(shí)有效的信息治理規(guī)則體系,需要公法和私法共同構(gòu)建,政府監(jiān)管、企業(yè)責(zé)任,以及民事法律角度對(duì)信息主體的賦權(quán),確保規(guī)制的安全性、可操作性、可追溯性。例如,收集網(wǎng)絡(luò)用戶瀏覽、搜索、收藏、交易等行為痕跡所產(chǎn)生的巨量原始數(shù)據(jù),深度分析過(guò)濾,整合并匿名化脫敏處理后,形成預(yù)測(cè)性、統(tǒng)計(jì)性數(shù)據(jù),這類加工信息如何規(guī)制,在2018年8月淘寶(中國(guó))軟件有限公司訴安徽美景信息科技有限公司“生意參謀”零售店上數(shù)據(jù)平臺(tái)不正當(dāng)競(jìng)爭(zhēng)糾紛案中作出了闡述。在新浪微博訴脈脈案中,司法實(shí)踐中采取的也是反不正當(dāng)競(jìng)爭(zhēng)訴訟的糾紛解決進(jìn)路,在網(wǎng)絡(luò)法律關(guān)系中,基于數(shù)據(jù)共享的模式,通過(guò)互聯(lián)網(wǎng)開(kāi)放端口獲取數(shù)據(jù),數(shù)據(jù)抓取行為需要法律邊界,以防止技術(shù)的恣意。而在相似的hiQ Labs與LinkedIn之間的訴訟中,美國(guó)聯(lián)邦法院給出了不同的答案,其核心爭(zhēng)議點(diǎn)在于平臺(tái)公司對(duì)于用戶公開(kāi)發(fā)布至平臺(tái)的數(shù)據(jù)權(quán)限是什么,這是數(shù)據(jù)財(cái)產(chǎn)權(quán)利的保護(hù)進(jìn)路。我國(guó)數(shù)據(jù)權(quán)利正處于生成和發(fā)展階段,數(shù)據(jù)所有權(quán)、數(shù)據(jù)交易規(guī)則等基本秩序規(guī)則需要進(jìn)一步明確,需要刑罰、民法、行政法規(guī)則體系的建構(gòu)。
第二,標(biāo)準(zhǔn)、方案、協(xié)議等軟法體系的建構(gòu)。隱私場(chǎng)景理論強(qiáng)調(diào)不同場(chǎng)景與情境的描述,探索信息隱私監(jiān)管的新范式,回應(yīng)個(gè)人識(shí)別信息的延展性,這里需要標(biāo)準(zhǔn),而不僅僅是規(guī)則。微軟總裁兼首席法務(wù)官Brad Smith在博文中提到對(duì)人臉識(shí)別技術(shù)的公共監(jiān)管與企業(yè)責(zé)任。人工智能時(shí)代需要制定新的公共原則來(lái)管理技術(shù),作為逐步進(jìn)入甚至接管公共事務(wù)的技術(shù)企業(yè)(機(jī)構(gòu)),合法、合規(guī)、透明、說(shuō)明理由等公法義務(wù)的恰當(dāng)賦予尤為重要。軟法作為技術(shù)企業(yè)描述特定場(chǎng)景、信息主體、信息類型和屬性、傳輸原則的文本形式,應(yīng)當(dāng)被納入信息規(guī)制的規(guī)范體系中。人工智能信息規(guī)制中的軟法,首先包含差異化的技術(shù)標(biāo)準(zhǔn),現(xiàn)階段,人臉、指紋、虹膜圖像數(shù)據(jù)的生物特征樣本質(zhì)量標(biāo)準(zhǔn),智能家居通信交互協(xié)議規(guī)范、安全參考模型及通用要求、基于可信環(huán)境的生物特征識(shí)別身份鑒別協(xié)議等信息安全技術(shù)標(biāo)準(zhǔn)均是人工智能技術(shù)標(biāo)準(zhǔn)化建設(shè)亟需解決的重要問(wèn)題。此外,軟法還包括各類系統(tǒng)安全設(shè)計(jì)方案、網(wǎng)絡(luò)安全方案、系統(tǒng)測(cè)試方案等[27],也應(yīng)包括用戶協(xié)議等規(guī)定了數(shù)據(jù)合規(guī)內(nèi)容的、具有一定約束效力的文本。基于服務(wù)協(xié)議的用戶權(quán)利讓渡條款獲得服務(wù),其知情條款、使用目的、方式等透明性規(guī)范應(yīng)當(dāng)進(jìn)一步規(guī)范,避免冗長(zhǎng)帶來(lái)的實(shí)質(zhì)失效。
第三,法律代碼化與代碼之治。可預(yù)期性是法律規(guī)則的根本特性,智能革命是否會(huì)帶來(lái)法律根本特性的變革尚存爭(zhēng)議,但一個(gè)現(xiàn)象不可否認(rèn),“對(duì)于規(guī)則的認(rèn)識(shí)會(huì)成為一個(gè)動(dòng)態(tài)的過(guò)程,數(shù)據(jù)的輸入與反饋會(huì)不斷引導(dǎo)人工智能進(jìn)行學(xué)習(xí),以自身的算法輸出動(dòng)態(tài)調(diào)整的規(guī)則”[28]。代碼化的技術(shù)主義規(guī)制更加符合人工智能技術(shù)應(yīng)用個(gè)性化、自主化的場(chǎng)景式信息規(guī)制需求。以法律原則、規(guī)則指引編程人員,并且基于技術(shù)和商業(yè)運(yùn)行模式特征,適恰地設(shè)置對(duì)算法和代碼設(shè)計(jì)的透明、審查機(jī)制。算法本身的公開(kāi)性、透明性和公正性是人工智能技術(shù)規(guī)制的現(xiàn)實(shí)進(jìn)路,但一些場(chǎng)景之下,“算法黑箱”是連程序員都不能完全揭示的,尚須平衡商業(yè)秘密、技術(shù)保護(hù)與技術(shù)規(guī)制之間的關(guān)系。
信息流通的技術(shù)自我規(guī)制。其一,技術(shù)風(fēng)險(xiǎn)的自我規(guī)制。網(wǎng)絡(luò)法律關(guān)系的規(guī)制,應(yīng)當(dāng)由誰(shuí)來(lái)制定規(guī)則?技術(shù)企業(yè)(機(jī)構(gòu))掌握巨量數(shù)據(jù),且熟稔技術(shù)應(yīng)用運(yùn)行機(jī)制、發(fā)展格局。技術(shù)企業(yè)(機(jī)構(gòu))的自我規(guī)制具有必要性及可行性,應(yīng)積極制定公開(kāi)透明的行業(yè)標(biāo)準(zhǔn)、企業(yè)標(biāo)準(zhǔn)、協(xié)議、系統(tǒng)安全方案等,以補(bǔ)充個(gè)人信息保護(hù)法制的不足?!白晕乙?guī)制強(qiáng)調(diào)由社會(huì)組織行使對(duì)科技風(fēng)險(xiǎn)的調(diào)控權(quán)力,但這種權(quán)力并不是法律、法規(guī)、規(guī)章所授予的權(quán)力,因而社會(huì)組織并非行政主體,不受法律保留、比例原則等原則的制約,避免了以傳統(tǒng)行政法學(xué)理回應(yīng)風(fēng)險(xiǎn)規(guī)制時(shí)產(chǎn)生捉襟見(jiàn)肘的困局?!盵29]人工智能的信息風(fēng)險(xiǎn)規(guī)制由最熟悉技術(shù)應(yīng)用場(chǎng)景企業(yè)(機(jī)構(gòu))實(shí)施規(guī)范制定、技術(shù)甄別、風(fēng)險(xiǎn)承擔(dān),避免法律系統(tǒng)與科技系統(tǒng)的捍格不入,減輕企業(yè)的合規(guī)負(fù)擔(dān),緩和行政命令式技術(shù)規(guī)制的壓力,更有利于信息保護(hù)與技術(shù)發(fā)展的平衡。
其二,去標(biāo)識(shí)化及其標(biāo)準(zhǔn)化。去標(biāo)識(shí)化是自我規(guī)制視角下從傳統(tǒng)的個(gè)人信息自決向個(gè)人信息保護(hù)與共享利用相平衡轉(zhuǎn)化的重要技術(shù)支撐,是通過(guò)對(duì)個(gè)人信息的技術(shù)處理,使其在不借助額外信息的情況下,無(wú)法識(shí)別個(gè)人信息主體的過(guò)程,數(shù)據(jù)集的某些屬性可以共享發(fā)布,供外部業(yè)務(wù)系統(tǒng)進(jìn)行處理分析。去標(biāo)識(shí)化是隱私保護(hù)數(shù)據(jù)發(fā)布的主要工具[30],現(xiàn)階段方法包括屏蔽、隨機(jī)、泛化、加密等。圍繞我國(guó)大數(shù)據(jù)安全標(biāo)準(zhǔn)化體系規(guī)劃,對(duì)去標(biāo)識(shí)化技術(shù)機(jī)制、模型以及評(píng)估方法進(jìn)行標(biāo)準(zhǔn)化操作,例如保密格式加密技術(shù)等技術(shù)的標(biāo)準(zhǔn)化,優(yōu)先將成熟的應(yīng)用和實(shí)踐成果轉(zhuǎn)化為標(biāo)準(zhǔn)規(guī)范。當(dāng)然,去標(biāo)識(shí)化后是否有重新建立標(biāo)識(shí)的可能性,也需要在規(guī)范層面作出回應(yīng)。同時(shí),去標(biāo)識(shí)化不等同于標(biāo)識(shí)符的移除,“一刀切”地去除標(biāo)識(shí)符可能導(dǎo)致數(shù)據(jù)的重復(fù)、混亂和遺失,無(wú)法保證智能技術(shù)應(yīng)用結(jié)果的公平性、可信性。隱私場(chǎng)景理論下,需要結(jié)合具體的應(yīng)用場(chǎng)景對(duì)數(shù)據(jù)的敏感程度進(jìn)行非二分式地分析,評(píng)估被重標(biāo)識(shí)的風(fēng)險(xiǎn),以規(guī)范數(shù)據(jù)共享和處理活動(dòng),保障數(shù)據(jù)安全與有效,保證數(shù)據(jù)在共享、流通過(guò)程中能夠得到準(zhǔn)確的描述、有效的組織,最大化數(shù)據(jù)的收益,實(shí)現(xiàn)數(shù)據(jù)流動(dòng)的“適當(dāng)”。信息處理的匿名化以及數(shù)據(jù)的不可追溯性,成為公共性屬性之下信息保護(hù)的基點(diǎn)[31],但是,技術(shù)層面可以使匿名化的信息重新標(biāo)示特定個(gè)體,即便沒(méi)有姓名個(gè)體識(shí)別符號(hào),信息匿名化處理之后,也可以通過(guò)技術(shù)定位到具體的個(gè)體、服務(wù)器等,可以在技術(shù)自我規(guī)制的基礎(chǔ)上,借助民法、刑法、行政法規(guī)則,禁止違法解匿名化(De-anonymization)行為,實(shí)現(xiàn)個(gè)人信息保護(hù)和數(shù)據(jù)收益之間的平衡。
互聯(lián)物聯(lián)、人工智能、虛擬科技時(shí)代的信息規(guī)制不僅是法律與技術(shù)的銜接問(wèn)題,更關(guān)涉信息社會(huì)中人的主體地位。信息規(guī)制不僅需要了解人工智能技術(shù)的運(yùn)用機(jī)理與決策機(jī)制,準(zhǔn)確把握其與普通計(jì)算機(jī)程序運(yùn)行的核心區(qū)別,更需理順其道德、經(jīng)濟(jì)和社會(huì)基礎(chǔ),進(jìn)行不同應(yīng)用場(chǎng)景的價(jià)值衡量,使規(guī)制合目的、合比例。應(yīng)對(duì)人工智能時(shí)代的不確定性和變動(dòng)性,亟需構(gòu)建一種精細(xì)化的、試驗(yàn)主義的信息規(guī)制模式,不是對(duì)以往規(guī)則的顛覆,而是適應(yīng)新技術(shù)的發(fā)展,在網(wǎng)絡(luò)法律關(guān)系中妥當(dāng)處理權(quán)利保障與科技發(fā)展、社會(huì)發(fā)展的關(guān)系。
(本文系遼寧省社會(huì)科學(xué)規(guī)劃基金青年項(xiàng)目“人工智能視域下信息獲取與使用的法律規(guī)制研究”成果,項(xiàng)目編號(hào):L18CFX001;同時(shí)系中央高?;究蒲袠I(yè)務(wù)費(fèi)重大培育項(xiàng)目“‘互聯(lián)網(wǎng)+智能制造治安評(píng)估與防控機(jī)制研究”成果)
[1]Peter Huber, "Safety and The Second Best: The Hazards of Public Risk Management in the Courts", Columbia Law Review, 1985, 2, pp. 277-337.
[2]樊鵬:《利維坦遭遇獨(dú)角獸:新技術(shù)的政治影響》,《文化縱橫》,2018年第8期。
[3]Miles Brundage, Shahar Avin et al. , "The Malicious Use of Artificial Intelligence:Forecasting, Prevention, and Mitigation", https://arxiv.org/abs/1802.07228, October 3, 2018.
[4]王利明:《亟需法學(xué)研究和立法工作予以關(guān)注——人工智能時(shí)代提出的法律問(wèn)題》,《北京日?qǐng)?bào)》,2018年7月30日,第13版
[5]朱某稱其利用百度搜索引擎搜索“減肥”“豐胸”“人工流產(chǎn)”等詞,瀏覽相關(guān)的內(nèi)容后,在一些網(wǎng)站上就會(huì)出現(xiàn)上述廣告。朱某主張,百度網(wǎng)訊公司利用網(wǎng)絡(luò)技術(shù),未經(jīng)其知情和選擇,記錄和跟蹤了其搜索的關(guān)鍵詞,將其興趣愛(ài)好、生活學(xué)習(xí)工作特點(diǎn)等顯露在相關(guān)網(wǎng)站上,對(duì)其瀏覽的網(wǎng)頁(yè)進(jìn)行廣告投放,侵犯了隱私權(quán)。一審法院認(rèn)為,網(wǎng)絡(luò)活動(dòng)蹤跡屬于個(gè)人隱私,百度網(wǎng)訊公司利用cookie技術(shù)收集朱某信息,侵犯了朱某的隱私權(quán)。二審法院認(rèn)為,百度網(wǎng)訊公司在提供個(gè)性化推薦服務(wù)中運(yùn)用網(wǎng)絡(luò)技術(shù)收集、利用的是未能與網(wǎng)絡(luò)用戶個(gè)人身份對(duì)應(yīng)識(shí)別的數(shù)據(jù)信息,該數(shù)據(jù)信息的匿名化特征不符合“個(gè)人信息”的可識(shí)別性要求。推薦服務(wù)只發(fā)生在服務(wù)器與特定瀏覽器之間,沒(méi)有對(duì)外公開(kāi)其網(wǎng)絡(luò)活動(dòng)軌跡及偏好,未強(qiáng)制網(wǎng)絡(luò)用戶必須接受個(gè)性化推薦服務(wù),提供了退出機(jī)制,未侵犯網(wǎng)絡(luò)用戶的選擇權(quán)和知情權(quán)。
[6][8]Paul.M.Schwartz, Daniel.J.Solove , "The PII Problem: Privacy and a new concept of personally identifiable information", New York University Law Review, 2011, 86 (12), pp. 1814-1894.
[7]Frederik J. Zuiderveen Borgesius, "Singling out people without knowing their names – Behavioural targeting, pseudonymous data, and the new Data Protection Regulation", Computer Law & Security Review, 2016, 32(2), pp. 256-271.
[9]PAUL O., "Broken promises of privacy: responding to the surprising failure of anonymization", UCLA Law Review, 2010, 57(6), pp. 1701-1777.
[10]參見(jiàn)《信息安全技術(shù)公共及商用服務(wù)信息系統(tǒng)個(gè)人信息保護(hù)指南》、《信息安全技術(shù):個(gè)人信息安全規(guī)范》(GB/T 35273-2017)。
[11]如歐盟《一般數(shù)據(jù)保護(hù)條例》對(duì)用戶畫(huà)像、信息主體對(duì)信息的控制權(quán)利的規(guī)定。
[12]匿名化信息是否是個(gè)人信息的范疇,企業(yè)主張以能否識(shí)別特定個(gè)體作為判斷標(biāo)準(zhǔn)。
[13][17][19][23]Helen Nissenbaum, Privacy in Context Technology, Policy, and the Integrity of Social Life, California: Stanford University Press, 2010, p.127, p.129, pp.140-144, pp.152-156.
[14][15]Michael Walzer, Spheres of Justice: A Defense of Pluralism and Equality, Basic Books, 1983,p. 320, pp. 17-20.
[16]例如,電子商務(wù)平臺(tái)通過(guò)分析用戶的喜好信息進(jìn)行個(gè)性化推送是符合適當(dāng)性規(guī)范的,但是雜貨鋪的老板詢問(wèn)消費(fèi)者家庭信息、工作信息、子女入學(xué)信息等,以及電影、讀書(shū)、度假等生活信息,并把這些信息提供給了第三方,則違反了適當(dāng)性規(guī)范,也違反了信息流通規(guī)范。
[18][20][26]Helen Nissenbaum, "Privacy as Contextual Integrity", Washington Law Review, 2004, 79, pp. 119-158.
[21]Paul M. Schwartz, "PrivacyandDemocracy in Cyberspace ",VAND. L. REV., 1999, 52, p. 1607.
[22]Solveig Singleton, "Privacy as Censorship: A Skeptical View of Proposals To Regulate Privacy in the Private Sector", CATO POLICY ANALYSIS No. 295, (Cato Inst. 1998), http://www.cato.org/pubs/pas/pa-295.pdf.
[24]馬長(zhǎng)山:《智能互聯(lián)網(wǎng)時(shí)代的法律變革》,《法學(xué)研究》,2018年第4期。
[25]Nick Wallace and Daniel Castro, "The Impact of the EU's New Data Protection Regulation on AI", October 3, 2018, https://www.datainnovation.org/2018/03/the-impact-of-the-eus-new-data-protection-regulation-on-ai/.
[27]吳沈括、羅瑾裕:《人工智能安全的法律治理:圍繞系統(tǒng)安全的檢視》,《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》,2018年第7期。
[28]李晟:《略論人工智能語(yǔ)境下的法律轉(zhuǎn)型》,《法學(xué)評(píng)論》,2018年第1期。
[29]張青波:《自我規(guī)制的規(guī)制:應(yīng)對(duì)科技風(fēng)險(xiǎn)的法理與法制》,《華東政法大學(xué)學(xué)報(bào)》,2018年第1期。
[30]FUNG B C M, WANG K, CHEN R, et al., "Privacy-preserving data publishing: a survey on recent developments", ACM Computing Surveys, 2010, 42(4),p. 14.
[31]張平:《大數(shù)據(jù)時(shí)代個(gè)人信息保護(hù)的立法選擇》,《北京大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》,2017年第5期。
責(zé) 編∕馬冰瑩
Abstract: The accelerated integration of artificial intelligence with the Internet and big data has caused new social risks and hence there has been the need for information regulation. Reviewing the relativity and publicity of information regulation and reflecting on the mechanism for information self-determination should be based on the balance of interests and properly handling the tension between personal interests and public interests in the information field. The theory of privacy scenarios provides support for dealing with this tension, which underscores the appropriate flow of information, constructs the four parameters for information regulation, opposes the dichotomy concerning information types, and provides an "appropriate" analysis tool for the specific scenarios. From the perspective of incentives and norms, we should explore the application of the scenario theory in the four areas: the agreement rules based on the usage scenarios and the sensitivity degree, the differentiated application scenarios, the legal, standards, protocols, and code specification systems, and technical self-regulation.
Keywords: Artificial intelligence; data governance; theory of contextual integrity; balance of interests