田海平,劉 程
在互聯(lián)網(wǎng)和移動互聯(lián)網(wǎng)成為人們工作和生活不可或缺的必備品的時代,特別是在以大數(shù)據(jù)、物聯(lián)網(wǎng)、云計算、人工智能為背景的被稱之為“工業(yè)4.0”的產業(yè)革命中,數(shù)據(jù)信息逐漸取代了用戶活躍度和流量,成為核心的價值取向和互聯(lián)網(wǎng)平臺競爭的主要資源[1]。在國家安全以及網(wǎng)絡公司的數(shù)據(jù)白熱化競爭中,世界各國相繼推出了國家層面的大數(shù)據(jù)戰(zhàn)略。人工智能、無線傳感器、大數(shù)據(jù)和基因組學,這些分屬通信領域、計算機領域和生物學領域的技術進步愈來愈緊密地融合在一起,共同推進了數(shù)字化人體基礎上的大數(shù)據(jù)健康革命。隨著個體醫(yī)療保健信息的存檔、完善、解讀、資源化及分布或共享模式的建立,醫(yī)療技術形態(tài)的數(shù)字化人體呈現(xiàn)出不可阻擋的發(fā)展趨勢。與此同時,公民數(shù)據(jù)信息安全則越來越以一種物化的方式被移交給數(shù)據(jù)公司和網(wǎng)絡公司的智能化機器的算法系統(tǒng)。一些網(wǎng)站和移動互聯(lián)網(wǎng)平臺通過網(wǎng)絡協(xié)議,采用變相強占、冒用大數(shù)據(jù)等非法交易方式,嚴重侵害了用戶的隱私權和信息安全。以大數(shù)據(jù)健康革命為例,大數(shù)據(jù)時代人們面臨的居于首位的倫理難題是個人隱私遭遇到前所未所的挑戰(zhàn)。如何在信息共享倫理和個人隱私倫理之間找到平衡點,是大數(shù)據(jù)時代必須首要予以應對的倫理挑戰(zhàn)。
大數(shù)據(jù)時代的到來,首當其沖地帶來了保護個人隱私和信息安全的倫理現(xiàn)實問題。人們面臨推進大數(shù)據(jù)信息共享和保護個人隱私之間的緊張沖突和雙重困擾,由此帶來的各種倫理挑戰(zhàn)也從多個方面展開。
近年來,醫(yī)療信息系統(tǒng)受到黑客入侵的事件屢屢現(xiàn)諸報端。例如,2014年美國社區(qū)衛(wèi)生系統(tǒng)(Community Health Systems)遭到黑客惡意攻擊,約260家醫(yī)院共計450萬患者的個人資料包括姓名、地址、社會保險號碼等數(shù)據(jù)被竊取。這是迄今為止記錄在案的最大一起醫(yī)療數(shù)據(jù)竊取事件。這一事件表明,我們確實生活在一個黑客和“數(shù)字掮客”老練事故的世界,未來我們也很難阻擋他們的肆意橫行。不過,黑客攻擊導致的信息泄露還只是冰山一角。據(jù)有關調查,美國大多數(shù)醫(yī)療中心和擁有完善衛(wèi)生信息系統(tǒng)的一流醫(yī)院,都遭遇過電子病歷泄秘事件,其中14%是由于黑客攻擊,50%以上是由于醫(yī)生的筆記本電腦和U盤被盜??梢?,醫(yī)療系統(tǒng)中的自帶移動設備也是醫(yī)療信息泄露的主要隱患。除自帶移動設備被盜之外,另一種信息安全隱患是使用自帶移動設備連接醫(yī)療系統(tǒng)的IT基礎設施所帶來的風險。這被稱之為醫(yī)療領域的“自帶設備”難題。
此外,醫(yī)療信息網(wǎng)絡系統(tǒng)存在的漏洞也是威脅信息安全的主要因素。目前大規(guī)模的互聯(lián)網(wǎng)安全漏洞正在出現(xiàn)或者被發(fā)現(xiàn)。一項針對美國醫(yī)院和醫(yī)療服務機構的網(wǎng)絡安全的深度調查,通過對包括專用醫(yī)療網(wǎng)絡系統(tǒng)、防火墻、呼叫中心、放射成像軟件、閉路監(jiān)控系統(tǒng)和路由器等在內的醫(yī)療設備和軟件進行審查后,得出的結論是:醫(yī)療網(wǎng)絡安全狀況慘不忍睹、令人擔憂。這就使得醫(yī)療信息泄露的系統(tǒng)性風險尤為顯著。
可以預見,隨著數(shù)字化人體或移動醫(yī)療的進一步推進,對可穿戴或者可植入性醫(yī)療設備的侵入風險也將會呈現(xiàn)為一種尖銳的信息安全和個人隱私問題。微型傳感器、納米機器人和可植入性醫(yī)療器械將構成智能化健康醫(yī)助體系的有機組成部分,它們是大數(shù)據(jù)健康革命的先鋒;然而,當黑客或者惡意代碼侵入這些微型傳感設備和患者體內的可植入性設備時,后果將不堪設想。就目前情況而言,體內植入醫(yī)療設備的患者越來越多,部分設備如胰島素泵或心臟除顫器等都可以通過無線連接進行記錄讀取和軟件更新。這些設備當然也面臨著巨大的侵入風險,往往成為勒索病毒攻擊的重點對象和重災區(qū),并因之嚴重威脅到患者的生命。
泄露或竊取患者信息帶來的最緊迫的問題之一就是身份盜竊。這可能導致高危經濟損失和個人情緒困擾。據(jù)美國波耐蒙研究所(Ponemon Institute)的一份調查報告顯示,2012年醫(yī)療身份盜竊事件導致184萬美國人蒙受損失,較上年增幅達20%。此外,據(jù)美國衛(wèi)生部(HHS)對此類盜竊行為的統(tǒng)計,自2009年起有高達6800萬美國人的醫(yī)療記錄存在違規(guī)現(xiàn)象。除此之外,醫(yī)療身份盜竊作為一個棘手的問題,不僅在于它導致的相關財務損失,而且一旦發(fā)生醫(yī)療身份盜竊事故,清除被污染的醫(yī)療記錄幾乎不可能。事實上,如果患者的醫(yī)療記錄里被混入他人的醫(yī)療信息,便很難進行區(qū)分和還原。如研究者所指出的:“醫(yī)療身份盜竊是醫(yī)療產業(yè)生態(tài)系統(tǒng)的污點,就好比對小鎮(zhèn)的供水系統(tǒng)投毒,每個人都會受到影響。”[2](P245)大數(shù)據(jù)醫(yī)療時代,避免個人醫(yī)療數(shù)據(jù)被污染將是一項重要的挑戰(zhàn)。
另一類傷害是基于信息的歧視和不公正對待。根據(jù)相關信息對人進行歸類,并因此使其得到某些利益的機會減少,或者使其遭受歧視性對待,這也是信息安全引起人們高度關注的原因之一。如保險機構與企業(yè)雇主總是想方設法通過大數(shù)據(jù)平臺(特別是通過電子病歷和醫(yī)療信息系統(tǒng)以及個人健康檔案)獲取個人醫(yī)療和健康信息,以對潛在的或現(xiàn)有的客戶和雇員進行分類或篩選,造成隱私傷害和歧視行為的發(fā)生。
大數(shù)據(jù)技術應用的前提是數(shù)據(jù)的開放共享,其中的關鍵是數(shù)據(jù)的超級融合。在大數(shù)據(jù)健康革命中,這一融合過程展現(xiàn)為將非醫(yī)學領域的智能移動設備、社交網(wǎng)絡等,與基因組學、生物傳感器和先進成像技術的數(shù)字化醫(yī)學合為一體。這意味著必須平行使用多個大型數(shù)據(jù)庫,也決定了數(shù)據(jù)源、數(shù)據(jù)庫呈多元化分布態(tài)勢。此外,構建大數(shù)據(jù)平臺不僅包含數(shù)據(jù)收集、存儲,而且還包括數(shù)據(jù)傳輸、數(shù)據(jù)分析或挖掘以及結果反饋與傳播等幾個環(huán)節(jié)。信息安全與隱私保護就需要具體深入到每一個環(huán)節(jié)。
特別說來,數(shù)據(jù)融合對于知情同意和匿名化原則造成了根本上的挑戰(zhàn)。在大數(shù)據(jù)條件下,醫(yī)療數(shù)據(jù)的價值不再單純來源于數(shù)據(jù)的初始用途,而更多源于反復的數(shù)據(jù)挖掘和二次利用。由于數(shù)據(jù)收集者無法準確告知數(shù)據(jù)的可能用途,必然導致知情同意原則的內在困境,即在不知情的情況下很難形成真正的同意。再者,由于大數(shù)據(jù)技術基于個人數(shù)據(jù)的供給,原有的知情同意原則毋寧說是阻礙或者限制了大數(shù)據(jù)潛在價值的實現(xiàn),因此必須予以革新[3](P44-67)。此外,通過數(shù)據(jù)融合與分析挖掘很容易識別個人信息并造成隱私傷害,因此匿名原則也不堪其用。就此而論,對于大數(shù)據(jù)技術的應用,我們也要考慮到,個人的信息隱私不應該再僅僅是指那些收集或聚合在一起的個人數(shù)據(jù),而且還應該包括那些通過分析挖掘而得出的個人資料[4](P35)。
大數(shù)據(jù)健康革命給個人健康帶來了福音,同時也使得個人處于一種被連續(xù)監(jiān)測的全景監(jiān)控和實時計算之中,給個人隱私和隱私權的保護帶來了尖銳的挑戰(zhàn),甚至有人喊出了“隱私已死”的口號。馬克·波斯特認為,在數(shù)據(jù)庫技術的影響之下,個人與個人之間、個人與機構之間的分界線不斷被逾越,“隱私作為一種行動模式甚至是一種論題都被取消了”[5](P93)。波斯特所指認的“隱私”概念有其特定的理論預設,即基于公共領域與私人領域二分基礎上的對于私人領域的保護。
歷史地看,自1890年沃倫和布倫戴斯發(fā)表《論隱私權》以來,人們雖然對隱私的定義爭論不一,但是隱私權作為一項權利得到了世界范圍內的一致認同。在面對大數(shù)據(jù)健康革命帶來的隱私問題時,我們可以選取不同的隱私觀念作為理論參照。隱私常被賦予不同的價值內涵(如自主、尊嚴、安全等)。羅斯勒(Beate Rossler)把隱私分為“信息隱私”“空間隱私”“決定的隱私”[6](P6-10)。根據(jù)這個區(qū)分,不同的隱私形態(tài)指向不同的隱私關切和利益。信息隱私強調對于個人信息的控制,指向相關個人信息被誰獲知以及以何種方式獲知;“空間隱私”指向個人活動空間不被排他性的觀察和侵擾;“決定的隱私”指向私人事務和決定的自由。羅斯勒界定的隱私概念固然有其明顯的自由主義特征,但是她有關隱私類型分類對于我們思考大數(shù)據(jù)技術背景下的隱私倫理問題有一定的參考意義。
一般說來,個人信息作為隱私信息與大數(shù)據(jù)信息中所內含的“信息隱私”在性質上是不同的。一般所謂個人信息指的是以電子或者其他方式記錄,能夠單獨或者與其他信息結合識別特定自然人身份或反映特定自然人活動情況的各種信息。我國《網(wǎng)絡安全法》第76條規(guī)定,個人信息是屬于公民隱私權范疇的信息,任何非法搜集、使用或交易的行為都將承擔包括刑事、民事和行政在內的法律責任。而大數(shù)據(jù)信息是直接或間接都無法識別到自然人特定身份的數(shù)據(jù)信息。它在法律性質上屬于知識產權范疇。大數(shù)據(jù)作為知識產權是獨立于公民個人隱私權的。它是數(shù)據(jù)信息時代的重要產品。依據(jù)這一界定,擁有數(shù)據(jù)權的產權人當然可以依法進行交易和使用。這種情況帶來的一個現(xiàn)實問題是,一些網(wǎng)站或數(shù)據(jù)公司往往有意混淆大數(shù)據(jù)與個人信息的界限,通過將個人信息進行打包,或者以非法手段對之進行簡單處理后,冒以大數(shù)據(jù)的名義進行交易使用。這就造成了對公民個人信息的隱私侵害。
通常,在大數(shù)據(jù)技術背景下針對隱私倫理問題討論的問題域中,研究者主要關注的還是信息隱私方面的倫理問題。這一點最為集中地體現(xiàn)在數(shù)據(jù)的開放共享與個人信息隱私保護兩者如何平衡的問題上。但是,數(shù)據(jù)的開放共享只是大數(shù)據(jù)技術得以實現(xiàn)的一個方面,除此之外,它還包括通過數(shù)字化技術獲取和存儲數(shù)據(jù),通過大數(shù)據(jù)平臺對海量數(shù)據(jù)進行深度挖掘、預測以及反饋等更為深度的或實質性的數(shù)據(jù)占有和使用方面。就此而言,大數(shù)據(jù)技術不僅在數(shù)據(jù)共享方面而且在數(shù)據(jù)深度挖掘上關涉到個人信息隱私的保護。其次,從數(shù)據(jù)的獲取方面看,通常所采用的實時監(jiān)控技術(使用傳感器)則關涉到一種類比意義上的“空間隱私”方面。一旦人們意識到有“第三只眼”的存在,其行為模式就必然會做出相應的調整和改變,由此也可能會形成某種規(guī)訓。此外,大數(shù)據(jù)技術所具有的數(shù)據(jù)挖掘和預測能力,可能會導致個人失去選擇和決定的能力或必要,人作為一種意志自由的存在者的這一觀念也將會不復存在。在這個意義上,大數(shù)據(jù)技術還關涉到個人的“決定的隱私”方面。總體上來說,大數(shù)據(jù)技術面臨使人類生活進入“超級全景監(jiān)獄”的困境[5](P98)。換言之,大數(shù)據(jù)健康革命可能帶來一種透明化的人類生存境況。
與大數(shù)據(jù)健康革命的發(fā)展直接有關的隱私利益是“數(shù)據(jù)權”?!皵?shù)據(jù)權”作為一種新型人格權,來源于隱私權。從法學視角看,數(shù)據(jù)權是公民民事權利的重要客體,其所有權屬于公民自己而非網(wǎng)站或網(wǎng)絡公司。我國《網(wǎng)絡安全法》明確重申了公民數(shù)據(jù)信息權的自我控制權,既包括知情權、選擇權、退出權,也包括網(wǎng)站對公民數(shù)據(jù)信息的安全保障義務、告知義務、預警義務和更改義務等[1]。實踐中,公民在信息不對稱的背景下,以構建個人健康信息系統(tǒng)或電子病歷的名義成為數(shù)據(jù)被攫取掠奪的對象。醫(yī)療保健領域成為個人隱私信息被非法竊取、交易和買賣的高發(fā)或頻發(fā)地帶。
就上述有關信息隱私、空間隱私、決定的隱私以及數(shù)據(jù)權的保護的探討而言,我們認為,它不僅在形態(tài)方面拓展了大數(shù)據(jù)健康革命下的隱私問題論域,使其具備更為全面和融貫的視野,而且借此進一步深入到了人性與人之尊嚴的探問。作為一種理論參照,它向我們展現(xiàn)了大數(shù)據(jù)健康革命背景下隱私問題的復雜性與深刻性。
大數(shù)據(jù)技術及其與無線傳感器技術、基因組技術的融合帶來的健康革命,作為一種可能從根本改變人類醫(yī)療與道德形態(tài)的技術力量,其應用的前景有賴于一種倫理上的道德合理性支撐。這一點已經為越來越多的有識之士所重視。伴隨著大數(shù)據(jù)健康革命的來臨,現(xiàn)實的“信息隱私”問題日益突出,“空間隱私”問題和“決定的隱私”問題亦隨著無處不在的監(jiān)控和數(shù)字化生存變得愈來愈緊迫。一方面,我們必須通過技術、法律以及道德等諸種規(guī)范形式,尋求數(shù)據(jù)共享與隱私保護之間的平衡,另一方面,各種挑戰(zhàn)迫使我們不得不重新思考隱私、隱私權以及隱私倫理問題本身的意義。
在大數(shù)據(jù)健康革命的背景下,關于隱私倫理問題的進一步思考涉及以下三個相互關聯(lián)的問題:(1)個人隱私關切的隱私倫理內涵為何?(2)探討隱私倫理問題時物理空間與賽博空間的區(qū)別何在?(3)大數(shù)據(jù)時代如何構建一種可共享的全球性隱私倫理?我們從隱私倫理的基本問題即隱私的利益和道德的相互關系入手,對此作簡要分述。
第一,隱私保護的道德合理性基礎在于,我們必須維護合理的個人隱私利益——這是隱私倫理的基本問題,即合理地平衡“隱私利益關切”與“倫理道德規(guī)范”之間的關系。
在這一點上,人們遭遇的倫理難題是:當出現(xiàn)各種異質性的(甚至相互沖突的)隱私利益關切時,我們應該作何取舍?在大數(shù)據(jù)健康革命條件下,具備深度機器學習能力的智醫(yī)系統(tǒng)能否建構一套合理的隱私利益關切的倫理框架?事實上,對于個人隱私利益關切之內涵的理解有多種不同的路徑。首先,從個人主義理論視角來看,隱私對應于一種排他性的“私人空間”(首先指向一種隱喻意義上的空間),只有在這種隱私“空間”得到保證的前提下,個人才能作為一個獨立自主的個體形成對于自我的內在理解,以及由此構建有意義的人際交往關系(如友誼、愛情等)。從現(xiàn)實的社會交往角度來看,我們之所以要保護隱私,是因為敏感信息的泄露將會導致傷害,或者使我們易于受到傷害,進一步而言它可能讓我們感到羞恥、尷尬、失去尊嚴或者失去他人的尊重,甚至導致歧視和侮辱[7](P181-189)。而在大數(shù)據(jù)條件下,在醫(yī)學中引入數(shù)據(jù)挖掘技術和深度機器學習方法會導致對“隱私空間”的重新界定。“智醫(yī)系統(tǒng)”(如科大訊飛的“智醫(yī)助手”)對數(shù)據(jù)及數(shù)據(jù)共享的高度依賴必然突破傳統(tǒng)醫(yī)療為患者信息保密的隱私空間架構。雖然最初的機器學習方法是基于大數(shù)據(jù)技術平臺而發(fā)揮著持續(xù)改善醫(yī)療照顧之工具的功能,但這個過程會帶來實質性的逆轉,即大數(shù)據(jù)在“AI+醫(yī)療”的深度動態(tài)拓展中會賦予“工具”以新的權威和權力。于是,對個人隱私利益的關切有賴于“第三方”(即介入醫(yī)患關系中的具備深度學習功能和數(shù)據(jù)挖掘功能的“智醫(yī)系統(tǒng)”)對隱私空間的界定。其次,隱私保護的道德合理性以往直接訴諸于個人的直覺;而在大數(shù)據(jù)條件下則更多地訴諸算法。對于個人的直覺來說,“在他人接觸我們所不愿泄露的個人信息時,我們可以不用定義隱私而仍明確到底什么在困擾我們”[8](P250)。但是,大數(shù)據(jù)技術被引入醫(yī)療活動無疑改變了隱私保護的道德合理性基礎。算法的選擇和設計(而非個人的直覺)才是賦予個人隱私保護以正當性或道德合理性的關鍵選項。例如,谷歌公司開發(fā)了一種深度學習算法來幫助醫(yī)生檢測乳腺癌轉移病灶病理圖像上的腫瘤;目前,該算法系統(tǒng)檢出腫瘤的準確率已經超過了病理學醫(yī)生。我們設想,當這種算法被廣泛運用時,以往建立在醫(yī)患關系基礎上的隱私倫理就需要重構于算法基礎上了。而問題的關鍵還不是在這里——問題的關鍵在于,算法的選擇和設計依賴于其背后的人即大數(shù)據(jù)算法專家,因此算法專家的立場、意圖和偏好會影響到具有深度學習功能的機器對隱私權的界定。這使得個人隱私利益關切要借助于算法工具,且不可避免地隱蔽著某種形式的算法歧視。再次,當隱私被作為一種情感化的事件來設想時,隱私是管理人與人以及人與物之間交互關系的一種“緊急協(xié)議”[9](P4-5);可是,當隱私被當作一種工具化的事件來設想時,隱私條款是嵌入在算法體系中的一種可工具化且具備不斷升級功能的一種允許協(xié)議。隨著機器學習向深度化、智能化、云端化和互聯(lián)網(wǎng)化方向的快速發(fā)展,醫(yī)療大數(shù)據(jù)中的隱私保護作為一種可工具化的允許協(xié)議會變得越來越重要。一方面,它旨在防范任何個人和機構通過強化數(shù)據(jù)共享而造成對個人隱私利益的損害;另一方面,它力圖破除任何個人和機構出于過強的倫理道德教條而阻礙數(shù)據(jù)共享的實現(xiàn)。上述不同的理解路徑,有助于我們從更加豐富和多元的角度理解隱私利益關切的內涵,并由之思考一種道德合理性的理據(jù)。盡管它們各有所側重,但總體而言,保護隱私是對人之尊嚴與自由的關切的具體體現(xiàn)。在大數(shù)據(jù)以及全球互聯(lián)互通的時代,形成有關合理的隱私利益關切的道德共識變得日益突出和必要。技術條件之變化日新月異,新的隱私侵權亦層出不窮。在大數(shù)據(jù)健康革命的各種最新進展中,合理的“隱私利益關切”需要有與之相適應的道德規(guī)范之建構。
第二,對于數(shù)字信息時代的隱私問題之探討,通常包含了這樣一種常識性的假設,即關于線下的物理空間的隱私期待應該反映在管理線上的賽博空間的行為能力之中,且兩者應該保持同等的期待。
大數(shù)據(jù)時代的隱私問題必須考慮這一問題:這種假設是否是真實且合理的?它包含了兩個方面:其一,在線上的虛擬世界與線下的真實世界,隱私是否意味著同樣的事情;其二,個人是否應該擁有控制自身數(shù)據(jù)的合法權利和實際能力?如果有,個人在何種程度上擁有這種合法權利和實際能力?這些問題直接指向一種更深層次的倫理質詢——如何理解物理空間與賽博空間中個人行為與期待之間差異?兩者應該作何區(qū)分?進一步而言,在兩種不同的空間維度中,控制自身數(shù)據(jù)的期待與程度之差異性為何?我們如何將兩者協(xié)調起來?[10](P17-18)此外,失去自身數(shù)據(jù)控制帶來的好處與可能遭遇的風險如何衡量?這些都是大數(shù)據(jù)時代我們必須加以認真思考和嚴肅對待的問題。從技術角度講,線下物理空間中的個人信息有可能也有必要通過線上賽博空間之中介轉化成為大數(shù)據(jù)。否則,大數(shù)據(jù)技術以及由之展現(xiàn)的大數(shù)據(jù)健康革命就不可能實現(xiàn)。比如,醫(yī)療機構針對個人健康信息所做的電子病歷是構成醫(yī)療大數(shù)據(jù)的重要組成要素。但是,線下個人信息轉化成為大數(shù)據(jù)的前提是必須經過脫敏化處理,即通過法定標準和程序,將用戶可識別信息進行不可逆性去除。實踐中的脫敏操作既要避免大數(shù)據(jù)中殘存可識別信息成分,又要防止存在數(shù)據(jù)可逆的可能,這需要政府和監(jiān)管部門出臺嚴格的標準和程序以使敏感信息的脫敏化處理能夠充分地體現(xiàn)個人隱私利益的基本訴求和對個人隱私及其安全進行切實保護的規(guī)范性要求。
第三,大數(shù)據(jù)健康革命使得全球互聯(lián)互通的時代意蘊進一步突顯,合理平衡數(shù)據(jù)共享與隱私保護,突破隱私倫理的地方性特點,構建一種可共享的全球性隱私倫理已迫在眉睫。
在《大數(shù)據(jù)時代》中,舍恩伯格指出,我們應該改變當下隱私倫理以個人為中心的觀念,轉向以數(shù)據(jù)收集者和使用者的責任為中心的保護模式。舍恩伯格的這一論斷,涉及到大數(shù)據(jù)時代個人隱私保護的兩個維度:一是基于個體的權利倫理維度;二是基于總體(數(shù)據(jù)收集者以及使用者)的責任倫理維度。從總體的責任倫理視角來看,數(shù)據(jù)收集者和使用者,不論是個人、公司還是國家,都需要就其相關行為所造成的影響承擔責任,并應該就涉及數(shù)據(jù)再利用的行為接受監(jiān)督評價。各國政府和企業(yè)有責任在一種開放性的對話協(xié)商與互惠合作的基礎上,消融數(shù)據(jù)壁壘,突破隱私倫理的地方性特點,共同推進大數(shù)據(jù)時代網(wǎng)絡空間命運共同體的構建。在大數(shù)據(jù)時代,個人隱私作為人的一項基本權利,其核心訴求不是在技術上促使個人信息如何“不被看見”或“不被解讀”,而是當我們的個人信息“被看見”或者“被解讀”時要具備一種分辯力和辯護力,以使隱私成為一項能夠得到維護的基本權利。它指向一種樸素的倫理方式:當某人或某個機構以某種方式看見、讀解和使用我們未經授權的個人信息時,我們能夠識別、保護我們自己的個人隱私權。這在法學判例或法理意義上是不難理解的。但是,在倫理學意義上仍然是大數(shù)據(jù)時代隱私倫理面臨的新問題。從維護個人權利的視角來看,這種對個體隱私權利的切實保障,有助于防止某種類型的“大數(shù)據(jù)利維坦”的誕生,規(guī)避權力(Power)對于權利(Right)的肆意侵犯。個人隱私利益越是獲得切實的尊重和維護,國家和企業(yè)在全球共建網(wǎng)絡命運共同體的大數(shù)據(jù)時代便越是有力量承擔相應的責任。
在大數(shù)據(jù)時代,保護個人隱私和信息安全,似乎可以通過把人們的隱私倫理訴求寫入計算機算法體系之中得以實現(xiàn)。它推動人們不得不關注和思考大數(shù)據(jù)時代隱私倫理的論域拓展和倫理的基本問題。
以大數(shù)據(jù)健康革命為例,我們不難發(fā)現(xiàn),以往建立在個人直覺、情感和空間感知基礎上的隱私倫理框架,正在面臨日益嚴峻的由道德合理性基礎之變更所帶來的論域拓展。一方面,隱私保護和隱私倫理愈來愈訴諸大數(shù)據(jù)算法體系,而被當作是一種可工具化、可計算的且具備不斷升級的允許協(xié)議。另一方面,物理空間中的個人信息轉化為賽博空間中的大數(shù)據(jù)必須完成對敏感信息的脫敏化處理,而這個過程亦需要由大數(shù)據(jù)算法所設計的標準化程序來完成。從這兩個方面看,隱私倫理的論域拓展必須應對大數(shù)據(jù)時代算法體系帶來的新問題和新挑戰(zhàn)。那種以算法形式寫入或嵌入機器之中的隱私倫理條款是什么?如何避免其中隱蔽的算法歧視和可能造成的更大范圍和更大規(guī)模的隱私侵害?以及,它一旦成為某些人或機構給數(shù)據(jù)庫安裝的一把門鎖的話,那到底意味著什么?隱私條款是否會蛻變成一種權力話語的化身?這類問題仍然是一些并不比防范隱私侵權更易于解決的問題。進一步往深里探究,如果隱私保護條款成為數(shù)據(jù)供給方或運營商借以進行數(shù)據(jù)權的壟斷和獨占以謀取不當利益的工具時,情況又會怎樣?我們如何做到數(shù)據(jù)信息的開放共享和隱私權利的保護之間的合理的平衡?事實上,當數(shù)據(jù)成為了一種資源或資本時,那些控制或擁有數(shù)據(jù)的人(或機構)實際上創(chuàng)造了一種將我們變成各種具有可視性或可讀性的數(shù)字人的技術。這些問題和難題所構成的挑戰(zhàn)愈來愈嚴峻(也愈來愈緊迫)地指向對隱私倫理的基本問題的重審。它要求人們在拓展大數(shù)據(jù)時代隱私倫理之論域時,不論是在價值形態(tài)上還是在技術形態(tài)上,都必須處理好隱私利益關切和倫理道德規(guī)范之間的辯證關系。
不論人的生產、生活和工作究竟是以何種分類方式被編碼到一種數(shù)字人的鏡像之中,大數(shù)據(jù)時代(特別是在醫(yī)療健康領域蓬勃興起的大數(shù)據(jù)健康革命)的核心的價值旨趣是要默認數(shù)據(jù)的可及性、透明性和可讀性。這是大數(shù)據(jù)時代算法能夠進入人的生產、生活和工作(包括醫(yī)療和教育)并發(fā)揮其合理化工具性價值之功能的必要前提。然而,當我們如此這般描繪大數(shù)據(jù)時代的圖景時,尊重個人隱私權和保護個人隱私利益則是一個毋庸置疑的底線倫理原則。也就是說,當技術如此運作時,特別是當技術如此運作而走得更長遠更穩(wěn)固時,它必須附加一個限定條件——即盡管數(shù)據(jù)可以在“一種默認的透明性中”被操作,但是個人“卻應該被一種默認的非透明性所保護”[4](P32-36)。這種共享與保護之間辯證法及其內在的緊張關系,特別地說來,構成了大數(shù)據(jù)健康革命無法割舍的兩面性。它實際上凸顯了將數(shù)據(jù)共享的倫理與隱私保護的倫理既以一種價值方式又以技術方式在大數(shù)據(jù)時代同時實現(xiàn)出來的任務。
[1]朱巍.尊重公民隱私權是信息時代的底線[J].光明日報,2017-11-30.
[2]埃里克·托普.未來醫(yī)療:智能時代的個體醫(yī)療革命[M].鄭杰,譯.杭州:浙江人民出版社,2016.
[3]Solon Barocas,Helen Nissenbaum.Big Data’s end run around anonymity and consent[M].Julia Lane(ed.).Privacy,Big Data,and the Public good:Framework for engagement[M].New York:Cambridge University Press,2014.
[4]張軼瑤,田海平.大數(shù)據(jù)時代信息隱私面臨的倫理挑戰(zhàn)[J].自然辯證法研究,2017(6).
[5]馬克·波斯特.第二媒介時代[M].范靜曄,譯.南京:南京大學出版社,2001.
[6]Beate Rossler.The value of privacy[M].Trans.by.R.D.V.Glasgow.Cambridge:Polity Press.2005.
[7]Matti Hayry (ed.).The ethics and governance of human genetic database:European perspectives [M].New York:Cambridge University Press,2007.
[8]尤瑞恩·范登·霍文 等.信息技術與道德哲學[M].趙迎歡 等,譯.北京:科學出版社,2013.
[9]Andrew Mcstay.Privacy and philosophy:new media and affective Protocol[M].New York:Peter lang publishing.2014.
[10]Kord Davis,Doug Patterson.Ethics of Big data[M].Sebastopol:O’Reilly Media.2012.