王昱興 袁 博
以大數(shù)據(jù)和人工智能為代表的新興信息技術不斷改變著人類社會的面貌。技術的更新?lián)Q代使得社交媒體、電子商務、智慧城市、量化金融和醫(yī)療健康等領域進入了發(fā)展快車道,智能設備和軟件應用為人們帶來方便與快捷的同時,數(shù)據(jù)隱私問題也愈發(fā)嚴重。2020年12月,廣東省深圳市第六屆人大常委會審議了《深圳經(jīng)濟特區(qū)數(shù)據(jù)暫行條例(草案)》。作為我國第一部數(shù)據(jù)領域的綜合性專門立法,該條例首次提出了“數(shù)據(jù)權益保護”的概念,并規(guī)定收集、處理涉及隱私的個人數(shù)據(jù)須得到明示同意。法律條例的出臺雖然能夠在宏觀上對違規(guī)收集個人數(shù)據(jù)的行為進行限制,但在個人隱私保護方面仍存在不小的難度。即使消費者能夠主動選擇將哪些顯式的個人信息交給網(wǎng)絡公司,但無法控制公司如何利用這些信息。數(shù)字時代信息技術的更迭能力遠遠超過規(guī)則、法律條例和規(guī)范的修訂速度,個人隱私數(shù)據(jù)需要的安全性、機密性和完整性對數(shù)據(jù)的保護和存儲都提出了全新的挑戰(zhàn)。數(shù)據(jù)倫理問題是進入數(shù)據(jù)城市、數(shù)據(jù)社會無法回避的重要環(huán)節(jié),且隨著信息技術的進步而愈加迫切。
隱私倫理問題研究僅有百余年歷史。1890 年,美國律師沃倫(Samuel D.Warren,1852-1910)和布蘭迪斯(Louis D.Brandeis,1856-1941)于《哈佛法學評論》上發(fā)表的《論隱私權》一文中首次提出“隱私權”的概念,指出隱私權是人們享受獨處的權利[1]223。而早在人工智能和大數(shù)據(jù)的概念被提出之前,美國科學家、控制論的創(chuàng)始人維納(Norbert Wiener,1894-1964)就曾經(jīng)擔心自動化技術可能會給人類帶來一系列的道德倫理問題[2]134。尼森鮑姆(Helen Nissenbaum,1954-)在《信息時代的隱私保護:公共場所的隱私問題》一文中拋棄了公私領域的二分法,提出了語義完整性理論,為公共空間的隱私問題提出了分析框架。她認為機構組織或個人在傳播與利用他人信息時,都應該遵循語義完整性原則,保持信息與原語境的一致性,遵守適當性規(guī)范與流動分布的規(guī)范[3]78。大數(shù)據(jù)之父,牛津大學教授舍恩伯格(Viktor Mayer-Sch?nberger,1966-)提出了數(shù)據(jù)化模型,認為大數(shù)據(jù)技術能夠將許多抽象概念渲染成為數(shù)據(jù),而海量數(shù)據(jù)的產(chǎn)生也將導致更多的隱私信息被泄露,政府和企業(yè)也可能會被數(shù)據(jù)的虛假魅力所迷惑[4]1856。近些年來,國內(nèi)的相關學者也將研究重點放在了人工智能和大數(shù)據(jù)倫理方面。段偉文研究了大數(shù)據(jù)時代的隱私權問題,他認為大規(guī)模的個人數(shù)據(jù)收集、分析和共享對個人隱私權益帶來了諸多影響,信息時代下對隱私的保護應該建立于對個人數(shù)據(jù)的規(guī)制之上,亟須為新技術的濫用設定道德倫理界限[5]95。劉曉力站在認知科學的角度,對人工智能的發(fā)展現(xiàn)狀和未來前景進行了分析與展望,她認為基于大算力和大數(shù)據(jù)驅動的人工智能技術雖然卓有成效,但是深度學習的“黑箱”問題會帶來有違倫理的反?,F(xiàn)象,而當前人工智能依然面臨著語義、物理和情感落地的難題,應為人工智能建構合理的認知架構,使之成為可信賴的道德主體[6]25。閆坤如探究了人工智能“合乎倫理設計”的理論來源,提出在設計人工智能算法時,應將正確的道德規(guī)范與具體的技術標準和設計環(huán)節(jié)相結合,堅持公平、可靠、安全的設計原則,以算法的透明化為基礎,保護人們的隱私不受侵犯[7]15。
從以上文獻可以看出,學者們在研究隱私問題的過程中,站在倫理學的角度對其定義、范圍和社會影響展開研究與探索,同時也關注到了大數(shù)據(jù)技術本身產(chǎn)生的一系列沖擊,逐漸形成了數(shù)據(jù)倫理的研究分支。數(shù)據(jù)倫理研究的兩個基本維度是由“倫理”和“技術”所構成的[8]145,而技術維度常被人忽視,有必要強調并進一步探索。信息時代的隱私問題正面臨著新的困境,人工智能和大數(shù)據(jù)技術的迅速發(fā)展以及手機軟件和智能物聯(lián)網(wǎng)設備的普及帶來了數(shù)據(jù)風暴,雖然我國陸續(xù)出臺了一系列法律條文,但仍然難以跟上技術更迭的步伐,無法及時對新技術造成的隱私問題加以限制。與傳統(tǒng)的隱私問題相比,一方面,用戶的隱私數(shù)據(jù)被分散到了世界各地的服務器中,數(shù)據(jù)管理的主體并不明確,隱私數(shù)據(jù)的邊界也在不斷演變,在過去看似安全的數(shù)據(jù),現(xiàn)在也可能被用來窺探個人的偏好[9]5803。另一方面,正如尼森鮑姆所說,隱私的哲學和法律理論早就承認了隱私與個人信息之間的關系,但幾乎沒有為處理公共隱私問題提供一個明確的辯護框架[10]560。法律條文的制定和實施有滯后性,且涵蓋有限。除此之外,隱私、隱私權、數(shù)據(jù)權益等抽象概念的規(guī)范與實踐中層出不窮的問題間如何相互界定等,在理論界也是難題,這些都成為了解決信息時代隱私保護問題的絆腳石。因此,不妨轉換視角,通過分析隱私問題的技術本質和邏輯,探索大數(shù)據(jù)技術為何會引發(fā)倫理問題,并尋找可能的解決方案。
“殺熟”指的是當用戶頻繁購買某個商品并成為“熟客”后,會對商品產(chǎn)生一定的依賴性,商家便可以利用這種依賴性進行差異化定價,從而賺取額外的利益[11]8。在信息時代,大數(shù)據(jù)殺熟的對象一般為忠誠客戶即頻繁在同一平臺上進行重復消費行為的老客戶,他們與經(jīng)營者之間往往是“熟而不識”。殺熟現(xiàn)象在基于互聯(lián)網(wǎng)平臺的機票、酒店、電影、電商、出行等消費領域多有存在,廣大消費者即使知悉,往往也無計可施。那么,為什么大數(shù)據(jù)能夠“神不知鬼不覺”地做到殺熟?
實際上,這與人們消費模式的轉變密切相關。與傳統(tǒng)的線下消費不同,在非面對面的虛擬環(huán)境下,線上商家可以知曉顧客的個人背景、賬號信息、消費記錄,進而研究出消費習慣和偏好等信息。用戶在網(wǎng)絡上的一舉一動,商家都能夠通過互聯(lián)網(wǎng)技術和大數(shù)據(jù)技術以較低的成本進行獲取。對商家來說,每一位顧客幾乎是透明的,因此在信息不對稱的情況下,可以采取差異化定價,而傷害的往往是忠誠度相對較高的線上消費群體。
大數(shù)據(jù)殺熟具有明顯的技術依賴性,用戶畫像技術是其中的典型代表[12]251。這種技術實際上是一種標簽化的用戶模型,而標簽是基于用戶行為數(shù)據(jù)的一種高度抽象化的表示。構建用戶畫像時所使用的標簽類別可以根據(jù)實際業(yè)務需求和應用場景劃分為不同的主題和粒度,建立用戶畫像的過程實際上是一個從粗粒度到細粒度的過程,例如一級分類中的“行為標簽”可以進一步劃分為細粒度的上網(wǎng)習慣、互動行為、購買行為等,而各種行為可進一步細化為上網(wǎng)時段、日收藏數(shù)、訂閱產(chǎn)品等更加細粒度的標簽。用戶畫像設計的初衷是為用戶提供“千人千面”的個性化服務,如推薦可能感興趣的產(chǎn)品與服務,進而提升用戶體驗和用戶的價值。但如果平臺在為用戶提供服務的過程中利用用戶的使用習慣、價格敏感度以及依賴性等進行差異化的定價以謀求額外的利潤,則可被認為涉嫌存在大數(shù)據(jù)殺熟的不當行為。例如,在出行行業(yè),通過分析消費者的打車記錄可以發(fā)現(xiàn)其固定的上下班路線(高依賴性),因此商家可能據(jù)此對這些線路的打車費用進行上浮。同時,當商家通過分析用戶的瀏覽、收藏和購買記錄認定某個用戶為價格不敏感的用戶時,也有可能刻意減小其在購買商品時所享受的優(yōu)惠幅度。值得注意的是,商家用來對用戶進行分析的算法及規(guī)則等通常并不公開,影響其定價策略的因素也多種多樣,對老客戶的殺熟行為與對新客戶的優(yōu)惠活動之間的邊界也存在一定的模糊性,這些都為大數(shù)據(jù)殺熟行為的認定造成了挑戰(zhàn)。
從大數(shù)據(jù)殺熟這一反?,F(xiàn)象可以看出,數(shù)據(jù)的價值在于利用各種算法對其進行分析以產(chǎn)生更高的附加價值。谷歌、百度、Facebook 等公司開發(fā)的網(wǎng)站會在用戶使用時收集相關的設備識別碼、歷史記錄和手機通訊錄等信息,并將其用于大數(shù)據(jù)分析,從而為用戶精準地推送相關服務[13]60。對于公司自身來說,用戶使用產(chǎn)品時生成的行為數(shù)據(jù),能夠為公司的商業(yè)戰(zhàn)略、人員和業(yè)務調整提供有力的參考甚至帶來更高的利潤。但是,算法的加持并不一定會帶來正面作用,對大數(shù)據(jù)的錯誤分析可能會導致嚴重的后果,不僅會對消費者的隱私造成侵犯,甚至會采取適得其反的措施,以至于公司利益受損,可謂“雙刃劍”。
數(shù)據(jù)倫理問題的存在,不是某一方單獨造成的結果,與軟件研發(fā)和應用過程中各方群體的訴求和數(shù)據(jù)控制力的不均衡密切相關(表1)。

表1 軟件研發(fā)和應用過程中參與者的行為分析
1.公司決策層
負責政策制定和軟件的頂層設計,他們接觸的并不是海量的用戶數(shù)據(jù),而是經(jīng)過軟件開發(fā)人員分析過后的抽象數(shù)據(jù),并根據(jù)分析結果調整軟件的功能模塊以及業(yè)務類型。作為軟件工程的頂端,公司決策層的目的是提高公司收益與擴大影響力,能夠在激烈的企業(yè)競爭中勝出。然而,過度信任大數(shù)據(jù)分析的結果可能導致公司做出適得其反的措施導致利益受損,為了挽回損失,一些公司會不擇手段地對用戶數(shù)據(jù)進行“暗箱操作”,從而損害消費者的隱私權益。
2.軟件開發(fā)者
他們處于軟件工程的核心位置,掌握著海量的用戶數(shù)據(jù),通過各種算法和數(shù)據(jù)結構來實現(xiàn)應用功能。用戶數(shù)據(jù)經(jīng)由物聯(lián)網(wǎng)傳感器、網(wǎng)絡視頻流、點擊流等方式上傳到網(wǎng)絡平臺并儲存在了分布式數(shù)據(jù)庫系統(tǒng)(DDBS)里,電子數(shù)據(jù)庫賦予了這些記錄永久性、延展性和轉移性的特點。然而,隱私法規(guī)并沒有明確統(tǒng)一的數(shù)據(jù)儲存規(guī)范,允許軟件收集哪種數(shù)據(jù),這為灰色區(qū)域和不確定性留出了空間,而這些區(qū)域和不確定性是無法通過法律手段解決的。因此軟件開發(fā)人員可以自由定制數(shù)據(jù)結構,便于算法分析。而大數(shù)據(jù)分析算法的性能又由數(shù)據(jù)的規(guī)模和質量同時決定。訓練數(shù)據(jù)分布的不平衡或者帶有偏見的人為設計會導致算法訓練過程中的偏差,從而使系統(tǒng)放大這種偏差,導致算法歧視現(xiàn)象的發(fā)生。除了原始數(shù)據(jù)和人為干預,數(shù)據(jù)抽樣帶來偏差以及較差的模型參數(shù)設置,甚至使用算法本身也會導致算法歧視[14]18。另外,一個儲存了海量用戶信息的數(shù)據(jù)庫,其認證、訪問、保密和安全措施是防止數(shù)據(jù)泄露最主要的屏障,如果被黑客非法獲取數(shù)據(jù)庫的訪問修改權限,后果將不堪設想。
3.用戶
作為軟件的使用者,其下載的目的是滿足生活娛樂所需。作為數(shù)據(jù)的產(chǎn)生者,在使用過程中,軟件會記錄用戶的行為數(shù)據(jù),按照預先設定好的結構進行封裝,并通過互聯(lián)網(wǎng)傳輸,最終儲存在數(shù)據(jù)庫中。這看似雙贏,實則暗藏玄機。在使用軟件之前,用戶會進行隱私協(xié)議的授權,雖然用戶享有這些原始數(shù)據(jù)的所有權并且同意軟件收集和分享自己的行為數(shù)據(jù),但他們無從知曉數(shù)據(jù)是何時何地以怎樣的形式被組織和上傳。并且,為了能夠使用軟件,用戶不得不持續(xù)接受這種被動的上傳。對于缺乏隱私保護意識的用戶來說,這無疑是將自己時刻暴露在風險之下。
無線傳輸和編解碼技術的廣泛應用為物聯(lián)網(wǎng)的發(fā)展奠定了堅實基礎。物聯(lián)網(wǎng)是一個物理對象的網(wǎng)絡,設備之間可以通過接口和網(wǎng)絡資源進行數(shù)據(jù)共享,而大量的網(wǎng)絡節(jié)點構成了一個復雜的網(wǎng)絡系統(tǒng)。它不僅使設備能夠在封閉的孤島內(nèi)進行通信,而且還可以跨越不同類型的網(wǎng)絡進行通信,形成一個更加連通的世界。這種連通性在拉近人與人之間距離的同時,數(shù)據(jù)泄露問題也愈演愈烈。2018 年4 月,一些不法分子通過非法途徑破解了安裝在家庭或酒店賓館內(nèi)部的攝像頭,盜取其中的私密視頻并在網(wǎng)絡上公開販賣[15]47。2019 年6月,有消息稱某品牌的智能家庭音箱在無人操作的情況下將用戶談話的錄音文件發(fā)給了通訊錄中的聯(lián)系人[16]2113。在黑帽安全技術大會上,專家也表示可以通過技術手段非法訪問心臟起搏器、無線胰島素泵和其他設備的數(shù)據(jù)[17]2133。物聯(lián)網(wǎng)設備的基數(shù)龐大,并且增長迅速,加上芯片制造技術的迅猛發(fā)展,其集成度也越來越高,更多的產(chǎn)品同時配備了攝像頭、麥克風、加速度傳感器和人臉識別系統(tǒng)等模組,而且各個部件之間相互協(xié)作,很難將某個模塊分離出來;并且物聯(lián)網(wǎng)設備制造商往往不會專門向消費者詳細說明用戶數(shù)據(jù)是如何被收集、上傳和使用的傳輸協(xié)議等信息;設備在開啟后也會不間斷地在后臺運行,缺乏專門為用戶設置的可用來查看或更改其隱私設置的界面,而且許多產(chǎn)品的隱私政策很難被找到。這些都為數(shù)據(jù)泄露埋下了隱患。
雖然各大智能硬件廠商幾乎都在努力進行技術革新,提高數(shù)據(jù)加密的可靠性和傳輸過程的安全性,并以此作為產(chǎn)品的賣點,但是隱私泄露問題的本質實際上是如何建立一個長期穩(wěn)固的人與人、人與物和物與物的信任體系,這里所說的物代表物聯(lián)網(wǎng)對象,包括傳輸網(wǎng)絡、硬件實體、云服務端等。萬物互聯(lián)應基于一個良好的信任體系,這樣不同系統(tǒng)之間共享的數(shù)據(jù)才會越來越多。如果數(shù)據(jù)來源于不受信任的設備,或者本身是不受信任的,那么數(shù)據(jù)收集和分析工作是沒有意義的。使用或接入未受信任的物聯(lián)網(wǎng)設備越多,隱私泄露的風險也就越大。因此,有必要對信任體系中的三種交互方式進行分析,如圖1所示。

圖1 物聯(lián)網(wǎng)信任體系
1.人與人
在物聯(lián)網(wǎng)的世界里,每個人都擁有自己的數(shù)字身份,基于智能設備的信息采集和基于網(wǎng)絡的信息傳輸,生產(chǎn)者、銷售者和消費者之間形成了新的互動模式,表面上傳輸?shù)奈锫?lián)網(wǎng)數(shù)據(jù),實際上隱藏了更深層次的人際關系[18]133。2017 年的“360 水滴直播事件”和2020 年的韓國“N 號房”事件再次引發(fā)了公眾對網(wǎng)絡攝像機私密性和安全性的巨大擔憂,以及對物聯(lián)網(wǎng)設備制造商的信任危機。而事件的背后,是人與人之間不符合道德規(guī)范的交際互動,而這些互動,是借由物聯(lián)網(wǎng)設備完成的。一個互聯(lián)的、和諧的社會關系網(wǎng),應該建立在人與人之間相互信任,遵循道德規(guī)范的基礎之上,這樣才能夠充分發(fā)揮物聯(lián)網(wǎng)開放共享的優(yōu)勢。
2.人與物
信息技術的發(fā)展讓我們越來越多地生活在公共空間下,遍布各地的物聯(lián)網(wǎng)設備在提供各種服務的同時也在監(jiān)視著我們的生活,正如英國哲學家邊沁(Jeremy Bentham,1748-1832)提出的“全景監(jiān)獄”,它是一種圓形建筑,監(jiān)獄管理者能夠在瞭望塔中觀察監(jiān)獄內(nèi)所有囚犯的行為,而監(jiān)舍中的犯人無法看到監(jiān)視人員[19]35。在物聯(lián)網(wǎng)時代,智能手機、網(wǎng)絡攝像機、智能音箱和無人機等硬件設備提供了記錄和共享位置、聲音、圖像的能力,不法分子可以通過它們來“監(jiān)視”我們的日常生活和模式,而且這種行為是難以被發(fā)現(xiàn)的。不幸的是,對于大部分人來說,物聯(lián)網(wǎng)仍然是一個相對較新的技術,如果用戶缺乏對物聯(lián)網(wǎng)充分的理解和信任,對個人隱私保護的認識不足,錯誤地使用物聯(lián)網(wǎng)設備,不僅會處于被監(jiān)控的危險之中,而且還會影響到所有有意或無意連接到該設備的人。
3.物與物
傳統(tǒng)互聯(lián)網(wǎng)的核心是中心化的服務器以及數(shù)據(jù)庫,隨著物聯(lián)網(wǎng)的產(chǎn)生,基礎設施、網(wǎng)絡流量和用戶需求呈現(xiàn)出爆炸式增長的趨勢,各種物聯(lián)網(wǎng)應用也逐漸具有去中心化和泛在性的特點。設備與設備之間通過數(shù)據(jù)傳輸進行訪問和信息共享,它們的信任機制往往是由人工設定的,通過各種加密算法、數(shù)字證書等建立信任關系。比如家庭網(wǎng)關,作為智能家居控制的樞紐負責幾乎所有家庭設備的接入、認證與交互,如果被黑客非法修改網(wǎng)關的認證機制,從而獲得所有設備的訪問和控制權限,后果將十分嚴重。
大數(shù)據(jù)技術的內(nèi)涵十分廣泛,不僅包括支持數(shù)據(jù)采集、傳輸和存儲的硬件環(huán)境,還包括對數(shù)據(jù)進行分析和處理的軟件與算法。作為一種計算技術而言,大數(shù)據(jù)技術本身并不具有天然的好與壞的屬性,然而技術在使用過后造成的一系列后果卻可能被貼上善與惡的標簽,這實際上是由人們對大數(shù)據(jù)的不合理運用和缺乏完善的倫理準則導致的。
阿格里(Philip E.Agre)提出的“監(jiān)視模型”和“捕獲模型”以及邁(Jens-Erik Mai)倡導的“數(shù)據(jù)化模型”都能夠從不同的角度對數(shù)據(jù)隱私進行分析。傳統(tǒng)的監(jiān)視模型認為監(jiān)視是隱蔽的,但并非具有破壞性,它是一種有意識的策劃(可能帶有某種政治性質)[20]103。從隱私監(jiān)視模型的角度出發(fā),在互聯(lián)網(wǎng)場景下,雖然手機APP的使用者在某種程度上受到了網(wǎng)絡公司的“監(jiān)視”,但這并不是數(shù)據(jù)收集這一行為帶來的,APP 所收集的數(shù)據(jù)僅僅是對現(xiàn)實的反映(用戶的操作行為)或理性的表現(xiàn)(用戶的某種偏好)。捕獲模型的思想來源于計算機系統(tǒng),它強調的是從用戶端獲取何種類型的數(shù)據(jù)并關注這些數(shù)據(jù)以什么形式進行組織以及試圖從這些數(shù)據(jù)中抽取怎樣的知識,它的目的是重建用戶的行為[21]245。從捕獲模型的角度出發(fā),APP 捕獲用戶數(shù)據(jù)的種類越多越詳細,捕獲持續(xù)的時間越長,就越有可能重建和分析用戶的行為活動。以上兩種模型都關注數(shù)據(jù)的收集并且認為隱私保護是對通過監(jiān)視活動或捕獲活動收集到的數(shù)據(jù)進行控制的一種手段。與前面兩種隱私分析模型不同的是,數(shù)據(jù)化模型認為數(shù)據(jù)是一種環(huán)境狀態(tài)的代表(時間、地點、任務、事件等),它更加關注于用戶信息被獲取之后的事情并假設用戶數(shù)據(jù)已經(jīng)被收集和積累,甚至被盜取和販賣[22]195,而隱私問題則演變成了利用現(xiàn)有數(shù)據(jù)構建了什么樣的新知識。數(shù)據(jù)化模型強調基于搜集到的數(shù)據(jù)對人進行分析的能力,而數(shù)據(jù)分析在人和各種活動之間建立了關聯(lián)性,雖然個體無法控制自己在數(shù)字市場上留下的個人信息,但是這些信息被處理和提煉的過程屬于隱私利益的范疇。
此外,網(wǎng)絡平臺在處理用戶在網(wǎng)絡上進行各種活動所留下的痕跡時,如發(fā)布的留言、圖片及視頻,也會存在隱私問題。例如,當人們使用一款手機軟件時,往往會在首次運行時進行個人隱私服務的授權,此時軟件展示給用戶的通常只是簡略的隱私條款,而詳細的隱私說明則隱藏在超鏈接中。一方面,大多數(shù)人會在沒有經(jīng)過深思熟慮、沒有完整閱讀或完全理解隱私政策和協(xié)議的情況下就同意提供個人信息。另一方面,這些隱私協(xié)議會使用相當冗長并且艱深晦澀的法律語言,使得普通用戶根本沒有意愿去仔細閱讀和理解。因此,從表面上看用戶是“自愿”簽訂了隱私協(xié)議并且明確同意了軟件在日?;顒又惺占褂谜邆€人信息。在此基礎之上,用戶是否有權阻止這些個人隱私信息被網(wǎng)絡平臺應用于數(shù)據(jù)預測和分析是值得深入探討的。
從另一個角度來看,隨著使用方式的不斷演變,數(shù)據(jù)的價值已經(jīng)發(fā)生了本質上的變化。信息時代的數(shù)字化進程正將我們身處的真實世界轉變?yōu)樘摂M的數(shù)字化世界,而日新月異的技術使得更多的信息能夠被產(chǎn)生、存儲和更快地被加工、分析和利用。在傳統(tǒng)的數(shù)據(jù)—信息—知識—智慧的金字塔中數(shù)據(jù)處于最底層[23]1788,被視為一種原始的符號標識,需要通過一系列的處理過程轉化為有意義的信息并被進一步提煉成知識,最終形成可以幫助人們改變社會的智慧。在大數(shù)據(jù)時代,利用先進的機器學習算法,可以以一種相對統(tǒng)一的范式直接從數(shù)據(jù)中提取知識,極大地簡化了中間環(huán)節(jié)和對人工干預的需求。因此,大數(shù)據(jù)倫理問題的重點并不在于手機應用或網(wǎng)站是否收集了個人信息,而是在于后續(xù)的數(shù)據(jù)分析環(huán)節(jié),即允許從數(shù)據(jù)中尋找什么、對數(shù)據(jù)提出哪些問題以及在什么層面上利用這些數(shù)據(jù)進行預測等。
同時,作為大數(shù)據(jù)體系中一個重要的環(huán)節(jié),物聯(lián)網(wǎng)設備承擔了數(shù)據(jù)的感知、封裝、傳輸?shù)群诵墓ぷ?,如果設備被不法分子非法劫持、訪問和篡改將導致嚴重的社會問題。然而設備本身是無罪的,在采集數(shù)據(jù)的過程中,實體可能會將數(shù)據(jù)通過網(wǎng)絡傳輸給另一個實體,數(shù)據(jù)的使用權也隨之轉移,這為泄露源頭的追溯帶來了麻煩:一方面,在視頻數(shù)據(jù)的采集和傳輸過程中可能存在技術薄弱環(huán)節(jié),給不法分子以可乘之機;其次,相關主體在信息的監(jiān)管方面也可能存在漏洞,缺乏良好的內(nèi)容審核機制,導致不法信息內(nèi)容得以在平臺傳播。因此,對于設備廠商來說,需要從技術層面和監(jiān)管制度兩個層面對潛在的不良使用者施加更強的約束力和監(jiān)管力。
隱私問題的倫理邊界具有復雜性和模糊性的特點,這要求在發(fā)展信息技術的過程中高度重視其可能帶來的數(shù)據(jù)隱私問題,提前規(guī)劃和制定應對措施,防患于未然。
大數(shù)據(jù)領域具有天然的多學科交叉和技術更迭速度快的特點,其帶來的隱私問題往往前所未見并且和技術的應用緊密相關,目前我國在信息安全、隱私保護和消費者權益等立法方面已取得初步成效,但法律條文的修訂速度在短時間內(nèi)難以跟上技術的迭代發(fā)展。因此,需要從技術的角度入手,根據(jù)現(xiàn)有隱私問題的類型和特點,對相關技術進行針對性改進來提高倫理治理的水平。首先,政府和企業(yè)應建立合作關系,共同探索、制定和推行完備的行業(yè)技術標準以及健全的產(chǎn)品審查體系,將倫理準則和技術規(guī)范相結合,輔以法律的約束,確保在發(fā)展技術的同時能夠堅守正確的倫理觀,不會越過道德的紅線。其次,應根據(jù)軟硬件使用場景和要求的差異,分層次制定和持續(xù)推行統(tǒng)一的數(shù)據(jù)脫敏以及加密方案,在技術層面上對敏感數(shù)據(jù)進行變形處理和加密來保護個人的身份信息、手機號碼、銀行卡信息等數(shù)據(jù)的安全。最后,建立起倫理學、社會學和自然科學等多方學者參與的聯(lián)動體,形成一個完善的數(shù)據(jù)隱私安全保障體系和隱私問題突發(fā)事件應急管理機制。
無論是大數(shù)據(jù)技術的開發(fā)者還是使用者,都應樹立良好的道德倫理意識,而這種意識的形成,離不開學校教育。尤其是在信息時代,高校應盡早幫助學生建立對數(shù)據(jù)倫理問題的普遍性和重要性的認知,然而國內(nèi)高校的數(shù)據(jù)倫理教育仍未形成完整的體系,僅有部分高校開設了相關課程,如何制定合理的課程大綱,形成完整的課程周期都是將來要解決的問題。因此,我國高校之間應積極溝通,互相借鑒和討論,探索和制定符合當前社會現(xiàn)狀的數(shù)據(jù)倫理教學方案,形成完整的教育體系,盡快幫助學生了解大數(shù)據(jù)倫理問題治理過程中的新規(guī)范和新準則,引導學生思考大數(shù)據(jù)時代引發(fā)的社會問題,培養(yǎng)學生的數(shù)據(jù)思維,并能夠在今后的學業(yè)和職業(yè)生涯中選擇符合數(shù)據(jù)倫理的技術、商務和政務行動。培養(yǎng)一大批具有良好倫理意識的科研型、產(chǎn)業(yè)型和應用型復合人才,以滿足社會發(fā)展的需要。
除了法律法規(guī)的監(jiān)管以及行業(yè)技術標準的限制,對于公司自身而言,首先應建立一套完善的自我審查制度,提升企業(yè)數(shù)據(jù)庫和服務器的安全等級,根據(jù)業(yè)務需求制定不同標準的加密及控制策略,對物聯(lián)網(wǎng)設備上傳到公司平臺的數(shù)據(jù)進行審查。其次,細化物聯(lián)網(wǎng)產(chǎn)品的隱私政策,為用戶定制查看或更改隱私設置的接口并對已經(jīng)銷售的設備建立嚴格的售后監(jiān)管體系,通過公司法務進行內(nèi)容審核以達到自我監(jiān)管的目的。最后,企業(yè)應該主動參與到數(shù)據(jù)安全標準的制定中去,定期向社會公開相關產(chǎn)品的隱私政策以及保護用戶數(shù)據(jù)安全的相關舉措,積極宣傳數(shù)據(jù)安全法律法規(guī),利用企業(yè)影響力提升公眾數(shù)據(jù)安全意識。
隱私問題的發(fā)現(xiàn)和解決離不開消費者的參與,雖然我國與消費者維權相關的法律條例、通道建設和監(jiān)管機制取得了很大進展,但仍然存在很多消費者在維權過程中因為勢單力薄,溝通不暢,最后不了了之的情況。政府應強化監(jiān)管措施,降低數(shù)據(jù)安全的總體風險,加強數(shù)據(jù)安全執(zhí)法的力度,對違規(guī)企業(yè)開展專項檢查和整治行動,完善消費者舉報、投訴通道。媒體和個人也要積極曝光各類涉嫌侵犯個人隱私的事件,監(jiān)督和促進相關法律法規(guī)體系的不斷完善。同時,媒體作為第三方監(jiān)督者,需要向大眾積極宣傳相關知識以加強民眾對于隱私安全的了解,與政府和企業(yè)積極合作開展隱私安全的教育活動,鼓勵公民維護個人隱私安全,引導民眾建立起良好的個人隱私保護意識,養(yǎng)成良好的隱私保護習慣。
在大數(shù)據(jù)時代,隱私保護的目的旨在和鼓勵人們以更加合理安全的方式來管理和使用個人數(shù)據(jù),趨利避害,最大化地發(fā)揮數(shù)據(jù)對社會的整體貢獻。近年來涌現(xiàn)出的區(qū)塊鏈、聯(lián)邦學習和差分隱私保護等方法都是在技術層面的有益嘗試[24]78,幫助我們規(guī)避個人隱私受到侵犯的風險。數(shù)據(jù)的生成、傳輸和利用時時刻刻都在發(fā)生,由數(shù)據(jù)帶來的巨大利益往往會驅使一些人觸碰道德倫理的底線。在一個科技高度發(fā)達的社會中,面對生活的便捷性和經(jīng)濟利益的誘惑,人類的隱私空間受到了前所未有的挑戰(zhàn),這就要求我們在使用大數(shù)據(jù)技術時堅決杜絕以侵犯用戶合法隱私權利為代價,通過濫用或者非法二次利用數(shù)據(jù)來獲取不當利益的行為。同時,在處理大數(shù)據(jù)技術引發(fā)的倫理事件時要秉持公平、公正、公開的原則,在堅守倫理底線的同時擁抱技術的發(fā)展和商業(yè)模式的變革,實現(xiàn)大數(shù)據(jù)技術和社會人文的和諧發(fā)展。