我們已經越過了那個“大數據只與硅谷的科技公司相關”的時代?,F在,任何收集信息并從事大數據分析的公司——無論是零售商、招聘網站、生產聯網設備的制造商,還是醫(yī)療保健公司——都在收集、存儲和分析足夠的數據,這些公司均受到了大數據所帶來的積極或消極影響。而這些影響中可能會包括嚴重的人權問題,因為幾乎所有的公司都在存儲和處理大量數據,也幾乎所有公司最終都需努力克服這個問題。
為了幫助公司理解大數據和人權,我們從合作伙伴和會員企業(yè)那里收集了一些經常聽到的問題和答案。
什么是大數據
大數據是指能夠快速抓取、聚合和處理不斷增長的大量種類繁多的數據的能力。從類別和意圖上講,被收集、存儲和處理的數據是無限的,可以從消費者支出和零售習慣,到音樂或書籍的喜好,再到敏感病人和醫(yī)療信息,以及財務信息等。公司對這些數據的處理通常是由算法做出決定,它是為解決問題而開發(fā)的程序或指令集。例如,你在網上的購物習慣會產生數據,而這些數據將由一個算法進行處理,然后決定哪些廣告最適合你。
大數據如何與人權相關
對隱私和歧視的擔憂是大數據收集中出現的兩個主要的人權問題。在這兩個問題中,弱勢群體的權利是一個特別重要的話題。圍繞公民權利,我們已經在線下的世界取得了進展,因此我們不希望讓大數據應用產生的自動化歧視和不公平來破壞這種進步。
大數據如何涉及隱私權
從2014年白宮發(fā)布的一份關于大數據的報告中,可以看到以下關于顧客隱私的案例:
隨著聯網家庭變得越來越普遍,諸如煙霧探測器等其它環(huán)境傳感器的物聯網家電設備,將開始收集每個用戶家中的數據。如果保險公司能夠購買到這些數據并確定某一新客戶是吸煙者從而拒絕為其投保,該怎么辦?智能家電的數據收集是否侵犯了用戶隱私,或者保險公司使用這一數據是否違法?如果不考慮數據收集和共享的含義,這些問題可能會帶來嚴重的后果。
大數據如何影響非歧視權利
一些人斷言,通過消除人類做決策的過程,算法將會減少歧視,但算法其實是可以在自身植入歧視性決策的。例如,新美國基金會成立的開放技術研究所政策顧問Eric Null提出了有關犯罪的大數據可能產生正面或負面影響的問題:“預測警務技術可以被用于好的方面,也可以致使不公正現象永久存在。使用帶有種族偏見數據的算法只會延續(xù)警務工作中固有的偏見,導致更多的不公正。因為我們已經知道,警方的數據通常只包含那些被報告的犯罪事件,而這就意味著警察會對那些地區(qū)存有偏見。”
在這種情況下,算法的輸入可能建立在不反映總體犯罪趨勢的數據之上。從表面上看,算法方程進行的數據分析過程似乎不應該導致歧視結果,但前提是他們分析的數據得和算法一樣好。
公司能做什么
就其本身而言,大數據并沒問題,但意外的后果如侵犯隱私和歧視就是問題了。處理大數據的算法在影響我們生活的重大決策方面發(fā)揮著越來越重要的作用,鑒于各國政府只是才開始著手處理這些系統(tǒng)的正當法律程序,因此,企業(yè)需要采取措施識別和緩解潛在的人權風險。
為此,公司可以做到以下幾點:
確定誰在公司內部使用大數據及其目的。
進行人權影響評估,確定對該數據的使用是否有可能產生潛在的人權影響。
與思想領袖如民主科技中心聯系,了解有關大數據收集及其對人權影響的最新關注點。
如果確定了人權影響,與擁有或開發(fā)使用大數據應用程序的員工創(chuàng)建一個行動計劃。
在維護應用程序有效性的同時,就如何減輕或消除這些影響提出建議。
保持透明,披露公司收集的數據以及處理分析數據的機制。
透明度尤其重要,原因有二。首先,與業(yè)內同行和人權團體分享經驗和教訓能夠促成積極的人權成果。其次,公眾有權知道正在收集的數據以及數據是如何被處理的,這樣可以幫助企業(yè)評估數據的有效性以及所達成結論的公平性。
通過了解你的數據是如何被使用的以及結果是什么,不管是否有意,公司都可以避免潛在的對人權的負面影響,同時利用大數據的力量產生更好的分析和結果。通過上述步驟,可以幫助企業(yè)利用人權機會,同時避免大數據帶來的負面影響。
編輯|胡文娟 wenjuan.hu@wtoguide.net
本文編輯自BSR網站2016年9月20日博客文章Big Data and Human Rights: 5 Frequently Asked Questions
點評:
無論是喜是憂,無可否認,大數據應用已滲透到我們的日常生活,比如推送的新聞是你愛看的,推薦的商品是你想買的……
大數據的意義就在于,從海量數據中挖掘并分析用戶的行為習慣和喜好,從而計算出更符合用戶“口味”的產品和服務。這種作用對于現如今的企業(yè)來講,商業(yè)價值極其重大,對于社會而言,也有諸多好處。因為大數據幫助我們注意到了忽略的存在,也讓一切不確定事物變得有跡可循。
但是,任何事物都有兩面性,大數據帶來的問題同樣也不少。比如,大數據可能會泄露用戶隱私、大數據可能會使用戶遭到歧視等。比如,電腦投放求職廣告時,就會產生歧視行為。去年卡耐基梅隆大學研究者通過一款名為AdFisher的追蹤工具,對谷歌在第三方網站上的廣告定向過程進行了追蹤。數據顯示,當谷歌判定一位訪客為男性求職者時,為他推送高薪主管職位廣告的幾率要遠高于同等條件的女性求職者。
其實,牽涉到與大數據相關人權問題的企業(yè)類型除了互聯網等科技公司,還包括其他任何從事收集和大數據分析的公司。為此,謹慎對待企業(yè)追蹤用戶數據的過程以及根據數據進行決策的算法,對所有企業(yè)而言,都相當重要。當然,企業(yè)也應該未雨綢繆,采取一些相應措施,消除數據帶來的人權危機。因為這不僅是消費者和社會的期待,更是企業(yè)的責任。endprint