邱仁宗
當(dāng)我們讀到恩格斯[1]在《反杜林論》中說:“原則不是研究的出發(fā)點,而是它的終了的結(jié)果;這些原則不是被應(yīng)用于自然界和人類歷史,而是從它們中抽象出來的;并不是自然界和人類要適應(yīng)于原則,而是相反地,原則只有在其適合于自然界和歷史的情況之時才是正確的。” 這段話好像是針對一些試圖以哲學(xué)/倫理學(xué)研究來解決科技中的規(guī)范性問題來說的。他們的出發(fā)點是找到一些理想的哲學(xué)概念,然后從中演繹出對科技的規(guī)范性問題的解決。這就是恩格斯在《反杜林論》中批判的思路。筆者認(rèn)為應(yīng)該相反,生命倫理學(xué)/科學(xué)技術(shù)倫理學(xué)的徑路應(yīng)該將科技實踐中的規(guī)范性問題作為生命倫理學(xué)/科學(xué)技術(shù)倫理學(xué)研究的邏輯出發(fā)點;這些規(guī)范性問題是在科技創(chuàng)新、研發(fā)和應(yīng)用的實踐中才能鑒定(抽象)出來;在解決這些規(guī)范性問題中要形成一些倫理原則/準(zhǔn)則/指南(研究的最終結(jié)果),即形成一個評價決策和行動是非對錯的框架,幫助科技專家和治理機(jī)構(gòu)做出合適的決策,采取合適的行動。研究的終點不是發(fā)表文章(發(fā)表文章是重要的),而是用研究的結(jié)果改進(jìn)實踐。因此,生命倫理學(xué)/科學(xué)技術(shù)倫理學(xué)研究的徑路應(yīng)該是實踐-理論-實踐。從原則或哲學(xué)概念和理論出發(fā),要求科技發(fā)展適應(yīng)它,是我國倫理學(xué)研究的主要“疾病”,這種“疾病”是從西方某些學(xué)派傳染過來的。哲學(xué)界需要一次“改造我們的學(xué)習(xí)”。
隨著信息和通訊技術(shù)以及人工智能技術(shù)的創(chuàng)新、研發(fā)和廣泛應(yīng)用,各企業(yè)、科研、醫(yī)院以及政府各機(jī)構(gòu)(尤其是民政、衛(wèi)生以及安全部門的機(jī)構(gòu))掌握著顧客、病人或公民大量、巨量或海量數(shù)據(jù);技術(shù)先進(jìn)和經(jīng)營良好的數(shù)字企業(yè)在國際上日益擴(kuò)展業(yè)務(wù)、國外數(shù)字企業(yè)也在我國經(jīng)營,凡此種種使得數(shù)據(jù)保護(hù)和數(shù)據(jù)安全問題日益重要和緊迫。
國際上有一種說法:數(shù)據(jù)安全有兩種徑路,一種是歐美各國的徑路,重視個人數(shù)據(jù)安全;另一種是中國的徑路,重視國家數(shù)據(jù)安全。但確實,我國有《國家安全法》,個人數(shù)據(jù)安全只有《民法典》中八條。我國個人數(shù)據(jù)安全是一個重要問題,需要一部個人數(shù)據(jù)保護(hù)條例。
數(shù)據(jù)(data)往往被稱為新的煤炭或石油,后者推動工業(yè)革命,前者推動信息革命。數(shù)據(jù)類似煤炭和石油,經(jīng)過加工后可從中提取價值。但有基本區(qū)別:煤炭和石油提取價值(能源)后被消費掉了,而數(shù)據(jù)經(jīng)提取價值后沒有消費掉,數(shù)據(jù)可被再利用無數(shù)次而不被消費掉或減少;數(shù)據(jù)可共享或出售而無需最初加工者放棄它;數(shù)據(jù)可以多種獨立的,甚至未知的方式被利用,最初也許是不明顯的,也許僅僅在未來,也許當(dāng)數(shù)據(jù)集被組合起來時才變得明顯。
數(shù)據(jù)的價值和價格取決于情境(context), 這也與化石燃料不同。數(shù)據(jù)僅在某種情境內(nèi)存在。孤立的數(shù)、數(shù)目(number)不是數(shù)據(jù)。數(shù)成為數(shù)據(jù)僅當(dāng)提供補(bǔ)充的元數(shù)據(jù)(關(guān)于數(shù)據(jù)的數(shù)據(jù),如一個文件的元數(shù)據(jù)可包括類似作者、文件大小、文件建立日期以及關(guān)鍵詞等信息的集合),至少必須規(guī)定測量的單位。規(guī)定測量單位就是要將某一客體置于另一個客體的情境內(nèi)進(jìn)行比較。例如,41,單單41這個數(shù)不是數(shù)據(jù),沒有價值。必須提供與41有關(guān)信息的數(shù)據(jù)集(元數(shù)據(jù)),使41處于一定的情境內(nèi)才是數(shù)據(jù)。如我們說“第41個”,再進(jìn)一步說前蘇聯(lián)有一部電影名為《第41個》。那么41這個數(shù)就處于與元數(shù)據(jù)聯(lián)系在一起的情境之內(nèi)。有的俄羅斯電影制片商也許為電影故事的情節(jié)所感動決定重拍這部電影。但“第41個”也可以處于另一情境之內(nèi),這是講在阿爾卑斯山麓有一個圣伯納修道院,院長凡蒂斯養(yǎng)了一條名叫黑蒙的救生犬,經(jīng)常救助爬山遇險的人,有一次在救出40個遇險者后,再去救第41個遇險的人,該人神志昏迷,以為黑蒙是一條狼,用槍把它打成重傷,黑蒙帶傷回到院長身邊死去,但這第41個人安然脫險了。39這個數(shù)字,如果是指體溫39℃,那么在感冒和新冠疫情的情境下就有不同的意義。在生物樣本和數(shù)據(jù)庫內(nèi),樣本的數(shù)據(jù)必須與臨床、行為方式以及環(huán)境的數(shù)據(jù)結(jié)合起來,才有很大的價值[2]。
在現(xiàn)代,數(shù)據(jù)科技影響社會,其驅(qū)動力之一是數(shù)據(jù)往往(并非總是)在某些活動過程中被自動獲取。這意味著在以后分析的大量數(shù)據(jù)集時無需追加努力或資源。這些數(shù)據(jù)是觀察性的,它們不是在干預(yù)(如臨床試驗)過程中有意收集的,因此就可能有未知的、未曾預(yù)期的(unsuspected)偏差和歪曲的風(fēng)險。例如,我們每個人每天在微信上的聊天記錄都保存在騰訊公司,同樣我們在淘寶或京東購買商品,你的信息就會保留在淘寶或京東。這些公司積累的有關(guān)客戶的數(shù)據(jù)是被公司自動獲取的,不費他們吹灰之力。這不同于管理數(shù)據(jù)(administrative data),管理數(shù)據(jù)是政府或某個組織為了解發(fā)生的真實情況以及為了改善管理而有意收集的數(shù)據(jù)。這類數(shù)據(jù)更接近社會實際。因為這些數(shù)據(jù)告訴我們這些是什么人,他們干了什么;而不是數(shù)據(jù)綜述告訴我們,他們說他們是誰,以及他們聲稱他們干什么。
自動獲取數(shù)據(jù)的其他含義還有:(1)無需努力獲取數(shù)據(jù)后人們的態(tài)度往往是“可能有用,留著它”??墒莾H僅因為擁有巨量數(shù)據(jù),并不意味著它們一定對幫助解決我們的問題有價值。(2)“數(shù)據(jù)多多益善”。記錄一切的做法部分是因為數(shù)據(jù)在未來可能有用,部分是因為記錄這些數(shù)據(jù)太便宜了。這違反了數(shù)據(jù)最少化原則(data minimization principle),即應(yīng)該僅儲存為了某個目的所需要的數(shù)據(jù)。(3)“數(shù)據(jù)陰影”。由于積累大量數(shù)據(jù)的成本低廉,使我們個人處于長長的數(shù)據(jù)陰影之中。這些數(shù)據(jù)痕跡產(chǎn)生于日常生活之中,如使用信用卡、旅行卡、參與社交媒體、網(wǎng)絡(luò)搜索、收發(fā)電子郵件、打電話等。這些痕跡揭示了人們做什么,他們與誰交往,他們的興趣是什么,甚至他們的信仰是什么。追蹤某人數(shù)據(jù)隱秘的能力可追蹤恐怖主義分子和不法分子,但也可能追蹤被冤枉的守法公民,或者被人訛詐。與實在的陰影不同,數(shù)據(jù)陰影可逗留很長時間,使我們在未來遇到可能的難堪,甚至更糟的處境[2]。
數(shù)據(jù)的大多數(shù)倫理問題與人(person)的數(shù)據(jù)有關(guān)。歐盟定義個人數(shù)據(jù)(personal data)為:“任何與已辨識身份或可辨識身份的自然人(數(shù)據(jù)主體)有關(guān)的信息;可辨識身份的自然人是可以直接或間接地通過參照一個身份辨識符,如該自然人的名字、身份證號碼、位置數(shù)據(jù)、在線身份標(biāo)識符或一個或多個因身體、生理、遺傳、精神、經(jīng)濟(jì)、文化和社會身份而異的因素而有可能辨識的自然人”[3]。這一條例增大了處理個人信息者的責(zé)任和問責(zé)層次,并要求各機(jī)構(gòu)在數(shù)據(jù)嚴(yán)重泄露的情況下(如果可能的話),在24小時內(nèi)盡快通知國家主管部門。它也給個人更大的控制權(quán)(自主性),個人將更容易獲得“自己的”數(shù)據(jù),以及擁有“被遺忘的權(quán)利”(right to be forgotten),以使他們可以請求自己的個人數(shù)據(jù)被刪除,如果沒有正當(dāng)持有的理由的話。對違反該條例的組織進(jìn)行處罰(問責(zé)),罰款可能高達(dá)全球營業(yè)額的4%。
數(shù)據(jù)倫理學(xué)是倫理學(xué)的一個新分支,是研究與數(shù)據(jù)(包括生成、記錄、策展、處理、傳播、共享和使用)、算法(包括人工智能、機(jī)器學(xué)習(xí)和機(jī)器人)以及相應(yīng)實踐(包括創(chuàng)新、編程、黑客行為和專業(yè)行動規(guī)則)有關(guān)的倫理問題,以提出和支持在倫理學(xué)上得到辯護(hù)的解決辦法(即正確的行動或正確的價值觀)。數(shù)據(jù)倫理學(xué)建立在計算機(jī)和信息倫理學(xué)基礎(chǔ)上,但它將從以信息為中心轉(zhuǎn)變?yōu)橐詳?shù)據(jù)為中心。這種轉(zhuǎn)變使我們集中于各種數(shù)據(jù)的不同倫理層面,即使這些數(shù)據(jù)尚未直接轉(zhuǎn)化為信息,但仍能被用來支持某個行動。這也強(qiáng)調(diào)數(shù)據(jù)科技提出的倫理挑戰(zhàn)的復(fù)雜性。由于這種復(fù)雜性,數(shù)據(jù)倫理學(xué)從一開始就應(yīng)該是宏觀的,即在一個整體的、包容廣泛的框架內(nèi)研究數(shù)據(jù)科學(xué)及其應(yīng)用的倫理含義。在這一宏觀倫理學(xué)中,數(shù)據(jù)科技、數(shù)據(jù)背后的人以及社會之間的相互作用、相互影響都要考慮到。唯有這種宏觀倫理學(xué),數(shù)據(jù)倫理學(xué)才能提供使數(shù)據(jù)科技對我們社會、對我們所有大家、對我們的環(huán)境的價值最大化的解決辦法。
由于數(shù)據(jù)及其使用的特殊性,使得數(shù)據(jù)科技與其他新興科技有所不同,例如,現(xiàn)代數(shù)據(jù)科技無所不在,與數(shù)學(xué)、邏輯、語言、交通一樣,已經(jīng)成為社會基礎(chǔ)設(shè)施一個方面;數(shù)據(jù)之間相互聯(lián)系,有關(guān)旅行或購物的數(shù)據(jù)可能發(fā)現(xiàn)其他東西;數(shù)據(jù)具有動態(tài)性質(zhì),現(xiàn)代的數(shù)據(jù)與時俱進(jìn),不斷積累,使得在未來做出今天不可能做出的發(fā)現(xiàn);有了數(shù)據(jù)就能做出實時和在線的分析與決策;通過合并和組合數(shù)據(jù)做出協(xié)同分析;數(shù)據(jù)不受空間、時間和社會情境的限制;能夠用于意料之外的目的,并揭示意料之外的信息(這是數(shù)據(jù)挖掘的核心目的);由于不可能避免個人數(shù)據(jù)儲存于多元數(shù)據(jù)庫,就有例外侵入的風(fēng)險;有被誤用、隱私泄露、敲詐或其他犯罪的可能;微妙的所有權(quán)問題(“我的”);數(shù)據(jù)也許也是你的數(shù)據(jù);我可以出賣“我的”數(shù)據(jù)同時保留這些數(shù)據(jù),這些特殊性有可能提出新的挑戰(zhàn)[2]。
數(shù)據(jù)倫理學(xué)的基本倫理問題是:一方面要促進(jìn)數(shù)據(jù)科技的發(fā)展和應(yīng)用,另一方面要確保對數(shù)據(jù)后面的人的尊嚴(yán)與人權(quán)的尊重。魚和熊掌必須兼得。忽視倫理問題,會發(fā)生令人遺憾的后果,促進(jìn)負(fù)面的影響,遭到社會的拒絕(social rejection)。必須考慮社會的可接受性(social acceptability)。社會的可接受性是基于倫理的可接受性[4]。轉(zhuǎn)基因是一個例子。筆者與做轉(zhuǎn)基因的科學(xué)家討論過,要證明轉(zhuǎn)基因食品的安全性,讓使用者放心,就要做動物實驗,像新藥的臨床試驗一樣??墒撬麄儚?qiáng)調(diào)同質(zhì)性以及“美國沒有做”,就一直不做。同質(zhì)性是分子層面的,在亞分子層次有沒有差異呢?美國沒有做也不是理由。所以他們一再強(qiáng)調(diào)轉(zhuǎn)基因食品是安全的,但沒有臨床前證據(jù)。另外,我們強(qiáng)調(diào)安全性與消費者的知情選擇不是一個問題,即使轉(zhuǎn)基因是安全的,但是一些自然主義(崇尚自然)者或信奉佛教的人不愿意吃,我們應(yīng)該給他們一個選擇機(jī)會??茖W(xué)家和政府都不能強(qiáng)迫老百姓吃僅由他們提供的食品。所以這些科學(xué)家和廠商一直拒絕貼標(biāo)簽,你不貼標(biāo)簽,那些制造非轉(zhuǎn)基因食品的廠商他們貼標(biāo)簽:這是非轉(zhuǎn)基因食品。這說明某些科學(xué)家對倫理問題不敏感,認(rèn)為只要農(nóng)業(yè)部支持他們就行了,不主動與公眾溝通,結(jié)果遭到社會的拒絕。
然而,過分強(qiáng)調(diào)個人權(quán)利的保護(hù),可能導(dǎo)致太刻板的監(jiān)管,反過來妨礙數(shù)據(jù)科技實現(xiàn)其社會價值的機(jī)會。在互聯(lián)網(wǎng)中我們要獲得一定的受益有時就可能冒一定的風(fēng)險(如隱私泄露),我們不可能絕對地保護(hù)個人隱私。要絕對地保護(hù)個人的隱私權(quán)利,那就不要上網(wǎng),這樣上網(wǎng)的受益也就沒有了。絕大多數(shù)用戶是做了受益與風(fēng)險的衡量后決定上網(wǎng)的。
數(shù)據(jù)科技的倫理問題在這里主要討論核心的倫理學(xué)價值、風(fēng)險-受益評估、尊重人的自主性和知情同意、算法偏差等幾個有特色的倫理問題。但先要談?wù)劜煌募?qiáng)調(diào)的數(shù)據(jù)倫理學(xué)的核心問題。
《歐盟數(shù)據(jù)保護(hù)概述》的作者認(rèn)為人的尊嚴(yán)(human dignity)是中心驅(qū)動力,更好地尊重和維護(hù)人的尊嚴(yán)可以用來抗衡無所不在的檢測以及個人現(xiàn)在面臨的權(quán)利不對稱[4]。因此,它應(yīng)該成為新的數(shù)字倫理學(xué)的核心[5]。然而,從概念上說人的尊嚴(yán)是絕對的和平等的,這完全可以得到辯護(hù),然而,在操作層面上難以給人的尊嚴(yán)下一個精確的定義或規(guī)定一個具體標(biāo)準(zhǔn)來測量某一行動是尊重或不尊重人的尊嚴(yán)。而且還有并非是人的,動物、植物、生態(tài)有無尊嚴(yán)問題。
由各大學(xué)組織的信息技術(shù)治理理事會(IT Governance Council)下屬數(shù)據(jù)治理工作組(Data Governance Working Group)則認(rèn)為“人的繁榮”(human flourishing)應(yīng)該是指導(dǎo)制定數(shù)據(jù)治理體系的支配一切的原則?!叭说姆睒s” 被定義為在一個更大的個人共同體的情境內(nèi)取得自我實現(xiàn)(self-actualization)的努力,每個人都有權(quán)從事這種努力[6]?!叭说姆睒s”也是一個難以界定的概念,“自我實現(xiàn)”又是指什么,可能會有許多種解釋,因而也難以操作。筆者認(rèn)為,核心價值永遠(yuǎn)是兩個而不是一個:一個是我們發(fā)展科技是為了增進(jìn)人的福祉 (human well-being):(1)個體、各類群體(性別、種族、民族、宗教、性取向等)、整個社會、人類、未來時代的福祉都要考慮在內(nèi);(2)福祉包括健康、安全、尊重、理性和情感方面、足量的美好生活(小康);(3)要發(fā)展科技使人的受益大大超過風(fēng)險,不要追求零風(fēng)險,而要確保風(fēng)險在可接受的閾值以下。另一個就是對人的尊重,尊重數(shù)據(jù)背后的個人,對人的尊重包括對人的尊嚴(yán)的尊重,尊重人有明確的要求,尊重人主要是尊重人的自主性,因此產(chǎn)生了知情同意的倫理要求,尊重人也包括平等對待他人,不歧視人,保護(hù)人的隱私,以及科技成果的公平可及等[7]。
數(shù)據(jù)是有待發(fā)掘的礦藏。經(jīng)過整合分析可提供:洞見(insight,深入的、抓住事物要點的、能從新的角度看問題的見解),決策(decision-making),做出無假說的科學(xué)發(fā)現(xiàn)(scientific discoveries without hypothesis),其終端產(chǎn)物是新型產(chǎn)品、新型服務(wù)、滿足新的社會物質(zhì)文化需要、新療法、有效的疾病、污染和犯罪的控制和預(yù)防,等等。例如,從大規(guī)模收集的醫(yī)療記錄推論出疾病進(jìn)展和有效治療的結(jié)論。顯然這使公眾受益,但同樣清楚的是,有關(guān)描述病人的數(shù)據(jù)在某一層次會被泄露,他的隱私可能處于風(fēng)險之中[2]。
傷害/風(fēng)險(可能的傷害)。目前在運(yùn)轉(zhuǎn)中的數(shù)據(jù)可能產(chǎn)生兩類傷害:有形的傷害,如損害健康、財務(wù)損失或受到歧視;無形的傷害,如隱私被侵犯,個人可辨識身份數(shù)據(jù)落入那些會損害他們利益的人手中,引起人們極大的苦惱和焦慮;被排斥在服務(wù)、設(shè)施或機(jī)會之外。因此,各機(jī)構(gòu)需要有發(fā)現(xiàn)和減輕因數(shù)據(jù)倫理薄弱而產(chǎn)生的風(fēng)險的流程,未能辨認(rèn)或處理誤用或誤解數(shù)據(jù)的風(fēng)險,可能有嚴(yán)重后果。尤其是,這使在未來糾正積累的風(fēng)險更難甚至不可能。如果這些風(fēng)險未經(jīng)核查留下來,一個產(chǎn)品或一項服務(wù)對數(shù)據(jù)的使用就有可能會降低甚至破壞一個消費者對品牌的信任。所以81%的執(zhí)行官同意,隨著數(shù)據(jù)的企業(yè)價值增長,公司面臨的不當(dāng)處理數(shù)據(jù)的風(fēng)險呈幾何級別增長。與數(shù)據(jù)有關(guān)的風(fēng)險往往有兩種類別:一類是無意泄露原始數(shù)據(jù),如用戶的照片或他們的信用卡信息;另一類是基于一位用戶的數(shù)據(jù)做出不適當(dāng)?shù)臎Q策。這些決策可以是人做出的決策(如決策是否服藥),或混合決策(如是否提供貸款的影響引用報告的決策),或機(jī)器決策(如根據(jù)流量數(shù)據(jù)改變自動駕駛車路線)。
減輕這種傷害并在它發(fā)生時做出反應(yīng)的策略取決于所做的決策的類型,包括撤銷和分布式刪除。雖然發(fā)布前的設(shè)計對于滿足“不傷害”的期望非常重要,但是能夠適應(yīng)發(fā)布后的設(shè)計也同樣重要。例如,用戶直接提供他們自己的數(shù)據(jù)的社交網(wǎng)絡(luò) (無論是公共消費還是私人消費)很可能會從第一天開始就有隱私控制。然而,系統(tǒng)的所有者可能發(fā)現(xiàn)用戶不知道可得的隱私控制,那就要引入一個通知/提醒用戶可得設(shè)置的功能。在這種情況下,用戶應(yīng)該能夠回顧性地影響他們過去共享的數(shù)據(jù)——即用戶對隱私設(shè)置的任何更改都不僅會影響未來共享的數(shù)據(jù),還會影響之前共享的數(shù)據(jù)。通過這種方式,一種最初不能做到完全知情同意的系統(tǒng)可以隨著時間的推移被調(diào)整為允許撤銷同意。然而,這樣的能力要求系統(tǒng)設(shè)計者為適應(yīng)和未來的變化做好規(guī)劃。
而且,考慮到各種軟件特性的相互依賴性,如果發(fā)生入侵或意外影響,計劃應(yīng)該包括如何從整個數(shù)據(jù)供應(yīng)鏈中移除數(shù)據(jù)——而不僅僅是一個公司的服務(wù)器。降低與數(shù)據(jù)使用相關(guān)的風(fēng)險的一個做法是處于共享計算資源網(wǎng)絡(luò)中的利益攸關(guān)者之間進(jìn)行協(xié)調(diào)。隨著數(shù)據(jù)分析能力的進(jìn)一步發(fā)展,其數(shù)據(jù)被收集的人面臨的風(fēng)險也在增加。以前匿名化的數(shù)據(jù)變得去匿名化的可能性隨著每次新的進(jìn)展而增加。固有偏差是通過算法選擇、訓(xùn)練數(shù)據(jù)和假設(shè)測試引入的,這會導(dǎo)致有偏差的自動決策。分析可以發(fā)現(xiàn)以前無法可得的信息,例如,在某些情況下,政府已經(jīng)有可能利用大數(shù)據(jù)分析發(fā)現(xiàn)原本仍處于秘密的犯罪行為。我們應(yīng)該如何處理這些信息?當(dāng)罪犯是恐怖分子或性侵者時,這個問題是否更容易回答?如果政府是一個壓迫性的政權(quán),而犯罪是違反了與審查有關(guān)的法律,那該怎么辦?很難想象這些領(lǐng)域中意外后果的潛在危害,更不用說采取積極步驟為這種傷害做好準(zhǔn)備、減輕傷害并從中恢復(fù)[8]。
與傷害有關(guān)的問題是:數(shù)據(jù)的安全和安保。數(shù)據(jù)安全(safety)關(guān)注通過確保安全存儲和定期備份數(shù)據(jù)來保護(hù)數(shù)據(jù)不受損失。數(shù)據(jù)安保(security)關(guān)心的是保護(hù)數(shù)據(jù)免受未經(jīng)授權(quán)的使用。未經(jīng)授權(quán)的使用造成對個人、社會和國家的傷害:竊取、欺詐、訛詐、黑客攻擊、個人反社會行為(癱瘓電網(wǎng))、恐怖主義襲擊等。必須明確誰可以訪問數(shù)據(jù),誰不能;誰可以更改數(shù)據(jù),誰不可以。
在生物醫(yī)學(xué)研究中知情同意這一倫理要求,不僅在實踐中更為具體化,而且有許多的論述已經(jīng)得到科學(xué)界和監(jiān)管界的公認(rèn),例如,將有關(guān)研究的信息全面忠實地告知患者,幫助患者理解提供給他們的信息,以及在不受強(qiáng)制和不當(dāng)利誘的情況下自愿、自由地表示同意參加研究。這被稱為“有效的知情同意”。在數(shù)據(jù)科技的情境下有兩個特點:其一,現(xiàn)代大數(shù)據(jù)的未來應(yīng)用是未指明的和未知的(實際上是不可知的)。其二,利用業(yè)已存在于數(shù)據(jù)庫的數(shù)據(jù)進(jìn)行的研究大多數(shù)是非干預(yù)的。
歐盟《通用個人數(shù)據(jù)保護(hù)條例》概述指出,處理個人數(shù)據(jù)應(yīng)該在有關(guān)數(shù)據(jù)主體同意的基礎(chǔ)上,或在法律限定的其他合法基礎(chǔ)上,才可成為合法。不過,出于公共衛(wèi)生領(lǐng)域公眾利益的理由,未經(jīng)數(shù)據(jù)主體同意而處理特定類別的個人數(shù)據(jù)可能是必要的[4]。
一般而言,使用數(shù)據(jù)的知情同意需要兩個條件:(1)了解該數(shù)據(jù)將來可能用于什么用途,以及(2)了解該數(shù)據(jù)將如何被使用。第一個條件有困難,因為如上所述未來的用途是未知的。此外,數(shù)據(jù)可能會與其他數(shù)據(jù)集合并以揭示二者單獨之中未包含的有價值的信息,但也許不可能說任何給定的數(shù)據(jù)集將做什么用途。數(shù)據(jù)集的合并對于探索一個群體的集合性質(zhì)通常很有價值,如當(dāng)兩個變量來自兩個不同的來源時,它們是否相關(guān)。然而,合并對于與個人相關(guān)的決策也很重要。許多分析的本質(zhì)就在于,他人將來自個人的數(shù)據(jù)與來自這些個人組成的一個群體的匯總數(shù)據(jù)結(jié)合起來做出決策。例如,臨床試驗收集了來自受試者的數(shù)據(jù),其結(jié)論隨后用于決定個體病人的治療方案和劑量[2]。
上述第二個條件假定被要求同意的人具有了解數(shù)據(jù)將如何被使用的專門技能和知識。這顯然比較困難?,F(xiàn)代數(shù)據(jù)分析工具,如神經(jīng)網(wǎng)絡(luò)、支持向量機(jī)和集成系統(tǒng),相對復(fù)雜和難以做簡單的解釋。然而,數(shù)據(jù)主體有權(quán)獲取“有關(guān)相關(guān)邏輯的有意義的信息”,數(shù)據(jù)主體有權(quán)“獲得對評估后做出決策的解釋”[4]。這是一個難以做到的挑戰(zhàn)。
因此,在數(shù)據(jù)科技倫理方面,知情同意有兩方面的困難:知情的困難和同意的困難。知情的困難是由于未來的使用未知,而且可能與其他數(shù)據(jù)合并以揭示任何一個單獨數(shù)據(jù)未包含的有價值信息,也許不可能說出任何給定的數(shù)據(jù)集將對哪些使用做出貢獻(xiàn)。如何解決未來利用的未知性?期待人們列出所有未來使用領(lǐng)域似乎是不可行的。同意的困難是由于難以理解,現(xiàn)代數(shù)據(jù)分析工具(如神經(jīng)網(wǎng)絡(luò)、支持向量機(jī)和集成系統(tǒng))非常復(fù)雜,難以做出簡單的解釋。難以理解如何同意?建議是:(1)數(shù)據(jù)的再使用屬于非干預(yù)性行為,對數(shù)據(jù)主體的風(fēng)險較?。?2)告知數(shù)據(jù)主體未來使用的未知性、不可預(yù)見性、難以理解性本身就是在知情要素范圍之內(nèi);(3)難以列出未來使用的范圍,但可以列出可能的負(fù)面清單。
算法本身是計算機(jī)處理數(shù)據(jù)方法所不可缺少的。換言之,算法是計算機(jī)采取的一系列步驟以解決一個特定的問題或達(dá)到一個規(guī)定的結(jié)局。算法的作用有:確定優(yōu)先次序,當(dāng)算法確定優(yōu)先次序時,它們會不顧及其他事物,讓人們關(guān)注某些優(yōu)先事物;分類,是通過查看任意數(shù)量的實體特性,將特定實體歸類為給定類的一個組成部分的決策;關(guān)聯(lián),是標(biāo)記關(guān)系;而過濾是排除信息(或其他輸入或輸出,取決于系統(tǒng))的行為。并非所有的算法都引發(fā)倫理問題。但算法的屬性需要我們對算法進(jìn)行倫理審查:復(fù)雜性和不透明性、把關(guān)功能、主觀決策。
3.4.1 復(fù)雜性和不透明性
足夠復(fù)雜的算法通常對外部觀察者來說是不可理解的,甚至對人來說是難以理解的,即使它們的源代碼與有能力的觀察者共享。在有很多選擇的地方,就有內(nèi)置的價值、偏差和潛在的歧視,這些并不總是容易看到或得到的。廣泛的輸入范圍,加上內(nèi)部步驟和分叉的范圍,以及與環(huán)境的動態(tài)相互作用,意味著算法行為在某種程度上類似于生物體:不容易理解或預(yù)測它們做什么以及如何做,即使我們對它們?nèi)绾喂ぷ饔幸粋€大致的理解。復(fù)雜而不透明的算法可能使人們難以理解它們的過程或干預(yù)它們的效應(yīng)。復(fù)雜而不透明的算法最明顯的例子是臉書的新聞推送,它的10億多用戶可以訪問家人、朋友、熟人、市民或公司頁面的更新,而新聞推送是由一個算法來策劃的,這個算法決定什么該顯示,什么不該顯示。算法由一個26歲的工程師領(lǐng)導(dǎo)的研究團(tuán)隊每周進(jìn)行調(diào)整。筆者猜測在我國絕大多數(shù)使用社交媒體的人都不知道有算法存在。正如這個例子所說明的,足夠復(fù)雜的算法對外部觀察者來說實際上常常是不可理解的,盡管它們不可避免地有內(nèi)置的價值、偏差和潛在的歧視。在呼吁對算法進(jìn)行監(jiān)管或?qū)λ鼈円獑栘?zé)時往往忽視算法操作的復(fù)雜和不透明的本質(zhì)。
3.4.2 把關(guān)功能
算法需要倫理考慮的另一個原因是,它們扮演著把關(guān)人的角色。越來越多的算法幫助我們做出更好的決策,但由于算法也時常發(fā)生偏倚,依據(jù)算法的決策也許是錯誤的,甚至是歧視性的。在將人工智能應(yīng)用于醫(yī)學(xué)時尤其應(yīng)該注意。例如,在醫(yī)用人工智能系統(tǒng)中我們依靠算法檢查出疾病,改善診斷和治療,管理慢性病,做出疾病流行的預(yù)測,提供醫(yī)療和公共衛(wèi)生服務(wù),改進(jìn)臨床試驗以及發(fā)現(xiàn)新的藥物。這幫助我們應(yīng)對重要的醫(yī)療衛(wèi)生挑戰(zhàn),但如果所得的數(shù)據(jù)有限或質(zhì)量不高,尤其是數(shù)據(jù)中包含對某個群體(如女性、少數(shù)民族)的歧視,就會出現(xiàn)種種倫理問題,如做出錯誤的決策。例如,在2015年的一項臨床試驗中,一款人工智能APP被用于預(yù)測哪些病人在患肺炎后容易發(fā)生并發(fā)癥因而住院。但由于其算法不能考慮情境信息,這款A(yù)PP錯誤地指示將居家哮喘病人收住入院。如果算法所依據(jù)的數(shù)據(jù)含有對性別、種族、殘疾和年齡的歧視,那么算法就會反映和強(qiáng)化過去數(shù)據(jù)中的偏倚與歧視。算法和機(jī)器學(xué)習(xí)利用來訓(xùn)練人工智能的數(shù)據(jù)集可能不代表整個人群,結(jié)果可能做出反映歧視的不公平?jīng)Q策,從而影響屬于受到歧視的群體(如女性、少數(shù)民族和老年群體)的病人的生命和健康[9]。另有文章也指出,人工智能系統(tǒng)本身往往具有歧視性,因為訓(xùn)練算法的數(shù)據(jù)集本身有種族偏倚,這個數(shù)據(jù)集是由占病人大多數(shù)的白人的數(shù)據(jù)構(gòu)成的,因此,醫(yī)生利用人工智能系統(tǒng)治療病人時就會發(fā)生種族偏倚:他不能給黑人或其他有色人種的病人提供合適的治療[10]。
算法扮演的把關(guān)角色還包括招聘和解聘。例如,在招聘決策(以及解雇決策)中,算法正越來越多地發(fā)揮重要作用。招聘和就業(yè)對個人和社會都有重要的影響。在招聘、解雇和類似領(lǐng)域的歧視有可能產(chǎn)生終身影響。招聘(解雇)是研究算法倫理的重要案例,因為它們表明答案不能簡單地是“人做得更好”,追溯幾十年的研究也表明,人類管理者在招聘方面存在顯著偏見,如人們傾向于從自己的社會階層、種族和性別中招聘。面試是一個令人擔(dān)憂的部分,因為持續(xù)數(shù)小時甚至數(shù)天的面試并不能很好地預(yù)示未來的工作表現(xiàn)。非洲人的“名字的聲音”——在美國就業(yè)市場,即使擁有學(xué)院學(xué)歷,沒有犯罪背景,但有一個聽起來是非洲裔美國人名字的申請者,與沒有學(xué)院學(xué)歷、有犯罪記錄的,但有一個聽起來像白人名字的申請者相比,往往處于不利地位。在過去,女性很少在公開試唱中被選為著名交響樂團(tuán)成員。然而,在越來越多的投訴之后,評判員使用了簾子,只聽到演奏的樂器聲,而沒有看到音樂家。這使得更多的女性通過了測試。顯然,人力招聘系統(tǒng)遠(yuǎn)非完美。目前,越來越多的公司開始采用算法招聘,在某些可衡量的維度上,算法比人工招聘更加精確。與所有這些系統(tǒng)一樣,該系統(tǒng)的力量部分來自于輸入該系統(tǒng)的越來越多的個人數(shù)據(jù),以及輸入系統(tǒng)的未來績效評估。事實上,許多算法正在變成越來越能學(xué)習(xí)的算法。這意味著算法不需要被告知規(guī)則是什么,而只需要提供輸入和期望的輸出。
3.4.3 算法的主觀性決策
很多關(guān)于算法和自動化的辯論都集中在有正確答案的案例上,這些問題是,算法是否能找出這些問題的答案與人一樣好,或比人更好。IBM的人工智能計算機(jī)沃森能戰(zhàn)勝《危險邊緣》競賽節(jié)目超級冠軍肯詹寧斯(他贏了74次,獲獎252萬美元)嗎?自動化系統(tǒng)能控制飛機(jī)或駕駛汽車嗎?電腦可以理解人們用簡單的語言交談,而不需要我們把它翻譯成計算機(jī)可讀的格式?算法能像醫(yī)生一樣預(yù)測心臟病發(fā)作嗎?算法在有正確答案的地方,如醫(yī)學(xué)診斷或駕駛飛機(jī),提出了許多重要的問責(zé)、就業(yè)和人類技能在我們這個世界的作用等問題,但是評價這些算法的情境與沒有可檢查正確答案的地方的算法迥然不同。
隨著算法從下棋轉(zhuǎn)向在線配對約會和選擇新聞閱讀,這些算法回答的是一個全新類別的問題。什么是重要的? 什么是相關(guān)的? 什么是愛?什么值得注意?什么應(yīng)該被忽視或壓制?你應(yīng)該看什么或讀什么?誰對公共安全構(gòu)成威脅?誰對公共安全不構(gòu)成威脅?應(yīng)該允許誰去開飛機(jī)?你應(yīng)該和誰約會?這些類型的決策是與純粹基于過硬事實做出的客觀性決策,不同于主觀性決策,摻雜個人視角、情感和意見在內(nèi)。而在大數(shù)據(jù)時代,我們越來越多的、悄無聲息地交給算法去做決策。2014年初,芝加哥警察局因探訪被認(rèn)為最有可能參與暴力犯罪的居民而成為全美的頭條新聞。警察局使用了一種試圖預(yù)測未來參與暴力犯罪的算法。這個算法列出了一份可能要探訪的名單。雖然官員們已經(jīng)給出了一些算法是如何運(yùn)行的跡象(如它要考慮遭逮捕記錄),但沒有公開描述算法的操作或輸入。美國的《信息自由法》要求人們能夠看到名單上的名字,但遭到拒絕。無論某些系統(tǒng)是否能有效地減少犯罪,基于許多理由用算法預(yù)測未來犯罪行為都存在問題。主要的擔(dān)憂是,這種自動化系統(tǒng)可能會產(chǎn)生一種“回音室”(在一個人僅僅遇到與他們自己的信念和意見一致的環(huán)境下,他們現(xiàn)有的觀點會加強(qiáng),而不考慮其他的想法),或自我實現(xiàn)的預(yù)言(一種使預(yù)言成為現(xiàn)實的社會心理現(xiàn)象,卡爾·波普爾稱之為“俄狄浦斯效應(yīng)”)。警力更多的地區(qū)或社區(qū)也會增加犯罪被發(fā)現(xiàn)的可能性,因為更多的警察意味著有更多的機(jī)會觀察居民的活動。與此同時,對特定地區(qū)或社區(qū)的關(guān)注可能減少了其他地方的警力。此外,“預(yù)測”就是預(yù)測,不能保證它們都是正確的,有假陰性(未來的犯罪沒有發(fā)現(xiàn))和假陽性(尋找不存在的犯罪)。如果警官們根據(jù)不正確的預(yù)測行事,他們可能會因抓不到真正的犯人而感到內(nèi)疚。除了在接受調(diào)查之前受到訊問或受到密切觀察的消極影響外,警察人數(shù)的增加可能在法律適用方面有系統(tǒng)偏見的地區(qū)造成進(jìn)一步的復(fù)雜情況。專家們建議為解決算法引起的倫理問題,應(yīng)該采取算法透明和通告,增加算法可問責(zé)性,以及政府對算法進(jìn)行直接監(jiān)管[11]。
另一個要考慮的問題是機(jī)器決策與人的決策之間的區(qū)別。人們相信智能手機(jī)可以跟蹤日歷事件,或者連接恒溫器來控制家里的溫度。然而,許多人會猶豫是否接受一個對人類生活有直接和重要影響的機(jī)器決策。研究表明,人類對他人所犯的錯誤更寬容,對算法所做的決定更挑剔。這種有偏見的反應(yīng)有兩個基本理由。第一,人不會對機(jī)器有同情心,因為機(jī)器是沒有生命、沒有思維的系統(tǒng)。在法官決定判處一個人終身監(jiān)禁時,要考慮該人在犯罪行為發(fā)生時的生活背景和精神狀態(tài)。對一臺機(jī)器來說,很難考慮這些情況。第二,機(jī)器的“思維過程”通常被認(rèn)為是冷酷無情的。與之相對照,對人而言,倫理決策需要同情心、對人類價值觀的理解,以及在多種情境下同時評價決策的能力。如果人類不相信機(jī)器有這種認(rèn)知能力,那么他們自然會懷疑機(jī)器在涉及倫理的情況下做出的決定,或者更糟的是,在決定另一個人的未來生活的情況下做出的決定。
專家們建議系統(tǒng)的設(shè)計和使用必須充分考慮這些倫理挑戰(zhàn),以實現(xiàn)其使社會充分受益。設(shè)計師和用戶在認(rèn)識到這些倫理問題后可避免對他們自己和他們希望服務(wù)的社區(qū)的重大負(fù)面后果。監(jiān)管和政策必須在管理這些算法“生態(tài)系統(tǒng)”和減輕此類風(fēng)險方面發(fā)揮作用。更好的監(jiān)管和政策可以通過制定更好的預(yù)防危害的防范措施來幫助解決問題。在這樣做的時候,監(jiān)管機(jī)構(gòu)可以要求各機(jī)構(gòu)考慮他們的算法行為的影響,并要求他們?yōu)檫@些算法執(zhí)行中的倫理失誤問責(zé)[12]。