李文靜,楊洪斌
“算法”這一名詞源于9 世紀(jì)波斯王國的一位數(shù)學(xué)家,它被當(dāng)作數(shù)字的運算規(guī)則。有學(xué)者認(rèn)為算法在廣義上是一種解決所有領(lǐng)域問題的操作步驟,是明確且具有目的性的。有的學(xué)者更傾向于狹義上的算法概念,認(rèn)為它是一種純粹性地解決問題的科學(xué)技術(shù),主要應(yīng)用于解決數(shù)學(xué)難度或者是電腦程序問題。還有學(xué)者認(rèn)為算法就是一套有公式的指令。其實,算法并非簡單意義上的數(shù)學(xué)算法,也不是僅指個人決策的算法,而是兩者都是,是人機(jī)交相決策的算法。目前,算法深入到了人類社會的各個方面,例如借助消費者的個人信息和使用習(xí)慣等數(shù)據(jù),實現(xiàn)用戶需求和服務(wù)的快速精確匹配,又如司法系統(tǒng)應(yīng)用算法來提高案件判決的效率與公正性。但是,不當(dāng)應(yīng)用算法會造成社會危害,比如過度采集用戶信息侵犯個人隱私、大數(shù)據(jù)殺熟、不當(dāng)操縱流量分配干預(yù)平臺商家經(jīng)營等。
算法作為一項技術(shù),可以說是科技日益發(fā)展的結(jié)果,其應(yīng)該是中性的,具有客觀性。但算法也有其自主性,其借助統(tǒng)計方法可推到出新命題或者新的規(guī)律?;ヂ?lián)網(wǎng)領(lǐng)域是算法應(yīng)用的重要場景之一。在信息技術(shù)方面,算法是人工智能的焦點,是處理以及運用大數(shù)據(jù)關(guān)鍵環(huán)節(jié)。算法運用的結(jié)果會通過一定的途徑傳播給大眾網(wǎng)民,網(wǎng)民通過算法大數(shù)據(jù)的結(jié)果獲得信息,借助網(wǎng)絡(luò)平臺交流信息,這一過程會影響他們的知識、眼界、思維角度,也會影響他們對生活、社會、國家的看法。因為算法是有自己獨立的邏輯以及方式,并非完全具有客觀性,也可以是主觀的,這就是學(xué)者哈貝馬斯的觀點“算法也可以是一種意識形態(tài)”。
技術(shù)也需要不斷革新,回避壞的結(jié)果,實現(xiàn)自我完善。技術(shù)的不當(dāng)使用可能會破壞社會的穩(wěn)定和危害到個人的利益。算法作為一項先進(jìn)的科學(xué)技術(shù),一定的具有自主性,可能會引發(fā)風(fēng)險。因此,需要對技術(shù)人員適當(dāng)強調(diào)風(fēng)險和注意義務(wù)。技術(shù)人員應(yīng)及時根據(jù)不同的場景預(yù)估不同的風(fēng)險,從而更好地應(yīng)對不必要的危險。
科技日新月異的發(fā)展,雖然會帶來一定的未知風(fēng)險,但其因為具有先進(jìn)性,在推動社會向前發(fā)展以及提高公民生活質(zhì)量上發(fā)揮著重要作用。所以,在面對法律規(guī)制與科技發(fā)展的關(guān)系問題上,我們要找準(zhǔn)平衡點,處理好兩者的關(guān)系。對此,立法機(jī)關(guān)應(yīng)完善、制度體系,維持社會穩(wěn)定。
目前,具有代表性的相關(guān)研究主要有:沈偉偉在《算法透明原則的迷思——算法規(guī)制理論的批判》提到,與事后規(guī)制相比,算法透明度原則作為一種事前規(guī)制方法,其效力存在天然缺陷[1]。就算法透明性原則在算法規(guī)制中的合理定位而言,它應(yīng)該處于非通用和輔助的位置。與本質(zhì)性強、以算法透明度為代表的事前規(guī)制相比,以實用主義為指導(dǎo)、以算法責(zé)任為代表的事后規(guī)制更為合適。譚九生、范曉韻的《算法“黑箱”的成因、風(fēng)險及其治理》認(rèn)為,算法技術(shù)的復(fù)雜性、相關(guān)法律政策的缺乏、算法的局限性、公開算法的力量不足以及算法安全性的維護(hù)不足等因素導(dǎo)致了算法“黑箱”[2]。要治理算法“黑箱”,關(guān)鍵是實現(xiàn)“有意義的算法透明度”,這可以遵循建立政府責(zé)任和義務(wù)體系的路徑,促進(jìn)科技公司的對外開放,發(fā)揮社會組織監(jiān)督作用。鄧志宏、孫佳靈的《我國人工智能法律規(guī)制問題初探》的主要觀點是:當(dāng)前人工智能法律規(guī)制的難點在于人工智能發(fā)展階段與法律規(guī)制范圍的差異;法律只能規(guī)范已經(jīng)發(fā)生的和社會上可以預(yù)見的風(fēng)險;算法知識的盲區(qū)和有限的立法技術(shù)使得人工智能系統(tǒng)規(guī)制的目標(biāo)難以實現(xiàn);法律規(guī)制應(yīng)更加關(guān)注人工智能應(yīng)用的特定領(lǐng)域,即遵循中國采用的分散立法的保護(hù)方式,合理借鑒國外的保護(hù)方式,結(jié)合具體行業(yè)進(jìn)行規(guī)制[3]。蘇宇在更深層次上討論了該算法的規(guī)則,并對其價值目標(biāo)和機(jī)構(gòu)設(shè)計進(jìn)行了分析。他認(rèn)為,任何規(guī)制活動都應(yīng)在具有法律價值的特定目標(biāo)下進(jìn)行。因此,確定算法規(guī)制的價值目標(biāo)是解決法律規(guī)制這一重大問題的關(guān)鍵。確定價值目標(biāo)的具體選擇應(yīng)由立法者決定,因此由行政和司法機(jī)構(gòu)在立法決定的框架內(nèi)通過法律程序加以解釋。趙學(xué)剛、馬羽男在《算法偏見的法律矯正研究》中指出,無論我們多么強調(diào)對算法的監(jiān)督,不扼殺創(chuàng)新和行業(yè)競爭力都應(yīng)該是管理的底線。如果苛責(zé)太多,因噎廢食,我們將落后于時代??梢越⒁粋€新的內(nèi)部和外部監(jiān)管機(jī)構(gòu)來監(jiān)管數(shù)據(jù)公司[4]。本文在借鑒上述研究的基礎(chǔ)上,將歐美等西方國家的相關(guān)立法制度與我國現(xiàn)行的算法法律規(guī)制相比較,分析了我國現(xiàn)行法律規(guī)制的不足之處,并提出了建立未來立法規(guī)制體系的可行性建議。本文的創(chuàng)新點主要有以下三個方面:一是在詳細(xì)梳理、分析相關(guān)的法律法規(guī)以及指導(dǎo)性文件基礎(chǔ)上,提出算法法律規(guī)制的路徑;二是擴(kuò)展了研究視點,不局限于研究特定應(yīng)用場景下的法律規(guī)制和技術(shù)手段的完善;三是在研究內(nèi)容上,較為全面地總結(jié)了算法的不透明性以及算法可能導(dǎo)致的算法歧視等法律問題,并分析了這些問題背后的真正原因,較為系統(tǒng)地闡述了規(guī)制算法的具體方式。
作為一種新興技術(shù),算法本身具有技術(shù)的難度和復(fù)雜性,算法的應(yīng)用過程還不為普通大眾知曉。這也是算法迅速發(fā)展壯大路上的絆腳石。
首先,算法透明化缺乏可操作性。算法透明,換種語言可以說是算法公開。算法公開其實是對算法數(shù)據(jù)運算的發(fā)布,還包括對數(shù)據(jù)代碼的公開。算法的不透明性,本質(zhì)上是算法技術(shù)的復(fù)雜性造成的,并不是人們主觀故意使然[5]。不是學(xué)習(xí)專業(yè)代碼技術(shù)這類人,即使算法公開透明,也無法理解其內(nèi)容。算法究竟是如何運轉(zhuǎn)的,即使是有一定專業(yè)技術(shù)知識的人也并不十分清楚。
其次,算法透明的實現(xiàn)面臨風(fēng)險挑戰(zhàn)。假使算法的透明性部分實現(xiàn),算法具體向相關(guān)主體披露或解釋,那么,算法的透明性可能仍然存在是否可取的問題。例如,算法一旦實現(xiàn)其透明性,有的人就可能通過設(shè)置相應(yīng)的參數(shù)和制造數(shù)據(jù),利用計算類方法達(dá)成自己相關(guān)意圖,進(jìn)而對其他人的正當(dāng)權(quán)益形成損害。算法的公開還有可能導(dǎo)致算法的知識產(chǎn)權(quán)受到侵犯。從原理視角上分析,不管是基于勞動價值論還是基于促進(jìn)投資的功利主義原則,將算法作為商業(yè)秘密來保護(hù)知識產(chǎn)權(quán)都是正當(dāng)?shù)模?]。人們會簡單地將算法徹底公開等同于算法正當(dāng),忽視了算法隱含的價值觀念以及對公共事務(wù)產(chǎn)生的影響。
再次,算法黑箱普遍存在。算法是一種典型的技術(shù)工具,應(yīng)該是客觀中立的,但由于其身特性和技術(shù)應(yīng)用不當(dāng),算法黑箱化現(xiàn)象比較普遍。算法黑箱的存在,在一定程度上會損害個人的合法權(quán)益,影響公眾對算法的認(rèn)知,造成政府法治現(xiàn)代化推進(jìn)的緩慢[7]。算法黑箱使得人們無法保護(hù)自己合法信息方面的相關(guān)利益,黑箱運作是一個專門的場域,公眾不知道也看不到其中的規(guī)則,參與不到?jīng)Q策的流程,那么,風(fēng)險的規(guī)避就無從談起,只有默默無奈接受最后的結(jié)果。算法可以說不光是在預(yù)測,更是在幫助、主導(dǎo)用戶的行為[8]。
作為一項技術(shù),算法是客觀中立的,所以大部分人認(rèn)為應(yīng)用算法技術(shù)得出的結(jié)果,也是客觀的,會有效避免人為操作可能造成的不公正問題的發(fā)生。其實不然,在人工智能算法決策中,算法歧視和不公正現(xiàn)象并不鮮見。
所謂算法歧視,是指人們在操作人工智能時采用的算法運算導(dǎo)致不公平或者錯誤結(jié)果出現(xiàn),造成用戶基本權(quán)利的損害。比較常見情形是價格歧視,大數(shù)據(jù)“殺熟”現(xiàn)象屢見不鮮。出現(xiàn)算法歧視的原因,一方面是算法編程人員或者使用人員的主觀偏見。設(shè)計者帶著自身的偏見與歧視,將其編入算法程序,自然算法決策出來的結(jié)果也是不公正的。除此之外,收集數(shù)據(jù)的過程可能也存在許多歧視機(jī)制。算法在不停更新學(xué)習(xí)自我完善的過程中也體現(xiàn)這種趨勢。大數(shù)據(jù)合集的不完備性依賴于人類社會相關(guān)不確定性和復(fù)雜客觀事實[9]。有些歧視可能造成不了什么影響,可是假如算法歧視牽涉到個人或者企業(yè)的信用評估、犯罪風(fēng)險預(yù)測等重要事情,算法決策相關(guān)結(jié)果可能會牽涉到貸款額度、刑罰輕重等問題。這類情況則需要引起我們足夠重視。
面對日益擴(kuò)張的信息鴻溝,用戶普遍缺乏足夠的能力和必要的知識對抗實力懸殊的數(shù)據(jù)掌控者,但又難以拒絕誘惑而不得不在魚或者是熊掌之間艱難抉擇。最終的結(jié)果很可能是為了獲取便利而逐漸舍棄對平等權(quán)的守護(hù)[10],這必然使得用戶識別算法歧視的閾值越來越高,長此以往,用戶就會產(chǎn)生耐受心理,甚至對社會不公表現(xiàn)出“格式化”和麻木的心態(tài)。這種情形勢必會給平等權(quán)保護(hù)帶來可怕的后果。
為應(yīng)對大數(shù)據(jù)時代的潮流,維護(hù)社會穩(wěn)定,我國立法部門也對算法進(jìn)行了法律層面的規(guī)制。主要包括我國的《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護(hù)法》,此外,我國最新頒布的《民法典》中“人格權(quán)編”也對此有規(guī)定。但是,我國這些法律是偏回應(yīng)型的,更偏重對算法結(jié)果的規(guī)制。法律規(guī)范文件多而密集,反映出立法機(jī)關(guān)對這一問題的高度重視,但是,從另一方面看,法律規(guī)范文件的紛雜也不是好現(xiàn)象,這可能引發(fā)數(shù)據(jù)主體的濫用風(fēng)險。
《網(wǎng)絡(luò)安全法》對行政機(jī)關(guān)監(jiān)測網(wǎng)絡(luò)和維護(hù)網(wǎng)絡(luò)相關(guān)職責(zé)的規(guī)定,重點涉及網(wǎng)絡(luò)運行與信息安全維護(hù)。單從文本上看似乎是科學(xué)合理和清晰的??墒俏覀儗φ諏嶋H情況會發(fā)現(xiàn)很多問題。例如,該法第41 條規(guī)定:“網(wǎng)絡(luò)運營者收集、使用個人信息,應(yīng)當(dāng)遵循合法、正當(dāng)、必要的原則,公開收集、使用規(guī)則,明示收集、使用信息的目的、方式和范圍,并經(jīng)被收集者同意?!钡?fù)責(zé)網(wǎng)絡(luò)運營的人怎么公開以及明示信息,其公開明示義務(wù)在何種程度上可以滿足信息被收集者相關(guān)了解范圍?網(wǎng)絡(luò)運營者實際上可以應(yīng)用算法自動關(guān)聯(lián)技術(shù)規(guī)避這條規(guī)定,即這條規(guī)定沒有辦法阻止數(shù)據(jù)主體的個人信息被單方面收集。由于其自動關(guān)聯(lián)性,該算法仍然可以繞過上述規(guī)則,在未經(jīng)用戶授權(quán)的情況下提取個人私密信息。
我國《民法典》制定了數(shù)據(jù)保護(hù)規(guī)則,意義重大。這主要體現(xiàn)在該法典第1035 到1039條。但是除了規(guī)定保護(hù)個人的隱私權(quán)益,規(guī)定對自身信息的查閱、刪除、更正等權(quán)利之外,該《民法典》中并沒有對一些類似于“私密空間”“私密話語”進(jìn)行范圍界定[11],也并沒有認(rèn)可諸如限制處理權(quán)、數(shù)據(jù)可攜權(quán)。其規(guī)定個人信息處理的法律原因是個人同意,這沒有辦法打破強制束縛,沒有更多有針對性的權(quán)利,例如拒絕算法自動處理數(shù)據(jù)的權(quán)利。
在頂層設(shè)計上,政府需要對算法公開的相關(guān)內(nèi)容以及公開的度,完善相關(guān)的法律法規(guī)。
這里的算法公開,應(yīng)該是根據(jù)不同的算法內(nèi)容區(qū)別處理,即不同的算法內(nèi)容,公開程度是不一樣的。作為一般原則,算法都應(yīng)該采取一定的方式進(jìn)行公開。開放式算法在不侵犯知識產(chǎn)權(quán)的情況下,有關(guān)部門決策者需要借助算法進(jìn)行決策的,應(yīng)嘗試以普通人能夠理解的方式對算法進(jìn)行逐一解釋并予以公開。在這種情況下,算法相關(guān)開放性和透明性為法律討論供給一條良好途徑[12]。此外,可以就算法引發(fā)的危害進(jìn)行等級劃分,不一樣的等級采取不同的公開方法。這種體系的構(gòu)建必須有個前提,即在算法中的任何一風(fēng)險等級,用戶都有權(quán)擁有最簡單明了的基本操作方法,并告知用戶有對算法結(jié)果提出異議的權(quán)利,對于不理解的地方也享有要求對方解釋的權(quán)利。風(fēng)險可以大致分為三個等級:一級風(fēng)險、二級風(fēng)險和三級風(fēng)險,風(fēng)險等級依次遞增。算法中的一級風(fēng)險和二級風(fēng)險,可以設(shè)定恰當(dāng)?shù)墓_范圍,同時把征得用戶同意的依賴程度降低。具體實施上,對于一級風(fēng)險的算法數(shù)據(jù),技術(shù)公司在公開的時候不用征得用戶的同意,減輕公司企業(yè)的壓力。具有二級風(fēng)險的算法,應(yīng)當(dāng)讓用戶以顯著的方式意識到風(fēng)險的后果,并采取積極主動的措施,減少應(yīng)對風(fēng)險的迫切需要。如果用戶不愿意做出一些措施去降低風(fēng)險,就應(yīng)該立即停止算法的運作。高風(fēng)險場景的算法應(yīng)重點公開,對于數(shù)據(jù)的收集分析要經(jīng)主體同意,告知其數(shù)據(jù)處理的情況以及涉及的邏輯信息與處理的重要性與后果。在面對第三等級算法風(fēng)險時,收集數(shù)據(jù)信息時需要征得主體同意,同時需要告訴他們處理相關(guān)數(shù)據(jù)的具體情形、收集這些數(shù)據(jù)的必要性以及需要面對的后果,這是需要重點公開的方面。另外,我們還可以采取小規(guī)模披露的方式。所謂小規(guī)模披露是指算法可以向企業(yè)的決策者披露,也可以向企業(yè)的其他人員披露。在企業(yè)決策體系內(nèi)部設(shè)立算法專業(yè)法律委員會,選舉產(chǎn)生部分專業(yè)委員,加強對算法的評審[13],通過這樣的方式去保證算法運行的合理合法性。
為了能更好監(jiān)管算法,防止算法歧視,需要加強算法監(jiān)管。2022 年3 月1 日起施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,將算法推薦服務(wù)全面納入監(jiān)管。該文件規(guī)定,算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供不針對其個人特征的選項,或者向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項。該規(guī)定涉及的個性化推薦如何更加規(guī)范,仍然面臨挑戰(zhàn)。但是,該規(guī)定的出臺促進(jìn)了互聯(lián)網(wǎng)平臺的算法技術(shù)進(jìn)步,有利于推進(jìn)相關(guān)行業(yè)的數(shù)字化轉(zhuǎn)型與平臺經(jīng)濟(jì)的健康發(fā)展。
算法監(jiān)管可以從兩個方面雙管齊下,其一是算法制定者的內(nèi)部監(jiān)管,即設(shè)立數(shù)據(jù)保護(hù)負(fù)責(zé)人團(tuán)隊。負(fù)責(zé)人需要擁有法律知識和技術(shù)知識,是復(fù)合型人才。為了有效決定自動決策算法,立法還需賦予數(shù)據(jù)維護(hù)負(fù)責(zé)人對自動決策算法結(jié)果的抵制以及上訴權(quán)利。數(shù)據(jù)主體享有數(shù)據(jù)訪問權(quán)、算法拒絕權(quán)以及申訴復(fù)議權(quán),在對自動決策算法結(jié)果不滿意時,可以行使上述權(quán)利。算法控制者應(yīng)當(dāng)定期檢測算法模型中的數(shù)據(jù)偏差,避免對服務(wù)對象產(chǎn)生歧視性影響,如果其未能履行此項義務(wù),算法控制者就應(yīng)該被問責(zé)。其二是加強外部監(jiān)管。雖然這兩年,國家有成立政府的數(shù)據(jù)監(jiān)管局,但其職能更多體現(xiàn)在政務(wù)公開層面。所以我們需要建立一個專門的算法監(jiān)督管理機(jī)構(gòu),來應(yīng)對算法歧視的泛濫。數(shù)據(jù)主體可以通過專門算法監(jiān)督機(jī)構(gòu)去找尋政府救濟(jì),更好地保障自身相關(guān)合法權(quán)益。因此,這類監(jiān)督機(jī)構(gòu),首先要保持自身獨立性,可以借鑒監(jiān)察委相關(guān)設(shè)立模式。同時也要保證其財政獨立。對于哪些被算法監(jiān)督機(jī)構(gòu)監(jiān)管,即監(jiān)管相關(guān)對象必須明確。既可以是技術(shù)企業(yè),亦或以是算法本身,也可是算法使用者。更重要的是算法監(jiān)督機(jī)構(gòu)人員的構(gòu)成,必須要求是專業(yè)技術(shù)強,法律意識充沛的人。監(jiān)管機(jī)構(gòu)要把風(fēng)險預(yù)防作為目的,通過對數(shù)據(jù)進(jìn)行篩查、評估以及專業(yè)恢復(fù)等方式,加強對數(shù)據(jù)質(zhì)量的剖析。
細(xì)化立法條款,明確問責(zé)機(jī)制是一項挑戰(zhàn)性強的工作,需要一個過程。但是,這項工作已迫在眉睫。
首先,對于已經(jīng)頒布的法律,有些內(nèi)容和法律概念應(yīng)予以細(xì)化。由于算法的設(shè)計、操作是放在網(wǎng)絡(luò)環(huán)境下進(jìn)行的,所以,《網(wǎng)絡(luò)安全法》的相關(guān)規(guī)定適用算法的規(guī)制。例如就該法的第22 條,網(wǎng)絡(luò)相關(guān)產(chǎn)品以及服務(wù)應(yīng)遵守國家標(biāo)準(zhǔn)強制性規(guī)定,那么,必須對惡意程序進(jìn)行限制性約束,網(wǎng)絡(luò)產(chǎn)品和服務(wù)符合不得設(shè)置惡意程序。法律禁止組織或個人使用算法侵犯他人權(quán)利或公共利益。但可以針對該法第41 條,對網(wǎng)絡(luò)經(jīng)營者的公開和明示義務(wù)作出規(guī)定,例如牽涉到公民個人利益的,在不侵犯其知識產(chǎn)權(quán)的情況才必須公開。
其次,還需明確算法責(zé)任制度。在算法問責(zé)主體上,可以將設(shè)計者、操作者或者第三方侵權(quán)人當(dāng)作問責(zé)主體。如果算法內(nèi)部出現(xiàn)問題,則將算法設(shè)計者當(dāng)作問責(zé)主體。如果是使用過程中發(fā)生侵權(quán)事件,則追究算法操作人員相關(guān)責(zé)任。在歸責(zé)問題上,過錯推定原則具備正當(dāng)適用性。關(guān)于侵權(quán)因果關(guān)系的認(rèn)定問題,由于算法與客觀損傷之間沒有直接的因果關(guān)系,需要綜合考慮算法模型、主觀意圖和損傷大小來確定[14]108。在算法侵權(quán)舉證責(zé)任分配相關(guān)問題上,可以采取舉證責(zé)任倒置更加方便舉證以及質(zhì)證。因為侵權(quán)主體一般都是擁有專業(yè)技術(shù)知識的人。算法侵權(quán)責(zé)任相關(guān)承擔(dān)方式應(yīng)包括賠禮道歉、經(jīng)濟(jì)賠償、積極消除算法影響等類型。針對造成嚴(yán)重財產(chǎn)侵害的情形,可以建立懲罰性賠償制度。由于我國關(guān)于算法規(guī)制的法律過于分散與模糊,立法機(jī)關(guān)也可以借鑒國外的相關(guān)立法經(jīng)驗制定符合我國國情的《算法責(zé)任法》,整合有關(guān)規(guī)制內(nèi)容。
數(shù)字技術(shù)發(fā)展也應(yīng)樹立以人為本的理念。算法規(guī)制的實現(xiàn)離不開數(shù)字人權(quán)保護(hù)。數(shù)字人權(quán)的涵蓋面極為廣泛,數(shù)字技術(shù)的各個應(yīng)用場景中,都存在數(shù)字人權(quán)保護(hù)問題。我國正在致力于構(gòu)建人類命運共同體,加強數(shù)字人權(quán)保護(hù)可以增強中國在科技立法和數(shù)據(jù)治理方面的國際發(fā)言權(quán)。算法的法律規(guī)制手段只能解決算法公正的短期目標(biāo)和中期目標(biāo),長遠(yuǎn)來看,算法公正需要借助數(shù)字人權(quán)保護(hù)來實現(xiàn)。
眾所周知,前三代人權(quán)的內(nèi)容主要是公眾參與、生活標(biāo)準(zhǔn)和物理世界的公平發(fā)展,牽涉到實質(zhì)層面上的人、物和行為,是不涉及到數(shù)據(jù)信息的?,F(xiàn)在,隨著數(shù)字時代的到來,一切從個人隱私到公共生活和財富,從服裝、食品、住房和交通到公共安全,都在加速計算機(jī)化和數(shù)字化進(jìn)程。離線狀態(tài)下的純活動較少。虛擬世界和現(xiàn)實世界的區(qū)別正在失去其原有的意義,所有人的數(shù)字生活將更加詳細(xì)。因此,所有人權(quán),包括生命和財產(chǎn)、工作和就業(yè)、社會保障、文化和教育,通過計算機(jī)化和數(shù)字化,如:隱私和個性、智能政府和公眾參與、保護(hù)虛擬財產(chǎn)、網(wǎng)上言論自由等,已經(jīng)被解構(gòu)和重建;或者迎接了數(shù)字分形、算法歧視、算法霸權(quán)、公司監(jiān)控等新的挑戰(zhàn)。在當(dāng)今,數(shù)字生活中由數(shù)據(jù)信息填滿,不可或缺。它也成為新時代人權(quán)的新載體和日益重要的表達(dá),人權(quán)內(nèi)容或人權(quán)形式正在從前三代人權(quán)的物質(zhì)支持轉(zhuǎn)變?yōu)楫?dāng)前人權(quán)的數(shù)字支持,這構(gòu)成了第四代人權(quán)的發(fā)展動力和基礎(chǔ)。
當(dāng)今數(shù)字時代,海量信息數(shù)據(jù)是人們身份、行為、關(guān)系的具體顯示和場景再現(xiàn),是人的數(shù)字屬性、數(shù)字定位和數(shù)字生態(tài)的必要資源,也是構(gòu)成人的資格的核心要素。算法的黑匣子,算法的霸權(quán)和算法的差別等問題被強調(diào)和普及,人腦的決策也日益會被算法這類自動化決策所替代。目前,核心問題不再是合同自由和產(chǎn)權(quán),而是數(shù)字人格,包括個人電子信息的知情權(quán)和個人電子信息不被非法披露、篡改和破壞都是個人人格權(quán)的重要內(nèi)容。因此識別數(shù)字人格是保護(hù)數(shù)字人權(quán)必然途徑。
首先,黑箱陰謀現(xiàn)象正在變得越來越嚴(yán)重。用戶最終選擇接受結(jié)果,是因為他們無法看到規(guī)則、表達(dá)不同意見和參與決策過程。因此,有的算法“不僅是預(yù)測,而且有助于控制用戶行為”,這當(dāng)然會構(gòu)成各種“陰謀”的黑匣子,歧視、不公正、不當(dāng)利潤甚至欺詐在所難免,人權(quán)保護(hù)自然面臨挑戰(zhàn)。其次,沒有監(jiān)測方向的擴(kuò)張。一些國家的貿(mào)易組織和政府經(jīng)常隨時以各種名義監(jiān)測和檢查個人數(shù)據(jù)信息。再次,數(shù)據(jù)控制的嚴(yán)重不對稱非常突出。所有數(shù)據(jù)都是我們自己生成的,但所有權(quán)不屬于我們。個人背景的透明度越來越高,外人對各種信息的收集和了解甚至超過了自己,加之,一些新黑科技的應(yīng)用,網(wǎng)絡(luò)竊賊可能正利用你的腦電波竊取個人信息,因此,一般公眾很難知道他們有多少個人數(shù)據(jù)和信息被他人控制。這意味著日益增長的“信息壟斷”和“信息鴻溝”可能危及個人隱私,自由平等和人的尊嚴(yán),損害數(shù)字時代的公平機(jī)會、社會教育、工作和社會保障等各項人權(quán)。
近年來,種族、性別、身份、宗教和健康狀況等方面的算法歧視在不少領(lǐng)域都有發(fā)生。借助自動信息處理,算法運營主體可以繞過反歧視限制,對特定群體進(jìn)行分組。因此,掌握算法的公司和政府機(jī)構(gòu)依靠一系列隱藏而強大的信息和精確的計算能力,通過虛擬空間實現(xiàn)遠(yuǎn)程存在,為所有特定對象提供其所需要的資源,并實現(xiàn)抽象和廣泛的自動識別。其后果具有普遍性、長期性和深遠(yuǎn)性,自現(xiàn)代化以來嚴(yán)重侵蝕了反歧視人權(quán)。事實上,信息隱私和算法歧視都不是簡單的個人現(xiàn)象,其在一定程度上已經(jīng)演變?yōu)橐环N社會現(xiàn)象。在其他領(lǐng)域,民眾參與智能政府決策、網(wǎng)絡(luò)言論發(fā)聲、虛擬社會組織,平等和正義等權(quán)利的變化也很普遍。在這些場域,民眾的私人權(quán)益往往處于更為脆弱的地位,難以得到有效保護(hù)。
事實表明,自計算機(jī)問世以來,技術(shù)變革的主要問題是權(quán)力的轉(zhuǎn)移,這導(dǎo)致人類從工業(yè)社會向算法社會轉(zhuǎn)移。最初,算法社會的主要目標(biāo)是提高智能和人類的自主性。這些自動化系統(tǒng)已經(jīng)從簡單的行政工具轉(zhuǎn)變?yōu)橹饕獩Q策者,收集了大量個人數(shù)據(jù),使政府和私營公司能夠采用新的監(jiān)測、控制、歧視和操縱形式。人們自己去主導(dǎo)的時代,已經(jīng)被高效便捷的算法來主導(dǎo)。有學(xué)者預(yù)測,人工智能可能會逐漸成為國家和國際經(jīng)濟(jì)的主導(dǎo)者,這一趨勢說明經(jīng)濟(jì)自由和資本主義結(jié)束了。因此,加強個人自主權(quán),反對集權(quán)。
首先,將人權(quán)和道德的相關(guān)價值觀融入算法中。算法和價值選擇的優(yōu)缺點與互聯(lián)網(wǎng)公司可以獲得的用戶數(shù)量和流量有關(guān),也關(guān)系到互聯(lián)網(wǎng)公司的利益。只有通過完善規(guī)則和管理人性,我們才能充分享受科技的紅利。在數(shù)字技術(shù)驅(qū)動的數(shù)字經(jīng)濟(jì)和數(shù)字社會背景下,研發(fā)公司的知識產(chǎn)權(quán)保護(hù)必須嚴(yán)格遵守尊重公民人權(quán)的原則,如隱私權(quán)、數(shù)據(jù)權(quán)和知識利益共享[14]117。科技發(fā)展的最終方向是人?;ヂ?lián)網(wǎng)公司開發(fā)和應(yīng)用新技術(shù)的目標(biāo)應(yīng)該是最好地為人們服務(wù),在服務(wù)提供過程中獲利,不是為了利益而傷害人們。當(dāng)下,我們必須高度警惕推薦算法正在改變信息披露的邏輯和規(guī)則。要確保符合主流價值,以主流價值取向控制算法,大幅提升輿論導(dǎo)向能力,我們可以確保算法的識別和應(yīng)用不會偏離軌道,更好地服務(wù)于社會。我們不僅要注意從技術(shù)層面對數(shù)據(jù)和算法的區(qū)分,還要從價值層面對數(shù)據(jù)控制員進(jìn)行引導(dǎo),避免基于自然利潤需求引入偏差數(shù)據(jù)和算法。
其次,促進(jìn)數(shù)據(jù)和信息自主的制度化進(jìn)程。對于數(shù)字人權(quán)這一概念具有重要影響意義的就是“信息自決”這一概念了,這一概念的提出對保護(hù)數(shù)據(jù)信息以及權(quán)利具有劃時代的意義。其意義主要體現(xiàn)在,個人數(shù)據(jù)不受國家的無限收集、存儲、使用和傳輸。但它不是一項絕對的權(quán)利,實際上它受到一定程度的限制,與其他原則一樣,這影響著數(shù)字化的發(fā)展前景。我們應(yīng)找到平衡點,并予以制度化,以更好地保障信息權(quán)益和數(shù)字人權(quán)。
再次,我們必須確立算法的倫理原則。算法歧視、算法控制和算法投喂等問題的解決,僅靠法律的外部規(guī)制是不夠的,最基本、最頻繁的是決策算法的內(nèi)部自律。公正的實現(xiàn)需要借助算法的質(zhì)量監(jiān)控。因此,有必要將人權(quán)和法治的必要價值納入算法決策中,并定義算法自律的標(biāo)準(zhǔn),即:在國家立法、行業(yè)自律和社會評價中確立算法符合“良法”的倫理原則,以尊重人權(quán)價值,維護(hù)數(shù)字人權(quán),促進(jìn)社會公平正義。