胡 瑾
(重慶師范大學 新聞與傳媒學院,重慶 401331)
2021年9月,國家互聯(lián)網信息辦公室、中央宣傳部等九部委聯(lián)合印發(fā)的《關于加強互聯(lián)網信息服務算法綜合治理的指導意見》(以下簡稱《意見》)指出,算法的不合理應用影響正常的傳播秩序、市場秩序和社會秩序,給維護意識形態(tài)安全、社會公平公正和網民合法權益帶來挑戰(zhàn)?!兑庖姟分杏嘘P“算法的不合理應用影響正常的傳播秩序”的表述是本文再談算法推薦新聞(algorithm recommendation news)倫理風險規(guī)制的出發(fā)點和支撐點。
討論算法推薦新聞的倫理風險,首先應當明確三個基本概念:信息過載、技術創(chuàng)新與算法推薦新聞。一般認為,信息過載是算法推薦新聞產生的重要原因。從傳播者、傳播渠道來看,信息過載是指大量復雜且不斷增加的信息在傳播渠道中流動,這必然會導致“過載”;從信息接受者的角度來看,新聞受眾在將信息轉化為自我認識的過程中也會出現(xiàn)“瓶頸”障礙,在信息接受方面出現(xiàn)“信息疲勞”現(xiàn)象[1]。在此背景下,算法推薦新聞逐漸興起,提升了人工新聞編輯和新聞推送的效率,進而使新聞業(yè)的整體效率得以提高。當然,算法推薦新聞的快速發(fā)展也與公眾的閱讀載體從傳統(tǒng)紙媒遷移到移動媒體密切相關,同時互聯(lián)網技術、大數(shù)據和云計算技術的發(fā)展及產業(yè)化也發(fā)揮了舉足輕重的作用??梢哉f,在算法推薦新聞時代,新聞受眾獲得了更大意義上的自主權,實現(xiàn)了“以受眾為導向”的價值回歸。但與此同時,算法推薦新聞引發(fā)的倫理風險不容忽視。對于算法推薦新聞的倫理風險,可在技術不確定性框架下分出以下三個向度。
算法推薦新聞中算法本身的不確定性可能引發(fā)倫理風險。隨著算法內部結構和功能日趨復雜,影響因素增多,愈發(fā)難以確定算法自身帶來的倫理影響[2]。算法作為一門新技術,涉及模糊復雜的技術知識和科學基礎。算法推薦新聞在底層算法、技術工程、受眾認知乃至市場環(huán)境等方面的不確定性,都可能引發(fā)倫理風險。
技術產生不確定性的來源不僅是外部的,也是內部的,這與人們自身意識形態(tài)框架中的偏見和局限有關[3],這種偏見和局限使算法推薦新聞可能帶來倫理風險。雖然技術倫理問題近年來被廣泛討論,但是在“技術拜物教”的助推之下,算法應用正在“狂飆突進”,只注重技術對人類的“再啟蒙”,而忽視了這種“再啟蒙”帶來的社會倫理問題[4]。同時,在算法的設計和應用中,我們更多地關注技術的效益價值,而忽略了其倫理內涵。此外,由于缺乏深入了解算法推薦新聞本身的知識和能力,以及無法及時獲得與算法推薦新聞相關的必要信息,可能導致算法推薦技術在新聞領域的應用帶來認知不確定性下的倫理風險。
法律規(guī)范和倫理體系的不完善使算法推薦新聞的倫理風險及其規(guī)制處于無序狀態(tài)。囿于技術本身不確定性和技術認知不確定性,學界對于算法推薦新聞倫理風險的規(guī)章制度存在爭議,難以形成統(tǒng)一行動,以此導致技術制度不確定性的出現(xiàn),技術制度不確定性又加劇了技術本身不確定性和技術認知不確定性帶來的倫理風險。
申言之,基于技術不確定性下算法推薦新聞的倫理風險向度,需具體風險具體分析,在厘清風險表現(xiàn)、風險根源的基礎上,加快算法倫理建構,并推動其實現(xiàn)。
算法作為一種尚未成熟且具有顛覆性影響的技術,本身面臨著道德、法律等諸多層面的風險挑戰(zhàn),其在新聞領域的應用也引發(fā)了諸多類型的倫理風險。技術本身不確定性下算法推薦新聞的倫理風險主要表現(xiàn)在以下幾個方面:一是算法推薦新聞本身存在倫理風險。算法推薦新聞分發(fā)平臺不遵守道德要求和法律規(guī)范,使人的意志因素融入算法和算法推薦新聞的技術中,導致算法面臨不可避免的偏差和黑箱,增加算法運行的不可控因素[5]。例如,2016年3月23日,微軟公司發(fā)布了人工智能(AI)聊天機器人Tay,但不到一天,Tay在與人類的互動中將好壞學了個遍,變成了一個種族歧視者,微軟公司不得不將其“下崗”。Tay的故事凸顯了機器學習程序開發(fā)者面臨的一個障礙:算法偏差[6]。二是算法在部分領域的應用引發(fā)了極大的倫理爭議。如今,算法被應用在大數(shù)據精準營銷中,包括搜狗用戶畫像挖掘、用戶評分預測、機場客流量分布預測等諸多領域,但算法在多場域的應用并非沒有負面影響,例如在百度在線網絡技術(北京)有限公司等與北京字節(jié)跳動科技有限公司不正當競爭糾紛一案中,字節(jié)跳動公司主張本文引言所述人民網文章僅是針對算法推薦,并未專門針對今日頭條(1)參見:北京知識產權法院(2019)京73民終1908號民事判決書。。人民網算法推薦文章是否針對今日頭條暫且不論,但這無疑是給有關主體帶來了倫理風險和不良后果。三是算法推薦新聞帶來信息數(shù)據保護風險。在新聞行業(yè),基于算法的新聞分發(fā)平臺,如Google News等主導著新聞受眾獲取新聞的數(shù)量、類型和偏好,越來越集中且具有壟斷性的新聞平臺控制著大量新聞受眾的個人信息數(shù)據,這也使侵犯新聞受眾隱私的事件層出不窮,但被侵犯群體卻難以獲得有效賠償[7]。例如,西班牙公民岡薩雷斯(González)要求發(fā)布者刪除與他有關的任何個人信息,或改變算法搜索結果保護他的隱私,該案是“被遺忘權”的經典案例。此外,新聞受眾對信息數(shù)據的主導權也逐漸被轉移到掌握用戶特性、標簽等的算法推薦新聞分發(fā)平臺手中。四是算法推薦新聞的負外部性逐漸凸顯。有學者指出,人工智能算法的負外部性表現(xiàn)在影響現(xiàn)有社會秩序的秩序性、連續(xù)性和確定性方面,從而引發(fā)社會道德危機,加劇人類社會未來發(fā)展的不確定性[8]。實際上,算法推薦新聞的負外部性也有相同表現(xiàn),例如算法規(guī)則程序,過程的不透明、不公開等技術黑箱缺陷,對社會公平形成挑戰(zhàn),這種不平等將進一步加大層級間的智能鴻溝,非智能社會人群向后退卻,成為技術哲學意義上的“準人類”甚至“非社會人”[9]。
目前,算法推薦新聞仍處于弱算法階段,其倫理風險問題尚未被充分重視。但是,隨著技術進步,算法推薦新聞將邁入強算法階段,且極有可能全面超越人類認知,這將使算法推薦新聞可能因失去倫理約束而陷入技術霸權的奴役之下。正如有學者指出,“人往往陷入被自然‘座架’指引的解蔽之路而無法脫身境地,解蔽此過程的方法暗藏危險,因為人逐漸被技術綁架:人即技術,技術即人”[10]。具體而言,囿于技術認知能力不足等困境,使新聞從業(yè)者對算法推薦新聞的倫理風險缺乏清晰認知,更遑論對其進行有效規(guī)制,但算法推薦新聞缺乏約束必然會帶來嚴重的倫理風險。例如,有學者指出,深度學習算法可能連設計者都不知道它是如何決策,那么要在系統(tǒng)中發(fā)現(xiàn)是否存在歧視、偏見以及探究其根源,在技術上比較困難[11]。英國杜倫郡警察等運用算法開發(fā)了評估工具“HART”,以預測嫌疑人繼續(xù)犯罪的風險。然而,該工具將郵政編碼作為預測因子區(qū)別對待窮人、富人,被認為“涉嫌”歧視窮人[12],這無疑是警方在開發(fā)之初難以預見到的。隨著智能化水平的提升,算法推薦技術將具備更強的自主學習和自動決策能力,自動駕駛系統(tǒng)等已經在特定場景中部分或全部代替了人類的決策和行動,這將進一步加劇對算法及算法推薦新聞認知的不確定性。當算法推薦新聞分發(fā)平臺自動默認將新奇、低俗作為新聞分發(fā)偏好,并基于此進行個性化推薦時,算法推薦新聞就會成為滋生謠言的幫兇。此外,算法推薦新聞分發(fā)平臺和新聞從業(yè)者可能存在經濟動機,致使人們對算法推薦新聞的認知出現(xiàn)不確定性,由此進一步引發(fā)倫理風險。例如,用戶訪問google.com以查找有關病癥的專家建議時可能會同時收到疾病控制中心和Google Health的建議。然而,觀察發(fā)現(xiàn)Google將其提供的(不一定是最好的)服務置于Google搜索結果的頂部。由此可見,技術認知不確定性引發(fā)的倫理風險之根源既有客觀能力的局限,也有主觀倫理底線的失守。
法律規(guī)范和倫理體系的不完善使算法推薦新聞的倫理風險進一步加劇,算法推薦新聞將不斷侵蝕作為“人”的主體性。其一,現(xiàn)有規(guī)制算法推薦新聞倫理風險的制度存在失靈。例如,美國聯(lián)邦貿易委員會(Federal Trade Commission,F(xiàn)TC)要求Everalbum公司刪除客戶數(shù)據以及算法,Everalbum使用面部識別技術將用戶照片自動分組,在默認情況下為所有用戶啟用了面部識別,且無法手動關閉。FTC與Paravision達成協(xié)議:該公司違反了《聯(lián)邦貿易委員會法案》(FederalTradeCommissionAct)第5a條中關于禁止不公平或欺騙性行為和慣例的規(guī)定,Everalbum同意對內容進行刪除。但是,該公司在應用關閉之前還在推銷產品,聲稱其口罩人臉識別算法在美國國家標準技術研究所(NIST)的人臉識別算法測試(FRVT)中獲得了準確率第二的好成績[13]。由此可見,現(xiàn)有規(guī)制算法推薦新聞倫理風險的有關制度存在失靈和威懾力不足等掣肘。其二,倫理規(guī)范體系的不完善使算法推薦新聞引發(fā)的倫理風險缺乏明確的規(guī)制手段和方向。與我國相比,域外規(guī)制算法倫理風險的制度體系較為完備。例如,《關于算法透明性和可問責性的聲明》(StatementonAlgorithmicTransparencyandAccountability)、《人工智能時代:確立以人為本的歐洲戰(zhàn)略》(TheAgeofArtificialIntelligence:TowardsaEuropeanStrategyforHuman-CentricMachines)、《可信人工智能倫理指南》(DraftEthicsGuidelinesforTrustworthyAI)等,歐盟《單一數(shù)字市場版權指令》要求臉書、You Tube等平臺加強版權審核。就我國而言,針對算法推薦新聞可能引發(fā)的“技術霸權”“責任缺口”等倫理風險,僅有《意見》作為規(guī)范依據。
技術本身不確定性下算法推薦新聞倫理風險生成之根源,既包括算法本身的風險暴露不足,也包括“數(shù)學洗腦”(mathwashing)帶來的技術依賴。目前算法推薦新聞是按照新聞從業(yè)者的意愿編輯生成,體現(xiàn)為算法推薦新聞對人類需求的滿足,但這也使人們容易被“洗腦”。Kickstarter眾籌公司的數(shù)據副總裁Fred Benenson創(chuàng)造了“數(shù)學洗腦”這一名詞,這個合成詞的靈感來自“pinkwashing”“greenwashing”或 “whitewashing”等,其核心要義在于批駁使用數(shù)學術語(算法、模型等)來掩蓋主觀現(xiàn)實,不能因使用了數(shù)學,就忽視了數(shù)據的內在主觀性,使用數(shù)據構建的任何東西都將反映收集數(shù)據時的偏見和決定[14]。進一步看,在強人工智能技術時代,算法可能形成與人主體相平行的新主體類型(平行主體),生成強人工智能主體的主體性,而在超強人工智能技術時代,算法可能形成超越人主體的全新主體(超主體),但這是人主體無法理解的超人主體性[15]。實際上,實踐已經為此作了證成。2017年3月,歐洲議會投票接受了法律事務委員會提交的關于機器人、人工智能的報告,該報告創(chuàng)新性地提出應該開發(fā)適用于機器人和超級人工智能的“電子人格”[16]。沙特阿拉伯還授予香港漢森機器人公司開發(fā)的表情機器人索菲亞以“公民身份”??梢哉f,算法的語言和思維將不斷接近智能發(fā)展的“奇點”,甚至可能具有哥德爾反思能力,從而接近人類,給“人”的主體性帶來挑戰(zhàn)[17]。對此,無論是古希臘時期普羅太戈拉提出的“人是萬物的尺度”的判定,還是蘇格拉底“認識你自己”的命題,都在強調人類自我意識和自身價值[18]。因此,算法推薦新聞遵循何種倫理,需要及時以制度形式明確下來,而這種制度無疑需要具有主體性的“人”來建構。
技術認知不確定性下算法推薦新聞的倫理風險除與新聞從業(yè)者的客觀認知能力不足有關外,也與相關新聞從業(yè)者的主觀倫理底線失守密切相關。一方面,智能時代新聞從業(yè)者所具備的新聞專業(yè)性、技術能力、新聞倫理和社會責任意識等能力存在諸多不足。例如,新聞網站REDDIT曾經向一些專家透露過它的排名算法,但研究人員發(fā)現(xiàn)專家們經常對算法的工作原理持不同意見,很難完全理解它的工作原理[19]。專家尚且如此,對于普通人而言,認知能力不足將使算法公開更無實質意義。但是,規(guī)制算法推薦新聞倫理風險需要算法本身滿足可解釋性的要求,這使新聞從業(yè)者在認知能力等方面將面臨更大的挑戰(zhàn)。理由在于,算法技術本身分為多種形態(tài),簡單算法解釋具有可行性,但是深度學習算法是一種具有自主學習能力的動態(tài)算法,其會不斷吸收新的信息,構建更復雜的算法模型[20],故很難對其進行有效、深入、及時的解釋。另一方面,算法推薦新聞分發(fā)平臺和新聞從業(yè)者可能存在倫理底線失守情形。例如抖音是算法推薦機制,即平臺只會推薦用戶喜歡和關注的內容,相關主體如引路燈公司的KPI考核指標也是按照這個規(guī)則來進行的,假如用戶有不喜歡的內容,就很難實現(xiàn)完播,沒有實現(xiàn)完播就不會計入流量池里(2)參見:福建省廈門市思明區(qū)人民法院(2020)閩0203民初19500號民事判決書。。在此種營利模式下,有關主體很可能從營利動機出發(fā)應用算法技術,這無疑將加劇算法推薦新聞引發(fā)的倫理風險,也使得全面認知算法推薦新聞的倫理風險及其規(guī)制理路面臨更大挑戰(zhàn),這種挑戰(zhàn)在專業(yè)的算法推薦新聞分發(fā)平臺那里將更為突出。算法推薦新聞分發(fā)平臺加速了所謂的“新聞民主化”改革,實現(xiàn)了新聞生產主導權的下移,這種轉變很容易引發(fā)新聞無序競爭的問題,造成新聞價值選擇與流量偏向的整體失衡[21]。
在算法推薦技術已經廣泛應用到傳播實踐的當下,用什么標準判斷算法推薦新聞的個性化推薦是否恰當?如存在不當之處,應當以何標準來約束和規(guī)范這種不恰當?shù)默F(xiàn)象?就此而言,從宏觀視角來看,《中華人民共和國民法典》《中華人民共和國網絡安全法》《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)等對算法推薦新聞的倫理風險規(guī)制具有一定作用。從微觀視角來看,可以從移動互聯(lián)網應用程序(application program,App)的算法應用和算法推薦新聞分發(fā)平臺兩個視角進行梳理:有關App算法應用的法律規(guī)范,如《常見類型移動互聯(lián)網應用程序必要個人信息范圍規(guī)定》第4條規(guī)定App不得因為用戶不同意提供非必要個人信息而拒絕用戶使用其基本功能服務,此規(guī)定為App的算法應用提供了參照適用規(guī)范;有關算法推薦新聞分發(fā)平臺的法律規(guī)范,如《網絡信息內容生態(tài)治理規(guī)定》第12條規(guī)定網絡信息平臺采用算法推薦技術推送信息的,應當建立健全人工干預、用戶自主選擇等機制,同時《意見》規(guī)定應當建立算法安全責任和科技倫理審查制度,以及對算法應用的結果負主體責任等。以上法律規(guī)范和已有的技術倫理、新聞倫理等倫理規(guī)范能夠對算法推薦新聞的倫理風險進行初步規(guī)制,但算法推薦新聞的新穎性使得已有倫理形態(tài)難以有效滿足算法推薦新聞的倫理規(guī)范需要,這也是算法推薦新聞倫理風險生成的制度不確定性根源。申言之,算法推薦新聞作為一種新興技術,已有倫理形態(tài)逐漸無法有效規(guī)制其倫理風險問題,亟需建構算法推薦新聞的倫理規(guī)范體系。
新聞透明原則是新聞基本原則之一,也是算法推薦新聞倫理風險規(guī)制需要遵循的基本原則。2001年,比爾·科瓦齊和湯姆·羅森斯蒂爾在《新聞的十大基本原則:新聞從業(yè)者須知和公眾的期待》(TheElementsofJournalism:WhatNewspeopleShouldKnowandthePublicShouldExpect)中較早系統(tǒng)性地提出“透明性原則”(rule of transparency)。從未來新聞學視角來看,算法、大數(shù)據給傳統(tǒng)新聞模式帶來了顛覆性挑戰(zhàn),作為新聞基本原則的新聞透明原則需與時俱進,對新模式、新技術、新業(yè)態(tài)予以規(guī)范和指引,正如有學者沿著“技術道德化”的思路,認為應當將新聞透明原則納入算法設計的“套路”[22]。在算法推薦新聞時代,已經規(guī)范化、制度化的算法透明原則能夠為新聞透明原則的實現(xiàn)提供范式支撐和法律基礎,例如《個人信息保護法》第24條已經明確規(guī)定了算法透明原則,《新一代人工智能倫理規(guī)范》同樣規(guī)定要提升算法透明性。換言之,建立在“可見”和“可知”基礎上的新聞透明原則,在數(shù)字時代不僅包含內容透明,還應當涉及平臺透明和算法透明[23]。因此,需要把新聞透明原則這一倫理規(guī)范植入算法設計中,以算法透明推動新聞透明。2010年,邁克爾·卡爾森將透明性劃分為“公開式透明”(disclosure transparency)和“參與式透明”(participatory transparency),前者指新聞從業(yè)者解釋、公開新聞選擇和生產方式,后者意為邀請新聞受眾參與新聞制作過程[24]。由此,在技術本身不確定性下算法推薦新聞倫理風險的規(guī)制方面,應當堅持以下兩個方面的規(guī)制思路:其一,公開式透明。新聞透明原則要求算法首先實現(xiàn)透明,以保證其可以實現(xiàn)被檢驗和被監(jiān)督[25]。公開式透明是規(guī)制算法推薦新聞倫理風險的重要手段之一,算法透明度不僅包括程序公開,還包括數(shù)據公開和算法開源等。需要指出的是,公開式透明并不是無限度的,其需要以確保公信力、消除偏見、保護公共利益和實現(xiàn)最小傷害等作為評價算法透明度是否“適度”的重要標準[26]。其二,參與式透明。參與式透明意在將算法透明原則建立在新聞受眾充分參與基礎之上,對于算法推薦新聞的相關倫理風險進行預估和監(jiān)督。此外,參與式透明還需要嚴格制定新聞從業(yè)者的職業(yè)道德標準,增強新聞從業(yè)者的責任感,提高識別和分析算法推薦新聞倫理風險的能力,避免使其陷入算法推薦新聞的“技術拜物教”之中。
技術認知不確定性下算法推薦新聞倫理風險的規(guī)制需要新聞從業(yè)者等秉持價值中立原則。技術是否中立本質上是價值是否中立,技術無法左右人類,最終的結果都是人類自己的選擇[27]。在1984年環(huán)球影業(yè)訴索尼一案中形成了“索尼規(guī)則”,也即技術中立原則,認為只要符合“實質性非侵權使用”的標準,技術產品就不構成輔助侵權,無論該技術用于何種目的[28]。實際上,技術中立的本質在于價值是否中立,算法推薦新聞取決于它的經驗(數(shù)據)和價值觀(機器學習算法),經驗難免有偏誤,價值觀也免不了有所偏好,算法背后充斥著人類價值的介入,致使算法推薦新聞的價值非中立性難以絕對消除。因此,我們需要努力將算法價值非中立性帶來的影響限制在可接受的范圍之內,型構安全、公平、透明的算法價值體系。當下,在規(guī)制算法推薦新聞倫理風險的問題上,對于新聞從業(yè)者在行業(yè)內的自我約束和認知能力提升等方面的論述和分析仍顯不足,這可能是由算法推薦新聞的商業(yè)邏輯決定的,算法技術畢竟不是抽象的數(shù)學,里面必然包含著價值觀的嵌入,如“利用技術的‘偽中立性’幫助自身實現(xiàn)特定的訴求”[29]。但是,如果新聞從業(yè)者等僅僅秉承商業(yè)邏輯,依賴算法的自主設定,不僅會使新聞生產失去獨立性,還會沖擊傳統(tǒng)新聞的價值中立觀,導致算法推薦新聞的價值糾纏[30]。質言之,算法推薦新聞在提高新聞采集、生產效率的同時對新聞從業(yè)者等的技術觀、新聞觀帶來沖擊,這要求新聞從業(yè)者等要堅持以價值中立原則為指導,確立“人”的主體性地位,避免新聞從業(yè)者等成為技術附庸和金錢奴隸。此外,價值中立原則的實現(xiàn)還需要有媒介素養(yǎng)的新聞受眾的有力監(jiān)督,新聞受眾對違背倫理的現(xiàn)象進行批評和監(jiān)督,對防范和規(guī)制算法推薦新聞的倫理風險同樣重要。
2020年12月,中共中央印發(fā)的《法治社會建設實施綱要(2020-2025年)》明確提出,要“堅持依法治網和以德潤網相結合”。其中,法治著重于在社會分化中確立秩序,而德治則努力彌合社會分化中的感情疏遠和價值裂痕,二者發(fā)揮相互補充的作用[31]。囿于算法推薦新聞及其倫理風險規(guī)制的倫理規(guī)范體系不完善的現(xiàn)狀,現(xiàn)階段亟需加快算法推薦新聞倫理規(guī)范體系和法律問責制度的完善,堅持德法共治,并發(fā)揮二者的協(xié)同作用。目前,我們應當同時從兩個方面著手:其一,加快省思正在變革中的新聞倫理、技術倫理,以及重構新的算法推薦新聞倫理體系;其二,針對算法推薦新聞的倫理風險,建立完整、有效的法律規(guī)制體系,筑牢算法推薦新聞倫理風險規(guī)制的最后屏障。
一方面,有限度的算法公開是技術本身不確定性下算法推薦新聞倫理風險規(guī)制的重要范式。算法公開應該是一個有意義的公共系統(tǒng)和決策系統(tǒng),而非指機械性的算法架構或源代碼的公開,機械性的算法公開可能是無意義的,這種公開不能為相關主體提供有意義的決策參考[32]。同時,新聞受眾可能難以有效閱讀、理解有關信息,造成“透明謬誤”。因此,算法推薦新聞的算法公開應當具體問題具體分析。第一,在公開信息的范圍上具體問題具體分析。例如,算法涉及銀行貸款、保護專有信息或合法商業(yè)利益以及如金融和醫(yī)療保健等隱私信息時,公開這些信息可能受到相關法律法規(guī)的限制。那么,對于此類信息的公開要進行分類研判,審慎對待。第二,在算法公開的解釋方法上具體問題具體分析。算法解釋方法主要包括模型中心解釋(model centric explanations,MCEs)和主體中心解釋(subject centric explanations,SCEs)兩種,其中模型中心解釋主要涵括相關參數(shù)、性能指標等,針對的主要是算法技術本身的信息;主體中心解釋是建立在輸入記錄的基礎上所作的解釋,此種方法對尋求個人救濟的數(shù)據主體來說可能更有優(yōu)勢,但其質量也可能因算法系統(tǒng)的多角度性質及多樣化個人數(shù)據類型等因素而降低,正如有學者指出MCEs和SCEs遠非完美的解決方案[33]。本文認為,算法推薦新聞的解釋方法需要結合二者之優(yōu)勢,在實踐理性指引下尋找創(chuàng)新的解釋和公開模式及路徑。
另一方面,算法解釋權、數(shù)據權利等保障能夠對技術本身不確定性下算法推薦新聞倫理風險規(guī)制發(fā)揮重要作用。算法解釋權意圖直觀地打開“算法黑箱”并提高問責制,其是指認為自身利益可能被算法的機器學習和自動決策影響的人,有權知道個人數(shù)據自動處理的邏輯,并要求改正算法錯誤[34]。同時,算法推薦新聞倫理風險規(guī)制需要以算法規(guī)制思維協(xié)調受眾數(shù)據權利與數(shù)據治理的關系,如果說加強身份數(shù)據采集、挖掘和算法標準的倫理規(guī)制是一種軟規(guī)制的話,安全嵌入設計程序的規(guī)制則是一種硬規(guī)制,通過加密、反追蹤和自動銷毀等程序,防止濫用受眾數(shù)字身份及其相關數(shù)據[35]。除了算法解釋權、數(shù)據權利之外,在《通用數(shù)據保護條例》(GeneralDataProtectionRegulation,GDPR)中還包括其他與算法治理相關的權利規(guī)定,例如被遺忘權和數(shù)據可攜性等,還有學者指出算法治理中的新興權利主要有個人數(shù)據保護的相關權利、算法解釋權、免受自動化決策權、有意義的人類控制權及事后的人工審核權[36]。以上權利分類對算法推薦新聞倫理風險規(guī)制問題的研究具有重要意義,但最重要的還是通過制度建構來保障這些權利的行使。
新聞從業(yè)者“計算思維”的養(yǎng)成是規(guī)制技術認知不確定性下算法推薦新聞倫理風險的重要方面。美國卡內基·梅隆大學的周以真(Jeannette M Wing)教授于2006年首次提出了“計算思維”的概念,其是指運用計算機科學的基礎概念進行問題求解、系統(tǒng)設計以及人類行為理解等涵蓋計算機科學的一系列思維活動[37]?,F(xiàn)階段,新聞從業(yè)者的計算思維需要加快進化到3.0階段,即計算思維在不同個體參與的人機交互過程中體現(xiàn)出的問題解決能力,并依據有關計算的流程與模型或者針對所面對的問題,參與構建適合問題解決的計算模型來創(chuàng)新性地解決問題[38]。實際上,國內外已有多項政策文件強調了計算思維和技術能力的重要性(3)例如,2018年9月17日發(fā)布《教育部 中共中央宣傳部關于提高高校新聞傳播人才培養(yǎng)能力 實施卓越新聞傳播人才教育培養(yǎng)計劃2.0的意見》,指出要形成遵循新聞傳播規(guī)律和人才成長規(guī)律的全媒化復合型專家型新聞傳播人才培養(yǎng)體系。同時,聯(lián)合國教科文組織在2019年發(fā)布《教育中的人工智能:可持續(xù)發(fā)展的機遇和挑戰(zhàn)》中同樣指出,學習者是否擁有創(chuàng)造開發(fā)與數(shù)字解碼新技術等新技能,成為AI時代衡量人才的新標準。。由此可見,新聞從業(yè)者計算思維的養(yǎng)成是算法推薦新聞倫理風險規(guī)制的重要方面。此外,新聞受眾也需要提高知識素養(yǎng)、數(shù)字素養(yǎng),提高正確分辨、選擇和評價算法推薦新聞內容的能力,這對于規(guī)制技術認知不確定性下算法推薦新聞的倫理風險同樣重要。
倫理,需要依靠自律。除了計算思維的養(yǎng)成,新聞從業(yè)者的倫理堅守是規(guī)制技術認知不確定性下算法推薦新聞倫理風險的防線。新聞從業(yè)者應當加強自律,將公共利益置于經濟利益之上,堅持正確的新聞價值觀,充分發(fā)揮在新聞傳播中的主體性作用,維護算法推薦新聞在新聞實踐中的倫理合規(guī)。同時,算法推薦新聞分發(fā)平臺需要在設計算法規(guī)則時分配更多的權重在公共價值和人文關懷方面,增加對公平、正義、人性尊嚴的考量。必要時,行政、法律力量需要介入打破技術與資本的壟斷,以達到平衡工具理性與價值理性之間關系的目的[39]??傊谒惴ㄍ扑]新聞時代要加強對新聞從業(yè)者和算法推薦新聞分發(fā)平臺的倫理約束,正確處理、規(guī)制技術給新聞領域帶來的倫理風險。
推動算法推薦新聞倫理結構化是技術制度不確定性下倫理風險防控的最后屏障和有力保障。倫理結構化過程是指規(guī)范化、制度化、系統(tǒng)化的邏輯構成,具有科學性和同一性的評價標準和方法,并逐步推動倫理規(guī)范的制度化和規(guī)范化[40]。
首先,規(guī)范構造是規(guī)制算法推薦新聞倫理風險的前提性條件。法律和倫理規(guī)范能夠為規(guī)制算法推薦新聞倫理風險指明方向,需要在算法推薦新聞的生成伊始設定其倫理要求。正如《意見》指出要健全算法安全治理政策法規(guī),加快制定算法管理規(guī)定,并制定標準、指南等配套文件。但與法律不同的是,倫理規(guī)范是規(guī)制算法推薦新聞倫理風險的直接標準,不具有法律的強制性。當人工智能算法發(fā)展到比人類決策更準確、更少歧視的階段時,算法倫理規(guī)范的設定可能需要設計超越人類倫理的雙重標準。換言之,當算法真正具有哥德爾反思能力抑或“公民身份”時,算法推薦新聞的倫理規(guī)范可能需要重構與現(xiàn)有人類倫理、新聞倫理不同的倫理規(guī)范體系,以此填補可能出現(xiàn)的“責任缺口”。
其次,加強算法推薦新聞的倫理標準化、算法備案與算法審計。倫理標準化是指將算法推薦新聞相關的倫理因素如透明度、可解釋性、新聞受眾態(tài)度等各種指標納入倫理規(guī)范設計過程之中,推動算法推薦新聞倫理標準的制度化、體系化。如此,規(guī)制算法推薦新聞的倫理風險就具有現(xiàn)實可行性,同時在倫理標準制度化、體系化之后,算法備案和算法審計就有了用武之地。算法備案是規(guī)范算法應用的事前規(guī)制手段,對于App的算法備案,可參照適用《移動互聯(lián)網應用程序信息服務管理規(guī)定》第5條的規(guī)定,要求移動互聯(lián)網應用程序(App)的算法應用應當依法取得相關資質、履行備案手續(xù);對于算法推薦新聞分發(fā)平臺的算法備案,國家互聯(lián)網信息辦公室發(fā)布的《互聯(lián)網信息服務算法推薦管理規(guī)定(征求意見稿)》第20條進行了明確規(guī)定,即具有輿論屬性或者社會動員能力的算法推薦服務提供者應當履行備案手續(xù)。就算法審計而言,有學者區(qū)分的代碼審計、非侵入式用戶審計、抓取式審計、馬甲審計、協(xié)同或眾包審計等五種算法審計方式能夠實現(xiàn)對App算法應用的審計和算法推薦新聞分發(fā)平臺的算法審計。具體而言,對App算法應用的算法審計,可采用非侵入式用戶審計等方式,在用戶同意的情況下獲取用戶的搜索和查詢結果進行推斷;對于算法推薦新聞分發(fā)平臺的算法審計可采用代碼審計等方式。由此可見,在倫理標準化基礎上多樣化的算法審計機制能夠對算法推薦新聞倫理風險的規(guī)制發(fā)揮重要作用。
最后,設立算法推薦新聞的監(jiān)管機構并強化問責法律制度。就監(jiān)管機構設立而言,歐洲科學和新技術倫理小組、英國上議院人工智能委員會等專門監(jiān)管機構在人員構成上主要包括負責立法的議會成員、國家數(shù)據保護機構成員、學者和公民等,能夠監(jiān)控、維護算法系統(tǒng)的負責任秩序,對算法推薦新聞倫理風險的規(guī)制具有重要作用。2019年澳大利亞競爭與消費者委員會宣布計劃設立專門分支機構,以監(jiān)管算法運行。在我國,中國消費者協(xié)會曾建議國家設立算法倫理專門機構。本文認為,由國家互聯(lián)網信息辦公室、中央宣傳部等部委、學者、公民代表等組建算法倫理的專門監(jiān)管機構以規(guī)制算法推薦新聞倫理風險具有必要性和可行性。監(jiān)管機構需根據《意見》要求構建算法風險監(jiān)測、算法安全評估、科技倫理審查、算法備案管理和違規(guī)行為處置一體化的監(jiān)管體系。就算法問責體系而言,對App算法應用的問責,2021年4月,工業(yè)和信息化部信息通信管理局發(fā)布的《移動互聯(lián)網應用程序個人信息保護管理暫行規(guī)定(征求意見稿)》第8條明確規(guī)定了移動互聯(lián)網應用程序(App)與第三方服務(算法推薦服務)承擔連帶責任的情形;對算法推薦新聞分發(fā)平臺的問責,主要包括算法說明責任和算法安全評估責任等,具體而言,《個人信息保護法》第24條的規(guī)定為算法推薦新聞分發(fā)平臺設定了算法說明責任;國家互聯(lián)網信息辦公室關于《互聯(lián)網信息服務算法推薦管理規(guī)定(征求意見稿)》第14條的規(guī)定為算法推薦新聞分發(fā)平臺設定了算法安全評估責任。下一步,需加強算法問責的可操作性,制定責任清單、厘清責任邊界,推動主體責任的充分落實。
算法推薦新聞的衍生有其社會基礎,但也引發(fā)了多方面、多層次的倫理危機,目前有關規(guī)制其倫理風險的探索仍不深入。本文轉換視角,在技術不確定性下對算法推薦新聞的倫理風險及其法律規(guī)制問題進行了初步探討,旨在不斷夯實算法推薦新聞的倫理根基,將有關倫理風險約束在倫理尤其是約束在法律的框架之中,以法治手段尋求大數(shù)據時代算法推薦新聞的技術不確定性問題的解決方案,使算法推薦新聞逐步邁向更大程度的“確定性”,從而更接近算法推薦新聞的正義目標。