隨著現(xiàn)代技術(shù)的迅速發(fā)展,技術(shù)對倫理的僭越愈加突出,并且愈加復雜。算法是當前智能技術(shù)的核心,它使得人工智能具有了分析、判定、決策等擬主體性,成為擬倫理角色。擬倫理角色導致的隱私侵犯、道德越軌、價值錯位等問題,是否需要擬主體負責?如何負責?如何規(guī)制?此類科技與人、社會的關(guān)系沖突,在算法分發(fā)普遍應(yīng)用的當下陸續(xù)浮出水面,成為社會亟待解決的難題。算法分發(fā)異軍突起對提升新聞傳播時效、匹配用戶需求均有所助益,然而算法黑箱、隱私侵犯、算法偏見、權(quán)力控制等技術(shù)倫理沖突頻頻出現(xiàn)。為了盡可能減少算法分發(fā)給人類帶來的風險,提高其正效應(yīng),社會就需要對算法分發(fā)所產(chǎn)生的技術(shù)倫理沖突進行判斷,進而做出規(guī)制。
對于傳統(tǒng)的新聞業(yè)而言,“透明性”實踐早已是推動多年的“公信力運動”的一部分,業(yè)已形成一系列倫理規(guī)則和操作規(guī)范使得新聞“透明可信”,這些規(guī)則包括指出倫理依據(jù)、信息源、使用更為平衡的報道等。對于缺少自律機制和外部管制的新聞算法分發(fā)而言,開放透明是其安身立命之本以及保障用戶信息權(quán)利的重要內(nèi)容。然而在新聞算法分發(fā)中存在著“模糊不清”問題,算法分發(fā)的內(nèi)容像從“黑箱”里冒出來一樣,用戶并不知道算法如何設(shè)計、分發(fā)內(nèi)容是否準確無誤、是否有著利益關(guān)聯(lián)方等內(nèi)容。2016年5月,臉書曝出編輯團隊人工干預算法結(jié)果的丑聞,更加深了公眾對算法分發(fā)透明性的質(zhì)疑。此外,算法分發(fā)的設(shè)計邏輯也常被視為平臺獲取用戶、市場的核心機密,技術(shù)區(qū)隔會帶來競爭優(yōu)勢,然而技術(shù)的晦澀也加深了外界對其透明公開的擔憂。
新聞算法分發(fā)是以用戶主動或被動讓渡隱私為前提的,深挖個體特征、關(guān)系、使用習慣等信息給用戶帶來便利的同時,也侵犯著用戶的隱私,使得隱私的不為人知與算法下用戶無所遁形成為悖論。
隱私指自然人的私人秘密和私生活安寧不被外界公開和干擾的狀態(tài)。它的本質(zhì)在于所有者獨自控制,不對外公開,外界亦不得侵犯。隨著算法技術(shù)對信息采集、檢索、處理、傳播等能力的增強,個人隱私面臨著全方位的威脅,已無所遁形。隱私分為信息隱私、空間隱私、自決隱私等內(nèi)容。算法分發(fā)將通過網(wǎng)絡(luò)收集到的個體信息進行編碼、分析,個體信息隱私面臨泄露風險。算法分發(fā)的數(shù)據(jù)收集還遍及使用傳感器的任何場所,如商場、車站、街道、交通等,這也就存在侵犯用戶空間隱私的可能。此外,理論上用戶有權(quán)決定哪些隱私可以公開或不公開,然而算法完全可以在當事人不知情的情況下進行數(shù)據(jù)的收集、處理,也可以從用戶公開數(shù)據(jù)中關(guān)聯(lián)出一些不公開的隱私內(nèi)容,用戶的自決隱私在算法面前基本上是形同虛設(shè)。
客觀全面是新聞倫理的基本范疇,它是指新聞工作者必須從可靠信息來源獲得真實全面的信息,并以客觀的態(tài)度忠實地反映現(xiàn)實。這就要求內(nèi)容有足夠的廣度與深度,能夠描述客觀世界的真實發(fā)展狀態(tài)。在傳統(tǒng)媒體中客觀全面雖然受到多重因素如固有思維和習慣、事實自身的立場等的影響,然而整體上看其能夠保持受眾對社會的全面認知。算法分發(fā)的實質(zhì)則是建構(gòu)信息過濾機制,濾出用戶“想要”的信息,極易產(chǎn)生算法偏見。
從傳統(tǒng)的編輯把關(guān)讓渡為個體興趣至上,過濾機制無疑增強了人們捕獲自己“回音”的能力,然而極易使個體陷入信息閉環(huán)和信息孤島,放大對信息的選擇性注意,這也就意味著社會全景有著支離破碎的風險。此外,算法設(shè)計也有著諸如安全性、準確性、可讀性、高效率、響應(yīng)快與低存儲等需求,這些設(shè)計需求也都會使得新聞分發(fā)內(nèi)容因人而異、因網(wǎng)而異、因機而異。如對網(wǎng)速較慢的用戶減少視頻、圖片新聞等的推送,可能使其未接收到最為重要的新聞。
算法作為“非人類行動者”,和人類的傳播活動編織成了新型社會關(guān)系網(wǎng)絡(luò)。英國學者大衛(wèi)·比爾提出了“算法的權(quán)力”概念,他認為算法已經(jīng)成為一種權(quán)力,影響著內(nèi)容的分類、優(yōu)先、推薦、判定。大眾媒體以人民性、黨性為依托,通過設(shè)置議程、內(nèi)容把關(guān)等方式對社會進行瞭望,對公權(quán)進行監(jiān)督。在算法驅(qū)動的新聞業(yè)中,算法則是商業(yè)利器,互聯(lián)網(wǎng)公司通過對算法權(quán)力的掌握與使用,實現(xiàn)其價值意圖。
算法分發(fā)中用戶獲取到的內(nèi)容是算法想讓它們獲取到的結(jié)果,是算法認為用戶需要得到的結(jié)果,因此算法除了分發(fā)權(quán)外,還獲得了事實上的議程設(shè)置權(quán)與把關(guān)權(quán)。我國媒介市場化的進程中“編輯終審權(quán)”的紅線,在算法分發(fā)的大趨勢中毀于無形。問題的關(guān)鍵不在于紅線是否被越過,而在于權(quán)力遷移下“權(quán)為誰所謀、權(quán)為誰所用”。當前互聯(lián)網(wǎng)平臺的新聞算法分發(fā)更多代表的是商業(yè)利益,通過“技術(shù)無意識”的運作,滲透到了我們的日常生活中。因此,在充分享受算法為用戶帶來全新閱讀體驗的同時,也要警惕算法的運作黑箱與背后的利益操縱,算法作為一種新技術(shù)究竟給予了用戶多大的權(quán)力,同時又在多大程度上使其處于全景監(jiān)視中。
隨著智能技術(shù)的迅速發(fā)展,算法分發(fā)負載著越來越多的價值與責任,如何使算法分發(fā)具有倫理屬性,幫助使用者做出倫理決策或者發(fā)展一種具有倫理意向的算法分發(fā)技術(shù),成為當前人工智能領(lǐng)域研究的重點。20世紀90年代美國華盛頓大學信息學院教授芭堤雅·弗里德曼提出了信息系統(tǒng)設(shè)計中的價值敏感設(shè)計的概念,將人的價值觀以一種原則和全面的方式加載到設(shè)計過程之中,為上述問題的解決提供了優(yōu)化推送設(shè)計的參考。
價值敏感設(shè)計采用整合、迭代的方式,從概念、經(jīng)驗和技術(shù)三個層面進行倫理的全方位注入,實現(xiàn)價值融入設(shè)計。概念研究階段主要分析算法分發(fā)相關(guān)的倫理道德內(nèi)容,為后續(xù)道德注入奠定基礎(chǔ)。這些道德內(nèi)容包括隱私、同意、可追責、誠信等。經(jīng)驗研究階段主要采用實驗、訪談、調(diào)查等方式對算法分發(fā)技術(shù)與倫理價值的相關(guān)性進行評估,為倫理道德價值提供經(jīng)驗數(shù)據(jù)支持。技術(shù)研究階段是在實驗?zāi)M、數(shù)據(jù)驗證的基礎(chǔ)上,研究算法分發(fā)技術(shù)對道德價值的支持。上述概念-經(jīng)驗-技術(shù)三個層面并非獨立,而是彼此連接、互動、更新,從而將人的價值與行為嵌入算法分發(fā)技術(shù)設(shè)計的全流程,實現(xiàn)技術(shù)上的價值規(guī)范。
算法作為大數(shù)據(jù)與人工智能的節(jié)點,在互聯(lián)網(wǎng)發(fā)展的下半場中發(fā)揮著構(gòu)造流量入口、增強用戶黏性的關(guān)鍵作用。經(jīng)由算法分發(fā)的新聞,削弱了大眾媒體時代媒體為受眾設(shè)置議程的權(quán)力。當平臺利用算法為受眾推送滿足其個性化需求的新聞時,更是將受眾牢牢聚攏在了自己所建立的擬態(tài)環(huán)境之中。由此,平臺借助算法成為編輯權(quán)、把關(guān)權(quán)的實際擁有者。傳統(tǒng)的編輯分發(fā)中,出現(xiàn)內(nèi)容導向問題,把關(guān)的總編輯需要承擔第一責任。在新聞算法分發(fā)中,雖然算法具有分析、判定、決策等擬主體性,扮演著總編輯的中介角色,然而其擬主體性的賦權(quán)都來自平臺。平臺是算法規(guī)制的制定者、實施者、控制者,出現(xiàn)分發(fā)內(nèi)容低俗和違規(guī)問題,平臺的主體責任自然不可推卻。因此,以“平臺治理”為抓手加強對資訊分發(fā)平臺的監(jiān)管,具有必要性和緊迫性。
此外,技術(shù)演進與商業(yè)創(chuàng)新往往會帶來政策監(jiān)管的空白地帶。在保護創(chuàng)新、服務(wù)社會發(fā)展的同時,也應(yīng)及時完善法規(guī),為理性健康的內(nèi)容空間提供監(jiān)管依據(jù),明晰其責任邊界。譬如近年來制定的《互聯(lián)網(wǎng)新聞信息服務(wù)管理規(guī)定》《互聯(lián)網(wǎng)新聞信息服務(wù)許可管理實施細則》等就為新聞算法分發(fā)價值規(guī)制提供了參照。在法規(guī)他律之外,組建算法協(xié)會與擬定行業(yè)準則,建構(gòu)同業(yè)監(jiān)督機制也不失為一種可行的手段。
隨著信息技術(shù)在社會生活中的全方位涉入,獲取信息的意識、技術(shù)、道德等內(nèi)容直接關(guān)涉?zhèn)€體生活、社會發(fā)展。新聞算法分發(fā)之所以強調(diào)用戶信息素養(yǎng)的提升,一方面是因為消費什么樣的信息,本身也是用戶的素養(yǎng)問題;另一方面,隨著智媒技術(shù)的發(fā)展,在新聞信息消費中人們的身份不再是單一的,而更可能同時扮演傳者、受眾、媒介等多重角色。因此,新聞算法分發(fā)中的信息素養(yǎng)不應(yīng)只是傳者的素養(yǎng),而應(yīng)成為全社會的基礎(chǔ)素養(yǎng)。信息素養(yǎng)提升方面,應(yīng)摒棄對信息的低水平滿足,通過宣傳教育和針對性引導推動全民信息素養(yǎng)的提升,這可以依托學校、家庭、社會等多個層面,將信息素養(yǎng)提升與公民的自我教育、個人良性發(fā)展予以緊密結(jié)合。
通過對算法分發(fā)的技術(shù)倫理風險分析,本文提出了重構(gòu)算法分發(fā)價值的一些方略,如:進行算法分發(fā)的價值敏感設(shè)計,建立針對平臺的多方監(jiān)管體系,多措并舉提升用戶普遍的信息素養(yǎng)。算法主導的內(nèi)容分發(fā)之外,還有其他技術(shù)分發(fā)方式,如微博的社交關(guān)系分發(fā)、《人民日報》等黨媒的主編推薦分發(fā)。這些技術(shù)分發(fā)方式各有優(yōu)勢,如編輯分發(fā)質(zhì)量高、社交分發(fā)互動性強、算法分發(fā)效率高,然而它們的弊端也較鮮明,如編輯分發(fā)效率較低、社交分發(fā)受關(guān)系限制等。目前上述技術(shù)分發(fā)方式仍處于各自為政的狀態(tài),如何對它們的倫理沖突進行社會適配,進而承接各自的正外部性成為未來思考的方向。