劉耀華
(魯東大學(xué),山東煙臺(tái) 264000)
算法科技與大數(shù)據(jù)的結(jié)合使傳統(tǒng)新聞業(yè)的生產(chǎn)與傳播發(fā)生了質(zhì)的變化,帶來了全新的媒介形態(tài)和用戶收發(fā)生態(tài),創(chuàng)造性的改變了處于行動(dòng)者網(wǎng)絡(luò)中的各個(gè)參與者間的互動(dòng)關(guān)系,引發(fā)學(xué)界對(duì)新聞倫理進(jìn)化的社會(huì)性思考。微觀上,算法科技對(duì)從事傳播行業(yè)的記者、編輯的職業(yè)理念、道德觀念、采編方式等與新聞倫理相關(guān)的態(tài)度總和產(chǎn)生影響。對(duì)于普通用戶來講,首先,人們的信息越來越容易被獲取、分析和應(yīng)用。如果這些信息被錯(cuò)誤使用,就有可能導(dǎo)致個(gè)人隱私泄露、身份被盜用等問題。其次,大數(shù)據(jù)中包含了很多個(gè)人的信息和數(shù)據(jù),而某些算法可能會(huì)基于這些數(shù)據(jù)做出不公平或者歧視性的決策。再者,大數(shù)據(jù)在分析和處理數(shù)據(jù)時(shí),往往會(huì)受到樣本偏差和數(shù)據(jù)質(zhì)量等問題的影響,從而可能會(huì)導(dǎo)致某些分析結(jié)果出現(xiàn)偏見和誤導(dǎo)。最后,隨著人們?cè)絹碓揭蕾嚮ヂ?lián)網(wǎng)和智能設(shè)備,大數(shù)據(jù)所帶來的高效和方便也會(huì)讓人們過度沉迷其中,導(dǎo)致精神健康問題。宏觀上,根據(jù)中國互聯(lián)信息中心發(fā)布的數(shù)據(jù)來觀察,2023年上半年網(wǎng)民規(guī)??偭恳呀?jīng)達(dá)到了10.65億。再加上“雙千兆”等基礎(chǔ)網(wǎng)絡(luò)建設(shè)的不斷夯實(shí)與擴(kuò)大,普通人隨時(shí)隨地接觸使用互聯(lián)網(wǎng)機(jī)會(huì)和可能性越來越多,官方和私人媒體出于對(duì)宣傳、利益、流量等的需求,數(shù)據(jù)在分秒之間便可大量產(chǎn)生與消費(fèi),由于存在著信息繭房、網(wǎng)絡(luò)放大效應(yīng)和群體極化等原因,各種社會(huì)矛盾會(huì)不斷滋生,導(dǎo)致群體性事件多發(fā)頻發(fā)。大數(shù)據(jù)技術(shù)的發(fā)展會(huì)對(duì)一些傳統(tǒng)產(chǎn)業(yè)和就業(yè)崗位帶來沖擊,這可能會(huì)導(dǎo)致經(jīng)濟(jì)結(jié)構(gòu)的變革和失業(yè)問題。進(jìn)而影響政府公信力、民眾信服度。作為調(diào)節(jié)媒體與公眾間關(guān)系的智能體,要產(chǎn)生積極的社會(huì)影響。因此,本文試圖從拉圖爾行動(dòng)者網(wǎng)絡(luò)入手,改善算法黑箱,探索處于網(wǎng)絡(luò)中的人為因素及非人因素能夠發(fā)揮地對(duì)算法科技的影響力,試圖使算法科技與新聞倫理能夠有機(jī)融合為一個(gè)道德智能體。
康斯坦丁·多爾將算法新聞定義為,“從私人的或公共的數(shù)據(jù)庫中選擇電子數(shù)據(jù),對(duì)預(yù)選或未選數(shù)據(jù)進(jìn)行相關(guān)性分配,通過自然語言生成語義結(jié)構(gòu)并在特定范圍的線上或線下平臺(tái)中發(fā)布的最終文本”[1]。總體而言,由于算法科技具有繁雜的程序邏輯,將其應(yīng)用于新聞?lì)I(lǐng)域便會(huì)生成難懂的傳播流程,即算法黑箱。算法黑箱的形成多是源于算法技術(shù)本身的復(fù)雜性以及媒體機(jī)構(gòu)、技術(shù)公司的排他性商業(yè)政策,本質(zhì)在于不透明、不公開、技術(shù)門檻高和難理解。拉圖爾則指出:所有科學(xué)知識(shí)形成的過程就是在黑箱中完成的[2]。作為傳播信息和認(rèn)知的新聞行業(yè),在借助于互聯(lián)網(wǎng)技術(shù)生成并分發(fā)的過程中也存在人為因素和非人為因素共同作用,因此有必要對(duì)算法黑箱形成過程中的所有參與因素進(jìn)行考究。
拉圖爾針對(duì)轉(zhuǎn)義過程中造成的差異現(xiàn)象提出了“轉(zhuǎn)義”概念,拉圖爾認(rèn)為在行動(dòng)者網(wǎng)絡(luò)理論中,轉(zhuǎn)義者與行動(dòng)者的概念一樣,轉(zhuǎn)義者會(huì)改變(transformation)、轉(zhuǎn)譯(translation)、扭曲(distort)和修改(modify)他們本應(yīng)表達(dá)的意義或元素。[3]在此轉(zhuǎn)義者的鏈條之中,有可能僅僅是一種小到難以惹人注意的程序或者信息等原因也能夠?yàn)楦淖兇随湕l上的一個(gè)拐點(diǎn)方向而助力,造成信息的傳播格局發(fā)生根本性的變化。如果將轉(zhuǎn)義者比作設(shè)定程序前輸入的既定算法,其中可以認(rèn)識(shí)和了解到此算法中所包含的條件和信息等各種數(shù)據(jù),唯一無法確認(rèn)和預(yù)測的便是轉(zhuǎn)義者的參與會(huì)輸出、引發(fā)何種差異。算法科技中包含的轉(zhuǎn)義者并非只有算法創(chuàng)立、設(shè)計(jì)和運(yùn)用主體等人為因素,也包括算法技術(shù)接收終端和技術(shù)層級(jí)等非人為因素。
在算法設(shè)計(jì)之初,算法設(shè)計(jì)者們會(huì)提取用戶的各類網(wǎng)絡(luò)數(shù)據(jù)建立用戶數(shù)據(jù)檔案庫,并根據(jù)個(gè)人主觀偏見與公司商業(yè)利益等不斷地進(jìn)行算法數(shù)據(jù)匹配實(shí)驗(yàn),以期設(shè)計(jì)出一套能夠完美符合個(gè)體用戶畫像的算法機(jī)制后與人工智能完美結(jié)合。在此設(shè)計(jì)過程中,算法設(shè)計(jì)者可能會(huì)將“流量至上”原則植入算法程序,也難免會(huì)將自我價(jià)值觀念和偏見植入,這種以數(shù)據(jù)主導(dǎo)、流量為王的移動(dòng)閱讀環(huán)境,加劇了低俗、虛假新聞的產(chǎn)生;算法新聞的個(gè)性化推薦,又進(jìn)一步強(qiáng)化了信息傳播的閉環(huán),消解了傳統(tǒng)媒體堅(jiān)守的情懷、專業(yè)主義和對(duì)主流價(jià)值觀建構(gòu)[4]。
隨著互聯(lián)網(wǎng)進(jìn)入人工智能時(shí)代,人類期望生產(chǎn)出一種能夠?qū)θ说囊庾R(shí)、思維、習(xí)慣進(jìn)行模擬和了解個(gè)人行為方式的智能機(jī)器。這就必須要有數(shù)據(jù)、算法的介入使之變成可能,進(jìn)而催生了機(jī)器學(xué)習(xí)寫作、算法推薦、數(shù)據(jù)抓取、語言識(shí)別翻譯等越來越多應(yīng)用于新聞?lì)I(lǐng)域生產(chǎn)的技術(shù)。
在新聞生產(chǎn)環(huán)節(jié),部分媒體和商業(yè)過分追求新聞的時(shí)效性而采用了暫時(shí)尚未成熟的機(jī)器寫作技術(shù),將其應(yīng)用于金融、民生等宏觀和小眾體育欄目、逸聞等長尾領(lǐng)域。由于部分涉及領(lǐng)域的數(shù)據(jù)總量大、變化快,即便先進(jìn)的寫作機(jī)器人在實(shí)現(xiàn)數(shù)據(jù)準(zhǔn)確抓取、處理速度等方面仍有不足,過分地使用造成了泛濫的以依賴數(shù)據(jù)為主導(dǎo)寫作的扁平化新聞,擠壓了新聞?wù)鎸?shí)性的生存空間;同時(shí),在內(nèi)容豐富性、分析深度、文字理解上的能力都不及人類,輸出的文章味同嚼蠟,缺乏情感的鋪設(shè)。機(jī)器寫作雖然能夠滿足受眾對(duì)于熱點(diǎn)新聞監(jiān)測的及時(shí)性和時(shí)效性的需求;同時(shí)能夠使記者從快新聞中脫身,但總體而言,新聞內(nèi)容的質(zhì)量被削弱,使服務(wù)于社會(huì)的新聞價(jià)值呈現(xiàn)遞減狀態(tài)。
隨著算法技術(shù)的不斷發(fā)展,機(jī)器深度學(xué)習(xí)成為可能,越來越多的社交類APP引入了計(jì)算機(jī)視覺分析中的圖像識(shí)別算法技術(shù),與人類識(shí)別圖像內(nèi)容的原理大抵相同,通過對(duì)圖像中的像素分布、顏色、紋理等特征的統(tǒng)計(jì)和特征提取,將圖像內(nèi)容所屬的類別進(jìn)行正確的劃分和準(zhǔn)確識(shí)別圖像內(nèi)容真假。旨在避免過多的機(jī)器人注冊(cè)和提供更高的安全性、精度以及自動(dòng)化,但目前的算法識(shí)別技術(shù)在保存識(shí)別圖像時(shí),會(huì)因?yàn)閿?shù)據(jù)庫建設(shè)不完備從而丟失一些關(guān)鍵信息,引發(fā)嚴(yán)重的道德和倫理歧視問題,如據(jù)美國有線電視新聞網(wǎng)在2021年10月7日?qǐng)?bào)道,因打車軟件優(yōu)步(Uber)的人臉識(shí)別系統(tǒng)無法正確地辨別有色人種,被指控涉嫌“種族歧視”,三名當(dāng)事人已向英國勞動(dòng)法庭提起訴訟,具體原因是官方指出此數(shù)據(jù)庫是針對(duì)白種人建立且缺少必要監(jiān)管,造成了杰米·薩斯坎德所說的“中立謬誤”問題[5]。
算法在進(jìn)行面部身份識(shí)別時(shí),科技公司會(huì)有意地利用這一技術(shù)與機(jī)器學(xué)習(xí)結(jié)合使用幫助識(shí)別用戶面部表情并理解與該表情相關(guān)的情緒,建立相關(guān)數(shù)據(jù)分析庫并應(yīng)用于廣告推銷行業(yè),以期獲得良好的產(chǎn)品反饋和廣告推送。如挪威的Peppes Pizza餐廳正在使用帶有隱藏?cái)z像頭的面別識(shí)別技術(shù)來投放性別廣告。這引起了業(yè)界與學(xué)界關(guān)于自由隱私問題的討論,主要的擔(dān)憂在于像Facebook、Google、Apple等科技巨頭在使用相關(guān)技術(shù)收集用戶的活動(dòng)簽到、喜好、面部特征后被黑客組織盜取,從而造成大規(guī)模的隱私泄露。在此之前,F(xiàn)indface通過頭像就可以在所有的2億個(gè)VKontakte(俄羅斯最大社交網(wǎng)絡(luò))個(gè)人資料中識(shí)別用戶,該軟件的最初目的是幫助用戶尋找新朋友,后來被許多非法團(tuán)體利用識(shí)別和騷擾相關(guān)用戶。
互聯(lián)網(wǎng)上成千上萬的新聞造成了信息爆炸,為了提升抓取用戶的瀏覽、搜索和停留時(shí)間及可用的數(shù)據(jù),以數(shù)據(jù)化的方式畫出用戶的喜好、行為和習(xí)慣畫像,從而巧妙地利用搜索引擎與算法推薦技術(shù)相結(jié)合,精準(zhǔn)的縮小信息的推薦和分發(fā)的范圍和提升效率。算法推薦技術(shù)可以看作是賦予算法進(jìn)行信息篩選的權(quán)力,是一種“系統(tǒng)發(fā)起的個(gè)性化”。也就是說,算法的“過濾氣泡”在很大程度上代替受眾主動(dòng)定制媒體內(nèi)容的權(quán)利,信息窄化在很大程度上以“系統(tǒng)主導(dǎo)”模式壓制“用戶主導(dǎo)”模式,總體呈現(xiàn)出工具理性大于價(jià)值理性的媒介偏好,造成了新聞內(nèi)容呈現(xiàn)的高度窄化,曼紐爾·卡斯特所言:“我們感受和思考的方式?jīng)Q定了我們行動(dòng)的方式”,用戶生存在對(duì)內(nèi)容同質(zhì)化定制的“制繭”中,成為無理性、非自主性的寫照,由此引發(fā)倫理挑戰(zhàn)。
算法的設(shè)計(jì)程序涉及商業(yè)機(jī)密絕不可能為大多數(shù)學(xué)者唾手研究,因此很難參透其算法黑箱的設(shè)計(jì)漏洞與底層邏輯及黑客的攻擊不可預(yù)測性加劇了算法失控的風(fēng)險(xiǎn),以上原因成為阻止公眾進(jìn)行倫理規(guī)制與識(shí)別的障礙。從拉圖爾的轉(zhuǎn)義理論來看,算法設(shè)計(jì)主體到運(yùn)用主體及參與其中的各類轉(zhuǎn)譯者無法有效溝通、轉(zhuǎn)義自身的價(jià)值與理念,最終造成信息窄化與道德偏差
算法技術(shù)對(duì)新聞倫理造成的影響表現(xiàn)在技術(shù)與道德規(guī)范兩者間斷裂的問題。算法技術(shù)強(qiáng)調(diào)的是傳播效率和個(gè)人定制化的傳播理念,追求信息自動(dòng)生產(chǎn)與匹配度的最大化。相比之下,傳統(tǒng)新聞業(yè)對(duì)于新聞倫理的推崇表現(xiàn)在注重事實(shí)、從向善的角度衡量新聞內(nèi)容。兩者之間存在理性上的割裂,形成了對(duì)新聞倫理現(xiàn)代化的爭論。因此,有必要探尋構(gòu)建算法技術(shù)與新聞倫理的道德智能體的可行性路徑,改善算法黑箱,實(shí)現(xiàn)兩者間的有機(jī)結(jié)合。
從算法創(chuàng)設(shè)主體到算法運(yùn)用主體等各級(jí)參與到算法技術(shù)中的主體數(shù)量較多。不可避免的是在其運(yùn)作的過程中,算法運(yùn)用主體成了“新聞分發(fā)平臺(tái)的代筆工具”,而算法的創(chuàng)設(shè)主體卻倒置地成了能夠憑借強(qiáng)大資本力量和高等技術(shù)設(shè)定新聞規(guī)則的制定者。因此認(rèn)識(shí)到不同主體在微觀層面的“轉(zhuǎn)義”作用是探索交流的基礎(chǔ)。
拉圖爾曾強(qiáng)調(diào)要通過實(shí)踐來對(duì)科學(xué)的過程而非結(jié)果進(jìn)行理解和考察,逐漸在網(wǎng)格式的建構(gòu)過程中生存發(fā)展成為科學(xué),這是一種“正在形成的科學(xué)”,在這種網(wǎng)絡(luò)中則會(huì)囊括所有的社會(huì)資源和人類計(jì)謀。在行動(dòng)的過程中的行為實(shí)施者不僅包含了人,同時(shí)也包括如工具、設(shè)備、機(jī)器等非人因素。
在新聞生產(chǎn)與分發(fā)過程中的交流者分別為新聞工作者與算法設(shè)計(jì)師,兩者應(yīng)就如何利用傳統(tǒng)的新聞倫理語境約束當(dāng)下的算法新聞技術(shù)、在“人——機(jī)”協(xié)同過程中體現(xiàn)新聞工作者的求實(shí)、質(zhì)疑精神、監(jiān)督機(jī)器寫作技術(shù)在新聞創(chuàng)作中的應(yīng)用。
在算法技術(shù)公司的內(nèi)部,其算法工程師多是以完成目標(biāo)和績效為主,很少有努力思考在工作過程中所產(chǎn)生的系統(tǒng)性后果。多數(shù)情況下,數(shù)字技術(shù)是按掌權(quán)者和特權(quán)者的立場設(shè)計(jì)的。因此,研發(fā)人員應(yīng)作為算法工程師需要深入學(xué)習(xí)和了解傳統(tǒng)的新聞倫理知識(shí),尤其是在現(xiàn)代化的道德語境之下,搭建一套能促進(jìn)算法技術(shù)與新聞倫理有機(jī)結(jié)合的智識(shí)框架,以幫助清晰且批判性地思考數(shù)字創(chuàng)新的倫理后果,提升新聞的應(yīng)用價(jià)值。
算法技術(shù)應(yīng)用于新聞業(yè)的過程中出現(xiàn)了算法權(quán)力與用戶權(quán)利之間的不平衡,折射出算法設(shè)計(jì)過分關(guān)注技術(shù)理性、預(yù)測準(zhǔn)確度和執(zhí)行效率,因此亟待從中觀層面發(fā)力全面規(guī)訓(xùn)算法新聞道德智能體向善發(fā)展。
第一,需要對(duì)目前已存在的監(jiān)控機(jī)制的完善,比如事先將融合了倫理和個(gè)人隱私保護(hù)的算法新聞道德智能體通過測驗(yàn)“數(shù)據(jù)變換、隱藏、隨即擾動(dòng)、平移、翻轉(zhuǎn)”[6]等環(huán)節(jié),保證用戶數(shù)據(jù)在算法技術(shù)的抓取與篩選等環(huán)節(jié)不會(huì)被濫用、誤用、泄露。第二,構(gòu)建人機(jī)把關(guān)下的算法規(guī)制。傳統(tǒng)新聞時(shí)代對(duì)于新聞倫理的規(guī)制通常表現(xiàn)為人工檢查,在進(jìn)入人工智能時(shí)代則需嘗試構(gòu)建“人——機(jī)協(xié)同”的算法新聞倫理機(jī)制,從監(jiān)控、預(yù)警和獎(jiǎng)懲三個(gè)向度對(duì)算法運(yùn)行過程中的各參與者接收處理數(shù)據(jù)的過程與結(jié)果進(jìn)行倫理干預(yù),確保此過程中被轉(zhuǎn)譯的各種需求與建議得到溝通和受理。第三,相關(guān)責(zé)任部門需要增強(qiáng)對(duì)算法科技公司的問責(zé)力度。鑒于目前的審核監(jiān)管多是采用“人工+智能”模式,這種審核模式的短板在于僅僅貼切政治相關(guān)的問責(zé)機(jī)制,對(duì)于新聞評(píng)論中的諧音辱罵、挑釁等問題不能有效解決。在這種情況下,應(yīng)進(jìn)一步細(xì)化監(jiān)管條例,加深監(jiān)管的深度與寬度,全面提高對(duì)算法新聞道德智能體的綜合管理效率。
黑箱的外殼(已經(jīng)確定的歷史事實(shí)在這種清理和追蹤活動(dòng)中逐漸變得透明。這種活動(dòng)主要設(shè)計(jì)的是指政治、文化、社會(huì)層面的治理。技性科學(xué)觀是行動(dòng)者網(wǎng)絡(luò)的核心概念。
為識(shí)別和防范算法在全球新聞業(yè)中帶來的安全風(fēng)險(xiǎn),我國政府于2022年3月1日起正式實(shí)行《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,強(qiáng)調(diào)了算法技術(shù)在發(fā)展過程中所必須堅(jiān)守的原則問題,旨在拒絕算法“綁架”、扼制“大數(shù)據(jù)殺熟”,從而維護(hù)國家安全和社會(huì)公共利益,保護(hù)公民、法人和其他組織的合法權(quán)益。在此基礎(chǔ)上還應(yīng)從宏觀上規(guī)劃人工智能技術(shù)與新聞產(chǎn)業(yè)綜合整理,調(diào)動(dòng)人工智能產(chǎn)業(yè)從為服務(wù)人民的角度出發(fā),持續(xù)推動(dòng)為群眾解難題的目標(biāo),提升自身利用價(jià)值。此外,對(duì)于諸如“不得生成合成虛假新聞信息或者傳播非國家規(guī)定范圍內(nèi)的單位發(fā)布的新聞信息”“不得利用算法實(shí)施影響網(wǎng)絡(luò)輿論、規(guī)避監(jiān)督管理以及壟斷和不正當(dāng)競爭行為”等條例、要求與規(guī)范進(jìn)行進(jìn)一步的細(xì)化,由事后查處向事前事中監(jiān)督轉(zhuǎn)變,因此確立起算法技術(shù)在新聞生產(chǎn)、分發(fā)過程中的邊界是目前算法新聞倫理的宏觀問題。
以上基于算法技術(shù)下的新聞行業(yè)、新聞生產(chǎn)、身份識(shí)別、新聞推送四個(gè)層面帶來的算法倫理問題,透過拉圖爾行動(dòng)者網(wǎng)絡(luò)理論和微、中、宏三個(gè)層面構(gòu)建新聞道德智能體來解決算法倫理中存在的潛在和突出問題。
總之,在技術(shù)發(fā)展與倫理規(guī)范相沖突時(shí),要自覺將工具理性與價(jià)值理性有機(jī)結(jié)合,從而賦予人工智能對(duì)于解析和判斷道德和倫理困境的能力,在短期內(nèi)對(duì)成果進(jìn)行研判后取舍,有效治理算法黑箱中存在的弊端。防范與化解其中的倫理和道德等問題,營造人機(jī)協(xié)同高效治理的傳播生態(tài)。