李 翔 余超越
(作者單位:江西科技師范大學(xué)文學(xué)院)
“后真相”一詞最早來源于西方政治領(lǐng)域,被牛津字典定義為“訴諸情感及個人信念,較客觀事實更能影響民意”。指的是人們不再專注于尋找真相,客觀事實對輿論的影響力下降,而情感與個人信仰則會產(chǎn)生更大的影響。后真相時代,情緒比新聞?wù)嫦喔又匾?。公眾更愿意選擇與自身興趣、個人觀點、自我認知相符合的新聞信息,具體表現(xiàn)有三種:第一是“回聲室效應(yīng)”,是指個體處于一個封閉的空間內(nèi),當(dāng)聽到的聲音是自我聲音的回響時,就會認為自己的看法代表了主流聲音;第二是“信息繭房”,是指大眾只關(guān)注自己感興趣的信息和領(lǐng)域,進而將自己封閉在“繭房”之中,缺乏對其他領(lǐng)域的了解;第三是反轉(zhuǎn)新聞,是指一些引發(fā)廣泛關(guān)注與討論的新聞熱點事件經(jīng)過一段時間之后,出現(xiàn)與事實截然相反的現(xiàn)象[1]。在中國,后真相新聞的流弊主要表現(xiàn)在虛假新聞層出不窮、輿論非理性表達、網(wǎng)絡(luò)暴力蔓延、群體極化加強、媒體公信力下降等方面。
算法是人工智能技術(shù)的典型代表,是指為解決某一特定問題而采取的有限且明確的操作步驟[2]。雖然算法不需要在軟件中實現(xiàn),但是計算機基本上是算法機器,旨在存儲和讀取數(shù)據(jù),以受控的方式將數(shù)學(xué)過程應(yīng)用于數(shù)據(jù),并提供新的信息作為輸出[3]。目前常見的有協(xié)同過濾推薦算法、基于內(nèi)容的推薦算法、基于關(guān)聯(lián)規(guī)則的推薦算法、基于效用的推薦算法和基于知識的推薦算法五種推薦算法類型[4]。算法偏見主要是指算法運行中出現(xiàn)的會對個人、群體乃至社會造成危害的一種不公平、不合理或者歧視的偏差現(xiàn)象。算法生產(chǎn)者的社會性、導(dǎo)入數(shù)據(jù)的不準(zhǔn)確性、算法技術(shù)的局限性等都會讓算法攜帶偏見。
新聞傳播進入移動互聯(lián)網(wǎng)時代,截至2023年6月,我國網(wǎng)絡(luò)新聞用戶規(guī)模達7.81億,占網(wǎng)民整體的72.4%[5]。網(wǎng)絡(luò)新媒體平臺為提升用戶的規(guī)模、參與度以及使用黏性,基于算法技術(shù)形成“用戶畫像”進行偏好、興趣推薦,并將其應(yīng)用于新聞傳播的各個環(huán)節(jié)。由于新聞媒體平臺本身也具有自己的運營理念、傳播傾向和政治立場,當(dāng)其利用算法技術(shù)的時候會深化偏見并激化情緒,從而助推新聞后真相現(xiàn)象,最終導(dǎo)致“回音室效應(yīng)”“信息繭房”“反轉(zhuǎn)新聞”等現(xiàn)象接踵而至,公眾只能看到自己想看到的“真相”,了解到已經(jīng)接納的視角,個體固守著自身的“觀念部落”對真相進行消解,從而深化新聞后真相現(xiàn)象。
“用于訓(xùn)練、學(xué)習(xí)和數(shù)據(jù)挖掘的原始數(shù)據(jù)是算法程序中的基石,其客觀與中立程度直接影響算法的決策結(jié)果”[6],算法原始數(shù)據(jù)中隱含的偏見將會深化整個算法程序。首先,算法原始數(shù)據(jù)主要來自個體,而個體本身是攜帶社會屬性的,體現(xiàn)在其成長環(huán)境、社會經(jīng)歷、個人性格、思維認知及行為方式都攜帶個體偏見。其次,算法原始數(shù)據(jù)的采集主要來自大數(shù)據(jù),但是不論大數(shù)據(jù)發(fā)展多么迅猛完善,其采集到的原始數(shù)據(jù)都不可能是全面的、具體的、完整的,這將導(dǎo)致算法原始數(shù)據(jù)產(chǎn)生偏差,而這些偏差都可能被算法捕捉并放大,最終以算法結(jié)果呈現(xiàn)出來。
以算法生產(chǎn)新聞為例,雖然算法可以快速整合文字、圖片和視頻等信息素材自動生成新聞作品,單獨完成新聞生產(chǎn)工作。但是,如果采集到的原始數(shù)據(jù)是存在偏見或歧視性的,算法再將這些不準(zhǔn)確的、片面的、攜帶偏見的數(shù)據(jù)鑲嵌進新聞生產(chǎn)程序中,則會引發(fā)新聞生態(tài)失衡,導(dǎo)致虛假新聞泛濫、新聞內(nèi)容低質(zhì)化以及庸俗、低俗與媚俗新聞充斥社會。算法原始數(shù)據(jù)偏見加劇了新聞生態(tài)紊亂,強化了用戶非理性的情緒,弱化了用戶辯證思考能力,為新聞進入后真相時代提供了機會。
算法工程師是算法偏見形成的一個不容忽視的群體根源。算法工程師有能力直接使用算法、調(diào)整算法和預(yù)設(shè)算法的未來走向,在整個算法設(shè)計中起著至關(guān)重要的作用。算法工程師有著不同的價值觀念,在實現(xiàn)目標(biāo)功能的過程中,會選擇不同的算法來解決問題。正是在這個過程中,算法工程師自身的文化偏見、思維慣性、道德理念等價值偏向會有意識或無意識地被融入算法程序中。
比如在算法驅(qū)動的數(shù)字新聞生產(chǎn)中,“從客觀現(xiàn)實到表征現(xiàn)實的‘轉(zhuǎn)譯’過程需要經(jīng)過兩個階段:記者對客觀現(xiàn)實的轉(zhuǎn)譯和程序員對記者轉(zhuǎn)譯后的客觀現(xiàn)實的再轉(zhuǎn)譯”[7]。即新聞生產(chǎn)的第一次“轉(zhuǎn)譯”來自記者,第二次“轉(zhuǎn)譯”是程序員對記者轉(zhuǎn)譯后的客觀現(xiàn)實的再轉(zhuǎn)譯,也就是算法運算的過程。但是算法工程師會有意識或無意識地將主觀情緒偏向、繼承給算法,所以在新聞生產(chǎn)的第一次“轉(zhuǎn)譯”之后,再利用算法技術(shù)進行新聞的第二次“轉(zhuǎn)譯”時,算法工程師的主觀情緒也將注入新聞內(nèi)容中,導(dǎo)致新聞的主觀性被強化。而公眾在瀏覽新聞的時候?qū)撘颇亟邮鼙簧罨闹饔^理念和個人情緒偏向,在多次反復(fù)地被新聞主觀情緒影響時,公眾個人情緒不斷激化,進而步入“感性在前,理性在后”的新聞后真相時代。
算法技術(shù)和人工智能深度學(xué)習(xí)的局限性導(dǎo)致人機互動時人工智能容易習(xí)得公眾的偏見。目前的算法模型也不夠完善,工程師往往通過學(xué)術(shù)資源網(wǎng)站獲取經(jīng)過大量數(shù)據(jù)檢驗過的成熟算法模型,并在此基礎(chǔ)上進行“本土化”處理,因地制宜修改參數(shù)應(yīng)用到實際中[8]。
例如在新聞推薦中,由于人類的情感具有復(fù)雜性及多面性,算法只能將復(fù)雜的人類情感簡化為用戶在媒體平臺上單一的社交手勢,即通過跟蹤用戶在媒體平臺的行為數(shù)據(jù)對用戶進行畫像,分析其新聞接收偏好。這種片面的、淺顯的、武斷的方式無法深入了解用戶真正的需要,必然導(dǎo)致對用戶產(chǎn)生算法傳播偏見。算法技術(shù)的局限性具體體現(xiàn)在向用戶反復(fù)推薦具有相同觀念、興趣和情緒的新聞信息,進而構(gòu)建出一個“新聞繭房”?!靶侣劺O房”會使用戶桎梏在固有的“繭房”之中,限制其新聞視野,對相反的意見采取排斥態(tài)度,強化用戶存在的偏見性認知,甚至將自己的偏見視為真理,最終深陷新聞后真相而不自知。
算法使用者主要是指網(wǎng)絡(luò)媒體平臺,其私人主體本質(zhì)決定了其創(chuàng)新技術(shù)、嵌入應(yīng)用、提供服務(wù)的核心目的在于商業(yè)逐利,這就迫使媒體信息傳播價值體系逐漸偏向商業(yè)性。算法使用者在商業(yè)利益影響下,“流量至上、唯利是從”的運營理念甚囂塵上,利用、支配和操控算法的情況屢見不鮮,當(dāng)網(wǎng)絡(luò)媒體平臺通過算法進行盈利時就已經(jīng)形成了算法偏見,即算法開發(fā)者或所有者通過調(diào)控程序參數(shù),從而得到想要看到的結(jié)果。
例如在新聞輿論生成中,媒體平臺為了實現(xiàn)商業(yè)利益,人為干預(yù)算法、竄改程序、操縱結(jié)果,將主觀意識融入新聞信息的加工制作中,并通過個人偏見引導(dǎo)新聞輿論走向,算法無形之中被賦予了輿論引導(dǎo)的作用。尤其當(dāng)新聞熱點出現(xiàn)的時候,媒體平臺為了追求流量和商業(yè)利益,控制算法反復(fù)推送相關(guān)內(nèi)容,以此來引導(dǎo)輿論、吸引用戶并引導(dǎo)公眾情緒,實現(xiàn)被商業(yè)浸染的算法偏見帶來的經(jīng)濟效益。另外,在一些重大新聞事件中,商業(yè)資本可以通過重要性排序、關(guān)鍵詞過濾和內(nèi)容算法推薦等手段對社會輿論進行目的性操控和引導(dǎo),以此來增加用戶黏性和維護熱度。
網(wǎng)絡(luò)媒體平臺通過算法技術(shù)實現(xiàn)新聞信息的個性化分發(fā),可以從大量的信息中篩選出用戶感興趣的內(nèi)容,增加用戶黏性,但也使用戶的信息接觸受限,導(dǎo)致用戶只能生活在自己和媒體構(gòu)建的擬態(tài)環(huán)境之中,只能看到同質(zhì)新聞信息,形成“新聞繭房”,不利于個體全方位信息的獲取。長此以往,容易使用戶對現(xiàn)實世界缺乏整體認識與思考,迷戀無價值的信息,進而忽視對真實意義的追求,陷入低俗與娛樂化的新聞狂歡,沉溺在一種虛假的自我滿足中,對公共事件漠不關(guān)心,缺乏社會責(zé)任與思辨能力,成為單向度的人[9]。
群體極化是指群體中已存在的傾向性觀點或態(tài)度從原來的群體平均水平加強到具有支配地位的現(xiàn)象。從群體維度來看,隨著網(wǎng)絡(luò)新聞的發(fā)展,“新聞業(yè)的中心轉(zhuǎn)向移動互聯(lián)網(wǎng),新聞成為一部分人的新聞,而不是傳統(tǒng)媒體時代大眾傳媒給人們提供‘無差別的’新聞,媒體從服務(wù)大眾轉(zhuǎn)向服務(wù)一定的社會群體,機構(gòu)化、專業(yè)化的新聞生產(chǎn)轉(zhuǎn)向機構(gòu)媒體、社會群體乃至個人的融合生產(chǎn)和傳播”[10]?;ヂ?lián)網(wǎng)媒體的發(fā)展加劇了社群化,而算法的協(xié)同過濾使具有相同觀念和興趣愛好的人“抱團”,進一步促進社會分眾。每個群體對熱點新聞的認知在群體“部落”里得到認可并強化,隨之而來的是各個群體的立場變得界限分明,無法了解與包容其他立場,激進的情緒和非理性的信念建起了群體與群體之間的高墻,群體之間排他性變強促進群體極化,與此同時社會共同價值觀也容易被解構(gòu)。
互聯(lián)網(wǎng)時代的網(wǎng)絡(luò)媒體平臺準(zhǔn)入門檻低,算法把關(guān)不嚴(yán)格,導(dǎo)致新聞傳播內(nèi)容質(zhì)量參差不齊,虛假新聞亂象不斷,新聞的真實性淡化。一方面,算法生產(chǎn)的社會性、算法技術(shù)的局限性以及算法的商業(yè)性使算法攜帶偏見和歧視,導(dǎo)致新聞的主觀性得到強化,不斷構(gòu)建起用戶的新聞虛擬世界,新聞的客觀性與真實性漸漸模糊;另一方面,后真相時代的公眾樂于在網(wǎng)絡(luò)輿情中“吃瓜”,不加思考地與事件當(dāng)事人共情,對與自己情緒相同的新聞觀點進行非理性地跟帖與轉(zhuǎn)發(fā),在“主觀”情緒中迷失自己,不斷輸出情緒而不是俯瞰事件并追逐真相?;ヂ?lián)網(wǎng)發(fā)展實現(xiàn)了話語權(quán)下放,人人擁有“言論自由”,但是這也使社會輿情風(fēng)險在隨之增加,負面言論鋪天蓋地,不利于社會健康發(fā)展。
客觀記錄事實、承擔(dān)社會責(zé)任、正確引導(dǎo)輿論以及守望公平正義,是媒體確保新聞質(zhì)量的重要體現(xiàn)。但是在新聞后真相時代,新聞質(zhì)量得不到保證,輿論反轉(zhuǎn)的事件屢次發(fā)生,公眾漸漸地失去了對媒體的信任,無法認真嚴(yán)肅對待新聞事件,對新聞的“娛樂性”需求大于對真相的渴望,新聞生產(chǎn)者和新聞接收者之間的信任紐帶正在被切割。在用戶興趣導(dǎo)向的驅(qū)動下,新聞生產(chǎn)的核心理念由具有普惠價值的“公共利益至上”轉(zhuǎn)變?yōu)楣摹笆鼙娤矚g什么”。在算法個性化分發(fā)新聞的過程中,新聞本身的公正可能已經(jīng)被遮蔽,當(dāng)大量不公正的、低質(zhì)量的和娛樂性的新聞充斥屏幕時,公眾也會漸漸對新聞媒體失去信心。
由于算法偏見帶來的影響,公眾很難再如同傳統(tǒng)媒體時代對特定媒體品牌形成穩(wěn)定黏性。他們往往在不同平臺和渠道中不停切換,如同“游獵”一般以滿足自己的新聞需要。同時,在沒有相關(guān)訓(xùn)練和道德建立的情況下,大量“吸睛”“獵奇”的信息被批量產(chǎn)出,滿足“新聞游獵者”的需要。在此情況下,需要大量調(diào)查成本和理性表達的傳統(tǒng)媒體的生存空間遭到極大擠壓,傳統(tǒng)主流媒體的用戶流失嚴(yán)重、廣告份額下跌、傳播影響力日漸滑坡,使得基于事實的傳統(tǒng)客觀表達的新聞影響力不斷降低。
“崇尚自我體驗、自我表達的后現(xiàn)代倫理狀況極易導(dǎo)致個體信任表現(xiàn)形式的變異,也對信任走向異化發(fā)揮了最大限度的文化負面效應(yīng)?!盵11]社交網(wǎng)絡(luò)的道德信任呈現(xiàn)出碎片化、自由化、反體制的傾向。公眾逐漸對官方機構(gòu)的權(quán)威性、媒體的公信力產(chǎn)生懷疑,真相、事實乃至理性被情緒化言論所影響,最終導(dǎo)致“情感信任異化”這一社會逆反心理普遍存在。
新聞“事實”和“反轉(zhuǎn)”接連不斷,公眾在批判性思維不足的情況下,往往缺乏對新聞事件的理性分析力,進而傾向于認可自己的主觀情感或者感受,不以達成社會共識為目的。“隨著平民意識的覺醒,以及精英與大眾之間裂痕的加大,平民大眾不再將自身的權(quán)利訴求假手于精英與政客,并開始走向政治前臺?!盵12]互聯(lián)網(wǎng)對公眾意見表達的充分賦權(quán)使得網(wǎng)絡(luò)空間充斥著不同的意見、觀點和情感,促進了各種社會思潮相互激蕩和各種輿論相互交錯,而新聞后真相時代的倫理失范又加劇了這種狀況,不斷侵蝕和危及社會共識的凝聚。
網(wǎng)絡(luò)媒體中充斥著海量碎片化的新聞信息,甚至是虛假片面的新聞信息,公眾急需提升媒介素養(yǎng),不斷增強新聞辨識力。在后真相時代,可以通過多種方式描述一個人、一起事件、一件事物或者一項政策,這些描述可能具有同等的真實性[13]。后真相時代有較多對熱點進行點評的新聞,面對這些帶有偏向性的“真實”點評,公眾需要保持批判性思維、理性思考以及對真相的尊重。
新聞后真相現(xiàn)象中的算法偏見為公眾營造了舒適的“新聞繭房”,但是“兼聽則明,偏信則暗”,公眾需要主動“破繭重生”,對信息進行主動篩選與辨別,跳出主觀桎梏去接納更多不同立場的觀點,積極使用理性思維去看待新聞信息,提升主動質(zhì)疑意識,謹防偏向情緒化而失去對新聞?wù)嫦嗟淖非蟆?/p>
被算法技術(shù)賦權(quán)的網(wǎng)絡(luò)媒體帶來了批量“快餐新聞”,嚴(yán)重弱化了公眾對媒體的信任,公眾常常以“戲謔”的話語來回應(yīng)新聞并消解對真相的追求。新聞媒體肩負著求真的道義責(zé)任、提供背景的知識責(zé)任、提供輿論陣地的組織和政治責(zé)任三大責(zé)任。因此,新聞媒體急需在“真相淡化”的后真相時代肩負起社會責(zé)任,明確新聞媒體職責(zé),對新聞事件進行核實,回歸客觀與真實的報道,進行“輿論糾偏”,引導(dǎo)公眾樹立正確的價值觀。新聞媒體也不能過度依賴算法把關(guān),而需要強化自身把關(guān)職能,堅守新聞的“客觀性”與“真實性”,篩選并剔除失實內(nèi)容,引導(dǎo)公眾走向理性與真實。
算法偏見深化新聞后真相要求社會將視線聚焦到算法,新聞生產(chǎn)者迫切需要促進算法技術(shù)革新,進而規(guī)避和淡化算法偏見,促進人工智能新聞傳播健康發(fā)展。一方面,在算法技術(shù)倫理領(lǐng)域,生產(chǎn)者需要厘清技術(shù)與道德的關(guān)系,進行自我道德約束,利用高尚的道德引導(dǎo)算法技術(shù)革新與發(fā)展,并且將優(yōu)良的道德觀念貫穿于算法迭代的全過程,使算法的運用和價值設(shè)定符合社會主流價值觀,保持新聞的客觀真實原則,生產(chǎn)高質(zhì)量新聞;另一方面,在算法技術(shù)控制層面,要提升算法數(shù)據(jù)和算法運算的透明度,做到數(shù)據(jù)來源可查、數(shù)據(jù)內(nèi)容可查、數(shù)據(jù)處理可查、數(shù)據(jù)可自主更改等。數(shù)據(jù)透明有利于用戶進行理性的自我審視,并在算法偏見的影響下仍然能夠保持獨立思考的能力。而算法運算透明由于技術(shù)的保密性、復(fù)雜性和專業(yè)性,向公眾遮蔽了算法偏見,急需公權(quán)力進行制約,以此淡化算法偏見的影響。
在新聞后真相時代,網(wǎng)絡(luò)新聞傳播的原理和核心是算法。算法的技術(shù)性較強,算法偏見也較隱蔽,由此產(chǎn)生的積弊難以靠平臺的自律而改變;加之算法權(quán)力帶來的風(fēng)險是一種典型的現(xiàn)代性風(fēng)險,也是日趨智能化的社會面臨的整體性風(fēng)險,政府作為社會秩序的維持者應(yīng)該完善監(jiān)管體系,規(guī)制算法權(quán)力[14]。一方面,政府需要對算法偏見主體進行監(jiān)管,明晰算法偏見的責(zé)任主體,比如算法模型的設(shè)計者和使用者,并對各個階段的責(zé)任主體進行監(jiān)管、約談和問責(zé);另一方面,政府需要成立專門部門,對算法模型本身和算法數(shù)據(jù)進行審查,并制訂專門的法律法規(guī),對算法權(quán)力進行監(jiān)督和規(guī)范,促進算法的公開和透明。