【內(nèi)容提要】數(shù)字技術(shù)的應(yīng)用深刻地改變了新聞傳播的現(xiàn)有格局,算法參與到新聞生產(chǎn)與分發(fā)的全過程中,使新聞內(nèi)容生產(chǎn)變得更快、更多、更客觀,內(nèi)容分發(fā)也變得更精準(zhǔn)。但在算法加持下的更快、更多、更客觀和更精準(zhǔn)并未在職業(yè)倫理維度上實(shí)現(xiàn)算法向善,反而給新聞業(yè)帶來更多的倫理焦慮和現(xiàn)實(shí)困境,算法追求“成本-效率”的商業(yè)邏輯與新聞追求公共利益最大化的倫理邏輯之間存在著巨大的張力,必須在算法向善的維度上對(duì)技術(shù)進(jìn)行必要的引導(dǎo)與規(guī)制。
【關(guān)鍵詞】人工智能" 數(shù)字向善" 算法新聞
號(hào)稱“史上最強(qiáng)AI”的ChatGPT,本質(zhì)上是人工智能技術(shù)驅(qū)動(dòng)的自然語言處理工具,其運(yùn)行邏輯是依賴算法對(duì)海量數(shù)據(jù)的自動(dòng)挖掘、處理與預(yù)測(cè)。作為一套準(zhǔn)確而完整的解題思路,算法被應(yīng)用于人工智能設(shè)計(jì)開發(fā)、后臺(tái)運(yùn)行、場(chǎng)景應(yīng)用等全過程,通過一系列清晰的解決問題指令,將符合一定規(guī)范的輸入數(shù)據(jù)在有限時(shí)間內(nèi)生產(chǎn)出符合要求的輸出信息。在討論人工智能應(yīng)用于新聞業(yè)的相關(guān)問題時(shí),使用“算法新聞”比“人工智能新聞”、“機(jī)器人新聞”或“自動(dòng)化新聞”等概念更準(zhǔn)確,以算法為基本線索,突出了算法的核心地位,[1]更能揭示出人工智能時(shí)代新聞生產(chǎn)與分發(fā)的本質(zhì)特征與基本規(guī)律。
2023年1月,美國(guó)科技新聞網(wǎng)站cnet悄悄上線了70多篇署名為記者實(shí)則由人工智能自動(dòng)生成的新聞報(bào)道,這些報(bào)道中存在許多明顯的錯(cuò)誤,引起了新聞業(yè)對(duì)人工智能技術(shù)的深刻憂思。隨著算法不斷深入新聞?lì)I(lǐng)域,倫理挑戰(zhàn)將持續(xù)出現(xiàn)。目前,算法新聞面臨算法權(quán)力、客觀性透明性危機(jī)、數(shù)據(jù)濫用、意識(shí)形態(tài)、隱私、版權(quán)、虛假新聞、個(gè)性化推薦等倫理挑戰(zhàn),但缺乏整體認(rèn)識(shí)論框架。早有外國(guó)學(xué)者提出運(yùn)用道義論、功利主義、契約主義、美德倫理學(xué)或多層責(zé)任體系等宏大的道德理論去探討諸如上述問題,但是技術(shù)動(dòng)態(tài)發(fā)展的復(fù)雜性使得僅僅關(guān)注新聞工作慣例和日常實(shí)踐活動(dòng)的道德理論通常在負(fù)面事件出現(xiàn)以后才發(fā)揮作用,很難成為一套前瞻性的評(píng)判標(biāo)準(zhǔn)。因此,本文主張采用更為廣泛的方法——以向“善”這一直接觸及倫理學(xué)最初始和最基本概念的尺度,從微觀層面對(duì)算法新聞可能引發(fā)的現(xiàn)實(shí)問題進(jìn)行分析,以其蘊(yùn)含的道德意蘊(yùn)和價(jià)值導(dǎo)向彌合技術(shù)話語體系與道德話語體系之間的裂縫,為進(jìn)一步研究算法新聞倫理和規(guī)制提供邏輯起點(diǎn)。
“善”是對(duì)合乎規(guī)范和道德觀念的行為實(shí)踐的積極評(píng)價(jià),是人與技術(shù)相處關(guān)系中得到滿足的正向價(jià)值。算法之善是以速度、規(guī)模、客觀、精準(zhǔn)為目標(biāo)的資本逐利策略,不可否認(rèn)其為社會(huì)效率提升帶來了巨大驅(qū)動(dòng)力;新聞之善是“公共善”——以公共利益為神圣使命,需要個(gè)體利益的最小犧牲而換取新聞之善的最大擴(kuò)張。因此,以向“善”為尺度的評(píng)判,歸根到底是人類對(duì)于實(shí)現(xiàn)美好生活的想象,對(duì)算法新聞自身“趨惡”態(tài)勢(shì)導(dǎo)致人類對(duì)其失去控制,最終陷入蘭登·溫納所預(yù)言的“新奴役狀態(tài)”[2]的擔(dān)憂。我國(guó)首部“算法”規(guī)范性文件《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》(以下稱《意見》)指出,算法的不合理應(yīng)用影響了正常的傳播秩序,應(yīng)當(dāng)引導(dǎo)算法應(yīng)用向上向善?!跋蛏啤崩砟钭鳛閿?shù)字法理的基礎(chǔ)概念和數(shù)字法治的第一價(jià)值觀[3],是本文對(duì)算法新聞向“善”邏輯展開批判的出發(fā)點(diǎn)和立足點(diǎn),是數(shù)字文明時(shí)代人工智能風(fēng)險(xiǎn)預(yù)防和實(shí)踐指導(dǎo)的基本原則。
在人工智能與新聞傳播深度交融的環(huán)境中,算法嵌入了新聞生產(chǎn)與分發(fā)的全鏈條。在內(nèi)容生產(chǎn)環(huán)節(jié),算法將傳統(tǒng)新聞業(yè)追求的速度、數(shù)量、客觀推向極致,但這符合新聞業(yè)的倫理要求嗎?在分發(fā)環(huán)節(jié),精準(zhǔn)推送改變了受眾與新聞的固有關(guān)系,但更精準(zhǔn)是人類所求的良善目標(biāo)嗎?從更快、更多、更客觀、更精準(zhǔn)這四個(gè)維度探尋算法的向善邏輯,剖析算法技術(shù)與新聞業(yè)深度交融所帶來的倫理焦慮和現(xiàn)實(shí)困境,對(duì)算法技術(shù)保持一定的審慎與清醒,也許并非壞事。
一、更快=善?
算法最強(qiáng)大的向善的邏輯便是速度,“快”是其作為一套解題思路所必須追求的目標(biāo)。同樣,速度也是新聞的關(guān)鍵目標(biāo)。強(qiáng)烈的時(shí)效性是新聞的特性之一,新聞工作就是在時(shí)間的機(jī)床上奔忙[4],追求時(shí)效性歷來都是新聞業(yè)“硬實(shí)力”的體現(xiàn)。在前AI時(shí)代,新聞時(shí)效性的保障主要依賴人力,而當(dāng)算法深刻介入新聞生產(chǎn)的各環(huán)節(jié)后,依靠計(jì)算機(jī)高速的運(yùn)行以及算法流程化的操作,新聞生產(chǎn)的速度實(shí)現(xiàn)了質(zhì)的飛躍:在選題階段,算法敏銳地捕捉公眾興趣、閱讀習(xí)慣、時(shí)事熱點(diǎn)等信息,通過把關(guān)和決策將熱點(diǎn)事件轉(zhuǎn)化為新聞事件,如美國(guó)知名互聯(lián)網(wǎng)新聞博客Mashable開發(fā)的Velocity工具,就可以在極短時(shí)間內(nèi)判斷出新聞的傳播趨勢(shì)和可能存在的爆點(diǎn),相較于利用選題討論會(huì)等形式“苦思冥想”的傳統(tǒng)媒體人來說,算法選題的速度顯著提升;在數(shù)據(jù)收集階段,傳感器作為算法新聞的數(shù)據(jù)采集裝置,可實(shí)時(shí)捕獲海量信息,遠(yuǎn)比記者趕赴現(xiàn)場(chǎng)進(jìn)行調(diào)查、采訪要快得多;在稿件撰寫階段,算法的表現(xiàn)更為出眾,以ChatGPT為代表的自然語言處理工具進(jìn)行內(nèi)容生成的速度皆按秒計(jì)算,早在1998年,法國(guó)歐洲工商管理學(xué)院教授菲利普·帕克研發(fā)的算法出版軟件就可以在一小時(shí)內(nèi)寫出一本書,后來韓國(guó)首爾大學(xué)研發(fā)的自動(dòng)撰寫新聞的算法僅用0.3秒即可完成一篇股市行情的新聞報(bào)道。
但是算法的“更快、更快、更快”的向善邏輯嵌入新聞之后,導(dǎo)致新聞在過度追求時(shí)效的運(yùn)作中產(chǎn)生了危險(xiǎn)的偏差。
真實(shí)性消亡的危險(xiǎn)。“搶新聞”的現(xiàn)象正面臨消亡,新的競(jìng)爭(zhēng)局面不是搶新聞,而是誰能對(duì)新聞的闡釋更接近科學(xué)、更合理,誰才更能在媒體競(jìng)爭(zhēng)中勝出。這也就意味著,一味圖快就可能遭遇新聞業(yè)最大的敵人——“假”,即由于內(nèi)容失真而導(dǎo)致的假新聞泛濫。美國(guó)《洛杉磯時(shí)報(bào)》記者肯·施文克研發(fā)的報(bào)道地震新聞的智能機(jī)器人Quakebot,3分鐘內(nèi)就能自動(dòng)完成并發(fā)布新聞,但快掩蓋了真,報(bào)道將地震遇難者身份弄錯(cuò),導(dǎo)致NBA球員在地震中遇難的假新聞廣泛傳播。究其原因,算法的核心理念是“成本-效率”,為了減少成本、提高效率而設(shè)計(jì)出的規(guī)則必然優(yōu)先考慮提高速度,而并不會(huì)將真實(shí)性放在優(yōu)先考慮的地位。
把關(guān)人失守的危險(xiǎn)。把新聞選擇的主導(dǎo)權(quán)讓渡給算法,算法由此便成了“把關(guān)人”[5]。記者總是用一套帶有犬儒主義色彩的集體話語“尋找一種既能在某一系統(tǒng)中生存,又不會(huì)讓自己的自信心受損的生活方式”來安慰自己失去把關(guān)人地位的受挫心情。實(shí)際上從算法將記者的署名從新聞報(bào)道中奪走的那一刻起,新聞的“層層把關(guān)”就淪為了“層層失守”,專業(yè)的榮耀被技術(shù)的“光輝”所掩蓋。與榮耀一同失守的還有新聞責(zé)任,傳播真相、提供導(dǎo)向、監(jiān)督社會(huì)、重塑文化如此重要的責(zé)任正在丟失,傳統(tǒng)新聞的責(zé)任承擔(dān)者是其記者和編輯,但是現(xiàn)在這份沉重的責(zé)任落到了誰的身上?沒受過專業(yè)新聞?dòng)?xùn)練的程序員們,無法深刻認(rèn)識(shí)新聞業(yè)所肩負(fù)的使命,他們編寫的算法如何能肩負(fù)起新聞第一責(zé)任人的神圣職責(zé)?新聞的署名權(quán)并不單單具有著作權(quán)法層面上的權(quán)利歸屬意義,更是把關(guān)人地位的宣誓和公眾信賴的基礎(chǔ)。
人文價(jià)值失格的危險(xiǎn)。正如馬克思對(duì)機(jī)器化大生產(chǎn)的猛烈批判,“減輕勞動(dòng)是一種折磨人的手段,因?yàn)闄C(jī)器不是使工人擺脫勞動(dòng),而是使工人的勞動(dòng)毫無內(nèi)容”,技術(shù)的進(jìn)步使得勞動(dòng)變成了流水線工程,工人們只不過是流水線上一個(gè)無生命的零件,無需感情和智慧的投入,只需要千萬次的機(jī)械重復(fù),人的尊嚴(yán)和價(jià)值受到巨大沖擊,這是一種前所未有的“惡”。新聞不是刻板的、抽象化的語言組成的機(jī)械表達(dá),它“是人的活動(dòng),是與生俱來的活動(dòng),是人與人之間的信息分享活動(dòng)、精神交流活動(dòng)、文化交往活動(dòng)”[6],是一種純粹而天真的原始交流,是對(duì)話者之間言語和行動(dòng)的交流,所以在新聞活動(dòng)中人的主體性得到了充分發(fā)揮。而算法新聞則是一種抽象的機(jī)械生產(chǎn),無需對(duì)災(zāi)難表示悲痛和關(guān)懷,也無需對(duì)成就表示喜悅和贊嘆,只是在代碼中疾速穿行。從這點(diǎn)就能深刻理解為什么在“技術(shù)為王”的時(shí)代,總有那么多學(xué)者在吶喊“人工智能永遠(yuǎn)不可能取代記者”。如果ChatGPT在撰寫災(zāi)難新聞時(shí),面對(duì)傷亡的慘狀時(shí)能落下炙熱的淚水、發(fā)出悲天憫人的長(zhǎng)吁短嘆,學(xué)者們的堅(jiān)守和吶喊才會(huì)顯得毫無意義。必須承認(rèn)算法永遠(yuǎn)無法向“善”,因?yàn)檫@種“善”是人類獨(dú)有的“溫度”,這種溫度無法和“快”一樣可以被算法轉(zhuǎn)化為數(shù)值。
在這個(gè)不斷追求可量化的世界里,或許最需要被保護(hù)的是人類屬性的不完美、次優(yōu)、不完全有效率的能力,無休止地追求速度和效率,是人類已經(jīng)被算法深刻影響的結(jié)果。邊沁從功利主義角度看,善就是趨樂避苦,若是技術(shù)進(jìn)步能讓人們逃離痛苦而接近快樂,那么就是善的表現(xiàn),如果短暫的快樂中蘊(yùn)含著潛藏的、深遠(yuǎn)的痛苦,必然是對(duì)善的悖離。從這個(gè)意義上說,算法新聞的“快”暗藏風(fēng)險(xiǎn),提高新聞生產(chǎn)效率的同時(shí),導(dǎo)致內(nèi)容失真、把關(guān)人失守、人文價(jià)值失格,無論是對(duì)于受眾,還是對(duì)于新聞從業(yè)者來說,都沒有能夠逃離痛苦、接近快樂。
二、更多=善?
美聯(lián)社的機(jī)器人Wordsmith每周撰寫數(shù)百萬篇新聞報(bào)道,每秒生產(chǎn)2000篇文章;美國(guó)Automatic Insights在2016年制作了15億條新聞……據(jù)初步統(tǒng)計(jì),2018年采用算法新聞軟件的美國(guó)傳統(tǒng)媒體就已超過了50家,由此人類進(jìn)入了一個(gè)新聞業(yè)的高產(chǎn)時(shí)代——算法介入新聞生產(chǎn)環(huán)節(jié)極大地提高了新聞生產(chǎn)效率,創(chuàng)造了一個(gè)“新聞過載”的世界。表面看空前豐富的新聞信息使人類的決策依據(jù)顯著增加,但實(shí)際上人類若想真正享受這一利好,還必須有兩個(gè)重要前提:其一,這些新聞是高質(zhì)量、非同質(zhì)化的,否則這些新聞就是一堆“信息垃圾”;其二,“過載”的新聞提升了閱讀門檻,要求人們必須有更高的信息篩選力和信息辨析力。
一般而言,“新聞過載”并非指大量?jī)?yōu)質(zhì)新聞造成的絕對(duì)過剩,而是指大量同質(zhì)化、低質(zhì)化的冗余信息造成的相對(duì)過剩,導(dǎo)致了新聞傳播大環(huán)境的冗雜和傳播資源的浪費(fèi),造成了“我們會(huì)比以往獲得更多信息,同時(shí)也更容易困惑;我們會(huì)更容易看見真相,同時(shí)真相也更難獲得”[7]的信息困境。在當(dāng)前信息相對(duì)過剩加劇的傳播環(huán)境下,個(gè)體信息選擇雖然日益多元化,但有效信息的接受量卻僅維持在較低的量級(jí)上,很多新聞不是毫無價(jià)值就是無暇顧及,非但沒有為決策提供更多幫助,反而造成了巨大的閱讀負(fù)擔(dān),令受眾產(chǎn)生了“新聞疲勞”。初級(jí)階段的算法新聞創(chuàng)造的海量靜態(tài)描述性新聞,高度依賴結(jié)構(gòu)化數(shù)據(jù)[8],所以那些只能報(bào)道財(cái)經(jīng)、體育、氣候等領(lǐng)域的新聞因缺乏生動(dòng)的敘事和靈動(dòng)的文筆,使得本就陷入“新聞疲勞”的受眾在枯燥和同質(zhì)中更加精疲力竭。人在選擇過剩時(shí)很多行為都是非理性的,過多的選擇可能會(huì)讓人從“選擇者”(Chooser)變?yōu)椤皳焓罢摺保≒icker)。選擇者在決策前會(huì)積極思考各個(gè)選項(xiàng),判斷孰輕孰重,評(píng)估所做決定的短期利益和長(zhǎng)遠(yuǎn)價(jià)值;而撿拾者則并非如此,他們往往懷著“撿到籃里就是菜”的心態(tài),抓住什么就是什么,卻又希望自己抓到的是最佳選擇。新聞呈現(xiàn)碎片式分布,人們獲得有價(jià)值的信息的難度顯著增加,因此人們不得不付出加倍的努力去選擇、甄別,做認(rèn)真挑選的選擇者而非撿拾者,才能拼湊出有價(jià)值的信息。
產(chǎn)生更“多”的新聞是需要傳出成本的,利用算法進(jìn)行大規(guī)模新聞生產(chǎn)也并非輕而易舉,因?yàn)楝F(xiàn)代技術(shù)是大規(guī)模和高資源消耗的系統(tǒng),需要投入大量的資金。正是由于硬件、軟件、技術(shù)、資本等多方面的制約,美國(guó)的算法新聞生產(chǎn)大都集中在美聯(lián)社、《紐約時(shí)報(bào)》、《華盛頓郵報(bào)》等大媒體集團(tuán),較小的媒體根本沒有經(jīng)濟(jì)實(shí)力將算法深度融合到新聞傳播中。由于算法技術(shù)需要高額的資金支持,實(shí)際上也就導(dǎo)致算法新聞背負(fù)了“金元新聞”的嫌疑。資本是算法霸權(quán)的來源之一[9],在資本控制下的算法會(huì)封殺那些對(duì)資本不利的信息,這樣不但會(huì)影響信息的客觀真實(shí)性,更可能因算法新聞過于集中在大的傳媒集團(tuán)手中,最終形成信息寡頭,影響信息的多樣化,對(duì)信息自由市場(chǎng)仍然是一個(gè)致命的打擊,算法生產(chǎn)的新聞越多,則離信息民主化會(huì)越遠(yuǎn)。
在審核和核實(shí)環(huán)節(jié),算法將新聞推入了“黑箱”之中,切斷了算法結(jié)論與事實(shí)之間的聯(lián)系,使得新聞成為“勿需推敲”的成品,在審稿環(huán)節(jié)對(duì)事實(shí)的核查、對(duì)真相邏輯鏈的追尋迷霧重重[10]。加之算法按秒生產(chǎn)的新聞數(shù)量過于龐大,遠(yuǎn)超人力審核的極限,就算是像Facebook每年投入上萬人力進(jìn)行內(nèi)容審核,仍然避免不了各類侵權(quán)問題頻發(fā),所以美聯(lián)社在采用Wordsmith之后就不再對(duì)其撰寫的財(cái)經(jīng)報(bào)道進(jìn)行人工核實(shí)。算法生產(chǎn)的新聞越多,問題和差錯(cuò)也就越多。算法帶來了新聞生產(chǎn)量的紅利,但產(chǎn)量高不等于質(zhì)量高,有質(zhì)量瑕疵的新聞越多,對(duì)人類的價(jià)值就越少。
效率與產(chǎn)量至上的邏輯必然帶來新聞相對(duì)過剩的災(zāi)難性后果。當(dāng)信息自由市場(chǎng)被算法背后的資本邏輯破壞后,它所生產(chǎn)的龐雜的、冰冷的內(nèi)容,令受眾產(chǎn)生厭倦。因?yàn)樾畔⒉辉倌芟说牟淮_定性,不再能給人帶來快樂與希望,而是帶來枯燥、乏味、甚至絕望?;蛟S,人們厭倦的不是新聞本身,而是失去人文關(guān)懷和內(nèi)心寧?kù)o后的消極情緒。
三、更客觀=善?
何謂新聞的客觀性?就本體論看,客觀性指某事物不以人的意志為轉(zhuǎn)移的真實(shí)存在,即“什么是真實(shí)的”,這是新聞客觀性的邏輯起點(diǎn);就認(rèn)識(shí)論看,客觀性關(guān)心的是新聞的主觀認(rèn)識(shí)形式,包含事實(shí)的準(zhǔn)確性和解釋的合理性兩方面,即“如何知道這是真實(shí)的”;就方法論看,客觀性代表著一整套建立在正確核實(shí)的證據(jù)基礎(chǔ)上、不帶偏見的調(diào)查方法,即“如何保證這是真實(shí)的”。簡(jiǎn)言之,在談及新聞客觀性時(shí)必須承認(rèn)一個(gè)基本事實(shí)——人類永遠(yuǎn)無法達(dá)到本體論上的客觀性?!翱陀^性的最初含義引入是新聞工作者無法做到客觀,但是在方法上可以做到客觀,所以關(guān)鍵在于規(guī)范和約束生產(chǎn)方式”。因此,“更客觀=善?”的問題就轉(zhuǎn)化為了算法作為新聞的生產(chǎn)方式,能否有助于方法論上的新聞客觀性原則的實(shí)現(xiàn)。
要回答這個(gè)問題,需先厘清算法新聞表現(xiàn)出的“客觀”是什么。首先,算法新聞的“客觀”是數(shù)據(jù)客觀。數(shù)據(jù)是客觀事實(shí)的數(shù)字化存在,代表某件事物的客觀描述,數(shù)據(jù)具有本體論上的客觀性,依賴于數(shù)據(jù)整合與結(jié)構(gòu)化模板生成的算法新聞因此也具有了客觀性。其次,算法新聞的“客觀”是敘事客觀。算法能夠擺脫人類主觀認(rèn)識(shí)、知識(shí)水平、價(jià)值差異等因素的制約,進(jìn)行不帶偏見、客觀中立的敘事。再次,算法新聞的“客觀”是感知客觀。已有調(diào)查表明,人們普遍認(rèn)為機(jī)器運(yùn)算的結(jié)果比人工更客觀可信。技術(shù)理性塑造了人們對(duì)機(jī)器高度信賴的觀念,人們堅(jiān)信CT掃描比醫(yī)生的望聞問切更精準(zhǔn)、測(cè)謊儀比警察的訊問更有效,“這就是技術(shù)壟斷時(shí)代的魔法”。
然而,從技術(shù)理性的陷阱中跳脫出來,會(huì)發(fā)現(xiàn)二者呈現(xiàn)相互悖離的關(guān)系。首先,數(shù)據(jù)客觀是一種偽客觀。數(shù)據(jù)是世界的量化版本,被量化的過程就是以“效率”為價(jià)值判斷而進(jìn)行的簡(jiǎn)化操作,因此數(shù)據(jù)本身就會(huì)包含偏見。第二,敘事客觀是一種“客觀謬誤”。盡管哲學(xué)家布魯諾·拉圖爾稱密封完好的算法“黑箱”擺脫了虛構(gòu)、表示、象征、近似與管理構(gòu)成的世界,因此絕對(duì)正確,但實(shí)際上算法所謂的中立會(huì)重復(fù)和鞏固世界上已經(jīng)存在的不公正,進(jìn)而也就導(dǎo)致了算法新聞中的算法歧視、算法偏見等問題頻頻發(fā)生。算法本身就是人的意志的體現(xiàn),是算法程序設(shè)計(jì)者解決問題思路的映射,深受程序設(shè)計(jì)者思維模式、認(rèn)知水平甚至價(jià)值體系等因素的影響,形成了一種隱蔽而鮮明的“算法意識(shí)形態(tài)”。第三,感知客觀是一種靜態(tài)、片面、單向度的客觀。從傳者的角度來看,新聞工作追求的是動(dòng)態(tài)的、發(fā)展中的事物變化過程,并不是將自身角色限定于盲目追求事實(shí)再現(xiàn)的工具。從受眾的角度來看,新聞本應(yīng)幫助人們形成對(duì)社會(huì)完整而真實(shí)的認(rèn)知,但是算法新聞卻在構(gòu)建簡(jiǎn)筆畫般的社會(huì)圖景?!八惴ㄖ饕菍?duì)復(fù)雜的新聞寫作過程的簡(jiǎn)化和提煉,是一種‘以簡(jiǎn)御繁’的化約主義,也就存在著‘掛一漏萬’的不足”[11],歸根到底算法新聞秉持的并非是以個(gè)人正義觀為核心的社會(huì)正義觀[12],而是一種以效率為核心的群組正義觀——建立在統(tǒng)計(jì)奇偶性基礎(chǔ)上的正義觀,這與傳統(tǒng)新聞再現(xiàn)新聞事實(shí)、呈現(xiàn)真實(shí)社會(huì)圖景以達(dá)到媒介公正的觀念相悖離。如果人們持續(xù)生活在算法新聞所塑造的簡(jiǎn)化的“擬態(tài)環(huán)境”中,接受算法的操控而丟掉生活復(fù)雜的邏輯,那么可以想象人們終將與現(xiàn)實(shí)真相背道而馳。
另外,新聞客觀性原則在數(shù)字時(shí)代最為重要的體現(xiàn)就是透明性原則,要求“在新聞實(shí)踐中盡可能地透明”,如信息來源的透明性,開放編輯部供公眾監(jiān)督、檢查,新聞生產(chǎn)中的公眾參與,公布采訪記錄和原始稿件等。然而,當(dāng)算法介入后,新聞生產(chǎn)被置入更深的“黑箱”之中。尤其是在無監(jiān)督式的算法模式中,算法通過深度學(xué)習(xí)使新聞生產(chǎn)成為相對(duì)獨(dú)立的、無需人工操作的自動(dòng)化過程,新聞生產(chǎn)完全在密閉的“黑箱”中進(jìn)行,新聞透明性被遮蔽?!叭绻闶紫榷甲霾坏綄?duì)受眾真誠(chéng),又如何能自稱追求和傳遞真相呢”?新聞對(duì)公眾保密的行為,只會(huì)使得公眾對(duì)新聞工作者愈加不信任,新聞工作將遭到更多的質(zhì)疑和批評(píng)。
在數(shù)字科技善惡的論爭(zhēng)上,自然主義一直秉持善就是幫助人類進(jìn)化的觀點(diǎn)。從這個(gè)角度看,算法新聞不僅沒有進(jìn)一步開發(fā)大腦的智慧和增強(qiáng)人們認(rèn)識(shí)世界的能力,反而通過使人類認(rèn)識(shí)一個(gè)簡(jiǎn)單化的世界促使懶惰、消極態(tài)度蔓延開來。算法新聞生產(chǎn)通過標(biāo)準(zhǔn)化、數(shù)據(jù)化處理,將主觀情感、認(rèn)識(shí)水平、個(gè)人素養(yǎng)等方面的非標(biāo)準(zhǔn)化因素全面排除,最終達(dá)致技術(shù)理性的“客觀”,模糊了以呈現(xiàn)社會(huì)完整圖景為使命的新聞客觀性原則。在這一過程中,“神話般的算法”遮蔽了現(xiàn)實(shí)并以強(qiáng)大的提取和煉化能力塑造著人的命運(yùn),簡(jiǎn)化和扭曲人的想象力,人們認(rèn)識(shí)復(fù)雜世界的能力在技術(shù)助推下逐步退化了。尼爾·波茲曼對(duì)此早有警示,“魔法的厲害之處,在于將人們的注意力指向錯(cuò)誤的地方,并通過這種做法,在我們心中喚起了一陣陣的好奇心,而不是理解力。在技術(shù)壟斷時(shí)代,我們被機(jī)器各種奇跡般的效果所折服,從而傾向于忽視其背后所蘊(yùn)含的思想”[13]。
四、更精準(zhǔn)=善?
早在20世紀(jì)90年代,尼葛洛龐帝有過一種“我的日?qǐng)?bào)”(Daily Me)[14]的想象:您的報(bào)紙可以跟蹤您跳過和重讀的內(nèi)容、您暫停的位置,它只會(huì)呈現(xiàn)您最關(guān)心的新聞,并通過洞察您的觀看不斷作出適應(yīng)性的調(diào)整。今天,想象已成為現(xiàn)實(shí),尤其是算法實(shí)現(xiàn)了新聞生產(chǎn)、新聞分發(fā)的同步,以及一對(duì)一精準(zhǔn)化、個(gè)性化的推送,將“我的日?qǐng)?bào)”推到了極致!“今日頭條”是國(guó)內(nèi)最早實(shí)現(xiàn)個(gè)性化推送的新聞平臺(tái),其上線時(shí)的口號(hào)是“你關(guān)心的便是頭條”,將“精準(zhǔn)”作為最大的賣點(diǎn)。但卻因?yàn)檫^于“精準(zhǔn)”而引發(fā)一系列問題,在2018年飽受爭(zhēng)議的情況下更改其核心口號(hào)為“信息創(chuàng)造價(jià)值”,從對(duì)精準(zhǔn)的盲目追求轉(zhuǎn)向了注重新聞質(zhì)量和傳播價(jià)值。所以,對(duì)于精準(zhǔn)分發(fā)程度的不懈追求,真的會(huì)給人類帶來更大的福祉嗎?
《紐約時(shí)報(bào)》主筆尼古拉斯·克里斯托夫在十多年前提出的擔(dān)憂仍振聾發(fā)聵:自我選擇的“個(gè)性化”新聞具有麻醉作用,使人們陷入一種自信的昏迷狀態(tài)[15]。如今人們沉浸在算法推薦服務(wù)帶來的便利之中,卻很少為已然身處“一個(gè)人的社區(qū)”而感到憂慮,并且對(duì)此充滿了信心:對(duì)于新聞從業(yè)者而言,算法推薦服務(wù)大大提高了內(nèi)容分發(fā)效率,更加有效地保障了公眾的知情需要,滿足了信息時(shí)代“千人千面”“各有所好”的需求;對(duì)于受眾而言,本因傳播資源有限而委托出去的新聞傳播權(quán)利又重新回到了自己手中,從“人找信息”的劣勢(shì)地位轉(zhuǎn)為“信息找人”的優(yōu)勢(shì)地位,主體性地位凸顯。
但這種信心正發(fā)揮著“麻醉劑”的作用,使人陷入昏迷:在一個(gè)媒體和代碼無處不在的社會(huì),權(quán)力越來越存在于算法之中[16],新聞從業(yè)者似乎并未意識(shí)到,或者是用那套犬儒主義的話術(shù)來遮掩事實(shí),介入分發(fā)環(huán)節(jié)的算法正在“篡位奪權(quán)”——算法推薦服務(wù)將本該掌握在傳統(tǒng)媒體手中的分發(fā)權(quán)奪走了,其用流量、點(diǎn)贊、閱讀量等算法邏輯取代了新聞媒體對(duì)新聞價(jià)值的把控,由此導(dǎo)致娛樂獵奇新聞大行其道,經(jīng)濟(jì)效益成為衡量新聞價(jià)值的標(biāo)準(zhǔn)。丟掉了專業(yè)判斷的權(quán)力,被充滿誘惑的算法所吸引,新聞“社會(huì)公器”的使命逐漸衰弱,開始麻木地迎合算法輻射出的市場(chǎng)邏輯和流量理念,以用戶的關(guān)注為標(biāo)準(zhǔn),創(chuàng)造了越來越多隱私窺探、低俗趣味、無營(yíng)養(yǎng)的感官刺激類新聞。澳大利亞是第一個(gè)在全國(guó)范圍內(nèi)停止向平臺(tái)免費(fèi)分發(fā)新聞內(nèi)容的國(guó)家,新聞出版商聯(lián)合起來跟Google、Facebook談判商業(yè)模式,正在試圖將新聞生產(chǎn)和分發(fā)的權(quán)力從算法手中奪回來。
而受眾的“昏迷狀態(tài)”很早就被察覺到了,“信息繭房”“回聲室效應(yīng)”“過濾氣泡”等概念的提出都旨在描述受眾因算法推薦服務(wù)而日益被剝奪信息選擇權(quán)的現(xiàn)實(shí)困境。桑斯坦提出的“信息繭房”雖然并非完全由算法而產(chǎn)生,早在互聯(lián)網(wǎng)出現(xiàn)前就已初顯端倪,“媒體會(huì)根據(jù)自身的政治或市場(chǎng)定位及角色擔(dān)當(dāng)而以某種價(jià)值框架來選擇性地呈現(xiàn)和反映這個(gè)世界”[17],但是算法推薦卻在經(jīng)濟(jì)利益的驅(qū)動(dòng)下,塑造一種“成癮性繭房”,不斷發(fā)送類似信息以刺激用戶的神經(jīng)[18],誘導(dǎo)用戶增加停留時(shí)長(zhǎng),從而在規(guī)制用戶中獲得經(jīng)濟(jì)利益。Facebook自2016年深陷“趨勢(shì)話題”事件之后,一直在致力于完善自己的算法推薦服務(wù),推出了News Feed新聞價(jià)值觀,包括社交優(yōu)先、“有用的信息”是關(guān)鍵、不要忘記娛樂、推崇多元觀點(diǎn)、真實(shí)性很重要等[19],這些原則被量化后內(nèi)嵌于算法之中,不僅塑造著新的新聞分發(fā)生態(tài),也潛移默化地影響著人們的認(rèn)知框架和價(jià)值選擇,這種生命化、日常化、個(gè)性化的服務(wù)作為一種軟控制往往更嚴(yán)重、更隱蔽。這“將用戶束縛在由興趣和先入之見所引導(dǎo)的狹隘的信息領(lǐng)域”,導(dǎo)致了新聞維度的“數(shù)字鴻溝”和“階層分化”風(fēng)險(xiǎn)。馬克思主義認(rèn)為技術(shù)進(jìn)步是促進(jìn)人全面發(fā)展的重要杠桿,評(píng)價(jià)數(shù)字技術(shù)的善惡也必須從是否實(shí)現(xiàn)了人的自由與發(fā)展角度出發(fā)。算法推薦服務(wù)將飽受信息爆炸之困擾的受眾解放出來,使其在個(gè)性化推薦中擁有了更高的主體性。然而,算法在將人們從一種辛苦勞作中解放出來的同時(shí),卻以極致的方式將人推向了另一種被算法“奴役”的束縛中,無底線精準(zhǔn)的背后是對(duì)用戶主體性和自主權(quán)的掠奪。
需要強(qiáng)調(diào)的是,新聞價(jià)值具有一套既定的標(biāo)準(zhǔn),比如關(guān)涉公共利益、真實(shí)客觀,這也正是新聞所存在的意義本身,而并非是由每一位讀者的興趣和偏好所決定。因而,真正有益的算法新聞推薦服務(wù)應(yīng)當(dāng)有選擇地嵌入量化的新聞價(jià)值指標(biāo),比如挪威的《晚郵報(bào)》推出Schibsted算法,內(nèi)嵌專業(yè)的新聞價(jià)值標(biāo)準(zhǔn)而自動(dòng)計(jì)算“重要新聞”版塊,并不是簡(jiǎn)單由用戶閱讀量和興趣偏好驅(qū)動(dòng);再比如美國(guó)國(guó)家公共廣播電臺(tái)NFPOne程序的算法,它非??酥频貎H僅對(duì)一小部分類型新聞進(jìn)行個(gè)性化推薦,絕不會(huì)縱容個(gè)性化觸碰到與公民知情權(quán)實(shí)現(xiàn)有關(guān)的重要新聞。因而,如果算法對(duì)“精準(zhǔn)”的詮釋是無底線地迎合人們的個(gè)性化需求,那新聞本身為“善”的意義將被泛娛樂化所取代;如果算法的“精準(zhǔn)”是對(duì)新聞價(jià)值的展現(xiàn),確保人們收到關(guān)于這個(gè)世界的重要信息,這才是算法嵌入新聞業(yè)所應(yīng)當(dāng)承載的使命。
五、加強(qiáng)數(shù)字向善的制度設(shè)計(jì)
針對(duì)算法推薦服務(wù)暴露出的問題,我國(guó)近年制定了一系列政策。《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確了算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供不針對(duì)其個(gè)人特征的選項(xiàng),或者提供便捷的關(guān)閉算法推薦的選項(xiàng)。此外,還規(guī)定了具有輿論屬性或者社會(huì)動(dòng)員能力的算法推薦服務(wù)的備案制度?!峨娮由虅?wù)法》對(duì)算法推薦服務(wù)做了初步規(guī)定,第十八條規(guī)定了算法自動(dòng)化決策的自然結(jié)果展示義務(wù)?!秱€(gè)人信息保護(hù)法》則通過賦予信息主體算法解釋權(quán)和拒絕權(quán)的方式進(jìn)一步緩解用戶無力對(duì)抗算法“黑箱”的局面。算法新聞日常理想狀態(tài)的公開是“新聞生產(chǎn)者主動(dòng)將算法運(yùn)行機(jī)制與設(shè)計(jì)意圖公之于眾,接受社會(huì)監(jiān)督”,在這一點(diǎn)上“學(xué)習(xí)強(qiáng)國(guó)”上線算法新聞推薦服務(wù)并通過修改隱私權(quán)政策進(jìn)行算法披露是一種較為合理可行的做法。
我國(guó)目前尚未形成新聞業(yè)算法披露制度,也缺失算法新聞推薦服務(wù)提供者的責(zé)任認(rèn)定規(guī)則,對(duì)于算法介入新聞業(yè)的相關(guān)問題尚未形成行之有效的監(jiān)督機(jī)制。人工智能的發(fā)展正在不斷逼近強(qiáng)人工智能的“奇點(diǎn)”——其努力方向是超越它們自己設(shè)計(jì)的邊界,算法權(quán)力正在成為社會(huì)權(quán)力結(jié)構(gòu)的重要一級(jí),技術(shù)與資本也有著天然的合謀關(guān)系,這些因素使得傳統(tǒng)法律以結(jié)果責(zé)任認(rèn)定為核心的政府事后監(jiān)管模式和以個(gè)人為中心的權(quán)利救濟(jì)模式逐漸失靈。在此情況下,有學(xué)者提出政府(法律)應(yīng)適度抽離,引入“私人自主”來調(diào)和算法規(guī)制的難題的方案[20],在總體上以“數(shù)字向善”為基本引領(lǐng),形成“總體計(jì)劃、分步監(jiān)管”的中國(guó)特色算法規(guī)制路徑?!缎乱淮斯ぶ悄苤卫碓瓌t》中將“和諧友好”放在人工智能發(fā)展原則的首位,“人工智能發(fā)展應(yīng)以增進(jìn)人類共同福祉為目標(biāo);應(yīng)符合人類的價(jià)值觀和倫理道德,促進(jìn)人機(jī)和諧,服務(wù)人類文明進(jìn)步?!蛾P(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》指出,要“提高正能量傳播的精準(zhǔn)性和有效性,規(guī)范信息分發(fā)行為和秩序,推動(dòng)企業(yè)借助算法加強(qiáng)正能量傳播,引導(dǎo)算法應(yīng)用向上向善”?!蛾P(guān)于加強(qiáng)科技倫理治理的意見》指出“建立完善符合我國(guó)國(guó)情、與國(guó)際接軌的科技倫理制度,塑造科技向善的文化理念和保障機(jī)制”。2023年網(wǎng)信辦等七部門聯(lián)合公布的《生成式人工智能服務(wù)管理暫行辦法》,相比于征求意見稿的版本,新增了第二條“國(guó)家對(duì)利用生成式人工智能服務(wù)從事新聞出版、影視制作、文藝創(chuàng)作等活動(dòng)另有規(guī)定的,從其規(guī)定”以及第五條“鼓勵(lì)生成式人工智能技術(shù)在各行業(yè)、各領(lǐng)域的創(chuàng)新應(yīng)用,生成積極健康、向上向善的優(yōu)質(zhì)內(nèi)容,探索優(yōu)化應(yīng)用場(chǎng)景,構(gòu)建應(yīng)用生態(tài)體系”的規(guī)定,并且要求新聞出版部門充分結(jié)合生成式人工智能技術(shù)特點(diǎn)及其應(yīng)用,依據(jù)職責(zé)依法加強(qiáng)對(duì)生成式人工智能服務(wù)的管理。
在算法新聞中引入“數(shù)字向善”理念,本質(zhì)是在制約個(gè)體善——算法之善而實(shí)現(xiàn)公共善——新聞之善的過程,充分發(fā)揮“向善”概念的倫理要求和價(jià)值導(dǎo)向作用,避免算法新聞因嵌入算法的逐利邏輯而使得新聞異化成為資本狂歡的場(chǎng)域。“向善”是一種“道德想象力”,可以超越僵化的法律條款和傳統(tǒng)新聞倫理,擁有更廣闊的倫理視角和道德力量,因此在算法的法律規(guī)制相對(duì)模糊,過度執(zhí)著于主體責(zé)任或者個(gè)體賦權(quán)都容易打擊科技創(chuàng)新的活力的情況下,充分發(fā)揮“數(shù)字向善”理念的引領(lǐng)作用能夠起到前置性的規(guī)制作用,識(shí)別、預(yù)防、消除算法對(duì)新聞基本價(jià)值觀的悖離,再輔以配套的激勵(lì)機(jī)制,不僅能在一定程度上緩解算法專業(yè)性對(duì)政府傳統(tǒng)管控手段合法性沖擊的危機(jī),也有助于煥發(fā)算法自身運(yùn)行邏輯中治理機(jī)制的生成。
六、結(jié)語
從以上對(duì)算法新聞向善邏輯的四維度批判中可以看到,算法技術(shù)的內(nèi)生性邏輯與新聞倫理邏輯相沖突。算法的運(yùn)行依靠大量商業(yè)資本的支持,因此其必然遵循商業(yè)邏輯,維護(hù)資本的利益,以“成本-效率”框架消解新聞的價(jià)值體系。而新聞作為“社會(huì)公器”,旨在維護(hù)社會(huì)公共利益,傳播主流價(jià)值,與算法技術(shù)的內(nèi)生性邏輯相沖突,因此導(dǎo)致了二者在向善邏輯上的內(nèi)在張力:算法尊崇高速、高產(chǎn)、個(gè)性化的價(jià)值,而新聞作為“社會(huì)公器”,以探求事實(shí)真相、塑造共同價(jià)值、促進(jìn)社會(huì)向善為目標(biāo)。因此,新聞的“善”必然是新聞職業(yè)倫理基礎(chǔ)上更高層次的善,如果算法的介入折損了業(yè)已存在并發(fā)展至今的價(jià)值基礎(chǔ)和核心目標(biāo),那便是從根本上違背了新聞向善的使命。因此,在算法新聞中,“善”是一種底線倫理,不是人類外在的愿望與訴求,而必須是算法的內(nèi)在要求與動(dòng)力源泉。算法作為新聞業(yè)的工具,不僅要提供信息,更要承擔(dān)起發(fā)揚(yáng)黨的新聞?shì)浾摴ぷ鲀?yōu)良傳統(tǒng)、傳播社會(huì)主義核心價(jià)值觀、維護(hù)社會(huì)公共利益、增進(jìn)人類福祉的責(zé)任。我們呼吁并且期待法律對(duì)于算法的特性作出積極回應(yīng),對(duì)算法介入新聞業(yè)所產(chǎn)生的問題進(jìn)行約束,并制定出一套應(yīng)對(duì)未來的方案。但同時(shí),我們也呼吁“技術(shù)的問題交給技術(shù)”,為智能算法的發(fā)展留足自由的空間,因?yàn)榧夹g(shù)在自身發(fā)展過程中也會(huì)構(gòu)建起內(nèi)生的“法律”體系,起到約束和規(guī)制的作用。
新聞業(yè)的歷史本就是一段不斷適應(yīng)新技術(shù)的歷史,如電報(bào)、攝像機(jī)、互聯(lián)網(wǎng)等技術(shù)的出現(xiàn)塑造著新聞業(yè)新的角色、任務(wù)和工作流程,但是從未撼動(dòng)的是新聞向“善”的內(nèi)在本質(zhì)。當(dāng)前,強(qiáng)勢(shì)的“算法轉(zhuǎn)向”[21]邏輯勢(shì)不可擋地侵入人文學(xué)科領(lǐng)域,“逼迫”新聞從業(yè)者必須“像程序員一樣思考問題”,給新聞業(yè)帶來巨大認(rèn)同危機(jī)的同時(shí),也帶來了全新的發(fā)展機(jī)遇——習(xí)近平總書記指出“要探索將人工智能運(yùn)用在新聞采集、生產(chǎn)、分發(fā)、接收、反饋中,全面提高輿論引導(dǎo)能力”[22],創(chuàng)造數(shù)字向善引領(lǐng)下的“人機(jī)交融”新聞傳播新格局成為新聞業(yè)必須回應(yīng)的時(shí)代議題。
【本文系教育部人文社會(huì)科學(xué)研究規(guī)劃基金項(xiàng)目“傳播權(quán)視角下全球互聯(lián)網(wǎng)治理的理論范式與秩序重構(gòu)研究”(項(xiàng)目編號(hào):19YJA860002)、國(guó)家社會(huì)科學(xué)基金重大項(xiàng)目“人工智能時(shí)代的新聞倫理與法規(guī)”(項(xiàng)目編號(hào):18ZDA308)的階段性成果】
參考文獻(xiàn):
[1]吳鋒.發(fā)達(dá)國(guó)家“算法新聞”的理論緣起、最新進(jìn)展及行業(yè)影響[J].編輯之友,2018,(05):48-54.
[2]蘭登·溫納.自主性技術(shù)[M].楊海燕,譯.北京:北京大學(xué)出版社,2014:176.
[3]張吉豫.數(shù)字法理的基礎(chǔ)概念與命題[J].法制與社會(huì)發(fā)展,2022,28(05):47-72.
[4]陳力丹.新聞理論十講(修訂版)[M].上海:復(fù)旦大學(xué)出版社,2021:31.
[5]Bozdag E,Bias in algorithmic filtering and personalization[J].Ethics and Information Technology,2013,5(3),209-227.
[6]楊保軍,杜輝.智能新聞:倫理風(fēng)險(xiǎn)·倫理主體·倫理原則[J].西北師大學(xué)報(bào)(社會(huì)科學(xué)版),2019,56(01):27-36.
[7]比爾·科瓦齊,湯姆·羅森斯蒂爾.新聞的十大基本原則——新聞從業(yè)者須知和公眾的期待[M].劉海龍,連曉東,譯.北京:北京大學(xué)出版社,2011:214.
[8]Caswell,David,Konstantin D·rr,Automated Journalism 2.0:Event-driven narratives:From simple descriptions to real stories[J].Journalism practice,2018,12(4),477-496.
[9]范玉吉,李宇昕.從權(quán)力到權(quán)利:算法治理的路徑[J].西南政法大學(xué)學(xué)報(bào),2022,24(01):86-95.
[10]仇筠茜,陳昌鳳.黑箱:人工智能技術(shù)與新聞生產(chǎn)格局嬗變[J].新聞界,2018,(01):28-34.
[11]鄧建國(guó).機(jī)器人新聞:原理、風(fēng)險(xiǎn)和影響[J].新聞?dòng)浾撸?016,(09):10-17.
[12]鄭智航.人工智能算法的倫理危機(jī)與法律規(guī)制[J].社會(huì)科學(xué)文摘,2021,(04):74-76.
[13]尼爾·波茲曼.技術(shù)壟斷:文明向技術(shù)投降[M].蔡金棟,梁薇,譯.北京:機(jī)械工業(yè)出版社,2013:85.
[14]尼古拉·尼葛洛龐帝.數(shù)字化生存[M].胡泳,范海燕,譯.海南:海南出版社,1997:188.
[15]Nicholas Kristof,Automating the news: How algorithms are rewriting the media[M].Harvard University Press,195.
[16]Lash & Scott,Power after Hegemony:Cultural Studies in Mutation?[J].Theory,Culture amp; Society,2007,24(3),55-78.
[17]喻國(guó)明,曲慧.“信息繭房”的誤讀與算法推送的必要——兼論內(nèi)容分發(fā)中社會(huì)倫理困境的解決之道[J].新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2020,41(01):127-133.
[18]Bucher,T,The Algorithmic Imaginary:Exploring the Ordinary Affects of Facebook Algorithms[J].Information,Communication & Society,2017,(1),30-44.
[19]方師師.算法機(jī)制背后的新聞價(jià)值觀——圍繞“Facebook偏見門”事件的研究[J].新聞?dòng)浾撸?016,(09):39-50.
[20]許可.算法規(guī)制體系的中國(guó)建構(gòu)與理論反思[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2022,40(01):124-132.
[21]Napoli,P.M,Automated media:An institutional theory perspective on algorithmic media production and consumption[J].Communication Theory,2014,24(3),s340-360.
[22]習(xí)近平.推動(dòng)媒體融合向縱深發(fā)展 鞏固全黨全國(guó)人民共同思想基礎(chǔ)[EB/OL].[2024-11-28].https://www.xuexi.cn/6ff24bdc40b7cea1be52e7bb846f8c35/e43e220633a65f9b6d8b53712cba9caa.html.
作者簡(jiǎn)介:范玉吉,華東政法大學(xué)韜奮新聞傳播學(xué)院教授;張黃茜,華東政法大學(xué)韜奮新聞傳播學(xué)院碩士研究生
編輯:白" 潔