【摘 要】在大數(shù)據(jù)、云計(jì)算、物聯(lián)網(wǎng)等技術(shù)的推動(dòng)下,智能算法進(jìn)入新聞?lì)I(lǐng)域,在新聞生產(chǎn)和分發(fā)方面的作用日益凸顯。本文從智能傳播視角下把關(guān)角色、把關(guān)行為、把關(guān)內(nèi)容和把關(guān)功能的變化,探討智媒時(shí)代算法技術(shù)給把關(guān)機(jī)制帶來(lái)的沖擊,并提出提高算法透明性與公正性,加強(qiáng)人機(jī)協(xié)作和完善法律法規(guī)監(jiān)管機(jī)制,提高傳播效能,實(shí)現(xiàn)多元把關(guān)和信息共享相輔的算法協(xié)同治理。
【關(guān)鍵詞】人工智能;算法;把關(guān)人;新聞業(yè)
【基金項(xiàng)目】本文系2022年山西省高等學(xué)校教學(xué)改革創(chuàng)新項(xiàng)目《基于OBE理念的影視傳媒類實(shí)踐教學(xué)評(píng)價(jià)體系研究》(編號(hào):J20220493)。
互聯(lián)網(wǎng)時(shí)代,人人都可以成為信息的發(fā)布者和傳播者。以人工智能技術(shù)為基礎(chǔ)的算法把關(guān)在創(chuàng)新新聞生產(chǎn)與傳播方式的同時(shí),也“入侵”著傳統(tǒng)媒體的新聞把關(guān)領(lǐng)域,新聞把關(guān)的主體有從新聞從業(yè)者變?yōu)樗惴ò殃P(guān)人的趨勢(shì)。面對(duì)算法把關(guān)可能帶來(lái)的新聞?wù)鎸?shí)性、算法偏見(jiàn)等問(wèn)題,有必要對(duì)智媒時(shí)代的把關(guān)人進(jìn)行研究和分析,確保算法把關(guān)能更好地服務(wù)新聞業(yè)。
一、 風(fēng)險(xiǎn)隱憂:算法技術(shù)對(duì)于把關(guān)機(jī)制的消解
技術(shù)革新推動(dòng)新聞業(yè)的一次次變革,互聯(lián)網(wǎng)技術(shù)和人工智能技術(shù)的發(fā)展讓我們進(jìn)入智媒時(shí)代。在新聞把關(guān)領(lǐng)域,傳統(tǒng)的把關(guān)機(jī)制遭遇前所未有的沖擊。算法技術(shù)以大數(shù)據(jù)為基礎(chǔ),通過(guò)預(yù)先設(shè)定的程序和智能化的學(xué)習(xí)對(duì)數(shù)據(jù)進(jìn)行分類和整合,為人們提供個(gè)性化推薦、智能生成等服務(wù),為新聞生產(chǎn)和分發(fā)帶來(lái)了便利。但同時(shí),算法黑箱的不透明性,算法推薦下的信息繭房效應(yīng),算法錯(cuò)誤導(dǎo)致的新聞失范現(xiàn)象等,給傳統(tǒng)媒體的新聞把關(guān)帶來(lái)了巨大沖擊和挑戰(zhàn)。
(一)算法不透明性與公正性問(wèn)題
算法技術(shù)有復(fù)雜的程序邏輯,將其運(yùn)用到新聞?lì)I(lǐng)域,新聞的生產(chǎn)與傳播過(guò)程將成為“黑箱”。算法黑箱的形成多是源于算法技術(shù)本身的復(fù)雜性以及媒體機(jī)構(gòu)、技術(shù)公司的排他性商業(yè)政策,本質(zhì)在于不透明、不公開(kāi)、技術(shù)門(mén)檻高和難理解。[1]
算法設(shè)計(jì)者受利益驅(qū)動(dòng)和“流量為王”的裹挾,在以數(shù)據(jù)為主導(dǎo)編寫(xiě)算法程序的過(guò)程中難免會(huì)將自己的主觀偏見(jiàn)植入,很難做到完全公正。學(xué)者陳昌鳳指出,注意力導(dǎo)向的評(píng)價(jià)機(jī)制,不僅無(wú)法使嚴(yán)肅新聞戰(zhàn)勝聳動(dòng)新聞,反而使利益驅(qū)動(dòng)新聞編輯室,導(dǎo)致新聞生產(chǎn)的質(zhì)量滑坡。[2]
同時(shí),算法根據(jù)用戶畫(huà)像和標(biāo)簽等進(jìn)行智能推薦,可能引發(fā)算法偏見(jiàn)與歧視。算法推薦需要以大數(shù)據(jù)為基礎(chǔ),而數(shù)據(jù)采集的片面化和虛假性將會(huì)阻礙用戶對(duì)于不同類型信息的自由選擇,加劇虛假新聞、低質(zhì)新聞的出現(xiàn),也引發(fā)算法歧視。算法歧視是以算法為手段實(shí)施的歧視性行為。例如,算法技術(shù)通過(guò)采集用戶消費(fèi)偏好、消費(fèi)頻率、消費(fèi)水平等個(gè)人數(shù)據(jù),預(yù)判用戶對(duì)于某商品的消費(fèi)意愿,精準(zhǔn)設(shè)定定價(jià)邊界,以達(dá)到區(qū)別定價(jià)和“大數(shù)據(jù)殺熟”的目的。
(二) 算法推薦與“過(guò)濾氣泡”
算法通過(guò)分析海量數(shù)據(jù)形成用戶畫(huà)像,并依據(jù)用戶畫(huà)像進(jìn)行個(gè)性化推薦。個(gè)性化推薦在信息傳播中承擔(dān)過(guò)濾和把關(guān)作用。目前個(gè)性化推薦主要包括基于內(nèi)容的推薦、協(xié)同過(guò)濾推薦、基于標(biāo)簽的推薦、社會(huì)化推薦、基于深度學(xué)習(xí)的推薦、基于知識(shí)的推薦、基于網(wǎng)絡(luò)結(jié)構(gòu)的推薦、混合推薦等。[3]
大數(shù)據(jù)時(shí)代,各平臺(tái)利用算法的個(gè)性化推薦技術(shù)迎合用戶興趣愛(ài)好,邊緣化其他類型內(nèi)容的推薦,使得用戶在不知不覺(jué)中被自己的興趣偏好所束縛,生活在算法推薦造就的“過(guò)濾氣泡”之中。[4]
伊萊·帕里策認(rèn)為“過(guò)濾氣泡”以大數(shù)據(jù)與算法推薦為底層架構(gòu),根據(jù)用戶的使用時(shí)間、地區(qū)以及瀏覽習(xí)慣生成用戶畫(huà)像,并通過(guò)算法技術(shù)為其呈現(xiàn)獨(dú)一無(wú)二的界面體驗(yàn)。[5]算法推送通過(guò)篩選推送同類型內(nèi)容,造成受眾形成單一的信息體系,受眾長(zhǎng)期接受算法個(gè)性化推送的內(nèi)容,就會(huì)被包裹在一個(gè)同質(zhì)化信息流構(gòu)成的“過(guò)濾氣泡”之中。
由于當(dāng)前算法技術(shù)的不成熟,加上媒體把關(guān)過(guò)程中難免會(huì)出現(xiàn)漏洞,同質(zhì)化、低質(zhì)內(nèi)容被反復(fù)推送給受眾,產(chǎn)生“過(guò)濾氣泡”,造成“信息繭房”。算法根據(jù)受眾關(guān)注度和點(diǎn)擊率等數(shù)據(jù)進(jìn)行推薦,導(dǎo)致受眾看到的都是自己喜歡看的內(nèi)容。高重復(fù)度的內(nèi)容推送會(huì)導(dǎo)致信息窄化,受眾難以接觸不同角度的觀點(diǎn),逐漸失去自己的思考和判斷能力。長(zhǎng)此以往會(huì)阻礙個(gè)人與群體的發(fā)展,也加大了媒體把關(guān)的難度。
二、角色、行為、內(nèi)容:算法技術(shù)改變把關(guān)機(jī)制
在信息傳播領(lǐng)域,把關(guān)人、把關(guān)關(guān)系和傳播機(jī)制作為結(jié)構(gòu)性要素共同影響著把關(guān)的效果。步入智媒時(shí)代,算法已經(jīng)滲透到社會(huì)的方方面面,它作為一種中介,構(gòu)建了數(shù)據(jù)化界面,成為隱性的技術(shù)把關(guān)者。算法技術(shù)作為新的把關(guān)機(jī)制之一,對(duì)傳統(tǒng)媒體的把關(guān)機(jī)制帶來(lái)了沖擊與影響,其表現(xiàn)主要有以下幾個(gè)方面。
(一) 把關(guān)角色的改變:把關(guān)人的泛化和分散化
隨著技術(shù)的進(jìn)步,以智能技術(shù)為主導(dǎo)的新型傳播形式正潛移默化地影響人們的生活。由此,新聞把關(guān)人的角色也發(fā)生了變化。在傳統(tǒng)的把關(guān)模式中,把關(guān)人一般由專業(yè)的新聞從業(yè)者和媒體機(jī)構(gòu)擔(dān)任,他們掌握著信息獲取、選擇、加工、傳播的權(quán)利。
步入智媒時(shí)代,隨著具有全時(shí)性、交互性、數(shù)據(jù)化、個(gè)性化和智能化等特性的新媒體出現(xiàn),信息傳播與接受者身份的多重性,以及受眾對(duì)于信息的需求各異,導(dǎo)致媒體把關(guān)難度增加,把關(guān)人角色泛化和分散化。除了傳統(tǒng)媒體機(jī)構(gòu),新聞從業(yè)者、平臺(tái)運(yùn)營(yíng)人員和審核人員,把關(guān)人角色擴(kuò)大至“個(gè)體把關(guān)人”和“算法把關(guān)人”。其中,算法把關(guān)在把關(guān)機(jī)制中發(fā)揮著重要作用。
算法本是建立在海量信息和海量用戶基礎(chǔ)上的匹配技術(shù),通過(guò)大數(shù)據(jù)、云計(jì)算等實(shí)現(xiàn)人的數(shù)據(jù)化,對(duì)新聞生產(chǎn)和個(gè)性化推送等進(jìn)行把關(guān)。算法技術(shù)作為信息采集和加工流程的介入者,算法把關(guān)人如同守望者,在“控制大門(mén)”(police gates)的同時(shí),需要評(píng)估信息的可靠性。[6]例如抖音平臺(tái)在審核信息發(fā)布環(huán)節(jié)中,算法對(duì)于內(nèi)容(文案、場(chǎng)景)是否搬運(yùn),是否涉及違禁詞等進(jìn)行檢測(cè),對(duì)于違反抖音平臺(tái)審核規(guī)定的視頻內(nèi)容進(jìn)行攔截,采取不予發(fā)布及低流量推薦等措施。
但是,隨著算法技術(shù)的介入,把關(guān)人的泛化和分散化,傳統(tǒng)把關(guān)權(quán)利的讓渡帶來(lái)了一定風(fēng)險(xiǎn)。由于大眾追求獵奇和娛樂(lè)心理,經(jīng)他們把關(guān)的內(nèi)容在真實(shí)性和可靠性上有待考量,一些低質(zhì)、重復(fù)、虛假信息泛濫。部分平臺(tái)為了追求流量,博取熱度和點(diǎn)擊率,甚至放棄把關(guān),給智媒時(shí)代的信息傳播秩序帶來(lái)了嚴(yán)峻挑戰(zhàn)。
(二)把關(guān)行為的改變:把關(guān)行為的多向性和人性化
傳統(tǒng)媒體時(shí)代,新聞從業(yè)者需對(duì)信息進(jìn)行取舍,將最有價(jià)值的信息呈現(xiàn)給受眾。新聞媒體把關(guān)的標(biāo)準(zhǔn)以是否具有真實(shí)性,是否具有新聞價(jià)值為主。傳統(tǒng)的把關(guān)行為體現(xiàn)的是“發(fā)出”與“接收”的單向關(guān)系,受眾對(duì)于信息的選擇相對(duì)比較被動(dòng),無(wú)法參與信息生產(chǎn)。隨著傳播方式的多元化,把關(guān)行為隨之改變,把關(guān)行為變?yōu)橄嗷ソ豢椀木W(wǎng)狀去中心化的交互方式,出現(xiàn)了人機(jī)協(xié)作形式的把關(guān)行為。
在采寫(xiě)階段,算法把關(guān)能夠快速高效地采集和篩選海量信息,依托大數(shù)據(jù),通過(guò)預(yù)先編好的程序生成稿件。機(jī)器的高效生產(chǎn)、深度挖掘能力為新聞從業(yè)者的深度報(bào)道提供了便利。一方面,算法技術(shù)可以全天候24小時(shí)地采集各平臺(tái)、各渠道的數(shù)據(jù),擴(kuò)大信息采集維度,為記者提供新聞線索和數(shù)據(jù)支撐,提升新聞生產(chǎn)的效率。另一方面,算法技術(shù)可以通過(guò)用戶分析和選題整合,為媒體提供豐富的資源,拓寬選題的廣度和深度,包括全新報(bào)道視角。隨著人工智能技術(shù)的發(fā)展,AI智能寫(xiě)作將愈發(fā)人性化,為公眾提供更豐富、多樣化、個(gè)性化的新聞。
在分發(fā)階段,算法技術(shù)通過(guò)用戶畫(huà)像等數(shù)據(jù)進(jìn)行個(gè)性化推送,更注重用戶個(gè)性化的體驗(yàn),增強(qiáng)用戶的黏性。在審核階段,算法把關(guān)對(duì)信息進(jìn)行動(dòng)態(tài)化、全流程的把關(guān),成為信息核查的主要力量。算法把關(guān)通常根據(jù)傳播反饋的效果和引起的社會(huì)影響對(duì)已發(fā)布的信息進(jìn)行監(jiān)測(cè)和修正,避免誤導(dǎo)受眾和造成不良影響。
算法技術(shù)使得把關(guān)行為從 “支配”到“迎合”,受眾的主體地位逐漸上升。但需要注意的是,當(dāng)前的算法把關(guān)的人性化機(jī)制尚不成熟,存在過(guò)度關(guān)注受眾個(gè)性化需求而弱化新聞價(jià)值的現(xiàn)象,相關(guān)部門(mén)需要加大對(duì)算法風(fēng)險(xiǎn)的防范。
(三) 把關(guān)內(nèi)容的改變:把關(guān)內(nèi)容的碎片化和去語(yǔ)境化
傳統(tǒng)媒體時(shí)代,媒體的報(bào)道方式以及力度影響著受眾對(duì)事件的知曉和關(guān)注程度。而進(jìn)入智媒時(shí)代,媒體議程設(shè)置功能被削弱,在海量信息中,大量碎片化的冗余信息分散受眾的注意力,算法技術(shù)對(duì)內(nèi)容的把關(guān)有著重要作用。算法技術(shù)對(duì)于內(nèi)容的把關(guān)體現(xiàn)在內(nèi)容分發(fā)和內(nèi)容審查兩個(gè)方面。
算法把關(guān)存在內(nèi)容分發(fā)機(jī)制。一方面,算法基于個(gè)性化推薦技術(shù)篩選用戶感興趣的信息和優(yōu)質(zhì)內(nèi)容進(jìn)行推薦。算法通過(guò)用戶的性別、地域、年齡、常看的內(nèi)容等數(shù)據(jù)進(jìn)行整理分類,并貼上不同的標(biāo)簽,根據(jù)匹配度將信息推送給合適的人群,完成個(gè)性化推薦。另一方面,算法技術(shù)通過(guò)數(shù)據(jù)分析整合熱門(mén)內(nèi)容,進(jìn)入新一輪的精品推薦,篩選出點(diǎn)贊量多、完播率高、評(píng)論互動(dòng)性強(qiáng)的內(nèi)容進(jìn)行推薦。例如,抖音平臺(tái)創(chuàng)作者中心將完播率、評(píng)論率、轉(zhuǎn)發(fā)率、點(diǎn)贊率作為用戶創(chuàng)作的視頻內(nèi)容是否能進(jìn)入更高的流量池的參考標(biāo)準(zhǔn)。
算法把關(guān)存在內(nèi)容審查機(jī)制。大眾傳播時(shí)代受眾具有多、雜、散、匿的特點(diǎn),由于媒介素養(yǎng)參差不齊,傳播目的不同等導(dǎo)致他們所創(chuàng)作的內(nèi)容質(zhì)量不一,部分包含低俗信息,存在為博取流量或?yàn)檫_(dá)到商業(yè)目的的營(yíng)銷內(nèi)容。在碎片化閱讀時(shí)代,受眾在接收信息過(guò)程中對(duì)于新聞信息的來(lái)龍去脈缺乏判斷和深入的了解意識(shí)。網(wǎng)絡(luò)中充斥著各種“斷章取義”的信息,增加了把關(guān)的難度。
同時(shí),算法基于用戶畫(huà)像、熱度排行榜等推薦機(jī)制,也將受眾困在算法所搭建的信息繭房中。智能平臺(tái)的內(nèi)容分發(fā)模式說(shuō)明,信息的選擇和用戶的需求有關(guān)。無(wú)論是對(duì)商品信息還是新聞信息的獲取,都是由算法驅(qū)動(dòng)下的機(jī)器完成,算法成為信息內(nèi)容過(guò)濾和發(fā)放的重要因素,決定著各類信息的去向。長(zhǎng)此以往,受眾將自己桎梏于算法編織的“繭房”之中。
三、規(guī)制算法:智媒時(shí)代內(nèi)容生產(chǎn)把關(guān)機(jī)制的重構(gòu)
算法并非“孤立的代碼”,而是傳播實(shí)踐場(chǎng)域中不可分割的一部分。[7]算法技術(shù)在運(yùn)用過(guò)程中所帶來(lái)的風(fēng)險(xiǎn),對(duì)把關(guān)機(jī)制帶來(lái)了一系列沖擊。面對(duì)算法透明性與公正性、算法個(gè)性化推薦產(chǎn)生的“過(guò)濾氣泡”及算法錯(cuò)誤導(dǎo)致的法律與倫理失范等困境,算法設(shè)計(jì)者及相關(guān)部門(mén)應(yīng)該有的放矢地進(jìn)行防范。
(一)優(yōu)化算法設(shè)計(jì),提高算法的透明性與公正性
20 世紀(jì) 90 年代以來(lái)“透明性”原則成為新聞倫理的首要原則。這一原則由信息披露透明、參與透明兩個(gè)部分組成。[8]一方面,對(duì)于人工智能平臺(tái)算法技術(shù)的運(yùn)用范圍、參數(shù)報(bào)備與法律備案等要做到公開(kāi)透明,在算法技術(shù)投入使用之前,要經(jīng)過(guò)相關(guān)監(jiān)管部門(mén)的審查,并出具相應(yīng)的審查結(jié)果和意見(jiàn)證明。對(duì)于通過(guò)審查的算法產(chǎn)品,可到相關(guān)管理部門(mén)報(bào)備參數(shù)和基本信息錄入,便于后續(xù)投入使用階段的核查。做到分清責(zé)任主體,信息公開(kāi)透明。
另一方面,算法設(shè)計(jì)者應(yīng)當(dāng)優(yōu)化和完善對(duì)于算法推薦機(jī)制的程序設(shè)計(jì),避免引發(fā)受眾的厭倦情緒,減少同質(zhì)化內(nèi)容推薦。在設(shè)計(jì)算法程序過(guò)程中應(yīng)保持公正,減少個(gè)人主觀情緒對(duì)于算法設(shè)計(jì)的干擾,以免造成算法程序的偏差。同時(shí),在算法技術(shù)投入使用的過(guò)程中,要揭示人工智能平臺(tái)算法風(fēng)險(xiǎn)信息,以事先做出預(yù)判性的應(yīng)對(duì)措施。
此外,要注意算法的人性化,能準(zhǔn)確了解受眾的喜好和需求,打破信息繭房帶來(lái)的束縛。不斷優(yōu)化算法設(shè)計(jì),增強(qiáng)信息真實(shí)性的識(shí)別。政府和企業(yè)也應(yīng)該公開(kāi)與算法相關(guān)的數(shù)據(jù),做到過(guò)程的公開(kāi)透明,增強(qiáng)受眾對(duì)于算法的信任。
(二)加強(qiáng)人機(jī)協(xié)作,實(shí)現(xiàn)優(yōu)勢(shì)互補(bǔ)
目前,人機(jī)協(xié)同下信息采集和審核已實(shí)現(xiàn)智能化,機(jī)器成為信息核查的輔助力量,也可能帶來(lái)信息核查的新思路與新機(jī)制,包括來(lái)源分析、模式識(shí)別、技術(shù)鑒定、交叉驗(yàn)證、演變跟蹤等。[9]人機(jī)協(xié)同成為新聞生產(chǎn)和傳播的新趨勢(shì)。
由于算法技術(shù)帶來(lái)的碎片化信息的重組,去語(yǔ)境化的內(nèi)容制作,容易引發(fā)受眾對(duì)新聞事件的理解和態(tài)度的誤解,所以,智媒時(shí)代更要注重發(fā)揮新聞編輯的價(jià)值,讓編輯的把關(guān)作用煥發(fā)新的內(nèi)涵。
人工智能快速發(fā)展,智能技術(shù)在寫(xiě)作等領(lǐng)域的廣泛運(yùn)用,新聞編輯要利用新聞倫理約束算法技術(shù),警惕算法技術(shù)在智能生成和分發(fā)方面的潛在風(fēng)險(xiǎn),發(fā)揮監(jiān)督與協(xié)作技術(shù)在新聞業(yè)的作用。
加強(qiáng)人機(jī)協(xié)作,必須明確即使未來(lái)算法技術(shù)不斷優(yōu)化升級(jí),人依然作為決策主體。新聞從業(yè)者要充分發(fā)揮質(zhì)疑精神和批判思維的作用,創(chuàng)新算法在新聞生產(chǎn)和分發(fā)方面的應(yīng)用,推動(dòng)人工智能技術(shù)的發(fā)展和應(yīng)用。
(三)推動(dòng)多元信息傳播與價(jià)值認(rèn)同,減少偏見(jiàn)與歧視
推動(dòng)多元信息傳播與價(jià)值認(rèn)同,對(duì)于減少算法偏見(jiàn)有重要意義。由于算法的個(gè)性化推薦機(jī)制,人們逐漸接收單一的信息,不利于從多個(gè)角度對(duì)信息加以判斷,形成價(jià)值認(rèn)同。算法設(shè)計(jì)者在編寫(xiě)程序時(shí)難免會(huì)帶有偏見(jiàn),在一定程度上阻礙了信息的客觀傳遞。同時(shí),個(gè)體無(wú)法了解和掌握其他用戶的信息數(shù)據(jù),使得用戶深陷算法歧視囹圄卻不自知。因此,要減少算法技術(shù)帶來(lái)的偏見(jiàn)和歧視,需要推動(dòng)和倡導(dǎo)多元價(jià)值,建立健全信息傳播機(jī)制,打破信息壁壘;需要加強(qiáng)人機(jī)協(xié)作,建立多層次把關(guān)機(jī)制,并在算法決策過(guò)程中對(duì)數(shù)據(jù)進(jìn)行校驗(yàn)和修正,減少算法偏見(jiàn)問(wèn)題的出現(xiàn),促進(jìn)多元信息傳播與價(jià)值認(rèn)同的形成。
(四)健全算法把關(guān)的監(jiān)管機(jī)制和相關(guān)法律法規(guī)
隨著科技的發(fā)展,人們被逐漸“數(shù)據(jù)化”,社會(huì)管理逐漸依賴大數(shù)據(jù)與各類智能程序的運(yùn)用,算法技術(shù)是推動(dòng)人工智能發(fā)展的核心要素。有效規(guī)制算法權(quán)利就要對(duì)其作出系統(tǒng)、準(zhǔn)確的規(guī)定,讓法律法規(guī)覆蓋算法技術(shù)運(yùn)用的各個(gè)方面。監(jiān)管部門(mén)要重視對(duì)算法技術(shù)數(shù)據(jù)采集程序和內(nèi)容的監(jiān)管,對(duì)網(wǎng)絡(luò)財(cái)產(chǎn)保護(hù)等作出相應(yīng)的規(guī)定。
相關(guān)企業(yè)要完善數(shù)據(jù)安全保障機(jī)制,避免因數(shù)據(jù)缺失或不準(zhǔn)確引發(fā)算法歧視和算法錯(cuò)誤問(wèn)題,定期進(jìn)行數(shù)據(jù)安全風(fēng)險(xiǎn)評(píng)估。算法設(shè)計(jì)者要加強(qiáng)媒介素養(yǎng)和職業(yè)道德建設(shè),學(xué)習(xí)相關(guān)法律法規(guī),減少自身偏見(jiàn)對(duì)算法程序設(shè)計(jì)的影響。
政府和相關(guān)部門(mén)要健全有關(guān)算法權(quán)利的法律條例,明確算法歧視和算法錯(cuò)誤的責(zé)任主體,保護(hù)個(gè)人隱私。例如《通用數(shù)據(jù)保護(hù)條例》,加強(qiáng)對(duì)個(gè)人隱私數(shù)據(jù)的規(guī)范和保護(hù);《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,對(duì)“大數(shù)據(jù)殺熟”等問(wèn)題作出相關(guān)規(guī)定。
四、 結(jié)語(yǔ)
人工智能的發(fā)展推動(dòng)新聞傳播領(lǐng)域的技術(shù)革新,在算法技術(shù)主導(dǎo)的新聞生產(chǎn)和傳播過(guò)程中,海量的信息內(nèi)容帶來(lái)的碎片化傳播,個(gè)性化推薦技術(shù)引發(fā)的“過(guò)濾氣泡”和“信息繭房”,讓受眾疲于在復(fù)雜的新聞環(huán)境中尋找自己真正需要的內(nèi)容。同時(shí),算法黑箱引發(fā)的透明性與公正性問(wèn)題,生成式新聞面臨的倫理失范和責(zé)任推諉等問(wèn)題影響著人們的日常生活。
未來(lái),隨著算法技術(shù)的不斷發(fā)展和深入,我們應(yīng)當(dāng)把握和利用好算法技術(shù),加強(qiáng)人機(jī)協(xié)作,生產(chǎn)真實(shí)、客觀、有價(jià)值的高質(zhì)量新聞。同時(shí),建立更加完善的法律法規(guī),保障算法技術(shù)的應(yīng)用和發(fā)展。
注釋:
[1]劉耀華.治理算法黑箱:建構(gòu)算法科技與新聞倫理的道德智能體[J].大眾文藝,2023(18):59-61.
[2]陳昌鳳,師文.個(gè)性化新聞推薦算法的技術(shù)解讀與價(jià)值探討[J].中國(guó)編輯,2018(10):9-14.
[3]彭蘭.算法社會(huì)的“囚徒”風(fēng)險(xiǎn)[J].全球傳媒學(xué)刊,2021(01):3-18.
[4]劉維.移動(dòng)短視頻內(nèi)容把關(guān)模式研究[D].西南大學(xué),2019.
[5]El.Pariser. The Filter Bubble: What ther from You[M]. Penguin Press .Internet is Hiding,2011:3-12.
[6][7]袁映雪,陳虹.把關(guān)人視角下的算法技術(shù)認(rèn)知與治理出路研究[J].新媒體與社會(huì),2022(01):220-233.
[8]劉斌.技術(shù)與倫理的沖突與融合——算法新聞時(shí)代新聞倫理重構(gòu)及對(duì)策[J].西南民族大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2022,43(03):135-143.
[9]彭蘭.從ChatGPT透視智能傳播與人機(jī)關(guān)系的全景及前景[J].新聞大學(xué),2023(04):1-16+119.
(作者單位:山西師范大學(xué))
責(zé)編:姚少寶