戚金城
2018年初,以“未成年媽媽成網(wǎng)紅”“未婚先孕”“侮辱英烈”等為代表的嚴重侵蝕價值觀的社會話題,借助算法推薦在網(wǎng)絡(luò)世界大肆傳播。同年4月,國家廣播電視總局針對社會輿論強烈關(guān)注的今日頭條、快手,約談了兩家網(wǎng)站的主要負責人。雖然相關(guān)平臺已第一時間清理并道歉,但圍繞以今日頭條為首的內(nèi)容管理、算法推薦等方面的爭議并未停止。
自20世紀90年代以來,互聯(lián)網(wǎng)的逐步發(fā)展,締造了一個強大的信息帝國。海量的信息在極大地滿足網(wǎng)民搜索需要的同時,也加劇了傳播者之間的競爭,即自己的信息能否在龐大的信息庫中脫穎而出,成功進入受眾的眼睛。于是,互聯(lián)網(wǎng)從比特形式走向了更為高級的人工智能階段,而這種技術(shù)的本質(zhì)就是算法。人工智能讓新聞生產(chǎn)更加便捷、高效的同時,卻因其個性化推薦在海量的信息庫中導(dǎo)致了新的信息匱乏。
算法新聞的理念發(fā)端于美國,率先在發(fā)達國家得到應(yīng)用。算法,可以解釋為用于解決某一特定問題或達成特定目標所采取的一系列步驟,通過算法進行決策依賴于排序、分類、關(guān)聯(lián)、過濾四個步驟。[1]因此,本文根據(jù)2010年Facebook f8大會提到的和2018年今日頭條前資深產(chǎn)品經(jīng)理閆澤華在《內(nèi)容算法:把內(nèi)容變成價值的效率系統(tǒng)》一書中提到的Facebook“邊際排名算法”(Edge Rank Algorithm)核心計算公式,闡釋算法如何將受眾重新帶回信息匱乏的時代。
20世紀30-60年代,是算法新聞的理論孕育期:科學家在機器學習、腦科學等領(lǐng)域的探究,為算法新聞準備了理論基礎(chǔ)。此階段的代表性理論研究有英國數(shù)學家阿蘭·麥席森·圖靈(Alan Mathison Turing)提出的輔助數(shù)學研究的機器(1937)和判定機器是否具有智能的“圖靈測試”(1950)、美國學者麥卡洛克(W.S.McCulloch)和皮茨(W.Pitts)提出的神經(jīng)元交互理論(1943)、美國心理學家羅森布拉特(Rosenblatt)提出第一個具有完整算法描述的神經(jīng)網(wǎng)絡(luò)學習算法(1958)。[2]但是,此階段的研究并沒有投入技術(shù)研發(fā),只停留在理論層面。
20世紀70至90年代,是算法新聞的技術(shù)探索期。1976年在耶魯大學誕生的全球首套故事寫作機器算法是具有代表性的算法,開啟了機器模擬人類寫作的先河。21世紀以來,算法新聞的應(yīng)用越來越成熟,路透社于2006年使用算法為其網(wǎng)站編輯財經(jīng)新聞,F(xiàn)acebook也在同年推出動態(tài)消息。2006年被認為是算法新聞應(yīng)用推廣元年;[3]2009年Facebook推出新的首頁、動態(tài)消息不再依時間排序,而是通過相關(guān)程序篩選好友與專頁的大量貼文、照片、故事等動態(tài),目的在于向使用者展示有趣且愿意互動的內(nèi)容。
Facebook最初的排序公式,被稱為“邊際排名算法”。該算法的核心公式為:E=u×w×d。[4]u:指用戶與內(nèi)容發(fā)布者之間的親密分數(shù),互動越高的親密度分數(shù)越高;w:不同反饋動作有不同的權(quán)重,反饋動作包括展示、評論、點贊等,比如,評論動作的權(quán)重就會顯著高于點贊動作;d:基于時間的衰減,越新的內(nèi)容權(quán)重越高。如今,社交軟件如新浪微博、推薦引擎產(chǎn)品如今日頭條,都能看到Facebook算法公式的影子。
Facebook算法公式的第一個變量為“u”,即與用戶互動程度越高的內(nèi)容越能呈現(xiàn)在該平臺上。親密度和用戶動作的引入極大地抑制了大號和營銷號刷屏的情況,沒有互動的粉絲就只是停留在頁面上的一個數(shù)字而已,這使得企業(yè)賬號在獲取粉絲之后,必須同時下力氣維護自己的粉絲群體。Facebook從個人專頁逐漸擴散至Facebook粉絲專頁,集結(jié)了虛擬社區(qū),達到了社群營銷的效果。但是,社群集合是為了共同的目標,而這個共同的目標則可能是對社會不利的。
以2016年的英國脫歐和美國大選為例,有人稱之為“謊言的勝利”[5]。“后真相”(posttruth)經(jīng)過這兩個政治事件后被《牛津詞典》評選為年度新詞。主張脫歐的英國政客約翰遜(Boris Johnson)和特朗普被指責利用民眾的偏激情緒,不斷發(fā)表煽動性言論,曲解事實,制造謠言而贏得大量支持者。受眾盲目擁護某個政見或政客,民眾對政治事務(wù)的認識僅憑自我感受。按照粉絲互動的算法公式,煽動性言論只會甚囂塵上。
1949年,美國信息學者C.香農(nóng)和W.韋弗在《傳播的數(shù)學理論》一文中提出過一個傳播過程模式,被稱為傳播過程的數(shù)學模式或香農(nóng)-韋弗模式。如圖所示,由信源發(fā)出訊息,再由發(fā)射器將訊息轉(zhuǎn)化為可以傳送的信號,經(jīng)過傳輸,由接收器把接收到的信號還原為訊息,將之傳遞給信宿。雖然該模式存在缺陷,但他們提出了一個重要的概念——噪音。
噪音并不是狹義的概念,而是指對訊息傳送過程的干擾,使得信息產(chǎn)生某種衰減或失真。人工智能時代的算法,正是有一種“噪音算法”的干擾,造成信息傳播的失真。這種失真阻礙了普通網(wǎng)民的表達權(quán),新聞、言論就無法真正實現(xiàn)自由,呈現(xiàn)出的內(nèi)容也會不全面。
Facebook算法公式的第二個影響因素“w”,即反饋動作影響內(nèi)容的排名:評論動作的權(quán)重高于點贊動作。我國周懿瑾等學者針對微信朋友圈使用行為的研究也表明:評論作為組合式的信息,能夠承載個性化的內(nèi)容,發(fā)送者能得到接受者進一步的互動及互惠行為,相較于點贊,更能為用戶帶來社會資本。[6]評論動作對于Facebook核心算法的重要作用便是增加內(nèi)容的“能見度”(即新聞內(nèi)容的呈現(xiàn)或遮蔽),讓新聞業(yè)面臨凝聚讀者注意力的挑戰(zhàn)——媒體不得不讓渡過去在“能見度”上的影響力,向算法權(quán)力靠攏。[7]
Facebook 2009年推出的新的首頁,透過預(yù)設(shè)篩選好友與專頁的大量貼文、照片、故事等動態(tài),目的在于向使用者展示有趣且愿意互動的內(nèi)容。每當使用者登錄時,算法便掃描并搜集使用者過去一周的每位朋友、追蹤過的每個人、所屬社團中發(fā)布的貼文,還有點贊過的每個專頁。之后,動態(tài)消息便依照貼文的價值程度進行排序。因此,基于Facebook的算法,各大媒體的Facebook賬號為了吸引受眾評論和點贊,從而增加被受眾注意的概率,就必然會投其所好,發(fā)布的內(nèi)容向受眾靠攏。這樣的“窄播”無可厚非,但長此以往,難免會使受眾局限于狹窄的“視界”中,造成互聯(lián)網(wǎng)時代的信息匱乏。
Facebook核心算法公式的第三個因素是“d”——越新的內(nèi)容呈現(xiàn)頻率越高。從傳統(tǒng)的報刊時代到如今的互聯(lián)網(wǎng)時代,內(nèi)容的生產(chǎn)和傳播速度有了巨大的提高,人人擁有“麥克風”也讓互聯(lián)網(wǎng)上的信息越來越泛濫。但Facebook算法公式中的“d”(時間因素)讓不斷新產(chǎn)生的內(nèi)容覆蓋在老舊的內(nèi)容之上,就可能會導(dǎo)致舊有的優(yōu)質(zhì)內(nèi)容被湮沒,以至于減少了被受眾注意的概率。以特朗普的Facebook賬號為例,其頻繁更新的貼文覆蓋了之前發(fā)布的動態(tài),引導(dǎo)Facebook使用者追尋一個又一個新的熱點,利用網(wǎng)民的“易忘性”來“冷卻”曾經(jīng)的對自身具有負面影響的熱點。
此外,從新聞學原理來看,衡量新聞價值的一個重要標準便是新鮮性,但一味追求速度而忽視新聞的真實性,就會導(dǎo)致越來越多未經(jīng)求證或蓄意制造的假新聞、反轉(zhuǎn)新聞出現(xiàn)。新聞的生產(chǎn)需要專業(yè)記者在采訪后編寫而成,但假新聞、謠言的產(chǎn)生速度卻快得多,并且是普通網(wǎng)民便能制造的。在月活躍用戶達10億的Facebook,造謠者利用謠言的煽動作用,裹挾著網(wǎng)民的強大互動,便能“滾雪球式”地吸引更多網(wǎng)民的關(guān)注。
Facebook在陷入“半人工”政治偏見風波后也更新了最新的算法,即在最初的三個Edge Rank之外增加新的特征和排序方法,如Story Bumping(對信息進行二次判斷,如果判斷為重要,則會跳過時間順序進行展示)。但這種算法公式終究還是在機器的“機械”操作之下進行的。關(guān)于對算法(人工智能)的治理,已有諸多研究者從新聞傳播倫理、加強人為把關(guān)等方面進行過論述,筆者擬從新聞公評人制度對算法新聞的治理提出些許建議。
公評人(Ombudsman)一詞最初源于古斯堪的納維亞語,本來專指調(diào)查公務(wù)人員舞弊情況的政府官員。公評人制度早先主要運用在歐美國家,新聞公評人則在日本較早嘗試:1922年《朝日新聞》任命一個委員會,接受和調(diào)查讀者對于報紙錯誤的投訴。[8]新聞公評人的角色定位相當于受眾在媒體中的代表,旨在接受和調(diào)查公眾關(guān)于新聞報道準確、公平、平衡以及品位方面的投訴,并向有關(guān)部門或人員提供改進建議。這種制度有利于媒體自我監(jiān)督,加強與受眾的聯(lián)系及與之增進信任,減少政府干預(yù)。
學者喻國明等人認為,算法的本質(zhì)是一種社會權(quán)力:信息的傳播與控制方式在新媒體時代受到來自技術(shù)賦權(quán)的挑戰(zhàn)。[9]即算法背后的掌控者在操控內(nèi)容的分發(fā),一旦技術(shù)被這種權(quán)力操控,就必然為技術(shù)背后權(quán)力主體的利益服務(wù),信息的封鎖、過濾與審查就將通過技術(shù)手段來實現(xiàn)。
所以,以Facebook為首的內(nèi)容分發(fā)平臺要想不被受眾質(zhì)疑對內(nèi)容的操控,就有必要在人為把關(guān)措施之外實行新聞公評人制度:以受眾為主體增加對平臺的監(jiān)督,減少權(quán)力的干預(yù),讓新聞、言論在社交媒體時代變得更加自由,這也有利于受眾破除“信息繭房”。
注釋:
[1]方師師.算法機制背后的新聞價值觀:圍繞“Facebook偏見門”事件的研究[J].新聞記者,2016(9).
[2]吳鋒.發(fā)達國家“算法新聞”的理論緣起、最新進展及行業(yè)影響[J].編輯之友,2018(5).
[3]Tomasula, S. Introduction to focus: machine writing[J]. American Book Review, 2014, 35(2): 3-7.
[4]閆澤華.內(nèi)容算法:把內(nèi)容變成價值的效率系統(tǒng)[M].北京:中信出版集團,2018.
[5]劉建明.“后真相”論的執(zhí)迷與幻覺[J].新聞愛好者,2017(12).
[6]周懿瑾,魏佳純.“點贊”還是“評論”?社交媒體使用行為對個人社會資本的影響[J].新聞大學,2016(1).
[7]蕭維杰.能見度的支配與拼搏:Facebook動態(tài)消息演算法權(quán)力下的臺灣新聞媒體[D].臺北:臺灣師范大學,2017.
[8]劉學義.大眾媒體的自我檢視:美、加等國新聞公平人制度探微[J].西南民族大學學報(人文社科版),2010(3).
[9]喻國明,楊瑩瑩,閆巧妹.算法即權(quán)力:算法范式在新聞傳播中的權(quán)力革命[J].編輯之友,2018(5).