——從“黑天鵝事件”看編輯工作的人機角力"/>
□劉 敏
當前,公眾獲取信息不再僅依賴于主流大眾媒體,智能端的新聞聚合平臺也成為信息傳播的重要渠道。以往“技術樂觀主義”氛圍把持著絕對話語權,學界熱議技術如何給編輯工作帶來高效助力乃至深刻變革,即使對其有所反思,也往往聚焦于隱私風險問題。然而,隱私風險問題卻是能夠在法律和技術框架內得到適當解決的。其實,“技術樂觀主義”的“七寸”并不在于常態(tài)化的新聞報道,而在于代表機器智能的算法推送無法應對“黑天鵝事件”的報道。
“黑天鵝”曾是歐洲人言談與寫作中的慣用語,用來指代不可能存在的事物。他們認為天鵝都是白色的(后來這個不可動搖的信念隨著在澳大利亞發(fā)現(xiàn)第一只黑天鵝而崩潰),黑天鵝的存在寓意著不可預測的重大稀有事件,它在意料之外,卻又改變一切。希臘學者亞里士多德用“黑天鵝”來表達“不可能”,隨著“不可能”事件越來越多,人們對“黑天鵝”的關注也愈發(fā)強烈。雖然各方學者在文字表述上有所差異,但對“黑天鵝事件”的本質特征他們幾乎達成了共識——通常是指不可提前預測、出乎事前對事件有關知識的掌握范圍,并帶來極端后果的低概率事件。具體而言,其有如下特征:
第一,偶發(fā)性。“黑天鵝事件”以稀少作為它的第一特征,因為稀少所以不容易被重視。正如極端天氣少見,人們自然不會在風和日麗的晴天擔憂暴雪降臨。
第二,難預測?!昂谔禊Z事件”可能發(fā)生在各個領域、以不同的方式呈現(xiàn),而在它發(fā)生之前人們往往對其一無所知。也許它已釋放了短暫而微弱的信號,但人們受認知的限制而難以將其捕捉。
第三,嚴重性。由于“黑天鵝事件”的發(fā)生打破了人們現(xiàn)有的認知,人們對于如何應對和處理此類事件面臨諸多挑戰(zhàn),很多時候無法阻擋它帶來嚴重后果。
“黑天鵝事件”本身就屬于偶然性事件,它的報道也有特殊性。正因如此,算法面對“黑天鵝事件”的反應明顯不如其日常推送那樣令人滿意。
數(shù)據(jù)是算法的靈魂,但“黑天鵝事件”并不具備這個靈魂,這就使得算法無法通過對“黑天鵝事件”數(shù)據(jù)的處理來實現(xiàn)很好的推送效果。自2016年成為算法編輯內容超越人工編輯內容的拐點之年以來,各媒體對算法愈發(fā)重視。新聞業(yè)目前較為盛行的幾種算法盡管在取向偏好和數(shù)據(jù)處理方式上有所差異,但它們對數(shù)據(jù)的絕對依賴是相同的。以算法新聞的核心——自然語言生成系統(tǒng)(NLG)為例,它有輸入、處理和輸出三個內部處理機制,其中處理是整個過程的核心,而輸入則是整個過程的立足點,輸入的過程也就是數(shù)據(jù)挖掘和數(shù)據(jù)收集的過程。當所需的數(shù)據(jù)無法得到滿足時,算法系統(tǒng)的處理結果往往會事與愿違,例如當用戶活躍度不同導致用戶歷史記錄的數(shù)據(jù)不足時,那些不太活躍的用戶可能很難得到精準的相似度匹配。“黑天鵝事件”本身就超出了人類的認知范圍,因此人類對于此類事件的數(shù)據(jù)掌握也是十分匱乏的,算法就更不可能提前獲得任何數(shù)據(jù)進行算法模型的訓練。
新聞業(yè)現(xiàn)行的幾種算法雖對于數(shù)據(jù)取向的側重點有所不同,但本質上都是采用針對某對象分類聚合的方式實現(xiàn)的,即聚類分析。聚類分析最為核心的步驟為“聚類和分組”,實質上與我們常說的“個性化分類”是一致的。在聚類的過程中要對大量數(shù)據(jù)進行符合算法邏輯的歸類和再分發(fā),其結果是篩掉了作為“極值”的極端個例,保留了樣本充足、具有諸多共同特征的“均值”個體?!昂谔禊Z事件”無法作為“均值”納入個性化推送系統(tǒng),因為“黑天鵝事件”本身就是極端個例,采納作為偶然性事件的“極值”進入算法系統(tǒng)會干擾“聚類”步驟的推進,算法尚未聰明到能夠對“黑天鵝事件”產生正確有效的認知。一方面,“黑天鵝事件”缺乏歷史數(shù)據(jù),包括用來界定“黑天鵝事件”的數(shù)據(jù)和用戶偏好數(shù)據(jù);另一方面,“黑天鵝事件”即便以某種數(shù)據(jù)形式進入了算法系統(tǒng)的處理層,也會因為無法實現(xiàn)匹配和對接而被擱置。
算法在提升效率、解放人力方面的優(yōu)勢不可抹殺,但算法營造的“技術黑箱”亦備受詬病。一般而言,算法推送的傳播過程由信息的正向傳播和誤差反向傳播過程組成,其間的誤差反向傳播過程可以理解為機器內部的自我反饋與修正。
事實上,這種自我反饋與修正的能力是十分有限的,它僅僅是在人類賦予其數(shù)據(jù)用作機器“知識”的前提下進行的。也就是說,所謂的自我反饋與修正只是聽命于預設數(shù)據(jù)作出的條件反射而已。這使得算法在這一過程中完全服從于被設定的數(shù)值——符合預設值域則訓練停止,反之則訓練重新開始直到符合預設值域為止。機器的這種自我判斷的正誤與否都是未知的,因為深度學習算法在運用的過程中缺少了“常識”,我們沒有辦法運用人類的思維去揣度機器的決策過程,算法在這種缺乏“常識”的情況下形成了技術黑箱。作為沒有任何背景知識的算法,企圖對尚處于人類知識盲區(qū)的“黑天鵝事件”作出有效的回應是有些困難的。
算法在“黑天鵝事件”報道中暴露了缺陷與失靈,而人工編輯則體現(xiàn)出其獨特的優(yōu)勢。他們能夠憑借自身認知將優(yōu)質內容呈現(xiàn)出來,在新聞價值和事實真?zhèn)蔚呐袛喾矫嬗兄鴫旱剐詢?yōu)勢,而且人工編輯在履行社會公共職能方面的責任也是算法無力實現(xiàn)的。
算法的邏輯是用戶喜歡看什么就推送什么,而不能依據(jù)內容質量作出判斷。如果過分重視用戶的需求而忽略了對新聞初衷的把握,就可能會帶來“標題黨”泛濫。更為重要的是,將新聞內容的生產與推送工作完全交給算法可能導致用戶產生信息繭房和信息過載兩種極端體驗的復雜交織。算法推薦在前期可以根據(jù)數(shù)據(jù)進行匹配從而達到對信息有效推送的目的,而到了后期用戶經(jīng)過大量同一主題推薦內容的閱讀后,一方面在浩如煙海的信息流中無從選擇,另一方面被推送的又是大量已讀過的無用內容。因此,人工編輯在優(yōu)質新聞內容的生產和推送工作中的地位是不可撼動的。在“黑天鵝事件”報道中人工編輯可以彌補算法的不足,在算法對突發(fā)事件不敏感、滯后的情況下作出快速反應。
對于新聞價值和事實真?zhèn)蔚陌盐?,人工編輯是?yōu)于算法機器的?!芭c人類相比,機器最大的軟肋在于缺乏人的思辨能力、情感表達能力和創(chuàng)造能力”。即便當前的深度學習算法已經(jīng)很智能了,但是在新聞專業(yè)性面前與人工編輯相比還是稍遜一籌。人工編輯對于新聞價值和事實真?zhèn)蔚呐袛嗷凇敖?jīng)驗”“常識”“價值觀念”,而這些恰恰是算法無法獲得的屬性,尤其是在“黑天鵝事件”面前。盡管機器人選手曾在棋局擊敗過人類,但這并不意味著機器已經(jīng)“進化”到了比人類更聰明的程度。當算法和人工編輯面對同樣未知來源的信息,人工編輯可以從信息源頭追溯其真實性,而這一點是算法無法做到的;當算法對于作為突發(fā)事件的“黑天鵝事件”的滯后反應結束時,即使它能夠作出反應了,也很難鑒別有關信息的真?zhèn)巍?/p>
媒體技術環(huán)境的遷移引起了記者和編輯行業(yè)的流動,加上“新聞業(yè)內在的‘品質’與‘效率’的天然沖突”使得記者職業(yè)逐漸被邊緣化,而編輯的職能卻在聚合時代進一步擴大。人工編輯在執(zhí)行傳統(tǒng)意義上的審核把關任務的同時,還兼顧了一部分記者職能,并且承擔了媒體運營角色。面對這樣的角色定位,人工編輯不得不進一步考量自身所承擔的公共責任,在新聞內容的選擇和推送上更加謹慎而富有使命感。不僅如此,人工編輯履行好社會公共職能還有利于政府和公眾有效規(guī)避風險。
不管是“黑天鵝事件”的報道還是整個新聞業(yè),“從長遠看,人和算法之間的關系將更加緊密,可能達到‘人機聯(lián)姻’的狀態(tài)”。所謂“人機聯(lián)姻”即“人機協(xié)同”,它是基于不片面強調人工編輯和算法的前提下盡可能讓兩者達到平衡狀態(tài)。
媒介始終是人的延伸,而不能夠越過人的權利,否則就是喧賓奪主。聚合時代的算法在新聞業(yè)固然占據(jù)了重要地位,但人工編輯在把關和決策方面依然需要扮演好主體角色。首先,算法并不具備完善的把關機制,僅憑算法過濾信息的設想是不可行的,這就要求整個新聞生產和分發(fā)流程中算法居于人工編輯之下,把關由人工編輯完成。具體而言,在選題階段,算法發(fā)現(xiàn)和挖掘選題,人工編輯進行篩選;在采集階段,算法整合素材,人工編輯采集核心素材;在新聞生成階段,算法做初稿,人工編輯審核再修改;在新聞分發(fā)階段,算法進行個性化推送,人工編輯進行補充性推送。其次,算法并未擁有完整的價值體系,不能做到新聞的生產與推送完全符合主流價值觀,此時人工編輯的作用凸顯,他們在決策中既能堅守新聞業(yè)的公共屬性,又可以協(xié)調新聞業(yè)公共性與商業(yè)性之間的關系;既要利于提升用戶體驗、實現(xiàn)新聞商業(yè)盈利,還要在決策中體現(xiàn)價值取向、引領主流價值觀。但不可否認的是,人工編輯在對把關和決策擁有主導權的同時,也應該積極擁抱算法,在算法的幫助下實現(xiàn)更有效率、更高質量的新聞生產與推送。只有人工編輯了解算法并懂得如何運用算法,才能將其優(yōu)勢最大程度地發(fā)揮出來,使之更好地協(xié)助人工編輯做好新聞工作。
盡管算法推薦因信息繭房、算法黑箱等原因受到批評,但這并不意味著我們要全盤否定算法推薦。算法推薦最好的存在方式是以輔助工具的角色幫助人工編輯處理新聞工作,但在使其作為輔助工具的過程中,更為重要的是改進算法技術以更好地適應需要。算法推薦的輔助功能可以概括為對信息的初步篩選、新聞內容的簡單寫作和新聞內容的輔助推送,前兩項工作中算法的優(yōu)勢不言而喻,但在新聞內容的推送中,盡管算法可以進行大面積的個性化推送,當面對“黑天鵝事件”或者重要社會公共事務的推送時依然需要人工編輯來解決。當前提倡的PGC(專業(yè)生產內容)和MGC(機器生產內容)相結合的方式,實際上就是強調人工編輯作為主體、機器作為補充的一種方式。
無論如何,至少算法推薦作為一種先進的技術手段輔助人工編輯進行新聞工作,能夠很大程度上提升新聞工作的效率,在此基礎上我們要做的是擊破算法“常識”壁壘使其更智能,因此可以從算法模型的完善和數(shù)據(jù)共享入手。媒體數(shù)據(jù)庫互通、共享則是解決該問題的基本途徑。
近些年人們對于“人工”與“智能”的理解太過片面,過度依賴技術便利而導致控制權逐漸喪失。面對無法預測的突發(fā)事件,這種缺陷便充分凸顯?!昂谔禊Z事件”報道中算法暴露出了其不夠智能的劣勢,而人工編輯則顯現(xiàn)出了作為人相對于機器而言獨有的優(yōu)勢。但這并不意味著新聞工作者要完全拋棄算法回歸人力,我們要做的是認識技術局限性的同時把握技術帶來的優(yōu)勢并加以利用。在今后的新聞報道中,我們也應樹立人為主體、機為輔助的觀念,只有人機協(xié)同才是新聞業(yè)走向質與量并行的最佳通道。