□陳明
新媒體時代,一些新媒體樣態(tài)以算法推薦為核心技術,追蹤受眾喜好獲得了巨大成功。傳統(tǒng)媒體則哀鴻遍野:上百家都市報晚報關閉或??芏嚯娨暸_的受眾群體、廣告金額斷崖式下滑。算法推薦在技術的加持下野蠻生長,一路開疆拓土,看似風光無兩。但一味走“拿來主義”的發(fā)展之道,引起了其他媒體的不滿。近些年來不斷有媒體起訴今日頭條等公司侵權,要求其進行賠償。而內容低俗、虛假信息等負面資訊更是如影隨形,屢見報端。
2017年9月,針對算法推薦引發(fā)的亂象,人民網連發(fā)三篇評論。9月19日《一評算法推薦:不能讓算法決定內容》指出,內容推薦不能少了“總編輯”,再好的傳播渠道也要有“看門人”,即使在技術為王的時代,也不能完全讓算法決定內容。同日刊發(fā)的《二評算法推薦:別被算法困在“信息繭房”》指出,先進的技術、精密的算法可能會放大某些消極影響,進一步縮減理性、開放、包容的公共空間,從而失去在爭議中達成共識的機會。20日刊發(fā)《三評算法推薦:警惕算法走向創(chuàng)新的反面》,指出技術和算法一旦失去節(jié)制的美德,就可能誤入歧途,走向創(chuàng)新的反面①。
2018年3月31日,央視《新聞直播間》和《東方時空》報道了快手、火山小視頻上出現(xiàn)的數(shù)以百計的未成年媽媽視頻,批評其社會道德和底線缺失。2018年7月4日,人民日報發(fā)表評論文章《算法推薦:引發(fā)低俗劣質信息精準推送》,文中指出了算法推薦劣質信息的三大特質:真假難辨,價值導向錯亂,缺乏深度。
包括央視、人民日報在內的中央級媒體連連炮轟算法推薦。這充分說明,我國一些新聞聚合媒體在算法推薦上存在過度迷思,已經走入了“歧途”。
德國哲學家馬克斯·韋伯在1906年的著作《新教倫理與資本主義精神》中,提出了工具理性和價值理性的概念。他認為價值理性是行為人注重行為本身所能帶來的價值,即是否實現(xiàn)社會的公平、正義、忠誠、榮譽等,甚至不計較手段和后果,而不是看重所選擇行為的結果。工具理性,就是通過實踐的途徑確認工具(手段)的有用性,從而追求事物的最大功效,為人的某種功利的實現(xiàn)服務。工具理性是通過精確計算功利的方法最有效達到目的的理性,是一種以工具崇拜和技術主義為生存目標的價值觀②。工具理性和價值理性,也是法蘭克福學派的批判理論中的重要概念。
工具理性和價值理性在新媒體領域被重視的程度近些年來出現(xiàn)了明顯的區(qū)別。為了在激烈的媒體競爭中脫穎而出,眾多新媒體從業(yè)者和新媒體公司積極研發(fā)和推廣各類新媒體樣態(tài),微博、微信等各種APP近些年來應運而生。新聞聚合類媒體的勃興,正是在這樣的社會大背景下。為了獲得更大的市場份額,獲得更多的收入,工具理性得到了充分的重視。眾多的新聞聚合類媒體紛紛開發(fā)各種軟件,應用算法推薦,利用龐大的大數(shù)據資源來分析受眾的喜好,改變了傳統(tǒng)的“一對多”的傳播模式,變成了“一對一”的、單向的、個性化的信息傳播。這些軟件根據受眾的喜好,不斷地給受眾建?!爱嬒瘛?,并依據這些資料和數(shù)據,不斷地向億萬受眾推薦個性化的信息。結果就是短短幾年,以今日頭條為代表的新聞聚合類媒體迅猛發(fā)展起來,獲得了幾億用戶,公司也成長為擁有億萬資產的巨無霸企業(yè)。追求效率和效益的最大化,以實用主義和功利主義為表現(xiàn)的工具理性在這些媒體的發(fā)展過程中一目了然。
在一味追求工具理性的時候,弘揚主流價值觀、進行正確輿論引導、倡導優(yōu)良的社會風氣等媒體社會責任卻被棄之腦后,價值理性讓位于工具理性。兩者之間本來應該是良性互動,相輔相成的關系,而今卻出現(xiàn)了嚴重的錯位。
算法推薦所引起的諸多問題,需要進行有效的規(guī)制。在筆者看來,可以從如下幾個方面進行。
新的技術帶來新的突破,它在獲得較強的社會反響的同時,也會突破一些禁區(qū),闖入法律的空白地帶,帶來政府監(jiān)管方面的問題。我國近些年來出臺了諸多法律法規(guī),加強了對網絡的監(jiān)管,如2017年6月1日開始施行的《中華人民共和國網絡安全法》。
對于那些涉及影響公眾基本權利,涉及重大社會公眾利益的算法,應通過立法對分發(fā)內容、內容判斷標準、推薦標準、干預手段等關鍵性環(huán)節(jié),進行更強的公共監(jiān)管③。而對于其他內容,可以通過制定行業(yè)標準等方式進行監(jiān)管。同時,基于現(xiàn)代社會的法制需要,對于一些現(xiàn)代公眾關注的如社會習俗、個人隱私、人權的保護等準則,要納入到算法推薦的法律規(guī)制中。
在實踐層面,媒體則要完善和改進現(xiàn)有的算法。具體的做法有如下幾點:
1.彌補既有算法的漏洞。算法不是魔法,必然會存在一些漏洞,需要及時進行彌補,完善和改進現(xiàn)有算法。今日頭條總編輯張輔評2017年底接受媒體采訪時說,算法本身并不完美,需要改進和完善。今日頭條有超過50%的員工是技術人員,每個星期都會對算法和模型進行一次優(yōu)化和調整。一年內今日頭條的算法已經進行了4次模型迭代④。彌補的過程,既要參考國內媒體的經驗,如果有條件的話,也要參考國外聚合類媒體的經驗。
2.加強內容安全管理。平臺上往往有數(shù)以萬計的內容發(fā)布者,這些發(fā)布者每天發(fā)布的信息數(shù)以萬計,為了防止這些海量信息中出現(xiàn)一些不良信息,必須要加強內容安全管理。首先,對內容發(fā)布者進行分級。一些長期發(fā)布合格、高質量信息的發(fā)布者,可以評為優(yōu)秀,這樣的發(fā)布者可以少審核或者定期審核,以減少審核工作量。其次,加強人工審核。機器計算有其便捷之處,但人工的審核不可或缺,需要增強人工審核的力量,對平臺發(fā)布的內容進行人工關鍵詞檢索審核和隨時的抽檢,以保證內容安全。最后,加強對違反者的懲處力度。根據發(fā)布內容的問題嚴重程度,給予警告刪帖、發(fā)布權限被有限期封禁、發(fā)布權限被無限期封禁等處罰,并同時建立違反者檔案,對違反規(guī)定者記錄在案,對這些記錄的對象進行重點巡查和監(jiān)控。
在我國,網絡社會心態(tài)長期都是業(yè)界和學界關注的話題。由于網絡的虛擬性,一個熱點話題出現(xiàn),往往在網絡上演變?yōu)榭谒臑R,板磚橫飛,“站隊”開撕。不以事件的是非曲直為出發(fā)點,而完全演變?yōu)榱龊土x氣之爭。網絡社會心態(tài)不是公平持正,而是充滿戾氣和暴力。長期在其中浸染,年輕人的心態(tài)也會大受影響,出現(xiàn)扭曲和失衡。
這種現(xiàn)象在新聞聚合類媒體上同樣如此,而且更趨嚴重。因為算法推薦的原因,使用這些APP的用戶傾向于接觸自己喜歡的信息,而APP通過算法了解了這些用戶的喜好,便會不斷地推送此類信息給這些用戶。長此以往的不斷重復,公眾便會沉浸于自己的世界里不能自拔,對不同的觀點更加排斥和抵觸,這就是所謂的“繭房效應”?!袄O房效應”的出現(xiàn)使得網絡社會心態(tài)的對立更加嚴重,不得不防。
為了改變這種情況,受眾必須主動逃出自己構建的虛擬的“繭房”,多接觸不同的新聞和觀點,以平和理性的態(tài)度認識和了解外面的世界,重塑理性人格。
注釋:
①羽生.人民網三評算法推薦:警惕算法走向創(chuàng)新的反面[EB/OL].
http://opinion.people.com.cn/n1/2017/0920/c1003 -29545718.html.
②百度百科.工具理性[EB/OL].
https://baike.baidu.com/item/%E5%B7%A5%E5%85%B7%E7%90%86%E6%80%A7/9323701.
③倪戈.網絡時代,應如何規(guī)范“算法”[N].人民日報,2018-07-04(019).
④建文.智能推薦:認知和改進完善都需要時間——訪今日頭條總編輯張輔評[J].新聞戰(zhàn)線,2017(23).