□張璐
近些年來,算法推薦系統(tǒng)不斷完善,預測用戶喜好和排名生成的準確性也不斷提高。然而,當一個推薦系統(tǒng)在預測用戶的興趣時過于精確,就會產(chǎn)生負面影響,即用戶接收到的內(nèi)容多樣性較少,其中最關鍵的一個就是“過濾氣泡”的產(chǎn)生。由于“過濾氣泡”的存在,用戶只接觸他們感興趣的內(nèi)容,用戶的其他信息需求就有可能被忽略掉了。然后,由于用戶根據(jù)新聞推薦接收信息,就會出現(xiàn)回音室效應,群體極化現(xiàn)象也會應運而生。一個處于“過濾氣泡”中的用戶被推薦的新聞強化了觀點,即使這種觀點在新聞領域不是基于事實,一旦它們成為輿論形成的方式,這種力量就非常強大了。
因此,新聞報道一旦成為信息和觀點形成的重要來源,“過濾氣泡”在這種情況下就會產(chǎn)生不可忽視的影響。目前國內(nèi)有許多APP,例如今日頭條、抖音等借助算法推薦技術收集用戶喜好,進行新聞推薦,以此來吸引、維持和鞏固客戶,但由此產(chǎn)生的“過濾氣泡”也窄化了人們的認知范圍。
算法推薦概念的首次出現(xiàn)是在1995年3月的美國人工智能協(xié)會上,由卡耐基梅隆大學的Robert Armstrong率先提出。[1]算法推薦技術即基于信息收集的大數(shù)據(jù)計算,在海量數(shù)據(jù)挖掘基礎上精準定位用戶的喜好,進行內(nèi)容推薦或提供個性化服務,主要有四種算法:基于內(nèi)容推薦、協(xié)同過濾推薦、關聯(lián)規(guī)則推薦、關聯(lián)規(guī)則推薦。[2]隨著算法技術的不斷優(yōu)化,推薦方法的實時性、精確性、創(chuàng)新性越來越強。目前算法推薦技術已應用到諸多領域,其中在新聞領域運用非常普遍,例如機器人新聞、個性化推送新聞,算法推薦技術也成為新聞傳播學界的研究熱點之一。
2011年3月,伊萊·帕里澤在TED的一次演講中率先提出了“過濾氣泡”的概念,是指一種“智能隔離狀態(tài)”:受媒介技術的影響,不同的意見信息分離,用戶被隔離在自己的思想泡沫中。[3]“過濾氣泡”的概念一經(jīng)提出便引發(fā)眾多學者對其進行研究和討論,認為“過濾氣泡”概念指出了互聯(lián)網(wǎng)巨頭能夠依托媒介技術對信息流動進行控制和壟斷,它暗示用戶在使用互聯(lián)網(wǎng)時要切實關注自身的隱私保護,保持清醒的態(tài)度。因為對于善的公共生活而言,透明且多樣化的信息環(huán)境至關重要。
算法的推薦機制。算法推薦技術基于大數(shù)據(jù)計算,精準定位用戶的喜好,提供個性化服務,實質(zhì)上就是基于海量數(shù)據(jù)的一套編碼程序。用戶的點擊、瀏覽都會被系統(tǒng)收錄,視作一個自變量在數(shù)據(jù)庫中進行計算、篩選,最終對受眾反饋出特定的內(nèi)容,那么這個過程也就是“過濾氣泡”形成的過程。這個算法推薦系統(tǒng)并不是一次作業(yè)生成,而是實時計算,實時反饋,最終為了形成針對用戶的一套定制化內(nèi)容。
隨著大數(shù)據(jù)時代的到來,算法推薦以媒介應用為依托已經(jīng)滲透了人們網(wǎng)絡生活,例如網(wǎng)易云音樂的每日推薦、今日頭條的新聞推送還有淘寶的“猜你喜歡”。算法推薦正借助互聯(lián)網(wǎng)“入侵”人們的生活,在這樣一種機制下,用戶的自主選擇權逐漸被讓渡了出來,不知不覺將自己困于“過濾氣泡”之中而無法自拔。
受眾的過度依賴?!斑^濾氣泡”的形成原因復雜,不僅僅存在技術原因,還有人的心理和情感需求。在紙媒時代,大眾傳媒會對內(nèi)容進行第一次篩選,而后用戶會根據(jù)自己的興趣對內(nèi)容進行第二次篩選。而在大數(shù)據(jù)時代,平臺會將用戶的“二次篩選”記錄下來,投其所好進行分發(fā),從而受眾所擁有的二次選擇權也會被逐漸的讓渡。在算法推薦所提供的“定制服務”下,用戶原有的態(tài)度觀點的表達被肯定,異己的信息不再出現(xiàn),不斷順從用戶的心理認同,滿足用戶的情感需要,久而久之用戶便對算法推薦所營造的信息環(huán)境形成依賴。最終便形成用戶順從內(nèi)心意愿,選擇和相信推薦的“私人過濾氣泡”。
互聯(lián)網(wǎng)的全景監(jiān)視。在大數(shù)據(jù)時代,用戶的完整數(shù)據(jù)在互聯(lián)網(wǎng)中幾乎是透明的,用戶的互聯(lián)網(wǎng)行為都被完整地記錄下來并進行數(shù)字化編碼。在互聯(lián)網(wǎng)中,已不再存在絕對的私人領域,用戶的隱私隨時都可能遭到泄露。法國哲學家??绿岢觥叭氨O(jiān)獄”概念,而互聯(lián)網(wǎng)何嘗不是360度無死角監(jiān)視用戶隱私的數(shù)字化全景監(jiān)獄?美國理論家馬克·波斯特在“全景監(jiān)獄”的基礎之上提出了“超級全景監(jiān)獄”這一概念,每一個用戶的虛擬畫像就是超級全景監(jiān)獄中的“囚犯”。但是,身處該處境中的用戶未意識到自己已經(jīng)被監(jiān)視了,這種隱蔽的監(jiān)視無法引起用戶的重視與警覺,便仍舊沉迷在互聯(lián)網(wǎng)所創(chuàng)造的“過濾氣泡”中。
正面影響。一、實現(xiàn)內(nèi)容精準分發(fā)。在信息爆炸時代,互聯(lián)網(wǎng)上的信息量以幾何倍數(shù)瘋狂增長,在海量且碎片化的信息中鎖定用戶所需要的信息并非易事,算法推薦技術帶來的“過濾氣泡”為每一個用戶提供了一層信息篩選過濾膜,該過濾膜是定制的、獨一無二的,使符合個人數(shù)字畫像的信息精準地推送給用戶。在新聞業(yè),算法推薦技術的利用大大提高了新聞分發(fā)的效率;在廣告業(yè),算法推薦也會根據(jù)客戶需求、喜好進行精準的廣告推送,實現(xiàn)節(jié)約成本,各取所需。例如今日頭條APP為了利用算法進行精準推薦,從三個角度對用戶進行數(shù)據(jù)收集:第一個角度是用戶所瀏覽、喜愛的內(nèi)容特征;第二個角度是用戶的個人特征,如年齡、性別等,形成一個關于用戶的個人畫像;第三個角度使識別用戶所處的環(huán)境,周圍的人事物。三個維度共同作業(yè),幾乎能夠精準實現(xiàn)內(nèi)容分發(fā)。目前算法技術仍在開發(fā)中,將來或許會更加細化,那么對于信息的匹配率也會越高。
二、擴大用戶信息接觸范圍。由于算法推薦技術會根據(jù)用戶畫像來推薦內(nèi)容,因此其帶來的“過濾氣泡”中的信息內(nèi)容也可能為了迎合受眾而呈現(xiàn)類型單一化的特征。但是,這種個性化推薦未必會對所有人造成“信息窄化”。2021年,國內(nèi)學者潘旭偉、王瑞奇通過設計實證研究方案,借助三分圖和LDA算法探究真實新聞平臺下用戶視野的變化,發(fā)現(xiàn)用戶視野不僅未受到窄化,反而有拓寬的趨勢。[4]用戶在接受算法推薦的信息的時候,雖然大多根據(jù)用戶畫像推薦的,但仍然是用戶所未接觸過的信息,能夠在主題的縱向信息維度有所拓寬。因此,目前算法推薦所帶來的“過濾氣泡”在一定程度上能夠擴大用戶的信息接觸范圍。
三、實現(xiàn)個性化服務。在傳統(tǒng)紙媒時代,報紙對新聞進行幾次篩選,刊登新聞內(nèi)容,用戶購買進行閱讀,幾乎是報紙登什么用戶看什么。而大數(shù)據(jù)時代,新聞媒體提供個性化服務已成為家常便飯,“過濾氣泡”使用戶在獲取自己感興趣的信息時不用再花費多余的金錢成本和時間成本,平臺自動會投其所好,不僅能夠得到自己想要的內(nèi)容,還會獲取更多相關信息,這對用戶來說何嘗不是一種便利?目前流行的算法類APP,如抖音短視頻APP會根據(jù)用戶的基本資料和在某種視頻類型上的停留時間等特點去精準推送某一類型的信息,對那些不太會用智能手機的中老年人來說,這種算法所提供的個性化服務便拉近了他們與這個時代的距離。
負面影響。一、助長信息壁壘的建立。不可否認,“過濾氣泡”通過大數(shù)據(jù)篩選信息確實提高了信息分發(fā)的效率和準確度。但是,也是由于“過濾氣泡”的過度篩選,將許多其他對用戶有價值的信息阻擋在外。[5]在傳統(tǒng)媒體時代,編輯往往會對新聞進行篩選、加工,將最重要的、最有價值的信息呈現(xiàn)在受眾面前。在那時,公眾對于公共信息的關注度還是相當高的。而如今的算法推薦新聞往往受商業(yè)利益的驅(qū)使,更愿意投其所好,根據(jù)用戶的興趣和需要分發(fā)新聞信息。隨著算法在人們?nèi)粘I钪械膹V泛應用,由于“過濾氣泡”的存在,人們對公共議題的關注度日益下降,只要不符合自己興趣或立場的信息都會被“過濾氣泡”排斥在外。因此,就出現(xiàn)了喜愛體育新聞的用戶很難看到科技新聞的信息,用戶被局限在“過濾氣泡”所設定的狹小的圈層之內(nèi),長此以往,信息壁壘便產(chǎn)生了。
二、促進群體極化效應。由于“過濾氣泡”的定制化屬性,便形成了針對個人的、獨一無二的網(wǎng)絡信息世界?!八饺诉^濾氣泡”通過記錄,描繪用戶的個人畫像來篩選屬于用戶的個人信息,但問題在于這是一個不可視的篩選過程,用戶無法決定什么信息可以進入過濾氣泡,更重要的是,用戶也看不到那些被剔除的信息?!斑^濾氣泡”對用戶制造的信息壁壘,用戶只能接受到為他量身定制的,只屬于他私人圈子的話題,那么這樣一來,極易產(chǎn)生“信息繭房”“回音室效應”。不管是“信息繭房”“回聲室效應”還是“過濾氣泡”都極易造成一個現(xiàn)象,那就是群體極化現(xiàn)象,當爭議話題出現(xiàn)時,群體觀點在回音室中碰撞便產(chǎn)生“群氓”。
三、導致內(nèi)容質(zhì)量下降?!斑^濾氣泡”的存在不僅僅制造了用戶的信息壁壘,更可怕的是,它形成了這樣一種互聯(lián)網(wǎng)風氣,便是以吸引用戶注意力為導向的信息推薦原則。這樣一種原則會使“后真相”要比陳述事實對受眾產(chǎn)生的影響更大,會使內(nèi)容生產(chǎn)者更傾向于“訴諸感情”。因此,當受眾的興趣成為內(nèi)容推送的核心標準時,不可避免內(nèi)容生產(chǎn)就會迎合用戶需求,因此就會伴隨著內(nèi)容質(zhì)量的下降。這也是“過濾氣泡”在內(nèi)容生產(chǎn)者和用戶間相互作用產(chǎn)生的一大危害。
四、造成個人隱私的泄露。算法推薦的前提是對用戶個人信息的收集,收集關于用戶的全部信息,形成針對用戶個人的數(shù)字畫像,再利用大數(shù)據(jù)進行信息篩選、推送。由于當今互聯(lián)網(wǎng)中存在的商業(yè)利益,在這個過程中涉及到的用戶信息未必是用戶本人確認授權的,這就涉及到了個人隱私的侵害。在互聯(lián)網(wǎng)的“全景監(jiān)獄”下,個人是不存在隱私的,人們所有的信息都會被視作自變量參與到大數(shù)據(jù)的計算當中。并且當今互聯(lián)網(wǎng)在個人隱私泄露方面的法律界限并不清晰,這就存在不法分子進行個人信息買賣。因此,“過濾氣泡”的形成也伴隨著個人信息的泄露。
優(yōu)化算法推薦技術,增大用戶視野。用戶難以知曉“過濾氣泡”背后的算法程序設計和自我被個性化推薦影響的程度,那么算法推薦的開發(fā)者應該承擔起自己的一份社會責任,首先是將“過濾氣泡”生產(chǎn)內(nèi)容透明化,其次應該優(yōu)化算法推薦技術,而不是僅僅以商業(yè)利益為導向去無腦推薦。對于如何優(yōu)化算法推薦技術,新聞媒體和互聯(lián)網(wǎng)產(chǎn)業(yè)應積極開展“戳泡運動”:第一,算法推薦的尺度可調(diào),能夠讓用戶決定“過濾氣泡”的生成和影響程度。第二,在為用戶進行個性化推薦,生產(chǎn)“過濾氣泡”的同時,也為用戶在同一版面提供“泡泡”之外的內(nèi)容。第三,經(jīng)用戶同意后,在用戶瀏覽信息時向其推送與用戶立場,或政治傾向不同的信息,以平衡用戶的信息失衡。
尊重隱私,喚醒受眾算法感知。在大數(shù)據(jù)時代,個人信息成為最有價值的財富但也成為最容易被侵犯的個人財產(chǎn)。算法推薦要產(chǎn)生“過濾氣泡”就需要大量收集用戶信息,那么一定會涉及到的用戶隱私泄露問題。由于“過濾氣泡”的產(chǎn)生機制不透明,受眾在互聯(lián)網(wǎng)中瀏覽信息時不知不覺個人信息就被“征用”了,如果算法技術在尊重用戶隱私的前提下進行,那么大多數(shù)用戶就可以對自己所處的“過濾氣泡”有一個更清晰的認知,從而加以防范,采取行動進行“戳泡”。
提升算法素養(yǎng),主動“戳泡”??朔惴◣淼摹斑^濾氣泡”不僅需要優(yōu)化算法技術,受眾個人也要提高自己的媒介素養(yǎng),積極“戳泡”。雖說算法技術能夠給用戶設定信息可能的接受范圍,但無法決定用戶看什么,關注什么。在用戶發(fā)現(xiàn)自己被“個性化”的時候,應該警覺起來做出行動,例如關閉個性化推薦按鈕,或者瀏覽多個信息源,主動擴大信息推送的范圍。最重要的是,不能對“過濾氣泡”產(chǎn)生依賴,要主動出擊,打破信息壁壘。
在大數(shù)據(jù)時代,公民如此依賴互聯(lián)網(wǎng),誰都無法完全擺脫“過濾氣泡”所帶來的影響。上文所提到的,算法推薦所形成的過濾氣泡其實是一把雙刃劍。一方面它提高的新聞生產(chǎn)和分發(fā)的效率,極大地減少了成本,增加了效益;另一方面,也引發(fā)了許多媒介倫理問題,例如信息壁壘的建立,公民隱私的泄露,內(nèi)容質(zhì)量的下降等。因此,人們應該辯證的看待“過濾氣泡”所產(chǎn)生的影響,在充分利用其“優(yōu)點”的前提下積極“戳泡”。