摘 要:算法機(jī)制深嵌于各類網(wǎng)絡(luò)軟件之中,幫助用戶篩選內(nèi)容、推送個(gè)性化新聞。在為人們提供便利的同時(shí),算法也帶來了相應(yīng)的媒介倫理問題,如“過濾氣泡”現(xiàn)象的產(chǎn)生。為了提高用戶體驗(yàn)度,算法機(jī)制也需要不斷改善。本文旨在提供對(duì)算法技術(shù)利弊的分析思路與看法。
關(guān)鍵詞:算法機(jī)制; 過濾氣泡; 虛假新聞; 后真相
中圖分類號(hào):G2? ? ? ? ?文獻(xiàn)標(biāo)識(shí)碼:A? ? ? ? ? 文章編號(hào):1006-3315(2021)11-131-002
1.算法機(jī)制產(chǎn)生“過濾氣泡”
“過濾氣泡”作為一個(gè)隨著新媒體應(yīng)運(yùn)而生的現(xiàn)象,這個(gè)概念的提出必然少不了討論和爭議?!斑^濾氣泡”是一個(gè)形象化的比喻,是指智能算法幫助用戶篩選、過濾掉用戶不感興趣的信息,讓用戶仿佛身處在一個(gè)“網(wǎng)絡(luò)泡沫”的環(huán)境里,被自己感興趣和想看到的信息和內(nèi)容緊緊包裹著。國內(nèi)外學(xué)界目前存在著各類關(guān)于“過濾氣泡”的看法和態(tài)度,可謂正負(fù)對(duì)半開?!禩he Filter Bubble》這本書曾探討過“我們是否真的需要人化的新聞”這樣的問題,在這本書中作者提到了媒體個(gè)人化后帶來的危害:算法越聰明,它越有可能知曉你對(duì)什么內(nèi)容感興趣,你的閱讀就會(huì)變得越來越窄化。桑斯坦在2016年提出過“信息繭房”的觀點(diǎn),就已指證過智能算法的發(fā)達(dá)會(huì)帶來信息同質(zhì)化的可能性。而尼葛洛龐帝在2017年也曾提出過“我的日?qǐng)?bào)”(The Daily Me)的觀點(diǎn),同樣透露出如此憂思。國外學(xué)者Pariser揭露過智能算法能夠基于用戶的歷史瀏覽足跡,采集和推測(cè)用戶的興趣偏好,為搜索引擎、社交軟件和新聞門戶網(wǎng)站提供增強(qiáng)用戶黏性的手段和途徑。如果所有軟件都為了迎合用戶的興趣偏好,就會(huì)導(dǎo)致用戶能夠接觸到的內(nèi)容的多樣性大大降低[1]。
“過濾氣泡”幫助用戶推送個(gè)性化新聞,也極易導(dǎo)致后真相(post-truth)情形的催生和加劇,這是其源頭的算法機(jī)制帶來的特殊影響。2016年11月22日,牛津字典宣布“后真相”成為年度詞,被用來描述那些“客觀事實(shí)在形成輿論方面影響較小、而訴諸情感和個(gè)人信仰會(huì)產(chǎn)生更大影響”的情形。人們?cè)凇斑^濾氣泡”的影響下極易相信和傳播虛假新聞,對(duì)遲到的真相和反轉(zhuǎn)不再重視。
2.“過濾氣泡”是一把雙刃劍
“過濾氣泡”是算法推送下的必然產(chǎn)物。算法給人們帶來了一定的便利性,提高了信息分發(fā)效率。但同時(shí)也會(huì)帶來一些負(fù)面影響,其過濾機(jī)制對(duì)受眾存在一定的蒙蔽性。因此,需要我們辯證地去看待。
2.1“過濾氣泡”的正向效果
“過濾氣泡”的正向效果主要面向使用者、內(nèi)容生產(chǎn)者和平臺(tái)開發(fā)者,對(duì)傳受雙方都提供了便利和智能化的服務(wù)。
一方面,“過濾氣泡”可以實(shí)現(xiàn)精準(zhǔn)推送,提高效率。對(duì)使用者來說,算法的精準(zhǔn)推送很大程度上能夠節(jié)省自己搜索信息的時(shí)間成本和精力,優(yōu)化了用戶體驗(yàn)和使用感。而對(duì)軟件平臺(tái)來說,算法的智能細(xì)化可以增強(qiáng)用戶黏性,使得發(fā)布者與接收者之間產(chǎn)生雙向互動(dòng)?!斑^濾氣泡”的存在能夠進(jìn)一步強(qiáng)化用戶的選擇性接觸機(jī)制,充分滿足其個(gè)性化需求。
另一方面,“過濾氣泡”可以幫助媒介平等賦權(quán),實(shí)現(xiàn)雙贏。智媒時(shí)代沖擊了傳統(tǒng)媒體一家獨(dú)大的格局,傳統(tǒng)傳媒被迫將“把關(guān)者”的部分權(quán)力讓渡給算法。智能推薦的過濾機(jī)制極大地削弱了大眾傳媒議程設(shè)置的權(quán)力,打破了媒體壟斷,提高了受眾自主權(quán),在個(gè)人議程設(shè)置方面平等賦權(quán)[2]。個(gè)性化的算法推薦還改變了傳統(tǒng)的信息傳受模式,對(duì)傳者進(jìn)行了去中心化,讓平臺(tái)、使用者、內(nèi)容生產(chǎn)者三者的關(guān)系達(dá)到了一種微妙的平衡。使用者可以根據(jù)自身需求,在不同媒介平臺(tái)上通過不同的表達(dá)形式來獲取信息。而內(nèi)容生產(chǎn)者也得到了更多的推薦和曝光度,作者的收益和權(quán)益均得到了一定程度的保障。媒介的推薦機(jī)制讓用戶可以挖掘和發(fā)現(xiàn)自己潛在的興趣愛好,也讓許多優(yōu)質(zhì)內(nèi)容生產(chǎn)者在短時(shí)間內(nèi)就能完成上萬粉絲的孵化。在這個(gè)信息過載的時(shí)代,算法機(jī)制無疑是一個(gè)十分聰明的發(fā)明,幫助傳受雙方實(shí)現(xiàn)雙贏。
2.2“過濾氣泡”的負(fù)面影響
“過濾氣泡”也可能會(huì)帶來許多負(fù)面影響,如過度接觸個(gè)性化信息導(dǎo)致信息繭房的發(fā)生,以及群體極化、隱私泄露、算法歧視等倫理問題。很多時(shí)候,算法機(jī)制還有可能被有心之人利用,導(dǎo)致真相被一同“過濾”,成為了制造和擴(kuò)散虛假新聞的源頭和幫兇。
2.2.1助長虛假新聞傳播擴(kuò)散
“過濾氣泡”是把“雙刃劍”。它個(gè)性化推薦的算法機(jī)制容易助長虛假新聞的產(chǎn)生和擴(kuò)散,導(dǎo)致許多隱蔽但同樣具有價(jià)值的多元化信息,包括代表了后真相和反轉(zhuǎn)的新聞,因?yàn)闆]有商業(yè)價(jià)值和看頭,就很有可能被“過濾氣泡”一同過濾掉了。
雖然主流媒體在設(shè)置議程、報(bào)道新聞的時(shí)候進(jìn)行了初次篩選,但在智媒時(shí)代中應(yīng)運(yùn)而生的算法機(jī)制,分割和剝奪了這一部分話語權(quán)。智能推薦算法的本意是在“信息超載”時(shí)發(fā)揮作用,幫助用戶篩選信息、推薦內(nèi)容,并且應(yīng)該是在征得用戶同意的前提下幫助其決策。然而目前市面上大部分運(yùn)作的算法機(jī)制,都不是在這種情況下才“出面”發(fā)揮作用,而是成了平臺(tái)和內(nèi)容的決策之臣,幫助內(nèi)容篩選用戶,為了吸引流量,反而是擴(kuò)散了虛假新聞和社會(huì)焦點(diǎn)事件,導(dǎo)致社會(huì)風(fēng)氣變得十分不安定。隨著使用微博、抖音的用戶群體越來越龐大,很多年輕用戶獲取新聞的渠道已經(jīng)變成了查看微博“熱搜”,而不再是傳統(tǒng)的觀看新聞聯(lián)播的方式。殊不知微博等軟件本質(zhì)上還是商業(yè)性質(zhì)的,其背后的新聞發(fā)布之手是由開發(fā)商操控的。因此很多時(shí)候會(huì)在社會(huì)效益和商業(yè)利益之中選擇后者,成為虛假新聞的源頭制造者和擴(kuò)散者。
以拉扎斯菲爾德為主要代表的“選擇性接觸假說”認(rèn)為:“受眾在接觸大眾傳播的信息時(shí)并不是不加選擇的,而是更愿意選擇接觸那些與自己既有立場(chǎng)和態(tài)度一致或接近的內(nèi)容,而對(duì)與此對(duì)立或沖突的內(nèi)容有一種回避的傾向。[3]”“過濾氣泡”使得用戶對(duì)公共議題的關(guān)注被削弱了,本來是為篩濾用戶興趣偏好相關(guān)信息的保護(hù)膜,同時(shí)卻也成了隔絕其他有用信息的玻璃罩。“過濾氣泡”侵犯了用戶的自主選擇權(quán),使得用戶不知道什么信息被算法自動(dòng)過濾了,這才是“過濾氣泡”真正令人擔(dān)心之處,導(dǎo)致信息窄化、虛假新聞的出現(xiàn)。如果長期處于“過濾氣泡”擬態(tài)環(huán)境的包裹之中,會(huì)讓用戶的思維模式慢慢趨向單一化和片面化,付出巨大代價(jià)澄清的真相不再被人們所重視。用戶個(gè)體減少了接觸內(nèi)容的多樣性,更會(huì)成為互聯(lián)網(wǎng)中的“井底之蛙”。而那些部分觀點(diǎn)相同或相近的群體由于長期過度接觸同樣的信息內(nèi)容,也會(huì)演變出現(xiàn)“群體極化”的現(xiàn)象[4]。
2.2.2隱私泄露
信息技術(shù)的發(fā)達(dá)也增加了用戶信息泄漏的不安全性。互聯(lián)網(wǎng)大數(shù)據(jù)將用戶的數(shù)據(jù)信息收集起來,不僅提供給了“過濾氣泡”實(shí)現(xiàn)的前提條件,也滋生了隱私泄露的溫床。馬克·波斯特曾提出過一個(gè)叫做“超級(jí)全景監(jiān)獄”的概念,認(rèn)為互聯(lián)網(wǎng)中的數(shù)據(jù)庫給每個(gè)人都構(gòu)建了身份和人格,每個(gè)人都變成了不自知的囚犯,而數(shù)據(jù)庫則擔(dān)任了監(jiān)獄中看守人的身份。有國外學(xué)者認(rèn)為,由于算法系統(tǒng)的復(fù)雜運(yùn)作以及其自動(dòng)化決策的不透明,用戶難以在數(shù)據(jù)收集層面享有知情權(quán)以及對(duì)數(shù)據(jù)共享的監(jiān)督權(quán)。平臺(tái)和用戶簽訂的用戶隱私條款有時(shí)就是一張廢紙,根本無法對(duì)用戶隱私起到保護(hù)作用。算法雖然沒能經(jīng)過用戶的同意和允許直接窺探到用戶隱私,但算法依然能夠通過關(guān)聯(lián)、分類等數(shù)據(jù)處理技術(shù)來拼合出用戶畫像,在獲取群體特征之后就構(gòu)成了侵犯整個(gè)群體的信息隱私。
2.2.3“圈層化”的過濾歧視
有學(xué)者認(rèn)為“過濾氣泡”的背后隱含著潛在的算法歧視。算法幫用戶篩選內(nèi)容,同時(shí)也在為信息篩選要推送的用戶,這就體現(xiàn)了一種圈層化的歧視,如用戶性別歧視[i]。在2015年,卡內(nèi)基·梅隆大學(xué)和國際計(jì)算機(jī)科學(xué)研究所(ICSI)合作展開過一項(xiàng)模擬調(diào)研,對(duì)一款定制軟件AdFisher模擬了不同性別的用戶瀏覽行為,當(dāng)用戶性別為男性時(shí)對(duì)招聘網(wǎng)站進(jìn)行訪問,會(huì)更有幾率看到高薪的招聘崗位,但模擬女性身份時(shí)看到的幾率卻很小。這個(gè)調(diào)查結(jié)果可以佐證算法過濾會(huì)導(dǎo)致圈層化歧視的觀點(diǎn)。同樣存在著的還有針對(duì)消費(fèi)者進(jìn)行不同價(jià)格的產(chǎn)品推送的歧視。很多算法開發(fā)者在設(shè)定商品推薦算法程序時(shí),會(huì)把用戶對(duì)價(jià)格的敏感性作為評(píng)判消費(fèi)能力的標(biāo)準(zhǔn)。如果一個(gè)用戶經(jīng)常購買同類商品中價(jià)格比較低廉的,算法就會(huì)自動(dòng)判定該用戶消費(fèi)力低下,久而久之,低價(jià)商品就會(huì)常常被推送給該用戶。把消費(fèi)者根據(jù)過往消費(fèi)行為和習(xí)慣劃分為了不同的階層,這就體現(xiàn)了算法機(jī)制暗藏著的歧視。
3.減輕算法負(fù)面影響的對(duì)策
有學(xué)者認(rèn)為,算法的倫理問題的背后,折射出的是人們對(duì)超出常識(shí)理解范圍的信息技術(shù)的戒備心和憂慮。然而倫理關(guān)切是屬于“應(yīng)然”的問題,與客觀存在的“實(shí)然”問題有著本質(zhì)區(qū)別。對(duì)“過濾氣泡”的辯證批判性看待是屬于“應(yīng)然”問題,而不是在“實(shí)然”世界中進(jìn)行全盤否定。因此,那些一聽到快手、抖音等字眼就搖頭嘆氣的人,認(rèn)為這些軟件的推送機(jī)制是傻瓜算法,是對(duì)使用者智商的“算計(jì)”和降智。這顯然是一種陳腔濫調(diào)和迂腐的偏見。不能因?yàn)槠滹@著鑲嵌的偏好推送,就將算法機(jī)制的發(fā)展態(tài)勢(shì)和可優(yōu)化性一棍子打死。只要設(shè)法減輕算法的負(fù)面影響,使之納入算法倫理的可控制范圍內(nèi),并加以有效監(jiān)管,就能實(shí)現(xiàn)算法的進(jìn)步,并使其幫助人類社會(huì)實(shí)現(xiàn)便捷化和高效化。
減免“過濾氣泡”可能會(huì)帶來的負(fù)面影響,主要從兩方面入手:一方面是要從算法層面進(jìn)行自身的系統(tǒng)優(yōu)化,另一方面則是從用戶層面提升自身媒介素養(yǎng)和法律道德素養(yǎng)。
3.1推送機(jī)制透明化
優(yōu)化算法機(jī)制,增強(qiáng)算法透明度,杜絕算法“黑箱”,使其更加人性化和溫和,讓用戶看得見什么類型的信息被過濾掉了。算法透明度是實(shí)現(xiàn)安全的必要前提,因此提高算法透明度是解決算法倫理問題的關(guān)鍵突破口。允許用戶獲取更多關(guān)于算法運(yùn)行機(jī)制的信息,以便用戶能夠監(jiān)督算法對(duì)用戶信息的使用 (Mittelstadt et al.,2016)。要不斷提高“濾網(wǎng)”的過濾度,使其盡可能地在不妨害媒體倫理的前提下,最大限度為用戶提高篩選信息的效率。國家出臺(tái)的網(wǎng)絡(luò)政策也要完善相關(guān)的設(shè)計(jì)法規(guī),進(jìn)行過濾和細(xì)化。
無論是從所肩負(fù)著的社會(huì)責(zé)任和使命出發(fā),還是為了自身長遠(yuǎn)利益的考量,運(yùn)營商和軟件開發(fā)者都應(yīng)該加大預(yù)算投入,有效改進(jìn)高質(zhì)量的產(chǎn)品、技術(shù)和服務(wù),盡一切努力提高競(jìng)爭力。優(yōu)化和細(xì)化算法機(jī)制,提高算法的多功能性,引導(dǎo)抖音用戶走出舒適區(qū),不斷拓寬新的興趣愛好。算法應(yīng)該幫助用戶打破“過濾氣泡”可能會(huì)構(gòu)成的“信息壁壘”,如此才能固定原有用戶,吸引新用戶。還能在某種程度上緩解傳統(tǒng)文化傳播內(nèi)容與形式融合的困難。
3.2提高用戶自身素養(yǎng)
算法機(jī)制導(dǎo)致的“過濾氣泡”現(xiàn)象不可避免地會(huì)帶來很多問題和隱患。隨著智能算法越來越深度嵌入信息網(wǎng)絡(luò)的情形,許多用戶擔(dān)心自身的隱私和權(quán)益正在被日益侵犯,對(duì)算法推送的機(jī)制產(chǎn)生了一定的抵觸心理和厭惡情緒,認(rèn)為這是導(dǎo)致虛假新聞泛濫的重要原因之一。為了規(guī)避“過濾氣泡”可能會(huì)帶來的不良影響,用戶應(yīng)自覺主動(dòng)地拓寬自己所使用的新聞源和信息源,從多個(gè)不同渠道和途徑對(duì)信息進(jìn)行篩選、檢索和比對(duì)。作為使用者,在享用智能算法帶來的便利的同時(shí),還要能夠看到算法可能會(huì)帶來的信息窄化、圈層化歧視、隱私泄露等不良后果。除此之外,使用者要不斷拓寬自身知識(shí)面,提升自身素養(yǎng),遵守法律法規(guī),即使在虛擬網(wǎng)絡(luò)中也要時(shí)刻不忘道德的約束。用戶還應(yīng)利用算法的精準(zhǔn)推送、快速分法和渠道拓寬等功能,努力創(chuàng)造個(gè)人價(jià)值和社會(huì)價(jià)值,為社會(huì)作出自身貢獻(xiàn)和良性反饋。
總之,我們要正確看待“過濾氣泡”可能會(huì)帶來的實(shí)際影響,引導(dǎo)更多互聯(lián)網(wǎng)用戶能夠辯證地看待“過濾氣泡”現(xiàn)象及其利弊,不再單純因?yàn)楹ε缕湮:π远芙^接納算法機(jī)制,而是要努力學(xué)會(huì)充分利用其高效分發(fā)和精準(zhǔn)推送的優(yōu)點(diǎn),不斷拓寬自己獲取信息的視野和渠道,實(shí)現(xiàn)自身利益的最大化,同時(shí)也能為社會(huì)作貢獻(xiàn)。
參考文獻(xiàn):
[1]蘇俊斌.“過濾氣泡”與算法時(shí)代的鄒忌——關(guān)于“過濾氣泡”的一種非決定論觀點(diǎn)[J]青年記者,2020(18):20-22
[2]董方旭,康許培,趙樂群.算法推薦機(jī)制下“過濾氣泡”的形成、影響與規(guī)避[J]新聞愛好者,2020(11):44-49
[3]郭慶光.傳播學(xué)概論[M]北京:中國人民大學(xué)出版社,2011:77
[4]尤可可,馬廣軍.“強(qiáng)連接”與“圈層化”:社交媒體人際連接的雙螺旋[J]視聽界,2020(01):46-51
作者簡介:劉素君,1998年5月生,女,漢族,江蘇蘇州人,碩士研究生,研究方向:新聞傳播學(xué)。