朱一婷 王威
關鍵詞 個性化算法;公共性;信息繭房;算法權力;數(shù)字鴻溝
中圖分類號 G2 文獻標識碼 A 文章編號 2096-0360(2021)05-0090-03
在當今“萬物互聯(lián),人機共生”的時代背景之下,“人工智能+算法”已經走上了風口浪尖,成為社會討論的核心焦點。那什么是算法?簡單來說,就是由計算機來模擬某些人的思維和智能,通過“算法”來實現(xiàn)在存在一定的輸入的條件下,由計算機來完成特定功能的輸出,替代或增強人類的某些決策任務與能力[1]。算法正利用其高效性不斷地滲入到政治、經濟、文化以及社會生活的方方面面。在新聞傳播領域,算法有著更為具象的應用,比如機器人新聞寫作、分布式新聞生產、數(shù)據(jù)新聞等新聞生產方式的出現(xiàn)。在為社會帶來一系列便利的同時,算法作為一種新型媒介正在重構社會的公共空間,并以其特有的權力重塑社會結構,這給達成社會共識,凝聚社會力量帶來巨大的風險挑戰(zhàn)。
當下,算法最廣為人知的是“個性化算法”這一名稱,核心是以用戶為中心,搭建起以關系范式為主的利基市場,力求商業(yè)價值的最大化,這也是其技術邏輯所在。而所謂算法的“公共性”就是算法與公共利益相關,通過其公共性來實現(xiàn)社會效益的最大化,而不是使商業(yè)利益凌駕于公共利益之上,從而實現(xiàn)維持社會秩序,凝聚社會共識的作用,而這正是基于算法的社會邏輯來思考的。但是,由于商業(yè)價值和社會價值的沖突,算法正深陷于個性化與公共性二元對立的“囹圄”之中。因此個性化算法的公共性缺失會帶來一系列社會風險,容易導致整個社會的“圈層化”及“非理性化”,人們難以進行有效的社會溝通,從而蘊藏著對于社會秩序的威脅。
1.1 “信息繭房”下的網絡群體極化
最早研究網絡群體極化現(xiàn)象的是美國哈佛大學教授凱斯·桑斯坦,他認為網絡群體極化現(xiàn)象是部分人初始狀態(tài)時對某一話題存有偏向,經過“交流、討論與閱讀等”,這類人朝著原有方向繼續(xù)偏移,最后形成更加極端與固執(zhí)的認知[2]。智媒時代,個性化算法無疑成為網絡群體極化現(xiàn)象的加速器。個性化算法通過對用戶畫像進行精準描繪,以打造“千人千面”的內容使用體驗,將用戶從冗余信息中“拯救”出來,節(jié)約其時間成本并構建貼近用戶的沉浸式體驗,最終將用戶牢牢控制在平臺或媒體的信息網絡中。表面上看,這是一項惠及普羅大眾的社會性進展,但在算法所構建的信息空間中,由于商業(yè)邏輯大于公共邏輯,所以追求個性化不僅無法構建起公共空間,反而會因為信息壁壘的存在而導致個人或群體把自我禁錮在狹小的“信息繭房”之中。受困其中的人群由于同類信息和意見的“侵蝕”,認知行為逐漸趨同,極易誘發(fā)群體極化現(xiàn)象。在此情景之下,社會各個圈層之間因無法達成理性的溝通對話,從而導致公共空間無序化。
1.2 “算法權力”下的社會危機
在一個媒體和代碼無處不在的社會,權力越來越存在于算法之中[3]。算法權力主要是通過其不透明機制實現(xiàn)的,即除了輸入和輸出端,人們無法知道算法的內部運行機制和原理。在此情境之下,由于“技術賦權”的天然權力以及數(shù)據(jù)、平臺所附帶的控制權,資本可以輕易地將自身的利益訴求植入算法,從而謀取利益最大化。其中就涉及“技術中立論”的問題,事實上,技術中立僅僅是個假象,技術無意識必然會導致價值的無意識植入,因此算法模型設計中的“歧視性設定”以及“價值偏向”等將成為社會發(fā)展進程中的“絆腳石”。當個性化算法應用到新聞生產與分發(fā)的流程之中時,算法所擁有的信息資源的配置權不斷擴大,但與此相對的是責任機制并不清晰,這為算法黑箱提供了可乘之機,同時一些諸如民意操縱、種族歧視、性別歧視等潛在問題也被隱藏和掩蓋起來。原本旨在通過算法的自主決策系統(tǒng)能夠為人類社會生活各種事務提供公正、客觀、可靠的算法推薦及生成機制,事實上正在改變社會秩序和規(guī)則。
1.3 “新數(shù)字鴻溝”下的階層固化風險
“數(shù)字鴻溝”最早是由美國學者蒂奇諾1970年提出的“知溝理論”發(fā)展而來,特指在互聯(lián)網時代,不同群體使用媒介的能力不同以及媒介內容獲取行為的不同而形成的信息獲取差異,與“知溝理論”相比,它弱化了不同社會階層群體間信息形成的知識差距。然而在智能媒體這一時代背景之下,算法正在開辟新的、復雜的數(shù)字鴻溝,在個體的生活中以不可預見、往往被忽視的方式出現(xiàn)[4],同時將社會階層固化的風險再次展現(xiàn)出來。個性化算法標簽化信息本身就帶有一定的“偏見”色彩,它將不同的人群分化開來,在一定程度上影響甚至控制著用戶的信息接觸與使用能力,想要彌合“數(shù)字鴻溝”愈發(fā)困難。比如“假靳東事件”,一名60多歲的女性在抖音平臺上看到了“假靳東”賬號,用靳東的動態(tài)畫面配上其他聲音,該女性就相信了這是真的靳東,并導致家庭關系出現(xiàn)裂痕。表面上看這是該女性缺乏網絡騙局辨識能力所致,實質上是平臺算法機制掌握了其受教育程度低、身處農村、缺少關愛等信息,從而為她精準推薦諸如此類的信息,這也就加大了她或者說此類人群與社會之間的鴻溝。因此,個性化算法加劇了社會各階層間的不平等現(xiàn)象,想要真正實現(xiàn)社會公平和信息自由還要做出更大的努力。
如今,我們國家正處于社會轉型期,各種新技術和新思潮的迭起,使社會各階層的貧富差距加大,同時輿論領域日益呈現(xiàn)出兩極分化的對立趨勢,從而使社會陷入一種不穩(wěn)定狀態(tài)。因此,我們亟需轉變算法技術使用的思維邏輯,尋找搭建個性化算法的公共性適配之路。
2.1 手握“韁繩”,明確算法倫理規(guī)制
俗話說“無規(guī)矩不成方圓”,算法也不例外,它猶如一把雙刃劍,如若不在法律條文上對其予以規(guī)制,那么算法將如一匹“脫韁的野馬”擾亂社會秩序。
當前國內外更多的是在人工智能及網絡信息安全方面出臺一些相關法律法規(guī),然而對于算法本身還未有成形的規(guī)范。比如我國2017年施行的《網絡安全法》以及2018年也開始實施的《信息安全技術個人信息安全規(guī)范》等法律,都對于用戶數(shù)據(jù)的收集和使用等方面做了相應的規(guī)范,它們的確會對以數(shù)據(jù)為底層邏輯的算法使用產生一定的規(guī)制作用,但這些規(guī)范太過于宏觀,無法解決復雜的算法倫理問題。相比之下,國外發(fā)達國家出臺的關于人工智能和機器人倫理的規(guī)制更具有前瞻性,對于未來算法新聞法規(guī)的出臺更具借鑒意義。譬如在人工智能作品的權利歸屬問題上,歐盟法律事務委員會建議歐盟委員會就與軟硬件標準、代碼有關的知識產權提出一個更平衡的路徑,以便在保護創(chuàng)新的同時,也促進創(chuàng)新。同時,對于計算機或者機器人創(chuàng)作的可版權作品,需要提出界定人工智能的“獨立智力創(chuàng)造”的標準,以便可以明確版權歸屬。由于近些年來算法已對社會產生結構性的變革,因此明確算法倫理規(guī)制是必然,也是趨勢。
對于我國來說,明確算法倫理規(guī)制最為緊要的是以下方面。一方面,推行算法透明機制,在這一過程中,算法的設計者和應用者需要對算法在新聞領域中的生成和應用機制予以解釋,公眾有其知情權的必要性。同時各大平臺必須定期發(fā)布算法透明度報告,公開算法的技術特征和主要技術內容,明確算法做出決策的過程,揭示算法在設計、應用和數(shù)據(jù)安全方面的技術要點以及相應風險。另一方面,明確算法機制的責任歸屬問題。當機器人生產出假新聞時,應該由新聞編輯還是算法設計者承擔后果呢?同樣,還有版權問題以及侵犯隱私等問題的責任歸屬。只有將這些法律條文進行細化,才能使算法以安全、透明、為人類做貢獻的方向發(fā)展,當然這并不是說把算法關進了制度的“籠子”里,而是通過制定法律來促進算法的公共性發(fā)展。
2.2 擺脫唯“數(shù)據(jù)”論,以人本原則實現(xiàn)算法的多元性
算法并不是以技術中立性而獨立存在的,它是與政治、經濟、文化等共同構建的社會場域中互為影響。同時,算法的背后是人的意識,因此脫離了人去談算法是完全不切實際的。由于算法以提供個性化信息為主要邏輯,因此其在社會整體性內容需求方面有所缺失,這就需要人來進行平衡。算法設計者可以人本原則不斷優(yōu)化算法,通過多種算法推薦方式的疊加來為用戶帶來多樣化的信息需求,同時將公共性的價值觀注入進算法程序之中,以幫助用戶逃離“信息繭房”以及算法偏見、隱私泄露等倫理問題。目前我國技術公司所使用的主要是內容推薦、關聯(lián)規(guī)則推薦及協(xié)同過濾推薦機制,其在不斷完善之中,但歸根結底尚未脫離開個性化的技術邏輯,即以用戶為中心,采取數(shù)據(jù)至上的規(guī)則。比如抖音采取“賽馬機制”,其主要由八級流量池所組成,當用戶視頻通過審核后會被丟入初級流量池中,之后算法技術會根據(jù)該視頻的點贊量、評論量、轉發(fā)量等數(shù)據(jù)情況決定是否推薦到下一級流量池中,雖然每升一級都要經過人工審核,但經過算法推薦過的信息已經窄化了工作人員的視野,選擇權依舊掌握在算法的手中。事實上,國外媒體已經在算法公共性建構方面做出有益嘗試,如英國衛(wèi)報開設“刺破你的泡泡”專欄,華爾街日報設“紅推送,藍推送”模式等。因此擺脫唯“數(shù)據(jù)”論,在算法程序中加入公共性價值迫在眉睫。
2.3 因人而異的用戶媒介“算法素養(yǎng)”
“媒介素養(yǎng)”是自互聯(lián)網時代以來的一個老生常談的話題,并且通常與用戶相伴而生。在社會輿論眾聲喧嘩的時代,提升用戶的媒介素養(yǎng)被看作是平衡技術衍生問題的一劑良藥。尤其隨著智能時代的到來,算法為用戶賦予了更多的權力,并解決其面對的海量信息與注意力資源無法適配的情況,但用戶思維仍然停留在大眾時代以媒體主導信息的定勢中,因此,沖破原有的思維定勢,培養(yǎng)用戶的“算法思維”成為解決算法倫理問題的落點。
但媒介素養(yǎng)真有那么“神奇的療效嗎”?培養(yǎng)用戶的算法思維又是一件很簡單的事情嗎?答案是否。之所以媒介素養(yǎng)會被予以重視,是因為無論媒體、平臺、算法設計者等相關方面做出多大的努力,最終起決定作用的還是用戶,如果用戶自身不尋求改變,將會被束縛在個人狹小的圈層里而離社會公共空間越來越遠。但在實踐層面上,用戶的社會階層、知識背景等大不相同,歸根結底是社會經濟地位的不同,這會導致他們對媒介信息以及算法的接受能力大不相同。因此“提高媒介素養(yǎng)”這一論斷本身就帶有一定的偏見色彩,它針對的是高水平的知識性人才,并不是社會上的一般大眾。這也意味著媒介素養(yǎng)的提升無法脫離社會運行機制,要想使其發(fā)揮作用,還需要因人而異,通過政府、社區(qū)、學校等社會各領域的介入制定切合實際的舉措,而不是去空談“媒介素養(yǎng)”。陳昌鳳曾在算法的透明度相關論述上提到用戶的話語權最容易被忽視,因而,在倫理原則的制定、倫理判斷、倫理抉擇以及信息公開等所有實施算法透明度的環(huán)節(jié)中,都要考慮用戶的認知、態(tài)度與需求,這對促進“異質新聞/內容實踐網絡”中各主體的對話,改善各主體在倫理話語權方面的不平等具有重要意義[5]。
隨著科學技術的不斷更迭,我們的媒介邏輯也隨之改變,從Web1.0時代的內容連接到Web2.0時代的關系連接,再到Web3.0時代的價值連接,隨之而來的是社會矛盾的出現(xiàn)以及結構的變遷。算法作為智能時代影響社會變革的重要因素早已滲透至社會生活的方方面面,如若不采取一定措施予以規(guī)制,其倫理問題將會成為社會發(fā)展的不穩(wěn)定因素。因此,社會各攸關方亟需要轉變思維邏輯,將視角從算法的個性化轉向其公共性,在減弱算法倫理問題帶來的社會影響的同時,使算法成為“有溫度”而非“冰冷”的技術。
參考文獻
[1]吳靖.“算法”具有自由意志嗎?:算法主導社會行為背后的幾個悖論[J].中國出版,2019(2):7-11.
[2]凱斯·桑斯坦.網絡共和國:網絡中的民主問題[M].上海:上海人民出版社,2006:47.
[3]Lash,Scott.Power after Hegemony:Cultural StudiesinMutation?[J].Theory,Culture & Society,2007,24(3):55-78.
[4]楊洸,佘佳玲.算法新聞用戶的數(shù)字鴻溝:表現(xiàn)及影響[J].現(xiàn)代傳播(中國傳媒大學學報),2020,42(4):145-154.
[5]陳昌鳳,張夢.智能時代的媒介倫理:算法透明度的可行性及其路徑分析[J].新聞與寫作,2020(8):75-83.