摘要:算法推薦是指依托互聯(lián)網和大數據技術,對用戶的閱讀和行為進行跟蹤并分析得出用戶畫像,再根據用戶需求進行個性化信息推送。誠然,這在很大程度上降低了用戶的信息獲取成本,為平臺帶來了可觀的收益,但同時,算法推薦也帶來了諸如隱私侵犯等傳播倫理失范的問題,需要及時進行規(guī)制,以促使該技術更好地服務于人類。
關鍵詞:算法新聞;智媒時代;新聞倫理;人性原則
一、算法分類
數字媒體環(huán)境帶來了媒體生態(tài)的巨大變革,技術的顛覆性使傳統(tǒng)的新聞倫理遭到質疑。[1]以內容為基礎的算法主要是尋找受眾喜好與其所關注內容特性之間的關聯(lián)。算法需要收集并分析用戶的特性以及在線活動的相關資料來構建他們的愛好模型,使用諸如詞匯切割等方法對內容文字進行特征提取,再選擇那些具有高相關度的元素組成推薦清單。這種策略有助于提高用戶的黏附力,但可能會引發(fā)隱私信息標記處理導致的數據保護問題的討論。例如,斯坦福大學的研究團隊開發(fā)了一種新穎的技術,可以根據社交媒體上的互動情況判斷人們的性別傾向,準確率高達91%,這立刻引來大眾的不滿,同時,也讓人們開始思考該項技術的道德問題。
協(xié)作學習方法的核心原理是根據人的特性來劃分他們所屬的人群,再依據這些特定的人類屬性為其喜好提出相應的建議或推介內容。這樣一來,就將分析單元有效縮小至社群層面,從而降低了解決問題的難度和所需的數據輸入數量。然而,這一方案也存在一些道德上的問題。比如,它很容易導致信息封閉化現象。另外,將人群劃分為不同的類別,也有可能導致某種形式的社會排斥或種族主義傾向,造成一系列負面影響等。
這種推薦方法是依據實時熱門程度的計算方式,以每個時刻的瞬間瀏覽次數為主要考慮指標,向使用者推送那些在某個特定期限內熱度極高的文章。這一策略有效地處理了 “標題黨”與 “低俗信息”的問題,但對這些內容的抵抗力略顯不足。
二、倫理失范在算法新聞實踐中的原因
由于技術的進步并未完全適應,導致算法在運算中出現了偏差。算法新聞是人工智能時代的產物,對其倫理問題的審視可以追溯至人工智能的倫理問題研究。[2]無論如何介入新聞制作和傳輸的所有階段,算法的行為始終是不可知的,其所產生的新聞都或多或少地包含主觀性和不公平因素,并且每種特定的計算規(guī)則和排名方法都會突出 “優(yōu)先權”和 “選擇性”。決定哪種話題成為新聞內容,將何種信息放入其中,為每一篇新聞分配多少推薦數量等計算過程都可能產生偏差。要消除這種偏差,我們可以回到傳統(tǒng)的新聞價值觀 “平衡”和 “混合”上,即通過人為安排的方法來實現,以確保新聞主題和類型的平衡分布,從而讓公眾盡可能多地了解具有重大社會意義的信息。
盡管科技進步迅速,但由于缺乏對新聞的人工審核環(huán)節(jié),使得人工智能審核過程中出現的問題愈發(fā)嚴重。許多算法新聞并未經過嚴格的人工復核便被發(fā)布至公眾面前,引發(fā)了一系列關于真實性和用戶權益保護的問題。
現有的法規(guī)系統(tǒng)尚待完善和優(yōu)化,以涵蓋更全面的內容監(jiān)督領域。當前,對于人工智能科技內部的分級管理及外部的監(jiān)控機制尚未完全建立起來。從內部管理的角度來看,盡管許多專業(yè)的傳媒機構已經在信息收集和編寫過程中嚴格控制了新聞內容的價值觀和社會效果,但仍有大量劣質或虛構作品被產出;而在新聞審查和發(fā)布方面,這些專業(yè)媒體并沒有有效的手段來防止信息 “狹隘化”,發(fā)布的內容過于相似且缺乏嚴謹的事實核實。至于外部監(jiān)管制度,我國目前的法律法規(guī)中有關人工智能科技的使用規(guī)定和刑事處罰標準還有很多空白,導致法律約束力和政府監(jiān)管力度不夠,從而引發(fā)了一系列道德淪喪現象。
內在的不均衡性廣泛存在于數字化時代的新聞觀念中,這是由馬克斯·韋伯提出的關于人類理性的分類所揭示出來的。他將人類理性劃分為兩類:一類是工具理性,關注目標導向的行為;另一類則是價值理性,其焦點在于價值觀驅動的行為。他進一步指出:“盡管只有工具理性能夠推動社會生產的進步,但是如果過度強調工具理性,價值理性就會逐漸減弱,人也會被束縛和控制?!?/p>
潘綏銘指出,雖然大數據被廣泛應用于社會科學研究,但其并沒有突破傳統(tǒng)的小數據框架,即通過對生活的篩選與切割,破壞了人們的生活和人格完整性。他強調,我們不能把個體的人類看作無序的數據集合,而應該以一種更加真實、全面的方式去理解并采取行動。大數據技術應用于傳媒業(yè),改變了傳統(tǒng)意義上 “新聞是對新近發(fā)生事實的報道”這一原則,凸顯了數據新聞蘊含的預測性。[3]
“把關人”的概念由盧因于其著作 《群體生活的渠道》中提出,是一種關鍵性的元素,存在于傳統(tǒng)的傳媒制作與傳輸過程中。然而,隨著互聯(lián)網時代的來臨,“把關人”這個角色的功能已經發(fā)生變化并分散開來:權限正在逐步由過去的官方機構轉移至社交媒體上的領導人物或博客作者,甚至是普通網友手中;而那些主要的大眾通訊社正慢慢失去他們的影響力—尤其是在智能化時代,綜合型的信息提供商越來越受到人們的關注并擁有廣泛的使用人群,從而使他們對大眾信息的控制力降低了很多。這些整合型報紙或文章發(fā)布器并非專業(yè)的出版物,因此并不太注重道德問題,其內容生成更多依賴于機器學習系統(tǒng),而不是人工審核機制,導致監(jiān)督作用變得越發(fā)模糊不清。
三、算法推薦技術引發(fā)的傳播倫理失范問題
(一)“工具理性”泛濫,新聞公共性原則被漠視
馬克斯·韋伯曾提出 “工具理性”的概念,這與算法推薦技術效益至上的價值取向不謀而合。由于受到算法推薦系統(tǒng)的驅動,新聞制造商為了吸引受眾和獲得盈利,可能會在報道中出現忽略新聞道德規(guī)范或新聞職業(yè)精神的行為。因此,從某個角度來看,算法推薦系統(tǒng)也在一定程度上有助于瓦解傳統(tǒng)的新聞篩選價值觀,更加強調新聞內容中的娛樂元素,以滿足受眾的需求。然而,那些有益于公眾利益的信息卻因為缺乏娛樂性而不被重視,使得新聞漸漸喪失了其公共性質。
(二)技術權力濫用,收集數據侵犯用戶隱私
算法推薦技術的內在邏輯就是抓取用戶日常使用數據,以分析其興趣愛好和行為習慣,從而進行針對性內容推送,其中存在過度收集用戶數據、侵犯用戶隱私的情況。例如,此前滴滴出行App違法違規(guī)收集用戶信息,嚴重侵犯了用戶個人隱私。網絡時代,用戶信息被實時記錄,將面臨很大的隱私泄露風險,其中離不開算法推薦技術權力濫用的助力。
(三)強化刻板印象,加劇社會不平等
算法推薦技術可以借助機器學習的力量來持續(xù)理解并滿足用戶的需求,進而提升推薦內容和方式。然而,這可能導致個人自我封閉在信息的 “繭房”中,加深對某些特定人群的固定觀念和偏見。一項相關調查顯示,新聞推送中涉及婦女、老人等弱勢群體時,往往容易引起更多的注意。例如,超過六成的被訪者認為 “女司機”“女大學生”這類帶有性別關鍵詞的信息更容易登上熱門話題榜,同時,性別問題也常常引發(fā)廣泛的熱烈討論。平臺運用 “用戶畫像”及 “打標簽”的方法區(qū)分不同用戶,進一步強化了現實生活中存在的刻板印象,妨礙了社會的進步和發(fā)展。
(四)“馬太效應”與擬態(tài)環(huán)境問題
算法分配策略可能導致部分內容的傳輸影響力增強,其他內容卻變得難以察覺。如果任由這種情況持續(xù)下去,“馬太效應”將會逐漸加強。盡管并不是所有內容都具有相同的重要性,但它們都需要獲得展示的機會,特別是涉及 “延遲回報”卻包含重大公眾利益的內容,我們需要盡量擴大其覆蓋范圍。這樣既是為了防止 “馬太效應”的發(fā)生,同時也為了更好地滿足用戶的多層次需求尤其是少數群體的需求。雖然模擬環(huán)境無法完美地復制實際世界,但也必須盡力展現出世界的多樣性。然而,算法在這個過程中并不一定能產生積極的效果。
(五)算法偏見問題
一些研究員認為:由于人類文化的偏見特性,大數據這個由人造的社會結構構成的數據集自然會含有深刻的偏見。為了迎合新聞受眾的信息偏好,基于算法的推薦,新聞平臺的算法推薦系統(tǒng)往往會在篩選信息的過程中產生偏頗和非透明性的信息過濾,滋生的 “信息繭房”會導致倫理價值固化。[4]然而,大數據算法只是揭示了這些偏見并將其總結起來。我國大數據運用領域的重要專家周濤公開表示,他擔心這種因系統(tǒng)設計師引入的起始偏見可能會隨著數據累積及算法運行逐漸增強和擴大。
(六)“算法囚徒”問題
倫理是理性的產物,是高度抽象、提煉后的關于秩序的表達方式,而個體 (包括專業(yè)新聞生產者、自媒體、公眾、算法程序員)是以感性為前提條件而存在的肉身,因此包含高度理性和道德的傳播倫理理念。[5]盡管 “算法囚徒”和 “信息繭房”的問題并非由算法直接引發(fā),然而,它們卻有可能通過算法得到加強。此外,算法還可能導致人類在其他領域淪為 “囚犯”,如讓個人變成平臺的俘虜,或是讓人們過于沉溺于個性化推薦算法所提供的滿足感和自我約束能力的喪失。而個性化算法正好符合這種人性需求,其也在利用便利與快樂的方式逐漸使人們對其形成依賴,并悄無聲息地被其束縛住??此剖菫榱私o每個人提供個性化服務,實際上卻成為操控個人的新工具。尼爾·波茲曼在其著作 《娛樂至死》中提到的兩個威脅正逐步融合在一起。
四、算法倫理問題解決思路
從新聞自律的角度來看,我們需要增強記者的 “算法素質”,使他們始終保持自律與規(guī)則意識。這意味著他們在處理新聞事件的過程中應確保信息的真實性且不可夸大事實,同時,他們需嚴格遵照新聞出版的相關法規(guī)行事,以嚴謹的態(tài)度對待自己的職責,公正而無偏見地解讀和傳播相關新聞內容。盡管算法推薦本身并不具備任何價值,但其設計人員以及背后的企業(yè)、組織、機構等都具備了某種價值。[6]盡管現在許多媒體已經開始使用算法技術,但是,能夠熟練掌握這些技術的專家并不多,大部分人對于智能算法的理解還僅限于表層。為了解決這個問題,有必要加大對算法教育的投入力度,以此來提升記者在這方面的能力。此外,無論何時何地,恪守自律和規(guī)定都是新聞工作人員必須遵守的基本職業(yè)道德準則。我們要堅定正確的新聞導向,提高我們的業(yè)務技能,勇敢面對挑戰(zhàn),持續(xù)自我更新,努力成為專業(yè)的新聞工作者。
利用人工智能來擴展人性的深度內涵—打破思想框架限制,全方面拓展個人價值觀。在這個數字化時代,大部分的數據傳播都是由智能化系統(tǒng)依據個人的行為特征所決定的,這使得我們更容易陷入一種 “自我封閉的世界”。這種現象會導致我們的視野變得狹隘而單一化,從而難以跳出自身的認知范疇去理解更廣泛的事物和人際關系。新聞從業(yè)人員依然是主流新聞倫理準則中最直接有效的倫理主體和踐行者。[7]因此,我們在使用這些系統(tǒng)的時候應該保持一定的獨立思考能力而不是被機器牽著走,并且要學會接納不同的觀點以拓寬自己的人文素養(yǎng)和社會視角。例如,美國的 《BuzzFeed》就推出了一款名為 “Outside" Your" Bubble”的軟件,它會在部分熱門文章下添加來自不同渠道 (包括 Twitter 和 Facebook)的一些評價或反饋,以此來幫助讀者從多個角度看待問題及事件的發(fā)展趨勢??傊?,我們要強調的是,作為一個普通的大語言模型的使用者,需要不斷學習新知識,擴大眼界,提高認識水平。同時,還要勇于挑戰(zhàn)傳統(tǒng)觀念,敢于創(chuàng)新求變才能真正發(fā)揮潛在的社會作用和個人魅力。
從人類和機器的關系角度來看,我們在堅守人性原則并強化人機合作。隨著人工智能科技的進步,其在日常生活各個領域的運用愈加廣泛,然而,在人與機器交互的過程中,關于人機關系的道德矛盾逐漸凸顯出來。例如,在資訊發(fā)布網站上,大量的人工智能推介信息可能會替代人們的自主決定,從而影響他們的主要角色,這會對人的主體位置產生威脅。行業(yè)協(xié)會、專業(yè)組織等應制定相應的規(guī)章制度來對設計者進行規(guī)約,督促其在事前盡到合理注意義務,即在知曉算法可能對新聞的生產與傳播產生某種負面影響或對報道對象產生損害時,停止算法設計,或是對此種情況予以說明,避免有問題的算法在新聞傳播領域的應用與推廣。[8]因此,在處理人機關系時,我們要遵循人機聯(lián)合的基本原則:首先,增強對人性準則的理解,重視人的主動性和重要性,意識到人是信息的創(chuàng)造者、傳輸者和接收者,使算法的技術應用符合人的需求;其次,要加強人工審查與人機的協(xié)同工作,充分發(fā)揮人力資源和技術資源的優(yōu)勢,向客戶提供高質量的內容,以此來推動未來的智能化推薦算法朝著正確的方向發(fā)展,更準確地反映人的領導力和價值觀念。
五、結束語
本文深入分析了算法推薦技術在新聞傳播中引發(fā)的倫理問題,包括缺乏人工審核、法規(guī)系統(tǒng)不完善、大數據應用問題等,并具體表現為工具理性泛濫、技術權力濫用、強化刻板印象、“馬太效應”與擬態(tài)環(huán)境問題、算法偏見以及 “算法囚徒”等問題。針對這些倫理失范現象,提出了增強記者算法素質、利用人工智能擴展人性內涵以及堅守人性原則并強化人機合作等解決思路,以期推動算法技術在新聞傳播中的健康發(fā)展。
參考文獻:
[1] 周雨秋,潘汶奇,王瓊.數字時代的新聞倫理:話語博弈與發(fā)展路徑[J].新聞愛好者,2024(01):77-79.
[2] 鄭久良.人工智能時代算法新聞倫理治理范式研究[J].青年記者,2024(01):98-102.
[3] 陳檄.數據新聞的倫理風險及對策分析[J].傳播與版權,2023 (17):1-4.
[4] 張夢溪.智媒時代新聞倫理失范問題與對策探究[J].中國報業(yè), 2023(18):132-133.
[5] 趙澄澄.數字傳播倫理研究:機制、價值和理路[J].東南傳播, 2023(09):1-4.
[6] 劉馨懌.新媒體視角下的算法推薦爭議分析[J].國際公關,2023 (11):176-178.
[7] 招君儀,張文科.智媒時代的價值困境及媒介倫理主體性建構[J].新聞前哨,2023(10):4-5.
[8] 劉斌,楊志鵬.算法新聞透明性的內涵拓展與行動路徑[J].現代傳播(中國傳媒大學學報),2023,45(05):10-20.