潘紅霞
隨著人工智能的興起,“頭雁”效應(yīng)越來越凸顯,傳統(tǒng)意義上的媒體也正大步邁進智媒時代。智媒時代媒體平臺成為人們獲取信息的重要渠道,基于人工智能的算法技術(shù)作為其中的主要運行機制,進行著信息的聚合和傳播。智能信息推薦算法給人們帶來便利快捷的同時,也帶來了很多問題和煩惱。比如你剛上網(wǎng)搜索一個商品,你的本意只是想了解一下該商品,并沒有想立即購買,但算法認為你需要,就自動給你推薦該類商品的各種信息,并連續(xù)給你推薦,讓人們不厭其煩。進入智媒時代,人工智能算法技術(shù)、大數(shù)據(jù)不斷得到應(yīng)用和提高,雖然大大提升了信息傳播的覆蓋面和到達率,受眾對信息的喜好和需求也相應(yīng)得到加強,但其發(fā)展過程中還是存在一定的缺陷,需要進行正向重構(gòu)。
人工智能AI概念是在1956年的達特茅斯會議上首次提出的。人工智能的發(fā)展可謂歷經(jīng)千山萬水,近年來隨著算法技術(shù)快速發(fā)展以及大數(shù)據(jù)的廣泛應(yīng)用,迎來新一輪質(zhì)的飛躍,令全世界矚目。時至今日,作為一門新興的快速發(fā)展學(xué)科,人工智能風(fēng)生水起,逐步成為經(jīng)濟發(fā)展的強勁引擎。應(yīng)該說我們迎來了最好的時代,但也考驗和挑戰(zhàn)人類應(yīng)對人工智能的開發(fā)和治理能力,一系列問題和沖突值得我們關(guān)注和研究。
2018年10月31日,中共中央政治局就人工智能發(fā)展現(xiàn)狀和趨勢開展集體學(xué)習(xí)時,習(xí)近平總書記指出人工智能發(fā)展過程中的倫理問題。他強調(diào),要確保人工智能安全、可靠、可控。要整合多學(xué)科力量,加強人工智能相關(guān)法律、倫理、社會問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德。2019年1月25日,習(xí)近平總書記在中共中央政治局就全媒體時代和媒體融合發(fā)展舉行集體學(xué)習(xí)時,再次強調(diào)要全面提升技術(shù)治網(wǎng)能力和水平,規(guī)范數(shù)據(jù)資源利用,防范大數(shù)據(jù)等新技術(shù)帶來的風(fēng)險。黨的十九大報告明確提出,要加快建設(shè)數(shù)字中國、網(wǎng)絡(luò)強國和智慧社會的建設(shè)。人工智能儼然成為當(dāng)下社會經(jīng)濟發(fā)展新的亮點和增長點。伴隨人工智能與媒體的深入融合、算法技術(shù)的廣泛運用推廣,很多學(xué)者對智能算法技術(shù)帶來的倫理困境、原因、風(fēng)險以及技術(shù)使用本身特性展開多方位的有針對性的研究。張洪忠、石韋穎、韓曉喬(2018)認為人工智能改變了傳播渠道的內(nèi)涵,智能算法推薦模式改變了傳統(tǒng)的傳播模式同時也提出需要規(guī)制的問題。阮立、朱利安·華勒斯、沈國芳(2018)提出算法可能會創(chuàng)建自己的“過濾器泡泡”。仇筠茜、陳昌鳳(2018)提出增進算法透明度方式有三種:I-T-O的逐步拆解、逆向工程學(xué)、可理解的透明度。趙雙閣、岳夢怡(2018)認為對算法推薦的過度依賴會帶來媒介倫理新的風(fēng)險。蔡夢虹(2019)對人與技術(shù)的關(guān)系、媒介倫理建構(gòu)等問題提出從人性層面、技術(shù)層面,以及法制層面來解決。姜野(2020)提出有必要以算法技術(shù)的迭代更新為背景,將算法的法律規(guī)制作為主要研究對象,突出當(dāng)前算法呈現(xiàn)出的有限自主性特征,建構(gòu)符合我國算法應(yīng)用現(xiàn)狀的法律規(guī)制體系。原有的這些研究很好地為智能信息推薦算法正向重構(gòu)提供了基礎(chǔ),對以此引發(fā)的困境和解決之道帶來啟發(fā)。
大數(shù)據(jù)、云計算、人工智能的高速發(fā)展,已經(jīng)對傳統(tǒng)媒體的發(fā)展造成變革性的巨大影響。[1]人工智能已經(jīng)與媒體深度融合,人類進入到萬物皆媒、人機共生的智媒時代,從發(fā)展的歷程來看,大致可以分為三個層級,第一層級是擁有開放和共享優(yōu)勢的互聯(lián)網(wǎng)成為快速傳播信息的載體和工具;第二層級是媒體利用互聯(lián)網(wǎng),增強與受眾的互動交流,滿足受眾的個性化的信息需求和喜好;第三層級是媒體充分運用人工智能、大數(shù)據(jù)、云計算等新技術(shù),算法技術(shù)成為新的亮點。
人工智能算法技術(shù)對信息進行自動化處理并做出相應(yīng)決策。隨著該項技術(shù)的日益成熟以及在媒體平臺的廣泛應(yīng)用,它的核心就在于把合適的信息推薦給合適的人,媒體平臺充當(dāng)它的流量分發(fā)器。算法技術(shù)發(fā)展至今大致可以分為三大類:一是基于“受眾畫像”的算法推薦,也就是按內(nèi)容進行推薦,這一階段是根據(jù)受眾的信息瀏覽歷史記錄,概況出受眾的喜好和興趣,也就是受眾畫像,再利用算法技術(shù)計算每個信息與受眾畫像的相似度,將相似度最高的信息推薦給受眾;二是定位與受眾具有相似興趣和喜好的群體和圈子,然后給這個受眾推薦這些群體和圈子喜好和偏愛的信息,這是基于協(xié)同過濾的算法推薦;三是基于熱門的算法推薦,即設(shè)置一個時間窗口,統(tǒng)計在過去一段時期信息的點擊評論量、瀏覽量、轉(zhuǎn)發(fā)量,把關(guān)注高的熱點信息推薦給受眾。此外,采用加權(quán)、并串聯(lián)等混合的方式融合以上算法技術(shù)向受眾推薦信息。智能信息推薦算法正在悄然改變我們的生活,它不僅僅為人們的決策和行動提供信息和建議,在很多情況下還在人類的授權(quán)下代替人們進行決策和行動。相比原先的人工派發(fā),智能信息推薦算法優(yōu)勢更為突出,但隨著算法技術(shù)的廣泛使用,越來越凸顯出很多缺陷和倫理法律空白的地方。正如有學(xué)者所言,“大數(shù)據(jù)技術(shù)在彰顯一種道德意義時,也面臨各種倫理問題。要使大數(shù)據(jù)的文明指引保持在良性循環(huán)的正面效應(yīng)上,我們就要認真對待大數(shù)據(jù)技術(shù)帶來的倫理挑戰(zhàn)”。[2]
因此,我們必須立足時代和社會的重大發(fā)展路徑和軌跡,全面理性客觀地對智能信息推薦算法進行價值審視,精準把握它的特性,深刻思考可能會引起和導(dǎo)致的困境和后果,提出合理又具有前瞻性、系統(tǒng)性的操作原則,以期構(gòu)建更加公正公平、更具有人性化、具有公共價值性的新秩序。
1.算法技術(shù)認知層面的缺陷
智能信息推薦算法是在大數(shù)據(jù)技術(shù)的支持之下對數(shù)據(jù)、信息進行一系列的聚合、分析、預(yù)測、推薦以及傳播,而正是這種對于技術(shù)的盲目崇拜和過度信任,使得受眾容易被信息所奴役、控制,以致過分依賴于技術(shù),缺乏全面客觀的認知,逐漸喪失了對技術(shù)的漏洞以及技術(shù)可能會帶來的不良后果的判斷,進而會出現(xiàn)信息的異化和技術(shù)的異化。目前,對于算法技術(shù)還存在認知層面的盲區(qū),如把“流量”作為受眾認可此信息重要的關(guān)鍵指標,也把“流量”作為算法技術(shù)推薦信息的重要參數(shù),這樣做可能會導(dǎo)致其推薦的信息內(nèi)容過度低俗和娛樂化。算法技術(shù)作為人工智能的應(yīng)用,是一種前景非常廣闊、同時又深刻改變世界的顛覆性技術(shù),同時,它也是一種不夠成熟完善,帶有發(fā)展性、革命性的技術(shù)。算法技術(shù)會不會對未來人類社會秩序造成影響?算法技術(shù)有沒有不可控的風(fēng)險?算法技術(shù)是造福人類還是禍害人類?這些認知層面的缺陷都需要進行深入研究和跟進。
2.算法技術(shù)情感識別的缺陷
在人工智能算法技術(shù)蓬勃發(fā)展的過程中,算法技術(shù)也被稱為網(wǎng)絡(luò)神經(jīng),它可以到達各個層面的受眾群體和個體,能到達每一個網(wǎng)絡(luò)神經(jīng)末梢,但算法技術(shù)缺少對人類情感層面的關(guān)注和回應(yīng)的問題也隨之凸顯。算法技術(shù)展現(xiàn)出強大的數(shù)據(jù)處理能力,但同時無法識別人類的細微情感變化,人工智能算法技術(shù)本身是無法自主做出意思表示的,它沒有情感和表達能力也無法識別和判斷人類的情感變化。比如我們在最開始說的算法技術(shù)推薦商品給人們帶來的煩惱。人們越來越依賴人工智能應(yīng)用,受眾隱私、情感需求能否得到客觀公正公平有效對待和處理,需要在算法技術(shù)發(fā)展過程中加以攻關(guān)和克服。
3.算法技術(shù)的倫理法律缺陷
智能信息推薦算法有關(guān)倫理法律的問題也是我國人工智能發(fā)展過程中討論的熱點和焦點。由于算法技術(shù)既有本身商業(yè)機密所代表的不透明性,又因技術(shù)的專業(yè)性導(dǎo)致具有黑箱特質(zhì)。正是由于具有不透明的黑箱特質(zhì),使得算法技術(shù)的權(quán)利和義務(wù)很難界定。目前對于算法技術(shù)倫理法律的約束仍屬于后果型,重視算法技術(shù)帶來的后果而忽略對其過程的約束,還停留在事后審查處置階段,一般都是等到發(fā)現(xiàn)問題后再采取措施,比如說限流、刪帖、下架等。另外,算法技術(shù)具有復(fù)雜性,受眾很難了解算法技術(shù)背后推薦信息的依據(jù)和規(guī)則,因此對算法技術(shù)帶來的數(shù)據(jù)濫用、歧視、侵犯隱私、侵犯知識產(chǎn)權(quán)等倫理和法律問題就很難解決。現(xiàn)階段對于算法技術(shù)的法律法規(guī)還不健全,如算法技術(shù)應(yīng)用所帶來的各類數(shù)據(jù)的保護問題。數(shù)據(jù)屬于新型的財產(chǎn)權(quán),數(shù)據(jù)的歸屬和使用,數(shù)據(jù)的安全尤其涉及到國家安全的數(shù)據(jù)如何進行保護等問題還存在一定的缺陷,需要倫理法律層面及時做出界定。再有如媒體平臺責(zé)任規(guī)定不夠明晰等問題都急需加以完善。
智能信息推薦算法這一模式被越來越多的媒體平臺所運用,這一技術(shù)能從海量的信息海洋中挑選出符合受眾的興趣喜好圖譜進行推薦,有著它不可比擬的技術(shù)優(yōu)勢,但現(xiàn)實使用過程中也存在很多倫理失范的地方。
施拉姆在《傳播學(xué)概論》中列出一條公式來解釋個人如何選擇信息傳播路徑:可能的報酬/費力的程度=選擇的或然率。按照這個公式,“可能的報酬”最大化、“費力的程度”最小化,“選擇的或然率”最大化是最理想的傳播路徑。進入智媒時代,智能信息算法推薦讓這種傳播路徑實現(xiàn)最優(yōu)化。根據(jù)受眾的日常瀏覽習(xí)慣、社交朋友圈等大數(shù)據(jù),對受眾進行智能信息推薦服務(wù),雖然加速了信息到達率和覆蓋面,能夠讓受眾在最短的時間、花費最少的金錢和最小的精力就能獲得這些信息,但也很容易出現(xiàn)把受眾偶然隨意性的行為認為是必然性的行為,這樣就有可能造成對受眾真正的信息需求進行錯誤的分類和推薦,在一定程度上反而限制了受眾的選擇權(quán),形成對受眾歧視、偏見性的推薦。算法技術(shù)總是會或多或少地受到個人或集體偏見的影響。程序開發(fā)人員在設(shè)計算法時,或多或少會受到個人主觀偏好的影響;受眾在使用媒體平臺過程中也會根據(jù)自己的需求搜索設(shè)置算法應(yīng)用參數(shù)。因此,算法技術(shù)在一定程度上存在設(shè)計者和受眾的價值偏好。
智能信息推薦算法大多是在基于其對受眾畫像、受眾行為的描繪基礎(chǔ)上進行的。受眾也往往會訪問與自己的意見、想法、需求相接近的媒體平臺。美國學(xué)者凱斯·桑斯坦在《信息烏托邦》中關(guān)于對“個人日報”的論述中提出“信息繭房”,他認為生活在“信息繭房”中的人們逐漸形成“回音室效應(yīng)”,將自己圈定在固定的圈子里面、只根據(jù)個人興趣愛好進行個性化閱讀,從而導(dǎo)致其閱讀面、知識面十分狹窄,限制其個人綜合全面發(fā)展。[3]反觀智能信息推薦算法,也是無形中給受眾畫了一個信息圈,試圖創(chuàng)建一個我們每個人獨特的全局信息——“過濾器泡泡”,這從根本上改變了信息傳播的方式,一定程度上阻礙了人與人之間的交流。算法在為人們提供精準化、個性化的推薦服務(wù)的同時,由于局限的內(nèi)容、同質(zhì)化的信息,也使受眾容易陷入“信息繭房”的境地,最終掉入“過濾器泡泡”的陷阱。
當(dāng)下,受眾對隱私安全越來越關(guān)注。信息隱私主要指個人信息的收集、存儲和傳播,包括社交信息隱私、醫(yī)療信息隱私和工作信息隱私等等。應(yīng)該說算法技術(shù)越智能越先進,它就越需要獲取、存儲更多的個人數(shù)據(jù)信息??梢哉f,海量信息數(shù)據(jù)是算法技術(shù)發(fā)展必不可少的基礎(chǔ),這勢必會涉及到個人隱私保護這一重要倫理問題。而當(dāng)下媒體平臺大多出于商業(yè)利益的驅(qū)使,獲取更多的受眾信息,是很多媒體平臺追求的目標。加之我國對個人隱私保護方面的法律法規(guī)還不夠完善,一定程度上還留有漏洞,以致受眾隱私和風(fēng)險難以避免。如未經(jīng)受眾的同意和允許,平臺自行采集個人瀏覽和使用信息數(shù)據(jù),并在平臺之間自行進行信息交換和流轉(zhuǎn)。受眾的隱私悄無聲息地游走在洶涌的數(shù)據(jù)泄露與買賣之中,彷佛置身于隱私“裸奔”的尷尬境地,2018年,涉及泄露一億多名用戶個人信息的Facebook隱私門事件震驚世界,引爆了廣大網(wǎng)民對個人隱私安全隱患的擔(dān)憂。另外,對數(shù)據(jù)失信、失真以及污染的治理和防范,也是智能信息推薦算法在信息保護隱私面臨的倫理難題和挑戰(zhàn)。
媒體平臺更多關(guān)注的是流量而非內(nèi)容本身,注重商業(yè)現(xiàn)實利益而非社會價值層面。媒體平臺的價值指標主要以流量、信息的到達率、受眾停留時間、轉(zhuǎn)發(fā)評論量、活躍度等為主,在智能信息推薦算法越來越精準的當(dāng)下,社會主流價值正慢慢被消解,公共性價值一定程度上存在缺失,個人的社會化發(fā)展也受到一定阻礙。正如有學(xué)者所說:“由于受到少數(shù)大公司、廣告商和億萬富翁的主宰,媒介系統(tǒng)以唯利是圖為目的在瘋狂地運轉(zhuǎn),它偏離了公共機構(gòu)或公共責(zé)任這個方向?!盵4]受眾之間的數(shù)字鴻溝也越來越顯現(xiàn),體現(xiàn)在受眾對社會信息資源占有、使用、收益、分配過程中的地位、權(quán)利和機會存在明顯差距;全球各國或各地區(qū)貧富之間、男女之間、受教育與未受教育的人群之間,在信息接收、信息應(yīng)用等方面存在不平等和不公平。伴隨算法技術(shù)的發(fā)展,信息生產(chǎn)端“把關(guān)人”的缺失以及算法技術(shù)推薦信息過程中監(jiān)管缺位,更容易導(dǎo)致倫理失范問題。媒體平臺和算法技術(shù)還是應(yīng)承擔(dān)起社會性價值的功能,有責(zé)任讓受眾實現(xiàn)信息共享,有責(zé)任讓受眾了解事物的全貌,有責(zé)任引導(dǎo)受眾向輿論文明健康方向發(fā)展。
我們看到智能信息推薦算法帶來的翻天覆地的變化和便利,同時也應(yīng)更加清晰理性地認識到這一技術(shù)的發(fā)展帶來的倫理失范問題,從原則準則層面、解決舉措和路徑層面進行正向重構(gòu)。
我們需要對智能信息推薦算法應(yīng)用后果進行全方位的倫理反思,來應(yīng)對人工智能信息技術(shù)的迅猛發(fā)展所帶來的倫理挑戰(zhàn),有責(zé)任將智能信息推薦算法引入健康發(fā)展的軌道。倫理原則主要依靠人們已經(jīng)形成的習(xí)慣、信念、文化的沉淀,來調(diào)整受眾和社會以及受眾相互間的關(guān)系,從而起到約束和調(diào)節(jié)的作用。應(yīng)對智能信息推薦算法深入發(fā)展導(dǎo)致的倫理風(fēng)險應(yīng)當(dāng)遵循以下倫理原則:
1.不傷害原則。不傷害原則簡單地說就是不要傷害。這個不傷害他人的禁令有時也稱為倫理底線。即使是不同的國家、民族所選擇的不同的倫理原則,首要的就是不傷害原則。無論動機和目的如何,如果行為的結(jié)果有害,那就意味著失范和不合理,不傷害原則應(yīng)該成為判別的基本依據(jù)。智能信息推薦算法在媒體平臺的應(yīng)用有沒有對受眾、對社會造成傷害,是判定它是否造成倫理失范的首要依據(jù)。
2.以人為本原則。以人為本的原則即堅持科技的發(fā)展為人類造福的倫理準則。人工智能本質(zhì)還是由人類的思維和創(chuàng)新來主導(dǎo)和推動的,終極還是要為人類服務(wù)的。強化智能信息推薦算法促進人類自由全面發(fā)展、造福人類是人工智能技術(shù)存在的意義,從而產(chǎn)生積極的社會效應(yīng)。以人為本原則還意味著人類擁有自主性,不隸屬于人工智能,也不受其脅迫。在人機交互過程中,人類擁有獨立的自主性和能動性。
3.安全可靠原則。安全、可靠、可控是智能信息推薦算法的倫理要求,要確保國家、社會和受眾的安全,以及與此相關(guān)的政治、文化、經(jīng)濟等各方面的安全穩(wěn)定。如果智能信息推薦算法可能會帶來安全穩(wěn)定的問題,那么無論它具有多大的工具性價值,都應(yīng)果斷停止使用。
4.公平公正原則。智能信息推薦算法在開發(fā)、使用與監(jiān)管過程中都需遵循公平公正原則。開發(fā)設(shè)計者和受眾需要確保享有不遭受偏見、侮辱和歧視的權(quán)利,公平公正地享有人工智能算法技術(shù)帶來的便利和益處。公平公正原則還意味著算法技術(shù)必須提供有效的防范措施和救濟舉措,以防范數(shù)據(jù)歧視、意外傷害或者“黑箱”操作,最終造福人類。
5.知情同意原則?!巴狻笔鞘鼙娮龀鲆庖娨恢碌囊馑急硎尽R虼饲疤崾鞘鼙娭椋缓筮€需同意。受眾了解準確信息并了解可能會帶來的后果。當(dāng)下媒體平臺為了獲得更多的流量,對受眾主體的信息進行采集和推薦,就要遵循知情同意原則。比如個人隱私保護,采集的信息在沒有得到受眾知情同意之前,不能擅自使用。
6.互惠互利原則。每一名受眾既是媒體信息的傳播者和使用者,同時也是媒體信息的提供者和生產(chǎn)者,受眾享有智媒時代的一切權(quán)利的同時,也應(yīng)承擔(dān)相應(yīng)的責(zé)任義務(wù)。兩者間的關(guān)系是雙向的,是相互交織的,權(quán)利和義務(wù)呈現(xiàn)出對等性。互惠互利原則集中體現(xiàn)了權(quán)利和義務(wù)的統(tǒng)一。
7.公共社會性原則。媒體平臺和受眾應(yīng)當(dāng)遵守其所在社會的公共秩序和規(guī)定,不違背當(dāng)下社會的公序良俗,不違反國家的公共秩序和公共價值。隨著媒體平臺發(fā)展日新月異,有些行為表面上看似符合無害原則,也得到受眾的許可,沒有對受眾的利益產(chǎn)生直接或者間接的傷害,甚至有可能為行為的雙方帶來一定的利益,但在該行為與社會公序良俗相違背時就需要用公共社會性原則加以調(diào)整和規(guī)范。
1.培育科學(xué)的智能信息推薦算法的認知。智能信息推薦算法在發(fā)展過程中的風(fēng)險防范需要人類對此有科學(xué)的認識和意識,以正確的認知指導(dǎo)相應(yīng)的行為,所以認知觀念和意識是先行者。人工智能算法技術(shù)無論表現(xiàn)得如何“像人似的”,終歸是人類創(chuàng)造的產(chǎn)物,是人類在認識世界、改造世界過程中開發(fā)的人類智力和能力的延伸。無論算法技術(shù)發(fā)展到何種境地,產(chǎn)生什么樣的影響,都不是技術(shù)自身的力量,而取決于人類的主觀能動性,取決于人類如何使用技術(shù)。因此,對于智能信息推薦算法,我們需要科學(xué)、辯證地認知,形成正確的信息倫理觀,積極主動防控人工智能算法技術(shù)帶來的倫理風(fēng)險,最大限度地造福人類。
2.加強制度倫理法律監(jiān)管。斯皮內(nèi)洛在《鐵籠,還是烏托邦》一書中講到:“至關(guān)重要的是在網(wǎng)絡(luò)空間中傳承卓越的人類的善和道德價值,它們是實現(xiàn)人類繁榮的基礎(chǔ)。網(wǎng)絡(luò)空間的終極管理者是道德價值而不是工程師的代碼。”[5]因此,政府應(yīng)該加強網(wǎng)絡(luò)傳播信息的實時監(jiān)測和監(jiān)管,要切實承擔(dān)起信息監(jiān)管的職責(zé)和使命,強化對信息的監(jiān)管與倫理失范的整治,明確智能信息推薦算法應(yīng)用的范圍及標準。媒體平臺也不能以流量論英雄,不能把單純流量指標作為平臺運營的價值追求,應(yīng)在行為上保持高度自覺,不斷增強責(zé)任意識,以實現(xiàn)智能信息推薦算法的正面導(dǎo)向價值。國家應(yīng)加快制定信息傳播、信息安全和信息產(chǎn)權(quán)等方面的法律法規(guī),對信息的存管、采集、交易、傳播、開放和再次利用等相關(guān)權(quán)利和義務(wù)作出明確規(guī)定。
3.建立智能信息推薦算法價值觀。德國社會學(xué)家馬克斯·韋伯將社會行動的合理性分為工具理性和價值理性,工具理性的核心是強調(diào)效用性和功利性,只考慮成本最小而收益最大,不在乎社會在道德、情感或者文化方面的普遍價值期待。而價值理性的核心是關(guān)注行動本身所代表的價值,追求的是更加合理而有意義的實踐路徑。隨著5G的應(yīng)用,智能信息推薦算法是大勢所趨,智媒和人工智能的聯(lián)合給受眾帶來更為豐富的媒體信息應(yīng)用場景。當(dāng)工具理性凌駕于價值理性之上時,建立智能信息推薦算法價值觀顯得尤為必要。如何實現(xiàn)智能信息與受眾信息需求完美匹配,是算法技術(shù)層面需攻克的難關(guān)。如何進一步優(yōu)化,緊密聯(lián)系受眾,貼近實際、貼近生活,及時為受眾提供準確、客觀、真實、有價值的信息,讓受眾在接收信息時有更好的體驗,形成更具有公共社會性、人文關(guān)懷的算法技術(shù),把社會的需求、價值、選擇、判斷和個人的需求、價值、選擇、判斷有機結(jié)合,做到個體性和公共性的統(tǒng)一,讓受眾有機會獲得更多的既符合自身需求同時又體現(xiàn)社會主流價值的信息是當(dāng)下價值理性回歸的訴求。
4.算法推薦與人工編輯相結(jié)合。在算法推薦下,受眾缺乏主動的調(diào)整和選擇權(quán),即使對智能推薦的信息不滿意也缺乏必要的反饋溝通機制,以至于積累到一定程度對智媒平臺產(chǎn)生反感直至棄用。因此,算法技術(shù)需進一步優(yōu)化,避免造成同質(zhì)化信息推薦,防止受眾進入繭房狀態(tài)。算法技術(shù)不能忽視受眾作為人的復(fù)雜性,應(yīng)從“人的傳播”角度進行優(yōu)化設(shè)計,綜合考慮人的行為、情感等要素。此時就需要扮演人工編輯來進行適時的調(diào)整和干預(yù),從而降低流量對算法推薦的影響,加強對符合社會性價值信息的推薦力度。目前,大多數(shù)媒體平臺運用“機器”審核,對一些虛假信息、敏感信息、標題黨進行攔截,但還是會有漏網(wǎng)之魚。智媒平臺在內(nèi)容信息核實上要下真功夫,加大事先核查的力度,算法推薦與人工編輯相結(jié)合是當(dāng)前形勢下的有效方法。如國內(nèi)算法資訊公司今日頭條也大幅增加了人工審核編輯人員,加強對不良信息和虛假內(nèi)容的攔截和處理。算法推薦和人工編輯相配合,可以強化人的主體性、能動性,更好地進行智能信息推薦。
5.進一步提高受眾媒介素養(yǎng)。媒介素養(yǎng)是指人們面對各種媒介信息時的選擇、理解、評估、質(zhì)疑、創(chuàng)造、制作、思辨反應(yīng)以及判斷能力,意味著受眾應(yīng)學(xué)會理性客觀地辨別信息的真假,要以批判性思辨性思維面對海量信息,在海量信息中堅持倫理操守,不盲目接受,做信息的主人,堅守倫理底線,擁有獨立的人格。對媒體平臺信息呈現(xiàn)出的泥沙俱下、真假并存難辨的現(xiàn)象,對各類非法、暴力、虛假、垃圾、庸俗信息,受眾應(yīng)認識到危害性,提高對這些負面信息的辨識力、判斷力和免疫力。受眾應(yīng)主動將媒介素養(yǎng)視為一種能力,積極通過各個途徑不斷學(xué)習(xí)和提高。
總之,在人工智能、大數(shù)據(jù)廣泛應(yīng)用的時代,應(yīng)對和解決智能信息推薦算法發(fā)展過程中的缺陷以及倫理失范和風(fēng)險問題,應(yīng)當(dāng)進一步規(guī)范健全信息倫理法律制度,確立公共的價值準則和底線,提升受眾的認知水平和媒介素養(yǎng)。