Amrita Bhattacharjee 舒 凱 高 旻 劉 歡
1(亞利桑那州立大學計算機科學與工程系 美國亞利桑那州 坦佩 85281)
2(伊利諾伊理工大學計算機科學系 美國伊利諾伊州 芝加哥 60616)
3(重慶大學大數據與軟件學院 重慶 400044)
在過去的幾十年里,隨著計算硬件的發(fā)展,人工智能研究突飛猛進,智能方法被應用到醫(yī)學、環(huán)境技術、農業(yè)等不同領域.利用人工智能解決社會經濟、政治甚至文化問題具有巨大潛力,因此學術界和工業(yè)界的專家聚集在一起,形成谷歌AI(1)https://ai.google/social-good/、微軟(2)https://www.microsoft.com/en-us/ai/ai-for-good、國際電信聯盟(ITU)(3)https://aiforgood.itu.int/等組織機構并啟動人工智能項目.
在人工智能應用中,信息素質(information literacy)領域受到日益重視,尤其是在社會媒體檢測和緩解虛假信息[1].根據國際電信聯盟的報告[2],2019年互聯網用戶已達41.3億,占全球人口總數的50%以上;在社會媒體平臺中,臉書(Facebook)是使用最廣泛的平臺之一,2018年用戶已達22億.除Facebook外,還有其他如Twitter,Reddit等可以發(fā)表個人觀點的社會媒體平臺,這些平臺是不良用戶散布虛假信息的重點場所[3].大規(guī)模的網絡虛假信息可能會主導輿論,使人們兩極分化,甚至可能威脅到公共衛(wèi)生、民主和國際關系[4-5].
社會媒體上虛假或欺騙性的內容以不同的形式存在,并具有不同名稱,如圖1所示:
Fig. 1 Types of false or deceptive online content圖1 虛假或欺騙性的網絡內容的類型
其中,誤傳信息(misinformation)[6]通常指無意傳播的錯誤或虛假信息,被視為“誠實的錯誤”.虛假信息(disinformation)是指信息因別有用心的動機而故意傳播,無論是政治上的、經濟上的,或者僅僅以煽動人們?yōu)槟康?這些信息通常是捏造的,還可能在虛假的上下文中加入一些真實信息以誤導讀者.虛假新聞(fake news)[7]通常被視為虛假信息的子集,指以新聞方式發(fā)表或宣傳的虛假內容.陰謀論(conspiracy theories)[8]被定義為不可告人的陰謀詭計,它們懷疑惡意行為者秘密聚集在一起欺騙公眾并實現某些目標.伴隨陰謀論的常用詞是騙局(hoax),意為看似真實但意圖欺騙的言論.網絡噴子(troll)[9]試圖通過傳播煽動性和令人反感的言論來分化人們.
本文將綜述以人工智能和跨學科思想解決虛假信息領域特定問題的相關研究、挑戰(zhàn)和發(fā)展方向.
虛假信息問題在過去幾十年一直存在,近年來由于社會媒體的普及以及在線制造和傳播消息的低成本,使得虛假信息更加泛濫,嚴重影響了公眾輿論和社會穩(wěn)定.
最近,新冠疫情在社會媒體上引發(fā)了一波新的誤傳信息和虛假信息.疫情相關的真假信息混雜造成的信息過載勢不可擋,以至于世界衛(wèi)生組織將其稱為“信息疫情”[10].據文獻[11]報道,新冠疫情已經引發(fā)了2 000個謠言和陰謀論的傳播.
更令人擔憂的是,目前公眾已經習慣在網上尋找信息,這些虛假信息會嚴重地誤導人們對事實的判斷.2020年5月,名為《Plandemic》的新冠肺炎相關陰謀電影在Facebook和Youtube等社會媒體平臺上瘋狂傳播[12],散布危險言論.此類信息的傳播尤其具有威脅性,它們可能使人們失去對政府的信任,并可能嚴重破壞對該病毒防控的協(xié)調組織,從而對控制或消除病毒的進程造成嚴重影響.還有不良用戶為蹭疫情熱度增加流量,批量發(fā)表疫情相關的多條雷同虛假言論[13].
總體上,與新冠病毒有關的影響嚴重的虛假信息主要分為3類:健康相關的虛假信息、陰謀論、騙局和欺詐,本節(jié)將分別展開敘述.
新冠病毒的高度傳染性及其有害影響在全世界引起了恐慌,很多人迫切地尋找治療方法或有希望的預防措施.不法分子利用消費者的恐慌和輕信心理,聲稱發(fā)現了能夠“治愈”或“增強免疫力”的產品.目前已經有一些公司受到查處,相關部門對這些欺詐活動和可能對消費者造成巨大傷害的宣傳發(fā)出了警告[14].
此類與健康有關的虛假信息可能產生嚴重影響,例如,某國家食品和藥物管理局曾對使用氯喹和羥基氯喹治療新冠病毒住院患者進行授權,而有證據表明這種治療的風險大于益處[15].互聯網上還流傳著其他幾個與藥物有關的說法[16-18],也都被核查為不實言論.但這些說法已經產生了嚴重后果,影響了被誤導者的身體健康甚至導致其死亡[19].
關于新冠病毒的起源和傳播,也出現了越來越多的陰謀論.皮尤研究中心(Pew Research Center)[20]最近的一項研究顯示,某發(fā)達國家71%的人曾接觸過新冠病毒陰謀論,約25%的人相信其中某種陰謀[21].
一些陰謀論者聲稱戴口罩會導致二氧化碳中毒,而有些則認為這是對公民自由的侵犯[22-23],還有一些宣稱5G網絡有助于病毒的傳播[22],甚至說這種病毒是在實驗室制造的人造生物武器[23].另一些人則聲稱,有企業(yè)家資助了病毒的產生[24],打算讓世界人口減少,并在人身上植入微芯片[24].也有一部分陰謀論者認為病毒只是一個騙局,是出于某種原因而被捏造并夸大的[25].
新冠病毒的流行對全球經濟產生了巨大的影響,各國政府已經安排了救濟/激勵計劃、失業(yè)救濟金等,以減輕人們在困難時期的壓力.不幸的是,有不法分子試圖在困難時期趁火打劫[26-27].
在新冠疫情期間,有惡意組織和個人利用人們對病毒的恐懼,促使其倉促做出決定.許多這樣的騙局都是以詐騙電話、與經濟激勵計劃相關的電子郵件、慈善詐騙等形式出現的[26].
根據文獻[27],在向美國聯邦貿易委員會舉報新冠疫情相關付款的204 000多起投訴電話中,68%是舉報欺詐或身份盜竊.有的詐騙網站早在2020年6月就聲稱提供新冠病毒疫苗,或者提供免費的抗體測試[28].欺詐者甚至假裝是接觸追蹤者,獲取到受騙者的個人信息,然后用這些信息進行詐騙[29].據文獻[27]報道,虛假信息的渠道還包括提供貸款和資金幫助的詐騙電話,甚至是帶有惡意軟件鏈接的電子郵件.一些政府和民間機構已經向大眾發(fā)出警告,提醒大家目前欺詐和騙局越來越多,尤其是與新冠病毒相關的騙局.
近5年來,人們逐漸意識到虛假信息的影響力[30-31],越來越多的研究者開始探索檢測社會媒體虛假新聞的方法.網絡信息生態(tài)系統(tǒng)的不可預測性和嘈雜性,以及內容的創(chuàng)造和傳播速度快導致的惡劣影響巨大,使得減緩虛假內容的影響成為另一項重要任務,受到研究者和業(yè)界的廣泛關注.如國內多家互聯網企業(yè)設立辟謠平臺[32-33]幫助大眾甄別謠言,強化疫情時期信息的準確性.美國Twitter和Facebook等平臺也致力于管理和刪除違反社區(qū)標準的內容,包括與新冠病毒相關的誤導性帖子[27].本節(jié)將簡單總結虛假信息主要的檢測方法和緩解虛假信息影響的方法.
虛假信息檢測任務是在給定文章作為輸入的情況下輸出“true”或“false”標簽.在檢測時,除了文本內容外,通常還會用到社交關系與評論等輔助信息.此外,還有基于事實核查的方法及可解釋性和跨域檢測方法.
1) 結合內容和社交信息的方法.大多數早期的虛假新聞或欺詐檢測方法使用人工特征,通常側重于新聞內容的文本或語言特征.語言特征通常包括詞匯和語法特征等[34-35],其他特征是依賴于平臺的,例如,Twitter上的轉發(fā)和點贊數量.后來,研究人員逐漸意識到,社交網絡擁有許多有用信息,可以用來提高檢測性能[36].如通過用戶個人資料[37]、用戶參與度[38],以及新聞文章、讀者和發(fā)布者之間的關系來檢測虛假新聞和虛假信息[39].
2) 結合用戶評論的方法.社會媒體上的用戶評論是判斷一篇文章真實性的豐富信息來源.對于新出現的話題和事件,通常無法獲得基本事實.在這種情況下,用戶評論可以為新聞的真實性提供一些信息,有助于虛假新聞的早期發(fā)現[40].相關技術還可以解決標記數據有限的挑戰(zhàn).在早期檢測的情況下,由于新聞文章剛剛發(fā)布到網上,用戶的回復或評論可能不可用.對此,可以利用模型學習用戶如何對新聞文章做出反應,然后生成用戶反饋,以輔助檢測過程[41].與此相似的工作還有文獻[42-44].
3) 基于事實核查的方法.基于事實核查[45]的方法有2種類型-人工或自動的方法.現階段人工事實核查的檢測方法有2種:依靠領域專家對言論進行事實核查,或者從用戶處獲取眾包知識進行核查.自動事實核查的檢測方法使用結構化的知識庫(如知識圖譜)檢測言論和新聞文章的真實性,首先從新聞文章中提取知識(以主語、謂語、賓語三元組的形式),然后與預先存在的知識圖譜進行比較實現檢測.Ciampaglia等人[46]在加權知識圖譜中使用傳遞閉包來推導語義接近度的值.Karadzhov等人[47]提出了一種簡單的基于Web搜索的自動事實核查方法.自動事實核查中最重要的挑戰(zhàn)之一是缺乏大規(guī)模的支持知識庫或知識圖譜[48].
4) 可解釋性和跨域檢測的方法.可解釋性檢測和跨域檢測是虛假新聞檢測研究中的新領域.隨著公平性成為人工智能研究的一個重要話題,解釋一篇新聞文章為什么被歸類為“虛假”是值得關注的.相關工作如文獻[49-51]通常將文章內容與用戶評論作為線索,進行可解釋性的研究.理解一篇文章為什么被貼上假標簽可以幫助設計更好的檢測算法.跨域檢測是標記數據稀缺問題的潛在解決方案,但簡單的虛假新聞檢測器在跨領域的表現并不好[52],因此這方面還有很廣闊的研究空間.
有研究表明,因為虛假信息會使讀者產生更多的極端反應,使讀者對內容的參與度更高,所以虛假新聞比真實新聞傳播得更快、更廣[53-54].此外,由于社會媒體排名算法的設計目的是促進帖子和內容獲得更多用戶參與,用戶活躍度高又會使得虛假信息帖子具有更高的可見性.因此,及時發(fā)現此類虛假信息也是有效緩解社會媒體上的虛假信息傳播所亟需的.本節(jié)我們將討論一些減緩虛假信息傳播影響的計算方法.
2.2.1 網絡干預
社會媒體平臺可以表示為一個網絡,其中的節(jié)點是用戶(即該平臺上的帳戶),邊是用戶之間的聯系(例如“朋友關系”).社會媒體上的虛假信息以級聯形式傳播,其中“感染”由創(chuàng)建或發(fā)布虛假內容的幾個用戶節(jié)點引發(fā),然后由受這些“感染源”影響的其他用戶節(jié)點傳播.如果虛假信息能夠有效地影響閱讀它的用戶,這種傳播會呈指數級增長,因此,及早發(fā)現和減緩虛假信息傳播影響至關重要.
減緩虛假信息級聯傳播的一種方法是發(fā)起反向級聯,例如,包含虛假信息文章的事實核查版本的反級聯.該問題通常被稱為影響限制或影響最小化問題,目標是在網絡中找到一個(或最小的)節(jié)點集合,在該集合中可以反級聯,使得原始級聯的影響最小化.
盡管為反級聯傳播尋找最優(yōu)種子節(jié)點集已被證明是NP難的,但是研究者已經對問題的一些變體開發(fā)了近似算法[55-57].在緩解虛假信息傳播的情況下,該問題的目標是盡快“免疫”或接種盡可能多的節(jié)點,以盡量減少因虛假信息傳播所造成的損害.Budak等人[55]將一個影響限制問題的變體描述為一種貪心方法,使用精心設計的啟發(fā)式方法得到問題的近似解.與文獻[57]中使用的連續(xù)時間模型相反,該算法使用了離散時間模型.盡管大多數工作只考慮了2個級聯,但文獻[58]解決了多個級聯的問題,并引入了“級聯優(yōu)先級”的概念,也即網絡中的節(jié)點受每個級聯影響的可能性各不相同.最近的一項工作[59]中,考慮了跨平臺的誤導信息傳播問題,并提出了一種基于生存理論的貪心算法解決這個問題.
2.2.2 內容標記
發(fā)布用戶自創(chuàng)內容的社會媒體平臺通常讓用戶選擇“標記”或“報告”某些冒犯性的、有害的或虛假的信息.在這些平臺上,因為用戶發(fā)布的內容眾多而且揭穿虛假內容需要的領域知識量巨大,所以用一個集中式系統(tǒng)判斷這些內容是極具挑戰(zhàn)性的.因此,多數社會媒體平臺通過用戶來在線維護內容,如果某些內容違反該平臺的社區(qū)指南,其他用戶可以標記該內容為虛假內容.
在將內容標記為“虛假信息”的情況下,這些平臺通常使用第三方事實核查程序判斷其真實性并采取必要的行動.如果內容被證明是虛假或有害的,平臺可以刪除該帖子以減少其傳播范圍.一些平臺還告知用戶平臺已經執(zhí)行了事實核查,并指出帖子內容的分享或交互中所存在的問題[60-61].
雖然一些組織一直要求社會媒體平臺采取積極措施控制虛假信息的傳播[62],但也有一些組織對這些平臺刪除虛假信息和虛假言論的行為進行了譴責,理由是發(fā)布這種虛假言論和觀點不是“非法的”[63].因此,虛假信息的標記和刪除是具有挑戰(zhàn)性的,有待探索更好的解決方案.
2.2.3 易感用戶分析與識別
減緩虛假信息的另一個研究方向是分析用戶行為并識別易受影響或易受騙的用戶,即最容易接受和傳播虛假信息的用戶[64-65].Rajabi等人[64]試圖在Twitter上識別易受虛假新聞影響的用戶群體,他們使用一種無監(jiān)督的方法,基于用戶、內容和網絡特征將用戶分組為3類:正常用戶、惡意用戶、脆弱或天真的用戶.這種對脆弱群體的識別可能有助于進行針對性的事實核查,或在接觸虛假新聞后,使用特定的、合乎道德的方式向該群體提供真實信息.
在虛假信息領域的研究是具有挑戰(zhàn)性的,盡管在某些方面研究者們已經進行了大量有意義的工作,但仍有待進一步探索.阻礙研究進程的主要問題點和該領域與其他領域問題的差別主要有3點:
1) 廣泛性.從商品宣傳、體育新聞到財經信息,幾乎都存在著虛假信息.
2) 動態(tài)性.不斷變化的研究領域.新的問題、挑戰(zhàn)和威脅每天都在出現,如人工智能生成的新聞文章和極端的類人語言生成能力.
3) 跨學科性.虛假新聞和虛假信息在很大程度上是跨學科的問題,涉及計算機科學、政治科學、戰(zhàn)略學、決策學、倫理學,甚至心理學和認知科學.
無論是Facebook,Twitter這樣的社會媒體網站,還是維基百科這樣的眾包知識庫,幾乎都存在著虛假/捏造的內容.因為虛假信息表現形式多種多樣,如文本、假視頻、偽造的圖片、斷章取義的聲明和圖像等,甚至是人也很難判斷一條信息是否為虛假信息.此外,先前信念、認知偏差以及回聲室效應[66]也可能影響人們對社會媒體上的聲明或帖子的真實性做出判斷.因此,理解和識別虛假信息這一任務對人來說已經相當具有挑戰(zhàn)性的,實現自動化檢測算法正確、有效、高效地識別虛假信息這一目標將會更加困難.
同時,緩解虛假信息傳播也是一項更艱巨的任務,因為緩解的第1步是檢測出虛假信息,這本身是一項困難的任務.而且,緩解虛假信息傳播伴隨著一系列挑戰(zhàn).我們將在下文中討論這些挑戰(zhàn)以及解決方法,包括:數據方面的挑戰(zhàn)、早期檢測和有效緩解方面的挑戰(zhàn)、基于事實核查方法面臨的挑戰(zhàn)、多模態(tài)方法帶來的挑戰(zhàn)、政策問題與公平性方面的挑戰(zhàn).
緩解虛假信息傳播影響的第1步是檢測虛假信息并給予應對措施,因此虛假信息檢測的準確性和實時性都是緩解虛假信息影響的重要因素.而虛假信息幾乎存在于各個領域,包括政治、健康、名人緋聞等,不同領域的新聞有不同的寫作風格,甚至使用完全不同的詞匯,用一個領域的數據訓練得到的自動化檢測模型在檢測另一個領域的虛假信息時往往表現不佳.然而為每個領域開發(fā)單獨的分類器也是不可行的,因為這會消耗大量時間和資源,而且?guī)в凶⑨屛谋镜臄祿赡懿贿m用于所有領域.獲取這些數據是一個昂貴的過程,有時還需要領域知識專家.更值得探討的是,這些數據往往會有一些關于特定事件或主題的關鍵字和短語,在一個數據集上訓練的分類器在事件或主題不明確的領域中表現得不會很好.同時,一些新聞文章可能是純粹的諷刺某些人或事,沒有任何惡意.如果虛假信息檢測器沒有使用這種數據進行訓練,可能無法正確地判斷一篇文章是虛假的還是只為了諷刺.
文獻[67]的作者指出,另一個挑戰(zhàn)在于訓練數據集的收集,常見的收集方法是從信譽高的新聞網站提取真實的新聞文章并從可疑網站提取虛假的新聞文章.但這樣的數據可能難以滿足訓練目的,因為即使是有信譽的新聞來源也可能會發(fā)布錯誤信息,而可疑的網站上并非所有的新聞都是虛假的.因此,相關研究亟需更好的注釋方式,如利用事實核查網站來獲取新聞文章的真實性標簽,而不是依賴新聞來源的信譽[67].
這種虛假信息特定領域的數據標簽問題可以利用基于遷移學習的方法訓練自動虛假信息檢測器.這個想法雖然還沒有被廣泛研究,但是最近已經開始有研究者利用遷移學習解決某些領域缺少標記數據的問題[68-69].針對領域或事件具有特定特征這個問題,可以在訓練虛假信息分類器過程中采用對抗學習技術,防止分類器學習到領域或事件的特定特征,使其能很好地推廣到其他領域或事件中.基于這一想法,Wang等人[70]提出了一種事件對抗神經網絡,該網絡試圖學習與事件無關的、能共享的特征,而不是事件特定的特征,從而使該模型在新出現的虛假信息上表現良好.
社會媒體平臺上的不良用戶為了影響讀者并獲得快速反應,常常用聳人聽聞的標題、夸張的圖片和帶有情緒的語言吸引用戶的注意,并讓用戶參與到話題中.這些內容可能會通過讀者的分享和再次分享快速蔓延.例如,“Plandemic”的虛假視頻[21]在被刪除之前有800萬觀眾,有大約250萬用戶通過點贊、評論和分享的形式參與了傳播[71].視頻中有很多關于新冠病毒大流行的虛假說法,許多人分享并贊同它,其中包括有影響力的政治家和運動員[71].這類虛假信息可能會造成災難性的影響,例如降低公眾對衛(wèi)生保健系統(tǒng)的信任和協(xié)同應對病毒的積極性,進而影響公共衛(wèi)生.在這樣的高風險情況下,虛假信息早期檢測對減少危害是極其重要的.
然而,無論是人工檢測還是自動檢測虛假信息,都是一項極具挑戰(zhàn)的任務.1)對于新出現事件的說法利用人工事實核查進行早期檢測具有挑戰(zhàn)性,因為缺乏相關知識,需要領域專家進行核實.同時,第三方核查人員進行事實核查需要一定時間.2)自動檢測模型沒有使用新出現的內容進行訓練,因此檢測效果并不好.如果在訓練模型的領域和使用模型的領域之間存在不一致性,性能將會更差.
此外,在虛假信息傳播早期缺乏用戶評論和反饋,而這些內容是虛假信息檢測的輔助信息來源,能幫助人或機器甄別信息的真?zhèn)?用戶評論描述了他們對信息的觀點,可以輔助評判此報道是不屬實的.因此,信息的缺乏是虛假信息的早期檢測的重要挑戰(zhàn).
虛假信息的早期檢測對有效緩解虛假信息的影響也至關重要.虛假信息越早被檢測,就能越快地啟動反向級聯的應對措施,也即從受虛假信息影響的用戶開始進行反向傳播真實信息.雖然這是一個相對缺乏探索的領域,但一些研究人員已經提出了框架和模型來解決這個問題.Liu和Wu[72]提出了一種基于用戶在傳播路徑上的特征檢測虛假新聞的方法,該方法只需獲取前5 min的傳播數據就能獲得較好的檢測精度.Zhou等人[73]提出了一種基于新聞內容提取特征的檢測框架,提取的特征具有不同的層次,如語法層次、詞匯層次、語義層次等,以檢測已經在新聞網站上發(fā)布但尚未在社會媒體上傳播的虛假新聞.Qian等人[41]開發(fā)了一個模型學習生成基于文章的用戶反饋,然后與來自實際文章的單詞和句子級信息一起用于分類過程,以解決在早期檢測時缺乏用戶評論作為輔助信息來源的問題.Vicario等人的工作[74]可以預測未來可能出現在誤傳信息帖子中的主題,從而提供早期預警.
新聞領域的研究人員和從業(yè)者一直在使用基于事實核查的方法驗證言論,并提出緩解虛假言論影響的方法.但人工事實核查過程非常緩慢,需要領域專家檢查和研究新聞文章并確定其準確性.而且每天網上都會生成和傳播大量信息,人工事實核查難以及時應對,給緩解虛假信息的影響帶來較大的時延.而在人們接觸過虛假文章之后,再對其進行反駁和曝光,在減緩虛假信息傳播的影響方面并沒有像我們預期的那樣有效.Ecker[75]從心理學的角度解釋了在撤回錯誤言論背景下人類如何反應的現象.我們將在4.1節(jié)中詳細介紹該主題.
雖然自動事實核查[46]比手動事實核查及時性強,可以緩解驗證言論和文章真實性的延遲問題.然而,這種方法也面臨一系列挑戰(zhàn)和障礙.大多數自動事實核查方法需要知識庫(通常以知識圖譜的形式),并且需要定期更新以確保知識庫是最新的.但是這很難應對突然出現的話題和知識,例如大流行早期階段的新冠肺炎癥狀.而且,知識庫在創(chuàng)建的時候可能就有噪音或偏差,會對事實核查性能造成影響.此外,在某些語料庫上訓練的自然語言處理模型可能存在語義偏差.雖然可以通過使用結構化數據(主語、謂語、賓語)來緩解這種情況,但是獲得結構化數據也是很困難的.
社會媒體上的新聞文章和帖子通常伴隨有與文本相關或支持文本內容的圖像或視頻.即使圖像是偽造的,在文字旁邊配上相關圖片或視頻也會提高新聞報道或聲明的可信度.那些旨在引起輿論轟動的帖子通常會利用精心偽造的圖像、視頻甚至采用Deepfakes進行AI換臉,利用人眼幾乎是無法區(qū)分的.真實的圖像和視頻也可能被裁剪,以表達一些額外的含義.由于內容的偽造和欺騙以多種不同的形式出現,讓大眾更容易接受,很難設計緩解方法,特別是普適性的緩解方法進行應對.
目前相關工作主要集中在多模態(tài)的虛假信息上,如Wang等人[70]使用文本和視覺特征提取器,并聯合2類特征訓練虛假新聞檢測器.然而,這種方法不能捕捉圖像和文本之間的相關性.如果帖子中的圖像和文本各自都是真實的,但一起查看可能代表完全不同的含義并且有誤導讀者的作用,因此,學習文本和圖像的聯合表示很重要.Khattar等人[76]使用可變自編碼器學習文本和圖像的共享表示,能夠從該共享的潛在表示中分別重構文本和圖像,從而捕獲2種形式之間的相關性和依賴性.Zhou等人[77]的方法類似,先分別學習文本和圖像表示,然后計算文本和視覺表示之間的相似性.識別模式之間的“不匹配”有助于檢測虛假新聞.Cui等人[78]在他們的模型中加入了3種類型的模塊——文本、圖像和用戶個人資料,還結合了用戶評論的情感判斷文章/帖子是否虛假.Zhang等人[79]提出了一種利用外部知識圖譜學習基礎知識,再結合文本和視覺特征的檢測方法.文獻[80]在文本基礎上結合使用了視頻和音頻,文獻[81-82]也在多模態(tài)虛假新聞檢測方面開展了一些工作.盡管研究者已經取得了一些檢測方面的進展,但是有關緩解多模態(tài)虛假信息傳播影響的研究仍十分有限,具有廣闊的研究空間.
這一挑戰(zhàn)是在緩解虛假信息傳播任務中特有的,主要表現為:當在社會媒體平臺上成功檢測到虛假信息后,下一步應當確定采取什么糾正措施.從社會媒體平臺的角度來看,這一工作極具有挑戰(zhàn)性,因為言論自由和防止虛假信息傳播之間的平衡始終是一個存在爭議的問題.審查制度,尤其是社會媒體審查制度一直是國際辯論的一個問題,管理者很難采取行之有效的措施打擊網上虛假信息.最近,美國宣布了一項反對社會媒體平臺在線審查的行政命令[83],理由是平臺應容納更多不同的觀點.另一方面,社會媒體平臺也常因其在遏制錯誤和虛假信息方面的糟糕表現而受到公眾的指責[84].一個有爭議的帖子是否是虛假信息通常需要細致的討論,這使得社會媒體平臺很難迅速采取行動.鑒于虛假新聞和虛假信息在網絡社會媒體平臺上的傳播速度之快,各國政府也對影響社會穩(wěn)定的虛假信息和宣傳感到擔憂.很多國家都要求科技巨頭積極主動地監(jiān)管虛假信息和虛假新聞[85-86].但在媒體、新聞以及信息的使用方面,世界上不同的國家和地區(qū)有不同的規(guī)定,這讓事情變得更加復雜.
隨著公平性成為人工智能研究的一個重要話題,社會媒體平臺是否公平地、無偏見地監(jiān)管言論也成為一個問題.自我表達和可能造成傷害的虛假信息之間存在模糊的界限,尤其是在新冠病毒應對重要事件期間.一些群體可能覺得自己比其他人更容易成為社會媒體監(jiān)管的目標,因此制定緩解虛假信息政策時保護每個人的利益以達到公平是非常重要的.
正如第3節(jié)中提到的,虛假信息研究需要跨學科合作.利用人工智能和機器學習檢測虛假信息并緩解虛假信息傳播的計算方法和模型只是虛假信息解決方案的一部分內容.這些技術需要其他領域的知識進行擴充.例如,可以從社會科學、心理學和認知科學等領域了解,理性的人類為什么會成為虛假新聞和虛假信息的受害者,如何成為受害者的,哪些心理過程觸發(fā)了對虛假信息的反應和參與等.盡管研究人員已經開始在此方向展開探索,但還需要更深入的理解和學習來自其他學科的知識,以便設計更完善的解決方案.
此外,虛假信息的問題不僅僅是技術問題.需要組織令人信服的信息和活動的公眾推廣計劃,幫助普通用戶對新聞和信息的質量做出更準確的判斷.
為了從底層解決網絡虛假信息和欺騙的問題,一些研究嘗試了解個體與虛假新聞互動并相信該新聞時認知和心理的作用過程,并探究通常是什么原因讓人們信任了虛假信息.
正如文獻[87]中所描述的,當面對太多的信息和資源時,人類的大腦自然傾向于使用認知捷徑或“啟發(fā)式”來做決定,而不是批判性地分析每一條信息.在網絡信息生態(tài)系統(tǒng)中,人們淹沒在新聞、評價和觀點之中,而這些內容往往是極其矛盾的,這使得評估內容真實性的任務變得越來越困難.
在可信度評估的背景下,認知捷徑和啟發(fā)式的想法已經在文獻[88]中提到,作者解釋了這種啟發(fā)式的使用如何導致人們做出不正確的判斷和決定.其中,聲譽啟發(fā)式(reputation heuristic)是指用戶通過新聞來源的聲譽或認可程度判斷一篇新文章的可信度;支持啟發(fā)式(endorsement heuristic)是指如果一個可信任的熟人共享并認可了一則新聞,用戶傾向于相信新聞文章是可信的;自我確認啟發(fā)式(self-confirmation heuristic)或確認偏差用戶(confir-mation bias users)傾向于信任與他們既有信念一致的新聞和信息源.
雙重過程理論是人類易受虛假信息影響的另一個理論支撐[89],根據此理論,人類的大腦有2種思維和處理信息的方式——第1種是一個自動(無意識的)過程,僅需要很少的能量;第2種是一個分析(有意識)的過程,需要大量的能量.快速自動的處理類似于啟發(fā)式信息處理方式,可能誤導人們讓他們誤判新聞的可信度.此外,動機推理,即以與先前信念一致的方式進行推理和合理化,也是人類易受信息欺騙的另一個原因[90-91].
如今,社會媒體平臺經常使用第三方事實核查人員來核實平臺上分享的新聞文章和聲明的真實性.如果虛假信息被核查屬實,平臺通常會顯示一個標簽或免責聲明表示事實核查結果[60].然而,研究表明這樣的處理是無效的[75],甚至可能會促使虛假信息的讀者加強他們對原始虛假敘述的信念.一些研究者[92-93]解釋了錯誤信息的反駁和撤回如何通過“適得其反”的作用甚至增強了人們對錯誤信息的信任度.由于暴露于原始錯誤信息與撤回之間存在時滯,這種糾正性撤回可能對讀者沒有任何影響,因為那時讀者已經建立了心理模型來理解這一條錯誤信息[94].更為復雜的是,實驗表明:虛假新聞標題上的“爭議”標志或事實核查似乎會增加未經過事實核查而沒有標志的新聞的真實性[95].因此,緩解虛假信息問題是一項極具挑戰(zhàn)性的任務,需要來自各個學科和領域的知識和概念.
虛假信息檢測中也用到認知科學的知識,如使用認知科學中的信息一致性及連貫性、信息源的可信度和普遍可接受性等內容[96].
虛假新聞和虛假信息是一個全球現象,隨著在線內容的生成和傳播越來越便捷,讓人們知道虛假新聞盛行并形成有效防范假新聞的意識變得日益重要.全球大約45.7億名活躍互聯網用戶[97](截至2020年7月),需要接受虛假信息和欺騙一直存在的事實,并了解如何識別假新聞.
此外,一些研究和調查表明,人們極其容易受到虛假新聞的影響,甚至是聲稱對假新聞免疫的那部分人[98-99].斯坦福大學歷史教育小組[100]在2019年進行的一項研究表明,部分學生難以評估某些網絡資源的可信度,容易受到錯誤信息的影響.令人震驚的是,90%的學生在被要求完成的6項任務中有4項不及格.
許多組織、學者和非營利組織為這方面的研究做出了貢獻,如美國媒體素養(yǎng)教育協(xié)會[101]、媒體素養(yǎng)中心[102-103]媒體教育實驗室[104]等,新聞業(yè)也制定了相應的標準防止產生誤導性的或虛假的信息.此外,一個由約120家新聞機構組成的聯盟“信任項目”(Trust Project. https://thetrustproject.org/)制定了8個“信任指標”,旨在建立新聞來源的可信賴性(trustworthiness)、透明度(transparency)和問責性(accountability).他們的目標是通過這些信任和問責的指標重建公眾對高質量新聞來源的信任.許多國家開展了提高公眾對虛假新聞流行程度的認識活動,并指導人們如何發(fā)現假新聞[12,105].學校課程中也納入了類似的活動,教育學生如何與網絡媒體[106-109]互動.另一個媒體素養(yǎng)倡議是Drog[110]:除了教育項目和活動之外,他們還設計了一款游戲,通過了解虛假信息的創(chuàng)建和傳播過程,幫助玩家建立對虛假信息的心理抵抗[111].
本文簡要概述了網絡社會媒體平臺上的虛假信息研究現狀,闡述了檢測虛假信息和減緩虛假信息傳播的計算方法,探討了虛假信息檢測與減緩其影響中的各種挑戰(zhàn),以及應對這些挑戰(zhàn)的一些方法,最后從跨學科的角度討論了檢測和減緩虛假信息傳播的一些努力.
目前,許多有關虛假信息研究的領域還沒有得到充分的探索,還有很大的研究空間.隨著最近在大規(guī)模、高表現力語言模型和自動文本生成能力方面的進步,大規(guī)模的虛假信息攻擊逐漸成為研究人員的潛在威脅.OpenAI最近發(fā)表的GPT-2和GPT-3模型性能強大,惡意代理模型可以微調這些模型自動生成虛假或誤導性的新聞文章[112-113].讀者通常是感性的,很可能會相信機器生成的文章是合法的新聞.因此,防御這種攻擊是很有前景的新研究領域,值得重點關注.
此外,在緩解虛假信息方面進行更多的跨學科研究是十分有必要的.目前已經有在人類的輕信性和對虛假信息的敏感性方面的研究,可以用于計算機科學領域以設計更好的推薦或排序算法,對社會媒體平臺上的新聞進行排名,但是,目前社會媒體平臺上的推薦算法仍傾向于有選擇地向用戶展示與他們歷史興趣相一致的內容,從而加劇了回聲室的問題,加劇了人群的對立,最終使得減緩虛假信息傳播影響的任務更加具有挑戰(zhàn)性.因此,研究者們有必要設計更好的算法,以確保用戶在理想的新聞文章和具有相反觀點的文章之間保持良好的平衡.