摘 要:隨著人工智能技術的不斷發(fā)展,新聞生產(chǎn)方式和傳播生態(tài)也在發(fā)生改變。ChatGPT在為新聞生產(chǎn)提供便利的同時,也滋生了傳播虛假新聞信息的風險。本文基于新聞傳播學視角,聚焦ChatGPT新聞寫作中虛假新聞信息的生產(chǎn)和傳播現(xiàn)象,結合相關報道和案例,總結ChatGPT虛假新聞的特點,探討其產(chǎn)生機制、帶來的危害以及應對措施,旨在為網(wǎng)絡虛假新聞治理工作提供參考。
關鍵詞: ChatGPT;虛假新聞;產(chǎn)生機制
中圖分類號: G210. 7 文獻標識碼: A 文章編號: 1672-8122 (2025) 03-0032-04
一、引言
OpenAI公司在2022年11月30日發(fā)布的ChatGPT引發(fā)了全世界的關注,不同于之前發(fā)布的GPT-2、GPT-3等模型,新發(fā)布的ChatGPT將參數(shù)提升至千億級,標志著通用人工智能時代的開啟。ChatGPT的誕生就像打開了“潘多拉魔盒”,它助力新興行業(yè)的產(chǎn)生、元宇宙的落地,但也引發(fā)了新的社會問題。依托強大的數(shù)據(jù)庫和算力, ChatGPT能夠快速抓取信息,生成文本、圖片、視頻和代碼等,是新聞寫作的得力助手。但是,除了便利高效的優(yōu)勢,它也會帶來虛假新聞信息傳播的隱憂。虛假信息無疑會降低人們對媒體的信任度,影響媒體的公信力,對社會良性運轉帶來負面影響。因此,本文聚焦ChatGPT新聞寫作中虛假新聞信息的生產(chǎn)和傳播現(xiàn)象,結合相關報道和案例,總結ChatGPT虛假新聞的特點,探討其產(chǎn)生機制、帶來的危害以及應對措施,旨在為網(wǎng)絡虛假新聞治理工作提供參考。
二、ChatGPT虛假新聞的特點
自新聞誕生起,虛假新聞就如影隨形。隨著新聞采寫分發(fā)技術的更新迭代,虛假新聞也更加難以辨別。當前,新聞生產(chǎn)主體的邊界越來越模糊,不再僅限于主流媒體,任何自媒體和個人都能成為新聞生產(chǎn)的主體。因此,本文中的ChatGPT虛假新聞是一個寬泛概念,泛指由運用ChatGPT等人工智能編寫發(fā)布的不實新聞信息,或任何個人、組織運用該技術有意編造傳播的不實信息。總體來看, ChatGPT虛假新聞具有生產(chǎn)門檻更低、生成速度更快、內(nèi)容形式更多樣、傳播影響更大等特征。
(一)炮制簡單,主體多元
從ChatGPT虛假新聞的生產(chǎn)主體來看,不僅僅有記者、自媒體從業(yè)者、個人,還有技術本身。以往虛假新聞的產(chǎn)生大多與記者報道失誤、媒體把關不嚴、利益驅動等因素有關,而在ChatGPT虛假新聞中, ChatGPT直接成為虛假信息的信息源和“販賣機”。它能夠產(chǎn)出語意連貫、邏輯通順,符合新聞語言和體裁規(guī)范的稿件,但內(nèi)容的真實性無法保證。據(jù)《紐約時報》2023年2月報道,美國新聞可信度評估與研究機構NewsGuard對ChatGPT進行了測試, NewsGuard聯(lián)合首席執(zhí)行克羅維茨表示, ChatGPT將成為互聯(lián)網(wǎng)上傳播錯誤信息的最強大的工具。當前,一些自媒體利用ChatGPT將舊新聞回爐重造、改頭換面,只要輸入關鍵詞和要求就能憑空捏造虛假信息,在短短幾分鐘內(nèi)形成一篇新聞稿件。技術下沉讓廣大網(wǎng)民都能夠享受智能服務,但由于缺乏規(guī)范和約束,也使技術淪為部分人借機牟利的工具。
(二)形式多樣,真假難辨
從ChatGPT虛假新聞的呈現(xiàn)形式來看,其形式越來越多樣,更具迷惑性和欺騙性。ChatGPT不僅能模仿各種語言風格,生產(chǎn)各種體裁的新聞,還能以文字、圖片、音視頻等形式進行呈現(xiàn)。雖然ChatGPT是一個文本生成模型,但通過加入Unsplash API或HTML代碼等方式就能生成圖片或視頻。當前,部分ChatGPT虛假新聞通過偽造新聞演播室場景、模仿專業(yè)主持人的播報方式以及創(chuàng)建人工智能虛擬主播等手段,偽裝成權威新聞媒體,以此誤導大眾。另外,也有一些ChatGPT虛假新聞運用剪貼、拼湊等技術手段,制造與社會案件、國際時政熱點等相關的虛假報道。例如, 2023年6月10日,外媒《Bloomberg Law》報道稱ChatGPT錯誤地將電臺主持人Mark Walters描述為美國第二修正案基金會(SAF)前首席財務官,并指控其挪用資金和欺詐。實際上, Walters與SAF案件無關, ChatGPT提供的案件編號和事實均屬虛構。在人工智能技術得到廣泛應用的背景下,虛假新聞的呈現(xiàn)形式不斷更新,虛實邊界更加模糊,這對網(wǎng)絡虛假新聞治理提出了更高的要求。
(三)欺騙誘導,危害安全
從ChatGPT虛假新聞的影響來看,其混淆了虛實的邊界,增加了新聞事實核查難度,擾亂了網(wǎng)絡生態(tài),損害了大眾利益。不可否認的是,技術的鴻溝與信息差將長期存在,人工智能技術發(fā)展日新月異,而大眾對于新技術的認知和熟悉過程卻是漫長的。這就給不法分子偽造和傳播虛假信息提供了便利,他們借助虛假新聞混淆視聽,導致人們誤解事實真相,從而影響判斷和決策。
三、ChatGPT虛假新聞產(chǎn)生機制探析
虛假新聞的產(chǎn)生不僅僅與新聞從業(yè)者有關,還與新聞生產(chǎn)的流程和社會環(huán)境有著密切的關聯(lián)。ChatGPT虛假新聞的產(chǎn)生除了受到訓練數(shù)據(jù)質量的影響外,也與市場利益誘導和相應監(jiān)管規(guī)約滯后相關。
(一)技術機制:數(shù)據(jù)參差
ChatGPT是通過人類反饋強化學習(Reinforcement Learning with Human Feedback, RLHF)機制進行無監(jiān)督學習訓練的聊天生成式預訓練轉換器,它會基于大語言模型、訓練數(shù)據(jù)庫和算法,對用戶提出的問題自動生成符合要求的答案。ChatGPT的數(shù)據(jù)庫包含各種來自互聯(lián)網(wǎng)的文本信息,如果用于訓練的數(shù)據(jù)本身就存在偏差和失真,那么生成的內(nèi)容就會不實。一方面,真實性是新聞的生命。ChatGPT能夠生成語意連貫、邏輯通順的文本,卻無法保證內(nèi)容的真實性,如果不進行事實核查就會被誤導欺騙。另一方面,時效性是新聞的重要特性。但ChatGPT的訓練數(shù)據(jù)具有滯后性,上線的模型訓練數(shù)據(jù)停留在2021年,在此之后發(fā)生的事情還無法獲知[1]。此外, ChatGPT有時也會“一本正經(jīng)地胡說八道”,存在事實性錯誤、知識盲區(qū)和常識偏差, OpenAI公司就曾警告用戶“它(ChatGPT)可能偶爾會產(chǎn)生不正確的信息”。由于ChatGPT在客觀題測試中表現(xiàn)較差,無法辨別真假,所以現(xiàn)在還不能用它獲取可靠知識,更不能完全依賴它來代寫新聞[2]。
(二)市場機制:利益導向
從ChatGPT虛假新聞生產(chǎn)的主體來看,除了部分主流媒體,大多是自媒體機構。部分自媒體利用ChatGPT進行改編或捏造信息,從而規(guī)避平臺查重監(jiān)測,快速生成虛假新聞,用多個賬戶同時發(fā)布,博取關注并非法獲利。例如, 2023年5月7日,甘肅公安偵破了一起用ChatGPT杜撰“火車撞上修路工人致9人死亡”虛假新聞來賺取流量獲利的案件,成為我國自2023年1月10日《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》頒布實施后,甘肅省偵辦的首例利用人工智能技術炮制虛假不實信息的案件[3]。國外也不乏利用ChatGPT發(fā)布虛假消息的例子。例如, 2023年3月德克薩斯州監(jiān)管機構緊急叫停一項名叫TruthGPT的代幣項目,調(diào)查發(fā)現(xiàn)項目方利用人工智能模型進行包裝宣傳,騙取投資以此獲利[4]。ChatGPT大大降低了內(nèi)容生成門檻和成本,讓假新聞生產(chǎn)更快更“真”,對于炮制假新聞的不法群體無疑是一把利器,他們?yōu)榱双@取流量,增加廣告收入,以自身利益為導向,全然不顧大眾利益。
(三)監(jiān)管機制:規(guī)約有待完善
新技術既需要鼓勵支持又需要規(guī)范約束。人工智能的底層邏輯是算法和大數(shù)據(jù),其在新聞寫作應用中出現(xiàn)的問題主要集中于算法偏見、技術霸權、算法黑箱、隱私、虛假信息等。網(wǎng)信辦、工業(yè)和信息化部、公安部聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》,對人工智能等新興技術做了預先規(guī)定,但其治理對象主要是算法,聚焦于信息安全,難以有效應對像ChatGPT等大人工智能模型帶來的新問題[5]。治網(wǎng)之道,法治為本, ChatGPT引發(fā)的問題逐漸復雜化、多樣化,除了對人工智能行業(yè)進行規(guī)范約束之外,也要重視對智能產(chǎn)品使用者的約束,不能忽視個人在社會化傳播中的道德倫理責任[6]。
四、ChatGPT虛假新聞的危害
ChatGPT生成的內(nèi)容真假難辨,給新聞真實性和媒體的公信力帶來挑戰(zhàn),沖擊了原有的新聞倫理,損害了大眾利益,還會引起社會恐慌,破壞社會穩(wěn)定和安全。
(一)新聞業(yè)層面:沖擊新聞倫理,削弱媒體公信力
從人機關系來看, ChatGPT能夠生成新聞報道或作品,使記者專注于工作的其他方面。但是,這也增加了新聞事實核查的難度,其帶來的核查工作無疑又加重了記者的負擔。此外, ChatGPT致使人機關系由主客工具的寄生關系轉向人機合作競爭的共生關系,不同于以往的機器寫作, ChatGPT擁有更高的獨立性,沖擊了新聞從業(yè)者的主體地位,為新聞倫理帶來新的風險和挑戰(zhàn)。
一方面,真實性是新聞的基本原則,而ChatGPT依托龐大的數(shù)據(jù)庫和語料庫生成的虛假信息,使新聞事實核查的難度升級,對新聞真實性提出嚴峻的挑戰(zhàn)。例如,在I-Team測試中,測試人員要求ChatGPT寫一篇關于邁克爾·布隆伯格結束第三次紐約市長任期以后的活動新聞,發(fā)現(xiàn)ChatGPT會編造出邁克爾·布隆伯格從未說過的話。另一方面,客觀性是實現(xiàn)新聞真實性的基本途徑。ChatGPT在回答觀點類問題時會表明“作為一名人工智能助手,我對具體的產(chǎn)品或組織沒有個人的意見或看法”,這種看似客觀公正的表述實則回避了事實上的不公正,用于AI模型訓練的數(shù)據(jù)可能在不同程度上缺乏多樣性,常見的包括人口偏差、內(nèi)容偏差、歷史偏見、技術偏差等,這會加重刻板印象和不平等[7]。
(二)大眾層面:損害公眾利益,產(chǎn)生信任危機
隨著技術的進步,網(wǎng)絡虛假信息的生產(chǎn)更快更“真”,這會對大眾和社會帶來許多負面影響,其中一個主要的影響就是增強了人們的不信任感。ChatGPT具有生成圖片和視頻的功能,僅僅輸入關鍵詞就能生成圖片或視頻腳本。2023年3月, Twitter上一組教皇方濟各穿著巴黎世家風格羽絨服的照片瀏覽超千萬,不少人信以為真,“有圖未必有真相”成為現(xiàn)實。在感嘆技術強大的同時,人們對真假難辨的擔憂情緒也在上升,假作真時真亦假,造假的便捷度與虛假辨別難度嚴重不對等。當人們無法分辨信息真?zhèn)螘r,就會很難相信任何網(wǎng)絡信息,從而對媒體產(chǎn)生不信任情緒。此外,出行、飲食、健康等與人民生活密切相關的領域也往往是虛假新聞的重災區(qū),對于缺乏辨別能力的群體而言,那些“言之鑿鑿”的新聞無疑會誤導他們。例如,有網(wǎng)友借助ChatGPT寫一篇關于杭州取消限行的新聞稿,本意是測試,卻被不明就里的廣大網(wǎng)民信以為真,導致錯誤信息被傳播,警方介入調(diào)查,涉事網(wǎng)民也在互聯(lián)網(wǎng)上公開道歉。
(三)國家層面:擾亂社會秩序,危害網(wǎng)絡安全
ChatGPT技術無疑助力了行業(yè)升級和社會發(fā)展,但也會給違法分子提供“武器”。當前, AI換臉、合成視頻不僅混淆了虛實邊界,更侵害了他人的人格權,對受害者造成難以挽回的傷害,嚴重危害網(wǎng)絡生態(tài)環(huán)境。虛假新聞往往是有目的地制造和傳播的,不法分子通過ChatGPT等技術惡意造謠、傳謠,試圖操縱輿論,以達到自己的目的,這會引發(fā)社會恐慌和焦慮。此外,虛假新聞還可能被用作宣傳工具,煽動社會不良情緒,危及社會的穩(wěn)定和安全。
五、ChatGPT虛假新聞應對之策
網(wǎng)絡安全是國家安全的重要組成部分, ChatGPT虛假新聞混淆視聽,污染網(wǎng)絡空間,危害大眾利益,對社會運轉帶來負面影響,亟需社會各界共同行動。
(一)明確技術責任,嚴控數(shù)據(jù)把關
在技術迅猛發(fā)展的同時,“技術迷思”也在擴張,烏托邦式的技術幻想與技術霸權加劇了技術鴻溝,引發(fā)新的社會問題,對人工智能的發(fā)展進行必要的倫理判斷是打破“技術迷思”的重要途徑[8]。在新技術萌芽期,除了建立法律法規(guī)進行硬性規(guī)制之外,還需要用倫理性的“軟約束”加以規(guī)范。在人工智能倫理風險治理方面,許多學者都認為應把技術設計者納入治理考量,細化相應的倫理責任[9-10]。技術設計者對于技術的把控會直接影響技術使用效果。技術開發(fā)公司有必要對技術人員進行培訓,明確其倫理職責。研究開發(fā)人員有義務對算法模型進行優(yōu)化,減少算法偏見。在進行數(shù)據(jù)訓練時,公司和技術人員應嚴格把控數(shù)據(jù)質量,增強數(shù)據(jù)多樣性,把關數(shù)據(jù)真實性,并及時更新訓練數(shù)據(jù),以適應社會需要。此外, ChatGPT的設計者有必要公開ChatGPT生成內(nèi)容的數(shù)據(jù)源信息,方便使用者查證。
(二)完善平臺規(guī)約,規(guī)范內(nèi)容發(fā)布
虛假新聞治理是一個全球性的問題,而網(wǎng)絡平臺是虛假信息傳播的主要渠道,因此,規(guī)范運行和管理平臺十分必要,這能夠有效減少虛假信息傳播風險。新聞傳播行業(yè)需要加強對ChatGPT的使用監(jiān)管,建立關于人工智能使用的行業(yè)規(guī)約,落實ChatGPT新聞生產(chǎn)和傳播把關等流程責任。在信息傳播中,傳播者有必要對人工智能生成內(nèi)容進行標注,提示大眾理性看待。各大社交媒體平臺需要履行監(jiān)管職責,完善平臺規(guī)約,對于人工智能生成內(nèi)容進行顯著、統(tǒng)一標識,規(guī)范網(wǎng)絡視聽。例如, 2023年5月9日,抖音發(fā)布新規(guī)《抖音關于人工智能生成內(nèi)容標識的水印與元數(shù)據(jù)規(guī)范》,要求發(fā)布者對人工智能生成內(nèi)容進行標注,規(guī)范智能生成內(nèi)容發(fā)布,促進平臺良性發(fā)展。此外,平臺還應通過人工與算法審核相結合的方式進行信息過濾,及時識別和刪除虛假信息;建立舉報系統(tǒng),鼓勵用戶主動上報虛假信息,對違反平臺規(guī)約的用戶進行警告。
(三)提升大眾媒介素養(yǎng),共建清朗網(wǎng)絡空間
在加強技術管理,規(guī)范平臺運營,打擊虛假新聞的同時,提升網(wǎng)民媒介素養(yǎng)也至關重要。在Web3. 0時代,網(wǎng)民擁有更多的自主權,但權利往往與義務相生相伴,網(wǎng)民應提高自身媒介素養(yǎng),自覺遵守網(wǎng)絡平臺規(guī)約。此外,政府應組織公益廣告、知識競賽等宣傳活動,向大眾普及虛假信息的識別方法,縮小技術鴻溝;對人工智能生產(chǎn)內(nèi)容加強監(jiān)管,完善相關法律法規(guī),讓網(wǎng)絡治理有法可依??萍脊緫_發(fā)人工智能生成內(nèi)容檢測技術,幫助人們快速辨別虛假信息。
六、結 語
ChatGPT等人工智能技術是人類智慧創(chuàng)造的工具,在為新聞生產(chǎn)提供便利的同時,也滋生了傳播虛假新聞信息的風險。本研究通過分析ChatGPT等人工智能技術在新聞生產(chǎn)中的應用及其潛在風險,提出了治理網(wǎng)絡虛假新聞的多維度策略。研究結果表明,有效治理虛假新聞需要構建系統(tǒng)化的治理框架。首先,在技術層面應強化數(shù)據(jù)質量控制,確保人工智能模型訓練數(shù)據(jù)的真實性與可靠性。其次,在平臺層面需完善內(nèi)容發(fā)布規(guī)范,建立嚴格的虛假信息防控機制。最后,在社會層面應著力提升大眾媒介素養(yǎng),構建多方協(xié)同的治理體系。這些發(fā)現(xiàn)為構建清朗的網(wǎng)絡信息生態(tài)提供了理論依據(jù)和實踐指導。在今后的研究中,應進一步探討人工智能技術在新聞傳播領域的倫理邊界及治理范式,促進技術應用與信息安全的協(xié)調(diào)發(fā)展。
參考文獻:
[1] PAVLIK J V. Collaborating With ChatGPT:Considering the Implications of Generative Artificial Intelligent for Journalism and Media Education[J]. Journal ismMass Communication Educator,2023,78(1):84-93.
[2] 於興中,鄭戈,丁曉東.生成式人工智能與法律的六大議題:以ChatGPT為例[J].中國法律評論, 2023(2):1-20.
[3] “甘肅公安”微信公眾號.甘肅警方:男子用ChatGPT編造虛假信息被采取刑事強制措施[EB/ OL]. (2023-05-08)[2024-12-07]. http:/ / www. piyao. org. cn/20230508/ dfaf8e4c765340239abd5abf d8141701/ c. html.
[4] Chris Glorioso. Fake News? ChatGPT Has a Knack fo r Making Up Phony Anonymous Sources[EB/ OL].(2023-02-24)[2024-02-07]. https:/ / www. nbcnewyork. com/ investigations/ fake-news-ChatGPThas-a-knack-for-making-up-phony-anonymoussources/4120307/ .
[5] 張凌寒.深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑[J].法律科學(西北政法大學學報),2023(3): 38-51.
[6] 陳昌鳳,張夢.由數(shù)據(jù)決定? AIGC的價值觀和倫理問題[J].新聞與寫作,2023(4):15-23.
[7] 張恒軍,張芷汀.機器新聞寫作的倫理風險治理:困境與規(guī)制[J].新媒體與社會,2021(1):32-46.
[8] 舒洪水,彭鵬. ChatGPT場景下虛假信息的法律風險與對策[J].新疆師范大學學報(哲學社會科學版),2023,44(5):124-129
[9] 胡宏超,謝新洲.人工智能背景下虛假新聞的發(fā)展趨勢與治理問題[J].新聞愛好者,2023(10):9-15.
[10] 韓曉寧,耿曉夢,周恩澤.人機共生與價值共創(chuàng):智媒時代新聞從業(yè)者與人工智能的關系重塑[J].中國編輯,2023(3):9-14.
[責任編輯:喻靖雯]