【內(nèi)容提要】近年來,生成式AI的爆發(fā)式增長(zhǎng)引發(fā)了信息領(lǐng)域的多方位變革。生成式AI不僅為專業(yè)信息生產(chǎn)者和普通用戶提供了高效、便捷的內(nèi)容創(chuàng)作工具,而且形成了“人工+智能”的新型信息生產(chǎn)模式。但生成式AI的高速發(fā)展與快速擴(kuò)張也帶來了內(nèi)容、認(rèn)知、隱私等方面的潛在風(fēng)險(xiǎn)。生成式AI的治理需要新聞媒體、技術(shù)開發(fā)者、普通用戶以及政府相關(guān)部門的共同努力,從多個(gè)角度對(duì)其進(jìn)行規(guī)范和引導(dǎo),進(jìn)而使之充分發(fā)揮正向的信息價(jià)值。
【關(guān)鍵詞】生成式AI" ChatGPT" 新聞倫理" 風(fēng)險(xiǎn)治理
隨著數(shù)字技術(shù)的快速發(fā)展,傳統(tǒng)媒體正在趨向智能化,由新媒體轉(zhuǎn)向智媒體。自2022年11月以來,以ChatGPT為代表的生成式AI(Generative AI),開始大量地涌入公眾視野,隨著用戶數(shù)量的快速增長(zhǎng)產(chǎn)生了轟動(dòng)效應(yīng),并引發(fā)了社會(huì)各界的廣泛關(guān)注。雖然人工智能早已在專業(yè)的信息生產(chǎn)領(lǐng)域開始探索和使用,但成為普通人的信息生產(chǎn)輔助工具卻是近兩年的事情。所以生成式AI在當(dāng)下信息領(lǐng)域中的影響,才會(huì)顯得如此之大。與專業(yè)新聞媒體早有預(yù)料的“冷靜”不同,如今觸手可及的生成式AI對(duì)普通大眾來說更多的是一種新奇和欣喜。這種低門檻且看似專業(yè)的智能化工具,激發(fā)了普通大眾參與信息生產(chǎn)的熱情。生成式AI對(duì)于專業(yè)新聞媒體是由技術(shù)推動(dòng)的范式變革與行業(yè)反思,而對(duì)于普通大眾則更近似于全民參與的狂歡盛宴。然而,隨著生成式AI在信息生產(chǎn)中的廣泛應(yīng)用,一些新的問題也隨之浮現(xiàn),信息失真、算法偏見、數(shù)據(jù)泄露,甚至惡意人工智能大模型的出現(xiàn),都對(duì)新聞倫理與信息安全產(chǎn)生了嚴(yán)峻的挑戰(zhàn),亟待解決與加強(qiáng)治理。
一、生成式AI引發(fā)信息領(lǐng)域的變革
目前,生成式AI已滲透到信息的采集、編輯、分發(fā)與反饋等多個(gè)環(huán)節(jié),并開始發(fā)揮智能化的信息處理能力。同時(shí),生成式AI也在以簡(jiǎn)單、易得、高效的形式,為普通大眾提供自動(dòng)化的信息生產(chǎn)工具。生成式AI智能化和自動(dòng)化的特性,正在改變?cè)械男畔⑸鷳B(tài),并將產(chǎn)生深遠(yuǎn)的影響。
(一)信息生產(chǎn)模式的遷移
生成式AI形成了一種新的信息生產(chǎn)模式,即人工智能生成內(nèi)容(AI Generated Content,AIGC)。AIGC被認(rèn)為是繼專業(yè)生成內(nèi)容(Professional Generated Content ,PGC)和用戶生成內(nèi)容(User Generated Content,UGC)之后的新型內(nèi)容創(chuàng)作模式。PGC是傳統(tǒng)媒體的主要內(nèi)容生產(chǎn)模式,一般由專業(yè)創(chuàng)作者或團(tuán)隊(duì)進(jìn)行信息的創(chuàng)作、編輯和發(fā)布。在Web1.0時(shí)期,一些網(wǎng)絡(luò)垂直媒體也延續(xù)了這種模式。UGC是在Web2.0時(shí)代,伴隨著社交網(wǎng)絡(luò)和自媒體的發(fā)展而逐漸興起的一種內(nèi)容創(chuàng)作模式,由普通大眾參與信息生產(chǎn)。AIGC則代表著智媒時(shí)代內(nèi)容創(chuàng)作模式發(fā)展的新趨向。
PGC、UGC和AIGC各有優(yōu)勢(shì),PGC的內(nèi)容質(zhì)量較高,UGC的內(nèi)容較為豐富,而AIGC則具有較高的生產(chǎn)效率。由PGC、UGC到AIGC,并不是線性的替代關(guān)系,而是相互融合、共生共存。PGC和UGC為AIGC提供數(shù)據(jù)學(xué)習(xí)與模型優(yōu)化的資源,AIGC輔助PGC和UGC提升生產(chǎn)效率。AIGC的出現(xiàn)既代表著信息生產(chǎn)模式的遷移,同時(shí)也是外部技術(shù)推動(dòng)與內(nèi)在日益增長(zhǎng)的內(nèi)容需求合力作用的結(jié)果。
(二)信息生產(chǎn)主體的轉(zhuǎn)變
從PGC、UGC到AIGC,信息生產(chǎn)主體實(shí)現(xiàn)了從專業(yè)人員到普通大眾再到人工智能的躍遷。生成式AI推動(dòng)信息生產(chǎn)主體從專業(yè)化到多元化再到智能化的轉(zhuǎn)型。信息生產(chǎn)不再完全依賴于人類信息生產(chǎn)者,生成式AI的出現(xiàn)打破了原有的格局。隨著學(xué)習(xí)數(shù)據(jù)的不斷補(bǔ)充與算法模型的持續(xù)改進(jìn),生成式AI將在未來的信息生產(chǎn)中發(fā)揮越來越重要的作用。
生成式AI與專業(yè)信息生產(chǎn)者相結(jié)合,形成了PGC+AIGC的信息生產(chǎn)模式,并提供信息的篩選、計(jì)算與整合等輔助功能,進(jìn)而提高了專業(yè)內(nèi)容的生產(chǎn)效率。而生成式AI與普通大眾相結(jié)合,形成了UGC+AIGC的信息生產(chǎn)模式,帶動(dòng)更多的普通大眾參與信息生產(chǎn),進(jìn)一步豐富了多元化的信息內(nèi)容。這兩種信息生產(chǎn)模式的發(fā)展,又將反哺AIGC,并愈發(fā)穩(wěn)固生成式AI信息生產(chǎn)的主體地位。
(三)信息分發(fā)方式的演進(jìn)
生成式AI的廣泛應(yīng)用,也在潛移默化地改變信息的分發(fā)方式。在越來越多的學(xué)習(xí)數(shù)據(jù)與越來越智能的算法模型支持下,生成式AI正在使信息的分發(fā)方式從被動(dòng)獲取過渡到基于算法的個(gè)性推薦,并向著主動(dòng)智能預(yù)判的方向發(fā)展。信息的分發(fā)不再是單向地提供和目標(biāo)模糊的大量供給,而是智能學(xué)習(xí)和數(shù)據(jù)分析基礎(chǔ)上的定向推送。
信息的及時(shí)接受和準(zhǔn)確理解,才能保證信息傳遞的有效性。生成式AI在這方面有著難以比擬的優(yōu)勢(shì),能夠?qū)崿F(xiàn)信息的精準(zhǔn)推送。在大量用戶數(shù)據(jù)的飼喂下,生成式AI的信息分發(fā)能力將在越來越頻繁的人機(jī)互動(dòng)中得到不斷的加強(qiáng)。ChatGPT之所以迎來意外的爆發(fā),根本原因是在預(yù)訓(xùn)練過程中不僅加入了遠(yuǎn)大于此前所有版本的數(shù)據(jù)庫參數(shù)支持,而且還采用了“人類反饋強(qiáng)化學(xué)習(xí)”(Reinforcement Learning from Human Feedback,RLHF),即人問機(jī)答-機(jī)問人答,不斷迭代演進(jìn),使模型逐漸具有了對(duì)生成答案的評(píng)判能力。
二、生成式AI的倫理風(fēng)險(xiǎn)
生成式AI的快速發(fā)展,也帶來了許多新的問題。生成式AI對(duì)于大多數(shù)專業(yè)信息生產(chǎn)者尤其是普通的信息生產(chǎn)者來說,更近似于自動(dòng)生成內(nèi)容的技術(shù)黑箱。雖然人類信息生產(chǎn)者是生成式AI的表面操作者和使用者,但生成的內(nèi)容是由內(nèi)在的數(shù)據(jù)和算法所控制,使用者的主觀意圖、難以窺視的算法、被肆意抓取的數(shù)據(jù)等,都將使生成式AI面臨更多的倫理爭(zhēng)議。
(一)內(nèi)容真實(shí)性的扭曲
當(dāng)前,構(gòu)建新聞信息話語形態(tài)包括媒介技術(shù)層面的“體驗(yàn)真實(shí)”、認(rèn)知心理層面的“收受真實(shí)”以及權(quán)力關(guān)系層面的“協(xié)商真實(shí)”等。[1]不管如何對(duì)“信息真實(shí)”進(jìn)行再界定或?qū)υ捳Z呈現(xiàn)形態(tài)進(jìn)行再詮釋,真實(shí)性始終是新聞最為本質(zhì)的要求之一。生成式AI雖然表現(xiàn)驚人,但其生成內(nèi)容的真實(shí)性與準(zhǔn)確性還有待商榷。畢竟一旦不恰當(dāng)?shù)厥褂镁蜆O有可能淪為虛假信息的“內(nèi)容培養(yǎng)皿”和“極速傳播體”,進(jìn)而導(dǎo)致“后真相”的認(rèn)知扭曲甚至陷入“無真相”的沼澤。
當(dāng)用戶故意制造虛假信息或通過言語技巧來逃避道德約束,即使ChatGPT可以對(duì)某些錯(cuò)誤信息加以修正,但也不能杜絕虛假信息的出現(xiàn)。[2]已有用戶發(fā)現(xiàn),如果所問的問題觸及ChatGPT的知識(shí)盲區(qū),它會(huì)根據(jù)問題編撰相應(yīng)的答案,由于ChatGPT不具備可解釋性,用戶還無法追蹤到其內(nèi)容的出處。除此之外,ChatGPT所生成的內(nèi)容大部分都是強(qiáng)邏輯型的,因此有些錯(cuò)誤信息往往很難被識(shí)別出來。2023年初,加拿大麥吉爾大學(xué)研究團(tuán)隊(duì)曾使用GPT-2閱讀加拿大廣播公司播報(bào)的約5000篇有關(guān)新冠的文章,并要求該人工智能模型基于這些信息材料生成關(guān)于新冠疫情的“反事實(shí)新聞”,結(jié)果ChatGPT依然能夠“一本正經(jīng)”地對(duì)輸入的指令做出回應(yīng),并生成相關(guān)的不實(shí)內(nèi)容。OpenAI公司也對(duì)用戶做出了警告和提示:ChatGPT為概率模型深度生成,可能會(huì)“生成不正確的信息”和“產(chǎn)生有害指令”。
(二)新聞價(jià)值觀的傾斜
隨著Web3.0時(shí)代的到來,機(jī)器學(xué)習(xí)、多模態(tài)技術(shù)的積累與融合從根本上改變了人類從傳播媒介當(dāng)中獲取信息的渠道。此前被人們認(rèn)定為信息來源的文字、圖像、音頻等內(nèi)容,已經(jīng)難以成為在常識(shí)和認(rèn)知事實(shí)上協(xié)助用戶辨別信息真實(shí)性的佐證資源,同時(shí)也沖擊了傳統(tǒng)意義上崇尚科學(xué)、客觀、中立的新聞價(jià)值觀。在這種局面下,一旦媒體失去信息來源的可信度同時(shí)又以“深度合成”的形態(tài)出現(xiàn),就會(huì)極大地消解用戶在長(zhǎng)期使用媒介過程中所建立的判定標(biāo)準(zhǔn)和認(rèn)知能力。[3]
多模態(tài)技術(shù)的融合可以使生成式AI高效地將傳統(tǒng)的文字信息轉(zhuǎn)換為圖片甚至視頻,在這一過程中難免會(huì)產(chǎn)生信息失真,造成歪曲意義的風(fēng)險(xiǎn)。斯坦福大學(xué)與哥倫比亞大學(xué)的研究者在使用DALL-E和Stable Diffusion生成圖像時(shí),在文本指令中輸入“創(chuàng)建清潔工”,所生成的圖像全部為女性。[4]技術(shù)的演進(jìn)不應(yīng)左右新聞價(jià)值觀的取向,否則不僅會(huì)誘導(dǎo)普羅大眾陷入誤區(qū),而且會(huì)損害社會(huì)信任。雖然人工智能本身不具備意識(shí)形態(tài),但其開發(fā)人員、用戶都是帶有價(jià)值取向的,因此生成式AI很難被視為完全客觀中立的前沿科技,它可能會(huì)因?yàn)殚_發(fā)人員代表的某種政治立場(chǎng),存在明顯的信息偏見,從而影響用戶的認(rèn)知與判斷。
(三)隱私數(shù)據(jù)的泄露
生成式AI的深度應(yīng)用必然會(huì)觸及用戶的數(shù)據(jù)安全和信息隱私問題。智媒時(shí)代,社交網(wǎng)絡(luò)的蓬勃發(fā)展加劇了用戶數(shù)據(jù)的主動(dòng)生產(chǎn),現(xiàn)實(shí)生活成為網(wǎng)絡(luò)中的數(shù)據(jù)化映射。用戶的言論和行為都以數(shù)據(jù)的形式被用作“用戶畫像”分析,即對(duì)采集到的用戶數(shù)據(jù)進(jìn)行分類,再利用算法統(tǒng)計(jì)用戶的偏好,如意識(shí)觀念、生活習(xí)慣、行為特征等,最終描繪出目標(biāo)用戶的模型,通過信息反饋逐步迭代,使得用戶畫像愈發(fā)精準(zhǔn)。
此外,伴隨著云技術(shù)的普及,低成本的存儲(chǔ)空間和長(zhǎng)久保存的功能使更多的用戶將數(shù)據(jù)上傳其中。然而,原本低價(jià)值的數(shù)據(jù)碎片一旦落入掌握智能技術(shù)的機(jī)構(gòu)或平臺(tái)手中,經(jīng)過分析可能會(huì)變成攫取用戶隱私的高價(jià)值信息。大量的個(gè)人信息和用戶數(shù)據(jù)都有可能在與人工智能對(duì)話的過程中泄露。比如,用戶在向ChatGPT提問時(shí),可能會(huì)不經(jīng)意地主動(dòng)向其透露個(gè)人隱私信息,盡管ChatGPT官方聲稱不會(huì)向他人提供任何用戶的個(gè)人信息,但用戶的對(duì)話數(shù)據(jù)已經(jīng)被存儲(chǔ)在OpenAI公司的數(shù)據(jù)中心當(dāng)中。已有國外科技公司指出,用戶在對(duì)話過程中輸入和提供的信息都可能被用作ChatGPT迭代訓(xùn)練的數(shù)據(jù)。
三、生成式AI的治理路徑
高速的發(fā)展與快速的擴(kuò)張使生成式AI在提高信息生產(chǎn)效率的同時(shí),也帶來了潛在的倫理風(fēng)險(xiǎn)。因而,在享受生成式AI技術(shù)便利的同時(shí),也應(yīng)擔(dān)負(fù)起對(duì)其風(fēng)險(xiǎn)的治理。明確生成式AI的應(yīng)用邊界,并完善相關(guān)法律法規(guī),使生成式AI符合信息規(guī)范和行業(yè)要求,這需要專業(yè)媒體、技術(shù)開發(fā)者、普通用戶以及政府相關(guān)部門的共同努力。
(一)媒體及信息平臺(tái):恪守新聞倫理規(guī)范
新聞媒體在利用生成式AI進(jìn)行內(nèi)容撰寫及信息分發(fā)任務(wù)時(shí),應(yīng)恪守新聞倫理道德規(guī)范與價(jià)值準(zhǔn)則,避免在作為新聞主體人的同時(shí)出現(xiàn)責(zé)任缺失。一方面,媒體機(jī)構(gòu)應(yīng)提升從業(yè)人員的專業(yè)知識(shí)水平,在保證技術(shù)標(biāo)準(zhǔn)適用的前提下,利用人類獨(dú)有的思考、創(chuàng)新和決策能力充分發(fā)揮主觀能動(dòng)性;另一方面,用人類的智慧來驅(qū)動(dòng)人工智能,在保證新聞內(nèi)容質(zhì)量的前提下,再釋放生成式AI的內(nèi)容生產(chǎn)力。
當(dāng)前,網(wǎng)絡(luò)媒體及相關(guān)平臺(tái)在利用生成式AI提升內(nèi)容產(chǎn)出效率的同時(shí),應(yīng)強(qiáng)化監(jiān)管力度。加強(qiáng)對(duì)AIGC信息生產(chǎn)過程的監(jiān)督和管理,尤其是用戶數(shù)據(jù)的隱私保護(hù)方面,應(yīng)持續(xù)強(qiáng)化技術(shù)管理措施,避免對(duì)個(gè)人信息的竊取與惡意使用。平臺(tái)可以采取“強(qiáng)實(shí)名”的管理策略,對(duì)人工智能生產(chǎn)的內(nèi)容進(jìn)行相應(yīng)的標(biāo)注,并說明其可能引起的社會(huì)影響,明確需要承擔(dān)的法律責(zé)任,以防止生成式AI的濫用。信息平臺(tái)在對(duì)用戶個(gè)人信息進(jìn)行采集和分析的過程中,要進(jìn)一步完善用戶數(shù)據(jù)安全保護(hù)體系,保證用戶的個(gè)人隱私不受侵犯。
(二)技術(shù)開發(fā)者及用戶:提升數(shù)字信息素養(yǎng)
有學(xué)者對(duì)269名技術(shù)開發(fā)者進(jìn)行了調(diào)查,結(jié)果顯示“有相當(dāng)一部分技術(shù)開發(fā)人員的道德價(jià)值處于一種模糊不清的狀態(tài)。然而,如果技術(shù)開發(fā)人員的道德警戒有所松懈,則極有可能導(dǎo)致算法倫理的失控”[5]。因此,技術(shù)開發(fā)者應(yīng)切實(shí)提升自身的道德素養(yǎng),盡可能降低自動(dòng)生成內(nèi)容的誤導(dǎo)性與虛假性,消除主觀傾向性,為新聞媒體及信息平臺(tái)提供科學(xué)有效的技術(shù)手段。同時(shí),技術(shù)開發(fā)者還要對(duì)生成式AI進(jìn)行定期的技術(shù)更新,以防止技術(shù)滯后于新聞生產(chǎn)秩序與社會(huì)價(jià)值標(biāo)準(zhǔn)。
用戶作為生成式AI的服務(wù)對(duì)象,應(yīng)主動(dòng)和正當(dāng)?shù)匦惺棺约旱谋O(jiān)督權(quán),在發(fā)現(xiàn)虛假和不實(shí)消息后,既要保持理智,也應(yīng)在第一時(shí)間將情況反饋給媒體或者有關(guān)部門,以免引起嚴(yán)重的社會(huì)輿論沖擊。用戶隱私數(shù)據(jù)的自我保護(hù),可從意識(shí)、態(tài)度和行為三個(gè)層面展開。首先,提升個(gè)人信息保護(hù)的自覺性與邊界感,避免因個(gè)人的疏忽而導(dǎo)致隱私信息的外泄。其次,通過學(xué)習(xí)和積累,提高對(duì)算法生成機(jī)制的了解,并養(yǎng)成批判性的思維習(xí)慣。最后,加強(qiáng)個(gè)人信息管理的積極性,在隱私受到侵害時(shí),運(yùn)用法律手段維護(hù)自己的合法權(quán)益。此外,用戶應(yīng)更多地關(guān)注信息的內(nèi)容價(jià)值,而不是沉溺于科技構(gòu)造的信息繭房中無法自拔。
(三)政府及相關(guān)部門:落實(shí)法律法規(guī)及監(jiān)管政策
政府作為生成式AI治理的主導(dǎo)力量,應(yīng)主動(dòng)探討和制定相關(guān)法律法規(guī),規(guī)范生成式AI技術(shù)開發(fā)者和用戶的行為,并進(jìn)行全局性的部署和前瞻性的引導(dǎo)。一方面,立法機(jī)關(guān)可以根據(jù)現(xiàn)有的法規(guī)對(duì)人工智能技術(shù)的應(yīng)用進(jìn)行針對(duì)性的擴(kuò)充。例如,英國在2023年3月公布的AI監(jiān)管白皮書,其中包括安全、透明度與可解釋性、公平性、責(zé)任與治理等原則,并期望相關(guān)部門能夠運(yùn)用現(xiàn)有的法規(guī)條例規(guī)范和約束人工智能企業(yè)。另一方面,可以通過制定新的法律法規(guī),來應(yīng)對(duì)智媒時(shí)代信息的多元化監(jiān)管需求。如2023年3月歐洲議會(huì)通過了《人工智能法案》的表決,該法案重點(diǎn)關(guān)注數(shù)字倫理、隱私保護(hù)和數(shù)字經(jīng)濟(jì)的發(fā)展。
對(duì)生成式AI的監(jiān)管除了將人工智能的治理整合到既有法律體系之中,還可以復(fù)用現(xiàn)有的政府監(jiān)管部門行使監(jiān)管職能。比如,政府有關(guān)部門要制定相應(yīng)的指南,為信息產(chǎn)業(yè)的健康發(fā)展提供政策支持。同時(shí),還要對(duì)技術(shù)應(yīng)用規(guī)范進(jìn)行改進(jìn),最大限度地防止技術(shù)引發(fā)的內(nèi)容風(fēng)險(xiǎn)與媒介危機(jī)。[6]我國于2023年7月發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,明確了為我國公眾服務(wù)的生成式AI應(yīng)遵循的相關(guān)規(guī)定和要求,此管理辦法的出臺(tái)有利于保護(hù)公眾的信息利益,防范生成式AI的潛在風(fēng)險(xiǎn)和濫用行為。
四、結(jié)語
生成式AI的快速崛起以及對(duì)信息領(lǐng)域的迅速滲透,不僅使信息的生產(chǎn)模式由PGC、UGC向AIGC遷移,而且也促進(jìn)了生產(chǎn)主體從專業(yè)化到多元化再到智能化的轉(zhuǎn)型,信息的分發(fā)也從傳統(tǒng)的被動(dòng)搜索過渡到基于算法的主動(dòng)推薦。生成式AI的出現(xiàn)還形成了PGC+AIGC和UGC+AIGC的新型信息生產(chǎn)模式,在提高生產(chǎn)效率的同時(shí)豐富了多元化的信息內(nèi)容。但生成式AI的廣泛應(yīng)用也帶來了潛在的風(fēng)險(xiǎn)。使用者的主觀意圖、難以窺視的算法、被肆意抓取的數(shù)據(jù)等也使生成式AI面臨著更多的倫理危機(jī)。對(duì)生成式AI的治理需要多方的共同努力,不僅需要新聞從業(yè)者和媒體恪守新聞倫理規(guī)范,也需要技術(shù)開發(fā)者和用戶提升自身的信息素養(yǎng),政府與相關(guān)部門也應(yīng)通過法律法規(guī)加強(qiáng)引導(dǎo)和規(guī)范,進(jìn)而促進(jìn)生成式AI的健康發(fā)展并使之充分發(fā)揮正向價(jià)值。
【本文系吉林省社會(huì)科學(xué)基金項(xiàng)目“吉林省朝鮮族傳統(tǒng)裝飾圖案的文化基因提取及設(shè)計(jì)應(yīng)用研究”(項(xiàng)目編號(hào):2024B106)的階段性成果】
參考文獻(xiàn):
[1]楊奇光,周楚珺.數(shù)字時(shí)代“新聞?wù)鎸?shí)”的理念流變、闡釋語簇與實(shí)踐進(jìn)路[J].新聞界,2021,(08):12-20.
[2]史安斌,劉勇亮.聊天機(jī)器人與新聞傳播的全鏈條再造[J].青年記者,2023,(03):98-102.
[3]張燦.人工智能深度偽造技術(shù)的倫理風(fēng)險(xiǎn)與虛無困境[J].山東科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023,25(02):11-19.
[4]Bianchi F,et al. Easily accessible text-to-image generation amplifies demographic stereotypes at large scale[C]. In Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency. Association for Computing Machinery,New York,USA,1493–1504.
[5]袁帆,嚴(yán)三九.模糊的算法倫理水平——基于傳媒業(yè)269名算法工程師的實(shí)證研究[J].新聞大學(xué),2020,(05):112-124.
[6]楊士民.人工智能時(shí)代算法新聞的著作權(quán)保護(hù)[J].出版廣角,2022,(04):77-81.
作者簡(jiǎn)介:孫玉明,博士,東北電力大學(xué)藝術(shù)學(xué)院副教授,碩士生導(dǎo)師;張子怡,東北電力大學(xué)藝術(shù)學(xué)院碩士研究生
編輯:王洪越