【內(nèi)容提要】隨著人工智能技術(shù)的不斷發(fā)展,AIGC成為新聞傳播領(lǐng)域的一個(gè)創(chuàng)造性實(shí)踐,它的出現(xiàn)帶來了新聞生產(chǎn)模式和傳播方式的變革,但是由于它目前相對(duì)不太完善,無法規(guī)避一些新聞倫理方面的問題,帶來技術(shù)、內(nèi)容和法律層面的沖擊?;诿绹?、歐盟和中國對(duì)于AIGC治理的現(xiàn)狀,思考在AIGC不斷發(fā)展的智媒時(shí)代,如何對(duì)人工智能生成內(nèi)容進(jìn)行新聞規(guī)范的引導(dǎo),使其更好地發(fā)揮自身價(jià)值,不斷完善傳媒業(yè)的治理框架,實(shí)現(xiàn)AIGC的破局之路。
【關(guān)鍵詞】AIGC 新聞倫理 新聞業(yè) 新聞治理
在中國共產(chǎn)黨第二十次全國代表大會(huì)上,習(xí)近平總書記強(qiáng)調(diào),在建設(shè)現(xiàn)代化產(chǎn)業(yè)體系中要“推動(dòng)戰(zhàn)略性新興產(chǎn)業(yè)融合集群發(fā)展,構(gòu)建新一代信息技術(shù)、人工智能……等一批新的增長引擎”[1]。隨著技術(shù)的不斷發(fā)展進(jìn)步,智能化成為人類社會(huì)的主要特征,以ChatGPT為代表的AIGC(人工智能生成內(nèi)容)越來越成熟并被廣泛應(yīng)用,成為人們?nèi)找骊P(guān)注的焦點(diǎn)。保羅·萊文森的媒介進(jìn)化論指出隨著技術(shù)傳播媒介的發(fā)展,它們更傾向于復(fù)制真實(shí)世界中的“前技術(shù)”或是“人性化”的傳播環(huán)境,不斷地接近人性需求是媒介進(jìn)化的原動(dòng)力。[2]在技術(shù)理性營造的媒介環(huán)境中,AIGC模式的出現(xiàn)對(duì)新聞傳播領(lǐng)域產(chǎn)生了深刻影響,再造新聞生產(chǎn)流程、豐富新聞報(bào)道形式、提高新聞傳播速率的同時(shí),也帶來了深層次的新聞倫理失范問題。為了更好地把握AIGC在智媒時(shí)代的發(fā)展,需要新聞倫理規(guī)范的引導(dǎo)。
一、倫理危機(jī):以新聞倫理審視AIGC發(fā)展
智能傳播時(shí)代,新媒體技術(shù)的深入發(fā)展使得輿論格局和媒介生態(tài)發(fā)生了深刻的變化,媒體傳播內(nèi)容、方式、渠道、范圍也隨之發(fā)生變化,由此引發(fā)的新聞倫理失范問題越來越受到關(guān)注。ChatGPT的問世掀起了人工智能生成內(nèi)容新一輪的浪潮,“文心一言”“盤古”“通義”等AIGC相關(guān)產(chǎn)品應(yīng)運(yùn)而生,顛覆了傳統(tǒng)的內(nèi)容生產(chǎn)模式,給新聞傳播領(lǐng)域帶來新的發(fā)展機(jī)遇。AIGC在生成文本方面得以應(yīng)用,通過運(yùn)用深度學(xué)習(xí)來理解人類語言,不但能夠進(jìn)行類人化交流,而且在創(chuàng)作文章、翻譯文本、編寫代碼等內(nèi)容方面發(fā)揮著重要作用。然而,技術(shù)的變革總能引發(fā)新的挑戰(zhàn),技術(shù)紅利往往與技術(shù)缺陷是相伴而生的,AIGC蓬勃發(fā)展的同時(shí)必然會(huì)引發(fā)潛在的技術(shù)風(fēng)險(xiǎn)、內(nèi)容危機(jī)和法律隱憂,對(duì)新聞倫理造成沖擊。
(一)媒介依賴與數(shù)據(jù)偏見的技術(shù)風(fēng)險(xiǎn)
TEY3ktlpNx1LYCcshetQ6EvemuEH7x89Ketz08E7IRE=AIGC擁有強(qiáng)大的內(nèi)容生產(chǎn)能力和數(shù)據(jù)分析能力,以其深度神經(jīng)網(wǎng)絡(luò)和大規(guī)模文本訓(xùn)練技術(shù),能夠快速生成傳播內(nèi)容,實(shí)現(xiàn)內(nèi)容的跨模態(tài)融合,為新聞從業(yè)者帶來便捷、高效的服務(wù),降低采編成本,提高工作質(zhì)量和效率。但是每一種技術(shù)的出現(xiàn),都既是恩賜,又是包袱,AIGC也不例外。與傳統(tǒng)的人工智能技術(shù)相比,AIGC更能夠準(zhǔn)確把握使用者需求,做到“有問必答”,但在一定程度上削弱了人的思考能力和判斷能力,陷入盲目的算法崇拜,這使得使用者極易對(duì)AIGC表現(xiàn)出過于樂觀的態(tài)度,加深使用者對(duì)其的依賴。美國科技新聞網(wǎng)站Cnet就是一個(gè)典型的例子,由于過度依賴AIGC,借助ChatGPT自動(dòng)生成了眾多新聞報(bào)道,然而他們不知道的是這些報(bào)道的內(nèi)容破綻百出,有的甚至能夠引發(fā)“新聞災(zāi)難”,這種由新聞從業(yè)者的自我惰性心理造成對(duì)AIGC的高度依賴嚴(yán)重?fù)p害了新聞的客觀性。
人工智能技術(shù)的不斷深入發(fā)展,致使傳統(tǒng)新聞報(bào)道的“客觀”“公正”“中立”已然得不到保證。眾所周知,AIGC的前提和基礎(chǔ)是數(shù)據(jù),機(jī)器通過從這些數(shù)據(jù)中學(xué)習(xí),生成模仿人類行為和創(chuàng)造力的新內(nèi)容。其理論可以追溯到圖靈時(shí)代,圖靈把人的大腦看作離散態(tài)的機(jī)器,心靈實(shí)質(zhì)上是信息處理過程,其后關(guān)于計(jì)算機(jī)科學(xué)、認(rèn)知科學(xué)領(lǐng)域的相關(guān)論述成為21世紀(jì)人工智能的理論基礎(chǔ)。[3]以ChatGPT為例,基于傳統(tǒng)機(jī)器學(xué)習(xí)算法的行為,擁有一定的自主性,使用者的生活環(huán)境和知識(shí)背景不同,對(duì)AIGC的使用也會(huì)帶有價(jià)值傾向,會(huì)注入個(gè)人的主觀態(tài)度認(rèn)知,如果數(shù)據(jù)不夠全面、多樣,那么其生成的內(nèi)容也很容易出現(xiàn)偏差,可能會(huì)生成暗含政治偏見或帶有意識(shí)形態(tài)色彩的信息,導(dǎo)致輿論操縱行為的發(fā)生,影響公眾的認(rèn)知判斷。ChatGPT誕生于美國,暗藏算法黑箱的人類反饋強(qiáng)化學(xué)習(xí)系統(tǒng)必然會(huì)更加強(qiáng)化美國的價(jià)值標(biāo)準(zhǔn),體現(xiàn)美國的價(jià)值觀。ChatGPT不僅可以模擬人的思維,改變?nèi)祟惖膶W(xué)習(xí)方式和思維模式,而且可以直接進(jìn)行信息生產(chǎn)和話語建構(gòu),容易產(chǎn)生意識(shí)形態(tài)方面的風(fēng)險(xiǎn)。例如它在回答使用者提出的問題時(shí),首先對(duì)該問題中所包含的信息進(jìn)行識(shí)別,借助算法程序進(jìn)行信息的過濾篩選,對(duì)于符合意識(shí)形態(tài)的問題能以極快的速度予以回答,反之則會(huì)拒絕回答。這實(shí)際上是一種潛在的意識(shí)形態(tài)滲透方式,假如用戶缺乏正確的政治判斷力和政治敏銳力,多次使用ChatGPT就很容易被其所左右,進(jìn)而產(chǎn)生意識(shí)形態(tài)上的風(fēng)險(xiǎn)。
(二)真實(shí)存疑與機(jī)械報(bào)道的內(nèi)容危機(jī)
新聞?wù)鎸?shí)性是新聞工作者進(jìn)行新聞報(bào)道的一個(gè)基本原則,也是最重要的新聞倫理之一。新媒體時(shí)代,傳播主體的增多促進(jìn)信息的海量傳播,信息來源復(fù)雜,基于人類反饋強(qiáng)化學(xué)習(xí)的AIGC以其信息生產(chǎn)速度快、信息生成自動(dòng)化的特點(diǎn),導(dǎo)致虛假信息難以識(shí)別并在網(wǎng)絡(luò)中快速傳播,公眾識(shí)別困難使得新聞?wù)鎸?shí)性得不到保障。2023年2月,由ChatGPT自動(dòng)生成的假新聞“杭州市政府將取消機(jī)動(dòng)車尾號(hào)限行政策”在網(wǎng)絡(luò)上出現(xiàn)并被大量轉(zhuǎn)發(fā),AIGC強(qiáng)大的內(nèi)容生成能力使得信息偽造成本低下,傳播范圍極其廣泛,損害新聞?wù)鎸?shí)性。此外,專業(yè)把關(guān)的缺失和事實(shí)核查能力的缺乏容易使AIGC傳播的信息存在事實(shí)錯(cuò)誤或數(shù)據(jù)偏差等行為,專業(yè)媒體背書的新聞信息出現(xiàn)失誤,監(jiān)管體系的不完善模糊了新聞?wù)鎸?shí)的邊界,加大新聞倫理風(fēng)險(xiǎn)。2023年3月,廣州的一名女子在網(wǎng)上發(fā)布自己在地鐵上的照片,后被網(wǎng)友拿去用AIGC“一鍵脫衣”,虛假照片的廣泛傳播對(duì)當(dāng)事人造成巨大傷害,人們對(duì)AIGC自動(dòng)生成的信息難以分辨真?zhèn)?,使得新聞?wù)鎸?shí)性存疑。
由人工智能生成的內(nèi)容通常是依靠人們原本設(shè)定好的程序和數(shù)據(jù)庫資源進(jìn)行寫作,模式化程度較高,而且只是基于新聞報(bào)道的表面現(xiàn)象單純陳述新聞事實(shí),缺乏深度思考和創(chuàng)新的能力,這也就導(dǎo)致生成的新聞內(nèi)容難以揭示事件的本質(zhì),顛覆了新聞內(nèi)涵的深度挖掘。再者,它們?nèi)鄙傩侣劰ぷ髡咚邆涞膶I(yè)能力以及文化素養(yǎng),無法突破專業(yè)壁壘,也沒有辦法擁有人類的真情實(shí)感,這樣看來,人工智能生成的內(nèi)容缺乏“情感溫度”,很難讓受眾產(chǎn)生情感共鳴,傳播效果受限。正如麥加所言:“人工智能的創(chuàng)作便利性越來越強(qiáng),但令人擔(dān)憂的是,人似乎因此而變得依賴于機(jī)械化。”以AI虛擬主播為例,它的表情、神態(tài)、動(dòng)作表達(dá)較真人主播顯得很生硬,在聲音表達(dá)上機(jī)械感較重,無法與用戶建立真實(shí)的情感連接,同時(shí)缺乏與用戶的實(shí)時(shí)溝通和雙向互動(dòng),一定程度上會(huì)降低用戶的參與度,這也就導(dǎo)致它們的適用范圍受到一定的限制。
(三)數(shù)據(jù)泄露與權(quán)力侵犯的法律隱憂
數(shù)據(jù)泄露是個(gè)人、組織或群體的私人信息或未經(jīng)授權(quán)而公開的重要信息被暴露在危險(xiǎn)空間之中。當(dāng)前人類數(shù)字化生存成為現(xiàn)實(shí),數(shù)據(jù)泄露是AIGC面臨的一大難題。AIGC需要依靠海量的數(shù)據(jù)庫來訓(xùn)練和優(yōu)化,以便能為使用者更好地提供服務(wù),這個(gè)數(shù)據(jù)庫將用戶使用行為自動(dòng)儲(chǔ)存并被納入其中,用戶通過輸入關(guān)鍵詞,小到個(gè)人的身份信息,大到國家的政治機(jī)密都能夠被記錄下來?;谌斯ぶ悄芗夹g(shù)的局限性,AIGC使得數(shù)據(jù)安全遭到威脅,帶來個(gè)人信息、國家機(jī)密等數(shù)據(jù)泄露的風(fēng)險(xiǎn),進(jìn)而給個(gè)人和國家安全帶來巨大危機(jī)。AI換臉、AI作畫、克隆合成數(shù)字人等可以迅速對(duì)個(gè)人信息進(jìn)行搜集、抓取并進(jìn)行分析,人們在互聯(lián)網(wǎng)上留下的“數(shù)字痕跡”加快了AIGC提供個(gè)人隱私的速度,信息的公開傳播使得用戶隱私暴露在網(wǎng)絡(luò)空間中,數(shù)據(jù)安全面臨嚴(yán)重的法律風(fēng)險(xiǎn)。
AIGC在內(nèi)容生成方面對(duì)權(quán)利歸屬造成威脅,如著作權(quán)、隱私權(quán)、肖像權(quán)等。首先,AI合成產(chǎn)品是運(yùn)用算法、人工智能等技術(shù)來對(duì)網(wǎng)絡(luò)信息素材進(jìn)行抓取、合成的產(chǎn)品,在這個(gè)過程中所用的信息素材來源于互聯(lián)網(wǎng)中的數(shù)據(jù)庫,這些信息素材可能存在著版權(quán)風(fēng)險(xiǎn),而計(jì)算機(jī)缺乏自主意識(shí),它們不能對(duì)這些素材進(jìn)行及時(shí)識(shí)別。當(dāng)用戶輸入指令時(shí),數(shù)據(jù)庫就會(huì)對(duì)該指令的相關(guān)內(nèi)容進(jìn)行搜索與編碼,進(jìn)而生成內(nèi)容,這極易侵犯他人版權(quán),造成新聞倫理的失范。其次,網(wǎng)絡(luò)上流行的AI算命,用戶上傳自己的照片,并輸入自己的名字、生日等個(gè)人基本信息,系統(tǒng)提取面部信息并在后臺(tái)隨機(jī)組合,在識(shí)別過程中存在著隱私泄露的風(fēng)險(xiǎn)。還有網(wǎng)上爆火的AI孫燕姿,也恰恰說明AI變聲可以做到以假亂真。最后,隱私權(quán)的讓渡和非法采集給數(shù)據(jù)安全保護(hù)帶來一系列挑戰(zhàn),一些不法分子極有可能利用用戶上傳的照片冒充照片本人進(jìn)行一些非法活動(dòng)。AI換臉被廣泛應(yīng)用到短視頻的二次創(chuàng)作中,如將電視劇中主角的臉換成自己的臉并在短視頻等平臺(tái)大量傳播,還有一些主播利用AI技術(shù)換成明星臉進(jìn)行直播帶貨等,這些行為都是侵犯肖像權(quán)的體現(xiàn)。由此可見,數(shù)據(jù)泄露和權(quán)利侵犯使得AIGC在法律層面面臨嚴(yán)峻挑戰(zhàn)。
二、探索創(chuàng)新:各國AIGC治理現(xiàn)狀分析
由于各國AIGC技術(shù)在發(fā)展過程、制度體系、文化背景和價(jià)值導(dǎo)向等方面存在顯著差異,對(duì)于AIGC的治理也呈現(xiàn)出鮮明的地域性特點(diǎn),這導(dǎo)致了不同國家在具體治理原則和模式上都各有定論,尚未達(dá)成共識(shí)。聯(lián)合國教科文組織發(fā)布的《人工智能倫理問題建議書》中要求各成員國根據(jù)自愿原則建立本國人工智能倫理框架,確保人工智能技術(shù)不被用于大規(guī)模監(jiān)控。針對(duì)AIGC帶來的新聞倫理風(fēng)險(xiǎn),美國、歐盟、中國等都在積極探索適合本國的治理路徑。
(一)美國:先發(fā)展后監(jiān)管的寬松型治理
美國是全球人工智能技術(shù)領(lǐng)域的開拓者,它奉行的是先發(fā)展后監(jiān)管的治理原則,即優(yōu)先鼓勵(lì)人工智能技術(shù)的發(fā)展,而后對(duì)人工智能技術(shù)所帶來的危機(jī)進(jìn)行監(jiān)管。美國十分注重AIGC的商業(yè)發(fā)展,2020年,美國發(fā)布的《行政部門和機(jī)構(gòu)負(fù)責(zé)人備忘錄:人工智能應(yīng)用監(jiān)管指南》中指出聯(lián)邦機(jī)構(gòu)必須避免不必要的監(jiān)管,以免阻礙人工智能產(chǎn)業(yè)的創(chuàng)新。直至去年,美國又提出用1.4億美元來推動(dòng)人工智能研究所的建設(shè),以此來實(shí)現(xiàn)更多新興領(lǐng)域的突破,然而在AIGC技術(shù)發(fā)展過程中,美國對(duì)于其在國家安全方面的問題較為重視,認(rèn)為它可能威脅本國利益,因此還成立了首席數(shù)字和人工智能辦公室,出臺(tái)了相關(guān)法律來確保自身在全球人工智能技術(shù)產(chǎn)業(yè)中的領(lǐng)先地位。美國出臺(tái)對(duì)AIGC監(jiān)管的法律較為遲緩,而且主要采取分散化的監(jiān)管模式。美國國會(huì)研究服務(wù)部(CRS)發(fā)布的報(bào)告顯示,建議立法明確生成式人工智能必須設(shè)置通知和披露機(jī)制、用戶退出機(jī)制、設(shè)立個(gè)人數(shù)據(jù)收集底線等。[4]美國頒布的《人工智能權(quán)利法案藍(lán)圖》《人工智能風(fēng)險(xiǎn)框架》形成了對(duì)人工智能系統(tǒng)的管理問責(zé)體系。此外,美國還對(duì)谷歌、OpenAI、Stability等多家人工智能生產(chǎn)商的AI產(chǎn)品進(jìn)行評(píng)估,避免出現(xiàn)數(shù)據(jù)泄露的問題,使得人工智能生成內(nèi)容更能符合法律法規(guī),更好地促進(jìn)商業(yè)發(fā)展。拜登發(fā)布e73fdf27f68d73db6ce70616ebcf70ee的“關(guān)于安全、可靠、值得信賴地發(fā)展人工智能的行政命令”,為人工智能的安全提供了保障,以便能夠更好地促進(jìn)AIGC對(duì)商業(yè)的發(fā)展。由此可見,美國對(duì)于AIGC的治理模式相對(duì)來說比較大膽,更加側(cè)重于人工智能技術(shù)對(duì)商業(yè)的發(fā)展以及技術(shù)發(fā)展進(jìn)程中如何能夠穩(wěn)定自己的領(lǐng)先地位,從而滿足國家安全需求。
(二)歐盟:先監(jiān)管后發(fā)展的強(qiáng)制型治理
與美國不同,歐盟國家更重視AIGC所帶來的數(shù)據(jù)安全問題,奉行的是先監(jiān)管后發(fā)展的治理原則,高度重視AIGC在個(gè)人數(shù)據(jù)采集、隱私保護(hù)方面存在的問題。歐盟在全球推廣其人工智能倫理道德和法律框架,并敦促成員國出臺(tái)本國人工智能國家戰(zhàn)略,以歐盟價(jià)值觀捍衛(wèi)歐洲在人工智能領(lǐng)域的領(lǐng)導(dǎo)地位。[5]在對(duì)AIGC治理時(shí)堅(jiān)持“以人為本”的原則,遵循技術(shù)懷疑的前置邏輯,始終保持著較為審慎的態(tài)度。意大利對(duì)Open AI提供的ChatGPT服務(wù)是否侵犯用戶隱私展開調(diào)查,限制處理用戶的個(gè)人信息;加拿大數(shù)據(jù)保護(hù)機(jī)構(gòu)也啟動(dòng)對(duì)Open AI的聯(lián)合調(diào)查。歐盟早在2020年《關(guān)于人工智能:歐洲追求卓越和信任的方法》中就表達(dá)了對(duì)新人工智能技術(shù)的擔(dān)憂,并開始考慮立法問題。2023年6月,歐盟通過了《人工智能法案》,對(duì)人工智能采取分級(jí)分類監(jiān)管原則,明確指出對(duì)ChatGPT此類生成式人工智能實(shí)行特別監(jiān)管,力求“保證AIGC的安全性”和“促進(jìn)AIGC進(jìn)一步發(fā)展”兩方面的平衡。同時(shí),歐盟還制定了高風(fēng)險(xiǎn)人工智能禁令,對(duì)其進(jìn)行強(qiáng)制性治理,減少了數(shù)據(jù)泄露的問題,保障了數(shù)據(jù)安全。但是,AIGC的快速發(fā)展不斷沖擊著現(xiàn)有的監(jiān)管框架,過分強(qiáng)調(diào)監(jiān)管限制了AIGC的進(jìn)一步發(fā)展,引發(fā)了部分行業(yè)的深度擔(dān)憂。
(三)中國:“軟”引導(dǎo)“硬”監(jiān)管的謹(jǐn)慎型治理
相較于歐盟、美國的治理方式,我國對(duì)AIGC的治理一直抱有十分謹(jǐn)慎的態(tài)度,強(qiáng)調(diào)“軟”引導(dǎo)和“硬”監(jiān)管相結(jié)合。一方面,對(duì)AIGC應(yīng)用范圍與領(lǐng)域進(jìn)行規(guī)范,通過制定合理的法律法規(guī)和政策監(jiān)管AIGC的開發(fā)和應(yīng)用;另一方面,為了應(yīng)對(duì)AIGC帶來的新興挑戰(zhàn),中國發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》,對(duì)AIGC模型訓(xùn)練、數(shù)據(jù)標(biāo)注、模型輸出、用戶使用等關(guān)鍵環(huán)節(jié)進(jìn)行了規(guī)范。該法規(guī)是中國首次對(duì)生成式人工智能研發(fā)與服務(wù)作出明確規(guī)定,也是全球首部針對(duì)生成式人工智能進(jìn)行監(jiān)管的法律文件。同時(shí),中國還發(fā)布了《全球人工智能治理倡議》《新一代人工智能發(fā)展規(guī)劃》《新一代人工智能治理原則:發(fā)展負(fù)責(zé)任的人工智能》等文件,呼吁要加強(qiáng)對(duì)于人工智能的治理,引導(dǎo)人工智能技術(shù)應(yīng)用向善發(fā)展,同時(shí)也要做好風(fēng)險(xiǎn)防范,不斷提升人工智能技術(shù)的安全性和可控性,力求實(shí)現(xiàn)AIGC發(fā)展和治理二者的統(tǒng)一。
放眼全球,各國在AIGC治理上普遍傾向于將法律法規(guī)作為主要手段,為人工智能生成內(nèi)容的進(jìn)一步發(fā)展提供了法律基礎(chǔ),使其在合法和合規(guī)的軌道上得以廣泛應(yīng)用。[6]但是法律法規(guī)一般存在著滯后性,不能完全應(yīng)對(duì)技術(shù)日新月異發(fā)展所帶來的潛在危機(jī)與挑戰(zhàn)。AIGC的治理面臨著嚴(yán)峻的“科林格里奇困境”,也就是說,技術(shù)后果在最初階段難以預(yù)見,而消極后果逐漸明朗之時(shí),技術(shù)已深度融入社會(huì)經(jīng)濟(jì)的各個(gè)層面,因而管控變得十分困難。[7]基于這種情況,如何在保證AIGC倫理安全的同時(shí)又促進(jìn)其穩(wěn)定發(fā)展,是目前我們面臨的重要問題之一。
三、智媒向善:AIGC規(guī)范新聞倫理的破局策略
通過分析美國、歐盟、中國對(duì)于AIGC治理的現(xiàn)狀特點(diǎn),我們可以看到,無論是美國的“寬松型”治理、歐盟的“強(qiáng)制型”管控,抑或中國的“謹(jǐn)慎型”規(guī)制,都無法避免AIGC在“技術(shù)發(fā)展”與“警惕風(fēng)險(xiǎn)”中不斷地糾偏。海勒等指出,“機(jī)器和人類共同成為一個(gè)二元體系,使得他們成為彼此的衡量尺度”[8]。AIGC的發(fā)展引發(fā)了其在新聞傳播領(lǐng)域中的倫理思考,應(yīng)對(duì)AIGC對(duì)新聞倫理的沖擊,是促進(jìn)AIGC在新聞傳播領(lǐng)域可持續(xù)發(fā)展的重要保障,也是使其更好地適應(yīng)新時(shí)代媒體環(huán)境的重要舉措。我們要確保AIGC技術(shù)得以廣泛應(yīng)用的同時(shí),也要意識(shí)到其是否符合新聞倫理的基本要求。針對(duì)智能媒體時(shí)代AIGC的破局策略,我們需要從多角度進(jìn)行分析,實(shí)現(xiàn)AIGC的創(chuàng)新發(fā)展。
(一)以主流價(jià)值體系為導(dǎo)向,加強(qiáng)AIGC風(fēng)險(xiǎn)防范
防范AIGC應(yīng)用中的數(shù)據(jù)偏見和意識(shí)形態(tài)風(fēng)險(xiǎn)問題,最重要的是要符合當(dāng)今社會(huì)的主流價(jià)值觀,這不但是技術(shù)應(yīng)用必須遵循的價(jià)值原則,也是保障意識(shí)形態(tài)安全的重中之重。技術(shù)為善服務(wù)還是為惡服務(wù),關(guān)鍵在于其使用者的價(jià)值偏好,因此,要把重視使用者的價(jià)值建設(shè)擺在首位。一方面,要提升使用者自身的媒介素養(yǎng)和技術(shù)素養(yǎng),在利用AIGC提高新聞生產(chǎn)效率的同時(shí),還要充分發(fā)揮創(chuàng)造力和主動(dòng)性,以“人的智慧”牽引“人工智能”,提高自身的專業(yè)性。只有實(shí)現(xiàn)自身對(duì)AIGC的掌控,才能確保不被技術(shù)異化,使技術(shù)更好地服務(wù)于新聞內(nèi)容生產(chǎn)的需要。另一方面,要增強(qiáng)使用者的技術(shù)風(fēng)險(xiǎn)防范能力,加強(qiáng)技術(shù)安全教育培訓(xùn),自覺提高自身的鑒別能力、判斷能力和把關(guān)能力,堅(jiān)守算法透明性、可追責(zé)性等原則來使用AIGC。只有這樣,才能防范人工智能生成內(nèi)容過程中產(chǎn)生數(shù)據(jù)偏見和意識(shí)形態(tài)風(fēng)險(xiǎn)問題的發(fā)生。
AIGC的治理面臨著嚴(yán)峻的“科林格里奇困境”,它必須符合為社會(huì)所公認(rèn)的價(jià)值體系,這是因?yàn)锳IGC所依靠的算法存在某些傾向,這些傾向直接影響了我們對(duì)于它的使用態(tài)度。我們不能僅僅因?yàn)锳IGC具有數(shù)據(jù)偏見和意識(shí)形態(tài)風(fēng)險(xiǎn)就否定并拒絕使用它,相反,我們也不能因?yàn)锳IGC在全球范圍內(nèi)的廣泛應(yīng)用就完全認(rèn)同并應(yīng)用它。因此,除了要重視AIGC使用者的價(jià)值建設(shè)外,還要加強(qiáng)對(duì)AIGC的倫理規(guī)范,對(duì)其算法進(jìn)行優(yōu)化,在這個(gè)過程中,要全面滲入“公正”“民主”的社會(huì)導(dǎo)向,提高算法透明度和準(zhǔn)確性,能夠避免出現(xiàn)極端化的內(nèi)容表達(dá),通過建立可靠的數(shù)據(jù)保障防御機(jī)制來減少數(shù)據(jù)偏見的發(fā)生,使AIGC能夠真正為人類服務(wù),而且能夠使他們享受技術(shù)優(yōu)勢所帶來的便利和好處。
(二)以多方管理主體為依托,加強(qiáng)AIGC危機(jī)治理
信息的選擇與篩選是AIGC在內(nèi)容生產(chǎn)方面對(duì)新聞倫理造成沖擊的主要原因,對(duì)于AIGC的危機(jī)治理,可以從技術(shù)、行業(yè)、新聞工作者三個(gè)角度來探討。
首先,從技術(shù)層面看,要明確AIGC在新聞傳播領(lǐng)域的應(yīng)用范圍,借助技術(shù)手段對(duì)有害信息、敏感詞匯進(jìn)行有效過濾,最大可能減少AIGC加持下虛假信息的傳播。技術(shù)供應(yīng)商也要促進(jìn)技術(shù)創(chuàng)新,適當(dāng)公開算法的操作流程,及時(shí)對(duì)AIGC產(chǎn)品進(jìn)行技術(shù)維護(hù),不斷完善技術(shù)解決方案,避免出現(xiàn)技術(shù)落后于新聞生產(chǎn)的現(xiàn)象,如開發(fā)AIGC實(shí)時(shí)翻譯、AIGC信息標(biāo)注等系統(tǒng)滿足用戶多樣化新聞需求。作為AIGC技術(shù)應(yīng)用的服務(wù)對(duì)象——用戶,要樹立辯證思維,正確看待人工智能生成內(nèi)容,重點(diǎn)關(guān)注內(nèi)容的新聞價(jià)值層面,避免陷于技術(shù)構(gòu)建的信息繭房而無法自拔。
其次,企業(yè)作為AIGC的開發(fā)者,需要做好對(duì)技術(shù)標(biāo)準(zhǔn)的制定,并對(duì)AIGC帶來的倫理風(fēng)險(xiǎn)問題進(jìn)行嚴(yán)格審查,謹(jǐn)慎處理新聞信息收集過程的各個(gè)環(huán)節(jié),始終堅(jiān)守新聞專業(yè)性原則。如果技術(shù)出現(xiàn)問題,要對(duì)企業(yè)予以追責(zé),并且要求企業(yè)對(duì)AIGC出現(xiàn)的錯(cuò)誤和疏漏進(jìn)行彌補(bǔ),建立多維度的智能計(jì)算系統(tǒng),優(yōu)化算法模型,使其在處理過程中更加真實(shí)、客觀。除企業(yè)外,相關(guān)行業(yè)監(jiān)管部門也要承擔(dān)起重要的角色,要完善管理運(yùn)營模式,避免技術(shù)濫用造成更大的社會(huì)倫理危機(jī)。推動(dòng)AIGC合理保障新聞業(yè)的發(fā)展,需要在推動(dòng)技術(shù)應(yīng)用的基礎(chǔ)上建立相應(yīng)的技術(shù)規(guī)范,釋放技術(shù)活力,推動(dòng)新聞傳媒業(yè)高質(zhì)量發(fā)展。
最后,新聞工作者作為新聞活動(dòng)的主體,要加強(qiáng)自律,秉持新聞?wù)鎸?shí)性的原則,自覺對(duì)自身行為進(jìn)行約束,在新聞報(bào)道時(shí)注入人文關(guān)懷,避免出現(xiàn)機(jī)械化報(bào)道。還要積極合理地將智能技術(shù)應(yīng)用于新聞工作當(dāng)中,可通過打造智能識(shí)別虛假內(nèi)容的工具,例如運(yùn)用anti-deepfake技術(shù)減少虛假信息傳播,加強(qiáng)在新聞內(nèi)容的生成、審核、完善、發(fā)布這一過程的把關(guān),使新聞內(nèi)容經(jīng)過人工和技術(shù)的雙重把關(guān),以保證AIGC生成內(nèi)容傳播的真實(shí)性和準(zhǔn)確性。建立以新聞工作者為主體,與技術(shù)良性互動(dòng)的共生協(xié)作關(guān)系,確保AIGC在遵循新聞倫理的基礎(chǔ)上得以應(yīng)用。
(三)以倫理規(guī)范準(zhǔn)則為核心,加強(qiáng)AIGC法律規(guī)制
技術(shù)發(fā)展總是先行于法律,隨著AIGC技術(shù)的應(yīng)用與發(fā)展,以數(shù)據(jù)庫作為主要內(nèi)容來源的AIGC能夠在潛移默化中引發(fā)新聞侵權(quán)現(xiàn)象的發(fā)生,目前我國關(guān)于規(guī)范AIGC的法律法規(guī)還不是很完善,AIGC生產(chǎn)的新聞產(chǎn)品歸屬權(quán)是歸誰所有,是否受著作權(quán)保護(hù)以及當(dāng)其生產(chǎn)的新聞內(nèi)容出現(xiàn)問題時(shí)又由誰來承擔(dān)責(zé)任,這類問題需要運(yùn)用法律加以界定?!缎乱淮斯ぶ悄馨l(fā)展規(guī)劃》將如何促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范視為核心問題,對(duì)于AIGC的規(guī)制需要法律的約束。針對(duì)AIGC應(yīng)用于新聞內(nèi)容生產(chǎn)的歸屬、場景、范圍以及追責(zé)機(jī)制等出臺(tái)相關(guān)法律,對(duì)已經(jīng)出臺(tái)的相關(guān)法律進(jìn)行細(xì)化,厘清相關(guān)主體責(zé)任,明確規(guī)定使用者利用AIGC創(chuàng)作的內(nèi)容一經(jīng)發(fā)布,必須對(duì)其侵犯著作權(quán)、隱私權(quán)、肖像權(quán)等行為承擔(dān)法律責(zé)任,最大程度上規(guī)制AIGC帶來的法律危機(jī),推進(jìn)新聞業(yè)責(zé)任意識(shí)的樹立和健康內(nèi)容生態(tài)的建立,維護(hù)新聞專業(yè)性。例如在《中華人民共和國著作權(quán)法》中完善有關(guān)AIGC內(nèi)容版權(quán)保護(hù)的法規(guī),根據(jù)當(dāng)前應(yīng)用現(xiàn)狀在已有的法律基礎(chǔ)上進(jìn)一步完善法律規(guī)范,為AIGC的進(jìn)一步發(fā)展提供法律支撐。針對(duì)AIGC的數(shù)據(jù)采集,應(yīng)健全預(yù)防算法偏見的法規(guī)體系,設(shè)置偏見評(píng)估系統(tǒng),在內(nèi)容輸出前對(duì)其進(jìn)行偏見評(píng)估,從源頭上對(duì)內(nèi)容進(jìn)行規(guī)范。新聞倫理是法律法規(guī)制定的基礎(chǔ),AIGC必須遵循為社會(huì)所認(rèn)可的倫理規(guī)范,因此要促進(jìn)倫理道德規(guī)范的建設(shè),參照《人工智能倫理問題建議書》中的意見,堅(jiān)持以社會(huì)主義核心價(jià)值觀為核心,堅(jiān)持以人為本,智能向善作為基本準(zhǔn)則,并將其滲透至AIGC的應(yīng)用環(huán)節(jié)中,[9]使得AIGC最大限度回應(yīng)使用者的基本訴求,促進(jìn)良性發(fā)展。
Gartner曾預(yù)測,“到2025年,生成式AI產(chǎn)生的內(nèi)容將從目前的1%提升到10%”[10],也就是說未來的AIGC擁有廣泛的發(fā)展前景。新聞業(yè)的發(fā)展離不開技術(shù)的推動(dòng),也離不開對(duì)新聞倫理的堅(jiān)守。因此新聞業(yè)要堅(jiān)持“工具理性”和“價(jià)值理性”二者相輔相成,既要強(qiáng)調(diào)AIGC的發(fā)展創(chuàng)新,也要重視對(duì)于AIGC的新聞倫理規(guī)范,更好地利用AIGC促進(jìn)新聞業(yè)轉(zhuǎn)型升級(jí)。
【本文系國家民委共同發(fā)展司專項(xiàng)課題“構(gòu)建現(xiàn)代傳播矩陣推動(dòng)共同現(xiàn)代化”(項(xiàng)目編號(hào):20231016000)的階段性成果】
參考文獻(xiàn):
[1]習(xí)近平.高舉中國特色社會(huì)主義偉大旗幟為全面建設(shè)社會(huì)主義現(xiàn)代化國家而團(tuán)結(jié)奮斗——在中國共產(chǎn)黨第二十次全國代表大會(huì)上的報(bào)告[Z].北京:人民出版社,2022.
[2]唐俊.對(duì)媒介進(jìn)化論的再認(rèn)識(shí):基于感知和權(quán)力的雙重維度——兼論Web3.0媒介的平權(quán)結(jié)構(gòu)[J].新聞界,2023(01):47-56.
[3]陳昌鳳,張夢.由數(shù)據(jù)決定?AIGC的價(jià)值觀和倫理問題[J].新聞與寫作,2023(04):15-23.
[4][5] 朱新梅,周菁.全球主要國家和地區(qū)人工智能治理研究報(bào)告[J].聲屏世界,2023(24):14-21+32.
[6]胡兵,鐘思悅.荷蘭預(yù)判性技術(shù)倫理思潮對(duì)AIGC治理的啟示[J].青年記者,2024(02):48-54.
[7]文成偉,汪姿君.預(yù)知性技術(shù)倫理消解AI科林格里奇困境的路徑分析[J].自然辯證法通訊,2021,43(04):9-15.
[8]凱瑟琳·海勒,黃斐.計(jì)算人類[J].全球傳媒學(xué)刊,2019(01):28-46.
[9]周鴻,熊青霞.AIGC賦能媒介生產(chǎn)的機(jī)遇、隱憂與應(yīng)對(duì)[J].傳播與版權(quán),2024(02):35-38.
[10]鄭滿寧.人工智能技術(shù)下的新聞業(yè):嬗變、轉(zhuǎn)向與應(yīng)對(duì)——基于ChatGPT帶來的新思考[J].中國編輯,2023(04):35-40.
作者簡介:孟艷芳,博士,北京印刷學(xué)院副教授;劉伊茗,北京印刷學(xué)院碩士研究生;范濤,揚(yáng)州大學(xué)碩士研究生
編輯:徐 峰