【摘 要】人工智能對重塑內(nèi)容生產(chǎn)力產(chǎn)生了深遠影響,AI在出版行業(yè)的選題策劃、內(nèi)容生產(chǎn)、內(nèi)容審校等各個環(huán)節(jié)可提供強有力的支持,重構(gòu)出版流程。新技術(shù)的應(yīng)用引發(fā)“人—技”關(guān)系錯位,技術(shù)控制力不足導(dǎo)致內(nèi)容準(zhǔn)確性降低、知識產(chǎn)權(quán)保護不力、用戶隱私安全受到威脅等倫理問題。對此,應(yīng)厘清“人—技”關(guān)系,從保障人的主導(dǎo)位置、提升內(nèi)容篩選檢測力度、提高知識產(chǎn)權(quán)保護能力、強化用戶隱私安全意識等方面入手,防范AI應(yīng)用風(fēng)險,實現(xiàn)人與技術(shù)的同生共進。
【關(guān) 鍵 詞】AI應(yīng)用;人工智能;出版;“人—技”關(guān)系
【作者單位】王飚,中國新聞出版研究院數(shù)字出版研究所;魏婧,北京語言大學(xué)出版社。
【中圖分類號】G230.7 【文獻標(biāo)識碼】A 【DOI】10.16491/j.cnki.cn45-1216/g2.2024.13.003
人工智能(AI)引領(lǐng)新一輪的內(nèi)容創(chuàng)作技術(shù)革新,深刻改變著內(nèi)容的生產(chǎn)方式,對重塑內(nèi)容生產(chǎn)力產(chǎn)生了深遠影響。2022年11月,OpenAI引入了一款先進的AI聊天機器人——ChatGPT,其具備與用戶實時互動的能力,并能自動生成流暢且邏輯清晰的自然語言回應(yīng)。ChatGPT功能豐富多樣,無論是解答基礎(chǔ)問題,還是創(chuàng)作詩歌、故事,編寫程序代碼,乃至進行語言翻譯、編寫文本摘要、撰寫行業(yè)分析與商業(yè)計劃書,其均能勝任。ChatGPT的推出引發(fā)了社會各界對AI的廣泛關(guān)注,隨后,眾多AI工具不斷涌現(xiàn),并逐漸成為內(nèi)容生產(chǎn)的重要基礎(chǔ)設(shè)施,廣泛應(yīng)用于廣告、媒體、教育、藝術(shù)等諸多領(lǐng)域。在出版領(lǐng)域,AI主要在內(nèi)容策劃、生產(chǎn)、審校等各個環(huán)節(jié)提供支持。
值得注意的是,AI給出版行業(yè)帶來的影響是雙面的。一方面,AI簡化了出版生產(chǎn)流程,為各環(huán)節(jié)提供技術(shù)支持,將出版從業(yè)人員從重復(fù)勞動中解放出來,提供更豐富的社會發(fā)展信息、科學(xué)文化信息、市場信息并進行智能分析,對出版行業(yè)生產(chǎn)力提高具有重要作用;另一方面,AI深度介入出版流程,引發(fā)“人—技”關(guān)系異化的問題,出版行業(yè)亟須關(guān)注技術(shù)應(yīng)用中的倫理失范現(xiàn)象并予以應(yīng)對。
一、AI應(yīng)用:人工智能技術(shù)重構(gòu)出版流程
傳統(tǒng)的出版流程包括選題策劃、組稿、編輯加工、審校等多個環(huán)節(jié),完成整個流程需要耗費大量時間和人力以保證出版物質(zhì)量。AI技術(shù)的應(yīng)用可重構(gòu)出版流程,降低出版運行成本,提高出版工作效率。
1.AI在選題策劃方面的應(yīng)用
在選題策劃環(huán)節(jié),AI可以幫助內(nèi)容策劃者全方位地收集信息,有針對性地進行分析并作出決策,充分、準(zhǔn)確地把握用戶需求和市場趨勢,預(yù)測未來市場表現(xiàn)和潛在風(fēng)險,為出版選題策劃提供依據(jù)。
第一,AI可以針對選題策劃全方位地收集信息。人工智能技術(shù)可以采集并分析大量數(shù)據(jù),包括消費者行為、相關(guān)用戶畫像、社會熱點話題、市場發(fā)展趨勢、同類內(nèi)容市場表現(xiàn)、作者信息等。借助這些數(shù)據(jù),編輯可以在選題策劃過程中更好地確定目標(biāo)受眾、了解受眾需求,并快速生成文本、圖表等可視化內(nèi)容以為選題決策提供依據(jù),進而策劃出社會效益和經(jīng)濟效益并重的內(nèi)容選題。
第二,AI可以助力拓展選題內(nèi)容和拓寬選題思路。在已有選題的情況下,AI可以通過對大量數(shù)據(jù)進行學(xué)習(xí)和分析,對已有選題進行深入挖掘和內(nèi)容拓展,生成潛在的新選題;幫助編輯發(fā)現(xiàn)新的視角,拓寬選題思路,增強內(nèi)容策劃的創(chuàng)意性和多樣性,從而提高內(nèi)容的吸引力和受眾的參與度。
第三,AI可以對所策劃內(nèi)容進行預(yù)測分析。一方面,AI可預(yù)測內(nèi)容的市場表現(xiàn),幫助編輯提前了解出版物面世后可能達到的效果,然后及時調(diào)整內(nèi)容生產(chǎn)策略,避免資源浪費;另一方面,AI可預(yù)測內(nèi)容潛在的風(fēng)險和危機,為編輯提前預(yù)警或幫助編輯預(yù)先準(zhǔn)備應(yīng)對方案,避免可能產(chǎn)生的負(fù)面影響[1]。
2.AI在內(nèi)容生產(chǎn)方面的應(yīng)用
隨著AI對圖文聲像處理能力和學(xué)習(xí)能力的不斷增強,其可根據(jù)用戶需求短時間內(nèi)生成文章、詩歌、音樂、視頻、動畫等多種內(nèi)容形式,在使用者的引導(dǎo)下完成多樣化的內(nèi)容創(chuàng)作?;诖?,編輯運用AI在內(nèi)容生產(chǎn)方面可以實現(xiàn)自動內(nèi)容生成、智能細節(jié)優(yōu)化以及輔助創(chuàng)作等,獲得豐富的內(nèi)容資源。
在語言處理方面,AI能夠?qū)崿F(xiàn)新聞稿撰寫、論文寫作等專業(yè)方面的自動化應(yīng)用。通過自然語言處理和訓(xùn)練,AI可以快速地分析大量數(shù)據(jù),提取關(guān)鍵信息并生成結(jié)構(gòu)清晰、語言流暢的文章[2]。應(yīng)用在出版領(lǐng)域,如撰寫出版物營銷廣告文字方面,AI可以實時抓取網(wǎng)絡(luò)信息,結(jié)合社會熱點話題生成相關(guān)文案,還可以根據(jù)不同平臺需求轉(zhuǎn)換文字風(fēng)格,快速創(chuàng)作符合互聯(lián)網(wǎng)傳播規(guī)律的內(nèi)容,增強營銷文案的傳播效果。在出版物輔文等相關(guān)內(nèi)容的創(chuàng)作中,AI可以幫助編輯梳理出版物的主要內(nèi)容,抓取內(nèi)容亮點,生成參考樣例,提高編輯工作效率。
在視覺處理方面,AI通過語音識別和圖像識別,可自動將文字稿轉(zhuǎn)化為視頻腳本,并生成相應(yīng)的畫面和音效。這不僅提高了視頻制作的效率和質(zhì)量,還為創(chuàng)作者提供了更多的創(chuàng)意空間。目前,一些研究團隊和公司已經(jīng)利用深度學(xué)習(xí)和生成對抗網(wǎng)絡(luò)(GANs)等技術(shù),開發(fā)生成高質(zhì)量的動態(tài)交互性3D模型,這對數(shù)字出版中的教育、科普、互動故事書等方面的內(nèi)容制作有很大助益。
在內(nèi)容生成后,AI可以通過用戶反饋,對生成的內(nèi)容進行自動化、智能化的優(yōu)化修改。在傳統(tǒng)的創(chuàng)作過程中,創(chuàng)作者收到受眾反饋后需要手動對作品進行修改和調(diào)整,而AI可以通過分析反饋數(shù)據(jù),自動識別作品中存在的問題和不足,并給出具體的修改建議。這使得編輯能夠更快速地響應(yīng)受眾需求,提高作品的質(zhì)量和用戶滿意度。同時,AI還可以作為內(nèi)容生成的輔助工具。在傳統(tǒng)的內(nèi)容生產(chǎn)中,不會編寫計算機語言的創(chuàng)作者無法運用代碼制作網(wǎng)頁,但借助AI,創(chuàng)作者不再需要自己編寫代碼,只要能讀懂代碼,就可以向ChatGPT等AI工具發(fā)送制作指令,由AI生成所需代碼,并將生成代碼粘貼進HTML文件,優(yōu)化調(diào)整后即可完成簡單的網(wǎng)頁制作,為數(shù)字出版的內(nèi)容生產(chǎn)注入新的活力。
總體而言,AI在內(nèi)容生產(chǎn)方面的應(yīng)用已經(jīng)深入到自動生產(chǎn)、智能優(yōu)化以及輔助創(chuàng)作等各個環(huán)節(jié),這些應(yīng)用既提高了內(nèi)容生產(chǎn)的效率和質(zhì)量,又為出版從業(yè)人員帶來了更多的創(chuàng)作便利性。
3.AI在內(nèi)容審校方面的應(yīng)用
內(nèi)容審校是出版物生產(chǎn)過程中的一個重要組成部分,對出版物質(zhì)量把控有著不可忽視的作用。內(nèi)容審校需要耗費大量的人力和時間,盡管已有自動化工具應(yīng)用于字詞、標(biāo)點、敏感詞等方面的輔助審校,一定程度上提高了內(nèi)容審校的工作效率,但難以對深層知識性錯誤進行校核,對數(shù)字化時代的多媒體內(nèi)容也無法準(zhǔn)確識別,這增加了編輯審校工作的難度。AI技術(shù)的介入構(gòu)建了更加完善的知識庫,在智能審校的語義分析和知識性檢測等方面大幅提升了編輯的工作效率。AI可以通過圖像識別、計算機視覺、自然語言處理等技術(shù)手段,對圖片、音頻、視頻等多種類型的內(nèi)容進行自動化審核;通過訓(xùn)練模型能識別違規(guī)信息,如色情、暴力、虛假廣告等,從而實現(xiàn)對違規(guī)內(nèi)容的快速攔截和過濾。
二、倫理失范:技術(shù)控制力度引發(fā)應(yīng)用風(fēng)險
從技術(shù)哲學(xué)主客二分的理論框架來看,在“人—技”關(guān)系中,人應(yīng)該處于主體地位,是有意識、能思考的存在,技術(shù)則應(yīng)該處于客體地位,是被創(chuàng)造、被統(tǒng)治的事物,是一種為人使用和提供服務(wù)的工具性質(zhì)產(chǎn)物[3]。AI應(yīng)用中表現(xiàn)出的“人—技”關(guān)系異化主要體現(xiàn)在人對技術(shù)的控制力度不足,容易產(chǎn)生一系列內(nèi)容安全隱患。
1.個體自主性問題
AI在內(nèi)容生成上的廣泛應(yīng)用不僅會對出版內(nèi)容及相關(guān)數(shù)據(jù)產(chǎn)生沖擊,對處于出版流程中的個人也將帶來影響,尤其是直接使用AI輔助創(chuàng)作的編輯和作者。越來越多的內(nèi)容可以通過AIGC完成,生產(chǎn)過程更加快速、高效。這種現(xiàn)象會導(dǎo)致創(chuàng)作者更加依賴人工智能,減少自身的思考和創(chuàng)作,作為創(chuàng)作的主體意識日趨減弱,逐漸讓渡自身作為內(nèi)容創(chuàng)作者的主體地位,讓AI從輔助工具發(fā)展成為創(chuàng)作主體工具,淡化人的自主性[4]。
2.內(nèi)容準(zhǔn)確性問題
盡管AI生成內(nèi)容高效便捷,但也可能存在知識性、科學(xué)性、事實性等方面的錯誤。一是由于世界在不斷變化發(fā)展中,信息也在不斷地更新迭代,AI的訓(xùn)練數(shù)據(jù)往往難以做到實時更新,這就意味著AI生成的內(nèi)容可能無法及時反映最新的知識、科學(xué)成果或事實真相。基于原本數(shù)據(jù)的生成方式,使得AI在應(yīng)對快速變化的信息環(huán)境時,往往力不從心。因此,AI生成的內(nèi)容可能在一定程度上存在滯后性,甚至可能誤導(dǎo)用戶。二是數(shù)據(jù)質(zhì)量問題會導(dǎo)致AI生成內(nèi)容出現(xiàn)錯誤。AI的訓(xùn)練數(shù)據(jù)來源于多個渠道,這些數(shù)據(jù)的質(zhì)量參差不齊,有的可能存在錯誤、誤導(dǎo)性或偏見。當(dāng)AI模型基于這些數(shù)據(jù)進行訓(xùn)練時,就有可能將這些錯誤或偏見帶入生成的內(nèi)容中,這不僅影響了AI生成內(nèi)容的準(zhǔn)確性,還可能誤導(dǎo)公眾,對輿論環(huán)境和社會穩(wěn)定造成不良影響[5]。三是AI算法復(fù)雜且運行透明度低,生成過程不可控,內(nèi)部運行機制有時難以被理解和解釋。如ChatGPT是通過自動生成的大預(yù)言模型來回復(fù)用戶提問,但其并不具備推理能力,只能根據(jù)上下文語境來回答問題,但不對答案的真實性進行驗證,導(dǎo)致錯誤答案的產(chǎn)生。這一過程無法被用戶識別和干預(yù),且生成內(nèi)容看似合理且連貫,容易被用戶接受[6]。
3.知識產(chǎn)權(quán)保護問題
AI作為一種技術(shù)工具,其內(nèi)容生產(chǎn)活動被視為中立行為,然而,如果AI被用于大規(guī)模的內(nèi)容生產(chǎn),將面臨一系列知識產(chǎn)權(quán)問題。這些問題主要包括三個方面。一是AI作品是否符合原創(chuàng)性要求。版權(quán)法認(rèn)定的作品需要具有一定的原創(chuàng)性,而AI創(chuàng)作內(nèi)容建立在學(xué)習(xí)了大量現(xiàn)有作品的基礎(chǔ)上,這些新作品是否具有獨創(chuàng)性有待商榷。二是侵權(quán)責(zé)任認(rèn)定。如果AI在內(nèi)容生產(chǎn)過程中有對他人作品過度引用或模仿行為,侵犯了他人現(xiàn)有的知識產(chǎn)權(quán),侵權(quán)責(zé)任歸屬于AI開發(fā)者還是使用者,尚無定論。三是AI作品的版權(quán)歸屬。當(dāng)AI創(chuàng)作出一部作品,如小說、歌曲或畫作,傳統(tǒng)意義上的“作者”或“創(chuàng)作者”概念變得模糊,AI創(chuàng)作的作品版權(quán)歸屬于AI的開發(fā)者、使用者還是AI本身,在法律上的界定尚不明確[7]。
4.用戶隱私安全問題
數(shù)據(jù)隱私與安全問題是AI在應(yīng)用過程中必須面對的挑戰(zhàn)。AI需要處理大量的用戶數(shù)據(jù),包括個人信息、瀏覽記錄、搜索歷史等,這些數(shù)據(jù)的采集可能未經(jīng)用戶同意,一旦被泄露或濫用,將給用戶帶來極大的隱私風(fēng)險。同時,AI模型本身也可能存在安全漏洞。由于人工智能技術(shù)的復(fù)雜性和不斷更新?lián)Q代的特性,其代碼和算法可能存在未知的缺陷和漏洞。這些漏洞一旦被黑客發(fā)現(xiàn)并利用,可能會導(dǎo)致AI系統(tǒng)被攻擊或濫用,這會給內(nèi)容生產(chǎn)者帶來重大的經(jīng)濟損失。
三、原則規(guī)范:出版流程人機協(xié)同防范技術(shù)問題
在當(dāng)前技術(shù)發(fā)展中,基礎(chǔ)的倫理問題是人與技術(shù)的關(guān)系,只有深刻認(rèn)識這個問題,才能正確處理“人—技”關(guān)系,讓技術(shù)為生產(chǎn)生活賦能。AI應(yīng)用于出版領(lǐng)域,需要強調(diào)人的主體地位,以人為本,以技為用,由人控制技術(shù)應(yīng)用的全過程,加強內(nèi)容控制,防范技術(shù)風(fēng)險。
1.保障“人—技”關(guān)系主導(dǎo)地位
發(fā)展技術(shù)的目的是幫助人進行自我完善,解決生產(chǎn)生活中遇到的問題,提高工作效率,人工智能技術(shù)存在的意義應(yīng)是為人服務(wù),在技術(shù)倫理道德規(guī)范下,人要控制技術(shù),在“人—技”關(guān)系中處于主導(dǎo)地位。首先,確定人的主導(dǎo)地位。在使用AI的過程中,要明確AI是作為輔助工具延伸人的感知力、強化人的能力,為人的需求服務(wù)。其次,維護人的主導(dǎo)地位。AI的不斷發(fā)展對編輯、作者等AI使用者的科學(xué)素養(yǎng)尤其是科技創(chuàng)新能力提出了更高的要求,因此,AI使用者應(yīng)不斷提升素養(yǎng),追蹤和掌握AI相關(guān)知識,增強對AI的認(rèn)知和理解,學(xué)會正確應(yīng)用和控制AI工具,保持對AI的批判性思維。最后,防止技術(shù)倫理失范。人在AIGC使用中要增強風(fēng)險憂患意識,注意防范預(yù)警。如英國技術(shù)哲學(xué)家大衛(wèi)·科林格里奇在《技術(shù)的社會控制》(1980年)提出的“科林格里奇困境”:在技術(shù)發(fā)展的早期控制其應(yīng)用方向相對容易,但此時決策者缺少合理控制的專業(yè)知識;當(dāng)技術(shù)應(yīng)用的風(fēng)險顯露時,對它的控制卻幾近不可能[8]。因此,要時刻保持前瞻意識,盡早識別、預(yù)防并制定相應(yīng)的措施,以應(yīng)對未來可能引發(fā)的新的倫理失范現(xiàn)象。
2.提升內(nèi)容篩選監(jiān)測力度
人作為“人—技”關(guān)系的主體,要對AI生成內(nèi)容質(zhì)量負(fù)責(zé),尤其是在對內(nèi)容質(zhì)量要求更高的出版領(lǐng)域,需要出版從業(yè)人員在內(nèi)容生成過程中承擔(dān)數(shù)據(jù)優(yōu)化、數(shù)據(jù)把關(guān)的責(zé)任,這可以從源頭數(shù)據(jù)篩選和生成結(jié)果監(jiān)測兩方面入手。一是進行嚴(yán)格的訓(xùn)練數(shù)據(jù)篩選。AI生成內(nèi)容存在導(dǎo)向性偏差和知識性錯誤等問題,往往是因為訓(xùn)練數(shù)據(jù)質(zhì)量參差不齊。因此,為確保生成內(nèi)容的準(zhǔn)確性和可靠性,需要選取高質(zhì)量的預(yù)訓(xùn)練數(shù)據(jù)進行數(shù)據(jù)清洗,檢查數(shù)據(jù)的完整性、準(zhǔn)確性、時效性、多樣性等,并時刻保持其更新狀態(tài),防止偏見、誤導(dǎo)等信息。這不僅能顯著提升大模型的內(nèi)容生成質(zhì)量,還有助于防范隱私數(shù)據(jù)的誤用。二是加強對生成內(nèi)容的監(jiān)測。既要從數(shù)據(jù)源頭著手,有效防范相關(guān)風(fēng)險,又要加強對AI生成內(nèi)容的實時監(jiān)測與檢查,如開發(fā)自動監(jiān)測工具,追蹤生成內(nèi)容的來源和生成過程,記錄AI工具的版本、數(shù)據(jù)來源和生成內(nèi)容的上下文,以及時發(fā)現(xiàn)并處理AI運行過程中可能產(chǎn)生的算法歧視、算法偏見等安全隱患,確保生成內(nèi)容的安全與合規(guī)。
3.提高知識產(chǎn)權(quán)保護能力
加強AI在內(nèi)容生產(chǎn)領(lǐng)域的知識產(chǎn)權(quán)保護是一項艱巨且復(fù)雜的任務(wù),不僅需要出版從業(yè)人員的努力,還需要多方共同協(xié)作。首先,應(yīng)完善法律法規(guī),通過制定或修訂現(xiàn)行知識產(chǎn)權(quán)法律,明確AI創(chuàng)作成果的版權(quán)歸屬、責(zé)任劃分及侵權(quán)處置機制。在此過程中,應(yīng)著重探討AI本身是否具備成為版權(quán)主體的資格,以及如何界定AI與人類共同創(chuàng)作作品的版權(quán)歸屬問題。其次,應(yīng)從技術(shù)層面出發(fā),提升AI內(nèi)容生產(chǎn)過程的透明度,或研發(fā)新型技術(shù)工具以追蹤和監(jiān)控AI生成內(nèi)容,確保其具備可審計和可審查性。這將有助于確定內(nèi)容的來源及創(chuàng)作流程,進而在發(fā)生侵權(quán)事件時能夠迅速追溯責(zé)任主體。最后,應(yīng)倡導(dǎo)并鼓勵A(yù)I生成內(nèi)容的所有者進行版權(quán)登記,以便有效證明其所有權(quán)及創(chuàng)作時間,既便于防止AI生成內(nèi)容被不當(dāng)使用,又能在遇到法律糾紛時提供確鑿證據(jù)。
4.強化用戶隱私安全意識
加強數(shù)據(jù)與隱私保護是有效解決用戶隱私安全問題的重要措施,這是出版企業(yè)應(yīng)當(dāng)肩負(fù)的責(zé)任,也體現(xiàn)了社會的廣泛共識。在使用AI進行內(nèi)容生產(chǎn)的過程中,出版從業(yè)人員必須嚴(yán)格遵循數(shù)據(jù)保護相關(guān)的法律法規(guī),建立完善穩(wěn)健的數(shù)據(jù)保護機制,如制定詳盡且全面的數(shù)據(jù)保護政策,以明確數(shù)據(jù)收集、存儲、使用以及共享等各環(huán)節(jié)的規(guī)范與要求,確保用戶數(shù)據(jù)的安全性和隱私性得到切實保障。此外,應(yīng)致力于提升用戶的隱私保護意識,加強隱私教育工作。當(dāng)前許多用戶對數(shù)據(jù)保護與隱私安全的認(rèn)識尚不足,容易忽視自身的隱私權(quán)益,需要通過宣傳教育、專業(yè)培訓(xùn)等多種途徑,深化用戶對數(shù)據(jù)保護與隱私安全的認(rèn)識,并引導(dǎo)其重視和關(guān)注自身的隱私權(quán)益,從而營造一個安全、可信賴的數(shù)據(jù)使用環(huán)境。
四、結(jié)語
從實用的角度出發(fā),AI技術(shù)為內(nèi)容創(chuàng)作者提供了更豐富的信息和更廣闊的創(chuàng)作空間。從PGC、UGC到AIGC,越來越多的人加入內(nèi)容創(chuàng)作領(lǐng)域,互聯(lián)網(wǎng)內(nèi)容不僅在數(shù)量上實現(xiàn)了指數(shù)級增長,其類型和風(fēng)格也展現(xiàn)出愈發(fā)包容與多元的生態(tài)格局。如果說AI對普通用戶的增益效果是從0到1的躍升,那對專業(yè)人士的增益效果可能就是QyiJiJeSsHZj1sj45xECisTWSN7FbMyp1ozvgZuWXj8=實現(xiàn)從1到10的跨越。高效的AI工具使內(nèi)容生產(chǎn)者能夠集中精力處理更為核心、更具價值的工作內(nèi)容,出版從業(yè)人員應(yīng)當(dāng)培養(yǎng)自身使用、善用人工智能技術(shù)的職業(yè)能力,挖掘AI潛能,讓AI賦能出版流程。
從長遠來看,人工智能技術(shù)的深度融合與不斷革新為出版領(lǐng)域的內(nèi)容生產(chǎn)與創(chuàng)新活動注入源源不斷的活力,并有望推動其發(fā)展進程進一步加速。但我們也應(yīng)該清醒地認(rèn)識到,在享受AI帶來的便捷與高效的同時,要深刻認(rèn)識并厘清“人—技”關(guān)系,高度重視并強化倫理和法律問題,確保AI的發(fā)展和應(yīng)用始終在可控、合法的軌道上運行。只有打造健康的AI應(yīng)用生態(tài),注重人與技術(shù)和諧共生,才能真正解放創(chuàng)作者的生產(chǎn)力,提高內(nèi)容生產(chǎn)效率,讓技術(shù)真正為人類社會的進步貢獻力量。
|參考文獻|
[1] 王峻峰. 人工智能生成內(nèi)容(AIGC)及其在圖書出版中的應(yīng)用探討[J]. 傳播與版權(quán),2023(10):48-51.
[2]ChatGPT之后,AI如何革新數(shù)字內(nèi)容創(chuàng)作[EB/OL].(2023-05-16)[2024-07-01] . https://mp. weixin.qq.com/s/SHzgUvFNXcCWIBN15TpbkQ.
[3]張培. 技術(shù)倫理視角下的VR廣告“人—技”關(guān)系研究[D]. 太原:山西大學(xué),2021.
[4]劉珺. “人工智能+”背景下視聽媒體內(nèi)容生產(chǎn)的創(chuàng)新和隱憂[J]. 中國傳媒科技,2024(6):7-13.
[5] 矣曉沅,謝幸. 大模型道德價值觀對齊問題剖析[J]. 計算機研究與發(fā)展,2023(9):1926-1945.
[6]陳建兵,王明. 負(fù)責(zé)任的人工智能:技術(shù)倫理危機下AIGC的治理基點[J]. 西安交通大學(xué)學(xué)報(社會科學(xué)版),2024(1):111-120.
[7] 史鑫鑫,生奇志. 生成式AI:ChatGPT爆火背后的知識產(chǎn)權(quán)問題探析[J]. 科技傳播,2023(9):80-83.
[8]卡爾·米切姆,朱勤. 關(guān)于技術(shù)與倫理關(guān)系的多元透視[J]. 哲學(xué)研究,2007(11):79-82.