【摘 要】隨著生成式人工智能技術(shù)的進一步發(fā)展,各行各業(yè)都受到了沖擊和挑戰(zhàn),出版行業(yè)總體呈現(xiàn)活躍的發(fā)展態(tài)勢。然而,生成式AI并不能夠真正理解其生成的知識內(nèi)容,容易出現(xiàn)對用戶隱私權(quán)的侵犯、內(nèi)容品質(zhì)的低俗傾向以及數(shù)據(jù)真實性遭受質(zhì)疑等失范現(xiàn)象。從出版的角度出發(fā),探討生成式AI出版存在的倫理風險,有針對性地提出在技術(shù)層面加強內(nèi)容審查共識、在行業(yè)算法層面建構(gòu)多元主體監(jiān)督出版的技術(shù)框架、在法律層面建立生成式AI出版監(jiān)管制度、在倫理層面培養(yǎng)正確的主體意識等多元規(guī)制路徑,為出版的倫理重建提供思路和指引。
【關(guān)" 鍵" 詞】人工智能;AIGC;內(nèi)容生產(chǎn);規(guī)制
【作者單位】陳雨,揚州大學馬克思主義學院;楊璐穎,揚州大學新聞與傳媒學院;馮銳,揚州大學新聞與傳媒學院。
【基金項目】國家社會科學基金青年項目(22CDJ025);2022年江蘇省研究生科研創(chuàng)新基金項目(KYCX22_
3407);2024年江蘇省研究生科研創(chuàng)新基金項目“生成式人工智能的內(nèi)容生產(chǎn)與認知風險研究”(KYCX24_3703)。
【中圖分類號】G230.7 【文獻標識碼】A 【DOI】10.16491/j.cnki.cn45-1216/g2.2024.22.009
在科技飛速發(fā)展的今天,生成式人工智能(Artificial Intelligence Generated Content,AIGC)已經(jīng)從概念化階段躍升到現(xiàn)實應(yīng)用的前沿領(lǐng)域,其深度學習與強化學習技術(shù)的革新,正以前所未有的方式塑造信息生產(chǎn)和傳播的方式。從自然語言處理到視覺藝術(shù)創(chuàng)作,生成式AI以其強大的創(chuàng)新能力對傳統(tǒng)知識生產(chǎn)體系產(chǎn)生了深刻影響,特別是在文學、新聞及出版行業(yè)中表現(xiàn)突出。然而,隨著這一技術(shù)的廣泛應(yīng)用,一系列新的倫理挑戰(zhàn)也隨之出現(xiàn),尤其是在出版領(lǐng)域中涉及的源數(shù)據(jù)、原創(chuàng)性、版權(quán)歸屬、責任認定等核心問題。2023年,國家互聯(lián)網(wǎng)信息辦公室等七部門聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》,對生成式AI出現(xiàn)的一些問題進行了規(guī)定,但仍有若干細節(jié)問題有待深入探討,如以何種出版治理理念協(xié)調(diào)技術(shù)發(fā)展與社會需求、社會倫理之間的一致性,這是未來出版業(yè)需要深入探討的課題。
從學術(shù)出版理論認識的層面來看,學術(shù)出版研究已有較為深厚的成果基礎(chǔ),但對內(nèi)容生產(chǎn)層面風險與規(guī)制的探討尚顯不足,建立在經(jīng)驗主義層面的學術(shù)出版概念也往往存在被窄化的情形[1]。以ChatGPT為代表的生成式AI對學術(shù)出版的倫理規(guī)范構(gòu)成了深遠且復雜的沖擊。截至2023年2月15日,僅PubMed數(shù)據(jù)庫已記錄4篇標注ChatGPT為作者的文章,這昭示著生成式AI技術(shù)已悄然“滲透”出版界。生成式AI的內(nèi)容生產(chǎn)可能導致的源數(shù)據(jù)污染、作者身份模糊、知識產(chǎn)權(quán)侵權(quán)風險增加。目前關(guān)于生成式AI出版研究主要集中在版權(quán)歸屬、技術(shù)倫理等。例如:關(guān)注生成式AI引發(fā)的出版著作權(quán)問題、技術(shù)倫理問題、文化安全問題[2];探討生成式AI對知識萃取、生產(chǎn)、傳播及出版方面的潛在影響[3];對有序的事件出版在倫理上對出版義利觀、主體觀以及績效觀進行重新思考[4];在“場域”視角下探究出版?zhèn)惱砝Ь车脑蛞约皩ζ渎窂竭M行合理性建構(gòu)[5];以ChatGPT為代表的生成式AI為學術(shù)出版帶來的機遇包括稿件基礎(chǔ)內(nèi)容改進、審稿人篩選及擴充優(yōu)化、日常事務(wù)性工作增速、知識生產(chǎn)服務(wù)轉(zhuǎn)型、媒體融合產(chǎn)品提質(zhì)、多語言傳播途徑擴展[6]。盡管已有諸多研究成果,但部分關(guān)鍵問題,如學術(shù)不端行為的界定、知識產(chǎn)權(quán)歸屬的模糊地帶、署名規(guī)則的適用爭議等仍需進一步解決。鑒于此,本文聚焦AI出版的內(nèi)容生產(chǎn)風險,探討應(yīng)對AI出版的內(nèi)容生產(chǎn)協(xié)同治理之道,以及在法律規(guī)制框架下如何界定和規(guī)范AI生成內(nèi)容的出版行為,在鼓勵科技創(chuàng)新與保護創(chuàng)作者權(quán)益、維護社會公正之間找到平衡點。
一、生成式AI出版內(nèi)容的三重困境
在知識生產(chǎn)和傳播的關(guān)鍵環(huán)節(jié),生成式AI技術(shù)能夠高效地完成前期調(diào)研、大數(shù)據(jù)采集,并在中期輔助編校,后期對出版工作產(chǎn)生的數(shù)據(jù)信息進行系統(tǒng)化采集、反饋和深度分析,為編輯人員提供持續(xù)學習與優(yōu)化的重要資料參考。然而,生成式AI在出版領(lǐng)域的應(yīng)用面臨諸多挑戰(zhàn),這些挑戰(zhàn)源于出版內(nèi)容生產(chǎn)本身的特性、生成內(nèi)容以及出版主體的法律法規(guī)等。
1.出版內(nèi)容生產(chǎn)的局限性:源數(shù)據(jù)存在錯誤或誤導性信息
源數(shù)據(jù)若存在錯誤,將直接影響內(nèi)容生產(chǎn)質(zhì)量,從而引發(fā)傳播偏向和技術(shù)偏向,最終責任歸屬也模糊不清,因此內(nèi)容生產(chǎn)的管制應(yīng)從源頭抓起。生成式AI,尤其是基于深度學習的大規(guī)模語言模型,主要通過學習大量文本數(shù)據(jù)中的統(tǒng)計模式來生成新的文本。這些模型并不理解文本的深層含義或事實背后的邏輯,而是基于訓練數(shù)據(jù)中的上下文關(guān)聯(lián)進行概率性預測。生成式AI在應(yīng)用中面臨的明顯挑戰(zhàn)在于,由于其依賴的訓練數(shù)據(jù)集特性及其訓練算法的本質(zhì)屬性,此類系統(tǒng)偶爾會生成表面上極具說服力且行文流暢的文本,實質(zhì)上卻充斥著謬誤或空洞無物的內(nèi)容,可能無法準確把握出版領(lǐng)域的專業(yè)知識、最新進展或特定情境下的細微差別,從而生成與實際情況不符或無意義的表述。如果源數(shù)據(jù)中存在錯誤、矛盾、過時或誤導性信息,模型在生成過程中可能會重現(xiàn)這些錯誤,從而產(chǎn)生不準確或有誤導性的輸出。此外,數(shù)據(jù)集可能存在社會、文化、歷史或性別等方面的偏見,模型在生成內(nèi)容時可能會無意識地復制這些偏見,導致生成結(jié)果帶有誤導性。生成式AI在生成文本時通常不會進行實時的事實核查,即使模型在訓練過程中接觸了大量真實信息,也無法保證在生成新內(nèi)容時始終準確無誤。由于缺乏對生成內(nèi)容真實性的實時驗證機制,模型可能會輸出看似有說服力實則不準確或完全虛構(gòu)的信息。
2.出版內(nèi)容自主性趨同之困:生成內(nèi)容趨于同質(zhì)化
出版在特定時期內(nèi)的研究主題經(jīng)常呈現(xiàn)明顯的聚集現(xiàn)象。當使用相近的關(guān)鍵詞引導智能語言模型生成內(nèi)容時,算法的內(nèi)在偏好導致輸出的結(jié)果可能存在較高程度的趨同性。生成式AI出版作為信息技術(shù)與文化傳播深度融合的產(chǎn)物,不僅展現(xiàn)了強大的生產(chǎn)力和創(chuàng)新潛力,也產(chǎn)生了生成內(nèi)容自主性趨同的現(xiàn)象,表現(xiàn)為生成文本、圖像、音頻等作品在風格、主題、觀點乃至情感表達上的高度一致,陷入“生成內(nèi)容趨于同質(zhì)化”的困境。此現(xiàn)象不僅揭示了AI技術(shù)的內(nèi)在局限,還觸及文化創(chuàng)新、個性化表達與價值多元性的核心議題。
首先,生成式AI具有數(shù)據(jù)依賴。AI生成器如同一面鏡子,其生成內(nèi)容的風格、主題深受其所學習的數(shù)據(jù)集的影響,數(shù)據(jù)集的封閉性和有限性限制了AI對文化多元性、“邊緣聲音”以及未來趨勢的感知與表達,加劇了內(nèi)容同質(zhì)化。其次,生成式AI的算法設(shè)計具有局限性。現(xiàn)有的AI生成模型特別是基于深度學習的模型,其創(chuàng)作過程本質(zhì)上是對概率分布的擬合,追求在給定數(shù)據(jù)下的最大似然輸出。這種設(shè)計傾向使得AI在生成內(nèi)容時往往選擇“安全”“常規(guī)”的路徑,即那些符合大眾預期、不易引發(fā)爭議的結(jié)果。模型結(jié)構(gòu)的固定性、訓練目標的單一性以及對風險規(guī)避的內(nèi)在偏好,限制了AI在內(nèi)容生成上的自主探索與創(chuàng)新嘗試。最后,生成式AI缺乏情感理解。盡管AI在語言理解和邏輯推理方面取得顯著進步,但在涉及復雜的價值判斷、道德倫理、情感深度等人類高級思維活動時,往往難以捕捉微妙的情感色彩與個體經(jīng)驗,導致AI生成的內(nèi)容往往缺乏深度見解和批判性思考。內(nèi)容自主性趨同還可能導致版權(quán)混淆、原創(chuàng)性爭議以及責任歸屬不清等問題。長期沉浸于同質(zhì)化內(nèi)容的環(huán)境中,公眾的視野、思維方式乃至審美取向可能會被固化,容易抑制文化創(chuàng)新與多元化表達。
3.出版主體責任道德之困:存在倫理風險與法律風險隱患
技術(shù)進步雖然為出版行業(yè)帶來了前所未有的發(fā)展機遇,但也帶來了一系列新的倫理和法律挑戰(zhàn)。首先,在生成內(nèi)容的數(shù)據(jù)挖掘過程中,是否存在對個人隱私權(quán)的侵犯,以及是否無意間構(gòu)成學術(shù)抄襲行為,這些問題在生成內(nèi)容之初就可能存在。其次,當存在問題的內(nèi)容作為學術(shù)圖書或圖冊提交出版時,學術(shù)編輯如何有效識別AI生成的部分并對其進行價值觀審查、學術(shù)道德考量和版權(quán)歸屬界定,成為亟待解決的難題。再次,生成式AI最具代表性的ChatGPT通過抓取互聯(lián)網(wǎng)中的公開文本進行知識歸納與整合,產(chǎn)出內(nèi)容可能復制他人論文中的見解、語言表述等,若未明確來源,且超出合理使用限度,就會違背適當引用原則,導致學術(shù)剽竊[7]。最后,AI技術(shù)的開發(fā)、設(shè)計和數(shù)據(jù)篩選過程蘊含人類的價值觀,倘若缺乏有效的輸出管控機制,源數(shù)據(jù)的問題將導致技術(shù)差錯,容易引發(fā)傳播問題。
基于現(xiàn)有的數(shù)據(jù)和知識進行歸納與綜合,生成式AI產(chǎn)出的內(nèi)容雖然可以提供新的視角或便利,但在本質(zhì)上并不構(gòu)成真正的創(chuàng)新,往往缺乏原創(chuàng)性和獨立見解,不是在真正地“生產(chǎn)”知識。因此,在處理生成式AI產(chǎn)生的信息時,我們必須保持高度警覺,特別是對可能包含虛假、偏見或錯誤的內(nèi)容,在進入出版流程前應(yīng)進行嚴格審查與人工評估。
二、生成式AI出版的知識傳播偏向風險
生成式AI技術(shù)的應(yīng)用將推動出版向更開放、高度互動的內(nèi)容傳播形態(tài)發(fā)展,但也帶來了數(shù)據(jù)安全保障與版權(quán)合規(guī)的嚴峻挑戰(zhàn)。在此背景下,出版生態(tài)中的各類主體需要加強對數(shù)據(jù)泄露、濫用、非法復制等安全隱患和潛在版權(quán)侵權(quán)行為的警覺,同步提升風險預警、防范與應(yīng)對能力,以確保在創(chuàng)新技術(shù)推動產(chǎn)業(yè)升級的過程中,切實筑牢法律與倫理防線,維護各方合法權(quán)益,保障出版業(yè)態(tài)健康有序發(fā)展。
1.權(quán)利失管:版權(quán)、知識產(chǎn)權(quán)以及著作署名爭議
在出版視角下,生成式AI技術(shù)的應(yīng)用引發(fā)了兩個核心的版權(quán)議題。一是關(guān)于ChatGPT等系統(tǒng)是否應(yīng)被允許利用第三方創(chuàng)作的原創(chuàng)內(nèi)容作為生成素材,這一問題引發(fā)了業(yè)界廣泛的關(guān)注。盡管OpenAI公司聲明不對因使用其服務(wù)可能引發(fā)的任何知識產(chǎn)權(quán)侵權(quán)行為負責,但研究者在實際操作中仍須積極采取措施,規(guī)避因依賴ChatGPT而產(chǎn)生的潛在版權(quán)風險。具體而言,未經(jīng)版權(quán)所有人授權(quán),若向ChatGPT輸入大量受版權(quán)保護的文字材料以供其學習或產(chǎn)出新內(nèi)容,可能構(gòu)成對原作品權(quán)利的侵犯。二是圍繞生成式AI能否被法律認定為作品的作者。盡管已有學術(shù)論文嘗試將ChatGPT列為共同作者,但在當前大多數(shù)出版機構(gòu)的版權(quán)管理體系中,此類AI系統(tǒng)尚不具備被正式認可為學術(shù)出版物合法合著者的身份。這意味著盡管AI在某種程度上參與了創(chuàng)作過程,但現(xiàn)行著作權(quán)法規(guī)和行業(yè)慣例并未將其視為享有與人類作者同等權(quán)利與責任的創(chuàng)作主體。
目前,AI技術(shù)尚不具備全面替代諸如數(shù)據(jù)分析、結(jié)論提煉等核心研究活動的能力,因此不宜將基于AI的聊天機器人簡單等同于作者或共同作者身份。從傳播學視角來看,機器未能達到作為獨立作者的基本條件,主要原因在于其缺乏對所發(fā)布科學文獻內(nèi)容及其整體性的責任承擔能力。究其根本,即便是在機器生成的出版物中,其背后的創(chuàng)意導向和目標設(shè)定始終源自人類的智慧與決策,通過人類設(shè)計的算法得以實現(xiàn)特定目的。這一觀點強調(diào)了人機協(xié)作過程中人類不可或缺的作用,同時也為出版領(lǐng)域的倫理規(guī)范提供了理論支持。
2.算法失序:技術(shù)鴻溝與學術(shù)不平等
生成式人工智能驅(qū)動的工具與平臺對算力、專業(yè)人才和海量數(shù)據(jù)資源的倚重極為顯著。一方面,這類技術(shù)體系不僅需要巨額的硬件設(shè)備購置和軟件開發(fā)投入,還涉及人才的專項培訓、技術(shù)支持和長期的系統(tǒng)維護成本;另一方面,算法失序可能導致虛假輸出,包含不準確、存有誤導性甚至是完全錯誤的信息。這不僅影響出版物的質(zhì)量,還可能誤導讀者,損害公眾信任。虛假輸出的根源主要在于AI系統(tǒng)的訓練數(shù)據(jù)和算法設(shè)計。如果AI模型的訓練數(shù)據(jù)集不完整、有偏見或者包含錯誤的信息,這些缺陷很可能會被AI模型學習并復制到生成的內(nèi)容中。即便是在理想條件下訓練出的模型,也可能因其內(nèi)在局限性而產(chǎn)生不準確的內(nèi)容,尤其是在涉及復雜概念和專業(yè)知識的情況下。由于生成式AI生成的信息是在與用戶互動中產(chǎn)生的,因此虛假信息也會帶來認知風險和傳播偏向風險,如果大規(guī)模生成,一定程度上也會給整個出版業(yè)帶來沖擊。
此外,ChatGPT等AI系統(tǒng)的運作往往伴隨基于地域的訪問限制與干預策略,這在已存在的技術(shù)鴻溝之上又增設(shè)一道屏障,使得發(fā)展中國家獲取和利用此類尖端技術(shù)的機會更受限。盡管全球范圍內(nèi)數(shù)字技術(shù)的普及在一定程度上減少了接入互聯(lián)網(wǎng)的絕對數(shù)量差距,但在復雜的社會網(wǎng)絡(luò)中,在社會結(jié)構(gòu)、文化背景、技術(shù)的質(zhì)量、深度應(yīng)用與創(chuàng)新能力等方面,發(fā)達國家與發(fā)展中國家之間的鴻溝實際上在擴大[8]。
3.倫理失范:技術(shù)規(guī)訓下從知識原創(chuàng)性危機到思維危機
在出版行業(yè)中,ChatGPT生成的文本雖然具有學術(shù)表達的形式特征,但其內(nèi)在的知識價值與真實性難以保證,這無疑給編輯工作帶來挑戰(zhàn)。ChatGPT作為一種深度學習驅(qū)動的文本生成工具,本質(zhì)上扮演著“文本關(guān)聯(lián)推斷器”的角色,它通過“模擬理解”文本片段間的內(nèi)在聯(lián)系并據(jù)此對文本內(nèi)容及其邏輯架構(gòu)進行模擬重構(gòu),盡管生成的文本往往表現(xiàn)為表面性質(zhì)的邏輯連貫與形式完備,但這些內(nèi)容并不必然建立在確鑿事實基礎(chǔ)之上。從出版行業(yè)的教育與實踐角度來看,我們應(yīng)警覺個體在使用AI技術(shù)過程中可能出現(xiàn)的技術(shù)依賴傾向,這不僅可能導致福柯所警示的“規(guī)訓”現(xiàn)象,即主體在外部技術(shù)力量作用下逐漸喪失批判性思考能力,還可能印證麥克盧漢的洞見——技術(shù)的“延伸”實際上伴隨著對某些能力的“截除”。具體到ChatGPT的應(yīng)用情境,研究者過度依賴此類工具撰寫特定主題的文獻綜述時,很可能會接收雷同或近似的輸出結(jié)果,從而影響學術(shù)創(chuàng)新。因此,研究者應(yīng)當深刻認識ChatGPT這類生成式AI的技術(shù)本質(zhì),認識到它們只會依賴既有的數(shù)據(jù)信息,缺乏人類獨有的價值觀判斷、情境感知,以及基于多種感官經(jīng)驗進行復雜技術(shù)和科學決策的能力,不太可能創(chuàng)作出富有邏輯性且高質(zhì)量的內(nèi)容。
4.關(guān)系失衡:技術(shù)理性和價值理性的分離
出版是一種文化傳播活動,其核心在于處理精神產(chǎn)品的個體化生產(chǎn)與社會化傳播之間的矛盾[9]。個體精神成果能否轉(zhuǎn)化為社會化精神成果,受到一系列制度性約束,這包括符合主流價值觀、有利于社會穩(wěn)定、符合公共利益、符合法律和道德規(guī)范,以及從知識性、科學性和規(guī)范性等方面進行評判、選擇和優(yōu)化[10]。技術(shù)理性主要關(guān)注技術(shù)的有效性、效率性和功能性,追求問題的解決和目標的達成。相比之下,價值理性關(guān)注的是行為的道德正當性、社會公正性和人類福祉。技術(shù)本身傾向于遵循技術(shù)理性的邏輯,聚焦于實現(xiàn)預定的技術(shù)目標,而忽視或無法處理與之相關(guān)的價值沖突和倫理困境。真正的價值判斷需要超越技術(shù)層面,納入更廣闊的價值視野和社會考量。技術(shù)本身不具備價值判斷能力,其價值屬性、倫理地位以及社會影響是由人類社會根據(jù)各自的價值體系、法律法規(guī)、倫理標準和公共討論來界定和塑造的。確保技術(shù)的健康發(fā)展與合理應(yīng)用,需要社會各界積極參與,進行深入的價值探討、倫理規(guī)約和政策引導,以確保技術(shù)服務(wù)于人類的共同福祉。
三、生成式AI出版的治理機制
生成式AI與出版產(chǎn)業(yè)的深度融合不僅是塑造未來出版業(yè)態(tài)的必然趨勢,也是推動行業(yè)革新與價值重塑的核心動力。面對這一不可逆轉(zhuǎn)的趨勢,構(gòu)建與之相適應(yīng)的出版監(jiān)管框架至關(guān)重要,需要從源數(shù)據(jù)、算法、平臺以及倫理領(lǐng)域?qū)ι墒饺斯ぶ悄艹霭孢M行規(guī)范。
1.規(guī)范源數(shù)據(jù)生成內(nèi)容:在技術(shù)層面加強內(nèi)容審查共識
在AIGC時代背景下,對出版內(nèi)容真實性的理解和保障尤為重要。要從根本上規(guī)制生成式AI出版的倫理風險,須從問題產(chǎn)生的源頭出發(fā),將生成內(nèi)容作為規(guī)制的重點,提高其準確性和可靠性,確保生成內(nèi)容合法合規(guī)、積極健康且向上向善。生成式AI技術(shù)憑借對海量文本資料的深度學習與模型優(yōu)化,成為現(xiàn)代出版流程中文本生成的重要手段。它通過系統(tǒng)性地攝取、解析和理解龐大的文本語料庫,以數(shù)以億計的文本文檔為基礎(chǔ),結(jié)合先進的自然語言處理算法進行深度學習,從而輸出符合語法規(guī)則且兼具專業(yè)準確性的文本內(nèi)容。因此,確保出版物的真實性不僅是知識生產(chǎn)的基礎(chǔ),也是持續(xù)優(yōu)化內(nèi)容真?zhèn)舞b別機制的前提。開發(fā)人員必須在內(nèi)容創(chuàng)作初期就嚴格控制生成式AI產(chǎn)出的內(nèi)容質(zhì)量,對生成內(nèi)容進行真實性驗證,還要引入專家系統(tǒng)對關(guān)鍵性、敏感性內(nèi)容進行人工審核。
同時,應(yīng)將出版內(nèi)容的創(chuàng)新性作為鑒定標準。生成式AI的知識生產(chǎn)體系依賴于出版對其創(chuàng)新性、嚴肅性和可靠性的把關(guān),數(shù)據(jù)信息作為規(guī)制的基礎(chǔ)顯得尤為重要。生成式AI技術(shù)固然具備強大的信息處理與文本生成能力,但內(nèi)在機制決定其尚無法直接觀察和感知人類社會、經(jīng)濟、科技等多元現(xiàn)實領(lǐng)域,也無法自發(fā)地生成全新的知識創(chuàng)意,這一特性使其在問題發(fā)掘與創(chuàng)新命題的提出方面呈現(xiàn)固有的局限性。對那些能夠洞察未來、突破傳統(tǒng)框架、提出開創(chuàng)性理論或解決方案的頂尖學者而言,生成式AI目前尚無法觸及他們創(chuàng)新思維的精髓,無法完全取代他們在知識生產(chǎn)鏈中的獨特地位,因此,強化價值主體的倫理承擔,以消弭責任鴻溝。
2.構(gòu)建算法域協(xié)同矩陣:在行業(yè)算法層面建構(gòu)多元主體監(jiān)督出版的技術(shù)框架
將模型算法作為規(guī)制的核心,有助于避免行業(yè)算法層面產(chǎn)生分歧,解決模型算法“黑箱”問題。在出版領(lǐng)域,生成式人工智能基于海量互聯(lián)網(wǎng)信息訓練的大型語言模型,其文本生成的潛在風險在于可能無意間傳播不準確甚至是虛假的信息。因此,對用于訓練語言模型的信息源及其生成內(nèi)容的有效監(jiān)管與驗證機制至關(guān)重要。行業(yè)要以AIGC為契機,建立一個由作者、學術(shù)出版機構(gòu)、高校科研院所共同參與的多元AIGC監(jiān)督出版的技術(shù)框架,確保生成式AI系統(tǒng)的透明度,具體包括其設(shè)計、訓練數(shù)據(jù)集及部署細節(jié)等。一方面,針對AI設(shè)計與開發(fā)中的不透明現(xiàn)象,相關(guān)政府部門可發(fā)揮引導作用,召集教育機構(gòu)、非政府組織、研究機構(gòu)以及出版機構(gòu)等多元力量,共同推動開源、透明的生成式AI系統(tǒng)的研發(fā)。這有助于從根本上最大限度地遏制偏見滲透、尊重與保護知識產(chǎn)權(quán),構(gòu)建一個健康有序的AI輔助出版環(huán)境。另一方面,開源AI技術(shù)在實踐中的應(yīng)用,應(yīng)著重保障大型語言模型及配套語料庫等核心資源的完整性,保證其具備必要的可追溯性與可靠性,這對于維護出版的嚴謹性與公信力尤為關(guān)鍵??傊?,強化監(jiān)管、倡導透明開發(fā)以及推廣開源技術(shù),協(xié)同共治,共同推動出版?zhèn)惱硐蚪】瞪鷳B(tài)發(fā)展,我們責無旁貸。只有這樣,出版業(yè)才能在新時代有效駕馭生成式AI,充分發(fā)揮其輔助創(chuàng)作與知識傳播的優(yōu)勢,嚴格防范可能伴生的風險與挑戰(zhàn)。
3.完善平臺域制度體系:在法律層面建立生成式AI出版監(jiān)管制度
出版業(yè)兼具文化和意識形態(tài)屬性,而生成式AI缺乏自我意識。從AIGC的版權(quán)侵權(quán)風險到救濟困境不難看出,AI出版需要堅守出版屬性,強化規(guī)范化管理,完善制度體系。出版機構(gòu)應(yīng)建立健全學術(shù)責任機制,明確要求作者對其運用人工智能生成內(nèi)容的部分承擔嚴謹?shù)膶W術(shù)責任。鑒于生成式人工智能技術(shù)在信息處理中可能引入偏見,導致某些對立觀點被無意間忽略,出版機構(gòu)應(yīng)重視確保論據(jù)的全面性與客觀性,完善版權(quán)保護保障機制,利用數(shù)字水印技術(shù)等保護自身版權(quán)。
生成式人工智能技術(shù)在出版業(yè)的應(yīng)用日益廣泛,其能否促進出版業(yè)向善發(fā)展是一個值得深思的問題。因此,有必要在持續(xù)完善與出版活動密切相關(guān)的法律法規(guī)體系上,同步構(gòu)建一套協(xié)同高效、響應(yīng)迅速的監(jiān)管機制,以應(yīng)對技術(shù)發(fā)展及應(yīng)用過程中可能帶來的各類合規(guī)性挑戰(zhàn)與潛在風險。一方面,立法層面的完備是確保生成式AI技術(shù)合法、有序發(fā)展的基石。這要求立法機構(gòu)明確規(guī)定AI生成內(nèi)容的版權(quán)歸屬、責任承擔、數(shù)據(jù)安全、用戶隱私保護等關(guān)鍵問題。如:2020年10月,歐盟委員會出臺《人工智能、機器人和相關(guān)技術(shù)的倫理框架》相關(guān)國際政策;2021年9月,國家新一代人工智能治理專業(yè)委員會發(fā)布文件,以規(guī)范新一代人工智能的倫理標準;2023年8月,國家網(wǎng)信辦聯(lián)合國家發(fā)展和改革委員會等出臺文件《生成式人工智能管理暫行辦法》。另一方面,明確責任監(jiān)管機制是確保監(jiān)管落地的關(guān)鍵。應(yīng)在法律法規(guī)框架下,清晰劃分出版部門、企業(yè)主體在監(jiān)管生成式AI技術(shù)方面的職責與權(quán)限,促使各主體各司其職,形成有效的監(jiān)管合力,避免監(jiān)管真空或重疊。
4.強化倫理域人的地位:在倫理層面培養(yǎng)正確的主體意識
正確對待“人—機器”的關(guān)系至關(guān)重要。生成式AI是人的產(chǎn)業(yè)勞動的產(chǎn)物[11]。在出版行業(yè),生成式AI應(yīng)該更好地服務(wù)于出版,提高知識生產(chǎn)質(zhì)量,而不是取代人類[12]。出版行業(yè)在運用AI技術(shù)時必須認識到,生成式人工智能擅長承擔那些高度重復、邏輯嚴密以及大規(guī)模數(shù)據(jù)處理等任務(wù),現(xiàn)階段尚不具備人類所特有的情感感知、道德抉擇與創(chuàng)新思維等屬性,二者應(yīng)該相互協(xié)作共存,而不是對立和取代。一方面,我們應(yīng)當理性認識生成式AI與人類主體意識的本質(zhì)差異,以及它們在出版領(lǐng)域乃至整個社會發(fā)展進程中所扮演的不同角色與功能定位。盡管生成式AI能夠在文本生成、內(nèi)容編輯、市場分析等方面展現(xiàn)強大的能力,但其本質(zhì)上是一種基于預設(shè)算法與海量數(shù)據(jù)驅(qū)動的模擬智能形態(tài),不具備真實的情感體驗、道德價值判斷及內(nèi)在自我意識。另一方面,置身于AI技術(shù)深刻影響的時代背景下,責任意識不僅是社會和諧與行業(yè)秩序的基石,而且對于每一位涉足出版工作的個體而言,更是不可忽視的道德準繩。尤其在應(yīng)用生成式AI技術(shù)的過程中,應(yīng)當秉持“使用者即第一責任人”的理念。從倫理學的角度來看,價值的實現(xiàn)不僅依賴于個體的道德義務(wù)感,還需通過實際行動來體現(xiàn),即所謂的“責任”。這種責任是個人意志的選擇,更是主體人格特質(zhì)的具體表現(xiàn)。因此,作為技術(shù)的直接受益者,使用者不僅應(yīng)深度認知并內(nèi)化自身在操作與運用生成式AI技術(shù)時所肩負的倫理擔當,還應(yīng)積極主動地參與與之相關(guān)的倫理規(guī)范的構(gòu)建與實踐,以此確保出版活動始終堅守職業(yè)道德與社會責任底線。
四、結(jié)語
目前很多人擔憂生成式AI或?qū)θ祟愇拿鬟M步構(gòu)成潛在威脅,但即便如此,將其視為出版領(lǐng)域內(nèi)的一種工具性輔助力量,這無疑是理性的認知。尤瓦爾·赫拉利曾警示道,盡管AI具有巨大的價值,但人類必須確保對其有效掌控。在面對新技術(shù)帶來的多元選擇時,我們有責任深入理解現(xiàn)狀,積極主動地作出抉擇,而非被動地等待決定。這一觀點在生成式AI應(yīng)用于出版業(yè)的背景下尤為貼切。
生成式AI的融入,正在強有力地推動出版業(yè)向數(shù)字化、網(wǎng)絡(luò)化、智能化的深層次邁進,在重塑出版內(nèi)容的創(chuàng)造方式、傳播途徑與受眾體驗的同時,也在挑戰(zhàn)既有商業(yè)模式,激發(fā)創(chuàng)新思維,促使出版業(yè)工作者重新審視并調(diào)整自身的角色定位與業(yè)務(wù)策略。在AI技術(shù)飛速發(fā)展的今天,其帶來的機遇與風險并存,我們對它的態(tài)度應(yīng)當是“擁抱”[13],而非杜絕,是輔助而非替代,是引導規(guī)范而非恐慌。我們要始終保持對ChatGPT等AI工具對科學研究透明度與真實性潛在影響的高度警覺,堅決捍衛(wèi)科學透明這一不可逾越的原則底線,以確保這類先進技術(shù)得到合理應(yīng)用,切實維護人類知識創(chuàng)新的純粹性與活力。
|參考文獻|
[1]裴永剛,石靈芝. 人工智能技術(shù)賦能下的學術(shù)出版審視:基于“人—技”關(guān)系的視角[J]. 出版廣角,2024(14):31-37.
[2]方卿,丁靖佳. 人工智能生成內(nèi)容(AIGC)的三個出版學議題[J]. 出版科學,2023(2):5-10.
[3]陸小華. ChatGPT等智能內(nèi)容生成與新聞出版業(yè)面臨的智能變革[J]. 中國出版,2023(5):8-15.
[4]何華征,李懋君. “事件出版”及其出版?zhèn)惱硌芯浚跩]. 出版發(fā)行研究,2016(7):61-65.
[5]甄巍然,陳昌輝. “場域”視角下出版?zhèn)惱砝Ь程揭蚺c路徑建構(gòu)[J]. 出版發(fā)行研究,2017(7):11-15.
[6]張重毅,牛欣悅,孫君艷,等. ChatGPT探析:AI大型語言模型下學術(shù)出版的機遇與挑戰(zhàn)[J]. 中國科技期刊研究,2023(4):446-453.
[7]張萍,張小強. 機器參與論文寫作的出版?zhèn)惱盹L險與防范對策[J]. 中國科技期刊研究,2022(4):439-449.
[8]陳雨,馮銳. 媒介行動能力:媒介如何促成公益訴訟:基于32個案例的清晰集定性比較分析(csQCA)[J]. 傳媒觀察,2024(8):48-62.
[9]高堅,秦宗財. 媒介、技術(shù)和經(jīng)濟:重識數(shù)字出版的三個維度[J]. 出版廣角,2024(18):23-29.
[10]周蔚華. 中國特色出版學理論體系建設(shè)論綱[J]. 現(xiàn)代出版,2022(1):5-18.
[11]辜凌云. 人工智能機器學習內(nèi)容的著作權(quán)合法性基礎(chǔ):以文本和數(shù)據(jù)挖掘例外規(guī)則為視角[J]. 出版廣角,2024(15):54-59.
[12]陳雨,張炳旭. AIGC賦能中華優(yōu)秀傳統(tǒng)文化融合的傳播邏輯與紓解路徑[J]. 東南傳播,2024(9):85-88.
[13]匡文波,姜澤瑋. 生成式人工智能推動數(shù)字出版智能化發(fā)展路徑研究[J]. 出版廣角,2024(14):15-21.