Abstract:The widespread application of generative artificial intelligence has triggered profound changes worldwide,and more collaborative records between humans and intelligence havebecomeanew source ofarchives.The traditional four characteristics of electronic archives are no longer sufficient to meet the requirements for their trustworthy management.Based on the changes in the formation subject and generation logic of archival records in the new context,this article explores the challenges brought bythe inclusion of artificial intelligence generated content (AlGC)within the scope of archives. Furthermore, the research analyzes the connotation changesof the\"four characteristics\"ofelectronic archives,including authenticity,integrity, availability,andsecurity,in theera ofartificial intelligence.In orderto meetthe trustworthy management needs,the research proposes threeresponse approaches:extending the control chain, emphasizing information disclosure,and applying technological means.
Keywords:Artificial intelligence;Electronic archives; Four characteristics testing; Archival management
“數(shù)字技術(shù)正以新理念、新業(yè)態(tài)、新模式全面融入人類經(jīng)濟(jì)、政治、文化、社會(huì)、生態(tài)文明建設(shè)各領(lǐng)域和全過(guò)程。\"自21世紀(jì)10年代以來(lái),人工智能生成內(nèi)容(ArtificiallntelligenceGeneratedContent,AlGC)進(jìn)入快速發(fā)展階段2,根據(jù)《生成式AI:一個(gè)創(chuàng)造性的新世界》(Generative Al:A Creative NewWorld)的分析,AIGC有潛力產(chǎn)生數(shù)萬(wàn)億美元的經(jīng)濟(jì)價(jià)值。以ChatGPT、Gemini、Kimi、文心一言、通義千問(wèn)、DeepSeek等為代表的國(guó)內(nèi)外生成式人工智能技術(shù),已經(jīng)從自然語(yǔ)言生成、圖像生成與加強(qiáng)、音視頻合成、模型設(shè)計(jì)與構(gòu)建等多個(gè)方面,深度參與人類社會(huì)記錄的生成,其中不乏具有長(zhǎng)期保存價(jià)值、應(yīng)當(dāng)被歸檔的內(nèi)容,《“十四五\"全國(guó)檔案事業(yè)發(fā)展規(guī)劃》也高度重視檔案信息化建設(shè)與管理現(xiàn)代化,提出要\"加強(qiáng)大數(shù)據(jù)、人工智能等新一代信息技術(shù)在數(shù)字檔案館(室)建設(shè)中的應(yīng)用\"4。歸檔范疇的擴(kuò)大對(duì)檔案事業(yè)的發(fā)展提出了新的問(wèn)題:人工智能生成合成內(nèi)容與人類所形成的內(nèi)容相比,生成邏輯存在顯著差異、證據(jù)效力保障鏈條更加復(fù)雜,傳統(tǒng)的電子檔案“四性”已難以涵蓋對(duì)其可信的要求。應(yīng)當(dāng)如何保障此類內(nèi)容在法律、管理與技術(shù)上的合法性、有效性與可信性,也亟須區(qū)別于傳統(tǒng)語(yǔ)境的討論。
國(guó)內(nèi)外學(xué)者一方面圍繞人工智能生成合成內(nèi)容的法律效力進(jìn)行廣泛探索,辨析AIGC的可版權(quán)性與權(quán)利歸屬,并在能否取得證據(jù)地位上,針對(duì)此類內(nèi)容提出新的適用效力因素與審查規(guī)則;另一方面,也對(duì)人工智能生成合成內(nèi)容的可信程度進(jìn)行多維思考,確立合規(guī)性、公平性、可追溯性、可問(wèn)責(zé)性°與安全性1等關(guān)鍵可信指標(biāo),并在管理與技術(shù)層面,提出明確人工智能開(kāi)發(fā)與使用的風(fēng)險(xiǎn)責(zé)任主體12、建立包容審慎監(jiān)管機(jī)制13、通過(guò)混合技術(shù)檢測(cè)AI生成文本4等措施,以進(jìn)行切實(shí)可信保障。然而,以上研究多數(shù)集中于通用領(lǐng)域,雖然已有檔案學(xué)者關(guān)注到人工智能生成合成內(nèi)容檔案身份的認(rèn)定存在風(fēng)險(xiǎn)[1、傳統(tǒng)鑒定理論難以適應(yīng)人工智能生成合成內(nèi)容的可信需求,但研究數(shù)量相對(duì)較少,且多聚焦于理論層面的廣泛性概念辨析,尚未就電子檔案“四性”的評(píng)估與保障對(duì)人工智能生成合成內(nèi)容進(jìn)行針對(duì)性、具體性的深入探討。
人工智能深度應(yīng)用的背景下,檔案業(yè)務(wù)場(chǎng)景相較以往更加復(fù)雜,傳統(tǒng)的電子檔案“四性”已難以適應(yīng)當(dāng)前的需求,亟須管理范式的變革。因此,本文從人工智能生成合成內(nèi)容的可信困境出發(fā),探討在此語(yǔ)境下由人工智能參與構(gòu)建的電子檔案“四性\"內(nèi)涵的延展,并分別從制度與技術(shù)層面,提出具體的保障措施,以期為全球技術(shù)革命背景下,人工智能生成合成內(nèi)容的歸檔管理提供一定的參考與借鑒。
一、新挑戰(zhàn) 一人工智能生成合成內(nèi)容作為檔案記錄的可信管理需求
DeepSeek等生成式人工智能一經(jīng)推出便得到廣泛應(yīng)用,以新主體的身份介入文件生成的最前端,并進(jìn)一步地滲入檔案領(lǐng)域。然而,不同于人類,生成式人工智能主要依托對(duì)海量數(shù)據(jù)集的深度學(xué)習(xí)及訓(xùn)練,能夠在相對(duì)較短時(shí)間內(nèi)迅速掌握并輸出大量知識(shí),其合成內(nèi)容相較于傳統(tǒng)情境下人工生成的內(nèi)容,表現(xiàn)出同數(shù)據(jù)集顯著關(guān)聯(lián)、形成邏輯難以解釋,以及同質(zhì)性與規(guī)律性現(xiàn)象凸顯的特征。在此背景下,人工智能生成合成內(nèi)容相較傳統(tǒng)人工生成的內(nèi)容,在真實(shí)性、情感性與公正性等方面,都存在著更多不可信因素。當(dāng)此類內(nèi)容進(jìn)入檔案范疇時(shí),由于形成主體與形成邏輯的變遷,其“四性\"的概念也對(duì)應(yīng)地發(fā)生變化與延展。[17]
首先,需要監(jiān)督的行為主體擴(kuò)充到“人工智能”這一新的對(duì)象。在人工智能出現(xiàn)之前的傳統(tǒng)語(yǔ)境下,電子檔案“四性”檢測(cè)的核心在于人類在創(chuàng)建記錄時(shí)的行為真實(shí)可靠,并在其運(yùn)行過(guò)程中無(wú)非法的人為篡改行為。然而,生成式人工智能的參與意味著新主體的出現(xiàn):由于算法能夠基于對(duì)數(shù)據(jù)集的學(xué)習(xí)自主輸出內(nèi)容,且具體運(yùn)作邏輯超出人類直接理解與解釋范圍,人工智能同樣具備自主對(duì)原始記錄進(jìn)行“加工或修改”的可能性,其行為的合規(guī)性與正當(dāng)性,同樣是保障可信性不可或缺的一環(huán)。因此,在生成式人工智能參與的語(yǔ)境下,檔案可信保障的核心應(yīng)擴(kuò)充為“禁止非法干擾檔案記錄的人類行為與人工智能行為”。其次,對(duì)人類主體行為的要求也被進(jìn)一步延展。新語(yǔ)境下同時(shí)存在“人\"與“人工智能”兩類主體,在設(shè)計(jì)電子檔案“四性\"檢測(cè)內(nèi)容時(shí),還需將主體之間的相互作用納入考慮范疇,充分考慮人類通過(guò)作用于另一主體(即人工智能)來(lái)間接干擾檔案記錄的可能性。具體而言,由于人工智能技術(shù)的應(yīng)用,人類還可以通過(guò)控制訓(xùn)練數(shù)據(jù)集、調(diào)整算法規(guī)則等間接控制輸出內(nèi)容。因此,對(duì)于此類記錄而言,電子檔案的合法有效意味著既要求禁止直接的人類非法篡改,也要求禁止以上間接的非法篡改。
然而,人工智能的行為是否可信在傳統(tǒng)檔案管理模式下難以直接判斷。由于算法的復(fù)雜性,生成式人工智能底層深度學(xué)習(xí)模型通常具有非線性、多層次的特征。這會(huì)導(dǎo)致模型信息處理與決策制定的具體過(guò)程表現(xiàn)出顯著的不可解釋性,其內(nèi)部參數(shù)的微調(diào)和權(quán)重的分配機(jī)制難以通過(guò)人類可直觀理解的邏輯路徑進(jìn)行追溯,即所謂的“黑箱\"特征。例如,由于決策依據(jù)和過(guò)程的不可見(jiàn),而檔案的本質(zhì)屬性“原始記錄性\"強(qiáng)調(diào)檔案在生成之后便未經(jīng)非法篡改,當(dāng)檔案的描述權(quán)與解釋權(quán)被部分移交至這種不可解釋的算法決策時(shí),在傳統(tǒng)的檔案管理流程下,人工智能是否在此過(guò)程中對(duì)檔案數(shù)據(jù)進(jìn)行非法處理無(wú)從得知,原本嚴(yán)密的證據(jù)效力保障鏈條便可能遭遇斷裂。
另一方面,在人工智能深度介入下的人類新行為是否可信,在現(xiàn)有流程下同樣難以評(píng)估。人工智能這一新主體的出現(xiàn),使得人類影響檔案內(nèi)容的可能途徑在數(shù)量上顯著增加,在形式上更加難以察覺(jué)。具體而言,算法的開(kāi)發(fā)團(tuán)隊(duì)是否有傾向性,服務(wù)提供商是否保障人工智能服務(wù)的合法性,以及用戶在使用過(guò)程中的操作流程是否符合既定規(guī)范等,都會(huì)直接或間接對(duì)內(nèi)容的形成過(guò)程與結(jié)果產(chǎn)生影響,如人工智能系統(tǒng)通常由特定背景的開(kāi)發(fā)者設(shè)計(jì)和訓(xùn)練,或基于特定領(lǐng)域的樣本數(shù)據(jù)集進(jìn)行迭代1,在男性占據(jù)開(kāi)發(fā)團(tuán)隊(duì)主導(dǎo)地位的背景下,亞馬遜的AI招聘系統(tǒng)就對(duì)女性候選人有明顯歧視現(xiàn)象[19]。這種對(duì)開(kāi)發(fā)團(tuán)隊(duì)、服務(wù)提供商與用戶行為的考察實(shí)際上已經(jīng)涉及計(jì)算機(jī)科學(xué)、數(shù)據(jù)科學(xué)等其他領(lǐng)域,在當(dāng)前檔案工作管理的范疇下,評(píng)估、查證難度較大。
當(dāng)前,國(guó)內(nèi)外針對(duì)生成式人工智能的可信管理,已經(jīng)有了一系列的探索。在生成式人工智能可信評(píng)估規(guī)范上,歐盟《人工智能法案》《可信賴的人工智能道德準(zhǔn)則》、我國(guó)《人工智能安全治理框架》《生成式人工智能服務(wù)管理暫行辦法》英國(guó)《支持創(chuàng)新的人工智能監(jiān)管方式》、美國(guó)《美國(guó)人工智能倡議》、意大利《人工智能戰(zhàn)略》、日本《關(guān)于AI的初步討論》等國(guó)內(nèi)外政策法規(guī)提出的要求,主要集中在“真實(shí)準(zhǔn)確、安全穩(wěn)健、合法規(guī)范與透明可\"四個(gè)方面。在生成式人工智能的可信保障方面,國(guó)內(nèi)外政策法規(guī)主要聚焦于涵蓋技術(shù)保障、制度建設(shè)、合規(guī)監(jiān)管與權(quán)責(zé)分配等多個(gè)維度,主要措施包括以下四個(gè)方面。一是明確人工智能生成合成內(nèi)容標(biāo)識(shí)制度,如歐盟《人工智能法案》、意大利《人工智能戰(zhàn)略》與我國(guó)《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法》等,都要求對(duì)人工智能生成的文本、圖片與音視頻進(jìn)行明確的標(biāo)識(shí)(如水?。?。二是對(duì)生成式人工智能進(jìn)行全方位監(jiān)管,歐盟要求實(shí)行貫穿人工智能的系統(tǒng)設(shè)計(jì)、系統(tǒng)開(kāi)發(fā)、系統(tǒng)使用與系統(tǒng)運(yùn)行的全流程評(píng)估,意大利《人工智能戰(zhàn)略》則規(guī)定了倫理委員會(huì)、國(guó)家與歐洲三個(gè)層面的監(jiān)督。三是強(qiáng)化技術(shù)手段以提升風(fēng)險(xiǎn)應(yīng)對(duì)能力,具體措施包括鼓勵(lì)生成式人工智能算法、框架、芯片及配套軟件平臺(tái)等基礎(chǔ)技術(shù)的自主創(chuàng)新、通過(guò)進(jìn)行對(duì)抗性測(cè)試和設(shè)置“漏洞賞金\"發(fā)現(xiàn)系統(tǒng)的漏洞和弱點(diǎn)等。四是根據(jù)實(shí)際需求建立細(xì)分行業(yè)標(biāo)準(zhǔn),歐盟《人工智能白皮書》、日本《關(guān)于AI的初步討論》與中國(guó)《生成式人工智能服務(wù)管理暫行辦法》都強(qiáng)調(diào),生成式人工智能在不同場(chǎng)景下的應(yīng)用有著不同的風(fēng)險(xiǎn)程度與服務(wù)需求,應(yīng)有針對(duì)性地形成相應(yīng)的行業(yè)標(biāo)準(zhǔn)。
然而,以上內(nèi)容多集中于通用領(lǐng)域,國(guó)內(nèi)外信息管理領(lǐng)域針對(duì)人工智能生成合成內(nèi)容的探索處于起步階段,在檔案領(lǐng)域針對(duì)人工智能應(yīng)用的專門性政策僅有澳大利亞維多利亞州《人工智能技術(shù)與文件管理》和加拿大《人工智能與數(shù)據(jù)法案》。對(duì)于檔案視域下人工智能生成合成內(nèi)容的可信程度,學(xué)術(shù)界也尚缺乏針對(duì)性的探討?;趪?guó)內(nèi)外已有的人工智能生成合成內(nèi)容可信評(píng)估與保障的研究進(jìn)展,同時(shí)結(jié)合電子檔案自身特性與實(shí)際工作管理需求,本文對(duì)其真實(shí)性、完整性、可用性與安全性的具體內(nèi)涵進(jìn)行拓展,并從制度規(guī)范與技術(shù)應(yīng)用等方面提出針對(duì)性的保障措施,以適應(yīng)生成式人工智能深度參與語(yǔ)境下的電子檔案管理需求。
二、新要求 電子檔案“四性”檢測(cè)內(nèi)涵在人工智能時(shí)代的豐富
(一)真實(shí)性:人工智能可靠程度被納入檢測(cè)范疇
“真實(shí)性\"指電子檔案的內(nèi)容、邏輯結(jié)構(gòu)和背景與形成時(shí)的原始狀況相一致的性質(zhì),要求電子檔案能夠反映社會(huì)各項(xiàng)活動(dòng)的歷史原貌,檢測(cè)內(nèi)容包括來(lái)源真實(shí)性、內(nèi)容真實(shí)性、元數(shù)據(jù)真實(shí)性以及元數(shù)據(jù)與內(nèi)容關(guān)聯(lián)真實(shí)性等。在生成式人工智能應(yīng)用的語(yǔ)境下,記錄產(chǎn)生主體從人類轉(zhuǎn)移至人工智能系統(tǒng),并由此產(chǎn)生更多的不確定性,真實(shí)性的內(nèi)涵也由此在以下幾個(gè)方面較之以往發(fā)生延展。
一是人工智能系統(tǒng)本身應(yīng)被作為檔案來(lái)源真實(shí)性的重要驗(yàn)證內(nèi)容。首先,人工智能系統(tǒng)應(yīng)具備可解釋性。具體而言,當(dāng)算法的信息處理過(guò)程完全脫離人類直接識(shí)讀視野時(shí),確認(rèn)其合成內(nèi)容是否與形成時(shí)的原始狀況相一致難度較大,在此背景下,可解釋人工智能的發(fā)展與應(yīng)用則是應(yīng)對(duì)“黑箱”、維系檔案信任的重要工具2,人工智能系統(tǒng)應(yīng)能夠提供可視化解釋、特征重要性排序與輸出結(jié)果的置信區(qū)間或概率分布等,具備從數(shù)據(jù)處理、建模、部署到?jīng)Q策的全流程關(guān)鍵信息均能夠被追蹤和記錄的能力[21]。此外,人工智能系統(tǒng)還應(yīng)具備中立性。人工智能生成合成內(nèi)容可信度與訓(xùn)練集、算法運(yùn)行規(guī)則直接相關(guān)聯(lián),由于當(dāng)前AI和數(shù)據(jù)科學(xué)領(lǐng)域的專業(yè)人士中女性與少數(shù)族裔人數(shù)占比較少,“性別的陰影\"(GenderShades)項(xiàng)目就發(fā)現(xiàn),Al系統(tǒng)對(duì)女性與深色皮膚面孔的識(shí)別存在顯著偏差22,而當(dāng)這種偏差滲入檔案領(lǐng)域時(shí),其背后的權(quán)力壓迫結(jié)構(gòu)也將隨之潛藏在檔案敘事之中,造成文化與記憶的霸權(quán)23。因此,人工智能系統(tǒng)的開(kāi)發(fā)團(tuán)隊(duì)?wèi)?yīng)具備一定的社會(huì)多樣性,以防正先置偏見(jiàn)與歧視的產(chǎn)生,從而保證其生成內(nèi)容能夠“真實(shí)反映社會(huì)活動(dòng)”。
二是檔案內(nèi)容的準(zhǔn)確性與邏輯性需被著重審查。檔案所記錄的信息應(yīng)能客觀反映相應(yīng)的社會(huì)活動(dòng),而對(duì)于生成式人工智能而言,由于其生成合成內(nèi)容高度依賴訓(xùn)練數(shù)據(jù)集,在存在數(shù)據(jù)偏差與不足的情況下,學(xué)習(xí)錯(cuò)誤模式的模型極易產(chǎn)生虛假信息。同時(shí),算法存在不可解釋的“黑盒\(zhòng)"特征,這種不透明的內(nèi)部運(yùn)作機(jī)制也進(jìn)一步增加了大模型提供的信息存在偏差或謬誤的風(fēng)險(xiǎn)。例如,普渡大學(xué)(PurdueUniversityWestLafayette)的研究就表明,ChatG-PT生成的編程類答案之中,有 5 2 % 是錯(cuò)誤的。在使用此類工具合成記錄、并作為檔案進(jìn)行長(zhǎng)期保存時(shí),對(duì)所生成內(nèi)容是否符合事實(shí)、是否邏輯連貫的要求應(yīng)當(dāng)被顯著強(qiáng)調(diào)。[24]
三是檔案元數(shù)據(jù)中需與內(nèi)容關(guān)聯(lián)一致的內(nèi)容有所增加。對(duì)人工智能生成合成內(nèi)容而言,為保障其透明度與可溯性,需將人工智能系統(tǒng)及其使用信息一并納入檔案著錄元數(shù)據(jù)體系之中。因此,檔案工作人員在進(jìn)行一致性核對(duì)時(shí),還需要關(guān)注以上元數(shù)據(jù)著錄內(nèi)容是否與實(shí)際情況相符,即由人工智能參與合成的部分是否全部被正確標(biāo)注、人工智能使用信息是否翔實(shí)準(zhǔn)確,從而支持對(duì)人工智能參與合成檔案真實(shí)性的驗(yàn)證與追溯。
(二)完整性:檔案背景信息需反映人工智能行為
“完整性”是指電子檔案的內(nèi)容、結(jié)構(gòu)和背景信息齊全且沒(méi)有破壞、變異或丟失的性質(zhì),檢測(cè)內(nèi)容包括電子檔案數(shù)據(jù)總量完整、元數(shù)據(jù)完整、內(nèi)容完整與移交包完整等。而人工智能生成合成內(nèi)容涉及更加復(fù)雜的主體行為,只有同時(shí)具備詳盡準(zhǔn)確的過(guò)程信息作為支撐,才能夠被作為有效的檔案記錄進(jìn)行歸檔,這對(duì)此類檔案記錄的“完整性\"也提出了新的要求。
一是人工智能系統(tǒng)運(yùn)行與使用情況需在檔案著錄元數(shù)據(jù)之中被完整體現(xiàn)。首先,背景信息應(yīng)當(dāng)能夠反映人工智能系統(tǒng)的自身運(yùn)行信息,即清晰展示決策路徑、完整記錄數(shù)據(jù)流、保存充分的技術(shù)文檔。斯瓦蒂·阿亞(SwatiArya)等人就在研究中發(fā)現(xiàn),可解釋人工智能(XAI)能夠有效提高決策信任級(jí)別一一尤其是對(duì)醫(yī)療保健、金融與司法等領(lǐng)域而言25,此類專門檔案的憑證價(jià)值,也由此能夠得到相應(yīng)的保障。其次,在生成式人工智能參與的背景下,為判斷輸出內(nèi)容的可靠程度,在系統(tǒng)本身之外對(duì)參與使用者行為的追溯同樣不可或缺。2即檔案著錄內(nèi)容除了要反映參與人員基本的文件辦理情況之外,還需要能夠反映人工智能使用過(guò)程信息,包括使用人員、算法模型的選擇、使用時(shí)間節(jié)點(diǎn)、參數(shù)設(shè)置及調(diào)整、具體指令與相應(yīng)輸出內(nèi)容等,對(duì)算法規(guī)則、訓(xùn)練數(shù)據(jù)與指令交互過(guò)程等信息生成的決策軌跡有充分的說(shuō)明。[27]
二是記錄之中的人工智能生成合成內(nèi)容標(biāo)識(shí)需被完整保存?!度斯ぶ悄苌珊铣蓛?nèi)容標(biāo)識(shí)辦法》已經(jīng)明確規(guī)定,對(duì)于由人工智能參與創(chuàng)作的部分,均需進(jìn)行必要的標(biāo)識(shí)以明確說(shuō)明:人工智能生成合成內(nèi)容標(biāo)識(shí)包括顯式標(biāo)識(shí)和隱式標(biāo)識(shí),服務(wù)提供商應(yīng)提供必要的顯式標(biāo)識(shí),鼓勵(lì)其添加隱式標(biāo)識(shí)28,以客觀反映文件生成過(guò)程、維護(hù)公共權(quán)益。因此,生成式人工智能生成合成記錄的“完整”,既指內(nèi)容本身的數(shù)據(jù)沒(méi)有缺失,也指記錄之中由文件生成者所添加的文字提示、通用符號(hào)提示、數(shù)字水印等標(biāo)識(shí)信息的完備,即當(dāng)此類記錄進(jìn)入檔案管理范疇時(shí),“內(nèi)容完整性”要求除了內(nèi)容本體的保存之外,相應(yīng)的顯式標(biāo)識(shí)以及隱式標(biāo)識(shí)也需要被一并原狀留存。
(三)安全性:人工智能應(yīng)用下新風(fēng)險(xiǎn)點(diǎn)亟待管控
安全性是指電子檔案的管理過(guò)程可控、數(shù)據(jù)存儲(chǔ)可靠,未被破壞、未被非法訪問(wèn)的性質(zhì),通常檢測(cè)內(nèi)容包括移交信息包病毒、移交載體安全性與移交過(guò)程安全性等。隨著生成式人工智能技術(shù)的廣泛引入,算法偏見(jiàn)、數(shù)據(jù)泄露與技術(shù)更迭等帶來(lái)了區(qū)別于傳統(tǒng)安全威脅形態(tài)的風(fēng)險(xiǎn),也促使電子檔案安全性的概念邊界進(jìn)一步拓展。
一是檔案移交管理過(guò)程需考慮更多的直接/間接篡改行為。在人工智能參與的背景下,檔案移交管理過(guò)程中的非法篡改風(fēng)險(xiǎn)點(diǎn)顯著增加,過(guò)程安全性的要求也相應(yīng)更新。一方面,過(guò)程安全所需監(jiān)督的直接人為篡改行為進(jìn)一步延展,除了擅自修改、刪除或添加內(nèi)容外,還須額外審查是否對(duì)模型的輸出內(nèi)容進(jìn)行平滑處理、閾值調(diào)整等后處理;另一方面,不同于以往,在人工智能深度參與的背景下,過(guò)程安全還應(yīng)考慮間接的非法人為篡改行為,即私自調(diào)整人工智能系統(tǒng)的關(guān)鍵參數(shù),如訓(xùn)練數(shù)據(jù)集、模型參數(shù)與訓(xùn)練算法等。英國(guó)《衛(wèi)報(bào)》的一項(xiàng)調(diào)查就發(fā)現(xiàn),當(dāng)用戶提供給ChatGPT的需處理信息包含第三方指令等隱藏內(nèi)容時(shí),輸出內(nèi)容可能會(huì)受到操控、具有傾向性,甚至返回惡意代碼2,如此形成的記錄顯然難以具備“原始記錄性”、發(fā)揮“證據(jù)效力”,因此有必要針對(duì)間接篡改的風(fēng)險(xiǎn)點(diǎn),通過(guò)加強(qiáng)信息留存、擴(kuò)大檔案元數(shù)據(jù)涵蓋范圍等途徑,加強(qiáng)對(duì)檔案前端業(yè)務(wù)階段的可信管控,防止證據(jù)鏈存在缺漏30。
二是需高度重視人工智能技術(shù)帶來(lái)的檔案信息泄露潛在風(fēng)險(xiǎn)。由于算法對(duì)信息的處理過(guò)程超越人類可視范圍,其對(duì)生成記錄的后續(xù)管理是否存在非法操作,諸如未經(jīng)授權(quán)的存儲(chǔ)行為、用戶未知的二次處理與輸出復(fù)用,也呈現(xiàn)出高度未知性。例如,某檔案中部分內(nèi)容為人工智能系統(tǒng)合成,在此檔案未解密期間,該人工智能系統(tǒng)將同樣的內(nèi)容再次作為輸出結(jié)果,就有可能導(dǎo)致檔案信息的泄露。因此,人工智能時(shí)代,電子檔案的安全性也同樣需要對(duì)人工智能系統(tǒng)的保密性能提出要求,被用作檔案的數(shù)據(jù)須被禁止在其開(kāi)放期限前被以復(fù)用等方式泄露。
(四)可用性:確保人工智能系統(tǒng)及運(yùn)行環(huán)境穩(wěn)定
可用性是指電子檔案可以被檢索、呈現(xiàn)和理解的性質(zhì),是電子檔案存在與具有保存價(jià)值的基礎(chǔ),需要檢測(cè)的內(nèi)容主要包括電子檔案元數(shù)據(jù)可用性、內(nèi)容可用性、軟硬件環(huán)境可用性與移交信息包可用性。當(dāng)人工智能生成合成內(nèi)容被納入檔案范疇長(zhǎng)期保存時(shí),人工智能系統(tǒng)的運(yùn)行過(guò)程對(duì)于理解檔案的內(nèi)容同樣至關(guān)重要,這也對(duì)電子檔案的可用性提出了新的要求。
一是人工智能系統(tǒng)運(yùn)行穩(wěn)定性需被納入檔案可用性指標(biāo)。由于“算法黑箱\"“算法幻覺(jué)”“算法歧視\"等現(xiàn)象的存在,生成式人工智能所生成或合成的檔案記錄較以往在審查層面呈現(xiàn)出更高的復(fù)雜度,這要求人工智能系統(tǒng)須處于穩(wěn)定運(yùn)行、可正常調(diào)用的狀態(tài),從而為后續(xù)的審計(jì)、驗(yàn)證與理解提供基礎(chǔ)。因此,人工智能系統(tǒng)應(yīng)當(dāng)滿足以下條件,以具備穩(wěn)定運(yùn)行的能力:能夠高效運(yùn)行,及時(shí)響應(yīng)并完成任務(wù);能夠在長(zhǎng)時(shí)間運(yùn)行中保持良好性能,為用戶提供持續(xù)的服務(wù)和支持;具有一定的魯棒性,在出現(xiàn)故障時(shí)能夠自動(dòng)檢測(cè)、定位或修復(fù);支持?jǐn)?shù)據(jù)保護(hù),能夠應(yīng)對(duì)非法訪問(wèn)與惡意攻擊。[31
二是檔案部門需檢測(cè)并跟蹤人工智能系統(tǒng)軟硬件環(huán)境可用性。除了電子檔案運(yùn)行和存儲(chǔ)的軟硬件環(huán)境,為確??勺匪菪耘c可理解性,人工智能系統(tǒng)運(yùn)行的軟硬件環(huán)境可用程度同樣需被納入可用性管理體系之中。尤其需要考慮軟件環(huán)境迭代對(duì)人工智能系統(tǒng)運(yùn)行的影響,如版本的頻繁更新是否導(dǎo)致人工智能系統(tǒng)兼容性問(wèn)題、新的操作系統(tǒng)版本是否提供對(duì)當(dāng)前硬件設(shè)備的支持。
三、新舉措 電子檔案“四性\"維護(hù)途徑在人工智能時(shí)代的拓展
(一)延伸控制鏈條:從AI系統(tǒng)開(kāi)發(fā)源頭全流程管理
鑒于生成式人工智能系統(tǒng)的特征,為保障記錄的可信性,檔案管理人員不僅需要在記錄生成后進(jìn)行相應(yīng)的審查與監(jiān)管,還需要進(jìn)一步延伸前端控制鏈條、前溯至其生成的源頭,實(shí)行貫穿人工智能的系統(tǒng)設(shè)計(jì)、系統(tǒng)開(kāi)發(fā)、系統(tǒng)使用與系統(tǒng)運(yùn)行的全流程評(píng)估。
其一,檔案工作者應(yīng)合理介入人工智能系統(tǒng)的審查。進(jìn)入電子文件時(shí)代之后,檔案學(xué)界針對(duì)電子文件的特點(diǎn)提出,應(yīng)當(dāng)對(duì)電子文件的運(yùn)動(dòng)過(guò)程進(jìn)一步加強(qiáng)全程管理和前端控制,將文件生命周期的起點(diǎn)延伸到電子文件管理系統(tǒng)的設(shè)計(jì)之中。而隨著人工智能時(shí)代的全面來(lái)臨,文件生命周期也將隨之迎來(lái)又一次變革,其起點(diǎn)有必要進(jìn)一步向前延伸:當(dāng)前電子檔案的可信管理通常僅覆蓋后端,即歸檔環(huán)節(jié)起始。然而,由于人工智能系統(tǒng)信息處理與內(nèi)容生成具有不可解釋的“黑箱\"特征,AIGC是否可信與人工智能系統(tǒng)本身的可靠程度密切關(guān)聯(lián)。在此背景下,對(duì)人工智能參與生成文件的質(zhì)量管控應(yīng)開(kāi)始于其生成之先,即人工智能系統(tǒng)的構(gòu)建階段。一方面,檔案館需要結(jié)合人工智能高度依賴訓(xùn)練集、語(yǔ)義理解去語(yǔ)境化的特征,通過(guò)專家咨詢、技術(shù)測(cè)試等方式,審查大模型的訓(xùn)練數(shù)據(jù)集是否足夠準(zhǔn)確全面、訓(xùn)練過(guò)程是否合乎規(guī)范。另一方面,檔案館也需要對(duì)開(kāi)發(fā)團(tuán)隊(duì)開(kāi)展必要的背景調(diào)查,例如評(píng)估團(tuán)隊(duì)的技術(shù)水平、文化背景、性別比例與過(guò)往開(kāi)發(fā)經(jīng)歷等,對(duì)大模型的穩(wěn)定運(yùn)行能力以及先置偏見(jiàn)存在概率作出判斷,從而為判斷其生成合成內(nèi)容是否能夠被納入檔案的范疇,提供一定的決策依據(jù)。
其二,檔案工作者需參與對(duì)人工智能服務(wù)提供商的監(jiān)督。人工智能的主體行為涉及算法決策、數(shù)據(jù)處理等多個(gè)層面,其透明可溯需要足夠的背景信息作為支撐,根據(jù)國(guó)內(nèi)《生成式人工智能服務(wù)管理暫行辦法》等規(guī)定,服務(wù)商應(yīng)提供必需的人工智能系統(tǒng)信息,主要涵蓋以下內(nèi)容。(1)人工智能版本信息:著錄項(xiàng)中應(yīng)包含大模型版本號(hào)、發(fā)布日期、模型架構(gòu)、算法規(guī)則、代碼表、參數(shù)規(guī)模、訓(xùn)練數(shù)據(jù)集、優(yōu)化其余訓(xùn)練算法、兼容性信息、更新日志以及版權(quán)與許可信息;(2)運(yùn)行軟硬件環(huán)境:信息包中應(yīng)同時(shí)封裝計(jì)算設(shè)備、網(wǎng)絡(luò)設(shè)備等硬件信息,以及操作系統(tǒng)、依賴庫(kù)、環(huán)境配置以及工具與平臺(tái)等軟件信息。32在核查所涉及的人工智能服務(wù)提供商是否提供以上信息之外,還需要審查服務(wù)提供者是否切實(shí)履行安全義務(wù),具體包括:明確適用的人群、場(chǎng)合與用途;依法進(jìn)行內(nèi)容標(biāo)識(shí);合法處理用戶個(gè)人信息;提供安全、穩(wěn)定、持續(xù)的服務(wù);及時(shí)處理違法內(nèi)容。
(二)強(qiáng)調(diào)信息披露:人智協(xié)同下的多主體行為記錄
可信性的核心之一在于確保主體行為的透明可溯,這需要足夠的背景信息作為支撐。人工智能參與的背景下,主體行為更加復(fù)雜多樣,在傳統(tǒng)的人工操作之外,還涉及算法決策、數(shù)據(jù)處理等多個(gè)層面。因此,所披露的信息應(yīng)全面覆蓋人工智能系統(tǒng)的運(yùn)行流程、決策依據(jù)與使用細(xì)節(jié)等關(guān)鍵要素。
其一,人工智能生成合成內(nèi)容標(biāo)識(shí)制度需被納入檔案著錄體系。歐盟《人工智能法案》意大利《人工智能戰(zhàn)略》以及我國(guó)《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法》等通用領(lǐng)域法規(guī),都已經(jīng)明確提出,應(yīng)對(duì)人工智能生成合成的文本、圖片與音視頻進(jìn)行明確的標(biāo)識(shí)(如水?。⑨槍?duì)人工智能系統(tǒng)的模型信息與使用過(guò)程,進(jìn)行必要的信息披露。為保證生成內(nèi)容作為檔案記錄的可查、可溯與長(zhǎng)期可用,歸檔過(guò)程中同樣有必要建立人工智能生成合成內(nèi)容標(biāo)識(shí)制度。立檔單位應(yīng)參照相應(yīng)規(guī)范,將所有由人工智能參與的地方均進(jìn)行必要的顯隱式標(biāo)識(shí),并在檔案整理、編目與著錄的過(guò)程中,提供人工智能使用過(guò)程信息,需要增加的基本著錄條目包括:人工智能使用責(zé)任主體;算法模型的名稱與版本號(hào);模型參數(shù)設(shè)置及調(diào)整;軟硬件環(huán)境配置;使用時(shí)間節(jié)點(diǎn);使用具體用途;指令內(nèi)容與對(duì)應(yīng)生成內(nèi)容;審核意見(jiàn);風(fēng)險(xiǎn)提示。當(dāng)前,《科學(xué)》《歷史研究》等知名期刊與曼徹斯特大學(xué)、復(fù)旦大學(xué)等知名高校,均已要求作者在寫作過(guò)程中,要明確披露AI工具的使用過(guò)程,并保留相關(guān)重要材料以備檢查和質(zhì)詢。在此之外,為保證檔案“在社會(huì)活動(dòng)中直接生成“的原始記錄性,標(biāo)識(shí)內(nèi)容之中還需要有立檔單位使用者的“一致性確認(rèn)聲明”,表明人工智能生成合成內(nèi)容與其想表達(dá)的內(nèi)容相一致。
其二,對(duì)人工智能生成合成內(nèi)容信息披露的監(jiān)察應(yīng)被納入國(guó)家檔案主管部門職能。對(duì)于生成式人工智能生成合成內(nèi)容而言,其必要的背景信息涵蓋人工智能系統(tǒng)的構(gòu)建、運(yùn)行與使用等環(huán)節(jié),相應(yīng)的信息披露義務(wù)則涉及系統(tǒng)開(kāi)發(fā)者、服務(wù)提供商與技術(shù)應(yīng)用者等多方主體。在此背景下,僅靠單一機(jī)構(gòu)或行業(yè)難以實(shí)現(xiàn)全鏈條的信息披露,需要國(guó)家層面通過(guò)法規(guī)調(diào)控、行政監(jiān)督等手段,實(shí)現(xiàn)不同主體之間的標(biāo)準(zhǔn)對(duì)齊與統(tǒng)一管控。檔案部門作為可信資源部門,在AI生態(tài)之中具有獨(dú)特優(yōu)勢(shì),承擔(dān)生成式人工智能可信保障與監(jiān)督的責(zé)任更加義不容辭。33然而,當(dāng)前從我國(guó)中央檔案館與國(guó)家檔案局下轄局館機(jī)關(guān)的組織架構(gòu)與職能配置來(lái)看,對(duì)于生成式人工智能技術(shù)在檔案領(lǐng)域的應(yīng)用尚未作出專門監(jiān)管。鑒于此,有必要增設(shè)部門,統(tǒng)一負(fù)責(zé)生成式人工智能在檔案領(lǐng)域應(yīng)用的規(guī)范性與安全性。具體而言,其職能包括以下幾個(gè)方面:一是協(xié)同政策法規(guī)司,參與檔案法規(guī)、政策與標(biāo)準(zhǔn)的制定與修訂,確保所制定的規(guī)范能夠適應(yīng)人工智能時(shí)代的檔案工作需求,并與《生成式人工智能服務(wù)管理暫行辦法》等通用領(lǐng)域法規(guī)保持體系一致性;二是負(fù)責(zé)實(shí)施人工智能版本信息管理工作,指導(dǎo)并監(jiān)督生成式人工智能開(kāi)發(fā)者的檔案部門,定期進(jìn)行版本信息的歸檔保存;三是承擔(dān)行政監(jiān)督職責(zé),根據(jù)檔案工作的背景信息需求,依法監(jiān)管生成式人工智能開(kāi)發(fā)者與服務(wù)提供商的信息披露情況是否符合歸檔要求。
(三)應(yīng)用技術(shù)手段:深度追蹤AI語(yǔ)境下的篡改行為
人工智能生成合成內(nèi)容的不可信,既可能來(lái)源于人工智能系統(tǒng)的內(nèi)生風(fēng)險(xiǎn),也可能來(lái)源于應(yīng)用風(fēng)險(xiǎn)。在進(jìn)入歸檔階段之后,文件的可信性也因此面臨著更多的干擾。人工智能深度參與語(yǔ)境下的篡改、攻擊與偽造行為都更加復(fù)雜而隱匿,人工難以直接識(shí)別,須借助技術(shù)手段強(qiáng)化檔案管理工作,以確??尚判浴?/p>
其一,鑒定人工智能生成合成內(nèi)容的可信程度。由于訓(xùn)練數(shù)據(jù)偏差、算法自身局限以及模型不確定性等原因,算法可能出現(xiàn)不符合常識(shí)或邏輯的推斷,導(dǎo)致人工智能生成合成內(nèi)容中存在大量難以由人工直接識(shí)別的虛假信息。對(duì)此,在傳統(tǒng)的人工審核之外,檔案部門同樣需引入技術(shù),對(duì)人工智能協(xié)同參與開(kāi)展檔案內(nèi)容真實(shí)性的審查。例如,借助自然語(yǔ)言處理(NLP)技術(shù),深入理解并解析文本內(nèi)容,確認(rèn)合成信息的真實(shí)性與準(zhǔn)確性。再如,充分借助區(qū)塊鏈、時(shí)間戳、哈希值校驗(yàn)和數(shù)字簽名等技術(shù),構(gòu)建安全可追溯的檔案數(shù)據(jù)存儲(chǔ)與驗(yàn)證系統(tǒng),防范AI語(yǔ)境下人為或非人為的篡改行為。
其二,鑒定人工智能生成合成內(nèi)容標(biāo)識(shí)的可信程度。除了檔案本身的真實(shí)性之外,內(nèi)容與元數(shù)據(jù)的一致性同樣需要被重點(diǎn)核查。為防止對(duì)人工智能參與部分進(jìn)行虛假標(biāo)識(shí)、標(biāo)識(shí)闕漏等情況,檔案工作者也需要借助一系列技術(shù)工具,檢測(cè)檔案記錄之中哪些記錄為人工智能生成,并基于此核對(duì)實(shí)際情況與業(yè)務(wù)部門所標(biāo)注說(shuō)明的情況是否一致。34具體而言,檔案部門可利用深度偽造監(jiān)測(cè)技術(shù),通過(guò)計(jì)算機(jī)視覺(jué)算法精準(zhǔn)捕捉并分析圖像或視頻中的細(xì)微偽造痕跡,判斷其生成來(lái)源;結(jié)合多模態(tài)特征提取技術(shù)與跨模態(tài)驗(yàn)證技術(shù),從不同維度提取內(nèi)容的獨(dú)特特征后,將其與預(yù)設(shè)標(biāo)準(zhǔn)或參考信息進(jìn)行比對(duì),通過(guò)一致性驗(yàn)證分析其是否為人工智能生成。
四、結(jié)語(yǔ)
正如國(guó)際檔案理事會(huì)(ICA)現(xiàn)任主席、盧森堡國(guó)家檔案館館長(zhǎng)何塞·吉普斯(JoseeKirps)所指出的那樣:“人工智能和其他現(xiàn)代技術(shù)可以在保存、記錄和存檔記錄方面發(fā)揮關(guān)鍵作用。\"35生成式人工智能正在全球掀起新一輪的技術(shù)變革,大模型產(chǎn)出內(nèi)容已日益成為社會(huì)記錄的重要來(lái)源。面對(duì)歸檔范疇的擴(kuò)大與記錄構(gòu)建主體的延展,有必要以多維視角重新審視“可信性”這一檔案的本質(zhì)概念,綜合考慮人類與人工智能兩類參與主體,從源頭可信、結(jié)構(gòu)完整與穩(wěn)健可用三個(gè)評(píng)估維度出發(fā),建立自AI系統(tǒng)開(kāi)發(fā)而始的全流程管理鏈路,強(qiáng)調(diào)對(duì)人工智能相關(guān)主體行為的信息披露,綜合采用多種技術(shù)防止篡改行為。未來(lái),還會(huì)有更多的人工智能生成合成內(nèi)容涌入檔案管理的領(lǐng)域,在可信性之外,更多的檔案基礎(chǔ)理論將遇到挑戰(zhàn),檔案事業(yè)在人工智能時(shí)代正在面臨多方位的重塑。檔案工作者必須積極學(xué)習(xí)人工智能的底層邏輯與核心技術(shù),加強(qiáng)與其他學(xué)科的交流與合作,確保檔案事業(yè)在技術(shù)洪流中穩(wěn)步前進(jìn),與社會(huì)發(fā)展契合、與時(shí)代脈絡(luò)共振。
注釋及參考文獻(xiàn):
[1]中國(guó)政府網(wǎng).習(xí)近平向2021年世界互聯(lián)網(wǎng)大會(huì)烏鎮(zhèn)峰會(huì)致賀信[EB/OL]. (2021-09-26)[2025-03-21]. https : // www.gov.cn/xinwen/2021-09/26/content_5639378.htm.
[2]中國(guó)信息通信研究院,京東探索研究院.人工智能生成內(nèi)容(AIGC)白皮書(2022年)[R/OL].(2022-09)[2025-03-21].https://www.caict.ac.cn/english/research/whitepapers/202211/P020221111501862950279.pdf.
[3]Sequoia Capital. Generative AI: A creative new world[EB/OL]. ( 2 0 2 2 - 0 9 - 1 9 ) 二 21]. https://www.sequoiacap.com/article/generative-aia-creative-new-world/.
[4]中華人民共和國(guó)國(guó)家檔案局.中辦國(guó)辦印發(fā)《\"十四五\"全國(guó)檔案事業(yè)發(fā)展規(guī)劃》[EB/OL].(2021-06-09)[2025-03-21].https://www.saac.gov.cn/daj/toutiao/202106/ecca2de5bce44a0eb55c890762868683.shtml.
[5]熊琦,張文窈.人工智能生成內(nèi)容著作權(quán)規(guī)制的全球趨向與本土路徑[J].知識(shí)產(chǎn)權(quán),2024(11):59-76.
[6]熊曉彪.生成式人工智能證據(jù)認(rèn)定的困境與規(guī)范進(jìn)路[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2025(43):72-93.
[7]余鵬文.刑事訴訟中人工智能證據(jù)的法律性 質(zhì)和運(yùn)用規(guī)則[J].中國(guó)刑事法雜志,2024(5):36-54.
[8]MCCORMACK L,BENDECHACHE M. Ethical AI governance: methods for evaluating trustworthy AI[EB/OL]. (2024- 08-28)[2025- 03- 21]. https://arxiv.org/abs/2409.07473.
[9][26] MORA-CANTALLOPS M,SANCHEZALONSOS,GARCiA-BARRIOCANALE,etal.Traceabilityfortrustworthy AI: a review of models and tools[J].Big Data and Cognitive Computing,2021(2):20.
[10]楊建軍.可信人工智能發(fā)展與法律制度的構(gòu)建[J].東方法學(xué),2024(4):95-108.
[11]黃河燕,李思霖,蘭天偉,等.大語(yǔ)言模型安全性:分類、評(píng)估、歸因、緩解、展望.智能系統(tǒng)學(xué)報(bào),2025(20):2-32.
[12]鄭煌杰.可信的人工智能:技術(shù)倫理風(fēng)險(xiǎn)下AIGC的治理基點(diǎn)[J/OL].科技進(jìn)步與對(duì)策,1-11[2025-04-02].http://kns.cnki.net/kcms/detail/42.1224.G3.20241101.1042.002.html.
[13]徐磊.發(fā)展與安全并重:生成式人工智能風(fēng)險(xiǎn)的包容審慎監(jiān)管[J].理論與改革,2024(4):67-83;176.
[14] GHIURAU D,POPESCU D E. Distinguishing reality from AI: approaches for detecting synthetic content[J].Computers,2024(1):1.
[16]徐擁軍,陳曉婷,閆靜.人工智能大模型對(duì)檔案學(xué)基礎(chǔ)理論的挑戰(zhàn)及其回應(yīng)[J].圖書情報(bào)知識(shí),2025,42(1):57-69.
[17]陳艷紅,李健.新一代人工智能生成內(nèi)容檔案身份的認(rèn)定風(fēng)險(xiǎn)及規(guī)制研究:基于對(duì)ChatG-PT生成內(nèi)容的思考[J].檔案學(xué)研究,2023(5):4-12.
[18]加小雙,姚靜,韋雪茹.人工智能在檔案事業(yè)中的倫理審視[J/OL].北京檔案,1-7[2025-03-18].http://kns.cnki.net/kcms/detail/11.2783.G2.20250314.0756.002.html.
[19] LAVANCHY M. Amazon’s sexist hiring algorithm could still be better than a human: expecting algorithms to perform perfectly might be asking too much of ourselves[EB/OL]. [2025-03-21].https:// www.imd.org/research-knowledge/digital/articles/ amazons- sexist-hiring- algorithm- could-still-bebetter-than-a-human/.
[20]李思藝,王振杰,陳子憶.可解釋人工智能在檔案領(lǐng) 域的應(yīng)用初探[/OL].檔案與建設(shè),1-10[2025-03-24].http:// kns.cnki.net/kcms/detail/32.1085.G2.20250228.1537.002.html.
[21]ELFMAN L.What is AI traceability? Benefits,tools best practices[EB/OL].(2024- 09- 25)
.https://data.world/blog/what-is-aitraceability-benefits-tools-best-practices/.
[22]BUOLAMWINI J.Project Gender Shades.[EB/OL]. [2025- 03- 21].https://www.media.mit.edu/projects/gendershades/overview/:text The% 20Gender% 20Shades%20project%20pilots%20an%20intersectional%20approach,and% 20further%20exacerbate%20inequality%20if%20left%20to%2Ofester.
[23]CARBAJALI A,CASWELL M.Critical digital archives:areview from archival studies[J].The American Historical Review,2021(5):20.
[24]ADARLO S.Study Finds That 52 Percent of ChatGPT Answers to Programming Questions Are Wrong.[EB/OL].[2025-03-21].https://futurism.com/ the-byte/study-chatgpt-answers-wrong.
[25]ARYAS,AGGARWALS,SONIN,etal.Explainable Artificial Intelligence (XAI) in Critical Decision- Making Processes[C]//HASSANIEN AE, ANANDS,JAISWAL A,etal.InternationalConference On Innovative Computing And Communication. Singapore: Springer Nature Singapore,2O24: 445-454.
[27]支振鋒.生成式人工智能大模型的信息內(nèi)容治理[J].政法論壇,2023(41):34-48.
[28]中華人民共和國(guó)國(guó)家互聯(lián)網(wǎng)信息辦公室.關(guān)于印發(fā)《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法》的通知[EB/OL]. (2025-03-14)[2025-03-21].https://www.cac.g0v.cn/2025-03/14/c_1743654684782215.htm.
[29]SILVA C.Hidden content tricks ChatGPT into rewriting search results,Guardian shows[EB/OL]. (2024-12-25)[2025-03-21]. https://mashable.com/ article/hidden- content- trick- gchatgpt- rewritingsearch.
[30]畢建新,鄔靜嫻,余亞榮,等.面向證據(jù)效力維護(hù)的電子檔案可信管理探析[J].檔案學(xué)通訊,2023(6):78-85.
[31]李功源,劉博涵,楊雨豪,等.可信人工智能系統(tǒng)的質(zhì)量屬性與實(shí)現(xiàn):三級(jí)研究D]軟件學(xué)報(bào),2023(34):3941-3965.
[32]中華人民共和國(guó)中央人民政府.生成式人工智能服務(wù)管理暫行辦法[EB/OL].(2023-07-10)[2025-03-21].https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm.
[33]劉越男,錢毅,王平,等.挑戰(zhàn)與展望:Deep-Seek對(duì)檔案工作的影響及應(yīng)用前景[].浙江檔案,2025(2):5-13.
[34]HASHEMI-POURC.6stepsin fact-checking AI-generated content[EB/OL]. (2024-08-06)[2025- 03-21].https://www.techtarget.com/WhatIs/feature/ Steps-in-fact-checking-AI-generated-content.
[35]WAM.UAE a global destination for envisioning future:ICAPresident[EB/OL].(2023-10-09)[2025- 03-29]https://www.wam.ae/en/details/1395303207358.
作者單位:1.武漢大學(xué)信息管理學(xué)院2.武漢大學(xué)文化遺產(chǎn)智能計(jì)算實(shí)驗(yàn)室