摘 要:文章對(duì)生成式人工智能與圖書(shū)館發(fā)展的國(guó)外研究進(jìn)展進(jìn)行了梳理回顧。研究發(fā)現(xiàn),國(guó)外學(xué)者普遍認(rèn)為,生成式人工智能技術(shù)通過(guò)模仿人類的認(rèn)知過(guò)程,能夠自動(dòng)生成信息內(nèi)容,提供個(gè)性化的用戶服務(wù),如智能檢索、自動(dòng)分類、問(wèn)答互動(dòng)等,極大地提升了圖書(shū)館的服務(wù)效率和用戶體驗(yàn)。然而,生成式人工智能的應(yīng)用也伴隨著數(shù)據(jù)隱私泄露、版權(quán)侵犯、算法偏見(jiàn)、技術(shù)依賴、倫理不清等風(fēng)險(xiǎn)。這引起了國(guó)外學(xué)者的高度警惕,并提出了相關(guān)政策建議,如建立嚴(yán)格的數(shù)據(jù)治理框架和隱私保護(hù)政策,進(jìn)行版權(quán)和合規(guī)內(nèi)容獲取教育,通過(guò)多元化數(shù)據(jù)集和定期算法審計(jì)消除偏見(jiàn),增強(qiáng)決策透明度和責(zé)任歸屬明確性,提高技術(shù)依賴下的系統(tǒng)彈性,制定倫理指導(dǎo)政策,以防范其風(fēng)險(xiǎn)發(fā)生。
關(guān)鍵詞:生成式人工智能;風(fēng)險(xiǎn);圖書(shū)館;文獻(xiàn)綜述
中圖分類號(hào):G250.7 文獻(xiàn)標(biāo)識(shí)碼:A
Advances in Generative Artificial Intelligence and Library Development: International Research Progress
Abstract This paper examines the progress of international research on the intersection of generative AI and library development. Findings indicate that international scholars widely recognize the potential of generative AI to emulate human cognitive processes, autonomously generate information content, and provide personalized user services, including intelligent retrieval, automatic classification, and interactive Qamp;A. These capabilities significantly enhance the efficiency of library services and improve user experience. Nonetheless, the application of generative AI also brings risks such as data privacy breaches, copyright infringement, algorithmic bias, technological dependency, and ethical ambiguities. These risks have raised significant concern among international scholars, who have proposed various policy recommendations. These include establishing stringent data governance frameworks and privacy protection policies, promoting copyright education and compliant content acquisition, eliminating biases through diversified datasets and regular algorithm audits, enhancing transparency in decision-making, clearly attributing responsibility, strengthening system resilience against technological dependency, and formulating ethical guidelines to prevent potential risks.
Key words generative artificial intelligence; risk; library; literature review
生成式人工智能的興起標(biāo)志著信息科技與人類智慧的深度融合,其在圖書(shū)情報(bào)領(lǐng)域的應(yīng)用引起了國(guó)際學(xué)術(shù)界的廣泛關(guān)注,并產(chǎn)生了大量研究成果。這些研究涉及生成式人工智能在圖書(shū)館服務(wù)中的實(shí)際應(yīng)用、潛在風(fēng)險(xiǎn)以及發(fā)展對(duì)策等多個(gè)維度。這些研究不僅推動(dòng)了人工智能理論的深化與創(chuàng)新,為理解和模擬人類智能的復(fù)雜性提供了新的視角和方法論,也為實(shí)際應(yīng)用提供了指導(dǎo),為未來(lái)的研究方向和政策制定提供了參考。但是,目前學(xué)界尚未對(duì)這些文獻(xiàn)進(jìn)行系統(tǒng)整理、形成評(píng)述,在理論上不利于知識(shí)積累與創(chuàng)新,在實(shí)踐上不利于圖書(shū)館充分把握人工智能的最新發(fā)展和潛在影響,制定出適應(yīng)時(shí)代的政策。
有鑒于此,本文基于Web of Science, Scopus, LISTA(Library, Information Science and Technology Abstracts, 圖書(shū)館、信息科學(xué)與技術(shù)),LISA(Library amp; Information Science Abstracts, 圖書(shū)館學(xué)與情報(bào)學(xué)文摘),IEEE(The Institute of Electrical and Electronics Engineers, 電氣電子工程師學(xué)會(huì))五大數(shù)據(jù)庫(kù),并以“Generative AI+Libraries(Library)”“ChatGPT+ Libraries(Library)”“Claude+Libraries(Library)” “AIGC+Libraries(Library)”“Bing Chat+Libraries(Library)”“OpenAI+Libraries(Library)”等作為關(guān)鍵
詞,搜集相關(guān)國(guó)外文獻(xiàn),檢索日期截止到2023年11月30日,得到文獻(xiàn)95篇。本研究采用了PRISMA(Preferred Reporting Items for Systematic Reviews and Meta-Analyses)工具對(duì)文獻(xiàn)進(jìn)行系統(tǒng)篩選。PRISMA是一種評(píng)估和綜合研究文獻(xiàn)的標(biāo)準(zhǔn)化方法,按照其程序,排除會(huì)議記錄、評(píng)論性文章、工作報(bào)告等文章,最終篩選出67篇與研究主題直接相關(guān)的學(xué)術(shù)論文。在此基礎(chǔ)上,本文通過(guò)對(duì)代表性論文的分析,對(duì)生成式人工智能與圖書(shū)館發(fā)展的國(guó)外研究進(jìn)展進(jìn)行了梳理,包括國(guó)外學(xué)界對(duì)圖書(shū)館生成式人工智能的應(yīng)用場(chǎng)景、潛在風(fēng)險(xiǎn)與應(yīng)對(duì)策略的最新研究進(jìn)展等,以期在理論上為中國(guó)相關(guān)研究提供最新學(xué)術(shù)情報(bào),并在實(shí)踐上為中國(guó)圖書(shū)館采用生成式人工智能技術(shù)提供學(xué)術(shù)參考。
1 生成式人工智能在圖書(shū)館的應(yīng)用場(chǎng)景
以ChatGPT為代表的生成式人工智能是一種基于學(xué)習(xí)到的數(shù)據(jù)模式自主生成新內(nèi)容的技術(shù)。它通常依賴于深度學(xué)習(xí)和大數(shù)據(jù)技術(shù),尤其是神經(jīng)網(wǎng)絡(luò),如生成對(duì)抗網(wǎng)絡(luò)(GANs)和變分自編碼器(VAEs)。這些技術(shù)能夠讓機(jī)器學(xué)習(xí)模型捕捉到數(shù)據(jù)的深層統(tǒng)計(jì)特征,從而生成與真實(shí)數(shù)據(jù)相似的新數(shù)據(jù)實(shí)例。國(guó)外學(xué)者認(rèn)為,生成式人工智能在圖書(shū)館領(lǐng)域中,具有下列應(yīng)用價(jià)值。
1.1 信息檢索與推薦
Panda等人的研究指出,生成式人工智能在圖書(shū)館領(lǐng)域的應(yīng)用主要基于深度學(xué)習(xí)模型,這些模型利用用戶行為數(shù)據(jù)來(lái)訓(xùn)練算法。通過(guò)對(duì)用戶的歷史借閱記錄、搜索習(xí)慣、閱讀時(shí)間和偏好等多維度信息進(jìn)行綜合分析,訓(xùn)練出能預(yù)測(cè)用戶興趣和需求的推薦算法。這種算法的優(yōu)勢(shì)在于其個(gè)性化推薦能力,以及可以通過(guò)持續(xù)學(xué)習(xí)不斷優(yōu)化推薦效果,從而實(shí)現(xiàn)動(dòng)態(tài)調(diào)整推薦策略以適應(yīng)用戶需求的變化。這一進(jìn)步極大地提高了信息服務(wù)的效率和用戶滿意度[1]。Panda等人的研究強(qiáng)調(diào)生成式人工智能在個(gè)性化信息檢索與推薦中的革命性作用。通過(guò)深度學(xué)習(xí),人工智能不僅能精準(zhǔn)預(yù)測(cè)用戶需求,還能持續(xù)自我優(yōu)化,提供更加精準(zhǔn)的個(gè)性化服務(wù)。這一進(jìn)展不僅提升了信息檢索的效率,也極大增強(qiáng)了用戶的滿意度和服務(wù)體驗(yàn)。
1.2 自動(dòng)化問(wèn)答與用戶服務(wù)
Chen提出的圖書(shū)館自動(dòng)化問(wèn)答系統(tǒng),基于自然語(yǔ)言處理(Natural Language Processing,NLP)的生成式模型構(gòu)建。這些模型通過(guò)學(xué)習(xí)大量的語(yǔ)言交互數(shù)據(jù),掌握語(yǔ)言的語(yǔ)義和語(yǔ)法規(guī)則。因此,它們能夠理解用戶的查詢意圖,生成準(zhǔn)確的回答,甚至可能具備對(duì)話管理和情境理解能力,使它們能夠在多輪對(duì)話中維持上下文的連貫性,并提供更加精準(zhǔn)和深入的信息服務(wù)[2]。通過(guò)Chen的研究可以發(fā)現(xiàn),通過(guò)NLP和生成式模型,生成式人工智能不僅能理解并回應(yīng)用戶查詢,還能在對(duì)話中保持連貫性,提供深入的信息服務(wù)。這標(biāo)志著用戶服務(wù)向更高效、更智能化方向的轉(zhuǎn)變。
1.3 文獻(xiàn)管理與元數(shù)據(jù)生成
Lund等人的研究聚焦于人工智能在文獻(xiàn)元數(shù)據(jù)生成中的應(yīng)用?;谖墨I(xiàn)內(nèi)容的自然語(yǔ)言理解和信息提取技術(shù),能夠讓訓(xùn)練有素的模型自動(dòng)識(shí)別和提取文獻(xiàn)的關(guān)鍵信息,如主題、作者、出版日期等,并生成標(biāo)準(zhǔn)化的元數(shù)據(jù)。這一過(guò)程不僅大幅提高了元數(shù)據(jù)生成的效率,還通過(guò)學(xué)習(xí)和適應(yīng)不同文獻(xiàn)的結(jié)構(gòu)和格式,大大提升了元數(shù)據(jù)的準(zhǔn)確性和一致性[3]。通過(guò)Lund等人的研究可以發(fā)現(xiàn),通過(guò)自然語(yǔ)言理解和信息提取技術(shù),人工智能可以自動(dòng)化并優(yōu)化元數(shù)據(jù)生成過(guò)程,顯著提升效率和準(zhǔn)確性。這一技術(shù)進(jìn)步為文獻(xiàn)管理帶來(lái)了革命性的變革,提高了數(shù)據(jù)的整體質(zhì)量和可用性。
1.4 數(shù)據(jù)分析與趨勢(shì)預(yù)測(cè)
Murphy的研究表明,生成式人工智能在圖書(shū)館數(shù)據(jù)分析和趨勢(shì)預(yù)測(cè)中的應(yīng)用,主要是通過(guò)統(tǒng)計(jì)學(xué)習(xí)和模式識(shí)別技術(shù),分析歷史借閱數(shù)據(jù)和市場(chǎng)動(dòng)態(tài),預(yù)測(cè)未來(lái)的借閱和購(gòu)買趨勢(shì)。這種預(yù)測(cè)模型可以幫助圖書(shū)館優(yōu)化資源配置,提前準(zhǔn)備滿足未來(lái)用戶的需求[4]。通過(guò)深入分析歷史數(shù)據(jù)和市場(chǎng)動(dòng)態(tài),生成式人工智能能夠預(yù)測(cè)未來(lái)趨勢(shì),為資源優(yōu)化和策略規(guī)劃提供支持。這不僅增強(qiáng)了圖書(shū)館的前瞻性決策能力,也為滿足未來(lái)用戶需求提供了強(qiáng)有力的數(shù)據(jù)支撐。
總結(jié)起來(lái),生成式人工智能在圖書(shū)館領(lǐng)域的應(yīng)用將產(chǎn)生廣泛而深遠(yuǎn)的影響。該技術(shù)不僅為圖書(shū)館提供了多樣化的應(yīng)用場(chǎng)景,而且極大地增強(qiáng)了圖書(shū)館服務(wù)的效率和質(zhì)量,同時(shí)優(yōu)化圖書(shū)館資源的管理和利用。生成式人工智能的應(yīng)用還有助于圖書(shū)館適應(yīng)不斷變化的信息環(huán)境,提高其對(duì)新興技術(shù)的響應(yīng)能力,從而在數(shù)字化時(shí)代中維持其關(guān)鍵地位。因此,可以肯定地說(shuō),生成式人工智能已成為推動(dòng)圖書(shū)館服務(wù)創(chuàng)新和發(fā)展的重要?jiǎng)恿Α?/p>
2 生成式人工智能對(duì)圖書(shū)館的潛在風(fēng)險(xiǎn)
以ChatGPT為代表的生成式人工智能在圖書(shū)館領(lǐng)域的應(yīng)用,雖然極大地推動(dòng)了信息服務(wù)的智能化和個(gè)性化,但其內(nèi)在的設(shè)計(jì)原理和運(yùn)作機(jī)制也造成了多種潛在風(fēng)險(xiǎn)。國(guó)外學(xué)者對(duì)這些風(fēng)險(xiǎn)的探討尤其豐富,主要集中在數(shù)據(jù)隱私和安全風(fēng)險(xiǎn)、信息過(guò)濾泡沫風(fēng)險(xiǎn)、版權(quán)和知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)、準(zhǔn)確性和可靠性風(fēng)險(xiǎn)、技術(shù)偏見(jiàn)和歧視風(fēng)險(xiǎn)、技術(shù)依賴和脆弱性風(fēng)險(xiǎn)、倫理和責(zé)任歸屬風(fēng)險(xiǎn)等方面。
2.1 數(shù)據(jù)隱私和安全風(fēng)險(xiǎn)
Gozalo-Brizuela等人指出,用戶個(gè)人信息未授權(quán)訪問(wèn)或泄露問(wèn)題,是生成式人工智能應(yīng)用中的一個(gè)重要風(fēng)險(xiǎn)點(diǎn)。他認(rèn)為這一風(fēng)險(xiǎn)的產(chǎn)生,與生成式人工智能在處理個(gè)性化推薦服務(wù)時(shí),必須接觸和分析用戶的借閱記錄、搜索習(xí)慣及反饋信息等私密數(shù)據(jù)密切相關(guān)。在此過(guò)程中,如何確保這些敏感信息不被超范圍使用,或在未經(jīng)加密的狀態(tài)下泄露給第三方,是圖書(shū)館在使用生成式人工智能時(shí)必須面對(duì)的挑戰(zhàn)[5]。Wei等人強(qiáng)調(diào)敏感數(shù)據(jù)在處理過(guò)程中可能遭受的不當(dāng)使用或泄露問(wèn)題。在圖書(shū)館的實(shí)際操作中,通常涉及到用戶的閱讀偏好、歷史借閱記錄以及個(gè)人身份信息等。生成式人工智能系統(tǒng)在未經(jīng)充分審查與監(jiān)管的情況下,可能會(huì)在數(shù)據(jù)分析、存儲(chǔ)和傳輸過(guò)程中,因技術(shù)缺陷或操作疏忽而導(dǎo)致敏感信息的泄露[6]。
2.2 信息過(guò)濾泡沫風(fēng)險(xiǎn)
Bommasani等人認(rèn)為,用戶可能僅被推薦與其現(xiàn)有偏好相符合的信息,導(dǎo)致獲取知識(shí)和信息的范圍受限。生成式人工智能系統(tǒng)在處理用戶數(shù)據(jù)時(shí),會(huì)根據(jù)算法優(yōu)化的目標(biāo),如點(diǎn)擊率或閱讀時(shí)間,來(lái)優(yōu)化推薦結(jié)果。這可能導(dǎo)致算法過(guò)度適應(yīng)用戶的現(xiàn)有興趣,而忽略了推廣知識(shí)多樣性和廣度的重要性。此外,推薦系統(tǒng)的這種自我強(qiáng)化機(jī)制可能進(jìn)一步加劇用戶的認(rèn)知偏差,使得用戶在信息海洋中只能看到一部分,而錯(cuò)過(guò)其他可能具有啟發(fā)性的內(nèi)容[7]。
2.3 版權(quán)和知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)
Brown等人認(rèn)為,生成式人工智能的核心工作原理是通過(guò)大量數(shù)據(jù)訓(xùn)練,如果訓(xùn)練數(shù)據(jù)包含受版權(quán)保護(hù)的材料,那么生成的內(nèi)容可能會(huì)無(wú)意中復(fù)制這些受保護(hù)的作品或者是這些作品的變體,從而觸犯版權(quán)法[8]。Radford等人進(jìn)一步指出,自動(dòng)生成的內(nèi)容可能侵犯原有作品的版權(quán)[9]。Zhou等人指出生成內(nèi)容與原始材料之間的版權(quán)歸屬可能存在爭(zhēng)議。這種爭(zhēng)議源于生成式人工智能創(chuàng)作過(guò)程的復(fù)雜性和不透明性,使得難以判定某一作品的創(chuàng)新程度以及是否構(gòu)成對(duì)原有作品的合理使用。例如,一篇由生成式人工智能輔助撰寫(xiě)的綜述文章,可能涉及多個(gè)來(lái)源的信息整合,其版權(quán)歸屬就可能變得模糊[10]。
2.4 準(zhǔn)確性和可靠性風(fēng)險(xiǎn)
Wang等人認(rèn)為,自動(dòng)生成的元數(shù)據(jù)或問(wèn)答系統(tǒng)回答的錯(cuò)誤可能誤導(dǎo)用戶。例如,元數(shù)據(jù)生成中的自動(dòng)分類和索引可能會(huì)將文獻(xiàn)錯(cuò)誤地歸入不相關(guān)的類別,或者在問(wèn)答系統(tǒng)中,算法可能提供了基于錯(cuò)誤信息源的答案[11]。Wei等人認(rèn)為,依賴于不準(zhǔn)確的生成式人工智能生成內(nèi)容可能影響圖書(shū)館服務(wù)的質(zhì)量。生成式人工智能在輔助文獻(xiàn)搜索、分類和推薦服務(wù)中的應(yīng)用,雖然提高了效率,但同時(shí)也帶來(lái)了對(duì)算法準(zhǔn)確性的依賴。如果算法生成的內(nèi)容或建議基于不完整或有誤的數(shù)據(jù)訓(xùn)練,那么最終的服務(wù)輸出可能會(huì)誤導(dǎo)用戶,導(dǎo)致用戶對(duì)圖書(shū)館的信任度下降,甚至影響圖書(shū)館的聲譽(yù)[12]。
2.5 技術(shù)偏見(jiàn)和歧視風(fēng)險(xiǎn)
Wang等人認(rèn)為訓(xùn)練數(shù)據(jù)的偏差可能導(dǎo)致生成結(jié)果的不公平或歧視。如果訓(xùn)練數(shù)據(jù)集中存在系統(tǒng)性偏見(jiàn),如某些群體的文獻(xiàn)被過(guò)度代表或某些觀點(diǎn)被忽略,那么生成式人工智能在信息檢索、推薦系統(tǒng)、自動(dòng)分類等功能中就可能復(fù)制這些偏見(jiàn),進(jìn)而影響服務(wù)的公平性和中立性。在圖書(shū)館的實(shí)際應(yīng)用中,這可能導(dǎo)致某些用戶群體的需求被邊緣化,或者某些觀點(diǎn)和信息被不公正地強(qiáng)化或遺漏[13]。Cox和Tzoc認(rèn)為,算法可能在不知情的情況下復(fù)制其訓(xùn)練數(shù)據(jù)中的偏見(jiàn)。這一點(diǎn)在圖書(shū)館的應(yīng)用中尤其敏感,因?yàn)閳D書(shū)館承擔(dān)著提供全面和多元信息的責(zé)任。生成式人工智能在輔助文獻(xiàn)分類、用戶查詢響應(yīng)和閱讀推薦時(shí),可能會(huì)無(wú)意中將存在于歷史數(shù)據(jù)中的性別或文化偏見(jiàn)帶入其決策邏輯中。這不僅損害了圖書(shū)館作為知識(shí)共享和傳播平臺(tái)的角色形象,也可能對(duì)社會(huì)的多元包容性造成負(fù)面影響[14]。
2.6 技術(shù)依賴和脆弱性風(fēng)險(xiǎn)
Feng等人認(rèn)為,圖書(shū)館運(yùn)營(yíng)可能過(guò)度依賴技術(shù)系統(tǒng),一旦發(fā)生故障,服務(wù)可能中斷。圖書(shū)館作為知識(shí)的倉(cāng)庫(kù)和信息的交流場(chǎng)所,其對(duì)技術(shù)的依賴性日益增強(qiáng),然而,這種依賴也帶來(lái)了潛在的風(fēng)險(xiǎn):一旦技術(shù)系統(tǒng)遭遇軟件故障、硬件損壞或網(wǎng)絡(luò)攻擊,可能會(huì)導(dǎo)致整個(gè)圖書(shū)館服務(wù)的癱瘓。此外,技術(shù)系統(tǒng)的復(fù)雜性可能超出了圖書(shū)館工作人員的技術(shù)能力范疇,使得在出現(xiàn)問(wèn)題時(shí),圖書(shū)館的應(yīng)急響應(yīng)和恢復(fù)能力受限[15]。Shafeeg等人認(rèn)為,在生成式人工智能的應(yīng)用中,持續(xù)的系統(tǒng)升級(jí)和維護(hù)是保持服務(wù)質(zhì)量的關(guān)鍵,但這個(gè)過(guò)程中可能出現(xiàn)的技術(shù)問(wèn)題或操作失誤,有可能引發(fā)數(shù)據(jù)丟失或服務(wù)中斷。此外,不當(dāng)?shù)南到y(tǒng)升級(jí)可能導(dǎo)致先前的用戶數(shù)據(jù)和服務(wù)記錄不匹配,影響圖書(shū)館為讀者提供的個(gè)性化服務(wù)[16]。
2.7 倫理和責(zé)任歸屬風(fēng)險(xiǎn)
Li等人認(rèn)為,生成式人工智能的責(zé)任歸屬問(wèn)題涉及到算法倫理學(xué)、信息倫理學(xué)和責(zé)任理論等多個(gè)學(xué)科領(lǐng)域。當(dāng)系統(tǒng)產(chǎn)生錯(cuò)誤時(shí),如分類錯(cuò)誤、推薦不當(dāng)或信息提供失誤,往往難以界定責(zé)任。這是因?yàn)樯墒饺斯ぶ悄艿臎Q策過(guò)程涉及復(fù)雜的數(shù)據(jù)處理和學(xué)習(xí)算法,其內(nèi)部機(jī)制對(duì)于非專業(yè)人士來(lái)說(shuō)是不透明的[17]。Deng等人認(rèn)為生成式人工智能的決策過(guò)程可能缺乏透明度,使得責(zé)任追溯變得復(fù)雜。生成式人工智能作為一種基于深度學(xué)習(xí)和大數(shù)據(jù)分析的技術(shù),其決策邏輯往往是基于算法對(duì)大量數(shù)據(jù)的模式識(shí)別和預(yù)測(cè)。這種特性使得其決策過(guò)程難以被外部審計(jì)和驗(yàn)證,從而在出現(xiàn)問(wèn)題時(shí),責(zé)任追溯和倫理評(píng)估變得極為困難[18]。
技術(shù)決定論認(rèn)為,技術(shù)本身具有塑造社會(huì)結(jié)構(gòu)、人類行為和思維方式的內(nèi)在能力。在這個(gè)框架下,技術(shù)既被視為推動(dòng)進(jìn)步和效率的關(guān)鍵因素,也被認(rèn)為可能會(huì)帶來(lái)風(fēng)險(xiǎn)和負(fù)面影響。生成式人工智能(如ChatGPT)在圖書(shū)館領(lǐng)域的應(yīng)用確實(shí)為信息服務(wù)帶來(lái)了革命性的變革,但其潛在風(fēng)險(xiǎn)不容忽視。首先,數(shù)據(jù)隱私和安全問(wèn)題提醒我們,在處理用戶敏感信息時(shí),如何確保數(shù)據(jù)安全和用戶隱私不被濫用,是技術(shù)和倫理的雙重挑戰(zhàn)。其次,信息過(guò)濾泡沫風(fēng)險(xiǎn)可能限制知識(shí)的多樣性和廣度,這對(duì)于圖書(shū)館這樣致力于傳播全面知識(shí)的機(jī)構(gòu)來(lái)說(shuō),是一個(gè)不容忽視的問(wèn)題。我們需要思考如何平衡算法的個(gè)性化推薦和提供多元、全面信息的需求。版權(quán)和知識(shí)產(chǎn)權(quán)問(wèn)題也是生成式人工智能應(yīng)用中的一個(gè)重要考量。如何在尊重原創(chuàng)權(quán)利和促進(jìn)知識(shí)共享之間找到平衡點(diǎn),是一個(gè)復(fù)雜但必須面對(duì)的問(wèn)題。此外,準(zhǔn)確性和可靠性風(fēng)險(xiǎn)直接關(guān)系到圖書(shū)館服務(wù)的質(zhì)量和用戶的信任度。技術(shù)偏見(jiàn)和歧視風(fēng)險(xiǎn)則觸及了公平和正義的核心問(wèn)題,我們需要深入探討如何消除訓(xùn)練數(shù)據(jù)中的偏見(jiàn),確保服務(wù)的公正性和中立性。技術(shù)依賴和脆弱性風(fēng)險(xiǎn)則提醒我們過(guò)度依賴單一技術(shù)可能帶來(lái)的服務(wù)中斷和應(yīng)急響應(yīng)問(wèn)題。最后,倫理和責(zé)任歸屬問(wèn)題要求我們深入思考生成式人工智能的決策過(guò)程和責(zé)任追溯機(jī)制??傊?,在享受生成式人工智能帶來(lái)的便利的同時(shí),我們必須認(rèn)真對(duì)待這些風(fēng)險(xiǎn),并積極探索解決方案,以確保技術(shù)的健康、可持續(xù)發(fā)展,為圖書(shū)館和用戶提供真正安全、可靠、公正和高效的服務(wù)。
3 生成式人工智能在圖書(shū)館中運(yùn)用風(fēng)險(xiǎn)的應(yīng)對(duì)策略
以ChatGPT為代表的生成式人工智能在圖書(shū)館的應(yīng)用引發(fā)了國(guó)際學(xué)術(shù)界的廣泛關(guān)注,學(xué)者們對(duì)其潛在風(fēng)險(xiǎn)進(jìn)行了深入研究,并提出了相應(yīng)的解決策略。
3.1 數(shù)據(jù)治理和隱私保護(hù)
Ramesh等人認(rèn)為,建立數(shù)據(jù)治理政策是確保人工智能系統(tǒng)在圖書(shū)館中合理運(yùn)用數(shù)據(jù)的基石。在設(shè)計(jì)和實(shí)施人工智能系統(tǒng)時(shí),數(shù)據(jù)治理政策起到了規(guī)范數(shù)據(jù)流動(dòng)的作用,包括數(shù)據(jù)的采集、驗(yàn)證、存儲(chǔ)、處理和銷毀等各個(gè)環(huán)節(jié)[19]。Wang等人強(qiáng)調(diào)了技術(shù)保護(hù)措施在保障圖書(shū)館人工智能系統(tǒng)安全運(yùn)行中的重要性。采用先進(jìn)的加密技術(shù)和安全協(xié)議,如傳輸層安全性(TLS)和安全哈希算法(SHA),可以有效防止數(shù)據(jù)在傳輸過(guò)程中被截獲或篡改[13]。Wei等人提出的用戶隱私教育是提高圖書(shū)館用戶對(duì)個(gè)人信息保護(hù)意識(shí)的有效途徑。圖書(shū)館應(yīng)當(dāng)通過(guò)教育活動(dòng),如工作坊、在線課程和信息手冊(cè),來(lái)增強(qiáng)用戶對(duì)于個(gè)人數(shù)據(jù)保護(hù)的知識(shí)[6]。
3.2 版權(quán)和知識(shí)產(chǎn)權(quán)合規(guī)
Li等人提出,隨著數(shù)字內(nèi)容的增加和版權(quán)法的變化,圖書(shū)館員需要定期更新他們的知識(shí)庫(kù),以適應(yīng)新的法律環(huán)境和技術(shù)挑戰(zhàn)[17]。Brown等人關(guān)于合規(guī)內(nèi)容獲取的觀點(diǎn)強(qiáng)調(diào)了在生成式人工智能應(yīng)用中遵守版權(quán)和知識(shí)產(chǎn)權(quán)的重要性。圖書(shū)館在獲取電子書(shū)籍、數(shù)據(jù)庫(kù)訂閱、多媒體資源和生成式人工智能生成內(nèi)容時(shí),必須確保所有資源的合法性和合規(guī)性[8]。
3.3 算法審計(jì)和偏見(jiàn)消除
Wang指出,為了確保生成式人工智能系統(tǒng)能夠公平地服務(wù)于所有用戶群體,避免加劇社會(huì)不平等,圖書(shū)館應(yīng)當(dāng)采集并利用反映不同性別、種族、文化和語(yǔ)言背景的數(shù)據(jù)集。這種做法有助于減少算法偏見(jiàn),提高服務(wù)的普遍適用性和準(zhǔn)確性[11]。Rombach等人提出的定期算法審計(jì)是對(duì)抗生成式人工智能系統(tǒng)偏見(jiàn)和錯(cuò)誤的關(guān)鍵措施。算法審計(jì)是一個(gè)系統(tǒng)性的評(píng)估過(guò)程,旨在識(shí)別和糾正算法決策中的不公平、不準(zhǔn)確或有害的偏見(jiàn)。這意味著圖書(shū)館有必要定期檢查和評(píng)估生成式人工智能系統(tǒng)的輸出,確保它們不會(huì)因?yàn)橐蕾囉衅畹臄?shù)據(jù)或過(guò)時(shí)的模型而產(chǎn)生歧視性或誤導(dǎo)性的結(jié)果[20]。
3.4 透明度和責(zé)任歸屬
GILL等人在其研究中提出,為了增強(qiáng)用戶對(duì)生成式人工智能的信任,必須提高算法決策過(guò)程的透明度。在圖書(shū)館的應(yīng)用場(chǎng)景中,透明度意味著用戶能夠理解和預(yù)測(cè)生成式人工智能如何和為何推薦特定的書(shū)籍或信息資源。例如,圖書(shū)館可以公開(kāi)其生成式人工智能系統(tǒng)的設(shè)計(jì)原理和操作機(jī)制,包括數(shù)據(jù)輸入、算法處理和輸出結(jié)果的解釋[21]。Murphy認(rèn)為圖書(shū)館需要建立一套責(zé)任框架,明確在因生成式人工智能錯(cuò)誤導(dǎo)致的問(wèn)題上,是由算法開(kāi)發(fā)者、圖書(shū)館管理者還是用戶承擔(dān)責(zé)任。這樣的機(jī)制應(yīng)包括錯(cuò)誤報(bào)告、問(wèn)題調(diào)查和糾正措施的流程,確保在生成式人工智能引起的問(wèn)題發(fā)生時(shí),能夠迅速且有效地解決問(wèn)題,同時(shí)保護(hù)用戶和圖書(shū)館的權(quán)益[4]。
3.5 準(zhǔn)確性和可靠性驗(yàn)證
Bommasani等人在其研究中提倡,圖書(shū)館應(yīng)該實(shí)施對(duì)生成式人工智能系統(tǒng)的持續(xù)監(jiān)控,以確保其輸出的準(zhǔn)確性和相關(guān)性[7]。Zhou等人強(qiáng)調(diào)了建立一個(gè)有效的錯(cuò)誤糾正機(jī)制的必要性,包括自動(dòng)檢測(cè)系統(tǒng)異常、提供用戶報(bào)告錯(cuò)誤的渠道,以及快速糾正錯(cuò)誤信息的流程。這樣的機(jī)制不僅提升了服務(wù)的可靠性,還能夠減少因錯(cuò)誤信息傳播所帶來(lái)的負(fù)面影響,保障圖書(shū)館資源的準(zhǔn)確性和權(quán)威性[10]。通過(guò)這些措施,圖書(shū)館能夠確保生成式人工智能技術(shù)的高效運(yùn)用,同時(shí)維護(hù)信息服務(wù)的質(zhì)量和圖書(shū)館的專業(yè)形象。
3.6 技術(shù)依賴和系統(tǒng)彈性
Shafeeg等人在其研究中指出,備份系統(tǒng)的設(shè)計(jì)應(yīng)考慮到多種可能的故障情景,并確保在任何情況下都能夠最大限度地減少服務(wù)中斷的時(shí)間和影響。例如,可以采用冗余存儲(chǔ)和云備份解決方案,以實(shí)現(xiàn)數(shù)據(jù)和服務(wù)的高可用性[16]。Deng等人強(qiáng)調(diào)圖書(shū)館應(yīng)該有指導(dǎo)原則和一套明確的程序,來(lái)指導(dǎo)出現(xiàn)技術(shù)故障時(shí)的行動(dòng),包括即時(shí)的故障通報(bào)、快速的技術(shù)支持調(diào)動(dòng)、必要時(shí)的服務(wù)恢復(fù)措施[18]。通過(guò)這些策略,圖書(shū)館能夠提高其對(duì)技術(shù)問(wèn)題的應(yīng)對(duì)能力,減少潛在的服務(wù)中斷對(duì)用戶的影響。
3.7 倫理指導(dǎo)和政策制定
Chen的研究強(qiáng)調(diào)了倫理政策應(yīng)涵蓋數(shù)據(jù)的道德采集、算法的公正性、透明度以及用戶隱私的保護(hù)[2]。Radford提出,用戶參與不僅可以提高服務(wù)的透明度和可信度,還可以促進(jìn)用戶對(duì)于生成式人工智能技術(shù)的理解和批判性思考,進(jìn)而推動(dòng)倫理政策的持續(xù)改進(jìn)和更新。這種互動(dòng)性的反饋過(guò)程有助于構(gòu)建一個(gè)更加民主和開(kāi)放的生成式人工智能應(yīng)用環(huán)境,確保技術(shù)進(jìn)步與社會(huì)倫理的協(xié)同發(fā)展[9]。
3.8 持續(xù)的技術(shù)和法律教育
Wang等人在其研究中提倡,為了有效地融合生成式人工智能技術(shù)與圖書(shū)館服務(wù),必須對(duì)圖書(shū)館員進(jìn)行系統(tǒng)的技術(shù)和法律培訓(xùn),讓圖書(shū)館員能夠更好地理解生成式人工智能的工作原理,識(shí)別和防范與其使用相關(guān)的法律風(fēng)險(xiǎn)和倫理問(wèn)題,從而提升圖書(shū)館服務(wù)的專業(yè)性和合規(guī)性[11]。Cox和Tzoc的研究則強(qiáng)調(diào)了跨學(xué)科合作在推動(dòng)生成式人工智能合理應(yīng)用方面的重要性。通過(guò)與法律、倫理學(xué)和信息科學(xué)等領(lǐng)域的專家進(jìn)行合作,圖書(shū)館能夠在生成式人工智能的設(shè)計(jì)、實(shí)施和監(jiān)管過(guò)程中獲得更全面的視角和更深入的洞察[14]。
信息倫理理論認(rèn)為,信息專業(yè)人員和機(jī)構(gòu)在處理信息和技術(shù)時(shí)應(yīng)遵循倫理原則和責(zé)任。這意味著,圖書(shū)館需要超越傳統(tǒng)的信息服務(wù)角色,成為數(shù)據(jù)倫理的守護(hù)者和技術(shù)應(yīng)用的審慎推動(dòng)者。通過(guò)以上的文獻(xiàn)回顧可以發(fā)現(xiàn),在使用生成式人工智能的過(guò)程中,圖書(shū)館應(yīng)當(dāng)積極構(gòu)建一個(gè)以用戶權(quán)益為中心的數(shù)據(jù)治理框架,不斷審視和完善數(shù)據(jù)處理流程,確保每一項(xiàng)服務(wù)和技術(shù)應(yīng)用都符合倫理標(biāo)準(zhǔn)和法律要求。同時(shí),圖書(shū)館應(yīng)當(dāng)認(rèn)識(shí)到,技術(shù)本身并非價(jià)值中立,其設(shè)計(jì)和應(yīng)用往往反映了特定的社會(huì)文化背景和價(jià)值取向。因此,圖書(shū)館在引入和使用生成式人工智能技術(shù)時(shí),需要深入分析和評(píng)估其潛在的偏見(jiàn)和歧視風(fēng)險(xiǎn),通過(guò)多元化數(shù)據(jù)集的采集和算法的公正性審計(jì),努力消除技術(shù)應(yīng)用中的不公平現(xiàn)象,確保服務(wù)的普遍適用性和準(zhǔn)確性。此外,圖書(shū)館還應(yīng)積極推動(dòng)透明度和責(zé)任歸屬的建立,通過(guò)公開(kāi)算法決策邏輯、加強(qiáng)用戶教育和參與,以及建立有效的問(wèn)題反饋和糾正機(jī)制,增強(qiáng)用戶對(duì)生成式人工智能服務(wù)的信任感和滿意度。這不僅是對(duì)用戶負(fù)責(zé),也是圖書(shū)館履行社會(huì)責(zé)任、促進(jìn)技術(shù)倫理發(fā)展的重要體現(xiàn)。
4 結(jié)論與啟示
國(guó)外學(xué)者對(duì)生成式人工智能在圖書(shū)館應(yīng)用的研究,展現(xiàn)出以下特征:(1)技術(shù)前瞻性。研究者們充分利用生成式人工智能的核心工作原理,如深度學(xué)習(xí)、自然語(yǔ)言處理和機(jī)器學(xué)習(xí),預(yù)測(cè)和探索其在圖書(shū)館服務(wù)中的潛在應(yīng)用。他們關(guān)注的是如何將這些先進(jìn)技術(shù)與圖書(shū)館的信息組織、檢索、推薦系統(tǒng)和自動(dòng)化服務(wù)相結(jié)合,以提升圖書(shū)館的工作效率和用戶體驗(yàn)。(2)跨學(xué)科性。這些研究不僅僅局限于技術(shù)層面,還廣泛吸納了圖書(shū)情報(bào)學(xué)、信息技術(shù)學(xué)、倫理學(xué)和法律學(xué)等多個(gè)學(xué)科的理論和方法。通過(guò)這種跨學(xué)科的研究方法,學(xué)者們能夠全面評(píng)估圖書(shū)館應(yīng)用生成式人工智能技術(shù)的社會(huì)影響,包括其對(duì)個(gè)人隱私、知識(shí)產(chǎn)權(quán)、算法透明度和責(zé)任歸屬等方面的影響。(3)實(shí)操性。國(guó)外學(xué)者的研究注重理論與實(shí)踐的結(jié)合。他們不僅在理論上分析生成式人工智能在圖書(shū)館運(yùn)用的潛在風(fēng)險(xiǎn),而且還提出了具體的應(yīng)對(duì)策略和操作建議,如數(shù)據(jù)治理框架的建立,版權(quán)合規(guī)策略的實(shí)施,算法偏見(jiàn)的識(shí)別與糾正,以及倫理責(zé)任的明確等。這些研究成果為圖書(shū)館管理者提供了實(shí)用的指導(dǎo),幫助他們?cè)诓杉{新技術(shù)的同時(shí),確保服務(wù)的質(zhì)量和可靠性。
中國(guó)圖書(shū)館在接軌國(guó)際前沿技術(shù)的過(guò)程中,對(duì)生成式人工智能的探索和應(yīng)用已經(jīng)取得初步成效。例如,清華大學(xué)圖書(shū)館的“小圖”服務(wù)機(jī)器人便是一個(gè)典型案例。在此背景下,結(jié)合國(guó)外學(xué)者的研究特征,中國(guó)圖書(shū)館進(jìn)一步使用生成式人工智能可以從如下幾個(gè)方面展開(kāi)。(1)進(jìn)一步推進(jìn)技術(shù)融合與創(chuàng)新。中國(guó)圖書(shū)館應(yīng)繼續(xù)深化對(duì)生成式人工智能核心技術(shù)的研究與應(yīng)用,將深度學(xué)習(xí)、自然語(yǔ)言處理等技術(shù)與圖書(shū)館的傳統(tǒng)服務(wù)相結(jié)合。這不僅能夠提升服務(wù)效率,還能通過(guò)技術(shù)創(chuàng)新開(kāi)發(fā)出新的服務(wù)模式,如基于用戶行為的個(gè)性化推薦系統(tǒng)和智能問(wèn)答服務(wù)。(2)跨學(xué)科整合。中國(guó)圖書(shū)館應(yīng)借鑒國(guó)外學(xué)者的跨學(xué)科研究方法,整合信息技術(shù)學(xué)、圖書(shū)情報(bào)學(xué)、倫理學(xué)和法律學(xué)等學(xué)科的研究成果,全面評(píng)估生成式人工智能技術(shù)的社會(huì)效益和潛在風(fēng)險(xiǎn)。通過(guò)跨學(xué)科合作,更好地理解生成式人工智能技術(shù)在圖書(shū)館領(lǐng)域的應(yīng)用前景和倫理責(zé)任。(3)風(fēng)險(xiǎn)管理。中國(guó)圖書(shū)館應(yīng)從國(guó)外學(xué)者的研究中吸取風(fēng)險(xiǎn)管理經(jīng)驗(yàn),建立健全的數(shù)據(jù)治理體系和隱私保護(hù)機(jī)制,確保用戶信息的安全和知識(shí)產(chǎn)權(quán)的合法使用。同時(shí),應(yīng)制定明確的倫理指導(dǎo)原則和責(zé)任歸屬機(jī)制,確保生成式人工智能應(yīng)用的倫理性和合法性。為了保持與國(guó)際技術(shù)發(fā)展同步,中國(guó)圖書(shū)館工作人員需要定期接受生成式人工智能相關(guān)的技術(shù)和法律培訓(xùn)。這樣的培訓(xùn)有助于圖書(shū)館員理解和掌握生成式人工智能技術(shù)的最新發(fā)展,同時(shí)也能夠提高他們?cè)趯?shí)際工作中應(yīng)對(duì)技術(shù)挑戰(zhàn)的能力。
參考文獻(xiàn):
[1] PANDA S,KAUR N.Exploring the viability of ChatGPT as an alternative to traditional chatbot systems in library and information centers[J].Library Hi Tech News,2023,40(3):22-25.
[2] CHEN X.ChatGPT and its possible impact on library reference services[J].Internet Reference Services Quarterly,2023, 27(2):121-129.
[3] LUND D B,WANG T.Chatting about ChatGPT:how may AI and GPT impact academia and libraries?[J].Library Hi Tech News, 2023,40(3):34-44.
[4] MURPHY K P.Probabilistic machine learning:an introduction[M].Cambridge:MIT Press,2022:67-78.
[5] GOZALO-BRIZUELA R,GARRIDO-MERCHáN E C.ChatGPT is not all you need.A State of the Art Review of large Generative AI models[J].arXiv preprint arXiv:2301.04655,2023.
[6] WEI J,WANG X,SCHUURMANS D,et al.Chain-of-thought prompting elicits reasoning in large language models[J].Advances in Neural Information Processing Systems,2022,35:24824-24837.
[7] BOMMASANI R,HUDSON D A,ADELI E,et al.On the opportunities and risks of foundation models[J].arXiv preprint arXiv:2022.07258,2021.
[8] BROWN T,MANN B,RYDER N,et al.Language models are few-shot learners[J].Advances in Neural Information Processing Systems,2023,33:1877-1901.
[9] RADFORD A,WU J,CHILD R,et al.Language models are unsupervised multitask learners[J].OpenAI Blog,2022,1(8):9.
[10] ZHOU J,KE P,QIU X,et al.ChatGPT:potential,prospects,and limitations[J].Front Inform Technol Electron Eng,2023.DOI: https://doi.org/10.1631/FITEE.2300089.
[11] WANG Y,YAO Q,KWOK J T,et al.Generalizing from a few examples:A survey on few-shot learning[J].ACM Computing Surveys, 2023,53(3):1-34.
[12] WEI J,TAY Y,BOMMASANI R,et al.Emergent abilities of large language models[J].Transactions on Machine Learning Research,2022.DOI:https://doi.org/10.48550/arXiv.2206.07682.
[13] WANG S,REN D,LYU X.Core issues and key arguments of ChatGPT:topic mining and sentiment analysis based on US news reports[C]//International Conference on image and graphics.Cham:Springer Nature Switzerland,2023:176-185.
[14] COX C,TZOC E.ChatGPT:Implications for Academic Libraries[J].College amp; Research Libraries,2023,84(3):99-102.
[15] FENG Y,VANAM S,CHERUKUPALLY M,et al.Investigating code generation performance of Chat-GPT with crowdsourcing social data[C]//Proceedings of the 47th IEEE Computer Software and Applications Conference,2023:1-10.
[16] SHAFEEG A,SHAZHAEV I,MIHAYLOV D,et al.Voice assistant integrated with ChatGPT[J].Indonesian Journal of Computer Science,2023,12(1):45-67.
[17] LI J,LI D,XIONG C,et al.BLIP:bootstrapping language-image pre-training for unified vision-language understanding and generation.Proceedings of the 39th International Conference on Machine Learning[R].Virtual:PMLR,2022:12888-12900.
[18] DENG ZJ,HE XT,PENG YX.LFR-GAN:local feature refinement based generative adversarial network for text-to-image generation[J].ACM Transactions on Multimedia Computing,Communications,and Applications, 2023,19(6):1-18.
[19] RAMESH A,PAVLOV M,GOH G,et al.Zero-shot text-to-image generation[R].Proceedings of the 38th International Conference on Machine Learning.Virtual:PMLR,2022:8821-8831.
[20] ROMBACH R,BLATTMANN A,LORENZ D,et al.High-resolution image synthesis with latent diffusion models[R].Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,2022:10652-10663.
[21] GILL S S,KAUR R.ChatGPT:vision and challenges[J].Internet of Things and Cyber-Physical Systems,2023(3):262-271.
作者簡(jiǎn)介:陸娜,現(xiàn)工作于廣西交通技師學(xué)院圖書(shū)館,工程師,研究方向?yàn)槿斯ぶ悄茉趫D書(shū)館中的應(yīng)用。
收稿日期:2023-12-12編校:鄭秀花 王伊藝