摘 要:生成式人工智能(AIGC)技術(shù),以其卓越的內(nèi)容生成能力,正在重塑信息生態(tài)并推動商業(yè)和產(chǎn)業(yè)的快速發(fā)展。本文深入分析了AIGC技術(shù)的原理、應(yīng)用進展,并對其帶來的隱私泄露和濫用等風險進行了全面評估。鑒于AIGC技術(shù)的全球影響力,文章重點討論了國際和國內(nèi)監(jiān)管策略與標準化工作的現(xiàn)狀,并提出了相關(guān)策略建議。這些建議旨在促進AIGC技術(shù)的規(guī)范發(fā)展,同時確保技術(shù)進步與社會利益的和諧統(tǒng)一,推動其在負責任和安全的基礎(chǔ)上實現(xiàn)社會價值。
關(guān)鍵詞:生成式人工智能,標準化,風險管理,國際監(jiān)管
DOI編碼:10.3969/j.issn.1674-5698.2024.11.010
0 引 言
隨著信息技術(shù)的突飛猛進,生成式人工智能(A IG C)技術(shù)已經(jīng)成為加速商業(yè)化和產(chǎn)業(yè)化進程的新動力源泉。A IG C技術(shù)憑借其卓越的內(nèi)容生成能力,不僅極大地拓展了信息生態(tài)的邊界,而且在社會各個層面激起了廣泛而深入的討論。從ChatGPT的廣泛流行到層出不窮的AIGC工具,AIGC技術(shù)無疑占據(jù)了信息技術(shù)革新的制高點,引領(lǐng)著一場內(nèi)容創(chuàng)造和分發(fā)的新浪潮。然而,正如歷史上每一次重大技術(shù)突破一樣,A IG C技術(shù)的顛覆性同樣伴隨著隱私泄露、濫用等風險問題的出現(xiàn)。這些問題因其復(fù)雜性和全球性,已經(jīng)引起了技術(shù)風險研究機構(gòu)、政府和國際組織的高度重視。2023年11月1日至2日,首屆全球人工智能(AI)安全峰會在英國舉行,中國等28個國家和歐盟共同簽署了《布萊切利宣言》(以下簡稱《宣言》)?!缎浴返暮炇鸨砻髁烁鲊鴮θ斯ぶ悄苤卫韱栴}的共同關(guān)注,不但促使各國在確定治理方向與建立監(jiān)管底線等方面形成了共識,也推動了未來人工智能領(lǐng)域國際標準的形成。
本文致力于深入探討AIGC技術(shù)的發(fā)展背景,全面評估其帶來的風險,并探索有效的治理策略。通過深入分析AIGC技術(shù)的原理、應(yīng)用進展以及潛在風險,旨在為AIGC技術(shù)的規(guī)范發(fā)展提供堅實的理論基礎(chǔ)和實用的實踐指導(dǎo)。只有深入理解AIGC技術(shù)的內(nèi)在機制和外部影響,才能更好地把握其發(fā)展趨勢,制定合理的政策和措施,確保技術(shù)進步與社會利益的和諧統(tǒng)一。
1 AIGC技術(shù)的原理與風險
1.1 AIGC技術(shù)原理與應(yīng)用進展
生成式人工智能(AIGC)技術(shù)正以其革命性的算法模型和卓越的數(shù)據(jù)處理能力,在多個領(lǐng)域內(nèi)實現(xiàn)突破性發(fā)展。AIGC技術(shù)的核心在于深度學習,它通過分析和學習大量的數(shù)據(jù)集,使算法能夠創(chuàng)造出新穎的、與訓(xùn)練數(shù)據(jù)具有相似特征的內(nèi)容。這種技術(shù)不僅極大地提升了內(nèi)容創(chuàng)作的效率,還為各行各業(yè)帶來了前所未有的創(chuàng)新機遇。
在文本創(chuàng)作領(lǐng)域,AIGC技術(shù)能夠根據(jù)給定的主題或關(guān)鍵詞,快速生成連貫、有邏輯性的文章和報告。在圖像生成方面,它能夠創(chuàng)造出逼真的圖像和藝術(shù)作品,甚至在某些情況下達到以假亂真的水平。此外,在復(fù)雜的策略制定和問題解決中,AIGC技術(shù)通過模擬和預(yù)測,為決策者提供了強有力的支持。
隨著AIGC技術(shù)的不斷進步,其應(yīng)用案例也日益豐富。從個性化新聞推薦系統(tǒng)到智能客服機器人,再到醫(yī)療診斷輔助工具,AIGC技術(shù)正逐步滲透到日常生活的方方面面,展現(xiàn)出其巨大的實用價值和發(fā)展?jié)摿Α?/p>
1.2 技術(shù)帶來的多維風險審視
盡管A IG C技術(shù)展現(xiàn)出巨大的潛力和應(yīng)用前景,但其伴隨的風險同樣不容忽視。隱私泄露問題尤為突出,因為AIGC技術(shù)在生成內(nèi)容的過程中,可能會無意中泄露訓(xùn)練數(shù)據(jù)中的敏感信息,對個人隱私構(gòu)成威脅。
技術(shù)的濫用問題也引起了社會的廣泛關(guān)注。虛假信息的生成可能導(dǎo)致社會信任的瓦解,知識產(chǎn)權(quán)的侵犯可能損害創(chuàng)作者的合法權(quán)益,對特定群體的歧視可能加劇社會不公。這些風險不僅威脅到個人和社會的安全,也對AIGC技術(shù)的健康發(fā)展構(gòu)成了嚴峻挑戰(zhàn)。
倫理問題是AIGC技術(shù)發(fā)展中不可忽視的重要議題。隨著技術(shù)的發(fā)展,如何確保AIGC工具的決策過程透明、公正,以及如何避免算法偏見,成為亟待解決的問題。國際標準化組織(ISO)、國際電工委員會(IEC)和國際電信聯(lián)盟(ITU)等國際組織正在積極制定相關(guān)標準和指導(dǎo)原則,旨在推動AIGC技術(shù)的負責任、可信賴和安全發(fā)展。
此外,公眾對AIGC技術(shù)的認知和接受程度也是影響其可持續(xù)發(fā)展的關(guān)鍵因素。因此,加強公眾教育,提高社會對AIGC技術(shù)潛在風險的認識,以及培養(yǎng)負責任的使用習慣,對于構(gòu)建健康、可持續(xù)的技術(shù)生態(tài)環(huán)境至關(guān)重要。
1.3 AIGC安全治理方案
1.3.1 以標準化支撐人工智能安全治理
《宣言》指出,發(fā)揮人工智能的潛力需要政府、企業(yè)、學術(shù)界和社會的共同關(guān)注、協(xié)作和信息共享。標準和資源共享可以促進政府間的能力建設(shè)、國際合作以及對人工智能風險和應(yīng)對措施的共同理解,從而通過共同努力克服全球性挑戰(zhàn)。作為人工智能安全研究合作的初步貢獻,英國成立了世界上第一個人工智能安全研究所,該研究所將建立公共部門進行人工智能安全測試和研究,對可能出現(xiàn)的安全風險進行預(yù)判。盡管前沿人工智能公司在人工智能安全政策方面取得了重大進展,包括責任承擔和風險告知方面,但是公司政策只是基線,并不能取代政府制定標準和監(jiān)管的需要。標準化基準可以由可信的外部第三方(如:最近宣布成立的英國人工智能安全研究所)提供。
1.3.2 以互操作性應(yīng)用人工智能安全治理
人工智能互操作性的實現(xiàn)需要依托標準化、共同的原則和準則通過制定人工智能可互操作的框架可以有效減輕前沿人工智能的風險,并促進廣泛實現(xiàn)人工智能的惠益。從國內(nèi)來看,互操作性的實現(xiàn)需要根據(jù)國情和適用的法律框架制定有針對性的方法。從國際來看,經(jīng)濟合作與發(fā)展組織(OECD)和全球人工智能伙伴關(guān)系(GPAI)等組織在具有互操作性的人工智能開發(fā)、應(yīng)用和治理方面提供了詳細依據(jù)和政策指導(dǎo)。標準機構(gòu),包括國際標準化組織(ISO)、國際電工委員會(IEC)、電氣和電子工程師協(xié)會(IEEE)和國際電信聯(lián)盟(ITU)等為應(yīng)對人工智能安全風險,也開展了人工智能安全各個方面的標準化工作。
2 全球與中國關(guān)于AIGC技術(shù)的監(jiān)管與標準化現(xiàn)狀
2.1 國際社會對AIGC風險的監(jiān)管策略和標準化工作
生成式人工智能(AIGC)技術(shù)的快速發(fā)展,引起了國際社會的廣泛關(guān)注。AIGC技術(shù)的潛在風險,特別是隱私泄露和濫用問題,已經(jīng)促使多個國家和國際組織采取行動。生命未來研究所(FLI)的公開信就是一個明顯的例子,它不僅呼吁全球AI實驗室暫停訓(xùn)練更強大的AI系統(tǒng),還強調(diào)了開發(fā)AI治理系統(tǒng)的緊迫性。國際社會對AIGC風險也表達了關(guān)切,這封公開信得到了包括埃隆·馬斯克在內(nèi)的眾多科技界人士的支持。此外,英國政府發(fā)布的人工智能產(chǎn)業(yè)監(jiān)管白皮書和歐洲議會通過的《通用產(chǎn)品安全條例》(GP SR)進一步體現(xiàn)了國際社會在監(jiān)管AIGC風險方面的積極努力:這些政策文件不僅為AIGC技術(shù)的監(jiān)管提供了框架,也為國際合作和協(xié)調(diào)奠定了基礎(chǔ)。
在標準化方面,2022年,英國建立人工智能標準中心,為國際標準化工作提供信息,在制定“安全可靠”的規(guī)則方面發(fā)揮作用。2023年11月26日,美國、英國、澳大利亞等18個國家的網(wǎng)絡(luò)安全監(jiān)管部門聯(lián)合微軟、谷歌等23個網(wǎng)絡(luò)安全組織發(fā)布《安全A I系統(tǒng)開發(fā)指引》,旨在從設(shè)計階段強化AI 系統(tǒng)的安全性,以防范可能的安全風險。該指南被視為全球首個AI安全標準,并為AI系統(tǒng)開發(fā)提供了必要的建議。國際標準化組織(ISO)、國際電工委員會(IEC)和國際電信聯(lián)盟(ITU)等機構(gòu)也正在積極開展工作。ISO/IEC JTC 1/SC 42分委會正在制定一系列標準,這些標準將涵蓋整個AI生態(tài)系統(tǒng),包括技術(shù)治理、風險管理、倫理要求等關(guān)鍵領(lǐng)域。這些標準的制定有望為AIGC技術(shù)的規(guī)范發(fā)展提供重要的指導(dǎo)和支持。
2.2 中國對AIGC風險的監(jiān)管策略和標準化工作
中國作為一個在AIG C技術(shù)領(lǐng)域具有重要影響力的國家,也在積極構(gòu)建自己的監(jiān)管框架和推動標準化工作。2023年10月11日,我國發(fā)布《生成式人工智能服務(wù)安全基本要求》(征求意見稿),這是全國信息安全標準化技術(shù)委員會發(fā)布的國內(nèi)首個專門面向生成式AI安全領(lǐng)域的規(guī)范意見稿。征求意見稿首次提出生成式AI服務(wù)提供者需遵循的安全基本要求,涉及語料安全、模型安全、安全措施、安全評估等方面,給出了語料及生成內(nèi)容的主要安全風險共5類31種。盡管這些標準目前不具備法律效力,但相關(guān)專家認為它們很可能會被納入未來的法律框架中,并已被科技公司如:華為、阿里巴巴和騰訊等視為具有約束力的規(guī)則。這份文件的出臺不僅提供了內(nèi)容審核的技術(shù)性細節(jié),還可能預(yù)示著新的審查制度的開始,從而在全球范圍內(nèi)對AI的監(jiān)管方式產(chǎn)生指導(dǎo)作用。
2.3 國際與國內(nèi)監(jiān)管策略和標準化工作的差異與聯(lián)系
盡管國際社會和中國都在積極推動AIGC技術(shù)的監(jiān)管和標準化工作,但在策略和實施上存在一些差異。例如:一些歐洲國家如意大利已經(jīng)采取了明確的禁限用措施,而美國則更側(cè)重于通過公開征求意見來推進監(jiān)管措施的制定。與此同時,中國在監(jiān)管策略上更側(cè)重于行業(yè)倡議和政策引導(dǎo),同時在標準化工作中強調(diào)科技倫理的重要性。這些差異不僅反映了不同國家在監(jiān)管理念和方法上的特點,也與各國在AIGC技術(shù)發(fā)展階段和應(yīng)用場景上的差異有關(guān)。然而,無論是國際還是國內(nèi),監(jiān)管和標準化工作的最終目標都是促進AIGC技術(shù)的健康發(fā)展,保障社會安全和倫理要求得到滿足。
在全球化的今天,國際合作與交流在AIGC技術(shù)的監(jiān)管和標準化工作中顯得尤為重要。通過分享最佳實踐、協(xié)調(diào)標準制定和加強技術(shù)交流,國際社會和中國需要共同應(yīng)對AIGC技術(shù)帶來的挑戰(zhàn),推動構(gòu)建一個更加安全、負責任的AI技術(shù)發(fā)展環(huán)境。
3 加快制定完善我國AI治理相關(guān)標準的策略建議
隨著人工智能技術(shù)的快速發(fā)展,AI治理標準的重要性日益凸顯。為了確保AI技術(shù)的健康發(fā)展,避免潛在風險,我國亟需加快制定和完善AI治理相關(guān)標準。本文提出了以下策略建議。
3.1 優(yōu)化AI治理標準體系建設(shè)
持續(xù)優(yōu)化AI治理標準體系的建設(shè)意味著需要建立一個全面、協(xié)調(diào)、高效的標準體系,涵蓋AI技術(shù)的研發(fā)、應(yīng)用、評估、監(jiān)管等各個環(huán)節(jié)。標準體系的建設(shè)應(yīng)以促進技術(shù)創(chuàng)新、保障社會安全、維護倫理道德為基本原則。為了加強重點領(lǐng)域標準布局,我國應(yīng)識別和確定AI技術(shù)發(fā)展的關(guān)鍵領(lǐng)域,如:自動駕駛、醫(yī)療診斷、智能教育等,并針對這些領(lǐng)域制定相應(yīng)的標準。這些標準應(yīng)包括技術(shù)規(guī)范、安全要求、倫理準則等,以確保AI技術(shù)的應(yīng)用既高效又安全。
3.2 開展AI評測類標準研制
我國應(yīng)穩(wěn)步開展AI風險、隱私、倫理、可信等方面的評測類標準研制。這些標準將為AI技術(shù)的安全性、隱私保護、倫理合規(guī)性、可信度等方面提供評估依據(jù)。在風險管理方面,應(yīng)制定相應(yīng)的評估標準,以識別和評估AI技術(shù)可能帶來的各種風險,包括技術(shù)風險、安全風險、社會風險等。在隱私保護方面,應(yīng)制定嚴格的數(shù)據(jù)收集、處理、存儲和傳輸標準,以保護用戶的個人隱私。在倫理方面,應(yīng)制定AI倫理準則,明確AI技術(shù)在設(shè)計、研發(fā)、應(yīng)用過程中應(yīng)遵循的倫理原則,如:尊重人權(quán)、公平公正、透明可解釋等。在可信度方面,應(yīng)制定AI系統(tǒng)的可信度評估標準,評估AI系統(tǒng)的可靠性、穩(wěn)定性、抗干擾能力等。此外,在前沿AI技術(shù)方面,重點關(guān)注人工智能關(guān)鍵技術(shù)、核心產(chǎn)品和應(yīng)用迭代等標準化研究,重視技術(shù)賦能,為人工智能在國內(nèi)和國際的安全治理方面提供標準化技術(shù)支撐。
3.3 促進AI領(lǐng)域的互操作性與協(xié)同發(fā)展
互操作性是確保不同系統(tǒng)和平臺之間無縫協(xié)作的基礎(chǔ)。在AI領(lǐng)域,互操作性不僅涉及數(shù)據(jù)格式和接口的標準化,還包括算法、模型和應(yīng)用程序之間的兼容性。通過制定統(tǒng)一的標準和協(xié)議,可以降低技術(shù)整合的復(fù)雜性和成本,提高AI系統(tǒng)的整體協(xié)同作用和響應(yīng)速度。為了實現(xiàn)這一目標,需要政府、企業(yè)和學術(shù)界的共同努力。政府可以制定相應(yīng)的政策和激勵措施,鼓勵數(shù)據(jù)共享和技術(shù)創(chuàng)新;企業(yè)可以通過合作和競爭,推動數(shù)據(jù)的開放和互操作性技術(shù)的發(fā)展;學術(shù)界則可以通過研究和教育,培養(yǎng)新一代的人工智能專業(yè)人才,為數(shù)據(jù)共享和互操作性提供理論和實踐的支持。
3.4 促進國際合作與交流
在制定和完善A I治理標準的過程中,我國還應(yīng)積極參與國際合作與交流。通過與國際標準化組織、其他國家的監(jiān)管機構(gòu)和AI企業(yè)等進行交流合作,我國可以學習借鑒國際先進的標準制定經(jīng)驗和監(jiān)管實踐,同時也可以分享我國在AI治理方面的成果和經(jīng)驗。國際合作與交流有助于促進全球AI治理標準的協(xié)調(diào)一致,避免因標準不一致而帶來的技術(shù)壁壘和貿(mào)易摩擦。此外,國際合作還可以促進AI技術(shù)的全球創(chuàng)新和發(fā)展,為解決全球性問題提供技術(shù)支持。
4 結(jié) 論
深入理解AIGC技術(shù)的內(nèi)在機制和外部影響,把握其發(fā)展趨勢,制定合理的政策和措施,才能努力做到技術(shù)進步與社會利益的和諧統(tǒng)一。通過對AIGC技術(shù)原理的闡釋、應(yīng)用進展的梳理以及潛在風險的評估,我們對這一新興技術(shù)有了更深刻的理解。展望未來,AIGC技術(shù)的演進預(yù)計將在促進社會進步和經(jīng)濟發(fā)展中扮演更加關(guān)鍵的角色。技術(shù)的不斷進步將為各行各業(yè)帶來深遠的影響,從而推動創(chuàng)新和生產(chǎn)力的提升。然而,技術(shù)的健康發(fā)展需要一個健全的監(jiān)管框架和標準化體系作為支撐。這不僅對于緩解技術(shù)風險、保護消費者和企業(yè)利益至關(guān)重要,也是確保AIGC技術(shù)長期可持續(xù)發(fā)展的關(guān)鍵。
參考文獻
[1]葉海波,相夢垚.我國人工智能標準化建設(shè)現(xiàn)狀與展望[J].質(zhì)量與認證,2024(03):28-30.DOI:10.16691/j.cnki.10-1214/t.2024.03.003.
[2]全球人工智能專家共同探討挑戰(zhàn)、趨勢和標準化(英文)[J].China Standardization,2024(03):58.
[3]徐慧芳,秦銘浩,王毓欣,等.基于標準必要專利的人工智能產(chǎn)業(yè)競爭態(tài)勢研究[J].中國發(fā)明與專利,2024,21(05):48-55.
[4]林陽薈晨,上官曉麗.歐美人工智能網(wǎng)絡(luò)安全標準化最新動態(tài)[J].信息技術(shù)與標準化,2023(12):57-61+66.
[5]宋愷,屈蕾蕾,楊萌科.生成式人工智能的治理策略研究[J].信息通信技術(shù)與政策,2023,49(07):83-88.
[6]余繼超.數(shù)據(jù)安全“拷問”ChatGPT類AI[N].國際金融報,2023-04-17(011).DOI:10.28403/n.cnki.nifnb.2023.000394.