隨著人工智能技術(shù)的快速發(fā)展,人工智能的治理問題也越來越受到社會各界的廣泛關(guān)注。人們逐漸意識到,人工智能不僅是一項(xiàng)前沿科技,更是一種深刻影響社會結(jié)構(gòu)、經(jīng)濟(jì)體系和全球治理格局的系統(tǒng)性力量。因此,如何在推動人工智能技術(shù)創(chuàng)新的同時建立起科學(xué)有效的治理機(jī)制,已成為當(dāng)前技術(shù)政策研究與實(shí)踐的核心議題。
現(xiàn)有的人工智能技術(shù)系統(tǒng)由于其復(fù)雜性和不可解釋性,帶來一些潛在的技術(shù)失靈風(fēng)險。一旦被濫用或用于惡意目的,其危害可能超出技術(shù)范疇,在關(guān)鍵領(lǐng)域引發(fā)局部性損害,甚至演變?yōu)橄到y(tǒng)性風(fēng)險。因此,理解人工智能風(fēng)險治理的必要性與緊迫性,需對其潛在風(fēng)險進(jìn)行系統(tǒng)分類、剖析成因,并找到相應(yīng)的解決辦法。
人工智能風(fēng)險的分類有很多種,圖靈獎得主約書亞·本吉奧于2025年?duì)款^發(fā)布的《國際人工智能安全報告》,將人工智能帶來的各種風(fēng)險劃分為三大類:
1. 惡意使用風(fēng)險,指人為使用人工智能系統(tǒng)進(jìn)行傷害、操控、欺詐等非法或不道德行為;
2. 技術(shù)失靈風(fēng)險,即人工智能系統(tǒng)在正常使用情況下由于故障或技術(shù)失靈帶來的不良后果;
3. 系統(tǒng)性風(fēng)險,指人工智能大規(guī)模應(yīng)用后可能引發(fā)的廣泛性負(fù)面社會影響。
人工智能惡意使用的風(fēng)險目前已經(jīng)比較常見。2023年,英國某知名公司遭遇一起令人震驚的深度偽造詐騙案件。該公司一位員工應(yīng)公司“上級”的邀請參加視頻會議,并根據(jù)對方指令將約2億港元匯入多個賬戶。事后調(diào)查發(fā)現(xiàn),除該員工本人外,所有“參會者”皆為由生成式人工智能所合成的虛擬影像,通過深度偽造(Deepfake)技術(shù)逼真模擬真實(shí)的聲音與面貌。這一事件凸顯了生成式人工智能被濫用于欺詐的巨大風(fēng)險,傳統(tǒng)的語音、視頻驗(yàn)證機(jī)制在此類情況下幾乎失效。從治理角度看,如何在制度層面防范生成式人工智能被惡意利用,亟須得到更高優(yōu)先級的回應(yīng)。
人工智能技術(shù)失靈比較典型的情況就是所謂“幻覺”(hallucination)的產(chǎn)生,即模型生成與客觀事實(shí)不符,甚至完全虛構(gòu)的信息內(nèi)容。這在很多對準(zhǔn)確性要求很高的應(yīng)用場景中容易產(chǎn)生風(fēng)險。
例如,近年來不少律師事務(wù)所嘗試將人工智能用于法律案件梳理與檢索,但結(jié)果并不理想。最著名的案例之一是2023年美國某律師在提交訴狀中引用了數(shù)個根本不存在的“判例”,經(jīng)查這些判例均由人工智能編造,導(dǎo)致法院當(dāng)庭指責(zé)該律所嚴(yán)重失職。目前,包括美國律師協(xié)會在內(nèi)的多個行業(yè)協(xié)會已發(fā)出預(yù)警,要求在法律實(shí)踐中使用人工智能輔助時必須設(shè)立嚴(yán)格的驗(yàn)證機(jī)制。
人工智能帶來的系統(tǒng)性風(fēng)險包括對就業(yè)、知識產(chǎn)權(quán)、社會認(rèn)知等方面的影響。當(dāng)前最受關(guān)注的風(fēng)險之一,是生成式人工智能與現(xiàn)有版權(quán)保護(hù)機(jī)制之間日益凸顯的沖突。
2023年底,《紐約時報》起訴Open AI和微軟,指控其在未經(jīng)授權(quán)的情況下將大量新聞內(nèi)容用于大模型訓(xùn)練。這一案件觸及人工智能治理中極為復(fù)雜的議題,包括訓(xùn)練數(shù)據(jù)的知識產(chǎn)權(quán)歸屬問題,“合理使用”邊界如何在訓(xùn)練場景中界定,以及模型生成結(jié)果是否構(gòu)成“衍生作品”等。盡管該案件尚未審結(jié),但已經(jīng)促使多國監(jiān)管機(jī)構(gòu)重新審視人工智能與版權(quán)之間的關(guān)系。
在上述三類風(fēng)險中,人類社會面臨的最大潛在風(fēng)險就是技術(shù)失靈引發(fā)的失控情況,亦即當(dāng)人工智能發(fā)展到通用人工智能(AGI)或超級人工智能(ASI)的階段,人類喪失對其控制權(quán)。
早在1950年,人工智能奠基人圖靈就在《Mind》期刊發(fā)表的經(jīng)典論文中提出“child-machine”的構(gòu)想,預(yù)見了人工智能可能具備自我學(xué)習(xí)與自主演化的能力。機(jī)器將通過實(shí)驗(yàn)學(xué)習(xí)不斷優(yōu)化自身,行為結(jié)果并不完全由人類預(yù)設(shè)。今天,圖靈這一預(yù)測似乎正一步步成為現(xiàn)實(shí)。隨著人工智能系統(tǒng)擁有代碼生成、自我優(yōu)化甚至模擬人類行為的能力,其“不可預(yù)測性”日益顯現(xiàn)。
牛津大學(xué)教授Bostrom提出“價值鎖定(Value Lock-in)”風(fēng)險,即早期設(shè)計(jì)的不完美目標(biāo)函數(shù)可能在通用人工智能中被永久嵌入,帶來不可逆的災(zāi)難性后果。因此,可控性問題已成為人工智能風(fēng)險治理領(lǐng)域的最核心問題之一。
由此引發(fā)的一個根本性治理問題是:當(dāng)人工智能技術(shù)發(fā)展到某一階段,是否應(yīng)該有“暫?!钡倪x項(xiàng)?在生命科學(xué)領(lǐng)域,倫理底線的設(shè)立已較為成熟。例如,人類胚胎編輯、克隆等研究方向已在國際上形成廣泛共識,不少國家設(shè)立了明確禁區(qū)。人工智能是否也應(yīng)設(shè)定類似的“倫理紅線”?
近年來,該問題的緊迫性與爭議性顯著上升。2023年,超過1000位人工智能專家與科技領(lǐng)袖聯(lián)合簽署《暫停大型人工智能實(shí)驗(yàn)公開信》,呼吁對超過GPT-4級別的人工智能系統(tǒng)實(shí)施“自愿性開發(fā)暫?!保缘却鐣沧R與治理機(jī)制的建立。這一行動雖頗具爭議性且在現(xiàn)實(shí)中難以實(shí)施,但也凸顯出科技界內(nèi)部對于“不可控風(fēng)險”的現(xiàn)實(shí)焦慮。
人工智能治理的目的,不僅是“應(yīng)對風(fēng)險”,更重要的是塑造人工智能的社會—技術(shù)系統(tǒng)、相應(yīng)制度架構(gòu)的協(xié)同演化,并最終形成一個兼具創(chuàng)新性、安全性與公平性的社會應(yīng)用生態(tài)。
因此,人工智能治理的意義,絕不僅僅是畫出“禁區(qū)”,更在于鋪設(shè)“通道”和“軌道”。技術(shù)從來不是“拿來即用”的工具。任何人工智能系統(tǒng)的成功部署,必然依賴于其與社會制度、法律規(guī)制、基礎(chǔ)設(shè)施和文化環(huán)境的深度耦合。這就是“社會技術(shù)共構(gòu)”的基本邏輯。
一個典型的例子是公路交通系統(tǒng)。從汽車技術(shù)誕生到廣泛普及,人類社會配套建設(shè)了道路網(wǎng)絡(luò)、交通信號及交規(guī)體系、駕照制度、保險機(jī)制、加油與維修網(wǎng)絡(luò)等一系列技術(shù)及社會運(yùn)行機(jī)制,來保障讓汽車真正成為一種社會生產(chǎn)與生活系統(tǒng)的組成部分。長遠(yuǎn)來看,人工智能的發(fā)展同樣需要經(jīng)歷一場復(fù)雜的“社會適配”過程。
無論是醫(yī)療、教育,還是政務(wù)領(lǐng)域的人工智能應(yīng)用,其有效落地都依賴于數(shù)據(jù)治理、倫理審查、接口標(biāo)準(zhǔn)、責(zé)任認(rèn)定等制度要素的協(xié)同支撐。這些制度性安排本身,即構(gòu)成了人工智能治理不可或缺的一部分。
以醫(yī)療場景為例,即使人工智能系統(tǒng)的診斷準(zhǔn)確率優(yōu)于醫(yī)生,其應(yīng)用仍需滿足如下治理?xiàng)l件:(a)明確的數(shù)據(jù)隱私合規(guī)機(jī)制;(b)醫(yī)療責(zé)任歸屬的法律認(rèn)定;(c)醫(yī)患之間的信息透明;(d)醫(yī)保報銷政策的對接。
雖然在底層算法與模型結(jié)構(gòu)上,人工智能已取得顯著進(jìn)展,但其“落地”往往滯后于技術(shù)本身。根本原因之一,就在于缺乏“場景級治理配套”。如果缺乏這些制度安排,人工智能再先進(jìn)也難以獲得信任和合法性。因此,治理不僅是防范風(fēng)險的“保護(hù)性屏障”,更構(gòu)成了推動人工智能融入現(xiàn)實(shí)社會的“適應(yīng)性基礎(chǔ)設(shè)施”。
除了風(fēng)險防控和社會建構(gòu),治理還擔(dān)負(fù)著人工智能產(chǎn)業(yè)市場塑造的功能。
人工智能的治理深刻影響市場的形成與演化路徑,具備“產(chǎn)業(yè)塑造”與“競爭調(diào)控”的重要作用。首先,準(zhǔn)入門檻的設(shè)定直接決定了哪些企業(yè)有機(jī)會參與人工智能產(chǎn)業(yè)的發(fā)展。例如,如果高風(fēng)險人工智能系統(tǒng)必須滿足嚴(yán)格的測試認(rèn)證要求,中小企業(yè)可能因合規(guī)成本過高被排除在市場之外;反之,則可能引發(fā)“劣幣驅(qū)逐良幣”式的無序競爭。同時,人工智能發(fā)展中也面臨典型的“路徑依賴”風(fēng)險。一旦特定的模型架構(gòu)、數(shù)據(jù)資源或工具鏈取得先發(fā)優(yōu)勢,就可能在非最優(yōu)技術(shù)路線上造成事實(shí)性的“平臺鎖定”。因此,有效的治理手段可以通過技術(shù)標(biāo)準(zhǔn)開放、公共算力共享、基礎(chǔ)模型開源等,來避免路徑鎖定的問題。
在當(dāng)前人工智能治理實(shí)踐中,開源常被視為實(shí)現(xiàn)“普惠化人工智能”的重要途徑,然而其也伴隨潛在的安全風(fēng)險與責(zé)任不清等問題。相較之下,閉源雖然有利于系統(tǒng)控制與風(fēng)險管理,卻可能加劇能力壟斷與模型路徑依賴。
因此,一種可能的治理思路是在制度設(shè)計(jì)上區(qū)分不同風(fēng)險等級與具體應(yīng)用場景。對于一般性用途,可鼓勵開源共享;而對信息操縱、金融系統(tǒng)等高風(fēng)險應(yīng)用領(lǐng)域,則應(yīng)設(shè)定更嚴(yán)格的開源門檻與責(zé)任機(jī)制。
實(shí)現(xiàn)人工智能治理的三重功能——風(fēng)險防控、社會建構(gòu)與市場塑造,離不開政府、企業(yè)與社會多元主體的協(xié)同共治。政府不僅是監(jiān)管者,更是市場塑造者;企業(yè)不僅是人工智能技術(shù)創(chuàng)新的領(lǐng)先者,也是人工智能治理的前沿實(shí)踐者;而社會各界既是人工智能技術(shù)的使用者,也是推動其治理理念生根落地的重要力量。只有政府、企業(yè)和社會擺脫傳統(tǒng)的“貓鼠博弈思維”,轉(zhuǎn)向協(xié)同治理和敏捷治理的思路,方能在推動技術(shù)廣泛應(yīng)用的同時不斷優(yōu)化治理體系,在制度演進(jìn)中實(shí)現(xiàn)技術(shù)創(chuàng)新與社會價值的協(xié)同共生。
(作者系清華大學(xué)蘇世民書院院長、人工智能國際治理研究院院長、中國科技政策研究中心主任)
責(zé)編:楊琳" yanglin@ceweekly.cn
美編:孫珍蘭