中圖分類號:TP18 文獻(xiàn)標(biāo)識碼:ADOI:10.19881/j.cnki.1006-3676.2025.06.02
隨著第四次工業(yè)革命浪潮席卷全球,人工智能(AI)作為其中的關(guān)鍵驅(qū)動力,正在以前所未有的速度、廣度和深度改變著世界。從自動駕駛到智能家居,從精準(zhǔn)醫(yī)療診斷到個(gè)性化教育方案,人工智能的應(yīng)用范圍日益廣泛,極大地提升了社會生產(chǎn)效率和生活便利性。然而,在這一片繁榮景象之下,也存在隱憂:安全問題成為制約人工智能領(lǐng)域可持續(xù)發(fā)展的瓶頸。這意味著技術(shù)的發(fā)展不僅要追求性能上的卓越,還必須兼顧系統(tǒng)的穩(wěn)定性和安全性。因此兩者的和諧統(tǒng)一是當(dāng)下及未來人工智能發(fā)展的重要議題。
作者簡介:劉恒,博士,特邀研究員,研究方向?yàn)閲野踩珜W(xué)基本理論、技術(shù)安全、經(jīng)濟(jì)安全治理。孟利,碩士,特邀研究員,研究方向?yàn)榭傮w國家安全觀、馬克思主義基礎(chǔ)理論與新技術(shù)應(yīng)用。劉躍進(jìn)(通信作者),碩士,教授,國家安全學(xué)創(chuàng)始人,研究方向?yàn)閲野踩珜W(xué)基本理論與學(xué)科建設(shè)。
一、人工智能:深刻技術(shù)革命開啟新的歷史起點(diǎn)
從人類開始使用工具以來,技術(shù)的進(jìn)步一直是推動社會發(fā)展的重要?jiǎng)恿?。特別是從工業(yè)革命開始,每一次的技術(shù)飛躍都極大地改變了人類的生產(chǎn)生活方式和社會結(jié)構(gòu)。自約翰·麥卡錫(JohnMcCarthy)、馬文·明斯基(MarvinMinsky)與納撒尼爾·羅切斯特(NathanielRochester)等計(jì)算機(jī)專家于1956年首次提出“人工智能”(ArtificialIntelligence)的概念以來,這一技術(shù)在理論和應(yīng)用上不斷擴(kuò)展演進(jìn)[1]。由于計(jì)算能力和數(shù)據(jù)量的限制,早期人工智能主要是基于規(guī)則的專家系統(tǒng),發(fā)展比較緩慢。
20世紀(jì)80年代末至90年代初,伴隨神經(jīng)網(wǎng)絡(luò)研究的進(jìn)步,機(jī)器學(xué)習(xí)開始興起。21世紀(jì)以后,深度學(xué)習(xí)成為人工智能研究的核心領(lǐng)域。近年來,隨著多模態(tài)數(shù)據(jù)的廣泛積累、計(jì)算能力的大幅提升以及算法的不斷優(yōu)化,人工智能迎來了爆發(fā)式的增長,從最初簡單的邏輯推理,到如今的深度學(xué)習(xí)和強(qiáng)化擬人推理。這一系列的技術(shù)突破使得人工智能能夠在圖像識別、語音處理、自然語言理解等多個(gè)領(lǐng)域取得重大進(jìn)展,人工智能逐漸具備了類似于人類的學(xué)習(xí)與思考能力。
現(xiàn)階段的人工智能技術(shù)表現(xiàn)出強(qiáng)大的學(xué)習(xí)能力、高度的智能化、自我優(yōu)化與改進(jìn)的特點(diǎn)。通過對海量數(shù)據(jù)的分析和學(xué)習(xí),人工智能能夠自動提取特征規(guī)律,從而實(shí)現(xiàn)對新數(shù)據(jù)的準(zhǔn)確預(yù)測及分類;能夠模擬人類的智能行為,如語言理解、圖像識別、決策制定等,并且在某些方面表現(xiàn)出超越人類的能力;通過不斷接收新數(shù)據(jù),強(qiáng)化輸出反饋,人工智能可以持續(xù)優(yōu)化自身的模型與算法,提高運(yùn)行穩(wěn)定性,提升整體預(yù)測的準(zhǔn)確性。
目前,人工智能已廣泛應(yīng)用于制造業(yè)、交通、醫(yī)療等領(lǐng)域,并對包括勞動就業(yè)等經(jīng)濟(jì)社會發(fā)展各方面產(chǎn)生深遠(yuǎn)影響。在制造業(yè)方面,人工智能推動智能化生產(chǎn)的實(shí)現(xiàn),促進(jìn)質(zhì)量檢測和供應(yīng)鏈等環(huán)境流程的重塑,大幅提高了生產(chǎn)效率和產(chǎn)品質(zhì)量;在交通領(lǐng)域,隨著自動駕駛技術(shù)的深度運(yùn)用,城市交通的無序現(xiàn)象有望得到改善,交通系統(tǒng)的整體安全水平也將得到極大提高;在醫(yī)療行業(yè),輔助疾病診斷、藥物研發(fā)、精度影像分析等手段的引入,使診治效率和準(zhǔn)確性都得到了提高,能夠?yàn)榛颊咛峁└玫目萍紬l件及個(gè)性化的診療服務(wù)方案。除此之外,人工智能技術(shù)在金融行業(yè)、教育領(lǐng)域等諸多場景下的應(yīng)用,不僅極大拓展了人的實(shí)踐能力,更深度嵌入社會治理當(dāng)中[2]。
基于強(qiáng)大的技術(shù)能力,人工智能深刻地改變了社會生產(chǎn)模式、勞動力市場、市場主體創(chuàng)新等方面的原有形態(tài)。例如,自動化與智能化生產(chǎn)日趨成為主流,不僅有效降低了企業(yè)生產(chǎn)成本,還成為促進(jìn)產(chǎn)業(yè)轉(zhuǎn)型升級、提升競爭力的關(guān)鍵;勞動者職業(yè)結(jié)構(gòu)發(fā)生變遷,技能培訓(xùn)與終身學(xué)習(xí)成為必然,新職業(yè)誕生的同時(shí),某些重復(fù)性高、技能要求較低的工作崗位將被智能機(jī)器替代;人工智能技術(shù)催生了一系列新興產(chǎn)業(yè),為經(jīng)濟(jì)增長提供了新動力,從根本上推動了商業(yè)模式創(chuàng)新,實(shí)現(xiàn)了個(gè)性化營銷與服務(wù),增強(qiáng)了用戶體驗(yàn),為企業(yè)帶來新的利潤增長點(diǎn),等等。
總的來看,作為一場深刻的技術(shù)和社會革命,人工智能開啟了新的歷史起點(diǎn),既帶來了前所未有的發(fā)展機(jī)遇,也伴隨著一系列風(fēng)險(xiǎn)挑戰(zhàn)。如何統(tǒng)籌平衡技術(shù)與安全兩大根本性維度,不僅關(guān)系到人工智能自身的發(fā)展方向,更關(guān)系到人類社會的未來。
二、問題的緣起: “互不適應(yīng)”或“單向適應(yīng)”造成的困境
從相對基礎(chǔ)的層面來看,以往關(guān)于人工智能技術(shù)與安全關(guān)系的研究可以歸納為兩大類。第一類是普遍認(rèn)為二者是互相獨(dú)立的概念范疇,體現(xiàn)了不同的價(jià)值向量,有合作也有沖突,但更多的是在不同場域內(nèi)為實(shí)現(xiàn)各自特定的目標(biāo)而進(jìn)行的外部結(jié)合。第二類是將技術(shù)與安全視為相互聯(lián)系的概念范疇,兩者內(nèi)部各要素之間在一定情形下存在相互影響、相互作用以及相互制約的關(guān)系,但這種關(guān)系只是體現(xiàn)了某種適應(yīng)性,即根據(jù)某方面的需要而作出取舍。例如,當(dāng)追求技術(shù)突飛猛進(jìn)時(shí),就不能過分要求其保障安全;當(dāng)強(qiáng)調(diào)安全穩(wěn)定時(shí),則不能只在乎技術(shù)的單向度發(fā)展。實(shí)際上,以上兩個(gè)思考視角一直伴隨人工智能的發(fā)展歷程,并且體現(xiàn)了其背后的“互不適應(yīng)”和“單向適應(yīng)”的思維邏輯。
(一)古代形態(tài)
中國古代思想家墨子和古希臘哲學(xué)家亞里士多德,就曾從不同角度探討過關(guān)于人造機(jī)器與衍生出智能的可能性。如墨子發(fā)明了一種早期的飛行工具,木鳶;亞里士多德進(jìn)行了演繹推理三段論的完整分析,為形式邏輯奠定了基礎(chǔ),對后世科學(xué)思維(包括符號化推理)具有啟示意義。在東方,“安全”概念及其治理活動主要體現(xiàn)為對統(tǒng)治者地位的維護(hù);在西方,安全更側(cè)重于特定時(shí)空區(qū)域下的群體防衛(wèi),其治理模式也存在僭主制與君主制的分別。由于社會發(fā)展形態(tài)限制,古代原始科技與安全之間尚不存在雙向適應(yīng)的基礎(chǔ)。不過值得注意的是,這一時(shí)期的技術(shù)發(fā)明很大程度上是為了滿足社會群體的安全需求,體現(xiàn)了以技術(shù)維護(hù)安全的樸素思想。
(二)近代思想
以1959年美國麻省理工學(xué)院成立最早的人工智能實(shí)驗(yàn)室為標(biāo)志,人工智能從理論走向?qū)嵺`,開始成為人類腦力的外部延伸,自然具備了與人的安全相互關(guān)聯(lián)的屬性。但由于當(dāng)時(shí)科技發(fā)展程度十分有限,人工智能對安全尚不具備實(shí)際影響力,因此“雙向適應(yīng)”還只是就發(fā)展維度來說,指科技成果適應(yīng)人的主觀需求。這一時(shí)期,阿西莫夫提出著名的“三大定律”1,明確規(guī)定機(jī)器人必須服從人類的命令,且機(jī)器人不得傷害人類,不得目睹人類個(gè)體遭受危險(xiǎn)時(shí)袖手旁觀。自此開始,這一倫理框架構(gòu)成了人工智能與人類安全關(guān)系的底線。該階段的主要問題是技術(shù)發(fā)展水平還遠(yuǎn)遠(yuǎn)沒有達(dá)到預(yù)期設(shè)想,因而智能技術(shù)只涉及適應(yīng)人的主觀需求方面,并沒有形成完整的問題域以及納入安全體系框架中,所以在早期技術(shù)不成熟條件下更多的是“單向適應(yīng)”模式。同樣從這一時(shí)期開始,因相關(guān)技術(shù)對自然環(huán)境、勞動者健康等方面逐漸產(chǎn)生負(fù)面影響,人們開始反思技術(shù)的“異化問題”,尤其是美國、蘇聯(lián)等國利用原子能技術(shù)制造出的毀滅性核武器,使人們對技術(shù)可造成群體性安全威脅這一問題逐步產(chǎn)生認(rèn)知,而在某種程度上限制技術(shù)發(fā)展的思想萌芽也隨之產(chǎn)生。
(三)現(xiàn)代觀點(diǎn)
最近十年來,人工智能技術(shù)發(fā)展迅猛,其能力邊界正以既顯著又難以預(yù)料的方式持續(xù)擴(kuò)展。以ChatGPT為代表的生成式通用大模型迅速發(fā)展,展現(xiàn)了強(qiáng)大的復(fù)雜數(shù)據(jù)處理能力與人機(jī)交互性能。隨著這些技術(shù)對社會治理的深度嵌入,人工智能安全治理問題逐漸成為全球?qū)W界和政策界關(guān)注的焦點(diǎn)。在技術(shù)層面的快速拉動下,相比于古代和近代階段,人工智能技術(shù)與安全之間關(guān)系的重要性進(jìn)一步凸顯,并在理論與實(shí)踐層面具備了同等重要的意義。引申到“安全治理”概念,當(dāng)前學(xué)界引用較多的是埃米爾·J.科什納(EmilJ.Kirchner)與馬克·韋伯(MarkWebber)的相關(guān)界定,科什納認(rèn)為,安全治理會導(dǎo)致特定的政策結(jié)果。對于人工智能安全治理領(lǐng)域,西方學(xué)者普遍認(rèn)為這是一種“線性關(guān)系”,或者偏于重視“治理”而相對輕視“安全”。盡管他們也看到了安全治理是由若干有目的的規(guī)則體系構(gòu)成,但是對于人工智能場域下的安全治理性質(zhì)、方式和特點(diǎn)卻沒有厘清本質(zhì)區(qū)別。
在國內(nèi)方面,一般有兩種代表性傾向。一種主張安全大于技術(shù),主要代表為龔勛等專家,其認(rèn)為“人類正面對著一場阿爾文·托夫勒意義上的‘未來沖擊'”?;诩夹g(shù)發(fā)展超乎預(yù)期,可能給安全帶來嚴(yán)峻挑戰(zhàn),該觀點(diǎn)強(qiáng)調(diào)現(xiàn)階段的安全治理首先應(yīng)以預(yù)警預(yù)防為主,以避免造成衍生風(fēng)險(xiǎn),使社會治理陷入巨大被動,從而使國家的安全管理陷入失序狀態(tài)。另一種主張技術(shù)大于安全,主要代表為張廣勝等專家,其認(rèn)為“智能化 + 類人化”帶來人工智能時(shí)代特有的國家安全問題,但影響的范圍和深度只限于語言大模型重塑軍事指揮決策流程[3]。該觀點(diǎn)認(rèn)為人工智能的正面作用是主流,“主效用”大于“副作用”,國家安全治理應(yīng)服從于技術(shù)自身發(fā)展的邏輯需要,不應(yīng)過分渲染“狼來了”,所以盡管風(fēng)險(xiǎn)威脅已經(jīng)顯現(xiàn),但技術(shù)發(fā)展仍然是第一要?jiǎng)?wù),安全治理只是在特定情境下的“技術(shù)糾偏”。
從以上古今思想嬗變中,可以總結(jié)出一條邏輯發(fā)展脈絡(luò),即人工智能技術(shù)與安全治理之間經(jīng)過了從“不存在雙向適應(yīng)”到“不應(yīng)該雙向適應(yīng)”再到“不兼容雙向適應(yīng)”的歷程(見圖1)??傊?,這條邏輯主線始終將技術(shù)與安全視為經(jīng)驗(yàn)層面和先驗(yàn)層面的二元對立,其發(fā)展過程既內(nèi)含排他性內(nèi)核,又缺乏實(shí)現(xiàn)內(nèi)在調(diào)和的情境條件與轉(zhuǎn)化機(jī)制。
人工智能技術(shù)與安全的關(guān)系 不存在雙向適應(yīng) 不應(yīng)該雙向適應(yīng) 不兼容雙向適應(yīng)發(fā)展脈絡(luò)在安全治理的復(fù)雜性特征下,無法解釋技術(shù) 是作為安全影響因子與安全的融合發(fā)展關(guān)系 二是作為安全治理工具現(xiàn)代意義上的困境無法有效地解決在安全風(fēng)險(xiǎn)復(fù)合化與治理碎片化情境下,如何建構(gòu)現(xiàn)代化安全治理能力
(四)困境解析
上述問題必然造成現(xiàn)代意義上的兩大困境。首先,安全治理的復(fù)雜性不能很好地解釋為何兩個(gè)方面越“對立”,就越強(qiáng)化了兩個(gè)方面各自的發(fā)展。從表面上看,人工智能技術(shù)與安全似乎構(gòu)成了一對矛盾,而且還是相互對立的矛盾:如果加強(qiáng)“安全治理”,就會限制“技術(shù)的發(fā)展”,起碼要讓渡一部分的發(fā)展空間及權(quán)利;如果“強(qiáng)調(diào)技術(shù)的發(fā)展”,就可能忽視其帶來的“危害”或“隱患”,進(jìn)而損失安全利益。這種思維實(shí)質(zhì)上還是技術(shù)一安全“二元對立論”的延續(xù)。
國家安全的本質(zhì)是復(fù)雜巨系統(tǒng)安全,其構(gòu)成要素內(nèi)容豐富、關(guān)系龐雜,具有高度的復(fù)雜性。具體表現(xiàn)為混沌、無標(biāo)度、涌現(xiàn)性、協(xié)同和自組織的一系列復(fù)雜性特征。無論是安全實(shí)踐主體,還是安全體系與能力,都構(gòu)成了五個(gè)維度的安全復(fù)雜性整體[4]。在這樣的背景下,人工智能技術(shù)的發(fā)展將從兩大方面與安全復(fù)雜整體構(gòu)成相互關(guān)聯(lián):一是作為安全影響因子,技術(shù)綜合體的內(nèi)部穩(wěn)定狀況與外在價(jià)值向度,必然對安全狀態(tài)產(chǎn)生持久深入影響,在“萬物關(guān)聯(lián)”的時(shí)代,影響的廣度和深度也將隨之?dāng)U大,逐漸成為“強(qiáng)影響因子”;二是作為安全治理的工具,目標(biāo)導(dǎo)向與工具屬性之間構(gòu)成治理統(tǒng)一體。人工智能技術(shù)的發(fā)展與運(yùn)用,本身構(gòu)成維護(hù)安全的重要條件,治理目標(biāo)的實(shí)現(xiàn)越來越倚重技術(shù)工具,并且成為治理過程的內(nèi)在要素,自發(fā)地結(jié)合在一起。可以說人工智能發(fā)展的初衷并非為了安全,但隨著技術(shù)的逐步成熟,它就自然地具有安全屬性。這就從根本上否定了人工智能技術(shù)與安全是外在的對立矛盾。實(shí)踐邏輯中的“對立”觀點(diǎn)不能解釋同一目標(biāo)向度和價(jià)值取向下共同發(fā)展的事實(shí)。
其次,在安全風(fēng)險(xiǎn)復(fù)合化與治理碎片化情境下,現(xiàn)代化安全治理能力如何得到有效的構(gòu)建。人工智能安全治理是當(dāng)前熱點(diǎn)話題,也是前沿領(lǐng)域,兼具重要的理論與實(shí)踐意義,目前,學(xué)界以及實(shí)務(wù)界對此已經(jīng)有了一定程度的討論,專業(yè)文獻(xiàn)研究也正逐步走向深入。以烏爾里?!へ惪耍║lrichBeck)為代表的風(fēng)險(xiǎn)社會理論研究者認(rèn)為,適用于傳統(tǒng)社會安全的制度設(shè)計(jì)、組織結(jié)構(gòu)、專家系統(tǒng)及技術(shù)工具等,非但難以有效應(yīng)對風(fēng)險(xiǎn)復(fù)合化導(dǎo)致的安全治理危機(jī),反而構(gòu)成安全治理中不確定性的來源,成為安全治理活動中的顯性矛盾,這在安全治理復(fù)合碎片化情境下表現(xiàn)得尤為突出。因此,在中國式現(xiàn)代化進(jìn)程中,要釋放“跨越式發(fā)展”效能,就必須面對國內(nèi)外安全利益沖突、安全風(fēng)險(xiǎn)因素交織的復(fù)雜局面。安全風(fēng)險(xiǎn)的多樣性、復(fù)雜性和不確定性與日俱增,必然要求新時(shí)代安全治理能力要具備整體性、系統(tǒng)性和協(xié)同性,能夠有效回應(yīng)安全實(shí)踐的需要。傳統(tǒng)的人工智能技術(shù)發(fā)展與安全治理之間的“二元對立”思維顯然不適應(yīng)這種情勢的變化,單向適應(yīng)或者互不適應(yīng)的關(guān)系,割裂了兩者復(fù)雜又緊密的紐帶聯(lián)系,即使形成了單向度的技術(shù)治理能力,也不能超越傳統(tǒng)工具屬性的意識范疇,無法全面地、內(nèi)在地以不同方式與安全治理活動的諸多領(lǐng)域建立深度聯(lián)結(jié),也無法構(gòu)成安全體系中的基礎(chǔ)性、活躍性生產(chǎn)要素,更無法產(chǎn)生顛覆性影響。
三、反思與建構(gòu):三個(gè)基本前提聚塑雙向適應(yīng)視角
解決人工智能技術(shù)與安全不相適應(yīng)的問題,需要學(xué)術(shù)界、管理機(jī)構(gòu)和企業(yè)等多方共同努力,通過政策引導(dǎo)、技術(shù)創(chuàng)新、社會監(jiān)督等多種手段,實(shí)現(xiàn)人工智能在當(dāng)代風(fēng)險(xiǎn)特征背景下的健康有序發(fā)展。其中,應(yīng)堅(jiān)持“以人為本”和“技術(shù)向善”根本原則,樹立雙向適應(yīng)的視角,從兩者的邏輯運(yùn)行層面認(rèn)知互構(gòu)關(guān)系,從價(jià)值觀對齊層面消解“風(fēng)險(xiǎn)涌現(xiàn)”或“反尺度現(xiàn)象”,從核心目標(biāo)相統(tǒng)一層面構(gòu)建“視域融合”,促進(jìn)共同發(fā)展。具體應(yīng)明確三個(gè)基本前提,并聚合問題域內(nèi)的基本共識,借此形成深入自洽的雙向適應(yīng)視角。
(一)何以雙向互構(gòu)
保羅·萊文森(PaulLevinson)在《軟利器:信息革命的自然歷史與未來》中提出“軟性決定論”和“硬性決定論”兩種概念,其中“軟性決定論”認(rèn)為事件的最終狀態(tài)是諸多因素綜合作用的結(jié)果,而非僅僅由媒介決定[5]。將這一觀點(diǎn)“平移”到人工智能安全治理的理論框架內(nèi),可以推論出,如果視人工智能技術(shù)為“媒介”,則無論是“軟性決定”還是“硬性決定”,過程與結(jié)果都是雙向(或者多向)互構(gòu)關(guān)系,最終體現(xiàn)的是社會選擇的導(dǎo)向,對事件未
來發(fā)展具有重要啟示。
近代以來,任何一項(xiàng)前沿科技的社會化落地,本質(zhì)上都是技術(shù)演進(jìn)與社會選擇相互適應(yīng)的結(jié)果,都經(jīng)歷了雙向互構(gòu)的過程。人工智能也不例外,其應(yīng)用環(huán)節(jié)也存在技術(shù)與安全雙向互構(gòu)的過程。一方面,安全構(gòu)筑技術(shù)。應(yīng)給予人工智能相關(guān)技術(shù)最大限度的成長空間,利用協(xié)同學(xué)、突變論等原理進(jìn)行新的人工智能發(fā)展的“再組織”,通過不斷地修正和干預(yù)既往的安全活動思維,動態(tài)地集束和優(yōu)化安全目標(biāo),進(jìn)行全面智能化時(shí)代的角色轉(zhuǎn)換,深刻賦能人的數(shù)字化生存,保障技術(shù)沿著以人為本的方向迭代發(fā)展。另一方面,技術(shù)構(gòu)筑安全。應(yīng)秉持技術(shù)向善的基本態(tài)度,在經(jīng)濟(jì)社會發(fā)展的宏觀場域系統(tǒng)性地統(tǒng)籌技術(shù)發(fā)展與國家安全,驅(qū)動大安全領(lǐng)域的聯(lián)結(jié)形態(tài)轉(zhuǎn)型為粒度更細(xì)的“智能互聯(lián)”,形成匹配和互補(bǔ)機(jī)制,確保人工智能始終沿著可知、可控的方向發(fā)展,不斷以技術(shù)推動社會進(jìn)步,并維護(hù)總體國家安全。而雙向互構(gòu)在治理維度上,也不是用其中一種邏輯去干涉或約束另一種邏輯,更不是用一種價(jià)值去取代另外一種價(jià)值。多元價(jià)值觀和復(fù)合邏輯在現(xiàn)代治理結(jié)構(gòu)中具有基礎(chǔ)性重要地位,不同邏輯和價(jià)值體系之間應(yīng)當(dāng)尋求平衡與協(xié)同,而不是簡單地彼此取代或者互相干涉。例如,技術(shù)邏輯側(cè)重于效率、精準(zhǔn)和自動化,而安全邏輯則更關(guān)注人權(quán)、隱私和公平,不同的邏輯可能會產(chǎn)生不同的價(jià)值取向,但在雙向適應(yīng)的演進(jìn)過程中,通過構(gòu)建包容、靈活、動態(tài)的治理體系,兼顧倫理、法律及文化多樣性,能夠?qū)崿F(xiàn)可持續(xù)的、相互包容的安全與發(fā)展。
(二)價(jià)值觀以何對齊
與以往歷次科技革命不同,人工智能是人類首次通過技術(shù)手段創(chuàng)造出像人一樣行動和思考的獨(dú)立體系。成熟的技術(shù)運(yùn)用意味著人工智能是首次由人的創(chuàng)造物超越了工具屬性的范疇,成為人類之外的純粹理性的“智慧涌現(xiàn)者”,并且正在以創(chuàng)造性的方式作為獨(dú)立人格參與人類社會生活。通過將人工智能系統(tǒng)與人類價(jià)值觀對齊,可以防止超級人工智能在大模型階段或者將來技術(shù)跳變階段,甚至“奇點(diǎn)”來臨時(shí)突破安全風(fēng)險(xiǎn)底線。隨著通用人工智能不斷“智慧涌現(xiàn)”,需要確保其“可控可信”“保障人類擁有充分自主的決策權(quán),有權(quán)選擇是否接受人工智能提供的服務(wù),有權(quán)隨時(shí)退出與人工智能的交互,有權(quán)隨時(shí)中止人工智能系統(tǒng)的運(yùn)行,確保人工智能始終處于人類控制之下”[6],避免人工智能濫用帶來安全威脅和人道主義災(zāi)難。以O(shè)penAI“自動化對齊研究員”項(xiàng)目為例。2023年12月,美國0penAI公司“超級對齊”團(tuán)隊(duì)發(fā)布了成立以來的首篇論文,開辟了對超級模型進(jìn)行實(shí)證對齊的研究方向。在最新的研究中,OpenAI實(shí)現(xiàn)了讓弱模型監(jiān)督強(qiáng)模型的任務(wù),使用ChatGPT-2模型來激發(fā)ChatGPT-4模型的大部分能力,使其達(dá)到接近ChatGPT-3.5級別的性能,實(shí)現(xiàn)了“弱到強(qiáng)泛化”(weak-to-stronggeneralization),即讓小模型監(jiān)督大模型,為“超級對齊”提供了切實(shí)可行的技術(shù)路線。該項(xiàng)目以實(shí)證研究的方式,探索如何理解和減輕人工智能相關(guān)的風(fēng)險(xiǎn),包括經(jīng)濟(jì)破壞、虛假信息傳播、過度依賴等。
(三)目標(biāo)統(tǒng)一為何
雙向適應(yīng)的最終訴求是尋找共同目標(biāo)下的深度契合,并促進(jìn)內(nèi)部要素的和諧統(tǒng)一。運(yùn)用雙向適應(yīng)的視角,就是將原本看似對立的雙邊事物,從更高層次視為統(tǒng)一的“邏輯體”“價(jià)值觀”“目標(biāo)集”。雖然表面上來看,技術(shù)追求的是效率、創(chuàng)新和便捷,安全關(guān)注的是風(fēng)險(xiǎn)控制、合規(guī)性與穩(wěn)定性,但實(shí)際上兩者在深層次上有著一致的相似性,它們在促進(jìn)社會發(fā)展、保護(hù)公民權(quán)益以及改善用戶體驗(yàn)等方面都有著共同的目標(biāo)。這種內(nèi)在的一致性要求使用主體在開發(fā)新技術(shù)的同時(shí),也要同步加強(qiáng)安全措施,確保技術(shù)的進(jìn)步不會帶來新的安全隱患。王琦等借助案例橫向分析法2,進(jìn)一步印證了人工智能技術(shù)與安全相互交織。二者不僅基于共同目標(biāo),還蘊(yùn)含了交互共享的運(yùn)行機(jī)制,通過遠(yuǎn)期目標(biāo)的重合性來建立視域融合的橋梁,建立短期目標(biāo)或特殊矛盾之間的“讓渡”交換渠道。概括起來,人工智能技術(shù)與安全關(guān)于根本目標(biāo)的一致性,本身就是兩者動態(tài)地、完整地雙向適應(yīng)過程,包含以下部分的溝通協(xié)調(diào):主觀體驗(yàn)性,不同文化、不同群體及個(gè)人往往有著不同的價(jià)值觀;動態(tài)適應(yīng)性,隨著經(jīng)濟(jì)基礎(chǔ)的變化,上層建筑發(fā)生同向變動,人工智能系統(tǒng)必須靈活適應(yīng);技術(shù)層面的限制,當(dāng)前技術(shù)水平可能無法完全理解復(fù)雜的道德情境;可解釋性難題,高度復(fù)雜的人工智能模型可能難以解釋其自身運(yùn)作的決策過程,等等。此外,目標(biāo)一致不僅體現(xiàn)在技術(shù)層面的直接應(yīng)用,還涉及法律、倫理、戰(zhàn)略和國際合作等多個(gè)維度,共同構(gòu)成了復(fù)雜巨系統(tǒng)的人工智能發(fā)展圖景(見圖2)。
四、現(xiàn)實(shí)路徑選擇:體系化協(xié)同治理
統(tǒng)籌人工智能技術(shù)與安全,完善人工智能安全治理已成為當(dāng)下全球性熱點(diǎn)問題。2023年11月,全球首屆人工智能安全峰會通過了《布萊奇利宣言》(BletchleyDeclaration)。這體現(xiàn)了國際社會對于人工智能安全治理的共同關(guān)切,突出強(qiáng)調(diào)了防止“智能叛變”風(fēng)險(xiǎn),避免有意識地濫用人工智能或?qū)ζ涫タ刂?。而技術(shù)與安全的雙向適應(yīng)意味著在人工智能技術(shù)快速發(fā)展的同時(shí),人工智能安全治理模式和策略也必須同步迭代升級,以實(shí)現(xiàn)技術(shù)的正向作用并管控潛在風(fēng)險(xiǎn),特別是在路徑選擇上要通過引導(dǎo)技術(shù)創(chuàng)新,實(shí)現(xiàn)安全治理賦能,規(guī)范法律法規(guī)及政策框架,形成協(xié)同效應(yīng),實(shí)現(xiàn)人工智能技術(shù)與安全的良性互動、可持續(xù)發(fā)展(見表1)。
(一)構(gòu)建以人為本的雙向生態(tài)
技術(shù)的自然屬性與社會屬性本就是一體兩面,相輔相成的。人工智能技術(shù)發(fā)展的最終目的是服務(wù)于人,提升人的生活質(zhì)量和安全水平。因此,這要求我們在技術(shù)演進(jìn)過程中遵守道德倫理準(zhǔn)則,并深入貫徹人性化交互的設(shè)計(jì)理念,在算法設(shè)計(jì)中考慮公平性,避免機(jī)器決策中的不公正現(xiàn)象,防止出現(xiàn)意識形態(tài)偏見和歧視。我們應(yīng)重點(diǎn)明確各安全領(lǐng)域的技術(shù)安全標(biāo)準(zhǔn),預(yù)置技術(shù)安全合規(guī)性要求,構(gòu)建人機(jī)交互信任機(jī)制,并通過信任認(rèn)證模型來確保系統(tǒng)及服務(wù)的可靠性。同時(shí),建立安全信息反饋機(jī)制,在制定整體發(fā)展規(guī)劃時(shí),必須充分考慮人的需求和權(quán)益,確保技術(shù)進(jìn)步能夠惠及廣大民眾。至于安全生態(tài),現(xiàn)代安全體系是一個(gè)復(fù)雜的巨系統(tǒng)生態(tài)網(wǎng)絡(luò),相應(yīng)的安全生態(tài)由應(yīng)對安全威脅的防御措施和危機(jī)管控能力組成。要致力于使安全生態(tài)成為一個(gè)有機(jī)整體,包容人工智能技術(shù)在倫理和價(jià)值導(dǎo)向下的最大限度發(fā)展,實(shí)現(xiàn)發(fā)展與治理的均衡,既要避免規(guī)范不足引發(fā)的安全問題,也要防止過度監(jiān)管阻礙技術(shù)進(jìn)步。此外,還需增強(qiáng)跨文化理解,在全球化背景下,理解和尊重不同國家及地區(qū)在安全關(guān)切與價(jià)值偏好上的差異。
(二)強(qiáng)化雙向適應(yīng)下的互相驅(qū)動
人工智能的核心功能可歸納為四點(diǎn):認(rèn)知、預(yù)測、決策和集成解決方案。從底層邏輯來看,它與安全活動具有高度適配性。這種高度關(guān)聯(lián),使得人工智能可以應(yīng)用于安全活動的大部分場景,以不同方式與諸多安全領(lǐng)域建立緊密聯(lián)結(jié),成為治理體系中日益活躍的要素,以及治理能力的重要來源。人工智能天然具有安全屬性,并且塑造了帶有新技術(shù)特點(diǎn)的安全形態(tài),技術(shù)進(jìn)步的過程也是安全治理能力現(xiàn)代化的孕育過程。首先,創(chuàng)建對話機(jī)制一依托雙方對話,建立機(jī)制促進(jìn)持續(xù)對話與安全反饋,匯聚各方面主體意見,推動研發(fā)、教育和產(chǎn)業(yè)協(xié)同推進(jìn),不斷優(yōu)化安全治理策略,構(gòu)建技術(shù)與安全協(xié)同進(jìn)化框架;其次,建立綜合決策框架一一搭建一個(gè)既能體現(xiàn)技術(shù)效率又能反映人文關(guān)懷的決策框架,實(shí)現(xiàn)網(wǎng)絡(luò)化和扁平化的治理組織架構(gòu),創(chuàng)新雙邊要素的多元共享,在保障基本安全需要的前提下,為人工智能技術(shù)及應(yīng)用創(chuàng)新預(yù)留空間,避免過度監(jiān)管抑制技術(shù)創(chuàng)新,“實(shí)現(xiàn)發(fā)展與治理的平衡,既要避免規(guī)范不足導(dǎo)致的社會問題,也要避免過度監(jiān)管從而阻滯技術(shù)的發(fā)展”;最后,實(shí)行統(tǒng)分結(jié)合戰(zhàn)略“一體化 + 分布式”部署是當(dāng)前最可行戰(zhàn)略選擇之一。人工智能涉及多學(xué)科多技術(shù)多領(lǐng)域,現(xiàn)階段尚難以形成諸如原子彈、載人航天等目標(biāo)清晰的舉國工程,由各集群分領(lǐng)域探索試錯(cuò),既有利于積累創(chuàng)新,更有利于動態(tài)調(diào)整,分散技術(shù)和工程風(fēng)險(xiǎn)。
(三)加強(qiáng)系統(tǒng)化動態(tài)性治理
根據(jù)歷史上的科技革命經(jīng)驗(yàn),“技術(shù)的發(fā)展最終會解決技術(shù)自身的問題”。一方面,人工智能技術(shù)在迭代躍遷過程中,新技術(shù)不斷涌現(xiàn)。許多曾經(jīng)被視為難題的技術(shù)挑戰(zhàn)很可能逐步被克服,特別是隨著模型算法的不斷優(yōu)化、算力的不斷提升、數(shù)據(jù)的不斷豐富,以及深度學(xué)習(xí)技術(shù)的深入發(fā)展,目前人們所擔(dān)憂的由于設(shè)計(jì)、架構(gòu)、數(shù)據(jù)或算法缺陷而產(chǎn)生的內(nèi)生安全風(fēng)險(xiǎn)及其衍生風(fēng)險(xiǎn),包括但不限于政治安全風(fēng)險(xiǎn)、軍事安全風(fēng)險(xiǎn)、文化與意識形態(tài)安全風(fēng)險(xiǎn)等現(xiàn)實(shí)危害或者潛在隱患,有可能被消解,或者失去其相應(yīng)的生存條件。另一方面,技術(shù)進(jìn)步也可能帶來新的未知風(fēng)險(xiǎn),因此,持續(xù)的風(fēng)險(xiǎn)評估、監(jiān)控和管理,對于確保人工智能技術(shù)的長期安全和可持續(xù)發(fā)展至關(guān)重要。此外,安全隱患的含義和范圍也會隨著歷史發(fā)展而演變深化。例如,在光伏、風(fēng)電等新能源技術(shù)出現(xiàn)以前,石油等化石能源在能源安全領(lǐng)域占據(jù)舉足輕重的地位,而隨著新能源技術(shù)的發(fā)展,石油枯竭等因素可能對能源安全造成的威脅也隨之減少,舊風(fēng)險(xiǎn)在新階段逐漸消退。所以,動態(tài)地觀察人工智能安全治理活動,借助“建構(gòu)一解構(gòu)”風(fēng)險(xiǎn)識別框架,應(yīng)注重區(qū)分哪些風(fēng)險(xiǎn)隱患是階段性特征,哪些是根本性矛盾。
(四)提高緊急處置能力
在緊急處置內(nèi)生風(fēng)險(xiǎn)層面,應(yīng)以敏捷治理及多維治理為總體性方向,系統(tǒng)性提升處置應(yīng)對能力,不斷改進(jìn)安全策略、應(yīng)急計(jì)劃和操作程序。應(yīng)建立應(yīng)急響應(yīng)機(jī)制,預(yù)先制定人工智能在復(fù)雜場景下應(yīng)對突發(fā)事件的解決方案;制定應(yīng)對安全事件的可操作性策略,以確保人工智能系統(tǒng)一旦出現(xiàn)異?;蛑卮蟀踩┒?,能夠迅速采取行動,并仍能穩(wěn)定運(yùn)行。通過在非緊急狀態(tài)下進(jìn)行模擬攻擊和壓力測試來提高技術(shù)系統(tǒng)的整體魯棒性。
在應(yīng)對衍生風(fēng)險(xiǎn)層面,需要搭建一個(gè)多方參與的安全治理結(jié)構(gòu)。根據(jù)風(fēng)險(xiǎn)的輕重緩急程度,組織立即的應(yīng)急響應(yīng)與災(zāi)備評估,確定風(fēng)險(xiǎn)的性質(zhì)、范圍和影響程度,并及時(shí)采取措施控制損害。此外,組織技術(shù)系統(tǒng)恢復(fù)重建與責(zé)任界定,常態(tài)化長效化執(zhí)行合規(guī)監(jiān)管,以確保在事故來臨前能夠迅速有效應(yīng)對。
在全球安全治理層面,推動人工智能國際安全合作,建立多邊機(jī)制共同解決人工智能跨國安全問題,促進(jìn)全球范圍內(nèi)對人工智能國家安全治理的共識形成,共同應(yīng)對由人工智能引發(fā)的跨國安全風(fēng)險(xiǎn)挑戰(zhàn)。在執(zhí)法領(lǐng)域,應(yīng)共享安全情報(bào)和最佳實(shí)踐案例,協(xié)作打擊危害全球安全的跨國智能技術(shù)犯罪,建立世界性安全防護(hù)網(wǎng)絡(luò)。
五、結(jié)語
研究人工智能技術(shù)與安全關(guān)系的觀察視角與應(yīng)對策略具有重要價(jià)值。實(shí)現(xiàn)科技成果與社會效應(yīng)的良性互動,確保技術(shù)進(jìn)步能安全穩(wěn)定地惠及于人,有力維護(hù)國家安全,促進(jìn)全球科技力量和諧共生是相關(guān)問題的核心訴求??偟膩砜?,雖然學(xué)界早期對此給予了密切關(guān)注,并取得了一定的理論研究成果,但整體上還存在著理論與實(shí)際不相適應(yīng)的狀況。主要問題在于技術(shù)與安全的總體性關(guān)系方面,尚未實(shí)現(xiàn)雙向適應(yīng)的范式轉(zhuǎn)變,缺乏有效的統(tǒng)籌。人們往往將技術(shù)和安全之間的關(guān)系視為單向適應(yīng),甚至互不適應(yīng)的“二元對立”模式。這種認(rèn)識論必然導(dǎo)致一種困境:一方面,它無法合理解釋當(dāng)前語境下人工智能技術(shù)的快速迭代發(fā)展與國家安全治理需求的日益增長,兩者既各有所需又有機(jī)融合的內(nèi)生緊密關(guān)系;另一方面,基于當(dāng)下安全風(fēng)險(xiǎn)復(fù)合化與治理碎片化基本特征,當(dāng)人工智能日益成為安全治理體系中基礎(chǔ)性、最活躍的生產(chǎn)要素時(shí),這種認(rèn)識更無法回答如何基于其超強(qiáng)技術(shù)能力和非工具性特征,構(gòu)建系統(tǒng)協(xié)同的安全治理能力。
實(shí)際上,雙向適應(yīng)視角是思考當(dāng)前人工智能技術(shù)快速迭代的一條進(jìn)路,也是解決人工智能時(shí)代統(tǒng)籌發(fā)展和安全的一條現(xiàn)實(shí)出路。從阿莫西夫“三大定律”
到埃米爾·J.科什納的安全治理觀念,再到保羅·萊文森的“媒介說”,以及OpenAI“自動化對齊研究員”項(xiàng)目等的實(shí)踐演進(jìn),逐步揭示了實(shí)現(xiàn)技術(shù)與安全良性互動的三個(gè)基本前提:一是雙向互構(gòu),闡述技術(shù)演進(jìn)與社會選擇的雙向適應(yīng)邏輯,人工智能技術(shù)既是“體”也是“用”,既有自然屬性也有社會屬性;二是“價(jià)值觀對齊”,確保人工智能的技術(shù)運(yùn)行與人的主觀意圖、價(jià)值規(guī)范相一致;三是目標(biāo)一致,在共同目標(biāo)基礎(chǔ)上闡明內(nèi)在相似性,并指出雙向“讓渡”渠道。
關(guān)于實(shí)踐策略,重點(diǎn)是從四個(gè)層面形成協(xié)同效應(yīng),保障技術(shù)與安全良性互動、人工智能實(shí)現(xiàn)可持續(xù)發(fā)展。這包括:構(gòu)建以人為本的智能生態(tài)和安全生態(tài),在主體與環(huán)境之間實(shí)現(xiàn)雙向適應(yīng);通過搭建對話機(jī)制、綜合決策框架和統(tǒng)分結(jié)合戰(zhàn)略,實(shí)現(xiàn)相互驅(qū)動;建立安全治理反饋機(jī)制,研發(fā)、產(chǎn)業(yè)及監(jiān)管協(xié)同推進(jìn),不斷優(yōu)化安全治理策略;提高緊急處置能力,確立總體性原則方向,堅(jiān)持敏捷治理,不斷改進(jìn)安全策略、應(yīng)急計(jì)劃和操作程序。
注釋:
1.“三大定律”又稱“機(jī)器人學(xué)三定律”,由美國科幻作家艾薩克·阿西莫夫于1950年在小說《我,機(jī)器人》中提出。這三大法則互相約束,具有較強(qiáng)的現(xiàn)實(shí)意義。后續(xù)學(xué)者在其基礎(chǔ)上發(fā)展出新興學(xué)科“機(jī)械倫理學(xué)”,旨在研究人類和機(jī)器人之間的安全關(guān)系。
2.案例橫向分析法:通過美軍“自主無人機(jī)系統(tǒng)”“智能決策支持系統(tǒng)”,網(wǎng)絡(luò)安全“AI驅(qū)動的威脅檢測”“自動響應(yīng)系統(tǒng)”等公開信息,橫向分析人工智能技術(shù)在軍事應(yīng)用、網(wǎng)絡(luò)安全、情報(bào)分析、社會管理等領(lǐng)域的具體實(shí)踐案例,從微觀層面提煉規(guī)律性。
參考文獻(xiàn):
[1] MCCARTHY J,MINSKY M L, ROCHESTER N,et al. A proposal for the Dartmouth summer research projecton artificial intelligencelJ].AI magazine:artificial intelligence,2006,27(4) :12-14.
[2]王琦,朱軍,王海兵.人工智能安全:原理剖析與實(shí)踐[M].:電子工業(yè)出版社,2022.
[3]張廣勝.生成式人工智能的國家安全風(fēng)險(xiǎn)及其對策[J].人民論壇·學(xué)術(shù)前沿,2023(7):76-85.
[4]王秉,史志勇,王淵潔.復(fù)雜性時(shí)代的國家安全學(xué)新范式:構(gòu)建國家安全復(fù)雜學(xué)[J].國際安全研究,2023,41(4):57-81,157-158.
[5]萊文森.軟利器:信息革命的自然歷史與未來[M].何道寬,譯.上海:復(fù)旦大學(xué)出版社,2011.
[6]韓冰意,蘇中.“信息繭房”、隱私外泄,如何應(yīng)對人工智能帶來的倫理風(fēng)險(xiǎn)?[EB/OL].(2023-01-19)[2025-03-12]. http://www. xinhuanet.com/tech/20230119/849d98a850da4e6eba5a1d364f90adc3/c. htm.
Coordinating Artificial Intelligence Technology and Security -Based on the Perspective and Countermeasures of Bidirectional Adaptation
Liu Heng1 Meng Li2 Liu Yuejin3
(1.Party School of Zhejiang Provincial Committee of C. P. C, Zhejiang, Hangzhou, ; 2.China Children’ s Press amp; Publication Group,Beijing,; 3.University of International Relations,Beijing,l00091)
Abstract: [Research purpose] As artificial intelligence (AI) continues to advance at an unprecedented pace,it simultaneously triggers a cascade of security issues. How to perceive the “contradiction” between technology and security in the field of artificial intelligence and achieve mutual inclusiveness and promotion between technological development and security guarantee has important theoretical and practical significance. [Research method] Based on the perspective of bidirectional adaptation between the two,this article explores in depth the practical pathways for coordinating technology and security in the context of contemporary compounded security risks and fragmented security governance,in order to achieve the core objective of constructing modern AI security governance capabilities. [Research conclusion] By examining the root causes of“incompatibility”or“one-way adaptation”between artificial intelligence technology and security,it establishes three premises to set a critical perspective: first,the socialization of any technology is essentially the result of the “mutual construction” of technological evolution and social choice; second,regarding the security governance of emerging technologies, it has never been about merging one logic with another,let alone replacing other values with one; third,the foundation of two-way adaptation is to find goal alignment under common values and promote collaborative progress. At the same time, based on the perspective of bidirectional adaptation, this article focuses on the hot topic of artificial intelligence security governance thatis of common concern for both the theoretical and practical circles. Several countermeasures and suggestions are proposed: firstly,it must adhere to the principle of people-oriented,and development and security are the“two sides of the same coin”of human essential needs,achieving the“alignment of values”between the two; secondly,it should approach problems systematically and dynamically,believing that“the development of technology will ultimately solve the problems of technology itself”;in adition,it should be clarified that“two-way adaptation”requires “two-way concessions”,and the process relies on coupling and coordination; finally,it needs to improve emergency response capabilities in risk situations.
Keywords:artificial intelligence; technology;security; coordination; bidirectional adaptation