人工智能(Artificial Intelligence,縮寫為AI)是發(fā)展新質生產力的主要陣地,是新一輪科技革命和產業(yè)變革的核心驅動力。中國已經(jīng)躋身世界人工智能技術發(fā)展第一梯隊,為企業(yè)帶來后發(fā)追趕“換道超車”的重大機會窗口。與此同時,AI這把強大的“雙刃劍”也可能會帶來顛覆性風險。
如何強化前瞻預判,健全相關規(guī)則和政策,形成與新質生產力更相適應的生產關系,以“善治”引導人工智能“向善”?在上海舉行的2024世界人工智能大會暨人工智能全球治理高級別會議上,來自中美英法新等國逾25位各國人工智能治理權威圍繞人工智能倫理治理展開研討,現(xiàn)將主要論點綜述如下。
人工智能治理存在的風險挑戰(zhàn)
據(jù)圖靈獎得主Yoshua Bengio介紹,由75位頂尖人工智能專家和30個國家共同參與撰寫的《先進人工智能安全國際科學報告》中期報告中,將AI的風險分為以下三類。
由于系統(tǒng)缺陷與失靈造成的風險。隱私泄露,大模型可能會將訓練所用數(shù)據(jù)和用戶信息泄露,對商業(yè)秘密和個人隱私構成威脅。虛假信息,AI可以生成以假亂真的圖片和假消息,迅速傳播假新聞和謠言。偏見和歧視,大語言模型生成的文本內容中,可能會放大現(xiàn)實社會中對婦女、兒童、有色人種等的刻板印象和歧視現(xiàn)象。知識產權侵權,由ChatGPT生成的論文等為AI學習現(xiàn)有作品生成的內容,可能侵犯原作者的著作權。
由于人類主觀惡意造成的風險。深度偽造,生成式AI技術可能會被用來偽裝人類的外貌、聲音。網(wǎng)絡犯罪,AI根據(jù)用戶指令生成的內容可能存在違法違規(guī)、違反公序良俗等情形,也可能被利用在詐騙等犯罪中。網(wǎng)絡恐怖主義,AI可能成為恐怖分子用來傳播暴力極端主義意識形態(tài)甚至發(fā)起恐怖主義攻擊的武器。生物安全,AI在發(fā)現(xiàn)和改善藥物化合物等方面具有強大能力,也可能用來制造生物武器的危險物質。
帶給人類社會的系統(tǒng)性風險。權力集中,AI領域發(fā)展速度呈指數(shù)級變化,發(fā)達國家與落后國家的AI發(fā)展程度差距將越來越大。勞工失業(yè),AI的發(fā)展將取代很多人工崗位,對就業(yè)造成沖擊。能源消耗,算力的迅猛增長對電力需求提出了極大挑戰(zhàn)。削弱文化多樣性,在處理和分析文化內容時可能會強化主流文化,導致文化的同質化。
人工智能治理面臨的困難問題
與會專家普遍認為,目前的治理手段尚不足以防御現(xiàn)有的風險和潛在的災難性風險。北京大學博雅講席教授高文院士認為,當前的人工智能水平還不足以實現(xiàn)向善,要從技術、倫理和道德角度對人工智能進行規(guī)范。
技術層面,仍然有待發(fā)展和進步。一是現(xiàn)階段開發(fā)者無法預測和控制大模型的表現(xiàn)。目前的大模型由數(shù)據(jù)而非規(guī)則驅動。類似人們仍無法預測和控制小孩子的舉動,設計者也無法理解目前的大模型是如何做出特定決策的。二是現(xiàn)有技術安全能力還顯不足。大語言模型的安全“護欄”機制非常脆弱,可能會被繞開。加州大學伯克利分校教授Dawn Song指出,當前大模型對抵御模型攻擊測試特別是誘導攻擊的能力還有很大欠缺。三是評估測試不能確保萬無一失。中國信通院與上海人工智能實驗室介紹了目前在國內大模型安全評測方面的工作。目前通用AI通過輸入各種問題來進行評估測試,但這些抽查測試并不能保證100%無風險。
治理層面,尚未形成國際共識。一是各國在人工智能領域競爭激烈。AI不僅是經(jīng)濟議題、技術議題,也是政治議題。目前僅美國、中國和少數(shù)歐盟國家有力量進行生成式AI大模型的開發(fā)與訓練。歐盟希望通過規(guī)則制定在未來AI全球治理中贏得話語權。美國明確主張“確保在AI領域的領先地位”,高度警惕我國的技術追趕,并為此出臺了大量封鎖、制裁和懲罰性舉措。二是爭相主導全球人工智能治理。七國集團提出AI監(jiān)管的“廣島進程”;英國舉辦“AI Safety”峰會并發(fā)布了《布萊切利宣言》;第78屆聯(lián)合國大會協(xié)商一致通過了由中國主提的加強人工智能能力建設國際合作決議,140多國參加決議聯(lián)署。本次世界人工智能大會上中國發(fā)布的《人工智能全球治理上海宣言》,為全球AI的治理范式和路徑提供了新思路。
制度層面,各國立法思路不一,主要是各國在產業(yè)發(fā)展中的地位不同。加州大學伯克利分校人類兼容人工智能中心執(zhí)行主任Mark Nitzberg說,美國目前主要以單行法律、行政命令和州立法為主,尚未出臺綜合性立法,給予企業(yè)更多容錯空間。歐盟《人工智能法案》是全球首部對AI領域進行全面監(jiān)管的法律,即使是開發(fā)并部署在歐盟境外的AI系統(tǒng),只要其輸出結果在歐盟境內使用,其提供者與部署者均將可被法案管轄。中國政法大學教授、聯(lián)合國高層AI顧問機構專家張凌寒說,中國強調發(fā)展與安全并重,已經(jīng)出臺數(shù)據(jù)安全法、個人信息保護法等法律,《生成式人工智能服務管理暫行辦法》等部門規(guī)章。人工智能法也已列入全國人大常委會2024年立法計劃預備項目。
對于我國人工智能治理的前景展望
在對AI進行安全倫理監(jiān)管的同時,也要把握發(fā)展規(guī)律,促進產業(yè)發(fā)展與技術進步。
集聚人類智慧提升人工智能治理能力。以開放姿態(tài)繼續(xù)加強國際合作。科研方面,清華大學人工智能國際治理研究院院長薛瀾和卡內基國際和平研究院主席Mariano-Florentino Cu llar認為,要展開頻繁密切的討論,特別是中美需要開展對話,建立起多邊的各領域專家組合作網(wǎng)絡系統(tǒng)。標準方面,牛津大學馬丁人工智能治理計劃聯(lián)合主任Robert Trager提出,要制定AI全生命周期國際安全標準,向國際民航組織等學習各國執(zhí)行統(tǒng)一標準、檢驗結果互認等好的做法,并建立起一套管理機制保障標準的實施。國際合作方面,要建立所有國家合作的平臺,保障發(fā)展中國家的發(fā)展權,尊重各國價值觀。Bengio強調,要設立大規(guī)模濫用和失控風險的閾值及預警機制,并準備好各國共同應對的計劃。
以良法善治推動人工智能治理制度創(chuàng)新。一要制定靈活開放的政策。政府應當開展分級分類監(jiān)管,將AI風險分成國內監(jiān)管的風險、嚴重潛在的風險(需要各國共同監(jiān)督)、不可接受的風險(直到能確保安全再創(chuàng)造這樣的系統(tǒng))等級別進行監(jiān)管。中國工程院院士、清華大學智能產業(yè)研究院院長張亞勤提出,將前沿大模型按規(guī)模進行分類,對萬億參數(shù)的加強規(guī)范,但對于小規(guī)模的不過度監(jiān)管。我國的人工智能立法一方面要回擊外部的遏制,支持和促進AI的發(fā)展;另一方面要向世界推廣自己的治理價值理念,占據(jù)國際規(guī)則先發(fā)優(yōu)勢。以“小快靈”而非綜合性的立法,快速響應AI發(fā)展面臨的新情況新變化,促進AI發(fā)展與安全并行不悖。要明確以下幾點原則:就責任主體而言,要“負責任地使用人工智能”,明確使用AI作為輔助工具也需要為生成結果負責。中國科學院自動化研究所人工智能倫理與治理研究中心主任、聯(lián)合國人工智能高層顧問機構專家曾毅認為,要劃定“AI的紅線”,防止AI武器化或失控,比如未經(jīng)人類允許就自我復制;要劃定“人類的紅線”,即明確什么事項的決策控制權必須掌握在人類手中,比如核武器就不能交給AI控制。