所有事情都可能被人工智能(AI)重塑,包括事實。
國際象棋規(guī)則突然“更新”了,小兵可以輕松吃掉皇后。近日,美國知名國際象棋博主Levy Rozman讓DeepSeek與ChatGPT進行了一場終極對弈,由于偽造了新規(guī)則,DeepSeek最終讓自己“獲勝”。
當人們向大模型尋求幫助,AI總是會“努力”給出邏輯清晰的答案,有時甚至會提供詳細數據,但如果進一步詢問某個具體數據的來源,它會回答:“我在此前的回答中出現了錯誤,對此我深表歉意。”然后,它給出了另一組數據與材料。再追問,這又是在“胡說八道”。
這就是AI幻覺:大模型在遇到自己知識范圍之外的問題時,憑空編造看起來合理或可信的信息。
隨著DeepSeek的橫空出世,我們已經正式迎來大模型應用的“黃金時期”。但隨著AI應用逐漸滲入社會與個人生活的方方面面,AI安全風險也會激增,幻覺、深度偽造、數據泄露,甚至是失業(yè)……技術是簡單的,但人是復雜的,當技術與人開始深度交互,人類是否已做好了充分的準備?
近日,圍繞AI發(fā)展帶來的種種安全風險與治理難題,《中國新聞周刊》專訪了清華大學文科資深教授、國家新一代AI治理專業(yè)委員會主任薛瀾。
《中國新聞周刊》:都說“大模型的幻覺是刻在基因里的”,但在醫(yī)療、法律等對準確性要求極高的領域,AI如果胡編亂造信息,可能會引發(fā)嚴重后果。隨著AI的大規(guī)模應用,AI幻覺帶來的風險事件可能會呈現爆發(fā)式增長。這個問題該如何破解?
薛瀾:就現有技術來看,AI幻覺難以完全避免,但在技術層面上并非沒有優(yōu)化的空間。我們可以采用數據質量改進、模型層改進、系統(tǒng)層控制,和其他措施使得它出現幻覺的概率降低。
政府應該制定一套AI安全性標準與監(jiān)管體系。在一個AI系統(tǒng)大規(guī)模進入真實場景前,需要首先檢查該系統(tǒng)是否滿足安全性要求,然后才允許上市。在涉及生命安全等敏感領域的應用中,比如醫(yī)療場景,尤其需要這樣的安全性檢測。當然,檢測的標準必須與AI的具體應用場景緊密結合。
在國家層面制定相應的法律法規(guī)很重要的就是要對技術的收益和風險進行合理的平衡。例如,在醫(yī)療領域,假設未來AI在判斷的準確率上超過了人類,是否應該以AI系統(tǒng)的判斷為準,不再讓醫(yī)生參與決策?那么,如果因AI幻覺導致嚴重的醫(yī)療事故,責任應由醫(yī)院還是AI開發(fā)者承擔?
這個例子告訴我們:當AI在一些關鍵領域大規(guī)模應用落地后,責任體系劃分的困境將很快凸顯出來。就這個具體場景而言,我們的選擇不應該是簡單的人或機器。而應該考慮第三個選擇,就是人機協同,讓AI協助醫(yī)生診斷,即使AI系統(tǒng)的準確率更高,仍然讓醫(yī)生參與最后的診斷決策。
在責任主體難以劃分的情況下,一種可行的解決辦法是:為AI開發(fā)者和使用者(如醫(yī)生)提供某種職業(yè)保險。
比如,可以參考疫苗不良反應的處理機制。疫苗在疾病防控方面發(fā)揮了關鍵作用,但注射疫苗后,會有極少數人出現不良反應,甚至死亡。因此,一些國家設立了疫苗傷害補償基金,向受害者提供救助。在AI應用領域,也可以設立類似的技術風險基金,或建立某種社會保險制度,避免讓技術開發(fā)者和使用者單獨承擔風險。
《中國新聞周刊》:如果說“幻覺”是AI無意識的犯錯與欺騙,深度偽造就是人類主動利用AI技術進行詐騙,后果往往更為嚴重。有統(tǒng)計顯示,2024年全球發(fā)生的AI風險事件,30%都與深度偽造相關。如何通過法律制度和監(jiān)管體系的規(guī)范來約束此類濫用AI的行為?
薛瀾:AI深度偽造現象層出不窮,是因為造假成本過低,追查和執(zhí)法成本卻非常高。這種“不對稱”使一些人鋌而走險。
AI自身的性質決定了濫用AI犯罪造成的后果很難客觀估算,在法律層面就難以設計對應的懲罰力度。過大會引發(fā)司法界的質疑,過小則會寬容造假。我國雖然有一般性的法律法規(guī)打擊AI濫用行為,但總體懲罰力度不大。2024年9月,國家互聯網信息辦公室發(fā)布《人工智能生成合成內容標識辦法(征求意見稿)》,首次對AI深度偽造作出了一定規(guī)范,要求AI生成的合成內容,應當添加顯式標識和隱式標識,未進行標識造成嚴重后果的,要予以處罰。但具體是什么懲罰、哪些情況適用于何種懲罰,尚未得到明確。標識本身也可能存在各種漏洞和被操縱的空間,能起到的預期作用尚值得商榷。
AI與其他一般技術的應用和擴散不同,其技術變革很快,應用場景非常豐富,人機互動方式也很多樣。未來AI濫用帶來的問題可能會更加復雜與多元,我認為,除了國家層面要出臺一些原則性規(guī)制,社會和企業(yè)也需要在實踐中不斷調試和探索,對政府層面的規(guī)則進行補充。
《中國新聞周刊》:DeepSeek橫空出世后,由于其高性能、低成本以及完全開源的特性,越來越多的企業(yè)開始部署DeepSeek,大模型“基建”開始滲入各行各業(yè)。但是,有統(tǒng)計發(fā)現,企業(yè)部署DeepSeek時,近90%的服務器都沒有采取安全措施,這會帶來哪些隱患?我們該如何應對?
薛瀾:首先,企業(yè)部署大模型后如果不對數據安全問題進行相應的檢查,有可能造成內部數據泄露的風險。尤其是一些企業(yè)需要大量算力,不得不使用公有云。如果不采取安全措施,數據就可能被泄露或被篡改,甚至被競爭對手利用。
其次是應用風險。就像我們剛才提到的醫(yī)療應用場景,一旦AI系統(tǒng)的數據出現問題,可能會加重“幻覺”,甚至在使用時影響到病人的生命安全。因此,企業(yè)在使用開源的AI大模型時,如果面向廣大消費者,一定要主動制定更高的內部技術審查標準,對技術的應用進行嚴格監(jiān)控。
《中國新聞周刊》:目前,AI數據治理的核心挑戰(zhàn)是什么?如何破局?
薛瀾:我國AI數據治理的一個重要瓶頸是缺乏高質量數據。AI需要通過大量數據學習來提升能力。數據越多,數據的質量越高,系統(tǒng)的能力就越強,未來出現“幻覺”的可能性就越小。
然而,在中國,標準化的數據服務商相對較少,數據量雖然很大,但質量較低。如何構建一個完善而成熟的數據市場,是我們迫切需要解決的問題。只有數據行業(yè)快速發(fā)展,才能支撐AI應用的大規(guī)模落地。
另一個重大挑戰(zhàn)是數據隱私。有些領域如自動駕駛,數據獲取相對容易。但在醫(yī)療、教育等領域,數據獲取難度較大。
總之,一旦進入具體的應用場景,當涉及個人數據隱私問題時,獲取數據就可能遇到各種各樣的阻力。如何實現數據收集與隱私保護的平衡,是AI數據治理需要考慮的關鍵問題。
此外,政府手中掌握著大量的公共數據,這些數據涉及社會運行的方方面面,對訓練AI有很高的價值。目前,公共數據的開放程度還不夠充分。未來,隨著AI應用的普及化,各級政府需要考慮在保證安全性的前提下進一步擴大數據開放。
《中國新聞周刊》:你一直強調AI治理要結合具體的應用場景。如何才能根據不同的應用場景,采取更具針對性的治理措施?
薛瀾:AI與人類的交互非常復雜。特別是AI應用于日常生活場景,與應用于工業(yè)化場景有很大區(qū)別。在工業(yè)化場景中,因AI失誤造成的額外成本大多可以提前估算和分析,也更容易制定相應的解決方案。但人與機械化的生產系統(tǒng)不同,人的情緒和反應是多變的,與AI系統(tǒng)的互動方式也是多樣化的。當AI涉及與人相關的服務時,就會面臨很多不確定性。
以教育場景為例,將AI用于學生的日常管理,是一種應用的趨勢。有些學校引入了AI課堂行為管理系統(tǒng),通過教室內的攝像頭觀察每個學生的細微表情變化,再通過AI系統(tǒng)分析和判斷學生是否積極參與課堂學習。有的家長認為這種管理侵犯了孩子們的隱私,有的家長卻覺得這種做法很好,讓他們找到了孩子學習不好的原因。有的校方還認為,教室屬于公共場所,不存在隱私侵犯問題。這是一個典型的“AI+教育”引發(fā)的治理問題。其難點在于,從家長、學校到教育學者與法律專家,人們對這一問題的看法往往有很大區(qū)別。
再以醫(yī)療場景舉例,如果患者情緒不佳,在自訴癥狀和行為表現上就可能出現異常,這是否會導致AI誤診?AI在下診斷時能否考慮到非醫(yī)療因素?這些問題都需要認真思考,并融入對應的治理方案中。
未來,在越來越多的AI現實場景中,我們可能會遇到各種各樣的復雜問題,這些問題不是憑空想象就能想出來的。這就是我為何一直強調AI時代的敏捷治理模式:在實際應用過程中,一邊出臺政策,一邊試行,不斷探索發(fā)現新問題,再相應地修改和完善規(guī)則,健全相應的治理與監(jiān)管體系。這個過程中,不需要追求制度設計的一步到位,更關鍵的是如何實現技術發(fā)展、風險防控與治理模式之間的有效平衡。
《中國新聞周刊》:當AI應用進入“黃金時期”,生產效率提高的另一面,人們擔心越來越多的人工崗位將被AI替代。如何解決AI大規(guī)模應用可能引發(fā)的失業(yè)風險?
薛瀾:AI廣泛應用的結果是大量節(jié)約勞動力成本,特別是腦力勞動力,這對白領就業(yè)的影響可能是巨大的。如果這種變化在短時間內集中發(fā)生,就可能引發(fā)社會動蕩。當然,從技術擴散的客觀規(guī)律看,我們不能期望所有人都去同步擁抱新技術。這種情況下,如何讓AI應用的擴散更加平穩(wěn),如何采取措施,為那些在社會轉型中處于不利地位的群體提供兜底保障,是政府當下需要迫切解決的一個問題。
例如,此前武漢發(fā)生的“蘿卜快跑”無人出租車引起爭議,地方政府也許就需要通過合理的政策進行引導,以減少無人駕駛技術應用對傳統(tǒng)出租車行業(yè)產生的就業(yè)沖擊。我認為,新技術的推廣要循序漸進,先從市場供給不足或不暢的地方入手。比如,在傳統(tǒng)出租服務中,有些比較偏遠的地方,普通出租車司機不愿接單。從這樣的特定場景入手,將無人駕駛技術作為一種補充性手段,可能短期內對就業(yè)的影響就不會那么大。同時,也可以積累更多數據,以確保未來大規(guī)模應用時的安全性。
一直以來,我們更關注AI誤用、濫用等當下的安全風險問題,對AI可能帶來的長遠的社會系統(tǒng)性風險,如失業(yè)問題,關注度仍顯不夠。下一步,可以通過創(chuàng)新社會治理方式,來適應AI帶來的社會性沖擊。
在這一過程中,政府應更多地傾聽社會各界的聲音。在平衡AI帶來的風險與收益時,我們需要營造一種理性、平和的討論氛圍,最終對如何平衡達成共識。一定要清醒地看到,這種共識不應僅僅是來自專家或政府的共識,而應是全社會共同形成的共識。
《中國新聞周刊》:多年來,你一直強調AI治理主體的多元化與分工協作。隨著AI的大規(guī)模應用落地,政府和企業(yè)在AI治理中分別扮演了怎樣的角色?如何優(yōu)化不同主體間的分工合作?
薛瀾:當我們談論“治理”時,這個詞往往被理解為政府規(guī)制企業(yè)。但在AI領域,由于政府、企業(yè)都很難提前看到技術發(fā)展和應用過程中可能出現的風險,雙方不應再是傳統(tǒng)的“貓和老鼠”關系,必須加強雙向的溝通與合作,共同識別和應對風險。政府應保持開放態(tài)度,主動與企業(yè)溝通和協商,分清哪些AI應用的領域可以接受一定風險,哪些領域的“紅線”不能碰。
我想特別強調的是,企業(yè)也可以在AI治理中發(fā)揮重要作用,需要更主動地采取措施,自我規(guī)制,并與政府溝通,告知潛在風險。目前,大型頭部企業(yè)在AI治理上表現得比較積極。例如,阿里巴巴、騰訊等企業(yè)都設有內部的AI倫理委員會,并建立了針對自身產品的倫理審核機制。然而,隨著DeepSeek的大規(guī)模應用,越來越多的中小企業(yè)進入AI應用領域。這些中小企業(yè)是否有能力像頭部企業(yè)一樣參與治理并建立相關機制, 值得關注。未來,還需要推動在行業(yè)層面形成治理共識。
蒲公英的算法
在云朵間跳格子
像素魚群游過鍵盤海
叮咚!
晨露把數據擦得透亮
深藍說:
今天天氣代碼是薄荷味
(此詩由DeepSeek結合本文內容創(chuàng)作)
《中國新聞周刊》:最后談談AI全球治理。2025年2月,AI行動峰會在法國巴黎舉行。相比于前兩年在英國布萊切利和韓國首爾舉行的AI峰會,本屆巴黎峰會成果有限,美、英均未簽署最終發(fā)布的聯合聲明。你連續(xù)多年參加AI峰會,從巴黎峰會的情況看,AI全球治理是否也和其他多邊事務一樣,受到了來自“特朗普2.0”的負面沖擊?
薛瀾:首先,前兩屆峰會主要聚焦AI的安全風險問題,而這次巴黎峰會的議題更廣泛豐富,涵蓋經濟機遇、發(fā)展開放、社會影響、文化等諸多方面,這是這個峰會機制的一個新發(fā)展階段。峰會最終形成的政策文件,美英沒有簽署,比較遺憾。這可能與美國政府換屆有關,但和美國政府在應對氣候變化問題上的反復一樣,并不令人意外。
當前,AI全球治理確實面臨地緣政治緊張局勢的挑戰(zhàn)。
特朗普再度就任美國總統(tǒng)后,對AI全球治理尚未有明確表態(tài),目前各方都在觀望。美國各界,包括企業(yè)界和學術界,也仍有很廣泛的群體,支持中美在AI安全問題上加強合作。已故美國國務卿基辛格先生2023年訪華時就強調,如果中美不能在AI風險防控方面達成協議,后果將難以想象。
除了地緣政治,AI全球治理也面臨其他挑戰(zhàn)。其中一個核心問題源于AI的商業(yè)屬性?,F在很多人將AI治理與核武器治理相比較,其實兩者有很大的不同。核武器從研發(fā)之初就被明確是要用于戰(zhàn)爭的,需要各個主權國家參與防控。但AI是由企業(yè)主導發(fā)展的,本質上是為了在經濟生活中應用并推動創(chuàng)新。
因此,各國政府在治理時都面臨一個難題:AI是商業(yè)性的,不可能像禁止開發(fā)核武器那樣“一禁了之”。在多邊層面上,這也使得全球治理機制難以充分發(fā)揮作用。因為在市場經濟環(huán)境下,企業(yè)是推動AI創(chuàng)新的關鍵,而聯合國等多邊機制對企業(yè)的直接約束力有限。
《中國新聞周刊》:這是否意味著,未來可能會出現少數頭部公司壟斷全球AI技術的“霸權”格局?如何避免這種壟斷局面的出現?
薛瀾:技術領域的壟斷現象一直存在。民航“大飛機”制造,全球就只有少數幾家公司可以完成。不排除AI領域未來出現類似的情況。
但是,從DeepSeek的出現就可以看出,至少在現階段,AI產業(yè)仍有很大的技術創(chuàng)新潛力,任何企業(yè)或國家想保持“霸權”都并非易事。而且,DeepSeek的出現降低了技術門檻,更多企業(yè)將有機會參與大模型應用,因此,目前我們還很難判斷未來的市場格局。
當然,“技術霸權”或技術壟斷確實是一個需要關注的問題。目前,對技術應用的規(guī)制主要分為兩類,一是社會性規(guī)制,即對潛在風險的防控;二是市場性規(guī)制,涉及反壟斷等問題。由于AI尚未進入大規(guī)模應用階段,所以AI治理目前主要聚焦于社會性規(guī)制。但未來,我們需要確保反壟斷法律法規(guī)在AI領域的合理適用。如果少數企業(yè)壟斷技術,給市場運行和公眾利益帶來危害,就毫不猶豫地運用法律法規(guī)來進行規(guī)制。同時,如果人類未來的命運掌握在少數幾家公司手中,這也是非常令人擔憂的。