李瑤
聯(lián)合科研界和產(chǎn)業(yè)界的力量,共同做好前瞻技術(shù)研究,掌握應(yīng)對之策。
霍金、馬斯克等科學(xué)家、企業(yè)家們擔(dān)憂的人工智能威脅,終于隨著技術(shù)的快速發(fā)展,顯露出冰山一角。
近期,美國和德國聯(lián)合科研團(tuán)隊在一次試驗中,成功利用人工智能技術(shù)讓美國前總統(tǒng)奧巴馬和俄羅斯總統(tǒng)普京在演講視頻中“換臉”,代替對方演講。歐美人工智能領(lǐng)域的研究人員與智庫人士在研究報告中提醒,要高度警惕人工智能技術(shù)被惡意使用濫用的風(fēng)險。
國內(nèi)專家表示,基于人類和國家安全的考量,相關(guān)部門應(yīng)高度關(guān)注惡意使用人工智能技術(shù)的潛在風(fēng)險,需要聯(lián)合科研界以及產(chǎn)業(yè)界的力量,共同做好前瞻技術(shù)研究,掌握應(yīng)對之策。
美國斯坦福大學(xué)和德國慕尼黑工業(yè)大學(xué)的聯(lián)合研究團(tuán)隊近期使用一種名為“生成對抗性網(wǎng)絡(luò)(GAN)”的人工智能技術(shù),成功將美國前總統(tǒng)奧巴馬和俄羅斯總統(tǒng)普京的演講面部動作和聲音剪輯互換,實現(xiàn)“換臉”。
在公開的演示視頻中,研究人員將奧巴馬的頭部動作、面部表情、講話動作、眨眼等精確地“復(fù)制”到普京的臉上,配上奧巴馬的原聲,最終效果呈現(xiàn)為普京在朗讀奧巴馬的演講內(nèi)容,常人難以分辨。
美、德科學(xué)家的這次試驗不是技術(shù)人員第一次用人工智能技術(shù)給公眾人物“換臉”制作假視頻。
早在今年4月,美國制片公司“猴爪(Monkeypaw Productions)”就曾利用名為“深度仿真(DeepFake)”人工智能技術(shù),制作了一段虛假視頻,視頻中奧巴馬對現(xiàn)任美國總統(tǒng)特朗普進(jìn)行了嚴(yán)厲的批評。但實際上奧巴馬的表情動作合成自“猴爪”公司的創(chuàng)始人喬丹·皮爾。
2017年7月,應(yīng)美國情報高級研究計劃局(IARPA)的要求,哈佛大學(xué)曾對此類技術(shù)進(jìn)行研究,并發(fā)布一本名為《人工智能與國家安全》的報告,得出結(jié)論認(rèn)為,目前人工智能技術(shù)的“偽造”水平已經(jīng)較為強(qiáng)大,能夠逼真地實時修改視頻上個別人的面部表情和說話時的嘴唇運動;能為有足夠豐富音視頻資源的個人生成用真實聲音合成的錄音;并能自動生成逼真的音響效果,給無聲視頻配音。
美國制片公司曾用人工智能技術(shù)制作了一段美國前總統(tǒng)奧巴馬的虛假視頻。
報告還預(yù)測,在不久的將來,這些技術(shù)工具將不只供高級計算機(jī)科學(xué)家使用,還可以面向任何人。
這意味著,業(yè)余愛好者也可以借助相應(yīng)的工具生成大規(guī)模的逼真高清晰度視頻、音頻和文件類偽造品。
技術(shù)本無善惡,但它被惡意使用的可能性,還是引起了一些擔(dān)憂。
美、德“變臉術(shù)”試驗團(tuán)隊研究人員賈斯特斯·泰斯表示,他們意識到這項技術(shù)的危險性,雖然它的初衷可能是應(yīng)用于電影配音和特效制作,但也可以被惡意應(yīng)用到政治、輿論、金融等其他領(lǐng)域,或者普通民眾的生活中。
喬丹·皮爾表示,他的公司制作并對外公布“奧巴馬批評特朗普”虛假視頻,也是為了警醒外界,讓人們理解這項技術(shù)的潛在危險。
《人工智能與國家安全》報告認(rèn)為,一旦人工智能偽視頻生成工具向未經(jīng)培訓(xùn)的業(yè)余愛好者開放,網(wǎng)絡(luò)信息輿論生態(tài)的絕大部分可能被偽造品占領(lǐng)。人工智能技術(shù)的發(fā)展將對新聞輿論、政府通信、刑事審判證詞、國家安全、公眾安全等領(lǐng)域帶來一定風(fēng)險。
從輿論傳播層面看,由人工智能技術(shù)實現(xiàn)的偽內(nèi)容與網(wǎng)絡(luò)攻擊和社交媒體僵尸網(wǎng)絡(luò)相結(jié)合,不僅讓假新聞更難鑒別,一旦黑客控制官方的新聞機(jī)構(gòu)網(wǎng)站或社交媒體賬戶,用于散播假的文本、視頻和音頻。
從公眾安全層面看,犯罪者可利用受害者的圖片、聲音冒充受害人跟另一個人聊天、交易,不僅危害他人隱私、財產(chǎn)乃至生命安全,偽造出來的“現(xiàn)實”與“事實”也會給檢驗分析人員帶來更多干擾,侵蝕社會信任度。
從國家安全層面看,一旦比頂級電影特效還真實的人工智能偽造品被惡意使用在領(lǐng)導(dǎo)人及其他關(guān)鍵人物身上,不僅會導(dǎo)致領(lǐng)導(dǎo)人形象受損,如果偽造領(lǐng)導(dǎo)人發(fā)出有悖于國家安全利益的政治觀點或指令,也將導(dǎo)致惡果。
為規(guī)避人工智能“換臉術(shù)”潛在的安全風(fēng)險,歐美國家安全機(jī)構(gòu)正在聯(lián)合高校進(jìn)行前瞻研究,研發(fā)相應(yīng)的反制工具和技術(shù)。
美國國防部高級研究計劃局(DAPRA)在今年5月資助了一項名為“媒體內(nèi)容鑒定”的計劃,聯(lián)合紐約州立大學(xué)研究團(tuán)隊研發(fā)出全球首款“反變臉”的人工智能刑偵檢測工具,通過對大量虛假視頻的甄別試驗,目前辨別準(zhǔn)確率達(dá)到99%。
不過這只是階段性的應(yīng)對成果,達(dá)特茅斯大學(xué)數(shù)字取證專家漢尼·法里德表示,機(jī)器學(xué)習(xí)系統(tǒng)可以接受更先進(jìn)的訓(xùn)練,然后超越當(dāng)前的反變臉工具。
換句話說,現(xiàn)有人工智能刑偵取證工具的誕生,僅僅標(biāo)志著人工智能視頻偽造者和數(shù)字刑偵人員之間人工智能“軍備競賽”的開始。這會是一條長期而充滿復(fù)雜可能的艱巨道路。
“媒體內(nèi)容鑒定”計劃負(fù)責(zé)人大衛(wèi)·古寧也表示,美國國防部高級研究計劃局將繼續(xù)進(jìn)行更多測試來“確保開發(fā)中的識別技術(shù)能夠檢測到最新的造假技術(shù)”。
國內(nèi)一些網(wǎng)絡(luò)安全領(lǐng)域的專家認(rèn)為,我國也必須高度警惕人工智能技術(shù)被惡意使用的輿論安全和國家安全風(fēng)險。公安部相關(guān)人士對《財經(jīng)國家周刊》記者說,相關(guān)部門應(yīng)緊跟國際人工智能技術(shù)最新進(jìn)展,聯(lián)合國內(nèi)專業(yè)研究力量,加快類似反制技術(shù)的前瞻研究。
除了源頭上的應(yīng)對之術(shù),《人工智能與國家安全》報告提出,在傳播渠道上,網(wǎng)絡(luò)監(jiān)管部門也應(yīng)進(jìn)一步加強(qiáng)網(wǎng)絡(luò)社交媒體涉政內(nèi)容的安全審查力度和制度管控,限制虛假內(nèi)容的散布能力。
此外,一些專家認(rèn)為,普通民眾也有必要更多了解這一技術(shù)的可能性,在個人隱私、財產(chǎn)安全等方面培養(yǎng)一定的鑒別意識和能力。