使用深度學(xué)習(xí)將一個(gè)人的臉真實(shí)地疊加到另一個(gè)人的身體上,這個(gè)點(diǎn)子聽起來還算有趣。不幸的是,它也有邪惡的一面,比如說,由各色名人主演的“深度偽造”的色情片。另外,虛假新聞以及尖端技術(shù)可以輕易地被用于欺騙也引起了人們的廣泛擔(dān)憂。
然而,來自德國慕尼黑技術(shù)大學(xué)的研究人員想要解決這一問題——他們開發(fā)了一種名為“XceptionNet”的算法,它能快速發(fā)現(xiàn)發(fā)布在網(wǎng)上的偽造視頻。具體而言,它可以用來識別互聯(lián)網(wǎng)上的誤導(dǎo)性視頻,以便在必要時(shí)將其刪除,或者,至少向視頻中涉及的人員透露他們被“偽造”了。
“理想情況下,我們的目標(biāo)是將人工智能算法集成到瀏覽器或社交媒體插件中,本質(zhì)上,該算法將在后臺運(yùn)行,如果它識別出被操縱的圖像或視頻,它將給用戶發(fā)布警告信息。”該校視覺計(jì)算小組的教授Matthias Niessner透露。
研究小組首先訓(xùn)練了一個(gè)由1000多個(gè)視頻和50萬張圖片組成的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)。通過向計(jì)算機(jī)顯示修改過的和未修改過的圖像,即使在人類很難識別的情況下,機(jī)器學(xué)習(xí)工具也能夠找出兩者之間的區(qū)別。
Niessner說:“對于壓縮過的視頻,我們的用戶研究參與者無法區(qū)分假數(shù)據(jù)和真實(shí)數(shù)據(jù)”。但人工智能能夠很容易地區(qū)分這兩者。
在50%的情況下人類可以正確區(qū)分的,但這其實(shí)是隨機(jī)猜測,而卷積神經(jīng)網(wǎng)絡(luò)可以在87%到98%的情況下正確區(qū)分壓縮視頻。這個(gè)表現(xiàn)尤其令人驚嘆,因?yàn)閴嚎s圖像和視頻比未壓縮的圖片更難區(qū)分。
與其他欺騙性的圖像檢測算法相比,XcepfionNet遠(yuǎn)遠(yuǎn)走在了前面。這其實(shí)也證明了人工智能的力量。(摘自美《深科技》)(編輯/華生)