隨著人工智能(AI)模型越來(lái)越擅長(zhǎng)模仿人類行為,區(qū)分真正的互聯(lián)網(wǎng)用戶和模仿他們的復(fù)雜系統(tǒng)變得愈發(fā)困難。
真正的問(wèn)題在于當(dāng)這些系統(tǒng)被用于傳播虛假信息或進(jìn)行欺詐等惡意目的。這讓我們難以信任在網(wǎng)上遇到的內(nèi)容。
來(lái)自O(shè)penAI、微軟、美國(guó)麻省理工學(xué)院和哈佛大學(xué)等的32位研究人員組成的團(tuán)隊(duì)提出了一個(gè)潛在的解決方案——一種名為“人性認(rèn)證”的驗(yàn)證概念。這些認(rèn)證可以證明持有者是真實(shí)的人,并且不需要獲取用戶的其他信息。該團(tuán)隊(duì)在本月初發(fā)布在arXiv預(yù)印本服務(wù)器上的一篇未經(jīng)同行評(píng)審的論文中探討了這一想法。
“人性認(rèn)證”依賴于AI系統(tǒng)仍無(wú)法繞過(guò)最先進(jìn)的加密系統(tǒng),也無(wú)法在現(xiàn)實(shí)世界中假裝成人類。
要獲得這種認(rèn)證,人們需要親自前往某些機(jī)構(gòu),如政府或其他受信任的組織,提供如護(hù)照或生物識(shí)別數(shù)據(jù)等證明自己是真實(shí)人類的證據(jù)。一旦獲得批準(zhǔn),他們將收到一個(gè)可以存儲(chǔ)在設(shè)備上的單一認(rèn)證,就像目前可以將信用卡和借記卡存儲(chǔ)在智能手機(jī)的電子錢(qián)包應(yīng)用中一樣。
在網(wǎng)上使用這些認(rèn)證時(shí), 用戶可以將其提供給第三方數(shù)字服務(wù)提供商, 后者可以使用一種名為零知識(shí)證明的加密協(xié)議來(lái)驗(yàn)證。這將確認(rèn)持有者擁有“ 人性認(rèn)證” , 而不會(huì)披露任何其他不必要的信息。
過(guò)濾掉平臺(tái)上沒(méi)有經(jīng)過(guò)驗(yàn)證的用戶可能在很多方面都很有用。比如,人們可以拒絕沒(méi)有“人性認(rèn)證”的線上交友配對(duì),或者選擇不查看任何沒(méi)有明確由真人發(fā)布的社交媒體內(nèi)容。
美國(guó)麻省理工學(xué)院的博士生托賓·邵斯參與了這一項(xiàng)目,他表示,研究團(tuán)隊(duì)希望鼓勵(lì)政府、公司和標(biāo)準(zhǔn)機(jī)構(gòu)未來(lái)考慮采用這種系統(tǒng),防止AI欺騙失控。
“Ai無(wú)處不在。它會(huì)產(chǎn)生很多問(wèn)題,但同時(shí)也會(huì)有很多解決方案被發(fā)明出來(lái)?!蓖匈e·邵斯說(shuō),“我們的目標(biāo)不是向世界強(qiáng)加這個(gè)方案,而是探討關(guān)于我們?yōu)槭裁葱枰约叭绾螌?shí)現(xiàn)它。”
目前已經(jīng)存在一些可能的技術(shù)選擇。例如,Idena聲稱自己是第一個(gè)基于區(qū)塊鏈的“人性證明”系統(tǒng)。它的工作原理是讓人類在短時(shí)間內(nèi)解決一些對(duì)機(jī)器人來(lái)說(shuō)很難的難題。而備受爭(zhēng)議的Worldcoin項(xiàng)目,通過(guò)收集用戶的生物識(shí)別數(shù)據(jù),宣稱自己是世界上最大的隱私保護(hù)人類身份和金融網(wǎng)絡(luò)。它最近與馬來(lái)西亞政府合作,通過(guò)掃描用戶虹膜生成一個(gè)代碼,來(lái)提供在線“人性證明”。這個(gè)方案與“人性認(rèn)證”的概念類似,每個(gè)代碼都通過(guò)加密保護(hù)。
然而,該項(xiàng)目因使用欺騙性營(yíng)銷手段、收集超出其承認(rèn)的個(gè)人數(shù)據(jù),以及未能獲得用戶的有意義同意而受到批評(píng)。在今年早些時(shí)候, 中國(guó)香港和西班牙的監(jiān)管機(jī)構(gòu)禁止Worldcoin運(yùn)營(yíng),并且其在巴西、肯尼亞和印度等國(guó)家的業(yè)務(wù)也已暫停。
所以說(shuō),仍然需要新的概念來(lái)解決AI混淆人類的問(wèn)題。AI工具的快速普及引發(fā)了一個(gè)危險(xiǎn)時(shí)期,互聯(lián)網(wǎng)用戶對(duì)線上內(nèi)容的真實(shí)性變得高度懷疑。AI與Deepfake領(lǐng)域?qū)<?、Meta和英國(guó)政府顧問(wèn)亨利·阿賈德表示:盡管驗(yàn)證人性身份認(rèn)證的想法已經(jīng)存在了一段時(shí)間,但這些“人性認(rèn)證”似乎是對(duì)抗不斷增加的懷疑情緒的最現(xiàn)實(shí)的手段之一。
但這些認(rèn)證面臨的最大挑戰(zhàn)是如何讓足夠多的平臺(tái)、數(shù)字服務(wù)和政府接受它們,因?yàn)樗麄兛赡軙?huì)對(duì)遵循一個(gè)自己無(wú)法控制的標(biāo)準(zhǔn)感到不安?!盀榱俗屵@個(gè)系統(tǒng)有效運(yùn)作,它必須被普遍采用,”亨利·阿賈德說(shuō),“從理論上講,這項(xiàng)技術(shù)非常有吸引力,但在實(shí)踐中、在復(fù)雜的現(xiàn)實(shí)世界中,我認(rèn)為會(huì)有相當(dāng)大的阻力。”
專注于超真實(shí)deepfake生成技術(shù)的AI公司Synthesia的安全主管馬丁·塔卡曼表示,他同意“人性認(rèn)證”背后的原則在線驗(yàn)證人類的必要性。然而,他不確定這是否是正確的解決方案,或是否具有可操作性。他還對(duì)誰(shuí)來(lái)運(yùn)行這樣的方案表示懷疑。
“我們可能最終會(huì)進(jìn)入一個(gè)世界,在這個(gè)世界里,我們將進(jìn)一步集中權(quán)力,將對(duì)我們數(shù)字生活的決策集中化,賦予大型互聯(lián)網(wǎng)平臺(tái)更多的控制權(quán),決定誰(shuí)可以在線存在以及出于什么目的?!瘪R丁·塔卡曼說(shuō),“考慮到一些政府在采用數(shù)字服務(wù)方面的糟糕表現(xiàn),以及日益增長(zhǎng)的專制傾向,期望這種技術(shù)能在本世紀(jì)末被大規(guī)模和負(fù)責(zé)任地采用,是否切合實(shí)際?”
目前,Synthesia正在評(píng)估如何將其他“人性認(rèn)證”機(jī)制整合到其產(chǎn)品中,而不是等待跨行業(yè)的合作。他表示,該公司已經(jīng)有了幾項(xiàng)措施。例如,它要求企業(yè)證明自己是合法注冊(cè)的公司,并且會(huì)禁止并拒絕向違反規(guī)則的客戶退款。
可以肯定的是,我們迫切需要區(qū)分人類和機(jī)器人的方法,并鼓勵(lì)技術(shù)和政策領(lǐng)域的利益相關(guān)者之間的討論是朝著正確方向邁出的一步。未參與項(xiàng)目的美國(guó)南加州大學(xué)計(jì)算機(jī)科學(xué)教授埃米利奧·費(fèi)拉拉說(shuō)。
“我們離一個(gè)未來(lái)已經(jīng)不遠(yuǎn)了,如果情況不加以控制,我們將基本無(wú)法區(qū)分我們?cè)诰€上與之互動(dòng)的是其他人類還是某種機(jī)器人。必須采取一些措施,”埃米利奧·費(fèi)拉拉說(shuō),“我們不能像前幾代人那樣對(duì)技術(shù)的認(rèn)知過(guò)于天真。” (綜合整理報(bào)道)(策劃/多洛米)