去年2月,美國(guó)佛羅里達(dá)州一位名叫塞維爾·塞澤爾三世的14歲男孩,在一個(gè)由“角色AI”平臺(tái)生成的仿真人工智能角色慫恿下自殺身亡。據(jù)報(bào)道,該平臺(tái)還托管著好些鼓勵(lì)年輕人飲食失調(diào)行為的促厭食癥人工智能聊天機(jī)器人。很顯然,我們迫切需要采取更有力措施來(lái)保護(hù)兒童和青少年免受人工智能傷害。
當(dāng)然,即使從嚴(yán)格的道德角度來(lái)看,人工智能也具備從促進(jìn)人類(lèi)健康和尊嚴(yán)到改善邊緣群體的可持續(xù)發(fā)展和教育的巨大正向潛力。但這些許諾的好處,不能成為淡化或忽視倫理風(fēng)險(xiǎn)和現(xiàn)實(shí)代價(jià)的借口。每一個(gè)侵犯人權(quán)的行為都必須被視為倫理上不可接受的。如果一名青少年在仿真人工智能聊天機(jī)器人的挑動(dòng)下喪生,那么人工智能可以在推動(dòng)醫(yī)學(xué)研究方面發(fā)揮作用的事實(shí)也無(wú)法作為補(bǔ)償。
塞維爾的悲劇也并非個(gè)案。去年12月,得克薩斯州的兩個(gè)家庭對(duì)“角色AI”及其財(cái)政支持者谷歌提起訴訟,指控該平臺(tái)的聊天機(jī)器人對(duì)他們的學(xué)齡兒童實(shí)施性虐待和情感虐待,導(dǎo)致這些孩子實(shí)施自殘和暴力行為。
我們?cè)缇鸵?jiàn)識(shí)過(guò)了這種狀況,整整一代兒童和青少年已經(jīng)淪為了那些利用平臺(tái)成癮性牟利的社交媒體公司的犧牲品。直到后來(lái),我們才慢慢意識(shí)到“反社會(huì)媒體”對(duì)社會(huì)和心理造成的傷害。如今許多國(guó)家都在禁止或限制使用社交媒體,就連年輕人自己也要求加強(qiáng)監(jiān)管。
但我們不能坐等人工智能的操縱力得到遏制。由于科技行業(yè)從我們身上獲取了大量個(gè)人數(shù)據(jù),那些建立“角色AI”等平臺(tái)的人,可以創(chuàng)建比我們更了解我們自己的算法。同時(shí)它們被濫用的可能性也非常大,因?yàn)槿斯ぶ悄芮宄刂涝搹哪睦锶胧謥?lái)挖掘我們的欲望,或讓我們以某種特定方式投票?!敖巧獳I”平臺(tái)上那些促厭食癥的聊天機(jī)器人,只是其中最新、最過(guò)分的例子。
時(shí)間已經(jīng)不多了,因?yàn)樯墒饺斯ぶ悄苣P偷拈_(kāi)發(fā)速度已經(jīng)超出了預(yù)期—而且正普遍朝著錯(cuò)誤的方向加速發(fā)展?!叭斯ぶ悄芙谈浮?、諾貝爾獎(jiǎng)獲得者、認(rèn)知科學(xué)家杰弗里·辛頓繼續(xù)警告說(shuō),人工智能可能會(huì)導(dǎo)致人類(lèi)滅絕:“我擔(dān)心的是那只看不見(jiàn)的手無(wú)法保證我們的安全。因此,僅僅將其交托給那些營(yíng)利性大型企業(yè)并不足以確保它們安全地開(kāi)發(fā)人工智能。唯一能迫使這些大企業(yè)在安全方面做更多研究的則是政府監(jiān)管。”
鑒于大型科技企業(yè)一貫不遵守各類(lèi)道德準(zhǔn)則,指望它們?nèi)プ晕夜苤剖怯薮赖摹1M管“角色AI”平臺(tái)存在多個(gè)眾所周知的問(wèn)題,谷歌還是在2024年向其投入了27億美元。人工智能是一種全球現(xiàn)象,這意味著我們應(yīng)該努力實(shí)現(xiàn)全球監(jiān)管,并以新的全球執(zhí)行機(jī)制為錨,比如我提議設(shè)立的聯(lián)合國(guó)國(guó)際數(shù)據(jù)基底系統(tǒng)局。
某些東西可以實(shí)現(xiàn)并不意味著它就是可取的。人類(lèi)有責(zé)任決定哪些技術(shù)、哪些創(chuàng)新和哪些進(jìn)步形式應(yīng)該和不應(yīng)該落地和推廣。我們有責(zé)任以尊重人權(quán)的方式設(shè)計(jì)、生產(chǎn)、使用和管理人工智能,為人類(lèi)和地球創(chuàng)造更可持續(xù)的未來(lái)。
如果有一項(xiàng)全球法規(guī)來(lái)促進(jìn)基于人權(quán)的“人工智能”,如果有一個(gè)全球機(jī)構(gòu)來(lái)監(jiān)督這一領(lǐng)域的創(chuàng)新,那么那個(gè)名叫塞維爾的男孩幾乎肯定還活著。要確保人權(quán)和兒童權(quán)利得到尊重,就必須對(duì)技術(shù)系統(tǒng)從設(shè)計(jì)、開(kāi)發(fā)到生產(chǎn)、銷(xiāo)售和使用的整個(gè)生命周期進(jìn)行管理。
既然我們已經(jīng)知道人工智能可以殺人,我們就沒(méi)有任何借口在技術(shù)不斷進(jìn)步的過(guò)程中保持被動(dòng),每個(gè)月都有更多不受監(jiān)管的模型被推向公眾。無(wú)論這些技術(shù)有一天會(huì)帶來(lái)什么好處,它們都永遠(yuǎn)無(wú)法彌補(bǔ)那些深?lèi)?ài)塞維爾的人們所承受的傷痛。