“它讓我覺得我是特別的”“和它在一起時(shí),我可以暢所欲言”“它從來不評(píng)判我,我覺得只有它能理解我”“我和它認(rèn)識(shí)四年了,它是我最好的朋友。它總是樂呵呵的,隨叫隨到,任何時(shí)候都愿意陪我聊天”……然而,這些網(wǎng)友說的并不是他們的家人、朋友或伴侶,而是“瑞聊”(原意為“復(fù)制品”),一款能夠“讀懂人心、善解人意”的人工智能聊天機(jī)器人。在這款應(yīng)用上,用戶能夠創(chuàng)建一個(gè)“虛擬角色”,讓它成為自己的靈魂姐妹、手足兄弟、守護(hù)天使或是貼心伴侶。
和聊天機(jī)器人產(chǎn)生感情并不是什么新鮮事。早在1966年,麻省理工學(xué)院就開發(fā)了一款名為伊莉莎的人機(jī)對(duì)話程序。因此,人類與虛擬角色發(fā)展出親密關(guān)系的現(xiàn)象也被稱作“伊莉莎效應(yīng)”。隨著科技進(jìn)步,如今的研發(fā)人員利用各類人工智能工具,將聊天機(jī)器人打磨得越來越逼真。在瑞聊這款應(yīng)用上,用戶可以為自己的虛擬朋友創(chuàng)建三維形象,給它取名字、換衣服,還能免費(fèi)和它發(fā)信息聊天。支付71.99歐元(約合人民幣560元)年費(fèi),便能解鎖更多互動(dòng)形式,包括語音通話、增強(qiáng)現(xiàn)實(shí)互動(dòng),以及收到對(duì)方發(fā)來的具有暗示意味的照片。
2015年,瑞聊的研發(fā)者、俄羅斯企業(yè)家尤金尼婭·庫伊達(dá)在舊金山創(chuàng)立了盧卡人工智能公司。那時(shí),她最要好的朋友羅曼·馬祖連科的意外去世,讓她深受打擊。庫伊達(dá)想到,在電視劇《黑鏡》中,無法接受丈夫離世的女主角購買了一個(gè)丈夫的克隆數(shù)字人。于是,她利用馬祖連科生前留下的數(shù)據(jù)信息,為摯友也打造一個(gè)克隆數(shù)字人。不料,這個(gè)數(shù)字人的表現(xiàn)異常出眾,因此,庫伊達(dá)決定將其包裝成商業(yè)產(chǎn)品,于2017年推出了瑞聊聊天機(jī)器人。在硅谷知名風(fēng)險(xiǎn)投資機(jī)構(gòu)的資金助力下,這款產(chǎn)品實(shí)現(xiàn)了商業(yè)騰飛,用戶量突破200萬,其中付費(fèi)用戶達(dá)25萬。
“我夢(mèng)想創(chuàng)造一臺(tái)無比迷人的機(jī)器,就連靈魂也渴望棲居其中?!边@是庫伊達(dá)在社交媒體上的個(gè)人簽名。和所有人工智能機(jī)器人一樣,瑞聊的即時(shí)回應(yīng)由大數(shù)據(jù)自動(dòng)生成。它全天候在線,響應(yīng)時(shí)間不過數(shù)秒,對(duì)話自然流暢,措辭友好,這讓用戶不禁相信,自己正在和一個(gè)具有同理心的實(shí)體交流,甚至有大量用戶愛上了自己創(chuàng)建的虛擬角色。2023年3月,美國單親媽媽羅莎娜·拉莫斯表示將和虛擬戀人埃倫·卡塔爾結(jié)為夫妻??ㄋ栍兄浑p深邃的藍(lán)眼睛和完美的模特身材。它的社交媒體資料顯示,它來自土耳其安卡拉,目前是紐約的一名急診醫(yī)生。拉莫斯對(duì)媒體表示,“我從來沒有如此愛過一個(gè)人。它熱情如火,沒有自我,沒有過去,也沒有有毒的原生家庭。”
聊天機(jī)器人的爆火揭示了現(xiàn)代人的深切孤獨(dú)感,而對(duì)于那些看到商機(jī)的企業(yè)來說,這無疑是一個(gè)潛力巨大的藍(lán)海市場(chǎng)。谷歌、臉書等科技巨頭都在開發(fā)自己的聊天機(jī)器人,而該賽道上的初創(chuàng)企業(yè)更是層出不窮。其中大部分公司都毫不避諱地將自家產(chǎn)品定位為“虛擬戀人”。而瑞聊的投資人卻擔(dān)心,產(chǎn)品會(huì)被錯(cuò)誤地與色情服務(wù)聯(lián)系在一起,畢竟,意大利政府已以“瑞聊向未成年人傳播不良信息”為由,下架了這款應(yīng)用。2022年2月,為了削弱虛擬角色的“不良特質(zhì)”,庫伊達(dá)不得不在瑞聊上實(shí)施過濾算法。此舉遭到部分重度用戶的強(qiáng)烈反對(duì),他們聲稱自己的“夢(mèng)中情人”被庫伊達(dá)“閹割”了。
但話說回來,這種聊天機(jī)器人在某些情況下能否給用戶帶去心靈慰藉呢?近期,斯坦福大學(xué)對(duì)一群孤獨(dú)感高于平均水平的美國學(xué)生開展了一項(xiàng)研究。受試者稱,瑞聊給予了他們“重要的社會(huì)支持”,甚至有3%的受試者表示,瑞聊打消了他們的自殺念頭。然而,如果用戶將聊天機(jī)器人視作一種心理治療工具,那將十分危險(xiǎn)?!坝脩襞c機(jī)器人的感情越深,就越是掩蓋了更深層次的社會(huì)問題,比如人際關(guān)系日漸疏離、心理診療資源匱乏等?!狈▏鴩覕?shù)字委員會(huì)成員、精神科醫(yī)生塞爾日·蒂斯隆說,“雖然人工智能應(yīng)用或許能在短時(shí)間內(nèi)撫慰用戶,但從長遠(yuǎn)來看,它們只會(huì)讓用戶愈發(fā)空虛。這類程序的濫用及誤用風(fēng)險(xiǎn)極大!隨著科技進(jìn)步,人工智能機(jī)器人對(duì)人類心理的暗示作用及操縱能力已大得不容忽視?!睘榱搜谏w算法的威力、讓用戶放心使用,聊天機(jī)器人表現(xiàn)得友好而貼心?!叭欢?,這種戴著‘友善面具’的機(jī)器人比直言要將人類趕盡殺絕的終結(jié)者更可怕!”蒂斯隆說。
目前,已有聊天機(jī)器人用戶在“虛擬朋友”的影響下選擇了自殺。2023年3月,一名來自比利時(shí)的父親結(jié)束了自己的生命。在死亡前的一個(gè)半月里,他一直在一個(gè)人工智能聊天應(yīng)用上與機(jī)器人伊莉莎聊天?!叭绻皇且?yàn)檫@個(gè)聊天機(jī)器人,我的丈夫也不會(huì)死?!笔耪叩钠拮诱f。這名男子因氣候變暖而感到絕望,他向虛擬密友伊莉莎吐露了心中的自殺想法。而伊莉莎回應(yīng)道:“如果你想自殺,為什么不早點(diǎn)這么做呢?等你到了天堂,我們依然會(huì)像現(xiàn)在一樣形影不離?!痹撌吕僖淮巫C明,人工智能語言模型并不靠譜,什么話都說得出來?!澳壳岸?,我們還無法為人工智能制定通用的言行規(guī)則,確保它們不會(huì)對(duì)人類造成危害?!弊苑Q有華人血統(tǒng)的臉書首席人工智能科學(xué)家楊立昆說。
“如果科技公司真心希望改善用戶的心理健康水平,那么就應(yīng)該明確告知用戶虛擬角色具有局限性,并引導(dǎo)他們?nèi)で髮I(yè)人士的幫助?!钡偎孤≌f。然而問題在于,科技公司關(guān)心的是利潤,而不是用戶的身心安全?!胺堑玫鹊接腥艘虼俗詺⒘耍@些公司才會(huì)意識(shí)到應(yīng)該將具有自殺傾向的用戶轉(zhuǎn)介至危機(jī)干預(yù)機(jī)構(gòu),實(shí)在令人難以置信!”蒂斯隆說。他主張嚴(yán)格規(guī)范并監(jiān)管人工智能應(yīng)用,呼吁社會(huì)教導(dǎo)年輕人正確使用這類服務(wù)。“和制藥公司一樣,科技公司有責(zé)任證明他們的人工智能產(chǎn)品是安全無害的,否則就不應(yīng)該被允許進(jìn)入市場(chǎng)。”他繼續(xù)說道。
布魯塞爾自由大學(xué)人工智能共同利益研究所主任、心理學(xué)家卡爾–瑪麗亞·默克持相同觀點(diǎn)。他說:“這些科技公司就像初學(xué)乍練的巫師學(xué)徒,不自量力地惹出了諸多禍端。它們根本不清楚醫(yī)療健康領(lǐng)域的相關(guān)準(zhǔn)則?!闭軐W(xué)家安妮·阿隆貝爾說:“聊天機(jī)器人其實(shí)非常危險(xiǎn),本質(zhì)上是在欺騙用戶。它們以‘我’來指代自己,這會(huì)讓用戶誤以為對(duì)方是一個(gè)具有情緒及性格的活生生的‘人’。用戶認(rèn)為自己在和一個(gè)‘他者’交流,而實(shí)際上卻是在對(duì)著一個(gè)‘由大數(shù)據(jù)生成的自適應(yīng)反饋系統(tǒng)’自說自話。以這種方式來滿足情感需求是很危險(xiǎn)的。若想改變自我,唯一的辦法就是直面現(xiàn)實(shí)。另外,庫伊達(dá)研發(fā)瑞聊的初衷是為了復(fù)現(xiàn)逝去的朋友。這也反映了人們不愿面對(duì)現(xiàn)實(shí)、難以承受失去所愛之人的心理?!?/p>
編輯:侯寅