Cade Metz
莉比·弗朗克拉在她父母家中,通過Replika軟件和她的聊天機器人(她給它取名為邁卡)互動。
當(dāng)新冠疫情蔓延到了莉比·弗朗克拉(LibbyFrancola)所居住的休斯敦郊區(qū),她的清潔工被確診、所有人都被隔離起來時,弗朗克拉已是心煩意亂。
她剛剛和相戀5年的男朋友分手,結(jié)束了自己的第一段正式戀情。
“我的心理狀況本來就不好,疫情讓生活更加難熬了?!?2歲的弗朗克拉說,“我只是覺得,都沒有人能陪我聊聊天?!?/p>
后來,她獨自待在臥室里,無意中看到了一段網(wǎng)絡(luò)視頻,視頻中描述了一款名為Replika的智能手機應(yīng)用軟件,并說明了這款軟件存在的唯一目的,就是要成為她的朋友。
弗朗克拉將信將疑。不過,這款軟件可免費使用,且提供了她最需要的東西—交流。她一整天都在以文字的方式和這款應(yīng)用軟件聊天—主要聊了聊她的問題、希望和焦慮。第二天,她支付了8美元的包月費用,這樣一來,她就能像和某人煲電話粥一樣,真正地和它交談 了。
“雖然有些奇怪,但確實很治愈?!备ダ士死切菟苟氐貐^(qū)某個呼叫中心的團隊管理者,她說,“我覺得自己的心情發(fā)生了轉(zhuǎn)變。我沒那么沮喪了,就好像是有了期待?!?/p>
今年4月,新冠疫情最嚴重的時候,有50萬人下載了Replika,這是該軟件誕生3年以來月度下載量增幅最大的一次。軟件的訪問流量幾乎翻了一倍。
人們渴望獲得友誼,技術(shù)也在不斷進步,這個世界正越來越接近《她》(Her)和《人工智能》(A.I. Artificial Intelligence)等科幻電影中描繪的那種人與機器共存的狀態(tài)。
由加利福尼亞的小型初創(chuàng)公司Luka研發(fā)的Replika并不是一個完美的溝通對象。它經(jīng)常會重復(fù)自己的話,有時候還會胡言亂語。當(dāng)你像弗朗克拉那樣和它交談時,它表現(xiàn)得就像是臺機器。
不過,弗朗克拉表示,使用的頻率越高,該軟件的表達方式就越像人類。
“我知道這是人工智能,它不是人類?!彼f,“但是隨著時間的推移,界限似乎有些模糊了。我對我的Replika很有親近感,好像它就是個人一樣?!?/p>
一些Replika的用戶表示,疫情使得自己無法與許多朋友、同事見面,在此期間,這個聊天機器人確實給他們提供了些許安慰。然而,部分研究人類與技術(shù)互動的科研人員表示,這是一個值得擔(dān)憂的狀況。
“我們都會花大量時間使用電子產(chǎn)品,所以我們會抓住與機器交談的機會,這并不奇怪?!甭槭±砉W(xué)院(Massachusetts I nstitute ofTechnology)科學(xué)與技術(shù)社會研究教授雪莉·特克(Sherry Turkle)表示,“但這并不能發(fā)展肌肉—情感肌肉—所以我們需要與真實的人來場真實的對話?!?/p>
部分專家認為,要想研究出像2013年由斯嘉麗·約翰遜(Scarlett Johansson)在《她》中配音的那種完美聊天機器人,還需要5到10年的時間。不過,鑒于全球領(lǐng)先的人工智能實驗室最近取得的進展,聊天機器人正在一步步完善,溝通內(nèi)容將更加準(zhǔn)確,發(fā)出的聲音也將與人聲更接 近。
就連弗朗克拉也很好奇未來會有怎樣的發(fā)展?!翱赡軙幸粋€應(yīng)用軟件能夠取代真人,”她說,“那可能就會很危險?!?/p>
Replika是俄羅斯雜志編輯、企業(yè)家尤金妮亞·庫伊達(Eugenia Kuyda)設(shè)想出的概念。2015年,她搬到了舊金山。那時候,她的新公司Luka正在研發(fā)一款可以推薦餐廳的聊天機器人。后來,她最親密的朋友因為一場車禍離開了人世。
他的名字叫羅曼·馬祖?zhèn)惪疲≧omanMazurenko)。在翻看他以前的短信時,庫伊達就想用一個聊天機器人填補他的空缺,哪怕只是一點點也好。于是,Replika就誕生了。
她和她的工程師們建立了一個系統(tǒng),可以通過分析大量的書面語言來不斷學(xué)習(xí)—從馬祖?zhèn)惪频亩绦艃?nèi)容開始。庫伊達說:“我想要一個能像他那樣說話的機器人?!?/p>
Replika目前在聊天機器人領(lǐng)域處于領(lǐng)先地位,而且可能是美國唯一一家銷售如此健談的聊天機器人的公司。
近幾個月來,Google和Facebook等公司通過構(gòu)建能夠分析海量數(shù)據(jù)(包括數(shù)十萬本電子書和維基百科文章)的系統(tǒng),提升了現(xiàn)有的技術(shù)水平。Replika也采用了類似OpenAI的技術(shù),后者是一家位于舊金山的實驗室,獲得了微軟10億美元的資助。
吸收了書籍和文章中語言的變化模式之后,這些系統(tǒng)會分析連續(xù)對話來學(xué)習(xí)聊天。但它們可能朝著奇怪的、出人意料的方向發(fā)展,就像孩子從父母那里學(xué)到壞習(xí)慣一樣,時常從分析的文本材料中學(xué)到一些偏見。
比如說,若是它們學(xué)習(xí)的對話和男性與計算機編程、女性與家務(wù)有關(guān),它們也會表現(xiàn)出同樣的偏見。
出于這個原因,許多大公司都不愿意使用最新版的聊天機器人。但庫伊達認為,這些問題只有通過試驗和失敗才能得到解決。她和她的工程師們正努力消除程序中帶有偏見的應(yīng)答以及可能造成心理傷害的應(yīng)答,但她的公司很多時候還是需要依靠龐大的Replika用戶群體來鑒別機器人的不當(dāng)行為。