王丹春
兩個“小女孩
鏡頭里,兩個小女孩面對面地坐在熒光燈下。她們都身著淡黃色衣服,臉頰微鼓,劉海烏黑,短發(fā)齊肩——其中一個是5歲的小女孩,另一個是她的AI機(jī)器“克隆人”。
今天是小女孩第一次見到這個和她一樣高的“克隆人”。小女孩只顧一個勁地盯著她的同伴。而在另一邊,這個同伴仿佛也在盯著她看,表情一臉嚴(yán)肅、僵硬。
她們的身體做著這樣那樣微小的動作——刻意的也好、隨意的也罷,這些動作都在向?qū)Ψ絺鬟_(dá)著“我是活物”的訊息:她們會每隔幾秒眨一次眼,偶爾也會動動脖子——但小女孩的感官激活的是她鮮活的神經(jīng)系統(tǒng),而另一邊的機(jī)器人利用的卻只是在它硅膠外殼下的電子芯片。
小女孩神情從迷惑變得焦慮,她好像感受到了什么,開始有些抗拒。漫長的幾分鐘后,女孩的呼吸逐漸變得沉重,“我好累?!彼f,旋即大哭了起來。
恐怖谷效應(yīng)
以上這幕并非來自科幻片,它發(fā)生在2002年夏天的一個早晨,日本大阪幣郊區(qū)的一間大學(xué)研究室里。鏡頭記錄者正是小女孩的父親——石黑浩,也是鏡頭中“克隆人”的設(shè)計者。
我們不難理解,當(dāng)面對一個如此逼真——尤其是以自己為原型的AI機(jī)器人時,小女孩焦慮、抗拒以及大哭的背后或許蘊(yùn)含著難以言喻的恐懼感。
1970年日本東京工業(yè)大學(xué)著名機(jī)器人專家森政弘教授在名為《能源》的雜志上發(fā)表了一篇名為《恐怖谷》的文章。在這篇文章中,森政弘提出了著名的“恐怖谷理論”,它是一個關(guān)于人類對機(jī)器人和非人類物體的感覺假設(shè)。根據(jù)這種假設(shè),在一個機(jī)器人“不夠擬人”的范疇內(nèi),機(jī)器人和人類越相像,由于機(jī)器人與人類在外表、動作上都有相似性,它的類人特征就會容易辨認(rèn),人類會對機(jī)器人產(chǎn)生親和感。然而,隨著相似度的提高,到達(dá)一個較高的臨界點(diǎn)時,它的類人特征就會成為顯眼的部分,甚至在觀察者眼中產(chǎn)生一種“詭異”的感覺。因而,人們的親和反應(yīng)會驟然跌入谷底。
森政弘教授的文章在35年后引起了另一位機(jī)器人專家卡爾·麥克多曼的興趣。他將文章進(jìn)行翻譯引起了熱議。部分研究者認(rèn)為,類人機(jī)器人之所以讓人感到不舒適是因?yàn)樗鼈兣祟惖耐獗恚瑢?shí)際上卻沒有什么生命的跡象,讓人不由自主地聯(lián)想到死亡。對此,麥克多曼設(shè)計了一個實(shí)驗(yàn),他邀請參與實(shí)驗(yàn)的志愿者觀看了一組類人機(jī)器人的照片,隨后請他們填寫問卷描述自己的世界觀。結(jié)果暗示,類人機(jī)器人真的可能讓人聯(lián)想到死亡。
后續(xù)的一些研究者指出,“恐怖谷效應(yīng)”可能是人類在漫長的生存進(jìn)化中逐漸產(chǎn)生的生理防御機(jī)制。人們似乎在它們身上看到了人類情感的影子,然而面對“異類”,人們拒絕(無法)理解這樣的情感,自動化似的停下情感的交互。
人類的恐懼
讓我們做個關(guān)于10年后生活的展望。它可能是,機(jī)器人可以代替你,做你所不喜歡的瑣碎雜事。它們不僅會替你洗碗、洗衣、打掃衛(wèi)生,提醒你各類工作事項(xiàng),幫你及時存儲、提取、轉(zhuǎn)化各類信息,比你本人更了解你自己。當(dāng)然,如果你放開對它們的控制,它們可以做更多事情。鑒于迄今為止,人工智能和機(jī)器人技術(shù)的成就以及信息技術(shù)的發(fā)展,這種想象中的畫面可能會成為未來大眾的常規(guī)生活方式。
于此同時,對人工智能、機(jī)器人等的恐懼也隨之而生。很多人看到即將推出的5G基礎(chǔ)設(shè)施可能會引發(fā)一場新的技術(shù)革命。5G將比4G快得多,這意味著大量的信息可以在機(jī)器人的“大腦“中實(shí)現(xiàn)實(shí)時交互。機(jī)器人也能夠彼此高速通信,并且只產(chǎn)生非常小的網(wǎng)絡(luò)延遲,而這可以與人類的大腦相媲美。
事實(shí)上,與類人機(jī)器人逼真的外表、精細(xì)動作的完成度相比,人們更恐俱的是隨著科技的進(jìn)步,人工智能體可能發(fā)展出的“類似人類的認(rèn)知”以及演算后的“類似于人類的情感”。
人們認(rèn)為,它們完全可以與我們的身體競爭,并且在許多情況下,可以輕松地打敗我們。與此同時,隨著時間的推移,它們的功能越完善,而我們的能力卻很難實(shí)現(xiàn)同步的大的突破與發(fā)展。人們恐俱在世界未知的演變中被取而代之。
是威脅,也是挑戰(zhàn)
埃隆·馬斯克最早在2014年的麻省理工學(xué)院的公開訪談中拋出如下觀點(diǎn): “我認(rèn)為我們應(yīng)當(dāng)格外警惕人工智能。如果讓我說人類當(dāng)下面臨最大的威脅是什么,我覺得無疑是人工智能?!蓖辏沟俜摇せ艚鹪谟鴱V播公司(BBC)的訪談中表達(dá)了對惡意人工智能的擔(dān)憂,他指出,全人工智能的發(fā)展可能意味著人類的終結(jié)。持類似觀點(diǎn)的還有比爾·蓋茨,他也曾公開表達(dá)過類似的擔(dān)憂,稱:“機(jī)器確實(shí)可以幫助人類完成很多工作。但當(dāng)機(jī)器越發(fā)智能,它們將會對人類的存在造成威脅?!?/p>
這種擔(dān)憂既包含了前文所述的“人工智能將獲得意識并且摧毀我們?nèi)《?,還透露出如下的擔(dān)憂:“不道德的人將使用人工智能以達(dá)成邪惡的目的”。對此康奈爾大學(xué)計算機(jī)系副教授溫伯格指出,人工智能是在非常特定的限制下實(shí)現(xiàn)的操作,它是由決定其行為的算法定義的。溫伯格說道:“與此相比較,一個肆無忌憚的人會因?yàn)橐恍┯泻Φ脑蚨萌斯ぶ悄艿目赡芑蛟S大很多。但這并非是人工智能所特有的,幾乎任何類型的機(jī)器或工具都可以被用于好的或壞的目的,這取決于使用者的意圖。”
或許,當(dāng)我們消除了對人工智能的敵意與恐懼,我們會更坦然接納它帶來的便利,如Siri、隱形的人工智能搜索系統(tǒng)(百度、谷歌搜索)、頭條推送等,從而以更欣賞的姿態(tài)歡迎它們的存在。
在這日益變化的當(dāng)下,也許我們恐俱的不是人工智能,而是自己的能力,以及這背后所投射出的不堪。