胡文利
1942年,著名科幻小說(shuō)家阿西莫夫提出了“機(jī)器人三定律”:“第一,機(jī)器人不得傷人,或者對(duì)身處險(xiǎn)境的人袖手旁觀;第二,機(jī)器人必須服從人的指示,除非這條指令違反第一條;第三,在不違反以上兩條的情況下,機(jī)器人有權(quán)自保。”
這些原則對(duì)后世的科幻文學(xué)產(chǎn)生了深遠(yuǎn)影響,也成為現(xiàn)代人工智能(AI)學(xué)科的奠基石。數(shù)十年來(lái),“失控的機(jī)器人”是人類揮之不去的夢(mèng)魘,一代又一代科學(xué)家試圖將日益強(qiáng)大的AI永遠(yuǎn)置于阿西莫夫守則的禁錮中。
然而,今年11月,由美國(guó)HBO推出的紀(jì)錄片《殺手機(jī)器人的真相》揭示了冰冷的現(xiàn)實(shí):AI似乎正在遠(yuǎn)離阿西莫夫的構(gòu)想,朝著《終結(jié)者》或《西部世界》的方向發(fā)展?!斑@是本年度最恐怖的紀(jì)錄片?!庇?guó)《衛(wèi)報(bào)》評(píng)價(jià)道。
殺手機(jī)器人已走進(jìn)現(xiàn)實(shí)
《殺手機(jī)器人的真相》在機(jī)器人“科多莫羅德”的敘述中開(kāi)場(chǎng)。“她”首先回顧了2015年發(fā)生在德國(guó)法蘭克福大眾汽車工廠里的一起悲劇。一名21歲的工人走進(jìn)“關(guān)押”機(jī)器人的“安全籠”中進(jìn)行調(diào)試,機(jī)器人突然“發(fā)飆”,用機(jī)械臂抓起工人按在金屬板上碾壓,致其死亡。事故發(fā)生后,大眾公司含糊其詞,至今未得出調(diào)查結(jié)論。檢察官曾考慮提起訴訟,卻不知該指控誰(shuí)。
據(jù)美國(guó)職業(yè)安全健康管理局統(tǒng)計(jì),過(guò)去30年間,機(jī)器人制造了30多起命案。最近一次是2017年,57歲的技術(shù)人員萬(wàn)達(dá)·霍爾布魯克在密歇根州一家汽車配件廠被機(jī)器人殺死,事件細(xì)節(jié)令人毛骨悚然。這家工廠里的機(jī)器人和人類在不同區(qū)域工作。然而,有個(gè)機(jī)器人“越界”了,它來(lái)到霍爾布魯克身邊,舉起沉重的配件砸向她的頭顱。死者的丈夫表示,妻子經(jīng)歷了“巨大的驚恐、疼痛和折磨”。
如果說(shuō)工業(yè)機(jī)器人“大開(kāi)殺戒”離普通人有些遙遠(yuǎn),那么,自動(dòng)駕駛汽車的車禍足以給樂(lè)觀的人敲響警鐘。自動(dòng)駕駛汽車被稱為“第一代民用智能機(jī)器人”,可正如《殺手機(jī)器人的真相》指出的,它們遠(yuǎn)非完美無(wú)缺。2016年,一名美國(guó)男子的特斯拉汽車在自動(dòng)駕駛模式下轉(zhuǎn)彎時(shí),并未察覺(jué)一輛拖車正在橫穿路口,以118公里的時(shí)速?gòu)街弊擦松先ィ厮估能図敱幌鞯?,車主瞬間殞命。
機(jī)器人能摧毀人類的血肉之軀,還會(huì)搶人類的飯碗。影片提到,機(jī)器人正在加速取代人,無(wú)論是在制造業(yè)、農(nóng)業(yè)還是服務(wù)業(yè),它們的身影越來(lái)越清晰?!爱?dāng)你聽(tīng)到政客們承諾提高就業(yè)率時(shí),他們不是在妄想就是在撒謊?!?/p>
人工智能的粉絲描繪了一幅烏托邦畫(huà)卷:機(jī)器人完成所有工作,人們只需坐享清福。你我的大腦將被上傳到云端,實(shí)現(xiàn)“永生”。
而現(xiàn)實(shí)是,自動(dòng)化導(dǎo)致越來(lái)越多的藍(lán)領(lǐng)勞動(dòng)者流離失所,留下來(lái)的工人為了保住飯碗,不得不更賣命地工作。一邊是效率更高、成本更低的機(jī)器人,一邊是一有不滿就罷工的工人,老板有什么理由對(duì)后者手下留情?
“機(jī)器人是好的”科多莫羅德這樣評(píng)價(jià)同類,“除了殺人和搶工作的時(shí)候”。
該讓AI掌控生殺大權(quán)嗎?
AI對(duì)人類的威脅日益膨脹,把生殺大權(quán)交到它手中更容易火上澆油。
使用殺傷武器的決定權(quán)一直掌握在人類手里,但AI的發(fā)展有朝一日或?qū)⒏淖兙置?。機(jī)器人可以更早發(fā)現(xiàn)敵人,并主動(dòng)出擊,消滅目標(biāo)。據(jù)美國(guó)《紐約時(shí)報(bào)》報(bào)道,美國(guó)、英國(guó)和以色列等國(guó)家都在嘗試賦予無(wú)人機(jī)和導(dǎo)彈自主權(quán)。
這與阿西莫夫定律背道而馳,對(duì)人工智能武器的猛烈抨擊洶涌而至。2015年,斯蒂芬·霍金及1000多名人工智能科學(xué)家聯(lián)名簽署了一封公開(kāi)信,警告說(shuō)“自動(dòng)化武器將像AK步槍一樣普及”,“在執(zhí)行暗殺、征服異族、破壞別國(guó)穩(wěn)定、減少外族人口等任務(wù)時(shí)扮演理想的工具”。
有人呼吁全面禁用不需要人類監(jiān)督的全自動(dòng)致命性武器,這項(xiàng)倡議受到澳大利亞、以色列、美國(guó)、俄羅斯和韓國(guó)等國(guó)家的阻擊,未能成為國(guó)際守則。
“我認(rèn)為自動(dòng)化武器不能遵守作戰(zhàn)規(guī)則。它們分不清敵我,也無(wú)法做出正確反應(yīng)?!庇?guó)謝菲爾德大學(xué)教授諾爾·夏奇告訴英國(guó)《每日郵報(bào)》,“比如,你不能說(shuō)本·拉登的性命等于50個(gè)老太太加20個(gè)孩子。人類必須親自判斷,不能讓機(jī)器代勞。我們不反對(duì)機(jī)器人,但讓殺人武器自己跑出去濫殺無(wú)辜,這太可怕了?!?/p>
《紐約時(shí)報(bào)》假想了這樣一幕:飄雪的寒冷冬日,兩國(guó)士兵正在進(jìn)行例行邊境巡邏,雙方都配備了手持機(jī)槍的機(jī)器人,它能識(shí)別出有威脅的人員和車輛。一名士兵不慎跌倒,觸碰了步槍扳機(jī)。對(duì)面的機(jī)器人聽(tīng)到槍聲,立刻判斷這是攻擊信號(hào)。一秒之內(nèi),雙方機(jī)器人在算法的指揮下同時(shí)向人類開(kāi)火。槍聲停止后,幾十名士兵的尸體散落在機(jī)器人周圍,兩個(gè)國(guó)家劍拔弩張。
對(duì)機(jī)器人士兵的擔(dān)憂并非空穴來(lái)風(fēng)。據(jù)英國(guó)“l(fā)istverse”網(wǎng)站消息,2007年,南非的一臺(tái)防空武器在演習(xí)期間無(wú)緣無(wú)故地開(kāi)火,殺死了9名士兵。經(jīng)查,“肇事者”可以在無(wú)人干預(yù)的情況下發(fā)現(xiàn)和打擊目標(biāo),甚至自行裝彈。防務(wù)工程師理查德·楊表示,此事絕非偶然,他曾多次目睹武器“發(fā)狂”,只是沒(méi)人喪命而已。
“超級(jí)物種”實(shí)現(xiàn)自我進(jìn)化
人工智能會(huì)擺脫人類的約束嗎?這是我們對(duì)AI最大的憂慮。
瑞典學(xué)者尼克·博斯特羅姆在《超級(jí)智能的演變、危險(xiǎn)和對(duì)策》一書(shū)中寫(xiě)道,人腦神經(jīng)元的工作速率約為200赫茲,信號(hào)傳遞速度為每秒120米;AI的工作速率為2000萬(wàn)赫茲,信號(hào)傳遞速度為光速。而且,人腦中神經(jīng)元的數(shù)目是有限的,而AI不受存儲(chǔ)空間限制。
一些高級(jí)AI可以自行修改源代碼,進(jìn)一步改進(jìn)算法提高“智商”,把人類遠(yuǎn)遠(yuǎn)拋在身后。因此,它們的智力幾乎必然高于人類。
Alphago-Zero是這類AI中的佼佼者。它是谷歌“阿爾法狗”家族的最新成員。Alphago的其他版本都以大量棋局作為學(xué)習(xí)基礎(chǔ),而Alphago-Zero跳過(guò)這步,在玩游戲的過(guò)程中學(xué)習(xí)如何玩游戲。誕生第1天,除了基本的規(guī)則,它對(duì)圍棋一無(wú)所知;第3天,它便打敗了戰(zhàn)勝過(guò)李世石的“大哥”Alphago Lee,戰(zhàn)績(jī)?yōu)?00:0;第40天,它超越了Alphago的其他所有版本,成為圍棋界的“獨(dú)孤求敗”。
科學(xué)家沒(méi)有為Alphago-zero預(yù)裝任何圍棋知識(shí),讓它如此強(qiáng)大的秘密是一種新的強(qiáng)化學(xué)習(xí)模式。它將AI的神經(jīng)網(wǎng)絡(luò)與強(qiáng)大的搜索算法結(jié)合,在一次次自我博弈中調(diào)整并更新神經(jīng)網(wǎng)絡(luò),唯一的目標(biāo)是贏者通吃。簡(jiǎn)而言之,Alphago-zero不再受人類既有知識(shí)的束縛,它是能自我學(xué)習(xí)和創(chuàng)造的“超級(jí)物種”。
Alphago-zero的自主進(jìn)化能力令人震驚,在臉譜的人工智能實(shí)驗(yàn)室中發(fā)生的一件事則讓所有知情者脊背發(fā)涼。2017年,訓(xùn)練機(jī)器人談判的研究人員發(fā)現(xiàn),這些機(jī)器人在用某種“非人類語(yǔ)言”交流。研究人員不得不調(diào)整指令,把AI之間的對(duì)話限制在人類能理解的范圍內(nèi)。
這種現(xiàn)象有點(diǎn)兒像雙胞胎的“隱語(yǔ)癥”——2011年,有人把一對(duì)雙胞胎的視頻上傳到“Youtube”網(wǎng)站:兩個(gè)蹣跚學(xué)步的孩童用無(wú)人理解的聲音喋喋不休地“聊天”。不過(guò),臉譜表示,與雙胞胎的“心靈感應(yīng)”不同,機(jī)器人似乎正在創(chuàng)造語(yǔ)言,這些語(yǔ)言具有連貫的結(jié)構(gòu)、特定的詞匯和語(yǔ)法。
美國(guó)《紐約客》雜志認(rèn)為,一旦AI全面超越人類,它或許不會(huì)對(duì)造物主感恩戴德,特別是當(dāng)我們不知如何向它們灌輸情感的時(shí)候。一個(gè)心冷如鐵又無(wú)所不能的存在,憑什么對(duì)一群只是因?yàn)樘鞖鈵毫泳筒幌肫鸫采习嗟纳飸延刑貏e的感情?
恐懼源自不確定的未來(lái)
在紀(jì)錄片《殺手機(jī)器人的真相》中,一些受訪者認(rèn)為機(jī)器人能促進(jìn)社會(huì)繁榮,另一些人擔(dān)心它只會(huì)加劇貧富差距。
已故科學(xué)家霍金曾向英國(guó)廣播公司表達(dá)自己對(duì)人工智能的擔(dān)憂。在他看來(lái),人工智能的充分發(fā)展可能是人類的末日,“幾乎可以肯定,在1000年到10000年之內(nèi),人類的生存將受到技術(shù)的嚴(yán)重威脅”。
霍金的想法得到了不少人的共鳴,包括特斯拉CEO馬斯克和比爾·蓋茨。馬斯克將開(kāi)發(fā)AI比喻為“召喚魔鬼”,相信超級(jí)智能可以把人類當(dāng)寵物豢養(yǎng)。
計(jì)算機(jī)科學(xué)家邁克爾·伍爾德里奇認(rèn)為,人工智能的算法在黑匣子里運(yùn)行,復(fù)雜程度超出常人認(rèn)知。如果我們不理解算法如何運(yùn)作,就無(wú)從預(yù)測(cè)AI何時(shí)失控。因此,自動(dòng)駕駛汽車或機(jī)器人在關(guān)鍵時(shí)刻會(huì)“失心瘋”,讓人類命懸一線。
人工智能的支持者同樣大有人在。克里斯多夫·沃爾特是一名德國(guó)機(jī)器人工程師,他并不覺(jué)得自動(dòng)化會(huì)跟人類搶飯碗?!拔覀兊哪康牟皇怯脵C(jī)器人代替工人,而是要為工人提供支持?!彼诩o(jì)錄片中強(qiáng)調(diào)。
一個(gè)好消息是,經(jīng)過(guò)多年研究,科學(xué)家仍然沒(méi)有發(fā)現(xiàn)機(jī)器人在需要情感交流的工作中比得上人類,例如護(hù)理。盡管如此,在日趨老齡化的社會(huì)中使用機(jī)器人護(hù)工,確實(shí)能讓各國(guó)政府節(jié)省大筆養(yǎng)老和醫(yī)療開(kāi)支,這比對(duì)抗“終結(jié)者”更現(xiàn)實(shí)。
美國(guó)《時(shí)代》雜志認(rèn)為,人工智能堪稱當(dāng)代最熱門(mén)、最難理解、最具爭(zhēng)議的技術(shù)之一。你無(wú)法看到它或觸摸它,甚至可能意識(shí)不到自己正在使用它,比如當(dāng)你家里的恒溫調(diào)節(jié)器設(shè)定適合的溫度,或者手機(jī)自動(dòng)糾正你輸入的字母時(shí)。
半個(gè)世紀(jì)以來(lái),人類在人工智能幫助下進(jìn)步;如今,AI成為主角的時(shí)代正在到來(lái)。我們身處的世界信息量巨大,只有近乎無(wú)限的計(jì)算能力才能應(yīng)付。人工智能可以切實(shí)幫人類克服很多棘手的課題,涵蓋通信、能源、氣候、醫(yī)療、交通等領(lǐng)域。人工智能技術(shù)終將適應(yīng)人類,給社會(huì)帶來(lái)深刻變化。
也許,恰如霍金生前所言:“超級(jí)人工智能的興起將是人類有史以來(lái)最好或最壞的事情。”如霍金生前所言,“我們還不知道是哪一個(gè)?!?/p>
美國(guó)小說(shuō)家洛夫克拉夫特說(shuō)過(guò):“人類最古老、最強(qiáng)烈的恐懼源于未知?!边@或許才是我們?nèi)绱撕ε氯斯ぶ悄艿脑颉?/p>
邱寶珊薦自《教師博覽》