牛綺思
人們?cè)敢馀汕矚⑷藱C(jī)器到前線作戰(zhàn),而不愿讓自己子女戰(zhàn)死沙場(chǎng)。但是,人們卻又不希望看到敵人派殺人機(jī)器來追殺自己。那么,人類到底要不要擁有這種“殺手機(jī)器人”(killer robots),即所謂的致命的自主武器(lethal autonomous weapons)?
對(duì)于這件事,特斯拉和SpaceX CEO埃隆·馬斯克的立場(chǎng)可謂異常堅(jiān)定:禁止。
“永遠(yuǎn)不應(yīng)將人類生命的決定權(quán)委托給機(jī)器?!?/p>
“致命的自主武器,在沒有人為干預(yù)的情況下選擇和參與目標(biāo),將危及每個(gè)國(guó)家和個(gè)人的穩(wěn)定。”
“我們既不參與也不支持致命自主武器的開發(fā)、制造、貿(mào)易往來或使用。”
近日,馬斯克以及谷歌頂級(jí)人工智能研究團(tuán)隊(duì)Deep Mind創(chuàng)始人領(lǐng)銜的多家科技界大佬,與來自數(shù)百家公司的2000多名人工智能(AI)及機(jī)器人領(lǐng)域的科學(xué)家,在斯德哥爾摩國(guó)際AI聯(lián)合會(huì)議上聯(lián)名簽署《致命性自主武器宣言》,誓言絕不將他們的技能用于開發(fā)自主殺人機(jī)器。
這已經(jīng)不是馬斯克第一次表達(dá)如上的憂慮了。
2017年7月,馬斯克在出席一場(chǎng)由美國(guó)各州州長(zhǎng)參加的會(huì)議時(shí)曾強(qiáng)調(diào),“我一直在敲響警鐘,等到哪天機(jī)器人真的走上街頭、屠殺人類時(shí),大家會(huì)不知所措?!?/p>
隨后的8月,馬斯克就與100多名AI領(lǐng)域領(lǐng)袖人物簽署公開信,敦促聯(lián)合國(guó)阻止這項(xiàng)技術(shù)改變我們所熟悉的沖突模式。
這封公開信中提到:“致命的自主武器有可能成為戰(zhàn)爭(zhēng)中的第三次革命。一旦它們發(fā)展起來,可能導(dǎo)致武裝沖突以比以往任何時(shí)候更大的規(guī)模進(jìn)行,而且速度比人類所能理解的還要快。”“這些自主武器可能成為恐怖武器,比如獨(dú)裁者和恐怖分子可能對(duì)無辜人群使用?!?/p>
有分析認(rèn)為,馬斯克認(rèn)為AI威脅人類文明的觀點(diǎn)很大程度上可能是受暢銷書《超級(jí)智能》作者尼克·博斯特羅姆的影響。2014年8月,馬斯克讀完《超級(jí)智能》,便在社交媒體Twitter上公開表示要慎用人工智能,稱其比核武器還要危險(xiǎn)。
彼時(shí),他在參加《名利場(chǎng)》舉辦的活動(dòng)時(shí),稱機(jī)器人可能像刪除垃圾郵件一樣“刪除”人類。之后他又發(fā)表“機(jī)器人威脅論”,稱機(jī)器人會(huì)在短短的5年內(nèi)對(duì)人類造成嚴(yán)重威脅。
到2015年,馬斯克、物理學(xué)家史蒂芬·霍金以及蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克等3000多名AI研究人員簽署公開信,要求禁止開發(fā)“超過人類控制意義之外的自主武器”。當(dāng)時(shí)的研究人員們就說,AI軍備競(jìng)賽是個(gè)“糟糕的主意”。
馬斯克還捐贈(zèng)1000萬美元,用來研究懂得“倫理道德”的機(jī)器人,以確保他們不會(huì)毀滅人類。比如,幫助人工智能系統(tǒng)通過觀察我們的行為,從而了解人類需求;教授人工智能如何向我們解釋它們做出決定的理由,就像機(jī)器人電影《超能查派》中查派能夠快速學(xué)習(xí),吸取人類的教導(dǎo)那樣。
2016年,馬斯克成立了腦機(jī)接口公司Neuralink,追求一種叫做“神經(jīng)織網(wǎng)”(neural lace)的技術(shù),在人腦中植入微小的腦電極,有朝一日用來上傳或下載人的思想。
“我認(rèn)為可以通過改進(jìn)大腦皮層和數(shù)字設(shè)備之間的神經(jīng)元連接,來有效地把AI與人融合在一起,你將成為‘AI—人類混合體。此外,如果這種形式可以得到普及的話,我們就不用擔(dān)心一些邪惡的AI獨(dú)裁者了,因?yàn)槲覀兙褪茿I的集合。這是我能想到的最好的方法?!瘪R斯克說。
現(xiàn)實(shí)中,先進(jìn)智能化武器確實(shí)存在。據(jù)了解,美國(guó)不僅研發(fā)了UTAP-22“鯖鯊”、XQ-222“女武神”等智能化無人機(jī),還先后研發(fā)了陸上“翼人”機(jī)器人車輛、海上水面無人攻擊艇、潛射型機(jī)器人、多功能無人潛航器、由海向陸的MUX無人武裝直升機(jī)等,形成以人工智能技術(shù)為基礎(chǔ)、以集群智能技術(shù)為連接的無人兵團(tuán)。俄羅斯也研發(fā)了“天王星”、“平臺(tái)”小型無人戰(zhàn)車等智能化作戰(zhàn)平臺(tái)……
據(jù)不完全統(tǒng)計(jì),目前全球已超過60個(gè)國(guó)家的軍隊(duì)裝備了軍用機(jī)器人,種類超過150種。照此發(fā)展趨勢(shì),未來軍用機(jī)器人在戰(zhàn)場(chǎng)上成建制規(guī)?;鲬?zhàn)也未必不可能。
在2017年底舉行的聯(lián)合國(guó)特定常規(guī)武器會(huì)議上,播放了一部血腥的微電影:影片中,人類發(fā)明了“機(jī)器殺人蜂”,它能自己“飛行”,也可以隨機(jī)運(yùn)動(dòng),用來反狙擊,能夠在瞬間殺死一群無辜的人。它自帶廣角攝像頭、傳感器、面部識(shí)別,且在其中部,還有3克炸藥,一擊即中,極端致命。
目前的武裝無人機(jī),還是由士兵操控的。而這種“機(jī)器殺人蜂”不用人類操控,能夠根據(jù)預(yù)定條件,自主搜索和判斷是否殺死人類。這是人工智能武器的厲害之處,也是它的可怕之處。
美國(guó)伯克利大學(xué)教授、AI領(lǐng)域資深專家斯圖爾特·羅素警告說,“如果這些機(jī)器被賦予殺人的能力,將對(duì)我們的安全與自由造成毀滅性的打擊?!?h3>馬斯克是杞人憂天嗎
Facebook創(chuàng)始人扎克伯格一直被外界看作是馬斯克在AI觀點(diǎn)上的反對(duì)者。2017年7月,扎克伯格指責(zé)馬斯克所描述的末日恐慌是消極的、不必要的,“在某種程度上,這是相當(dāng)不負(fù)責(zé)任的行為。未來10年,人工智能將大幅改善人類的生活。”馬斯克隨后回應(yīng)稱,已和扎克伯格談過,他對(duì)人工智能的理解有限。
谷歌母公司Alphabet執(zhí)行董事長(zhǎng)埃里克·施密特在2017年也反擊過馬斯克的AI威脅論是杞人憂天。
“如果你覺得人工智能在智商上超越人類后就將毀滅我們的種族,那你科幻電影一定是看多了——難道人類會(huì)傻到察覺不了AI造反的蛛絲馬跡?直接斷了它們的電源就好?!笔┟芴厝缡钦f。
不過,《機(jī)器人的興起:技術(shù)和失業(yè)未來的威脅》作者表示,對(duì)于人工智能對(duì)人類構(gòu)成生存威脅這件事,馬斯克的擔(dān)憂是合理的,也不應(yīng)該被忽視。但這種擔(dān)憂要在至少50年之后才可能會(huì)出現(xiàn)。
2015年7月,德國(guó)大眾汽車公司一家工廠里,一臺(tái)新型協(xié)作機(jī)器人殺死了一名22歲的裝配技術(shù)員。當(dāng)時(shí)他與一名同事合作安置機(jī)器人,但被機(jī)器人擊中胸部,并被抓起、重重摔在一塊金屬板上,最終因傷重不治身亡。當(dāng)時(shí),大眾發(fā)言人推斷事故是由人為錯(cuò)誤導(dǎo)致,并不是機(jī)器人“蓄意殺人”。
盡管這可能只是一起安全事故,但關(guān)于“機(jī)器人殺人”的爭(zhēng)論再度出現(xiàn)。未來機(jī)器人對(duì)人類的威脅,除了在工廠與人類搶奪飯碗外,還可能成為人類的敵人甚至是“終結(jié)者”。
對(duì)此,許多網(wǎng)友腦洞大開。比如,有的網(wǎng)友隨即聯(lián)想到《復(fù)仇者聯(lián)盟2》里的奧創(chuàng),剛一出世就對(duì)自己的創(chuàng)造者懷著莫名其妙的憎恨,一心想要消滅全人類。還有網(wǎng)友擔(dān)心“這個(gè)世界上很多機(jī)器人其實(shí)已經(jīng)有能力通過圖靈測(cè)試(編者注:如果有超過30%的測(cè)試者不能確定出被測(cè)試者是人還是機(jī)器,那么這臺(tái)機(jī)器就通過了測(cè)試,并被認(rèn)為具有人類智能),只是他們?cè)诩傺b不能”。
責(zé)編:張璐晶