機器人,正以微妙的姿態(tài),進入我們的社會生活。
美國主播Kai Cenat,花7萬美元買了一臺中國宇樹科技的機器人G1。直播時,他牽著G1的手,走出了家門,跌跌撞撞地來到戶外。Cenat苦口婆心地勸G1坐上自己的超跑,但它有些笨拙,像個蹣跚學步的嬰兒,動作僵硬,時不時跌倒,或者愣在原地,一時找不著北。Cenat只好抱著它坐上副駕,唱著歌,一起來到繁華街區(qū)。大街上,G1挨個與路人握手。開車路過的人搖下車窗,向Cenat和他的機器伙伴問候:“多么美好的夜晚?!?/p>
現(xiàn)代生活已經(jīng)高度智能化,各式機器人遍布城市生活和生產(chǎn)的各個環(huán)節(jié)和角落,但它們更多是發(fā)揮著實用價值,無須具備滿足既定功能之外的特定形制。而現(xiàn)在,人形機器人,已經(jīng)開始雙足直立行走,伸手便與人打招呼和嘮嗑。它們來到馬路,步入商場和餐廳,或者作為家庭成員進入客廳和臥室。
我們當然知道,如此場景只是來自廠家的演示視頻,或者視頻創(chuàng)作者和主播們的嘗鮮,本質上,這也是講述故事的一種。而換個角度,這又何嘗不是一種“預演”:機器人時代的前夜,我們必須思考一下,我們?nèi)绾卧谏鐣睦韺用媾c之相處?我們該怎樣構建一個人機共存的未來圖景?
Cenat和G1的故事還沒有結束。為了搞“節(jié)目效果”,他在直播中對G1拳打腳踢,引得眾人尖叫狂歡。評論區(qū)清一色指責他虐待機器人,稱“一切都很有趣,直到藍光變成紅光”。意思是,它們終有一天會陷入狂暴,而Cenat將是機器人反抗人類的罪魁禍首。
“機器人叛亂”的論調(diào),并不新鮮,以科幻小說和科幻電影為主的流行文化,早已將其根深蒂固地寫進人們的潛意識。這種智械恐懼,暗含著一個倫理悖論:我們需要有道德的機器人,標準是它們是否會傷害人類。但人類社會的根基,卻不是只靠道德來維系,人也難以自大到可以標榜自身道德無瑕。
所以,悖論無關機器人,而是根源于人對自身的恐懼: 如何“走進那個良夜”,如何避免“歡愉的殘暴”,不取決于機器人的道德,而關乎制造機器的道德。
怎么面對機器人,首先是個文化問題,其次才是技術問題。
劇作家卡雷爾·恰佩克創(chuàng)造“robot”一詞時,借用了捷克語“ robota ”,原意是苦役、勞工或仆人。他筆下的萬能機器人,的確是人類的奴隸,最終也不意外地完成了對人類的叛變和屠殺:好吃懶做的人類,憑什么可以奴役全方面碾壓他們的新物種?
1930年代開始,歐美科幻小說風靡一時,邪惡機器人反叛人類的戲碼,在流行讀物中反復上演,同時進化出“邪惡人類壓迫機器人”等變體。于是,這才有了1950年代阿西莫夫在小說《我,機器人》中,制定了機器人三定律:
1. 機器人不得傷害人類,或坐視人類受到傷害;
2. 除非違背第一法則,機器人必須服從人類的命令;
3. 在不違背第一及第二法則下,機器人必須保護自己。
阿西莫夫是科幻小說家,而不是倫理學家。這些粗糙的定律,毫無疑問是存在缺陷的,比如機器人和人在定義上的模糊性—畢竟,高度發(fā)達的文明里,機器人和人或許并無外在分野。再如,機器人必須服從人類的主宰,這種道德義務的極端性,本身也不可能抵達他所設想的“碳文明”和“硅文明”的共存共生。
某種程度上,它們并非定律,而是一種小說世界觀的設定,他自己正是憑著不斷給這些設定的漏洞打補丁,出了一部又一部的小說,甚至還在后來的《機器人與帝國》中總結出“第零定律”:“機器人必須保護人類的整體利益不受傷害,其他三條定律都是在這一前提下才能成立。”
阿西莫夫理想中的機器人,小心翼翼地恪守著“為人類福祉而努力”這一職責,既不威脅人類,也不引人同情,但卻是絕對服從或者聽命于人類。對于有自我意識的新物種,這種道德上的專制和不對等,也過于天真和幼稚。
正是這樣一種用于創(chuàng)作虛構作品的機器人學(Robotics),對現(xiàn)實產(chǎn)生了巨大的影響力。阿西莫夫還自豪地表示,當時全世界頂尖的自動化公司,都是自己的忠實讀者。
此后眾多科幻作品,如《2001太空漫游》《終結者》等,盡管其中機器人角色形象已經(jīng)轉變,但那種對立結構始終沒變,無非就是機器人終于舉起了屠刀—“這些殘暴的歡愉,終將以殘暴收場”。
現(xiàn)代主義的核心動力,是對理性和工業(yè)化的批判,但西方社會的機器人恐懼,還有更深的淵源。
西方文化注重主體性,以人為中心,人是自然和客體世界的主導者、創(chuàng)造者和塑造者。這與基督教的教義相呼應,上帝讓人成為塵世萬物的標尺,人類中心主義在俗世具有了宗教倫理的合法性。
然而,機器人也好,人工智能也罷,在大眾的幻想中,它們總是比人類更加理性、更加智能、力量也更加強大。一旦這種物我對立失控,自然而然就引向一種基督教式的末日審判。
人類私造擁有“靈魂”的機器人,是某種程度上的墮落和僭越,畢竟,造物是上帝的權能,他并未授予人類同樣的權利。一如人性之惡將由世界末日來終結,機器人時代也有它的末日審判:世界和人類的統(tǒng)治秩序逆轉,人類滅亡,機器人成為新的主宰。
此情此景,在第一次工業(yè)革命時期亦有記載。彼時的蒸汽動力火車還叫“鐵馬”。巨大的噪聲、滾滾的濃煙,以及在當時可稱得上極快的速度,讓它看上去如同來自地獄的怪物,成為人類傲慢的象征,是對上帝所締造的秩序的挑戰(zhàn)。
機器人毀滅人類的恐懼,不斷透過科幻小說和科幻電影具象化,一個直接結果就是,歐美國家早期極少研發(fā)“人形機器人”,在焦慮、悲觀和恐慌中,小心翼翼地避免著對造物主的褻瀆。
一個遙遠的東方島國,日本,卻一度在這條路上一路狂奔。
當歐美國家大肆渲染機器人與人類勢不兩立之時,日本則普天同慶地迎來了他們自己的機器人英雄—鐵臂阿童木。
這部漫畫創(chuàng)作于20世紀50年代初,彼時,戰(zhàn)敗的日本還籠罩在陰云中。日本政府將戰(zhàn)敗歸結于科技敗北,于是大力推崇科技萬能論,全民陷入技術狂熱。
阿童木這個形象,源于漫畫家本人手塚治蟲“和平利用原子能”的夢想,英文“Atom”,即“原子”之意。這正好擊中了彼時日本國民“恐核”同時又狂熱于技術的集體情緒。
一如阿西莫夫的機器人三定律,手塚治蟲也虛構了一套機器人倫理規(guī)范—《機器人法》:機器人是為了讓人類得到幸福而存在;機器人不得傷人、不得殺人等。
阿童木,正是這樣的完美化身,他遍閱人性之惡,但依然對人類抱有希望,也愿意為人類犧牲自己,甚至為了拯救人類家園,毅然駕駛火箭將抑制核聚變反應的裝置射向太陽。
“機器人作為人類好朋友”的觀念,由此深入日本人的心中。這在后來的 《哆啦A夢》(1973)和《阿拉蕾》(1981)中,更是淋漓盡致,也更加天真爛漫。
對于彼時的日本人來說,機器人和人類融合在一起,是一個值得狂喜的未來。如果這個國家由更強大的機器人來統(tǒng)治,何嘗不是一件好事?
而事實上,手塚治蟲并非絕對的技術樂觀主義。他還塑造了大批不同類型的機器人,表現(xiàn)出技術失控和人性被技術裹挾的存在主義危機,也提出了對當時技術狂熱的反思。
有意思的地方在于,同樣是嘗試為本國科幻作品“立法”,同樣是試圖構造人機共存的理想社會,阿西莫夫和手塚治蟲各自締造的文化源流,流向了截然相反的方向。這背后,同樣有更深的淵源。
西方人對“人性”這一概念的理解,相對受限。在他們看來,人性是人類至高無上的特殊產(chǎn)物,把人類的屬性歸于物或動物,是幼稚的、原始的,甚至是極其糟糕的。但日本有著廣泛的泛靈論信仰基礎。
正如手塚治蟲所言,日本人并不把人這個超級生物與周圍世界區(qū)別開來?!叭f物為一,我們很容易接受機器人,就像周圍廣闊世界中的昆蟲或巖石等其他東西一樣?!?/p>
視野拉回現(xiàn)實,日本眾多關于機器人與人工智能的書籍中,kokoro都是一個核心詞匯。這是一個無形的,難以捉摸的概念。在多數(shù)情況下,它意味著一種有情眾生的心理、情感和精神狀態(tài)。若對應英文,則是“heart-mind”,亦即心智,但卻不是心(情感)與智(智力)的二元對立,因為它同時也象征著精神、記憶,甚至指涉心靈、感性、情愛,乃至某種內(nèi)在意義的概念。
所以,日本機器人界并不避諱要把機器人做得像人,甚至強調(diào),人與機器人的互動,要傳遞出“kokoro”的感受,并試圖在工程學和心理學之間構筑橋梁。
最為典型的案例,便是大阪大學著名機器人專家石黑浩的機器人Geminoid。他并不著重追求機器人的自我意識, 畢竟技術條件并不允許。 他認為,機器人不是“ 自我意識”的工具,而是“反映人類動作的鏡子”,因此機器人要實現(xiàn)的也不是意識,而是“存在感”和“現(xiàn)場感”。通過動捕技術和執(zhí)行器,他的機器人栩栩如生,可以模仿面部表情,眼皮微微跳動,胸部隨呼吸起起伏伏。
軟銀CEO孫正義說,制造一臺擁有kokoro的機器人,能讓家庭的幸福變成自己的幸福。他旗下的機器人Pepper,甚至當上了主持佛教葬禮的僧人,宣稱機器人也可以具備佛性。但這種過度玄學的概念炒作,以及近乎唯心主義的路線,并沒有讓日本的機器人產(chǎn)業(yè)走得更遠。
機器人作為人類好伙伴的美好愿景,究竟還是因為AI大模型格局的改天換地,讓日本機器人產(chǎn)業(yè)逐漸走向失落。
現(xiàn)代世界的思想邏輯,建立在西方17—18世紀關于人類能動性和個人自由意志之上,這一套觀念架構,如今影響著全世界。
即便是試圖在人與機器人中構建萬物有靈論的日本,也在后來遭遇了主體性危機。人與機器和諧共生,終究不過特殊時代的黃粱一夢。人,如何能對冰冷的技術牢籠視而不見?更何況,阿童木這一類角色的底色,還暗藏著“核爆”的巨大陰影,那是日本人自身不愿直面的歷史幽靈。
1995年上映的劇場版《攻殼機動隊》,主人公草薙素子,只留下大腦和脊髓的一部分,剩下全身都已經(jīng)義體化,到底是人?還是機器人?她自己也陷入困惑和危機。這部作品影響深遠,不僅奠定了此后日本科幻作品的母題,也打入了歐美社會的主流文化。這種后人類社會的身體與機器界限的模糊,底色更加沉重、灰暗,掩蓋了戰(zhàn)后那段特殊時期的樂觀和天真。
賽博格危機的背后,人和人性的消亡,變成了一個不分文化語境的哲學命題。
牛津哲學教授盧西亞諾·弗洛里迪引用弗里德爾·韋納特的著作《哥白尼、達爾文、弗洛伊德:科學歷史與哲學上的革命》說:哥白尼的日心說動搖了人是宇宙中心的假設;達爾文的進化論顯示人和其他物種一樣依靠自然選擇進化演變;弗洛伊德的精神分析顯示人類心靈除理性之外,還受到非理性的潛意識的影響。
弗洛里迪和其他學者一樣,也普遍認為,人工智能和機器人挑戰(zhàn)了人類的優(yōu)越性。但在我看來,這里還有另一層焦慮,即人類道德的有效性和延續(xù)性。也就是說,我們非常害怕我們無法將自身引以為傲的道德能力,傳導給我們的“孩子”—機器人,這是技術泛濫時代里“道德可能失效”的一種具象化表達。
美國匹茲堡大學科學哲學和科學史系教授科林·艾倫,在與耶魯大學教授溫德爾·瓦拉赫合著的《道德機器》一書中指出,機器人的道德,可以分為三種:其一,機器人具有與人類完全相同的道德能力;其二,機器人需要對道德相關的事實具有敏感性,并且能依據(jù)事實進行自主決策;第三,機器人設計者在最低層面上考慮機器的道德,并不賦予其關注道德事實并作出決策的能力。
三種道德中,具有致命魅惑性的,是第一種。
道德的本質,是一種基于感知和共情的,對他者的想象。孟子說惻隱之心,亞里士多德說此乃本性,屬于人類最本質的東西,但對于機器人,目前純粹是科學幻想,我們至今不知道怎么在一種“新物種”身上實現(xiàn)它。還是說,我們所珍視的這一點,會被機器人所取代?
弗洛里迪把以人工智能和機器人為代表的第四次工業(yè)革命,看作人類重新定位人性和自己在宇宙中的位置的演變過程的一種延續(xù)。在他看來,這是對人類自戀的又一次打擊。
今天,我們試圖理清機器人與人類道德的糾纏,其實是試圖找尋一種“方案”,讓人能夠在技術浪潮中尋得自身的棲息之地。阿西莫夫和手塚治蟲是這樣,基督教的人類中心主義,神道教與佛教的萬物有靈,也無不如此。
儒家講天地人,卻又“不語怪力亂神”,可能這是中國人對機器人沒那么焦慮的原因。畢竟,除了極致的實用主義,中國哲學還存在一種“關系理性”:人道與天道相貫通,人居中,可參贊化育。
但技術變革的巨大浪潮里,人工智能和機器人來勢洶洶,也必然會將我們推向對“何為人”“何為物”“何為人與物”等基本價值的重新審視。在我們與機器人的未來里,仍有無數(shù)種可能性等著“參贊化育”。