最近,“ 會聊天的機器人”ChatGPT 火爆網(wǎng)絡,很多人驚嘆于這款人工智能的“能侃”:給ChatGPT 出個題目,它能很快回你一篇小作文,且語言風格、敘述邏輯都不像之前的AI(人工智能)那樣生硬。于是有朋友跟我打趣:“擔不擔心ChatGPT 再發(fā)展之后,把你寫作的飯碗搶了?”對于這種問題,我一般回答:“不擔心,但我擔心一些更要命的事。”
說起人工智能,我大學剛畢業(yè)那會兒,因為自動駕駛被炒得火熱,便經(jīng)?;孟朐龠^幾年,駕駛座被AI 接管,我就不必費勁考駕照了。可是,朋友的一句話改變了我的想法。
“車還是要學的,可預見的未來,AI 永遠不可能代替人類把握方向盤——因為‘電車難題’無法解決。”他說。我恍然大悟,乖乖地去考了駕照。
“電車難題”,最早由英國當代哲學家菲利帕·福特提出,其經(jīng)典表述是,一輛行駛中的電車,在它前面的軌道上綁著五個人,電車失控,無法停下,眼看就要把這五個人碾死。這時,你剛好站在電車軌道的操縱桿旁邊。只要你拉下操縱桿,列車就會切換到備用軌道上??墒?,備用軌道上也有一個人被綁著。這個操縱桿,拉還是不拉呢?
“電車難題”問世以來,引發(fā)很多倫理學和法理學討論,爭到最后各方的共識是,人要為自己的選擇負責?,F(xiàn)實中,如果有人面臨類似的兩難抉擇,無論最終的選擇是什么,一定會不自覺地追問:為什么當時要這么選?
很多高階的判斷問題,如果涉及倫理、道德、審美,無法被自動化的原因,就是它其實怎么選都對,怎么選也都錯,只有當人類面臨那個場景,自己做判斷時,屬于他的、能夠讓他安心的“正確答案”才會被揭曉。而自動駕駛代替人類的難點就在這里——駕駛過程中經(jīng)常會面臨“電車難題”。
比如,很多交通事故發(fā)生在車輛高速行駛中,前方突然出現(xiàn)人或者動物橫穿馬路。在這種情況下,很多司機會下意識打方向盤,結果常是車輛失速側翻,要躲避的人或動物沒事,但司機及其親友車毀人亡。
人工智能也許可以通過模擬運算,計算出進行規(guī)避動作后,馬路上的行人幸存概率增加,而司機的幸存概率驟減。而如果直接撞過去,行人八成會沒命,但司機可以幸存。人工智能真的可以代替駕駛者做“直接開過去”的選擇嗎?這個選擇日后可是要承擔法律和道德追問的。
因此,人工智能無法代替人的根本原因,不在于它能否深度模仿人類的思維,而在于它不能代替人進行這種判斷。開車如此,寫文章更是如此。
為了寫這篇稿子,我專門跟ChatGPT 聊了聊,聊的過程中也在反思——作為寫作者,寫一篇文章,它對讀者的價值究竟在哪里?這些價值有可能被ChatGPT 等AI 代替嗎? 反思后我發(fā)現(xiàn),一篇文章,至少有三層價值。
第一是“知識價值”。也就是把具體現(xiàn)象、相關數(shù)據(jù)或史料打包匯總,給讀者以開闊視野的作用。這一層價值,ChatGPT已經(jīng)可以部分做到。例如,當你向它提問某件事時,它能把事情的前因后果準確、客觀且較有條理地提供給你,這種能力甚至已經(jīng)超越了人類寫作者。
但ChatGPT 尚沒有“深度聯(lián)想”能力,它只能就事論事,從人工智能聊到電車難題等這種開腦洞的創(chuàng)新性聯(lián)想,它是不具備的。于是你會發(fā)現(xiàn),跟ChatGPT 聊天缺少趣味。因為人類思維的有趣,是建立在對多種知識的“通感”上。“綠楊煙外曉寒輕,紅杏枝頭春意鬧?!薄疤一ㄌ端钋С?,不及汪倫送我情?!薄按阂狻焙汀棒[”之間,友情和水深之間,本來沒有邏輯關聯(lián),但人類的思維能通過這種合理的“大腦短路”將其構建聯(lián)系,這就是思維的樂趣。AI 能否通過深度學習或算法演進達成這種“通感”式的聯(lián)想,我對此持保留態(tài)度。
第二是“情緒價值”。嬉笑怒罵之于文章,恰似酸甜苦辣之于菜肴。僅有知識沒有情緒的文章,如同只有營養(yǎng)沒有味道的菜。而目前的人工智能是很難模仿人類的情緒的。
在我看來,情緒的本質(zhì)其實也是一種人類才能做出的取舍和判斷。情緒的產(chǎn)生與共鳴,源于我們選擇性地關閉一部分認知甚至常識。
比如憤怒,《滿江紅》的名句“壯志饑餐胡虜肉,笑談渴飲匈奴血”,讀來讓人很提氣。但如果較真,吃人肉、喝人血和儒家痛斥的“率獸食人”的區(qū)別在哪兒呢?作者為什么可以屏蔽這部分常識,卻依然讓人共情呢?這說明人類“憤怒”的背后,有復雜的倫理取舍與判斷,AI 無法自主模仿和使用這些情緒。
第三層是“判斷價值”。跟ChatGPT 聊天時,會發(fā)現(xiàn)一個有趣的現(xiàn)象:一旦你問它如何評價一些敏感的歷史人物或者爭議事件時,它會立刻丟棄原本盡力模仿人類聊天的風格,說它只是聊天工具,無法對此做出評述。ChatGPT 這樣說,并非開發(fā)者為了明哲保身,故意不談。而是因為這類話題談到最后,往往都涉及“電車難題”式的取舍與判斷,所以無法交給AI 去做。
因此,在知識層面,AI 暫時不具備將不同體系知識進行通感和創(chuàng)新的能力;在情緒層面,AI 很難模仿人類準確把握在什么時機關閉何種認知以達成哪種情緒;在判斷層面,AI因為不能具有人格,無法進行復雜的價值判斷。
雖然我并不擔心ChatGPT砸我的飯碗,但在和它聊過之后,我覺得另一種人們仰賴的東西,很可能會隨著人工智能的變革而過時、落伍。
你小時候有沒有過這樣的經(jīng)歷?逢年過節(jié),親戚朋友聚在一起,興之所至,把小孩子叫到跟前表演“特長”。仔細想想,這些“特長”其實都是高度技術性的。然而,在技術日新月異的發(fā)展下,AI 在這一類技能方面已經(jīng)逐漸超越了人類。
唐詩宋詞、圓周率記得再熟,趕得上網(wǎng)絡搜索嗎?四則運算,甚至徒手開平方算得再快,趕得上計算機嗎?在大街上演奏一首小提琴曲,如果無法融入自己的情感和演藝,拼得過帕爾曼、呂思清、帕格尼尼嗎?
過度注重技術性技能,是前信息時代甚至前工業(yè)時代的培訓方式。信息時代,尤其是人工智能發(fā)展后,這些“體力勞動式的腦力勞動”,正在被迅速取代和淘汰。
我曾經(jīng)在媒體工作,幫實習生改稿子時發(fā)現(xiàn),他寫的文章就是“ChatGPT 風格”——數(shù)據(jù)準確、資料翔實,但通篇讀下來,一點味道沒有。
我當時說:“文章寫得挺用心的,但能不能再加點好玩的東西?”他很不解地問我:“什么叫‘好玩的東西’?”
當時我無言以對,而今想清楚了。在知識層面,就是那種“通感”式的新奇有趣的聯(lián)想能力;在情緒層面,就是那種蘊含其中、引而不發(fā)的“文氣”;在判斷層面,就是那種未必一定正確,但能夠給讀者以啟發(fā)或暢快感的見解。這些是AI 無法模仿的。
總而言之,人工智能突飛猛進,對腦力勞動者來說,其實不是毀滅一切的“末日天劫”,更像是一場“洪水”——當洪水襲來時,住在低地上的人們遭了殃,而處在高地上的人們卻可以安然無恙。
我們所要擔憂的問題是,過去過于注重對“技術性”技能的培養(yǎng)和選拔,讓太多人才成了“低地上的人”。洪水沒有到來的時候,我們尚能安然無恙??墒?,萬一人工智能的洪水襲來,將低地淹沒,高地留存,局勢很可能會驟然變化。
(摘自“海邊的西塞羅”微信公眾號,本刊有刪節(jié))