塞思·鮑恩
近期,人工智能領(lǐng)域的各項進展堪稱一日千里。對此有種世界末日論,說人工智能驅(qū)動的機器將智勝人類,接管整個世界并殺死所有人。
這種描寫常見于科幻小說中,但也經(jīng)常被否定,因為人類仍然牢牢掌控著局面。但許多人工智能專家則非常嚴肅地看待這一末日前景,這種態(tài)度是完全有必要的。
為了解風險究竟在哪里,就要去理解“弱人工智能”(narrow AI)和“通用人工智能”(Artificial General Intelligence)的區(qū)別。弱人工智能一次只能在一個或幾個領(lǐng)域運作,因此雖然它可能在某些特定任務(wù)中勝過人類,但仍然處于人類控制之下。
相比之下,通用人工智能可以跨越多個領(lǐng)域進行思考,因此可以在復制許多人類智力技能的同時,保留計算機的所有優(yōu)點,比如完美的記憶力。借助精密復雜的計算機硬件,通用人工智能可能會超出人類的認知。事實上,通用人工智能的發(fā)展似乎是無上限的。
就目前而言,大多數(shù)人工智能都是弱人工智能。事實上,即使是目前最先進的系統(tǒng)也只具備有限的通用性。
許多知識淵博的人,對高級通用人工智能的前景不屑一顧。其他人則認為比肩人類的人工智能在遙遠的未來可能實現(xiàn),但現(xiàn)在開始為之擔憂還為時過早。也有一批杰出學者擔心,通用人工智能會對人類構(gòu)成嚴重甚至事關(guān)種族存續(xù)的威脅。由于辯論雙方都有龐大的專家團支持,因此我們其他人應(yīng)該對此保持開放的態(tài)度,不必提前站隊。
此外,通用人工智能已經(jīng)成為大型研發(fā)項目的重點。我最近完成了對通用人工智能研發(fā)項目的調(diào)研,涵蓋六大洲30個國家中的45個項目。許多研究項目都由百度、臉書、谷歌、微軟、騰訊等大型企業(yè)以及卡內(nèi)基梅隆大學、哈佛大學,斯坦福大學以及中國科學院等一流大學來執(zhí)行。如果簡單地假設(shè)這些項目都會失敗,顯然是不智的。
考量通用人工智能潛在威脅的另一種方法,則是將其與其他災(zāi)難性風險進行比較。在1990年代,美國國會認為應(yīng)當指示美國宇航局去追蹤那些可能碰撞地球的大型小行星,即便在一個世紀內(nèi)發(fā)生這種情況的幾率僅為1/5000。在通用人工智能方面,根據(jù)研發(fā)速度以及專家關(guān)注度的強弱,在下個世紀中發(fā)生災(zāi)難的幾率可能高達1/100,甚至1/10。
那么問題就在于如何應(yīng)對。首先,我們需要確保這類研發(fā)都是以負責任、安全和有道德的方式來進行。這需要那些在人工智能領(lǐng)域工作的人,與政策制定者、社會科學家和關(guān)注這個問題的民眾進行更深入的對話。那些人工智能應(yīng)用程序的開發(fā)者們,大多不習慣于考慮自身工作的社會影響。為了改變這一點,就必須將他們暴露于外部視角之下。
政策制定者們還將不得不面對通用人工智能的國際屬性。目前大部分相關(guān)研發(fā)都在美國、歐洲和中國進行,但大部分代碼都是開源的,這意味著這項工作可能在任何地方完成。因此,盡管某些區(qū)域研發(fā)中心應(yīng)該在建立標準和道德基礎(chǔ)規(guī)則方面起主導作用,但這最終會是整個國際社會的工作。
展望未來,解決通用人工智能所引發(fā)風險的一些努力,可以搭載在一些業(yè)已實施的針對弱人工智能的政策舉措之上。例如由馬里蘭州民主黨眾議員約翰·德萊尼發(fā)起的新兩黨人工智能小組會議。而在研究短期和長期人工智能風險的人們之間,也存在著更多協(xié)同合作的機會。
無論弱人工智能和通用人工智能是合并還是分開考慮,最重要的是我們現(xiàn)在得采取建設(shè)性行動以盡量減少發(fā)生災(zāi)難性事件的風險。不然等到風險真正來臨時,一切就太遲了。