孫遠釗
“我很擔心將來也許有些人會使用下列的三段論法:圖靈相信機器會思考,圖靈同人們說了謊,因此機器不會思考。
您深受苦惱的, 艾倫”
— “人工智能之父”艾倫?圖靈(Alan M. Truing, 1912-1954)1
“電腦是否能思考的問題就與潛水艇是否能游泳的問題同樣相關。”
艾茲赫爾·戴克斯特拉(Edsger W. Dijkstra, 1930-2002)2
圖靈獎的得主、計算機領域的先驅戴克斯特拉教授用上述的一句話,詼諧地點明,人們對于“人工智能” 可能從一開始在觀感上就已經了自己的謬誤。這句話的寓意是提醒大家不要削足適履地思考問題,因為我們常會畫地自限,不經意地被自行事先劃定的語意所蒙蔽和糾結。例如只要一提到“人工智能”,許多人(尤其在西方社會)腦海中所浮現出的第一個印象,就是一個近似人類的機器人,甚至就是好萊塢在不同的科幻電影中所制造出來的形象,如“變形金剛”(Transformers)、“終結者”(Terminator)等等,認為這些機器人會說各種人類的語言,但擁有自己的思維、計畫與目的,完全不受人類的操控,甚至可以為了達到自身的目的去輕易地掃除障礙、毀滅人類。于是,各種莫名的恐懼便油然而生。然而這樣的觀感或印象不但與實際的情況大相徑庭,甚至還對相關的研發(fā)活動造成了一定的負面影響。
一臺機器(電腦或計算機)對于信息的處理和操作方式與人類大腦的操作邏輯和處理方式本來就截然不同。因此,所謂的“人工智能”從來就不是為了去復制一個能與人類“想法一致”的機器人,而是要協助人類更有效率地處理許多目前人類自己做不來或需要消耗大量時間、資源才能處理好的事情。也就是說,所謂的“人工智能”事實上應該是“智能人工”的誤寫,這與蒸汽機、電話、電報、電腦等等發(fā)明的出現代替了許多之前效能較差的既有工具并無二致。所以,當人們要辯論潛水艇是否會“游泳”時,其中的荒謬性便顯而易見:什么叫“游泳”?為什么要用單一的動詞或形容詞去描繪所有在水中或水下活動的事物?這豈非等同于用一個碼數的鞋就想套盡天下各式各樣的腳?同理,當我們在問一臺電腦或裝置究竟是否會“思考”時,我們究竟在問什么呢?
也正因為一臺機器或裝置從來就不是依循人類的思維與價值去操作(所以需要透過編譯器(compiler)與界面(interface)去轉化為人類所能了解的語言和信息),當人類試圖要用自己所能認知的邏輯與價值來規(guī)制機器或裝置時,恐怕就會產生各種捍格不入的問題。而人類自己常有的價值與行為矛盾,一旦要轉化為機器程序語言,也注定滯礙難行乃至讓機器或裝置無所適從。例如,歐洲聯盟曾經考慮是否必須把“所有的人工智能機器或裝置不可傷害人類”做為不得違反的頭號天條,但很快就打消了這個想法,因為至少在可見的未來,人們都想不出具體的實踐方法。設想一下:一個具有人工智能的“機器警察”在維持治安時,要如何對應持槍搶劫的嫌犯和同時也持槍試圖自衛(wèi)的其他市民?人工智能要如何去區(qū)分誰是“好人”、誰是“壞人”?
另一個典型例子呈現在斯坦利·庫布里克(Stanley Kubrick)于1968年所導演、制作的經典電影《2001:太空漫游》(2001: A Space Odyssey),及其之后與科幻小說作家與未來學學者亞瑟·克拉克爵士(Sir Arthur C. Clarke)所共同創(chuàng)作的同名小說之中。影片中最具戲劇張力的關鍵情節(jié)是,宇航船上的人工智能電腦在被制造出來時,其中已輸入了一個最高指令:必須保護、不得傷害人類。但地面的任務總指揮官在宇航船出發(fā)前,又對電腦輸入了另一條絕密的最高指令:必須堅持完成探索地球所有物種生命起源的重大任務,不容失敗。于是,最大的沖突爆點便悄然埋下:當任務執(zhí)行的過程當中發(fā)生意外事故導致宇航員準備放棄時,電腦究竟應該是完全聽命、放棄任務,還是堅持任務、抗命不從,甚至不惜犧牲全體人員的性命?于是,人工智能電腦無所適從,發(fā)生了種種嚴重的問題。雖然這只是電影情節(jié)。但其背后的問題卻值得深思:人類常會在不經意之間埋下矛盾的種子卻還不自知,等到一旦發(fā)生了問題,又如何要求一臺機器或裝置去做原本應該由人自己做出的價值判斷?尤其是,人類應該如何教會機器撒謊并自圓其說?
另一個現實的例子是,當聯合國《常規(guī)武器公約》(Convention and Certain Conventional Weapons, CCW)3締約國專家組正在研究論證是否要在未來的公約修改草案之中明文禁止所謂的“殺人機器人”(killer robots)之際,許多國家的國防部門卻正以降低人員的傷亡為由,早已開發(fā)出專門從事不同形式戰(zhàn)爭格斗的機器人或人工智能技術(裝置)。這也與一些國家在人工智能問題上標榜的核心價值和精神完全背道而馳。
反過來看,當人工智能通過“學習”,“創(chuàng)作”出了詩篇文章之時,是否要賦予其著作權的“保護”呢?這剛好就是“潛水艇是否會游泳”的反面問題,試圖把人類的思維與價值向機器、裝置投射:是否會游泳的就一定是或不是潛水艇?這當中的荒謬性自然也不言可喻。不過問題并沒有到此結束。目前學界已在探討:雖然一臺具有人工智能的機器或裝置本身并不能獲得如著作權等的權益保護,但是其作品如果在其他各方面都符合了可以受到保護的要件(具有獨創(chuàng)性的表達,并且不在不受保護的范圍之內,如共同場景、操作方法、功能性的呈現等),固然機器或裝置未必可以享有任何權利,那么從事人工智能開發(fā)的人員或其雇主是否依然可以獲得著作權?
持贊成說的觀點主要還是從“智力勞動成果”的立場出發(fā),認為人工智能的所有人或開發(fā)者就算沒有功勞也有苦勞,而且這也較為符合激勵創(chuàng)新的精神;持反對說的觀點則認為,著作權只保護以“人”(無論是自然人或法人)做為作者的作品,因此凡是由機器所創(chuàng)造出來的,就算是再有“創(chuàng)意”,也難以獲得任何的權利;況且任何人工智能或多或少都涉及到對于大數據的收集、整理與運算,如果僅僅基于智力勞動的投入就可被賦予任何權利的話,那是否意味著在特定人工智能背后所有提供了數據或做出貢獻的人們都應該共同享有權利?如果答案為肯定,就勢必導致不同個體的權利相互抵銷,即使有表面上的權利,事實上也將難以有效行使運用,形同胎死腹中。
2017年7月8日,國務院印發(fā)了一份名為《新一代人工智能發(fā)展規(guī)劃》的通知,4正式把以人工智能為導向的科技與經濟發(fā)展列入中國未來的專注焦點,列入國家戰(zhàn)略層面的系統布局,希望能借此強化中國科技與經濟的國際競爭力。這份文件的出臺,無疑又給相關的討論添上了一大把柴火。無論如何,有關人工智能的集思廣益,首先應當解決的先決性、根本性問題是人工智能的未來規(guī)制問題,這會對其他所有規(guī)制的探索產生非常大的影響,也可能直接或間接影響到目前正在進行之中的、關于《民法典》制定的相關討論,因為這部法典的具體內容需要與當前一些前沿性的問題與發(fā)展密切接軌,從十九世紀跨越到二十一世紀。
在這樣的探索過程中,或許下列的引語值得我們謹銘于心:
“為什么要對一個機器人給出一個必須服從命令的命令——最原始的命令不就已經夠了?為什么要指示一個機器人不可制造傷害——如果從一開始就不給出會造成傷害的指令,不是更容易么?宇宙中難道存在一種神秘的力量,要把各種實體引向惡意,從而必須用軟件程序灌注到一個正離子的大腦中來予以抗衡?難道所有的智能生物都會無可避免地出現態(tài)度上的問題么?……在電腦真正變得更加聰明和強大時,人們的焦慮反而消減了。如果電腦真的要作惡的話,今天,電腦網絡的普及也已產生了前所未見的作惡能力。然而,目前由電腦造成的、來自于無法預期的混亂和人類惡意的唯一傷害只是電腦病毒而已。我們已不再擔心電子連環(huán)殺人犯或是顛覆性的機器人陰謀,因為我們已經開始感知到,惡意——就像視覺、動作協調以及常識——從來就不會隨同電腦的計算無端產生,而必須是由程序植入。……侵略性,就像我們習以為常的人類行為的其他部分一樣,是個具有挑戰(zhàn)性的工程問題!”5
“無論我們是由碳或硅所做成,都沒有什么根本上的不同;我們在相互對待時都必須相互給予適當的尊重?!?endprint