[德]安德里亞斯·蘇德曼
機器和程序都不是黑箱;它們是經(jīng)過設(shè)計的人工制品,包括硬件和軟件,我們可以打開它們,看看里面的情況。②Allan Newell and Herbert A.Simon,“Computer Science as Empirical Inquiry.Symbols and Search”,Mind Design II:Philosophy,Psychology,Artificial Intelligence,John Haugeland,ed.,Cambridge,MA:MIT P.,1997[1976],p.82.
批判性探索現(xiàn)代人工智能(AI)技術(shù)的媒介政治維度意味著什么?這篇文章的主要焦點,不是研究由人工智能驅(qū)動的特定應(yīng)用如圖像或語音識別系統(tǒng)的政治層面,而是人工智能技術(shù)基礎(chǔ)設(shè)施本身的政治含義,特別是關(guān)于自2006年起被稱為“深度學(xué)習(xí)”(簡稱DL,也被稱為“模擬神經(jīng)網(wǎng)絡(luò)”或“人工神經(jīng)網(wǎng)絡(luò)”——ANN)的機器學(xué)習(xí)方法。首先,這篇文章探討了在多大程度上人工神經(jīng)網(wǎng)絡(luò)/深度學(xué)習(xí)必須被看作一種根本不透明的黑箱技術(shù),這種技術(shù)或許不能或者只能被人類部分地理解。其次,關(guān)于第一個問題,我們的目標(biāo)是針對一家名為OpenAI的研究公司,對其議程和活動進行批判性審視,據(jù)稱該公司促進了人工智能的民主化,并試圖使類似于深度學(xué)習(xí)技術(shù)變得更易獲得和透明。顯然,這種理想主義的主張不應(yīng)被簡單地視為理所當(dāng)然,特別是考慮到OpenAI這樣的公司涉及大量資金。例如,開源人工智能之類的策略似乎更能展示這些公司的技術(shù)潛力,可以比同行更勝一籌,或者吸引稀缺人才。但是,比起質(zhì)疑這種說法的真實性或意識形態(tài)含義,更重要的也許是,我們必須解決更多的基本問題:如何才能促進一個可能根本無法打開的黑箱的透明度和可及性?如果沒有數(shù)據(jù)的民主化,還能實現(xiàn)人工智能的民主化嗎?
在解決這些問題之前,有必要回顧一下深度學(xué)習(xí)最近是如何成為人工智能主導(dǎo)范式的。相關(guān)的一個重要事件發(fā)生于2012年。當(dāng)時,多倫多大學(xué)的三位學(xué)者亞歷克斯·克里澤夫斯基(Alex Krizhevsky)、伊利亞·蘇茨克維爾(Ilya Sutskever)和杰弗里·辛頓(Geoffrey Hinton)首次有效訓(xùn)練了一個所謂的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network)。這是傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)(ANN)的一種特殊變體,它基于現(xiàn)在著名的ImageNet數(shù)據(jù)庫以及快速并行組織的圖形處理器(GPU),能對圖像和物體識別進行優(yōu)化。①Jensen Huang,“Accelerating AI with GPUs:A New Computing Model”,Nvidia.Online:https://blogs.nvidia.com/blog/2016/01/12/accelerating-ai-artificial-intelligence-gpus/.特別是GPU的大量使用使一切變得不同:多倫多團隊能夠?qū)⒁酝鶊D像識別方法的錯誤率降低一半以上。②在短短七年時間里,對數(shù)據(jù)集中的物體進行分類的準確率從71.8%上升到97.3%,不僅僅是由于高價值,2017年是這個著名比賽的最后一年。表面來看,這一增長聽起來可能并不令人印象深刻,但它足以吸引谷歌和臉書等領(lǐng)先IT公司的注意,它們迅速雇用了楊樂昆(Yann LeCun)和杰弗里·辛頓(Geoffrey Hinton)這樣的領(lǐng)軍科學(xué)家,還收購了DNNResearch和DeepMind這樣的人工智能創(chuàng)業(yè)公司。這些公司對深度學(xué)習(xí)技術(shù)抱有強烈興趣并不奇怪,因為他們早就已經(jīng)利用大數(shù)據(jù)了,現(xiàn)在他們獲得了一種強大技術(shù)能夠智能地處理和利用數(shù)據(jù)。③Ramón Reichert,ed,“Big Data”,Analysen zum digitalen Wandel von Wissen,Macht und ?konomie,Bielefeld:transcript,2014.例如,有了深度學(xué)習(xí)的幫助,就有可能自動標(biāo)記用戶在社交媒體平臺上傳的圖片,或分析消費者行為以生成個性化的廣告,或進行個性化的推薦。當(dāng)然,目前還有許多其他應(yīng)用領(lǐng)域也在使用深度學(xué)習(xí)/人工神經(jīng)網(wǎng)絡(luò)技術(shù),如處理自動駕駛汽車的傳感數(shù)據(jù),分析預(yù)測股票市場的數(shù)據(jù),或優(yōu)化機器翻譯等。一般來說,深度學(xué)習(xí)算法是模式識別和預(yù)測任務(wù)的通用工具,是處理數(shù)據(jù)內(nèi)容不確定性和模糊性的有效工具。④Goodfellow,Ian,Yoshua Bengio,Aaron Courville,Deep Learning,Cambridge,MA;London:MIT P,2016.
然而,現(xiàn)代機器學(xué)習(xí)算法能夠展開其潛力還需要一段時間。深度學(xué)習(xí)/人工神經(jīng)網(wǎng)絡(luò)的一些技術(shù)要領(lǐng)在20世紀四五十年代已經(jīng)開發(fā)出來了。⑤Andreas Sudmann,“Wenn die Maschinen mit der Sprache spielen”,F(xiàn)rankfurter Allgemeine Zeitung Nr.256,2.11.,N2,2016.早在那時,這種人工智能范式的基本想法是開發(fā)一個計算機系統(tǒng),這個系統(tǒng)可以通過觀察和經(jīng)驗學(xué)習(xí),從而解決特定的問題或完成某些學(xué)習(xí)任務(wù),過程中沒有具體的規(guī)則或理論做指導(dǎo)。⑥Thomas Mitchell,Machine Learning,New York:McGraw-Hill,1997.基本上,這是每個現(xiàn)有機器學(xué)習(xí)系統(tǒng)的方法,而不是所謂的符號化、基于規(guī)則的人工智能系統(tǒng)形式,其智能行為通常是事先手工編碼的。⑦Margaret A.Boden,“GOFAI”,The Cambridge Handbook of Artificial Intelligence,Keith Frankish and William M.Ramsey,eds.,Cambridge,UK:Cambridige UP,2014,pp.89-107.盡管存在很多機器學(xué)習(xí)(ML)方法,但最近發(fā)現(xiàn)深度學(xué)習(xí)方法是最有效的,至少在語音或圖像識別這樣的人工智能研究的關(guān)鍵領(lǐng)域。
非常廣泛地說,深度學(xué)習(xí)的一個關(guān)鍵特征是,它是一類松散地受到生物神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和學(xué)習(xí)過程啟發(fā)的技術(shù)。⑧Ethem Alpaydin,“Machine Learning”,The New AI,Cambridge,MA:MIT P.,2016.與其他機器學(xué)習(xí)任務(wù)一樣,深度學(xué)習(xí)算法通過分析數(shù)以千計甚至數(shù)以百萬計的訓(xùn)練數(shù)據(jù),在數(shù)千甚至百萬次迭代的基礎(chǔ)上進行學(xué)習(xí),直到系統(tǒng)也能夠正確預(yù)測未見過的數(shù)據(jù)。然而,深度學(xué)習(xí)與其他機器學(xué)習(xí)方法的不同之處在于學(xué)習(xí)過程的分層分布(Hierarchical Distribution)。深度學(xué)習(xí)技術(shù)模擬的網(wǎng)絡(luò)通常由數(shù)以百萬計的人工神經(jīng)元組成,這些神經(jīng)元被組織在不同的層上——一個輸入層、一個輸出層和一個靈活數(shù)量的中間隱藏層。⑨Trask Andrew,David Gilmore,Matthew Russell,“Modeling order in neural word embeddings at scale”,Proceedings of the 32nd International Conference on Machine Learning(ICML-15);Lille,F(xiàn)rance,2015,July 6-11.如果一個網(wǎng)絡(luò)被稱為深度,它至少有一個以上的中間層,通過網(wǎng)絡(luò)處理信息。在最底層,網(wǎng)絡(luò)只是分析非常簡單的輸入形式(例如視覺數(shù)據(jù)情況下的線條和邊緣),并將這些信息轉(zhuǎn)發(fā)到下一層,處理更復(fù)雜的形式(物體的部分如臉或腿),并再次將這些信息轉(zhuǎn)發(fā)到下一個最高層,一直到最后一層輸出層,它可以預(yù)測某個未知的輸入是否與某個輸出正確匹配(圖像是否顯示某個物體)。
同樣不足為奇的是,目前人工智能熱潮迅速吸引了人文學(xué)科和文化科學(xué)的注意,而在2016年前后,自然科學(xué)以外的許多學(xué)科或多或少都忽略了機器學(xué)習(xí)技術(shù)或深度學(xué)習(xí)/人工神經(jīng)網(wǎng)絡(luò)。當(dāng)然,關(guān)于人工智能潛力和局限性的跨學(xué)科辯論傳統(tǒng)由來已久,①Joseph Weizenbaum,Computer Power and Human Reason,F(xiàn)rom Judgment to Calculation,New York:W.H.Freeman,John R.Searle,“Minds,brains,and programs”,Behavioral and Brain Sciences,Vol.3,No.3(1980),pp.417-457.但這些討論通常并不涉及人工神經(jīng)網(wǎng)絡(luò)技術(shù)的任何細節(jié)。也有一些重要例外,特別是心靈哲學(xué)和認知心理學(xué),它們很早就對人工智能的符號和連接模式產(chǎn)生興趣。②Horgan,Terence und John Tienson,Connectionism and the Philosophy of Psychology,Cambridge,MA:MIT P.,1996.此外,在媒介研究領(lǐng)域也可以找到一些學(xué)者討論人工神經(jīng)網(wǎng)絡(luò)技術(shù)的案例,③當(dāng)然,還有一些從媒介研究角度出發(fā)的出版物,涉及AI技術(shù)的總體狀況,參見Dotzler,Bernhard,“Diskurs und Medium”,Zur Arch?ologie der Computerkultur,Bd.1,München:Fink,2006。其中一個是《計算機也是媒介》(Computer als Medium,1994),這是一本由弗里德里?!せ乩眨‵riedrich Kittler)、喬治·克里斯托弗·索倫(Georg Christoph Tholen)和諾伯特·博爾茨(Norbert Bolz)共同編輯的文集。有趣的是,該文本(僅由博爾茨撰寫)以某種方式抓住了人工智能連接主義范式在認識論上的相關(guān)性,但卻沒有探索其媒介理論或歷史影響的細節(jié)。
在過去兩年左右的時間里(大概在DeepMind的AlphaGo成功之后),情況發(fā)生了重大變化。在社會和文化研究領(lǐng)域,越來越多的書籍和文章被出版,這些書籍和文章涉及對人工智能的一般研究和對深度學(xué)習(xí)技術(shù)的特別研究(Sudmann,2016;Pasquinelli,2017;Finn,2017;McKenzie,2017;Engemann/Sudmann,2018;當(dāng)然還有特刊)。例如,帕斯奎內(nèi)利(Pasquinelli,2017)最近從歷史和哲學(xué)角度寫了一篇關(guān)于人工神經(jīng)網(wǎng)絡(luò)的短文,認為該技術(shù)只能處理歸納推理,而沒有能力啟用皮爾斯(Peirce)所說的歸納推理的形式。④Matteo Pasquinelli,“Machines that Morph Logic:Neural Networks and the Distorted Automation of Intelligence as Statistical Inference”,Glass Bead journal,Site 1,Logic Gate:The Politics of the Artifactual Mind,2017.此外,還有尼克·博斯特羅姆(Nick Bostrom,2014)、埃德·芬恩(Ed Finn,2017)或盧西亞諾·弗洛里迪(Luciano Floridi,2017),他們積極參與了當(dāng)前人工智能技術(shù)政治和倫理問題的討論。尼克·博斯特羅姆最近的書(2014)引起公眾的廣泛關(guān)注,部分原因是其危言聳聽的論點,即超級機器智能的技術(shù)發(fā)展是人類最大的威脅,這一點后來得到埃隆·馬斯克(Elon Musk)在推特上的回應(yīng)。然而,并非所有關(guān)注人工智能政治和倫理方面的人都贊同這些世界末日的觀點。如盧西亞諾·弗洛里迪(Luciano Floridi)相信,只要社會建立一個“由人類監(jiān)督的設(shè)計、控制、透明和問責(zé)系統(tǒng)”,⑤Luciano Floridi,“The rise of the algorithm need not be bad news for humans”,F(xiàn)inancial Times,May 4.Online:https://www.ft.com/content/ac9e10ce-30b2-11e7-9555-23ef563ecf9a[Last access:2018/03/06].人類就能夠處理人工智能驅(qū)動的社會。
在知識界的辯論中仍然普遍缺失的是,從明確的媒介政治視角來探討人工智能/深度學(xué)習(xí)。但是,這種關(guān)注涉及什么?以及我們?yōu)槭裁葱枰渴紫?,?dāng)然有許多不同的方式來思考通用人工智能,特別是深度學(xué)習(xí)的媒介政治層面。例如,一種可行的路徑是聲稱“媒介政治”作為一種分析角度,關(guān)涉政治的調(diào)解或者媒介與政治的歷史關(guān)系?;谶@樣的描述,我們可以問,人工智能/深度學(xué)習(xí)技術(shù)如何在媒介和政治的關(guān)系中銘刻自己?或者它如何參與政治調(diào)解?在這兩種情況下,我們可以假設(shè)a)媒介/中介和政治基本上是不同的概念,并且b)可能的分析視角在很大程度上是由我們對這些術(shù)語的基本理解所決定和引導(dǎo)的(包括將人工智能技術(shù)本身視為一種媒介)。
另一種可能性方法是宣稱媒介具有內(nèi)在的政治維度(人們同樣可以聲稱,在媒體或某些媒介之外不存在政治性的東西)。然而問題是,是否對每一個媒體或媒介的概念都是如此,還是僅僅一些特定概念如此。這是一個相當(dāng)理論化的討論,因為大多數(shù)媒介政治的概念幾乎都是基于媒介作為大眾或流行媒體的傳統(tǒng)理解。⑥John Zaller,A Theory of Media Politics.How the Interests of Politicians,Journalists,and Citizens Shape the News,Chicago IL,Chicago UP,1999.Dahlberg,Lincoln and Sean Phelan,eds.,Discourse Theory and Critical Media Politics,Basingstoke:Palgrave Macmillan,2011.因此,處理人工智能和深度學(xué)習(xí)的媒介政治,一種可能的路徑是,研究不同人工智能技術(shù)在電影和電視等流行媒體中代表性的政治表現(xiàn)。
在這篇文章的語境下,我對媒介政治問題的理解是更廣泛、從某種程度上說也是更基礎(chǔ)的。正如我喜歡將其概念化,這樣一種理論視角并不太關(guān)注人工智能的表征或可見界面,而是對產(chǎn)生和塑造該技術(shù)的媒體/媒介基礎(chǔ)設(shè)施和實體的政治影響及效果更感興趣(也不考慮特定的“使用案例”)。①關(guān)于類似敘述,使用“媒介基礎(chǔ)設(shè)施”一詞作為一個關(guān)鍵概念參見Parks,Lisa and Nicole Starosielski,eds.,“Signal Traffic”,Critical Studies of Media Infrastructures,Chicago:U of Illinois,2015。換句話說,我感興趣的是——我喜歡稱之為——現(xiàn)代人工智能技術(shù)的基礎(chǔ)設(shè)施——媒體條件及其政治維度。②這樣的視角并不直接涉及具體理論框架。一般來說,這種關(guān)注與許多分析方法兼容,如媒介考古學(xué)、歷史認識論或行為者網(wǎng)絡(luò)理論。對我來說,參與產(chǎn)生和塑造人工智能技術(shù)過程的每一個實體,一般都可以被看作這種技術(shù)的中介物。③Bruno Latour,Reassembling the Social.An Introduction to Actor-Network Theory,Oxford:Oxford UP,2005.一般來說,每一個技術(shù)的中介物在政治層面都很重要。然而,并不是每一個中介物都可以被平等地概念化為媒介,至少如果我們對這個詞采用更狹義的理解,如將媒介視為能夠?qū)崿F(xiàn)溝通或存儲、處理或傳輸信息的實體或裝置,就不是這樣。④這是參照拉圖爾對“中介物”(mediators)和“中間人”(intermediaries)的區(qū)分,對媒體如何被概念化的不同說法。對拉圖爾來說,“中介物是在沒有轉(zhuǎn)換的情況下運輸意義或力量的東西”,而“中介物”則是“轉(zhuǎn)換、翻譯、扭曲和修改它們所反對攜帶的意義或元素”(2005:39)。中介物在某種意義上起到黑箱的作用,因為他們的輸入可以讓你預(yù)測相應(yīng)的輸出(在不了解對象內(nèi)部運作的情況下)。與此相反,在中介物的情況下,盡管某種輸入有其特定的性質(zhì),但要預(yù)測相應(yīng)的輸出卻絕非易事。同上也參考,Tristian Thielmann,“Jedes Medium braucht ein Modicum”,ZMK Zeitschrift für Medien-und Kulturforschung 4/2:“ANT und die Medien”,2013,pp.111-127。正是由于這個原因,區(qū)分中介物和媒介/媒體這兩個概念通常是有意義的。
雖然我認為需要這樣的區(qū)分,但我對使用“媒介”或“媒體”這一穩(wěn)定的概念持相當(dāng)懷疑的態(tài)度(盡管這將使區(qū)分這兩個術(shù)語的任務(wù)更加容易)。在我看來,為了使我們的經(jīng)驗世界的實體(包括我們思想的非物質(zhì)世界)有意義,如果我們把媒體和/或媒介視為靈活的認識論——啟發(fā)式的,而不是固定的類別,那么在分析方面就會更有成效。⑤也許有很多方法可以證明這樣一個媒介思維的概念。很明顯,我們可以再次參考拉圖爾的“中介物”類別。在這種情況下,一個類似的理論參考也是 Vogl的術(shù)語“成為媒介”,參見 Joseph Vogl,“Becoming-media:Galileo’s Telescope”,Grey Room 29(Winter),2008,pp.14-25。因此,我所倡導(dǎo)的媒介理論,可以被理解為探索世界以何種不同方式可被感知為媒介或媒體(具有某些特征、功能)的一般任務(wù),而不是簡單地承認世界上的一切都在某種本體論的穩(wěn)定意義上依賴于媒介/介質(zhì)(作為實體可見、可被感知或具有某種形式等的前提條件)。所以,盡管我選擇了一個專注于中介物(更具體地說是特定媒介)構(gòu)成性作用的媒介政治概念,我仍然主張一個相當(dāng)開放的分析重點,并為不同的觀點留下空間。
就媒介政治的政治維度而言,后一種立場似乎也是一種有指導(dǎo)意義的方法。例如,我們可以很容易聲稱,幾乎所有關(guān)于人工智能的事情都是政治性的,特別是如果人們相信人工智能/深度學(xué)習(xí)技術(shù)影響到我們社會和文化存在的各個方面。同時,人工智能和深度學(xué)習(xí)技術(shù)給我們帶來的政治挑戰(zhàn)在性質(zhì)上是非常不同的(人工智能驅(qū)動武器系統(tǒng)的生存威脅,人工智能對未來工作的影響等),這就是為何不能簡單參考適合于每一個問題的政治理論綜論。
就如何處理人工智能/深度學(xué)習(xí)的政治問題而言,這樣的懇求并不意味著“什么都可以”。相反,我認為人們應(yīng)該首先嘗試探索當(dāng)代人工智能技術(shù)是如何作為政治現(xiàn)象出現(xiàn)的(在我們對人工智能應(yīng)用某種政治理論之前)。這一重點包含許多相關(guān)的方面,包括分析計算機科學(xué)家自己如何將人工智能技術(shù)概念化為一個政治主體。
在這種情況下,我們還應(yīng)該記住,對大多數(shù)從事人文、社會或文化科學(xué)工作的學(xué)者而言,即使他們已經(jīng)研究過人工智能,一般的機器學(xué)習(xí)特別是人工神經(jīng)網(wǎng)絡(luò)/深度學(xué)習(xí)仍然是一個未知領(lǐng)域。這基本意味著,在媒介或文化研究等學(xué)科,真正能夠評估深度學(xué)習(xí)技術(shù)和基礎(chǔ)設(shè)施的相關(guān)政治和/或倫理方面可能還需要一段時間。顯然,這個問題也是討論人工智能/深度學(xué)習(xí)作為一個黑箱和評估OpenAI類似項目的核心因素。對該領(lǐng)域的許多學(xué)者來說,關(guān)注知識轉(zhuǎn)換或轉(zhuǎn)化的過程,并從一種元視角分析一門學(xué)科的知識如何被另一門學(xué)科使用、調(diào)整和重構(gòu),是媒介研究的核心任務(wù)之一。①Bergermann,Ulrike and Christine Hanke,“Boundary Objects,Boundary Media.Von Grenzobjekten und Medien bei Susan Leigh Star und James R.Griesemer”,Sebastian Gie?mann and Nadine Taha,Eds.,Grenzobjekte und Medienforschung,Bielefeld:transcript,2017,p.127.但是,如果連計算機或數(shù)據(jù)科學(xué)家都在處理人工智能/深度學(xué)習(xí)黑箱問題上遇到諸多困難,那么,媒介研究如何能夠為其提供相關(guān)的見解?顯然,媒介研究對技術(shù)上打開黑箱沒有或幾乎沒有貢獻,然而它也許能夠在不同方面有所啟示:如探索這個問題的社會文化條件、影響和效果的復(fù)雜網(wǎng)絡(luò)。此外,媒介研究可以批判性調(diào)查數(shù)據(jù)科學(xué)家如何將人工智能及其黑箱問題作為一個政治關(guān)注點。但為了做到這一點,讓我們概括一下這意味著什么——或者更好地說——將我們經(jīng)驗世界中的某些實體感知為黑箱意味著什么。
關(guān)于“黑箱”一詞的確切起源,有一些爭論正在進行。菲利普·馮·希爾杰斯(Philipp von Hilgers)探討了這個概念的歷史,并將其追溯到二戰(zhàn),更準確地說是追溯到磁控管技術(shù)。②Philip von Hilgers,“Ursprünge der Black Box”,Rekursionen,Von Faltungen des Wissens,Ana Ofak and Philipp von Hilgers eds.,München:Fink,2009,pp.281-324.從那時起,這個概念就被應(yīng)用于不同背景,并被指定為相反的含義。一方面,它可以指飛機或汽車中的數(shù)據(jù)監(jiān)測系統(tǒng);另一方面,它包括那些內(nèi)部運作不透明或無法進入的系統(tǒng),因此只能通過其輸入和輸出來觀察。③Frank Pasquale,“The Black Box Society”,The Secret Algorithms That Control Money and Information,Cambridge,MA:Harvard UP,2015,p.3.諾伯特·維納(Norbert Wiener)在其名著《控制論》(Cybernetics,1948)1961年版的序言腳注中提供了“黑箱”一詞的早期定義:“我對黑箱的理解是,它是一件執(zhí)行明確操作的設(shè)備,但對于它,我們不一定有關(guān)于執(zhí)行這一操作的結(jié)構(gòu)的任何信息?!雹躈orbert Wiener,Cybernetics:or the Control and Communication in the Animal and the Machine,Cambridge,Mass:MIT P.,1961,p.xi.最后但并非最不重要的是,正如拉圖爾所解釋的,我們必須考慮到科學(xué)和技術(shù)的操作總是有一種黑箱效應(yīng):“當(dāng)一臺機器有效地運行時,當(dāng)一個事實問題被解決時,我們只需要關(guān)注它的輸入和輸出,而不是它的內(nèi)部復(fù)雜性。因此,矛盾的是,科學(xué)和技術(shù)越是成功,它們就越不透明和晦澀。”⑤Bruno Latour,Pandora’s Hope,Essays on the Reality of Science Studies,Cambridge,MA:Harvard UP,1999,p.99.乍一看,深度學(xué)習(xí)也是如此。然而,與其他形式的技術(shù)相比,深度學(xué)習(xí)技術(shù)的情況似乎有所不同。
通常情況下,不同于剛才提到的黑箱效應(yīng),在實踐中使用的許多(如果不是大多數(shù))技術(shù)操作都能以諸多方式被人類理解和解釋。相比之下,深度學(xué)習(xí)算法似乎是一個無法打開的黑箱,至少目前一些專家認為這是人工智能存在的最大問題之一。但是,深度學(xué)習(xí)是否真的是一個基本的不透明技術(shù)?如果是的話,不透明程度如何?而且,即使是這樣,只要能順利地工作,我們難道不能接受人工神經(jīng)網(wǎng)絡(luò)是一種不透明的技術(shù)嗎?后一個問題的答案可能沒有第一個問題那么復(fù)雜。事實上,許多科學(xué)家、政治家和領(lǐng)先的IT公司之間似乎已經(jīng)有了很大的共識,要開發(fā)一種負責(zé)任的或有道德的人工智能,而使這項技術(shù)更負責(zé)任是努力的一個重要部分。
當(dāng)然,這種廣泛共識并不令人驚訝。人工智能/深度學(xué)習(xí)系統(tǒng)提出一個令人失望的電影推薦是一碼事,但如果用人工智能機器處理有關(guān)生命或死亡這種更嚴肅的事情,那情況就完全不同了。正如麻省理工學(xué)院計算機科學(xué)家湯姆米·賈科拉(Tommi Jaakkola)最近指出的:“無論是投資決策、醫(yī)療決策,還是軍事決策,你都不希望僅僅依靠一個‘黑箱’的方法?!雹轜ill Knight,“The Dark Secret at the Heart of AI”,MIT Technology Review,No.4(April 2017).https://www.technologyreview.com/s/604087/the-dark-secretat-the-heart-of-ai/[Last access:2018/03/06].
出于這個原因,僅僅知道人工智能/深度學(xué)習(xí)系統(tǒng)的預(yù)測足夠準確還不夠,你還想了解系統(tǒng)為什么會得出某種預(yù)測。這兩個方面似乎都與確保能高度信任人工智能的驅(qū)動決策相關(guān)。然而,要掌握人工智能預(yù)測模型的含義相當(dāng)具有挑戰(zhàn)性。為了說明這最后一點,西奈山伊坎醫(yī)學(xué)院(Icahn School of Medicine at Mount Sinai)的研究人員最近開發(fā)了一個名為“深度病人”(Deep Patient)的人工智能程序。該系統(tǒng)能夠識別不同形式的疾病,甚至能識別精神分裂癥此類精神疾病的早期跡象。但令人吃驚的是,他們?nèi)匀粵]有找到線索,并不知道這是如何做到的。當(dāng)然,“深度病人”對醫(yī)生有很大幫助,但他們需要該系統(tǒng)為其預(yù)測提供理由,以便在對病人進行醫(yī)療時有堅實的參考。“我們可以建立這些模型”,西奈山伊坎醫(yī)學(xué)院生物醫(yī)學(xué)信息學(xué)主任喬爾·杜德利(Joel Dudley)解釋說,“但我們不知道它們是如何工作的”。①Will Knight,“The Dark Secret at the Heart of AI”.
在下文中,我將討論這個經(jīng)常出現(xiàn)在當(dāng)前人工智能討論中的假設(shè)在多大程度上具有誤導(dǎo)性,并需要進行一些澄清。首先,我們應(yīng)該記住,當(dāng)前深度學(xué)習(xí)技術(shù)背后的數(shù)學(xué)是非常直接的。②Goodfellow,Ian,Yoshua Bengio and Aaron Courville,Deep Learning,Cambridge,MA;London:MIT P.,2016.歸根結(jié)底,這是一個統(tǒng)計學(xué)問題,盡管是以一個高級的形式。強調(diào)這一點很重要,因為我們觀察到一種將深度學(xué)習(xí)神秘化的普遍趨勢,而這種趨勢是適得其反的,需要得到遏制。其次,許多專家強調(diào),事實上人工神經(jīng)網(wǎng)絡(luò)是一種易獲得的技術(shù),特別是將其與生物神經(jīng)網(wǎng)絡(luò)相比較。例如,總部設(shè)在多倫多—柏林的深度學(xué)習(xí)公司TwentyBN的首席科學(xué)家羅蘭·梅米塞維奇(Roland Memisevic)指出:“深度學(xué)習(xí)算法至少比人腦更容易理解,因為人腦的神經(jīng)元活動模式以及學(xué)習(xí)所產(chǎn)生的轉(zhuǎn)變,即使在今天仍然很不透明?!雹跼oland Memisevic,“Wunderwerke der Parallelisierung”,Sudmann/Engemann,a.a.O.,o.S.(Pre-publication version),2018.相比之下,如果人們觀看一個人工神經(jīng)網(wǎng)絡(luò)模型,你可以記錄、觀察和測量一切甚至最小的細節(jié)。例如,很容易發(fā)現(xiàn)哪些特征錯誤地導(dǎo)致一只狗被標(biāo)記為貓,因為某些耳朵的形狀可能一再導(dǎo)致某些錯誤分類。然而,人工神經(jīng)元的相互作用確實難以理解,正如梅米塞維奇所同意的,“由于有如此多的神經(jīng)元平行活動,我們面臨著突發(fā)現(xiàn)象,即整體包含的內(nèi)容多于其部分的總和”。④Roland Memisevic,“Wunderwerke der Parallelisierung”.
因此,雖然計算機科學(xué)家確實必須處理深度學(xué)習(xí)的可解釋性問題,但它并不像當(dāng)前討論中經(jīng)常描述的那樣具有根本意義。⑤Will Knight,“The Dark Secret at the Heart of AI”.而且,毫不奇怪,科技行業(yè)內(nèi)外的計算機科學(xué)家目前正忙于解決這個可解釋性問題。事實上,研究人員已經(jīng)開發(fā)了一些方法來更好地理解和逆向設(shè)計深度學(xué)習(xí)的預(yù)測模型。
一個不僅使人工神經(jīng)網(wǎng)絡(luò)而且使一般的機器學(xué)習(xí)技術(shù)更容易理解的例子,是由馬可·圖利奧·瑞貝里奧(Marco Tulio Riberio)、薩米爾·辛格(Sameer Singh)和卡洛斯·蓋斯特林(Carlos Guestrin)開發(fā)的程序Local Interpretable Model-Agnostic Explanations(縮寫LIME)。開發(fā)者將這一技術(shù)描述為:“可以解釋對任何機器學(xué)習(xí)分類器的預(yù)測,并評估其在與信任有關(guān)的各種任務(wù)中的效用?!雹轗ibeiro,Marco Tulio,Sameer Singh and Carlos Guestrin,“Introduction to Local Interpretable Model-Agnostic Explanations(LIME)A technique to explain the predictions of any machine learning classifier”,O’Reilly.August 12.Online:https://www.oreilly.com/learning/introduction-to-local-interpretable-modelagnostic-explanations-lime[Last access:2018/03/06].LIME的基本思想是改變?nèi)斯ぶ悄芟到y(tǒng)不同形式的輸入(如文本或圖像),這樣就可以觀察到這些輸入的變化是否以及如何對輸出產(chǎn)生影響。最近《科學(xué)》雜志上的一篇文章解釋了LIME在實踐中是如何工作的,并提到一個以電影評論為內(nèi)容的人工神經(jīng)網(wǎng)絡(luò):
[一個神經(jīng)網(wǎng)絡(luò)]攝取電影評論的文字,并標(biāo)記出其中積極的內(nèi)容。瑞貝里奧(Riberio)的程序被稱為“局部可理解性模型—不可知論解釋(LIME)”,它將會標(biāo)記正面評論,并通過刪除或替換詞語來創(chuàng)造微妙的變化。然后,這些變體將通過黑箱運行,看看它是否仍然被認為是積極的。在數(shù)千次測試的基礎(chǔ)上,LIME可以識別出人工智能原始判斷中最重要的詞或圖像或分子結(jié)構(gòu)的一部分,或任何其他類型的數(shù)據(jù)。這些測試可能會發(fā)現(xiàn),“可怕”這個詞對搖拍鏡頭至關(guān)重要,或者“丹尼爾·戴·劉易斯”會帶來一個正面評論。⑦Paul Voosen,“How AI detectives are cracking open the black box of deep learning”,Science Mag.July 6.Online:http://www.sciencemag.org/news/2017/07/how-ai-detectives-are-cracking-open-black-box-deep-learning[Last access:2018/03/06].
正如人們可以從這個簡短的描述中推斷出,聲稱這個模型確實提供了什么深刻意義的解釋似乎是一種夸張?;旧希且粋€“實驗系統(tǒng)”,只突出那些在系統(tǒng)決策過程中起重要作用的元素,而沒有真正揭示這個預(yù)測模型中隱含的推理。
另一個有趣的工具在某種程度上可以使人工神經(jīng)網(wǎng)絡(luò)工作原理可視化,就是當(dāng)今著名的程序DeepDream,2015年由谷歌的工程師和科學(xué)家推出。DeepDream是一種基于深度學(xué)習(xí)的特殊圖像識別算法,但它的操作與典型的卷積神經(jīng)網(wǎng)絡(luò)(CNN)有點不同。首先,該算法用數(shù)百萬張顯示特定物體(如一只貓)的圖像進行訓(xùn)練,這樣在某些時候神經(jīng)網(wǎng)絡(luò)能預(yù)測或?qū)D像中的物體分類為貓,盡管它沒接受過這方面的訓(xùn)練。在初始訓(xùn)練之后,網(wǎng)絡(luò)可以反向操作。與其說調(diào)整網(wǎng)絡(luò)的權(quán)重,不如說調(diào)整Backprop算法的標(biāo)準程序,權(quán)重保持不變,只對輸入(貓的原始圖像)進行最小的調(diào)整。如果你將這種技術(shù)應(yīng)用于不包含任何貓的圖像但被標(biāo)記為包含貓的圖像,這種技術(shù)會產(chǎn)生非常有趣的結(jié)果。在這種情況下,軟件開始修改和加強圖像的某些模式,使它們開始越來越像一只貓,但不像我們經(jīng)驗世界中存在的任何特定的貓,而是一只神經(jīng)網(wǎng)絡(luò)感知的貓,或者說:夢見的。作為這一過程的結(jié)果,該系統(tǒng)產(chǎn)生的圖像具有超現(xiàn)實和怪誕的質(zhì)量:如一張比薩餅的照片可以包含許多小狗臉,或者你也可以把蒙娜麗莎變成一個類似LSD的幻覺噩夢。①關(guān)于從媒介理論和精神分析角度對DeepDream的批評觀點,參見Clemens Apprich,“Daten,Wahn,Sinn”,Zeitschrift für Medienwissenschaft,17(2017),pp.54-62。一方面,它們表明深度學(xué)習(xí)并不是一種完全神秘的技術(shù),因為該算法可以增強人們熟悉的視覺特征。另一方面,這些圖像說明了算法的工作方式與人類感知不同,換句話說,它可能會關(guān)注我們作為人類通常不會關(guān)注的圖像的各個方面。
第三種揭示深度學(xué)習(xí)系統(tǒng)工作機制的潛在方法是加州大學(xué)伯克利分校和馬克斯·普朗克(Max Planck)信息學(xué)研究所開發(fā)的“指向和論證(Pointing and Justification)(PJ-X)模型”。②Park,Dong Huk et al.,“Attentive Explanations:Justifying Decisions and Pointing to the Evidence”,Online:https://arxiv.org/pdf/1612.04757v1.pdf[Last access:2018/03/06].該模型能夠證明其預(yù)測或分類任務(wù)的合理性,通過使用注意力機制結(jié)合自然語言解釋來突出和記錄算法決策的證據(jù)。該系統(tǒng)的一個關(guān)鍵因素是,它是用兩個不同的數(shù)據(jù)集訓(xùn)練的。第一個數(shù)據(jù)集是為了確定圖像所顯示的內(nèi)容,而第二個數(shù)據(jù)集的功能是揭示為什么某些東西(某個人類活動或物體)會出現(xiàn)在特定圖像中。因此,我們的想法是將顯示物體或人類活動的圖像不僅與它們的描述(通過標(biāo)記它們)相關(guān)聯(lián),而且還與它們各自的解釋相關(guān)聯(lián)。為了達到后者的目的,訓(xùn)練數(shù)據(jù)中的每張圖片都與三個問題以及每個問題的十個答案有關(guān)。在此基礎(chǔ)上,系統(tǒng)可以回答諸如“圖像中的人在飛嗎”這樣的問題,而答案可能是:“不是,因為這個人的腳還站在地面上。”③Dave Gershgorn,“We don’t understand how AI make most decisions,so now algorithms are explainingthemselves”,Quartz.December 20.Online:https://qz.com/865357/we-dont-understand-how-ai-make-most-decisions-sonow-algorithms-are-explaining-themselves/[Last access:2018/03/06].
同樣,這個模型——像上述所有模型一樣——離能夠解釋自己的內(nèi)部運作或不同機器(或另一個人工神經(jīng)網(wǎng)絡(luò),如果你愿意的話)的內(nèi)部運作還很遠。也許,這種特定的能力將需要機器發(fā)展出某種自我意識,甚至是元意識。而在這發(fā)生之前(如果這真的發(fā)生的話),深度學(xué)習(xí)技術(shù)需要理解推理、計劃、因果關(guān)系,等等。目前,深度學(xué)習(xí)或人工神經(jīng)網(wǎng)絡(luò)的技術(shù)只提供相關(guān)性,但沒有深刻的因果解釋。在這方面,深度學(xué)習(xí)仍處于起步階段。因此,人們可以說——在某種意義上——“可解釋的人工智能”標(biāo)簽是誤導(dǎo)性的,或者至少是夸大的。
正如前面所指出的,提供可解釋的和——更普遍的——負責(zé)任的人工智能模型有一些明顯的動機和原因。首先,目前那些深度學(xué)習(xí)系統(tǒng)開發(fā)者有強烈的經(jīng)濟興趣,這可以對抗與不透明人工智能技術(shù)相關(guān)的社會恐懼和懷疑。然而,許多科學(xué)家和工業(yè)界人士著重強調(diào),開發(fā)一個可解釋的人工智能,其政治和倫理的重要性,超越了上述可解釋問題相關(guān)的商業(yè)層面。在強調(diào)這一議程的行動者中,最引人注意和最強大的是OpenAI——一個“非營利性研究公司”(自我描述),也專門從事深度學(xué)習(xí)技術(shù)研究。2015年10月成立后不久,該公司概述其任務(wù)目標(biāo)(《OpenAI介紹》):
我們的目標(biāo)是以最有可能造福全人類的方式推進數(shù)字智能,不受需要產(chǎn)生經(jīng)濟回報的限制。由于我們的研究沒有財政負擔(dān),我們可以更好地專注于對人類的積極影響。我們相信人工智能應(yīng)該是人類個人意志的延伸,并且本著自由精神,盡可能廣泛和平均地分配。這項事業(yè)的結(jié)果是不確定的,工作是困難的,但我們相信目標(biāo)和結(jié)構(gòu)是正確的。我們希望對該領(lǐng)域的精英來說這是最重要的。
為了確保OpenAI“不受需要產(chǎn)生經(jīng)濟回報的限制”,該公司創(chuàng)始人,其中最突出的是埃隆·馬斯克和薩姆·奧特曼(Sam Altman),他們投資了超過10億美元。有趣的是,這個啟動公告并沒有明確或直接提到馬斯克最初投資OpenAI的關(guān)鍵動機之一,即他認為(通用)人工智能是人類最大的生存威脅。①2018年2月,馬斯克宣布由于與他(未來)在特斯拉的工作有潛在利益沖突,他將離開OpenAI董事會。這種世界末日的觀點從人工智能研究一開始甚至之前就已經(jīng)存在了。事實上,正如媒介研究學(xué)者伯恩哈德·多茨勒(Bernhard Dotzler)在20世紀80年代末指出的,你可以在阿蘭·圖靈(Alan Turing)的作品中找到所有關(guān)于人工智能未來的成熟預(yù)測。②Bernhard Dotzler,“Know/Ledge:Versuch über die Verortung der Künstlichen Intelligenz”,MaschinenMenschen,Katalog zur Ausstellung des Neuen Berliner Kunstvereins,Berlin:NBK,1989,pp.127-132.然而,從最近開始,人工智能的發(fā)展,已經(jīng)讓我們不再那么期待任何反烏托邦“終結(jié)者”現(xiàn)實的即將來臨。
在人類歷史上第一次面對當(dāng)前深度學(xué)習(xí)技術(shù)不可否認的快速進步,目前可能確實是一種不同的狀況。至少這是馬斯克之外許多專家所認為的。OpenAI的議程(《關(guān)于OpenAI》)承認了這種新狀況,但是以一種更細微又不那么戲劇化的方式:
今天的人工智能系統(tǒng)擁有令人印象深刻但又有限的能力。似乎我們會不斷削減它們的限制,在極端情況下,它們幾乎將在所有智力任務(wù)上達到人類的水準。很難想象人類水平的人工智能能給社會帶來多大的好處,同樣也很難想象,如果建構(gòu)或使用不當(dāng),人工智能會給社會帶來多大的危害。
事實上,沒有人能夠預(yù)見人工智能的未來,或者評估它是否更有可能對社會和文化產(chǎn)生積極抑或消極的影響。我們也可能會告訴自己,技術(shù)本質(zhì)上從未有好壞之分,重要的只是其具體用途。然而,這個論點一直有相當(dāng)大的問題。比如說我們處理核技術(shù)或者說風(fēng)力發(fā)電,這就有很大的區(qū)別。此外,盡管未來是不確定的,這是一個不爭的事實,但我們也不能忘記,我們永遠無法確定在哪一個具體點上可能會走上錯誤道路。
特別是后一種論點,似乎能與《關(guān)于OpenAI》中OpenAI如何將其當(dāng)前任務(wù)與不可預(yù)見的未來問題相聯(lián)系起來:
由于人工智能驚人的發(fā)展歷史,很難預(yù)測人類水平的人工智能何時會出現(xiàn)在我們面前。當(dāng)它出現(xiàn)時,擁有一個領(lǐng)先的研究機構(gòu)是非常重要的,它可以將所有人的良好結(jié)果置于其自身利益之上。
這段話的有趣之處在于其隱含的假設(shè),即關(guān)于人工智能的巨大負面或正面影響,整個問題仍然相當(dāng)具有預(yù)測性,而且不涉及當(dāng)前技術(shù)現(xiàn)狀(“……當(dāng)人類水平的人工智能觸手可及時”)。雖然OpenAI避免任何關(guān)于預(yù)測性的討論是正確的,但似乎必須認識到深度學(xué)習(xí)已經(jīng)有正面和負面影響。這項技術(shù)可以做很多驚人的好事,因為它已經(jīng)成為一種非常強大的而且危險的監(jiān)控技術(shù),它不僅擴大了(半自動地)觀察世界的可能性(在被訓(xùn)練過后),而且能夠?qū)ζ溥M行理解。
最近,事實證明人工神經(jīng)網(wǎng)絡(luò)/深度學(xué)習(xí)不僅能夠識別物體、人、風(fēng)景和動物(在經(jīng)過訓(xùn)練后),而且它們已經(jīng)開始理解相當(dāng)復(fù)雜的行動和手勢。換句話說,深度學(xué)習(xí)系統(tǒng)已經(jīng)開始理解世界常識性知識的基本形式。有趣的方面是:為了實現(xiàn)這一點,人工神經(jīng)網(wǎng)絡(luò)已經(jīng)受過數(shù)十萬個短視頻片段的訓(xùn)練(顯示某些活動和手勢)。因此,媒介的特殊性對開發(fā)先進形式的人工智能至關(guān)重要。在寫這篇文章的時候,這個特殊的深度學(xué)習(xí)系統(tǒng)還沒有在工業(yè)應(yīng)用中實施。但該技術(shù)已經(jīng)存在并準備好被使用。③Andreas Sudmann,“Wenn die Maschinen mit der Sprache spielen”,F(xiàn)rankfurter Allgemeine Zeitung Nr.
埃德·芬恩(Ed Finn)最近認為,今天的算法文化比以往任何時候都受到“使世界有效可計算的愿望”④Ed Finn,What Algorithms Want,Imagination in the Age of Computing,Cambridge,MA.MIT P.,2017,pp.26,54,23.的驅(qū)動。他沒有特別將其與學(xué)習(xí)算法區(qū)分開來,而是將通用算法視為“文化機器”,其操作在很大程度上由“普遍計算的意識形態(tài)”決定。的確,我們可以說,特別是現(xiàn)代深度學(xué)習(xí)技術(shù)助長了工具理性的幻象版本,恰恰是因為它重新喚起了萊布尼茨的舊夢,即一個能夠完美理解我們世界每個方面的“普遍科學(xué)”。但更重要的是,深度學(xué)習(xí)的偉大承諾不僅是讓機器理解世界,而且使它在許多方面讓世界可以被預(yù)測:股票市場如何發(fā)展,人們想買什么,一個人是否會死,等等。在這個特定的歷史時刻,我們可以將深度學(xué)習(xí)視為這樣一種技術(shù),能夠處理人類無法應(yīng)對的復(fù)雜問題。深度學(xué)習(xí)的算法能力在于它的潛力,能通過學(xué)習(xí)過去以評估現(xiàn)在,從而掌握不確定的未來,而這一切都以越來越快的方式發(fā)生。DeepMind最近展示了其圍棋程序AlphaGo Zero的一個新版本,它能夠在短短三天內(nèi)從頭學(xué)習(xí)這個古老的棋盤游戲(沒有執(zhí)行任何游戲如何運作或如何成功下棋的規(guī)則),并成功以100比0戰(zhàn)勝了2015/2016年的舊系統(tǒng)(擊敗了人類世界冠軍李世石)。①Carlos E Perez,“Why AlphaGo Zero is a Quantum Leap Forward in Deep Learning”,Medium.com.Online:https://medium.com/intuitionmachine/thestrange-loop-in-alphago-zeros-self-play-6e3274fcdd9f[Last access:2018/03/06].
深度學(xué)習(xí)領(lǐng)域的創(chuàng)新速度之快也提醒我們應(yīng)當(dāng)小心,不要迅速對人工智能技術(shù)是否能實現(xiàn)這一目標(biāo)下結(jié)論。因此,我們不僅應(yīng)該停止猜測人工智能遙遠的未來,而且還應(yīng)該謹慎對待人工智能系統(tǒng)能夠或不能做什么的懷疑性觀點。總的來說,應(yīng)該承認,如果試圖接受目前人工智能和機器學(xué)習(xí)技術(shù)的發(fā)展,我們還有很多工作要做。也許像OpenAI這樣的公司成功使人工智能技術(shù)更容易獲得,但究竟如何證明他們的核心主張——人工智能的民主化?如果再看一下該公司的官方網(wǎng)站,會發(fā)現(xiàn)它提供的信息非常少:“我們在頂級機器學(xué)習(xí)會議上發(fā)表文章,為加速人工智能研究而開發(fā)開源軟件工具,并發(fā)布博文來交流我們的研究”(《關(guān)于OpenAI》)。這基本是該公司關(guān)于其民主化人工智能議程的全部內(nèi)容,至少如果只考慮網(wǎng)站的官方使命聲明。這段話非常引人注目的一點是,它并無特別之處,臉書、微軟和其他許多IT公司基本上都有相同的議程。②Eric Boyd,“Microsoft and Facebook create open ecosystem for AI model interoperability”,Microsoft.com.September 7.Online:https://www.microsoft.com/en-us/cognitive-toolkit/blog/2017/09/microsoft-facebook-create-openecosystem-ai-model-interoperability/[Last access:2018/03/06].
當(dāng)然,人們可以說OpenAI至少開啟了當(dāng)前開發(fā)負責(zé)任和安全人工智能的浪潮。然而,更重要的一點是,當(dāng)OpenAI基本做了人工智能游戲中所有其他大玩家正在做的事情時,它如何能夠合法地獲得其作為非營利研究公司的特殊地位:改進現(xiàn)有技術(shù)和/或找到開發(fā)AGI——通用人工智能的正確路徑?關(guān)于這個問題,OpenAI與Deep-Mind的情況非常相似,OpenAI的研究集中在與模擬(如游戲)有關(guān)的強化學(xué)習(xí)策略上,而不是使用常見的監(jiān)督學(xué)習(xí)方法,該方法依賴于來自經(jīng)驗世界的正確標(biāo)簽數(shù)據(jù)。③Jesus Rodriguez,“Technology Fridays:OpenAI Gym Makes Reinforcement Learning Real”,Medium.com.Online:https://medium.com/@jrodthoughts/.在其方法特定限制內(nèi),OpenAI和DeepMind的議程都相當(dāng)成功。然而,到目前為止,模擬仍然不是經(jīng)驗學(xué)習(xí)數(shù)據(jù)的合適替代品。如果這被證明是一個永久性的問題,它將對我們?nèi)绾螛?gòu)想模擬的認識論地位(在許多數(shù)字和視覺文化的理論和歷史中)產(chǎn)生巨大的影響,但這還有待觀察。我強調(diào)這一點的原因是另一個問題,正如我們剛剛看到的,深度學(xué)習(xí)的黑箱問題有很多方面。目的不是深入了解目前領(lǐng)先的IT公司如何在某個時間點嘗試開發(fā)高效通用人工智能系統(tǒng)的每個細節(jié)。相反,通過仔細觀察這些不同的研究議程,我們了解到一個簡單的事實,即深度學(xué)習(xí)不是一個同質(zhì)的方法,而是一個對不同說法的總稱。
此外,提及深度學(xué)習(xí)的異質(zhì)性,不僅對我們?nèi)绾谓鉀Q人工智能的黑箱問題很重要,而且對開發(fā)智能機器的批判性觀點也很重要。僅舉一例:幾年前,亞歷山大·蓋洛維(Alexander Galloway)寫了一篇非常有趣的文章,他在文章中以某種方式將黑箱政治化,認為它不再像二戰(zhàn)期間的磁控管技術(shù)那樣是一種密碼,而是變成了一種差不多完全由其輸入和輸出定義的功能。④Alexander R.Galloway,“Black Box,Schwarzer Block”,Die technologische Bedingung,Erich,H?rl,Ed.Frankfurt/M.:Suhrkamp,2011,p.273.通過使用這個術(shù)語,他并不完全是指技術(shù)設(shè)備,而是指人類、物體等所有可能相互作用的網(wǎng)絡(luò)和基礎(chǔ)設(shè)施,因此,只闡明了它們的外部語法。顯然,蓋洛維的黑箱概念與行為者網(wǎng)絡(luò)理論對該術(shù)語的使用方式有些相似之處,不過有一個重要的區(qū)別:根據(jù)蓋洛維的說法,構(gòu)成黑箱的網(wǎng)絡(luò)元素,不能透露關(guān)于自己的任何信息。換言之,這些網(wǎng)絡(luò)已經(jīng)成為一個無法打開的黑箱(這也是郝杰斯[Hilgers]對黑箱的定義——作為一個系統(tǒng),其內(nèi)部過程一直無法進入)①Philip von Hilgers,“Ursprünge der Black Box”,Rekursionen Von Faltungen des Wissens,Ana Ofak and Philipp von Hilgers,eds.,München:Fink,2009,pp.281-324.。與此相反,米歇爾·卡倫(Michel Callon)認為,任何黑箱,如果其行為者網(wǎng)絡(luò)的運作不能充分模擬一個系統(tǒng)的工作,那么它不僅可以而且必須被打開,從而產(chǎn)生一群“新的參與者”。②Michel Callon,“The Sociology of an Actor-Network:The Case of the Electric Vehicle”,Mapping the Dynamics of Science and Technology:Sociology of Science in the Real World,Michel Callon,John Law,John and Arie Rip,eds.,Sheridan House Inc,1986,pp.29-30.乍一看,蓋洛維的黑箱概念似乎可以用來描述由現(xiàn)代深度學(xué)習(xí)/人工神經(jīng)網(wǎng)絡(luò)算法中介的基礎(chǔ)設(shè)施和技術(shù)網(wǎng)絡(luò),但這并不像看起來那么容易。蓋洛維的模型基于給定輸入和輸出的存在,然而,人工神經(jīng)網(wǎng)絡(luò)技術(shù)并不總是在輸入和輸出都可用的情況下運行。例如,所謂的無監(jiān)督機器學(xué)習(xí),算法就是在沒有給定輸出的情況下被訓(xùn)練。因此,正如這個例子所示,如果我們想了解深度學(xué)習(xí)/機器學(xué)習(xí)基礎(chǔ)設(shè)施作為一個黑箱的細微差別,蓋洛維的理論可能用處有限。同時,這也是行為者網(wǎng)絡(luò)理論再次發(fā)揮作用的方面——我們不能簡單地臆想黑箱問題作為一個只涉及算法的政治(或倫理)問題。相反,這個問題包含了許多不同的因素:法律方面、機構(gòu)程序、環(huán)境問題、現(xiàn)有的政治以及法律規(guī)定,等等。
討論深度學(xué)習(xí)程序如何表現(xiàn)出種族或性別偏見,這些因素也很重要。當(dāng)微軟聊天機器人Tay被推特用戶訓(xùn)練學(xué)習(xí)種族主義、性別歧視以及反猶主義的言論時,引起了巨大的動蕩。③James Vincent,“Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day”,The Verge.March 24.https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist[Last access:2018/03/06].這個丑聞非常有洞察力,因為它表明學(xué)習(xí)算法的操作在很大程度上其實依賴于數(shù)據(jù),更依賴于給數(shù)據(jù)打標(biāo)簽的人,至少監(jiān)督學(xué)習(xí)任務(wù)的情況下是這樣的。換句話說,產(chǎn)生偏見或政治問題結(jié)果的不是算法,實際上是設(shè)計和產(chǎn)生學(xué)習(xí)數(shù)據(jù)的人類行為者,其中包括通過亞馬遜Mechanical Turk或Crowd-Flower等平臺雇傭和組織的成百上千的群眾工作者。因此,如果我們想談?wù)撊斯ぶ悄艿钠妴栴},也應(yīng)當(dāng)解決偏見和意識形態(tài)的一般結(jié)構(gòu),這些結(jié)構(gòu)仍然影響著我們的社會,從而影響了設(shè)計人工智能系統(tǒng)的專家和工人。此外,這個例子清楚地表明,為什么我們要仔細研究某些形式的媒體/媒介,它們是現(xiàn)代人工智能技術(shù)的主要中介。
毫無疑問,到目前為止,關(guān)于人工智能是黑箱的討論幾乎只集中在狹義的技術(shù)方面,多少有些短視,這也涉及對“民主人工智能”的批評。例如,哲學(xué)家尼克·博斯特羅姆最近質(zhì)疑了通過讓人工智能更透明來使其更安全的整個邏輯:“如果你有一個可能對世界做壞事的按鈕,你不會想把它交給每個人?!雹蹸ade Metz,“Inside OpenAI,Elon Musk’s Wild Plan to Set Artificial Intelligence Free”,Wired.April 28.Online:https://www.wired.com/2016/04/open ai-elon-musk-sam-altman-plan-to-set-artificial-intelligence-free/.[Last access:2018/03/06].乍一看,這個論點很有說服力,但同時也有點奇怪。例如,如果考慮到核武器,人們可以很容易地觀察到,只為自己保留一個可能的“危險按鈕”是多么復(fù)雜(我們也可以指出近期在這里關(guān)于美國總統(tǒng)有權(quán)決定是否使用核武器作為第一次打擊的討論)。我不想爭論冷戰(zhàn)期間威懾平衡的概念實際有保障和平的作用,我也不想把核武器的具體技術(shù)放在與人工智能相同的水平。我只想說明,為什么負責(zé)任的或透明的人工智能,其全部實踐和話語也許比博斯特羅姆的說法更復(fù)雜。透明人工智能理念的唯一替代方案是將所有關(guān)于人工智能的相關(guān)知識保密,這也不是正確的。至少,后一種策略不可能是OpenAI的選擇,因為這將破壞公司的身份。
此外,必須強調(diào)的是,就像黑箱問題不僅涉及技術(shù)本身一樣,我們也必須承認,任何使人工智能民主化的嘗試,不能僅僅局限于圍繞其技術(shù)工具和知識的開源活動(參見馬茨納[Matzner]進一步批判性地看待人工智能是一個超越透明度和問責(zé)制問題的黑箱⑤Tobias Matzner,“Opening Black Boxes Is Not Enough-Data-based Surveillance In Discipline and Punish And Today”,F(xiàn)oucault Studies 23,2017,pp.27-45.)。我們已經(jīng)生活在一個后隱私時代,人們對與個人生活和活動相關(guān)的數(shù)據(jù)收集、存儲、處理及傳輸?shù)倪^程幾乎沒有控制權(quán),這并不是一種反烏托邦的立場,特別是當(dāng)愛德華·斯諾登(Edward Snowden)披露證實了關(guān)于監(jiān)控的糟糕陰謀論是真實的。①Florian Sprenger,The Politics of Micro-Decisions:Edward Snowden,Net Neutrality,and the Architectures of the Internet,Lüneburg:Meson P.,2015.這里的問題不僅是公司,或者通常而言的政府,違背我們的意愿收集和分析私人數(shù)據(jù)。很多時候,許多人根本不關(guān)心他們在上網(wǎng)使用應(yīng)用程序時產(chǎn)生和傳播的數(shù)據(jù)。即使他們努力保護私人信息,也不能保證他們的朋友、家人或同事都會這樣做。這些方面早在當(dāng)前人工智能熱潮興起之前就已成為文化批判的主題。因此,我們不應(yīng)該僅僅討論如何使人工智能民主化,而應(yīng)該繼續(xù)努力,為我們這個由數(shù)據(jù)驅(qū)動的世界確保普遍的民主標(biāo)準。為了實現(xiàn)這一目標(biāo),將人工智能的政治分析與更廣泛的數(shù)據(jù)化討論聯(lián)系起來,這只不過是第一步,但卻是非常重要的一步。
目前,我們很難想到有什么機構(gòu)或法律,無論是全球的還是地區(qū)的,可以防止我們遭受人工智能的危險及大數(shù)據(jù)的濫用。我們也沒有任何深刻的理由相信像OpenAI、臉書或谷歌這樣的公司會實現(xiàn)這一目標(biāo)。同時,把這些科技公司視為民主數(shù)字文化的敵人也許是短視的,因為它們擁有既控制數(shù)據(jù)又控制智能算法的霸權(quán)力量。顯然,有一些危險是更緊迫的。例如,如果非民主國家利用人工智能或深度學(xué)習(xí)技術(shù)壓迫其政治反對派或恐怖分子的非法活動,這種威脅并不是大數(shù)據(jù)妄想癥的臆想情景。正如專家們最近所證明的那樣,只需訪問一個所謂的應(yīng)用程序接口(API),就能對機器學(xué)習(xí)算法進行逆向設(shè)計,準確率接近100%。黑客能夠從IBM或微軟等IT公司竊取人工智能技術(shù),用于可能的具體目標(biāo)(技術(shù)細節(jié)可參考克拉布恩[Claburn]②Thomas Claburn,“How to steal the mind of an AI:Machine-learning models vulnerable to reverse engineering”,The Register.Online:https://www.theregister.co.uk/2016/10/01/steal_this_brain/[Last access:2018/03/06].)。當(dāng)然,擁有一個真正開放的人工智能可能會首先解決這個特殊問題。但是,人們又要問,我們?nèi)绾未_保開放的人工智能不會被用于有害的目的?
截至目前,OpenAI似乎不太關(guān)心任何具體的人工智能政治愿景,而更熱衷于參與到開發(fā)通用人工智能的競爭中。因此,這很容易讓人相信OpenAI的政治或倫理議程基本是一個公關(guān)噱頭。但是,與其質(zhì)疑OpenAI的具體做法是否符合他們的議程,對于媒介政治問題來說,不如在一個更廣泛的焦點背景下,探討透明或負責(zé)任的人工智能的政治含義和效果可能會更有成效:學(xué)習(xí)算法技術(shù)如何重塑工具理性的條件,這與數(shù)字文化和社會的每個方面都深刻相關(guān)。而這個重要的項目才剛剛開始。