汪 婭
(上海交通大學(xué) 科學(xué)史與科學(xué)文化研究院,上海 200240)
自圖靈獎獲得者辛頓教授在2006年提出“深度學(xué)習(xí)”這一概念以來,該領(lǐng)域研究進(jìn)入快速發(fā)展階段。尤其是2016年由“深藍(lán)”(Deepmind)開發(fā)的AlphaGo,以人類史上從未出現(xiàn)過的棋局策略打敗人類職業(yè)選手李世石之后,深度學(xué)習(xí)引起了各學(xué)科領(lǐng)域的廣泛關(guān)注和討論。AlphaGo在圍棋領(lǐng)域取得的成功得益于其使用了深度學(xué)習(xí)這一機器模型,其可利用這一模型在已發(fā)生的事件中廣泛地搜索信息建立起獨特的抽象,并通過填充和探索空間的可能行動來預(yù)測未發(fā)生事件的游戲軌跡。其中,從已有經(jīng)驗數(shù)據(jù)中獲取抽象知識是AlphaGo取得成功的主要原因。然而,這一過程明顯缺乏透明度,是一個“黑盒問題”,具有典型的不可解釋性特征。不僅僅是在游戲領(lǐng)域,在醫(yī)療、工業(yè)等關(guān)鍵領(lǐng)域往往需要對深度學(xué)習(xí)的輸出結(jié)果做出解釋,以確保輸出結(jié)果的安全可靠性以及便于及時改進(jìn)和優(yōu)化機器性能,提高機器通用性,并取得用戶的信任。由于深度學(xué)習(xí)是基于腦神經(jīng)模擬,與人類認(rèn)識一樣均具有不透明性的特點,本文將從哲學(xué)的角度出發(fā)來進(jìn)行研究。
深度學(xué)習(xí)與人工智能等相關(guān)概念的關(guān)系如圖1所示。
圖1 深度學(xué)習(xí)與人工智能等相關(guān)概念的關(guān)系
機器學(xué)習(xí)主要指的是對大量數(shù)據(jù)的自動化處理,目的是檢測模式和規(guī)律,以便為預(yù)測和決策提供信息,[1]是人工智能的核心。人工神經(jīng)元網(wǎng)絡(luò)(Artificial Neural Network,ANN)是對生物神經(jīng)網(wǎng)絡(luò)的一種模擬和近似,是由大量神經(jīng)元通過相互連接而構(gòu)成的自適應(yīng)非線性動態(tài)網(wǎng)絡(luò)系統(tǒng),[2]是機器學(xué)習(xí)的一種數(shù)學(xué)模式,而深度學(xué)習(xí)是人工神經(jīng)網(wǎng)絡(luò)的一個子類型,是目前實現(xiàn)人工智能大爆炸式發(fā)展的核心推動力。
深度學(xué)習(xí)是機器學(xué)習(xí)的一個分支,它使用算法對數(shù)據(jù)中的高級抽象進(jìn)行建模。這些方法基于人工神經(jīng)網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu),可以擴展到更大的數(shù)據(jù)集。[3]深度學(xué)習(xí)“是包含多級非線性變換的層級機器學(xué)習(xí)方法”。[2]深度學(xué)習(xí)通過組合低層特征形成更加抽象的高層表示、屬性類別或特征,給出數(shù)據(jù)的分層特征表示。[4]深度學(xué)習(xí)“善于從原始輸入數(shù)據(jù)中挖掘越來越抽象的特征表示,而這些表示具有良好的泛化能力”。[2]阿爾諾·舒巴赫從哲學(xué)的視角來理解深度學(xué)習(xí),認(rèn)為其功能的實現(xiàn)是通過學(xué)習(xí)獲得的而非基于規(guī)則計算,因此無法獲得深度學(xué)習(xí)網(wǎng)絡(luò)如何處理輸入的可理解或可形式化的知識,而需要具有人類信任的判斷特征,將深度學(xué)習(xí)概念化為“一種它可以‘不依賴解釋和說明’的判斷機器”。[5]筆者根據(jù)深度學(xué)習(xí)的功能和特點將其定義為:是一種可以在數(shù)據(jù)中通過自我訓(xùn)練,不斷提取特征,進(jìn)而歸納形成抽象的智能機器模型。
目前深度學(xué)習(xí)主要分為三大類:卷積神經(jīng)網(wǎng)絡(luò)、反饋深度網(wǎng)絡(luò)以及雙向深度網(wǎng)絡(luò)。[4]其中卷積神經(jīng)網(wǎng)絡(luò)主要采取一種自底向上的經(jīng)驗學(xué)習(xí)訓(xùn)練方法,而反饋深度網(wǎng)絡(luò)主要采取一種自頂向下的與卷積神經(jīng)網(wǎng)絡(luò)逆思路的先驗學(xué)習(xí)方法,雙向深度網(wǎng)絡(luò)則是前兩種訓(xùn)練方法的結(jié)合。卷積神經(jīng)網(wǎng)絡(luò)通常由輸入層、若干個交替設(shè)置的卷積層和池化層、全連接層以及輸出層組成。其中深度學(xué)習(xí)的特征提取能力主要來自于卷積層和池化層,相對應(yīng)視皮層的簡單細(xì)胞和復(fù)雜細(xì)胞的感受野機制。而學(xué)習(xí)的關(guān)鍵在于調(diào)整適應(yīng)數(shù)據(jù)的網(wǎng)絡(luò)鏈路中的權(quán)值,使數(shù)據(jù)能夠在特定的網(wǎng)絡(luò)結(jié)構(gòu)中經(jīng)過相應(yīng)地適應(yīng)算法得到較好的訓(xùn)練效果。但由于訓(xùn)練規(guī)則不被事先預(yù)定,其輸出也不知如何獲得,因而具有不可解釋性。
引起深度學(xué)習(xí)不透明性問題的原因是多方面的。曼努埃爾·卡拉班塔斯對“意圖隱藏”“技術(shù)文盲”“認(rèn)知錯配”[6]三種形式的不透明性進(jìn)行認(rèn)識論分析,指出“認(rèn)知錯配”是最令人擔(dān)憂的。事實正是如此,這里涉及是人為還是技術(shù)本身的問題。由于“認(rèn)知錯配”的根本原因來自于機器本身的技術(shù)復(fù)雜性,因此最容易失控;并且通常來說,深度學(xué)習(xí)的網(wǎng)絡(luò)結(jié)構(gòu)越是復(fù)雜,就表現(xiàn)得越是智能,與之相應(yīng)地也更加難以理解和解釋。因此在解決“黑盒問題”時,又面臨著如何解決深度學(xué)習(xí)的不透明性與其智能性之間的矛盾的問題。目前許多學(xué)者已經(jīng)提出一些深度學(xué)習(xí)不透明性的解決方法,拋開人為原因,一般分為分解類、折衷類和數(shù)學(xué)類。但由于算法的特殊性,如:極大似然估計算法,決定了其難以轉(zhuǎn)化為可理解的規(guī)則。
由于深度學(xué)習(xí)主要是模仿人類學(xué)習(xí),其對數(shù)據(jù)的處理模式主要是模仿人腦對信息的處理模式,因此,從人類認(rèn)識論角度對深度學(xué)習(xí)的學(xué)習(xí)過程進(jìn)行分析,是理解深度學(xué)習(xí)的認(rèn)識論問題的一種有效路徑。
深度學(xué)習(xí)作為一種人工神經(jīng)網(wǎng)絡(luò),是基于對生物腦神經(jīng)的模擬,可從傳統(tǒng)認(rèn)識論角度出發(fā)對其進(jìn)行理解。
經(jīng)驗主義者洛克主張,復(fù)雜觀念是簡單觀念的組合,旨在從特殊經(jīng)驗中歸納出一般知識;而貝克萊和休謨考慮到知識的有限性,避開對知識的過度概括,旨在尋找具有代表性的范例來認(rèn)識相關(guān)事物。假設(shè)我們要認(rèn)識蘋果,按照洛克的觀點,那么我們應(yīng)該如何確保所獲取的經(jīng)驗信息是關(guān)于蘋果而不是香蕉,這就需要在認(rèn)識的過程中只考慮蘋果的相關(guān)屬性信息。而按照貝克萊和休謨的觀點,我們既然無法獲取抽象概念,那么如何確定在認(rèn)識蘋果的時候認(rèn)識到的是具有代表性的紅蘋果而不是白蘋果呢?這就要考慮到能夠展現(xiàn)出一定細(xì)節(jié)的適當(dāng)范例。上一部分文中已經(jīng)提到,深度學(xué)習(xí)的特征提取能力主要來自于卷積層和池化層,相對應(yīng)視皮層的簡單細(xì)胞和復(fù)雜細(xì)胞的感受野機制;其中卷積層用于獲取事物的低層次特征,如位置、邊緣及方向等特征,而池化層則用于二次進(jìn)行特征提取,以確??臻g不變性。為提升學(xué)習(xí)效率,深度學(xué)習(xí)在這個過程中會不可避免地丟棄無用信息,而保留最具代表性的特征來進(jìn)行傳遞,輸出抽象概念。也就是說在深度學(xué)習(xí)過程之中要實現(xiàn)一種雙向轉(zhuǎn)化,使輸出的結(jié)果能夠包容具體數(shù)據(jù)的明顯個性特征,也能夠返回到具有代表性的范例,以起到雙向約束和促進(jìn)的作用。
而理性主義者笛卡爾和萊布尼茲主張通過演繹和推理來獲取知識?!翱档戮芙^只有兩種知識(先天的和后天的)的理論。他把先天知識與綜合知識相結(jié)合,他說我們有了第三種知識,先天綜合知識(synthetic a prior knowledge)——即可能開始于經(jīng)驗但不從經(jīng)驗產(chǎn)生,然而是直接被知的知識?!盵7](P20)對于傳統(tǒng)的經(jīng)典算法,為了實現(xiàn)一種通用機制,通常進(jìn)行預(yù)先定義以期實現(xiàn)對事物的類比表征,實質(zhì)上是一種計算主義或功能主義。這種方法的缺點是無法從數(shù)據(jù)中真正學(xué)習(xí)到什么,而主要依賴于相關(guān)規(guī)則計算。然而盡管深度學(xué)習(xí)的學(xué)習(xí)方法能夠自主地從數(shù)據(jù)中提取規(guī)則,但是也無法擺脫其中隱含的一些演繹或推理形式,如其中的一些算法、一些先驗概率估計,此時更需要一種經(jīng)驗主義和理性主義的調(diào)和形式,這更符合康德的一種綜合的認(rèn)識論形式。針對于一些需要優(yōu)化的問題,深度學(xué)習(xí)的不透明性通常以實驗的方式證明其是否得到改善,而缺乏一種數(shù)學(xué)邏輯的驗證與解釋。
但基于馬克思主義認(rèn)識論的實踐觀來看,人的認(rèn)識由收集豐富的感性材料逐步整理歸納上升到理性認(rèn)識,從而抓住事情的本質(zhì),并不斷循環(huán),以形成對世界規(guī)律的更全面的認(rèn)識。這種認(rèn)識論從唯物主義的角度確定了認(rèn)識的主體是處于一定社會文化中的人,同時擁有著理性思維和非理性思維。這種理論似乎更像是對機器思維的一種批判,有助于理解人類思維與機器思維的顯著差異。盡管人工神經(jīng)網(wǎng)絡(luò)是對生物腦神經(jīng)的模擬,但是,形成對事物的認(rèn)識并非是大腦神經(jīng)的孤軍奮斗,更需要以一個能夠容納身體、環(huán)境等因素的系統(tǒng)性的觀點來對其進(jìn)行理解。因此,這預(yù)示了對傳統(tǒng)認(rèn)識論的分析是認(rèn)識深度學(xué)習(xí)的必要不充分條件,為此仍需要對深度學(xué)習(xí)進(jìn)一步具體分析。
作為對傳統(tǒng)認(rèn)識論的補充,需要進(jìn)一步加深對身為機器本身的深度學(xué)習(xí)的認(rèn)識。既然深度學(xué)習(xí)的學(xué)習(xí)過程是一個“黑盒問題”,那么它是基于什么原理提出的呢?人工神經(jīng)網(wǎng)絡(luò)是基于模仿生物腦的神經(jīng)結(jié)構(gòu),人工神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元之間的激活傳遞是基于模仿生物腦中神經(jīng)元之間的電信號傳輸。而為什么深度學(xué)習(xí)能夠在一個蓋然性中獲得一個泛化能力較強的知識?即為什么深度學(xué)習(xí)的訓(xùn)練過程是在一個不可預(yù)測的環(huán)境中完成,但是卻能夠產(chǎn)生相對滿足人們預(yù)期的成果?人類認(rèn)識也同樣具有與深度學(xué)習(xí)相同的不可解釋性特征嗎?
基于此類問題,以下將對深度學(xué)習(xí)的認(rèn)識主體、認(rèn)識客體、認(rèn)識工具進(jìn)行分析。對于深度學(xué)習(xí)來說其認(rèn)識主體就是其本身,認(rèn)識客體則為深度學(xué)習(xí)的輸出結(jié)果,而認(rèn)識工具則是深度學(xué)習(xí)整個訓(xùn)練過程中所參與的訓(xùn)練要素。
深度學(xué)習(xí)的認(rèn)識主體屬于非生物物質(zhì)實體,那么它具有單獨的與物質(zhì)世界進(jìn)行互動以及認(rèn)識世界的能力嗎?假設(shè)有充足的實踐和精力將深度學(xué)習(xí)的網(wǎng)絡(luò)架構(gòu)還原成人的大腦神經(jīng),能否通過相同的數(shù)據(jù)內(nèi)容預(yù)測出深度學(xué)習(xí)的輸出結(jié)果?事實上,目前人工神經(jīng)網(wǎng)絡(luò)還在低水平的對視覺皮層的神經(jīng)系統(tǒng)模擬上表現(xiàn)得比較出色,而人類大腦是更為復(fù)雜的千絲萬縷的神經(jīng)元間的動態(tài)互動,人工神經(jīng)元還難以實現(xiàn),即使有這種可能性。根據(jù)具身認(rèn)知理論,人類思維的運作是關(guān)乎大腦神經(jīng)、身體、以及外部環(huán)境的交互性認(rèn)知結(jié)果。因此,通過這種方式來理解深度學(xué)習(xí)的不可解釋性不夠充分,也不足以厘清人類認(rèn)識的不可解釋性。那么僅僅在低層次水平上對其進(jìn)行詳盡地說明呢?即以一種詳細(xì)的數(shù)學(xué)方法是否可以解決其不透明性問題?這需要對深度學(xué)習(xí)的認(rèn)識過程做進(jìn)一步分析。
深度學(xué)習(xí)的訓(xùn)練過程大體包括:輸入層、隱藏層、輸出層。深度學(xué)習(xí)之所以能夠做到形成抽象,主要是由于多層隱藏層能夠不斷地對數(shù)據(jù)對象進(jìn)行特征提取,并通過適應(yīng)算法非線性映射進(jìn)行特征傳遞。而針對于深度學(xué)習(xí)的不可解釋性的關(guān)鍵原因在于為適應(yīng)數(shù)據(jù)而進(jìn)行的權(quán)值調(diào)整。由于算法在運算的整個過程中是不變的,而神經(jīng)元之間的鏈接權(quán)值卻需要根據(jù)數(shù)據(jù)進(jìn)行調(diào)整以滿足預(yù)期效果。然而由于其中隱藏層的數(shù)量不可知,要計算的矩陣算法十分龐大復(fù)雜,并且其中的計算步驟并不具有功能性解釋,因此,即使有以數(shù)學(xué)方式實現(xiàn)其過程的可能性,似乎也并不具有理想中的現(xiàn)實意義。那么,我們應(yīng)該怎樣看待深度學(xué)習(xí)的認(rèn)識結(jié)果?
深度學(xué)習(xí)的認(rèn)識結(jié)果即輸出結(jié)果,所謂的不可解釋性,就是缺乏對深度學(xué)習(xí)的輸出結(jié)果的合理解釋。依據(jù)曼努埃爾·卡拉班塔斯的觀點,人工神經(jīng)網(wǎng)絡(luò)與人類認(rèn)知不同,人類帶有一定的認(rèn)知偏見,而機器著重于從啟發(fā)性規(guī)則中探索整個空間的計算可能的解決方案。[6]我們不要求人類的行為決策具有可解釋性,但要求機器決策過程是可解釋的,這是合理的。馬萌、王平等認(rèn)為,關(guān)于深層神經(jīng)網(wǎng)絡(luò)存在一組矛盾,即可解釋性與準(zhǔn)確性之間的矛盾。[8]準(zhǔn)確性要求使用復(fù)雜的混淆矩陣,而可解釋性要求降低訓(xùn)練模型復(fù)雜度。那如何在保證深度學(xué)習(xí)訓(xùn)練過程的有效性情況下來認(rèn)識深度學(xué)習(xí)?阿爾諾·舒巴赫認(rèn)為,基于規(guī)則的計算的解釋并不等于功能性上的解釋,打開“黑盒”不會也不能立刻產(chǎn)生理解深度學(xué)習(xí)工作原理所需要的透明度。[5]因此,需要提供一種證明形式來提供額外的信息,來證明深度學(xué)習(xí)的輸出是正確的。專家可以由他的經(jīng)驗或權(quán)威來證明,深度學(xué)習(xí)可以由加工的經(jīng)驗和歷史提供判斷,這要求我們將深度學(xué)習(xí)看作一個判斷機器而不是計算機器。此外,卡梅隆·巴克納指出,我們可能會試圖在未來通過為黑盒子填充正確的細(xì)節(jié)來消除這種理想化,但是如果我們的解釋只涉及整個主體的感知相似性和分類判斷,那么這樣做可能會使模型的實現(xiàn)復(fù)雜化而沒有解釋的回報。[9]總的來說,包含支持或不支持對深度學(xué)習(xí)進(jìn)行解釋的兩個派別。筆者認(rèn)為,解釋不等于理解,深度學(xué)習(xí)的認(rèn)識論在某種程度上提供理解比解釋更有意義,而理解也不必將其訓(xùn)練過程轉(zhuǎn)化為可形式化的具體細(xì)節(jié)。
與此同時,若是對解釋性過于追求是否會導(dǎo)致解決主義的傾向呢?技術(shù)解決主義可看作理性主義在科學(xué)技術(shù)上所表現(xiàn)的一種極端的觀點,旨在通過計算對人類實踐進(jìn)行表征,以達(dá)到預(yù)期的功能實現(xiàn)。而實驗證明,技術(shù)解決主義容易忽略人的心理和社會影響。為此,約翰·加德納和納瑞爾·沃倫認(rèn)為,對于技術(shù)干預(yù)需要采取一種護(hù)理制度來應(yīng)對受試者的心理和社會影響問題,[10]這為科技的合理應(yīng)用需要人類的參與提供了一種有意義的說明。而深度學(xué)習(xí)本身并不會走向技術(shù)解決主義,反而給技術(shù)解決主義者帶來難題。深度學(xué)習(xí)的“黑盒問題”不符合技術(shù)解決主義所認(rèn)為的人類實踐可以測量的問題。在很大程度上,我們是社會的一份子,社會狀況本身就難以解釋,有眾多復(fù)雜因素相互交錯,難以做到定義明確,計算精確。因此,從深度學(xué)習(xí)相較于傳統(tǒng)機器學(xué)習(xí)方式的變化中能夠體現(xiàn)出,在與人類合作實踐的過程中深度學(xué)習(xí)的作用發(fā)生了變化,但其仍不能獨立地認(rèn)識世界。
基于深度學(xué)習(xí)的特點,本文對深度學(xué)習(xí)的未來發(fā)展提出兩點展望:一是深度學(xué)習(xí)可能會試圖改變對大數(shù)據(jù)的依賴,而轉(zhuǎn)向關(guān)注小數(shù)據(jù);二是深度學(xué)習(xí)的發(fā)展是為接近智能而非替代智能。第一點指向了深度學(xué)習(xí)目前的局限性,第二點指出了人機融合發(fā)展的趨勢和可能性。
深度學(xué)習(xí)近些年之所以能夠取得突飛猛進(jìn)的發(fā)展,不僅得益于相關(guān)的硬件和軟件性能的提高,更是得益于信息時代背景下爆炸式的數(shù)據(jù)涌現(xiàn)。深度學(xué)習(xí)的訓(xùn)練效果十分依賴于可使用的海量訓(xùn)練集,而事實上,由于出于隱私保護(hù)或資本利益的追逐,許多關(guān)鍵可使用數(shù)據(jù)受到人為限制,進(jìn)而一定程度上影響了深度學(xué)習(xí)的訓(xùn)練效果。而這種限制,部分是出于合理的需要,因此這種對大數(shù)據(jù)的依賴體現(xiàn)出深度學(xué)習(xí)的局限性。此外,在一些自然語言處理領(lǐng)域,深度學(xué)習(xí)往往表現(xiàn)得不夠出色。在一些需要隱私保護(hù)的少量數(shù)據(jù)中,深度學(xué)習(xí)需要人的合作來加快機器的學(xué)習(xí)曲線,并及時處理一些有潛在惡意的情況。[11]因而深度學(xué)習(xí)推出一種“零—小”樣本學(xué)習(xí)方法,“與小樣本學(xué)習(xí)和零樣本學(xué)習(xí)類似,‘零—小’樣本學(xué)習(xí)借助于通用的類別特征描述,在少量支持樣本條件下實現(xiàn)對新類別或概念的識別?!盵12]“零—小”樣本學(xué)習(xí)方法能融合多方知識,進(jìn)行歸納,識別新概念,是一種提升深度學(xué)習(xí)智能程度的行之有效的方法。一方面,這種學(xué)習(xí)方法為解決深度學(xué)習(xí)對大量數(shù)據(jù)過度依賴問題提供了一個可能的出路;另一方面,也為機器知識與人類認(rèn)知的結(jié)合指明一定的研究方向。
深度學(xué)習(xí)表現(xiàn)出來的成功或許并不意味著其為替代人類思維而生。盡管深度學(xué)習(xí)目前與人類思維均具有不可解釋性,但引起兩者的原因并不相同。人類主要是由于神經(jīng)元突觸引起,而深度學(xué)習(xí)既有人為原因又有機器本身復(fù)雜性的原因。況且根據(jù)林恩·魯?shù)聽枴へ惪说挠^點,人類思維所表現(xiàn)的自我意識需要有一個存在的個體作為前提條件,并且這個個體需要擁有第一人稱視角,能夠進(jìn)行包含體現(xiàn)自己價值觀、信仰等的自我敘述。[13]而這些條件同時存在對于深度學(xué)習(xí)來說幾乎是不可能的,這引起了一個應(yīng)該怎樣看待深度學(xué)習(xí)的問題。
深度學(xué)習(xí)認(rèn)識對象并非事物本身,而是符號化的大量數(shù)據(jù)。這些數(shù)據(jù)來自人類經(jīng)驗,具有物理性質(zhì),本身已經(jīng)具備邏輯性,是深度學(xué)習(xí)認(rèn)識對象的載體。深度學(xué)習(xí)將數(shù)據(jù)轉(zhuǎn)化為機器語言,使數(shù)據(jù)能夠輸入到機器模型之中,并通過機器模型進(jìn)行處理,進(jìn)行歸納分析,輸出結(jié)果。因此,深度學(xué)習(xí)在獲得知識的過程中難以脫離人的認(rèn)識,是對人類認(rèn)識的再處理。根據(jù)延展認(rèn)知理論,外部載體在功能性的實現(xiàn)上可以成為人類認(rèn)知的一部分,深度學(xué)習(xí)對人類認(rèn)知的參與能夠有效地節(jié)約人類大量計算成本和提升從數(shù)據(jù)中進(jìn)行規(guī)律總結(jié)的效率。因此,深度學(xué)習(xí)應(yīng)成為人類與科技合作的基礎(chǔ),而不是替代人類認(rèn)知。
深度學(xué)習(xí)具有非凡的概念化抽象能力,與此同時具有典型的不可解釋性特征。由于深度學(xué)習(xí)網(wǎng)絡(luò)是基于生物腦神經(jīng)的模擬,本文從傳統(tǒng)認(rèn)識論角度認(rèn)識深度學(xué)習(xí)這種抽象能力。對于認(rèn)識的獲得方式,經(jīng)驗主義者、理性主義者以及實踐主義者均有不同的觀點。事實上,以這些觀點來認(rèn)識深度學(xué)習(xí)不應(yīng)該以一種非此即彼的立場,而更應(yīng)以一種調(diào)和的方式實現(xiàn)相關(guān)認(rèn)識方法的結(jié)合。因為深度學(xué)習(xí)既需要大量的經(jīng)驗數(shù)據(jù)進(jìn)行訓(xùn)練,又依賴于先驗算法來實現(xiàn)機器的訓(xùn)練效果??紤]到深度學(xué)習(xí)與人類認(rèn)識并不完全相同,因此從傳統(tǒng)認(rèn)識論角度來分析深度學(xué)習(xí),只能是對于深度學(xué)習(xí)的一種認(rèn)識論補充,仍需要對深度學(xué)習(xí)進(jìn)行具體的分析。通過對深度學(xué)習(xí)的主體、過程、結(jié)果三個關(guān)鍵要素進(jìn)行分析,發(fā)現(xiàn)對深度學(xué)習(xí)的理解比對其進(jìn)行解釋更有意義,且深度學(xué)習(xí)目前尚無法獨立地認(rèn)識世界。筆者認(rèn)為,為追求實現(xiàn)智能的最初目標(biāo)以及爭取突破性的進(jìn)展,深度學(xué)習(xí)將會更加關(guān)注小數(shù)據(jù)的應(yīng)用和訓(xùn)練方法以及人機融合的發(fā)展趨勢,實現(xiàn)合作共贏。