王雄
盡管深度學(xué)習(xí)已經(jīng)在人工智能領(lǐng)域做出重大貢獻(xiàn),但這項(xiàng)技術(shù)本身仍存在一項(xiàng)致命缺陷:需要大量數(shù)據(jù)的加持。深度學(xué)習(xí)領(lǐng)域的先驅(qū)者乃至批評(píng)者已經(jīng)就此達(dá)成共識(shí)———事實(shí)上,正是由于可用數(shù)據(jù)量有限,加上處理大規(guī)模數(shù)據(jù)的計(jì)算能力不足,才導(dǎo)致深度學(xué)習(xí)直到最近幾年才成為AI層面的前沿技術(shù)。
因此,減少深度學(xué)習(xí)對(duì)數(shù)據(jù)的依賴性,已經(jīng)成為AI研究人員最重要的探索方向之一。
在AAAI大會(huì)的主題演講中,計(jì)算機(jī)科學(xué)家Yann LeCun討論了當(dāng)前深度學(xué)習(xí)技術(shù)的局限性,同時(shí)提出“自我監(jiān)督學(xué)習(xí)”的發(fā)展藍(lán)圖———這是他為解決深度學(xué)習(xí)數(shù)據(jù)問(wèn)題而構(gòu)建的路線圖。作為深度學(xué)習(xí)領(lǐng)域教父級(jí)人物之一,LeCun正是卷積神經(jīng)網(wǎng)絡(luò)的發(fā)明者,而該網(wǎng)絡(luò)也成為過(guò)去十年推動(dòng)人工智能革命的一大核心因素。
自我監(jiān)督學(xué)習(xí),是當(dāng)前提升人工智能系統(tǒng)數(shù)據(jù)利用效率的多種嘗試之一。目前還很難斷言哪種具體嘗試能夠成功掀起下一輪AI革命,也許我們最終會(huì)采取完全不同的政策,但LeCun的規(guī)劃與思路仍然值得認(rèn)真了解。
深度學(xué)習(xí)的局限性
首先,LeCun強(qiáng)調(diào)稱,深度學(xué)習(xí)技術(shù)面對(duì)的局限性實(shí)際上正是監(jiān)督學(xué)習(xí)技術(shù)的局限性。所謂監(jiān)督學(xué)習(xí),屬于一類需要對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行標(biāo)記才能正常完成學(xué)習(xí)的算法。例如,如果希望創(chuàng)建圖像分類模型,則必須為系統(tǒng)提供經(jīng)過(guò)適當(dāng)分類標(biāo)記的大量圖像,由模型在其中完成充分訓(xùn)練。
LeCun在AAAI主題演講中提到,“深度學(xué)習(xí)并不是監(jiān)督學(xué)習(xí),也不只是神經(jīng)網(wǎng)絡(luò)?;旧?,深度學(xué)習(xí)是將參數(shù)化的模塊組裝到計(jì)算圖中以構(gòu)建起AI系統(tǒng)。它的優(yōu)勢(shì)在于,我們不需要對(duì)系統(tǒng)進(jìn)行直接編程———我們只需要定義架構(gòu)并調(diào)整參數(shù)。不過(guò)其中需要調(diào)整的參數(shù)可能多達(dá)數(shù)十億之巨。”
LeCun同時(shí)補(bǔ)充道,深度學(xué)習(xí)適用于多種不同學(xué)習(xí)范式,包括監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)以及無(wú)監(jiān)督/自我監(jiān)督學(xué)習(xí)等。
但目前人們對(duì)于深度學(xué)習(xí)以及監(jiān)督學(xué)習(xí)的抱怨并非空穴來(lái)風(fēng)。當(dāng)下,大部分能夠?qū)嶋H應(yīng)用的深度學(xué)習(xí)算法都基于監(jiān)督學(xué)習(xí)模型,這也充分暴露出現(xiàn)有AI系統(tǒng)的缺點(diǎn)所在。我們?nèi)粘J褂玫膱D像分類器、人臉識(shí)別系統(tǒng)、語(yǔ)音識(shí)別系統(tǒng)以及眾多其他AI應(yīng)用都需要利用數(shù)百萬(wàn)個(gè)帶有標(biāo)記的示例進(jìn)行充分訓(xùn)練。
目前,強(qiáng)化學(xué)習(xí)與無(wú)監(jiān)督學(xué)習(xí)只能算是在理論上存在的其他機(jī)器學(xué)習(xí)算法類型,還極少在實(shí)踐場(chǎng)景中得到應(yīng)用。
深度學(xué)習(xí)的發(fā)展?fàn)顩r
監(jiān)督深度學(xué)習(xí)為我們帶來(lái)多種非常實(shí)用的應(yīng)用方案,特別是在計(jì)算機(jī)視覺(jué)與自然語(yǔ)言處理等特定領(lǐng)域。深度學(xué)習(xí)已經(jīng)在癌癥檢測(cè)等敏感應(yīng)用中扮演越來(lái)越重要的角色,且事實(shí)證明,其確實(shí)能夠在部分人類無(wú)法解決的問(wèn)題中發(fā)揮核心作用。例如,社交媒體巨頭們正紛紛利用這類技術(shù)審核并通報(bào)用戶在平臺(tái)上發(fā)布的大量?jī)?nèi)容。
LeCun表示,“如果把深度學(xué)習(xí)元素從Facebook,Instagram,YouTube等廠商中剝離出來(lái),他們的業(yè)務(wù)會(huì)瞬間崩潰。事實(shí)上,他們的業(yè)務(wù)完全圍繞深度學(xué)習(xí)構(gòu)建而成?!?/p>
但正如前文所述,監(jiān)督學(xué)習(xí)只適用于具備充足高質(zhì)量數(shù)據(jù)、且數(shù)據(jù)內(nèi)容足以涵蓋所有可能情況的場(chǎng)景。一旦經(jīng)過(guò)訓(xùn)練的深度學(xué)習(xí)模型遇到不同于訓(xùn)練示例的全新?tīng)顩r,它們的表現(xiàn)將徹底失去控制。在某些情況下,單是從稍有區(qū)別的角度展示對(duì)象,就有可能令神經(jīng)網(wǎng)絡(luò)將其誤判為其他物體。
深度強(qiáng)化學(xué)習(xí)則在游戲與模擬場(chǎng)景中表現(xiàn)出強(qiáng)大能力。過(guò)去幾年以來(lái),強(qiáng)化學(xué)習(xí)已經(jīng)征服了眾多以往人工智能無(wú)法攻克的游戲項(xiàng)目。當(dāng)下,AI程序在《星際爭(zhēng)霸2》《Dota》以及具有悠久歷史的圍棋領(lǐng)域?qū)⑷祟愴敿膺x手殺得片甲不留。
但是,這些AI程序在摸索解決問(wèn)題的方法方面,與人類完全不同?;旧希瑥?qiáng)化學(xué)習(xí)代理就是一張白紙,我們只為其提供在特定環(huán)境中能夠執(zhí)行的一組基本操作。接下來(lái),AI會(huì)不斷自行嘗試,通過(guò)反復(fù)試驗(yàn)來(lái)學(xué)習(xí)如何獲取最高獎(jiǎng)勵(lì)(例如盡可能在游戲中取勝)。
當(dāng)問(wèn)題空間比較簡(jiǎn)單,而且我們擁有充足的計(jì)算能力以運(yùn)行更多不斷重復(fù)的試驗(yàn)性會(huì)話時(shí),這類模型就能正常起效。在大多數(shù)情況下,強(qiáng)化學(xué)習(xí)代理要耗費(fèi)大量時(shí)間以掌握游戲精髓,而巨大的成本也意味著這類技術(shù)只能存在于高科技企業(yè)內(nèi)部或者由其資助的研究實(shí)驗(yàn)室當(dāng)中。
強(qiáng)化學(xué)習(xí)系統(tǒng)的另一大短板體現(xiàn)在遷移學(xué)習(xí)方面。如果要游玩《魔獸爭(zhēng)霸3》,那么即使是已經(jīng)精通了《星際爭(zhēng)霸2》的代理,也需要從零開(kāi)始接受訓(xùn)練。實(shí)際上,即使對(duì)《星際爭(zhēng)霸2》游戲環(huán)境做出一點(diǎn)點(diǎn)微小發(fā)動(dòng),亦會(huì)嚴(yán)重影響AI的實(shí)際表現(xiàn)。相反,人類非常擅長(zhǎng)從一款游戲中提取抽象概念,并快速將其遷移至新的游戲當(dāng)中。
強(qiáng)化學(xué)習(xí)在解決無(wú)法準(zhǔn)確模擬的現(xiàn)實(shí)問(wèn)題時(shí),同樣顯示出強(qiáng)烈的局限性。LeCun提到,“如果想要訓(xùn)練一輛無(wú)人駕駛汽車,我們?cè)撛趺崔k?”這類使用場(chǎng)景確實(shí)很難準(zhǔn)確模擬,因此為了開(kāi)發(fā)出一臺(tái)真正具備無(wú)人駕駛能力的汽車,“我們恐怕得撞毀很多很多汽車。”而且與模擬環(huán)境不同,我們無(wú)法在現(xiàn)實(shí)場(chǎng)景中快速進(jìn)行實(shí)驗(yàn),更遑論由現(xiàn)實(shí)實(shí)驗(yàn)帶來(lái)的巨大成本。
深度學(xué)習(xí)面臨的挑戰(zhàn)
LeCun將深度學(xué)習(xí)面臨的挑戰(zhàn)分為3個(gè)具體領(lǐng)域。
首先,我們需要開(kāi)發(fā)出能夠利用更少樣本或者更少試驗(yàn)學(xué)習(xí)完成訓(xùn)練的AI系統(tǒng)。LeCun指出,“我的建議是使用無(wú)監(jiān)督學(xué)習(xí),個(gè)人更傾向稱其為自我監(jiān)督學(xué)習(xí),因?yàn)槠渲杏玫降乃惴ㄈ匀活愃朴诒O(jiān)督學(xué)習(xí),只是監(jiān)督學(xué)習(xí)的作用主要在于填補(bǔ)空白。總而言之,在學(xué)習(xí)任務(wù)之前,系統(tǒng)需要首先了解這個(gè)世界,例如,嬰兒或者小動(dòng)物都是這樣成長(zhǎng)的。我們首先接觸這個(gè)世界、理解其運(yùn)作規(guī)律,而后才考慮如何解決具體任務(wù)。只要能看懂這個(gè)世界,那么學(xué)習(xí)新任務(wù)就只需要很少的試驗(yàn)與樣本量?!?/p>
嬰兒在出生后的前幾個(gè)月內(nèi),會(huì)快速建立起關(guān)于引力、尺寸與物體性狀的概念。雖然研究人員還無(wú)法確定其中有多少屬性與大腦建立起硬連接、又存在多少具體認(rèn)知,但可以肯定的是,人類首先觀察周邊世界、而后才會(huì)進(jìn)行實(shí)際行動(dòng)并與之交互。
第二項(xiàng)挑戰(zhàn)在于構(gòu)建起具備推理能力的深度學(xué)習(xí)系統(tǒng)?,F(xiàn)有深度學(xué)習(xí)系統(tǒng)的推理能力不足,因此需要大量數(shù)據(jù)才能解決那些最簡(jiǎn)單的任務(wù)。
LeCun指出:“問(wèn)題在于,我們要如何超越現(xiàn)有前饋計(jì)算與系統(tǒng)1?我們要如何讓推理與基于梯度的學(xué)習(xí)方式相兼容?我們要如何在推理中實(shí)現(xiàn)差異性?這些都是最基本的問(wèn)題。”
系統(tǒng)1是指那些不需要主動(dòng)思考的學(xué)習(xí)任務(wù),例如在已知區(qū)域內(nèi)導(dǎo)航或者進(jìn)行少量計(jì)算。系統(tǒng)2則代表一種較為活躍的思維方式,需要推理能力的支持。作為AI領(lǐng)域的經(jīng)典方案,象征性人工智能已經(jīng)在推理與抽象領(lǐng)域帶來(lái)廣受好評(píng)的能力提升。
但LeCun并不建議人們廣泛采用這些備受科學(xué)家推崇的象征性AI或者混合人工智能系統(tǒng)。對(duì)于AI未來(lái)的發(fā)展愿景,他的思路與另一位深度學(xué)習(xí)先驅(qū)Yoshua Bengio更為接近。他在NeurIPS 2019大會(huì)上介紹了系統(tǒng)2深度學(xué)習(xí)的概念,并在AAAI 2020大會(huì)上做出進(jìn)一步討論。但LeCun也坦言,在實(shí)現(xiàn)深度學(xué)習(xí)系統(tǒng)的推理能力方面,“并不存在完美的答案”。
第三大挑戰(zhàn)在于如何建立深度學(xué)習(xí)系統(tǒng),確保其能夠?qū)W習(xí)并規(guī)劃復(fù)雜的行動(dòng)序列,進(jìn)而將任務(wù)拆分為多個(gè)子任務(wù)。深度學(xué)習(xí)系統(tǒng)擅長(zhǎng)為問(wèn)題提供端到端的解決方案,但卻很難將其分解為可解釋且可修改的特定步驟。目前,業(yè)界已經(jīng)在AI系統(tǒng)對(duì)圖像、語(yǔ)音及文本的分解方面取得一定進(jìn)展,由Geoffry Hinton發(fā)明的膠囊網(wǎng)絡(luò)成功解決了其中一部分難題。
但學(xué)習(xí)復(fù)雜的推理任務(wù)仍然遠(yuǎn)超現(xiàn)有AI的能力上限。LeCun承認(rèn):“我們不知道要如何實(shí)現(xiàn)這種能力?!?/p>
自我監(jiān)督學(xué)習(xí)
自我監(jiān)督學(xué)習(xí)的基本思路,是開(kāi)發(fā)出一種能夠填補(bǔ)上述空白的深度學(xué)習(xí)系統(tǒng)。
LeCun解釋道:“我們只需要向此類系統(tǒng)展示輸入、文本、視頻甚至是圖像,而后剔除出其中一部分,由經(jīng)過(guò)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)或者選定的類或模型預(yù)測(cè)這些缺失的部分。預(yù)測(cè)對(duì)象可以是視頻內(nèi)容的后續(xù)走向,也可以是文本中缺少的詞匯?!?/p>
目前最接近自我監(jiān)督學(xué)習(xí)系統(tǒng)的是Transformers,這是一種在自然語(yǔ)言處理領(lǐng)域大放異彩的架構(gòu)方案。Transformers不需要標(biāo)記數(shù)據(jù),可以通過(guò)維基百科等資料進(jìn)行大規(guī)模非結(jié)構(gòu)化文本訓(xùn)練。而且事實(shí)證明,與之前的同類系統(tǒng)相比,Transformers在生成文本、組織對(duì)話以及建立回復(fù)內(nèi)容方面擁有更好的表現(xiàn),雖然它們?nèi)匀粺o(wú)法真正理解人類語(yǔ)言。
Transformers已經(jīng)相當(dāng)流行,并成為幾乎一切最新語(yǔ)言模型的基礎(chǔ)技術(shù),包括谷歌的BERT,F(xiàn)acebook的RoBERTa,OpenAI的GPT2以及谷歌的Meena聊天機(jī)器人。
最近,AI研究人員還證明,Transformers能夠進(jìn)行積分運(yùn)算并求解微分方程。換言之,它已經(jīng)展現(xiàn)出解決符號(hào)處理問(wèn)題的能力。這可能暗示著Transformers的發(fā)展最終有望推動(dòng)神經(jīng)網(wǎng)絡(luò)突破模式識(shí)別與近似任務(wù)統(tǒng)計(jì)等傳統(tǒng)應(yīng)用的樊籬。
截至目前,Transformers已經(jīng)證明了自己在處理離散數(shù)據(jù)(例如單詞與數(shù)學(xué)符號(hào))方面的價(jià)值。LeCun指出:“訓(xùn)練這類系統(tǒng)比較簡(jiǎn)單,因?yàn)殡m然單詞遺漏可能造成一定程度的不確定性,但我們可以利用完整詞典中的巨大概率矢量來(lái)表達(dá)這種不確定性,所以問(wèn)題不大?!?/p>
但Transformers還沒(méi)能將自己的威力引入視覺(jué)數(shù)據(jù)領(lǐng)域。LeCun解釋稱:“事實(shí)證明,在圖像與視頻中表達(dá)不確定性并做出預(yù)測(cè),其難度要遠(yuǎn)高于文本層面的不確定性表達(dá)與預(yù)測(cè)。這是因?yàn)閳D像與視頻內(nèi)容并非離散存在。我們可以根據(jù)詞典生成所有單詞的分布情況,但卻不可能表達(dá)所有潛在視頻幀的分布情況?!?/p>
對(duì)于每個(gè)視頻片段,都存在著無(wú)數(shù)種可能的后續(xù)情況。這就導(dǎo)致AI系統(tǒng)很難預(yù)測(cè)出特定結(jié)果,例如視頻內(nèi)接下來(lái)幾幀所展示的畫面。神經(jīng)網(wǎng)絡(luò)只能計(jì)算出可能結(jié)果的平均值,并據(jù)此輸出非常模糊的影像。
LeCun指出:“如果要將自我監(jiān)督學(xué)習(xí)應(yīng)用于視頻等多種形式,首先得解決這個(gè)核心技術(shù)問(wèn)題。”
LeCun個(gè)人最偏好的監(jiān)督學(xué)習(xí)方法,是所謂“基于能量的潛在變量模型”。其中的核心思路在于引入一個(gè)潛在變量,該變量用于計(jì)算變量(視頻中的當(dāng)前幀)與預(yù)測(cè)(視頻的未來(lái)幀)之間的兼容性,并選擇具有最佳兼容性得分的結(jié)果。LeCun也在演講中闡述了基于能量的模型與自我監(jiān)督學(xué)習(xí)的實(shí)現(xiàn)方法。
關(guān)于深度學(xué)習(xí)的未來(lái)
LeCun在AAAI大會(huì)的演講中提到:“我認(rèn)為自我監(jiān)督學(xué)習(xí)才是未來(lái),這意味著我們的AI系統(tǒng)與深度學(xué)習(xí)系統(tǒng)將更上一層樓,也許它們能夠通過(guò)觀察了解關(guān)于現(xiàn)實(shí)世界的充足背景知識(shí),進(jìn)而形成自己的某種常識(shí)體系?!?/p>
自我監(jiān)督學(xué)習(xí)的主要優(yōu)勢(shì)之一,在于AI能夠輸出巨大的信息量。在強(qiáng)化學(xué)習(xí)中,AI系統(tǒng)訓(xùn)練只能由標(biāo)量級(jí)別來(lái)決定;模型本身會(huì)收到一個(gè)數(shù)值,用于表示對(duì)相關(guān)行為的獎(jiǎng)勵(lì)或懲罰。在監(jiān)督學(xué)習(xí)中,AI系統(tǒng)會(huì)為每條輸入預(yù)測(cè)出對(duì)應(yīng)的類別或數(shù)值。
但在自我監(jiān)督學(xué)習(xí)中,輸出則能夠擴(kuò)展為完整的一幅甚至一組圖像。LeCun表示:“信息會(huì)更為豐富。而且只需要更少的樣本量,系統(tǒng)就能掌握關(guān)于真實(shí)世界的更多知識(shí)中?!?/p>
必須承認(rèn),不確定性問(wèn)題的處理方式仍然有待探索;但如果解決方案真正出現(xiàn),AI技術(shù)或?qū)⒂瓉?lái)通往光明未來(lái)的通天大道。
LeCun指出:“如果把人工智能看成一塊蛋糕,那么自我監(jiān)督學(xué)習(xí)就是糕餅部分,下一輪AI革命的核心將不在于監(jiān)督、也不在于純粹的強(qiáng)化?!?p>