• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    大數(shù)據(jù)分析的無限深度神經(jīng)網(wǎng)絡(luò)方法

    2016-04-28 08:36:30
    計算機研究與發(fā)展 2016年1期
    關(guān)鍵詞:大數(shù)據(jù)

    張 蕾   章 毅

    (四川大學計算機學院機器智能實驗室 成都 610065)

    (leizhang@scu.edu.cn)

    ?

    大數(shù)據(jù)分析的無限深度神經(jīng)網(wǎng)絡(luò)方法

    張蕾章毅

    (四川大學計算機學院機器智能實驗室成都610065)

    (leizhang@scu.edu.cn)

    Big Data Analysis by Infinite Deep Neural Networks

    Zhang Lei and Zhang Yi

    (MachineIntelligenceLaboratory,CollegeofComputerScience,SichuanUniversity,Chengdu610065)

    AbstractDeep neural networks (DNNs) and their learning algorithms are well known in the academic community and industry as the most successful methods for big data analysis. Compared with traditional methods, deep learning methods use data-driven and can extract features (knowledge) automatically from data. Deep learning methods have significant advantages in analyzing unstructured, unknown and varied model and cross field big data. At present, the most widely used deep neural networks in big data analysis are feedforward neural networks (FNNs). They work well in extracting the correlation from static data and suiting for data application scenarios based on classification. But limited by its intrinsic structure, the ability of feedforward neural networks to extract time sequence features is weak. Infinite deep neural networks, i.e. recurrent neural networks (RNNs) are dynamical systems essentially. Their essential character is that the states of the networks change with time and couple the time parameter. Hence they are very suit for extracting time sequence features. It means that infinite deep neural networks can perform the prediction of big data. If extending recurrent structure of recurrent neural networks in the time dimension, the depth of networks can be infinite with time running, so they are called infinite deep neural networks. In this paper, we focus on the topology and some learning algorithms of infinite deep neural networks, and introduce some successful applications in speech recognition and image understanding.

    Key wordsdeep neural networks (DNNs); infinite deep neural networks; feedforward neural networks (FNNs); recurrent neural networks (RNNs); big data

    摘要深度神經(jīng)網(wǎng)絡(luò)(deep neural networks, DNNs)及其學習算法,作為成功的大數(shù)據(jù)分析方法,已為學術(shù)界和工業(yè)界所熟知.與傳統(tǒng)方法相比,深度學習方法以數(shù)據(jù)驅(qū)動、能自動地從數(shù)據(jù)中提取特征(知識),對于分析非結(jié)構(gòu)化、模式不明多變、跨領(lǐng)域的大數(shù)據(jù)具有顯著優(yōu)勢.目前,在大數(shù)據(jù)分析中使用的深度神經(jīng)網(wǎng)絡(luò)主要是前饋神經(jīng)網(wǎng)絡(luò)(feedforward neural networks, FNNs),這種網(wǎng)絡(luò)擅長提取靜態(tài)數(shù)據(jù)的相關(guān)關(guān)系,適用于基于分類的數(shù)據(jù)應(yīng)用場景.但是受到自身結(jié)構(gòu)本質(zhì)的限制,它提取數(shù)據(jù)時序特征的能力有限.無限深度神經(jīng)網(wǎng)絡(luò)(infinite deep neural networks)是一種具有反饋連接的回復式神經(jīng)網(wǎng)絡(luò)(recurrent neural networks, RNNs),本質(zhì)上是一個動力學系統(tǒng),網(wǎng)絡(luò)狀態(tài)隨時間演化是這種網(wǎng)絡(luò)的本質(zhì)屬性,它耦合了“時間參數(shù)”,更加適用于提取數(shù)據(jù)的時序特征,從而進行大數(shù)據(jù)的預測.將這種網(wǎng)絡(luò)的反饋結(jié)構(gòu)在時間維度展開,隨著時間的運行,這種網(wǎng)絡(luò)可以“無限深”,故稱之為無限深度神經(jīng)網(wǎng)絡(luò).重點介紹這種網(wǎng)絡(luò)的拓撲結(jié)構(gòu)和若干學習算法及其在語音識別和圖像理解領(lǐng)域的成功實例.

    關(guān)鍵詞深度神經(jīng)網(wǎng)絡(luò);無限深度神經(jīng)網(wǎng)絡(luò);前饋神經(jīng)網(wǎng)絡(luò);回復式神經(jīng)網(wǎng)絡(luò);大數(shù)據(jù)

    自步入大數(shù)據(jù)時代伊始,大數(shù)據(jù)分析也應(yīng)運而生.從數(shù)據(jù)源頭到最終獲得價值,大數(shù)據(jù)在信息系統(tǒng)中的生命周期一般經(jīng)過“數(shù)據(jù)準備、數(shù)據(jù)存儲與管理、計算處理、數(shù)據(jù)分析和知識展現(xiàn)[1]”5個主要環(huán)節(jié),其中數(shù)據(jù)分析環(huán)節(jié)需要從“體量巨大(volume)、增長迅速(velocity)、類型多樣(variety)”的大數(shù)據(jù)中發(fā)現(xiàn)規(guī)律、提取知識.只有經(jīng)過了“數(shù)據(jù)分析”環(huán)節(jié),才能獲得深入的、有價值的信息,大數(shù)據(jù)的第4V特性,也是它的最重要特性——價值(value)才能夠真正得以體現(xiàn).因此大數(shù)據(jù)分析在大數(shù)據(jù)領(lǐng)域顯得尤為重要,是“從數(shù)據(jù)到信息”的決定性因素.

    大數(shù)據(jù)的4V特性也給大數(shù)據(jù)分析帶來新的挑戰(zhàn).全球數(shù)字數(shù)據(jù)量以每2年翻番的速度增長,今年內(nèi)將達到8ZB,相當于1800萬個美國國會圖書館[2].從人手一部的智能手機到視頻監(jiān)控攝像頭等傳感設(shè)備,時時刻刻都在不斷生成復雜的結(jié)構(gòu)化數(shù)據(jù)和非結(jié)構(gòu)化數(shù)據(jù),且非結(jié)構(gòu)化數(shù)據(jù)的增長速率比結(jié)構(gòu)化數(shù)據(jù)更快.IDC2011年的調(diào)查中指出,在未來10年產(chǎn)生的數(shù)據(jù)中非結(jié)構(gòu)化數(shù)據(jù)將占到90%.在人類全部數(shù)字化數(shù)據(jù)中,僅有一小部分數(shù)值型結(jié)構(gòu)化數(shù)據(jù)得到了深入分析和挖掘,也就是傳統(tǒng)的數(shù)據(jù)挖掘領(lǐng)域.網(wǎng)頁索引、社交數(shù)據(jù)等半結(jié)構(gòu)化數(shù)據(jù)在Google,Facebook等大型互聯(lián)網(wǎng)企業(yè)得到了一些淺層分析(如排序等).而占數(shù)據(jù)總量75%以上的文本、語音、圖片、視頻、社交網(wǎng)絡(luò)交互數(shù)據(jù)等非結(jié)構(gòu)化數(shù)據(jù)還難以進行有效的分析[2].

    傳統(tǒng)的數(shù)據(jù)分析方法,根據(jù)隨機采樣的先驗知識預先人工建立模型,然后依據(jù)既定模型進行分析.這種方法曾經(jīng)有效,因為當時它的處理對象多是結(jié)構(gòu)化、單一對象的小數(shù)據(jù)集[1].但在大數(shù)據(jù)環(huán)境中,它的固有弊端:依賴專家知識、無法遷移、精確性差等,已經(jīng)凸顯到無法忽視的地步了.因為占大數(shù)據(jù)主要部分的非結(jié)構(gòu)化數(shù)據(jù),往往模式不明且多變,無法獲得先驗知識,很難建立顯式的數(shù)學模型,這就需要發(fā)展更加智能的數(shù)據(jù)挖掘技術(shù).因此,大數(shù)據(jù)分析技術(shù)亟待在對非結(jié)構(gòu)化數(shù)據(jù)分析方面取得突破,從海量、復雜、多源數(shù)據(jù)中提取有用的知識,這就是以深度學習、神經(jīng)計算為代表的結(jié)合智能計算的大數(shù)據(jù)分析方法.

    2006年,深度學習領(lǐng)域?qū)W術(shù)奠基人之一——加拿大多倫多大學Hinton教授,根據(jù)人腦認知過程的分層特性,提出增加人工神經(jīng)網(wǎng)絡(luò)的層數(shù)和神經(jīng)元數(shù)量,構(gòu)建深度神經(jīng)網(wǎng)絡(luò)(deep neural networks, DNNs),可獲得優(yōu)異的特征學習能力,并在后續(xù)一系列的試驗中得以證實[3].這一事件引起學術(shù)界和工業(yè)界的高度關(guān)注,從此開啟了深度學習研究和大數(shù)據(jù)應(yīng)用的浪潮.今天,這股浪潮已席卷全球,而且還在持續(xù)升溫.2014年12月在北京舉行的2014中國大數(shù)據(jù)技術(shù)大會(BDTC 2014)暨第二屆CCF大數(shù)據(jù)學術(shù)會議上,由中國計算機學會(CCF)大數(shù)據(jù)專家委員會和中關(guān)村大數(shù)據(jù)產(chǎn)業(yè)聯(lián)盟主編的《中國大數(shù)據(jù)技術(shù)與產(chǎn)業(yè)發(fā)展白皮書(2014)》中,對2015年度大數(shù)據(jù)發(fā)展進行了十大預測,其中,“結(jié)合智能計算的大數(shù)據(jù)分析成為熱點”位列十大預測之首.文中明確指出“大數(shù)據(jù)與神經(jīng)計算、深度學習、語義計算以及人工智能其他相關(guān)技術(shù)結(jié)合,成為大數(shù)據(jù)分析領(lǐng)域的熱點”.

    以深度學習為代表的神經(jīng)計算方法,以數(shù)據(jù)驅(qū)動、能自動地從數(shù)據(jù)中提取特征(知識)[4],對于分析非結(jié)構(gòu)化、模式不明多變、跨領(lǐng)域的大數(shù)據(jù)具有顯著優(yōu)勢.深度學習的實質(zhì)是通過構(gòu)建具有很多隱層的機器學習模型和海量的訓練數(shù)據(jù),學習更精準的特征,從而最終提高分類或預測的準確性.由于大數(shù)據(jù)的信息維度極為豐富,只有像深度神經(jīng)計算模型這樣更復雜、表達力更強的模型,才能夠發(fā)掘數(shù)據(jù)中豐富的內(nèi)在信息.因此,大數(shù)據(jù)分析需要深度學習.

    1深度神經(jīng)網(wǎng)絡(luò)

    神經(jīng)網(wǎng)絡(luò)隸屬于人工智能領(lǐng)域的連接主義學派,是一種應(yīng)用類似于大腦神經(jīng)突觸連接的結(jié)構(gòu)進行信息處理的數(shù)學模型.20世紀50年代,第一代神經(jīng)網(wǎng)絡(luò)——感知機誕生[5],能夠?qū)崿F(xiàn)線性分類、聯(lián)想記憶等;20世紀80年代,多層感知機及其訓練算法——反向傳播算法(backpropagation, BP)[6],因為能夠解決線性不可分問題被廣泛研究和應(yīng)用.但是當時較為低下的硬件計算能力和網(wǎng)絡(luò)訓練算法易陷入局部極小等問題,成為制約神經(jīng)計算方法發(fā)展的瓶頸,直到2006年Hinton教授開創(chuàng)的“多層結(jié)構(gòu)、逐層學習”的深度學習方法[3],才使得神經(jīng)網(wǎng)絡(luò)的強大計算能力真正發(fā)揮出來,并在大數(shù)據(jù)的時代背景下成為大數(shù)據(jù)分析領(lǐng)域的一顆璀璨的明星.這種方法在語音識別、圖像識別、自然語言處理等方面,已經(jīng)取得了突破性的成功,以驚人的速度和結(jié)果,不斷刷新著這些應(yīng)用領(lǐng)域內(nèi)的各種標志性紀錄[4].

    目前,在大數(shù)據(jù)分析中使用的深度神經(jīng)網(wǎng)絡(luò)主要是前饋神經(jīng)網(wǎng)絡(luò)(feedforward neural networks, FNNs).顧名思義,數(shù)據(jù)在這種網(wǎng)絡(luò)中的流向是單向的:由第一層(輸入層)流入,通過逐層(隱層)傳遞和映射,從最后一層(輸出層)流出.網(wǎng)絡(luò)的深度,即神經(jīng)網(wǎng)絡(luò)中神經(jīng)元層次的數(shù)量.通過增加隱層的數(shù)量,各層以接力的方式進行原始數(shù)據(jù)的特征學習,本質(zhì)上是在逼近原始數(shù)據(jù)與其特征之間非線性極強的映射關(guān)系.根據(jù)神經(jīng)網(wǎng)絡(luò)的一致逼近原理(universal approximation theory)[7],對于任意一個非線性映射,一定能找到一個淺層網(wǎng)絡(luò)和一個深度網(wǎng)絡(luò)以任意精度逼近它,只要淺層網(wǎng)絡(luò)的隱層神經(jīng)元個數(shù)足夠多或者深度網(wǎng)絡(luò)足夠深.但通常,較淺層網(wǎng)絡(luò)而言,深度網(wǎng)絡(luò)只需要少得多的參數(shù)就可以達到與之相同的逼近效果.

    一般的深度FNNs的拓撲結(jié)構(gòu)如圖1所示.當下應(yīng)用最廣泛的自編碼網(wǎng)絡(luò)(autoencoder)和卷積神經(jīng)網(wǎng)絡(luò)(convolution neural networks, CNNs)都屬于前饋網(wǎng)絡(luò)[8-9].

    Fig. 1 The topology of deep feedforward neural network.圖1 深度前饋神經(jīng)網(wǎng)絡(luò)拓撲結(jié)構(gòu)圖

    2無限深度神經(jīng)網(wǎng)絡(luò)

    目前,學術(shù)界和工業(yè)界所指的“深度神經(jīng)網(wǎng)絡(luò)”,通常指具有一定深度的前饋網(wǎng)絡(luò),前饋網(wǎng)絡(luò)的特點是同層神經(jīng)元之間沒有反饋連接,沒有“時間參數(shù)”屬性,所以深度神經(jīng)網(wǎng)絡(luò)擅長處理靜態(tài)數(shù)據(jù).而“無限深度神經(jīng)網(wǎng)絡(luò)(infinite deep neural networks, infinite DNNs)”,是一種全互連的回復式神經(jīng)網(wǎng)絡(luò)(recurrent neural networks, RNNs),神經(jīng)元之間存在反饋連接.將這種反饋結(jié)構(gòu)在時間維度展開,隨著時間的不斷運行,網(wǎng)絡(luò)可以“無限深”,在這個意義下,我們稱回復式神經(jīng)網(wǎng)絡(luò)為“無限深度網(wǎng)絡(luò)”.“無限深度神經(jīng)網(wǎng)絡(luò)”和“回復式神經(jīng)網(wǎng)絡(luò)”分別從2個不同的角度看待具有全互連結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型.使用“無限深度神經(jīng)網(wǎng)絡(luò)”名稱時,表明我們是從網(wǎng)絡(luò)計算的角度出發(fā),著重研究網(wǎng)絡(luò)的學習和訓練方法;而采用“回復神經(jīng)網(wǎng)絡(luò)”時,我們意在強調(diào)網(wǎng)絡(luò)中存在“反饋連接”,與不具有反饋連接的“前饋式網(wǎng)絡(luò)”有明顯區(qū)別.無限深度神經(jīng)網(wǎng)絡(luò)本質(zhì)上是一個動力學系統(tǒng),能夠處理動態(tài)數(shù)據(jù),即與時間相關(guān)的數(shù)據(jù).

    2.1網(wǎng)絡(luò)拓撲結(jié)構(gòu)

    對無限深度神經(jīng)網(wǎng)絡(luò)中的每一個神經(jīng)元而言,它的連接有3種:該神經(jīng)元與所有的外部輸入的連接、與其他所有神經(jīng)元的連接,以及該神經(jīng)元與自身的反饋連接.圖2所示是一個具有3個神經(jīng)元、2個外部輸入的無限深度神經(jīng)網(wǎng)絡(luò).

    Fig. 2 Two structures of the completely connected RNN having three neurons and two inputs.圖2 具有3個神經(jīng)元和2個外部輸入的無限深度神經(jīng)網(wǎng)絡(luò)拓撲結(jié)構(gòu)圖

    一般地,假設(shè)一個無限深度網(wǎng)絡(luò)有m個外部輸入、n個神經(jīng)元.令x(t)=(x1(t),x2(t),…,xm(t))T為網(wǎng)絡(luò)在時刻t的外部輸入,y(t)=(y1(t),y2(t),…,yn(t))T為時刻t的n個神經(jīng)元的輸出.顯然,任意神經(jīng)元k在時刻t+1獲得的總輸入sk(t+1)由x(t)和y(t)兩部分加權(quán)組成.設(shè)w為網(wǎng)絡(luò)的連接權(quán)值,是一個n×(n+m)的矩陣.不失一般性,可令w=[wU,wI],其中wU表示神經(jīng)元之間的連接權(quán)值,wI表示神經(jīng)元與網(wǎng)絡(luò)外部之間的連接權(quán)值,則時刻t+1網(wǎng)絡(luò)神經(jīng)元獲得的總輸入為

    (1)

    其中,s(t+1)=(s1(t+1),s2(t+1),…,sn(t+1))T.而時刻t+1神經(jīng)元k的輸出為

    (2)

    其中,fk是神經(jīng)元k的激活函數(shù).

    Fig. 3 Unroll a recurrent neural network and get infinite deep neural network.圖3 將回復式神經(jīng)網(wǎng)絡(luò)在時間維度展開形成“無限深度網(wǎng)絡(luò)”

    為了便于分析,可以將無限深度網(wǎng)絡(luò)的反饋結(jié)構(gòu)在時間維度展開.假設(shè)一個無限深度網(wǎng)絡(luò)N從時刻t0開始運行,每一個時間步網(wǎng)絡(luò)N被展開成一個前饋式網(wǎng)絡(luò)Ν*中的一層,網(wǎng)絡(luò)Ν*中的每一層都有n個神經(jīng)元,且與這一時間步的網(wǎng)絡(luò)Ν具有完全相同的活動值.任一τ≥t0,網(wǎng)絡(luò)Ν中神經(jīng)元(或外部輸入)j與神經(jīng)元i之間的連接wi j被復制成網(wǎng)絡(luò)Ν*中τ層神經(jīng)元(或外部輸入)j與τ+1層神經(jīng)元i之間的連接wi j(τ+1),如圖3所示.隨著時間的不斷運行,Ν*的深度可以“無限深”,在這個意義下我們稱回復式神經(jīng)網(wǎng)絡(luò)為“無限深度網(wǎng)絡(luò)”.

    2.2與深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)突出的特征學習能力使其特別擅長解決基于分類的各種識別問題,如語音識別、圖像識別等.近年來,深度學習方法獲得的各種標志性記錄,多是在這些方面.分類是大數(shù)據(jù)分析的其中一個目標,而另一個核心任務(wù)是對數(shù)據(jù)未來變化的預測,換句話說,就是提取數(shù)據(jù)的時序特征.但是由于深度神經(jīng)網(wǎng)絡(luò)拓撲結(jié)構(gòu)本身的限制,它提取動態(tài)數(shù)據(jù)時序特征的能力有限,可以通過“Bus Driver”問題為例說明這一點.

    Fig. 4 Description of Bus Driver problem.圖4 Bus Driver問題描述

    “Bus Driver”是一個序列識別問題.它要求網(wǎng)絡(luò)能夠識別按照特定順序發(fā)生的2個事件,無論中間的干擾事件有多少個.假設(shè)有a,b,c和d四個事件,一次輸入一個事件,如果事件a之后出現(xiàn)了第一個事件b,網(wǎng)絡(luò)就輸出1,否則就輸出0,如圖4所示.這個任務(wù)的難點在于事件a和a之后出現(xiàn)的第1個事件b之間的干擾事件的個數(shù)是不確定的,因此網(wǎng)絡(luò)必須要記住所有已經(jīng)發(fā)生的事件.

    前饋神經(jīng)網(wǎng)絡(luò)解決這個問題時,一般采用輸入端引入抽頭延遲線的方式,如圖5所示,抽頭延遲線以固定的窗口劃分輸入,當輸入包含指定的序列時就輸出1,否則輸出0,但是因為延遲線的長度是有限且固定的,而事件a和a之后的第1個事件b它們之間的延遲是不確定的.因此,對于干擾事件的個數(shù)大于延遲線長度的序列模式,網(wǎng)絡(luò)將無法正確識別,如圖6所示.

    Fig. 5 Using a sliding window to determine the input.圖5 以固定的窗口劃分輸入序列

    如本文前面所述,前饋網(wǎng)絡(luò)不能完成Bus Driver這個序列識別任務(wù),但是使用僅有2個神經(jīng)元的無限深度網(wǎng)絡(luò)卻可以很好地解決這個問題.網(wǎng)絡(luò)結(jié)構(gòu)如圖7所示,其中一個神經(jīng)元可作觸發(fā)器,另一個神經(jīng)元的輸出作為網(wǎng)絡(luò)輸出.網(wǎng)絡(luò)有4個輸入,在每一個時刻隨機選取其中一個輸入的值為1,其他輸入的值為0,這就對應(yīng)于a,b,c和d中的某一個字母,即一個時刻輸入一個字母,輸出規(guī)則為:如果a之后(可能經(jīng)過多個干擾事件)出現(xiàn)了第1個b,網(wǎng)絡(luò)就輸出1,否則就輸出0.

    Fig. 6 FNN cannot solve Bus Driver problem.圖6 前饋神經(jīng)網(wǎng)絡(luò)無法完成Bus Driver問題

    Fig. 7 Topology of RNN to solve Bus Driver problem and the values of the inputs.圖7 解決Bus Driver問題的無限深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖和輸入的值

    “Bus Driver”問題的解決顯示了無限深度神經(jīng)網(wǎng)絡(luò)的優(yōu)勢:

    1)學習并記憶以往模式;

    2)利用記憶對

    當前事件作出判斷;

    3)在時間維度,自組織產(chǎn)生深度網(wǎng)絡(luò).

    2.3學習算法

    神經(jīng)網(wǎng)絡(luò)的計算能力,或者說“存儲的知識”,是體現(xiàn)在神經(jīng)元之間的連接權(quán)值上.因此,學習算法就是調(diào)節(jié)網(wǎng)絡(luò)權(quán)值的方法,即:

    (3)

    權(quán)值調(diào)節(jié)的目標是使得網(wǎng)絡(luò)學習到某種知識,完成某一計算任務(wù).網(wǎng)絡(luò)的計算任務(wù)通常量化為某種性能函數(shù)J(w)的優(yōu)化.因此:

    (4)

    1) 性能函數(shù)

    一般地,以一個有監(jiān)督的序列學習任務(wù)為例,在任意時刻t,網(wǎng)絡(luò)均有外部輸入x(t)和目標輸出d(t).用T(t)表示目標輸出為dk(t)的神經(jīng)元k的集合.那么,時刻t網(wǎng)絡(luò)中神經(jīng)元k的輸出與目標輸出之間的誤差可表示為

    (5)

    網(wǎng)絡(luò)在時刻t的性能函數(shù)可表示為

    (6)

    若假設(shè)網(wǎng)絡(luò)運行的起止時間是t0和t1,則在時間段[t0,t1]內(nèi),網(wǎng)絡(luò)總的性能函數(shù)為

    (7)

    事實上,這2種性能函數(shù)對應(yīng)于2種訓練方式:連續(xù)訓練(continual training)和階段性訓練(epochwise training),2種不同的訓練方式所具有的特點如表1所示:

    Table 1 Difference Between Continual Training and Epoch-wise Training

    雖然無限深度神經(jīng)網(wǎng)絡(luò)早在20世紀80年代就被提出,但因為它本質(zhì)上是一種動力學系統(tǒng),所以其訓練比前饋網(wǎng)絡(luò)更復雜,存在更大的困難.下文我們將介紹3種具有代表性的無限深度網(wǎng)絡(luò)訓練方法,它們各有特色.

    2) BPTT學習算法

    BP算法是訓練前饋網(wǎng)絡(luò)最經(jīng)典的算法,也取得了巨大的成功.基于BP算法的思想,美國Northeastern University大學的Williams R J教授在1990年提出了能夠訓練無限深度網(wǎng)絡(luò)的反向傳遞算法——BPTT (back-propagation through time)算法[10].

    BPTT算法是經(jīng)典BP算法的擴展,它首先按照2.1節(jié)所述的無限深度神經(jīng)網(wǎng)絡(luò)按時間步展開的方法變換為一個前饋網(wǎng)絡(luò),展開后的前饋網(wǎng)絡(luò)每層具有相同的權(quán)值,且與原來的回復式網(wǎng)絡(luò)權(quán)值相同,即對任意τ∈(t0,t],均有w(τ)=w.

    根據(jù)階段性訓練和連續(xù)訓練2種不同的訓練方式,形成了Epoch-wiseBPTT和Real-timeBPTT兩種算法,如下所述:

    ①Epoch-wiseBPTT

    Epoch-wiseBPTT采用階段性訓練方式調(diào)整網(wǎng)絡(luò)權(quán)值.采用該方式進行網(wǎng)絡(luò)訓練時,將用于無限深度神經(jīng)網(wǎng)絡(luò)訓練的數(shù)據(jù)集分割成多個獨立的“段”,每一段表示一個感興趣的時序模式.假設(shè)某一個階段的開始時刻是t0,結(jié)束時刻是t1.由表1可知,在該階段的開始時刻t0,網(wǎng)絡(luò)狀態(tài)被重新初始化;在該階段的結(jié)束時刻t1,網(wǎng)絡(luò)權(quán)值進行更新;在[t0,t1]階段內(nèi),網(wǎng)絡(luò)的性能函數(shù)為

    Epoch-wise BPTT算法的具體過程如下:

    Ⅰ. 在時間階段[t0,t1]內(nèi),對網(wǎng)絡(luò)進行前向計算.

    Ⅱ. 網(wǎng)絡(luò)運行到該階段的結(jié)束時刻t1時,通過性能函數(shù)對展開后的前饋神經(jīng)網(wǎng)絡(luò)中每一層權(quán)值wi j(τ)的偏導疊加,計算性能函數(shù)Jtotal(t0,t1)對權(quán)值wi j的偏導,其中τ∈[t0+1,t1],即:

    (8)

    運用鏈式法則可知:

    (9)

    使用Epoch-wise BPTT算法訓練網(wǎng)絡(luò)時,定義網(wǎng)絡(luò)性能函數(shù)對神經(jīng)元k的總輸入sk的敏感度δk=?Jtotal(t0,t1)?sk,網(wǎng)絡(luò)在某時刻τ對神經(jīng)元k的注入誤差定義為

    易知,網(wǎng)絡(luò)的性能函數(shù)Jtotal(t0,t1)與[t0+1,t]階段內(nèi)的輸出y均有關(guān).t0→t1前向計算的過程中,由于時刻τ網(wǎng)絡(luò)的輸出y(τ)=(y1(τ),y2(τ),…,yn(τ))T只對[τ,t1]的輸出y產(chǎn)生影響,因此在誤差回傳的過程中,神經(jīng)元k的誤差δk(τ)只與由時刻t1傳至時刻τ+1的誤差δ(τ+1)=(δ1(τ+1),δ2(τ+1),…,δn(τ+1))T及時刻τ神經(jīng)元k的注入錯誤ek(τ)相關(guān).如圖8所示,δk(τ)由時刻τ+1的誤差δ(τ+1)和ek(τ)兩部分組成.因此

    (10)

    網(wǎng)絡(luò)性能函數(shù)在權(quán)值空間內(nèi)的梯度為

    (11)

    Ⅲ. 誤差反向傳播到時刻t0+1時,更新網(wǎng)絡(luò)的權(quán)值.

    (12)

    Fig. 8 Illustration of Epoch-wise BPTT.圖8 Epoch-wise BPTT示意圖

    ② Real-time BPTT

    Real-time BPTT采用實時(連續(xù))方式調(diào)整網(wǎng)絡(luò)權(quán)值.假設(shè)網(wǎng)絡(luò)運行起始時刻是t0,當前時刻是t.由表1可知,與Epoch-wise BPTT不同,Real-time BPTT沒有階段的概念存在,網(wǎng)絡(luò)狀態(tài)只有在運行起始時刻t0被重新初始化,且網(wǎng)絡(luò)的權(quán)值不需要等到某一特定的時刻t1而是在運行中的每一時刻t都會被更新,網(wǎng)絡(luò)的性能函數(shù)為時刻t的性能函數(shù)J(t).

    Real-time BPTT算法的具體過程如下:

    Ⅰ. 使用時刻t-1更新后的權(quán)值w,前向計算時刻t網(wǎng)絡(luò)的輸出y(t)=(y1(t),y2(t),…,yn(t))T.對展開后的前饋神經(jīng)網(wǎng)絡(luò)有wi j(τ)=wi j,其中τ∈[t0+1,t].

    Ⅱ. 通過反向傳播算法,計算性能函數(shù)J(t)對權(quán)值wi j的偏導,可以通過性能函數(shù)對展開后的前饋神經(jīng)網(wǎng)絡(luò)中每一層權(quán)重wi j(τ)的偏導疊加得到,其中τ∈[t0+1,t],即:

    (13)

    通過鏈式法則可知:

    (14)

    Fig. 9 Illustration of Real-time BPTT圖9 Real-time BPTT示意圖

    與Epoch-wise BPTT不同,Real-time BPTT網(wǎng)絡(luò)的性能函數(shù)J(t)只與時刻t的輸出y(t)=(y1(t),y2(t),…,yn(t))T有關(guān).t0→t前向計算的過程中,使用的是時刻t-1更新之后的權(quán)值w,由于時刻τ網(wǎng)絡(luò)的輸出y(τ)只對[τ+1,t]的輸出y產(chǎn)生影響,因此在誤差回傳的過程中,δk(τ)只與由時刻t傳至時刻τ+1的誤差δ(τ+1)=(δ1(τ+1),δ2(τ+1),…,δn(τ+1))T有關(guān),如圖9所示.因此:

    (15)

    網(wǎng)絡(luò)性能函數(shù)在權(quán)值空間內(nèi)的梯度為

    (16)

    Ⅲ. 更新網(wǎng)絡(luò)的權(quán)值:

    (17)

    3) RTRL學習算法

    BPTT算法是基于反向傳播算法的擴展,誤差是從后向前傳播的.與BPTT不同,RTRL(real-time recurrent learning)是一種前向傳播“活動性”信息的算法.RTRL算法在20世紀80年代末被提出,該算法有多種不同的變形,分別由Robinson&Fallside[11],Bachrach[12],Mozer[13],Williams&Zipser[14]提出,本文針對Williams&Zipser提出的RTRL算法[15]進行討論.

    (18)

    同樣采用實時(連續(xù))訓練方式,網(wǎng)絡(luò)在時刻t的性能函數(shù)為J(t),網(wǎng)絡(luò)的權(quán)值在每一時刻都會進行更新.假設(shè)網(wǎng)絡(luò)運行起始時刻是t0,當前時刻是t.由于yk(t)=f(sk(t)),因此網(wǎng)絡(luò)的活動性信息由t0→t遞歸傳遞為

    (19)

    其中,如果j∈U,則z(t-1)=yj(t-1);如果j∈I,則z(t-1)=xj(t-1).

    網(wǎng)絡(luò)性能函數(shù)在權(quán)值空間內(nèi)的梯度為

    即:

    (20)

    同樣,更新網(wǎng)絡(luò)權(quán)值:

    (21)

    4) 傳統(tǒng)無限深度神經(jīng)網(wǎng)絡(luò)的梯度問題

    (22)

    令uq=l,u0=k,可知:

    (23)

    由于網(wǎng)絡(luò)的激活函數(shù)是非線性函數(shù)(一般為S型函數(shù)),則0

    5) LSTM學習算法

    為了解決無限深度神經(jīng)網(wǎng)絡(luò)的“梯度消失”和“梯度爆炸”問題,瑞士人工智能實驗室的Schmidhuber教授于1997年提出了“長短時記憶”(long short-term memory, LSTM)網(wǎng)絡(luò)[16].之后又出現(xiàn)了LSTM的不同變形[17-18],本文主要介紹2000年Gers提出的改進LSTM算法[17].

    Fig. 10 Illustration of LSTM.圖10 LSTM示意圖

    由式(23)可知,如果網(wǎng)絡(luò)的激活函數(shù)是非線性函數(shù),隨著q的增加網(wǎng)絡(luò)均會出現(xiàn)“梯度消失”或者“梯度爆炸”問題,一種有效的解決辦法是使用線性函數(shù).圖10(a)所示的網(wǎng)絡(luò)結(jié)構(gòu)可以解決傳統(tǒng)無限深度神經(jīng)網(wǎng)絡(luò)梯度問題,稱該神經(jīng)元為CEC(constant error carrousel).但是由于其激活函數(shù)是線性的,因此學習能力有限,并且存在“輸入輸出沖突問題”,輸入輸出問題在Schmidhuber教授的論文“Long Short-Term Memory”中給出了詳細的描述.

    Schmidhuber教授于1997年提出了“長短時記憶”(LSTM)網(wǎng)絡(luò)很好地解決了這一問題.之后其學生Graves在此基礎(chǔ)上對其進行發(fā)展,加上了Forget Gate.如圖10(b)所示是LSTM的一個Memory Block,其中包括多個Memory Cell,多個Memory Cell由一組Gate(Input Gate, Output Gate, Forget Gate)控制.一個LSTM網(wǎng)絡(luò)中可以包含多個Memory Block,不同的Memory Block由不同的Gate控制,同一個Memory Block的多個Memory Cell由同一組Gate共同控制.網(wǎng)絡(luò)由:輸入層、隱藏層、輸出層3部分組成,其中隱藏層除了Memory Block外也可以包含傳統(tǒng)無限深度神經(jīng)網(wǎng)絡(luò)中的神經(jīng)元,隱藏層采用全連接的方式.

    網(wǎng)絡(luò)的訓練采用BPTT和RTRL相結(jié)合的方式:輸出層和Output Gate部分權(quán)值的訓練采用BPTT的方式進行,F(xiàn)orget Gate,Input Gate及網(wǎng)絡(luò)輸入部分的權(quán)值采用RTRL算法進行更新.同時,為了減少網(wǎng)絡(luò)學習的復雜度,采用了截斷(Truncate)的方式進行,即時刻t的Memory Cell和Gate的輸入{netc(t),netin(t),netout(t),netφ(t)}對時刻t-1網(wǎng)絡(luò)隱層的所有輸出不再敏感.

    2.4在語音識別和圖像理解的應(yīng)用實例

    2.3節(jié)中介紹的這些經(jīng)典學習算法,雖然大多發(fā)明于20世紀90年代,但隨著大數(shù)據(jù)浪潮的席卷而來,GPU等各種更加強大的計算設(shè)備的發(fā)展以及訓練深層網(wǎng)絡(luò)的新思路的提出[19-22],由于數(shù)據(jù)的極大豐富,這些無限深度學習的方法在實際應(yīng)用中得到了飛躍性的發(fā)展.無限深度學習可以充分利用各種海量數(shù)據(jù)(標注數(shù)據(jù)、弱標注數(shù)據(jù)或者僅僅數(shù)據(jù)本身),完全自動地從海量數(shù)據(jù)中學習到數(shù)據(jù)中蘊含的抽象的知識表達,即把原始數(shù)據(jù)濃縮成某種知識.由于無限深度學習能夠大大提高任務(wù)的準確度,在短短的幾年時間里,無限深度學習已經(jīng)顛覆了語義理解、圖像理解、文本理解等眾多領(lǐng)域的算法設(shè)計思路,漸漸形成了一種從訓練數(shù)據(jù)出發(fā),經(jīng)過一個端到端(end-to-end)的模型,然后直接輸出得到最終結(jié)果的一種新模式[23-29].本文中的無限深度神經(jīng)網(wǎng)絡(luò)具有提取時序數(shù)據(jù)的時空特征等重要特性,雖然其優(yōu)化過程相對于深度神經(jīng)網(wǎng)絡(luò)更加困難,但是目前已經(jīng)出現(xiàn)了BPTT,LSTM等很多解決方案和相關(guān)工作.另外,相較于基于前饋網(wǎng)絡(luò)結(jié)構(gòu)的普通深度神經(jīng)網(wǎng)絡(luò)而言,無限深度神經(jīng)網(wǎng)絡(luò)也因此在時序數(shù)據(jù)處理任務(wù)中展現(xiàn)出了更強大的計算能力和優(yōu)勢[23,30-31].

    以LSTM模型為例.在行為識別領(lǐng)域,基于LSTM的網(wǎng)絡(luò)模型能夠處理復雜的視頻序列,并能夠從傳統(tǒng)的視覺特征或深度特征中學習動態(tài)的時序信息,進而對視頻序列中的行為進行識別.在圖像理解領(lǐng)域,LSTM模型能夠在沒有任何明確的語言建模和語法結(jié)構(gòu)定義的情況下,學習將單張圖像的像素強度映射成一個語法正確的自然語句,該語句能夠正確地描述該圖像.在視頻理解領(lǐng)域,LSTM能夠生成一個不定長的語句來正確地描述視頻內(nèi)容.通過實驗驗證該模型在序列學習以及時空特征的提取上都展現(xiàn)出較強的處理能力.

    Fig. 11 Task-specific instantiations for activity recognition, image understanding, and video understanding.圖11 行為識別、圖像理解,視頻理解實例[31]

    Fig. 12 The flow chart of task-specific instantiations for activity recognition, image understanding, and video understanding.圖12 行為識別、圖像理解、視頻理解3個應(yīng)用的處理流程

    文獻[31]采用LRCN(long-term recurrent con-volutional network)模型在行為識別、圖像理解、視頻理解領(lǐng)域進行了研究并取得了較好的結(jié)果,如圖11所示.利用該方法,該文作者首先利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)提取靜態(tài)圖像的特征,但是對于行為識別、圖像理解、視頻理解等問題,更為復雜的任務(wù)是如何處理動態(tài)數(shù)據(jù),然而類似于CNN,Autoencoder等前饋網(wǎng)絡(luò)無法提取數(shù)據(jù)中包含的時序特征,僅僅依靠這類前饋網(wǎng)絡(luò)無法實現(xiàn)該類復雜任務(wù).因此,該文作者在利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)提取圖像靜態(tài)特征之后,用長短時記憶網(wǎng)絡(luò)(LSTM)提取時序特征.具體的處理過程如圖12所示:1)將一張圖像或者視頻中的一幀輸入到卷積網(wǎng)絡(luò)中得到一個固定長度的特征向量;2)將經(jīng)過卷積網(wǎng)絡(luò)得到的特征序列輸入到LSTM中學習數(shù)據(jù)的時序特征;3)預測出在每個時間步詞表空間的概率分布,進而得到行為識別、圖像理解、視頻理解中每一幀圖像的識別結(jié)果或內(nèi)容.以圖像理解為例具體闡述.該文作者在Flickr30K和COCO2014兩個數(shù)據(jù)集上展開了圖像理解研究,其中COCO2014包括有82 783張訓練集圖像、40 504張驗證集圖像及40 775張測試集圖像.在圖像理解任務(wù)中涉及的網(wǎng)絡(luò)架構(gòu)包括:1個卷積神經(jīng)網(wǎng)絡(luò)CNN(特征提取模塊)和4個長短時記憶網(wǎng)絡(luò)LSTM(序列學習模塊),在第4個長短時記憶網(wǎng)絡(luò)LSTM之后連接一個分類器.該實例中圖像理解具體的過程如下:在時刻t,特征提取模塊的輸入是待處理的圖像,序列學習模塊的輸入由卷積神經(jīng)網(wǎng)絡(luò)提取出的特征φt及時刻t-1得到的單詞w(t-1)兩個部分組成.對于序列學習模塊,底層的長短時記憶網(wǎng)絡(luò)LSTM的輸入是時刻t-1得到的單詞w(t-1);第2個長短時記憶網(wǎng)絡(luò)LSTM的輸入包含第1個LSTM的輸出和卷積神經(jīng)網(wǎng)絡(luò)CNN提取的特征φt,其輸出是得到兩者的級聯(lián)表達(joint representation);最后2個長短時記憶網(wǎng)絡(luò)LSTM的作用均是對第2個LSTM的結(jié)果進行更高層次的表達.分類器的輸入是第4個LSTM的輸出,即產(chǎn)生詞表空間中每個單詞可能是當前時刻目標單詞的概率P(wt|w1:t-1,φt),進而得到當前時刻的單詞w(t).GoogleDeepMind團隊成員Graves進一步發(fā)展了LSTM,并將其應(yīng)用到了語音識別、人臉表情識別、手寫體識別、序列標注、序列生成等方面[27-29,32-34].在語音識別任務(wù)中,由于無限深度神經(jīng)網(wǎng)絡(luò)能夠記住上下文,而前饋網(wǎng)絡(luò)只能處理當前幀,因此,無限深度神經(jīng)網(wǎng)絡(luò)的識別精度相對于多層感知機(multi-layerperceptron,MLP)等前饋網(wǎng)絡(luò)更高,而且無限深度網(wǎng)絡(luò)的抗噪性能更強.文獻[35]將LSTM模型進行改進,更進一步將其用于并行處理大規(guī)模的語音序列.另外,在大詞匯量的語音識別任務(wù)(例如Google英語語音搜索任務(wù))中,LSTM的識別精度明顯高于前饋網(wǎng)絡(luò).在更具挑戰(zhàn)性的語義理解任務(wù)中,文獻[36]利用LSTM模型直接翻譯輸入語句,以實現(xiàn)將英語語句翻譯為法語語句的任務(wù),并用實驗表明LSTM相比其他語義理解算法能夠取得更高的分數(shù),其優(yōu)勢尤其體現(xiàn)在短句的理解與翻譯.2009年基于LSTM模型構(gòu)建的學習系統(tǒng)獲得了未切分草書的手寫體識別和語音識別任務(wù)的冠軍,這是第1個無限深度學習系統(tǒng)贏得官方的國際比賽[37].在文本理解領(lǐng)域,無限深度網(wǎng)絡(luò)能夠按順序處理一段話中的每個單詞,在處理后面的內(nèi)容時,無限深度網(wǎng)絡(luò)的參數(shù)里還保留了前文信息的“抽象和整合”.由于其獨特的記憶功能,無限深度神經(jīng)網(wǎng)絡(luò)已經(jīng)被應(yīng)用于文本理解領(lǐng)域[38-39].

    3總結(jié)與展望

    近年來,基于回復式網(wǎng)絡(luò)結(jié)構(gòu)的無限深度神經(jīng)網(wǎng)絡(luò)計算方法得到了越來越廣泛的關(guān)注,并迅速成為了研究的熱點.2014年,谷歌的Sak等人利用無限深度神經(jīng)網(wǎng)絡(luò)解決了大規(guī)模詞匯的語音識別問題[35],Sutskever等人將無限深度神經(jīng)網(wǎng)絡(luò)方法用于機器翻譯上[36].今年,微軟雷德蒙研究院的Mesnil等人將無限深度神經(jīng)網(wǎng)絡(luò)應(yīng)用于口語理解問題[40];加州大學洛杉磯分校的Mao教授等人成功地利用無限深度神經(jīng)網(wǎng)絡(luò)方法產(chǎn)生圖像標題[41];加州大學伯克利分校的Venugopalan教授等人將無限深度神經(jīng)網(wǎng)絡(luò)方法應(yīng)用到了視頻理解上面[42].百度的Deep Speech系統(tǒng)[43]也是基于無限深度神經(jīng)網(wǎng)絡(luò)的方法建立的,其在公開數(shù)據(jù)集Switchboard Hub5’00上的正確率達到了84.0%.由此可見,無限深度神經(jīng)網(wǎng)絡(luò)在處理時序數(shù)據(jù)方面具有巨大的潛力,在大數(shù)據(jù)分析預測任務(wù)中的強大計算能力日益顯現(xiàn).隨著“結(jié)合智能計算的大數(shù)據(jù)分析”成為大數(shù)據(jù)時代的研究熱點,無限深度神經(jīng)網(wǎng)絡(luò)計算領(lǐng)域更多新的理論和方法將被提出,其應(yīng)用效果也必將不斷被刷新,推動大數(shù)據(jù)分析技術(shù)的發(fā)展和革新.

    參考文獻

    [1]White Paper on Big Data of the Telecommunications Research Institute of the Ministry of industry and Telecommunications(2014)[M]. Beijing: Telecommunications Research Institute of the Ministry of Industry and Information Technology, 2014 (in Chinese) (工信部電信研究院大數(shù)據(jù)白皮書(2014)[M].北京: 工業(yè)和信息化部電信研究院, 2014)

    [2]Intel IT Center. Big Data 101: Unstructured Data Analysis[MOL]. [2015-07-01]. http:www.intel.cncontentdamwwwpubliccnzhpdfsBig-data-101-Unstructured-data-Analytics.pdf, 2012 (in Chinese)(Intel IT Center. 大數(shù)據(jù)101:非結(jié)構(gòu)化數(shù)據(jù)分析[MOL]. [2015-07-01]. http:www.intel.cncontentdamwwwpubliccnzhpdfsBig-data-101-Unstructured-data-Analytics.pdf, 2012)

    [3]Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks[J]. Science, 2006, 313(5786): 504-507

    [4] Yu Kai, Jia Lei, Chen Yuqiang, et al. Yesterday, today and tomorrow of deep learning[J]. Journal of Computer research and development, 2013, 50(9): 1799-1804 (in Chinese)(余凱, 賈磊, 陳雨強, 等. 深度學習的昨天、今天和明天[J]. 計算機研究與發(fā)展, 2013, 50(9): 1799-1804)

    [5]Rosenblatt F. The perceptron: A probabilistic model for information storage and organization in the brain.[J]. Psychological Review, 1958, 65(6): 386-408

    [6]Rumelhart D E, Hinton G E, Williams R J. Learning representations by back-propagating errors[J]. Nature, 1986, 323(6088): 533-536

    [7]Huang G B, Chen L, Siew C K. Universal approximation using incremental constructive feedforward networks with random hidden nodes[J]. IEEE Trans on Neural Networks, 2006, 17(4): 879-892

    [8]Vincent P, Larochelle H, Lajoie I, et al. Stacked denoising autoencoders: Learning useful representations in a deep network with a local denoising criterion[J]. Journal of Machine Learning Research, 2010, 11: 3371-3408

    [9]LeCun Y, Bottou L, Bengio Y. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324

    [10]Williams R J, Zipser D. Gradient-based learning algorithms for recurrent connectionist networks, NU-CCS-90-9[R]. Boston, MA: Northeastern University, 1990

    [11]Robinson A J, Fallside F. The utility driven dynamic error propagation network[R]. Cambridge, UK: Department of Engineering, University of Cambridge, 1987

    [12]Bachrach J. Learning to represent state[D]. Amherst, MA: University of Massachusetts Amherst, 1988

    [13]Mozer M C. A focused back-propagation algorithm for temporal pattern recognition[J]. Complex Systems, 1989, 3(4): 349-381

    [14]Williams R J, Zipser D. A learning algorithm for continually running fully recurrent neural networks[J]. Neural Computation, 1989, 1(2): 270-280

    [15]Williams R J, Zipser D. Experimental analysis of the real-time recurrent learning algorithm[J]. Connection Science, 1989, 1(1): 87-111

    [16]Hochreiter S, Schmidhuber J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780

    [17]Gers F A, Schmidhuber J, et al. Learning to forget: Continual prediction with LSTM[J]. Neural Computation, 2000, 12(10): 2451-2471

    [18]Gers F A, Schmidhuber J. Recurrent nets that time and count[C]Proc of the 2000 IEEE-INNS-ENNS Int Joint Conf on Neural Networks (IJCNN 2000). Piscataway, NJ: IEEE, 2000: 189-194

    [19]Krizhevsky A. Convolutional deep belief networks on cifar-10[R]. Toronto, Ontario, Canada: University of Toronto, 2010

    [20]Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[C]Proc of Advances in Neural Information Processing Systems 25 (NIPS 2012). 2012: 1097-1105. [2015-11-17]. http:papers.nips.ccpaper4824-imagenet-classification-w

    [21]Kustikova V D, Druzhkov P N. A survey of deep learning methods and software for image classification and object detection[C]Proc of OGRW2014. 2014 [2015-11-17]. https:kola.opus.hbz-nrw.de

    [22]Jia Y, Shelhamer E, Donahue J, et al. Caffe: Convolutional architecture for fast feature embedding[C]Proc of the ACM Int Conf on Multimedia. New York: ACM, 2014: 675-678

    [23]Mnih V, Heess N, Graves A. Recurrent models of visual attention[C]Proc of Advances in Neural Information Processing Systems 27 (NIPS 2014). 2014: 2204-2212.[2015-07-01]. http:papers.nips.ccpaper5542-recurrent-models-of-visual-attention

    [24]Vinyals O, Kaiser L, Koo T, et al. Grammar as a foreign language[J]. eprint arXiv:1412.7449, 2014

    [25]Meng F, Lu Z, Tu Z, et al. Neural transformation machine: A new architecture for sequence-to-sequence learning[J]. eprint arXiv:1506.06442, 2015

    [26]Tai K S, Socher R, Manning C D. Improved semantic representations from tree-structured long short-term memory networks[J]. eprint arXiv:1503.00075, 2015

    [27]Graves A, Mohamed A, Hinton G. Speech recognition with deep recurrent neural networks[C]Proc of 2013 IEEE Int Conf on Acoustics, Speech and Signal Processing (ICASSP). Piscataway, NJ: IEEE, 2013: 6645-6649

    [28]Graves A. Generating sequences with recurrent neural networks[J]. arXiv preprint arXiv:1308.0850, 2013

    [29]Graves A, Jaitly N, Mohamed A. Hybrid speech recognition with deep bidirectional LSTM[C]Proc of 2013 IEEE Workshop on Automatic Speech Recognition and Understanding (ASRU). Piscataway, NJ: IEEE, 2013: 273-278

    [30]Weber M, Liwicki M, Stricker D, et al. LSTM-based early recognition of motion patterns[C]Proc of the 22nd Int Conf on Pattern Recognition (ICPR2014). Piscataway, NJ: IEEE, 2014: 3552-3557

    [31]Donahue J, Hendricks L A, Guadarrama S, et al. Long-term recurrent convolutional networks for visual recognition and description[J]. arXiv preprint arXiv:1411.4389, 2014

    [32]Graves A. Supervised Sequence Labelling with Recurrent Neural networks[M]. Berlin: Springer, 2012

    [33]Liwicki M, Graves A, Bunke H. Neural Networks for Handwriting Recognition[G]Computational Intelligence Paradigms in Advanced Pattern Classification. Berlin: Springer, 2012: 5-24

    [34]Graves A. Generating sequences with recurrent neural networks[J]. arXiv preprint arXiv:1308.0850, 2013

    [35]Sak H, Senior A, Beaufays F. Long short-term memory based recurrent neural network architectures for large vocabulary speech recognition[J]. arXiv preprint arXiv:1402.1128, 2014

    [36]Sutskever I, Vinyals O, Le QVV. Sequence to sequence learning with neural networks[C]Proc of Advances in Neural Information Processing Systems 27 (NIPS 2014). 2014: 3104-3112. [2015-07-01]. http:papers.nips.ccpaper5346-information-based-learning-by-agents-in-unbounded-state-spaces

    [37]Graves A, Liwicki M, Fernandez S, et al. A novel connectionist system for improved unconstrained handwriting recognition[J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2009, 31(5): 855-868

    [38]Eugene L, Caswell I. Making a manageable email experience with deep learning[R]. Palo Alto: Stanford University, 2015 [2015-07-01]. http:cs224d.stanford.edureportsEugeneLouis.pdf

    [39]Graves A. Offline Arabic Handwriting Recognition with Multidimensional Recurrent Neural Networks[G]Guide to OCR for Arabic Scripts. Berlin: Springer, 2012: 297-313

    [40]Mesnil G, Dauphin Y, Yao K, et al. Using recurrent neural networks for slot filling in spoken language understanding[J]. IEEEACM Trans on Audio, Speech, and Language Processing, 2015, 23(3): 530-539

    [41]Mao J, Xu W, Yang Y, et al. Deep captioning with multimodal recurrent neural networks[J]. eprint arXiv: 1412.6632, 2014

    [42]Venugopalan S, Rohrbach M, Donahue J, et al. Sequence to sequence-video to text[J]. arXiv preprint arXiv:1505.00487, 2015

    [43]Hannun A, Case C, Casper J, et al. DeepSpeech: Scaling up end-to-end speech recognition[J]. arXiv preprint arXiv:

    1412.5567, 2014

    Zhang Lei, born in 1980. Professor and PhD supervisor. Member of China Computer Federation. Her main research interests include big data, recurrent neural networks, deep learning and machine intelligence.

    Zhang Yi, born in 1963. Professor and PhD supervisor. His main research interests include big data, neural networks theory and its applications, deep learning and machine learning.

    中圖法分類號TP183

    基金項目:國家自然科學基金項目(61322203,61332002,61432012)

    收稿日期:2015-07-16;修回日期:2015-11-18

    This work was supported by the National Natural Science Foundation of China (61322203,61332002,61432012).

    猜你喜歡
    大數(shù)據(jù)
    基于在線教育的大數(shù)據(jù)研究
    中國市場(2016年36期)2016-10-19 04:41:16
    “互聯(lián)網(wǎng)+”農(nóng)產(chǎn)品物流業(yè)的大數(shù)據(jù)策略研究
    中國市場(2016年36期)2016-10-19 03:31:48
    基于大數(shù)據(jù)的小微電商授信評估研究
    中國市場(2016年35期)2016-10-19 01:30:59
    大數(shù)據(jù)時代新聞的新變化探究
    商(2016年27期)2016-10-17 06:26:00
    淺談大數(shù)據(jù)在出版業(yè)的應(yīng)用
    今傳媒(2016年9期)2016-10-15 23:35:12
    “互聯(lián)網(wǎng)+”對傳統(tǒng)圖書出版的影響和推動作用
    今傳媒(2016年9期)2016-10-15 22:09:11
    大數(shù)據(jù)環(huán)境下基于移動客戶端的傳統(tǒng)媒體轉(zhuǎn)型思路
    新聞世界(2016年10期)2016-10-11 20:13:53
    基于大數(shù)據(jù)背景下的智慧城市建設(shè)研究
    科技視界(2016年20期)2016-09-29 10:53:22
    數(shù)據(jù)+輿情:南方報業(yè)創(chuàng)新轉(zhuǎn)型提高服務(wù)能力的探索
    中國記者(2016年6期)2016-08-26 12:36:20
    免费观看无遮挡的男女| 爱豆传媒免费全集在线观看| 国产精品偷伦视频观看了| 男女啪啪激烈高潮av片| 国产熟女欧美一区二区| 九草在线视频观看| 精品酒店卫生间| 亚洲国产精品999| 夜夜爽夜夜爽视频| 国产色婷婷99| 久久婷婷青草| 国产一区有黄有色的免费视频| 亚洲av在线观看美女高潮| 中文字幕免费在线视频6| 亚洲国产欧美日韩在线播放| 性色av一级| 特大巨黑吊av在线直播| 丝瓜视频免费看黄片| 亚洲av不卡在线观看| 国产在线一区二区三区精| 九九爱精品视频在线观看| 999精品在线视频| 国产精品熟女久久久久浪| 热99国产精品久久久久久7| 国产在视频线精品| 国产免费视频播放在线视频| 成人无遮挡网站| 91精品国产国语对白视频| 热re99久久国产66热| 一区二区三区乱码不卡18| 美女cb高潮喷水在线观看| 国产免费一区二区三区四区乱码| 久久久久久久精品精品| 国产成人av激情在线播放 | 有码 亚洲区| av天堂久久9| 日本av手机在线免费观看| 天美传媒精品一区二区| 美女福利国产在线| 卡戴珊不雅视频在线播放| 美女内射精品一级片tv| 春色校园在线视频观看| 色婷婷久久久亚洲欧美| 男人爽女人下面视频在线观看| 狂野欧美激情性bbbbbb| 99热全是精品| 999精品在线视频| 高清在线视频一区二区三区| 国产一区有黄有色的免费视频| 男人添女人高潮全过程视频| 少妇被粗大的猛进出69影院 | 男女高潮啪啪啪动态图| 国产精品人妻久久久影院| 青春草亚洲视频在线观看| 国产av国产精品国产| 99久久综合免费| 91久久精品国产一区二区成人| 成人无遮挡网站| 水蜜桃什么品种好| 韩国高清视频一区二区三区| 久久久久精品性色| 青春草视频在线免费观看| av播播在线观看一区| 国产亚洲欧美精品永久| 国模一区二区三区四区视频| videosex国产| 国产男女超爽视频在线观看| 成年美女黄网站色视频大全免费 | 黄色毛片三级朝国网站| 91精品国产国语对白视频| 免费日韩欧美在线观看| 99热全是精品| 狠狠精品人妻久久久久久综合| av线在线观看网站| 国产在线一区二区三区精| 高清在线视频一区二区三区| 亚洲少妇的诱惑av| 久久精品熟女亚洲av麻豆精品| 亚洲国产日韩一区二区| 插逼视频在线观看| 亚洲精品视频女| 国产伦精品一区二区三区视频9| 国产成人91sexporn| 亚洲av福利一区| 狂野欧美激情性xxxx在线观看| 一区二区三区四区激情视频| 午夜老司机福利剧场| 欧美日韩av久久| 亚洲精品中文字幕在线视频| 国产乱人偷精品视频| 精品一区二区三卡| 午夜视频国产福利| 欧美+日韩+精品| 精品国产露脸久久av麻豆| 久久热精品热| 成人国产麻豆网| 久久久精品94久久精品| 日日摸夜夜添夜夜爱| 亚洲成人手机| 丝袜脚勾引网站| 久久久久久久大尺度免费视频| 少妇精品久久久久久久| 青春草视频在线免费观看| 岛国毛片在线播放| 一级毛片黄色毛片免费观看视频| 日韩一本色道免费dvd| 国产国语露脸激情在线看| 大片电影免费在线观看免费| 人人妻人人添人人爽欧美一区卜| av电影中文网址| 在线免费观看不下载黄p国产| 欧美 日韩 精品 国产| 午夜福利视频在线观看免费| 午夜免费观看性视频| 免费大片黄手机在线观看| 寂寞人妻少妇视频99o| 这个男人来自地球电影免费观看 | 日本午夜av视频| 各种免费的搞黄视频| 久久综合国产亚洲精品| 精品久久久精品久久久| 久久久久精品性色| 18禁观看日本| 日韩精品免费视频一区二区三区 | 亚洲av成人精品一区久久| 午夜福利,免费看| 日本黄大片高清| 欧美精品一区二区免费开放| 国产成人91sexporn| 丰满迷人的少妇在线观看| 国产精品久久久久成人av| 亚洲精品第二区| 亚洲精品乱码久久久v下载方式| 日韩在线高清观看一区二区三区| 成人亚洲欧美一区二区av| 一区二区三区精品91| 国产成人免费观看mmmm| 欧美另类一区| 日日爽夜夜爽网站| 色婷婷久久久亚洲欧美| 中文字幕制服av| 成人午夜精彩视频在线观看| 精品国产一区二区三区久久久樱花| 只有这里有精品99| 日韩大片免费观看网站| 综合色丁香网| 欧美精品亚洲一区二区| 久久久久久久大尺度免费视频| 久久久精品免费免费高清| 国产精品.久久久| 内地一区二区视频在线| av在线app专区| 伊人久久精品亚洲午夜| 我的老师免费观看完整版| 国产极品粉嫩免费观看在线 | 熟女人妻精品中文字幕| 国产乱人偷精品视频| 少妇的逼水好多| 亚洲欧美一区二区三区黑人 | 久久久久久久亚洲中文字幕| 精品人妻熟女毛片av久久网站| 大话2 男鬼变身卡| 欧美人与性动交α欧美精品济南到 | 国产精品偷伦视频观看了| 中文精品一卡2卡3卡4更新| 久久国产亚洲av麻豆专区| 三级国产精品片| 又黄又爽又刺激的免费视频.| 人妻制服诱惑在线中文字幕| 欧美亚洲 丝袜 人妻 在线| 欧美精品国产亚洲| 青青草视频在线视频观看| 五月天丁香电影| 精品99又大又爽又粗少妇毛片| 久久久欧美国产精品| 国产熟女欧美一区二区| 亚洲欧洲国产日韩| 日韩强制内射视频| 成人无遮挡网站| 亚洲精品国产av蜜桃| 国产精品不卡视频一区二区| 两个人的视频大全免费| 国产精品国产三级国产av玫瑰| 校园人妻丝袜中文字幕| 少妇 在线观看| 丝瓜视频免费看黄片| 九草在线视频观看| 午夜日本视频在线| 在线观看美女被高潮喷水网站| 国产精品三级大全| 精品久久久精品久久久| 国产一级毛片在线| 久久精品国产鲁丝片午夜精品| 免费大片18禁| 亚洲四区av| 在线观看www视频免费| 日韩电影二区| 精品酒店卫生间| 欧美bdsm另类| 视频中文字幕在线观看| 国产老妇伦熟女老妇高清| 丝袜在线中文字幕| 91精品一卡2卡3卡4卡| 哪个播放器可以免费观看大片| 在线观看人妻少妇| 在线精品无人区一区二区三| 天天躁夜夜躁狠狠久久av| 99久久中文字幕三级久久日本| 亚洲国产精品一区三区| 五月天丁香电影| 久久久久久久亚洲中文字幕| 精品国产露脸久久av麻豆| 精品国产一区二区久久| 国产黄片视频在线免费观看| 九色亚洲精品在线播放| 国产日韩欧美在线精品| 熟女电影av网| 国产一区二区在线观看av| 黄色怎么调成土黄色| 啦啦啦啦在线视频资源| 中国美白少妇内射xxxbb| 日韩一本色道免费dvd| 亚洲综合色网址| 老司机亚洲免费影院| 国产免费又黄又爽又色| 免费观看在线日韩| 在线观看三级黄色| av电影中文网址| 久久久a久久爽久久v久久| 国产熟女欧美一区二区| 搡女人真爽免费视频火全软件| 一二三四中文在线观看免费高清| 妹子高潮喷水视频| 欧美激情 高清一区二区三区| 亚洲激情五月婷婷啪啪| 免费av中文字幕在线| 亚洲精品日本国产第一区| 久久狼人影院| 高清黄色对白视频在线免费看| 97超视频在线观看视频| 久久韩国三级中文字幕| 纯流量卡能插随身wifi吗| 国产精品国产av在线观看| 伊人亚洲综合成人网| 色哟哟·www| a 毛片基地| 精品视频人人做人人爽| 日本-黄色视频高清免费观看| 精品国产一区二区久久| 午夜福利视频精品| 蜜桃久久精品国产亚洲av| 久久鲁丝午夜福利片| 欧美日韩视频精品一区| 久久99热这里只频精品6学生| 热re99久久精品国产66热6| 国产毛片在线视频| 一区二区三区精品91| 日韩成人av中文字幕在线观看| 国产精品久久久久久久久免| 一个人看视频在线观看www免费| 五月伊人婷婷丁香| 日本av手机在线免费观看| 久久久精品区二区三区| 蜜桃在线观看..| 亚洲精品久久久久久婷婷小说| 青春草亚洲视频在线观看| 久久人人爽人人片av| 日日摸夜夜添夜夜添av毛片| 免费人妻精品一区二区三区视频| 亚洲内射少妇av| 久久午夜福利片| 久久久久久久久久久丰满| 国产成人精品久久久久久| 一本—道久久a久久精品蜜桃钙片| 春色校园在线视频观看| 久久国产精品男人的天堂亚洲 | 国产高清不卡午夜福利| 日本vs欧美在线观看视频| 我要看黄色一级片免费的| 亚洲欧美色中文字幕在线| 永久网站在线| 97在线视频观看| 丰满饥渴人妻一区二区三| kizo精华| 在线观看免费日韩欧美大片 | 国产成人午夜福利电影在线观看| 亚洲一区二区三区欧美精品| 伦理电影免费视频| 免费看av在线观看网站| 看免费成人av毛片| www.色视频.com| 国产精品嫩草影院av在线观看| 精品一区二区三卡| 亚洲精品乱码久久久久久按摩| 9色porny在线观看| 欧美日韩亚洲高清精品| 国产男女超爽视频在线观看| 自拍欧美九色日韩亚洲蝌蚪91| 狂野欧美白嫩少妇大欣赏| 一个人看视频在线观看www免费| 最新中文字幕久久久久| 亚洲婷婷狠狠爱综合网| 欧美一级a爱片免费观看看| freevideosex欧美| 亚洲,一卡二卡三卡| 老熟女久久久| 欧美精品人与动牲交sv欧美| 国产视频首页在线观看| 嘟嘟电影网在线观看| 久久国产精品大桥未久av| 免费不卡的大黄色大毛片视频在线观看| 亚洲人与动物交配视频| 91精品三级在线观看| 成人国产麻豆网| 我要看黄色一级片免费的| 国产av一区二区精品久久| 一区二区三区精品91| 久久国产亚洲av麻豆专区| 乱码一卡2卡4卡精品| 久久热精品热| 欧美日韩视频高清一区二区三区二| 乱人伦中国视频| 交换朋友夫妻互换小说| 校园人妻丝袜中文字幕| 伊人久久国产一区二区| 三级国产精品欧美在线观看| 亚洲av电影在线观看一区二区三区| 久久精品国产亚洲av天美| 国产精品久久久久久久电影| 欧美少妇被猛烈插入视频| 如何舔出高潮| 成年美女黄网站色视频大全免费 | tube8黄色片| 超色免费av| 91精品伊人久久大香线蕉| 成人综合一区亚洲| 久久99蜜桃精品久久| 一区二区三区免费毛片| 秋霞伦理黄片| 一区在线观看完整版| 久久国内精品自在自线图片| 欧美变态另类bdsm刘玥| 亚洲熟女精品中文字幕| 亚洲综合精品二区| 99久久精品一区二区三区| 26uuu在线亚洲综合色| 99久久精品国产国产毛片| 国产午夜精品一二区理论片| 欧美人与性动交α欧美精品济南到 | 国产黄色视频一区二区在线观看| 成年人免费黄色播放视频| 777米奇影视久久| 久久久久久久大尺度免费视频| 免费观看av网站的网址| 在线观看国产h片| 国产在线一区二区三区精| 纵有疾风起免费观看全集完整版| av国产精品久久久久影院| 国产精品麻豆人妻色哟哟久久| 大香蕉久久成人网| 国语对白做爰xxxⅹ性视频网站| 日韩成人伦理影院| 亚洲av.av天堂| 一边摸一边做爽爽视频免费| 国产毛片在线视频| 久久久久久久久大av| 国产 精品1| 国产精品一区二区三区四区免费观看| 欧美精品国产亚洲| 在线亚洲精品国产二区图片欧美 | 中文字幕av电影在线播放| 成人综合一区亚洲| 哪个播放器可以免费观看大片| 女性被躁到高潮视频| 欧美激情国产日韩精品一区| 我的女老师完整版在线观看| 亚洲精品第二区| 日本免费在线观看一区| 成人18禁高潮啪啪吃奶动态图 | 国产免费现黄频在线看| 国产片内射在线| 极品少妇高潮喷水抽搐| 18在线观看网站| 高清欧美精品videossex| 欧美激情国产日韩精品一区| 大码成人一级视频| 国产无遮挡羞羞视频在线观看| 永久免费av网站大全| 久久久久久久精品精品| av在线老鸭窝| 最新的欧美精品一区二区| 国语对白做爰xxxⅹ性视频网站| 国产精品不卡视频一区二区| av免费在线看不卡| 热re99久久精品国产66热6| 少妇高潮的动态图| 国产男人的电影天堂91| 丝袜在线中文字幕| 你懂的网址亚洲精品在线观看| 欧美日韩视频高清一区二区三区二| 国产日韩欧美亚洲二区| 91国产中文字幕| 久久久午夜欧美精品| 午夜福利视频精品| 日韩欧美一区视频在线观看| 69精品国产乱码久久久| 99久久精品国产国产毛片| 日韩,欧美,国产一区二区三区| 十分钟在线观看高清视频www| 久久99热6这里只有精品| av.在线天堂| 黄色怎么调成土黄色| 十八禁高潮呻吟视频| 婷婷色麻豆天堂久久| 亚洲国产最新在线播放| 久久毛片免费看一区二区三区| 九九久久精品国产亚洲av麻豆| 国产精品99久久99久久久不卡 | 精品国产一区二区三区久久久樱花| 中国国产av一级| 乱人伦中国视频| 中文欧美无线码| 热99国产精品久久久久久7| 成年人免费黄色播放视频| 啦啦啦在线观看免费高清www| 纯流量卡能插随身wifi吗| 日韩一本色道免费dvd| 午夜福利视频精品| 日韩视频在线欧美| 久久精品久久久久久噜噜老黄| 秋霞在线观看毛片| 大陆偷拍与自拍| 日本爱情动作片www.在线观看| 亚洲精品久久成人aⅴ小说 | 最近中文字幕高清免费大全6| 亚洲丝袜综合中文字幕| 日韩精品有码人妻一区| 三级国产精品片| 亚洲精品aⅴ在线观看| videossex国产| 国产精品99久久久久久久久| 777米奇影视久久| 亚洲美女搞黄在线观看| 国产精品偷伦视频观看了| 九色成人免费人妻av| a级毛片黄视频| 国产成人精品福利久久| 多毛熟女@视频| 久久久国产欧美日韩av| 日韩伦理黄色片| 久久精品夜色国产| 国产男女超爽视频在线观看| 日本av手机在线免费观看| 一区二区日韩欧美中文字幕 | 国产免费一级a男人的天堂| 少妇猛男粗大的猛烈进出视频| 精品人妻在线不人妻| 我的女老师完整版在线观看| 18禁动态无遮挡网站| 日产精品乱码卡一卡2卡三| 99久国产av精品国产电影| 亚洲人成77777在线视频| 久久影院123| 国产淫语在线视频| 久久久久久伊人网av| 国产精品蜜桃在线观看| 国产午夜精品久久久久久一区二区三区| 色婷婷久久久亚洲欧美| 国产免费现黄频在线看| 黑人欧美特级aaaaaa片| 热99久久久久精品小说推荐| 亚州av有码| 亚洲精品乱码久久久v下载方式| 国产午夜精品久久久久久一区二区三区| 美女国产高潮福利片在线看| 久久久久久久久久人人人人人人| 久久综合国产亚洲精品| 国产午夜精品一二区理论片| 久久久国产一区二区| 国产亚洲精品第一综合不卡 | 又大又黄又爽视频免费| 久久久精品区二区三区| 交换朋友夫妻互换小说| 99久国产av精品国产电影| 黑丝袜美女国产一区| 91久久精品国产一区二区成人| 尾随美女入室| 国产精品欧美亚洲77777| 午夜影院在线不卡| 一本—道久久a久久精品蜜桃钙片| 久久精品国产鲁丝片午夜精品| 91aial.com中文字幕在线观看| 一级黄片播放器| 日韩人妻高清精品专区| 嫩草影院入口| 国产欧美亚洲国产| 久久青草综合色| 国产不卡av网站在线观看| 九色成人免费人妻av| 欧美97在线视频| 色吧在线观看| 国产在线一区二区三区精| 99热国产这里只有精品6| 久热久热在线精品观看| 亚洲精品乱码久久久久久按摩| 下体分泌物呈黄色| 成年美女黄网站色视频大全免费 | 人人妻人人澡人人爽人人夜夜| 中文字幕av电影在线播放| 91精品三级在线观看| 中国国产av一级| 国产精品人妻久久久久久| 一级a做视频免费观看| 又黄又爽又刺激的免费视频.| 久久久久久久久大av| 黑人巨大精品欧美一区二区蜜桃 | 菩萨蛮人人尽说江南好唐韦庄| 午夜精品国产一区二区电影| 国产精品一国产av| 国产亚洲一区二区精品| 免费人妻精品一区二区三区视频| 国产黄色视频一区二区在线观看| 伊人亚洲综合成人网| av女优亚洲男人天堂| 天天操日日干夜夜撸| 曰老女人黄片| 亚洲精品aⅴ在线观看| 国内精品宾馆在线| 国产有黄有色有爽视频| 最后的刺客免费高清国语| 久久久久久久久久人人人人人人| 卡戴珊不雅视频在线播放| 色94色欧美一区二区| 久久国产亚洲av麻豆专区| 亚洲中文av在线| 黄色毛片三级朝国网站| 免费大片黄手机在线观看| 国精品久久久久久国模美| 国产毛片在线视频| 青青草视频在线视频观看| 99国产精品免费福利视频| 亚洲色图综合在线观看| 免费看光身美女| 亚洲色图综合在线观看| 九草在线视频观看| 国产成人免费无遮挡视频| 国产成人精品在线电影| 久久久久久久精品精品| 精品少妇黑人巨大在线播放| 日韩成人av中文字幕在线观看| 亚洲国产精品999| 久久久久人妻精品一区果冻| 国产毛片在线视频| 色视频在线一区二区三区| 伦精品一区二区三区| 午夜免费鲁丝| 黄色一级大片看看| 啦啦啦中文免费视频观看日本| 看免费成人av毛片| 亚洲高清免费不卡视频| 亚洲经典国产精华液单| 美女福利国产在线| 日韩熟女老妇一区二区性免费视频| 久久韩国三级中文字幕| 久久女婷五月综合色啪小说| 国产在视频线精品| 国产成人精品久久久久久| 国产亚洲精品久久久com| 我的老师免费观看完整版| a 毛片基地| 欧美亚洲 丝袜 人妻 在线| 亚洲av综合色区一区| 国产一区二区在线观看日韩| 国产爽快片一区二区三区| 国产精品秋霞免费鲁丝片| 新久久久久国产一级毛片| 97超视频在线观看视频| 日韩视频在线欧美| 精品久久久久久久久av| 久久狼人影院| 亚洲精品国产色婷婷电影| 欧美人与善性xxx| 日日爽夜夜爽网站| 波野结衣二区三区在线| 美女cb高潮喷水在线观看| 寂寞人妻少妇视频99o| 日韩 亚洲 欧美在线| 2022亚洲国产成人精品| 美女视频免费永久观看网站| 精品国产乱码久久久久久小说| 国产爽快片一区二区三区| 一本—道久久a久久精品蜜桃钙片| 国产日韩欧美在线精品| 免费av中文字幕在线| 午夜福利,免费看| 91精品国产国语对白视频| 国产高清不卡午夜福利| 女性被躁到高潮视频| 亚洲精品久久久久久婷婷小说| 婷婷成人精品国产| 亚洲欧洲国产日韩| 国产日韩欧美在线精品| 亚洲欧洲精品一区二区精品久久久 | 国产黄片视频在线免费观看| 亚洲av二区三区四区| 免费日韩欧美在线观看| 久久99精品国语久久久| 国产欧美日韩一区二区三区在线 | 黑人巨大精品欧美一区二区蜜桃 | 一级毛片 在线播放| av在线老鸭窝| 国产亚洲午夜精品一区二区久久| 精品久久久噜噜| 精品久久蜜臀av无| 精品一品国产午夜福利视频|