• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)研究現(xiàn)狀與展望

    2016-04-07 05:50:28喬俊飛李凡軍楊翠麗
    智能系統(tǒng)學(xué)報(bào) 2016年6期
    關(guān)鍵詞:級(jí)聯(lián)權(quán)值儲(chǔ)備

    喬俊飛,李凡軍,楊翠麗

    (1.北京工業(yè)大學(xué) 信息學(xué)部,北京 100124; 2.濟(jì)南大學(xué) 數(shù)學(xué)科學(xué)學(xué)院,山東 濟(jì)南 250022; 3.計(jì)算智能與智能系統(tǒng)北京市重點(diǎn)實(shí)驗(yàn)室,北京 100124)

    隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)研究現(xiàn)狀與展望

    喬俊飛1,3,李凡軍2,楊翠麗1,3

    (1.北京工業(yè)大學(xué) 信息學(xué)部,北京 100124; 2.濟(jì)南大學(xué) 數(shù)學(xué)科學(xué)學(xué)院,山東 濟(jì)南 250022; 3.計(jì)算智能與智能系統(tǒng)北京市重點(diǎn)實(shí)驗(yàn)室,北京 100124)

    神經(jīng)網(wǎng)絡(luò)隨機(jī)學(xué)習(xí)克服了傳統(tǒng)梯度類算法所固有的收斂速度慢及局部極小問題,最近已成為神經(jīng)網(wǎng)絡(luò)領(lǐng)域的研究熱點(diǎn)之一?;陔S機(jī)學(xué)習(xí)的思想,人們?cè)O(shè)計(jì)了不同結(jié)構(gòu)的隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)模型。本文旨在回顧總結(jié)隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)的研究現(xiàn)狀基礎(chǔ)上,給出其發(fā)展趨勢(shì)。首先,提出隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)簡(jiǎn)化模型,并基于簡(jiǎn)化模型給出神經(jīng)網(wǎng)絡(luò)隨機(jī)學(xué)習(xí)算法;其次,回顧總結(jié)隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)研究現(xiàn)狀,基于簡(jiǎn)化模型分析不同結(jié)構(gòu)隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)的性能及隨機(jī)權(quán)初始化方法;最后,給出隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)今后的發(fā)展趨勢(shì)。

    隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò);前饋神經(jīng)網(wǎng)絡(luò);遞歸神經(jīng)網(wǎng)絡(luò);級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò);隨機(jī)學(xué)習(xí)算法

    人工神經(jīng)網(wǎng)絡(luò)是通過模仿大腦神經(jīng)系統(tǒng)的組織結(jié)構(gòu)及活動(dòng)機(jī)理進(jìn)行信息處理的新型網(wǎng)絡(luò)系統(tǒng),具有從環(huán)境中學(xué)習(xí)的能力,并引起諸多領(lǐng)域的廣泛關(guān)注,比如信號(hào)處理、智能控制、模式識(shí)別、圖像處理、非線性系統(tǒng)建模與優(yōu)化、大數(shù)據(jù)處理、知識(shí)處理等領(lǐng)域[1-6]。迄今為止,應(yīng)用最為廣泛的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)方法是梯度類算法。然而,傳統(tǒng)的梯度類算法本身存在一些難以解決的瓶頸問題,如收斂速度慢、易陷入局部極小點(diǎn)、對(duì)初始參數(shù)的設(shè)定依賴性較強(qiáng)等[7]。特別是對(duì)于深層神經(jīng)網(wǎng)絡(luò)及遞歸神經(jīng)網(wǎng)絡(luò),梯度類算法存在梯度消失及梯度爆炸等問題,難以充分發(fā)揮神經(jīng)網(wǎng)絡(luò)強(qiáng)大的學(xué)習(xí)能力[8]。

    另一方面,人們通過對(duì)大腦的解剖重構(gòu)發(fā)現(xiàn),隨機(jī)連接存在于部分腦區(qū)域,并在神經(jīng)表征過程中具有重要作用[9-10]?;诖松飳W(xué)基礎(chǔ),部分學(xué)者提出了神經(jīng)網(wǎng)絡(luò)隨機(jī)學(xué)習(xí)算法,通過求解簡(jiǎn)單線性回歸問題計(jì)算與輸出層節(jié)點(diǎn)連接的網(wǎng)絡(luò)權(quán)值,而其他網(wǎng)絡(luò)權(quán)值及閾值則根據(jù)給定概率分布,在特定的區(qū)間上隨機(jī)生成,且不再進(jìn)行調(diào)整[11]。該類算法無需性能函數(shù)的梯度信息,無需反復(fù)迭代,在一定程度上克服了傳統(tǒng)梯度類算法遇到的瓶頸問題[12]。

    近年來,眾多學(xué)者將隨機(jī)學(xué)習(xí)思想應(yīng)用于訓(xùn)練不同結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),并提出了多種類型的隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)模型,如單隱含層前饋神經(jīng)網(wǎng)絡(luò)[13-15],多隱含層前饋神經(jīng)網(wǎng)絡(luò)[16-18],級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)[19-20],遞歸神經(jīng)網(wǎng)絡(luò)[21-23]。與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)相比,隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)在保證相當(dāng)?shù)谋平头夯芰Φ幕A(chǔ)上,擁有極快的學(xué)習(xí)速度,降低了陷入局部極小點(diǎn)的概率,代碼執(zhí)行簡(jiǎn)單,易于理解與實(shí)現(xiàn),無需性能函數(shù)的導(dǎo)數(shù)信息,適用范圍更加廣泛。因此隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)一經(jīng)提出便成為神經(jīng)網(wǎng)絡(luò)領(lǐng)域的研究熱點(diǎn),并已成功應(yīng)用于模式識(shí)別、信號(hào)處理、時(shí)間序列預(yù)測(cè)等領(lǐng)域[24-26]。然而,隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)研究才剛剛起步,在理論、技術(shù)及應(yīng)用層面上還有很大的提升空間。

    1 隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)簡(jiǎn)化模型

    圖1 隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)簡(jiǎn)化模型Fig.1 Simplified model of NNs with random weights

    如圖1所示,隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)的計(jì)算模型可概括為

    (1)

    式中:βj為隨機(jī)層第j個(gè)節(jié)點(diǎn)與輸出層之間的連接權(quán)值向量,θj為隨機(jī)層第j個(gè)節(jié)點(diǎn)的隨機(jī)權(quán)向量,gj為隨機(jī)層第j個(gè)節(jié)點(diǎn)的映射函數(shù)。假設(shè)模型預(yù)測(cè)誤差為ε,則式(1)可以等價(jià)地表示為

    (2)

    式中:H為隨機(jī)層輸出矩陣,β為隨機(jī)層與輸出層間的連接矩陣,T為目標(biāo)輸出矩陣,分別表示為

    (3)

    在隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)模型(1)中,隨機(jī)層節(jié)點(diǎn)的參數(shù)θj按照采用某種隨機(jī)的方法進(jìn)行初始化,并在隨后的學(xué)習(xí)過程中保持不變,而權(quán)值βj則可以通過最小二乘求解式(2)獲得,即

    (4)

    或通過嶺回歸算法,得

    (5)

    式中λ為正則化系數(shù)。

    神經(jīng)網(wǎng)絡(luò)隨機(jī)學(xué)習(xí)算法步驟可概括如下:

    1)隨機(jī)初始化隨機(jī)層第j個(gè)隱節(jié)點(diǎn)的參數(shù)向量θj,j=1, 2, …,L;

    2)由式(1)和式(3)計(jì)算網(wǎng)絡(luò)隨機(jī)層的輸出矩陣H;

    3)由式(4)或式(5)計(jì)算網(wǎng)絡(luò)的輸出層權(quán)值矩陣;

    4)對(duì)訓(xùn)練好的網(wǎng)絡(luò)進(jìn)行測(cè)試。

    根據(jù)隨機(jī)層節(jié)點(diǎn)的連接方式,隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)可分為隨機(jī)權(quán)單隱含層前饋神經(jīng)網(wǎng)絡(luò)、隨機(jī)權(quán)多隱含層前饋神經(jīng)網(wǎng)絡(luò)、隨機(jī)權(quán)級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)及隨機(jī)權(quán)遞歸神經(jīng)網(wǎng)絡(luò),不同網(wǎng)絡(luò)結(jié)構(gòu)對(duì)應(yīng)不同的映射函數(shù)及網(wǎng)絡(luò)性能,下面對(duì)隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)、映射函數(shù)以及網(wǎng)絡(luò)性能進(jìn)行具體分析。

    2 隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)及性能分析

    2.1 隨機(jī)權(quán)單隱含層前饋神經(jīng)網(wǎng)絡(luò)

    前饋單隱含層神經(jīng)網(wǎng)絡(luò)(single hidden layer feedforward neural network, SLFN)是目前研究及應(yīng)用最為廣泛的前饋神經(jīng)網(wǎng)絡(luò)。在文獻(xiàn)[27]中,作者將隨機(jī)學(xué)習(xí)的思想應(yīng)用于訓(xùn)練SLFN,分別研究網(wǎng)絡(luò)的輸入權(quán)值與輸出權(quán)值對(duì)于網(wǎng)絡(luò)性能的影響。仿真結(jié)果表明,輸出權(quán)值對(duì)網(wǎng)絡(luò)性能影響更加明顯,而輸入權(quán)值恰當(dāng)初始化后可不必進(jìn)行優(yōu)化調(diào)節(jié)。但該文獻(xiàn)并沒有將隨機(jī)學(xué)習(xí)算法作為一種可供選擇的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法進(jìn)行推廣。Pao及Huang等分別對(duì)神經(jīng)網(wǎng)絡(luò)隨機(jī)學(xué)習(xí)算法進(jìn)行了深入地研究,各自提出了相應(yīng)的隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)模型[28-29]。Rahimi等也提出了類似結(jié)構(gòu)的隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)模型,并對(duì)網(wǎng)絡(luò)的分類能力及測(cè)試誤差邊界給出了相應(yīng)的理論分析[15]。

    Huang等將隨機(jī)學(xué)習(xí)算法應(yīng)用于SLFN訓(xùn)練,提出了標(biāo)準(zhǔn)的隨機(jī)權(quán)單隱含層神經(jīng)網(wǎng)絡(luò)模型(Extreme learning machine,ELM)[30],如圖2所示,其中隨機(jī)層節(jié)點(diǎn)由輸入層節(jié)點(diǎn)及隱含層節(jié)點(diǎn)復(fù)合而成。ELM網(wǎng)絡(luò)隨機(jī)層節(jié)點(diǎn)的映射函數(shù)為

    (6)

    式中:wj=(wj1,wj2,…,wjn),bj分別為第j個(gè)隱含層節(jié)點(diǎn)的輸入權(quán)值及閾值,θj=(wj1,wj2,…,wjn,bj)為網(wǎng)絡(luò)的隨機(jī)權(quán)向量,取值于任意實(shí)數(shù)區(qū)間,xi(i=1,2,…,N)為網(wǎng)絡(luò)輸入。在文獻(xiàn)[31]中,Huang等證明了該類網(wǎng)絡(luò)以概率1任意精度逼近連續(xù)函數(shù)。Liu等從理論上嚴(yán)格證明,在選擇恰當(dāng)?shù)募せ詈瘮?shù)的條件下,該類隨機(jī)權(quán)單隱含層前饋神經(jīng)網(wǎng)絡(luò)可以獲得與權(quán)值可調(diào)神經(jīng)網(wǎng)絡(luò)相當(dāng)?shù)姆夯阅躘32]。

    圖2 隨機(jī)權(quán)單隱含層前饋神經(jīng)網(wǎng)絡(luò)Fig.2 SLFN with random weights

    功能連接網(wǎng)絡(luò)(functional-linkneuralnetwork,F(xiàn)LNN)是一類特殊的SLFN[33],包括輸入層、增強(qiáng)層(隱含層)及輸出層,如圖3所示。與標(biāo)準(zhǔn)的SLFN不同,F(xiàn)LNN的輸入節(jié)點(diǎn)同時(shí)連接隱含層節(jié)點(diǎn)及輸出層節(jié)點(diǎn)。Pao等將神經(jīng)網(wǎng)絡(luò)隨機(jī)學(xué)習(xí)算法用于FLNN網(wǎng)絡(luò)訓(xùn)練,提出了隨機(jī)權(quán)功能連接網(wǎng)絡(luò)(randomvectorfunctional-linkneuralnetwork,RVFL)[13,28],其隨機(jī)層輸出包括輸入節(jié)點(diǎn)輸出以及輸入節(jié)點(diǎn)與隱節(jié)點(diǎn)的復(fù)合節(jié)點(diǎn)輸出。RVFL網(wǎng)絡(luò)的隨機(jī)層節(jié)點(diǎn)映射函數(shù)為

    (7)

    圖3 隨機(jī)權(quán)功能連接網(wǎng)絡(luò)Fig.3 FLNN with random weights

    近年來,隨機(jī)權(quán)單隱含層神經(jīng)網(wǎng)絡(luò)研究取得了許多優(yōu)秀的成果,比如在線算法[35]、分布式算法[36]、集成算法[37]、結(jié)構(gòu)設(shè)計(jì)算法[38-42]、正則化算法[43-44]、聚類算法[45-46]等。但隨機(jī)權(quán)單隱含層神經(jīng)網(wǎng)絡(luò)在大數(shù)據(jù)及知識(shí)處理方面的研究還需要進(jìn)一步加強(qiáng)。

    2.2 隨機(jī)權(quán)多隱含層前饋神經(jīng)網(wǎng)絡(luò)

    與SLFN相比,多隱含層前饋神經(jīng)網(wǎng)絡(luò)(multiple hidden layer feedforward neural network, MLFN)在處理某些問題時(shí)展現(xiàn)出了更好的信息處理能力[47]。然而,由于縱深的網(wǎng)絡(luò)結(jié)構(gòu),梯度類算法在訓(xùn)練MLFN時(shí)存在梯度消失及梯度爆炸問題,不能有效發(fā)揮MLFN的全部性能。深度學(xué)習(xí)方法能夠有效地訓(xùn)練MLFN網(wǎng)絡(luò),并在模式識(shí)別等問題上取得很好的效果,但其整個(gè)訓(xùn)練過程是冗長(zhǎng)的[48]。而基于隨機(jī)學(xué)習(xí)算法的多隱含層前饋神經(jīng)網(wǎng)絡(luò),稱為隨機(jī)權(quán)多隱含層前饋神經(jīng)網(wǎng)絡(luò),僅網(wǎng)絡(luò)的輸出權(quán)值進(jìn)行訓(xùn)練,而隱含層節(jié)點(diǎn)的網(wǎng)絡(luò)權(quán)值隨機(jī)設(shè)置且固定不變,從而極大地提高了網(wǎng)絡(luò)的訓(xùn)練效率[49]。

    隨機(jī)權(quán)多隱含層前饋神經(jīng)網(wǎng)絡(luò)中,隨機(jī)層節(jié)點(diǎn)由輸入節(jié)點(diǎn)及隱含層節(jié)點(diǎn)逐層復(fù)合而成,如圖4所示,其映射函數(shù)為

    (8)

    圖4 隨機(jī)權(quán)多隱含層前饋神經(jīng)網(wǎng)絡(luò)Fig.4 MLNN with random weights

    基于隨機(jī)學(xué)習(xí)的思想,文獻(xiàn)[16]提出了無傳播(no-propagation)算法用于訓(xùn)練MLFN網(wǎng)絡(luò)。該算法利用LMS(leastmeansquare)方法訓(xùn)練網(wǎng)絡(luò)的輸出權(quán)值,其他權(quán)值隨機(jī)生成且固定不變。實(shí)驗(yàn)證明該算法構(gòu)造的神經(jīng)網(wǎng)絡(luò)可以得到與權(quán)值可調(diào)網(wǎng)絡(luò)相當(dāng)?shù)姆夯芰ΑT谖墨I(xiàn)[50]中,作者提出了雙隱含層隨機(jī)權(quán)前饋神經(jīng)網(wǎng)絡(luò)模型,該模型第一隱含層的輸入權(quán)值隨機(jī)生成,而第二隱含層的輸入權(quán)值分析獲取。在文獻(xiàn)[51]中,作者將神經(jīng)網(wǎng)絡(luò)隨機(jī)學(xué)習(xí)與深度信念網(wǎng)結(jié)合,設(shè)計(jì)了增量式隨機(jī)權(quán)多隱含層前饋神經(jīng)網(wǎng)絡(luò)模型。在文獻(xiàn)[17]中,Kasun等基于逐層隨機(jī)初始化方法設(shè)計(jì)了隨機(jī)權(quán)多隱含層前饋神經(jīng)網(wǎng)絡(luò)自動(dòng)編碼器。其將網(wǎng)絡(luò)輸入信號(hào)分解為多個(gè)隱含層,上一層的輸出作為當(dāng)前隱含層的目標(biāo)輸出。然而,該模型僅是簡(jiǎn)單的分層堆積,其最后一個(gè)隱含層的編碼輸出直接輸送給了輸出層,中間沒有經(jīng)過隨機(jī)映射,不能保證模型的任意逼近特性[18]。因此,為了保證該自動(dòng)編碼器的任意逼近特性,Tang等在編碼器最后一個(gè)隱含層與輸出層之間增加了一個(gè)隨機(jī)映射層,將MLFN的訓(xùn)練分為兩個(gè)層次,即無監(jiān)督的分層特征表示及有監(jiān)督的特征分類[18]。

    目前隨機(jī)權(quán)多隱含層前饋神經(jīng)網(wǎng)絡(luò)已成功應(yīng)用于人臉識(shí)別、圖像處理及多分類學(xué)習(xí)[52-53]等領(lǐng)域,但對(duì)其研究才剛剛起步,理論研究不足,應(yīng)用領(lǐng)域有待進(jìn)一步擴(kuò)大。

    2.3 隨機(jī)權(quán)級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)

    近期研究成果表明,與多層感知結(jié)構(gòu)相比較,級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)(cascade neural network,CNN)結(jié)構(gòu)具有更強(qiáng)的信息處理能力,因?yàn)槠渚哂胸S富的跨層鏈接及縱深的網(wǎng)絡(luò)結(jié)構(gòu)[54]。比如,Wilamowski 等研究證明級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)用8個(gè)隱含層節(jié)點(diǎn)就可以解決255位的奇偶校驗(yàn)問題,而三層感知網(wǎng)絡(luò)用8個(gè)隱含層節(jié)點(diǎn)只能解決7位的奇偶校驗(yàn)問題[55]。但是級(jí)聯(lián)網(wǎng)絡(luò)每一個(gè)隱含層節(jié)點(diǎn)就是一層,隨著網(wǎng)絡(luò)節(jié)點(diǎn)增加,網(wǎng)絡(luò)深度不斷增加,傳統(tǒng)梯度類算法難以實(shí)現(xiàn)網(wǎng)絡(luò)權(quán)值的優(yōu)化。Wilamowski等提出的NBN(neuron by neuron)算法,可以沿著網(wǎng)絡(luò)節(jié)點(diǎn)的連接次序逐一優(yōu)化節(jié)點(diǎn)權(quán)值,雖然適用于CNN網(wǎng)絡(luò)的權(quán)值優(yōu)化,但對(duì)于較大規(guī)模(權(quán)值數(shù)大于500)的網(wǎng)絡(luò)訓(xùn)練耗時(shí)太長(zhǎng)[56]。而隨機(jī)權(quán)級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò),只有與輸出節(jié)點(diǎn)連接的權(quán)值需要進(jìn)行訓(xùn)練,其他權(quán)值隨機(jī)設(shè)置且固定不變,從而極大地減少了級(jí)聯(lián)網(wǎng)絡(luò)的訓(xùn)練時(shí)間。

    隨機(jī)權(quán)級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)的隨機(jī)層節(jié)點(diǎn)由兩部分組成,一部分為輸入節(jié)點(diǎn),另一部分由輸入節(jié)點(diǎn)及隱含層節(jié)點(diǎn)逐層復(fù)合而成,如圖5所示。

    圖5 隨機(jī)權(quán)級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)Fig.5 CNN with random weights

    其中隨機(jī)層節(jié)點(diǎn)的映射函數(shù)為

    (9)

    (10)

    在文獻(xiàn)[19]中,作者基于隨機(jī)學(xué)習(xí)的思想設(shè)計(jì)了隨機(jī)權(quán)級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò),并給出了網(wǎng)絡(luò)的收斂性證明。在文獻(xiàn)[20]中,作者基于正交最小二乘算法設(shè)計(jì)了類似的隨機(jī)權(quán)級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)。在文獻(xiàn)[57]中,作者結(jié)合CNN網(wǎng)絡(luò)及ELM算法,提出了具有級(jí)聯(lián)結(jié)構(gòu)的隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò),能夠以較少的隱含層節(jié)點(diǎn)得到與ELM網(wǎng)絡(luò)相當(dāng)?shù)男畔⑻幚砟芰?。而在文獻(xiàn)[58]中,作者證明了隨機(jī)權(quán)級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)的逼近特性。然而,與隨機(jī)權(quán)單隱含層前饋神經(jīng)網(wǎng)絡(luò)相比,在具有相同數(shù)量網(wǎng)絡(luò)權(quán)值的條件下,隨機(jī)權(quán)級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)并沒有表現(xiàn)出更好的信息處理能力[57]。因此,進(jìn)一步提高隨機(jī)權(quán)級(jí)聯(lián)神經(jīng)網(wǎng)絡(luò)的信息處理能力是當(dāng)前該領(lǐng)域研究的重點(diǎn)之一。

    2.4 隨機(jī)權(quán)遞歸神經(jīng)網(wǎng)絡(luò)

    與前饋神經(jīng)網(wǎng)絡(luò)相比,遞歸神經(jīng)網(wǎng)絡(luò)(recurrentneuralnetwork,RNN)含有豐富的動(dòng)力學(xué)特性,理論上能夠解決具有時(shí)序特性的機(jī)器學(xué)習(xí)問題。然而在實(shí)際應(yīng)用過程中,往往難以達(dá)到預(yù)期的目的,其原因在于傳統(tǒng)的梯度類算法存在梯度消失及梯度爆炸等問題,難以快速有效地訓(xùn)練遞歸神經(jīng)網(wǎng)絡(luò)[8]。隨機(jī)權(quán)遞歸神經(jīng)網(wǎng)絡(luò)僅僅訓(xùn)練網(wǎng)絡(luò)的輸出權(quán)值,而其他權(quán)值和閾值按照特定的規(guī)則隨機(jī)設(shè)置且固定不變,極大地提高了遞歸神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效率。

    隨機(jī)權(quán)遞歸神經(jīng)網(wǎng)絡(luò)隨機(jī)層比較復(fù)雜,其節(jié)點(diǎn)包括兩個(gè)組成部分:一部分為網(wǎng)絡(luò)的輸入節(jié)點(diǎn),另一部分由輸入節(jié)點(diǎn)及隱含層節(jié)點(diǎn)按時(shí)間順序多重復(fù)合而成,如圖6。

    圖6 隨機(jī)權(quán)遞歸神經(jīng)網(wǎng)絡(luò)Fig.6 RNN with random weights

    其隨機(jī)層節(jié)點(diǎn)的映射函數(shù)為

    (11)

    (12)

    目前,典型的隨機(jī)權(quán)遞歸神經(jīng)網(wǎng)絡(luò)稱為“儲(chǔ)備池計(jì)算(reservoircomputing)”模型,主要包括回聲狀態(tài)網(wǎng)絡(luò)(echostatenetwork,ESN)[22]、液體狀態(tài)機(jī)(liquidstatemachine,LSM)[23]及BPDCBackpropagationdecorrelation)學(xué)習(xí)規(guī)則[21]等。

    ESN網(wǎng)絡(luò)的隨機(jī)層由大規(guī)模稀疏連接的遞歸模擬神經(jīng)元構(gòu)成,稱為“動(dòng)態(tài)儲(chǔ)備池(dynamicalreservoir)”。當(dāng)動(dòng)態(tài)儲(chǔ)備池權(quán)值矩陣的最大奇異值小于1時(shí),ESN網(wǎng)絡(luò)動(dòng)態(tài)儲(chǔ)備池的輸出狀態(tài)由歷史輸入唯一確定,稱為回聲狀態(tài)特性(ehostateproperty,ESP)。H.Jaeger指出通過設(shè)置動(dòng)態(tài)儲(chǔ)備池權(quán)值矩陣的譜半徑接近且小于1,使動(dòng)態(tài)儲(chǔ)備池可處于穩(wěn)定邊界,進(jìn)而使ESN網(wǎng)絡(luò)能夠獲得較好的信息處理能力[22]。與傳統(tǒng)的遞歸神經(jīng)網(wǎng)絡(luò)相比,ESN網(wǎng)絡(luò)處理時(shí)間序列預(yù)測(cè)問題的能力得到大幅提高[59],并成功應(yīng)用于語音識(shí)別及非線性信號(hào)處理等領(lǐng)域[6-61]。然而針對(duì)具體問題,隨機(jī)動(dòng)態(tài)儲(chǔ)備池并不是最優(yōu)選擇[62-63]。因此,ESN動(dòng)態(tài)儲(chǔ)備池結(jié)構(gòu)和儲(chǔ)備池權(quán)值矩陣設(shè)計(jì)仍然是該領(lǐng)域的開放課題,并出現(xiàn)了一些有意義的成果[64-70]。

    LSM是一種在線網(wǎng)絡(luò)模型,提出的動(dòng)機(jī)是用于解決時(shí)序信號(hào)的實(shí)時(shí)計(jì)算問題,常用抽象的皮質(zhì)微柱模型進(jìn)行描述[71]。LSM的工作原理與ESN相近,但其隨機(jī)層由LIF(leaky-integrate-and-fire)神經(jīng)元構(gòu)成,能夠?qū)崟r(shí)處理脈沖數(shù)據(jù)流,更具有生物相似性[72]。研究表明,當(dāng)LSM的隨機(jī)層的動(dòng)態(tài)特性達(dá)到混沌邊界時(shí),模型可處于最佳狀態(tài)[73]。目前,LSM模型已成功應(yīng)用于時(shí)間序列預(yù)測(cè)及模式識(shí)別等領(lǐng)域[74-75]。

    盡管各種儲(chǔ)備池計(jì)算模型提出的動(dòng)機(jī)及表現(xiàn)形式不同,但都選用大規(guī)模、隨機(jī)連接的遞歸神經(jīng)元,其映射函數(shù)如式(11)所示,是典型的隨機(jī)權(quán)遞歸神經(jīng)網(wǎng)絡(luò)。目前,對(duì)于隨機(jī)權(quán)遞歸神經(jīng)網(wǎng)絡(luò)隨機(jī)層的動(dòng)力學(xué)特性理解不夠全面,其參數(shù)設(shè)置缺乏足夠的理論指導(dǎo),仍舊處于湊試階段,在實(shí)際應(yīng)用過程中設(shè)計(jì)更加困難,因此研究隨機(jī)層的動(dòng)力學(xué)特性,完善隨機(jī)權(quán)遞歸神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)及穩(wěn)定性理論,使其能夠有更廣泛的實(shí)際應(yīng)用是該領(lǐng)域的熱點(diǎn)問題之一。

    3 隨機(jī)權(quán)初始化方法

    隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)的核心思想是隨機(jī)層神經(jīng)元權(quán)值隨機(jī)初始化且在后續(xù)學(xué)習(xí)過程中保持不變,所以隨機(jī)權(quán)的初始化對(duì)于網(wǎng)絡(luò)的性能具有重要的影響。而隨機(jī)權(quán)前饋神經(jīng)網(wǎng)絡(luò)與隨機(jī)權(quán)遞歸神經(jīng)網(wǎng)絡(luò)在隨機(jī)權(quán)初始化方法上差別較大,本部分將分別進(jìn)行分析總結(jié)。

    3.1 前饋神經(jīng)網(wǎng)絡(luò)隨機(jī)權(quán)初始化方法

    在文獻(xiàn)[31]中,Huang等證明在任意區(qū)間上任意設(shè)置隨機(jī)層權(quán)值,ELM網(wǎng)絡(luò)以概率1任意精度逼近緊集上的連續(xù)函數(shù)。文獻(xiàn)[28]中,Pao等研究指出,在特定區(qū)間[-Ω,Ω]上隨機(jī)生成隨機(jī)權(quán),可使RVFL具有萬能逼近特性,但沒有給出Ω的具體確定辦法。Zhang等研究發(fā)現(xiàn),隨機(jī)權(quán)的選取區(qū)間[-Ω,Ω]對(duì)網(wǎng)絡(luò)的性能有較大影響,Ω過大或過小都將降低網(wǎng)絡(luò)的性能[34]。目前,隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)的隨機(jī)權(quán)初始化方法主要是在區(qū)間[-1,1]上按照均勻分布或高斯分布隨機(jī)設(shè)置。文獻(xiàn)[14-16]皆應(yīng)用完全隨機(jī)的方法初始化相應(yīng)網(wǎng)絡(luò)的隨機(jī)權(quán)。文獻(xiàn)[39]基于隨機(jī)初始化方法及激活函數(shù)的導(dǎo)函數(shù)構(gòu)造了4層隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò),提高了ELM網(wǎng)絡(luò)的學(xué)習(xí)和泛化能力。如此完全隨機(jī)地設(shè)置隨機(jī)權(quán)簡(jiǎn)單易行,但易于產(chǎn)生冗余或不良節(jié)點(diǎn),致使隨機(jī)層輸出共線性,降低網(wǎng)絡(luò)的泛化能力[76]。

    為克服不良節(jié)點(diǎn)問題,選擇性添加或刪除隨機(jī)節(jié)點(diǎn)是隨機(jī)權(quán)初始化的重要方法。如文獻(xiàn)[19]及[76]利用候選節(jié)點(diǎn)池初始化相應(yīng)網(wǎng)絡(luò)的隨機(jī)權(quán),首先生成多個(gè)隨機(jī)節(jié)點(diǎn)構(gòu)成候選節(jié)點(diǎn)池,然后根據(jù)給定的評(píng)價(jià)標(biāo)準(zhǔn)由池中選擇最優(yōu)節(jié)點(diǎn)添加至網(wǎng)絡(luò)中。而文獻(xiàn)[40]及[42]則首先生成規(guī)模較大的隨機(jī)層,根據(jù)節(jié)點(diǎn)對(duì)網(wǎng)絡(luò)性能的貢獻(xiàn)度,刪除貢獻(xiàn)小的隨機(jī)節(jié)點(diǎn),以實(shí)現(xiàn)隨機(jī)權(quán)的初始化。該類方法可以有效減少不良節(jié)點(diǎn),降低網(wǎng)絡(luò)的結(jié)構(gòu)復(fù)雜度,從而提高網(wǎng)絡(luò)的泛化性能。然而該方法也難以解決隨機(jī)層輸出共線性問題。Wang等基于矩陣的對(duì)角占優(yōu)理論對(duì)隨機(jī)權(quán)進(jìn)行初始化,解決了一類ELM網(wǎng)絡(luò)隨機(jī)層輸出共線性問題,但該方法對(duì)激活函數(shù)有特殊要求,不適用于sigmoid函數(shù)[77]。

    3.2 遞歸神經(jīng)網(wǎng)絡(luò)隨機(jī)權(quán)初始化方法

    遞歸神經(jīng)網(wǎng)絡(luò)具有復(fù)雜的動(dòng)力學(xué)特性,網(wǎng)絡(luò)權(quán)值的設(shè)定勢(shì)必影響網(wǎng)絡(luò)的穩(wěn)定性及記憶能力,因此其隨機(jī)權(quán)初始化更加重要。ESN網(wǎng)絡(luò)是隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)的典型代表,因此本文僅以ESN網(wǎng)絡(luò)為例分析隨機(jī)權(quán)的初始化,即動(dòng)態(tài)儲(chǔ)備池結(jié)構(gòu)設(shè)計(jì)。目前,主要?jiǎng)討B(tài)儲(chǔ)備池設(shè)計(jì)方法可分為無監(jiān)督設(shè)計(jì)和有監(jiān)督設(shè)計(jì)。

    無監(jiān)督設(shè)計(jì)可以分為兩種情況:基于動(dòng)態(tài)儲(chǔ)備池本質(zhì)特性隨機(jī)生成或基于動(dòng)態(tài)儲(chǔ)備池激活狀態(tài)優(yōu)化設(shè)計(jì)。H.Jaeger以特定概率為儲(chǔ)備池權(quán)值賦以幾個(gè)簡(jiǎn)單的數(shù)值,然后通過比例因子對(duì)權(quán)值矩陣進(jìn)行放縮,使動(dòng)態(tài)儲(chǔ)備池具有ESP特性[22]。文獻(xiàn)[66]利用儲(chǔ)備池權(quán)值矩陣的代數(shù)特性,基于奇異值分解設(shè)計(jì)動(dòng)態(tài)儲(chǔ)備池,使其具有特定的動(dòng)態(tài)特性。文獻(xiàn)[78]基于復(fù)雜網(wǎng)絡(luò)理論,模仿生物神經(jīng)網(wǎng)絡(luò)中的小世界及無標(biāo)度特性設(shè)計(jì)動(dòng)態(tài)儲(chǔ)備池,在保持ESN網(wǎng)絡(luò)記憶能力的同時(shí)提高了網(wǎng)絡(luò)的預(yù)測(cè)能力。文獻(xiàn)[67]基于分塊矩陣及側(cè)抑制連接,設(shè)計(jì)模塊化儲(chǔ)備池結(jié)構(gòu),實(shí)現(xiàn)了動(dòng)態(tài)儲(chǔ)備池內(nèi)部神經(jīng)元的局部解耦。基于動(dòng)態(tài)儲(chǔ)備池本質(zhì)特性隨機(jī)生成權(quán)值的方法簡(jiǎn)單通用,但對(duì)于解決實(shí)際問題顯然不是最優(yōu)選則[63]。

    文獻(xiàn)[79]基于信息論與動(dòng)態(tài)儲(chǔ)備池激活狀態(tài),構(gòu)建平均狀態(tài)熵(averagestateentropy,ASE),評(píng)價(jià)動(dòng)態(tài)儲(chǔ)備池輸出的多樣性,然后通過最大化ASE設(shè)計(jì)動(dòng)態(tài)儲(chǔ)備池,增強(qiáng)了ESN網(wǎng)絡(luò)的表征特性。文獻(xiàn)[80]基于正交鴿子啟發(fā)優(yōu)化(orthogonalpigeon-inspiredoptimization,OPIO)方法設(shè)計(jì)動(dòng)態(tài)儲(chǔ)備池的隨機(jī)權(quán),并成功應(yīng)用于圖像處理,提高了圖像的復(fù)原效果。文獻(xiàn)[81]基于自組織算法及側(cè)向互作用思想,提出動(dòng)態(tài)儲(chǔ)備池?zé)o監(jiān)督優(yōu)化設(shè)計(jì)方法,提高了ESN網(wǎng)絡(luò)對(duì)關(guān)聯(lián)信息過程的處理能力。基于動(dòng)態(tài)儲(chǔ)備池激活狀態(tài)設(shè)計(jì)評(píng)價(jià)函數(shù),通過優(yōu)化評(píng)價(jià)函數(shù)設(shè)計(jì)儲(chǔ)備池的方法,有效地利用了樣本的輸入信息,提高了ESN網(wǎng)絡(luò)處理實(shí)際問題的能力,但該類方法沒有考慮樣本的輸出信息,仍難以獲得最優(yōu)實(shí)用效果。

    文獻(xiàn)[82]通過平衡網(wǎng)絡(luò)輸出反饋與儲(chǔ)備池內(nèi)部反饋對(duì)儲(chǔ)備池動(dòng)態(tài)特性的影響設(shè)計(jì)了儲(chǔ)備池權(quán)值矩陣,很好地解決了多個(gè)正弦波疊加的MSO(multiplesuperimposedoscillators)問題。文獻(xiàn)[83]通過最大化儲(chǔ)備池激活狀態(tài)與樣本期望輸出間的平均互信息,優(yōu)化環(huán)形儲(chǔ)備池,提高了環(huán)形儲(chǔ)備池ESN的信息處理能力。文獻(xiàn)[84]基于先驗(yàn)數(shù)據(jù)及聚類算法設(shè)計(jì)具有小世界特性的動(dòng)態(tài)儲(chǔ)備池,提高了ESN網(wǎng)絡(luò)的計(jì)算及預(yù)測(cè)能力。文獻(xiàn)[85]基于梯度下降及ESN網(wǎng)絡(luò)的線性輸出層優(yōu)化儲(chǔ)備池,提高了網(wǎng)絡(luò)信息處理能力。利用樣本輸入輸出信息,有監(jiān)督設(shè)計(jì)動(dòng)態(tài)儲(chǔ)備池的方法,可根據(jù)給定問題有針對(duì)性地優(yōu)化設(shè)計(jì)動(dòng)態(tài)儲(chǔ)備池,提高了ESN網(wǎng)絡(luò)的實(shí)用效率,但有監(jiān)督設(shè)計(jì)難以實(shí)現(xiàn)知識(shí)的在線學(xué)習(xí)與推理。

    4 結(jié)論及展望

    在隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)中,僅網(wǎng)絡(luò)的輸出權(quán)值需要訓(xùn)練,其他權(quán)值隨機(jī)設(shè)置,整個(gè)訓(xùn)練過程無需網(wǎng)絡(luò)的梯度信息,無需迭代,克服了傳統(tǒng)神經(jīng)網(wǎng)絡(luò)收斂速度慢及局部極小問題。本文在給定隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)簡(jiǎn)化模型的基礎(chǔ)上,分析了多個(gè)隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)、映射函數(shù)、隨機(jī)權(quán)設(shè)置方法及網(wǎng)絡(luò)性能,回顧總結(jié)了隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)研究的現(xiàn)狀。

    盡管隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)研究取得了豐碩的成果,但從發(fā)展的角度看還有很長(zhǎng)的路要走。結(jié)合研究現(xiàn)狀,對(duì)隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)的研究提出以下展望。

    1)隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)研究。與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)相比,隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)龐大,湊試法及單個(gè)神經(jīng)元的增長(zhǎng)修剪算法難以實(shí)現(xiàn)結(jié)構(gòu)的快速有效設(shè)計(jì),因此研究隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)的實(shí)時(shí)在線結(jié)構(gòu)設(shè)計(jì)方法將是一個(gè)重要的研究方向。

    2)神經(jīng)網(wǎng)絡(luò)隨機(jī)學(xué)習(xí)理論研究及生物學(xué)解釋。人腦研究表明,大腦中存在大量隨機(jī)現(xiàn)象,借鑒大腦的研究成果可進(jìn)一步模擬大腦的隨機(jī)特性,設(shè)計(jì)新的隨機(jī)學(xué)習(xí)算法,實(shí)現(xiàn)大腦的部分功能;借用統(tǒng)計(jì)學(xué)及信息論的相關(guān)知識(shí),研究隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)的統(tǒng)計(jì)學(xué)特性,可完善神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)理論。

    3)研究隨機(jī)權(quán)遞歸神經(jīng)網(wǎng)絡(luò)隨機(jī)層參數(shù)設(shè)置及網(wǎng)絡(luò)的穩(wěn)定性問題。隨機(jī)權(quán)遞歸神經(jīng)網(wǎng)絡(luò)是一個(gè)動(dòng)態(tài)系統(tǒng),其網(wǎng)絡(luò)性能及穩(wěn)定性依賴于隨機(jī)層參數(shù)的選擇,如隨機(jī)層權(quán)值矩陣的譜半徑、奇異值及稀疏性等。如何選擇恰當(dāng)?shù)碾S機(jī)層參數(shù)使網(wǎng)絡(luò)同時(shí)具有穩(wěn)定性及高效的信息處理能仍然是該領(lǐng)域的開放課題。并出現(xiàn)了一些有意義的成果[63-67]。

    4)隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)在復(fù)雜流程工業(yè)過程中的應(yīng)用研究,比如污水處理、水泥加工及石化生產(chǎn)行業(yè)。目前,隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)主要應(yīng)用于模式分類問題,并取得較好的效果,而在流程工業(yè)過程中的應(yīng)用研究較少。針對(duì)流程工業(yè)過程的時(shí)變、時(shí)滯、非線性、強(qiáng)耦合及不確定性等特點(diǎn),設(shè)計(jì)恰當(dāng)?shù)碾S機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)模型,實(shí)現(xiàn)流程工業(yè)過程的智能建模與控制,是隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)未來的應(yīng)用研究方向之一。

    [1]QIMin,ZHANGGP.Trendtimeseriesmodelingandforecastingwithneuralnetworks[J].IEEEtransactionsonneuralnetworks, 2008, 19(5): 808-816.

    [2]趙洪偉, 謝永芳, 蔣朝輝, 等. 基于泡沫圖像特征的浮選槽液位智能優(yōu)化設(shè)定方法[J]. 自動(dòng)化學(xué)報(bào), 2014, 40(6): 1086-1097.ZHAOHongwei,XIEYongfang,JIANGChaohui,etal.Anintelligentoptimalsettingapproachbasedonfrothfeaturesforlevelofflotationcells[J].Actaautomaticasinica, 2014, 40(6): 1086-1097.

    [3]喬俊飛, 薄迎春, 韓廣. 基于ESN的多指標(biāo)DHP控制策略在污水處理過程中的應(yīng)用[J]. 自動(dòng)化學(xué)報(bào), 2013, 39(7): 1146-1151.QIAOJunfei,BOYingchun,HANGuang.Applicationofesn-basedmultiindicesdualheuristicdynamicprogrammingonwastewatertreatmentprocess[J].Actaautomaticasinica, 2013, 39(7): 1146-1151.

    [4]CHENGMH,HWANGKS,JENGJH,etal.Classification-basedvideosuper-resolutionusingartificialneuralnetworks[J].Signalprocessing, 2013, 93(9): 2612-2625.

    [5]SCARDAPANES,WANGDianhui,PANELLAM.Adecentralizedtrainingalgorithmforechostatenetworksindistributedbigdataapplications[J].Neuralnetworks, 2015, 78: 65-74.

    [6]TENGTH,TANAH,ZURADAJM.Self-organizingneuralnetworksintegratingdomainknowledgeandreinforcementlearning[J].IEEEtransactionsonneuralnetworks&learningsystems, 2015, 26(5): 889-902.

    [7]ALHAMDOOSHM,WANGDianhui.Fastdecorrelatedneuralnetworkensembleswithrandomweights[J].Informationsciences, 2014, 264: 104-117.

    [8]GUSTAVSSONA,MAGNUSONA,BLOMBERGB,etal.Onthedifficultyoftrainingrecurrentneuralnetworks[J].Computerscience, 2013, 52(3): 337-345.

    [9]RIGOTTIM,BARAKO,WARDENMR,etal.Theimportanceofmixedselectivityincomplexcognitivetasks[J].Nature, 2013, 497(7451): 585-590.

    [10]BARAKO,RIGOTTIM,FUSIS.Thesparsenessofmixedselectivityneuronscontrolsthegeneralization-discriminationtrade-off[J].Thejournalofneuroscience, 2013, 33(9): 3844-3856.

    [11]HUANGGao,HUANGGuangbin,SONGShiji,etal.Trendsinextremelearningmachines:areview[J].Neuralnetworks, 2015, 61: 32-48.

    [12]DENGChenwei,HUANGGuangbin,XUJia,etal.Extremelearningmachines:newtrendsandapplications[J].ScienceChinainformationsciences, 2015, 58(2): 1-16.

    [13]PAOYH,TAKEFUJIY.Functional-linknetcomputing:theory,systemarchitecture,andfunctionalities[J].Computer, 1992, 25(5): 76-79.

    [14]HUANGGuangbin,ZHUQinyu,SIEWCK.Extremelearningmachine:theoryandapplications[J].Neurocomputing, 2006, 70(1/2/3): 489-501.

    [15]RAHIMIA,RECHTB.Weightedsumsofrandomkitchensinks:replacingminimizationwithrandomizationinlearning[C] //Proceedingsofthe21stInternationalConferenceonNeuralInformationProcessingSystems.Vancouver,BritishColumbia,Canada:CurranAssociatesInc., 2008: 1313-1320.

    [16]WIDROWB,GREENBLATTA,KIMY,etal.TheNo-Propalgorithm:Anewlearningalgorithmformultilayerneuralnetworks[J].Neuralnetworks, 2013, 37: 182-188.

    [17]KASUNLLC,ZHOUHongming,HUANGGuangbin,etal.RepresentationallearningwithELMsforbigdata[J].IEEEintelligentsystems, 2013, 28(6): 31-34.

    [18]TANGJiexiong,DENGChenwei,HUANGGuangbin.Extremelearningmachineformultilayerperceptron[J].IEEEtransactionsonneuralnetworksandlearningsystems, 2016, 27(4): 809-821.

    [19]QIAOJunfei,LIFanjun,HANHonggui,etal.Constructivealgorithmforfullyconnectedcascadefeedforwardneuralnetworks[J].Neurocomputing, 2016, 182: 154-164.

    [20]WANYihe,SONGShiji,HUANGGao.Incrementalextremelearningmachinebasedoncascadeneuralnetworks[C] //IEEEInternationalConferenceonSystems,Man,andCybernetics.Kowloon:IEEE, 2015: 1889-1894.

    [21]STEILJJ.Memoryinbackpropagation-decorrelationO(N)efficientonlinerecurrentlearning[C]//Proceedingsofthe15thInternationalConferenceonArtificialNeuralNetworks:FormalModelsandTheirApplications.BerlinHeidelberg:Springer, 2005: 750-750.

    [22]HERBERTJ.The“echostate”approachtoanalyzingandtrainingrecurrentneuralnetworkswithanerratumnote[R].Bonn,Germany:GermanNationalResearchCenterforInformationTechnology, 2001.

    [23]MAASSW.Liquidstatemachines:motivation,theory,andapplications[J].Computabilityincontext, 2010: 275-296.DOI: 10.1142/9781848162778_0008.

    [24]LIANGNanying,SARATCHANDRANP,HUANGGuangbin,etal.ClassificationofmentaltasksfromEEGsignalsusingextremelearningmachine[J].Internationaljournalofneuralsystems, 2006, 16(1): 29-38.

    [25]SKOWRONSKIMD,HARRISJG.Automaticspeechrecognitionusingapredictiveechostatenetworkclassifier[J].Neuralnetworks, 2007, 20(3): 414-423.

    [26]LIDecai,HANMin,WANGJun.Chaotictimeseriespredictionbasedonanovelrobustechostatenetwork[J].IEEEtransactionsonneuralnetworksandlearningsystems, 2012, 23(5): 787-799.

    [27]SCHMIDTWF,KRAAIJVELDMA,DUINRPW.Feedforwardneuralnetworkswithrandomweights[C] //Proceedingsof11thInternationalConferenceonPatternRecognitionMethodologyandSystems.Hague,Holland:IEEE, 1992: 1-4.

    [28]IGELNIKB,PAOYH.StochasticchoiceofbasisfunctionsinadaptivefunctionapproximationandtheFunctional-linkneuralnet[J].IEEEtransactionsonneuralnetworks, 1995, 6(6): 1320-1329.

    [29]HUANGGuangbin.Aninsightintoextremelearningmachines:randomneurons,randomfeaturesandkernels[J].Cognitivecomputation, 2014, 6(3): 376-390.

    [30]HUANGGuangbin,ZHUQinyu,SIEWCK.Extremelearningmachine:theoryandapplications[J].Neurocomputing, 2006, 70(1/2/3): 489-501.

    [31]HUANGGB,CHENL,SIEWCK.Universalapproximationusingincrementalconstructivefeedforwardnetworkswithrandomhiddennodes[J].IEEEtransactionsonneuralnetworks, 2006, 17(4): 879-92.

    [32]LIUXia,LINShaobo,FANGJian,etal.Isextremelearningmachinefeasible?atheoreticalassessment(PartI)[J].IEEEtransactionsonneuralnetworksandlearningsystems, 2014, 26(1): 7-20.

    [33]DEHURIS,CHOSB.AcomprehensivesurveyonfunctionallinkneuralnetworksandanadaptivePSO-BPlearningforCFLNN[J].Neuralcomputingandapplications, 2010, 19(2): 187-205.

    [34]ZHANGLe,SUGANTHANPN.Acomprehensiveevaluationofrandomvectorfunctionallinknetworks[J].Informationsciences, 2015, 367/368: 1094-1105.

    [35]LIANGNanying,HUANGGuangbin,SARATCHANDRANP,etal.Afastandaccurateonlinesequentiallearningalgorithmforfeedforwardnetworks[J].IEEEtransactionsonneuralnetworks, 2006, 17(6): 1411-1423.

    [36]SCARDAPANES,WANGDianhui,PANELLAM,etal.Distributedlearningforrandomvectorfunctional-linknetworks[J].Informationsciences, 2015, 301: 271-284.

    [37]ALHAMDOOSHM,WANGDianhui.Fastdecorrelatedneuralnetworkensembleswithrandomweights[J].Informationsciences, 2014, 264: 104-117.

    [38]LIYing.Orthogonalincrementalextremelearningmachineforregressionandmulticlassclassification[J].Neuralcomputingandapplications, 2014, 27(1): 111-120.

    [39]李凡軍, 喬俊飛, 韓紅桂. 網(wǎng)絡(luò)結(jié)構(gòu)增長(zhǎng)的極端學(xué)習(xí)機(jī)算法[J]. 控制理論與應(yīng)用, 2014, 31(5): 638-643.LIFanjun,QIAOJunfei,HANHonghui.Incrementalconstructiveextremelearningmachine[J].Controltheory&applications, 2014, 31(5): 638-643.

    [40]李凡軍, 韓紅桂, 喬俊飛. 基于靈敏度分析法的ELM剪枝算法[J]. 控制與決策, 2014, 29(6): 1003-1008.LIFanjun,HANHonghui,QIAOJunfei.Pruningalgorithmforextremelearningmachinebasedonsensitivityanalysis[J].ControlandDecision, 2014, 29(6): 1003-1008.

    [41]FENGGuorui,HUANGGuangbin,LINQingping,etal.Errorminimizedextremelearningmachinewithgrowthofhiddennodesandincrementallearning[J].IEEEtransactionsonneuralnetworks, 2009, 20(8): 1352-1357.

    [42]MICHEY,SORJAMAAA,BASP,etal.OP-ELM:optimallyprunedextremelearningmachine[J].IEEEtransactionsonneuralnetworks, 2010, 21(1): 158-162.

    [43]韓敏, 李德才. 基于替代函數(shù)及貝葉斯框架的1范數(shù)ELM算法[J]. 自動(dòng)化學(xué)報(bào), 2011, 37(11): 1344-1350.HANMin,LIDecai.Annorm1regularizationtermelmalgorithmbasedonsurrogatefunctionandbayesianframework[J].Actaautomaticasinica, 2011, 37(11): 1344-1350.

    [44]MICHEY,VANHEESWIJKM,BASP,etal.TROP-ELM:adouble-regularizedELMusingLARSandTikhonovregularization[J].Neurocomputing, 2011, 74(16): 2413-2421.

    [45]MICHEY,AKUSOKA,VEGANZONESD,etal.SOM-ELM-Self-organizedclusteringusingELM[J].Neurocomputing, 2015, 165: 238-254.

    [46]HUANGGao,LIUTianchi,YANGYan,etal.Discriminativeclusteringviaextremelearningmachine[J].Neuralnetworks, 2015, 70: 1-8.

    [47]ISLAMMM,SATTARMA,AMINMF,etal.Anewconstructivealgorithmforarchitecturalandfunctionaladaptationofartificialneuralnetworks[J].IEEEtransactionsonsystems,man,andcybernetics,partB(cybernetics), 2009, 39(6): 1590-1605.

    [48]SCHMIDHUBERJ.Deeplearninginneuralnetworks:anoverview[J].Neuralnetworks, 2014, 61: 85-117.

    [49]HANHonggui,WANGLidan,QIAOJunfei.Hierarchicalextremelearningmachineforfeedforwardneuralnetwork[J].Neurocomputing, 2014, 128: 128-135.

    [50]QUBY,LANGBF,LIANGJJ,etal.Two-hidden-layerextremelearningmachineforregressionandclassification[J].Neurocomputing, 2016, 175: 826-834.

    [51]ZHANGJian,DINGShifei,ZHANGNan,etal.Incrementalextremelearningmachinebasedondeepfeatureembedded[J].Internationaljournalofmachinelearningandcybernetics, 2016, 7(1): 111-120.

    [52]QUBY,LANGBF,LIANGJJ,etal.Two-hidden-layerextremelearningmachineforregressionandclassification[J].Neurocomputing, 2016, 175: 826-834.

    [53]ZHANGNan,DINGShifei,ZHANGJian.MultilayerELM-RBFformulti-labellearning[J].Appliedsoftcomputing, 2016, 43: 535-545.

    [54]HUNTERD,YUHao,PUKISHMS,etal.Selectionofproperneuralnetworksizesandarchitectures-acomparativestudy[J].IEEEtransactionsonindustrialinformatics, 2012, 8(2): 228-240.

    [55]WILAMOWSKIBM.Challengesinapplicationsofcomputationalintelligenceinindustrialelectronics[C]//Proceedingsof2010IEEEInternationalSymposiumonIndustrialElectronics.Bari:IEEE, 2010: 15-22.

    [56]WILAMOWSKIBM,COTTONNJ,KAYNAKO,etal.Computinggradientvectorandjacobianmatrixinarbitrarilyconnectedneuralnetworks[J].IEEEtransactionsonindustrialelectronics, 2008, 55(10): 3784-3790.

    [57]OAKDENA.Cascadenetworksandextremelearningmachines[D].Canberra:AustralianNationalUniversity, 2014.

    [58]LIFanjun,QIAOJunfei,HANHonggui,etal.Aself-organizingcascadeneuralnetworkwithrandomweightsfornonlinearsystemmodeling[J].Appliedsoftcomputing, 2016, 42: 184-193.

    [59]JAEGERH,HAASH.Harnessingnonlinearity:predictingchaoticsystemsandsavingenergyinwirelesscommunication[J].Science, 2004, 304(5667): 78-80.

    [60]SKOWRONSKIMD,HARRISJG.Automaticspeechrecognitionusingapredictiveechostatenetworkclassifier[J].Neuralnetworks, 2007, 20(3): 414-423.

    [61]XIAYili,JELFSB,VANHULLEMM,etal.Anaugmentedechostatenetworkfornonlinearadaptivefilteringofcomplexnoncircularsignals[J].IEEEtransactionsonneuralnetworks, 2011, 22(1): 74-83.

    [62]LUKOSEVICIUSM,JAEGERH.Reservoircomputingapproachestorecurrentneuralnetworktraining[J].Computersciencereview, 2009, 3(3): 127-149.

    [63]彭宇, 王建民, 彭喜元. 儲(chǔ)備池計(jì)算概述[J]. 電子學(xué)報(bào), 2011, 39(10): 2387-2396.PENGYu,WANGJianmin,PENGXiyuan.Surveyonreservoircomputing[J].Actaelectronicasinica, 2011, 39(10): 2387-2396.

    [64]QIAOJunfei,LIFanjun,HANHonggui,etal.Growingecho-statenetworkwithmultiplesubreservoirs[J].IEEEtransactionsonneuralnetworksandlearningsystems, 2016, 99: 1-14.

    [65]DENGZhidong,ZHANGYi.Collectivebehaviorofasmall-worldrecurrentneuralsystemwithscale-freedistribution[J].IEEEtransactionsonneuralnetworks, 2007, 18(5): 1364-1375.

    [66]STRAUSST,WUSTLICHW,LABAHNR.Designstrategiesforweightmatricesofechostatenetworks[J].Neuralcomputation, 2012, 24(12): 3246-3276.

    [67]XUEYanbo,YANGLe,HAYKINS.Decoupledechostatenetworkswithlateralinhibition[J].Neuralnetworks, 2007, 20(3): 365-376.

    [68]NAJIBIE,ROSTAMIH.SCESN,SPESN,SWESN:threerecurrentneuralechostatenetworkswithclusteredreservoirsforpredictionofnonlinearandchaotictimeseries[J].Appliedintelligence, 2015, 43(2): 460-472.

    [69]薄迎春, 喬俊飛, 張昭昭. 一種具有smallworld特性的ESN結(jié)構(gòu)分析與設(shè)計(jì)[J]. 控制與決策, 2012, 27(3): 383-388.BOYingchun,QIAOJunfei,ZHANGZhaozhao.AnalysisanddesignonstructureofsmallworldpropertyESN[J].Controlanddecision, 2012, 27(3): 383-388.

    [70]李凡軍, 喬俊飛. 一種增量式模塊化回聲狀態(tài)網(wǎng)絡(luò)[J]. 控制與決策, 2016, 31(8): 1481-1486.LIFanjun,QIAOJunfei.Anincrementalmodularechostatenetwork[J].Controlanddecision, 2016, 31(8): 1481-1486.

    [71]SCHRAUWENB,VERSTRAETEND,VANCAMPENHOUTJM.Anoverviewofreservoircomputing:Theory,applicationsandimplementations[C]//Proceedingsofthe15thEuropeanSymposiumonArtificialNeuralNetworks.Bruges,Belgium, 2007: 471-482.

    [72]MAASSW,NATSCHLGERT,MARKRAMH.Real-timecomputingwithoutstablestates:anewframeworkforneuralcomputationbasedonperturbations[J].Neuralcomputation, 2002, 14(11): 2531-2560.

    [73]LEGENSTEINR,MAASSW.Edgeofchaosandpredictionofcomputationalperformanceforneuralcircuitmodels. [J].Neuralnetworks, 2007, 20(3): 323-334.

    [74]BURGSTEINERH,KR?LLM,LEOPOLDA,etal.Movementpredictionfromreal-worldimagesusingaliquidstatemachine[J].Appliedintelligence, 2007, 26(2): 99-109.

    [75]張冠元, 王斌. 一種基于液體狀態(tài)機(jī)的音樂和弦序列識(shí)別方法[J]. 模式識(shí)別與人工智能, 2013, 26(7): 643-647.ZHANGGuanyuan,WANGBin.Liquidstatemachinebasedmusicchordsequencerecognitionalgorithm[J].Patternrecognitionandartificialintelligence, 2013, 26(7): 643-647.

    [76]HUANGGuangbin,CHENLei.Enhancedrandomsearchbasedincrementalextremelearningmachine[J].Neurocomputing, 2008, 71(16/17/18): 3460-3468.

    [77]WANGYuguang,CAOFeilong,YUANYubo.Astudyoneffectivenessofextremelearningmachine[J].Neurocomputing, 2011, 74(16): 2483-2490.

    [78]CUIH,LIUX,LIL.Thearchitectureofdynamicreservoirintheechostatenetwork[J].Chaos, 2012, 22(3): 033127.

    [79]OZTURKMC,XUDongming.Analysisanddesignofechostatenetworks[J].Neuralcomputation, 2007, 19(1): 111-138.

    [80]DUANHaibin,WANGXiaohua.Echostatenetworkswithorthogonalpigeon-inspiredoptimizationforimagerestoration[J].IEEEtransactionsonneuralnetworksandlearningsystems, 2015, 27(11): 2413-2425.

    [81]BOCCATOL,ATTUXR,VONZUBENFJ.Self-organizationandlateralinteractioninechostatenetworkreservoirs[J].Neurocomputing, 2014, 138: 297-309.

    [82]KORYAKIND,LOHMANNJ,BUTZMV.Balancedechostatenetworks[J].Neuralnetworkstheofficialjournaloftheinternationalneuralnetwork, 2012, 36: 35-45.

    [83]YUENYONGS,NISHIHARAA.Evolutionarypre-trainingforCRJ-typereservoirofechostatenetworks[J].Neurocomputing, 2015, 149: 1324-1329.

    [84]LIXiumin,ZHONGLing,XUEFangzheng,etal.Aprioridata-drivenmulti-clusteredreservoirgenerationalgorithmforechostatenetwork[J].PLoSone, 2015, 10(4):e0120750.

    [85]PALANGIH,DENGLi,WARDRK.Learninginputandrecurrentweightmatricesinechostatenetworks[C]//AdvancesinNeuralInformationProcessingSystems22:ConferenceonNeuralInformationProcessingSystems.Vancouver,BritishColumbia,Canada, 2009.

    喬俊飛,男,1968年生,教授,博士生導(dǎo)師,國(guó)家杰出青年基金獲得者,教育部長(zhǎng)江學(xué)者特聘教授,教育部新世紀(jì)優(yōu)秀人才,中國(guó)人工智能學(xué)會(huì)科普工作委員會(huì)主任,主要研究方向?yàn)橹悄苄畔⑻幚怼⒅悄芸刂评碚撆c應(yīng)用。獲教育部科技進(jìn)步獎(jiǎng)一等獎(jiǎng)和北京市科學(xué)技術(shù)獎(jiǎng)三等獎(jiǎng)各1項(xiàng)。發(fā)表學(xué)術(shù)論文100余篇,其中被SCI收錄20余篇,EI收錄60余篇,獲得發(fā)明專利20余項(xiàng)。

    李凡軍,男,1977年生,副教授,主要研究方向?yàn)橹悄芟到y(tǒng)與智能信息處理。發(fā)表學(xué)術(shù)論文10余篇,其中被SCI檢索3篇,EI檢索6篇。

    楊翠麗,女,1986年生,講師,,主要研究方向?yàn)檫M(jìn)化算法和智能信息處理。發(fā)表學(xué)術(shù)論文10余篇,其中被SCI檢索7篇,EI檢索12篇。

    Review and prospect on neural networks with random weights

    QIAO Junfei1,3, LI Fanjun2, YANG Cuili1,3

    (1.Faculty of Information Technology, Beijing University of Technology, Beijing 100124, China; 2.School of Mathematical Science, University of Jinan, Jinan 250022, China; 3.Beijing Key Laboratory of Computational Intelligence and Intelligent System, Beijing 100124, China)

    A randomized learning algorithm in a neural network, which can overcome the difficulty of slow convergence and local minimum inherently in the traditional gradient-based learning algorithms, has recently become a hot topic in the field of neural networks. Some neural networks with random weights using randomized learning algorithms have been proposed. The aim of this paper summarizes the current research on neural networks with random weights and provides some views about its development trends. First, a simplified model of a neural network with random weights was proposed, and the randomized learning algorithm was summarized, based on the simplified model. Then, a review on neural networks with random weights was given, and the performance of several different neural networks with random weights was analyzed, based on the simplified model. Finally, several views on neural networks with random weights are presented.

    neural network with random weights; feedforward neural network; recurrent neural network; cascade neural network; randomized learning algorithm

    10.11992/tis.201612015

    http://www.cnki.net/kcms/detail/23.1538.TP.20170111.1705.028.html

    2016-12-12.

    國(guó)家自然科學(xué)基金項(xiàng)目(61533002,61603012);北京市自然科學(xué)基金項(xiàng)目(Z141100001414005);北京市教委基金項(xiàng)目(km201410005001,KZ201410005002).

    喬俊飛. E-mail:junfeiq@bjut.edu.cn.

    TP183

    A

    1673-4785(2016)06-0758-10

    喬俊飛,李凡軍,楊翠麗. 隨機(jī)權(quán)神經(jīng)網(wǎng)絡(luò)研究現(xiàn)狀與展望[J]. 智能系統(tǒng)學(xué)報(bào), 2016, 11(6): 758-767.

    英文引用格式:QIAO Junfei, LI Fanjun, YANG Cuili. Review and prospect on neural networks with random weights[J]. CAAI Transactions on Intelligent Systems, 2016, 11(6): 758-767.

    猜你喜歡
    級(jí)聯(lián)權(quán)值儲(chǔ)備
    一種融合時(shí)間權(quán)值和用戶行為序列的電影推薦模型
    釋放鉀肥儲(chǔ)備正當(dāng)時(shí)
    CONTENTS
    國(guó)家儲(chǔ)備林:為未來儲(chǔ)備綠色寶藏
    基于權(quán)值動(dòng)量的RBM加速學(xué)習(xí)算法研究
    外匯儲(chǔ)備去哪兒了
    支點(diǎn)(2017年3期)2017-03-29 08:31:38
    級(jí)聯(lián)LDPC碼的STBC-OFDM系統(tǒng)
    電子制作(2016年15期)2017-01-15 13:39:09
    基于級(jí)聯(lián)MUSIC的面陣中的二維DOA估計(jì)算法
    LCL濾波器在6kV級(jí)聯(lián)STATCOM中的應(yīng)用
    H橋級(jí)聯(lián)型STATCOM的控制策略研究
    久久久久国产网址| 自拍偷自拍亚洲精品老妇| 日韩欧美一区视频在线观看 | 高清欧美精品videossex| 日本av手机在线免费观看| 久久久久久久久大av| 亚洲欧美日韩无卡精品| 久久久亚洲精品成人影院| 国内揄拍国产精品人妻在线| 男女国产视频网站| 亚洲高清免费不卡视频| 超碰97精品在线观看| 老女人水多毛片| 亚洲精品一二三| 国产精品1区2区在线观看.| 精品人妻偷拍中文字幕| 国产 亚洲一区二区三区 | 亚洲成人精品中文字幕电影| 99久久中文字幕三级久久日本| 综合色av麻豆| 久久久国产一区二区| 日韩成人av中文字幕在线观看| 最后的刺客免费高清国语| 最近2019中文字幕mv第一页| 最近最新中文字幕大全电影3| 亚洲国产日韩欧美精品在线观看| 人妻夜夜爽99麻豆av| 久久国产乱子免费精品| 一级毛片电影观看| 欧美成人一区二区免费高清观看| 欧美 日韩 精品 国产| 99热这里只有是精品50| 色综合色国产| 只有这里有精品99| 久久人人爽人人爽人人片va| 成人午夜高清在线视频| 人妻系列 视频| 午夜视频国产福利| 三级国产精品欧美在线观看| 99久久精品热视频| 亚洲欧美日韩卡通动漫| 久久人人爽人人片av| 老师上课跳d突然被开到最大视频| 亚洲国产日韩欧美精品在线观看| 麻豆久久精品国产亚洲av| 日韩伦理黄色片| 亚洲熟妇中文字幕五十中出| 国产精品久久久久久av不卡| 亚洲一区高清亚洲精品| 成人午夜精彩视频在线观看| 熟女电影av网| 国产不卡一卡二| 少妇的逼好多水| 女人十人毛片免费观看3o分钟| 2021少妇久久久久久久久久久| 麻豆av噜噜一区二区三区| 国产综合懂色| 可以在线观看毛片的网站| 国内精品宾馆在线| 日本熟妇午夜| 直男gayav资源| 亚洲欧美成人精品一区二区| 我的老师免费观看完整版| 看非洲黑人一级黄片| 最近最新中文字幕免费大全7| 综合色丁香网| 日韩 亚洲 欧美在线| 欧美成人午夜免费资源| 日韩国内少妇激情av| 日本黄大片高清| 免费观看a级毛片全部| 久久精品综合一区二区三区| 在现免费观看毛片| 高清在线视频一区二区三区| 人妻一区二区av| 日韩欧美 国产精品| 日韩伦理黄色片| 国产精品日韩av在线免费观看| 色播亚洲综合网| 亚洲四区av| 亚洲精品国产av蜜桃| 联通29元200g的流量卡| 亚洲av二区三区四区| 蜜臀久久99精品久久宅男| 丰满人妻一区二区三区视频av| 国产黄片视频在线免费观看| 69av精品久久久久久| ponron亚洲| 久久人人爽人人片av| 国产精品熟女久久久久浪| 欧美极品一区二区三区四区| 日韩一区二区视频免费看| 国内精品一区二区在线观看| 99久久精品国产国产毛片| 国产v大片淫在线免费观看| 国产午夜精品一二区理论片| 欧美xxⅹ黑人| 国产精品国产三级国产av玫瑰| 久久97久久精品| 99热全是精品| 99久久精品一区二区三区| 一级毛片黄色毛片免费观看视频| 婷婷六月久久综合丁香| 嫩草影院新地址| 老司机影院成人| 高清毛片免费看| 欧美+日韩+精品| 午夜日本视频在线| 精品久久国产蜜桃| 男插女下体视频免费在线播放| 如何舔出高潮| 免费看光身美女| 午夜日本视频在线| 日韩强制内射视频| 99热这里只有是精品在线观看| 成人一区二区视频在线观看| 亚洲精品aⅴ在线观看| 日韩大片免费观看网站| 一二三四中文在线观看免费高清| 免费看日本二区| 国产成人一区二区在线| 亚洲乱码一区二区免费版| 2018国产大陆天天弄谢| 好男人在线观看高清免费视频| 精品亚洲乱码少妇综合久久| 亚洲av二区三区四区| 久久国产乱子免费精品| 男女国产视频网站| 国产69精品久久久久777片| av专区在线播放| 国产av码专区亚洲av| av播播在线观看一区| 亚洲综合色惰| 国产精品久久视频播放| 欧美成人午夜免费资源| 看免费成人av毛片| 久久精品久久久久久噜噜老黄| 欧美一区二区亚洲| 女人被狂操c到高潮| 日韩欧美一区视频在线观看 | 亚洲精品日韩在线中文字幕| 国产国拍精品亚洲av在线观看| av国产久精品久网站免费入址| 禁无遮挡网站| 欧美xxxx黑人xx丫x性爽| 免费观看性生交大片5| 在线免费十八禁| 国产在视频线在精品| 看免费成人av毛片| 97人妻精品一区二区三区麻豆| av在线天堂中文字幕| 成人性生交大片免费视频hd| 在线播放无遮挡| 国产免费一级a男人的天堂| 亚洲av电影在线观看一区二区三区 | 啦啦啦啦在线视频资源| 免费看光身美女| 91av网一区二区| 午夜亚洲福利在线播放| 色尼玛亚洲综合影院| 精品酒店卫生间| 看非洲黑人一级黄片| 在线观看免费高清a一片| 又爽又黄无遮挡网站| 男女那种视频在线观看| 天堂中文最新版在线下载 | 免费大片黄手机在线观看| 人人妻人人澡欧美一区二区| 国产亚洲最大av| 视频中文字幕在线观看| 成年免费大片在线观看| 夜夜爽夜夜爽视频| 嘟嘟电影网在线观看| eeuss影院久久| 国产男女超爽视频在线观看| 国产精品一区二区性色av| 国产白丝娇喘喷水9色精品| www.av在线官网国产| 欧美区成人在线视频| 欧美精品一区二区大全| ponron亚洲| 亚洲成人精品中文字幕电影| 免费播放大片免费观看视频在线观看| 国产成人免费观看mmmm| 国产一区亚洲一区在线观看| 丰满乱子伦码专区| 我要看日韩黄色一级片| 国产91av在线免费观看| 亚洲精品乱码久久久久久按摩| 免费观看无遮挡的男女| 免费看不卡的av| 亚洲欧美成人综合另类久久久| av女优亚洲男人天堂| 国产成人freesex在线| 亚洲18禁久久av| 又爽又黄无遮挡网站| 欧美三级亚洲精品| 亚洲国产精品成人综合色| 欧美97在线视频| 午夜福利高清视频| 国产一区二区亚洲精品在线观看| 国产精品一二三区在线看| 国产伦精品一区二区三区四那| 国产乱人视频| 一级毛片电影观看| 日本三级黄在线观看| 九九在线视频观看精品| 中文精品一卡2卡3卡4更新| 国产老妇伦熟女老妇高清| 免费观看精品视频网站| 国产精品无大码| 一区二区三区四区激情视频| 日日啪夜夜爽| 国产乱来视频区| av在线亚洲专区| 国产精品福利在线免费观看| 亚洲精品影视一区二区三区av| 亚洲精品一区蜜桃| 国产免费福利视频在线观看| 又粗又硬又长又爽又黄的视频| 人妻少妇偷人精品九色| 久久亚洲国产成人精品v| 亚洲成人精品中文字幕电影| 免费观看无遮挡的男女| 高清在线视频一区二区三区| 亚洲精品aⅴ在线观看| or卡值多少钱| 欧美丝袜亚洲另类| 亚洲人成网站在线观看播放| av网站免费在线观看视频 | 亚洲精品国产成人久久av| 亚洲成人久久爱视频| 成年女人在线观看亚洲视频 | 久久久久久久久久人人人人人人| 亚洲内射少妇av| 人妻系列 视频| 久久久久久久久久成人| 国产伦精品一区二区三区视频9| 丰满少妇做爰视频| 午夜精品一区二区三区免费看| 精品酒店卫生间| 亚洲自拍偷在线| 69av精品久久久久久| a级毛色黄片| 人妻一区二区av| 草草在线视频免费看| 精品久久久久久久末码| 99热这里只有是精品50| 高清午夜精品一区二区三区| 夫妻午夜视频| 久久草成人影院| 国产午夜精品一二区理论片| 街头女战士在线观看网站| 爱豆传媒免费全集在线观看| 久久久久精品性色| 国产精品99久久久久久久久| 成人国产麻豆网| 久久国内精品自在自线图片| 欧美+日韩+精品| 久久99热这里只有精品18| 国模一区二区三区四区视频| 欧美一级a爱片免费观看看| 成人毛片a级毛片在线播放| 舔av片在线| 欧美丝袜亚洲另类| 看免费成人av毛片| 一级片'在线观看视频| 秋霞在线观看毛片| 大陆偷拍与自拍| 亚洲自偷自拍三级| 亚洲成人久久爱视频| 91精品一卡2卡3卡4卡| 国产一区二区在线观看日韩| 69人妻影院| 观看免费一级毛片| 永久免费av网站大全| 日韩强制内射视频| 亚洲国产精品国产精品| 精品人妻偷拍中文字幕| 日韩av在线大香蕉| 久久这里有精品视频免费| 婷婷色麻豆天堂久久| 最后的刺客免费高清国语| 天堂av国产一区二区熟女人妻| 免费观看a级毛片全部| 成人午夜高清在线视频| 国产欧美日韩精品一区二区| 少妇被粗大猛烈的视频| 亚洲欧美清纯卡通| 久久这里有精品视频免费| 日韩中字成人| 日韩亚洲欧美综合| 亚洲在久久综合| 日韩欧美三级三区| 国产中年淑女户外野战色| 免费无遮挡裸体视频| 国产精品国产三级国产av玫瑰| 韩国av在线不卡| 白带黄色成豆腐渣| 麻豆国产97在线/欧美| 国产一级毛片在线| 欧美三级亚洲精品| 日韩成人av中文字幕在线观看| 国产亚洲av片在线观看秒播厂 | 在线天堂最新版资源| 久久久久久久午夜电影| 三级国产精品片| 国产激情偷乱视频一区二区| 九草在线视频观看| 免费人成在线观看视频色| 成人综合一区亚洲| 成人高潮视频无遮挡免费网站| 男女下面进入的视频免费午夜| 美女内射精品一级片tv| 国产精品麻豆人妻色哟哟久久 | 一本久久精品| 亚洲在线自拍视频| 汤姆久久久久久久影院中文字幕 | 精品99又大又爽又粗少妇毛片| 免费av不卡在线播放| 精品午夜福利在线看| 精品亚洲乱码少妇综合久久| 免费av毛片视频| 亚洲美女搞黄在线观看| 草草在线视频免费看| 18禁动态无遮挡网站| 国产午夜精品久久久久久一区二区三区| 午夜激情福利司机影院| 日日啪夜夜撸| 秋霞在线观看毛片| 亚洲精品,欧美精品| 男人爽女人下面视频在线观看| 国产有黄有色有爽视频| 婷婷色综合www| 欧美区成人在线视频| 精品久久久久久久末码| 色网站视频免费| 日韩av在线大香蕉| 波野结衣二区三区在线| 一区二区三区乱码不卡18| 欧美最新免费一区二区三区| 欧美xxxx黑人xx丫x性爽| 一个人看的www免费观看视频| 女人十人毛片免费观看3o分钟| 十八禁网站网址无遮挡 | 三级男女做爰猛烈吃奶摸视频| 久久6这里有精品| 日韩国内少妇激情av| 综合色丁香网| 国产毛片a区久久久久| 国产黄色小视频在线观看| 国产午夜精品论理片| 国产精品精品国产色婷婷| 看黄色毛片网站| 男女国产视频网站| 久久久久免费精品人妻一区二区| 偷拍熟女少妇极品色| kizo精华| 综合色丁香网| 高清视频免费观看一区二区 | 成人亚洲欧美一区二区av| 国产免费视频播放在线视频 | 亚洲国产色片| 中文字幕av成人在线电影| 亚洲欧美中文字幕日韩二区| 午夜日本视频在线| 美女高潮的动态| 亚洲欧美精品专区久久| 超碰97精品在线观看| 天天躁夜夜躁狠狠久久av| 水蜜桃什么品种好| 国产极品天堂在线| 成人二区视频| 成人国产麻豆网| 亚洲精品乱码久久久v下载方式| 在线观看一区二区三区| 久久精品国产鲁丝片午夜精品| 精品国产三级普通话版| 国产综合懂色| 国产国拍精品亚洲av在线观看| 免费人成在线观看视频色| 九色成人免费人妻av| 日韩一区二区视频免费看| 97在线视频观看| 日韩欧美一区视频在线观看 | av天堂中文字幕网| 春色校园在线视频观看| 亚洲精品aⅴ在线观看| 能在线免费观看的黄片| 亚洲av国产av综合av卡| 男人狂女人下面高潮的视频| 在线观看一区二区三区| videos熟女内射| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | av专区在线播放| 一级毛片电影观看| 99re6热这里在线精品视频| 国产高清有码在线观看视频| 国产高清不卡午夜福利| 五月天丁香电影| 在线观看av片永久免费下载| 在线免费观看不下载黄p国产| 国产精品国产三级专区第一集| 国产69精品久久久久777片| 免费观看a级毛片全部| 国产91av在线免费观看| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 国产成人午夜福利电影在线观看| 一个人免费在线观看电影| www.av在线官网国产| 国产精品久久久久久av不卡| 欧美日韩综合久久久久久| 男插女下体视频免费在线播放| 大话2 男鬼变身卡| 三级毛片av免费| 亚洲av日韩在线播放| av卡一久久| 亚洲,欧美,日韩| 校园人妻丝袜中文字幕| kizo精华| 成人特级av手机在线观看| 国产又色又爽无遮挡免| 18禁在线播放成人免费| h日本视频在线播放| 欧美成人a在线观看| 高清午夜精品一区二区三区| 人妻少妇偷人精品九色| 日韩欧美精品v在线| 午夜福利成人在线免费观看| av免费在线看不卡| 午夜免费观看性视频| 成人漫画全彩无遮挡| 天天一区二区日本电影三级| 性色avwww在线观看| 午夜福利在线观看免费完整高清在| 亚洲精品日本国产第一区| 午夜日本视频在线| 亚洲精品国产av蜜桃| 色吧在线观看| 欧美变态另类bdsm刘玥| 日本爱情动作片www.在线观看| 国产精品一区二区三区四区免费观看| 插阴视频在线观看视频| 91午夜精品亚洲一区二区三区| 成年免费大片在线观看| 久久这里只有精品中国| 精品国内亚洲2022精品成人| 乱人视频在线观看| 亚洲av二区三区四区| 一本一本综合久久| 日本与韩国留学比较| 熟妇人妻不卡中文字幕| 亚洲av成人av| 中国美白少妇内射xxxbb| 69人妻影院| 美女脱内裤让男人舔精品视频| 麻豆成人午夜福利视频| 精品人妻视频免费看| 免费黄网站久久成人精品| 日本午夜av视频| 成人二区视频| 亚洲精品自拍成人| 亚洲av免费高清在线观看| 亚洲电影在线观看av| 精品久久久久久久末码| 高清视频免费观看一区二区 | 日韩欧美国产在线观看| 欧美bdsm另类| 日韩亚洲欧美综合| 欧美激情国产日韩精品一区| 国产综合精华液| 欧美人与善性xxx| 91精品国产九色| 久久精品国产亚洲av涩爱| 国产精品爽爽va在线观看网站| 99久久人妻综合| av国产免费在线观看| 成人二区视频| 日日啪夜夜撸| 国语对白做爰xxxⅹ性视频网站| 日韩国内少妇激情av| 99九九线精品视频在线观看视频| 国产激情偷乱视频一区二区| 淫秽高清视频在线观看| 久久久久久久久中文| 久久久精品94久久精品| 赤兔流量卡办理| 亚洲av成人av| 国产成人精品一,二区| 美女国产视频在线观看| 亚洲美女搞黄在线观看| 在线观看一区二区三区| 亚洲av不卡在线观看| 亚洲精品成人久久久久久| 又爽又黄无遮挡网站| 91aial.com中文字幕在线观看| 国产视频内射| 亚洲真实伦在线观看| 一级黄片播放器| 亚洲av中文av极速乱| 欧美xxxx性猛交bbbb| 国产乱人视频| 午夜激情欧美在线| 男人舔奶头视频| 亚洲精品第二区| 91午夜精品亚洲一区二区三区| 狂野欧美白嫩少妇大欣赏| 亚洲精品乱码久久久久久按摩| 三级毛片av免费| 男人舔奶头视频| 一级黄片播放器| 亚洲欧洲国产日韩| 99久久精品一区二区三区| 成人午夜高清在线视频| 纵有疾风起免费观看全集完整版 | 亚洲电影在线观看av| 国产精品一二三区在线看| 亚洲综合色惰| 国产精品不卡视频一区二区| 精品久久久精品久久久| 亚洲av国产av综合av卡| 精品久久久久久久久久久久久| 国国产精品蜜臀av免费| 看十八女毛片水多多多| 国产麻豆成人av免费视频| 最新中文字幕久久久久| a级一级毛片免费在线观看| 丝袜美腿在线中文| 精品人妻偷拍中文字幕| 狠狠精品人妻久久久久久综合| 免费播放大片免费观看视频在线观看| 国产亚洲一区二区精品| 国产精品熟女久久久久浪| 精品一区二区三区人妻视频| 美女cb高潮喷水在线观看| 亚洲精品aⅴ在线观看| 青春草国产在线视频| 欧美日韩精品成人综合77777| 青春草国产在线视频| 亚洲精品自拍成人| 国产精品久久久久久久久免| 色综合亚洲欧美另类图片| 免费人成在线观看视频色| 超碰av人人做人人爽久久| h日本视频在线播放| 中文乱码字字幕精品一区二区三区 | 精品人妻视频免费看| 色综合色国产| 亚洲精品影视一区二区三区av| 国产精品久久久久久久电影| 简卡轻食公司| 1000部很黄的大片| 久久精品国产亚洲网站| 婷婷色麻豆天堂久久| 国产精品伦人一区二区| 精品久久久久久久久亚洲| 又爽又黄a免费视频| 亚洲精品色激情综合| 日韩一区二区视频免费看| 亚洲精品国产成人久久av| 欧美日本视频| 久久97久久精品| .国产精品久久| 美女cb高潮喷水在线观看| 91午夜精品亚洲一区二区三区| 美女高潮的动态| 国产不卡一卡二| 色尼玛亚洲综合影院| xxx大片免费视频| 精品久久久噜噜| 成人特级av手机在线观看| 精品少妇黑人巨大在线播放| 久久综合国产亚洲精品| 亚洲av二区三区四区| 丰满少妇做爰视频| 亚洲经典国产精华液单| 亚洲四区av| 亚洲激情五月婷婷啪啪| 久久精品国产亚洲网站| 少妇丰满av| 国产乱人偷精品视频| 高清av免费在线| 18+在线观看网站| 一级毛片久久久久久久久女| 天天一区二区日本电影三级| 亚洲婷婷狠狠爱综合网| 欧美xxⅹ黑人| 国产乱来视频区| 国产精品久久久久久精品电影| 青春草视频在线免费观看| 日本av手机在线免费观看| 一个人看的www免费观看视频| 久久午夜福利片| 久久热精品热| 亚洲精品国产av蜜桃| 搡女人真爽免费视频火全软件| 精品一区二区三卡| 国产黄色小视频在线观看| 夫妻性生交免费视频一级片| 午夜免费激情av| 日日啪夜夜撸| 日日啪夜夜爽| 日韩强制内射视频| 久久精品国产亚洲av涩爱| 天天躁日日操中文字幕| 80岁老熟妇乱子伦牲交| 青青草视频在线视频观看| 成人亚洲精品一区在线观看 | 最近中文字幕2019免费版| 在线 av 中文字幕| 2021天堂中文幕一二区在线观| 亚洲不卡免费看| 久久久国产一区二区| 久久久久久久久久成人| 欧美日韩国产mv在线观看视频 |