• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    帶后續(xù)迭代的雙極S函數(shù)激勵(lì)的WASD神經(jīng)網(wǎng)絡(luò)*

    2016-06-05 15:19:26張雨濃肖爭(zhēng)利丁思彤毛明志劉錦榮
    關(guān)鍵詞:隱層權(quán)值神經(jīng)元

    張雨濃,肖爭(zhēng)利,丁思彤,毛明志,劉錦榮

    (1. 中山大學(xué)數(shù)據(jù)科學(xué)與計(jì)算機(jī)學(xué)院,廣東 廣州510006;2. 華南理工大學(xué)自主系統(tǒng)和網(wǎng)絡(luò)控制教育部重點(diǎn)實(shí)驗(yàn)室,廣東 廣州510640;3. 廣東順德中山大學(xué)卡內(nèi)基梅隆大學(xué)國(guó)際聯(lián)合研究院,廣東 佛山528300)

    帶后續(xù)迭代的雙極S函數(shù)激勵(lì)的WASD神經(jīng)網(wǎng)絡(luò)*

    張雨濃1,2,3,肖爭(zhēng)利1,2,3,丁思彤1,2,3,毛明志1,劉錦榮1

    (1. 中山大學(xué)數(shù)據(jù)科學(xué)與計(jì)算機(jī)學(xué)院,廣東 廣州510006;2. 華南理工大學(xué)自主系統(tǒng)和網(wǎng)絡(luò)控制教育部重點(diǎn)實(shí)驗(yàn)室,廣東 廣州510640;3. 廣東順德中山大學(xué)卡內(nèi)基梅隆大學(xué)國(guó)際聯(lián)合研究院,廣東 佛山528300)

    結(jié)合Levenberg-Marquardt算法以及權(quán)值直接確定法這兩種用于神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)訓(xùn)練的方法,提出了一種帶后續(xù)迭代、面向雙極S (sigmoid)激勵(lì)函數(shù)神經(jīng)網(wǎng)絡(luò)的權(quán)值與結(jié)構(gòu)確定(weights-and-structure-determination, WASD)方法。該方法與MATLAB軟件神經(jīng)網(wǎng)絡(luò)工具箱相結(jié)合,可以解決傳統(tǒng)神經(jīng)網(wǎng)絡(luò)普遍存在的學(xué)習(xí)時(shí)間長(zhǎng)、網(wǎng)絡(luò)結(jié)構(gòu)難以確定、學(xué)習(xí)能力和泛化能力有待提高等不足,同時(shí)具有較好的可行性和可操作性。以非線性函數(shù)的數(shù)據(jù)擬合為例,計(jì)算機(jī)數(shù)值實(shí)驗(yàn)和對(duì)比結(jié)果證實(shí)了WASD方法確定出最優(yōu)隱神經(jīng)元數(shù)和最優(yōu)權(quán)值的優(yōu)越性,最終得到的WASD神經(jīng)網(wǎng)絡(luò)具有更為優(yōu)異的學(xué)習(xí)性能和泛化性能。

    神經(jīng)網(wǎng)絡(luò);權(quán)值與結(jié)構(gòu)直接確定;后續(xù)迭代;雙極S激勵(lì)函數(shù);數(shù)值實(shí)驗(yàn)

    人工神經(jīng)網(wǎng)絡(luò),簡(jiǎn)稱神經(jīng)網(wǎng)絡(luò)(neural network),是模擬生物神經(jīng)系統(tǒng)的組織結(jié)構(gòu)、處理方式和系統(tǒng)功能的簡(jiǎn)化系統(tǒng)[1]。自1980年代形成熱潮至今已近30年,神經(jīng)網(wǎng)絡(luò)的應(yīng)用范圍已擴(kuò)展到許多領(lǐng)域[2-5],其中,前向神經(jīng)網(wǎng)絡(luò)在各種類型的神經(jīng)網(wǎng)絡(luò)當(dāng)中應(yīng)用最為廣泛。在現(xiàn)實(shí)世界中,很多非線性系統(tǒng)是未知的,而針對(duì)這些未知的系統(tǒng)進(jìn)行建模是非常困難的。由于前向神經(jīng)網(wǎng)絡(luò)具有強(qiáng)大的非線性映射能力[6-7],所以,可以在不清楚輸入輸出變量之間復(fù)雜關(guān)系的情況下,利用前向神經(jīng)網(wǎng)絡(luò)對(duì)非線性系統(tǒng)或函數(shù)實(shí)現(xiàn)建模和數(shù)據(jù)逼近[8-10],從而為工程方面的應(yīng)用提供了良好的支撐。相關(guān)研究理論已經(jīng)證明[6-7,9,11-12],一個(gè)以S (sigmoid)函數(shù)為隱層神經(jīng)元激勵(lì)函數(shù)的三層前向神經(jīng)網(wǎng)絡(luò)可以實(shí)現(xiàn)對(duì)任何連續(xù)函數(shù)的任意精度的逼近。

    學(xué)習(xí)能力和泛化能力是神經(jīng)網(wǎng)絡(luò)性能的重要反映,沒(méi)有學(xué)習(xí)能力和泛化能力的神經(jīng)網(wǎng)絡(luò)是沒(méi)有使用價(jià)值的[13]。值得指出的是,影響神經(jīng)網(wǎng)絡(luò)這兩種能力的因素主要包括激勵(lì)函數(shù)、網(wǎng)絡(luò)結(jié)構(gòu)和網(wǎng)絡(luò)學(xué)習(xí)算法等。因此,如何選擇較優(yōu)的激勵(lì)函數(shù)、網(wǎng)絡(luò)結(jié)構(gòu)以及網(wǎng)絡(luò)學(xué)習(xí)算法來(lái)保證神經(jīng)網(wǎng)絡(luò)的優(yōu)良性能顯得非常重要[14-15]。針對(duì)前向神經(jīng)網(wǎng)絡(luò),一些學(xué)者已進(jìn)行了深入研究,并取得諸多成果[2,16-20]。具體到學(xué)習(xí)算法而言,也提出了很多有效的算法[16-20]。其中,Levenberg-Marquardt (LM)算法和廣義多項(xiàng)式神經(jīng)網(wǎng)絡(luò)的權(quán)值直接確定法尤為突出[16-17],它們都具有學(xué)習(xí)速度快和逼近效果好等優(yōu)點(diǎn),因而得到較廣泛的應(yīng)用[17]。在網(wǎng)絡(luò)結(jié)構(gòu)方面也有部分學(xué)者提出了一些方法和研究理論[21-23],他們的做法能在一定程度上解決學(xué)習(xí)時(shí)間過(guò)長(zhǎng)、網(wǎng)絡(luò)結(jié)構(gòu)難以確定、學(xué)習(xí)能力和泛化能力不足等問(wèn)題,但是,就目前而言和整體而言,網(wǎng)絡(luò)結(jié)構(gòu)的確定和最優(yōu)化仍然是一個(gè)挑戰(zhàn)。

    為了解決上述問(wèn)題,綜合考慮影響神經(jīng)網(wǎng)絡(luò)性能的主要因素,本文,在以雙極S激勵(lì)函數(shù)為隱層神經(jīng)元激勵(lì)函數(shù)的三層前向神經(jīng)網(wǎng)絡(luò)模型的基礎(chǔ)上,結(jié)合兩種有效的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)訓(xùn)練方法(也即,Levenberg-Marquardt算法和權(quán)值直接確定法[16-17]),對(duì)隱層神經(jīng)元采用邊增邊刪的結(jié)構(gòu)增長(zhǎng)策略[18-19],提出了一種帶后續(xù)迭代的、面向雙極S激勵(lì)函數(shù)神經(jīng)網(wǎng)絡(luò)的權(quán)值與結(jié)構(gòu)確定(weights-and-structure- determination, WASD)方法。該方法可以在較短時(shí)間內(nèi)確定神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的同時(shí),實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)性能最優(yōu)化(即,獲得最好的學(xué)習(xí)能力和泛化能力)。其包括兩個(gè)過(guò)程,即,確定最優(yōu)隱層神經(jīng)元數(shù)及最優(yōu)隱層到輸出層權(quán)值的過(guò)程,和輸入層到隱層權(quán)值的進(jìn)一步迭代優(yōu)化的過(guò)程。值得指出的是,本文的三層前向神經(jīng)網(wǎng)絡(luò)模型(WASD神經(jīng)網(wǎng)絡(luò)模型)是以雙極S激勵(lì)函數(shù)為隱層神經(jīng)元激勵(lì)函數(shù)的三層前向神經(jīng)網(wǎng)絡(luò)模型,其首次結(jié)合Levenberg-Marquardt算法和權(quán)值直接確定法,這是以往他人研究工作中沒(méi)有研究過(guò)的,是本文的貢獻(xiàn)之一。此外,在本論文中,提出了一個(gè)新穎的權(quán)值與結(jié)構(gòu)確定及后續(xù)迭代的思想。即,先隨機(jī)獲取神經(jīng)網(wǎng)絡(luò)的輸入層到隱層的權(quán)值,再用無(wú)迭代的權(quán)值直接確定法得到隱層到輸出層的最優(yōu)權(quán)值以及對(duì)應(yīng)的最優(yōu)結(jié)構(gòu),之后再利用LM算法反過(guò)來(lái)對(duì)輸入層到隱層的權(quán)值進(jìn)行后續(xù)迭代優(yōu)化。也即,輸入層隨機(jī)化+隱層直接確定+輸入層后續(xù)迭代。這是本文工作的另一個(gè)貢獻(xiàn)之處。更重要的是,計(jì)算機(jī)數(shù)值實(shí)驗(yàn)結(jié)果證實(shí)了該算法的有效性和可行性:用該算法得到的神經(jīng)網(wǎng)絡(luò)在非線性函數(shù)數(shù)據(jù)擬合和預(yù)測(cè)方面獲得優(yōu)異的效果,可以達(dá)到優(yōu)異的學(xué)習(xí)精度和測(cè)試精度。

    1 神經(jīng)網(wǎng)絡(luò)模型

    雙極S激勵(lì)函數(shù)是可微和有界的,被廣泛應(yīng)用于神經(jīng)網(wǎng)絡(luò)研究當(dāng)中。研究表明[24-25]:使用雙極S激勵(lì)函數(shù)比使用單極S激勵(lì)函數(shù)具有更快的收斂速度,故本文構(gòu)造了一種雙極S激勵(lì)函數(shù)神經(jīng)網(wǎng)絡(luò)模型,如圖1所示。網(wǎng)絡(luò)的具體描述如下:輸入層神經(jīng)元個(gè)數(shù)設(shè)為m,神經(jīng)元閾值恒定設(shè)為0,神經(jīng)元激勵(lì)函數(shù)采用線性恒等激勵(lì)函數(shù);輸入層神經(jīng)元到隱層神經(jīng)元的連接權(quán)值在(-10,10)區(qū)間內(nèi)隨機(jī)初始化;隱層神經(jīng)元個(gè)數(shù)設(shè)為n,其具體個(gè)數(shù)由后述的WASD算法確定,神經(jīng)元的閾值在(-10,10)區(qū)間內(nèi)隨機(jī)初始化,而神經(jīng)元激勵(lì)函數(shù)采用雙極S激勵(lì)函數(shù),且其傾斜參數(shù)c設(shè)定為1,即另外,隱層神經(jīng)元到輸出層神經(jīng)元的連接權(quán)值由后述的權(quán)值直接確定法無(wú)迭代得到;輸出層神經(jīng)元個(gè)數(shù)為1,其閾值恒定設(shè)為0,神經(jīng)元激勵(lì)函數(shù)也采用線性恒等激勵(lì)函數(shù)。

    圖1 雙極S激勵(lì)函數(shù)神經(jīng)網(wǎng)絡(luò)模型Fig.1 Neural network model activated by bipolar sigmoid functions

    (1)

    1)xv表示一個(gè)輸入向量的第ν個(gè)變量(特征),其中ν=1,2,…,m;

    2)ωk,j為第k個(gè)輸入層神經(jīng)元和第j個(gè)隱層神經(jīng)元之間的連接權(quán)值,其中k=1,2,…,m,j=1,2,…,n;

    4)βj為第j個(gè)隱層神經(jīng)元的閾值;

    5)wj為第j個(gè)隱層神經(jīng)元和輸出層神經(jīng)元之間的連接權(quán)值;

    6)y為輸出層神經(jīng)元的輸出值。

    2 權(quán)值閾值計(jì)算

    實(shí)際上,對(duì)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)訓(xùn)練的過(guò)程就是神經(jīng)元之間的連接權(quán)值和神經(jīng)元閾值的修正過(guò)程,其最終目的是:使神經(jīng)網(wǎng)絡(luò)盡量對(duì)學(xué)習(xí)樣本集實(shí)現(xiàn)有效逼近;同時(shí),對(duì)于學(xué)習(xí)樣本集以外的測(cè)試樣本或數(shù)據(jù),神經(jīng)網(wǎng)絡(luò)也能夠進(jìn)行有效的辨識(shí)。盡管對(duì)神經(jīng)網(wǎng)絡(luò)權(quán)值和閾值的訓(xùn)練方法有很多,但并非每一種訓(xùn)練方法都是有效的,訓(xùn)練方法的優(yōu)劣對(duì)網(wǎng)絡(luò)的最終訓(xùn)練效果影響重大。因此,本文結(jié)合權(quán)值直接確定法和Levenberg-Marquardt算法作為WASD算法的權(quán)值和閾值計(jì)算方法。

    對(duì)于圖1所示的神經(jīng)網(wǎng)絡(luò)模型,在網(wǎng)絡(luò)學(xué)習(xí)第i個(gè)樣本時(shí),第j個(gè)隱層神經(jīng)元的輸出表示為

    輸出層神經(jīng)元的輸出值為

    神經(jīng)網(wǎng)絡(luò)的隱層神經(jīng)元到輸出層神經(jīng)元的連接權(quán)值向量為

    w=[w1,w2,…,wn]T∈Rn

    網(wǎng)絡(luò)的目標(biāo)輸出向量表示為

    對(duì)應(yīng)的網(wǎng)絡(luò)的實(shí)際輸出向量為

    定義網(wǎng)絡(luò)輸出均方誤差(meansquarederror,MSE)為

    對(duì)于所有的學(xué)習(xí)樣本,隱層神經(jīng)元的輸出矩陣為

    基于上述定義,根據(jù)權(quán)值直接確定法[14],隱層神經(jīng)元到輸出層神經(jīng)元的最優(yōu)穩(wěn)態(tài)權(quán)值向量可無(wú)迭代給定為

    (2)

    其中,P+為矩陣P的偽逆矩陣。

    基于圖1所示的神經(jīng)網(wǎng)絡(luò)模型,在確定了網(wǎng)絡(luò)隱層神經(jīng)元到輸出層神經(jīng)元的最優(yōu)權(quán)值以及對(duì)應(yīng)的最優(yōu)結(jié)構(gòu)后,對(duì)輸入層和隱層神經(jīng)元之間的連接權(quán)值以及隱層神經(jīng)元的閾值的修正,本文采用高效的LM迭代計(jì)算方法[15,26]。也即,在之后的計(jì)算中,將網(wǎng)絡(luò)隱層神經(jīng)元的閾值等效為網(wǎng)絡(luò)輸入層到隱層神經(jīng)元的權(quán)值的一部分,具體表示如下:

    其中M=nm+n。令ei(χ)=γi-yi(χ),誤差向量為e(χ)=[e1(χ),e2(χ),…,eN(χ)]T∈RN。令J(χ)為e(χ)的雅克比矩陣:

    因此,根據(jù)上述推導(dǎo),基于圖1所示的神經(jīng)網(wǎng)絡(luò)模型,輸入層到隱層的連接權(quán)值以及隱層神經(jīng)元的閾值可通過(guò)Levenberg-Marquardt算法進(jìn)行如下后續(xù)迭代修正:

    (3)

    (4)

    式中,l為迭代計(jì)數(shù)(l=1,2,3,…),μl>0,I為單位矩陣。值得指出的是,在迭代過(guò)程中,μl是一個(gè)非常重要的調(diào)整變量,其調(diào)整策略是:開(kāi)始時(shí)μl取一個(gè)較小的正數(shù)(如0.001),如果某一次調(diào)整不能使網(wǎng)絡(luò)性能優(yōu)化函數(shù)下降,則μl乘以一個(gè)大于1的參數(shù)μinc(如10),重復(fù)調(diào)整,直到使網(wǎng)絡(luò)性能優(yōu)化函數(shù)下降為止;相反,如果某一次調(diào)整可以使網(wǎng)絡(luò)性能優(yōu)化函數(shù)下降,則μl乘以一個(gè)小于1的參數(shù)μdec(如0.1)。

    3 帶后續(xù)迭代的WASD算法

    神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)是影響神經(jīng)網(wǎng)絡(luò)性能最重要的因素之一,因此,神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)(也即是隱層神經(jīng)元數(shù))的選擇是一個(gè)值得深入研究的問(wèn)題。如果選取不當(dāng),就會(huì)影響網(wǎng)絡(luò)的性能:具體而言,若神經(jīng)元數(shù)過(guò)多,網(wǎng)絡(luò)結(jié)構(gòu)則較為冗余,網(wǎng)絡(luò)學(xué)習(xí)與校驗(yàn)時(shí)因計(jì)算所需的內(nèi)存空間較大,且可能出現(xiàn)過(guò)擬合,使網(wǎng)絡(luò)的泛化能力下降;相反,若網(wǎng)絡(luò)的神經(jīng)元數(shù)太少,就會(huì)導(dǎo)致欠擬合而弱化網(wǎng)絡(luò)的學(xué)習(xí)能力[15]。沒(méi)有學(xué)習(xí)能力和泛化能力的網(wǎng)絡(luò)是沒(méi)有實(shí)用價(jià)值的[13],因而在設(shè)計(jì)網(wǎng)絡(luò)時(shí),隱層神經(jīng)元數(shù)的選擇就極為重要。

    針對(duì)隱層神經(jīng)元數(shù)的選擇,一些學(xué)者已進(jìn)行了深入研究,但大多數(shù)的做法在實(shí)際問(wèn)題求解中普遍存在著隱層神經(jīng)元數(shù)龐大、學(xué)習(xí)過(guò)程振蕩、學(xué)習(xí)時(shí)間過(guò)長(zhǎng)和泛化能力較低等不足。實(shí)際上,其最終得到的網(wǎng)絡(luò)結(jié)構(gòu)是和網(wǎng)絡(luò)的學(xué)習(xí)算法緊密相關(guān)的、非最優(yōu)的[25]。以函數(shù)數(shù)據(jù)擬合為例,基于前文所述的權(quán)值直接確定算法,用圖1所示的神經(jīng)網(wǎng)絡(luò)模型對(duì)如下非線性目標(biāo)函數(shù)進(jìn)行學(xué)習(xí):

    (0.5x2-0.5)3+5

    學(xué)習(xí)過(guò)程中,隱層神經(jīng)元數(shù)初始化設(shè)為1,以后每次增加1個(gè)神經(jīng)元,所得到學(xué)習(xí)誤差E隨隱層神經(jīng)元數(shù)n遞增而變化的結(jié)果如圖2所示。

    圖2 神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)誤差E和隱層神經(jīng)元數(shù)n的關(guān)系Fig.2 Relationship between neural network learning error E and neuron number n

    由該圖可知:隨著神經(jīng)元數(shù)的增加,在最初時(shí),網(wǎng)絡(luò)學(xué)習(xí)誤差下降,且下降速度較快;但當(dāng)神經(jīng)元數(shù)增加至一定程度,網(wǎng)絡(luò)學(xué)習(xí)誤差出現(xiàn)振蕩,即在一個(gè)較小的范圍內(nèi)波動(dòng),難以繼續(xù)下降,這表明,神經(jīng)網(wǎng)絡(luò)的隱神經(jīng)元數(shù)開(kāi)始飽和了。值得指出的是,用不同的目標(biāo)函數(shù)進(jìn)行實(shí)驗(yàn),最終也得到與圖2有相似特征的實(shí)驗(yàn)結(jié)果。

    Levenberg-Marquardt算法是神經(jīng)網(wǎng)絡(luò)BP算法中最優(yōu)越的一個(gè)[16],它具有訓(xùn)練速度快的優(yōu)點(diǎn),故我們可以用它來(lái)得到輸入層到隱層的連接權(quán)值。結(jié)合神經(jīng)網(wǎng)絡(luò)權(quán)值直接確定法和Levenberg-Marquardt算法的優(yōu)點(diǎn)[16-17],使用邊增邊刪的神經(jīng)元增長(zhǎng)策略[18-19],本文提出帶后續(xù)迭代的WASD算法。其具體描述如下。

    輸入:學(xué)習(xí)樣本、目標(biāo)精度Eg、最長(zhǎng)執(zhí)行時(shí)間Tmax

    輸出:學(xué)習(xí)誤差E、隱層神經(jīng)元數(shù)n

    Step1:初始化神經(jīng)網(wǎng)絡(luò),E←10,n←1,計(jì)數(shù)器C1←1,執(zhí)行時(shí)間T←0;

    Step2:輸入層神經(jīng)元到第n個(gè)隱層神經(jīng)元的連接權(quán)值以及隱層神經(jīng)元的閾值隨機(jī)獲取;

    Step3:計(jì)算隱層神經(jīng)元的輸出矩陣P,再根據(jù)權(quán)值直接確定法[即,公式(2)],無(wú)迭代直接計(jì)算出最優(yōu)權(quán)值w,然后計(jì)算出當(dāng)前學(xué)習(xí)誤差E1;

    Step4:若滿足E1≤E,則E←E1,增加一個(gè)隱層神經(jīng)元n←n+1,C1←1;否則,刪除第n個(gè)隱層神經(jīng)元以及神經(jīng)元的連接權(quán)值,C1←C1+1;

    Step5:若C1≤5,則跳至Step2;否則(即,連續(xù)5次增加隱層神經(jīng)元失敗),直接進(jìn)入Step6;

    Step6:計(jì)算雅克比矩陣J(χl);

    Step7:根據(jù)LM法[即,公式(4)],計(jì)算出Δχl;

    Step8:把χl+Δχl作為變量參數(shù),計(jì)算出當(dāng)前的學(xué)習(xí)誤差E2;

    Step9:若E2≥E,則μl←μlμinc,然后跳至Step7;否則,E←E2,μl←μlμdec,χl+1←χl+Δχl;

    Step10:在沒(méi)有選擇手動(dòng)停止的前提下,若TEg,則跳至Step6;否則,算法結(jié)束。

    顯然,該算法是由以下兩個(gè)過(guò)程組成:① 過(guò)程1 (Step1至Step5)確定最優(yōu)隱層神經(jīng)元數(shù)及隱層到輸出層最優(yōu)權(quán)值;②過(guò)程2 (Step6至Step10)是使用LM算法對(duì)輸入層和隱層神經(jīng)元之間的連接權(quán)值以及隱層神經(jīng)元的閾值進(jìn)行后續(xù)迭代優(yōu)化過(guò)程。為了更好地展示該WASD算法,其算法流程圖如圖3所示。

    圖3 帶后續(xù)迭代的WASD算法流程圖Fig.3 Flowchart of WASD algorithm with subsequent iterations

    值得指出的是,MATLAB軟件具有較好的開(kāi)放性,除內(nèi)部函數(shù)外,所有主包文件和各種工具箱都是可讀、可修改的文件[27-28]。故以二輸入神經(jīng)網(wǎng)絡(luò)為例,本文WASD算法和Levenberg-Marquardt算法結(jié)合調(diào)用神經(jīng)網(wǎng)絡(luò)工具箱的部分實(shí)現(xiàn)代碼如圖4所示。

    圖4 二輸入WASD神經(jīng)網(wǎng)絡(luò)涉及工具箱調(diào)用的部分實(shí)現(xiàn)代碼Fig.4 Partial code of implementation of two-input WASD neural network involving toolbox calling

    4 WASD網(wǎng)絡(luò)逼近能力分析

    對(duì)一個(gè)三層的神經(jīng)網(wǎng)絡(luò),許多學(xué)者證明了如下的逼近定理[6,11-12]。

    定理1 令φ(·)為有界的單調(diào)遞增連續(xù)函數(shù),Hm代表m維單位超立方體[0,1]m。C(Hm)表示定義在Hm上的連續(xù)函數(shù)構(gòu)成的集合,則給定任何目標(biāo)函數(shù)γ∈C(Hm)和目標(biāo)精度ε>0,存在整數(shù)n和實(shí)常數(shù)組{wj}、{βj}和{ωk,j},其中k=1,2,…,m,j=1,2,…,n,使得網(wǎng)絡(luò)輸出

    可以以任意精度逼近目標(biāo)函數(shù)γ(x1,x2,…,xm),即

    對(duì)照和推廣上述定理,雙極S激勵(lì)函數(shù)為有界的單調(diào)遞增連續(xù)函數(shù),因此可得該激勵(lì)神經(jīng)網(wǎng)絡(luò)能以理論任意精度逼近非線性連續(xù)函數(shù)。而“邊增邊刪”實(shí)際上是在增刪神經(jīng)元的過(guò)程中使得神經(jīng)網(wǎng)絡(luò)的隱層神經(jīng)元數(shù)不斷地逼近神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)最優(yōu)時(shí)的數(shù)目。所以,理論而言,當(dāng)增刪神經(jīng)元的次數(shù)趨向于無(wú)窮時(shí)(實(shí)際而言,達(dá)到某個(gè)較大次數(shù)時(shí)),我們可以找到使得神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)最優(yōu)的隱層神經(jīng)元數(shù)(即,定理1中的n值)。而且,作者在之前的工作中已做過(guò)大量的數(shù)值實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果顯示:隨著隱層神經(jīng)元個(gè)數(shù)的增加,網(wǎng)絡(luò)的測(cè)試誤差呈現(xiàn)一個(gè)“V”或“U”字形的圖像[29-30]。因此,利用“邊增邊刪”方法可以找到最優(yōu)隱層神經(jīng)元數(shù)。

    5 計(jì)算機(jī)數(shù)值實(shí)驗(yàn)驗(yàn)證

    為了驗(yàn)證本文提出的WASD神經(jīng)網(wǎng)絡(luò)模型的性能,本文以2輸入和3輸入的數(shù)據(jù)擬合為例,分別對(duì)以下目標(biāo)函數(shù)(5)-(7)進(jìn)行函數(shù)數(shù)據(jù)擬合實(shí)驗(yàn)。

    (5)

    (6)

    (7)

    其中,數(shù)據(jù)產(chǎn)生方法如下:對(duì)于目標(biāo)函數(shù)(5)和(6),在區(qū)間[0,1]2內(nèi)(每個(gè)維度采樣間隔為0.05)均勻產(chǎn)生441個(gè)學(xué)習(xí)樣本,在區(qū)間[0.05,0.95]2內(nèi)(每個(gè)維度采樣間隔為0.017)均勻產(chǎn)生2 809個(gè)測(cè)試樣本;對(duì)于目標(biāo)函數(shù)(6),還在區(qū)間[0.05,1.04]2內(nèi)(每個(gè)維度采樣間隔為0.017)均勻產(chǎn)生3 249個(gè)測(cè)試和預(yù)測(cè)樣本;對(duì)于目標(biāo)函數(shù)(7),在區(qū)間[0.1,0.8]3內(nèi)(每個(gè)維度采樣間隔為0.01)均勻產(chǎn)生512個(gè)學(xué)習(xí)樣本,在區(qū)間[0.14,0.76]3內(nèi)(每個(gè)維度采樣間隔為0.017)均勻產(chǎn)生50 653個(gè)測(cè)試樣本。另外指出的是,進(jìn)行該批MATLAB7.6.0數(shù)值實(shí)驗(yàn)的計(jì)算機(jī)的硬件配置為Intel(R)Core(TM)2DuoCPU(主頻2.2GHz)和2.0GB內(nèi)存。而使用本文的WASD算法對(duì)目標(biāo)函數(shù)(5),(6)和(7)進(jìn)行函數(shù)數(shù)據(jù)擬合,所得到實(shí)驗(yàn)結(jié)果(5次實(shí)驗(yàn)取平均值)如表1所示。

    從表1可以看出:通過(guò)WASD算法訓(xùn)練得到的WASD神經(jīng)網(wǎng)絡(luò),學(xué)習(xí)誤差和測(cè)試誤差均可達(dá)到非常小的數(shù)量級(jí),網(wǎng)絡(luò)具有優(yōu)異的學(xué)習(xí)能力和泛化能力,對(duì)非線性函數(shù)數(shù)據(jù)的逼近效果理想;而且算法執(zhí)行時(shí)間較短。為了和WASD算法進(jìn)行比較,本文也分別單獨(dú)使用Levenberg-Marquardt算法和文獻(xiàn)[20]中所提出的算法(即,LMFNN算法)進(jìn)行對(duì)比性數(shù)值實(shí)驗(yàn)。由于單獨(dú)的LM算法需要提前給定隱層神經(jīng)元數(shù),但是,對(duì)于不同的訓(xùn)練樣本,網(wǎng)絡(luò)的最優(yōu)隱層神經(jīng)元數(shù)是不同的,因此我們?cè)趯?duì)比實(shí)驗(yàn)中分別選擇了25、50、100和200個(gè)隱層神經(jīng)元進(jìn)行實(shí)驗(yàn)。此外,本文使用的是只有一層隱含層的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。根據(jù)文獻(xiàn)[20]的算法,對(duì)目標(biāo)函數(shù)(5)和(6),可求得其隱含層神經(jīng)元數(shù)為110;對(duì)目標(biāo)函數(shù)(7),其隱含層神經(jīng)元數(shù)為128。為了便于實(shí)驗(yàn)對(duì)比,在迭代過(guò)程中均采用手動(dòng)停止的操作。Levenberg-Marquardt算法和LMFNN算法的數(shù)值實(shí)驗(yàn)結(jié)果(5次實(shí)驗(yàn)取平均值)分別在表2和表3中給出。

    從表2可以看出:①當(dāng)隱層神經(jīng)元數(shù)較少時(shí),通過(guò)LM算法訓(xùn)練得到的神經(jīng)網(wǎng)絡(luò)(簡(jiǎn)稱LM神經(jīng)網(wǎng)絡(luò)) 的學(xué)習(xí)誤差和校驗(yàn)誤差相對(duì)較大,其學(xué)習(xí)能力和泛化能力一般表現(xiàn)出輕微的欠擬合現(xiàn)象,此外,網(wǎng)絡(luò)的學(xué)習(xí)時(shí)間相對(duì)較長(zhǎng);②當(dāng)隱層神經(jīng)元數(shù)進(jìn)一步增加時(shí),LM神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)誤差和測(cè)試誤差變得較小,具有較好學(xué)習(xí)能力和泛化能力,然而,網(wǎng)絡(luò)的學(xué)習(xí)時(shí)間也稍長(zhǎng);③當(dāng)隱層神經(jīng)元數(shù)較多時(shí),LM神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)誤差較小,但校驗(yàn)誤差較大,兩者不一致,反映出LM網(wǎng)絡(luò)的學(xué)習(xí)能力較好而泛化能力卻差的過(guò)擬合現(xiàn)象。結(jié)合上述分析,可以大概找到LM神經(jīng)網(wǎng)絡(luò)的較優(yōu)隱層神經(jīng)元數(shù),即學(xué)習(xí)能力和泛化能力均較優(yōu)的LM神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。另外,從表3可以看出:相比于LM網(wǎng)絡(luò),LMFNN算法的學(xué)習(xí)誤差和測(cè)試誤差均處在較小的數(shù)量級(jí),且執(zhí)行時(shí)間也相對(duì)較短,能得到較優(yōu)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),能實(shí)現(xiàn)對(duì)目標(biāo)函數(shù)的有效逼近。

    綜合表1-3可知,無(wú)論在網(wǎng)絡(luò)性能還是運(yùn)行時(shí)間方面,WASD算法均優(yōu)于單獨(dú)使用LM算法或者LMFNN算法。而且,相對(duì)于單獨(dú)使用LM算法而言,WASD算法可以自動(dòng)確定最優(yōu)隱層神經(jīng)元數(shù),單獨(dú)的LM算法則需要提前設(shè)定隱層神經(jīng)元數(shù)(其一般難以達(dá)到最優(yōu))。所以,如果要確定LM神經(jīng)網(wǎng)絡(luò)的最優(yōu)隱層神經(jīng)元數(shù),以試錯(cuò)法形式的反復(fù)測(cè)試校正將會(huì)耗費(fèi)非常長(zhǎng)的計(jì)算時(shí)間。而對(duì)比于LMFNN算法(其測(cè)試誤差較低),WASD算法能得到更優(yōu)的隱含層神經(jīng)元數(shù)、網(wǎng)絡(luò)結(jié)構(gòu)和性能。

    表1 WASD神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)與測(cè)試結(jié)果

    表2 用于對(duì)比的LM神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)與測(cè)試結(jié)果

    表3 用于對(duì)比的LMFNN神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)與測(cè)試結(jié)果

    為了更進(jìn)一步地驗(yàn)證和展示基于雙極S激勵(lì)函數(shù)神經(jīng)網(wǎng)絡(luò)的WASD算法的有效性,下面以目標(biāo)函數(shù)(6)為例(設(shè)定執(zhí)行時(shí)間為100s),進(jìn)行數(shù)值實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如圖5至圖9所示。

    具體而言,圖5顯示了WASD算法在兩個(gè)學(xué)習(xí)過(guò)程當(dāng)中,網(wǎng)絡(luò)學(xué)習(xí)誤差的變化情況。在過(guò)程1 (Process1)中,隨著神經(jīng)元數(shù)的增加,網(wǎng)絡(luò)的學(xué)習(xí)誤差逐漸降低,由于采用了邊增邊刪的策略,期間并無(wú)發(fā)生振蕩現(xiàn)象,最終確定的隱層神經(jīng)元數(shù)為207;進(jìn)入過(guò)程2 (Process2)后,網(wǎng)絡(luò)的學(xué)習(xí)誤差一直下降,直至程序(達(dá)到結(jié)束條件)結(jié)束,最終訓(xùn)練停止時(shí),網(wǎng)絡(luò)的學(xué)習(xí)誤差到達(dá)8.455×10-7。圖6是神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)函數(shù)(6)的學(xué)習(xí)結(jié)果和校驗(yàn)結(jié)果。此外,圖7和圖8展示了WASD神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)函數(shù)(6)在[0.05,1.02]2內(nèi)的測(cè)試和預(yù)測(cè)結(jié)果。可以看出,此時(shí)神經(jīng)網(wǎng)絡(luò)的測(cè)試和預(yù)測(cè)誤差均較小,尤其是在[0.05,1.01]2內(nèi)的測(cè)試和預(yù)測(cè)誤差小于0.015。更進(jìn)一步地,圖9顯示了WASD神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)函數(shù)(6)在[0.05,1.04]2內(nèi)的測(cè)試和預(yù)測(cè)結(jié)果。雖然網(wǎng)絡(luò)輸出與目標(biāo)輸出函數(shù)之間存在差別,但結(jié)果還是令人滿意的。從上述結(jié)果可知,通過(guò)該算法得到的WASD神經(jīng)網(wǎng)絡(luò)具有較好的泛化能力。

    圖5 WASD神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)誤差E和神經(jīng)元數(shù)n的關(guān)系Fig.5 Relationship between WASD neural network learning error E and neuron number n

    圖6 WASD神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)函數(shù)(6)在區(qū)間[0,1]2內(nèi)的學(xué)習(xí)結(jié)果Fig.6 Learning results of WASD neural network for target function (6) in [0,1]2

    圖7 WASD神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)函數(shù)(6)在區(qū)間[0.05,1.01]2內(nèi)的測(cè)試和預(yù)測(cè)結(jié)果Fig.7 Testing and forecasting results of WASD neural network for target function (6) in [0.05,1.01]2

    圖8 WASD神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)函數(shù)(6)在區(qū)間[0.05,1.02]2內(nèi)的測(cè)試和預(yù)測(cè)結(jié)果Fig.8 Testing and forecasting results of WASD neural network for target function (6) in [0.05,1.02]2

    圖9 WASD神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)函數(shù)(6)在區(qū)間[0.05,1.04]2內(nèi)的測(cè)試和預(yù)測(cè)結(jié)果Fig.9 Testing and forecasting results of WASD neural network for target function (6) in [0.05,1.04]2

    綜上所述,WASD算法可以根據(jù)已有的樣本數(shù)據(jù),通過(guò)網(wǎng)絡(luò)的學(xué)習(xí)訓(xùn)練,無(wú)需人工干預(yù),自動(dòng)地確定出最優(yōu)隱層神經(jīng)元數(shù),同時(shí)實(shí)現(xiàn)對(duì)權(quán)值和閾值的后續(xù)有效調(diào)整,而且執(zhí)行時(shí)間較短,最終得到的WASD網(wǎng)絡(luò)具有很好的學(xué)習(xí)能力和泛化能力,能夠?qū)Ψ蔷€性函數(shù)數(shù)據(jù)進(jìn)行有效的擬合。相比較而言,單獨(dú)LM神經(jīng)網(wǎng)絡(luò)的隱層神經(jīng)元數(shù)需要人為提前設(shè)定,如果想要獲得較好的效果和性能,需要反復(fù)地進(jìn)行嘗試或者根據(jù)設(shè)計(jì)者的經(jīng)驗(yàn)進(jìn)行隱層神經(jīng)元數(shù)的人為優(yōu)化,過(guò)程相當(dāng)耗時(shí)。而LMFNN算法,雖然可以自動(dòng)確定隱層神經(jīng)元數(shù)和網(wǎng)絡(luò)結(jié)構(gòu),但由于其算法受到樣本大小影響,當(dāng)學(xué)習(xí)樣本的數(shù)量和分布不夠合理時(shí),所得到的隱層神經(jīng)元數(shù)和網(wǎng)絡(luò)結(jié)構(gòu)未必保證是最優(yōu)。

    此外,為了驗(yàn)證WASD算法中LM方法的有效性和優(yōu)越性,針對(duì)目標(biāo)函數(shù)(5) 、(6)和(7),使用不同的訓(xùn)練方法(即,在后續(xù)迭代中采用LM算法)來(lái)優(yōu)化輸入層和隱層神經(jīng)元的連接權(quán)值以及隱層神經(jīng)元的閾值。表4為對(duì)應(yīng)的數(shù)值結(jié)果(取5次實(shí)驗(yàn)平均值)。

    表4 不同訓(xùn)練方法的性能對(duì)比

    從表4中可以看出:LM方法的訓(xùn)練誤差和測(cè)試誤差總體而言優(yōu)于其它的訓(xùn)練方法(如BFGS和最速下降法)。此結(jié)果說(shuō)明了LM方法在WASD算法中的有效性及優(yōu)越性。此外,針對(duì)目標(biāo)函數(shù)(5),本文使用WASD算法進(jìn)行50次實(shí)驗(yàn),其目標(biāo)精度設(shè)置為5.0×10-12,執(zhí)行時(shí)間為20s,表5為50次實(shí)驗(yàn)的統(tǒng)計(jì)結(jié)果。

    表5 WASD算法50次實(shí)驗(yàn)的統(tǒng)計(jì)結(jié)果

    從表5中可以看出:WASD算法的學(xué)習(xí)誤差與測(cè)試誤差的均值和標(biāo)準(zhǔn)差都處于10-9這一微小量級(jí)。此結(jié)果(特別是其標(biāo)準(zhǔn)差處于較小的量級(jí))說(shuō)明了WASD算法具有較好的穩(wěn)定性和收斂性。

    值得指出的是,我們還在神經(jīng)網(wǎng)絡(luò)算法性能實(shí)驗(yàn)中采用了交叉驗(yàn)證的評(píng)價(jià)方法。具體而言,針對(duì)目標(biāo)函數(shù)(5)進(jìn)行了10折(10-fold)交叉驗(yàn)證。在10次驗(yàn)證中,學(xué)習(xí)誤差最小為2.000×10-12,此時(shí)的測(cè)試誤差為5.512×10-10;測(cè)試誤差最小為3.797×10-10,此時(shí)學(xué)習(xí)誤差為9.793×10-12??傮w而言,10折交叉驗(yàn)證學(xué)習(xí)誤差的均值為2.349×10-10,測(cè)試誤差的均值為2.304×10-7。可以看出,本文提出的算法在多重交叉驗(yàn)證實(shí)驗(yàn)中,學(xué)習(xí)誤差和測(cè)試誤差也均處于較小的量級(jí)。該結(jié)果進(jìn)一步證實(shí)了所提出算法的有效性和優(yōu)越性。

    6 結(jié) 語(yǔ)

    本文首先構(gòu)造了一種三層的雙極S激勵(lì)函數(shù)前向神經(jīng)網(wǎng)絡(luò)模型,進(jìn)而提出了一種帶后續(xù)迭代的權(quán)值與結(jié)構(gòu)確定算法。為了實(shí)現(xiàn)在較短時(shí)間內(nèi)確定最優(yōu)隱層神經(jīng)元數(shù)的同時(shí),使神經(jīng)網(wǎng)絡(luò)獲得更好的學(xué)習(xí)性能和泛化性能,該算法創(chuàng)造性地結(jié)合了權(quán)值直接確定法與Levenberg-Marquardt算法各自的優(yōu)點(diǎn),并采用了邊增邊刪的結(jié)構(gòu)增長(zhǎng)策略。計(jì)算機(jī)數(shù)值實(shí)驗(yàn)和對(duì)比結(jié)果表明:基于WASD算法的雙極S激勵(lì)函數(shù)神經(jīng)網(wǎng)絡(luò)具有更為優(yōu)異的學(xué)習(xí)能力和泛化能力,學(xué)習(xí)時(shí)間少(或適中),在非線性函數(shù)數(shù)據(jù)擬合方面可表現(xiàn)出很好的效果。本文提出的帶后續(xù)迭代的神經(jīng)網(wǎng)絡(luò)權(quán)值與結(jié)構(gòu)確定算法因此可具有廣泛的應(yīng)用前景(其限于篇幅不再贅述)。而如何在更進(jìn)一步的實(shí)際應(yīng)用中發(fā)現(xiàn)本算法的不足和做出相應(yīng)的改進(jìn)措施或也是下一步工作的重點(diǎn)和未來(lái)研究方向。

    [1] 張青貴. 人工神經(jīng)網(wǎng)絡(luò)導(dǎo)論[M]. 北京: 中國(guó)水利水電出版社, 2004.

    [2] 張雨濃,王茹, 勞穩(wěn)超,等. 符號(hào)函數(shù)激勵(lì)的WASD神經(jīng)網(wǎng)絡(luò)與XOR應(yīng)用[J]. 中山大學(xué)學(xué)報(bào)(自然科學(xué)版), 2014, 53(1): 1-7.

    [3]SHRIVASTAVAS,SINGHMP.Performanceevaluationoffeed-forwardneuralnetworkwithsoftcomputingtechniquesforhandwrittenEnglishalphabets[J].AppliedSoftComputing, 2011, 11(1): 1156-1182.

    [4] 楊文光. 權(quán)值直接確定的三角型模糊前向神經(jīng)網(wǎng)絡(luò)[J]. 中山大學(xué)學(xué)報(bào)(自然科學(xué)版), 2013, 52(2): 33-37.

    [5] 蔡娟,蔡堅(jiān)勇, 廖曉東,等. 基于卷積神經(jīng)網(wǎng)絡(luò)的手勢(shì)識(shí)別初探[J]. 計(jì)算機(jī)系統(tǒng)應(yīng)用, 2015, 24(4): 113-117.

    [6]HORNIKK,STINCHCOMBEM,WHITEH.Multilayerfeedforwardnetworksareuniversalapproximators[J].NeuralNetworks, 1989, 2(5): 359-366.

    [7]CHENT,CHENH.Universalapproximationtononlinearoperatorsbyneuralnetworkswitharbitraryactivationfunctionsanditsapplicationtodynamicalsystems[J].IEEETransactionsonNeuralNetworks, 1995, 6(4): 911-917.

    [8]GUERRAFA,COELHOLS.Multi-stepaheadnonlinearidentificationofLorenz’schaoticsystemusingradialbasisneuralnetworkwithlearningbyclusteringandparticleswarmoptimization[J].ChaosSolitonsandFractals, 2008, 35(5): 967-979.

    [9] 王建軍,徐宗本. 多元多項(xiàng)式函數(shù)的三層前向神經(jīng)網(wǎng)絡(luò)逼近方法[J]. 計(jì)算機(jī)學(xué)報(bào), 2009, 32(12): 2482-2488.

    [10] 李凱,翟振華. 神經(jīng)網(wǎng)絡(luò)在函數(shù)逼近問(wèn)題中的應(yīng)用研究[J]. 計(jì)算機(jī)工程, 2001, 27(5): 189-190.

    [11]COTTERNE.TheStone-Weierstrasstheoremanditsapplicationtoneuralnetworks[J].IEEETransactiononNeuralNetworks, 1990, 1(4): 290-295.

    [12]CYBENKOG.Approximationbysuperpositionofasigmoidalfunction[J].MathematicsofControl,Signals,Systems, 1989, 2(4): 303-314.

    [13] 魏海坤,徐嗣鑫,宋文忠. 神經(jīng)網(wǎng)絡(luò)的泛化理論和泛化方法[J]. 自動(dòng)化學(xué)報(bào), 2001, 27(6): 806-815.

    [14]JAINAK,MAOJC,MOHIUDDINKM.Artificialneuralnetworks:atutorial[J].Computer, 1996, 29(3): 31-34.

    [15]LAWRENCES,GILESCL,TSOIAC.Whatsizeneuralnetworkgivesoptimalgeneralization?Convergencepropertiesofbackpropagation,UMIACS-TR-96-22andCS-TR-3617 [R].CollegePark:UniversityofMarylandCollegePark, 1996.

    [16] 蘇高利,鄧芳萍. 論基于MATLAB語(yǔ)言的BP神經(jīng)網(wǎng)絡(luò)的改進(jìn)算法[J]. 科技通報(bào), 2003, 19(2): 130-135.

    [17] 張雨濃,楊逸文,李巍. 神經(jīng)網(wǎng)絡(luò)權(quán)值直接確定法[M]. 廣州: 中山大學(xué)出版社, 2012.

    [18] 張雨濃,羅飛恒,陳錦浩,等. 三輸入伯努利神經(jīng)網(wǎng)絡(luò)權(quán)值與結(jié)構(gòu)雙確定[J]. 計(jì)算機(jī)工程與科學(xué), 2013, 35(05): 142-148.

    [19]ZHANGY,DINGS,LIUX,etal.WASPneuronetactivatedbybipolar-sigmoidfunctionsandappliedtoglomerular-filtration-rateestimation[C].The26thChineseControlandDecisionConference(CCDC),IEEE, 2014: 172-177.

    [20] 李鴻儒,王曉楠,何大闊,等. 一種優(yōu)化計(jì)算確定神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的方法[J]. 系統(tǒng)仿真學(xué)報(bào), 2009, 21(1): 104-107.

    [21]BAHIJM,CONTASSOT-VIVIERS,SAUGETM.Anincrementallearningalgorithmforfunctionapproximation[J].AdvanceinEngineeringSoftware, 2009, 40(8): 725-730.

    [22]BENARDOSPG,VOSNIAKOSGC.Optimizingfeedforwardartificialneuralnetworkarchitecture[J].EngineeringApplicationsofArtificialIntelligence, 2007, 20(4): 365-382.

    [23]TSAIJT,CHOUJH,LIUTK.TuningthestructureandparametersofaneuralnetworkbyusinghybridTaguchi-geneticalgorithm[J].IEEETransactionsonNeuralNetworks, 2006, 17(1): 69-80.

    [24]ARULAMPALAMG,RAMAKONARV,BOUZERDOA,etal.Classificationofdigitalmodulationschemesusingneuralnetworks[C].The5thInternationalSymposiumonSignalProcessingandItsApplications(ISSPA),IEEE, 1999, 2: 649-652.

    [25]HAYKINS.Neuralnetworks:acomprehensivefoundation[M]. 2nded.EnglewoodCliffs,NJ:PrenticeHall, 2004.

    [26]HAGANM,DEMUTHH,BEALEM.Neuralnetworkdesign[M].Beijing:ChinaMachinePress, 2002.

    [27] 傅薈璇,趙紅.MATLAB神經(jīng)網(wǎng)絡(luò)應(yīng)用設(shè)計(jì)[M]. 北京: 機(jī)械工業(yè)出版社, 2010.

    [28]DEMUTHH,BEALEM,HAGANM.Neuralnetworktoolbox6user’sguide[M].TheMathWorksPress, 2009.

    [29]ZHANGY,YUX,GUOD,etal.Weightsandstructuredeterminationofmultiple-inputfeed-forwardneuralnetworkactivatedbyChebyshevpolynomialsofclass2viacross-validation[J].NeuralComputingandApplications, 2014, 25(7/8): 1761-1770.

    [30]ZHANGY,YINY,GUOD,etal.Cross-validationbasedweightsandstructuredeterminationofChebyshevpolynomialneuralnetworksforpatternclassification[J].PatternRecognition, 2014, 47: 3414-3428.

    WASD neural network activated by bipolar sigmoid functions together with subsequent iterations

    ZHANGYunong1,2,3,XIAOZhengli1,2,3,DINGSitong1,2,3,MAOMingzhi1,LIUJinrong1

    (1. School of Data and Computer Science, Sun Yat-sen University, Guangzhou 510006, China;2. Key Laboratory of Autonomous Systems and Networked Control, Ministry of Education,South China University of Technology, Guangzhou 510640, China;3. SYSU-CMU Shunde International Joint Research Institute, Foshan 528300, China)

    A weights-and-structure-determination (WASD) algorithm is proposed for the neural network using bipolar sigmoid activation functions together with subsequent iterations, which is the combination of the Levenberg-Marquardt algorithm and the weights-direct-determination method for neural network training. The proposed algorithm, combined with the Neural Network Toolbox of MATLAB software, aims at remedying the common weaknesses of traditional artificial neural networks, such as long-time learning expenditure, difficulty in determining the network structure, and to-be-improved performance of learning and generalization. Meanwhile, the WASD algorithm has good flexibility and operability. Taking data fitting of nonlinear functions for example, numerical experiments and comparison results illustrate the superiority of the WASD algorithm for determining the optimal number and optimal weights of hidden neurons. And the resultant neural network has more excellent performance on learning and generalization.

    neural networks; weights-and-structure-determination (WASD) algorithm; subsequent iterations; bipolar sigmoid activation functions; numerical experiments

    10.13471/j.cnki.acta.snus.2016.04.001

    2015-07-07

    國(guó)家自然科學(xué)基金資助項(xiàng)目(61473323);廣州市科技計(jì)劃資助項(xiàng)目(2014J4100057);自主系統(tǒng)與網(wǎng)絡(luò)控制教育部重點(diǎn)實(shí)驗(yàn)室開(kāi)放基金資助項(xiàng)目(2013A07);大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃資助項(xiàng)目(201410558065,201410558069)

    張雨濃(1973年生),男;研究方向:人工神經(jīng)網(wǎng)絡(luò)、冗余機(jī)器人;E-mail:zhynong@mail.sysu.edu.cn

    TP183

    A

    0529-6579(2016)04-0001-10

    猜你喜歡
    隱層權(quán)值神經(jīng)元
    一種融合時(shí)間權(quán)值和用戶行為序列的電影推薦模型
    《從光子到神經(jīng)元》書(shū)評(píng)
    自然雜志(2021年6期)2021-12-23 08:24:46
    CONTENTS
    基于RDPSO結(jié)構(gòu)優(yōu)化的三隱層BP神經(jīng)網(wǎng)絡(luò)水質(zhì)預(yù)測(cè)模型及應(yīng)用
    人民珠江(2019年4期)2019-04-20 02:32:00
    躍動(dòng)的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
    基于權(quán)值動(dòng)量的RBM加速學(xué)習(xí)算法研究
    基于二次型單神經(jīng)元PID的MPPT控制
    毫米波導(dǎo)引頭預(yù)定回路改進(jìn)單神經(jīng)元控制
    基于近似結(jié)構(gòu)風(fēng)險(xiǎn)的ELM隱層節(jié)點(diǎn)數(shù)優(yōu)化
    最優(yōu)隱層BP神經(jīng)網(wǎng)絡(luò)的滾動(dòng)軸承故障診斷
    十八禁网站免费在线| 精品少妇一区二区三区视频日本电影| 大片电影免费在线观看免费| 国产亚洲精品久久久久5区| 午夜福利视频在线观看免费| 国产视频一区二区在线看| 9191精品国产免费久久| 高清在线国产一区| 成年人黄色毛片网站| 精品国产乱码久久久久久男人| 欧美变态另类bdsm刘玥| 两人在一起打扑克的视频| 午夜福利在线观看吧| 亚洲五月色婷婷综合| 性色av乱码一区二区三区2| 国产精品香港三级国产av潘金莲| 午夜日韩欧美国产| 久久久久视频综合| 美女主播在线视频| 日韩欧美免费精品| www.999成人在线观看| 1024香蕉在线观看| 精品亚洲成a人片在线观看| 美女高潮到喷水免费观看| 日本欧美视频一区| 久热爱精品视频在线9| 动漫黄色视频在线观看| 12—13女人毛片做爰片一| 国产深夜福利视频在线观看| 亚洲全国av大片| 精品人妻一区二区三区麻豆| 丝瓜视频免费看黄片| 国产日韩欧美亚洲二区| 男女无遮挡免费网站观看| 美女午夜性视频免费| 99久久人妻综合| 少妇精品久久久久久久| 国产淫语在线视频| 深夜精品福利| tocl精华| 真人做人爱边吃奶动态| 嫩草影视91久久| 在线天堂中文资源库| 又大又爽又粗| 国产精品一区二区在线不卡| 婷婷成人精品国产| 久久久久精品人妻al黑| 久久精品久久久久久噜噜老黄| 色视频在线一区二区三区| 国产视频一区二区在线看| avwww免费| 最近最新中文字幕大全免费视频| 免费av中文字幕在线| 岛国在线观看网站| 亚洲国产看品久久| 亚洲激情五月婷婷啪啪| 国产高清videossex| 曰老女人黄片| 国产在线观看jvid| 男女床上黄色一级片免费看| 久久香蕉激情| 亚洲中文日韩欧美视频| 久久久国产欧美日韩av| 亚洲精品中文字幕一二三四区 | 精品一区在线观看国产| 亚洲精品在线美女| 亚洲av日韩精品久久久久久密| 国产色视频综合| 欧美另类一区| 超碰97精品在线观看| 久久亚洲国产成人精品v| 又大又爽又粗| 久久国产亚洲av麻豆专区| 久久久久久人人人人人| 俄罗斯特黄特色一大片| 亚洲综合色网址| 欧美 亚洲 国产 日韩一| 十八禁高潮呻吟视频| 日韩视频一区二区在线观看| 精品久久蜜臀av无| 狂野欧美激情性bbbbbb| 亚洲久久久国产精品| 中文欧美无线码| 淫妇啪啪啪对白视频 | 天堂中文最新版在线下载| 一本色道久久久久久精品综合| 欧美日韩国产mv在线观看视频| 97在线人人人人妻| 亚洲黑人精品在线| 久久综合国产亚洲精品| 国产欧美日韩一区二区三区在线| 国产精品av久久久久免费| 性少妇av在线| 老司机在亚洲福利影院| 国产伦理片在线播放av一区| 三级毛片av免费| 美女福利国产在线| 欧美精品高潮呻吟av久久| 国产亚洲精品久久久久5区| 可以免费在线观看a视频的电影网站| 国产成+人综合+亚洲专区| 日本91视频免费播放| 中文字幕人妻丝袜制服| 成人影院久久| 纯流量卡能插随身wifi吗| 色94色欧美一区二区| 亚洲伊人久久精品综合| 男人爽女人下面视频在线观看| 纯流量卡能插随身wifi吗| 国产男女超爽视频在线观看| 这个男人来自地球电影免费观看| 亚洲情色 制服丝袜| 亚洲精品中文字幕在线视频| 俄罗斯特黄特色一大片| 亚洲精品国产色婷婷电影| 麻豆乱淫一区二区| 亚洲av日韩精品久久久久久密| 国产一区二区在线观看av| 在线观看舔阴道视频| av在线老鸭窝| 69av精品久久久久久 | 亚洲专区国产一区二区| 人人妻人人爽人人添夜夜欢视频| 色婷婷av一区二区三区视频| 老司机在亚洲福利影院| 国产在线视频一区二区| 亚洲免费av在线视频| 欧美 亚洲 国产 日韩一| 午夜免费观看性视频| 91国产中文字幕| 精品国内亚洲2022精品成人 | 亚洲精品久久午夜乱码| tube8黄色片| 电影成人av| 亚洲情色 制服丝袜| 999久久久国产精品视频| 成在线人永久免费视频| 男女高潮啪啪啪动态图| 天天躁夜夜躁狠狠躁躁| 永久免费av网站大全| 黑人猛操日本美女一级片| 热re99久久精品国产66热6| 国产精品九九99| e午夜精品久久久久久久| 99国产精品一区二区三区| 日韩精品免费视频一区二区三区| 亚洲熟女精品中文字幕| 国产老妇伦熟女老妇高清| 久久毛片免费看一区二区三区| 两性夫妻黄色片| 国产成人精品久久二区二区免费| 精品一区二区三卡| 99香蕉大伊视频| netflix在线观看网站| 国产日韩欧美在线精品| 成人黄色视频免费在线看| 99久久综合免费| 国产成人系列免费观看| 久久精品亚洲av国产电影网| 欧美人与性动交α欧美软件| 人人妻人人爽人人添夜夜欢视频| 各种免费的搞黄视频| 亚洲精品一卡2卡三卡4卡5卡 | 国产亚洲午夜精品一区二区久久| 12—13女人毛片做爰片一| 欧美日韩亚洲综合一区二区三区_| 成年女人毛片免费观看观看9 | av天堂久久9| 国产高清视频在线播放一区 | 久久国产精品影院| 啦啦啦 在线观看视频| 各种免费的搞黄视频| 99热全是精品| 狠狠婷婷综合久久久久久88av| 国产精品免费大片| 伊人久久大香线蕉亚洲五| 黄频高清免费视频| 久久久久久久精品精品| 国产主播在线观看一区二区| 老司机午夜十八禁免费视频| 国产精品国产三级国产专区5o| 岛国毛片在线播放| 大码成人一级视频| 午夜视频精品福利| 欧美精品一区二区大全| 中文字幕高清在线视频| 在线永久观看黄色视频| 性少妇av在线| 亚洲av片天天在线观看| 国产亚洲av片在线观看秒播厂| 肉色欧美久久久久久久蜜桃| 日韩制服骚丝袜av| 久久精品亚洲熟妇少妇任你| 人人妻人人爽人人添夜夜欢视频| 成人三级做爰电影| 日韩欧美国产一区二区入口| 嫁个100分男人电影在线观看| 精品高清国产在线一区| 亚洲精品一二三| 99久久国产精品久久久| 国产亚洲av高清不卡| 女性生殖器流出的白浆| 男女高潮啪啪啪动态图| 国产一区有黄有色的免费视频| 久久性视频一级片| 美国免费a级毛片| 1024香蕉在线观看| 桃花免费在线播放| 黄色 视频免费看| 国产一区二区三区在线臀色熟女 | 19禁男女啪啪无遮挡网站| 国产男人的电影天堂91| 亚洲精品一区蜜桃| 免费观看a级毛片全部| 在线十欧美十亚洲十日本专区| 在线精品无人区一区二区三| 一级片'在线观看视频| 另类精品久久| 狠狠狠狠99中文字幕| 人人妻人人添人人爽欧美一区卜| 国产精品香港三级国产av潘金莲| 亚洲国产av影院在线观看| 欧美日韩精品网址| 中文字幕人妻丝袜制服| 国产成人av激情在线播放| 国产亚洲av片在线观看秒播厂| 国产精品偷伦视频观看了| 无限看片的www在线观看| 欧美老熟妇乱子伦牲交| 一级片'在线观看视频| 午夜视频精品福利| 久久精品亚洲av国产电影网| 国产精品99久久99久久久不卡| 90打野战视频偷拍视频| 午夜免费鲁丝| 另类亚洲欧美激情| 久久久久国产一级毛片高清牌| 性色av一级| 肉色欧美久久久久久久蜜桃| 大片免费播放器 马上看| 午夜福利一区二区在线看| 热99re8久久精品国产| 亚洲欧美日韩另类电影网站| 男女之事视频高清在线观看| 亚洲av成人一区二区三| a级片在线免费高清观看视频| 一进一出抽搐动态| 亚洲精品在线美女| 18在线观看网站| 我要看黄色一级片免费的| 国产在线视频一区二区| 国产一区二区 视频在线| 国产在线观看jvid| 亚洲av男天堂| 午夜精品国产一区二区电影| 91国产中文字幕| 欧美激情久久久久久爽电影 | 国产成人av教育| 一级黄色大片毛片| 高清黄色对白视频在线免费看| 日日夜夜操网爽| 国产av一区二区精品久久| 久久精品久久久久久噜噜老黄| 精品少妇一区二区三区视频日本电影| 在线看a的网站| 国产免费视频播放在线视频| 高清视频免费观看一区二区| 欧美另类一区| 亚洲国产看品久久| 成年女人毛片免费观看观看9 | 精品国产国语对白av| 高清视频免费观看一区二区| 高清在线国产一区| 国产xxxxx性猛交| 欧美日韩福利视频一区二区| 欧美亚洲日本最大视频资源| 国产黄频视频在线观看| 国产精品免费视频内射| 亚洲一码二码三码区别大吗| 人妻人人澡人人爽人人| 久久久国产精品麻豆| 亚洲国产精品一区三区| 久久久精品免费免费高清| 成人国语在线视频| 亚洲精品一区蜜桃| 久久这里只有精品19| 国产精品久久久久久精品古装| 美女大奶头黄色视频| 久久精品国产综合久久久| 美女高潮喷水抽搐中文字幕| 青春草亚洲视频在线观看| 国产又爽黄色视频| av又黄又爽大尺度在线免费看| 亚洲精品国产av蜜桃| 亚洲五月婷婷丁香| 国产精品国产三级国产专区5o| 久久99一区二区三区| 亚洲中文日韩欧美视频| 成人免费观看视频高清| 国产成人免费无遮挡视频| 亚洲精品一二三| 国产男女内射视频| 成年动漫av网址| 亚洲成国产人片在线观看| 午夜精品国产一区二区电影| 亚洲人成电影免费在线| 在线亚洲精品国产二区图片欧美| 麻豆av在线久日| 色老头精品视频在线观看| 久久女婷五月综合色啪小说| 啦啦啦视频在线资源免费观看| 人人妻人人爽人人添夜夜欢视频| 黑人欧美特级aaaaaa片| 亚洲成人国产一区在线观看| 久久影院123| 国产淫语在线视频| 亚洲avbb在线观看| 国产亚洲精品第一综合不卡| 国产区一区二久久| 伊人久久大香线蕉亚洲五| 亚洲天堂av无毛| 一区二区三区激情视频| 国产色视频综合| 97人妻天天添夜夜摸| 精品国产乱码久久久久久男人| 啦啦啦在线免费观看视频4| 亚洲第一青青草原| 久久影院123| 国产av一区二区精品久久| 久久久国产一区二区| 国产一区有黄有色的免费视频| 免费不卡黄色视频| 欧美 日韩 精品 国产| 最新的欧美精品一区二区| 国产精品99久久99久久久不卡| 国产福利在线免费观看视频| 老司机影院成人| 精品国产一区二区三区久久久樱花| 啦啦啦中文免费视频观看日本| 亚洲男人天堂网一区| 久久ye,这里只有精品| 精品一品国产午夜福利视频| 亚洲avbb在线观看| 久久久精品免费免费高清| 亚洲avbb在线观看| 国产av一区二区精品久久| 日本猛色少妇xxxxx猛交久久| 女人高潮潮喷娇喘18禁视频| 日韩大片免费观看网站| 日本欧美视频一区| 国产男女内射视频| 考比视频在线观看| 青春草亚洲视频在线观看| 欧美午夜高清在线| 正在播放国产对白刺激| 免费在线观看完整版高清| 成人18禁高潮啪啪吃奶动态图| 久久久欧美国产精品| 日本猛色少妇xxxxx猛交久久| 精品国产一区二区三区四区第35| www.精华液| 在线观看免费视频网站a站| 国产亚洲欧美精品永久| 国产在线观看jvid| 免费久久久久久久精品成人欧美视频| 一区福利在线观看| 成年女人毛片免费观看观看9 | 精品第一国产精品| 高清视频免费观看一区二区| 日日爽夜夜爽网站| 国产一区二区三区在线臀色熟女 | 亚洲激情五月婷婷啪啪| 国产精品一二三区在线看| 国产精品成人在线| 老司机靠b影院| 午夜精品久久久久久毛片777| 丝袜脚勾引网站| 日韩视频一区二区在线观看| 亚洲国产欧美在线一区| 丝袜在线中文字幕| 亚洲七黄色美女视频| 精品国产乱子伦一区二区三区 | a在线观看视频网站| 亚洲av片天天在线观看| 国产xxxxx性猛交| a级毛片在线看网站| 一区二区三区四区激情视频| 啦啦啦免费观看视频1| 欧美人与性动交α欧美精品济南到| 国产精品熟女久久久久浪| 十八禁网站免费在线| 国产亚洲欧美精品永久| 亚洲全国av大片| 十八禁人妻一区二区| 又黄又粗又硬又大视频| 亚洲国产日韩一区二区| 欧美另类亚洲清纯唯美| 亚洲精品一区蜜桃| 中文欧美无线码| 下体分泌物呈黄色| 亚洲人成77777在线视频| 9色porny在线观看| 欧美97在线视频| 日韩一卡2卡3卡4卡2021年| 日韩中文字幕欧美一区二区| 性色av乱码一区二区三区2| 日日爽夜夜爽网站| 亚洲男人天堂网一区| 多毛熟女@视频| 在线观看人妻少妇| 国产欧美日韩综合在线一区二区| 久久国产精品影院| 免费观看av网站的网址| 精品国产乱子伦一区二区三区 | 精品一区二区三区四区五区乱码| 老司机在亚洲福利影院| 人人妻人人澡人人爽人人夜夜| 黑人猛操日本美女一级片| 久久人人97超碰香蕉20202| 久久天躁狠狠躁夜夜2o2o| 精品卡一卡二卡四卡免费| 欧美午夜高清在线| 久久久久视频综合| www.自偷自拍.com| 91国产中文字幕| 一二三四在线观看免费中文在| 欧美激情高清一区二区三区| 精品国内亚洲2022精品成人 | 高清av免费在线| 狠狠精品人妻久久久久久综合| 18在线观看网站| 亚洲国产精品成人久久小说| 人人妻人人澡人人爽人人夜夜| 一级毛片女人18水好多| 欧美午夜高清在线| 夫妻午夜视频| 国产真人三级小视频在线观看| 老汉色av国产亚洲站长工具| 老司机福利观看| 男人舔女人的私密视频| 国产精品成人在线| 亚洲欧美精品综合一区二区三区| 国产av精品麻豆| 脱女人内裤的视频| 亚洲,欧美精品.| 亚洲国产中文字幕在线视频| 不卡av一区二区三区| 黄片小视频在线播放| 欧美日韩亚洲国产一区二区在线观看 | 亚洲精品国产一区二区精华液| 欧美午夜高清在线| 中文字幕av电影在线播放| 精品国产一区二区三区久久久樱花| 免费日韩欧美在线观看| 嫁个100分男人电影在线观看| 欧美 日韩 精品 国产| 99久久精品国产亚洲精品| 国产真人三级小视频在线观看| www.熟女人妻精品国产| 欧美激情极品国产一区二区三区| 免费在线观看视频国产中文字幕亚洲 | 黄色毛片三级朝国网站| 日韩欧美免费精品| 国产视频一区二区在线看| 欧美日韩一级在线毛片| 国产日韩欧美在线精品| 国产日韩一区二区三区精品不卡| 五月开心婷婷网| 国产在视频线精品| 这个男人来自地球电影免费观看| 男人舔女人的私密视频| 欧美日韩亚洲国产一区二区在线观看 | 丝袜美足系列| 高清黄色对白视频在线免费看| 亚洲欧美激情在线| 亚洲国产av影院在线观看| 男女无遮挡免费网站观看| 欧美久久黑人一区二区| 黑丝袜美女国产一区| www日本在线高清视频| 国产精品久久久久久人妻精品电影 | 久久久久久人人人人人| av又黄又爽大尺度在线免费看| 国产91精品成人一区二区三区 | 国产精品影院久久| 久久久国产一区二区| 高清视频免费观看一区二区| 搡老熟女国产l中国老女人| 亚洲国产欧美一区二区综合| 国产精品久久久久久精品古装| 国产成人免费观看mmmm| kizo精华| 国产成人a∨麻豆精品| 99国产精品一区二区蜜桃av | 成人国产av品久久久| 美女国产高潮福利片在线看| 国产伦人伦偷精品视频| 国产在视频线精品| 久久女婷五月综合色啪小说| 久久人人爽av亚洲精品天堂| 在线永久观看黄色视频| 一级片'在线观看视频| 国产一区有黄有色的免费视频| 99热网站在线观看| 涩涩av久久男人的天堂| 女人精品久久久久毛片| 国产精品影院久久| 三级毛片av免费| 亚洲伊人色综图| 日韩制服骚丝袜av| 精品人妻一区二区三区麻豆| 国产区一区二久久| 亚洲国产毛片av蜜桃av| 在线av久久热| 极品少妇高潮喷水抽搐| 三级毛片av免费| av线在线观看网站| av片东京热男人的天堂| 精品亚洲成a人片在线观看| e午夜精品久久久久久久| 丁香六月天网| 久久久久国产一级毛片高清牌| 日本欧美视频一区| 欧美日韩亚洲国产一区二区在线观看 | 欧美日韩亚洲综合一区二区三区_| 日韩免费高清中文字幕av| 亚洲九九香蕉| 国产精品熟女久久久久浪| 99国产精品一区二区蜜桃av | e午夜精品久久久久久久| 无遮挡黄片免费观看| 亚洲欧美成人综合另类久久久| 嫩草影视91久久| 国产麻豆69| 中文字幕制服av| 国产欧美日韩一区二区精品| 亚洲全国av大片| 亚洲国产av新网站| 久久人人97超碰香蕉20202| 视频区图区小说| 97在线人人人人妻| 两人在一起打扑克的视频| 国产野战对白在线观看| 成人国产av品久久久| 精品人妻1区二区| 日韩大片免费观看网站| 欧美97在线视频| 国产精品欧美亚洲77777| 宅男免费午夜| 黄片播放在线免费| 女人久久www免费人成看片| 精品卡一卡二卡四卡免费| 日韩欧美免费精品| 国产老妇伦熟女老妇高清| 最近最新免费中文字幕在线| 亚洲三区欧美一区| av福利片在线| 精品亚洲成a人片在线观看| 中文精品一卡2卡3卡4更新| 久久久精品免费免费高清| 天堂8中文在线网| 国产精品九九99| 一本综合久久免费| 高清黄色对白视频在线免费看| 久久99一区二区三区| 天天躁日日躁夜夜躁夜夜| 三上悠亚av全集在线观看| 免费不卡黄色视频| 久久毛片免费看一区二区三区| 亚洲 欧美一区二区三区| 免费观看人在逋| 日韩 亚洲 欧美在线| 亚洲一卡2卡3卡4卡5卡精品中文| videos熟女内射| 多毛熟女@视频| 啦啦啦 在线观看视频| 老司机深夜福利视频在线观看 | 一级毛片女人18水好多| 精品国产乱码久久久久久男人| 亚洲五月色婷婷综合| 麻豆国产av国片精品| 亚洲少妇的诱惑av| www.熟女人妻精品国产| 美女高潮到喷水免费观看| 国产精品熟女久久久久浪| 成人手机av| 久久精品国产a三级三级三级| 少妇的丰满在线观看| 国产不卡av网站在线观看| 精品高清国产在线一区| 亚洲一码二码三码区别大吗| 国产无遮挡羞羞视频在线观看| 老司机午夜十八禁免费视频| 精品人妻在线不人妻| 亚洲 欧美一区二区三区| 免费女性裸体啪啪无遮挡网站| 久久久精品区二区三区| 热99re8久久精品国产| 精品一品国产午夜福利视频| 成人18禁高潮啪啪吃奶动态图| 国产一区二区三区综合在线观看| 久久 成人 亚洲| 精品免费久久久久久久清纯 | 桃花免费在线播放| 免费少妇av软件| 法律面前人人平等表现在哪些方面 | 亚洲精品久久久久久婷婷小说| 欧美+亚洲+日韩+国产| 亚洲综合色网址| 久久天堂一区二区三区四区| 久久国产亚洲av麻豆专区| 国产免费福利视频在线观看| 狂野欧美激情性bbbbbb| 99精品久久久久人妻精品| 少妇精品久久久久久久|