• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    增量式神經(jīng)網(wǎng)絡(luò)聚類算法*

    2016-11-28 01:18:11劉培磊唐晉韜謝松縣
    關(guān)鍵詞:增量神經(jīng)元聚類

    劉培磊,唐晉韜,謝松縣,王 挺

    (1.國(guó)防科技大學(xué) 計(jì)算機(jī)學(xué)院, 湖南 長(zhǎng)沙 410073;2.國(guó)防信息學(xué)院 信息化建設(shè)系 信息資源管理教研室, 湖北 武漢 430010)

    ?

    增量式神經(jīng)網(wǎng)絡(luò)聚類算法*

    劉培磊1,2,唐晉韜1,謝松縣1,王 挺1

    (1.國(guó)防科技大學(xué) 計(jì)算機(jī)學(xué)院, 湖南 長(zhǎng)沙 410073;2.國(guó)防信息學(xué)院 信息化建設(shè)系 信息資源管理教研室, 湖北 武漢 430010)

    神經(jīng)網(wǎng)絡(luò)模型具有強(qiáng)大的問(wèn)題建模能力,但是傳統(tǒng)的反向傳播算法只能進(jìn)行批量監(jiān)督學(xué)習(xí),并且訓(xùn)練開(kāi)銷很大。針對(duì)傳統(tǒng)算法的不足,提出全新的增量式神經(jīng)網(wǎng)絡(luò)模型及其聚類算法。該模型基于生物神經(jīng)學(xué)實(shí)驗(yàn)證據(jù),引入新的神經(jīng)元激勵(lì)函數(shù)和突觸調(diào)節(jié)函數(shù),賦予模型以堅(jiān)實(shí)的統(tǒng)計(jì)理論基礎(chǔ)。在此基礎(chǔ)上,提出一種自適應(yīng)的增量式神經(jīng)網(wǎng)絡(luò)聚類算法。算法中引入“勝者得全”式競(jìng)爭(zhēng)等學(xué)習(xí)機(jī)制,在增量聚類過(guò)程中成功避免了“遺忘災(zāi)難”問(wèn)題。在經(jīng)典數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明:該聚類算法與K-means等傳統(tǒng)聚類算法效果相當(dāng),特別是在增量學(xué)習(xí)任務(wù)的時(shí)空開(kāi)銷方面具有較大優(yōu)勢(shì)。

    神經(jīng)網(wǎng)絡(luò);增量學(xué)習(xí);聚類算法;時(shí)間開(kāi)銷

    隨著互聯(lián)網(wǎng)和社交媒體的廣泛發(fā)展,大量無(wú)標(biāo)注的數(shù)據(jù)源源不斷地產(chǎn)生[1-2]。這些數(shù)據(jù)的海量性、無(wú)標(biāo)注性、實(shí)時(shí)性等特點(diǎn)給傳統(tǒng)的機(jī)器學(xué)習(xí)模型帶來(lái)了很大的挑戰(zhàn)[3]。傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)模型具有強(qiáng)大的問(wèn)題建模能力,理論上含有足夠多隱藏層神經(jīng)元的神經(jīng)網(wǎng)絡(luò)可以逼近任意函數(shù)。但是主流的學(xué)習(xí)算法如反向傳播(Back Propergating,BP)算法,使用梯度下降的方法進(jìn)行學(xué)習(xí),是批量監(jiān)督學(xué)習(xí)算法,即所有的訓(xùn)練數(shù)據(jù)必須一次性全部輸入學(xué)習(xí)模型。而模型一旦訓(xùn)練完畢,再碰到新的輸入數(shù)據(jù)時(shí),只能將新數(shù)據(jù)與舊數(shù)據(jù)并在一起重新訓(xùn)練模型。這個(gè)問(wèn)題被稱為“遺忘災(zāi)難”[4],即新學(xué)習(xí)的內(nèi)容會(huì)導(dǎo)致已經(jīng)學(xué)習(xí)的內(nèi)容被“遺忘”。 梯度下降的方法帶來(lái)的另一個(gè)問(wèn)題是訓(xùn)練的時(shí)間開(kāi)銷很大,難以在線處理海量的實(shí)時(shí)性數(shù)據(jù)[5]。近年來(lái),熱門的深度學(xué)習(xí)模型也面臨類似的計(jì)算時(shí)間開(kāi)銷問(wèn)題[6],因此訓(xùn)練規(guī)模較大的深度神經(jīng)網(wǎng)絡(luò)往往需要使用大規(guī)模并行計(jì)算集群。自適應(yīng)共振理論(Adaptive Resonance Theory,ART)模型提出了一套不錯(cuò)的應(yīng)對(duì)辦法,它可以快速地進(jìn)行無(wú)監(jiān)督聚類,并且具有增量學(xué)習(xí)的特性,在解釋人腦工作機(jī)制方面也做得比BP網(wǎng)絡(luò)更充分[4]。然而這種模型也面臨著自己的問(wèn)題,一種典型的質(zhì)疑是它的理論基礎(chǔ)不夠堅(jiān)實(shí),不完全符合統(tǒng)計(jì)學(xué)原理[7]。ART模型的神經(jīng)元激勵(lì)函數(shù)、突觸連接權(quán)重的調(diào)節(jié)方法等都是經(jīng)驗(yàn)式的,缺少嚴(yán)格的數(shù)學(xué)理論支撐。

    本文通過(guò)借鑒生物神經(jīng)網(wǎng)絡(luò)的研究成果,提出了全新的增量神經(jīng)網(wǎng)絡(luò)模型IncNet及其無(wú)監(jiān)督聚類算法。主要貢獻(xiàn)包括三方面:引入新的神經(jīng)元激勵(lì)函數(shù)和突觸連接權(quán)值調(diào)節(jié)函數(shù),并闡明這些函數(shù)背后的統(tǒng)計(jì)學(xué)意義,使得IncNet模型建立在堅(jiān)實(shí)的統(tǒng)計(jì)理論基礎(chǔ)之上,為神經(jīng)網(wǎng)絡(luò)算法的研發(fā)提供一個(gè)新的視角和一次有益嘗試。在此基礎(chǔ)上提出一種全新的神經(jīng)網(wǎng)絡(luò)無(wú)監(jiān)督學(xué)習(xí)算法。鑒于神經(jīng)網(wǎng)絡(luò)模型具有強(qiáng)大的問(wèn)題建模能力,因此神經(jīng)網(wǎng)絡(luò)上的無(wú)監(jiān)督學(xué)習(xí)算法具有重要意義。實(shí)際上,深度學(xué)習(xí)取得成功的一個(gè)重要原因就在于將“無(wú)監(jiān)督學(xué)習(xí)”引入訓(xùn)練階段。

    1 前提與假設(shè)

    模型的性能與輸入數(shù)據(jù)樣本的分布特性是息息相關(guān)的,很多模型只有針對(duì)特定分布類型的數(shù)據(jù)才能取得最好的效果。比如貝葉斯網(wǎng)絡(luò)和支持向量機(jī)等都有一個(gè)“特征獨(dú)立性”的假設(shè)?;谏飳W(xué)實(shí)驗(yàn)證據(jù),IncNet模型做出第1.1節(jié)的合理假設(shè)。

    1.1 數(shù)據(jù)分布的假設(shè)

    時(shí)空局部性假設(shè):樣本分布在時(shí)間和空間維度上具有局部性的特性。

    所謂局部性是指相似的樣本在時(shí)間段內(nèi)和空間位置上比較接近。以時(shí)間局部性為例,樣本在時(shí)間軸上不是隨機(jī)分布的,而是簇狀聚集的。對(duì)應(yīng)到現(xiàn)實(shí)中,事件往往具有突發(fā)性[8]。因此,在事件發(fā)生的特定時(shí)間段上就可以采集到大量的類似樣本,而在這個(gè)時(shí)間之前或者之后采集到的類似樣本量就很少??臻g局部性的含義與時(shí)間局部性類似。

    1.2 神經(jīng)元激勵(lì)函數(shù)

    神經(jīng)元激勵(lì)函數(shù)如式(1)所示。其中,xi是樹突輸入,wi是突觸連接的權(quán)值,f(x)是神經(jīng)元的興奮值,ci是常數(shù)。

    (1)

    神經(jīng)學(xué)文獻(xiàn)表明,一個(gè)神經(jīng)元只有在被激發(fā)的時(shí)候才會(huì)從軸突上釋放信號(hào)物質(zhì),而沒(méi)被激發(fā)的神經(jīng)元是不釋放任何信號(hào)物質(zhì)的[9]。因此IncNet模型認(rèn)為未激發(fā)的神經(jīng)元不傳遞信號(hào),而傳統(tǒng)模型認(rèn)為未激發(fā)的神經(jīng)元表示 “0”信號(hào)[10]。式(1)的統(tǒng)計(jì)意義將會(huì)在第2.1.2節(jié)進(jìn)行詳細(xì)解釋。

    1.3 突觸連接權(quán)值調(diào)節(jié)機(jī)制

    在真實(shí)的生物神經(jīng)網(wǎng)絡(luò)中,兩個(gè)神經(jīng)元之間由多個(gè)突觸連接在一起,并且新的刺激會(huì)不斷地生成新的突觸。 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型一般將這些突觸簡(jiǎn)化為單一連接,其中隱含的假設(shè)是這些突觸的總強(qiáng)度值是單個(gè)突觸的線性疊加[6]。 而來(lái)自神經(jīng)學(xué)的證據(jù)表明:連接強(qiáng)度的增長(zhǎng)率不是恒定的,而是與當(dāng)前已有連接強(qiáng)度成負(fù)相關(guān)的關(guān)系[11]。 因此IncNet模型中的突觸連接權(quán)值非線性增長(zhǎng),如式(2)所示,其中,w表示連接強(qiáng)度,si表示第i次刺激信號(hào)生成的突觸數(shù)。公式(2)的統(tǒng)計(jì)學(xué)意義將會(huì)在第2.3節(jié)解釋。

    (2)

    1.4 神經(jīng)網(wǎng)絡(luò)的自組織機(jī)制

    生物神經(jīng)網(wǎng)絡(luò)中每個(gè)神經(jīng)元只能知道自身及其直接連接的神經(jīng)元的信息,即每個(gè)神經(jīng)元知道的信息都是局部的[4]。而BP算法則要求知道整個(gè)網(wǎng)絡(luò)的全局信息,這一點(diǎn)在生物學(xué)上難以實(shí)現(xiàn)[5]。生物神經(jīng)網(wǎng)絡(luò)實(shí)際上通過(guò)眾多神經(jīng)元的自組織來(lái)構(gòu)建,其中主要的機(jī)制之一就是側(cè)向競(jìng)爭(zhēng)。生物神經(jīng)元的競(jìng)爭(zhēng)機(jī)制比較復(fù)雜,IncNet模型將側(cè)向競(jìng)爭(zhēng)簡(jiǎn)化為“勝者得全”的方式。這種編碼方式又稱為 “祖母細(xì)胞(grandmother cell)”編碼[12],即單個(gè)輸入樣本最終映射到單個(gè)神經(jīng)元,受到神經(jīng)學(xué)實(shí)驗(yàn)證據(jù)的支持。

    與“祖母細(xì)胞”編碼相對(duì)應(yīng)的是傳統(tǒng)神經(jīng)元模型使用的“集體編碼(population coding)”方式[12],即每個(gè)輸入樣本需要多個(gè)神經(jīng)元共同合作來(lái)編碼。但是,傳統(tǒng)神經(jīng)元模型面臨的一個(gè)重要問(wèn)題是“異或”問(wèn)題[13],即單層神經(jīng)網(wǎng)絡(luò)無(wú)法表示非線性函數(shù)。而IncNet模型中的單層網(wǎng)絡(luò)可以解決異或問(wèn)題,第2.1.4節(jié)將會(huì)詳細(xì)敘述。

    2 模型與算法

    基于第1節(jié)的前提與假設(shè),本節(jié)提出IncNet模型。在詳細(xì)介紹問(wèn)題抽象和模型本身的同時(shí),著重闡述模型的統(tǒng)計(jì)學(xué)意義。

    2.1 模型

    2.1.1 問(wèn)題抽象

    IncNet模型面對(duì)的問(wèn)題可以抽象為:對(duì)于任意一個(gè)輸入樣本x=(xi),如何讓某個(gè)神經(jīng)元編碼這個(gè)樣本,以便下次遇到類似輸入樣本的時(shí)候,這個(gè)神經(jīng)元會(huì)被最大限度地激發(fā)。這種編碼本質(zhì)上是神經(jīng)元通過(guò)特定的方案來(lái)加強(qiáng)樹突連接強(qiáng)度,從而“記住”這個(gè)樣本。BP神經(jīng)網(wǎng)絡(luò)是通過(guò)問(wèn)題空間的梯度下降搜索來(lái)逼近這個(gè)神經(jīng)網(wǎng)絡(luò)編碼方案的,這導(dǎo)致時(shí)間開(kāi)銷很大[5],并且找到的編碼方案很可能是局部最優(yōu)點(diǎn)而非全局最優(yōu)點(diǎn)。

    那么能否通過(guò)計(jì)算的方式直接找到這個(gè)全局最佳編碼呢?在第1節(jié)的前提與假設(shè)成立的情況下,理論上是可以通過(guò)計(jì)算直接找到這全局最優(yōu)編碼方案的??紤]最簡(jiǎn)單的樣本x=(x1,x2),其中xi是[0,1]區(qū)間的任意值?,F(xiàn)實(shí)中每個(gè)神經(jīng)元的樹突分支資源(可以形成的突出數(shù)量)是有限的,因此問(wèn)題就變?yōu)椋阂粋€(gè)神經(jīng)元怎樣將其恒定的突觸分支資源分配到x1和x2,才能使得自身輸入向量x被最大限度地激發(fā)呢?這是一個(gè)典型的資源優(yōu)化配置問(wèn)題,如果突觸連接強(qiáng)度是線性增長(zhǎng)的,那么神經(jīng)元傾向于將所有突觸分支資源都分配給數(shù)值最大的元素xi,達(dá)不到“記住”輸入模式x的目的。因此資源必須分散到每個(gè)輸入信號(hào)xi,此時(shí)式(2)應(yīng)該是一個(gè)單調(diào)增長(zhǎng)的凸函數(shù)。將式(1)、式(2)聯(lián)立,并加入樹突分支資源守恒的約束條件可以得到式(3)。問(wèn)題抽象為:求出使得f(si)取得最大值的si。很明顯最佳的si與xi應(yīng)該是正相關(guān)的。

    (3)

    這種突觸資源分配方案不同于ART等傳統(tǒng)模型,ART對(duì)單個(gè)神經(jīng)元的樹突連接強(qiáng)度做了歸一化處理,即單個(gè)神經(jīng)元的所有樹突連接強(qiáng)度的總和是一個(gè)恒定值[6]。而IncNet模型中式(2)決定了單個(gè)神經(jīng)元所有樹突連接強(qiáng)度總和不恒定,恒定的是單個(gè)神經(jīng)元樹突分支資源總和。通過(guò)這種方式,IncNet模型將神經(jīng)編碼問(wèn)題轉(zhuǎn)化為了資源優(yōu)化配置問(wèn)題。

    2.1.2 神經(jīng)元激勵(lì)函數(shù)的統(tǒng)計(jì)意義

    假設(shè)一個(gè)物體有許多特征,并且某一時(shí)刻只有其中的n個(gè)特征是可見(jiàn)的,那么在此條件下可以正確認(rèn)定這個(gè)物體的概率是多少呢?可以計(jì)算出這個(gè)概率是:

    P(O)=P(O1+O2+…+Ox)=1-P(O1O2…On)= 1-P(O1)P(O2)…

    其中,O和Ai分別表示物體及物體的一個(gè)特征發(fā)生這個(gè)隨機(jī)事件。這個(gè)式子可以進(jìn)一步簡(jiǎn)化為式(4),其中xi=lgP(Oi)。

    (4)

    對(duì)照式(1)中的神經(jīng)元激勵(lì)函數(shù)可以看出:神經(jīng)元和樹突的信號(hào)量分別對(duì)應(yīng)概率P(O)和P(Oi)。即神經(jīng)元信號(hào)可以表示物體的發(fā)生概率,而樹突信號(hào)表示物體某個(gè)特征發(fā)生的概率,因此式(1)具有統(tǒng)計(jì)學(xué)意義。

    2.1.3 突觸連接強(qiáng)度的統(tǒng)計(jì)意義

    式(2)中的突觸連接權(quán)值變化曲線同樣具有統(tǒng)計(jì)意義。根據(jù)樣本分布的時(shí)空局部性假設(shè),樣本在時(shí)間分布上具有時(shí)間局部性的特點(diǎn)。假設(shè)一個(gè)信號(hào)出現(xiàn)一次時(shí)對(duì)應(yīng)的特征具有某個(gè)置信度c,當(dāng)這個(gè)信號(hào)多次重復(fù)出現(xiàn)的時(shí)候,特征信號(hào)的置信度c也會(huì)增高。具體來(lái)說(shuō),假設(shè)一個(gè)信號(hào)到目前為止出現(xiàn)了m次,那么與式(4)的推理過(guò)程類似,可以得到相應(yīng)特征的置信度為:

    w=c3(1-e-c4m)

    (5)

    對(duì)照式(2)、式(5)可知,突觸連接的強(qiáng)度對(duì)應(yīng)物體某一特征的置信度,這個(gè)置信度隨著刺激信號(hào)的重復(fù)出現(xiàn)而持續(xù)地非線性增長(zhǎng)。

    2.1.4 側(cè)向競(jìng)爭(zhēng)與“異或問(wèn)題”

    傳統(tǒng)的單層感知機(jī)存在“異或問(wèn)題”,即單層感知機(jī)無(wú)法表示簡(jiǎn)單的異或函數(shù),這意味著這個(gè)模型的表示能力非常有限[13]。但是在IncNet模型中,單層網(wǎng)絡(luò)就可以表示異或函數(shù),如圖1所示。實(shí)際上可以證明,單層網(wǎng)絡(luò)的IncNet模型可以表示任意布爾函數(shù)。

    (6)

    具體來(lái)說(shuō),任意邏輯表達(dá)式可以轉(zhuǎn)換成式(6)的形式,其中aj是原子公式或者其否定形式。由于輸入向量是由互斥的神經(jīng)元對(duì)構(gòu)成,如圖1所示,pi可以使用輸出層的單個(gè)神經(jīng)元來(lái)表示。只要輸出層神經(jīng)元之間是“或”或者“異或”的關(guān)系,P就可以使用單層網(wǎng)絡(luò)來(lái)表示。由于輸出層神經(jīng)元也是互斥的,這個(gè)“異或”關(guān)系很容易達(dá)成。實(shí)際上,可以認(rèn)為圖1中的神經(jīng)元y1,y2和y3分別表示異或函數(shù)真值表中的一行,所以圖1的網(wǎng)絡(luò)就可以表示“異或”函數(shù)。而異或函數(shù)真值表中輸出為0的那些行可以用抑制性神經(jīng)元(即“與非門”)來(lái)表示或者省略。

    圖1 單層網(wǎng)絡(luò)表示異或函數(shù)Fig.1 Single layer network representing “XOR” function

    從圖1中可以看出,競(jìng)爭(zhēng)導(dǎo)致IncNet的每一層神經(jīng)元向量都是稀疏的[14]。單個(gè)神經(jīng)元僅能表示邏輯函數(shù)真值表中的一行,而傳統(tǒng)模型中單個(gè)神經(jīng)元即可表示整個(gè)線性邏輯函數(shù)。與傳統(tǒng)模型相比,Incnet模型表示能力更強(qiáng),而代價(jià)是需要更多數(shù)量的神經(jīng)元。從信息論的角度看,IncNet模型中的神經(jīng)元脈沖信號(hào)是單值而非二值的,即一個(gè)神經(jīng)元只能表示半比特信息,一比特信息需由兩個(gè)互斥的神經(jīng)元來(lái)表示。

    2.2聚類算法

    2.2.1 框架概述

    模型如圖1所示,形式上與單層感知機(jī)比較類似,但是IncNet模型輸入向量中的元素存在互斥性而非獨(dú)立的。并且輸出層神經(jīng)元之間存在“勝者得全”的側(cè)向競(jìng)爭(zhēng)。關(guān)鍵的不同在于IncNet模型精心選取的神經(jīng)元激勵(lì)函數(shù)和突觸連接權(quán)值調(diào)節(jié)函數(shù)使得這個(gè)神經(jīng)網(wǎng)絡(luò)模型建立在了較為嚴(yán)格的統(tǒng)計(jì)學(xué)基礎(chǔ)上。而BP網(wǎng)絡(luò)和ART網(wǎng)絡(luò)等傳統(tǒng)模型的神經(jīng)元激勵(lì)函數(shù)一般是通過(guò)經(jīng)驗(yàn)設(shè)定的,通常來(lái)說(shuō)激勵(lì)函數(shù)是一個(gè)S型的曲線即可。ART模型的突觸連接權(quán)值調(diào)節(jié)函數(shù)也是經(jīng)驗(yàn)式的,并且突觸強(qiáng)度會(huì)采取歸一化的措施。BP網(wǎng)絡(luò)則完全沒(méi)有突觸連接權(quán)值調(diào)節(jié)函數(shù),是根據(jù)誤差梯度下降的原則來(lái)“試探”得到突觸連接權(quán)值的。

    2.2.2 算法流程

    聚類算法的整體思想是:尋找與當(dāng)前樣本最相似的聚類,根據(jù)當(dāng)前樣本調(diào)整這個(gè)聚類的質(zhì)心使之變得與當(dāng)前樣本更接近。IncNet聚類算法避免了像BP算法一樣在問(wèn)題空間上進(jìn)行誤差梯度下降式搜索,所有的樣本只需要逐個(gè)進(jìn)入模型訓(xùn)練一遍即可,因此理論上訓(xùn)練速度會(huì)非???。聚類算法的具體過(guò)程如圖2所示。每個(gè)神經(jīng)元表示一個(gè)聚類,輸入樣本依次進(jìn)入IncNet網(wǎng)絡(luò)模型進(jìn)行檢索,根據(jù)匹配的相似度和一個(gè)閾值參數(shù)共同決定是否新建一個(gè)新的神經(jīng)元或者更新現(xiàn)有的神經(jīng)元。這個(gè)閾值參數(shù)實(shí)際上控制著聚類的粒度和聚類的數(shù)量。

    圖2 聚類算法流程圖Fig.2 Process of clustering algorithm

    根據(jù)式(2)可知,在聚類過(guò)程中突觸連接強(qiáng)度是單調(diào)增長(zhǎng)的,所以新學(xué)習(xí)的知識(shí)不會(huì)導(dǎo)致已經(jīng)學(xué)習(xí)的舊知識(shí)的遺忘,從而避免了BP算法中存在的“遺忘災(zāi)難”問(wèn)題[4]。ART模型對(duì)連接強(qiáng)度進(jìn)行了歸一化處理,因此它的突觸連接強(qiáng)度不是單調(diào)增長(zhǎng)的,這導(dǎo)致ART模型只能在一定程度上調(diào)和 “遺忘災(zāi)難”的問(wèn)題而無(wú)法徹底解決該問(wèn)題。ART模型對(duì)連接強(qiáng)度進(jìn)行歸一化處理是為了避免學(xué)習(xí)過(guò)程中的“偏置”,即最先學(xué)習(xí)的知識(shí)會(huì)占據(jù)優(yōu)勢(shì)。而正如第2.1.3節(jié)所述,在時(shí)空局部性假設(shè)成立的前提下,這種“偏置”在IncNet模型中具有重要的統(tǒng)計(jì)意義。

    2.3 意義

    IncNet模型是一個(gè)純粹的產(chǎn)生式模型,并且每個(gè)神經(jīng)元只與它直接連接的神經(jīng)元之間交換信息,因此模型具有良好的可擴(kuò)展性。IncNet模型可以縱向擴(kuò)展成包含多個(gè)層次的深度網(wǎng)絡(luò),相鄰的層間可以采取類似卷積網(wǎng)絡(luò)的結(jié)構(gòu):每個(gè)神經(jīng)元只與前一層的部分神經(jīng)元連接,而不是全連接。并且IncNet模型從理論上提供了這樣一個(gè)有益的結(jié)論:對(duì)符合時(shí)空局部性假設(shè)的樣本數(shù)據(jù),存在更快速的辦法來(lái)進(jìn)行神經(jīng)網(wǎng)絡(luò)的無(wú)監(jiān)督學(xué)習(xí)。這對(duì)深度學(xué)習(xí)中無(wú)監(jiān)督預(yù)訓(xùn)練具有重要意義。傳統(tǒng)深度網(wǎng)絡(luò)中,這種預(yù)訓(xùn)練一般是通過(guò)梯度下降的方法來(lái)進(jìn)行的,因此時(shí)間復(fù)雜度很高。此外,IncNet模型在生物神經(jīng)學(xué)方面也有一定的意義。相比BP模型,IncNet模型與現(xiàn)有神經(jīng)學(xué)實(shí)驗(yàn)證據(jù)吻合度更高。并且作為一個(gè)產(chǎn)生式模型, IncNet更容易在生物學(xué)和物理學(xué)層面進(jìn)行實(shí)現(xiàn)[4]。

    3 實(shí)驗(yàn)及分析

    為了檢驗(yàn)新算法的實(shí)際效果和時(shí)空開(kāi)銷,在兩個(gè)常用的數(shù)據(jù)集上與目前主流聚類算法進(jìn)行比較。這兩個(gè)數(shù)據(jù)集原本是為批量學(xué)習(xí)任務(wù)設(shè)計(jì)的,但是通過(guò)將整個(gè)數(shù)據(jù)集分多次輸入一個(gè)學(xué)習(xí)模型也可以用來(lái)檢測(cè)增量式學(xué)習(xí)模型的性能。整個(gè)實(shí)驗(yàn)分兩部分:3.2節(jié)將每個(gè)數(shù)據(jù)集視為批量數(shù)據(jù),檢測(cè)新算法在批量學(xué)習(xí)任務(wù)中的性能。3.3節(jié)基于3.2節(jié)的實(shí)驗(yàn)結(jié)果,著重分析對(duì)比新算法與傳統(tǒng)算法在增量式任務(wù)上的表現(xiàn)。

    3.1 數(shù)據(jù)集與評(píng)價(jià)指標(biāo)

    目前IncNet模型只能處理離散型數(shù)據(jù),并且沒(méi)有對(duì)程序框架進(jìn)行時(shí)間開(kāi)銷方面的優(yōu)化。在實(shí)現(xiàn)的時(shí)候進(jìn)行了一定程度的簡(jiǎn)化,比如式(3)的最優(yōu)解與向量元素之間的約束關(guān)系相關(guān),實(shí)現(xiàn)的時(shí)候?qū)⑵浣频睾?jiǎn)化為si=cxi, 即分配的資源數(shù)量與輸入信號(hào)強(qiáng)度成正比例關(guān)系。另外,IncNet模型是通過(guò)相似度閾值來(lái)控制聚類粒度的,而K-means等算法是通過(guò)設(shè)置聚類數(shù)量來(lái)控制聚類粒度的。實(shí)驗(yàn)中的做法是:先將IncNet的聚類數(shù)調(diào)節(jié)到一個(gè)適中數(shù)值,然后其他所有算法都將聚類數(shù)調(diào)整到同一數(shù)量進(jìn)行比較。

    Weka是著名機(jī)器學(xué)習(xí)平臺(tái)[15],實(shí)驗(yàn)選擇了Weka平臺(tái)中的經(jīng)典聚類算法K-means和期望最大化(Expectation Maximization, EM)作為比較對(duì)象,使用的數(shù)據(jù)集是來(lái)自Weka中的vote和breast-cancer兩個(gè)數(shù)據(jù)集。實(shí)驗(yàn)使用精度作為評(píng)價(jià)指標(biāo)。具體地說(shuō),將標(biāo)注好的數(shù)據(jù)集的標(biāo)簽全部去掉,再使用不同聚類模型對(duì)這些數(shù)據(jù)進(jìn)行聚類。假設(shè)對(duì)于第i個(gè)聚類,其中相同標(biāo)簽數(shù)量最多的樣本有ni個(gè),而所有聚類的總數(shù)量有n個(gè),那么精度為:

    (7)

    3.2 批量學(xué)習(xí)任務(wù)實(shí)驗(yàn)結(jié)果

    3.2.1 數(shù)據(jù)集vote上的批量學(xué)習(xí)效果

    投票數(shù)據(jù)集vote來(lái)自1984年美國(guó)國(guó)會(huì)的投票記錄[16],共包含435個(gè)樣本數(shù)據(jù),每個(gè)樣本包含16個(gè)布爾類型的屬性。本實(shí)驗(yàn)中主要檢測(cè)聚類算法的批量學(xué)習(xí)性能,vote數(shù)據(jù)集一次性全部輸入每個(gè)模型進(jìn)行訓(xùn)練,實(shí)驗(yàn)結(jié)果見(jiàn)表1。

    表1 vote數(shù)據(jù)集上的結(jié)果

    可以看出,在聚類粒度相同的前提下,IncNet模型的精度和時(shí)間開(kāi)銷都介于K-means與EM之間。這個(gè)結(jié)論在聚類數(shù)分別為8和5時(shí)都是成立的,稍有不同的是較小的聚類數(shù)會(huì)導(dǎo)致時(shí)間開(kāi)銷的降低。

    3.2.2 數(shù)據(jù)集breast-cancer上的批量學(xué)習(xí)效果

    乳腺癌數(shù)據(jù)集breast-cancer 于1988年發(fā)布,來(lái)自南斯拉夫的醫(yī)學(xué)中心大學(xué)腫瘤學(xué)院[17],共包含286個(gè)樣本,每個(gè)樣本包含9個(gè)枚舉類型的屬性。作為批量學(xué)習(xí)任務(wù),breast-cancer數(shù)據(jù)集一次性全部輸入每個(gè)模型進(jìn)行訓(xùn)練,實(shí)驗(yàn)結(jié)果見(jiàn)表2。

    表2 breast-cancer數(shù)據(jù)集上的結(jié)果

    可以看出這三個(gè)模型在breast-cancer數(shù)據(jù)集上的表現(xiàn)與vote數(shù)據(jù)集上的表現(xiàn)非常類似,IncNet模型的精度和時(shí)間開(kāi)銷仍然介于K-means與EM之間。在兩個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明:在批量學(xué)習(xí)任務(wù)上,IncNet模型具有與K-means、EM等常用聚類算法相當(dāng)?shù)木群蜁r(shí)間開(kāi)銷。

    3.3 增量學(xué)習(xí)任務(wù)上的效果

    增量學(xué)習(xí)與批量學(xué)習(xí)的主要區(qū)別是已經(jīng)訓(xùn)練好的模型對(duì)待新輸入數(shù)據(jù)的方式。增量學(xué)習(xí)模型直接在已有模型基礎(chǔ)上進(jìn)行學(xué)習(xí)。而批量學(xué)習(xí)模型則需要拋棄已有模型,將新數(shù)據(jù)與舊數(shù)據(jù)并在一起重新學(xué)習(xí)。將一個(gè)數(shù)據(jù)集比如vote分為多次輸入學(xué)習(xí)模型,實(shí)際上這就變?yōu)橐粋€(gè)增量學(xué)習(xí)任務(wù)了。極端情況下,vote數(shù)據(jù)集可以分435次輸入,即每次只輸入一條新的數(shù)據(jù)。

    K-means與EM是批量學(xué)習(xí)模型,因?yàn)樗鼈冃枰谝淮涡暂斎氲乃袛?shù)據(jù)上進(jìn)行反復(fù)迭代。為了檢驗(yàn)它們?cè)谠隽繉W(xué)習(xí)任務(wù)上的性能,可以通過(guò)下述方式將其改造為增量學(xué)習(xí)模型:將已經(jīng)學(xué)習(xí)過(guò)的樣本數(shù)據(jù)存儲(chǔ)起來(lái),每當(dāng)遇到新輸入的數(shù)據(jù),就將新數(shù)據(jù)與存儲(chǔ)的舊數(shù)據(jù)并在一起重新訓(xùn)練模型。在這種條件下,IncNet、K-means與EM的精度仍然如表1和表2所示。此時(shí)IncNet的時(shí)空開(kāi)銷不變,但是K-means與EM的時(shí)空開(kāi)銷發(fā)生了較大變化。具體說(shuō)來(lái),它們產(chǎn)生了額外的存儲(chǔ)n個(gè)樣本的空間開(kāi)銷。而K-means與EM模型在表1與表2中的時(shí)間開(kāi)銷就變?yōu)樗鼈儗W(xué)習(xí)最后單獨(dú)一條樣本數(shù)據(jù)時(shí)的時(shí)間開(kāi)銷,因此總的時(shí)間開(kāi)銷要比表中數(shù)值大得多。可見(jiàn),在增量學(xué)習(xí)任務(wù)上,IncNet的精度與常用聚類算法相當(dāng),但是在時(shí)間和空間開(kāi)銷上具有很大的優(yōu)勢(shì)。

    4 結(jié)論

    本文通過(guò)借鑒生物神經(jīng)學(xué)實(shí)驗(yàn)證據(jù),提出了全新的增量式神經(jīng)網(wǎng)絡(luò)模型及其聚類算法。通過(guò)引入新的神經(jīng)元激勵(lì)函數(shù)與突觸連接權(quán)值調(diào)節(jié)函數(shù),賦予神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法以嚴(yán)格的統(tǒng)計(jì)意義。嘗試將神經(jīng)網(wǎng)絡(luò)強(qiáng)大的問(wèn)題表示能力與統(tǒng)計(jì)學(xué)習(xí)理論進(jìn)行結(jié)合,為新型神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的研發(fā)提供了新的視角。在此基礎(chǔ)上提出了一種快速增量無(wú)監(jiān)督聚類算法。在經(jīng)典數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,在批量學(xué)習(xí)任務(wù)中,IncNet與K-means等算法的精度和時(shí)空開(kāi)銷相當(dāng)。但是在增量式學(xué)習(xí)任務(wù)中,IncNet模型在時(shí)空開(kāi)銷方面具有較大優(yōu)勢(shì)。

    References)

    [1] Xie S X, Wang T. Construction of unsupervised sentiment classifier on idioms resources[J]. Journal of Central South University, 2014, 21(4): 1376-1384.

    [2] Wang X, Jia Y, Chen R, et al. Improving text categorization with semantic knowledge in Wikipedia[J]. IEICE Transection on Information System, 2013, 96(12): 2786-2794.

    [3] 張志, 廖瑛, 余越. BP神經(jīng)網(wǎng)絡(luò)在極移預(yù)報(bào)中的應(yīng)用[J]. 國(guó)防科技大學(xué)學(xué)報(bào), 2015, 37(2): 156-160.

    ZHANG Zhi, LIAO Ying, YU Yue. Application of BP neural network model in prediction of polar motion[J]. Journal of National University of Defense Technology, 2015, 37(2):156-160.(in Chinese)

    [4] Grossberg S. Adaptive resonance theory: how a brain learns to consciously attend, learn, and recognize a changing world[J]. Neural Networks, 2012, 37: 1-47.

    [5] Rumelhart D E, McClelland J L. Parallel distributed processing: exploration in the microstructure of cognition[M]. USA: MIT Press, 1988.

    [6] Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets[J]. Neural Computation, 2006, 18: 1527-1554.

    [7] Warren S S. Why statisticians should not FART [EB/OL]. (1995)[2015-09-10]. ftp://ftp.sas.com/pub/neural/fart.txt.

    [8] Liu P L, Tang J T, Wang T. Information current in Twitter: which brings hot events to the world[C]// Proceedings of 22nd International World Wide Web, 2013: 111-112.

    [9] Hodgkin A L, Huxley A F. A quantitative description of membrane current and its application to conduction and excitation in nerve[J]. Bulletin of Mathematical Biology, 1990, 52(1/2): 25-71.

    [10] 劉開(kāi)宇, 侯振挺. 一類具M(jìn)-P型非線性二元神經(jīng)網(wǎng)絡(luò)模型的周期解[J]. 國(guó)防科技大學(xué)學(xué)報(bào), 2008, 30(4): 129-132.LIU Kaiyu, HOU Zhenting. The periodic solution of a neural networks of two neurons with McCulloch-Pitts nonlinearity[J]. Journal of National University of Defense Technology, 2008, 30(4): 129-132. (in Chinese)

    [11] Bienenstock E L, Cooper L N, Munro P W. Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex[J].Journal of Neuroscience the Official, 1982, 2(1): 32-48.

    [12] Gross C G. Genealogy of the “grandmother cell”[J]. Neuroscientist, 2002, 8(5): 512-518.

    [13] Minsky S P. Perceptrons: an introduction to computational geometry[M]. UAS: MIT Press, 1972.

    [14] Olshausen B A. Sparse codes and spikes[J]. MIT Press, 2002: 257-272.

    [15] Hall M, Frank E, Holmes G, et al. The WEKA data mining software: an update[J].ACM Sigkdd Explorations Newsletter, 2009, 11(1): 10-18.

    [16] Schlimmer J C. Concept acquisition through representational adjustment[D]. USA: University of California, 1987.

    [17] Tan M, Eshelman L. Using weighted networks to represent classification knowledge in noisy domains[C]//Proceedings of the Fifth International Conference on Machine Learning, 1988: 121-134.

    Incremental clustering algorithm of neural network

    LIU Peilei1,2, TANG Jintao1, XIE Songxian1, WANG Ting1

    (1. College of Computer, National University of Defense Technology, Changsha 410073, China;2. Teaching and Research Section of Information Resource Management, Department of Information Construction,Academy of National Defense Information, Wuhan 430010, China)

    Neural network model is powerful in problem modelling. But the traditional back propagating algorithm can only execute batch supervised learning, and its time expense is very high. According to these problems, a novel incremental neural network model and the corresponding clustering algorithm were put forward. This model was supported by biological evidences, and it was built on the foundation of novel neuron’s activation function and the synapse adjusting function. Based on this, an adaptive incremental clustering algorithm was put forward, in which mechanisms such as “winner-take-all” were introduced. As a result, “catastrophic forgetting” problem was successfully solved in the incremental clustering process. Experiment results on classic datasets show that this algorithm’s performance is comparable with traditional clustering models such as K-means. Especially, its time and space expenses on incremental tasks are much lower than traditional clustering models.

    neural network; incremental learning; clustering algorithm; time expense

    10.11887/j.cn.201605021

    http://journal.nudt.edu.cn

    2015-09-28

    國(guó)家自然科學(xué)基金資助項(xiàng)目(61532001,61472436)

    劉培磊(1984—),男,江蘇連云港人,博士研究生,E-mail:plliu@nudt.edu.cn;王挺(通信作者),男,教授,博士,博士生導(dǎo)師,E-mail:tingwang@nudt.edu.cn

    TP393

    A

    1001-2486(2016)05-137-06

    猜你喜歡
    增量神經(jīng)元聚類
    提質(zhì)和增量之間的“辯證”
    《從光子到神經(jīng)元》書評(píng)
    自然雜志(2021年6期)2021-12-23 08:24:46
    “價(jià)增量減”型應(yīng)用題點(diǎn)撥
    躍動(dòng)的神經(jīng)元——波蘭Brain Embassy聯(lián)合辦公
    基于DBSACN聚類算法的XML文檔聚類
    基于均衡增量近鄰查詢的位置隱私保護(hù)方法
    基于改進(jìn)的遺傳算法的模糊聚類算法
    基于二次型單神經(jīng)元PID的MPPT控制
    毫米波導(dǎo)引頭預(yù)定回路改進(jìn)單神經(jīng)元控制
    德州儀器(TI)發(fā)布了一對(duì)32位增量-累加模數(shù)轉(zhuǎn)換器(ADC):ADS1262和ADS126
    久久久久久久亚洲中文字幕| 老女人水多毛片| 联通29元200g的流量卡| 熟女电影av网| 欧美bdsm另类| 欧美性感艳星| 国产黄色视频一区二区在线观看| 国产日韩欧美在线精品| 99久久九九国产精品国产免费| 精品人妻偷拍中文字幕| 国产精品一及| 能在线免费看毛片的网站| 久久久久性生活片| 国产成人午夜福利电影在线观看| 亚洲精品aⅴ在线观看| 最新中文字幕久久久久| 青青草视频在线视频观看| 国产精品一区www在线观看| 极品少妇高潮喷水抽搐| 国产毛片a区久久久久| freevideosex欧美| 国产亚洲最大av| 五月天丁香电影| 亚洲精品一区蜜桃| 免费无遮挡裸体视频| 美女大奶头视频| 一级毛片电影观看| 免费在线观看成人毛片| 免费看不卡的av| 日韩欧美 国产精品| 免费不卡的大黄色大毛片视频在线观看 | 亚洲av成人av| 亚洲国产av新网站| 男女视频在线观看网站免费| 伊人久久国产一区二区| 少妇高潮的动态图| 日韩伦理黄色片| 嫩草影院新地址| 少妇熟女欧美另类| 午夜免费观看性视频| 国产白丝娇喘喷水9色精品| 久久99蜜桃精品久久| 国产精品日韩av在线免费观看| 99久久精品国产国产毛片| 国产在视频线在精品| 国产精品一区二区三区四区免费观看| 久久久久精品久久久久真实原创| 日本免费a在线| 51国产日韩欧美| 精品久久久噜噜| 大陆偷拍与自拍| 男女下面进入的视频免费午夜| 欧美一区二区亚洲| 欧美成人精品欧美一级黄| 中国美白少妇内射xxxbb| 在线观看av片永久免费下载| 国产视频首页在线观看| 亚洲精品日本国产第一区| 成人美女网站在线观看视频| 国产免费一级a男人的天堂| 丰满人妻一区二区三区视频av| 毛片一级片免费看久久久久| 天堂影院成人在线观看| 精品熟女少妇av免费看| 美女黄网站色视频| 一级毛片我不卡| 熟妇人妻不卡中文字幕| 在线a可以看的网站| 日韩精品有码人妻一区| 97热精品久久久久久| 中文字幕亚洲精品专区| 欧美+日韩+精品| 亚洲av国产av综合av卡| 天美传媒精品一区二区| 91精品国产九色| 亚洲欧美日韩东京热| 亚洲自拍偷在线| 欧美性猛交╳xxx乱大交人| 最近的中文字幕免费完整| 亚洲三级黄色毛片| 永久免费av网站大全| 亚洲精品乱久久久久久| 最近手机中文字幕大全| 国产淫语在线视频| 亚洲精品日韩在线中文字幕| 最近中文字幕高清免费大全6| 女人被狂操c到高潮| 亚洲无线观看免费| 午夜日本视频在线| 日本免费a在线| 91精品国产九色| 天天一区二区日本电影三级| 精华霜和精华液先用哪个| 日本爱情动作片www.在线观看| 国产精品伦人一区二区| h日本视频在线播放| 久久精品夜夜夜夜夜久久蜜豆| 欧美激情在线99| 九九爱精品视频在线观看| 可以在线观看毛片的网站| 国产淫语在线视频| 国产成人a区在线观看| 亚洲在线观看片| 免费播放大片免费观看视频在线观看| 中文天堂在线官网| 精品熟女少妇av免费看| 亚洲精品日韩av片在线观看| 国产精品久久久久久精品电影| 久久久久久久久大av| 日韩大片免费观看网站| kizo精华| 亚洲丝袜综合中文字幕| 欧美极品一区二区三区四区| 亚洲国产精品国产精品| 日韩成人伦理影院| 熟妇人妻久久中文字幕3abv| 黄色日韩在线| 99视频精品全部免费 在线| 精品人妻偷拍中文字幕| 久久这里只有精品中国| 国产亚洲午夜精品一区二区久久 | 观看美女的网站| 国产精品久久久久久av不卡| 国产成人精品一,二区| 日本黄大片高清| 天堂√8在线中文| 久久久久精品性色| 亚洲,欧美,日韩| av免费观看日本| 91精品伊人久久大香线蕉| 高清毛片免费看| 大陆偷拍与自拍| 亚洲熟妇中文字幕五十中出| 国产精品一二三区在线看| 国产成人freesex在线| 日本午夜av视频| 天天躁日日操中文字幕| 亚洲三级黄色毛片| 婷婷色综合大香蕉| 嫩草影院入口| 国产欧美日韩精品一区二区| 少妇人妻一区二区三区视频| 亚洲va在线va天堂va国产| 观看免费一级毛片| 亚洲精品aⅴ在线观看| 欧美性感艳星| 观看免费一级毛片| 久久99蜜桃精品久久| 欧美zozozo另类| 直男gayav资源| 一级毛片黄色毛片免费观看视频| 亚洲av电影在线观看一区二区三区 | 18禁动态无遮挡网站| 三级经典国产精品| 日韩av免费高清视频| 青春草国产在线视频| 日本熟妇午夜| 亚洲av福利一区| 欧美成人a在线观看| 九九爱精品视频在线观看| 永久网站在线| 国产黄片视频在线免费观看| 一级爰片在线观看| 汤姆久久久久久久影院中文字幕 | 亚洲,欧美,日韩| 亚洲美女视频黄频| 国产成人aa在线观看| 久久久久久久久久成人| 国产成年人精品一区二区| 97精品久久久久久久久久精品| 国产成人一区二区在线| 国产欧美另类精品又又久久亚洲欧美| 亚洲精品中文字幕在线视频 | 日本av手机在线免费观看| 精品99又大又爽又粗少妇毛片| 免费大片黄手机在线观看| 99久久精品热视频| 日韩一区二区三区影片| av.在线天堂| 男女国产视频网站| 日韩欧美国产在线观看| 亚洲真实伦在线观看| 啦啦啦中文免费视频观看日本| 直男gayav资源| av网站免费在线观看视频 | 亚洲丝袜综合中文字幕| 久久这里只有精品中国| 麻豆av噜噜一区二区三区| 久久精品国产亚洲av涩爱| 九九久久精品国产亚洲av麻豆| 国产亚洲av嫩草精品影院| 国产在线男女| 久久99热这里只有精品18| 亚洲国产色片| 色综合色国产| 久久精品综合一区二区三区| 日韩欧美国产在线观看| 精品人妻视频免费看| 性插视频无遮挡在线免费观看| 丝袜喷水一区| 街头女战士在线观看网站| 一个人观看的视频www高清免费观看| 久久久a久久爽久久v久久| 国产永久视频网站| 嫩草影院入口| 亚洲无线观看免费| 久久人人爽人人爽人人片va| 亚洲美女搞黄在线观看| 2021天堂中文幕一二区在线观| 91久久精品国产一区二区成人| 一级爰片在线观看| 日韩精品有码人妻一区| 少妇熟女欧美另类| 寂寞人妻少妇视频99o| 我要看日韩黄色一级片| 成年免费大片在线观看| 边亲边吃奶的免费视频| 亚洲国产精品成人综合色| 青春草视频在线免费观看| 亚洲国产精品sss在线观看| 97热精品久久久久久| 中文字幕av在线有码专区| eeuss影院久久| 国产老妇伦熟女老妇高清| 十八禁网站网址无遮挡 | 看黄色毛片网站| 国产av在哪里看| 亚洲婷婷狠狠爱综合网| 伦精品一区二区三区| 国产精品国产三级国产av玫瑰| 男人爽女人下面视频在线观看| 搞女人的毛片| 天堂√8在线中文| 中文字幕制服av| 91久久精品电影网| 综合色丁香网| 亚洲丝袜综合中文字幕| 一级毛片 在线播放| 麻豆乱淫一区二区| 女人久久www免费人成看片| 麻豆国产97在线/欧美| 特大巨黑吊av在线直播| 亚洲精品日韩在线中文字幕| 男人和女人高潮做爰伦理| 久久久久免费精品人妻一区二区| 亚洲一级一片aⅴ在线观看| 一级黄片播放器| 大香蕉久久网| 搡老乐熟女国产| 日本三级黄在线观看| 日韩精品青青久久久久久| 嫩草影院入口| 国产一区二区三区综合在线观看 | 哪个播放器可以免费观看大片| 禁无遮挡网站| 国产成人一区二区在线| 久久精品综合一区二区三区| 蜜桃久久精品国产亚洲av| 亚洲精品乱码久久久久久按摩| 一二三四中文在线观看免费高清| 久久久欧美国产精品| 久久久久久伊人网av| 国产亚洲一区二区精品| 在线观看av片永久免费下载| 最后的刺客免费高清国语| 免费看不卡的av| 亚洲精品乱久久久久久| 成人二区视频| 免费高清在线观看视频在线观看| 在线 av 中文字幕| 国产熟女欧美一区二区| 国产高清有码在线观看视频| 国产高清三级在线| 日本色播在线视频| 水蜜桃什么品种好| 欧美区成人在线视频| 最近视频中文字幕2019在线8| 亚洲久久久久久中文字幕| 午夜福利在线观看免费完整高清在| 18禁在线播放成人免费| 一级爰片在线观看| av免费在线看不卡| 国产精品久久久久久精品电影小说 | 一级毛片我不卡| 亚洲无线观看免费| av一本久久久久| 99久久人妻综合| 久久久亚洲精品成人影院| 美女内射精品一级片tv| 国产探花极品一区二区| 18禁在线播放成人免费| 中文字幕av在线有码专区| 777米奇影视久久| 中文字幕制服av| 2022亚洲国产成人精品| 日韩 亚洲 欧美在线| 国产精品一区二区在线观看99 | 日韩一区二区视频免费看| 在线观看一区二区三区| 成人鲁丝片一二三区免费| 成人毛片a级毛片在线播放| 一区二区三区四区激情视频| 日日摸夜夜添夜夜添av毛片| 一级a做视频免费观看| 内地一区二区视频在线| 国产精品无大码| 熟女人妻精品中文字幕| 成人亚洲欧美一区二区av| 日本-黄色视频高清免费观看| 一夜夜www| 国产又色又爽无遮挡免| 97在线视频观看| 日本一本二区三区精品| av免费在线看不卡| 高清毛片免费看| 国产一区二区三区av在线| 久99久视频精品免费| 欧美激情久久久久久爽电影| 一夜夜www| 国产激情偷乱视频一区二区| 亚洲av免费在线观看| 亚洲精品成人av观看孕妇| 1000部很黄的大片| 国产精品嫩草影院av在线观看| 大香蕉久久网| 免费观看无遮挡的男女| 欧美+日韩+精品| 男女国产视频网站| 国产高清三级在线| 免费电影在线观看免费观看| 尤物成人国产欧美一区二区三区| 最新中文字幕久久久久| 久久久久久久大尺度免费视频| 免费高清在线观看视频在线观看| 欧美xxxx性猛交bbbb| 特级一级黄色大片| 国产欧美另类精品又又久久亚洲欧美| 九九爱精品视频在线观看| 国产一区二区三区av在线| 97精品久久久久久久久久精品| 欧美日韩一区二区视频在线观看视频在线 | 日本猛色少妇xxxxx猛交久久| 免费黄频网站在线观看国产| 黄片wwwwww| 美女cb高潮喷水在线观看| 特级一级黄色大片| 搡老妇女老女人老熟妇| a级一级毛片免费在线观看| 亚洲国产欧美在线一区| 欧美高清性xxxxhd video| 亚洲乱码一区二区免费版| 秋霞在线观看毛片| 纵有疾风起免费观看全集完整版 | 久久久久免费精品人妻一区二区| 国产亚洲最大av| 成人欧美大片| 国产国拍精品亚洲av在线观看| 欧美高清性xxxxhd video| 日韩中字成人| 中文字幕免费在线视频6| 久久久久久九九精品二区国产| 久久久色成人| 全区人妻精品视频| 成人无遮挡网站| 成人高潮视频无遮挡免费网站| 少妇裸体淫交视频免费看高清| 亚洲欧美成人精品一区二区| 成人特级av手机在线观看| 99久久精品一区二区三区| 黑人高潮一二区| 在线观看人妻少妇| 国产欧美另类精品又又久久亚洲欧美| 午夜久久久久精精品| 亚洲怡红院男人天堂| 亚洲av不卡在线观看| 久久国产乱子免费精品| 亚洲av不卡在线观看| 日本午夜av视频| 亚洲精品456在线播放app| 免费高清在线观看视频在线观看| 色视频www国产| 国产黄色免费在线视频| 国产视频内射| 亚洲精品日韩av片在线观看| 99久国产av精品| 久久99精品国语久久久| 女人被狂操c到高潮| 国产午夜精品久久久久久一区二区三区| 久久精品国产亚洲网站| 午夜福利高清视频| 亚洲精品成人av观看孕妇| 亚洲国产高清在线一区二区三| 国产精品精品国产色婷婷| 久久亚洲国产成人精品v| 国产欧美另类精品又又久久亚洲欧美| 一级毛片aaaaaa免费看小| 国产男人的电影天堂91| 99热这里只有是精品50| 国产av不卡久久| 80岁老熟妇乱子伦牲交| 国产高清国产精品国产三级 | 国产激情偷乱视频一区二区| or卡值多少钱| 成人高潮视频无遮挡免费网站| 日本免费a在线| 特级一级黄色大片| 六月丁香七月| 久久久久国产网址| 在线观看免费高清a一片| 老司机影院毛片| 国精品久久久久久国模美| 免费看光身美女| 91精品伊人久久大香线蕉| 精品不卡国产一区二区三区| 成年人午夜在线观看视频 | 国产精品熟女久久久久浪| 亚洲欧美精品自产自拍| 熟女人妻精品中文字幕| 亚洲自拍偷在线| 中文字幕免费在线视频6| 亚洲国产精品专区欧美| 观看免费一级毛片| 欧美另类一区| 国产成人freesex在线| 少妇猛男粗大的猛烈进出视频 | 免费不卡的大黄色大毛片视频在线观看 | 黄片无遮挡物在线观看| 欧美成人午夜免费资源| 精品午夜福利在线看| 天堂av国产一区二区熟女人妻| 九色成人免费人妻av| 成年女人在线观看亚洲视频 | 久久精品久久久久久久性| 中文欧美无线码| 精品99又大又爽又粗少妇毛片| 亚洲av.av天堂| 又黄又爽又刺激的免费视频.| 99热网站在线观看| 成人欧美大片| 日本av手机在线免费观看| h日本视频在线播放| 午夜福利视频1000在线观看| 日韩精品青青久久久久久| 又爽又黄无遮挡网站| 国产一区二区在线观看日韩| 国产在视频线在精品| 亚洲精品色激情综合| 午夜视频国产福利| 一个人免费在线观看电影| 精品酒店卫生间| 最近手机中文字幕大全| 亚洲精品亚洲一区二区| 亚洲av电影不卡..在线观看| 精品久久久久久电影网| 国产免费又黄又爽又色| 欧美性感艳星| 成人亚洲欧美一区二区av| 中文乱码字字幕精品一区二区三区 | 成人无遮挡网站| 1000部很黄的大片| 免费看av在线观看网站| 99热网站在线观看| 波多野结衣巨乳人妻| 免费观看性生交大片5| 最近中文字幕2019免费版| 国产精品嫩草影院av在线观看| 国产精品嫩草影院av在线观看| 中文在线观看免费www的网站| 国产精品一区二区在线观看99 | 丝袜喷水一区| 欧美精品一区二区大全| 久久人人爽人人片av| 亚洲国产精品sss在线观看| 视频中文字幕在线观看| 亚洲成色77777| 亚洲av免费高清在线观看| 在线天堂最新版资源| 男人和女人高潮做爰伦理| 国产极品天堂在线| 晚上一个人看的免费电影| 日韩不卡一区二区三区视频在线| 中文字幕久久专区| 偷拍熟女少妇极品色| 蜜桃久久精品国产亚洲av| 国产男人的电影天堂91| 亚洲性久久影院| 日韩伦理黄色片| 午夜精品一区二区三区免费看| 成人特级av手机在线观看| 亚洲av成人精品一区久久| 乱人视频在线观看| 网址你懂的国产日韩在线| 欧美性猛交╳xxx乱大交人| 黄色日韩在线| 男人爽女人下面视频在线观看| 精品国产一区二区三区久久久樱花 | 建设人人有责人人尽责人人享有的 | 午夜福利高清视频| 国产人妻一区二区三区在| 美女大奶头视频| 天堂影院成人在线观看| 亚洲一级一片aⅴ在线观看| 免费av观看视频| 大片免费播放器 马上看| 欧美97在线视频| 一个人免费在线观看电影| 成人亚洲欧美一区二区av| 一区二区三区乱码不卡18| 午夜福利高清视频| 特大巨黑吊av在线直播| 成人国产麻豆网| 美女被艹到高潮喷水动态| 免费大片18禁| 熟妇人妻久久中文字幕3abv| 99久久精品国产国产毛片| 2021天堂中文幕一二区在线观| 成年人午夜在线观看视频 | 午夜免费激情av| 伦理电影大哥的女人| 亚洲av免费高清在线观看| 人人妻人人澡欧美一区二区| 99热这里只有是精品在线观看| 日韩中字成人| 99热6这里只有精品| 亚洲精品视频女| 中文字幕免费在线视频6| 久久精品人妻少妇| 亚洲图色成人| 国产精品日韩av在线免费观看| av专区在线播放| 观看美女的网站| 亚洲欧美精品自产自拍| 干丝袜人妻中文字幕| 欧美日韩在线观看h| 国产精品麻豆人妻色哟哟久久 | 精品亚洲乱码少妇综合久久| 久久精品综合一区二区三区| av线在线观看网站| 国产成人免费观看mmmm| 91狼人影院| 插阴视频在线观看视频| 日本-黄色视频高清免费观看| 又爽又黄无遮挡网站| 五月玫瑰六月丁香| 中文在线观看免费www的网站| 亚洲av电影在线观看一区二区三区 | 直男gayav资源| 国国产精品蜜臀av免费| 欧美潮喷喷水| 嫩草影院入口| 国产av在哪里看| 久久精品国产亚洲网站| 亚洲av成人精品一二三区| 午夜免费男女啪啪视频观看| 六月丁香七月| 日本免费在线观看一区| 嘟嘟电影网在线观看| 日韩av免费高清视频| 日韩视频在线欧美| 亚洲国产精品成人综合色| 男女边摸边吃奶| 99久久精品国产国产毛片| 亚洲熟女精品中文字幕| 国产免费又黄又爽又色| 亚洲av.av天堂| 免费观看精品视频网站| 成人午夜高清在线视频| 纵有疾风起免费观看全集完整版 | av天堂中文字幕网| 秋霞在线观看毛片| 91aial.com中文字幕在线观看| 男女那种视频在线观看| 亚洲av一区综合| 国产成人freesex在线| 国产精品久久久久久精品电影小说 | 亚洲精品影视一区二区三区av| 亚洲成色77777| 久久99热6这里只有精品| 国产精品一区二区三区四区久久| 国产伦精品一区二区三区四那| av国产久精品久网站免费入址| freevideosex欧美| 一级av片app| 欧美精品国产亚洲| 色综合色国产| 日本免费a在线| 欧美区成人在线视频| 免费看日本二区| 97在线视频观看| 国产又色又爽无遮挡免| 免费观看的影片在线观看| 少妇人妻一区二区三区视频| 亚洲人成网站在线播| 亚洲av成人av| 夫妻性生交免费视频一级片| 成人鲁丝片一二三区免费| 亚洲精品成人久久久久久| 少妇的逼水好多| 插阴视频在线观看视频| 国产精品无大码| 伊人久久国产一区二区| 日本av手机在线免费观看| 日韩人妻高清精品专区| 国产精品国产三级国产专区5o| 免费不卡的大黄色大毛片视频在线观看 | 国产有黄有色有爽视频| 天堂俺去俺来也www色官网 | 高清欧美精品videossex| 亚洲成人中文字幕在线播放| 精品国内亚洲2022精品成人| 激情 狠狠 欧美| 亚洲第一区二区三区不卡| 久久久久久久大尺度免费视频| 在线观看一区二区三区| 色5月婷婷丁香|