• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于弱分類器調(diào)整的多分類Adaboost算法

    2016-04-20 09:01:13楊新武北京工業(yè)大學(xué)計算機(jī)學(xué)院北京100124
    電子與信息學(xué)報 2016年2期
    關(guān)鍵詞:錯誤率集上權(quán)值

    楊新武  馬 壯  袁 順(北京工業(yè)大學(xué)計算機(jī)學(xué)院 北京 100124)

    ?

    基于弱分類器調(diào)整的多分類Adaboost算法

    楊新武*馬壯袁順
    (北京工業(yè)大學(xué)計算機(jī)學(xué)院北京100124)

    摘要:Adaboost.M1算法要求每個弱分類器的正確率大于1/2,但在多分類問題中尋找這樣的弱分類器較為困難。有學(xué)者提出了多類指數(shù)損失函數(shù)的逐步添加模型(SAMME),把弱分類器的正確率要求降低到大于1/k(k為類別數(shù)),降低了尋找弱分類器的難度。由于SAMME算法無法保證弱分類器的有效性,從而并不能保證最終強(qiáng)分類器正確率的提升。為此,該文通過圖示法及數(shù)學(xué)方法分析了多分類Adaboost算法的原理,進(jìn)而提出一種新的既可以降低弱分類器的要求,又可以確保弱分類器有效性的多分類方法。在UCI數(shù)據(jù)集上的對比實驗表明,該文提出的算法的結(jié)果要好于SAMME算法,并達(dá)到了不弱于Adaboost.M1算法的效果。

    關(guān)鍵詞:多類分類器;多類指數(shù)損失函數(shù)的逐步添加模型;Adaboost.M1

    1 引言

    Adaboost算法的思想起源于VALIANT提出的PAC(Probably Approximately Correct)學(xué)習(xí)模型[1]。SCHAPIRE提出了Boosting[2]算法,Boosting[3-5]算法是一種通過結(jié)合多個弱分類器提高最終分類準(zhǔn)確率的方法。基于Boosting算法,1995年,F(xiàn)REUND提出的Boost-by-majority算法[3],在某種意義上說是最佳的Boosting算法,而1997年FREUND和SCHAPIRE提出的Adaboost算法[6]是更面向于實際應(yīng)用的方法。Boosting方法一般只適用于二分類問題,在實際應(yīng)用中,大多數(shù)的應(yīng)用場景會多于兩個類別,像檢測[7],人臉識別,物體和動作檢測[8]等。

    簡單地把Boosting算法從兩類擴(kuò)展到多類存在許多問題,比如在兩類問題中,對弱分類器的要求只要比隨機(jī)猜測好就能被接受,也就是正確率大于1/2。而在多分類問題中,尤其是在類別數(shù)較大的情況下,隨機(jī)猜測正確率較低,很難滿足正確率大于1/2的要求。像決策樹這種簡單的弱分類器就很不容易滿足對弱分類器的要求。1996年FREUND和SCHAPIRE也通過結(jié)合這些弱分類器,提高了最終的分類準(zhǔn)確率[9]。文獻(xiàn)[10]是ALLWEIN等人在2000年提出的,其把多分類問題化簡為多個二分類問題也是現(xiàn)在較為常見的思路[11]。

    基于AdaBoost的多類別分類方法主要有AdaBoost.M1[9],AdaBoost.M2[9]和AdaBoost.MH[12]。1996年FREUND和SCHAPIRE提出了Adaboost.M1[9]算法,它比較直接地把Adaboost算法泛化到多類問題上,但其對弱分類器的要求較高,要求弱分類器正確率大于1/2[13]。但在多分類問題中,由于隨機(jī)猜測的正確率只有1/k,與兩類AdaBoost方法相比,多分類AdaBoost.M1算法難以找到正確率大于1/2的弱分類器,可能導(dǎo)致在實際應(yīng)用中得到的弱分類器個數(shù)不足,無法保證得到足夠好的強(qiáng)分類器。為此,學(xué)者針對這一問題提出了許多改進(jìn)算法,通常把多類問題化簡為多個二分類問題,再進(jìn)行分類決策。AdaBoost.M2,AdaBoost.MH等算法多采用這種思想解決多類問題[13]。

    AdaBoost.M2算法在AdaBoost.M1的基礎(chǔ)上,采用偽損失代替弱分類器的正確率來衡量弱分類器。其對弱分類器的分類精度要求稍有降低,只要偽損失稍比隨機(jī)猜測好就可以。并且,由于使用偽損失,使每一次迭代的弱分類器不僅注重錯分樣本,同時還關(guān)注到了難以辨別的標(biāo)簽類上。但是,偽損失函數(shù)要比錯分率計算復(fù)雜得多,因此AdaBoost.M2算法比較復(fù)雜,計算成本和時間也相應(yīng)增加[9]。

    1999年SCHAPIRE和SINGER提出AdaBoost.MH[12]算法。AdaBoost.MH把每個樣本的分類,轉(zhuǎn)化為k個1和0的標(biāo)簽,是一種直接將k類問題轉(zhuǎn)化為k個兩類問題的算法。由于轉(zhuǎn)化為兩類問題,這樣弱分類器的精度要求可以較容易地得到滿足,多類分類效果改善明顯[12]。但該算法的主要不足之處就是計算過程繁瑣,計算量大,尤其在類別數(shù)k較大時[14]。

    2009年ZHU等人[15]提出了一個新的從兩類問題擴(kuò)展到多類問題的方法SAMME(Stagewise Additive Modeling using a Multi-class Exponential loss function)。它將Adaboost算法直接擴(kuò)展到了多類問題上。SAMME算法把弱分類器正確率的要求從1/2降低到1/k,也就是說在多分類問題中,弱分類器的性能只要比隨機(jī)猜測好就可以被接受。因此,SAMME算法從概念上來說是簡單的、容易實現(xiàn)的,且能找到足夠多的弱分類器。但SAMME算法對于弱分類器的要求不足,導(dǎo)致算法并不能夠保證弱分類器能增強(qiáng)最終強(qiáng)分類器的準(zhǔn)確率。

    我們在研究中也發(fā)現(xiàn),在很多UCI數(shù)據(jù)庫上的多分類問題中,SAMME算法的效果并不如Adaboost.M1算法好。究其原因,在于SAMME算法雖然通過放寬弱分類器錯誤率的限制,但其沒有關(guān)注到弱分類器的質(zhì)量,不能保證每次被弱分類器正確分類的訓(xùn)練樣本權(quán)值一定大于其錯分到其它任一類別的訓(xùn)練樣本權(quán)值,從而不能確保最終強(qiáng)分類器正確率的提升。為此,我們分析了多分類Adaboost算法的原理。通過原理分析,使我們可以使用更簡單的弱分類器達(dá)到比較好的效果。針對Adaboost.M1算法,弱分類器正確率要求過高的問題,SAMME算法并沒有按照把多類問題化簡為多個二分類問題的思路,而是直接對AdaBoost算法進(jìn)行泛化,不將多類問題轉(zhuǎn)化為多個兩類問題,直接求解多類分類問題,可大大減小計算量。本文提出的SAMME.R(Stagewise Additive Modeling using a Multi-class Exponential loss function with Resample)算法是針對SAMME算法的不足,提出的改進(jìn)算法。其解決多分類問題的思路與AdaBoost.M1算法,SAMME算法較為相似,與AdaBoost.M2算法及AdaBoost.MH等算法在解決多分類問題上的思路不同。在原理分析及實驗時,本文也將針對AdaBoost.M1算法及SAMME算法進(jìn)行分析。

    本文中,我們首先分析了多分類Adaboost算法的原理,在SAMME算法的基礎(chǔ)上提出了SAMME.R算法,該方法既可以把對弱分類器正確率的要求僅為1/k,從而保證更容易獲得弱分類器,又通過重采樣保證了弱分類器的質(zhì)量,從而提高強(qiáng)分類器效果。本文對SAMME.R算法的有效性進(jìn)行了證明。在基準(zhǔn)UCI數(shù)據(jù)集[16]上的對比實驗表明,本文提出的SAMME.R算法的結(jié)果要好于SAMME算法,并取得了不弱于Adaboost.M1算法的效果。

    本文第2節(jié)首先對SAMME算法及其與Adaboost.M1算法的區(qū)別進(jìn)行了簡要介紹;在第3節(jié)中,分析了Adaboost.M1及SAMME算法的原理,并詳細(xì)介紹了本文提出的SAMME.R算法;第4節(jié)中,利用數(shù)學(xué)對SAMME.R算法進(jìn)行了有效性分析;對比實驗的結(jié)果放在了第5節(jié);最后一節(jié)是結(jié)論。

    2 SAMME

    對于多類問題,由于隨機(jī)猜測的正確率只有1/k,所以通常難以找到錯誤率小于1/2的弱分類器,以致無法得到足夠數(shù)量的弱分類器,從而不能集成得到足夠好的強(qiáng)分類器。SAMME[15]算法針對此問題,對Adaboost算法的多類擴(kuò)展做出了修改。SAMME算法通過改變權(quán)值分配策略at的計算方法,令,從而有別于Adab o ost.M1算法中的權(quán)值分配策略at=。SAMME算法與AdaBoost.M1算法看上去比較相似,其不同點在于at的計算公式中多加了ln(k -1)項。當(dāng)k為2時(也就是兩類問題),其權(quán)重分配策略與AdaBoost算法相同。在k(k>2)類別分類問題中,由于加上ln(k -1)項,SAMME算法中的弱分類器正確率不再要求大于1/2,而是大于1/k即可,這使得SAMME算法在解決多分類問題時的適用范圍更廣泛。

    文獻(xiàn)[15]在文獻(xiàn)[17]中提出的統(tǒng)計學(xué)觀點的基礎(chǔ)上,從理論上對ln(k -1)添加項的合理性進(jìn)行了統(tǒng)計分析證明。首先證明SAMME算法是符合向前梯度添加模型的,然后證明符合向前梯度添加模型的算法可以逼近最小化指數(shù)損失函數(shù),而最小化指數(shù)損失函數(shù)可使分類決策函數(shù)滿足貝葉斯分類規(guī)則,從而證明SAMME算法是滿足貝葉斯分類規(guī)則的最優(yōu)分類器。

    但在我們的研究中發(fā)現(xiàn),在很多基準(zhǔn)UCI數(shù)據(jù)庫上的多分類問題中,SAMME算法的效果并不如Adaboost.M1算法。在AdaBoost.M1算法中,要求弱分類器的正確率要大于1/2,也就是分類正確的樣本的概率,大于分到其他各類樣本的概率和,使得其分類正確的概率,一定大于分到其他各類的概率,根據(jù)大數(shù)定理,隨著弱分類器個數(shù)的增多,最終強(qiáng)分類器的正確率趨近于1。而在SAMME算法中,把對弱分類器正確率的要求從大于1/2,降低到大于1/k,降低了尋找弱分類器的難度。但由于其弱分類器的正確率僅要求大于1/k,并不能保證每類訓(xùn)練樣本分到本類的概率一定大于錯分到其他各類的概率。若存在每類訓(xùn)練樣本分到某一錯誤類的概率大于其分到本類的概率時,經(jīng)過集成投票后,最終強(qiáng)分類器的對該類訓(xùn)練樣本的分類會偏向于錯分類別中概率較大的那一類,導(dǎo)致無法確保最終強(qiáng)分類器正確率的提升。

    如果針對多分類問題,既可以把對弱分類器正確率的要求降低到大于1/k,又可以通過限制生成上述的低質(zhì)弱分類器,就能確保得到足夠強(qiáng)的強(qiáng)分類器。

    3 SAMME.R

    為了清楚地了解SAMME算法的不足,我們借助文獻(xiàn)[18]的分析對此進(jìn)行說明。

    圖1 Adaboost.M1分類圖

    在Adaboost.M1算法中,如圖1所示,在弱分類器訓(xùn)練中,我們把分類正確的樣本標(biāo)注為白色,分類錯誤的樣本標(biāo)為灰色。則每行的白色部分表示該弱分類器本次迭代中正確分類的部分,當(dāng)每行白色部分比例大于一半時,多次迭代訓(xùn)練得到多個弱分類器后,由于每次分類的正確率大于1/2,圖中白色部分比灰色部分多,對于每個樣本來說,必然會有很多樣本白色部分所占比例大于一半。如果不同弱分類器正確分類的樣本獨立,且分布均勻,則隨著迭代次數(shù)的增加,即訓(xùn)練樣本中越來越多的樣本被超過一半的弱分類器分類正確。無窮次迭代后,分類正確的標(biāo)簽一定比分到其他類的標(biāo)簽的數(shù)量多,保證最終的強(qiáng)分類器正確。

    在SAMME算法中,只要求正確率大于1/k。如圖2所示,同之前圖示相同,每一行的白色部分代表弱分類器對訓(xùn)練集分類正確的樣本。該弱分類器可以滿足SAMME算法正確率大于1/k的條件,但對于某個屬于n類的樣本,弱分類器將其分至某一不為n類的概率大于其分到n類的概率的情況經(jīng)常出現(xiàn),無窮次迭代后,強(qiáng)分類器最終會導(dǎo)致分類結(jié)果錯誤。

    圖2 SAMME分類圖

    與Adaboost.M1算法不同,SAMME算法中,由于每次分類的正確率為,而不是,T次訓(xùn)練得到T個弱分類器后,不能保證樣本分類正確的標(biāo)簽的權(quán)值一定大于分到其他任意一類的標(biāo)簽的權(quán)值,以至于不能保證最終分類效果的提升。而在Adaboost.M1算法中,弱分類器的正確率為,則分到正確類的樣本權(quán)值一定大于分到其他各類的樣本的權(quán)值之和,從而其分類正確樣本權(quán)值一定大于分到其他任意一類的權(quán)值,保證了當(dāng)T趨近于無窮時,最終分類結(jié)果的正確率趨近于1。

    要保證在最后的綜合投票中分類正確的樣本所占的數(shù)量是最多的,僅要求弱分類器的正確率大于1/k是不夠的,需要添加一定的限制條件。為此,本文提出在訓(xùn)練弱分類器時,判斷該弱分類器的結(jié)果,在所有同屬一類的樣本的分類中,正確分類的樣本的權(quán)值和是否比分到其他任意一類的權(quán)值和大。如果滿足該條件則繼續(xù)進(jìn)行權(quán)值調(diào)整和下一次迭代。如果不滿足,則可能是由于訓(xùn)練出的弱分類器不夠好,可以在權(quán)值不變的情況下重新訓(xùn)練弱分類器,然后再次判斷新的弱分類器是否滿足上邊所說的條件,如果滿足進(jìn)入下一次調(diào)整,不滿足則重新訓(xùn)練弱分類器。經(jīng)過此條件的限制,當(dāng)T趨近于無窮時,分類正確的標(biāo)簽一定比分到其他各類的標(biāo)簽的數(shù)量多,最終分類器的錯誤率趨近于0。

    在此基礎(chǔ)上,本文提出了SAMME.R算法,該算法流程如下:

    (a)循環(huán)計算各類中,分到各類樣本的權(quán)值和:

    (b)判斷各類中分類正確的樣本權(quán)值和是否大于分到其他各類的樣本的權(quán)值和。若滿足,則進(jìn)行下一次循環(huán)。若不滿足,則返回步驟2重新開始計算。

    (4)計算ht的偽錯誤率:

    (5)置

    (6)計算新的權(quán)重向量:

    步驟3最終強(qiáng)分類器為

    本文對SAMME算法的改進(jìn),并未影響其滿足的向前梯度添加模型。因此,SAMME.R算法仍然滿足貝葉斯最佳分類規(guī)則。

    4 SAMME.R算法數(shù)學(xué)分析

    上文中以一個簡單的例子介紹了本文提出的SAMME.R算法,在本節(jié)中,將針對多分類問題,對Adaboost.M1,SAMME,SAMME.R算法的有效性進(jìn)行數(shù)學(xué)分析。

    Adaboost.M1算法中,在k分類問題中,若采用簡單投票法構(gòu)造強(qiáng)分類器,即H(x)=。則對任意訓(xùn)練集St,輸出一個最大錯誤率為的分類器,相互獨立選取不同的St得到不同的。定義隨機(jī)變量序列Zt:

    則Zt是一個均值為,方差為的隨機(jī)變量。記

    由于訓(xùn)練集相互間是獨立的,因此可認(rèn)為Zt是獨立的,于是

    由大數(shù)定理,?ε有

    根據(jù)Zt的定義,當(dāng)T→∞,對任意實例x,滿足比的個數(shù)平均多μ個,采取簡單投票法,,對x的分類錯誤率將趨于零。

    SAMME算法中,在k分類問題中,若采用簡單投票法構(gòu)造強(qiáng)分類器,即H(x)=。則對任意訓(xùn)練集St,輸出一個最大錯誤率為的分類器,,相互獨立選取不同的St得到不同的。定義隨機(jī)變量序列Zt,同式(6)。則Zt是一個均值為,方差為的隨機(jī)變量。記

    由于訓(xùn)練集相互間是獨立的,因此可認(rèn)為Zt是獨立的,且,于是

    由大數(shù)定理,?ε有

    當(dāng)k>2時,μ不一定大于0,根據(jù)Zt的定義,當(dāng)T→∞,對任意實例x,滿足的個數(shù),不一定滿足的個數(shù)多,采取簡單投票法,,對x的分類錯誤率可能不會趨于零。

    因此,本文提出了SAMME.R算法,在k分類問題中,若采用簡單投票法構(gòu)造強(qiáng)分類器,即。則對任意訓(xùn)練集St,輸出一個最大錯誤率為的分類器,分類到k類的最小概率分別為,且。SAMME.R算法中要求,若,則。設(shè)m的概率為p,,則的概率為。

    定義隨機(jī)變量序列Zt:

    則Zt是一個均值為,方差為的隨機(jī)變量。記μ=。由于訓(xùn)練集相互間是獨立的,因此可認(rèn)為Zt是獨立的,于是

    由大數(shù)定理,?ε有

    5 實驗結(jié)果

    在本節(jié)中,我們在基準(zhǔn)UCI數(shù)據(jù)集上[16],對SAMME.R,SAMME以及AdaboostM1算法進(jìn)行比較測試。我們在Segmentation,Vowel,Balance-scale,Ecoli,Wine,Yeast 6個數(shù)據(jù)集上進(jìn)行了測試。其中,Segmentation數(shù)據(jù)集和Vowel數(shù)據(jù)集預(yù)先指定了訓(xùn)練集和測試集的內(nèi)容。其他的數(shù)據(jù)集,我們隨機(jī)挑選一半的樣本作為訓(xùn)練集,其余部分作為測試集。

    數(shù)據(jù)集的基本情況如表1所示。

    本文用最近鄰的方法作為弱分類器。在上述數(shù)據(jù)集上進(jìn)行的實驗中,實驗數(shù)據(jù)為5次試驗后的平均值。

    表1 測試數(shù)據(jù)集信息

    分別計算了SAMME.R算法、SAMME算法以及Adaboost.M1算法,在200次迭代、400次迭代和600次迭代時的分類識別的錯誤率,實驗結(jié)果如表2所示。

    由表可以看出,在Segmentation,Balance-scale,Ecoli,Wine,Yeast數(shù)據(jù)庫上,SAMME.R算法得出的結(jié)果都要優(yōu)于SAMME算法和Adaboost.M1算法,只有在Vowel數(shù)據(jù)集上的表現(xiàn)不如Adaboost.M1算法,但SAMME.R的效果,仍然要比SAMME算法要好。

    在實驗結(jié)果中,我們發(fā)現(xiàn)Vowel數(shù)據(jù)集上SAMME.R算法的分類效果不如AdaBoost.M1算法。究其原因,由于SAMME算法和SAMME.R算法,為了能夠更容易地找到弱分類器,降低了弱分類器對錯誤率的要求,權(quán)值調(diào)整at也因此加大。在下一次的迭代分類中,與AdaBoost.M1算法相比,SAMME算法與SAMME.R算法會更加偏向于本次分類錯誤的樣本。導(dǎo)致下一次迭代中,弱分類器的分類正確率略有下降,造成弱分類器性能的下降。在弱學(xué)習(xí)算法中,弱分類器的質(zhì)量會影響強(qiáng)分類器的分類效果,因此,SAMME.R算法對弱分類器性能弱化的要求,可使最終的強(qiáng)分類器性能提升,但個別情況下不如AdaBoost.M1算法的結(jié)果。Vowel數(shù)據(jù)集在所測試的所有數(shù)據(jù)集中,其類別數(shù)k最多,造成1/k較小,其對弱分類器正確率的要求也最低。而AdaBoost.M1算法,在任何數(shù)據(jù)集上都要求弱分類器正確率大于1/2。因此,在Vowel數(shù)據(jù)集上,SAMME.R算法的弱分類器性能有更大的可能性與AdaBoost.M1算法相差較大,造成SAMME.R算法對弱分類器性能弱化的要求,雖然保證了強(qiáng)分類器效果的提升,但最終的分類效果仍不如AdaBoost.M1算法好。

    表2 測試錯誤率(%)

    除在這些數(shù)據(jù)集上的測試外,我們還在Letter,Nursery,Pendigits,Satimage這幾個數(shù)據(jù)集上進(jìn)行了實驗,由于實驗過程中,未出現(xiàn)SAMME.R中需要重新訓(xùn)練弱分類器的情況,所以在這4個數(shù)據(jù)集上SAMME.R算法相當(dāng)于SAMME算法。

    對比實驗表明,本文提出的SAMME.R算法的結(jié)果要好于SAMME算法,并達(dá)到了不弱于Adaboost.M1算法的效果。不但使其更容易應(yīng)用到實際應(yīng)用中,同時提高了其分類的準(zhǔn)確性。通過實驗發(fā)現(xiàn)在訓(xùn)練集較小的情況下,SAMME.R算法對SAMME算法有較明顯的改進(jìn)。

    6 結(jié)束語

    本文對多分類Adaboost算法的原理進(jìn)行了分析,在此基礎(chǔ)上針對SAMME算法的不足提出了改進(jìn)的SAMME.R算法。SAMME.R算法要求弱分類器的性能只要比隨機(jī)猜測好就可以被接受,降低了尋找弱分類器的難度。SAMME.R算法通過增加對弱分類器的限制,從而保證了弱分類器的有效性,確保強(qiáng)分類器的分類正確率得到提升。本文算法對弱分類器的要求,會比SAMME嚴(yán)格一點,但顯然低于Adaboost.M1算法。與Adaboost.M1算法和SAMME算法相比,SAMME.R算法在絕大多數(shù)情況下有更好的分類效果。

    本文只是從一個比較直觀的角度分析了多分類Adaboost算法的原理。最近也有很多學(xué)者從不同的角度提出了新的多分類Boosting算法,有多分類DeepBoost[19],其從兩類的DeepBoost[20]算法泛化而來的。DMCBoost[21]算法通過擴(kuò)展兩類的Direct Boost[22]算法而得出,也是一種直接的多類Boosting算法,其使用多類決策樹作為基分類器[23]。PIboost[24]算法,把多分類問題轉(zhuǎn)化為多個二分類問題,并且關(guān)注到了類的不對稱分布的問題。

    本文提出的算法也存在一定的不足,在SAMME.R算法重新訓(xùn)練弱分類器時,容易出現(xiàn)經(jīng)過多次訓(xùn)練仍無法找到滿足條件的弱分類器,實驗中需要設(shè)置重新訓(xùn)練弱分類器的上限次數(shù),使程序避免陷入死循環(huán)中無法跳出。在今后的工作中,需要找到一種更好的辦法,來解決這個問題。

    參考文獻(xiàn)

    [1]VALIANT L G.A theory of the learnable[J].Communications of the ACM,1984,27(11):1134-1142.doi:10.1145/800057.808710.

    [2]SCHAPIRE R E.The strength of weak learnability[J].Machine Learning,1990,5(2):197-227.doi:10.1007/ BF00116037.

    [3]FREUND Y.Boosting a weak learning algorithm by majority[J].Information and Computation,1995,121(2):256-285.doi:10.1006/inco.1995.1136.

    [4]SCHAPIRE R E.A brief introduction to boosting[C].International Joint Conference on Artificial Intelligence,Sweden,1999:1401-1406.

    [5]曹瑩,苗啟廣,劉家辰,等.AdaBoost 算法研究進(jìn)展與展望[J].自動化學(xué)報,2013,39(6):745-758.doi:10.3724/SP.J.1004.2013.00745.CAO Ying,MIAO Qiguang,LIU Jiachen,et al.Advance and prospects of AdaBoost algorithm[J].Acta Automatica Sinica,2013,39(6):745-758.doi:10.3724/SP.J.1004.2013.00745.

    [6]FREUND Y and SCHAPIRE R E.A desicion-theoretic generalization of on-line learning and an application to boosting[J].Lecture Notes in Computer Science,1970,55(1):23-37.doi:10.1007/3-540-59119-2_166.

    [7]NEGRI P,GOUSSIES N,and LOTITO P.Detecting pedestrians on a movement feature space[J].Pattern Recognition,2014,47(1):56-71.doi:10.1016/j.patcog.2013.05.020.

    [8]LIU L,SHAO L,and ROCKETT P.Boosted key-frame selection and correlated pyramidal motion-feature representation for human action recognition[J].Pattern Recognition,2013,46(7):1810-1818.doi:10.1016/j.patcog.2012.10.004.

    [9]FREUND Y and SCHAPIRE R E.Experiments with a new boosting algorithm[C].Proceedings of the Thirteenth International Conference on Machine Learning,Italy,1996:148-156.

    [10]ALLWEIN E L,SCHAPIRE R E,and SINGER Y.Reducing multiclass to binary:a unifying approach for margin classifiers[J].The Journal of Machine Learning Research,2001,1(2):113-141.doi:10.1162/15324430152733133.

    [11]MUKHERJEE I and SCHAPIRE R E.A theory of multiclass boosting[J].The Journal of Machine Learning Research,2013,14(1):437-497.

    [12]SCHAPIRE R E and SINGER Y.Improved boosting algorithms using confidence-rated predictions[J].Machine Learning,1999,37(3):297-336.doi:10.1145/279943.279960.

    [13]涂承勝,刁力力,魯明羽,等.Boosting 家族 AdaBoost 系列代表算法[J].計算機(jī)科學(xué),2003,30(3):30-34.TU Chengsheng,DIAO Lili,LU Mingyu,et al.The typical algorithm of AdaBoost series in Boosting family[J].Computer Science,2003,30(3):30-34.

    [14]胡金海,駱廣琦,李應(yīng)紅,等.一種基于指數(shù)損失函數(shù)的多類分類 AdaBoost 算法及其應(yīng)用[J].航空學(xué)報,2008,29(4):811-816.HU Jinhai,LUO Guangqi,LI Yinghong,et al.An AdaBoost algorithm for multi-class classification based on exponential loss function and its application[J].Acta Aeronautica et Astronautica Sinica,2008,29(4):811-816.

    [15]ZHU J,ZOU H,ROSSET S,et al.Multi-class adaboost[J].Statistics and Its Interface,2009,2(3):349-360.

    [16]BLAKE C L and MERZ C J.UCI Repository of machine learning databases[OL].http://www.ics.uci.edu/.1998.

    [17]FRIEDMAN J,HASTIE T,and TIBSHIRANI R.Additive logistic regression:a statistical view of boosting(with discussion and a rejoinder by the authors)[J].The Annals of Statistics,2000,28(2):337-407.doi:10.1214/aos/1016120463.

    [18]付忠良.關(guān)于 AdaBoost 有效性的分析[J].計算機(jī)研究與發(fā)展,2008,45(10):1747-1755.FU Zhongliang.Effectiveness analysis of AdaBoost[J].Journal of Computer Research and Development,2008,45(10):1747-1755.

    [19]KUZNETSOV V,MOHRI M,and SYED U.Multi-class deep boosting[C].Advances in Neural Information Processing Systems,Canada,2014:2501-2509.

    [20]CORTES C,MOHRI M,and SYED U.Deep boosting[C].Proceedings of the 31st International Conference on Machine Learning(ICML-14),Beijing,2014:1179-1187.

    [21]ZHAI S,XIA T,and WANG S.A multi-class boosting method with direct optimization[C].Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining,New York,2014:273-282.

    [22]ZHAI S,XIA T,TAN M,et al.Direct 0-1 loss minimization and margin maximization with boosting[C].Advances in Neural Information Processing Systems,Nevada,2013:872-880.

    [23]DOLLAR P.Quickly boosting decision trees-pruning underachieving features early[C].JMLR Workshop &Conference Proceedings,2013,28:594-602.

    [24]FERNANDEZ B A and BAUMELA L.Multi-class boosting with asymmetric binary weak-learners[J].Pattern Recognition,2014,47(5):2080-2090.doi:10.1016/j.patcog.2013.11.024.

    楊新武:男,1971年生,副教授,研究方向為模式識別、遺傳算法.

    馬壯:男,1990年生,碩士生,研究方向為模式識別.

    袁順:男,1989年生,碩士生,研究方向為模式識別.

    Multi-class Adaboost Algorithm Based on the Adjusted Weak Classifier

    YANG XinwuMA ZhuangYUAN Shun
    (School of Computer Science,Beijing University of Technology,Beijing 100124,China)

    Abstract:Adaboost.M1 requires each weak classifier's accuracy rate more than 1/2.But it is difficult to find a weak classifier which accuracy rate more than 1/2 in a multiple classification issues.Some scholars put forward the Stagewise Additive Modeling using a Multi-class Exponential loss function(SAMME)algorithm,it reduces the weak classifier accuracy requirements,from more than 1/2 to more than 1/k(k is the category number).SAMME algorithm reduces the difficulty to find weak classifier.But,due to the SAMME algorithm is no guarantee that the effectiveness of the weak classifier,which does not ensure that the final classifier improves classification accuracy.This paper analyzes the multi-class Adaboost algorithm by graphic method and math method,and then a new kind of multi-class classification method is proposed which not only reduces the weak classifier accuracy requirements,but also ensures the effectiveness of the weak classifier.In the benchmark experiments on UCI data sets show that the proposed algorithm are better than the SAMME,and achieves the effect of Adaboost.M1.

    Key words:Multi-class classification; Stagewise Additive Modeling using a Multi-class Exponential loss function(SAMME); Adaboost.M1

    *通信作者:楊新武yang_xinwu@bjut.edu.cn

    收稿日期:2015-05-11;改回日期:2015-10-08;網(wǎng)絡(luò)出版:2015-11-18

    DOI:10.11999/JEIT150544

    中圖分類號:TP391.4

    文獻(xiàn)標(biāo)識碼:A

    文章編號:1009-5896(2016)02-0373-08

    猜你喜歡
    錯誤率集上權(quán)值
    限制性隨機(jī)試驗中選擇偏倚導(dǎo)致的一類錯誤率膨脹*
    一種融合時間權(quán)值和用戶行為序列的電影推薦模型
    CONTENTS
    Cookie-Cutter集上的Gibbs測度
    鏈完備偏序集上廣義向量均衡問題解映射的保序性
    復(fù)扇形指標(biāo)集上的分布混沌
    正視錯誤,尋求策略
    教師·中(2017年3期)2017-04-20 21:49:49
    基于權(quán)值動量的RBM加速學(xué)習(xí)算法研究
    解析小學(xué)高段學(xué)生英語單詞抄寫作業(yè)錯誤原因
    降低學(xué)生計算錯誤率的有效策略
    中文字幕高清在线视频| 可以在线观看的亚洲视频| 最近最新中文字幕大全电影3| 网址你懂的国产日韩在线| 亚洲男人的天堂狠狠| 99久久成人亚洲精品观看| 一级作爱视频免费观看| 国产成人福利小说| 久久久久久久久久黄片| 美女大奶头视频| 熟女电影av网| 在线观看免费视频日本深夜| 国产亚洲欧美98| 欧美成人a在线观看| 成人无遮挡网站| 99riav亚洲国产免费| 色精品久久人妻99蜜桃| 日本a在线网址| 免费大片18禁| 九色成人免费人妻av| 久久精品夜夜夜夜夜久久蜜豆| 成人三级黄色视频| 大型黄色视频在线免费观看| 日韩中文字幕欧美一区二区| 老司机深夜福利视频在线观看| 真人做人爱边吃奶动态| 国产亚洲精品av在线| 一级毛片女人18水好多| 精品午夜福利视频在线观看一区| 国产精品嫩草影院av在线观看 | 亚洲精品国产精品久久久不卡| 国产精品久久久久久精品电影| 精品国产超薄肉色丝袜足j| 韩国av一区二区三区四区| 观看免费一级毛片| 99久久综合精品五月天人人| 狠狠狠狠99中文字幕| 久久精品国产清高在天天线| 99精品欧美一区二区三区四区| 麻豆国产97在线/欧美| 亚洲国产欧美人成| 少妇裸体淫交视频免费看高清| 夜夜爽天天搞| 日韩欧美精品免费久久 | 国产亚洲精品久久久久久毛片| 老司机在亚洲福利影院| 看免费av毛片| 中文字幕久久专区| 在线播放无遮挡| 国产精品乱码一区二三区的特点| 亚洲色图av天堂| 免费av不卡在线播放| av在线蜜桃| 亚洲av成人不卡在线观看播放网| 91字幕亚洲| 老司机午夜十八禁免费视频| 欧美成人性av电影在线观看| 露出奶头的视频| 91久久精品国产一区二区成人 | www.www免费av| 久久精品91无色码中文字幕| 久久性视频一级片| 国产伦精品一区二区三区四那| 1000部很黄的大片| 亚洲国产欧洲综合997久久,| 99国产综合亚洲精品| 午夜福利在线观看吧| 免费人成视频x8x8入口观看| 综合色av麻豆| 少妇的逼好多水| 久久久成人免费电影| 欧美黑人欧美精品刺激| 国产精品免费一区二区三区在线| 天堂动漫精品| 舔av片在线| 老司机午夜十八禁免费视频| 99久久九九国产精品国产免费| avwww免费| 免费观看人在逋| 最后的刺客免费高清国语| 日本一二三区视频观看| 亚洲精品影视一区二区三区av| 乱人视频在线观看| 欧美成人a在线观看| 熟女人妻精品中文字幕| 久久久久九九精品影院| 久久午夜亚洲精品久久| 久久性视频一级片| 久久久国产成人免费| 欧美中文综合在线视频| 脱女人内裤的视频| 欧美乱色亚洲激情| 欧美绝顶高潮抽搐喷水| 99久久99久久久精品蜜桃| 亚洲精品一卡2卡三卡4卡5卡| 欧美日韩综合久久久久久 | 麻豆一二三区av精品| 国产亚洲精品av在线| 日韩精品中文字幕看吧| 国产精品1区2区在线观看.| 欧美+日韩+精品| 99国产精品一区二区三区| 99视频精品全部免费 在线| 免费av观看视频| 国产精品99久久久久久久久| 淫妇啪啪啪对白视频| 禁无遮挡网站| 女人十人毛片免费观看3o分钟| 亚洲av电影在线进入| 久久久精品欧美日韩精品| 乱人视频在线观看| av在线天堂中文字幕| 欧美成人一区二区免费高清观看| 我要搜黄色片| 俄罗斯特黄特色一大片| 噜噜噜噜噜久久久久久91| 久久久国产精品麻豆| 欧美黑人巨大hd| bbb黄色大片| 欧美日本视频| 亚洲国产精品999在线| 国产成人福利小说| 老鸭窝网址在线观看| 免费在线观看亚洲国产| 中出人妻视频一区二区| 亚洲不卡免费看| 午夜福利成人在线免费观看| 久久人妻av系列| 少妇熟女aⅴ在线视频| 欧美+日韩+精品| 欧美一区二区精品小视频在线| 国产男靠女视频免费网站| 亚洲精品美女久久久久99蜜臀| 狠狠狠狠99中文字幕| 午夜激情欧美在线| 国产av麻豆久久久久久久| 午夜免费成人在线视频| 超碰av人人做人人爽久久 | 内射极品少妇av片p| 亚洲 欧美 日韩 在线 免费| 午夜福利在线在线| 婷婷精品国产亚洲av在线| 91av网一区二区| 宅男免费午夜| 变态另类丝袜制服| 女人十人毛片免费观看3o分钟| 国产精华一区二区三区| 成熟少妇高潮喷水视频| 成熟少妇高潮喷水视频| a级一级毛片免费在线观看| 在线国产一区二区在线| 国产毛片a区久久久久| 国产午夜精品论理片| 精品国产超薄肉色丝袜足j| 少妇人妻一区二区三区视频| 哪里可以看免费的av片| 久久香蕉国产精品| 国产精品久久久久久精品电影| 日韩亚洲欧美综合| 桃红色精品国产亚洲av| 少妇人妻精品综合一区二区 | www日本在线高清视频| 亚洲av五月六月丁香网| 欧美乱色亚洲激情| 每晚都被弄得嗷嗷叫到高潮| 亚洲 欧美 日韩 在线 免费| 91av网一区二区| 淫秽高清视频在线观看| 欧美黑人巨大hd| 国产真实乱freesex| 亚洲男人的天堂狠狠| 国产精品野战在线观看| 麻豆成人av在线观看| 免费看a级黄色片| a级毛片a级免费在线| 香蕉av资源在线| 久久亚洲精品不卡| 国产黄a三级三级三级人| 亚洲av第一区精品v没综合| 亚洲aⅴ乱码一区二区在线播放| 国产麻豆成人av免费视频| 国产色爽女视频免费观看| 激情在线观看视频在线高清| 久久精品国产自在天天线| 九色成人免费人妻av| 我要搜黄色片| 国产69精品久久久久777片| 午夜日韩欧美国产| 欧美不卡视频在线免费观看| 婷婷精品国产亚洲av| 一进一出抽搐gif免费好疼| 国产成人系列免费观看| 99热只有精品国产| 日本一二三区视频观看| 熟妇人妻久久中文字幕3abv| 少妇的逼好多水| 亚洲精品456在线播放app | 99久久精品一区二区三区| 国产野战对白在线观看| 黄色视频,在线免费观看| 美女 人体艺术 gogo| 国产69精品久久久久777片| 亚洲欧美精品综合久久99| 麻豆一二三区av精品| 一区二区三区激情视频| 日韩欧美国产一区二区入口| 嫩草影院入口| 国产亚洲精品av在线| 丰满的人妻完整版| 亚洲人与动物交配视频| 又紧又爽又黄一区二区| 岛国视频午夜一区免费看| 亚洲成av人片免费观看| 99热这里只有是精品50| 国产亚洲精品久久久久久毛片| 午夜免费成人在线视频| 他把我摸到了高潮在线观看| 亚洲熟妇中文字幕五十中出| 国产精品嫩草影院av在线观看 | 欧美又色又爽又黄视频| 午夜福利在线观看吧| 午夜免费男女啪啪视频观看 | 在线播放国产精品三级| 日本成人三级电影网站| 男女做爰动态图高潮gif福利片| 中文字幕熟女人妻在线| 亚洲国产精品成人综合色| 好男人在线观看高清免费视频| 午夜福利成人在线免费观看| 一本综合久久免费| 嫩草影视91久久| 久久精品综合一区二区三区| 久久国产精品人妻蜜桃| 亚洲欧美日韩无卡精品| 亚洲精品影视一区二区三区av| 久久国产精品人妻蜜桃| 三级国产精品欧美在线观看| 婷婷精品国产亚洲av在线| 国产精品爽爽va在线观看网站| 午夜精品在线福利| 国产在线精品亚洲第一网站| 一个人看视频在线观看www免费 | 久久6这里有精品| bbb黄色大片| 夜夜躁狠狠躁天天躁| 精品国产亚洲在线| 国产一区二区激情短视频| 亚洲av免费高清在线观看| 亚洲第一电影网av| 天天一区二区日本电影三级| 1000部很黄的大片| 国产私拍福利视频在线观看| 精品久久久久久久末码| x7x7x7水蜜桃| 成人一区二区视频在线观看| 精品不卡国产一区二区三区| 亚洲欧美日韩无卡精品| 亚洲精品粉嫩美女一区| 高清在线国产一区| 五月伊人婷婷丁香| 久久精品91无色码中文字幕| 尤物成人国产欧美一区二区三区| 久久久久久久久中文| 网址你懂的国产日韩在线| eeuss影院久久| 久久天躁狠狠躁夜夜2o2o| 国产69精品久久久久777片| 亚洲国产精品久久男人天堂| 亚洲午夜理论影院| 国产极品精品免费视频能看的| 国产主播在线观看一区二区| a在线观看视频网站| 国产在线精品亚洲第一网站| 欧美激情久久久久久爽电影| 丁香欧美五月| 午夜免费成人在线视频| 亚洲av日韩精品久久久久久密| 亚洲成人久久爱视频| 国产av一区在线观看免费| 欧美精品啪啪一区二区三区| 少妇人妻一区二区三区视频| 18禁美女被吸乳视频| 美女被艹到高潮喷水动态| 久久99热这里只有精品18| x7x7x7水蜜桃| 嫩草影视91久久| 青草久久国产| 国产精品久久久久久久电影 | 久久久久免费精品人妻一区二区| 一级a爱片免费观看的视频| 亚洲五月天丁香| 亚洲精品久久国产高清桃花| 国产精品亚洲av一区麻豆| 亚洲中文日韩欧美视频| 国产av在哪里看| 亚洲av第一区精品v没综合| 日本黄色片子视频| 一个人看视频在线观看www免费 | 一边摸一边抽搐一进一小说| 国产欧美日韩精品一区二区| 高清日韩中文字幕在线| 亚洲av免费高清在线观看| 麻豆一二三区av精品| 日韩免费av在线播放| 变态另类丝袜制服| 老司机午夜十八禁免费视频| 在线天堂最新版资源| 亚洲av第一区精品v没综合| 国产探花在线观看一区二区| 一级a爱片免费观看的视频| 久久久久国内视频| 高清在线国产一区| 一个人看视频在线观看www免费 | 国产精品一及| 女人十人毛片免费观看3o分钟| 法律面前人人平等表现在哪些方面| 免费观看精品视频网站| 老司机在亚洲福利影院| 深夜精品福利| 很黄的视频免费| 少妇熟女aⅴ在线视频| 午夜a级毛片| 99国产精品一区二区蜜桃av| 中文字幕av在线有码专区| 亚洲国产欧洲综合997久久,| 高潮久久久久久久久久久不卡| 国产高清激情床上av| 亚洲第一欧美日韩一区二区三区| 亚洲成人免费电影在线观看| 淫秽高清视频在线观看| 在线看三级毛片| 国产伦一二天堂av在线观看| 成人国产一区最新在线观看| 亚洲av电影在线进入| 在线免费观看不下载黄p国产 | 五月玫瑰六月丁香| 丝袜美腿在线中文| 亚洲七黄色美女视频| 国产高清videossex| 国产精品久久久久久久电影 | 日本黄色视频三级网站网址| 久久性视频一级片| 国内精品美女久久久久久| 国产精品精品国产色婷婷| 久久伊人香网站| 国产精品久久久久久久电影 | 国产亚洲欧美98| 99久久99久久久精品蜜桃| 国产av在哪里看| 欧美成人性av电影在线观看| 日本一本二区三区精品| 亚洲 欧美 日韩 在线 免费| 国产一区二区在线av高清观看| 最新在线观看一区二区三区| 看黄色毛片网站| 12—13女人毛片做爰片一| 宅男免费午夜| 一进一出抽搐动态| 精品福利观看| 99久久精品热视频| 亚洲av电影在线进入| 久久久久性生活片| 欧美色欧美亚洲另类二区| 午夜日韩欧美国产| 日韩成人在线观看一区二区三区| 夜夜爽天天搞| 国产av麻豆久久久久久久| 欧美日本亚洲视频在线播放| 午夜福利在线观看吧| 国产伦精品一区二区三区四那| 亚洲欧美日韩无卡精品| 中亚洲国语对白在线视频| 午夜精品一区二区三区免费看| 精品人妻偷拍中文字幕| 18禁国产床啪视频网站| 精品熟女少妇八av免费久了| 一个人看视频在线观看www免费 | 国产精品久久视频播放| 美女被艹到高潮喷水动态| 国产一区在线观看成人免费| 最新在线观看一区二区三区| 精品一区二区三区人妻视频| 欧美黑人巨大hd| a级一级毛片免费在线观看| 午夜a级毛片| 精品久久久久久久末码| 日本三级黄在线观看| 网址你懂的国产日韩在线| 深夜精品福利| 少妇的丰满在线观看| 久久久久国产精品人妻aⅴ院| 国产精品,欧美在线| 在线观看日韩欧美| 黄色日韩在线| 在线免费观看的www视频| 在线免费观看不下载黄p国产 | 精品人妻一区二区三区麻豆 | 麻豆成人午夜福利视频| 在线十欧美十亚洲十日本专区| 好男人电影高清在线观看| 亚洲精品久久国产高清桃花| 最新美女视频免费是黄的| 亚洲 国产 在线| 超碰av人人做人人爽久久 | 欧美区成人在线视频| 91av网一区二区| 亚洲成人久久爱视频| 手机成人av网站| www.999成人在线观看| 色av中文字幕| 每晚都被弄得嗷嗷叫到高潮| 欧美日韩乱码在线| 亚洲欧美精品综合久久99| 国产精品久久久久久亚洲av鲁大| 欧美在线一区亚洲| 精品国内亚洲2022精品成人| 亚洲美女黄片视频| 最后的刺客免费高清国语| 久久国产精品人妻蜜桃| 午夜福利欧美成人| 亚洲国产欧洲综合997久久,| 免费在线观看成人毛片| 国产高潮美女av| 国产精品 国内视频| 中文字幕av在线有码专区| av在线天堂中文字幕| 99国产精品一区二区三区| 亚洲av熟女| 亚洲精品一卡2卡三卡4卡5卡| 俺也久久电影网| 老汉色∧v一级毛片| bbb黄色大片| 日韩人妻高清精品专区| 黄片大片在线免费观看| 国产av一区在线观看免费| 在线观看av片永久免费下载| 久久久国产精品麻豆| 两个人看的免费小视频| av欧美777| 很黄的视频免费| 手机成人av网站| 三级男女做爰猛烈吃奶摸视频| 19禁男女啪啪无遮挡网站| 亚洲成人久久爱视频| av在线蜜桃| 欧美成人a在线观看| 国产精品乱码一区二三区的特点| 狠狠狠狠99中文字幕| 搞女人的毛片| 国产精品,欧美在线| 婷婷丁香在线五月| 国产精品久久久久久亚洲av鲁大| 18禁黄网站禁片午夜丰满| 国产亚洲精品久久久久久毛片| 亚洲黑人精品在线| 午夜日韩欧美国产| 色噜噜av男人的天堂激情| tocl精华| 老司机在亚洲福利影院| 狠狠狠狠99中文字幕| 免费在线观看日本一区| 男女做爰动态图高潮gif福利片| 久久精品国产99精品国产亚洲性色| 精品国产超薄肉色丝袜足j| 91久久精品国产一区二区成人 | 国产一区二区三区视频了| 高清毛片免费观看视频网站| 亚洲av五月六月丁香网| 欧美性猛交黑人性爽| 黄色丝袜av网址大全| 亚洲国产精品sss在线观看| 真人一进一出gif抽搐免费| 淫妇啪啪啪对白视频| 男人舔奶头视频| 国产精品久久久久久人妻精品电影| 免费人成在线观看视频色| 91av网一区二区| 夜夜夜夜夜久久久久| 97碰自拍视频| 亚洲五月婷婷丁香| 老熟妇乱子伦视频在线观看| 搡老妇女老女人老熟妇| 精品不卡国产一区二区三区| bbb黄色大片| 美女免费视频网站| 日本一本二区三区精品| 中文字幕熟女人妻在线| 手机成人av网站| www.www免费av| 日韩中文字幕欧美一区二区| 亚洲五月天丁香| 久久久久国产精品人妻aⅴ院| 久久久久久久久久黄片| 内地一区二区视频在线| 亚洲国产精品999在线| 一级作爱视频免费观看| 999久久久精品免费观看国产| 色精品久久人妻99蜜桃| 网址你懂的国产日韩在线| 日韩欧美免费精品| 高潮久久久久久久久久久不卡| 亚洲av美国av| 亚洲在线自拍视频| 久久精品夜夜夜夜夜久久蜜豆| 女人被狂操c到高潮| 男女午夜视频在线观看| 一卡2卡三卡四卡精品乱码亚洲| 男女床上黄色一级片免费看| 一本综合久久免费| 嫁个100分男人电影在线观看| 亚洲精品亚洲一区二区| 精品99又大又爽又粗少妇毛片 | 亚洲专区国产一区二区| 日本 欧美在线| 亚洲av五月六月丁香网| 狠狠狠狠99中文字幕| 99久久99久久久精品蜜桃| 亚洲av电影在线进入| 免费观看精品视频网站| 亚洲av免费在线观看| 国产成人a区在线观看| 亚洲激情在线av| 国内久久婷婷六月综合欲色啪| 免费电影在线观看免费观看| 亚洲天堂国产精品一区在线| 中文字幕人妻丝袜一区二区| 国产伦在线观看视频一区| 国产成人影院久久av| 亚洲精品在线观看二区| 精品久久久久久久久久久久久| 日韩欧美三级三区| 天堂网av新在线| 国产av不卡久久| 可以在线观看毛片的网站| 午夜福利欧美成人| 99久国产av精品| 97人妻精品一区二区三区麻豆| x7x7x7水蜜桃| 中文亚洲av片在线观看爽| 亚洲五月天丁香| 欧美日韩综合久久久久久 | 欧美3d第一页| 2021天堂中文幕一二区在线观| 在线免费观看不下载黄p国产 | 一本综合久久免费| 亚洲最大成人手机在线| 亚洲成人精品中文字幕电影| 久久人妻av系列| 欧美一区二区亚洲| 国产极品精品免费视频能看的| 又爽又黄无遮挡网站| 中文字幕人妻丝袜一区二区| 在线十欧美十亚洲十日本专区| 在线观看午夜福利视频| 此物有八面人人有两片| 国产高清videossex| 久久久精品欧美日韩精品| 日本成人三级电影网站| 亚洲成a人片在线一区二区| 香蕉av资源在线| 脱女人内裤的视频| 亚洲无线在线观看| 老司机深夜福利视频在线观看| 欧美成人性av电影在线观看| 在线十欧美十亚洲十日本专区| 欧美激情在线99| 无限看片的www在线观看| 69人妻影院| 久久精品国产综合久久久| 嫩草影院精品99| 伊人久久精品亚洲午夜| 国产精品女同一区二区软件 | 深爱激情五月婷婷| 高潮久久久久久久久久久不卡| 亚洲精品一区av在线观看| 欧美中文日本在线观看视频| 亚洲精品成人久久久久久| 99久国产av精品| 国产精品,欧美在线| 精品久久久久久久人妻蜜臀av| 久久久久久国产a免费观看| 国产亚洲精品av在线| 男女之事视频高清在线观看| 老熟妇乱子伦视频在线观看| a在线观看视频网站| 日韩欧美 国产精品| 99热6这里只有精品| 亚洲欧美日韩无卡精品| 欧美一级毛片孕妇| 亚洲成人中文字幕在线播放| 特大巨黑吊av在线直播| 美女免费视频网站| 老司机午夜福利在线观看视频| 国内揄拍国产精品人妻在线| 天堂影院成人在线观看| 十八禁网站免费在线| 窝窝影院91人妻| 听说在线观看完整版免费高清| 欧美+日韩+精品| 欧美激情在线99| 国产视频一区二区在线看| 日韩亚洲欧美综合| 村上凉子中文字幕在线| aaaaa片日本免费| 国产精品av视频在线免费观看| 黄色丝袜av网址大全| 19禁男女啪啪无遮挡网站| 久久精品国产综合久久久| 亚洲精品影视一区二区三区av| 久久伊人香网站| 久久久久久国产a免费观看| 亚洲欧美日韩东京热| 免费搜索国产男女视频| 亚洲成人久久性| 亚洲精品456在线播放app |