• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于Spark和NRSCA策略的并行深度森林算法

    2024-02-18 23:40:14毛伊敏劉紹芬
    計算機(jī)應(yīng)用研究 2024年1期

    毛伊敏 劉紹芬

    摘 要:針對并行深度森林在大數(shù)據(jù)環(huán)境下存在冗余及無關(guān)特征過多、兩端特征利用率過低、模型收斂速度慢以及級聯(lián)森林并行效率低等問題,提出了基于Spark和NRSCA策略的并行深度森林算法——PDF-SNRSCA。首先,該算法提出了基于鄰域粗糙集和Fisher score的特征選擇策略(FS-NRS),通過衡量特征的相關(guān)性和冗余度,對特征進(jìn)行過濾,有效減少了冗余及無關(guān)特征的數(shù)量;其次,提出了一種隨機(jī)選擇和等距提取的掃描策略(S-RSEE),保證了所有特征能夠同概率被利用,解決了多粒度掃描兩端特征利用率低的問題;最后,結(jié)合Spark框架,實現(xiàn)級聯(lián)森林并行化訓(xùn)練,提出了基于重要性指數(shù)的特征篩選機(jī)制(FFM-II),篩選出非關(guān)鍵性特征,平衡增強(qiáng)類向量與原始類向量維度,從而加快模型收斂速度,同時設(shè)計了基于SCA的任務(wù)調(diào)度機(jī)制(TSM-SCA),將任務(wù)重新分配,保證集群負(fù)載均衡,解決了級聯(lián)森林并行效率低的問題。實驗表明,PDF-SNRSCA算法能有效提高深度森林的分類效果,且對深度森林并行化訓(xùn)練的效率也有大幅提升。

    關(guān)鍵詞:并行深度森林算法; Spark框架; 鄰域粗糙集; 正弦余弦算法; 多粒度掃描

    中圖分類號:TP181?? 文獻(xiàn)標(biāo)志碼:A?? 文章編號:1001-3695(2024)01-019-0126-08

    doi:10.19734/j.issn.1001-3695.2023.05.0196

    Parallel deep forest algorithm based on Spark and NRSCA strategy

    Abstract:Aiming to address several issues encountered by parallel deep forest algorithms in big data environments, such as excessive redundancy and irrelevant features, low utilization rate of features at both ends, slow model convergence speed, and low parallel efficiency of cascading forests, this paper proposed a parallel deep forest algorithm based on Spark and NRSCA strategy (PDF-SNRSCA). Firstly, the algorithm proposed a feature selection strategy (FS-NRS) based on neighborhood rough sets and Fisher score, which measured the correlation and redundancy of features to effectively reduce the number of redundant and irrelevant features. Secondly, it proposed a scanning strategy based on random selection and equidistant extraction (S-RSEE) to ensure that all features were utilized with the same probability and solved the problem of low utilization rate of two ends in multi-granularing scanning. Finally, combining with the Spark framework, the algorithm realized the parallel trai-ning of cascading forests, and it proposed a feature filtering mechanism based on the importance index (FFM-II) to balance the dimensions of enhanced class vectors and original class vectors, thereby accelerating the model convergence speed. Meanwhile, the algorithm designed a task scheduling mechanism based on SCA (TSM-SCA) to redistribute tasks and ensure load balancing in the cluster, which solved the problem of low parallel efficiency of cascading forests. Experiments show that the PDF-SNRSCA algorithm can effectively improve the classification performance of deep forests and greatly enhance the efficiency of parallel training of deep forests.

    Key words:parallel deep forest algorithm; Spark framework; neighborhood rough sets; sine cosine algorithm; multi-granularing scanning

    0 引言

    深度森林[1]是基于森林的集成學(xué)習(xí)方法,其超參數(shù)較少,具有良好的表征學(xué)習(xí)能力,被廣泛應(yīng)用于圖像識別[2,3]、故障診斷[4]、指標(biāo)預(yù)測[5]等各個領(lǐng)域。然而隨著大數(shù)據(jù)時代的到來,各個領(lǐng)域的數(shù)據(jù)量和特征量呈指數(shù)級增長,深度森林面對數(shù)據(jù)量和特征量的增長,其訓(xùn)練代價明顯增加,訓(xùn)練效果下降。因此,改進(jìn)深度森林訓(xùn)練模型,提高其并行化效率刻不容緩。

    針對大數(shù)據(jù)規(guī)模龐大且計算復(fù)雜等問題,谷歌公司開發(fā)的Spark[6]計算速度快,通用性強(qiáng),易于使用,并且支持多種語言,受到了廣大學(xué)者的青睞。目前已有基于Spark框架的并行深度森林算法投入到實際應(yīng)用當(dāng)中。例如文獻(xiàn)[7]在潛在客戶離網(wǎng)預(yù)測系統(tǒng)中,提出了基于Spark的并行深度森林算法(pa-rallel deep forest algorithm based on Spark,PDFS),該算法提出了基于索引的多粒度掃描算法和隨機(jī)采樣構(gòu)造隨機(jī)森林的方法,以解決多粒度掃描階段存儲空間占用大的問題。文獻(xiàn)[8]提出了一種基于并行深度森林的網(wǎng)絡(luò)入侵檢測算法(network intrusion detection algorithm based on parallel deep forest,NID-PDF),該算法使用效率排序和分區(qū)完整性檢查的方式優(yōu)化了RDD緩存替換策略,從而提高了并行作業(yè)效率。為了進(jìn)一步提高并行深度森林的效率,文獻(xiàn)[9]提出了基于Spark框架的并行深度森林算法(bag of little bootstraps-gcForset,BLB-gcForest),該算法使用了自助采樣機(jī)制,減少了大量數(shù)據(jù)樣本在級聯(lián)森林層中的傳輸,并且提出自適應(yīng)子森林劃分算法,提高了各節(jié)點的利用率。以上三種改進(jìn)的深度森林算法在分類效果和訓(xùn)練效率上相比原始深度森林算法有了一定的提升,但是仍存在以下不足:a)在特征選擇階段,沒有對原始數(shù)據(jù)的特征進(jìn)行有效劃分和篩選,導(dǎo)致級聯(lián)森林訓(xùn)練過程中存在冗余特征過多的問題;b)在多粒度掃描階段,原始掃描方法采用滑動方式會導(dǎo)致兩端特征利用率過低;c)在模型并行化訓(xùn)練階段,原始類向量和增強(qiáng)類向量維度相差過大,使得增強(qiáng)類向量淹沒在原始類向量中,導(dǎo)致模型收斂速度慢,并且任務(wù)調(diào)度不均衡將造成集群負(fù)載不均衡,級聯(lián)森林并行化效率低下的情況。

    針對以上問題,本文提出了基于鄰域粗糙集改進(jìn)的并行深度森林算法——PDF-SNRSCA,算法的主要工作如下:

    a)在特征選擇階段,提出了基于鄰域粗糙集和Fisher score的特征選擇策略(feature selection strategy based on neighborhood rough sets and Fisher score,F(xiàn)S-NRS),通過衡量特征的相關(guān)性和冗余度,篩選出信息量較大的特征,解決冗余及無關(guān)特征過多的問題。

    b)在多粒度掃描階段,提出了一種隨機(jī)選擇和等距提取的掃描策略(scanning strategy for random selection and equidistant extraction,S-RSEE),替代原始的多粒度掃描策略,解決多粒度掃描兩端特征利用率低的問題。

    c)在模型并行化訓(xùn)練階段,提出了基于重要性指數(shù)的特征篩選機(jī)制(feature filtering mechanism based on importance index,F(xiàn)FM-II),以此平衡增強(qiáng)類向量與原始類向量維度,解決了模型收斂速度慢的問題;同時設(shè)計了基于SCA的任務(wù)調(diào)度機(jī)制(task scheduling mechanism based on SCA,TSM-SCA),將任務(wù)重新分配,保證集群負(fù)載均衡,提高了級聯(lián)森林并行化效率。

    1 相關(guān)概念介紹

    1.1 鄰域粗糙集

    鄰域粗糙集[10]是粗糙集的鄰域近似擴(kuò)展,是在δ鄰域的基礎(chǔ)上建立基于距離度量函數(shù)的鄰域關(guān)系,其研究對象是鄰域信息系統(tǒng)。

    定義1 鄰域信息系統(tǒng)[11]。設(shè)一個數(shù)據(jù)樣本集U={x1,x2,…,xn},其中F={f1,f2,…,fm}是它的特征屬性集, C={c1,c2,…,ca}是它的標(biāo)簽屬性集,則三者構(gòu)成的系統(tǒng)NS=〈U,F(xiàn),C〉即為鄰域信息系統(tǒng)。

    a)在NS=〈U,F(xiàn),C〉中,對于任意樣本xi,xj∈U,xi在IF下的鄰域集可表示為

    δI(xi)={xj∈U|disI(xi,xj)≤δ}(1)

    其中:δI(xi)表示樣本xi在特征子集I下,以δ大小為半徑的鄰域信息粒;dis為距離函數(shù)。樣本xi和xj在屬性fp∈I下的絕對距離可表示為

    disI(xi,xj)=∑|I|i=1|H(xi,fp)-H(xj,fp)|(2)

    其中:H(x,fp)為樣本x在屬性fp上的取值。

    b)在NS=〈U,F(xiàn),C〉中,令鄰域半徑為δ,特征子集IF在U上確定的鄰域關(guān)系為NI,對于近似對象集XU關(guān)于NI的鄰域下近似集和領(lǐng)域上近似集可分別表示為

    定義2 鄰域信息熵[12]。給定鄰域信息系統(tǒng)NS=〈U,F(xiàn),C〉,令鄰域半徑為δ,當(dāng)f∈F,f的鄰域信息熵定義為

    其中:δf(xi)是樣本xi根據(jù)屬性f在U上的鄰域關(guān)系計算得到的鄰域集;NHδ(f)度量特征中信息量的大小,NHδ(f)越大,信息量越大。

    定義3 鄰域互信息[12]。給定鄰域決策信息系統(tǒng)NS=〈U,F(xiàn),C〉,令鄰域半徑為δ, 當(dāng)f∈F, f與C的鄰域互信息定義為

    其中:δC(xi), δf(xi), δf∪C(xi)是樣本xi根據(jù)屬性集f;C在U上的鄰域關(guān)系計算得到的鄰域集;NHδ(f;C)度量特征與標(biāo)簽之間的相關(guān)性,NHδ(f;C)越大,特征與標(biāo)簽相關(guān)性越強(qiáng)。

    定義4 鄰域?qū)ΨQ不確定性[13]。給定鄰域決策信息系統(tǒng)NS=〈U,F(xiàn),C〉,令鄰域半徑為δ,當(dāng)f∈F,f與C的鄰域不確定性定義為

    其中:NHδ(f;C)表示f和C的鄰域互信息;NHδ(f)表示f的鄰域信息熵;NHδ(C)表示C的鄰域信息熵;SUδ(f,C)度量特征與標(biāo)簽之間的相關(guān)性,SUδ(f,C)越大,特征與標(biāo)簽的相關(guān)性越強(qiáng)。

    1.2 Fisher score

    Fisher score[14]是通過衡量特征在同一類別和不同類別的取值差異來衡量特征的重要性,F(xiàn)isher score的值越高,表明特征在不同類別之間的差異性越大,在同一類別中的差異性越小,特征越重要。假設(shè)有特征i和類別j,則其Fisher score FSi的定義為

    其中:μij和ρij分別是特征i在類別j中的均值和方差;μi為特征i的均值;nj為類別j中的樣本數(shù)。

    1.3 正余弦算法

    正余弦算法(sine cosine algorithm,SCA)[15]利用正弦函數(shù)和余弦函數(shù)的數(shù)學(xué)性質(zhì),通過自適應(yīng)改變正弦函數(shù)和余弦函數(shù)的振幅來平衡算法在搜索過程中的全局探索和局部開發(fā)能力,并最終找到全局最優(yōu)解。其主要步驟為:

    a)初始化種群。初始化種群數(shù)量為M,Xi=(xi1,xi2,…,xiN)表示第i(i=1,2,…,M)個個體,個體的搜索空間維度為N,每個個體的初始位置為

    xij=xmin,j+r(0,1)×(xmax,j-xmin,j)(9)

    其中:xmax,j和xmin,j分別為個體在維度j上的上下限;r(0,1)為(0,1)內(nèi)的隨機(jī)量。

    b)定義個體的適應(yīng)度函數(shù)。當(dāng)各節(jié)點的負(fù)載率與平均負(fù)載率方差最小時,表明達(dá)到均衡狀態(tài),因此,本文定義個體適應(yīng)度函數(shù)如下:

    其中:ηi表示節(jié)點Ni(i=1,2,…,n)當(dāng)前的負(fù)載率;η0表示達(dá)到平衡時各節(jié)點的平均負(fù)載率。

    c)更新個體位置。通過目標(biāo)函數(shù),計算個體的適應(yīng)度,尋找全局最優(yōu)解,最優(yōu)解表示為Pg=(pg1,p2,…,pgN),并且迭代更新個體的位置,更新可通過下式計算得出

    其中:xt+1ij為個體i在維度j上的更新位置; xtij為個體i在維度j上的原位置; pgj為當(dāng)前全局最優(yōu)解的j維位置;r2、r3和r4為三個服從均勻分布的隨機(jī)數(shù),r2∈[0,2π],r3∈[-2,2],r4∈[0,1];r1為振幅控制參數(shù),其表達(dá)式為

    d)種群迭代。重復(fù)步驟c),直到滿足設(shè)定條件,輸出全局最優(yōu)的個體Pg。

    2 PDF-SNRSCA算法

    PDF-SNRSCA算法主要包含特征預(yù)處理、多粒度掃描、級聯(lián)森林并行化訓(xùn)練三個階段。a)特征預(yù)處理階段提出FS-NRS策略,通過衡量特征的相關(guān)性和冗余度,過濾冗余及無關(guān)特征;b)多粒度掃描階段設(shè)計S-RSEE策略,利用隨機(jī)掃描和等距提取相結(jié)合的方法,使得特征同概率被選取,解決了兩端特征利用率過低的問題;c)級聯(lián)森林并行化訓(xùn)練階段首先結(jié)合Spark框架搭建并行森都森林模型,提出FFM-II機(jī)制,通過模型的訓(xùn)練準(zhǔn)確率計算特征的重要性指數(shù),剔除非關(guān)鍵特征,平衡增強(qiáng)類向量與原始類向量維度,加快模型收斂速度;同時設(shè)計TSM-SCA機(jī)制,通過SCA算法來迭代尋找最優(yōu)的調(diào)度方案,實現(xiàn)負(fù)載均衡,提高并行化效率。

    2.1 特征預(yù)處理

    針對原始特征集中冗余及無關(guān)特征過多的問題,提出了FS-NRS的特征選擇策略,該策略主要包含兩個步驟:

    a)篩選無關(guān)特征。為了準(zhǔn)確篩選出原始特征集中存在的大量無關(guān)特征,提出了特征分割參數(shù)FSP將原始特征集劃分為無關(guān)特征集和候選特征集。其劃分過程如下:首先計算出每個特征Fisher score FSf和SUδ(f,C);然后根據(jù)FSf和SUδ(f,C)計算原始特征集中每個特征的特征分割參數(shù)FSP,并且根據(jù)FSP的大小進(jìn)行降序排序;最后按照FSP值,從高到低將原始特征集劃分為候選特征集合和無關(guān)特征集合兩部分。

    定義5 特征分割參數(shù)FSP。已知樣本集合中,類別數(shù)量為k,特征f的特征分割參數(shù)FSP為

    FSP=FSfSUδ(f,C)(13)

    其中

    證明 根據(jù)鄰域?qū)ΨQ不確定性定義可知, SUδ(f,C)可以衡量當(dāng)前特征f和標(biāo)簽集C的相關(guān)性,當(dāng)SUδ(f,C)較大時,表明當(dāng)前特征f和標(biāo)簽集C的相關(guān)性越大;根據(jù)Fisher score定義可知,F(xiàn)Sf可以衡量特征f的重要性,F(xiàn)Sf越大,表明特征f的重要性越高。FSP設(shè)定成鄰域?qū)ΨQ不確定性與Fisher score的乘積,同時考慮了特征相關(guān)性和特征重要性,當(dāng)所選特征與標(biāo)簽具有高相關(guān)性且特征重要性越高時,F(xiàn)SP的值越大,重要特征被選出,因此可用FSP作為特征分割,證畢。

    b)過濾冗余特征。經(jīng)過無關(guān)特征的初步過濾后,候選特征集合依舊存在著大量的冗余特征,因此提出了冗余系數(shù)RF,對候選特征集進(jìn)行過濾,進(jìn)一步篩選出大量冗余特征,獲取優(yōu)質(zhì)特征集。該過程如下:首先計算特征與標(biāo)簽間的鄰域互信息NHδ(fi;C)以及特征間的鄰域不確定性SUδ(fi,fj);然后利用NHδ(fi;C)和SUδ(fi,fj)計算特征間的冗余系數(shù)RF,并且根據(jù)冗余系數(shù)和閾值比較,進(jìn)一步消除冗余特征,獲取優(yōu)質(zhì)特征集。

    定義6 冗余系數(shù)RF。已知存在特征fi、fj,則兩個特征的冗余系數(shù)RFi,j為

    證明 SUδ(fi,fj)為特征和特征之間的鄰域?qū)ΨQ不確定性,根據(jù)鄰域?qū)ΨQ不確定性可知,SUδ(fi,fj)可以度量特征和特征之間的相關(guān)性程度,SUδ(fi,fj)越大,表示特征與特征之間的相關(guān)性越大,特征間信息的冗余程度越大; NHδ(fi;C)為特征和標(biāo)簽之間的鄰域互信息,根據(jù)鄰域互信息可知,NHδ(fi;C)可以度量特征和標(biāo)簽之間的相關(guān)程度,NHδ(fi;C)越大,表示特征與標(biāo)簽之間的相關(guān)信息量越大。當(dāng)SUδ(fi,fj)越大,NHδ(fi;C)越小時,表明特征fi、fj之間重疊的信息量越大,特征fi與標(biāo)簽C相關(guān)度越小,此時SUδ(fi,fj)/NHδ(fi;C)比值越大,特征之間存在巨大冗余,因此冗余系數(shù)RF可以衡量特征冗余信息量的大小,證畢。

    算法1 FS-NMI策略

    輸入:樣本集合U,標(biāo)簽集合C,特征集合F={f1,f2,…,fm},參數(shù)θ和η。

    輸出:特征子集L。

    1) 篩選無關(guān)特征

    //Q表示中間數(shù)據(jù)集合,用來暫時存儲已計算FSP值的特征

    Q=;

    //θ表示劃分的比例系數(shù)

    determine the division ratio:θ;

    for k=1 to m do

    calculate FSfk for fk in the sample set;

    calculate FSP=FSfkSUδ(fk,C)for in the sample set;

    Q=Q+{fk}

    end for

    order Q in descending FSP value;

    //根據(jù)θ將中間數(shù)據(jù)集合Q劃分為無關(guān)特征集合和候選特征集合

    divide the Q into two parts at the ratio θ:independent feature set,candidate feature set L;

    output feature subset L;

    2) 過濾冗余特征

    //η表示閾值

    defined threshold:η;

    //fi表示第一候選特征

    for fi∈L

    calculate NHδ(fi;C);

    //fj表示第二候選特征

    for fj∈L-{fi}

    calculate SUδ(fi,fj);

    calculate RFi,j;

    if RFi,j>η

    L=L-{fj};

    end for

    end for

    output feature subset L;

    2.2 多粒度掃描

    經(jīng)過特征預(yù)處理階段獲取的優(yōu)質(zhì)特征集,被送入多粒度掃描階段處理,然而傳統(tǒng)多粒度掃描存在兩端特征利用率過低的問題,為此提出S-RSEE的特征掃描策略。該策略具體流程如下:

    a)隨機(jī)掃描。特征預(yù)處理階段得到特征集合L,其大小為x,類別數(shù)為y,從L中隨機(jī)抽取h個特征組成一個特征片段,重復(fù)抽取b次,共生成b個特征片段,將每個特征片段導(dǎo)入到隨機(jī)森林中訓(xùn)練,得到b個y維的類向量。

    b)等距提取。將特征集合L等分為b個特征片段,每份大小為x/b」,將每個特征片段導(dǎo)入到完全隨機(jī)森林中訓(xùn)練,同樣得到b個y維的類向量。

    c)初始化類向量。重復(fù)上述兩個階段z次,將z次訓(xùn)練后得到的類向量進(jìn)行拼接,最后得到2zby維的原始類向量E。

    算法2 S-RSEE策略

    輸入:特征子集L,子集大小為x,類別數(shù)為y,參數(shù)h、b、z。

    輸出:原始類向量E。

    initialization parameters h,b,z;

    /*h表示隨機(jī)抽取特征的數(shù)量,b表示重復(fù)抽取的次數(shù),z表示重復(fù)兩個階段的次數(shù)*/

    define variable H,W,B1,B2;

    /*H用來存儲隨機(jī)抽取的特征,W表示等距劃分后,特征片段的大小,B1存儲隨機(jī)掃描訓(xùn)練后的類向量,B2存儲等距提取訓(xùn)練后的類向量*/

    for k=1 to z do

    //隨機(jī)掃描階段

    for i=1 to b do

    randomly sample h features from the original feature set L;

    combine feature h features into a feature segment H;

    get one y-dim class vector from random forest (H);

    end for

    B1=B1 + Get b y-dim class vectors;

    //等距提取階段

    divide the feature set L equally into b parts, each of size W=x/b」;

    for i=1 to B2 do

    get one y-dim class vector from complete random forest (W);

    end for

    B2=B2+get b y-dim class vectors;

    end for

    //初始化類向量階段

    merge B1 and B2 into the original class vector E

    2.3 級聯(lián)森林并行化訓(xùn)練

    針對并行訓(xùn)練過程中模型收斂速度慢、級聯(lián)森林并行訓(xùn)練效率低的問題,本文結(jié)合Spark對每層級聯(lián)森林模型進(jìn)行并行化訓(xùn)練,該過程分為兩個階段:a)并行構(gòu)建級聯(lián)森林,利用Spark框架搭建并行深度森林,提出了FFM-II的特征篩選機(jī)制,根據(jù)級聯(lián)森林訓(xùn)練得出的準(zhǔn)確率剔除非關(guān)鍵特征,平衡增強(qiáng)類向量和原始類向量維度;b)負(fù)載均衡,設(shè)計了TSM-SCA的任務(wù)調(diào)度機(jī)制,利用SCA算法計算出最優(yōu)的任務(wù)分配方案,然后Spark集群按照方案分配任務(wù)。

    2.3.1 并行構(gòu)建級聯(lián)森林

    在利用Spark構(gòu)建并行級聯(lián)森林過程中,由于級聯(lián)森林訓(xùn)練得到的增強(qiáng)類向量維度遠(yuǎn)低于原始類向量維度,導(dǎo)致模型收斂速度慢,因此提出FFM-II的特征篩選機(jī)制,通過模型的訓(xùn)練準(zhǔn)確率計算特征的重要性指數(shù),以此剔除部分非關(guān)鍵特征,平衡增強(qiáng)類向量和原始類向量維度,從而加快模型收斂速度,該策略過程如下:

    a)過濾特征。首先根據(jù)當(dāng)前層級聯(lián)森林的訓(xùn)練準(zhǔn)確率,計算每個特征的重要性指數(shù)G(f),并根據(jù)G(f)的值對原始類向量中的特征從低到高排序;然后提出自適應(yīng)比例系數(shù)QDF,按照當(dāng)前原始類向量的特征數(shù)量計算自適應(yīng)比例系數(shù)QDF;最后根據(jù)QDF值將排好序的原始類向量E分為非關(guān)鍵類向量和有效類向量,將非關(guān)鍵類向量放入到非關(guān)鍵類向量集合R。

    b)合并類向量。首先拼接前面所有層級聯(lián)森林訓(xùn)練得到的增強(qiáng)類向量,得到總的增強(qiáng)類向量D;然后將總的增強(qiáng)類向量D與下一層級聯(lián)森林的原始類向量E′進(jìn)行拼接;最后從拼接后的類向量中刪除非關(guān)鍵類向量集合R中包含的特征,獲取輸入到下一層級聯(lián)森林的類向量ED。

    定義7 重要性指數(shù)G(f)。假設(shè)在當(dāng)前層級森林中,決策樹權(quán)重為μi,子森林權(quán)重為εj,特征f的重要性在第j個子森林的第i棵決策樹中為Gi(f),則在當(dāng)前層級聯(lián)森林中,特征f重要性指數(shù)為

    其中:Pi是第j個子森林中第i棵決策樹的準(zhǔn)確率;Qj是第j個子森林的準(zhǔn)確率。

    證明 假設(shè)每層級聯(lián)森林中含有s個子森林,每個森林中含有r棵決策樹,其中,第j個子森林中第i棵決策樹的準(zhǔn)確率為Pi,第j個子森林的準(zhǔn)確率為Qj,準(zhǔn)確率可以衡量決策樹和子森林的分類能力。Pi與∑ri=1Pi的比值表示單個決策樹預(yù)測準(zhǔn)確率與子森林總準(zhǔn)確率歸一化權(quán)重,其值越大說明該決策樹分類能力越強(qiáng),在子森林中越重要。同理,Qj與∑sj=1Qj的比值反映了Qj在本層級聯(lián)森林總準(zhǔn)確率∑sj=1Qj的權(quán)重,其值越大則說明該子森林分類能力越強(qiáng),在本層級聯(lián)森林中越重要。Gi(f)表示特征f在第i棵決策樹中的重要性,Gi(f)的值只能衡量特征在當(dāng)前決策樹中的重要性,若想要衡量特征f在當(dāng)前層級聯(lián)森林中的重要性,需要計算特征在當(dāng)前層所有決策樹中的重要程度,所以在當(dāng)前層級聯(lián)森林中,特征f重要性指數(shù)為

    G(f)=∑sj=1∑ri=1εj×μi×Gi(f)(20)

    定義8 自適應(yīng)比例系數(shù)QDF。假設(shè)第λ層級聯(lián)森林中,原始類向量的特征數(shù)量為Nλ,則第λ層的自適應(yīng)比例系數(shù)QDF為

    證明 當(dāng)λ=1時,第1層級聯(lián)森林原始向量的特征數(shù)量為Nλ,令QλDF=1/[2×(λ+1/log2Nλ)],此時QDF<0.25,則QλDF1/log2Nλ,Qλ+1DF

    綜上QDF是一個可以根據(jù)級聯(lián)森林的層數(shù)和特征數(shù)量來動態(tài)調(diào)整劃分比例的系數(shù),且級聯(lián)森林的層數(shù)越多,劃分比例越小。

    算法3 FFM-II機(jī)制

    輸入:當(dāng)前層的原始類向量E,下一層的原始類向量E′,前面所有層的增強(qiáng)類向量之和D,前面所有層的冗余類向量之和R;當(dāng)前層的訓(xùn)練結(jié)果Pi和Qj。

    輸出:下一層類向量ED。

    for i=1 to r do

    //計算決策樹的權(quán)重

    calculate weight μi=Pi/∑ri=1Pi for each decision tree;

    end for

    for j=1 to s do

    //計算子森林的權(quán)重

    calculate εj=Qj/∑sj=1Qj for child forest;

    end for

    //計算特征的重要性指數(shù)

    for j=1 to s do

    for i=1 to r do

    calculate the importance of each feature Gi(f) in each decision tree;

    Gj(f)=∑r-1i=1μi×Gi(f);

    end for

    G(f)=∑s-1j=1εj×Gj(f);

    end for

    order E in descending G(f) value;

    //QDF表示自適應(yīng)比例系數(shù)

    calculate the ratio QDF=1/[2×(λ+1/log2Nλ)] according to the number of features;

    divide the E into two parts at the ratio QDF:valid vectors E,redundant vectors R;

    //合并類向量

    ED=E′+D-R;

    output ED;

    2.3.2 負(fù)載均衡

    針對Spark各節(jié)點計算能力偏差造成的集群負(fù)載不均衡,導(dǎo)致級聯(lián)森林并行化效率低下的問題,設(shè)計了TSM-SCA的任務(wù)調(diào)度機(jī)制,通過SCA算法求解最優(yōu)的調(diào)度方案,重新分配任務(wù),使節(jié)點達(dá)到負(fù)載均衡的狀態(tài),從而提高并行化效率。具體步驟如下:

    a)初始化SCA種群。初始化種群數(shù)量為k,Xi=(xi1,xi2,…,xiN)表示第i(i=1,2,…,k)個個體,根據(jù)集群節(jié)點數(shù)量設(shè)置搜索空間維度為N。

    b)更新個體的位置。提出基于慣性因子ω的位置更新函數(shù)W(x)來替代式(10),以此提升個體的全局搜索能力,加快算法收斂。

    c)更新振幅控制參數(shù)r1。式(11)中r1是線性遞減的,前期和后期遞減速度相同,導(dǎo)致前期全局搜索不充分,后期算法無法快速收斂。為了獲得更好的穩(wěn)定性和更高的尋優(yōu)能力,對控制參數(shù)r1提出一種基于正切函數(shù)的曲線自適應(yīng)振幅調(diào)整策略,來保證解的優(yōu)質(zhì)性。

    d)判斷當(dāng)前最優(yōu)個體是否滿足解條件。若滿足條件或者設(shè)定的迭代次數(shù)達(dá)到上限,則輸出當(dāng)前最優(yōu)個體Pg,不滿足則重復(fù)b)c)。

    e)任務(wù)分配。集群根據(jù)得到的任務(wù)調(diào)度方案Pg=(pg1,pg2,…,pgN)進(jìn)行任務(wù)分配,實現(xiàn)集群的負(fù)載平衡。

    定義9 位置更新函數(shù)W(x)。假設(shè)xtij為個體i在維度j上的原位置,xt+1ij為個體i在維度j上的更新位置,pgj為當(dāng)前全局最優(yōu)解的j維位置,ω(t)為慣性因子,位置更新函數(shù)為

    其中:T為最大迭代次數(shù);ωmax為初始慣性因子,即最大值;ωmin為迭代結(jié)束時的慣性因子,即最小值。

    證明 根據(jù)慣性因子的迭代定理[15]可知,在迭代早期,較大慣性因子可以提升全局搜索能力,在迭代晚期,較小慣性因子可以增強(qiáng)局部開發(fā)能力,加速算法收斂。當(dāng)前迭代次數(shù)t和最大迭代次數(shù)T的比值t/T表示當(dāng)前迭代所處的時間段, t與T的比值在[0,1],因為函數(shù)f(t)=1-(t/T)2在t/T∈[0,1]先緩慢遞減,后快速遞減,且當(dāng)t/T→0時,ω→ωmax,t/T→1時,ω→ωmin,所以慣性因子ω在早期取值較大,在后期取值較小,ω(t)滿足了慣性因子的迭代定理。因此,使用W(t)可以提升全局搜索能力,加快算法收斂,證畢。

    定義10 r1自適應(yīng)振幅調(diào)整策略。假設(shè)T為最大迭代次數(shù),a為常數(shù),則在t次迭代時,控制參數(shù)r1為

    證明 當(dāng)前迭代次數(shù)t和最大迭代次數(shù)T的比值t/T表示當(dāng)前迭代所處的時間段,t與T的比值在[0,1],因為函數(shù)f(t)=1-tan[(π/4)×(t/T)]在t/T∈[0,1]區(qū)間先緩慢遞減,后快速遞減,所以r1∈[0,a]的遞減速率先慢后快。在前期r1遞減緩慢,保證了前期的迭代次數(shù)比原始SCA算法更多,可以相對增加全局搜索能力,有助于在更大空間內(nèi)搜尋最優(yōu)解;在后期r1加速遞減,加快算法收斂,可以提升SCA的尋優(yōu)精度和收斂速度。因此,r1(t)可以增加全局搜索能力,加快收斂速度,提升解的精度,證畢。

    算法4 TSM-SCA機(jī)制

    輸入:節(jié)點數(shù)Ni(i=1,2,…,n)的負(fù)載能力Li,實時負(fù)載Ri,任務(wù)數(shù)Ti(i=1,2,…,m)。

    輸出:最優(yōu)調(diào)度方案Pg=(pg1,pg2,…,pgN)。

    //k表示種群數(shù)量,T表示最大迭代次數(shù)

    initialize population individual k the maximum number of iterations T

    for t=1 to T do

    //Xi表示第i個個體

    for each individual Xi do

    calculate fitness (Xi);

    //Pg表示當(dāng)前最優(yōu)個體

    update the current best candidate solution Pg

    update ω(t)=ωmin+(ωmax-ωmin)[1-(t/T)2];

    if (r4<0.5){

    xt+1ij=ω(t)×xtij+r1×sin r2×|r3pgj-xtij|;

    }

    else {

    xt+1ij=ω(t)×xtij+r1×cos r2×|r3pgj-xtij|;

    }

    update r1(t)=a×[1-tan(π/4×t/T)];

    end for

    end for

    //得到滿足條件的最優(yōu)個體

    output the task scheduling scheme Pg=(pg1,pg2,…,pgN)

    //按照最優(yōu)個體分配任務(wù)

    assign tasks according to the task scheduling scheme Pg

    2.4 PDF-SNRSCA算法的并行流程

    PDF-SNRSCA算法的并行化流程具體實現(xiàn)步驟如下:

    a)從分布式文件系統(tǒng)HDFS中讀取數(shù)據(jù),調(diào)用FS-NRS策略對數(shù)據(jù)集進(jìn)行特征降維,獲取得到優(yōu)質(zhì)的特征集。

    b)調(diào)用textFile()將優(yōu)質(zhì)的特征集轉(zhuǎn)換為RDD形式,利用S-RSEE策略對優(yōu)質(zhì)的特征集進(jìn)行訓(xùn)練,獲取原始類向量,并調(diào)用saveAsTextFile()將其存入HDFS中。

    c)集群中mapper節(jié)點從HDFS中讀取原始類向量,將原始類向量的數(shù)據(jù)集轉(zhuǎn)換為RDD數(shù)據(jù),針對每個RDD的分區(qū)分別搭建子森林,訓(xùn)練子森林,調(diào)用ResultTask計算子森林的準(zhǔn)確率,調(diào)用ShuffleMapTask得到每個子森林,訓(xùn)練得到類向量,將類向量寫入到ShuffleWriter。

    d)利用TSM-SCA機(jī)制,將每個RDD分區(qū)產(chǎn)生的類向量進(jìn)行分組聚合操作,得到當(dāng)前層的增強(qiáng)類向量。

    e)從每個任務(wù)收集子森林的準(zhǔn)確率并匯總結(jié)果,判斷當(dāng)前結(jié)果是否滿足訓(xùn)練終止條件,若滿足則停止計算,不滿足則利用FFM-II機(jī)制得到下一層級的原始類向量且重復(fù)步驟c)~e)。

    算法整體流程如圖1所示。

    2.5 算法時間復(fù)雜度分析

    PDFS[7]、NID-PDF[8]和BLB-gcForest[9]等都是基于Spark框架設(shè)計的并行深度森林算法,并且采用不同的策略提高了算法性能。例如PDFS算法采用了基于索引的多粒度掃描算法,節(jié)省了存儲空間,提高了訓(xùn)練效率;NID-PDF算法優(yōu)化了RDD緩存替換策略,提高了并行效率;BLB-gcForest算法采用自助采樣機(jī)制,減少了樣本在級聯(lián)森林層的傳輸,并且提出了自適應(yīng)子森林劃分算法,進(jìn)一步提高了并行效率。因此選取它們與PDF-SNRSCA算法進(jìn)行時間復(fù)雜度分析和實驗對比。

    PDF-SNRSCA算法的時間復(fù)雜度主要由特征預(yù)處理、多粒度掃描和級聯(lián)并行化訓(xùn)練三部分組成,分別記為T1、T2、T3。

    a)特征預(yù)處理階段。該階段的時間復(fù)雜度主要由篩選無關(guān)特征和過濾冗余特征兩部分組成。假設(shè)當(dāng)前數(shù)據(jù)樣本數(shù)量為p,特征數(shù)量為c,則篩選無關(guān)特征階段時間復(fù)雜度為O(c×p),過濾冗余特征階段時間復(fù)雜度為O(c2);綜上,特征預(yù)處理階段的時間復(fù)雜度T1為

    T1=O(c×p)+O(c2)(25)

    b)多粒度掃描階段。該階段的時間復(fù)雜度主要由隨機(jī)掃描和等距提取兩部分組成。假設(shè)樣本數(shù)量為p,隨機(jī)掃描規(guī)模為h,次數(shù)為b次,則隨機(jī)掃描階段的時間復(fù)雜度為O(b×h),等距提取階段的時間復(fù)雜度為O(b);假設(shè)兩個階段迭代的次數(shù)為z次,則特征掃描階段的時間復(fù)雜度T2為

    T2=O(z×b×h)+O(z×b)+O(z)(26)

    c)級聯(lián)并行化訓(xùn)練階段。該階段的時間復(fù)雜度主要由并行構(gòu)建級聯(lián)森林和負(fù)載均衡兩部分組成。假設(shè)傳入到級聯(lián)森林的原始特征個數(shù)為v,樣本數(shù)量為w,每一層森林的個數(shù)為s,每個森林包含r棵樹,級聯(lián)森林的層數(shù)為q,每個森林可劃分為u子森林,則并行構(gòu)建級聯(lián)森林階段的時間復(fù)雜度為O(w×s×r×q/u)+O(v×w+u);假設(shè)迭代次數(shù)為Iter,SCA算法初始化的個體數(shù)量為k,集群中節(jié)點個數(shù)為n,任務(wù)個數(shù)為m,則負(fù)載均衡階段的時間復(fù)雜度為O(Iter×k×n+m)。綜上,則級聯(lián)森林并行化階段的時間復(fù)雜度T3為

    T3=O(w×s×r×q/u)+O(v×w+u)+O(Iter×k×n+m)(27)

    綜上所述,PDF-SNRSCA算法的時間復(fù)雜度為T=T1+T2+T3。在大數(shù)據(jù)環(huán)境下輸入數(shù)據(jù)量十分龐大,且深度森林模型的時間復(fù)雜度主要由傳入級聯(lián)森林訓(xùn)練時的特征數(shù)量以及停止訓(xùn)練所需的層數(shù)決定,即算法的時間復(fù)雜度T中T3的v和q決定。對于特征v,由于算法PDFS、NID-PDF、BLB-gcForest都沒有進(jìn)行特征預(yù)處理,導(dǎo)致vPDFS>>vIPDF-NRS,vNID-DF>>vIPDF-NRS, vBLB-gcForest>>vIPDF-NRS;對于層數(shù)q,由于本文采用FFM-II策略加快了模型的收斂速度,使得所需的層數(shù)減少,從而使得qPDFS>>qIPDF-NRS,qNID-DF>>qIPDF-NRS,qBLB-gcForest>>qIPDF-NRS。因此,相比于其他三種算法,PDF-SNRSCA算法具有更低的時間復(fù)雜度。

    3 實驗結(jié)果與分析

    3.1 實驗環(huán)境

    為了驗證PDF-SNRSCA算法的性能,本文設(shè)計了相關(guān)實驗。在硬件方面,本實驗設(shè)置了8個計算節(jié)點,其中包含了1個master節(jié)點和7個slaver節(jié)點。各節(jié)點的配置均為Intel CoreTM i7-12700H CPU、16 GB DDR4 RAM、1TB SSD,且各節(jié)點處于同一局域網(wǎng)內(nèi),并通過1 Gbps以太網(wǎng)進(jìn)行通信。在軟件方面,每個計算節(jié)點上的軟件配置均為Ubuntu 18.04.6、JDK 1.8.0、Apache Hadoop 2.7.7。各節(jié)點具體配置如表1所示。

    3.2 實驗數(shù)據(jù)

    本文采用的實驗數(shù)據(jù)為四個來自UCI公共數(shù)據(jù)庫的數(shù)據(jù)集,分別為Nomao、TV news channel commercial detection(TNCCD)、FMA、MicroMass。Nomao是一個記錄地點信息的數(shù)據(jù)集;TNCCD是一個記錄電視新聞頻道商業(yè)廣告信息的數(shù)據(jù)集;FMA是一個記錄各類歌曲信息的數(shù)據(jù)集;MicroMass是用于探索從質(zhì)譜數(shù)據(jù)中識別微生物的數(shù)據(jù)集。各數(shù)據(jù)集的詳細(xì)信息如表2所示。

    3.3 評價指標(biāo)

    1)加速比 加速比是指同一個任務(wù)在串行系統(tǒng)和并行系統(tǒng)中執(zhí)行所需時間的比率,用來衡量模型在并行系統(tǒng)下的性能提升,其定義為

    其中:T1表示在串行系統(tǒng)下算法的執(zhí)行時間;Tp表示在并行系統(tǒng)下算法的執(zhí)行時間。

    2)準(zhǔn)確率 準(zhǔn)確率是指分類模型正確分類的樣本數(shù)與總樣本數(shù)的比值,用來衡量模型的分類效果,其定義為

    其中:TP、TN、FP、FN分別對應(yīng)混淆矩陣中將正類樣本預(yù)測為正類的樣本數(shù)、將正類樣本預(yù)測為負(fù)類的樣本數(shù)、將負(fù)類樣本預(yù)測為正類的樣本數(shù)與將負(fù)類樣本預(yù)測為正類的樣本數(shù)。準(zhǔn)確率的值越大,代表該分類模型的分類效果越好。

    3.4 消融對比實驗

    為了驗證PDF-SNRSCA算法中各策略的有效性,本文以算法的加速比和準(zhǔn)確率為評價標(biāo)準(zhǔn),使用深度森林作為基礎(chǔ)模型,在MicroMass、Nomao、TNCCD和FMA數(shù)據(jù)集上進(jìn)行消融實驗。為了保證結(jié)果的可靠性,將算法在各個數(shù)據(jù)集上運行了5次,取5次的平均值作為最終結(jié)果,集群中節(jié)點的數(shù)目為8,森林中樹的個數(shù)為200。實驗結(jié)果如表3所示。

    從表3可以看出,PDF-SNRSCA算法中不同的策略對算法加速比和準(zhǔn)確率的影響不同,其中TSM-SCA和FFM-II策略對算法加速比的提升效果最為明顯,F(xiàn)S-NRS策略次之,而S-RSEE策略對其無明顯影響。當(dāng)處理樣本少特征多的數(shù)據(jù)集MicroMass時,使用TSM-SCA、FFM-II和FS-NRS策略分別比不使用這些策略時,算法加速比提升了9.87%,5.07%,1.60%,而使用S-RSEE策略比不使用這些策略時,算法加速比基本無明顯變化;當(dāng)處理樣本多特征多的數(shù)據(jù)集FMA時,使用TSM-SCA、FFM-II和FS-NRS策略分別比不使用這些策略時,算法加速比提升了16.11%、10.15%、3.82%,而使用S-RSEE策略比不使用這些策略時,算法加速比同樣基本無明顯變化。產(chǎn)生這樣結(jié)果的原因是:a)FFM-II機(jī)制可以平衡增強(qiáng)向量和原始向量的維度,加快了模型收斂速度,提高了算法的加速比;b)TSM-SCA機(jī)制能夠?qū)ふ易顑?yōu)的調(diào)度方案,實現(xiàn)負(fù)載均衡,進(jìn)一步提高了并行化效率;c)FS-NRS策略過濾了原始數(shù)據(jù)集中大量的冗余和不相關(guān)特征,減少了冗余和不相關(guān)特征的計算,因此對加速比的提升有一定的幫助;d)S-RSEE策略只是提高了兩端特征的利用率,并沒有過濾特征、平衡向量的維度和重新分配集群中的任務(wù),所以其對提升模型的并行處理能力影響不大。

    對算法準(zhǔn)確率影響較大的是FS-NRS和S-RSEE策略,F(xiàn)FM-II策略次之,而TSM-SCA策略對其無明顯影響。當(dāng)處理樣本少特征多的數(shù)據(jù)集MicroMass時,使用FS-NRS、S-RSEE、FFM-II分別比不使用這些策略時,算法準(zhǔn)確率提升了1.11%、0.63%、0.31%,而使用TSM-SCA策略比不使用這些策略時,算法準(zhǔn)確率基本無明顯變化;當(dāng)處理樣本多特征多的數(shù)據(jù)集FMA時,使用FS-NRS、S-RSEE、FFM-II分別比不使用這些策略時,算法準(zhǔn)確率提升了1.56%、1.04%、0.48%,而使用TSM-SCA策略比不使用這些策略時,算法準(zhǔn)確率同樣基本無明顯變化。產(chǎn)生這些結(jié)果的原因是:a)FS-NRS策略通過過濾冗余及不相關(guān)特征,極大地提升了算法精度;b)S-RSEE策略使得特征同概率被選取,提高了兩端特征利用率,進(jìn)而提高了算法的準(zhǔn)確率;c)FFM-II策略通過重要性指數(shù)的特征篩選機(jī)制,篩選出非關(guān)鍵性特征,對提升算法準(zhǔn)確率有一定的幫助;d)TSM-SCA策略將集群中的任務(wù)進(jìn)行重新分配,但對算法結(jié)構(gòu)沒有進(jìn)行優(yōu)化,因此對算法的準(zhǔn)確率沒有影響。

    由此可得,F(xiàn)S-NRS、S-RSEE、FFM-II和TSM-SCA策略在大數(shù)據(jù)環(huán)境下具有良好的可行性與有效性。

    3.5 算法性能比較分析

    1)算法準(zhǔn)確率比較分析

    為了驗證PDF-SNRSCA的分類效果,本節(jié)以準(zhǔn)確率作為評價指標(biāo),在上述四個數(shù)據(jù)集上對PDF-SNRSCA、PDFS、NID-PDF和BLB-gcForest算法分別進(jìn)行了5次測試,并取5次準(zhǔn)確率的均值作為最終的實驗結(jié)果,如圖2所示。

    從圖2可以看出,隨著森林中決策樹的增加,各個算法的準(zhǔn)確率也在不斷提升,但本算法在四個數(shù)據(jù)集上的準(zhǔn)確率,均高于其他三個算法。其中,當(dāng)森林中決策樹數(shù)量為200時,在處理MicroMass數(shù)據(jù)集時,PDF-SNRSCA算法的準(zhǔn)確率比其他三個算法分別高出了0.38%、0.83%、0.95%;在處理Nomao數(shù)據(jù)集時,PDF-SNRSCA算法的準(zhǔn)確率、其他三個算法分別高出了0.83%、1.22%、1.55%;在處理TNCCD數(shù)據(jù)集時,PDF-SNRSCA算法的準(zhǔn)確率比其他三個算法分別高出了0.81%、1.45%、1.67%;在處理FMA數(shù)據(jù)集時,PDF-SNRSCA算法的準(zhǔn)確率比其他三個算法分別高出了1%、1.5%、1.93%。產(chǎn)生上述結(jié)果的原因如下:a)PDF-SNRSCA算法設(shè)計了FS-NRS策略,對特征進(jìn)行篩選,消除了原始特征集合中大量的冗余及無關(guān)特征,提高了準(zhǔn)確率;b)PDF-SNRSCA算法設(shè)計了S-RSEE策略,使得特征同概率被選取,解決了兩端特征利用率過低的問題,提高了整個模型的準(zhǔn)確率;c)FFM-II策略通過重要性指數(shù)的特征篩選機(jī)制,篩選出非關(guān)鍵性特征,也對提升算法準(zhǔn)確率有一定的幫助。實驗結(jié)果由此表明,PDF-SNRSCA算法在大數(shù)據(jù)環(huán)境下具有良好的分類性能。

    2)算法運行時間實驗分析

    為了驗證PDF-SNRSCA算法的時間復(fù)雜度,本文在上述四個數(shù)據(jù)集上對PDF-SNRSCA、PDFS、NID-PDF和BLB-gcForest算法分別進(jìn)行了5次測試,并取5次運行時間的均值作為最終的實驗結(jié)果,如圖3所示。

    從圖3中可以看出,在處理四個數(shù)據(jù)集時,PDF-SNRSCA算法所需要的運行時間都是最低的,并且在處理特征數(shù)量多的數(shù)據(jù)集時,PDF-SNRSCA算法相較于其他三種算法具有更好的優(yōu)勢。其中,在處理特征數(shù)量較多的MicroMass時,PDF-SNRSCA算法的運行時間比其他三種算法,分別縮短了13.46%、11.12%、22.23%;在處理特征數(shù)量較少TNCCD時,PDF-SNRSCA算法的運行時間比其他三種算法分別縮短了3.23%、4.43%、9.78%。出現(xiàn)上述現(xiàn)象的主要原因為:a)PDF-SNRSCA算法設(shè)計了FS-NRS策略,對特征進(jìn)行篩選,消除了原始特征集合中大量的冗余及無關(guān)特征,從而加快了訓(xùn)練速度;b)PDF-SNRSCA算法提出了FFM-II機(jī)制,促進(jìn)了增強(qiáng)類向量和原始類向量的平衡,加快了模型的收斂速度。由此表明,PDF-SNRSCA算法在處理大數(shù)據(jù)問題時具有出色的性能。

    3)算法加速比實驗分析

    為了評估PDF-SNRSCA算法在大數(shù)據(jù)環(huán)境下的并行性能,本文在上述四個數(shù)據(jù)集上對PDF-SNRSCA、PDFS、NID-PDF和BLB-gcForest算法分別進(jìn)行了5次測試,并用5次運行時間的均值來計算各算法在不同計算節(jié)點個數(shù)下的加速比。實驗結(jié)果如圖4所示。

    從圖4可以看出,在處理MicroMass、Nomao、TNCCD和FMA四個數(shù)據(jù)集時,各算法在四個數(shù)據(jù)集上的加速比隨著節(jié)點數(shù)量的增加而逐漸上升,并且隨著數(shù)據(jù)規(guī)模的逐步擴(kuò)大,PDF-SNRSCA算法在各數(shù)據(jù)集上的加速比遠(yuǎn)超其他三種算法。例如,在處理數(shù)據(jù)規(guī)模較小的數(shù)據(jù)集MicroMass時,當(dāng)節(jié)點為8時(圖4(a)),PDF-SNRSCA算法的加速比相較于其他三種算法分別增加了0.111、0.201、0.32;在處理數(shù)據(jù)規(guī)模較大的數(shù)據(jù)集TNCCD和FMA時,當(dāng)節(jié)點為8時(圖4(c)(d)),PDF-SNRSCA算法在TNCCD數(shù)據(jù)集上的加速比,相較于其他三個算法分別高了0.479、0.928、1.054,PDF-SNRSCA算法在FMA數(shù)據(jù)集上的加速比,相較于其他三個算法分別高了0.345、0.803、0.678。出現(xiàn)上述現(xiàn)象的原因為:a)當(dāng)數(shù)據(jù)規(guī)模較小時,節(jié)點通信時間占總運行時間過長,通過并行計算提升的時間有限,不足以彌補(bǔ)通信所消耗的時間;b)當(dāng)數(shù)據(jù)規(guī)模較大時,TSM-SCA機(jī)制將任務(wù)重新進(jìn)行分配,實現(xiàn)了節(jié)點之間的負(fù)載平衡,提升了模型的并行化效率,使得算法在處理數(shù)據(jù)時具有更高的加速比。以上實驗表明,PDF-SNRSCA算法在處理大數(shù)據(jù)問題時,相比其他算法具有更高的加速比。

    4 結(jié)束語

    為了克服在大數(shù)據(jù)環(huán)境下深度森林算法的不足,本文提出了PDF-SNRSCA算法。首先,該算法提出了FS-NRS策略,對特征進(jìn)行篩選,有效減少了冗余及無關(guān)特征的數(shù)量;其次,設(shè)計S-RSEE策略,替代傳統(tǒng)的多粒度掃描,解決了兩端特征利用率過低的問題;然后,提出了FFM-II特征篩選機(jī)制,以此促進(jìn)增強(qiáng)類向量與原始類向量之間的平衡,解決了模型收斂速度慢的問題;最后,提出了TSM-SCA任務(wù)調(diào)度機(jī)制,將節(jié)點的任務(wù)重新進(jìn)行分配,解決了級聯(lián)森林并行效率低的問題。為了驗證本文算法性能,將其與PDFS、NID-PDF和BLB-gcForest等算法在Nomao、 TNCCD、FMA、MicroMass上進(jìn)行比較驗證,最終實驗結(jié)果表明,PDF-SNRSCA算法可以有效處理大規(guī)模的數(shù)據(jù)集合,并且具有很好的分類效果。雖然PDF-SNRSCA算法在大數(shù)據(jù)環(huán)境下表現(xiàn)出良好的訓(xùn)練效果,但其仍有一些不足:a)特征預(yù)處理階段計算時間過長;b)級聯(lián)森林并行化階段中,級聯(lián)森林的并行粒度較低。所以未來的工作重點在于如何更加有效地進(jìn)行特征篩選,以及如何進(jìn)一步對深度森林進(jìn)行劃分,使得并行粒度和節(jié)點通信開銷達(dá)到一個新的平衡。

    參考文獻(xiàn):

    [1]Zhou Zhihua, Feng Ji. Deep forest[J].National Science Review,2019,6(1):74-86.

    [2]Mou Luntian, Mao Shasha, Xie Haitao, et al. Structured behaviour prediction of on-road vehicles via deep forest[J].Electronics Letters,2019,55(8):452-455.

    [3]Yaakoub B, Mohamed F, Imed R F. Remote sensing scene classification using convolutional features and deep forest classifier[J].IEEE Geoscience and Remote Sensing Letters,2019,16(12):1944-1948.

    [4]Hu Guangzheng, Li Huifang, Xia Yuanqing, et al. A deep Boltzmann machine and multi-grained scanning forest ensemble collaborative method and its application to industrial fault diagnosis[J].Computers in Industry,2018,100:287-296.

    [5]陳呂鵬,殷林飛,余濤,等.基于深度森林算法的電力系統(tǒng)短期負(fù)荷預(yù)測[J].電力建設(shè),2018,39(11):42-50.(Chen Lyupeng, Yin Linfei, Yu Tao, et al. Short-term power load forecasting based on deep forest algorithm[J].Electric Power Construction,2018,39(11):42-50.)

    [6]毛伊敏,甘德瑾,廖列法,等.基于Spark框架和ASPSO的并行劃分聚類算法[J].通信學(xué)報,2022,43(3):148-163.(Mao Yimin, Gan Dejin, Liao Liefa, et al. Parallel division clustering algorithm based on Spark framework and ASPSO[J].Journal on Communications,2022,43(3):148-163.)

    [7]Li Xuebing, Sun Ying, Zhuang Fuzhen, et al. Potential off-grid user prediction system based on Spark[J].ZTE Communications,2019,17(2):26-37.

    [8]Liu Zhenpeng, Su Nan, Qin Yiwen, et al. A deep random forest model on Spark for network intrusion detection[J].Mobile Information Systems.(2020-01-01).https://doi.org/10.1155/2020/6633252.

    [9]Chen Zexi, Wang Ting, Cai Haibin, et al. BLB-gcForest:a high-performance distributed deep forest with adaptive sub-forest splitting[J].IEEE Trans on Parallel and Distributed Systems,2022,33(11):3141-3152.

    [10]Yin Tengyu, Chen Hongmei, Yuan Zhong, et al. Noise-resistant multilabel fuzzy neighborhood rough sets for feature subset selection[J].Information Sciences,2022,621:200-226.

    [11]Pang Jing, Yao Bingxue, Li Lingqiang. Generalized neighborhood systems-based pessimistic rough sets and their applications in incomplete information systems[J].Journal of Intelligent & Fuzzy Systems,2022,42(3):2713-2725.

    [12]Sun Lin, Yin Tengyu, Ding Weiping, et al. Multilabel feature selection using ML-ReliefF and neighborhood mutual information for multi-label neighborhood decision systems[J].Information Sciences,2020,537:401-424.

    [13]Zhang Di, Zhu Ping. Variable radius neighborhood rough sets and attribute reduction[J].International Journal of Approximate Reasoning,2022,150:98-121.

    [14]Xu Sixiang, Damien M, Alain T. Sparse coding and normalization for deep Fisher score representation[J].Computer Vision and Image Understanding,2022,220:103436-103439.

    [15]Li Changlun, Liang Ke, Chen Yuan, et al. An exploitation-boosted sine cosine algorithm for global optimization[J].Engineering Applications of Artificial Intelligence,2023,117:105620-105630.

    videossex国产| 日韩精品中文字幕看吧| 国产高潮美女av| 九九久久精品国产亚洲av麻豆| a级毛片免费高清观看在线播放| 一区二区三区免费毛片| 级片在线观看| av天堂中文字幕网| 午夜a级毛片| 欧美性猛交黑人性爽| 狠狠狠狠99中文字幕| 国产精品嫩草影院av在线观看 | 成年人黄色毛片网站| 人妻少妇偷人精品九色| 欧美色欧美亚洲另类二区| 国产69精品久久久久777片| 精品午夜福利视频在线观看一区| 99久久成人亚洲精品观看| 亚洲欧美激情综合另类| 一进一出抽搐动态| 女人被狂操c到高潮| 亚洲图色成人| 亚洲国产精品久久男人天堂| 日本一本二区三区精品| 欧美高清成人免费视频www| 老司机深夜福利视频在线观看| 看免费成人av毛片| 亚洲中文字幕日韩| 亚洲 国产 在线| 少妇人妻一区二区三区视频| 国产91精品成人一区二区三区| 亚洲av日韩精品久久久久久密| 日韩av在线大香蕉| 成人av在线播放网站| 国产精品嫩草影院av在线观看 | 极品教师在线视频| 最近在线观看免费完整版| 色精品久久人妻99蜜桃| 亚洲狠狠婷婷综合久久图片| 国产精品精品国产色婷婷| 综合色av麻豆| 欧美性感艳星| or卡值多少钱| 欧美日韩乱码在线| 久久久久九九精品影院| 禁无遮挡网站| 最新在线观看一区二区三区| 亚洲男人的天堂狠狠| 日日夜夜操网爽| 国内精品一区二区在线观看| 特级一级黄色大片| 久久精品国产亚洲av涩爱 | 99热只有精品国产| 91麻豆精品激情在线观看国产| 人人妻人人澡欧美一区二区| 久久精品91蜜桃| 久久久久久九九精品二区国产| 亚洲自拍偷在线| 99热网站在线观看| 综合色av麻豆| 性色avwww在线观看| 18禁黄网站禁片午夜丰满| 午夜福利成人在线免费观看| 啦啦啦观看免费观看视频高清| 欧美激情国产日韩精品一区| 免费观看在线日韩| 自拍偷自拍亚洲精品老妇| 色吧在线观看| 一级毛片久久久久久久久女| 中亚洲国语对白在线视频| 亚洲美女搞黄在线观看 | 国产三级中文精品| 午夜a级毛片| 国产精品女同一区二区软件 | 久久精品国产亚洲av涩爱 | 俺也久久电影网| 免费看av在线观看网站| 免费av观看视频| 午夜福利在线在线| 听说在线观看完整版免费高清| 在线看三级毛片| 国产免费男女视频| 亚洲av.av天堂| 男人的好看免费观看在线视频| 高清在线国产一区| 国产高潮美女av| 国产一区二区激情短视频| 乱系列少妇在线播放| 亚洲av中文字字幕乱码综合| 亚洲精品一区av在线观看| 18禁在线播放成人免费| 精品久久久久久成人av| 动漫黄色视频在线观看| 十八禁网站免费在线| 午夜爱爱视频在线播放| 久久久久久久久久成人| 久久精品夜夜夜夜夜久久蜜豆| 天美传媒精品一区二区| 精品欧美国产一区二区三| 国产真实乱freesex| 日韩 亚洲 欧美在线| 人妻久久中文字幕网| 亚洲成a人片在线一区二区| 91麻豆av在线| 国产精品电影一区二区三区| 久久精品国产亚洲av涩爱 | 一区二区三区免费毛片| 99热6这里只有精品| 亚洲三级黄色毛片| 麻豆成人av在线观看| avwww免费| 女人十人毛片免费观看3o分钟| 99热这里只有是精品在线观看| 99热精品在线国产| 日韩中文字幕欧美一区二区| 色噜噜av男人的天堂激情| 日本爱情动作片www.在线观看 | 亚洲久久久久久中文字幕| 两性午夜刺激爽爽歪歪视频在线观看| 午夜福利在线在线| 我要看日韩黄色一级片| 国内精品久久久久久久电影| 日本一本二区三区精品| 成人精品一区二区免费| 伦理电影大哥的女人| 两个人的视频大全免费| 看十八女毛片水多多多| 麻豆成人av在线观看| 国产av在哪里看| 国产蜜桃级精品一区二区三区| 国产一区二区三区在线臀色熟女| 日本一二三区视频观看| 婷婷丁香在线五月| 又爽又黄a免费视频| 免费观看在线日韩| 我要搜黄色片| 九色国产91popny在线| 国产免费一级a男人的天堂| 成人特级av手机在线观看| 亚洲成a人片在线一区二区| 成人国产综合亚洲| 亚洲av日韩精品久久久久久密| 国产单亲对白刺激| 日韩,欧美,国产一区二区三区 | 国产色爽女视频免费观看| 国产极品精品免费视频能看的| 国国产精品蜜臀av免费| 成人二区视频| 国产极品精品免费视频能看的| 欧美一区二区国产精品久久精品| 亚洲图色成人| 婷婷精品国产亚洲av在线| 校园人妻丝袜中文字幕| 亚洲av电影不卡..在线观看| 亚洲成av人片在线播放无| 欧美人与善性xxx| 精品一区二区三区视频在线观看免费| 午夜福利高清视频| 国产午夜精品久久久久久一区二区三区 | 淫秽高清视频在线观看| 亚洲aⅴ乱码一区二区在线播放| 两人在一起打扑克的视频| 日韩一区二区视频免费看| 国产乱人伦免费视频| 3wmmmm亚洲av在线观看| 久久精品影院6| 亚洲精华国产精华精| 成人二区视频| 高清在线国产一区| 熟妇人妻久久中文字幕3abv| 国产精品亚洲一级av第二区| 久久精品人妻少妇| 国产男人的电影天堂91| 久久久久九九精品影院| 亚洲国产精品久久男人天堂| 伦理电影大哥的女人| 久久99热这里只有精品18| 99在线视频只有这里精品首页| 国产精品不卡视频一区二区| 97超视频在线观看视频| 成人二区视频| 日本免费一区二区三区高清不卡| 久久午夜福利片| 联通29元200g的流量卡| 男女做爰动态图高潮gif福利片| 桃红色精品国产亚洲av| 国内精品久久久久精免费| 国产精品一区二区三区四区免费观看 | 欧美黑人欧美精品刺激| 久久久久久久精品吃奶| 欧美高清性xxxxhd video| 国语自产精品视频在线第100页| 97人妻精品一区二区三区麻豆| 有码 亚洲区| 搡老妇女老女人老熟妇| 人妻久久中文字幕网| 中国美白少妇内射xxxbb| 国产av麻豆久久久久久久| 国产亚洲精品久久久久久毛片| 高清日韩中文字幕在线| 日韩欧美精品免费久久| 十八禁国产超污无遮挡网站| 久久香蕉精品热| 国产主播在线观看一区二区| 少妇裸体淫交视频免费看高清| 淫秽高清视频在线观看| 一级黄片播放器| 午夜免费男女啪啪视频观看 | 午夜福利在线观看免费完整高清在 | av天堂中文字幕网| 99九九线精品视频在线观看视频| 国产精品一区二区免费欧美| 亚洲精品成人久久久久久| 欧美色视频一区免费| 搞女人的毛片| 成年女人永久免费观看视频| 十八禁国产超污无遮挡网站| 国产主播在线观看一区二区| 欧美3d第一页| 1000部很黄的大片| 亚洲av一区综合| 老司机午夜福利在线观看视频| 亚洲欧美日韩高清在线视频| 动漫黄色视频在线观看| 国产真实伦视频高清在线观看 | 国产伦精品一区二区三区四那| 天天一区二区日本电影三级| 91久久精品电影网| 久久人人爽人人爽人人片va| 男人和女人高潮做爰伦理| 极品教师在线视频| 亚洲成av人片在线播放无| 日本黄色视频三级网站网址| 我的女老师完整版在线观看| 一区二区三区四区激情视频 | 国内揄拍国产精品人妻在线| 人妻少妇偷人精品九色| 国产午夜福利久久久久久| 欧美日韩乱码在线| 午夜日韩欧美国产| 少妇的逼好多水| 亚洲美女搞黄在线观看 | 九色成人免费人妻av| 欧美高清性xxxxhd video| 久久久午夜欧美精品| 在线观看午夜福利视频| 人妻制服诱惑在线中文字幕| 偷拍熟女少妇极品色| 黄色欧美视频在线观看| 一进一出好大好爽视频| 女的被弄到高潮叫床怎么办 | 亚洲精品456在线播放app | 老司机午夜福利在线观看视频| 91久久精品电影网| 国产精华一区二区三区| 亚洲精品一卡2卡三卡4卡5卡| 露出奶头的视频| 亚洲天堂国产精品一区在线| 草草在线视频免费看| 国产精品嫩草影院av在线观看 | 日韩欧美三级三区| 黄色丝袜av网址大全| 色在线成人网| 午夜激情欧美在线| 在线天堂最新版资源| 女人十人毛片免费观看3o分钟| 成人综合一区亚洲| 88av欧美| 真实男女啪啪啪动态图| 在线观看一区二区三区| 蜜桃亚洲精品一区二区三区| 日本五十路高清| 男人和女人高潮做爰伦理| 欧美激情久久久久久爽电影| 国产精品爽爽va在线观看网站| 亚洲av成人精品一区久久| eeuss影院久久| 三级毛片av免费| 中文亚洲av片在线观看爽| 男女之事视频高清在线观看| av在线亚洲专区| 精品久久国产蜜桃| 99精品在免费线老司机午夜| 亚洲18禁久久av| 亚洲久久久久久中文字幕| 日本与韩国留学比较| 男人的好看免费观看在线视频| 国产精品乱码一区二三区的特点| 91久久精品国产一区二区三区| 精品一区二区三区av网在线观看| 丰满的人妻完整版| 国产精品永久免费网站| 男女做爰动态图高潮gif福利片| 久久精品国产99精品国产亚洲性色| 三级男女做爰猛烈吃奶摸视频| 99热只有精品国产| 精品久久久久久久末码| 我要搜黄色片| 久久国产精品人妻蜜桃| 精品人妻偷拍中文字幕| 狠狠狠狠99中文字幕| 成人一区二区视频在线观看| 国产不卡一卡二| 亚洲人与动物交配视频| 一级黄色大片毛片| 黄色视频,在线免费观看| 国产在视频线在精品| 久久欧美精品欧美久久欧美| 少妇猛男粗大的猛烈进出视频 | 中文资源天堂在线| 亚洲精品日韩av片在线观看| 听说在线观看完整版免费高清| 亚洲一区高清亚洲精品| 伊人久久精品亚洲午夜| 人人妻人人澡欧美一区二区| 亚洲aⅴ乱码一区二区在线播放| 天堂影院成人在线观看| 欧美日韩黄片免| 嫩草影院精品99| 少妇人妻精品综合一区二区 | 久久久久久久久大av| 国产高清三级在线| 精品人妻1区二区| 国产成人aa在线观看| 国产老妇女一区| 美女xxoo啪啪120秒动态图| 日韩欧美在线二视频| 亚洲电影在线观看av| 色哟哟·www| 欧美高清性xxxxhd video| 国产一级毛片七仙女欲春2| or卡值多少钱| 精品人妻熟女av久视频| a级一级毛片免费在线观看| 欧美日本亚洲视频在线播放| 天天躁日日操中文字幕| 国产在线精品亚洲第一网站| 中文字幕av成人在线电影| 一夜夜www| 国产精品一区二区免费欧美| 色在线成人网| 成年人黄色毛片网站| 在线天堂最新版资源| 中国美女看黄片| 国产精品1区2区在线观看.| 狠狠狠狠99中文字幕| 老司机深夜福利视频在线观看| 国内毛片毛片毛片毛片毛片| 两性午夜刺激爽爽歪歪视频在线观看| 日日干狠狠操夜夜爽| 老司机深夜福利视频在线观看| 极品教师在线免费播放| 搞女人的毛片| 亚洲aⅴ乱码一区二区在线播放| 国产精品乱码一区二三区的特点| 久久久久久久精品吃奶| 波野结衣二区三区在线| 高清毛片免费观看视频网站| 在线天堂最新版资源| 亚洲va在线va天堂va国产| 三级男女做爰猛烈吃奶摸视频| 亚洲五月天丁香| 色综合色国产| videossex国产| 一个人看的www免费观看视频| 91在线精品国自产拍蜜月| 日本熟妇午夜| 亚洲国产精品成人综合色| 婷婷亚洲欧美| 一边摸一边抽搐一进一小说| 日韩中文字幕欧美一区二区| 久9热在线精品视频| 不卡一级毛片| 一进一出抽搐动态| 日韩精品青青久久久久久| 国产真实乱freesex| ponron亚洲| 成人性生交大片免费视频hd| 又粗又爽又猛毛片免费看| 国产成人aa在线观看| 91午夜精品亚洲一区二区三区 | 3wmmmm亚洲av在线观看| 久久久久久久久久久丰满 | 成人二区视频| avwww免费| 别揉我奶头 嗯啊视频| 久久精品夜夜夜夜夜久久蜜豆| 欧美成人免费av一区二区三区| 色噜噜av男人的天堂激情| 蜜桃久久精品国产亚洲av| 久久99热这里只有精品18| 亚洲图色成人| 亚洲自偷自拍三级| 看片在线看免费视频| 噜噜噜噜噜久久久久久91| 18+在线观看网站| 国产精品精品国产色婷婷| 尾随美女入室| 99国产精品一区二区蜜桃av| 国产精品亚洲一级av第二区| 午夜精品在线福利| 又粗又爽又猛毛片免费看| 久久精品国产亚洲网站| 亚洲精品日韩av片在线观看| 色尼玛亚洲综合影院| 色综合亚洲欧美另类图片| 中文在线观看免费www的网站| 日韩欧美三级三区| 国产精品野战在线观看| 国产精品自产拍在线观看55亚洲| 一个人看视频在线观看www免费| 两个人视频免费观看高清| 精品福利观看| 我要看日韩黄色一级片| av在线老鸭窝| 亚洲精品日韩av片在线观看| 能在线免费观看的黄片| 婷婷亚洲欧美| 免费观看人在逋| 精品久久久噜噜| 精品久久久久久,| 亚洲四区av| 日韩国内少妇激情av| 欧美黑人欧美精品刺激| 亚洲男人的天堂狠狠| 国产午夜福利久久久久久| 一个人观看的视频www高清免费观看| 韩国av一区二区三区四区| 少妇的逼好多水| 中文在线观看免费www的网站| 男女下面进入的视频免费午夜| 三级毛片av免费| 国产精品久久久久久久电影| 搡老妇女老女人老熟妇| 美女被艹到高潮喷水动态| 精华霜和精华液先用哪个| 别揉我奶头~嗯~啊~动态视频| 欧美激情久久久久久爽电影| 波多野结衣高清作品| 欧美另类亚洲清纯唯美| 国产 一区精品| 偷拍熟女少妇极品色| 麻豆成人av在线观看| 亚洲成人精品中文字幕电影| 欧美高清性xxxxhd video| 亚洲一级一片aⅴ在线观看| 国内精品久久久久精免费| 欧美性猛交黑人性爽| 久久精品国产亚洲av涩爱 | 亚洲精品日韩av片在线观看| 级片在线观看| 欧美日韩中文字幕国产精品一区二区三区| 伊人久久精品亚洲午夜| 高清毛片免费观看视频网站| 嫩草影视91久久| 国产69精品久久久久777片| 国产不卡一卡二| 九色国产91popny在线| 床上黄色一级片| 在线国产一区二区在线| 亚洲av熟女| 夜夜看夜夜爽夜夜摸| 国产精品美女特级片免费视频播放器| 国产真实伦视频高清在线观看 | 琪琪午夜伦伦电影理论片6080| 国产伦一二天堂av在线观看| 久久天躁狠狠躁夜夜2o2o| 国产极品精品免费视频能看的| 成人av在线播放网站| 色在线成人网| 国产大屁股一区二区在线视频| 天堂√8在线中文| 国产亚洲精品综合一区在线观看| 女人十人毛片免费观看3o分钟| 亚洲中文字幕日韩| 51国产日韩欧美| 国产真实伦视频高清在线观看 | 九九热线精品视视频播放| 一个人看视频在线观看www免费| 中国美女看黄片| ponron亚洲| 91精品国产九色| 丰满的人妻完整版| 成人精品一区二区免费| 在线观看一区二区三区| 亚洲在线观看片| 综合色av麻豆| 国产乱人伦免费视频| 亚洲四区av| 免费看a级黄色片| 久久精品国产鲁丝片午夜精品 | 久久精品国产亚洲av涩爱 | 亚洲最大成人av| 亚洲最大成人中文| 亚洲四区av| 国产精品福利在线免费观看| 免费看日本二区| 搡老岳熟女国产| 老司机福利观看| 国产真实伦视频高清在线观看 | 亚洲乱码一区二区免费版| 非洲黑人性xxxx精品又粗又长| 日韩欧美国产一区二区入口| 成年免费大片在线观看| 国产高清视频在线播放一区| 性色avwww在线观看| 99久久九九国产精品国产免费| 亚洲欧美日韩卡通动漫| 熟妇人妻久久中文字幕3abv| 听说在线观看完整版免费高清| 亚洲午夜理论影院| 狂野欧美激情性xxxx在线观看| 免费在线观看日本一区| 国产精品免费一区二区三区在线| 尤物成人国产欧美一区二区三区| 亚洲美女视频黄频| 久久精品国产鲁丝片午夜精品 | 天天一区二区日本电影三级| 日韩亚洲欧美综合| 精华霜和精华液先用哪个| 天堂网av新在线| 天美传媒精品一区二区| 国内精品美女久久久久久| 成人鲁丝片一二三区免费| 精品乱码久久久久久99久播| 欧美人与善性xxx| 高清毛片免费观看视频网站| 国产精品福利在线免费观看| 九色国产91popny在线| 欧美性猛交╳xxx乱大交人| av福利片在线观看| 一级黄片播放器| 日韩欧美一区二区三区在线观看| 中文字幕高清在线视频| 亚洲精华国产精华精| 成人国产一区最新在线观看| 亚洲不卡免费看| 欧美日韩中文字幕国产精品一区二区三区| 黄色日韩在线| x7x7x7水蜜桃| 色综合亚洲欧美另类图片| 亚洲成av人片在线播放无| 午夜老司机福利剧场| 久久欧美精品欧美久久欧美| 老师上课跳d突然被开到最大视频| 淫秽高清视频在线观看| 国产精品亚洲一级av第二区| 日本黄色片子视频| 色吧在线观看| 不卡视频在线观看欧美| 午夜精品久久久久久毛片777| 久久精品久久久久久噜噜老黄 | 69人妻影院| 不卡一级毛片| 91麻豆av在线| 国产一区二区激情短视频| 亚洲经典国产精华液单| 亚洲欧美激情综合另类| 97超视频在线观看视频| 欧美激情国产日韩精品一区| 国内精品宾馆在线| 一a级毛片在线观看| 免费人成在线观看视频色| 久久亚洲真实| 男人舔奶头视频| 老师上课跳d突然被开到最大视频| 欧美一区二区亚洲| 身体一侧抽搐| 精品99又大又爽又粗少妇毛片 | 日韩精品中文字幕看吧| 成人性生交大片免费视频hd| 黄色女人牲交| 国产精品不卡视频一区二区| 久久九九热精品免费| 少妇被粗大猛烈的视频| 日日摸夜夜添夜夜添小说| 国产精品久久久久久av不卡| av中文乱码字幕在线| 国产高清三级在线| 两个人视频免费观看高清| 中文字幕av成人在线电影| 天堂影院成人在线观看| 天美传媒精品一区二区| 国产爱豆传媒在线观看| 又爽又黄a免费视频| 偷拍熟女少妇极品色| 免费在线观看影片大全网站| 亚洲国产精品久久男人天堂| 俄罗斯特黄特色一大片| 永久网站在线| 欧美高清性xxxxhd video| 黄色视频,在线免费观看| 亚洲一区二区三区色噜噜| 亚洲人成网站在线播| 亚洲精品国产成人久久av| 久久精品91蜜桃| 特大巨黑吊av在线直播| 综合色av麻豆| 精品一区二区三区视频在线观看免费| 欧美日韩亚洲国产一区二区在线观看| a级毛片a级免费在线| 国产极品精品免费视频能看的| 精品99又大又爽又粗少妇毛片 | 小说图片视频综合网站| 蜜桃亚洲精品一区二区三区| 成人特级av手机在线观看| 九九在线视频观看精品| 精品日产1卡2卡| 舔av片在线| 国产女主播在线喷水免费视频网站 | 欧美高清性xxxxhd video| 听说在线观看完整版免费高清| 国产免费一级a男人的天堂| 91精品国产九色| 免费电影在线观看免费观看|