• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于Spark和AMPSO的并行深度卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化算法

    2023-10-17 23:37:00劉衛(wèi)明羅全成毛伊敏彭喆
    計(jì)算機(jī)應(yīng)用研究 2023年10期

    劉衛(wèi)明 羅全成 毛伊敏 彭喆

    摘 要:針對并行DCNN算法在大數(shù)據(jù)環(huán)境下存在冗余參數(shù)過多、收斂速度慢、容易陷入局部最優(yōu)和并行效率低的問題,提出了基于Spark和AMPSO的并行深度卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化算法PDCNN-SAMPSO。首先,該算法設(shè)計(jì)了基于卷積核重要性和相似度的卷積核剪枝策略(KP-IS),通過剪枝模型中冗余的卷積核,解決了冗余參數(shù)過多的問題;接著,提出了基于自適應(yīng)變異粒子群優(yōu)化算法的模型并行訓(xùn)練策略(MPT-AMPSO),通過使用自適應(yīng)變異的粒子群優(yōu)化算法(AMPSO)初始化模型參數(shù),解決了并行DCNN算法收斂速度慢和容易陷入局部最優(yōu)的問題;最后,提出了基于節(jié)點(diǎn)性能的動態(tài)負(fù)載均衡策略(DLBNP),通過均衡集群中各節(jié)點(diǎn)負(fù)載,解決了集群并行效率低的問題。實(shí)驗(yàn)表明,當(dāng)選取8個(gè)計(jì)算節(jié)點(diǎn)處理CompCars數(shù)據(jù)集時(shí),PDCNN-SAMPSO較Dis-CNN、DS-DCNN、CLR-Distributed-CNN、RS-DCNN的運(yùn)行時(shí)間分別降低了22%、30%、37%和27%,加速比分別高出了1.707、1.424、1.859、0.922,top-1準(zhǔn)確率分別高出了4.01%、4.89%、2.42%、5.94%,表明PDCNN-AMPSO在大數(shù)據(jù)環(huán)境下具有良好的分類性能,適用于大數(shù)據(jù)環(huán)境下DCNN模型的并行訓(xùn)練。

    關(guān)鍵詞:并行DCNN算法; Spark框架; PDCNN-SAMPSO算法; 負(fù)載均衡策略

    中圖分類號:TP391 文獻(xiàn)標(biāo)志碼:A 文章編號:1001-3695(2023)10-012-2957-10

    doi:10.19734/j.issn.1001-3695.2023.03.0083

    Parallel deep convolution neural network optimization algorithm

    based on Spark and AMPSO

    Liu Weiming1, Luo Quancheng1, Mao Yimin1,2, Peng Zhe3

    (1.College of Information Engineering, Jiangxi University of Science & Technology, Ganzhou Jiangxi 341000, China; 2.College of Information Engineering, Shaoguan University, Shaoguan Guangdong 512026, China; 3.Dachan Customs District, P. R. China, Shenzhen Guangdong 518000, China)

    Abstract:This paper proposed a parallel deep convolutional neural network optimization algorithm based on Spark and AMPSO(PDCNN-SAMPSO), aiming to address several issues encountered by parallel DCNN algorithms in big data environments, such as excessive redundant parameters, slow convergence speed, easy to fall into local optimal, and low parallel efficiency. Firstly, the algorithm designed a kernel pruning strategy based on importance and similarity (KP-IS) to address the problem of excessive redundant parameters by pruning the redundant convolution kernels in the model. Secondly, it proposed a model pa-rallel training strategy based on adaptive mutation particle swarm optimization algorithm (MPT-AMPSO) to solve the slow convergence speed and easy to fall into local optimal issues of parallel DCNN algorithms by initializing the model parameters using adaptive mutation particle swarm optimization algorithm (AMPSO). Finally, the algorithm proposed a dynamic load balancing strategy based on node performance (DLBNP) to balance the load of each node in the cluster and improve the parallel efficiency. Experiments show that, when using 8 computing nodes to process the CompCars dataset, the runtime of PDCNN-SAMPSO is 22%, 30%, 37% and 27% lower than that of Dis-CNN, DS-DCNN, CLR-Distributed-CNN and RS-DCNN, respectively, the speedup ratio is higher by 1.707, 1.424, 1.859, and 0.922, respectively, and the top-1 accuracy is higher by 4.01%, 4.89%, 2.42%, 5.94%, indicating that PDCNN-AMPSO has good classification performance in the big data environment and is suitable for parallel training of DCNN models in the big data environment.

    Key words:parallel DCNN algorithm; Spark; PDCNN-SAMPSO algorithm; load balancing

    0 引言

    DCNN[1]是一類包含卷積計(jì)算且含有深層次結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò),因具有強(qiáng)大的特征選擇和泛化能力,被廣泛應(yīng)用于圖像分析[2]、語音識別[3]、目標(biāo)檢測像[4]、語義分割[5]、人臉識別[6]、自動駕駛[7]等領(lǐng)域。然而隨著大數(shù)據(jù)時(shí)代[8]的到來,數(shù)據(jù)的規(guī)模和人們對數(shù)據(jù)價(jià)值的提取需求不斷增長,傳統(tǒng)DCNN模型的訓(xùn)練成本和訓(xùn)練復(fù)雜度也隨之不斷提升。因此,設(shè)計(jì)適用于大數(shù)據(jù)環(huán)境下的DCNN算法具有十分重要的意義。

    隨著Google公司開發(fā)的分布式計(jì)算框架MapReduce的快速發(fā)展,基于分布式計(jì)算框架的DCNN算法得到了廣泛關(guān)注。文獻(xiàn)[9~12]均使用基于MapReduce的DCNN算法取得了不錯(cuò)的效果,然而隨著Spark[13]框架的誕生,其憑借計(jì)算速度快、簡潔易用、通用性強(qiáng)和支持多種運(yùn)行模式等優(yōu)勢逐步超越MapReduce,成為并行DCNN研究領(lǐng)域中主流的計(jì)算框架。目前已有大量基于Spark框架的并行DCNN算法成功運(yùn)用到大數(shù)據(jù)的分析和處理領(lǐng)域中。例如,Xu等人[14]結(jié)合Spark提出了Dis-CNN(distributed convolution neural network)模型,該模型采用并行計(jì)算的方式對各分布式節(jié)點(diǎn)上的模型進(jìn)行訓(xùn)練,實(shí)現(xiàn)了DCNN模型在分布式計(jì)算系統(tǒng)上的并行化訓(xùn)練過程,相較于單機(jī)器的訓(xùn)練方式,擁有更高的訓(xùn)練效率?;诖耍琇i等人[15]在模型并行訓(xùn)練階段引入了一種基于內(nèi)存的分布式文件系統(tǒng)Alluxio,提出了DS-DCNN(distributed system based on DCNN on Apache Spark and Alluxio)模型,該模型使用Alluxio來存儲中間數(shù)據(jù),進(jìn)一步提升了模型的并行訓(xùn)練效率。同時(shí),Sun等人[16]在模型并行訓(xùn)練階段運(yùn)用周期學(xué)習(xí)率[17]的思想,提出了CLR-Distributed-CNN(distributed convolutional neural network with a cycle learning rate)算法,該算法使用周期學(xué)習(xí)率替代線性變化的學(xué)習(xí)率,提升了模型的收斂速率。此外,Boulila等人[18]在參數(shù)并行更新階段結(jié)合了異步梯度下降法的思想,提出了RS-DCNN(distributed convolutional neural network for hand-ling RS image classification)算法,該算法通過異步更新各節(jié)點(diǎn)計(jì)算的梯度解決了集群相互等待的問題,進(jìn)一步提高了集群的并行效率。實(shí)驗(yàn)結(jié)果表明,以上四種并行DCNN算法對模型的訓(xùn)練效率均有顯著的提升,但是仍存在以下不足:a)在模型并行訓(xùn)練之前,由于各分布式節(jié)點(diǎn)上的DCNN模型結(jié)構(gòu)過于復(fù)雜,若不對其進(jìn)行有效剪枝,模型將會存在冗余參數(shù)過多的問題;b)在模型并行訓(xùn)練過程中,不管是使用周期學(xué)習(xí)率替代線性變化的學(xué)習(xí)率,還是使用Alluxio來存儲中間數(shù)據(jù),雖然都能在一定程度上提升模型的訓(xùn)練效率,但對于大數(shù)據(jù)環(huán)境下更為復(fù)雜的DCNN模型,仍存在收斂速度慢和容易陷入局部最優(yōu)的問題;c)在參數(shù)并行更新階段,雖然使用異步梯度下降法能有效地解決集群相互等待的問題,但這種做法同時(shí)也帶來了梯度延遲的問題,導(dǎo)致模型精度有所降低。所以如何有效地提高集群的并行效率也是一個(gè)亟待解決的問題。

    針對以上三個(gè)問題,本文提出了一種基于Spark和AMPSO的并行深度卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化算法PDCNN-SAMPSO(parallel deep convolutional neural network optimization algorithm based on Spark and AMPSO),算法從三個(gè)方面對并行DCNN算法進(jìn)行了優(yōu)化:a)在模型壓縮階段,為了解決冗余參數(shù)過多的問題,首先對各卷積層中的卷積核進(jìn)行剪枝,然而現(xiàn)有的卷積核剪枝策略大多是采用L1范數(shù)作為剪枝標(biāo)準(zhǔn)對各卷積層進(jìn)行剪枝,該做法不僅忽略了各卷積核間的相似度,而且對不同層采用同一剪枝標(biāo)準(zhǔn)的方式剪枝精度不高,PDCNN-AMPSO算法從卷積核重要性和相似度兩個(gè)維度考慮,設(shè)計(jì)了KP-IS策略,通過對不同卷積層采用不同的剪枝標(biāo)準(zhǔn)并考慮了卷積核間的相似度,解決了冗余參數(shù)過多的問題;b)在模型并行訓(xùn)練階段,對于并行DCNN算法收斂慢且容易陷入局部最優(yōu)的問題,考慮到PSO算法[19]收斂速率快和簡單易用的特性,基于PSO算法提出了AMPSO算法,并在此基礎(chǔ)上設(shè)計(jì)了MPT-AMPSO策略,通過使用AMPSO算法來初始化模型參數(shù),接著再使用Adam(adaptive momentum algorithm)算法[20]對模型參數(shù)進(jìn)行更新,解決了并行DCNN算法收斂速度慢和容易陷入局部最優(yōu)的問題;c)在參數(shù)并行更新階段,對于集群并行效率低的問題,大多并行算法采用異步更新的方式對參數(shù)進(jìn)行更新,然而這種做法導(dǎo)致的梯度延遲問題使得模型分類精度有所降低,因此PDCNN-AMPSO算法選擇在同步更新的基礎(chǔ)上提出了DLBNP策略,通過評估各節(jié)點(diǎn)性能對中間數(shù)據(jù)進(jìn)行預(yù)劃分,并在集群實(shí)際運(yùn)行期間對各節(jié)點(diǎn)負(fù)載進(jìn)行遷移調(diào)整,解決了集群并行效率低的問題。

    1 相關(guān)概念介紹

    1.1 皮爾森相關(guān)系數(shù)

    皮爾森相關(guān)系數(shù)主要是用來衡量兩個(gè)向量之間的相關(guān)性程度,它的取值是[-1,1]。如果值大于0,表示兩個(gè)向量成正相關(guān);如果值小于0,則兩個(gè)向量成負(fù)相關(guān);如果值等于0,則兩個(gè)向量不相關(guān)。皮爾森相關(guān)系數(shù)的計(jì)算公式如下:

    2.1.2 基于重要性的剪枝

    在完成對各卷積層特征聚集程度的量化之后,開始對卷積核進(jìn)行剪枝。首先從卷積核的重要性這一維度對其進(jìn)行剪枝,其具體過程如下:首先提出自適應(yīng)重要性系數(shù)AIC作為卷積核重要性的衡量標(biāo)準(zhǔn),并由此計(jì)算出各卷積層中卷積核的AIC;接著,比較各卷積核的自適應(yīng)重要性系數(shù)AIC和給定閾值A(chǔ)IC0的大小,若AIC

    定理2 自適應(yīng)重要性系數(shù)AIC。令FCC為第i層卷積層的特征聚集系數(shù),則第i層卷積層的第j個(gè)卷積核的重要性系數(shù)AIC可由式(14)計(jì)算。

    證明 令FCC為第i層卷積層的特征聚集系數(shù),當(dāng)特征分布較為均勻時(shí)可知式(8)中LMFj·nGFj·n′趨近于1,即可得lim特征→均勻(FCC)=lim特征→均勻1j·∑ji=1LMFj·nGFj·n′≈1j·∑ji=11=1,此時(shí)AIC趨近于L1范數(shù),能夠充分考慮該卷積層中各卷積核所包含的信息;當(dāng)特征分布較為聚集時(shí)LMFj·nGFj·n′>1且隨聚集程度的增大而增大,此時(shí)lim特征→聚集(FCC)=lim特征→聚集1j·∑ji=1‖F(xiàn)‖i,max1·n‖F(xiàn)‖i1·n′>1,AIC趨近于更高階范數(shù),可以篩選出該卷積層中含有較大元素的卷積核。因此AIC可以通過當(dāng)前卷積層的特征聚集系數(shù)FCC自適應(yīng)地進(jìn)行調(diào)整,作為卷積核重要性評估的基本準(zhǔn)則,證畢。

    2.1.3 基于相似度的剪枝

    在根據(jù)卷積核的重要性對模型進(jìn)行初步壓縮后,考慮到此做法僅考慮了卷積核權(quán)重的數(shù)值大小,而忽略了它們之間的相關(guān)性,導(dǎo)致網(wǎng)絡(luò)中可能還存在冗余的卷積核,因此還需要從卷積核的相似度這一維度對模型做進(jìn)一步壓縮,其具體過程如下:首先提出特征相似度系數(shù)FSC作為卷積核間相似度的衡量標(biāo)準(zhǔn);然后依次計(jì)算每個(gè)卷積層中各卷積核兩兩之間的特征相似度系數(shù)FSC,并與給定的特征相似度閾值FSC0進(jìn)行比較,若FSC>FSC0,則將對應(yīng)的兩個(gè)卷積核以元組的形式加入待刪除隊(duì)列Q中;接著,依次取出隊(duì)列Q中元組(j,k),計(jì)算該元組所對應(yīng)的卷積核j和k的自適應(yīng)重要性系數(shù)AICj和AICk,并刪除其中較小者所對應(yīng)的卷積核;最后,當(dāng)對每個(gè)卷積層完成上述操作后,輸出最終剪枝完成的網(wǎng)絡(luò)模型。

    定理3 特征相似度系數(shù)FSC。設(shè)j和k分別為第i層任意兩個(gè)卷積核,則卷積核j和k的特征相似度系數(shù)FSC為

    其中:X和Y分別是卷積核j和k的向量表達(dá)形式。

    證明 已知PCC(X,Y)代表卷積核j和k的關(guān)聯(lián)程度,即PCC(X,Y)越大,卷積核j和k的相似度越大。而ED(norm(X),norm(Y))的大小反映了卷積核j和k的差異程度,其值越大,卷積核差異越大,反之卷積核差異越小。因此,兩者的比值PCC(X,Y)ED(norm(X),norm(Y))在一定程度上可以反映卷積核直接的相似程度,即當(dāng)該值越大時(shí),表明卷積核之間相似程度越高;反之,表明卷積核之間相似程度越低,證畢。

    算法1 模型壓縮

    輸入:預(yù)訓(xùn)練得到的網(wǎng)絡(luò)權(quán)值序列{wn}。

    輸出:壓縮后的網(wǎng)絡(luò)權(quán)值序列{wm}。

    //特征聚集程度的量化

    for each convolution layer i do

    calculate FCC//計(jì)算各卷積層的特征聚集系數(shù)

    i=FCC//將計(jì)算結(jié)果標(biāo)記給該層

    end for

    //基于重要性的剪枝

    for each convolution layer i do

    for each kernel j do

    calculate AIC//計(jì)算各卷積核的自適應(yīng)重要性系數(shù)

    if AIC

    delete j

    end if

    end for

    end for

    //基于相似度的剪枝

    for each convolution layer i do

    create queue Qi//創(chuàng)建待刪除隊(duì)列

    for each kernel j and k do

    calculate FSC//計(jì)算每兩個(gè)卷積核的特征相似度系數(shù)

    if FSC>FSC0//根據(jù)閾值將兩兩卷積核加入待刪除隊(duì)列中

    Qi.push((j,k))

    end if

    end for

    while Qi≠ do //遍歷待刪除隊(duì)列

    j,k←Qi.pop()

    calculate AICj and AICk

    if AICj

    delete j

    else

    delete k

    end if

    end while

    end for

    output {wm} //輸出壓縮后的網(wǎng)絡(luò)權(quán)值序列

    2.2 模型并行訓(xùn)練

    針對模型并行訓(xùn)練階段存在的收斂速度慢且容易陷入局部最優(yōu)的問題,本文設(shè)計(jì)了一種基于自適應(yīng)變異粒子群優(yōu)化算法的參數(shù)并行訓(xùn)練策略MPT-AMPSO,該策略首先提出了AMPSO算法來初始化模型參數(shù),接著使用Adam算法更新模型參數(shù),提升了模型的收斂速率和跳出局部最優(yōu)位置的能力。其主要包括兩個(gè)步驟:

    a)參數(shù)初始化。提出了一種自適應(yīng)變異的粒子群優(yōu)化算法AMPSO,并使用該算法初始化模型參數(shù)。其中,AMPSO算法首先設(shè)計(jì)了一種慣性因子ω的自適應(yīng)計(jì)算公式(adaptive calculation formula of ω, ACF),使得ω能跟隨迭代周期自適應(yīng)地調(diào)整,增加了粒子跳出局部最優(yōu)的能力,其次又設(shè)計(jì)了一種粒子自適應(yīng)變異函數(shù)(adaptive mutation function,AMF),AMF結(jié)合了柯西變異和高斯變異的優(yōu)勢,提升了PSO算法的收斂速率和跳出局部最優(yōu)的能力。

    b)參數(shù)并行訓(xùn)練。在各節(jié)點(diǎn)上使用Adam算法進(jìn)行反向傳播,最終獲取模型并行訓(xùn)練結(jié)果。

    2.2.1 參數(shù)初始化

    為了解決梯度下降算法存在的收斂速度慢且容易陷入局部最優(yōu)的問題,提出AMPSO算法,并在模型并行訓(xùn)練前,先使用該算法對模型參數(shù)進(jìn)行初始化。AMPSO算法的具體過程如下:

    聯(lián)立式(21)~(25)可知f(x)在[0, 1]上具有關(guān)于點(diǎn)(1/2,1/2)對稱、單調(diào)遞增且一階導(dǎo)在[0,1/2]單調(diào)遞增,在[1/2,1]單調(diào)遞減的性質(zhì)。

    故f(x)在橫軸滿足關(guān)于迭代總次數(shù)T的對稱性,在縱軸滿足關(guān)于rand取值的對稱性,隨著迭代次數(shù)的增加,AMF能通過f(t/T)的取值自適應(yīng)地調(diào)整變異粒子的變異函數(shù)。即在迭代初期時(shí),在更多的周期內(nèi)有更多的粒子采用柯西變異以增強(qiáng)粒子在初期的全局搜索能力[21];相反在迭代末期,在更多的周期內(nèi)有更多的粒子會采用高斯變異以增強(qiáng)粒子在末期的局部收斂能力[22]。因此AMF可作為粒子變異的自適應(yīng)變異函數(shù),證畢。

    d)更新粒子群參數(shù)。先根據(jù)式(18)更新慣性因子ω后,再根據(jù)式(6)(7)更新粒子速度和位置,最后對變異粒子的位置采用式(19)進(jìn)行擾動。

    e)粒子群迭代。重復(fù)步驟b)~d),直到達(dá)到設(shè)置的終止條件,最終輸出粒子的最優(yōu)位置。

    2.2.2 參數(shù)并行更新

    在使用AMPSO算法對模型參數(shù)進(jìn)行初始化之后,便開始對模型參數(shù)進(jìn)行并行訓(xùn)練。參數(shù)并行訓(xùn)練時(shí)首先在各節(jié)點(diǎn)上對模型進(jìn)行前向傳播,并根據(jù)前向傳播的結(jié)果使用Adam算法對模型參數(shù)進(jìn)行反向傳播求得各參數(shù)的改變量,進(jìn)而獲得模型并行訓(xùn)練的結(jié)果。其具體過程如下:

    a) 參數(shù)并行訓(xùn)練。使用Adam算法對模型參數(shù)進(jìn)行反向傳播求得各參數(shù)的改變量。

    b) 迭代訓(xùn)練。重復(fù)步驟a),直到達(dá)到設(shè)置的終止條件,最終輸出參數(shù)并行訓(xùn)練的結(jié)果,形如〈key=w,value=w〉。

    算法2 模型并行訓(xùn)練

    輸入:壓縮后的網(wǎng)絡(luò)權(quán)值序列{wm};迭代次數(shù)T;適應(yīng)度函數(shù)fitness(xi)。

    輸出:參數(shù)并行更新結(jié)果〈key=w,value=w〉。

    //參數(shù)初始化

    initialize n particles based on {wm}

    while t

    for each particle pi do

    calculate fitness(xi)//計(jì)算各粒子的適應(yīng)度值

    update pbesti and gbest //更新全局最優(yōu)值和局部最優(yōu)

    update ω=(ωmax-ωmin)·cos(tT·π2)+ωmin//更新慣性因子

    update vt+1i=ωvti+c1r1×(pbesti-xti)+c2r2×(gbest-xti)

    //更新速度

    update xt+1i=xti+vti//更新位置

    if pi is mutation particle

    update xi=AMF(xi)//對粒子進(jìn)行變異操作

    end if

    end for

    end while

    //參數(shù)并行更新

    initialize the model parameters based on xi//初始化模型參數(shù)

    start forward propagation and back propagation

    //前向傳播和反向傳播

    output 〈key=w,value=w〉//輸出參數(shù)并行更新結(jié)果

    2.3 參數(shù)并行更新

    針對參數(shù)并行更新階段存在的集群并行效率低的問題,本文提出了基于節(jié)點(diǎn)性能的動態(tài)負(fù)載均衡策略DLBNP,該策略主要包括以下兩個(gè)步驟:a)數(shù)據(jù)預(yù)劃分,在reduce任務(wù)開始前,根據(jù)各節(jié)點(diǎn)的性能將中間數(shù)據(jù)初步劃分到不同的reduce節(jié)點(diǎn),充分利用各節(jié)點(diǎn)的性能,提高集群的資源利用率;b)數(shù)據(jù)遷移,在reduce任務(wù)實(shí)際運(yùn)行期間,通過監(jiān)測各節(jié)點(diǎn)的實(shí)際運(yùn)行情況,來動態(tài)調(diào)整各節(jié)點(diǎn)的負(fù)載率,進(jìn)一步提高集群的并行效率。

    2.3.1 數(shù)據(jù)預(yù)劃分

    由于reduce階段每個(gè)reduce節(jié)點(diǎn)在拉取中間數(shù)據(jù)時(shí)是按照key的hash值進(jìn)行拉取的,所以無法保證中間數(shù)據(jù)劃分的均衡性,從而導(dǎo)致數(shù)據(jù)傾斜,進(jìn)而導(dǎo)致集群的并行效率過低。為了解決這一問題,本文首先根據(jù)各節(jié)點(diǎn)性能對中間數(shù)據(jù)進(jìn)行預(yù)劃分,以保證中間數(shù)據(jù)劃分的均衡性,其具體步驟如下:

    a)設(shè)集群中有n個(gè)reduce節(jié)點(diǎn),其中節(jié)點(diǎn)Ni(i=1,2,…,n)的負(fù)載能力為Li,當(dāng)前集群中reduce階段總?cè)蝿?wù)量為Ttotal,則當(dāng)集群達(dá)到負(fù)載均衡時(shí),各節(jié)點(diǎn)應(yīng)分得的任務(wù)量Ti為

    2.5 算法時(shí)間復(fù)雜度

    相較于單機(jī)器的訓(xùn)練方式,Dis-CNN[14]算法采用并行計(jì)算的方式實(shí)現(xiàn)了模型的并行化訓(xùn)練過程,具有更高的訓(xùn)練效率;DS-DCNN[15]算法使用Alluxio來存儲中間數(shù)據(jù),提升了模型的并行訓(xùn)練效率;CLR-Distributed-CNN[16]算法使用周期學(xué)習(xí)率替代線性變化的學(xué)習(xí)率,提升了模型的并行訓(xùn)練效率;RS-DCNN[18]算法通過異步更新各節(jié)點(diǎn)計(jì)算的梯度解決了集群相互等待的問題,提高了集群的并行效率。因此,本文選取Dis-CNN、DS-DCNN、CLR-Distributed-CNN以及RS-DCNN算法與PDCNN-SAMPSO算法進(jìn)行時(shí)間復(fù)雜度分析和實(shí)驗(yàn)對比。

    PDCNN-SAMPSO算法的時(shí)間復(fù)雜度主要是由模型壓縮、模型并行訓(xùn)練和參數(shù)并行更新這三個(gè)部分構(gòu)成。這些部分的時(shí)間復(fù)雜度分別為:

    a)模型壓縮階段。該階段的時(shí)間復(fù)雜度主要取決于KP-IS策略的時(shí)間復(fù)雜度。設(shè)模型有c個(gè)卷積層,fi表示第i卷積層輸出的特征圖數(shù)量,ni表示第i卷積層輸出特征圖的邊長,n′i和Si分別表示第i卷積層在計(jì)算特征聚集系數(shù)時(shí)滑動窗口的邊長和滑動步長,則使用KP-IS策略進(jìn)行剪枝的時(shí)間復(fù)雜度T1為

    b)模型并行訓(xùn)練階段。該階段的時(shí)間復(fù)雜度主要取決于在各節(jié)點(diǎn)上執(zhí)行MPT-AMPSO策略的時(shí)間復(fù)雜度。設(shè)迭代次數(shù)為Iter,k表示AMPSO算法初始化的粒子數(shù),壓縮后的模型總參數(shù)量為w,則使用MPT-AMPSO策略進(jìn)行模型并行訓(xùn)練的時(shí)間復(fù)雜度T2為

    c)參數(shù)并行更新階段。該階段的時(shí)間復(fù)雜度主要包括各reduce節(jié)點(diǎn)并行執(zhí)行參數(shù)的合并。設(shè)map節(jié)點(diǎn)個(gè)數(shù)為a,reduce節(jié)點(diǎn)個(gè)數(shù)為b,模型總參數(shù)量為w,則參數(shù)并行組合階段的時(shí)間復(fù)雜度T3為

    由于PDCNN-SAMPSO算法在模型訓(xùn)練前對模型進(jìn)行了有效剪枝,使得模型中第i卷積層的卷積核數(shù)量Ci大幅減少,從而大大降低了卷積運(yùn)算的時(shí)間復(fù)雜度,即TConv-PDCNN-SAMPSO<

    3 實(shí)驗(yàn)結(jié)果與分析

    3.1 實(shí)驗(yàn)環(huán)境

    為了驗(yàn)證PDCNN-SAMPSO算法的性能表現(xiàn),本文設(shè)計(jì)了相關(guān)實(shí)驗(yàn)。在硬件方面,本實(shí)驗(yàn)設(shè)置了8個(gè)計(jì)算節(jié)點(diǎn),其中包含1個(gè)master節(jié)點(diǎn)和7個(gè)slaver節(jié)點(diǎn)。各節(jié)點(diǎn)的配置均為AMD Ryzen 5 5600X CPU、16 GB DDR4 RAM、NVIDIA RTX2080Ti GPU,并通過1 000 Mbps的以太網(wǎng)相連。在軟件方面,各節(jié)點(diǎn)的配置均為Ubuntu 18.04.6、Python 3.7、TensorFlow 1.14、JDK 1.8.0、Apache Hadoop 2.7.2、Spark 2.1.1。各節(jié)點(diǎn)具體配置如表1所示。

    3.2 實(shí)驗(yàn)數(shù)據(jù)

    本文采用CIFAR-10、CIFAR-100、Emnist-Balanced和CompCars四個(gè)真實(shí)數(shù)據(jù)集。其中CIFAR-10和CIFAR-100都是由現(xiàn)實(shí)世界中真實(shí)物體的彩色圖像構(gòu)成的數(shù)據(jù)集;Emnist-Balanced是源自NIST Speical Database 19的一個(gè)手寫字符數(shù)字?jǐn)?shù)據(jù)集;CompCars是一個(gè)車輛數(shù)據(jù)集。各數(shù)據(jù)集的詳細(xì)信息如表2所示。

    3.3 評價(jià)指標(biāo)

    3.3.1 加速比

    加速比是指同一個(gè)任務(wù)在串行系統(tǒng)和并行系統(tǒng)中運(yùn)行消耗時(shí)間的比率,用來衡量并行系統(tǒng)的性能和效果。加速比越大,算法并行程度越高。加速比的定義如下:

    其中:Ts表示算法在串行系統(tǒng)的運(yùn)行時(shí)間;Tm表示算法在并行系統(tǒng)的運(yùn)行時(shí)間。

    3.3.2 top-1準(zhǔn)確率

    top-1準(zhǔn)確率是指正確標(biāo)簽為模型輸出的最佳標(biāo)簽的樣本數(shù)與總樣本數(shù)的比率,用來衡量模型的分類效果。top-1準(zhǔn)確率越高,模型分類效果越好。top-1準(zhǔn)確率的定義為

    其中:Tb是正確標(biāo)簽為模型輸出的最佳標(biāo)簽的樣本數(shù);N為總樣本數(shù)。

    3.4 參數(shù)設(shè)置

    在設(shè)置本文主要參數(shù)時(shí),首先,對于文中引入的PSO算法[19]和Adam算法[20]中的參數(shù)均取算法一般值,即PSO算法中學(xué)習(xí)因子c1=c2=2,Adam算法中一階矩估計(jì)指數(shù)衰減率β1=0.9、二階矩估計(jì)指數(shù)衰減率β2=0.999。其次,對于本文所提主要參數(shù)的取值,通過參數(shù)對比實(shí)驗(yàn)最終確定取值,參數(shù)對比實(shí)驗(yàn)中使用CompCars數(shù)據(jù)集,集群節(jié)點(diǎn)數(shù)目為8。其中,本文主要參數(shù)為:a)模型壓縮階段中KP-IS策略滑動窗口的選取比例n′/n;b) 模型并行訓(xùn)練階段MPT-AMPSO策略中慣性因子ω的最大最小值ωmax、ωmin。根據(jù)表3參數(shù)對比實(shí)驗(yàn)結(jié)果,本文設(shè)置n′/n=15%,ωmax=1.3,ωmin=0.7。

    3.5 算法可行性分析

    3.5.1 消融實(shí)驗(yàn)

    為驗(yàn)證PDCNN-SAMPSO算法中各策略的有效性,本文以算法的加速比作為評價(jià)指標(biāo),使用VGG-16作為訓(xùn)練模型在CIFAR-10、CIFAR-100、Emnist-Balanced和CompCars數(shù)據(jù)集上進(jìn)行了各策略的消融實(shí)驗(yàn)。同時(shí),為確保實(shí)驗(yàn)結(jié)果的可靠性,將算法在每個(gè)數(shù)據(jù)集上獨(dú)立運(yùn)行五次,并取其平均值作為最終的實(shí)驗(yàn)結(jié)果,其中加速比為集群節(jié)點(diǎn)數(shù)目為8時(shí)的數(shù)據(jù)。實(shí)驗(yàn)結(jié)果如表4所示。

    從表4可以看出,PDCNN-SAMPSO算法中各策略均可顯著提升算法的加速比,其中KP-IS策略對算法加速比的提升效果最為明顯,且隨著數(shù)據(jù)集規(guī)模的增大,三個(gè)策略對算法加速比的提升效果更為明顯。其中,當(dāng)處理小規(guī)模數(shù)據(jù)集CIFAR-10時(shí),使用KP-IS、MPT-AMPSO和DLBNP策略分別比不使用這些策略時(shí)算法加速比提升了12.21%、7.01%、4.93%,且同時(shí)使用三個(gè)策略時(shí)算法加速比提升了18.56%。當(dāng)處理大規(guī)模數(shù)據(jù)集CompCars時(shí),使用KP-IS、MPT-AMPSO和DLBNP策略分別比不使用這些策略時(shí)算法加速比提升了17.01%、9.43%、9.27%,且同時(shí)使用三個(gè)策略時(shí)算法加速比提升了22.94%。產(chǎn)生這些結(jié)果的原因是:PDCNN-SAMPSO算法設(shè)計(jì)的KP-IS策略,通過剪枝冗余卷積核消除網(wǎng)絡(luò)中大量的冗余參數(shù),極大地減少了冗余計(jì)算,同時(shí)MPT-AMPSO策略通過使用AMPSO算法初始化模型參數(shù)提升了模型的收斂速率,此外DLBNP策略通過均衡節(jié)點(diǎn)間負(fù)載,進(jìn)一步提升了集群的并行效率,且這些提升在數(shù)據(jù)規(guī)模較大的情況下更為顯著。由此表明,KP-IS、MPT-AMPSO和DLBNP策略在大數(shù)據(jù)環(huán)境下具有良好的可行性與有效性。

    3.5.2 PDCNN-SAMPSO算法可行性分析

    為驗(yàn)證PDCNN-SAMPSO算法在大數(shù)據(jù)環(huán)境下的可行性,本文以算法的加速比作為評價(jià)指標(biāo),對PDCNN-SAMPSO算法在CIFAR-10、CIFAR-100、Emnist-Balanced和CompCars數(shù)據(jù)集上進(jìn)行了測試。同時(shí),為確保實(shí)驗(yàn)結(jié)果的可靠性,將算法在每個(gè)數(shù)據(jù)集上獨(dú)立運(yùn)行五次,并取其平均值作為最終的實(shí)驗(yàn)結(jié)果。實(shí)驗(yàn)結(jié)果如圖4所示。

    從圖4可以看出,PDCNN-SAMPSO算法隨著節(jié)點(diǎn)數(shù)的增加,其加速比總體呈現(xiàn)上升趨勢,且隨著四個(gè)數(shù)據(jù)集規(guī)模的增加逐步增長。其中當(dāng)節(jié)點(diǎn)數(shù)為2時(shí),PDCNN-SAMPSO算法在四個(gè)數(shù)據(jù)集上的加速比差異較小算法相比于單節(jié)點(diǎn)的加速比分別增加了0.721、0.636、0.885和0.922;當(dāng)節(jié)點(diǎn)數(shù)為4時(shí),算法相比于單節(jié)點(diǎn)的加速比分別增加了2.151、2.362、2.794和2.662;當(dāng)節(jié)點(diǎn)數(shù)為8時(shí),PDCNN-SAMPSO算法在各數(shù)據(jù)集上有了顯著提升,分別達(dá)到了3.758、4.012、4.359和4.836??梢钥闯鲈诖笠?guī)模數(shù)據(jù)集下,隨著節(jié)點(diǎn)數(shù)量的增加,PDCNN-SAMPSO算法的并行訓(xùn)練效率也隨之逐漸提升。產(chǎn)生這些結(jié)果的原因是:a)PDCNN-SAMPSO算法設(shè)計(jì)了KP-IS策略,通過剪枝冗余卷積核消除網(wǎng)絡(luò)中大量的冗余參數(shù),極大地提升了PDCNN-SAMPSO算法的并行訓(xùn)練效率;b)PDCNN-SAMPSO算法設(shè)計(jì)了MPT-AMPSO策略,通過使用AMPSO算法初始化模型參數(shù)并使用Adam算法更新模型參數(shù),進(jìn)一步提升了模型的并行訓(xùn)練效率。由此表明,PDCNN-SAMPSO算法在大數(shù)據(jù)環(huán)境下具有良好的可行性與有效性。

    3.6 算法性能分析比較

    3.6.1 算法運(yùn)行時(shí)間分析

    為驗(yàn)證PDCNN-SAMPSO算法的時(shí)間復(fù)雜度,本文在上述四個(gè)數(shù)據(jù)集上對Dis-CNN[14]、DS-DCNN[15]、CLR-Distributed-CNN[16]和RS-DCNN[18]算法分別進(jìn)行了五次測試,并取五次運(yùn)行時(shí)間的均值作為最終的實(shí)驗(yàn)結(jié)果。實(shí)驗(yàn)結(jié)果如圖5所示。

    從圖5可以看出,在對各數(shù)據(jù)集進(jìn)行處理時(shí),PDCNN-SAMPSO算法的運(yùn)行時(shí)間始終保持最低,并且隨著數(shù)據(jù)規(guī)模的不斷上升,PDCNN-SAMPSO算法的運(yùn)行時(shí)間相較于其他四種算法運(yùn)行時(shí)間的差異比例也逐漸擴(kuò)大。其中,當(dāng)處理數(shù)據(jù)量較小的數(shù)據(jù)集CIFAR-10時(shí),PDCNN-SAMPSO算法運(yùn)行時(shí)間分別比Dis-CNN、DS-DCNN、CLR-Distributed-CNN和RS-DCNN算法減少了13%、21%、33%和22%;當(dāng)處理數(shù)據(jù)量較大的數(shù)據(jù)集CompCars時(shí),PDCNN-SAMPSO算法運(yùn)行時(shí)間分別比Dis-CNN、DS-DCNN、CLR-Distributed-CNN和RS-DCNN算法減少了22%、30%、37%和27%??梢钥闯鯬DCNN-SAMPSO算法相較于Dis-CNN、DS-DCNN、CLR-Distributed-CNN和RS-DCNN算法,運(yùn)行時(shí)間更少,且隨著數(shù)據(jù)規(guī)模的增長,其他四種算法運(yùn)行時(shí)間與它的差距也在逐步加大。產(chǎn)生這種結(jié)果的主要原因是:a)PDCNN-SAMPSO算法設(shè)計(jì)了KP-IS策略,通過剪枝冗余卷積核消除網(wǎng)絡(luò)中大量的冗余參數(shù),從而降低了模型并行訓(xùn)練的時(shí)間開銷,加快了算法的運(yùn)行速度;b)PDCNN-SAMPSO算法設(shè)計(jì)了MPT-AMPSO策略,通過使用AMPSO算法初始化模型參數(shù)并使用Adam算法更新模型參數(shù),進(jìn)一步加快了算法的運(yùn)行速度。由此表明,PDCNN-SAMPSO算法在大數(shù)據(jù)環(huán)境下?lián)碛懈鼉?yōu)良的性能。

    3.6.2 算法加速比實(shí)驗(yàn)分析

    為驗(yàn)證PDCNN-SAMPSO算法在大數(shù)據(jù)環(huán)境下的并行性能,本文在上述四個(gè)數(shù)據(jù)集上對Dis-CNN、DS-DCNN、CLR-Distributed-CNN和RS-DCNN算法在不同數(shù)目計(jì)算節(jié)點(diǎn)下分別進(jìn)行了五次測試,并用五次運(yùn)行時(shí)間的均值來計(jì)算各算法在不同數(shù)目計(jì)算節(jié)點(diǎn)下的加速比。實(shí)驗(yàn)結(jié)果如圖6所示。

    從圖6可以看出,在處理CIFAR-10、CIFAR-100、Emnist-Balanced和CompCars數(shù)據(jù)集時(shí),各算法在四個(gè)數(shù)據(jù)集上的加速比隨著節(jié)點(diǎn)數(shù)量的增加都呈逐漸上升的趨勢,并且隨著數(shù)據(jù)規(guī)模的增大,PDCNN-SAMPSO算法在各數(shù)據(jù)集上的加速比與其他四種算法的差距也逐步增大。其中,在處理規(guī)模較小的數(shù)據(jù)集CIFAR-10時(shí),如圖6(a)所示,各算法之間的加速比相差不大,且隨著計(jì)算節(jié)點(diǎn)數(shù)目從2個(gè)增加到8個(gè),PDCNN-SAMPSO算法的加速比逐步超過了其他四種算法,當(dāng)計(jì)算節(jié)點(diǎn)為8個(gè)時(shí),分別比Dis-CNN、DS-DCNN、CLR-Distributed-CNN和RS-DCNN算法的加速比高出了0.482、0.341、0.577和0.134。在處理數(shù)據(jù)規(guī)模較大的數(shù)據(jù)集CompCars時(shí),如圖6(d)所示,隨著節(jié)點(diǎn)數(shù)量的不斷增加,PDCNN-SAMPSO算法的優(yōu)勢逐漸凸顯,當(dāng)計(jì)算節(jié)點(diǎn)為8個(gè)時(shí),分別比Dis-CNN、DS-DCNN、CLR-Distributed-CNN和RS-DCNN算法的加速比高出了1.707、1.424、1.859、0.922。產(chǎn)生這種結(jié)果的原因是:a)當(dāng)處理規(guī)模較小的數(shù)據(jù)集時(shí),模型并行訓(xùn)練計(jì)算量較小,從而各節(jié)點(diǎn)間的通信時(shí)間開銷相對來說就變得很大,且當(dāng)數(shù)據(jù)規(guī)模較小時(shí),并行訓(xùn)練對訓(xùn)練效率的提升能力有限,從而導(dǎo)致PDCNN-SAMPSO算法的加速比提升不大;b)當(dāng)處理規(guī)模較大的數(shù)據(jù)集時(shí),PDCNN-SAMPSO算法設(shè)計(jì)了DLBNP策略,該策略均衡了各節(jié)點(diǎn)間的負(fù)載,提升了PDCNN-SAMPSO算法的并行效率,隨著計(jì)算節(jié)點(diǎn)的增加,相較于單機(jī)的并行效率逐步提升,從而提升了算法的加速比。由此表明,PDCNN-SAMPSO算法在大數(shù)據(jù)環(huán)境下相較于其他算法具有更好的并行性能。

    3.6.3 算法top-1準(zhǔn)確率實(shí)驗(yàn)分析

    為驗(yàn)證PDCNN-SAMPSO算法的分類效果,本文以top-1準(zhǔn)確率作為評價(jià)指標(biāo),將PDCNN-SAMPSO算法分別與Dis-CNN、DS-DCNN、CLR-Distributed-CNN和RS-DCNN算法在CIFAR-10、CIFAR-100、Emnist-Balanced和CompCars四個(gè)數(shù)據(jù)集上進(jìn)行了對比實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如圖7所示。

    從圖7可以看出,雖然在訓(xùn)練初期PDCNN-SAMPSO算法相比其他四種算法的top-1準(zhǔn)確率略低,但是隨著訓(xùn)練輪次的不斷增加,PDCNN-SAMPSO算法比其他四種算法收斂速度更快且準(zhǔn)確率更高。其中,在處理較小規(guī)模的數(shù)據(jù)集CIFAR-10上,如圖7(a)所示,PDCNN-SAMPSO算法在訓(xùn)練輪次為50輪時(shí)便已經(jīng)開始收斂,比Dis-CNN和RS-DCNN算法的收斂輪次快了10輪,比DS-DCNN和CLR-Distributed-CNN算法的收斂輪次快了20輪,且最終的top-1準(zhǔn)確率分別比Dis-CNN、DS-DCNN、CLR-Distributed-CNN和RS-DCNN算法高了3.42%、1.59%、2.38%、4.97%。在處理較大規(guī)模的數(shù)據(jù)集Emnist-Balanced和CompCars上,如圖7(c)(d)所示,PDCNN-SAMPSO算法對比其他四種算法,在收斂速度和最終top-1準(zhǔn)確率上提升更為明顯。產(chǎn)生這種結(jié)果的原因是:a)PDCNN-SAMPSO算法設(shè)計(jì)了KP-IS策略,通過剪枝冗余卷積核消除網(wǎng)絡(luò)中大量的冗余參數(shù),由于剪枝完成后,模型需要一定的訓(xùn)練輪次來恢復(fù)精度,所以在訓(xùn)練初期模型精度會有所降低,但是隨著訓(xùn)練輪次的增加,消除冗余參數(shù)所帶來的訓(xùn)練速度和準(zhǔn)確率的提升效果就會愈發(fā)顯著;b)PDCNN-SAMPSO算法設(shè)計(jì)了MPT-AMPSO策略,通過使用AMPSO算法初始化模型參數(shù)并使用Adam算法更新模型參數(shù),進(jìn)一步加快了算法的收斂速度和分類精度,且這種提升在數(shù)據(jù)規(guī)模更大的數(shù)據(jù)集上效果更為明顯。由此表明,PDCNN-SAMPSO算法在大數(shù)據(jù)環(huán)境下有著更為優(yōu)良的分類性能。

    4 應(yīng)用場景

    近年來,隨著遙感設(shè)備的不斷發(fā)展以及無人機(jī)的快速普及,遙感技術(shù)已經(jīng)被廣泛應(yīng)用于災(zāi)害預(yù)測、環(huán)境監(jiān)測、數(shù)字城市等各領(lǐng)域。與此同時(shí),這也使得遙感數(shù)據(jù)規(guī)模呈爆炸式的增長,海量的遙感數(shù)據(jù)也意味著遙感大數(shù)據(jù)時(shí)代的到來[23],進(jìn)而給遙感數(shù)據(jù)的有效信息提取帶來了巨大的挑戰(zhàn)[24]。PDCNN-SAMPSO針對DCNN算法在大數(shù)據(jù)環(huán)境的改進(jìn),給上述問題的解決提供了新的方向。圖8展示了將PDCNN-SAMPSO應(yīng)用于遙感圖像分類的具體模型結(jié)構(gòu)。

    在該模型結(jié)構(gòu)中, PDCNN-SAMPSO首先調(diào)用KP-IS策略剪枝預(yù)訓(xùn)練的網(wǎng)絡(luò)模型,消除了過多的冗余參數(shù),避免了后續(xù)信息提取過程中不必要的資源消耗;其次通過調(diào)用MPT-AMPSO策略加速了算法從遙感圖像中提取信息的速率;最后在Spark框架的并行期間調(diào)用DLBNP策略,進(jìn)一步提升了信息提取效率,從而解決了在遙感大數(shù)據(jù)時(shí)代,傳統(tǒng)算法對遙感圖像中有效信息提取能力不足的問題。

    5 結(jié)束語

    針對傳統(tǒng)深度卷積神經(jīng)網(wǎng)絡(luò)算法在大數(shù)據(jù)環(huán)境下的不足,本文提出了一種基于Spark和AMPSO的并行深度卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化算法——PDCNN-SAMPSO。首先,設(shè)計(jì)了基于卷積核重要性和相似度的卷積核剪枝策略KP-IS,通過從卷積核重要性和相似度兩個(gè)維度對模型進(jìn)行剪枝,解決了冗余參數(shù)過多的問題;其次,設(shè)計(jì)了基于自適應(yīng)變異粒子群優(yōu)化算法的模型并行訓(xùn)練策略MPT-AMPSO,在該策略中先提出了一種自適應(yīng)變異的粒子群優(yōu)化算法AMPSO,通過使用AMPSO算法來初始化模型參數(shù),接著再使用Adam算法對模型參數(shù)進(jìn)行更新,解決了并行DCNN算法收斂速度慢和容易陷入局部最優(yōu)的問題;最后,提出了基于節(jié)點(diǎn)性能的動態(tài)負(fù)載均衡策略DLBNP,通過評估各節(jié)點(diǎn)性能對中間數(shù)據(jù)進(jìn)行預(yù)劃分,并在集群實(shí)際運(yùn)行期間對各節(jié)點(diǎn)負(fù)載進(jìn)行遷移調(diào)整,解決了集群并行效率低的問題。實(shí)驗(yàn)表明,PDCNN-SAMPSO算法相較于其他算法,在處理大數(shù)據(jù)時(shí)具有更優(yōu)的性能表現(xiàn)。雖然PDCNN-SAMPSO算法在大數(shù)據(jù)環(huán)境下的深度卷積神經(jīng)網(wǎng)絡(luò)模型的并行訓(xùn)練方面取得了不小的進(jìn)步,但該算法在分類精度上仍存在一定的提升空間,未來的工作重點(diǎn)也將集中在卷積核剪枝標(biāo)準(zhǔn)的選擇方面,使其對模型的壓縮更為精準(zhǔn),從而進(jìn)一步提升算法的分類精度。

    參考文獻(xiàn):

    [1]Gu Jiuxiang, Wang Zhenhua, Kuen J, et al. Recent advances in convolutional neural networks[J].Pattern Recognition,2018,77:354-377.

    [2]Russakovsky O, Deng Jia, Su Hao, et al. ImageNet large scale visual recognition challenge[J].International Journal of Computer Vision,2015,115(3):211-252.

    [3]Sarma B D, Prasanna S R M. Acoustic-phonetic analysis for speech recognition: a review[J].IETE Technical Review,2018,35(3):305-327.

    [4]Deng Jun, Xuan Xiaojing, Wang Weifeng, et al. A review of research on object detection based on deep learning[J].Journal of Physics:Conference Series,2020,1684(1):012028.

    [5]Mo Yujian, Wu Yan, Yang Xinneng, et al. Review the state-of-the-art technologies of semantic segmentation based on deep learning[J].Neurocomputing,2022,493:626-646.

    [6]Li Lixiang, Mu Xiaohui, Li Siying, et al. A review of face recognition technology[J].IEEE Access,2020,8:139110-139120.

    [7]Mozaffari S, Al-Jarrah O Y, Dianati M, et al. Deep learning-based vehicle behavior prediction for autonomous driving applications:a review[J].IEEE Trans on Intelligent Transportation Systems,2020,23(1):33-47.

    [8]Kaisler S, Armour F, Espinosa J A, et al. Big data: issues and challenges moving forward[C]//Proc of the 46th Hawaii International Conference on System Sciences.Piscataway,NJ:IEEE Press,2013:995-1004.

    [9]Leung J, Chen Min. Image recognition with MapReduce based convolutional neural networks[C]//Proc of the 10th Annual Ubiquitous Computing,Electronics & Mobile Communication Conference.Pisca-taway,NJ:IEEE Press,2019:119-125.

    [10]Wang Qicong, Zhao Jinhao, Gong Dingxi, et al. Parallelizing convolutional neural networks for action event recognition in surveillance videos[J].International Journal of Parallel Programming,2017,45(4):734-759.

    [11]Li Binquan, Hu Xiaohui. Effective vehicle logo recognition in real-world application using MapReduce based convolutional neural networks with a pre-training strategy[J].Journal of Intelligent & Fuzzy Systems,2018,34(3):1985-1994.

    [12]毛伊敏,張瑞朋,高波.大數(shù)據(jù)下基于特征圖的深度卷積神經(jīng)網(wǎng)絡(luò)[J].計(jì)算機(jī)工程與應(yīng)用,2022,58(15):110-116.(Mao Yiming, Zhang Ruipeng, Gao Bo. Deep convolutional neural network algorithm based on feature map in big data environment[J].Computer Engineering and Applications,2022,58(15):110-116.)

    [13]Zaharia M, Xin R S, Wendell P, et al. Apache Spark: a unified engine for big data processing[J].Communications of the ACM,2016,59(11):56-65.

    [14]Xu Jiangfeng, Ma Shenyue. Image classification model based on spark and CNN[C]//Proc of the 2nd International Conference on Material Engineering and Advanced Manufacturing Technology.2018.

    [15]Li Chen, Jiang Linhua, Chen Xiaodong. A distributed CBIR system based on DCNN on Apache Spark and Alluxio[C]//Proc of International Conference on Image and Video Processing, and Artificial Intelligence.[S.l.]:SPIE,2018.

    [16]Sun Yulu, Yun Bensheng, Qian Yaguan, et al. A Spark-based method for identifying large-scale network burst traffic[J].Journal of Computers,2021,32(4):123-136.

    [17]Smith L N. Cyclical learning rates for training neural networks[C]//Proc of IEEE Winter Conference on Applications of Computer Vision.Piscataway,NJ:IEEE Press,2017:464-472.

    [18]Boulila W, Sellami M, Driss M, et al. RS-DCNN: a novel distributed convolutional-neural-networks based-approach for big remote-sen-sing image classification[J].Computers and Electronics in Agriculture,2021,182:106014.

    [19]Shi Yuhui, Eberhart R. A modified particle swarm optimizer[C]//Proc of IEEE International Conference on Evolutionary Computation and IEEE World Congress on Computational Intelligence.Piscataway,NJ:IEEE Press,1998:69-73.

    [20]Kingma D P, Ba J. Adam: a method for stochastic optimization[EB/OL].(2017-01-30).https://arxiv.org/abs/1412.6980.

    [21]杜曉昕,張劍飛,郭媛,等.基于柯西—高斯動態(tài)消減變異的果蠅優(yōu)化算法研究[J].計(jì)算機(jī)工程與科學(xué),2016,38(6):1171-1176.(Du Xiaoxin, Zhang Jianfei, Guo Yuan, et al. A fruit fly optimization algorithm with Cauchy-Gaussian dynamic reduction mutation[J].Computer Engineering and Science,2016,38(6):1171-1176.)

    [22]Song Xiaoxin, Jian Ling, Song Yunquan. A chunk updating LS-SVMs based on block Gaussian elimination method[J].Applied Soft Computing,2017,51:96-104.

    [23]劉偉權(quán),王程,臧彧,等.基于遙感大數(shù)據(jù)的信息提取技術(shù)綜述[J].大數(shù)據(jù),2022,8(2):28-57.(Liu Weiquan, Wang Cheng, Zang Yu, et al. A survey on information extraction technology based on remote sensing big data[J].Big Data Research,2022,8(2):28-57.)

    [24]張兵.遙感大數(shù)據(jù)時(shí)代與智能信息提?。跩].武漢大學(xué)學(xué)報(bào):信息科學(xué)版,2018,43(12):1861-1871.(Zhang Bing. Remote sensing big data era and intelligent information extraction[J].Geomatics and Information Science of Wuhan University,2018,43(12):1861-1871.)

    收稿日期:2023-03-31;修回日期:2023-04-25

    基金項(xiàng)目:科技創(chuàng)新2030-“新一代人工智能”重大項(xiàng)目(2020AAA0109605);廣東省重點(diǎn)提升項(xiàng)目(2022ZDJS048);韶關(guān)市科技計(jì)劃資助項(xiàng)目(220607154531533)

    作者簡介:劉衛(wèi)明(1964-),男,江西新余人,教授,碩導(dǎo),碩士,主要研究方向?yàn)榇髷?shù)據(jù)和數(shù)據(jù)挖掘;羅全成(1997-),男,河南信陽人,碩士研究生,主要研究方向?yàn)榇髷?shù)據(jù)和數(shù)據(jù)挖掘;毛伊敏(1970-),女(通信作者),新疆伊犁人,教授,碩導(dǎo),博士,主要研究方向?yàn)榇髷?shù)據(jù)和數(shù)據(jù)挖掘(mymlyc@163.com);彭喆(1990-),男,湖南邵陽人,碩士研究生,主要研究方向?yàn)榇髷?shù)據(jù)和數(shù)據(jù)挖掘.

    欧美午夜高清在线| 久久香蕉精品热| 日韩国内少妇激情av| 欧美+日韩+精品| 看黄色毛片网站| 搡老熟女国产l中国老女人| 成年女人毛片免费观看观看9| 亚洲人成网站在线播| 黄色丝袜av网址大全| 日本 av在线| 免费av毛片视频| 岛国在线免费视频观看| 一卡2卡三卡四卡精品乱码亚洲| 国产熟女xx| 神马国产精品三级电影在线观看| 18禁国产床啪视频网站| 久久久成人免费电影| 国产精品久久久久久久久免 | 人妻夜夜爽99麻豆av| 两个人的视频大全免费| 精品人妻偷拍中文字幕| 国产精品综合久久久久久久免费| 99国产极品粉嫩在线观看| 一级a爱片免费观看的视频| 国内揄拍国产精品人妻在线| 99热只有精品国产| 国产av不卡久久| 我要搜黄色片| 亚洲精品影视一区二区三区av| 欧美色欧美亚洲另类二区| 少妇的逼水好多| 国产高清视频在线播放一区| 90打野战视频偷拍视频| 女人被狂操c到高潮| 91九色精品人成在线观看| 欧美又色又爽又黄视频| 露出奶头的视频| 国产美女午夜福利| 9191精品国产免费久久| 少妇人妻一区二区三区视频| 免费看美女性在线毛片视频| 中出人妻视频一区二区| 欧美日韩国产亚洲二区| 国产男靠女视频免费网站| 国产精品爽爽va在线观看网站| 熟女人妻精品中文字幕| 小蜜桃在线观看免费完整版高清| 成人三级黄色视频| 叶爱在线成人免费视频播放| 99久国产av精品| 日韩国内少妇激情av| 亚洲成人中文字幕在线播放| 久久久久久久精品吃奶| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | 国产极品精品免费视频能看的| 色吧在线观看| 亚洲成人久久爱视频| av专区在线播放| 伊人久久大香线蕉亚洲五| 久久久国产精品麻豆| 18禁黄网站禁片午夜丰满| 看片在线看免费视频| 国产高清视频在线播放一区| 国产一区二区在线av高清观看| 可以在线观看的亚洲视频| 免费一级毛片在线播放高清视频| 2021天堂中文幕一二区在线观| 欧美性感艳星| 亚洲av电影不卡..在线观看| 国产精品亚洲一级av第二区| 天堂√8在线中文| 好男人在线观看高清免费视频| 天堂网av新在线| 国产免费一级a男人的天堂| 国产欧美日韩精品亚洲av| 精品欧美国产一区二区三| 国产成人a区在线观看| 国产极品精品免费视频能看的| 一二三四社区在线视频社区8| 1024手机看黄色片| 欧美高清成人免费视频www| 亚洲真实伦在线观看| 国内毛片毛片毛片毛片毛片| 日韩欧美在线二视频| av天堂中文字幕网| 国产av不卡久久| 18禁黄网站禁片午夜丰满| 国产亚洲精品综合一区在线观看| 国产一区二区在线观看日韩 | 搡老熟女国产l中国老女人| 无遮挡黄片免费观看| 天美传媒精品一区二区| 尤物成人国产欧美一区二区三区| 12—13女人毛片做爰片一| 国产一区二区激情短视频| 久久久久精品国产欧美久久久| 国产视频一区二区在线看| 久久中文看片网| tocl精华| 欧美+日韩+精品| 日韩 欧美 亚洲 中文字幕| 色播亚洲综合网| svipshipincom国产片| 国产视频一区二区在线看| 亚洲av成人av| 两人在一起打扑克的视频| 国产精品乱码一区二三区的特点| 国产91精品成人一区二区三区| 国产亚洲精品久久久com| 高潮久久久久久久久久久不卡| 日韩免费av在线播放| 国产欧美日韩精品亚洲av| 51午夜福利影视在线观看| 亚洲欧美精品综合久久99| 国产精品乱码一区二三区的特点| 91麻豆精品激情在线观看国产| 久久久国产精品麻豆| 国产麻豆成人av免费视频| 午夜久久久久精精品| 欧美绝顶高潮抽搐喷水| 国产蜜桃级精品一区二区三区| 18禁裸乳无遮挡免费网站照片| 亚洲欧美日韩高清在线视频| 午夜福利18| 最近最新中文字幕大全免费视频| 中文在线观看免费www的网站| 不卡一级毛片| 少妇裸体淫交视频免费看高清| 欧美极品一区二区三区四区| 日韩中文字幕欧美一区二区| 亚洲av日韩精品久久久久久密| 成年免费大片在线观看| 国产乱人伦免费视频| 精品国产美女av久久久久小说| 日本一二三区视频观看| 国产午夜精品论理片| 国产真人三级小视频在线观看| 久久精品91无色码中文字幕| 99热精品在线国产| 3wmmmm亚洲av在线观看| 久久久色成人| 欧美乱色亚洲激情| 美女黄网站色视频| 国产亚洲欧美98| 白带黄色成豆腐渣| 国产精品,欧美在线| 母亲3免费完整高清在线观看| 国产97色在线日韩免费| 一本精品99久久精品77| 人人妻人人看人人澡| 手机成人av网站| 亚洲一区二区三区色噜噜| 日本 av在线| 18禁在线播放成人免费| 国产真实乱freesex| 国产成人啪精品午夜网站| 国产亚洲精品av在线| 在线天堂最新版资源| 日韩成人在线观看一区二区三区| 亚洲精品美女久久久久99蜜臀| 日本 欧美在线| 91麻豆av在线| 亚洲国产欧美网| 亚洲中文字幕一区二区三区有码在线看| 国产蜜桃级精品一区二区三区| 99在线视频只有这里精品首页| 国产熟女xx| 男女做爰动态图高潮gif福利片| 免费观看的影片在线观看| 真人做人爱边吃奶动态| 久久精品国产亚洲av香蕉五月| 最近在线观看免费完整版| 国产熟女xx| 久久99热这里只有精品18| 好男人在线观看高清免费视频| 亚洲无线观看免费| 亚洲精品色激情综合| 亚洲人成伊人成综合网2020| 熟女电影av网| 欧美性猛交黑人性爽| 老司机福利观看| 国产极品精品免费视频能看的| 极品教师在线免费播放| 男女那种视频在线观看| 99国产极品粉嫩在线观看| 夜夜爽天天搞| 国产亚洲精品综合一区在线观看| 日韩欧美三级三区| 特大巨黑吊av在线直播| 中文字幕av成人在线电影| 精品免费久久久久久久清纯| 美女被艹到高潮喷水动态| 美女大奶头视频| 久久性视频一级片| 岛国在线观看网站| 久久久国产精品麻豆| 亚洲久久久久久中文字幕| 身体一侧抽搐| 国产精品 国内视频| 国产探花在线观看一区二区| 婷婷六月久久综合丁香| 国产日本99.免费观看| av福利片在线观看| 制服丝袜大香蕉在线| 国产又黄又爽又无遮挡在线| 国产av在哪里看| www.www免费av| 欧美日本视频| 老汉色av国产亚洲站长工具| www国产在线视频色| 精品国产超薄肉色丝袜足j| 深爱激情五月婷婷| 啦啦啦韩国在线观看视频| 91av网一区二区| tocl精华| 国产黄片美女视频| 丰满乱子伦码专区| 99热这里只有是精品50| 久久国产乱子伦精品免费另类| 午夜老司机福利剧场| 脱女人内裤的视频| 国产欧美日韩一区二区三| 日韩亚洲欧美综合| 欧美绝顶高潮抽搐喷水| 综合色av麻豆| 人妻丰满熟妇av一区二区三区| 丁香欧美五月| 欧美色视频一区免费| 岛国在线观看网站| 叶爱在线成人免费视频播放| 黑人欧美特级aaaaaa片| 国产成人系列免费观看| 亚洲av免费高清在线观看| 欧美日韩国产亚洲二区| 中文字幕人妻丝袜一区二区| 国产精品永久免费网站| 国产一区二区在线观看日韩 | 精品不卡国产一区二区三区| 国产精品自产拍在线观看55亚洲| 人妻丰满熟妇av一区二区三区| 3wmmmm亚洲av在线观看| 国产麻豆成人av免费视频| 亚洲专区国产一区二区| 久久这里只有精品中国| 欧美色欧美亚洲另类二区| 一区二区三区激情视频| 天天躁日日操中文字幕| 老司机深夜福利视频在线观看| 中文字幕人妻丝袜一区二区| 中文字幕人妻熟人妻熟丝袜美 | 丰满人妻熟妇乱又伦精品不卡| 亚洲精品在线观看二区| 欧美日韩一级在线毛片| 在线观看免费视频日本深夜| 国产精品久久久久久人妻精品电影| av专区在线播放| 久久久久久久久大av| www国产在线视频色| 欧美一区二区精品小视频在线| 一个人观看的视频www高清免费观看| 看片在线看免费视频| 欧美午夜高清在线| 国产成人欧美在线观看| 午夜免费成人在线视频| 国产精品美女特级片免费视频播放器| 在线观看66精品国产| 少妇裸体淫交视频免费看高清| 精品国内亚洲2022精品成人| 久久久久久久久久黄片| 黄色丝袜av网址大全| 亚洲精品日韩av片在线观看 | 九九在线视频观看精品| 亚洲黑人精品在线| 久久精品亚洲精品国产色婷小说| 国产精品爽爽va在线观看网站| 精品久久久久久久久久免费视频| 18禁国产床啪视频网站| 熟女少妇亚洲综合色aaa.| 婷婷精品国产亚洲av在线| 欧美成狂野欧美在线观看| 国产毛片a区久久久久| 综合色av麻豆| 精品久久久久久久人妻蜜臀av| 国产欧美日韩一区二区三| 中出人妻视频一区二区| 精品久久久久久,| 女警被强在线播放| 12—13女人毛片做爰片一| 久久久久国内视频| 手机成人av网站| 香蕉丝袜av| 中文字幕av在线有码专区| 国产精品,欧美在线| 亚洲男人的天堂狠狠| 亚洲自拍偷在线| 好男人在线观看高清免费视频| 免费av不卡在线播放| 性色av乱码一区二区三区2| 精品久久久久久久人妻蜜臀av| 亚洲av免费在线观看| 国产v大片淫在线免费观看| 99国产极品粉嫩在线观看| 别揉我奶头~嗯~啊~动态视频| 小说图片视频综合网站| 国产精品 国内视频| 亚洲中文日韩欧美视频| 色在线成人网| 精品免费久久久久久久清纯| 特大巨黑吊av在线直播| 人人妻人人看人人澡| 午夜影院日韩av| 日日干狠狠操夜夜爽| 亚洲avbb在线观看| 内射极品少妇av片p| 无遮挡黄片免费观看| 男女之事视频高清在线观看| 又爽又黄无遮挡网站| 又黄又爽又免费观看的视频| 国产精品久久久人人做人人爽| 国产精华一区二区三区| 国产精品电影一区二区三区| 国产爱豆传媒在线观看| 舔av片在线| 成熟少妇高潮喷水视频| 欧美日韩综合久久久久久 | 久久精品国产自在天天线| 夜夜夜夜夜久久久久| 中文字幕av成人在线电影| 1024手机看黄色片| 国产高潮美女av| 十八禁人妻一区二区| 欧美最新免费一区二区三区 | 欧美色视频一区免费| 亚洲成人免费电影在线观看| 成人无遮挡网站| 国产乱人伦免费视频| 成人午夜高清在线视频| 亚洲最大成人中文| 日日干狠狠操夜夜爽| 熟妇人妻久久中文字幕3abv| 亚洲狠狠婷婷综合久久图片| 搡老熟女国产l中国老女人| 亚洲av电影在线进入| 亚洲av中文字字幕乱码综合| 成年女人永久免费观看视频| 一级毛片高清免费大全| 变态另类丝袜制服| 波多野结衣巨乳人妻| 国产欧美日韩一区二区三| 热99re8久久精品国产| 老汉色∧v一级毛片| 国产亚洲av嫩草精品影院| 在线天堂最新版资源| 性色avwww在线观看| 麻豆成人av在线观看| 免费搜索国产男女视频| 亚洲欧美日韩东京热| 亚洲国产欧美人成| 亚洲第一电影网av| 午夜影院日韩av| 欧美色视频一区免费| 国产 一区 欧美 日韩| 精华霜和精华液先用哪个| 少妇人妻精品综合一区二区 | 99久国产av精品| 99久久久亚洲精品蜜臀av| 91久久精品国产一区二区成人 | 在线视频色国产色| 国产欧美日韩一区二区精品| 国产精品国产高清国产av| 亚洲精品国产精品久久久不卡| 亚洲久久久久久中文字幕| 欧美+亚洲+日韩+国产| 欧美xxxx黑人xx丫x性爽| 午夜视频国产福利| 久久精品国产亚洲av香蕉五月| 免费在线观看成人毛片| 全区人妻精品视频| 亚洲欧美一区二区三区黑人| 天堂影院成人在线观看| 欧美又色又爽又黄视频| 好男人在线观看高清免费视频| 亚洲无线观看免费| 99精品欧美一区二区三区四区| 色av中文字幕| 成人国产一区最新在线观看| 午夜免费激情av| www日本在线高清视频| 国产成人福利小说| 亚洲av电影不卡..在线观看| 99久久久亚洲精品蜜臀av| 欧美在线一区亚洲| 国产av麻豆久久久久久久| av国产免费在线观看| 久久久国产成人免费| 激情在线观看视频在线高清| 哪里可以看免费的av片| 很黄的视频免费| 国产精品一区二区三区四区免费观看 | 久久精品亚洲精品国产色婷小说| 一a级毛片在线观看| 两人在一起打扑克的视频| 久久久久久九九精品二区国产| 久9热在线精品视频| 久久久久久九九精品二区国产| 国产成人av教育| 国产精品久久久久久亚洲av鲁大| 亚洲精品456在线播放app | 亚洲美女黄片视频| 一卡2卡三卡四卡精品乱码亚洲| 婷婷六月久久综合丁香| 国产成人av激情在线播放| 国产成人福利小说| 香蕉久久夜色| 亚洲国产精品成人综合色| 日本成人三级电影网站| 午夜精品在线福利| 国产精品久久久久久亚洲av鲁大| 国产精品久久久久久久久免 | 国产三级黄色录像| 亚洲国产日韩欧美精品在线观看 | 久久国产精品影院| 亚洲最大成人手机在线| 日韩精品青青久久久久久| 国产亚洲欧美98| 啦啦啦免费观看视频1| 国内久久婷婷六月综合欲色啪| 国产精品一及| 日日夜夜操网爽| 噜噜噜噜噜久久久久久91| 最好的美女福利视频网| 老司机福利观看| 精品国产美女av久久久久小说| 亚洲在线自拍视频| 亚洲狠狠婷婷综合久久图片| 国产精品国产高清国产av| 免费看十八禁软件| 国产精品综合久久久久久久免费| 美女高潮的动态| 男女下面进入的视频免费午夜| 亚洲国产精品久久男人天堂| 亚洲熟妇熟女久久| 最近最新免费中文字幕在线| 色综合婷婷激情| 亚洲av免费在线观看| 亚洲人成网站在线播| 男女午夜视频在线观看| 麻豆成人午夜福利视频| 在线观看66精品国产| 观看美女的网站| 午夜免费男女啪啪视频观看 | 国产成人影院久久av| 伊人久久精品亚洲午夜| 国产一区二区亚洲精品在线观看| 观看免费一级毛片| 黄色女人牲交| 日本一本二区三区精品| 久久久精品欧美日韩精品| 日韩精品中文字幕看吧| 毛片女人毛片| 久久精品人妻少妇| 成人亚洲精品av一区二区| 久久中文看片网| 看免费av毛片| 天天添夜夜摸| 国产黄片美女视频| 别揉我奶头~嗯~啊~动态视频| av中文乱码字幕在线| 午夜福利成人在线免费观看| 日韩欧美三级三区| 在线播放无遮挡| 69av精品久久久久久| 夜夜看夜夜爽夜夜摸| 国产成人aa在线观看| 免费看a级黄色片| 成熟少妇高潮喷水视频| 亚洲18禁久久av| 亚洲国产日韩欧美精品在线观看 | 日韩欧美 国产精品| 美女高潮的动态| 国产精品久久久人人做人人爽| 日韩大尺度精品在线看网址| 偷拍熟女少妇极品色| av福利片在线观看| 18禁黄网站禁片午夜丰满| 亚洲精品成人久久久久久| 欧美大码av| 久久久久久大精品| 白带黄色成豆腐渣| 精品一区二区三区视频在线 | 日韩欧美在线二视频| 99久久精品热视频| av黄色大香蕉| 久久人人精品亚洲av| 久久欧美精品欧美久久欧美| 欧美色视频一区免费| 1000部很黄的大片| 一本久久中文字幕| 精品一区二区三区视频在线观看免费| 精品一区二区三区视频在线 | 两个人视频免费观看高清| 欧美激情久久久久久爽电影| 精品久久久久久久末码| 一区二区三区激情视频| 久9热在线精品视频| 大型黄色视频在线免费观看| 国产视频内射| 91av网一区二区| 法律面前人人平等表现在哪些方面| 亚洲美女视频黄频| 久久国产精品人妻蜜桃| 亚洲激情在线av| 亚洲不卡免费看| 久久久久久久久大av| 高潮久久久久久久久久久不卡| a级毛片a级免费在线| 免费看光身美女| 天天躁日日操中文字幕| 手机成人av网站| 高清毛片免费观看视频网站| 国产99白浆流出| 在线观看日韩欧美| 亚洲精品亚洲一区二区| x7x7x7水蜜桃| 久久人人精品亚洲av| 免费在线观看亚洲国产| 国产精品久久久久久亚洲av鲁大| 性欧美人与动物交配| 在线观看一区二区三区| 精品久久久久久成人av| 精品久久久久久,| x7x7x7水蜜桃| av中文乱码字幕在线| 国内精品久久久久久久电影| 欧美+亚洲+日韩+国产| 51国产日韩欧美| 此物有八面人人有两片| 热99re8久久精品国产| 午夜福利在线在线| 51国产日韩欧美| 午夜福利在线在线| 国产69精品久久久久777片| 色在线成人网| 老司机福利观看| 亚洲国产精品sss在线观看| 精品日产1卡2卡| av欧美777| 国产成人啪精品午夜网站| 九九久久精品国产亚洲av麻豆| 在线播放国产精品三级| 久久久成人免费电影| 亚洲天堂国产精品一区在线| 黄片小视频在线播放| 亚洲av成人精品一区久久| 亚洲熟妇熟女久久| 伊人久久精品亚洲午夜| 国产真实乱freesex| 免费av观看视频| 色精品久久人妻99蜜桃| av天堂在线播放| 真实男女啪啪啪动态图| 亚洲av第一区精品v没综合| av在线蜜桃| 一卡2卡三卡四卡精品乱码亚洲| 久久久久久国产a免费观看| 波野结衣二区三区在线 | 免费人成在线观看视频色| 69av精品久久久久久| 嫩草影视91久久| 一本精品99久久精品77| 日本免费a在线| 成人av一区二区三区在线看| 亚洲国产精品久久男人天堂| 亚洲性夜色夜夜综合| 国产99白浆流出| 校园春色视频在线观看| 久久精品综合一区二区三区| 小说图片视频综合网站| 少妇的丰满在线观看| 国产一区二区在线av高清观看| 亚洲专区国产一区二区| 最新在线观看一区二区三区| 十八禁网站免费在线| 日韩精品中文字幕看吧| 一级黄片播放器| 88av欧美| 白带黄色成豆腐渣| 在线看三级毛片| 天堂动漫精品| 精品福利观看| xxxwww97欧美| 草草在线视频免费看| 欧美高清成人免费视频www| 免费观看的影片在线观看| 午夜福利欧美成人| 看黄色毛片网站| 给我免费播放毛片高清在线观看| 一a级毛片在线观看| 99久久99久久久精品蜜桃| 亚洲av免费高清在线观看| 一区福利在线观看| 久久精品国产综合久久久| 成年人黄色毛片网站| 搡女人真爽免费视频火全软件 | 国产一区二区亚洲精品在线观看| 女同久久另类99精品国产91| 国产v大片淫在线免费观看| 丰满乱子伦码专区| 成年女人看的毛片在线观看| 校园春色视频在线观看| 极品教师在线免费播放| 国产高清视频在线播放一区| 日韩欧美国产在线观看| 亚洲欧美日韩卡通动漫| 国产av在哪里看|