• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度學(xué)習(xí)的ARM平臺(tái)實(shí)時(shí)人臉識(shí)別

    2019-10-23 12:23:56方國(guó)康李俊王垚儒
    計(jì)算機(jī)應(yīng)用 2019年8期
    關(guān)鍵詞:人臉識(shí)別

    方國(guó)康 李俊 王垚儒

    摘 要:針對(duì)ARM平臺(tái)上人臉識(shí)別實(shí)時(shí)性不強(qiáng)和識(shí)別率低的問(wèn)題,提出一種基于深度學(xué)習(xí)的實(shí)時(shí)人臉識(shí)別方法。首先基于MTCNN人臉檢測(cè)算法設(shè)計(jì)了一種實(shí)時(shí)檢測(cè)并追蹤人臉的算法;然后在ARM平臺(tái)上基于深度殘差網(wǎng)絡(luò)(ResNet)設(shè)計(jì)人臉特征提取網(wǎng)絡(luò);最后針對(duì)ARM平臺(tái)的特點(diǎn),使用Mali-GPU加速人臉特征提取網(wǎng)絡(luò)的運(yùn)算,分擔(dān)CPU負(fù)荷,提高系統(tǒng)整體運(yùn)行效率。算法部署在基于ARM的瑞芯微RK3399開發(fā)板上,運(yùn)行速度達(dá)到22幀/s。實(shí)驗(yàn)結(jié)果表明,與MobileFaceNet相比,該方法在MegaFace上的識(shí)別率提升了11個(gè)百分點(diǎn)。

    關(guān)鍵詞:ARM平臺(tái);人臉識(shí)別;人臉追蹤;殘差網(wǎng)絡(luò);Mali-GPU

    中圖分類號(hào):?TP183; TP391.4

    文獻(xiàn)標(biāo)志碼:A

    Real-time face recognition on ARM platform based on deep learning

    FANG Guokang1,2, LI Jun1,2*, WANG Yaoru1,2

    1.School of Computer Science and Technology, Wuhan University of Science and Technology, Wuhan Hubei 430065, China ;

    2.Hubei Province Key Laboratory of Intelligent Information Processing and Real-time Industrial System (Wuhan University of Science and Technology), Wuhan Hubei 430065, China

    Abstract:?Aiming at the problem of low real-time performance of face recognition and low face recognition rate on ARM platform, a real-time face recognition method based on deep learning was proposed. Firstly, an algorithm for detecting and tracking faces in real time was designed based on MTCNN face detection algorithm. Then, a face feature extraction network was designed based on Residual Neural Network (ResNet) on ARM platform. Finally, according to the characteristics of ARM platform, Mali-GPU was used to accelerate the operation of face feature extraction network, sharing the CPU load and improving the overall running efficiency of the system. The algorithm was deployed on ARM-based Rockchip development board, and the running speed reaches 22 frames per second. Experimental results show that the recognition rate of this method is 11 percentage points higher than that of MobileFaceNet on MegaFace.

    Key words:?ARM platform; face recognition; face tracking; Residual neural Network (ResNet); Mali-GPU

    0 引言

    隨著計(jì)算機(jī)圖像處理技術(shù)的發(fā)展,基于計(jì)算機(jī)視覺(jué)的目標(biāo)識(shí)別在特征分析[1]和目標(biāo)監(jiān)控[2]等領(lǐng)域具有廣泛的應(yīng)用價(jià)值。人臉識(shí)別[3]是圖像處理中的一個(gè)重要研究領(lǐng)域,作為一種身份識(shí)別手段,因其直接性和靈活性等優(yōu)點(diǎn),有著廣闊的市場(chǎng)應(yīng)用前景。人臉識(shí)別是通過(guò)人臉圖像確定人臉身份的過(guò)程,包括人臉檢測(cè)、人臉對(duì)齊、人臉特征提取和特征匹配4個(gè)過(guò)程[4]。近年來(lái),隨著視頻監(jiān)控的大量普及,基于視頻的人臉識(shí)別技術(shù)越來(lái)越受到各界的重視。傳統(tǒng)人臉識(shí)別算法圍繞主成分分析(Principal Component Analysis,PCA)[5]、線性判別分析(Linear Discriminant Analysis,LDA)[6]和局部特征分析(Local Feature Analysis,LFA)[7]等展開,但這些算法利用到的特征為圖像淺層的特征,識(shí)別效果容易受到姿態(tài)轉(zhuǎn)動(dòng)、光照變化、遮擋等因素的影響,存在著較大的局限性。同時(shí),與靜態(tài)圖像相比,視頻中包含了更加豐富的信息[8],但視頻的識(shí)別難度大,實(shí)時(shí)性強(qiáng),對(duì)算法和設(shè)備都有著更高的要求。

    近年來(lái),隨著人工智能的快速發(fā)展,深度學(xué)習(xí)在圖像識(shí)別領(lǐng)域取得了良好的效果[2]。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[9]通過(guò)模擬人的大腦結(jié)構(gòu),構(gòu)建多層非線性映射關(guān)系,擁有很強(qiáng)的非線性特征學(xué)習(xí)能力,能夠從大量樣本中學(xué)習(xí)到高維語(yǔ)義特征和深度特征。鑒于傳統(tǒng)人臉識(shí)別算法發(fā)展遇到了瓶頸,2014年,Taigman等[10]基于深度學(xué)習(xí)提出DeepFace,使用CNN來(lái)提取人臉深層抽象語(yǔ)義特征,利用特征的余弦相似度來(lái)比較人臉相似性,最終在LFW(Labeled Faces in Wild)[11]上的準(zhǔn)確率達(dá)到了95%,取得了很好的識(shí)別效果。

    2015年,針對(duì)CNN在達(dá)到一定深度后,網(wǎng)絡(luò)梯度消失的問(wèn)題,He等[12]提出了殘差網(wǎng)絡(luò)(Residual Neural Network,ResNet),與VGGNet(Visual Geometry Group Network)[13]、GoogleNet[14]等網(wǎng)絡(luò)相比,ResNet擁有更深的網(wǎng)絡(luò)結(jié)構(gòu),可達(dá)到150層,學(xué)習(xí)到的特征也更加深層抽象,分類能力也更強(qiáng)。

    2016年,Zhang等[15]提出了MTCNN(Multi-Task Cascaded Convolutional Neural Network)人臉檢測(cè)算法,使用三個(gè)級(jí)聯(lián)CNN來(lái)檢測(cè)人臉位置和關(guān)鍵點(diǎn),檢測(cè)人臉時(shí)由粗到細(xì),不僅有很好的檢測(cè)效果,而且速度很快,在Nvidia Titan X上的檢測(cè)速度達(dá)到了99幀/s(Frames Per Second, FPS);同時(shí),MTCNN算法通過(guò)將人臉圖像對(duì)齊,提供了標(biāo)準(zhǔn)統(tǒng)一的人臉圖像,促進(jìn)了后續(xù)人臉識(shí)別的研究。

    2017年,Liu等[16]提出了SphereFace算法,針對(duì)損失函數(shù)進(jìn)行了改進(jìn),能夠讓特征學(xué)習(xí)到更可分的角度特性。該算法使用64層的深度網(wǎng)絡(luò)訓(xùn)練,最終在LFW上的測(cè)試精度達(dá)到了99.4%,在MegaFace[17]上的準(zhǔn)確率達(dá)到了72.4%。

    而后,Wang等繼續(xù)針對(duì)損失函數(shù)進(jìn)行改進(jìn),相繼提出了NormFace[18]以及AMSoftmax(Additive Margin Softmax)[19]算法。

    2018年,Deng等[20]提出了ArcFace(Additive Angular Margin Loss)算法,更加注重在角度空間里對(duì)類別進(jìn)行區(qū)分。該算法使用了50層的ResNet進(jìn)行訓(xùn)練,在LFW上的準(zhǔn)確率達(dá)到了99.8%,在MegaFace的準(zhǔn)確率達(dá)到了97.6%,是目前MageFace上排名第一的人臉識(shí)別算法。

    相比傳統(tǒng)的人臉識(shí)別算法,基于深度學(xué)習(xí)的人臉識(shí)別算法在圖像人臉識(shí)別任務(wù)中取得了很好的結(jié)果,其識(shí)別精度在百萬(wàn)級(jí)數(shù)據(jù)量的測(cè)試集上達(dá)到了97%,已經(jīng)能夠滿足大多數(shù)場(chǎng)景下實(shí)際使用需求。但這些算法在實(shí)際部署時(shí),需要使用支持大量計(jì)算的服務(wù)器,成本很高。近年來(lái),以手機(jī)為代表的嵌入式設(shè)備得到了飛速發(fā)展,其性能日新月異,嵌入式系統(tǒng)以其功能齊全、安全可靠、價(jià)格低廉、體積小、功耗低等優(yōu)勢(shì),以貼近生活、以實(shí)際應(yīng)用為核心的特點(diǎn),越來(lái)越廣泛地應(yīng)用到了各個(gè)領(lǐng)域。Mali-GPU[21]是ARM公司推出的高性能移動(dòng)圖形處理器,主要應(yīng)用于基于ARM體系結(jié)構(gòu)的移動(dòng)設(shè)備上。與桌面級(jí)GPU一樣,Mali-GPU專為執(zhí)行復(fù)雜的數(shù)字和幾何計(jì)算而設(shè)計(jì),迎合了深度學(xué)習(xí)對(duì)大量數(shù)字計(jì)算的需求;不同的是,Mali-GPU主要針對(duì)移動(dòng)設(shè)備,能耗更低,雖然計(jì)算能力相對(duì)較弱,但其移動(dòng)便攜性卻是桌面級(jí)GPU無(wú)法比擬的。

    隨著MobileNet[22]、ShuffleNet[23]等輕量化網(wǎng)絡(luò)的提出,基于嵌入式系統(tǒng)的深度學(xué)習(xí)研究也逐漸成為熱點(diǎn)。輕量化網(wǎng)絡(luò)的提出旨在精簡(jiǎn)網(wǎng)絡(luò)參數(shù)、降低網(wǎng)絡(luò)計(jì)算的復(fù)雜度,但這會(huì)在一定程度上損失網(wǎng)絡(luò)的識(shí)別精度。2017年,Chen等[24]發(fā)布的深度學(xué)習(xí)編譯器TVM(End to End Deep Learning Compiler Stack)是一個(gè)端到端優(yōu)化堆棧,可以降低和調(diào)整深度學(xué)習(xí)工作負(fù)載,適應(yīng)多種硬件后端,針對(duì)不同的硬件設(shè)備生成底層優(yōu)化代碼。

    在ARM平臺(tái)上,TVM能夠同時(shí)實(shí)現(xiàn)CPU和GPU上的優(yōu)化加速和負(fù)載均衡,這使得嵌入式設(shè)備也能在一定程度上執(zhí)行復(fù)雜計(jì)算。

    本文從實(shí)際的部署成本這個(gè)角度出發(fā),針對(duì)ARM平臺(tái)設(shè)計(jì)了可以實(shí)時(shí)識(shí)別人臉的算法,同時(shí)使用ResNet來(lái)提取人臉特征,其識(shí)別精度能夠達(dá)到服務(wù)器級(jí)別的水平。

    首先,本文在MTCNN算法的基礎(chǔ)上進(jìn)行改進(jìn),設(shè)計(jì)了一種能夠?qū)崟r(shí)檢測(cè)并追蹤人臉的算法,通過(guò)對(duì)人臉進(jìn)行追蹤,可以減小提取人臉特征的頻率,從而達(dá)到更快的運(yùn)行速度;然后,在ARM平臺(tái)上使用ResNet提取人臉特征,并用Mali-GPU來(lái)對(duì)人臉特征的提取加速。實(shí)驗(yàn)表明,本文基于ARM平臺(tái)設(shè)計(jì)的人臉識(shí)別模型能夠滿足實(shí)時(shí)識(shí)別需求,同時(shí)也能達(dá)到很高的識(shí)別精度。

    1 基于深度學(xué)習(xí)的人臉識(shí)別框架

    1.1 人臉檢測(cè)

    人臉檢測(cè)是在圖像中找到人臉并返回人臉框大小和位置坐標(biāo)信息的過(guò)程。本文中使用MTCNN算法對(duì)人臉進(jìn)行檢測(cè)。MTCNN是一種將多任務(wù)級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)用于人臉檢測(cè)和對(duì)齊的人臉檢測(cè)算法。該算法總共分為三個(gè)階段:

    第一階段,對(duì)圖像在不同尺度上生成若干候選框,通過(guò)一個(gè)簡(jiǎn)單的CNNPNet(Proposal Net)來(lái)預(yù)測(cè)所有候選框的概率,然后對(duì)所有候選框非極大值抑制(Non-Maximum Suppression,NMS),消除多余候選框;

    第二階段,使用一個(gè)較為復(fù)雜的CNN——RNet(Refine Net)對(duì)第一階段生成的候選框位置和大小進(jìn)行回歸校正并預(yù)測(cè)其概率,然后對(duì)所有候選框使用NMS方法篩選;

    第三階段,使用一個(gè)更為復(fù)雜的CNN——ONet(Output Net)對(duì)第二階段的預(yù)測(cè)框位置和大小進(jìn)行回歸校正并使用NMS方法篩選,為每個(gè)預(yù)測(cè)框生成5個(gè)人臉關(guān)鍵點(diǎn),分別為兩只眼睛、鼻尖和兩邊嘴角。MTCNN算法流程如圖1所示。

    1.2 人臉對(duì)齊

    人臉對(duì)齊是在圖像中檢測(cè)到人臉后,對(duì)人臉圖像進(jìn)行處理的過(guò)程,處理后的圖像能夠更好地被識(shí)別。本文中根據(jù)MTCNN檢測(cè)到的5個(gè)人臉關(guān)鍵點(diǎn)對(duì)原始圖像進(jìn)行仿射變換處理,對(duì)人臉部分圖像的大小和角度進(jìn)行調(diào)整,調(diào)整后的圖像像素大小為112×112。

    1.3 特征提取

    人臉特征提取的目的是為了得到人臉中的深層抽象信息,這個(gè)抽象信息能夠?qū)⒉煌娜藚^(qū)分開,進(jìn)而實(shí)現(xiàn)對(duì)人臉的判別。本文運(yùn)用深度學(xué)習(xí)方法來(lái)提取人臉特征,采用了ResNet作為人臉識(shí)別網(wǎng)絡(luò),并使用ArcFace人臉識(shí)別算法來(lái)訓(xùn)練識(shí)別網(wǎng)絡(luò)。

    ArcFace Loss是一種用于人臉識(shí)別的損失函數(shù),基于該損失函數(shù)訓(xùn)練得到人臉識(shí)別算法ArcFace。ArcFace的思想和AMSoftmax有一定的共同點(diǎn),不同點(diǎn)在于:ArcFace在角度空間中最大化分類界限,而AMSoftmax是在余弦空間中最大化分類界限。ArcFace Loss基于傳統(tǒng)的Softmax Loss修改得到,式(1)是Softmax Loss損失函數(shù)。

    L1=- 1 m ∑ m i=1 lg e W Tyi x i+ b yi ∑ n j=1 e W Tj x i+ b j

    (1)

    將式(1)中的偏置 b j設(shè)置為0,然后權(quán)重 W 和輸入 x 的內(nèi)積用下面式子表示。

    W Tj x i=‖ W j‖‖ x i‖cos θ j

    對(duì)權(quán)重 W j使用L2正則化處理,使得‖ W j‖=1,得到公式:

    L2=- 1 m ∑ m i=1 lg e‖ x i‖cos θ yi e‖ x i‖cos θ yi+∑ n j=1, j≠yi e‖ x i‖cos θ j

    (2)

    然后對(duì)輸入 x i也用L2作正則化處理,同時(shí)再乘以一個(gè)縮放系數(shù)s;另一方面將cos θ yi用cos( θ yi+m)替換,這部分是ArcFace的核心,m為附加角。于是得到ArcFace算法的損失函數(shù)如下:

    L3=- 1 m ∑ m i=1 lg es·cos( θ yi+m) es·cos( θ yi+m)+∑ n j=1, j≠yi es·cos θ j

    (3)

    ArcFace算法的整體流程如圖2所示。

    1.4 特征匹配

    提取到人臉特征后,需要在特征庫(kù)中匹配特征,以找到對(duì)應(yīng)的身份信息。普遍的方法是計(jì)算目標(biāo)人臉特征與特征庫(kù)中所有特征的相似度,根據(jù)相似度找到最符合的特征。本文中使用余弦相似度來(lái)表示特征的相似性,對(duì)于特征向量 m 和特征向量 n ,其余弦相似度為兩特征向量夾角α的余弦值:cosα= ?m · n? ‖ m ‖·‖ n ‖ ,cosα越大,相似度越高。

    2 針對(duì)ARM平臺(tái)的人臉識(shí)別方法

    2.1 總體系統(tǒng)結(jié)構(gòu)設(shè)計(jì)

    深度學(xué)習(xí)模型的訓(xùn)練需要大量的計(jì)算,通常需要具有強(qiáng)大計(jì)算能力的服務(wù)器來(lái)訓(xùn)練。本文中的模型使用配備英偉達(dá)GPU的服務(wù)器來(lái)訓(xùn)練,模型訓(xùn)練完成后,應(yīng)用到嵌入式系統(tǒng)中。ARM端系統(tǒng)總體設(shè)計(jì)如圖3所示。

    在本系統(tǒng)上,攝像頭負(fù)責(zé)采集視頻,交給CPU實(shí)時(shí)檢測(cè)并追蹤人臉;CPU檢測(cè)到人臉后,若GPU處于空閑狀態(tài),則將檢測(cè)到的人臉圖像對(duì)齊后傳送給GPU,在GPU上提取人臉的特征信息,CPU繼續(xù)檢測(cè)并跟蹤人臉;GPU上人臉特征提取完成后,到數(shù)據(jù)庫(kù)中與事先提取好的特征庫(kù)進(jìn)行相似度匹配,若匹配到相應(yīng)身份信息,則交由CPU實(shí)時(shí)追蹤該目標(biāo),并不再對(duì)該目標(biāo)進(jìn)行識(shí)別。當(dāng)一個(gè)目標(biāo)被正常識(shí)別后,將識(shí)別結(jié)果發(fā)送到遠(yuǎn)程服務(wù)器,進(jìn)行相應(yīng)的業(yè)務(wù)邏輯處理。

    由于提取人臉特征需要較大的資源開銷,系統(tǒng)無(wú)法對(duì)每幀檢測(cè)到的人臉都進(jìn)行識(shí)別,所以本文通過(guò)對(duì)人臉的實(shí)時(shí)追蹤,對(duì)同一個(gè)目標(biāo)只需要識(shí)別一次,避免識(shí)別每幀圖像,進(jìn)而提高系統(tǒng)運(yùn)行的效率。同時(shí),系統(tǒng)充分利用硬件設(shè)備的計(jì)算資源,使用CPU來(lái)檢測(cè)追蹤人臉,GPU提取人臉特征,CPU和GPU并行運(yùn)行,互不干擾,系統(tǒng)運(yùn)行起來(lái)流暢穩(wěn)定。

    2.2 改進(jìn)MTCNN用于人臉追蹤

    本文中,人臉追蹤是對(duì)檢測(cè)到的人臉持續(xù)標(biāo)記的過(guò)程,即同一個(gè)體的人臉在不同的視頻幀中,具有相同的標(biāo)記。本文對(duì)MTCNN算法進(jìn)行了改進(jìn),使得MTCNN算法能夠適用于人臉追蹤。原始的MTCNN算法包含了三個(gè)級(jí)聯(lián)CNN,這三個(gè)級(jí)聯(lián)網(wǎng)絡(luò)用于對(duì)人臉位置和關(guān)鍵點(diǎn)進(jìn)行檢測(cè),對(duì)于視頻序列,MTCNN算法不能實(shí)時(shí)追蹤每個(gè)目標(biāo)。在MTCNN三個(gè)級(jí)聯(lián)網(wǎng)絡(luò)的基礎(chǔ)上,通過(guò)添加第四個(gè)CNN——FNet(Feature Net)來(lái)實(shí)時(shí)提取每個(gè)目標(biāo)的特征信息,通過(guò)匹配視頻幀之間目標(biāo)的特征相似度,實(shí)現(xiàn)對(duì)每個(gè)目標(biāo)的實(shí)時(shí)追蹤。

    FNet基于MobileFaceNet[25]進(jìn)行設(shè)計(jì)。MobileFaceNet是一個(gè)輕量化的CNN,其中采用了可分離卷積(Depthwise Separable Convolution)[26]來(lái)精簡(jiǎn)網(wǎng)絡(luò)參數(shù),使得網(wǎng)絡(luò)更加適用于移動(dòng)設(shè)備。同時(shí),MobileFaceNet還在MobileNetV2[27]的基礎(chǔ)上使用可分離卷積層代替全局平均池化層(Global Average Pooling),使網(wǎng)絡(luò)可以學(xué)習(xí)不同點(diǎn)的權(quán)重。FNet在MobileFaceNet的基礎(chǔ)上精簡(jiǎn)了網(wǎng)絡(luò)結(jié)構(gòu),并加入了通道混洗(Channel Shuffle)[23]策略,通道混洗能夠加強(qiáng)通道之間的信息流通,增強(qiáng)網(wǎng)絡(luò)的信息表達(dá)能力。FNet網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。

    人臉追蹤算法流程:

    程序前

    FO R 視頻中的每幀 DO

    MTCNN算法檢測(cè)每幀圖像

    取出所有檢測(cè)到的人臉,resize為112×112

    FNet提取每幀人臉的128維特征

    FO R 每張人臉 DO

    計(jì)算與上一幀圖像中所有人臉特征的相

    似度,并取最大值

    IF? 最大相似度 > 0.6 DO

    匹配相應(yīng)的兩張人臉為同一目標(biāo)

    EL SE DO

    將當(dāng)前人臉作為新目標(biāo)

    程序后

    2.3 ARM平臺(tái)下使用ResNet提取人臉特征

    標(biāo)準(zhǔn)的深度網(wǎng)絡(luò)一般需要部署在高性能服務(wù)器或者桌面級(jí)計(jì)算機(jī)上,而對(duì)于計(jì)算能力弱的嵌入式設(shè)備,通常使用輕量化的深度網(wǎng)絡(luò),例如MobileNet、ShuffleNet等。輕量化的網(wǎng)絡(luò)雖然對(duì)設(shè)備性能要求更低,但識(shí)別精度也比較低。為了使ARM平臺(tái)上人臉識(shí)別精度得到更高層次的提升,本文將ResNet應(yīng)用到嵌入式設(shè)備上。

    本文中使用了三個(gè)具有不同網(wǎng)絡(luò)深度的ResNet進(jìn)行對(duì)比實(shí)驗(yàn),其網(wǎng)絡(luò)結(jié)構(gòu)如表2所示。

    2.4 使用Mali-GPU實(shí)現(xiàn)網(wǎng)絡(luò)加速

    Mali-GPU是ARM平臺(tái)下專門用于圖形和數(shù)字計(jì)算的處理器,與ARM CPU相比,Mali-GPU的數(shù)值計(jì)算能力更強(qiáng)。本文基于TVM進(jìn)行開發(fā),使用Mali-GPU來(lái)完成ResNet復(fù)雜的網(wǎng)絡(luò)運(yùn)算,速度比使用ARM CPU更快,同時(shí)不再占用CPU,CPU可以更好地用來(lái)檢測(cè)和追蹤人臉,系統(tǒng)整體運(yùn)行速度更快。

    為了利用Mali-GPU,TVM底層基開放運(yùn)算語(yǔ)言(Open Computing Language,OpenCL)進(jìn)行編譯,并使用開放基礎(chǔ)線性代數(shù)子程序庫(kù)(Open Basic Linear Algebra Subprograms,OpenBLAS)進(jìn)行網(wǎng)絡(luò)運(yùn)算??蚣軐?duì)外提供統(tǒng)一的Python API,方便編程開發(fā)。

    3 實(shí)驗(yàn)結(jié)果分析

    3.1 實(shí)驗(yàn)設(shè)置及數(shù)據(jù)

    本實(shí)驗(yàn)訓(xùn)練模型的服務(wù)器運(yùn)行64位的CentOS系統(tǒng),版本為7.5,配備了Intel Xeon E5 2620 v4 處理器,64GB內(nèi)存,4張Tesla V100顯卡,每張顯卡顯存32GB。

    本文系統(tǒng)最終運(yùn)行在ARM平臺(tái)上,設(shè)備為瑞芯微RK3399開發(fā)板,開發(fā)板配置如表3所示。

    訓(xùn)練數(shù)據(jù)集為經(jīng)過(guò)人臉對(duì)齊以及降噪處理[20]之后的微軟名人數(shù)據(jù)集MS-Celeb-1M(MicroSoft One Million Celebrities in the Real World)[28],處理之后的訓(xùn)練集包含了85164個(gè)不同個(gè)體,共計(jì)約380萬(wàn)張人臉圖像。

    數(shù)據(jù)的校驗(yàn)即判斷每?jī)蓮埲四槇D像是否為同一人。本文使用的校驗(yàn)數(shù)據(jù)集為L(zhǎng)FW、CFP(Celebrities in Frontal Profile)[29]和AgeDB(Age Database)[30]。其中,LFW校驗(yàn)集包含了6000對(duì)人臉圖像;CFP使用包含正面和側(cè)面的校驗(yàn)數(shù)據(jù)CFP-FP(CFP with Frontal-Profile),共計(jì)7000對(duì)人臉圖像,同一人和不同人圖像的分別有3500對(duì);AgeDB使用年齡差距為30歲的數(shù)據(jù)組(AgeDB-30),分別包含3000對(duì)相同人臉和不同人臉圖像,共計(jì)6000對(duì)。

    測(cè)試數(shù)據(jù)集為MegaFace Challenge 1。MegeFace的測(cè)試分為干擾數(shù)據(jù)集Distractors和測(cè)試數(shù)據(jù)集FaceScrub:

    干擾數(shù)據(jù)集包含了690572個(gè)不同個(gè)體約100萬(wàn)張人臉圖像,測(cè)試數(shù)據(jù)集包含了530個(gè)不同個(gè)體約10萬(wàn)張人臉圖像。

    為了得到MegaFace最終測(cè)試結(jié)果,需要用待測(cè)試的模型提取所有干擾集和測(cè)試集人臉圖像的特征,然后由MegaFace工具包根據(jù)所有測(cè)試人臉圖像特征數(shù)據(jù)得到最終測(cè)試精度。

    本實(shí)驗(yàn)參數(shù)設(shè)置如下:使用ArcFace算法訓(xùn)練ResNet模型,縮放系數(shù)s設(shè)置為64,附加角度m設(shè)置為0.5;ResNet輸出特征維度設(shè)置為512。

    3.2 結(jié)果分析

    在人臉追蹤當(dāng)中,為了驗(yàn)證FNet的有效性,本文使用Softmax損失函數(shù)訓(xùn)練MobileFaceNet和FNet各14萬(wàn)次,訓(xùn)練過(guò)程中初始學(xué)習(xí)率設(shè)置為0.1,batch size設(shè)置為256,使用兩張顯卡訓(xùn)練。其效果對(duì)比如表4所示。

    通過(guò)兩個(gè)網(wǎng)絡(luò)的對(duì)比分析可以看到,F(xiàn)Net在精度上要比MobileFaceNet略低,但差距較小;與MobileFaceNet相比,F(xiàn)Net的模型大小減小了45%,速度提升了75%,有較大提升。由于人臉追蹤實(shí)時(shí)性強(qiáng),對(duì)FNet速度要求高。FNet在速度上滿足實(shí)時(shí)要求,同時(shí)在精度上也接近MobileFaceNet。

    為了說(shuō)明人臉追蹤的效果,本文對(duì)算法在單目標(biāo)和多目標(biāo)條件下進(jìn)行了測(cè)試,測(cè)試數(shù)據(jù)為網(wǎng)絡(luò)上采集的包含人臉的視頻圖像,然后每隔2s抽取一張圖像作為效果圖,如圖5、6所示。算法每檢測(cè)到一個(gè)新目標(biāo),會(huì)對(duì)其從0開始編號(hào)。

    從圖4和圖5中可以看到,在單目標(biāo)和多目標(biāo)條件下,同一目標(biāo)的序號(hào)一直保持不變,說(shuō)明算法準(zhǔn)確地追蹤到了該目標(biāo)。算法在單目標(biāo)和多目標(biāo)的條件下具有良好的追蹤效果。

    本文通過(guò)實(shí)驗(yàn)對(duì)MobileFaceNet和具有不同深度的ResNet的識(shí)別效果進(jìn)行了對(duì)比,訓(xùn)練中batch size統(tǒng)一設(shè)置為128,使用4塊GPU訓(xùn)練,初始學(xué)習(xí)率設(shè)置為0.1。ResNet均使用ArcFace算法訓(xùn)練14萬(wàn)次。由于MobileFaceNet直接使用ArcFace算法訓(xùn)練難以收斂,所以MobileFaceNet先使用Softmax損失函數(shù)訓(xùn)練14萬(wàn)次,然后使用ArcFace算法訓(xùn)練20萬(wàn)次,效果對(duì)比如表5所示。

    分別在Rockchip 3399 ARM CPU和Mali T860 GPU上測(cè)試四個(gè)網(wǎng)絡(luò)模型的運(yùn)行耗時(shí),表6為2000張人臉圖像下的平均耗時(shí)。

    通過(guò)對(duì)四個(gè)網(wǎng)絡(luò)模型的精度和耗時(shí)對(duì)比可以看到,得益于輕量化的網(wǎng)絡(luò)結(jié)構(gòu),MobileFaceNet在模型大小和耗時(shí)均優(yōu)于ResNet,但在識(shí)別精度上,ResNet要優(yōu)于MobileFaceNet;隨著網(wǎng)絡(luò)的加深,ResNet的識(shí)別精度有明顯提高;四個(gè)網(wǎng)絡(luò)在ARM GPU上的耗時(shí)都比ARM CPU上低,說(shuō)明使用ARM GPU加速人臉特征提取行之有效。

    為了說(shuō)明整套算法的實(shí)時(shí)性,本文在ARM平臺(tái)上對(duì)不同算法組合進(jìn)行了速度測(cè)試。人臉特征提取采用ResNet-50,結(jié)果如表7所示。

    從表7可以看出,MTCNN算法中, 最小檢測(cè)尺度min size設(shè)置為20px(pixel),本文中設(shè)置為100px,通過(guò)增大最小檢測(cè)尺度后,算法速度得到了大幅提升;同時(shí),算法過(guò)濾掉了容易被誤檢和不易識(shí)別的小目標(biāo),增強(qiáng)了算法的魯棒性。MTCNN檢測(cè)完圖像后,直接使用ResNet提取人臉特征速度會(huì)很慢,原因是提取人臉特征過(guò)程比較耗時(shí),頻繁地提取人臉特征會(huì)消耗大量時(shí)間和計(jì)算資源,使算法變慢。MTCNN加上人臉追蹤后,人臉被識(shí)別后會(huì)轉(zhuǎn)為追蹤,不需要頻繁地提取人臉特征,算法的速度有很大程度的提高,特別是使用GPU加速后,特征提取在GPU上運(yùn)行更快,而且不再占用CPU,CPU可以全部用來(lái)檢測(cè)人臉,最終速度能接近實(shí)時(shí)水平。

    4 結(jié)語(yǔ)

    本文基于瑞芯微開發(fā)板設(shè)計(jì)和實(shí)現(xiàn)了實(shí)時(shí)人臉識(shí)別系統(tǒng),使用深度學(xué)習(xí)的方法來(lái)檢測(cè)人臉和提取人臉特征。首先,在MTCNN算法的基礎(chǔ)上添加了一個(gè)輕量化的CNN——FNet來(lái)分辨每個(gè)目標(biāo),實(shí)現(xiàn)了對(duì)每個(gè)目標(biāo)的實(shí)時(shí)追蹤;其次,在嵌入式系統(tǒng)上采用ResNet進(jìn)行更深層的特征提取,提高了算法的識(shí)別率;最后,在開發(fā)板上使用Mali-GPU對(duì)人臉特征提取進(jìn)行加速,并實(shí)現(xiàn)了CPU和GPU的負(fù)載均衡。實(shí)驗(yàn)結(jié)果表明,本文方法在嵌入式系統(tǒng)上達(dá)到了較快的運(yùn)行速度,并取得了比使用MobileFaceNet更高的識(shí)別率。

    參考文獻(xiàn)

    [1]?劉飛,張俊然,楊豪.基于深度學(xué)習(xí)的糖尿病患者的分類識(shí)別[J].計(jì)算機(jī)應(yīng)用,2018,38(S1):39-43. (LIU F, ZHANG J R, YANG H. Classification and recognition of diabetes mellitus based on deep learning [J]. Journal of Computer Applications, 2018, 38(S1): 39-43.)

    [2]?熊詠平,丁勝,鄧春華,等.基于深度學(xué)習(xí)的復(fù)雜氣象條件下海上船只檢測(cè)[J].計(jì)算機(jī)應(yīng)用,2018,38(12):3631-3637. (XIONG Y P, DING S, DENG C H, et al. Ship detection under complex sea and weather conditions based on deep learning [J]. Journal of Computer Applications, 2018, 38(12): 3631-3637.)

    [3]?孫勁光,孟凡宇.基于深度神經(jīng)網(wǎng)絡(luò)的特征加權(quán)融合人臉識(shí)別方法[J].計(jì)算機(jī)應(yīng)用,2016,36(2):437-443. (SUN J G, MENG F Y. Face recognition based on deep neural network and weighted fusion of face features [J]. Journal of Computer Applications, 2016, 36(2):437-443.)

    [4]?KAZEMI V, SULLIVAN J. One millisecond face alignment with an ensemble of regression trees [C]// Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2014: 1867-1874.

    [5]?DASHORE G, Dr. RAJ V C. An efficient method for face recognition using Principal Component Analysis (PCA) [J]. International Journal of Advanced Technology and Engineering Research, 2012, 2(2): 23-29.

    [6]?CHAN L, SALLEH S, TING C. Face biometrics based on principal component analysis and linear discriminant analysis [J]. Journal of Computer Science, 2010, 6(7): 693-699.

    [7]?PENEV P S, ATICK J J. Local feature analysis: a general statistical theory for object representation [J]. Network Computation in Neural Systems, 1996, 7(3): 477-500.

    [8]?楊天明,陳志,岳文靜.基于視頻深度學(xué)習(xí)的時(shí)空雙流人物動(dòng)作識(shí)別模型[J]. 計(jì)算機(jī)應(yīng)用,2018,38(3):895-899. (YANG T M, CHEN Z, YUE W J. Spatio-temporal two-stream human action recognition model based on video deep learning [J]. Journal of Computer Applications, 2018, 38(3): 895-899.)

    [9]?LECUN Y L, BOTTOU L, BENGIO Y,et al. Gradient-based learning applied to document recognition [J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

    [10]?TAIGMAN Y, YANG M, RANZATO M, et al. DeepFace: closing the gap to human-level performance in face verification [C]// Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2014: 1701-1708.

    [11]?HUANG G B, RAMESH M, BERG T, et al. Labeled faces in the wild: a database for studying face recognition in unconstrained environments [EB/OL]. [2018-12-05]. http://cs.umass.edu/~elm/papers/lfw.pdf.

    [12]?HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016: 770-778.

    [13]?SIMONVAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [J]. arXiv E-print, 2015: arXiv:1409.1556.?[EB/OL]. [2019-01-06]. https://arxiv.org/pdf/1409.1556.pdf.

    [14]?SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2015:1-9.

    [15]?ZHANG K, ZHANG Z, LI Z, et al. Joint face detection and alignment using multitask cascaded convolutional networks [J]. IEEE Signal Processing Letters, 2016, 23(10): 1499-1503.

    [16]?LIU W, WEN Y, YU Z, et al. SphereFace: deep hypersphere embedding for face recognition [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2017:6738-6746.

    [17]?KEMELMACHER-SHLIZERMAN I, SEITZ S M, MILLER D,et al. The MegaFace benchmark: 1 million faces for recognition at scale [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016: 4873-4882.

    [18]???WANG F, XIANG X, CHENG J, et al. NormFace: L2 hypersphere embedding for face verification [J]. arXiv E-print, 2017: arXiv:1704.06369.?[EB/OL]. [2018-11-20]. https://arxiv.org/pdf/1704.06369.pdf.

    [19]?WANG F, LIU W, LIU H, et al. Additive margin softmax for face verification [J]. arXiv E-print, 2018: arXiv:1801.05599.?[EB/OL]. [2019-01-08]. https://arxiv.org/pdf/1801.05599.pdf.

    [20]?DENG J, GUO J, XUE N, et al. ArcFace: additive angular margin loss for deep face recognition [J]. arXiv E-print, 2019: arXiv:1801.07698.?[EB/OL]. [2018-10-28]. https://arxiv.org/pdf/1801.07698.pdf.

    [21]?GRASSO I, RADOJKOVIC P, RAJOVIC N, et al. Energy efficient HPC on embedded SoCs: Optimization techniques for mali GPU [C]// Proceedings of the 2014 IEEE International Parallel and Distributed Processing Symposium. Washington, DC:IEEE Computer Society, 2014: 123-132.

    [22]?HOWARD A G, ZHU M, CHEN B, et al. MobileNets: efficient convolutional neural networks for mobile vision applications [J]. arXiv E-print, 2017: arXiv:1704.04861.?[EB/OL]. [2019-01-15]. https://arxiv.org/pdf/1704.04861.pdf.

    [23]?ZHANG X, ZHOU X, LIN M, et al. ShuffleNet: an extremely efficient convolutional neural network for mobile devices [J]. arXiv E-print, 2017: arXiv:1707.01083v1.?[EB/OL]. [2018-11-15]. https://arxiv.org/pdf/1707.01083v1.pdf.

    [24]?? CHEN T, MOREAU T, JIANG Z, et al. TVM: an automated end-to-end optimizing compiler for deep learning [J]. arXiv E-print, 2018: arXiv:1802.04799.?[2019-01-20]. https://arxiv.org/pdf/1802.04799.pdf.

    [25]?CHEN S, LIU Y, GAO X, et al. MobileFaceNets: efficient CNNs for accurate real-time face verification on mobile devices [J]. arXiv E-print, 2018: arXiv:1804.07573.?[EB/OL]. [2019-01-09]. https://arxiv.org/ftp/arxiv/papers/1804/1804.07573.pdf.

    [26]?CHOLLET F. Xception: deep learning with depthwise separable convolutions [J]. arXiv E-print, 2016: arXiv:1610.02357v2.?[EB/OL]. [2018-12-29]. https://arxiv.org/pdf/1610.02357v2.pdf.

    [27]?SANDLER M, HOWARD A, ZHU M, et al. MobileNetV2: inverted residuals and linear bottlenecks [J]. arXiv E-print, 2019: arXiv:1801.04381.?[EB/OL]. [2019-01-20]. https://arxiv.org/pdf/1801.04381.pdf.

    [28]?GUO Y, ZHANG L, HU Y, et al. MS-Celeb-1M: a dataset and benchmark for large-scale face recognition [J]. arXiv E-print, 2016: arXiv:1607.08221.?[EB/OL]. [2019-01-20]. https://arxiv.org/pdf/1607.08221.pdf.

    [29]?SENGUPTA S, CHEN J, CASTILLO C, et al. Frontal to profile face verification in the wild [C]// Proceedings of the 2016 IEEE Winter Conference on Applications of Computer Vision. Washington, DC: IEEE Computer Society, 2016: 1-9.

    [30]??MOSCHOGLOU S, PAPAIOANNOU A, SAGONAS C, et al. ?AgeDB: the first manually collected, in-the-wild age database [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops. Washington, DC: IEEE Computer Society, 2017: 1997-2005.

    猜你喜歡
    人臉識(shí)別
    人臉識(shí)別 等
    揭開人臉識(shí)別的神秘面紗
    人臉識(shí)別技術(shù)的基本原理與應(yīng)用
    電子制作(2019年14期)2019-08-20 05:43:34
    人臉識(shí)別技術(shù)在高速公路打逃中的應(yīng)用探討
    基于(2D)2PCA-LBP 的人臉識(shí)別方法的研究
    電子制作(2017年17期)2017-12-18 06:40:55
    淺談人臉識(shí)別技術(shù)
    人臉識(shí)別在高校安全防范中的應(yīng)用
    電子制作(2017年1期)2017-05-17 03:54:46
    巡演完美收官 英飛拓引領(lǐng)人臉識(shí)別新潮流
    人臉識(shí)別在Android平臺(tái)下的研究與實(shí)現(xiàn)
    基于Metaface字典學(xué)習(xí)與核稀疏表示的人臉識(shí)別方法
    欧美+日韩+精品| 26uuu在线亚洲综合色| 欧美一级a爱片免费观看看| 中文字幕人妻熟人妻熟丝袜美| 最近最新中文字幕大全电影3| 免费黄频网站在线观看国产| 精品一区二区三卡| 国产午夜精品一二区理论片| 亚洲,欧美,日韩| 色网站视频免费| 人妻夜夜爽99麻豆av| av在线观看视频网站免费| 日韩伦理黄色片| 亚洲18禁久久av| 搡老乐熟女国产| 丰满少妇做爰视频| 老女人水多毛片| 久久久久久久久久久免费av| 精品久久久久久电影网| 国产精品久久久久久av不卡| 亚洲国产精品国产精品| 人体艺术视频欧美日本| 黑人高潮一二区| 日日干狠狠操夜夜爽| 国产69精品久久久久777片| 午夜免费男女啪啪视频观看| 国产精品综合久久久久久久免费| 久久久久久久午夜电影| a级毛色黄片| 亚洲精华国产精华液的使用体验| 亚洲精品日韩在线中文字幕| 在线观看美女被高潮喷水网站| 国产乱来视频区| 小蜜桃在线观看免费完整版高清| 国产精品国产三级专区第一集| 国产av不卡久久| 一区二区三区乱码不卡18| 精品久久久久久久久久久久久| 亚洲成色77777| 男女下面进入的视频免费午夜| 天美传媒精品一区二区| 久久久久久久大尺度免费视频| 亚洲人成网站在线观看播放| av在线观看视频网站免费| 嫩草影院精品99| 久久人人爽人人片av| 中文字幕av在线有码专区| 22中文网久久字幕| 欧美性猛交╳xxx乱大交人| 久久久久性生活片| 日韩国内少妇激情av| 亚洲精品亚洲一区二区| 偷拍熟女少妇极品色| a级毛色黄片| av在线亚洲专区| 亚洲成人精品中文字幕电影| 毛片一级片免费看久久久久| 欧美高清性xxxxhd video| 99久久九九国产精品国产免费| 五月伊人婷婷丁香| 欧美xxxx黑人xx丫x性爽| 亚洲图色成人| 欧美xxⅹ黑人| 久久久久久久午夜电影| 天堂俺去俺来也www色官网 | 深夜a级毛片| 国产精品女同一区二区软件| 精品99又大又爽又粗少妇毛片| 99久久九九国产精品国产免费| 又大又黄又爽视频免费| 六月丁香七月| 日韩,欧美,国产一区二区三区| 2022亚洲国产成人精品| 啦啦啦中文免费视频观看日本| 人妻少妇偷人精品九色| 尤物成人国产欧美一区二区三区| 乱系列少妇在线播放| 亚洲一级一片aⅴ在线观看| 美女黄网站色视频| 国产精品日韩av在线免费观看| 免费观看无遮挡的男女| 简卡轻食公司| 内地一区二区视频在线| 亚洲最大成人中文| 日日啪夜夜撸| 亚洲国产精品专区欧美| 舔av片在线| 亚洲av免费高清在线观看| 亚洲精品456在线播放app| 久久久久久久亚洲中文字幕| 国产一区二区三区综合在线观看 | 国产成人a∨麻豆精品| 欧美成人a在线观看| 高清午夜精品一区二区三区| 亚洲精品日韩在线中文字幕| 婷婷色麻豆天堂久久| 搡女人真爽免费视频火全软件| 2018国产大陆天天弄谢| 久久韩国三级中文字幕| 国产在视频线精品| 中文乱码字字幕精品一区二区三区 | 国产亚洲午夜精品一区二区久久 | 禁无遮挡网站| 免费看日本二区| 精品久久久久久久人妻蜜臀av| av天堂中文字幕网| 自拍偷自拍亚洲精品老妇| 国产亚洲91精品色在线| 日日摸夜夜添夜夜爱| 久久草成人影院| 欧美激情久久久久久爽电影| 国产极品天堂在线| 国产三级在线视频| 亚洲久久久久久中文字幕| 亚洲精品,欧美精品| 日本与韩国留学比较| 黑人高潮一二区| 丰满少妇做爰视频| 国产在线男女| 在线观看一区二区三区| 在线 av 中文字幕| 十八禁网站网址无遮挡 | 91精品国产九色| 国产白丝娇喘喷水9色精品| www.色视频.com| 久久久久网色| 天天一区二区日本电影三级| 99热网站在线观看| 久久精品国产亚洲网站| 国产精品一区二区在线观看99 | 免费黄网站久久成人精品| 美女脱内裤让男人舔精品视频| 国产男人的电影天堂91| 啦啦啦啦在线视频资源| 夜夜看夜夜爽夜夜摸| 国国产精品蜜臀av免费| 亚洲美女搞黄在线观看| 国产爱豆传媒在线观看| 最近中文字幕高清免费大全6| 内地一区二区视频在线| 91午夜精品亚洲一区二区三区| 青青草视频在线视频观看| 欧美高清性xxxxhd video| 成年女人看的毛片在线观看| 免费大片18禁| 日韩视频在线欧美| 亚洲欧美精品自产自拍| 国产一区亚洲一区在线观看| 麻豆乱淫一区二区| 午夜免费男女啪啪视频观看| 国内揄拍国产精品人妻在线| 三级毛片av免费| 不卡视频在线观看欧美| 一级毛片 在线播放| 国产人妻一区二区三区在| 搞女人的毛片| 国产av不卡久久| 女人被狂操c到高潮| .国产精品久久| 精品久久久久久久久av| 亚洲图色成人| 免费看a级黄色片| 亚洲高清免费不卡视频| 日韩在线高清观看一区二区三区| 日韩大片免费观看网站| 免费看日本二区| 一级毛片黄色毛片免费观看视频| 日本爱情动作片www.在线观看| 天堂影院成人在线观看| 国产精品无大码| 欧美日韩国产mv在线观看视频 | 成人美女网站在线观看视频| 日韩中字成人| 欧美xxxx性猛交bbbb| 亚洲最大成人中文| 国产精品三级大全| 亚洲国产成人一精品久久久| 亚洲av中文av极速乱| 两个人视频免费观看高清| videos熟女内射| 午夜日本视频在线| 日本免费a在线| 特大巨黑吊av在线直播| 国产成人a∨麻豆精品| 免费观看无遮挡的男女| 成年人午夜在线观看视频 | 天堂影院成人在线观看| 国产高清不卡午夜福利| 亚洲欧美精品专区久久| 丰满乱子伦码专区| 日本猛色少妇xxxxx猛交久久| 99久久精品热视频| 99视频精品全部免费 在线| 日日啪夜夜撸| 亚洲欧美成人综合另类久久久| 色网站视频免费| 亚洲真实伦在线观看| xxx大片免费视频| 亚洲国产最新在线播放| 亚洲图色成人| 美女脱内裤让男人舔精品视频| 看非洲黑人一级黄片| 国产视频首页在线观看| av女优亚洲男人天堂| 国产一区有黄有色的免费视频 | freevideosex欧美| 久久久精品94久久精品| 国产中年淑女户外野战色| 亚洲av中文字字幕乱码综合| 最近最新中文字幕免费大全7| 麻豆精品久久久久久蜜桃| 大陆偷拍与自拍| 激情五月婷婷亚洲| 国产一区有黄有色的免费视频 | 国产成人aa在线观看| 国产黄片美女视频| 一夜夜www| 夜夜爽夜夜爽视频| 日韩制服骚丝袜av| 亚洲精品中文字幕在线视频 | 嫩草影院入口| 日韩国内少妇激情av| 国产亚洲91精品色在线| 天堂影院成人在线观看| 亚洲自拍偷在线| 午夜精品在线福利| 三级经典国产精品| 午夜亚洲福利在线播放| 黄色欧美视频在线观看| 99久久中文字幕三级久久日本| 麻豆乱淫一区二区| 成人毛片a级毛片在线播放| 两个人视频免费观看高清| 成人欧美大片| 国产精品人妻久久久影院| 欧美 日韩 精品 国产| 91久久精品电影网| 亚洲va在线va天堂va国产| 中文资源天堂在线| 97在线视频观看| 尤物成人国产欧美一区二区三区| eeuss影院久久| 精品人妻熟女av久视频| 大话2 男鬼变身卡| 青青草视频在线视频观看| 亚洲av电影不卡..在线观看| 联通29元200g的流量卡| 三级国产精品片| 欧美变态另类bdsm刘玥| 91午夜精品亚洲一区二区三区| 国产高清国产精品国产三级 | 国产老妇伦熟女老妇高清| 久久久久国产网址| 亚洲av一区综合| 日韩电影二区| 国产成年人精品一区二区| 女的被弄到高潮叫床怎么办| 亚洲精品,欧美精品| 午夜精品在线福利| 欧美最新免费一区二区三区| 久久6这里有精品| 国产成人午夜福利电影在线观看| 一级a做视频免费观看| 国产在视频线在精品| 国产 一区精品| 国产麻豆成人av免费视频| 夜夜看夜夜爽夜夜摸| 亚洲欧美日韩卡通动漫| 精品少妇黑人巨大在线播放| 亚洲av.av天堂| 亚洲国产色片| 综合色av麻豆| 一边亲一边摸免费视频| 激情 狠狠 欧美| 超碰97精品在线观看| 黄色日韩在线| 在线免费观看的www视频| 97热精品久久久久久| 中文字幕久久专区| 日产精品乱码卡一卡2卡三| 少妇猛男粗大的猛烈进出视频 | 国产精品嫩草影院av在线观看| 国产淫语在线视频| av在线观看视频网站免费| 两个人视频免费观看高清| 免费黄频网站在线观看国产| 亚洲精品乱码久久久久久按摩| 插阴视频在线观看视频| 免费无遮挡裸体视频| 免费看美女性在线毛片视频| 在线播放无遮挡| 国产亚洲91精品色在线| 精品久久久噜噜| 美女国产视频在线观看| 特大巨黑吊av在线直播| 精华霜和精华液先用哪个| 一级黄片播放器| 国产精品一区二区性色av| videossex国产| 免费看光身美女| 日韩强制内射视频| 看黄色毛片网站| 又粗又硬又长又爽又黄的视频| av黄色大香蕉| av免费在线看不卡| 国产在线一区二区三区精| 亚洲精品成人久久久久久| 青春草国产在线视频| 在线观看av片永久免费下载| 亚洲国产色片| 国产精品综合久久久久久久免费| 国产人妻一区二区三区在| 国产午夜福利久久久久久| 嫩草影院新地址| 又黄又爽又刺激的免费视频.| 亚洲国产色片| 日韩欧美国产在线观看| 2022亚洲国产成人精品| 久久6这里有精品| 嘟嘟电影网在线观看| 欧美日韩国产mv在线观看视频 | 99视频精品全部免费 在线| 亚洲国产精品专区欧美| 丰满少妇做爰视频| 国产成人a区在线观看| 插逼视频在线观看| 国产精品一及| 男人和女人高潮做爰伦理| 日韩一区二区视频免费看| 国产黄频视频在线观看| 91久久精品国产一区二区成人| 午夜久久久久精精品| 国产午夜精品久久久久久一区二区三区| 久久久久九九精品影院| 久久久久久久久中文| 国产不卡一卡二| 国产精品熟女久久久久浪| 波多野结衣巨乳人妻| 99久久中文字幕三级久久日本| 久久久久久久大尺度免费视频| 精品熟女少妇av免费看| 91久久精品国产一区二区成人| 97超碰精品成人国产| 日日撸夜夜添| 欧美 日韩 精品 国产| 男的添女的下面高潮视频| 国产精品久久久久久av不卡| 精品久久久久久久人妻蜜臀av| 国产老妇女一区| 亚洲av电影在线观看一区二区三区 | 我要看日韩黄色一级片| 韩国高清视频一区二区三区| 久久鲁丝午夜福利片| 777米奇影视久久| 狠狠精品人妻久久久久久综合| 亚洲av中文av极速乱| 亚洲最大成人手机在线| 白带黄色成豆腐渣| av在线天堂中文字幕| 夜夜爽夜夜爽视频| 欧美bdsm另类| 久久久色成人| 日韩成人伦理影院| 免费不卡的大黄色大毛片视频在线观看 | 亚洲美女搞黄在线观看| 国产高潮美女av| 国产黄片视频在线免费观看| 天天一区二区日本电影三级| 毛片一级片免费看久久久久| 最近中文字幕2019免费版| 亚洲婷婷狠狠爱综合网| 熟女电影av网| 国产老妇伦熟女老妇高清| 午夜福利网站1000一区二区三区| 狂野欧美白嫩少妇大欣赏| 日韩精品青青久久久久久| 日韩 亚洲 欧美在线| 亚洲精品乱码久久久久久按摩| 三级毛片av免费| 久久久午夜欧美精品| 免费黄色在线免费观看| 国产亚洲5aaaaa淫片| 国产亚洲一区二区精品| 亚洲精品成人久久久久久| 亚洲av电影不卡..在线观看| 免费av毛片视频| 国产 一区 欧美 日韩| 亚洲av.av天堂| 国产高清三级在线| 国产av不卡久久| 国产激情偷乱视频一区二区| av在线天堂中文字幕| 99re6热这里在线精品视频| 91在线精品国自产拍蜜月| 岛国毛片在线播放| 欧美日韩国产mv在线观看视频 | 色综合色国产| 亚洲婷婷狠狠爱综合网| 免费观看av网站的网址| 能在线免费观看的黄片| 国产黄频视频在线观看| 精品99又大又爽又粗少妇毛片| 九九久久精品国产亚洲av麻豆| 极品少妇高潮喷水抽搐| 国产男人的电影天堂91| 免费看不卡的av| 欧美一区二区亚洲| 亚洲色图av天堂| 国产精品久久视频播放| 欧美xxⅹ黑人| 非洲黑人性xxxx精品又粗又长| 2021天堂中文幕一二区在线观| 亚洲精品中文字幕在线视频 | 美女高潮的动态| 日本午夜av视频| 亚洲美女搞黄在线观看| 亚洲av免费在线观看| 精品久久久噜噜| 男女边吃奶边做爰视频| av在线亚洲专区| 国精品久久久久久国模美| 成人亚洲精品一区在线观看 | 亚州av有码| 国产色婷婷99| 国产视频首页在线观看| 久久久久国产网址| 亚洲精品国产av成人精品| 精品一区二区三区人妻视频| 久久久久性生活片| 久久久久精品久久久久真实原创| 真实男女啪啪啪动态图| 夫妻午夜视频| 免费看光身美女| 嫩草影院入口| 两个人的视频大全免费| 国产精品一二三区在线看| 精华霜和精华液先用哪个| 别揉我奶头 嗯啊视频| 黑人高潮一二区| 久久久精品免费免费高清| 18禁在线播放成人免费| 国产黄片美女视频| 一本一本综合久久| 久久99精品国语久久久| 免费黄网站久久成人精品| 国产精品国产三级国产av玫瑰| 国产淫语在线视频| 青青草视频在线视频观看| 看免费成人av毛片| 国产在视频线精品| 亚洲av日韩在线播放| 好男人视频免费观看在线| 白带黄色成豆腐渣| 五月天丁香电影| 国产精品一区二区性色av| 能在线免费看毛片的网站| 国产高清不卡午夜福利| 乱系列少妇在线播放| 国产精品无大码| 国产在线一区二区三区精| 亚洲av成人av| 麻豆成人av视频| 国产精品久久久久久av不卡| 成人毛片60女人毛片免费| 免费在线观看成人毛片| 亚洲美女视频黄频| 大又大粗又爽又黄少妇毛片口| 亚洲av电影在线观看一区二区三区 | 国产av码专区亚洲av| 能在线免费观看的黄片| 亚洲精品成人久久久久久| 在线观看人妻少妇| 国产视频首页在线观看| 久久久久久久久久久免费av| 亚洲国产精品成人久久小说| 91av网一区二区| 国产大屁股一区二区在线视频| 国产精品日韩av在线免费观看| 国产淫语在线视频| 国产高清国产精品国产三级 | 91狼人影院| 色播亚洲综合网| 日本黄大片高清| 国产精品一二三区在线看| 欧美xxⅹ黑人| 国产69精品久久久久777片| 日韩制服骚丝袜av| 精品久久久久久久人妻蜜臀av| 久久精品久久精品一区二区三区| 高清午夜精品一区二区三区| 国产精品国产三级国产专区5o| 久久久久精品久久久久真实原创| 国产探花在线观看一区二区| 国产黄片视频在线免费观看| 日本-黄色视频高清免费观看| 非洲黑人性xxxx精品又粗又长| 久久精品久久久久久噜噜老黄| av在线老鸭窝| 国产精品精品国产色婷婷| 看十八女毛片水多多多| 中文乱码字字幕精品一区二区三区 | 国产精品嫩草影院av在线观看| 自拍偷自拍亚洲精品老妇| 国产在线一区二区三区精| 国产一区二区亚洲精品在线观看| 国产成人精品福利久久| 精品一区二区三区视频在线| 亚洲熟女精品中文字幕| 日本一本二区三区精品| 超碰av人人做人人爽久久| 精品不卡国产一区二区三区| 水蜜桃什么品种好| 成人国产麻豆网| 欧美潮喷喷水| 欧美zozozo另类| av在线蜜桃| 婷婷色av中文字幕| 亚洲18禁久久av| 内射极品少妇av片p| 亚洲欧美清纯卡通| 国产三级在线视频| 老女人水多毛片| 亚洲18禁久久av| 免费人成在线观看视频色| 乱人视频在线观看| 在线天堂最新版资源| 简卡轻食公司| 免费高清在线观看视频在线观看| 天堂俺去俺来也www色官网 | 午夜精品国产一区二区电影 | 久久6这里有精品| 两个人的视频大全免费| 欧美极品一区二区三区四区| 一级a做视频免费观看| 欧美激情久久久久久爽电影| 午夜爱爱视频在线播放| 亚洲av成人精品一二三区| 国产在线男女| 亚洲国产最新在线播放| 自拍偷自拍亚洲精品老妇| 久久久a久久爽久久v久久| 99九九线精品视频在线观看视频| 高清午夜精品一区二区三区| 亚洲一区高清亚洲精品| 亚洲国产欧美在线一区| 九草在线视频观看| 国产精品美女特级片免费视频播放器| 少妇丰满av| 亚洲av中文字字幕乱码综合| 国产精品久久视频播放| 亚洲真实伦在线观看| 丝袜喷水一区| 日本爱情动作片www.在线观看| 三级国产精品欧美在线观看| 亚洲av电影不卡..在线观看| 夫妻午夜视频| 精品不卡国产一区二区三区| 啦啦啦啦在线视频资源| 亚洲熟妇中文字幕五十中出| 少妇高潮的动态图| 乱系列少妇在线播放| 亚洲国产av新网站| 亚洲精华国产精华液的使用体验| 午夜免费激情av| 亚洲熟女精品中文字幕| 一级毛片aaaaaa免费看小| 日日摸夜夜添夜夜爱| 日韩av在线免费看完整版不卡| 尤物成人国产欧美一区二区三区| 欧美性感艳星| 我的老师免费观看完整版| 中文字幕亚洲精品专区| 激情五月婷婷亚洲| 国产精品久久久久久久电影| 国产精品久久久久久久久免| 精品久久久久久久久av| .国产精品久久| 国产亚洲一区二区精品| 亚洲av福利一区| 精品酒店卫生间| 一级黄片播放器| 亚洲av免费在线观看| 黄色一级大片看看| 99热6这里只有精品| 日韩欧美三级三区| 九草在线视频观看| 亚洲精品成人av观看孕妇| 久久久久久久久久黄片| 黄色一级大片看看| 99热全是精品| 国产精品一区二区三区四区久久| 岛国毛片在线播放| 韩国av在线不卡| 黑人高潮一二区| 91狼人影院| 亚洲国产最新在线播放| 国产精品综合久久久久久久免费| 欧美激情在线99| 欧美成人精品欧美一级黄| 久久精品国产自在天天线| 久久久久久久久久久丰满| 日韩欧美三级三区| 午夜精品一区二区三区免费看| 少妇的逼好多水| 国产伦在线观看视频一区| 一个人观看的视频www高清免费观看| 熟女电影av网| 久99久视频精品免费| 亚洲熟女精品中文字幕| 国产在视频线在精品| 夫妻午夜视频| 99re6热这里在线精品视频| 午夜福利在线观看吧| 一区二区三区高清视频在线| 三级国产精品片|