• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    人臉表情合成算法綜述

    2021-10-27 09:50:08郭迎春王靜潔夏偉毅張吉俊李學(xué)博王天瑞
    數(shù)據(jù)采集與處理 2021年5期
    關(guān)鍵詞:關(guān)鍵點特征信息

    郭迎春,王靜潔,劉 依,夏偉毅,張吉俊,李學(xué)博,王天瑞

    (河北工業(yè)大學(xué)人工智能與數(shù)據(jù)科學(xué)學(xué)院,天津300400)

    引 言

    最近,“AI換臉”頻頻登上熱搜,其主要技術(shù)就是表情合成,這是計算機(jī)圖形學(xué)角色動畫領(lǐng)域的關(guān)鍵技術(shù)之一。表情合成是一個經(jīng)典的圖形學(xué)問題,目的是在一個特定的目標(biāo)人像上合成具有特定表情的人臉圖像。隨著科技的發(fā)展,如果將“AI換臉”技術(shù)應(yīng)用在影視劇制作領(lǐng)域,可以大大減輕剪輯人員的工作量[1]。表情合成涉及計算機(jī)圖形學(xué)、計算機(jī)視覺、圖像處理、人機(jī)交互和面部解剖學(xué)等多個領(lǐng)域,可以應(yīng)用在數(shù)字娛樂領(lǐng)域、人機(jī)交互、仿生代理及數(shù)據(jù)擴(kuò)充等諸多領(lǐng)域[2]。因此,如何魯棒地合成自然逼真的人臉表情成為一個富有挑戰(zhàn)性的熱點研究課題[3]。

    人臉表情合成圖像應(yīng)當(dāng)具有3個特點:(1)完成表情遷移的任務(wù),即合成指定的目標(biāo)表情,改變源圖像中的人臉表情;(2)保留源人物的身份信息,即改變源人物表情的同時,不能改變源人物的身份特征;(3)合成圖像應(yīng)當(dāng)具有合理、自然、逼真的面部細(xì)節(jié),不應(yīng)存在大量偽影或圖像偽造痕跡。目前已提出的人臉表情合成方法大致可分為兩大類:基于計算機(jī)圖形學(xué)技術(shù)的傳統(tǒng)方法和基于深度學(xué)習(xí)的表情合成方法。基于計算機(jī)圖形學(xué)技術(shù)的傳統(tǒng)方法主要研究目標(biāo)合成圖像與真實輸入圖像的人臉紋理之間的對應(yīng)關(guān)系。早期方法[4-8]通過3D人臉紋理模型、特征對應(yīng)或光流圖等信息來扭曲人臉圖像,或利用人臉補丁合成目標(biāo)圖像等。常用方法有表情映射[9]、圖像變形[10]、圖像檢索[11-12]和統(tǒng)計學(xué)模型等。這些傳統(tǒng)方法可以合成逼真的高分辨率的人臉圖像。

    近年來深度學(xué)習(xí)在很多領(lǐng)域都取得了突破性進(jìn)展,亦為表情合成提供了一個全新的思路。在表情合成領(lǐng)域中,基于深度學(xué)習(xí)的方法首先利用卷積神經(jīng)網(wǎng)絡(luò)提取人臉特征,將圖像從高維空間映射到低維的特征空間中,然后向網(wǎng)絡(luò)中添加目標(biāo)表情信息或更改原來的表情特征,再利用深度神經(jīng)網(wǎng)絡(luò)合成具有目標(biāo)表情的人臉圖像映射回高維空間。其中,目標(biāo)表情信息屬于高級語義信息,因此深度方法可以通過高級語義來控制圖像的合成。

    在表情合成方法的研究歷程中,自1972年P(guān)arke[13]用計算機(jī)合成人臉圖像之后的40多年內(nèi),基于計算機(jī)圖形學(xué)技術(shù)的傳統(tǒng)方法在這一領(lǐng)域占據(jù)主導(dǎo)地位。傳統(tǒng)方法雖然可以合成清晰的人臉圖像,但很難合成從未見過的人臉或人臉區(qū)域,如口內(nèi)牙齒區(qū)域或皮膚皺紋,且傳統(tǒng)方法更依賴于人工精心設(shè)計的復(fù)雜模型,每個模型都是針對具體任務(wù)設(shè)計的,泛化能力及魯棒性較差。與之相比,深度方法是數(shù)據(jù)驅(qū)動的、基于大量訓(xùn)練樣本的特征學(xué)習(xí),所提取的抽象特征魯棒性更強(qiáng),泛化能力更好。但深度方法目前存在的問題是很難對圖像的合成進(jìn)行細(xì)粒度控制,且合成的表情圖像缺乏人臉細(xì)節(jié)的表達(dá),如皺紋或由于凹陷產(chǎn)生的陰影現(xiàn)象等。隨著深度學(xué)習(xí)的發(fā)展,2014年Goodfellow等[14]提出了生成對抗網(wǎng)絡(luò)(Generative adversarial network,GAN)。GAN作為一種近年來生成效果較好的模型,在合成逼真圖像方面具有顯著優(yōu)勢。同時,表情合成領(lǐng)域也涌現(xiàn)出大量的GAN變體等研究方法,基于GAN的表情合成方法目前已成為本領(lǐng)域的主流方法。

    本文綜述了人臉特征信息的分類、基于深度學(xué)習(xí)的人臉表情生成的3大模型以及主要的損失函數(shù);著重介紹現(xiàn)有的人臉表情生成數(shù)據(jù)庫;總結(jié)了表情生成的實驗評估方法以及現(xiàn)有研究的評價方法;對表情生成方法存在的問題進(jìn)行了分析討論,并對未來的研究方向和發(fā)展趨勢做出了展望。

    1 人臉特征信息

    在表情合成領(lǐng)域,包含人臉特征的標(biāo)簽信息對表情合成的質(zhì)量和效果至關(guān)重要。尤其在深度學(xué)習(xí)方法中,標(biāo)簽作為監(jiān)督信號輸入,引導(dǎo)網(wǎng)絡(luò)的訓(xùn)練過程,其作用不容忽視。一般最常見的標(biāo)簽是表情類別標(biāo)簽。為了使標(biāo)簽包含更多的人臉信息,研究人員使用人臉幾何特征作為標(biāo)簽。這些幾何特征標(biāo)簽有動作單元(Action unit,AU)、人臉關(guān)鍵點和人臉輪廓圖等。

    1.1 表情類別標(biāo)簽

    表情類別標(biāo)簽是最基本的情緒標(biāo)簽,也是表情數(shù)據(jù)庫中最常見的一種標(biāo)簽。一般將人的基本表情分為8類,分別是:快樂、悲傷、驚訝、憤怒、蔑視、厭惡、恐懼和中性。表情類別標(biāo)簽的獲取,可以從數(shù)據(jù)庫中直接獲得;隨著表情識別技術(shù)的發(fā)展,研究人員提出了很多可靠的表情識別算法,可以通過這些算法來獲得表情類別標(biāo)簽。傳統(tǒng)的表情識別算法首先通過主成分分析、獨立分量分析、Gabor小波、局部二值模式(Local binary pattern,LBP)算子和光流等方法進(jìn)行表情特征提取,然后使用K最近鄰(K-nearest neighbor,KNN)、隱馬爾可夫模型(Hidden Markov model,HMM)、貝葉斯分類算法和支持向量機(jī)(Support vector machines,SVM)等傳統(tǒng)機(jī)器學(xué)習(xí)算法,根據(jù)提取到的特征將輸入圖片分為某種基本表情類別。隨著深度學(xué)習(xí)的發(fā)展,很多方法應(yīng)用在表情識別領(lǐng)域,端到端地輸出表情類別。在卷積神經(jīng)網(wǎng)絡(luò)中,研究人員一般在網(wǎng)絡(luò)的末端使用softmax分類器或SVM等傳統(tǒng)分類算法來預(yù)測輸入圖片的表情類別。隨著表情識別算法發(fā)展得越來越成熟,很多平臺向用戶提供了識別應(yīng)用程序接口(Application programming interface,API),這些算法首先檢測出圖片中的人臉區(qū)域,然后針對臉部的表情返回識別結(jié)果。

    1.2 面部動作編碼系統(tǒng)

    面部動作編碼系統(tǒng)(Facial action coding system,F(xiàn)ACS)是描述面部表情較為全面、客觀的系統(tǒng)之一,近年來在情感計算和計算機(jī)視覺領(lǐng)域受到越來越多的關(guān)注。表情是臉部肌肉聯(lián)合和協(xié)調(diào)作用的結(jié)果[15],不能被劃分為離散的或少數(shù)的類別。1978年,心理學(xué)家Ekman和Friesen開發(fā)了FACS系統(tǒng),以AU來描述表情狀態(tài)[16]。FACS系統(tǒng)描繪了臉部肌肉動作和表情之間的對應(yīng)關(guān)系。根據(jù)人臉的解剖學(xué)特點,Ekman等[16]將人臉劃分為若干個既相互獨立又相互聯(lián)系的AU,每個AU有6個強(qiáng)度,并分析了這些AU的運動特征及其所控制的主要區(qū)域及與之相關(guān)的表情。FACS中共有44個AU,直接與特定面部肌肉收縮有關(guān)的AU有30個,雖然AU的數(shù)量相對較少,但已經(jīng)觀察到有超過7 000種不同的AU組合。如圖1所示,AU1代表抬起眉毛內(nèi)角,AU2代表抬起眉毛外角,AU6代表臉頰提升和眼輪匝肌外圈收緊,AU9代表皺鼻肌,AU25、AU26、AU27代表嘴巴張開的程度等[17]。不同的AU組合可以表現(xiàn)不同的表情,如圖2所示,AU9+AU25可表現(xiàn)為“憤怒”,AU9+AU16+AU25表現(xiàn)為“非常憤怒”,AU6+AU12表現(xiàn)為“微笑”,AU25代表張開嘴巴,因此AU6+AU12+AU25展示為“露著牙齒的笑”。

    圖1 動作單元示例Fig.1 Example diagrams of AUs

    圖2 動作單元組合示例Fig.2 Example diagrams of combination of AUs

    Liu等[18]將12個AU的6個強(qiáng)度線性縮放到[-1,1],每個AU有相應(yīng)的強(qiáng)度值,形成一個12維的向量以表示目標(biāo)表情。通過將此向量標(biāo)簽輸入到模型中,指導(dǎo)網(wǎng)絡(luò)的訓(xùn)練方向,生成帶有目標(biāo)表情的人臉圖像。

    1.3 人臉關(guān)鍵點

    人臉關(guān)鍵點檢測是人臉相關(guān)任務(wù)中一個關(guān)鍵步驟,如表情識別、人臉識別、表情合成和人臉驗證等,借助它可以提取豐富的人臉特征信息和表情信息[19]。人臉關(guān)鍵點檢測是對給定的人臉圖像定位出人臉區(qū)域的關(guān)鍵位置,包括眉毛、眼睛、鼻子、嘴巴和臉部輪廓等,是表情合成任務(wù)中的基礎(chǔ)環(huán)節(jié),因此產(chǎn)生了很多檢測方法[20-24],如何獲取高精度人臉關(guān)鍵點,一直以來都是計算機(jī)視覺、模式識別和圖像處理等領(lǐng)域的熱點研究問題。

    在標(biāo)注關(guān)鍵點過程中,關(guān)鍵點數(shù)量的選擇尤為重要。如果關(guān)鍵點數(shù)量過少,會導(dǎo)致人臉表情數(shù)據(jù)信息丟失過多,從而影響最終的人臉表情合成效果;相反,過多的關(guān)鍵點會導(dǎo)致標(biāo)定難度增大,而且容易產(chǎn)生誤差較大的離群點,同時也可能產(chǎn)生冗余信息,影響人臉表情合成的效果。目前多數(shù)表情合成方法采取68個關(guān)鍵點進(jìn)行研究。圖3為使用Dlib機(jī)器學(xué)習(xí)庫對人臉圖像標(biāo)注面部關(guān)鍵點的示例,圖中選擇使用68個關(guān)鍵點,以白色圓點表示。68個關(guān)鍵點可包含大部分的人臉特征信息,提取的關(guān)鍵點包括了眉毛的形狀、眼睛的輪廓、鼻子邊框線、嘴巴的上下嘴唇的位置以及人臉的外輪廓等信息。

    圖3 人臉關(guān)鍵點示例Fig.3 Example diagrams of facial landmarks

    人臉關(guān)鍵點信息是衡量表情表達(dá)的一項重要指標(biāo),因此研究人員用人臉關(guān)鍵點來指導(dǎo)監(jiān)督表情合成的過程。Song等[25]提出的G2-GAN(Geometry-guided generative adversarial network)網(wǎng)絡(luò)中,將目標(biāo)表情的人臉關(guān)鍵點熱圖和中性圖像一起輸入網(wǎng)絡(luò)中,合成帶有目標(biāo)表情的人臉圖像。G2-GAN中有2個生成器來執(zhí)行相反的任務(wù),表情合成和表情移除。在表情合成過程中,人臉關(guān)鍵點起到引導(dǎo)控制圖像的合成的作用;在表情移除過程中,人臉關(guān)鍵點表示對輸入圖像的解釋說明。Qiao等[26]提出的GCGAN(Geometry-contrastive generative adversarial network)網(wǎng)絡(luò)中,將目標(biāo)表情關(guān)鍵點圖像和輸入人臉圖像使用編碼器壓縮為特征向量,然后將這兩個特征向量級聯(lián),輸入到解碼器中生成帶有目標(biāo)表情的人臉圖像。

    1.4 人臉輪廓圖

    在使用人臉幾何信息指導(dǎo)表情合成過程中,除了人臉關(guān)鍵點信息,還可以將人臉關(guān)鍵點改進(jìn)為人臉輪廓特征圖來指導(dǎo)圖像的合成。在標(biāo)定人臉關(guān)鍵點后,將人臉關(guān)鍵點用線段連接,得到人臉輪廓特征圖如圖4所示。

    圖4 人臉輪廓圖示例Fig.4 Facial contour sketches

    文獻(xiàn)[27]將面試者的圖像編碼為特征圖,與面試官的目標(biāo)表情輪廓圖融合輸入到網(wǎng)絡(luò)中,生成面試官的目標(biāo)表情圖像。文獻(xiàn)[28]將局部缺損的輸入圖像和相應(yīng)的局部輪廓圖等信息一起輸入模型中,生成補全的完整原始圖像。文獻(xiàn)[27-31]表明,人臉關(guān)鍵點或人臉輪廓圖等這些幾何標(biāo)簽可以對表情的合成起到一定的引導(dǎo)作用。①http://vasc.ri.cmu.edu/idb/html/face/facial_expression/.https://doi.org/doi:10.18129/B9.bioc.FGNet.②https://mmifacedb.eu/.③http://www.kasrl.org/jaffe.html.④https://www.kaggle.com/deadskull7/fer2013.⑤http://www.multipie.org/.⑥http://mohammadmahoor.com/disfa/.⑦h(yuǎn)ttps://doi.org/10.1016/j.imavis.2014.06.002.⑧https://doi.org/10.1109/CVPR.2016.600.⑨https://www.pnas.org/content/111/15/E1454.full.⑩http://www.imm.dtu.dk/pubdb/edoc/imm3160.pdf.??http://www.f-zhou.com/fa_code.html.?https://ibug.doc.ic.ac.uk/resources/300-W/.?https://ibug.doc.ic.ac.uk/resources/facial-point-annotations/.?http://blog.dlib.net/.?https://www.faceplusplus.com.cn/.?https://docs.opencv.org/master/d2/d42/tutorial_face_landmark_detection_in_an_image.html.

    表1 總結(jié)了人臉特征信息的獲取方法。一般地,研究人員可選取相應(yīng)的人臉數(shù)據(jù)庫直接獲得人臉特征信息,如表情類別、AU、人臉關(guān)鍵點坐標(biāo)等。其次,研究人員可采用成熟的相關(guān)識別算法或檢測算法來得到人臉特征信息,如手工特征方法或預(yù)訓(xùn)練的深度模型等。

    表1 人臉特征信息獲取方式Table 1 Methods of extracting facial features

    2 深度學(xué)習(xí)方法

    在圖像合成領(lǐng)域,3大深度生成模型為自編碼器(AutoEncoder,AE)、GAN及GAN變體。這3種深度模型同樣在表情合成領(lǐng)域占據(jù)壟斷地位。早期的深度方法使用AE的編解碼結(jié)構(gòu)來生成人臉,通過編碼器和解碼器來實現(xiàn)特征提取及生成圖像等操作。由于AE算法的固有缺點,其偏向于生成模糊的圖像,這限制了自編碼器的發(fā)展。而后GAN網(wǎng)絡(luò)的出現(xiàn)可以幫助合成清晰的圖像,因此在圖像合成領(lǐng)域涌現(xiàn)了大量的GAN變體等研究方法。

    2.1 自編碼器

    自編碼器包含編碼器和解碼器兩部分,典型結(jié)構(gòu)如圖5所示。輸入原圖像,首先利用編碼器將輸入圖像壓縮為一個特征向量;然后通過解碼器將特征向量重構(gòu)回圖像。學(xué)習(xí)過程中不斷地最小化輸出數(shù)據(jù)與輸入數(shù)據(jù)之間的差異,從而達(dá)到圖像重構(gòu)的目的。

    圖5 自編碼器的一般結(jié)構(gòu)Fig.5 General structure of AE

    Zhou等[53]提出的條件差分對抗自編碼器(Conditional difference adversarial autoencoder,CDAAE)是利用自編碼器合成人臉表情的一個典型模型。該模型輸入一幅帶有任意表情的人臉圖像,經(jīng)編碼器編碼為一個100維的特征向量,然后將此向量與目標(biāo)表情標(biāo)簽向量級聯(lián)輸入到解碼器中,生成帶有目標(biāo)表情的人臉圖像。Zhou等采用U-Net[54]的跳躍連接結(jié)構(gòu)來保留人臉身份信息,并保證圖像的合成質(zhì)量。Zhou等還測試了在不同的網(wǎng)絡(luò)層級間使用跳躍連接,可以不同程度地保留目標(biāo)圖像底層的紋理信息,并且使用自編碼器結(jié)構(gòu)合成圖像后,采用對抗的思想加入2個判別器結(jié)構(gòu)以保證合成的圖像更為逼真。

    2.2 生成對抗網(wǎng)絡(luò)及其變體

    GAN和自編碼器的結(jié)構(gòu)相似,都采用編解碼器作為圖像生成器。不同的是,GAN使用對抗博弈的思想對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,通過引入一個判別器,形成生成器與判別器對抗的局面。判別器的目的是對輸入的圖像做出正確的真假預(yù)測,而生成器的目的是使生成圖像足夠逼真到騙過判別器,二者之間的有效對抗將激勵生成器合成更優(yōu)質(zhì)量的圖像[55]。

    2.2.1生成對抗網(wǎng)絡(luò)

    GAN是一種通過博弈學(xué)習(xí)方法進(jìn)行網(wǎng)絡(luò)訓(xùn)練的模型,如圖6所示,通過使用生成器(Generator)和判別器(Discriminator)進(jìn)行相互博弈學(xué)習(xí),共同提高網(wǎng)絡(luò)各自的能力,使生成器能夠模擬輸入數(shù)據(jù)樣本的分布,合成越來越真實的圖像,直到判別器不能將生成器合成的樣本和真實樣本區(qū)分開來。

    圖6 生成對抗網(wǎng)絡(luò)Fig.6 Generative adversarial network

    生成對抗網(wǎng)絡(luò)中,生成器主要用于學(xué)習(xí)真實圖像的分布,然后使用學(xué)習(xí)到的分布合成相似分布的數(shù)據(jù),并讓自身合成的數(shù)據(jù)更加真實,降低判別器的識別效果。而判別器的任務(wù)是判斷當(dāng)前圖像是真實數(shù)據(jù)還是由生成器合成而來的數(shù)據(jù)。在整個流程中,生成器需要努力讓合成圖像更加真實,而判別器需要盡力去找出每一個合成的圖像,這就是判別器和生成器的博弈學(xué)習(xí)。隨著學(xué)習(xí)的深入,最終兩個網(wǎng)絡(luò)將達(dá)到一個納什均衡:生成器能夠合成十分接近真實數(shù)據(jù)分布的假數(shù)據(jù),而判別器對于給定數(shù)據(jù)預(yù)測其真假的能力將達(dá)到最低,即正確預(yù)測當(dāng)前數(shù)據(jù)的概率為0.5。據(jù)此,優(yōu)化的目標(biāo)函數(shù)定義為

    式中:E代表數(shù)學(xué)期望;D(x)代表判別器D判別樣本x屬于真實分布的概率。

    2.2.2 條件生成對抗網(wǎng)絡(luò)

    由于原始的GAN網(wǎng)絡(luò)僅能夠在無監(jiān)督的條件使用隨機(jī)噪聲作為輸入進(jìn)行相關(guān)數(shù)據(jù)的合成,對于合成數(shù)據(jù)來說,其輸出是隨機(jī)、無法預(yù)測的。例如在人臉圖像的相關(guān)合成中,無法對合成圖像的相關(guān)參數(shù)進(jìn)行控制,只能輸出符合網(wǎng)絡(luò)訓(xùn)練所使用的原始數(shù)據(jù)集分布的圖像。因此,使用GAN進(jìn)行有目的地合成圖像或者數(shù)據(jù)成為當(dāng)前研究的熱點。條件生成對抗網(wǎng)絡(luò)(Conditional GAN,CGAN)是一種條件式的生成對抗網(wǎng)絡(luò),通過給原始的生成對抗網(wǎng)絡(luò)施加一個限制條件,能夠合成有針對性、符合響應(yīng)條件的圖像或其他數(shù)據(jù)。

    相對于原始的GAN,CGAN在網(wǎng)絡(luò)的生成器中加入了約束條件y,使得生成器能夠在約束條件y的限制下進(jìn)行相應(yīng)數(shù)據(jù)的合成,因此生成器合成的數(shù)據(jù)不再是隨機(jī)的,而是變成了含有約束信息y的合成數(shù)據(jù)。CGAN的優(yōu)化函數(shù)問題轉(zhuǎn)化為

    式中:G(z|y)代表基于約束條件y的合成圖像;D(x|y)代表樣本x屬于真實分布的概率。

    現(xiàn)有的表情合成研究工作中使用了不同的條件信息,如表情類別標(biāo)簽[56]、人臉幾何信息[57]、人臉關(guān)鍵點[58]、AU標(biāo)簽和人臉輪廓圖像[59]等,在進(jìn)行圖像合成時通過這些條件信息來指導(dǎo)圖像的合成?;跅l件生成對抗網(wǎng)絡(luò)的GAN變體有很多,例如,Liu等[18]提出了一個基于3D人臉AU的條件對抗合成模型,將目標(biāo)AU標(biāo)簽ytarget作為條件輔助信息輸入到合成模型,合成指定身份信息的目標(biāo)表情參數(shù)xexptarget。人臉幾何信息可以客觀地反映人物的表情信息及面部基礎(chǔ)信息,因此一些學(xué)者將人臉幾何信 息 輸 入CGAN中 作 為 條 件 信 息 來 指 導(dǎo) 表 情 的 合 成[25,60-63]。Huang等[27]提 出 了 一 個DyadGAN網(wǎng)絡(luò),在面試官和面試者兩個人的互動場景中,將面試者的表情輪廓特征圖作為條件信息來輔助合成面試官的表情圖像,試圖模擬互動場景中一個人的表情對另一個人的表情響應(yīng)的關(guān)系和影響。文獻(xiàn)[26]提出的GC-GAN中,首先利用對比學(xué)習(xí)方法來學(xué)習(xí)目標(biāo)表情的關(guān)鍵點特征圖,從而削弱了不同臉型不對齊問題的影響;然后將關(guān)鍵點特征圖作為條件信息,與輸入圖像的特征向量串聯(lián),經(jīng)解碼器合成帶有目標(biāo)表情的圖像。文獻(xiàn)[64]將目標(biāo)表情標(biāo)簽作為條件信息,與輸入圖像一起作為輸入,引導(dǎo)圖像的合成。Ma等[62]提出了一種基于姿態(tài)的生成網(wǎng)絡(luò)(Pose guided person generation network,PG2),可以合成任意姿態(tài)下的圖像。目標(biāo)姿態(tài)由一組18個關(guān)節(jié)位置定義,編碼為熱圖,將目標(biāo)姿態(tài)的熱圖作為條件輔助信息,與PG2中的輸入圖像串聯(lián)輸入到網(wǎng)絡(luò)中。此外,又采用了兩階段合成方法來提高合成圖像的質(zhì)量。

    2.2.3 生成對抗網(wǎng)絡(luò)變體

    本節(jié)總結(jié)了基于GAN的表情合成算法的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu),如圖7所示,可分為3種情況。首先,網(wǎng)絡(luò)的輸入為條件信息和源圖像,條件信息的種類如第1節(jié)提到的人臉特征信息,圖7中條件信息示例分別為目標(biāo)表情參考圖、人臉輪廓圖、人臉關(guān)鍵點和目標(biāo)表情類別向量,研究時選擇其一作為網(wǎng)絡(luò)的條件信息即可。圖7(a)將條件信息和源圖像一起輸入編-解碼結(jié)構(gòu)的生成器G中,輸出生成圖像;再將生成圖像輸入到判別器D中,判別圖像的真假。圖7(b)在生成器中設(shè)置兩個編碼器,分別提取條件信息中的目標(biāo)表情特征和源圖像的人物身份特征;然后將目標(biāo)表情特征與身份特征級聯(lián),輸入解碼器中輸出生成圖像。圖7(c)首先利用編碼器提取源圖像的身份特征,再與條件信息特征向量級聯(lián),解碼輸出生成圖像。GAN算法的改進(jìn)主要是對生成器或判別器的設(shè)計進(jìn)行創(chuàng)新,代表性算法總結(jié)如下。

    圖7 基于GAN的表情合成算法基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)Fig.7 Basic networks of expression synthesis algorithm based on GAN

    (1)StarGAN

    Choi等[64]提出了一個星型網(wǎng)絡(luò)框架StarGAN,與最初的GAN相比,StarGAN包括2個參數(shù)共享的生成器,形成CycleGAN[65]的環(huán)形式,并在網(wǎng)絡(luò)中加入掩碼向量,用來學(xué)習(xí)多個數(shù)據(jù)集之間的多域圖像轉(zhuǎn)換。該方法使StarGAN能夠控制所有可用的域標(biāo)簽完成跨數(shù)據(jù)集的訓(xùn)練。而現(xiàn)有的基于GAN的模型若要實現(xiàn)在k個不同的域上進(jìn)行屬性的遷移,需要構(gòu)建k×(k-1)個生成器,并且還不能跨數(shù)據(jù)集訓(xùn)練。StarGAN算法可以用一個生成器來學(xué)習(xí)多個域之間的圖像轉(zhuǎn)換。該算法輸入源為人臉圖像和目標(biāo)表情標(biāo)簽,經(jīng)生成器合成圖像;再將合成的圖像串聯(lián)源人臉圖像的表情標(biāo)簽作為輸入,經(jīng)生成器重構(gòu)出源圖像。這兩次合成過程成為一個環(huán)結(jié)構(gòu),計算源圖像和重構(gòu)的源圖像之間的誤差,作為損失函數(shù)的一部分來控制網(wǎng)絡(luò)的合成效果。

    (2)G2-GAN

    Song等[25]提出了一種幾何引導(dǎo)的生成對抗網(wǎng)絡(luò)G2-GAN,該網(wǎng)絡(luò)包括兩個GAN結(jié)構(gòu),形成環(huán)的結(jié)構(gòu)。與StarGAN不同的是,StarGAN中的兩個生成器是參數(shù)共享的同一個生成器,而在G2-GAN中,兩個GAN結(jié)構(gòu)是不同的,二者需要完成兩個相反的任務(wù):表情合成和表情移除。兩個網(wǎng)絡(luò)在中性表情和任意表情之間形成映射循環(huán)。G2-GAN將人臉關(guān)鍵點作為條件,指導(dǎo)合成具有特定表情、特定身份的人臉表情。訓(xùn)練G2-GAN時和StarGAN的環(huán)結(jié)構(gòu)類似,輸入的中性人臉經(jīng)第1個GAN合成帶有表情的人臉圖像;再將合成的表情圖像輸入第2個GAN重構(gòu)出中性人臉圖像。計算源中性人臉圖像與重構(gòu)出的人臉圖像的差異,作為重構(gòu)損失來提升合成圖像的效果。

    (3)FaceID-GAN

    Shen等[66]提出了一個三元GAN網(wǎng)絡(luò)FaceID-GAN。原始的GAN是生成器與判別器之間的二元對抗,F(xiàn)aceID-GAN與原始的GAN不同,通過將人臉身份分類器P作為網(wǎng)絡(luò)結(jié)構(gòu)的第3個參與者,人臉身份分類器P和判別器D協(xié)同對抗生成器G,使得G合成質(zhì)量較高,并保留人臉的身份信息的圖像。FaceID-GAN不是簡單地將身份分類器作為一個附加的鑒別器,而是通過滿足輸入數(shù)據(jù)信息對稱性來構(gòu)造FaceID-GAN,從而保證真實圖像和合成圖像投影到相同的特征空間,減小了網(wǎng)絡(luò)的訓(xùn)練難度。

    (4)Warp-Guided GAN

    Geng等[67]提出了一種利用單幅照片合成實時人臉動畫的Warp-Guided GAN框架。該框架包含2個具有不同任務(wù)的GAN:第1個GAN用來精細(xì)化人臉圖像細(xì)節(jié);第2個GAN用來合成口內(nèi)牙齒區(qū)域。該方法只需要1幅人像圖像和1組從驅(qū)動源(如照片或視頻序列)派生出來的人臉關(guān)鍵點就可以合成具有豐富人臉細(xì)節(jié)的動畫圖像。該方法的核心是一個基于圖像變形的合成模型,該模型分為3個階段。給定1幅人像和1個驅(qū)動源(照片或視頻),首先用追蹤特征標(biāo)記點對圖像進(jìn)行圖像變形。然后裁剪出變形后的圖像的人臉區(qū)域,計算出關(guān)鍵點的位移圖,將變形后的人臉區(qū)域和關(guān)鍵點位移圖輸入精細(xì)化生成對抗網(wǎng)絡(luò)WGGAN,合成逼真的面部細(xì)節(jié),如皺紋、陰影等。精細(xì)化后的人臉輸入另一個生成對抗網(wǎng)絡(luò)HRH-GAN,合成適合目標(biāo)表情的內(nèi)口區(qū)域。最后將精細(xì)化的人臉無縫集成到扭曲的圖像中,合成動畫效果。

    (5)Cascade expression focal GAN(Cascade EF-GAN)

    Wu等[68]提出了一種AU標(biāo)簽引導(dǎo)的Cascade EF-GAN網(wǎng)絡(luò)。該網(wǎng)絡(luò)由4部分組成:1個全局生成器和3個局部生成器,分別為眼部生成器、鼻子生成器及嘴部生成器。將目標(biāo)表情的AU向量分別與輸入原圖、眼部圖像、鼻部圖像和嘴部圖像串聯(lián),構(gòu)成4個子網(wǎng)絡(luò)的輸入。經(jīng)過4個子生成器,分別生成帶有目標(biāo)表情的全人臉圖像、眼部圖像、鼻部圖像和嘴部圖像。然后將生成的3部分局部圖像拼接成不完整的人臉圖像,再與生成的全人臉圖像級聯(lián),解碼生成最終的目標(biāo)表情人臉圖像。該方法設(shè)計了一種級聯(lián)的漸進(jìn)生成策略,將一個變化大的表情分割為幾個小的級聯(lián)變換,這樣在處理較大表情變換時,有助于抑制偽影,產(chǎn)生更真實的生成效果。

    2.3 損失函數(shù)

    損失函數(shù)是深度學(xué)習(xí)中最基礎(chǔ)也最為關(guān)鍵的一部分。通過最小化損失函數(shù),使模型達(dá)到收斂狀態(tài),減小模型預(yù)測值的誤差。使用不同的損失函數(shù),對模型的影響很大。在表情合成研究中,損失函數(shù)有對抗損失、像素?fù)p失、感知損失、循環(huán)一致性損失和三元組損失等,可根據(jù)模型情況選擇或設(shè)計不同的損失函數(shù)來訓(xùn)練模型。

    2.3.1 對抗損失

    在基于GAN的表情合成模型中,對抗損失是必不可少的。GAN通過對抗損失使生成器和判別器相互對抗博弈,不斷優(yōu)化網(wǎng)絡(luò)。原始對抗損失如式(1)所示。GAN的訓(xùn)練極其困難且不穩(wěn)定,很難平衡生成器與判別器的訓(xùn)練程度。式(1)使用Sigmoid交叉熵?fù)p失函數(shù),容易造成梯度消失問題,使生成器的訓(xùn)練不充分。

    基于此,Mao等[69]提出最小二乘GAN(Least squares GAN,LSGAN)中對GAN的損失函數(shù)進(jìn)行改進(jìn),如式(3~4)所示,采用最小二乘損失函數(shù)代替Sigmoid交叉熵,緩解梯度消失問題。

    式中:常數(shù)a、b分別表示真實分布和生成分布的標(biāo)注值;常數(shù)c表示在生成器優(yōu)化時生成圖像被判定為真實圖像的標(biāo)注值。

    LSGAN在判別器的輸出層中去掉sigmoid激活函數(shù),且在損失函數(shù)中去掉log函數(shù),使用最小二乘損失函數(shù)。這樣使D不僅判別真假,同時懲罰離群的樣本點,使生成樣本不斷向真實分布靠近。

    Arjovsky等[70]為了解決GAN訓(xùn)練不穩(wěn)定及生成器與判別器很難訓(xùn)練平衡的問題,提出WGAN(Wasserstein GAN)網(wǎng)絡(luò),同樣對損失函數(shù)進(jìn)行改進(jìn),使用Wassertein距離來衡量合成圖像與真實圖像分布之間的距離,具體公式如下

    式中:Pg代表生成分布;Pr代表真實分布;fw代表滿足Lipshitz連續(xù)條件的判別器。

    LSGAN和WGAN改進(jìn)后的損失函數(shù)提高了GAN的性能。此外,還有一些方法采用改進(jìn)的DCGAN[71]、WGAN-GP[72]和BEGAN[73]損失函數(shù)使模型擁有更快的收斂速度,解決模式崩潰問題,或提升樣本的生成質(zhì)量。

    2.3.2 像素?fù)p失

    像素?fù)p失計算合成圖像與目標(biāo)圖像的像素間損失。一般地,采用L-P范數(shù)||·||p計算兩者差值,表達(dá)式為

    式中t代表目標(biāo)圖像。

    2.3.3 感知損失

    在計算2幅圖像的像素?fù)p失時,若移動了某個像素點,或相同的圖像使用不同的分辨率時,會得到一個很大的像素?fù)p失,這是不合理的。因此,研究人員提出使用預(yù)訓(xùn)練模型分別提取合成圖像和真實圖像的特征向量,計算二者的特征向量的差值得到感知損失。一些經(jīng)典的深度神經(jīng)網(wǎng)絡(luò)的預(yù)訓(xùn)練 模 型 被 用 來 提 取 特 征,如VGGNet、ResNet、InceptionNet和AlexNet等,具體公式為

    式中:xr代表真實圖像;VGG(·)代表預(yù)訓(xùn)練的VGG網(wǎng)絡(luò),可替換為其他網(wǎng)絡(luò)結(jié)構(gòu),公式也可設(shè)計為如圖8所示的計算多層感知損失的形式。

    圖8 多層感知損失計算方法Fig.8 Calculation method of multilayer perceived loss

    2.3.4 循環(huán)一致性損失

    受CycleGAN[65]的啟發(fā),研究人員將循環(huán)一致性損失應(yīng)用于人臉合成領(lǐng)域。在表情轉(zhuǎn)換的過程中,應(yīng)保證人臉的身份信息不發(fā)生變化,循環(huán)一致性損失可以強(qiáng)制網(wǎng)絡(luò)在改變表情的同時保留人臉的身份信息。循環(huán)一致性損失的計算過程如圖9所示,具體計算公式如下

    圖9 循環(huán)一致性損失的計算Fig.9 Calculation of the cycle consistency loss

    式中:c0代表源圖像x對應(yīng)的表情條件;c1代表目標(biāo)表情條件;G(x|c)代表基于表情條件c生成的合成圖像。

    2.3.5 身份保留損失

    在表情合成過程中,需設(shè)置身份保留損失來保證身份信息的不丟失。如式(10)所示,一般采用預(yù)訓(xùn)練的人臉識別模型提取合成圖像與輸入圖像的身份特征,并計算二者的差值。

    式中Θ為預(yù)訓(xùn)練的人臉識別模型。

    2.3.6 三元組損失

    為了提升合成圖像的質(zhì)量,三元組損失被提出來訓(xùn)練網(wǎng)絡(luò),使網(wǎng)絡(luò)有更好的性能。文獻(xiàn)[74]認(rèn)為網(wǎng)絡(luò)完成從輸入域到輸出域的轉(zhuǎn)換后,不能使輸出圖像擁有和輸入圖像相同的分布。因此,設(shè)計了兩種方式生成目標(biāo)圖像,直接生成和漸進(jìn)生成,如圖10所示。在漸進(jìn)生成的方法中,首先將輸入人臉正面化,將生成的正面化圖像作為中間過渡圖像,之后使用生成的過渡圖像作為網(wǎng)絡(luò)的輸入,生成目標(biāo)表情圖像。然后計算兩種方式的生成圖像之間的差異,作為三元組損失。這個過程使生成圖像作為網(wǎng)絡(luò)的輸入,保證了輸入域與輸出域的分布一致性。

    圖10 文獻(xiàn)[74]提出的三元組損失Fig.10 Triple loss proposed in Ref.[74]

    2.4 代表性算法總結(jié)

    表2 總結(jié)了9種深度學(xué)習(xí)方法的性能和所用的數(shù)據(jù)庫,并簡單描述了算法特點和損失函數(shù)的設(shè)置情況。表2中“客觀評價指標(biāo)”字段中的下標(biāo)“1”和“2”與“數(shù)據(jù)庫”字段中的下標(biāo)“1”和“2”相對應(yīng),表示在該數(shù)據(jù)庫上的實驗精度。算法應(yīng)用時,根據(jù)自身算法的設(shè)計選擇合適的損失函數(shù)或設(shè)計新的有效損失函數(shù),同時根據(jù)本算法需要何種人臉標(biāo)簽、是否需要成對數(shù)據(jù)集、需要單幅圖像或視頻序列等選擇合適的數(shù)據(jù)集進(jìn)行訓(xùn)練。在表情合成領(lǐng)域,關(guān)于模型的評價標(biāo)準(zhǔn)尚不統(tǒng)一,因此很難判斷哪個算法是最好的。除了對生成圖像進(jìn)行主觀的視覺效果評價外,研究人員通常在人臉識別率、表情識別率和圖像生成質(zhì)量這3個方面對模型進(jìn)行客觀評估,評估方法在后文闡述。

    表2 人臉表情合成領(lǐng)域代表性算法對比總結(jié)Table 2 Comparison of the state?of?the?art facial expression synthesis algorithms

    3 人臉數(shù)據(jù)集

    深度學(xué)習(xí)中數(shù)據(jù)集必不可少。在選擇數(shù)據(jù)集前,需要了解數(shù)據(jù)集的數(shù)據(jù)分布情況,判斷其是否與使用算法相匹配。本節(jié)總結(jié)了常用人臉數(shù)據(jù)集及其特征如下。

    (1)CelebA數(shù)據(jù)集

    CelebA是一個大型人臉屬性數(shù)據(jù)集[81],包含10 177位名人的202 599幅圖像,每幅圖像帶有人臉的5個關(guān)鍵點坐標(biāo)信息和40個人臉屬性的標(biāo)簽信息,例如是否帶眼鏡、有無劉海、是否戴帽子、是否卷發(fā)以及是否微笑等屬性。數(shù)據(jù)集中的人臉圖像有較大的姿勢變化和雜亂的背景。CelebA具有多樣性、數(shù)量多和注釋豐富等特點,可以用作計算機(jī)視覺任務(wù)的訓(xùn)練集或測試集,如人臉屬性識別、人臉檢測、人臉關(guān)鍵點檢測、人臉編輯和人臉合成等。

    (2)Cohn-Kanade數(shù)據(jù)集

    Cohn-Kanade數(shù)據(jù)集目前有CK和CK+兩個版本,主要用于人臉圖像分析與人臉合成的研究。

    CK包含了97個志愿者的486個表情視頻序列,這些志愿者被要求進(jìn)行23個表情的展示,表情包括單個AU的運動或多個AU組合的面部肌肉的運動。每個視頻序列都從中性表情開始,表情的表現(xiàn)力逐漸增大,一直達(dá)到表情程度的峰值結(jié)束。其中,中性表情是指人臉面無表情的狀態(tài)。每個序列的峰值表情經(jīng)FACS編碼,得到各自的表情標(biāo)簽。

    CK+[82]是CK基礎(chǔ)上的擴(kuò)展,是一個具有代表性的人臉表情數(shù)據(jù)集。CK+中志愿者量增加到123位,表情序列數(shù)增加到593個。與CK相同,593個視頻序列中,每個序列的峰值表情都帶有FACS編碼的AU標(biāo)簽,其中327個序列同時帶有表情標(biāo)簽,如快樂、悲傷、驚訝和憤怒等。

    (3)Oulu-CASIA數(shù)據(jù)集

    Oulu-CASIA數(shù)據(jù)集采用2個成像系統(tǒng)NIR(Near infrared)和VIS(Visible light),在3種不同光照條件下分別拍攝了80名志愿者的6種典型表情的視頻。3種光照方式為正常的室內(nèi)照明、弱照明(只有電腦顯示屏的光)和暗照明(所有燈都關(guān)掉)。6種表情為快樂、悲傷、驚訝、憤怒、恐懼和厭惡。該數(shù)據(jù)庫可用于研究光照變化對人臉表情、表情識別或人臉識別的影響。

    (4)DISFA數(shù)據(jù)集

    DISFA數(shù)據(jù)集[83]包含了27個不同種族的年輕人的臉部視頻,這些視頻是在志愿者觀看視頻片段時拍攝的,目的是捕捉志愿者自發(fā)的情緒表達(dá)。根據(jù)FACS,視頻幀對應(yīng)12種AU,分別為AU1、AU2、AU4、AU5、AU6、AU9、AU12、AU15、AU17、AU20、AU25和AU26。其中,每個AU的強(qiáng)度范圍為0~5,每個視頻幀中的AU強(qiáng)度值都是由專家手工標(biāo)注。此外,此數(shù)據(jù)集還包括每幅圖像的66個人臉關(guān)鍵點。

    (5)RaFD數(shù)據(jù)集

    RaFD數(shù)據(jù)集[84]是Radboud大學(xué)Nijmegen行為科學(xué)研究所整理的一個高質(zhì)量的人臉數(shù)據(jù)集。此數(shù)據(jù)集中共包含49個模特,其中20名白人男性成年人,19名白人女性成年人,4個白人男孩,6個白人女孩。數(shù)據(jù)集中共有8 040幅圖像,包含8種表情,即快樂、悲傷、驚訝、憤怒、恐懼、厭惡、蔑視和中立。每一個表情包含3個不同的注視方向,且使用5個相機(jī)從不同的角度同時拍攝。

    (6)PIE數(shù)據(jù)集

    PIE數(shù)據(jù)集[85]發(fā)布于2002年,包含68位志愿者的41 368幅圖像,每個人有13種姿態(tài),43種光照條件和4種表情。其中,姿態(tài)和光照變化也是在嚴(yán)格控制的條件下采集的,它在推動多姿勢和多光照的人臉識別研究方面具有非常大的影響力,不過仍然存在模式單一多樣性較差的問題。為了解決這些問題,卡內(nèi)基梅隆大學(xué)的研究人員在2010年建立了Multi-PIE數(shù)據(jù)集[86]。此數(shù)據(jù)集包含337位志愿者,在15個視角、19個光照條件和不同的表情下記錄,約75萬幅圖像。這些圖像在頭部姿勢、光照和面部表情方面有很大的變化。此外,還獲得了高分辨率的正面圖像。

    (7)RAF-DB數(shù)據(jù)集

    RAF-DB數(shù)據(jù)集[87]是一個大型的人臉表情數(shù)據(jù)集,共包含29 672幅真實世界中的圖像。此數(shù)據(jù)集中的圖像在志愿者的年齡、性別、種族、頭部姿勢、光照條件、遮擋狀況(如眼鏡、面部毛發(fā)等)以及后處理操作(如濾鏡等特殊效果)等方面有很大的變化。此外,該數(shù)據(jù)集有豐富的注釋,圖像中有7種基本表情和12種復(fù)合表情,并且每幅圖帶有5個精確的人臉關(guān)鍵點、年齡范圍和性別標(biāo)注。

    表3 為以上各數(shù)據(jù)集的對比表格,包括各數(shù)據(jù)集的樣本量、采集情況、標(biāo)簽信息以及志愿者的表情是否擺拍等信息,研究人員可根據(jù)模型需求選擇合適的數(shù)據(jù)集進(jìn)行實驗。有關(guān)人臉的數(shù)據(jù)集還有很多,例如:人臉檢測方向的數(shù)據(jù)集有AFW、FDDB、WIDER Face和MALF等;人臉關(guān)鍵點檢測方向的數(shù)據(jù)集有XM2VTS、LFPW、Helen、IBUG、AFLW、300W、MTFL、MAFL和WFLW等;人臉識別方向的數(shù)據(jù)集有FERET、Yale、CAS-PEAL、LFW、Pubfig、MSRA-CFW、FaceScrub、UMDFaces、MegaFace、MS-Celeb-1M、VGG Face、IMDB-Face、YouTube Faces和IARPA Janus等;有關(guān)人臉年齡與性別的數(shù)據(jù)集有FGNet、CACD2000、Adience、IMDB-wiki和MORPH等;有關(guān)人臉姿態(tài)的數(shù)據(jù)集有BIWI、Bosphorus、HPD、BIWI kinect、FaceWarehouse、TMU、UPNA和300W-LP等。

    表3 人臉數(shù)據(jù)集對比總結(jié)Table 3 Comparison of facial expression datasets

    4 實驗評估方法

    表情遷移的目的是生成帶有指定表情的目標(biāo)人臉逼真圖像,有3個基本要求:保留人臉的身份信息、指定人臉做出目標(biāo)表情及圖像質(zhì)量逼真自然,表情遷移的效果可以對這3點進(jìn)行評估。身份信息的保留采用人臉識別率來評估;目標(biāo)表情的表現(xiàn)力可以采用表情識別率和AU激活程度來評估;圖像質(zhì)量可以采用結(jié)構(gòu)相似性指數(shù)來評估。

    4.1 人臉識別率

    人臉識別是基于人的臉部特征信息識別出該人臉的身份信息。將表情遷移生成的人臉圖像進(jìn)行身份信息的識別,可以有效地評估生成圖像對身份信息的保留效果。人臉識別算法主要包括人臉檢測、特征提取、人臉特征比較和輸出識別結(jié)果4個步驟[88]。首先,人臉檢測通過對采集到的包含人臉的圖像進(jìn)行人臉區(qū)域的獲取,即在圖像中準(zhǔn)確描述人臉的區(qū)域和位置、大小等信息。然后,對人臉進(jìn)行特征提取,再進(jìn)行人臉的特征比較。人臉特征比較是對提取到的人臉特征進(jìn)行特征距離的對比,即對獲取到的人臉特征進(jìn)行分類,得到特征的分類結(jié)果。首先設(shè)定一個特征距離閾值,特征距離超過閾值將認(rèn)為是同一個人的不同面部圖像,據(jù)此獲取到識別結(jié)果,并進(jìn)行識別率的計算。在特征距離的計算中,通常使用歐式距離、馬爾可夫距離以及卡方距離等,相關(guān)的分類器有SVM、神經(jīng)網(wǎng)絡(luò)(Nerual network,NN)以及HMM等[89]。

    在人臉識別率的計算中,假設(shè)數(shù)據(jù)集中共有N個人的n幅人臉圖像,其中,第i個人有Mi幅人臉圖像,即

    則對于人臉識別系統(tǒng)Π,其識別率為

    式中I(i,j)為第i個人的第j幅圖像。

    4.2 表情識別率

    若要判斷生成圖像的表情表現(xiàn)力,可利用一個表情識別模型來判斷生成的圖像,若圖像能被正確分類到目標(biāo)表情類別中,即可說明生成圖像的表情表現(xiàn)力。

    表情識別系統(tǒng)主要有4個基本部分組成:表情圖像獲取、表情圖像預(yù)處理、表情特征提取以及表情分類識別。在StarGAN中[64],Choi等采用ResNet-18在RaFD數(shù)據(jù)集上訓(xùn)練了一個人臉表情分類器,達(dá)到了99.55%的準(zhǔn)確率。然后使用訓(xùn)練好的分類器來評估實驗結(jié)果,讓分類器來判斷生成圖像的表情類別,并計算出最終的分類誤差,作為實驗的客觀評價。誤差越小,說明StarGAN生成的圖像的表情越真實,表情表現(xiàn)力越好,越容易被表情分類器正確分類。

    4.3 AU激活程度

    表情AU是Parke定義的用于度量視頻中人臉表情變化時臉部不同位置形變的一種方法。AU能夠提供一整套描述人臉動作的參數(shù),通過對人臉中不同區(qū)域響應(yīng)的描述,能夠使用簡單的組合產(chǎn)生數(shù)量巨大的人臉表情。另外,由于AU定義了人臉中的大部分區(qū)域,可以作為人臉識別中用于歸一化的方式。

    AU在表情合成中的作用主要是對表情視頻的真實性進(jìn)行驗證,可以使用合成視頻同原始驅(qū)動表情進(jìn)行表情AU區(qū)域的激活對比。對于原始的表情視頻來說,計算合成視頻的對應(yīng)AU激活區(qū)域以及對應(yīng)區(qū)域的激活值,就能夠得到表情特征的保留程度,從而得到當(dāng)前視頻合成框架的表情保留效果。

    大多數(shù)方法是通過對人臉進(jìn)行分塊,然后對不同的分塊進(jìn)行歸一化并計算AU的激活程度,但是存在分塊區(qū)域不準(zhǔn)確而導(dǎo)致AU識別失敗的問題。由于神經(jīng)網(wǎng)絡(luò)對圖像的遮擋以及光照等具有較強(qiáng)的魯棒性,通過深度學(xué)習(xí)技術(shù)能夠提取到精確的AU,因此人臉AU的識別準(zhǔn)確率獲得了巨大提升。例如,深度區(qū)域和多標(biāo)簽學(xué)習(xí)的面部活動單元檢測(Deep region and multi-label learning,DRML)[17]是一個基于深度學(xué)習(xí)的面部動作單元提取框架,它基于深度學(xué)習(xí)技術(shù)對基于區(qū)域的面部AU進(jìn)一步劃分,提取不同區(qū)域的深度特征,然后組合形成不同的特征矩陣,對其進(jìn)行多標(biāo)簽分類,從而獲得精確的面部AU位置和其對應(yīng)的激活值大小。

    文獻(xiàn)[18]采用AU估計器可以將模型生成的表情參數(shù)準(zhǔn)確歸類,這些AU估計器是由真實圖像中提取出的表情參數(shù)訓(xùn)練而來。AU估計器為支持向量回歸(Support vector regression,SVR)和有序支持向量回歸(Ordinal support vector regression,OSVR)。估計器將表情參數(shù)作為輸入特征,可以估計出具有6個強(qiáng)度級別的AU強(qiáng)度。

    4.4 峰值信噪比和結(jié)構(gòu)相似性

    峰值信噪比(Peak signal to noise ratio,PSNR)是一種最普遍和使用最廣泛的全參考圖像客觀評價指標(biāo),是基于誤差敏感的圖像質(zhì)量評價。在評估人臉生成方法時,PSNR通過計算生成圖像和真實值之間的像素誤差來評估算法性能,數(shù)值越大表示失真越小,表達(dá)式為

    式中:MSE(Mean square error)表示生成圖像Y和真實圖像X的均方誤差;H、W分別為圖像的高度和寬度;b為每像素的比特數(shù),一般取8,即像素灰階數(shù)為256。

    結(jié)構(gòu)相似性(Structure similarity,SSIM)也是一種全參考的圖像質(zhì)量評價指標(biāo),由3個部分組成,分別是亮度、圖像照明度和圖像的對比度。這3個部分的乘積組成了兩幅圖像的結(jié)構(gòu)相似性指標(biāo)數(shù)值[90]。在SSIM中使用圖像的均值作為亮度的估計,使用圖像的標(biāo)準(zhǔn)差作為對比度的估計,并且使用圖像的協(xié)方差作為結(jié)構(gòu)相似程度的估計。但是將SSIM用于評估生成的人臉圖像時,如果生成的圖像和真實圖像的色調(diào)有差異,SSIM得到的相似度得分會低于真實水平。

    為了度量GAN生成圖像的質(zhì)量,文獻(xiàn)[25-26,91]均采用SSIM和PSNR兩個評價指標(biāo)作為定量評價標(biāo)準(zhǔn),客觀地評價模型的性能。

    5 其他客觀評價方法

    第4節(jié)總結(jié)了一些表情合成領(lǐng)域的公知客觀評價指標(biāo),但在實際研究工作中,研究人員為了更加全面、多角度地評價模型性能,提出了一些不同的客觀評價方法。所以,目前在表情合成領(lǐng)域中沒有統(tǒng)一的指標(biāo)來評估算法的好壞。即使采用相同的指標(biāo)來評價各自的模型,若計算方法或提取特征的深度模型不同,也會導(dǎo)致結(jié)果不可比較。本節(jié)對現(xiàn)有文獻(xiàn)中的評價方法進(jìn)行總結(jié)。

    5.1 基于人臉識別模型的身份信息保留度

    一些研究使用訓(xùn)練好的人臉識別模型分別提取生成圖像和原圖像的身份特征,計算二者的相似度,驗證是否為同一身份,以此評估模型的身份信息保留能力。文獻(xiàn)[92]采用ResNet-18作為人臉識別模型,在CelebA和LFW數(shù)據(jù)集上進(jìn)行人臉驗證,人臉識別率越高,說明生成人臉的身份信息保留的越好。在FaceID-GAN中,Shen等[66]在MS-Celeb-1M數(shù)據(jù)集上訓(xùn)練了一個人臉識別模型,來計算輸入人臉圖像的身份特征和輸出人臉圖像的身份特征之間的相似性得分。在G2-GAN中,Song等[25]利用VGG-FACE和Light CNN兩個人臉識別模型驗證提出方法的有效性。

    5.2 IS指標(biāo)

    IS(Inception score)指標(biāo)用來綜合衡量GAN生成圖像的質(zhì)量和多樣性兩個指標(biāo)。在GAN中,希望條件概率P(yB|x)可以被高度預(yù)測,其中x表示給定的圖像,yB表示圖像中的主要內(nèi)容,即標(biāo)簽??梢员桓叨阮A(yù)測即希望能容易判別出圖像中的主要內(nèi)容。一般用熵值來描述隨機(jī)性:如果一個隨機(jī)變量是高度可預(yù)測的,就有較低的熵;如果是高度不可預(yù)測的,則有較高的熵。使用Inception網(wǎng)絡(luò)對生成的圖像進(jìn)行分類,然后預(yù)測P(yB|x),用該概率來反應(yīng)圖像的質(zhì)量,概率值越高,說明Inception網(wǎng)絡(luò)越有把握將圖像正確分類,即圖像的質(zhì)量越高。

    圖像邊緣概率計算方法為

    式中:z為隨機(jī)噪聲;G(z)為隨機(jī)噪聲z通過生成器得到的生成圖像。

    如果生成圖像的多樣性很好,那么預(yù)測標(biāo)簽yB的分布則有很高的熵,從而導(dǎo)致準(zhǔn)確預(yù)測yB的結(jié)果更難。為了綜合兩個指標(biāo),通過使用KL-divergence計算IS的值為

    式中DKL為KL-divergence的計算公式。

    IS在一定程度上可以反映生成圖像的質(zhì)量以及多樣性。但由于IS的計算過程中只考慮了生成樣本,沒有考慮真實數(shù)據(jù),無法反映真實數(shù)據(jù)與樣本之間的距離,因此存在一些問題。比如,數(shù)值受樣本選取的干擾較大、不適合在內(nèi)部差異較大的數(shù)據(jù)集上使用、無法區(qū)分過擬合等。

    5.3 特征之間的相似性計算

    5.3.1 弗雷歇距離

    Xiao等使用弗雷歇距離來驗證生成圖像的質(zhì)量[80]。弗雷歇距離得分(Fréchet inception distance score,F(xiàn)ID)由Heusel等[93]于2017年提出并使用,是評估生成圖像質(zhì)量的度量標(biāo)準(zhǔn),專門用于評估生成對抗網(wǎng)絡(luò)的性能。FID從原始圖像的計算機(jī)視覺特征的統(tǒng)計方面來衡量兩組圖像的相似度,計算方法如式(18)所示。首先利用Inception網(wǎng)絡(luò)來提取特征,然后使用高斯模型對特征空間進(jìn)行建模,最后求解兩個特征之間的距離。較低的FID意味著圖像有較高的質(zhì)量和多樣性。

    式中:Tr代表矩陣的跡;μr代表真實圖像深度特征的均值;μg代表生成圖像深度特征的均值;Σr代表真實圖像深度特征的協(xié)方差矩陣;Σg代表生成圖像深度特征的協(xié)方差矩陣。

    相比較于IS,F(xiàn)ID對噪聲有更好的魯棒性。但是,F(xiàn)ID基于特征提取,即依賴于某些特征的出現(xiàn)或者不出現(xiàn),無法描述這些特征的空間關(guān)系。例如,用GAN去生成人臉,如果嘴巴長在眼睛上面,F(xiàn)ID可能也會認(rèn)為它是一幅效果較好的人臉圖像。

    5.3.2 余弦相似度

    文獻(xiàn)[94]通過計算真實圖像特征與生成圖像特征的余弦相似度來衡量源特征的殘留程度。首先,由訓(xùn)練好的ResNet-18模型提取出源圖像和生成圖像的特征;然后,計算出兩個特征之間的平均余弦相似度。相似度越小,說明源特征去除得越徹底。余弦相似度表示式為

    式中:φ代表預(yù)訓(xùn)練的ResNet-18模型;φ(x)代表樣本x對應(yīng)的深度特征。

    5.3.3 余弦距離

    在FaceID-GAN中,Shen等[66]在LFW數(shù)據(jù)集上驗證了提出模型的身份信息保留能力。該方法利用模型中的身份信息提取器提取出真實圖像和生成圖像的身份信息特征,然后計算出真實圖像的身份信息特征與生成圖像的身份信息特征的余弦距離,以此作為人臉驗證的度量標(biāo)準(zhǔn)。

    式中:Y代表生成圖像;Ψ代表身份信息提取器,Ψ(·)代表樣本對應(yīng)的身份特征。

    5.3.4歐氏距離

    DyadGAN中,Huang等[27]驗證了在兩個人互動時,一個人的表情對另一個人表情的關(guān)系和影響。Huang等創(chuàng)建了2個集合:第1個集合是由真實圖像的特征構(gòu)成;第2個集合是由生成圖像的特征構(gòu)成。其中,真實圖像的特征和生成圖像的特征由Emotient Facet SDK模型提取得到。然后計算2個集合中特征之間的歐氏距離,以此來測量真實圖像與生成圖像之間的差異,并采用統(tǒng)計學(xué)中的顯著性檢驗來判別兩個集合是否有顯著差異。

    Huang等在第2個實驗中創(chuàng)建了另外的2個集合,不同于第1次實驗,集合A是根據(jù)被面試者的8種表情生成的面試官的圖像,集合B是被面試者的8種表情的真實圖像。然后,分別計算集合A中的生成圖像特征與集合B中8種表情圖像特征的歐式距離。結(jié)果表明,只有當(dāng)A中生成圖像的源根據(jù)圖像(被面試者圖像)與B中圖像的表情同屬一類時,兩組特征之間的平均歐式距離最小,即驗證了兩人在互動時表情具有相似性。歐氏距離表達(dá)式為

    式中:X、Y分別代表真實圖像和生成圖像的特征圖;n代表特征圖的元素個數(shù);xi、yi分別代表真實圖像特征圖和生成圖像特征圖的第i個元素。

    5.4 用戶調(diào)查

    為了定量評估,Choi等[64]使用Amazon Mechanical Turk(AMT)平臺進(jìn)行用戶調(diào)查來評估合成圖像的質(zhì)量。給定4幅合成圖像,分別是由4種不同的方法生成,志愿者被要求根據(jù)合成圖像的真實感、屬性遷移的效果和源圖像人臉的身份信息保留效果這3點來選擇4幅圖像中最佳的生成圖像。Zhou等[53]創(chuàng)建了一個在線調(diào)查,共征集了112位志愿者從3幅由3種不同方法生成的、隨機(jī)排序的圖像中選出最符合數(shù)據(jù)集真實圖像的圖像。

    5.5 其他方法

    文獻(xiàn)[95]分別提取出生成圖像和輸入圖像的身份特征向量,然后計算兩個向量的平均內(nèi)容距離(Average content distance,ACD)來評價身份信息的保留程度。在FaceID-GAN中,Shen等[66]在IJB-A數(shù)據(jù)集上提出了一種驗證生成圖像質(zhì)量的方法。該方法首先用判別器D判斷生成圖像為真的概率,得到生成圖像的重構(gòu)誤差,將重構(gòu)誤差的倒數(shù)定義為置信度,也可在某種程度上描述生成圖像的質(zhì)量。文獻(xiàn)[96]使用MS(Mode score)和FID作為評價指標(biāo)來定量地評估生成人臉與游戲風(fēng)格參考人物之間的相似度。

    6 存在問題及研究展望

    雖然GAN的出現(xiàn)有力地推進(jìn)了圖像合成任務(wù)的研究,越來越多的GAN變體用于表情合成,但仍存在幾個問題需要考慮:

    (1)如何設(shè)計基于GAN的網(wǎng)絡(luò)框架。隨著GAN變體的增多,研究人員對GAN的生成器與判別器進(jìn)行了改進(jìn)。例如,Bao等[97]在生成器中設(shè)計了2個編碼器;Shen等[66]設(shè)計了一個分類器與判別器共同對抗生成器;Zhang等[75]在編碼器與解碼器之間放置了若干層殘差塊等。同時,研究人員也在探討如何將GAN與注意力機(jī)制和跳躍連接等模塊相融合。因此,如何對GAN內(nèi)部結(jié)構(gòu)進(jìn)行改進(jìn)以生成更佳效果的人臉圖像是需進(jìn)一步研究的方向之一。

    (2)是否需要成對的數(shù)據(jù)集訓(xùn)練模型。在進(jìn)行表情合成時,若算法為有監(jiān)督的訓(xùn)練,需要計算驅(qū)動人臉的中性圖像與表情圖像之間的差值作為損失函數(shù)來引導(dǎo)目標(biāo)表情人臉的合成。因此,需要成對的數(shù)據(jù)集來訓(xùn)練模型。而對于一些無監(jiān)督算法,可采用判別器或分類器,對生成圖像和目標(biāo)圖像進(jìn)行分類預(yù)測,并計算二者的類別差值作為損失函數(shù),則不需要成對數(shù)據(jù)集。

    (3)如何提升人臉表情合成的圖像質(zhì)量。根據(jù)目前最新的研究結(jié)果來看,人臉表情合成圖像的質(zhì)量還有上升空間。研究人員可在圖像的清晰度和人臉的細(xì)節(jié)生成方面繼續(xù)提升合成圖像的質(zhì)量。人臉細(xì)節(jié)對于合成圖像真實性的表達(dá)至關(guān)重要,不應(yīng)伴隨有奇怪的牙齒、不規(guī)則的皮膚紋理及雜亂的頭發(fā)等細(xì)節(jié)問題。如何合成精細(xì)的人臉細(xì)節(jié)、減少不合理的偽影以保留源人臉的個性特征,仍是需要研究的方向。

    (4)如何個性化地合成人臉表情。文獻(xiàn)[98]提出的模型可以合成合理自然的表情,但是合成的表情是非個性化的,合成的表情和目標(biāo)人臉的真實值之間有一定的差異。因此,個性化地合成人臉表情是未來的一個研究方向。

    (5)如何設(shè)計更輕量級的模型。深度學(xué)習(xí)方法是高度數(shù)據(jù)依賴型的算法,它的性能通常隨著數(shù)據(jù)量的增加而不斷增強(qiáng),而大量的數(shù)據(jù)需要在昂貴的GPU上進(jìn)行訓(xùn)練。因此,如何設(shè)計更輕量級的模型簡便快捷地合成人臉表情,降低成本,也是需要進(jìn)一步研究的方向。

    猜你喜歡
    關(guān)鍵點特征信息
    聚焦金屬關(guān)鍵點
    肉兔育肥抓好七個關(guān)鍵點
    如何表達(dá)“特征”
    不忠誠的四個特征
    抓住特征巧觀察
    訂閱信息
    中華手工(2017年2期)2017-06-06 23:00:31
    展會信息
    中外會展(2014年4期)2014-11-27 07:46:46
    醫(yī)聯(lián)體要把握三個關(guān)鍵點
    鎖定兩個關(guān)鍵點——我這樣教《送考》
    語文知識(2014年7期)2014-02-28 22:00:26
    線性代數(shù)的應(yīng)用特征
    河南科技(2014年23期)2014-02-27 14:19:15
    国产av一区二区精品久久| 日韩人妻精品一区2区三区| 欧美日韩成人在线一区二区| 久久久久视频综合| 18禁裸乳无遮挡动漫免费视频| 纵有疾风起免费观看全集完整版| 9色porny在线观看| 国产精品 国内视频| 天堂中文最新版在线下载| 亚洲成色77777| 国产一区二区三区综合在线观看| 热99久久久久精品小说推荐| 亚洲精品久久成人aⅴ小说| 日韩 欧美 亚洲 中文字幕| 精品一区二区三卡| 午夜影院在线不卡| av在线app专区| videos熟女内射| 极品少妇高潮喷水抽搐| 亚洲第一av免费看| 亚洲国产精品999| 最近中文字幕2019免费版| 精品熟女少妇八av免费久了| av天堂久久9| 一二三四在线观看免费中文在| 国产xxxxx性猛交| 色网站视频免费| 美女主播在线视频| netflix在线观看网站| 欧美日韩亚洲高清精品| 成人亚洲精品一区在线观看| 亚洲伊人久久精品综合| 欧美性长视频在线观看| 日韩精品免费视频一区二区三区| 日韩一本色道免费dvd| 午夜激情久久久久久久| 国产精品一区二区精品视频观看| 亚洲视频免费观看视频| 制服诱惑二区| 国产免费视频播放在线视频| 国产日韩欧美亚洲二区| 日本a在线网址| 久久久久久亚洲精品国产蜜桃av| 超碰成人久久| 日韩视频在线欧美| 麻豆av在线久日| 日韩av免费高清视频| 色婷婷久久久亚洲欧美| 另类亚洲欧美激情| 欧美日韩成人在线一区二区| 日日摸夜夜添夜夜爱| 免费看av在线观看网站| 美女高潮到喷水免费观看| 精品国产乱码久久久久久小说| 亚洲欧美日韩高清在线视频 | 日韩制服骚丝袜av| 亚洲精品国产av成人精品| 十八禁高潮呻吟视频| 亚洲成色77777| 精品久久久久久电影网| 亚洲av片天天在线观看| tube8黄色片| 99精国产麻豆久久婷婷| 欧美黄色淫秽网站| 久久久久网色| 1024香蕉在线观看| 亚洲熟女精品中文字幕| 真人做人爱边吃奶动态| 青春草视频在线免费观看| 一区福利在线观看| 中国美女看黄片| 男女高潮啪啪啪动态图| 婷婷成人精品国产| 高清视频免费观看一区二区| 精品熟女少妇八av免费久了| 亚洲自偷自拍图片 自拍| 丝袜喷水一区| a级毛片在线看网站| 国产一区亚洲一区在线观看| 脱女人内裤的视频| 黄色a级毛片大全视频| 女性被躁到高潮视频| 亚洲国产最新在线播放| 日韩免费高清中文字幕av| 亚洲精品av麻豆狂野| 天堂8中文在线网| 亚洲av片天天在线观看| 老司机亚洲免费影院| 亚洲专区国产一区二区| 婷婷成人精品国产| 国产爽快片一区二区三区| 国产在线一区二区三区精| 欧美av亚洲av综合av国产av| 赤兔流量卡办理| 性色av乱码一区二区三区2| 亚洲国产欧美在线一区| 建设人人有责人人尽责人人享有的| 亚洲,欧美精品.| 欧美成狂野欧美在线观看| 黄色怎么调成土黄色| 久久久久久人人人人人| 亚洲七黄色美女视频| 久久久国产一区二区| a 毛片基地| 亚洲第一青青草原| 国产一区二区在线观看av| 一区二区三区乱码不卡18| 波多野结衣av一区二区av| 欧美xxⅹ黑人| 一边亲一边摸免费视频| 国产成人欧美| 免费女性裸体啪啪无遮挡网站| 一边亲一边摸免费视频| 精品国产超薄肉色丝袜足j| 国产欧美日韩精品亚洲av| 欧美日韩福利视频一区二区| 国产成人精品久久二区二区免费| 亚洲成人免费av在线播放| 亚洲欧美精品自产自拍| 亚洲情色 制服丝袜| 晚上一个人看的免费电影| 久久精品人人爽人人爽视色| 成年女人毛片免费观看观看9 | 国产欧美亚洲国产| 久久久久视频综合| 超碰97精品在线观看| 亚洲中文av在线| 操美女的视频在线观看| 成年人午夜在线观看视频| 午夜福利一区二区在线看| 免费高清在线观看视频在线观看| 真人做人爱边吃奶动态| 两个人免费观看高清视频| 国产黄频视频在线观看| 亚洲国产欧美网| 国产精品久久久久久精品古装| 真人做人爱边吃奶动态| 在线观看免费午夜福利视频| 美女扒开内裤让男人捅视频| 欧美日韩国产mv在线观看视频| 亚洲av综合色区一区| www.999成人在线观看| 免费观看a级毛片全部| 男女高潮啪啪啪动态图| 777久久人妻少妇嫩草av网站| 国产真人三级小视频在线观看| 国产高清不卡午夜福利| 亚洲黑人精品在线| 成人亚洲欧美一区二区av| 男的添女的下面高潮视频| 久久久久视频综合| 最近手机中文字幕大全| 国产欧美日韩一区二区三区在线| 每晚都被弄得嗷嗷叫到高潮| 乱人伦中国视频| 国产精品九九99| 日韩一本色道免费dvd| 丝袜人妻中文字幕| 亚洲伊人久久精品综合| 精品第一国产精品| 欧美 亚洲 国产 日韩一| 欧美日韩国产mv在线观看视频| 男人舔女人的私密视频| 在线精品无人区一区二区三| 男女边摸边吃奶| 亚洲成国产人片在线观看| 精品高清国产在线一区| a 毛片基地| 男人添女人高潮全过程视频| 国产在线免费精品| 亚洲九九香蕉| 男人操女人黄网站| 亚洲伊人久久精品综合| 免费在线观看日本一区| 一区二区三区乱码不卡18| 美女国产高潮福利片在线看| 美女午夜性视频免费| 免费少妇av软件| 少妇裸体淫交视频免费看高清 | 国产老妇伦熟女老妇高清| 欧美成人精品欧美一级黄| 午夜福利一区二区在线看| 老司机影院毛片| 99精国产麻豆久久婷婷| 国产精品一国产av| xxxhd国产人妻xxx| 国产视频一区二区在线看| 亚洲精品日本国产第一区| 性色av一级| 精品一品国产午夜福利视频| 国产精品.久久久| 日韩av不卡免费在线播放| 亚洲一卡2卡3卡4卡5卡精品中文| 性少妇av在线| 啦啦啦中文免费视频观看日本| 777久久人妻少妇嫩草av网站| 在线观看人妻少妇| 国产三级黄色录像| 欧美日韩亚洲综合一区二区三区_| 免费看十八禁软件| 国产男人的电影天堂91| 一区二区三区四区激情视频| 精品少妇内射三级| 五月天丁香电影| 美女国产高潮福利片在线看| 搡老岳熟女国产| 久久中文字幕一级| 操出白浆在线播放| xxxhd国产人妻xxx| 久久精品久久久久久久性| 考比视频在线观看| 这个男人来自地球电影免费观看| 男女边吃奶边做爰视频| 一本综合久久免费| 天天躁夜夜躁狠狠躁躁| 成人亚洲精品一区在线观看| 免费人妻精品一区二区三区视频| 99香蕉大伊视频| 男男h啪啪无遮挡| 自线自在国产av| 叶爱在线成人免费视频播放| 两人在一起打扑克的视频| av一本久久久久| 国精品久久久久久国模美| 久久国产精品影院| 涩涩av久久男人的天堂| 国产xxxxx性猛交| 久久鲁丝午夜福利片| 久9热在线精品视频| 亚洲国产中文字幕在线视频| 成年人午夜在线观看视频| 十八禁高潮呻吟视频| 精品国产一区二区三区久久久樱花| 最近最新中文字幕大全免费视频 | 午夜福利一区二区在线看| 免费高清在线观看视频在线观看| 伦理电影免费视频| 午夜91福利影院| 国产又爽黄色视频| 天堂中文最新版在线下载| 国产亚洲欧美精品永久| 午夜日韩欧美国产| 狠狠精品人妻久久久久久综合| 嫩草影视91久久| 久久国产精品大桥未久av| e午夜精品久久久久久久| 女性被躁到高潮视频| 日本91视频免费播放| 美女午夜性视频免费| 亚洲欧美一区二区三区黑人| 夫妻午夜视频| 亚洲精品av麻豆狂野| 99久久人妻综合| 久久毛片免费看一区二区三区| 国产熟女欧美一区二区| 又粗又硬又长又爽又黄的视频| 亚洲一区中文字幕在线| 国产爽快片一区二区三区| 国产在线免费精品| 精品熟女少妇八av免费久了| 最近手机中文字幕大全| 另类亚洲欧美激情| 成年人黄色毛片网站| 熟女少妇亚洲综合色aaa.| 女性被躁到高潮视频| 久久亚洲精品不卡| 久久精品成人免费网站| 亚洲伊人久久精品综合| 日韩中文字幕视频在线看片| 精品一区在线观看国产| 中文字幕av电影在线播放| 热re99久久国产66热| 80岁老熟妇乱子伦牲交| 日本午夜av视频| 日本欧美国产在线视频| 天天影视国产精品| 日本av免费视频播放| 欧美少妇被猛烈插入视频| 亚洲欧美中文字幕日韩二区| 91麻豆精品激情在线观看国产 | 男人爽女人下面视频在线观看| 亚洲成色77777| 我的亚洲天堂| 亚洲精品一二三| 又粗又硬又长又爽又黄的视频| 亚洲图色成人| 少妇人妻 视频| 国产亚洲一区二区精品| 日韩人妻精品一区2区三区| 无限看片的www在线观看| 看免费成人av毛片| 久久精品久久精品一区二区三区| 亚洲,欧美精品.| 午夜久久久在线观看| av在线app专区| 亚洲人成电影免费在线| 晚上一个人看的免费电影| 汤姆久久久久久久影院中文字幕| 九色亚洲精品在线播放| 老鸭窝网址在线观看| 2021少妇久久久久久久久久久| 亚洲av日韩精品久久久久久密 | 久久久精品免费免费高清| 可以免费在线观看a视频的电影网站| 久久久久久久国产电影| 只有这里有精品99| 建设人人有责人人尽责人人享有的| 亚洲av欧美aⅴ国产| 一区二区三区乱码不卡18| 国产精品.久久久| 高潮久久久久久久久久久不卡| 国产欧美日韩一区二区三 | 青青草视频在线视频观看| 亚洲精品久久成人aⅴ小说| 成年女人毛片免费观看观看9 | 99热国产这里只有精品6| 激情视频va一区二区三区| 国产精品一二三区在线看| 女性生殖器流出的白浆| 亚洲 欧美一区二区三区| 亚洲精品一二三| 国产成人啪精品午夜网站| 免费黄频网站在线观看国产| 各种免费的搞黄视频| 黑人巨大精品欧美一区二区蜜桃| 国产极品粉嫩免费观看在线| 亚洲 国产 在线| 美女主播在线视频| 999久久久国产精品视频| 后天国语完整版免费观看| 国产亚洲av高清不卡| 久久免费观看电影| 九色亚洲精品在线播放| 亚洲精品自拍成人| 美女国产高潮福利片在线看| 欧美精品人与动牲交sv欧美| 国产精品久久久久久精品电影小说| 肉色欧美久久久久久久蜜桃| 国产精品熟女久久久久浪| 香蕉丝袜av| 热re99久久国产66热| 国产精品九九99| 亚洲 欧美一区二区三区| 久久精品国产亚洲av涩爱| 久久久久久久久免费视频了| 国产伦理片在线播放av一区| 黄片播放在线免费| 日本黄色日本黄色录像| 久久精品久久精品一区二区三区| www.999成人在线观看| 黑人欧美特级aaaaaa片| 国产在线视频一区二区| av在线播放精品| 亚洲精品美女久久av网站| 91老司机精品| 捣出白浆h1v1| 国精品久久久久久国模美| 老汉色av国产亚洲站长工具| 啦啦啦中文免费视频观看日本| 精品少妇黑人巨大在线播放| 亚洲色图综合在线观看| 黄色一级大片看看| 久久国产亚洲av麻豆专区| 黄色一级大片看看| 精品卡一卡二卡四卡免费| 国产亚洲欧美在线一区二区| netflix在线观看网站| 精品久久久久久久毛片微露脸 | 精品福利观看| 色精品久久人妻99蜜桃| 天堂俺去俺来也www色官网| 日韩人妻精品一区2区三区| 日韩 亚洲 欧美在线| 99国产精品一区二区蜜桃av | 麻豆国产av国片精品| 老汉色∧v一级毛片| 香蕉国产在线看| 日韩中文字幕欧美一区二区 | 国产亚洲精品第一综合不卡| 成人国语在线视频| 久久狼人影院| 啦啦啦在线观看免费高清www| 国产xxxxx性猛交| 国产男女内射视频| 18禁国产床啪视频网站| 亚洲欧美日韩高清在线视频 | 尾随美女入室| 91老司机精品| 看十八女毛片水多多多| netflix在线观看网站| 叶爱在线成人免费视频播放| 国产老妇伦熟女老妇高清| 国产精品久久久久久人妻精品电影 | 人人妻人人澡人人看| 乱人伦中国视频| 国产97色在线日韩免费| 精品视频人人做人人爽| 欧美少妇被猛烈插入视频| 国产一卡二卡三卡精品| 欧美日韩视频高清一区二区三区二| 捣出白浆h1v1| 午夜91福利影院| 国产伦人伦偷精品视频| 亚洲欧美一区二区三区国产| 两性夫妻黄色片| 久久久久久久大尺度免费视频| 亚洲欧美成人综合另类久久久| 韩国精品一区二区三区| 大码成人一级视频| 久久久欧美国产精品| 国产亚洲午夜精品一区二区久久| 亚洲,欧美精品.| 一级毛片女人18水好多 | 亚洲国产精品成人久久小说| 亚洲av国产av综合av卡| 婷婷色av中文字幕| 精品一区二区三区四区五区乱码 | 又大又黄又爽视频免费| 欧美av亚洲av综合av国产av| 黑人猛操日本美女一级片| 亚洲第一青青草原| 国产免费视频播放在线视频| 中文字幕另类日韩欧美亚洲嫩草| 欧美精品亚洲一区二区| 久久精品亚洲av国产电影网| 纯流量卡能插随身wifi吗| 亚洲欧洲国产日韩| 免费黄频网站在线观看国产| 欧美另类一区| 亚洲精品美女久久av网站| 色播在线永久视频| 大型av网站在线播放| 777久久人妻少妇嫩草av网站| 超色免费av| 亚洲精品中文字幕在线视频| 国产成人av教育| av在线老鸭窝| 夫妻午夜视频| 国产一区二区三区综合在线观看| 一级毛片我不卡| 国产女主播在线喷水免费视频网站| 亚洲五月色婷婷综合| 两性夫妻黄色片| 伊人久久大香线蕉亚洲五| 少妇人妻久久综合中文| 一区福利在线观看| 午夜免费鲁丝| 美女脱内裤让男人舔精品视频| 男人爽女人下面视频在线观看| 又大又爽又粗| 宅男免费午夜| 一区二区三区四区激情视频| 久久人妻福利社区极品人妻图片 | 香蕉国产在线看| www.自偷自拍.com| 自拍欧美九色日韩亚洲蝌蚪91| 成人午夜精彩视频在线观看| 国产av国产精品国产| 亚洲人成77777在线视频| 亚洲自偷自拍图片 自拍| 久久久亚洲精品成人影院| 韩国高清视频一区二区三区| 亚洲国产av新网站| 巨乳人妻的诱惑在线观看| 国产高清国产精品国产三级| 国产免费现黄频在线看| 2021少妇久久久久久久久久久| 亚洲激情五月婷婷啪啪| 欧美成人精品欧美一级黄| 最新在线观看一区二区三区 | 精品欧美一区二区三区在线| 熟女av电影| 亚洲中文日韩欧美视频| 欧美精品一区二区大全| 飞空精品影院首页| 亚洲免费av在线视频| 80岁老熟妇乱子伦牲交| 黄色毛片三级朝国网站| 成年美女黄网站色视频大全免费| 亚洲欧美日韩另类电影网站| 免费在线观看黄色视频的| 国产在线观看jvid| 国产精品一区二区在线不卡| 女人久久www免费人成看片| 不卡av一区二区三区| 免费高清在线观看视频在线观看| 亚洲av在线观看美女高潮| 国产男女内射视频| 成年人免费黄色播放视频| 又黄又粗又硬又大视频| 大香蕉久久成人网| 亚洲伊人色综图| av网站在线播放免费| 欧美人与善性xxx| 国产成人精品久久二区二区免费| 大型av网站在线播放| 另类精品久久| 中文字幕色久视频| 欧美老熟妇乱子伦牲交| 咕卡用的链子| 亚洲精品自拍成人| 丝瓜视频免费看黄片| av网站在线播放免费| 一二三四社区在线视频社区8| 欧美乱码精品一区二区三区| 最新的欧美精品一区二区| 日韩制服丝袜自拍偷拍| 黑人猛操日本美女一级片| av有码第一页| 777久久人妻少妇嫩草av网站| 观看av在线不卡| 天天影视国产精品| 日本av手机在线免费观看| 91麻豆av在线| www.999成人在线观看| 婷婷色综合www| 欧美日韩成人在线一区二区| 男女午夜视频在线观看| 久久国产精品人妻蜜桃| 你懂的网址亚洲精品在线观看| 亚洲成人免费电影在线观看 | 午夜免费男女啪啪视频观看| 亚洲国产欧美网| 亚洲黑人精品在线| 天天躁夜夜躁狠狠躁躁| 国产成人啪精品午夜网站| 五月开心婷婷网| 老司机在亚洲福利影院| 少妇人妻 视频| 两个人免费观看高清视频| 男男h啪啪无遮挡| 日韩av不卡免费在线播放| 欧美+亚洲+日韩+国产| 日韩av免费高清视频| www.av在线官网国产| 国产精品久久久久久精品电影小说| 99香蕉大伊视频| 国产精品香港三级国产av潘金莲 | 男女之事视频高清在线观看 | 免费看十八禁软件| 十八禁高潮呻吟视频| 中国国产av一级| 国产熟女欧美一区二区| 妹子高潮喷水视频| 婷婷丁香在线五月| 九草在线视频观看| 九色亚洲精品在线播放| 菩萨蛮人人尽说江南好唐韦庄| 亚洲视频免费观看视频| 一本综合久久免费| 午夜av观看不卡| 精品国产一区二区三区四区第35| 中文字幕av电影在线播放| 电影成人av| 亚洲伊人色综图| 久久热在线av| 欧美xxⅹ黑人| 中文字幕制服av| 美女扒开内裤让男人捅视频| 色94色欧美一区二区| 秋霞在线观看毛片| 18禁裸乳无遮挡动漫免费视频| 亚洲成av片中文字幕在线观看| 国产精品熟女久久久久浪| 中文字幕人妻熟女乱码| 成人午夜精彩视频在线观看| 咕卡用的链子| 亚洲熟女精品中文字幕| 亚洲精品久久成人aⅴ小说| 亚洲成人手机| 久久精品亚洲av国产电影网| 日韩视频在线欧美| 男男h啪啪无遮挡| 国产成人影院久久av| videos熟女内射| 亚洲欧美日韩高清在线视频 | 少妇裸体淫交视频免费看高清 | h视频一区二区三区| 91精品国产国语对白视频| 日韩av在线免费看完整版不卡| 99久久人妻综合| 久久综合国产亚洲精品| 国产成人精品久久二区二区91| 亚洲 国产 在线| 久久影院123| 男女之事视频高清在线观看 | 成人手机av| 男女无遮挡免费网站观看| 亚洲av片天天在线观看| 欧美精品一区二区免费开放| 日本欧美视频一区| 高清不卡的av网站| 最新的欧美精品一区二区| 国产精品久久久av美女十八| 少妇猛男粗大的猛烈进出视频| 日韩大码丰满熟妇| av在线老鸭窝| 真人做人爱边吃奶动态| 一区二区三区精品91| 午夜影院在线不卡| 久久 成人 亚洲| 亚洲精品自拍成人| 午夜影院在线不卡| 亚洲中文日韩欧美视频| 国产色视频综合| 一区二区日韩欧美中文字幕| 一本久久精品| 操出白浆在线播放| 欧美激情 高清一区二区三区| 久久久久网色| 99热网站在线观看| 欧美日本中文国产一区发布| 亚洲五月色婷婷综合| 777米奇影视久久| 亚洲av日韩精品久久久久久密 |