摘 要:針對(duì)現(xiàn)階段由素描頭像生成的彩色頭像圖像清晰度低、人臉識(shí)別率不高和視覺(jué)質(zhì)量不佳等問(wèn)題,提出一種改進(jìn)CycleGAN 的素描頭像彩色化算法:對(duì)U-Net 自編碼器的第一個(gè)特征提取模塊進(jìn)行優(yōu)化,設(shè)計(jì)一種多尺度自注意力機(jī)制特征提取模塊,從多個(gè)尺度提取輸入圖像以減少輸入圖像的細(xì)節(jié)信息丟失,將提取的特征用通道堆疊的方式進(jìn)行特征融合,對(duì)融合的特征嵌入SENet 自注意力機(jī)制,以引導(dǎo)模型對(duì)特征重點(diǎn)區(qū)域的關(guān)注度,最后再降低融合特征的通道維數(shù);對(duì)生成頭像與真實(shí)頭像添加L1像素?fù)p失和感知損失,以進(jìn)一步提升生成頭像的質(zhì)量. 實(shí)驗(yàn)結(jié)果表明:較基礎(chǔ)模型CycleGAN 生成的彩色頭像,在CUHK 數(shù)據(jù)集FID 值降低了22.23、Rank-1 值提高了16%,在AR 數(shù)據(jù)集FID 值降低了15.34、Rank-1 值提高了9.3%.
關(guān)鍵詞:CycleGAN;多尺度特征提??;SENet;監(jiān)督學(xué)習(xí);L1像素?fù)p失;感知損失
中圖分類號(hào):TP391.41
DOI: 10.19504/j.cnki.issn1671-5365.2024.06.04
隨著經(jīng)濟(jì)社會(huì)的飛速發(fā)展,人們?cè)絹?lái)越重視公共安全. 當(dāng)前常用的生物識(shí)別特征有人臉、指紋、DNA 和聲音等,人臉相較于其它生物特征具有更直觀、更容易獲取等突出特點(diǎn),被廣泛應(yīng)用在公共安全領(lǐng)域. 素描頭像在刑事偵查領(lǐng)域有著廣泛應(yīng)用,但素描頭像主要體現(xiàn)人臉的邊緣信息和輪廓信息,與真實(shí)人臉差異較大. 因此,將素描頭像轉(zhuǎn)換成彩色頭像,能更好地協(xié)助警方初步鎖定犯罪嫌疑人身份.
素描頭像的彩色化是人臉頭像合成的一個(gè)分支. 人臉頭像的合成主要有兩種方法: 傳統(tǒng)的合成方法和深度學(xué)習(xí)的方法. (1)傳統(tǒng)的合成方法有基于數(shù)據(jù)驅(qū)動(dòng)的方法和基于模型驅(qū)動(dòng)的方法. 基于數(shù)據(jù)驅(qū)動(dòng)的方法主要有基于子空間學(xué)習(xí)的局部線性嵌入(Locally Linear Embeding, LLE)法[1]和基于馬爾可夫隨機(jī)場(chǎng)(Markov Random Field, MRF)法[2]. 數(shù)據(jù)驅(qū)動(dòng)的方法合成的人臉頭像,一些重要的人臉特征(如眼鏡)可能會(huì)缺失在合成的人臉頭像中[3],且合成的人臉頭像也較模糊. 基于模型驅(qū)動(dòng)的方法,如Chang 等人提出的基于貝葉斯學(xué)習(xí)的方法[4],它能學(xué)到彩色頭像與素描頭像轉(zhuǎn)換的映射關(guān)系,但合成的素描頭像在某些地方會(huì)丟失素描風(fēng)格. (2)深度學(xué)習(xí)的方法有基于卷積神經(jīng)網(wǎng)絡(luò)的方法和基于生成對(duì)抗網(wǎng)絡(luò)(Generating Adversarial Networks, GAN)[5]的方法. Zhang 等人[6]提出了一種由6 個(gè)卷積層組成的神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)實(shí)現(xiàn)了彩色頭像到素描頭像端到端的非線性映射,但合成的素描頭像出現(xiàn)了模糊和失真. 自GAN 的概念被提出以后,越來(lái)越多的生成對(duì)抗模型不斷涌現(xiàn)出來(lái),極大地促進(jìn)了圖像跨域轉(zhuǎn)換的發(fā)展. Isola 等人[7]提出了Pix2Pix,通過(guò)分割的語(yǔ)義標(biāo)簽或圖像的邊緣完成圖像的轉(zhuǎn)換,轉(zhuǎn)換圖像的質(zhì)量得到了顯著提升,但該模型需要配對(duì)的圖像進(jìn)行訓(xùn)練,模型的使用場(chǎng)合受到了限制. Zhu 等人[8]提出了CycleGAN,該模型包含兩個(gè)生成對(duì)抗網(wǎng)絡(luò)的循環(huán)重建,相較于其它模型而言能更好地保持輸入圖像的結(jié)構(gòu),由于它是無(wú)監(jiān)督學(xué)習(xí)的模型,因此無(wú)需配對(duì)的數(shù)據(jù)集就可以完成圖像的跨域轉(zhuǎn)換.Anoosheh 等人[9]提出了ComboGAN,其生成器由多個(gè)編碼器和多個(gè)解碼器組成,域編碼器將輸入圖像映射到公共空間,域解碼器將映射到共空間的特征向量解碼實(shí)現(xiàn)圖像的跨域轉(zhuǎn)換. Heusel 等人[10]提出了BicycleGAN,該模型可以通過(guò)一次訓(xùn)練實(shí)現(xiàn)向多個(gè)域轉(zhuǎn)換的效果.
就素描頭像的彩色化任務(wù)而言,轉(zhuǎn)換前后頭像的結(jié)構(gòu)基本保持一致,故本文選用CycleGAN 作為基礎(chǔ)模型. 然而,CycleGAN 的生成器在對(duì)輸入圖像進(jìn)行特征提取時(shí)采取單一尺度的卷積核,無(wú)法充分提取輸入圖像的細(xì)節(jié)信息,故本文提出了一種多尺度自注意力機(jī)制特征提取模塊. 此外,彩色頭像含有豐富的細(xì)節(jié)、紋理和色彩等信息,本文將Cycle?GAN 轉(zhuǎn)為監(jiān)督學(xué)習(xí)模型,通過(guò)添加L1 像素?fù)p失和感知損失來(lái)約束生成頭像和真實(shí)頭像的相似度,從而引導(dǎo)模型生成更加真實(shí)的彩色頭像.
1 本文方法
1.1 模型的整體網(wǎng)絡(luò)框架
模型的整體網(wǎng)絡(luò)框架見(jiàn)圖1. 為便于描述,用X表示真實(shí)的彩色頭像組成的集合,設(shè)真實(shí)的彩色頭像滿足的分布為P (x );用Y 表示真實(shí)的素描頭像組成的集合,設(shè)真實(shí)的素描頭像滿足的分布為Q (y ).生成器G 將彩色頭像xi 轉(zhuǎn)換為素描頭像yi_fake,生成器F 在將轉(zhuǎn)化的素描頭像yi_fake 轉(zhuǎn)為循環(huán)的彩色頭像rec_xi. 生成器F 將素描頭像yi 轉(zhuǎn)換為彩色頭像xi_fake,生成器G 在將轉(zhuǎn)化的彩色頭像xi_fake 轉(zhuǎn)為循環(huán)的素描頭像rec_yi. 鑒別器DY 鑒別真實(shí)的彩色頭像和轉(zhuǎn)換的彩色頭像xi_fake,鑒別器DX 鑒別真實(shí)的素描頭像和轉(zhuǎn)換的素描頭像yi_fake.
1.2 U?Net 生成器優(yōu)化
U?Net 生成器[11]由編碼器、解碼器和跳層連接三部分組成. 編碼器與解碼器之間的跳層連接,能使生成頭像更好地保留輸入頭像的結(jié)構(gòu)信息[12].U?Net 生成器在對(duì)輸入圖像進(jìn)行特征提取時(shí)采取單一尺度的卷積核,無(wú)法充分地提取輸入圖像的細(xì)節(jié)信息. 為此,本文對(duì)U?Net 生成器的第一個(gè)特征提取模塊進(jìn)行了優(yōu)化設(shè)計(jì),設(shè)計(jì)了一種多尺度自注意力機(jī)制特征提取模塊. 優(yōu)化后的U?Net 生成器的網(wǎng)絡(luò)結(jié)構(gòu)如圖2 所示.
多尺度自注意力機(jī)制特征提取模塊的網(wǎng)絡(luò)結(jié)構(gòu)如圖3 所示,該模塊有3 個(gè)特征提取分支,自下向上分別為第一特征提取分支、第二特征提取分支和第三特征提取分支. 輸入頭像經(jīng)三個(gè)特征提取后,再采用通道連接的方式進(jìn)行特征融合,為提高模型對(duì)融合后特征重點(diǎn)區(qū)域的關(guān)注度嵌入自注意力機(jī)制(Squeeze-and-Excitation Networks, SENet)[13],最后再降低特征的通道維數(shù).
1.3 鑒別器結(jié)構(gòu)
鑒別器采用PatchGAN[7]的鑒別器,整個(gè)網(wǎng)絡(luò)由5 個(gè)卷積層組成,第1 個(gè)卷積層由卷積和LeakRelu 激活函數(shù)組成,中間的3 個(gè)卷積層都是由卷積、批量歸一化(BatchNorm)和LeakRelu 激活函數(shù)組成,最后一個(gè)卷積層由一個(gè)卷積組成. 輸入圖像被映射為一個(gè)30×30 的矩陣,矩陣中的每個(gè)數(shù)值對(duì)應(yīng)輸入圖像中某一區(qū)域?yàn)檎鎸?shí)圖像的概率.
普通GAN 的鑒別器將輸入圖像映射成一個(gè)值,該值是對(duì)整幅圖像進(jìn)行評(píng)價(jià). 相較而言,PatchGAN的鑒別器能更好地對(duì)生成圖像的細(xì)節(jié)信息進(jìn)行約束,從而提高生成圖像的質(zhì)量.
1.4 損失函數(shù)
(1)生成頭像與真實(shí)頭像的L1 像素?fù)p失
由于L1 距離約束能使模型生成更加清晰的圖像[7],為提高生成頭像的質(zhì)量,對(duì)生成頭像與真實(shí)頭像添加了L1 像素?fù)p失,L1 像素?fù)p失的計(jì)算式為:
Lxy = λxyExi ~ P (x)||G(x "i ) - yi|| 1 (1)
Lyx = λyx Eyi ~ Q (y )||F (y "i ) - xi ||1 (2)
式中λxy 和λyx 為權(quán)重系數(shù).
(2)生成頭像與真實(shí)頭像感知損失. 雖然添加L1像素?fù)p失可以改善生成圖像的質(zhì)量,但不能很好地對(duì)生成頭像的細(xì)節(jié)、紋理和色彩等信息進(jìn)行約束. 為此,對(duì)生成頭像與真實(shí)頭像添加感知損失. 本文采用在ImageNet 數(shù)據(jù)集[10]上預(yù)訓(xùn)練好的VGG-19[14]網(wǎng)絡(luò)作為特征提取網(wǎng)絡(luò),輸出特征提取網(wǎng)絡(luò)的relu1_1、relu2_1、relu3_1、relu4_1、relu5_1 層提取的特征,?1 () 表示relu1_1 輸出的特征,?2 () 表示relu2_1 輸出的特征,以此類推. 生成頭像與真實(shí)頭像的感知損失為:
式中λsx 和λsy 為權(quán)重系數(shù).
(3)生成對(duì)抗損失. 采用最小二乘損失作為GAN 的對(duì)抗損失能使模型的訓(xùn)練過(guò)程更加穩(wěn)定[15],因此,模型的生成對(duì)抗損失為:
Lc_GAN (G,F(xiàn),D )= LGAN (G,DY,X,Y ) + LGAN (F,DX,Y,X )= Exi ~ P (x )[ log (D )] Y (xi )+Eyi ~ Q (x )[ log (1 - D )] Y (F (yi ))+Eyi ~ Q(x )[ log (D )] X (yi )+Exi ~P ( x )[log (1 -DX (G( xi )))] (5)
(4)循環(huán)一致性損失. 輸入頭像與循環(huán)頭像應(yīng)盡可能一致. 因此,循環(huán)一致性損失為:
Lcyc = λcyc Eyi ~ Q (x )||G(F (y "i )) - yi|| 1 (6)
Lcxc = λcxc Exi ~ P (x )||F (G(x "i )) - xi ||1 (7)
式中λcyc 和λcxc 為權(quán)重系數(shù).
(5)本體映射損失. 對(duì)于真實(shí)的彩色頭像xi,通過(guò)生成器F 轉(zhuǎn)換后應(yīng)與xi 盡可能一致. 同理,對(duì)于真實(shí)的素描頭像yi,通過(guò)生成器G 轉(zhuǎn)換后也應(yīng)與yi 盡可能一致. 因此,本體映射損失為:
Lyc = λyc Eyi ~ Q (x )||G(y"i ) - yi ||1 (8)
Lxc = λxc Exi ~ P (x )||F (x "i ) - xi ||1 (9)
式中λyc 和λxc 為權(quán)重系數(shù).
(6)總損失函數(shù). 綜上,模型的總損失函數(shù)為:
Ltotal = Lc_GAN + Lcyc + Lcxc + Lyx + Lxy+Lyc + Lxc + Lsx + Lsy (10)
2 實(shí)驗(yàn)設(shè)置、結(jié)果與分析
為驗(yàn)證素描頭像彩色化任務(wù)的有效性,將本文模型與Pix2Pix、CycleGAN、BicycleGAN 和Combo?GAN 模型進(jìn)行了對(duì)比實(shí)驗(yàn).
2.1 數(shù)據(jù)集介紹
本文選取CUHK 數(shù)據(jù)集和AR 數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)驗(yàn)證. CUHK 數(shù)據(jù)集總共有188 對(duì)素描頭像,訓(xùn)練集有88 對(duì)素描頭像,測(cè)試集有100 對(duì)素描頭像. AR 數(shù)據(jù)集總共有123 對(duì)素描頭像,訓(xùn)練集有80 對(duì)素描頭像,實(shí)驗(yàn)時(shí)將以上圖像裁剪后調(diào)整到256×256.
2.2 實(shí)驗(yàn)設(shè)置
(1)實(shí)驗(yàn)環(huán)境. 實(shí)驗(yàn)在Windows 10 的環(huán)境下進(jìn)行,CPU 為Intel?Core? i7-4770,GPU 為NVIDIAGeForce RTX 3060(顯存12 GB),采用pytorch 的框架進(jìn)行實(shí)驗(yàn).
(2)實(shí)驗(yàn)參數(shù). 兩個(gè)數(shù)據(jù)集訓(xùn)練時(shí),批大小均設(shè)置為1,均迭代200 輪,在前100 輪時(shí)學(xué)習(xí)率均設(shè)置為0.0002,在后100 輪學(xué)習(xí)率從0.0002 線性衰減到0. 在CUHK 數(shù)據(jù)集訓(xùn)練時(shí)損失函數(shù)中的參數(shù)取值為:λcyc和λcxc 均為5,λyc 和λxc 均為0.5,λxy 和λyx 為1,λsx 和λsy均為0.2. 在AR 數(shù)據(jù)集訓(xùn)練時(shí)損失函數(shù)中的參數(shù)取值為:λcyc 和λcxc 均為5,λyc 和λxc 均為0.5,λxy 和λyx 均為1,λsx 和λsy 均為0.5.
2.3 實(shí)驗(yàn)結(jié)果評(píng)估
(1)定性實(shí)驗(yàn)評(píng)估. 各模型在CUHK 數(shù)據(jù)集和AR 數(shù)據(jù)集生成的彩色頭像見(jiàn)圖4,圖中上面兩行為各模型在CUHK 數(shù)據(jù)集生成的彩色頭像,下面兩行為各模型在AR 數(shù)據(jù)集生成的彩色頭像. 由圖4 可知,本文模型生成的彩色頭像與真實(shí)的彩色圖像更相似、視覺(jué)質(zhì)量更佳.
(2)定量實(shí)驗(yàn)評(píng)估. FID(Fréchet Inception Dis?tance)[16]用于評(píng)估生成圖像和真實(shí)圖像相似度,其值越小表明生成圖像與真實(shí)圖像越相似. Rank-k[17]是人臉識(shí)別的一個(gè)評(píng)價(jià)指標(biāo),表示在人臉庫(kù)中與輸入人臉最相似前k 張人臉圖像中找到正確人臉的概率. 設(shè)素描頭像和真實(shí)的彩色頭像均為m 張,且素描頭像和真實(shí)的彩色頭像一一對(duì)應(yīng),真實(shí)的彩色頭像組成人臉庫(kù);對(duì)于每張輸入素描頭像,采用Dlib[18]庫(kù)中的人臉識(shí)別模型提取輸入圖像與人臉庫(kù)中的圖像,進(jìn)而得到每張圖像的特征向量;然后比對(duì)輸入圖像的特征向量與人臉庫(kù)中每張圖像的特征向量,得到與人臉庫(kù)中每張圖像的相似度;若與輸入圖像最相似的前k 個(gè)人臉中,找到與之對(duì)應(yīng)的真實(shí)的彩色頭像則yik 記為1,否則yik 記為0,則Rank?k 值計(jì)算如下:
各模型將CUHK 測(cè)試集中的素描頭像和AR 測(cè)試集中的素描頭像,轉(zhuǎn)換成彩色頭像的性能指標(biāo)分別見(jiàn)表1 和表2. 由表1 和表2 可知,本文模型轉(zhuǎn)換的彩色人臉頭像的FID 值最小,Rank-1、Rank-3 和Rank-5 的值均最大,即本文模型轉(zhuǎn)換的彩色頭像與真實(shí)的彩色頭像更相似、人臉識(shí)別率更優(yōu).
各模型將CUHK 測(cè)試集中的素描頭像轉(zhuǎn)換為彩色頭像的人臉識(shí)別率和素描頭像的人臉識(shí)別率見(jiàn)圖5,將AR 測(cè)試集中的素描頭像轉(zhuǎn)換為彩色頭像的人臉識(shí)別率和素描頭像的人臉識(shí)別率見(jiàn)圖6. 由圖5和圖6 可知,本文模型轉(zhuǎn)換的彩色頭像的人臉識(shí)別率曲線位于其它模型的上方,進(jìn)一步說(shuō)明本文模型轉(zhuǎn)換的彩色頭像的人臉識(shí)別率更優(yōu).
2.4 消融實(shí)驗(yàn)
為探索多尺度自注意力機(jī)制特征提取模塊、L1像素?fù)p失和感知損失對(duì)素描頭像彩色化任務(wù)的有效性,在CUHK 數(shù)據(jù)集上做了消融實(shí)驗(yàn). 基礎(chǔ)組為CycleGAN,第一組為對(duì)U?Net 生成器的第一個(gè)特征提取模塊進(jìn)行了優(yōu)化設(shè)計(jì),即采取了多尺度自注意力機(jī)制特征提取模塊提取輸入圖像,第二組為在第一組的基礎(chǔ)上添加L1 像素?fù)p失,第三組為在第二組的基礎(chǔ)上添加感知損失. 各對(duì)照組將CUHK 測(cè)試集中的素描頭像轉(zhuǎn)換為彩色頭像的性能指標(biāo)見(jiàn)表3.由表3 可知,多尺度自注意力機(jī)制特征提取模塊可以降低彩色頭像的FID 值,且能提高彩色頭像的人臉識(shí)別率,L1 像素?fù)p失雖然使彩色頭像的FID 值有輕微增大,但人臉識(shí)別率有明顯提高;感知損失可以降低彩色頭像的FID 值和提高彩色頭像的人臉識(shí)別率.
3 結(jié)語(yǔ)
本文提出了一種素描頭像彩色化算法首先,設(shè)計(jì)一種多尺度自注意力機(jī)制特征提取模塊,實(shí)現(xiàn)對(duì)輸入圖像多尺度特征提取,同時(shí)通過(guò)添加SENet 注意力機(jī)制的方式來(lái)提高模型對(duì)感興趣區(qū)域的關(guān)注度然后,添加生成頭像與真實(shí)頭像L1 像素?fù)p失和感知損失,以提高轉(zhuǎn)換頭像的質(zhì)量實(shí)驗(yàn)結(jié)果表明:本文模型轉(zhuǎn)換的彩色頭像較其它模型轉(zhuǎn)換的彩色頭像,視覺(jué)質(zhì)量更佳、與真實(shí)的彩色頭像更相似和人臉識(shí)別率也更優(yōu).
參考文獻(xiàn):
[1] LIU Q, TANG X, JIN H, et al. A nonlinear approach forface sketch synthesis and recognition[C]//IEEE ComputerSociety Conference on Computer Vision and Pattern Recog?nition. San Diego: IEEE, 2005. doi:10.1109/CVPR.2005.39.
[2] WANG X, TANG X. Face photo-sketch synthesis and rec?ognition[J]. IEEE Transactions on Pattern Analysis and MachineIntelligence, 2008, 31(11): 1955-1967. doi: 10.1109/TPAMI.2008.222.
[3] 孫銳,孫琦景,單曉全,等. 基于多殘差動(dòng)態(tài)融合生成對(duì)抗網(wǎng)絡(luò)的人臉?biāo)孛?照片合成方法[J]. 模式識(shí)別與人工智能,2022,35(3):207-222.
[4] CHANG L, ZHOU M, DENG X, et al. Face sketch synthe?sis via multivariate output regression[C]//JACKO J A.Human-Computer Interaction. Berlin Heidelberg: Springer,2011: 555-561. doi:10.1007/978-3-642-21602-2_60.
[5] GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, etal. Generative adversarial nets[C]//Proceedings of the 27th In?ternational Conference on Neural Information Processing Sys?tems. Cambridge: MIT Press, 2014: 2672-2680.
[6] ZHANG D, LIN L, CHEN T, et al. Content-adaptivesketch portrait generation by decompositional representationlearning[J]. IEEE Transactions on Image Processing, 2017, 26(1): 328-339. doi:10.1109/TIP.2016.2623485.
[7] ISOLA P, ZHU J Y, ZHOU T, et al. Image-to-image trans?lation with conditional adversarial networks[C]//IEEE Con?ference on Computer Vision and Pattern Recognition. Hono?lulu: IEEE, 2017: 5967-5976. doi:10.1109/CVPR.2017.632.
[8] ZHU J Y, PARK T, ISOLA P, et al. Unpaired image-toimagetranslation using cycle-consistent adversarial networks[C]//IEEE International Conference on Computer Vision.Venice: IEEE, 2017: 2242-2251. doi: 10.1109/ICCV.2017.244.
[9] ANOOSHEH A, AGUSTSSON E, TIMOFTE R, et al.ComboGAN: Unrestrained scalability for image domain trans?lation[C]//IEEE Conference on Computer Vision and Pat?tern Recognition Workshops. Salt Lake City: IEEE, 2018:896-8967. doi:10.1109/CVPRW.2018.00122.
[10] HEUSEL M, RAMSAUER H, UNTERTHINER T, et al.GANs trained by a two time-scale update rule converge to alocal nash equilibrium[C]//Advances in Neural InformationProcessing Systems. Red Hook: Curran Associates Inc., 2017:6629-6640. doi:10.48550/arXiv.1706.08500.
[11] RONNEBERGER O, FISCHER P, BROX T. U-net:Convolutional networks for biomedical image segmentation[C]//Medical Image Computing and Computer-Assisted In?tervention. Munich: Springer, 2015: 234-241. doi: 10.1007/978-3-319-24574-4_28.
[12] 陳金龍,劉雄飛,詹曙. 基于無(wú)監(jiān)督生成對(duì)抗網(wǎng)絡(luò)的人臉?biāo)孛鑸D像真實(shí)化[J]. 計(jì)算機(jī)工程與科學(xué),2021,43(1): 125-133.
[13] Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]//IEEE/CVF Conference on Computer Vision and PatternRecognition. Salt Lake City: IEEE, 2018: 7132-7141. doi:10.1109/CVPR.2018.00745.
[14] SIMONYAN K, ZISSERMAN A. Very deep convolutionalnetworks for large-scale image recognition[J]. 2014-09-04.arXiv:1409.1556.
[15] MAO X, LI Q, XIE H, et al. Least squares generative adver?sarial networks[C]//IEEE International Conference on Com?puter Vision. Venice: IEEE, 2017: 2813-2821. doi: 10.1109/ICCV.2017.304.
[16] CRESWELL A, WHITE T, DUMOULIN V, et al. Generativeadversarial networks: An overview[J]. IEEE Signal ProcessingMagazine, 2018, 35(1): 53-65.doi:10.1109/MSP.2017.2765202.
[17] FANG H, COSTEN N. From rank-n to rank-1 face recog?nition based on motion similarity[C]//British Machine VisionConference. London: 2009: 1-11. https://www.researchgate.net/publication/221259929_From_Rank-N_to_Rank-1_Face_Recognition_Based_on_Motion_Similarity.
[18] KING D E. Dlib-ml: A machine learning toolkit[J]. TheJournal of Machine Learning Research, 2009(10): 1755-1758. https://dl.acm.org/citation.cfm?id=1755843.
【編校:王露】
基金項(xiàng)目:四川省科技廳項(xiàng)目“基于慢性帕金森病獼猴模型的運(yùn)動(dòng)皮層神經(jīng)元編碼規(guī)律研究”(2022YFSY0056)