摘 要:年齡、偽裝等復(fù)合因素影響下,命案積案中嫌疑人的相貌、發(fā)型等體貌特征變化具有明顯的不確定性。針對上述問題,提出雙重風(fēng)格遷移生成對抗網(wǎng)絡(luò)(dual style transfer generative adversarial network,DstGAN)對人像發(fā)型變化進(jìn)行模擬。首先,設(shè)計(jì)了雙重StyleGAN生成器,借助人像年齡化模型,將人像年齡化信息與發(fā)型變化相結(jié)合,提高客觀因素影響下發(fā)型模擬結(jié)果的真實(shí)度。其次,引入BiSeNET算法對輸入人像及其目標(biāo)發(fā)型進(jìn)行語義分割后得到目標(biāo)人像語義圖,并在FS潛在空間中利用交叉熵?fù)p失函數(shù)約束GAN逆映射生成的語義圖,與模擬后的語義圖實(shí)現(xiàn)語義對齊,避免出現(xiàn)非自然融合現(xiàn)象。最后,為進(jìn)一步擴(kuò)充發(fā)型變化種類,通過在RM潛在空間中對發(fā)型向量進(jìn)行編輯,修改輸入人像發(fā)型所包含的語義屬性,實(shí)現(xiàn)對于光頭等特殊發(fā)型的模擬。DstGAN與一些經(jīng)典發(fā)型變化模型相比,更加有效地保證了人臉身份特征的一致性,更加平滑地實(shí)現(xiàn)發(fā)型與面部邊緣的過渡。同時(shí)DstGAN在PSNR、SSIM等指標(biāo)評價(jià)的結(jié)果中,相比于經(jīng)典發(fā)型變化模型,均取得最為優(yōu)異的客觀評分,表明DstGAN模擬發(fā)型變化的人像清晰度更高、感知質(zhì)量更優(yōu)、皮膚紋理更真實(shí)。
關(guān)鍵詞:命案積案;發(fā)型變化;風(fēng)格遷移;BiSeNET算法;語義編輯
中圖分類號:TP391.9"" 文獻(xiàn)標(biāo)志碼:A"" 文章編號:1001-3695(2025)03-041-0955-06
doi:10.19734/j.issn.1001-3695.2024.04.0215
Deep simulation of suspect hairstyles under influence of multiple factors
Liu Yaohui1,Sun Peng1,2,Lang Yubo1,Shen Zhe3,Sun Deting4,Song Qiang5
(1.Public Security Information Technology amp; Information,Criminal Investigation Police University of China,Shenyang 110854,China;2.Key Laboratory of Forensic Expertise,Judiciary,Shanghai 200063,China;3.Civil Aviation College,Shenyang Aerospace University,Shen-yang 110135,China;4.Criminal Investigation Detachment,Dalian Public Security Bureau,DalianLiaoning 116000,China;5.Video Detection Lab,Liaoning Provincial Public Security Dept.,Shenyang 110032,China)
Abstract:
The age,disguise,and other combined factors significantly affect the uncertainty of the appearance,hairstyle,and other physical characteristics of suspects in unsolved murder cases.To address this problem,this paper proposed a dual style transfer generative adversarial network(DstGAN)to simulate changes in human facial hairstyles.Firstly,it designed a dual StyleGAN generator,leveraging a facial aging model to combine aging information with hairstyle changes,thereby enhancing the realism of simulated hairstyles under the influence of objective factors.Secondly,it introduced the BiSeNET algorithm to perform semantic segmentation on the input image and its target hairstyle,obtaining a semantic map of the target image.In the FS latent space,it employed the cross-entropy loss function to constrain the semantic map generated by the GAN inverse mapping to align with the simulated semantic map,preventing unnatural fusion.Finally,to further expand the types of hairstyle changes,it edited the hairstyle vector in the RM latent space by modifying the semantic attributes contained in the input hairstyle,achieving the simulation of special hairstyles such as bald heads.Compared to some classical hairstyle change models,DstGAN more effectively ensured the consistency of facial identity features and achieved a smoother transition between the hairstyle and facial edges.Additionally,DstGAN achieves the most outstanding objective scores in PSNR,SSIM,and other indicator evaluations compared to classical hairstyle change models,indicating that DstGAN produces simulated images with higher image clarity,better perceptual quality,and more realistic skin textures.
Key words:homicide cases accumulated;hairstyle changes;style transfer;BiSeNET algorithm;semantic editing
0 引言
命案積案因其對個(gè)體生命權(quán)的嚴(yán)重侵害以及對社會秩序造成的深遠(yuǎn)影響而備受關(guān)注。此類案件通常具有案發(fā)時(shí)間長、嫌疑人反偵查意識強(qiáng)等特點(diǎn),
嫌疑人體貌特征變化具有明顯的不確定性和突然性,對視頻偵查工作提出了巨大挑戰(zhàn)[1]。模擬嫌疑人體貌特征變化可以幫助偵查人員更直觀地鎖定目標(biāo),從而確定其逃逸軌跡。
發(fā)型作為一類常見的體貌特征,容易受到年齡變化、偽裝遮擋等因素的影響而產(chǎn)生較大的變化,誤導(dǎo)刑事偵查工作的方向。圖1為嫌疑人實(shí)際案件中發(fā)型變化對比。經(jīng)過文獻(xiàn)整理發(fā)現(xiàn),現(xiàn)階段發(fā)型變化模擬研究工作主要分為兩個(gè)方向。一是對發(fā)型建模的研究,包含幾何建模、物理建模和圖像建模。楊杰凱[2]通過Kinect為頭發(fā)輪廓獲取提供了新途徑,但其應(yīng)用受限于環(huán)境光照和拍攝條件。Chai等人[3]通過交互式標(biāo)注實(shí)現(xiàn)了3D頭發(fā)模型的構(gòu)建,但未能模擬頭發(fā)的物理生長過程。Echevarria等人[4]保留了原始人像圖像中豐富的顏色和幾何信息,但模擬結(jié)果僅呈現(xiàn)了發(fā)型的表層特征,真實(shí)感不強(qiáng)。Ding等人[5]通過螺旋線匹配技術(shù),實(shí)現(xiàn)了更為精細(xì)的發(fā)絲級模型構(gòu)建,但難以表現(xiàn)頭發(fā)的物理生長狀態(tài)。在上述研究基礎(chǔ)上,Chai等人[6]嘗試引入深度學(xué)習(xí)技術(shù)進(jìn)行自動(dòng)發(fā)型建模,提升了建模效率,但該方法的模型質(zhì)量受限于訓(xùn)練樣本的分布。二是基于生成對抗網(wǎng)絡(luò)(GAN)外貌合成技術(shù)的研究。Tan等人[7]將修復(fù)網(wǎng)絡(luò)與條件化的SPADE模塊相結(jié)合進(jìn)行目標(biāo)人像頭發(fā)的模擬繪制,雖然獲得了較好的仿真結(jié)果,但因其對于預(yù)練網(wǎng)絡(luò)的過度依賴可能導(dǎo)致圖像中的偽影和不自然邊界問題。Shen等人[8]提出了在StyleGAN潛在空間中訓(xùn)練男性頭發(fā)分離邊界的方法,盡管為去除頭發(fā)提供了新的方向,但可能會引起面部身份特征的顯著偏差。Saha等人[9]通過將頭發(fā)屬性分解,并且在潛在空間中優(yōu)化缺失的頭發(fā)結(jié)構(gòu)細(xì)節(jié),但仍未能充分利用潛在空間捕捉和保留圖像中的特定細(xì)節(jié),例如痣或皺紋。Wu等人[10]通過在StyleGAN的潛在空間中分解預(yù)訓(xùn)練權(quán)重或在新的通道級糾纏風(fēng)格參數(shù)空間中工作,發(fā)現(xiàn)了潛在語義路徑,但在處理長發(fā)女性肖像時(shí)可能會產(chǎn)生明顯的偽影。Abdal等人[11]通過條件連續(xù)正規(guī)化流對StyleGAN生成的圖像進(jìn)行屬性條件探索,實(shí)現(xiàn)了連續(xù)的全局老化過程,并通過編輯性別屬性為生成不同性別潛在編碼提供了新方法,但可能導(dǎo)致頭部尺寸變小并改變面部身份。
上述方法在發(fā)型變化模擬任務(wù)中取得了一定效果,但仍存在一些共性問題。目前發(fā)型變化模擬模型過多關(guān)注于發(fā)型模擬的相似性,而忽略了人像面部身份特征的一致性保留,以及輸入人像與目標(biāo)發(fā)型之間的自然融合度。同時(shí)現(xiàn)有模型并未充分考慮發(fā)型變化往往受主客觀因素影響,其中客觀因素所帶來的影響通常因面部年齡特征與發(fā)型變化的不匹配,導(dǎo)致模擬結(jié)果缺乏真實(shí)感。
在第二類方法基礎(chǔ)之上,本文提出一種方法用于模擬犯罪嫌疑人因年齡、偽裝等因素影響下的發(fā)型變化,主要貢獻(xiàn)如下:
a)提出了雙重風(fēng)格遷移生成對抗網(wǎng)DstGAN,引入人像年齡化模型,實(shí)現(xiàn)年齡化信息的嵌入及發(fā)型變化的模擬,解決受客觀因素影響下發(fā)型模擬結(jié)果出現(xiàn)的人像真實(shí)度不足的問題。
b)引入了BiSeNET對輸入人像和目標(biāo)發(fā)型分別進(jìn)行語義分割,并且在FS潛在空間完成語義在空間中區(qū)分并訓(xùn)練具有不同發(fā)型特征的潛碼,建立了分離邊界,實(shí)現(xiàn)對頭發(fā)長度等屬性的語義編輯,填補(bǔ)部分發(fā)型無法通過語義分割生成掩碼的不足,擴(kuò)充發(fā)型變化種類。
1 方法介紹
1.1 總體框架
DstGAN框架如圖2所示,通過對大量案例中出現(xiàn)的嫌疑人發(fā)型變化的分析,將變化的因素分為兩個(gè)方面:一方面為客觀因素引起的發(fā)型變化,另一方面為嫌疑人主觀因素引起的發(fā)型變化??陀^因素引起的發(fā)型變化是指由于時(shí)間、環(huán)境等其他外部因素導(dǎo)致的,嫌疑人在發(fā)量、顏色等屬性方面的改變,但由該因素造成的變化往往忽略其面部特征隨時(shí)間而發(fā)生的改變,導(dǎo)致模擬出的發(fā)型變化人像缺乏真實(shí)感,難以應(yīng)用于實(shí)際工作之中;主觀因素引起的發(fā)型變化是指出于個(gè)人意愿或目的而故意改變自身發(fā)型,通過剪發(fā)、燙發(fā)、戴假發(fā)或其他可以改變外觀的發(fā)型設(shè)計(jì)來掩飾身份、混淆偵查方向。
首先,對采集到的人像進(jìn)行對齊、調(diào)整分辨率、圖像清晰化等預(yù)處理操作,以確保輸入人像符合模型的輸入規(guī)范。其次,對于案發(fā)時(shí)間距今較為久遠(yuǎn)案件中的嫌疑人,利用MIIGAN網(wǎng)絡(luò)[12,13]對其輸入人像進(jìn)行年齡變化模擬。最后,根據(jù)使用者的具體需求,決定是否執(zhí)行頭發(fā)的去除操作。在FS潛在空間中,主要對輸入人像進(jìn)行特征提取、特征融合、語義對齊等操作;在RM潛在空間中,主要通過訓(xùn)練發(fā)型分離邊界,修改發(fā)型所包含的語義屬性并且通過潛碼擴(kuò)散的過程,實(shí)現(xiàn)輸入人像面部特征與目標(biāo)發(fā)型的融合。
1.2 發(fā)型變化方法
1.2.1 基于BiSeNET算法的發(fā)型變化方法
基于BiSeNET算法的發(fā)型變化方法是以StyleGAN2作為生成器,通過將輸入人像與目標(biāo)發(fā)型的語義掩碼相疊加,在保持人像面部信息一致的同時(shí),模擬發(fā)型的變化[14]。將輸入人像嵌入生成器潛在空間的方法借鑒了II2S算法[15]中提出的新標(biāo)準(zhǔn)化空間PN來解決潛在變量之間的依賴關(guān)系,采用了一種容量更大的潛在空間表示——FS空間。在這個(gè)空間中,原始的W+潛在編碼中的前m個(gè)風(fēng)格塊被替換為一個(gè)新的結(jié)構(gòu)張量F,這個(gè)張量負(fù)責(zé)編碼發(fā)型的結(jié)構(gòu)信息,如發(fā)型的形狀和布局。而W+潛在編碼的其余部分則轉(zhuǎn)變成外觀代碼S,它負(fù)責(zé)控制發(fā)型的外觀屬性,如顏色和紋理細(xì)節(jié),綜上,F(xiàn)S空間實(shí)現(xiàn)了對發(fā)型特征位置的精細(xì)控制,使得潛碼在潛在空間中進(jìn)行合成時(shí),避免了因噪聲嵌入導(dǎo)致的過擬合現(xiàn)象,以及在下游編輯和合成時(shí)所帶來的圖像偽影,同時(shí)也極大程度上保證了人像基本身份信息不隨訓(xùn)練過程而發(fā)生改變。
對于輸入人像語義掩碼的獲取,利用BiSeNET語義分割算法[16]對參考圖像Ia進(jìn)行分割。圖3為Ia的語義分割圖,分割過程可以表示為
1.3 人像年齡化模擬方法
本文通過multi-domain image-to-image generative adversarial network(MIIGAN)來模擬輸入人像的年齡變化。通過重建數(shù)據(jù)集并調(diào)整訓(xùn)練參數(shù),構(gòu)建了一個(gè)更為符合中國人像面部特征的年齡變化模擬網(wǎng)絡(luò)模型,可以生成與輸入人像目標(biāo)年齡更為接近的模擬人像。MIIGAN的網(wǎng)絡(luò)結(jié)構(gòu)由條件生成器、年齡編碼器以及判別器組成,其中條件生成器包括身份編碼器、年齡編碼生成器、映射網(wǎng)絡(luò)、解碼器等。生成器和判別器之間相互對抗,通過self-reconstruction loss、cycle loss、age vector loss和feature loss等損失函數(shù)約束,不斷優(yōu)化生成器和判別器的參數(shù),使模型最終達(dá)到納什均衡狀態(tài)。
2 仿真實(shí)驗(yàn)
2.1 實(shí)驗(yàn)細(xì)節(jié)
數(shù)據(jù)集:采用CelebAMask-HQ高分辨率人像數(shù)據(jù)集作為訓(xùn)練數(shù)據(jù),其中包含細(xì)粒度的掩碼標(biāo)簽。該數(shù)據(jù)集由超過30 000張512×512分辨率的人臉圖像組成,其中每張圖像都帶有19個(gè)人像各部位組件類別的語義掩碼。同時(shí)收集了7 000張亞洲人像數(shù)據(jù),從其中選取畫質(zhì)較為清晰的圖像作為訓(xùn)練數(shù)據(jù),其余部分作為測試集。
實(shí)驗(yàn)數(shù)據(jù)預(yù)處理:首先對收集到的人像數(shù)據(jù)進(jìn)行數(shù)據(jù)篩選,去除數(shù)據(jù)中過于模糊、人像面部出現(xiàn)明顯扭曲、拍攝信息不全等效果欠佳的數(shù)據(jù)。然后對篩選后保留的人像數(shù)據(jù)進(jìn)行裁剪,去除不必要的背景,根據(jù)Dlib庫中的目標(biāo)檢測器檢測出面部關(guān)鍵點(diǎn)對人像面部進(jìn)行角度校正,同時(shí)將所有人像數(shù)據(jù)調(diào)整為規(guī)定的分辨率,以便在神經(jīng)網(wǎng)絡(luò)中進(jìn)行統(tǒng)一處理。最后通過采取對比度增強(qiáng)、降噪、超分辨率處理等圖像增強(qiáng)處理方法,提高人像數(shù)據(jù)的清晰度[19]。
推理流程:a)需對原始人像進(jìn)行預(yù)處理操作,保證后續(xù)網(wǎng)絡(luò)的正常運(yùn)行;b)根據(jù)發(fā)型變化的影響因素,決定是否執(zhí)行年齡化模擬模型;c)將經(jīng)過上述處理的人像,按照目標(biāo)發(fā)型的種類不同,分別傳入FS或RM潛在空間,進(jìn)行信息解耦、發(fā)型變化等操作,最終通過生成器輸出發(fā)型變化的模擬結(jié)果[20]。
2.2 實(shí)驗(yàn)設(shè)置
2.2.1 實(shí)驗(yàn)環(huán)境
系統(tǒng)版本W(wǎng)indows 10;深度學(xué)習(xí)框架PyTorch 1.12.0;Python版本3.7;軟件環(huán)境為anaconda;處理器為Intel CoreTMi7-9750H CPU;GPU為NVIDIA GeForce GTX 1660 Ti。
2.2.2 超參數(shù)設(shè)置
實(shí)驗(yàn)采用了批量訓(xùn)練方法,將所搜集建立的數(shù)據(jù)集劃分為多個(gè)batch進(jìn)行實(shí)驗(yàn),batch size因電腦顯存有限,故設(shè)定為1~3,訓(xùn)練周期為800輪次。實(shí)驗(yàn)使用了Adam優(yōu)化器[21]設(shè)置β1=0,β2=0.999,同時(shí)應(yīng)用了非飽和的對抗性損失[22]與r1正則化[23]。實(shí)驗(yàn)初期,將初始學(xué)習(xí)率設(shè)置為10-5,并且在第50和100個(gè)訓(xùn)練輪次后開始衰減。將映射網(wǎng)絡(luò)的學(xué)習(xí)率降低為原來的1%,并且對生成器的權(quán)值采用了指數(shù)移動(dòng)平均的方法。
2.3 實(shí)驗(yàn)分析
2.3.1 結(jié)果分析
圖5是由DstGAN模型生成的模擬人像變化效果圖。(b)~(d)是嫌疑人主觀因素影響下的發(fā)型變化,依次為佩戴假發(fā)、佩戴不同顏色的假發(fā)、光頭偽裝;(e)是只對面部特征進(jìn)行增齡的人像,(f)(g)是客觀因素影響下的發(fā)型變化,分別為增齡后人像發(fā)型模擬、增齡后光頭發(fā)型模擬;(h)(i)展示了將主、客觀因素影響相結(jié)合生成的人像結(jié)果。
根據(jù)圖5所示的實(shí)驗(yàn)結(jié)果可以看出,DstGAN模型對發(fā)型進(jìn)行變化的過程中,維持了面部膚色、紋理、形態(tài)、輪廓等特征不受發(fā)型干擾,避免了可能產(chǎn)生的畸變現(xiàn)象。此外,模型能夠平滑地實(shí)現(xiàn)發(fā)型與面部特征的融合,未產(chǎn)生非自然融合現(xiàn)象,人像無明顯噪聲、斑塊以及模糊,顯著提升了人像的視覺觀感。本文方法能夠使年齡變化模擬人像的特征屬性與變化后的發(fā)型相匹配,從而增強(qiáng)了年齡預(yù)測、人像特征推斷以及圖像重建的準(zhǔn)確性與精細(xì)度。
2.3.2 消融實(shí)驗(yàn)
為驗(yàn)證DstGAN模塊的有效性,將所提方法分為發(fā)型變化模塊(hairstyle change)以及年齡變化模塊(MIIGAN)進(jìn)行比對。針對客觀時(shí)間因素引起的發(fā)型變化設(shè)計(jì)了消融實(shí)驗(yàn)比對,不同模塊的實(shí)驗(yàn)效果如圖6所示。由于在年齡結(jié)合發(fā)型變化領(lǐng)域的定量評價(jià)指標(biāo)較少,所以提出了一種新的定量評估方法。該定量評估方法由兩部分構(gòu)成:第一部分是對于消融結(jié)果進(jìn)行年齡評估,衡量人像老齡化的效果;第二部分是對于消融結(jié)果進(jìn)行老齡化發(fā)型評估。
年齡定量評估:通過調(diào)用騰訊云中人臉屬性判別系統(tǒng)API,獲取消融結(jié)果的年齡信息,結(jié)果如表1所示,通過大量消融數(shù)據(jù)得到的年齡頻率分布如圖7所示。
老齡化發(fā)型評估:為了驗(yàn)證老齡化發(fā)型變化的效果,通過添加掩膜以及調(diào)整人像色階范圍,降低人像面部特征在運(yùn)算過程中造成的影響,經(jīng)該過程處理后的人像如圖8所示。將處理后的人像采用局部二值法(LBP)提取發(fā)型特征,并利用歐氏距離計(jì)算兩個(gè)LBP特征圖像之間的距離,從而比較兩幅圖像中發(fā)型的差異,包括紋理差異、發(fā)際差異等,原始人像發(fā)型與老齡化發(fā)型之間的平均LBP歐氏距離,如表1所示。
局部二值法提取特征計(jì)算為
LBPIn(xc,yc)=∑p-1p=02ps(ip-ic)
(12)
其中:In表示不同模塊經(jīng)過掩膜、色階調(diào)整后的人像;n代表Origin、MIIGAN、Hairstyle Change三種不同類別結(jié)果;(xc,yc)代表鄰域的中心元素,它的像素值為ic、ip鄰域內(nèi)其他像素的值;s(ip-ic)是符號函數(shù),定義公式為
s(ip-ic)=1(ip-ic)≥00(ip-ic)≤0
(13)
對于不同模塊的消融特征圖歐氏距離的計(jì)算公式為
d=∑ni=1(Ixin1-Iyin2)2
(14)
其中:Ixin1和Iyin2分別是兩種模塊人像的第i個(gè)元素。
2.3.3 實(shí)驗(yàn)對比
將本文方法與當(dāng)前最新公開代碼的主流發(fā)型變化模型Design Your Hair by Text and Reference Image(HairCLIP)[24]和Latent Optimization for Pose-Invariant Hairstyle Transfer via Local-Style-Aware Hair Alignment(S-Y-Hair)[25]分別對基于主、客觀因素影響引起的人像發(fā)型進(jìn)行模擬,將模擬結(jié)果進(jìn)行比較,通過定性和定量對比實(shí)驗(yàn)以驗(yàn)證本文方法的有效性,模擬結(jié)果均來自原作者提供的官方實(shí)現(xiàn)模型。HairCLIP、S-Y-Hair與DstGAN的結(jié)果比對展示如圖9所示。
1)定性分析 由圖9可見,雖然HairCLIP能夠生成高分辨率圖像,在發(fā)型紋理和處理面部、發(fā)型過渡等方面具有足夠真實(shí)、柔滑的模擬結(jié)果,但與DstGAN相比,它缺乏對于人像面部個(gè)性特征以及身份特征的保留,很難保證人像身份的一致性。DstGAN相比于S-Y-Hair模型能夠有效地實(shí)現(xiàn)發(fā)型與人像面部間的平滑融合,在發(fā)型和面部的過渡區(qū)域不會出現(xiàn)明顯的棱角、鋸齒現(xiàn)象;在宏觀特征上,可以準(zhǔn)確模擬人像的頭部輪廓,與原始人像頭部保持高度一致。
2)定量分析 本文采用峰值信噪比(PSNR)、結(jié)構(gòu)相似性(SSIM)、平均感知圖像質(zhì)量指數(shù)(LPIPSI)、平均誤差(MAE)三種指標(biāo),對不同發(fā)型變化模型所模擬出的結(jié)果進(jìn)行相似度評估。由表2可以看出,在PSNR、LPIPS指標(biāo)上,本文方法優(yōu)于MichiGAN、HairCLIP、LOHO、S-Y-Hair四種發(fā)型變化模型,表明DstGAN在最大化信號與噪聲比方面表現(xiàn)更佳,生成的圖像具有更高清晰度,在感知質(zhì)量上更接近于輸入人像;在SSIM指標(biāo)上取得的分?jǐn)?shù)遠(yuǎn)高于其他三種方法,在保持人像結(jié)構(gòu)和紋理方面更為出色;MAE指標(biāo)表明DstGAN在圖像細(xì)節(jié)重建上更為精確。
3 結(jié)束語
本文所提出的雙重風(fēng)格遷移生成對抗網(wǎng)絡(luò)有效地解決了由于客觀和主觀因素導(dǎo)致的發(fā)型變化模擬問題。通過結(jié)果分析、比對,證明了本文方法能夠模擬生成種類豐富、真實(shí)自然的發(fā)型。該方法不僅為偵查人員提供了一種新的技術(shù)手段,而且為相關(guān)領(lǐng)域的研究提供了新的視角和技術(shù)支持,有助于提高命案積案的偵破率,并為維護(hù)社會治安和公共安全作出貢獻(xiàn)。
未來的工作將進(jìn)一步優(yōu)化模型性能,探索更多與實(shí)際偵查需求相結(jié)合的應(yīng)用場景,并考慮在更復(fù)雜或更龐大數(shù)據(jù)集上的應(yīng)用。此外,研究將關(guān)注于提高模型的泛化能力,以及在現(xiàn)實(shí)世界問題中的有效性和魯棒性。
參考文獻(xiàn):
[1]張思晗.智慧偵查時(shí)代命案積案偵查僵局的突破路徑研究[J].刑事司法科學(xué)與治理,2022,3(2):102-108.(Zhang Sihan.Research on breakthrough path of homicide investigation deadlock in the era of intelligent investigation[J].Journal of Criminal Justice Science and Governance,2022,3(2):102-108.)
[2]楊杰凱.基于深度圖的頭發(fā)建模[D].天津:天津大學(xué),2013.(Yang Jiekai.Hair modeling based on depth map[D].Tianjin:Tianjin University,2013.)
[3]Chai Menglei,Wang Luedi,Weng Yanlin,et al.Dynamic hair manipulation in images and videos[J].ACM Trans on Graphics,2013,32(4):75.1-75.8.
[4]Echevarria J I,Bradley D,Gutierrez D,et al.Capturing and stylizing hair for 3D fabrication[J].ACM Trans on Graphics,2014,33(4):1-11.
[5]Ding Zhipeng,Bao Yongtang,Qi Yue,et al.Single-view hair modeling based on orientation and helix fitting[C]//Proc of International Conference on Virtual Reality and Visualization.Piscataway,NJ:IEEE Press,2016:286-291.
[6]Chai Menglei,Shao Tianjia,Wu Hongzhi,et al.Auto hair:fully automatic hair modeling from a single image[J].ACM Trans on Graphi-cs,2016,35(4):116.1-116.12.
[7]Tan Zhentao,Chai Menglei,Chen Dongdong,et al.MichiGAN:multi-input-conditioned hair image generation for portrait editing[EB/OL].(2020-10-30).https://arxiv.org/abs/2010.16417.
[8]Shen Yujun,Gu Jinjin,Tang Xiaoou,et al.Interpreting the latent space of GANs for semantic face editing[C]//Proc of IEEE Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:9240-9249.
[9]Saha R,Duke B,Shkurti F,et al.Loho:latent optimization of hairstyles via orthogonalization[C]//Proc of IEEE/CVF Conference on Compu-ter Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:1984-1993.
[10]Wu Zongze,Lischinski D,Shechtman E.Stylespace analysis:disentangled controls for StyleGAN image generation[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:12858-12867.
[11]Abdal R,Zhu Peihao,Mitra N J,et al.StyleFlow:attribute-conditioned exploration of StyleGAN-generated images using conditional continuous normalizing flows[J].ACM Trans on Graphics,2021,40(3):1-21.
[12]Karras T,Laine S,Aila T.A style-based generator architecture for gene-rative adversarial networks[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:4401-4410.
[13]Or-El R,Sengupta S,F(xiàn)ried O,et al.Lifespan age transformation synthesis[C]//Proc of the 16th European Conference on Computer Vision.Cham:Springer,2020:739-755.
[14]Zhu Peihao,Abdal R,F(xiàn)emiani J,et al.Barbershop:GAN-based image compositing using segmentation masks[EB/OL].(2021-10-16).http://doi.org/10.1145/3478513.3480537.
[15]Zhu Peihao,Abdal R,Qin Yipeng,et al.Improved StyleGAN embedding:where are the good latents?[EB/OL].(2021-10-15).https://arxiv.org/abs/2012.09036.
[16]Yu Changqian,Wang Jingbo,Peng Chao,et al.BiSeNet:bilateral segmentation network for real-time semantic segmentation[C]//Proc of European Conference on Computer Vision.Cham:Springer,2018:325-341.
[17]Wu Yiqian,Yang Yongliang,Jin Xiaogang.HairMapper:removing hair from portraits using GANs[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:4217-4226.
[18]Lee C H,Liu Ziwei,Wu Lingyun,et al.MaskGAN:towards diverse and interactive facial image manipulation[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:5548-5557.
[19]陳秋雨,蘆天亮.改進(jìn)人臉特征矯正網(wǎng)絡(luò)的遮擋人臉識別方法[J].計(jì)算機(jī)應(yīng)用研究,2023,40(5):1535-1541.(Chen Qiuyu,Lu Tianliang.Improved face feature rectification network for occluded face recognition[J].Application Research of Computers,2023,40(5):1535-1541.)
[20]周毅巖,石亮,張遨,等.基于解糾纏表示學(xué)習(xí)的人臉反欺騙算法[J].計(jì)算機(jī)應(yīng)用研究,2024,41(8):2502-2507.(Zhou Yiyan,Shi Liang,Zhang Ao,et al.Face anti-spoofing algorithm based on disentangled representation learning[J].Application Research of Computers,2024,41(8):2502-2507.)
[21]Kingma D P,Ba J.Adam:a method for stochastic optimization[EB/OL].(2017-01-30).https://arxiv.org/abs/1412.6980.
[22]Goodfellow I,Pouget-Abadie J,Mirza M,et al.Generative adversarial nets[C]//Proc of the 27th International Conference on Neural Information Processing Systems.Cambridge,MA:MIT Press,2014:2672-2680.
[23]Mescheder L,Geiger A,Nowozin S.Which training methods for GANs do actually converge?[C]//Proc of International Conference on Machine Learning.[S.l.]:PMLR,2018:3481-3490.
[24]Wei Tianyi,Chen Dongdong,Zhou Wenbo,et al.Hairclip:design your hair by text and reference image[C]//Proc of I
EEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:18051-18060.
[25]Kim T,Chung C,Kim Y,et al.Style your hair:latent optimization for pose-invariant hairstyle transfer via local-style-aware hair alignment[C]//Proc of European Conference on Computer Vision.Cham:Springer,2022:188-203.