尹夢(mèng)濤 楊亞璞
摘要:針對(duì)跨庫(kù)微表情識(shí)別中因訓(xùn)練和測(cè)試樣本特征分布不一致而造成的識(shí)別效果不理想的問(wèn)題,提出一種基于域內(nèi)不變特征和域間不變特征(Intra-domain and Inter-domain Invariant Features,IIDIF) 整合的跨庫(kù)微表情識(shí)別的領(lǐng)域泛化方法。IIDIF使用知識(shí)蒸餾框架獲取傅里葉相位信息作為域內(nèi)不變特征,通過(guò)對(duì)齊源域特征之間的二階統(tǒng)計(jì)量作為域間不變特征,同時(shí)設(shè)計(jì)一個(gè)不變特征損失將域內(nèi)不變特征和域間不變特征整合為領(lǐng)域不變特征。在三個(gè)廣泛使用的微表情數(shù)據(jù)集CASMEⅡ、MMEW以及SMIC上的實(shí)驗(yàn)表明,IIDIF方法的平均準(zhǔn)確率為55.37%,優(yōu)于現(xiàn)有主流的領(lǐng)域自適應(yīng)和領(lǐng)域泛化方法,驗(yàn)證了所提出的IIDIF方法在跨庫(kù)微表情識(shí)別任務(wù)上的優(yōu)越性。
關(guān)鍵詞:跨庫(kù)微表情識(shí)別;域內(nèi)不變特征;域間不變特征;領(lǐng)域泛化
中圖分類號(hào):TP391? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1009-3044(2024)09-0027-05
開放科學(xué)(資源服務(wù))標(biāo)識(shí)碼(OSID)
0 引言
微表情是人們?cè)噲D隱藏內(nèi)心真實(shí)情緒時(shí)所產(chǎn)生的一種自發(fā)式面部表情,通常持續(xù)時(shí)間只有0.04~0.2 s,且變化強(qiáng)度很低[1]。微表情可以準(zhǔn)確反映人們真實(shí)的心理狀態(tài)和情緒,無(wú)法偽造也不能抑制,在商務(wù)談判、刑偵和心理疾病治療等領(lǐng)域上具有廣泛的應(yīng)用前景[2]。
近些年來(lái),研究人員在微表情識(shí)別任務(wù)上提出了許多有效的方法,如能有效提取微表情外觀特征的三個(gè)正交平面的局部二值模式(LBP-TOP)[3];能準(zhǔn)確計(jì)算面部細(xì)微動(dòng)作變化特征,并通過(guò)時(shí)空信息進(jìn)行微表情識(shí)別的光流法[4]等。最近,隨著深度學(xué)習(xí)的發(fā)展及其在面部表情識(shí)別[5]上的成功應(yīng)用,深度學(xué)習(xí)方法也被應(yīng)用于微表情識(shí)別任務(wù)[6]。如用于捕獲微表情序列細(xì)微時(shí)空變化的時(shí)空卷積遞歸網(wǎng)絡(luò)(STRCN)[7]等。
雖然微表情識(shí)別研究已經(jīng)取得了顯著的進(jìn)展,但現(xiàn)有大多數(shù)微表情識(shí)別方法的訓(xùn)練和測(cè)試樣本都來(lái)自遵循相同特征分布的同一個(gè)數(shù)據(jù)集,而在許多實(shí)際應(yīng)用中,用于訓(xùn)練和測(cè)試的微表情樣本可能來(lái)自不同的數(shù)據(jù)集。不同數(shù)據(jù)集的種族、性別、攝像設(shè)備等會(huì)有所不同,這破壞了訓(xùn)練和測(cè)試樣本之間的特征分布一致性。在這種情況下,上述微表情識(shí)別方法的性能可能會(huì)急劇下降。因此,一部分研究人員開始關(guān)注訓(xùn)練和測(cè)試樣本來(lái)自不同數(shù)據(jù)集的跨庫(kù)微表情識(shí)別這一具有挑戰(zhàn)性的課題。目前,研究人員大多采用領(lǐng)域自適應(yīng)方法解決訓(xùn)練集(源域)和測(cè)試集(目標(biāo)域)特征分布不一致的問(wèn)題。領(lǐng)域自適應(yīng)方法是遷移學(xué)習(xí)方法[8]的一種,嘗試?yán)迷从蛑胸S富的標(biāo)記樣本信息,通過(guò)減少數(shù)據(jù)集之間的特征偏差來(lái)促進(jìn)對(duì)目標(biāo)域的學(xué)習(xí)。
然而,領(lǐng)域自適應(yīng)方法依賴一個(gè)強(qiáng)有力的假設(shè),即目標(biāo)域數(shù)據(jù)可用于模型適應(yīng),這在實(shí)際場(chǎng)景中并不總是成立。在許多應(yīng)用中,目標(biāo)數(shù)據(jù)在部署模型之前很難獲得,甚至是未知。對(duì)此,一部分研究者嘗試使用領(lǐng)域泛化方法解決此問(wèn)題。領(lǐng)域泛化方法的一個(gè)顯著特點(diǎn)是在訓(xùn)練過(guò)程中,目標(biāo)域是未知的。具體來(lái)說(shuō),領(lǐng)域泛化的目標(biāo)是利用來(lái)自單個(gè)或多個(gè)相關(guān)但不同的源域數(shù)據(jù)進(jìn)行模型訓(xùn)練,使模型能夠很好地推廣到任何未知的目標(biāo)域[9]。自2011年研究者們開始探索領(lǐng)域泛化以來(lái),已經(jīng)提出大量的方法來(lái)解決此問(wèn)題,包括增加數(shù)據(jù)多樣性的數(shù)據(jù)增強(qiáng)[10]、通過(guò)模擬多個(gè)任務(wù)來(lái)學(xué)習(xí)一般可轉(zhuǎn)移知識(shí)的元學(xué)習(xí)等[11]。領(lǐng)域不變特征學(xué)習(xí)[12]也是一種主流的領(lǐng)域泛化方法,旨在從不同領(lǐng)域中學(xué)習(xí)領(lǐng)域不變的特征表示或者對(duì)特征進(jìn)行解耦以獲取更有意義的泛化特征,從而有利于跨域泛化。
領(lǐng)域泛化方法雖然更有利于模型的實(shí)際應(yīng)用,但它比領(lǐng)域自適應(yīng)方法更難以實(shí)現(xiàn),目前與跨庫(kù)微表情識(shí)別相關(guān)的領(lǐng)域泛化方法研究工作相對(duì)較少。為了更好地利用領(lǐng)域泛化技術(shù)解決跨庫(kù)微表情識(shí)別存在的問(wèn)題,本文提出了一種基于域內(nèi)和域間不變特征的跨庫(kù)微表情識(shí)別方法(Intra-domain and Inter-domain Invariant Features,IIDIF) 。本文將域內(nèi)和域間兩種不變特征整合為領(lǐng)域不變特征進(jìn)行模型訓(xùn)練。對(duì)于域內(nèi)不變特征,IIDIF通過(guò)知識(shí)蒸餾框架捕獲對(duì)數(shù)據(jù)進(jìn)行傅里葉變換之后的高級(jí)內(nèi)在語(yǔ)義,對(duì)于域間不變特征,IIDIF利用相關(guān)性比對(duì)來(lái)對(duì)齊源域的特征分布,同時(shí)設(shè)計(jì)增加了一個(gè)發(fā)散損失函數(shù)來(lái)最大化發(fā)散兩種不變特征之間的距離,以保證使更多不同的域內(nèi)和域間不變特征參與模型訓(xùn)練。最后通過(guò)實(shí)驗(yàn)驗(yàn)證了該方法的有效性。
1 IIDIF模型及方法
為了提高僅利用微表情源域樣本訓(xùn)練出的模型在未知微表情目標(biāo)域上的識(shí)別性能,本文從領(lǐng)域泛化的角度出發(fā),設(shè)計(jì)了基于域內(nèi)和域間不變特征的跨庫(kù)微表情識(shí)別算法,跨庫(kù)微表情識(shí)別流程圖如圖1所示。
在模型訓(xùn)練階段,首先對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)處理,然后利用特征提取器分別提取域內(nèi)不變特征和域間不變特征,并在最大化兩種不變特征之間的距離后,將其整合為領(lǐng)域不變特征進(jìn)行分類。
1.1 域內(nèi)不變特征提取
信號(hào)由振幅信息和相位信息兩部分組成。在信號(hào)的傅里葉譜中,相位分量保留了原始信號(hào)中的大部分高級(jí)語(yǔ)義,而振幅分量主要包含低級(jí)統(tǒng)計(jì)信息。相位信息的重要性如圖2所示。
在圖2中,對(duì)圖片a和b進(jìn)行離散傅里葉變換。對(duì)于單通道尺寸大小為M×N的圖像數(shù)據(jù)[x],其傅里葉變換[Fx]為:
[Fxu,v=m=0M-1n=0N-1xm,ne-j2πmMu+nNv] (1)
式中:[u]和[v]為頻率變量,[Fx]振幅分量和相位分量可以分別表示為:
[Axu,v=R2xu,v+I2xu,v12] (2)
[Pxu,v=arctanIxu,vRxu,v] (3)
其中,[Rx]和[Ix]分別表示[Fx]的實(shí)部和虛部。
通過(guò)上式可以得到a和b相應(yīng)的幅值信息[Aa]、[Ab]和相位信息[Pa]、[Pb],保持幅值信息不變,交換兩幅圖的相位信息,最后對(duì)重新組合的圖像信息進(jìn)行離散傅里葉逆變換,得到兩幅新的圖像a*和b*。從結(jié)果中可以看出,a*與b相似,b*與a相似,從而說(shuō)明傅里葉相位包含更多原來(lái)圖像的信息。
傅里葉相位信息作為一種領(lǐng)域不變特征已經(jīng)引起許多研究者的關(guān)注。例如,Xu等人[13]提出了一種基于傅里葉變換的領(lǐng)域泛化框架,利用傅里葉相位特征不易受域變化影響的特點(diǎn),從頻譜相位分量中學(xué)習(xí)更多信息以幫助模型獲得域內(nèi)不變的特征。
本文利用知識(shí)蒸餾框架獲取域內(nèi)不變的傅里葉相位特征信息。知識(shí)蒸餾(Knowledge Distillation,KD) 是一種鼓勵(lì)在不同網(wǎng)絡(luò)中包含特定特征的教師—學(xué)生訓(xùn)練框架。域內(nèi)不變的傅里葉相位特征蒸餾框架如圖3所示。
將輸入教師網(wǎng)絡(luò)數(shù)據(jù)[x]的傅里葉相位表示為[x],使用[x,y]訓(xùn)練教師網(wǎng)絡(luò)后,在教師網(wǎng)絡(luò)訓(xùn)練完成之后,使用特征知識(shí)蒸餾來(lái)引導(dǎo)學(xué)生網(wǎng)絡(luò)學(xué)習(xí)傅里葉相位信息。經(jīng)過(guò)蒸餾引導(dǎo)后,學(xué)生網(wǎng)絡(luò)參數(shù)[ws]可以表示為:
[ws=argminwx,yL1fx;w,y+L2FeaSx,F(xiàn)eaTx] (4)
式中:[L1?,?]為神經(jīng)網(wǎng)絡(luò)中常用的交叉熵?fù)p失函數(shù),[f?;w]為學(xué)生網(wǎng)絡(luò),[w]為學(xué)生網(wǎng)絡(luò)中的參數(shù),[FeaS]和[FeaT]分別為學(xué)生網(wǎng)絡(luò)和教師網(wǎng)絡(luò)的特征提取器,[L2]為使學(xué)生網(wǎng)絡(luò)特征接近教師網(wǎng)絡(luò)特征的均方誤差損失函數(shù)。
1.2 域間不變特征提取
僅使用傅里葉相位特征可能不足以獲得足夠的分類判別特征。因此,本文利用多個(gè)訓(xùn)練域中包含的跨域知識(shí)來(lái)探索域間不變特征。具體來(lái)說(shuō),給定兩個(gè)域[Si]和[Sj],對(duì)它們的二階統(tǒng)計(jì)量(協(xié)方差)進(jìn)行對(duì)齊,域間對(duì)齊損失函數(shù)[L3]為:
[L3=14d2Ci-Cj2F] (5)
式中:[?2F]為平方矩陣Frobenius范數(shù),[Ci]和[Cj]分別為[Si]和[Sj]的協(xié)方差矩陣。針對(duì)本文跨庫(kù)微表情識(shí)別任務(wù)只有單個(gè)源域的情況,通過(guò)使用隨機(jī)參數(shù)在源域上進(jìn)行采樣,得到與源域具有不同特征分布的隨機(jī)域,之后將源域與隨機(jī)域進(jìn)行域?qū)R訓(xùn)練以獲取域間不變特征。
1.3 領(lǐng)域不變特征整合
由于域內(nèi)不變特征和域間不變特征之間可能存在重復(fù)和冗余,為了能盡可能利用更多不同的不變特征,定義一個(gè)發(fā)散損失函數(shù)[L4],通過(guò)利用L2距離函數(shù)最大化發(fā)散域內(nèi)不變特征[z1]和域間不變特征[z2]之間的距離,以提取更多有利于泛化的不變特征,發(fā)散損失函數(shù)[L4]公式表示為:
[L4z1,z2=-z1-z222] (6)
匯合公式(4) ,(5) ,(6) ,可以得到IIDIF完整的優(yōu)化目標(biāo):
[ws=argminwx,yL1fx;w,y+λ1L2FeaSx,F(xiàn)eaTx+λ2L3+λ3L4z1,z2] (7)
式中:[λ1]、[λ2]、[λ3]分別為域內(nèi)不變特征學(xué)習(xí)、域間不變特征學(xué)習(xí)以及發(fā)散損失函數(shù)的超參數(shù),模型通過(guò)調(diào)整平衡超參數(shù)以獲得更好的分類性能。
2 實(shí)驗(yàn)結(jié)果與分析
2.1 數(shù)據(jù)集預(yù)處理
本文在三個(gè)公開的微表情數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),分別是CASMEⅡ數(shù)據(jù)集[14]、MMEW數(shù)據(jù)集[15]以及SMIC數(shù)據(jù)集[16]。由于不同微表情數(shù)據(jù)集之間的情緒類別不統(tǒng)一,為了更好地進(jìn)行泛化實(shí)驗(yàn),需要對(duì)微表情數(shù)據(jù)集的情緒類別進(jìn)行重新標(biāo)注??紤]到3種微表情數(shù)據(jù)集的情緒類別和實(shí)驗(yàn)設(shè)置的合理性,本文對(duì)實(shí)驗(yàn)涉及的3個(gè)微表情數(shù)據(jù)集進(jìn)行以下重新組織和標(biāo)注:
1) 對(duì)于CASMEⅡ數(shù)據(jù)集,舍棄類別為“其他”的情緒樣本,將“厭惡”“壓抑”“悲傷”“恐懼”樣本標(biāo)記為“消極”,將“快樂(lè)”樣本標(biāo)記為“積極”,“驚訝”樣本的標(biāo)簽保持不變。
2) 對(duì)于MMEW數(shù)據(jù)集,舍棄類別為“其他”以及數(shù)量較少的“憤怒”情緒樣本,將“悲傷”“厭惡”和“恐懼”樣本標(biāo)簽標(biāo)記為“消極”,將“快樂(lè)”樣本標(biāo)記為“積極”,“驚訝”樣本的標(biāo)簽保持不變。
3) 對(duì)于SMIC數(shù)據(jù)集,保持原有的“消極”“積極”以及“驚訝”情緒樣本類別不變。
重新標(biāo)注和排序后,每個(gè)數(shù)據(jù)集中的樣本數(shù)量如表1所示。
由于微表情數(shù)據(jù)集的樣本數(shù)量較少,不足以支撐模型訓(xùn)練,因此需要對(duì)數(shù)據(jù)樣本進(jìn)行擴(kuò)增以增加實(shí)驗(yàn)的可靠性。為避免丟失特征細(xì)節(jié),僅對(duì)微表情序列的起始幀和頂點(diǎn)幀圖片采用旋轉(zhuǎn)和鏡像翻轉(zhuǎn)這兩種方法進(jìn)行擴(kuò)增。由于微表情數(shù)據(jù)集中不同情緒類別的數(shù)量相差過(guò)大,為避免因樣本類別不均衡而造成的實(shí)驗(yàn)性能下降,對(duì)樣本數(shù)量較少的類別,將其頂點(diǎn)幀前一幀或者后一幀圖像同樣視作樣本頂點(diǎn)幀,以實(shí)現(xiàn)大致平衡不同類別樣本數(shù)量的目的。經(jīng)過(guò)擴(kuò)增之后的微表情數(shù)據(jù)集的樣本數(shù)量信息如表2所示。
2.2? 跨庫(kù)微表情實(shí)驗(yàn)設(shè)置
本文實(shí)驗(yàn)基于CentOS Linux release 7.6.1810(CORE) 操作系統(tǒng)進(jìn)行,CPU為Intel(R) Xeon(R) Gold 6226R、GPU為NVIDIA GeForce RTX 3090,實(shí)驗(yàn)環(huán)境為Python 3.8和CUDA 11.0,深度學(xué)習(xí)框架為PyTorch 1.7.0。
實(shí)驗(yàn)選取三個(gè)微表情數(shù)據(jù)集中的任意2個(gè)分別作為源域和目標(biāo)域進(jìn)行跨庫(kù)微表情識(shí)別實(shí)驗(yàn),共有6種組合,實(shí)驗(yàn)方案如表3所示。
其中:C為CASMEⅡ數(shù)據(jù)集,S為SMIC數(shù)據(jù)集,M為MMEW數(shù)據(jù)集,“→”兩邊的字母分別為源域和目標(biāo)域。
2.3 消融實(shí)驗(yàn)
2.3.1 模型結(jié)構(gòu)消融實(shí)驗(yàn)
本文研究基于領(lǐng)域不變特征的跨庫(kù)微表情識(shí)別,領(lǐng)域不變特征包括域內(nèi)不變特征和域間不變特征。為了驗(yàn)證這兩種不變特征以及加入不變特征損失函數(shù)后對(duì)模型性能的提升效果,以M→C跨庫(kù)微表情識(shí)別任務(wù)為例,設(shè)計(jì)了如下消融實(shí)驗(yàn),消融實(shí)驗(yàn)結(jié)果如表4所示,其中“√”表示添加本文模型的相應(yīng)部分,“—”表示沒有添加本文模型的相應(yīng)部分。
從表4的結(jié)果可以看出,同時(shí)使用域內(nèi)和域間兩種不變特征的模型識(shí)別準(zhǔn)確率為57.94%,比僅使用域內(nèi)不變特征或者域間不變特征的模型識(shí)別準(zhǔn)確率分別提升了3.12%和1.02%。加入使兩種不變特征之間距離最大化的不變特征損失后,識(shí)別準(zhǔn)確率提升了0.93%??梢姡疚奶岢龅姆椒苡行嵘P驮诳鐜?kù)微表情識(shí)別上的泛化性能。
2.3.2 超參數(shù)消融實(shí)驗(yàn)
本文中,[λ1]、[λ2]、[λ3]分別是域內(nèi)不變特征、域間不變特征以及不變特征損失對(duì)應(yīng)的三個(gè)超參數(shù),超參數(shù)設(shè)置的不同會(huì)直接影響模型識(shí)別的性能。為了驗(yàn)證三個(gè)超參數(shù)對(duì)實(shí)驗(yàn)結(jié)果的影響,通過(guò)改變一個(gè)超參數(shù)并固定另外兩個(gè)超參數(shù)的方式設(shè)置消融實(shí)驗(yàn),三個(gè)超參數(shù)取值分別設(shè)置為0.01、0.1、1、10。M→S跨庫(kù)微表情識(shí)別任務(wù)超參數(shù)靈敏度實(shí)驗(yàn)結(jié)果如圖4所示。
從圖4中可以看出,當(dāng)超參數(shù)[λ1]=1、[λ2]=10、[λ3]=1時(shí),準(zhǔn)確率最高,泛化效果最好。
2.4 對(duì)比實(shí)驗(yàn)
為驗(yàn)證本文所提方法的有效性,分別選擇與主流的領(lǐng)域自適應(yīng)方法和領(lǐng)域泛化方法進(jìn)行比較。選取的領(lǐng)域自適應(yīng)方法有DDAN[17]、BNM[18]、BSAN[19]、BEDA[20],領(lǐng)域泛化方法有DANN[21]、Vrex[22]、ANDMask[23]、DDG[24]、DRM[25]。所有方法均選擇ResNet18為骨干網(wǎng)絡(luò),在CASMEⅡ、MMEW和SMIC三個(gè)數(shù)據(jù)集上的6種跨庫(kù)組合下評(píng)估性能。
觀察表5中不同方法在6組跨庫(kù)微表情實(shí)驗(yàn)任務(wù)中的結(jié)果可知,本文提出的方法在C→S、S→C、S→M以及M→S四種跨庫(kù)任務(wù)上達(dá)到最優(yōu)的效果,且在六組跨庫(kù)任務(wù)實(shí)驗(yàn)中的平均準(zhǔn)確率為55.37%。在與領(lǐng)域自適應(yīng)方法的結(jié)果比較中,本文所提方法的平均準(zhǔn)確率相較于DDAN、BNM、BSAN、BEDA分別提升了2.86%、3.37%、3.02%和1.41%。同時(shí)本文方法在跨庫(kù)微表情識(shí)別上的平均準(zhǔn)確率相較于其他主流的領(lǐng)域泛化方法也有了顯著的提升,平均準(zhǔn)確率相較于DANN、Vrex、ANDMask、DDG、DRM分別提升了4.83%、4.10%、2.93%、2.03%和1.47%。從實(shí)驗(yàn)結(jié)果上來(lái)看,本文方法相比于其他先進(jìn)算法性能提升較為明顯,可以有效提高跨庫(kù)微表情識(shí)別精度。
3 結(jié)論
本文從更有利于微表情識(shí)別模型的實(shí)際應(yīng)用角度出發(fā),提出一種基于領(lǐng)域不變特征的跨庫(kù)微表情識(shí)別的領(lǐng)域泛化方法。該方法整合了域內(nèi)和域間兩種不變特征,并利用L2函數(shù)最大化兩種不變特征之間的距離,以保證使用更多的不變特征信息參與模型訓(xùn)練。通過(guò)在3個(gè)微表情數(shù)據(jù)集的6組跨庫(kù)識(shí)別任務(wù)上的實(shí)驗(yàn)結(jié)果表明,該方法的性能明顯優(yōu)于其他領(lǐng)域泛化和領(lǐng)域自適應(yīng)方法。未來(lái)的研究可以考慮將更多類型的域內(nèi)不變特征和域間不變特征結(jié)合起來(lái),以達(dá)到更好的泛化性能。
參考文獻(xiàn):
[1] 于明,鐘元想,王巖.人臉微表情分析方法綜述[J].計(jì)算機(jī)工程,2023,49(2):1-14.
[2] 周偉航,肖正清,錢育蓉,等.微表情自動(dòng)分析方法研究綜述[J].計(jì)算機(jī)應(yīng)用研究,2022,39(7):1921-1932.
[3] PFISTER T,LI X B,ZHAO G Y,et al.Recognising spontaneous facial micro-expressions[C]//2011 International Conference on Computer Vision.November 6-13,2011.Barcelona,Spain.IEEE,2011:1449-1456.
[4] HAPPY S L,ROUTRAY A.Fuzzy histogram of optical flow orientations for micro-expression recognition[J].IEEE Transactions on Affective Computing,2019,10(3):394-406.
[5] 曾晴,曾小舟,申靜.基于多層卷積神經(jīng)網(wǎng)絡(luò)的人臉表情識(shí)別方法[J].電腦知識(shí)與技術(shù),2023,19(9):13-15.
[6] ZENG X M,ZHAO X C,ZHONG X Y,et al.A survey of micro-expression recognition methods based on LBP,optical flow and deep learning[J].Neural Processing Letters,2023,55(5):5995-6026.
[7] XIA Z Q,HONG X P,GAO X Y,et al.Spatiotemporal recurrent convolutional networks for recognizing spontaneous micro-expressions[J].IEEE Transactions on Multimedia,2020,22(3):626-640.
[8] 魏小明.基于遷移學(xué)習(xí)VGG-16的微表情識(shí)別[J].電腦知識(shí)與技術(shù),2023,19(1):31-34.
[9] WANG J D,LAN C L,LIU C,et al.Generalizing to unseen domains:a survey on domain generalization[J].IEEE Transactions on Knowledge and Data Engineering,2023,35(8):8052-8072.
[10] LU W,WANG J D,CHEN Y Q,et al.Semantic-discriminative mixup for generalizable sensor-based cross-domain activity recognition[J].Proceedings of the ACM on Interactive,Mobile,Wearable and Ubiquitous Technologies,6(2):65.
[11] LI D,YANG Y X,SONG Y Z,et al.Learning to generalize:meta-learning for domain generalization[J].Proceedings of the AAAI Conference on Artificial Intelligence,2018,32(1):3490-3497.
[12] LI Y,GONG M M,TIAN X M,et al.Domain generalization via conditional invariant representations[J].Proceedings of the AAAI Conference on Artificial Intelligence,2018,32(1):3579-3587.
[13] XU Q W,ZHANG R P,ZHANG Y,et al.A fourier-based framework for domain generalization[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 20-25,2021.Nashville,TN,USA.IEEE,2021:14383-14392.
[14] YAN W J,LI X B,WANG S J,et al.CASME II:an improved spontaneous micro-expression database and the baseline evaluation[J].PLoS One,2014,9(1):e86041.
[15] BEN X Y,REN Y,ZHANG J P,et al.Video-based facial micro-expression analysis:a survey of datasets,features and algorithms[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2022,44(9):5826-5846.
[16] LI X B,PFISTER T,HUANG X H,et al.A Spontaneous Micro-expression Database:inducement,collection and baseline[C]//2013 10th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition (FG).April 22-26,2013.Shanghai,China.IEEE,2013:1-6.
[17] WANG J D,CHEN Y Q,F(xiàn)ENG W J,et al.Transfer learning with dynamic distribution adaptation[J].ACM Transactions on Intelligent Systems and Technology,11(1):6.
[18] CUI S H,WANG S H,ZHUO J B,et al.Towards discriminability and diversity:batch nuclear-norm maximization under label insufficient situations[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 13-19,2020.Seattle,WA,USA.IEEE,2020:3941-3950.
[19] ZHU Y C,ZHUANG F Z,WANG J D,et al.Deep subdomain adaptation network for image classification[J].IEEE Transactions on Neural Networks and Learning Systems,2021,32(4):1713-1722.
[20] YANG J F,PENG X Y,WANG K,et al.Divide to adapt:mitigating confirmation bias for domain adaptation of black-box predictors[C]//International Conference on Learning Representations, ICLR, 2023:1-21.
[21] GANIN Y,USTINOVA E,AJAKAN H,et al.Domain-adversarial training of neural networks[M]//Domain Adaptation in Computer Vision Applications.Cham:Springer International Publishing,2017:189-209.
[22] KRUEGER D,CABALLERO E,JACOBSEN J,et al.Out-of-distribution generalization via risk extrapolation (REx)[C]//International Conference on Machine Learning, ACM, 2021: 5815-5826.
[23]PARASCANDOLO G, NEITZ A, ORVIETO A, et al. Learning explanations that are hard to vary [C]//9th International Conference on Learning Representations, OpenReview.net, 2021:1-24.
[24] ZHANG H L,ZHANG Y F,LIU W Y,et al.Towards principled disentanglement for domain generalization[C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).June 18-24,2022.New Orleans,LA,USA.IEEE,2022:8014-8024.
[25] ZHANG Y F,WANG J D,LIANG J,et al.Domain-specific risk minimization for domain generalization[C]//Proceedings of the 29th ACM SIGKDD Conference on Knowledge Discovery and Data Mining.August 6 - 10,2023,Long Beach,CA,USA.ACM,2023:3409-3421.
【通聯(lián)編輯:唐一東】