任珍文 吳明娜
摘 要:圖像集分類算法通過充分利用圖像的集合信息來提高識別性能,得到了廣泛的關(guān)注。但是現(xiàn)有的圖像集分類算法存在如下問題:1)需要樣本滿足某種概率統(tǒng)計分布;2)忽略了圖庫集類與類之間的互斥性;3)對非高斯噪聲不具備魯棒性。為了解決上述問題,提出了一種基于熵自加權(quán)聯(lián)合正則化最近點的圖像集分類算法(SRNPC)。首先在測試集中尋找唯一的全局聯(lián)合正則化最近點,同時最小化該點與每個圖庫集中正則化最近點之間的距離;然后,為了增強類之間的判別力以及對非高斯噪聲的魯棒性,引入一種基于熵尺度的自加權(quán)策略來迭代更新測試集與各個圖庫集合之間的熵加權(quán)權(quán)重,得到的權(quán)重能夠直接反映測試集與每個圖庫集之間相關(guān)性的高低;最后,利用測試集和每個圖庫集之間的最小殘差值獲得分類結(jié)果。通過在UCSD/Honda、CMU Mobo和YouTube這三個公開數(shù)據(jù)集上與當(dāng)前主流的算法進行的對比實驗結(jié)果表明,所提出的算法具有更高的分類精度和更強的魯棒性。
關(guān)鍵詞:圖像集分類;正則化最近點;相對熵;人臉識別;模式識別
中圖分類號:TP391.4
文獻標(biāo)志碼:A
Correntropy self-weighted based joint regularized nearest points for images set classification algorithm
REN Zhenwen1,2*, WU Mingna1
1.School of National Defence Science and Technology, Southwest University of Science and Technology, Mianyang Sichuan 621010, China;
2.School of Computer Science and Engineering, Nanjing University of Science and Technology, Nanjing Jiangsu 210094, China
Abstract:
Image set classification algorithms, which make full use of the image set information to improve the recognition performance, have gained much attention. However, existing image set classification algorithms have the following problems: 1) samples need to obey a certain probability and statistical distribution; 2) ignoring the mutual exclusion between classes in the gallery set; 3) without robustness against non-Gaussian noise. In order to solve the above problems, an image set classification algorithm based on Correntropy Self-weighted based joint Regularization of Nearest Points (SRNPC) was proposed. Firstly, the unique global joint regularization nearest point in the test set was found and the distance between this point and the regularization nearest point in each gallery set was minimized simultaneously. Then, to enhance the discrimination between classes and the robustness against non-Gaussian noise, a self-weighting strategy based on correntropy scale was introduced to update the correntropy weight between the test set and each gallery set iteratively. And the obtained weight was able to directly reflect the correlation between the test set and each gallery set. Finally, the classification result was obtained by using the minimum residual value between the test set and each gallery set. Experimental results on three open datasets UCSD/Honda, CMU Mobo and YouTube show that SRNPC has higher classification accuracy and better robustness than many state-of-the-art image classification algorithms.
Key words:
image set classification; regularized nearest point; correntropy; face recognition; pattern recognition
0 引言
基于圖像集的圖像識別技術(shù)已經(jīng)成為計算機視覺領(lǐng)域和模式識別領(lǐng)域的研究熱點之一。與傳統(tǒng)的基于單幅靜態(tài)圖像的識別技術(shù)相比,基于圖像集的識別算法以目標(biāo)對象的多幅圖像或視頻序列構(gòu)成集合為單位,通過利用圖像集附加的集合信息更全面地獲取對象特征,進而提高圖像識別的識別精度和魯棒性,在實際的人臉識別與目標(biāo)識別中得到了廣泛的應(yīng)用[1-2]。
總體來講,基于圖像集的分類涉及兩個關(guān)鍵問題:如何有效地對圖像集建模;如何適當(dāng)?shù)囟攘績蓚€集合之間相似度。為了解決這兩個問題,現(xiàn)有的圖像集分類方法可分為有參方法和無參方法。由于有參方法參數(shù)估計困難且無法很好地擬合實際情況,因此當(dāng)前的圖像識別技術(shù)更傾向于無參方法[3]?,F(xiàn)有的先進的無參方法大多基于子空間、流形、仿射包或協(xié)方差矩陣。文獻[4]通過同時最大化類內(nèi)離散度,最小化類間離散度來獲取投影矩陣,利用典型相關(guān)性來度量集合之間的相似性。文獻[5]利用流形將每個圖像集建模為一
組局部子空間,同時定義圖像集之間的距離為相應(yīng)子空間之間距離的加權(quán)平均值。文獻[6]將圖像集建模成仿射包,圖像集之間的相似度被定義為兩個仿射包中最近點之間的距離。文獻[7]利用協(xié)方差矩陣表示圖像集,通過黎曼流形到歐氏空間的映射來度量圖像集之間的相似度。隨著壓縮感知的深入學(xué)習(xí)和廣泛應(yīng)用,近期,Hu等[8]提出基于稀疏表示的分類器(Sparse Approximated Nearest Points, SANP)來度量集合與集合之間的相似度,但是SANP涉及較多的參數(shù)和未知輔助變量,求解較復(fù)雜。為了降低SANP模型的復(fù)雜性,文獻[9]提出一種簡化的模型——正則最近點(Regularized Nearest Points, RNP)模型,該方法將每個圖像集建模為一個正則化的仿射包,利用正則化的最近點對來測量圖像集之間的相似性。但在RNP中,對于不同的訓(xùn)練集,測試集中與之對應(yīng)的正則化最近點不唯一,很容易出現(xiàn)過度擬合,導(dǎo)致分類不穩(wěn)定。在RNP和協(xié)同稀疏表示的啟發(fā)下,文獻[10]提出協(xié)同正則化最近點(Collaboratively Regularized Nearest Points, CRNP)模型,基于協(xié)同表示同時找到所有的正則化最近點,但該算法只考慮測試集和整個圖庫集之間的相似度而忽略了測試集和每個圖庫集間的相關(guān)性,未能充分利用集合之間的判別信息。
隨著圖像集分類算法的進一步研究,加權(quán)的思想在越來越多的算法中得到應(yīng)用[11-12]。其核心思想是通過加權(quán)策略使得正確的類具有高權(quán)重,錯誤類具有低權(quán)重,進而增強測試集與正確類之間的相關(guān)性以及與錯誤類之間的互斥性。從廣義上來說,在SANP、RNP和CRNP中,測試集與每個圖庫集之間的加權(quán)權(quán)重均設(shè)置為1,即認為每個圖庫集同等重要。為了增強測試集與正確類之間的相關(guān)性,聯(lián)合正則化最近點(Joint Regularized Nearest Points, JRNP)模型[13]通過計算測試集與每個圖庫集之間的歐氏距離來獲得不同的權(quán)重。但實際的圖像集分類任務(wù)中往往存在多種隨機噪聲(如:非高斯噪聲),上述算法對該類噪聲的魯棒性較低[13]。隨著對信息理論的不斷學(xué)習(xí)和擴展,Liu等[14]提出通過熵尺度能夠有效地處理非高斯噪聲對圖像識別的影響,從而提高算法的魯棒性。
針對以上問題,本文提出了一種基于熵自加權(quán)聯(lián)合正則化最近點的圖像集分類方法(Correntropy Self-weighted based joint Regularized Nearest Points, SRNPC)。該方法首先在測試集中尋找唯一的全局聯(lián)合正則化最近點的同時,最小化測試集與每個圖庫集之間的距離。在熵尺度的啟發(fā)下,進一步引入了一種基于熵的自適應(yīng)加權(quán)策略來增強類間判別力和對非高斯噪聲的魯棒性。接著發(fā)展了一種交替迭代的優(yōu)化求解算法快速有效地得到目標(biāo)函數(shù)的最優(yōu)解。最后,采用殘差判別函數(shù)完成圖像分類。通過在UCSD/Honda、CMU Mobo和YouTube數(shù)據(jù)集上與多種其他流行圖像集分類算法(典型相關(guān)法(Discriminative learning and recognition using Canonical Correlations, DCC)[4]、流行判別分析法(Manifold-Manifold Distance, MMD)[5]、基于圖像集的人臉識別(Face recognition based on image sets, AHISD/CHISD)(Affine/Convex Hull Image Set Distance)算法[7]、SANP[8]、RHP[9]、CRNP[10]、JRNP[13])的對比實驗證實了SRNPC具有更高的識別精度和魯棒性。
1 相關(guān)工作
1.1 正則化最近點模型(RNP)RNP模型
在正則化最近點(RNP)模型中,每個圖像集被建模成一個正則化的仿射包:
RAH={x=Xiα|∑k=1αk=1,‖α‖2≤σ}(1)
其中:Xi=[xi,1,xi,2,…,xi,ni]表示為圖庫集中第i類樣本集合,ni為第i類的圖像個數(shù),xi,k為第i類的第k個特征向量。對于給定的測試集Q和圖庫集Xi,RNP算法通過解決如下目標(biāo)函數(shù)來得到最近點:
minα, β ‖Qα-Xi βi‖22
s.t. ∑k=1αk=1, ∑k=1βi,k=1,‖α‖2≤σ1, ‖βi‖2≤σ2(2)
其中: βi,k為βi的第k項,Qα和Xi βi分別為在測試集Q和圖庫集Xi中對應(yīng)的正則化最近點。
計算得到α*和β*后,圖像集Q和Xi之間的距離為:
di = (‖Q‖* + ‖Xi‖*)*‖Qα*-Xi β*i‖22(3)
其中:‖Q‖*是Q的核范數(shù),即:Q的奇異值之和。
1.2 協(xié)同正則化最近點模型(CRNP)
與RNP不同,對于給定的測試集Q和圖庫集X=[X1,X2,…,Xc],CRNP直接最小化測試集Q與整個圖庫集X的距離:
minα, β{‖Qα-Xβ‖22+λ1‖α‖22+λ2‖β‖22}
s.t. ∑k=1αk=1,∑ci=1∑k=1βki=1(4)
其中:λ1、λ2為平衡參數(shù), β=[β1; β2;…; βn],βi為與Xi對應(yīng)的子仿射系數(shù)向量。Qα和Xβ分別為在測試集和整個圖庫集中的正則化最近點。
得到系數(shù)α*和β*后,Q和Xi之間的類間距離為:
di=(‖Q‖*+‖Xi‖*)·‖Qα*-
Xi β*i‖22/‖β*i‖22(5)
盡管與其他的圖像集分類方法相比,RNP和CRNP已經(jīng)取得了令人滿意的性能,但在這兩種方法中仍然存在一些問題需要解決(詳見引言)。為了解決這些問題,本文提出一種基于熵自加權(quán)聯(lián)合正則化最近點的圖像集分類算法(SRNPC)。
2 基于熵自加權(quán)聯(lián)合正則化最近點的圖像集分類算法本文方法
2.1 目標(biāo)函數(shù)的設(shè)計
對于一個給定的測試集Y=[y1,y2,…,yny](yk表示第k個特征向量)和整個圖像集X=[X1,X2,…,Xc],其中Xi=[xi,1,xi,2,…,xi,ni]。為了充分利用測試集與整個圖庫集以及測試集與每個圖庫集之間的相關(guān)性和差異性,本文首先在Y中尋找一個唯一的正則化最近點。該點不僅靠近整個圖庫集X中的協(xié)同正則化最近點,還靠近正確類Xi中的正則化最近點。學(xué)習(xí)模型如下:
minα, β{‖Yβ-Xα‖22+λ1‖α-1—Ny‖22+
λ2‖β-1—Nx‖22+γ∑ci=1wi(‖Yβ-Xiαi‖22)}
s.t. ∑k=1βk=1(6)
其中:λ1、λ2和γ為平衡參數(shù),α和β表示描述系數(shù)。Ny和Nx分別是測試集Y和圖庫集X中的樣本數(shù)量,c為圖像集中類的個數(shù)。1N表示元素全為1的N維列向量,1—N=1N/N。項‖Yβ-Xα‖22表示Yβ與整個圖庫集的協(xié)同正則化最近點之間的距離,λ1‖α-1—Ny‖22+λ2‖β-1—Nx‖22保證描述系數(shù)α和β趨近于樣本圖心,使得獲得的最近點更接近真實樣本。最后一項γ∑ci=1wi(‖Yβ-Xiαi‖22)則是Yβ與每個圖庫集中正則化最近點之間距離。其中wi為熵尺度加權(quán)權(quán)重,它的引入進一步確保Yβ更加靠近所對應(yīng)的正確類。仿射約束∑k=1βk=1可以避免出現(xiàn)平凡解(如:α=β=0)。算法模型圖如圖1所示,可以直觀得出,相比RNP,該模型對于不同的圖庫集,測試集中的正則化最近點Yβ始終保持不變,這樣避免了RNP中過度擬合情況的出現(xiàn);相比CRNP,該模型明確地最小化了Yβ和每個類之間的距離,很大程度上提高了類之間的判別能力;相比JRNP,該模型利用熵尺度加權(quán)權(quán)重來度量測試集與每個圖庫集之間的相似度,使得該模型對非高斯噪聲魯棒。
2.2 優(yōu)化求解
在優(yōu)化求解過程中,松弛對β的約束,即∑k=1βk≈1,同時令R=1—Ny,G=1—Nx,則式(6)重寫為:
minα, β{‖z-Yβ-Xα‖22+λ1‖α-R‖22+
λ2‖β-G‖22+γ∑ci=1wi(‖z-Yβ-Xiαi‖22)}(7)
其中:z=[0;1],Y=[-Y;1T],X=[X;0T],i=[Xi;0]。列向量0,1的大小根據(jù)圖像集的大小決定。為了快速得到α、 β和w的最優(yōu)解,本文提出一種有效的交替迭代優(yōu)化算法來得到閉式解集,算法更新規(guī)則如下:
當(dāng)β、w固定時,α更新為:
α=P(XT(z-Yβ)+λ1R); P=(XTX+λ1I)-1(8)
當(dāng)α、w固定時,β更新為:
β=Q(YT((z-Xα)+γ∑ci=1wi(z-iαi))+λ2G); Q=(2YTY+λ2I)-1(9)
為了在不同的類之間引入競爭,從而保證Yβ與所對應(yīng)的正確類之間的邏輯加權(quán)距離最短。本文利用一種基于熵的自適應(yīng)加權(quán)策略來更新wi。具體來說,熵是一種度量任意兩個隨機變量(u,v)之間相似度的方法,該尺度對非高斯噪聲和沖擊噪聲魯棒[14-15]。定義如下:
Vσ(u,v)=E[kσ(e)](10)
其中:e=u-v,E[·]表示期望值,kσ(·)為核函數(shù),本文僅僅考慮高斯核函數(shù)kσ(e)=exp(-e2/2σ2)。σ表示核寬度。
基于式(10),本文提出一種新穎的自適應(yīng)加權(quán)策略來更新w。即:當(dāng)α、 β固定時,w更新為:
wi=(1-1c∑ci=1kσ(Yβ-Xiαi))1/2(11)
文中初始化β0=1/Ny,w0=1/c。圖2為絕對誤差和熵尺度的比較示意圖。可以看出,熵是一種局部度量方法,當(dāng)集合之間的誤差較小時,熵近似于絕對誤差(|Δx|),當(dāng)誤差較大時,熵收斂于1。因此本文提出的基于熵的自適應(yīng)加權(quán)策略能夠有效地抑制離群樣本和噪聲的影響,尤其在非高斯噪聲和沖擊噪聲存在的情況下表現(xiàn)出更強魯棒性。換句話說,若Yβ和Xiαi之間的熵權(quán)重越小,說明相似度越高,wi則越大。反之,wi則越小。此外,由于損失函數(shù)有下限(≥0)且是α和β聯(lián)合凸面,因此迭代過程中損失函數(shù)的值會不斷減小,最終收斂于全局最優(yōu)解。
2.3 分類
得到最優(yōu)的描述系數(shù)α*、 β*后,SRNPC定義集合間的距離為:
di=(‖Xi‖*+‖Y‖*)·(‖Xα*-Yβ*‖22+
‖Xiα*i-Yβ*‖22)/‖α*i‖22(12)
其中:項‖Xi‖*+‖Y‖*用于移除與類無關(guān)信息的干擾。例如:與正確的類相比,錯誤的類由于具有更多的樣本導(dǎo)致‖Xiα*i-Yβ*‖22的值較低,但凸松弛矩陣Xi和Y的秩‖Xi‖*+‖Y‖*卻能增強圖像集的表示能力[10]。此外,式(12)融合了RNP和CRNP中對距離的測量方法,因此SRNPC在分類上兼?zhèn)鋬烧叩膬?yōu)勢。
最后,確定測試集Y的類別標(biāo)簽為:
identity(Y)=arg mini {di}(13)
2.4 算法時間復(fù)雜度
假設(shè)n為圖庫集的樣本總數(shù),t為算法迭代更新次數(shù)。對于測試集Y,利用離線計算即可得到圖庫集對應(yīng)投影矩陣P和Pi。式(9)中對Q的計算涉及矩陣的逆運算,其時間復(fù)雜度可粗略地等效為SANP中求解Y時的時間復(fù)雜度。從文獻[8]可知,SANP通過SVD得到標(biāo)準(zhǔn)正交基,因此在SRNPC中計算Q時的時間復(fù)雜度近似為O(n3)。此外,算法每次更新α和β的時間復(fù)雜度均為O(n3),每次更新wi的時間復(fù)雜度為O(n)。所以整個交替迭代更新策略的總的時間復(fù)雜度為O(t·(3n3+n))。
3 實驗
為了驗證本文算法的有效性和魯棒性,本文在UCSD/Honda[16]、CMU Mobo[17]和YouTube celebrities(YTC)[18]這三個公開數(shù)據(jù)集上進行了SRNPC與多種先進的圖像集分類方法的對比實驗。這些方法包括:DCC[4]、MMD[5]、AHISD[7]、CHISD[7]、SANP[8]、RNP[9]、CRNP[10]和JRNP[13]。所有方法的相關(guān)參數(shù)均按照對應(yīng)文獻中推薦的最佳參數(shù)值進行配置。對于SRNPC,參數(shù)λ1=0.001,λ2=0.1,采用5倍交叉驗證獲得γ的值。在本文的實驗中,每個圖像集都由隨機選擇的50、100或200張人臉圖片組成集合,所有實驗結(jié)果的分類精度與標(biāo)準(zhǔn)差均為進行10次實驗后求均值得到。實驗運行環(huán)境為Win10 64位 Matlab 2016a, Intel Core i5-3210M CPU 2.5GHz,8GB RAM。
3.1 實驗環(huán)境搭建
UCSD/Honda數(shù)據(jù)集包含20名不同的對象共59個視頻序列,視頻中的每個圖像均發(fā)生了姿態(tài)、光照和表情的變化。圖3(a)展示了該數(shù)據(jù)集的部分樣本。仿照文獻[16]中的實驗設(shè)置,調(diào)整圖像尺寸為20×20,并進行直方圖均衡化處理。實驗中,隨機選取20個視頻序列作為圖庫集,剩下的39個視頻序列為測試集。
CMU Mobo數(shù)據(jù)集包含了來自24名對象的96個視頻序列,每名對象包含4個視頻序列,每個序列分別對應(yīng)著一種行走模式(部分樣本見圖3(b))。為了簡化運算,提高運行速
度,本文將人臉調(diào)整為30×30的灰度圖像,在每次實驗中,從
每個對象的視頻中隨機選取一個圖像集作為圖庫集,剩下的作為測試集。
YTC數(shù)據(jù)集是一個來自現(xiàn)實環(huán)境的數(shù)據(jù)集,由47位名人的1910個視頻序列組成。該數(shù)據(jù)集中的視頻大多分辨率低、姿態(tài)變化大、光照強度各異。相比前兩個數(shù)據(jù)集該數(shù)據(jù)集更具有挑戰(zhàn)性。對于該數(shù)據(jù)集,本文使用前29個的視頻序列,并調(diào)整臉部區(qū)域尺寸為20×20(如圖3(c)所示)。對于每個對象,隨機選取3個序列作為圖庫集,從剩余序列中再隨機選擇3個序列用作測試集。
3.2 識別精度評估
為了驗證SRNPC和其他流行的圖像集分類算法相比具有更高的識別精度,本文依次在UCSD/Honda、CMU Mobo、YTC數(shù)據(jù)集上分別獲得測試集大小為50、100和200時的平均分類精度和標(biāo)準(zhǔn)差。實驗結(jié)果如表1所示,其中最高分類精度加粗顯示。
通過觀察表1,本文得出以下3個結(jié)論:1)同預(yù)期一致,在所有的情況下,本文提出的算法SRNPC均表現(xiàn)出最佳的分類效果,驗證了本文所提出算法的有效性。特別是在UCSD/Honda數(shù)據(jù)集上,當(dāng)圖像集大小為100,200時,SRNPC達到了100%的分類精度。2)當(dāng)樣本不充分時(<50),DCC,MMD在所有數(shù)據(jù)集上的分類精度均小于70%,這可能和判別信息提取和流形分析依賴于圖像集樣本充足的事實有關(guān)。3)當(dāng)樣本充分時(>100),在UCSD/Honda和CMU Mobo數(shù)據(jù)集上所有的算法均表現(xiàn)出較好的識別性能,在YTC數(shù)據(jù)集上,SRNPC仍然實現(xiàn)了最高的識別精度,但與其他算法之間的差距較小。這是因為YTC數(shù)據(jù)集是自然條件下采集的圖像,圖像質(zhì)量不高,含有噪聲,與前兩個數(shù)據(jù)集相比更具有挑戰(zhàn)性。
3.3 魯棒性評估
本節(jié)中,再次利用YTC數(shù)據(jù)集來評估魯棒性。與4.2節(jié)中的實驗不同,在該實驗中,首先固定YTC圖像集的大小為
200,并在人臉圖像中添加不同百分比的椒鹽噪聲研究表明,對于人眼來說,一張破壞超過50%的圖片便很難被識別[17]。因此該實驗僅測試在添加0%~50%的椒鹽噪聲時,各個算法的魯棒性。圖4為添加不同百分比噪聲時的YTC人臉圖像。
實驗結(jié)果如表2所示,在所有的實驗中,SRNPC仍然具有最好的分類精度;同時,隨著噪聲百分比的增加,其他算法與SRNPC之間的差距越來越大。與次優(yōu)的算法JRNP相比,SRNPC在分類精度上平均實現(xiàn)了3.1%的提高。由此,充分驗證了本文提出算法的魯棒性。但是,當(dāng)圖像包含40%以上的噪聲時,由于判別信息不充分,所有算法(包括SRNPC)的分類精度都低于50%。
4 結(jié)語
本文提出一種用于圖像集分類的熵自加權(quán)聯(lián)合正則化最近點算法(SRNPC)。該算法融合協(xié)同表示和正則化最近點的優(yōu)勢,同時最小化測試集與整個圖像集以及每個訓(xùn)練集之間的距離。為了避免過度擬合,測試集中的全局聯(lián)合最近點始終保持不變。為了增強集合之間的判別能力和對非高斯噪聲的魯棒性,提出了一種基于熵的自加權(quán)策略,根據(jù)每個圖庫集與測試集的相似度分配給每個圖庫集不同的權(quán)重。最后通過計算測試集和每個圖庫集之間的最小殘差值完成分類。在三種公開數(shù)據(jù)集上與目前先進的圖像集分類算法進行了對比實驗,驗證了SRNPC在圖像集分類任務(wù)上具有更高的識別精度和更強的魯棒性。
下一步工作中,將引入低秩約束模型來增強對損壞圖像的恢復(fù),從而能夠更進一步地提高算法的分類精度與魯棒性。
參考文獻
[1]UZAIR M, SHAFAIT F, GHANEM B, et al. Representation learning with deep extreme learning machines for efficient image set classification[J]. Neural Computing and Applications, 2018, 30(4): 1211-1223.
[2]李光早,王士同.基于稀疏表示和彈性網(wǎng)絡(luò)的人臉識別[J].計算機應(yīng)用,2017,37(3):901-905.(LI G Z, WANG S T. Face recognition based on sparse representation and elastic network [J]. Journal of Computer Applications, 2017, 37(3): 901-905.)
[3]劉天賜, 史澤林, 劉云鵬,等.基于Grassmann流形幾何深度網(wǎng)絡(luò)的圖像集識別方法[J].紅外與激光工程, 2018,47(7):25-31.(LIU T C, SHI Z L, LIU Y P, et al. Geometry deep network image-set recognition method based on Grassmann manifolds [J]. Infrared and Laser Engineering, 2018, 47(7): 25-31.)
[4]KIM T, KITTLER J, CIPOLLA R. Discriminative learning and recognition of image set classes using canonical correlations [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(6): 1005-1018.
[5]HAYAT M, BENNAMOUN M, AN S. Learning non-linear reconstruction models for image set classification [C]// Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2014: 1907-1914.
[6]鄭萍萍,李波,丁玉琳.基于局部鄰域多流形度量的人臉識別[J].計算機應(yīng)用研究,2018,35(4):1250-1253.(ZHENG P P, LI B, DING Y L. Local neighborhood based multi-manifold metric learning for face recognition[J]. Application Research of Computers, 2018, 35(4):1250-1253.)
[7]WANG R, GUO H, DAVIS L S, et al. Covariance discriminative learning: A natural and efficient approach to image set classification[C]// Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2012: 2496-2503.
[8]HU Y, MIAN A S, OWENS R. Face recognition using sparse approximated nearest points between image sets [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(10): 1992-2004.
[9]YANG M, ZHU P, van GOOL L, et al. Face recognition based on regularized nearest points between image sets [C]// Proceedings of the 2013 10th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition. Piscataway, NJ: IEEE, 2013: 1-7.
[10]WU Y, MINOH M, MUKUNOKI M. Collaboratively regularized nearest points for set based recognition [C]// Proceedings of the 2013 British Machine Vision Conference. Durham: BMVA Press, 2013: No.0134.
[11]唐宋,陳利娟,陳志賢,等.基于目標(biāo)域局部近鄰幾何信息的域自適應(yīng)圖像分類方法[J].計算機應(yīng)用,2017,37(4):1164-1168. (TANG S, CHEN L J, CHEN Z X, et al. Domain adaptation image classification based on target local-neighbor geometrical information [J]. Journal of Computer Applications, 2017,37(4): 1164-1168.)
[12]CAO F, YANG Z, REN J, et al. Sparse representation-based augmented multinomial logistic extreme learning machine with weighted composite features for spectral-spatial classification of hyperspectral images [J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(11): 6263-6279.
[13]YANG M, WANG X, LIU W, et al. Joint regularized nearest points for image set based face recognition[J]. Image and Vision Computing, 2017, 58: 47-60.
YANG M, LIU W, SHEN L, et al. Joint regularized nearest points for image set based face recognition [C]// Proceedings of the 2015 11th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition. Washington, DC: IEEE Computer Society, 2015: 1-7.
[14]LIU W, POKHAREL P P, PRINCIPE J C. Correntropy: properties and applications in non-Gaussian signal processing [J]. IEEE Transactions on Signal Processing, 2007, 55(11): 5286-5298.
[15]CHEN B, WANG X, LU N, et al. Mixture correntropy for robust learning[J]. Pattern Recognition, 2018, 79: 318-327.
[16]GOU G, SHI J, XIONG G, et al. Image-set based collaborative representation for face recognition in videos [C]// Proceedings of the 2017 Pacific Rim Conference on Multimedia, LNCS 10736. Berlin: Springer, 2017: 498-507.
[17]HAYAT M, KHAN S H, BENNAMOUN M. Empowering simple binary classifiers for image set based face recognition [J]. International Journal of Computer Vision, 2017, 123(3): 479-498.
[18]FERRARI C, BERRETTI S, del BIMBO A. Extended YouTube faces: a dataset for heterogeneous open-set face identification [C]// Proceedings of the 2018 24th International Conference on Pattern Recognition. Piscataway, NJ: IEEE, 2018: 3408-3413.
This work is partially supported by the National Natural Science Foundation of China (61673220),
the Project of State Administration of Science, Technology and Industry for National Defense (JCKY2017209B010, JCKY2018209B001),
the Project of Sichuan Office of Science, Technology and Industry for National Defense (ZYF-2018-106), the Innovation Foundation for College Students of Southwest University of Science and Technology (cx18-029).
REN Zhenwen, born in 1987, Ph. D., lecturer. His research interests include machine learning, computer vision, compressed sensing.image set classification, sparse representation, low-rank representation, deep learning and their applications in machine learning.
WU Mingna, born in 1998. Her research interests include machine learning, computer vision.