余歡歡 魏文戈
摘? ?要:在新領域中,常常存在樣本不充分或標記不足的問題。針對此問題,人們提出了域適應,該方法利用相關領域(源域)的知識來提高當前領域(目標域)學習性能。單個源域的知識往往不充分且類別完全相同的多個源域難以滿足,同時域之間存在漂移問題。而現(xiàn)有的多源域適應模型難以解決類別不完全一致的問題,因此給多源域適應帶來了較大的挑戰(zhàn)。為此提出了一種基于模型參數(shù)自適應遷移的方法(Adaptive Transfer for ModelParameter,ATMP),通過對每個源域的模型參數(shù)進行私有和公有模型參數(shù)字典學習,同時將多個源域中所學的模型參數(shù)字典作為目標域的模型參數(shù)字典,然后通過對字典系數(shù)的行稀疏約束實現(xiàn)源域和目標域模型參數(shù)的自適應選擇。除此之外,該方法遷移的是模型參數(shù)而不是數(shù)據(jù)本身,因此有效實現(xiàn)了對源域數(shù)據(jù)的隱私保護。經(jīng)過一系列實驗表明,在相關數(shù)據(jù)集上的實驗顯示了本文所提方法在聚類性能上的顯著有效性。
關鍵詞:多源域適應;模型參數(shù)自適應遷移;隱私保護;聚類
中圖分類號:TP391 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 文獻標識碼:A
Model Parameter Transfer Adaptively for Multi-source Domain Adaptation
YU Huan-huan WEI Wen-ge
(College of Computer Science and Technology,Nanjing University of Aeronautics and Astronautics,Nanjing,Jiangsu 211106,China)
Abstract:In new fields,there is often the problem of insufficient samples or labels. For this problem,domain adaptation(DA) has been proposed,which uses the knowledge of the related domain (source domain) to improve the learning performance of the current domain (target domain). The knowledge of a single source domain is often insufficient and multiple source domains with identical categories are difficult to satisfy,and there is a shift problem between domains. However,the existing multi-source TL model is hard to solve the problem of sharing inconsistent categories,which brings a great challenge for multi-source TL. Aiming at this problem,an adaptive transfer for model parameter method has been proposed,which can learn the private and public model parameter dictionary in each source domain. The model parameter dictionary learned in the source domains are used as the target ones,and then the model parameter of source domains and target domain are selected adaptively by the row sparse constraint of the dictionary coefficients. In addition,the method can also be directly used for TL of privacy protection due to the fact that the knowledge is transferred just via the model parameters rather than data itself. After a series of experiments,the experiments on the relevant datasets show the significant effectiveness of the proposed method in clustering performance.
Key words:multi-source domain adaptation;model parameter transfer adaptively;privacy protection;clustering
在傳統(tǒng)的機器學習中,通常假設訓練數(shù)據(jù)(稱為源域)和測試數(shù)據(jù)(稱為目標域)獨立同分布,但在現(xiàn)實場景中,由于不同的因素,比如視角,展現(xiàn)模式的區(qū)別等,這些因素都可能導致該假設難以滿足。因此,學者們提出了域適應,通過遷移源域的知識到目標域來避免源域和目標域數(shù)據(jù)分布不一致的問題。目前域適應主要包括單源域到單目標域知識的遷移,多源域到單目標域知識的遷移。在多源域的場景中,與目標域相關的多個源域的類別不完全一致的問題給多源域適應帶來了較大的挑戰(zhàn)。針對這一問題,提出了一種基于模型參數(shù)自適應遷移的方法(Adaptive Transfer for Model Parameter),在傳統(tǒng)的聚類方法上,創(chuàng)新性地實現(xiàn)了源域和目標域模型參數(shù)的自適應選擇,從而避免了源域知識到目標域知識的直接遷移。
主要貢獻如下:
1)借助源域的知識,從模型參數(shù)字典的角度,對每個源域的模型參數(shù)進行私有和公有模型參數(shù)字典學習,同時將多個源域中所學的模型參數(shù)字典作為目標域的模型參數(shù)字典,并通過稀疏約束進行各域權重的適應性選擇,從而實現(xiàn)域適應并提高目標域的聚類性能;
2)為現(xiàn)有參數(shù)遷移方法提供一個更大的靈活
框架,克服了現(xiàn)有參數(shù)遷移方法無法適應性選擇參數(shù)的缺陷,同時實現(xiàn)了對源域數(shù)據(jù)的隱私保護;
3)通過在真實數(shù)據(jù)集上與相關算法的比較,驗證了本方法在聚類性能上的顯著有效性。
1? ?相關工作
域適應[1]是機器學習領域的重要研究之一,近幾年廣泛應用于計算機視覺[2],自然語言[3]和生物信息[4]等領域。
根據(jù)源域個數(shù),可將域適應劃分為單源域適應和多源域適應。其中,對于單源域適應的研究最多,主要包括參數(shù)遷移和非參數(shù)遷移的方法。參數(shù)遷移是通過參數(shù)傳遞實現(xiàn)知識遷移。文獻[5]利用共享模型參數(shù)w0實現(xiàn)域間“連接”,側重于共享模型參數(shù)的直接遷移;文獻[6][7]分別在神經(jīng)網(wǎng)絡的模型上通過參數(shù)微調和變換實現(xiàn)知識參數(shù)遷移。而非參數(shù)遷移可分為基于實例和基于特征的方法,前者受重要性加權的啟發(fā),將源域有標記樣本重加權后用于目標域;后者試圖尋找一個“好的”轉換矩陣來減小域間的差異。文獻[8]采用核均值匹配(KernelMeanMatching,KMM)直接學習權重 ,實現(xiàn)了知識遷移;文獻[9][10]分別提出了子空間對齊(SubspaceAlignment,SA)和相關性對齊(CorrelationAlignment,CORAL)的方法,通過對齊的方式學習一個源域到目標域的轉換矩陣,從而減小域間的差異。
由于單源遷移存在信息不足的問題,因此,多源域適應逐漸備受關注。文獻[11][12]針對一般的多源遷移場景,即每個源域和目標域的類別完全相同,然后分別采用實例遷移和特征遷移的方法解決域漂移的問題;文獻[13]針對源域類別不完全相同的場景采用了特征遷移的方式實現(xiàn)了遷移。
綜上所述,目前大部分域適應僅面向單域之間和類別完全相同的多域到單域問題,而對于源域類別不完全共享的域適應研究相對較少。為了彌補現(xiàn)有方法的不足并擴展域適應的應用范圍。本文提出了一種參數(shù)自適應遷移的多源域適應方法(ATMP)。
2? ?模型參數(shù)自適應遷移的方法(ATMP)
在本節(jié)中,針對多個源域類別不完全共享的場景,我們提出了一種基于模型參數(shù)自適應遷移的方法。
2.1? ?ATMP算法設計
對于式(1),第一項和第二項為原始的 SLMC 算法;第三項和第五項為模型參數(shù)字典的學習,實現(xiàn)了源域到目標域知識的遷移;其他兩項為字典系數(shù)的約束,并通過行稀疏約束實現(xiàn)了選擇性域適應。
2.2? ?ATMP算法優(yōu)化
3? ?實驗分析
實驗中,以Office+Caltech和PIE數(shù)據(jù)集為主,分別為目標識別和人臉識別數(shù)據(jù)集。
由于多個源域共享不完全相同的類別,因此,我們以共享類別數(shù)3為例,分別對2、3、4個源域進行實驗類比。
對于TSC[16]、STC[17]和TFCM[18],針對的是單源之間的的遷移。因此,為了實現(xiàn)多源的遷移,我們將多個源域的數(shù)據(jù)融合后作為單個源域。同時,本文針對的是無標記小樣本問題,且原始樣本數(shù)過多,故我們從對應類中隨機刪除部分數(shù)據(jù)。此外,對于源域的類別做不完全共享的處理,即刪除部分類別的數(shù)據(jù),使得源域類別不完全相同,并且保證這些源域類別的并集與目標域相同。
通過以上處理,分別在2個真實數(shù)據(jù)集上進行算法比較,得到表2、表3和表4,并據(jù)此得出以下結論:
(1)在2個源域、3個源域和4個源域的數(shù)據(jù)集上,ATMP基本優(yōu)于其他算法,主要得益于源域和目標域間模型參數(shù)字典的連接及其自適應選擇。
(2)通過對比發(fā)現(xiàn),隨著源域個數(shù)的增加,目標域的聚類性能越好,基本上每增加一個域,目標域的性能可以提高2%左右,主要是因為域的增加使得源域所提高的知識也增加。
4? ?結? ?論
目前針對多源域適應的研究較少。由于現(xiàn)實場景中難以發(fā)現(xiàn)類別完全相同的多個源域,且源域之間存在著漂移問題,而現(xiàn)有算法關注的都是源域類別完全相同的場景,難以適用于現(xiàn)實場景。針對這一問題,提出了模型參數(shù)自適應遷移的方法(ATMP),通過模型參數(shù)字典的遷移和模型參數(shù)的自適應選擇,實現(xiàn)了源域到目標域知識的遷移。除此以外,該方法遷移的模型參數(shù)而非數(shù)據(jù)本身,因此有效實現(xiàn)了對源域數(shù)據(jù)的隱私保護,并通過一系列實驗表明了ATMP算法的顯著有效性。
參考文獻
[1]? ?PAN S J,YANG Q. A survey on transfer learning[J]. IEEE? Transactions on knowledge and data engineering,2010,22(10):1345—1359.
[2]? ?SOHN K,LIU S,ZHONG G,et al. Unsupervised domain adaptation for face recognition in unlabeled videos[J]. arXivpreprintarXiv:1708.02191,2017.
[3]? ?BLITZER J,MCDONALD R,PEREIRA F. Domain adaptation with structural correspondence learning[C]. Proceedings of the 2006 conference on empirical methods in natural language processing. Association for Computational Linguistics,2006:120—128.
[4]? ? KAMNITSAS K,BAUMGARTNER C,LEDIG C,et al. Unsupervised domain adaptation in brain lesion segmentation with adversarial networks[C]// International Conference on Information Processing in Medical Imaging. Springer,Cham,2017:597—609
[5]? ? SCHWAIGHOFER A,TRESP V,YU K. Learning Gaussian process kernels via hierarchical Bayes[C]// Advances in Neural Information Processing Systems. 2005:1209—1216.
[6]? ?YOSINSKI J,CLUNE J,BENGIO Y,et al. How transferable are features in deep neural networks[C].Advances in Neural Information Processing Systems. 2014:3320—3328.
[7]? ? 許夙暉,慕曉冬,柴棟,等. 基于極限學習機參數(shù)遷移的域適應算法[J]. 自動化學報,2018,44(2):311—317.
[8]? ? HUANG J,GRETTON A,BORGWARDT,et al. Correcting sample selection bias by unlabeled data[C]. Advances in Neural Information Processing Systems. 2007:601—608.
[9]? ? FERNANDO B,HABRARD A,SEBBAN M,et al. Unsupervised visual domain adaptation using subspace alignment[C].Proceedings of the IEEE International Conference on Computer Vision. 2013:2960—2967.
[10]? SUN B,F(xiàn)ENG J,SAENKO K. Return of frustratingly easy domain adaptation[C]. AAAI. 2016,6(7):8.
[11]? SUN Q,CHATTOPADHYAY R,PANCHANATHAN S,et al. A two-stage weighting framework for multisource domain adaptation[C].Advances in Neural Information Processing Systems. 2011:505—513.
[12]? LIU H,SHAO M,and FU Y. Structure-preserved multisource domain adaptation[C]. 2016 IEEE 16th International Conference on. Data Mining(ICDM).IEEE,2016:1059—1064.
[13]? XU R,CHEN Z,ZUO W,et al. Deep cocktail network: multi-source unsupervised domain adaptation with category shift[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2018: 3964—3973.
[14]? TSENGP. Convergence of a block coordinate descent method for nondifferentiable minimization[J]. Journal of Optimization Theory and Applications,2001,109(3):475-494.
[15]? WANG Y,CHEN S. Soft large margin clustering[J]. Information Sciences,2013,232:116—129.
[16]? JIANG W,CHUNG F. Transfer spectral clustering[C].Joint European Conference on Machine Learning and Knowledge Discovery in Databases. Springer,Berlin,Heidelberg,2012:789—803.
[17]? DAI W,YANG Q,XUE G R,et al. Self-taught clustering[C]. Proceedings of the 25th international conference on Machine learning. ACM,2008:200207.
[18]? DENG Z,JIANG Y,CHUNG F L,et al. Transfer prototype-based fuzzy clustering[J]. IEEE Transactions on Fuzzy Systems,2016,24(5):12101232.