羅琛 韓家寶 羅大鵬
摘 要: 針對不同監(jiān)控場景,不同成像條件下目標姿態(tài)變化較大的問題,提出一種具有半自主學習能力的目標檢測系統(tǒng)。該系統(tǒng)能在執(zhí)行檢測任務的同時,通過快速的半自主學習提高檢測性能。系統(tǒng)包括了目標檢測模塊及在線學習模塊。為滿足系統(tǒng)在線學習需求,提出隨機蕨分類器的在線學習方法,使目標檢測模塊可持續(xù)自我更新,提高檢測性能。通過半自主在線學習框架使整個學習過程不需準備初始訓練樣本集,只需框選一個待檢測目標即可進行自適應學習,逐漸提高檢測性能。實驗表明,該方法在多種監(jiān)控場景中均有較強的自適應能力和較好的目標檢測效果。
關鍵詞: 在線學習; 目標檢測; 隨機蕨分類器; 半自主學習
中圖分類號: TN919?34; TP391 文獻標識碼: A 文章編號: 1004?373X(2016)09?0121?05
Abstract: Since the object attitude has great variation in different monitoring scenes and different imaging conditions, an object detection system with semi?autonomous learning ability is proposed. The system can improve the detection performance by means of fast semi?autonomous learning while executing the detection task. The system is composed of object detection module and online learning module. To satisfy the requirement of system online learning, the online learning method of random fern classifier is proposed. It can sustainably self?renewal the object detection module, and improve the detection performance. The whole learning process by needn′t prepare the initial training samples semi?autonomous learning framework, and only select a detected object to perform the adaptive learning, so the detection performance is improved gradually. The experimental results show that the method has strong adaptive capability and high detection rate.
Keywords: online learning; object detection; random fern classifier; semi?autonomous learning
0 引 言
在線學習屬于增量學習的研究范疇,在這一類方法中分類器對每個樣本只學一次,而不是重復的學習,這樣在線學習算法運行過程中不需要大量的存儲空間存儲訓練樣本。分類器每獲得一個樣本,即對其進行在線學習,使分類器能根據新樣本自我更新和改進,進一步提高分類效果。早期的在線學習算法有Winnow算法[1]、統(tǒng)一線性預測算法[2]及增量有監(jiān)督人工神經網絡[3]等。2001年學者Oza將這些算法與boosting算法[4]進行結合,提出了在線boosting算法[5]。在Oza的方法中,強分類器是一定數量的弱分類器的加權和,這些弱分類器都是從弱分類器集合中挑選出來的。在線學習時,每個訓練樣本逐一更新弱分類器集合中的每個弱分類器,包括調整正負樣本的分類閾值以及該分類器的權重,使分類準確率高的弱分類器權重越來越高,而準確率低的弱分類器權重越來越低,從而每次在線學習一個樣本就可以挑選出一個當前權重最高的弱分類器加入強分類器中使最終訓練出來的分類器有較強的分類能力。馮國瑜等人將在線學習用于增量支持向量機算法[6],也取得了不錯的效果。侯杰等人提出了基于指數損失和0?1損失的在線boosting算法[7],該方法嚴格證明了在線學習過程并未損失分類準確性。但是,在線boosting算法的弱分類器集合中每個弱分類器都要對新樣本進行在線學習,當弱分類器個數較多時,在線學習速度必然會變慢。Grabner對在線boosting算法進行了改進,使其也像Adaboost算法一樣可以進行特征選擇,并且這種特征選擇是在線進行的,稱為在線Adaboost[8],從而使在線學習能夠用于計算機視覺領域的目標檢測。該算法初始化[N]組弱分類器集合,其中每個集合包含[M]個弱分類器。在線學習過程即為通過對新樣本的學習更新[M×N]個弱分類器權重及分類閾值的過程,同時在線學習新樣本權重也隨之更新??梢娙醴诸惼鱾€數越多,在線學習的分類器性能越好,但是,需在線更新的弱分類器越多,其學習速度越慢。此外,文獻[9?11]提出了一些改進方法,但在線學習速度和分類器性能的矛盾一直沒有解決。
Ozuysal提出隨機蕨分類器算法[12],該算法隨機初始化多個隨機蕨,每個隨機蕨均包含[K]個特征。將每個特征二值化,相應的[K]個特征構成的隨機蕨為一個[K]位的二進制碼。統(tǒng)計正負訓練樣本在該隨機蕨的二進制數值即得到該隨機蕨的后驗概率分布。對于待測樣本則由多個隨機蕨的后驗概率共同估計其類別??梢?,該分類器將多個特征融合為一個隨機蕨,不再需要訓練弱分類器,提高了分類器訓練速度。因此,本文在其基礎上提出在線隨機蕨算法,通過更新每個隨機蕨的后驗概率分布實現在線學習,從而擺脫了對樣本權重及各個弱分類器權重、閾值的更新,因此分類器在線學習速度快。此外,隨機蕨分類器分類性能的好壞由每個隨機蕨包含的特征數及總隨機蕨個數決定,特征越多,隨機蕨總數越大,則分類效果越好。而隨機蕨分類器的在線學習是通過更新其后驗概率分布實現,因此提高隨機蕨個數,增加每個隨機蕨包含的特征數對在線學習速度影響不大,較好的平衡了分類器性能和在線學習速度的矛盾。
此外,本文提出半自主在線學習框架,可在隨機蕨分類器進行視頻目標檢測的同時通過少量的人工干預,逐漸提高該分類器的視頻目標檢測性能。同時,該框架也驗證了隨機蕨分類器及其在線學習算法對視頻目標檢測的效果。通過實驗可知,初始的隨機蕨分類器通過在線學習算法可有效提高其視頻目標檢測精度。
1 隨機蕨分類器
1.1 隨機蕨分類器
對比式(4)可見,隨機蕨分類器隨機提取多個特征構成隨機蕨,從而可聯(lián)合多個隨機蕨進行近似計算。從這個角度看,該算法是近似精確度和計算速度的平衡,通過對每個隨機蕨包含特征數及隨機蕨個數的選擇可保證在分類器訓練速度較快的情況下實現較好的分類精度。這一點對分類器的在線學習非常重要。
1.2 隨機蕨分類器的使用
由1.1節(jié)可知,隨機蕨后驗概率[P(FlCk)]的計算方法是隨機蕨分類器的關鍵。
通常訓練隨機蕨分類器采用二進制特征,如LBP,2 b模式等。假設在一個樣本中隨機提取5個特征值構成一個隨機蕨[F,]則該樣本的一個隨機蕨數值即為5位二進制碼對應的十進制數。由于該數值通過5位二進制碼獲得,因此有25種可能的數值,針對大量訓練樣本,可很方便地計算該隨機蕨的后驗概率。如圖1所示,由相同位置的5個特征可獲得每個樣本的隨機蕨數值,統(tǒng)計該數值分布即可獲得車輛樣本在該隨機蕨的后驗概率[P(FCk)]。
顯然一個隨機蕨對樣本的分類精度不高,可以通過式(4)聯(lián)合多個隨機蕨的分類結果,其中每個隨機蕨包含的特征數及使用的隨機蕨個數決定了分類精確度及訓練隨機蕨分類器消耗的時間。
2 半自主在線學習
為了使基于隨機蕨分類器的視頻目標檢測系統(tǒng)能夠在少量人工干預的幫助下逐漸提高檢測性能,本文提出半自主在線學習系統(tǒng),下面首先介紹在線隨機蕨算法,并在此基礎上構建半自主學習系統(tǒng)。
2.1 在線隨機蕨分類器
由上節(jié)可知,隨機蕨分類器的訓練不需更新弱分類器權重及樣本權重,只需統(tǒng)計每類訓練樣本在不同隨機蕨的后驗概率分布即可,如圖2所示,因此該分類器的訓練速度較快。并且,對于隨機蕨分類器的在線學習也很容易通過更新后驗概率分布實現。
本文主要探討在視頻中檢測某類目標的問題,與圖1,圖2的多類目標分類問題不同,需準備正負樣本訓練初始隨機蕨分類器,統(tǒng)計正負樣本在隨機蕨不同數值上的分布。例如,針對隨機蕨[F,]其對應的特征值為00101的正負樣本個數分別為[N]和[M,]相應地,該隨機蕨數值為00101時,為待檢測目標的可能性是[NN+M,]該隨機蕨有5個特征,相應有25種取值,統(tǒng)計每種取值的正負樣本個數,計算其為待測目標的可能性,即為隨機蕨[F]的后驗概率分布,如圖4所示。初始正負樣本通過隨機框選一個待檢測目標進行仿射變換得到。
在線學習時,每個隨機蕨的后驗概率分布根據增加的正負樣本數更新。設在線學習的樣本為[fnew,Ck,]其中[fnew]為其多維特征向量,[Ck]為其樣本類別,設為正樣本。下面以隨機蕨[F1]為例說明隨機蕨分類器的在線學習過程:
(1) 計算該樣本在隨機蕨[F1]的數值,設為00101,即十進制數5;
(2) 將隨機蕨[F1]的數值也為5的正樣本數[N]加1,負樣本數[M]不變;
(3) 更新隨機蕨[F1]的后驗概率分布,其中數值5的后驗概率變?yōu)閇(N+1)(N+M+1);]
(4) 歸一化隨機蕨[F1]的后驗概率分布。
可見,隨機蕨分類器的在線學習過程即為各個隨機蕨數值對應的樣本數統(tǒng)計過程,由樣本數變化更新后驗概率分布。因此其在線學習速度遠高于其他在線學習算法。
2.2 半自主在線學習框架
本文提出半自主在線學習框架可在檢測系統(tǒng)運行過程中手工框選部分錯誤的目標檢測結果作為在線學習樣本,用于隨機蕨分類器的在線學習,從而逐漸提高該分類器的視頻目標檢測性能。通過實驗可知,初始的隨機蕨分類器通過在線學習算法可有效提高視頻目標檢測精度。
半自主在線學習框架如圖5所示,首先在第一幀視頻圖像中框選一個待檢測目標, 利用該框選目標進行仿射變換得到初始正樣本集,同時在該視頻幀的非目標區(qū)域提取少量初始負樣本集。由初始正負樣本集根據1.2節(jié)提出的訓練方法訓練初始隨機蕨分類器,將該分類器用于后續(xù)幀的同類目標檢測。由人工對部分檢測結果進行判斷,對于檢測到的虛警則標注為在線學習負樣本,對于漏檢目標則框選出來作為在線學習的正樣本,采用2.1節(jié)提到的方法對隨機蕨分類器進行在線學習,更新其后驗概率分布。由于整個過程是人工指定在線學習樣本,因此這種方法稱為半自主在線學習。
半自主學習框架可在某一監(jiān)控場景視頻中在線訓練有針對性的分類器,這和傳統(tǒng)的離線學習方法有很大區(qū)別。離線學習中樣本準備過程及分類器的訓練過程均需耗費大量時間,非常不方便。采用半自主學習可直接從視頻幀中框選一個待檢測的目標啟動分類器的在線訓練過程,雖然剛開始檢測性能不佳,但是隨著在線學習的樣本增多,檢測性能逐漸提高。此外,半自主學習中,手工選取的在線學習樣本主要針對檢測過程多次出現的虛警及漏檢目標,從而提高分類器訓練的針對性,加快檢測性能提高速度,獲得針對某一監(jiān)控場景的檢測系統(tǒng)。一旦監(jiān)控場景變化或檢測目標類別變化,只需重新框選目標啟動新的半自主學習過程即可,從而為不同的監(jiān)控場景訓練其專用的分類器檢測系統(tǒng)。
2.3 半自主在線學習流程
由2.2節(jié)可知,半自主在線學習框架主要用于驗證隨機蕨分類器在線學習的有效性,其流程如圖6所示。
3 實驗效果及分析
在車輛目標檢測的實驗中,選取了一段交通視頻,從視頻文件中讀入視頻幀中的車輛信息。首先在第一幀視頻圖像中框選出一個車輛目標,對其進行仿射變換,得到200個正樣本,再從監(jiān)控視頻四周非目標區(qū)域提取300個負樣本訓練初始隨機蕨分類器。其中隨機蕨分類器的隨機蕨個數為15,每個隨機蕨包含的特征數為5個。將該分類器用于對后續(xù)視頻幀車輛目標的檢測,并手工選取漏檢目標作為在線學習正樣本,同時手工選取虛警作為在線學習負樣本,對分類器進行在線學習。實驗過程中,系統(tǒng)在線學習了不到500幀圖像,共2 875個正負樣本就獲得了不錯的檢測結果。如圖7~圖9所示。
在視頻目標檢測的初始階段,在線學習的樣本較少,視頻幀中的目標較難被檢測出來,這時候表現出來的是虛警少漏檢多,如圖7所示。隨著視頻中在線學習樣本量的增多,虛警越來越多,漏檢越來越少,如圖8所示。正樣本的在線學習使得視頻幀中能夠檢測到的目標增多,負樣本的在線學習使漏檢減少,相應地,虛警的數量就會變少。當分類器在線訓練的正負樣本越來越多時,分類型的性能就逐漸提高,視頻幀中的每個目標基本能夠被檢測出來,虛警也越來越少,如圖9所示。
通過觀察并且記錄了每個階段視頻幀中某部分虛警的數量和漏檢的數量,形成了一個表格,比較直觀地發(fā)現它們的變化規(guī)律,如表1所示。
為了說明本文在線隨機蕨分類器能夠在不同的環(huán)境中對目標進行檢測,具有較強的自適應性。將訓練好的車輛目標分類器在第二種檢測環(huán)境下進行半自主學習,只訓練了200幀左右,共862個正負樣本,就獲得了較好的檢測效果,如圖10,圖11所示,而在第三種檢測環(huán)境下,只半自主學習了不到100幀,共253個正負樣本,其檢測結果如圖12,圖13所示。
4 結 論
本文將隨機蕨算法和在線學習理論結合起來應用到目標檢測系統(tǒng)中,組成了在線隨機蕨的目標檢測方法。通過半自主學習框架使檢測模型在執(zhí)行目標檢測任務的同時逐步提高自身的檢測性能。多組實驗結果表明,本系統(tǒng)可以適應成像目標以及成像背景的變化,并保持不錯的檢測效果。
未來將進一步提高在線學習隨機蕨分類器的分類能力,并結合在線學習樣本自主獲取、標注方法,將系統(tǒng)擴展為全自主在線學習系統(tǒng),拓寬其應用范圍。
參考文獻
[1] LITTLESTONE N. Learning quickly when irrelevant attributes abound: a new linear threshold algorithm [J]. Machine learning, 1988, 2(4): 285?318.
[2] LITTLESTONE N, WARMUTH M K. The weighted majority algorithm [J]. Information and computation, 1994, 108(2): 212?261.
[3] POLIKAR R, UPDA L, UPDA S S, et al. Learn++: an incremental learning algorithm for supervised neural networks [J]. IEEE transactions on systems, man, and cybernetics, part C (applications and reviews), 2001, 31(4): 497?508.
[4] VIOLA P, JONES M J. Fast and robust classification using asymmetric AdaBoost and a detector cascade [J]. Advances in neural information processing system, 2002, 2(3): 1311?1318.
[5] OZA N, RUSSELL S. Online bagging and boosting [C]// Proceedings of the Eighth International Workshop on Artificial Intelligence and Statistics. Florida: [s.n.], 2001: 105?112.
[6] 馮國瑜,肖懷鐵,付強,等.一種適于在線學習的增量支持向量數據描述方法[J].信號處理,2012,28(2):186?192.
[8] GRABNER H, BISCHOF H. On?line boosting and vision [C]// Proceedings of 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. [S.l.]: IEEE, 2006: 260?267.
[9] ZEISL B, LEISTNER C, SAFFARI A, et al. On?line semi?supervised multiple?instance boostin [C]// Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition. San Francisco: IEEE, 2010: 1879?1887.
[10] CHEN S T, LIN H T, LU C J. Boosting with online binary learners for the multiclass bandit problem [C]// Proceedings of the 31st International Conference on Machine Learning. [S.l.: s.n.], 2014: 342?350.
[11] QI Zhiquan, XU Yitian, WANG Laisheng. Online multiple instance boosting for object detection [J]. Neurocomputing, 2011, 74(10): 1769?1775.
[12] OZUYSAL M, CALONDER M, LEPETIT V, et al. Fast keypoint recognition using random ferns [J]. IEEE transactions on pattern analysis and machine intelligence, 2010, 32(3): 448?461.
[13] PEDRO D, PAZZANI M. On the optimality of the simple Bayesian classifier under zero?one loss [J]. Machine learning, 1997, 29(3): 103?137.
[14] RENNIE J D M. Tackling the poor assumptions of Naive Bayes text classifiers [C]// Proceedings of the Twentieth International Conference on Machine Learning. [S.l.]: IEEE, 2003: 616?623.