• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    運算資源受限環(huán)境下的目標(biāo)跟蹤算法綜述

    2021-11-12 14:52:22武哲緯周世杰劉啟和
    計算機工程與應(yīng)用 2021年21期
    關(guān)鍵詞:網(wǎng)絡(luò)結(jié)構(gòu)濾波卷積

    武哲緯,周世杰,劉啟和

    電子科技大學(xué) 信息與軟件工程學(xué)院,成都610000

    視覺目標(biāo)跟蹤是一個開放的、有吸引力的研究領(lǐng)域,其現(xiàn)實需求大且應(yīng)用范圍廣泛,包括自動駕駛汽車[1-2]、自動機器人[3-4]、無人機跟蹤[5]等諸多方面。在復(fù)雜的現(xiàn)實場景中,目標(biāo)跟蹤場景的不適定性使得該問題更具有挑戰(zhàn)性,如目標(biāo)(例如行人、車輛、建筑等多種目標(biāo))的不規(guī)則形變、運動方式(例如高速運動、瞬移等情況)的變化以及環(huán)境條件的變化(例如照明變化、背景干擾等場景)增加了目標(biāo)跟蹤算法難度。

    目標(biāo)跟蹤方法的核心思想是根據(jù)跟蹤對象的特征在時空上完成跟蹤對象的匹配和位置預(yù)測。根據(jù)特征提取技術(shù)手段不同,可將目標(biāo)跟蹤算法分為兩類:基于傳統(tǒng)手工特征的目標(biāo)跟蹤方法與基于深度卷積的自動特征提取目標(biāo)跟蹤方法。

    基于傳統(tǒng)手工特征的目標(biāo)跟蹤方法根據(jù)其工作方式可大致劃分為核方法[6-7]、光流法[8-9]與判別相關(guān)濾波方法[10-12],主要以CamShift算法[13]、MOSSE算法[10]、SRDCF算法[14]與CFLB算法[15]為代表。這些算法主要采用包括SIFT特征[16]、SURF特征[17]、HoG特征[18]、Color Name特征[19]等通過仿照人類的視覺特點來提取圖像中具有區(qū)分能力的手工特征。

    傳統(tǒng)的目標(biāo)跟蹤方法盡管能夠完成目標(biāo)的視覺跟蹤任務(wù),但是仍存在跟蹤精度相對較低,且存在邊界效應(yīng)(Boundary Effect)的不足。

    深度學(xué)習(xí)理論被提出以來,對計算機視覺任務(wù)起到了巨大的推動作用,基于深度學(xué)習(xí)的目標(biāo)跟蹤算法越來越受到關(guān)注。根據(jù)其采用的主要網(wǎng)絡(luò)結(jié)構(gòu)不同,基于深度學(xué)習(xí)的目標(biāo)跟蹤方法可劃分為基于孿生網(wǎng)絡(luò)結(jié)構(gòu)的跟蹤方法[20-22]、基于GAN網(wǎng)絡(luò)結(jié)構(gòu)的跟蹤方法[23]、基于自定義網(wǎng)絡(luò)結(jié)構(gòu)的跟蹤方法[24-26]與基于卷積-濾波結(jié)構(gòu)的跟蹤方法[27-29],主要以SiamFC算法[20]、VITAL算法[23]、MDNet算法[25]與ECO算法[30]為代表。

    相比于傳統(tǒng)方法,深度神經(jīng)網(wǎng)絡(luò)在跟蹤精度方面有顯著提高,但龐大的網(wǎng)絡(luò)架構(gòu)需要占用更多的計算資源。如在邊緣設(shè)備(例如機器人、無人機等)中,其電力供應(yīng)有限、內(nèi)存與計算性能相對低,導(dǎo)致基于深度學(xué)習(xí)的目標(biāo)跟蹤算法電力消耗較大且無法實時跟蹤目標(biāo),進而限制了這類算法的應(yīng)用。

    目前,現(xiàn)存的基于深度神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤方法的綜述中缺少針對其在運算資源受限環(huán)境下的設(shè)計方式與表現(xiàn)的研究。因此,本次工作的主要動機是對運算資源受限環(huán)境下的目標(biāo)跟蹤方法做出調(diào)研,分析現(xiàn)有方法存在的問題并總結(jié)其在跟蹤任務(wù)流程中的設(shè)計策略。

    本文的主要貢獻如下:

    (1)本次工作以邊緣設(shè)備運算資源受限的需求作為出發(fā)點,以基于深度學(xué)習(xí)的目標(biāo)跟蹤方法為主,梳理了現(xiàn)有目標(biāo)跟蹤方法在跟蹤任務(wù)不同環(huán)節(jié)中的設(shè)計策略,并系統(tǒng)性闡述各類代表性方法的原理、優(yōu)點與不足。以便于研究者根據(jù)需求設(shè)計符合要求的跟蹤模型。

    (2)梳理了已有的單目標(biāo)跟蹤數(shù)據(jù)集,分析了其包含樣本的尺寸、數(shù)量以及樣本的疑難場景分布。供研究者們根據(jù)實際的場景與設(shè)備采用所需的數(shù)據(jù)集。此外,還系統(tǒng)性總結(jié)闡述了目標(biāo)跟蹤任務(wù)的評價方法與評價指標(biāo)。

    (3)總結(jié)了近年來目標(biāo)跟蹤方法在提升跟蹤效果上的方法思路,主要可分為輕量化與緊湊的骨干網(wǎng)絡(luò)架構(gòu)、基于預(yù)定義錨框的RPN模塊與相關(guān)濾波與卷積特征的融合。

    1 目標(biāo)跟蹤方法

    目標(biāo)跟蹤任務(wù)的目標(biāo)根據(jù)輸入的幀序列與序列首幀中的目標(biāo)位置來判斷后續(xù)幀中的目標(biāo)位置。

    目標(biāo)跟蹤算法根據(jù)流程,可以劃分為如圖1的架構(gòu),分為特征提取、特征匹配、目標(biāo)位置預(yù)測的三個部分。

    圖1 目標(biāo)跟蹤模型流程圖Fig.1 Flow diagram of object tracking model

    在給定幀序列的初始幀中,指定一塊區(qū)域作為跟蹤目標(biāo),并將其作為后續(xù)跟蹤的參考模板(該幀也可稱為模板幀);后續(xù)幀則為搜索圖像,每一次搜索操作都是在后續(xù)搜索圖像中進行搜索[20]。

    特征提取模塊由基礎(chǔ)的卷積神經(jīng)網(wǎng)絡(luò)組成,該部分旨在降低模板幀和搜索圖像的空間維度,并獲取二者的高層次特征表示。

    特征匹配模塊旨在根據(jù)前一階段的輸出,以特定的搜索策略在搜索圖像中尋找目標(biāo)的位置信息;目標(biāo)位置預(yù)測模塊根據(jù)特征匹配的結(jié)果,細(xì)化輸出目標(biāo)的位置信息。

    1.1 傳統(tǒng)目標(biāo)跟蹤方法

    傳統(tǒng)的目標(biāo)跟蹤方法主要可以分為光流法、核跟蹤方法與相關(guān)濾波方法。以下開始依次論述。

    1.1.1 光流法

    光流(Optical Flow)是空間運動物體在觀察成像平面上的像素運動的瞬時速度[31]。光流法是利用圖像序列中像素在時間域上的變化以及相鄰幀之間的相關(guān)性來找到上一幀跟當(dāng)前幀之間存在的對應(yīng)關(guān)系,從而計算出相鄰幀之間物體的運動信息的一種方法。光流法的應(yīng)用基于如下三個基本假設(shè):

    (1)亮度恒定:圖像中目標(biāo)的像素強度在連續(xù)幀之間不會發(fā)生變化。

    (2)時間規(guī)律:相鄰幀之間的時間足夠短,以至于在考慮運行變化時可以忽略它們之間的差異。

    (3)空間一致性:相鄰像素具有相似的運動。

    在跟蹤過程中目標(biāo)由于外界環(huán)境或自身運動導(dǎo)致其自身的視覺外觀產(chǎn)生變化,對于依賴目標(biāo)外觀的光流法而言,其應(yīng)對變化的魯棒性相對不足,且計算時需要遍歷每一個像素點,計算效率相對低下,不能滿足實時性要求。

    1.1.2 核跟蹤方法

    核跟蹤方法的中心思想是沿與模板相似度最大的矢量方向不斷迭代候選目標(biāo)框,并收斂于目標(biāo)的真實位置。以MeanShift算法為例,該方法首先對目標(biāo)外觀特征進行建模以得到關(guān)于目標(biāo)特征的概率密度函數(shù)(也稱核函數(shù)),同樣地,對搜索圖像進行建模也可得到關(guān)于其特征表達(dá)的概率密度函數(shù)。通過梯度上升的方式迭代到相似度最高的位置,并將其作為跟蹤結(jié)果。但核函數(shù)方法在目標(biāo)受到遮擋、模糊以及尺度變化時的表現(xiàn)不佳,Camshift算法[13]加入了尺度自適應(yīng)機制以緩解尺度變化對跟蹤精度造成的影響。

    但是由于核跟蹤算法存在對目標(biāo)變化的魯棒性相對弱、對空間信息獲取不夠充分等不足,近年來對基于核的跟蹤方法的研究相對較少。

    1.1.3 相關(guān)濾波方法

    深度學(xué)習(xí)理論被提出之后相關(guān)濾波方法也結(jié)合深度特征進行了深入的研究,故單純的相關(guān)濾波方法被歸類為傳統(tǒng)方法,結(jié)合深度特征的相關(guān)濾波方法于1.2.4小節(jié)進行詳細(xì)闡述。在此僅對主要的傳統(tǒng)方法進行簡要介紹。

    相關(guān)濾波方法也可稱為判別相關(guān)濾波(Discriminative Correlation Filter,DCF)方法,其理論發(fā)源于信號處理方面的研究。相關(guān)濾波方法的主要思想是通過最小化搜索圖像實際與預(yù)期的均方誤差來訓(xùn)練一個濾波模板,利用該模板與搜索圖像采樣做相關(guān)運算,因兩相關(guān)信號的響應(yīng)值大于兩不相關(guān)信號,故可通過最大化輸出響應(yīng)得到待跟蹤目標(biāo)的具體位置。其目標(biāo)函數(shù)可以寫作[10]:

    2014年,MOSSE算法[10]首次將相關(guān)濾波方法應(yīng)用于目標(biāo)跟蹤領(lǐng)域,通過多個樣本目標(biāo)優(yōu)化最小平方和誤差訓(xùn)練更加魯棒的濾波器,并且實現(xiàn)濾波模板的在線更新以適應(yīng)目標(biāo)變化。此外還提出了使用峰值旁瓣比(Peak to Sidelobe Ratio,PSR)進行跟蹤置信度的評估。

    CSK算法[32]在MOSSE算法的基礎(chǔ)上,為求解濾波模板的目標(biāo)函數(shù)添加了正則化項來防止過擬合;其次,通過循環(huán)移位操作快速生成訓(xùn)練正樣本;同時通過引入快速傅里葉變換(Fast Fourier Transform,F(xiàn)FT)來簡化計算,提高濾波模板的計算速度,以及引入核函數(shù)來進行預(yù)測?;谙嚓P(guān)濾波的目標(biāo)跟蹤算法以CSK算法為代表,其改進算法在傳統(tǒng)方法中占據(jù)主導(dǎo)地位。但是,CSK算法引入的循環(huán)移位操作和快速傅里葉變換同樣也帶來了邊界效應(yīng),邊界效應(yīng)的存在讓跟蹤器只會過度關(guān)注于圖像中間位置,而處在圖像邊緣的目標(biāo)難以被發(fā)現(xiàn)。

    為了解決邊界效應(yīng)所帶來的問題,研究者也從引入懲罰權(quán)重與強化特征表示兩方面展開了研究。SRDCF算法[14]與CFLB算法[15]采用加大搜索區(qū)域,同時對濾波模板進行約束來減少邊界效應(yīng)的影響。SRDCF算法加入空域正則化機制,懲罰邊界區(qū)域的濾波器系數(shù)。懲罰權(quán)重滿足負(fù)高斯分布,對于越接近邊緣的區(qū)域賦予更高的懲罰權(quán)重。CFLB算法提出通過Mask矩陣的形式實現(xiàn)對背景信息的抑制。

    在特征表示方面,也有研究者對CSK算法做出了改進。KCF算法[12]通過引入HoG特征來更好地描述目標(biāo)形狀信息并與ColorName形成互補。SAMF算法[33]引入了多尺度檢測的方法,將濾波器在多尺度縮放的圖像上進行檢測,以同時檢測目標(biāo)中心與尺度的變化。DSST算法[11]將目標(biāo)跟蹤看成目標(biāo)中心平移和目標(biāo)尺度變化兩個獨立問題,首先通過訓(xùn)練判別濾波器檢測目標(biāo)中心平移,隨后通過MOSSE方法訓(xùn)練另一個尺度相關(guān)濾波負(fù)責(zé)檢測目標(biāo)尺度變化。

    傳統(tǒng)跟蹤方法仍存在以下兩點不足:

    (1)跟蹤精度相對較低,其深層次原因是無法魯棒地表達(dá)目標(biāo)特征,外界環(huán)境或運動因素對目標(biāo)特征的影響、背景對于目標(biāo)特征表示的干擾都會導(dǎo)致跟蹤失敗的情況發(fā)生。

    (2)判別相關(guān)濾波方法引入循環(huán)位移操作與快速傅里葉變換來循環(huán)生成訓(xùn)練樣本與提高計算速度,但其也不可避免地引入了邊界效應(yīng),這導(dǎo)致了對快速運動目標(biāo)檢測能力的降低。

    1.2 基于深度學(xué)習(xí)的目標(biāo)跟蹤方法

    隨著深度學(xué)習(xí)理論的發(fā)展,深度神經(jīng)網(wǎng)絡(luò)憑借其泛化性與特征表達(dá)的魯棒性走入了研究人員的視野。近年來的目標(biāo)跟蹤領(lǐng)域的研究主要都集中在深度學(xué)習(xí)方面,由此可見基于深度學(xué)習(xí)的目標(biāo)跟蹤方法具有重大潛力。

    根據(jù)其采用的網(wǎng)絡(luò)結(jié)構(gòu)可以將其劃分為孿生網(wǎng)絡(luò)結(jié)構(gòu)、GAN網(wǎng)絡(luò)結(jié)構(gòu)、自定義網(wǎng)絡(luò)結(jié)構(gòu)與卷積-濾波結(jié)構(gòu)。表1以年代為順序,列出了近年來具有代表性的基于深度學(xué)習(xí)的目標(biāo)跟蹤方法,并著重體現(xiàn)其在適用場景、運算量、參數(shù)量與跟蹤速度等性能方面的表現(xiàn)。以下開始依次論述。

    表1 (續(xù))

    表1 目標(biāo)跟蹤網(wǎng)絡(luò)模型詳細(xì)信息Table 1 Details of object tracking model

    1.2.1 孿生網(wǎng)絡(luò)結(jié)構(gòu)

    孿生神經(jīng)網(wǎng)絡(luò)(Siamese Neural Network),是基于兩個人工神經(jīng)網(wǎng)絡(luò)建立的耦合架構(gòu)。孿生神經(jīng)網(wǎng)絡(luò)以兩個樣本為輸入,輸出其嵌入高維度空間的表征,以比較兩個樣本的相似程度。狹義的孿生神經(jīng)網(wǎng)絡(luò)由兩個結(jié)構(gòu)相同,且權(quán)重共享的神經(jīng)網(wǎng)絡(luò)拼接而成。

    2016年,SINT算法[34]與SiamFC算法首先將孿生網(wǎng)絡(luò)結(jié)構(gòu)應(yīng)用于目標(biāo)跟蹤技術(shù)的研究,并取得了長足的進步。前述兩方法奠定了基于孿生網(wǎng)絡(luò)結(jié)構(gòu)的目標(biāo)跟蹤方法的基本流程:

    孿生網(wǎng)絡(luò)的一個分支提取目標(biāo)特征,另一個分支提取搜索圖像的全局特征,最后通過互相關(guān)操作進行特征匹配生成目標(biāo)位置的響應(yīng)圖。

    隨著基于孿生神經(jīng)網(wǎng)絡(luò)的目標(biāo)跟蹤理論的發(fā)展,研究者們主要從目標(biāo)特征表示、特征匹配與位置預(yù)測兩個方面對跟蹤器的性能進行改進和提升,以下依次展開論述。

    (1)目標(biāo)特征表示

    特征提取模塊主要采用預(yù)訓(xùn)練的骨干網(wǎng)絡(luò)(例如:AlexNet[35]、VGG[36])ResNet[37]等),該部分主要承載著獲取模板幀與搜索圖像的特征的作用。

    在基于孿生網(wǎng)絡(luò)的跟蹤方法中,特征提取部分方面的設(shè)計思路主要可劃分為直接由骨干網(wǎng)絡(luò)獲取卷積特征、卷積特征與中間特征結(jié)合、卷積特征與其他信息融合與目標(biāo)模板更新等思路。針對目標(biāo)特征表示任務(wù),各種網(wǎng)絡(luò)結(jié)構(gòu)之間的簡要對比如表2所述。表中關(guān)于自定義網(wǎng)絡(luò)結(jié)構(gòu)與卷積-濾波結(jié)構(gòu)部分的詳細(xì)敘述見1.2.3小節(jié)與1.2.4小節(jié)。

    表2 目標(biāo)特征表示方法優(yōu)缺點的比較Table 2 Comparison of advantages and disadvantages of target feature extraction

    直接通過骨干網(wǎng)絡(luò)獲取特征的思路將原始目標(biāo)圖像或搜索圖像輸入骨干網(wǎng)絡(luò),通過卷積計算后得到的結(jié)果作為目標(biāo)以及搜索圖像的特征表示。使用此類方法的典型文獻包括SiamFC算法、SINT算法、GOTURN算法[38]、DCFNet算 法[39]、CREST算法[40]、EAST算法[41]、RASNet算法[42]、MemTrack算法[43]。該方法簡單直接,但在目標(biāo)的尺度變化、旋轉(zhuǎn)等外觀狀態(tài)改變的情況下效果不佳。因為高層網(wǎng)絡(luò)具有更大的感受野,故對語義層面的信息具有更強的表征能力。但缺點在于其輸出的特征圖的分辨率更低,故缺乏幾何細(xì)節(jié)特征的表示。

    為了獲取骨干網(wǎng)絡(luò)中間層所蘊含的對目標(biāo)幾何特征信息的表示,研究者們采用了抽取卷積層之間的中間特征的方法。將中間特征與最終特征共同作為目標(biāo)與搜索圖像特征的表示作為后續(xù)步驟的輸入。使用此類方法的典型文獻包括SiamRPN++算法[44]、SiamCAR算法[45]、SPM-Tracker算 法[46]、ATOM算 法[47]、C-RPN算法[48]、StructSiam算法[49]、DCFST算法[50]、PGNet算法[51]。相比于單純獲取最終特征圖的方法,采用中間特征可以增加較小的計算開銷的前提下獲取不同尺度下的特征圖,通過多尺度特征融合操作獲取不同層次的目標(biāo)特征表示。相比于直接獲取特征方法而言,更加利用了低層網(wǎng)絡(luò)的小感受野、強幾何細(xì)節(jié)特征表達(dá)的優(yōu)點。

    除了關(guān)注視覺特征以外,由于跟蹤任務(wù)的幀與幀之間并非完全獨立的原因,故也不應(yīng)忽略幀間以及通道間的信息。研究人員也在探索將幀間的時空信息、目標(biāo)-背景的注意力機制與通道注意力機制等視覺以外的信息作為視覺特征的補充,以增強目標(biāo)特征的表達(dá)。

    例如,SA-Siam算法[52]采用語義分支與外觀分支分別過濾背景干擾與泛化目標(biāo)外觀變化;SiamAttn算法[53]以Self-Attention模塊與Cross-Attention模塊分別增強上下文信息并融合補償兩個模塊之間的特征表示。此外,GCT算法[54]引入圖神經(jīng)網(wǎng)絡(luò)結(jié)合時空特征以應(yīng)對目標(biāo)的特征變化。MLT算法[55]與ROAM算法[56]分別將元學(xué)習(xí)的方式應(yīng)用在目標(biāo)外觀特征的提取中以捕捉目標(biāo)外觀的動態(tài)變化。

    更新目標(biāo)模板也是重要的研究方向。此前的跟蹤方法都是在視頻首幀指定目標(biāo)位置,此后目標(biāo)特征則不再更新,但隨著外界條件的變化或受目標(biāo)自身運動的影響,目標(biāo)的視覺特征也可能發(fā)生相應(yīng)的變化。在此情況下根據(jù)第一幀的目標(biāo)特征進行搜索將會導(dǎo)致不可避免的錯誤。SiamBM算法[57]使用線性融合的方式將初始幀與前序幀的預(yù)測結(jié)果融合;UpdateNet算法[58]采用專門的模板更新子網(wǎng)以自適應(yīng)非線性的方式融合最新的目標(biāo)特征;GradNet算法[59]旨在挖掘目標(biāo)變化的梯度信息,以得到最優(yōu)的目標(biāo)特征表示。簡單的線性融合模板方式的缺點是初始特征所占的比重會以指數(shù)級降低,且誤差會以指數(shù)級增加;自適應(yīng)非線性融合方式則可以自主學(xué)習(xí)目標(biāo)變化,從而減小誤差對模板特征的污染,但其在目標(biāo)被遮擋時仍會引入誤差因素;以梯度信息實現(xiàn)模板的更新在目標(biāo)特征產(chǎn)生劇烈變化時,仍可以準(zhǔn)確捕捉到特征位置。但是,模板更新策略由于需要在跟蹤任務(wù)執(zhí)行的過程中重復(fù)計算、融合模板特征,往往會對跟蹤速度帶來較大影響。

    (2)特征匹配與位置預(yù)測

    特征匹配模塊通過特定的方式或策略,根據(jù)從特征提取模塊獲取的目標(biāo)特征在搜索圖像中找到目標(biāo)的位置。該模塊當(dāng)前主流的設(shè)計策略有:區(qū)域建議網(wǎng)絡(luò)、匹配操作改進與位置預(yù)測改進等思路。

    區(qū)域建議網(wǎng)絡(luò)(Regional Proposal Network,RPN)最早于目標(biāo)檢測任務(wù)的Faster R-CNN算法[60]被引入。RPN網(wǎng)絡(luò)生成一系列預(yù)定義邊框,每個邊框位置代表可能存在目標(biāo)的區(qū)域的預(yù)測。采用RPN方法的典型文獻包括SiamRPN算法、C-RPN算法、SiamRPN++算法、SiamMask算法、DaSiamRPN算法[61]、SPLT算法[62]。RPN網(wǎng)絡(luò)的引入可以大幅減少特征匹配階段的計算開銷,但是會引入額外的先驗知識(例如目標(biāo)的縱橫比與錨框數(shù)量),額外先驗知識所導(dǎo)致的缺陷就是對于先驗知識沒有涉及到的形狀與形變的魯棒性較差,并且錨框數(shù)量的多少也直接決定了跟蹤性能。

    為緩解由RPN網(wǎng)絡(luò)所帶來的局限性,研究人員又把思路放回到的Anchor-Free方法,例如SiamFC++算法[63]、OCEAN算法[64]與FCAF算法[65],Anchor-Free方法擺脫RPN網(wǎng)絡(luò)中預(yù)定義邊框帶來的先驗知識,回歸到以像素點為單位進行物體位置中心與邊框位置預(yù)測的計算思路中。

    在匹配操作改進方面,DaSiamRPN算法與SPLT算法采用了“先局部-后全局”的目標(biāo)搜索策略。SiamRPN++算法、EAST算法與PGNet算法提出了新的互相關(guān)策略以減少匹配計算時的計算開銷。CGACD算法[66]通過孿生網(wǎng)絡(luò)對目標(biāo)進行初步定位,再在目標(biāo)ROI內(nèi)進行角點檢測以精細(xì)定位。同樣地,SA-Siam算法、TADT算法、RASNet算法也注意到在跟蹤不同的目標(biāo)時,響應(yīng)強烈的通道也不盡相同,故上述方法采用通道注意力機制,根據(jù)不同目標(biāo)激活不同特征通道。

    在位置預(yù)測方面,孿生網(wǎng)絡(luò)的預(yù)測結(jié)果為由目標(biāo)特征圖與搜索圖像特征圖經(jīng)過互相關(guān)操作產(chǎn)生的響應(yīng)圖而得到的分類置信度,或是根據(jù)全連接層通過回歸計算得到的目標(biāo)位置坐標(biāo)。在后續(xù)的研究中,研究者們也在分類分支與回歸分支之外,引入了新的分支來完成細(xì)化網(wǎng)絡(luò)對最終目標(biāo)位置的輸出。SiamFC++算法加入了質(zhì)量評估分支以評估該幀跟蹤結(jié)果的質(zhì)量,根據(jù)評估結(jié)果調(diào)整預(yù)測邊框的具體位置。PrDiMP算法[67]通過對噪音與不確定性建模,并以概率回歸的方式預(yù)測目標(biāo)位置,達(dá)到較高的準(zhǔn)確度。CLNet算法[68]引入CLN子網(wǎng),通過結(jié)合正負(fù)樣本的統(tǒng)計信息得到一個緊湊的目標(biāo)特征表達(dá),以重現(xiàn)正負(fù)樣本的分布來指導(dǎo)預(yù)測。

    也有研究者提出了新的預(yù)測思路——SiamMask算法在預(yù)測分支中加入一個Mask預(yù)測分支,在預(yù)測的同時也能完成像素級的實例分割任務(wù)。D3S算法[69-70]在SiamMask算法的基礎(chǔ)上提出使用橢圓與最小二乘法細(xì)化目標(biāo)邊框的輸出。

    總體而言,匹配操作改進部分的研究旨在降低計算開銷與提升匹配精度,降低開銷主要體現(xiàn)在“先局部后全局”與“粗匹配-細(xì)匹配”的二階段匹配策略;提升匹配精度表現(xiàn)在關(guān)注匹配時的通道注意力機制。位置預(yù)測方面的研究則關(guān)注于對現(xiàn)有跟蹤結(jié)果的評估以指導(dǎo)下一次預(yù)測。

    1.2.2 生成對抗網(wǎng)絡(luò)結(jié)構(gòu)

    生成對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)至少由一生成器與一判別器組成。生成模型旨在擬合已有數(shù)據(jù)的數(shù)據(jù)分布以生成新的符合原分布的數(shù)據(jù),判別器旨在判別數(shù)據(jù)的真?zhèn)涡?。生成器與判別器相互博弈的過程中,二者的水平不斷提高以達(dá)到訓(xùn)練者的要求。

    VITAL算法利用GAN網(wǎng)絡(luò)生成一個Mask以增強目標(biāo)的特征,同時訓(xùn)練一對目標(biāo)變化魯棒的判別器以判別目標(biāo)與背景。SiamGAN算法[70]提出了一個基于GAN網(wǎng)絡(luò)的路徑預(yù)測器,以預(yù)測目標(biāo)被遮擋后的運動路徑。

    基于GAN網(wǎng)絡(luò)的大部分工作將GAN運用在擴充與增強數(shù)據(jù)集,以緩解數(shù)據(jù)集中某一特殊場景數(shù)據(jù)少或正負(fù)樣本不平衡方面的問題(例如SINT++算法[71])。GAN網(wǎng)絡(luò)結(jié)構(gòu)本身在跟蹤領(lǐng)域應(yīng)用相對較少,因為GAN網(wǎng)絡(luò)模型龐大、訓(xùn)練難以收斂且計算開銷大,在前向推理時難以達(dá)到實時性要求,故在運算資源受限環(huán)境下不推薦使用。

    1.2.3 自定義網(wǎng)絡(luò)結(jié)構(gòu)

    除上述孿生網(wǎng)絡(luò)與生成對抗網(wǎng)絡(luò)結(jié)構(gòu)之外,也有研究者提出了符合自己設(shè)計理念的,為跟蹤任務(wù)專門設(shè)計網(wǎng)絡(luò)結(jié)構(gòu)的跟蹤網(wǎng)絡(luò)。這部分的工作主要可劃分為目標(biāo)特征表示以及學(xué)習(xí)策略與模型更新兩部分,以下依次展開論述。

    (1)目標(biāo)特征表示

    通過融合卷積特征或時空信息,基于CNN結(jié)構(gòu)的跟蹤方法同樣也在構(gòu)造魯棒的目標(biāo)特征表示做出努力。各思路的簡要比較如表2所示。

    TCNN算法旨在捕捉目標(biāo)特征的動態(tài)變化,構(gòu)造了一個以CNN模塊組成的樹狀結(jié)構(gòu),葉節(jié)點保存的目標(biāo)最新的特征,根節(jié)點保存歷史特征,再通過線性加權(quán)的方式組合目標(biāo)最終特征。

    FlowTrack算法[72]通過融合歷史幀的光流與特征信息獲取當(dāng)前幀中的空間注意力,并通過空間注意力對不同特征通道進行加權(quán)得到通道層面的目標(biāo)注意力。KYS算法[73]不僅只傳播目標(biāo)的特征信息,連同場景、相似物體等有助于判別目標(biāo)位置的其他特征表示也一同被傳播。并將其映射到當(dāng)前幀,結(jié)合目標(biāo)外觀特征進行跟蹤預(yù)測。

    SANet算法[74]通過RNN對目標(biāo)特征進行結(jié)構(gòu)化建模,以提升模型的鑒別相似物體的能力,以跳躍連接的方式將RNN特征與卷積層中間特征進行融合。類似地,MemTrack算法、TSN算法[75]、ROLO算法[76]、Re3算法[77]、RFL算法[78]都使用了LSTM模塊以結(jié)合時域與空域的信息來進行目標(biāo)特征提取任務(wù)。FPL算法[79]在目標(biāo)被遮擋時,通過建立背景運動模型并使用卷積-LSTM網(wǎng)絡(luò)進行目標(biāo)軌跡預(yù)測。

    采用RNN或LSTM結(jié)構(gòu)的模型都存在著模型參數(shù)多、訓(xùn)練時難以收斂、耗時長的缺點,并且由于其為時間序列模型,無法執(zhí)行并行操作,故該類模型的跟蹤效率為精度所付出的代價相對高昂,在運算資源受限的場景下需要慎重考慮。

    (2)學(xué)習(xí)策略與模型更新

    同樣地,也有研究者們在模型的訓(xùn)練方式或?qū)W習(xí)方式上做出了研究,例如將元學(xué)習(xí)、強化學(xué)習(xí)、集成學(xué)習(xí)等方式融入進模型的訓(xùn)練過程,在有限的數(shù)據(jù)集上提升訓(xùn)練效率或優(yōu)化訓(xùn)練效果。

    DAT算法[80]以循環(huán)學(xué)習(xí)的方式計算Attention Map,并且將其作為訓(xùn)練階段的正則項使模型學(xué)習(xí)到對外觀變化具有魯棒性的特征。STCT算法[81]與MDNet算法采用在線學(xué)習(xí)與離線訓(xùn)練相結(jié)合的方式訓(xùn)練模型,MDNet的共享層權(quán)重由跟蹤訓(xùn)練集共同訓(xùn)練,專用層由每個視頻序列單獨訓(xùn)練,在跟蹤過程中使用在線微調(diào)的方式更新專用層參數(shù),由于對跟蹤任務(wù)專門設(shè)計了共享層網(wǎng)絡(luò)結(jié)構(gòu),并且對重難點樣本進行挖掘,使得跟蹤精度與同時期算法相比相對較高。MDNet的局限性在于在跟蹤過程中在線對專用層權(quán)重進行微調(diào),使得其跟蹤速度遠(yuǎn)未達(dá)到實時跟蹤的要求。RT-MDNet算法[82]通過ROI對齊的方式在識別速度方面對其進行了改進。MAML-Tracker算法[83]引入了元學(xué)習(xí)方法,讓跟蹤器學(xué)習(xí)一個好的初始化權(quán)重,在少量訓(xùn)練數(shù)據(jù)上經(jīng)過少數(shù)更新即可收斂。ADNet算法[84]通過強化學(xué)習(xí)產(chǎn)生目標(biāo)的動作序列,以控制目標(biāo)BBox進行移動或尺度變換。模型更新方面UCT算法[85]通過引入峰值信噪比進行有效的模型在線更新,并且可以通過更換輕量化的骨干網(wǎng)絡(luò)以達(dá)到更高的速度。BranchOut算法[86]通過集成學(xué)習(xí)的方式,并行學(xué)習(xí)多個卷積分支的信息,但在模型更新期間,通過多重伯努利分布隨機篩選一部分分支進行模型更新,達(dá)到類似DropOut的效果以防止過擬合。

    總體上看,學(xué)習(xí)策略與模型更新方面的研究主要在模型的訓(xùn)練階段體現(xiàn)。離線的預(yù)訓(xùn)練模型旨在大規(guī)模數(shù)據(jù)集上提取到通用的目標(biāo)特征表示,但也容易收到因訓(xùn)練數(shù)據(jù)不平衡與先驗假設(shè)導(dǎo)致的識別問題,通過離線訓(xùn)練與在線訓(xùn)練相結(jié)合的方式,在獲取通用特征表示的同時也完成對特定場景或目標(biāo)的特征信息的學(xué)習(xí)。

    1.2.4 卷積-濾波結(jié)構(gòu)

    卷積-濾波結(jié)構(gòu)是深度特征與相關(guān)濾波方法的結(jié)合。相比于深度特征,手工設(shè)定特征計算速度快,特征的每一個維度具有可解釋性的特征表示,但手工特征面對目標(biāo)變化與形變無法保證提取效果的魯棒性?;贑NN網(wǎng)絡(luò)的深度特征提取網(wǎng)絡(luò)通過構(gòu)建網(wǎng)絡(luò)層次,在大規(guī)模監(jiān)督數(shù)據(jù)集上進行網(wǎng)絡(luò)參數(shù)的訓(xùn)練,以端到端的形式提取輸入圖像的特征。卷積特征的表達(dá)效果魯棒、泛化性強,但是也存在可解釋性較差與前向推理速度慢的問題。卷積-濾波結(jié)構(gòu)通過結(jié)合二者的優(yōu)點,努力實現(xiàn)跟蹤精度與速度的平衡。

    該部分的工作可以歸為目標(biāo)特征表示、計算方式與優(yōu)化策略兩類,以下依次展開論述。

    (1)目標(biāo)特征表示

    卷積-濾波結(jié)構(gòu)的目標(biāo)跟蹤方法在目標(biāo)特征表示方面的思路大體一致,可劃分為手工特征與卷積特征的融合、中間特征與卷積特征的融合與空時特征與卷積特征的融合三部分。

    手工特征與卷積特征融合方面,MCPF算法[87]首次采用多任務(wù)濾波方法進行多種特征(CN、HOG、CNN)特征的融合。MCCT算法[88]、TRACA算法[89]都設(shè)置了多個跟蹤器或編/解碼器,根據(jù)不同目標(biāo)自主組合深度特征與手工特征。值得注意的是,MCCT算法設(shè)置了7個子跟蹤專家,分別組合代表低、中、高層的深度特征與手工特征生成融合特征進行跟蹤,并根據(jù)7個跟蹤器的結(jié)果進行評價與結(jié)果選擇,得到最后的結(jié)果。由于堆疊了多個跟蹤專家,使得其跟蹤速度相對緩慢,即使通過DCF結(jié)構(gòu)設(shè)計以及樣本共享策略以優(yōu)化性能,MCCT的跟蹤速度仍只有8 FPS,無法滿足實時跟蹤需求。ASRCF算法[90]在傳統(tǒng)DCF的基礎(chǔ)上增加了自適應(yīng)空間正則項,通過深度特征估計目標(biāo)定位,根據(jù)手工特征以估計尺度變化。

    為了應(yīng)對目標(biāo)的尺度變化,C-COT算法通過整合多尺度的中間特征圖以訓(xùn)練連續(xù)空間域上的卷積算子進行跟蹤,HCFTstar算法[91]使用不同尺度下的特征圖以捕捉目標(biāo)位置表示,并且引入RPN網(wǎng)絡(luò)進行跟蹤失敗后的重檢測。SACF算法[92]以空間特征對齊的方式估計目標(biāo)的變換,使預(yù)測的ROI區(qū)域具有正確的尺度與縱橫比。

    CREST算法通過空域與時域?qū)用娴臍埐顚W(xué)習(xí)比較當(dāng)前幀與初始幀獲得目標(biāo)的特征變化信息。

    如1.1.3小節(jié)所述,相關(guān)濾波方法的循環(huán)位移操作引入了邊界效應(yīng),為了緩解邊界效應(yīng)的影響,LMCF算法[93]融合結(jié)構(gòu)化SVM的判別力與相關(guān)濾波算法高速特性,并且通過多峰前向檢測降低相似物體的干擾。DRT算法[94]與LSART算法[95]將目標(biāo)區(qū)域等分為九宮格,通過賦予其不同的可靠性權(quán)重以降低跟蹤模板內(nèi)無用區(qū)域中存在的冗余信息。

    手工特征與深度特征的融合在跟蹤精度方面對比于僅采用手工特征的方法實現(xiàn)了超越;在跟蹤速度方面,某些方法比僅采用深度特征的方法也有所提升。深度特征與手工特征的融合是值得關(guān)注的研究方向,當(dāng)遭遇目標(biāo)丟失時的再檢測機制同樣也能很好地提升跟蹤方法的跟蹤表現(xiàn)。

    (2)計算方式與優(yōu)化策略

    此方面的工作主要集中在通過對損失函數(shù)、計算方式的優(yōu)化,提高計算速度與跟蹤精度。

    計算速度提升方面,ECO算法通過因式分解卷積操作,減小冗余訓(xùn)練數(shù)據(jù),與降低在線更新頻率來提高跟蹤速度。RPCF算法[96]將ROI池化策略引入到相關(guān)濾波的方法中,并通過對濾波器目標(biāo)區(qū)域的系數(shù)進行限制以達(dá)到簡化計算的目的。CFCF算法[97]針對基于跟蹤網(wǎng)絡(luò)的損失函數(shù)提出了高效的反向傳播算法以降低模型更新與訓(xùn)練的時間。GFS-DCF算法[98]引入空域、時間、通道三方面正則項,以降低空間與通道維度的尺寸實現(xiàn)特征壓縮,時間平滑正則項對幀間估計提出了約束,共同提高跟蹤速度與精度。IBCCF算法[99]與MCPF算法都采用“粗匹配-細(xì)匹配”的二階段匹配策略,減少在無效區(qū)域的計算,并提高可能存在目標(biāo)區(qū)域的注意力。

    跟蹤精度的提高方面,deepSTRCF算法[100]與ARCF算法[101]引入正則化項捕捉目標(biāo)特征的最新變化與壓制相似物體的干擾。AutoTrack算法[102]在STRCF算法的基礎(chǔ)之上,通過局部與全局的響應(yīng)變化來自動更新時間與空間正則化,并且在更新過程中自動調(diào)整正則化項中的超參數(shù)以自適應(yīng)環(huán)境與目標(biāo)的變化。

    相關(guān)濾波與卷積網(wǎng)絡(luò)的融合思路是成功的,特征融合策略不僅發(fā)揮了每種特征在表征方面的優(yōu)勢,也能更好地為后續(xù)跟蹤步驟做出鋪墊;計算方式的研究在特征壓縮、特征匹配上的改進也對性能與精度帶來了提升。

    1.2.5 小結(jié)

    深度學(xué)習(xí)方法較大程度地提高了應(yīng)對目標(biāo)特征變化時的魯棒性與泛化性,但也存在共通性的缺點:

    (1)跟蹤速度相對較低。隨著網(wǎng)絡(luò)模型的加深,算法的跟蹤精度得到了較大提升,但在速度方面的表現(xiàn)卻不盡人意。運算資源受限的設(shè)備在網(wǎng)絡(luò)中往往扮演數(shù)據(jù)采集、初步分析的底層角色,故其對于跟蹤速度的要求更高。

    (2)數(shù)據(jù)需求量大。深度模型的訓(xùn)練依賴于大量的數(shù)據(jù)與超參數(shù),現(xiàn)有的訓(xùn)練樣本并不能完全重現(xiàn)應(yīng)用場景中的樣本分布。并且單純依賴初始幀中的正樣本,也導(dǎo)致了正樣本匱乏的不足。樣本的不足進一步導(dǎo)致了泛化能力與場景遷移能力的不足。

    表3 詳細(xì)描述了孿生網(wǎng)絡(luò)結(jié)構(gòu)、GAN網(wǎng)絡(luò)結(jié)構(gòu)、卷積網(wǎng)絡(luò)結(jié)構(gòu)與卷積-濾波結(jié)構(gòu)的目標(biāo)跟蹤算法優(yōu)缺點。

    從表3可以看出,當(dāng)前的研究工作基本圍繞著跟蹤速度與跟蹤精度兩個要點而展開。孿生網(wǎng)絡(luò)結(jié)構(gòu)靈活度高,不僅可以與不同的骨干網(wǎng)絡(luò)(例如搭載VGG、ResNet、AlexNet等多種骨干網(wǎng)絡(luò))、相關(guān)層、RPN網(wǎng)絡(luò)(例如SiamRPN算法與其改進方案)與評估分支(例如SiamFC++算法與CLNet算法)進行組合也可以與不同的搜索策略與學(xué)習(xí)方式進行互補。其次,孿生的網(wǎng)絡(luò)結(jié)構(gòu)能夠以同樣的表征方式提取目標(biāo)與搜索圖像的特征。通過對孿生網(wǎng)絡(luò)結(jié)構(gòu)的進一步改進,現(xiàn)有的孿生網(wǎng)絡(luò)結(jié)構(gòu)可以提供速度與精度上的統(tǒng)一。孿生網(wǎng)絡(luò)的缺陷在于僅僅使用預(yù)訓(xùn)練的模型難以應(yīng)對目標(biāo)特征的改變,并且容易出現(xiàn)過擬合的問題,附加額外模塊進行在線更新與微調(diào)是解決的方向。

    表3 基于深度學(xué)習(xí)的目標(biāo)跟蹤技術(shù)簡要對比Table 3 Comparison of DL-based object tracking methods

    GAN網(wǎng)絡(luò)結(jié)構(gòu)能夠相對有效地解決數(shù)據(jù)分布不均勻與正樣本匱乏的問題。并且通過數(shù)據(jù)增強的方式進一步提升目標(biāo)特征的魯棒性表示。如前所述,GAN方法的缺陷在于訓(xùn)練困難且速度較低。

    卷積網(wǎng)絡(luò)結(jié)構(gòu)的突出特點是結(jié)構(gòu)簡單?,F(xiàn)有的基于深度學(xué)習(xí)的目標(biāo)跟蹤方法大多數(shù)采用的是為分類任務(wù)所開發(fā)的骨干網(wǎng)絡(luò),而跟蹤任務(wù)中并不需要為目標(biāo)具體劃分類別,只需要完成“目標(biāo)-背景”的二分類即可。故此方面,骨干網(wǎng)絡(luò)存在較大的冗余。卷積網(wǎng)絡(luò)發(fā)揮輕巧的特點,降低特征提取所耗費的計算開銷,能得到更高的跟蹤速度,并且通過引入其他的優(yōu)化方式進一步提高跟蹤精度。

    卷積-濾波結(jié)構(gòu)旨在發(fā)揮卷積特征的語義表征能力與DCF方法的速度優(yōu)勢,并且與手工特征相結(jié)合,故其在特征表示方面的速度表現(xiàn)要優(yōu)于全卷積骨干網(wǎng)絡(luò)。相比于單純的深度模型,相關(guān)濾波算法有著更加扎實的理論支撐,所以在特征匹配與位置預(yù)測方面的改進工作的方向也更加明朗。

    2 數(shù)據(jù)集與評價指標(biāo)

    跟蹤模型的訓(xùn)練與改進都以數(shù)據(jù)集為基礎(chǔ),模型的質(zhì)量需要通過評估指標(biāo)以進行評估。在本章中,將介紹用于訓(xùn)練目標(biāo)跟蹤模型的數(shù)據(jù)集、評估方法以及評估指標(biāo)。

    本文調(diào)研了目標(biāo)跟蹤領(lǐng)域主要使用的數(shù)據(jù)集,并標(biāo)注了其含有的視頻序列數(shù)量、分辨率、疑難場景等信息,具體闡述如表4所示。

    表4 目標(biāo)跟蹤數(shù)據(jù)集詳細(xì)信息Table 4 Details of object tracking datasets

    2.1 目標(biāo)跟蹤數(shù)據(jù)集

    OTB2013[103]是于2013年提出的跟蹤數(shù)據(jù)基準(zhǔn),其由51個手工標(biāo)注的視頻序列組成。2015年,作者將OTB2013數(shù)據(jù)集包含的視頻序列數(shù)量擴展至100個,此為OTB2015[104]數(shù)據(jù)集,其分辨率均為640×480。

    同樣地,自2013年開始,VOT視覺跟蹤挑戰(zhàn)被提出,隨之而來的是每年更新細(xì)化的VOT系列數(shù)據(jù)集。VOT2013[105]數(shù)據(jù)集包含16個圖像序列,分辨率為320×240,VOT2014[106]與VOT2015[107]分別將圖像序列擴充至25與60個。且自2018年,VOT挑選出持續(xù)時間相對長的圖像序列組成了長時跟蹤數(shù)據(jù)集,分別為VOT-LT2018與VOTLT-2019。2020年,VOT2020[108]又進一步劃分為短時跟蹤集VOT-ST2020與長時跟蹤集VOT-LT2020,分別包含60與50個圖像序列。

    除了RGB圖像,VOT數(shù)據(jù)集還提出了基于熱成像的視覺跟蹤數(shù)據(jù)集VOT-TIR系列數(shù)據(jù)集(包含VOTTIR2015[109]、VOT-RGBTIR2019與VOT-RGBTIR2020)與基于深度數(shù)據(jù)的視覺跟蹤數(shù)據(jù)集VOT-RGBD系列數(shù)據(jù)集(VOT-RGBD2019與VOT-RGB2020)。

    2014至2015年,ALOV300++[110]數(shù)據(jù)集與囊括128個圖像序列的TColor-128[111]數(shù)據(jù)集被提出,ALOV300++數(shù)據(jù)集包含了315個圖像序列,更傾向于檢驗?zāi)繕?biāo)跟蹤算法在面對不同場景下的魯棒性。

    2016年,NUS-PRO[112]數(shù)據(jù)集被公布,與之一同公布的還有源自于它的子集的BUAA-PRO數(shù)據(jù)集,NUS-PRO數(shù)據(jù)集由365個圖像序列組成,其目標(biāo)類型主要為人體以及剛性物體。同年,由無人機視角捕獲畫面的UAV123[113]數(shù)據(jù)集被公布,其中囊括123個源自于無人機航拍畫面的圖像序列。并且也從中挑選出20個序列作為其另一專注于長時跟蹤數(shù)據(jù)集的版本(UAV20L數(shù)據(jù)集)。

    2017年,在高幀率環(huán)境下的NfS數(shù)據(jù)集[114]被提出,其囊括了100個幀率達(dá)到240 Hz的圖像序列。同年,也是來自于無人機采集畫面的高分辨率DTB70[115]數(shù)據(jù)集被提出,其包含70個分辨率達(dá)到1 280×720的圖像序列。

    2018年后,提出的數(shù)據(jù)集主要在長時跟蹤與大尺度方向做出改進。OxUxA[116]數(shù)據(jù)集主要針對長時跟蹤場景,提出了包含366個視頻序列的數(shù)據(jù)集,其平均時長達(dá)到140 s。TLP數(shù)據(jù)集[117]包含了50個同時滿足長時跟蹤與高分辨率的圖像序列,平均長度達(dá)到484 s。TrackingNet[118]數(shù)據(jù)集也由30 643個圖像序列組成,作者將其劃分為兩個子集,其中訓(xùn)練集包含30 132個序列,測試集包含511個序列。

    2019年發(fā)布的GOT-10k[119]數(shù)據(jù)集包含10 000個圖像序列,大尺度目標(biāo)跟蹤數(shù)據(jù)集LaSOT[120]包含1 400個圖像序列。

    對于每一個圖像序列而言,其符合的具體場景有所不同,例如光照、遮擋、形變等干擾因素。近年來,數(shù)據(jù)集的開發(fā)者們也會為每一個視頻序列根據(jù)所處的環(huán)境打上特定的標(biāo)簽,以評估模型對特殊條件下的性能與表現(xiàn)。同樣地,這些標(biāo)簽也是目標(biāo)跟蹤技術(shù)的難點和挑戰(zhàn),各種疑難場景的具體闡述如表5所示。

    表5 疑難場景詳細(xì)信息Table 5 Details of object challenge scenario

    2.2 評價方式與評價指標(biāo)

    目標(biāo)跟蹤模型的量化評估需要一系列指標(biāo)加以指示。將總結(jié)目標(biāo)跟蹤網(wǎng)絡(luò)的魯棒性評估方法與準(zhǔn)確性評估指標(biāo)。

    2.2.1 魯棒性評估方法

    (1)一次評估方法(One-Pass Evaluation,OPE)

    最常用的評價方法為OPE方法,該方法指根據(jù)真實標(biāo)注的位置初始化測試視頻序列的第一幀,然后根據(jù)結(jié)果計算跟蹤精度與成功率(計算方法在2.2.2節(jié)中詳細(xì)闡述)。

    但是,OPE方法存在兩個缺點,一是跟蹤算法可能過度依賴于第一幀標(biāo)定的初始位置,在視頻幀序列不同中間位置開始跟蹤可能會造成精度上的降低;二是大多數(shù)算法在遭遇跟蹤失?。↖oU為0)的情況下沒有重新初始化的機制。針對上述兩個問題,又提出了針對跟蹤魯棒性的評估方法。

    (2)時間魯棒性評估(Temporal Robustness Evaluation,TRE)

    該評估方法表示在整個圖像序列中,從時間序列上添加擾動,指定若干中間幀分別作為跟蹤算法的初始幀進行模型初始化,直至圖像序列結(jié)束,在此條件下根據(jù)結(jié)果計算跟蹤精度與成功率。

    (3)空間魯棒性評估(Spatial Robustness Evaluation,SRE)

    該評估方法旨在對空間角度為真實標(biāo)注添加擾動,以檢驗跟蹤方法是否對錯誤初始化具有足夠的魯棒性,通過對真實標(biāo)注框進行分別8次位置偏移與4次尺寸縮放,位置偏移包括4次水平與垂直方向的偏移以及4次角方向的偏移,偏移量為目標(biāo)尺寸的10%;尺寸縮放由目標(biāo)尺寸的80%以10%的步長逐步擴展到120%,綜合記錄上述12次偏移操作情況下的跟蹤精度與成功率取算術(shù)平均值,作為其在SRE體系下的評分。

    (4)帶恢復(fù)的OPE評估(One-Pass Evaluation with Restart,OPER)

    在OPE方法的基礎(chǔ)上,在跟蹤模型遭遇跟蹤失敗的情況時,重新根據(jù)真實標(biāo)注初始化跟蹤模型,并在后續(xù)幀中繼續(xù)展開跟蹤。

    (5)帶恢復(fù)的SRE評估(Spatial Robustness Evaluation with Restart,OPER)

    同理。

    2.2.2 準(zhǔn)確性評估方法

    (1)成功率(SuccessRate)

    該指標(biāo)表示,在給定一閾值T的情況下,計算模型預(yù)測位置邊框與目標(biāo)真實位置邊框之間的IoU。若高于閾值T,則該幀計為跟蹤成功;否則為失敗。以此計算所有測試集中的平均成功比例。對于包含N幀的測試序列,測試結(jié)果與真實結(jié)果分別用Prei與GTi表示,則成功率的計算方法可寫作:

    其中,ε(·)為階躍函數(shù),記作:

    通過繪制Success Rate(T)關(guān)于自變量閾值T的曲線圖,可以得到該模型的Success Plot。圖2則為OTB2015數(shù)據(jù)集(亦可稱為OTB100數(shù)據(jù)集)上,以O(shè)PE方法測試得到的各算法的Success Plot,以AUC指標(biāo)作為各閾值下的評分。(2)精度(Precision)

    圖2 OTB2015數(shù)據(jù)集的Success Plot Fig.2 Success Plot on OTB2015 dataset

    該指標(biāo)表示,在給定一閾值T的情況下,計算模型預(yù)測位置與目標(biāo)真實位置之間的中心位置誤差(Center Location Error,CLE)。若二者歐氏距離高于閾值T,則該幀計為跟蹤成功;否則為失敗。但是該指標(biāo)在同樣IoU的情況下,在面對尺寸大小差距過大的目標(biāo)時其CLE的差距十分明顯。歸一化精度在計算CLE時考慮目標(biāo)尺寸因素,以歸一化的方式緩解由目標(biāo)尺寸對絕對歐式距離的影響,以此計算所有測試集中的平均成功比例,可寫作:同樣地,通過繪制精度關(guān)于自變量閾值T的曲線圖,可以得到該模型的Precision Plot。

    (3)曲線下面積(Area Under Curves)

    該指標(biāo)通過計算Success Plot或Precision Plot曲線與坐標(biāo)軸所圍成的面積,以評估目標(biāo)算法在不同閾值下的綜合表現(xiàn)。AUC的取值范圍為[0,1],數(shù)值越高,代表模型的跟蹤能力越強??梢匀缦卤硎荆?/p>

    (4)期望平均覆蓋面積(Expected Average Overlap)

    該指標(biāo)可以同時反映跟蹤的精度與魯棒性。無論跟蹤是否成功,EAO通過計算幀序列中的平均IoU得到。在遭遇跟蹤失敗的情況時,其IoU為記為0。則其可表示為:

    3 適配運算資源受限環(huán)境下的改進方法

    3.1 輕量化與緊湊網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計

    隨著研究的推進,深度神經(jīng)網(wǎng)絡(luò)的層數(shù)也在進一步加深,由AlexNet的7層發(fā)展到VGG的16~19層,再到GoogleLeNet的22層。但網(wǎng)絡(luò)深度達(dá)到一定程度后,模型的精度會迅速下降,同時前向傳播的計算消耗也會增大。結(jié)合表1的結(jié)果,在跟蹤速度表現(xiàn)良好的算法(例如SiamFC算法、GradNet算法、RASNet算法、SiamRPN算法、SPM-Tracker算法、GOTURN算法、SiamFC++算法)中,絕大多數(shù)方法都采用了相對淺層的AlexNet作為骨干網(wǎng)絡(luò)。采用VGG的方法(例如TCNN算法、VITAL算法、MDNet算法、SANet算法、TSN算法、DAT算法)的速度表現(xiàn)相對不夠優(yōu)秀。即使網(wǎng)絡(luò)層數(shù)的加深可以提高特征提取的效果與增強模型識別的泛化性能,但由此帶來的性能損耗相比增益而言,對于移動平臺而言仍然是得不償失。

    緊湊結(jié)構(gòu)設(shè)計方面,SiamRPN++算法與C-RPN算法采用了重復(fù)堆疊模塊的結(jié)構(gòu)設(shè)計思路;SiamGAN算法與VITAL算法采用了GAN網(wǎng)絡(luò)模塊以增強跟蹤網(wǎng)絡(luò)在特殊條件下的魯棒性;TCNN算法采用了樹狀結(jié)構(gòu)來組織CNN節(jié)點。上述工作加大了網(wǎng)絡(luò)的復(fù)雜程度,提高了精度,但在實時性方面也付出了代價——TCNN算法在NVIDIA GTX Titan X的環(huán)境下僅能達(dá)到1.5 FPS;SiamGAN算法在2塊NVIDIA GTX1080ti的環(huán)境下僅能達(dá)到29 FPS;VITAL算法在NVIDIA Tesla K40c運行環(huán)境下只能達(dá)到1 FPS的跟蹤速度,在運算資源受限的環(huán)境下的表現(xiàn)會更加緩慢。相比之下,結(jié)構(gòu)簡單的方法(例如GOTURN算法、SiamRPN算法、SPM-Tracker算法)更能夠發(fā)揮速度優(yōu)勢,達(dá)到在受限環(huán)境下實時跟蹤的目標(biāo)。

    3.2 基于預(yù)定義錨框的RPN模塊

    RPN模塊包含兩個分支,分別為分類分支與回歸分支,旨在生成k個包含可能目標(biāo)的邊框。RPN模塊第一次在跟蹤領(lǐng)域的應(yīng)用是在SiamRPN算法中,隨后也衍生出了性能優(yōu)秀的DaSiamRPN算法、SiamRPN++算法、SPM-Tracker算法。

    但是,RPN網(wǎng)絡(luò)的性能依賴于預(yù)定義的超參數(shù),例如生成錨框數(shù)k與建議框預(yù)定義尺寸。若生成錨框數(shù)k過大,則會對性能產(chǎn)生影響;k過小則會嚴(yán)重影響精度。并且,RPN網(wǎng)絡(luò)對于生成錨框的縱橫比做出了預(yù)定義,如果遇到形態(tài)變化劇烈的跟蹤目標(biāo),則會遭遇跟蹤丟失的情況。即RPN網(wǎng)絡(luò)的人為設(shè)置的超參數(shù)限制了跟蹤模型的速度與魯棒性,探索適合RPN網(wǎng)絡(luò)的超參數(shù)或者自動學(xué)習(xí)適合RPN網(wǎng)絡(luò)的超參數(shù)是值得探究的話題。

    3.3 相關(guān)濾波方法與卷積特征的結(jié)合

    在視覺跟蹤任務(wù)中,濾波器只對于跟蹤目標(biāo)相似的區(qū)域產(chǎn)生高響應(yīng)比信號。在深度學(xué)習(xí)方法被提出之前,目標(biāo)跟蹤領(lǐng)域的工作主要集中在通過相關(guān)濾波方法進行跟蹤(例如MOSSE算法、CFT算法、KCF算法)。

    隨著CNN結(jié)構(gòu)的發(fā)展,研究者注意到卷積操作與相關(guān)濾波算法的相似性,故將二者結(jié)合起來以獲得更好的跟蹤性能。DCFNet算法、CFCF算法、C-COT算法、ECO算法、DeepSTRCF算法、UPDT算法都是運用基于CNN的骨干網(wǎng)絡(luò)提取特征。例如UPDT算法,通過骨干網(wǎng)絡(luò)提取深層語義特征獲取目標(biāo)的魯棒性特征,再通過傳統(tǒng)的HoG與CN特征獲得目標(biāo)特征的精確性特征,并將其分開訓(xùn)練,再結(jié)合相關(guān)濾波算法以達(dá)到跟蹤精度與速度上的平衡。

    4 總結(jié)與展望

    本篇文章以運算資源受限場景為出發(fā)點,系統(tǒng)梳理了近年來基于深度學(xué)習(xí)的目標(biāo)跟蹤網(wǎng)絡(luò)模型,為研究人員在模型設(shè)計策略、訓(xùn)練數(shù)據(jù)集與網(wǎng)絡(luò)壓縮方法的選擇方面提供了便利。首先總結(jié)了網(wǎng)絡(luò)跟蹤模型的通用體系結(jié)構(gòu),并根據(jù)體系結(jié)構(gòu)的不同模塊,介紹了現(xiàn)有網(wǎng)絡(luò)模型的設(shè)計策略;其次,詳盡總結(jié)了現(xiàn)有的目標(biāo)跟蹤數(shù)據(jù)集,根據(jù)數(shù)據(jù)集發(fā)表的年份、涵蓋數(shù)據(jù)的特征進行了闡述,而且匯總了跟蹤方法的評價指標(biāo)與計算方法;最后總結(jié)可用于運算資源受限環(huán)境下的模型改進策略。

    目標(biāo)跟蹤作為計算機視覺的重要組成部分,在許多熱門領(lǐng)域都有所應(yīng)用。但是目標(biāo)跟蹤技術(shù)領(lǐng)域仍然存在許多問題亟待深入系統(tǒng)的研究。同樣地,這些問題也指引著研究人員繼續(xù)探索的腳步,例如:

    (1)實時跟蹤

    邊緣設(shè)備的跟蹤場景決定了其對跟蹤算法實時性的高要求。除此之外,深度神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確性也應(yīng)當(dāng)受到關(guān)注。在不顯著降低預(yù)測精度與訓(xùn)練過程時間復(fù)雜度的前提下,壓縮模型的參數(shù)數(shù)量,降低模型拓?fù)浣Y(jié)構(gòu)的復(fù)雜度與計算開銷。當(dāng)前已有研究者們在模型壓縮領(lǐng)域取得了重要的成果,將跟蹤算法與神經(jīng)網(wǎng)絡(luò)模型壓縮技術(shù)結(jié)合(包括模型剪枝、權(quán)重量化與知識蒸餾等方法)或計算加速方法,根據(jù)具體使用場景的特點尋找到滿足不同種類邊緣設(shè)備需求的跟蹤方法。

    (2)長時跟蹤

    已有的跟蹤算法主要集中在短時跟蹤的場景,并達(dá)到了較高的跟蹤結(jié)果。但是,邊緣設(shè)備對長時跟蹤的需求同樣不容忽視。相比于短時跟蹤,研究者們對長時跟蹤方法的研究相對較少。并且已有跟蹤算法在面對長時跟蹤任務(wù)時的表現(xiàn)也有待驗證。長時跟蹤任務(wù)的主要挑戰(zhàn)是歷史幀中的錯誤會不斷累積,導(dǎo)致跟蹤效果會不斷下降;并且長時跟蹤訓(xùn)練樣本也相對較少。因此,在跟蹤器表現(xiàn)降低時消除誤差或在全搜索圖像內(nèi)進行重檢測的將會是有價值的研究方向。

    (3)疑難場景的處理

    在2.1節(jié)中列舉了跟蹤場景中存在的難點場景(例如光照變化、尺度變化、目標(biāo)消失等)?,F(xiàn)有的目標(biāo)跟蹤方法無法在所有特殊條件下都表現(xiàn)良好的效果,根據(jù)“沒有免費的午餐”原則,也無法找到能夠適配所有條件的跟蹤算法。但是,構(gòu)建合適的網(wǎng)絡(luò)結(jié)構(gòu)以獲取目標(biāo)的魯棒特征表示,仍然是研究者們需要持續(xù)研究的方向,在此基礎(chǔ)之上,結(jié)合具體的工作環(huán)境,選擇符合要求的訓(xùn)練集,以最大限度地滿足任務(wù)要求的需求。

    猜你喜歡
    網(wǎng)絡(luò)結(jié)構(gòu)濾波卷積
    基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    基于互信息的貝葉斯網(wǎng)絡(luò)結(jié)構(gòu)學(xué)習(xí)
    知識網(wǎng)絡(luò)結(jié)構(gòu)維對于創(chuàng)新績效的作用機制——遠(yuǎn)程創(chuàng)新搜尋的中介作用
    滬港通下A+ H股票網(wǎng)絡(luò)結(jié)構(gòu)演化的實證分析
    復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)比對算法研究進展
    RTS平滑濾波在事后姿態(tài)確定中的應(yīng)用
    基于線性正則變換的 LMS 自適應(yīng)濾波
    遙測遙控(2015年2期)2015-04-23 08:15:18
    一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
    国产欧美日韩一区二区精品| 国产精品乱码一区二三区的特点| 亚洲人成网站在线播放欧美日韩| 18禁黄网站禁片免费观看直播| 免费高清视频大片| 亚洲最大成人手机在线| 日韩大尺度精品在线看网址| 国产高清不卡午夜福利| 久久精品夜夜夜夜夜久久蜜豆| 亚洲熟妇熟女久久| 好男人在线观看高清免费视频| 精品久久久久久成人av| 免费av不卡在线播放| www日本黄色视频网| 丰满乱子伦码专区| 麻豆成人午夜福利视频| 麻豆一二三区av精品| 国产一级毛片七仙女欲春2| 91麻豆精品激情在线观看国产| 一夜夜www| 精品无人区乱码1区二区| 又黄又爽又刺激的免费视频.| 亚洲成av人片在线播放无| 一区二区三区高清视频在线| 女生性感内裤真人,穿戴方法视频| 国产成人影院久久av| 美女高潮的动态| 午夜免费男女啪啪视频观看 | 成年版毛片免费区| 男女下面进入的视频免费午夜| 日韩强制内射视频| 国产69精品久久久久777片| 欧美最黄视频在线播放免费| 亚洲精品亚洲一区二区| 噜噜噜噜噜久久久久久91| 18禁黄网站禁片午夜丰满| 老女人水多毛片| 婷婷精品国产亚洲av| avwww免费| 欧美成人性av电影在线观看| 蜜桃亚洲精品一区二区三区| 网址你懂的国产日韩在线| avwww免费| 免费搜索国产男女视频| 日本三级黄在线观看| 国产精品一区二区三区四区免费观看 | 国产午夜精品论理片| 人人妻,人人澡人人爽秒播| 有码 亚洲区| 国产淫片久久久久久久久| 久久久精品大字幕| 22中文网久久字幕| 18禁在线播放成人免费| 成熟少妇高潮喷水视频| 少妇高潮的动态图| 免费电影在线观看免费观看| 熟女人妻精品中文字幕| 欧美日韩国产亚洲二区| 国产高清激情床上av| 国产高清有码在线观看视频| 久久久久精品国产欧美久久久| 黄色配什么色好看| 国产精品久久久久久精品电影| 久久6这里有精品| 精品99又大又爽又粗少妇毛片 | 日本 欧美在线| 免费黄网站久久成人精品| 看十八女毛片水多多多| 久久精品国产清高在天天线| 给我免费播放毛片高清在线观看| 亚洲三级黄色毛片| 免费看a级黄色片| 国国产精品蜜臀av免费| 在线看三级毛片| 国产亚洲精品综合一区在线观看| 亚洲自拍偷在线| 日韩欧美免费精品| 久久久国产成人精品二区| 内射极品少妇av片p| 18禁黄网站禁片免费观看直播| 一个人免费在线观看电影| 国产精品伦人一区二区| 亚洲av二区三区四区| 热99在线观看视频| 精品一区二区三区视频在线| 在线观看舔阴道视频| 日本黄大片高清| 床上黄色一级片| 乱系列少妇在线播放| 赤兔流量卡办理| 神马国产精品三级电影在线观看| 俄罗斯特黄特色一大片| 精品午夜福利视频在线观看一区| 国产精品国产高清国产av| 日本 av在线| 欧美黑人巨大hd| 精品久久久久久久久久久久久| 老熟妇乱子伦视频在线观看| 99久久中文字幕三级久久日本| 亚洲精华国产精华精| 特大巨黑吊av在线直播| 亚洲国产高清在线一区二区三| 高清日韩中文字幕在线| 国产精品一区www在线观看 | 最后的刺客免费高清国语| 淫妇啪啪啪对白视频| 国产一级毛片七仙女欲春2| 色哟哟·www| 在线看三级毛片| 亚洲欧美日韩东京热| 国产视频内射| 日韩,欧美,国产一区二区三区 | 中文字幕人妻熟人妻熟丝袜美| h日本视频在线播放| 久久中文看片网| 男插女下体视频免费在线播放| 国产 一区 欧美 日韩| 1000部很黄的大片| 亚洲av第一区精品v没综合| 国产v大片淫在线免费观看| 老熟妇乱子伦视频在线观看| 亚洲18禁久久av| 狂野欧美白嫩少妇大欣赏| 91狼人影院| 一a级毛片在线观看| 男女视频在线观看网站免费| 啦啦啦韩国在线观看视频| 久久久午夜欧美精品| 91在线精品国自产拍蜜月| 久久精品国产鲁丝片午夜精品 | 日本撒尿小便嘘嘘汇集6| 欧美日本视频| www.色视频.com| 亚洲av免费高清在线观看| 亚洲av中文字字幕乱码综合| 男女下面进入的视频免费午夜| 久久午夜福利片| 黄色欧美视频在线观看| 亚洲精品日韩av片在线观看| 天天躁日日操中文字幕| 真人做人爱边吃奶动态| av国产免费在线观看| 久久亚洲真实| 淫妇啪啪啪对白视频| 日韩人妻高清精品专区| 制服丝袜大香蕉在线| 亚洲第一电影网av| 悠悠久久av| 听说在线观看完整版免费高清| 三级毛片av免费| 中文资源天堂在线| 97超视频在线观看视频| 久久草成人影院| 国产精品不卡视频一区二区| 久久精品久久久久久噜噜老黄 | 亚洲在线自拍视频| 亚洲国产精品合色在线| 精品人妻1区二区| 精品久久久久久久久av| 精品无人区乱码1区二区| 午夜久久久久精精品| 国产精品综合久久久久久久免费| 国产精品日韩av在线免费观看| 毛片女人毛片| 成人永久免费在线观看视频| 他把我摸到了高潮在线观看| 午夜精品久久久久久毛片777| 国产精品永久免费网站| 久久精品91蜜桃| a级毛片a级免费在线| 人妻久久中文字幕网| 又黄又爽又免费观看的视频| 国产av不卡久久| 成人二区视频| 国产精品一区二区性色av| 99九九线精品视频在线观看视频| 黄色丝袜av网址大全| 色哟哟哟哟哟哟| 午夜亚洲福利在线播放| 黄色欧美视频在线观看| 久久这里只有精品中国| 欧美色欧美亚洲另类二区| 精品福利观看| 欧美日韩中文字幕国产精品一区二区三区| 成人亚洲精品av一区二区| 成年女人看的毛片在线观看| 我要看日韩黄色一级片| 淫妇啪啪啪对白视频| 91午夜精品亚洲一区二区三区 | 动漫黄色视频在线观看| 最近视频中文字幕2019在线8| 女的被弄到高潮叫床怎么办 | 非洲黑人性xxxx精品又粗又长| 欧美精品啪啪一区二区三区| 天堂√8在线中文| 亚洲人成伊人成综合网2020| av天堂中文字幕网| 一个人免费在线观看电影| 亚洲av成人精品一区久久| 日韩欧美精品v在线| 俺也久久电影网| 国产精品不卡视频一区二区| 国产av不卡久久| 亚洲av不卡在线观看| 在线观看66精品国产| 最新中文字幕久久久久| 一本一本综合久久| 午夜日韩欧美国产| 少妇被粗大猛烈的视频| 国产成人av教育| 啦啦啦观看免费观看视频高清| 国产精品综合久久久久久久免费| 91在线精品国自产拍蜜月| 精品久久久久久久久久免费视频| 成年女人看的毛片在线观看| 制服丝袜大香蕉在线| 久久国产精品人妻蜜桃| 成人高潮视频无遮挡免费网站| 不卡一级毛片| 久久99热这里只有精品18| 亚洲七黄色美女视频| 亚洲在线观看片| 美女免费视频网站| 国产人妻一区二区三区在| 欧美不卡视频在线免费观看| 国产精品精品国产色婷婷| 级片在线观看| 日韩精品有码人妻一区| 久久久国产成人精品二区| 亚洲国产高清在线一区二区三| av国产免费在线观看| 午夜爱爱视频在线播放| 三级男女做爰猛烈吃奶摸视频| 亚洲真实伦在线观看| 一边摸一边抽搐一进一小说| 伊人久久精品亚洲午夜| 日韩强制内射视频| 乱码一卡2卡4卡精品| 国产三级在线视频| 18禁黄网站禁片午夜丰满| 中文资源天堂在线| a级毛片免费高清观看在线播放| 99热这里只有是精品在线观看| 日韩精品中文字幕看吧| 一级毛片久久久久久久久女| 国产激情偷乱视频一区二区| 五月玫瑰六月丁香| 中文字幕人妻熟人妻熟丝袜美| 久久精品91蜜桃| 女人十人毛片免费观看3o分钟| 久久精品国产99精品国产亚洲性色| 又黄又爽又免费观看的视频| 亚洲精品色激情综合| 亚洲成人久久爱视频| 国内久久婷婷六月综合欲色啪| 免费黄网站久久成人精品| 全区人妻精品视频| 日本黄色视频三级网站网址| 成年女人永久免费观看视频| 乱系列少妇在线播放| 亚洲成av人片在线播放无| 深夜a级毛片| 免费搜索国产男女视频| 国产精品一区二区免费欧美| 欧美日本视频| 日韩精品有码人妻一区| 最近最新免费中文字幕在线| x7x7x7水蜜桃| 日日夜夜操网爽| 黄色配什么色好看| 色综合亚洲欧美另类图片| 女人十人毛片免费观看3o分钟| 久久久国产成人精品二区| 欧美绝顶高潮抽搐喷水| 一a级毛片在线观看| 国产精品免费一区二区三区在线| 欧美一区二区国产精品久久精品| 好男人在线观看高清免费视频| 国产综合懂色| 波多野结衣高清无吗| 亚洲七黄色美女视频| 国产aⅴ精品一区二区三区波| h日本视频在线播放| 免费高清视频大片| 欧美中文日本在线观看视频| 亚洲av五月六月丁香网| 欧美黑人欧美精品刺激| 国产成人aa在线观看| 国产成人一区二区在线| 美女高潮喷水抽搐中文字幕| 国产淫片久久久久久久久| 亚洲国产精品合色在线| 久久久精品欧美日韩精品| 欧美最黄视频在线播放免费| 免费高清视频大片| 中文字幕久久专区| 十八禁网站免费在线| 91精品国产九色| 日日啪夜夜撸| x7x7x7水蜜桃| 久久热精品热| 欧美xxxx性猛交bbbb| 不卡一级毛片| 久久午夜福利片| 黄色一级大片看看| 欧美激情在线99| 国产伦在线观看视频一区| 欧美一区二区国产精品久久精品| 国产aⅴ精品一区二区三区波| 亚洲真实伦在线观看| 免费观看的影片在线观看| 一个人看的www免费观看视频| 99九九线精品视频在线观看视频| 精品久久久久久久人妻蜜臀av| 国产精品,欧美在线| 久久精品国产亚洲av天美| 精品久久久久久久久亚洲 | 在线观看免费视频日本深夜| 女人十人毛片免费观看3o分钟| 天堂av国产一区二区熟女人妻| 久久99热这里只有精品18| 亚洲av电影不卡..在线观看| 18禁黄网站禁片免费观看直播| 少妇人妻精品综合一区二区 | 男女那种视频在线观看| 亚洲av免费在线观看| 级片在线观看| 丰满人妻一区二区三区视频av| 人妻久久中文字幕网| 国产av在哪里看| 欧美xxxx性猛交bbbb| 12—13女人毛片做爰片一| 欧美成人一区二区免费高清观看| 成人国产综合亚洲| 国产精品久久久久久av不卡| 欧美日韩瑟瑟在线播放| 淫秽高清视频在线观看| 在线观看舔阴道视频| 亚洲av免费在线观看| av黄色大香蕉| 国产精品久久久久久精品电影| 欧美色欧美亚洲另类二区| 欧美日韩黄片免| 天美传媒精品一区二区| 欧美激情久久久久久爽电影| 午夜亚洲福利在线播放| 国产亚洲精品av在线| 噜噜噜噜噜久久久久久91| 亚洲中文日韩欧美视频| 丰满乱子伦码专区| 国产亚洲精品av在线| 狂野欧美激情性xxxx在线观看| 啦啦啦观看免费观看视频高清| 男人舔女人下体高潮全视频| 别揉我奶头 嗯啊视频| 久久这里只有精品中国| 中文在线观看免费www的网站| 一级a爱片免费观看的视频| xxxwww97欧美| 村上凉子中文字幕在线| 成人鲁丝片一二三区免费| 久久人人精品亚洲av| 欧美色欧美亚洲另类二区| 午夜免费成人在线视频| xxxwww97欧美| 精华霜和精华液先用哪个| 成年女人毛片免费观看观看9| 欧美又色又爽又黄视频| 一级黄片播放器| 久久精品人妻少妇| 99热这里只有是精品在线观看| 男女啪啪激烈高潮av片| 国产日本99.免费观看| 国产精品久久久久久亚洲av鲁大| 国产成人av教育| 国产精品综合久久久久久久免费| 乱系列少妇在线播放| 日韩一本色道免费dvd| 热99re8久久精品国产| 国产高潮美女av| 午夜爱爱视频在线播放| 精品人妻1区二区| 少妇人妻精品综合一区二区 | 可以在线观看毛片的网站| 国产黄a三级三级三级人| 免费在线观看日本一区| 九色成人免费人妻av| 国产精品电影一区二区三区| 亚洲最大成人av| 在线观看舔阴道视频| or卡值多少钱| 亚洲欧美日韩东京热| 69av精品久久久久久| 日本熟妇午夜| 欧美成人一区二区免费高清观看| 亚洲人成网站在线播放欧美日韩| 一本久久中文字幕| 亚洲成人免费电影在线观看| 亚洲四区av| 国产高潮美女av| 51国产日韩欧美| 国产男靠女视频免费网站| 午夜激情福利司机影院| 精品人妻视频免费看| 干丝袜人妻中文字幕| 国产午夜精品久久久久久一区二区三区 | 欧美黑人巨大hd| 一级黄色大片毛片| 亚洲欧美清纯卡通| 老熟妇仑乱视频hdxx| 久9热在线精品视频| 12—13女人毛片做爰片一| 精品一区二区三区视频在线| 99国产极品粉嫩在线观看| 国内精品久久久久久久电影| 无遮挡黄片免费观看| 中出人妻视频一区二区| 日韩欧美 国产精品| 久久久国产成人免费| 国产精品99久久久久久久久| 欧美精品国产亚洲| 少妇熟女aⅴ在线视频| 国内少妇人妻偷人精品xxx网站| 国产精品av视频在线免费观看| 热99re8久久精品国产| 久久香蕉精品热| 校园人妻丝袜中文字幕| 99久久精品一区二区三区| 免费电影在线观看免费观看| 一卡2卡三卡四卡精品乱码亚洲| 午夜福利高清视频| 最近视频中文字幕2019在线8| 男女那种视频在线观看| 国内揄拍国产精品人妻在线| 欧美3d第一页| 久久欧美精品欧美久久欧美| 精品欧美国产一区二区三| 女同久久另类99精品国产91| 制服丝袜大香蕉在线| 九色国产91popny在线| 欧美日韩精品成人综合77777| 在现免费观看毛片| 日本黄色视频三级网站网址| bbb黄色大片| 色在线成人网| 成熟少妇高潮喷水视频| 99久久精品热视频| 日日夜夜操网爽| 欧美性猛交黑人性爽| 熟妇人妻久久中文字幕3abv| 午夜福利在线观看吧| 亚洲人成网站在线播放欧美日韩| 18禁黄网站禁片免费观看直播| 国产精品久久久久久久久免| 黄色女人牲交| 久久国产精品人妻蜜桃| 有码 亚洲区| 伦精品一区二区三区| 男女视频在线观看网站免费| 国产精品一区二区性色av| 国内精品久久久久久久电影| 一区福利在线观看| 亚洲欧美日韩高清在线视频| 91久久精品国产一区二区三区| av在线亚洲专区| 免费搜索国产男女视频| 国产免费一级a男人的天堂| 很黄的视频免费| 国产 一区精品| 色尼玛亚洲综合影院| 精品乱码久久久久久99久播| 99久久精品一区二区三区| 午夜亚洲福利在线播放| 精品福利观看| 久久久色成人| 日韩欧美精品v在线| 国产av一区在线观看免费| 哪里可以看免费的av片| 伊人久久精品亚洲午夜| 日韩高清综合在线| 久久欧美精品欧美久久欧美| 亚洲精品乱码久久久v下载方式| 色噜噜av男人的天堂激情| 国产在线精品亚洲第一网站| 亚洲精品粉嫩美女一区| 在线观看舔阴道视频| 久久6这里有精品| 在线观看免费视频日本深夜| 国产真实乱freesex| 国产 一区精品| 真实男女啪啪啪动态图| a级毛片a级免费在线| 成年版毛片免费区| 一个人观看的视频www高清免费观看| 一级黄色大片毛片| 午夜爱爱视频在线播放| 日韩中字成人| 国产探花在线观看一区二区| 男女之事视频高清在线观看| 在线观看免费视频日本深夜| 精品人妻熟女av久视频| 午夜影院日韩av| 内地一区二区视频在线| 国产av不卡久久| 两性午夜刺激爽爽歪歪视频在线观看| 久久天躁狠狠躁夜夜2o2o| 免费观看在线日韩| 免费看av在线观看网站| 丰满人妻一区二区三区视频av| 免费一级毛片在线播放高清视频| 少妇裸体淫交视频免费看高清| 国产乱人伦免费视频| 毛片女人毛片| 国产 一区精品| 亚洲av成人精品一区久久| 一级毛片久久久久久久久女| 日本黄色视频三级网站网址| 麻豆av噜噜一区二区三区| 亚洲av.av天堂| 18+在线观看网站| 久久亚洲真实| 一进一出抽搐gif免费好疼| 国产v大片淫在线免费观看| 精品午夜福利在线看| 国产精品亚洲美女久久久| a在线观看视频网站| 在线观看av片永久免费下载| 日韩欧美在线二视频| 波多野结衣高清作品| 搞女人的毛片| 男人和女人高潮做爰伦理| 91av网一区二区| 国产色婷婷99| 久久久久久久精品吃奶| 不卡一级毛片| 干丝袜人妻中文字幕| 在线免费观看的www视频| 国产精品人妻久久久久久| 色精品久久人妻99蜜桃| 99国产极品粉嫩在线观看| 久久精品国产亚洲av天美| 国产精品日韩av在线免费观看| 看免费成人av毛片| 久9热在线精品视频| 亚洲国产精品sss在线观看| 午夜精品一区二区三区免费看| 淫秽高清视频在线观看| 成人永久免费在线观看视频| 观看美女的网站| 小说图片视频综合网站| 日本黄色片子视频| 男人舔女人下体高潮全视频| 国产又黄又爽又无遮挡在线| АⅤ资源中文在线天堂| 亚洲va日本ⅴa欧美va伊人久久| 欧美成人一区二区免费高清观看| 又粗又爽又猛毛片免费看| 国产av一区在线观看免费| 欧美性猛交╳xxx乱大交人| 全区人妻精品视频| 91精品国产九色| 国产黄a三级三级三级人| 看十八女毛片水多多多| 国内精品久久久久久久电影| 亚洲av美国av| 熟妇人妻久久中文字幕3abv| 日韩亚洲欧美综合| 国内揄拍国产精品人妻在线| 午夜日韩欧美国产| 嫁个100分男人电影在线观看| 午夜福利高清视频| 日本在线视频免费播放| 偷拍熟女少妇极品色| 国产精品一区二区性色av| 亚洲久久久久久中文字幕| 国产一区二区三区在线臀色熟女| .国产精品久久| 日本黄色片子视频| 国产av不卡久久| 99久久九九国产精品国产免费| 真人一进一出gif抽搐免费| 婷婷色综合大香蕉| 真人做人爱边吃奶动态| 最近最新免费中文字幕在线| 成人国产一区最新在线观看| 别揉我奶头 嗯啊视频| 美女xxoo啪啪120秒动态图| 亚洲成人免费电影在线观看| 啦啦啦啦在线视频资源| 亚洲内射少妇av| 日本成人三级电影网站| 久久草成人影院| 五月玫瑰六月丁香| 看免费成人av毛片| 一级黄片播放器| 日本精品一区二区三区蜜桃| 亚洲最大成人中文| 少妇人妻精品综合一区二区 | 国产精品98久久久久久宅男小说| 少妇人妻精品综合一区二区 | 小说图片视频综合网站| 老司机午夜福利在线观看视频| 欧美精品国产亚洲| 变态另类成人亚洲欧美熟女| 久久精品国产99精品国产亚洲性色| 亚洲18禁久久av| 国产精品1区2区在线观看.| 成人鲁丝片一二三区免费| 国产一区二区激情短视频| av福利片在线观看| 一级av片app| 九九热线精品视视频播放| 免费观看在线日韩| 亚洲不卡免费看| 露出奶头的视频|