• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多尺度融合的自適應(yīng)無人機(jī)目標(biāo)跟蹤算法

    2023-01-31 13:52:48薛遠(yuǎn)亮金國棟譚力寧許劍錕
    航空學(xué)報 2023年1期
    關(guān)鍵詞:跟蹤目標(biāo)尺度注意力

    薛遠(yuǎn)亮,金國棟,譚力寧,許劍錕

    火箭軍工程大學(xué) 核工程學(xué)院,西安 710025

    無人機(jī)(Unmanned Aerial Vehicle,UAV)因其操作簡單、體積小和成本低等優(yōu)勢,在民用和軍用領(lǐng)域都有著廣泛的應(yīng)用。特別是在智能化趨勢的大背景下,目標(biāo)跟蹤成為了無人機(jī)應(yīng)用的關(guān)鍵技術(shù),也是其他后續(xù)任務(wù)(如:目標(biāo)定位、目標(biāo)精確打擊等)的基礎(chǔ)工作。視覺目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域中一個具有挑戰(zhàn)性的問題,用于估計(jì)視頻序列中每一幀跟蹤目標(biāo)的狀態(tài),而這跟蹤目標(biāo)的位置只在第一幀中給出。隨著無人機(jī)執(zhí)行任務(wù)的難度不斷加大,研究準(zhǔn)確高效且穩(wěn)健的目標(biāo)跟蹤算法對于無人機(jī)的應(yīng)用有著廣泛的意義。

    與地面平臺相比,無人機(jī)視角下的目標(biāo)主要有尺寸小、像素點(diǎn)少、尺度變化大、背景干擾嚴(yán)重、相似目標(biāo)較多等特點(diǎn),并且無人機(jī)飛行過程中容易出現(xiàn)相機(jī)抖動和飛行速度變化,造成目標(biāo)出現(xiàn)模糊和形變等情況,都對無人機(jī)上的目標(biāo)跟蹤算法提出了更高的要求。目前主流目標(biāo)跟蹤算法分為基于相關(guān)濾波的跟蹤算法(簡稱為:相關(guān)濾波跟蹤算法)和基于孿生神經(jīng)網(wǎng)絡(luò)的跟蹤算法(簡稱為:孿生跟蹤算法)。相關(guān)濾波跟蹤算法:利用信號處理領(lǐng)域的相關(guān)濾波用來計(jì)算目標(biāo)模板與后續(xù)搜索區(qū)域的相關(guān)性,實(shí)現(xiàn)對目標(biāo)的持續(xù)跟蹤。因?yàn)橄嚓P(guān)濾波的計(jì)算是頻域中完成的,所以運(yùn)算量大大減少,提高了運(yùn)算速度。但是大多數(shù)相關(guān)濾波算法都是使用傳統(tǒng)特征提取算法來表征跟蹤目標(biāo),魯棒性和準(zhǔn)確性不夠[1],不能有效應(yīng)對無人機(jī)場景下的目標(biāo)跟蹤任務(wù)。

    近年來,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neu?ral Networks, CNN)提取的深度特征魯棒性好、表征能力強(qiáng),在目標(biāo)跟蹤領(lǐng)域中漸漸取代了傳統(tǒng)手工設(shè)計(jì)的特征。孿生實(shí)例搜索算法(Siamese Instance Search Tracker, SINT)[2]創(chuàng) 造 性 地 將孿生神經(jīng)網(wǎng)絡(luò)用于度量模板圖像與搜索圖像的相似度,為目標(biāo)跟蹤領(lǐng)域提供了新思路??紤]到SINT的全連接層對圖片尺寸的限制,全卷積孿生跟蹤算法(Fully-Convolutional Siamese Net?works, SiamFC)[3]設(shè)計(jì)的全卷積孿生神經(jīng)網(wǎng)絡(luò),避免了候選圖像塊的多次輸入,提高了跟蹤速度。同時提出的互相關(guān)運(yùn)算,將模板圖像作為卷積核與搜索圖像進(jìn)行卷積,進(jìn)一步精確目標(biāo)位置。語義外觀雙分支跟蹤算法SA-Siam[4]發(fā)現(xiàn)SiamFC淺層神經(jīng)網(wǎng)絡(luò)提取的特征缺乏語義信息,又加入一條卷積神經(jīng)網(wǎng)絡(luò)作為語義分支,獨(dú)立訓(xùn)練的2條分支提取的特征信息是相互補(bǔ)充的,能提升SiamFC的魯棒性。孿生區(qū)域建議跟蹤 算 法SiamRPN (Siamese Region Proposal Network)[5]拋棄了耗時的多尺度搜索策略,引入?yún)^(qū) 域 建 議 網(wǎng) 絡(luò)[6](Region Proposal Network,RPN)完成對目標(biāo)的尺度估計(jì)和目標(biāo)定位,實(shí)現(xiàn)了精度與跟蹤速度的平衡,性能已超過絕大部分相關(guān)濾波算法且跟蹤速度高達(dá)160 frame/s(Frames Per Second, FPS),證明了孿生跟蹤算法的巨大潛力,從此成為了目標(biāo)跟蹤的主流算法。RPN模塊中預(yù)定義一組大小、尺寸不同的錨框(Anchor),快速有效地估計(jì)出目標(biāo)的尺度變化。級聯(lián)孿生區(qū)域建議算法C-RPN[7]認(rèn)為單個RPN模塊的估計(jì)能力是有限,于是級聯(lián)多個RPN模塊用于精確目標(biāo)的尺度估計(jì)。Siam?RPN++[8]同樣在深層網(wǎng)絡(luò)ResNet-50[9]上使用多個RPN模塊,利用不同層的特征信息來提高尺度估計(jì)的能力,在多個數(shù)據(jù)集上取得第一。

    針對無人機(jī)平臺的目標(biāo)跟蹤算法主要有:劉芳等[10]使用自適應(yīng)分塊策略,通過計(jì)算前后兩幀分塊的收縮系數(shù)來應(yīng)對目標(biāo)的尺度變化。同樣針對無人機(jī)過程中的尺度變化、遮擋等特點(diǎn),劉貞報等[11]通過旋轉(zhuǎn)不變約束改進(jìn)深度置信網(wǎng)絡(luò),使得模型能夠自動適應(yīng)目標(biāo)的形態(tài)變化,但跟蹤速度僅為12.6 frame/s,不滿足實(shí)時性要求(≥30 frame/s)。為了解決目標(biāo)的外觀變化,文獻(xiàn)[12]利用高斯混合模型建立模板庫并更新匹配模板,模板庫有效提高了準(zhǔn)確率但降低了跟蹤速度,不能滿足實(shí)時性要求。

    綜上所述,基于錨框的跟蹤算法需要跟蹤過程中的目標(biāo)信息作為先驗(yàn)信息,而無人機(jī)過程中的目標(biāo)有著尺寸小、尺度變化大、相似物體多、運(yùn)動模糊等特點(diǎn),這些特點(diǎn)是隨機(jī)出現(xiàn)的,不可能提前預(yù)知。因此提出一種基于多尺度注意力模塊和特征融合的自適應(yīng)無人機(jī)航拍目標(biāo)跟蹤算法。首先,在ResNet-50網(wǎng)絡(luò)中平行堆疊具有相同拓?fù)浣Y(jié)構(gòu)的卷積塊以提取目標(biāo)的多樣化特征,在不增加網(wǎng)絡(luò)深度的情況下增強(qiáng)對跟蹤目標(biāo)的表征能力;其次,設(shè)計(jì)多尺度注意力模塊,全局、局部注意力的結(jié)合使用既抑制了干擾信息又提高了對大、小目標(biāo)的感知能力;然后使用注意力特征融合模塊整合淺層的細(xì)節(jié)信息和深層語義信息;最后,級聯(lián)使用基于無錨框策略的RPN模塊,逐像素預(yù)測目標(biāo)并將預(yù)測結(jié)果加權(quán)融合,精確、自適應(yīng)地感知目標(biāo)的尺度變化。實(shí)驗(yàn)證明:提出的算法能更有效地感知無人機(jī)跟蹤過程中目標(biāo)的尺度變化、外觀變化,同時對小目標(biāo)識別能力和抗干擾能力也有所增強(qiáng),并且速度達(dá)到40.5 frame/s,足以勝任無人機(jī)實(shí)時跟蹤任務(wù)。

    1 相關(guān)工作

    1.1 殘差模塊

    He等[9]通過堆疊殘差模塊(ResBlock)來構(gòu)建深層網(wǎng)絡(luò)ResNet,為了避免網(wǎng)絡(luò)加深而導(dǎo)致產(chǎn)生的梯度爆炸或消失,在ResBlock中設(shè)計(jì)映射連接(Identity)以確保信息的有效傳遞,避免網(wǎng)絡(luò)出現(xiàn)退化現(xiàn)象。殘差模塊ResBlock如圖1所示,由殘差部分和映射連接組成,其中分別為第l層殘差模塊的輸入和輸出;conv1*1,256,64代表大小為1,輸入、輸出通道數(shù)為256和64的卷積層,conv1*1完成對特征圖的通道升維和降維,conv3*3主要提取特征圖的特征信息。

    式(1)為殘差模塊的具體原理,映射連接將網(wǎng)絡(luò)學(xué)習(xí)x[l]到x[l+1]映射的過程巧妙地轉(zhuǎn)化為學(xué)習(xí)殘差部分的映射。隨著網(wǎng)絡(luò)層數(shù)的加深,相比于學(xué)習(xí)整個映射過程,網(wǎng)絡(luò)更容易學(xué)習(xí)殘差部分的映射,有效提升網(wǎng)絡(luò)的訓(xùn)練效果。

    圖1 殘差模塊Fig. 1 ResBlock

    1.2 注意力機(jī)制

    人類形成的視覺往往不是一次性處理整個場景得到的,而是通過一系列的局部觀察將注意力放在感興趣的目標(biāo)上[13]。神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制類似于人類的視覺過程,通過一系列操作為特征圖進(jìn)行權(quán)重分配,感興趣的目標(biāo)區(qū)域獲得更大的關(guān)注度,實(shí)現(xiàn)特征信息的篩選,抑制無關(guān)信息的干擾,將神經(jīng)網(wǎng)絡(luò)的注意力時刻保持在感興趣的目標(biāo)上。注意力主要分為空間注意力和通道注意力,分別從空間和通道維度篩選特征信息。

    空間注意力幫助網(wǎng)絡(luò)關(guān)注目標(biāo)在哪里(Where):非局部注意力[14](Non-local attention)是受到圖像處理中非局部均值濾波的啟發(fā),為神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的自注意力機(jī)制,能幫助捕獲時空長程依賴。Non-local即自注意力機(jī)制,其核心思想如式(2)所示:首先考慮特征圖的所有位置xj與當(dāng)前位置xi之間的關(guān)系f(xi,xj),再對所有位置的關(guān)系進(jìn)行加權(quán)求和得到當(dāng)前位置的值yi。但是非局部注意力的計(jì)算量大,限制其廣泛使用。

    式中:f(xi,xj)用于計(jì)算兩點(diǎn)之間的相似性;g(xj)是一個一元函數(shù),用于信息變換;C(x)是歸一化函數(shù),保持變換前后的信息整體不變。

    通道注意力更多的是幫助網(wǎng)絡(luò)關(guān)注目標(biāo)是什么(What):SE[15](Squeeze-and-Excitation)模塊原理如式(3)所示,首先使用全局平均池化(Global Average Pooling, GAP)壓縮空間維度的特征信息,獲得每個通道的全局空間表示zc,兩層全連接層再利用這個空間表示學(xué)習(xí)到通道權(quán)重s。SE模塊使網(wǎng)絡(luò)有效學(xué)習(xí)到不同通道的重要程度,同時因其計(jì)算量小,至今仍廣泛應(yīng)用在計(jì)算機(jī)視覺的各個領(lǐng)域。

    式中:uc(i,j)為每個通道c上的特征圖,其中i,j為特征圖上像素點(diǎn)坐標(biāo),c∈C;H、W是特征圖的高度和寬度;Fsq、Fex分別代表對特征圖的壓縮(Squeeze)操作、激勵(Excitation)操作;zc為壓縮后的全局空間表示,其中每個通道上的空間表示為zi;F1、F2是全連接層操作;σ(?)為激活函數(shù)。

    2 基于多尺度融合的自適應(yīng)孿生跟蹤算法

    基于孿生神經(jīng)網(wǎng)絡(luò)的跟蹤算法將跟蹤任務(wù)看作目標(biāo)模板與搜索圖像的相似度度量問題,如式(5)所示,主要由3個部分組成:以孿生神經(jīng)網(wǎng)絡(luò)?(?)為主的特征提取部分、以深度互相關(guān)運(yùn)算“*”為主的相似度度量部分和區(qū)域建議網(wǎng)絡(luò)(RPN)模塊構(gòu)成的跟蹤結(jié)果生成部分。特征提取部分由模板分支與搜索分支組成,模板分支輸入視頻序列第一幀z,提取目標(biāo)特征作為模板特征?(z),搜索分支輸入視頻后續(xù)幀x,提取搜索區(qū)域的特征作為搜索特征?(x);互相關(guān)運(yùn)算用于整合兩條分支的特征信息,計(jì)算搜索特征圖與模板特征圖的相似度,生成相似度響應(yīng)圖f(z,x);跟蹤結(jié)果生成部分根據(jù)響應(yīng)圖來預(yù)測搜索圖像上的目標(biāo)位置,一般認(rèn)為最大響應(yīng)位置即為目標(biāo)預(yù)測位置,RPN模塊然后在預(yù)測位置進(jìn)行目標(biāo)尺度估計(jì)和邊界框回歸。

    式中:b為響應(yīng)圖每個位置上的偏差值;I為單位矩陣。

    算法的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,首先使用平行堆疊了多個卷積的ResNet-50,以提取多樣化特征 信 息(Diverse Feature ResNet-50, DFResNet);其次設(shè)計(jì)多尺度注意力模塊(Multi Scale Attention Module, MS-AM),有效保留了不同尺度的目標(biāo)特征,提升對大、小目標(biāo)的識別能力;然后在多尺度特征信息的基礎(chǔ)上提出注意力特征融合模塊(Attention Feature Fusion Mod?ule, AFFM),整合不同層的注意力特征信息,保留了豐富的語義信息和細(xì)節(jié)信息;最后級聯(lián)使用基于無錨框策略的RPN模塊(Anchor-Free Re?gion Proposal Network module, AF-RPN)完成跟蹤目標(biāo)的分類、回歸,提高對目標(biāo)的自適應(yīng)感知能力。

    圖2 網(wǎng)絡(luò)結(jié)構(gòu)Fig. 2 Architecture of network

    2.1 多樣化特征提取網(wǎng)絡(luò)DF-ResNet

    淺 層 特 征 網(wǎng) 絡(luò)Alexnet[16]和VGG[17]通 常 提取物體的外觀特征和細(xì)節(jié)信息(顏色、紋理和輪廓等),而缺少物體的語義特征信息。相比于形象的外觀特征信息,抽象的語義特征信息表征物體能力更強(qiáng)、魯棒性更好。特別是無人機(jī)視角下的場景復(fù)雜,含有較多的背景干擾和相似物體,淺層特征信息難以應(yīng)對上述情況,限制了SiamFC[3]、SiamRPN[5]等算法的性能提升。提取語義信息的通常做法是增加網(wǎng)絡(luò)的深度或者寬度(ResNet-101),但是這樣大幅增加網(wǎng)絡(luò)參數(shù)會嚴(yán)重影響運(yùn)算速度,不適合無人機(jī)目標(biāo)跟蹤任務(wù)。而文獻(xiàn)[18]指出:相比于增加網(wǎng)絡(luò)層數(shù),增加網(wǎng)絡(luò)的基數(shù)(Cardinality)更能有效地提高網(wǎng)絡(luò)的特征描述能力,同時還不會增加網(wǎng)絡(luò)參數(shù)量。因此本文選擇在網(wǎng)絡(luò)層數(shù)較深的ResNet-50上增加基數(shù)來提高網(wǎng)絡(luò)性能。

    借鑒文獻(xiàn)[18-19]的分組-轉(zhuǎn)換-融合(Split-Transform-Merge)的設(shè)計(jì)思想,如圖3所示:考慮到殘差模塊中的conv3*3才是特征信息的主要提取部分,因此將殘差模塊中的conv3*3替換成平行堆疊多個相同拓?fù)浣Y(jié)構(gòu)的卷積層組。圖4(a)為普通卷積的卷積過程,可以看出:輸出特征圖的一個通道需要輸入特征圖的所有通道參與計(jì)算。圖4(b)為平行堆疊操作的實(shí)現(xiàn)過程,通過分組卷積(Group convolution)將通道數(shù)為64的conv3*3分為32組通道數(shù)為4的conv3*3。不同的卷積層組可以看作是不同的子空間(Subspace),每個子空間學(xué)習(xí)到的特征信息是各有側(cè)重、互不相同的,即提取了目標(biāo)的多樣化特征信息。

    圖3 DF-ResNet的ResBlockFig. 3 ResBlock of DF-ResNet

    圖4 卷積過程Fig. 4 Convolution process

    圖5為部分卷積層組的可視化結(jié)果,每個卷積組代表著一種特征,有的傾向于直線特征、而有的則傾向于圓形特征,并且相鄰?fù)ǖ赖木矸e層組的特征類似。若圖像中的某塊區(qū)域越像該卷積層組,則該區(qū)域的卷積結(jié)果就越大。證明了子空間學(xué)習(xí)思想是合理的,每個子空間代表著不同的特征信息并且這些特征信息很多都是不相關(guān)的,不需要組合所有通道進(jìn)行學(xué)習(xí),只需要相鄰?fù)ǖ赖淖涌臻g來學(xué)習(xí)相關(guān)的特征。因此DFResNet的特征描述能力得到有效增強(qiáng),相當(dāng)于間接增加了網(wǎng)絡(luò)深度并且還不會降低跟蹤速度,能夠有效地應(yīng)對無人機(jī)跟蹤過程中的外觀變化、復(fù)雜背景和相似物體干擾等挑戰(zhàn)。

    圖5 卷積層組可視化Fig. 5 Convolutional group visualization

    2.2 多尺度注意力模塊MS-AM

    由于無人機(jī)的視角范圍廣、場景大,視野中容易包含許多與跟蹤目標(biāo)相似的干擾目標(biāo)。改進(jìn)的DF-ResNet提取了跟蹤目標(biāo)的多樣化特征信息,能增強(qiáng)對目標(biāo)的表征能力。而DF-ResNet的不足之處在于:①對特征圖上每個空間位置給予相同的重視程度,不能有效區(qū)分跟蹤目標(biāo)與其他目標(biāo);②文獻(xiàn)[8]發(fā)現(xiàn)特征圖是具有正交特性的,即不同通道上的特征圖代表了不同語義信息的物體。而DF-ResNet特征圖的各個通道對于后續(xù)相似度計(jì)算的貢獻(xiàn)度都是一樣的,不適用于跟蹤特定目標(biāo)的跟蹤任務(wù)。對于跟蹤任務(wù)來說,空間和通道維度上的特征圖都需要有選擇性地分配權(quán)重和篩選。DF-ResNet提取了許多干擾目標(biāo)的特征信息,跟蹤算法如果未能有效區(qū)分跟蹤目標(biāo)與干擾目標(biāo)的特征信息,容易將干擾目標(biāo)錯認(rèn)為跟蹤目標(biāo),從而產(chǎn)生跟蹤漂移現(xiàn)象。

    注意力模塊因其能自適應(yīng)分配權(quán)重、有選擇性地篩選特征圖信息,從而幫助網(wǎng)絡(luò)更好地關(guān)注感興趣的目標(biāo),能有效彌補(bǔ)DF-ResNet的不足。以SE[15]模塊為代表的全局通道注意力模塊,因其全局平均池化(Global Average Pooling,GAP)會造成空間上特征信息的丟失,不利于感知小目標(biāo)[20]。文獻(xiàn)[21-22]都選擇級聯(lián)使用通道、空間注意力來提高算法對目標(biāo)的多尺度感知能力,但是會過多地增加算法的計(jì)算負(fù)擔(dān)。考慮到無人機(jī)視角下目標(biāo)尺寸小、特征信息少以及計(jì)算能力有限的特點(diǎn),借鑒文獻(xiàn)[20]設(shè)計(jì)了一種輕量化多尺度注意力模塊(Multi-Scale Attention Module,MS-AM),提高對目標(biāo)的多尺度感知能力。多尺度注意力模塊的結(jié)構(gòu)如圖6所示,包括全局通道注意力(Global Attention)和局部空間注意力(Local Attention)。

    圖6 多尺度注意力模塊Fig. 6 Multi-scale attention module

    全局注意力主要由全局平均池化(GAP)和conv1*1組成:式(6)為通過全局平均池化來壓縮輸入特征圖u的空間信息,得到全局特征向量zc,而后式(7)通過2層1*1卷積conv1*1,學(xué)習(xí)特征向量之間的非線性關(guān)系,生成全局通道注意力權(quán)重SGlobal;如式(8)所示,局部注意力使用2層conv1*1對輸入u進(jìn)行通道的降維和升維,壓縮通道上的特征信息,生成局部空間注意力特征圖vLocal。

    式中:uc(i,j)為每個通道c上的特征圖,其中i、j為特征圖上像素點(diǎn)坐標(biāo),c∈C;F1、F2是conv1*1;σ(?)為ReLU激活函數(shù)。

    式(9)將全局通道注意力權(quán)重SGlobal與局部空間注意力特征圖vLocal相加,得到多尺度注意力權(quán)重v,并通過式(10)將注意力權(quán)重v與輸入u加權(quán)相乘,得到多尺度注意力特征圖V。全局通道注意力和局部空間注意力的結(jié)合使用,在通道上抑制其他類別的目標(biāo)特征信息、空間上抑制相似目標(biāo)的特征信息和盡可能地保留小尺寸跟蹤目標(biāo)的特征信息,增強(qiáng)了對跟蹤目標(biāo)的辨別能力、多尺度感知能力和抗干擾能力。

    2.3 注意力特征融合模塊AFFM

    孿生跟蹤算法的核心思想是模板匹配,簡單高效地從搜索圖像中找到跟蹤目標(biāo),但跟蹤過程中目標(biāo)會出現(xiàn)運(yùn)動模糊、外觀變化和光照變化等情況導(dǎo)致目標(biāo)后續(xù)狀態(tài)與初始模板存在較大差異。考慮到深層特征中具有抽象的高級語義信息,能魯棒地表征物體,保證算法在各種場景下的泛化能力。以及淺層特征中包含形象的細(xì)節(jié)信息,如形狀、顏色等信息,有助于目標(biāo)的精準(zhǔn)定位[23]。因此在多尺度注意力模塊的基礎(chǔ)上進(jìn)行深淺層特征融合,有效整合淺層的細(xì)節(jié)信息合深層的語義信息,提高跟蹤算法的魯棒性與定位準(zhǔn)確性[20]。注意力特征融合模塊(Attention Fea?ture Fusion Module,AFFM)如圖7所示。

    首先式(11)將殘差模塊的輸入x[l]和輸出x[l+1]相加并作為多尺度注意力模塊的輸入,使得生成的注意力特征圖能同時具有語義信息和細(xì)節(jié)信息,式(12)然后將注意力權(quán)重vAFFM分別作用于x[l]、x[l+1],篩選不同層的特征圖上的有用信息,最后將深淺層的注意力特征圖進(jìn)行相加,得到注意力特征融合模塊的輸出VAFFM。

    圖7 注意力特征融合模塊Fig. 7 Attention feature fusion module

    相比于直接融合不同層特征信息的特征金字塔[24],注意力特征融合模塊不僅能融合多層特征信息,而且在注意力模塊的幫助下能夠靈活地分配融合特征圖的權(quán)重,在融合階段對無關(guān)特征信息進(jìn)行抑制、更多地保留了跟蹤目標(biāo)的語義信息和細(xì)節(jié)信息,算法能有效應(yīng)對運(yùn)動模糊、外觀變化等挑戰(zhàn),同時對目標(biāo)的精確定位能力也得到增強(qiáng)。

    2.4 基于無錨框策略的RPN模塊AF-RPN

    文獻(xiàn)[25]指出通用目標(biāo)跟蹤任務(wù)的出發(fā)點(diǎn)應(yīng)該是跟蹤算法能依靠的先驗(yàn)信息只有初始幀的目標(biāo)信息,而RPN模塊中預(yù)先定義了一組尺度(Scale)、比例(Ratio)不同的錨框(Anchor)進(jìn)行尺度估計(jì),這些錨框的先驗(yàn)信息都是從視頻中分析得到的,是違背了跟蹤任務(wù)的出發(fā)點(diǎn),并且跟蹤性能對錨框的這些參數(shù)很敏感,需要人工精心設(shè)置。因此為了跟蹤算法能擺脫對目標(biāo)先驗(yàn)信息的過多依賴,在RPN模塊中使用文獻(xiàn)[26]的無錨框策略完成目標(biāo)尺度的自適應(yīng)估計(jì)。

    如圖8、式(13)和式(14)所示,基于無錨框策略的RPN模塊(AF-RPN),其邊界框回歸分支不再對錨框的尺寸(長、寬、中心點(diǎn)位置)進(jìn)行回歸,而是預(yù)測目標(biāo)像素點(diǎn)與真實(shí)框(Ground-truth)之間的偏移量l,t,b,r;之前的分類分支是通過計(jì)算錨框與真實(shí)框的面積交并比(Intersection over Union, IOU)來判斷錨框內(nèi)的目標(biāo)是否為正樣本,因此無錨框策略需要一種新的正負(fù)樣本判別方法:式(15)將相似度響應(yīng)圖的像素點(diǎn)(i,j)映射回搜索圖像,映射坐標(biāo)為(pi,pj)。然后對(pi,pj)進(jìn)行分類:如圖9所示,落在橢圓E1之外為負(fù)樣本;落在橢圓E2內(nèi)則為正樣本;落在橢圓E1和橢圓E2之間則忽略該點(diǎn)。如式(16)所示:橢圓E1的中心點(diǎn)坐標(biāo)為(gxc,gyc)、短半軸和長半軸的長分別為橢圓E2的中心點(diǎn)坐標(biāo)為(gxc,gyc)、短半軸和長半軸的長分別為最后,式(17)對屬于正樣本的點(diǎn)(pi,pj)進(jìn)行回歸,從而計(jì)算得到與真實(shí)值的偏移量l,t,b,r。式中為分類結(jié)果和回歸結(jié)果,其 中w、h、4k分 別 為 特 征 圖 的 寬 度、高 度、通道數(shù)。

    圖8 AF-RPN模塊Fig. 8 AF-RPN module

    圖9 正負(fù)樣本分類與邊界框回歸Fig. 9 Positive-negative classification and bounding box regression

    式 中:映 射 坐 標(biāo) 為(pi,pj);響 應(yīng) 圖 坐 標(biāo) 為(i,j);w、h為響應(yīng)圖的寬度和高度;wim、him為搜索圖像的寬度和高度;s為網(wǎng)絡(luò)的總步長。

    其中:gw、gh,(gx1,gy1)、(gxc,gyc)和(gx2,gy2)分別為真實(shí)框的寬、高,左上角坐標(biāo)、中心點(diǎn)坐標(biāo)和右下角坐標(biāo)。則有:

    跟蹤過程中目標(biāo)的尺度變化情況是隨機(jī)、未知的,跟蹤算法難以通過預(yù)先定義的錨框準(zhǔn)確估計(jì)出目標(biāo)的尺度。因此AF-RPN模塊避免了錨框的使用,而是直接在搜索圖像上逐像素地區(qū)分正負(fù)樣本和預(yù)測目標(biāo)位置,能夠自適應(yīng)地感知目標(biāo)的尺度變化。同時避免引入過多超參數(shù),算法能靈活、通用地跟蹤未知場景下的目標(biāo)。

    同時為了充分利用注意力特征融合模塊AFFM整合的語義信息和細(xì)節(jié)信息,如圖2、式(18)和 式(19)所 示,在DF-ResNet的Layer2、Layer3和Layer4上級聯(lián)使用多個AF-RPN模塊并將結(jié)果進(jìn)行加權(quán)融合,同時利用淺層特征中的細(xì)節(jié)信息對目標(biāo)精確定位和深層特征中的語義信息穩(wěn)定地表征跟蹤目標(biāo),有效應(yīng)對跟蹤過程中的小目標(biāo)、運(yùn)動模糊等情況。參考文獻(xiàn)[8],本文加權(quán)融合的權(quán)重是相同的,從而給予了各層相同的重視程度,充分和平衡地利用了語義信息和細(xì)節(jié)信息。

    式 中:Si、Bi和αi為 第i層AF-RPN的 分 類 輸 出、回歸輸出和融合權(quán)重;S、B為網(wǎng)絡(luò)輸出的最終結(jié)果。

    2.5 跟蹤算法流程

    算法流程如圖10所示,主要步驟如下:

    1) 輸入視頻序列。

    2) DF-ResNet提 取視頻序 列 第1幀中目 標(biāo)特征,作為模板特征。

    3) DF-ResNet提取后續(xù)幀中的搜索區(qū)域特征,作為搜索特征。

    4) 多尺度注意力模塊(MS-AM)為特征圖重新分配權(quán)重,得到加權(quán)特征圖。

    5) 注意力特征融合模塊(AFFM)將不同層的加權(quán)特征圖進(jìn)行融合,整合細(xì)節(jié)信息與語義信息。

    圖10 算法流程Fig. 10 Flowchart of algorithm

    6) 級聯(lián)多個基于無錨框策略的RPN模塊(AF-RPN)逐步完成對目標(biāo)位置、邊界框大小的精確評估。

    7) 輸出目標(biāo)的預(yù)測結(jié)果。

    8) 重復(fù)步驟3)~7),直至視頻結(jié)束。

    3 實(shí)驗(yàn)與分析

    3.1 網(wǎng)絡(luò)分析

    3.1.1 有效性

    首先通過對比實(shí)驗(yàn)來分析各個模塊對于網(wǎng)絡(luò)的提升效果,驗(yàn)證各個模塊的有效性。表1為各模塊在數(shù)據(jù)集UAV123[27]上的跟蹤成功率:①使用AlexNet網(wǎng)絡(luò)、RPN模塊的標(biāo)準(zhǔn)方法Sia?mRPN[5],成功率為55.7%;②在SiamRPN上使用多樣化特征提取網(wǎng)絡(luò)DF-ResNet替換原來的AlexNet網(wǎng)絡(luò),成功率為58.6%,提高了2.9%,說明DF-ResNet能更有效地表征目標(biāo),從而提高了跟蹤效果;③在提取的多樣化特征信息基礎(chǔ)上使用多尺度注意力模塊,保留不同尺度的目標(biāo)特征信息、抑制干擾信息,將跟蹤率提高至60.9%;④沒有了多尺度注意力模塊的特征融合模塊AFFM,直接將細(xì)節(jié)信息和語義信息相加,跟蹤成功率為60.5%,證明了語義信息和細(xì)節(jié)信息的融合能有效地增強(qiáng)跟蹤魯棒性和定位準(zhǔn)確性;⑤基于無錨框策略的RPN模塊能夠逐像素地預(yù)測目標(biāo),自適應(yīng)感知目標(biāo)變化,跟蹤成功率比標(biāo)準(zhǔn)方法增加了4.6%、為60.3%;⑥本文組合各個模塊將成功率提升至61.7%、最大幅度地提升了跟蹤效果,證明各個模塊能夠協(xié)同配合、發(fā)揮各自優(yōu)勢,互補(bǔ)地構(gòu)建一個高效的無人機(jī)跟蹤算法。

    表1 對比實(shí)驗(yàn)結(jié)果Table 1 Comparison of results of ablation experiments

    3.1.2 輕量化

    為了進(jìn)一步驗(yàn)證MS-AM中全局通道注意力(Global Attention,GA)和局部空間注意力(Lo?cal Attention,LA)對網(wǎng)絡(luò)的提升作用,本文以ResNet-50為基礎(chǔ)測試2個子模塊在數(shù)據(jù)集Ima?geNet[28]上的分類準(zhǔn)確度。如表2所示:添加全局通道注意力之后的網(wǎng)絡(luò)分類準(zhǔn)確率為76.8%,比直接增加了網(wǎng)絡(luò)層數(shù)的ResNet-101的準(zhǔn)確率更高;添加局部空間注意力之后的網(wǎng)絡(luò)性能進(jìn)一步提升,準(zhǔn)確率為77.7%,比ResNet-50高2.3%、比ResNet-101高1.1%。參數(shù)為29.9 M(1 M=1×106)、遠(yuǎn) 遠(yuǎn) 小 于ResNet-101的44.55 M,比ResNet-50增加了4.34 M??梢钥闯觯喝趾途植孔⒁饬Χ寄芴嵘W(wǎng)絡(luò)性能,且二者結(jié)合使用的效果最好。因此相比于增加網(wǎng)絡(luò)層數(shù),多尺度注意力模塊更能有效地提升網(wǎng)絡(luò)性能,并且參數(shù)量更少,適合無人機(jī)的目標(biāo)跟蹤任務(wù)。

    表2 輕量化分析Table 2 Lightweight analysis

    3.1.3 可視化

    為了直觀展示和驗(yàn)證多尺度注意力模塊MS-AM和注意力特征融合模塊AFFM的有效性,將 其 加 入DF-ResNet中,使 用Grad-CAM++[29]展 示DF-ResNet的 分 類 準(zhǔn) 確 度。Grad-CAM++是一種模型分類結(jié)果可視化方法,通過計(jì)算特征圖中空間位置上的梯度的像素加權(quán),度量每個像素對模型分類結(jié)果的重要程度,生成的類激活熱力圖(Class Activation Map,CAM)能直觀展示CNN模型認(rèn)為與類別標(biāo)簽對應(yīng)的圖像區(qū)域。熱力圖中某個區(qū)域的溫度越高,則類別激活值就越大,代表著該區(qū)域是該類別的可能性更大。

    圖11為ResNet-50和DF-ResNet的類激 活熱力圖。圖11(a)中有狗和貓2個類別的物體,有MS-AM和AFFM模 塊存在的DF-ResNet對 感興趣目標(biāo)(貓)的辨別能力得到增強(qiáng),干擾目標(biāo)(狗)的激活值明顯降低。圖11(e)和圖11(f)表明DF-ResNet由于有能夠提供細(xì)節(jié)信息的AFFM模塊的存在,分類結(jié)果更加準(zhǔn)確。因此MS-AM和AFFM能夠有效篩選目標(biāo)特征,從而增強(qiáng)網(wǎng)絡(luò)對目標(biāo)的辨別能力、抑制干擾目標(biāo),應(yīng)用于跟蹤算法中能提升跟蹤準(zhǔn)確度。

    圖11 類激活熱力圖Fig. 11 Class activation map

    3.2 實(shí)驗(yàn)平臺及參數(shù)設(shè)置

    實(shí)驗(yàn)平臺:①操作系統(tǒng)為 Ubuntu18.04;②CPU為Intel Core i7-9700 @3.6 GHz;③GPU:2張NVIDIA GeForce RTX 2080Ti,內(nèi)存11 G。

    訓(xùn)練數(shù)據(jù)集:中科院專門為目標(biāo)跟蹤設(shè)計(jì)的GOT-10k[25]數(shù) 據(jù) 集,由10 000個 視 頻 片 段 和150萬個人工標(biāo)注的邊界框組成,包含現(xiàn)實(shí)世界中560多個類別的運(yùn)動目標(biāo)和80多種運(yùn)動模式;包含38萬個視頻片段,560萬個人工標(biāo)注的邊界框,23個類別的日常物體的YouTube-BoundingBoxes[28];有30個 基 本 級 別 的 類 別,200個 子 集 的ImageNet VID和ImageNet DET[29];包含91個對象類型,328千張圖像,總共有250萬個標(biāo)注的COCO[30]。訓(xùn)練時會從相同的視頻序列里隨機(jī)選取一個搜索圖像和模板圖像,組成圖像對輸入到網(wǎng)絡(luò)中訓(xùn)練,模板圖像的大小為127 pixel×127 pixel,搜索分支圖像大小為255 pixel×255 pixel。

    研究區(qū)出露地層為長城系星星峽巖群、下泥盆統(tǒng)阿爾彼什麥布拉克組、中泥盆統(tǒng)阿拉塔格組、下石炭統(tǒng)甘草湖組和第四系[9](圖1b)。侵入巖主要為華力西中期晚石炭世花崗巖[10]。區(qū)內(nèi)斷裂構(gòu)造極為發(fā)育,主要斷裂阿其克庫都克斷裂、卡瓦布拉克斷裂為NW—SE向,次級斷裂多為NE—SW向分布。

    參數(shù)設(shè)置:多個AF-RPN的融合權(quán)重為α3=α4=α5=0.333;使用隨機(jī)梯度下降法(Stochastic Gradient Descent,SGD)訓(xùn)練網(wǎng)絡(luò),epoch=20、其中每個epoch訓(xùn)練圖片數(shù)量為800 000對,batch size=22即 每批次處 理圖像11對;前10個epoch訓(xùn) 練AF-RPN、后10個epoch對整個網(wǎng)絡(luò)進(jìn)行端對端訓(xùn)練;前5個epoch的學(xué)習(xí)率從0.001預(yù)熱至0.005,后15個epoch的學(xué)習(xí)率從0.005指 數(shù) 衰 減到0.000 05,衰減權(quán)重為0.00 01,動量為0.9。損失函數(shù)是分類的交叉熵?fù)p失(Cross entropy loss)和回歸的IoU損失函數(shù)的總和。

    3.3 在UAV123上的實(shí)驗(yàn)結(jié)果與分析

    UAV123[31]數(shù)據(jù)集為測試無人機(jī)航拍目標(biāo)跟蹤算法的基準(zhǔn)數(shù)據(jù)集,由無人機(jī)拍攝的123個高分辨率視頻序列組成,包含9個目標(biāo)類別、12種常見挑戰(zhàn),視頻平均長度為915幀。包含場景有城市景觀、道路、建筑、田野、海灘、港口和碼頭等;包含目標(biāo):汽車、卡車、船只、人員、團(tuán)體和空中交通工具等;目標(biāo)的活動模式有:步行、騎自行車、滑水、駕駛、游泳和飛行等。拍攝場景復(fù)雜多變、跟蹤目標(biāo)類別廣泛、運(yùn)動模式復(fù)雜多元,能整體評估跟蹤算法。

    3.3.1 定性分析

    首先在UAV123中選取具有代表性的5個視頻序列(如表3所示),然后在這基礎(chǔ)上定性分析本文算法(Ours)與8種主流跟蹤算法的跟蹤結(jié)果,8種算法分別為:①額外訓(xùn)練一個濾波器進(jìn)行尺度估計(jì)的判別式尺度空間跟蹤算法[32](Dis?criminative Scale Space Tracker, DSST);②多專 家 魯 棒 跟 蹤 算 法[33](Multiple Experts using Entropy Minimization, MEEM);③使用多尺度搜索策略跟蹤的尺度自適應(yīng)與多特征跟蹤算法[34](Scale Adaptive with Multiple Features tracker, SAMF);④空間正則化相關(guān)濾波算法[35](Spatially Regularized Discriminative Correla?tion Filters, SRDCF);⑤全卷積孿生跟蹤算法的SiamFC[3];⑥孿 生 跟 蹤 區(qū) 域 建 議 算 法Siam?RPN[5];⑦結(jié)構(gòu)化支持向量機(jī)(SVM)進(jìn)行自適應(yīng)跟蹤的Struck[36];⑧干擾物感知的孿生區(qū)域建議算法DaSiamRPN[37]。使用的對比算法結(jié)果均來自數(shù)據(jù)集官方公布結(jié)果和算法作者提供結(jié)果。跟蹤結(jié)果如圖12所示。

    表3 5個代表性序列Table 3 Five representative sequences

    圖12(a)序列car7:跟蹤目標(biāo)為運(yùn)動的汽車,第369幀時無人機(jī)由于視角變換不及時,出現(xiàn)跟蹤目標(biāo)被障礙物遮擋的情況,只有SRDCF、Da?SiamRPN和本文算法能成功跟蹤上重新出現(xiàn)的目標(biāo),其余算法均將遮擋物當(dāng)作跟蹤目標(biāo)。第766幀時,隨著車輛的轉(zhuǎn)彎,邊界框的縱橫比變換大,只有本文算法能準(zhǔn)確地標(biāo)注出跟蹤目標(biāo)。本文算法因?yàn)镈F-ResNet使用多個子空間來學(xué)習(xí)目標(biāo)的多樣化特征,能更有效地表征目標(biāo),因此提高了對跟蹤目標(biāo)的辨別能力。

    圖12 算法在數(shù)據(jù)集UAV123的跟蹤結(jié)果展示Fig. 12 Tracking results of algorithms in UAV123 dataset

    圖12(c)序列car18:目標(biāo)由遠(yuǎn)至近地快速運(yùn)動,導(dǎo)致跟蹤過程中目標(biāo)的尺度變化大且迅速。使用多尺度搜索策略的相關(guān)濾波算法和孿生跟蹤算法的尺度適應(yīng)能力明顯不足,尺度變換過大時不能完全標(biāo)注出跟蹤目標(biāo),第105幀和144幀時只有本文算法準(zhǔn)確地標(biāo)注出跟蹤目標(biāo)。相比于基于多尺度搜索策略和錨框的尺度估計(jì)算法,本文算法使用的無錨框策略能夠逐像素預(yù)測目標(biāo),從而提高算法對目標(biāo)尺度變化的自適應(yīng)感知能力。

    圖12(d)序列car15:無人機(jī)從高空跟蹤行駛中的車輛,目標(biāo)尺寸小且相似目標(biāo)多。第230幀時相似目標(biāo)與跟蹤目標(biāo)重合之后,由于二者的特征信息少且相似,SiamFC、DSST、SAMF算法出現(xiàn)跟蹤失敗的情況,第425幀的遮擋情況也未能干擾本文算法的持續(xù)跟蹤。本文算法的多尺度注意力模塊中局部空間注意力在抑制干擾信息的同時更多地保留了小目標(biāo)的空間信息,提高對小目標(biāo)的識別能力和對相似干擾的抑制能力

    圖12(e)序列wakeboard6:該場景中包含的背景信息容易影響算法的跟蹤性能,第65幀SAMF已經(jīng)出現(xiàn)跟蹤失敗的情況。第507幀時隨著相機(jī)視角的突然變化,大部分算法丟失了跟蹤目標(biāo),只有SiamFC和本文算法能準(zhǔn)確找到跟蹤目標(biāo)。到了第1 081幀時目標(biāo)在空中的翻轉(zhuǎn)動作造成尺度快速變化,SiamRPN和SiamFC未能及時跟上變化,只框出了部分目標(biāo)。結(jié)合了全局和局部注意力的本文算法能有效抑制背景信息的干擾,因此識別復(fù)雜背景下的跟蹤目標(biāo)性能更加穩(wěn)定。

    3.3.2 定量分析

    為了進(jìn)一步驗(yàn)證算法的整體性能,采用一次通過評估模式(One-Pass-Evaluation, OPE),通過成功率(Success)和準(zhǔn)確率(Precision)對算法進(jìn)行評估[38]。成功率是指成功率曲線與坐標(biāo)軸圍成的面積(Area Under Curve, AUC),其中成功率曲線上的每個點(diǎn)代表著重疊率(Intersection Over Union, IOU)大于某個閾值的幀數(shù)百分比;準(zhǔn)確率,即 中 心 定 位 誤 差(Center Location Error,CLE)。計(jì)算被跟蹤目標(biāo)中心位置與真實(shí)中心位置之間的平均歐氏距離,當(dāng)距離小于閾值(一般為20個像素)時,被視為跟蹤成功。準(zhǔn)確率由成功跟蹤的圖片數(shù)量和視頻序列數(shù)量的百分比得到。

    1)整體性能評估:9種算法的整體評估結(jié)果如圖13所示。本文算法(Ours)的成功率和準(zhǔn)確率分別為61.7%和81.5%,比第2名DaSiamRPN分別提高4.8%、3.4%,比SiamRPN分別提高6.0%、4.7%??梢园l(fā)現(xiàn):當(dāng)成功率閾值變高和準(zhǔn)確率閾值變低時,本文算法明顯優(yōu)于其他算法,說明即使在跟蹤任務(wù)的要求變高時,本文算法也能展現(xiàn)出良好的跟蹤效果。證明多樣化特征信息提取網(wǎng)絡(luò)(DF-ResNet)、多尺度注意力模塊(MS-AM)、注意力特征融合模塊(AFFM)和基于無錨框策略的RPN模塊(AF-RPN)能夠協(xié)同配合,互補(bǔ)地構(gòu)建一個高效的無人機(jī)航拍目標(biāo)跟蹤算法。同時速度達(dá)到40.5 frame/s,滿足實(shí)時性要求(≥30 frame/s),足以勝任無人機(jī)實(shí)時跟蹤任務(wù)。

    圖13 算法在數(shù)據(jù)集UAV123的整體性能評估Fig. 13 Overall performance evaluation of algorithms in UAV123 dataset

    圖14 算法在UAV123數(shù)據(jù)集上不同屬性的評估結(jié)果Fig. 14 Evaluation results of different attributes of UAV123 with algorithms

    2)各個屬性評估:UAV123數(shù)據(jù)集提供了各個視頻序列的挑戰(zhàn)屬性,更加全面地評價算法的性能。UAV123數(shù)據(jù)集中出現(xiàn)次數(shù)最多的挑戰(zhàn)為目標(biāo)的尺度變化和部分遮擋,分別為89%和59%,符合無人機(jī)目標(biāo)跟蹤的實(shí)際情況。如圖14所示:本文算法在尺度變化挑戰(zhàn)上的成功率和準(zhǔn)確率為59.7%、79.3%,在部分遮擋挑戰(zhàn)上的成功率和準(zhǔn)確率為52.3%、73.4%,在9種算法中排名第一,證明本文算法更加適合無人機(jī)目標(biāo)跟蹤任務(wù)。此外在縱橫比變化、快速運(yùn)動、低分辨率等挑戰(zhàn)上也取得了較好的效果,證明本文設(shè)計(jì)的各個模塊能夠有效應(yīng)對無人機(jī)跟蹤過程中的多種挑戰(zhàn),從而提高算法的整體性能。

    3.4 在無人機(jī)航拍視頻上的測試與分析

    為了驗(yàn)證本文算法在實(shí)際無人機(jī)場景中的跟蹤效果,本文算法應(yīng)用于無人機(jī)航拍視頻中進(jìn)行測試,其中視頻分辨率為3 840 pixel×2 160 pixel,幀速為30 frame/s,拍攝高度為120 m。部分跟蹤結(jié)果如圖15所示。

    序列1 跟蹤目標(biāo)為在道路上滑行的人。目標(biāo)的快速運(yùn)動、特征點(diǎn)少且存在背景干擾,未能影響算法的跟蹤效果??梢姳疚乃惴ㄔ趯?shí)際應(yīng)用中也有著良好的小目標(biāo)識別和抗干擾能力。

    圖15 算法在無人機(jī)航拍視頻的跟蹤結(jié)果展示Fig. 15 Tracking results of algorithms in UAV aerial video

    序列2 跟蹤目標(biāo)的快速運(yùn)動導(dǎo)致其尺度變化大且迅速,本文算法能及時感知出目標(biāo)的尺度變化并準(zhǔn)確標(biāo)注出跟蹤目標(biāo)。在696幀無人機(jī)隨著跟蹤目標(biāo)的運(yùn)動而調(diào)整飛行姿態(tài),拍攝視角迅速變化,本文算法仍未產(chǎn)生跟蹤漂移現(xiàn)象。第1 571幀時算法準(zhǔn)確判斷出跟蹤目標(biāo)與相似目標(biāo)。

    序列3 由于無人機(jī)位置調(diào)整不及時,導(dǎo)致第93和第181幀跟蹤都出現(xiàn)了不同程度的遮擋情況,算法仍根據(jù)部分目標(biāo)信息準(zhǔn)確判斷出跟蹤目標(biāo)的位置,并在第220幀時目標(biāo)重新出現(xiàn)之后,準(zhǔn)確識別出整個目標(biāo)。

    4 結(jié) 論

    提出了一種基于多尺度注意力和特征融合的自適應(yīng)無人機(jī)目標(biāo)跟蹤算法,主要工作為:

    1)利用分組-轉(zhuǎn)換-融合的子空間學(xué)習(xí)思想,設(shè)計(jì)了多樣化特征提取網(wǎng)絡(luò)DF-ResNet,能夠提取目標(biāo)的深層語義特征和多樣化特征,增強(qiáng)對目標(biāo)的表征能力,有效應(yīng)對目標(biāo)的外觀變化、運(yùn)動模糊等挑戰(zhàn)。

    2)提出了一種多尺度注意力模塊MS-AM和注意力特征融合模塊AFFM,結(jié)合全局、局部注意力的MS-AM在篩選特征的同時保留對大、小目標(biāo)的尺度感知能力,在此基礎(chǔ)上AFFM融合了不同層的特征,有效整合淺層細(xì)節(jié)信息和深層語義信息,有利于目標(biāo)的精確定位與分類。

    3)提出了一種基于無錨框策略的區(qū)域建議模塊AF-RPN,代替預(yù)先定義的錨框,逐像素的區(qū)分目標(biāo)與背景,實(shí)現(xiàn)對目標(biāo)尺度的自適應(yīng)感知能力。并在AFFM模塊的基礎(chǔ)上級聯(lián)多個AFRPN,有效利用了互補(bǔ)的細(xì)節(jié)信息和語義信息來實(shí)現(xiàn)對跟蹤目標(biāo)的魯棒跟蹤和精確定位。

    猜你喜歡
    跟蹤目標(biāo)尺度注意力
    讓注意力“飛”回來
    核相關(guān)濾波與孿生網(wǎng)絡(luò)相結(jié)合的目標(biāo)跟蹤算法
    財產(chǎn)的五大尺度和五重應(yīng)對
    基于圖割理論的尺度自適應(yīng)人臉跟蹤算法
    “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
    傳媒評論(2017年3期)2017-06-13 09:18:10
    連續(xù)同色調(diào)背景下運(yùn)動目標(biāo)自適應(yīng)跟蹤
    A Beautiful Way Of Looking At Things
    宇宙的尺度
    太空探索(2016年5期)2016-07-12 15:17:55
    基于卡爾曼和圖像信息量的Mean Shift改進(jìn)跟蹤算法
    9
    看十八女毛片水多多多| 国产麻豆69| 亚洲一级一片aⅴ在线观看| 综合色丁香网| 超碰97精品在线观看| 赤兔流量卡办理| 男女免费视频国产| 一本色道久久久久久精品综合| 美女内射精品一级片tv| 久久人人97超碰香蕉20202| 国产伦理片在线播放av一区| 国产精品无大码| 搡老乐熟女国产| 国语对白做爰xxxⅹ性视频网站| 久久人人97超碰香蕉20202| 国产一区二区三区综合在线观看 | 视频中文字幕在线观看| 最新的欧美精品一区二区| 一级毛片黄色毛片免费观看视频| 日韩人妻精品一区2区三区| 久久久久精品久久久久真实原创| 午夜久久久在线观看| 日韩成人av中文字幕在线观看| 久久久久久久精品精品| 亚洲精品久久午夜乱码| 毛片一级片免费看久久久久| 9191精品国产免费久久| 精品一区二区三区视频在线| 秋霞在线观看毛片| 中文字幕亚洲精品专区| 国产色爽女视频免费观看| 成人午夜精彩视频在线观看| 久久av网站| 欧美最新免费一区二区三区| av.在线天堂| 日韩av不卡免费在线播放| 成人手机av| 久久ye,这里只有精品| 国产精品一区www在线观看| 国产xxxxx性猛交| 日本-黄色视频高清免费观看| 一区二区三区精品91| 在线观看人妻少妇| 日本91视频免费播放| 精品人妻一区二区三区麻豆| 午夜免费男女啪啪视频观看| 色5月婷婷丁香| 久久久国产精品麻豆| 高清黄色对白视频在线免费看| 亚洲av中文av极速乱| 香蕉国产在线看| 亚洲精品乱久久久久久| 国产高清国产精品国产三级| 日本爱情动作片www.在线观看| 亚洲四区av| 欧美成人午夜精品| 熟妇人妻不卡中文字幕| 日韩视频在线欧美| 久久久久国产网址| 69精品国产乱码久久久| 91精品伊人久久大香线蕉| 亚洲精品国产av蜜桃| 九草在线视频观看| 亚洲综合色惰| 在线 av 中文字幕| 国产又爽黄色视频| www.av在线官网国产| 国产成人精品无人区| 成人毛片60女人毛片免费| 最近最新中文字幕大全免费视频 | 国产黄色免费在线视频| 亚洲欧洲国产日韩| 国产精品一区二区在线不卡| 欧美人与性动交α欧美软件 | 美女国产视频在线观看| 我的女老师完整版在线观看| 国产视频首页在线观看| av国产久精品久网站免费入址| 最近2019中文字幕mv第一页| 日韩制服丝袜自拍偷拍| 九草在线视频观看| 婷婷色综合大香蕉| 美女国产视频在线观看| 最后的刺客免费高清国语| 国产爽快片一区二区三区| 蜜桃在线观看..| 久久久久久久久久久久大奶| 桃花免费在线播放| 王馨瑶露胸无遮挡在线观看| 久久人人97超碰香蕉20202| 精品人妻熟女毛片av久久网站| 国产熟女欧美一区二区| 91国产中文字幕| 2018国产大陆天天弄谢| 精品久久久精品久久久| 蜜桃国产av成人99| 赤兔流量卡办理| 免费av不卡在线播放| 香蕉国产在线看| 精品久久国产蜜桃| 亚洲国产精品成人久久小说| 亚洲三级黄色毛片| 在线看a的网站| 亚洲精品色激情综合| 亚洲婷婷狠狠爱综合网| 亚洲图色成人| 色94色欧美一区二区| 最黄视频免费看| 久久97久久精品| 另类精品久久| 日本黄色日本黄色录像| 制服诱惑二区| 欧美国产精品一级二级三级| 丝袜脚勾引网站| 精品国产一区二区三区四区第35| 精品国产一区二区三区久久久樱花| 中文字幕人妻熟女乱码| 久久午夜综合久久蜜桃| 免费日韩欧美在线观看| 99热6这里只有精品| 777米奇影视久久| 9色porny在线观看| 9191精品国产免费久久| 丰满饥渴人妻一区二区三| 男女无遮挡免费网站观看| 你懂的网址亚洲精品在线观看| 草草在线视频免费看| 成人漫画全彩无遮挡| 欧美精品亚洲一区二区| 日本欧美视频一区| 免费观看在线日韩| 亚洲国产精品专区欧美| 精品少妇久久久久久888优播| 天堂俺去俺来也www色官网| 欧美变态另类bdsm刘玥| 国产女主播在线喷水免费视频网站| 亚洲伊人久久精品综合| 免费观看性生交大片5| 国产精品嫩草影院av在线观看| 在线观看www视频免费| 久久狼人影院| 90打野战视频偷拍视频| 在线观看免费日韩欧美大片| 蜜臀久久99精品久久宅男| 久久精品久久久久久久性| 色哟哟·www| 亚洲四区av| 免费少妇av软件| 久久99一区二区三区| 在线观看三级黄色| 女性被躁到高潮视频| 精品视频人人做人人爽| 国产永久视频网站| 激情五月婷婷亚洲| 亚洲欧美清纯卡通| 国产一区有黄有色的免费视频| 九九在线视频观看精品| 国产欧美另类精品又又久久亚洲欧美| 老司机影院成人| 极品少妇高潮喷水抽搐| 黑丝袜美女国产一区| 国产精品秋霞免费鲁丝片| 国产日韩一区二区三区精品不卡| 国产黄色视频一区二区在线观看| 蜜桃在线观看..| 日本与韩国留学比较| 久久久久久伊人网av| 我要看黄色一级片免费的| 一个人免费看片子| 中文天堂在线官网| 国产视频首页在线观看| 欧美成人午夜精品| 欧美人与善性xxx| 如日韩欧美国产精品一区二区三区| 在线观看美女被高潮喷水网站| 侵犯人妻中文字幕一二三四区| 国产精品国产av在线观看| 久久人妻熟女aⅴ| 777米奇影视久久| 9热在线视频观看99| 精品人妻在线不人妻| 日韩av不卡免费在线播放| av一本久久久久| 麻豆乱淫一区二区| 热99久久久久精品小说推荐| 国产成人精品无人区| 亚洲av男天堂| 国产成人免费无遮挡视频| 丰满饥渴人妻一区二区三| 少妇的逼水好多| 美女大奶头黄色视频| 精品午夜福利在线看| 亚洲国产最新在线播放| 成人二区视频| 国产毛片在线视频| 欧美日韩成人在线一区二区| 激情五月婷婷亚洲| 久久久久久久国产电影| 九草在线视频观看| 婷婷色综合大香蕉| 9热在线视频观看99| www.av在线官网国产| 国产成人精品婷婷| 亚洲少妇的诱惑av| 最黄视频免费看| 成年人午夜在线观看视频| 国产成人午夜福利电影在线观看| 亚洲国产av新网站| 欧美3d第一页| 日韩人妻精品一区2区三区| 少妇猛男粗大的猛烈进出视频| 日韩精品免费视频一区二区三区 | 久久99热这里只频精品6学生| 国产色爽女视频免费观看| 日本与韩国留学比较| 又黄又粗又硬又大视频| 亚洲,欧美,日韩| 99香蕉大伊视频| 熟女av电影| 天堂中文最新版在线下载| 亚洲国产av影院在线观看| 高清不卡的av网站| 中文字幕免费在线视频6| 免费看光身美女| 久久99蜜桃精品久久| 免费av中文字幕在线| 最近2019中文字幕mv第一页| 久久精品aⅴ一区二区三区四区 | 男人添女人高潮全过程视频| 满18在线观看网站| 九色成人免费人妻av| 国产成人aa在线观看| 国产成人午夜福利电影在线观看| 在线观看免费日韩欧美大片| 久久久久久久精品精品| 中文字幕免费在线视频6| 夫妻性生交免费视频一级片| 久久久久视频综合| 成年人午夜在线观看视频| 日韩,欧美,国产一区二区三区| 日韩av免费高清视频| 亚洲精品国产av蜜桃| 亚洲精品乱码久久久久久按摩| 亚洲国产最新在线播放| 国产精品.久久久| 国产片内射在线| 午夜福利视频在线观看免费| 精品国产一区二区久久| 久久人人爽人人片av| 你懂的网址亚洲精品在线观看| 人人妻人人添人人爽欧美一区卜| 热99久久久久精品小说推荐| 日韩av免费高清视频| 黑人巨大精品欧美一区二区蜜桃 | 九九爱精品视频在线观看| 汤姆久久久久久久影院中文字幕| 日本欧美国产在线视频| 最近中文字幕2019免费版| 观看美女的网站| 久久这里有精品视频免费| 亚洲欧洲国产日韩| 女人被躁到高潮嗷嗷叫费观| 中文欧美无线码| www日本在线高清视频| 成人免费观看视频高清| 看免费av毛片| 久久毛片免费看一区二区三区| 我的女老师完整版在线观看| 国产精品蜜桃在线观看| 亚洲精品,欧美精品| 老司机影院成人| 亚洲人成77777在线视频| 9色porny在线观看| 18禁国产床啪视频网站| 伦理电影免费视频| 国产av一区二区精品久久| 七月丁香在线播放| 国产乱人偷精品视频| 日本av免费视频播放| 国产成人aa在线观看| av.在线天堂| 美女福利国产在线| 看免费成人av毛片| 精品少妇久久久久久888优播| 国产av一区二区精品久久| 免费不卡的大黄色大毛片视频在线观看| 中文字幕制服av| 亚洲精品,欧美精品| 久久久久精品性色| 国产福利在线免费观看视频| 免费日韩欧美在线观看| 美女脱内裤让男人舔精品视频| 最近中文字幕高清免费大全6| 少妇被粗大的猛进出69影院 | 欧美成人午夜免费资源| 国产极品粉嫩免费观看在线| 欧美日韩亚洲高清精品| 国产精品一国产av| 国产精品一二三区在线看| 男女下面插进去视频免费观看 | 久久国产精品大桥未久av| 亚洲欧洲国产日韩| 美女大奶头黄色视频| 精品久久国产蜜桃| 另类精品久久| 国产白丝娇喘喷水9色精品| 99热网站在线观看| 成年人午夜在线观看视频| 免费在线观看完整版高清| 草草在线视频免费看| 女性被躁到高潮视频| 99国产精品免费福利视频| 美女国产视频在线观看| 日韩av免费高清视频| 色哟哟·www| 国产在视频线精品| 国产成人午夜福利电影在线观看| 亚洲av成人精品一二三区| 水蜜桃什么品种好| 国产av精品麻豆| av天堂久久9| 新久久久久国产一级毛片| 欧美日韩成人在线一区二区| 亚洲国产最新在线播放| 国产成人午夜福利电影在线观看| 国产精品一国产av| av国产久精品久网站免费入址| tube8黄色片| 精品人妻偷拍中文字幕| 精品少妇内射三级| 少妇的逼水好多| www.色视频.com| 在线免费观看不下载黄p国产| 性高湖久久久久久久久免费观看| 国产亚洲欧美精品永久| 美女视频免费永久观看网站| 国产av码专区亚洲av| 伦理电影免费视频| 天天躁夜夜躁狠狠躁躁| 寂寞人妻少妇视频99o| 在线观看美女被高潮喷水网站| 涩涩av久久男人的天堂| 在线看a的网站| 制服人妻中文乱码| 亚洲国产欧美日韩在线播放| 丝袜人妻中文字幕| 精品少妇内射三级| 免费人成在线观看视频色| 精品亚洲成国产av| 免费观看av网站的网址| 国产高清国产精品国产三级| 在线免费观看不下载黄p国产| 伦精品一区二区三区| 免费在线观看黄色视频的| 亚洲四区av| 亚洲在久久综合| 看非洲黑人一级黄片| 亚洲av免费高清在线观看| 久久精品熟女亚洲av麻豆精品| 国产一区二区三区av在线| 在线观看免费高清a一片| 亚洲三级黄色毛片| 精品国产乱码久久久久久小说| 婷婷色综合www| 午夜免费男女啪啪视频观看| 男人操女人黄网站| 婷婷色综合www| 国产午夜精品一二区理论片| 国产一区二区在线观看日韩| 亚洲人与动物交配视频| 亚洲成人av在线免费| 日韩三级伦理在线观看| 99热6这里只有精品| 免费大片黄手机在线观看| 亚洲内射少妇av| 久久精品国产a三级三级三级| 人成视频在线观看免费观看| 亚洲精品久久午夜乱码| 少妇精品久久久久久久| 亚洲国产精品一区二区三区在线| 观看美女的网站| 中文字幕免费在线视频6| 精品国产一区二区三区久久久樱花| 美女xxoo啪啪120秒动态图| 国产乱人偷精品视频| 交换朋友夫妻互换小说| 青青草视频在线视频观看| 久久精品国产a三级三级三级| 免费人妻精品一区二区三区视频| 春色校园在线视频观看| 欧美人与善性xxx| 一级a做视频免费观看| 久久久久久人人人人人| 国产av码专区亚洲av| 成人18禁高潮啪啪吃奶动态图| 少妇精品久久久久久久| 欧美人与性动交α欧美精品济南到 | 老熟女久久久| 久久免费观看电影| 美女内射精品一级片tv| 国产精品人妻久久久久久| 日韩av在线免费看完整版不卡| 一级毛片我不卡| av有码第一页| 狂野欧美激情性xxxx在线观看| 丝瓜视频免费看黄片| 母亲3免费完整高清在线观看 | 日韩三级伦理在线观看| 女的被弄到高潮叫床怎么办| 中文天堂在线官网| 好男人视频免费观看在线| 欧美激情国产日韩精品一区| 亚洲av男天堂| 51国产日韩欧美| 国产成人精品在线电影| 少妇的逼好多水| 乱人伦中国视频| 国产 一区精品| 99热6这里只有精品| 边亲边吃奶的免费视频| av电影中文网址| 亚洲久久久国产精品| 大码成人一级视频| 亚洲精品一区蜜桃| 日韩不卡一区二区三区视频在线| 麻豆乱淫一区二区| 欧美xxⅹ黑人| 久久99热这里只频精品6学生| 国产免费又黄又爽又色| 精品一区二区免费观看| 国产精品国产三级国产专区5o| 亚洲成色77777| 色视频在线一区二区三区| 国产又爽黄色视频| 超色免费av| 97人妻天天添夜夜摸| 人成视频在线观看免费观看| 我要看黄色一级片免费的| 大香蕉久久网| 两个人看的免费小视频| 久久狼人影院| 亚洲国产av影院在线观看| 国产 精品1| 99视频精品全部免费 在线| 黄片播放在线免费| 久久婷婷青草| 国产极品粉嫩免费观看在线| 男人爽女人下面视频在线观看| 久久精品国产亚洲av涩爱| 国产亚洲欧美精品永久| av线在线观看网站| 成人国产麻豆网| 另类精品久久| 欧美精品一区二区免费开放| 51国产日韩欧美| 男的添女的下面高潮视频| 欧美国产精品va在线观看不卡| 熟女电影av网| 最后的刺客免费高清国语| 亚洲av电影在线进入| 毛片一级片免费看久久久久| 成年人免费黄色播放视频| 日韩成人av中文字幕在线观看| 色5月婷婷丁香| 黑人欧美特级aaaaaa片| 国产av一区二区精品久久| 九草在线视频观看| 亚洲av男天堂| 中文字幕制服av| 欧美日韩视频精品一区| 狂野欧美激情性bbbbbb| 大话2 男鬼变身卡| 国产1区2区3区精品| 在线精品无人区一区二区三| 亚洲综合色网址| av黄色大香蕉| 亚洲av.av天堂| 九九爱精品视频在线观看| 视频在线观看一区二区三区| 在线 av 中文字幕| 日本-黄色视频高清免费观看| 亚洲高清免费不卡视频| 大香蕉久久网| 国产成人免费无遮挡视频| 欧美激情国产日韩精品一区| 大片电影免费在线观看免费| 亚洲图色成人| 成人国产麻豆网| 啦啦啦啦在线视频资源| 精品久久久久久电影网| 成人二区视频| 午夜福利网站1000一区二区三区| 夜夜骑夜夜射夜夜干| 人人妻人人澡人人爽人人夜夜| 久久97久久精品| 久久久久精品人妻al黑| 国产成人av激情在线播放| 午夜视频国产福利| 日韩av免费高清视频| 日韩精品免费视频一区二区三区 | 91在线精品国自产拍蜜月| 熟女av电影| av一本久久久久| 久久毛片免费看一区二区三区| 中文字幕最新亚洲高清| 久久久欧美国产精品| 亚洲欧洲精品一区二区精品久久久 | 日韩,欧美,国产一区二区三区| 搡老乐熟女国产| 午夜视频国产福利| 欧美国产精品一级二级三级| 欧美变态另类bdsm刘玥| 国产男女内射视频| 精品亚洲乱码少妇综合久久| 草草在线视频免费看| 熟妇人妻不卡中文字幕| 一区二区av电影网| 97在线人人人人妻| 爱豆传媒免费全集在线观看| 老女人水多毛片| 七月丁香在线播放| 日本欧美视频一区| 一级片'在线观看视频| 亚洲av在线观看美女高潮| 亚洲综合色惰| 美女中出高潮动态图| 一边亲一边摸免费视频| 久久精品熟女亚洲av麻豆精品| 有码 亚洲区| 亚洲国产看品久久| 在线观看三级黄色| 精品国产一区二区三区四区第35| 中文精品一卡2卡3卡4更新| 日韩视频在线欧美| 午夜久久久在线观看| 国产成人午夜福利电影在线观看| 久久久久人妻精品一区果冻| 国产成人午夜福利电影在线观看| √禁漫天堂资源中文www| 成年动漫av网址| 一级a做视频免费观看| 亚洲三级黄色毛片| 国产精品三级大全| 亚洲人成网站在线观看播放| 国产亚洲最大av| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 中文欧美无线码| 久久久久久人人人人人| 精品一区二区三区四区五区乱码 | 欧美日韩一区二区视频在线观看视频在线| 久久久精品区二区三区| av又黄又爽大尺度在线免费看| 精品人妻熟女毛片av久久网站| 五月天丁香电影| 国产极品粉嫩免费观看在线| 赤兔流量卡办理| 99九九在线精品视频| 2022亚洲国产成人精品| 久久久a久久爽久久v久久| 午夜免费鲁丝| 欧美精品一区二区大全| 国产爽快片一区二区三区| 精品一区在线观看国产| 国产熟女欧美一区二区| 欧美亚洲日本最大视频资源| 国产亚洲欧美精品永久| 久久久久久久久久久免费av| 少妇熟女欧美另类| 各种免费的搞黄视频| 日韩,欧美,国产一区二区三区| 亚洲欧美中文字幕日韩二区| 日韩不卡一区二区三区视频在线| 国产不卡av网站在线观看| 国产在视频线精品| 五月伊人婷婷丁香| 一区二区日韩欧美中文字幕 | 久久久久久久久久成人| 国产片特级美女逼逼视频| 看非洲黑人一级黄片| 赤兔流量卡办理| av电影中文网址| 18在线观看网站| 国产高清三级在线| 亚洲精品av麻豆狂野| 1024视频免费在线观看| 男女午夜视频在线观看 | 中文字幕另类日韩欧美亚洲嫩草| 妹子高潮喷水视频| 日本猛色少妇xxxxx猛交久久| 欧美最新免费一区二区三区| 韩国高清视频一区二区三区| 自拍欧美九色日韩亚洲蝌蚪91| 亚洲性久久影院| 日本欧美国产在线视频| 国产极品粉嫩免费观看在线| 97超碰精品成人国产| 日本欧美国产在线视频| 视频区图区小说| 尾随美女入室| av女优亚洲男人天堂| 少妇人妻久久综合中文| 精品少妇黑人巨大在线播放| 国产成人aa在线观看| 精品久久久久久电影网| 亚洲久久久国产精品| 日韩免费高清中文字幕av| 哪个播放器可以免费观看大片| 久久婷婷青草| 人妻人人澡人人爽人人| 最黄视频免费看| 亚洲精品一二三| 色婷婷久久久亚洲欧美| 国产麻豆69| 亚洲精品美女久久久久99蜜臀 | 精品国产一区二区久久|