摘" 要:針對(duì)目前多數(shù)基于孿生網(wǎng)絡(luò)的單目標(biāo)跟蹤算法模型參數(shù)大,難以在嵌入式平臺(tái)等移動(dòng)端設(shè)備部署的問(wèn)題,設(shè)計(jì)了一種基于SiamRPN改進(jìn)的輕量化孿生網(wǎng)絡(luò)單目標(biāo)跟蹤算法。算法使用裁剪過(guò)的MobileNetV3替換AlexNet作為特征提取網(wǎng)絡(luò),降低算法的參數(shù)量;融合了MobileNetV3的高低層特征,整合不同尺度的特征信息,增強(qiáng)算法對(duì)目標(biāo)多尺度變化的適應(yīng)能力;使用GhostConv替換原網(wǎng)絡(luò)模型頭部的普通卷積,使用深度可分離卷積進(jìn)行相關(guān)運(yùn)算,在保證特征提取能力的同時(shí)進(jìn)一步減少了參數(shù)量。在OTB數(shù)據(jù)集上進(jìn)行測(cè)試的結(jié)果表明:改進(jìn)后的算法在準(zhǔn)確率上提高了1.6%,成功率提高了3.8%,模型參數(shù)量為2.9 MB,減少了98.3%,證明改進(jìn)后的目標(biāo)跟蹤算法模型具有顯著的性能優(yōu)勢(shì)。
關(guān)鍵詞:SiamRPN;單目標(biāo)跟蹤;輕量化網(wǎng)絡(luò);特征融合
中圖分類(lèi)號(hào):TP301.6;TP183 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2096-4706(2025)03-0084-06
Research on Lightweight Single Object Tracking Algorithm Based on Siamese Network
LI Qinghua, ZHANG Xueqiu, ZHANG Yushan
(College of Mechanical Engineering, Chongqing University of Technology, Chongqing, 400054,China)
Abstract: Aiming at the problem that most of the Single Object Tracking algorithms based on Siamese Network have large model parameters and are difficult to deploy on mobile devices such as embedded platforms, a Single Object Tracking algorithm of improved lightweight Siamese Network based on SiamRPN is designed. The algorithm uses the clipped MobileNetV3 to replace AlexNet as the feature extraction network to reduce the number of parameters of the algorithm. It integrates the high-level and low-level features of MobileNetV3, integrates the feature information of different scales, and enhances the adaptability of the algorithm to the multi-scale changes of the object. GhostConv is used to replace the ordinary convolution of the head of the original network model, and the Depthwise Separable Convolution is used with for correlation operation, which further reduces the number of parameters while ensuring the feature extraction ability. The test results on the OTB dataset show that the improved algorithm improves the accuracy by 1.6%, and the success rate by 3.8 %. The number of model parameters is 2.9 MB, which is reduced by 98.3 %. It is proved that the improved object tracking algorithm model has significant performance advantages.
Keywords: SiamRPN; Single Object Tracking; lightweight network; feature fusion
0" 引" 言
目標(biāo)跟蹤源于計(jì)算機(jī)視覺(jué),以圖像、視頻數(shù)據(jù)為基礎(chǔ),融合了圖像處理、模式識(shí)別、人工智能、自動(dòng)控制等多個(gè)領(lǐng)域。近年來(lái),人工智能快速發(fā)展,計(jì)算機(jī)視覺(jué)研究也屢獲突破,目標(biāo)跟蹤的相關(guān)研究也進(jìn)展顯著,并廣泛應(yīng)用于安防監(jiān)控、智能交通、人機(jī)交互、自動(dòng)駕駛以及軍事偵察等諸多領(lǐng)域[1-2]。
單目標(biāo)跟蹤的任務(wù)是給定第一幀用邊界框標(biāo)記的感興趣目標(biāo)后,在視頻的后續(xù)幀中自動(dòng)給出目標(biāo)的位置和形狀[3]。2010年以前,目標(biāo)跟蹤算法主要構(gòu)建于生成式模型之上,如卡爾曼濾波、MeanShift算法等。2010年開(kāi)始,基于相關(guān)濾波的目標(biāo)跟蹤算法快速發(fā)展,出現(xiàn)了KCF、MOSSE等算法,傳統(tǒng)相關(guān)濾波的檢測(cè)速度快,但是不會(huì)顯示保存訓(xùn)練樣本,非最近幾幀樣本信息逐漸失效,會(huì)導(dǎo)致目標(biāo)定位誤差增大[4],隨后的相關(guān)濾波研究加入深度學(xué)習(xí)特征提取網(wǎng)絡(luò),雖然精度提升了,但是檢測(cè)速度也大幅下降了。隨著時(shí)間推移,2016年以后,得益于計(jì)算機(jī)算力的顯著提高以及大規(guī)模深度學(xué)習(xí)數(shù)據(jù)集的涌現(xiàn),基于孿生網(wǎng)絡(luò)的目標(biāo)跟蹤算法開(kāi)始備受關(guān)注。SiamFC使用全卷積孿生網(wǎng)絡(luò)進(jìn)行相似性學(xué)習(xí),來(lái)解決跟蹤任意對(duì)象的問(wèn)題,實(shí)現(xiàn)了精度和速度間的平衡,在單目標(biāo)跟蹤領(lǐng)域取得較好成績(jī)[5]。SiamRPN引入了區(qū)域建議網(wǎng)絡(luò),通過(guò)預(yù)設(shè)錨框來(lái)解決目標(biāo)尺度變化的問(wèn)題,得到了更加精準(zhǔn)的跟蹤框[6]。最近,基于Transformer的目標(biāo)跟蹤算法在檢測(cè)精度上有了很大的提升,如SwinTrack和SeqTrack等算法。但它們的模型較大且計(jì)算復(fù)雜,SwinTrack的參數(shù)量和浮點(diǎn)運(yùn)算量分別為22.7M和6.4GFLOPs。而SeqTrack-B256的參數(shù)量和浮點(diǎn)運(yùn)算量則高達(dá)89M和66GFLOPs。這使得這些算法不適合在嵌入式平臺(tái)或移動(dòng)設(shè)備上部署[7]。
隨著基于孿生網(wǎng)絡(luò)的目標(biāo)跟蹤算法的不斷發(fā)展,這些算法在魯棒性和準(zhǔn)確性方面表現(xiàn)出了顯著的優(yōu)勢(shì)。然而,現(xiàn)有的單目標(biāo)跟蹤算法通常存在模型參數(shù)龐大、計(jì)算復(fù)雜度高的問(wèn)題,這使得它們?cè)谇度胧狡脚_(tái)和移動(dòng)設(shè)備上的應(yīng)用受到限制。為了解決這一挑戰(zhàn),提出了一種輕量化且高效的單目標(biāo)跟蹤算法,旨在提升在資源受限環(huán)境下的應(yīng)用性能。算法基于SiamRPN目標(biāo)跟蹤算法,選用高效的MobileNetV3[8]作為特征提取網(wǎng)絡(luò),以降低計(jì)算和參數(shù)負(fù)擔(dān),同時(shí)保持良好的性能。此外,通過(guò)融合MobileNetV3的高低層特征,增強(qiáng)算法對(duì)目標(biāo)多尺度變化的適應(yīng)能力。為了進(jìn)一步優(yōu)化算法效率,將檢測(cè)頭部的普通卷積替換為GhostNet[9]中的GhostConv,并采用深度可分離卷積來(lái)減少冗余計(jì)算。
1" 算法結(jié)構(gòu)設(shè)計(jì)
1.1" 算法整體架構(gòu)
基于孿生網(wǎng)絡(luò)的輕量化單目標(biāo)跟蹤算法結(jié)構(gòu)如圖1所示。為實(shí)現(xiàn)這一算法,以SiamRPN為基準(zhǔn)框架做了3點(diǎn)設(shè)計(jì)與研究:一是修改特征提取骨干網(wǎng)絡(luò)AlexNet為裁剪過(guò)的MobileNetV3;二是拼接融合MobileNetV3的深層特征和淺層特征;三是將頭部RPN網(wǎng)絡(luò)的普通卷積改為GhostConv模塊,并且將相關(guān)運(yùn)算的普通卷積修改成了深度可分離卷積。
1.2" 特征提取網(wǎng)絡(luò)
在特征提取網(wǎng)絡(luò)部分,摒棄了原始SiamRPN中使用的AlexNet,轉(zhuǎn)而采用輕量化的MobileNetV3網(wǎng)絡(luò),其模塊結(jié)構(gòu)如圖2(a)所示。如圖2(c)所示,MobileNet系列首先由MobileNetV1引入了深度可分離卷積,將標(biāo)準(zhǔn)卷積操作拆分為深度卷積和逐點(diǎn)卷積兩個(gè)步驟,深度卷積負(fù)責(zé)對(duì)每個(gè)通道單獨(dú)進(jìn)行特征提取,逐點(diǎn)卷積則用來(lái)融合通道間信息,如此一來(lái),在大幅減少計(jì)算量的同時(shí),還能保證模型的特征提取能力,而MobileNetV2在此基礎(chǔ)上增加了殘差結(jié)構(gòu),如圖2(b)所示,當(dāng)網(wǎng)絡(luò)堆疊層數(shù)增多時(shí),能夠有效緩解梯度消失問(wèn)題,讓模型訓(xùn)練更加順暢,同時(shí)允許網(wǎng)絡(luò)學(xué)習(xí)到更復(fù)雜的特征。隨后,MobileNetV3在MobileNetV2的基礎(chǔ)上引入了SENet(Squeeze-and-Excitation Networks)通道注意力機(jī)制,讓模型可以更加關(guān)注信息量最大的通道特征,而抑制不重要的通道特征。得益于深度可分離卷積等先進(jìn)設(shè)計(jì),MobileNetV3能夠以較少的參數(shù)和較低的計(jì)算量,高效地從輸入圖像中提取出具有代表性的特征,為后續(xù)的目標(biāo)跟蹤流程奠定了堅(jiān)實(shí)的基礎(chǔ)。
為了將MobileNetV3嵌入到孿生網(wǎng)絡(luò)的特征提取部分,并實(shí)現(xiàn)輕量化的特征提取網(wǎng)絡(luò),對(duì)其堆疊的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了部分調(diào)整。去掉了網(wǎng)絡(luò)最后用于分類(lèi)的部分,并且其特征提取部分僅選用前10層,修改了部分層的卷積步長(zhǎng),具體的相關(guān)參數(shù)如表1所示,以輸入圖像特征為255×255×3為例,最后通過(guò)卷積的輸出圖像特征為32×32×96。
1.3" 特征融合處理
由于MobileNetV3高低層特征所蘊(yùn)含的不同尺度信息,因此,在采用MobileNetV3作為特征提取網(wǎng)絡(luò)的基礎(chǔ)上,設(shè)計(jì)了高低網(wǎng)絡(luò)層特征融合機(jī)制,將高層語(yǔ)義豐富但分辨率較低的特征與低層分辨率高但語(yǔ)義相對(duì)較弱的特征進(jìn)行拼接融合,使得融合后的特征既能捕捉到目標(biāo)的細(xì)節(jié)信息,又具備較強(qiáng)的語(yǔ)義理解能力,從而更好地應(yīng)對(duì)目標(biāo)在跟蹤過(guò)程中出現(xiàn)的多尺度變化情況。
在實(shí)際的處理流程中,采用了一種通道拼接的融合策略,具體方案如圖3所示。在上一小節(jié)改進(jìn)的MobileNetV3網(wǎng)絡(luò)基礎(chǔ)上,選取其第4層的輸出特征圖,并提取出該網(wǎng)絡(luò)最后一層的輸出特征圖。隨后,將這兩個(gè)來(lái)源于不同層級(jí)的特征輸出,按照通道維度進(jìn)行拼接融合操作。完成拼接后,考慮到后續(xù)計(jì)算成本、模型復(fù)雜度以及特征表達(dá)的精準(zhǔn)度需求,進(jìn)一步運(yùn)用1×1的卷積核來(lái)對(duì)融合后的高維輸出進(jìn)行降維處理,將輸出通道數(shù)量從136降低至96,在保留核心特征信息的同時(shí),精簡(jiǎn)了數(shù)據(jù)規(guī)模,為后續(xù)高效的模型運(yùn)算創(chuàng)造了有利條件。
1.4" 輕量化頭部網(wǎng)絡(luò)
在目標(biāo)跟蹤算法中,頭部網(wǎng)絡(luò)對(duì)于最終準(zhǔn)確檢測(cè)和定位目標(biāo)起著關(guān)鍵作用。為了進(jìn)一步優(yōu)化算法性能,同時(shí)降低計(jì)算資源的消耗,對(duì)原有的頭部網(wǎng)絡(luò)進(jìn)行了輕量化改進(jìn),將其中的普通卷積替換為GhostNet中的GhostConv,并在相關(guān)部分采用深度可分離卷積減少相關(guān)計(jì)算量,實(shí)現(xiàn)方式如圖4所示。
GhostConv是一種高效的卷積方式,傳統(tǒng)卷積操作生成的特征圖中存在冗余信息,而GhostConv通過(guò)巧妙的設(shè)計(jì)旨在減少這種冗余,同時(shí)保留關(guān)鍵的特征表達(dá)能力。GhostConv處理輸入先進(jìn)行1×1的卷積將輸出通道減半,并保留這次的卷積特征信息,然后進(jìn)行卷積核為3×3大小的卷積,最后將輸出與之前的1×1卷積輸出進(jìn)行拼接融合,每次的卷積操作默認(rèn)添加了批量歸一化和激活函數(shù)。
2" 實(shí)驗(yàn)方法與結(jié)果分析
2.1" 實(shí)驗(yàn)平臺(tái)與數(shù)據(jù)集介紹
實(shí)驗(yàn)使用的硬件平臺(tái)配置為AMD R5 5600G CPU,機(jī)身內(nèi)存16 GB,英偉達(dá)GeForce RTX2080Ti GPU。軟件環(huán)境為Ubuntu 20,CUDA 10.2,Python 3.8,PyTorch 1.10.1。
模型驗(yàn)證基于開(kāi)源框架PySot修改,在模型訓(xùn)練階段,為了確保訓(xùn)練過(guò)程的有效性和結(jié)果的可重復(fù)性,batch-size設(shè)置為32,總的迭代次數(shù)(epoch)設(shè)置為20次,每次迭代訓(xùn)練時(shí),凍結(jié)前10個(gè)epoch中的骨干網(wǎng)絡(luò)參數(shù),學(xué)習(xí)率在前5個(gè)epoch從0.001線性增加到0.005,在后續(xù)epoch中按對(duì)數(shù)下降到0.000 5,每個(gè)epoch的訓(xùn)練批量設(shè)置為32,設(shè)置VIDEOS_PER_EPOCH為400 000,CLS_WEIGHT和LOC_WEIGHT的設(shè)置都為1.0。使用公開(kāi)工具包PySOT-Toolkit對(duì)模型性能進(jìn)行評(píng)估。
訓(xùn)練使用的數(shù)據(jù)集是GOT-10K[10],它依據(jù)WordNet50結(jié)構(gòu)構(gòu)建,涵蓋了87種不同的運(yùn)動(dòng)模型和560種常見(jiàn)目標(biāo)。數(shù)據(jù)集包含了大約10 000個(gè)視頻片段和150萬(wàn)個(gè)目標(biāo)標(biāo)注框。GOT-10K數(shù)據(jù)集首次將單樣本協(xié)議的訓(xùn)練測(cè)試方法(One Shot Protocol)應(yīng)用在目標(biāo)跟蹤數(shù)據(jù)集,避免測(cè)試集和訓(xùn)練數(shù)據(jù)集之間的重復(fù),利于完成非特定目標(biāo)的跟蹤任務(wù),實(shí)驗(yàn)設(shè)置GOT-10K的NUM_USE參數(shù)為100 000。
測(cè)試數(shù)據(jù)集使用OTB100[11],它一共有100段視頻序列,對(duì)于每個(gè)視頻序列,都有一個(gè)文件,其中記錄了每一幀中目標(biāo)位置的矩形邊界框信息,該數(shù)據(jù)集由10種不同類(lèi)型的目標(biāo)組成,依據(jù)在跟蹤過(guò)程中所遇到的挑戰(zhàn),劃分為11類(lèi)標(biāo)簽,包括遮擋、變換、視野消失、尺度變換、面內(nèi)旋轉(zhuǎn)、背景擾動(dòng)、面外旋轉(zhuǎn)、快速移動(dòng)、低分辨率、光照變化和移動(dòng)模糊。OTB以這些標(biāo)簽標(biāo)記每個(gè)視頻,單個(gè)視頻可能有多個(gè)標(biāo)簽,便于識(shí)別其屬性。
2.2" 評(píng)估數(shù)據(jù)集和評(píng)估指標(biāo)
在OTB數(shù)據(jù)集評(píng)價(jià)指標(biāo)中,遵循一次性評(píng)估協(xié)議(One-Pass Evaluation, OPE),選取準(zhǔn)確率(Precision)與成功率(Success)當(dāng)作評(píng)價(jià)指標(biāo)[12]。在輕量性方面,將從改進(jìn)后的PT模型大小參數(shù)進(jìn)行對(duì)比考慮。
評(píng)價(jià)指標(biāo)里的成功率Psuc,指的是預(yù)測(cè)邊界框跟人工標(biāo)注邊界框的重疊率超出特定閾值的幀數(shù)在總幀數(shù)當(dāng)中所占的比例,計(jì)算式如下:
(1)
式中,α表示閾值,IoU表示預(yù)測(cè)框與真實(shí)框的交并比。
準(zhǔn)確率即預(yù)測(cè)框中心位置和真實(shí)框中心位置的間距δ小于特定閾值的幀數(shù)占總幀數(shù)的比例,其計(jì)算式為:
(2)
式中,β表示閾值,通常設(shè)置為20。
2.3" 消融實(shí)驗(yàn)
為了評(píng)估不同改進(jìn)策略對(duì)模型性能的作用效果,設(shè)計(jì)了一系列消融實(shí)驗(yàn)。以經(jīng)典的SiamRPN模型為基準(zhǔn),構(gòu)建了如下幾種不同配置的改進(jìn)模型:
1)模型A。作為對(duì)照,使用未經(jīng)改動(dòng)的原始SiamRPN架構(gòu),以此為后續(xù)改進(jìn)效果評(píng)估提供基線參考。
2)模型B。在SiamRPN的基礎(chǔ)上,修改骨干網(wǎng)絡(luò)為MobileNetv3,并將頭部相關(guān)卷積部分使用深度可分離卷積。
3)模型C。在模型B的基礎(chǔ)上,加入MobileNetV3的高低特征融合機(jī)制。
4)模型D。在模型C的基礎(chǔ)上,將頭部的普通卷積改成GhostConv。
通過(guò)上述逐步遞增改進(jìn)模塊的方式,精準(zhǔn)測(cè)試各模塊單獨(dú)及協(xié)同作用下對(duì)整體網(wǎng)絡(luò)性能的提升貢獻(xiàn),并將具體的模型消融實(shí)驗(yàn)數(shù)據(jù)結(jié)果以直觀的曲線圖形式呈現(xiàn),如圖5所示。
將訓(xùn)練好的模型數(shù)據(jù)導(dǎo)出,查看模型參數(shù)量,結(jié)果如表2所示,根據(jù)實(shí)驗(yàn)結(jié)果可知,改進(jìn)后的算法相當(dāng)于原模型準(zhǔn)確率提升1.6%,成功率提升3.8%,PT模型大小減少了172.1 MB,僅有2.9 MB,改進(jìn)后的單目標(biāo)跟蹤算法模型能夠在準(zhǔn)確率和成功率提升的同時(shí),大幅降低模型參數(shù)量。
2.4" 對(duì)比實(shí)驗(yàn)
通過(guò)將改進(jìn)后的算法與傳統(tǒng)目標(biāo)跟蹤算法進(jìn)行對(duì)比,評(píng)估了其在單目標(biāo)跟蹤任務(wù)中的性能,具體實(shí)驗(yàn)結(jié)果如圖6所示。
為了更好地評(píng)估改良后的算法在復(fù)雜環(huán)境中的跟蹤性能,在實(shí)驗(yàn)結(jié)果中導(dǎo)出了在OTB數(shù)據(jù)集上帶有四種不同場(chǎng)景標(biāo)簽下的實(shí)驗(yàn)測(cè)試結(jié)果,包括尺度變化、低分辨率、快速運(yùn)動(dòng)和光照變化,如表3所示。實(shí)驗(yàn)結(jié)果展示了不同跟蹤算法在測(cè)試數(shù)據(jù)集OTB不同場(chǎng)景下的成功率和準(zhǔn)確率。
詳細(xì)分析表3中的各項(xiàng)數(shù)據(jù)能夠清晰地發(fā)現(xiàn),經(jīng)過(guò)優(yōu)化改進(jìn)之后的SiamRPN算法展現(xiàn)了較好的性能表現(xiàn)。無(wú)論是在光照復(fù)雜多變的場(chǎng)景之中,還是面對(duì)目標(biāo)快速運(yùn)動(dòng)、尺度變化等極具挑戰(zhàn)性的諸多場(chǎng)景下,該算法都始終能夠維持著相對(duì)較高的成功率以及準(zhǔn)確率。進(jìn)一步彰顯出改進(jìn)后的SiamRPN算法在實(shí)際應(yīng)用中的巨大優(yōu)勢(shì)與潛力。
3" 結(jié)" 論
針對(duì)基于孿生網(wǎng)絡(luò)的單目標(biāo)跟蹤算法大部分計(jì)算資源消耗較大的挑戰(zhàn),提出了一種基于SiamRPN算法改良的單目標(biāo)跟蹤算法。該算法通過(guò)修改特征提取網(wǎng)絡(luò),改進(jìn)卷積和相關(guān)的方式,更有效地提取與利用目標(biāo)特征,提升了目標(biāo)跟蹤的整體性能以及對(duì)復(fù)雜場(chǎng)景的適應(yīng)能力。對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行分析,得出以下結(jié)論:
1)改進(jìn)后的算法相較于原SiamRPN算法,在公開(kāi)的目標(biāo)跟蹤數(shù)據(jù)集OTB上測(cè)試成功率提高了3.8%,準(zhǔn)確率提高了1.6%,且模型的參數(shù)量減少了98.3%,顯著優(yōu)化了算法對(duì)資源的利用效率,使其更適用于資源受限的應(yīng)用平臺(tái)。
2)在與其他傳統(tǒng)目標(biāo)跟蹤模型的對(duì)比實(shí)驗(yàn)中,改進(jìn)后的算法在不同場(chǎng)景下的成功率和準(zhǔn)確率等關(guān)鍵性能指標(biāo)上均展現(xiàn)出明顯優(yōu)勢(shì)。未來(lái),將著重聚焦于進(jìn)一步優(yōu)化特征融合策略,增強(qiáng)算法對(duì)復(fù)雜環(huán)境干擾因素的魯棒性,并持續(xù)探索更高效的輕量化方法,致力于實(shí)現(xiàn)算法在更多類(lèi)型邊緣設(shè)備上的流暢部署以及實(shí)時(shí)性能的深度優(yōu)化,以更好地滿(mǎn)足不同應(yīng)用場(chǎng)景下的目標(biāo)跟蹤需求。
參考文獻(xiàn):
[1] 馬玉民,錢(qián)育蓉,周偉航,等.基于孿生網(wǎng)絡(luò)的目標(biāo)跟蹤算法綜述 [J].計(jì)算機(jī)工程與科學(xué),2023,45(9):1578-1592.
[2] 王夢(mèng)亭,楊文忠,武雍智.基于孿生網(wǎng)絡(luò)的單目標(biāo)跟蹤算法綜述 [J].計(jì)算機(jī)應(yīng)用,2023,43(3):661-673.
[3] FU C H,LU K H,ZHENG G Z,et al. Siamese Object Tracking for Unmanned Aerial Vehicle: A Review and Comprehensive Analysis [J].Artificial Intelligence Review,2023,56(Suppl 1):1417-1477.
[4] 侯艷麗,魏義侖,王鑫濤,等.復(fù)雜場(chǎng)景下一種改進(jìn)的單目標(biāo)跟蹤算法研究 [J].計(jì)算機(jī)仿真,2024,41(2):300-305.
[5] BERTINETTO L,VALMADRE J,HENRIQUES J F,et al. Fully-convolutional Siamese Networks for Object Tracking [C]//Computer Vision-ECCV 2016 Workshops.Amsterdam:Springer International Publishing,2016:850-865.
[6] LI B,YAN J J,WU W,et al. High Performance Visual Tracking with Siamese Region Proposal Network [C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR).Salt Lake City:IEEE,2018:8971-8980.
[7] 丁奇帥,雷幫軍,吳正平.基于孿生網(wǎng)絡(luò)的輕量型無(wú)人機(jī)單目標(biāo)跟蹤算法 [J/OL].航空學(xué)報(bào),2024:1-16(2024-09-03).http://kns.cnki.net/kcms/detail/11.1929.v.20240902.1443.018.html.
[8] HOWARD A,SANDLER M,CHEN B,et al. Searching for MobileNetV3 [C]//2019 IEEE/CVF International Conference on Computer Vision(ICCV).Seoul:IEEE,2019:1314-1324.
[9] TANG Y H,HAN K,GUO J Y,et al. GhostNetV2: Enhance Cheap Operation with Long-range Attention [J/OL].arXiv:2211.12905 [cs.CV].(2022-11-23).https://arxiv.org/abs/2211.12905.
[10] HUANG L H,ZHAO X,HUANG K Q. GOT-10K: A Large High-diversity Benchmark for Generic Object Tracking in the Wild [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2021,43(5):1562-1577.
[11] WU Y,LIM J,YANG M-H. Object Tracking Benchmark [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(9):1834-1848.
[12] 鐘曉偉,王志勝,叢玉華.基于輕量孿生網(wǎng)絡(luò)的無(wú)人機(jī)目標(biāo)跟蹤算法 [J].彈箭與制導(dǎo)學(xué)報(bào),2023,43(5):25-33.
作者簡(jiǎn)介:黎清華(2000—),男,漢族,重慶開(kāi)州人,碩士在讀,研究方向:嵌入式和圖像處理;張雪秋(1995—),男,漢族,四川渠縣人,碩士在讀,研究方向:計(jì)算機(jī)軟件和自然語(yǔ)言處理;張雨珊(2000—),女,漢族,重慶人,碩士在讀,研究方向:計(jì)算機(jī)軟件。