【摘要】針對(duì)道路交通環(huán)境復(fù)雜多樣,車輛及行人檢測(cè)易出現(xiàn)錯(cuò)檢及漏檢的問題,提出一種基于多尺度特征融合的車輛及行人目標(biāo)檢測(cè)算法YOLOv8-RC。首先,在基礎(chǔ)網(wǎng)絡(luò)YOLOv8的結(jié)構(gòu)中引入RCS-OSA模塊代替原有模塊,對(duì)所提取的特征信息進(jìn)行增強(qiáng)及融合,并引入輕量級(jí)上采樣算子內(nèi)容感知特征重組(CARAFE)代替原上采樣算子,提高網(wǎng)絡(luò)對(duì)全局多尺度信息的融合能力。其次,通過公開數(shù)據(jù)集及網(wǎng)絡(luò)收集的方式構(gòu)建了由6 000張車輛及行人目標(biāo)圖片構(gòu)成的檢測(cè)數(shù)據(jù)集,并采用準(zhǔn)確率、召回率、平均精度均值mAP50及mAP50-95對(duì)算法檢測(cè)效果進(jìn)行定量評(píng)價(jià),相比于YOLOv8-N,YOLOv8-RC的精確率提升1.7百分點(diǎn),召回率提升1.2百分點(diǎn),mAP50提升0.9百分點(diǎn),mAP50-95提升0.5百分點(diǎn),證明了算法的有效性。
關(guān)鍵詞:深度學(xué)習(xí) 目標(biāo)檢測(cè) YOLOv8 行人檢測(cè)
中圖分類號(hào):U491" 文獻(xiàn)標(biāo)志碼:A" "DOI: 10.20104/j.cnki.1674-6546.20240224
Vehicle and Pedestrian Target Detection Algorithm Based on Multi-Scale Feature Fusion
Li Xiangheng1, Fang Hongsu2, Yang Yalin2, Yang Wei2
(1. Henan Polytechnic University, Jiaozuo 454000; 2. Chang’an University, Xi’an 710064)
【Abstract】In response to the complex and diverse nature of the road traffic environment, where vehicle and pedestrian detection is prone to 1 and missed detections, this paper proposes a vehicle and pedestrian target detection algorithm YOLOv8-RC based on multi-scale feature fusion. Initially, the RCS-OSA module is introduced within the structure of the base network YOLOv8 to replace the original module, thereby enhancing and integrating the extracted feature information. Additionally, a lightweight Context-Aware Adaptive Feature Reorganization (CARAFE) is employed to replace the original upsampling operator, enhancing the network’s capability for global multi-scale information fusion. Subsequently, a detection dataset consisting of 6 000 images of vehicle and pedestrian targets is constructed through public datasets and network collection. The algorithm’s detection performance is quantitatively evaluated using accuracy, recall rate, mean Average Precision at a 50% intersection over union threshold (mAP50), and mAP50-95. Compared to YOLOv8-N, YOLOv8-RC demonstrates an improvement of 1.7 percentage in accuracy, 1.2 percentage in recall rate, 0.9 percentage in mAP50, and 0.5 percentage in mAP50-95, thus validating the algorithm’s effectiveness.
Key words: Deep learning, Target detection, YOLOv8, Pedestrian detection
【引用格式】 李相衡, 方虹蘇, 楊婭琳, 等. 基于多尺度特征融合的車輛及行人目標(biāo)檢測(cè)算法[J]. 汽車工程師, 2024(8): 1-7.
LI X H, FANG H S, YANG Y L, et al. Vehicle and Pedestrian Target Detection Algorithm Based on Multi-Scale Feature Fusion[J]. Automotive Engineer, 2024(8): 1-7.
1 前言
車輛及行人檢測(cè)作為當(dāng)前無人駕駛領(lǐng)域的核心技術(shù)之一,旨在自動(dòng)識(shí)別圖像或視頻中的車輛及行人區(qū)域。目前,道路車輛及行人檢測(cè)算法可分為傳統(tǒng)檢測(cè)算法和基于深度學(xué)習(xí)的檢測(cè)算法。傳統(tǒng)檢測(cè)算法在無遮擋物、車輛及行人目標(biāo)清晰的道路上檢測(cè)效果較好,但難以應(yīng)用于無人駕駛場(chǎng)景。
深度學(xué)習(xí)算法應(yīng)用于圖像處理領(lǐng)域,可以實(shí)現(xiàn)高精度的車輛及行人目標(biāo)檢測(cè),為輔助駕駛系統(tǒng)提供安全基礎(chǔ)。Liu等[1]提出一種用于檢測(cè)被遮擋行人的關(guān)鍵點(diǎn)和可視部分融合網(wǎng)絡(luò),引入人體關(guān)鍵點(diǎn)和可見部分包圍盒構(gòu)建2個(gè)注意力模塊,分別抑制行人的通道特征和空間特征中的遮擋部分。Liang等[2]提出一種基于增強(qiáng)YOLOv5s的道路目標(biāo)檢測(cè)算法,引入加權(quán)增強(qiáng)極化自注意力增強(qiáng)特征表達(dá),提高了算法對(duì)復(fù)雜場(chǎng)景的適應(yīng)性。Jain等[3]使用集成學(xué)習(xí)模型和深度卷積神經(jīng)網(wǎng)絡(luò)的魯棒多模態(tài)行人檢測(cè)模型實(shí)現(xiàn)了精確的行人檢測(cè)。Kiran等[4]使用改進(jìn)YOLOv4進(jìn)行了不同光照條件下運(yùn)動(dòng)車輛的識(shí)別。Andika等[5]改進(jìn)了輕量級(jí)YOLOv7模型中的特征提取網(wǎng)絡(luò),實(shí)現(xiàn)了低成本硬件上的實(shí)時(shí)車輛檢測(cè)。胡倩等[6]基于改進(jìn)YOLOv5算法實(shí)現(xiàn)了密集場(chǎng)景下的行人檢測(cè)。黃丹丹[7]基于Transformer實(shí)現(xiàn)了雙分支檢測(cè)和重識(shí)別的多行人追蹤。李林紅[8]等提出一種改進(jìn)的YOLOv5s模型,用于對(duì)站口行人的高效檢測(cè)。周力等[9]將基于旋轉(zhuǎn)邊界框(Rotated Bounding Box,RDB)的YOLOv5模型應(yīng)用于遙感圖像車輛檢測(cè)領(lǐng)域。沈正坤等[10]提出基于YOLOv5的車輛目標(biāo)檢測(cè)算法,提升了模糊圖像中小目標(biāo)的檢測(cè)精度。
上述文獻(xiàn)利用不同檢測(cè)算法實(shí)現(xiàn)了車輛及行人的檢測(cè),但在實(shí)際檢測(cè)中,仍然會(huì)出現(xiàn)各種錯(cuò)檢及漏檢問題?;诖?,本文提出一種基于改進(jìn)YOLOv8的車輛及行人目標(biāo)檢測(cè)算法YOLOv8-RC,首先引入多尺度特征提取模塊RCS-OSA(RepVGG/RepConv ShuffleNet based One-Shot Aggregation)加強(qiáng)網(wǎng)絡(luò)的特征融合能力,然后將YOLOv8的上采樣算子替換為輕量級(jí)的內(nèi)容感知特征重組(Content-Aware ReAssembly of FEatures,CARAFE)模塊,從而在網(wǎng)絡(luò)上采樣的過程中再次提高其特征融合能力。最后,構(gòu)建車輛及行人檢測(cè)數(shù)據(jù)集,對(duì)改進(jìn)算法進(jìn)行綜合評(píng)估。
2 基于多尺度特征融合的目標(biāo)檢測(cè)算法
2.1 YOLOv8-RC算法
YOLOv8目標(biāo)檢測(cè)算法[11]總體架構(gòu)包括3個(gè)部分:骨干(Backbone)模塊對(duì)輸入的圖像進(jìn)行下采樣操作,可利用不同的網(wǎng)絡(luò)深度得到不同層次的特征圖信息;頸部(Neck)模塊包含上采樣及多個(gè)特征融合層等系列網(wǎng)絡(luò)模塊;頭部(Head)模塊用于輸出檢測(cè)結(jié)果,并對(duì)網(wǎng)絡(luò)所提取的特征信息進(jìn)行解碼,同時(shí)負(fù)責(zé)預(yù)測(cè)每個(gè)候選框的類別及位置。在車輛及行人檢測(cè)任務(wù)中,為對(duì)所提取的特征信息進(jìn)行更好地融合及增強(qiáng),本文在YOLOv8網(wǎng)絡(luò)中引入一種多尺度特征融合模塊RCS-OSA。此外,為更好地保留及提取特征,進(jìn)一步加強(qiáng)網(wǎng)絡(luò)的特征融合能力,將原網(wǎng)絡(luò)的上采樣算子改進(jìn)為CARAFE模塊,保持YOLOv8網(wǎng)絡(luò)中快速空間金字塔池化(Spatial Pyramid Pooling-Fast,SPPF)模塊不變,形成改進(jìn)算法YOLOv8-RC,其架構(gòu)如圖1所示。圖1中所使用的卷積(Conv)模塊中卷積核尺寸k為3、移動(dòng)步長(zhǎng)s為2、填充參數(shù)p設(shè)置為1。
2.2 多尺度特征融合模塊
RCS(RepVGG/RepConv ShuffleNet)-YOLO通過增強(qiáng)特征提取及融合能力,提高了目標(biāo)檢測(cè)的性能[12]。故本文將該算法的RCS-OSA模塊引入YOLOv8網(wǎng)絡(luò),其架構(gòu)如圖2所示,其中C為輸入通道數(shù)量,n為堆疊的RCS模塊的數(shù)量。
RCS-OSA模塊首先對(duì)輸入的特征圖進(jìn)行均勻分塊,其中的一半特征圖利用RepVGG網(wǎng)絡(luò)的3×3卷積進(jìn)行特征提取,另一半特征圖信息用RCS模塊進(jìn)行特征提取。其中RCS模塊將輸入的特征再次進(jìn)行分塊,再采用通道拆分(Channel Split)及RepVGG操作將特征圖相加得到新的特征圖,最后利用通道混洗(Channel Shuffle)操作將特征圖重新排列,從而使不同組之間的特征更好地交流及融合,以來增強(qiáng)特征的混合和傳遞效果??傮w來說,RCS-OSA模塊結(jié)合了3×3卷積及豐富的特征融合模塊,有助于更有效地捕捉圖像特征中的重要信息。將其應(yīng)用于YOLOv8網(wǎng)絡(luò)中可對(duì)特征圖信息進(jìn)行更加充分的增強(qiáng)及融合,從而捕捉不同大小檢測(cè)目標(biāo)的細(xì)節(jié)信息。
2.3 上采樣算子改進(jìn)
YOLOv8采用上采樣(Upsample)算子執(zhí)行上采樣操作,目的在于提高特征圖的空間分辨率,以提升網(wǎng)絡(luò)的感知范圍及定位精度。然而,該算子采用插值的方法填充新的像素,可能導(dǎo)致細(xì)節(jié)信息丟失,且不能準(zhǔn)確還原原始圖像細(xì)節(jié)。為解決這一問題,本文引入CARAFE輕量級(jí)上采樣算子[13]替換原上采樣算子,其原理如圖3所示。
CARAFE上采樣算子包含上采樣核預(yù)測(cè)模塊(Kernel Prediction Module)及特征重組模塊(Content-aware Reassembly Module)。上采樣核預(yù)測(cè)模塊中的H、W及Cm分別為輸入特征圖的高度、寬度及通道數(shù)量,σ為上采樣率,σW、σH分別為輸出特征圖的高度、寬度。內(nèi)容編碼器(Content Encoder)用于編碼輸入特征圖的內(nèi)容信息,內(nèi)核歸一化器(Kernel Normalizer)用于歸一化處理預(yù)測(cè)的內(nèi)核,通道壓縮器(Channel Compressor)用于減少特征數(shù)量。特征重組模塊中的(x1,kup)表示該位置的鄰域特征,W1為用于重組操作的權(quán)重,X′為通過內(nèi)容感知重組模塊后的輸出特征圖尺寸,其對(duì)應(yīng)大小為(C,σW,σH)。圖3中,X為輸入特征圖的尺寸。
該上采樣算子的預(yù)測(cè)模塊首先對(duì)輸入的特征圖進(jìn)行通道壓縮,然后利用卷積層進(jìn)行內(nèi)容編碼及上采樣核預(yù)測(cè)。其中上采樣核的尺寸參數(shù)設(shè)定為:生成重組核的編碼器卷積核大小Kenc=3、重組核的大小Kup=5,預(yù)測(cè)得到的上采樣核通過歸一化指數(shù)函數(shù)(Softmax函數(shù))進(jìn)行歸一化,以此確保權(quán)重之和為1。此外,特征重組模塊將輸出特征圖的每個(gè)位置映射回輸入特征圖,并提取以該位置為中心的區(qū)域。隨后,該區(qū)域與相應(yīng)位置的上采樣核進(jìn)行點(diǎn)積操作以獲得輸出值。最后,為保持特征的一致性及共享性,使不同位置的通道可共享相同的上采樣核,在加入CARAFE算子后,可動(dòng)態(tài)調(diào)整上采樣核以適應(yīng)不同的上采樣需求,從而更好地保留和提取特征信息,在保持計(jì)算效率的同時(shí),還可減少信息丟失。此外,以上過程通過融合不同尺度的特征圖,還可獲得更為豐富的上下文信息,以增強(qiáng)網(wǎng)絡(luò)的特征表達(dá)能力,從而提高算法的感知范圍及定位精度。
3 試驗(yàn)驗(yàn)證
3.1 試驗(yàn)環(huán)境及參數(shù)配置
為評(píng)估改進(jìn)算法在車輛及行人檢測(cè)任務(wù)中的表現(xiàn),搭建了如表1所示的試驗(yàn)軟硬件環(huán)境。此外,為控制變量,所有模型的訓(xùn)練均未采用預(yù)訓(xùn)練模型,同時(shí)均采用混合精度訓(xùn)練模式。
完成試驗(yàn)環(huán)境搭建后,本文所構(gòu)建的所有網(wǎng)絡(luò)模型在訓(xùn)練過程中也均采取相同的超參數(shù)設(shè)置,具體配置如表2所示。
3.2 數(shù)據(jù)庫(kù)構(gòu)建
為驗(yàn)證本文算法在道路交通環(huán)境下對(duì)車輛及行人目標(biāo)的檢測(cè)性能,選取多目標(biāo)車輛檢測(cè)公開數(shù)據(jù)集UA-DETRAC作為基礎(chǔ)數(shù)據(jù)集,將該數(shù)據(jù)集中所有的車輛標(biāo)注進(jìn)行合并,并對(duì)包含行人的圖像進(jìn)行重新標(biāo)注,得到僅含車輛及行人標(biāo)注的目標(biāo)檢測(cè)數(shù)據(jù)集。為全面檢驗(yàn)及分析所提出算法的效果并平衡數(shù)據(jù)集中的標(biāo)簽分布,通過網(wǎng)絡(luò)收集的方式構(gòu)建了更多包含行人目標(biāo)的檢測(cè)數(shù)據(jù)集,最后將兩類數(shù)據(jù)集進(jìn)行篩選整合,獲得由6 000張檢測(cè)目標(biāo)較為均衡的車輛及行人圖片構(gòu)成的檢測(cè)數(shù)據(jù)集,并將其劃分為訓(xùn)練集、測(cè)試集及驗(yàn)證集,分別包含5 000張、500張、500張圖片。
3.3 評(píng)價(jià)指標(biāo)
本文采用采用精確率(Precision)P、召回率(Recall)R、平均精度(Average Precision,AP)和平均精度均值(mean Average Precision,mAP)對(duì)算法性能進(jìn)行定量評(píng)價(jià):
P=NTP/(NTP+NFP) (1)
R=NTP/(NTP+NFN) (2)
[pavg=01P(R)dR] (3)
[mp-avg=1mipavg(i)] (4)
式中:NTP、NFP、NFN分別為真正例、假正例、假負(fù)例的數(shù)量,m為檢測(cè)目標(biāo)的類別數(shù)量,i為類別序號(hào),pavg為平均精度(AP),mp-avg為平均精度均值(mAP)。
AP作為單類別目標(biāo)檢測(cè)中常用的評(píng)價(jià)指標(biāo),其值為這一類目標(biāo)的P-R曲線下的面積;mAP則代表了整個(gè)數(shù)據(jù)集中所有類別的AP均值,一般將交并比(Intersection over Union,IoU)閾值設(shè)置為0.5,即IoU大于0.5的預(yù)測(cè)框有效,用mAP50表示。在IoU的取值為0.50~0.95范圍內(nèi),每間隔0.05計(jì)算一次mAP,并計(jì)算所有mAP的均值,記為mAP50-95。
3.4 對(duì)比試驗(yàn)
為驗(yàn)證改進(jìn)模型對(duì)車輛及行人目標(biāo)的檢測(cè)效果,選取YOLO系列中的典型算法作為對(duì)比模型。此外,YOLO算法根據(jù)不同的網(wǎng)絡(luò)尺度可分為N、S、M、L及X版本,考慮到模型在實(shí)際檢測(cè)應(yīng)用過程中的部署需求,將輕量級(jí)算法YOLOv8-N作為基礎(chǔ)模型進(jìn)行改進(jìn),同時(shí)選取其余對(duì)比模型的輕量級(jí)算法版本,其中YOLOv3則選取tiny版本。通過200輪的迭代訓(xùn)練,最后在測(cè)試集上得到各自模型的檢測(cè)結(jié)果,如表3所示。
由表3可知,改進(jìn)算法YOLOv8-RC在所構(gòu)建的車輛及行人檢測(cè)數(shù)據(jù)集上的評(píng)價(jià)指標(biāo)結(jié)果均高于基礎(chǔ)算法YOLOv8-N。綜合而言,YOLOv8-RC的各項(xiàng)評(píng)價(jià)指標(biāo)在整體上得到了顯著提升,較各對(duì)比模型具有更為優(yōu)異的檢測(cè)性能。
3.5 消融實(shí)驗(yàn)
為驗(yàn)證YOLOv8-RC中改進(jìn)模塊RCS-OSA及CARAFE的提升效果,進(jìn)行了如表4所示的消融實(shí)驗(yàn)。其中Model 1為加入RCS-OSA模塊后的YOLOv8-N。
由表4可以看出:改進(jìn)算法YOLOv8-RC在加入RCS-OSA模塊后,除平均召回率外,其余指標(biāo)均得到了顯著提高;引入CARAFE后,可更好地融合特征信息,綜合指標(biāo)再次提升,更適用于車輛及行人檢測(cè)任務(wù)。
3.6 檢測(cè)結(jié)果可視化分析
為驗(yàn)證改進(jìn)算法YOLOv8-RC相比于其余對(duì)比模型的檢測(cè)效果,從車輛及行人檢測(cè)數(shù)據(jù)集的測(cè)試集中隨機(jī)抽取2張典型的場(chǎng)景圖片(分別為多車輛少行人場(chǎng)景及行人街道場(chǎng)景)來進(jìn)行檢測(cè)效果的可視化對(duì)比,其檢測(cè)效果如圖4所示。
由圖4可知,在行人街道場(chǎng)景下,各算法均未出現(xiàn)漏檢及錯(cuò)檢情況,僅在預(yù)測(cè)置信度上存在部分差異,而改進(jìn)算法YOLOv8-RC在多車輛少行人場(chǎng)景下對(duì)行人目標(biāo)具備更加準(zhǔn)確的檢測(cè)性能,并且在車輛的預(yù)測(cè)上具備更高的置信度。
4 結(jié)束語
本文提出了一種基于改進(jìn)YOLOv8的車輛及行人檢測(cè)算法YOLOv8-RC,通過引入多尺度特征融合模塊RCS-OSA加強(qiáng)全局特征信息的融合能力,并將基礎(chǔ)網(wǎng)絡(luò)YOLOv8的上采樣算子改進(jìn)為輕量級(jí)上采樣算子CARAFE,提高了網(wǎng)絡(luò)的感知范圍及定位精度。通過多目標(biāo)車輛檢測(cè)公開數(shù)據(jù)集UA-DETRAC及網(wǎng)絡(luò)搜集的方式構(gòu)建了由6 000張含有車輛及行人的圖片構(gòu)成的檢測(cè)數(shù)據(jù)集,并選取YOLO系列的多個(gè)典型代表算法進(jìn)行對(duì)比驗(yàn)證,結(jié)果表明,YOLOv8-RC在車輛及行人檢測(cè)任務(wù)上具備優(yōu)異的檢測(cè)性能。
雖然YOLOv8-RC算法相比于基礎(chǔ)算法YOLOv8-N具備更為優(yōu)異的檢測(cè)效果,但在后續(xù)研究中,還可繼續(xù)對(duì)數(shù)據(jù)集進(jìn)行優(yōu)化和擴(kuò)充,以適應(yīng)更多的應(yīng)用場(chǎng)景。此外,車輛及行人被遮擋的情況仍是未來的研究重點(diǎn),可進(jìn)一步對(duì)網(wǎng)絡(luò)算法進(jìn)行優(yōu)化調(diào)整,以實(shí)現(xiàn)綜合檢測(cè)效果持續(xù)提升。
參考文獻(xiàn)
[1]" "LIU P Y, MA Y X. Key Points and Visible Part Fusion Attention Network for Occluded Pedestrian Detection in Traffic Environments[J]. Optoelectronics Letters, 2024, 20(7): 430-436.
[2]" "JAIN D K, ZHAO X D, GARCIA S, et al. Robust Multi-Modal Pedestrian Detection Using Deep Convolutional Neural Network with Ensemble Learning Model[J]. Expert Systems with Applications, 2024, 249.
[3]" "LIANG W J. Research on a Vehicle and Pedestrian Detection Algorithm Based on Improved Attention and Feature Fusion[J]. Mathematical Biosciences and Engineering, 2024, 21(4): 5782-5802.
[4]" "KIRAN K V, DASH S, PARIDA P. Vehicle Detection in Varied Weather Conditions using Enhanced Deep YOLO with Complex Wavelet[J]. Engineering Research Express, 2024, 6(2).
[5]" "ANDIKA J L, KHAIRUDDIN A S M, RAMIAH H, et al. Improved Feature Extraction Network in Lightweight YOLOv7 Model for Real-Time Vehicle Detection on Low-Cost Hardware[J]. Journal of Real-Time Image Processing, 2024, 21(3).
[6]" "胡倩, 皮建勇, 胡偉超, 等. 基于改進(jìn)YOLOv5的密集行人檢測(cè)算法研究[J/OL]. 計(jì)算機(jī)工程(2024-04-30)[2024-06-25]. https://doi.org/10.19678/j.issn.1000-3428.0068753.
HU Q, PI J Y, HU W C, et al. Research on Dense Pedestrian Detection Algorithm Based on Improved YOLOv5[J/OL]. Computer Engineering (2024-04-30)[2024-06-25]. https://doi.org/10.19678/j.issn.1000-3428.0068753.
[7]" "黃丹丹, 張新茹, 劉智, 等. 基于Transformer的雙分支檢測(cè)和重識(shí)別的多行人追蹤[J/OL]. 吉林大學(xué)學(xué)報(bào)(工學(xué)版)(2024-03-28)[2024-06-25]. https://doi.org/10.13229/j.cnki.jdxbgxb.20231415.
HUANG D D, ZHANG X R, LIU Z, et al. Multi Pedestrian Tracking Based on Transformer’s Dual Branch Detection and Re-Identification[J/OL]. Journal of Jilin University (Engineering Edition) (2024-03-28) [2024-06-25]. https://doi.org/10.13229/j.cnki.jdxbgxb.20231415.
[8]" "李林紅, 楊杰, 馮志成, 等. 面向站口行人檢測(cè)的改進(jìn)型Yolov5s算法[J]. 南京大學(xué)學(xué)報(bào)(自然科學(xué)), 2024, 60(1): 87-96.
LI L H, YANG J, FENG Z C, et al. Improved Yolov5s Algorithm for Pedestrian Detection at Station Entrances[J]. Journal of Nanjing University (Natural Science), 2024, 60(1): 87-96.
[9]" "周力, 惠飛, 張嘉洋, 等. 基于RDB-YOLOv5的遙感圖像車輛檢測(cè)[J]. 長(zhǎng)安大學(xué)學(xué)報(bào)(自然科學(xué)版), 2024, 44(3): 149-160.
ZHOU L, HUI F, ZHANG J Y, et al. Remote Sensing Image Vehicle Detection Based on RDB-YOLOv5[J]. Journal of Chang’an University (Natural Science Edition), 2024, 44(3): 149-160.
[10] 沈正坤, 王正超, 尹懷仙, 等. 基于VOD-YOLOv5的車輛檢測(cè)算法研究[J]. 青島大學(xué)學(xué)報(bào)(工程技術(shù)版), 2024, 39(1): 87-94.
SHEN Z K, WANG Z C, YIN H X, et al. Research on Vehicle Detection Algorithm Based on VOD-YOLOv5[J]. Journal of Qingdao University (Engineering Technology Edition), 2024, 39(1): 87-94.
[11] DILLON R, JORDAN K, JACQUELINE H, et al. Real-Time Flying Object Detection with YOLOv8[EB/OL]. (2024-05-22) [2024-06-25]. https://doi.org/10.48550/arXiv.2305.09972.
[12] KANG M, TING C M, TING F F, et al. RCS-YOLO: A Fast and High-Accuracy Object Detector for Brain Tumor Detection[EB/OL]. (2023-10-03) [2024-06-25]. https://doi.org/10.48550/arXiv.2307.16412.
[13] WANG J Q, CHEN K, XU R, et al. CARAFE: Content-Aware ReAssembly of FEatures[EB/OL]. (2019-10-29) [2024-06-25]. https://doi.org/10.48550/arXiv.1905. 02188.
(責(zé)任編輯 斛 畔)
修改稿收到日期為2024年7月13日。