中圖分類號:TP391.4 文獻標(biāo)志碼:A 文章編號:1671-5489(2025)04-1091-08
Bridge Crack Detection Algorithm for Unmanned Aerial Vehicle Based on Improved YOLOx-s
XU Weifeng 1,2 ,LU Hang1,CHENG Ziyi1,LU Anwen 1 , WANG Hongtao 1,2 ,WANG Yanru3,LI Sheng1 1.DepartmentofComputer,North China Electric Pouer University(Baoding),Baoding O71oo3,Hebei Province,China; 2. Key Laboratory of Energy and Electric Power Knowledge Calculation in Hebei Province, Baoding 07103, Hebei Province,China;3. School of Economics, Jilin University,Changchun 130ol2,China)
Abstract: Aiming at the problem of safety hazards of insufficient bridge crack detection,we proposed a bridge crack detection algorithm based on YOLOx-s,combined with a smallunmanned aerial vehicle platform. Firstly,we added a residual hole convolution module in the backbone to solve the problem of large scale changes and complex backgrounds in drone images. Secondly,we added a coordinate attention mechanism module in PANET to improve the detection rate of small targets. Finally,we replaced the loss function with Focal loss to enhance the learning of positive samples and improve the stability of the model. The experimental results show that compared with the YOLOx-s algorithm, the proposed method improves detection accuracy by 3.72 percentage points. On embedded devices, this method has better accuracy than other mainstream algorithms and can achieve real-time detection, which can be better applied in bridge crack detection for unmanned aerial vehicle.
Keywords: unmanned aerial vehicle (UAV); bridge crack detection; object detection; YOLOx-salgorithm;attention mechanism
0引言
在橋梁評價指標(biāo)中,裂縫是評價公路橋梁安全可靠性的重要指標(biāo)[1.出現(xiàn)橋梁裂縫將導(dǎo)致橋梁承載力降低,因此,橋梁裂縫的檢測對橋梁的安全維護至關(guān)重要.目前,常用的橋梁裂縫檢測方法主要包括人工檢測和橋梁檢測車[2].人工檢測方法主要靠檢測人員的視覺經(jīng)驗判斷,費時費力、可操作性差且危險性較高.橋梁檢測車可安全快速地檢測出橋梁裂縫,但在檢測過程中需要長時間占道,易導(dǎo)致交通癱瘓,且檢測成本較高.因此亟待一種更安全、高效、靈活且檢測成本低的橋梁裂縫檢測方法.
近年來,隨著小型無人機技術(shù)的快速發(fā)展,作為搭載平臺,無人機在橋梁檢測任務(wù)中被廣泛使用.無人機可利用其輕巧和方便的特點,在不影響交通的情況下輕松到達待檢測位置,使用攝像頭完成裂縫檢測[3].這種方法具有安全、高效、靈活和檢測成本低的特點,在搭載了目標(biāo)檢測算法后能實現(xiàn)自動化和智能化的橋梁裂縫檢測.
目前,在橋梁裂縫檢測中主要有Faster-RCNN[4],SSD[5],YOLO[6]系列等目標(biāo)檢測[]算法.文獻[8]研究了無人機橋梁裂縫檢測方法,并在此基礎(chǔ)上訓(xùn)練了Faster-RCNN算法用于無人機裂縫檢測.文獻[9]對橋梁裂縫的區(qū)域提取和分類進行了研究,并針對橋梁裂縫的特征改進了YOLOv3[10]算法.文獻[11]對橋梁裂縫固有特征和檢測過程的局限性進行了研究,并改進了YOLOv3的多尺度預(yù)測模塊提升檢測精度.但上述方法都只關(guān)注了橋梁裂縫的特征,未考慮無人機圖像的特點.在無人機圖像中,橋梁裂縫尺度變化大,背景復(fù)雜,且小目標(biāo)多,易出現(xiàn)誤檢、小目標(biāo)漏檢等問題導(dǎo)致檢測性能降低.因此,需對上述不足進行有針對性地改進,
結(jié)合無人機圖像的特點和YOLO系列算法的實時性和準(zhǔn)確性,本文選擇 YOLOx-s[12] 為基線模型.YOLOx-s算法檢測速度和精度性能優(yōu)異,但仍無法解決無人機圖像中橋梁裂縫尺度差異大、小目標(biāo)檢測率低等問題.所以本文對YOLOx-s 進行以下改進:首先,為解決無人機圖像目標(biāo)尺度差異大、背景復(fù)雜的問題,提出一種殘差空洞卷積模塊,并添加到骨干網(wǎng)絡(luò)中;其次,針對無人機圖像分辨率高、小目標(biāo)多的問題,添加坐標(biāo)注意力模塊到Neck層中,以減少小目標(biāo)漏檢率;最后,對損失函數(shù)進行改進,使用Focal loss[13]代替交叉熵損失,減少訓(xùn)練中的樣本不平衡問題,提升模型的性能.實驗結(jié)果表明,改進后的 YOLOX-S 算法在橋梁裂縫檢測方面能滿足實時性檢測的需求,并有較高的精度.與其他主流模型相比,本文方法在無人機橋梁裂縫檢測方面具有一定優(yōu)勢.
YOLOx-s網(wǎng)絡(luò)
YOLOx模型結(jié)合了YOLO系列網(wǎng)絡(luò)的優(yōu)點,創(chuàng)新地使用了解耦頭、anchor-free結(jié)構(gòu)以及標(biāo)簽分配策略 SimOTA.YOLOx 模型沿用了YOLO系列的整體布局,由骨干網(wǎng)絡(luò)、Neck 層和 YOLOxHead組成,此外,YOLOx還根據(jù)不同模塊的深度和寬度大小分為 nano,s,m,l,x 等尺寸.為保證精度和速度上的平衡,本文選用YOLOx-s作為基線模型.其骨干網(wǎng)絡(luò)沿用了 Csp[14] 結(jié)構(gòu),并使用SiLU激活函數(shù).SiLU激活函數(shù)是ReLU激活函數(shù)的改進版,相比于ReLU激活函數(shù),非線性能力更強,同時繼承了ReLU函數(shù)收斂快的優(yōu)點.在骨干網(wǎng)絡(luò)中通過4次ResBlock body模塊后得到3個有效特征層,在最后一次ResBlockbody中還加人了SPP模塊,通過不同的池化核對圖像進行池化操作,提取更多特征.得到3個有效特征層后,通過頸部的 PANET[15]結(jié)構(gòu)進行特征融合,最后通過 YOLOxHead進行分類和回歸,獲得預(yù)測結(jié)果.
雖然YOLOx-s速度較快,但無人機圖像尺度差異大,小目標(biāo)較多.在實際檢測任務(wù)中對復(fù)雜的裂縫檢測精度較低,對小裂縫易出現(xiàn)漏檢問題.因此,本文針對上述問題對該算法進行改進.改進后的YOLOx-s模型結(jié)構(gòu)如圖1所示.
2 改進的YOLOx-s模型
雖然YOLOx-s算法檢測速度快、性能優(yōu)異,但仍無法解決無人機圖像中橋梁裂縫尺度差異大、小目標(biāo)檢測率低等問題.本文在骨干網(wǎng)絡(luò)、特征融合、損失函數(shù)等方面對YOLOx-s 進行改進,在保證實時檢測要求的同時提升精度.
2.1 對骨干網(wǎng)絡(luò)的改進
由于無人機圖像尺度變化大,背景復(fù)雜,所以基于無人機圖像的特點,需要目標(biāo)檢測模型增強對多尺度特征和復(fù)雜背景的分析能力.而增大感受野不僅可保存更多的特征信息,還可以映射更細微的特征信息,即相似特征之間的差異,從而減少局部信息的丟失,提升檢測精度.這對無人機圖像識別尤其重要.
基于上述分析,本文提出一種殘差空洞卷積模塊Res-DConvBlock,如圖2所示.由圖2可見,該模塊首先通過一個 1×1 的標(biāo)準(zhǔn)卷積模塊調(diào)整通道數(shù),降低計算的復(fù)雜度,再通過一個 3×3 的空洞卷積模塊擴大感受野,之后通過一個 1×1 的卷積塊調(diào)整通道數(shù),最后接上殘差邊.該模塊可有效提高模型的感受野,減少局部信息特征的丟失.對YOLOX-s 骨干網(wǎng)絡(luò)進行改進:由于骨干網(wǎng)絡(luò)CspDarknet53中的focus模塊在分片操作時存在多個concat操作,需較大的內(nèi)存運算開銷,故本文將focus模塊替換成與其有相同效果的 6×6 標(biāo)準(zhǔn)卷積模塊.并在其后添加殘差空洞卷積模塊擴大模型的感受野,增強對復(fù)雜背景信息的處理,進而提高橋梁裂縫的檢測精度.改進后的骨干網(wǎng)絡(luò)如圖3所示,其中每個ResBlock body 由一次標(biāo)準(zhǔn)卷積模塊再加上Csp Layer 組成.Csp Layer將輸人數(shù)據(jù)分成兩部分,一部分由多個殘差單元堆疊組成,另一部分通過一次標(biāo)準(zhǔn)卷積模塊,然后對兩部分進行拼接.上述 Res-DConvBlock 模塊添加到第一個 ResBlock body 模塊后,再通過3次 ResBlock body 模塊輸出3層特征,以提高模型對圖像特征語義信息的提取和表達能力.
2.2 對特征融合層的改進
為更好地檢測小目標(biāo),本文對YOLOx-s的PANNET結(jié)構(gòu)進行改進,通過引人注意力模塊,使模型更有效地關(guān)注關(guān)鍵區(qū)域,從而在增加少量計算量的情況下提升小目標(biāo)檢測性能.本文采用嵌人坐標(biāo)注意力機制(coordinateattention,CA)[16]的方式為特征融合層的多尺度通道分配不同的權(quán)重,不僅考慮了通道信息,還考慮了方向位置信息,且輕量靈活.相比于傳統(tǒng)隨機分配權(quán)值的方式,嵌入坐標(biāo)注意力的加權(quán)方式可進一步增加模型的感受野、小目標(biāo)的關(guān)注度以及位置敏感性.嵌入坐標(biāo)注意力機制如圖4所示.利用 (H,1) 和(1,W)的池化核將輸入特征圖分割并壓縮,對輸入特征圖分別在 X 方向和 Y 方向進行平均池化,從而產(chǎn)生兩個大小分別為 C×H×1 和 C×1×W 獨立方向感知注意力的特征圖.再將帶有方向信息的特征圖由concat進行拼接,并利用 1×1 卷積、標(biāo)準(zhǔn)化和非線性激活函數(shù)生成過程特征圖 f .將 f 在空間維度上拆分成兩個獨立的向量 fh 和 fw ,然后分別通過 1×1 卷積調(diào)整到與輸入特征圖相同的通道數(shù),再利用 Sigmoid 激活函數(shù)得到兩個獨立空間方向的注意力權(quán)值,最后對其進行拓展,作用于輸入特征后得到對目標(biāo)空間維度位置信息敏感的輸出特征圖.
2.3 對損失函數(shù)的改進
由于待檢測的裂縫與橋梁背景相似,因此當(dāng)裂縫較小時,裂縫正樣本和橋梁背景負樣本很難區(qū)分.在模型訓(xùn)練過程中,背景負樣本的個數(shù)較多,導(dǎo)致模型對裂縫正樣本的學(xué)習(xí)不夠.負樣本數(shù)量過大,會占據(jù)損失的大部分,使模型的優(yōu)化方向不理想,導(dǎo)致模型性能不穩(wěn)定.為解決該問題,本文引入Focal loss 函數(shù)代替交叉熵損失.Focal loss 函數(shù)是在交叉熵損失函數(shù)的基礎(chǔ)上構(gòu)建的.Focal loss 函數(shù)定義如下:
其中: ?Pt 表示樣本分類難易程度(難分類的 ?Pt ?。?,用 (1-pt)γ 對原始交叉熵損失進行衰減;γ為超參數(shù),用于控制損失函數(shù)衰減; αt 用于控制正負樣本權(quán)重.當(dāng) γ=2 , αt=0.75 時效果最好.
3 實驗及結(jié)果分析
3.1 數(shù)據(jù)集構(gòu)建
確定了算法結(jié)構(gòu)后,需構(gòu)建合適的數(shù)據(jù)集作為模型的訓(xùn)練數(shù)據(jù)集.由于混凝土材料具有易獲取、抗火性能好、不易風(fēng)化等特點,因此常被用于作為橋梁建設(shè)的材料[17],本文實驗從橋梁裂縫開源數(shù)據(jù)集中選取多張混凝土橋梁裂縫圖像,通過對獲取的圖像進行旋轉(zhuǎn)、平移、裁剪等操作,得到4000多張包含各種混凝土橋梁裂縫的數(shù)據(jù)集.如圖5所示,數(shù)據(jù)集中包括不同形狀的裂縫,如橫向裂縫、縱向裂縫、斜向裂縫等,也有不同尺度小裂縫組成的交叉裂縫.得到數(shù)據(jù)集后,使用Labelimg圖像標(biāo)注工具對數(shù)據(jù)集進行標(biāo)注,標(biāo)注類型為Crack,并按 8:1:1 劃分訓(xùn)練集、驗證集和測試集.
3.2 評價指標(biāo)
為衡量目標(biāo)檢測模型的效果,選擇檢測精度(AP)和檢測速率作為模型的評價指標(biāo).檢測精度為準(zhǔn)確率和召回率所圍成曲線的面積,準(zhǔn)確率和召回率分別定義為
其中 TP為正確預(yù)測為正樣本的個數(shù),F(xiàn)P為錯誤預(yù)測為正樣本的個數(shù),F(xiàn)N為錯誤預(yù)測為負樣本的個數(shù).AP結(jié)合了模型的準(zhǔn)確率和召回率,為模型的性能提供了綜合評價,AP的計算公式為
在檢測速率方面,為評價模型能否滿足實時性目標(biāo)檢測的需求,選擇每秒處理圖片數(shù)量FPS作為評價目標(biāo)檢測模型速度的評價指標(biāo).該值越大目標(biāo)檢測模型的速度越快.
3.3 實驗結(jié)果與分析
實驗采用Python完成程序編寫,使用環(huán)境為Ubuntu20.04,Pytorch版本1.11.0,CUDA版本11.6,使用GPU為Nvidia 2080Ti
首先,為驗證本文骨干網(wǎng)絡(luò)改進的有效性,替換YOLOx-s 的骨干網(wǎng)絡(luò)為MobileNetV3[18],ShuffleNetV2[19]以及本文改進的骨干網(wǎng)絡(luò),與原模型進行性能對比.在上述裂縫數(shù)據(jù)集上訓(xùn)練300 輪,實驗結(jié)果列于表1,其中Cspdarknet為YOLOx-s原骨干網(wǎng)絡(luò).
由表1可見,在Cspdarknet,MobileNetV3,ShuffleNetV2中,使用ShufleNetV2 檢測速度最快,且模型參數(shù)量最小,MobileNetV3次之.但在檢測性能方面,無論是精度還是召回率都是YOLOx-s的原骨干網(wǎng)絡(luò)效果Cspdarknet最好,且在檢測速度方面已能滿足實時性要求.本文改進的骨干網(wǎng)絡(luò)與YOLOx-s 原骨干網(wǎng)絡(luò)效果相比,精度進一步提升.由于添加了殘差空洞卷積模塊,增加了計算量導(dǎo)致速度下降,但仍能滿足實時性要求.綜合可見,本文方法以少量的速度下降換來了檢測精度的提高,且可滿足實時性要求,所以本文對骨干網(wǎng)絡(luò)的改進有效.
其次,為驗證本文對Neck層改進的有效性,依次對YOLOx-s做消融實驗,其中 YOLOX-S+ 為改進骨干網(wǎng)絡(luò)的 YOLOX-S ,在YOLOx-S + 上分別測試本文改進點的有效性.實驗結(jié)果列于表2.
由表2可見,在裂縫數(shù)據(jù)集中,添加了CA模塊的 YOLOX-S+ 模型相比于原模型精度提升1.8個百分點,召回率提升1.18個百分點,相比于原 YOLOX-S 模型精度提升了2.57個百分點,召回率提升了1.72個百分點,在FPS減小較少的情況下提升了模型精度.而替換損失函數(shù)為Focalloss 時精度和召回率也稍有提升.實驗結(jié)果表明上述方法有效.本文方法在 YOLOX-S+ 的基礎(chǔ)上使用了上述3種策略,相較于 YOLOx-s+ 精度提升了2.95個百分點,召回率提升了1.79個百分點;精度相較于原YOLOx-s 模型提升了3.72個百分點,召回率提升了2.33個百分點.與原始 YOLOx-s 模型相比,由于計算量的增大導(dǎo)致 FPS有所下降,但只增加了少量的參數(shù),以較少的模型速度降低換來了較大的精度提升,且能滿足實時檢測的需求.圖6為本文方法在部分數(shù)據(jù)集上的預(yù)測結(jié)果.由圖6可見,本文方法可以很好地滿足不同尺度的裂縫檢測需求.由圖6和表2可見,本文方法有效.
3.4 對比實驗
為進一步驗證本文方法的有效性,將本文方法與其他主流目標(biāo)檢測算法在嵌入式設(shè)備上進行比較分析.實驗使用的嵌人式設(shè)備為JetsonOrinNano,該設(shè)備作為一款支持NvidaCuda的人工智能計算平臺,有高便攜性、低功耗等特點,且能為目標(biāo)檢測模型提供穩(wěn)定的性能,可作為無人機目標(biāo)檢測設(shè)備使用.不同方法的對比實驗結(jié)果列于表3,其中CspDarknet + 為本文改進的骨干網(wǎng)絡(luò).
由表3可見,與原方法相比,本文在嵌入式設(shè)備上有與原方法近似的速度,但精度上更優(yōu).在SSD,YOLOv3,YOLOv4和 FCOS中,平均精度最高的目標(biāo)檢測模型是YOLOv4,而本文方法比YOLOv4精度高1.86個百分點,速度也比它快.與其他方法相比,無論是速度和精度,本文方法都具有明顯優(yōu)勢.通過在嵌入式設(shè)備上與主流目標(biāo)檢測算法對比可見,在有限的計算資源下,本文方法在綜合性能上更優(yōu),能實現(xiàn)實時性檢測,更適合用于無人機目標(biāo)檢測模型.
由于Jetson Orin Nano的低功耗和高便攜性使該設(shè)備在無人機可搭載的目標(biāo)檢測設(shè)備上具有可替代性,本文方法同樣可以搭載在其他無人機目標(biāo)檢測設(shè)備中,在支持NvidaCuda和TensorRT的設(shè)備上可以獲得更優(yōu)的性能,具有廣泛的適用性.因此,在無人機橋梁裂縫檢測中具有較好的應(yīng)用價值.
綜上所述,針對橋梁裂縫檢測不充分的安全隱患問題,本文提出了一種基于改進YOLOx-s的無人機橋梁裂縫檢測方法.首先,對YOLOx-s進行改進,提出一種殘差空洞卷積模塊并引入主干網(wǎng)絡(luò)中,提高了模型的感受野.其次,在PANET中引入了CA注意力機制,使模型能獲取更多特征信息,減少小目標(biāo)的漏檢率.最后,替換損失函數(shù)為Focalloss,提升了模型的穩(wěn)定性.實驗結(jié)果表明,與原算法和目前主流的算法相比,改進后的YOLOx-s算法有更好的精度,在無人機橋梁裂縫檢測中具有一定的應(yīng)用價值.
參考文獻
[1]徐洪濤,郭國忠,蒲煥玲,等.我國近年來橋梁事故發(fā)生的原因與教訓(xùn)[J].中國安全科學(xué)學(xué)報,2007,17(11):
90-95.(XU H T,GUO G Z,PU H L,et al. Causes and Lessons of Bridge Accidents in China in Recent Years[J].China Safety Science Journal,2007,17(11):90-95.)
[2]楊雪峰.橋梁檢測車在橋梁檢測中的應(yīng)用價值分析[J].科技創(chuàng)新導(dǎo)報,2019,16(4):45.(YANG XF.Application Value Analysis of Bridge Inspection Vehicles in Bridge Inspection [J]. Science and TechnologyInnovation Herald,2019,16(4):45.)[3]孫宏斐,夏曉華.橋梁檢測設(shè)備淺析[J].中國設(shè)備工程,2021(18):127-128.(SUNHF,XIAXH.A BriefAnalysis of Bridge Inspection Equipment [J]. China Plant Engineering,2O21(18):127-128.)
[4]REDMON J, DIVVALA S,GIRSHICK R,et al. You Only Look Once:Unified,Real-Time Object Detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE,
2016:779-788.[5」寧健,馬淼,柴立臣,等.深度學(xué)習(xí)的目標(biāo)檢測算法綜述[J].信息記錄材料,2022,23(10):1-4.(NINGJ,MA M,CHAI L C,et al. A Survey of Deep Learning Object Detection Algorithms [J]. Information RecordingMaterials,2022,23(10):1-4.)
[6]REN SQ,HE K M, GIRSHICK R,et al. Faster R-CNN: Towards Real-Time Object Detection with RegionProposal Networks [C]//Advances in Neural Information Processing Systems. Piscataway, NJ: IEEE,2015:
91-99.
[7]LIU W,ANGUELOV D,ERHAN D,et al. SSD: Single Shot Multibox Detector [C]//European Conference on
[8]李鋒.基于無人機及深度學(xué)習(xí)的橋梁結(jié)構(gòu)裂縫智能識別[D].長沙:湖南大學(xué),2021.(LIF.InteligentIdentification of Bridge Structural Cracks Based on Unmanned Aerial Vehicle and Deep Learning[D].Changsha:Hunan University,2021.)
[9]洪光征.基于防撞無人機視頻的橋梁裂縫檢測方法研究[D].深圳:深圳大學(xué),2020.(HONGG Z.Research onBridge Crack Detection Method Based on Colision-Proof UAV Video [D]. Shenzhen: Shenzhen University,2020.)
[10]REDMON J,F(xiàn)ARHADI A. YOLOv3:An Incremental Improvement [EB/OL].(2018-04-08)[2024-02-01].https://arxiv. org/abs/1804. 02767.
[11]廖延娜,李婉.基于卷積神經(jīng)網(wǎng)絡(luò)的橋梁裂縫檢測方法[J].計算機工程與設(shè)計,2021,42(8):2366-2372.(LIAO Y N,LI W. Bridge Crack Detection Method Based on Convolution Neural Network [J]. ComputerEngineering and Design,2021,42(8):2366-2372.)
[12]GE Z,LIU S T,WANG F,et al. YOLOx:Exceding YOLO Series in 2021[EB/OL]. (2021-08-06)[2024-02-01]. https://arxiv.org/abs/2107.08430.
[13]LIN T Y,GOYAL P,GIRSHICK R,et al. Focal Los for Dense Object Detection[C]//Proceedings of the IEEEInternational Conference on Computer Vision (ICCV). Piscataway,NJ: IEEE,2Ol7: 2980-2988.
[14]WANG C Y,LIAO HY M, WU Y H,et al. CSPNet: A New Backbone That Can Enhance Learning Capabilityof CNN[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops.Piscataway,NJ: IEEE,2020:390-391.
[15]WANG K,LIEW J H, ZOU Y,et al. Panet:Few-Shot Image Semantic Segmentation with Prototype Alignment[C]//Proceedings of the IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE,2019:9197-9206.
[16]HOU QB, ZHOU D Q,F(xiàn)ENG JS. Coordinate Atention for Efficient Mobile Network Design [C]//Proceedingsof the IEEE/CVF Conference on Computer Vision and Patern Recognition. Piscataway,NJ: IEEE,2021:13713-13722.
[17]王少鵬.公路橋梁混凝土材料的工程使用年限研究[D].北京:交通運輸部公路科學(xué)研究院,2019.(WANG S P. Research on Engineering Service Life of Concrete Material for Highway Bridge [D]. Beijing:Research Institute of Highway Ministry of Transport,2019.)
[18]HOWARD A, SANDLER M, CHU G,et al. Searching for Mobile NetV3 [C]//Proceedings of the IEEE/CVFInternational Conference on Computer Vision. Piscataway,NJ: IEEE,2019:1314-1324.
[19]MA NN, ZHANG X Y, ZHENG H T,et al. Shufflenet v2: Practical Guidelines for Eficient CNN ArchitectureDesign [C]//Proceedings of the European Conference on Computer Vision (ECCV). New York:ACM,2018 :116-131.
[20]IAN Z,SHEN C H,CHEN H,et al. FCOS: Fully Convolutional One-Stage Object Detection [C]//Proceedingsof 2019 IEEE/CVF International Conference on Computer Vision. Piscataway, NJ: IEEE,20l9: 9627-9636.
[21]陳森,徐偉峰,王洪濤,等.基于改進 YOLOv7的麥穗檢測算法[J].學(xué)報(理學(xué)版),2024,62(4):886-894.(CHEN S, XU W F, WANG H T,et al. Wheat Ear Detection Algorithm Based on Improved YOLOv7[J].Journal of Jilin University(Science Edition),2024,62(4):886-894.)
[22]BOCHKOVSKIY A,WANG C Y,LIAO H Y M. YOLOv4: Optimal Speed and Accuracy of Object Detection[EB/OL]. (2020-04-23)[2024-02-20]. https://arxiv.org/abs/2004.10934.
(責(zé)任編輯:韓嘯)