• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    多尺度特征融合的鐵軌異物入侵檢測(cè)研究

    2024-09-15 00:00:00王楠侯濤牛宏俠
    關(guān)鍵詞:多尺度特征融合

    摘要:針對(duì)鐵路軌道異物檢測(cè)中不同尺度異物目標(biāo)的檢測(cè)易受復(fù)雜環(huán)境的影響,導(dǎo)致出現(xiàn)檢測(cè)精度低及檢測(cè)速度慢等問題,提出一種多尺度特征融合的鐵軌異物檢測(cè)(RMF-YOLO)算法。首先,設(shè)計(jì)并引入改進(jìn)的卷積注意力模塊(ICBAM),結(jié)合YOLOv7特征提取網(wǎng)絡(luò),以增強(qiáng)復(fù)雜場(chǎng)景下的特征提取能力。其次,在所有高效層聚合網(wǎng)絡(luò)模塊中采用GhostConv替代普通卷積層,以降低計(jì)算復(fù)雜度,提高特征輸出效率;設(shè)計(jì)一種改進(jìn)的加權(quán)雙向特征金字塔網(wǎng)絡(luò)N-BiFPN結(jié)構(gòu),加強(qiáng)多尺度特征融合能力,平衡不同層級(jí)特征信息,提高多尺度檢測(cè)能力。最后,為進(jìn)一步提升檢測(cè)精度,采用WIoU損失函數(shù)結(jié)合動(dòng)態(tài)非單調(diào)聚集機(jī)制,有效應(yīng)對(duì)低質(zhì)量錨框產(chǎn)生的梯度,提高模型對(duì)不同尺度異物檢測(cè)的整體性能。實(shí)驗(yàn)結(jié)果表明:在自制的鐵軌異物數(shù)據(jù)集上,RMF-YOLO算法減少了原網(wǎng)絡(luò)模型的參數(shù)量,有效提升了模型的檢測(cè)精度與檢測(cè)速度,改善了漏檢與誤檢問題,平均精度提升了5.5%,檢測(cè)速度提升了5.88%,計(jì)算量減少了12.25%,能滿足鐵軌入侵異物檢測(cè)中對(duì)檢測(cè)精度和實(shí)時(shí)性的需求。

    關(guān)鍵詞:鐵軌異物檢測(cè);特征融合;多尺度;YOLOv7;損失函數(shù)

    中圖分類號(hào):TP391.41;U298 文獻(xiàn)標(biāo)志碼:A

    DOI:10.7652/xjtuxb202409014 文章編號(hào):0253-987X(2024)09-0139-15

    Research on Railway Track Foreign Object Intrusion Detection

    Based on Multi-Scale Feature Fusion

    WANG Nan, HOU Tao, NIU Hongxia

    (School of Automation and Electrical Engineering, Lanzhou Jiaotong University, Lanzhou 730070, China)

    Abstract:To address the issues of low detection accuracy and slow detection speed caused by the influence of complex environments on detecting foreign objects of different scales on railroad tracks, this paper proposes a multi-scale feature fusion RMF-YOLO (railway multi-scale fusion YOLO) method for railroad track foreign object detection. Firstly, ICBAM, an improved convolutional attention module, is designed and introduced in combination with the YOLOv7 feature extraction network to enhance feature extraction capability in complex scenarios. Subsequently, GhostConv is adopted in all efficient layer aggregation network modules instead of regular convolutional layers to reduce computational complexity and enhance feature output efficiency.An improved weighted bi-directional feature pyramid network (N-BiFPN) structure is introduced to enhance multi-scale feature fusion, balance feature information across different levels, and improve multi-scale detection capabilities. Lastly, to further enhance detection accuracy, the WIoU loss function combined with the dynamic non-monotonic aggregation mechanism is used to effectively deal with the gradient generated by the low-quality anchor frames and to improve the overall performance of the model for the detection of foreign objects at different scales. The experimental results indicate that on the self-made railway track foreign object dataset, the RMF-YOLO algorithm reduces the parameter count of the original network model, effectively enhancing the model’s detection accuracy and detection speed of the model and addressing issues related to missed and 1 detections. On average, the precision increased by 5.5%, the frames per second (FPS) improved by 5.88%, and the computational load decreased by 12.25%. These enhancements meet the requirements for both detection accuracy and real-time performance in railway track foreign object detection.

    Keywords:railroad foreign object detection; feature fusion; multi-scale; YOLOv7; loss function

    鐵路在全球運(yùn)輸系統(tǒng)中扮演著重要角色,隨著鐵路運(yùn)輸?shù)目焖侔l(fā)展,鐵路運(yùn)輸安全也越來(lái)越受到人們的關(guān)注。對(duì)于鐵路運(yùn)輸安全,鐵軌附近出現(xiàn)的入侵異物是威脅鐵路系統(tǒng)安全的原因之一,典型的鐵路非法入侵有行人、車輛、動(dòng)物、軌旁基礎(chǔ)設(shè)施坍塌等,特別是在開放式鐵路環(huán)境下,行人的行為是不可預(yù)測(cè)的[1]。列車前方異物的入侵會(huì)對(duì)高速列車的安全構(gòu)成重大威脅,因此及時(shí)發(fā)現(xiàn)非法入侵異物,確保列車安全至關(guān)重要。

    有效的鐵路異物入侵檢測(cè)方法對(duì)鐵路安全具有重要意義。目前,鐵路入侵檢測(cè)主要有兩種方法:接觸式和非接觸式。接觸式檢測(cè)需要大量的工程工作,主要是利用傳感器技術(shù)判斷異物是否與傳感器接觸,這種物理保護(hù)方法受到外界因素影響較大,不適合大規(guī)模的使用。基于深度學(xué)習(xí)的異物目標(biāo)檢測(cè)是一種典型的非接觸式檢測(cè)方法,具有易于維護(hù)和準(zhǔn)確性較高的特點(diǎn),目標(biāo)檢測(cè)方法可分為兩階段和單階段。兩階段方法涉及生成候選區(qū)域,然后進(jìn)行分類和回歸,雖然具有較高的檢測(cè)精度,但是由于計(jì)算復(fù)雜而難以進(jìn)行實(shí)時(shí)檢測(cè)[2]。單階段方法需要生成位置和類別概率[3-5]。近年來(lái),涌現(xiàn)出基于Transformer的目標(biāo)檢測(cè)算法,將目標(biāo)檢測(cè)任務(wù)視為序列到序列的預(yù)測(cè)問題,并通過(guò)引入自注意力機(jī)制推理目標(biāo)與全局圖像的上下文關(guān)系,如端到端目標(biāo)檢測(cè)器(DETR)[6]等。

    目前,已經(jīng)有很多學(xué)者開展基于深度學(xué)習(xí)的鐵路異物入侵檢測(cè)研究。Guo等[7]通過(guò)改進(jìn)的SSD網(wǎng)絡(luò)進(jìn)行高速鐵路間隙入侵檢測(cè),將高級(jí)特征反卷積為低級(jí)特征,并與原始的低級(jí)特征融合,以增強(qiáng)語(yǔ)義信息。汪世財(cái)?shù)龋?]根據(jù)障礙物的點(diǎn)云位置特征和時(shí)間特征去除背景點(diǎn)云數(shù)據(jù),以提高障礙物關(guān)聯(lián)可靠性。徐巖等[9]針對(duì)鐵路異物檢測(cè)問題,提出一種替代全連接層的方法,然而這種方法在復(fù)雜環(huán)境下的異物檢測(cè)性能相對(duì)較弱。張劍等[10]采用可切換的空心卷積提取特征,降低了目標(biāo)檢測(cè)的誤報(bào)率,但每秒幀數(shù)(FPS)較低,不能滿足實(shí)時(shí)檢測(cè)的要求。Hussain等[11]提出使用反向注意力機(jī)制進(jìn)行目標(biāo)對(duì)象的清晰邊界檢測(cè),使用二元交叉熵(BCE)損失與結(jié)構(gòu)相似性指數(shù)度量(SSIM)和交集(IoU)損失的組合來(lái)監(jiān)督訓(xùn)練。胡行濤等[12]將不確定性添加到檢測(cè)系統(tǒng)中,可以有效提高檢測(cè)精度,但該方法對(duì)特征遮擋和快速移動(dòng)的目標(biāo)存在漏檢情況。Cai等[13]提出一種基于毫米波雷達(dá)的異物檢測(cè)系統(tǒng),在雷達(dá)數(shù)據(jù)的基礎(chǔ)上對(duì)不同維度的數(shù)據(jù)進(jìn)行處理,以獲得目標(biāo)信息。He等[14]結(jié)合多種多尺度增強(qiáng)方法,提高了小目標(biāo)物體的檢測(cè)能力,但是實(shí)時(shí)性較弱。Wang等[15]提出一種基于深度生成網(wǎng)絡(luò)和自回歸模型的無(wú)監(jiān)督入侵檢測(cè)方法,通過(guò)重建和原始輸入圖像的差值定位異常區(qū)域。管嶺等[16]提出一種改進(jìn)的YOLOv4-tiny網(wǎng)絡(luò)模型用于軌道異物檢測(cè),融合跨階段結(jié)構(gòu)和引入多頭注意力機(jī)制,從而提高網(wǎng)絡(luò)性能和效率。

    隨著網(wǎng)絡(luò)結(jié)構(gòu)的深入和更多新架構(gòu)的出現(xiàn)[17],現(xiàn)有的鐵軌異物檢測(cè)算法存在難以平衡檢測(cè)精度和速度的問題,不能滿足鐵路入侵檢測(cè)的實(shí)時(shí)性和準(zhǔn)確性的需求。不同光照環(huán)境、天氣、遮擋等復(fù)雜環(huán)境也影響了入侵異物的可視化特征,對(duì)鐵軌異物目標(biāo)的檢測(cè)造成干擾。鐵軌附近可能出現(xiàn)的異物尺寸復(fù)雜多樣,異物目標(biāo)也會(huì)因與攝像頭的距離差異而導(dǎo)致成像尺寸差異較大。這些因素都對(duì)目標(biāo)檢測(cè)算法的實(shí)用性和魯棒性提出了更高的要求?,F(xiàn)有的目標(biāo)檢測(cè)算法并不能保證在復(fù)雜環(huán)境下檢測(cè)多尺度異物,對(duì)于姿態(tài)各異的工人以及遠(yuǎn)處的物體,在提取特征不足的情況下,可能難以檢測(cè)出來(lái)。

    針對(duì)上述問題,本文以YOLOv7為基礎(chǔ)網(wǎng)絡(luò),提出了一種基于多尺度特征融合的RMF-YOLO (rail multi-scale fusion YOLO)鐵軌異物入侵檢測(cè)算法,旨在實(shí)現(xiàn)更小的參數(shù)量和更高的檢測(cè)精度。通過(guò)引入改進(jìn)的卷積注意力模塊(ICBAM)、多尺度特征融合網(wǎng)絡(luò)以及改進(jìn)損失函數(shù)等策略,對(duì)YOLOv7網(wǎng)絡(luò)進(jìn)行改進(jìn),以提高異物檢測(cè)的準(zhǔn)確性,特別是針對(duì)不同尺度異物的特征提取能力。本文主要貢獻(xiàn)如下。

    (1)在特征提取網(wǎng)絡(luò)中設(shè)計(jì)一種混合注意力機(jī)制,即ICBAM。該注意力機(jī)制通過(guò)提取全局上下文信息,可以有效提高局部表達(dá)能力,更好地?cái)M合入侵異物特征信息,提高異物入侵圖像中對(duì)不同尺度異物的檢測(cè)能力。

    (2)為了降低網(wǎng)絡(luò)的計(jì)算復(fù)雜度,在所有高效層聚集網(wǎng)絡(luò)(ELAN)模塊中引入GhostConv模塊,代替普通卷積,實(shí)現(xiàn)模型壓縮,以平衡檢測(cè)精度和速度。

    (3)在特征融合網(wǎng)絡(luò)中,提出一種改進(jìn)的特征金字塔網(wǎng)絡(luò)N-BiFPN作為特征融合模塊,代替原有的路徑聚合網(wǎng)絡(luò)(PANet),從而實(shí)現(xiàn)高效的雙向跨尺度連接和加權(quán)特征融合,以獲得更多的特征信息,避免了異物特征的丟失,顯著提高了算法的檢測(cè)能力。

    (4)在損失函數(shù)的計(jì)算中引入WIoUv3(wise-intersection over union)損失函數(shù),采用梯度增益分配策略,增強(qiáng)模型對(duì)低質(zhì)量錨框的聚集,提高模型在鐵軌異物檢測(cè)中的整體性能。

    1 RMF-YOLO算法的網(wǎng)絡(luò)模型

    1.1 YOLOv7算法

    YOLOv7[18]的結(jié)構(gòu)框架包括輸入端、特征提取網(wǎng)絡(luò)、特征融合網(wǎng)絡(luò)以及頭部架構(gòu)。特征提取網(wǎng)絡(luò)主要由一系列卷積層組成,專門用于從輸入數(shù)據(jù)中提取特征。首先,將固定分辨率為640×640像素的圖像分批輸入到骨干網(wǎng)絡(luò),進(jìn)入主干層后產(chǎn)生雙下采樣特征圖。之后,由Conv層和ELAN層卷積組成網(wǎng)絡(luò)層,產(chǎn)生4倍下采樣圖像。然后,進(jìn)行3次重復(fù)的最大池化(核尺寸n=1)下采樣,結(jié)合ELAN層,得到32倍下的采樣特征圖。在特征融合網(wǎng)絡(luò)中,空間金字塔池化跨階段模塊(SPPCSPC)[19]首先通過(guò)將特征通道的數(shù)量減半來(lái)匯集來(lái)自上部輸出的特征。然后,采用路徑聚合特征金字塔網(wǎng)絡(luò)(PANet)模塊進(jìn)行多尺度的特征融合,采用自上而下的結(jié)構(gòu)傳遞深層的強(qiáng)語(yǔ)義特征,以增強(qiáng)整個(gè)金字塔。同時(shí),采用自下而上的結(jié)構(gòu),將淺層的圖像結(jié)構(gòu)、顏色、邊緣等特征位置信息傳遞上去,從而實(shí)現(xiàn)不同層次特征高效融合。最后,頭部架構(gòu)采用REP結(jié)構(gòu)對(duì)PANet結(jié)構(gòu)進(jìn)行通道數(shù)調(diào)整,將特征送入尺寸為1×1 的卷積模塊,用來(lái)預(yù)測(cè)圖像的置信度、類別、錨框信息,并最終生成檢測(cè)結(jié)果。YOLOv7算法結(jié)構(gòu)圖如圖1所示。

    1.2 RMF-YOLO算法的網(wǎng)絡(luò)結(jié)構(gòu)

    雖然YOLOv7網(wǎng)絡(luò)具有良好的檢測(cè)性能,但是對(duì)于鐵路環(huán)境中異物特征不明顯、遮擋、尺度變化較大的情況仍存在檢測(cè)精度不高的問題,故而需要進(jìn)行改進(jìn)和優(yōu)化。本文在YOLOv7網(wǎng)絡(luò)結(jié)構(gòu)上進(jìn)行了改進(jìn),提出了一種基于多尺度特征融合的RMF-YOLO網(wǎng)絡(luò)模型,使其可以適用于檢測(cè)鐵軌異物,準(zhǔn)確識(shí)別復(fù)雜環(huán)境中大小不一的異物目標(biāo)。RMF-YOLO算法的整體結(jié)構(gòu)如圖2所示。

    2 基于RMF-YOLO算法的異物目標(biāo)檢測(cè)

    RMF-YOLO算法集成了ICBAM混合注意力模塊、GhostConv模塊、改進(jìn)的BiFPN特征融合網(wǎng)絡(luò)和WIoUv3損失函數(shù),以提高對(duì)具有復(fù)雜特征的多個(gè)對(duì)象的識(shí)別能力。首先,將ICBAM注意力模塊添加在特征提取網(wǎng)絡(luò)中,幫助網(wǎng)絡(luò)有效抑制無(wú)關(guān)對(duì)象的干擾,從而實(shí)現(xiàn)對(duì)異物的準(zhǔn)確檢測(cè),提高特征的表達(dá)能力。其次,用GhostConv代替普通卷積,可以讓模塊在幾乎沒有額外計(jì)算復(fù)雜度的情況下運(yùn)行,提高模型性能,減少模型參數(shù),有助于提高鐵軌異物檢測(cè)的速度。然后,在PANet的基礎(chǔ)上進(jìn)行改進(jìn),構(gòu)建一種新的具有聚合路徑的加權(quán)雙向特征金字塔網(wǎng)絡(luò)N-BiFPN,從而有效地優(yōu)化特征融合過(guò)程,可以更好地獲取異物目標(biāo)的多尺度特征,獲得更高的檢測(cè)精度??紤]對(duì)難以檢測(cè)異物目標(biāo)的關(guān)注,提出將WIoUv3損失作為邊界框損傷的計(jì)算方法,有助于進(jìn)一步提高模型的性能,具體見圖2特征融合網(wǎng)絡(luò)部分。

    2.1 混合注意力機(jī)制

    在鐵路軌道場(chǎng)景中,由于光照、遮擋、背景等因素的影響,可能產(chǎn)生對(duì)入侵異物的漏檢和錯(cuò)檢,尤其是對(duì)遠(yuǎn)端小物體的檢測(cè)。為了進(jìn)一步解決復(fù)雜環(huán)境中對(duì)鐵軌入侵異物的檢測(cè),降低環(huán)境信息對(duì)異物檢測(cè)的干擾,本文在卷積注意力模塊(CBAM)[20]的基礎(chǔ)上進(jìn)行改進(jìn),得到ICBAM混合注意力機(jī)制,聚集特征圖的通道和空間維度,從而進(jìn)一步提高檢測(cè)精度。ICBAM由兩個(gè)相互連接的子模塊組成,在輸入和輸出之間新增一個(gè)殘差連接,以滿足更短的有效梯度傳播路徑。通過(guò)使用具有sigmoid函數(shù)的全局最大池化來(lái)增強(qiáng)由全局平均池化生成的信道映射,對(duì)通道注意力模塊進(jìn)行改進(jìn),得到增強(qiáng)型通道注意力模塊(ECAM),從而增強(qiáng)通道特征聚合并減少多層感知器(MLP)計(jì)算。通過(guò)ECAM和空間注意力模塊(SAM),特征提取網(wǎng)絡(luò)可以自適應(yīng)地調(diào)整輸入的特征圖,并集中在其中重要的特征部分。

    ICBAM混合注意力機(jī)制計(jì)算過(guò)程表示為

    Fx=Meca(F)F(1)

    Fs=(Msa(Fx)Fx)F (2)

    式中:特征圖F∈RC×H×W,C為特征圖的通道數(shù),H×W為特征圖大??;Meca(F)為通道注意力特征;Msa(Fx)為空間注意力特征;Fx表示通過(guò)ECAM得到的特征圖。

    在提取原網(wǎng)絡(luò)特征之后,利用ICBAM注意力機(jī)制將通道注意力和空間注意力串聯(lián)。在模型訓(xùn)練過(guò)程中對(duì)于異物目標(biāo)分配更多的權(quán)值參數(shù),對(duì)原有的入侵異物特征圖進(jìn)行信息提煉,突出前景異物目標(biāo)的權(quán)重,使網(wǎng)絡(luò)在學(xué)習(xí)過(guò)程中更關(guān)注于前景異物的特征,提高對(duì)目標(biāo)對(duì)象的特征提取能力。將ICBAM注意力機(jī)制應(yīng)用于鐵路周界異物入侵檢測(cè),可以提升算法對(duì)異物目標(biāo)的提取能力,改善由于復(fù)雜環(huán)境引起的異物目標(biāo)特征信息減弱,致使檢測(cè)的準(zhǔn)確性降低等問題。應(yīng)用該注意力機(jī)制可以保留更多的特征信息來(lái)提升網(wǎng)絡(luò)對(duì)全局信息的學(xué)習(xí),進(jìn)而提升網(wǎng)絡(luò)對(duì)異物目標(biāo)的檢測(cè)準(zhǔn)確率。ICBAM混合注意力模塊結(jié)構(gòu)如圖3所示。

    在混合注意力機(jī)制下,輸入特征圖F經(jīng)過(guò)ECAM,對(duì)特征圖在空間維度上進(jìn)行壓縮。ECAM突出顯示輸入特征有意義的通道,為了有效地計(jì)算通道注意力特征,使用sigmoid函數(shù)將全局平均池化操作乘以全局最大池化操作,以增強(qiáng)通道注意力。然后,將得到的參數(shù)通過(guò)多層感知器MLP進(jìn)行疊加,進(jìn)一步壓縮輸入特征圖的空間維度,以生成通道注意力特征Meca(F)。輸出特征圖計(jì)算公式為

    Meca(F)=σ(W2(W1(Fecavgσ(Fecmax))))(3)

    式中:σ表示sigmoid函數(shù);Fecavg和Fecmax分別為通道注意力機(jī)制的全局平均池化運(yùn)算和最大平均池化運(yùn)算;W1和W2分別為多層感知器第1層和第2層權(quán)重。

    將給定特征圖Fx送入SAM,沿通道維度聚合空間信息,連接平均池化和最大池化特征圖。然后,通過(guò)卷積和sigmoid函數(shù)激活,得到空間注意力特征Msa(F),計(jì)算公式為

    Msa(F)=σ(f7×7(Fsavg; Fsmax)) (4)

    式中:f7×7表示濾波器為7×7的卷積運(yùn)算,7×7表示卷積核的尺寸;Fsavg和Fsmax分別為空間注意力機(jī)制的平均池化運(yùn)算和最大平均池化運(yùn)算。

    2.2 Ghost模塊的構(gòu)建

    由于卷積神經(jīng)網(wǎng)絡(luò)的不斷發(fā)展和對(duì)于嵌入式設(shè)備需求的增加,在有限的計(jì)算資源下部署更高效的神經(jīng)網(wǎng)絡(luò)已成為神經(jīng)網(wǎng)絡(luò)發(fā)展的迫切需求。Han等[21]利用特征圖的冗余特性進(jìn)行一系列的線性變換,提出了一種更輕量級(jí)的卷積模塊GhostConv,使用更少的參數(shù)和計(jì)算實(shí)現(xiàn)更多的特征圖。普通卷積和GhostConv卷積對(duì)比如圖4所示。

    為了減少生成冗余特征圖所需的濾波器的數(shù)量,本文利用這種輕量級(jí)的GhostConv模塊代替YOLOv7模型中的普通卷積模塊,可減少網(wǎng)絡(luò)的計(jì)算量和參數(shù)量。使用Ghost卷積層替換標(biāo)準(zhǔn)卷積層,但保留了批處理歸一化和SiLU激活函數(shù),使得CBS模塊變?yōu)镚BS模塊,也使得其他模塊轉(zhuǎn)變?yōu)镚host對(duì)應(yīng)模塊。

    GhostConv卷積在常規(guī)卷積的基礎(chǔ)上進(jìn)行了線性運(yùn)算,首先是通過(guò)提取特征信息進(jìn)行少量卷積,獲得一般特征圖;然后利用普通卷積給出的固有特性映射,將一般特征圖中的每一個(gè)通道的特征做線性運(yùn)算,生成同等通道數(shù)的Ghost特征圖,可以在幾乎不影響檢測(cè)精度的同時(shí)有效降低普通卷積的冗余性;最后將兩次獲得的特征圖堆疊起來(lái),形成新的輸出特征圖。GhostConv卷積在保證模型性能的情況下,大幅度減少參數(shù)和計(jì)算量,從而實(shí)現(xiàn)更高效、更輕量級(jí)的網(wǎng)絡(luò)部署。

    假設(shè)輸入特征圖的高、寬和通道數(shù)分別為c、h、w,經(jīng)過(guò)一次卷積后輸出特征的高度和寬度為H、W,卷積核數(shù)量為n,卷積核大小為k,線性變換卷積核大小為d,經(jīng)過(guò)s次變換,普通卷積操作的計(jì)算量與GhostConv卷積的計(jì)算量之比為

    rs=nHWckk

    (n/s)HWckk+(s-1)(n/s)HWdd=

    ckk(1/s)ckk+((s-1)/s)dd≈scs+c-1≈s(5)

    式中:n/s為第1次變換時(shí)的輸出通道數(shù)目;s-1是恒等映射不需要進(jìn)行計(jì)算,但也算作第2次變換中的一部分。

    計(jì)算卷積核的參數(shù)量為

    rc=nckk

    (n/s)ckk+(s-1)(n/s)dd≈

    scs+c-1≈s(6)

    結(jié)合式(5)和式(6)可以看出,計(jì)算量和參數(shù)量之比受變換數(shù)量s的影響,即生成特征圖越多,模型加速效果越好。在模型中引入GhostConv卷積可以有效減少模型的計(jì)算量和參數(shù)量,提高模型的運(yùn)行速度和效率。

    2.3 多尺度特征融合網(wǎng)絡(luò)

    有效的特征融合可以增強(qiáng)目標(biāo)檢測(cè)的精度,不同特征金字塔如圖5所示。特征金字塔網(wǎng)絡(luò)(FPN)[22]提出了一種自頂向下的路徑,具有橫向連接,通過(guò)構(gòu)造多尺度特征融合結(jié)構(gòu)來(lái)傳播語(yǔ)義上較強(qiáng)的路徑。在FPN中建立一條自上而下的通路,進(jìn)行特征融合,用融合后的具有更高語(yǔ)義信息的特征圖進(jìn)行預(yù)測(cè),可以提高一定的精度,結(jié)構(gòu)如圖5(a)所示。但是經(jīng)過(guò)研究發(fā)現(xiàn),這種自頂向下的FPN網(wǎng)絡(luò)受到單向信息流約束的影響,精度不能得到有效提高?;诖耍琍ANet引入自底向上的路徑,縮短底層與頂層特征之間的信息路徑,通過(guò)雙向融合網(wǎng)絡(luò)深層特征圖的語(yǔ)義信息和淺層特征圖的定位信息提高了檢測(cè)精度,讓頂層網(wǎng)絡(luò)在保持語(yǔ)義特征的同時(shí)增加了空間特征[23]。YOLOv7在特征融合網(wǎng)絡(luò)層采用PANet結(jié)構(gòu),該結(jié)構(gòu)具有自頂向下和自底向上的特點(diǎn),結(jié)構(gòu)如圖5(b)所示。這種結(jié)構(gòu)增加了參數(shù)量,降低了模型效率,只通過(guò)簡(jiǎn)單的求和運(yùn)算來(lái)融合來(lái)自不同層的特征,導(dǎo)致特征融合不夠充分。

    為了解決這一問題,在以PANet為基礎(chǔ)的框架上,借鑒加權(quán)雙向特征金字塔網(wǎng)絡(luò) (BiFPN)[24]結(jié)構(gòu)的設(shè)計(jì)思想,本文提出了N-BiFPN作為多尺度特征融合模塊。該模塊旨在實(shí)現(xiàn)不同尺度特征圖的融合,從而加強(qiáng)特征信息表達(dá),實(shí)現(xiàn)對(duì)特征的多尺度融合和上下文信息的豐富,結(jié)構(gòu)如圖5(c)所示。

    N-BiFPN在PANet的基礎(chǔ)上,移除PANet中的單輸入節(jié)點(diǎn),該節(jié)點(diǎn)所包含信息較少,沒有進(jìn)行特征融合,刪除該節(jié)點(diǎn)可以簡(jiǎn)化多尺度融合結(jié)構(gòu),減少計(jì)算量。在原始輸入節(jié)點(diǎn)和輸出節(jié)點(diǎn)之間添加新的聚合路徑,在節(jié)省資源消耗的同時(shí)融合更多的特征信息。N-BiFPN通過(guò)構(gòu)造雙向通道實(shí)現(xiàn)跨尺度連接,將特征提取網(wǎng)絡(luò)中的特征直接與自下而上路徑中的相對(duì)大小特征融合。自頂向下的路徑可以提高網(wǎng)絡(luò)的識(shí)別能力,向底層網(wǎng)絡(luò)傳遞強(qiáng)語(yǔ)義信息,自底向上的路徑增強(qiáng)網(wǎng)絡(luò)特征層次的定位能力,保留了更淺層的細(xì)節(jié)特征。為改善多尺度特征融合效果,針對(duì)每個(gè)輸入特征設(shè)置了一個(gè)可學(xué)習(xí)的特征融合因子,并采用通道級(jí)聯(lián)的方式進(jìn)行特征融合的操作。這種方式在保留更多特征信息的同時(shí),可以簡(jiǎn)化融合計(jì)算,降低冗余操作。

    N-BiFPN相當(dāng)于一個(gè)具有權(quán)重的特征融合機(jī)制,權(quán)重信息在所有特征層之間共享,通過(guò)有效的路徑優(yōu)化實(shí)現(xiàn)路徑增強(qiáng),確保網(wǎng)絡(luò)在訓(xùn)練過(guò)程中逐漸學(xué)習(xí)每個(gè)輸入特征的重要信息。同時(shí),多尺度特征融合可以提高模型的感受野,在不同尺度上提取和融合多尺度的特征信息,提高對(duì)多尺度目標(biāo)的檢測(cè)性能,使模型能夠更好地理解所采集鐵軌圖像中的異物。這種多尺度的特征融合網(wǎng)絡(luò)可以提高檢測(cè)精度,使得模型能夠在不同尺度物體上進(jìn)行檢測(cè)。

    N-BiFPN結(jié)構(gòu)采用快速歸一化融合方法進(jìn)行權(quán)值融合,其加權(quán)特征融合公式為

    O=∑iwiε+∑iwjIi (7)

    式中:O表示加權(quán)特征融合的輸出特征;Ii表示輸入的特征;wi、wj表示可學(xué)習(xí)的特征融合因子;ε表示用于約束數(shù)值振蕩的極小值學(xué)習(xí)率。

    以節(jié)點(diǎn)P4為例,N-BiFPN特征融合過(guò)程如下

    F4=Convw3P4+DBS(P5)

    w3+w4+ε (8)

    N4=Convw3P4+w4F4+w4DBS(N3)

    w3+w4+w5+ε (9)

    式中:Pi為第i層的輸入特征;Fi為自上而下的中間特征;Ni 為自下而上的輸出特征;Conv表示卷積運(yùn)算操作;wi為各層對(duì)應(yīng)的權(quán)重,描述特征融合過(guò)程中各個(gè)特征的重要程度;DBS為輸入的上采樣或下采樣運(yùn)算。

    2.4 損失函數(shù)的改進(jìn)

    損失函數(shù)用來(lái)衡量預(yù)測(cè)結(jié)果與實(shí)際標(biāo)簽之間的差異,合理設(shè)計(jì)的損失函數(shù)可以顯著提高模型的檢測(cè)性能。邊界框損失函數(shù)作為目標(biāo)檢測(cè)損失函數(shù)的重要組成部分,良好的改進(jìn)將為目標(biāo)檢測(cè)模型帶來(lái)顯著的性能提升。原YOLOv7采用的CIoU(complete intersection over union)損失函數(shù)[25],考慮了預(yù)測(cè)框與真實(shí)框的長(zhǎng)寬比、中心點(diǎn)距離、重疊面積,但是對(duì)于小標(biāo)注框和低質(zhì)量標(biāo)注框的回歸有一定局限性,且CIoU 損失函數(shù)的計(jì)算十分耗時(shí),最終導(dǎo)致較長(zhǎng)的訓(xùn)練時(shí)間。CIoU的相關(guān)公式如下

    LCloU=1-IoU+ ρ2(b,bgt)c2+αv(10)

    α=v(1-IoU)+v (11)

    v=4π2arctanwgthgt-arctanwg2 (12)

    式中:IoU為交并比,即預(yù)測(cè)框與真實(shí)框的交集除以二者的并集;b、bgt分別為預(yù)測(cè)框和真實(shí)框的中心點(diǎn);ρ為兩個(gè)中心點(diǎn)之間的歐式距離;α表示權(quán)重函數(shù);v為用來(lái)衡量預(yù)測(cè)框與真實(shí)框之間的寬高比的一致性;wgt、hgt為真實(shí)框的寬和高。相關(guān)參數(shù)示意如圖6所示,其中ch和cw為預(yù)測(cè)框和真實(shí)框形成的最小封閉框的高度和寬度。

    CIoU中預(yù)測(cè)框的寬和高w、h相對(duì)于v的梯度如下

    vw=8π2arctanwh-arctanwgthgt2hh2+w2 (13)

    vh=8π2arctanwh-arctanwgthgt2wh2+w2 (14)

    由式(13)和式(14)可以看出,以上兩個(gè)梯度呈現(xiàn)相反態(tài)勢(shì),即w、h不能同時(shí)增大或者縮小。故而,為降低低質(zhì)量標(biāo)注框?qū)z測(cè)性能的干擾,進(jìn)一步提高檢測(cè)精度,本文引入LWIoUv3損失函數(shù)[26]。WIoU損失函數(shù)是基于動(dòng)態(tài)非單調(diào)聚集機(jī)制設(shè)計(jì)的,采用合理的梯度增益分配策略,使模型更聚焦于低質(zhì)量的錨框。WIoU因?yàn)闆]有對(duì)縱橫比進(jìn)行計(jì)算,相比于CIoU具有更快的速度,耗時(shí)少。WIoU相關(guān)公式如下

    LWIoUv3=RWIoULIoU (15)

    RWIoU=exp(bgtcx-bcx)2+(bgtcy-bcy)2

    (c2w+c2h)* (16)

    IIoU=1-IoU(17)

    式中:RWIoU為懲罰項(xiàng);L為不同類型損失函數(shù);(bcx,bcy)和(bgtcx,bgtcy)分別表示真實(shí)框和預(yù)測(cè)框的中心點(diǎn)坐標(biāo);上標(biāo)*表示將ch和cw從計(jì)算圖中分離,防止RWIoU產(chǎn)生阻礙收斂的梯度。

    在式(15)的基礎(chǔ)上,構(gòu)造單調(diào)聚集系數(shù)Lγ*IoU,得到

    LWIoUv2=Lγ*IoULWIoUv1, γgt;0 (18)

    在模型訓(xùn)練過(guò)程中,Lγ*IoU的梯度增益隨著LIoU的減小而減小,故而引入LIoU的均值作為歸一化因子,得到

    LWIoUv2=L*IoUIoUγLWIoUv1(19)

    式中:IoU為動(dòng)量m的平均運(yùn)行值;動(dòng)態(tài)更新歸一化因子使梯度增益r=L*IoULIoUγ保持在較高水平。

    在式(19)的基礎(chǔ)上,引入動(dòng)態(tài)非單調(diào)聚集系數(shù),得到

    LWIoUv3=rLWIoUv1 (20)

    r=βδαβ-σ (21)

    β=L*IoULIoU∈[0,+∞] (22)

    式中:β表示離群值;α和δ為控制梯度增益r的超參數(shù)。

    WIoUv3采用合理的梯度增益分配策略,動(dòng)態(tài)優(yōu)化損失中高低質(zhì)量錨框的權(quán)值,使模型聚集于平均質(zhì)量樣本,提高模型的整體性能。與YOLOv7模型中的原始損失計(jì)算相比,在鐵軌異物檢測(cè)任務(wù)中,WIoUv3損失函數(shù)可以動(dòng)態(tài)優(yōu)化不同尺度異物的損失權(quán)重,提高模型的檢測(cè)性能。

    3 實(shí)驗(yàn)與結(jié)果分析

    3.1 鐵路軌道異物檢測(cè)存在的問題

    在實(shí)際鐵路軌道交通場(chǎng)景中,鐵軌異物可能會(huì)因?yàn)榱熊囋谶\(yùn)行過(guò)程中,導(dǎo)致攝像機(jī)采集的圖像視角差異,增加了異物目標(biāo)誤檢的可能性。不同天氣狀況也可能導(dǎo)致誤檢率上升。為提高模型的泛化能力,需要在訓(xùn)練過(guò)程中包含不同天氣狀況下的數(shù)據(jù);鐵路軌道異物目標(biāo)具有隨機(jī)性,容易發(fā)生異物的遮擋,導(dǎo)致多個(gè)目標(biāo)中可能出現(xiàn)漏檢誤檢的問題。

    現(xiàn)有的公開數(shù)據(jù)集并不適用于鐵路軌道異物入侵檢測(cè),需要構(gòu)建專門的數(shù)據(jù)集,并采取相應(yīng)的方法以解決問題,提高異物檢測(cè)的準(zhǔn)確率。

    3.2 數(shù)據(jù)集

    由于目前尚無(wú)公開的鐵路入侵異物數(shù)據(jù)集,根據(jù)實(shí)驗(yàn)的需要,建立鐵軌異物目標(biāo)入侵的數(shù)據(jù)集,模擬真實(shí)環(huán)境中的入侵。該數(shù)據(jù)集分為2部分,一部分是從公開數(shù)據(jù)集(Pascal voc2007/2012)中選取具有與本文研究對(duì)象特征相近的數(shù)據(jù);另一部分從不同的拍攝角度和場(chǎng)景中采集所有可能妨礙鐵路系統(tǒng)正常運(yùn)行的物體,以創(chuàng)建鐵路異物檢測(cè)數(shù)據(jù)集。在實(shí)驗(yàn)中,選擇行人、汽車、火車和動(dòng)物等典型異物作為研究對(duì)象。

    為增加模型在實(shí)際情況下的泛化能力,防止因數(shù)據(jù)不足而產(chǎn)生的過(guò)擬合現(xiàn)象,對(duì)所獲得的原始數(shù)據(jù)采取圖像增強(qiáng)的方法,增加訓(xùn)練數(shù)據(jù)集中圖像的變化。通過(guò)隨機(jī)調(diào)整對(duì)比度、增加噪聲、旋轉(zhuǎn)、調(diào)節(jié)亮度等操作,將訓(xùn)練樣本的數(shù)量增加了35%,進(jìn)一步提高了模型的泛化能力,防止數(shù)據(jù)集中存在可能的偏差。

    數(shù)據(jù)集分為6500個(gè)訓(xùn)練集、1000個(gè)驗(yàn)證集和1000個(gè)測(cè)試集,用于評(píng)估每種策略的性能實(shí)驗(yàn)。為了制備數(shù)據(jù)集,由于檢測(cè)任務(wù)是有監(jiān)督的機(jī)器學(xué)習(xí)問題,因此需要將地面真實(shí)標(biāo)簽返送到模型以進(jìn)行訓(xùn)練。使用開源圖像標(biāo)注工具LabelImg,對(duì)經(jīng)過(guò)預(yù)處理的數(shù)據(jù)集進(jìn)行人工標(biāo)注,部分?jǐn)?shù)據(jù)集標(biāo)注結(jié)果如圖7所示。

    3.3 實(shí)驗(yàn)環(huán)境

    本文的實(shí)驗(yàn)環(huán)境:基于Python3.9版,CUDA 11.2版,編程軟件為PyCharm,實(shí)驗(yàn)?zāi)P偷拇罱?、?xùn)練和測(cè)試均在深度學(xué)習(xí)Pytorch框架下完成,采用Windows10操作系統(tǒng),搭載NVIDIA RTX3060顯卡。

    3.4 評(píng)價(jià)指標(biāo)

    本文采用以下指標(biāo)來(lái)評(píng)估模型的性能:平均精確度(記作PmAP)、精確度(P)、召回率(R)、檢測(cè)速度(FPS)和計(jì)算量(GLOPs)。計(jì)算公式如下

    P=TPTP+FP (23)

    R=TPTP+FN (24)

    PmAP=1n∑ni=1PA=∫10P(R)dR (25)

    式中:TP為陽(yáng)性樣本被正確分類;TN為陰性樣本被正確分類;FP為陰性樣本被錯(cuò)誤分類;FN為陽(yáng)性樣本被錯(cuò)誤分類;n為所有類別數(shù)量;PA為目標(biāo)類別的平均精確度。

    3.5 鐵軌異物入侵檢測(cè)實(shí)驗(yàn)結(jié)果

    3.5.1 混淆矩陣

    混淆矩陣又稱誤差矩陣,是一種常見的用于評(píng)估分類器性能的方法,反映了樣本數(shù)據(jù)的真實(shí)類別與分類器的預(yù)測(cè)類別之間的關(guān)系[27]?;煜仃囍袡M軸表示預(yù)測(cè)值,縱軸表示真實(shí)值,圖中對(duì)角線為正確識(shí)別的樣本數(shù),顏色越深表示數(shù)量越多。通過(guò)混淆矩陣對(duì)測(cè)試結(jié)果進(jìn)行可視化,不僅能統(tǒng)計(jì)每個(gè)類別的正確識(shí)別數(shù),而且可以了解錯(cuò)誤識(shí)別的分布情況。在相同數(shù)據(jù)集中,由YOLOv7和RMF-YOLO檢測(cè)到的混淆矩陣如圖8所示。

    從圖8可以看出:本文提出的RMF-YOLO算法模型中混淆矩陣的對(duì)角線區(qū)域顏色比YOLOv7深,表明該算法正確預(yù)測(cè)目標(biāo)類別的能力得到了增強(qiáng)。在原YOLOv7中,對(duì)于行人、狗、貓等小型物體的漏檢率較高,改進(jìn)后的模型降低了這些類別的漏檢率,檢測(cè)正確率分別提高了5.84%、8.78%、9.25%、7.84%。該算法各類別異物部分檢測(cè)結(jié)果如圖9所示,圖中數(shù)值為目標(biāo)類別的置信度。

    3.5.2 對(duì)比實(shí)驗(yàn)

    (1)不同注意力機(jī)制對(duì)比實(shí)驗(yàn)。為了驗(yàn)證本文所提出的ICBAM混合注意力模塊的有效性,進(jìn)行實(shí)驗(yàn)驗(yàn)證,并將ICBAM混合注意力模塊與其他常用的注意力模塊進(jìn)行比較,實(shí)驗(yàn)結(jié)果如表1所示,PmAP@0.5表示Iov為0.5時(shí)的平均精度。

    由表1可得,在基準(zhǔn)模型中分別引進(jìn)5種注意力機(jī)制后,本文所提出的ICBAM混合注意力機(jī)制檢測(cè)精度優(yōu)于其他4種注意力機(jī)制。與其他注意力機(jī)制相比,+ICBAM的精確度、召回率和平均精確度PmAP分別提高了1.4%、1.5% 和1.2%,圖片處理速度提高到90幀/s。同時(shí),ICBAM混合注意力機(jī)制在保持良好檢測(cè)精度的同時(shí)保證了檢測(cè)的實(shí)時(shí)性,能夠有效提升模型對(duì)不同尺度異物的檢測(cè)能力,驗(yàn)證了該方法的可行性。在鐵路軌道異物入侵檢測(cè)過(guò)程中,利用深層次特征提取網(wǎng)絡(luò)雖然能增強(qiáng)入侵異物的特征感知,但是會(huì)影響模型的推理速度,提高網(wǎng)絡(luò)的復(fù)雜度。使用注意力機(jī)制既能保證模型的速度,又能在一定程度上消除背景噪聲干擾,提高特征提取網(wǎng)絡(luò)對(duì)異物特征的感知能力。

    (2)不同場(chǎng)景下多種檢測(cè)算法檢測(cè)結(jié)果的對(duì)比實(shí)驗(yàn)。使用訓(xùn)練好的檢測(cè)模型分別針對(duì)遮擋、多尺度及沙塵天氣等不同復(fù)雜場(chǎng)景,利用多種主流檢測(cè)算法對(duì)不同的入侵異物進(jìn)行實(shí)驗(yàn)對(duì)比,結(jié)果如圖10~圖12所示。

    對(duì)于異物具有遮擋的場(chǎng)景,YOLOv5和YOLOv7算法均存在不同程度因遮擋發(fā)生少檢、漏檢情況;文獻(xiàn)[9]算法對(duì)于近端的異物檢測(cè)置信度較高,但對(duì)于遠(yuǎn)端的異物存在漏檢,且置信度較低;文獻(xiàn)[16]算法部分遮擋人物也出現(xiàn)了漏檢的現(xiàn)象;YOLOX-S算法[28]對(duì)于遮擋異物的檢測(cè)有所提高,但是對(duì)于特殊姿勢(shì)的檢測(cè)率較低;本文算法RMF-YOLO可以檢出全部異物,對(duì)于特殊姿勢(shì)的異物檢測(cè)更準(zhǔn)確,且定位更加精確,置信度更高,證明本文的算法可以有效提高模型定位精度,提高模型魯棒性。圖10檢測(cè)結(jié)果中工人手中的工具通常不會(huì)構(gòu)成安全隱患,因此本文方法主要關(guān)注鐵軌上的異物目標(biāo)而非工人手中的工具,未單獨(dú)檢測(cè)到工具不影響我們方法的有效性和可靠性。

    對(duì)于不同尺度的異物場(chǎng)景,尤其針對(duì)由于攝像頭距離引起的遠(yuǎn)端異物的檢測(cè),YOLOv5、YOLOv7、YOLOX-S和文獻(xiàn)[16] 算法均存在像素占用小的漏檢目標(biāo)的情況,僅檢測(cè)出大尺度的異物目標(biāo)。文獻(xiàn)[9]算法雖然可以檢測(cè)出較小尺寸的異物,但是置信度較低。本文算法RMF-YOLO可以有效檢測(cè)出不同尺度的入侵異物,與YOLOv7相比,RMF-YOLO在準(zhǔn)確性和錨幀回歸方面表現(xiàn)出性能優(yōu)勢(shì),證明本文方法提高了對(duì)不同尺度的鐵軌入侵異物的感知能力。

    對(duì)于沙塵復(fù)雜環(huán)境下的場(chǎng)景,YOLOv5、文獻(xiàn)[9]和文獻(xiàn)[16]算法受到環(huán)境的影響,較大尺度異物的置信度有所下降;文獻(xiàn)[16]算法和YOLOX-S對(duì)于特殊姿勢(shì)的異物檢測(cè)精確度低;與YOLOv7相比,本文RMF-YOLO算法異物檢測(cè)的置信度更高,對(duì)于不同尺度異物檢測(cè)的精確度均有所提高,可以證明本文算法對(duì)于沙塵環(huán)境影響下的特征提取也有改善。

    (3)主流目標(biāo)檢測(cè)算法對(duì)比實(shí)驗(yàn)。為了進(jìn)一步驗(yàn)證本文算法的有效性和優(yōu)越性,在同樣的訓(xùn)練條件和數(shù)據(jù)的前提下,將本文提出的算法與其他算法進(jìn)行對(duì)比,結(jié)果見表2。

    通過(guò)表2中不同算法的實(shí)驗(yàn)結(jié)果可以看出,本文算法RMF-YOLO的平均精確度PmAP指標(biāo)明顯高于其他主流目標(biāo)檢測(cè)算法,具有較高的檢測(cè)精度,比原YOLOv7的PmAP提高了5.5%,比YOLOv5提高了6.1%,比YOLOv3-SPP提高了7.5%。與SSD-MonileNet、Mask R-CNN、YOLOX-S和YOLO7-tiny算法相比,本文算法的檢測(cè)準(zhǔn)確率分別提高了8.3%、9.3%、5.3%和5.5%。相對(duì)于具有相近檢測(cè)速度YOLOv5和YOLOv3-SPP算法來(lái)說(shuō),本文算法的檢測(cè)準(zhǔn)確率明顯優(yōu)勢(shì),雖然YOLOv7-tiny具有更高的檢測(cè)速度,但其檢測(cè)精度相對(duì)較低,無(wú)法滿足對(duì)復(fù)雜的鐵路環(huán)境下的異物檢測(cè)。本文算法的平均精確度PmAP和檢測(cè)速度都高于原YOLOv7目標(biāo)檢測(cè)算法,檢測(cè)精度上有了顯著的提高,每秒幀數(shù)提高了5.88%,達(dá)到了速度和精度的平衡。綜上所述,本文所提算法與其他主流算法相比更加符合復(fù)雜道路場(chǎng)景目標(biāo)檢測(cè)的實(shí)時(shí)性和準(zhǔn)確性需求。

    3.5.3 消融實(shí)驗(yàn)

    消融實(shí)驗(yàn)是通過(guò)在完整模型中移除一個(gè)或多個(gè)模塊,來(lái)檢測(cè)對(duì)模型的性能影響。為了驗(yàn)證本文提出的優(yōu)化措施的效果,依次對(duì)RMF-YOLO網(wǎng)絡(luò)進(jìn)行縮減,分別在測(cè)試集上進(jìn)行消融實(shí)驗(yàn),以評(píng)價(jià)各個(gè)優(yōu)化模塊對(duì)檢測(cè)算法性能的影響,結(jié)果如表3所示。

    從表3可以看出,第2組在原始模型基礎(chǔ)上融合了GhostConv模塊,與普通卷積模塊相比,GhostConv模塊能夠提高模型精度,同時(shí)降低模型復(fù)雜度,檢測(cè)速度提高了9.41%,浮點(diǎn)運(yùn)算次數(shù)減少了26.41%。第3組實(shí)驗(yàn)在第2組的基礎(chǔ)上加入了ICBAM注意力機(jī)制模塊,檢測(cè)計(jì)算量大幅上升,識(shí)別速度有所降低,但是檢測(cè)精度提高了1.1%,表明該模塊對(duì)原始模型的精度提升起到了關(guān)鍵作用。第4組實(shí)驗(yàn)則在原模型中引入了ICBAM和N-BiFPN模塊,在異物檢測(cè)的平均精度方面有了顯著提高,較原始基準(zhǔn)模型的PmAP 提高了2.2%。第5組實(shí)驗(yàn)采用了ICBAM和改進(jìn)的損失函數(shù),精度提升了1.6%,證明對(duì)識(shí)別目標(biāo)的尺寸和位置進(jìn)行有針對(duì)性的算法改進(jìn)具有意義。第6組實(shí)驗(yàn)檢測(cè)精度提高了1.4%,而檢測(cè)速度降低了4.71%。第7組實(shí)驗(yàn),在對(duì)損失函數(shù)進(jìn)行替換后,模型性能達(dá)到最佳,與原基準(zhǔn)實(shí)驗(yàn)相比,PmAP提高了5.5%,幀數(shù)提高到90,計(jì)算量減少了12.25%,表明模型具有較好的泛化能力,進(jìn)一步驗(yàn)證了本模型方案的有效性。

    4 結(jié)束語(yǔ)

    本文針對(duì)鐵路軌道異物檢測(cè)中的挑戰(zhàn),開展了基于多尺度特征融合RMF-YOLO算法的鐵軌異物檢測(cè)研究。以YOLOv7為骨干網(wǎng)絡(luò)設(shè)計(jì)并引入ICBAM注意力機(jī)制,增強(qiáng)了網(wǎng)絡(luò)對(duì)關(guān)鍵特征的關(guān)注和特征提取能力。采用GhostConv替代原模型中的普通卷積層,提高了檢測(cè)速度。提出N-BiFPN結(jié)構(gòu)進(jìn)行跨層特征融合,充分結(jié)合深層語(yǔ)義特征和淺層位置特征,增強(qiáng)了網(wǎng)絡(luò)的特征融合能力。最后,引入WIoUv3損失函數(shù),采用動(dòng)態(tài)樣本分配策略,降低了模型對(duì)極端樣本的關(guān)注,提升了模型整體效果。

    實(shí)驗(yàn)結(jié)果表明,本文提出的RMF-YOLO算法具有更高的檢測(cè)精度,對(duì)于遮擋和尺度不一的異物檢測(cè)能力均有所提高,改善了漏檢誤檢的情況,滿足復(fù)雜環(huán)境背景下鐵軌異物檢測(cè)實(shí)時(shí)性的要求。相較于YOLOv7 算法,檢測(cè)精度提升了5.5%,每秒幀數(shù)提高了5.88%,計(jì)算量減少了12.25%。與現(xiàn)有的主流算法相比,該方法在提高檢測(cè)精度的同時(shí)降低了對(duì)計(jì)算能力的要求,易于部署在資源受限的設(shè)備上。

    參考文獻(xiàn):

    [1]RISTIC-DURRANT D, FRANKE M, MICHELS K. A review of vision-based on-board obstacle detection and distance estimation in railways [J]. Sensors, 2021, 21(10): 3452.

    [2]LEI Yang, HE Xiuxiu, YAO Jincao, et al. Breast tumor segmentation in 3D automatic breast ultrasound using mask scoring R-CNN [J]. Medical Physics, 2021, 48(1): 204-214.

    [3]LAW H, DENG Jia. CornerNet: detecting objects as paired keypoints [J]. International Journal of Computer Vision, 2020, 128(3): 642-656.

    [4]XU Renjie, LIN Haifeng, LU Kangjie, et al. A forest fire detection system based on ensemble learning [J]. Forests, 2021, 12(2): 217.

    [5]CAO Jinghao, ZHANG Junju, JIN Xin. A traffic-sign detection algorithm based on improved sparse R-CNN [J]. IEEE Access, 2021, 9: 122774-122788.

    [6]WANG Dashuai, LI Zhuolin, DU Xiaoqiang, et al. Farmland obstacle detection from the perspective of UAVs based on non-local deformable DETR [J]. Agriculture, 2022, 12(12): 1983.

    [7]GUO Baoqing, SHI Jiafeng, ZHU Liqiang, et al. High-speed railway clearance intrusion detection with improved SSD network [J]. Applied Sciences, 2019, 9(15): 2981.

    [8]汪世財(cái), 談東奎, 謝有浩, 等. 基于激光雷達(dá)點(diǎn)云密度特征的智能車障礙物檢測(cè)與跟蹤 [J]. 合肥工業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版), 2019, 42(10): 1311-1317.

    WANG Shicai, TAN Dongkui, XIE Youhao, et al. Obstacle detection and tracking for intelligent vehicle based on density characteristics of point cloud using 3D lidar [J]. Journal of Hefei University of Technology(Natural Science), 2019, 42(10): 1311-1317.

    [9]徐巖, 陶慧青, 虎麗麗. 基于Faster R-CNN網(wǎng)絡(luò)模型的鐵路異物侵限檢測(cè)算法研究 [J]. 鐵道學(xué)報(bào), 2020, 42(5): 91-98.

    XU Yan, TAO Huiqing, HU Lili. Railway foreign body intrusion detection based on Faster R-CNN network model [J]. Journal of the China Railway Society, 2020, 42(5): 91-98.

    [10]張劍, 王等準(zhǔn), 莫光健, 等. 基于改進(jìn)YOLOv3的高鐵異物入侵檢測(cè)算法 [J]. 計(jì)算機(jī)技術(shù)與發(fā)展, 2022, 32(2): 69-74.

    ZHANG Jian, WANG Dengzhun, MO Guangjian, et al. High-speed rail foreign body intrusion detection algorithm based on improved YOLOv3 [J]. Computer Technology and Development, 2022, 32(2): 69-74.

    [11]HUSSAIN R, KARBHARI Y, IJAZ M F, et al. Revise-net: exploiting reverse attention mechanism for salient object detection [J]. Remote Sensing, 2021, 13(23): 4941.

    [12]胡行濤, 劉大明, 虞發(fā)桐. 基于FCN不確定性特征的鐵路入侵異物檢測(cè)算法 [J]. 計(jì)算機(jī)應(yīng)用與軟件, 2023, 40(4): 141-146.

    HU Xingtao, LIU Daming, YU Fatong. Foreign intrusion object detection algorithm for railway intrusion based on FCN uncertainty [J]. Computer Applications and Software, 2023, 40(4): 141-146.

    [13]CAI Huiling, LI Fei, GAO Dianzhu, et al. Foreign objects intrusion detection using millimeter wave radar on railway crossings [C]//2020 IEEE International Conference on Systems, Man, and Cybernetics (SMC).Piscataway, NJ, USA: IEEE, 2020: 2776-2781.

    [14]HE Deqiang, QIU Yefeng, MIAO Jian, et al. Improved mask R-CNN for obstacle detection of rail transit [J]. Measurement, 2022, 190: 110728.

    [15]WANG Yao, YU Zujun, ZHU Liqiang. Intrusion detection for high-speed railways based on unsupervised anomaly detection models [J]. Applied Intelligence, 2023, 53(7): 8453-8466.

    [16]管嶺, 賈利民, 謝征宇. 融合注意力機(jī)制的軌道入侵異物檢測(cè)輕量級(jí)模型研究 [J]. 鐵道學(xué)報(bào), 2023, 45(5): 72-81.

    GUAN Ling, JIA Limin, XIE Zhengyu. Research on lightweight model for railway intrusion detection integrating attention mechanism [J]. Journal of the China Railway Society, 2023, 45(5): 72-81.

    [17]HE Deqiang, YANG Yanjie, CHEN Yanjun, et al. An integrated optimization model of metro energy consumption based on regenerative energy and passenger transfer [J]. Applied Energy, 2020, 264: 114770.

    [18]WANG C Y, BOCHKOVSKIY A, LIAO H-Y M. YOLOv7: trainable bag-of-freebies sets new state-of-the-art for real-time object detectors [C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Piscataway, NJ, USA: IEEE, 2023: 7464-7475.

    [19]HUANG Peile, WANG Shenghuai, CHEN Jianyu, et al. Lightweight model for pavement defect detection based on improved YOLOv7 [J]. Sensors, 2023, 23(16): 7112.

    [20]WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module [C]//Computer Vision-ECCV 2018. Cham, Germany: Springer International Publishing, 2018: 3-19.

    [21]HAN Kai, WANG Yunhe, TIAN Qi, et al. GhostNet: more features from cheap operations [C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Piscataway, NJ, USA: IEEE, 2020: 1577-1586.

    [22]ZHAO Xiaotong, LI Wei, ZHANG Yifan, et al. Aggregated residual dilation-based feature pyramid network for object detection [J]. IEEE Access, 2019, 7: 134014-134027.

    [23]YU Haifeng, LI Xinbin, FENG Yankai, et al. Multiple attentional path aggregation network for marine object detection [J]. Applied Intelligence, 2023, 53(2): 2434-2451.

    [24]SONG Zhiwei, HUANG Xinbo, JI Chao, et al. Intelligent identification method of hydrophobic grade of composite insulator based on efficient GA-YOLO former network [J]. IEEJ Transactions on Electrical and Electronic Engineering, 2023, 18(7): 1160-1175.

    [25]GAO Jinfeng, CHEN Yu, WEI Yongming, et al. Detection of specific building in remote sensing images using a novel YOLO-S-CIOU model. case: gas station identification [J]. Sensors, 2021, 21(4): 1375.

    [26]ZHAO Qing, WEI Honglei, ZHAI Xianyi. Improving tire specification character recognition in the YOLOv5 network [J]. Applied Sciences, 2023, 13(12): 7310.

    [27]張開放, 蘇華友, 竇勇. 一種基于混淆矩陣的多分類任務(wù)準(zhǔn)確率評(píng)估新方法 [J]. 計(jì)算機(jī)工程與科學(xué), 2021, 43(11): 1910-1919.

    ZHANG Kaifang, SU Huayou, DOU Yong. A new multi-classification task accuracy evaluation method based on confusion matrix [J]. Computer Engineering amp; Science, 2021, 43(11): 1910-1919.

    [28]GE Zheng, LIU Songtao, WANG Feng, et al. YOLOX: exceeding YOLO series in 2021 [EB/OL]. (2021-08-06)[2023-11-12]. https://arxiv.org/abs/2107.08430.

    [29]SU Xiaodong, HU Jianxing, CHEN Linzhou, et al. Research on real-time dense small target detection algorithm of UAV based on YOLOv3-SPP [J]. Journal of the Brazilian Society of Mechanical Sciences and Engineering, 2023, 45(9): 488.

    [30]TIAN Zhi, SHEN Chunhua, CHEN Hao, et al. FCOS: a simple and strong anchor-free object detector [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(4): 1922-1933.

    (編輯 杜秀杰)

    猜你喜歡
    多尺度特征融合
    基于多特征融合的圖像匹配算法
    人體行為特征融合與行為識(shí)別的分析
    基于移動(dòng)端的樹木葉片識(shí)別方法的研究
    科技資訊(2017年11期)2017-06-09 18:28:13
    基于SIFT特征的港口內(nèi)艦船檢測(cè)方法
    融合整體與局部特征的車輛型號(hào)識(shí)別方法
    基于多尺度融合插值算法的風(fēng)資源監(jiān)測(cè)方法
    海綿城市建設(shè)研究進(jìn)展與若干問題探討
    一種基于多尺度數(shù)學(xué)形態(tài)學(xué)的心電信號(hào)去噪方法
    多尺度高效用水評(píng)價(jià)
    云環(huán)境下改進(jìn)的非授權(quán)用戶入侵行為分析及檢測(cè)研究
    安陆市| 观塘区| 清流县| 金门县| 大埔县| 鄂托克前旗| 莱阳市| 兴文县| 石首市| 托里县| 沙雅县| 木里| 元江| 贵南县| 中宁县| 伊金霍洛旗| 普洱| 离岛区| 高州市| 盈江县| 湘阴县| 嵩明县| 新乡县| 包头市| 闵行区| 富宁县| 焦作市| 扎囊县| 临沭县| 怀安县| 察哈| 三台县| 屏南县| 金溪县| 栖霞市| 湘潭市| 阜平县| 怀化市| 天长市| 喀什市| 杨浦区|