• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    改進(jìn)YOLOv7的輕量化水下目標(biāo)檢測(cè)算法

    2024-03-03 11:21:18辛世澳葛海波楊雨迪
    關(guān)鍵詞:特征檢測(cè)模型

    辛世澳,葛海波,袁 昊,楊雨迪,姚 洋

    西安郵電大學(xué) 電子工程學(xué)院,西安 710121

    海洋是地球上最大的資源庫(kù),由于土地資源的過(guò)度開(kāi)發(fā)和水下設(shè)備的快速發(fā)展,海洋勘探日益頻繁[1]。為了支持這些勘探工作,要求相關(guān)水下設(shè)備必須執(zhí)行各種水下任務(wù),如目標(biāo)定位、生物特征識(shí)別、考古等。在此背景下,水下目標(biāo)檢測(cè)技術(shù)發(fā)揮著至關(guān)重要的作用。然而,惡劣的海洋環(huán)境對(duì)人類(lèi)并不友好,由于水下環(huán)境與陸地環(huán)境有很大的不同,水下目標(biāo)檢測(cè)面臨著挑戰(zhàn)。

    現(xiàn)階段水下目標(biāo)檢測(cè)主要面臨兩大挑戰(zhàn)。首先,水下環(huán)境十分復(fù)雜,由于不同波長(zhǎng)的光在水中的差異衰減以及浮游生物和水中懸浮顆粒對(duì)光的散射作用,使水下目標(biāo)變得模糊,嚴(yán)重影響了目標(biāo)的特征,給水下目標(biāo)的特征提取帶來(lái)了障礙。此外,水下目標(biāo)通常附著在泥、沙和珊瑚礁上,互相遮擋,很難與背景區(qū)分開(kāi)來(lái),導(dǎo)致檢測(cè)精度受到影響。其次,水下嵌入式設(shè)備的存儲(chǔ)和計(jì)算能力有限,使得大型檢測(cè)網(wǎng)絡(luò)在水下環(huán)境中失效,人們正在積極追求配備高效、準(zhǔn)確的目標(biāo)檢測(cè)算法的水下設(shè)備[2]。

    近年來(lái),由于深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域取得了巨大成功,基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的目標(biāo)檢測(cè)技術(shù)開(kāi)始廣泛應(yīng)用于水下生物探測(cè)?;谏疃葘W(xué)習(xí)的目標(biāo)檢測(cè)方法可以分為兩階段算法和單階段算法[3]。在兩階段目標(biāo)檢測(cè)算法中,首先識(shí)別含有目標(biāo)的候選區(qū)域,隨后用于對(duì)目標(biāo)進(jìn)行分類(lèi)和定位,代表算法有Fast RCNN(fast region-based CNN)[4]和Faster R-CNN(faster region-based CNN)[5]。盡管兩階段目標(biāo)檢測(cè)算法具有相對(duì)較高的檢測(cè)精度,但對(duì)于水下目標(biāo)檢測(cè)來(lái)說(shuō)相當(dāng)耗時(shí),不適合實(shí)時(shí)檢測(cè)任務(wù)。與兩階段目標(biāo)檢測(cè)方法相比,單階段算法沒(méi)有區(qū)域建議網(wǎng)絡(luò),而是直接在輸入圖像上生成相應(yīng)的預(yù)測(cè)框來(lái)檢測(cè)目標(biāo),該類(lèi)別中的代表性算法包括SSD(single shot multibox detector)[6]和YOLO(you only look once)[7]算法家族。因?yàn)橹苯宇A(yù)測(cè)分類(lèi)和定位,所以單階段目標(biāo)檢測(cè)算法消耗較少,適用于實(shí)時(shí)檢測(cè)任務(wù)。目前,由于水下硬件設(shè)備的限制,水下目標(biāo)檢測(cè)任務(wù)大多仍以單階段目標(biāo)檢測(cè)算法為主。

    在以往基于深度學(xué)習(xí)的水下目標(biāo)檢測(cè)研究中,大多數(shù)研究主要集中在利用大型網(wǎng)絡(luò)來(lái)提高檢測(cè)精度,導(dǎo)致模型參數(shù)量多,檢測(cè)速度慢。Zhang 等人[8]使用Mobile-Netv3作為YOLOv4的骨干特征提取網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)蝦的檢測(cè)和計(jì)數(shù)。Chen等人[9]使用Conv2Former作為YOLOv7網(wǎng)絡(luò)的Neck組件,使網(wǎng)絡(luò)能夠獲得更有價(jià)值的特征,并有效地融合它們,結(jié)果表明,該算法可以提高檢測(cè)精度,在模糊和顏色偏差的情況下也表現(xiàn)出很好的魯棒性。Li等人[10]通過(guò)在YOLOv5的Neck結(jié)構(gòu)中嵌入三重注意機(jī)制提高了特征提取能力,并優(yōu)化了檢測(cè)頭以捕獲小尺寸物體。文獻(xiàn)[11]提出一種改進(jìn)YOLOv3-SPP的水下目標(biāo)檢測(cè)算法,增加了特征圖層,引進(jìn)了CIoU邊框回歸損失,解決了水下目標(biāo)容易漏檢、誤檢以及檢測(cè)精度低一系列問(wèn)題。盡管這些方案取得了一些成功,但它們沒(méi)有考慮模型的可移植性,也不支持快速檢測(cè)。海洋環(huán)境下目標(biāo)檢測(cè)技術(shù)的應(yīng)用需要更好的實(shí)時(shí)性和輕量化性能,因此,研究一種檢測(cè)精度高、模型尺寸小的輕量化水下目標(biāo)檢測(cè)算法極有必要。

    基于上述背景,本文選擇YOLO系列中的YOLOv7[12]模型進(jìn)行改進(jìn),提出了YOLOv7-SDBB 網(wǎng)絡(luò)模型,旨在提供一種精度與速度兼顧的多尺度輕量化水下目標(biāo)檢測(cè)方法,在實(shí)現(xiàn)模型輕量化的同時(shí)保證檢測(cè)精度,促進(jìn)水下目標(biāo)檢測(cè)算法的可移植性。本文的主要工作如下:

    (1)采用ShuffleNetv2[13]網(wǎng)絡(luò)的思想改進(jìn)YOLOv7的骨干網(wǎng)絡(luò),大幅降低YOLOv7 模型參數(shù)量和計(jì)算量,獲得更快的檢測(cè)速度。

    (2)將ELAN 和MPConv 模塊中的標(biāo)準(zhǔn)卷積(CBS)替換為深度可分離卷積(DSC)[14],有效減少模型的參數(shù)量,實(shí)現(xiàn)YOLOv7的進(jìn)一步輕量化。

    (3)為了實(shí)現(xiàn)更好的特征融合,解決水下目標(biāo)的漏檢誤檢問(wèn)題,采用BiFPN[15](bidirectional feature pyramid network)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行多尺度特征融合,可以有效地處理不同分辨率的圖像,以較小的成本融合和增強(qiáng)不同尺度的特征,提高網(wǎng)絡(luò)對(duì)模糊水下圖像的整體檢測(cè)性能,同時(shí)緩解因模型參數(shù)量減少而造成檢測(cè)精度下降。

    (4)針對(duì)采用BiFPN改進(jìn)特征融合層引起的目標(biāo)細(xì)節(jié)特征丟失的問(wèn)題,將BiFormer動(dòng)態(tài)注意力機(jī)制[16]嵌入到改進(jìn)網(wǎng)絡(luò)的Neck 層,以較少的計(jì)算量捕獲更多的特征,更好地保留細(xì)節(jié)信息,有效地提高了模型對(duì)水下模糊目標(biāo)和小目標(biāo)的檢測(cè)精度。

    1 相關(guān)工作

    1.1 YOLOv7模型

    YOLOv7 是一種目前較先進(jìn)的目標(biāo)檢測(cè)模型,于2022 年提出,它集成了結(jié)構(gòu)重參數(shù)化[17]、正負(fù)樣本分配策略和帶有輔助頭部的訓(xùn)練方法[18],實(shí)現(xiàn)了檢測(cè)效率和精度之間的良好平衡。YOLOv7網(wǎng)絡(luò)由輸入(Input)、骨干網(wǎng)絡(luò)(Backbone)、頸部網(wǎng)絡(luò)(Neck)和頭部網(wǎng)絡(luò)(Head)四個(gè)不同的模塊組成,網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

    YOLOv7 的輸入端采用自適應(yīng)圖像放縮和混合數(shù)據(jù)增強(qiáng)技術(shù),并利用YOLOv5建立的自適應(yīng)錨框計(jì)算方法,保證輸入的各種圖像縮放到統(tǒng)一大小,從而滿足骨干網(wǎng)絡(luò)對(duì)輸入大小的要求。

    骨干網(wǎng)絡(luò)主要用于圖像的特征提取,由CBS、ELAN和MPConv三部分組成。CBS模塊由卷積、批歸一化和SiLU激活函數(shù)組成,用來(lái)提取特征。ELAN模塊是一種高效的網(wǎng)絡(luò)結(jié)構(gòu),通過(guò)引導(dǎo)不同的特征組計(jì)算塊學(xué)習(xí)更多樣化的特征,保留了原有的梯度路徑,增強(qiáng)了網(wǎng)絡(luò)的學(xué)習(xí)能力。MPConv 模塊是由MaxPool 和CBS 組成的兩個(gè)分支結(jié)構(gòu),MaxPool 提取局部區(qū)域的最大值信息,CBS 提取局部區(qū)域的所有值信息,最后通過(guò)拼接操作融合從兩個(gè)分支提取的特征,提高了網(wǎng)絡(luò)的特征提取能力。

    圖像通過(guò)骨干網(wǎng)絡(luò)進(jìn)行特征提取,然后進(jìn)入頸部進(jìn)行特征融合。YOLOv7的頸部引入了SPPCPC空間金字塔池化模塊,該模塊擴(kuò)展了感受野,實(shí)現(xiàn)了多尺度特征融合。此外,YOLOv5 使用的PAFPN(path aggregation feature pyramid network)結(jié)構(gòu)在YOLOv7 中仍然被沿用,PAFPN架構(gòu)通過(guò)將自下而上的特征提取與自上而下的特征融合相結(jié)合,提高了不同尺度上的目標(biāo)識(shí)別能力。Neck層的ELAN-H模塊是骨干網(wǎng)絡(luò)中使用的ELAN模塊的擴(kuò)展,在ELAN模塊的一個(gè)分支結(jié)構(gòu)中添加了兩個(gè)輸出,用于以后的級(jí)聯(lián)。

    YOLOv7 的Head 層采用Rep 結(jié)構(gòu)調(diào)整頸部網(wǎng)絡(luò)輸出特征的圖像通道數(shù),然后應(yīng)用1×1 卷積對(duì)置信度、類(lèi)別和錨框進(jìn)行預(yù)測(cè)。Rep 結(jié)構(gòu)的靈感來(lái)自RepVGG[17],引入了重新參數(shù)化卷積結(jié)構(gòu)的思想,允許模型的結(jié)構(gòu)在訓(xùn)練和推理過(guò)程中發(fā)生變化。

    1.2 輕量級(jí)網(wǎng)絡(luò)

    近年來(lái),CNN 在計(jì)算機(jī)視覺(jué)任務(wù)中表現(xiàn)出廣闊的前景,被廣泛應(yīng)用于各種場(chǎng)景中。然而,由于存儲(chǔ)空間和計(jì)算能力的限制,神經(jīng)網(wǎng)絡(luò)模型在移動(dòng)和嵌入式設(shè)備上的應(yīng)用仍然是一個(gè)巨大的挑戰(zhàn)。在單圖像超分辨率(single image super-resolution,SISR)任務(wù)研究中,Bian等人[19]提出了一種輕量有效的多通道聚合網(wǎng)絡(luò)(MCAN),豐富了多尺度特征,大大降低了網(wǎng)絡(luò)參數(shù),緩解了模型在實(shí)際應(yīng)用的部署困難問(wèn)題。在目標(biāo)檢測(cè)任務(wù)中,通過(guò)網(wǎng)絡(luò)剪枝、蒸餾等操作[20]為移動(dòng)設(shè)備的部署提供了可行方案。以減少模型參數(shù)數(shù)量和計(jì)算復(fù)雜度為目標(biāo),同時(shí)保持精度的輕量級(jí)網(wǎng)絡(luò)已成為水下目標(biāo)檢測(cè)領(lǐng)域的研究熱點(diǎn)。針對(duì)目標(biāo)檢測(cè)任務(wù),研究輕量級(jí)網(wǎng)絡(luò)在一定程度上具有較大的實(shí)用價(jià)值。

    1.3 注意力機(jī)制

    注意力機(jī)制(attention mechanism)[21]是一種在計(jì)算機(jī)視覺(jué)和自然語(yǔ)言處理等領(lǐng)域中被廣泛應(yīng)用的技術(shù),它模擬了人類(lèi)的注意力機(jī)制,使網(wǎng)絡(luò)能夠有選擇地關(guān)注輸入中最重要或最相關(guān)的信息。在目標(biāo)追蹤任務(wù)中,Zhang等人[22]構(gòu)建了一種新穎的通道和空間注意力引導(dǎo)的跟蹤殘差學(xué)習(xí)框架(CSART),利用自注意機(jī)制改進(jìn)特征表示,實(shí)現(xiàn)了高性能追蹤。在目標(biāo)檢測(cè)任務(wù)中,由于Swin Transformer的巨大成功,稀疏注意力機(jī)制在目標(biāo)檢測(cè)領(lǐng)域得到了普及[23]。稀疏注意力是一種注意力機(jī)制的變種,它通過(guò)引入局部窗口和位置編碼機(jī)制,限制了每個(gè)位置的注意力范圍,大大減少了計(jì)算量,在圖像識(shí)別、目標(biāo)檢測(cè)和分割等復(fù)雜任務(wù)上具有更好的可擴(kuò)展性。

    2 改進(jìn)YOLOv7的水下目標(biāo)檢測(cè)算法

    盡管YOLOv7是一種先進(jìn)的目標(biāo)檢測(cè)方法,而且在大多數(shù)應(yīng)用場(chǎng)景下已被證明是非常成功的,但是將其直接應(yīng)用在實(shí)際水下探測(cè)中仍需要考慮兩個(gè)問(wèn)題:首先,水下環(huán)境復(fù)雜,干擾物體多,水下目標(biāo)的漏檢和誤檢情況經(jīng)常發(fā)生;其次,由于水下環(huán)境的特殊性,往往需要復(fù)雜的算法模型來(lái)實(shí)現(xiàn)高精度目標(biāo)檢測(cè),算法參數(shù)量大、計(jì)算復(fù)雜度高,難以部署在水下移動(dòng)設(shè)備上。針對(duì)上述問(wèn)題,本文基于YOLOv7對(duì)骨干網(wǎng)絡(luò)和特征融合網(wǎng)絡(luò)進(jìn)行了重新設(shè)計(jì),提出了能夠保持檢測(cè)精度和檢測(cè)速度均衡的網(wǎng)絡(luò)結(jié)構(gòu),改進(jìn)后網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

    圖2 改進(jìn)的YOLOv7網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Improved YOLOv7 network structure

    2.1 基于ShuffleNetv2的骨干網(wǎng)絡(luò)改進(jìn)

    在YOLOv7 中,骨干網(wǎng)絡(luò)是基于CSPDarknet53 架構(gòu)的,這是一種雙分支結(jié)構(gòu),共包含50 層卷積層,具有較強(qiáng)的特征提取能力,但參數(shù)量較多,嚴(yán)重影響了檢測(cè)速度。本文使用ShuffleNetv2 改進(jìn)YOLOv7 的骨干網(wǎng)絡(luò),降低模型參數(shù)量和計(jì)算量,來(lái)獲得更優(yōu)的速度和更低的延遲。具體而言,將骨干網(wǎng)絡(luò)中的CBS 模塊用ShuffleNetv2 模塊替換,與傳統(tǒng)的CBS 模塊相比,ShuffleNetv2 模塊通過(guò)逐通道組卷積和通道混洗操作,將計(jì)算復(fù)雜度轉(zhuǎn)移到廉價(jià)的操作上,在一定程度上減少了計(jì)算資源的需求,特別適合于在資源受限的設(shè)備上運(yùn)行。

    ShuffleNetv2是一種適用于移動(dòng)終端的輕量級(jí)網(wǎng)絡(luò)結(jié)構(gòu),核心思想是將輸入特征圖在通道維度進(jìn)行劃分,并使得不同分塊之間可以進(jìn)行信息交流,在速度和準(zhǔn)確性之間具有良好的平衡。圖3顯示了ShuffleNetv2的基本單元。當(dāng)步長(zhǎng)為1 時(shí),ShuffleNetv2 進(jìn)行通道分割操作,將輸入特征圖劃分為兩個(gè)分支,左分支不進(jìn)行任何處理,右分支包含兩個(gè)普通卷積和一個(gè)深度可分離卷積(DWConv)。這兩個(gè)分支進(jìn)行Concat操作以融合特征,之后,網(wǎng)絡(luò)使用通道混洗來(lái)重新組織拼接的輸出,以確保上述兩個(gè)分支之間的信息交換。當(dāng)步長(zhǎng)為2 時(shí),ShuffleNetv2 同樣將特征圖輸入劃分為兩個(gè)分支,兩個(gè)分支都使用DWConv來(lái)減少特征圖的高度和寬度,從而減少網(wǎng)絡(luò)的FLOPs。在輸出兩個(gè)分支之后,執(zhí)行Concat操作以增加網(wǎng)絡(luò)寬度,進(jìn)行通道混洗以實(shí)現(xiàn)不同信道之間的信息交換。

    圖3 ShuffleNetv2基本單元Fig.3 Basic unit of ShuffleNetv2

    2.2 ELAN和MPConv改進(jìn)模塊

    采用ShuffleNetv2 改進(jìn)骨干網(wǎng)絡(luò)后,YOLOv7 模型的參數(shù)量仍然很多,參數(shù)主要集中在1×1和3×3標(biāo)準(zhǔn)卷積上。標(biāo)準(zhǔn)卷積網(wǎng)絡(luò)計(jì)算使用權(quán)重矩陣來(lái)實(shí)現(xiàn)空間維度特征和信道維度特征的聯(lián)合映射,代價(jià)是計(jì)算復(fù)雜度高、內(nèi)存開(kāi)銷(xiāo)大、權(quán)重系數(shù)多。為了進(jìn)一步降低模型的參數(shù)量,提高模型檢測(cè)效率,設(shè)計(jì)了D-ELAN、D-ELAN-H和D-MPConv 模塊,將ELAN 和MPConv 中的標(biāo)準(zhǔn)卷積替換為深度可分離卷積,使網(wǎng)絡(luò)在保證原有信息傳遞的情況下,減少一定的浮點(diǎn)運(yùn)算量及模型參數(shù),如圖4所示。

    圖4 D-ELAN模塊、D-ELAN-H模塊和D-MPConv模塊Fig.4 D-ELAN module,D-ELAN-H module and D-MPConv module

    深度可分離卷積是一種卷積神經(jīng)網(wǎng)絡(luò)中常用的卷積操作,將傳統(tǒng)的卷積操作分解為兩個(gè)步驟,首先進(jìn)行深度卷積,然后進(jìn)行逐點(diǎn)卷積,這個(gè)分解過(guò)程可以大幅度減少參數(shù)的數(shù)量。假設(shè)輸入特征圖尺寸為DK×DK,卷積核尺寸為DF×DF,M為輸入通道數(shù),N為輸出通道數(shù)。對(duì)于標(biāo)準(zhǔn)卷積,參數(shù)計(jì)算量為:

    對(duì)于深度可分離卷積而言,計(jì)算分成兩個(gè)過(guò)程,參數(shù)計(jì)算量為:

    DSC模塊的計(jì)算量與標(biāo)準(zhǔn)卷積計(jì)算量的比率為:

    從公式(3)看出,DSC 模塊的計(jì)算量低于標(biāo)準(zhǔn)卷積的計(jì)算量。因此,利用深度可分卷積重建ELAN 和MPConv 模塊,可以有效降低模型參數(shù)量,提升模型推理速度。

    2.3 基于BiFPN的特征融合網(wǎng)絡(luò)

    改進(jìn)后的YOLOv7 模型的參數(shù)量和計(jì)算量大幅度下降,能夠有效及實(shí)時(shí)地檢測(cè)目標(biāo)物體,但不可避免會(huì)損失一定的精度。同時(shí),水下設(shè)備在運(yùn)動(dòng)過(guò)程中,檢測(cè)物體的大小實(shí)時(shí)變化,背景干擾較多,存在大量不同尺度的物體需要進(jìn)行檢測(cè),這使得它們?nèi)菀妆贿z漏和錯(cuò)誤檢測(cè)。YOLOv7的頸部由特征金字塔網(wǎng)絡(luò)結(jié)構(gòu)PANet[24]組成,旨在融合輸入的不同尺度特征。盡管PANet在特征融合過(guò)程中平等對(duì)待不同尺度的輸入特征,但實(shí)際上,不同尺度輸入對(duì)最終輸出的貢獻(xiàn)是不同的,由于水下多尺度目標(biāo)較多,導(dǎo)致原始模型檢測(cè)精度較低?;诖?,為了實(shí)現(xiàn)更高水平的特征融合,加強(qiáng)多尺度目標(biāo)特征的融合和傳遞,引入加權(quán)雙向特征金字塔結(jié)構(gòu)(BiFPN)改進(jìn)原來(lái)的特征融合網(wǎng)絡(luò)。改進(jìn)后網(wǎng)絡(luò)的融合可以適應(yīng)不同的輸入特征,挖掘水下目標(biāo)的深層信息,減少因水下環(huán)境復(fù)雜造成的漏檢和誤檢,提高模型的檢測(cè)精度。

    與PANet相比,BiFPN網(wǎng)絡(luò)在處理路徑中加強(qiáng)了更高層次的特征融合,將每個(gè)雙向路徑(自上而下和自下而上)處理為一個(gè)特征網(wǎng)絡(luò)層,并在同一層中多次重復(fù)這一過(guò)程。此外,由于不同的輸入特征具有不同的分辨率,BiFPN 引入了訓(xùn)練權(quán)重,將額外的權(quán)重添加到每個(gè)輸入,以調(diào)整不同輸入對(duì)輸出特征圖的貢獻(xiàn),實(shí)現(xiàn)特征層的深度融合[25]。同時(shí),BiFPN在同一層中的原始輸入和輸出節(jié)點(diǎn)之間添加了一個(gè)額外的特征分支,這不會(huì)過(guò)多地增加計(jì)算成本,并且還可以允許集成更多的特征。BiFPN 和PANet 的網(wǎng)絡(luò)結(jié)構(gòu)如圖5 所示,在BiFPN 結(jié)構(gòu)圖中,圖中的P3~P7 代表了不同級(jí)別的融合特征,藍(lán)色部分是自上而下的路徑,傳達(dá)語(yǔ)義高級(jí)特征的信息;紅色部分是自下而上的路徑,傳達(dá)低級(jí)特征的位置信息;紫色部分是輸入點(diǎn)和輸出點(diǎn)位于同一層時(shí)的附加路徑,以融合更多功能。

    圖5 PANet結(jié)構(gòu)和BiFPN結(jié)構(gòu)Fig.5 PANet structure and BiFPN structure

    BiFPN的基本思想是添加了跨尺度連接,在犧牲小幅檢測(cè)速度的前提下使模型能夠更好地對(duì)不同大小的特征進(jìn)行融合。本文借鑒BiFPN的思想,在特征融合部分添加了1 條跨尺度連接線,實(shí)現(xiàn)了跨層連接,提升了模型的檢測(cè)性能。

    2.4 融合BiFormer注意力機(jī)制

    BiFPN的引入通過(guò)改善特征融合來(lái)提高檢測(cè)精度,但在實(shí)踐中,特征融合不是完美的,融合后的特征會(huì)丟失一些重要的細(xì)節(jié)信息,影響檢測(cè)精度[26]。注意力機(jī)制的引入可以有效改善這一問(wèn)題,注意力機(jī)制通過(guò)計(jì)算特征之間的相似性或相關(guān)性,并給予不同特征適當(dāng)?shù)臋?quán)重,使改進(jìn)后網(wǎng)絡(luò)保留具有關(guān)鍵信息的特征。同時(shí),注意力機(jī)制與特征融合網(wǎng)絡(luò)的融合也可以改善水下生物由于容易堆積,互相遮擋而造成的漏檢和誤檢。本文選擇將BiFormer注意力機(jī)制添加到改進(jìn)的特征融合部分,該注意力機(jī)制根據(jù)輸入圖像的特征自適應(yīng)地調(diào)整注意力權(quán)重,從而可以給予不同位置或特征不同級(jí)別的注意力,以引導(dǎo)網(wǎng)絡(luò)在不同尺度上更多地關(guān)注與水下目標(biāo)相關(guān)的特征信息,同時(shí)保持了輕量級(jí),不會(huì)給模型帶來(lái)顯著的計(jì)算負(fù)擔(dān)。

    BiFormer 是Transforme[27]模型的一個(gè)變體,它在原始Transformer 模型中引入了動(dòng)態(tài)注意機(jī)制,通過(guò)雙層路由實(shí)現(xiàn)更靈活的內(nèi)容感知計(jì)算分配,使模型具有動(dòng)態(tài)查詢感知的稀疏性。BiFormer 動(dòng)態(tài)注意機(jī)制的結(jié)構(gòu)圖如圖6所示,BiFormer的過(guò)程可以分為三個(gè)步驟:首先,輸入一個(gè)特征圖,將其劃分為幾個(gè)區(qū)域,通過(guò)線性映射獲得查詢、鍵和值張量。其次,利用鄰接矩陣構(gòu)造有向圖,找到對(duì)應(yīng)的參與關(guān)系不同的鍵值對(duì)。最后,使用從一個(gè)區(qū)域到另一個(gè)區(qū)域的路由索引矩陣,應(yīng)用細(xì)粒度的令牌到令牌關(guān)注。BiFormer 動(dòng)態(tài)注意力機(jī)制通過(guò)在第一個(gè)k相關(guān)窗口中收集鍵值對(duì)并使用稀疏性操作直接跳過(guò)最不相關(guān)區(qū)域的計(jì)算來(lái)節(jié)省參數(shù)和計(jì)算,由于該模塊基于稀疏采樣而非下采樣,它可以更好地保留細(xì)粒度的細(xì)節(jié)[16]。

    圖6 BiFormer模塊Fig.6 BiFormer module

    在采用BiFPN 改進(jìn)的網(wǎng)絡(luò)中,體型相似、互相遮擋的水下生物的信息部分丟失,影響了特征信息融合,從而導(dǎo)致部分目標(biāo)被遺漏。通過(guò)添加BiFormer 動(dòng)態(tài)注意機(jī)制,減弱了背景干擾,在保持高效檢測(cè)前提下,捕獲更多的特征,提高了檢測(cè)精度。

    Q、K、V是為了在粗糙區(qū)域級(jí)別上獲得最相關(guān)的鍵值對(duì),以便只保留一小部分路由區(qū)域,然后在這些路由區(qū)域的聯(lián)合中應(yīng)用細(xì)粒度令牌對(duì)令牌關(guān)注(Kg,Vg)。

    其中,Kg、Vg為收集到的鍵值張量,Ir表示第i行包含第i個(gè)區(qū)域的前K個(gè)最相關(guān)區(qū)域的索引,K表示在前K個(gè)相關(guān)窗口中收集鍵值對(duì)。

    3 實(shí)驗(yàn)設(shè)計(jì)與結(jié)果分析

    3.1 實(shí)驗(yàn)細(xì)節(jié)

    3.1.1 實(shí)驗(yàn)環(huán)境與參數(shù)設(shè)置

    硬件環(huán)境采用RTX 3090 顯卡,8 GB 顯存,處理器為Intel?Core?i9-12700KF@3.61 GHz。軟件環(huán)境為Windows 11 操作系統(tǒng),開(kāi)發(fā)環(huán)境為PyTorch 1.12.0,CUDA 11.6,Python 版本為3.9.0。訓(xùn)練時(shí)采用SGD 優(yōu)化器對(duì)模型進(jìn)行優(yōu)化,動(dòng)量設(shè)置為0.937,迭代批次為16,初始學(xué)習(xí)率設(shè)為0.01,權(quán)重衰減設(shè)為0.000 5,輸入圖像分辨率為640×640,共訓(xùn)練300個(gè)周期。

    3.1.2 數(shù)據(jù)集

    實(shí)驗(yàn)數(shù)據(jù)集為2020 年全國(guó)水下機(jī)器人專業(yè)比賽(URPC)數(shù)據(jù)集,包含四種不同海洋生物的水下光學(xué)圖像,如圖7所示,分別是海參“holothurian”、扇貝“scallop”、海膽“echinus”和海星“starfish”。在數(shù)據(jù)集中有較少的海草樣本,為避免訓(xùn)練數(shù)據(jù)可能不足以捕捉到該類(lèi)別的多樣性和復(fù)雜性從而影響檢測(cè)精度的情況,本文對(duì)數(shù)據(jù)集進(jìn)行處理,將海草相關(guān)樣本從數(shù)據(jù)集中剔除,僅保留6 450張有效圖像。所有樣本圖像按照PASAL VOC2007樣本集的格式進(jìn)行處理和存儲(chǔ),為了保持?jǐn)?shù)據(jù)分布的一致性,將數(shù)據(jù)集隨機(jī)分為訓(xùn)練集和測(cè)試集,比例為7∶3。訓(xùn)練集包含4 515張圖像,測(cè)試集包含1 935張圖像。

    圖7 URPC2020數(shù)據(jù)集Fig.7 URPC2020 dataset

    3.1.3 模型評(píng)價(jià)指標(biāo)

    本文從檢測(cè)精度和精測(cè)速度兩方面出發(fā)使用精確率(precision,P)、召回率(recall,R)、平均精度(average precision,AP)、平均精度均值(mean average precision,mAP)、幀率(FPS)、浮點(diǎn)運(yùn)算次數(shù)(GFLOPs)和參數(shù)量(params)七個(gè)指標(biāo)來(lái)準(zhǔn)確客觀地評(píng)價(jià)模型的性能。mAP表示所有類(lèi)別的平均AP,其值越大表示模型越好,識(shí)別目標(biāo)的精度越高,計(jì)算公式如式(6)所示。AP 是PR曲線下面積的標(biāo)量表示,線下面積越大,表示識(shí)別精度越好,計(jì)算公式如式(7)所示。精確率和召回率評(píng)價(jià)指標(biāo)公式如式(8)、(9)所示。

    其中,TP表示模型正確預(yù)測(cè)的正樣本數(shù),F(xiàn)P表示模型預(yù)測(cè)的實(shí)際上是負(fù)樣本的正樣本數(shù)。FN表示模型預(yù)測(cè)的陽(yáng)性樣本數(shù)為負(fù)。r表示該類(lèi)的召回率,c表示所有類(lèi)的數(shù)量,AP(i)表示第i類(lèi)的平均精度。

    FPS表示模型每秒處理的幀數(shù),反映了模型推理的速度,該值越大,說(shuō)明模型的推理速度越快,模型性能越好。FLOPs是浮點(diǎn)運(yùn)算量,衡量模型的復(fù)雜度。Params是模型中參數(shù)的總和,用于評(píng)估模型的大小。

    3.2 實(shí)驗(yàn)結(jié)果分析

    3.2.1 實(shí)驗(yàn)結(jié)果

    為驗(yàn)證本文改進(jìn)算法的有效性,保證各項(xiàng)參數(shù)指標(biāo)不變的情況下,在URPC2020 數(shù)據(jù)集上分別對(duì)原YOLOv7算法和改進(jìn)后算法進(jìn)行訓(xùn)練,以顯示改進(jìn)算法的性能,訓(xùn)練結(jié)果分別如圖8所示。

    圖8 改進(jìn)前后模型訓(xùn)練結(jié)果對(duì)比Fig.8 Comparison of training results before and after algorithm improvement

    經(jīng)圖8中數(shù)據(jù)比較可以看出,改進(jìn)后的YOLOv7算法對(duì)各個(gè)目標(biāo)類(lèi)別的檢測(cè)效率都有所提高,mAP 值由83.2%提高到85.9%,提升2.7 個(gè)百分點(diǎn)。其中海參AP值從74.9%升至77.9%,提升3 個(gè)百分點(diǎn);海膽AP 值從90.8%增長(zhǎng)到91.8%,提升1 個(gè)百分點(diǎn);扇貝AP 值從78.5%增長(zhǎng)到84.0%,提升5.5個(gè)百分點(diǎn);海星AP值提升至89.9%,增長(zhǎng)了1.3個(gè)百分點(diǎn)。

    引入混淆矩陣來(lái)評(píng)估模型的檢測(cè)情況,混淆矩陣的每一列表示每個(gè)類(lèi)別的預(yù)測(cè)比例,每一行表示各自類(lèi)別在數(shù)據(jù)中的真實(shí)比例,如圖9所示。對(duì)圖9進(jìn)行分析,四類(lèi)目標(biāo)都得到了正確的預(yù)測(cè),預(yù)測(cè)類(lèi)別“海參”“海膽”“扇貝”和“海星”的準(zhǔn)確率分別為78%、92%、81%和88%,表明該模型具有較高的檢測(cè)準(zhǔn)確率。

    圖9 YOLOv7-SDBB混淆矩陣Fig.9 Confusion matrix of YOLOv7-SDBB

    為了進(jìn)一步驗(yàn)證YOLOv7-SDBB 模型在水下目標(biāo)檢測(cè)中的性能,選取FPS、FLOPs 和Params 指標(biāo)比較YOLOv7 和改進(jìn)模型,結(jié)果如表1 所示。由表1 可知,YOLOv7算法的FPS值為65.9,參數(shù)量為3.65×107,點(diǎn)運(yùn)算量為105.1 GFLOPs,說(shuō)明YOLOv7 算法對(duì)多類(lèi)別水下目標(biāo)檢測(cè)參數(shù)量和計(jì)算量保持較好,但檢測(cè)速度有待提高;相較于YOLOv7 算法,改進(jìn)模型參數(shù)量和計(jì)算量得到了優(yōu)化,分別減少了2.03×107和41.7 GFLOPs,F(xiàn)PS值提升至100.9,推理速度顯著提升。以上可以得出,改進(jìn)后算法對(duì)于水下目標(biāo)檢測(cè)具有更為可觀的檢測(cè)效率,保證了精度與速度的有效平衡,是一種不錯(cuò)的輕量網(wǎng)絡(luò)設(shè)計(jì)方案,在邊緣終端設(shè)備部署上有較高應(yīng)用價(jià)值。

    表1 檢測(cè)速度對(duì)比Table 1 Comparison of detection speeds

    3.2.2 融合注意力機(jī)制比較

    為了進(jìn)一步探究注意力機(jī)制改進(jìn)的有效性,對(duì)添加的注意力機(jī)制進(jìn)行消融實(shí)驗(yàn),包括BiFormer、SE[28]、ECA[29]、CA[30]、CBAM[31]和ACMix注意力機(jī)制[32],對(duì)比分析不同注意力機(jī)制給模型檢測(cè)效果帶來(lái)的影響,訓(xùn)練過(guò)程中采用相同參數(shù),在URPC2020 數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),結(jié)果如表2所示。

    表2 注意力機(jī)制消融實(shí)驗(yàn)結(jié)果Table 2 Results of attention mechanism ablation experiments

    SE 是一種典型的通道注意力機(jī)制的實(shí)現(xiàn)方法,它專注于獲得輸入特征層在通道上的增強(qiáng)權(quán)重,而忽略了目標(biāo)空間位置的權(quán)重信息。ECA 也是通道注意力機(jī)制的一種實(shí)現(xiàn)形式,通過(guò)獲得跨通道信息來(lái)獲得每個(gè)特征層的增強(qiáng)權(quán)重。盡管它具有更好的跨通道信息,但忽略了目標(biāo)的空間信息。CA注意力機(jī)制將位置信息嵌入到通道注意力中,將通道注意力分解為兩個(gè)特征編碼過(guò)程,分別對(duì)兩個(gè)空間方向的特征進(jìn)行聚合,得到融合通道信息和空間信息的權(quán)重。CBAM 結(jié)合了信道注意機(jī)制和空間注意機(jī)制,分別處理信道權(quán)重和空間權(quán)重,既關(guān)注信道信息,又關(guān)注空間信息。ACmix注意力模塊由卷積注意力和自注意力兩個(gè)模塊并行構(gòu)建,兩個(gè)分支的輸出在合并之后,全局特征與局部特征得到了平衡的考慮,增強(qiáng)了網(wǎng)絡(luò)對(duì)微小目標(biāo)的識(shí)別能力。

    實(shí)驗(yàn)數(shù)據(jù)表明,與YOLOv7 相比,分別添加SE、ECA 和CA 注意力機(jī)制的模型檢測(cè)準(zhǔn)確率下降了4.7、0.6 和0.3 個(gè)百分點(diǎn),模型的參數(shù)量小幅增加,檢測(cè)速度也有下降,表明這三種注意力機(jī)制在該數(shù)據(jù)集上表現(xiàn)較差。YOLOv7-BF為引入BiFPN后的網(wǎng)絡(luò),與之相比,在YOLOv7-BF 上添加CBAM 和ACMix 注意力機(jī)制的模型準(zhǔn)確率分別提高了0.2和0.4個(gè)百分點(diǎn),但檢測(cè)速度下降過(guò)多,模型計(jì)算量與參數(shù)量顯著增加。相較于原始模型,添加Biformer 注意力機(jī)制的模型mAP 值提升了1.2個(gè)百分點(diǎn),檢測(cè)精度明顯提升,同時(shí)模型計(jì)算量下降了5.9 GFLOPs。模型參數(shù)量增加了4.0×106,但對(duì)模型整體復(fù)雜度幾乎無(wú)影響。在YOLOv7-BF 的Neck 層融入BiFormer,檢測(cè)精度比添加CBAM 和ACMix 注意力的模型提升更多,參數(shù)量和計(jì)算量也遠(yuǎn)小于二者,更能滿足應(yīng)水下移動(dòng)設(shè)備對(duì)輕量化的要求。這表明BiFormer注意力機(jī)制在一定程度上壓縮了模型的計(jì)算量,同時(shí)使網(wǎng)絡(luò)更好地提取目標(biāo)區(qū)域的細(xì)節(jié)特征,解決了BiFPN造成的細(xì)節(jié)特征丟失和水下目標(biāo)的誤檢漏檢問(wèn)題,提升了檢測(cè)精度。總之,BiFormer的嵌入不僅可以提升模型的檢測(cè)速度,實(shí)現(xiàn)較輕量的模型,也可以有效提升模型的檢測(cè)精度。

    3.2.3 消融實(shí)驗(yàn)

    為了評(píng)估改進(jìn)模塊的具體性能,使用YOLOv7作為基準(zhǔn)模型,在URPC2020數(shù)據(jù)集上通過(guò)添加不同的模塊來(lái)驗(yàn)證模型的性能,為了公平比較,環(huán)境及參數(shù)設(shè)置均保持統(tǒng)一。實(shí)驗(yàn)結(jié)果如表3所示。

    表3 消融實(shí)驗(yàn)結(jié)果對(duì)比Table 3 Comparison of ablation experimental results

    Exp.1為原始YOLOv7算法的實(shí)驗(yàn)結(jié)果,作為后9組實(shí)驗(yàn)的對(duì)比基準(zhǔn),檢測(cè)精度為83.2%,F(xiàn)PS為65.9,參數(shù)量為3.65×107,GFLOPs 為105.1。Exp.2 使用ShuffleNetv2模塊替換主干中的CBS模塊后,模型參數(shù)、GFLOPs和檢測(cè)mAP 值分別降低了1.2×107、17.6 和0.8 個(gè)百分點(diǎn),檢測(cè)速度增加了11.7。說(shuō)明ShuffleNet v2網(wǎng)絡(luò)的引入,可以減少一定的參數(shù)量和計(jì)算量,提升檢測(cè)速度,但犧牲了一部分精度。Exp.3 將網(wǎng)絡(luò)中的ELAN、ELAN-H 和MPconv 替換為D-ELAN、D-ELAN-H、D-MPConv,由于引入了深度可分離卷積,計(jì)算量為原模型的72.02%,模型參數(shù)量?jī)H為原模型的61.3%,均大幅度下降。同時(shí),由于參數(shù)量和計(jì)算量的下降,推理速度也有一定提高,F(xiàn)PS提升了25.2。對(duì)比Exp.1和Exp.4的數(shù)據(jù),模型的平均檢測(cè)精度提高了1.9 個(gè)百分點(diǎn),表明用加權(quán)雙向特征金字塔網(wǎng)絡(luò)改進(jìn)網(wǎng)絡(luò)的特征融合層,可以在不同的層級(jí)上融合多尺度的特征信息,從而更好地捕捉目標(biāo)在不同尺度上的表現(xiàn),減少誤檢漏檢,使模型的整體性能更加優(yōu)越。Exp.5在Neck層引入了BiFormer注意力機(jī)制,允許更靈活地計(jì)算分配,以較少的計(jì)算量捕獲更多的特征,檢測(cè)速度小幅提升;檢測(cè)精度提高了1.2 個(gè)百分點(diǎn),改進(jìn)的網(wǎng)絡(luò)可以更早地關(guān)注圖像中的水下生物信息,過(guò)濾掉背景信息,使生成的特征圖信息更加豐富,提高了模型的表示能力。Exp.6 在同時(shí)引入DSC 和Shuffle-Netv2模塊后,在模型參數(shù)量、計(jì)算量和檢測(cè)速度方面均表現(xiàn)最佳,但平均精度均值會(huì)有下降,僅為82.2%。Exp.7在使用BiFPN改進(jìn)的Neck層嵌入BiFormer模塊,通過(guò)兩者的共同作用,模型更加關(guān)注檢測(cè)目標(biāo)的特征信息,減少細(xì)節(jié)信息丟失,最大限度利用特征信息,使模型的整體精度顯著提高,相比原模型增長(zhǎng)了2.5 個(gè)百分點(diǎn)。Exp.10 為本文改進(jìn)算法,相比于Exp.8 和Exp.9 的數(shù)據(jù),將四個(gè)模塊融合在一個(gè)網(wǎng)絡(luò)后,參數(shù)量和計(jì)算量雖小幅增加但檢測(cè)精度提升至85.9%。與YOLOv7 相比,F(xiàn)PS升至100.9且模型的參數(shù)量和計(jì)算量顯著減少,表明雖然通過(guò)引入深度可分離卷積和ShuffleNetv2網(wǎng)絡(luò)提高檢測(cè)速度會(huì)導(dǎo)致檢測(cè)精度下降,但是通過(guò)BiFPN和BiFormer注意力機(jī)制改進(jìn)特征融合部分,可以將檢測(cè)精度恢復(fù)至改進(jìn)前甚至進(jìn)一步提高。綜上所述,本文提出的YOLOv7-SDBB 網(wǎng)絡(luò),在提升平均檢測(cè)精度的同時(shí),提高了模型計(jì)算速度,減少耗時(shí),提高了檢測(cè)實(shí)時(shí)性,有效地平衡了精度和輕量化,為部署在水下終端設(shè)備提供了可行性。

    3.3 不同模型性能對(duì)比

    YOLO-SDBB 算法在復(fù)雜的水下場(chǎng)景中具有良好的檢測(cè)能力和更快的檢測(cè)速度,為了進(jìn)一步驗(yàn)證提出模型的性能,將本文算法與Faster-RCNN、SSD、YOLOv5s[33]、FCOS[34]、YOLOX[35]、Underwater-YCC[9]等幾種水下目標(biāo)檢測(cè)主流算法進(jìn)行對(duì)比,在同一數(shù)據(jù)集上,采用相同的訓(xùn)練方法進(jìn)行網(wǎng)絡(luò)模型訓(xùn)練,對(duì)比結(jié)果如表4所示。

    表4 不同目標(biāo)檢測(cè)算法結(jié)果Table 4 Results of different target detection algorithms

    從表4 可以看出,SSD、Faster-RCNN 的檢測(cè)精度相對(duì)較低,這是因?yàn)镾SD在檢測(cè)過(guò)程中需要在多個(gè)尺度上單獨(dú)預(yù)測(cè)物體的位置和類(lèi)別,這可能導(dǎo)致一些目標(biāo)被遺漏或錯(cuò)誤分類(lèi),而在Faster RCNN 中,候選框的尺度受到限制,很難檢測(cè)具有不同尺度和長(zhǎng)寬比的目標(biāo)。與單階段的全卷積、無(wú)錨框檢測(cè)器FCOS 相比較,YOLOv7-SDBB 的平均檢測(cè)精度高出13.5 個(gè)百分點(diǎn),F(xiàn)PS 提升至100.9,具有良好的精度與效率。YOLOv5s 和YOLOv7-tiny是工業(yè)上應(yīng)用最廣泛的單階段目標(biāo)檢測(cè)算法,和二者相比,雖然YOLOv7-SDBB模型的參數(shù)量和計(jì)算量都較高,但是100.9的檢測(cè)速度仍能滿足實(shí)時(shí)檢測(cè)的要求,同時(shí)模型檢測(cè)的準(zhǔn)確率遠(yuǎn)高于二者。同樣的,與取消錨框的輕量級(jí)模型YOLOX 相比,YOLOv7-SDBB 的mAP值提高了6.7 個(gè)百分點(diǎn),雖然模型參數(shù)量和計(jì)算量增加了,但保證了不錯(cuò)的檢測(cè)速度,取得了檢測(cè)精度和檢測(cè)速度之間的平衡。此外,本文改進(jìn)的算法在檢測(cè)速度和檢測(cè)精度方面均優(yōu)于原始網(wǎng)絡(luò)YOLOv7。文獻(xiàn)[11]和Underwater-YCC[9]算法目前在水下目標(biāo)檢測(cè)場(chǎng)景表現(xiàn)出較大優(yōu)勢(shì),檢測(cè)精度較高但檢測(cè)速度過(guò)低,實(shí)時(shí)性太差,不適合部署在水下設(shè)備。本文算法檢測(cè)速度遠(yuǎn)高于二者且檢測(cè)精度也有小幅提升,體現(xiàn)了本算法具有更好的性能,展現(xiàn)了在水下目標(biāo)檢測(cè)的優(yōu)勢(shì)。

    為了更好地觀察和比較YOLOv7-SDBB 算法的檢測(cè)效果,選取了部分測(cè)試集圖像進(jìn)行測(cè)試,各算法檢測(cè)結(jié)果如圖10 所示,圖中用紅框標(biāo)記了一部分漏檢誤檢和檢測(cè)精度較低目標(biāo)物體。從檢測(cè)效果來(lái)看,在圖像模糊和目標(biāo)過(guò)多的情況下,文獻(xiàn)[11]算法的檢測(cè)效果明顯優(yōu)于前7 種算法,與Underwater-YCC 的檢測(cè)效果相當(dāng),但檢測(cè)到的目標(biāo)準(zhǔn)確率普遍低于Underwater-YCC,也存在目標(biāo)誤判和漏檢的情況。然而,當(dāng)環(huán)境過(guò)于復(fù)雜時(shí),Underwater-YCC 算法仍然存在錯(cuò)誤檢測(cè)和遺漏檢測(cè)的問(wèn)題,其中一些目標(biāo)被Underwater-YCC 算法認(rèn)為是背景,因?yàn)樗鼈兊哪繕?biāo)特征不明顯,也有目標(biāo)相互遮擋的情況。然而,本文算法在這種情況下對(duì)目標(biāo)具有更好的識(shí)別效果,對(duì)遮擋物體具有更好的檢測(cè)能力,這是因?yàn)锽iFormer 動(dòng)態(tài)注意力機(jī)制和加權(quán)雙向特征金字塔網(wǎng)絡(luò)BiFPN的融合減少了特征融合過(guò)程中的信息損失,在一定程度上解決了水下場(chǎng)景中目標(biāo)重疊和背景復(fù)雜給水下目標(biāo)檢測(cè)帶來(lái)的困難。YOLOv7-SDBB 算法和Underwater-YCC算法相比,具有更少的誤判和識(shí)別,檢測(cè)精度更高,能夠有效解決目標(biāo)重疊、誤檢漏檢等問(wèn)題。綜上所示,與其他主流算法相比,YOLOv7-SDBB 算法實(shí)現(xiàn)了最高的檢測(cè)精度,同時(shí)保持了中等水平的檢測(cè)和推理速度,在水下目標(biāo)檢測(cè)方面具有更好的性能,并在一定程度上解決了水下復(fù)雜環(huán)境下獲取圖像時(shí)存在圖像模糊、背景復(fù)雜等現(xiàn)象導(dǎo)致的模型特征提取困難、目標(biāo)漏檢等問(wèn)題。

    圖10 不同算法檢測(cè)結(jié)果Fig.10 Detection results of different algorithms

    4 結(jié)束語(yǔ)

    目前水下目標(biāo)檢測(cè)算法的改進(jìn)主要在于提高檢測(cè)精度,導(dǎo)致模型參數(shù)量多,實(shí)時(shí)性差,難以部署在水下移動(dòng)設(shè)備或嵌入式設(shè)備。為此,提出了一種兼顧精度和速度的輕量化水下目標(biāo)檢測(cè)算法。首先,采用輕量級(jí)網(wǎng)絡(luò)ShuffleNetv2 改進(jìn)YOLOv7 的骨干,減少模型參數(shù)量和計(jì)算量。其次,結(jié)合深度可分離卷積提出D-ELAN和D-MPConv 模塊,進(jìn)一步實(shí)現(xiàn)網(wǎng)絡(luò)輕量化。最后,針對(duì)水下環(huán)境的復(fù)雜性,結(jié)合動(dòng)態(tài)注意力機(jī)制BiFormer和加權(quán)雙向特征金字塔網(wǎng)絡(luò)BiFPN 改進(jìn)網(wǎng)絡(luò)的特征融合部分,增強(qiáng)不同層次的特征融合,減少目標(biāo)信息丟失,一定程度上解決了水下場(chǎng)景中目標(biāo)重疊和背景復(fù)雜給水下目標(biāo)探測(cè)帶來(lái)的困難。實(shí)驗(yàn)結(jié)果表明,所提出的YOLOv7-SDBB 的mAP 提高至85.9%,處理速度達(dá)到100.9 FPS,這表明本文方法在精度和速度方面有一定的優(yōu)勢(shì),實(shí)現(xiàn)了水下目標(biāo)檢測(cè)速度和精度的良好平衡,在復(fù)雜水下環(huán)境下的性能優(yōu)于目前最先進(jìn)的目標(biāo)檢測(cè)模型。

    本文提出的YOLOv7-SDBB 網(wǎng)絡(luò)為解決水下生物探測(cè)研究中的困難提供了一種新的思路,實(shí)現(xiàn)了水下目標(biāo)探測(cè)研究的高精度和實(shí)時(shí)性。然而,整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)仍有很大的改進(jìn)空間,水下目標(biāo)檢測(cè)技術(shù)的實(shí)時(shí)性和輕量化方面還有待進(jìn)一步研究。在未來(lái)的工作中,將繼續(xù)深入研究輕量化和加速方法在水下目標(biāo)檢測(cè)中的應(yīng)用。

    猜你喜歡
    特征檢測(cè)模型
    一半模型
    “不等式”檢測(cè)題
    “一元一次不等式”檢測(cè)題
    “一元一次不等式組”檢測(cè)題
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
    如何表達(dá)“特征”
    不忠誠(chéng)的四個(gè)特征
    抓住特征巧觀察
    3D打印中的模型分割與打包
    一级黄色大片毛片| 午夜激情av网站| 美国免费a级毛片| 国产成+人综合+亚洲专区| 91在线观看av| 欧美日韩瑟瑟在线播放| 曰老女人黄片| 精品一品国产午夜福利视频| 欧美在线一区亚洲| 日本在线视频免费播放| 欧美不卡视频在线免费观看 | 老司机在亚洲福利影院| 婷婷六月久久综合丁香| 18禁裸乳无遮挡免费网站照片 | 最近最新中文字幕大全电影3 | 纯流量卡能插随身wifi吗| 丰满的人妻完整版| a级毛片在线看网站| 精品久久蜜臀av无| 99国产精品一区二区三区| 99国产极品粉嫩在线观看| 久久精品影院6| 桃红色精品国产亚洲av| 国产99久久九九免费精品| 久久精品91蜜桃| 在线永久观看黄色视频| www.www免费av| 精品久久久久久成人av| 一边摸一边做爽爽视频免费| 18禁国产床啪视频网站| 午夜精品在线福利| 丁香六月欧美| 亚洲精品在线观看二区| 香蕉丝袜av| 99久久精品国产亚洲精品| 看黄色毛片网站| 午夜福利高清视频| 久久久国产精品麻豆| 女警被强在线播放| 91九色精品人成在线观看| 韩国精品一区二区三区| 色综合站精品国产| 夜夜夜夜夜久久久久| 一级毛片高清免费大全| 免费看a级黄色片| 12—13女人毛片做爰片一| 精品国产超薄肉色丝袜足j| 午夜免费观看网址| 中亚洲国语对白在线视频| 黄色片一级片一级黄色片| 欧美在线一区亚洲| 国产亚洲精品久久久久久毛片| 黄网站色视频无遮挡免费观看| 悠悠久久av| 日本欧美视频一区| 国产精品二区激情视频| videosex国产| 嫩草影院精品99| 亚洲国产精品成人综合色| 精品欧美国产一区二区三| 日本撒尿小便嘘嘘汇集6| 日本在线视频免费播放| 久久国产亚洲av麻豆专区| 成人国产综合亚洲| 亚洲熟女毛片儿| 久久人人精品亚洲av| 一进一出好大好爽视频| 亚洲人成77777在线视频| 免费看十八禁软件| 国内精品久久久久久久电影| 韩国av一区二区三区四区| 日韩欧美国产一区二区入口| 淫秽高清视频在线观看| 欧美丝袜亚洲另类 | 久久亚洲精品不卡| 亚洲情色 制服丝袜| 久久久久久久久中文| 手机成人av网站| 黄网站色视频无遮挡免费观看| 国产成人欧美| 精品国产一区二区三区四区第35| 欧美日本中文国产一区发布| 欧美成人性av电影在线观看| 制服诱惑二区| 亚洲男人的天堂狠狠| 看片在线看免费视频| 国产精品98久久久久久宅男小说| 自线自在国产av| 日韩欧美一区二区三区在线观看| 免费高清在线观看日韩| 十八禁人妻一区二区| x7x7x7水蜜桃| 黑人操中国人逼视频| 亚洲成人精品中文字幕电影| 久久人妻熟女aⅴ| 国产麻豆成人av免费视频| 热re99久久国产66热| 国产av在哪里看| or卡值多少钱| 欧美色欧美亚洲另类二区 | 日韩视频一区二区在线观看| 夜夜夜夜夜久久久久| 免费在线观看视频国产中文字幕亚洲| 免费少妇av软件| 男女之事视频高清在线观看| av视频在线观看入口| 国产精品野战在线观看| 香蕉国产在线看| 欧美色视频一区免费| 老司机午夜十八禁免费视频| 久久亚洲真实| 午夜精品久久久久久毛片777| 国内久久婷婷六月综合欲色啪| 超碰成人久久| 变态另类成人亚洲欧美熟女 | 99国产综合亚洲精品| 真人一进一出gif抽搐免费| 亚洲欧美精品综合久久99| 9色porny在线观看| 久久久久久久久免费视频了| 欧美 亚洲 国产 日韩一| 亚洲精品中文字幕在线视频| 国产成人系列免费观看| 久久久水蜜桃国产精品网| av超薄肉色丝袜交足视频| 十分钟在线观看高清视频www| 日本vs欧美在线观看视频| 国产精品久久久av美女十八| 在线永久观看黄色视频| 欧美日韩亚洲综合一区二区三区_| 满18在线观看网站| 日本一区二区免费在线视频| 国产精品一区二区在线不卡| 又黄又粗又硬又大视频| 午夜福利高清视频| 久久天堂一区二区三区四区| 亚洲精品中文字幕一二三四区| 真人一进一出gif抽搐免费| 色av中文字幕| 欧美乱码精品一区二区三区| 麻豆久久精品国产亚洲av| 精品一品国产午夜福利视频| 国内毛片毛片毛片毛片毛片| 日韩有码中文字幕| 两个人看的免费小视频| 亚洲 国产 在线| 搡老妇女老女人老熟妇| 亚洲国产精品久久男人天堂| 黄网站色视频无遮挡免费观看| 国产精品一区二区三区四区久久 | 后天国语完整版免费观看| 日日摸夜夜添夜夜添小说| 国产野战对白在线观看| 一级片免费观看大全| 淫妇啪啪啪对白视频| www.自偷自拍.com| 日本a在线网址| 亚洲第一电影网av| 少妇粗大呻吟视频| 欧美激情高清一区二区三区| 国产av一区在线观看免费| 身体一侧抽搐| 亚洲人成77777在线视频| 国产亚洲欧美精品永久| 999久久久精品免费观看国产| 久久久久久国产a免费观看| www国产在线视频色| 欧美成人午夜精品| 淫秽高清视频在线观看| 亚洲avbb在线观看| 老汉色∧v一级毛片| 亚洲性夜色夜夜综合| 国产精品久久电影中文字幕| 国产99白浆流出| 亚洲人成77777在线视频| 亚洲avbb在线观看| 久久婷婷成人综合色麻豆| 精品国产乱码久久久久久男人| svipshipincom国产片| 老汉色∧v一级毛片| 91av网站免费观看| 国产精品一区二区在线不卡| 波多野结衣高清无吗| 欧美日韩亚洲综合一区二区三区_| 欧美国产日韩亚洲一区| 亚洲成人久久性| 亚洲精品中文字幕一二三四区| 久久热在线av| 人人妻人人澡欧美一区二区 | 少妇粗大呻吟视频| а√天堂www在线а√下载| 精品久久久久久久久久免费视频| 国产精品一区二区三区四区久久 | 日韩欧美在线二视频| 麻豆久久精品国产亚洲av| 午夜亚洲福利在线播放| xxx96com| 亚洲欧美日韩无卡精品| 两性夫妻黄色片| 国产成+人综合+亚洲专区| 精品乱码久久久久久99久播| x7x7x7水蜜桃| 亚洲五月色婷婷综合| 久久久久久大精品| 校园春色视频在线观看| 午夜视频精品福利| 日韩av在线大香蕉| 亚洲精品av麻豆狂野| 欧美在线黄色| 国产欧美日韩一区二区精品| 日韩国内少妇激情av| 亚洲男人天堂网一区| 久久久久久亚洲精品国产蜜桃av| 在线观看66精品国产| 色综合站精品国产| 国内久久婷婷六月综合欲色啪| 此物有八面人人有两片| 1024视频免费在线观看| 色播在线永久视频| 国产精品久久久久久精品电影 | 香蕉久久夜色| 免费av毛片视频| 操美女的视频在线观看| 亚洲 欧美 日韩 在线 免费| 欧美激情高清一区二区三区| 91老司机精品| 国产一区在线观看成人免费| 一区在线观看完整版| 岛国在线观看网站| 99在线人妻在线中文字幕| 亚洲精品国产一区二区精华液| 国产精品综合久久久久久久免费 | 亚洲一区二区三区不卡视频| 国产av一区二区精品久久| 三级毛片av免费| 在线观看免费视频日本深夜| 国产精品精品国产色婷婷| 制服人妻中文乱码| 无遮挡黄片免费观看| 波多野结衣一区麻豆| 日韩精品中文字幕看吧| 亚洲中文av在线| 正在播放国产对白刺激| 女人高潮潮喷娇喘18禁视频| 高清毛片免费观看视频网站| 香蕉久久夜色| 老汉色av国产亚洲站长工具| 法律面前人人平等表现在哪些方面| 日韩精品青青久久久久久| 又大又爽又粗| 欧美乱色亚洲激情| 亚洲熟妇中文字幕五十中出| 熟女少妇亚洲综合色aaa.| 伊人久久大香线蕉亚洲五| 一边摸一边抽搐一进一小说| 在线观看舔阴道视频| 黄片小视频在线播放| 国产单亲对白刺激| 老司机靠b影院| 亚洲人成77777在线视频| 亚洲一卡2卡3卡4卡5卡精品中文| 久久精品人人爽人人爽视色| 美女 人体艺术 gogo| 日日摸夜夜添夜夜添小说| 国产高清视频在线播放一区| 99国产精品免费福利视频| 国产成人一区二区三区免费视频网站| 亚洲 欧美一区二区三区| 国产精品亚洲一级av第二区| 亚洲国产毛片av蜜桃av| 天天添夜夜摸| 精品欧美一区二区三区在线| 九色亚洲精品在线播放| 1024香蕉在线观看| 真人一进一出gif抽搐免费| 99国产精品99久久久久| 久久人人精品亚洲av| 午夜亚洲福利在线播放| 亚洲男人的天堂狠狠| 成人特级黄色片久久久久久久| АⅤ资源中文在线天堂| 精品无人区乱码1区二区| 午夜福利影视在线免费观看| 日本 av在线| 中国美女看黄片| 免费在线观看视频国产中文字幕亚洲| 国产精品日韩av在线免费观看 | 久久亚洲精品不卡| 欧美丝袜亚洲另类 | 欧美另类亚洲清纯唯美| 涩涩av久久男人的天堂| 在线观看日韩欧美| 女同久久另类99精品国产91| 国产成人精品无人区| 在线国产一区二区在线| www.999成人在线观看| 欧美国产日韩亚洲一区| 国产又爽黄色视频| x7x7x7水蜜桃| 久久久久久人人人人人| 午夜福利视频1000在线观看 | 久久香蕉激情| 精品少妇一区二区三区视频日本电影| 亚洲av第一区精品v没综合| 亚洲国产欧美网| АⅤ资源中文在线天堂| 国产日韩一区二区三区精品不卡| 国产高清激情床上av| 十分钟在线观看高清视频www| 亚洲 国产 在线| 好男人在线观看高清免费视频 | 国产精品免费一区二区三区在线| 人妻久久中文字幕网| 午夜福利18| 三级毛片av免费| 少妇粗大呻吟视频| 欧美成狂野欧美在线观看| 黄色成人免费大全| 亚洲七黄色美女视频| 99久久99久久久精品蜜桃| 99精品欧美一区二区三区四区| 国产精品 欧美亚洲| 日韩成人在线观看一区二区三区| 精品一区二区三区四区五区乱码| 少妇粗大呻吟视频| 香蕉国产在线看| 午夜两性在线视频| 18美女黄网站色大片免费观看| 亚洲va日本ⅴa欧美va伊人久久| 国产精品精品国产色婷婷| 中文字幕高清在线视频| 国产黄a三级三级三级人| 亚洲情色 制服丝袜| 精品国产美女av久久久久小说| 国产精品久久电影中文字幕| 美女午夜性视频免费| 国产亚洲欧美98| 99国产极品粉嫩在线观看| 黄色片一级片一级黄色片| 一区二区三区高清视频在线| 男人操女人黄网站| 国产一级毛片七仙女欲春2 | 啦啦啦观看免费观看视频高清 | 精品卡一卡二卡四卡免费| 巨乳人妻的诱惑在线观看| 后天国语完整版免费观看| 动漫黄色视频在线观看| 桃红色精品国产亚洲av| 亚洲欧美激情在线| 十八禁人妻一区二区| 黑人巨大精品欧美一区二区mp4| 最近最新免费中文字幕在线| 成年版毛片免费区| 满18在线观看网站| 天天一区二区日本电影三级 | 成人特级黄色片久久久久久久| 欧美成人一区二区免费高清观看 | 精品国产一区二区久久| 18禁观看日本| 国产极品粉嫩免费观看在线| 成人av一区二区三区在线看| 一级作爱视频免费观看| 久久久久久人人人人人| 欧美日韩一级在线毛片| 每晚都被弄得嗷嗷叫到高潮| 制服诱惑二区| 黑人巨大精品欧美一区二区mp4| 一级,二级,三级黄色视频| 国语自产精品视频在线第100页| av视频在线观看入口| 757午夜福利合集在线观看| 两个人视频免费观看高清| 老司机深夜福利视频在线观看| 午夜亚洲福利在线播放| 久久精品亚洲熟妇少妇任你| 中文字幕另类日韩欧美亚洲嫩草| 国产精品亚洲美女久久久| 国产精品自产拍在线观看55亚洲| 9191精品国产免费久久| 成在线人永久免费视频| 好看av亚洲va欧美ⅴa在| 国产精品自产拍在线观看55亚洲| 咕卡用的链子| av在线天堂中文字幕| 国产亚洲精品av在线| 叶爱在线成人免费视频播放| 欧美绝顶高潮抽搐喷水| 18禁美女被吸乳视频| 超碰成人久久| 久久久久久久精品吃奶| 国语自产精品视频在线第100页| 中亚洲国语对白在线视频| 一级黄色大片毛片| 午夜福利视频1000在线观看 | 亚洲成国产人片在线观看| 国产成人系列免费观看| 亚洲av电影不卡..在线观看| 一区二区日韩欧美中文字幕| svipshipincom国产片| 国产精品久久久人人做人人爽| 午夜久久久久精精品| 精品乱码久久久久久99久播| 久久热在线av| 99在线人妻在线中文字幕| 99国产精品99久久久久| 黄色视频,在线免费观看| 欧美乱色亚洲激情| 亚洲aⅴ乱码一区二区在线播放 | 中文字幕最新亚洲高清| 亚洲国产毛片av蜜桃av| 波多野结衣一区麻豆| 少妇 在线观看| 国产精品精品国产色婷婷| 制服人妻中文乱码| 在线观看一区二区三区| 两性夫妻黄色片| 欧美国产精品va在线观看不卡| 国产蜜桃级精品一区二区三区| 99在线视频只有这里精品首页| 美国免费a级毛片| 老汉色av国产亚洲站长工具| 日本三级黄在线观看| 亚洲自拍偷在线| 欧美日韩一级在线毛片| 精品少妇一区二区三区视频日本电影| 少妇裸体淫交视频免费看高清 | 丰满的人妻完整版| 欧美一级毛片孕妇| 亚洲精品在线观看二区| 如日韩欧美国产精品一区二区三区| 亚洲午夜精品一区,二区,三区| 成在线人永久免费视频| 一级毛片高清免费大全| 91av网站免费观看| 老司机在亚洲福利影院| 国产精华一区二区三区| 女人被躁到高潮嗷嗷叫费观| 三级毛片av免费| 亚洲国产精品999在线| 国产激情久久老熟女| 91麻豆精品激情在线观看国产| 高潮久久久久久久久久久不卡| 国产亚洲欧美在线一区二区| 亚洲专区字幕在线| 日韩av在线大香蕉| 女人精品久久久久毛片| 国产极品粉嫩免费观看在线| 一二三四在线观看免费中文在| 免费看美女性在线毛片视频| 一区二区三区国产精品乱码| 精品乱码久久久久久99久播| 久久伊人香网站| 国产xxxxx性猛交| 欧美黄色淫秽网站| 国产99白浆流出| 欧美成人一区二区免费高清观看 | 999久久久精品免费观看国产| 电影成人av| 欧美日韩瑟瑟在线播放| 大陆偷拍与自拍| 国产精品亚洲美女久久久| av网站免费在线观看视频| 动漫黄色视频在线观看| 日本撒尿小便嘘嘘汇集6| 在线观看一区二区三区| 欧美一级a爱片免费观看看 | 琪琪午夜伦伦电影理论片6080| 在线观看舔阴道视频| 国产精品久久久久久人妻精品电影| 久久香蕉精品热| 在线观看免费午夜福利视频| 欧美av亚洲av综合av国产av| 中文字幕最新亚洲高清| 90打野战视频偷拍视频| 国产乱人伦免费视频| 真人一进一出gif抽搐免费| av中文乱码字幕在线| 成熟少妇高潮喷水视频| 国产精品二区激情视频| 亚洲一区二区三区不卡视频| 又大又爽又粗| 久久久久亚洲av毛片大全| 亚洲avbb在线观看| 欧美日本中文国产一区发布| 99国产精品一区二区三区| 十八禁人妻一区二区| 97碰自拍视频| 日韩欧美在线二视频| 欧美日本中文国产一区发布| 亚洲va日本ⅴa欧美va伊人久久| www.www免费av| 久久人人97超碰香蕉20202| 欧美一级毛片孕妇| 日本精品一区二区三区蜜桃| 成人永久免费在线观看视频| 在线观看午夜福利视频| 久久久久亚洲av毛片大全| 国产成人啪精品午夜网站| 亚洲av成人av| 亚洲最大成人中文| 欧美色视频一区免费| 久久国产乱子伦精品免费另类| 级片在线观看| 久久久久久大精品| 黄色成人免费大全| 国产精品秋霞免费鲁丝片| av在线播放免费不卡| 精品一区二区三区av网在线观看| av在线天堂中文字幕| 又紧又爽又黄一区二区| 久久这里只有精品19| 精品人妻在线不人妻| 成人欧美大片| 高清黄色对白视频在线免费看| 亚洲中文字幕一区二区三区有码在线看 | 国产1区2区3区精品| 大型av网站在线播放| 999久久久国产精品视频| 国产成人欧美在线观看| 国产欧美日韩一区二区三| 中文字幕高清在线视频| 久久精品91无色码中文字幕| 韩国精品一区二区三区| 伦理电影免费视频| 国产精品自产拍在线观看55亚洲| 国产视频一区二区在线看| 美女 人体艺术 gogo| 黄色女人牲交| 在线国产一区二区在线| www.www免费av| av中文乱码字幕在线| 亚洲天堂国产精品一区在线| 俄罗斯特黄特色一大片| 精品国产亚洲在线| 首页视频小说图片口味搜索| 日本精品一区二区三区蜜桃| 欧美 亚洲 国产 日韩一| 制服诱惑二区| 中文字幕人成人乱码亚洲影| 日日爽夜夜爽网站| 亚洲aⅴ乱码一区二区在线播放 | 精品国产亚洲在线| www国产在线视频色| 亚洲精品美女久久久久99蜜臀| 久久精品亚洲熟妇少妇任你| 99精品久久久久人妻精品| avwww免费| 波多野结衣巨乳人妻| 久久精品国产亚洲av高清一级| 丝袜在线中文字幕| 一卡2卡三卡四卡精品乱码亚洲| 99在线人妻在线中文字幕| 曰老女人黄片| 精品国产一区二区久久| 国产私拍福利视频在线观看| 搡老熟女国产l中国老女人| 日韩大码丰满熟妇| 波多野结衣av一区二区av| 夜夜躁狠狠躁天天躁| av视频在线观看入口| 精品电影一区二区在线| 国产片内射在线| 久久久精品欧美日韩精品| 亚洲成人免费电影在线观看| 久久精品国产99精品国产亚洲性色 | 在线观看午夜福利视频| 亚洲精品一区av在线观看| 久久久久久久久免费视频了| 满18在线观看网站| www.自偷自拍.com| 最近最新中文字幕大全电影3 | 在线观看免费日韩欧美大片| 美女大奶头视频| 国产99久久九九免费精品| 亚洲国产欧美一区二区综合| av天堂在线播放| 精品久久久久久久久久免费视频| av视频在线观看入口| 嫩草影视91久久| 欧美大码av| 亚洲精品中文字幕一二三四区| 老熟妇仑乱视频hdxx| 国内久久婷婷六月综合欲色啪| 国产av精品麻豆| 欧美亚洲日本最大视频资源| 欧洲精品卡2卡3卡4卡5卡区| 天天添夜夜摸| 999精品在线视频| 日韩欧美在线二视频| 国产av精品麻豆| 999精品在线视频| 日韩欧美在线二视频| 俄罗斯特黄特色一大片| 亚洲成人久久性| 久久久久精品国产欧美久久久| 免费观看人在逋| ponron亚洲| 成人18禁高潮啪啪吃奶动态图| 久久精品国产亚洲av高清一级| 久久人人97超碰香蕉20202| 久久国产精品人妻蜜桃| 日日干狠狠操夜夜爽| 日韩欧美国产一区二区入口| 黄片播放在线免费| 国产精品久久久久久人妻精品电影| 99国产极品粉嫩在线观看| 亚洲欧美日韩高清在线视频| av视频在线观看入口| 久久久久久免费高清国产稀缺| x7x7x7水蜜桃| 一区二区三区激情视频| 18禁国产床啪视频网站| 欧美最黄视频在线播放免费| 中文字幕另类日韩欧美亚洲嫩草| 精品不卡国产一区二区三区|