• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合空間注意力的自適應(yīng)安檢違禁品檢測方法

    2023-11-20 10:58:36任東升楊鵬熙杜茂生
    計算機工程與應(yīng)用 2023年21期
    關(guān)鍵詞:違禁品錨框卷積

    游 璽,侯 進,任東升,楊鵬熙,杜茂生

    1.西南交通大學 信息科學與技術(shù)學院 智能感知智慧運維實驗室,成都 611756

    2.西南交通大學 綜合交通大數(shù)據(jù)應(yīng)用技術(shù)國家工程實驗室,成都 611756

    3.西南交通大學 唐山研究院,河北 唐山 063000

    隨著城市交通的快速發(fā)展,安檢在保障出行安全中發(fā)揮著重要的作用。但是目前識別安檢機掃描出的違禁物品主要還是依靠人工完成,這種方式會耗費大量的人力和財力,尤其是在人流高峰期,安檢人員可能因為工作疲勞而出現(xiàn)漏檢、誤檢的情況。因此,研究出一種高精度的智能安檢識別算法對保障公共出行安全有著十分重要的意義。

    目標檢測在交通、監(jiān)控和醫(yī)學等領(lǐng)域都有大量應(yīng)用[1]。錢伍等[2]在YOLOv5[3]基礎(chǔ)上對主干網(wǎng)絡(luò)和融合網(wǎng)絡(luò)進行改進,提高模型在各種復(fù)雜交通場景中對交通燈的檢測能力。宋艷艷等[4]在YOLOv3[5]的基礎(chǔ)上結(jié)合殘差結(jié)構(gòu)進行多尺度融合提高檢測性能,并引入斥力損失函數(shù)解決目標遮擋問題。在X 光安檢圖像的違禁物品檢測領(lǐng)域中也積累了大量研究成果[6]。主要從YOLO系列為代表的單階段算法和以Faster R-CNN[7]為代表的兩階段算法兩個方向進行研究。單階段算法與兩階段算法相比,結(jié)構(gòu)簡單且檢測速度更快,但檢測精度稍有欠缺。

    面對X光安檢圖像違禁品研究領(lǐng)域物品復(fù)雜、遮擋和密集等諸多挑戰(zhàn),吳海濱等[8]在YOLOv4[9]算法的基礎(chǔ)上加入改進的空洞卷積,使用多尺度聚合上下文信息,最后通過K-means聚類算法優(yōu)化初始候選框,但是檢測精度仍然不是很理想;針對此問題,董乙杉等[10]提出了一種改進YOLOv5 的X 光違禁品檢測模型,該模型在YOLOv5 算法的基礎(chǔ)上,結(jié)合注意力機制、加權(quán)邊框融合和數(shù)據(jù)增強策略以提高網(wǎng)絡(luò)檢測的精準度??导验萚11]提出了一種多通道區(qū)域建議的多尺度X 光安檢圖像檢測算法,在Faster R-CNN算法的基礎(chǔ)上,采用多尺度特征提取與多通道區(qū)域建議網(wǎng)絡(luò)融合更多的特征圖信息,以提高違禁品檢測精度。由于違禁物品相對于行李箱較小,普通的網(wǎng)絡(luò)模型對小目標檢測能力很弱,為了解決X 光圖像中小目標違禁物品漏檢問題,吉祥凌等[12]在SSD[13]網(wǎng)絡(luò)的基礎(chǔ)上采用多尺度特征融合方法來提高小目標檢測性能。張友康等[14]在SSD網(wǎng)絡(luò)模型上,引入小卷積非對稱模塊和多尺度特征圖融合模塊來提升網(wǎng)絡(luò)對小目標檢測的性能。但是網(wǎng)絡(luò)檢測的速度仍然無法達到實時性要求,于是郭守向等[15]基于YOLOv3網(wǎng)絡(luò)模型改進,將其主干網(wǎng)絡(luò)改為由兩個DarkNet組合的新主干網(wǎng)絡(luò),并且引入特征增強模塊來提高小目標的檢測效果,并提高了檢測速度。

    目前針對X 光安檢圖像違禁品檢測的研究取得了有效進展,但是仍然存在以下問題:沒有對不同擺放姿態(tài)和不同形狀的違禁品進行感受野適配,導(dǎo)致模型有漏檢現(xiàn)象;沒有抑制復(fù)雜背景噪音帶來的干擾,導(dǎo)致模型存在誤檢現(xiàn)象;錨框的設(shè)定依賴于人工進行聚類設(shè)定,導(dǎo)致錨框初始值泛化性不強,從而影響模型檢測準確度;小樣本數(shù)據(jù)集無法訓練出高準確率的結(jié)果。

    綜上,本文從特征提取網(wǎng)絡(luò)、注意力機制、候選區(qū)生成網(wǎng)絡(luò)和檢測器四個方面,在精度更高的兩階段檢測網(wǎng)絡(luò)Cascade RCNN[16]基礎(chǔ)上進行改進,主要貢獻如下:

    (1)提出一種空間自適應(yīng)注意力模塊(spatial adaptive attention module,SAAM),提高網(wǎng)絡(luò)對目標區(qū)域的關(guān)注度,更好地抑制復(fù)雜背景帶來的噪音干擾;同時引入可形變卷積(deformable convolutional networks,DCN)[17]改進特征提取網(wǎng)絡(luò),提高網(wǎng)絡(luò)對不同尺度違禁品的自適應(yīng)性。

    (2)提出一種多尺度自適應(yīng)候選區(qū)域生成網(wǎng)絡(luò)(multiscale guided anchoring region proposal network,MGA-RPN),結(jié)合Guided Anchoring[18]方法并融合多尺度特征圖,自適應(yīng)生成候選框和高質(zhì)量特征圖。

    (3)改進級聯(lián)檢測頭,嵌入在線難例挖掘模塊(online hard example mining,OHEM)[19]解決正負樣本不均衡問題,提高對小樣本目標的檢測精度。

    1 本文方法

    Cascade R-CNN是一種基于Faster R-CNN進行改進的高精確度檢測模型,引入了級聯(lián)檢測器(cascade detector)。采用多階段訓練策略,將多個不同IoU 閾值的檢測器進行級聯(lián)。每個檢測器含有一個ROI Align、一個全連接層FC、一個分類回歸C 和一個邊框回歸B。級聯(lián)檢測器將前一個階段網(wǎng)絡(luò)輸出的邊框回歸對候選區(qū)進行重采樣,作為下一個ROI Align 網(wǎng)絡(luò)的輸入,對檢測結(jié)果進行不斷優(yōu)化[20]。

    本文算法模型選用ResNet50[21]作為特征提取網(wǎng)絡(luò),F(xiàn)PN[22]+PAN[23]作為特征融合網(wǎng)絡(luò),整體以Cascade R-CNN網(wǎng)絡(luò)結(jié)構(gòu)為框架,并以此為Baseline進行改進得到本文的X 光違禁品檢測方法(X-ray prohibited item cascade R-CNN,XPIC R-CNN),網(wǎng)絡(luò)結(jié)構(gòu)圖如圖1所示。

    圖1 XPIC R-CNN網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.1 XPIC R-CNN network structure diagram

    1.1 自適應(yīng)特征提取網(wǎng)絡(luò)

    X光拍攝的安檢圖像中物品形狀各異,普通卷積在同一層網(wǎng)絡(luò)中感受野是固定的,對不同尺寸物體適應(yīng)能力差,如圖2(a)所示;而可形變卷積通過偏移域?qū)W習符合物體形狀的偏移量,使網(wǎng)絡(luò)的感受野能夠覆蓋不同尺寸的目標,自適應(yīng)提取目標的特征信息,如圖2(b)。因此本文使用可形變卷積替換ResNet50 網(wǎng)絡(luò)后4 個階段的普通卷積,增加網(wǎng)絡(luò)對不同形狀違禁品的適應(yīng)性。

    圖2 普通卷積與可形變卷積感受野對比圖Fig.2 Comparison of normal and deformable convolutional fields of perception

    普通卷積操作主要是在輸入的特征圖x上采用特定的大小的網(wǎng)格R進行采樣,然后再進行w加權(quán)運算。對輸出對特征圖y上的每個位置p0通過公式(1)計算:

    公式中R={( - 1,-1),(-1,0),…,(0,1),(1,1)} 。可形變卷積的網(wǎng)絡(luò)結(jié)構(gòu)圖如圖3 所示,它是對每個p0位置都添加一個偏移量Δpn進行計算,進而得到自適應(yīng)的定位,公式如下:

    圖3 可形變卷積原理圖Fig.3 Schematic diagram of deformable convolution

    1.2 空間自適應(yīng)注意力模塊

    空間注意力機制是一種強化重要信息和抑制非重要信息的方法,可以更好地關(guān)注目標物體的本身減少對背景噪音信息的干擾。卷積注意力只能針對局部進行計算,導(dǎo)致感受野太小無法覆蓋到所有目標范圍;自注意力能進行全局運算,但也帶來了巨大的計算量。因此,結(jié)合了可形變卷積的空間稀疏采樣優(yōu)勢和自注意力強大的元素間關(guān)系建模能力,提出一種空間自適應(yīng)注意力模塊(spatial adaptive attention module,SAAM),嵌入到ResNet50 網(wǎng)絡(luò)的后兩個階段中,使網(wǎng)絡(luò)更高效地提取X 光違禁品的特征。如圖4,SAAM 模塊使用偏移量生成網(wǎng)絡(luò)對目標區(qū)域自適應(yīng)提取,將偏移量所覆蓋到的區(qū)域作為注意力的計算范圍,避免了全局注意力運算,從而減少計算量,加快網(wǎng)絡(luò)訓練收斂速度。

    圖4 空間注意力的自適應(yīng)原理圖Fig.4 Schematic diagram of spatial adaptive attention

    SAAM模塊原理如圖5所示,對輸入的特征圖x生成目標區(qū)域的k個感興趣點,用于后面的偏移量疊加。特征圖x與轉(zhuǎn)換矩陣Wq相乘得到查詢向量zq,如公式(3)所示:

    圖5 空間自適應(yīng)注意力模塊原理圖Fig.5 Schematic diagram of spatial adaptive attention

    然后將zq輸入偏移量生成網(wǎng)絡(luò)得到第k個感興趣點的偏移量Δpqk,具體做法如下:

    之后,把生成的偏移量與感興趣點進行疊加,并在形變點的位置對特征圖x進行特征采樣得到Value向量,WV為特征采樣矩陣,公式如下:

    因為感興趣點和偏移采樣點均來自特征向量zq,所以這里的注意力權(quán)重不再由qkT內(nèi)積運算獲得,而是可以直接從zq進行線性映射得到,進一步減少了計算量,如公式(6)所示:

    公式(6)中,Aqk是第k個感興趣點的注意力權(quán)重得分,zqk是第k個感興趣點在查詢向量zq中的位置,Linear代表全連接函數(shù)。

    最后將注意力權(quán)重得分Aqk與V進行內(nèi)積運算,并累加k個感興趣得到這個采樣區(qū)域的注意力結(jié)果,公式如下:

    以上是一個計算頭部的計算原理,這里使用M個頭進行計算k個感興趣點,得到最終的多頭注意力結(jié)果公式為:

    1.3 多尺度自適應(yīng)候選區(qū)域生成網(wǎng)絡(luò)模塊

    對本文研究的數(shù)據(jù)集進行分析,可以得如圖6所示的錨框高寬比率分布情況,若進行人工預(yù)設(shè)錨框初始值將很難覆蓋所有的情況,并且人工初始化錨框的質(zhì)量會嚴重影響到檢測網(wǎng)絡(luò)的準確度。

    圖6 數(shù)據(jù)集Anchor高寬比率的數(shù)量分布圖Fig.6 Distribution of number of dataset anchor aspect ratio

    因此本文設(shè)計了一個多尺度自適應(yīng)候選區(qū)生成網(wǎng)絡(luò)模塊(multiscale guided anchoring region proposal network,MGA-RPN),采用多尺度特征圖輸入的方式結(jié)合Guided Anchoring方法。MGA-RPN可以通過多尺度特征圖中豐富的語義信息指導(dǎo)錨框的生成,從而自適應(yīng)生成候選框,并同步生成適配對應(yīng)大小感受野的特征圖,為后續(xù)檢測工作帶來更精準的效果。主要由兩個子模塊組成,結(jié)構(gòu)如圖7所示。

    圖7 MGA-RPN模塊結(jié)構(gòu)Fig.7 MGA-RPN module structure

    (1)錨框生成模塊的作用是得到高質(zhì)量的錨框。從輸入特征圖Fi中提取相關(guān)語義信息,通過位置預(yù)測網(wǎng)絡(luò)區(qū)分目標與背景,生成目標中心位置的概率p(i,j|Fi);形狀預(yù)測網(wǎng)絡(luò)會輸出每個預(yù)測中心的最佳錨框尺寸比例(dw,dh)∈[-1,1];最后通過公式(9)轉(zhuǎn)換得到最終的錨框尺寸。

    公式中σ為錨框的預(yù)設(shè)尺度系數(shù),初始化值為8,s為步長,dw和dh為形狀預(yù)測網(wǎng)絡(luò)的輸出值,w和h為轉(zhuǎn)換后準確的錨框尺寸寬高值。

    (2)自適應(yīng)特征模塊的作用是生成適配錨框大小感受野的特征圖。由于常規(guī)進行預(yù)設(shè)錨框的操作導(dǎo)致網(wǎng)絡(luò)對每層特征提取的步驟是一致的,所以感受野是固定的,而本文的錨框是語義指導(dǎo)生成的,其感受野大小是不固定的,因此需要對原來的特征圖進行感受野適配。主要過程是利用上一個模塊中形狀預(yù)測網(wǎng)絡(luò)生成的錨框?qū)捄透?,?jīng)過一個1×1 的卷積得到一個偏移量,并將其送入一個3×3 的可形變卷積即可獲得適配所需大小感受野后的特征圖。其公式如下:

    式中,fi是第i個特征圖,(wi,hi)是對應(yīng)目標的錨框形狀,NT是為一個3×3 的可形變卷積,f′i是適配錨框大小感受野后的特征圖。

    1.4 嵌入OHEM的級聯(lián)檢測頭

    X光安檢違禁品檢測中,違禁品的數(shù)量相對于其他正常物品的僅占很少的一部分,并且一些類別的訓練樣本也屬于小樣本,存在違禁目標與背景的正負樣本不均衡問題。為了讓一部分小樣本的違禁品類別得到高效地利用,在檢測頭中嵌入OHEM模塊,訓練過程中挖掘困難樣本進行反向傳播更新網(wǎng)絡(luò)參數(shù),使模型檢測準確度得到進一步提升。

    OHEM 是一種能夠解決網(wǎng)絡(luò)模型正負樣本不平衡問題的訓練策略,在訓練過程中自動篩選出難以識別的樣本重新送入網(wǎng)絡(luò)中進行反復(fù)訓練,其基本原理結(jié)構(gòu)如圖8 所示。網(wǎng)絡(luò)先獲取檢測頭中N個RoI 計算的分類損失值和回歸損失值,之后分別對這些損失值進行求和排序,再通過非極大值抑制算法(non-maximum suppression,NMS)[24]去除IoU大于一定閾值的RoI,最后篩選出前B個損失值最大的RoI 作為難例樣本進行反向傳播更新參數(shù)。

    圖8 OHEM原理圖Fig.8 OHEM schematic diagram

    2 實驗與結(jié)果分析

    2.1 數(shù)據(jù)集的處理與分析

    該領(lǐng)域的研究人員大多使用的是自制作數(shù)據(jù)集,由于安檢圖像涉及隱私安全等問題,所以公開的X光安檢圖像數(shù)量較少。目前已知的該領(lǐng)域的相關(guān)公開數(shù)據(jù)集有GDXray[25]、OPIXray[26]和SIXray[27]。SIXray 數(shù)據(jù)集由1 059 231張X光行李圖像組成,SIXray數(shù)據(jù)集的主要用于圖像分類任務(wù),包含了大量沒有違禁物品的圖像,所以不能直接用于目標檢測任務(wù),需要對該數(shù)據(jù)集進行處理。

    本文在SIXray 數(shù)據(jù)集的基礎(chǔ)上制作了用于違禁物品檢測的數(shù)據(jù)集SIXray_PI。從SIXray數(shù)據(jù)集中篩選出包含違禁物品的圖像有8 909 張,違禁物品由Gun、Knife、Wrench、Pliers、Scissors 五類組成,各類的圖片分布情況如圖9所示。

    圖9 SIXray_PI數(shù)據(jù)集分布情況Fig.9 SIXray_PI dataset distribution

    最終將所有圖像按照8∶1∶1隨機劃分訓練集、驗證集和測試集。

    2.2 實驗環(huán)境與訓練策略

    本文實驗環(huán)境:操作系統(tǒng)為Ubuntu20.04,CPU 為i7-9700K,內(nèi)存16 GB,顯卡為NVIDIA RTX 2080Super。Python 3.8 和Pytorch 1.9,訓練框架為MMDetention 2.26[28]。訓練策略與參數(shù)如表1所示。

    表1 實驗相關(guān)參數(shù)設(shè)定Table 1 Experiment related parameter setting

    2.3 評估指標

    準確率(Precision)是衡量查準率的指標,統(tǒng)計的是在所有正樣本中正確目標所占比例;召回率(Recall)是衡量查全率的指標,統(tǒng)計的是所有真實目標中被網(wǎng)絡(luò)模型檢測中的目標所占比例。其公式[29]為:

    式中,TP表示類別判斷正確的預(yù)測框數(shù)量,F(xiàn)P表示錯將其他類預(yù)測為本類的預(yù)測框數(shù)量,F(xiàn)N表示錯將本類預(yù)測為其他類的預(yù)測框數(shù)量。

    而現(xiàn)實中準確率和召回率往往是難以兼得的,因此在目標檢測中的主要評價指標為平均精度值(average precision,AP),它是由準確率和召回率繪制的P-R曲線下的面積得到的,其公式為:

    在N個類別目標檢測中則使用多類平均精度均值(mean average precision,mAP)作為評價指標,其公式為:

    2.4 消融實驗

    2.4.1 引入DCN有效性驗證實驗

    為了驗證本文引入DCN 的有效性,進行該模塊的對比實驗,比較參數(shù)量、mAP50和AR100三個評價指標。結(jié)果如表2所示。

    表2 DCN對算法性能影響對比Table 2 Comparison of DCN impact on algorithm performance

    通過表2 分析可知,引入DCN 后,參數(shù)量增加了0.58 MB,mAP50提升了0.1個百分點,AR100提升了0.9個百分點。本文針對淺層特征圖提取過程采用了DCN網(wǎng)絡(luò),使得網(wǎng)絡(luò)整體對目標的定位信息提取更加準確,因此獲得了AR100的較大提升。

    為了進一步驗證引入DCN 的有效性,將ResNet50骨干網(wǎng)絡(luò)提取的淺層特征圖進行可視化,可視化效果圖如圖10 所示。通過該可視化圖分析可知,可形變卷積使網(wǎng)絡(luò)更適配目標形狀,強化了Knife 目標的邊緣定位信息,為后續(xù)深層次網(wǎng)絡(luò)的特征提取剔除了更多的噪聲干擾,證明了本文使用可形變卷積替代普通卷積的有效性。

    圖10 淺層特征圖可視化對比Fig.10 Comparison of shallow feature map visualization

    2.4.2 SAAM模塊

    為了驗證本文提出的SAAM 模塊的有效性與優(yōu)越性,將其與CBAM[30]和Self-Attention[31]兩種主流的空間注意力模塊進行對比實驗,比較mAP50、AR100、參數(shù)量和GFLOPs四個評價指標,結(jié)果如表3所示。

    表3 SAAM模塊對算法性能影響對比Table 3 Comparison of SAAM module impact on algorithm performance

    通過表3分析可知,SAAM模塊在各個指標上都取得了最優(yōu)值。相比Self-Attention 參數(shù)減少了2.36 MB,計算量減少了2.36 GFLOPs,mAP50和AR100卻都有提升。相比CBAM參數(shù)量和計算量有所增加,但是mAP50提升了1.3 個百分點。相比未采用此模塊的網(wǎng)絡(luò),參數(shù)量增加了4.13 MB,計算量增加了1.2 GFLOPs,mAP50提升了1.7個百分點,AR100提升了3.2個百分點。

    進一步分析該模塊對復(fù)雜背景噪音抑制能力與自適應(yīng)性能力,使用Grad-CAM(gradient-weighted class activation MAP)[32]進行網(wǎng)絡(luò)關(guān)注度可視化,可視化對比結(jié)果如圖11 所示。圖11 中右側(cè)含有一個Pilers 類違禁物品,被大量其他物品所覆蓋,可以作為一個復(fù)雜背景實驗樣本。從圖11 可以看出,由于CBAM 只能獲取局部感受野,其對背景噪音的抑制能力最差,從而導(dǎo)致網(wǎng)絡(luò)對目標的關(guān)注度不高。Self-Attention進行全局計算,能夠抑制復(fù)雜背景中大部分的噪音干擾。與其他兩種注意力相比,SAAM模塊抑制復(fù)雜背景噪音干擾的能力最強。并且該注意力模塊使用偏移網(wǎng)絡(luò)自動學習卷積偏移量,使感受野覆蓋范圍更符合違禁目標大小,模型的自適應(yīng)性能力更強,證明了本文提出的SAAM模塊的有效性。

    圖11 可視化熱力對比圖Fig.11 Visualized thermal comparison chart

    2.4.3 MGA-RPN模塊

    (1)候選框定性分析

    將RPN與MGA-RPN網(wǎng)絡(luò)中的錨框可視化,從圖12可以看出,RPN 的錨框初始值來自于人工設(shè)定,對目標的匹配度較低。MGA-RPN的錨框更集中于違禁品目標,為后續(xù)的RCNN網(wǎng)絡(luò)提供了高質(zhì)量的正樣本候選框。

    圖12 候選框可視化對比圖Fig.12 Candidate frame visualization comparison chart

    (2)特征圖定性分析

    對MGA-RPN適配的4層特征圖可視化,從圖13可以看出,MGA-RPN 根據(jù)生成的錨框適配特征圖后,每層的感受野更加符合不同違禁目標的尺寸,為后續(xù)分類檢測網(wǎng)絡(luò)提供了高質(zhì)量的特征圖。

    (3)定量分析

    從參數(shù)量、mAP50和AR100三個評價指標進行定量分析實驗。實驗結(jié)果如表4 所示。分析表4 可知,引入MGA-RPN 模塊后,參數(shù)量增加了0.36 MB,mAP50提升了1.1 個百分點,而AR100提升了1.9 個百分點。經(jīng)分析認為,MGA-RPN模塊根據(jù)輸入特征圖含有的語義信息自適應(yīng)生成了更準確的錨框,以及針對生成的錨框進行適配特征圖,從而給網(wǎng)絡(luò)模型帶來了較大的召回率提升,進而提高了網(wǎng)絡(luò)的準確率。

    表4 MGA-RPN模塊對算法性能影響對比Table 4 Comparison of MGA-RPN module impact on algorithm performance

    2.4.4 嵌入OHEM模塊的有效性實驗

    如表5,在級聯(lián)檢測器中嵌入OHEM模塊能夠解決目標與背景的不均衡問題,不同閾值下的平均檢測精度都有提高,最高達到1.2個百分點的提升效果。

    表5 OHEM模塊對算法性能影響Table 5 Impact of OHEM modules on algorithm performance

    為了更具體分析OHEM模塊對小樣本scissors類別的提升效果,在IoU=0.5和IoU=[0.5:0.95]兩個不同閾值下的對比平均準確度,結(jié)果如圖14所示。

    圖14 小樣本scissors檢測準確率對比圖Fig.14 Comparison of accuracy of scissors test for small samples

    小樣本目標由于數(shù)量較少導(dǎo)致網(wǎng)絡(luò)無法進行大規(guī)模訓練為其更新參數(shù),容易被模型判定為難以訓練的困難樣本。OHEM 可以在訓練過程中自動篩選出困難樣本重新送入網(wǎng)絡(luò)中進行反復(fù)訓練,使得小樣本目標在訓練過程中被反復(fù)利用,從而達到對小樣本精度有效提升效果。如圖14,在IoU=0.5 的閾值下,在訓練過程中會有較多的樣本被判定為正樣本,所以O(shè)HEM 提升效果不是特別明顯。而在IoU=[0.5∶0.95]的時候,小樣本目標的不充分訓練導(dǎo)致被判定為困難樣本的數(shù)量增加,OHEM 能夠挖掘這些困難樣本進行反向傳播更新網(wǎng)絡(luò)參數(shù),使得檢測精度有較大的提升。

    2.5 對比實驗

    2.5.1 XPIC R-CNN與基準算法的對比實驗

    (1)定量分析

    使用不同閾值下的mAP 和AR 評價指標進行定量分析,結(jié)果如表6所示。分析表6中數(shù)據(jù)可知,本文方法在mAP50、mAP75、mAP50∶95和AR100分別提升了3.2、7.7、6.4和8.2個百分點,證明本文改進算法的有效性。

    表6 XPIC R-CNN與基準算法的對比結(jié)果Table 6 Results of XPIC R-CNN compared to baseline

    (2)復(fù)雜度與性能分析

    為了探究不同模塊對本文方法性能的影響,使用參數(shù)量(parameters)和浮點運算量(floating point of operations,F(xiàn)LOPs)兩個指標與衡量網(wǎng)絡(luò)模型的復(fù)雜度。參數(shù)量是網(wǎng)絡(luò)模型訓練過程中需要更新的權(quán)重與偏置數(shù)量,屬于空間復(fù)雜度的范疇。FLOPs是模型的計算量,屬于時間復(fù)雜度的范疇。以輸入圖像尺寸為640×640 進行實驗,不同模塊對模型的性能影響結(jié)果如表7所示。

    表7 XPIC R-CNN與基準算法的對比結(jié)果Table 7 Results of XPIC R-CNN compared to baseline

    通過表7 分析可知,影響模型參數(shù)量最大的是SAAM模塊,由于此模塊需要對所有目標進行注意力計算,所以給模型帶來了4.13 MB 的參數(shù)量增加,但是只增加了1.21 GFLOPs的計算量,符合設(shè)計時減少計算量的預(yù)期。影響模型計算量最大的是MGA-RPN模塊,因為此模塊會使用4個不同尺度的特征圖進行計算生成錨框,所以給模型帶來了1.94 GFLOPs計算量的增加。而OHEM 模塊只會在訓練過程中進行挖掘困難樣本反向傳播更新模型參數(shù),并不會額外增加參數(shù)量與計算量。

    (3)P-R圖分析

    在召回率R取值為{0,0.01,0.02,…,1}時,采用插值方法算出對應(yīng)的準確度P,繪出P-R對比圖15。P-R曲線所圍成的面積代表對應(yīng)目標的平均檢測精度,從圖15對比可知,本文算法的在各類曲線在相同的召回率R下,準確度P均高于基準網(wǎng)絡(luò),進一步證明了本文算法改進的有效性。

    圖15 各類別P-R曲線對比圖Fig.15 P-R curve comparison chart of various classes

    (4)混淆矩陣

    為了探究本文算法的誤檢和漏檢情況,繪制的混淆矩陣結(jié)果如圖16 所示。通過分析可知,Gun 擁有0誤檢率和1%的漏檢率;Knife 最高只有3%的概率被誤檢為Wrench,Pliers 只有2%的概率被誤檢為Wrench;Scissors 只有2%的概率被誤檢為Knife;誤檢最高的Wrench 也只有5%的概率被識別為Pliers;漏檢率最高的Wrench 僅有10%,本文算法滿足高準確率和低誤檢率的目標。

    圖16 混淆矩陣Fig.16 Confusion matrix

    (5)不同形態(tài)的違禁品檢測能力分析

    將本文方法與Baseline 在不同尺度上的檢測能力進行定量對比分析,實驗結(jié)果如表8所示。小目標和中大目標的檢測能力分別提升了3.2、5.5和6.1個百分點,分析認為不同形態(tài)目標精度提升的原因有以下三點:一是可形變卷積提供了更加適配的感受野,二是空間自適應(yīng)注意力對背景噪音的強抑制能力,三是MGA-RPN提供了更高質(zhì)量的候選框。

    表8 不同形態(tài)違禁品檢測結(jié)果Table 8 Results for different forms of contraband

    再選取不同場景下具有不同形態(tài)目標的圖片進行定性對比分析。從圖17對比照片看出本文XPIC R-CNN網(wǎng)絡(luò)模型能夠更加準確地檢測X光圖像中的違禁物品。在密集場景和遮擋場景對比圖中存在形態(tài)各異的違禁物品,本文模型能夠檢測出更多的違禁物品;在小目標對比圖可以看出本文模型能夠準確地識別出小目標違禁品,直觀地驗證了本文算法對不同形態(tài)目標檢測性能提升的有效性。

    圖17 檢測效果對比圖Fig.17 Comparison chart of detection effect

    2.5.2 主流算法對比實驗

    本文選取RetinaNet50[33]、SSD、YOLOv3、YOLOv5、Faster RCNN、Cascade RCNN 兩篇最新的相關(guān)文獻方法進行對比實驗。RetinaNet50 通過引入Focal Loss 緩解了正負樣本不均衡問題,極大提高了網(wǎng)絡(luò)模型的性能;SSD 是截至目前主流的目標檢測框架之一,精度接近Faster RCNN,速度接近YOLO 的高性能檢測器;YOLOv3是目前工業(yè)界常用的檢測算法,是一款性能與速度十分均衡的檢測器;YOLOv5則是如今最流行的單階段檢測算法之一;Faster RCNN 是兩階段檢測網(wǎng)絡(luò)的代表之一,引入了RPN 網(wǎng)絡(luò)極大提高了網(wǎng)絡(luò)檢測性能,Cascade RCNN 為本文的基準算法。文獻[34]是在YOLOv5 的基礎(chǔ)上加入空間坐標注意力增強特征提取能力,并將特征編碼展平為一維向量利用自監(jiān)督二階融合得到全局上下文信息。文獻[35]是在YOLOv7 的基礎(chǔ)上融合高效注意力機制提高深層網(wǎng)絡(luò)的特征提取能力,采用跳躍連接等方法豐富特征融合后的信息,最后采用密集編碼對旋轉(zhuǎn)角度進行離散化處理提高定位準確度。

    將上述模型進行同一個實驗環(huán)境進行對比實驗,實驗結(jié)果如表9 所示??梢园l(fā)現(xiàn),本文提出的網(wǎng)絡(luò)模型mAP 值均超過其他網(wǎng)絡(luò)模型,計算量和參數(shù)量些許偏高。證明了本文檢測模型在安檢違禁品檢測中的優(yōu)越性。

    表9 本文模型與主流模型實驗對比結(jié)果Table 9 Experimental comparison results between our model and mainstream model

    3 結(jié)束語

    本文針對現(xiàn)階段的X 光違禁物品檢測研究準確率低和存在漏檢問題,基于Cascade R-CNN網(wǎng)絡(luò)架構(gòu),提出一個融合空間注意力的自適應(yīng)安檢違禁品檢測方法XPIC R-CNN。在主干網(wǎng)絡(luò)ResNet50 中使用可形變卷積替換普通卷積增加不同尺度的感受野,空間自適應(yīng)注意力模塊抑制復(fù)雜背景噪聲的干擾;MGA-RPN模塊生成高質(zhì)量錨框和特征圖;最后在級聯(lián)檢測器中嵌入OHEM 提升困難樣本與小樣本目標的檢測精度。實驗結(jié)果表明,本文所提出的檢測模型平均精度能達到94.5%,最高漏檢率僅有10%,滿足高精度和低漏檢的要求。由于采用了兩階段模型架構(gòu),導(dǎo)致算法運算量較大實時性不高。因此,后續(xù)工作將重點針對實時性問題進行深入探究。

    猜你喜歡
    違禁品錨框卷積
    刑事涉案財物先行沒收程序探析
    法制博覽(2023年9期)2023-10-05 15:09:06
    基于YOLOv3錨框優(yōu)化的側(cè)掃聲吶圖像目標檢測
    信號處理(2022年11期)2022-12-26 13:22:06
    錨框策略匹配的SSD飛機遙感圖像目標檢測
    基于SSD算法的輕量化儀器表盤檢測算法*
    基于GA-RoI Transformer的遙感圖像任意方向目標檢測
    基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
    論盜竊違禁品行為的定性與量刑
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    基于傅里葉域卷積表示的目標跟蹤算法
    宿舍違禁品問題淺析
    新闻| 田林县| 彩票| 莆田市| 贵州省| 福安市| 务川| 宜章县| 余干县| 社旗县| 神木县| 金川县| 长治市| 织金县| 葫芦岛市| 临泉县| 雅安市| 成安县| 乳山市| 内黄县| 宁阳县| 肇庆市| 临朐县| 西和县| 河池市| 陈巴尔虎旗| 措勤县| 潼南县| 邢台市| 开化县| 峨山| 吴旗县| 宁远县| 临海市| 浮山县| 天全县| 甘肃省| 乌拉特中旗| 苍南县| 定远县| 北安市|