• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    深度學(xué)習(xí)目標(biāo)檢測(cè)方法綜述①

    2022-05-10 02:28:14朱定局
    關(guān)鍵詞:特征圖像目標(biāo)

    謝 富,朱定局

    (華南師范大學(xué) 計(jì)算機(jī)學(xué)院,廣州 510631)

    1 引言

    目標(biāo)檢測(cè)的基本任務(wù)是需要判別圖片中被檢測(cè)的目標(biāo)類別,同時(shí)需要使用矩形邊界框來(lái)確立目標(biāo)的所在位置及大小,并給出相應(yīng)的置信度.作為計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)基本問(wèn)題,目標(biāo)檢測(cè)也是許多計(jì)算機(jī)視覺(jué)任務(wù)如圖像分割、目標(biāo)追蹤、圖像描述的基礎(chǔ).在過(guò)去的10年里,目標(biāo)檢測(cè)在計(jì)算機(jī)視覺(jué)領(lǐng)域受到了熱烈的關(guān)注,出現(xiàn)了越來(lái)越多的有關(guān)目標(biāo)檢測(cè)的論文發(fā)表(如圖1),其中包含了目標(biāo)檢測(cè)方法的理論創(chuàng)新,和對(duì)已有目標(biāo)檢測(cè)模型的改進(jìn)和推廣應(yīng)用.由于在目標(biāo)檢測(cè)過(guò)程中各類目標(biāo)的大小,形狀,姿態(tài)等各有不同,同時(shí)還受到外部條件如光線,遮擋等原因[1]影響,給目標(biāo)檢測(cè)帶來(lái)了一系列困難,國(guó)內(nèi)外許多學(xué)者都對(duì)此進(jìn)行了系統(tǒng)性的研究.

    圖1 2011–2020年目標(biāo)檢測(cè)相關(guān)論文的數(shù)量

    深度學(xué)習(xí)方法應(yīng)用到目標(biāo)檢測(cè)領(lǐng)域之前,目標(biāo)檢測(cè)領(lǐng)域發(fā)展平緩.在2012年的ImageNet[2]分類任務(wù)中,卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用使得圖像分類任務(wù)的效果大大提高,在此推動(dòng)下,Girshick 等[3]首次在目標(biāo)檢測(cè)領(lǐng)域中使用了區(qū)域卷積網(wǎng)絡(luò)(regions with CNN features,R-CNN),在檢測(cè)效果上取得了非常巨大的提升.此后,深度學(xué)習(xí)與目標(biāo)檢測(cè)任務(wù)的結(jié)合使得目標(biāo)檢測(cè)領(lǐng)域開(kāi)始迅速發(fā)展,并在實(shí)踐中得到廣泛應(yīng)用.目標(biāo)檢測(cè)具有廣闊的應(yīng)用前景,已經(jīng)在監(jiān)控安防[4]、自動(dòng)駕駛[5]、遙感偵測(cè)[6]、醫(yī)學(xué)圖像病灶檢測(cè)[7]等領(lǐng)域取得了很好的效果.

    2 目標(biāo)檢測(cè)數(shù)據(jù)集與評(píng)價(jià)指標(biāo)

    2.1 數(shù)據(jù)集

    目標(biāo)檢測(cè)領(lǐng)域常用數(shù)據(jù)集有PASCAL VOC[8]、ImageNet[9]、MS-COCO[10]、Open Images[11]、DOTA[12].常用數(shù)據(jù)集的樣本與標(biāo)注示例如圖2所示[12,13].

    圖2 常用數(shù)據(jù)集的樣本與標(biāo)注

    2.1.1 PASCAL VOC

    PASCAL VOC (the PASCAL visual object classification)數(shù)據(jù)集最早于2005年發(fā)布,最初只有4 個(gè)類別,2005–2012年每年更新一次,主要用于圖像分類、目標(biāo)檢測(cè)任務(wù).目前廣泛使用的是PASCAL VOC 2007和PASCAL VOC 2012 兩個(gè)版本的數(shù)據(jù)集,其中,PASCAL VOC 2007 包含9 963 張標(biāo)注過(guò)的圖片,標(biāo)注出24 640個(gè)目標(biāo)物體;PASCAL VOC 2012 包含11 530 張圖片,標(biāo)注出27 450 個(gè)目標(biāo)物體.這兩個(gè)數(shù)據(jù)集都包含了20 個(gè)類別的數(shù)據(jù),主要有人、動(dòng)物、交通工具、室內(nèi)物品等,并且數(shù)據(jù)集中的圖像都有對(duì)應(yīng)的XML 文件對(duì)目標(biāo)的位置和類別進(jìn)行標(biāo)注.

    2.1.2 ImageNet

    ImageNet 是由斯坦福大學(xué)和普林斯頓大學(xué)根據(jù)WordNet 層次結(jié)構(gòu)合作組織建立起來(lái)的用于視覺(jué)對(duì)象識(shí)別軟件研究的大型可視化數(shù)據(jù)庫(kù),其中層次結(jié)構(gòu)的每個(gè)節(jié)點(diǎn)都是由成百上千張圖像組成的.ImageNet 由計(jì)算機(jī)視覺(jué)領(lǐng)域的專業(yè)人員維護(hù),文檔詳細(xì),應(yīng)用廣泛,已經(jīng)成為計(jì)算機(jī)視覺(jué)領(lǐng)域圖像算法性能檢驗(yàn)的標(biāo)準(zhǔn)數(shù)據(jù)集.數(shù)據(jù)集包含了1 400 多萬(wàn)張圖片,2 萬(wàn)多個(gè)類別.其中使用最多的子數(shù)據(jù)集是ILSVRC (ImageNet large scale visual recognition challenge),涵蓋1 000 個(gè)對(duì)象類別,包含1 281 167 張訓(xùn)練圖像,50 000 張驗(yàn)證圖像和100 000 張測(cè)試圖像.

    2.1.3 MS-COCO

    MS-COCO (Microsoft common objects in context)數(shù)據(jù)集首次發(fā)布于2015年,是由微軟公司開(kāi)發(fā)維護(hù)的大型圖像數(shù)據(jù)集,主要用于目標(biāo)檢測(cè),圖像分割,圖像標(biāo)題生成任務(wù).一共包含了32.8 萬(wàn)張圖片,其中有超過(guò)20 萬(wàn)張圖片有詳細(xì)標(biāo)注,包含了91 個(gè)物體類別,具有場(chǎng)景復(fù)雜、單張圖片目標(biāo)多、小目標(biāo)物體多等特點(diǎn),是目前圖像分割領(lǐng)域最大的數(shù)據(jù)集.

    2.1.4 Open Images

    Open Images 是谷歌團(tuán)隊(duì)發(fā)布的用于圖像分類、目標(biāo)檢測(cè)、視覺(jué)關(guān)系檢測(cè)、圖像分割和圖像描述的數(shù)據(jù)集.2020年最新發(fā)布的Open Images V6 包含900 萬(wàn)張圖片,600 種對(duì)象,1 600 萬(wàn)個(gè)bounding-box 標(biāo)注,是目前最大的帶圖像位置標(biāo)注的數(shù)據(jù)集.Open Images 圖像庫(kù)中的bounding-box 大部分都是由專業(yè)人員手工繪制的,確保了標(biāo)注的準(zhǔn)確性與一致性.圖像場(chǎng)景復(fù)雜,通常包含多個(gè)目標(biāo)(平均每張圖片8.3 個(gè)).

    2.1.5 DOTA

    航空遙感圖像不同于傳統(tǒng)的圖像數(shù)據(jù),具有尺度變化大、目標(biāo)小且密集、檢測(cè)目標(biāo)形態(tài)多樣等特點(diǎn).DOTA 是航空遙感圖像檢測(cè)的常用數(shù)據(jù)集,包含了2 806 張各種尺度大小圖像,圖像尺寸從800×800 到4000×4000 不等,數(shù)據(jù)集劃分為1/6 驗(yàn)證集,1/3 測(cè)試集,1/2 訓(xùn)練集.DOTA 數(shù)據(jù)集的圖像全部是由領(lǐng)域內(nèi)人士標(biāo)注的,總計(jì)15 個(gè)類別188 282 個(gè)目標(biāo)對(duì)象.

    2.2 評(píng)價(jià)指標(biāo)

    2.2.1 FFPW/FFPI

    FPPW (false positives per-window)最早是用于INRIA 行人數(shù)據(jù)集[14]評(píng)估性能,在早期的行人檢測(cè)中應(yīng)用較廣,但是由于FPPW 存在缺陷,對(duì)某些實(shí)例不能很好的預(yù)測(cè)整張圖片.到2009年,Caltech 行人數(shù)據(jù)集[15]出現(xiàn)后,評(píng)估標(biāo)準(zhǔn)就由針對(duì)窗口的FPPW 過(guò)渡為適用于整張圖片的FPPI (false positives per-image).

    2.2.2 AP/mAP

    在目標(biāo)檢測(cè)研究中,常用于評(píng)價(jià)檢測(cè)效果的一個(gè)標(biāo)準(zhǔn)是AP (average precision),最初在PASCAL VOC 2007 被引入,由P-R 曲線和坐標(biāo)圍起來(lái)的面積組成,用于表示不同召回率下檢測(cè)的平均正確性,是對(duì)一個(gè)特定類別下目標(biāo)檢測(cè)器效果的評(píng)估.mAP (mean average precision)為各類別AP的平均值,用于對(duì)所有目標(biāo)類別檢測(cè)的效果取平均值,是檢測(cè)性能的最終度量.

    2.2.3 IoU

    交并比(intersection over union,IoU)在目標(biāo)檢測(cè)的性能評(píng)價(jià)時(shí)用的非常多,表示的是預(yù)測(cè)的邊框和原圖片標(biāo)注的真實(shí)邊框的交疊率,是兩者交集與并集的比值.當(dāng)比值為1的時(shí)候則說(shuō)明預(yù)測(cè)的效果達(dá)到最佳.

    2.2.4 FPS/FLOPs

    檢測(cè)速度代表目標(biāo)檢測(cè)算法與模型的計(jì)算性能,需要在同一硬件條件下進(jìn)行比較.目標(biāo)檢測(cè)技術(shù)在準(zhǔn)確度上已經(jīng)有了很大的提高,但是如果不考慮計(jì)算性能,使用復(fù)雜的模型會(huì)對(duì)硬件的計(jì)算能力和內(nèi)存要求較高,導(dǎo)致部署成本大大增加.通常目標(biāo)檢測(cè)的速度性能評(píng)價(jià)指標(biāo)有FPS (frame per second),代表檢測(cè)器每秒可以處理的圖片幀數(shù),數(shù)值越大代表檢測(cè)速度越快.浮點(diǎn)運(yùn)算數(shù)(floating point operations,FLOPs)可以理解為計(jì)算量,用來(lái)衡量算法與模型的復(fù)雜度.模型的FLOPs與許多因素有關(guān),比如參數(shù)量、網(wǎng)絡(luò)層數(shù)、選用的激活函數(shù)等.一般情況下,參數(shù)量低的網(wǎng)絡(luò)運(yùn)算量會(huì)比較小,使用的內(nèi)存也小,更利于嵌入式端的部署.

    3 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法

    目前主流的深度學(xué)習(xí)目標(biāo)檢測(cè)算法有兩類(如圖3),基于區(qū)域建議的雙階段目標(biāo)檢測(cè)算法,如R-CNN、SPP-Net、Fast R-CNN、Faster R-CNN、FPN、Mask R-CNN;基于回歸分析的單階段目標(biāo)檢測(cè)算法,如YOLO系列、SSD 系列、RetinaNet.最近幾年,還出現(xiàn)了NAS-FPN、EfficientDet、YOLOF 等新算法.

    圖3 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法

    3.1 雙階段目標(biāo)檢測(cè)算法

    雙階段目標(biāo)檢測(cè)算法一般先使用算法(選擇性搜索或者區(qū)域建議網(wǎng)絡(luò)等)對(duì)圖像提取候選框,然后對(duì)候選框目標(biāo)進(jìn)行二次修正得到檢測(cè)結(jié)果.代表算法有:RCNN、SPP-Net、Fast R-CNN、Faster R-CNN、feature pyramid networks (FPN)、Mask R-CNN.

    3.1.1 R-CNN

    2014年,伯克利大學(xué)的Girshick 等提出了R-CNN[3],在PASCAL VOC 2007 數(shù)據(jù)集中取得出色的效果,比之前其他方法有近50%的性能提升,mAP 達(dá)到了58.5%.R-CNN的模型如圖4所示,首先是通過(guò)選擇性搜索提取可能的目標(biāo)區(qū)域,統(tǒng)一大小后使用CNN 在這些候選區(qū)域上提取特征,最后將這些特征輸入支持向量機(jī)分類器對(duì)區(qū)域進(jìn)行分類,位置信息則由全連接神經(jīng)網(wǎng)絡(luò)回歸來(lái)得到.

    圖4 R-CNN 模型

    R-CNN 缺點(diǎn):

    (1)多階段訓(xùn)練過(guò)程.各階段相對(duì)獨(dú)立,訓(xùn)練繁瑣復(fù)雜.

    (2)圖像易失真.候選區(qū)域需要放縮到固定大小會(huì)導(dǎo)致不期望看到的幾何形變.

    (3)計(jì)算開(kāi)銷大,檢測(cè)速度慢.尤其對(duì)于高密度的圖片,使用選擇性搜索找到的每個(gè)區(qū)域都要使用卷積神經(jīng)網(wǎng)絡(luò)提取特征.

    3.1.2 SPP-Net

    針對(duì)R-CNN 對(duì)圖像進(jìn)行縮放導(dǎo)致圖像失真的問(wèn)題,He 等[16]在2014年提出了SPP-Net,將一個(gè)空間金字塔池化(spatial pyramid pooling,SPP)層添加在卷積層和全連接層之間,從而可以不用對(duì)候選區(qū)域進(jìn)行縮放就能進(jìn)行任意比例區(qū)域的特征提取.同時(shí)由于SPPNet 是將整個(gè)圖片送入卷積神經(jīng)網(wǎng)絡(luò)提取特征,減少了候選區(qū)域的重復(fù)計(jì)算.這些改進(jìn)使得SPP-Net 算法比R-CNN 算法檢測(cè)速度提高24–102 倍,同時(shí)在PASCAL VOC 2007 數(shù)據(jù)集上的mAP 提高到59.2%.

    SPP-Net 仍然存在以下問(wèn)題:

    1)訓(xùn)練過(guò)程仍然是多階段的,步驟繁雜(微調(diào)網(wǎng)絡(luò)+訓(xùn)練SVM+訓(xùn)練邊框回歸器).

    2)微調(diào)算法不更新SPP 層之前的卷積層參數(shù),不能有效地調(diào)整參數(shù)權(quán)重,限制了準(zhǔn)確率.

    3)分類器使用SVM,無(wú)法實(shí)現(xiàn)端到端訓(xùn)練.

    3.1.3 Fast R-CNN

    結(jié)合了R-CNN和SPP-Net 各自的特點(diǎn),Girshick等于2015年又提出了Fast R-CNN[17].Fast R-CNN的網(wǎng)絡(luò)結(jié)構(gòu)如圖5所示,Fast R-CNN 將整幅圖像和候選區(qū)域作為輸入,經(jīng)過(guò)卷積層提取到特征圖,用感興趣池化層(region of interest,RoI)代替了SPP-Net的空間金字塔池化層來(lái)輸出特征圖,然后輸入到全連接層.Fast R-CNN 使用Softmax 代替了SVM的二分類,通過(guò)多任務(wù)的方式去訓(xùn)練整個(gè)網(wǎng)絡(luò),骨干網(wǎng)絡(luò)則使用VGG-16代替AlexNet,在一個(gè)模型中將特征提取、目標(biāo)分類和位置回歸都整合到一起,方便進(jìn)行訓(xùn)練,同時(shí)提高了檢測(cè)精度和速度.在PASCAL VOC 2007 數(shù)據(jù)集上,Fast R-CNN的mAP 達(dá)到68%.但是由于Fast R-CNN的候選區(qū)域建議上選用的算法仍是只能利用CPU 運(yùn)行的選擇性搜索算法,這限制了檢測(cè)速度,仍舊無(wú)法實(shí)現(xiàn)實(shí)時(shí)檢測(cè).

    圖5 Fast R-CNN 網(wǎng)絡(luò)結(jié)構(gòu)圖

    3.1.4 Faster R-CNN

    Fast R-CNN的論文發(fā)布不久,2015年Ren 等[18]針對(duì)選擇性搜索算法提取候選區(qū)域較慢的問(wèn)題,提出了Faster R-CNN,在該論文中首次提出了區(qū)域建議網(wǎng)絡(luò)(region proposal network,RPN)來(lái)取代選擇性搜索算法.Faster R-CNN 目標(biāo)檢測(cè)框架如圖6所示,模型中的RPN 中設(shè)計(jì)了多參考窗口機(jī)制,使得Faster R-CNN可以在同一網(wǎng)絡(luò)中,完成候選區(qū)域推薦、特性提取和定位并分類,大大提高了訓(xùn)練效率.Faster R-CNN 是第一個(gè)兼顧端到端訓(xùn)練和GPU 上實(shí)時(shí)性的目標(biāo)檢測(cè)算法,在PASCAL VOC 2007 數(shù)據(jù)集上的mAP 提升至78%,同時(shí)速度由R-CNN的0.025 FPS 提高到17 FPS (640×480 像素).Faster R-CNN 仍然存在一些缺點(diǎn),由于anchor 機(jī)制的存在,其對(duì)小目標(biāo)的檢測(cè)效果并不理想.

    圖6 Faster R-CNN 目標(biāo)檢測(cè)框架

    3.1.5 FPN

    在2017年,Lin 等[19]又在Faster R-CNN的基礎(chǔ)上提出了特征金字塔網(wǎng)絡(luò)(FPN)檢測(cè)算法.FPN的模型結(jié)構(gòu)如圖7所示,其主要?jiǎng)?chuàng)新點(diǎn)是加入了多層特征和特征融合,原先的目標(biāo)檢測(cè)算法只對(duì)語(yǔ)義信息豐富的頂層特征進(jìn)行檢測(cè),但是頂層特征的目標(biāo)位置信息較少;而底層特征恰好與之相反,包含了明確的位置信息,但是語(yǔ)義信息較少.FPN的做法是在網(wǎng)絡(luò)前饋結(jié)束后,從最頂層開(kāi)始逐層與下層的特征圖融合,通過(guò)分治的方式從而可以在網(wǎng)絡(luò)的不同深度引出檢測(cè)端以便對(duì)不同尺度的目標(biāo)進(jìn)行檢測(cè),大幅提升了小目標(biāo)物體的檢測(cè)效果.由于FPN 只是做了一些網(wǎng)絡(luò)連接的優(yōu)化,基本不增加網(wǎng)絡(luò)的計(jì)算量,因此在規(guī)模更大的MS-COCO數(shù)據(jù)集上取得了當(dāng)時(shí)最佳的檢測(cè)效果.

    圖7 FPN 模型

    3.1.6 Mask R-CNN

    2017年,He 等提出Mask R-CNN[20],添加了Mask分支,是一個(gè)結(jié)合了圖像語(yǔ)義分割和目標(biāo)檢測(cè)的通用網(wǎng)絡(luò).Mask R-CNN的網(wǎng)絡(luò)結(jié)構(gòu)如圖8所示,通過(guò)使用RoI Align 層替換Faster R-CNN的RoI Pooling 層,加入線性插值算法避免了特征圖和原始圖像由于RoI 池的整數(shù)量化導(dǎo)致的偏差問(wèn)題,讓每個(gè)感受野取得的特征能更好地與原圖感受野區(qū)域?qū)R,從而提高了檢測(cè)精度.Mask R-CNN 在MS-COCO 數(shù)據(jù)集上的mAP 達(dá)到了39.8%.但是由于Mask R-CNN 加入了分割分支,因此計(jì)算開(kāi)銷比Faster R-CNN 大.

    圖8 Mask R-CNN 網(wǎng)絡(luò)結(jié)構(gòu)圖

    3.1.7 雙階段目標(biāo)檢測(cè)算法對(duì)比

    雙階段目標(biāo)檢測(cè)算法發(fā)展迅速,檢測(cè)精度也在不斷提高,但是自身體系結(jié)構(gòu)的問(wèn)題限制了檢測(cè)速度.雙階段目標(biāo)檢測(cè)算法的骨干網(wǎng)絡(luò)以及在主流數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果如表1所示,算法的優(yōu)點(diǎn)/創(chuàng)新點(diǎn)和缺點(diǎn)以及適用場(chǎng)景如表2所示.使用不同的輸入圖像、骨干網(wǎng)絡(luò)、硬件設(shè)施會(huì)對(duì)實(shí)驗(yàn)結(jié)果有一定影響,但是總體來(lái)說(shuō)算法性能的對(duì)比還是符合預(yù)期的.

    表1 雙階段目標(biāo)檢測(cè)算法性能對(duì)比

    表2 雙階段目標(biāo)檢測(cè)算法的優(yōu)缺點(diǎn)及適用場(chǎng)景

    3.2 單階段目標(biāo)檢測(cè)算法

    單階段目標(biāo)檢測(cè)算法與雙階段目標(biāo)檢測(cè)算法最大的不同之處在于前者沒(méi)有候選區(qū)域推薦階段,訓(xùn)練過(guò)程也相對(duì)簡(jiǎn)單,可以在一個(gè)階段直接確定目標(biāo)類別并得到位置檢測(cè)框.代表算法有YOLO 系列、SSD 系列、RetinaNet.

    3.2.1 YOLO 系列

    YOLO (you only look once) 是由Redmon 等于2015年提出的,是深度學(xué)習(xí)領(lǐng)域第一個(gè)單級(jí)檢測(cè)器[21].YOLO 算法的最大優(yōu)勢(shì)就是處理速度快,其增強(qiáng)版本在GPU 上的速度達(dá)到了45 FPS,快速版本甚至可以達(dá)到155 FPS.從YOLO的名字(你只需要看一次)可以看出其有著完全不同的檢測(cè)方式,YOLO的網(wǎng)絡(luò)流程如圖9所示,通過(guò)使用單個(gè)神經(jīng)網(wǎng)絡(luò)直接將整張圖片劃分為成S×S的網(wǎng)格單元,判定預(yù)測(cè)目標(biāo)的中心是否落在網(wǎng)格中,讓網(wǎng)格來(lái)決定預(yù)測(cè)對(duì)象類別并給出相應(yīng)的置信度,使用閾值篩選去除目標(biāo)出現(xiàn)概率較低的目標(biāo)窗口,最后使用NMS 去除冗余窗口即可.

    圖9 YOLO 網(wǎng)絡(luò)流程圖

    YOLO 算法雖然速度較快,但也存在以下幾個(gè)明顯的缺點(diǎn):

    (1)YOLO 劃分的網(wǎng)格最后只會(huì)選擇IoU 最高的邊界框作為輸出,因此劃分的網(wǎng)格最多只會(huì)檢測(cè)出一個(gè)目標(biāo),如果網(wǎng)格中包含多個(gè)小型目標(biāo)(如鳥群這類目標(biāo)),YOLO 只能檢測(cè)出一個(gè).

    (2)YOLO 沒(méi)有解決多尺度窗口的問(wèn)題,相比Faster R-CNN,其小目標(biāo)檢測(cè)效果較差,定位準(zhǔn)確度也不夠優(yōu)秀.

    YOLOv2[22]相比前一版本,主要改進(jìn)點(diǎn)是提出了聯(lián)合訓(xùn)練算法,其基本思想是使用兩種數(shù)據(jù)集同時(shí)對(duì)檢測(cè)器進(jìn)行訓(xùn)練,檢測(cè)數(shù)據(jù)集和分類數(shù)據(jù)集,在檢測(cè)數(shù)據(jù)集上來(lái)定位物體的位置,而分類數(shù)據(jù)集則用來(lái)增加檢測(cè)器的識(shí)別的物體種類.YOLOv2 在保持YOLO處理速度的同時(shí),定位更精準(zhǔn),且可以識(shí)別9000 種不同對(duì)象,因此又被稱為YOLO9000.

    YOLOv3[23]的特色是引入了FPN 來(lái)實(shí)現(xiàn)多尺度預(yù)測(cè),同時(shí)還使用了更加優(yōu)秀的基礎(chǔ)網(wǎng)絡(luò)Darknet-53和二值交叉熵?fù)p失函數(shù)(binary cross-entropy loss),并且可以通過(guò)改變模型的網(wǎng)絡(luò)結(jié)構(gòu)來(lái)實(shí)現(xiàn)速度與精度的平衡.

    YOLOv4[24]是YOLO 系列的一個(gè)重大里程碑,在MS-COCO 數(shù)據(jù)集上的mAP 達(dá)到了43.5%,速度也達(dá)到了驚人的65 FPS.如此大的性能提升得益于全方位的改進(jìn).YOLOv4 引入CSPDarknet-53 提取特征,加入了SPP 網(wǎng)絡(luò)來(lái)提高圖像提取效果,使用了Mish 激活函數(shù),還采用Mosaic 做數(shù)據(jù)增強(qiáng),標(biāo)簽平滑防止過(guò)擬合等措施,這些改進(jìn)也讓YOLOv4 成為一個(gè)極其高效強(qiáng)大的目標(biāo)檢測(cè)器.

    3.2.2 SSD 系列

    Liu 等[25]于2015年提出的SSD 算法結(jié)合了YOLO檢測(cè)速度快和Faster R-CNN 定位精準(zhǔn)的優(yōu)勢(shì).SSD的網(wǎng)絡(luò)結(jié)構(gòu)如圖10所示,其主要?jiǎng)?chuàng)新是引入了多參考和多分辨率檢測(cè)技術(shù),不同層的網(wǎng)絡(luò)檢測(cè)尺度不同的對(duì)象,對(duì)于小目標(biāo)的檢測(cè)效果有了大大的提升.除此之外,在訓(xùn)練SSD的過(guò)程中,Liu 等[25]為了解決難樣本聚焦問(wèn)題引入了難樣本挖掘技術(shù).SSD 在PASCAL VOC 2007上的mAP為79.8%,PASCAL VOC 2012 上的mAP為78.5%,MS-COCO 上的mAP為28.8%,檢測(cè)速度和精度方面取得了很好的平衡.

    圖10 SSD300 網(wǎng)絡(luò)結(jié)構(gòu)圖

    DSSD[26]使用ResNet101 作為骨干網(wǎng)絡(luò)以便提取更深層次的特征,同時(shí)增加了反卷積模塊(deconvolutional module)將原始特征圖與上采樣后的特征圖進(jìn)行融合,并且在預(yù)測(cè)階段引入殘差單元優(yōu)化分類和候選框回歸.通過(guò)這些優(yōu)化,DSSD 在對(duì)小目標(biāo)物體的檢測(cè)效果大大提升,但速度上則遜于SSD 算法.

    FSSD[27]是基于SSD和FPN 思想的結(jié)合,為了解決定位和識(shí)別的語(yǔ)義矛盾,需要將淺層的細(xì)節(jié)特征和高層的語(yǔ)義特征結(jié)合起來(lái),其基本做法是把各個(gè)水平的特征進(jìn)行連接,然后融合特征生成特征金字塔.FSSD在MS-COCO 數(shù)據(jù)集上的mAP 達(dá)到了31.8%,稍弱于使用更優(yōu)秀骨干網(wǎng)絡(luò)ResNet101的DSSD,但明顯優(yōu)于同樣使用VGGNet的Faster R-CNN,且在小目標(biāo)上的檢測(cè)效果是最優(yōu)的.

    3.2.3 RetinaNet

    單階段目標(biāo)檢測(cè)器雖然在速度上明顯快于基于候選區(qū)域推薦的雙階段目標(biāo)檢測(cè)器,但是其精度上卻一直無(wú)法媲美雙階段目標(biāo)檢測(cè)器.Lin 等認(rèn)為導(dǎo)致一體化卷積神經(jīng)網(wǎng)絡(luò)精度不夠高的真正原因在于圖像中的目標(biāo)和背景層次的不匹配不均衡,于是在2017年提出了RetinaNet[28]來(lái)解決這一問(wèn)題.RetinaNet的模型結(jié)構(gòu)如圖11所示,RetinaNet 通過(guò)引入一個(gè)聚焦損失(focal loss)函數(shù),重構(gòu)了標(biāo)準(zhǔn)交叉熵?fù)p失函數(shù),使得檢測(cè)器在訓(xùn)練過(guò)程中會(huì)更加注重分類困難的樣本.Focal loss的引入解決了實(shí)例樣本不平衡的問(wèn)題,實(shí)現(xiàn)了一個(gè)精度可以媲美雙階段目標(biāo)檢測(cè)器的檢測(cè)框架.

    圖11 RetinaNet 模型

    3.2.4 單階段目標(biāo)檢測(cè)算法對(duì)比

    單階段目標(biāo)檢測(cè)算法提出雖然晚于雙階段目標(biāo)檢測(cè)算法,但是由于其結(jié)構(gòu)相對(duì)簡(jiǎn)單、檢測(cè)速度優(yōu)越,因此同樣受到了許多研究人員的關(guān)注.一些單階段目標(biāo)檢測(cè)算法通過(guò)引入雙階段目標(biāo)檢測(cè)算法的方法如FPN、改變骨干網(wǎng)絡(luò)、引入損失函數(shù)如focal loss 等措施提高了檢測(cè)效果,使檢測(cè)精度逐漸可以媲美雙階段目標(biāo)檢測(cè)算法.單階段目標(biāo)檢測(cè)算法的骨干網(wǎng)絡(luò)以及在主流數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果如表3所示,算法的優(yōu)點(diǎn)/創(chuàng)新點(diǎn)和缺點(diǎn)以及適用場(chǎng)景如表4所示.

    表3 單階段目標(biāo)檢測(cè)算法性能對(duì)比

    表4 單階段目標(biāo)檢測(cè)算法的優(yōu)缺點(diǎn)及適用場(chǎng)景

    3.3 最新出現(xiàn)的改進(jìn)算法

    3.3.1 NAS-FPN

    2019年,谷歌大腦團(tuán)隊(duì)提出了NAS-FPN (neural architecture search feature pyramid network)[29].NASFPN 是采用神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索發(fā)現(xiàn)的一種特征金字塔結(jié)構(gòu),同過(guò)自頂向下和自下向上的連接來(lái)進(jìn)行不同尺度的特征融合.搜索的過(guò)程中,架構(gòu)的擴(kuò)展是通過(guò)FPN 重復(fù)N次后連接到一起形成的.傳統(tǒng)的FPN 連接都是手工設(shè)計(jì)的,而谷歌大腦團(tuán)隊(duì)通過(guò)使用強(qiáng)化學(xué)習(xí)的方法在給定的搜索空間內(nèi)不斷訓(xùn)練網(wǎng)絡(luò),控制器使用搜索空間中的子模型的準(zhǔn)確度作為更新網(wǎng)絡(luò)參數(shù)的獎(jiǎng)勵(lì)信號(hào),經(jīng)過(guò)不斷的反饋調(diào)整,最終找到給定搜索空間中最好的模型架構(gòu).在MS-COCO 測(cè)試集上的結(jié)果顯示,使用AmoebaNet[30]骨干網(wǎng)絡(luò)的NAS-FPN 達(dá)到48.3% mAP,檢測(cè)速度和精度都超越了Mask R-CNN.

    3.3.2 EfficientDet

    隨著目標(biāo)檢測(cè)技術(shù)的不斷進(jìn)步,先進(jìn)的目標(biāo)檢測(cè)器所需的硬件資源也越來(lái)越昂貴.針對(duì)不同場(chǎng)景下的資源約束,谷歌團(tuán)隊(duì)在2019年11月發(fā)表的論文中提出了EfficientDet[31].EfficientDet 是一系列目標(biāo)檢測(cè)算法的總稱,包含8 個(gè)算法D0–D7,在通常的資源約束下可以達(dá)到當(dāng)時(shí)最好的檢測(cè)結(jié)果.EfficientDet的主要?jiǎng)?chuàng)新有兩點(diǎn),首先提出了一種可以簡(jiǎn)單、快速地進(jìn)行多尺度特征融合的加權(quán)雙向特征金字塔網(wǎng)絡(luò)(BiFPN).其次,通過(guò)一種復(fù)合特征金字塔網(wǎng)絡(luò)縮放方法,統(tǒng)一縮放所有模型的分辨率、深度和寬度、特征網(wǎng)絡(luò)和定位與分類預(yù)測(cè)網(wǎng)絡(luò),使得EfficientDet 系列參數(shù)量比之前傳統(tǒng)的目標(biāo)檢測(cè)算法減少了4–9 倍,FLOPs 縮小了12–42 倍.在單模型和單尺度的情況下,EfficientDet-D7在MS-COCO 數(shù)據(jù)集上AP 達(dá)到了最先進(jìn)的55.1%.

    3.3.3 YOLOF

    之前的研究一般認(rèn)為FPN的主要功能是可以進(jìn)行多級(jí)特征的融合,因此大多數(shù)學(xué)者的研究重點(diǎn)都在于實(shí)現(xiàn)可以更加高效地進(jìn)行特征融合的網(wǎng)絡(luò),如NASFPN和EfficientDet 中的BiFPN,而忽視了FPN的另一個(gè)重要特性:分治策略.基于分治優(yōu)化的思想,Chen 等[32]使用了單層特征圖來(lái)替代復(fù)雜的特征金字塔,設(shè)計(jì)出了YOLOF (you only look one-level feature)檢測(cè)框架.YOLOF 通過(guò)設(shè)計(jì)了兩個(gè)核心組件,膨脹編碼器(dilated encoder)和均衡匹配策略(uniform matching),大大地提高了檢測(cè)性能.在MS-COCO 數(shù)據(jù)集上的結(jié)果表明,在檢測(cè)精度相當(dāng)?shù)那闆r下,YOLOF的檢測(cè)速度比RetinaNet 快了2.5 倍,比YOLOv4 快了13%.同時(shí)由于YOLOF 沒(méi)有Transformer 層,YOLOF的訓(xùn)練次數(shù)也比同種類型的單層特征圖算法DETR[33]少了7 倍.

    3.3.4 最新出現(xiàn)的目標(biāo)檢測(cè)算法對(duì)比

    除了一些經(jīng)典的目標(biāo)檢測(cè)算法,近年來(lái)通過(guò)應(yīng)用深度學(xué)習(xí)領(lǐng)域的新方法新技術(shù),出現(xiàn)了一些檢測(cè)精度和速度都較高的目標(biāo)檢測(cè)算法.這些檢測(cè)算法的骨干網(wǎng)絡(luò)以及在主流數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果如表5所示,優(yōu)點(diǎn)/創(chuàng)新點(diǎn)和缺點(diǎn)以及適用場(chǎng)景如表6所示.

    表5 最新出現(xiàn)的目標(biāo)檢測(cè)算法性能對(duì)比

    表6 最新出現(xiàn)的目標(biāo)檢測(cè)算法的優(yōu)缺點(diǎn)及適用場(chǎng)景

    4 應(yīng)用領(lǐng)域

    目標(biāo)檢測(cè)技術(shù)經(jīng)過(guò)長(zhǎng)時(shí)間的發(fā)展,已經(jīng)在許多領(lǐng)域得到了廣泛的應(yīng)用,主要包括行人檢測(cè)、人臉檢測(cè)、文本檢測(cè)、交通標(biāo)志及信號(hào)燈檢測(cè)和遙感圖像檢測(cè)等重要領(lǐng)域.

    4.1 行人檢測(cè)

    行人檢測(cè)(pedestrian detection)研究具有悠久的歷史,早在20世紀(jì)90年代就有學(xué)者開(kāi)始研究這一問(wèn)題.行人檢測(cè)的難點(diǎn)主要在于檢測(cè)目標(biāo)同時(shí)具有動(dòng)態(tài)和靜態(tài)的特點(diǎn),同時(shí)也受到外界環(huán)境如背景、光照的影響,導(dǎo)致許多目標(biāo)檢測(cè)算法在應(yīng)用到行人檢測(cè)領(lǐng)域的效果并不理想.目前主流的行人檢測(cè)算法主要分為基于全局特征、基于人體部位和基于立體視覺(jué)的方法.基于全局特征的典型算法如Dalal 等[34]提出的HOG,在當(dāng)時(shí)的MIT 行人數(shù)據(jù)集上表現(xiàn)非常突出.基于人體部位的方法如Tian 等[35]提出了deep parts,其基本思想是把人體的各個(gè)部位進(jìn)行分割,分別檢測(cè)后再合并,有效解決了遮擋的問(wèn)題.基于立體視覺(jué)的檢測(cè)方法如Chen等[36]提出通過(guò)多光譜相機(jī)采集圖像并提取圖像中目標(biāo)的三維信息來(lái)定位行人.

    4.2 人臉檢測(cè)

    目標(biāo)檢測(cè)的另一個(gè)非常常見(jiàn)的應(yīng)用領(lǐng)域是人臉檢測(cè).人臉檢測(cè)的需求最初來(lái)源于人臉識(shí)別,逐步擴(kuò)展到視頻處理、圖像檢索、生物驗(yàn)證等方面.人臉檢測(cè)一直以來(lái)都受到人們熱切的關(guān)注,重要的計(jì)算機(jī)視覺(jué)領(lǐng)域會(huì)議ICIP、CVPR 等每年都會(huì)有大量有關(guān)人臉檢測(cè)的論文發(fā)表.人臉檢測(cè)的主要難點(diǎn)在于兩個(gè)方面:一是人臉自身存在的變化,如膚色、臉型、表情等;二是外在條件的差異如拍攝角度、光照、圖像的成像條件等.Liang 等[37]提出了通過(guò)反復(fù)曝光生成模塊(recurrent exposure generation,REG)和多重曝光檢測(cè)模塊(multiexposure detection,MED)結(jié)合來(lái)解決非均勻光照和圖像噪聲問(wèn)題,改善了人臉在弱光條件下的檢測(cè)問(wèn)題.在人臉檢測(cè)性能上,Zhang 等[38]參考了特征金字塔網(wǎng)絡(luò)的思想提出了特征集聚網(wǎng)絡(luò)(feature agglomeration networks,FANet),實(shí)現(xiàn)了在GPU 上實(shí)時(shí)檢測(cè)VGA 分辨率的人臉圖像.

    4.3 文本檢測(cè)

    對(duì)于文本檢測(cè),主要包含兩個(gè)過(guò)程:文本定位和文本識(shí)別.文本檢測(cè)的挑戰(zhàn)在于文本有不同的字體、顏色、語(yǔ)言等,除此之外文本的透視失真以及模糊離散化也增加了文本識(shí)別的難度.目前的文本檢測(cè)方法主要有步進(jìn)檢測(cè)和綜合檢測(cè)兩種.步進(jìn)檢測(cè)是按照一定順序逐步推進(jìn)的檢測(cè)方法,由分割字符,候選區(qū)域提取驗(yàn)證,字符組劃分,單詞識(shí)別等步驟組成.步進(jìn)檢測(cè)過(guò)程中可以進(jìn)行背景濾波,從而降低后續(xù)處理的難度.但是其缺點(diǎn)是需要確定較適宜的參數(shù),否則會(huì)引起誤差累積.相比較而言,綜合檢測(cè)是在統(tǒng)一的框架下進(jìn)行文本定位、分組和識(shí)別,因此降低了累積誤差,易于集成,其缺點(diǎn)是計(jì)算開(kāi)銷大,因?yàn)橐獙?duì)大量字符類和候選框進(jìn)行運(yùn)算推理.針對(duì)文本因角度變換導(dǎo)致的歧義問(wèn)題,Zhu 等[39]提出了TextMountain 來(lái)確立文本中心邊界概率和定位文本中心方向,檢測(cè)精度和效率都有了很大的提升.Liao 等[40]提出了可微分二值化(differentiable binarization,DB)用于基于分割的場(chǎng)景文本檢測(cè),該方法可以自動(dòng)適應(yīng)場(chǎng)景設(shè)置閾值進(jìn)行二值化,簡(jiǎn)化了后期處理,同時(shí)提高了檢測(cè)性能.

    4.4 交通標(biāo)志及信號(hào)燈檢測(cè)

    近些年來(lái),隨著自動(dòng)駕駛技術(shù)的火熱,交通標(biāo)志及信號(hào)燈的檢測(cè)也引起了許多學(xué)者的研究興趣.交通標(biāo)志及信號(hào)燈檢測(cè)的主要困難包括:

    (1)強(qiáng)光或夜間光照的影響;

    (2)天氣如雨雪帶來(lái)的干擾;

    (3)交通環(huán)境場(chǎng)景復(fù)雜;

    (4)車載攝像頭由于運(yùn)動(dòng)導(dǎo)致拍下的畫面模糊.

    交通標(biāo)志與燈光檢測(cè)技術(shù)可以劃分為兩大類,傳統(tǒng)的檢測(cè)方法和基于深度學(xué)習(xí)的檢測(cè)方法.傳統(tǒng)的檢測(cè)方法通?;陬伾?顯著性目標(biāo)檢測(cè),形態(tài)濾波,邊緣與輪廓分析,這些方法在復(fù)雜的條件下往往會(huì)失效[41].基于深度學(xué)習(xí)的方法如Faster R-CNN和SSD 已經(jīng)具有相當(dāng)高的精度,同時(shí)也出現(xiàn)了一些新的技術(shù),如Fan等[42]提出了將注意力機(jī)制用于多尺度交通標(biāo)志檢測(cè),檢測(cè)效果達(dá)到了一個(gè)更高的水準(zhǔn).

    4.5 遙感圖像檢測(cè)

    遙感目標(biāo)檢測(cè)技術(shù)在城市規(guī)劃、軍事偵察、農(nóng)業(yè)生產(chǎn)和航空航天等領(lǐng)域都有著廣泛的應(yīng)用.主要檢測(cè)目標(biāo)包括道路、機(jī)場(chǎng)、港口、湖泊、飛機(jī)、船舶等.

    遙感圖像由于其特殊性質(zhì),存在以下困難.

    (1)視角多樣.遙感圖像只能通過(guò)俯拍得到,目標(biāo)旋轉(zhuǎn)方向各有不同.

    (2)尺度變化.同一類目標(biāo)由于海拔高度等原因大小可能存在差異.

    (3)背景復(fù)雜.遙感圖像背景比較多樣化,比如城市、叢林、沙漠、山地等.

    最近幾年,基于深度學(xué)習(xí)的遙感目標(biāo)檢測(cè)也正在逐步解決這些困難.針對(duì)遙感圖像中目標(biāo)較小的問(wèn)題,Long 等[43]提出了一種使用非極大值抑制與無(wú)監(jiān)督評(píng)分邊框回歸(unsupervised score-based bounding box regression,USB-BBR)相結(jié)合的方法來(lái)精準(zhǔn)的定位小目標(biāo)物體.針對(duì)大規(guī)模遙感圖像中的多尺度和任意方向的遙感目標(biāo)檢測(cè),Fu 等[44]在Faster R-CNN的基礎(chǔ)上,使用定向邊界框替代軸對(duì)齊邊界框,提出了確定方向的區(qū)域建議網(wǎng)絡(luò)(oriented region proposal network,RPN-O)實(shí)現(xiàn)了一種旋轉(zhuǎn)感知的目標(biāo)檢測(cè)器.

    5 發(fā)展趨勢(shì)

    5.1 視頻目標(biāo)檢測(cè)

    視頻目標(biāo)檢測(cè)需要對(duì)視頻中每一幀圖片中的可能存在目標(biāo)進(jìn)行正確的定位和分類.不同于圖像目標(biāo),視頻中的目標(biāo)存在著運(yùn)動(dòng)模糊、遮擋、場(chǎng)景變化等因素,使得這項(xiàng)任務(wù)難以取得很好的效果.對(duì)于信息密度大的視頻來(lái)說(shuō),視頻存在的大量冗余對(duì)檢測(cè)的實(shí)時(shí)性也是一個(gè)巨大挑戰(zhàn).研究移動(dòng)目標(biāo)和結(jié)合時(shí)序定位視頻數(shù)據(jù)的主體目標(biāo)是未來(lái)研究的主要方向.

    5.2 顯著目標(biāo)檢測(cè)

    顯著性目標(biāo)檢測(cè)研究最早開(kāi)始于1998年Itti 等[45]發(fā)表的論文之后,隨著近年來(lái)圖像描述技術(shù)的興起開(kāi)始受到熱烈的關(guān)注.顯著性檢測(cè)指的是根據(jù)顯著特征,從輸入圖片中定位最受關(guān)注的物體.深度學(xué)習(xí)用于顯著性目標(biāo)檢測(cè)的方法主要有兩類,使用多層感知機(jī)(MLPs)方法,另一類則是通過(guò)完全卷積神經(jīng)網(wǎng)絡(luò)(FCN)進(jìn)行.多層感知機(jī)方法通常是將輸入圖片劃分成單獨(dú)的多尺度小區(qū)域,使用卷積神經(jīng)網(wǎng)絡(luò)提取圖像中的高級(jí)特征,最后將獲取的高級(jí)特征反饋到多層感知機(jī)進(jìn)行顯著性確認(rèn).值得一提的是,由于多層感知機(jī)的使用會(huì)使卷積神經(jīng)網(wǎng)絡(luò)中的空間信息丟失.第二類基于完全卷積神經(jīng)網(wǎng)絡(luò)的顯著目標(biāo)檢測(cè)采取另一種做法,完全卷積神經(jīng)網(wǎng)絡(luò)最初是為了解決語(yǔ)義分割問(wèn)題的,但是顯著對(duì)象本質(zhì)上也是一種分割任務(wù),因此完全卷積神經(jīng)網(wǎng)絡(luò)被引入,且不同于多層感知機(jī),完全卷積神經(jīng)網(wǎng)絡(luò)具有保存空間信息的能力.

    5.3 基于GAN的目標(biāo)檢測(cè)

    2014年Goodfellow 等[46]提出了一種無(wú)監(jiān)督的模型對(duì)抗生成網(wǎng)絡(luò)(GAN).GAN 主要有兩個(gè)組件,生成器和判別器.生成器用于獲得原始數(shù)據(jù)的特征分布以生成新的數(shù)據(jù)分布,而判別器則是判定生成的新數(shù)據(jù)是否是真實(shí)的,兩種組件互相學(xué)習(xí)共同進(jìn)步.2017年,Wang 等[47]在論文中首次將GAN的基本思想引入目標(biāo)檢測(cè)領(lǐng)域,其主要目的是增加訓(xùn)練數(shù)據(jù)讓檢測(cè)器能夠?qū)W習(xí)到一些在通常的數(shù)據(jù)集中很難出現(xiàn)的特征,通過(guò)生成檢測(cè)器難以識(shí)別的樣例,從而提高模型的泛化能力.實(shí)驗(yàn)結(jié)果表明,隨著檢測(cè)器的性能提升,生成對(duì)抗網(wǎng)絡(luò)生成數(shù)據(jù)的質(zhì)量也有所提高,兩者通過(guò)互相博弈提高了檢測(cè)性能.

    6 結(jié)論與展望

    基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)因其巨大的優(yōu)勢(shì),如泛化能力強(qiáng)、復(fù)雜場(chǎng)景下效果出眾、應(yīng)用前景廣闊等已經(jīng)成為一個(gè)計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)熱門方向.行人檢測(cè)、人臉檢測(cè)、文字檢測(cè)、交通標(biāo)志及信號(hào)燈檢測(cè)和遙感圖像檢測(cè)等都是目標(biāo)檢測(cè)的常見(jiàn)應(yīng)用場(chǎng)景.通過(guò)對(duì)不同方式的目標(biāo)檢測(cè)算法的對(duì)比可以看出,雙階段目標(biāo)檢測(cè)算法先使用算法提取候選區(qū)域,然后對(duì)候選框目標(biāo)進(jìn)行二次修正,精度較高且定位準(zhǔn)確,但是訓(xùn)練復(fù)雜計(jì)算量大,難以實(shí)現(xiàn)實(shí)時(shí)檢測(cè);單階段目標(biāo)檢測(cè)算法沒(méi)有候選區(qū)域推薦過(guò)程,在一個(gè)階段就能確定目標(biāo)類別并定位目標(biāo),模型簡(jiǎn)單且速度快,但是對(duì)小目標(biāo)和密集目標(biāo)的檢測(cè)精度有待提高.近幾年來(lái),視頻目標(biāo)檢測(cè)、顯著目標(biāo)檢測(cè)和基于GAN的目標(biāo)檢測(cè)都有良好的發(fā)展勢(shì)頭,新出現(xiàn)的目標(biāo)檢測(cè)算法如NASFPN、EfficientDet、YOLOF 等的提出也為目標(biāo)檢測(cè)領(lǐng)域的發(fā)展提供了新的思路.隨著人們對(duì)基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)的進(jìn)一步深入,相信其應(yīng)用領(lǐng)域會(huì)更加廣泛,為人類的生存發(fā)展帶來(lái)更加巨大的效益.

    猜你喜歡
    特征圖像目標(biāo)
    改進(jìn)的LapSRN遙感圖像超分辨重建
    有趣的圖像詩(shī)
    如何表達(dá)“特征”
    不忠誠(chéng)的四個(gè)特征
    抓住特征巧觀察
    我們的目標(biāo)
    線性代數(shù)的應(yīng)用特征
    河南科技(2014年23期)2014-02-27 14:19:15
    遙感圖像幾何糾正中GCP選取
    趣味數(shù)獨(dú)等4則
    意林(2011年10期)2011-05-14 07:44:00
    新目標(biāo)七年級(jí)(下)Unit 3練習(xí)(一)
    日韩av在线免费看完整版不卡| 久久精品亚洲熟妇少妇任你| 亚洲 欧美一区二区三区| 久久久国产一区二区| 午夜激情久久久久久久| 成人18禁高潮啪啪吃奶动态图| 青春草亚洲视频在线观看| 美女福利国产在线| 日韩 亚洲 欧美在线| 精品少妇一区二区三区视频日本电影 | 男女免费视频国产| 波多野结衣一区麻豆| 久久久久国产一级毛片高清牌| 久久久久久久久免费视频了| 久久久久网色| 国产无遮挡羞羞视频在线观看| 高清在线视频一区二区三区| 久久毛片免费看一区二区三区| 亚洲成人国产一区在线观看 | 欧美日韩视频精品一区| 亚洲精品久久午夜乱码| 青春草国产在线视频| tube8黄色片| 99国产精品免费福利视频| 99国产综合亚洲精品| 亚洲精品久久久久久婷婷小说| av片东京热男人的天堂| av天堂久久9| 欧美人与性动交α欧美软件| 狠狠精品人妻久久久久久综合| 精品国产一区二区三区四区第35| 波野结衣二区三区在线| 国产精品无大码| 精品久久蜜臀av无| 欧美日韩国产mv在线观看视频| 国产精品一二三区在线看| 国产日韩欧美亚洲二区| 大陆偷拍与自拍| 久久久精品国产亚洲av高清涩受| 热re99久久国产66热| 亚洲欧美一区二区三区国产| 免费在线观看完整版高清| 国产黄色免费在线视频| 中文字幕色久视频| 欧美乱码精品一区二区三区| 男人爽女人下面视频在线观看| 中文字幕亚洲精品专区| 亚洲久久久国产精品| 国产精品av久久久久免费| 超色免费av| 久久久国产一区二区| 日本爱情动作片www.在线观看| 免费在线观看视频国产中文字幕亚洲 | 久久99精品国语久久久| 国产激情久久老熟女| 国产免费一区二区三区四区乱码| 99久国产av精品国产电影| 亚洲精品中文字幕在线视频| 日韩,欧美,国产一区二区三区| 国产精品成人在线| av一本久久久久| 最近的中文字幕免费完整| 人妻 亚洲 视频| 母亲3免费完整高清在线观看| 日韩中文字幕视频在线看片| 亚洲国产精品成人久久小说| 考比视频在线观看| 香蕉国产在线看| 色视频在线一区二区三区| 亚洲精品在线美女| 国产伦理片在线播放av一区| 久久久久精品久久久久真实原创| 免费在线观看视频国产中文字幕亚洲 | 精品少妇内射三级| 午夜福利视频在线观看免费| 国产精品久久久久久人妻精品电影 | 亚洲,一卡二卡三卡| 亚洲精品成人av观看孕妇| 久久久国产欧美日韩av| 亚洲人成77777在线视频| 欧美日韩视频精品一区| 久久ye,这里只有精品| 欧美 亚洲 国产 日韩一| 国产亚洲av片在线观看秒播厂| 中文字幕另类日韩欧美亚洲嫩草| 日韩av免费高清视频| av电影中文网址| 如何舔出高潮| 18禁国产床啪视频网站| 操出白浆在线播放| 亚洲国产中文字幕在线视频| 一级黄片播放器| 国产亚洲精品第一综合不卡| 老司机影院毛片| 纵有疾风起免费观看全集完整版| 国产男女内射视频| 热re99久久国产66热| 丰满饥渴人妻一区二区三| 亚洲国产欧美日韩在线播放| 欧美黑人欧美精品刺激| 汤姆久久久久久久影院中文字幕| 少妇人妻久久综合中文| 一级毛片我不卡| 麻豆乱淫一区二区| 伊人久久大香线蕉亚洲五| 日韩精品免费视频一区二区三区| 国产一区二区激情短视频 | 在线免费观看不下载黄p国产| 国产成人系列免费观看| videosex国产| 性少妇av在线| 美女福利国产在线| 97在线人人人人妻| 国产av码专区亚洲av| 性少妇av在线| 大片免费播放器 马上看| 丝袜在线中文字幕| 美女高潮到喷水免费观看| 只有这里有精品99| 嫩草影院入口| 亚洲欧美色中文字幕在线| 国产精品久久久久久人妻精品电影 | 在线亚洲精品国产二区图片欧美| av.在线天堂| 久久久国产一区二区| 精品少妇一区二区三区视频日本电影 | 日韩大码丰满熟妇| 男男h啪啪无遮挡| 十八禁高潮呻吟视频| 亚洲第一区二区三区不卡| 国产男女内射视频| 国产欧美日韩一区二区三区在线| 最近中文字幕2019免费版| 亚洲一级一片aⅴ在线观看| 老司机亚洲免费影院| 成年动漫av网址| 男女免费视频国产| √禁漫天堂资源中文www| 婷婷色综合www| 国产日韩欧美亚洲二区| 国产精品久久久久久人妻精品电影 | 国产日韩一区二区三区精品不卡| 国产亚洲av高清不卡| 80岁老熟妇乱子伦牲交| 只有这里有精品99| 日日摸夜夜添夜夜爱| 亚洲精品国产区一区二| 亚洲中文av在线| 99热国产这里只有精品6| av国产精品久久久久影院| 热re99久久精品国产66热6| 久久亚洲国产成人精品v| 又大又爽又粗| xxxhd国产人妻xxx| 九九爱精品视频在线观看| 国产一区二区激情短视频 | 免费黄频网站在线观看国产| av.在线天堂| 菩萨蛮人人尽说江南好唐韦庄| 91精品伊人久久大香线蕉| 天天躁夜夜躁狠狠躁躁| 亚洲人成77777在线视频| 桃花免费在线播放| 老司机亚洲免费影院| 国产免费又黄又爽又色| 美女大奶头黄色视频| 亚洲欧洲国产日韩| 丝袜美足系列| 巨乳人妻的诱惑在线观看| 男女之事视频高清在线观看 | 久久免费观看电影| 男女国产视频网站| 久久精品久久久久久久性| 国产又色又爽无遮挡免| 婷婷色综合大香蕉| 一级毛片我不卡| 亚洲欧美色中文字幕在线| 免费观看人在逋| 国产一区亚洲一区在线观看| 韩国高清视频一区二区三区| 老汉色av国产亚洲站长工具| 亚洲国产av影院在线观看| 咕卡用的链子| 成年动漫av网址| 人成视频在线观看免费观看| 精品一区在线观看国产| 在线观看www视频免费| 久久av网站| 波多野结衣一区麻豆| 久久国产亚洲av麻豆专区| 亚洲国产精品国产精品| 高清黄色对白视频在线免费看| 国产亚洲欧美精品永久| 亚洲欧美一区二区三区国产| 国产伦理片在线播放av一区| 黄片无遮挡物在线观看| 看免费av毛片| 涩涩av久久男人的天堂| 亚洲国产欧美一区二区综合| xxxhd国产人妻xxx| 如何舔出高潮| 亚洲第一区二区三区不卡| 多毛熟女@视频| 麻豆精品久久久久久蜜桃| 亚洲,欧美精品.| 久久99精品国语久久久| 亚洲国产欧美网| 女人高潮潮喷娇喘18禁视频| 在线天堂最新版资源| 亚洲av福利一区| 国产精品一区二区精品视频观看| 国产午夜精品一二区理论片| 国产 一区精品| 中文字幕av电影在线播放| 女的被弄到高潮叫床怎么办| 国产精品二区激情视频| 性少妇av在线| 亚洲四区av| 一区二区日韩欧美中文字幕| 国产成人精品无人区| xxx大片免费视频| 国产老妇伦熟女老妇高清| 成年动漫av网址| 中文天堂在线官网| 91精品伊人久久大香线蕉| av视频免费观看在线观看| 99热国产这里只有精品6| 国产精品久久久久成人av| 秋霞伦理黄片| 91aial.com中文字幕在线观看| 亚洲精品av麻豆狂野| 涩涩av久久男人的天堂| 老鸭窝网址在线观看| 桃花免费在线播放| 国产无遮挡羞羞视频在线观看| 国产成人精品福利久久| 亚洲成国产人片在线观看| 美女国产高潮福利片在线看| 九草在线视频观看| 久久这里只有精品19| 高清欧美精品videossex| 精品一品国产午夜福利视频| 日本午夜av视频| 9191精品国产免费久久| 国产成人系列免费观看| 欧美精品一区二区免费开放| 91精品国产国语对白视频| 亚洲国产精品国产精品| 伊人亚洲综合成人网| 国产精品一区二区在线不卡| www.自偷自拍.com| 亚洲第一区二区三区不卡| 亚洲国产中文字幕在线视频| 久久久久久人妻| 黄频高清免费视频| 看免费av毛片| 男人添女人高潮全过程视频| 国产精品一国产av| 好男人视频免费观看在线| 国产xxxxx性猛交| 亚洲av欧美aⅴ国产| 制服人妻中文乱码| 精品人妻一区二区三区麻豆| 老鸭窝网址在线观看| 欧美日韩视频高清一区二区三区二| 蜜桃国产av成人99| 久久人妻熟女aⅴ| 男女国产视频网站| 伊人久久大香线蕉亚洲五| 黄频高清免费视频| 久久久久久久久免费视频了| 韩国精品一区二区三区| 久久99精品国语久久久| 免费日韩欧美在线观看| 波野结衣二区三区在线| 两个人看的免费小视频| 国产精品三级大全| 飞空精品影院首页| 久久亚洲国产成人精品v| 捣出白浆h1v1| 免费高清在线观看视频在线观看| 国产精品成人在线| 久久ye,这里只有精品| 男人爽女人下面视频在线观看| 国产一区有黄有色的免费视频| 久久鲁丝午夜福利片| 亚洲欧洲国产日韩| 国产1区2区3区精品| 性色av一级| 欧美老熟妇乱子伦牲交| 色精品久久人妻99蜜桃| 国产精品人妻久久久影院| av电影中文网址| 国产野战对白在线观看| 捣出白浆h1v1| 日韩大码丰满熟妇| 一级毛片电影观看| 亚洲三区欧美一区| 日韩,欧美,国产一区二区三区| 99精品久久久久人妻精品| 免费观看性生交大片5| 久久精品国产a三级三级三级| 国产福利在线免费观看视频| 天堂8中文在线网| 亚洲精品国产av蜜桃| 十八禁网站网址无遮挡| 免费高清在线观看视频在线观看| svipshipincom国产片| 午夜91福利影院| 久久人人97超碰香蕉20202| 人妻一区二区av| 亚洲av国产av综合av卡| 国产男女内射视频| 九色亚洲精品在线播放| 在线观看免费视频网站a站| 成年美女黄网站色视频大全免费| 精品久久久久久电影网| 午夜日韩欧美国产| 亚洲图色成人| 美女脱内裤让男人舔精品视频| 成人国产av品久久久| 极品人妻少妇av视频| 成人手机av| 又大又黄又爽视频免费| 国产精品 欧美亚洲| 无限看片的www在线观看| 成年av动漫网址| 久久天堂一区二区三区四区| 亚洲欧美精品自产自拍| 亚洲精品日韩在线中文字幕| 热99国产精品久久久久久7| 国产成人精品在线电影| 亚洲 欧美一区二区三区| 国产不卡av网站在线观看| 久久久久国产一级毛片高清牌| 久久精品国产a三级三级三级| a级毛片在线看网站| 久久精品亚洲熟妇少妇任你| 久久久久久久久久久免费av| 少妇猛男粗大的猛烈进出视频| 亚洲精品久久成人aⅴ小说| 亚洲成国产人片在线观看| 中文字幕制服av| 如日韩欧美国产精品一区二区三区| 97精品久久久久久久久久精品| 你懂的网址亚洲精品在线观看| 丝袜人妻中文字幕| 日韩av在线免费看完整版不卡| 亚洲一卡2卡3卡4卡5卡精品中文| 黑人猛操日本美女一级片| 国产1区2区3区精品| 午夜激情av网站| 亚洲成人一二三区av| 成年av动漫网址| 丁香六月天网| 亚洲精华国产精华液的使用体验| 美女午夜性视频免费| 在线精品无人区一区二区三| 久久久久精品人妻al黑| 亚洲成人一二三区av| 18禁动态无遮挡网站| 天天躁夜夜躁狠狠躁躁| 一边摸一边做爽爽视频免费| 乱人伦中国视频| 赤兔流量卡办理| 大话2 男鬼变身卡| 日本wwww免费看| 国产日韩一区二区三区精品不卡| 老司机亚洲免费影院| 人人澡人人妻人| 在线观看免费高清a一片| 高清不卡的av网站| 伊人久久国产一区二区| 亚洲欧美成人综合另类久久久| 久久久久久久大尺度免费视频| 久久99精品国语久久久| 国产亚洲av高清不卡| 国产成人精品久久久久久| 美国免费a级毛片| 午夜精品国产一区二区电影| 精品国产乱码久久久久久男人| 嫩草影院入口| 亚洲av电影在线进入| 欧美人与性动交α欧美精品济南到| 亚洲欧美成人综合另类久久久| 亚洲第一青青草原| 三上悠亚av全集在线观看| 国产片特级美女逼逼视频| 高清欧美精品videossex| 人妻人人澡人人爽人人| 亚洲精品国产av蜜桃| 午夜福利一区二区在线看| 国产精品一区二区在线观看99| 如日韩欧美国产精品一区二区三区| 欧美少妇被猛烈插入视频| 亚洲欧美一区二区三区久久| 人人妻,人人澡人人爽秒播 | 国精品久久久久久国模美| 中文字幕精品免费在线观看视频| 亚洲少妇的诱惑av| 亚洲成av片中文字幕在线观看| 国产精品香港三级国产av潘金莲 | 久久 成人 亚洲| 久热爱精品视频在线9| 在线观看免费视频网站a站| 欧美在线一区亚洲| 国产男人的电影天堂91| 亚洲欧美清纯卡通| 高清在线视频一区二区三区| 国产成人精品福利久久| 久久精品久久久久久噜噜老黄| 亚洲av电影在线观看一区二区三区| 在现免费观看毛片| 国产爽快片一区二区三区| 中文字幕人妻丝袜一区二区 | 亚洲情色 制服丝袜| 无限看片的www在线观看| 热re99久久精品国产66热6| 日日啪夜夜爽| 巨乳人妻的诱惑在线观看| 日韩,欧美,国产一区二区三区| 满18在线观看网站| 亚洲一卡2卡3卡4卡5卡精品中文| 在线观看三级黄色| 久久国产亚洲av麻豆专区| 最近2019中文字幕mv第一页| 一个人免费看片子| 中文字幕人妻丝袜一区二区 | 国产av精品麻豆| 国产在线免费精品| 亚洲国产欧美一区二区综合| 一本色道久久久久久精品综合| 久久97久久精品| 亚洲精品国产区一区二| 宅男免费午夜| 大香蕉久久成人网| 丰满迷人的少妇在线观看| 九色亚洲精品在线播放| 欧美黄色片欧美黄色片| 大码成人一级视频| 精品一品国产午夜福利视频| 在线观看国产h片| 亚洲视频免费观看视频| 国产精品女同一区二区软件| 19禁男女啪啪无遮挡网站| 黄色毛片三级朝国网站| 国产熟女欧美一区二区| 婷婷色综合www| 亚洲第一区二区三区不卡| 亚洲四区av| 国产女主播在线喷水免费视频网站| 国产 精品1| 久久婷婷青草| 久久精品国产亚洲av高清一级| 美女主播在线视频| 国产一区二区 视频在线| 欧美日韩精品网址| 天天影视国产精品| 在线观看人妻少妇| 久久久久久久大尺度免费视频| 精品一品国产午夜福利视频| a级片在线免费高清观看视频| 国产成人精品久久久久久| 国产男人的电影天堂91| 黄色视频在线播放观看不卡| 成年动漫av网址| 亚洲精品aⅴ在线观看| 欧美日韩一级在线毛片| 亚洲欧美日韩另类电影网站| 你懂的网址亚洲精品在线观看| 久久久久久久久免费视频了| 精品一区二区三卡| av片东京热男人的天堂| 亚洲国产欧美日韩在线播放| 亚洲精品自拍成人| av电影中文网址| 黄色一级大片看看| 久久综合国产亚洲精品| 免费少妇av软件| 亚洲视频免费观看视频| xxxhd国产人妻xxx| 国产精品麻豆人妻色哟哟久久| 日本wwww免费看| 久久久久久人人人人人| 大香蕉久久成人网| 少妇 在线观看| 欧美在线一区亚洲| 国产免费一区二区三区四区乱码| 久久国产精品大桥未久av| 午夜福利视频精品| 大香蕉久久网| av国产精品久久久久影院| 久久久欧美国产精品| 熟女少妇亚洲综合色aaa.| 欧美97在线视频| 十分钟在线观看高清视频www| 黄色 视频免费看| 亚洲精品日韩在线中文字幕| 老司机在亚洲福利影院| av.在线天堂| 欧美乱码精品一区二区三区| 亚洲国产日韩一区二区| 久久综合国产亚洲精品| 亚洲国产精品999| 国产亚洲午夜精品一区二区久久| 天天影视国产精品| 国产97色在线日韩免费| 在线观看人妻少妇| 成年女人毛片免费观看观看9 | 精品少妇久久久久久888优播| 精品人妻熟女毛片av久久网站| www.精华液| 精品亚洲成a人片在线观看| av福利片在线| 婷婷色av中文字幕| 国产黄频视频在线观看| 亚洲欧美激情在线| 婷婷色麻豆天堂久久| 亚洲欧美一区二区三区国产| a级毛片在线看网站| 男人爽女人下面视频在线观看| 欧美激情高清一区二区三区 | 欧美日韩综合久久久久久| 啦啦啦视频在线资源免费观看| 中文字幕人妻丝袜一区二区 | 久久天堂一区二区三区四区| 国产激情久久老熟女| 新久久久久国产一级毛片| 国产成人91sexporn| 新久久久久国产一级毛片| 亚洲免费av在线视频| 一区福利在线观看| 在线观看免费高清a一片| 美女大奶头黄色视频| 亚洲精品中文字幕在线视频| 在线观看三级黄色| 91精品三级在线观看| 中文字幕精品免费在线观看视频| av在线观看视频网站免费| 伊人久久国产一区二区| 国产亚洲最大av| 国产高清不卡午夜福利| 亚洲欧美精品综合一区二区三区| 看非洲黑人一级黄片| 欧美97在线视频| av在线播放精品| 亚洲国产精品一区二区三区在线| 亚洲精品国产区一区二| 精品久久久久久电影网| 久久亚洲国产成人精品v| 欧美日韩国产mv在线观看视频| 久久天躁狠狠躁夜夜2o2o | 国产免费现黄频在线看| 国产老妇伦熟女老妇高清| 美女主播在线视频| 久久狼人影院| 黄色毛片三级朝国网站| 男女边摸边吃奶| 亚洲av成人不卡在线观看播放网 | 国产精品成人在线| 亚洲三区欧美一区| av线在线观看网站| 国产男女超爽视频在线观看| 桃花免费在线播放| 日本欧美视频一区| 国产亚洲欧美精品永久| 伊人久久国产一区二区| 最新在线观看一区二区三区 | 亚洲av电影在线观看一区二区三区| 亚洲精华国产精华液的使用体验| 午夜久久久在线观看| 久久精品aⅴ一区二区三区四区| 成人三级做爰电影| 久久精品熟女亚洲av麻豆精品| 99久久精品国产亚洲精品| 熟妇人妻不卡中文字幕| 日本av免费视频播放| 亚洲精品国产区一区二| 一区在线观看完整版| 女人被躁到高潮嗷嗷叫费观| 69精品国产乱码久久久| 久久久久久人人人人人| 国产极品粉嫩免费观看在线| 国产爽快片一区二区三区| 人人妻人人澡人人看| 人人妻,人人澡人人爽秒播 | 纵有疾风起免费观看全集完整版| 亚洲国产精品成人久久小说| 1024视频免费在线观看| 亚洲精品国产区一区二| 极品人妻少妇av视频| 久久久国产欧美日韩av| 国产一区二区在线观看av| av视频免费观看在线观看| 大片免费播放器 马上看| 国产精品国产三级专区第一集| 高清在线视频一区二区三区| 亚洲av电影在线观看一区二区三区| 免费观看人在逋| 老司机靠b影院| 成人三级做爰电影| 波野结衣二区三区在线| 黄网站色视频无遮挡免费观看| 七月丁香在线播放| 亚洲男人天堂网一区| www日本在线高清视频| 婷婷色综合大香蕉| 日韩精品免费视频一区二区三区| 国产免费一区二区三区四区乱码| 国产精品 国内视频| 国产爽快片一区二区三区| 久久久久精品国产欧美久久久 | 天天影视国产精品| 一二三四中文在线观看免费高清| 人成视频在线观看免费观看|