• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于卷積神經(jīng)網(wǎng)絡(luò)的小樣本車(chē)輛檢測(cè)與識(shí)別

      2018-06-20 07:50:08吳玉枝吳志紅熊運(yùn)余
      關(guān)鍵詞:卷積樣本車(chē)輛

      吳玉枝,吳志紅,熊運(yùn)余

      (1.四川大學(xué) 計(jì)算機(jī)學(xué)院,四川 成都 610064;2.四川大學(xué) 圖形圖像研究所,四川 成都 610064)

      1 概 述

      隨著城市規(guī)模的擴(kuò)大和道路車(chē)輛增多,智能交通系統(tǒng)(intelligent transportation system,ITS)逐漸成為圖像視覺(jué)領(lǐng)域的一個(gè)研究熱點(diǎn)。車(chē)輛檢測(cè)和車(chē)型識(shí)別是ITS的重要組成部分,兩者在規(guī)避交通事故、TC收費(fèi)系統(tǒng)和交通量調(diào)查等方面應(yīng)用廣泛。

      目標(biāo)檢測(cè)的任務(wù)是確定圖像中有無(wú)感興趣的目標(biāo),并給出目標(biāo)的具體坐標(biāo)。車(chē)輛檢測(cè)是目標(biāo)檢測(cè)的一個(gè)分支,可分為基于視頻的車(chē)輛檢測(cè)和基于圖像的車(chē)輛檢測(cè)?;谝曨l的檢測(cè)是在圖像檢測(cè)的基礎(chǔ)上,利用視頻流的幀連續(xù)性實(shí)現(xiàn)車(chē)輛檢測(cè),主要采用幀差算法、邊緣檢測(cè)算法和背景差算法實(shí)現(xiàn)對(duì)車(chē)輛數(shù)量、類(lèi)型、車(chē)流量、車(chē)流密度、平均車(chē)速以及交通事故等的檢測(cè)。其中背景差算法使用最多。常用的背景建模法有均值法、高斯平均法、中值法、卡爾曼濾波模型法[1]及混合高斯模型法(Gaussian mixture model,GMM)[2]。傳統(tǒng)的基于圖像特征的車(chē)輛檢測(cè)采用視覺(jué)特征、統(tǒng)計(jì)特征、變換系數(shù)特征和代數(shù)特征等車(chē)輛顯著特征,機(jī)器學(xué)習(xí)在各個(gè)領(lǐng)域取得成功后,HOG(histogram of oriented gradient)[3]和LBP(local binary pattern)[4]等紋理特征也被相繼應(yīng)用于車(chē)輛檢測(cè)。近年來(lái),深度卷積神經(jīng)網(wǎng)絡(luò)被應(yīng)用于計(jì)算機(jī)視覺(jué)各個(gè)領(lǐng)域,在諸如圖像分類(lèi)[5]、人臉識(shí)別[6]、行人檢測(cè)[7]和車(chē)輛分類(lèi)等多個(gè)方面取得了成功,文中將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到車(chē)輛檢測(cè)。

      車(chē)型識(shí)別技術(shù)是以計(jì)算機(jī)視覺(jué)、數(shù)字信號(hào)處理、模式識(shí)別等技術(shù)為基礎(chǔ),通過(guò)視頻監(jiān)控或高速拍照等方式取樣,以工控機(jī)或嵌入式處理器為處理平臺(tái),完成對(duì)不同車(chē)型的分類(lèi)和識(shí)別。其識(shí)別的結(jié)果信息可以全面應(yīng)用于道路交通視頻監(jiān)控系統(tǒng),也可有效配合智能交通信息管理中心完成規(guī)劃路網(wǎng)、管理通流、高效收費(fèi)等智能化應(yīng)用,最終有效改善道路擁堵,提高路網(wǎng)通流效率,優(yōu)化交通運(yùn)輸環(huán)境。車(chē)型識(shí)別一般有身份識(shí)別和身份鑒定兩種,身份識(shí)別即判斷車(chē)的類(lèi)型,身份鑒定則判斷車(chē)輛對(duì)象是否屬于某己知庫(kù),文中所指的車(chē)型識(shí)別專(zhuān)指身份識(shí)別。傳統(tǒng)的基于視頻圖像識(shí)別車(chē)型的主要方法有基于模板匹配的識(shí)別方法、基于統(tǒng)計(jì)模式的識(shí)別方法、基于仿生模式的識(shí)別方法和基于支持向量機(jī)的識(shí)別方法[8]。文中用一個(gè)深度卷積神經(jīng)網(wǎng)絡(luò)先檢測(cè)出圖像中的車(chē)輛,再識(shí)別檢測(cè)到的目標(biāo)車(chē)型,借鑒文獻(xiàn)[9-10]的方法,將車(chē)輛檢測(cè)和車(chē)型識(shí)別統(tǒng)一于同一個(gè)網(wǎng)絡(luò)。

      SSD[11]是將不同分辨率的特征圖與先驗(yàn)包圍框結(jié)合的網(wǎng)絡(luò),達(dá)到了計(jì)算量小、適應(yīng)性強(qiáng)、檢測(cè)精度高的效果。文中借鑒SSD中的做法改進(jìn)VGG-16,在VGG-16網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上修改全連接層,增加新的卷積層,結(jié)合五層不同的卷積特征圖用于預(yù)測(cè),并拋棄了繁瑣的區(qū)域推薦和后分類(lèi)算法,用單個(gè)網(wǎng)絡(luò)實(shí)現(xiàn)了多類(lèi)型車(chē)輛檢測(cè)。由于樣本數(shù)據(jù)集有限,通過(guò)微調(diào)和分步訓(xùn)練的策略提高模型收斂度和精確度。

      2 車(chē)輛檢測(cè)

      與一般的深度神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)方法不同,文中利用單個(gè)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行多類(lèi)目標(biāo)檢測(cè),將檢測(cè)與分類(lèi)統(tǒng)一與一個(gè)網(wǎng)絡(luò),而不是先檢測(cè)再分類(lèi),同時(shí)也拋棄了繁瑣的區(qū)域推薦算法,大大減少了時(shí)間消耗,速度更快。YOLO[12]同樣通過(guò)減少區(qū)域推薦算法達(dá)到更快的速度,但最后僅僅使用頂層特征圖的預(yù)測(cè)結(jié)果作為檢測(cè)依據(jù);并且在輸入圖片時(shí)將圖片轉(zhuǎn)化為同一尺寸,再投入網(wǎng)絡(luò)進(jìn)行訓(xùn)練得到最終模型,同樣檢測(cè)時(shí)也需要將待檢測(cè)圖片進(jìn)行相同的處理,導(dǎo)致對(duì)不同尺寸和車(chē)輛目標(biāo)的適應(yīng)性較差。與YOLO不同的是,文中算法結(jié)合了頂層和低層多層特征圖的預(yù)測(cè)結(jié)果,也并不改變輸入圖片的尺寸大小,以達(dá)到增加模型輸出層的平移不變性、減少過(guò)擬合、改善檢測(cè)性能的目的。

      2.1 訓(xùn)練方法

      2.1.1 匹配策略

      需要在訓(xùn)練階段將真實(shí)包圍框同先驗(yàn)關(guān)聯(lián)起來(lái),其實(shí)現(xiàn)方式有兩種:直接使用先驗(yàn)包圍框坐標(biāo)或者在網(wǎng)絡(luò)預(yù)測(cè)出坐標(biāo)偏差后調(diào)整先驗(yàn)框坐標(biāo)再使用。為了描述方便,文中將先驗(yàn)包圍框稱(chēng)為源框,真實(shí)包圍框簡(jiǎn)稱(chēng)為真實(shí)框。在訓(xùn)練過(guò)程中需要確定正負(fù)樣本,能夠與真實(shí)框匹配的源框是正樣本,其余的源框是負(fù)樣本。有兩種備選的匹配方式,其一是雙向匹配,其二是全預(yù)測(cè)匹配(perprediction matching)。雙向匹配算法中每一個(gè)真實(shí)框同與其相似度最高的源框匹配,它保證了每一個(gè)真實(shí)框都一定有一個(gè)源框相匹配。文中采用另一種匹配算法:全預(yù)測(cè)匹配。全預(yù)測(cè)匹配算法首先執(zhí)行雙向匹配,保證每個(gè)真實(shí)框同一個(gè)源框匹配,然后在剩下的源框中選擇與真實(shí)框相似度超過(guò)特定閾值(經(jīng)過(guò)實(shí)驗(yàn)對(duì)比,采用閾值0.5)的幾個(gè)源框,這幾個(gè)源框也同真實(shí)框相匹配。全預(yù)測(cè)匹配可以為每個(gè)真實(shí)框匹配好幾個(gè)正樣本源框—使用全預(yù)測(cè)匹配算法能夠?yàn)槎鄠€(gè)交叉的先驗(yàn)框預(yù)測(cè)出高置信度,而不會(huì)像雙向匹配一樣非要選出一個(gè)最好的匹配源框。

      為了檢測(cè)識(shí)別多類(lèi)車(chē)型(幾百甚至上千),需要為每個(gè)源框預(yù)測(cè)出一個(gè)針對(duì)所有目標(biāo)車(chē)型的包圍框偏移量,也就是說(shuō)在匹配階段不必考慮源框的車(chē)型類(lèi)別,直接將源框和真實(shí)框匹配。

      2.1.2 訓(xùn)練目標(biāo)

      L(x,c,l,g)=Lconf(x,c)+0.06Lloc(x,l,g)

      (1)

      其中,0.06是通過(guò)交叉驗(yàn)證選取的合適值,位置的損失函數(shù)是L2范數(shù)(計(jì)算預(yù)測(cè)框和真實(shí)框的損失值):

      (2)

      而置信度損失函數(shù)采用logistic函數(shù):

      (3)

      2.1.3 難例最小化

      在匹配步驟之后,大部分的源框都會(huì)被標(biāo)記為負(fù)樣本,導(dǎo)致訓(xùn)練過(guò)程中正負(fù)樣本之間的數(shù)量差異巨大。將負(fù)樣本中的源框按照所有車(chē)型分類(lèi)的置信度由高到低進(jìn)行排序后,選取置信度最高的幾個(gè)負(fù)樣本而不是所有的負(fù)樣本使用,以平衡正負(fù)樣本的比例,使得負(fù)樣本和正樣本的比例總是接近3∶1。

      2.1.4 共享先驗(yàn)包圍框

      借鑒SSD的做法,通過(guò)所有車(chē)型分類(lèi)共享包圍框的方式,在訓(xùn)練之后直接檢測(cè)多個(gè)分類(lèi)。假設(shè)特征圖大小為m×m,特征圖中每個(gè)位置有k個(gè)先驗(yàn)框(用先驗(yàn)框的左上角和右下角的坐標(biāo)表示這個(gè)先驗(yàn)框),總共有c種車(chē)型。這樣,對(duì)k個(gè)先驗(yàn)框就有4k個(gè)坐標(biāo)輸出,檢測(cè)c個(gè)類(lèi)別就會(huì)有ck個(gè)置信度輸出,最后每張?zhí)卣鲌D位置共有(4+c)k個(gè)輸出。累計(jì)所有位置的輸出參數(shù),共有(4+c)km2個(gè)輸出,但其中只有(4+c)k個(gè)參數(shù)需要學(xué)習(xí)。如果不同類(lèi)別不采用共享位置的方法,則一共有5ckm2個(gè)輸出,總共有5ck個(gè)參數(shù)。顯然,如果有很多種車(chē)型需要檢測(cè)識(shí)別(c≥1),以上數(shù)字會(huì)迅速增大。

      2.1.5 分段訓(xùn)練

      由于樣本數(shù)據(jù)集數(shù)量很小,為了達(dá)到更高的準(zhǔn)確率,在訓(xùn)練過(guò)程中采用微調(diào)和分步訓(xùn)練的策略。通過(guò)fine-tuning技術(shù)微調(diào)PASCAL VOC訓(xùn)練得到VGG-16模型,修改VGG-16的網(wǎng)絡(luò)結(jié)構(gòu),增加更多的卷積層用于多特征圖預(yù)測(cè)。將訓(xùn)練過(guò)程分為兩個(gè)階段,第一階段將樣本數(shù)據(jù)集隨機(jī)分配為訓(xùn)練集和驗(yàn)證集,使得訓(xùn)練集和驗(yàn)證集的比例接近于3∶1,迭代訓(xùn)練至loss穩(wěn)定。第二階段將驗(yàn)證集和訓(xùn)練集中隨機(jī)的等量的數(shù)據(jù)進(jìn)行替換,仍然保證訓(xùn)練集和測(cè)試集的比例接近3∶1,迭代至loss穩(wěn)定。通過(guò)實(shí)驗(yàn)驗(yàn)證該策略可以一定程度地降低loss,提高模型的準(zhǔn)確率。

      2.2 網(wǎng)絡(luò)結(jié)構(gòu)

      一些算法將樣本圖片轉(zhuǎn)化為不同的尺寸,對(duì)轉(zhuǎn)化后的圖片分別進(jìn)行處理,之后再把處理結(jié)果結(jié)合起來(lái),以適應(yīng)不同尺寸目標(biāo)的檢測(cè);而改進(jìn)的VGG-16網(wǎng)絡(luò)通過(guò)結(jié)合單個(gè)網(wǎng)絡(luò)中的低層卷積特征圖和頂層特征圖達(dá)到了同樣的效果。眾所周知,卷積網(wǎng)絡(luò)低層相較于高層獲取了更多輸入目標(biāo)的細(xì)節(jié),有助于改善語(yǔ)義分割的質(zhì)量;而頂層特征圖中池化得到的全局特征有助于平滑語(yǔ)義分割結(jié)果。改進(jìn)的VGG-16網(wǎng)絡(luò)使用低層和高層的特征圖而不是僅僅使用頂層特征圖,可以獲得更為全面的目標(biāo)特征,其網(wǎng)絡(luò)的主體結(jié)構(gòu)如圖1所示。

      圖1 改進(jìn)的VGG-16網(wǎng)絡(luò)

      2.2.1 單網(wǎng)絡(luò)檢測(cè)

      借鑒Faster-RCNN[13]中anchor的概念,摒棄繁瑣耗時(shí)的區(qū)域推薦算法,提高了算法的性能。首先,將圖片樣本調(diào)整到一個(gè)固定尺寸,然后將圖片劃分為N×N個(gè)網(wǎng)格,利用卷積特征圖提取圖像特征,每個(gè)格子負(fù)責(zé)預(yù)測(cè)中心點(diǎn)落在該格子區(qū)域內(nèi)的目標(biāo)物體,最終輸出多個(gè)包圍框和每個(gè)包圍框所屬類(lèi)別的置信度。這樣就不需要一個(gè)專(zhuān)門(mén)的網(wǎng)絡(luò)或者算法推薦區(qū)域,只要訓(xùn)練之前定義一系列不同長(zhǎng)寬比和尺寸的先驗(yàn)包圍框,然后在訓(xùn)練中由卷積神經(jīng)網(wǎng)絡(luò)篩選合適的包圍框,并根據(jù)網(wǎng)絡(luò)輸出的位置偏移量對(duì)包圍框的大小和位置進(jìn)行調(diào)整,最終得到預(yù)測(cè)包圍框。網(wǎng)絡(luò)最終輸出車(chē)輛目標(biāo)的包圍框及該包圍框所屬車(chē)型的置信度,不需要像R-CNN[14]等多種算法一樣在卷積神經(jīng)網(wǎng)絡(luò)后再增加一個(gè)分類(lèi)器判斷包圍框目標(biāo)所屬類(lèi)別,實(shí)現(xiàn)了單個(gè)網(wǎng)絡(luò)下的多分類(lèi)檢測(cè)識(shí)別。

      2.2.2 多層特征圖預(yù)測(cè)

      大多數(shù)的卷積神經(jīng)網(wǎng)絡(luò)都會(huì)在深度層通過(guò)池化等手段減少特征圖的大小,以減少計(jì)算量和內(nèi)存消耗,并增加算法的平移不變性和尺度不變性,但最后只采用頂層特征圖用作預(yù)測(cè),這造成了一定程度上特征信息的流失。通過(guò)改進(jìn)VGG-16網(wǎng)絡(luò),在其基礎(chǔ)上增加新的卷積層,并結(jié)合多層卷積特征圖用作預(yù)測(cè),可以獲得更為全面的特征信息。

      一個(gè)網(wǎng)絡(luò)中不同層的特征圖通常感受野也不同。如果網(wǎng)絡(luò)中的卷積先驗(yàn)需要同使用的每一層感受野相關(guān)聯(lián),計(jì)算量將非常大。為了解決以上難題,通過(guò)一定的調(diào)整使得特征圖的某個(gè)位置通過(guò)學(xué)習(xí)負(fù)責(zé)預(yù)測(cè)圖片特定區(qū)域和特定大小的檢測(cè)目標(biāo)。假設(shè)有m個(gè)特征圖用做預(yù)測(cè)。簡(jiǎn)單起見(jiàn),用fk∈[1,m]表示第k個(gè)特征圖(按尺寸非遞增排序)的大小。每個(gè)特征圖的源框尺寸計(jì)算如下:

      (4)

      其中,smin=0.1,smax=0.7,表示最低層的先驗(yàn)尺寸為0.1,最高層的先驗(yàn)尺寸為0.7,兩者之間所有層的先驗(yàn)尺寸線(xiàn)性遞增。

      通過(guò)結(jié)合多張?zhí)卣鞯乃形恢蒙喜煌叽绾烷L(zhǎng)寬比的先驗(yàn)框預(yù)測(cè)結(jié)果,得到一系列離散的的預(yù)測(cè)結(jié)果,包含了不同大小不同形狀的檢測(cè)目標(biāo)。

      3 實(shí) 驗(yàn)

      3.1 多車(chē)型標(biāo)簽車(chē)輛數(shù)據(jù)集

      傳統(tǒng)圖片數(shù)據(jù)庫(kù)中的車(chē)輛圖片與真實(shí)的道路攝像頭采集到的車(chē)輛圖片有很大的區(qū)別。前者車(chē)輛目標(biāo)只有小車(chē)和公交,車(chē)輛目標(biāo)往往較大較少,多是平視的視角,背景各異,包含車(chē)輛的正面、側(cè)面和背面;而后者車(chē)輛目標(biāo)有小車(chē)、公交、三輪車(chē)和貨車(chē)四種車(chē)型,受高攝像頭和密集車(chē)流影響,圖片中車(chē)輛目標(biāo)更多,多為俯視視角,背景是樹(shù)蔭和道路,除了包含傳統(tǒng)的車(chē)輛正面、側(cè)面和背面外,還包含車(chē)頂圖片,使用球機(jī)攝像頭時(shí)目標(biāo)可能還有輕微變形。使用傳統(tǒng)數(shù)據(jù)集如PASCAL VOC訓(xùn)練得到的模型,難以準(zhǔn)確檢測(cè)和識(shí)別道路上的三輪車(chē)與貨車(chē)。文中用到的數(shù)據(jù)集大部分采自于真實(shí)道路攝像頭,篩選了不同攝像頭下1 100多張圖片,以確保角度和場(chǎng)景的多樣性,另外采集了500多張網(wǎng)絡(luò)車(chē)輛圖片,以增加模型自適應(yīng)性。在篩選出來(lái)的圖片中標(biāo)注貨車(chē)、三輪車(chē)、小車(chē)和公交車(chē)四個(gè)車(chē)型的真實(shí)包圍框,制作樣本標(biāo)簽集。

      為了使模型更加魯棒,可以適應(yīng)不同尺寸和形狀的輸入目標(biāo),隨機(jī)選擇以下的一種方式對(duì)每一張訓(xùn)練圖片進(jìn)行取樣:

      ·使用原始圖片;

      ·取圖片的一部分,這部分圖片與目標(biāo)的最小jaccard相似度取值∈{0.1,0.3,0.5,0.7};

      ·取圖片的一部分,這部分圖片與目標(biāo)的最大jaccard相似度為0.5。

      在進(jìn)行以上取樣步驟后,每一個(gè)樣本以二分之一的概率進(jìn)行水平翻轉(zhuǎn),并且隨機(jī)選擇一些圖片做圖像扭曲變換處理。

      3.2 特征提取

      通過(guò)CNN卷積學(xué)習(xí)到的特征具有一定的辨別性,針對(duì)目標(biāo)提取的特征識(shí)別度較高,背景激活度較低,具有一定程度的位移、尺度、形變不變性。圖2為特征可視化結(jié)果,其中Conv1_1是網(wǎng)絡(luò)中的第一個(gè)卷積層,提取的特征較為具象化,圖(b)第一張圖片能夠看到車(chē)輛目標(biāo)的輪廓。算法中用作預(yù)測(cè)的六層特征圖如圖2中后六張圖片所示,可以看到越底層的特征越具象化,提取的多是顏色、輪廓等基本特征;越頂層的特征越抽象化,越具有辨別性。多層特征的結(jié)合,可以兼顧到細(xì)節(jié)和全局兩方面的特征信息,使得預(yù)測(cè)結(jié)果更為準(zhǔn)確可靠。

      根據(jù)坐標(biāo)偏移量調(diào)整特征圖上所有位置的先驗(yàn)框,輸出該特征圖的預(yù)測(cè)框。結(jié)合多張?zhí)卣鲌D的預(yù)測(cè)輸出,可以得到一系列離散的預(yù)測(cè)結(jié)果,包含了不同大小不同形狀的檢測(cè)目標(biāo)。最后的檢測(cè)層輸出1 000×6維向量,即1 000個(gè)預(yù)測(cè)框,每個(gè)框的信息包括目標(biāo)左上角和右下角的坐標(biāo)、何種車(chē)型及屬于該車(chē)型的置信度。預(yù)測(cè)效果示例如圖3所示。

      3.3 實(shí)驗(yàn)結(jié)果及分析

      以PASCAL VOC數(shù)據(jù)集下訓(xùn)練好的VGG-16模型作為預(yù)訓(xùn)練模型,采用two-phase策略分成兩個(gè)階段進(jìn)行訓(xùn)練。第一階段隨機(jī)分配訓(xùn)練集和驗(yàn)證集,迭代8萬(wàn)次至loss穩(wěn)定;第二階段微調(diào)第一階段生成的模型,按照分段訓(xùn)練策略打亂訓(xùn)練集和驗(yàn)證集,迭代2萬(wàn)次,得到最終的訓(xùn)練模型。兩階段中數(shù)據(jù)集數(shù)量分布如表1所示。

      (a)卷積核提取的特征

      (b)輸入圖片的各層特征圖

      圖3 網(wǎng)絡(luò)輸出預(yù)測(cè)效果示例

      第一階段 第二階段 訓(xùn)練集測(cè)試集訓(xùn)練集測(cè)試集圖片數(shù)量12484161 248416貨車(chē)975276918333三輪車(chē)396154402148小車(chē)3 9531 3433 9261 370公交車(chē)339116329126

      訓(xùn)練采用的硬件配置如下:CPU,Intel Core i7-6800k@3.40 GHz×12;GPU,GeForce GTX 1080/PCle/SSE2。Faster R-CNN是一種國(guó)際前沿的目標(biāo)檢測(cè)算法,使用RPN(region proposal network)代替區(qū)域推薦算法,大大提高了檢測(cè)速度,同時(shí)保持了與Fast R-CNN持平的檢測(cè)精度。FasterR-CNN和改進(jìn)的VGG-16使用相同的樣本訓(xùn)練得到的模型檢測(cè)效果如表2所示。

      從表1可以看出,訓(xùn)練樣本中四類(lèi)車(chē)輛目標(biāo)的數(shù)量嚴(yán)重不平衡,基于道路實(shí)際情況,小車(chē)數(shù)目遠(yuǎn)遠(yuǎn)多于其他三類(lèi)車(chē)輛數(shù)目。而表2中Faster-RCNN模型識(shí)別四種車(chē)型的準(zhǔn)確度也存傾斜度相同的不平衡,其中小車(chē)的AP(average precision)遠(yuǎn)高于其他三種車(chē)型的AP,這反映出數(shù)據(jù)集的匱乏和不平衡影響了Faster R-CNN算法的準(zhǔn)確度。而使用改進(jìn)的VGG-16,除了三輪車(chē)的AP稍低,其余三種車(chē)型AP均為0.7+,比Faster R-CNN有更好的平衡性和適應(yīng)性。兩種網(wǎng)絡(luò)檢測(cè)效果如圖4所示。

      實(shí)驗(yàn)對(duì)比發(fā)現(xiàn),過(guò)多的訓(xùn)練次數(shù)容易造成過(guò)擬合。從表2可以看到,改進(jìn)的VGG-16網(wǎng)絡(luò)在迭代10萬(wàn)次后平均準(zhǔn)確率為0.718,此后繼續(xù)增加迭代次數(shù)至12萬(wàn)次,mAP不再增加。在采用分段訓(xùn)練策略時(shí),迭代10萬(wàn)次平均準(zhǔn)確率達(dá)0.772,此后繼續(xù)增加迭代次數(shù)反而造成mAP的下降。對(duì)比迭代10萬(wàn)次時(shí)改進(jìn)的VGG-16有無(wú)采用分段訓(xùn)練策略得到的模型發(fā)現(xiàn),采用分段訓(xùn)練策略可以將mAP提高5%,說(shuō)明小樣本情況下分段訓(xùn)練是一種有效提高檢測(cè)精度的方法??傮w上,與Faster R-CNN網(wǎng)絡(luò)相比,文中采用改進(jìn)VGG-16網(wǎng)絡(luò)針對(duì)四類(lèi)車(chē)型的AP較為平衡,mAP(mean average precision)也比前者高約10%,且速度約為其2.5倍,說(shuō)明文中算法在小樣本上有較為理想的檢測(cè)效果。與此同時(shí),文中算法的網(wǎng)絡(luò)誤檢率更低,適應(yīng)性強(qiáng),在各種復(fù)雜環(huán)境諸如夜晚、強(qiáng)光、樹(shù)蔭下等均有穩(wěn)定的檢測(cè)和識(shí)別效果。

      4 結(jié)束語(yǔ)

      采用改進(jìn)的VGG-16網(wǎng)絡(luò),用fine-tuning和分段訓(xùn)練的策略實(shí)現(xiàn)在小樣本下快速準(zhǔn)確的車(chē)輛目標(biāo)檢測(cè)和車(chē)型分類(lèi)。通過(guò)實(shí)驗(yàn)結(jié)果分析與對(duì)比發(fā)現(xiàn),該算法的平均準(zhǔn)確度可達(dá)77.2%,運(yùn)行效率上平均每秒處理幀數(shù)46.57幀,比Faster-RCNN快約1.5倍,可以應(yīng)用到道路攝像頭實(shí)時(shí)檢測(cè)中。但是算法對(duì)圖片中遠(yuǎn)處的小目標(biāo)車(chē)輛無(wú)法有效識(shí)別,漏檢率較高;且部分機(jī)動(dòng)三輪車(chē)由于背面和側(cè)面和小車(chē)極為相似,有時(shí)會(huì)被誤檢為小車(chē);同時(shí)局限于目前的訓(xùn)練樣本數(shù)量,算法的最終mAP還是不夠高。針對(duì)這些問(wèn)題,將繼續(xù)深入研究,對(duì)算法進(jìn)行改進(jìn)。

      參考文獻(xiàn):

      [1] 田鵬輝,隋立春,肖 鋒.用Kalman濾波改進(jìn)的背景建模紅外運(yùn)動(dòng)目標(biāo)檢測(cè)[J].四川大學(xué)學(xué)報(bào):自然科學(xué)版,2014,51(2):287-291.

      [2] 王寶珠,胡 洋,郭志濤,等.基于朗斯基函數(shù)的混合高斯模型運(yùn)動(dòng)目標(biāo)檢測(cè)[J].計(jì)算機(jī)應(yīng)用研究,2016,33(12):3880-3883.

      [3] 凌永國(guó),胡維平.復(fù)雜背景下的車(chē)輛檢測(cè)[J].計(jì)算機(jī)工程與設(shè)計(jì),2016,37(6):1573-1578.

      [4] 董恩增,魏魁祥,于 曉,等.一種融入PCA的LBP特征降維車(chē)型識(shí)別算法[J].計(jì)算機(jī)工程與科學(xué),2017,39(2):359-363.

      [5] 朱 威,屈景怡,吳仁彪.結(jié)合批歸一化的直通卷積神經(jīng)網(wǎng)絡(luò)圖像分類(lèi)算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2017,29(9):1650-1657.

      [6] TAIGMAN Y, YANG Ming, RANZATO M, et al.DeepFace:closing the gap to human-level performance in face verification[C]//IEEE conference on computer vision and pattern recognition.Columbus,OH,USA:IEEE,2014:1701-1708.

      [7] 徐 超,閆勝業(yè).改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)行人檢測(cè)方法[J].計(jì)算機(jī)應(yīng)用,2017,37(6):1708-1715.

      [8] 鄧 柳,汪子杰.基于深度卷積神經(jīng)網(wǎng)絡(luò)的車(chē)型識(shí)別研究[J].計(jì)算機(jī)應(yīng)用研究,2016,33(3):930-932.

      [9] JIANG Changyu,ZHANG Bailing.Weakly-supervised vehicle detection and classification by convolutional neural network[C]//International congress on image and signal processing,biomedical engineering and informatics.Datong,China:IEEE,2016:570-575.

      [10] BAUTISTA C M,DY C A,MAALAC M I,et al.Convolutional neural network for vehicle detection in low resolution traffic videos[C]//IEEE region 10 symposium.Bali,Indonesia:IEEE,2016:277-281.

      [11] LIU Wei,ANGUELOV D,ERHAN D,et al.SSD:single shot multibox detector[C]//European conference on computer vision.[s.l.]:Springer International Publishing,2016:21-37.

      [12] REDMON J,DIVVALA S,GIRSHICK R,et al.You only look once:unified,real-time object detection[C]//IEEE conference on computer vision and pattern recognition.Las Vegas,NV,USA:IEEE,2016:779-788.

      [13] GIRSHICK R.Fast R-CNN[C]//Proceedings of the IEEE international conference on computer vision.[s.l.]:IEEE,2015:1440-1448.

      [14] GIRSHICK R,DONAHUE J,DARRELL T,et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Computer vision and pattern recognition.[s.l.]:IEEE,2014:580-587.

      猜你喜歡
      卷積樣本車(chē)輛
      基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
      用樣本估計(jì)總體復(fù)習(xí)點(diǎn)撥
      從濾波器理解卷積
      電子制作(2019年11期)2019-07-04 00:34:38
      推動(dòng)醫(yī)改的“直銷(xiāo)樣本”
      車(chē)輛
      基于傅里葉域卷積表示的目標(biāo)跟蹤算法
      隨機(jī)微分方程的樣本Lyapunov二次型估計(jì)
      冬天路滑 遠(yuǎn)離車(chē)輛
      車(chē)輛出沒(méi),請(qǐng)注意
      村企共贏(yíng)的樣本
      蕉岭县| 沈丘县| 九江县| 岳西县| 盐源县| 凤山县| 肇州县| 屏南县| 深圳市| 新营市| 定边县| 宜兰县| 宕昌县| 安多县| 兰溪市| 九江县| 化德县| 达尔| 华坪县| 曲周县| 清丰县| 北碚区| 弋阳县| 穆棱市| 哈尔滨市| 农安县| 敦化市| 东阿县| 资兴市| 拉萨市| 托里县| 昭平县| 石河子市| 虹口区| 鄂伦春自治旗| 福建省| 海宁市| 天祝| 丁青县| 城口县| 灵川县|