• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      遺漏負(fù)樣本挖掘的行人檢測(cè)方法?

      2019-02-27 08:32:10劉芷含李旻先趙春霞
      關(guān)鍵詞:候選框示例行人

      劉芷含 李旻先 趙春霞

      (南京理工大學(xué)計(jì)算機(jī)科學(xué)與工程學(xué)院 南京 210094)

      行人檢測(cè)[1~3]作為自動(dòng)駕駛、智能監(jiān)控等實(shí)際應(yīng)用的主要部分,吸引了不少學(xué)者的關(guān)注。近年來(lái),卷積神經(jīng)網(wǎng)絡(luò)(CNN)在計(jì)算機(jī)視覺(jué)和模式識(shí)別方面表現(xiàn)出了強(qiáng)大的能力。許多基于CNN的物體檢測(cè)方法已經(jīng)被提出,這促進(jìn)了行人檢測(cè)的學(xué)術(shù)研究和應(yīng)用進(jìn)展。

      基于CNN的物體檢測(cè)方法可分為兩大類(lèi)。第一類(lèi)是兩個(gè)階段的R-CNN型。這些方法在第一階段提出合理的區(qū)域候選框,然后在第二階段進(jìn)行細(xì)化。另一類(lèi)方法旨在消除候選區(qū)域階段,直接訓(xùn)練一個(gè)端到端的分類(lèi)器[4]。第二種方法通常更容易訓(xùn)練,計(jì)算效率更高,但第一類(lèi)方法在性能上往往更有利。

      Faster R-CNN[5]框架屬于第一類(lèi)方法。它主要由兩個(gè)模塊組成:RPN和Fast R-CNN[6]。其中,RPN是用于提取候選框的模塊,它改善了過(guò)去提取候選框的方法,大幅度減少候選框的數(shù)量、提高了整體物體檢測(cè)的準(zhǔn)確性。Fast R-CNN檢測(cè)并識(shí)別RPN提出的候選框。同時(shí),該框架依靠4步交替訓(xùn)練算法,將獨(dú)立存在的RPN網(wǎng)絡(luò)和Fast R-CNN網(wǎng)絡(luò)通過(guò)共享卷積層實(shí)現(xiàn)了端到端。端到端可訓(xùn)練的Faster R-CNN網(wǎng)絡(luò)更快更強(qiáng)大。

      視頻條件下的應(yīng)用場(chǎng)景與自然圖像差異很大,照明條件、目標(biāo)大小、尺度、拍攝角度等因素導(dǎo)致檢測(cè)結(jié)果差??煽康貦z測(cè)出視頻幀中的行人需要各種信息,包括行人的細(xì)粒度細(xì)節(jié)及其周?chē)纳舷挛模?]。每一張視頻幀中除了目標(biāo),大多數(shù)區(qū)域是背景,并且背景中極有可能存在卷積特征與正樣本相似的難分負(fù)樣本。Faster R-CNN僅使用真值候選框(Ground Truth,GT)周?chē)男畔?。因此,視頻條件下分類(lèi)器效果不好,這更有可能產(chǎn)生誤檢。我們將產(chǎn)生誤檢的原因分為兩類(lèi),第一類(lèi)是將非行人的物體檢測(cè)為行人,第二類(lèi)是由于檢測(cè)框不準(zhǔn)確,不滿足正檢設(shè)定的條件。

      行人檢測(cè)結(jié)果不僅受到行人特征[8]和分類(lèi)器的影響,訓(xùn)練樣本也會(huì)產(chǎn)生影響。第一種誤檢產(chǎn)生的原因主要是負(fù)樣本不充分,沒(méi)有考慮到背景中有代表性的負(fù)樣本,我們稱(chēng)這種樣本為被遺漏的負(fù)樣本。利用候選框的置信度,在丟棄的候選框中找到被遺漏的負(fù)樣本,來(lái)改進(jìn)Faster R-CNN的樣本生成算法。這種方法不僅充實(shí)了負(fù)樣本,而且利用被忽略的背景信息。進(jìn)行檢測(cè)時(shí),發(fā)現(xiàn)第一類(lèi)誤檢明顯減少。

      2 相關(guān)工作

      挖掘難負(fù)示例的方法是為分類(lèi)器挖掘更具代表性的樣品。我們的方法是它的一個(gè)分支,是利用置信度挖掘?qū)Ψ诸?lèi)器有影響的被遺漏的負(fù)樣本,從而增加其“判斷力”。

      2.1 Bootstrapping

      物體檢測(cè)和圖像分類(lèi)是計(jì)算機(jī)視覺(jué)的兩個(gè)基本任務(wù)[9]。檢測(cè)器通常通過(guò)將物體檢測(cè)轉(zhuǎn)換為分類(lèi)問(wèn)題來(lái)簡(jiǎn)化訓(xùn)練[10]。這種轉(zhuǎn)換為圖像分類(lèi)任務(wù)引入了新的挑戰(zhàn):訓(xùn)練集正樣本數(shù)量和負(fù)樣本數(shù)量不平衡[11]。訓(xùn)練分類(lèi)器時(shí),負(fù)樣本中通常含有一些簡(jiǎn)單的樣本,因此整體的復(fù)雜性難以保證,并且整體已知的信息也不能被有效地利用。這就迫切需要新方法來(lái)去除一些容易區(qū)分的樣品類(lèi),并添加一些現(xiàn)有模型不能判斷的樣品類(lèi),進(jìn)行新的訓(xùn)練使得訓(xùn)練過(guò)程更高效。

      Bootstrapping方法的關(guān)鍵思想是將誤檢的示例加入到背景示例中,來(lái)逐漸增加背景示例。該策略導(dǎo)致迭代訓(xùn)練算法。該算法開(kāi)始于一組初始訓(xùn)練集,不斷更新檢測(cè)模型以找到新的誤檢樣本添加到訓(xùn)練集中。該過(guò)程的初始訓(xùn)練集包含所有被標(biāo)記的正樣本和隨機(jī)生成的負(fù)樣本。

      Bootstrapping方法已被廣泛應(yīng)用于物體檢測(cè)。Dalal等[12]將這種方法用于訓(xùn)練行人檢測(cè)的支持向量機(jī)(Support Vector Machine,SVM)。Felzenszwalb和Girshick[13]提出了一種間隔敏感方法來(lái)挖掘難負(fù)樣本,并證明該方法收斂于整個(gè)數(shù)據(jù)集的全局最優(yōu)解。他們的算法通常被稱(chēng)為挖掘難負(fù)示例方法。物體檢測(cè)[14~16]經(jīng)常使用該算法來(lái)訓(xùn)練SVM,從而解決了訓(xùn)練樣本過(guò)多的問(wèn)題。Bootstrapping在現(xiàn)代檢測(cè)方法中也很受歡迎,如R-CNN[14]和SPP-NET[15]。

      一些現(xiàn)代方法將生成負(fù)樣本時(shí)較低的閾值作為挖掘難負(fù)示例方法的啟發(fā)式,其認(rèn)為與GT有一些重疊的候選框更可能是難分樣本[6]。這種啟發(fā)式有助于收斂和檢測(cè)精度,且實(shí)現(xiàn)簡(jiǎn)單。由于使用端到端的訓(xùn)練策略而沒(méi)有使用挖掘難負(fù)示例方法,F(xiàn)ast R-CNN和Faster R-CNN需要這種啟發(fā)式來(lái)改進(jìn)檢測(cè)效果。因此,這些方法引入了一些新的問(wèn)題,即一些難分樣本被忽略,影響分類(lèi)器的分類(lèi)效果。

      2.2 在線難樣本挖掘(Online Hard Example Mining,OHEM)

      當(dāng)采用挖掘難負(fù)示例方法訓(xùn)練分類(lèi)器時(shí),選擇負(fù)樣本的閾值范圍太小或太大將產(chǎn)生不同的問(wèn)題。另外,生成正負(fù)樣本時(shí)要控制正負(fù)樣本的比例,例如Fast RCNN正負(fù)樣本的比例設(shè)置為1∶3。Abhinav Shrivastava等[11]基于Fast R-CNN針對(duì)上述問(wèn)題,提出了在線挖掘難負(fù)示例方法(Online Hard Example Mining,OHEM)方法。該方法對(duì)隨機(jī)梯度下降(Stochastic Gradient Descent,SGD)算法進(jìn)行了簡(jiǎn)單的修改,即在Fast RCNN使用SDG算法在線訓(xùn)練時(shí)將交替的步驟與其結(jié)合。每個(gè)SGD迭代包含的樣本雖然比較少,但每個(gè)樣本圖包含數(shù)以千個(gè)感興趣區(qū)域(Regions of Interest,ROI),可以從中篩選難分負(fù)樣本來(lái)更新后向傳播中模型的權(quán)重。這個(gè)過(guò)程僅僅將模型固定在一個(gè)小批量中,訓(xùn)練過(guò)程沒(méi)有延遲。

      這是Bootstrapping算法在深度學(xué)習(xí)中的完美“嵌入”。使用全部ROI更新權(quán)重會(huì)帶來(lái)時(shí)間消耗,并且在使用全部ROI時(shí),權(quán)重的更新仍然集中在難分樣本上。其關(guān)鍵思想是使用網(wǎng)絡(luò)訓(xùn)練損失來(lái)找到那些代表性的負(fù)樣本,使分類(lèi)器訓(xùn)練效果更好。該方法還表明,將產(chǎn)生負(fù)樣本的閾值限制在某個(gè)閾值范圍內(nèi)并不是最優(yōu)的。

      Minne Li和Zhaoning Zhang等[17]發(fā)現(xiàn)OHEM在所有類(lèi)型任務(wù)的損失中使用相同權(quán)重來(lái)設(shè)置多任務(wù)損失,并忽略訓(xùn)練期間不同損失分布的影響,因此他們提出了分層在線挖掘難負(fù)示例(Stratified Online Hard Example Mining,S-OHEM)算法,該方法根據(jù)損失分布對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行采樣提供給反向傳播過(guò)程。

      3 改進(jìn)的樣本生成算法

      Faster R-CNN不僅使用非極大值抑制方法,而且在執(zhí)行檢測(cè)時(shí)使用分類(lèi)得分來(lái)去掉冗余框。例如,F(xiàn)aster R-CNN定義了一個(gè)閾值為0.6,以去除得分小于0.6的冗余框。我們發(fā)現(xiàn),當(dāng)產(chǎn)生第一種誤檢時(shí),不管目標(biāo)周?chē)卸嗌賯€(gè)候選框,非極大值抑制方法最終會(huì)留下至少一個(gè)具有較高分?jǐn)?shù)的候選框,該候選框的分?jǐn)?shù)可能高于閾值。然后將作為最終結(jié)果輸出。如果增加閾值,則會(huì)導(dǎo)致許多正確的檢測(cè)框被抑制,特別是遠(yuǎn)處或被遮擋嚴(yán)重的小目標(biāo)。這將減少召回,因此更改閾值不是最佳的。

      我們知道候選框的分類(lèi)得分表示該候選框是行人的概率。當(dāng)生成第一種誤檢時(shí),分類(lèi)器“認(rèn)為”該候選框中的目標(biāo)是行人。分類(lèi)器基于現(xiàn)有的學(xué)習(xí)經(jīng)驗(yàn)來(lái)判斷,并沒(méi)有在學(xué)習(xí)過(guò)程中學(xué)習(xí)到這種情況。所以我們認(rèn)為當(dāng)為分類(lèi)器生成樣本時(shí),遺漏了一些具有代表性的負(fù)樣本。為了解決這個(gè)問(wèn)題,我們重新審視了Fast R-CNN的樣本生成算法。Fast R-CNN優(yōu)化圖像的所有錨點(diǎn),并使用非極大值抑制方法來(lái)移除重疊區(qū)域。這樣可以去除類(lèi)似的樣本并減少樣本數(shù)量,剩下的樣本更可能是難分樣本。選擇前2000個(gè)候選框以生成Fast R-CNN的正負(fù)樣本。具體過(guò)程如下:對(duì)每個(gè)GT,與其重疊比例最大的候選框記為前景樣本;剩下的候選框中,如果其與某個(gè)GT的重疊比例大于T1,記為前景樣本;如果其與任意一個(gè)GT的重疊比例大于T2并小于T1,記為背景樣本;其余的候選框,棄去不用。

      Faster R-CNN在GT周?chē)a(chǎn)生樣本。對(duì)于圖像而言,局部區(qū)域包含有限的信息,這往往會(huì)導(dǎo)致分類(lèi)錯(cuò)誤。鑒于上述問(wèn)題,我們提出了第一個(gè)假設(shè),即在負(fù)樣本中隨機(jī)加入少量不重疊或重疊率小的背景信息。定義Faster R-CNN丟棄的候選框?yàn)锽={b1,…,bN},N是候選框的數(shù)量,random(?)是隨機(jī)采樣函數(shù),n是隨機(jī)選擇的樣本數(shù)。對(duì)于第i個(gè)候選框,我們使用以下規(guī)則來(lái)定義:

      其中,Label(i)∈{-1,0},Label()i=-1表示標(biāo)記的候選框?qū)⒈粊G棄,Label(i)=0表示標(biāo)記的候選框?qū)⒈惶砑拥截?fù)樣本中。在Faster R-CNN的訓(xùn)練過(guò)程中,對(duì)于每個(gè)圖像,總樣本數(shù)和比例是固定的。所以這可以充分利用目標(biāo)周?chē)谋尘靶畔ⅲ膊粫?huì)增加計(jì)算量。但這違反了挖掘難負(fù)示例方法的本質(zhì),也找不到最好的n。

      圖1 樣本生成算法的體系結(jié)構(gòu)

      樣本生成算法不僅要充分利用目標(biāo)的背景信息,還要滿足挖掘難負(fù)示例方法的要求。我們定義的負(fù)樣本符合上述要求,不僅是背景信息,又是有代表性的負(fù)樣本。根據(jù)Faster R-CNN樣本生成算法,發(fā)現(xiàn)丟棄的候選框中存在大量的背景信息,需要從中找出遺漏的負(fù)樣本,因此提出了一種新的樣本生成算法。使用預(yù)訓(xùn)練模型來(lái)判斷棄去不用的候選框以找到可能被分類(lèi)器“識(shí)別”為目標(biāo)的候選框,并讓分類(lèi)器“知道”這些候選框不是目標(biāo)。定義規(guī)則如下:

      其中,bi是Faster R-CNN丟棄的第i個(gè)候選框,Score()·表示候選框的分類(lèi)得分,T是閾值。設(shè)置閾值T來(lái)篩選遺漏的負(fù)樣本,這不僅確保了篩選出的負(fù)樣本數(shù)量,而且確保所選區(qū)域是難分樣本。圖1是我們方法的正式描述,箭頭的方向表示執(zhí)行的順序,虛線框中的步驟是我們的方法。RPN網(wǎng)絡(luò)的輸出用于預(yù)分類(lèi)器生成分類(lèi)得分,并根據(jù)分類(lèi)得分(如虛線框所示)為Faster R-CNN選擇遺漏的負(fù)樣本。其中,綠色框表示正樣本,紅色框表示負(fù)樣本,橙色框表示遺漏的負(fù)樣本,藍(lán)色框表示GT。從圖1可以看出,原始方法僅考慮每個(gè)候選框與GT的最大重疊率,即位置信息。我們的方法不僅考慮了位置信息,還考慮了分類(lèi)器的分類(lèi)效應(yīng),發(fā)現(xiàn)分類(lèi)器的不足,改變它的不足。

      我們的方法產(chǎn)生效果的條件有三個(gè):首先,F(xiàn)aster R-CNN有一個(gè)具有一定分類(lèi)能力的預(yù)訓(xùn)練模型,我們使用預(yù)訓(xùn)練模型來(lái)獲得候選框的分?jǐn)?shù)。這并不需要多次迭代。文獻(xiàn)[18]中的做法是首先在原始訓(xùn)練集上學(xué)習(xí)得到新的誤檢樣本,然后將誤檢樣本添加到訓(xùn)練集中以重新訓(xùn)練,不停迭代以滿足要求。其次,在對(duì)模型進(jìn)行訓(xùn)練的同時(shí),加入了有代表性的難分負(fù)面樣本,前景樣本與背景樣本的比例依然保持1∶3。迭代訓(xùn)練時(shí)可以確保背景樣本中的難分樣本被選中用于訓(xùn)練。最后,由于Faster R-CNN網(wǎng)絡(luò)的4步交替算法,第二步中的優(yōu)化結(jié)果將在第三步中產(chǎn)生優(yōu)化,并作用于第四步。而第四步再次利用我們的方法來(lái)進(jìn)一步提高分類(lèi)器的能力。

      4 實(shí)驗(yàn)

      4.1 數(shù)據(jù)集

      我們對(duì)三個(gè)數(shù)據(jù)集進(jìn)行了全面評(píng)估:INRIA[11],PKU-SVD-B和Caltech行人數(shù)據(jù)庫(kù)[19]。默認(rèn)情況下,交并比閾值(Intersection-over-Union,IoU)為0.5,用于確定這些數(shù)據(jù)庫(kù)中的正檢。對(duì)于ImageNet預(yù)先訓(xùn)練的網(wǎng)絡(luò),我們?cè)赑KU-SVD-B,INRIA數(shù)據(jù)庫(kù)上使用具有五個(gè)卷積層和三個(gè)全連接層的ZF網(wǎng)絡(luò)[20],在Caltech數(shù)據(jù)庫(kù)上使用具有十三個(gè)卷積層和三個(gè)全連接層的VGG網(wǎng)絡(luò)[21]。

      INRIA該數(shù)據(jù)庫(kù)的原始圖片來(lái)自GRAZ-01數(shù)據(jù)庫(kù)和網(wǎng)絡(luò)上的一些圖片。這些照片中的行人姿態(tài)和照明條件比較全面,適合做行人檢測(cè)。我們的方法使用INRIA訓(xùn)練集的614個(gè)正樣本來(lái)對(duì)INRIA測(cè)試集進(jìn)行訓(xùn)練和測(cè)試,其中包括743個(gè)測(cè)試圖像。

      PKU-SVD-B該數(shù)據(jù)庫(kù)由北京大學(xué)視頻編解碼技術(shù)國(guó)家工程實(shí)驗(yàn)室聯(lián)合北京大學(xué)保衛(wèi)部建立并整理,主要用于全國(guó)研究生智慧城市技術(shù)與創(chuàng)意設(shè)計(jì)大賽“視頻分析技術(shù)挑戰(zhàn)賽”。其來(lái)自北京大學(xué)校園內(nèi)20個(gè)攝像頭的監(jiān)控視頻,分辨率為1080p。選用PKU-SVD-B數(shù)據(jù)庫(kù)中的行人數(shù)據(jù),包括3200個(gè)訓(xùn)練圖像和5711個(gè)測(cè)試圖像。

      Caltech-USA該數(shù)據(jù)庫(kù)是目前應(yīng)用較廣泛的行人數(shù)據(jù)庫(kù),其采用車(chē)載攝像頭拍攝,大約10h,視頻的分辨率為640×480,30幀/秒。訓(xùn)練集有42782張圖像,測(cè)試集中的4024張圖像用于評(píng)估“合理”設(shè)置(行人至少高50像素,至少65%可見(jiàn))下的原始標(biāo)注。

      4.2 實(shí)驗(yàn)結(jié)果及分析

      在本文中,使用召回率,精度率和F1測(cè)度作為評(píng)估指標(biāo)。F1測(cè)度綜合考慮召回率和精確率,是兩者的調(diào)和均值,以對(duì)測(cè)試算法的分類(lèi)性能進(jìn)行更合理的評(píng)估[22]。為了進(jìn)一步評(píng)估我們的方法,繪制MR-FPPI曲線(Miss Rate-False Positives per Image),以獲得獲取每幅圖像誤檢數(shù)在[10-2,100]范圍內(nèi)的對(duì)數(shù)平均誤差率。

      首先在公共靜態(tài)數(shù)據(jù)庫(kù)上使用我們的方法來(lái)展示其優(yōu)越性。在實(shí)際應(yīng)用中,行人檢測(cè)主要檢測(cè)視頻中的非靜態(tài)行人。在視頻條件下,行人很容易與背景混合;行人會(huì)有各種各樣的姿勢(shì),如行走,站立或不可預(yù)測(cè)的改變運(yùn)動(dòng)方向;天氣等外部因素將對(duì)行人的背景也會(huì)產(chǎn)生不同的影響。為了進(jìn)一步驗(yàn)證我們的方法,在更復(fù)雜的視頻條件下進(jìn)行了實(shí)驗(yàn)。

      分別對(duì)INRIA,PKU-SVD-B和Caltech數(shù)據(jù)庫(kù)進(jìn)行訓(xùn)練,分別對(duì)其測(cè)試集進(jìn)行測(cè)試。設(shè)置閾值T為0.7以選擇難分樣本。召回率,精確率和F1測(cè)度3個(gè)評(píng)價(jià)指標(biāo)上的對(duì)比結(jié)果如表1所示。

      表1 不同測(cè)試集上的檢測(cè)結(jié)果

      INRIA結(jié)果從表1可以看出,INRIA數(shù)據(jù)集中的誤檢率很高,這導(dǎo)致其精度不高,只有79.7%。我們的方法提高了分類(lèi)器的效率,將精度提高到91.2%。雖然召回率略有下降,但召回率和準(zhǔn)確率更為均衡。圖2是其對(duì)應(yīng)的MR-FPPI曲線,我們的方法將性能下降了2.2%(從10.3%MR到8.1%MR)。

      圖2 INRIA測(cè)試集的MR-FPPI曲線

      PKU_SVD_B結(jié)果為了進(jìn)一步驗(yàn)證我們方法的優(yōu)越性,在視頻條件下進(jìn)行實(shí)驗(yàn)。PKU_SVD_B數(shù)據(jù)中的目標(biāo)相對(duì)較大,背景復(fù)雜度較Caltech數(shù)據(jù)集偏低。召回率,精確率和F1測(cè)度結(jié)果如表1所示。在PKU-SVD-B數(shù)據(jù)集上的召回率沒(méi)有變化,精度提高了9.7%,F(xiàn)1測(cè)度提高了4.9%。MR-FPPI曲線如圖3所示,MR值降低1.2%。

      圖3 PKU_SVD_B測(cè)試集的MR-FPPI曲線

      Caltech結(jié)果Caltech數(shù)據(jù)集的行人更小更復(fù)雜,導(dǎo)致誤檢的可能性很高。從表1可以看出,其精確率非常低(24.5%),但是召回率較高,這主要是因?yàn)橛泻芏嗾`檢。我們的方法大大減少了誤檢,將精度提高到37.2%。圖4中,MR值下降了20.8%(從42.65%MR到21.85%MR),這表明我們的方法提高了分類(lèi)器的性能。

      圖4 Caltech測(cè)試集的MR-FPPI曲線

      我們認(rèn)為,如果圖像的目標(biāo)區(qū)域相對(duì)較大,導(dǎo)致第一種誤檢的概率較低。但在視頻條件下,背景區(qū)域遠(yuǎn)遠(yuǎn)大于目標(biāo),并且背景更復(fù)雜,這就產(chǎn)生了大量的誤檢,降低了檢測(cè)效率。我們的方法可以選擇少量遺漏的負(fù)樣本來(lái)減少誤檢。因此,在視頻條件下的數(shù)據(jù)集上產(chǎn)生的影響比靜態(tài)數(shù)據(jù)集上更為明顯。

      4.3 閾值T的分析

      我們的方法涉及一個(gè)參數(shù)T,其用于在棄之不用的候選框中選擇遺漏的負(fù)樣本。閾值T的選擇決定了分類(lèi)效果。閾值T太小,將增加無(wú)用的候選框并增加計(jì)算成本;閾值T太大,無(wú)法挖掘出足夠有代表性的負(fù)樣本。我們?cè)?.4~0.8的范圍內(nèi)改變閾值T,并檢測(cè)分類(lèi)器的性能。為了使我們的結(jié)果更有說(shuō)服力,我們訓(xùn)練PKU-SVD-B數(shù)據(jù)庫(kù)的訓(xùn)練集,并對(duì)測(cè)試集進(jìn)行測(cè)試。如圖5所示,分別對(duì)召回率,精確率和F1測(cè)度進(jìn)行分析。

      從圖5可以看出,當(dāng)閾值T增大時(shí),精確率升高(忽略第一個(gè)精確率的值),到達(dá)0.7時(shí)達(dá)到一個(gè)較高的范圍,然后降低。隨著閾值T增加時(shí),召回率幾乎是恒定的。綜合考慮到召回率和精確率,我們發(fā)現(xiàn)隨著T的增加,F(xiàn)1測(cè)量值增加然后減小。當(dāng)T=0.7時(shí),F(xiàn)1測(cè)量最大,同時(shí)精度也在較高的范圍內(nèi)。因此,我們將T設(shè)置為0.7來(lái)為Faster R-CNN選擇難分負(fù)樣本。

      圖5 不同閾值T的性能分析

      5 結(jié)語(yǔ)

      我們提出一種新的方法為行人檢測(cè)生成樣本,該方法利用候選框的周?chē)畔⒑椭眯哦?。我們不僅對(duì)靜態(tài)數(shù)據(jù)集進(jìn)行了實(shí)驗(yàn),還在視頻條件下進(jìn)行了實(shí)驗(yàn),以進(jìn)一步驗(yàn)證我們方法的有效性。實(shí)驗(yàn)說(shuō)明我們的方法更適合于復(fù)雜的背景視頻條件。未來(lái)的工作可以通過(guò)網(wǎng)絡(luò)模型的自學(xué)習(xí)產(chǎn)生有代表性的負(fù)樣本。通過(guò)使用候選框之間的重疊來(lái)判斷正負(fù)樣本并不是最理想的方案。

      猜你喜歡
      候選框示例行人
      大還是小
      重定位非極大值抑制算法
      面向自然場(chǎng)景文本檢測(cè)的改進(jìn)NMS算法
      基于Soft-NMS的候選框去冗余加速器設(shè)計(jì)*
      毒舌出沒(méi),行人避讓
      意林(2021年5期)2021-04-18 12:21:17
      2019年高考上海卷作文示例
      常見(jiàn)單位符號(hào)大小寫(xiě)混淆示例
      山東冶金(2019年5期)2019-11-16 09:09:22
      路不為尋找者而設(shè)
      “全等三角形”錯(cuò)解示例
      一種針對(duì)特定目標(biāo)的提議算法
      哈尔滨市| 宜川县| 柳州市| 进贤县| 扶沟县| 磴口县| 宝山区| 建湖县| 松溪县| 伊春市| 普宁市| 迭部县| 白城市| 松桃| 芒康县| 尼木县| 汤阴县| 芒康县| 米泉市| 湟源县| 大埔县| 丹寨县| 二连浩特市| 内黄县| 凉城县| 昌吉市| 象州县| 哈巴河县| 图们市| 开化县| 丰镇市| 武功县| 孝义市| 镇坪县| 三门县| 平远县| 海淀区| 陇西县| 嫩江县| 渝北区| 阳原县|