• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于多目標(biāo)的能見(jiàn)度檢測(cè)方法

      2023-02-20 09:39:40唐榕李騫唐紹恩
      計(jì)算機(jī)工程 2023年2期
      關(guān)鍵詞:景深估計(jì)值能見(jiàn)度

      唐榕,李騫,唐紹恩

      (國(guó)防科技大學(xué) 氣象海洋學(xué)院,長(zhǎng)沙 410073)

      0 概述

      能見(jiàn)度是指人肉眼在沒(méi)有任何幫助的情況下,所能識(shí)別物體的最大能見(jiàn)距離[1],是反映大氣透明度的重要物理量[2]。能見(jiàn)度過(guò)低會(huì)給人類生產(chǎn)生活、交通運(yùn)輸安全等帶來(lái)危害[3-4],因此加強(qiáng)對(duì)能見(jiàn)度的檢測(cè),尤其是低能見(jiàn)度的觀測(cè)檢測(cè),具有十分重要的應(yīng)用價(jià)值,已成為地面自動(dòng)氣象觀測(cè)的重要內(nèi)容之一。目前雖然已有各種能見(jiàn)度儀被投入業(yè)務(wù)使用,但與人工觀測(cè)相比,其檢測(cè)仍存在較大偏差[5],且能見(jiàn)度儀價(jià)格較為昂貴,難以進(jìn)行密集布設(shè)。近年來(lái),隨著攝像機(jī)的廣泛使用,基于圖像的能見(jiàn)度檢測(cè)方法成為解決能見(jiàn)度自動(dòng)檢測(cè)問(wèn)題的一類重要方法[6]。然而現(xiàn)有基于圖像的能見(jiàn)度檢測(cè)方法未考慮場(chǎng)景中不同景深目標(biāo)物對(duì)應(yīng)子圖像的質(zhì)量受大氣懸浮粒子衰減不同的影響,導(dǎo)致整體能見(jiàn)度檢測(cè)精度下降。

      本文提出一種基于多目標(biāo)的能見(jiàn)度檢測(cè)方法,在圖像中選擇多個(gè)不同景深的目標(biāo)物,分別提取各目標(biāo)物對(duì)應(yīng)的子圖像視覺(jué)特征,并利用各目標(biāo)物視覺(jué)特征分別訓(xùn)練能見(jiàn)度映射模型。最后使用全局圖像動(dòng)態(tài)回歸各目標(biāo)物估計(jì)值的權(quán)重,通過(guò)加權(quán)融合得到場(chǎng)景能見(jiàn)度檢測(cè)值。

      1 相關(guān)工作

      傳統(tǒng)的能見(jiàn)度檢測(cè)方法主要分為目測(cè)法和器測(cè)法[6]。目測(cè)法是指讓觀測(cè)員目測(cè)不同距離目標(biāo)物的清晰程度來(lái)判斷能見(jiàn)度,其觀測(cè)結(jié)果易受到人的主觀因素影響,測(cè)量精度較低[7]。器測(cè)法是指利用透射儀[8]或散射儀[9]自動(dòng)估計(jì)能見(jiàn)度,這兩種儀器均以測(cè)量局部能見(jiàn)度代替整體能見(jiàn)度,當(dāng)空氣分布不均勻時(shí),其測(cè)量值易受到局部大氣懸浮粒子特性的影響,導(dǎo)致存在較大偏差[10]。此外,由于儀器設(shè)備通常較為昂貴,難以進(jìn)行密集布設(shè),因此實(shí)現(xiàn)能見(jiàn)度的全方位實(shí)時(shí)監(jiān)測(cè)[11-12]存在一定困難。

      隨著攝像機(jī)的普及以及各類圖像處理算法[13]的快速發(fā)展,基于圖像的能見(jiàn)度檢測(cè)方法不斷涌現(xiàn)。根據(jù)映射關(guān)系建立方式的不同,該方法又可以分為模型驅(qū)動(dòng)法和數(shù)據(jù)驅(qū)動(dòng)法[14]。模型驅(qū)動(dòng)法是指根據(jù)大氣對(duì)圖像成像的衰減建立光傳播物理模型,通過(guò)圖像特征估計(jì)物理模型參數(shù),以此反推能見(jiàn)度[15],如亮度對(duì)比法[16]、雙亮度差法[17]、暗通道法[18]等。但由于大氣中影響光傳播的懸浮粒子種類較多,且粒子空間分布不均勻[15],因此精確的物理模型通常難以準(zhǔn)確定義。數(shù)據(jù)驅(qū)動(dòng)法則是指利用海量經(jīng)標(biāo)注的歷史數(shù)據(jù)訓(xùn)練圖像視覺(jué)特征與能見(jiàn)度的映射模型,由收斂后的模型來(lái)預(yù)測(cè)場(chǎng)景能見(jiàn)度值。如文獻(xiàn)[19]將圖像梯度和對(duì)比度作為反映能見(jiàn)度變化的特征,利用支持向量回歸機(jī)和隨機(jī)森林兩種算法建立能見(jiàn)度值與視覺(jué)特征的關(guān)系模型;文獻(xiàn)[20]提取興趣域?qū)Ρ榷茸鳛樘卣飨蛄?,?gòu)建圖像特征與能見(jiàn)度的支持向量回歸機(jī);文獻(xiàn)[21]使用預(yù)訓(xùn)練的AlexNet 深度卷積神經(jīng)網(wǎng)絡(luò)提取圖像的學(xué)習(xí)特征,訓(xùn)練多類非線性支持向量機(jī)對(duì)能見(jiàn)度范圍進(jìn)行分類。數(shù)據(jù)驅(qū)動(dòng)法將能見(jiàn)度變化對(duì)圖像的影響完全表征在視覺(jué)特征里,通過(guò)建立特征與能見(jiàn)度的映射模型來(lái)估計(jì)能見(jiàn)度值。該類方法通過(guò)大量的數(shù)據(jù)不斷優(yōu)化模型,從而避免物理模型難以準(zhǔn)確定義的問(wèn)題,已成為能見(jiàn)度檢測(cè)領(lǐng)域的一個(gè)重要研究方向。

      然而,現(xiàn)有數(shù)據(jù)驅(qū)動(dòng)法未考慮場(chǎng)景中不同景深目標(biāo)物對(duì)應(yīng)的子圖像質(zhì)量衰減程度不同的問(wèn)題,從全局圖像提取特征,使得真正能反映能見(jiàn)度變化的局部關(guān)鍵特征被全局特征所平滑。針對(duì)該問(wèn)題,文獻(xiàn)[15]提出將樣本圖像均等分割成9 個(gè)子區(qū)域,利用預(yù)訓(xùn)練的VGG-16 網(wǎng)絡(luò)對(duì)子區(qū)域進(jìn)行編碼;文獻(xiàn)[22]將所有圖像進(jìn)行灰度平均,從場(chǎng)景中選擇靜態(tài)的有效子區(qū)域提取特征。這兩種選擇子區(qū)域的預(yù)處理方法在一定程度上增強(qiáng)了圖像局部對(duì)整體檢測(cè)效果的影響,但由于每個(gè)子區(qū)域是被均等或隨機(jī)劃分的,沒(méi)有考慮實(shí)際場(chǎng)景內(nèi)容、景深距離等,因此所提取的視覺(jué)特征仍不能準(zhǔn)確反映能見(jiàn)度變化對(duì)不同景深目標(biāo)子圖像質(zhì)量的實(shí)際衰減,導(dǎo)致圖像中最能體現(xiàn)能見(jiàn)度變化的局部關(guān)鍵信息被忽略。針對(duì)上述問(wèn)題,本文提出基于多目標(biāo)的能見(jiàn)度檢測(cè)方法,即選擇多個(gè)不同景深目標(biāo)物對(duì)應(yīng)子圖像提取視覺(jué)特征訓(xùn)練模型,有效融合各目標(biāo)物的能見(jiàn)度估計(jì)值,并將其作為整幅圖像的能見(jiàn)度檢測(cè)值。

      2 本文方法

      圖像中不同目標(biāo)物因景深不同,對(duì)應(yīng)子圖像質(zhì)量受到大氣懸浮粒子衰減的程度也不同,其視覺(jué)特征也隨之相應(yīng)變化,例如近距離目標(biāo)子圖像視覺(jué)特征在低能見(jiàn)度條件下變化更劇烈,而遠(yuǎn)距離目標(biāo)子圖像視覺(jué)特征對(duì)高能見(jiàn)度變化更敏感。同樣地,在人工觀測(cè)過(guò)程中,觀測(cè)員也常在觀測(cè)點(diǎn)四周不同距離、不同方位選擇若干固定目標(biāo)物[5],再結(jié)合整個(gè)場(chǎng)景由各目標(biāo)物可見(jiàn)與否以及其視覺(jué)清晰程度來(lái)綜合判定場(chǎng)景能見(jiàn)度值。受上述過(guò)程啟發(fā),本文提出一種基于多目標(biāo)的能見(jiàn)度檢測(cè)方法,方法流程如圖1所示,首先在圖像中選取多個(gè)不同景深且具有顯著細(xì)節(jié)特征的目標(biāo)物,然后針對(duì)各目標(biāo)物所在子圖像以及整幅圖像分別采用預(yù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)提取視覺(jué)特征,由多個(gè)單目標(biāo)物視覺(jué)特征回歸能見(jiàn)度估計(jì)值,同時(shí)在估計(jì)過(guò)程中結(jié)合整幅圖像視覺(jué)特征回歸各目標(biāo)物估計(jì)值的權(quán)重向量,最后根據(jù)權(quán)重進(jìn)行融合得到整幅圖像的能見(jiàn)度檢測(cè)值。

      圖1 本文方法的流程Fig.1 Procedure of the method in this paper

      2.1 單目標(biāo)能見(jiàn)度估計(jì)

      為獲得多個(gè)單目標(biāo)能見(jiàn)度估計(jì)值,本文提取各目標(biāo)物對(duì)應(yīng)子圖像視覺(jué)特征。考慮到基于圖像的能見(jiàn)度檢測(cè)方法由圖像質(zhì)量的衰減程度估計(jì)能見(jiàn)度值,與圖像質(zhì)量評(píng)估任務(wù)具有相似性。因此,本文遷移文獻(xiàn)[23]中在AVA 數(shù)據(jù)集上預(yù)訓(xùn)練的神經(jīng)圖像評(píng)估(Neural Image Assessment,NIMA)網(wǎng)絡(luò)提取能見(jiàn)度圖像的視覺(jué)特征,以此來(lái)反映能見(jiàn)度變化對(duì)圖像質(zhì)量的影響。NIMA網(wǎng)絡(luò)結(jié)構(gòu)如表1 所示,其中dw 代表深度卷積,后面常跟逐點(diǎn)卷積;s2 表示該卷積核的移動(dòng)步長(zhǎng)為2。由表1可知,NIMA 神經(jīng)網(wǎng)絡(luò)由去除最后一層的MobileNet 網(wǎng)絡(luò)[24]和一個(gè)具有10 個(gè)神經(jīng)元的全連接神經(jīng)網(wǎng)絡(luò)(Fully Connected Neural Network,F(xiàn)CNN)組成,該網(wǎng)絡(luò)模擬人類對(duì)圖像的綜合評(píng)價(jià),預(yù)測(cè)圖像質(zhì)量評(píng)級(jí)分布,與真實(shí)評(píng)級(jí)更相關(guān),且主體MobileNet網(wǎng)絡(luò)采用深度可分離卷積(深度卷積+逐點(diǎn)卷積)代替標(biāo)準(zhǔn)卷積。通過(guò)以上卷積,使模型參數(shù)量和計(jì)算量均大幅減少,從而實(shí)現(xiàn)高效提取視覺(jué)特征的目的。

      表1 NIMA 網(wǎng)絡(luò)結(jié)構(gòu) Table 1 Structure of the NIMA network

      為提取視覺(jué)特征,反映能見(jiàn)度圖像的質(zhì)量和內(nèi)容,而不涉及NIMA 網(wǎng)絡(luò)原本的分類任務(wù),本文選取NIMA 網(wǎng)絡(luò)全連接層前的輸入值作為各目標(biāo)物對(duì)應(yīng)子圖像的視覺(jué)特征(如表1 加粗?jǐn)?shù)字所示),然后將各視覺(jué)特征并行輸入到多個(gè)全連接網(wǎng)絡(luò)分支,如圖2所示,則對(duì)于第j個(gè)目標(biāo),其視覺(jué)特征fj所在分支包含兩個(gè)隱藏層,每個(gè)隱藏層有64 個(gè)節(jié)點(diǎn),輸出層節(jié)點(diǎn)數(shù)為1,輸出單個(gè)能見(jiàn)度估計(jì)值j。

      圖2 單目標(biāo)能見(jiàn)度估計(jì)網(wǎng)絡(luò)的結(jié)構(gòu)Fig.2 Structure of single-object visibility estimation network

      2.2 多目標(biāo)能見(jiàn)度融合

      對(duì)場(chǎng)景能見(jiàn)度的檢測(cè)通常需要綜合場(chǎng)景中的多個(gè)目標(biāo)物,是一個(gè)多目標(biāo)能見(jiàn)度值融合的過(guò)程。為融合多個(gè)單目標(biāo)的能見(jiàn)度估計(jì)值,本文設(shè)計(jì)了一個(gè)目標(biāo)權(quán)重估計(jì)網(wǎng)絡(luò)??紤]到人工觀測(cè)過(guò)程中結(jié)合整幅圖像信息綜合判定場(chǎng)景能見(jiàn)度值的作用,本文同樣提取整幅圖像的NIMA 視覺(jué)特征,根據(jù)該視覺(jué)特征回歸各目標(biāo)物估計(jì)值權(quán)重。如圖3 所示,將視覺(jué)特征輸入到全連接網(wǎng)絡(luò),網(wǎng)絡(luò)包含2 個(gè)隱藏層,每個(gè)隱藏層有64 個(gè)節(jié)點(diǎn),輸出層節(jié)點(diǎn)數(shù)為所選目標(biāo)物個(gè)數(shù),即輸出融合權(quán)重向量W={1,2,…,n}。

      圖3 多目標(biāo)能見(jiàn)度融合網(wǎng)絡(luò)的結(jié)構(gòu)Fig.3 Structure of multi-object visibility fusion network

      在訓(xùn)練階段,為了使網(wǎng)絡(luò)能夠根據(jù)當(dāng)前能見(jiàn)度真值動(dòng)態(tài)估計(jì)各目標(biāo)在融合過(guò)程中所占權(quán)重,本文設(shè)定聯(lián)合損失函數(shù)并行訓(xùn)練單目標(biāo)能見(jiàn)度估計(jì)網(wǎng)絡(luò)和權(quán)重融合網(wǎng)絡(luò),將各目標(biāo)能見(jiàn)度估計(jì)值與對(duì)應(yīng)權(quán)重加權(quán)進(jìn)行求和,作為整個(gè)網(wǎng)絡(luò)的聯(lián)合輸出,其損失函數(shù)設(shè)定為式(1)所示:

      其中:m為訓(xùn)練集樣本數(shù)量為第i個(gè)樣本圖像的能見(jiàn)度估計(jì)值;yi表示第i個(gè)樣本圖像的能見(jiàn)度真值;n為樣本圖像中所選擇目標(biāo)物數(shù)量;()i是第i個(gè)樣本圖像中第j個(gè)目標(biāo)的能見(jiàn)度估計(jì)值;(j)i為第i個(gè)樣本圖像中第j個(gè)目標(biāo)估計(jì)值的融合權(quán)重。

      3 實(shí)驗(yàn)結(jié)果與分析

      3.1 實(shí)驗(yàn)數(shù)據(jù)集與設(shè)置

      為驗(yàn)證本文方法的有效性,本文采用固定的主動(dòng)攝像機(jī)按照預(yù)定義的云臺(tái)旋轉(zhuǎn)策略獲取圖像數(shù)據(jù)集,選取3 個(gè)具有代表性的場(chǎng)景,每個(gè)場(chǎng)景包含多個(gè)不同距離的顯著對(duì)象,示例如圖4 所示。由于低能見(jiàn)度天氣主要發(fā)生在秋冬季,圖像采集時(shí)間為2019年2 月6 日—2019年3月13日、2020年12月1日—2021年3月13日,從上午6 點(diǎn)到下午18點(diǎn),每小時(shí)采集一次,時(shí)長(zhǎng)大約5 min,包含所有場(chǎng)景的視頻數(shù)據(jù)。在每個(gè)場(chǎng)景下隨機(jī)抽取圖像,并將圖像分辨率縮放至1 000×1 000 像素。剔除掉受飛蟲、雨滴遮擋等干擾的圖像后,選取22 952幀圖像作為樣本數(shù)據(jù)集,其中場(chǎng)景1 有7 376 幀圖像,場(chǎng)景2 有7 609 幀圖像,場(chǎng)景3 有7 967 幀圖像。在能見(jiàn)度真值方面,根據(jù)人工觀測(cè)結(jié)果對(duì)當(dāng)?shù)赝干鋬x的測(cè)量值進(jìn)行修正,最后將修正值作為能見(jiàn)度真值。

      圖4 不同場(chǎng)景在不同能見(jiàn)度條件下的圖像示例Fig.4 Image examples of different scenes under different visibility conditions

      為訓(xùn)練能見(jiàn)度映射模型,從3 個(gè)場(chǎng)景中分別隨機(jī)選擇70%樣本圖像作為訓(xùn)練集,10%樣本圖像作為驗(yàn)證集,20%樣本圖像作為測(cè)試集,并將能見(jiàn)度真值劃分為4 個(gè)區(qū)間,各能見(jiàn)度區(qū)間訓(xùn)練集、驗(yàn)證集和測(cè)試集樣本數(shù)量分布如表2 所示。

      表2 不同能見(jiàn)度區(qū)間的樣本數(shù)量分布 Table 2 Distribution of sample number at different visibility ranges

      在方法實(shí)現(xiàn)方面,本文在CPU 為Intel i7-3700X 3.6 Hz、內(nèi)存為8 GB 的PC 機(jī)上基于python 開展實(shí)驗(yàn)。針對(duì)所選擇的3 個(gè)場(chǎng)景,在每個(gè)場(chǎng)景下劃分如圖5 所示的3 個(gè)不同景深的目標(biāo)物,加上整幅圖像,則共需要訓(xùn)練4 個(gè)全連接網(wǎng)絡(luò)分支的279 430 個(gè)權(quán)重參數(shù)。在訓(xùn)練過(guò)程中,各全連接層參數(shù)采用標(biāo)準(zhǔn)差為0.01 的截?cái)嗾龖B(tài)分布生成的隨機(jī)數(shù)來(lái)初始化。為了防止過(guò)擬合,對(duì)參數(shù)應(yīng)用scale 為0.003 的L2 正則化約束,將batch_size 設(shè)置為32,學(xué)習(xí)率設(shè)置為0.001,epoch 設(shè)置為120,損失函數(shù)定義為平均絕對(duì)誤差,并采用Adam 算法進(jìn)行優(yōu)化。

      圖5 不同場(chǎng)景下不同景深目標(biāo)物劃分示例Fig.5 Examples of target division with different depth of field in different scenes

      3.2 視覺(jué)特征有效性驗(yàn)證

      首先,為驗(yàn)證所選取的NIMA 視覺(jué)特征對(duì)能見(jiàn)度變化的敏感性,本文對(duì)場(chǎng)景1 的采樣樣本做了視覺(jué)特征有效性驗(yàn)證,在0.01 km、2 km、8 km 和15 km 能見(jiàn)度條件下分別隨機(jī)抽取120 幀樣本圖像,并選擇感興趣區(qū)域作為特征提取對(duì)象,如圖6 所示。

      圖6 場(chǎng)景1 樣本圖像的感興趣區(qū)域示例 Fig.6 Example of region of interest of sample image in scene 1

      由于15 km 能見(jiàn)度條件下的圖像質(zhì)量衰減程度最弱,因此將其感興趣區(qū)域作為基準(zhǔn)圖像集合,分別計(jì)算其他3 個(gè)能見(jiàn)度條件下樣本圖像與基準(zhǔn)圖像特征的歐氏距離,結(jié)果如圖7(a)所示??梢钥吹?,能見(jiàn)度越高,圖像質(zhì)量衰減程度越弱,其與基準(zhǔn)圖像的特征相似度越高,歐氏距離越小。從圖7(a)可知,8 km、2 km、0.01 km 能見(jiàn)度條件下的樣本圖像與基準(zhǔn)圖像的特征距離呈現(xiàn)逐漸增大的趨勢(shì),且垂直分層較為明顯,這表明NIMA 特征能較好地通過(guò)其值變化反映圖像質(zhì)量的不同退化程度。為了驗(yàn)證特征的泛化能力,本文還計(jì)算了任意兩兩能見(jiàn)度條件下樣本圖像特征距離的平均值,結(jié)果如圖7(b)所示。從圖7(b)中可以看出,隨著相比較的兩個(gè)能見(jiàn)度值相差越大,其對(duì)應(yīng)樣本特征距離平均值也越大,這表明NIMA 特征對(duì)能見(jiàn)度變化敏感。

      圖7 特征有效性驗(yàn)證的實(shí)驗(yàn)結(jié)果Fig.7 Experimental results of verification of feature

      3.3 能見(jiàn)度檢測(cè)方法驗(yàn)證

      本節(jié)從樣例分析和量化分析兩個(gè)方面驗(yàn)證本文方法的有效性。首先針對(duì)多個(gè)場(chǎng)景單個(gè)樣例圖給出能見(jiàn)度檢測(cè)結(jié)果,然后統(tǒng)計(jì)測(cè)試樣本集的預(yù)測(cè)平均絕對(duì)誤差、正確率等,最后考察方法目標(biāo)物選擇和融合策略的有效性。

      3.3.1 本文方法能見(jiàn)度檢測(cè)分析

      針對(duì)圖4 給出的3 個(gè)場(chǎng)景樣例圖,通過(guò)本文方法回歸得到每幀樣例圖中各目標(biāo)物能見(jiàn)度估計(jì)值及其權(quán)重值,有效融合得到場(chǎng)景能見(jiàn)度檢測(cè)值,結(jié)果如表3所示。

      表3 樣例圖能見(jiàn)度檢測(cè)結(jié)果 Table 3 Visibility detection results of sample image

      從表3 可以看出,在3 個(gè)場(chǎng)景的9 幀圖像樣本中,本文方法融合得到的能見(jiàn)度檢測(cè)值與標(biāo)注值基本一致。為進(jìn)一步量化分析本文方法的預(yù)測(cè)性能,在場(chǎng)景1 下統(tǒng)計(jì)本文方法在不同能見(jiàn)度區(qū)間預(yù)測(cè)值與標(biāo)注值的均值和標(biāo)準(zhǔn)差,并計(jì)算預(yù)測(cè)正確率。其中當(dāng)能見(jiàn)度在[0,1 km)區(qū)間時(shí),若預(yù)測(cè)值在標(biāo)注值的20%誤差范圍內(nèi),則視為正確預(yù)測(cè)的值;當(dāng)能見(jiàn)度在[1 km,3 km)區(qū)間時(shí),所允許的誤差范圍是15%;當(dāng)能見(jiàn)度在[3 km,+∞)區(qū)間時(shí),所允許的誤差范圍是10%。統(tǒng)計(jì)結(jié)果如表4 所示。從表4 可以看出,在任意能見(jiàn)度區(qū)間內(nèi),本文方法預(yù)測(cè)值與標(biāo)注值的平均絕對(duì)誤差均控制在標(biāo)注均值的10%以內(nèi),表明預(yù)測(cè)值的集中趨勢(shì)和離散程度與標(biāo)注值基本一致。在正確率方面,除了[3 km,10 km)區(qū)間,其他區(qū)間的正確率均超過(guò)了90%,表明本文方法在各能見(jiàn)度區(qū)間預(yù)測(cè)的可信度均較高,而在[3 km,10 km)區(qū)間預(yù)測(cè)正確率偏低的主要原因是在高能見(jiàn)度條件下,影響圖像質(zhì)量的外部干擾因素較多。

      表4 場(chǎng)景1 下的能見(jiàn)度預(yù)測(cè)值 Table 4 Visibility prediction value under scene 1

      3.3.2 目標(biāo)物選擇對(duì)比實(shí)驗(yàn)

      為進(jìn)一步分析不同景深目標(biāo)物選擇對(duì)本文方法的影響,本文選取了另外兩組目標(biāo)物,如圖8 所示,圖8(a)的目標(biāo)物相對(duì)攝像機(jī)距離較近,在0.5 km 之內(nèi);圖8(b)的目標(biāo)物相對(duì)攝像機(jī)距離較遠(yuǎn),在3 km之外。對(duì)比本文方法(不同景深),統(tǒng)計(jì)各目標(biāo)物在各能見(jiàn)度區(qū)間的預(yù)測(cè)平均絕對(duì)誤差,結(jié)果如表5所示。

      圖8 兩組目標(biāo)物劃分示例Fig.8 Division examples of two groups of targets

      表5 3 組目標(biāo)物在不同能見(jiàn)度區(qū)間的預(yù)測(cè)平均絕對(duì)誤差 Table 5 Mean absolute errors of prediction of the three groups of targets at different visibility ranges

      由表5 可知,選擇3 個(gè)不同景深的目標(biāo)物在任意能見(jiàn)度區(qū)間預(yù)測(cè)的平均絕對(duì)誤差均最??;在[0,1 km)和[1 km,3 km)能見(jiàn)度區(qū)間內(nèi),選擇近景深目標(biāo)比選擇遠(yuǎn)景深目標(biāo)預(yù)測(cè)平均絕對(duì)誤差要??;在[3 km,10 km)和[10 km,+∞)區(qū)間內(nèi),選擇遠(yuǎn)景深目標(biāo)預(yù)測(cè)平均絕對(duì)誤差較小,這表明目標(biāo)物的選擇與在各能見(jiàn)度區(qū)間的預(yù)測(cè)誤差是相關(guān)的,且選擇具有代表性景深的目標(biāo)物提取視覺(jué)特征有利于提高模型在各能見(jiàn)度區(qū)間的預(yù)測(cè)精度。

      3.3.3 權(quán)重融合實(shí)驗(yàn)

      為驗(yàn)證本文方法從整幅圖像的視覺(jué)特征中動(dòng)態(tài)回歸各目標(biāo)物估計(jì)值權(quán)重的有效性,本文做了3 組對(duì)照實(shí)驗(yàn),具體如下:

      1)多目標(biāo)局部加權(quán)法。與本文方法不同,該方法通過(guò)聯(lián)合多個(gè)目標(biāo)物視覺(jué)特征,動(dòng)態(tài)回歸各目標(biāo)物估計(jì)值權(quán)重。

      2)多目標(biāo)平均法。該方法將多目標(biāo)估計(jì)值進(jìn)行簡(jiǎn)單求和取平均值,并作為最終能見(jiàn)度檢測(cè)值。

      3)全局圖像法。該方法為傳統(tǒng)的基于數(shù)據(jù)驅(qū)動(dòng)的能見(jiàn)度檢測(cè)方法[25],通過(guò)直接建立整幅圖像視覺(jué)特征與能見(jiàn)度的關(guān)系映射模型來(lái)預(yù)測(cè)場(chǎng)景能見(jiàn)度值。

      以上3 種對(duì)比方法的流程如圖9 所示。統(tǒng)計(jì)包含本文方法在內(nèi)的4 種方法在各能見(jiàn)度區(qū)間的預(yù)測(cè)正確率,其結(jié)果如表6 所示。

      圖9 3 種對(duì)比方法的流程Fig.9 Procedures of three comparison methods

      表6 4 種方法的檢測(cè)正確率 Table 6 Detection accuracies of four methods %

      由表6 可知,多目標(biāo)平均法和全局圖像法在[1 km,3 km)、[3 km,10 km)以及[10 km,+∞)能見(jiàn)度區(qū)間的預(yù)測(cè)正確率均小于80%,在[3 km,10 km)區(qū)間,預(yù)測(cè)正確率甚至不足50%,而本文方法除在[3 km,10 km)區(qū)間外,預(yù)測(cè)正確率均大于90%,能較好地適用于低能見(jiàn)度檢測(cè)。

      4 結(jié)束語(yǔ)

      針對(duì)傳統(tǒng)基于數(shù)據(jù)驅(qū)動(dòng)的能見(jiàn)度檢測(cè)方法未考慮場(chǎng)景中不同景深目標(biāo)物對(duì)應(yīng)子圖像的質(zhì)量衰減程度不同的問(wèn)題,提出一種基于多目標(biāo)的能見(jiàn)度檢測(cè)方法。通過(guò)在圖像中選擇多個(gè)不同景深的目標(biāo)物,分別提取各目標(biāo)物對(duì)應(yīng)子圖像的視覺(jué)特征,并用其訓(xùn)練能見(jiàn)度估計(jì)模型。提取整幅圖像視覺(jué)特征訓(xùn)練融合權(quán)重,按照權(quán)重融合各目標(biāo)能見(jiàn)度估計(jì)值,得到全局能見(jiàn)度檢測(cè)值。實(shí)驗(yàn)結(jié)果表明,與多目標(biāo)局部加權(quán)法、多目標(biāo)平均法、全局圖像法相比,該方法能有效提高能見(jiàn)度檢測(cè)精度。下一步將模擬人眼瞳孔變化,利用調(diào)整焦距的方式獲取各目標(biāo)物高分辨率圖像,以更好地通過(guò)量化視覺(jué)特征因圖像變化而產(chǎn)生的差異估計(jì)能見(jiàn)度值。

      猜你喜歡
      景深估計(jì)值能見(jiàn)度
      一種結(jié)合物理模型和景深估算的圖像去霧算法
      一道樣本的數(shù)字特征與頻率分布直方圖的交匯問(wèn)題
      2005—2017年白云機(jī)場(chǎng)能見(jiàn)度變化特征及其與影響因子關(guān)系研究
      統(tǒng)計(jì)信息
      2018年4月世界粗鋼產(chǎn)量表(續(xù))萬(wàn)噸
      低能見(jiàn)度下高速公路主動(dòng)誘導(dǎo)技術(shù)的應(yīng)用
      前向散射能見(jiàn)度儀的常見(jiàn)異?,F(xiàn)象處理及日常維護(hù)
      前向散射能見(jiàn)度儀故障實(shí)例分析
      2014年5月世界粗鋼產(chǎn)量表萬(wàn)噸
      簡(jiǎn)明FOTO詞典:景深
      商河县| 邛崃市| 河源市| 兴山县| 凌源市| 老河口市| 全南县| 惠来县| 西丰县| 富民县| 信阳市| 乌兰浩特市| 连云港市| 营口市| 丰宁| 黄冈市| 盐亭县| 潞城市| 武宣县| 塔河县| 柘荣县| 页游| 吉水县| 嘉荫县| 铜陵市| 郧西县| 化隆| 黎川县| 景谷| 文成县| 望都县| 高陵县| 青海省| 宁阳县| 弥勒县| 栖霞市| 成武县| 象山县| 揭东县| 叙永县| 尼木县|