摘 要:紅外成像技術(shù)的加速發(fā)展對(duì)紅外成像系統(tǒng)測(cè)試和評(píng)估的客觀性和準(zhǔn)確性提出了更加嚴(yán)格的要求。針對(duì)當(dāng)前紅外成像系統(tǒng)最小可辨溫差(minimum resolvable temperature difference, MRTD)存在的測(cè)試主觀性、操作復(fù)雜性等問題,提出基于支持向量機(jī)(support vector machine, SVM)和卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)的兩種MRTD客觀測(cè)試方法。通過引入數(shù)據(jù)增強(qiáng)技術(shù),避免由訓(xùn)練樣本少及網(wǎng)絡(luò)層次復(fù)雜導(dǎo)致的過擬合。實(shí)驗(yàn)結(jié)果表明,與實(shí)際人員對(duì)數(shù)據(jù)的判斷相比較,MRTD測(cè)試使用SVM方法的識(shí)別準(zhǔn)確率為94.50%,訓(xùn)練時(shí)間為8.22 s;CNN方法3次訓(xùn)練平均準(zhǔn)確率為99.07%,迭代100次訓(xùn)練時(shí)間為487.48 s。SVM方法的實(shí)時(shí)性更好,CNN方法具有準(zhǔn)確率高的特點(diǎn),實(shí)驗(yàn)結(jié)果驗(yàn)證了這兩種MRTD的客觀測(cè)試方法為紅外熱成像系統(tǒng)性能指標(biāo)研究提供了一種可靠的量化和評(píng)估工具。
關(guān)鍵詞: 最小可辨溫差; 機(jī)器學(xué)習(xí); 深度學(xué)習(xí); 支持向量機(jī); 卷積神經(jīng)網(wǎng)絡(luò)
中圖分類號(hào): TP 391.4 文獻(xiàn)標(biāo)志碼: A""" DOI:10.12305/j.issn.1001-506X.2024.10.03
Research on MRTD objective testing method based on machine learning
JI Ran1, XIAO Maosen LI Shuo1, LIU Yu1,3, LUO Zhanyi1,3, CHENG Jiawei1,3
(1. Xi’an Institute of Optics and Precision Mechanics, Chinese Academy of Sciences, Xi’an 710119, China;
2. School of Optoelectronics, University of Chinese Academy of Sciences, Beijing 100049, China;
3. School of Physics and Information Technology, Shaanxi Normal University, Xi’an 710119, China)
Abstract: The accelerated development of infrared imaging technology has put forward more stringent requirements for the objectivity and accuracy of the testing and evaluation of infrared imaging systems. Aiming at the current problems of test subjectivity and operational complexity of the minimum resolvable temperature difference (MRTD) of infrared imaging systems, two MRTD objective test methods based on support vector machine (SVM) and convolutional neural network (CNN) are proposed. By introducing the data enhancement technique, the overfitting caused by the small training samples and the complex network hierarchy is avoided. The experimental results show that compared with the actual personnel’s judgment of the data, the MRTD test using the SVM method has a recognition accuracy of 94.50% and a training time of 8.22 s, while the CNN method has an average accuracy of 99.07% in three training sessions, and a training time of 487.48 s for 100 iterations. The SVM method has better real-time performance and the CNN method is characterized by high accuracy. The experimental result verifies that these two objective test methods of MRTD provide a tool for quantification and evaluation of infrared thermal imaging system performance indicators research.
Keywords: minimum resolvable temperature difference (MRTD); machine learning; deep learning; support vector machine (SVM); convolutional neural network (CNN)
0 引 言
紅外成像技術(shù)在眾多領(lǐng)域中得到了廣泛應(yīng)用,其迅速發(fā)展為紅外成像系統(tǒng)的測(cè)試方法和評(píng)估技巧提出了更加嚴(yán)格的要求。紅外最小可辨溫差(minimum resolvable temperature difference, MRTD)是衡量紅外成像系統(tǒng)性能的重要指標(biāo)之一,其描述了在一定空間頻率下,紅外成像系統(tǒng)所能分辨出的最小溫差。近年來,對(duì)MRTD的研究日漸受到學(xué)者們的重視,其準(zhǔn)確的測(cè)量對(duì)于紅外成像系統(tǒng)性能評(píng)價(jià)具有廣泛的應(yīng)用價(jià)值,可應(yīng)用于醫(yī)療、公共安全等領(lǐng)域。
在傳統(tǒng)的MRTD測(cè)試中,通常會(huì)有多名觀察員進(jìn)行獨(dú)立的測(cè)量。由不同的人觀察多個(gè)紅外靶標(biāo),調(diào)整黑體溫度到觀察人員能夠分辨出四桿靶的圖案,記錄溫度值。通過使用不同空間頻率的目標(biāo)靶,可以得到MRTD在不同空間頻率下的曲線[1]。
傳統(tǒng)的MRTD測(cè)量技術(shù)具有局限性和缺陷,例如具有測(cè)試主觀性、操作復(fù)雜性、易受環(huán)境影響等[2]。為了解決這些問題,國(guó)內(nèi)外學(xué)者進(jìn)行了大量研究,旨在提出有效的自動(dòng)化測(cè)量方法。
Burroughs等[3]通過設(shè)計(jì)人類視覺系統(tǒng)的邊界輪廓系統(tǒng)模型與自定義特征提取器,訓(xùn)練模糊自適應(yīng)共振理論決策算法,以模擬人的觀察行為,從而實(shí)現(xiàn)MRTD測(cè)試的自動(dòng)化。
孫軍月[4]在2006年通過建立合適的數(shù)據(jù)訓(xùn)練集,使用反向傳播(back propagation, BP)神經(jīng)網(wǎng)絡(luò)的自學(xué)習(xí)和模式識(shí)別能力實(shí)現(xiàn)MRTD的自動(dòng)測(cè)量,為研究更高效、準(zhǔn)確的 MRTD 測(cè)試技術(shù)提供思路,并且提出使用人工神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)MRTD測(cè)試[5]。王連振等[6]調(diào)整三角形目標(biāo)的尺寸和對(duì)比度,觀察者通過四選一的測(cè)量方法識(shí)別目標(biāo)的方向,從而產(chǎn)生一個(gè)與MRTD相似的二維曲線,顯示三角形尺寸與閾值對(duì)比度的關(guān)系,進(jìn)而預(yù)測(cè)目標(biāo)在實(shí)際環(huán)境中的獲取能力。
當(dāng)下研究的主要問題包括以下3個(gè)方面:① 如何利用更好的特征提取方法解決MRTD測(cè)試中存在的主觀性問題;② 如何改進(jìn)現(xiàn)有的學(xué)習(xí)模型,使其更加適應(yīng)MRTD測(cè)試的任務(wù);③ 如何將機(jī)器學(xué)習(xí)方法與其他特征提取技術(shù)相結(jié)合,以提高M(jìn)RTD測(cè)試的準(zhǔn)確度和魯棒性。
本文采用四桿靶作為目標(biāo),使用制冷型中波紅外成像設(shè)備進(jìn)行圖像采集。將MRTD測(cè)試轉(zhuǎn)化為圖像分類問題。近年來,圖像分類的主要方法由傳統(tǒng)機(jī)器學(xué)習(xí)向深度學(xué)習(xí)發(fā)展,國(guó)內(nèi)外已有諸多方法提出[711]。本文使用支持向量機(jī)(support vector machine, SVM)[1215]和卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)[1617]實(shí)現(xiàn)MRTD測(cè)試。采用數(shù)據(jù)增強(qiáng)技術(shù)[1819],規(guī)避由訓(xùn)練樣本少且網(wǎng)絡(luò)復(fù)雜度高所造成的過擬合問題,并且致力于提高模型的泛化能力。
1 實(shí)驗(yàn)數(shù)據(jù)采集與處理
1.1 圖像采集
本文圖像采集所使用的實(shí)驗(yàn)設(shè)備各項(xiàng)參數(shù)如表1所示。
通過該制冷型紅外成像系統(tǒng)對(duì)四桿靶圖樣進(jìn)行采集,四桿靶圖樣如圖1所示。
MRTD的空間頻率,應(yīng)能反映熱像儀的目標(biāo)識(shí)別距離。除另有規(guī)定外,按以下方法選擇MRTD的空間頻率,文中用f對(duì)MRTD的空間頻率進(jìn)行表示。在己知熱像儀采用的探測(cè)器光敏元尺寸和光學(xué)等效焦距時(shí),f應(yīng)選擇0.2f0、0.5f0、1.0f0和1.2f0或以上,其中f0為特征頻率1/(2DAS),DAS為探測(cè)器張角。成像系統(tǒng)的場(chǎng)角和焦距也是影響MRTD的因素。不同的場(chǎng)角和焦距可能導(dǎo)致對(duì)于大小不同的目標(biāo)的分辨能力不同。場(chǎng)角與探測(cè)器張角以及焦距的直接關(guān)系如下所示:
FOV=2arctand2F(1)
FOV=N·DAS(2)
式中:FOV是場(chǎng)角;N為成像系統(tǒng)中水平或垂直方向上的像素?cái)?shù)量;d為像元尺寸,F(xiàn)為焦距。本文中選取f=1.0f0=46 cyc/rad。
在傳統(tǒng)MRTD測(cè)試實(shí)驗(yàn)中,由黑體產(chǎn)生熱輻射,導(dǎo)致條帶與“空隙”間產(chǎn)生溫度差。從零開始調(diào)整溫差,觀察者通過光學(xué)系統(tǒng)進(jìn)行觀察。當(dāng)不少于3位觀察者能夠正好看到每根桿的75%面積,以及相鄰兩根桿之間的75%面積時(shí),停止調(diào)整[20]。此時(shí)的目標(biāo)背景溫差便是該空間頻率下的MRTD。為減小誤差,通常采用正負(fù)溫差取平均的方法,MRTD計(jì)算表達(dá)式如下所示:
MRTD=φ·|ΔT2-ΔT1|2(3)
式中:φ為儀器常數(shù);ΔT1為正溫差時(shí)的MRTD;ΔT2為負(fù)溫差時(shí)的MRTD。
本次實(shí)驗(yàn)采集溫度為±0.25 K、±0.3 K、±0.5 K、±1 K、±3 K的圖像數(shù)據(jù)作為SVM與CNN的訓(xùn)練數(shù)據(jù)集,采集+0.2 K、+5 K、-0.28 K、-2 K的圖像數(shù)據(jù)作為測(cè)試數(shù)據(jù)集。
1.2 數(shù)據(jù)預(yù)處理
由于拍攝視場(chǎng)較大,需要對(duì)目標(biāo)區(qū)域進(jìn)行裁剪和處理。將1 280×1 024的14位原始RAW格式圖像轉(zhuǎn)化為300×300的8位無損數(shù)據(jù)壓縮的可移植網(wǎng)絡(luò)格式圖像。原始圖像及預(yù)處理后的圖像如圖2所示。
1.3 數(shù)據(jù)增強(qiáng)處理
為充分利用有限的訓(xùn)練樣本,需要采用數(shù)據(jù)增強(qiáng)方法對(duì)訓(xùn)練集進(jìn)行擴(kuò)充處理,從而提升模型的泛化能力。本文使用Keras自帶的圖像生成函數(shù)ImageDataGenerator()對(duì)已有圖像進(jìn)行處理。
本文中數(shù)據(jù)增強(qiáng)操作參數(shù)如表2所示。
2 圖像分類模型搭建
2.1 總體方案設(shè)計(jì)
通過4名觀察員的判斷將訓(xùn)練集和測(cè)試集數(shù)據(jù)劃分為0+、0-、1+、1-共4類,分別代表不可分辨正負(fù)溫差和可分辨正負(fù)溫差。根據(jù)實(shí)時(shí)性和準(zhǔn)確率的不同需求,可分別選擇采用SVM方法或CNN方法進(jìn)行圖像分類。SVM模型由于結(jié)構(gòu)簡(jiǎn)單且計(jì)算量較小,從訓(xùn)練到測(cè)試總用時(shí)可限制在10 s以內(nèi)。而CNN模型所需訓(xùn)練時(shí)間較長(zhǎng),通常需要使用并行計(jì)算進(jìn)行加速,所以對(duì)系統(tǒng)復(fù)雜度和實(shí)時(shí)性會(huì)造成一定影響,但準(zhǔn)確率有較大提升。在實(shí)際使用環(huán)境中,需根據(jù)實(shí)時(shí)性和準(zhǔn)確率對(duì)SVM方案和CNN方案進(jìn)行取舍??傮w方案流程圖如圖3所示。
2.2 SVM分類模型搭建
在使用SVM進(jìn)行圖像分類前需要提取圖像特征,本文選擇方向梯度直方圖(histogram of oriented gradients, HOG)特征[21]作為SVM分類器的訓(xùn)練輸入。預(yù)處理后的圖像三維分布圖如圖4所示。
由圖4可知,四桿靶圖像的特征較為簡(jiǎn)單,其梯度特征容易提取,故將HOG特征作用于SVM模型可有效提高分類準(zhǔn)確率。
對(duì)于每個(gè)圖像,使用HOG算法對(duì)其進(jìn)行特征提取。HOG算法通過計(jì)算圖像中每個(gè)小塊的梯度方向來捕捉圖像的紋理和結(jié)構(gòu)信息。這些梯度方向被轉(zhuǎn)換為直方圖,形成了每個(gè)圖像的特征向量。在提取特征時(shí)對(duì)圖像進(jìn)行平方根變換,該變換可以改善圖像的對(duì)比度和亮度變化的魯棒性。
使用開源數(shù)據(jù)庫的Sklearn庫進(jìn)行SVM分類模型搭建,使用線性核函數(shù),正則化參數(shù)為1,使用“一對(duì)一”策略[22],將多分類問題轉(zhuǎn)化為二分類問題。通過對(duì)每對(duì)類別訓(xùn)練一個(gè)二分類器,最后通過投票或加權(quán)投票來進(jìn)行多類別分類。
使用該策略時(shí),每個(gè)二類分類器只需處理兩個(gè)類別的樣本,對(duì)于每個(gè)分類器的訓(xùn)練和預(yù)測(cè)速度較快,并且具有高度可擴(kuò)展性和解耦性。
SVM分類器的訓(xùn)練過程是通過最大化間隔來確定決策邊界,并找到最佳的支持向量。此優(yōu)化問題屬于凸優(yōu)化問題,有唯一解。根據(jù)凸優(yōu)化的特性,可保證每次運(yùn)行時(shí)找到的最佳解相同。
2.3 CNN模型搭建
與SVM不同,CNN中的參數(shù)在訓(xùn)練過程中是通過隨機(jī)優(yōu)化算法進(jìn)行迭代優(yōu)化的。因此,在每次運(yùn)行訓(xùn)練時(shí),初始參數(shù)設(shè)置和網(wǎng)絡(luò)的隨機(jī)初始化可能會(huì)導(dǎo)致訓(xùn)練結(jié)果產(chǎn)生差異。為保證實(shí)驗(yàn)的可靠性和可信度,提高結(jié)果的可重復(fù)性,本次實(shí)驗(yàn)通過設(shè)置隨機(jī)種子為48降低算法的隨機(jī)性,使算法在不同情況下可復(fù)現(xiàn)。
使用適應(yīng)性矩估計(jì)(adaptive moment estimation, Adam)算法[23]進(jìn)行模型訓(xùn)練,該算法可實(shí)現(xiàn)自適應(yīng)的學(xué)習(xí)率調(diào)整,相比于傳統(tǒng)的梯度下降算法,可以為每個(gè)參數(shù)計(jì)算每次迭代或每個(gè)小批量的學(xué)習(xí)率,提供較好的收斂性。但對(duì)于小批量樣本和噪聲較大的情況,Adam算法可能會(huì)受到一階矩和二階矩的偏差影響,從而導(dǎo)致收斂結(jié)果不穩(wěn)定。
本實(shí)驗(yàn)通過開源數(shù)據(jù)庫中的Keras庫進(jìn)行CNN分類模型搭建。模型包括3個(gè)卷積層、3個(gè)池化層和2個(gè)全連接層。在全連接層之間加入隨機(jī)失活[2425]層,以防止過擬合。
本文的CNN模型加入了注意力機(jī)制模塊,采用壓縮和激勵(lì)網(wǎng)絡(luò)(squeeze-and-excitation network, SENet)[2627],通過調(diào)整通道權(quán)重以增強(qiáng)模型表達(dá)能力。注意力機(jī)制模塊主要由以下操作實(shí)現(xiàn)。
Squeeze操作:通過全局平均池化(global average pooling, GAP)[28],注意力機(jī)制模塊將輸入的特征圖在空間維度上進(jìn)行壓縮,得到一個(gè)全局描述,這一步的目的是將每個(gè)通道的空間信息壓縮成一個(gè)標(biāo)量。
Excitation操作:在Squeeze后,通過兩個(gè)全連接層,即一個(gè)線性整流激活(rectified linear unit, ReLU)函數(shù)和一個(gè)Sigmoid型激活函數(shù),注意力機(jī)制模塊學(xué)習(xí)每個(gè)通道的權(quán)重。第一個(gè)全連接層引入非線性,第二個(gè)全連接層產(chǎn)生通道注意力的權(quán)重。通過這種方式,Excitation操作在全局范圍內(nèi)調(diào)整通道的重要性,使網(wǎng)絡(luò)更關(guān)注重要的特征[29]。
Scale操作:將通過Excitation得到的通道注意力權(quán)重和原始輸入特征圖,通過對(duì)每個(gè)通道的重要性進(jìn)行縮放,強(qiáng)調(diào)對(duì)當(dāng)前任務(wù)有幫助的通道。
Shift操作:將得到的注意力加到原始輸入特征圖上,實(shí)現(xiàn)對(duì)特征圖的動(dòng)態(tài)調(diào)整,從而更好地適應(yīng)不同的任務(wù)和輸入。
實(shí)驗(yàn)結(jié)果表明,注意力機(jī)制模塊有助于模型更精準(zhǔn)地關(guān)注對(duì)任務(wù)有重要性的特征,提高模型的泛化能力。
使用Keras庫中的flow_from_directory()函數(shù)可通過讀取指定目錄中的圖像數(shù)據(jù),并結(jié)合數(shù)據(jù)增強(qiáng)和預(yù)處理操作,生成用于模型訓(xùn)練的批量圖像數(shù)據(jù)和對(duì)應(yīng)的標(biāo)簽,標(biāo)簽的編碼方式依賴于目錄中子文件夾的名稱和順序。
3 實(shí)驗(yàn)結(jié)果分析
3.1 模型訓(xùn)練分析
在使用SVM模型進(jìn)行訓(xùn)練時(shí),需先進(jìn)行HOG特征提取,而使用CNN模型時(shí)需要進(jìn)行數(shù)據(jù)增強(qiáng)操作,為避免此類操作影響程序運(yùn)行時(shí)間的分析,僅計(jì)算訓(xùn)練代碼塊的運(yùn)行時(shí)間。統(tǒng)計(jì)結(jié)果如表3所示,其中CNN模型的訓(xùn)練時(shí)間為3次實(shí)驗(yàn)的平均值。
由表3可知,CNN模型的訓(xùn)練時(shí)間明顯高于SVM模型,在實(shí)際應(yīng)用中SVM模型更具時(shí)效性。CNN的損失函數(shù)與準(zhǔn)確率迭代過程如圖5所示。
3.2 模型測(cè)試結(jié)果分析
模型訓(xùn)練完成后使用測(cè)試集進(jìn)行驗(yàn)證,測(cè)試集準(zhǔn)確率為94.50%,可以滿足目標(biāo)分類的需求,測(cè)試集中4類實(shí)驗(yàn)結(jié)果對(duì)比如圖6所示。
由分類結(jié)果可知,當(dāng)輸入數(shù)據(jù)為不可分辨溫差時(shí),由于圖像特征不明顯,分類準(zhǔn)確的概率只能達(dá)到80%~90%,而輸入數(shù)據(jù)為可分辨溫差時(shí),較易提取特征,故分類準(zhǔn)確的概率接近100%。
將數(shù)據(jù)增強(qiáng)處理后的訓(xùn)練數(shù)據(jù)集輸入到設(shè)計(jì)好的深度學(xué)習(xí)模型中進(jìn)行迭代,單次訓(xùn)練所選取的樣本數(shù)為32,迭代100次后使用測(cè)試集進(jìn)行驗(yàn)證。由于訓(xùn)練過程中存在隨機(jī)性,故在相同條件下進(jìn)行3次訓(xùn)練實(shí)驗(yàn),對(duì)測(cè)試集準(zhǔn)確率取平均值。與實(shí)際人員對(duì)數(shù)據(jù)判讀的結(jié)果相比較,數(shù)據(jù)增強(qiáng)處理后訓(xùn)練的CNN模型的平均測(cè)試集準(zhǔn)確度為99.07%,且準(zhǔn)確率和損失值皆保持穩(wěn)定,同樣可以滿足目標(biāo)分類的需求。4類實(shí)驗(yàn)結(jié)果的對(duì)比如圖7所示。
由分類結(jié)果和實(shí)際人員對(duì)數(shù)據(jù)的判讀結(jié)果相比較可知,對(duì)于不可分辨溫差,分類準(zhǔn)確的概率也可提升至99%以上,而輸入數(shù)據(jù)為可分辨溫差時(shí),分類準(zhǔn)確的概率接近100%。
兩種模型測(cè)試結(jié)果如表4所示。
3.3 CNN模型消融實(shí)驗(yàn)
為了更好地評(píng)估模型各組件對(duì)模型性能的影響,通過逐步修改或去除模型的組件進(jìn)行消融實(shí)驗(yàn)[30]。該實(shí)驗(yàn)主要評(píng)估了注意力機(jī)制、數(shù)據(jù)增強(qiáng)和隨機(jī)失活對(duì)模型準(zhǔn)確率和收斂速度的作用,實(shí)驗(yàn)結(jié)果如表5所示。
由消融實(shí)驗(yàn)結(jié)果可知,數(shù)據(jù)增強(qiáng)與注意力機(jī)制模塊對(duì)收斂速度的影響較為關(guān)鍵,而Dropout機(jī)制是為了防止由數(shù)據(jù)量較少而導(dǎo)致的過擬合,有效提升了本模型的準(zhǔn)確率。
4 結(jié) 論
為了解決傳統(tǒng)MRTD測(cè)試中存在的主觀性問題,本文首次將SVM和CNN模型用于MRTD的客觀測(cè)試,實(shí)現(xiàn)了MRTD對(duì)紅外成像系統(tǒng)的自動(dòng)化測(cè)量,同時(shí)對(duì)兩種模型進(jìn)行了比較和詳細(xì)闡述,在應(yīng)用中需根據(jù)具體的測(cè)試任務(wù)需求和數(shù)據(jù)特點(diǎn)進(jìn)行權(quán)衡和選擇。最后,通過訓(xùn)練時(shí)間、準(zhǔn)確率和消融實(shí)驗(yàn)分析得知CNN模型的準(zhǔn)確率更高,SVM模型的實(shí)時(shí)性更好,并且解決了傳統(tǒng)MRTD存在的主觀性問題。實(shí)驗(yàn)結(jié)果驗(yàn)證了這兩種MRTD的客觀測(cè)試方法可以為紅外熱成像系統(tǒng)性能指標(biāo)研究提供一種量化和評(píng)估工具,使研究人員能夠更準(zhǔn)確地評(píng)價(jià)紅外熱成像系統(tǒng)在各種工作環(huán)境條件下的表現(xiàn)。
參考文獻(xiàn)
[1]" 呂昕夢(mèng), 周俊. 紅外成像系統(tǒng)MRTD測(cè)試方法研究[J]. 光電技術(shù)應(yīng)用, 202 36(6): 7780.
LYU X M, ZHOU J. Research on MRTD testing method of infrared imaging system[J]. Electro-Optic Technology, 202 36(6): 7780.
[2] 范心田, 盧振武, 孫強(qiáng). 紅外成像系統(tǒng)中MRTD測(cè)試方法的研究[J]. 紅外與激光工程, 2004, 33(5): 445448.
FAN X T, LU Z W, SUN Q. Measurement method for MRTD of infrared imaging system[J]. Infrared and Laser Engineering, 2004, 33(5): 445448.
[3] BURROUGHS E, MOE G O, LESHER G W, et al. Automated MRTD using boundary contour system, custom feature extractors and fuzzy ARTMAP[C]∥Proc.of the Infrared Imaging Systems: Design, Analysis, Modeling, and Testing, 1995, 2470: 274287.
[4] 孫軍月. 應(yīng)用神經(jīng)網(wǎng)絡(luò)智能測(cè)量熱成像系統(tǒng)MRTD[D]. 長(zhǎng)春: 中國(guó)科學(xué)院長(zhǎng)春光學(xué)精密機(jī)械與物理研究所, 2006.
SUN J Y. Intelligent MRTD testing for thermallmaging system using ANN[D]. Changchun: Changchun Institute of Optics, Fine Mechanics and Physics, Chinese Academy of Sciences, 2006.
[5] SUN J Y, MA D. Intelligent MRTD testing for thermal imaging system using ANN[C]∥Proc.of the ICO20: Remote Sensing and Infrared Devices and Systems, 2006, 6031: 260266.
[6] 王連振, 吳晗平, 李旭輝, 等. 紅外成像系統(tǒng)綜合性能評(píng)價(jià)方法研究[J]. 紅外技術(shù), 2015, 37(1): 5762.
WANG L Z, WU H P, LI X H, et al. Research on the methods of IR imaging system comprehensive performance evaluation[J]. Infrared Technology, 2015, 37(1): 5762.
[7] LIU F Y, LIU J, WANG L B. Deep learning and infrared thermography for asphalt pavement crack severity classification[J]. Automation in Construction, 202 140: 104383.
[8] HANG R L, LI Z, LIU Q S, et al. Hyperspectral image classification with attention-aided CNNs[J]. IEEE Trans.on Geoscience and Remote Sensing, 202 59(3): 22812293.
[9] AHMAD M, SHABBIR S, RAZA R A, et al. Artifacts of different dimension reduction methods on hybrid CNN feature hierarchy for hyperspectral image classification[J]. Optik-International Journal for Light and Electron Optics, 202 246(1): 167757.
[10] ARNOUS F I, NARAYANAN R M, LI B C. Application of multidomain sensor image fusion and training data augmentation for enhanced CNN image classification[J]. Journal of Electronic Imaging, 202 31(1): 013014.
[11] LIU F C, XU H, QI M, et al. Depth-wise separable convolution attention module for garbage image classification[J]. Sustainability, 202 14(5): 3099.
[12] MELGANI F, BRUZZONE L. Classification of hyperspectral remote sensing images with support vector machines[J]. IEEE Trans.on Geoscience and Remote Sensing, 2004, 42(8): 17781790.
[13] KHAIRANDISH M O, SHARMA M, JAIN V, et al. A hybrid CNN-SVM threshold segmentation approach for tumor detection and classification of MRI brain images[J]. Innovation and Research in Biomedical Engineering, 202 43(4): 290299.
[14] REDDY A S. Extensive content feature based image classification and retrieval using SVM[J]. CVR Journal of Science and Technology, 2023, 24(1): 5358.
[15] KEERTHANA D, VENUGOPAL V, NATH M K, et al. Hybrid convolutional neural networks with SVM classifier for classification of skin cancer[J]. Biomedical Engineering Advances, 2023, 5: 100069.
[16] ARI A. Multipath feature fusion for hyperspectral image classification based on hybrid 3D/2D CNN and squeeze-excitation network[J]. Earth Science Informatics, 2023, 16(1): 175191.
[17] CHEN G M, CHEN Q, LONG S, et al. Quantum convolutional neural network for image classification[J]. Pattern Analysis and Applications, 2023, 26(2): 655667.
[18] LI B H, HOU Y T, CHE W X. Data augmentation approaches in natural language processing: a survey[J]. AI Open, 202 3: 7190.
[19] POLSON N G, SCOTT S L. Data augmentation for support vector machines[J]. Bayesian Analysis, 201 6(1): 123.
[20] 田留德, 劉朝暉, 趙建科, 等. 紅外熱像儀MRTD測(cè)試方法研究[J]. 紅外技術(shù), 2015, 37(5): 368373.
TIAN L D, LIU C H, ZHAO J K, et al. Measurement method for MRTD of infrared imaging system[J]. Infrared Technology, 2015, 37(5): 368373.
[21] DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[C]∥Proc.of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2005: 886893.
[22] GALAR M, FERNANDEZ A, BARRENECHEA E, et al. DRCW-OVO: distance-based relative competence weighting combination for one-vs-one strategy in multi-class problems[J]. Pattern Recognition, 2015, 48(1): 2842.
[23] KINGMA D P, BA J. Adam: a method for stochastic optimization[J]. Computer Science, 2014: 14126980.
[24] SRIVASTAVA N, HINTON G, KRIZHEVSKY A, et al. Dropout: a simple way to prevent neural networks from overfitting[J]. The Journal of Machine Learning Research, 2014, 15(1): 19291958.
[25] SALEHIN I, KANG D K. A review on Dropout regularization approaches for deep neural networks within the scholarly domain[J]. Electronics, 2023, 12(14): 3106.
[26] HU J, SHEN L, SAMUEL A. Squeeze-and-excitation networks[C]∥Proc.of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2018: 71327141.
[27] SARIGUL M. Performance analysis of CNN channel attention modules for image classification task[J]. ukurova Universitesi Mühendislik Fakültesi Dergisi, 2023, 38(1): 3540.
[28] HSIAO T Y, CHANG Y C, CHOU H H, et al. Filter-based deep-compression with global average pooling for convolutional networks[J]. Journal of Systems Architecture, 2019, 95: 918.
[29] KHAN A, SOHAIL A, ZAHOORA U, et al. A survey of the recent architectures of deep convolutional neural networks[J]. Artificial Intelligence Review, 2020, 53: 54555516.
[30] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580587.
作者簡(jiǎn)介
季 然(1998—),男,碩士研究生,主要研究方向?yàn)橛?jì)算機(jī)視覺、紅外圖像處理、遙感圖像處理。
肖茂森(1979—),男,高級(jí)工程師,碩士,主要研究方向?yàn)榭臻g高精度方位傳遞對(duì)準(zhǔn)技術(shù)、圖像處理。
李 碩(1994—),男,碩士研究生,主要研究方向?yàn)槠穸喙庾V圖像處理、圖像超分辨。
劉 宇(2000—),女,碩士研究生,主要研究方向?yàn)樾盘?hào)與圖像處理、電子穩(wěn)像。
羅湛?jī)x(1999—),男,碩士研究生,主要研究方向?yàn)榛贔PGA的圖像處理技術(shù)。
程嘉維(1999—),男,碩士研究生,主要研究方向?yàn)榧t外光學(xué)設(shè)計(jì)、星敏感器。