張作省,楊程亮,朱瑞飛,高 放,于 野,鐘 興
(1.中國(guó)科學(xué)院長(zhǎng)春光學(xué)精密機(jī)械與物理研究所應(yīng)用光學(xué)國(guó)家重點(diǎn)實(shí)驗(yàn)室,長(zhǎng)春 130039;2.中國(guó)科學(xué)院大學(xué),北京 100049; 3.長(zhǎng)光衛(wèi)星技術(shù)有限公司吉林省衛(wèi)星遙感應(yīng)用技術(shù)重點(diǎn)實(shí)驗(yàn)室,長(zhǎng)春 130000)
在高分辨率遙感影像處理中,機(jī)場(chǎng)作為重要的戰(zhàn)略目標(biāo),在國(guó)民經(jīng)濟(jì)和國(guó)防體系里機(jī)場(chǎng)識(shí)別都是一項(xiàng)重要研究任務(wù)。長(zhǎng)期以來,在這一方面很多研究組織開展了大量的基礎(chǔ)性研究工作,并得到多種較為有效的算法。這些算法一般可分為兩類,一類是基于機(jī)場(chǎng)顯著性結(jié)構(gòu)特征進(jìn)行識(shí)別,另一類則是基于邊緣直線進(jìn)行特征提取。
基于顯著性結(jié)構(gòu)特征的方法主要基于視覺顯著性機(jī)制。當(dāng)人眼在搜索目標(biāo)時(shí),會(huì)第一時(shí)間注意到結(jié)構(gòu)特征明顯或連通域較大的區(qū)域,這種基于人腦對(duì)機(jī)場(chǎng)的固有印象,為知識(shí)驅(qū)動(dòng)型顯著性機(jī)制。相較于周邊環(huán)境具有較高亮度或紋理差異較大的區(qū)域也會(huì)在第一時(shí)間被注意到,這種機(jī)制與經(jīng)驗(yàn)無關(guān),為特征驅(qū)動(dòng)型顯著性機(jī)制。其中,知識(shí)驅(qū)動(dòng)型顯著性檢測(cè)方法利用機(jī)場(chǎng)的形狀(如飛機(jī)跑道直線特征)、紋理等先驗(yàn)知識(shí)來確定機(jī)場(chǎng)位置,其先驗(yàn)知識(shí)的數(shù)學(xué)表述并不簡(jiǎn)單且泛化性能極弱,因此很少有突破性的研究進(jìn)展;而基于特征驅(qū)動(dòng)型研究中,文獻(xiàn)[1]提出了仿視網(wǎng)膜認(rèn)知的計(jì)算模型,之后HAREL等改進(jìn)文獻(xiàn)[1]模型中“中心周邊差分”步驟,從圖論角度提出基于圖的顯著性模型(GBVS)[2],隨后基于頻率域的顯著性計(jì)算模型[3-5]被提出,這些方法能夠很好地估計(jì)目標(biāo)顯著性,但往往容易突出邊緣,場(chǎng)景中顯著性最高的區(qū)域有可能不是機(jī)場(chǎng)目標(biāo),因此難以勝任復(fù)雜的高分辨率遙感影像場(chǎng)景中的機(jī)場(chǎng)目標(biāo)提取。
完整的機(jī)場(chǎng)區(qū)域場(chǎng)景內(nèi)涵豐富,包括建筑物、草地、交通網(wǎng)和跑道等,在這些場(chǎng)景內(nèi)涵中,飛機(jī)跑道的直線特征最為明顯和規(guī)則,也最能反映目標(biāo)性質(zhì)。因此,基于邊緣直線特征提取的方法根據(jù)機(jī)場(chǎng)跑道的直線特征利用Hough變換[6]從圖像中定位機(jī)場(chǎng)的算法,因原理簡(jiǎn)單、速度快得到廣泛應(yīng)用,但對(duì)于直線特征的篩選不夠嚴(yán)謹(jǐn)。例如,文獻(xiàn)[7-8]中對(duì)提取出的直線進(jìn)行長(zhǎng)度判別,文獻(xiàn)[9]對(duì)提取出的直線保留近鄰平行直線的限制之外并無其他篩選,這對(duì)于識(shí)別系統(tǒng)更高層次的像素分類遺留了較大負(fù)擔(dān),嚴(yán)重影響了機(jī)場(chǎng)識(shí)別和定位準(zhǔn)確性。
針對(duì)上述問題,本文在提取出的直線基礎(chǔ)上通過引入深度卷積神經(jīng)網(wǎng)絡(luò)[10]對(duì)相應(yīng)直線所在的原影像區(qū)域進(jìn)行分類從而識(shí)別出真實(shí)的機(jī)場(chǎng)跑道,進(jìn)而確定機(jī)場(chǎng)位置。
算法主要由機(jī)場(chǎng)跑道的粗提取、構(gòu)建并訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)及利用深度網(wǎng)絡(luò)確定機(jī)場(chǎng)區(qū)域3個(gè)部分組成。如圖1所示,其中,機(jī)場(chǎng)跑道粗提取部分主要利用傳統(tǒng)算法進(jìn)行運(yùn)算,在此基礎(chǔ)上通過引入深度卷積神經(jīng)網(wǎng)絡(luò)精確地確定機(jī)場(chǎng)位置。
圖1 整體算法流程圖Fig.1 Flow chart of the algorithm
利用機(jī)場(chǎng)跑道邊緣是平行直線的特性,通過對(duì)預(yù)處理影像的邊緣提取及直線檢測(cè)步驟初步確定疑似機(jī)場(chǎng)跑道目標(biāo)區(qū)域,為后續(xù)精確定位機(jī)場(chǎng)區(qū)域奠定基礎(chǔ)。
1.1.1 原始影像預(yù)處理
為了提升計(jì)算效率及其對(duì)不同衛(wèi)星、不同分辨率的遙感影像的適應(yīng)性和魯棒性,將待檢測(cè)圖像使用雙三次插值方法降采樣至像素大小為2000×2000并將圖像灰度化。
為使降采樣后的影像擁有更清晰和豐富的邊緣信息,采用文獻(xiàn)[8]中灰度增強(qiáng)算法對(duì)影像進(jìn)行模糊增強(qiáng),得到如圖2a所示的增強(qiáng)影像。此外,根據(jù)文獻(xiàn)[8]的結(jié)論,與Log,Robert,Sobel及Prewitt邊緣提取算子相比,Canny算子在對(duì)遙感影像進(jìn)行邊緣提取時(shí)在邊緣信息的完整性、連續(xù)性及抗噪性上表現(xiàn)出極強(qiáng)的優(yōu)越性,因此選擇 Canny算子對(duì)增強(qiáng)后的影像進(jìn)行邊緣檢測(cè),得到如圖2b所示的影像邊緣信息。
圖2 模糊增強(qiáng)及邊緣檢測(cè)Fig.2 Fuzzy enhancement and edge detection
1.1.2 直線檢測(cè)
使用概率Hough變換方法對(duì)預(yù)處理得到的邊緣信息進(jìn)行直線提取,不僅可以將影像邊緣信息中的線段檢測(cè)出來,同時(shí)可排除較短直線的干擾,并能對(duì)細(xì)碎線段進(jìn)行有效拼接。
根據(jù)影像中機(jī)場(chǎng)跑道總是存在平行直線邊緣的特性,通過對(duì)邊緣中直線段的位置關(guān)系進(jìn)行計(jì)算可進(jìn)一步剔除干擾區(qū)域,降低算法的復(fù)雜度。各線段的斜率為
(1)
Δk=ki-kji≠j
(2)
式中:(xl 1,yl 1)為各線段起始坐標(biāo);(xl 2,yl 2)為各線段終止坐標(biāo);i,j為檢測(cè)出的直線段序號(hào)。任意兩條直線的斜率差值Δk<0.01時(shí)認(rèn)為是平行直線段,得到的平行直線段如表1所示。
表1 檢測(cè)出的平行直線段坐標(biāo)Table 1 Detected parallel line segment coordinates
圖3a和圖3b展示了平行線段篩選前后的對(duì)比,從圖中可以看出,算法經(jīng)初步篩選有效地去除了部分干擾區(qū)域,但對(duì)于較為平直寬闊的跨海大橋等干擾,算法須對(duì)剩余平行線段做進(jìn)一步的精確分類識(shí)別。
為了減少因直線區(qū)域過于狹窄而導(dǎo)致的分類器識(shí)別時(shí)產(chǎn)生的大幅形變對(duì)識(shí)別準(zhǔn)確率的影響,對(duì)于檢測(cè)出的各平行線段,通過合并如圖3c所示的有交集的候選框得到待分類的候選區(qū)域。其中,直線所在原圖像區(qū)域如圖3d所示。
圖3 平行直線檢測(cè)及待分類的候選區(qū)域Fig.3 Parallel line detection and candidate regions to be classified
深度卷積神經(jīng)網(wǎng)絡(luò)是一種通過描述數(shù)據(jù)的后驗(yàn)概率來提高模式分類能力的高效率區(qū)分型網(wǎng)絡(luò)結(jié)構(gòu),主要由卷積層、池化層及全連接層組成。經(jīng)典深度網(wǎng)絡(luò)Inception-v3[11],Inception-v4[12],VGG-16,VGG-19[13]和ResNet[14]等模型因識(shí)別準(zhǔn)確率高而聞名,但這些網(wǎng)絡(luò)層數(shù)較深,計(jì)算復(fù)雜度較高,在硬件條件較為苛刻的環(huán)境下難以直接使用。因此通過構(gòu)建精簡(jiǎn)的小型卷積網(wǎng)絡(luò),在保證識(shí)別精度的前提下提高效率,實(shí)現(xiàn)對(duì)機(jī)場(chǎng)跑道的高效識(shí)別。
實(shí)驗(yàn)設(shè)計(jì)的網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,由4個(gè)卷積層、4個(gè)歸一化層和3個(gè)池化層以及2個(gè)全連接層組成的深度卷積神經(jīng)網(wǎng)絡(luò)完成機(jī)場(chǎng)跑道檢測(cè),其具體參數(shù)如表2所示。通過構(gòu)建映射函數(shù)y=f(x;θ)將輸入圖片x映射到一個(gè)類別y,并通過學(xué)習(xí)θ使得y與輸入x的真實(shí)標(biāo)簽Y得到最佳的函數(shù)近似。
表2 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)表Table 2 The convolutional neural network structure
在構(gòu)建網(wǎng)絡(luò)的過程中,考慮到卷積這種線性函數(shù)對(duì)于線性不可分的樣本表達(dá)能力不足,通過引入激活函數(shù)這種非線性因素來解決此問題。同時(shí),為減輕深度卷積神經(jīng)網(wǎng)絡(luò)中易出現(xiàn)的梯度消失[10]問題,本文在卷積層選取的激活函數(shù)為線性閾值神經(jīng)frelu,其表達(dá)式為
(3)
式中:每層的xi是輸入;ωi是權(quán)重因子;b是偏置;n表示輸入神經(jīng)元個(gè)數(shù),其強(qiáng)制輸出為0的方案使訓(xùn)練后的網(wǎng)絡(luò)具備一定的稀疏性[15-17],以此減少冗余的數(shù)據(jù),使提取的特征具有更強(qiáng)的表達(dá)力。
但僅用frelu會(huì)使得訓(xùn)練時(shí)模型過于脆弱,原因在于當(dāng)一個(gè)非常大的梯度流經(jīng)frelu神經(jīng)元,更新參數(shù)之后,該神經(jīng)元不會(huì)再對(duì)任何數(shù)據(jù)有激活現(xiàn)象。因此,在全連接層間使用ftanh函數(shù),利用ftanh激活函數(shù)的軟飽和性[10]來稀釋這種現(xiàn)象,其表達(dá)式為
(4)
對(duì)于每一層的輸入I,經(jīng)卷積操作并經(jīng)非線性激活函數(shù)映射后得到相應(yīng)的特征圖為
(5)
對(duì)得到的特征圖進(jìn)行池化操作以減少計(jì)算量,即
(6)
(7)
式中:n表示同一空間位置相鄰特征圖的個(gè)數(shù);N表示總特征圖數(shù)目;k,n,α以及β是經(jīng)驗(yàn)值,具體參數(shù)如表2所示。局部響應(yīng)歸一化層往往配合frelu激活函數(shù)一起使用[18]。每一層具體參數(shù)如表2所示。
對(duì)于篩選后的區(qū)域進(jìn)行分類,首先需要對(duì)構(gòu)建好的深度網(wǎng)絡(luò)進(jìn)行訓(xùn)練并保存訓(xùn)練模型,其次利用訓(xùn)練好的深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)候選框進(jìn)行識(shí)別,得到該區(qū)域是機(jī)場(chǎng)跑道的概率值,最后合并候選框最終確定機(jī)場(chǎng)區(qū)域。
1.3.1 softmax預(yù)測(cè)概率值
(8)
下一步是softmax層的輸出向量(Y1,Y2)和樣本的實(shí)際標(biāo)簽做一個(gè)交叉熵,為
(9)
式中:n為訓(xùn)練樣本數(shù);yi是期望輸出,即softmax的輸出向量(Y1,Y2)中第i(i=1或2)個(gè)元素的值;
ai=S(z)i
(10)
z=∑tωtxt+b。
(11)
1.3.2 正則化
為降低網(wǎng)絡(luò)的過擬合現(xiàn)象,需對(duì)網(wǎng)絡(luò)進(jìn)行微調(diào)。在數(shù)據(jù)集有限的情況下,防止過擬合的一種有效的方法是降低模型的復(fù)雜度。在設(shè)計(jì)網(wǎng)絡(luò)時(shí),選取參數(shù)為0.5的Dropout[19]可以有效降低模型復(fù)雜度,從而減少過擬合現(xiàn)象。
在代價(jià)函數(shù)中加入正則化[20]項(xiàng)也是減少過擬合的有效手段,這里使用L2正則化方法,即
(12)
式中,C0代表原始的代價(jià)函數(shù)。等式右側(cè)第2項(xiàng)即為正則化項(xiàng),λ為正則化參數(shù),其值為正。因此最終的代價(jià)函數(shù)為
(13)
在深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練階段,如圖5所示,網(wǎng)絡(luò)對(duì)于每次輸入的圖片通過神經(jīng)網(wǎng)絡(luò)前向傳播提取特征,經(jīng)softmax預(yù)測(cè)其所屬類別并計(jì)算其相應(yīng)概率值。得到輸出值后,計(jì)算誤差C并對(duì)其進(jìn)行反向傳播,更新網(wǎng)絡(luò)權(quán)值,重新計(jì)算輸出。使用隨機(jī)梯度下降算法通過對(duì)大量訓(xùn)練數(shù)據(jù)的反復(fù)迭代計(jì)算使得代價(jià)函數(shù)逐步降低,最終得到穩(wěn)定的網(wǎng)絡(luò)鏈接點(diǎn)參數(shù)并保存,即得到訓(xùn)練完成的識(shí)別網(wǎng)絡(luò)。
圖5 網(wǎng)絡(luò)訓(xùn)練示意圖Fig.5 Sketch map of neural network training
在機(jī)場(chǎng)跑道識(shí)別階段,如圖6所示,將經(jīng)過機(jī)場(chǎng)跑道粗提取部分得到的候選區(qū)域作為輸入代入訓(xùn)練完成的深度卷積神經(jīng)網(wǎng)絡(luò)中,經(jīng)網(wǎng)絡(luò)計(jì)算得到相應(yīng)的類別及概率值。為減小判定誤差,對(duì)于判定為機(jī)場(chǎng)跑道且概率值高于0.5的候選框進(jìn)行適當(dāng)放大,并使用非極大值抑制方法進(jìn)行合并,得到最終的機(jī)場(chǎng)區(qū)域。
圖6 跑道識(shí)別Fig.6 Runway recognition
對(duì)某光學(xué)A星拍攝影像切分了6000張像素大小為1000×1000的機(jī)場(chǎng)跑道區(qū)域和6000張像素大小為1000×1000的非機(jī)場(chǎng)跑道區(qū)域的三通道彩色圖像構(gòu)成了具有兩類標(biāo)簽的訓(xùn)練樣本庫,其中負(fù)樣本庫即非機(jī)場(chǎng)跑道圖像,主要有呈直線的鐵路、公路、橋梁、耕地邊緣和大型建筑的邊緣等。隨機(jī)抽取其中兩類標(biāo)簽各1000張作為測(cè)試集;剩余的各5000張作為訓(xùn)練集,利用Tensorflow進(jìn)行訓(xùn)練。實(shí)驗(yàn)環(huán)境為:ubuntu16.04,Tensorflow-1.1.0,顯卡為Quadro K5200,計(jì)算能力為3.5,在cudnn5.1,cuda8.0的背景下調(diào)用GPU訓(xùn)練。
在訓(xùn)練時(shí),將這些圖像也利用雙三次插值的方法縮小成像素大小為208×208讀入卷積神經(jīng)網(wǎng)絡(luò)。利用隨機(jī)梯度下降算法進(jìn)行訓(xùn)練,圖7為訓(xùn)練過程中的準(zhǔn)確率及誤差曲線,由圖可知,網(wǎng)絡(luò)迭代22萬次之后,模型的代價(jià)函數(shù)不再跳動(dòng)和降低,測(cè)試準(zhǔn)確率趨于平穩(wěn),模型區(qū)域穩(wěn)定。如圖7所示,其訓(xùn)練準(zhǔn)確率達(dá)99.68%,代價(jià)函數(shù)最小值達(dá)到1.169%。在測(cè)試集中利用訓(xùn)練好的模型進(jìn)行測(cè)試,測(cè)試準(zhǔn)確率達(dá)97.13%。
圖7 訓(xùn)練準(zhǔn)確率及誤差曲線Fig.7 Training accuracy and error curve
對(duì)于得到的候選框及相對(duì)應(yīng)的概率值集合,負(fù)樣本集的包圍框?yàn)辄S色,正樣本為紅色,并將各自的概率值顯示在各包圍框上,得到如圖8a所示結(jié)果。
為了讓結(jié)果能夠自動(dòng)標(biāo)出機(jī)場(chǎng)區(qū)域,將檢測(cè)為機(jī)場(chǎng)跑道區(qū)域且概率值大于0.5的候選框,放大為原來的1.8倍,并合并放大后具有交集的候選框。最終結(jié)果如圖8b所示。
圖8 檢測(cè)結(jié)果Fig.8 The detection result
圖9展示了所提算法針對(duì)不同遙感影像數(shù)據(jù)進(jìn)行機(jī)場(chǎng)識(shí)別的識(shí)別結(jié)果,其中前4張圖片為某光學(xué)A星所拍攝的遙感影像,后4張為視頻3星拍攝的影像。從這些識(shí)別結(jié)果可以看出,所提算法在高分辨率遙感影像機(jī)場(chǎng)識(shí)別上是十分有效的,能夠正確地定位到機(jī)場(chǎng)的具體位置,為下一步飛機(jī)的識(shí)別奠定了較好的基礎(chǔ)。
表3為算法對(duì)圖9中的各影像進(jìn)行機(jī)場(chǎng)檢測(cè)時(shí)的影像來源、機(jī)場(chǎng)個(gè)數(shù)、定位準(zhǔn)確率及所用時(shí)間的各項(xiàng)數(shù)據(jù)。本文在此利用傳統(tǒng)領(lǐng)域目標(biāo)識(shí)別中的常用IoU(Intersection over Union)來衡量定位誤差。定義定位準(zhǔn)確率為系統(tǒng)預(yù)測(cè)出的框與原圖手工標(biāo)注框的交集與它們并集的比例,為
(14)
式中:RD代表系統(tǒng)檢測(cè)出的目標(biāo)框;TG代表手工標(biāo)注的目標(biāo)框。
圖9 多個(gè)機(jī)場(chǎng)識(shí)別結(jié)果Fig.9 Identification results of multiple airports
表3 識(shí)別結(jié)果數(shù)據(jù)Table 3 The recognition result
通過對(duì)來自某視頻3星和光學(xué)A星的8張含有機(jī)場(chǎng)的影像數(shù)據(jù)進(jìn)行測(cè)試,算法的識(shí)別率為100%,其平均定位準(zhǔn)確率為87.58%,遠(yuǎn)高于文獻(xiàn)[8]中的平均定位準(zhǔn)確率62.08%。分析可知,在背景復(fù)雜、干擾直線較多的高分辨率影像中,僅依靠平行長(zhǎng)直線的檢測(cè)方案難以實(shí)現(xiàn)對(duì)機(jī)場(chǎng)的精確定位,在此基礎(chǔ)上,通過引入深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行機(jī)場(chǎng)跑道的精確識(shí)別方案是十分有效的。此外,分析數(shù)據(jù)可知,算法耗費(fèi)的時(shí)間主要在直線檢測(cè)上,實(shí)驗(yàn)中在檢測(cè)出直線的基礎(chǔ)上平均耗時(shí)1.09 s,算法的時(shí)間復(fù)雜度在傳統(tǒng)算法的基礎(chǔ)上并沒有較大提升的前提下,實(shí)現(xiàn)了對(duì)高分辨率遙感影像數(shù)據(jù)中的機(jī)場(chǎng)的高準(zhǔn)確率識(shí)別與定位。
結(jié)合深度卷積神經(jīng)網(wǎng)絡(luò)的機(jī)場(chǎng)識(shí)別算法是十分有效的,算法在檢測(cè)出的直線基礎(chǔ)上利用輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)對(duì)高分辨率遙感影像數(shù)據(jù)進(jìn)行機(jī)場(chǎng)識(shí)別。在傳統(tǒng)機(jī)場(chǎng)識(shí)別算法的基礎(chǔ)上進(jìn)一步提升了定位精度,有效克服了遙感影像中大型廠房外墻、高速公路、鐵路和耕地邊緣等直線信息的干擾,這對(duì)于高分辨率光學(xué)遙感衛(wèi)星進(jìn)行更高精度的機(jī)場(chǎng)定位并進(jìn)行下一步尋找機(jī)場(chǎng)中的飛機(jī)具有十分重要的意義,且對(duì)該算法進(jìn)行嵌入式星上硬件平臺(tái)嵌入式實(shí)驗(yàn)具有重要指導(dǎo)價(jià)值。但從實(shí)驗(yàn)結(jié)果中依然可以發(fā)現(xiàn),檢測(cè)框內(nèi)有許多非機(jī)場(chǎng)區(qū)域,這對(duì)于高精度的飛機(jī)識(shí)別而言依然存在著背景干擾。下一步研究工作應(yīng)當(dāng)是基于檢測(cè)出的機(jī)場(chǎng)區(qū)域進(jìn)行分割,以更好地剔除非機(jī)場(chǎng)區(qū)域,從而更高效率地對(duì)飛機(jī)進(jìn)行識(shí)別。
參考文獻(xiàn)
[1] ITTI L,KOCH C,NIEBUR E.A model of saliency-based visual attention for rapid scene analysis[J].IEEE Tran-sactions on Pattern Analysis & Machine Intelligence,1998, 20(11):1254-1259.
[2]SCH?LKOPF B,PLATT J,HOFMANN T.Graph-based visual saliency[J].Advances in Neural Information Processing Systems,2007,19:545-552.
[3] HOU X,ZHANG L.Saliency detection:a spectral residual approach[C]//IEEE Conference on Computer Vision and Pattern Recognition,2007:1-8.
[4]ACHANTA R,HEMAMI S,ESTRADA F,et al.Frequency-tuned salient region detection[C]//IEEE Conference on Computer Vision and Pattern Recognition,2009:1597-1604.
[5]GUO C L,MA Q,ZHANG L M.Spatio-temporal saliency detection using phase spectrum of quaternion Fourier transform[C]//IEEE Conference on Computer Vision and Pattern Recognition,2008:1-8.
[6] 王強(qiáng),胡維平,陸志敏,等.HOUGH變換實(shí)時(shí)檢測(cè)算法研究[J].計(jì)算機(jī)工程與設(shè)計(jì),2001,22(3):76-80.
[7] WANG X,LV Q,WANG B,et al.Airport detection in remote sensing images: a method based on saliency map.[J].Cognitive Neurodynamics,2013,7(2):143-54.
[8] 艾淑芳,閆鈞華,李大雷,等.遙感圖像中的機(jī)場(chǎng)跑道檢測(cè)算法[J].電光與控制,2017,24(2):43-46.
[9] 朱丹,王斌,張立明.基于直線鄰近平行性和GBVS顯著性的遙感圖像機(jī)場(chǎng)目標(biāo)檢測(cè)[J].紅外與毫米波學(xué)報(bào),2015,34(3):375-384.
[10]THEODORIDIS S.Chapter 18-neural networks and deep learning[M]//Machine Learning.Amsterdam:Elsevier Ltd,2015:875-936.
[11] SZEGEDY C,VANHOUCKE V,IOFFE S,et al.Rethinking the inception architecture for computer vision[C]//IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2016.doi:10.1109/CVPR.2016.308.
[12]SZEGEDY C,IOFFE S,VANHOUCKE V,et al.Inception-v4,inception-ResNet and the impact of residual connections on learning[EB/OL].[2017-05-07].https://arxiv.org/pdf/1409.1556.pdf.
[13] SIMONYAN K,ZISSERMAN A.Very deep convolutional networks for large-scale image recognition[EB/OL].[2017-05-18].https://arxiv.org/pdf/1602.07261.pdf.
[14]HE K,ZHANG X Y,REN S Q,et al.Deep residual learning for image recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition,2015:770-778.
[15]KRIZHEVSKY A,SUTSKEVER I,HINTON G E.ImageNet classification with deep convolutional neural networks[C]//International Conference on Neural Information Processing Systems,2012:1097-1105.
[16]CLEVERT D A,UNTERTHINER T,HOCHREITER S.Fast and accurate deep network learning by Exponential Linear Units (ELUs)[C]//ICLR,2016:1-14.
[17] HE K M,ZHANG X Y,REN S Q,et al.Delving deep into rectifiers:surpassing human-level performance on imageNet classification[J].IEEE International Conference on Computer Vision(ICCV),2015:1026-1034.
[18] XU B,WANG N Y,CHEN T Q,et al.Empirical evaluation of rectified activations in convolutional network[EB/OL].[2017-06-16].https://arxiv.org/pdf/1505.00853.pdf.
[19]HINTON G E,SRIVASTAVA N,KRIZHEVSKY A,et al.Improving neural networks by preventing co-adaptation of feature detectors[J].Computer Science,2012,3(4):212-223.
[20] 李航.統(tǒng)計(jì)學(xué)習(xí)方法[M].北京:清華大學(xué)出版社,2012:13-15.