虞曉霞,劉智,耿振野,陳思銳
(長(zhǎng)春理工大學(xué) 電子信息工程學(xué)院,長(zhǎng)春 130022)
近年來,隨著科學(xué)技術(shù)和人工智能技術(shù)的發(fā)展,各類小型無人機(jī)日益增多,其性能不斷提升,應(yīng)用領(lǐng)域不斷擴(kuò)大,在方便人們生活的同時(shí)也引發(fā)了不良影響。無人機(jī)的無序飛行時(shí)有發(fā)生,不僅嚴(yán)重?cái)_亂了空域交通秩序,也引發(fā)了很多安全事故,如干擾民航機(jī)場(chǎng)的客機(jī)正常起飛與降落等[1-3]。為此,空管部門通過設(shè)定禁飛區(qū)域、無線探測(cè)干擾、電磁探測(cè)、聲音探測(cè)、視頻監(jiān)控、軌跡預(yù)測(cè)等幾種主要技術(shù)手段對(duì)無人機(jī)進(jìn)行管控[4-6]。但隨著無人機(jī)技術(shù)的發(fā)展,低空小型無人機(jī)越來越具有體積小、隱身化、飛行噪聲低、防電磁干擾等特點(diǎn),以上幾種方法在探測(cè)無人機(jī)的過程中不僅體現(xiàn)出成本高的缺點(diǎn),還具有一定程度的局限性。所以,如何提高禁飛區(qū)域周邊無人機(jī)識(shí)別效率成為空管部門亟待解決的問題。
深度學(xué)習(xí)作為目標(biāo)識(shí)別領(lǐng)域較為有效的手段之一,在物體分類、圖像識(shí)別等問題中都有非常廣泛地應(yīng)用,但目前,深度學(xué)習(xí)在無人機(jī)目標(biāo)識(shí)別方面還沒有成熟的應(yīng)用方案。針對(duì)上述無人機(jī)探測(cè)方法高成本、低效率及應(yīng)用局限等問題,提出了一種基于深度學(xué)習(xí)的禁飛區(qū)無人機(jī)目標(biāo)識(shí)別的方法,利用深度學(xué)習(xí)網(wǎng)絡(luò)對(duì)多種類型的無人機(jī)進(jìn)行特征提取和特征訓(xùn)練,通過多次訓(xùn)練確定網(wǎng)絡(luò)結(jié)構(gòu)層數(shù)及權(quán)值的最佳值,實(shí)現(xiàn)快速自主識(shí)別是否有無人機(jī)非法靠近禁飛區(qū)域,為無人機(jī)禁飛區(qū)的監(jiān)控預(yù)警系統(tǒng)提供重要信息,從而更高效地保障機(jī)場(chǎng)等重要空域的交通安全。
深度學(xué)習(xí)是實(shí)現(xiàn)人工智能過程中的一項(xiàng)重要技術(shù)。2006年,加拿大多倫多大學(xué)教授Geoffrey Hinton在《科學(xué)》上提出多層人工神經(jīng)網(wǎng)絡(luò)模型能夠更好的模擬人腦進(jìn)行特征學(xué)習(xí),進(jìn)而提高數(shù)據(jù)分類能力[7]。Hinton的觀點(diǎn)是機(jī)器學(xué)習(xí)領(lǐng)域中一次大的突破,也開啟了機(jī)器學(xué)習(xí)新的大門—深度學(xué)習(xí)。
深度學(xué)習(xí)源于人工神經(jīng)網(wǎng)絡(luò)的研究,根據(jù)構(gòu)建具有多隱層的機(jī)器學(xué)習(xí)模型,通過大量訓(xùn)練數(shù)據(jù),學(xué)習(xí)重要目標(biāo)特征,最后實(shí)現(xiàn)高效分類或預(yù)測(cè)。在此過程中,“深度模型”是手段,“特征學(xué)習(xí)”是目的[8]。如圖1所示,不同于淺層神經(jīng)網(wǎng)絡(luò),深度學(xué)習(xí)通常含有2層以上的隱含節(jié)點(diǎn),且側(cè)重于特征學(xué)習(xí),在訓(xùn)練時(shí)通過采用逐層訓(xùn)練機(jī)制,有效克服了多層結(jié)構(gòu)中常見的“梯度擴(kuò)散”現(xiàn)象。
圖1 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)
禁飛區(qū)無人機(jī)目標(biāo)識(shí)別的主要任務(wù)是從監(jiān)控系統(tǒng)的圖像中自主識(shí)別出無人機(jī),實(shí)現(xiàn)對(duì)禁飛區(qū)周界無人機(jī)的自主監(jiān)控,進(jìn)一步保障重要空域交通安全,其實(shí)質(zhì)屬于目標(biāo)識(shí)別領(lǐng)域。目前,該領(lǐng)域的典型成果是LeNet-5識(shí)別算法[9],該算法是一種用于識(shí)別手寫數(shù)字的卷積神經(jīng)網(wǎng)絡(luò),通過對(duì)0到9十個(gè)數(shù)字的各種形態(tài)圖像進(jìn)行訓(xùn)練,實(shí)現(xiàn)將任意數(shù)字的手寫體進(jìn)行準(zhǔn)確分類的目的,且準(zhǔn)確率為98%以上。該方案是深度學(xué)習(xí)應(yīng)用于目標(biāo)識(shí)別領(lǐng)域的成功案例,為無人機(jī)目標(biāo)識(shí)別的研究提供了重要參考價(jià)值。
由于禁飛區(qū)周界監(jiān)控系統(tǒng)中圖像信息量較豐富,且無人機(jī)的種類和飛行姿態(tài)也越來越具有多樣性,傳統(tǒng)識(shí)別方法識(shí)別難度較大。因此,引入深度學(xué)習(xí)方法提高目標(biāo)識(shí)別效率,其總體框圖如圖2所示。首先將獲取的圖像數(shù)據(jù)進(jìn)行預(yù)處理并劃分為訓(xùn)練集和測(cè)試集,然后將訓(xùn)練集和測(cè)試集共同輸入到深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行處理,訓(xùn)練集用于網(wǎng)絡(luò)的特征學(xué)習(xí)及訓(xùn)練,測(cè)試集用于識(shí)別效率的檢驗(yàn)。
圖2 無人機(jī)識(shí)別總體框圖
用于圖2無人機(jī)識(shí)別的數(shù)據(jù)有無人機(jī)和非無人機(jī)兩類圖像,其獲取方式及數(shù)量如表1。
表1 數(shù)據(jù)獲取方法
表1中Caltech101數(shù)據(jù)庫[10]由加利福尼亞州理工學(xué)院Li等人創(chuàng)建,包括平均分辨率為300×200的102類,9146幅圖像。
目前,開源的深度學(xué)習(xí)數(shù)據(jù)集中多為戰(zhàn)機(jī)和客機(jī)類,無人機(jī)類圖像較少,而現(xiàn)在的重要空域(如機(jī)場(chǎng))周界均設(shè)有全方位監(jiān)控系統(tǒng),因此,無人機(jī)類圖像通過模擬機(jī)場(chǎng)監(jiān)控網(wǎng)絡(luò)進(jìn)行采集。如圖3所示,整個(gè)監(jiān)控網(wǎng)絡(luò)包括多個(gè)監(jiān)測(cè)區(qū)[11],每個(gè)監(jiān)測(cè)區(qū)由多個(gè)攝像機(jī)構(gòu)成,通過多臺(tái)攝像機(jī)交叉覆蓋監(jiān)控,對(duì)目標(biāo)區(qū)域進(jìn)行全方位監(jiān)控。在實(shí)際應(yīng)用時(shí),可根據(jù)禁飛區(qū)域范圍改變攝像機(jī)的數(shù)量、放置地點(diǎn)以及拍攝焦距,調(diào)整監(jiān)控范圍。
圖3 圖像采集網(wǎng)絡(luò)
輸入數(shù)據(jù)的尺寸規(guī)格與深度學(xué)習(xí)網(wǎng)絡(luò)中卷積核的選取密切相關(guān),輸入圖像太大,訓(xùn)練參數(shù)就會(huì)大幅增多,輸入圖像太小,又會(huì)引起圖像細(xì)節(jié)特征的丟失。因此,對(duì)于輸入數(shù)據(jù)的預(yù)處理操作主要有以下兩點(diǎn):
(1)樣本大小
由表1知,由于兩類實(shí)驗(yàn)數(shù)據(jù)來源不同,所以圖像大小也不同。深度學(xué)習(xí)網(wǎng)絡(luò)的輸入數(shù)據(jù)需統(tǒng)一大小,因此在完成數(shù)據(jù)采集的基礎(chǔ)上,統(tǒng)一將輸入數(shù)據(jù)大小轉(zhuǎn)換為256×256像素,以便完成無人機(jī)目標(biāo)識(shí)別的后續(xù)步驟。
(2)樣本數(shù)量
通過深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行無人機(jī)目標(biāo)識(shí)別時(shí)需要大量樣本數(shù)據(jù),若全部采用圖像采集網(wǎng)絡(luò)獲取無人機(jī)圖像,工作量將會(huì)非常大。因此,通過對(duì)部分無人機(jī)圖像進(jìn)行翻轉(zhuǎn)、調(diào)整對(duì)比度等數(shù)據(jù)增強(qiáng)方式,可以使無人機(jī)類樣本集擴(kuò)大至1100張。
卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)中用于識(shí)別二維圖形的一種特殊的圖像識(shí)別方法,屬于效率較高的多層前向反饋網(wǎng)絡(luò)。該網(wǎng)絡(luò)結(jié)構(gòu)對(duì)平移、比例縮放、傾斜等變形具有高度不變性,且通過局部連接、參數(shù)共享、下采樣和多卷積層的計(jì)算減少了網(wǎng)絡(luò)模型的訓(xùn)練參數(shù),降低了其復(fù)雜度,提高了訓(xùn)練速度[12]。卷積神經(jīng)網(wǎng)絡(luò)中每層均由多個(gè)二維平面組成,每個(gè)平面由多個(gè)獨(dú)立神經(jīng)元組成,通過多個(gè)卷積層和下采樣層構(gòu)建多層網(wǎng)絡(luò),模擬人腦視覺的逐層處理機(jī)制,對(duì)圖像進(jìn)行不同層次特征的提取。
卷積神經(jīng)網(wǎng)絡(luò)的經(jīng)典模型LeNet-5最早應(yīng)用于手寫數(shù)字識(shí)別,輸入為32×32的圖像,輸出分類量為10。對(duì)比于手寫數(shù)字識(shí)別,無人機(jī)類特征較復(fù)雜,輸出分類量較少。如果用LeNet-5直接進(jìn)行無人機(jī)圖像樣本訓(xùn)練,并不能達(dá)到很好的效果。因此,針對(duì)禁飛區(qū)無人機(jī)目標(biāo)識(shí)別的特點(diǎn),對(duì)經(jīng)典模型LeNet-5的改進(jìn)操作有以下三點(diǎn):
(1)由于輸入的無人機(jī)樣本特征類型比手寫數(shù)字復(fù)雜,且特征提取與目標(biāo)識(shí)別效果密切相關(guān),因此,第一次卷積過程中的卷積核大小由5×5改為9×9,且滑動(dòng)步長(zhǎng)由1改為2,由此提高無人機(jī)圖像特征的提取質(zhì)量。
(2)無人機(jī)識(shí)別網(wǎng)絡(luò)輸出的類別數(shù)為2類,因此,輸出層神經(jīng)元的個(gè)數(shù)由10改為2。
(3)將激活函數(shù)Sigmoid改為ReLu函數(shù),ReLu函數(shù)在深層網(wǎng)絡(luò)中的收斂速度和工作效率均高于Sigmoid函數(shù)。
改進(jìn)后的卷積神經(jīng)網(wǎng)絡(luò)如圖4,圖中x為輸入圖像,當(dāng)x的尺寸大小為m×n,隨機(jī)采樣大小為x×y,隱層節(jié)點(diǎn)個(gè)數(shù)為t時(shí),則經(jīng)過學(xué)習(xí)得到的特征數(shù)目
輸入層x是輸入的圖像,本實(shí)驗(yàn)的輸入是256×256的樣本圖片。H1層(卷積層)通過9×9卷積核和大小為2的滑動(dòng)步長(zhǎng)提取6組大小為124×124的特征圖,H2層(下采樣層)按1:2進(jìn)行下采樣得到6組大小為62×62的特征圖,H3層(卷積層)通過5×5卷積核和大小為1的滑動(dòng)步長(zhǎng)提取12組大小為58×58的特征圖,H4(下采樣層)同樣按1:2進(jìn)行下采樣得到12組大小為29×29的特征圖,H5層(全連接)共有10092個(gè)單元,分別與H4的對(duì)應(yīng)單元相連,H6層(全連接)包括兩個(gè)分類單元,輸出層連接上層的分類單元,輸出分類結(jié)果。
2.3.1 卷積層的構(gòu)造
圖4 改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)整體結(jié)構(gòu)圖
圖4中H1和H3層是通過卷積進(jìn)行特征提取的濾波過程,稱為卷積層。輸入層到卷積層的連接和計(jì)算過程如圖5(a),下采樣層到卷積層的構(gòu)造過程如圖5(b)所示。
圖5 卷積層構(gòu)造示意圖
卷積層H1的輸出特征信號(hào)為:
卷積層H3通過從H2選擇多個(gè)下采樣特征圖和多個(gè)卷積核進(jìn)行計(jì)算。設(shè)每次從H2選擇r個(gè)下采樣特征圖,分別用h2,αi(1≤i≤r)表示,則卷積層H3的輸出特征信號(hào)為:
在式(1)~(2)中,h表示的對(duì)應(yīng)層的單個(gè)卷積特征圖,W表示卷積核,f表示激活函數(shù)。
2.3.2 下采樣層的構(gòu)造
圖4中H2和H4層是對(duì)卷積層輸出的特征信號(hào)進(jìn)行下采樣計(jì)算,因此叫做下采樣層。卷積層到下采樣層的工作過程如圖6所示。
該層以對(duì)應(yīng)的采樣窗口為步長(zhǎng)進(jìn)行掃描采樣,進(jìn)一步減少卷積層的特征維數(shù),縮減輸入數(shù)據(jù)的規(guī)模,抑制過擬合現(xiàn)象,提升特征對(duì)微小畸變、旋轉(zhuǎn)的容忍度,增強(qiáng)算法的性能。下采樣過程為:
其中,g為激活函數(shù),權(quán)值β2一般取值為1,dowm(?)為下采樣函數(shù),偏置γ2一般取值為0矩陣。H4層同理,此處不再贅述。
圖6 下采樣層構(gòu)造示意圖
2.3.3 全連接層的構(gòu)造
全連接層是對(duì)原始信號(hào)的高級(jí)抽象,該層輸出作為最終信號(hào)傳輸?shù)捷敵鰧?,進(jìn)行分類。如圖4所示,H5和H6為全連接層。全連接層后為輸出層,輸出層使用Softmax分類器進(jìn)行數(shù)據(jù)分類,其數(shù)學(xué)表達(dá)如式(4):
2.3.4 激活函數(shù)的選擇
在圖4中的H1-H5層中均選擇Relu函數(shù)作為激活函數(shù),其函數(shù)表達(dá)為[13]:
深度學(xué)習(xí)中常見的三種激活函數(shù)圖像如圖7,圖中實(shí)線部分為ReLu函數(shù),即當(dāng)x<0,f(x)=0,當(dāng)x≥0,f(x)=x。
圖7 三種激活函數(shù)
與Sigmoid、Tanh函數(shù)相比,ReLu函數(shù)具有單側(cè)抑制、興奮邊界寬和稀疏激活性的特點(diǎn)[13],更接近生物大腦處理機(jī)制。在深度網(wǎng)絡(luò)中Relu函數(shù)可以有效縮減訓(xùn)練時(shí)間,提高收斂速度。
基于深度學(xué)習(xí)的禁飛區(qū)無人機(jī)目標(biāo)識(shí)別流程如圖8所示。在完成數(shù)據(jù)獲取、預(yù)處理和網(wǎng)絡(luò)構(gòu)建后,通過深度學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,訓(xùn)練過程采用反向傳播方式進(jìn)行參數(shù)調(diào)整。訓(xùn)練部分分兩步進(jìn)行:
①正向傳遞:由輸入樣本數(shù)據(jù)得到輸出樣本數(shù)據(jù);
②反向調(diào)整:計(jì)算輸出數(shù)據(jù)與標(biāo)簽數(shù)據(jù)的誤差,通過BP算法逐層調(diào)整各項(xiàng)權(quán)值參數(shù),使誤差減小。
圖8 無人機(jī)目標(biāo)識(shí)別流程圖
根據(jù)圖4和圖8,從輸入到輸出的算法計(jì)算過程為:
卷積神經(jīng)網(wǎng)絡(luò)在本質(zhì)上屬于多層前饋網(wǎng)絡(luò),因此權(quán)值和偏置采用反向傳播算法進(jìn)行學(xué)習(xí)和訓(xùn)練。對(duì)于第l個(gè)輸入樣本,卷積層和下采樣層的計(jì)算過程為:
相應(yīng)的反向傳播誤差信號(hào)(或靈敏度)為:
由以上各式可得各權(quán)值和偏置的更新過程為:
在式(7)~(9)中,表示第k層的第i個(gè)輸入特征圖到第j個(gè)輸出特征圖的權(quán)值矩陣,表示第k層的第j個(gè)輸出特征圖的偏置分別表示第k+1層的乘性偏置和加性偏置。
(1)實(shí)驗(yàn)環(huán)境:Intel(R)Xeon(R)CPU,運(yùn)行內(nèi)存為32GB的Win7 64位工作站,編程環(huán)境為MATLAB R2014b。
(2)實(shí)驗(yàn)數(shù)據(jù):按照2.1節(jié)中表1所示的獲取方式及數(shù)量獲得實(shí)驗(yàn)數(shù)據(jù),即2200張256×256像素的圖像數(shù)據(jù),數(shù)據(jù)集中部分圖像如圖9所示。
(3)程序架構(gòu):Caffe架構(gòu)。目前已有多種程序架構(gòu)用于深度學(xué)習(xí)的實(shí)現(xiàn),但Caffe架構(gòu)在識(shí)別分類方向應(yīng)用較為成熟。Caffe[12,13]是一個(gè)集表達(dá)、速度和模塊化于一體的清晰而高效的深度學(xué)習(xí)架構(gòu),同時(shí)其GPU接口加快了程序運(yùn)行,可以有效縮減算法訓(xùn)練時(shí)間。
(4)實(shí)驗(yàn)過程
根據(jù)圖8所示的無人機(jī)目標(biāo)識(shí)別流程圖進(jìn)行實(shí)驗(yàn),其程序代碼的主要結(jié)構(gòu)如下:
Cnn_UAV.m:基于卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行無人機(jī)目標(biāo)識(shí)別的主函數(shù)。
Cnnsetup.m:構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)的函數(shù),初始化卷積核、偏置等參數(shù)。
Cnntrain.m:使用訓(xùn)練樣本對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練的函數(shù)。
Cnnff.m:完成前向訓(xùn)練過程。
Cnnbp.m:計(jì)算目標(biāo)函數(shù),完成網(wǎng)絡(luò)誤差(error)的反向傳遞及梯度的計(jì)算。
Cnnapplygrads.m:更新網(wǎng)絡(luò)的權(quán)值及偏置等參數(shù)。
圖9 數(shù)據(jù)集部分圖像
Cnntest.m:使用測(cè)試樣本測(cè)試當(dāng)前模型的目標(biāo)識(shí)別準(zhǔn)確率。
UAV data.mat:實(shí)驗(yàn)數(shù)據(jù)集。
實(shí)驗(yàn)程序運(yùn)行過程如圖10。
圖10 實(shí)驗(yàn)程序運(yùn)行流程圖
訓(xùn)練過程的主函數(shù)在Cnn_UAV.m中運(yùn)行,導(dǎo)入數(shù)據(jù)集UAV data.mat后,首先通過調(diào)用Cnnsetup.m函數(shù)定義實(shí)驗(yàn)所用的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并進(jìn)行數(shù)據(jù)初始化;然后調(diào)用Cnntrain.m函數(shù)進(jìn)行訓(xùn)練,訓(xùn)練中調(diào)用Cnnff.m函數(shù)完成卷積神經(jīng)網(wǎng)絡(luò)的前向計(jì)算過程,調(diào)用Cnnbp.m計(jì)算目標(biāo)函數(shù)值,以及目標(biāo)函數(shù)對(duì)權(quán)值和偏置的調(diào)整值,通過調(diào)用Cnnapplygrads.m將計(jì)算出來的梯度調(diào)整值加到原始模型中,完成網(wǎng)絡(luò)更新;最后調(diào)用Cnntest.m函數(shù),用測(cè)試樣本對(duì)當(dāng)前模型進(jìn)行識(shí)別率測(cè)試。實(shí)驗(yàn)中識(shí)別誤差率的計(jì)算方法為:
(5)實(shí)驗(yàn)結(jié)果及分析
根據(jù)以上代碼結(jié)構(gòu),首先利用經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行實(shí)驗(yàn),通過“struct('type','c','outputmaps',6,'kernelsize',5)”將第一層卷積層(H1)中的卷積核大小初始化為5×5,且滑動(dòng)步長(zhǎng)初始化為1,依次設(shè)置學(xué)習(xí)率(參數(shù)opta.alpha)為0.1和0.05,分別進(jìn)行10、50、100次迭代實(shí)驗(yàn),并得到不同的識(shí)別誤差率,如表2所示的實(shí)驗(yàn)數(shù)據(jù)即為經(jīng)典模型的實(shí)驗(yàn)結(jié)果。
表2 經(jīng)典模型實(shí)驗(yàn)結(jié)果
由表2知,當(dāng)學(xué)習(xí)率為0.1,迭代100次時(shí),誤差率為2.77%,小于10次及50次迭代時(shí)的誤差率;當(dāng)學(xué)習(xí)率為0.05,迭代100次時(shí),誤差率為4.22%,同樣小于10次及50次迭代的誤差率。當(dāng)?shù)螖?shù)一定時(shí),經(jīng)過對(duì)表2數(shù)據(jù)的橫向比較,可知學(xué)習(xí)率為0.1時(shí),實(shí)驗(yàn)誤差率較低;當(dāng)學(xué)習(xí)率一定時(shí),經(jīng)過對(duì)表2數(shù)據(jù)的縱向比較,可知當(dāng)?shù)螖?shù)為100時(shí),實(shí)驗(yàn)誤差率較低。因此,利用經(jīng)典模型進(jìn)行實(shí)驗(yàn)時(shí),當(dāng)學(xué)習(xí)率為0.1時(shí),迭代100次的識(shí)別誤差率較小。
通過“struct('type','c','outputmaps',6,'kernelsize',9)”將第一層卷積層(H1)中的卷積核大小初始化為9×9,且滑動(dòng)步長(zhǎng)初始化為2,依次設(shè)置學(xué)習(xí)率(參數(shù)opta.alpha)為0.1和0.05,同樣分別進(jìn)行10、50、100次迭代實(shí)驗(yàn),得到不同的識(shí)別誤差率,如表3所示的實(shí)驗(yàn)數(shù)據(jù)即為改進(jìn)模型的實(shí)驗(yàn)結(jié)果。
表3 改進(jìn)模型的實(shí)驗(yàn)結(jié)果
由表3知,當(dāng)學(xué)習(xí)率為0.1時(shí),迭代100次時(shí),誤差率為2.41%,低于10次及50次迭代時(shí)的誤差率;當(dāng)學(xué)習(xí)率為0.05時(shí),迭代100次時(shí),誤差率為3.86%,仍低于10次及50次迭代時(shí)的誤差率。當(dāng)?shù)螖?shù)一定,經(jīng)過對(duì)表3數(shù)據(jù)的橫向比較,可知學(xué)習(xí)率為0.1時(shí),實(shí)驗(yàn)誤差率較低;當(dāng)學(xué)習(xí)率一定,經(jīng)過對(duì)表3數(shù)據(jù)的縱向比較,可知迭代100次時(shí),實(shí)驗(yàn)誤差率較低。即利用改進(jìn)模型進(jìn)行實(shí)驗(yàn)時(shí),當(dāng)學(xué)習(xí)率為0.1時(shí),迭代100次的實(shí)驗(yàn)誤差率較低,此時(shí)誤差率為2.41%,識(shí)別誤差率變化曲線如圖11。
圖11 識(shí)別誤差率變化圖
根據(jù)表2及表3中實(shí)驗(yàn)數(shù)據(jù)的分析結(jié)果,將兩種模型在學(xué)習(xí)率為0.1,迭代100次時(shí)的實(shí)驗(yàn)數(shù)據(jù)進(jìn)行綜合對(duì)比,如表4。
表4 綜合對(duì)比
通過表4數(shù)據(jù)對(duì)比可以發(fā)現(xiàn),在樣本集、學(xué)習(xí)率、迭代次數(shù)等條件相同的情況下,對(duì)于無人機(jī)目標(biāo)識(shí)別,相比于經(jīng)典模型,改進(jìn)后的模型降低了圖像的錯(cuò)誤識(shí)別數(shù)量,同時(shí)提高了目標(biāo)識(shí)別率,經(jīng)過對(duì)二者識(shí)別誤差率進(jìn)行做差運(yùn)算,得出改進(jìn)后模型比經(jīng)典模型提高了0.36%的目標(biāo)識(shí)別率。
為了有效遏制無人機(jī)亂飛現(xiàn)象,將深度學(xué)習(xí)技術(shù)應(yīng)用于禁飛區(qū)無人機(jī)目標(biāo)識(shí)別方法中,構(gòu)建了適用于禁飛區(qū)無人機(jī)特征的深度學(xué)習(xí)網(wǎng)絡(luò),實(shí)現(xiàn)了無人機(jī)目標(biāo)的自主識(shí)別。經(jīng)過實(shí)驗(yàn)驗(yàn)證,當(dāng)學(xué)習(xí)率為0.1,迭代100次時(shí),改進(jìn)后模型的識(shí)別錯(cuò)誤率是2.41%,比直接應(yīng)用經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)模型高出0.36%的識(shí)別率。在網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)上,還是存在一些冗余現(xiàn)象,導(dǎo)致收斂速度慢,后期將繼續(xù)對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行研究,目的在于進(jìn)一步提高模型的工作效率。另外,目前的研究工作僅針對(duì)無人機(jī)識(shí)別,在此基礎(chǔ)上,后期將進(jìn)行禁飛區(qū)預(yù)警方法研究,希望在禁飛區(qū)安全管理領(lǐng)域具有更加廣泛的應(yīng)用。
[1]吳沁怡.我國(guó)無人機(jī)的發(fā)展現(xiàn)狀與展望[J].科技展望,2016,26(12):285-285.
[2]邴麗媛,劉智,蔣余成.基于模糊神經(jīng)網(wǎng)絡(luò)的電力巡線無人機(jī)避障技術(shù)研究[J].長(zhǎng)春理工大學(xué)學(xué)報(bào):自然科學(xué)版,2017,40(3):98-102.
[3]馬巖,曹金成,黃勇,李斌.基于BP神經(jīng)網(wǎng)絡(luò)的無人機(jī)故障診斷專家系統(tǒng)研究[J].長(zhǎng)春理工大學(xué)學(xué)報(bào):自然科學(xué)版,2011,34(04):137-139.
[4]冬月.加強(qiáng)無人機(jī)監(jiān)管的若干思考[J].呼倫貝爾學(xué)院學(xué)報(bào),2017,25(03):42-45.
[5]程家暉.基于深度卷積神經(jīng)網(wǎng)絡(luò)的飛行器圖像識(shí)別算法研究[D].杭州:浙江大學(xué),2017.
[6]何煦.對(duì)低空小型無人機(jī)的對(duì)抗方法研究[J].中國(guó)新通信,2016,18(15):147-149.
[7]Krizhevsky A,Sutskever I,Hinton G E.ImageNet classification with deep convolutional neural networks[C].International Conference on Neural Information Processing Systems.Curran Associates Inc.2012:1097-1105.
[8]吳岸城.神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)[M].北京:電子工業(yè)出版社,2016:66-80.
[9]李斯凡,高法欽.基于卷積神經(jīng)網(wǎng)絡(luò)的手寫數(shù)字識(shí)別[J].浙江理工大學(xué)學(xué)報(bào),2017,37(03):438-443.
[10]傅瑞罡.基于深度學(xué)習(xí)的圖像目標(biāo)識(shí)別研究[D].長(zhǎng)沙:國(guó)防科學(xué)技術(shù)大學(xué),2014.
[11]蔣兆軍,成孝剛,彭雅琴等.基于深度學(xué)習(xí)的無人機(jī)識(shí)別算法研究[J].電子技術(shù)應(yīng)用,2017,43(07):84-87.
[12]趙永科.深度學(xué)習(xí):21天實(shí)戰(zhàn)Caffe[M].北京:電子工業(yè)出版社,2016:15-18.
[13]樂毅,王斌.深度學(xué)習(xí):Caffe之經(jīng)典模型詳解與實(shí)戰(zhàn)[M].北京:電子工業(yè)出版社,2016:15-17.