• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度學(xué)習(xí)的小目標(biāo)檢測與識(shí)別

    2020-12-02 01:54:32冷佳旭劉瑩
    關(guān)鍵詞:注意力物體卷積

    冷佳旭,劉瑩*

    1.中國科學(xué)院大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,北京 100089

    2.中國科學(xué)院大學(xué)數(shù)據(jù)挖掘與高性能計(jì)算實(shí)驗(yàn)室,北京 101400

    引言

    目標(biāo)檢測是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)重要研究方向,幾十年來也一直都是一個(gè)活躍的研究難題。如圖1所示,給定一張圖像,目標(biāo)檢測的任務(wù)是找出圖像中感興趣的區(qū)域,確定目標(biāo)的位置和大小,并且判斷目標(biāo)所屬類別。作為圖像理解和計(jì)算機(jī)視覺的基石,目標(biāo)檢測是解決分割、場景理解、目標(biāo)追蹤、圖像描述、事件檢測和活動(dòng)識(shí)別等更復(fù)雜更高層次的視覺任務(wù)的基礎(chǔ)。隨著深度學(xué)習(xí)的快速發(fā)展,目標(biāo)檢測算法[1-5]也取得了重大突破。目標(biāo)檢測在人工智能和信息技術(shù)的許多領(lǐng)域都有廣泛的應(yīng)用,包括機(jī)器人視覺、消費(fèi)電子產(chǎn)品、安保、自動(dòng)駕駛、人機(jī)交互、基于內(nèi)容的圖像檢索、智能視頻監(jiān)控和增強(qiáng)現(xiàn)實(shí)等。

    圖1 目標(biāo)檢測Fig.1 Object detection

    盡管目標(biāo)檢測算法已經(jīng)取得了不錯(cuò)表現(xiàn),但小目標(biāo)(通常定義像素30×30 以下的目標(biāo)為小目標(biāo))檢測仍然是一個(gè)急需解決的問題。小目標(biāo)通常特征不明顯,可利用信息較少,并且受到光照、遮擋等因素的干擾。然而,小目標(biāo)的檢測是極其重要和極具價(jià)值的。例如,準(zhǔn)確地檢測出機(jī)場跑道上微小物體(螺帽、螺釘、墊圈、釘子、保險(xiǎn)絲等)將避免重大的經(jīng)濟(jì)損失;準(zhǔn)確地檢測出監(jiān)控區(qū)域的小目標(biāo)和對其行為進(jìn)行分析將避免突發(fā)事件的發(fā)生,從而提高安防系數(shù)。可見,研究小目標(biāo)的檢測是非常有意義的。

    為了提升小目標(biāo)的檢測與識(shí)別性能,一些基于深度學(xué)習(xí)的方法已紛紛被提出。所有針對小目標(biāo)檢測與識(shí)別的方法大致可以歸納為以下幾類:

    ● 特征融合[6-10]:通過融合卷積神經(jīng)網(wǎng)絡(luò)中不同層的特征圖來增強(qiáng)小目標(biāo)的特征表示;

    ● 上下文利用[11-15]:利用小目標(biāo)周圍和圖像的全局信息來輔助小目標(biāo)的檢測和識(shí)別;

    ● 注意力機(jī)制[16-20]:通過模擬人類的注意力機(jī)制,提取出小目標(biāo)中具有鑒別力的特征,從而提高模型的識(shí)別能力。

    通過以上方式可以大幅度提升小目標(biāo)的檢測與識(shí)別性能,但這些方法仍有不足。比如,特征融合通常是單向的,上下文信息的利用并不充分,注意力的學(xué)習(xí)不夠準(zhǔn)確等,這些問題嚴(yán)重影響了小目標(biāo)的檢測和識(shí)別準(zhǔn)確率。因此,本文有針對性的對這三類方法分別進(jìn)行改進(jìn),具體研究內(nèi)容如下:

    (1)一種雙向特征融合方法。在經(jīng)典的單級目標(biāo)檢測算法SSD的基礎(chǔ)上,通過特征融合的方式,將不同層之間的特征圖進(jìn)行融合。不同于現(xiàn)有的特征融合方法,本文中融合方式是雙向的,不僅從深層向淺層進(jìn)行信息傳遞,也從淺層向深層進(jìn)行信息傳遞。

    (2)上下文學(xué)習(xí)網(wǎng)絡(luò)。通過設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)來捕捉圖像中物體與物體、物體和場景的關(guān)系,包括了局部上下文信息和全局上下文信息。

    (3)注意力轉(zhuǎn)移模型。為了更好地捕捉圖像中具有鑒別力的特征,通過迭代的方式來逐步地定位圖像中有利于目標(biāo)識(shí)別的區(qū)域。在每一次迭代中,都會(huì)生成對應(yīng)的注意力圖,并將其作用于下一次迭代。也就意味著,本文的注意力是在不斷轉(zhuǎn)移的,并且注意力的轉(zhuǎn)移不是隨機(jī)的,而是與上一次的注意力息息相關(guān)的。

    為了證明提出方法的有效性,本文將提出的方法融入到現(xiàn)有的目標(biāo)檢測框架中,并在公共數(shù)據(jù)集PASCAL VOC 進(jìn)行了實(shí)驗(yàn)驗(yàn)證。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的方法大幅度提升了目標(biāo)的檢測性能,尤其是小目標(biāo)的檢測性能。

    1 相關(guān)工作

    目前基于深度學(xué)習(xí)的方法已經(jīng)在目標(biāo)檢測領(lǐng)域占領(lǐng)了主導(dǎo)地位。目標(biāo)檢測算法大致可以分為兩大類:兩級目標(biāo)檢測[1-3]和單級目標(biāo)檢測[5,10]。兩級目標(biāo)檢測算法將檢測任務(wù)拆解為目標(biāo)定位和目標(biāo)識(shí)別,首先在圖像上生成大量的候選框,然后對候選框進(jìn)行分類識(shí)別。單級目標(biāo)檢測算法將檢測任務(wù)簡化為回歸任務(wù),直接在圖像上回歸出目標(biāo)所在位置以及對應(yīng)的類別。相比較而言,兩級目標(biāo)檢測在檢測準(zhǔn)確率上有優(yōu)勢,而單級目標(biāo)檢測在檢測速度上有明顯的優(yōu)勢。為了提升小目標(biāo)在復(fù)雜場景下[21]的檢測性能,研究學(xué)者從不同方面對小目標(biāo)檢測算法進(jìn)行了改進(jìn)。

    1.1 特征融合

    特征融合是提升小目標(biāo)檢測的一種重要手段。許多基于深度學(xué)習(xí)的檢測算法也嘗試了通過融合神經(jīng)網(wǎng)絡(luò)中不同層的特征來提升小目標(biāo)的特征表達(dá)能力。文獻(xiàn)[22]提出一種Inside-Outside Network (ION)方法。該方法首先從卷積神經(jīng)網(wǎng)絡(luò)的不同層中裁剪出候選區(qū)域特征,然后通過ROI Pooling 將不同尺度的特征區(qū)域進(jìn)行尺度歸一化,最后將這些多尺度特征進(jìn)行融合,從而提升區(qū)域特征表達(dá)能力。

    HyperNet[23]提出了一種類似于ION 思想的方法。該方法精心設(shè)計(jì)了高分辨率的超特征圖,通過整合中間層和淺層特征來生成候選區(qū)域和目標(biāo)檢測。該方法中通過利用反卷積層來向上采樣深層特征圖,并通過批標(biāo)準(zhǔn)化層來對輸入特征圖進(jìn)行標(biāo)準(zhǔn)化。構(gòu)建的超特征圖還可以隱式地對來自不同層的上下文信息進(jìn)行編碼。文獻(xiàn)[24]受到細(xì)粒度分類算法的啟發(fā),這些算法集成了高階表示,而不是利用候選目標(biāo)的簡單一階表示。該方法提出了一種新的多尺度位置感知和表示框架,該框架能夠有效地捕獲候選特征的高階統(tǒng)計(jì)量,并生成更具區(qū)分性的特征表示。組合特征表示更具描述性,為分類和定位提供了語義和空間信息。FCN[25]使用跳躍連接方式來融合淺層和深層的特性,以獲得更好的特征表達(dá)。目前,F(xiàn)PN[26]是最流行的利用多尺度特征的網(wǎng)絡(luò),它引入了一種自底向上、自頂向下的結(jié)構(gòu),將相鄰層的特征結(jié)合起來以提高性能。該方法結(jié)構(gòu)可以分為三個(gè)部分:自底向上(圖2左)、自頂向下(圖2右)和橫向連接。自底向上就是一個(gè)前向的過程,生成一些不同尺度的特征圖。自頂向下就是一個(gè)上采樣的過程,通過橫向連接將上采樣的結(jié)果和自底向上生成的相同大小的特征圖進(jìn)行融合。通過這種方式,將深層特征和淺層特征進(jìn)行了有效的融合,從而提高特征表達(dá)能力。與FPN 類似,在單級目標(biāo)檢測SSD的框架下,文獻(xiàn)[27]提出一種類似彩虹連接的方法來實(shí)現(xiàn)特征融合。

    圖2 FPN的網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 The network structure of FPN

    1.2 上下文學(xué)習(xí)

    上下文信息是我們理解目標(biāo)特征信息的一種重要的補(bǔ)充信息,充分利用上下文信息將幫助我們提升小目標(biāo)的檢測性能。在深度學(xué)習(xí)之前,已有研究[28-30]證明通過對上下文進(jìn)行合適的建??梢愿倪M(jìn)目標(biāo)檢測算法。隨著深度神經(jīng)網(wǎng)絡(luò)的廣泛應(yīng)用,許多研究[31-33]也試圖將目標(biāo)周圍的上下文集成到深度神經(jīng)網(wǎng)絡(luò)中。通常,它們利用手動(dòng)設(shè)計(jì)的上下文窗口中的附加上下文特征來增強(qiáng)特征表示。上下文窗口通常比相應(yīng)的候選區(qū)域稍大或稍小。通過提取上下文窗口中的特征信息,并將這些上下文信息用于增強(qiáng)對應(yīng)候選區(qū)域的特征表示。但是,由于上下文窗口通常是通過手動(dòng)設(shè)計(jì)的,這種方式嚴(yán)重限制了上下文信息提取的范圍,很有可能丟失一些重要的上下文信息。一些研究[34-35]試圖使用遞歸神經(jīng)網(wǎng)絡(luò)來編碼上下文信息,而不是使用上下文窗口。文獻(xiàn)[22]提出了一種沒有使用上下文窗口的方法,該方法在特征圖上沿左、右、上、下四個(gè)方向進(jìn)行上下文信息傳輸,以捕獲有價(jià)值的上下文。然而,該方法使模型變得復(fù)雜,并且在訓(xùn)練時(shí)需要仔細(xì)初始化參數(shù)。文獻(xiàn)[36]提出了一種空間記憶網(wǎng)絡(luò),該網(wǎng)絡(luò)通過多次記憶迭代有效地對實(shí)例級上下文進(jìn)行建模。在此之后,文獻(xiàn)[37]提出了一個(gè)迭代視覺推理框架,以此來捕捉場景中目標(biāo)的上下文關(guān)系。由于空間和語義推理被集成到框架中,文獻(xiàn)[37]中的迭代視覺推理在具有挑戰(zhàn)的數(shù)據(jù)集COCO[21](該數(shù)據(jù)集包含難以檢測的對象,例如小的、被遮擋的和變形的目標(biāo))上獲得了非常不錯(cuò)的檢測性能。

    1.3 注意力機(jī)制

    深度學(xué)習(xí)中的注意來源于人類視覺系統(tǒng)的注意機(jī)制。人腦在接收到視覺信息、聽覺信息等外部信息時(shí),并不是對所有信息進(jìn)行處理和理解,而是只關(guān)注一些重要或有趣的信息,這有助于濾除干擾信息,從而提高信息處理效率。

    受到人類視覺注意力機(jī)制的啟發(fā),研究學(xué)者提出了許多算法來模擬人類的注意機(jī)制。最近,人們嘗試性地將注意力應(yīng)用到深層神經(jīng)網(wǎng)絡(luò)中[38-44]。深度玻爾茲曼機(jī)[45]在訓(xùn)練階段,通過其重構(gòu)過程包含了自上而下的注意力。注意機(jī)制也被廣泛應(yīng)用于遞歸神經(jīng)網(wǎng)絡(luò)(RNN)和長期短期記憶(LSTM)[46]中,來處理順序決策任務(wù)[47-49]。注意力機(jī)制有多種實(shí)現(xiàn)形式,大致可分為軟注意和硬注意。其中最具代表性的基于硬注意力的是遞歸注意力模型(RAM)[50],它按時(shí)間順序處理輸入,并在圖像中定位注意區(qū)域。該模型減少了不必要信息的干擾和噪聲的影響,同時(shí)降低了計(jì)算成本。由于基于硬注意力的識(shí)別模型需要對焦點(diǎn)區(qū)域進(jìn)行預(yù)測,因此在訓(xùn)練中通常采用強(qiáng)化學(xué)習(xí),這會(huì)導(dǎo)致收斂困難?;谲涀⒁獾目晌⒛P涂梢酝ㄟ^反向傳播進(jìn)行訓(xùn)練。考慮到軟注意易于訓(xùn)練的優(yōu)點(diǎn),提出了許多基于軟注意的識(shí)別算法[51-52]。兩級注意網(wǎng)絡(luò)(TLAN)[52]使用DNN 將視覺注意應(yīng)用于細(xì)粒度分類問題。全卷積注意網(wǎng)絡(luò)(FCAN)[53]提出了一種基于強(qiáng)化學(xué)習(xí)的全卷積注意定位網(wǎng)絡(luò),用于自適應(yīng)地選擇多個(gè)任務(wù)驅(qū)動(dòng)的視覺注意區(qū)域。

    1.4 其他方法

    GAN 及其變體[57-58]在許多領(lǐng)域顯示出了不錯(cuò)的效果,并在目標(biāo)檢測中得到了成功的應(yīng)用。Li 等人提出了一種專門針對小目標(biāo)檢測的感知GAN 方法[59],該方法通過生成器和鑒別器相互對抗的方式來學(xué)習(xí)小目標(biāo)的高分辨率特征表示。具體來說,感知GAN的生成器將低分辨率的小區(qū)域特征轉(zhuǎn)換為高分辨率特征,并與能夠識(shí)別真正高分辨率特征的鑒別器競爭。最后,生成器學(xué)會(huì)了為小目標(biāo)生成高質(zhì)量特征的能力。進(jìn)一步地,針對目標(biāo)遮擋和形變問題,Wang 等人提出了一種基于Fast R-CNN的改進(jìn)檢測模型[60],它是由生成的對抗樣本訓(xùn)練而成的。為了增強(qiáng)對遮擋和形變的魯棒性,該模型中引入了自動(dòng)生成包含遮擋和變形特征的網(wǎng)絡(luò)。通過對區(qū)域特征的遮擋和形變處理,檢測模型可以接收到更多的對抗樣本,從而使得訓(xùn)練的模型具有更強(qiáng)的能力。

    此外,一些方法也嘗試通過擺脫錨框的約束來提升小目標(biāo)的檢測性能。Law 等人提出了一種基于關(guān)鍵點(diǎn)的目標(biāo)檢測方法CornerNet[61]。CornerNet 不再需要通過錨框來預(yù)測目標(biāo)的位置,而是將目標(biāo)建模為一對角點(diǎn)(目標(biāo)的左上角和右下角)。在不依賴手工設(shè)計(jì)錨框來匹配目標(biāo)的情況下,CornerNet 在公共數(shù)據(jù)集上取得了不錯(cuò)的表現(xiàn)。然而,由于角點(diǎn)對的錯(cuò)誤匹配,CornerNet 會(huì)預(yù)測出大量錯(cuò)誤的邊界框。為了進(jìn)一步提升檢測精度,Duan 等人在CornerNet的基礎(chǔ)上提出了一種基于中心點(diǎn)的目標(biāo)檢測框架CenterNet[62]。CenterNet 首先預(yù)測兩種類型的角點(diǎn)(左上角和右下角)和中心點(diǎn),然后通過角點(diǎn)匹配確定邊界框,最后利用預(yù)測的中心點(diǎn)來過濾角點(diǎn)不匹配引起的邊界框。

    2 一種雙向特征特征融合方法

    SSD是一種主流的單級目標(biāo)檢測方法,該方法能夠在保證檢測速度的同時(shí),還能保證較高的檢測準(zhǔn)確率。圖3展示了SSD的網(wǎng)絡(luò)結(jié)構(gòu)圖。通過圖3可以發(fā)現(xiàn),盡管SSD 充分利用了不同尺度的特征圖來進(jìn)行目標(biāo)檢測,但是不同層之間是相互獨(dú)立的,并沒有充分利用不同特征圖之間的相關(guān)性。這嚴(yán)重約束了ssd的目標(biāo)檢測性能,尤其是對于可視化特征較少的小目標(biāo)。

    2.1 基于雙向特征融合的SSD

    事實(shí)上,不同尺度特征圖上包含的特征是不相同的。淺層的特征圖中通常包含有豐富的細(xì)節(jié)特征,而深層的特征圖中包含有豐富的語義特征。為了充分利用淺層和深層特征,本文提出了一種雙向特征融合方法,通過由深層到淺層和由淺層到深層的特征信息傳遞,使得用于目標(biāo)檢測的特征圖既包含豐富的細(xì)節(jié)特征,又包含豐富的語義特征。更加特別之處在于,本文提出的雙向特征融合方法能夠使得每個(gè)層都包含有其它層的特征信息,從而大大提高特征表達(dá)能力。

    圖4展示了ESSD(改進(jìn)版SSD)的架構(gòu)圖。通過雙向特征融合的方法增強(qiáng)小目標(biāo)的特征表達(dá),從而提高最終的小目標(biāo)檢測性能。圖4中灰色部分為原始SSD中的操作,其他帶顏色的為ESSD 增加的操作。其中黃色箭頭表示深層向淺層進(jìn)行特征傳遞的過程,紫色箭頭表示淺層向深層進(jìn)行特征傳遞的過程,藍(lán)色部分為雙向特征融合后新生成的特征圖。如后文表1中的檢測結(jié)果所示,通過利用融合后的特征圖構(gòu) 成的特征金字塔,小目標(biāo)可以被準(zhǔn)確地檢測出來。

    圖3 SSD的網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.3 The network structure of SSD

    圖4 ESSD的結(jié)構(gòu)圖Fig.4 The framework of ESSD (Enhanced SSD)

    2.2 雙向特征融合細(xì)節(jié)

    為了進(jìn)一步說明本文是如何對淺層和深層特征進(jìn)行融合的,圖5中給出了特征融合的具體細(xì)節(jié)。如圖5所示,中間層為目標(biāo)層,目標(biāo)是將第一層(具有高分辨率的淺層)特征和第三層(具有低分辨率的深層)特征融合到目標(biāo)層中。為了實(shí)現(xiàn)特征融合,第一步是實(shí)現(xiàn)特征變?yōu)榕c目標(biāo)層特征圖相同的大小2H×2W。之后,通過1×1的卷積操作來統(tǒng)一特征圖的通道數(shù),即將第一層的2H×2W×C 特征圖的C變?yōu)榕c目標(biāo)層相同的通道數(shù)512。同樣地,第三層的2H×2W×D的特征圖的D 變?yōu)?12。考慮到每一層特征圖中特征值的分布是非常不同的,因此在融合之前統(tǒng)一特征值的分布是非常有必要的。在圖5中,通過batch normalization 來實(shí)現(xiàn)不同特征圖中特征值的分布統(tǒng)一。最后,融合來自不同層并且經(jīng)過特殊處理的特征圖,并生成新的具有更強(qiáng)表達(dá)能力的特征圖。

    如圖5所示,特征融合過程包括降采樣、上采樣和融合。下采樣和上采樣有多種方法,如最近鄰插值、雙線性插值和三次插值。最大池法和反卷積可分別用于下采樣和上采樣。為了避免復(fù)雜度的增加,在實(shí)驗(yàn)中選擇了最大池和雙線性插值的降采樣和上采樣。此外,融合模式也是可選擇,如逐元素求和、逐元素求積和1×1 卷積操作。在實(shí)驗(yàn)中,通過1×1 卷積來融合特征圖。采用這種策略可以使網(wǎng)絡(luò)自主學(xué)習(xí)加權(quán)求和的系數(shù),從而實(shí)現(xiàn)更加有效的特征融合。

    圖5 特征融合細(xì)節(jié)Fig.5 Details of feature fusion

    3 上下文學(xué)習(xí)網(wǎng)絡(luò)

    檢測一個(gè)物體需要大量的信息,包括物體自身的細(xì)節(jié)信息及其周圍的環(huán)境信息(上下文信息)。當(dāng)目標(biāo)較大或者特征較為明顯時(shí),單純依靠目標(biāo)自身特征就能很好的完成定位和識(shí)別。然而,當(dāng)目標(biāo)較小(30×30 像素以下)或者特征不明顯時(shí),單純依靠目標(biāo)自身特征就很難完成檢測任務(wù),而此時(shí)圖像中的上下文信息成為了重要補(bǔ)充信息來源。目前主流的檢測算法主要是利用目標(biāo)自身特征信息來進(jìn)行目標(biāo)檢測,這種方式嚴(yán)重限制了目標(biāo)檢測的準(zhǔn)確率。本文提出了一個(gè)上下文學(xué)習(xí)網(wǎng)絡(luò),該網(wǎng)絡(luò)的目標(biāo)是捕捉對象之間的成對關(guān)系和每個(gè)對象的全局上下文。該網(wǎng)絡(luò)由兩個(gè)子網(wǎng)絡(luò)組成:三層感知機(jī)和兩層卷積神經(jīng)網(wǎng)絡(luò)。首先,為了捕獲“成對”目標(biāo)之間的上下文關(guān)系,本文設(shè)計(jì)了三層的感知機(jī)。然后,通過兩層的卷積神經(jīng)網(wǎng)絡(luò)對成對的上下文關(guān)系進(jìn)行聚合,進(jìn)一步學(xué)習(xí)全局上下文。最后,得到具有豐富上下文信息的上下文特征圖,這些信息對于準(zhǔn)確的目標(biāo)檢測是非常有價(jià)值的。本文所提出的上下文學(xué)習(xí)網(wǎng)絡(luò)是輕量級的,并且易于嵌入在任何現(xiàn)有的網(wǎng)絡(luò)中用于目標(biāo)檢測框架中。在本文中,將其嵌入Faster R-CNN的框架中。

    3.1 上下文學(xué)習(xí)網(wǎng)絡(luò)

    當(dāng)目標(biāo)處于簡單場景或者相似場景,并且目標(biāo)外觀不存在嚴(yán)重變化時(shí),單純依靠目標(biāo)自身特征就能很好地完成定位和識(shí)別。但是,當(dāng)目標(biāo)的可視信息被損壞、模糊或者不完整(例如:一幅圖像中包含噪聲、不良照明條件或者目標(biāo)被遮擋或截?cái)啵?,單純依靠目?biāo)自身特征就很難完成檢測任務(wù),而此時(shí)可視上下文信息就成為了信息的重要來源。通常地,某些目標(biāo)類經(jīng)常出現(xiàn)在特定的情況下(比如,飛機(jī)出現(xiàn)在天空、盤子出現(xiàn)在桌面上),或者經(jīng)常與其他類別的目標(biāo)同時(shí)出現(xiàn)(比如,棒球和棒球棒)。鑒于上下文信息的重要,我們提出了一種上下文學(xué)習(xí)網(wǎng)絡(luò),該網(wǎng)絡(luò)通過學(xué)習(xí)局部和全局的上下文信息來增強(qiáng)卷積特征圖的表達(dá)能力。為了更好地說明上下文信息的作用,本文通過數(shù)學(xué)表達(dá)式來進(jìn)行闡述。假設(shè)在圖像I中有一些物體0=[01,01,…,0N],其中N是物體的總個(gè)數(shù)。我們的目標(biāo)是檢測出圖像中的所有物體,這個(gè)過程可以通過以下公式來描述:

    其中,M是最大化對數(shù)似然估計(jì)L的模型,O1:N表示N個(gè)物體[01,01,…,0N]。為了利用物體之間的關(guān)系,對公式(1)進(jìn)行等價(jià)變化,

    進(jìn)一步地,在公式(2)的基礎(chǔ)上,本文增加上下文學(xué)習(xí)模型到目標(biāo)函數(shù)中,目標(biāo)函數(shù)近似為:

    其中,上下文模型S和目標(biāo)檢測模型M聯(lián)合進(jìn)行優(yōu)化。公式(3)表明,可以通過設(shè)計(jì)復(fù)雜的網(wǎng)絡(luò)來提取物體自身的細(xì)節(jié)特征,以此提升目標(biāo)的檢測性能,還可以通過挖掘物體之間的上下文關(guān)系來協(xié)助目標(biāo)的檢測。

    基于以上考慮,本文提出一種上下文學(xué)習(xí)網(wǎng)絡(luò),該網(wǎng)絡(luò)致力于學(xué)習(xí)圖像中物體與物體和物體與場景之間的關(guān)系。本文提出的上下文學(xué)習(xí)網(wǎng)絡(luò)主要包括一個(gè)三層的感知機(jī)和兩層的卷積神經(jīng)網(wǎng)絡(luò)。上下文學(xué)習(xí)網(wǎng)絡(luò)的計(jì)算量主要集中于三層感知機(jī)中。三層感知機(jī)主要學(xué)習(xí)物體與物體之間的關(guān)系。該模塊學(xué)習(xí)的是物體兩兩之間的關(guān)系。因此,可以通過使用GPU 并行計(jì)算來提速。在學(xué)習(xí)物體兩兩之間的關(guān)系以后,將其通過設(shè)計(jì)的兩層卷積神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)場景與每個(gè)物體間的關(guān)系。由于我們的輸入和輸出在維度上沒有發(fā)生任何改變,因此,上下文學(xué)習(xí)網(wǎng)絡(luò)可以作為一個(gè)基礎(chǔ)模塊,靈活地應(yīng)用于任何存在的網(wǎng)絡(luò)。原則上來說,我們的方法是現(xiàn)有基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測方法的補(bǔ)充。在本節(jié)的余下部分,本文將詳細(xì)介紹提出的上下文學(xué)習(xí)網(wǎng)絡(luò)。

    圖6展示了上下文學(xué)習(xí)網(wǎng)絡(luò)的所有細(xì)節(jié)信息。上下文學(xué)習(xí)網(wǎng)絡(luò)的輸入是通過卷積原始圖像得到的特征圖。假設(shè)我們獲得了d×d×k的特征圖,其中d×d表示特征圖的大小,k表示特征圖的個(gè)數(shù)。在d×d的特征圖中,每一個(gè)k維特征向量對應(yīng)一個(gè)坐標(biāo),以揭示其相對空間位置。由于在不同的圖像中,物體個(gè)數(shù)是不相同的,并且我們很難知道哪些圖像特征構(gòu)成一個(gè)物體。因此,上下文學(xué)習(xí)網(wǎng)絡(luò)將d×d特征圖中的每個(gè)k維的特征向量當(dāng)作一個(gè)物體,如圖6所示。這也就意味著一個(gè)物體可以是背景、真實(shí)物體、物體之間的合并、物體與背景之間合并等。這種設(shè)計(jì)方式使得我們的模型在學(xué)習(xí)過程中具有更大的靈活性。

    圖6 上下文學(xué)習(xí)網(wǎng)絡(luò)Fig.6 Context learning network

    為了學(xué)習(xí)所有兩兩成對物體之間的關(guān)系,本文設(shè)計(jì)了一個(gè)三層的感知機(jī),其中每一層的神經(jīng)元個(gè)數(shù)為512,并且隨后緊跟非線性激活函數(shù)ReLU。其中對于每一個(gè)物體(k維特征向量),我們將其與其它物體兩兩連接構(gòu)成一個(gè)2倍長的特征向量,并通過設(shè)計(jì)的感知機(jī)學(xué)習(xí)兩兩之間的關(guān)系。在通過感知機(jī)后,我們得到了N×(N-1)/2個(gè)512 維的特征向量,其中每一個(gè)特征向量表示了物體兩兩之間關(guān)系。這種方式只是考慮了局部物體級別的上下文,而忽略了全局圖像級別的上下文。因此,我們設(shè)計(jì)了一個(gè)兩層的卷積神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)物體與全局場景之間關(guān)系。對于每一個(gè)物體,我們將其與其它物體的關(guān)系特征向量進(jìn)行融合,從而學(xué)習(xí)到其與整個(gè)場景之間的關(guān)系??紤]到場景不同位置的不同物體對指定物體的類別判斷的影響程度是不相同的,我們對不同物體賦予不同的權(quán)重,該權(quán)重也是通過網(wǎng)絡(luò)學(xué)習(xí)而來的。

    對于每一個(gè)物體,上下文學(xué)習(xí)網(wǎng)絡(luò)首先將其通過感知機(jī)得到的N-1個(gè)512 維特征向量進(jìn)行串聯(lián)。之后,將其通過兩個(gè)卷積核大小為1×3的卷積層,其中卷積核個(gè)數(shù)分別為256和512。最后,通過一個(gè)1×1的卷積操作將其進(jìn)行通道融合,從而使得輸出的512 維特征向量包含有豐富的全局上下文信息。可以發(fā)現(xiàn),輸出的上下文特征圖的每一個(gè)位置與輸入的卷積特征圖是相對應(yīng)的。因此,我們可以輕易地融合卷積特征圖和上下文特征圖,從而得到一個(gè)更具特征表達(dá)能力的特征圖。

    3.2 基于上下文學(xué)習(xí)的Faster R-CNN

    本文提出的上下文學(xué)習(xí)網(wǎng)絡(luò)是一個(gè)通用的模塊,它可以應(yīng)用到任何現(xiàn)有的深度卷積神經(jīng)網(wǎng)絡(luò)中。在本小節(jié),我們將提出的上下文學(xué)習(xí)網(wǎng)絡(luò)嵌入到兩級目標(biāo)檢測算法Faster R-CNN中,使得Faster R-CNN 具有感知上下文的能力,從而提高對小目標(biāo)的檢測性能。

    圖7展示了本文如何將上下文學(xué)習(xí)網(wǎng)絡(luò)應(yīng)用于Faster R-CNN的檢測框架中。首先,通過VGG16 進(jìn)行特征提取。然后,通過RPN 生成候選區(qū)域,并基于卷積特征圖生成具有局部和全局上下文信息的上下文特征圖。之后,使用RoI 池化分別為conv5_3特征圖和上下文特征圖中的每個(gè)候選區(qū)域生成一個(gè)固定長度的特征描述符,并對每個(gè)描述符對進(jìn)行批量規(guī)范化、串聯(lián)和降維(1×1 卷積)以生成最終的描述符。每個(gè)生成的描述符緊接著由兩個(gè)完全連接(fc)層進(jìn)行處理,最終得到兩個(gè)輸出:一個(gè)K 類預(yù)測和一個(gè)對邊界框的調(diào)整。

    數(shù)據(jù)輸入:本文選擇VGG16 作為特征提取網(wǎng)絡(luò)。VGG16 由13個(gè)卷積層、5個(gè)最大池化層和2個(gè)全連接層構(gòu)成。通過利用最后全連接層得到的特征向量,可預(yù)測出目標(biāo)的類別和位置。給定一張分辨率為w×h的圖像,將其通過VGG16,從而得到用于目標(biāo)檢測的conv5_3 特征圖。該特征圖的尺寸為w'×h',是原始輸入圖像的1/16。conv5_3 特征圖后續(xù)將作為上下文學(xué)習(xí)網(wǎng)絡(luò)的輸入。

    圖7 具有上下文意識(shí)的Faster R-CNNFig.7 Context-aware Faster R-CNN

    上下文學(xué)習(xí):對于輸入的conv5_3 特征圖,可以得到n=w'*h'個(gè)“物體”,這些物體將作為我們上下文學(xué)習(xí)網(wǎng)絡(luò)的輸入。這也就意味著,通過設(shè)計(jì)的三層感知機(jī)將學(xué)習(xí)到n*(n-1)/2個(gè)關(guān)系,每一個(gè)關(guān)系隱含了物體對之間的上下文信息。對于每一個(gè)物體,我們將學(xué)習(xí)到n-1個(gè)特征向量,每一個(gè)特征向量表示了這個(gè)物體和另一個(gè)物體之間的關(guān)系。之后,利用設(shè)計(jì)的卷積網(wǎng)絡(luò)將這些特征進(jìn)行融合,得到單個(gè)物體與其他所有物體,或者說單個(gè)物體與整個(gè)場景的上下文關(guān)系。最后,輸出與輸入特征圖尺寸相同的上下文特征圖。

    特征融合:通過RPN 生成網(wǎng)絡(luò),生成一系列的候選區(qū)域,在conv5_3 中獲得它們對應(yīng)的卷積特征。此外,本文還通過提出的上文學(xué)習(xí)網(wǎng)絡(luò)獲得每個(gè)位置對應(yīng)的上下文特征。由于conv5_3的卷積特征圖和上下文特征圖具有相同的大小,因此將所有特征進(jìn)行融合以生成新的特征圖是非常容易的。通過融合卷積特征和上下文特征,將使得新特征圖具有更強(qiáng)的特征表達(dá)能力,既包含有目標(biāo)細(xì)粒度特征,又包含有豐富的上下文特征。為了實(shí)現(xiàn)特征融合,本文利用ROI 池化操作使得卷積特征向量和上下文特征向量具有相同的大小。然后,對每個(gè)候選區(qū)域的兩個(gè)特征向量進(jìn)行歸一化、串聯(lián)和通道融合(1×1 卷積),最后得到一個(gè)新的特征表示向量。通過利用新生成特征向量,就可以實(shí)現(xiàn)更加準(zhǔn)確的目標(biāo)定位和類別判斷。

    4 注意力轉(zhuǎn)移模型

    圖像的精準(zhǔn)識(shí)別是一件極具挑戰(zhàn)的事情。目前,存在的方法通過利用深度卷積網(wǎng)絡(luò)已經(jīng)取得了不錯(cuò)的分類結(jié)果。但是,這些方法在面臨圖像中目標(biāo)區(qū)域占比較小時(shí)將會(huì)失效。其原因在于,現(xiàn)有方法在特征提取的過程中是平等考慮圖像中的每個(gè)位置的特征信息的。當(dāng)圖像中目標(biāo)區(qū)域較小時(shí),將會(huì)忽略目標(biāo)區(qū)域本身的特征,從而丟失了一些有利于識(shí)別的關(guān)鍵特征信息。為了提升對小目標(biāo)的識(shí)別,本文提出一種用于圖像識(shí)別的注意力轉(zhuǎn)移模型(ATM)(模擬人類視覺注意力機(jī)制),該網(wǎng)絡(luò)通過迭代的方式能夠有效地捕捉圖像中的關(guān)鍵特征。該網(wǎng)絡(luò)不再是對全圖進(jìn)行處理,而是通過迭代的方式生成不同的注意力區(qū)域。在每一次迭代中,我們都會(huì)生成對應(yīng)的注意力圖,并將其作用于下一次迭代。也就意味著,我們的的注意力是在不斷轉(zhuǎn)移的,并且注意力的轉(zhuǎn)移不是隨機(jī)的,而是與上一次的注意力息息相關(guān)的。最后,我們綜合考慮多個(gè)注意力區(qū)域?qū)崿F(xiàn)精確的圖像分類。

    在觀察一幅圖或者一個(gè)場景的時(shí)候,人類不會(huì)把注意力均勻的分布在每個(gè)區(qū)域。通常,人類首先會(huì)快速定位一些顯著性區(qū)域,然后基于這些區(qū)域,不斷擴(kuò)散和轉(zhuǎn)移注意力。為了模擬人類的這種視覺機(jī)制,本文設(shè)計(jì)了一種注意力轉(zhuǎn)移模型(ATM),該模型通過多次迭代生成不同的注意力圖,每次生成的注意力圖都包含了不同的焦點(diǎn)區(qū)域,并且每次迭代生成的注意力圖不是相互獨(dú)立的,而是相互制約和關(guān)聯(lián)的,當(dāng)前生成的注意力圖是基于上一次注意力圖轉(zhuǎn)移而來的。也就是說,每次迭代我們關(guān)注不同的焦點(diǎn)區(qū)域,并且焦點(diǎn)區(qū)域之間存在推理關(guān)系。如圖8所示。本網(wǎng)絡(luò)主要包括卷積特征提取、生成注意力圖、注意力轉(zhuǎn)移和分類四個(gè)模塊。該網(wǎng)絡(luò)通過迭代的方法在圖像中生成不同的焦點(diǎn)區(qū)域,然后將這些焦點(diǎn)區(qū)域合并生成最終的注意力圖,最后將生成的注意力圖作用于輸入網(wǎng)絡(luò)的特征圖,從而提高模型的特征提取能力。首先,利用一個(gè)全卷積來生成注意力圖。具體地,我們的輸入是通過特征提取網(wǎng)絡(luò)得到的特征圖,輸出是與輸入同等大小的特征圖(單通道)。網(wǎng)絡(luò)結(jié)構(gòu)包括收縮路徑和擴(kuò)張路徑。在收縮路徑中,包括三組卷積層,每組卷積層包含有兩個(gè)同樣大小的特征圖。此外,在每組卷積之后,緊跟一個(gè)2×2 MaxPool。在擴(kuò)張路徑中,通過反卷積操作以實(shí)現(xiàn)上采樣,生成與搜索路徑對稱的有同樣大小的特征圖。最后,通過一個(gè)1×1 conv +sigmoid 實(shí)現(xiàn)通道融合,輸出特征圖。在生成單個(gè)特征圖以后,我們還需要通過多次迭代來生成更多的焦點(diǎn)區(qū)域。因此,基于當(dāng)前狀態(tài)我們需要預(yù)測生成新的注意力圖,即注意力轉(zhuǎn)移。為了使得每次迭代關(guān)注不同的焦點(diǎn)區(qū)域,我們需要對上一次迭代生成的焦點(diǎn)區(qū)域進(jìn)行抑制,具體操作如下:

    其中,F(xiàn)i(x)表示第i次迭代的輸入,Ai(x)表示第i次迭代生成的注意力圖。通過將1-Ai(x)方式獲得上一次迭代的非關(guān)注區(qū)域,并將其重新作用于上次迭代的輸入(點(diǎn)乘操作),從而得到當(dāng)前迭代的輸入。此外,為了使得我們網(wǎng)絡(luò)有類似循環(huán)神經(jīng)網(wǎng)絡(luò)的記憶功能,本文還將上一次迭代中生成的特征圖轉(zhuǎn)移到當(dāng)前迭代中,并將其與當(dāng)前迭代中生成的特征圖進(jìn)行通道融合。最后通過多次迭代,生成不同的特征圖,并對其進(jìn)行融合(逐像素相加操作),從而獲得最終的注意力圖。圖8 中展示了三次迭代生成的焦點(diǎn)以及轉(zhuǎn)移過程。

    圖8 注意力轉(zhuǎn)移模型的細(xì)節(jié)Fig.8 Details of the proposed Attention Transfer Module (ATM)

    表1 ESSD和目前主流方法在PASCAL VOC 2007 上的檢測結(jié)果Table1 Detection results of our ESSD and state-of-the-art detectors on PASCAL VOC 2007

    為了進(jìn)一步觀察本文注意力是如何轉(zhuǎn)移的,可視化了注意力的轉(zhuǎn)移過程,如圖9所示。通過圖9可以發(fā)現(xiàn),ATM 以不斷迭代的方式逐步地定位圖像中的注意力區(qū)域(具有鑒別力的區(qū)域),最后將這些注意力合并在一起,構(gòu)成我們關(guān)注的所有區(qū)域。

    圖9 注意力轉(zhuǎn)移過程Fig.9 The attention transfer process

    5 實(shí)驗(yàn)評估

    5.1 數(shù)據(jù)集介紹

    為了驗(yàn)證本文所提出方法的有效性,我們在目標(biāo)檢測PASCAL VOC 2007和識(shí)別數(shù)據(jù)集CIFAR-100,Caltech-256和CUB-200 進(jìn)行了實(shí)驗(yàn)驗(yàn)證。

    PASCAL VOC 2007:該數(shù)據(jù)集是目標(biāo)檢測中一個(gè)經(jīng)典公開數(shù)據(jù)集,共計(jì)包含9 963 張圖像和21個(gè)種類的目標(biāo)。其中,5 011 張圖像用于訓(xùn)練和4 952張圖片用于算法測試。

    CIFAR-100:這個(gè)數(shù)據(jù)集共有100個(gè)類,每個(gè)類包含600 張圖像。每班有500 張訓(xùn)練圖片和100張測試圖片。CIFAR-100中的100個(gè)類被分為20個(gè)超類。每個(gè)圖像都帶有一個(gè)精細(xì)標(biāo)簽(它所屬的類)和一個(gè)粗標(biāo)簽(它所屬的超類)。

    Caltech-256:該數(shù)據(jù)集是加利福尼亞理工學(xué)院收集整理的數(shù)據(jù)集,該數(shù)據(jù)集選自Google Image 數(shù)據(jù)集,并手工去除了不符合其類別的圖片。在該數(shù)據(jù)集中,圖片被分為256 類,每個(gè)類別的圖片超過80 張。

    CUB-200:該數(shù)據(jù)集包含11 788 張圖片,分為200種鳥類。所有目標(biāo)都使用邊界框、局部位置和屬性標(biāo)簽進(jìn)行注釋。這些注釋信息將有助于驗(yàn)證注意力生成是否合理。

    5.2 實(shí)驗(yàn)平臺(tái)

    本文所提出方法均是在深度學(xué)習(xí)框架Tensorflow下實(shí)現(xiàn)的。模型訓(xùn)練使用內(nèi)存為32G的Xeon 服務(wù)器,GPU是NVIDIA TITAN X,CUDA 版本為8.0和cuDNN 5.1。

    5.3 實(shí)驗(yàn)結(jié)果

    (1)雙向特征融合方法

    表1展示了在PASCAL VOC 數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果。與傳統(tǒng)的SSD 算法相比較,ESSD 在mAP(mean average precision)上大約有3個(gè)百分點(diǎn)的提升,與此同時(shí)保證較高的檢測速度。此外,與兩級目標(biāo)檢測算法Faster R-CNN 相比較,我們的方法無論是在速度還是檢測準(zhǔn)確率上都有明顯的優(yōu)勢。

    (2)上下文學(xué)習(xí)網(wǎng)絡(luò)

    本文在公共數(shù)據(jù)PASCAL VOC 上進(jìn)行了實(shí)驗(yàn)。我們將上下文學(xué)習(xí)網(wǎng)絡(luò)嵌入到Faster R-CNN中,命名為Context-Aware Faster R-CNN。

    通過表2可以發(fā)現(xiàn),在均使用VGG16 作為基礎(chǔ)網(wǎng)絡(luò)時(shí),與Faster R-CNN 相比較,Context-Aware Faster R-CNN 在mAP 上有8.9%的提升。在均使用Residual-101 作為基礎(chǔ)網(wǎng)絡(luò)時(shí),與Faster R-CNN 相比較,Context-Aware Faster R-CNN 在mAP 上 有8.4%的提升。

    表2 Context-Aware Faster R-CNN 在PASCAL VOC 2007測試集上的實(shí)驗(yàn)結(jié)果Table2 Experimental results of Context-Aware Faster R-CNN on PASCAL VOC 2007 test set

    (3)注意力轉(zhuǎn)移模型

    為了證明注意力轉(zhuǎn)移機(jī)制對小目標(biāo)檢測的有效性,本文在公共數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),包括CIFAR-100[54],Caltech-256[55]和CUB-200[56]三個(gè)數(shù)據(jù)集。

    表3展示了在三個(gè)數(shù)據(jù)集上分別的實(shí)驗(yàn)結(jié)果,并與目前基于注意力的方法(TLAN[52],FCAN[53],RACNN[20])進(jìn)行了比較。在CIFAR-100,Caltech-256和CUB-200 三個(gè)數(shù)據(jù)集上,ATM分別取得了82.42%,80.32%和86.12%的準(zhǔn)確率。

    表3 ATM 在CIFAR-100,Caltech-256和CUB-200 三個(gè)數(shù)據(jù)集上的識(shí)別結(jié)果Table3 The recognition results of ATM on CIFAR-100,Caltech-256 and CUB-200

    上述實(shí)驗(yàn)表明,本文所提出的雙向特征融合方法、上下文學(xué)習(xí)網(wǎng)絡(luò)和注意力轉(zhuǎn)移模型對小目標(biāo)的檢測是有效的。實(shí)際上,這三個(gè)算法是相輔相成的,可以集成為一個(gè)整體的網(wǎng)絡(luò)模型。首先,通過雙向特征融合方法提取到較好的目標(biāo)特征表示;然后,通過上下文學(xué)習(xí)網(wǎng)絡(luò)來學(xué)習(xí)上下文信息,并將上下文信息作為目標(biāo)檢測的補(bǔ)充信息;最后,通過注意力轉(zhuǎn)移的方式來提升目標(biāo)的識(shí)別性能。

    5.4 錯(cuò)誤分析

    本文提出方法均是基于錨框機(jī)制的,因此檢測性能嚴(yán)重依賴于錨框尺寸和數(shù)量的設(shè)計(jì)。當(dāng)檢測目標(biāo)與設(shè)計(jì)錨框差異較大時(shí),檢測性能將大幅度下降。此外,本文提出方法對于稠密目標(biāo)的檢測性能較差,會(huì)將多個(gè)小目標(biāo)檢測為一個(gè)目標(biāo)。其原因在于,兩個(gè)(多個(gè))目標(biāo)的水平邊界框的重疊比過大,從而導(dǎo)致檢測框被NMS 消冗。圖10展示了部分較差的檢測結(jié)果。

    圖10 部分較差的檢測結(jié)果Fig.10 Some poor detection results

    6 總結(jié)與未來工作

    針對小目標(biāo)檢測和識(shí)別方法存在的問題,本文從特征融合、上下文學(xué)習(xí)和注意力生成三個(gè)角度來對現(xiàn)有算法進(jìn)行了改進(jìn)。具體地,本文首先提出了一種雙向特征融合方法,通過前向和后向的傳遞不同層的特征信息,從而使得新生成的特征圖同時(shí)包含有豐富的細(xì)粒度特征和語義特征。接下來,為了充分利用目標(biāo)的上下文信息,提出了一種上下文學(xué)習(xí)網(wǎng)絡(luò),通過學(xué)習(xí)成對物體之間的上下文關(guān)系和單個(gè)物體與整個(gè)場景直接的關(guān)系來輔助我們目標(biāo)檢測和識(shí)別。最后,為了更好地識(shí)別物體的類別,提出了一種注意力轉(zhuǎn)移網(wǎng)絡(luò),通過不斷迭代的方式來生成關(guān)注不同區(qū)域的特征圖,從而使得用于分類的特征更加具有鑒別力。為了證明提出方法的有效性,本文在公共數(shù)據(jù)集上進(jìn)行了大量的實(shí)驗(yàn),并將實(shí)驗(yàn)結(jié)果與目前主流方法進(jìn)行了比較。實(shí)驗(yàn)結(jié)果表明,本文所提出的方法在針對小目標(biāo)的檢測和識(shí)別性能上均有明顯的優(yōu)勢。

    后續(xù)的研究主要包括以下兩方面:(1)將這三個(gè)算法融入到一個(gè)目標(biāo)檢測框架中,使之成為一個(gè)完整的小目標(biāo)檢測與識(shí)別的網(wǎng)絡(luò)模型;(2)由于目前的方法都是基于錨框機(jī)制,這些方法的檢測性能嚴(yán)重依賴于錨框的預(yù)定義,因此后續(xù)的研究將嘗試?yán)藐P(guān)鍵點(diǎn)檢測來替代邊界框的回歸。

    利益沖突聲明

    所有作者聲明不存在利益沖突關(guān)系

    猜你喜歡
    注意力物體卷積
    讓注意力“飛”回來
    基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
    深刻理解物體的平衡
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    我們是怎樣看到物體的
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    “揚(yáng)眼”APP:讓注意力“變現(xiàn)”
    傳媒評論(2017年3期)2017-06-13 09:18:10
    A Beautiful Way Of Looking At Things
    為什么同一物體在世界各地重量不一樣?
    一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識(shí)別方法
    满18在线观看网站| 久久久久国产精品人妻aⅴ院| 国产熟女午夜一区二区三区| 亚洲少妇的诱惑av| 三级毛片av免费| 免费高清在线观看日韩| 村上凉子中文字幕在线| 91在线观看av| 欧美黄色淫秽网站| 国产精品自产拍在线观看55亚洲| 国产亚洲精品第一综合不卡| 久久精品亚洲熟妇少妇任你| 精品欧美一区二区三区在线| 亚洲精华国产精华精| 88av欧美| 黑人巨大精品欧美一区二区蜜桃| 亚洲三区欧美一区| 国产精品1区2区在线观看.| 少妇熟女aⅴ在线视频| 人人妻人人澡人人看| 91av网站免费观看| 精品一品国产午夜福利视频| 亚洲成人免费电影在线观看| 亚洲 欧美一区二区三区| 99久久精品国产亚洲精品| 男女下面插进去视频免费观看| 日本 av在线| 国产亚洲精品综合一区在线观看 | 9热在线视频观看99| 亚洲天堂国产精品一区在线| 在线观看日韩欧美| av在线天堂中文字幕| 在线观看免费视频网站a站| 激情视频va一区二区三区| 99国产精品99久久久久| 在线av久久热| 午夜福利在线观看吧| www.999成人在线观看| 黑人巨大精品欧美一区二区蜜桃| 日韩精品中文字幕看吧| 国产人伦9x9x在线观看| 国产欧美日韩综合在线一区二区| 亚洲av第一区精品v没综合| 国产精品久久久人人做人人爽| 麻豆久久精品国产亚洲av| 国产亚洲精品一区二区www| √禁漫天堂资源中文www| 99在线视频只有这里精品首页| 精品国产乱码久久久久久男人| 丁香六月欧美| 999久久久国产精品视频| 每晚都被弄得嗷嗷叫到高潮| 午夜两性在线视频| 国产亚洲av嫩草精品影院| 亚洲九九香蕉| 黄色视频,在线免费观看| 日本 av在线| 亚洲精品久久成人aⅴ小说| 欧美一区二区精品小视频在线| 亚洲va日本ⅴa欧美va伊人久久| 国产aⅴ精品一区二区三区波| 18禁黄网站禁片午夜丰满| 国产精品久久久久久人妻精品电影| 深夜精品福利| 丁香欧美五月| 妹子高潮喷水视频| 久久久久久久久中文| 久久久久国产一级毛片高清牌| 久久九九热精品免费| 精品国产乱码久久久久久男人| 黄片小视频在线播放| 涩涩av久久男人的天堂| 成年版毛片免费区| 一级毛片女人18水好多| 人人妻人人澡人人看| 视频在线观看一区二区三区| 成人免费观看视频高清| 色综合亚洲欧美另类图片| 999久久久国产精品视频| 超碰成人久久| 人成视频在线观看免费观看| av视频免费观看在线观看| 黑人巨大精品欧美一区二区蜜桃| 亚洲专区国产一区二区| 国产亚洲精品av在线| 久久午夜综合久久蜜桃| 女人精品久久久久毛片| 在线观看免费日韩欧美大片| 18禁美女被吸乳视频| 女生性感内裤真人,穿戴方法视频| 日韩 欧美 亚洲 中文字幕| ponron亚洲| 久久午夜亚洲精品久久| 天天添夜夜摸| 人人妻人人爽人人添夜夜欢视频| 韩国精品一区二区三区| 国产亚洲av高清不卡| 国产免费男女视频| 怎么达到女性高潮| 午夜福利成人在线免费观看| 很黄的视频免费| bbb黄色大片| 国产成年人精品一区二区| 亚洲成人精品中文字幕电影| 黄网站色视频无遮挡免费观看| 欧美性长视频在线观看| 国产激情欧美一区二区| 在线播放国产精品三级| 成人国语在线视频| 日韩有码中文字幕| 在线观看午夜福利视频| 免费看美女性在线毛片视频| 国产黄a三级三级三级人| 国产私拍福利视频在线观看| 搡老岳熟女国产| 亚洲全国av大片| 在线观看www视频免费| 国语自产精品视频在线第100页| 欧美日本视频| 日日摸夜夜添夜夜添小说| 欧美中文综合在线视频| 久久久久久亚洲精品国产蜜桃av| 99精品久久久久人妻精品| 免费看十八禁软件| 最近最新中文字幕大全免费视频| 淫秽高清视频在线观看| 亚洲av成人av| 国产精品久久久人人做人人爽| 国产亚洲精品第一综合不卡| 18禁观看日本| 不卡一级毛片| 国产亚洲精品久久久久久毛片| 不卡av一区二区三区| 精品卡一卡二卡四卡免费| 91老司机精品| 国产aⅴ精品一区二区三区波| 国产精品久久电影中文字幕| 亚洲成国产人片在线观看| 精品无人区乱码1区二区| 久久久国产成人免费| www.www免费av| 日韩av在线大香蕉| 香蕉丝袜av| 黑丝袜美女国产一区| 国产一区二区三区综合在线观看| 免费av毛片视频| 一区福利在线观看| 国产一区在线观看成人免费| 午夜免费成人在线视频| 好男人电影高清在线观看| 亚洲精品一区av在线观看| 波多野结衣av一区二区av| 在线观看www视频免费| 在线观看免费视频日本深夜| 国产精品一区二区精品视频观看| 国产精品乱码一区二三区的特点 | 在线视频色国产色| 神马国产精品三级电影在线观看 | 如日韩欧美国产精品一区二区三区| a在线观看视频网站| 亚洲精华国产精华精| 母亲3免费完整高清在线观看| 久久久久久久精品吃奶| 男女下面插进去视频免费观看| 日本a在线网址| 亚洲欧美一区二区三区黑人| 免费女性裸体啪啪无遮挡网站| av在线天堂中文字幕| 亚洲九九香蕉| 级片在线观看| 亚洲精品国产色婷婷电影| 亚洲精品国产色婷婷电影| 级片在线观看| 国产日韩一区二区三区精品不卡| 久久久久精品国产欧美久久久| 久久伊人香网站| 免费久久久久久久精品成人欧美视频| 女人被狂操c到高潮| 国产成人欧美在线观看| 老司机午夜福利在线观看视频| 久久精品国产99精品国产亚洲性色 | 国产高清激情床上av| 久久婷婷人人爽人人干人人爱 | 女人被狂操c到高潮| 成年女人毛片免费观看观看9| 婷婷丁香在线五月| 精品午夜福利视频在线观看一区| 人妻久久中文字幕网| 一卡2卡三卡四卡精品乱码亚洲| 精品久久蜜臀av无| 99久久综合精品五月天人人| av超薄肉色丝袜交足视频| 一级,二级,三级黄色视频| aaaaa片日本免费| 男人操女人黄网站| 99精品久久久久人妻精品| 三级毛片av免费| 在线播放国产精品三级| 精品国产超薄肉色丝袜足j| 亚洲国产欧美网| 黑人操中国人逼视频| 亚洲av片天天在线观看| 欧美乱码精品一区二区三区| 国产精品亚洲美女久久久| www日本在线高清视频| 亚洲专区国产一区二区| 久久久久久免费高清国产稀缺| 999精品在线视频| 丝袜在线中文字幕| 久久久久久人人人人人| 此物有八面人人有两片| 女人高潮潮喷娇喘18禁视频| 久久国产精品男人的天堂亚洲| 日本 av在线| 日韩欧美三级三区| 亚洲激情在线av| 精品乱码久久久久久99久播| 亚洲精品美女久久av网站| 淫秽高清视频在线观看| 51午夜福利影视在线观看| 久久久久久久精品吃奶| 亚洲精华国产精华精| 午夜精品在线福利| 国产成人av教育| 久久久久国产一级毛片高清牌| 在线播放国产精品三级| 国内精品久久久久精免费| netflix在线观看网站| 在线十欧美十亚洲十日本专区| 九色亚洲精品在线播放| 窝窝影院91人妻| 久久国产亚洲av麻豆专区| 国产亚洲欧美98| 欧美成人免费av一区二区三区| 日本三级黄在线观看| 怎么达到女性高潮| 91九色精品人成在线观看| 97人妻天天添夜夜摸| 亚洲欧美激情在线| 亚洲 国产 在线| 中文字幕人成人乱码亚洲影| 免费av毛片视频| 国产亚洲欧美在线一区二区| 日韩欧美免费精品| 久久精品91无色码中文字幕| 亚洲色图 男人天堂 中文字幕| 欧美日韩福利视频一区二区| 国产精品亚洲av一区麻豆| www.熟女人妻精品国产| 成人欧美大片| 757午夜福利合集在线观看| 黄网站色视频无遮挡免费观看| 丁香欧美五月| 美女高潮喷水抽搐中文字幕| 久久久水蜜桃国产精品网| 久久久国产精品麻豆| 精品免费久久久久久久清纯| 一边摸一边抽搐一进一小说| 欧美日韩福利视频一区二区| 婷婷丁香在线五月| 精品久久久久久久久久免费视频| 真人做人爱边吃奶动态| 欧美绝顶高潮抽搐喷水| 一边摸一边做爽爽视频免费| 纯流量卡能插随身wifi吗| 精品国产乱子伦一区二区三区| 免费在线观看完整版高清| 人人妻人人爽人人添夜夜欢视频| 欧美日韩中文字幕国产精品一区二区三区 | 少妇粗大呻吟视频| 国产精品一区二区三区四区久久 | 美女免费视频网站| 宅男免费午夜| 国产精品av久久久久免费| a在线观看视频网站| 免费不卡黄色视频| 精品一区二区三区av网在线观看| 搞女人的毛片| 999久久久精品免费观看国产| 亚洲国产精品sss在线观看| 天堂动漫精品| 国产成人精品无人区| 国产精品美女特级片免费视频播放器 | 天天添夜夜摸| 午夜福利视频1000在线观看 | 天天躁夜夜躁狠狠躁躁| 久久精品aⅴ一区二区三区四区| 国产一区二区激情短视频| 免费人成视频x8x8入口观看| 99精品久久久久人妻精品| 欧美另类亚洲清纯唯美| 精品久久久久久久人妻蜜臀av | 视频区欧美日本亚洲| 1024视频免费在线观看| 操美女的视频在线观看| xxx96com| 久久久久国产精品人妻aⅴ院| 亚洲全国av大片| 午夜免费观看网址| 久久人妻熟女aⅴ| 午夜精品久久久久久毛片777| 一卡2卡三卡四卡精品乱码亚洲| 亚洲中文日韩欧美视频| 一区二区三区激情视频| 国产成人精品久久二区二区免费| 制服人妻中文乱码| 97人妻天天添夜夜摸| 久久精品国产亚洲av香蕉五月| 亚洲黑人精品在线| 日日摸夜夜添夜夜添小说| 国产又色又爽无遮挡免费看| 18禁黄网站禁片午夜丰满| 精品福利观看| 91精品三级在线观看| 中文字幕色久视频| 妹子高潮喷水视频| 国产高清有码在线观看视频 | 亚洲全国av大片| 久久人妻福利社区极品人妻图片| 老司机福利观看| 999久久久国产精品视频| 这个男人来自地球电影免费观看| 国产免费男女视频| 亚洲中文av在线| 国产97色在线日韩免费| 免费无遮挡裸体视频| 亚洲自拍偷在线| 琪琪午夜伦伦电影理论片6080| 视频在线观看一区二区三区| 99久久综合精品五月天人人| 中文字幕高清在线视频| 亚洲精品中文字幕在线视频| 久热这里只有精品99| 国内毛片毛片毛片毛片毛片| 国产极品粉嫩免费观看在线| 久久人人爽av亚洲精品天堂| 老熟妇乱子伦视频在线观看| 午夜影院日韩av| 视频区欧美日本亚洲| 一区在线观看完整版| 制服人妻中文乱码| 9热在线视频观看99| 天天躁狠狠躁夜夜躁狠狠躁| 国产精品爽爽va在线观看网站 | 午夜精品久久久久久毛片777| 女性被躁到高潮视频| 国产三级黄色录像| 久久伊人香网站| 午夜免费成人在线视频| 大香蕉久久成人网| 无限看片的www在线观看| 亚洲精品美女久久久久99蜜臀| 97超级碰碰碰精品色视频在线观看| 看黄色毛片网站| 亚洲成人免费电影在线观看| 99精品欧美一区二区三区四区| 如日韩欧美国产精品一区二区三区| 亚洲av五月六月丁香网| 国产91精品成人一区二区三区| 国产成人欧美在线观看| 丝袜在线中文字幕| a级毛片在线看网站| 淫妇啪啪啪对白视频| 久久国产乱子伦精品免费另类| 久久精品成人免费网站| 欧美国产日韩亚洲一区| 亚洲一区中文字幕在线| av中文乱码字幕在线| 亚洲av日韩精品久久久久久密| av视频在线观看入口| 如日韩欧美国产精品一区二区三区| 亚洲欧美精品综合久久99| svipshipincom国产片| 久久精品亚洲精品国产色婷小说| 国产av在哪里看| 日韩视频一区二区在线观看| 国内精品久久久久久久电影| 热re99久久国产66热| 国产精品久久久久久亚洲av鲁大| 亚洲av日韩精品久久久久久密| 可以在线观看的亚洲视频| 国产成人免费无遮挡视频| 999久久久国产精品视频| 久久香蕉国产精品| bbb黄色大片| 真人做人爱边吃奶动态| 欧美+亚洲+日韩+国产| 久久精品人人爽人人爽视色| 国产精品秋霞免费鲁丝片| 亚洲av片天天在线观看| av中文乱码字幕在线| 久久中文字幕一级| 久久久国产成人精品二区| 亚洲自偷自拍图片 自拍| 欧美av亚洲av综合av国产av| 男女之事视频高清在线观看| 亚洲欧美精品综合久久99| www日本在线高清视频| 美女午夜性视频免费| 一个人观看的视频www高清免费观看 | 国产亚洲精品第一综合不卡| 精品国产乱码久久久久久男人| 久久精品国产99精品国产亚洲性色 | 日日夜夜操网爽| 好男人电影高清在线观看| 国产一区二区三区在线臀色熟女| 国产亚洲欧美98| 在线观看舔阴道视频| 91成人精品电影| 国产成人精品久久二区二区91| 欧美另类亚洲清纯唯美| av免费在线观看网站| 欧美激情 高清一区二区三区| 国产精华一区二区三区| 欧美最黄视频在线播放免费| 日韩精品青青久久久久久| 亚洲性夜色夜夜综合| 99精品久久久久人妻精品| 亚洲国产欧美网| 美女大奶头视频| 亚洲精华国产精华精| 亚洲男人天堂网一区| 岛国视频午夜一区免费看| 亚洲国产欧美一区二区综合| 最近最新中文字幕大全电影3 | 国产高清videossex| 老汉色∧v一级毛片| 久久久国产精品麻豆| 国产精品亚洲av一区麻豆| 成年版毛片免费区| 久久中文看片网| 免费在线观看黄色视频的| 女人爽到高潮嗷嗷叫在线视频| 国产又爽黄色视频| 国产精品久久视频播放| 欧美一级a爱片免费观看看 | 香蕉国产在线看| 色播在线永久视频| 日韩 欧美 亚洲 中文字幕| 日韩高清综合在线| 国产精品电影一区二区三区| 女人高潮潮喷娇喘18禁视频| 国产成人精品无人区| 久久人妻av系列| 黑人巨大精品欧美一区二区蜜桃| 性色av乱码一区二区三区2| 色尼玛亚洲综合影院| 麻豆久久精品国产亚洲av| 亚洲狠狠婷婷综合久久图片| 成人三级做爰电影| 成人特级黄色片久久久久久久| 国产亚洲欧美在线一区二区| 亚洲欧美精品综合久久99| 黄网站色视频无遮挡免费观看| 国产精品日韩av在线免费观看 | 日韩精品青青久久久久久| 欧美成人性av电影在线观看| 久久影院123| 婷婷精品国产亚洲av在线| 老鸭窝网址在线观看| 精品国产乱子伦一区二区三区| 亚洲精品一区av在线观看| 国产精品 国内视频| 亚洲色图综合在线观看| 国产在线观看jvid| 国产精华一区二区三区| 咕卡用的链子| 亚洲激情在线av| 非洲黑人性xxxx精品又粗又长| 欧美不卡视频在线免费观看 | 黄色a级毛片大全视频| 午夜福利18| 桃红色精品国产亚洲av| 国产亚洲精品综合一区在线观看 | 亚洲欧美精品综合久久99| 国产一区二区三区视频了| 少妇裸体淫交视频免费看高清 | 麻豆成人av在线观看| 亚洲av日韩精品久久久久久密| 亚洲国产精品久久男人天堂| 涩涩av久久男人的天堂| 久久亚洲真实| 色播在线永久视频| 国产免费av片在线观看野外av| 精品熟女少妇八av免费久了| 亚洲va日本ⅴa欧美va伊人久久| 99精品欧美一区二区三区四区| 十分钟在线观看高清视频www| 亚洲五月色婷婷综合| videosex国产| 成人18禁在线播放| 波多野结衣高清无吗| www.www免费av| 美国免费a级毛片| 99精品欧美一区二区三区四区| 欧美中文日本在线观看视频| 妹子高潮喷水视频| 久久精品国产亚洲av高清一级| 啦啦啦观看免费观看视频高清 | 日本vs欧美在线观看视频| 国产精品亚洲一级av第二区| 99国产综合亚洲精品| 9色porny在线观看| 搡老岳熟女国产| 可以在线观看的亚洲视频| 国产精品免费视频内射| 99国产综合亚洲精品| 精品一区二区三区av网在线观看| 一级a爱片免费观看的视频| 久久香蕉激情| av免费在线观看网站| 天天添夜夜摸| 我的亚洲天堂| 美女大奶头视频| 国产极品粉嫩免费观看在线| 一级a爱视频在线免费观看| 亚洲av电影在线进入| 精品第一国产精品| 国产精品久久久av美女十八| 69精品国产乱码久久久| 黄色成人免费大全| 国产精品av久久久久免费| 人妻丰满熟妇av一区二区三区| 亚洲片人在线观看| 两人在一起打扑克的视频| 老汉色∧v一级毛片| 亚洲五月天丁香| 国产免费男女视频| 国产一区二区激情短视频| 国产av一区在线观看免费| 无遮挡黄片免费观看| 久久久国产成人免费| 一二三四在线观看免费中文在| 叶爱在线成人免费视频播放| 免费观看精品视频网站| 少妇被粗大的猛进出69影院| 国产单亲对白刺激| 97碰自拍视频| 如日韩欧美国产精品一区二区三区| 老司机在亚洲福利影院| 丝袜美腿诱惑在线| 欧美最黄视频在线播放免费| 他把我摸到了高潮在线观看| 久久久久国产一级毛片高清牌| 黑人巨大精品欧美一区二区蜜桃| 在线观看免费日韩欧美大片| 精品福利观看| 51午夜福利影视在线观看| 丝袜美足系列| 久久精品影院6| 国产日韩一区二区三区精品不卡| 亚洲精品久久成人aⅴ小说| 少妇的丰满在线观看| 好男人电影高清在线观看| 久久午夜亚洲精品久久| 国产主播在线观看一区二区| 最新在线观看一区二区三区| 嫩草影视91久久| 搡老妇女老女人老熟妇| 精品国产国语对白av| 亚洲中文av在线| 高潮久久久久久久久久久不卡| 色综合亚洲欧美另类图片| 一卡2卡三卡四卡精品乱码亚洲| 久久久国产欧美日韩av| 婷婷丁香在线五月| 免费av毛片视频| 亚洲精品国产色婷婷电影| 亚洲国产看品久久| 久久草成人影院| 男女午夜视频在线观看| x7x7x7水蜜桃| 天天躁夜夜躁狠狠躁躁| 99香蕉大伊视频| 色哟哟哟哟哟哟| 制服诱惑二区| 不卡一级毛片| 香蕉国产在线看| 妹子高潮喷水视频| 国产色视频综合| 精品国产亚洲在线| 禁无遮挡网站| 动漫黄色视频在线观看| 一本久久中文字幕| 夜夜看夜夜爽夜夜摸| 视频在线观看一区二区三区| 国产精品1区2区在线观看.| 色播亚洲综合网| 色婷婷久久久亚洲欧美| 亚洲七黄色美女视频| 欧美国产精品va在线观看不卡| 免费女性裸体啪啪无遮挡网站| 91九色精品人成在线观看| 亚洲av电影在线进入| 精品卡一卡二卡四卡免费| 亚洲av电影在线进入| 国产亚洲精品av在线| av在线天堂中文字幕| 美国免费a级毛片| 免费观看人在逋| 99国产精品一区二区三区| 男女之事视频高清在线观看| 老司机深夜福利视频在线观看| 51午夜福利影视在线观看| 欧美国产精品va在线观看不卡| 亚洲av熟女| 欧美日韩精品网址| 18美女黄网站色大片免费观看| 变态另类成人亚洲欧美熟女 | www日本在线高清视频| 99国产精品一区二区蜜桃av| 久久精品91蜜桃| 久久午夜亚洲精品久久| 99久久久亚洲精品蜜臀av| 免费在线观看黄色视频的|