• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    邊緣智能背景下的手寫數(shù)字識(shí)別

    2019-01-06 07:27王建仁馬鑫段剛龍薛宏全
    計(jì)算機(jī)應(yīng)用 2019年12期
    關(guān)鍵詞:卷積手寫神經(jīng)網(wǎng)絡(luò)

    王建仁 馬鑫 段剛龍 薛宏全

    摘 要:隨著邊緣智能的快速發(fā)展,現(xiàn)有手寫數(shù)字識(shí)別卷積網(wǎng)絡(luò)模型的發(fā)展已越來越不適應(yīng)邊緣部署、算力下降的要求,且存在小樣本泛化能力較差和網(wǎng)絡(luò)訓(xùn)練成本較高等問題。借鑒卷積神經(jīng)網(wǎng)絡(luò)(CNN)經(jīng)典結(jié)構(gòu)、Leaky_ReLU算法、dropout算法和遺傳算法及自適應(yīng)和混合池化思想構(gòu)建了基于LeNet-DL改進(jìn)網(wǎng)絡(luò)的手寫數(shù)字識(shí)別模型,分別在大樣本數(shù)據(jù)集MNIST和小樣本真實(shí)數(shù)據(jù)集REAL上與LeNet、LeNet+sigmoid、AlexNet等算法進(jìn)行對(duì)比實(shí)驗(yàn)。改進(jìn)網(wǎng)絡(luò)的大樣本識(shí)別精度可達(dá)99.34%,性能提升約0.83%;小樣本識(shí)別精度可達(dá)78.89%,性能提升約8.34%。實(shí)驗(yàn)結(jié)果表明,LeNet-DL網(wǎng)絡(luò)相較于傳統(tǒng)CNN在大樣本和小樣本數(shù)據(jù)集上的訓(xùn)練成本更低、性能更優(yōu)且模型泛化能力更強(qiáng)。

    關(guān)鍵詞:邊緣智能;卷積網(wǎng)絡(luò);手寫數(shù)字識(shí)別;Leaky_ReLU;混合池化;自適應(yīng);dropout;遺傳算法

    中圖分類號(hào): TP30文獻(xiàn)標(biāo)志碼:A

    Handwritten numeral recognition under edge intelligence background

    WANG Jianren, MA Xin*, DUAN Ganglong, XUE Hongquan

    (College of Economics and Management, Xian University of Technology, Xian Shaanxi 710054, China)

    Abstract: With the rapid development of edge intelligence, the development of existing handwritten numeral recognition convolutional network models has become less and less suitable for the requirements of edge deployment and computing power declining, and there are problems such as poor generalization ability of small samples and high network training costs. Drawing on the classic structure of Convolutional Neural Network (CNN), Leaky_ReLU algorithm, dropout algorithm, genetic algorithm and adaptive and mixed pooling ideas, a handwritten numeral recognition model based on LeNet-DL improved convolutional neural network was constructed. The proposed model was compared on large sample MNIST dataset and small sample REAL dataset with LeNet, LeNet+sigmoid, AlexNet and other algorithms. The improved network has the large sample identification accuracy up to 99.34%, with the performance improvement of about 0.83%, and the small sample recognition accuracy up to 78.89%, with the performance improvement of about 8.34%. The experimental results show that compared with traditional CNN, LeNet-DL network has lower training cost, better performance and stronger model generalization ability on large sample and small sample datasets.

    Key words: edge intelligence; Convolutional Neural Network (CNN); handwritten numeral recognition; Leaky_ReLU; mixing pooling; adaptive; dropout; genetic algorithm

    0 引言

    隨著經(jīng)濟(jì)社會(huì)的不斷發(fā)展,日常生活中與數(shù)字相關(guān)的應(yīng)用越來越廣泛,使用場(chǎng)景也越來越豐富,對(duì)應(yīng)的手寫數(shù)字識(shí)別需求也顯著提升[1],例如:大規(guī)模紙質(zhì)手寫數(shù)據(jù)的統(tǒng)計(jì)、會(huì)計(jì)報(bào)表的掃描和識(shí)別、銀行開戶單身份證信息的識(shí)別、高校試卷分?jǐn)?shù)掃描識(shí)別并累加等[2]。手寫數(shù)字識(shí)別作為光學(xué)符號(hào)識(shí)別的一個(gè)重要分支,國(guó)內(nèi)外眾多學(xué)者對(duì)其識(shí)別方法進(jìn)行了廣泛而深入的研究,概括起來可分為基于模板匹配、基于機(jī)器學(xué)習(xí)和基于深度學(xué)習(xí)的識(shí)別方法三類。在基于模板匹配的識(shí)別方法研究方面,已有大量文獻(xiàn)探討了如何利用手寫數(shù)字本身的特征進(jìn)行識(shí)別,典型的研究有董延華等[3]基于模式識(shí)別技術(shù)提出了改進(jìn)特征匹配算法對(duì)手寫數(shù)字進(jìn)行識(shí)別;陸靖濱等[4]提出了改進(jìn)最大類間方差法對(duì)儀表外顯圖像進(jìn)行自適應(yīng)提取,并通過穿線法對(duì)數(shù)字進(jìn)行識(shí)別;凌翔等[5]提出了基于改進(jìn)的頂帽重構(gòu)和模板匹配的車牌識(shí)別算法對(duì)自然場(chǎng)景下的車牌進(jìn)行自動(dòng)采集與識(shí)別; Saha等[6]提出了一種基于計(jì)算幾何特征的方法對(duì)小樣本手寫數(shù)字圖像進(jìn)行識(shí)別;Jiao等[7]提出了一種基于主方向差異特征的快速模板匹配算法,對(duì)視頻圖像進(jìn)行自適應(yīng)獲取并識(shí)別。此類研究方法雖具有簡(jiǎn)單、高效及可對(duì)手寫數(shù)字進(jìn)行較好的識(shí)別與分類等優(yōu)點(diǎn),但由于是對(duì)數(shù)字圖像本身特征的提取與歸納,因此對(duì)圖像質(zhì)量要求較高,方法易受圖像自身亮度、背景、角度等因素的影響,識(shí)別精度較低。在基于機(jī)器學(xué)習(xí)的識(shí)別方法研究方面,針對(duì)模板匹配方法中存在的識(shí)別精度低、易受圖像采集質(zhì)量影響等問題,郭偉林等[8]在圓形鄰域局部二進(jìn)制模式基礎(chǔ)上,提取各圖像分割子區(qū)域二進(jìn)制模式直方圖,并訓(xùn)練支持向量機(jī)(Support Vector Machine, SVM)分類模型對(duì)手寫數(shù)字進(jìn)行識(shí)別;甘勝江等[9]基于K近鄰和隨機(jī)森林算法提出了一種融合機(jī)器學(xué)習(xí)方法,該方法在手寫數(shù)字目標(biāo)分類中的準(zhǔn)確率高于K近鄰、Adaboost、SVM和隨機(jī)森林算法模型;潘虎等[10]運(yùn)用一種快速弱分類器訓(xùn)練算法和高速緩存策略來加速Adaboost算法訓(xùn)練對(duì)紙幣號(hào)碼進(jìn)行識(shí)別;Khan等[11]提出一種基于熵的SVM特征選擇方法,通過多特征的提取與融合對(duì)車輛牌照進(jìn)行識(shí)別;Kulkarni等[12]提出了一種基于尖峰觸發(fā)歸一化近似下降算法對(duì)手寫數(shù)字進(jìn)行識(shí)別,并就MNIST數(shù)據(jù)集進(jìn)行驗(yàn)證,實(shí)驗(yàn)結(jié)果證明算法精度較高。此類方法比傳統(tǒng)的模板匹配方法準(zhǔn)確率更高、性能更佳,但需要人工提取圖像特征,導(dǎo)致特征提取的優(yōu)劣將對(duì)最終的識(shí)別結(jié)果產(chǎn)生較大影響,并且,不同數(shù)據(jù)集的識(shí)別效果可能存在較大差異?;谏疃葘W(xué)習(xí)的識(shí)別方法,比基于模板匹配和機(jī)器學(xué)習(xí)的手寫數(shù)字識(shí)別方法,它不僅不受圖像質(zhì)量的影響且無需人工提取圖像特征,而且圖像識(shí)別精度更高,性能更優(yōu),如Yun等[13]結(jié)合卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)特征提取和極限學(xué)習(xí)機(jī)(Extreme Learning Machine, ELM)目標(biāo)分類提出了一種車牌識(shí)別算法;Qiao等[14]提出了一種自適應(yīng)深度Q學(xué)習(xí)策略,進(jìn)一步提高手寫數(shù)字識(shí)別精度和縮短運(yùn)行時(shí)間;Trivedi等[15]基于遺傳算法與L-BFGS(Large Broy-den-Fletcher-Goldforb-Shanno)方法提出了一種混合深度學(xué)習(xí)模型對(duì)梵文手寫體數(shù)字進(jìn)行識(shí)別;茹曉青等[16]在卷積神經(jīng)網(wǎng)絡(luò)中引入形變卷積模塊,提出了一種改進(jìn)的形變卷積神經(jīng)網(wǎng)絡(luò)對(duì)手寫體數(shù)字進(jìn)行識(shí)別;馬義超等[17]針對(duì)CNN卷積核隨機(jī)初始化情況下收斂速度慢和識(shí)別率低等問題,提出一種主成分分析(Principal Component Analysis,PCA)初始化卷積核的CNN識(shí)別算法對(duì)手寫數(shù)字進(jìn)行識(shí)別。在實(shí)際的應(yīng)用場(chǎng)景中,此類方法特別是卷積神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于手寫數(shù)字識(shí)別,將預(yù)處理后圖像數(shù)據(jù)送入卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,模型最終的結(jié)果為softmax函數(shù)輸出的包含10個(gè)元素的向量,通過與原始標(biāo)簽進(jìn)行比較,便可得最終的預(yù)測(cè)結(jié)果。然而,針對(duì)手寫數(shù)字識(shí)別卷積網(wǎng)絡(luò)的一系列改進(jìn),如增加網(wǎng)絡(luò)深度、增強(qiáng)卷積模塊功能及增加新模塊功能等,使得網(wǎng)絡(luò)模型越來越臃腫,在精度提升的同時(shí),訓(xùn)練成本也越來越高。

    綜上所述,經(jīng)多年研究,無需人工特征提取、精度較高且性能更優(yōu)的基于深度學(xué)習(xí)特別是卷積神經(jīng)網(wǎng)絡(luò)模型的手寫數(shù)字識(shí)別逐漸成為各學(xué)者研究的主要方向。然而,隨著物聯(lián)網(wǎng)技術(shù)(Internet of Things, IoT)的進(jìn)一步發(fā)展,人工智能(Artificial Intelligence, AI)與IoT的融合越發(fā)緊密,AI模型逐漸偏向IoT終端側(cè)部署,傳統(tǒng)的依賴于遠(yuǎn)端高性能服務(wù)器或云實(shí)現(xiàn)的基于CNN的手寫數(shù)字識(shí)別網(wǎng)絡(luò)模型訓(xùn)練成本較高且小樣本泛化能力較差,不適應(yīng)IoT終端算力低、數(shù)據(jù)量小等特點(diǎn)。因此,本文在邊緣智能背景下,提出了一種基于LeNet-DL改進(jìn)網(wǎng)絡(luò)的手寫數(shù)字識(shí)別模型,并分別于大樣本標(biāo)準(zhǔn)數(shù)據(jù)集MNIST和小樣本真實(shí)數(shù)據(jù)集REAL上與常用LeNet、LeNet+sigmoid、AlexNet等手寫數(shù)字識(shí)別算法進(jìn)行對(duì)比實(shí)驗(yàn),以此來驗(yàn)證模型性能。

    1 相關(guān)工作

    1.1 邊緣智能

    邊緣計(jì)算指在靠近網(wǎng)絡(luò)邊緣側(cè),融合計(jì)算、存儲(chǔ)、應(yīng)用核心能力等的分布式開放平臺(tái),就近提供智能服務(wù),能有效滿足行業(yè)數(shù)字化相關(guān)需求[18],邊緣智能(Edge Intelligence, EI)則為AI、IoT與邊緣計(jì)算深度融合的產(chǎn)物[19]。隨著傳統(tǒng)的依賴于云的AI模型因云端個(gè)人數(shù)據(jù)泄露、能耗較高以及模型延時(shí)性較高等問題為人所詬病,邊緣智能作為一種滿足某些實(shí)時(shí)物聯(lián)終端需求的技術(shù)越來越為人們所重視。

    在商業(yè)領(lǐng)域,EI的相關(guān)研究特別是AI智能芯片的研究異?;馃?。如國(guó)內(nèi)通信領(lǐng)域霸主華為相繼發(fā)布搭載專門神經(jīng)網(wǎng)絡(luò)的AI核心處理器麒麟970等產(chǎn)品,電商巨頭阿里發(fā)布AI芯片Ali-NPU,中科院計(jì)算所推出寒武紀(jì)芯片等,國(guó)外智能手機(jī)領(lǐng)跑者Apple發(fā)布A11仿生處理器,NVIDIA發(fā)布專用于AI的GPU,谷歌推出TPU,IBM推出“真北”等。而學(xué)術(shù)領(lǐng)域?qū)I的研究卻不溫不火。以題名、關(guān)鍵字或摘要(邊緣計(jì)算、邊緣智能)在CNKI和Elsevier不完全統(tǒng)計(jì)2009年到2019年相關(guān)文獻(xiàn),邊緣計(jì)算共208008篇,邊緣智能共17447篇,其中中文期刊文章分別占比0.2%和0.1%,理論研究較為欠缺,因此,對(duì)邊緣智能的相關(guān)理論研究具有較高價(jià)值。該領(lǐng)域典型研究多集中于計(jì)算網(wǎng)絡(luò)服務(wù)性能提升方面,主要包括:施巍松等[18]在對(duì)EI研究現(xiàn)狀充分分析的基礎(chǔ)之上,總結(jié)了推動(dòng)EI發(fā)展的7項(xiàng)關(guān)鍵技術(shù)和6類需迫切解決的問題,為EI研究指明了方向;袁培燕等[20]為降低骨干網(wǎng)絡(luò)流量壓力并提升終端用戶體驗(yàn),基于移動(dòng)邊緣計(jì)算的內(nèi)容卸載技術(shù)提出了一種貪心策略內(nèi)容卸載方案;Xu等[21]為改善網(wǎng)絡(luò)擁堵,將移動(dòng)邊緣計(jì)算網(wǎng)絡(luò)服務(wù)器與區(qū)塊鏈智能合約相結(jié)合,提出了一種無信任混合人機(jī)群智能平臺(tái); Tan等[22]為實(shí)現(xiàn)車載網(wǎng)絡(luò)的低成本高效率目標(biāo),提出了一種聯(lián)合通信、緩存與邊緣計(jì)算的策略;Huang等[23]提出了一種用于構(gòu)建智能物聯(lián)網(wǎng)應(yīng)用的邊緣智能框架。

    1.2 卷積神經(jīng)網(wǎng)絡(luò)

    CNN是一大類特殊的反饋神經(jīng)網(wǎng)絡(luò),主要由卷積層和池化層交替連接,并最終由全連接層實(shí)現(xiàn)圖像分類。CNN對(duì)圖像特征的提取及分類均是基于卷積層與池化層進(jìn)行的,因此對(duì)卷積層、池化層及層級(jí)的優(yōu)化調(diào)整能有效提高特征提取性能并優(yōu)化分類結(jié)果,典型的研究如:LeCun等[24]提出的用于手寫數(shù)字識(shí)別的卷積神經(jīng)網(wǎng)絡(luò)LeNet,該網(wǎng)絡(luò)共包含8層,主要由輸入層、卷積層、池化層、全連接層、輸出層組成,是目前為止最為經(jīng)典的手寫數(shù)字識(shí)別網(wǎng)絡(luò)算法;Krizhevsky等[25]基于LeNet網(wǎng)絡(luò),進(jìn)一步提升網(wǎng)絡(luò)深度并引入激活函數(shù)、Dropout函數(shù)等新功能模塊提出了一種新的深度卷積神經(jīng)網(wǎng)絡(luò)AlexNet對(duì)圖像進(jìn)行識(shí)別;以及在此基礎(chǔ)之上發(fā)展起來的VGG網(wǎng)絡(luò)、NIS網(wǎng)絡(luò)、ResNet網(wǎng)絡(luò)和GoogleNet網(wǎng)絡(luò)等。卷積神經(jīng)網(wǎng)絡(luò)的普遍結(jié)構(gòu)如圖1所示,圖中共包括2層卷積C1和C3,2層池化S2和S4,2層全連接F5和F6,當(dāng)目標(biāo)圖像以二維數(shù)組形式輸入網(wǎng)絡(luò),通過網(wǎng)絡(luò)層層處理,最終輸出圖像分類結(jié)果,分類的個(gè)數(shù)通常由實(shí)際的任務(wù)所決定。

    1.3 遺傳算法

    遺傳算法(Genetic Algorithm, GA)是一種仿生式的啟發(fā)算法,可有效搜索問題的龐大解空間,主要步驟包括:1)隨機(jī)生成初始種群即搜索空間,計(jì)算種群適應(yīng)性,從最適合環(huán)境的原始種群生成候選解。2)對(duì)該候選種群進(jìn)行交叉,經(jīng)突變后,再?gòu)脑撊后w中選擇較低分類成本的候選者。3)將較低分類成本候選者傳遞給交叉和突變。因此,在特定數(shù)量的交叉,突變和選擇解決方案之后,GA終止并返回最佳結(jié)果。該過程類似于物種自然選擇過程,且整體搜索策略優(yōu)化搜索方法對(duì)輔助信息的依賴較小,為求解復(fù)雜系統(tǒng)問題提供了一種高魯棒性的通用框架,因此被廣泛應(yīng)用于求解問題的近似最優(yōu)解。

    2 改進(jìn)的手寫數(shù)字識(shí)別網(wǎng)絡(luò)模型

    本文借鑒經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),結(jié)合IoT邊緣設(shè)備算力低和數(shù)據(jù)量小等特點(diǎn),分別就激活函數(shù)、模型參數(shù)優(yōu)化、網(wǎng)絡(luò)泛化能力優(yōu)化、全連接層隨機(jī)權(quán)重優(yōu)化和學(xué)習(xí)速率優(yōu)化5個(gè)方面對(duì)經(jīng)典手寫數(shù)字CNN識(shí)別模型進(jìn)行改進(jìn),提出了一種用于手寫數(shù)字識(shí)別的改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)(LeNet-DL),該網(wǎng)絡(luò)共7層,依次為輸入層、卷積層1、池化層1、卷積層2、池化層2、全連接層和輸出層。

    2.1 激活函數(shù)改進(jìn)

    設(shè)淺層輸出為v,深層輸入為h,權(quán)重矩陣為w,偏置項(xiàng)為b,兩層之間能量函數(shù)為E(v,h),則可得v與h的聯(lián)合概率分布P(v,h)及條件分布P(h|v):

    P(v,h)=e-E(v,h)∑v,he-E(v,h)(1)

    P(h|v)=1P(v)e-E(v,h)∑v,he-E(v,h)(2)

    由于同一層神經(jīng)元之間相互獨(dú)立,由極大似然梯度估計(jì)可得在給定v的條件下深層的完全條件概率P(hj|v):

    P(hj|v)=11+e-(bj+wvj)(3)

    由式(3)結(jié)果可見,淺層與深層之間存在某種變換關(guān)系即激活函數(shù)f(wv+b)。同時(shí),由于CNN是一種反饋神經(jīng)網(wǎng)絡(luò),在誤差ε反向傳播更新權(quán)重wij的過程中需要對(duì)f(wv+b)求導(dǎo),因此還需滿足計(jì)算簡(jiǎn)單、非線性、可微性、單調(diào)性、有限的輸出值范圍、非飽和以及部分接近恒等變換等性質(zhì)。常用激活函數(shù)對(duì)比如圖2所示,ReLU作為較常用的激活函數(shù),相比于sigmoid和Tanh在x>0區(qū)間內(nèi)不存在“梯度消失”問題,且ReLU為非0中心的線性分段函數(shù),運(yùn)行效率遠(yuǎn)高于sigmoid及Tanh等非0中心的冪指數(shù)系激活函數(shù)。ReLU具體公式如下:

    f(x)=x, x>0

    0,x≤0 (4)

    但ReLU算法存在一個(gè)比較致命的問題,即當(dāng)神經(jīng)元輸入值為負(fù)時(shí),激活函數(shù)的輸出值為0,神經(jīng)元無法激活,或當(dāng)學(xué)習(xí)速率η過大時(shí),由權(quán)重迭代公式(5)可知wij同樣可能取負(fù)值,激活函數(shù)輸出值為0,導(dǎo)致神經(jīng)元無法激活。

    wij=wij-ηCwij(5)

    式中:wij為淺層第i個(gè)神經(jīng)元與深層第j個(gè)神經(jīng)元之間的連接權(quán)重;C為網(wǎng)絡(luò)激活函數(shù)。若發(fā)生大量神經(jīng)元死亡,網(wǎng)絡(luò)最終將無法收斂,如圖3所示。圖3情況下,參數(shù)設(shè)置為:網(wǎng)絡(luò)LeNet,函數(shù)ReLU,lr=0.01,batch_size=200,T=1000。Leaky_ReLU為ReLU基礎(chǔ)之上演化而來的0中心線性分段激活函數(shù),它通過線性函數(shù)αx替換原x<0時(shí)的負(fù)值表示,具備了原ReLU全部?jī)?yōu)點(diǎn),同時(shí)解決了x<0區(qū)間上神經(jīng)元死亡問題,緩解了ReLU非0中心的問題,因此,本文將Leaky_ReLU作為改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)激活函數(shù),Leaky_ReLU具體公式如下:

    f(x)=x, x>0

    αx,x≤0; α∈(0,1)(6)

    式(6)中α為負(fù)半軸線性函數(shù)系數(shù),通常為大于0小于1的較小浮點(diǎn)數(shù),由先驗(yàn)經(jīng)驗(yàn)進(jìn)行判定。

    2.2 模型參數(shù)優(yōu)化

    卷積神經(jīng)網(wǎng)絡(luò)中的參數(shù)調(diào)整是模型優(yōu)化中的一個(gè)重要方面。因此,本文在LeNet-DL網(wǎng)絡(luò)中進(jìn)行如下參數(shù)調(diào)整:1)增大卷積層(c1、c2和c3)通道數(shù)。卷積層通道數(shù)即卷積層卷積核數(shù)量,理論上來說,卷積核個(gè)數(shù)越多,網(wǎng)絡(luò)的特征提取能力越強(qiáng),所能提取的圖像特征就越多,網(wǎng)絡(luò)的性能則更優(yōu);2)將最大池化修改為混合池化。池化即將卷積所得特征矩陣劃分為若干子矩陣,從每個(gè)子矩陣中選取某個(gè)值表征其特征,起到壓縮特征矩陣、簡(jiǎn)化計(jì)算的作用,主要包括均值池化(mean-pooling)和最大池化(max-pooling)兩種。由于卷積層通道數(shù)的增大會(huì)進(jìn)一步提升卷積參數(shù)誤差所造成的估計(jì)均值偏移程度,故將池化層1(p1)的池化方式調(diào)整為max-pooling,盡可能減小估計(jì)均值偏移程度;同時(shí),為更好保留各特征矩陣的背景信息,縮小鄰域大小受限造成的估計(jì)值方差,池化層2(p2)則采用mean-pooling,即將子矩陣內(nèi)像素點(diǎn)均值作為該子矩陣的表征。具體參數(shù)如表1所示。

    2.3 網(wǎng)絡(luò)泛化能力優(yōu)化

    考慮到物聯(lián)網(wǎng)終端側(cè)數(shù)據(jù)量較小,訓(xùn)練數(shù)據(jù)無法反映數(shù)據(jù)整體特征,模型無法充分理解總體特征,極易出現(xiàn)“訓(xùn)練集優(yōu),測(cè)試集差”的過擬合現(xiàn)象,致使模型泛化能力較差,且傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)的全連接層通常位于網(wǎng)絡(luò)后端,與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)連接方式基本一致,并未考慮網(wǎng)絡(luò)對(duì)過擬合數(shù)據(jù)的泛化能力,本文借鑒AlexNet網(wǎng)絡(luò)過擬合處理思路,在LeNet-DL網(wǎng)絡(luò)全連接層引入dropout函數(shù),進(jìn)一步提升網(wǎng)絡(luò)泛化能力。

    dropout的主要流程如下:

    1)訓(xùn)練階段:網(wǎng)絡(luò)前向傳播過程中,為降低節(jié)點(diǎn)間相互作用,借鑒模型集成思想,以概率p激活某些神經(jīng)元、概率(1-p)終止某些神經(jīng)元,通過集成n次模型訓(xùn)練所得不同模型結(jié)果,提升模型泛化能力;

    2)測(cè)試階段:由于訓(xùn)練階段某神經(jīng)元在dropout前的輸出為x,dropout后期望輸出為E=px+(1-p)×0=px,且測(cè)試中各神經(jīng)元均處于激活狀態(tài),因此為使期望不變,測(cè)試階段權(quán)重w′=pw。

    另外,為進(jìn)一步提升測(cè)試性能,降低模型測(cè)試時(shí)間,LeNet-DL將權(quán)值縮放轉(zhuǎn)移至訓(xùn)練階段,即以概率p保留下來的神經(jīng)元對(duì)應(yīng)權(quán)重w調(diào)整為w′=w/p,測(cè)試階段不進(jìn)行任何處理。dropout計(jì)算過程對(duì)比示意圖如圖4所示。

    2.4 全連接層隨機(jī)權(quán)重優(yōu)化

    傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)模型大多采用隨機(jī)梯度下降算法對(duì)模型進(jìn)行訓(xùn)練,為加快網(wǎng)絡(luò)收斂,則需激活函數(shù)導(dǎo)數(shù)值盡可能地大,而某個(gè)神經(jīng)元j的輸入是由上層一系列神經(jīng)元i的輸出加權(quán)求和并經(jīng)激活函數(shù)f變換后所得,即可表示為xj=f(∑ixi wij+b),因此,只需將∑ixi wij+b控制在某一初始值范圍內(nèi),更進(jìn)一步,即將權(quán)重wij的初始值控制在某一范圍內(nèi),使得激活函數(shù)導(dǎo)數(shù)值落入取值較大的范圍內(nèi)即可。

    實(shí)際應(yīng)用中,卷積神經(jīng)網(wǎng)絡(luò)模型權(quán)重的初始化方式主要有三種:標(biāo)準(zhǔn)正態(tài)分布初始化、方差遞減正態(tài)分布初始化和截?cái)嗾龖B(tài)分布初始化,均通過生成一系列服從正態(tài)分布的隨機(jī)數(shù)作為網(wǎng)絡(luò)初始權(quán)重,操作簡(jiǎn)單,但會(huì)降低梯度下降算法效率,影響網(wǎng)絡(luò)收斂。以標(biāo)準(zhǔn)正態(tài)分布隨機(jī)數(shù)為例,假設(shè)存在有n個(gè)輸入神經(jīng)元的CNN,且連接下一層的權(quán)重wij已初始化為標(biāo)準(zhǔn)正態(tài)分布隨機(jī)數(shù),為簡(jiǎn)化計(jì)算,設(shè)定輸入層輸出為x,則一定概率存在n/2的權(quán)重為0剩余神經(jīng)元權(quán)重為1的情況,此時(shí),下層第j個(gè)神經(jīng)元的輸入值為zj=f(∑ni=1wijxi+b),因?yàn)楦鳘?dú)立隨機(jī)變量和的方差等價(jià)于各獨(dú)立隨機(jī)變量方差的和,因此(∑ni=1wijxi+b)~N(0,n2),n越大,(∑ni=1wij xi+b)服從的正態(tài)分布方差越大,|∑ni=1wij xi+b|值的變動(dòng)幅度越小,激活函數(shù)導(dǎo)數(shù)值變動(dòng)較小,最終導(dǎo)致權(quán)值的更新速度較慢,模型收斂速率低。而無論是隨著網(wǎng)絡(luò)模型深度的增加權(quán)值初始化的正態(tài)分布標(biāo)準(zhǔn)差逐漸縮小的方差遞減正態(tài)分布初始化還是所產(chǎn)生隨機(jī)數(shù)滿足條件(xij-μ)<2σ的截?cái)嗾龖B(tài)分布初始化,均不同程度地存在上述問題。

    本文鑒于遺傳算法具有高效搜索局部或全局最優(yōu)解的特點(diǎn),將種群個(gè)數(shù)為10,染色體長(zhǎng)度等于softmax分類器中權(quán)重?cái)?shù)的遺傳算法生成值作為全連接層的初始化權(quán)重。全連接層計(jì)算方式如圖5所示

    2.5 學(xué)習(xí)速率優(yōu)化

    諸如LeNet、AlexNet等傳統(tǒng)網(wǎng)絡(luò)模型學(xué)習(xí)速率(learning rate, lr)的設(shè)定主要有兩種方式:依靠先驗(yàn)經(jīng)驗(yàn)設(shè)定和逐一測(cè)試挑選最優(yōu)lr。此種方式對(duì)于深度網(wǎng)絡(luò)來說是災(zāi)難性的,模型訓(xùn)練成本極高,會(huì)耗費(fèi)大量計(jì)算資源和時(shí)間。此外,lr過大,理論上可認(rèn)為算法模型更易接近局部最優(yōu)或全局最優(yōu),但實(shí)際情況下模型損失后期存在較大波動(dòng),始終難以達(dá)到最優(yōu);lr過小,雖可有效緩解模型訓(xùn)練后期損失波動(dòng)較大問題,但會(huì)延長(zhǎng)模型收斂時(shí)間,降低模型性能。

    鑒于現(xiàn)有CNN學(xué)習(xí)速率設(shè)定存在上述問題,改進(jìn)的LeNet-DL算法采用非線性自迭代方式對(duì)lr進(jìn)行自適應(yīng)調(diào)整。非線性自迭代的基本思想為模型訓(xùn)練初期使用較大lr尋優(yōu),隨著迭代次數(shù)的增加,lr逐漸縮小,確保后期訓(xùn)練損失不會(huì)出現(xiàn)較大波動(dòng)。具體公式如下:

    lr_ri=TL×br_r+e-i1+e-i, 10000≤L

    LT×br_r+e-i1+e-i, 0

    其中:lr_ri為模型迭代第i次的學(xué)習(xí)速率;br_r為初始迭代速率;T為模型總迭代次數(shù);L為總樣本量。從圖6中可見,在L為60000的條件下,迭代次數(shù)越小,模型學(xué)習(xí)速率曲線趨近x軸的速率越快;在迭代次數(shù)不變的條件下,樣本量減小,模型學(xué)習(xí)速率曲線趨近x軸的速率越快。

    3 實(shí)驗(yàn)驗(yàn)證與結(jié)果分析

    本部分模型訓(xùn)練單機(jī)硬件配置為Intel Core i7-8550U @1.80GHz 2.00GHz核心處理器,8.00GB RAM,218GB固態(tài)硬盤,Intel UHD Graphics 620和Radeon RX 550雙顯卡,軟件平臺(tái)為PyCharm集成開發(fā)環(huán)境,TensorFlow深度學(xué)習(xí)框架、opencv圖像處理、Numpy科學(xué)計(jì)算、time時(shí)間操作、matplotlib2D繪圖和sklearn機(jī)器學(xué)習(xí)等庫(kù),操作系統(tǒng)為Windows 10 家庭中文版。

    3.1 手寫圖像數(shù)據(jù)預(yù)處理

    本節(jié)選取數(shù)據(jù)集共兩部分:MNIST標(biāo)準(zhǔn)手寫體數(shù)字?jǐn)?shù)據(jù)集和西安理工大學(xué)30名在校學(xué)生真實(shí)手寫數(shù)字?jǐn)?shù)據(jù)集。

    第一部分?jǐn)?shù)據(jù)集為美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所(National Institute of Standards and Technology, NIST)構(gòu)建,共70000幅手寫體數(shù)字圖像,由250人手寫,其中1/2為高中生,1/2為人口普查局工作人員,圖片按照字節(jié)形式存儲(chǔ),所有圖像數(shù)據(jù)均經(jīng)過相關(guān)預(yù)處理,部分手寫體圖片如圖7所示。

    第二部分?jǐn)?shù)據(jù)集為本實(shí)驗(yàn)人工搜集數(shù)據(jù)集,共300幅手寫數(shù)字圖片,年齡范圍為18~28歲,其中年級(jí)分布上1/2為本科生,1/2為研究生;性別分布上1/2為男性,1/2為女性。文章為進(jìn)一步減少圖像噪聲、類間和類內(nèi)變換,強(qiáng)化模型提取圖像特征的能力以及提高模型分類精度,對(duì)圖像進(jìn)行相關(guān)預(yù)處理,具體的預(yù)處理過程如下:

    1)BGR圖像轉(zhuǎn)換為Greyscale灰度圖,采用單通道表征圖像特征;

    2)手寫圖像為智能手機(jī)終端采集的白底黑字圖像,為降低因拍攝角度、亮度和噪聲等環(huán)境差異對(duì)圖像識(shí)別造成的干擾,文章將各像素點(diǎn)大于115的像素值替換為255;

    3)各像素點(diǎn)像素值翻倍后減35,進(jìn)一步提高手寫數(shù)字與背景對(duì)比度;

    4)圖像重構(gòu)為L(zhǎng)eNet-DL網(wǎng)絡(luò)輸入層圖像大小28×28。圖像預(yù)處理過程及最終處理結(jié)果如圖8所示。

    3.2 模型檢驗(yàn)

    3.2.1 MNIST數(shù)據(jù)集實(shí)驗(yàn)結(jié)果分析

    為驗(yàn)證本文提出的LeNet-DL網(wǎng)絡(luò)在大數(shù)據(jù)集中的分類性能,在MNIST數(shù)據(jù)集上構(gòu)建LeNet、S_LeNet、AlexNet以及LeNet-DL手寫體數(shù)字識(shí)別模型進(jìn)行對(duì)比實(shí)驗(yàn),并設(shè)定輸入圖像大小為28×28,灰度圖,初始迭代速率br_r=0.001,訓(xùn)練批量batch_size=200,總迭代次數(shù)T=60000,dropout概率p=0.5,采用交叉熵定義損失函數(shù),梯度下降算法訓(xùn)練樣本數(shù)據(jù),同時(shí),為提高實(shí)驗(yàn)結(jié)果的普適性,分別在相同實(shí)驗(yàn)條件下進(jìn)行重復(fù)實(shí)驗(yàn),所得數(shù)據(jù)均為各實(shí)驗(yàn)結(jié)果平均值。實(shí)驗(yàn)結(jié)果對(duì)比如表2所示。

    從表2中數(shù)據(jù)可知,LeNet-DL具有較好的模型泛化能力,在多分類大數(shù)據(jù)集MNIST中性能更優(yōu),訓(xùn)練集精度與測(cè)試集精度、召回率和F1-score均優(yōu)于傳統(tǒng)網(wǎng)絡(luò)模型,分類準(zhǔn)確率達(dá)99.34%,性能提升約0.83%;同時(shí),LeNet-DL網(wǎng)絡(luò)模型的訓(xùn)練成本要遠(yuǎn)低于AlexNet及基于AlexNet網(wǎng)絡(luò)演化而來的深層卷積神經(jīng)網(wǎng)絡(luò)(GoogleNet、VGG16和ResNet等),單次訓(xùn)練耗時(shí)為0.347s,性能提升約79.72%。在收斂速度方面,LeNet網(wǎng)絡(luò)由于深度較淺且卷積層與池化層間無非線性變換,導(dǎo)致模型收斂速度極慢;S_LeNet網(wǎng)絡(luò)由于在LeNet基礎(chǔ)之上增添了非線性變換激活函數(shù)sigmoid,網(wǎng)絡(luò)模型得以收斂,但整體效果不佳,收斂速度較慢;AlexNet網(wǎng)絡(luò)深度較深,有6000萬(wàn)個(gè)參數(shù)和650000個(gè)神經(jīng)元,模型訓(xùn)練往往需要百萬(wàn)級(jí)甚至更大量級(jí)的圖像數(shù)據(jù),模型訓(xùn)練成本高,收斂速度慢,因此在60000張MNIST手寫數(shù)字圖像下以batch_size=200訓(xùn)練60000次模型并未收斂。

    圖9為選取LeNet-DL模型60000次迭代的訓(xùn)練集精確度和損失值的對(duì)比,從圖中可見,模型訓(xùn)練前期損失值loss下降較快,同時(shí)精確度也快速上升,迭代至27600次左右時(shí)loss和accuracy已基本趨于穩(wěn)定,中間過程雖稍有波動(dòng),但總體呈穩(wěn)定趨勢(shì),最終模型精度可達(dá)99.6%。圖10所示為L(zhǎng)eNet-DL模型預(yù)測(cè)集單數(shù)字預(yù)測(cè)精度,從具體結(jié)果數(shù)據(jù)對(duì)比可見,模型對(duì)0~9手寫數(shù)字的預(yù)測(cè)精度均高于傳統(tǒng)卷積網(wǎng)絡(luò)算法,整體識(shí)別率較高,LeNet-DL網(wǎng)絡(luò)具有較好的魯棒性。綜上分析,LeNet-DL網(wǎng)絡(luò)的性能更優(yōu),收斂速度更快。

    3.2.2 REAL真實(shí)數(shù)據(jù)集實(shí)驗(yàn)結(jié)果分析

    網(wǎng)絡(luò)模型的泛化能力越強(qiáng),表明模型的普適性越強(qiáng),對(duì)未知數(shù)據(jù)集的處理能力就越強(qiáng);否則,網(wǎng)絡(luò)模型的泛化能力越差。本文為進(jìn)一步驗(yàn)證LeNet-DL網(wǎng)絡(luò)在物聯(lián)網(wǎng)終端設(shè)備小樣本條件下的泛化能力,基于真實(shí)手寫數(shù)據(jù)集構(gòu)建模型對(duì)比實(shí)驗(yàn)。數(shù)據(jù)集共包括300張手寫數(shù)字,訓(xùn)練集與測(cè)試集劃分比例為7∶3,圖像大小為28×28,灰度圖,br_r=0.001, batch_size=210,總迭代次數(shù)T=10000,dropout概率p=0.71,采用交叉熵定義損失函數(shù),梯度下降算法訓(xùn)練樣本數(shù)據(jù),所得實(shí)驗(yàn)數(shù)據(jù)均為多次重復(fù)實(shí)驗(yàn)結(jié)果的平均值。具體實(shí)驗(yàn)結(jié)果如表3所示。

    從表3實(shí)驗(yàn)數(shù)據(jù)中可見,LeNet和S_LeNet網(wǎng)絡(luò)模型的收斂速度較快,模型訓(xùn)練精確度可達(dá)100%,但測(cè)試集中的精確度卻僅有70%左右,遠(yuǎn)低于訓(xùn)練集中的精確度,模型出現(xiàn)嚴(yán)重過擬合現(xiàn)象,不足以應(yīng)對(duì)小樣本條件下的精確分類;以AlexNet為代表的一系列深度卷積神經(jīng)網(wǎng)絡(luò),雖針對(duì)可能出現(xiàn)的過擬合問題進(jìn)行了相關(guān)改進(jìn),但網(wǎng)絡(luò)深度較大且數(shù)據(jù)集較小,模型無法有效收斂;從圖11和圖12可知,本文提出的LeNet-DL相比于傳統(tǒng)網(wǎng)絡(luò)模型泛化能力較強(qiáng),性能較優(yōu),收斂速度較快,但同樣出現(xiàn)了較小程度的過擬合現(xiàn)象,文章分析主要有以下三點(diǎn)原因:

    1)訓(xùn)練數(shù)據(jù)過少:由于數(shù)據(jù)量與數(shù)據(jù)噪聲量呈反比,少量數(shù)據(jù)便可導(dǎo)致較大的噪聲。

    2)測(cè)試集與訓(xùn)練集分布差異較大:本實(shí)驗(yàn)所收集數(shù)據(jù)雖然在年級(jí)、性別和年齡等方面較為均衡,但在訓(xùn)練集和測(cè)試集劃分過程中采用的是機(jī)器學(xué)習(xí)庫(kù)sklearn中cross_validation模塊train_test_split函數(shù)隨機(jī)劃分的,很難保證訓(xùn)練集中年級(jí)、性別和年齡等方面與測(cè)試集中保持一致,影響模型對(duì)數(shù)據(jù)分布的有效分析。

    3)采集數(shù)據(jù)集存在“霍桑效應(yīng)”:霍桑效應(yīng)是指當(dāng)被試者察覺到自己正在被他人關(guān)注或者察覺時(shí),會(huì)刻意改變某些行為或言語(yǔ)表達(dá)的傾向。本實(shí)驗(yàn)手寫圖像均由實(shí)驗(yàn)人員人工采集,在采集過程中明確告知被采集者采集數(shù)據(jù)供科研使用,并多次強(qiáng)調(diào)被采集者應(yīng)按自己平時(shí)的書寫習(xí)慣進(jìn)行書寫,但該種方式仍然與自然狀態(tài)下被采集者的書寫習(xí)慣有所區(qū)別,實(shí)驗(yàn)所用的數(shù)據(jù)存在一定誤差。

    4 結(jié)語(yǔ)

    數(shù)字圖像識(shí)別在實(shí)際場(chǎng)景中有著十分廣泛的應(yīng)用,而隨著IoT與AI的進(jìn)一步融合,現(xiàn)有的數(shù)字圖像識(shí)別已不滿足邊緣部署、算力下降和數(shù)據(jù)量小的要求,因此,研究下一代既高效又精確的識(shí)別網(wǎng)絡(luò)模型對(duì)促進(jìn)邊緣智能部署和數(shù)字識(shí)別應(yīng)用具有十分重要的意義。

    本文針對(duì)邊緣智能背景下現(xiàn)有數(shù)字識(shí)別網(wǎng)絡(luò)模型存在的泛化能力較差和訓(xùn)練成本較高等問題,提出了一種改進(jìn)的數(shù)字識(shí)別卷積網(wǎng)絡(luò)模型LeNet-DL。該網(wǎng)絡(luò)模型共7層,使用Leaky_ReLU激活函數(shù)替換原sigmoid或ReLU激活函數(shù),在一定程度上解決了因原有激活函數(shù)所引起的“梯度消失”和“神經(jīng)元死亡”問題,并進(jìn)一步提升卷積核卷積能力,采用混合池化方式對(duì)卷積層輸出Feature Map進(jìn)行下采樣,繼而通過遺傳算法優(yōu)化卷積網(wǎng)絡(luò)全連接層權(quán)重并引入dropout函數(shù),提高了模型的泛化能力,并提出一種依據(jù)總迭代次數(shù)、當(dāng)前迭代次數(shù)與訓(xùn)練樣本總量的非線性自適應(yīng)模型學(xué)習(xí)速率迭代算法,有效縮減了模型速率的人工調(diào)試過程,降低了模型訓(xùn)練成本。

    基于大樣本標(biāo)準(zhǔn)數(shù)據(jù)集MNIST和小樣本真實(shí)數(shù)據(jù)集REAL,將LeNet、sigmoid+LeNet、AlexNet和本文算法LeNet-DL進(jìn)行對(duì)比實(shí)驗(yàn),分別就模型的單次訓(xùn)練耗時(shí)、訓(xùn)練集精度、測(cè)試集精度、測(cè)試集召回率、測(cè)試集F1-score、模型收斂迭代次數(shù)和精度損失對(duì)比進(jìn)行比較分析。本文所提的LeNet-DL網(wǎng)絡(luò)模型在兼顧模型識(shí)別精度、泛化能力和訓(xùn)練成本的基礎(chǔ)之上,大樣本識(shí)別精度可達(dá)99.34%,性能提升約0.83%;小樣本識(shí)別精度可達(dá)78.89%,性能提升8.34%。實(shí)驗(yàn)結(jié)果表明,本文所提的手寫數(shù)字識(shí)別卷積網(wǎng)絡(luò)模型是有效的,其預(yù)測(cè)精度、模型泛化能力及網(wǎng)絡(luò)訓(xùn)練成本較傳統(tǒng)模型更優(yōu)。但由于邊緣智能本身較為復(fù)雜,本文對(duì)手寫數(shù)字識(shí)別模型邊緣部署研究仍處于探索嘗試階段,有待于進(jìn)一步提高網(wǎng)絡(luò)模型的精度和泛化能力,降低模型訓(xùn)練成本。

    參考文獻(xiàn) (References)

    [1]卜令正,王洪棟,朱美強(qiáng),等.基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的多源數(shù)字識(shí)別算法[J].計(jì)算機(jī)應(yīng)用,2018,38(12):3403-3408.(BU L Z, WANG H D, ZHU M Q, et al. Multi-source digital recognition algorithm based on improved convolutional neural network [J]. Journal of Computer Applications, 2018, 38(12): 3403-3408.)

    [2]AKHAND M A H, AHMED M, RAHMAN M M H, et al. Convolutional neural network training incorporating rotation-based generated patterns and handwritten numeral recognition of major Indian scripts [J]. IETE Journal of Research, 2018, 64(2): 176-194.

    [3]董延華,陳中華,宋和燁,等.改進(jìn)特征匹配算法在銀行卡號(hào)識(shí)別中的應(yīng)用[J].吉林大學(xué)學(xué)報(bào)(理學(xué)版),2018,56(1):126-129.(DONG Y H, CHEN Z H, SONG H Y, et al. Application of improved feature matching algorithm in bank card number identification [J]. Journal of Jilin University (Science Edition), 2018, 56(1): 126-129.)

    [4]陸靖濱,許麗.基于自適應(yīng)特征提取的數(shù)顯儀表識(shí)別系統(tǒng)[J].現(xiàn)代電子技術(shù),2017,40(24):147-150.(LU J B, XU L. Digital-display instrument recognition system based on adaptive feature extraction [J]. Modern Electronic Technique, 2017, 40(24): 147-150.)

    [5]凌翔,賴錕,王昔鵬.基于模板匹配方法的不均勻照度車牌圖像識(shí)別[J].重慶交通大學(xué)學(xué)報(bào)(自然科學(xué)版),2018,37(8):102-106.(LING X, LAI K, WANG X P. Uneven illumination license plate image recognition base on template matching method [J]. Journal of Chongqing Jiaotong University (Natural Science), 2018, 37(8): 102-106.)

    [6]SAHA S, SAHA S, CHATTERJEE S K, et al. A machine learning framework for recognizing handwritten digits using convexity-based feature vector encoding [C]// Proceedings of International Ethical Hacking Conference 2018, AISC 811. Singapore: Springer, 2018: 369-380.

    [7]JIAO J, WANG X, DENG Z, et al. A fast template matching algorithm based on principal orientation difference [J]. International Journal of Advanced Robotic Systems, 2018, 15(3):1-9.

    [8]郭偉林,鄧洪敏,石雨鑫.基于局部二進(jìn)制和支持向量機(jī)的手寫體數(shù)字識(shí)別[J].計(jì)算機(jī)應(yīng)用,2018,38(S2):282-285, 289.(GUO W L, DENG H M, SHI Y X. Handwritten digit recognition based on local binary and support vector machine [J]. Journal of Computer Applications, 2018, 38(S2): 282-285, 289.)

    [9]甘勝江,白艷宇,孫連海,等.融合改進(jìn)K近鄰和隨機(jī)森林的機(jī)器學(xué)習(xí)方法[J].計(jì)算機(jī)工程與設(shè)計(jì),2017,38(8):2251-2255,2275.(GAN S J, BAI Y Y, SUN L H, et al. Machine learning method fusing improved K-nearest neighbors and random forest [J]. Computer Engineering and Design, 2017, 38(8): 2251-2255, 2275.)

    [10]潘虎,陳斌,李全文.基于二叉樹和Adaboost算法的紙幣號(hào)碼識(shí)別[J].計(jì)算機(jī)應(yīng)用,2011,31(2):396-398.(PAN H, CHEN B, LI Q W. Paper currency number recognition based on binary tree and Adaboost algorithm [J]. Journal of Computer Applications, 2011, 31(2): 396-398.)

    [11]KHAN M A, SHARIF M, JAVED M Y, et al. License number plate recognition system using entropy-based features selection approach with SVM [J]. IET Image Processing, 2018, 12(2): 200-209.

    [12]KULKARNI S R, RAJENDRAN B. Spiking neural networks for handwritten digit recognition — supervised learning and network optimization [J]. Neural Networks, 2018, 103: 118-127.

    [13]YUN Y, LI D, DUAN Z. Chinese vehicle license plate recognition using kernel-based extreme learning machine with deep convolutional features [J]. IET Intelligent Transport Systems, 2018, 12(3): 213-219.

    [14]QIAO J, WANG G, LI W, et al. An adaptive deep Q-learning strategy for handwritten digit recognition [J]. Neural Networks, 2018,107: 61-71.

    [15]TRIVEDI A, SRIVASTAVA S, MISHRA A, et al. Hybrid evolutionary approach for Devanagari handwritten numeral recognition using convolutional neural network [J]. Procedia Computer Science, 2018, 125: 525-532.

    [16]茹曉青,華國(guó)光,李麗宏,等.基于形變卷積神經(jīng)網(wǎng)絡(luò)的手寫體數(shù)字識(shí)別研究[J].微電子學(xué)與計(jì)算機(jī),2019,36(4):47-51.(RU X Q, HUA G G, LI L H, et al. Handwritten digit recognition based on deformable convolutional neural network [J]. Microelectronics and Computer, 2019, 36(4): 47-51.)

    [17]馬義超,趙運(yùn)基,張新良.基于PCA初始化卷積核的CNN手寫數(shù)字識(shí)別算法[J].計(jì)算機(jī)工程與應(yīng)用,2019,55(13):134-139.(MA Y C, ZHAO Y J, ZHANG X L. CNN handwritten digit recognition algorithm based on PCA initialization convolution kernel [J]. Computer Engineering and Applications, 2019, 55(13): 134-139.)

    [18]施巍松,孫輝,曹杰,等.邊緣計(jì)算:萬(wàn)物互聯(lián)時(shí)代新型計(jì)算模型[J].計(jì)算機(jī)研究與發(fā)展,2017,54(5):907-924.(SHI W S, SUN H, CAO J, et al. Edge computing — an emerging computing model for the Internet of everything era [J]. Journal of Computer Research and Development, 2017, 54(5): 907-924.)

    [19]李肯立,劉楚波.邊緣智能:現(xiàn)狀和展望[J].大數(shù)據(jù),2019,5(3):69-75.(LI K L, LIU C B. Edge intelligence: state-of-the-art and expectations [J]. Big Data, 2019, 5(3): 69-75.)

    [20]袁培燕,蔡云云.移動(dòng)邊緣計(jì)算中一種貪心策略的內(nèi)容卸載方案[J].計(jì)算機(jī)應(yīng)用,2019,39(9):2664-2668.(YUAN P Y, CAI Y Y. Content offloading scheme of greedy strategy in mobile edge computing system [J]. Journal of Computer Applications, 2019, 39(9): 2664-2668.)

    [21]XU J, WANG S, BHARGAVA B K, et al. A blockchain-enabled trustless crowd-intelligence ecosystem on mobile edge computing [J]. IEEE Transactions on Industrial Informatics, 2019, 15(6):3538-3547.

    [22]TAN L T, HU R Q, HANZO L. Twin-timescale artificial intelligence aided mobility-aware edge caching and computing in vehicular networks [J]. IEEE Transactions on Vehicular Technology, 2019, 68(4): 3086-3099.

    [23]HUANG Z Q, LIN K J, TSAI B L, et al. Building edge intelligence for online activity recognition in service-oriented IoT systems [J]. Future Generation Computer Systems, 2018, 87: 557-567.

    [24]LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition [J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

    [25]KRIZHEVSKY A, SUTSKEVER I, HINTON G. ImageNet classification with deep convolutional neural networks [C]// Proceedings of the 25th International Conference on Neural Information Processing Systems. New York: Curran Associates Inc., 2012: 1097-1105.

    This work is partially supported by the Shaanxi Provincial Key Discipline Project (107-00X901).

    WANG Jianren, born in 1961, M. S., associate professor. His research interests include data mining, business intelligence, decision support.

    MA Xin, born in 1995, M. S. candidate. His research interests include machine learning, deep learning, recommender system.

    DUAN Ganglong, born in 1977, Ph. D., associate professor. His research interests include data mining, business intelligence, decision support.

    XUE Hongquan, born in 1978, Ph. D., lecturer. His research interests include computing intelligence, advanced manufacturing management.≡『』()¤==¤欄目網(wǎng)絡(luò)空間安全¤==¤◎

    收稿日期: 2019-05-22;修回日期:2019-07-02;錄用日期:2019-07-04?;痦?xiàng)目:陜西省重點(diǎn)學(xué)科資助項(xiàng)目(107-00X901)。

    作者簡(jiǎn)介:王建仁(1961—),男,陜西西安人,副教授,碩士,主要研究方向:數(shù)據(jù)挖掘、商務(wù)智能、決策支持; 馬鑫(1995—),男,山東濰坊人,碩士研究生,主要研究方向:機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、推薦系統(tǒng); 段剛龍(1977—),男,陜西西安人,副教授,博士,主要研究方向:數(shù)據(jù)挖掘、商務(wù)智能、決策支持; 薛宏全(1978—),男,陜西西安人,講師,博士,主要研究方向:計(jì)算智能、先進(jìn)制造管理。

    文章編號(hào):1001-9081(2019)12-3548-08DOI:10.11772/j.issn.1001-9081.2019050869

    猜你喜歡
    卷積手寫神經(jīng)網(wǎng)絡(luò)
    基于人工智能LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)成績(jī)預(yù)測(cè)
    基于圖像處理與卷積神經(jīng)網(wǎng)絡(luò)的零件識(shí)別
    我手寫我心
    基于全卷積神經(jīng)網(wǎng)絡(luò)的變壓器故障診斷
    基于深度卷積網(wǎng)絡(luò)與空洞卷積融合的人群計(jì)數(shù)
    基于自適應(yīng)神經(jīng)網(wǎng)絡(luò)的電網(wǎng)穩(wěn)定性預(yù)測(cè)
    我手寫我意
    三次樣條和二次刪除相輔助的WASD神經(jīng)網(wǎng)絡(luò)與日本人口預(yù)測(cè)
    卷積神經(jīng)網(wǎng)絡(luò)概述
    6萬(wàn)字的情書
    国产在线精品亚洲第一网站| 精品一区二区三区视频在线观看免费| 三级国产精品欧美在线观看 | 成人性生交大片免费视频hd| 丰满人妻熟妇乱又伦精品不卡| 丁香六月欧美| 欧美不卡视频在线免费观看| 午夜福利高清视频| 久久精品影院6| 精品免费久久久久久久清纯| 免费观看人在逋| a在线观看视频网站| 性欧美人与动物交配| 免费观看精品视频网站| av天堂中文字幕网| 一区福利在线观看| 听说在线观看完整版免费高清| 亚洲精华国产精华精| 别揉我奶头~嗯~啊~动态视频| 欧美国产日韩亚洲一区| 无限看片的www在线观看| 一进一出抽搐gif免费好疼| 久久亚洲精品不卡| 国产高清有码在线观看视频| 国产成人欧美在线观看| 免费在线观看日本一区| 久久精品91蜜桃| 日韩中文字幕欧美一区二区| 麻豆久久精品国产亚洲av| 亚洲av五月六月丁香网| 1000部很黄的大片| 久久精品影院6| 午夜福利在线观看吧| 久久久久性生活片| 国产精品野战在线观看| 不卡一级毛片| 日本精品一区二区三区蜜桃| 高清毛片免费观看视频网站| 国内久久婷婷六月综合欲色啪| 免费无遮挡裸体视频| 久久久久亚洲av毛片大全| 欧美黄色片欧美黄色片| 黄片大片在线免费观看| 天堂影院成人在线观看| 欧美日韩精品网址| 国产欧美日韩一区二区三| 男女床上黄色一级片免费看| a在线观看视频网站| 伦理电影免费视频| 精品99又大又爽又粗少妇毛片 | 日韩欧美国产一区二区入口| 深夜精品福利| 桃红色精品国产亚洲av| 亚洲天堂国产精品一区在线| 老司机在亚洲福利影院| 国产精品久久久av美女十八| 69av精品久久久久久| 国产日本99.免费观看| 成人一区二区视频在线观看| 1000部很黄的大片| 成年女人永久免费观看视频| 日韩有码中文字幕| 一级毛片女人18水好多| 夜夜看夜夜爽夜夜摸| 亚洲激情在线av| 成人午夜高清在线视频| 美女扒开内裤让男人捅视频| 国产精品99久久久久久久久| 2021天堂中文幕一二区在线观| 99在线人妻在线中文字幕| 亚洲国产精品成人综合色| 老司机午夜福利在线观看视频| 99精品在免费线老司机午夜| 午夜两性在线视频| www.999成人在线观看| 中亚洲国语对白在线视频| 狂野欧美激情性xxxx| 成人欧美大片| 日韩欧美 国产精品| 1024香蕉在线观看| 十八禁人妻一区二区| 成年女人毛片免费观看观看9| 少妇的逼水好多| 亚洲精品一卡2卡三卡4卡5卡| 国产一区二区在线观看日韩 | 欧美日韩黄片免| 久久亚洲精品不卡| a在线观看视频网站| svipshipincom国产片| 欧美日韩瑟瑟在线播放| 少妇丰满av| 叶爱在线成人免费视频播放| 日本黄色片子视频| 特级一级黄色大片| 国产蜜桃级精品一区二区三区| 在线观看午夜福利视频| 成人一区二区视频在线观看| 日韩欧美精品v在线| 亚洲av熟女| 精品久久久久久成人av| 动漫黄色视频在线观看| 欧美性猛交黑人性爽| 免费在线观看亚洲国产| 亚洲va日本ⅴa欧美va伊人久久| 97人妻精品一区二区三区麻豆| 91在线精品国自产拍蜜月 | 在线十欧美十亚洲十日本专区| 巨乳人妻的诱惑在线观看| cao死你这个sao货| 国产精品 欧美亚洲| 亚洲国产精品合色在线| 国产男靠女视频免费网站| 法律面前人人平等表现在哪些方面| 精品99又大又爽又粗少妇毛片 | 久久精品aⅴ一区二区三区四区| 一区福利在线观看| 精品国产美女av久久久久小说| 夜夜躁狠狠躁天天躁| 可以在线观看毛片的网站| 亚洲第一欧美日韩一区二区三区| 亚洲av熟女| 99久久无色码亚洲精品果冻| 99热6这里只有精品| 欧美黄色淫秽网站| 怎么达到女性高潮| 午夜日韩欧美国产| 最近在线观看免费完整版| 国模一区二区三区四区视频 | 欧美日韩福利视频一区二区| 成年女人毛片免费观看观看9| 天堂影院成人在线观看| 又黄又粗又硬又大视频| 国产精品1区2区在线观看.| 国产视频一区二区在线看| 成人国产一区最新在线观看| 亚洲欧美日韩无卡精品| 村上凉子中文字幕在线| 国产三级在线视频| 亚洲av成人不卡在线观看播放网| 深夜精品福利| 精品欧美国产一区二区三| 亚洲在线观看片| 亚洲精品在线美女| 长腿黑丝高跟| 亚洲人成电影免费在线| 亚洲va日本ⅴa欧美va伊人久久| 啦啦啦免费观看视频1| 一夜夜www| 少妇的丰满在线观看| 又紧又爽又黄一区二区| 国产精品一区二区三区四区久久| 国产麻豆成人av免费视频| 亚洲欧美日韩高清在线视频| 一进一出抽搐gif免费好疼| 视频区欧美日本亚洲| 精品一区二区三区四区五区乱码| 欧美色欧美亚洲另类二区| 啦啦啦韩国在线观看视频| 免费看a级黄色片| 国产精品av久久久久免费| 女人被狂操c到高潮| 欧美日韩瑟瑟在线播放| 亚洲国产欧美人成| 成人鲁丝片一二三区免费| 老司机深夜福利视频在线观看| 日本五十路高清| 69av精品久久久久久| 久久伊人香网站| 成人特级黄色片久久久久久久| 丰满人妻一区二区三区视频av | 亚洲欧美一区二区三区黑人| 国产激情久久老熟女| 黄色日韩在线| 老汉色av国产亚洲站长工具| 女人被狂操c到高潮| 又黄又爽又免费观看的视频| 88av欧美| 99热6这里只有精品| 欧美乱色亚洲激情| 亚洲,欧美精品.| 别揉我奶头~嗯~啊~动态视频| 特级一级黄色大片| 国产精品av视频在线免费观看| 最近最新免费中文字幕在线| 精品国内亚洲2022精品成人| www.自偷自拍.com| 日日干狠狠操夜夜爽| 制服人妻中文乱码| 日韩精品青青久久久久久| 成在线人永久免费视频| 亚洲av电影不卡..在线观看| 久久精品91蜜桃| 亚洲国产欧美人成| 99热这里只有精品一区 | 亚洲av免费在线观看| 香蕉国产在线看| 天堂网av新在线| 国产乱人视频| 99在线人妻在线中文字幕| 99久国产av精品| 国产黄片美女视频| 久久久久久国产a免费观看| 日韩有码中文字幕| 成人国产综合亚洲| 色吧在线观看| 日本撒尿小便嘘嘘汇集6| 亚洲 欧美一区二区三区| 日本成人三级电影网站| 男人舔女人下体高潮全视频| 久久久久九九精品影院| 中文字幕久久专区| 悠悠久久av| 日本精品一区二区三区蜜桃| 成熟少妇高潮喷水视频| 99国产极品粉嫩在线观看| a级毛片在线看网站| 免费观看精品视频网站| 色噜噜av男人的天堂激情| 免费观看的影片在线观看| 一级毛片精品| 国产乱人视频| 嫩草影院入口| 看黄色毛片网站| 天天躁狠狠躁夜夜躁狠狠躁| 91av网站免费观看| 看免费av毛片| 日本 av在线| 国产美女午夜福利| 精品福利观看| 国产av不卡久久| 精品一区二区三区视频在线 | 麻豆一二三区av精品| 亚洲真实伦在线观看| 亚洲av熟女| 黄色丝袜av网址大全| 婷婷精品国产亚洲av在线| 99国产精品一区二区蜜桃av| 看片在线看免费视频| 99国产极品粉嫩在线观看| 这个男人来自地球电影免费观看| 看黄色毛片网站| 男女下面进入的视频免费午夜| 一级作爱视频免费观看| 日本熟妇午夜| 欧美一区二区国产精品久久精品| 婷婷丁香在线五月| 午夜福利在线观看免费完整高清在 | 老司机午夜福利在线观看视频| 中文亚洲av片在线观看爽| 亚洲国产欧美人成| 日韩大尺度精品在线看网址| 国产一区二区在线观看日韩 | 真人一进一出gif抽搐免费| 中文字幕久久专区| 久久精品国产亚洲av香蕉五月| 午夜精品在线福利| 免费在线观看视频国产中文字幕亚洲| 久久精品aⅴ一区二区三区四区| 麻豆成人午夜福利视频| 亚洲欧美日韩东京热| 村上凉子中文字幕在线| 亚洲aⅴ乱码一区二区在线播放| 淫妇啪啪啪对白视频| 亚洲真实伦在线观看| 国模一区二区三区四区视频 | 亚洲精品粉嫩美女一区| 色综合欧美亚洲国产小说| 日韩免费av在线播放| 51午夜福利影视在线观看| 久久久精品大字幕| 一区福利在线观看| 国产v大片淫在线免费观看| 不卡一级毛片| 日本一二三区视频观看| 小蜜桃在线观看免费完整版高清| 美女午夜性视频免费| 一本久久中文字幕| 国产精品国产高清国产av| 天堂√8在线中文| 91麻豆av在线| 国产精品久久久久久久电影 | 久久亚洲真实| 丁香六月欧美| 国产野战对白在线观看| 一级作爱视频免费观看| 九九在线视频观看精品| 日日干狠狠操夜夜爽| 亚洲av成人一区二区三| 国产伦精品一区二区三区视频9 | 在线观看免费午夜福利视频| 婷婷亚洲欧美| 99国产综合亚洲精品| 中文在线观看免费www的网站| 亚洲av成人不卡在线观看播放网| 亚洲乱码一区二区免费版| 嫩草影院入口| 国产精品国产高清国产av| 国产精品九九99| 亚洲一区高清亚洲精品| 国产爱豆传媒在线观看| 精品熟女少妇八av免费久了| 亚洲专区国产一区二区| 两个人视频免费观看高清| 美女被艹到高潮喷水动态| av欧美777| 又爽又黄无遮挡网站| 身体一侧抽搐| 这个男人来自地球电影免费观看| av天堂中文字幕网| 亚洲欧美日韩卡通动漫| 真人做人爱边吃奶动态| 黄片小视频在线播放| 国产精品亚洲av一区麻豆| 每晚都被弄得嗷嗷叫到高潮| 午夜福利免费观看在线| 免费在线观看日本一区| 色吧在线观看| 国产精品久久电影中文字幕| avwww免费| 精品无人区乱码1区二区| 在线观看免费视频日本深夜| 偷拍熟女少妇极品色| 亚洲国产中文字幕在线视频| 免费看a级黄色片| tocl精华| 日本成人三级电影网站| 国产一区二区激情短视频| 午夜精品一区二区三区免费看| 美女大奶头视频| 熟女人妻精品中文字幕| 国产99白浆流出| 欧美zozozo另类| 国产亚洲精品综合一区在线观看| 国产高清视频在线观看网站| 伦理电影免费视频| 欧美午夜高清在线| 特大巨黑吊av在线直播| 亚洲乱码一区二区免费版| 男插女下体视频免费在线播放| h日本视频在线播放| 国产精品av久久久久免费| 国产探花在线观看一区二区| 久久国产乱子伦精品免费另类| 久久九九热精品免费| 一二三四在线观看免费中文在| 久久中文字幕人妻熟女| 一级毛片女人18水好多| 91麻豆精品激情在线观看国产| 久久久国产成人免费| 精品不卡国产一区二区三区| 国产精品 国内视频| 香蕉久久夜色| 午夜福利免费观看在线| 小蜜桃在线观看免费完整版高清| 国产av不卡久久| 亚洲欧洲精品一区二区精品久久久| 午夜福利高清视频| 国模一区二区三区四区视频 | 亚洲真实伦在线观看| 热99re8久久精品国产| 国产亚洲精品久久久久久毛片| 少妇裸体淫交视频免费看高清| 国产伦精品一区二区三区四那| 精品国产美女av久久久久小说| 久久久久国产一级毛片高清牌| 午夜福利高清视频| 桃红色精品国产亚洲av| 亚洲成人免费电影在线观看| 亚洲av熟女| 国产午夜精品论理片| 国产精品,欧美在线| 校园春色视频在线观看| 久久国产乱子伦精品免费另类| 熟女人妻精品中文字幕| 级片在线观看| 好男人电影高清在线观看| 免费搜索国产男女视频| 天堂网av新在线| 午夜影院日韩av| 在线观看日韩欧美| 日本黄大片高清| 1024手机看黄色片| 1000部很黄的大片| 亚洲国产色片| 亚洲精品在线观看二区| 99热6这里只有精品| 99久久久亚洲精品蜜臀av| 久久中文字幕一级| 亚洲最大成人中文| 叶爱在线成人免费视频播放| 91在线观看av| 一二三四社区在线视频社区8| 久久久久久久久免费视频了| 久久精品国产清高在天天线| 日本三级黄在线观看| 亚洲美女视频黄频| 中文在线观看免费www的网站| 97超视频在线观看视频| 日日摸夜夜添夜夜添小说| 欧美日韩中文字幕国产精品一区二区三区| 黑人操中国人逼视频| 久久久精品欧美日韩精品| 好看av亚洲va欧美ⅴa在| 一夜夜www| 欧美不卡视频在线免费观看| 国产成人影院久久av| 国产午夜福利久久久久久| 国产淫片久久久久久久久 | 亚洲欧美日韩高清在线视频| 琪琪午夜伦伦电影理论片6080| 午夜日韩欧美国产| 日日干狠狠操夜夜爽| 欧美日韩精品网址| 毛片女人毛片| 亚洲av成人不卡在线观看播放网| 久久精品国产99精品国产亚洲性色| 丁香欧美五月| 国产高清videossex| 岛国视频午夜一区免费看| 啦啦啦韩国在线观看视频| 午夜福利免费观看在线| 日本熟妇午夜| 久久久久国内视频| 国产一区二区三区视频了| 在线观看免费午夜福利视频| 国产爱豆传媒在线观看| 成人鲁丝片一二三区免费| 午夜影院日韩av| 99久国产av精品| 巨乳人妻的诱惑在线观看| 老司机午夜福利在线观看视频| 午夜福利18| xxxwww97欧美| 天天躁狠狠躁夜夜躁狠狠躁| 99久久综合精品五月天人人| 1024香蕉在线观看| 国产在线精品亚洲第一网站| 亚洲国产欧洲综合997久久,| 人人妻人人看人人澡| 久久精品综合一区二区三区| 免费一级毛片在线播放高清视频| 黄色视频,在线免费观看| 久久久久久久久中文| 综合色av麻豆| 亚洲欧美日韩东京热| 两个人视频免费观看高清| 特级一级黄色大片| 亚洲精品在线美女| 成年人黄色毛片网站| 久久久久久九九精品二区国产| 国产美女午夜福利| 99国产极品粉嫩在线观看| 免费在线观看亚洲国产| 中文字幕人成人乱码亚洲影| 亚洲国产中文字幕在线视频| 国产精品av视频在线免费观看| 亚洲人成网站高清观看| 中文字幕人妻丝袜一区二区| 可以在线观看毛片的网站| 99国产综合亚洲精品| 搞女人的毛片| 亚洲黑人精品在线| 黄色成人免费大全| 给我免费播放毛片高清在线观看| 日韩精品中文字幕看吧| 成人无遮挡网站| 女同久久另类99精品国产91| 俺也久久电影网| 亚洲精品在线美女| 麻豆成人午夜福利视频| 女人高潮潮喷娇喘18禁视频| 午夜激情福利司机影院| 亚洲国产精品sss在线观看| 黄色丝袜av网址大全| 久久中文看片网| 国产激情偷乱视频一区二区| a级毛片a级免费在线| 国产熟女xx| 18禁美女被吸乳视频| 小说图片视频综合网站| 真人一进一出gif抽搐免费| 日韩人妻高清精品专区| x7x7x7水蜜桃| 少妇丰满av| 99久久成人亚洲精品观看| 黄片小视频在线播放| 亚洲人成网站高清观看| 久久中文字幕一级| 亚洲午夜精品一区,二区,三区| 精品久久久久久久末码| 日韩免费av在线播放| 亚洲成a人片在线一区二区| 国产成人系列免费观看| 欧美国产日韩亚洲一区| 国产一区二区激情短视频| 91在线观看av| 成人午夜高清在线视频| 在线观看免费视频日本深夜| 热99re8久久精品国产| 亚洲乱码一区二区免费版| 精品午夜福利视频在线观看一区| 国产一区二区在线观看日韩 | av黄色大香蕉| 美女高潮喷水抽搐中文字幕| 成人一区二区视频在线观看| 一夜夜www| av天堂中文字幕网| 亚洲色图 男人天堂 中文字幕| 久久欧美精品欧美久久欧美| 国产精品亚洲av一区麻豆| 国产一区在线观看成人免费| 亚洲国产中文字幕在线视频| 久久精品影院6| 亚洲国产欧美网| 天天添夜夜摸| 激情在线观看视频在线高清| 亚洲精华国产精华精| 日韩中文字幕欧美一区二区| 97超级碰碰碰精品色视频在线观看| 一级a爱片免费观看的视频| 成人亚洲精品av一区二区| 久久久久久久久久黄片| 国产1区2区3区精品| 日韩三级视频一区二区三区| 好看av亚洲va欧美ⅴa在| 亚洲国产精品成人综合色| 国产精品综合久久久久久久免费| 欧美色欧美亚洲另类二区| 99re在线观看精品视频| 国产精品电影一区二区三区| 偷拍熟女少妇极品色| 欧美高清成人免费视频www| 天天躁日日操中文字幕| 日本黄色视频三级网站网址| 精品欧美国产一区二区三| 日本五十路高清| 欧美极品一区二区三区四区| 日韩三级视频一区二区三区| 一本综合久久免费| 岛国在线免费视频观看| 一进一出抽搐gif免费好疼| 成年免费大片在线观看| 中文字幕人成人乱码亚洲影| 国产欧美日韩精品一区二区| 国产精品精品国产色婷婷| 亚洲午夜理论影院| 国产精品久久久久久人妻精品电影| 国产精品久久久久久久电影 | 亚洲第一欧美日韩一区二区三区| 亚洲av免费在线观看| 色综合婷婷激情| 最近最新免费中文字幕在线| 一进一出抽搐gif免费好疼| 国产精品亚洲av一区麻豆| 国产精品一区二区三区四区久久| 91在线观看av| 这个男人来自地球电影免费观看| 久久精品人妻少妇| 欧美极品一区二区三区四区| 国产黄a三级三级三级人| 两性午夜刺激爽爽歪歪视频在线观看| 色播亚洲综合网| 亚洲 欧美 日韩 在线 免费| 国内精品久久久久久久电影| 宅男免费午夜| 99久久99久久久精品蜜桃| 丝袜人妻中文字幕| 又粗又爽又猛毛片免费看| 熟女人妻精品中文字幕| 色综合亚洲欧美另类图片| 99久久精品一区二区三区| 亚洲av第一区精品v没综合| 全区人妻精品视频| 1024手机看黄色片| avwww免费| 免费在线观看日本一区| 免费人成视频x8x8入口观看| 免费在线观看影片大全网站| 成年女人毛片免费观看观看9| 变态另类丝袜制服| 欧美精品啪啪一区二区三区| 一本久久中文字幕| av国产免费在线观看| 亚洲在线自拍视频| 久久久久久久精品吃奶| 午夜视频精品福利| 人妻久久中文字幕网| 久久精品综合一区二区三区| 婷婷亚洲欧美| x7x7x7水蜜桃| 一进一出好大好爽视频| 免费一级毛片在线播放高清视频| 在线观看午夜福利视频| 波多野结衣高清无吗| 久久久久国产一级毛片高清牌| 亚洲精品色激情综合| 亚洲无线观看免费| 真人一进一出gif抽搐免费| 精华霜和精华液先用哪个| 亚洲精品乱码久久久v下载方式 | 香蕉丝袜av| 亚洲专区国产一区二区| 成人性生交大片免费视频hd| 2021天堂中文幕一二区在线观| 色尼玛亚洲综合影院| 国产一区二区在线av高清观看| 岛国在线观看网站| 桃红色精品国产亚洲av| 波多野结衣高清无吗| 蜜桃久久精品国产亚洲av| 麻豆国产97在线/欧美| 国产免费男女视频| 桃红色精品国产亚洲av| 免费在线观看影片大全网站| 亚洲第一欧美日韩一区二区三区|