• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于卷積神經(jīng)網(wǎng)絡(luò)和代價敏感的不平衡圖像分類方法

    2018-08-27 10:54:08譚潔帆陳同孝張真誠
    計算機應(yīng)用 2018年7期
    關(guān)鍵詞:三元組代價神經(jīng)網(wǎng)絡(luò)

    譚潔帆,朱 焱,陳同孝,張真誠

    (1.西南交通大學(xué) 信息科學(xué)與技術(shù)學(xué)院,成都 611756; 2.臺中科技大學(xué) 資訊工程系,臺灣 臺中 404;3.逢甲大學(xué) 資訊工程系,臺灣 臺中407)(*通信作者電子郵箱yzhu@swjtu.edu.cn)

    0 引言

    隨著網(wǎng)絡(luò)多媒體數(shù)據(jù)的日益增多,計算機圖像數(shù)據(jù)的分類已經(jīng)成為了近年來的一個研究熱點。然而,在某些領(lǐng)域數(shù)據(jù)的類別分布是不平衡的,采用傳統(tǒng)分類方法存在兩個問題:1)不同類別的誤分代價通常差別巨大。例如:醫(yī)院腫瘤病患的診斷,警局犯罪分子的人像追蹤和垃圾網(wǎng)頁的圖像識別等,在這些數(shù)據(jù)集中,少數(shù)類的識別更加地重要。少數(shù)類如果分類錯誤可能導(dǎo)致病人得不到及時治療死亡,犯罪分子逃脫或者計算機重要資料泄露等嚴(yán)重的后果。然而傳統(tǒng)分類算法中,假設(shè)所有的誤分代價相等。2)當(dāng)少數(shù)類在數(shù)據(jù)集中的占比少于1%時,即便是將所有樣本都分到多數(shù)類,總的分類正確率仍然大于99%,但是少數(shù)類的分類正確率為0。這說明了,傳統(tǒng)的分類方法雖然有很高的多數(shù)類識別率,但少數(shù)類的識別率有可能卻很低。

    針對以上兩個問題,出現(xiàn)了代價敏感學(xué)習(xí)方法,目前主要包括兩種解決方案:一種是重構(gòu)數(shù)據(jù)集[1],包括閾值移動法、采樣法和樣本加權(quán)法[2];第二種方法是通過改進分類器模型的內(nèi)部結(jié)構(gòu),使其成為基于最小代價為目標(biāo)的代價敏感分類器。在傳統(tǒng)分類算法中引入代價因子,對少數(shù)類賦予較高的代價,多數(shù)類賦予較小的代價,以此來平衡樣本之間的數(shù)目差異[1]。

    目前公開的數(shù)據(jù)集(例如Web Spam UK- 2006/UK- 2007),樣本特征是由大量人工選擇或判斷產(chǎn)生,創(chuàng)建過程主觀而且非常費時費力需要專業(yè)知識的輔助。近年新興的深度學(xué)習(xí)方法通過多層神經(jīng)網(wǎng)絡(luò)的多次迭代訓(xùn)練可以自動學(xué)習(xí)數(shù)據(jù)的特征,很好地解決了上述問題。近年來,深度學(xué)習(xí)模型在提取圖像高層特征方面有著重要的突破?;趯哟位卣鲗W(xué)習(xí)的深度學(xué)習(xí)模型在各種圖像分類、識別、檢索領(lǐng)域都得到了廣泛的應(yīng)用,并且也取得了不錯的性能。Krizhevsky等[3]提出深度卷積神經(jīng)網(wǎng)絡(luò),在大規(guī)模數(shù)據(jù)集ImageNet上取得了非常顯著的效果并證明了該模型在大型圖像數(shù)據(jù)集上進行分類的潛力。Yan等[4]將卷積神經(jīng)網(wǎng)絡(luò)和bootstraping結(jié)合,解決了數(shù)據(jù)集不平衡的問題,在視頻檢索國際權(quán)威評測(TREC Video Retrieval Evaluation, TRECVID)2011 benchmark數(shù)據(jù)集上對視屏截圖進行識別,取得了不錯的效果。Chung等[5]提出了將代價信息應(yīng)用在深度學(xué)習(xí)預(yù)訓(xùn)練階段的方法,將深度學(xué)習(xí)與代價敏感的分類結(jié)合,實驗得到了較好的效果。深度學(xué)習(xí)模型在學(xué)習(xí)圖像特征描述能力上顯示了強大的潛力,采用無監(jiān)督方式學(xué)習(xí)得到的層次特征描述,相比人工選取的特征更具有競爭力,提取的特征不僅表達能力強,分類效率高,而且避免了人工費時費力的特征提取過程。

    本文結(jié)合深度學(xué)習(xí)和代價敏感學(xué)習(xí)建立分類模型,旨在解決不平衡的圖像分類問題。提出了一種三元采樣結(jié)合卷積神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)算法,應(yīng)用該算法自動學(xué)習(xí)圖像數(shù)據(jù)的深層特征并重構(gòu)不平衡數(shù)據(jù)集,再使用代價敏感的支持向量機(Support Vector Machine, SVM)對學(xué)習(xí)到的特征進行分類,期望得到代價最小的分類結(jié)果。

    1 Triplet loss卷積神經(jīng)網(wǎng)絡(luò)

    Triplet loss是Schroff等[6]提出的一種新的基于度量學(xué)習(xí)的誤差公式。它將圖像特征映射到歐幾里得空間,定義了同類樣本與異類樣本間的距離關(guān)系,即在歐氏空間中,兩張圖片的距離越近,則說明它們的相似度越高。通過Triplet loss,卷積神經(jīng)網(wǎng)絡(luò)每次學(xué)習(xí)到的特征使同類樣本的距離越來越近,同時使異類樣本的距離越來越遠。

    (1)

    對應(yīng)的目標(biāo)函數(shù)為:

    (2)

    式(2)中,+表示當(dāng)[]中的值大于零時,損失為該值,小于零時,損失為零。根據(jù)目標(biāo)函數(shù),當(dāng)xa與xn的特征表達之間的距離小于xa與xp的特征表達之間的距離加α?xí)r,[]內(nèi)的值大于零,就會產(chǎn)生損失;反之損失為零。當(dāng)損失不為零時,通過反向傳播算法來調(diào)節(jié)整個網(wǎng)絡(luò),優(yōu)化特征提取模型。

    圖1 三元損失學(xué)習(xí)示意圖[6]

    傳統(tǒng)的圖像分類中主要使用人工選擇的特征或是簡單提取的顏色、紋理等淺層特征,具有主觀性。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)可以通過多次訓(xùn)練學(xué)習(xí)得到圖像更具代表性的特征,Triplet loss替代了傳統(tǒng)CNN中的softmax層,使用三元組計算距離的方式來優(yōu)化網(wǎng)絡(luò),學(xué)習(xí)到的圖像特征更加緊致;但是三元組的構(gòu)建十分重要,否則神經(jīng)網(wǎng)絡(luò)收斂很慢,并且該方法主要針對平衡數(shù)據(jù),并未對數(shù)據(jù)不平衡的情況作處理。

    2 代價敏感的SVM

    SVM是Vapnik根據(jù)統(tǒng)計學(xué)習(xí)理論提出的一種新的學(xué)習(xí)方法,它的最大特點是根據(jù)結(jié)構(gòu)風(fēng)險最小化準(zhǔn)則,以最大化分類間隔構(gòu)造最優(yōu)分類超平面來提高學(xué)習(xí)機的泛化能力。對于分類問題,SVM在特征空間中找到一個超平面盡可能多地將兩類樣本正確地分開。假定有訓(xùn)練集RN={(xi,yi)}i=1,2,…,n超平面為(wT·x)+b=0,w∈RN,b∈R。SVM問題可以簡化為求max (2/‖w‖),即求‖w‖的最小值。公式表達為:

    (3)

    s.t.yi(wTxi+b)≥1;i=1,2,…,l

    因為訓(xùn)練數(shù)據(jù)通常是線性不可分的,引入了松弛變量δi和懲罰系數(shù)C。針對不平衡數(shù)據(jù),代價敏感的支持向量機(Cost-Sensitive Support Vector Machine, CSSVM)是在傳統(tǒng)算法基礎(chǔ)之上引入了針對各類別不同的懲罰系數(shù),Cp和Cn分別是正類和負(fù)類樣本的代價因子[7]。此時SVM問題用公式表達為:

    (4)

    s.t.yi(wTxi+b)≥1-δi;i=1,2,…,l

    式(4)中,不同類別的代價因子Cp和Cn通常是根據(jù)領(lǐng)域知識得到的。但是在具體應(yīng)用中,很難得到代價因子的精確值。Liu等[8]提出了代價區(qū)間敏感的支持向量機(Cost-Interval Sensitive Support Vector Machine, CISVM)方法,基于不同類別的代價區(qū)間來處理不平衡分類,避免了需要獲得精確值的問題并取得了不錯的效果。

    3 Triplet-CSSVM模型

    為了解決不平衡的圖像分類問題,本文提出了一個基于Triplet-sampling的卷積神經(jīng)網(wǎng)絡(luò)(Triplet-sampling CNN)和代價敏感支持向量機(CSSVM)的不平衡圖像分類方法——Triplet-CSSVM(imbalanced image classification approach based on Triplet-sampling CNN and CSSVM)模型,如圖2。本文將整個分類過程分為兩個部分:第一部分使用Triplet-sampling CNN,通過目標(biāo)函數(shù)為Triplet loss的卷積神經(jīng)網(wǎng)絡(luò)對圖像進行特征學(xué)習(xí),在該過程中結(jié)合了采樣方法重構(gòu)數(shù)據(jù)集(算法1)。訓(xùn)練得到特征學(xué)習(xí)模型,使用該模型提取訓(xùn)練集中每張圖片的特征,作為第二部分的輸入。第二部分應(yīng)用CSSVM進行代價敏感分類。

    圖2 Triplet-CSSVM模型

    算法1 Triplet-sampling CNN。

    輸入:不平衡圖像數(shù)據(jù)集。

    輸出:特征學(xué)習(xí)模型f(x)。

    1)使用目標(biāo)函數(shù)為softmax的CNN進行預(yù)訓(xùn)練,初始化CNN中的各權(quán)值參數(shù)。

    2)去掉CNN中的softmax層,加入Triplet-sampling層。

    3)迭代訓(xùn)練神經(jīng)網(wǎng)絡(luò):

    a)從少數(shù)類和多數(shù)類樣本中隨機產(chǎn)生相同數(shù)量的三元組;

    b)映射樣本數(shù)據(jù)x的特征表達f(x)到歐氏空間;

    c)對樣本的特征表達進行歸一化;

    d)使用式(2)對特征表達f(x)進行優(yōu)化。

    4)停止迭代,得到最終的f(x)。

    前文介紹了的Triplet loss CNN方法是在圖像數(shù)據(jù)平衡時的特征學(xué)習(xí)方法。盡管在數(shù)據(jù)集很小的情況下,可以得到大量的三元組,但如果三元組構(gòu)建不合適,神經(jīng)網(wǎng)絡(luò)收斂十分緩慢。圖1中三元組的Anchor是隨機得到的一個樣本,當(dāng)數(shù)據(jù)集不平衡時,隨機的三元組也是不平衡的。Sampling方法是不平衡分類中常用的一種重構(gòu)數(shù)據(jù)集的方法,因此針對不平衡數(shù)據(jù),算法1中采用的策略是分類別隨機選取Anchor,即在多數(shù)類中隨機選擇一定數(shù)量的Anchor得到三元組后,在少數(shù)類中隨機采樣相等數(shù)量的Anchor得到新的三元組。例如,如果在一組訓(xùn)練數(shù)據(jù)中,希望得到10個三元組,在多數(shù)類中隨機選擇5個Anchor,得到相應(yīng)三元組,再在少數(shù)類中隨機選擇到5個Anchor得到相應(yīng)的三元組。這樣訓(xùn)練數(shù)據(jù)達到了類別分布平衡。為了減少訓(xùn)練時間,根據(jù)本文去掉了式(2)中的α[6],因此目標(biāo)公式變?yōu)椋?/p>

    (5)

    算法1中,第1步對目標(biāo)函數(shù)為softmax的CNN進行預(yù)訓(xùn)練,由于Triplet-sampling CNN訓(xùn)練的復(fù)雜度高,收斂速度慢,從頭開始訓(xùn)練耗費時間長,代價高。根據(jù)遷移學(xué)習(xí)的思想,使用經(jīng)典的CNN對ImageNet上的大的數(shù)據(jù)集進行預(yù)訓(xùn)練,這樣做的原因在于預(yù)訓(xùn)練的網(wǎng)絡(luò)前幾層一般是通用的特征(比如邊緣提取器),而網(wǎng)絡(luò)的后幾層則是與數(shù)據(jù)集和分類任務(wù)相關(guān)的,因而在給定新的數(shù)據(jù)集和分類任務(wù)時可以僅調(diào)整后面幾層。建設(shè)了各權(quán)值初始化后的CNN后,再根據(jù)式(5)對網(wǎng)絡(luò)進行微調(diào),可以節(jié)約大量的時間和資源。

    經(jīng)典的CNN使用softmax作為目標(biāo)函數(shù),產(chǎn)生的特征維數(shù)很大,通常大于1 000維。例如AlexNet,全連接層fc7產(chǎn)生的特征有4 096維;但Triplet-sampling CNN產(chǎn)生的特征維數(shù)只有512,大幅度減輕了分類器的負(fù)擔(dān)。

    CSSVM直接對式(4)所表示的優(yōu)化問題進行求解,其中,應(yīng)提供代價因子Cp、Cn的具體值。本文采用了Wang等[9]定義的代價模型。該模型將正確分類的代價定義為0,即:Cost(1,1)=Cost(0,0)=0,1表示正類,0表示負(fù)類,括號中兩數(shù)相同代表分類正確。少數(shù)類的代價因子取決于不平衡的比例:

    (6)

    其中yi代表樣本i的類別。例如,多數(shù)類的樣本數(shù)為n=90,少數(shù)類的樣本數(shù)為p=10,根據(jù)式(6)少數(shù)類的代價因子則為Cp=90/10=9。該方法定義多數(shù)類代價因子Cn=1。

    4 實驗與結(jié)果分析

    本文提出的不平衡圖像分類模型集成了深度學(xué)習(xí)和代價敏感學(xué)習(xí)方法。通過設(shè)計實驗比較經(jīng)典CNN和傳統(tǒng)SVM方法,驗證本文方法提升了檢測性能。所有的實驗都在著名深度學(xué)習(xí)框架Caffe[10]上進行,實驗平臺為GeForce GTX 960。由于設(shè)備限制,CNN配置文件中的batch_size設(shè)置為6,網(wǎng)絡(luò)迭代次數(shù)為400 000。

    實驗數(shù)據(jù)為人臉數(shù)據(jù)集FaceScrub,該數(shù)據(jù)集包含530人超過100 000張正面圖像(圖3)。數(shù)據(jù)集的原始分布是平衡的且各類別代價因子相等。本文實驗進行了不平衡設(shè)計,選擇兩類圖像進行二分類,兩類數(shù)據(jù)的比例調(diào)整為1∶3。本文中少數(shù)類是正類,多數(shù)類是負(fù)類。

    圖3 人臉圖像實例

    實驗采用三種分類評價指標(biāo):Precision(檢測的精確率)、Recall(召回率)、F-Score(Precision和Recall的調(diào)和均值)。評價指標(biāo)均基于實驗結(jié)果的混淆矩陣計算,如表1所示。

    表1 混淆矩陣[11]

    4.1 實驗結(jié)果與分析

    在相同數(shù)據(jù)集上本文進行了4組實驗,分別是:1)經(jīng)典VGGNet(Visual Geometry Group-Net)[12]結(jié)合傳統(tǒng)SVM分類——VGGNet-SVM(Visual Geometry Group Net-Support Vector Machine);2)經(jīng)典VGGNet結(jié)合CSSVM分類(VGGNet-CSSVM);3)Triplet-sampling CNN結(jié)合傳統(tǒng)SVM(Triplet-SVM);4)Triplet-CSSVM(本文方法)。實驗結(jié)果如表2所示。

    表2 實驗結(jié)果比較(少數(shù)類)

    結(jié)果表明,使用經(jīng)典VGGNet結(jié)合傳統(tǒng)SVM方法時,分類性能最低。當(dāng)分類方法相同時(1,3/2,4),Triplet-sampling CNN的學(xué)習(xí)效果明顯優(yōu)于VGGNet。本文方法在Recall一項達到了0.93,比VGGNet-SVM提高了71個百分點,說明本文方法在少數(shù)類的查全率上優(yōu)勝其他所有方法。

    4.2 方法有效性實驗

    為了驗證Triplet-sampling CNN 和CSSVM在不平衡圖像分類的作用。本文在類別比例為1∶3的圖像數(shù)據(jù)上進行了特征學(xué)習(xí),然后在類別比為1∶1、1∶3、1∶6以及1∶9的圖像數(shù)據(jù)上使用上一步得到的特征學(xué)習(xí)模型提取圖像特征,再進行代價敏感分類。表3為實驗結(jié)果。

    表3 不同不平衡比例下的CSSVM分類結(jié)果

    實驗結(jié)果顯示,當(dāng)Triplet-sampling CNN的訓(xùn)練集比例為1∶3時,CSSVM能得到最佳分類效果的兩類數(shù)據(jù)的不平衡比例也是1∶3,即模型中兩部分訓(xùn)練的圖像數(shù)據(jù)集不平衡率相同時,分類效果最好,證明了CSSVM對不平衡分類的有效性。當(dāng)CSSVM分類的兩類數(shù)據(jù)的不平衡比例為1∶3時,少數(shù)類F-Score比1∶1的情況下提高了15個百分點,這是由于特征提取模型是在1∶3的訓(xùn)練集上學(xué)習(xí)得到的,即在特征提取過程中,Triplet-sampling起到了作用,使通過該模型提取的特征根據(jù)1∶3的類別比進行了采樣,導(dǎo)致1∶1比例下的數(shù)據(jù)提取到的特征反而不如1∶3比例下的數(shù)據(jù)提取到的特征平衡,所以其分類結(jié)果劣于1∶3。

    5 結(jié)語

    本文提出了集成Triplet-sampling CNN和CSSVM(Triplet-CSSVM)的模型來解決圖像數(shù)據(jù)不平衡的分類問題。Triplet-CSSVM將不平衡處理過程分為兩部分,特征學(xué)習(xí)部分重構(gòu)數(shù)據(jù)集分布,在分類部分突出少數(shù)類的重要性。與傳統(tǒng)方法比較,得到更加優(yōu)秀的分類效果。在醫(yī)療診斷和犯罪識別等數(shù)據(jù)極度不平衡的領(lǐng)域可以得到廣泛的應(yīng)用。由于分類采用SVM方法,在后續(xù)的研究中,可以探究是否可以應(yīng)用深度學(xué)習(xí)同時特征學(xué)習(xí)和分類兩個問題。

    猜你喜歡
    三元組代價神經(jīng)網(wǎng)絡(luò)
    基于語義增強雙編碼器的方面情感三元組提取
    軟件工程(2024年12期)2024-12-28 00:00:00
    基于帶噪聲數(shù)據(jù)集的強魯棒性隱含三元組質(zhì)檢算法*
    神經(jīng)網(wǎng)絡(luò)抑制無線通信干擾探究
    電子制作(2019年19期)2019-11-23 08:42:00
    關(guān)于余撓三元組的periodic-模
    愛的代價
    海峽姐妹(2017年12期)2018-01-31 02:12:22
    代價
    基于神經(jīng)網(wǎng)絡(luò)的拉矯機控制模型建立
    重型機械(2016年1期)2016-03-01 03:42:04
    復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
    成熟的代價
    基于支持向量機回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
    昆山市| 佳木斯市| 天祝| 临海市| 蕉岭县| 平陆县| 五指山市| 天长市| 大荔县| 漳州市| 睢宁县| 砚山县| 吉安市| 信宜市| 新昌县| 车致| 泰和县| 正蓝旗| 云林县| 太保市| 龙门县| 西和县| 谢通门县| 北宁市| 平邑县| 姜堰市| 繁昌县| 沁源县| 黄山市| 雷州市| 琼结县| 出国| 紫云| 西吉县| 云南省| 浪卡子县| 泽普县| 北票市| 舞阳县| 八宿县| 肇州县|