• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    審計(jì)調(diào)查中人臉識(shí)別算法的研究與應(yīng)用

    2021-06-28 17:46:41王海榮李偉波萬權(quán)鄢華向銳
    電腦知識(shí)與技術(shù) 2021年10期
    關(guān)鍵詞:圖像增強(qiáng)人臉識(shí)別深度學(xué)習(xí)

    王海榮 李偉波 萬權(quán) 鄢華 向銳

    摘要:針對(duì)審計(jì)調(diào)查中人臉圖像識(shí)別應(yīng)用場(chǎng)景,首先模擬了一個(gè)相應(yīng)環(huán)境干擾的人臉數(shù)據(jù)集,增加數(shù)據(jù)的多樣性;在預(yù)處理階段,研究采用自適應(yīng)直方圖光照平衡和模擬眼鏡遮蓋的改進(jìn)方法進(jìn)行了圖像增強(qiáng)處理;在模型訓(xùn)練階段,提出一種最優(yōu)權(quán)重再重載的模型訓(xùn)練算法。對(duì)比實(shí)驗(yàn)結(jié)果表明,經(jīng)過圖像增強(qiáng)預(yù)處理的改進(jìn)和最優(yōu)權(quán)重再重載的模型訓(xùn)練,提高了應(yīng)用場(chǎng)景中人臉識(shí)別的準(zhǔn)確率、魯棒性和效率。

    關(guān)鍵詞:深度學(xué)習(xí);人臉識(shí)別;審計(jì)調(diào)查 ;圖像增強(qiáng);模型訓(xùn)練

    中圖分類號(hào):TP301? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A

    文章編號(hào):1009-3044(2021)10-0012-07

    Abstract: According to the application scenarios of face recognition in the audit investigation, a face data set with corresponding environmental interference was simulated in advance to increase the diversity of data. In the preprocessing stage, transformation operations such as adaptive histogram light balance, glasses concealment, and horizontal flipping were done, which improved the accuracy and robustness of the training model. In the pre-processing comparison experiment, the accuracy of the model increased by 5.7% after a series of pre-processing. In the model training stage, a model training algorithm with optimal weights and reload is proposed. Experimental results show that this training algorithm has significant advantages over traditional training algorithms in terms of the convergence speed and final accuracy of model training.

    Key words: deep learning; face recognition; audit investigation; image enhancement; model training

    傳統(tǒng)的人臉識(shí)別有基于幾何特征的人臉識(shí)別方法\基于模板匹配的方法\基于子空間的方法\基于統(tǒng)計(jì)的方法[1]。而現(xiàn)在主流的人臉識(shí)別的方法是基于深度卷積神經(jīng)網(wǎng)絡(luò)的方法,雖然在檢測(cè)速度和占用的性能資源沒有傳統(tǒng)的方法的優(yōu)勢(shì),但是在檢測(cè)準(zhǔn)確率方面,具有明顯的優(yōu)勢(shì)和更好的應(yīng)用前景[2]。不過,在人臉識(shí)別實(shí)際應(yīng)用過程中仍然有許多問題亟待解決。

    “在飛行檢查的會(huì)議合規(guī)性調(diào)查中,一些涉及人員審核的場(chǎng)景比如會(huì)議現(xiàn)場(chǎng)或者聚餐現(xiàn)場(chǎng)的人臉識(shí)別場(chǎng)景,需要對(duì)這些活動(dòng)現(xiàn)場(chǎng)中的關(guān)鍵人物進(jìn)行人臉識(shí)別”審計(jì)人員會(huì)根據(jù)會(huì)議關(guān)鍵人物到場(chǎng)情況來判斷會(huì)議的合規(guī)性和風(fēng)險(xiǎn)程度?,F(xiàn)場(chǎng)會(huì)議人員審核作為其中至關(guān)重要的一環(huán)節(jié),往往需要準(zhǔn)確實(shí)時(shí)。但是一般的人臉圖像識(shí)別算法在這些復(fù)雜多樣的場(chǎng)景下面,由于光線不均,檢測(cè)對(duì)象人臉遮蓋等因素很容易導(dǎo)致檢測(cè)失敗,識(shí)別出錯(cuò)等問題[3-5]。面對(duì)這些問題,文獻(xiàn)[6-9]使用隨機(jī)遮蓋方法來提高對(duì)人臉遮蓋的魯棒性,但是對(duì)于人臉的特定局部特征不具有針對(duì)性。文獻(xiàn)[4]介紹了可以使用Retinex算法緩解光照的問題,但是沒有應(yīng)用在人臉識(shí)別預(yù)處理中。

    基于審計(jì)調(diào)查的應(yīng)用場(chǎng)景,在預(yù)處理階段,提出直方圖均衡處理和Retinex光照均衡處理,緩解人臉光照不均的問題;使用模擬眼鏡遮蓋改進(jìn)算法提高識(shí)別戴眼鏡人臉準(zhǔn)確度和魯棒性。在模型訓(xùn)練階段,根據(jù)在卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練過程中往往需要大量的訓(xùn)練時(shí)間才能獲得一個(gè)比較滿意的模型效果這一現(xiàn)象,提出一種最優(yōu)權(quán)重重載的模型訓(xùn)練算法,加快模型的收斂速率,提高模型最終成型的準(zhǔn)確率。通過對(duì)比實(shí)驗(yàn)的結(jié)果表明,這些改進(jìn)能夠讓模型取得了比較好的效果,并且具有非常好的普適性和應(yīng)用價(jià)值。

    1 相關(guān)理論與方法研究

    1.1 圖像增強(qiáng)處理

    圖像增強(qiáng)處理能夠讓原始數(shù)據(jù)集圖像信息得到充分的利用。圖像增強(qiáng)處理一般有兩種處理方式。第一種是離線增強(qiáng),即數(shù)據(jù)集擴(kuò)充;第二種是在線增強(qiáng),即數(shù)據(jù)集加載時(shí)的預(yù)處理。

    在深度學(xué)習(xí)圖像領(lǐng)域模型訓(xùn)練過程中,一般在預(yù)處理階段來實(shí)現(xiàn)圖像增強(qiáng)。因?yàn)橐话銛?shù)據(jù)集所占用的內(nèi)存都比較大,這樣能節(jié)省很多空間。同時(shí)這樣也便于使用隨機(jī)處理,可以讓訓(xùn)練出的模型泛化性能會(huì)更好。

    研究將局部遮蓋和直方圖均衡和Retinex均衡這三種圖像增強(qiáng)處理操作用于模型訓(xùn)練的預(yù)處理中的意義,就在于充分利用原始圖像的信息,實(shí)現(xiàn)模型對(duì)局部特征和對(duì)光照不均的魯棒性。

    1.1.1 局部遮蓋

    局部遮蓋與隨機(jī)遮蓋的區(qū)別就是,局部遮蓋的針對(duì)性更強(qiáng),能夠提高模型對(duì)特定局部特征的魯棒性。在人臉識(shí)別中,為了提高模型對(duì)眼鏡的魯棒性,我們可以使用眼鏡遮蓋的局部遮蓋干擾算法。

    眼鏡遮蓋算法就是模擬出人臉戴眼鏡的圖像。在實(shí)現(xiàn)眼鏡遮蓋這個(gè)過程中,首先通過MTCNN(Multi-task convolutional neural networks[10],多任務(wù)卷積神經(jīng)網(wǎng)絡(luò))人臉檢測(cè)算法定位到人臉的兩只眼睛的坐標(biāo),然后根據(jù)該坐標(biāo)進(jìn)人臉對(duì)齊并添加眼鏡遮蓋。一般情況下,兩只眼睛并不在同一水平下面。根據(jù)兩只眼睛的坐標(biāo)[x1,y1]與[x2,y2]求出與水平線的夾角θ

    然后根據(jù)夾角θ進(jìn)行矯正,即可達(dá)到人臉對(duì)齊的效果。

    1.1.2 直方圖均衡

    直方圖均衡化是將原始圖像的灰度直方圖通過變化函數(shù)重新分配為灰度均勻的直方圖,增強(qiáng)了對(duì)比度。

    每個(gè)移動(dòng)模板中的直方圖中每一灰度級(jí)k出現(xiàn)的概率可定義為:

    其中 N表示圖像的像素總數(shù),L表示圖像灰度級(jí)數(shù),表示第k級(jí)灰度,r_k表示第k個(gè)灰度級(jí)

    然后根據(jù)灰度級(jí)概率進(jìn)行均衡化處理:

    對(duì)比效果見圖2。

    1.1.3 Retinex光照均衡

    Retinex理論[11-12]認(rèn)為物體的圖像(S)是由物體表面對(duì)入射光(L)反射得到的,而反射率R則由物體本身決定,不受入射光L的影響而變化。圖像的照度取決于照射在該物體上的1光源,反射率取決于物體本身。根據(jù)Retinex理論,從數(shù)學(xué)的角度看,可以將圖像除以反射率來計(jì)算出照度?;赗etinex方法的圖像形成模型如下:

    其中I(m,n)表示圖像,I的取值范圍在0到255之間,R(m,n)是物體的反射率,反射率的范圍在0和1之間,L(m,n)是照度,照度取值范圍也在0到255之間。

    最終可以整理出:

    根據(jù)式(5)可以看到,要估計(jì)反射率,必須對(duì)照度以及圖像進(jìn)行估算。因此,可以使用各種估算照度的濾波器。通過濾波器,可以使圖像平滑,并且在大多數(shù)基于Retinex的圖像增強(qiáng)方法中,平滑的圖像可以充當(dāng)照度。這就是單尺度Retinex算法(SSR)原理。

    本文在圖像預(yù)處理階段引入Retinex算法,緩解人臉圖像光照不均的問題。經(jīng)過Retinex做圖像預(yù)處理的對(duì)比圖效果如圖3所示(左邊是原圖,右邊是經(jīng)過Retinex處理后的圖)。

    1.2 模型優(yōu)化算法

    一個(gè)合適的優(yōu)化算法就像選擇了一條潛在的捷徑,能夠模型訓(xùn)練的時(shí)候快速地找到模型參數(shù)的最優(yōu)解。研究模型優(yōu)化算法的意義就在于找到這樣的一條捷徑,縮短模型的訓(xùn)練時(shí)間,節(jié)省模型訓(xùn)練的資源。常用的模型優(yōu)化算法方法有隨機(jī)梯度下降法SGD和Adam,在模型訓(xùn)練的過程中也是各有優(yōu)勢(shì)。最近剛出的RAdam效果也是非常不錯(cuò)。

    1.2.1 隨機(jī)梯度下降法SGD

    隨機(jī)梯度下降源于1951年Robbins和Monro提出的隨機(jī)逼近,最初被應(yīng)用于模式識(shí)別和神經(jīng)網(wǎng)絡(luò),現(xiàn)已成為求解大規(guī)模機(jī)器學(xué)習(xí)優(yōu)化問題的一類主流且非常有效的方法[13]。主要用來求解類似于如下求和形式的優(yōu)化問題:

    其中,[fw]表示整個(gè)數(shù)據(jù)集的損失,[fi]表示第i個(gè)樣本的損失,[w]表示當(dāng)前的模型的權(quán)重,[xi]表示輸入第i個(gè)樣本的特征,[yi]表示第i個(gè)樣本的標(biāo)簽

    梯度下降法:

    當(dāng)n很大時(shí),每次迭代計(jì)算所有的[?fwt]會(huì)非常耗時(shí)。

    隨機(jī)梯度下降的想法就是在[?fi]每次在中隨機(jī)選取一個(gè)[?fik]計(jì)算代替如上的,以這個(gè)隨機(jī)選取的方向作為下降的方向。

    注意到在[wt]靠近極小值點(diǎn)[w*]時(shí),[?fiw*≠0],這導(dǎo)致隨機(jī)梯度下降法精度低。由于方差的存在,要使得算法收斂,就需要[ηt]隨[t]逐漸減小。因此導(dǎo)致函數(shù)即使在強(qiáng)凸且光滑的條件下,收斂速度也只有[O1/t]。

    SGD每次迭代可以只用一個(gè)訓(xùn)練批次的數(shù)據(jù)來更新參數(shù),使得代價(jià)函數(shù)變小,優(yōu)點(diǎn)就是訓(xùn)練速度快,但是收斂慢。

    1.2.2 自適應(yīng)學(xué)習(xí)率優(yōu)化算法Adam

    Adam集成了SGD的一階動(dòng)量和RMSProp的二階動(dòng)量,動(dòng)量就是在梯度下降的過程中加入了慣性,使得梯度方向不變的維度上速度變快,梯度方向有所改變的維度上的更新速度變慢,這樣就可以加快收斂并減小振蕩[14]。

    偏差修正:在訓(xùn)練前期,梯度權(quán)值比較小,需要將權(quán)值之和修正為1。

    Adam結(jié)合了Adagrad善于處理稀疏梯度和Rmsprop善于處理非平穩(wěn)目標(biāo)的優(yōu)點(diǎn),適用于大數(shù)據(jù)集和高維空間。

    1.2.3 RAdam優(yōu)化算法

    由Liyuan Liu提出對(duì)Adam改進(jìn)的優(yōu)化器RAdam[15],兼有Adam和SGD兩者的優(yōu)點(diǎn),既保證了收斂速度,也不容易調(diào)入到局部最優(yōu)解。RAdam指出在訓(xùn)練的初期 Adam 中的方差會(huì)非常大。而公式(11)起到修正更新方向的作用,因此 Adam 參數(shù)的更新量的方差也會(huì)很大。在訓(xùn)練的初期([ρt<4]))時(shí),使用帶動(dòng)量的SGD來更新參數(shù)。后期再使用做一個(gè)學(xué)習(xí)率的預(yù)熱(learning rate warmup)。最后參數(shù)每一步的更新量就是:

    2 理論應(yīng)用與改進(jìn)

    2.1 圖像增強(qiáng)應(yīng)用與改進(jìn)

    在審計(jì)調(diào)查的人臉圖像識(shí)別項(xiàng)目中的人臉圖像識(shí)別容易受光照不均,遮蓋等因素影響。因此為了增加模型對(duì)光照和遮蓋的魯棒性,在數(shù)據(jù)增強(qiáng)階段添加了三個(gè)增強(qiáng)操作:局部遮蓋干擾,直方圖均衡以及Retinex光照均衡。

    在局部遮蓋干擾過程中需要使用到MTCNN檢測(cè)出關(guān)鍵點(diǎn)的坐標(biāo)。由于MTCNN人臉檢測(cè)的時(shí)間成本比較高,因此這里做進(jìn)一步的優(yōu)化。也就是在前期將原始數(shù)據(jù)集的經(jīng)過MTCNN進(jìn)行裁剪的時(shí)候,將識(shí)別出的人臉關(guān)鍵點(diǎn)(包括兩只眼睛、鼻尖和兩個(gè)嘴角,一起共五個(gè)點(diǎn)的坐標(biāo))保存在文本文件中。然后在進(jìn)行的眼鏡遮蓋需要當(dāng)前圖片的人眼坐標(biāo)的時(shí)候就直接在文本文件中查找相應(yīng)的坐標(biāo)并返回。這樣處理就減少M(fèi)TCNN的使用次數(shù),降低預(yù)處理的時(shí)間消耗。

    另外,對(duì)于添加的局部遮蓋干擾,直方圖均衡以及Retinex光照均衡這三個(gè)增強(qiáng)操作,分別給定一個(gè)概率值[pi]來判斷是否使用該操作。這樣就可以對(duì)樣本進(jìn)行不同程度的干擾,使得樣本數(shù)據(jù)信息進(jìn)行充分的利用。經(jīng)過這樣的預(yù)處理得到的圖像為:

    其中[pi]表示第i個(gè)預(yù)處理的概率,[n]表示預(yù)處理的數(shù)量,[ti]表示第i個(gè)預(yù)處理,這樣經(jīng)過一輪預(yù)處理操作之后得到的圖片進(jìn)行訓(xùn)練就可以使的模型的魯棒性更強(qiáng)。

    這個(gè)算法的偽代碼如算法1所示。

    算法 1 預(yù)處理改進(jìn)

    輸入:img,trans,prop

    輸出:trans_img

    1.fori in range(n):

    2.p=random()

    3.if p < prop[i] then

    4.img = trans[i](img)

    5.return trans_img

    2.2 基于最優(yōu)權(quán)重重載的模型訓(xùn)練方法

    在模型訓(xùn)練階段有很多影響效果的因素,比如學(xué)習(xí)率的初始化,優(yōu)化器的選擇以及訓(xùn)練方法的設(shè)計(jì)。選擇一個(gè)好的訓(xùn)練方法能夠提高訓(xùn)練效率,加快模型收斂的速度,節(jié)省模型收斂時(shí)間。

    SGD和Adam兩種優(yōu)化方式都能在一定程度上解決訓(xùn)練過程中的收斂問題,但是都傾向于向前去尋找最優(yōu)解,這容易導(dǎo)致丟失曾經(jīng)已經(jīng)遍歷到的局部甚至全局最優(yōu)解。這種情況在圖像上一般表現(xiàn)為:驗(yàn)證集的準(zhǔn)確率在訓(xùn)練過程中的某個(gè)瞬間會(huì)達(dá)到最大,繼續(xù)訓(xùn)練驗(yàn)證集的準(zhǔn)確率反而會(huì)下降。如圖4所示。

    出現(xiàn)這個(gè)情況的時(shí)候,Epochs(整個(gè)數(shù)據(jù)集訓(xùn)練的次數(shù))設(shè)置得再大也沒有效果,因?yàn)轵?yàn)證集已經(jīng)收斂了。面對(duì)這個(gè)問題普遍的做法是,停止訓(xùn)練,重新調(diào)整超參數(shù)。這種方式還需要進(jìn)行手動(dòng)調(diào)參,操作繁雜且不可控?;谧顑?yōu)權(quán)重重載的模型訓(xùn)練方法就是在SGD或者Adam優(yōu)化器訓(xùn)練的過程中,將最高準(zhǔn)確率或者最小損失的權(quán)重(上圖中best對(duì)應(yīng)的權(quán)重)保存下來。預(yù)先設(shè)置一個(gè)比較小的epochs=50,然后,每次自動(dòng)重新訓(xùn)練的過程當(dāng)中,加載上一次保存的最佳模型的權(quán)重,反復(fù)循環(huán)幾次,達(dá)到加快模型收斂速度的效果。

    其中[wi]表示當(dāng)前批次的損失,[Lwbest]表示損失最小的權(quán)重對(duì)應(yīng)的最小損失值。這個(gè)過程的算法偽代碼算法2所示:

    算法 2:最優(yōu)權(quán)重重載算法

    輸入:? Epochs,train_times //總的迭代次數(shù),間隔的迭代次數(shù)

    輸出: model_file //模型文件

    1.init model

    2.set pre_acc=0

    3.for train_iter in range(train_times)

    4.? if exist(model_file) then reload(model)

    5.? ? init optimizer, scheduler, loss_fn,

    6.? ? for epoch in range(epochs)

    7.? ? ? Train(model)

    8.? ? ? acc = Valid(model)

    9.? ? ? if acc >pre_acc then

    10.? ? ? ?model_file=save(model)

    11.return model_file

    算法執(zhí)行流程如圖5。

    3 對(duì)比實(shí)驗(yàn)

    3.1 實(shí)驗(yàn)準(zhǔn)備

    實(shí)驗(yàn)環(huán)境:顯卡GTX 1660Ti,顯存6G,系統(tǒng)windows 64,編程工具pycharm,語言版本python3.6,深度學(xué)習(xí)框架pytorch1.3,使用畫圖工具tensorboard。

    數(shù)據(jù)集處理:將數(shù)據(jù)集打亂后,取其中10%作為驗(yàn)證集固定不變,90%作為訓(xùn)練集進(jìn)行反復(fù)的訓(xùn)練。

    3.2 預(yù)處理對(duì)比實(shí)驗(yàn)

    實(shí)驗(yàn)設(shè)置:在預(yù)處理對(duì)比實(shí)驗(yàn)過程中的實(shí)驗(yàn)參數(shù)為:學(xué)習(xí)率Lr =0.001;數(shù)據(jù)集 LFW;Batch = 100;模型 InceptionResnetV1;優(yōu)化器Adam;調(diào)度器MultiStepLR;LOSS:CrossEntropyLoss;預(yù)訓(xùn)練:vggface2;模型大?。?1M。

    預(yù)處理的對(duì)比實(shí)驗(yàn)結(jié)果如表1所示。

    實(shí)驗(yàn)結(jié)果分析:實(shí)驗(yàn)從實(shí)驗(yàn)中我們可知,左右翻轉(zhuǎn)對(duì)準(zhǔn)確率的提高2.3%;眼鏡遮蓋提高了0.6%,累計(jì)提高了2.9%;直方圖處理增加了1.1%,累計(jì)提高了4.0%;Retinex均衡處理增加了1.7左右,累計(jì)提高了5.7%。達(dá)到的最好的效果訓(xùn)練曲線如圖 6所示。實(shí)驗(yàn)表明經(jīng)過數(shù)據(jù)增強(qiáng)能顯著提高整個(gè)模型的魯棒性和準(zhǔn)確率。

    3.1 訓(xùn)練方法對(duì)比實(shí)驗(yàn)

    實(shí)驗(yàn)采用的數(shù)據(jù)集是lfw經(jīng)過MTCNN人臉檢測(cè)對(duì)齊裁剪成112*112的人臉數(shù)據(jù)集,訓(xùn)練過程中的采樣方法是無放回地按照給定的索引列表采樣樣本元素,即隨機(jī)地從原始的數(shù)據(jù)集中抽樣數(shù)據(jù),生成任意一個(gè)下標(biāo)組合,從而利用下標(biāo)來提取dataset中的數(shù)據(jù)的方法。

    為了充分驗(yàn)證最優(yōu)權(quán)重重加載算法的有效性和優(yōu)越性,這部分的實(shí)驗(yàn)分別對(duì)MobileNetV2,resnet18,shufflenet_v2_x2_0三個(gè)模型做了三組實(shí)驗(yàn),每組實(shí)驗(yàn)針對(duì)不同的優(yōu)化器(SGD,Adam,RAdam)又做了權(quán)重重載訓(xùn)練和普通訓(xùn)練的兩種算法的對(duì)比實(shí)驗(yàn)。參數(shù)都設(shè)置為epochs=300,batch_size=30,weight_decay=5e-4,學(xué)習(xí)率為1e-2。在重載的曲線中權(quán)重重載的次數(shù)設(shè)置為5。實(shí)驗(yàn)結(jié)果如圖7-9所示,其中每張圖的左半部分為權(quán)重重載實(shí)驗(yàn)的曲線,右半部分為正常訓(xùn)練的曲線。下面著重分析圖7中的實(shí)驗(yàn)數(shù)據(jù)。

    在優(yōu)化器為SGD訓(xùn)練對(duì)比過程中,經(jīng)過300個(gè)epochs,使用重載的算法的訓(xùn)練集的準(zhǔn)確率已經(jīng)完全收斂到了100%,損失也接近0,擬合效果很不錯(cuò)。驗(yàn)證集上面準(zhǔn)確率已經(jīng)高達(dá)50%,損失也控制在了2.3。而使用一般的訓(xùn)練流程訓(xùn)練,訓(xùn)練集的準(zhǔn)確率還在40%左右震蕩,損失也在2.5左右震蕩,完全達(dá)不到擬合,驗(yàn)證集的準(zhǔn)確率也只達(dá)到30%左右,損失還在3.5。相比之下,在使用相同的SGD優(yōu)化器和相同時(shí)間間隔訓(xùn)練條件下面,使用重載比不使用重載的驗(yàn)證集提高了20%的準(zhǔn)確率,損失降低了1.2,訓(xùn)練集收斂速度提高了60%,損失降低了2.5。實(shí)驗(yàn)非常明顯地表現(xiàn)出重載算法的比不使用重載算法具有更強(qiáng)勁的收斂速度和收斂效率。

    在優(yōu)化器為Adam訓(xùn)練對(duì)比過程中,經(jīng)過了300個(gè)epochs的訓(xùn)練后,使用重載的訓(xùn)練集達(dá)到了83%,還有繼續(xù)上漲的空間,損失也在再慢慢地往下降;驗(yàn)證集的準(zhǔn)確率達(dá)到了62%,也還有上漲的趨勢(shì)。而使用非重載的訓(xùn)練集已經(jīng)擬合到了100%,損失也降到了0;驗(yàn)證集的準(zhǔn)確率只有34%,損失中間獲得了一個(gè)最小值,后面訓(xùn)練到后面越來越大。相比之下,在訓(xùn)練集還沒有擬合的情況下面,重載的驗(yàn)證集就比非重載的驗(yàn)證集高出0.28,何況后面重載還有上漲的勢(shì)頭。證明了重載算法與Adam優(yōu)化器搭配使用也是能夠顯著提高模型訓(xùn)練的收斂速度,抑制過擬合的效果,以及提高模型的驗(yàn)證集的準(zhǔn)確率。

    在優(yōu)化器為RAdam訓(xùn)練對(duì)比過程中,經(jīng)過了300個(gè)epochs的訓(xùn)練后,重載和非重載的準(zhǔn)確率都收斂到了100%,損失都收斂到了0附近。而在驗(yàn)證集上面,使用重載的算法準(zhǔn)確率達(dá)到72%,損失穩(wěn)定在1.8左右;非重載的準(zhǔn)確率只有0.61%,但是損失降到最低值1.8后,后面又繼續(xù)上漲,穩(wěn)定在3.3左右,此時(shí)已經(jīng)訓(xùn)練出的模型已經(jīng)失去了泛化能力。相比之下,兩個(gè)訓(xùn)練集都收斂的情況下面,重載算法準(zhǔn)確率高出了0.11,損失穩(wěn)定在1.8,而非重載算法訓(xùn)練到后面效果會(huì)越來越差。這個(gè)實(shí)驗(yàn)證明,重載算法能夠訓(xùn)練出泛化能力更好和準(zhǔn)確率更高的模型,而且訓(xùn)練出的模型更加的穩(wěn)定,不會(huì)出現(xiàn)因?yàn)橛?xùn)練時(shí)長過長而導(dǎo)致泛化能力變差的情況。

    從上面實(shí)驗(yàn)結(jié)果分析可以得出,重載算法對(duì)MobileNetV2使用不同的優(yōu)化器都具有很好的優(yōu)越性。從圖8,圖9中也可知,對(duì)其他的模型也是具有同樣的適用效果。

    從上面的訓(xùn)練曲線圖整理出最終的模型結(jié)果(epochs=300)見表2:

    從表2中可知,利用重載算法搭配不同的模型使用不同的優(yōu)化器,模型的準(zhǔn)確率也都有相當(dāng)?shù)奶嵘罡叩哪軌蚪咏?0%。

    總之,通過以上的大量的實(shí)驗(yàn)表明,使用最優(yōu)權(quán)重重載的訓(xùn)練模型的方法能夠加快模型收斂速度,提高模型的準(zhǔn)確率和模型的泛化能力,抑制訓(xùn)練集過擬合的情況,對(duì)不同的模型也是具有普適作用。

    4 結(jié)語

    針對(duì)審計(jì)調(diào)查中的人臉圖像識(shí)別應(yīng)用場(chǎng)景,在預(yù)處理階段,提出了局部遮蓋干擾,直方圖均衡以及Retinex光照均衡這三個(gè)增強(qiáng)操作。其中局部遮蓋干擾主要以眼鏡遮蓋為例進(jìn)行分析和實(shí)驗(yàn),在實(shí)驗(yàn)中使得模型提高了0.6%的準(zhǔn)確率。表明隨機(jī)眼鏡遮蓋能有效緩解戴眼鏡導(dǎo)致的識(shí)別不準(zhǔn)的問題。同時(shí)也側(cè)面表明了隨機(jī)局部遮蓋能夠提高模型的局部特征魯棒性。直方圖均衡和Retinex均衡則分別使模型相應(yīng)提高了1.1%和1.7%的準(zhǔn)確率,表明了這兩種增強(qiáng)方法能夠緩解光照不均對(duì)人臉圖像識(shí)別的影響。在訓(xùn)練人臉識(shí)別模型階段,提出了一種最優(yōu)權(quán)重重載的訓(xùn)練方法,經(jīng)過對(duì)比實(shí)驗(yàn)表明該訓(xùn)練算法能夠提高模型訓(xùn)練過程中的收斂速度,提高模型的泛化能力,經(jīng)過不同模型的多組實(shí)驗(yàn)表明了該方法的有效性和普適性。

    參考文獻(xiàn):

    [1] 祝秀萍,吳學(xué)毅,劉文峰.人臉識(shí)別綜述與展望[J].計(jì)算機(jī)與信息技術(shù),2008,16(4):53-56.

    [2] 陳希彤,盧濤.基于全局深度分離卷積殘差網(wǎng)絡(luò)的高效人臉識(shí)別算法[J].武漢工程大學(xué)學(xué)報(bào),2019,41(3):276-282.

    [3] 王慧星,黃勃,高永彬,等.部分遮擋人臉識(shí)別的方法綜述[J].武漢大學(xué)學(xué)報(bào)(理學(xué)版),2020,66(5):451-461.

    [4] 梁琳,何衛(wèi)平,雷蕾,等.光照不均圖像增強(qiáng)方法綜述[J].計(jì)算機(jī)應(yīng)用研究,2010,27(5):1625-1628.

    [5] 嚴(yán)春滿,張迪,郝有菲,等.基于LC-KSVD字典學(xué)習(xí)的變化光照下人臉識(shí)別方法[J].傳感器與微系統(tǒng),2020,39(11):44-46.

    [6] 楊蘭蘭,高銘宇,王晨寧,等.基于數(shù)據(jù)增強(qiáng)的人臉表情識(shí)別方法研究[J].計(jì)算機(jī)產(chǎn)品與流通,2020(11):128-129.

    [7] 王子威,范伊紅,趙錦雯,等.基于FasterR-CNN的教室監(jiān)控人數(shù)識(shí)別系統(tǒng)的開發(fā)與研究[J].電腦知識(shí)與技術(shù),2020,16(17):35-38.

    [8] 張韓鈺,吳志昊,徐勇,等.增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)的人臉篡改檢測(cè)方法[J/OL].計(jì)算機(jī)工程與應(yīng)用:1-7[2020-11-17].http://kns.cnki.net/kcms/detail/11.2127.TP.20200701.1040.016.html.

    [9] 甘嵐,沈鴻飛,王瑤,等.基于改進(jìn)DCGAN數(shù)據(jù)集增強(qiáng)方法[J/OL].計(jì)算機(jī)應(yīng)用:1-11[2020-11-17].http://kns.cnki.net/kcms/detail/51.1307.TP.20201015.1715.017.html.

    [10] Zhang K P,Zhang Z P,Li Z F,et al.Joint face detection and alignment using multitask cascaded convolutional networks[J].IEEE Signal Processing Letters,2016,23(10):1499-1503.

    [11] 劉明珠,蘇桃宇,王依寧.壓擴(kuò)多尺度Retinex圖像增強(qiáng)算法研究[J].哈爾濱理工大學(xué)學(xué)報(bào),2020,25(5):93-99.

    [12] 鄭美林,王杉.基于RETINEX的圖像增強(qiáng)方法探討[J].九江學(xué)院學(xué)報(bào)(自然科學(xué)版),2020,35(3):69-73.

    [13] 史加榮,王丹,尚凡華,張鶴于.隨機(jī)梯度下降算法研究進(jìn)展[J/OL].自動(dòng)化學(xué)報(bào):1-17[2020-11-17].https://doi.org/10.16383/j.aas.c190260.

    [14] Diederik P. Kingma and Jimmy Lei Ba. Adam: a Method for Stochastic Optimization.Interna-tional Conference on Learning Representations, pages 1–13, 2015

    [15] Liu L Y,Jiang H M,He P C,et al.On the variance of the adaptive learning rate and beyond[EB/OL].2019

    【通聯(lián)編輯:唐一東】

    猜你喜歡
    圖像增強(qiáng)人臉識(shí)別深度學(xué)習(xí)
    基于卷積神經(jīng)網(wǎng)絡(luò)的船舶圖像增強(qiáng)研究
    人臉識(shí)別 等
    圖像增強(qiáng)技術(shù)在超跨聲葉柵紋影試驗(yàn)中的應(yīng)用
    水下視覺SLAM圖像增強(qiáng)研究
    揭開人臉識(shí)別的神秘面紗
    基于圖像增強(qiáng)的無人機(jī)偵察圖像去霧方法
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    固始县| 峨眉山市| 阜新市| 汤原县| 册亨县| 扶绥县| 乳源| 航空| 寿光市| 虞城县| 威宁| 巴南区| 兴和县| 淳化县| 象山县| 濉溪县| 揭阳市| 周至县| 瑞丽市| 兴业县| 潼南县| 廊坊市| 北安市| 高清| 万载县| 长海县| 铜鼓县| 永康市| 邯郸市| 靖宇县| 合水县| 宁南县| 阿克苏市| 定日县| 澎湖县| 宁武县| 齐齐哈尔市| 邮箱| 宕昌县| 平舆县| 建始县|