宗春梅 張?jiān)虑?石 丁
(1.忻州師范學(xué)院計(jì)算機(jī)科學(xué)與技術(shù)系 忻州 034000)(2.太原理工大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 太原 030024)
手寫(xiě)數(shù)字識(shí)別在現(xiàn)實(shí)生活中發(fā)揮著越來(lái)越重要的作用,從郵政快遞的普通信息單,到金融財(cái)務(wù)領(lǐng)域的數(shù)據(jù)統(tǒng)計(jì),手寫(xiě)數(shù)字識(shí)別都有著非常廣泛的應(yīng)用。如何將手寫(xiě)數(shù)字識(shí)別率進(jìn)行提升并很好地應(yīng)用于實(shí)際服務(wù)環(huán)節(jié),是現(xiàn)階段手寫(xiě)數(shù)字識(shí)別的基本目標(biāo)。傳統(tǒng)手寫(xiě)數(shù)字識(shí)別方法存在圖像預(yù)處理過(guò)程復(fù)雜、圖像特征提取冗余、網(wǎng)絡(luò)模型識(shí)別率不足等問(wèn)題[1]。卷積神經(jīng)網(wǎng)絡(luò)獨(dú)特的二維數(shù)據(jù)處理方式和在分類(lèi)識(shí)別時(shí)自動(dòng)提取圖像特征等特點(diǎn)可以提高手寫(xiě)數(shù)字識(shí)別的泛化能力和準(zhǔn)確度[2~4],因此引發(fā)眾多學(xué)者將如何把卷積神經(jīng)網(wǎng)絡(luò)更好地應(yīng)用于手寫(xiě)數(shù)字識(shí)別服務(wù)作為研究對(duì)象,從而使手寫(xiě)數(shù)字識(shí)別應(yīng)用服務(wù)質(zhì)量日益提升。
1998年Yann LeCun設(shè)計(jì)出LeNet-5卷積神經(jīng)網(wǎng)絡(luò)模型,該網(wǎng)絡(luò)模型后來(lái)被廣泛應(yīng)用于手寫(xiě)數(shù)字識(shí)別技術(shù)上[4~5]。卷積神經(jīng)網(wǎng)絡(luò)模型(ConvolutionalNeural Networks,CNN)能夠得出原始圖像的有效表征,這使得CNN能夠在原始像素基礎(chǔ)上經(jīng)過(guò)極少的預(yù)處理識(shí)別出圖像視覺(jué)規(guī)律,但LeNet-5對(duì)于復(fù)雜問(wèn)題的處理結(jié)果并不理想[5]。文獻(xiàn)[6]提出一種用SVM分類(lèi)器進(jìn)行分類(lèi)識(shí)別的深度學(xué)習(xí)模型CNN-1,并將其應(yīng)用于卷面手寫(xiě)數(shù)字識(shí)別,取得了很好的識(shí)別效果,但該模型訓(xùn)練數(shù)據(jù)僅針對(duì)MNIST數(shù)據(jù)集,具有一定的局限性。文獻(xiàn)[7]提出通過(guò)對(duì)RGB圖像進(jìn)行高斯低通濾波、計(jì)算圖像均值等處理以提升抗幾何攻擊性,并對(duì)LeNet-5中卷積層和池化層數(shù)量及批處理數(shù)量。梯度下降步長(zhǎng)等參數(shù)取不同值進(jìn)行研究,在MNIST等數(shù)據(jù)集上得到了較好的實(shí)驗(yàn)結(jié)果。文獻(xiàn)[8]采用LeNET-5卷積模型以階梯式處理輸入數(shù)據(jù)為手段剔除干擾信息獲得頂層數(shù)據(jù)特征,使手寫(xiě)數(shù)字識(shí)別結(jié)果準(zhǔn)確度提升,降低了圖像的過(guò)度擬合度,但在針對(duì)不同類(lèi)型的圖像進(jìn)行處理時(shí)效果欠佳。文獻(xiàn)[9]對(duì)通過(guò)建立卷積層和采樣層交替出現(xiàn)的網(wǎng)絡(luò)中間層對(duì)LeNet-5神經(jīng)網(wǎng)絡(luò)模型進(jìn)行了改進(jìn),很好地提取到了輸入數(shù)據(jù)特征,加入懲罰項(xiàng)以消除過(guò)擬合現(xiàn)象,相對(duì)減少了預(yù)處理工作量,在識(shí)別性能上優(yōu)于傳統(tǒng)方法。文獻(xiàn)[10]對(duì)于卷積神經(jīng)網(wǎng)絡(luò)LeNet-5模型用在手寫(xiě)體數(shù)字識(shí)別上出現(xiàn)的問(wèn)題提出三項(xiàng)優(yōu)化改進(jìn)辦法,提出通過(guò)添加權(quán)值衰減項(xiàng)降低誤識(shí)率,采用深度學(xué)習(xí)中dropout技術(shù)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)以提升網(wǎng)絡(luò)泛化能力和識(shí)別率,同時(shí)有效避免了過(guò)擬合現(xiàn)象,最終將識(shí)別率從93.61%提高到了97.30%。文獻(xiàn)[11]在CNN圖像識(shí)別過(guò)程中用加權(quán)PCA矩陣的形式表達(dá)卷積核,數(shù)據(jù)在CNN模型流程中利用每層的映射結(jié)果以生成碼本的方式產(chǎn)生高層特征向量。傳統(tǒng)方法中卷積神經(jīng)網(wǎng)絡(luò)模型在進(jìn)行特征提取后大都采用Softmax等進(jìn)行分類(lèi),隨著支持向量機(jī)(Sup?port Vector Machine,SVM)等淺層分類(lèi)器分類(lèi)性能的成熟發(fā)展,學(xué)者們逐漸將CNN模型與性能更優(yōu)的SVM分類(lèi)器進(jìn)行結(jié)合進(jìn)行模式識(shí)別的研究。文獻(xiàn)[12]提出一種結(jié)合CNN與SVM進(jìn)行手寫(xiě)數(shù)字識(shí)別的方法,實(shí)驗(yàn)結(jié)果證明將CNN與SVM結(jié)合進(jìn)行分類(lèi)效果優(yōu)于一些傳統(tǒng)分類(lèi)器,但算法的復(fù)雜度及分類(lèi)速度改變不明顯。
研究表明,雖然在CNN的背景下人們已經(jīng)提出不少手寫(xiě)數(shù)字識(shí)別的算法,但這些算法存在以下局限性:其一,大多算法開(kāi)放性差,運(yùn)行速度有限,模塊易拓展較差,不支持自動(dòng)求導(dǎo)功能等;其二,數(shù)據(jù)集相對(duì)較單一,訓(xùn)練及測(cè)試數(shù)據(jù)本土性較差;其三,對(duì)模型的訓(xùn)練過(guò)程缺乏及時(shí)的監(jiān)管。針對(duì)上述問(wèn)題,本文引入了深度學(xué)習(xí)框架PyTorch[13],并在PyTorch框架下對(duì)LeNet-5模型改進(jìn)搭建手寫(xiě)數(shù)字識(shí)別模型結(jié)構(gòu),使用MNIST樣本庫(kù)對(duì)改進(jìn)后的模型進(jìn)行訓(xùn)練測(cè)試,實(shí)現(xiàn)了手寫(xiě)數(shù)字識(shí)別并得到較高的準(zhǔn)確率。在訓(xùn)練網(wǎng)絡(luò)的過(guò)程中,借助TensorBoard這個(gè)可視化工具以便幫助我們監(jiān)督整個(gè)網(wǎng)絡(luò)模型的訓(xùn)練過(guò)程[14~15],并為網(wǎng)絡(luò)模型的參數(shù)優(yōu)化提供依據(jù)和方向。對(duì)于數(shù)據(jù)集,不僅要使用MNIST數(shù)據(jù)集對(duì)改進(jìn)的網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練和測(cè)試,而且選用自制數(shù)據(jù)樣本對(duì)該網(wǎng)絡(luò)模型進(jìn)行測(cè)試,以加強(qiáng)識(shí)別效果的可信度。實(shí)驗(yàn)結(jié)果表明改進(jìn)后的模型在識(shí)別準(zhǔn)確率、網(wǎng)絡(luò)收斂速度等方面有所突破。最后將改進(jìn)后的CNN實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別模型應(yīng)用與本校真實(shí)的試卷分?jǐn)?shù)識(shí)別中取得了一定效果,為教學(xué)環(huán)節(jié)種智能化模式識(shí)別服務(wù)的實(shí)現(xiàn)做出一定的技術(shù)貢獻(xiàn)。
實(shí)驗(yàn)所使用的卷積神經(jīng)網(wǎng)絡(luò)模型是在LeNet-5模型的基礎(chǔ)上改進(jìn)而來(lái)。具體的改進(jìn)內(nèi)容及分析如下。
1)選擇ReLU激活函數(shù)。ReLU激活函數(shù)使部分神經(jīng)元的輸出為0,一定程度上使卷積神經(jīng)網(wǎng)絡(luò)擁有稀疏特性,減少了參數(shù)數(shù)量,降低了網(wǎng)絡(luò)計(jì)算量,使網(wǎng)絡(luò)模型的訓(xùn)練更容易。
2)在池化層中改均值池化(mean-pooling)為最大池化(max-pooling)操作對(duì)數(shù)據(jù)進(jìn)行池化處理。均值池化可以較好地保留圖像的背景信息,而最大池化能夠較好地提取圖像的紋理信息。
3)添加批標(biāo)準(zhǔn)化函數(shù)BatchNorm2d。
4)對(duì)輸入樣本大小、卷積核大小及其數(shù)量、零填充等參數(shù)進(jìn)行調(diào)整。卷積層中卷積核過(guò)大或數(shù)量過(guò)多會(huì)影響網(wǎng)絡(luò)模型的訓(xùn)練速度;若相反會(huì)提取不到有效的特征信息。
論文算法主要分為網(wǎng)絡(luò)訓(xùn)練及測(cè)試和圖像預(yù)處理兩部分,其中網(wǎng)絡(luò)訓(xùn)練算法步驟如下。
1)將MNIST訓(xùn)練樣本圖片輸入改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò);
2)對(duì)網(wǎng)絡(luò)中的學(xué)習(xí)率、數(shù)據(jù)處理方式進(jìn)行初始化,并設(shè)置損失函數(shù);
3)逐層計(jì)算網(wǎng)絡(luò)各隱藏層的輸出值;
4)計(jì)算各網(wǎng)絡(luò)層的誤差損失;
5)利用反向傳播進(jìn)行參數(shù)更新;
6)更新訓(xùn)練樣本并判斷是否達(dá)到迭代次數(shù),若達(dá)到,則網(wǎng)絡(luò)訓(xùn)練結(jié)束;否則繼續(xù)之前的步驟,反復(fù)更新網(wǎng)絡(luò)參數(shù),直到滿(mǎn)足要求;
7)將自制測(cè)試樣本進(jìn)行像素取反成為黑底白字圖片;
8)調(diào)用rectangle函數(shù),選定圖片中數(shù)字輪廓并裁剪;
9)對(duì)裁剪圖片進(jìn)行20*20縮放;
10)調(diào)用copyMakeBorder函數(shù)將圖片零填充為28*28大小;
11)將經(jīng)過(guò)預(yù)處理的測(cè)試樣本輸入已經(jīng)訓(xùn)練好的網(wǎng)絡(luò)中,并得出分類(lèi)結(jié)果。
1)MNIST數(shù)據(jù)集
MNIST包含70000張圖片,分為有60000張圖片的訓(xùn)練集和有10000張圖片的測(cè)試集。
2)自制數(shù)據(jù)集及其預(yù)處理
自制數(shù)據(jù)收集了不同人的手寫(xiě)數(shù)字體來(lái)作為樣本,每張圖片在其命名中標(biāo)記對(duì)應(yīng)的數(shù)字,以此作為該圖片的標(biāo)簽。經(jīng)過(guò)與MNIST數(shù)據(jù)集相同的預(yù)處理,自制數(shù)據(jù)集中圖片的數(shù)字大小均為20*20,然后歸一化為28*28。自制數(shù)據(jù)集預(yù)處理步驟及方法如下:
(1)將圖片轉(zhuǎn)為黑底白字:調(diào)用Abs函數(shù)對(duì)圖片像素進(jìn)行取反操作。
(2)將圖片中的數(shù)字輪廓選定出來(lái):調(diào)用Find?Contours函數(shù)將選定數(shù)字輪廓,再調(diào)用Rectangle函數(shù)畫(huà)出輪廓區(qū)域。結(jié)果如圖1所示。
圖1 數(shù)字輪廓選定
(3)對(duì)圖片中的數(shù)字區(qū)域進(jìn)行裁剪:調(diào)用boundingRect函數(shù)保存數(shù)字輪廓的坐標(biāo),根據(jù)坐標(biāo)對(duì)圖片進(jìn)行裁剪。
(4)對(duì)裁剪下來(lái)的數(shù)字圖片進(jìn)行縮放:調(diào)用cv2包中的resize函數(shù)進(jìn)行20*20的縮放。
(5)將經(jīng)過(guò)縮放的圖片零填充為28*28大小的圖片:通過(guò)調(diào)用cv2包中的copyMakeBorder函數(shù)對(duì)圖片進(jìn)行零填充。結(jié)果如圖2所示。
圖2 零填充后的圖片
文章對(duì)LeNet-5模型進(jìn)行改進(jìn)操作,其中包括增加和修改所用函數(shù)、調(diào)整網(wǎng)絡(luò)模型參數(shù)等,用形成的各個(gè)網(wǎng)絡(luò)模型進(jìn)行實(shí)驗(yàn),并對(duì)網(wǎng)絡(luò)模型的結(jié)構(gòu)性能和訓(xùn)練結(jié)果進(jìn)行了對(duì)比分析。
1)不同結(jié)構(gòu)的網(wǎng)絡(luò)模型對(duì)比
對(duì)四種不同結(jié)構(gòu)網(wǎng)絡(luò)模型的結(jié)構(gòu)及訓(xùn)練結(jié)果作比較,如表1所示。
表1 四種網(wǎng)絡(luò)模型結(jié)構(gòu)及訓(xùn)練結(jié)果比較
比較結(jié)果驗(yàn)證了ReLU激活函數(shù)解決Sigmoid函數(shù)的易飽和、均值非零的問(wèn)題后可以很大程度上提升網(wǎng)絡(luò)模型識(shí)別的準(zhǔn)確率。從提升的準(zhǔn)確率上可以發(fā)現(xiàn),最大池化方法的使用確實(shí)讓卷積神經(jīng)網(wǎng)絡(luò)模型提取到了更能表達(dá)圖像紋理信息的數(shù)據(jù)。
通過(guò)對(duì)卷積神經(jīng)網(wǎng)絡(luò)模型LeNet-5不同方式的改進(jìn),搭建出不同的網(wǎng)絡(luò)模型,并使用MNIST數(shù)據(jù)集作為對(duì)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練和測(cè)試,同時(shí)記錄各模型的損失率,使用TensorBoard工具將損失率曲線(xiàn)可視化。圖3為各模型損失率對(duì)比圖。
圖3 各模型損失率對(duì)比圖
研究表明LeNet-5網(wǎng)絡(luò)模型中Sigmoid函數(shù)和均值池化方式不能使網(wǎng)絡(luò)模型收斂;CNN-1模型的損失率有明顯的下降趨勢(shì),但收斂時(shí)間卻很長(zhǎng);CNN-2模型的損失率明顯優(yōu)于CNN-1模型;CNN-3模型的性能最優(yōu)。
2)不同參數(shù)的網(wǎng)絡(luò)模型對(duì)比
文章對(duì)CNN-3模型設(shè)置了四種不同的參數(shù)進(jìn)行測(cè)試。參數(shù)4對(duì)應(yīng)的模型準(zhǔn)確率高達(dá)到98.35%,將其命名為CNN_S。CNN_S模型包括兩層卷積層C、兩層池化層S和三層全連接層fc共7層結(jié)構(gòu),并在層間添加了BatchNorm函數(shù)和ReLU激活函數(shù)。調(diào)參效果對(duì)比如表2所示。
表2 CNN-3模型不同參數(shù)及訓(xùn)練結(jié)果比較
對(duì)CNN_S模型進(jìn)行訓(xùn)練后,可以對(duì)網(wǎng)絡(luò)訓(xùn)練的情況進(jìn)行可視化輸出。例如通過(guò)記錄每個(gè)epoch的梯度值來(lái)監(jiān)測(cè)網(wǎng)絡(luò)訓(xùn)練過(guò)程,可以分析出權(quán)值的更新方向并判斷其是否符合規(guī)律,繼而對(duì)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率做出設(shè)置和調(diào)整。
1)特征圖可視化
原始圖像輸入卷積神經(jīng)網(wǎng)絡(luò)后,每經(jīng)過(guò)一層網(wǎng)絡(luò)層都會(huì)進(jìn)行相應(yīng)的操作。CNN_S模型中使用了ReLU激活函數(shù),因此特征圖經(jīng)過(guò)了激活函數(shù)作用。圖4為手寫(xiě)數(shù)字3在經(jīng)過(guò)網(wǎng)絡(luò)模型各層結(jié)構(gòu)時(shí)形成的特征圖。
圖4 手寫(xiě)數(shù)字3特征圖
2)梯度更新
在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,梯度消失、梯度爆炸等問(wèn)題可以采用記錄每個(gè)epoch的梯度值的方式來(lái)監(jiān)測(cè)并以此做出問(wèn)題解決。在直方圖中,x軸表示變量大小,y軸為訓(xùn)練的次數(shù),隨著訓(xùn)練次數(shù)的增加曲線(xiàn)顏色由深到淺。直方圖可以很直觀地顯示出每個(gè)epoch訓(xùn)練時(shí),變量值的大小。
卷積層中權(quán)重曲線(xiàn)隨著訓(xùn)練次數(shù)的增加是條曲線(xiàn),說(shuō)明權(quán)重值隨著網(wǎng)絡(luò)的訓(xùn)練也在變化,如果是直線(xiàn)表示網(wǎng)絡(luò)模型沒(méi)有進(jìn)行有效的訓(xùn)練。在進(jìn)行網(wǎng)絡(luò)訓(xùn)練的過(guò)程中,訓(xùn)練數(shù)據(jù)經(jīng)過(guò)每一層時(shí)都會(huì)進(jìn)行層操作,進(jìn)而發(fā)生權(quán)重、偏置的更新變化。經(jīng)過(guò)良好訓(xùn)練的網(wǎng)絡(luò)權(quán)值、偏置往往表現(xiàn)為曲線(xiàn)美觀、光滑;反之,訓(xùn)練不良好的網(wǎng)絡(luò)則表現(xiàn)為多噪聲,或缺乏結(jié)構(gòu)性的情況。C1層中權(quán)重weight的直方圖如圖5所示。
圖5 C1層中權(quán)重weight的直方圖
PyTorch讀取數(shù)據(jù)時(shí),會(huì)讀取圖片數(shù)據(jù)和對(duì)應(yīng)標(biāo)簽。因此經(jīng)過(guò)預(yù)處理的圖片數(shù)據(jù)在輸入網(wǎng)絡(luò)進(jìn)行識(shí)別前,要將圖片數(shù)據(jù)和標(biāo)簽數(shù)據(jù)保存在txt文件中。數(shù)據(jù)讀入網(wǎng)絡(luò)中,通過(guò)計(jì)算預(yù)測(cè)值與數(shù)據(jù)標(biāo)簽相比較,可以得到識(shí)別準(zhǔn)確的圖片數(shù)量。圖片識(shí)別準(zhǔn)確率等于識(shí)別正確的數(shù)量除以數(shù)據(jù)總數(shù)。將經(jīng)過(guò)處理后的數(shù)據(jù)圖片輸入網(wǎng)絡(luò)進(jìn)行識(shí)別測(cè)試后,已經(jīng)達(dá)到了99.2%的準(zhǔn)確率,結(jié)果如圖6所示。
圖6 自制數(shù)據(jù)測(cè)試結(jié)果
文章中以試卷卷頭手寫(xiě)分?jǐn)?shù)為數(shù)據(jù),使用CNN_S算法來(lái)研究實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別應(yīng)用方面的問(wèn)題。實(shí)驗(yàn)結(jié)果表明,該算法可以準(zhǔn)確識(shí)別試卷上的分?jǐn)?shù),驗(yàn)證了卷積神經(jīng)網(wǎng)絡(luò)在手寫(xiě)數(shù)字識(shí)別應(yīng)用上的可行性。
1)主要預(yù)處理過(guò)程
試卷手寫(xiě)分?jǐn)?shù)識(shí)別的首先需要獲取試卷卷頭上的每一個(gè)手寫(xiě)分?jǐn)?shù)數(shù)字,其具體的操作步驟依次包括圖片灰度化、二值化、圖片取反、去除表格邊框、數(shù)字區(qū)域提取、去噪聲、數(shù)字字符分割、歸一化等。對(duì)試卷分值圖像取反前后及歸一化效果如圖7、圖8所示。
圖7 原始試卷卷頭圖像取反前后
圖8 歸一化
2)試卷手寫(xiě)分?jǐn)?shù)識(shí)別的實(shí)現(xiàn)
對(duì)試卷中的手寫(xiě)分?jǐn)?shù)進(jìn)行預(yù)處理后使用CNN_S模型進(jìn)行識(shí)別,并對(duì)識(shí)別出的成績(jī)進(jìn)行計(jì)算,得到的總成績(jī)與原始試卷的成績(jī)相同。識(shí)別后進(jìn)行計(jì)算可以與卷面總分做對(duì)比,檢測(cè)識(shí)別準(zhǔn)確性。試卷成績(jī)識(shí)別結(jié)果如圖9所示。
圖9 試卷成績(jī)識(shí)別結(jié)果圖
通過(guò)實(shí)驗(yàn)可以發(fā)現(xiàn),CNN_S模型可以準(zhǔn)確識(shí)別出試卷中的手寫(xiě)分?jǐn)?shù),驗(yàn)證了卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別在實(shí)際應(yīng)用中的可行性。
3)生成自動(dòng)登分系統(tǒng)
在實(shí)現(xiàn)了自動(dòng)評(píng)分流程中的一系列關(guān)鍵技術(shù)之后,選用Tkinter模塊開(kāi)發(fā)了“忻州師范學(xué)院自動(dòng)登分系統(tǒng)”,并通過(guò)相應(yīng)組建于技術(shù)程序進(jìn)行了連接,從而實(shí)現(xiàn)了自動(dòng)化登分。自動(dòng)登分系統(tǒng)的實(shí)現(xiàn)使登分環(huán)節(jié)的公平公正性得到加強(qiáng)。系統(tǒng)經(jīng)歷登錄、選擇評(píng)分對(duì)象后即可自動(dòng)評(píng)分并將結(jié)果顯示出來(lái)。部分界面如圖10所示。
圖10 系統(tǒng)部分界面
文章提出的卷積神經(jīng)網(wǎng)絡(luò)模型在自制數(shù)據(jù)集上的誤識(shí)率低至0.8%,驗(yàn)證了改進(jìn)后的手寫(xiě)數(shù)字自動(dòng)識(shí)別模型在實(shí)際應(yīng)用中的可行性,但仍有一些問(wèn)題有待后續(xù)研究。首先,改進(jìn)后的模型對(duì)異數(shù)據(jù)集識(shí)別率存在差異,因此需要提升算法的泛化能力;其次,繼續(xù)對(duì)文章所提出的網(wǎng)絡(luò)模型進(jìn)行改進(jìn),提升其識(shí)別率。在實(shí)驗(yàn)中,使用的數(shù)據(jù)為字跡清晰規(guī)整的數(shù)字,因此后期將嘗試使用書(shū)寫(xiě)格式不規(guī)整的數(shù)字圖像作為數(shù)據(jù)進(jìn)行分?jǐn)?shù)識(shí)別的實(shí)驗(yàn),同時(shí)系統(tǒng)的實(shí)用性及功能的全面性也有待提升。在識(shí)別服務(wù)的過(guò)程中,可以將與多個(gè)數(shù)字相似度較高的數(shù)字對(duì)服務(wù)對(duì)象做出警示,以期人工干預(yù),從而使自動(dòng)化與人工相結(jié)合,使服務(wù)效果達(dá)到最佳。