• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    語(yǔ)音識(shí)別中的Conformer模型壓縮研究

    2023-04-13 23:20:37盧江坤許鴻奎張子楓周俊杰李振業(yè)郭文濤
    計(jì)算機(jī)時(shí)代 2023年4期
    關(guān)鍵詞:深度學(xué)習(xí)

    盧江坤 許鴻奎 張子楓 周俊杰 李振業(yè) 郭文濤

    摘 要: 針對(duì)使用Conformer模型的語(yǔ)音識(shí)別算法在實(shí)際應(yīng)用時(shí)設(shè)備算力不足及資源缺乏的問(wèn)題,提出一種基于Conformer模型間隔剪枝和參數(shù)量化相結(jié)合的模型壓縮方法。實(shí)驗(yàn)顯示,使用該方法壓縮后,模型的實(shí)時(shí)率(real time factor, RTF)達(dá)到0.107614,較基線模型的推理速度提升了16.2%,而識(shí)別準(zhǔn)確率只下降了1.79%,并且模型大小也由原來(lái)的207.91MB下降到72.69MB。該方法在模型準(zhǔn)確率損失很小的情況下,較大程度地提升了模型的適用性。

    關(guān)鍵詞: 深度學(xué)習(xí); 模型壓縮; 模型量化; 模型剪枝; Conformer

    中圖分類號(hào):TP319? ? ? ? ? 文獻(xiàn)標(biāo)識(shí)碼:A? ? ?文章編號(hào):1006-8228(2023)04-16-07

    Abstract: Aiming at the problem of insufficient computing power and resources in the actual application of speech recognition algorithm using the Conform model, a model compression method based on the combination of interval pruning and parameter quantization of Conformer model is proposed. Experimental results show that the real time factor (RTF) of the compressed model is 0.107614, which is 16.2% higher than the reasoning speed of the baseline model, while the recognition accuracy is only 1.79% lower, and the size of the model is reduced from 207.91MB to 72.69MB. This method greatly improves the applicability of the model with little loss of accuracy.

    Key words: deep learning; model compression; model quantization; model pruning; Conformer

    0 引言

    端到端(end-to-end,E2E)語(yǔ)音識(shí)別系統(tǒng)將整個(gè)識(shí)別網(wǎng)絡(luò)簡(jiǎn)化成一個(gè)單一的網(wǎng)絡(luò)結(jié)構(gòu), 在訓(xùn)練時(shí)只需要注意整個(gè)系統(tǒng)的輸入和輸出,大大減少了對(duì)語(yǔ)音識(shí)別系統(tǒng)構(gòu)建的難度[1-3]。隨著Transformer模型在計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理等領(lǐng)域展現(xiàn)出來(lái)出色的性能[4],Dong等人首次將具有自注意力機(jī)制的深度神經(jīng)網(wǎng)絡(luò)Transformer模型引入到語(yǔ)音識(shí)別領(lǐng)域[5]。文獻(xiàn)[6]提出一種模型結(jié)構(gòu)Conformer,將卷積模塊加入到Transformer模型的編碼器部分,從而達(dá)到增強(qiáng)識(shí)別效果的目的。

    不斷加深的神經(jīng)網(wǎng)絡(luò)迅速增加了數(shù)據(jù)量,這將花費(fèi)更大的存儲(chǔ)資源和計(jì)算開(kāi)銷。僅8層的AlexNet[7]就需要至少7.29億次浮點(diǎn)型計(jì)算,需要占用約233MB內(nèi)存。龐大的網(wǎng)絡(luò)參數(shù)極大地限制了模型在算力有限的設(shè)備上部署[8]。因此需要對(duì)這些大型神經(jīng)網(wǎng)絡(luò)模型進(jìn)行壓縮,降低模型大小和計(jì)算成本[9]。

    早期Babak Hassibi等人使用來(lái)自誤差函數(shù)的所有二階導(dǎo)數(shù)來(lái)判斷哪些不重要的參數(shù)來(lái)進(jìn)行剪枝,進(jìn)而提升模型的泛化能力和推理速度[10]。Hao Li 等人在卷積神經(jīng)網(wǎng)絡(luò)中剪去對(duì)輸出精度又很小影響的通道大大降低了計(jì)算量并且對(duì)原始精度影響較小[11]。這些剪枝操作在使精度下降一定范圍內(nèi),推理速度提升不明顯并且參數(shù)存儲(chǔ)空間較大,而使用模型量化技術(shù)則能顯著減少參數(shù)存儲(chǔ)空間并加快運(yùn)算速度。Gong等人提出將k-means聚類用于量化全連接層參數(shù),將原始權(quán)重聚類成碼本,為均值分配碼本中的索引,只需存儲(chǔ)碼本和索引而不許存儲(chǔ)原始權(quán)重信息[12]。Wu等人將k-means聚類拓展到卷積層,將權(quán)值矩陣劃分成很多塊,再通過(guò)聚類獲得碼本[13]。Choi等人分析了量化誤差和loss的關(guān)系,提出了基于海森加權(quán)k-means聚類的量化方法[14]。

    本文提出一種基于Conformer的模型壓縮算法,使用模型剪枝算法對(duì)編碼器的卷積層部分進(jìn)行通道剪枝。以L1范數(shù)作為判斷標(biāo)準(zhǔn)對(duì)等間隔編碼器進(jìn)行剪枝,避免了對(duì)模型的過(guò)度破壞,又保證了剪枝質(zhì)量,再結(jié)合模型量化算法對(duì)模型進(jìn)行量化,最終達(dá)到提升模型推理速度和減小模型的大小的目的。經(jīng)實(shí)驗(yàn)表明,在模型識(shí)別準(zhǔn)確度下降很少的情況下大大提升了模型的推理速度并且模型的大小也減少了65.05%。

    1 模型結(jié)構(gòu)

    語(yǔ)音識(shí)別模型使用編碼器-解碼器(Encoder-Decoder)結(jié)構(gòu),如圖1所示,編碼器部分將語(yǔ)音輸入序列映射到特征序列,生成指定長(zhǎng)度的向量。解碼器部分對(duì)輸入向量進(jìn)行解碼,根據(jù)語(yǔ)義向量生成指定的序列。

    本文編碼器使用Conformer結(jié)構(gòu)編碼[6],解碼器使用CTC(connectionist temporal classification)進(jìn)行解碼[15]。

    1.1 Conformer結(jié)構(gòu)

    本文所使用的Conformer結(jié)構(gòu)是在Transformer結(jié)構(gòu)的基礎(chǔ)上增加卷積模塊,以加強(qiáng)模型對(duì)局部和全局依賴性建模的效果,增強(qiáng)語(yǔ)音識(shí)別模型的性能[6]。如圖2所示,Conformer結(jié)構(gòu)由歸一化層、前饋層、卷積層和多頭注意力層組成。

    多頭注意力層中使用注意力機(jī)制在輸入的大量信息中選擇關(guān)鍵信息加以處理。如公式⑴,使用信息提取的方法將維度為[dm]的輸入映射到一組查詢[Q]、鍵[K]和值[V]的矢量輸出,其中查詢[Q]和鍵[K]的維度是[dK],值[V]的維度是[dV]。然后再利用[softmax]函數(shù)來(lái)獲得值的權(quán)重,最后返回值的加權(quán)總和[Z]。

    卷積層由Layer Norm、Batch Norm、Pointwise卷積、Depthwise卷積、GLU激活層和ReLU激活層組成。Pointwise 卷積運(yùn)算負(fù)責(zé)將深度卷積的輸出按通道投影到新的特征圖上;Depthwise卷積不同于原始卷積,一個(gè)卷積核負(fù)責(zé)一個(gè)通道,獨(dú)立地在每個(gè)通道上進(jìn)行空間卷積。

    前饋層使用ReLU激活函數(shù)來(lái)進(jìn)行線性變換,并且通過(guò)使用Dropout來(lái)減少過(guò)擬合發(fā)生進(jìn)而幫助訓(xùn)練更深層次的網(wǎng)絡(luò)。前饋層作用是更新注意力層輸出向量的每個(gè)狀態(tài)信息,如公式⑵,其中[W]表示權(quán)重,[b]表示偏差,[x]表示輸入。

    1.2 解碼器結(jié)構(gòu)

    解碼器使用CTC Decoder,對(duì)Encoder部分的輸出進(jìn)行前向計(jì)算,再由[softmax]計(jì)算得到結(jié)果。

    解碼算法為CTC Prefix Beam Search算法,該算法對(duì)輸入一幀的數(shù)據(jù)給出當(dāng)下各種字符的概率,然后利用這一層的概率展開(kāi)搜索,選取搜索空間中最優(yōu)的k條路經(jīng)的前綴,并把這些前綴挨個(gè)輸入到模型中,同時(shí)把相同的前綴路徑合并,不斷重復(fù)最終得到最優(yōu)解。

    基于CTC Loss訓(xùn)練的模型不用進(jìn)行強(qiáng)制對(duì)齊,可以通過(guò)學(xué)習(xí),直接將語(yǔ)音映射成對(duì)應(yīng)的字符,并且引入空白標(biāo)簽Blank實(shí)現(xiàn)自動(dòng)對(duì)齊,解決了輸入音頻數(shù)據(jù)和輸出文本數(shù)據(jù)長(zhǎng)度不一致的問(wèn)題。

    2 模型剪枝

    卷積層和全連接層的輸入和輸出之間都存在密集連接,而刪除冗余的連接可以達(dá)到提升模型推理速度的目的。模型剪枝是指在訓(xùn)練好的模型上設(shè)計(jì)對(duì)模型參數(shù)的評(píng)價(jià)準(zhǔn)則,通過(guò)該準(zhǔn)則刪除不重要的參數(shù)來(lái)減小模型RTF達(dá)到提升模型推理速度的目的。模型剪枝可以分為非結(jié)構(gòu)化剪枝和結(jié)構(gòu)化剪枝[9,16]。

    2.1 非結(jié)構(gòu)化剪枝

    非結(jié)構(gòu)化剪枝可以將網(wǎng)絡(luò)任何位置的參數(shù)剪掉,本質(zhì)是對(duì)單個(gè)神經(jīng)元的權(quán)重進(jìn)行剪枝來(lái)減少神經(jīng)元之間的連接。如圖3所示,這樣剪枝操作可以對(duì)模型的權(quán)重參數(shù)稀疏化。

    雖然非結(jié)構(gòu)化剪枝使模型可以在非常精密的模式下進(jìn)行剪枝且可以實(shí)現(xiàn)很高的裁剪率,但這種剪枝方式對(duì)模型推理速度提升并不會(huì)產(chǎn)生明顯的效果。

    2.2 結(jié)構(gòu)化剪枝

    結(jié)構(gòu)化剪枝不同于非結(jié)構(gòu)化剪枝,它更專注于相對(duì)完整的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行修剪,可以修剪整個(gè)神經(jīng)元,如圖4所示,這樣修剪之后會(huì)使模型的通道數(shù)減小,從而提升模型整體的推理速度,但不可避免的會(huì)造成精度損失。

    3 模型量化

    模型量化是指將高精度浮點(diǎn)表示的網(wǎng)絡(luò)參數(shù)包括權(quán)重、激活值、梯度和誤差等用低精度來(lái)近似表示。通常使用8位整型作為統(tǒng)一的位寬,也可以根據(jù)經(jīng)驗(yàn)或一定策略自由組合不同的位寬,可以有效地減少參數(shù)存儲(chǔ)空間與內(nèi)存占用空間,加快模型運(yùn)算速度降低設(shè)備能耗。但同時(shí)也會(huì)導(dǎo)致部分信息的損失,造成模型識(shí)別精度的下降。模型參數(shù)量化可分為對(duì)稱量化和非對(duì)稱量化[9] 。

    3.1 對(duì)稱量化

    對(duì)稱量化的算法是通過(guò)一個(gè)收縮因子將32位浮點(diǎn)型數(shù)據(jù)中的最大絕對(duì)值映射到8位整型數(shù)據(jù)的最大值,將32位浮點(diǎn)型數(shù)據(jù)中最大絕對(duì)值的負(fù)值映射到8位整型數(shù)據(jù)的最小值,將零點(diǎn)限制為0,收縮因子[Δ]如式⑶所示,[xmax]和[xmin]分別表示模型中32位浮點(diǎn)型參數(shù)的最大值和最小值,[absxmax]表示取參數(shù)中最大值的絕對(duì)值,[absxmin]表示取參數(shù)中最小值的絕對(duì)值。

    其中,在函數(shù)[clampa,b,x]中,[a]表示最小值,[b]表示最大值,而當(dāng)首選值[x]比最小值要小時(shí),則使用最小值;當(dāng)首選值[x]介于最小值和最大值之間時(shí),用首選值;當(dāng)首選值[x]比最大值要大時(shí),則使用最大值。

    如圖5所示為參數(shù)量化對(duì)應(yīng)參數(shù)值的范圍,a表示參數(shù)浮點(diǎn)型的最大絕對(duì)值。對(duì)于32位浮點(diǎn)型參數(shù)如果均勻分布在0點(diǎn)左右,那么映射后的值也會(huì)均勻分布,若分布不均勻,則映射后不能充分利用。

    3.2 非對(duì)稱量化

    非對(duì)稱量化可以很好的處理32位浮點(diǎn)型數(shù)據(jù)分布不均勻的情況,通過(guò)收縮因子和零點(diǎn),將32位浮點(diǎn)型數(shù)據(jù)中的最小值和最大值分別映射到8位整型數(shù)據(jù)中的最小值和最大值。加入零點(diǎn)之后會(huì)將32位浮點(diǎn)型數(shù)據(jù)中的0量化映射到[0,255]中的某個(gè)數(shù),不會(huì)出現(xiàn)浮點(diǎn)0量化后直接映射到0的情況,可以無(wú)誤差的量化32位浮點(diǎn)型數(shù)據(jù)中的0,從而減少補(bǔ)零操作在量化中產(chǎn)生額外的誤差。式⑽為收縮因子,式⑾中的z表示零點(diǎn)位置的取值。

    其中,[xQ]表示最終量化所得到的值。如圖6所示,為非對(duì)稱參數(shù)量化參數(shù)映射的取值范圍,將浮點(diǎn)型的參數(shù)[xmin,xmax]映射到整型的[0,255]數(shù)值區(qū)域,此時(shí)的零點(diǎn)映射到8位整型數(shù)值區(qū)域[0,255]中的某個(gè)值。

    4 實(shí)驗(yàn)

    4.1 實(shí)驗(yàn)數(shù)據(jù)

    實(shí)驗(yàn)用到的語(yǔ)音數(shù)據(jù)來(lái)自于北京希爾貝殼科技有限公司出版的中文語(yǔ)音數(shù)據(jù)集AISHELL-1,該數(shù)據(jù)集由400名中國(guó)不同口音區(qū)域的發(fā)言人參與錄制,采樣率為16kHZ,包含178 h的普通話音頻及文本。

    4.2 實(shí)驗(yàn)配置

    實(shí)驗(yàn)所使用的電腦操作系統(tǒng)為Ubuntu20.04.2LTS,硬件配置為Intel i7處理器,16GB運(yùn)行內(nèi)存,GPU為NVIDIA RTX 2060(6GB顯存)。

    本實(shí)驗(yàn)基于WeNet語(yǔ)音識(shí)別工具包[17]來(lái)進(jìn)行,使用Fbank特征,編碼器有12個(gè)Conformer Blocks,注意力頭數(shù)設(shè)置為4。訓(xùn)練使用CTC loss與Attention loss 聯(lián)合優(yōu)化訓(xùn)練,避免 CTC 對(duì)齊關(guān)系過(guò)于隨機(jī),并可以使訓(xùn)練過(guò)程更加穩(wěn)定, 取得更好的識(shí)別結(jié)果。

    使用的組合損失如式⒁所示,[x]表示聲學(xué)特征,[y]為對(duì)應(yīng)標(biāo)注,表示CTC loss,表示Attention loss,[λ]表示平衡CTC loss和Attention loss的系數(shù)并且[λ∈0,1][18-19]。

    4.3 評(píng)價(jià)標(biāo)準(zhǔn)

    在數(shù)據(jù)集AISHELL-1上進(jìn)行實(shí)驗(yàn),采用字錯(cuò)率(character error rate, CER)作為評(píng)價(jià)模型識(shí)別準(zhǔn)確性的指標(biāo)。如式⒂所示,字錯(cuò)率就是將插入I、替換S和刪除D的詞的總個(gè)數(shù)除以標(biāo)準(zhǔn)的詞序列中詞的總個(gè)數(shù)的百分比。

    實(shí)時(shí)率RTF表示處理單位時(shí)長(zhǎng)語(yǔ)音數(shù)據(jù)所需要的時(shí)間,如式⒃所示,該值越小表示模型處理語(yǔ)音的效率越高,即模型推理的速度越快。

    其中,T表示所有音頻總時(shí)間,單位是秒;t表示模型識(shí)別所有音頻所用時(shí)間,單位是秒。

    4.4 實(shí)驗(yàn)結(jié)果

    本實(shí)驗(yàn)以在數(shù)據(jù)集AISHELL-1上訓(xùn)練得到的Conformer模型作為基線模型,對(duì)編碼器部分Conformer Blocks中的卷積層進(jìn)行剪枝。以L1范數(shù)作為剪枝的判斷標(biāo)準(zhǔn),對(duì)權(quán)重進(jìn)行排序,按照不同的剪枝比例對(duì)卷積層進(jìn)行剪枝,然后再對(duì)模型的線性層進(jìn)行模型量化,以實(shí)驗(yàn)A和實(shí)驗(yàn)B的結(jié)果對(duì)比來(lái)驗(yàn)證模型壓縮方法的有效性。

    4.4.1 實(shí)驗(yàn)A

    以L1范數(shù)為標(biāo)準(zhǔn),采用傳統(tǒng)的剪枝模式對(duì)模型編碼器中全部Conformer Blocks的卷積層以不同的剪枝比例進(jìn)行剪枝,結(jié)果如表1和圖7所示,可以看出對(duì)模型進(jìn)行剪枝操作后模型的RTF下降推理速度提高,但是模型的準(zhǔn)確率也隨之下降。隨著剪枝比例的提升,模型的準(zhǔn)確率急劇下降,在剪枝比例為0.35時(shí),模型的CER已經(jīng)達(dá)到53.58%,此時(shí)模型CER過(guò)高,不適合實(shí)際應(yīng)用。

    對(duì)模型完成以不同剪枝比例剪枝后,再對(duì)該模型進(jìn)行8位整型量化,結(jié)果如表2和圖8所示,量化后的模型推理速度得到提升,隨著模型剪枝比例的增加,模型識(shí)別的CER也在提升。

    如圖9所示比較了剪枝模型和剪枝加量化后的模型的CER,圖10比較了剪枝模型與剪枝加量化模型的RTF,從這兩個(gè)圖中可以看出對(duì)模型量化之后模型的準(zhǔn)確率下降不明顯,但模型的推理速度有很大提升。

    4.4.2 實(shí)驗(yàn)B

    在模型編碼器中以L1范數(shù)為標(biāo)準(zhǔn),使用改進(jìn)的剪枝算法對(duì)編碼器進(jìn)行剪枝,按照Conformer Blocks排列的順序等間隔對(duì)第1、3、5、7、9和11個(gè)Conformer Blocks中卷積層進(jìn)行通道剪枝并進(jìn)行參數(shù)量化,結(jié)果如表3和圖11所示,隨著剪枝比例的提升,模型的RTF逐漸下降,模型的CER不斷上升。

    如圖12所示,分別比較了兩個(gè)實(shí)驗(yàn)對(duì)模型RTF的影響,可以看出隨著剪枝比例的增加,模型的RTF都受到了影響,但實(shí)驗(yàn)B中的模型RTF較實(shí)驗(yàn)A下降明顯,在剪枝比例大于0.15的情況下實(shí)驗(yàn)B中模型的RTF均小于實(shí)驗(yàn)A中模型的RTF。在圖13中可以看出隨著剪枝比例的增加,模型識(shí)別的準(zhǔn)確率均發(fā)生了下降,并且對(duì)比兩個(gè)實(shí)驗(yàn),實(shí)驗(yàn)A中模型CER的變化更為明顯,在剪枝比例不斷增加的情況下其模型的CER均大于實(shí)驗(yàn)B中模型的CER,并且在實(shí)驗(yàn)B中,剪枝比例為0.2時(shí)模型壓縮的效果最好。

    4.4.3 對(duì)比結(jié)果

    對(duì)比在剪枝比例為0.2時(shí)的不同模型性能(表2)。表4中,實(shí)驗(yàn)A中只進(jìn)行剪枝的模型較基線模型的RTF降低0.00191,CER上升了12.58%,實(shí)驗(yàn)A中剪枝加量化的模型較基線模型的RTF下降0.01232,CER上升了12.93%;僅采用實(shí)驗(yàn)B中的剪枝方法所得到的模型與基線模型相比RTF下降了0.00974,CER上升了0.81%,而使用實(shí)驗(yàn)B中的剪枝加量化方法所得的模型,與基線模型相比RTF下降了0.02074,CER上升了1.71%,推理速度提升了16.2%。

    基線模型的大小為207.91MB,壓縮后的模型大小為72.69MB,僅為基線模型大小的34.95%。由此可以看出,使用本文提出的模型壓縮方法的有效性。

    5 結(jié)束語(yǔ)

    本文針對(duì)在語(yǔ)音識(shí)別任務(wù)中的Conformer模型在資源受限設(shè)備上算力不足及資源缺乏的問(wèn)題,提出了結(jié)合模型剪枝和模型量化的模型壓縮技術(shù)來(lái)提升模型的推理速度和減小模型大小。實(shí)驗(yàn)表明,以L1范數(shù)作為判斷標(biāo)準(zhǔn)在剪枝比例為0.2時(shí),用本文所提出的間隔剪枝和模型量化相結(jié)合的模型壓縮方法對(duì)基于語(yǔ)音識(shí)別的Conformer模型進(jìn)行壓縮時(shí)效果最好,壓縮后的模型較基線模型的RTF下降了0.02074推理速度提升了16.2%,字錯(cuò)率CER卻只下降了1.71%且模型大小僅為基線模型的34.95%,此時(shí)的模型在精度下降很小的情況下推理速度有較大的提升,模型大小縮減明顯,更適合于實(shí)際應(yīng)用的需要。

    參考文獻(xiàn)(References):

    [1] Graves A, Jaitly N. Towards end-to-end speech recogni-tion with recurrent neural networks[C]//International conference on machine learning.PMLR,2014:1764-1772

    [2] Miao Y, Gowayyed M, Metze F. EESEN: End-to-end speech recognition using deep RNN models and WFST-based decoding[C]//2015 IEEE Workshop on Automatic Speech Recognition and Understanding (ASRU). IEEE,2015:167-174

    [3] Lu L, Zhang X, Renais S. On training the recurrent neural?network encoder-decoder for large vocabulary end-to-end speech recognition[C]//2016 IEEE International Conference on Acoustics,Speech and Signal Processing (ICASSP). IEEE,2016:5060-5064

    [4] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[J]. Advances in neural information processing systems,2017,30

    [5] Dong L, Xu S, Xu B. Speech-transformer: a no-recurrence sequence-to-sequence model for speech recognition[C]//2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE,2018:5884-5888

    [6] Gulati A, Qin J, Chiu CC, et al. Conformer:? Convolution augmented transformer for speech recognition. Proceedings of the 21st Annual Conference of the International Speech Communication Association. Shanghai,2020:5036-5040

    [7] Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[J]. Advances in neural information processing systems,2012,25:1097-1105

    [8] 高晗,田育龍,許封元,等.深度學(xué)習(xí)模型壓縮與加速綜述[J].軟件學(xué)報(bào),2021,32(1):25

    [9] 吳衛(wèi)賢,趙鳴,黃曉丹.基于量化和模型剪枝的卷積神經(jīng)網(wǎng)絡(luò)壓縮方法[J].軟件導(dǎo)刊,2021,20(10):6

    [10] Hassibi B. Second Order Derivatives for Network Pruning:Optimal Brain Surgeon[C]//CiteSeer.CiteSeer,1992:164-171

    [11] Li H, Kadav A, Durdanovic I, et al. Pruning filters for efficient convnets[J]. arXiv preprint arXiv:1608.08710,2016

    [12] Gong Y,? Liu L,? Ming Y, et al. Compressing Deep Convolutional Networks using Vector Quantization[J]. Computer Science,2014

    [13] Wu J, Leng C, Wang Y, et al. Quantized convolutional neural networks for mobile devices[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2016:4820-4828

    [14] Choi Y, El-Khamy M, Lee J. Towards the limit of network quantization[J].arXiv preprint arXiv:1612.01543,2016

    [15] Graves A, Fernández S, Gomez F, et al. Connectionist temporal classification:labelling unsegmented sequence data with recurrent neural networks[C]//Proceedings of the 23rd international conference on Machine learning,2006:369-376

    [16] Gao Z,? Yao Y,? Zhang S, et al. Extremely Low Footprint End-to-End ASR System for Smart Device[C]// 2021

    [17] Zhang B, Wu D, Yang C, et al. Wenet: Production first and production ready end-to-end speech recognition toolkit[J]. arXiv e-prints,2021: arXiv: 2102.01547

    [18] Watanabe S ,? Hori T ,? Kim S , et al. Hybrid CTC/Attention Architecture for End-to-End Speech Recognition[J]. Selected Topics in Signal Processing, IEEE Journal of,2017,11(8):1240-1253

    [19] Kim S, Hori T, Watanabe S. Joint CTC-attention based?end-to-end speech recognition using multi-task learning[C]//2017 IEEE international conference on acoustics, speech and signal processing (ICASSP). IEEE,2017:4835-4839

    *基金項(xiàng)目:山東省重大科技創(chuàng)新工程(2019JZZZY010120); 山東省重點(diǎn)研發(fā)計(jì)劃(2019GSF111054)

    作者簡(jiǎn)介:盧江坤(1996-),男,河北邢臺(tái)人,碩士研究生,主要研究方向:語(yǔ)音識(shí)別。

    猜你喜歡
    深度學(xué)習(xí)
    從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
    面向大數(shù)據(jù)遠(yuǎn)程開(kāi)放實(shí)驗(yàn)平臺(tái)構(gòu)建研究
    基于自動(dòng)智能分類器的圖書館亂架圖書檢測(cè)
    搭建深度學(xué)習(xí)的三級(jí)階梯
    有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
    利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
    考試周刊(2016年94期)2016-12-12 12:15:04
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    两个人免费观看高清视频| 欧美在线黄色| 纯流量卡能插随身wifi吗| 最近2019中文字幕mv第一页| 精品一区二区三区四区五区乱码 | 丝袜美腿诱惑在线| 国产午夜精品一二区理论片| 免费黄频网站在线观看国产| 在线亚洲精品国产二区图片欧美| 欧美 亚洲 国产 日韩一| 91久久精品国产一区二区三区| 黄色配什么色好看| 亚洲国产看品久久| 久久久a久久爽久久v久久| 久久精品国产鲁丝片午夜精品| 999久久久国产精品视频| 人妻少妇偷人精品九色| videossex国产| 亚洲 欧美一区二区三区| 亚洲欧洲日产国产| 777米奇影视久久| 制服诱惑二区| 免费在线观看黄色视频的| 成人国产麻豆网| 最新中文字幕久久久久| 寂寞人妻少妇视频99o| 1024香蕉在线观看| 亚洲国产精品999| 岛国毛片在线播放| 老司机影院毛片| 国产一区二区激情短视频 | 狂野欧美激情性bbbbbb| 午夜老司机福利剧场| 91在线精品国自产拍蜜月| 一级毛片电影观看| 一边亲一边摸免费视频| 成人国语在线视频| 日本午夜av视频| 91aial.com中文字幕在线观看| 日本色播在线视频| 久久精品亚洲av国产电影网| 电影成人av| 欧美激情高清一区二区三区 | 两个人免费观看高清视频| 国产精品蜜桃在线观看| 国产又色又爽无遮挡免| 久久精品亚洲av国产电影网| 青青草视频在线视频观看| 99热全是精品| 黄片小视频在线播放| 日韩人妻精品一区2区三区| 一级片'在线观看视频| 国产精品久久久久成人av| 男女午夜视频在线观看| 永久网站在线| 色哟哟·www| 国产老妇伦熟女老妇高清| 国产成人精品一,二区| 精品国产一区二区三区久久久樱花| 亚洲国产av影院在线观看| 午夜福利视频精品| 久久久国产欧美日韩av| 欧美xxⅹ黑人| 男女国产视频网站| 免费看av在线观看网站| 日本黄色日本黄色录像| 久久久久久伊人网av| 一本久久精品| 国产精品久久久av美女十八| 亚洲精品自拍成人| 精品第一国产精品| 我的亚洲天堂| 亚洲精品国产av成人精品| 日韩免费高清中文字幕av| 欧美日韩av久久| 亚洲国产精品国产精品| 国产又色又爽无遮挡免| 欧美日本中文国产一区发布| 日韩av不卡免费在线播放| 日日撸夜夜添| 91久久精品国产一区二区三区| 亚洲国产精品一区三区| 中文字幕av电影在线播放| 丰满少妇做爰视频| 日韩欧美精品免费久久| 麻豆精品久久久久久蜜桃| 熟妇人妻不卡中文字幕| 精品一区二区三卡| 精品少妇黑人巨大在线播放| 中文字幕另类日韩欧美亚洲嫩草| 亚洲人成电影观看| 女人精品久久久久毛片| 欧美另类一区| 久久精品久久精品一区二区三区| 丝袜美足系列| 亚洲av免费高清在线观看| a级毛片黄视频| 一区二区三区四区激情视频| 免费观看无遮挡的男女| 一区二区三区乱码不卡18| 亚洲三区欧美一区| 一个人免费看片子| 欧美人与善性xxx| 中文字幕人妻丝袜制服| 91午夜精品亚洲一区二区三区| 亚洲国产av影院在线观看| 成人漫画全彩无遮挡| 丝袜美足系列| 国产精品国产三级国产专区5o| 国产亚洲精品第一综合不卡| 秋霞伦理黄片| 波野结衣二区三区在线| 最近中文字幕2019免费版| 日韩一本色道免费dvd| 国产 一区精品| 有码 亚洲区| 美女国产高潮福利片在线看| 国产精品二区激情视频| 精品国产一区二区久久| 国产成人aa在线观看| 黄片小视频在线播放| 日本午夜av视频| av国产久精品久网站免费入址| www.自偷自拍.com| 日韩,欧美,国产一区二区三区| 90打野战视频偷拍视频| 叶爱在线成人免费视频播放| 天天操日日干夜夜撸| 国产熟女午夜一区二区三区| 国产男人的电影天堂91| 中文精品一卡2卡3卡4更新| 一区二区三区四区激情视频| 欧美日韩精品网址| 97在线人人人人妻| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 久久久精品免费免费高清| 日韩熟女老妇一区二区性免费视频| 99精国产麻豆久久婷婷| 亚洲精品自拍成人| 中文精品一卡2卡3卡4更新| 卡戴珊不雅视频在线播放| 水蜜桃什么品种好| 老女人水多毛片| 欧美激情极品国产一区二区三区| 大话2 男鬼变身卡| 两性夫妻黄色片| 高清av免费在线| av卡一久久| 在线观看www视频免费| 亚洲美女搞黄在线观看| 巨乳人妻的诱惑在线观看| 深夜精品福利| 久久精品国产亚洲av高清一级| 如日韩欧美国产精品一区二区三区| 成年女人毛片免费观看观看9 | 国产 精品1| av在线app专区| 国产成人精品一,二区| 亚洲经典国产精华液单| 国产精品国产三级专区第一集| 成年女人毛片免费观看观看9 | 女的被弄到高潮叫床怎么办| 亚洲欧美色中文字幕在线| 黄色配什么色好看| 亚洲第一区二区三区不卡| 69精品国产乱码久久久| 国产亚洲午夜精品一区二区久久| 国产成人a∨麻豆精品| 最近2019中文字幕mv第一页| 老女人水多毛片| 大香蕉久久网| 国产 一区精品| 亚洲国产精品一区三区| 国产黄色视频一区二区在线观看| 国产乱人偷精品视频| 热99久久久久精品小说推荐| 成年动漫av网址| 久久久久精品性色| 如何舔出高潮| 国产探花极品一区二区| 亚洲精品国产一区二区精华液| 妹子高潮喷水视频| 亚洲国产精品一区二区三区在线| 91精品国产国语对白视频| 亚洲三级黄色毛片| 最新中文字幕久久久久| 麻豆精品久久久久久蜜桃| 欧美最新免费一区二区三区| 色哟哟·www| 中文字幕制服av| 亚洲国产精品一区二区三区在线| 91精品国产国语对白视频| 男人添女人高潮全过程视频| 国产精品秋霞免费鲁丝片| 九色亚洲精品在线播放| 你懂的网址亚洲精品在线观看| 中文字幕最新亚洲高清| 国产日韩欧美在线精品| 亚洲色图 男人天堂 中文字幕| 婷婷色综合www| 国产成人午夜福利电影在线观看| 精品久久蜜臀av无| 久久精品国产亚洲av天美| 精品福利永久在线观看| 丝袜美足系列| 久久av网站| 一本色道久久久久久精品综合| 国产乱来视频区| 黑丝袜美女国产一区| av一本久久久久| av线在线观看网站| 国产精品国产三级专区第一集| 欧美日韩国产mv在线观看视频| 国产av一区二区精品久久| 国产欧美日韩综合在线一区二区| 亚洲国产色片| 99国产综合亚洲精品| 成人18禁高潮啪啪吃奶动态图| 十八禁高潮呻吟视频| 18在线观看网站| 国产精品久久久久久av不卡| 少妇的逼水好多| 极品人妻少妇av视频| 99热全是精品| av网站免费在线观看视频| 国产免费视频播放在线视频| 欧美人与善性xxx| 亚洲av福利一区| 香蕉精品网在线| 满18在线观看网站| 国产精品久久久久久av不卡| 老汉色av国产亚洲站长工具| 久久午夜综合久久蜜桃| 男人添女人高潮全过程视频| 成人国语在线视频| 国产在线一区二区三区精| av在线观看视频网站免费| 一级毛片我不卡| 人妻一区二区av| 日韩三级伦理在线观看| www.自偷自拍.com| 欧美日韩一级在线毛片| 国产乱来视频区| 欧美xxⅹ黑人| 一区二区三区乱码不卡18| 在线精品无人区一区二区三| 久久久久人妻精品一区果冻| 久久精品熟女亚洲av麻豆精品| 精品国产一区二区久久| 晚上一个人看的免费电影| 中文天堂在线官网| 国产精品嫩草影院av在线观看| 老汉色av国产亚洲站长工具| 欧美另类一区| 成年女人在线观看亚洲视频| 日韩三级伦理在线观看| 国产野战对白在线观看| 亚洲av成人精品一二三区| 建设人人有责人人尽责人人享有的| 亚洲第一区二区三区不卡| 高清不卡的av网站| 亚洲,欧美,日韩| www.精华液| 精品亚洲成国产av| 波多野结衣一区麻豆| 黄色视频在线播放观看不卡| 久久精品国产亚洲av高清一级| 久久韩国三级中文字幕| 亚洲第一青青草原| 亚洲精品国产一区二区精华液| 99久久人妻综合| 久久精品亚洲av国产电影网| 99热全是精品| 亚洲一区二区三区欧美精品| 国产精品久久久久久精品电影小说| videosex国产| 日韩成人av中文字幕在线观看| 精品视频人人做人人爽| 欧美精品国产亚洲| 在线观看一区二区三区激情| 日本vs欧美在线观看视频| 黄色 视频免费看| a级毛片在线看网站| 春色校园在线视频观看| 熟女电影av网| 国产av国产精品国产| 国产午夜精品一二区理论片| 97在线视频观看| 日本91视频免费播放| 26uuu在线亚洲综合色| 建设人人有责人人尽责人人享有的| 男女下面插进去视频免费观看| 咕卡用的链子| 欧美日韩综合久久久久久| 一区二区三区四区激情视频| 亚洲国产日韩一区二区| 久久精品久久精品一区二区三区| 不卡视频在线观看欧美| 国产成人av激情在线播放| 日韩一区二区视频免费看| 色吧在线观看| 午夜福利视频在线观看免费| 国产精品秋霞免费鲁丝片| 如何舔出高潮| av福利片在线| 18禁观看日本| 美女主播在线视频| 欧美亚洲日本最大视频资源| 男人操女人黄网站| 婷婷成人精品国产| 69精品国产乱码久久久| 久久久久久人人人人人| 日韩中字成人| 欧美 日韩 精品 国产| 国产精品偷伦视频观看了| a 毛片基地| 黄频高清免费视频| 免费日韩欧美在线观看| 香蕉丝袜av| 精品卡一卡二卡四卡免费| 久久久久精品人妻al黑| 亚洲色图综合在线观看| av有码第一页| 久久 成人 亚洲| 深夜精品福利| 成人18禁高潮啪啪吃奶动态图| 考比视频在线观看| 激情五月婷婷亚洲| 亚洲精品一二三| 国产男女内射视频| 日韩欧美一区视频在线观看| 国产男人的电影天堂91| 国产精品久久久av美女十八| 又粗又硬又长又爽又黄的视频| 丁香六月天网| 可以免费在线观看a视频的电影网站 | 国产成人av激情在线播放| 宅男免费午夜| 我的亚洲天堂| 黄色配什么色好看| 精品少妇内射三级| 久久久久久久久久人人人人人人| 一区二区三区乱码不卡18| 欧美最新免费一区二区三区| 天天躁日日躁夜夜躁夜夜| 女性生殖器流出的白浆| 精品国产国语对白av| 亚洲成色77777| 国产成人a∨麻豆精品| 精品酒店卫生间| 中文字幕av电影在线播放| 亚洲国产日韩一区二区| 国产成人a∨麻豆精品| 性高湖久久久久久久久免费观看| 夜夜骑夜夜射夜夜干| 久久久久国产网址| 毛片一级片免费看久久久久| 90打野战视频偷拍视频| 色播在线永久视频| 国产精品av久久久久免费| av国产久精品久网站免费入址| 国产精品一区二区在线观看99| 高清不卡的av网站| 久久久久久久久久人人人人人人| 一本大道久久a久久精品| 国产精品av久久久久免费| 午夜老司机福利剧场| 人体艺术视频欧美日本| 国产精品久久久久成人av| 天堂中文最新版在线下载| 一级毛片我不卡| 一级毛片黄色毛片免费观看视频| 最近手机中文字幕大全| 寂寞人妻少妇视频99o| 色婷婷久久久亚洲欧美| 一级片免费观看大全| 人妻少妇偷人精品九色| 日产精品乱码卡一卡2卡三| 黄网站色视频无遮挡免费观看| 超色免费av| 久久久精品区二区三区| av福利片在线| av在线app专区| 亚洲一级一片aⅴ在线观看| 国产精品麻豆人妻色哟哟久久| 日韩三级伦理在线观看| 久久精品aⅴ一区二区三区四区 | 国产又爽黄色视频| 黑人猛操日本美女一级片| 国产成人午夜福利电影在线观看| 人人妻人人添人人爽欧美一区卜| 久久鲁丝午夜福利片| 久久 成人 亚洲| 午夜福利在线免费观看网站| 日韩免费高清中文字幕av| 永久网站在线| 少妇 在线观看| 亚洲av中文av极速乱| 久久久久国产精品人妻一区二区| 黄片无遮挡物在线观看| 三上悠亚av全集在线观看| 成人国产麻豆网| 丝瓜视频免费看黄片| 亚洲av.av天堂| 91成人精品电影| xxx大片免费视频| 美女中出高潮动态图| 国产精品 欧美亚洲| 18禁国产床啪视频网站| 人人妻人人添人人爽欧美一区卜| 久久精品人人爽人人爽视色| 欧美 亚洲 国产 日韩一| 人成视频在线观看免费观看| 99热全是精品| 日韩伦理黄色片| 国产乱人偷精品视频| 少妇的丰满在线观看| 青春草视频在线免费观看| 国产精品 欧美亚洲| 欧美老熟妇乱子伦牲交| 看免费av毛片| 亚洲成人av在线免费| 日本欧美国产在线视频| a级毛片在线看网站| 国产精品一二三区在线看| av免费观看日本| 老熟女久久久| 国产亚洲欧美精品永久| 少妇被粗大的猛进出69影院| 日韩成人av中文字幕在线观看| 性高湖久久久久久久久免费观看| 我要看黄色一级片免费的| 满18在线观看网站| 建设人人有责人人尽责人人享有的| 免费观看a级毛片全部| 亚洲图色成人| 2018国产大陆天天弄谢| 免费在线观看完整版高清| 亚洲精品av麻豆狂野| 色网站视频免费| 成年人午夜在线观看视频| freevideosex欧美| 国产精品蜜桃在线观看| 国产精品亚洲av一区麻豆 | 母亲3免费完整高清在线观看 | 电影成人av| 99热全是精品| 免费播放大片免费观看视频在线观看| 国产精品久久久av美女十八| 高清av免费在线| 一个人免费看片子| 亚洲成国产人片在线观看| 久久精品aⅴ一区二区三区四区 | 婷婷色av中文字幕| 日韩中字成人| 在线观看一区二区三区激情| 久久影院123| 成人免费观看视频高清| 在线 av 中文字幕| 青草久久国产| 男女午夜视频在线观看| 男女高潮啪啪啪动态图| 国产在线免费精品| www日本在线高清视频| 2022亚洲国产成人精品| 熟妇人妻不卡中文字幕| 久久久国产一区二区| 国产伦理片在线播放av一区| 卡戴珊不雅视频在线播放| 国产男女超爽视频在线观看| 欧美精品亚洲一区二区| 男人操女人黄网站| 波多野结衣av一区二区av| 国产精品 欧美亚洲| 十八禁网站网址无遮挡| 午夜福利影视在线免费观看| 亚洲av中文av极速乱| 纯流量卡能插随身wifi吗| 亚洲精品乱久久久久久| 亚洲第一青青草原| 王馨瑶露胸无遮挡在线观看| 精品人妻偷拍中文字幕| 亚洲精品国产av蜜桃| 亚洲精品乱久久久久久| 尾随美女入室| 咕卡用的链子| 婷婷色麻豆天堂久久| 国产爽快片一区二区三区| 可以免费在线观看a视频的电影网站 | 十八禁网站网址无遮挡| 高清欧美精品videossex| 国产黄色免费在线视频| 黑人巨大精品欧美一区二区蜜桃| 国产成人精品婷婷| 久久久久精品人妻al黑| 不卡av一区二区三区| av在线观看视频网站免费| 久久精品国产a三级三级三级| 国产男女内射视频| 黄色配什么色好看| 亚洲一区中文字幕在线| 免费观看a级毛片全部| av在线老鸭窝| 两个人看的免费小视频| 国产熟女欧美一区二区| 一区二区三区激情视频| 国产97色在线日韩免费| 国产伦理片在线播放av一区| 一本久久精品| 久久99蜜桃精品久久| 国产日韩欧美亚洲二区| 国产片内射在线| 成人亚洲精品一区在线观看| 九色亚洲精品在线播放| 亚洲av成人精品一二三区| 日韩一区二区视频免费看| 高清不卡的av网站| 中文天堂在线官网| 18禁观看日本| 国产精品 欧美亚洲| 伦理电影大哥的女人| 下体分泌物呈黄色| 日韩中字成人| 久久婷婷青草| 美女福利国产在线| 日韩一本色道免费dvd| 久久人人97超碰香蕉20202| 午夜久久久在线观看| 精品酒店卫生间| 丝袜脚勾引网站| 又大又黄又爽视频免费| 成人午夜精彩视频在线观看| 亚洲成人手机| 婷婷色麻豆天堂久久| 国产乱人偷精品视频| 中文字幕最新亚洲高清| 叶爱在线成人免费视频播放| 国产亚洲一区二区精品| 最近最新中文字幕免费大全7| 1024香蕉在线观看| 日韩免费高清中文字幕av| 青草久久国产| 国产又爽黄色视频| 日日爽夜夜爽网站| 交换朋友夫妻互换小说| 自线自在国产av| www.熟女人妻精品国产| 欧美日韩综合久久久久久| 建设人人有责人人尽责人人享有的| 十分钟在线观看高清视频www| 久久亚洲国产成人精品v| 丰满少妇做爰视频| 两性夫妻黄色片| 亚洲第一av免费看| 免费观看无遮挡的男女| 一级,二级,三级黄色视频| 伊人久久国产一区二区| 9色porny在线观看| 美女中出高潮动态图| 少妇猛男粗大的猛烈进出视频| 一级片免费观看大全| 亚洲精品一区蜜桃| 久久综合国产亚洲精品| 高清黄色对白视频在线免费看| 亚洲精品国产av蜜桃| 欧美少妇被猛烈插入视频| 国产成人精品在线电影| 最近的中文字幕免费完整| 久久这里只有精品19| a级片在线免费高清观看视频| 午夜老司机福利剧场| 香蕉国产在线看| 男女无遮挡免费网站观看| 毛片一级片免费看久久久久| 国产精品国产三级专区第一集| 丝袜喷水一区| av在线播放精品| 久久免费观看电影| 新久久久久国产一级毛片| 国产成人av激情在线播放| 永久免费av网站大全| 成年av动漫网址| 制服人妻中文乱码| 大话2 男鬼变身卡| 免费黄网站久久成人精品| 男女国产视频网站| 欧美激情高清一区二区三区 | 久久久久精品人妻al黑| 水蜜桃什么品种好| av免费在线看不卡| 中文字幕人妻丝袜一区二区 | 精品视频人人做人人爽| 亚洲婷婷狠狠爱综合网| 亚洲美女黄色视频免费看| 日韩精品免费视频一区二区三区| 亚洲婷婷狠狠爱综合网| 日本av免费视频播放| 亚洲精品久久成人aⅴ小说| 色播在线永久视频| 国产精品一国产av| 秋霞伦理黄片| 亚洲综合精品二区| 美女主播在线视频| 国产不卡av网站在线观看| 亚洲av免费高清在线观看| 人人妻人人澡人人看| 亚洲精品一二三| 国产片特级美女逼逼视频| 亚洲美女视频黄频| 欧美+日韩+精品| 丝袜脚勾引网站| 日韩大片免费观看网站| 精品酒店卫生间| 性色av一级| 高清av免费在线|