• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于聽覺掩蔽生成對抗網(wǎng)絡(luò)的單通道語音增強方法

      2021-08-09 11:50:30杜志浩韓紀慶
      智能計算機與應(yīng)用 2021年3期
      關(guān)鍵詞:生成對抗網(wǎng)絡(luò)

      杜志浩 韓紀慶

      摘 要: 為提高語音識別系統(tǒng)在復(fù)雜聲學(xué)場景下的識別率,出現(xiàn)了以單通道語音增強(Monaural Speech Enhancement)技術(shù)作為前端處理的魯棒語音識別系統(tǒng)。盡管現(xiàn)有的單通道語音增強技術(shù)能夠提高混響干擾下的識別率,卻未能顯著提升寬帶非平穩(wěn)噪聲干擾下的系統(tǒng)識別率。為此,本文提出基于聽覺掩蔽生成對抗網(wǎng)絡(luò)的單通道增強方法,通過聽覺掩蔽增強模型和判別器構(gòu)成的對抗過程,來使增強后的語音特征滿足目標(biāo)語音的概率分布。實驗結(jié)果表明,就語音識別率而言,所提出的聽覺掩蔽生成對抗網(wǎng)絡(luò)超越了現(xiàn)有的增強方法,能夠相對減少19.50%的詞錯誤率,顯著提升語音識別系統(tǒng)的噪聲魯棒性。

      關(guān)鍵詞: 聽覺掩蔽;生成對抗網(wǎng)絡(luò);單通道語音增強;魯棒語音識別

      文章編號: 2095-2163(2021)03-0209-06 中圖分類號:TP183 文獻標(biāo)志碼:A

      【Abstract】To improve the accuracy of speech recognition system in the complex acoustic scene, monaural speech enhancement method is involved into the robust automatic speech recognition (ASR) system as a front-end processing. Although monaural speech enhancement has improved the recognition performance under the reverberant conditions, it failed to improve the accuracy of speeches interrupted by the wide-band non-stationary noises. To overcome this problem, the paper proposes the adversarial generative network based on auditory masking for monaural speech enhancement. Through the adversarial process between a discriminator and a masking-based enhancement model, the proposed method can make the enhanced speech features follow the distribution of target speeches. Experimental results show that, ?the proposed method outperforms current enhancement method in terms of recognition accuracy. It achieves 19.50% relative word error rate (WER) reduction for a robust ASR system, which indicates that the proposed method can further improve the noise robustness.

      0 引 言

      在語音識別領(lǐng)域,通常使用含有噪聲的語音和純凈語音共同訓(xùn)練自動語音識別(Automatic Speech Recognition,ASR)系統(tǒng),從而提高其在噪聲環(huán)境下的識別率。為進一步提高ASR系統(tǒng)在復(fù)雜聲學(xué)場景下的識別率,出現(xiàn)了將單通道語音增強模型作為前端處理的識別系統(tǒng)。這類系統(tǒng)先使用增強模型盡可能地去除含噪語音中的噪聲干擾,接著將增強后的語音送入ASR系統(tǒng),從而得到識別文本。為使增強后的語音和識別系統(tǒng)所要求的輸入盡可能地匹配,通常需要利用增強后的語音重新訓(xùn)練ASR系統(tǒng)中的聲學(xué)模型[1-2],或者將聲學(xué)模型和增強模型堆疊,進行聯(lián)合訓(xùn)練[3-4]。然而,上述這2種方法在增強模型改變時需要重新訓(xùn)練語音識別系統(tǒng),對實際應(yīng)用而言,這通常是不合理的。首先,重新訓(xùn)練語音識別系統(tǒng)非常耗時,其次,增強模型一般運行在終端設(shè)備,而識別系統(tǒng)則通常運行在云端設(shè)備,可能無法對兩者進行聯(lián)合優(yōu)化。

      近年來,出現(xiàn)了基于生成對抗網(wǎng)絡(luò)(Adversarial Generative Network,GAN)[5]的單通道語音增強方法。該方法通過構(gòu)建增強模型和判別器之間的對抗過程,來使增強后的語音滿足目標(biāo)語音分布?;贕AN的增強方法能夠顯著提升增強后語音的可懂度和感知質(zhì)量[6]。受此啟發(fā),魯棒語音識別領(lǐng)域也出現(xiàn)了基于GAN的前端處理方法,以盡可能地減少增強模型輸出與識別系統(tǒng)所要求輸入之間的不匹配程度,從而直接提高增強后語音的識別率,而不需要聯(lián)合訓(xùn)練或重新訓(xùn)練聲學(xué)模型[7-8]。通過增強后語音特征和目標(biāo)語音特征之間的對抗訓(xùn)練,文獻[7]中的增強方法降低了混響干擾下語音識別系統(tǒng)14%~19%的相對字錯誤率。在文獻[8]中,經(jīng)過對抗訓(xùn)練的增強模型能夠顯著提升純凈語音訓(xùn)練的ASR系統(tǒng),卻未能進一步提高魯棒ASR系統(tǒng)的識別率。

      為了進一步提高魯棒ASR系統(tǒng)在寬帶非平穩(wěn)噪聲干擾下的識別率,本文提出基于聽覺掩蔽生成對抗網(wǎng)絡(luò)的單通道語音增強方法,并將其作為魯棒ASR系統(tǒng)的前端處理過程,以盡可能地去除背景噪聲的干擾,從而提高識別率。所提出的方法由基于聽覺掩蔽的特征增強模型和區(qū)分增強后語音和目標(biāo)語音特征的判別器構(gòu)成。特征增強模型的首要目標(biāo)是以含噪語音的聲學(xué)特征為輸入,來對目標(biāo)語音相應(yīng)的理想比率掩膜(Ideal Ratio Mask,IRM)進行預(yù)測,而后利用聽覺掩蔽效應(yīng)得到增強后的聲學(xué)特征。增強模型的次要目標(biāo)則是通過欺騙判別器,使增強后的聲學(xué)特征盡可能地滿足目標(biāo)語音的概率分布,從而減少與目標(biāo)語音特征之間的差異,進而提高增強后語音特征的識別率。

      1 基于聽覺掩蔽生成對抗網(wǎng)絡(luò)的增強方法

      首先給出基于聽覺掩蔽的有監(jiān)督語音增強方法,而后對所提出的聽覺掩蔽生成對抗網(wǎng)絡(luò)(Generative adversarial network based on auditory masking, GANAM)進行介紹。GANAM主要由2部分構(gòu)成,分別是:基于聽覺掩蔽的特征增強模型E,以及用于區(qū)分增強后特征和目標(biāo)語音特征的判別器D。圖1給出了所提出方法的結(jié)構(gòu)示意圖。

      1.1 基于聽覺掩蔽的有監(jiān)督增強方法

      基于聽覺掩蔽的有監(jiān)督增強方法能夠有效提升含噪語音的可懂度和感知質(zhì)量[9],同時還能夠通過與聲學(xué)模型的聯(lián)合訓(xùn)練提高ASR系統(tǒng)的識別率[3]。因此,本文也采用基于聽覺掩蔽的增強模型。理想比率掩膜IRM[6]是基于聽覺掩蔽的增強模型最常用的學(xué)習(xí)目標(biāo)之一,其定義如下:

      其中,M表示理想比率掩膜IRM;S和Y分別表示目標(biāo)語音和含噪語音的時頻特征;t和f分別表示時間幀序號和頻帶編號;[·]10表示對數(shù)值進行截取,將其限制在0~1之間。

      理想比率掩膜可以定義在不同的時頻特征上,包括能量譜FFT、對數(shù)能量譜log-FFT、梅爾能量譜fbank,以及對數(shù)梅爾能量譜log-fbank,其提取過程如下:

      (1)對給定的語音波形進行短時傅里葉變換,得到復(fù)數(shù)譜。

      (2)對復(fù)數(shù)譜的每個時頻單元取模,再平方,得到能量譜FFT。

      (3)對能量譜的每個時頻單元進行對數(shù)壓縮,即可得到對數(shù)能量譜log-FFT。

      (4)使用梅爾濾波器組對能量譜進行濾波,得到梅爾能量譜fbank。

      (5)對梅爾能量譜的每個時頻單元取對數(shù),得到對數(shù)梅爾能量譜log-fbank。

      前期的實驗表明,使用對數(shù)梅爾能量譜log-fbank能夠獲得較好的增強性能,因此本文后續(xù)的實驗都以log-fbank作為聲學(xué)特征。

      當(dāng)特征域確定后,即可訓(xùn)練增強模型E以含噪語音的聲學(xué)特征Y為輸入,來對目標(biāo)語音相應(yīng)的比率掩膜進行估計,即:

      在訓(xùn)練時,將理想比率掩膜真實值和預(yù)測值之間的均方誤差(Mean Square Error,MSE)作為損失函數(shù),通過最小化該損失函數(shù),來對增強模型E的參數(shù)θ進行求解:

      其中,T和F分別表示語音幀總數(shù)和頻帶總數(shù)。

      1.2 聽覺掩蔽生成對抗網(wǎng)絡(luò)

      聽覺掩蔽生成對抗網(wǎng)絡(luò)GANAM在有監(jiān)督語音增強模型的基礎(chǔ)上,另外添加了區(qū)分聲學(xué)特征純凈與否的判別器,從而能夠借助其與增強模型形成的對抗過程,使增強后的聲學(xué)特征更具判別性。

      由于目標(biāo)語音的數(shù)值范圍較大,直接將其作為正例會增加生成對抗網(wǎng)絡(luò)的訓(xùn)練難度。因此,在GANAM中,判別器D將含噪語音特征Y與理想比率掩膜M的乘積作為正例S-:

      在判別器盡可能區(qū)分增強后語音和目標(biāo)語音特征的同時,增強模型則試圖通過改變其預(yù)測的比率掩膜,來欺騙判別器D,以獲得較高的分數(shù):

      其中,⊙表示對應(yīng)元素相乘。

      單純以最小化對抗損失Ladv作為增強模型E的訓(xùn)練目標(biāo),會使預(yù)測出的比率掩膜缺少約束,因為其只需使增強后的聲學(xué)特征滿足目標(biāo)語音的概率分布即可。這樣一來,增強后的語音和目標(biāo)語音特征之間就會缺乏對應(yīng)關(guān)系。因此,本文將比率掩膜的均方誤差與對抗損失相結(jié)合,提出對抗多任務(wù)損失函數(shù):

      其中,·22表示L2范數(shù)的平方,λ是用來平衡重構(gòu)損失和對抗損失的超參數(shù),一般通過實驗事先選取,本文取0.000 1。

      1.3 聽覺掩蔽對抗訓(xùn)練有效性分析

      由此可見,對抗訓(xùn)練最大化判別器的損失,實際上是在最小化目標(biāo)語音和增強后語音特征分布之間的JS散度。因此,對抗訓(xùn)練能夠使增強后的語音特征盡可能地滿足目標(biāo)語音的概率分布,從而有效提高ASR系統(tǒng)的識別率。

      2 實驗設(shè)置與評價指標(biāo)

      2.1 數(shù)據(jù)集

      本文使用第3屆語音分離與識別公開挑戰(zhàn)賽CHiME-3[10]所提供的語音數(shù)據(jù),來對所提出的方法進行評價。由于該數(shù)據(jù)集包括多個通道的語音數(shù)據(jù),因此這里僅采用第5個通道的數(shù)據(jù)來進行單通道語音增強和識別任務(wù)的訓(xùn)練和測試。CHiME-3數(shù)據(jù)集由模擬合成和真實錄制的2部分數(shù)據(jù)構(gòu)成。對于模擬合成的數(shù)據(jù),其理想比率掩膜使用含噪語音和參與合成的目標(biāo)語音計算得到;對于真實錄制的數(shù)據(jù),則使用錄制到的遠講語音和近講語音計算得到理想比率掩膜。為方便處理,所有的語音文件都采樣到16k Hz。另外,為模擬無混響的背景噪聲干擾,還將純凈語音和噪聲按照0 dB、3 dB和6 dB等信噪比進行混合,以擴充增強模型的訓(xùn)練集。

      2.2 評價指標(biāo)

      通過計算增強后語音在魯棒語音識別系統(tǒng)上的詞錯誤率(Word Error Rate,WER),來評價增強模型的性能。一般而言,詞錯誤率越低表示增強模型的性能越好,反之,詞錯誤率越高則表示增強模型的性能越差。

      本文使用CHiME-3挑戰(zhàn)賽中官方提供的魯棒語音識別系統(tǒng)對增強模型進行評價。該系統(tǒng)由深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)和隱馬爾科夫模型(Hidden Markov Model,HMM)構(gòu)成。對其聲學(xué)模型而言,首先訓(xùn)練高斯混合模型(Gaussian Mixture Model,GMM)和HMM構(gòu)成的混合系統(tǒng),來進行音素和語音幀之間的強制對齊,這里采用經(jīng)過決策樹聚類的三音素作為識別的基本單元。而后使用每幀的對數(shù)梅爾能量譜和三音素類別標(biāo)簽訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)DNN。為獲得良好的初始化參數(shù),先使用受限玻爾茲曼機對神經(jīng)網(wǎng)絡(luò)進行逐層初始化,而后再進行輸入特征和標(biāo)簽對應(yīng)的有監(jiān)督分類訓(xùn)練。為使該聲學(xué)模型盡可能地魯棒,訓(xùn)練集含有多種聲學(xué)場景下的語音數(shù)據(jù),包括純凈語音、近講語音、模擬的含噪語音,以及真實錄制的含噪語音。通過這種多條件的訓(xùn)練方式,聲學(xué)模型的噪聲魯棒性能夠獲得極大提升[11]。

      語音識別系統(tǒng)的語言模型為華爾街日報(Wall Street Journal,WSJ)5000詞的trigram模型,這里使用Kaldi工具集中的加權(quán)有限狀態(tài)機(Weighted Finite-State Transducer,WFST)對其進行建模。在對增強模型進行評價時,ASR系統(tǒng)的聲學(xué)模型和語言模型將固定不變,僅改變前端增強模型。

      2.3 模型結(jié)構(gòu)

      所提出的聽覺掩蔽生成對抗網(wǎng)絡(luò)GANAM是一種學(xué)習(xí)范式,對增強模型的具體結(jié)構(gòu)并沒有特殊要求。因此這里采用單通道語音增強算法中常用的雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)。為避免長時建模可能產(chǎn)生的梯度消失問題,該RNN網(wǎng)絡(luò)采用長短時記憶單元(Long Short-term Memory Unit,LSTM)作為隱層單元。增強模型共包含4個隱層,而每個隱層則由512個LSTM單元構(gòu)成。GANAM中的判別器與聲學(xué)模型的網(wǎng)絡(luò)結(jié)構(gòu)類似,其輸入為前后各擴展12幀、共25幀聲學(xué)特征拼接而成的向量,而其輸出則是經(jīng)過sigmoid函數(shù)歸一化后的概率得分。判別器D共包含3個全連接層,每層由1 024個線性整流(Rectified Linear Unit,ReLU)神經(jīng)元構(gòu)成。

      2.4 對比方法

      為客觀評價所提出方法的性能,本文將其與最近提出的2種基于生成對抗網(wǎng)絡(luò)的增強方法進行比較,可得到如下研究結(jié)論:

      (1)MappingGAN是文獻[7]提出的增強方法。與本文基于聽覺掩蔽的增強方法不同,其增強模型以含噪語音的聲學(xué)特征為輸入,直接預(yù)測目標(biāo)語音的特征;其判別器則盡可能地發(fā)現(xiàn)增強后語音和目標(biāo)語音之間的差異。該方法可以有效提高混響干擾下魯棒ASR系統(tǒng)的識別率,但對于寬帶非平穩(wěn)噪聲的干擾還未進行評估。

      (2)PairGAN與本文的方法類似,也是基于聽覺掩蔽的增強方法[6]。不同的是,PairGAN將含噪語音與比率掩膜構(gòu)成的二元組作為正例或反例,而不是將增強后的語音或目標(biāo)語音特征作為正例或反例。該方法能夠有效提高增強后語音的可懂度和感知質(zhì)量,但對魯棒ASR系統(tǒng)識別率的影響還有待研究。

      3 實驗結(jié)果及分析

      3.1 性能對比

      表1給出了MappingGAN、PairGAN以及所提出的GANAM方法增強后語音的詞錯誤率。從表1中可以看出:

      (1)不管是驗證集(dt)還是測試集(et),基于聽覺掩蔽的增強方法都能夠進一步降低模擬合成語音(simu)和真實錄制(real)語音在魯棒ASR系統(tǒng)上的詞錯誤率。這說明,前端增強方法是提升語音識別系統(tǒng)噪聲魯棒性的可行途徑。

      (2)與有監(jiān)督方法相比,所提出的GANAM在所有評測條件下都能夠顯著降低增強后語音的詞錯誤率,從而說明,GANAM能夠使增強后的語音特征更具判別性。

      (3)與現(xiàn)有的增強方法MappingGAN和PairGAN相比,GANAM增強后的語音特征獲得了更低的詞錯誤率。這就表明,相比于其他的對抗訓(xùn)練策略,基于聽覺掩蔽的生成對抗網(wǎng)絡(luò)能夠更加有效地提取和利用目標(biāo)語音聲學(xué)特征的概率分布。

      (4)通過對比PairGAN和有監(jiān)督方法可以看出,不恰當(dāng)?shù)膶共呗苑堑荒芴岣逜SR系統(tǒng)的識別率,甚至還會降低ASR系統(tǒng)的識別性能。此外,PairGAN的實驗結(jié)果還表明,提高增強后語音的可懂度、感知質(zhì)量等主觀指標(biāo),和提高語音識別率這一客觀指標(biāo)是2個不同的問題,能夠提高主觀指標(biāo)的增強方法并不一定能夠提高識別率。

      3.2 判別器模型結(jié)構(gòu)對增強后語音詞錯誤率的影響

      對于生成對抗網(wǎng)絡(luò)而言,判別器的模型結(jié)構(gòu)也會對最終的性能產(chǎn)生影響。為了評估該影響,本節(jié)固定增強模型的網(wǎng)絡(luò)結(jié)構(gòu)不變,分別使用參數(shù)量相同的卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò),代替所采用的深度神經(jīng)網(wǎng)絡(luò)判別器。表2給出了不同網(wǎng)絡(luò)結(jié)構(gòu)的判別器對增強后語音識別率的影響。從表2中可以看出,判別器的模型結(jié)構(gòu)確實會對增強后語音的識別率產(chǎn)生顯著的影響。與有監(jiān)督方法(不含判別器的對抗訓(xùn)練)相比,基于卷積神經(jīng)網(wǎng)絡(luò)CNN和循環(huán)神經(jīng)網(wǎng)絡(luò)LSTM的判別器并不能提升增強后語音的識別率,而基于DNN的判別器則在真實錄制的測試集et_real上帶來了1.78%的詞錯誤率下降。

      3.3 聽覺掩蔽生成對抗網(wǎng)絡(luò)對增強后特征的影響

      為探究聽覺掩蔽生成對抗網(wǎng)絡(luò)GANAM是如何影響增強后的語音特征,使其識別率得以提升,本節(jié)將不同模型增強后的聲學(xué)特征進行可視化,如圖2所示。可以看出,有監(jiān)督增強方法只是在盡可能地最小化增強后語音和目標(biāo)語音特征之間的差異,而并不關(guān)心增強后語音是否滿足純凈語音的概率分布,從而使真實含噪語音增強后的特征依然可能含有較多的噪聲干擾。而所提出的GANAM增強方法則通過對抗訓(xùn)練的方式,來對純凈語音的概率分布進行建模,從而盡可能地去除增強后語音特征中的噪聲干擾,得到更為干凈的語音特征,進而提升增強后語音的識別率。

      4 結(jié)束語

      本文在基于聲學(xué)掩蔽有監(jiān)督增強方法的基礎(chǔ)上,通過引入額外的判別器,來對純凈語音的概率分布進行建模,而后利用學(xué)習(xí)到的概率分布指導(dǎo)增強模型的訓(xùn)練,從而使其增強后的語音特征滿足目標(biāo)語音的概率分布,同時也更具判別性。實驗結(jié)果表明,將所提出的聲學(xué)掩蔽生成對抗網(wǎng)絡(luò)增強方法GANAM作為語音識別系統(tǒng)的前端處理,能夠降低魯棒ASR系統(tǒng)在真實含噪語音上的詞錯誤率,進一步提高其噪聲魯棒性。

      參考文獻

      [1] HAN Kun, HE Yanzhang, BAGCHI D, et al.Deep neural network based spectral feature mapping for robust speech recognition[C]// 16th Annual Conference of the International Speech Communication Association(Interspeech). Dresden,Germany:isca-speech organization,2015:2484-2488.

      [2] WENINGER F, ERDOGAN H, WATANABE S, et al. Speech enhancement with LSTM recurrent neural networks and its application to noise-robust ASR[M]//VINCENT E, YEREDOR A, KOLDOVSKY[DD(-*2]′[DD)] Z,et al. ?Latent variable analysis and signal separation. LVA/ICA 2015. Lecture Notes in Computer Science. Cham:Springer, 2015,9237:91-99.

      [3] WANG Zhongqiu, WANG Deliang. A joint training framework for robust automatic speech recognition[J].IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2016, 24(4):796-806.

      [4] LIU Bin, NIE Shuai, ZHANG Yaping, et al. Boosting noise robustness of acoustic model via deep adversarial training[C]// 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP).Calgary, AB, Canada:IEEE, 2018:3674-3679.

      [5] GOODFELLOW I, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]// NIPS. Montreal, QC, Canada: NIPS Foundation, 2014:2672-2680.

      [6] PANDEY A, WANG Deliang. On adversarial training and loss functions for speech enhancement[C]// 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP).Calgary, AB, Canada:IEEE, 2018:5414-5418.

      [7] WANG Ke, ZHANG Junbo, SUN Sining, et al. Investigating generative adversarial networks based speech dereverberation for robust speech recognition[C]//Interspeech. Hyderabad, India:dblp, 2018:1581-1585.

      [8] DONAHUE C, LI Bo, PRABHAVALKAR R. Exploring speech enhancement with generative adversarial networks for robust speech recognition[C]// ICASSP. Calgary, AB, Canada:IEEE, 2018:5024-5028.

      [9] WANG Yuxuan, NARAYANAN A, WANG Deliang. On training targets for supervised speech separation[J].IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2014, 22(12):1849-1858.

      [10]BARKER J, MARXER R, VINCENT E, et al. The third ‘chime speech separation and recognition challenge: Dataset, task and baselines[C]// 2015 IEEE Workshop on Automatic Speech Recognition and Understanding. Scottsdale, AZ, USA:IEEE, 2015:504-511.

      [11]LI Feipeng, NIDADAVOLU P, HERMANSKY H. A long, deep and wide artificial neural net for robust speech recognition in unknown noise[C]// Interspeech. Singapore:dblp, 2014:1-6.

      猜你喜歡
      生成對抗網(wǎng)絡(luò)
      用于知識表示學(xué)習(xí)的對抗式負樣本生成
      基于衰減式生成對抗網(wǎng)絡(luò)的單幅圖像陰影去除
      高噪聲環(huán)境下的生成對抗網(wǎng)絡(luò)人機語音增強技術(shù)
      移動通信(2019年8期)2019-10-18 09:43:57
      基于生成對抗網(wǎng)絡(luò)的圖像盲去運動模糊算法
      基于生成對抗網(wǎng)絡(luò)的地面新增建筑檢測
      基于注意力機制的行人軌跡預(yù)測生成模型
      基于GAN的圖像超分辨率方法研究
      基于生成對抗網(wǎng)絡(luò)的深度學(xué)習(xí)能耗預(yù)測算法
      基于深度卷積生成對抗網(wǎng)絡(luò)模型的超分辨數(shù)據(jù)重建
      基于生成對抗網(wǎng)絡(luò)的圖片風(fēng)格遷移
      丹东市| 晋州市| 屏东县| 卓尼县| 惠安县| 通许县| 广德县| 昌都县| 美姑县| 黑龙江省| 淅川县| 含山县| 墨竹工卡县| 龙口市| 荣昌县| 榆中县| 运城市| 闽侯县| 五指山市| 神木县| 长治县| 义乌市| 濮阳市| 民权县| 湾仔区| 丰原市| 温宿县| 北川| 和田市| 昌都县| 图们市| 响水县| 大丰市| 丹东市| 大厂| 巴林右旗| 吴江市| 恭城| 藁城市| 道真| 邵武市|