• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    用于短文本情感分類的多頭注意力記憶網絡

    2021-12-07 10:08:50李曉瑜崔建劉齊
    計算機應用 2021年11期
    關鍵詞:注意力語義向量

    鄧 鈺,李曉瑜*,崔建,劉齊

    (1.電子科技大學信息與軟件工程學院,成都 610054;2.解放軍93246部隊,長春 130000;3.解放軍95486部隊,成都 610041)

    0 引言

    隨著互聯網技術的飛速發(fā)展,社交網絡和電子商務平臺已變成最重要的公共信息集散地,利用其中龐大的數據對人們的情感和觀點進行分析,有著重要的社會價值和科研價值。情感分析是人們對產品、服務、組織、個人、問題、事件、話題及其屬性的觀點、情緒、評價和態(tài)度的計算研究[1],屬于文本分類的子任務。不同于普通文本分類,情感分析要求更高層的語義抽取,技術上更具挑戰(zhàn)性。如何利用自然語言處理(Natural Language Processing,NLP)技術對主觀意見文本進行情感分析正被越來越多的研究人員所關注[2]。

    早期情感分析任務大多采用傳統(tǒng)機器學習方法處理,依賴特征工程,需要花費大量時間對背景知識進行收集、整理和抽象。深度學習方法出現后,迅速取代了機器學習成為NLP領域的主流。作為近年來人工智能領域發(fā)展最快的研究方向,深度學習模型在各種NLP 任務中被廣泛應用。相較于傳統(tǒng)的機器學習算法,深度學習不依賴人工構建特征,具有特征的自學習能力,非常適合非結構化文本數據的抽象、高維、復雜等特點。目前,很多研究人員將長短期記憶(Long Short-Term Memory,LSTM)網絡與卷積神經網絡(Convolutional Neural Network,CNN)等深度學習模型用于解決文本情感分類問題[3-5],并取得了不錯的效果。在結合注意力機制后,深度學習模型在NLP 任務中可以抽象更高層次的特征信息、獲得更有效的語義表示。基于注意力的深度學習模型不僅有效而且還具有很好的可解釋性[6]。

    注意力(attention)機制最早由圖像識別領域提出,可以讓模型有效關注局部特定信息,挖掘更深的特征信息[7]。隨后,在自然語言處理領域,注意力機制被驗證使得特征提取更加高效。文獻[8]中首次將注意力機制與循環(huán)神經網絡(Recurrent Neural Network,RNN)結合,在編碼-解碼模型上計算輸入序列與輸出序列的對齊概率矩陣,有效解決機器翻譯問題。文獻[9]中提出了在卷積神經網絡中使用注意力機制的有效方法,以完成機器閱讀理解任務。目前,很多研究人員將注意力機制應用于情感分類領域,取得了很好的效果。文獻[10]中在LSTM 網絡將目標內容與序列相應中間狀態(tài)進行拼接,并計算注意力加權輸出,有效解決了上下文對不同目標的情感極性問題。文獻[11]中基于LSTM 網絡提出了兩種注意力實現方法:一種方法是將目標詞向量拼接到用于注意力權重計算的句子隱藏表示中,另一種方法是將目標詞向量與輸入詞向量拼接。文獻[12]中提出了一種基于注意力機制的交互式注意力網絡模型,利用與目標相關的注意力從上下文中獲取重要信息,同時利用上下文交互信息來監(jiān)督目標的建模,以提高情感極性預測精度。

    為進一步提高情感分類任務的分類精度,研究人員將注意力機制與記憶網絡(Memory Network)結構結合,并取得了很好的效果。文獻[13]中借鑒深度記憶網絡,提出了多跳注意力模型,計算基于內容和位置的注意力值,利用外部存儲單元保存上下文對于目標的權值信息,并通過疊加計算獲取更深層次的情感語義信息。文獻[14]中利用雙向LSTM 網絡構建記憶力單元,以對多跳注意力網絡進行改進,同時對外部記憶內容進行位置加權,在捕獲情感特征的同時消除噪聲干擾。文獻[15]中提出了一種結合多跳注意力機制和卷積神經網絡的深度模型,利用記憶網絡中多個相同的計算模塊,獲取更深層次的情感特征信息。

    為了使注意力機制對NLP 任務的性能改進更加有效,并且讓模型的可解釋性更強,創(chuàng)新的結構被不斷提出。文獻[16]中提出了一種Transformer 模型框架,用來代替卷積神經網絡和循環(huán)神經網絡體系結構,并在機器翻譯任務中取得了最好的結果。Transformer 結構中首次提出了自注意力機制和多頭注意力,它完全使用attention 機制來建模輸入和輸出的全局依賴關系,以生成與語義更相關的文本表示,允許模型在不同的表示子空間中學習相關信息。文獻[17]中分析了自注意力網絡的模型特點,提出了多頭注意力與自注意力結合的兩種方式,并探討了其用于情感分析的有效性。文獻[18]中基于自注意力網絡,提出了一種靈活、可解釋的文本分類模型,可以有效提高情感分類精度。文獻[19]中將多頭自注意力運用于面向目標的情感分析,提出了一種注意力編碼網絡,可以用來獲取每個目標詞與上下文之間的交互關系和語義信息。

    在情感分類領域,已經有許多研究工作取得了很好的效果,但也存在一些問題。盡管多頭注意力機制可以有效挖掘上下文關聯信息,但很難進一步獲取更深層次的內聯關系;另一方面,多跳結構中的記憶力單元只包含原始輸入,利用這種不加處理的淺層特征數據,很難通過模塊的線性疊加對短文本中的情感語義結構進行有效的編碼。為解決上述問題,本文提出了一種短文本情感分類模型,利用n元語法(n-gram)特征信息和有序神經元長短時記憶(Ordered Neurons LSTM,ON-LSTM)網絡對原始輸入進行加工,以獲得更豐富的語義表示。同時,利用改進的多頭注意力機制和多跳記憶力網絡對短文本上下文內部關聯進行有效建模,充分挖掘高層情感語義特征。最后,在電影評論集(Movie Review dataset,MR)、斯坦福情感樹(Stanford Sentiment Treebank,SST)-1 和SST-2 三個公開用戶評論數據集上對模型進行評估,實驗結果驗證了所提MAMN 在情感分類任務中的有效性,其分類性能優(yōu)于實驗任務中其他對比的相關模型。

    1 相關工作

    文本對于情感的表達通常并不直接,觀點和態(tài)度往往隱含在句法結構和上下文語境中,所以短文本情感分類的關鍵在于對深層次情感語義特征的充分挖掘和對上下文內在關系的抽象。多頭注意力機制和ON-LSTM 網絡可以挖掘深層語義特征,對上下文內在結構信息進行有效抽取,而本文也將利用其特性優(yōu)化模型結構,以提升情感分類精度。

    1.1 多頭注意力

    多頭注意力機制可以簡單有效地對上下文依賴關系進行抽象,并捕獲句法和語義特征。具體來說,輸入矩陣Q、K、V對應注意力(attention)計算的三個重要組件,分別為query、key 和value,其中,,其中m、n、dk、dv分別表示矩陣的不同維度。一般框架下的標準attention計算過程如下:

    其中fatt表示概率對齊函數,本文采用Scaled Dot Product:

    在多頭注意力機制中,輸入特征通過不同的權值矩陣被線性映射到不同的信息子空間,并在每個子空間完成相同的注意力計算,以對文本潛在的結構和語義進行充分學習,其中第i頭注意力計算過程如下:

    自注意力是在序列內部進行attention 計算,尋找序列內部的聯系。假設輸入序列是X,其多頭自注意力計算過程如下:

    1.2 ON-LSTM網絡

    有序神經元長短時記憶(ON-LSTM)網絡,由傳統(tǒng)的LSTM網絡演化而來。傳統(tǒng)的LSTM 網絡可以有效解決文本處理中因上下文長距離依賴而產生的梯度消失和梯度爆炸問題。在此基礎上,ON-LSTM 網絡通過有序神經元的設計,將樹狀的層級結構整合到LSTM 中,使其能自動學習到文本的層級結構信息,提高模型的語義抽象能力。ON-LSTM 中通過主遺忘門(master forget gate)和主輸入門(master input gate)對神經元進行排序,利用不同的位置順序來判斷信息層級的高低。在這種層級結構中信息被分組進行更新,其中高層信息能夠保留相當長的距離,而低層信息可能隨著每一步輸入而被更改。

    ON-LSTM網絡的模型結構如圖1所示,它改進了LSTM中ct的更新機制,其主要更新過程如式(6)~(14)所示:

    圖1 ON-LSTM網絡的模型結構Fig.1 Model structure of ON-LSTM network

    其中:xt和ht-1分別表示當前輸入信息和歷史隱層信息;σ表示sigmoid 函數;tanh 表示雙曲正切函數;“°”表示向量對應逐位相乘運算。而cs函數定義如下:

    2 多頭注意力記憶網絡模型

    為解決短文本情感分類問題,本文在以上研究的基礎上提出了一種多頭注意力記憶網絡(Multi-head Attention Memory Network,MAMN)模型,用于短文本情感分類。該模型主要按照以下兩個方面進行構建:

    1)利用n-gram 特征和ON-LSTM 網絡對多頭自注意力機制進行改進,以對文本上下文內聯關系進行更深層次的提取,使模型可以獲得更豐富的文本特征信息;

    2)利用多頭注意力機制對多跳記憶網絡結構進行優(yōu)化,以對短文本上下文內部語義結構進行有效建模,充分挖掘高層情感語義特征。

    本文模型總體結構如圖2 所示,包括詞嵌入層、特征抽取層、注意力編碼層、多跳記憶結構,接下來將對該模型的實現思路及細節(jié)進行描述。

    圖2 MAMN模型總體結構Fig.2 Overall structure of MAMN model

    2.1 詞嵌入層

    為便于處理,非結構化的文本首先被轉換成結構化的低維數值向量。在典型的NLP 任務預處理階段,文本中的詞匯首先使用word2vec、Glove 等算法進行預訓練,轉換為詞向量(word embedding)。在本層中,一個包含n個詞的上下文序列可以轉換為S={v1,v2,…,vn},其中vi∈Rd,是第i個詞的d維向量表示,S∈Rn×d代表句子的輸入詞向量序列。

    2.2 特征提取層

    本層主要用于對輸入特征作進一步抽象和加工。在自然語言處理任務中,通常使用由語料產生的詞庫作為模型輸入,然而這種淺層的直觀特征對于隱含關系的表達并不充分,而簡單依靠增加輸入特征的數目,并不能有效突破模型的極限預測性能。引入n-gram 詞組特征,將輸入從淺層特征轉換為深層特征,使模型擁有更多的語義信息,以挖掘上下文更多的深層交互特性。通過卷積神經網絡生成n-gram 特征,可以在有效處理文本詞匯局部相關性的同時,避免n-gram 中對于特征權重的大量概率統(tǒng)計計算,相較于循環(huán)神經網絡具有更小的訓練開銷,因此卷積神經網絡也被大量用于文本處理問題。

    該層將多個卷積運算應用于句子的輸入詞向量矩陣(context embedding),以提取相應的n-gram 特征,產生新的特征向量序列G={g1,g2,…,gn-k+1},其中,k為一維卷積窗口大小,dp為卷積核個數。

    隨后,將ON-LSTM 網絡應用于得到的n-gram 特征序列,以對短文本中各詞組的依賴關系進行建模,并挖掘其隱含語義,同時獲取短文本上下文內部層級結構信息。最后采用ON-LSTM網絡得到的隱藏狀態(tài)H={h1,h2,…,hn-k+1}作為原始文本的高層特征表示,其中,dq為網絡隱藏層維度。

    2.3 注意力編碼層

    標準的多頭注意力模型中,以上下文序列中的單個詞作為基本處理單元,這使得句子隱含的語義和結構信息被忽視。實際應用中,單純依靠增加頭部數量,也很難提高多頭注意力模型的性能,表明其在多維信息空間中的提取和學習能力并沒有得到充分發(fā)揮。

    受Hao 等[20]研究的啟發(fā),本文將n-gram 特征與多頭自注意力模型結合,提出了深度自注意力機制,引入相鄰詞匯組合形成的語義特征,使多頭注意力機制能在多維特征空間中學習更多隱藏信息,以更好地預測目標情感極性。

    在深度自注意力中,首先對輸入特征序列進行抽象轉換,將得到的高層表示加入模型以對標準自注意力機制進行擴展。本文采用ON?LSTM 網絡對輸入的n-gram 特征序列G作進一步抽象,深度自注意力具體計算過程如下:

    2.4 多跳記憶結構

    記憶力網絡最早由Facebook AI在2015年提出[21],其研究人員將LSTM 網絡中類似的內部標量記憶單元擴展成為外部向量記憶模塊,以解決NLP任務中涉及的復雜語義計算問題。MAMN模型將多頭注意力機制和外部記憶單元結合構造獨立計算模塊(hop),并將計算模塊疊加,形成多跳(hops)深度記憶網絡。這種多跳注意力遞歸深度記憶結構,相較于普通鏈式深度網絡可以在更短路徑上獲得長距離依賴,并且相較于淺層模型可以學習到更高級別的抽象數據表示[22-23]。由于每個計算層的運算都有外部原始記憶單元內容參與,可以使模型一直關注歷史信息,通過足夠跳數的計算層堆疊轉換,可以使模型學習到文本內部蘊含更加復雜、抽象的非線性特征。因為所有的輸入n-gram特征借由注意力的遞歸計算過程充分交互,也使得文本特征間的遠程依賴關系得到更充分的建模。

    模型在運行多跳結構之前,先將注意力編碼層的輸出進行線性變化(Linear),生成歷史信息記憶

    由于每一個計算層作為獨立模塊,擁有相同的處理流程,用第i個計算層來說明計算過程:

    2.5 預測輸出層

    本層作為模型的最后一層,負責將多跳記憶結構的輸出進行再加工,最后通過softmax函數來計算各類的輸出概率。

    最后,為了可以充分對短文本上下文序列蘊含的句子結構以及語義信息進行建模,MAMN 模型采用了多種粒度的詞匯組合(2-gram,3-gram 和4-gram),以擴展多頭注意力信息子空間規(guī)模,豐富語義表達。整個模型的數據處理架構如圖3所示。

    圖3 MAMN模型的數據處理架構Fig.3 Data processing architecture of MAMN model

    2.6 預測輸出層

    由于在情感分類任務中,情感極性通常被定為“正面”“負面”和“中性”等,屬于典型的文本多分類任務,于是MAMN 的損失函數選擇交叉熵,并通過對其最小化來優(yōu)化模型。交叉熵損失函數如式(27)所示:

    其中:D為訓練數據集大?。籆為類別數;P(i,j)是模型預測樣本i為類別j的概率;Q(i,j)為1或0,表示模型分類結果是否正確;λ‖θ‖2為正則項。

    3 實驗與結果分析

    3.1 實驗數據

    本文在兩類基準數據集上開展實驗,即電影評論集(MR)[22]和斯坦福情感樹(SST)[23]數據集。MR 和SST 都被廣泛應用于短文本情感分類任務模型的性能評估,本文在這兩個數據集上將MAMN 與同類任務模型進行性能對比,數據集具體細節(jié)統(tǒng)計如表1所示。

    表1 實驗數據統(tǒng)計Tab.1 Experimental data statistics

    1)MR:該數據集數據抓取自專業(yè)英文電影評論網站,包含“積極”和“消極”兩類情感傾向的電影評論短文本,各5331條。測試一般采用隨機分割,十折交叉檢驗。

    2)SST-1:該數據集是對MR 的進一步擴展,是一個具有完全標記的解析樹的語料庫。它擁有11855 條電影評論,但是數據按照“非常消極”“消極”“中性”“積極”和“非常積極”分為了五類。

    3)SST-2:該數據集為SST 的二進制標記版本。其中,“中性”評論被刪除,“非常積極”和“積極”的評論被標記為“積極”,“非常消極”和“消極”的評論被標記為“消極”。它總共包含9613條評論,其中1821條用于模型測試。

    3.2 實驗設置

    詞嵌入層使用Glove預訓練模型,詞向量在訓練過程中固定不變,維度設置為300,學習率設置為1E-3,模型最后運行于NVIDIA RTX 2080Ti GPU,采用分類精度(accuracy)值來對其性能進行評價,其他通用超參數設置如表2所示。

    表2 模型超參數設置Tab.2 Hyperparameter setting of model

    3.3 模型性能對比

    為了評價MAMN 模型在三個數據集上的性能,引入多種典型模型進行實驗對比,其中包括一些性能基線方法和最新研究成果。以下詳細介紹了所有比較模型:

    1)RAE(Recursive AutoEncoder)[24]:該模型基于遞歸自動編碼器構造,可對復雜構詞短語的空間向量表示進行學習,以對句子情感極性標簽的所屬概率進行預測。

    2)矩陣-向量RNN(Matrix-Vector RNN,MV-RNN)[25]:該模型是一種遞歸神經網絡,可以學習任意句法類型和長度的短語,獲得句子的組合向量表示。模型為解析樹中的每一個節(jié)點分配一個向量和一個矩陣,以抽象相鄰詞語的組合情感語義。

    3)遞歸神經張量網絡(Recursive Neural Tensor Network,RNTN)[23]:該模型是一個基于情感語義解析樹結構的遞歸深層神經網絡,利用張量特征對解析樹上不同維度的子節(jié)點之間的相關性進行建模,抽象組合情感語義。

    4)CNN-non-static[26]:該模型將一個預訓練的word2vec 詞向量模型與卷積神經網絡相結合,并在每個任務的訓練過程中對詞向量進行微調。

    5)CNN-multichannel[26]:該模型同時采用兩個詞向量集,每一組向量都被視為一個“通道”,并將每個濾波器同時對兩個通道進行卷積操作。模型能動態(tài)微調一組向量,同時保持另一組向量為靜態(tài)。

    6)RNN-Capsule[27]:該模型將RNN 與膠囊網絡相結合,并在膠囊網絡中采用注意力機制,利用概率模塊對輸出膠囊進行重構以抽象更高層次的情感語義表達。

    7)Capsule-CNN[28]:該模型將卷積神經網絡和膠囊網絡相結合,實現了一種多級膠囊的通用文本分類處理架構,并針對特定的文本分類任務對膠囊網絡中的動態(tài)路由算法進行了優(yōu)化。

    8)BiLSTM-CRF(Bi-directional LSTM with Conditional Random Field)[29]:該模型將序列結構和卷積神經網絡結合,提出了一種用于文本情感分類的流水處理框架。首先將文本按照所包含的情感目標數分為不同類型,然后采用一維卷積操作分別對每類文本進行情感特征檢測。

    本文用分類精度作為評測指標,各模型分類實驗結果如表3 所示??梢钥闯?,MAMN 模型在三個基準數據集上都有良好表現,特別是在MR數據集上顯著提高了分類性能。

    表3 不同模型在三個數據集上的分類精度Tab.3 Classification accuracies of different models on three datasets

    在基線模型中,RAE、MV-RNN 和RNTN 都采用了簡單的深度學習算法,整體分類性能偏低。其中:RAE模型只簡單使用了空間向量特征和自編碼器,分類精度最低;MV-RNN 在空間向量的基礎上,利用相鄰詞匯的組合特征對情感分類進行改善;而RNTN 通過融入情感語義解析特征,進一步改善性能,尤其在SST兩個數據集上性能提高明顯。

    從實驗結果上看,采用循環(huán)神經網絡和卷積神經網絡結構的復雜深度學習模型在所有數據集上的表現都顯著且持續(xù)地優(yōu)于簡單的深度學習算法。除了模型結構復雜度增加,預訓練詞向量的使用也是性能改進的關鍵原因。其中,CNNnon-static 和CNN-multichannel 都采用了CNN 結構,但在不同數據集上互有優(yōu)劣,可見單純靠增加不同詞向量集并不能有效改善模型性能,而對詞向量進行微調可以充分挖掘潛在語義特征;RNN-Capsule 和Capsule-CNN 都采用了膠囊網絡與普通深度模型相結合的架構,以對高層情感語義特征進行抽象,其中RNN-Capsule 在MR 和SST-1 上都有優(yōu)異表現,說明注意力機制的引入,可以讓模型有更好的內部關聯挖掘的能力,能在二分類和多分類任務中更有優(yōu)勢;BiLSTM-CRF 模型利用LSTM 和CNN 相結合,設計了多級流水結構將模型的深度繼續(xù)加深,以提高特征的表征能力,并在SST-2 數據集上取得參考模型的最好分值。

    MAMN 模型在MR、SST-1 和SST-2 這三個數據集上相較對比模型的最好分值分別提高了0.4個百分點、0.3個百分點和0.4 個百分點??梢姸囝^注意力機制的采用、記憶模塊的參與以及多跳結構對模型深度的加深,都對分類性能提升起到了重要作用。所提模型在二分類和多分類任務中都表現出分類的有效性和性能的穩(wěn)定性。

    3.4 模型結構性能分析

    為進一步驗證MAMN 模型的多跳記憶結構對性能改善的有效性,同時考察模塊跳數設置對分類精度的影響程度,在三個數據集上對跳數取不同值進行對比實驗,以評價各個數據集上的最優(yōu)跳數設置。在實驗中,將跳數預設范圍定為1~7,對應著記憶結構模塊不斷增加。另外,整個實驗過程模型的超參數集合均保持不變,實驗結果如圖4所示。

    圖4 三個數據集上MAMN模型在不同跳數下的分類性能Fig.4 Classification performance of MAMN model with different hops on three datasets

    從實驗結果的數據可以看出,其中,MR 數據集最優(yōu)跳數取值為4,對應分類精度為0.842;SST-1 數據集最優(yōu)跳數取值為3,對應分類精度為0.491;SST-2數據集最優(yōu)跳數取值為5,對應分類精度為0.887。從實驗中很容易發(fā)現,模型在三個數據集上都表現出同樣的規(guī)律,即隨著跳數取值的增加,分類精度不斷升高,并在堆疊特定數量的記憶模塊時達到最優(yōu),隨后性能明顯下降。這表明,多跳結構的設計可以使模型深度得到擴展,讓情感語義信息的提取層次更高、更加有效,從而直接改善模型的分類性能。并且,記憶結構的設計也極大增強了模型的擴展性,因為模塊具有相同的代碼和接口,使得工程實施變得簡單。需要注意的是,記憶模塊的過度疊加,也會給模型帶來過擬合的風險,導致性能下降。

    4 結語

    針對短文本情感分類問題,本文提出了一種多頭注意力記憶網絡模型。該模型一方面利用卷積神經網絡從輸入序列中提取n-gram 信息,結合改進的多頭自注意力機制對上下文內部關聯進行有效挖掘;另一方面引入多跳記憶結構,對模型深度進一步拓展,同時通過對記憶模塊內容的遞歸操作,也使得模型可以挖掘更高層次的上下文情感語義關系。最后,在MR、SST-1 和SST-2 這三個數據集上對模型進行評估,實驗結果表明MAMN 與流行的基線模型和最新的任務相關模型相比,分類性能都顯著優(yōu)于其他模型,充分驗證了其在短文本情感分類任務中的有效性。另外,結構性能分析實驗也驗證了多跳結構對于模型分類性能提升的重要作用。

    在接下來,我們希望將更加靈活多樣的注意力計算方法用于文本內部關聯語義特征提取,可以為記憶力單元生成更復雜、抽象層次更高的數據內容,讓語義信息建模更加高效合理。另外,多跳記憶模塊中可以加入其他輔助信息,如考慮將位置信息、詞性和先驗知識作為補充,針對特定任務優(yōu)化模型。

    猜你喜歡
    注意力語義向量
    向量的分解
    讓注意力“飛”回來
    聚焦“向量與三角”創(chuàng)新題
    語言與語義
    “揚眼”APP:讓注意力“變現”
    傳媒評論(2017年3期)2017-06-13 09:18:10
    A Beautiful Way Of Looking At Things
    “上”與“下”語義的不對稱性及其認知闡釋
    現代語文(2016年21期)2016-05-25 13:13:44
    向量垂直在解析幾何中的應用
    向量五種“變身” 玩轉圓錐曲線
    認知范疇模糊與語義模糊
    淳化县| 根河市| 郴州市| 泰兴市| 乐至县| 泰和县| 和政县| 榆中县| 开封县| 会泽县| 锡林浩特市| 峨山| 修武县| 白玉县| 开化县| 攀枝花市| 平果县| 肃南| 石台县| 台州市| 西盟| 宝丰县| 屏边| 宁南县| 上虞市| 舒兰市| 苍南县| 永城市| 固始县| 抚顺市| 梁平县| 娄底市| 周宁县| 彩票| 长岛县| 南安市| 宝兴县| 湟中县| 宜城市| 三穗县| 西乌|