• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合表字段的NL2SQL多任務學習方法

    2024-11-04 00:00:00劉洋廖薇徐震
    計算機應用研究 2024年9期

    摘 要:現(xiàn)有的自然語言轉(zhuǎn)SQL(NL2SQL)方法沒有充分利用數(shù)據(jù)表的字段信息,而這對于問題的語義理解和SQL語句的邏輯生成有著重要作用。為了提高SQL生成的整體準確性,提出一種融合數(shù)據(jù)表字段的NL2SQL方法(FC-SQL)。首先,利用BERT預訓練模型對問題和數(shù)據(jù)庫表字段進行合并編碼表示;其次,采用多任務學習的方式,結合并聯(lián)和級聯(lián)的方式構建多任務網(wǎng)絡,以預測不同子任務;最后,針對條件值提取子任務,通過融合字段信息計算問題中詞與表字段的相似度,并以相似度值作為權重來計算每個詞語作為條件值的概率,從而提高條件值預測的準確率。在TableQA數(shù)據(jù)集上的邏輯形式準確率與SQL執(zhí)行準確率分別達到88.23%和91.65%。設計消融實驗驗證表字段信息對于模型的影響,實驗結果表明融入表字段后,條件值抽取子任務效果有所提升,進而改善了NL2SQL任務的整體準確率,相較于對比模型有更好的SQL生成效果。

    關鍵詞:多任務學習; 自然語言轉(zhuǎn)SQL; 自然語言處理; 表字段

    中圖分類號:TP391 文獻標志碼:A

    文章編號:1001-3695(2024)09-033-2800-05

    doi:10.19734/j.issn.1001-3695.2023.12.0629

    Multi-task learning method for NL2SQL with fused table columns

    Liu Yanga, Liao Weia, Xu Zhenb

    (a.School of Electronic & Electrical Engineering, b.School of Mechanical & Automotive Engineering, Shanghai University of Engineering Science, Shanghai 201620, China)

    Abstract:Existing NL2SQL approaches do not fully utilize the information of data table columns, which plays an important role in the semantic understanding of the problem and the logical generation of SQL statements. This paper proposed an NL2SQL method that fused data table columns(FC-SQL) to improve the overall accuracy of SQL generation. Firstly, this method utilized BERT to merge the problem and database table columns for encoded representations. Secondly, it used multi-task learning approach to construct a multi-task network by combining parallel and cascade to predict different sub-tasks. Finally, for the conditional value extraction sub-task, this method computed the similarity between the words in the problem and the table columns by fusing the information of the columns, and it used the similarity value as a weight to compute each word as the conditional value probability of each word as a conditional value, thus improving the accuracy of conditional value prediction. The logical form accuracy and SQL execution accuracy on the TableQA dataset reach 88.23% and 91.65%, respectively. This paper designed ablation experiments to verify the effect of table columns information on the model. The experimental results show that the incorporation of table columns improves the effectiveness of the conditional value extraction sub-task, which in turn improves the overall accuracy of the NL2SQL task and provides better SQL generation compared to the comparison model.

    Key words:multi-task learning; NL2SQL; natural language processing; table columns

    數(shù)據(jù)的規(guī)模和多樣性持續(xù)增長,使得數(shù)據(jù)分析和挖掘在各領域變得日益重要。例如,金融、醫(yī)療、零售和能源等行業(yè)均依賴于高效的數(shù)據(jù)查詢來進行關鍵決策。但傳統(tǒng)的數(shù)據(jù)查詢方式主要依賴于結構化查詢語言,給非技術背景的用戶帶來了較大的學習成本。為了縮短技術與非技術用戶之間的差距,自然語言轉(zhuǎn)SQL(NL2SQL)技術應運而生,不僅可以提高查詢的效率,還能促進跨學科和跨行業(yè)的合作。

    盡管NL2SQL技術在最近幾年取得了許多進步[1~3],但在實際應用中仍面臨諸多挑戰(zhàn),如跨領域知識的獲取、自然語言的模糊語義解析,以及處理復雜嵌套查詢等。針對這些難點,一些基于深度學習的端到端方法被廣泛應用,例如序列到序列模型(Seq2seq)[4]和樹狀網(wǎng)絡模型[5]等。這些方法可以直接學習輸入查詢與輸出SQL之間的對應關系,取得了不錯的效果。

    當前,研究人員正在探尋更加高效和準確的NL2SQL方法。比如借助基于BERT[6]的預訓練模型,通過遷移學習等方法使得模型進一步提高其泛化能力[7]。由于這些技術的出現(xiàn),未來的NL2SQL系統(tǒng)可能不僅能夠解決復雜的查詢問題,還能在數(shù)據(jù)安全等方面提供更強大的支持,這將進一步推動其在商業(yè)和科研領域的廣泛應用。

    1 相關工作

    NL2SQL目前作為自然語言處理的焦點子領域,其目的是將輸入的查詢問題轉(zhuǎn)換為數(shù)據(jù)庫可以解析和執(zhí)行的SQL語句。這個轉(zhuǎn)換過程對于確保高效的數(shù)據(jù)庫交互尤為關鍵,NL2SQL示例如圖1所示。

    在該領域的早期研究中,主流方法主要采用流水線策略。Yih等人[8]提出了一種基于流水線的語義解析方法,將自然語言問題轉(zhuǎn)換為與知識庫中的實體和關系相對應的查詢圖。這種策略在一定程度上簡化了問題,但是模塊之間的依賴性可能導致錯誤的連鎖反應。使用端到端的神經(jīng)網(wǎng)絡模型可以捕捉語義解析任務的全局特征,以克服流水線方法的局限性[9]。端到端方法也面臨數(shù)據(jù)需求量大、解釋性差等問題[10],結合兩種方法的優(yōu)點進行模型設計仍然是NL2SQL研究的重要方向。

    隨著深度學習在自然語言處理領域的廣泛應用,NL2SQL技術取得了進步。基于深度學習的NL2SQL模型能夠處理不同數(shù)據(jù)庫表格和復雜跨領域的自然語言查詢。比如利用預訓練模型來幫助提高模型的泛化能力和準確率[11]。Xu等人[12]提出的SQLNet是在WikiSQL數(shù)據(jù)集[13]上一個比較知名的基準模型,是最早使用模板填充方法的模型。

    為了解決數(shù)據(jù)表信息沒有被利用的問題,Yu等人[14]提出了TypeSQL模型,利用數(shù)據(jù)庫中的類型信息來更好地理解自然語言問句中的實體和數(shù)字。Hwang等人[15]使用SQLova模型借助預訓練模型,提高了序列生成的效果。同樣地,He等人[16]提出的X-SQL模型也使用了預訓練模型,不同的是使用了MT-DNN(multi-task deep neural networks)[17]模型代替BERT,并利用上下文進行增強結構化表示。Lyu等人[18]提出的HydraNet模型將NL2SQL問題分解為列級別的排序和解碼,然后用簡單的規(guī)則將列級別的輸出組合成一個 SQL 查詢。

    多任務學習可以共享參數(shù)和表示,讓模型學習到更豐富和更通用的語言知識。McCann等人[19]使用了一種多任務問答網(wǎng)絡結構,通過使用多種注意力機制來共同學習多任務表示。本文在多任務學習的基礎上,通過在BERT模型的輸入序列中融合表字段,提出FC-SQL方法,使得模型能更好地理解數(shù)據(jù)庫結構信息,并利用表字段來提高子任務的預測效果。

    2 研究方法

    2.1 模板定義

    目前針對單表場景下的NL2SQL任務,模板填充是較為常用的方法[12,15,16]。在單表查詢場景中,基于模板填充的方法能夠較好地完成自然語言到SQL的轉(zhuǎn)換。這種方法依賴預定義的查詢模板及其對應的填充規(guī)則,將SQL生成任務分解為多個子任務,每個子任務對應模板中的一個槽位進行填充。相比其他方法,基于模板的方法可以明確查詢語義結構,且無須考慮多表場景下的內(nèi)連接、外連接等操作,有利于利用預訓練語言模型更好地完成信息提取。因此考慮到基于模板填充方法在單表場景下的優(yōu)勢,本文也采用這種方法來研究單表場景的NL2SQL任務。

    首先需要設計一個查詢模板以捕捉自然語言查詢中的關鍵信息。在模板設計時,應平衡查詢語法的靈活性與數(shù)據(jù)庫結構的復雜性,使模板系統(tǒng)能夠覆蓋不同類型的查詢需求。設計的模板應包含多個槽位,對應SQL查詢語句的組成元素,如表名、字段、操作符等。模板形式可以表示為

    SELECT [列1,列2,…] FROM [表名] WHERE [條件1,條件2,…]

    方括號中的內(nèi)容為槽位,用于填充實際值。與具體數(shù)據(jù)庫結構信息相結合,模板需要預定義各種字段和操作符的候選值,具體的定義方式如圖2所示。$AGG代表聚合函數(shù),取值為{“”,“AVG”,“MAX”,“MIN”,“COUNT”,“SUM”},空字段表示該選擇列無聚合操作;$COL代表被選擇的列和條件中被選擇的列;$OP代表條件運算符,在數(shù)據(jù)集中給出的取值為{“>”,“<”,“=”,“!=”},本文中進行實驗評估時,將精確匹配“=”換為“l(fā)ike”模糊匹配,$VALUE代表條件值任務;$CONN代表條件連接符,取值為{“”,“and”,“or”},空字段表示無條件連接符。

    2.2 編碼層

    使用BERT預訓練模型來學習多任務表示,將自然語言查詢和數(shù)據(jù)庫字段進行合并表征,目的是將問題和數(shù)據(jù)庫信息轉(zhuǎn)換為上下文相關的向量表示,以便后續(xù)的SQL生成層進行語義解析。本文采用了Chinese-BERT-WWM模型,該模型在大規(guī)模的無標注文本上進行了預訓練,可以學習雙向語義表示,并捕捉單詞和句子在不同上下文中的語義信息。

    2.2.1 融合表字段的輸入序列

    為適配BERT模型,對問題和數(shù)據(jù)表字段進行了預處理,構造模型的輸入序列。首先使用WordPiece分詞器對查詢語句進行分詞,WordPiece通過在詞表中選擇最大化語言模型似然概率的兩個子詞,從而生成新的子詞。

    假設由n個子詞組成的句子T=(t1,t2,…,tn),ti表示第i個詞,那么句子T的語言模型似然值可以表示為所有子詞概率的乘積:

    log P(T)=∑ni=1log P(ti)(1)

    假設將相鄰的子詞a和b合并為新的子詞c,然后合并前后句子的似然值變化為

    log P(tc)-(log P(ta)+log P(tb))(2)

    似然值的變化相當于兩個子詞之間的互信息。WordPiece每次選擇互信息值最大的兩個相鄰子詞進行合并,優(yōu)先合并在語料中常見的相鄰子詞對。合并兩個子詞后,將它們替換為一個新的子詞,并更新詞匯表。這個過程迭代進行,直到達到預定詞匯表大小。一旦詞匯表構建完畢,WordPiece就可以用于將新的文本分成子詞序列。分詞完成后,將分詞后的問句和字段按如下特定格式拼接成一個序列:

    [CLS]問題查詢[SEP]字段1 [SEP]字段2 [SEP]…

    例如,對于查詢“北京的人口是多少?”和字段[“城市”,“人口”],經(jīng)過上述預處理后,得到的BERT模型輸入序列為

    [CLS]北京 的 人口 是 多少 ? [SEP]城市[SEP]人口[SEP]

    通過在輸入序列中加入數(shù)據(jù)表字段,BERT能夠在編碼過程中捕獲與數(shù)據(jù)庫結構相關的重要信息。[CLS]和[SEP]等特殊符號用于表征句子邊界。預處理方式遵循BERT標準輸入形式,為模型提供了有效的輸入序列。

    2.2.2 BERT編碼

    將處理好的序列輸入到BERT模型中進行編碼。在編碼過程中,BERT模型會為輸入序列中的每個詞(包括問題和字段)生成一個固定長度的向量表示。假設BERT模型的層數(shù)為L,那么對于輸入序列X=(x1,x2,…,xn),BERT模型的輸出是一個包含L層的列表,記作E(l)=(e(l)1,e(l)2,…,e(l)n)(l=1,2,…,L),其中e(l)i表示第l層的第i個編碼表示。選擇BERT輸出的最后一層,即E(L)=(e(L)1,e(L)2,…,e(L)n)作為最終的編碼結果,并獲得以下三個部分的表示(對應圖5中BERT編碼輸出后的三個部分):

    a)整體語義表示:使用e(L)1即[CLS]對應的向量作為整個輸入序列的語義表示h[CLS]。

    b)詞序列表示:在經(jīng)過BERT編碼后的輸出表示中得到詞序列表示hi,用來描述問題中第i個token。

    c)字段表示:本文首先將每個字段的詞向量通過一個全連接層得到新的表示,然后結合 [CLS] 標記的向量計算注意力權重。對于第i列,其在輸入序列中對應的詞為xi1,xi2,…,xik,這些詞在全連接層后的表示為coli1,coli2,…,colik,[CLS] 標記在全連接層后的表示為clsi。使用colij和 clsi計算每個詞的注意力權重αij。

    αij=exp(colijclsi)∑kj=1 exp(colijclsi)(3)

    然后,第i列的表示通過加權求和得到。

    Ci=∑kj=1 αijcolij(4)

    最后,將Ci與[CLS]對應的向量相加,得到最終的字段表示Ccol。

    Ccol=h[CLS]+Ci(5)

    2.3 多任務網(wǎng)絡構建

    本文將結合并聯(lián)和級聯(lián)來構建多任務網(wǎng)絡。在并聯(lián)結構中,多個任務共享相同的特征表示層并同時進行預測輸出,這意味著不同任務可以共享網(wǎng)絡層的語義特征,如圖3所示。

    圖3 多任務網(wǎng)絡中的并聯(lián)結構

    Fig.3 Parallel structure in a multi-task network

    相比于并聯(lián)結構,級聯(lián)結構中的各個任務則是按順序逐一進行的,在這種結構下,一個任務的輸出會直接成為下一個任務的輸入,如圖4所示。這種結構適用于任務之間有明確的依賴關系,后面的任務可以充分利用前面的任務學習到的特征。

    本文構建的網(wǎng)絡模型結合兩種結構分別預測不同的子任務。具體的SQL組成部分包括選擇列數(shù)、條件個數(shù)、條件連接符、條件值、聚合函數(shù)、條件運算符、選擇列、條件列,如圖5所示,分別對應圖中S-NUM、W-NUM、W-CONN、W-VAL、S-AGG、W-OP、S-COL和W-COL?!啊选北硎军c積運算。從圖5中可以看出,S-NUM、W-NUM、W-CONN、W-VAL、S-COL和W-COL子任務采用并聯(lián)結構,因為這些子任務之間互不影響,共享多任務表示層以同時進行預測;而S-AGG和W-OP的預測則采用級聯(lián)結構,這兩個子任務的輸入利用之前預測出的S-COL和W-COL結果,而不是直接從共享表示層獲得,因為SQL的選擇子句中只會對選擇列進行聚合操作,條件子句中每個條件列都對應著一個條件運算。相比于直接從表示層獲得輸入,利用選擇列和條件列的結果分別預測聚合函數(shù)和條件運算符,這種級聯(lián)結構可以更好地利用不同子任務間的關系,從而生成更符合語義的SQL查詢語句。

    其中,預測選擇列數(shù)和條件個數(shù)有助于模型更好地解析自然語言查詢的結構。預測選擇列數(shù)可幫助更好地生成SQL查詢的SELECT部分,因為自然語言查詢不會明確指出需要的選擇列數(shù)和條件列數(shù);預測條件個數(shù)則用于幫助更好地生成WHERE子句,這兩項預測可以增強模型對查詢結構的理解。

    2.4 子任務預測

    將經(jīng)過BERT編碼后的輸出表示作為后續(xù)子任務預測的輸入序列。

    1)選擇數(shù)目與條件數(shù)目 使用輸入序列第一個詞的嵌入h[CLS]來預測,公式如下:

    3)聚合函數(shù)和條件運算符 根據(jù)預測出的選擇列與條件列,從字段嵌入Ccol中取出對應的特定列Csel和Cw,分別表示預測出的選擇列與條件列,然后通過線性層將選擇列與條件列嵌入映射為聚合函數(shù)和條件運算的概率分布,公式如下:

    2.5 融入表字段的條件值抽取

    在條件值預測部分,首先計算問題和字段的向量相似度。相比歐氏距離等其他度量方式,內(nèi)積運算簡單高效,可實現(xiàn)大規(guī)模的相似度比較,同時在此任務中可以準確評估問題與字段向量在BERT編碼語義空間中的相似性。因此本文選擇內(nèi)積的方式,可以有效地評估問題中的詞與字段在語義級別的匹配程度。公式如下:

    Ssim=hiCTcol(13)

    S=softmax(Ssim)(14)

    其中:hi是問題中第i個token;Ccol是字段表示;Ssim是計算出問題中每個詞和字段之間的相似度。當一個詞的嵌入與某一列的嵌入具有相同的向量方向時,這兩者的語義相似度便被認為較高。

    為進一步提煉這些相似度信息,進行了歸一化處理,形成概率分布S,表示每個詞與各列的關聯(lián)概率。這一概率分布被視為權重,與值標簽的概率進行融合,產(chǎn)生每個詞作為值標簽的加權概率。再將每個詞的嵌入經(jīng)過線性層轉(zhuǎn)換為值標簽的預測,公式如下:

    是線性層的權重參數(shù);Sj表示的是第j個字段與問題詞的相似度;Stags是問題中第i個token被選為條件值的概率。計算值標簽得分時,會對每個詞與所有列(由j索引)的相似度取最大值。總的來說,將經(jīng)過BERT編碼后的問題和字段向量,通過內(nèi)積的方式計算問題中每個詞與每個字段的相似度,計算每個詞作為條件值的概率,以此來完成詞與字段的匹配過程,篩選出候選條件值。

    例如,對于問題“2012年廈門住宅土地成交了多少宗?”,首先用BERT對整個問題進行編碼,得到問題向量X。假設問題中的詞“2012年”對應的詞向量為X1,字段“年份”的詞向量為Y,經(jīng)過X與Y的內(nèi)積運算后,可以發(fā)現(xiàn)X1與Y的相似度比其他詞向量與Y的相似度更高,這意味著“2012年”與“年份”字段在語義上最匹配,便可以將“2012年”作為條件值的候選值。

    3 實驗結果分析

    本文使用的實驗數(shù)據(jù)集是一個中文的文本到SQL的數(shù)據(jù)集TableQA[20],該數(shù)據(jù)集總共包含了約4萬條文本到SQL的訓練樣例和約4千條測試樣例,主要包含金融和通用領域的數(shù)據(jù)。在金融領域方面,數(shù)據(jù)集中的樣例包含股票、基金、銀行等金融領域數(shù)據(jù);通用領域數(shù)據(jù)集的文本查詢涉及到教育、醫(yī)療、房產(chǎn)等日常領域,具有一定的復雜性和多樣性。

    3.1 整體準確率對比

    本文在驗證集和測試集上使用了以下三個指標來進行評估:

    a)邏輯形式準確率(logic form accuracy,LX):生成的SQL語句與數(shù)據(jù)集標簽完全一致的比例。

    LX=完全預測正確的SQL數(shù)量SQL總數(shù)量(16)

    b)執(zhí)行準確率(execution accuracy,EX):生成的SQL語句在數(shù)據(jù)庫中執(zhí)行后得到正確結果的比例。

    EX=執(zhí)行正確的SQL數(shù)量SQL總數(shù)量(17)

    c)平均準確率(mean accuracy,MX):取邏輯形式準確率和執(zhí)行準確率的平均值。

    MX=LX+EX2(18)

    本文對比的基線模型包括SQLNet[12]、TypeSQL[14]、SQL-ova[15]、X-SQL[16]、HydraNet[18],這些基線模型使用了不同的編碼器、注意力機制、預訓練模型等技術,以解決不同SQL生成場景下的難點,例如單表查詢、多表查詢、復雜查詢等。

    從表1中可以發(fā)現(xiàn),SQLNet和TypeSQL模型在TableQA數(shù)據(jù)集上的表現(xiàn)較其他模型較差。其中,SQLNet模型沒有利用數(shù)據(jù)表中的實際內(nèi)容,僅依賴于查詢語義;而TypeSQL模型僅使用了數(shù)據(jù)表字段的數(shù)據(jù)類型信息,沒有利用字段名稱等其他信息。相比之下,SQLova、X-SQL和HydraNet引入了BERT等預訓練語言模型來理解查詢語句語義,總體效果較好,但并沒有充分利用數(shù)據(jù)表本身的字段信息,僅將表字段名稱作為輸入序列的一部分。

    本文構建的模型在驗證集上的邏輯形式準確率(LX)達到88.62%,執(zhí)行準確率(EX)達到91.76%。與表現(xiàn)最好的基線模型HydraNet相比,在驗證集上的LX和EX指標分別提高了5.97和3.12百分點。同時在測試集上,LX和EX分別達到88.23%和91.65%,相比HydraNet提升了5.72和3.02百分點。

    3.2 改用模糊匹配執(zhí)行SQL語句

    通過觀察數(shù)據(jù)集中的查詢語句和對應的數(shù)據(jù)庫表格數(shù)據(jù),發(fā)現(xiàn)存在一些查詢語句中的實際條件值與數(shù)據(jù)庫中存儲的數(shù)據(jù)以及標簽不完全對應的情況,如表2所示。例如,問題“芒果的劇的總播放量達到了多少”中包含的條件值為“芒果”,而數(shù)據(jù)表中實際存儲的是“芒果TV”,在執(zhí)行SQL語句時,使用精確匹配無法匹配到結果。因此本文將“=”精確匹配替換為了“l(fā)ike”模糊匹配,進行文本匹配時可以匹配關鍵詞而不要求完全等價。那么查詢的條件語句部分由“where播放平臺=‘芒果’”改為“ where播放平臺like‘%芒果%’”,則可以匹配到“芒果TV”這條數(shù)據(jù)。實驗結果如表3所示,驗證集和測試集上的執(zhí)行準確率(EX)分別提高了0.2和0.17百分點,使用模糊匹配實現(xiàn)了更好的容錯性。

    3.3 子任務準確率

    為了進一步分析本文模型各模塊的效果,測試了模型在各個子任務上的準確率,具體結果如表4和圖6所示。從表4中可以看出,本模型在各個子任務上均取得了較高的準確率,例如S-COL、W-COL和S-AGG等子任務的準確率都達到95%以上,證明了模型可以有效地抽取自然語言查詢中的關鍵信息。并且可以注意到,S-NUM、W-NUM和W-CONN這三個子任務的準確率相比于其他子任務偏高,都達到97%以上。這三個子任務均使用BERT輸入序列中第一個詞的嵌入h[CLS]來預測,這也說明經(jīng)過BERT編碼后的序列能很好地表示上下文語義信息。

    從圖6中可以直觀看出,W-VAL較其他子任務準確率偏低,主要是因為本次實驗數(shù)據(jù)集中存在部分問題的條件值與標簽值不一致的情況。例如,3.2節(jié)實驗中的問題舉例,此問題對應的標簽值給出的仍是“芒果TV”,與數(shù)據(jù)表中存儲的數(shù)據(jù)相同。這會導致模型即使正確抽取出問題中的條件值也會被認為是錯誤的,因為無法與條件值標簽對應。數(shù)據(jù)集中此類情況的存在,是導致條件值抽取準確率偏低的一個主要原因。

    3.4 消融實驗

    為了驗證引入問題中詞與表字段相似度(以下簡稱sim)的有效性,本文進行了消融實驗,“-sim”表示不計算詞與表字段相似度。結果如表5和表6所示。在不使用sim模塊的情況下,驗證集上和測試集上的條件值準確率分別下降了1.8和1.32百分點;在驗證集上的LX和EX分別下降了0.38和0.54百分點,測試集上的LX和EX分別下降了0.75和0.61百分點。這說明引入sim不僅提高了條件值(W-VAL)預測的準確率,也提升了整體的準確率。

    4 結束語

    在NL2SQL任務中,表字段信息對于生成準確的SQL查詢有重要作用,現(xiàn)有的方法通常沒有充分利用表字段的信息。針對這個問題,本文提出FC-SQL方法,主要包括兩個部分:編碼層和子任務預測層。在編碼層,使用BERT模型對自然語言查詢和數(shù)據(jù)庫表字段進行合并編碼,得到上下文相關的多任務表示;在子任務預測層,采用多任務學習的方式,結合多任務網(wǎng)絡中的并聯(lián)和級聯(lián)結構分別預測不同的子任務。在條件值抽取模塊,通過計算問題中詞與表字段之間的相似度,增強了詞語和數(shù)據(jù)表字段之間的匹配能力。在TableQA數(shù)據(jù)集上進行了實驗評估,并與多種現(xiàn)有NL2SQL方法對比,結果表明本文模型有更好的表現(xiàn)。最后進行消融實驗,驗證了引入詞與列相似度的有效性。

    本文方法也存在一些局限性和不足之處。相似度計算的方式比較單一,未來可考慮采用更多的計算方式(如注意力機制)來進行對比分析;問題理解過程中存在的一些如語義歧義、省略等現(xiàn)象也會對模型的理解能力產(chǎn)生影響,后續(xù)工作可以嘗試在數(shù)據(jù)預處理階段改善這些問題。

    參考文獻:

    [1]趙志超, 游進國, 何培蕾, 等. 數(shù)據(jù)庫中文查詢對偶學習式生成SQL語句研究[J]. 中文信息學報, 2023, 37(03): 164-172. (Zhao Zhichao, You Jinguo, He Peilei, et al. Generating SQL statement from Chinese query based on dual learning[J]. Journal of Chinese Information Processing, 2023, 37(3): 164-172.)

    [2]何佳壕, 劉喜平, 舒晴, 等. 帶復雜計算的金融領域自然語言查詢的SQL生成[J]. 浙江大學學報:工學版, 2023, 57(2): 277-286. (He Jiahao, Liu Xiping, Shu Qing, et al. SQL generation from natural language queries with complex calculations on financial data[J]. Journal of Zhejiang University:Engineering Science, 2023, 57(2): 277-286.)

    [3]曹金超, 黃滔, 陳剛, 等. 自然語言生成多表SQL查詢語句技術研究[J]. 計算機科學與探索, 2020, 14(7): 1133-1141. (Cao Jinchao, Huang Tao, Chen Gang, et al. Research on technology of generating multi-table SQL query statement by natural language[J]. Journal of Frontiers of Computer Science and Technology, 2020,14(7): 1133-1141.)

    [4]Iyer S, Konstas I, Cheung A, et al. Learning a neural semantic parser from user feedback[EB/OL]. (2017-04-27). https://arxiv.org/abs/1704.08760.

    [5]趙猛, 陳珂, 壽黎但, 等. 基于樹狀模型的復雜自然語言查詢轉(zhuǎn) SQL 技術研究[J]. 軟件學報, 2022, 33(12): 4727-4745. (Zhao Meng, Chen Ke, Shou Lidan, et al. Converting complex natural language query to SQL based on tree representation model[J]. Journal of Software, 2022, 33(12): 4727-4745.)

    [6]Devlin J, Chang Mingwei, Lee K, et al. BERT: pre-training of deep bidirectional Transformers for language understanding[EB/OL]. (2019-05-24). https://arxiv.org/abs/1810.04805.

    [7]Patil R, Patwardhan M, Karande S, et al. Exploring dimensions of generalizability and few-shot transfer for text-to-SQL semantic parsing[C]//Proc of the 1st Transfer Learning for Natural Language Proces-sing Workshop. 2023: 103-114.

    [8]Yih S W, Chang Mingwei, He Xiaodong, et al. Semantic parsing via staged query graph generation: question answering with knowledge base[C]//Proc of Joint Conference of the 53rd Annual Meeting of the ACL and the 7th International Joint Conference on Natural Language Processing of the AFNLP. Stroudsburg, PA: ACL, 2015: 1321-1331.

    [9]Liang Chen, Berant J, Le Q, et al. Neural symbolic machines: learning semantic parsers on freebase with weak supervision[EB/OL]. (2017-04-23). https://arxiv.org/abs/1611.00020.

    [10]Herzig J, Berant J. Neural semantic parsing over multiple knowledge-bases[EB/OL]. (2017-04-24). https://arxiv.org/abs/1702.01569.

    [11]Katsogiannis-Meimarakis G, Koutrika G. A deep dive into deep learning approaches for text-to-SQL systems[C]//Proc of International Conference on Management of Data. New York: ACM Press, 2021: 2846-2851.

    [12]Xu Xiaojun, Liu Chang, Song D. SQLNet: generating structured queries from natural language without reinforcement learning[EB/OL]. (2017-11-13). https://arxiv.org/abs/1711.04436.

    [13]Zhong V, Xiong Caiming, Socher R. Seq2SQL: generating structured queries from natural language using reinforcement learning[EB/OL]. (2017-11-09). https://arxiv.org/abs/1709.00103.

    [14]Yu Tao, Li Zifan, Zhang Zilin, et al. TypeSQL: knowledge-based type-aware neural text-to-SQL generation[C]//Proc of Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA: ACL, 2018: 588-594.

    [15]Hwang W, Yim J, Park S, et al. A comprehensive exploration on WikiSQL with table-aware word contextualization[EB/OL]. (2019-11-11). https://arxiv.org/abs/1902.01069.

    [16]He Pengcheng, Mao Yi, Chakrabarti K, et al. X-SQL: reinforce schema representation with context[EB/OL]. (2019-08-21). https://arxiv.org/abs/1908.08113.

    [17]Liu Xiaodong, He Pengcheng, Chen Weizhu, et al. Multi-task deep neural networks for natural language understanding[C]//Proc of the 57th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2019: 4487-4496.

    [18]Lyu Qin, Chakrabarti K, Hathi S, et al. Hybrid ranking network for text-to-SQL[EB/OL].(2020-08-11).https://arxiv.org/abs/2008.04759.

    [19]McCann B, Keskar N S, Xiong Caiming, et al. The natural language decathlon: multitask learning as question answering[EB/OL]. (2018-06-20). https://arxiv.org/abs/1806.08730.

    [20]Sun Ningyuan, Yang Xuefeng, Liu Yunfeng. TableQA: a large-scale Chinese text-to-SQL dataset for table-aware SQL generation[EB/OL]. (2020-06-10). https://arxiv.org/abs/2006.06434.

    收稿日期:2023-12-30;修回日期:2024-02-29 基金項目:國家自然科學基金資助項目(62001282)

    作者簡介:劉洋(1999—),男,河南信陽人,碩士研究生,主要研究方向為自然語言處理;廖薇(1982—),女(通信作者),江西贛州人,副教授,碩導,博士,主要研究方向為生物醫(yī)療與自然語言處理(liaowei54@126.com);徐震(1984—),男,山東聊城人,副教授,碩導,博士,主要研究方向為數(shù)據(jù)驅(qū)動的機器學習.

    亚洲精品美女久久久久99蜜臀 | 婷婷色麻豆天堂久久| 嫩草影视91久久| 日本欧美国产在线视频| 日日爽夜夜爽网站| 日本vs欧美在线观看视频| 男女下面插进去视频免费观看| 波野结衣二区三区在线| h视频一区二区三区| 欧美成人精品欧美一级黄| 久久人人爽人人片av| 精品福利观看| 在现免费观看毛片| 国语对白做爰xxxⅹ性视频网站| 国产一区二区 视频在线| 国产亚洲欧美精品永久| 欧美日韩视频精品一区| 亚洲黑人精品在线| 午夜福利在线免费观看网站| 亚洲成人国产一区在线观看 | a级毛片在线看网站| 丁香六月天网| 欧美 日韩 精品 国产| 天堂俺去俺来也www色官网| 少妇 在线观看| 在线 av 中文字幕| 亚洲国产欧美网| 一级毛片我不卡| 久久国产亚洲av麻豆专区| 国产一区二区 视频在线| www.熟女人妻精品国产| 亚洲av男天堂| 91国产中文字幕| 免费观看人在逋| 国产免费福利视频在线观看| 国产精品.久久久| 国产一区二区三区综合在线观看| 五月开心婷婷网| 国产精品国产av在线观看| 欧美老熟妇乱子伦牲交| 亚洲av美国av| avwww免费| 精品人妻1区二区| 午夜精品国产一区二区电影| 咕卡用的链子| 好男人视频免费观看在线| 少妇猛男粗大的猛烈进出视频| 人人妻人人添人人爽欧美一区卜| 亚洲免费av在线视频| 少妇人妻 视频| 日本一区二区免费在线视频| 欧美精品一区二区免费开放| 亚洲精品久久久久久婷婷小说| 麻豆av在线久日| 婷婷色麻豆天堂久久| 亚洲黑人精品在线| 在线看a的网站| 久久人妻福利社区极品人妻图片 | 亚洲欧洲精品一区二区精品久久久| 夫妻午夜视频| 中国国产av一级| 亚洲情色 制服丝袜| 久久综合国产亚洲精品| 久久99热这里只频精品6学生| 久久午夜综合久久蜜桃| av天堂久久9| 看免费av毛片| 国产高清videossex| 这个男人来自地球电影免费观看| 国产精品久久久久久人妻精品电影 | 麻豆av在线久日| 女人久久www免费人成看片| 日韩熟女老妇一区二区性免费视频| 黄片小视频在线播放| 亚洲精品久久成人aⅴ小说| 热99久久久久精品小说推荐| 热99久久久久精品小说推荐| 捣出白浆h1v1| 色94色欧美一区二区| 叶爱在线成人免费视频播放| 性色av乱码一区二区三区2| 国产精品av久久久久免费| 纵有疾风起免费观看全集完整版| 满18在线观看网站| 狠狠婷婷综合久久久久久88av| 女人久久www免费人成看片| 国产一区二区激情短视频 | www.av在线官网国产| 成人亚洲精品一区在线观看| 大话2 男鬼变身卡| 一区二区三区精品91| 爱豆传媒免费全集在线观看| 精品久久蜜臀av无| 在线观看国产h片| 校园人妻丝袜中文字幕| 91精品伊人久久大香线蕉| 高清欧美精品videossex| 亚洲精品一卡2卡三卡4卡5卡 | 高清av免费在线| av天堂久久9| 亚洲国产欧美网| 男男h啪啪无遮挡| 丝袜美足系列| 欧美国产精品va在线观看不卡| 丝袜脚勾引网站| 一边摸一边做爽爽视频免费| 老汉色∧v一级毛片| 亚洲专区中文字幕在线| 新久久久久国产一级毛片| 午夜福利视频在线观看免费| 国产精品香港三级国产av潘金莲 | 亚洲成国产人片在线观看| 中文字幕人妻熟女乱码| 性少妇av在线| 成年女人毛片免费观看观看9 | 婷婷丁香在线五月| 操美女的视频在线观看| 精品熟女少妇八av免费久了| 首页视频小说图片口味搜索 | 妹子高潮喷水视频| 亚洲精品中文字幕在线视频| 午夜视频精品福利| 丁香六月天网| 国产伦理片在线播放av一区| 国产亚洲欧美在线一区二区| 欧美xxⅹ黑人| 麻豆av在线久日| 国产成人av教育| 免费不卡黄色视频| 日本猛色少妇xxxxx猛交久久| 脱女人内裤的视频| 欧美日韩精品网址| 一个人免费看片子| 国产精品久久久人人做人人爽| 精品人妻熟女毛片av久久网站| 成在线人永久免费视频| 一区在线观看完整版| 可以免费在线观看a视频的电影网站| 久久ye,这里只有精品| 50天的宝宝边吃奶边哭怎么回事| 丁香六月欧美| 欧美国产精品va在线观看不卡| 一级黄片播放器| 久久精品国产a三级三级三级| 国产主播在线观看一区二区 | 日韩大片免费观看网站| 亚洲欧洲精品一区二区精品久久久| 久久国产亚洲av麻豆专区| 一本大道久久a久久精品| 麻豆乱淫一区二区| 99久久人妻综合| 国产午夜精品一二区理论片| 亚洲精品美女久久av网站| 大话2 男鬼变身卡| 色精品久久人妻99蜜桃| 国产一区二区三区av在线| 精品一区二区三区四区五区乱码 | 亚洲欧美精品综合一区二区三区| 亚洲欧美激情在线| 女人高潮潮喷娇喘18禁视频| 久久亚洲精品不卡| av有码第一页| 亚洲一区二区三区欧美精品| 亚洲欧美成人综合另类久久久| 一边亲一边摸免费视频| 国产成人免费无遮挡视频| 男人爽女人下面视频在线观看| 亚洲国产精品成人久久小说| 亚洲伊人色综图| 一级黄色大片毛片| 亚洲成人免费av在线播放| 免费在线观看视频国产中文字幕亚洲 | 天天躁狠狠躁夜夜躁狠狠躁| 国产精品国产av在线观看| 亚洲,欧美,日韩| 日韩,欧美,国产一区二区三区| 精品国产一区二区三区久久久樱花| 高清黄色对白视频在线免费看| 99热国产这里只有精品6| 丰满人妻熟妇乱又伦精品不卡| 好男人视频免费观看在线| a 毛片基地| 日本91视频免费播放| 亚洲成av片中文字幕在线观看| 黄频高清免费视频| 欧美日韩视频精品一区| 国产精品免费大片| 大片免费播放器 马上看| 久久精品久久久久久久性| 搡老岳熟女国产| 久久鲁丝午夜福利片| 亚洲av国产av综合av卡| 亚洲av男天堂| 黄色毛片三级朝国网站| 丰满饥渴人妻一区二区三| 80岁老熟妇乱子伦牲交| 大陆偷拍与自拍| 欧美日韩视频精品一区| 又粗又硬又长又爽又黄的视频| 黄色怎么调成土黄色| 曰老女人黄片| 精品人妻一区二区三区麻豆| 免费在线观看完整版高清| 天天操日日干夜夜撸| 日本一区二区免费在线视频| 激情五月婷婷亚洲| netflix在线观看网站| 韩国高清视频一区二区三区| 青春草视频在线免费观看| 亚洲人成77777在线视频| 欧美精品一区二区免费开放| 免费久久久久久久精品成人欧美视频| 久久精品久久精品一区二区三区| 9热在线视频观看99| 超碰97精品在线观看| 久热这里只有精品99| 亚洲人成77777在线视频| 波多野结衣一区麻豆| 国产爽快片一区二区三区| 2021少妇久久久久久久久久久| 啦啦啦啦在线视频资源| 1024香蕉在线观看| 一级毛片黄色毛片免费观看视频| 国产色视频综合| 国产精品人妻久久久影院| 丰满人妻熟妇乱又伦精品不卡| 久久精品亚洲熟妇少妇任你| 国产欧美日韩一区二区三区在线| 日韩 欧美 亚洲 中文字幕| 99国产综合亚洲精品| 99热国产这里只有精品6| 成人18禁高潮啪啪吃奶动态图| 中文乱码字字幕精品一区二区三区| 水蜜桃什么品种好| 免费黄频网站在线观看国产| 久久久久精品人妻al黑| 中文字幕人妻丝袜制服| 91国产中文字幕| 精品熟女少妇八av免费久了| 国产片内射在线| 国产片特级美女逼逼视频| 丝袜在线中文字幕| 欧美人与善性xxx| 人成视频在线观看免费观看| 777米奇影视久久| 国产1区2区3区精品| 秋霞在线观看毛片| 亚洲欧美色中文字幕在线| 老司机影院毛片| 中文字幕人妻熟女乱码| 亚洲精品久久午夜乱码| 麻豆乱淫一区二区| 久久狼人影院| 色94色欧美一区二区| 免费在线观看黄色视频的| 亚洲情色 制服丝袜| 久久国产精品影院| 欧美精品高潮呻吟av久久| 成年人免费黄色播放视频| 亚洲av日韩在线播放| 日韩一卡2卡3卡4卡2021年| 精品高清国产在线一区| 婷婷成人精品国产| 亚洲国产看品久久| 久久人妻福利社区极品人妻图片 | 手机成人av网站| 十八禁高潮呻吟视频| 国产成人精品在线电影| av福利片在线| 黄色毛片三级朝国网站| 亚洲精品中文字幕在线视频| 欧美黑人欧美精品刺激| 久久99一区二区三区| 久久久久国产一级毛片高清牌| netflix在线观看网站| 亚洲 国产 在线| 捣出白浆h1v1| 91国产中文字幕| www.熟女人妻精品国产| 亚洲精品日本国产第一区| 成人国产一区最新在线观看 | 激情五月婷婷亚洲| 日韩一区二区三区影片| tube8黄色片| 成在线人永久免费视频| 极品人妻少妇av视频| 2018国产大陆天天弄谢| 老司机午夜十八禁免费视频| 精品久久久久久久毛片微露脸 | 亚洲精品美女久久久久99蜜臀 | 国产xxxxx性猛交| 国产在线免费精品| 国产精品成人在线| 中国国产av一级| 精品久久久精品久久久| 中文字幕亚洲精品专区| 亚洲成av片中文字幕在线观看| 成人手机av| 搡老乐熟女国产| 国产精品一区二区精品视频观看| av线在线观看网站| 美女脱内裤让男人舔精品视频| 亚洲伊人久久精品综合| 国产免费一区二区三区四区乱码| 涩涩av久久男人的天堂| 波野结衣二区三区在线| 免费在线观看黄色视频的| 丁香六月欧美| 纯流量卡能插随身wifi吗| 欧美日本中文国产一区发布| 欧美人与性动交α欧美精品济南到| 久久精品久久精品一区二区三区| 午夜视频精品福利| 国产在线免费精品| 日本午夜av视频| 99国产精品99久久久久| 黑人巨大精品欧美一区二区蜜桃| 天天添夜夜摸| 99久久精品国产亚洲精品| 国产免费一区二区三区四区乱码| 精品亚洲成a人片在线观看| 欧美日韩综合久久久久久| 一本色道久久久久久精品综合| 99国产精品一区二区三区| 精品亚洲乱码少妇综合久久| 国产熟女欧美一区二区| 婷婷丁香在线五月| 国产精品免费视频内射| 日本黄色日本黄色录像| 亚洲熟女精品中文字幕| 在线观看免费高清a一片| 男人舔女人的私密视频| 国产精品一区二区在线观看99| 又大又黄又爽视频免费| 美女福利国产在线| 精品亚洲乱码少妇综合久久| 亚洲七黄色美女视频| 亚洲精品国产一区二区精华液| 操出白浆在线播放| 青青草视频在线视频观看| 欧美亚洲日本最大视频资源| 1024香蕉在线观看| 久久性视频一级片| 91精品国产国语对白视频| 丝瓜视频免费看黄片| 亚洲av日韩在线播放| 国产精品免费大片| 亚洲欧美日韩另类电影网站| 亚洲久久久国产精品| 极品人妻少妇av视频| 不卡av一区二区三区| 国产日韩欧美在线精品| a级毛片在线看网站| 色视频在线一区二区三区| 狠狠精品人妻久久久久久综合| 黄色一级大片看看| 国产成人av教育| 精品国产国语对白av| 日韩视频在线欧美| 天堂中文最新版在线下载| 美女扒开内裤让男人捅视频| 精品少妇一区二区三区视频日本电影| 亚洲,欧美,日韩| 最黄视频免费看| 一本大道久久a久久精品| 国产又爽黄色视频| 国产福利在线免费观看视频| 欧美少妇被猛烈插入视频| 亚洲精品第二区| 久久av网站| 午夜av观看不卡| 精品第一国产精品| 男人爽女人下面视频在线观看| 午夜福利乱码中文字幕| 香蕉国产在线看| 久久青草综合色| 人人妻,人人澡人人爽秒播 | 国产色视频综合| 久久 成人 亚洲| 搡老岳熟女国产| 欧美亚洲 丝袜 人妻 在线| 久久青草综合色| 女人被躁到高潮嗷嗷叫费观| 日韩熟女老妇一区二区性免费视频| 日韩一卡2卡3卡4卡2021年| 又黄又粗又硬又大视频| h视频一区二区三区| 又大又爽又粗| 国产高清videossex| 热re99久久精品国产66热6| 老司机影院毛片| 午夜久久久在线观看| 国产黄色视频一区二区在线观看| 免费在线观看完整版高清| 日韩一卡2卡3卡4卡2021年| 婷婷色综合www| 尾随美女入室| 视频区图区小说| 丝袜脚勾引网站| 九草在线视频观看| 久久精品久久久久久噜噜老黄| 人妻人人澡人人爽人人| 成年动漫av网址| 久久九九热精品免费| av在线播放精品| 亚洲成人免费av在线播放| 久久免费观看电影| 一级毛片女人18水好多 | 国产精品偷伦视频观看了| 午夜91福利影院| 午夜免费男女啪啪视频观看| 别揉我奶头~嗯~啊~动态视频 | 免费在线观看黄色视频的| 一本综合久久免费| 另类亚洲欧美激情| 亚洲免费av在线视频| 亚洲精品日本国产第一区| 人人妻人人爽人人添夜夜欢视频| 操美女的视频在线观看| 99热全是精品| 大香蕉久久网| av网站在线播放免费| 在线亚洲精品国产二区图片欧美| 久久人妻熟女aⅴ| 亚洲情色 制服丝袜| 亚洲精品一区蜜桃| 久久久亚洲精品成人影院| 婷婷成人精品国产| 精品国产乱码久久久久久男人| 搡老乐熟女国产| 国产在线观看jvid| 欧美成狂野欧美在线观看| av不卡在线播放| 亚洲,欧美精品.| 精品久久久久久电影网| 国产视频一区二区在线看| 成人亚洲欧美一区二区av| 午夜免费鲁丝| 国产真人三级小视频在线观看| 99香蕉大伊视频| 狂野欧美激情性bbbbbb| 看十八女毛片水多多多| 亚洲国产中文字幕在线视频| 欧美+亚洲+日韩+国产| 精品福利永久在线观看| 精品高清国产在线一区| 午夜免费男女啪啪视频观看| 菩萨蛮人人尽说江南好唐韦庄| 久久精品久久久久久久性| 亚洲av欧美aⅴ国产| 在线观看免费高清a一片| 国产欧美日韩一区二区三 | 亚洲一卡2卡3卡4卡5卡精品中文| 欧美日韩成人在线一区二区| 美国免费a级毛片| av天堂久久9| 久久久国产欧美日韩av| 成年人黄色毛片网站| 亚洲精品国产av成人精品| 中文字幕人妻丝袜一区二区| av网站在线播放免费| 乱人伦中国视频| 国产精品偷伦视频观看了| 女性被躁到高潮视频| 精品久久久久久久毛片微露脸 | av福利片在线| 一区二区三区激情视频| 成年美女黄网站色视频大全免费| 亚洲色图综合在线观看| 日韩 欧美 亚洲 中文字幕| 中文字幕人妻熟女乱码| 亚洲精品成人av观看孕妇| 久久99一区二区三区| 天天躁日日躁夜夜躁夜夜| 欧美人与善性xxx| 久久久精品94久久精品| 久久久国产欧美日韩av| 国产国语露脸激情在线看| 日韩一区二区三区影片| 人体艺术视频欧美日本| 啦啦啦在线免费观看视频4| av视频免费观看在线观看| 国产男人的电影天堂91| 十八禁高潮呻吟视频| av福利片在线| 欧美成人午夜精品| 久久精品国产亚洲av高清一级| 91精品国产国语对白视频| 深夜精品福利| 欧美大码av| 一区二区日韩欧美中文字幕| 久久久久视频综合| 精品亚洲乱码少妇综合久久| 大香蕉久久成人网| 九色亚洲精品在线播放| 99国产精品一区二区蜜桃av | 亚洲精品第二区| 精品免费久久久久久久清纯 | 一级黄片播放器| 在线看a的网站| 亚洲国产最新在线播放| 大香蕉久久网| 一级毛片女人18水好多 | 欧美精品av麻豆av| 国产又爽黄色视频| 亚洲国产av新网站| 亚洲精品国产av蜜桃| 亚洲美女黄色视频免费看| 狂野欧美激情性bbbbbb| 最近最新中文字幕大全免费视频 | 亚洲久久久国产精品| 国产精品三级大全| 国产成人系列免费观看| 亚洲欧洲国产日韩| 女人被躁到高潮嗷嗷叫费观| 久久性视频一级片| 国产精品一二三区在线看| 免费观看人在逋| 日韩免费高清中文字幕av| 夫妻性生交免费视频一级片| 美女福利国产在线| 国产一区二区三区综合在线观看| 男女国产视频网站| 亚洲成人免费av在线播放| 色婷婷av一区二区三区视频| 黑人巨大精品欧美一区二区蜜桃| 日本一区二区免费在线视频| 免费在线观看影片大全网站 | 久久午夜综合久久蜜桃| 成人午夜精彩视频在线观看| 91麻豆av在线| 国产成人系列免费观看| 少妇的丰满在线观看| 精品亚洲成a人片在线观看| 国产麻豆69| 亚洲伊人色综图| 女警被强在线播放| 飞空精品影院首页| 精品国产乱码久久久久久小说| 一边摸一边抽搐一进一出视频| 最近中文字幕2019免费版| 免费一级毛片在线播放高清视频 | 日韩人妻精品一区2区三区| 欧美性长视频在线观看| 老司机影院毛片| 丰满少妇做爰视频| 精品国产一区二区三区久久久樱花| 91精品伊人久久大香线蕉| 国产精品.久久久| 日日夜夜操网爽| 啦啦啦 在线观看视频| av天堂久久9| av视频免费观看在线观看| 欧美精品av麻豆av| 宅男免费午夜| 91老司机精品| 啦啦啦 在线观看视频| 精品少妇久久久久久888优播| 国产成人一区二区在线| 欧美日韩视频高清一区二区三区二| www.999成人在线观看| 国产av国产精品国产| 九草在线视频观看| 中文字幕av电影在线播放| 亚洲精品美女久久av网站| 校园人妻丝袜中文字幕| 老汉色av国产亚洲站长工具| av国产精品久久久久影院| 亚洲成av片中文字幕在线观看| 久久综合国产亚洲精品| 热99久久久久精品小说推荐| 国产高清videossex| 宅男免费午夜| 日本av手机在线免费观看| 啦啦啦 在线观看视频| 亚洲av电影在线观看一区二区三区| 亚洲成人国产一区在线观看 | 国产又色又爽无遮挡免| 国产精品一区二区在线不卡| 欧美激情 高清一区二区三区| 亚洲情色 制服丝袜| 欧美日本中文国产一区发布| 精品高清国产在线一区| 色网站视频免费| 国产片特级美女逼逼视频| 男的添女的下面高潮视频| 亚洲欧美日韩另类电影网站| 十八禁人妻一区二区| 99热全是精品| 国产精品一国产av| 纯流量卡能插随身wifi吗| 亚洲国产av影院在线观看| 波多野结衣av一区二区av| 亚洲综合色网址| 人妻 亚洲 视频| 9色porny在线观看| 日本黄色日本黄色录像| 两个人看的免费小视频| 亚洲精品美女久久久久99蜜臀 | 欧美黑人欧美精品刺激| 国产精品一区二区免费欧美 | 岛国毛片在线播放| 亚洲色图综合在线观看| 性高湖久久久久久久久免费观看| 欧美乱码精品一区二区三区| 性色av乱码一区二区三区2| 9热在线视频观看99| 亚洲av国产av综合av卡| 日韩一区二区三区影片| 成年人黄色毛片网站| 久久久久久久国产电影| 日韩一卡2卡3卡4卡2021年| 波多野结衣av一区二区av| 亚洲成国产人片在线观看| 美女中出高潮动态图|