• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    多模態(tài)與文本預訓練模型的文本嵌入差異研究

    2023-02-10 06:31:40孫宇沖程曦葦宋睿華車萬翔盧志武3文繼榮
    北京大學學報(自然科學版) 2023年1期
    關鍵詞:語義模態(tài)文本

    孫宇沖 程曦葦 宋睿華,3,? 車萬翔 盧志武,3文繼榮,3

    北京大學學報(自然科學版) 第59卷 第1期 2023年1月

    Acta Scientiarum Naturalium Universitatis Pekinensis, Vol. 59, No. 1 (Jan. 2023)

    10.13209/j.0479-8023.2022.074

    北京高校卓越青年科學家計劃(BJJWZYJH012019100020098)資助

    2022-05-13;

    2022-08-18

    多模態(tài)與文本預訓練模型的文本嵌入差異研究

    孫宇沖1程曦葦2宋睿華1,3,?車萬翔4盧志武1,3文繼榮1,3

    1.中國人民大學高瓴人工智能學院, 北京 100872; 2.中國人民大學統(tǒng)計學院, 北京 100872; 3.北京智源人工智能研究院, 北京 100084; 4.哈爾濱工業(yè)大學計算學部, 哈爾濱 150001; ?通信作者, E-mail: rsong@ruc.edu.cn

    為了詳細地分析文本單模態(tài)預訓練模型 RoBERTa 和圖文多模態(tài)預訓練模型 WenLan 文本嵌入的差異, 提出兩種定量比較方法, 即在任一空間中, 使用距離一個詞最近的近鄰詞集合表示其語義, 進而通過集合間的 Jaccard 相似度來分析兩個空間中詞的語義變化; 將每個詞與其近鄰詞組成詞對, 分析詞對之間的關系。實驗結果表明, 圖文多模態(tài)預訓練為更抽象的詞(如成功和愛情等)帶來更多的語義變化, 可以更好地區(qū)分反義詞, 發(fā)現(xiàn)更多的上下義詞, 而文本單模態(tài)預訓練模型更擅長發(fā)現(xiàn)同義詞。另外, 圖文多模態(tài)預訓練模型能夠建立更廣泛的詞之間的相關關系。

    多模態(tài)預訓練; 文本表示; 文本嵌入分析

    隨著預訓練模型(如 BERT[1], GPT[2–3]和 RoBE-RTa[4]等)在諸多自然語言處理(NLP)任務中取得巨大成功, 研究人員將預訓練的技術拓展到多模態(tài)領域, 并在圖文檢索、圖像描述和文本到圖像生成等多項跨模態(tài)任務中取得領先的效果[5–8]。CLIP[6]和WenLan[8]這兩種使用對比學習方法, 在大規(guī)模的圖像–文本數(shù)據(jù)對上進行訓練, 將文本和圖像分別編碼, 并在同一語義空間將其對齊。以往的研究主要關注提升多模態(tài)預訓練模型在下游任務中的表現(xiàn), 很少分析多模態(tài)數(shù)據(jù)給文本嵌入帶來的變化。如果把單模態(tài)文本預訓練視為通過“讀書”來達到對文字的理解, 那么多模態(tài)預訓練則更像人類通過看和聽或?qū)憗磉_到對文字的認識。研究這兩種預訓練方式對文本嵌入的影響, 對探索人類大腦的編碼方式具有啟發(fā)意義, 也會為更好地利用多模態(tài)信息提供有價值的依據(jù)。

    1 相關工作

    1.1 單模態(tài)文本嵌入

    分布式假說認為, 出現(xiàn)在相似上下文中的詞具有相似的語義[9–10]?;谶@一假說, 早期的詞表示模型通過降維算法, 將詞共現(xiàn)矩陣變換為語義向 量[11], 使詞的語義關系可以通過其在語義空間中用向量表示的距離來體現(xiàn)。Word2Vec 通過基于上下文窗口的詞預測任務來學習詞的密集向量表示[12]。GloVe 詞向量通過語料中詞共現(xiàn)的全局統(tǒng)計信息來學習詞表示[13]。上述方法將一個詞表示為固定的向量, 無法解決一詞多義問題?;谏舷挛牡恼Z言模型使用上下文信息動態(tài)地表示詞。例如, ELMO使用在大量語料上訓練得到的基于雙向 LSTM (長短期記憶遞歸神經(jīng)網(wǎng)絡)的語言模型來提取基于上下文的詞表示[14]?;?Transformer[15]的大規(guī)模預訓練語言模型, 能夠?qū)W到更豐富的語義信息, 在多項NLP任務中取得最佳效果[1–3]。

    盡管單模態(tài)的詞表示獲得很大的成功, 但該方法僅通過詞在語料中的共現(xiàn)關系來學習語義。這與人類學習語言的方式有很大的不同, 人在學習語言的過程中往往融入多模態(tài)的感知信息。

    1.2 多模態(tài)文本嵌入

    有研究嘗試將感知信息融入詞表示中。一種方式是使用人工構建的詞屬性數(shù)據(jù)(例如蘋果–可食用, 輪胎–圓形的)來修正詞表示[16–17]。這些數(shù)據(jù)集規(guī)模有限, 只包含顯著的屬性。另一種方式是直接用多模態(tài)數(shù)據(jù)學習詞表示。這類研究大部分聚焦于視覺模態(tài), 因為視覺模態(tài)是人類學習語言時最主要的感知信息來源[18]。Bruni 等[19]將圖像中的“視覺單詞”[20]與文本中的詞相聯(lián)系, 證明在詞關聯(lián)性和詞聚類任務中, 多模態(tài)語義表示具有更好的效果。Kottur 等[21]將“詞袋模型”擴展到預測視覺特征任務中。Xu 等[22]通過最大化圖像特征和對應詞向量的相似度來學習多模態(tài)詞表示。Gupta 等[23]使用圖像數(shù)據(jù)集標注的視覺共現(xiàn)關系來提升 GloVe 詞向量。

    近期, 預訓練也被用于視覺和語言的聯(lián)合學習[5–8,24–25]。早期的研究使用跨模態(tài)的 Transformer編碼器來表示圖像和文本[5,24], 這類模型(又稱為單塔模型或單流模型)為需要強模態(tài)交互的下游任務設計。一些研究使用對比學習, 在一個多模態(tài)空間中將文本特征和圖像特征對齊[6,8,25], 這些模型(又稱雙塔模型或雙流模型)一般具有獨立的圖像編碼器和文本編碼器, 其中的文本編碼器可用于提取文本表示。

    預訓練的視覺+語言模型在很多跨模態(tài)的下游任務(如圖文檢索、圖像描述和文本生成圖像等)中取得很好的效果[4–8]。

    1.3 詞表示評價

    評價詞表示質(zhì)量的方法有兩種: 內(nèi)部評價法和外部評價法[26–27]。內(nèi)部評價法關注詞表示的語義關系, 外部評價法關注將詞表示應用于下游任務的效果。

    內(nèi)部評價法一種內(nèi)部評價方法是通過計算模型預測的詞對相似度與人工標注的詞對相似度之間的 Spearman 相關系數(shù)來評價[28], 常用的評測數(shù)據(jù)包括 MEN[19], SIMLEX-999[29]和 SimVerb-3500[26]。但是, 由于人工評測的主觀性以及相關程度定義不清晰, 這種方法受到質(zhì)疑[30]。另一種方法是使用詞聚類, 將詞分成幾個集合[28], BM[31]和 AP[32]是常用的用于聚類評價的數(shù)據(jù)集。除使用人工標注的數(shù)據(jù)外, 還有一些方法使用神經(jīng)激活模式來評價詞表示, 但這些激活模式并不總與詞義相關[33]。

    外部評價法一些 NLP 任務可以用來評價詞表示的能力, 在下游任務中表現(xiàn)好的詞表示被認為有更好的質(zhì)量[27]。常用來評價詞表示的 NLP 任務有詞性標注、命名實體識別、情感分析和文本分類 等[34]。在不同的下游任務中, 詞表示的表現(xiàn)并不總是正相關, 因此外部評測法并不適合作為一種通用的詞表示質(zhì)量度量[35]。

    2 研究方法

    2.1 訓練模型選取

    預訓練模型 BERT 使用堆疊的 Transformer 編碼器結構, 模型輸入是兩句拼在一起的文本, 它使用兩個預訓練任務: 1)掩碼語言模型, 基于上下文預測被遮蔽掉的單詞; 2)句子關系預測, 預測兩個句子是否相連。RoBERTa 是 BERT 模型的改進版本, 使用更多的訓練語料, 并訓練了更長的時間。本文使用中文版 RoBERTa[36], 它使用 RoBERTa 的訓練策略, 并結合全詞遮蔽策略的優(yōu)點。全詞遮蔽指屬于同一個漢語詞中的漢字都會被遮蔽掉。因為 RoBERTa-base 被用作 WenLan 的文本骨干網(wǎng)絡, 因此本文使用中文版 RoBERTa-base。為了減少因訓練數(shù)據(jù)不同造成的差異, 我們使用 WenLan 訓練數(shù)據(jù)的文本部分(約 2200 萬條數(shù)據(jù)), 以 1×10–5的學習率, 使用掩碼語言模型對它進行一輪微調(diào), 得到的模型記為 RoBERTa-ft。

    我們選取 WenLan 作為圖文預訓練的模型進行分析, 圖 1 展示 WenLan 的基本結構。

    其中,T為存儲在T中的負樣本,為溫度系數(shù)。

    類似地, 文到圖的對比學習損失為

    其中,I為存儲在I中的負樣本??偟膿p失為=T2I+I2T。

    本文使用 WenLan 的文本編碼器提取多模態(tài)的詞表示, 使用 RoBERTa-ft 提取單模態(tài)的詞表示, 將詞表示為兩組高維向量, 構成兩個文本嵌入空間, 然后在每個空間中分別計算所有詞對的余弦相似度。圖 2 展示兩個空間中詞對相似度的分布??梢钥吹? RoBERTa-ft 和 WenLan 對應的文本嵌入空間中, 詞對的平均相似度分別為 0.87 和 0.66, 不能直接比較相似度的數(shù)值; 兩個空間中詞對的相似度分布也明顯不同, WenLan 對應的相似度分布近似正態(tài)分布, 而 RoBERTa-ft 對應的相似度分布略左偏, 因此, 即使將相似度都標準化, 也不能相互比較。

    圖1 WenLan模型結構[8]

    圖2 兩個空間中詞對相似性分布

    2.2 基于k-近鄰的模型比較方法

    預訓練的目的是使模型學到的特征在高維空間有更好的分布, 使空間中一些詞的距離更近, 另外一些詞的距離更遠。從語義的角度來看, 高維空間中與某一詞鄰近的詞應當具有揭示該詞含義的能力。據(jù)此, 本文提出一種基于-近鄰的方法來比較兩個模型的文本嵌入, 包含如下兩個步驟。

    杰卡德相似度的取值范圍為[0, 1], 在兩個文本嵌入空間中, 詞 w 的語義變化越小, 杰卡德相似度越趨近1。

    2)為了衡量詞對間關系的變化, 需要從文本嵌入空間提取詞對。在文本嵌入空間中, 距離詞w最近其個詞{1,2, …,v}構成詞對。例如, “體育–贏球”、“體育–籃球運動”和“體育–國際裁判”等是WenLan文本嵌入空間里構成的詞對。

    3 實驗設計與結果分析

    3.1 單個詞表示變化規(guī)律實驗

    我們使用Jieba分詞工具包①https://github.com/fxsjy/jieba對WenLan的文本訓練數(shù)據(jù)進行分詞, 最終保留在全部數(shù)據(jù)中出現(xiàn)次數(shù)超過50次的詞, 形成長度為288000的詞表。使用預訓練的模型抽取詞表示, 構成文本嵌入空間。

    3.1.1 單個詞表示變化實驗設計與結果

    從圖3可以看出, 對于分析組, 即WenLan v.s. RoBERTa-ft, 直方圖中頻數(shù)峰值位于(0.05, 0.07), 呈右偏分布, 大部分詞對應的杰卡德相似度低于0.2。對于對照組, 即RoBERTa-ft v.s. RoBERTa, 相似度分布近似一個峰值為0.4的鐘形。需要注意的是, 我們僅使用WenLan圖文數(shù)據(jù)集中文字部分對RoBERTa微調(diào), RoBERTa與RoBERTa-ft 結果的不同主要來自新增數(shù)據(jù)。WenLan與RoBERTa-ft使用相同的文本數(shù)據(jù), 此外還使用相應的圖像數(shù)據(jù)做預訓練。最終分布呈現(xiàn)出較大差異, 說明圖像信息在表示學習的過程中發(fā)揮出顯著的作用。

    3.1.2 變化規(guī)律實驗與結果

    本文基于詞性(part of speech, POS), 分類統(tǒng)計兩個空間中詞表示的變化。對于普通名詞、動詞、人名、地名、數(shù)詞、形容詞、組織名稱、時間詞、代詞、方位詞和數(shù)量詞這11類詞性類別, 分別計算各類詞的平均杰卡德相似度, 在分析組和對照組之間沒有觀察到明顯的區(qū)別。通過觀察詞表示在兩個空間發(fā)生較大變化的多個實例, 發(fā)現(xiàn)其中大部分是語義抽象的詞; 相反, 很多語義具象的詞則在兩個空間中變化較小。因此, 我們猜想多模態(tài)預訓練對于詞語語義的影響與詞語的具象/抽象程度相關。

    圖3 詞語義變化圖

    Brysbaert等[39]對單詞的具象度進行細致的定義, 并使用人工標注的方法, 完成一個高質(zhì)量的數(shù)據(jù)集。該數(shù)據(jù)集主要包含英文名詞、動詞和形容詞, 每個單詞由多名標注者根據(jù)具象程度打分(1~ 5), 1分表示最為抽象, 5分則表示最為具象。通過 對多個標注得分取平均, 得到最終具象度(Concre-teness), 它是一個[1, 5]區(qū)間的實數(shù)。由于本文比較的模型均采用中文訓練, 因此將該標注數(shù)據(jù)集中的英文詞翻譯為中文詞, 取最常用詞義, 與中文詞表相交, 最終獲得26000個詞。

    表1列舉一些在WenLan和RoBERTa-ft文本嵌入空間中距離最近的詞??梢钥闯? 更具象的詞在兩個模型得到的重合詞更多, 而抽象詞所得的重合詞更少。我們將具體度得分以0.5分的間隔劃分區(qū)間, 對得分區(qū)間內(nèi)的所有詞對應杰卡德相似度求平均, 統(tǒng)計結果如圖4所示。橫軸表示詞的具體度, 縱軸表示相對杰卡德相似度(以1.0~1.5區(qū)間的相似度為基準)??梢钥闯? 對于分析組, 隨著詞具體度得分上升, 相似度也明顯上升。對于對照組, 相似度則未發(fā)現(xiàn)明顯上升趨勢。相關性檢驗結果表明, 分析組的相關系數(shù)約為0.32, 而對照組的相關系數(shù)為0.07。因此, 多模態(tài)預訓練為抽象詞帶來更多的語義變化, 越抽象的詞, 語義變化越大。

    圖4 詞語義變化與詞具體度的關系

    3.2 詞與詞之間關系變化規(guī)律實驗

    3.2.1 利用已有標注研究詞與詞之間的關系

    我們選擇廣泛應用的蘊含豐富的關系種類的大規(guī)模知識圖譜ConceptNet[40]。為了確認WenLan能否發(fā)現(xiàn)更多視覺相關詞對, 我們還選擇擁有豐富物體及屬性標簽的 Visual Genome數(shù)據(jù)集[41]和擁有圖片級標簽的 ImageNet 數(shù)據(jù)集[42]作為有標注數(shù)據(jù)集, 用來匹配詞對之間的視覺關系。

    ConceptNet 中含 386000 種中文概念關系。剔除不被詞表包含、擁有數(shù)據(jù)記錄過少及記錄涵蓋過多噪聲的概念關系后, 共有 10 種概念關系被保留, 如表 2 所示。這 10 種關系中包含如同義詞、反義詞和“是”(上位詞)這些基本類型的關系, 以及如“被用于”、“導致某種結果”和混合多種類型的“其他相關”(除上述類型外的相關)這些高級類型的關系。對于 Visual Genome 和 ImageNet, 受 Vaswani 等[15]的啟發(fā), 我們主要考慮兩種視覺關系。1)視覺語境(或視覺共現(xiàn))關系: 與文本中的語境類似, 我們將出現(xiàn)于同一圖像中的物體定義為該圖的語境, 曾多次共同出現(xiàn)在同一語境的物體對被認為有視覺語境關系, 比如, 耳朵和頭飾。2)物體–上位詞關系: 對圖像中物體, 取 WordNet[43]中該物體的上位詞, 形成物體–上位詞關系的標注數(shù)據(jù)。與 ConceptNet 的處理方法一致, 我們剔除詞表中不包含的詞所涉及的詞對。

    表1 單個詞在兩個文本嵌入空間的語義變化舉例

    說明: 粗體字為重合詞。

    表2 兩個空間挖掘出的詞對與現(xiàn)有數(shù)據(jù)集中關系類型匹配的統(tǒng)計結果

    說明: 總數(shù)是兩種空間挖掘到的具有該種關系類型的詞對并集大小; 表2數(shù)據(jù)以占比降序排列; 粗體字表示來自視覺數(shù)據(jù)集, 其余來自ConceptNet數(shù)據(jù)集。

    對每一個詞, 分別通過 WenLan 和 RoBERTa-ft獲得鄰近詞對集(=50), 對出現(xiàn)在標注數(shù)據(jù)集中的詞對, 記錄其關系類型, 統(tǒng)計結果見表2。我們用與的比值來表示哪種模型在挖掘一種關系類型時更具優(yōu)勢。

    根據(jù)表2, 與單模態(tài)RoBERTa-ft模型相比, 多模態(tài)WenLan模型更擅長發(fā)現(xiàn)上下位詞關系(不論是來自視覺數(shù)據(jù)集的“物體–上位詞”關系, 還是來自ConceptNet 的“是”關系)。除少量知識介紹類文本外, 人們在文字中提到一個名詞時, 通常不會贅述它們屬于哪個上位類別或包括哪些下位詞。例如, 在講武松打虎的故事時, 通常不會插入“老虎是一種哺乳動物”這樣的常識性文字。但是散落在互聯(lián)網(wǎng)的圖像–文本數(shù)據(jù)對中, 一張老虎的圖片可能常被用作展示老虎相關的文字內(nèi)容, 也可能在描述抽象的哺乳動物時作為一個實例出現(xiàn)?!袄匣ⅰ焙汀安溉閯游铩辈槐赝瑫r出現(xiàn)在一段文字里, 而通過老虎圖像和對比學習的優(yōu)化目標, 這兩個詞表示逐漸與老虎的視覺表示靠近, 因此它們因在WenLen空間中的距離相近而被挖掘出。

    表2最后一行表明, 僅RoBERTa-ft發(fā)現(xiàn)的反義詞對數(shù)量是僅WenLan發(fā)現(xiàn)的7倍。但是, 由于文本上下文相似, 從Word2Vec到BERT(包括RoBE-RTa-ft在內(nèi)), 這些單模態(tài)模型普遍會使“成功–失敗”這類反義詞具有距離相近的表示向量。令人驚訝的是, 在融合視覺信息后, 這種情況獲得明顯的改善。

    如圖5所示, 以反義詞“成功–失敗”為例, 在RoBERTa-ft對應的單模態(tài)文本嵌入空間中有一簇與“失敗”相近的詞(如“挫敗”、“頹敗”和“潰敗”), 距離“成功”不遠。在WenLan對應的多模態(tài)文本嵌入空間中, 其距離被大大拉遠, 未進入前50的近鄰。研究訓練數(shù)據(jù)集發(fā)現(xiàn), “成功”和“失敗”在文本中出現(xiàn)時, 上下文是相似的。與文本不同, 周圍文字帶有“成功”的圖像中, 大多色彩明亮, 并且具有積極的情感表達(如微笑); 周圍文字中帶有“失敗”的圖像中, 大多色調(diào)陰暗, 且具有消極的情感表達。視覺信息上的差異使WenLan通過對比學習, 增大了“成功–失敗”這對詞在多模態(tài)特征空間中的距離。這表明, 多模態(tài)WenLan模型具有能夠拉遠反義詞之間距離的優(yōu)勢。

    圖5 “成功”在兩個空間中周圍的詞

    綜上所述, 可以得出以下結論。

    1)文本單模態(tài)模型RoBERTa-ft更擅長發(fā)現(xiàn)同義詞對。“出現(xiàn)在相似上下文中的詞具有相似的語義”這一假設對同義詞非常有效, 與僅WenLan發(fā)現(xiàn)相比, 僅RoBERTa-ft發(fā)現(xiàn)能貢獻兩倍多的同義詞。

    2)RoBERTa-ft更擅長發(fā)現(xiàn)有邏輯關聯(lián)的詞對, 包括“導致某種結果”、“為第一子事件”、“具有某種能力”、“被用于”、“以某種目標為動力”和“其他相關”。這些關系更常見于文本, 較難用圖像表達。越難以用圖像表達的類別(如“以某種目標為動力”), RoBERTa-ft的貢獻比例越高。

    3)RoBERTa-ft可以發(fā)現(xiàn)大量視覺語境關系詞對。雖然如“耳朵”和“頭飾”這樣的“視覺語境”類詞對是由Visual Genome和ImageNet視覺數(shù)據(jù)集中出現(xiàn)在同一張圖像中的物體構成, 我們原本猜想多模態(tài)模型會在這一類型上有優(yōu)勢, 但事實上, 單模態(tài)模型的貢獻更多, 即47%比25%。這說明, 文字中也包含視覺場景的描寫, 讓人能夠身臨其境地理解作者想要描述的內(nèi)容。當然, WenLan模型也貢獻了相當多的視覺語境詞對。

    3.2.2 基于人工標注詞對關系的實驗

    用已有標簽的數(shù)據(jù)集與兩個空間發(fā)現(xiàn)的近鄰詞對進行匹配, 僅少部分詞對能夠匹配成功, 大量新發(fā)現(xiàn)的詞對之間的關系沒有被標注。于是, 我們做了一個用戶研究, 對抽樣的詞對進行人工標注。

    標注4種類型后的統(tǒng)計結果如表3所示。我們分別計算4種關系的詞對在從不同特征空間抽樣而得詞對中所占的比例, 并比較比例間的差異, 還對差異的顯著性進行檢驗。統(tǒng)計結果表明, WenLan比RoBERTa-ft少發(fā)現(xiàn)35%的同義詞對, 多發(fā)現(xiàn)7%的相關詞對, 少發(fā)現(xiàn)47%的反義詞對。這與表2中的兩個事實一致: 文本單模態(tài)模型更擅長發(fā)現(xiàn)同義詞對, 多模態(tài)模型可以改善反義詞對在特征空間中距離過近的情況。此外, 與表2中“其他相關”的結果不同, 實驗表明WenLan比RoBERTa-ft發(fā)現(xiàn)了更多的相關詞對, 其中部分相關詞對甚至未被Con-ceptNet, Visual Genome和ImageNet涵蓋。

    表3 兩個空間挖掘出的詞對與人工標注關系類型的統(tǒng)計結果

    4 展望和總結

    為了在文本模型 RoBERTa 與多模態(tài)模型 Wen-Lan 的詞表示之間做出公平的有意義的比較, 本文采取-近鄰的方法, 將距離一個詞最近的個詞構成集合, 使用集合來表示該詞的語義; 將文本嵌入空間中每個詞與其距離最近的個詞構建成個詞對, 進而研究詞對間的關系。實驗表明, WenLan改變了詞義, 對越抽象的詞, 改變越明顯。視覺信息可以幫助 WenLan 建立更多的上下義聯(lián)系, 發(fā)現(xiàn)更少的反義詞; RoBERTa 則更傾向于發(fā)現(xiàn)同義詞。

    多模態(tài)信息的引入讓文本表示發(fā)生改變, 因此下一步工作中擬探索將此變化更好地與文本預訓練模型在監(jiān)督學習上的優(yōu)勢相結合。另外, 圖像和文本的強弱關系在很大程度上決定了多模態(tài)模型的特征空間特點, 但目前沒有一個量化的方式可以刻畫圖文相關性的強度。我們計劃構造一些強度漸變的圖文數(shù)據(jù)集來探索數(shù)據(jù)集對多模態(tài)模型, 特別是文本表示方面的影響和規(guī)律。

    致謝 研究工作得到北京智源人工智能研究院的算力支持, 在此表示衷心感謝。

    [1]Devlin J, Chang M W, Lee K, et al. BERT: pre-training of deep bidirectional transformers for langua-ge understanding // Proceedings of NAACL-HLT. Min-neapolis, 2019: 4171–4186

    [2]Radford A, Wu J, Child R, et al. Language models are unsupervised multitask learners [EB/OL]. (2019–02–14)[2022–04–15]. https://openai.com/blog/better-lang uage-models

    [3]Radford A, Narasimhan K, Salimans T, et al. Im-proving language understanding by generative pre-training [EOB/OL]. (2018–06–11)[2022–04–15]. https:// openai.com/blog/language-unsupervised

    [4]Liu Y, Ott M, Goyal N, et al. Roberta: a robust- ly optimized BERT pretraining approach [EB/OL]. (2019–07–26)[2022–04–15]. https://arxiv.org/abs/1907. 11692

    [5]Li X, Yin X, Li C, et al. Oscar: object-semantics aligned pre-training for vision-language tasks // Pro-ceedings of ECCV. Cham, 2020: 121–137

    [6]Radford A, Kim J W, Hallacy C, et al. Learning transferable visual models from natural language supervision // Proceedings of ICML. New York, 2021: 8748–8763

    [7]Ramesh A, Pavlov M, Goh G, et al. Zero-shot text-to-image generation // Proceedings of ICML. New York, 2021: 8821–8831

    [8]Huo Y, Zhang M, Liu G, et al. WenLan: bridging vision and language by large-scale multi-modal pre-training [EB/OL]. (2021–03–11)[2022–04–15]. https:// arxiv.org/abs/2103.06561

    [9]Harris Z S. Distributional structure. Word, 1954, 10 (2/3): 146–162

    [10]Firth J R. A synopsis of linguistic theory, 1930–1955 // Studies in Linguistic Analysis. Oxford: The Philolo-gical Society, 1957: 1–32

    [11]Lund K, Burgess C. Producing high-dimensional semantic spaces from lexical co-occurrence. Behavior Research Methods, Instruments, & Computers, 1996, 28(2): 203–208

    [12]Mikolov T, Chen K, Corrado G, et al. Efficient estimation of word representations in vector space [EB/OL]. (2013–01–16)[2022–04–15]. https://arxiv.org/ abs/1301.3781

    [13]Pennington J, Socher R, Manning C D. Glove: global vectors for word representation // Proceedings of EMNLP. Stroudsburg, 2014: 1532–1543

    [14]Peters M E, Neumann M, Iyyer M, et al. Deep contextualized word representations // Proceedings of NAACL-HLT. Stroudsburg, 2018: 2227–2237

    [15]Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need. Proceedings of Advances in Neural Information Processing Systems, 2017: 6000–6010

    [16]McRae K, Cree G S, Seidenberg M S, et al. Semantic feature production norms for a large set of living and nonliving things. Behavior Research Methods, 2005, 37(4): 547–559

    [17]Silberer C, Ferrari V, Lapata M. Models of semantic representation with visual attributes // Proceedings of ACL. Stroudsburg, 2013: 572–582

    [18]Regier T. The human semantic potential: spatial language and constrained connectionism. Cambridge: MIT Press, 1996

    [19]Bruni E, Tran N K, Baroni M. Multimodal distribu-tional semantics. Journal of artificial intelligence research, 2014, 49: 1–47

    [20]Bosch A, Zisserman A, Munoz X. Image classification using random forests and ferns // Proceedings of ICCV. Piscataway, 2007: 1–8

    [21]Kottur S, Vedantam R, Moura J M F, et al. Visual word2vec (vis-w2v): learning visually grounded word embeddings using abstract scenes // Proceedings of CVPR. Piscataway, 2016: 4985–4994

    [22]Xu R, Lu J, Xiong C, et al. Improving word rep-resentations via global visual context // NIPS Workshop on Learning Semantics. Cambridge, 2014: 9

    [23]Gupta T, Schwing A, Hoiem D. ViCo: word embed-dings from visual co-occurrences // Proceedings of ICCV. Piscataway, 2019: 7425–7434

    [24]Chen Y C, Li L, Yu L, et al. Uniter: universal image-text representation learning // Proceedings of ECCV. Cham, 2020: 104–120

    [25]Jia C, Yang Y, Xia Y, et al. Scaling up visual and vision-language representation learning with noisy text supervision // Proceedings of ICML. New York, 2021: 4904–4916

    [26]Gerz D, Vuli? I, Hill F, et al. SimVerb-3500: a large-scale evaluation set of verb similarity // Proceedings of EMNLP. Stroudsburg, 2016: 2173–2182

    [27]Bakarov A. A survey of word embeddings evaluation methods [EB/OL]. (2018–01–21)[2022–04–15]. https:// arxiv.org/abs/1801.09536

    [28]Baroni M, Dinu G, Kruszewski G. Don’t count, predict! A systematic comparison of context-counting vs. context-predicting semantic vectors // Proceedings of ACL. Stroudsburg, 2014: 238–247

    [29]Hill F, Reichart R, Korhonen A. SimLex-999: eva-luating semantic models with (genuine) similarity es-timation. Computational Linguistics, 2015, 41(4): 665–695

    [30]Batchkarov M, Kober T, Reffin J, et al. A critique of word similarity as a method for evaluating distribu-tional semantic models // Proceedings of the 1st Workshop on Evaluating Vector-Space Representations for NLP. Stroudsburg, 2016: 7–12

    [31]Baroni M, Murphy B, Barbu E, et al. Strudel: a corpus-based semantic model based on properties and types. Cognitive science, 2010, 34(2): 222–254

    [32]Almuhareb A. Attributes in lexical acquisition [D]. Colchester: University of Essex, 2006

    [33]Huth A G, De Heer W A, Griffiths T L, et al. Natural speech reveals the semantic maps that tile human cerebral cortex. Nature, 2016, 532: 453–458

    [34]Collobert R, Weston J, Bottou L, et al. Natural language processing (almost) from scratch. Journal of Machine Learning Research, 2011, 12: 2493? 2537

    [35]Schnabel T, Labutov I, Mimno D, et al. Evaluation methods for unsupervised word embeddings // Pro-ceedings of EMNLP. Stroudsburg, 2015: 298–307

    [36]Cui Y, Che W, Liu T, et al. Revisiting pre-trained models for Chinese natural language processing // Findings of the Association for Computational Lin-guistics: EMNLP 2020. Stroudsburg, 2020: 657–668

    [37]Chen T, Kornblith S, Norouzi M, et al. A simple framework for contrastive learning of visual represen-tations // International Conference on Machine Lear-ning. Shangri-La, 2020: 1597–1607

    [38]He K, Fan H, Wu Y, et al. Momentum contrast for unsupervised visual representation learning // Procee-dings of CVPR. Piscataway, 2020: 9729–9738

    [39]Brysbaert M, Warriner A B, Kuperman V. Concre-teness ratings for 40 thousand generally known Eng-lish word lemmas. Behavior Research Methods, 2014, 46(3): 904–911

    [40]Speer R, Chin J, Havasi C. ConceptNet 5.5: an open multilingual graph of general knowledge // Procee-dings of AAAI. Menlo Park, 2017: 4444–4451

    [41]Krishna R, Zhu Y, Groth O, et al. Visual genome: connecting language and vision using crowdsourced dense image annotations. International Journal of Computer Vision, 2017, 123(1): 32–73

    [42]Deng J, Dong W, Socher R, et al. Imagenet: a large-scale hierarchical image database // Proceedings of CVPR. Piscataway, 2009: 248–255

    [43]Miller G A. WordNet: a lexical database for English. Communications of the ACM, 1995, 38(11): 39–41

    Difference between Multi-modal vs. Text Pre-trained Models in Embedding Text

    SUN Yuchong1, CHENG Xiwei2, SONG Ruihua1,3,?, CHE Wanxiang4, LU Zhiwu1,3, WEN Jirong1,3

    1. Gaoling School of Artificial Intelligence, Renmin University of China, Beijing 100872; 2. School of Statistics, Renmin University of China, Beijing 100872; 3. Beijing Academy of Artificial Intelligence, Beijing 100084; 4. Faculty of Computing, Harbin Institute of Technology, Harbin 150001; ? Corresponding author, E-mail: rsong@ruc.edu.cn

    multi-modal pre-training; text representation; text embedding analysis

    猜你喜歡
    語義模態(tài)文本
    語言與語義
    在808DA上文本顯示的改善
    基于doc2vec和TF-IDF的相似文本識別
    電子制作(2018年18期)2018-11-14 01:48:06
    “上”與“下”語義的不對稱性及其認知闡釋
    文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學隱喻
    國內(nèi)多模態(tài)教學研究回顧與展望
    基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識別
    認知范疇模糊與語義模糊
    由單個模態(tài)構造對稱簡支梁的抗彎剛度
    計算物理(2014年2期)2014-03-11 17:01:39
    如何快速走進文本
    語文知識(2014年1期)2014-02-28 21:59:13
    www.自偷自拍.com| 久久精品影院6| 在线免费观看的www视频| 亚洲成人中文字幕在线播放| 亚洲精品色激情综合| 一个人免费在线观看的高清视频| 亚洲av日韩精品久久久久久密| 51午夜福利影视在线观看| 综合色av麻豆| 男人和女人高潮做爰伦理| 国产97色在线日韩免费| 亚洲av成人一区二区三| 一进一出抽搐gif免费好疼| 丁香欧美五月| 国产精品av久久久久免费| 久9热在线精品视频| 国产精品 欧美亚洲| 国产伦在线观看视频一区| 悠悠久久av| 中文字幕人成人乱码亚洲影| 日日干狠狠操夜夜爽| x7x7x7水蜜桃| 精品久久久久久久人妻蜜臀av| 成人特级黄色片久久久久久久| 欧美在线黄色| 听说在线观看完整版免费高清| 1024手机看黄色片| 脱女人内裤的视频| 国产高潮美女av| 亚洲美女视频黄频| 母亲3免费完整高清在线观看| 在线免费观看不下载黄p国产 | av福利片在线观看| 巨乳人妻的诱惑在线观看| a级毛片a级免费在线| 久久性视频一级片| 亚洲在线自拍视频| 两个人的视频大全免费| 老汉色av国产亚洲站长工具| 麻豆国产av国片精品| 黄色丝袜av网址大全| 亚洲va日本ⅴa欧美va伊人久久| 国产精品影院久久| 香蕉丝袜av| 国产成人一区二区三区免费视频网站| 看黄色毛片网站| 国产99白浆流出| 免费av毛片视频| 亚洲五月天丁香| 国产成人av教育| 亚洲欧美日韩高清在线视频| 每晚都被弄得嗷嗷叫到高潮| 国产三级中文精品| 亚洲专区中文字幕在线| 亚洲成a人片在线一区二区| 亚洲欧美日韩卡通动漫| 欧美性猛交╳xxx乱大交人| 舔av片在线| 99精品欧美一区二区三区四区| av天堂在线播放| 亚洲国产看品久久| 久久久久久久久久黄片| 精品久久久久久久毛片微露脸| 免费观看人在逋| 亚洲五月婷婷丁香| 给我免费播放毛片高清在线观看| bbb黄色大片| 真人一进一出gif抽搐免费| 国产亚洲欧美98| 中文在线观看免费www的网站| 99久久精品一区二区三区| 少妇熟女aⅴ在线视频| 久久国产精品影院| 亚洲 国产 在线| 国产又色又爽无遮挡免费看| 亚洲av美国av| 一个人免费在线观看的高清视频| 中亚洲国语对白在线视频| 97超级碰碰碰精品色视频在线观看| 亚洲欧洲精品一区二区精品久久久| 少妇的逼水好多| 国产黄片美女视频| 老熟妇仑乱视频hdxx| 国产午夜福利久久久久久| 此物有八面人人有两片| 国产成人系列免费观看| 精品乱码久久久久久99久播| 亚洲熟妇熟女久久| 男女视频在线观看网站免费| 日本a在线网址| 成人午夜高清在线视频| 欧美性猛交╳xxx乱大交人| 91av网站免费观看| 最近最新中文字幕大全免费视频| 亚洲国产欧美一区二区综合| 嫩草影院入口| 欧美成狂野欧美在线观看| a在线观看视频网站| 男人和女人高潮做爰伦理| 桃色一区二区三区在线观看| 精品久久蜜臀av无| 亚洲人成网站高清观看| 亚洲专区字幕在线| 全区人妻精品视频| 午夜影院日韩av| 国产欧美日韩精品亚洲av| 中国美女看黄片| 日本撒尿小便嘘嘘汇集6| 久久人妻av系列| 老熟妇乱子伦视频在线观看| 亚洲乱码一区二区免费版| 亚洲精品美女久久久久99蜜臀| 久久久久久久精品吃奶| 日韩有码中文字幕| 亚洲男人的天堂狠狠| 国产单亲对白刺激| www.www免费av| 桃红色精品国产亚洲av| 午夜久久久久精精品| 午夜日韩欧美国产| 成年女人看的毛片在线观看| 美女黄网站色视频| 日韩av在线大香蕉| 夜夜夜夜夜久久久久| 高潮久久久久久久久久久不卡| 小说图片视频综合网站| 日本 av在线| 偷拍熟女少妇极品色| 熟女人妻精品中文字幕| 国内精品久久久久精免费| www日本在线高清视频| 国产高潮美女av| 九九久久精品国产亚洲av麻豆 | 亚洲精品美女久久久久99蜜臀| 99久久无色码亚洲精品果冻| 亚洲一区高清亚洲精品| 天堂网av新在线| www日本在线高清视频| 亚洲精品一区av在线观看| 19禁男女啪啪无遮挡网站| 男插女下体视频免费在线播放| 国产成人欧美在线观看| 91老司机精品| 在线观看66精品国产| 人人妻人人澡欧美一区二区| 国产精品九九99| 丝袜人妻中文字幕| 精品熟女少妇八av免费久了| 淫妇啪啪啪对白视频| 国内精品一区二区在线观看| 日本与韩国留学比较| 亚洲精品色激情综合| 国产成人精品无人区| 一进一出抽搐动态| 九色国产91popny在线| 一区二区三区国产精品乱码| 日韩精品中文字幕看吧| 免费高清视频大片| 亚洲七黄色美女视频| 国产美女午夜福利| svipshipincom国产片| 欧美高清成人免费视频www| 欧美三级亚洲精品| 美女午夜性视频免费| 99国产综合亚洲精品| 久99久视频精品免费| 国产aⅴ精品一区二区三区波| 国产成+人综合+亚洲专区| 久久久久久人人人人人| 国产精品一及| 亚洲精品中文字幕一二三四区| 国内精品久久久久久久电影| 国产精品电影一区二区三区| 成年女人看的毛片在线观看| 久久婷婷人人爽人人干人人爱| 成在线人永久免费视频| 久久久色成人| 国产精品精品国产色婷婷| 日日摸夜夜添夜夜添小说| 又黄又爽又免费观看的视频| 成人三级黄色视频| 性色av乱码一区二区三区2| 性欧美人与动物交配| 99热精品在线国产| 一区二区三区激情视频| 波多野结衣高清无吗| 日本免费一区二区三区高清不卡| 亚洲欧美日韩无卡精品| 亚洲熟妇熟女久久| 亚洲国产欧美一区二区综合| 久久精品国产99精品国产亚洲性色| 亚洲av中文字字幕乱码综合| 夜夜看夜夜爽夜夜摸| 色综合亚洲欧美另类图片| 一个人观看的视频www高清免费观看 | 波多野结衣巨乳人妻| 999久久久国产精品视频| 99热只有精品国产| 一进一出抽搐动态| 91在线观看av| 老熟妇仑乱视频hdxx| 国产高清激情床上av| 亚洲精品中文字幕一二三四区| 国内精品久久久久久久电影| 在线国产一区二区在线| 国产精品久久久久久亚洲av鲁大| 俄罗斯特黄特色一大片| 在线观看日韩欧美| 国内久久婷婷六月综合欲色啪| 欧美乱色亚洲激情| 悠悠久久av| 久久欧美精品欧美久久欧美| 最新中文字幕久久久久 | 嫩草影院入口| 一个人观看的视频www高清免费观看 | www.999成人在线观看| 99久久无色码亚洲精品果冻| 亚洲男人的天堂狠狠| 超碰成人久久| av中文乱码字幕在线| 亚洲国产欧洲综合997久久,| 国产成人av教育| 欧美日韩精品网址| 国内毛片毛片毛片毛片毛片| 99精品在免费线老司机午夜| 在线永久观看黄色视频| 中文字幕精品亚洲无线码一区| 欧美日韩精品网址| 国产精品av久久久久免费| 亚洲天堂国产精品一区在线| 日韩欧美精品v在线| 俺也久久电影网| 在线国产一区二区在线| 中文字幕人妻丝袜一区二区| 精品午夜福利视频在线观看一区| 我的老师免费观看完整版| 18禁国产床啪视频网站| 性欧美人与动物交配| 一级黄色大片毛片| 欧美日韩乱码在线| 国产精品亚洲av一区麻豆| 亚洲国产欧美网| 亚洲美女视频黄频| 亚洲精品久久国产高清桃花| 国产激情欧美一区二区| 免费av毛片视频| 欧美色欧美亚洲另类二区| 国产亚洲精品久久久久久毛片| 综合色av麻豆| 精品国产乱子伦一区二区三区| 在线视频色国产色| 亚洲人成电影免费在线| 全区人妻精品视频| 夜夜爽天天搞| 亚洲无线观看免费| 国产一区二区激情短视频| 一卡2卡三卡四卡精品乱码亚洲| 身体一侧抽搐| 久久天躁狠狠躁夜夜2o2o| 麻豆一二三区av精品| 草草在线视频免费看| bbb黄色大片| 变态另类成人亚洲欧美熟女| 日本免费a在线| 淫妇啪啪啪对白视频| 啦啦啦免费观看视频1| 亚洲人成电影免费在线| 亚洲精品在线美女| 色播亚洲综合网| 久久久久久久久中文| 国产91精品成人一区二区三区| e午夜精品久久久久久久| 国产视频一区二区在线看| 亚洲九九香蕉| 丁香六月欧美| 美女黄网站色视频| svipshipincom国产片| 国产男靠女视频免费网站| 国产亚洲精品久久久com| 国产免费男女视频| 90打野战视频偷拍视频| 九色国产91popny在线| av国产免费在线观看| 成人性生交大片免费视频hd| 黄色日韩在线| 亚洲aⅴ乱码一区二区在线播放| 99国产精品99久久久久| 88av欧美| 国产aⅴ精品一区二区三区波| 亚洲国产中文字幕在线视频| 好男人电影高清在线观看| 丝袜人妻中文字幕| 少妇熟女aⅴ在线视频| 视频区欧美日本亚洲| 欧美大码av| 久久久国产欧美日韩av| 在线观看日韩欧美| 999精品在线视频| 亚洲国产精品成人综合色| 一级毛片高清免费大全| 九色成人免费人妻av| 国产人伦9x9x在线观看| 久久婷婷人人爽人人干人人爱| 亚洲成a人片在线一区二区| 身体一侧抽搐| 久久性视频一级片| 免费av不卡在线播放| 俄罗斯特黄特色一大片| 在线国产一区二区在线| 久久精品综合一区二区三区| 中文字幕久久专区| 88av欧美| 真实男女啪啪啪动态图| 久久天堂一区二区三区四区| 法律面前人人平等表现在哪些方面| 国产精品影院久久| 美女 人体艺术 gogo| 亚洲国产高清在线一区二区三| cao死你这个sao货| 欧美激情久久久久久爽电影| 观看美女的网站| 丁香六月欧美| 亚洲精品国产精品久久久不卡| 精品久久久久久久久久久久久| 美女大奶头视频| 在线免费观看不下载黄p国产 | 欧美成狂野欧美在线观看| h日本视频在线播放| 国产黄色小视频在线观看| 久久久久久久久中文| 亚洲熟妇中文字幕五十中出| 最近最新中文字幕大全电影3| 美女午夜性视频免费| 夜夜夜夜夜久久久久| 久久久久久九九精品二区国产| a在线观看视频网站| 婷婷亚洲欧美| 亚洲欧美日韩卡通动漫| 久久久久国产精品人妻aⅴ院| 国内毛片毛片毛片毛片毛片| 一本综合久久免费| 偷拍熟女少妇极品色| 波多野结衣巨乳人妻| 久久精品影院6| xxx96com| 日韩欧美三级三区| 国产综合懂色| 久久精品国产清高在天天线| 丰满人妻熟妇乱又伦精品不卡| 五月伊人婷婷丁香| 亚洲欧美精品综合久久99| 精品人妻1区二区| 精品一区二区三区视频在线 | 黄色女人牲交| 国产高清videossex| 男人舔女人下体高潮全视频| 欧美极品一区二区三区四区| 在线观看一区二区三区| 亚洲avbb在线观看| 国产不卡一卡二| 亚洲精品456在线播放app | 婷婷丁香在线五月| 亚洲国产精品999在线| e午夜精品久久久久久久| 此物有八面人人有两片| 国内精品久久久久久久电影| av天堂在线播放| 国产成人一区二区三区免费视频网站| 亚洲av成人不卡在线观看播放网| 中文字幕精品亚洲无线码一区| 久久久久久九九精品二区国产| 真人一进一出gif抽搐免费| 精品国产亚洲在线| 欧美成狂野欧美在线观看| 亚洲成人免费电影在线观看| 桃红色精品国产亚洲av| 国产一级毛片七仙女欲春2| 日本一二三区视频观看| 美女免费视频网站| 欧美黄色淫秽网站| 天天躁狠狠躁夜夜躁狠狠躁| 欧美一级毛片孕妇| 中文字幕人成人乱码亚洲影| 法律面前人人平等表现在哪些方面| 国产不卡一卡二| 午夜福利成人在线免费观看| 每晚都被弄得嗷嗷叫到高潮| 偷拍熟女少妇极品色| 麻豆av在线久日| 久久久久九九精品影院| 窝窝影院91人妻| 国产一区二区在线观看日韩 | 欧美av亚洲av综合av国产av| 两性夫妻黄色片| 免费看光身美女| 国产一区二区在线av高清观看| 亚洲成a人片在线一区二区| 亚洲欧美精品综合一区二区三区| 国产精品九九99| 久久草成人影院| 亚洲色图 男人天堂 中文字幕| 高清在线国产一区| 2021天堂中文幕一二区在线观| 中国美女看黄片| 少妇熟女aⅴ在线视频| 日韩欧美三级三区| 狂野欧美激情性xxxx| 一区二区三区激情视频| 精品国产乱码久久久久久男人| 中文在线观看免费www的网站| 无遮挡黄片免费观看| 国产亚洲精品久久久com| 国产一区二区激情短视频| 后天国语完整版免费观看| 国产精品 欧美亚洲| 三级国产精品欧美在线观看 | 国产v大片淫在线免费观看| 日韩精品中文字幕看吧| 久久精品国产清高在天天线| 亚洲欧美激情综合另类| 久久香蕉精品热| 性色av乱码一区二区三区2| 国产精品电影一区二区三区| 久久精品国产亚洲av香蕉五月| 久99久视频精品免费| 午夜两性在线视频| 欧美激情在线99| 美女被艹到高潮喷水动态| 99久久精品热视频| 两人在一起打扑克的视频| 中文亚洲av片在线观看爽| 51午夜福利影视在线观看| 脱女人内裤的视频| 在线视频色国产色| 亚洲人成电影免费在线| 亚洲专区国产一区二区| 日本免费a在线| 丁香六月欧美| 欧美黄色片欧美黄色片| 校园春色视频在线观看| 久久久久亚洲av毛片大全| 日本一二三区视频观看| 国产精品乱码一区二三区的特点| 欧美性猛交黑人性爽| 国产 一区 欧美 日韩| 亚洲欧美日韩无卡精品| 国产美女午夜福利| 听说在线观看完整版免费高清| 天堂av国产一区二区熟女人妻| 九九热线精品视视频播放| 久久精品国产综合久久久| 99国产综合亚洲精品| 又黄又粗又硬又大视频| 老鸭窝网址在线观看| 欧美日韩综合久久久久久 | 日韩三级视频一区二区三区| 伦理电影免费视频| 久久久国产欧美日韩av| 在线免费观看不下载黄p国产 | 精品国产三级普通话版| 久久久久性生活片| 国内精品美女久久久久久| 久久中文字幕一级| 亚洲av电影不卡..在线观看| 小说图片视频综合网站| 黄片小视频在线播放| 一级作爱视频免费观看| 国产av麻豆久久久久久久| 欧美又色又爽又黄视频| 国产精品精品国产色婷婷| 亚洲欧美精品综合久久99| 极品教师在线免费播放| 精品熟女少妇八av免费久了| 亚洲专区国产一区二区| 欧美在线一区亚洲| netflix在线观看网站| 最新中文字幕久久久久 | 又黄又粗又硬又大视频| 亚洲精品色激情综合| 欧美中文日本在线观看视频| 久久久久久人人人人人| 男人和女人高潮做爰伦理| 亚洲人成网站在线播放欧美日韩| 免费人成视频x8x8入口观看| 91九色精品人成在线观看| 亚洲av日韩精品久久久久久密| 国产人伦9x9x在线观看| 亚洲真实伦在线观看| 国产欧美日韩一区二区精品| 手机成人av网站| а√天堂www在线а√下载| 香蕉久久夜色| 听说在线观看完整版免费高清| 窝窝影院91人妻| 亚洲精品美女久久久久99蜜臀| 黑人欧美特级aaaaaa片| 国产91精品成人一区二区三区| 日本在线视频免费播放| 啦啦啦免费观看视频1| 亚洲精品456在线播放app | 亚洲av电影在线进入| 91老司机精品| 久久人人精品亚洲av| 在线永久观看黄色视频| 成人av在线播放网站| 国产毛片a区久久久久| 男女之事视频高清在线观看| 少妇的逼水好多| 91麻豆精品激情在线观看国产| 美女扒开内裤让男人捅视频| 2021天堂中文幕一二区在线观| 亚洲五月婷婷丁香| 国产精品国产高清国产av| 性色av乱码一区二区三区2| 国产av麻豆久久久久久久| 久久精品影院6| 看免费av毛片| 老汉色av国产亚洲站长工具| 高潮久久久久久久久久久不卡| 美女高潮喷水抽搐中文字幕| 亚洲精品456在线播放app | 夜夜夜夜夜久久久久| 最好的美女福利视频网| 成年免费大片在线观看| 国产精品影院久久| 国产69精品久久久久777片 | 国产97色在线日韩免费| 亚洲欧美日韩无卡精品| 亚洲欧美精品综合久久99| 巨乳人妻的诱惑在线观看| 老司机福利观看| 五月伊人婷婷丁香| 欧美另类亚洲清纯唯美| 九九久久精品国产亚洲av麻豆 | 九九在线视频观看精品| 青草久久国产| 国产一级毛片七仙女欲春2| 久久久色成人| ponron亚洲| 无人区码免费观看不卡| 日韩欧美国产一区二区入口| 国内精品久久久久久久电影| 亚洲成人精品中文字幕电影| 国产日本99.免费观看| 午夜两性在线视频| 国产成年人精品一区二区| 老熟妇仑乱视频hdxx| 制服丝袜大香蕉在线| 美女高潮的动态| 嫩草影视91久久| 两性夫妻黄色片| 老司机在亚洲福利影院| a级毛片a级免费在线| 久久久久精品国产欧美久久久| 色综合婷婷激情| 欧美黑人欧美精品刺激| 国内精品久久久久久久电影| 激情在线观看视频在线高清| 母亲3免费完整高清在线观看| 国产精品电影一区二区三区| 日韩欧美国产一区二区入口| 成年女人毛片免费观看观看9| 少妇丰满av| 欧美成人免费av一区二区三区| 少妇人妻一区二区三区视频| 蜜桃久久精品国产亚洲av| 免费av毛片视频| 成人18禁在线播放| 国产精品,欧美在线| 真实男女啪啪啪动态图| 国产精品一区二区三区四区久久| 欧美大码av| 黄片小视频在线播放| 久久久久久久久免费视频了| 天堂动漫精品| 国产97色在线日韩免费| 美女免费视频网站| 精品日产1卡2卡| 九九久久精品国产亚洲av麻豆 | 18禁观看日本| 国产成人啪精品午夜网站| 久久久久久大精品| 麻豆成人av在线观看| 成年免费大片在线观看| 亚洲熟妇中文字幕五十中出| 天天一区二区日本电影三级| 国产淫片久久久久久久久 | 日韩国内少妇激情av| 久9热在线精品视频| 久久精品夜夜夜夜夜久久蜜豆| 丁香六月欧美| 成人无遮挡网站| 2021天堂中文幕一二区在线观| 99热这里只有是精品50| 国产成人精品久久二区二区91| 一进一出抽搐gif免费好疼| 美女扒开内裤让男人捅视频| 一个人免费在线观看的高清视频| 亚洲中文字幕日韩| 成年女人毛片免费观看观看9| 国产成人福利小说| 免费av不卡在线播放| 国产97色在线日韩免费| 老汉色av国产亚洲站长工具| 国产黄片美女视频| 亚洲欧美激情综合另类| 天堂动漫精品| 国语自产精品视频在线第100页| 在线看三级毛片| 国产伦精品一区二区三区视频9 | xxxwww97欧美| 国产男靠女视频免费网站| 久久精品影院6| 脱女人内裤的视频| 国产精品自产拍在线观看55亚洲|