• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于注意力消息共享的多智能體強(qiáng)化學(xué)習(xí)

    2022-11-30 08:39:22臧嶸王莉史騰飛
    計(jì)算機(jī)應(yīng)用 2022年11期
    關(guān)鍵詞:集中式梯度消息

    臧嶸,王莉*,史騰飛

    基于注意力消息共享的多智能體強(qiáng)化學(xué)習(xí)

    臧嶸1,王莉1*,史騰飛2

    (1.太原理工大學(xué) 大數(shù)據(jù)學(xué)院,山西 晉中 030600; 2.北方自動控制技術(shù)研究所,太原 030006)(?通信作者電子郵箱wangli@tyut.edu.cn)

    通信是非全知環(huán)境中多智能體間實(shí)現(xiàn)有效合作的重要途徑,當(dāng)智能體數(shù)量較多時,通信過程會產(chǎn)生冗余消息。為有效處理通信消息,提出一種基于注意力消息共享的多智能體強(qiáng)化學(xué)習(xí)算法AMSAC。首先,在智能體間搭建用于有效溝通的消息共享網(wǎng)絡(luò),智能體通過消息讀取和寫入完成信息共享,解決智能體在非全知、任務(wù)復(fù)雜場景下缺乏溝通的問題;其次,在消息共享網(wǎng)絡(luò)中,通過注意力消息共享機(jī)制對通信消息進(jìn)行自適應(yīng)處理,有側(cè)重地處理來自不同智能體的消息,解決較大規(guī)模多智能體系統(tǒng)在通信過程中無法有效識別消息并利用的問題;然后,在集中式Critic網(wǎng)絡(luò)中,使用Native Critic依據(jù)時序差分(TD)優(yōu)勢策略梯度更新Actor網(wǎng)絡(luò)參數(shù),使智能體的動作價值得到有效評判;最后,在執(zhí)行期間,智能體分布式Actor網(wǎng)絡(luò)根據(jù)自身觀測和消息共享網(wǎng)絡(luò)的信息進(jìn)行決策。在星際爭霸Ⅱ多智能體挑戰(zhàn)賽(SMAC)環(huán)境中進(jìn)行實(shí)驗(yàn),結(jié)果表明,與樸素Actor?Critic (Native AC)、博弈抽象通信(GA?Comm)等多智能體強(qiáng)化學(xué)習(xí)方法相比,AMSAC在四個不同場景下的平均勝率提升了4 ~ 32個百分點(diǎn)。AMSAC的注意力消息共享機(jī)制為處理多智能體系統(tǒng)中智能體間的通信消息提供了合理方案,在交通樞紐控制和無人機(jī)協(xié)同領(lǐng)域都具備廣泛的應(yīng)用前景。

    多智能體系統(tǒng);智能體協(xié)同;深度強(qiáng)化學(xué)習(xí);智能體通信;注意力機(jī)制;策略梯度

    0 引言

    深度強(qiáng)化學(xué)習(xí)(Deep Reinforcement Learning, DRL)[1-2]在無人機(jī)編隊(duì)、自動駕駛和游戲等場景表現(xiàn)出優(yōu)異的性能。將DRL引入多智能體系統(tǒng)[3],形成了多智能體強(qiáng)化學(xué)習(xí)(Multi? Agent Reinforcement Learning, MARL)[4-5],MARL領(lǐng)域的一大挑戰(zhàn)是:在非全知環(huán)境下對于復(fù)雜且協(xié)作要求高的任務(wù),智能體需要密切配合才能實(shí)現(xiàn)團(tuán)隊(duì)利益的最大化。

    溝通是相互理解的基礎(chǔ),良好的信息交流能確保合作的順利開展。通信策略的有效學(xué)習(xí)對智能體準(zhǔn)確感知外在環(huán)境、提升決策質(zhì)量具有重要的支撐作用。利用MARL學(xué)習(xí)智能體間的通信策略以促進(jìn)合作成為近年來研究進(jìn)展迅速的課題,涌現(xiàn)出了通信神經(jīng)網(wǎng)絡(luò)(Communication Neural Net, CommNet)[6]、雙向協(xié)調(diào)網(wǎng)絡(luò)(Bidirectionally?coordinated Net, BicNet)[7]、針對性多智能體通信(Targeted Multi?Agent Communication, TarMac)[8]、個性化可控連續(xù)通信網(wǎng)絡(luò)(Individualized Controlled Continuous Communication Net, IC3Net)[9]、博弈抽象通信(Game Abstraction Communication, GA?Comm)[10]、雙注意力Actor?Critic消息處理器(Double Attention Actor?Critic Message Processor, DAACMP)[11]等一系列代表性研究成果。

    本文聚焦于通信機(jī)制下較大規(guī)模多智能體系統(tǒng)的消息處理。通常,通信消息越多,意味著智能體獲知的狀態(tài)信息越多,學(xué)習(xí)效果會獲得提升。然而,在MARL設(shè)置下,共享通信消息中并非所有的消息都是有用的;對所有通信消息進(jìn)行統(tǒng)一處理,往往會造成重要信息的丟失。因此,對智能體通信消息有效識別并進(jìn)行處理是多智能體協(xié)作的一個關(guān)鍵。

    本文提出一種基于注意力消息共享的多智能體強(qiáng)化學(xué)習(xí)算法AMSAC(Attentional Message Sharing multi?agent Actor?Critic)來解決上述問題。首先,針對單個智能體觀測具有局限性,執(zhí)行期間協(xié)作能力有限的問題,AMSAC以Actor?Critic架構(gòu)為基礎(chǔ)設(shè)計(jì)了消息共享網(wǎng)絡(luò),智能體通過對通信消息的讀取和寫入操作完成通信消息共享,提升Actor網(wǎng)絡(luò)在決策時利用附加狀態(tài)信息的能力;其次,為了有效處理大量通信消息,AMSAC在消息共享網(wǎng)絡(luò)中設(shè)計(jì)了一種注意力消息處理機(jī)制,以增強(qiáng)智能體自適應(yīng)識別并處理重要通信消息的能力;最后,在集中式Critic網(wǎng)絡(luò),AMSAC引入時序差分(Temporal Difference, TD)優(yōu)勢策略梯度[12]更新Actor網(wǎng)絡(luò)參數(shù),采取有效的方式充分利用全局信息對智能體動作進(jìn)行評估。在AMSAC決策的過程中,智能體能有效識別重要信息并從大量通信消息中選擇真正有價值的信息進(jìn)行學(xué)習(xí),同時集中式Critic網(wǎng)絡(luò)能為智能體提供良好的指導(dǎo)。因此,AMSAC能成功解決上文提到的關(guān)鍵問題。

    本文在多智能體協(xié)作環(huán)境:星際爭霸Ⅱ多智能體挑戰(zhàn)賽(StarCraft Multi?Agent Challenge, SMAC)[13]的四個不同場景下進(jìn)行實(shí)驗(yàn),所有場景都具備較多數(shù)目的智能體。結(jié)果表明:本文算法AMSAC能有效識別并處理智能體的通信消息,在所有場景中展示出優(yōu)于其他基線方法的性能。同時,實(shí)驗(yàn)結(jié)果表明通過簡單的通信架構(gòu)來增加智能體決策時的附加狀態(tài)信息并不能穩(wěn)定獲得良好的性能表現(xiàn),這種結(jié)果也印證了本文提出的注意力消息共享機(jī)制的有效性。

    本文的主要工作包括:1)針對單個智能體只接收局部觀測,訓(xùn)練協(xié)作行為的能力有限的問題,基于Actor?Critic架構(gòu)設(shè)計(jì)了消息共享網(wǎng)絡(luò),增強(qiáng)智能體溝通交流的能力;集中式Critic網(wǎng)絡(luò)采用TD優(yōu)勢策略梯度,充分利用全局狀態(tài)動作信息,對智能體執(zhí)行動作的價值進(jìn)行合理評估。2)針對智能體數(shù)量較多時存在無法有效識別并處理消息的問題,建立注意力消息共享機(jī)制有側(cè)重地選擇重要消息進(jìn)行學(xué)習(xí),提升智能體自適應(yīng)學(xué)習(xí)有效信息的能力。3)在多智能體協(xié)作環(huán)境SMAC上與基線模型比較,本文算法AMSAC在四個場景下均優(yōu)于基線模型。

    1 相關(guān)工作

    根據(jù)多智能體系統(tǒng)中消息傳遞是否存在明確的通信信道,相關(guān)研究可分為基于顯式通信的方法和基于隱式通信的方法。本章首先對MARL通信機(jī)制的相關(guān)研究進(jìn)行論述,然后介紹注意力機(jī)制(attention mechanism)在MARL領(lǐng)域的相關(guān)工作。

    1.1 通信方法

    基于顯式通信的方法是在智能體之間建立明確的通信機(jī)制,基本框架是采用深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network, DNN)建立通信渠道以幫助智能體進(jìn)行溝通并完成決策,在此類方法中,DNN是端到端進(jìn)行訓(xùn)練的,其隱藏層信息被視為消息[6],智能體可以在進(jìn)行策略學(xué)習(xí)的同時學(xué)習(xí)如何將這種消息傳輸?shù)狡渌悄荏w,以及如何處理從其他智能體接收的消息以更好地優(yōu)化自身決策促進(jìn)合作。

    CommNet是這類研究的一個代表工作,它使用DNN來處理全局所有智能體發(fā)送的所有消息,并將處理后的消息統(tǒng)一用于指導(dǎo)所有智能體合作。IC3Net通過在消息聚合步驟中應(yīng)用門控機(jī)制,在通信過程中主動選擇或屏蔽來自其他智能體的消息。GA?Comm設(shè)計(jì)了一種圖注意力機(jī)制,在策略網(wǎng)絡(luò)進(jìn)行博弈抽象,簡化多智能體學(xué)習(xí)的復(fù)雜度,加快學(xué)習(xí)速度?;陲@式通信的方法通常采用REINFORCE (REward Increment Nonnegative Factor Offset Reinforcement Characteristic Eligibility)[14]范式訓(xùn)練策略網(wǎng)絡(luò),依據(jù)回合制對網(wǎng)絡(luò)參數(shù)進(jìn)行更新;但是,由于它不具備集中式Critic網(wǎng)絡(luò),使得這種訓(xùn)練方法無法充分利用全局信息對智能體動作進(jìn)行評價。

    基于隱式通信的方法不設(shè)計(jì)明確的通信模塊,通常采用集中式Critic網(wǎng)絡(luò)和分散式Actor網(wǎng)絡(luò)相結(jié)合的框架,利用Critic網(wǎng)絡(luò)得到的全局信息評判Actor網(wǎng)絡(luò)決策的動作價值,每個智能體的Actor網(wǎng)絡(luò)獨(dú)立執(zhí)行動作決策。多智能體深度確定性策略梯度(Multi?Agent Deep Deterministic Policy Gradient, MADDPG)[15]是基于隱式通信方法的一個代表工作,它將深度確定性策略梯度(Deep Deterministic Policy Gradient, DDPG)[16]擴(kuò)展到多智能體設(shè)置,其集中式Critic隱式地收集并利用其他智能體的狀態(tài)和動作信息,能適應(yīng)混合合作競爭的環(huán)境。反事實(shí)多智能體策略梯度(COunterfactual Multi?Agent policy gradient, COMA)[17]構(gòu)造一個集中式Critic網(wǎng)絡(luò)利用隱式通信信息并計(jì)算特定于智能體的反事實(shí)優(yōu)勢策略梯度以指導(dǎo)Actor網(wǎng)絡(luò)訓(xùn)練。完全分散的多智能體強(qiáng)化學(xué)習(xí)算法(Fully Decentralized Multi?Agent Reinforcement Learning, FD?MARL)是一種分布式學(xué)習(xí)算法,通過智能體使用其個體獎勵和從網(wǎng)絡(luò)相鄰智能體傳遞來的Critic網(wǎng)絡(luò)參數(shù)作為隱式信息來學(xué)習(xí)合作策略。這類方法在訓(xùn)練過程中利用全局信息對智能體動作進(jìn)行評估,但在執(zhí)行過程中Actor網(wǎng)絡(luò)獨(dú)立執(zhí)行決策,缺乏智能體間的溝通,可能導(dǎo)致算法在面對復(fù)雜、協(xié)作要求高的場景下難以有效合作。

    1.2 MARL中的注意力機(jī)制

    注意力機(jī)制有利于選擇重要信息,近幾年被引入MARL領(lǐng)域,在一定程度上促進(jìn)了智能體的學(xué)習(xí)效果。例如,注意力通信(ATtentiOnal Communication, ATOC)模型[19]提出帶有注意力層的雙向長短期記憶(Bi?directional Long Short?Term Memory, Bi?LSTM)通信通道,其注意力機(jī)制使每個智能體可以根據(jù)其狀態(tài)相關(guān)的重要程度有側(cè)重地處理來自其他智能體的消息。多智能體注意力Actor?Critic(Multi?Actor? Attention?Critic, MAAC)[20]使用注意力機(jī)制對集中式Critic網(wǎng)絡(luò)進(jìn)行建模,使用SAC(Soft Actor?Critic)評估Actor網(wǎng)絡(luò)的決策價值。DAACMP在Actor和Critic網(wǎng)絡(luò)都使用注意力機(jī)制進(jìn)行顯式信息處理,以獲得更好的性能表現(xiàn)。TarMac提出一種有針對性的通信協(xié)議來確定與誰通信以及使用注意力網(wǎng)絡(luò)傳輸什么消息。

    基于以上工作的啟發(fā),本文提出了基于注意力消息共享的多智能體強(qiáng)化學(xué)習(xí)算法AMSAC。但與已有方法的區(qū)別在于,本文算法AMSAC有效結(jié)合顯式通信和隱式通信的方法,基于Actor?Critic架構(gòu)建立消息共享網(wǎng)絡(luò),利用注意力機(jī)制自適應(yīng)處理消息,提升智能體識別有價值信息的能力;同時,利用集中式Critic網(wǎng)絡(luò)基于全局狀態(tài)信息評估智能體的動作價值,以此提升算法的性能。

    2 背景知識

    2.1 問題定義

    2.2 策略梯度算法

    與策略參數(shù)相關(guān)的梯度表示為:

    2.3 注意力機(jī)制

    3 AMSAC算法

    本文算法AMSAC的整體架構(gòu)如圖1所示:每個智能體具備負(fù)責(zé)自身決策的Actor網(wǎng)絡(luò),所有智能體共享集中式Critic網(wǎng)絡(luò)和消息共享網(wǎng)絡(luò)。在訓(xùn)練期間,智能體通過自身觀察和通信消息進(jìn)行決策,集中式Critic網(wǎng)絡(luò)評判智能體執(zhí)行動作的價值并端到端地更新Actor網(wǎng)絡(luò)和消息共享網(wǎng)絡(luò)。集中式Critic網(wǎng)絡(luò)只在訓(xùn)練期間使用。

    圖1 AMSAC的整體架構(gòu)

    3.1 Actor網(wǎng)絡(luò)

    3.2 注意力消息共享網(wǎng)絡(luò)

    圖2 AMSAC的注意力消息共享網(wǎng)絡(luò)結(jié)構(gòu)

    3.3 Critic網(wǎng)絡(luò)

    本文認(rèn)為遵循TD優(yōu)勢策略梯度更新Actor網(wǎng)絡(luò)參數(shù),能充分利用全局狀態(tài)信息,準(zhǔn)確衡量智能體執(zhí)行動作的價值。為了驗(yàn)證這一想法,本文結(jié)合Native Critic與COMA的分散式Actor網(wǎng)絡(luò),稱之為樸素Actor?Critic(Native Actor? Critic, Native AC),在實(shí)驗(yàn)中作為消融模型與COMA的反事實(shí)策略梯度進(jìn)行了性能比較。

    4 實(shí)驗(yàn)與結(jié)果分析

    4.1 實(shí)驗(yàn)環(huán)境

    本文在星際爭霸Ⅱ多智能體挑戰(zhàn)賽SMAC上進(jìn)行了性能測試。SMAC由一系列星際爭霸Ⅱ微管理游戲組成,旨在評估智能體在解決復(fù)雜任務(wù)時的協(xié)作能力。圖3顯示了SMAC中的兩種場景截圖。每個場景中,算法控制的友方單位與內(nèi)置游戲AI控制的敵方單位作戰(zhàn),當(dāng)任何一支隊(duì)伍的所有單位都陣亡,或者當(dāng)這一回合達(dá)到最大時間限制時,就標(biāo)志著回合結(jié)束;只有當(dāng)敵人單位被全部消滅時,游戲才能勝利;對戰(zhàn)目標(biāo)是最大化游戲勝率。星際爭霸Ⅱ經(jīng)過了版本迭代,不同版本之間性能存在差距,本文采用的是星際爭霸Ⅱ的5.0.5版本。

    實(shí)驗(yàn)中使用SMAC的所有默認(rèn)設(shè)置,包括:游戲難度設(shè)置為7級:非常困難;射擊范圍、觀察范圍等與默認(rèn)設(shè)置一致;智能體的動作空間由移動、攻擊、停止和不操作共四種離散動作組成;智能體只能朝上、下、左、右四個方向移動;攻擊動作需要指定敵方ID,只有當(dāng)敵人在其射程內(nèi)時才能攻擊;選取2s3z、3s5z、1c3s5z和8m共四個具有挑戰(zhàn)性的場景對算法進(jìn)行性能測試。表1展示了SMAC不同地圖的場景細(xì)節(jié)。不同游戲角色具有不同的生命值、攻擊力以及攻擊范圍。

    圖3 SMAC中的兩種不同場景截圖

    表1 SMAC地圖細(xì)節(jié)

    4.2 算法及實(shí)現(xiàn)細(xì)節(jié)

    為驗(yàn)證AMSAC的有效性,引入以下消融模型進(jìn)行比較:

    MSAC:在消息共享網(wǎng)絡(luò)采用全連接網(wǎng)絡(luò)對通信消息進(jìn)行處理。Critic網(wǎng)絡(luò)沿用TD優(yōu)勢策略梯度更新網(wǎng)絡(luò)參數(shù),命名為MSAC。

    Native AC[12]:在Actor網(wǎng)絡(luò)采用了與COMA算法相同的網(wǎng)絡(luò)架構(gòu),移除消息共享網(wǎng)絡(luò),在Critic網(wǎng)絡(luò)沿用了TD優(yōu)勢策略梯度更新。

    還與AMSAC最相關(guān)、性能最好的多智能體Actor?Critic方法和通信學(xué)習(xí)方法進(jìn)行比較:

    CommNet[6]:是一種顯式通信的MARL算法,通過平均處理其他智能體的消息進(jìn)行通信,智能體對所有消息投入相同的注意力權(quán)重。本文利用REINFORCE算法訓(xùn)練策略網(wǎng)絡(luò)。

    COMA[17]:是與本文算法結(jié)構(gòu)、原理最為接近的Actor?Critic算法,它在Actor網(wǎng)絡(luò)未使用通信機(jī)制,Critic網(wǎng)絡(luò)則利用反事實(shí)策略梯度進(jìn)行參數(shù)更新。

    GA?Comm[10]:一種顯式通信的MARL算法,通過圖注意力機(jī)制對智能體之間傳遞的消息進(jìn)行博弈抽象。本文利用REINFORCE算法訓(xùn)練策略網(wǎng)絡(luò)。

    通過AMSAC與MSAC的比較,可以獲悉本文提出的注意力消息處理機(jī)制應(yīng)用在消息共享網(wǎng)絡(luò)的效果;通過MSAC與Native AC的對比,可以了解本文提出的消息共享通信方式與不進(jìn)行通信的方法的性能區(qū)別;同時,引入基線CommNet是為了獲悉單純地將所有消息輸入網(wǎng)絡(luò)并輸出所有智能體動作的顯式通信方式在性能上與AMSAC的差距;而通過COMA與本文算法的比較可以獲悉Native Critic的性能優(yōu)勢以及消息共享網(wǎng)絡(luò)的有效性;通過GA?Comm與AMSAC的比較,可以獲悉顯式通信的集中式控制方案中的圖注意力機(jī)制與集中訓(xùn)練分布執(zhí)行的注意力消息共享機(jī)制的區(qū)別,也能反映集中式Critic與并未充分利用集中訓(xùn)練條件的REINFORCE訓(xùn)練范式的性能差距。

    本文的實(shí)驗(yàn)結(jié)果是在Nivida Geforce RTX 3090,Inter i9? 10900k的計(jì)算機(jī)上運(yùn)行獲得的,每次獨(dú)立運(yùn)行需要5~10 h,具體取決于智能體規(guī)模等因素。每次運(yùn)行對應(yīng)一個隨機(jī)種子,該種子的網(wǎng)絡(luò)參數(shù)在開始訓(xùn)練時進(jìn)行隨機(jī)初始化。

    AMSAC和MSAC具備相同的體系結(jié)構(gòu),除了消息共享網(wǎng)絡(luò)將64維的全連接層替換為64維的注意力層,其后的全連接層將讀取的消息維度固定在32維。Critic網(wǎng)絡(luò)均設(shè)置為每200局游戲進(jìn)行一次目標(biāo)網(wǎng)絡(luò)更新。

    4.3 實(shí)驗(yàn)結(jié)果

    圖4 獨(dú)立運(yùn)行5次后的平均勝率

    從圖4中可以看出,CommNet在任意場景下都沒有學(xué)會一種持續(xù)擊敗敵方的策略。這表明,單純地將所有通信消息不做處理直接輸入策略網(wǎng)絡(luò)并不能學(xué)習(xí)到有效策略;同時也說明Critic網(wǎng)絡(luò)對于策略優(yōu)化具有積極作用。GA?Comm在大部分場景下表現(xiàn)出優(yōu)于CommNet的性能,表明其圖注意力機(jī)制對于集中式消息的處理比單純的全連接網(wǎng)絡(luò)更為有效。但兩種顯式通信方法都不能很好地適應(yīng)部分難度較大的場景,本文認(rèn)為這主要是由于缺乏集中式Critic難以充分利用全局信息,使智能體決策得不到良好指導(dǎo)。COMA在四個場景中的三個場景下學(xué)習(xí)效果不好,這種結(jié)果印證了反事實(shí)策略梯度與TD優(yōu)勢策略梯度在指導(dǎo)Actor網(wǎng)絡(luò)上存在性能差距。此外,在部分場景下,MSAC的表現(xiàn)與Native AC相當(dāng)甚至不如Native AC,這表明對于通信消息的單純?nèi)B接結(jié)構(gòu)并不能準(zhǔn)確把握通信消息中的有效信息。

    AMSAC在所有任務(wù)中獲得了最佳性能,表明本文提出的注意力消息共享機(jī)制是有效的。此外,在較為簡單的場景如8m下,實(shí)驗(yàn)中的所有算法都表現(xiàn)出不錯的性能,即便是綜合表現(xiàn)最差的CommNet也能在訓(xùn)練后期取得60%以上的勝率,在該場景下AMSAC收斂到穩(wěn)定勝率的速度比MSAC和Native AC慢,我們認(rèn)為這是因?yàn)樽⒁饬ο⒐蚕頇C(jī)制的架構(gòu)更加復(fù)雜造成的。

    在2s3z和1c3s5z等難度提升的場景下,只有少數(shù)算法能夠?qū)W習(xí)到有效的獲勝策略。在綜合難度最大的3s5z場景下,其他基線和消融算法基本完全無法取勝,但AMSAC卻能通過其特殊設(shè)計(jì)的通信架構(gòu)學(xué)習(xí)到對于智能體決策真正有價值的信息,在3s5z場景下獲得突破性地超過12.5%的平均勝率。

    4.4 注意力消息共享機(jī)制分析

    為了更細(xì)粒度地顯示消息共享網(wǎng)絡(luò)的注意力機(jī)制如何工作,對2s3z環(huán)境中特定智能體對其他智能體消息的注意力權(quán)重進(jìn)行可視化分析。如圖5所示,選取一局對局的錄像進(jìn)行分析,同時輸出智能體①對于其他智能體消息的注意力權(quán)重。可以看出,影響注意力權(quán)重的最主要因素是智能體①與其他智能體的距離。例如,由于智能體②和智能體①在本回合中始終保持較近的距離,并且兩者均為追獵者角色,因此智能體①始終對智能體②傳輸?shù)南⒈в休^大的注意力權(quán)重。此外,智能體③先是遠(yuǎn)離①而后又接近①,智能體①對于③的注意力權(quán)重經(jīng)歷了先減小后增大的過程。最后,智能體①對于對戰(zhàn)陣亡的智能體則取消對其消息分配注意力權(quán)重。

    除此以外,根據(jù)輸出的注意力權(quán)重值,我們認(rèn)為智能體①對其他智能體投入的關(guān)注度還與智能體的角色或種類有關(guān),這是由于相同角色或種類的智能體具備相同的觀測能力,因此得到的觀測向量在生成消息后有更大地具備高相似度的可能性。圖中戰(zhàn)斗的最后智能體①對于相近距離的智能體②和智能體⑤投入的注意力權(quán)重差距明顯也印證了本文的想法。

    上述結(jié)果與人類的直接認(rèn)知是一致的:附近的智能體或相同角色的智能體通常對當(dāng)前智能體有更大的影響,因此通信消息更重要,并且當(dāng)前智能體已經(jīng)學(xué)會將更多的注意力放在與其更相關(guān)的智能體傳輸?shù)南⑸?。因此,這種結(jié)果支持本文的想法,AMSAC的注意力消息共享機(jī)制可以自適應(yīng)地關(guān)注更重要的信息,加快智能體學(xué)習(xí)到對于其決策真正有價值信息的速度。

    表2 單次獨(dú)立實(shí)驗(yàn)的平均勝率 單位: %

    表3 獨(dú)立實(shí)驗(yàn)獲得的單次評估最高勝率 單位: %

    圖5 注意力消息共享機(jī)制分析的對戰(zhàn)過程截圖

    5 結(jié)語

    本文提出了一種注意力消息共享的多智能體強(qiáng)化學(xué)習(xí)算法AMSAC來自適應(yīng)識別和處理多個智能體間的大量通信消息。首先設(shè)計(jì)了消息共享網(wǎng)絡(luò),負(fù)責(zé)對智能體通信的消息進(jìn)行寫入和讀取;同時,為了提高智能體對通信消息的處理能力,本文提出了一種注意力消息共享機(jī)制,對消息進(jìn)行有側(cè)重的識別和處理,使智能體學(xué)習(xí)到真正有價值的信息。此外,AMSAC在Critic網(wǎng)絡(luò)通過TD優(yōu)勢策略梯度更好地利用全局狀態(tài)信息評判執(zhí)行動作的價值。在星際爭霸Ⅱ多智能體挑戰(zhàn)賽SMAC的四個場景下進(jìn)行實(shí)驗(yàn),結(jié)果表明本文方法性能優(yōu)于基線模型。同時,消融模型對比表明,本文提出的注意力消息共享機(jī)制對于實(shí)現(xiàn)更好和更穩(wěn)定的性能是必要的;對注意力機(jī)制的分析表明,AMSAC確實(shí)掌握了自適應(yīng)處理消息的方式。

    下一步將考慮應(yīng)用多頭注意力機(jī)制或圖注意力機(jī)制關(guān)注來自不同相關(guān)智能體和不同消息表征子空間的通信消息。本文關(guān)注的智能體數(shù)量大多集中在8~10的較大規(guī)模,未來也可以考慮將MARL通信方法引入更大規(guī)模的多智能體系統(tǒng),當(dāng)前的大規(guī)模智能體通信方法均包含一系列假設(shè)前提,研究如何處理大規(guī)模多智能體系統(tǒng)的通信消息,仍然存在極強(qiáng)的必要性。

    [1] MNIH V, KAVUKCUOGLU K, SILVER D, et al. Human?level control through deep reinforcement learning[J]. Nature, 2015, 518(7540): 529-533.

    [2] 劉全,翟建偉,章宗長,等. 深度強(qiáng)化學(xué)習(xí)綜述[J]. 計(jì)算機(jī)學(xué)報(bào), 2018, 41(1):1-27.(LIU Q, ZHAI J W, ZHANG Z Z, et al. A survey on deep reinforcement learning[J]. Chinese Journal of Computers, 2018, 41(1):1-27.)

    [3] TROITZSCH K G. Multi-agent systems and simulation: a survey from an application perspective[M]// UHRMACHER A M, WEYNS D. Multi-Agent Systems: Simulation and Applications. Boca Raton: CRC Press, 2009: 53-76.

    [4] HERNANDEZ?LEAL P, KARTAL B, TAYLOR M E. A survey and critique of multiagent deep reinforcement learning[J]. Autonomous Agents and Multi?Agent Systems, 2019, 33(6): 750-797.

    [5] 孫長銀,穆朝絮. 多智能體深度強(qiáng)化學(xué)習(xí)的若干關(guān)鍵科學(xué)問題[J]. 自動化學(xué)報(bào), 2020, 46(7):1301-1312.(SUN C Y, MU C X. Important scientific problems of multi?agent deep reinforcement learning[J]. Acta Automatica Sinica, 2020, 46(7):1301-1312.)

    [6] SUKHBAATAR S, SZLAM A, FERGUS R. Learning multiagent communication with backpropagation[C]// Proceedings of the 30th International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2016: 2252-2260.

    [7] PENG P, WEN Y, YANG Y D, et al. Multiagent bidirectionally? coordinated nets: emergence of human?level coordination in learning to play StarCraft combat games[EB/OL]. (2017-09-14)[2021-02-12].https://arxiv.org/pdf/1703.10069.pdf.

    [8] DAS A, GERVET T, ROMOFF J, et al. TarMAC: targeted multi? agent communication[C]// Proceedings of the 36th International Conference on Machine Learning. New York: JMLR.org, 2019: 1538-1546.

    [9] SINGH A, JAIN T, SUKHBAATAR S. Learning when to communicate at scale in multiagent cooperative and competitive tasks[EB/OL]. (2018-12-23)[2021-02-12].https://arxiv.org/pdf/1812.09755.pdf.

    [10] LIU Y, WANG W X, HU Y J, et al. Multi?agent game abstraction via graph attention neural network[C]// Proceedings of the 34th Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020: 7211-7218.

    [11] MAO H Y, ZHANG Z C, XIAO Z, et al. Learning multi?agent communication with double attentional deep reinforcement learning[J]. Autonomous Agents and Multi?Agent Systems, 2020, 34(1): No.32.

    [12] SU J Y, ADAMS S, BELING P. Value?decomposition multi?agent actor?critics[C]// Proceedings of the 35th AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2021: 11352-11360.

    [13] SAMVELYAN M, RASHID T, SCHROEDER DE WITT C, et al. The StarCraft multi?agent challenge[C]// Proceedings of the 18th International Conference on Autonomous Agents and MultiAgent Systems. Richland, SC: International Foundation for Autonomous Agents and MultiAgent Systems, 2019: 2186-2188.

    [14] WILLIAMS R J. Simple statistical gradient?following algorithms for connectionist reinforcement learning[J]. Machine Learning, 1992, 8(3/4): 229-256.

    [15] LOWE R, WU Y, TAMAR A, et al. Multi?agent actor?critic for mixed cooperative?competitive environments[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017: 6382-6393.

    [16] LILLICRAP T P, HUNT J J, PRITZEL A, et al. Continuous control with deep reinforcement learning[EB/OL]. (2019-07-05)[2021-02-12].https://arxiv.org/pdf/1509.02971.pdf.

    [17] FOERSTER J N, FARQUHAR G, AFOURAS T, et al. Counterfactual multi?agent policy gradients[C]// Proceedings of the 32nd AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2018: 2974-2982.

    [18] ZHANG K Q, YANG Z R, LIU H, et al. Fully decentralized multi?agent reinforcement learning with networked agents[C]// Proceedings of the 35th International Conference on Machine Learning. New York: JMLR.org, 2018: 5872-5881.

    [19] JIANG J C, LU Z Q. Learning attentional communication for multi-agent cooperation[C]// Proceedings of the 32nd International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2018: 7265-7275.

    [20] IQBAL S, SHA F. Actor?attention?critic for multi?agent reinforcement learning[C]// Proceedings of the 36th International Conference on Machine Learning. New York: JMLR.org, 2019: 2961-2970.

    [21] BERNSTEIN D S, GIVAN R, IMMERMAN N, et al. The complexity of decentralized control of Markov decision processes[J]. Mathematics of Operations Research, 2002, 27(4): 819-840.

    [22] SUTTON R S, McALLESTER D, SINGH S, et al. Policy gradient methods for reinforcement learning with function approximation[C]// Proceedings of the 12th International Conference on Neural Information Processing Systems. Cambridge: MIT Press, 1999: 1057-1063.

    [23] KONDA V R, TSITSIKLIS J N. Actor?critic algorithms[C]// Proceedings of the 12th International Conference on Neural Information Processing Systems. Cambridge: MIT Press, 1999: 1008-1014.

    [24] MNIH V, HEESS N, GRAVES A, et al. Recurrent models of visual attention[C]// Proceedings of the 27th International Conference on Neural Information Processing Systems. Cambridge: MIT Press, 2014: 2204-2212.

    [25] CHO K, MERRI?NBOER B van, GU?L?EHRE ?, et al. Learning phrase representations using RNN encoder?decoder for statistical machine translation[C]// Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2014: 1724-1734.

    [26] XU K, BA J, KIROS R, et al. Show, attend and tell: neural image caption generation with visual attention[C]// Proceedings of the 32nd International Conference on Machine Learning. New York: JMLR.org, 2015: 2048-2057.

    [27] CHUNG J, GU?L?EHRE ?, CHO K, et al. Empirical evaluation of gated recurrent neural networks on sequence modeling[S/OL]. (2014-12-11)[2021-10-25].https://arxiv.org/pdf/1412.3555.pdf.

    [28] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]// Proceedings of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017: 6000-6010.

    Multi?agent reinforcement learning based on attentional message sharing

    ZANG Rong1, WANG Li1*, SHI Tengfei2

    (1,,030600,;2,030006,)

    Communication is an important way to achieve effective cooperation among multiple agents in a non? omniscient environment. When there are a large number of agents, redundant messages may be generated in the communication process. To handle the communication messages effectively, a multi?agent reinforcement learning algorithm based on attentional message sharing was proposed, called AMSAC (Attentional Message Sharing multi?agent Actor?Critic). Firstly, a message sharing network was built for effective communication among agents, and information sharing was achieved through message reading and writing by the agents, thus solving the problem of lack of communication among agents in non?omniscient environment with complex tasks. Then, in the message sharing network, the communication messages were processed adaptively by the attentional message sharing mechanism, and the messages from different agents were processed with importance order to solve the problem that large?scale multi?agent system cannot effectively identify and utilize the messages during the communication process. Moreover, in the centralized Critic network, the Native Critic was used to update the Actor network parameters according to Temporal Difference (TD) advantage policy gradient, so that the action values of agents were evaluated effectively. Finally, during the execution period, the decision was made by the agent distributed Actor network based on its own observations and messages from message sharing network. Experimental results in the StarCraft Multi?Agent Challenge (SMAC) environment show that compared with Native Actor?Critic (Native AC), Game Abstraction Communication (GA?Comm) and other multi?agent reinforcement learning methods, AMSAC has an average win rate improvement of 4 - 32 percentage points in four different scenarios. AMSAC’s attentional message sharing mechanism provides a reasonable solution for processing communication messages among agents in a multi?agent system, and has broad application prospects in both transportation hub control and unmanned aerial vehicle collaboration.

    multi?agent system; agent cooperation; deep reinforcement learning; agent communication; attention mechanism; policy gradient

    This work is partially supported by National Natural Science Foundation of China (61872260).

    ZANG Rong, born in 1997, M. S. candidate. His research interests include reinforcement learning, multi-agent system.

    WANG Li, born in 1971, Ph. D., professor. Her research interests include data mining, artificial intelligence, machine learning.

    SHI Tengfei, born in 1990, M. S., engineer. His research interests include deep reinforcement learning.

    1001-9081(2022)11-3346-08

    10.11772/j.issn.1001-9081.2021122169

    2021?12?21;

    2022?01?14;

    2022?01?24。

    國家自然科學(xué)基金資助項(xiàng)目(61872260)。

    TP181

    A

    臧嶸(1997—),男,山西太原人,碩士研究生,主要研究方向:強(qiáng)化學(xué)習(xí)、多智能體系統(tǒng);王莉(1971—),女,山西太原人,教授,博士,CCF高級會員,主要研究方向:數(shù)據(jù)挖掘、人工智能、機(jī)器學(xué)習(xí);史騰飛(1990—),男,山西晉城人,工程師,碩士,CCF會員,主要研究方向:深度強(qiáng)化學(xué)習(xí)。

    猜你喜歡
    集中式梯度消息
    一個改進(jìn)的WYL型三項(xiàng)共軛梯度法
    一種自適應(yīng)Dai-Liao共軛梯度法
    一張圖看5G消息
    一類扭積形式的梯度近Ricci孤立子
    光伏:分布式新增裝機(jī)規(guī)模首次超越集中式
    能源(2018年8期)2018-09-21 07:57:16
    組串式、集中式逆變器的評估選定淺析
    電子測試(2017年23期)2017-04-04 05:07:46
    接觸網(wǎng)隔離開關(guān)集中式控制方案研究
    電氣化鐵道(2016年5期)2016-04-16 05:59:55
    光伏集中式逆變器與組串式逆變器
    消息
    消息
    看十八女毛片水多多多| 中文字幕久久专区| 久久久久精品国产欧美久久久| 99精品久久久久人妻精品| 亚洲最大成人手机在线| 91在线精品国自产拍蜜月| 国产精品久久久久久人妻精品电影| 在线观看美女被高潮喷水网站 | 亚洲黑人精品在线| 成年人黄色毛片网站| 欧美xxxx黑人xx丫x性爽| 69av精品久久久久久| 久久久久久久午夜电影| 宅男免费午夜| 亚洲av美国av| 最新中文字幕久久久久| 99国产极品粉嫩在线观看| 18禁黄网站禁片免费观看直播| 亚洲美女视频黄频| 欧美黑人欧美精品刺激| 国产国拍精品亚洲av在线观看| 国产一区二区亚洲精品在线观看| 免费看美女性在线毛片视频| 色播亚洲综合网| 亚洲欧美清纯卡通| 久99久视频精品免费| 国产视频内射| 一卡2卡三卡四卡精品乱码亚洲| 国产伦精品一区二区三区四那| av在线蜜桃| 黄片小视频在线播放| 国内毛片毛片毛片毛片毛片| 日本a在线网址| 18美女黄网站色大片免费观看| 99久久精品国产亚洲精品| 18禁黄网站禁片午夜丰满| 狠狠狠狠99中文字幕| 欧美性感艳星| 91久久精品国产一区二区成人| 久久性视频一级片| 亚洲欧美日韩高清专用| 免费在线观看亚洲国产| 两人在一起打扑克的视频| 亚洲av不卡在线观看| 国产高清三级在线| 在线国产一区二区在线| 久久久久久久久久成人| 在线观看免费视频日本深夜| 久久精品人妻少妇| 色吧在线观看| 中亚洲国语对白在线视频| 一卡2卡三卡四卡精品乱码亚洲| 成人高潮视频无遮挡免费网站| 日韩欧美精品v在线| 欧美性猛交╳xxx乱大交人| 热99re8久久精品国产| 啦啦啦韩国在线观看视频| 亚洲经典国产精华液单 | 又爽又黄无遮挡网站| 亚洲成av人片在线播放无| 欧美一区二区精品小视频在线| 九色成人免费人妻av| 1024手机看黄色片| 国产精品人妻久久久久久| 欧美一区二区精品小视频在线| 国产三级黄色录像| 亚洲av日韩精品久久久久久密| 午夜亚洲福利在线播放| 男人狂女人下面高潮的视频| 婷婷亚洲欧美| 亚州av有码| 男人和女人高潮做爰伦理| 成人美女网站在线观看视频| 成人毛片a级毛片在线播放| 国产精品日韩av在线免费观看| 简卡轻食公司| 可以在线观看毛片的网站| 91久久精品电影网| 国产精品女同一区二区软件 | 亚洲中文日韩欧美视频| 村上凉子中文字幕在线| 超碰av人人做人人爽久久| 麻豆av噜噜一区二区三区| 欧美日韩国产亚洲二区| 男女下面进入的视频免费午夜| 99久久无色码亚洲精品果冻| 国产色婷婷99| 99国产极品粉嫩在线观看| 超碰av人人做人人爽久久| 如何舔出高潮| 亚洲精品在线美女| 成人特级av手机在线观看| 在线免费观看不下载黄p国产 | 午夜影院日韩av| 搡老妇女老女人老熟妇| 如何舔出高潮| 国产极品精品免费视频能看的| 亚洲国产欧洲综合997久久,| 两人在一起打扑克的视频| 欧美绝顶高潮抽搐喷水| 一区福利在线观看| 亚洲av免费高清在线观看| 精品国内亚洲2022精品成人| 2021天堂中文幕一二区在线观| 在线观看美女被高潮喷水网站 | 一进一出抽搐gif免费好疼| 精品久久国产蜜桃| 亚洲精品456在线播放app | 久久精品久久久久久噜噜老黄 | 中文字幕人妻熟人妻熟丝袜美| av天堂中文字幕网| 亚洲,欧美精品.| 午夜精品久久久久久毛片777| 啦啦啦韩国在线观看视频| 神马国产精品三级电影在线观看| 天美传媒精品一区二区| 日本一本二区三区精品| 亚洲真实伦在线观看| 一夜夜www| 99热这里只有精品一区| 日韩欧美 国产精品| 淫秽高清视频在线观看| 欧美另类亚洲清纯唯美| 成人毛片a级毛片在线播放| 一个人免费在线观看的高清视频| 亚洲avbb在线观看| 亚洲成人久久性| 欧美性猛交黑人性爽| 桃色一区二区三区在线观看| av福利片在线观看| 国产精品爽爽va在线观看网站| 性欧美人与动物交配| 国产毛片a区久久久久| 国产精品久久久久久精品电影| 国产精华一区二区三区| 成人永久免费在线观看视频| 久久中文看片网| 精品熟女少妇八av免费久了| 欧美精品啪啪一区二区三区| 久久精品国产清高在天天线| 三级毛片av免费| 伊人久久精品亚洲午夜| 五月玫瑰六月丁香| 极品教师在线视频| 国产高潮美女av| 乱人视频在线观看| 级片在线观看| 日本与韩国留学比较| 亚洲aⅴ乱码一区二区在线播放| 尤物成人国产欧美一区二区三区| 日韩免费av在线播放| 国产精品女同一区二区软件 | 国产精品亚洲一级av第二区| 色哟哟·www| 成年免费大片在线观看| 日韩中文字幕欧美一区二区| 俄罗斯特黄特色一大片| 中文在线观看免费www的网站| 国产高清视频在线播放一区| 日韩av在线大香蕉| 啦啦啦观看免费观看视频高清| 国产精品影院久久| 欧美xxxx黑人xx丫x性爽| 啦啦啦韩国在线观看视频| 亚洲乱码一区二区免费版| 夜夜爽天天搞| 18+在线观看网站| 午夜a级毛片| 亚洲最大成人手机在线| 国产伦在线观看视频一区| 久久亚洲精品不卡| 三级毛片av免费| 成人国产综合亚洲| 国产一区二区亚洲精品在线观看| 日本在线视频免费播放| 午夜免费成人在线视频| 亚洲欧美清纯卡通| 757午夜福利合集在线观看| 91麻豆精品激情在线观看国产| 一级作爱视频免费观看| 国产精品1区2区在线观看.| 少妇的逼好多水| 国产精品久久久久久久久免 | 欧美在线一区亚洲| 真人做人爱边吃奶动态| 黄片小视频在线播放| 国产日本99.免费观看| 一个人看的www免费观看视频| 亚洲国产欧洲综合997久久,| 一级av片app| 中文亚洲av片在线观看爽| 色综合站精品国产| 国产在视频线在精品| 91午夜精品亚洲一区二区三区 | 免费黄网站久久成人精品 | 一级av片app| 永久网站在线| 欧美一区二区亚洲| 可以在线观看毛片的网站| 欧美在线黄色| 午夜激情欧美在线| 999久久久精品免费观看国产| 乱人视频在线观看| 啦啦啦韩国在线观看视频| 日韩中字成人| 日本撒尿小便嘘嘘汇集6| 国产精品综合久久久久久久免费| 成人午夜高清在线视频| 日韩欧美在线乱码| 亚洲,欧美精品.| 国产精品亚洲av一区麻豆| 一区二区三区激情视频| 黄色视频,在线免费观看| 亚洲天堂国产精品一区在线| av中文乱码字幕在线| 亚洲精华国产精华精| 国产欧美日韩精品一区二区| 高清日韩中文字幕在线| 精品日产1卡2卡| 成人av一区二区三区在线看| 中国美女看黄片| 久久久久久久久中文| 国产免费av片在线观看野外av| 国产中年淑女户外野战色| .国产精品久久| 90打野战视频偷拍视频| 男女那种视频在线观看| 搡女人真爽免费视频火全软件 | 噜噜噜噜噜久久久久久91| 尤物成人国产欧美一区二区三区| 亚洲欧美日韩无卡精品| 午夜激情福利司机影院| 在线观看66精品国产| 乱人视频在线观看| 日本一本二区三区精品| 久久婷婷人人爽人人干人人爱| 他把我摸到了高潮在线观看| 网址你懂的国产日韩在线| 婷婷精品国产亚洲av在线| 久久久久久国产a免费观看| 18禁黄网站禁片午夜丰满| 蜜桃久久精品国产亚洲av| 精品人妻1区二区| 丰满乱子伦码专区| 禁无遮挡网站| 国产成人a区在线观看| 中文资源天堂在线| 日韩中字成人| 久久午夜福利片| 亚洲久久久久久中文字幕| 亚洲av二区三区四区| 国产蜜桃级精品一区二区三区| 桃红色精品国产亚洲av| 欧美高清成人免费视频www| 国产真实伦视频高清在线观看 | 日本免费一区二区三区高清不卡| 怎么达到女性高潮| 国产精品久久视频播放| 舔av片在线| 国产精品乱码一区二三区的特点| 色5月婷婷丁香| 亚洲av五月六月丁香网| 亚洲成人精品中文字幕电影| 国产私拍福利视频在线观看| 成人午夜高清在线视频| 精品熟女少妇八av免费久了| 亚洲在线观看片| 成年版毛片免费区| 国产一区二区在线观看日韩| 丰满的人妻完整版| 男插女下体视频免费在线播放| 精品久久久久久成人av| 99久久99久久久精品蜜桃| 亚洲 欧美 日韩 在线 免费| 免费在线观看影片大全网站| 国产精品综合久久久久久久免费| 国产精品综合久久久久久久免费| 亚洲自偷自拍三级| 亚洲av第一区精品v没综合| 亚洲成人久久爱视频| 中文在线观看免费www的网站| 国语自产精品视频在线第100页| 无遮挡黄片免费观看| 18禁在线播放成人免费| 97超级碰碰碰精品色视频在线观看| 嫁个100分男人电影在线观看| 日本在线视频免费播放| 99久久九九国产精品国产免费| av欧美777| 99热这里只有是精品在线观看 | 在现免费观看毛片| 麻豆成人av在线观看| 久久精品综合一区二区三区| 在线播放国产精品三级| 欧美一区二区精品小视频在线| 热99在线观看视频| 黄色女人牲交| 黄色女人牲交| 狠狠狠狠99中文字幕| aaaaa片日本免费| 国产色婷婷99| av福利片在线观看| 国产三级在线视频| 俄罗斯特黄特色一大片| av专区在线播放| 免费大片18禁| 欧美国产日韩亚洲一区| 欧美在线黄色| 日本撒尿小便嘘嘘汇集6| 日本黄色视频三级网站网址| 18美女黄网站色大片免费观看| 一本综合久久免费| 露出奶头的视频| 亚洲三级黄色毛片| 88av欧美| 在线播放国产精品三级| 久久精品国产亚洲av香蕉五月| 成人鲁丝片一二三区免费| 日本黄色视频三级网站网址| 男人的好看免费观看在线视频| 久久久久国产精品人妻aⅴ院| 噜噜噜噜噜久久久久久91| 久久久精品大字幕| 国产蜜桃级精品一区二区三区| 国内精品久久久久久久电影| 中文字幕av成人在线电影| 男插女下体视频免费在线播放| 亚洲经典国产精华液单 | 美女被艹到高潮喷水动态| 婷婷六月久久综合丁香| 99热这里只有精品一区| www日本黄色视频网| 久久久久性生活片| 999久久久精品免费观看国产| 免费人成视频x8x8入口观看| 又黄又爽又免费观看的视频| 日本a在线网址| 免费av观看视频| 亚洲18禁久久av| 在线播放国产精品三级| 欧美午夜高清在线| 在线播放国产精品三级| 久久久久久久久大av| 亚洲美女搞黄在线观看 | 精品人妻偷拍中文字幕| 亚洲人与动物交配视频| 国产精品久久久久久亚洲av鲁大| 亚洲人与动物交配视频| 日韩精品青青久久久久久| 国产欧美日韩一区二区精品| 国产高潮美女av| 国产亚洲精品久久久com| 波野结衣二区三区在线| 午夜激情欧美在线| 国产高清视频在线播放一区| 日韩有码中文字幕| 国内少妇人妻偷人精品xxx网站| 久久天躁狠狠躁夜夜2o2o| 又黄又爽又免费观看的视频| av视频在线观看入口| 色综合婷婷激情| 丰满的人妻完整版| 观看免费一级毛片| 国产高清视频在线观看网站| 国内精品久久久久精免费| 欧美黑人欧美精品刺激| 国产成人a区在线观看| 亚洲综合色惰| 国产综合懂色| 亚洲,欧美精品.| 精品久久久久久久久久久久久| 男女下面进入的视频免费午夜| 一级av片app| 人人妻人人澡欧美一区二区| 色视频www国产| 99国产极品粉嫩在线观看| 一进一出抽搐动态| 嫩草影视91久久| 国产真实乱freesex| 不卡一级毛片| 麻豆成人午夜福利视频| 精品一区二区三区视频在线观看免费| a在线观看视频网站| 黄色一级大片看看| 久久亚洲真实| 又紧又爽又黄一区二区| 俺也久久电影网| 日本黄色视频三级网站网址| 久久久国产成人免费| 国内精品美女久久久久久| 午夜福利视频1000在线观看| 国产一级毛片七仙女欲春2| 国产高清激情床上av| 一二三四社区在线视频社区8| а√天堂www在线а√下载| 欧美激情在线99| 亚洲人成电影免费在线| 亚洲av电影不卡..在线观看| 成人永久免费在线观看视频| 亚洲精品成人久久久久久| 99久久无色码亚洲精品果冻| 日本一本二区三区精品| 中文字幕av成人在线电影| 亚洲av熟女| 淫妇啪啪啪对白视频| 成人国产一区最新在线观看| 国产伦人伦偷精品视频| 国产麻豆成人av免费视频| 看免费av毛片| 精品人妻视频免费看| 一本久久中文字幕| 成人亚洲精品av一区二区| 国产精品电影一区二区三区| 欧美日韩瑟瑟在线播放| 久久这里只有精品中国| 男插女下体视频免费在线播放| 亚洲av成人精品一区久久| 悠悠久久av| 国产伦人伦偷精品视频| 国产高清三级在线| 久久精品人妻少妇| 精品免费久久久久久久清纯| 一本精品99久久精品77| 久久热精品热| 精品久久久久久久末码| 国产伦精品一区二区三区四那| 少妇被粗大猛烈的视频| 国产成人aa在线观看| 老熟妇乱子伦视频在线观看| 国产黄a三级三级三级人| 中文字幕精品亚洲无线码一区| 99久久久亚洲精品蜜臀av| 能在线免费观看的黄片| 嫩草影视91久久| 欧美黄色淫秽网站| 久久精品国产亚洲av香蕉五月| 久久人妻av系列| 久久婷婷人人爽人人干人人爱| av在线老鸭窝| 日本精品一区二区三区蜜桃| 看片在线看免费视频| 我要看日韩黄色一级片| av女优亚洲男人天堂| 日韩av在线大香蕉| 国产午夜精品论理片| a级毛片a级免费在线| 免费观看精品视频网站| 美女高潮喷水抽搐中文字幕| 亚洲第一电影网av| 两个人的视频大全免费| 亚洲av免费高清在线观看| 小说图片视频综合网站| 嫩草影院新地址| 午夜日韩欧美国产| 精品久久国产蜜桃| 丁香六月欧美| 国产精品免费一区二区三区在线| 极品教师在线视频| 国内少妇人妻偷人精品xxx网站| 18美女黄网站色大片免费观看| 亚洲欧美日韩东京热| 露出奶头的视频| av专区在线播放| www.999成人在线观看| 国产大屁股一区二区在线视频| 午夜福利欧美成人| 中出人妻视频一区二区| 亚洲精品亚洲一区二区| 久久久国产成人免费| 1000部很黄的大片| 日韩亚洲欧美综合| 午夜福利在线在线| 校园春色视频在线观看| 一二三四社区在线视频社区8| 韩国av一区二区三区四区| 最近中文字幕高清免费大全6 | 偷拍熟女少妇极品色| 级片在线观看| 久久精品国产清高在天天线| 特大巨黑吊av在线直播| 成人毛片a级毛片在线播放| 老鸭窝网址在线观看| 免费看光身美女| 免费观看人在逋| 好看av亚洲va欧美ⅴa在| 久久久久久国产a免费观看| 免费在线观看日本一区| 国产精品一区二区三区四区久久| 老女人水多毛片| 一进一出好大好爽视频| 99在线视频只有这里精品首页| 色视频www国产| 午夜福利高清视频| 久久午夜亚洲精品久久| 在线观看免费视频日本深夜| 久久6这里有精品| 成人永久免费在线观看视频| 99国产综合亚洲精品| 看黄色毛片网站| 国产一区二区三区在线臀色熟女| 国产精品人妻久久久久久| 久久精品国产亚洲av香蕉五月| 欧美极品一区二区三区四区| 在线免费观看的www视频| 国产精品人妻久久久久久| 毛片一级片免费看久久久久 | 国产视频一区二区在线看| 三级毛片av免费| 一a级毛片在线观看| 十八禁国产超污无遮挡网站| 免费看美女性在线毛片视频| 久久国产精品影院| 国内精品久久久久久久电影| 一进一出好大好爽视频| 国产在线男女| 精品久久久久久久末码| 波多野结衣高清无吗| 又爽又黄无遮挡网站| 99热只有精品国产| 韩国av一区二区三区四区| 成人午夜高清在线视频| 一个人看的www免费观看视频| 啪啪无遮挡十八禁网站| 国内精品一区二区在线观看| 制服丝袜大香蕉在线| 亚洲国产日韩欧美精品在线观看| 久久精品影院6| 高潮久久久久久久久久久不卡| 亚洲av美国av| 啦啦啦韩国在线观看视频| 国产一区二区亚洲精品在线观看| 丁香六月欧美| 久久久精品欧美日韩精品| 特级一级黄色大片| 91在线精品国自产拍蜜月| 特级一级黄色大片| 日韩av在线大香蕉| 久久热精品热| 色尼玛亚洲综合影院| 成年女人永久免费观看视频| 激情在线观看视频在线高清| 亚洲人与动物交配视频| 国产精品久久久久久精品电影| 精品久久久久久久人妻蜜臀av| 欧美成人a在线观看| 亚洲精品亚洲一区二区| 精品人妻一区二区三区麻豆 | 日韩精品青青久久久久久| 国产久久久一区二区三区| 草草在线视频免费看| 免费一级毛片在线播放高清视频| 日本 欧美在线| 国产爱豆传媒在线观看| 久久伊人香网站| 丰满乱子伦码专区| 亚洲精品一卡2卡三卡4卡5卡| 在线免费观看不下载黄p国产 | 亚洲最大成人手机在线| 日韩成人在线观看一区二区三区| 国内精品久久久久精免费| 女人十人毛片免费观看3o分钟| 欧美三级亚洲精品| 国产成人欧美在线观看| 亚洲国产欧洲综合997久久,| 国产精品国产高清国产av| 18禁黄网站禁片午夜丰满| 色综合亚洲欧美另类图片| 色5月婷婷丁香| 久久九九热精品免费| 亚洲国产精品sss在线观看| 欧美极品一区二区三区四区| 他把我摸到了高潮在线观看| 99热这里只有是精品50| 免费av毛片视频| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | 狠狠狠狠99中文字幕| 久久国产精品影院| 最近在线观看免费完整版| 在线观看av片永久免费下载| 在线看三级毛片| 男人舔女人下体高潮全视频| 丰满人妻熟妇乱又伦精品不卡| 亚洲av成人av| 日韩精品中文字幕看吧| 在线免费观看不下载黄p国产 | 亚洲av免费高清在线观看| 一级a爱片免费观看的视频| 免费一级毛片在线播放高清视频| 日韩欧美精品免费久久 | 午夜久久久久精精品| 国产伦人伦偷精品视频| 日本免费一区二区三区高清不卡| 精品人妻一区二区三区麻豆 | 日本 av在线| 中文字幕av在线有码专区| 亚洲欧美清纯卡通| 午夜福利欧美成人| netflix在线观看网站| 禁无遮挡网站| eeuss影院久久| 淫妇啪啪啪对白视频| 最近视频中文字幕2019在线8| 99国产精品一区二区三区| 嫩草影院入口| 中文亚洲av片在线观看爽| 久久久国产成人免费| 午夜免费成人在线视频| 婷婷丁香在线五月| 精品乱码久久久久久99久播| 窝窝影院91人妻| 少妇裸体淫交视频免费看高清| 老熟妇乱子伦视频在线观看| 一本一本综合久久| 欧美日本亚洲视频在线播放| 国产在视频线在精品|