• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    協(xié)作多智能體深度強(qiáng)化學(xué)習(xí)研究綜述

    2022-12-29 09:54:00鄒啟杰蔣亞軍李文雪張汝波
    航空兵器 2022年6期
    關(guān)鍵詞:動(dòng)作智能環(huán)境

    鄒啟杰,蔣亞軍,高 兵*,李文雪,張汝波

    (1.大連大學(xué) 信息工程學(xué)院,遼寧 大連 116000;2.大連民族大學(xué) 機(jī)電工程學(xué)院,遼寧 大連 116000)

    0 引 言

    多智能體系統(tǒng)(Multi-Agent System, MAS)是由多個(gè)智能體與環(huán)境交互組成的分布式?jīng)Q策系統(tǒng)[1]。20世紀(jì)70年代以來(lái),研究者在MAS領(lǐng)域展開(kāi)了眾多的研究,目的在于建立一個(gè)擁有特定自主等級(jí)和自主學(xué)習(xí)能力的群體智能決策系統(tǒng)[2]。MAS信息共享、分布式計(jì)算和協(xié)同執(zhí)行的特點(diǎn)在現(xiàn)實(shí)生活中有著廣泛的應(yīng)用需求,如在軍事、工業(yè)、交通運(yùn)輸?shù)缺姸囝I(lǐng)域[3],MAS可以高效地完成群體性自主決策任務(wù)[4]。此外,資源調(diào)度、商業(yè)競(jìng)爭(zhēng)、金融分析、群體心理學(xué)等一些復(fù)雜的社會(huì)性問(wèn)題同樣可以抽象為多智能體模型,進(jìn)而解決其智能優(yōu)化問(wèn)題。

    最初的群體智能算法靈感源自仿生學(xué),如蟻群算法、粒子群算法等啟發(fā)式算法。然而,仿生集群智能方法中單個(gè)智能體智能決策水平十分有限,智能體集群執(zhí)行協(xié)同任務(wù)較為單一,不能更好地適應(yīng)復(fù)雜未知任務(wù)[5]。在決策優(yōu)化問(wèn)題中,強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)可以有效解決序貫決策問(wèn)題[6-7],因此,多智能體強(qiáng)化學(xué)習(xí)(Multi-Agent Reinforcement Learning, MARL)成為廣大MAS研究者重點(diǎn)關(guān)注的領(lǐng)域,極大推動(dòng)了MARL模型不斷優(yōu)化[8]。

    隨著研究的不斷深入,MARL一方面提升了群體智能決策水平,另一方面也豐富了多智能體執(zhí)行任務(wù)的類(lèi)型。目前,根據(jù)多智能體的優(yōu)化目標(biāo)不同,可以將MARL中智能體的學(xué)習(xí)任務(wù)分為三種類(lèi)型:完全協(xié)作、完全競(jìng)爭(zhēng)和混合環(huán)境[9-10]。多智能體合作往往在實(shí)際生產(chǎn)和作業(yè)過(guò)程中具有更廣泛的應(yīng)用價(jià)值,其中狹義的學(xué)習(xí)合作指智能體僅通過(guò)局部觀測(cè)來(lái)學(xué)習(xí)協(xié)同,以達(dá)成共同目標(biāo)。另外,盡管多智能體通信機(jī)制可以更好地促進(jìn)協(xié)作策略的高效率執(zhí)行,但是一方面顯式通信交流是以無(wú)通信下的協(xié)作策略研究為基礎(chǔ),另一方面通信占據(jù)一定的計(jì)算成本和資源,使得大部分應(yīng)用場(chǎng)景并不適用。因此,無(wú)通信環(huán)境下的協(xié)作多智能體應(yīng)用前景廣泛。由于MARL在無(wú)通信環(huán)境下可以通過(guò)狀態(tài)-動(dòng)作信息參數(shù)共享等方式獲取全局信息,本文將這種智能體之間無(wú)直接通信的環(huán)境稱(chēng)為隱式通信環(huán)境。本文對(duì)MARL領(lǐng)域中隱式通信下的協(xié)作型多智能體強(qiáng)化學(xué)習(xí)研究成果進(jìn)行歸納,側(cè)重于學(xué)習(xí)合作場(chǎng)景,同時(shí)不涉及額外的顯式通信。

    1 多智能體強(qiáng)化學(xué)習(xí)

    MARL是指小規(guī)?;虼笠?guī)模具有自主控制能力和自主決策等級(jí)的智能體集合,通過(guò)RL方法解決序貫決策問(wèn)題,使得MAS達(dá)到任務(wù)需求最優(yōu)均衡狀態(tài)[11]。由于多智能體強(qiáng)化學(xué)習(xí)往往涉及大量的特征信息,通常采用深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)逼近目標(biāo)函數(shù),因此多智能體強(qiáng)化學(xué)習(xí)一般指多智能體深度強(qiáng)化學(xué)習(xí),簡(jiǎn)稱(chēng)采用MARL,本文沿用此習(xí)慣。

    圖1 MARL結(jié)構(gòu)圖

    MARL聯(lián)合值函數(shù)表示為

    (1)

    聯(lián)合策略就是組成聯(lián)合值函數(shù)的動(dòng)作集合,即

    (2)

    在無(wú)通信的任務(wù)場(chǎng)景中,MARL遵循以馬爾科夫決策過(guò)程(Markov Decision Process, MDP)為基礎(chǔ)的隨機(jī)博弈理論。在學(xué)習(xí)決策過(guò)程中,每個(gè)智能體僅能感知周?chē)h(huán)境,并不能覆蓋整體環(huán)境。因此,MARL問(wèn)題遵循分布式部分可觀測(cè)馬爾科夫決策過(guò)程(Decentralized Partially Observable Markov Decision Process, Dec-POMDP)的模型,可以描述為一個(gè)七元組(S,A,P,O,Ω,γ,R)。其中,智能體:i∈I={1, 2, …,N};狀態(tài):s∈S;動(dòng)作:ai∈A,a∈AN;轉(zhuǎn)移函數(shù):P(s’|s,a);獎(jiǎng)勵(lì):R(s,a);觀測(cè):oi∈Ω;觀測(cè)函數(shù):oi∈Ω~O(s,i)。

    2 MARL研究進(jìn)展

    在多智能體學(xué)習(xí)合作的研究領(lǐng)域,本文將深度強(qiáng)化學(xué)習(xí)研究方法分為三個(gè)類(lèi)別:基于價(jià)值分解(Value Decomposition, VD)的方法、基于Actor-Critic(AC)的方法和基于經(jīng)驗(yàn)回放(Experience Replay, ER)的方法,如表1所示。

    表1 MARL研究分類(lèi)

    2.1 基于價(jià)值分解的方法

    初期的MARL方法中,智能體的學(xué)習(xí)方式主要是完全分布式學(xué)習(xí)和完全集中式學(xué)習(xí)。在完全分布式學(xué)習(xí)方法中,每個(gè)智能體學(xué)習(xí)自己的值函數(shù),并根據(jù)局部觀測(cè)oi輸出Q值。分布式學(xué)習(xí)方式面臨的問(wèn)題是環(huán)境對(duì)系統(tǒng)的聯(lián)合獎(jiǎng)勵(lì)無(wú)法合理有效地分配到每個(gè)智能體,致使智能體的學(xué)習(xí)環(huán)境不穩(wěn)定,收斂性也得不到保證。完全集中式學(xué)習(xí)方法則是把MAS看作統(tǒng)一的智能體集合進(jìn)行學(xué)習(xí),聯(lián)合網(wǎng)絡(luò)把所有智能體觀測(cè)歷史O作為輸入,輸出聯(lián)合Q值,即Qtot。這將面臨學(xué)習(xí)規(guī)模嚴(yán)重受限問(wèn)題,即使采用神經(jīng)網(wǎng)絡(luò)進(jìn)行值函數(shù)擬合,也無(wú)法解決隨著智能體數(shù)量增多,智能體狀態(tài)S和動(dòng)作A空間會(huì)呈現(xiàn)指數(shù)級(jí)增長(zhǎng)困難的問(wèn)題,因此單純的集中式或分布式學(xué)習(xí)無(wú)法進(jìn)行智能體數(shù)量的大規(guī)模擴(kuò)展。

    近來(lái),價(jià)值函數(shù)分解方法采取集中訓(xùn)練、分散執(zhí)行(Centralized Training and Decentralized Execution, CTDE)的范式,學(xué)習(xí)一個(gè)集中但可分解的Q值函數(shù)。價(jià)值分解方法通過(guò)維護(hù)聯(lián)合行為價(jià)值函數(shù),一方面可以避免完全集中式學(xué)習(xí)過(guò)程中由智能體增加而出現(xiàn)的特征維數(shù)爆炸問(wèn)題,以及完全分散式學(xué)習(xí)的協(xié)同性低下問(wèn)題,因此價(jià)值分解的方法在擴(kuò)展性方面具有結(jié)構(gòu)性?xún)?yōu)勢(shì);另一方面,智能體保留各自的Q值,使得獎(jiǎng)勵(lì)可以按照Q值進(jìn)行分配,從而達(dá)到有效的信度分配。因此,價(jià)值分解方法在擴(kuò)展性和信度分配問(wèn)題上具備天然的結(jié)構(gòu)性?xún)?yōu)勢(shì)。最新的價(jià)值分解方法研究進(jìn)展,如圖2所示。

    圖2 價(jià)值分解方法研究進(jìn)展

    為了保證多智能體Q學(xué)習(xí)的CTDE范式的有效性,聯(lián)合貪婪動(dòng)作應(yīng)該等同于各智能體的個(gè)體貪婪動(dòng)作的集合,被稱(chēng)為IGM(Individual-Global-Max)原則[12],即

    (3)

    初期,VDN將聯(lián)合動(dòng)作價(jià)值函數(shù)轉(zhuǎn)化為單個(gè)動(dòng)作價(jià)值函數(shù)的加性分解[13],其基本思想是中心化地訓(xùn)練一個(gè)聯(lián)合的Q網(wǎng)絡(luò),這個(gè)聯(lián)合的網(wǎng)絡(luò)是由所有智能體局部的Qi網(wǎng)絡(luò)求和得到

    Q((h1,h2, …,hN),(a1,a2, …,aN))≈

    (4)

    然而,VDN可加性的約束條件必然使得其在大部分非可加性的情況下無(wú)法正常收斂。

    QMIX方法是對(duì)VDN的改進(jìn),采用Mixing Network以非線性的方式將局部值進(jìn)行組合,使得聯(lián)合動(dòng)作價(jià)值函數(shù)表示為一個(gè)單調(diào)函數(shù)的形式,如圖3所示。每個(gè)智能體學(xué)習(xí)一個(gè)局部Q值函數(shù)Qi,訓(xùn)練時(shí)通過(guò)Mixing Network聯(lián)合生成一個(gè)網(wǎng)絡(luò)輸出Qtot。分布式執(zhí)行時(shí),智能體去除Mixing Network,僅保留自己的值函數(shù)網(wǎng)絡(luò),并通過(guò)值函數(shù)網(wǎng)絡(luò)進(jìn)行動(dòng)作的選擇,并輸出到環(huán)境進(jìn)行交互。

    圖3 價(jià)值分解方法結(jié)構(gòu)圖

    (5)

    由于QMIX方法的Mixing Network是一個(gè)非線性網(wǎng)絡(luò),其表達(dá)能力因而超過(guò)VDN。實(shí)際上,這個(gè)約束條件使得Mixing Network關(guān)于每一個(gè)Qi的權(quán)重必須非負(fù),因此,單調(diào)性的限制條件使得QMIX方法無(wú)法擬合復(fù)雜收斂場(chǎng)景。

    上述方法采用Qi近似得到Qtot的思路,但是擬合后的Qtot仍和真實(shí)的Qtot存在偏差,因此另外一個(gè)途徑是從真實(shí)的Qtot分解為局部的Qi。

    圖4 QTRAN結(jié)構(gòu)圖

    最近,QTRAN方法的研究團(tuán)隊(duì)對(duì)其進(jìn)行改進(jìn),提出QTRAN++方法,增加優(yōu)化約束條件,明確地指定了最優(yōu)動(dòng)作組成的Qtot,當(dāng)前最大Qtot,以及得到的近似Qtot之間的大小關(guān)系[15],如圖5所示。改進(jìn)后的QTRAN++方法深度分析了最優(yōu)動(dòng)作序列的關(guān)系,明確了Q函數(shù)的更新目標(biāo),減輕了Qtot和Qi的訓(xùn)練壓力。

    圖5 QTRAN++結(jié)構(gòu)圖

    Qatten方法提出了一種基于多頭注意力機(jī)制(Multi-Head Attention)的Q值混合網(wǎng)絡(luò)來(lái)近似Qtot值和分解Qi值[16],如圖6所示。Qatten方法從理論上系統(tǒng)推導(dǎo)出了全局分解為局部的過(guò)程,為價(jià)值分解方法提供了充實(shí)的理論依據(jù),彌補(bǔ)了QMIX和VDN等方法在理論上的不足。

    圖6 Qatten結(jié)構(gòu)圖

    ROMA方法將多智能體協(xié)同過(guò)程的智能個(gè)體的任務(wù)差異性加入MARL方法之中,通過(guò)“角色”來(lái)描述,智能體的價(jià)值函數(shù)或策略依賴(lài)于學(xué)習(xí)的“角色”,不同“角色”負(fù)責(zé)執(zhí)行不同的子任務(wù),并實(shí)現(xiàn)智能體之間的自適應(yīng)共享學(xué)習(xí)機(jī)制[17],如圖7所示。

    圖7 ROMA結(jié)構(gòu)圖

    綜上,相較于其他MARL方法,價(jià)值分解的方法近年來(lái)取得了較多的研究成果并日趨成熟。基于價(jià)值分解的MARL方法具有明顯優(yōu)勢(shì):一方面,價(jià)值分解的方法在智能體數(shù)據(jù)的擴(kuò)展性方面具有結(jié)構(gòu)性?xún)?yōu)勢(shì),避免了完全集中式學(xué)習(xí)過(guò)程中因智能體增加而出現(xiàn)的特征維數(shù)爆炸問(wèn)題,以及完全分散式學(xué)習(xí)的協(xié)同性低下問(wèn)題;另一方面,采用效用函數(shù)細(xì)化值函數(shù)的方式,簡(jiǎn)化聯(lián)合行為價(jià)值函數(shù)的訓(xùn)練方式,同時(shí)具備針對(duì)性,可以有效解決多智能體信度分配問(wèn)題。

    然而,價(jià)值分解的方法也有其明顯的不足之處。首先,價(jià)值分解的方法在處理環(huán)境非平穩(wěn)性問(wèn)題上的表現(xiàn)不盡如人意;其次,受限于離散的動(dòng)作空間,價(jià)值分解方法無(wú)法在連續(xù)的動(dòng)作空間中有效地學(xué)習(xí);另外,價(jià)值分解方法無(wú)法同時(shí)滿(mǎn)足off-policy學(xué)習(xí)、值函數(shù)近似和自舉學(xué)習(xí),缺乏穩(wěn)定性;最后,一些方法假定的約束條件使得這些方法在大部分情況下無(wú)法有效收斂。

    2.2 基于Actor-Critic的方法

    MARL的現(xiàn)有研究中,通常采用集中Critic網(wǎng)絡(luò)和分散Actor網(wǎng)絡(luò)(Centralized Critic Decentralized Actor, CCDA)結(jié)構(gòu),如圖8所示。CCDA方式屬于CTDE范式的一種,可以通過(guò)學(xué)習(xí)中心化Critic網(wǎng)絡(luò)將所有智能體的動(dòng)作-狀態(tài)信息作為輸入,輸出全局Q值;同時(shí)每個(gè)智能體學(xué)習(xí)獨(dú)立的Actor網(wǎng)絡(luò)進(jìn)行分散式的執(zhí)行。因此,這種結(jié)構(gòu)擁有突出的抗環(huán)境非平穩(wěn)性的能力。

    圖8 CCDA結(jié)構(gòu)圖

    然而,集中式的Critic網(wǎng)絡(luò)輸入網(wǎng)絡(luò)的同時(shí),動(dòng)作-狀態(tài)空間維度呈指數(shù)級(jí)上升,當(dāng)智能體數(shù)量增大時(shí),過(guò)高的維度空間提升了函數(shù)擬合難度,因此系統(tǒng)可擴(kuò)展性較差;Critic網(wǎng)絡(luò)輸入全局狀態(tài)信息,無(wú)法將聯(lián)合獎(jiǎng)勵(lì)按信度分配到每個(gè)智能體上,因此, 缺乏較好的信度分配機(jī)制。

    OpenAI首先提出將DDPG方法擴(kuò)展到多智能體領(lǐng)域并進(jìn)行改進(jìn),提出最初的MADDPG算法,如圖9所示。MADDPG 算法假定每一個(gè)智能體擁有獨(dú)立Actor網(wǎng)絡(luò)以及Critic網(wǎng)絡(luò),并假定智能體個(gè)體可以根據(jù)任務(wù)需求設(shè)計(jì)特有的回報(bào)函數(shù),這使得MADDPG算法可以同時(shí)解決協(xié)作環(huán)境、競(jìng)爭(zhēng)環(huán)境以及混合環(huán)境下的多智能體問(wèn)題[18]。MADDPG算法學(xué)習(xí)連續(xù)動(dòng)作空間中的確定性策略,并使用以下更新策略的梯度:

    圖9 MADDPG結(jié)構(gòu)圖

    (6)

    從MADDPG算法的網(wǎng)絡(luò)結(jié)構(gòu)和梯度更新策略來(lái)看,每個(gè)Critic網(wǎng)絡(luò)可將其余所有智能體的局部觀察以及動(dòng)作作為輸入,以消除環(huán)境非平穩(wěn)性,有效地縮小方差。從每個(gè)智能體的Critic網(wǎng)絡(luò)輸入環(huán)境觀察數(shù)據(jù)不難發(fā)現(xiàn),每個(gè)智能體實(shí)質(zhì)仍然屬于中心化訓(xùn)練,因此MADDPG算法并非完全分布式的訓(xùn)練。

    盡管MADDPG算法實(shí)現(xiàn)了連續(xù)動(dòng)作空間中高效的學(xué)習(xí),卻沒(méi)能解決針對(duì)完全合作環(huán)境下的“信用分配”(Credit Assignment)問(wèn)題。COMA方法的顯著特點(diǎn)是提出反事實(shí)基線以解決“信度分配”問(wèn)題,防止智能個(gè)體學(xué)習(xí)的惰性。基線計(jì)算通過(guò)邊緣化當(dāng)前智能體的行動(dòng),同時(shí)保持其他智能體的行動(dòng)不變[19-20]。而后,通過(guò)優(yōu)勢(shì)函數(shù)計(jì)算當(dāng)前Q值和反事實(shí)基線的差異,作為智能體當(dāng)前貢獻(xiàn)度[21-22]。

    MAAC算法引入注意力機(jī)制,求解其他智能體對(duì)于該智能體的貢獻(xiàn),從而選擇性地輸入其他智能體的信息[23-24]。MAAC算法既解決了Critic網(wǎng)絡(luò)信息維度指數(shù)級(jí)增長(zhǎng)問(wèn)題,又使得智能體之間相互影響的差異性得以體現(xiàn),如圖10所示。

    圖10 MAAC結(jié)構(gòu)圖

    DOP(Off-Policy Multi-Agent Decomposed Policy Gradient)方法將基于價(jià)值分解的思想引入,定義一個(gè)線性分解的Critic網(wǎng)絡(luò),將集中式的Critic網(wǎng)絡(luò)抽象分解成多個(gè)Critic網(wǎng)絡(luò),再通過(guò)類(lèi)似VDN的方式累加得到Qtot[25],如圖11所示。

    圖11 DOP結(jié)構(gòu)圖

    綜上,Actor-Critic方法簇建立一個(gè)獨(dú)立或共享的Critic網(wǎng)絡(luò),利用輸入的全局觀測(cè)信息和聯(lián)合策略解決其訓(xùn)練問(wèn)題。這樣能夠有效地解決多智能體學(xué)習(xí)的非平穩(wěn)性問(wèn)題,突破了價(jià)值分解理論在離散動(dòng)作空間的局限性,可以在多智能體連續(xù)動(dòng)作空間發(fā)揮作用。

    相較于價(jià)值分解的方法,基于Actor-Critic的方法利用Actor-Critic結(jié)構(gòu)優(yōu)勢(shì),分散式的Actor網(wǎng)絡(luò)可以直接根據(jù)智能體自身觀測(cè)輸出策略,有利于隱式通信下多智能體分布式的執(zhí)行。另外,由于基于價(jià)值的強(qiáng)化學(xué)習(xí)方法在處理高維度動(dòng)作空間面臨困境,甚至癱瘓,而多智能體中數(shù)量增加導(dǎo)致的維數(shù)爆炸更甚,因此Actor-Critic的結(jié)構(gòu)優(yōu)勢(shì)在未來(lái)MARL的研究中將具有很好的前景。

    然而,由于集中式輸入的Critic網(wǎng)絡(luò)面臨由狀態(tài)數(shù)量劇增、梯度下降方向正確率大幅降低而引起的維度爆炸問(wèn)題,因此Actor-Critic方法無(wú)法有效地?cái)U(kuò)展到復(fù)雜任務(wù)或大規(guī)模的多智體系統(tǒng)中。同時(shí),此類(lèi)方法缺少信度分配機(jī)制,無(wú)法對(duì)爆炸的信息實(shí)施有效過(guò)濾,而全局Critic指導(dǎo)個(gè)體策略梯度存在困難,多智能體學(xué)習(xí)難以收斂。現(xiàn)有信度分配的解決方案中,盡管利用優(yōu)勢(shì)函數(shù)等方法求解智能體貢獻(xiàn),如COMA,然而實(shí)際表現(xiàn)不佳。最后,盡管多智能體Actor-Critic方法擁有良好的結(jié)構(gòu)性?xún)?yōu)勢(shì),但是目前的研究相較于價(jià)值分解方法不夠成熟,實(shí)驗(yàn)表現(xiàn)略遜,因此Actor-Critic方法存在較大的研究空間。

    2.3 基于經(jīng)驗(yàn)回放的方法

    獨(dú)立Q學(xué)習(xí)(Independent Q-learning, IQL)是MARL方法中最初的方法,指每個(gè)智能體都獨(dú)立地學(xué)習(xí)自己的策略,而將其他智能體視為環(huán)境的一部分[26]。然而,單純的IQL方式面臨環(huán)境非平穩(wěn)性問(wèn)題,致使MAS的收斂性能無(wú)法得到保證。隨著深度強(qiáng)化學(xué)習(xí)的發(fā)展,經(jīng)驗(yàn)回放機(jī)制在傳統(tǒng)強(qiáng)化學(xué)習(xí)處理環(huán)境非平穩(wěn)和稀疏等困難中得到較好效果,于是眾多研究者將經(jīng)驗(yàn)回放機(jī)制引入MARL方法中,以克服環(huán)境非平穩(wěn)帶來(lái)的狀態(tài)轉(zhuǎn)移連續(xù)性問(wèn)題,智能體之間通過(guò)經(jīng)驗(yàn)共享而實(shí)現(xiàn)協(xié)同目標(biāo)。

    經(jīng)驗(yàn)回放方法是將系統(tǒng)探索環(huán)境得到的數(shù)據(jù)存儲(chǔ)起來(lái),然后通過(guò)隨機(jī)采樣更新深度神經(jīng)網(wǎng)絡(luò)參數(shù)。深度強(qiáng)化學(xué)習(xí)中的神經(jīng)網(wǎng)絡(luò)作為監(jiān)督學(xué)習(xí)模型,需要數(shù)據(jù)滿(mǎn)足獨(dú)立同分布。另外,由于強(qiáng)化學(xué)習(xí)在馬爾科夫決策過(guò)程中產(chǎn)生的探索數(shù)據(jù)是前后關(guān)聯(lián)的,經(jīng)驗(yàn)回放方法通過(guò)數(shù)據(jù)的存儲(chǔ)和隨機(jī)采樣訓(xùn)練,打破了數(shù)據(jù)相關(guān)性,并且提升重要數(shù)據(jù)的利用率,降低參數(shù)更新的方差。如隨機(jī)優(yōu)先采樣保證在一個(gè)轉(zhuǎn)移優(yōu)先中的采樣概率是單一的,轉(zhuǎn)移i的采樣概率為

    (7)

    式中:α為確定使用的優(yōu)先級(jí),當(dāng)α=0時(shí),為均勻采樣。

    文獻(xiàn)[27]提出的穩(wěn)定經(jīng)驗(yàn)回放算法,將重要性采樣(Importance Sampling)和指紋(Fingerprint)引入MARL方法中,解決IQL與深度學(xué)習(xí)的經(jīng)驗(yàn)回放兼容性問(wèn)題。重要性采樣自然衰減過(guò)時(shí)的數(shù)據(jù),根據(jù)指紋調(diào)節(jié)每個(gè)智能體的值函數(shù),消除時(shí)間引起的數(shù)據(jù)歧義性。

    盡管穩(wěn)定經(jīng)驗(yàn)回放方法將經(jīng)驗(yàn)共享的思想引入MARL并取得較好的成果,但其前提條件是所有動(dòng)作更新頻率相等,Q-learning中的動(dòng)作值是異步更新的,因此動(dòng)作值更新函數(shù)的導(dǎo)數(shù)與實(shí)際相差一個(gè)因子,頻率調(diào)整Q學(xué)習(xí)(Frequency Adjusted Q-learning,F(xiàn)AQ)方法可以融合進(jìn)化模型,其動(dòng)作值更新的權(quán)重與動(dòng)作被選中的概率成反比,從而模擬同步更新[28]。

    Bloembergen等[28]利用FAQ的同步更新優(yōu)勢(shì)提出“寬大(Lenient)”的概念,對(duì)于智能體初始學(xué)習(xí)性能低下問(wèn)題,給予更多的寬恕處理。在學(xué)習(xí)過(guò)程開(kāi)始時(shí)提高智能個(gè)體對(duì)搜索空間投影的準(zhǔn)確性,從而增強(qiáng)了隨機(jī)回報(bào)的魯棒性。從理論角度看,通過(guò)調(diào)節(jié)“寬大”的程度,能夠使得多智能體學(xué)習(xí)收斂到帕累托最優(yōu)。當(dāng)聯(lián)合空間中的次最優(yōu)納什均衡優(yōu)于最優(yōu)納什均衡時(shí),會(huì)出現(xiàn)相對(duì)過(guò)度泛化,如圖12所示。因?yàn)楫?dāng)與協(xié)作智能體的任意動(dòng)作匹配時(shí),每個(gè)代理在次最優(yōu)均衡中的行動(dòng)是更好的選擇。

    強(qiáng)化學(xué)習(xí)中,深度神經(jīng)網(wǎng)絡(luò)的強(qiáng)大函數(shù)擬合能力使Q學(xué)習(xí)的計(jì)算性能得以提升,因此Palmer等將寬大概念引入DQN方法中,提出L-DQN(Lenient-Deep Q-Networks),在原有溫度控制的動(dòng)作選擇的基礎(chǔ)上,增加寬大處理函數(shù)[29]。

    寬大經(jīng)驗(yàn)共享機(jī)制同時(shí)帶來(lái)了相對(duì)的過(guò)度概括病態(tài)[30-31],隨后產(chǎn)生的分布式Q學(xué)習(xí)[32]和滯后Q學(xué)習(xí)[33],旨在克服這種過(guò)度概括:

    l(s,t)=1-e-k×T(φ(s), a)

    (8)

    式中:每條寬大經(jīng)驗(yàn)映射一個(gè)溫度值T,通過(guò)預(yù)先計(jì)算溫度衰減計(jì)劃計(jì)算溫度指數(shù)值,從而對(duì)寬大經(jīng)驗(yàn)進(jìn)行衰減處理,防止策略經(jīng)驗(yàn)過(guò)早冷卻[34]。

    盡管經(jīng)驗(yàn)回放的方法可以通過(guò)改進(jìn)訓(xùn)練數(shù)據(jù)回放機(jī)制來(lái)促進(jìn)MARL的協(xié)作策略學(xué)習(xí),然而在大規(guī)模智能體的擴(kuò)展過(guò)程中穩(wěn)定效率低下,無(wú)法較好地提高擴(kuò)展性能,于是Gupta等[35]提出了參數(shù)共享作為一種改進(jìn)同構(gòu)多智能體環(huán)境中學(xué)習(xí)的方法。智能體之間采樣經(jīng)驗(yàn)樣本匯總來(lái)更新模型,實(shí)現(xiàn)參數(shù)共享,以提高算法可擴(kuò)展性。同時(shí),參數(shù)共享的方式將局部觀察和自身索引輸入模型,避免智能體因參數(shù)共享引起的策略缺乏差異性的弊端,從智能體中獲得的一批軌跡用來(lái)計(jì)算優(yōu)勢(shì)值。

    在多智能體顯式通信領(lǐng)域,F(xiàn)oerster提出的RIAL和DIAL算法也采用參數(shù)共享的方法,通過(guò)在智能體之間共享參數(shù)來(lái)進(jìn)行集中化學(xué)習(xí),參數(shù)可以極大地減少學(xué)習(xí)所必須的通信參數(shù)數(shù)量,從而提升學(xué)習(xí)速度[36]。RIAL方法如圖13所示。

    圖13 RIAL結(jié)構(gòu)圖

    參數(shù)共享的方法通過(guò)智能體之間的參數(shù)傳遞,可以有效減低MARL學(xué)習(xí)過(guò)程中參數(shù)學(xué)習(xí)的復(fù)雜度,從而提升學(xué)習(xí)效率,在價(jià)值分解和Actor-Critic方法中也被廣泛采用,如VDN,QMIX和MADDPG等[37-38]。由于參數(shù)共享是基于智能體部分觀察的場(chǎng)景,因此智能體最終的學(xué)習(xí)動(dòng)作會(huì)存在差異性[39]。

    綜上,在基于經(jīng)驗(yàn)回放的方法中,MARL方法通過(guò)經(jīng)驗(yàn)和參數(shù)共享的方法提升數(shù)據(jù)利用率,增加了共享模型的魯棒性,從而提升了算法對(duì)于訓(xùn)練經(jīng)驗(yàn)處理機(jī)制的實(shí)用性,為價(jià)值分解和Actor-Critic等眾多MARL方法提供了更高的經(jīng)驗(yàn)處理思路。然而,基于經(jīng)驗(yàn)回放的方法缺乏智能體之間的關(guān)聯(lián)性和協(xié)同性,因此無(wú)法較好地適應(yīng)高效的協(xié)同策略訓(xùn)練場(chǎng)景。

    3 協(xié)作多智能體深度強(qiáng)化學(xué)習(xí)的挑戰(zhàn)

    因深度強(qiáng)化學(xué)習(xí)發(fā)展迅速而得到廣泛關(guān)注。盡管MARL在圖像或語(yǔ)音識(shí)別的模式識(shí)別領(lǐng)域和圍棋撲克等決策任務(wù)中表現(xiàn)優(yōu)異,但是從特定環(huán)境到復(fù)雜現(xiàn)實(shí)任務(wù)的過(guò)渡仍存在眾多困境,單智能體強(qiáng)化學(xué)習(xí)存在的問(wèn)題在多智能體擴(kuò)展中得到進(jìn)一步惡化,如維數(shù)爆炸問(wèn)題和模型泛化問(wèn)題等。

    (1)維數(shù)爆炸問(wèn)題

    得益于計(jì)算性能的提高與算法的不斷優(yōu)化,單智能體在處理高維度信息時(shí)不再困難,然而在向多智能體擴(kuò)展過(guò)程中,動(dòng)作-狀態(tài)信息呈指數(shù)級(jí)增長(zhǎng),所需的計(jì)算成本不斷提高,增大了函數(shù)擬合的困難。

    (2)模型泛化問(wèn)題

    強(qiáng)化學(xué)習(xí)的模型泛化對(duì)于同一個(gè)領(lǐng)域中的同一個(gè)任務(wù),強(qiáng)化學(xué)習(xí)模型在訓(xùn)練環(huán)境訓(xùn)練,在測(cè)試環(huán)境驗(yàn)證模型的性能。由于強(qiáng)化學(xué)習(xí)的數(shù)據(jù)是在模型與環(huán)境交互過(guò)程中產(chǎn)生的,所以普遍認(rèn)為強(qiáng)化學(xué)習(xí)中的泛化能力弱,模型較容易過(guò)擬合到當(dāng)前的訓(xùn)練環(huán)境。MARL中,智能體的增加增大了學(xué)習(xí)難度和模型復(fù)雜度,進(jìn)一步加劇了模型泛化的困境。

    另外,由于分布式計(jì)算智能和環(huán)境動(dòng)態(tài)的特性,MARL仍然面臨諸多問(wèn)題亟待解決。

    (1)現(xiàn)實(shí)環(huán)境的非平穩(wěn)性問(wèn)題

    多智能體系統(tǒng)中,單智能體的觀測(cè)oi僅為環(huán)境整體狀態(tài)的一部分,即對(duì)于智能體來(lái)說(shuō)環(huán)境是部分可觀測(cè)的[40]。多個(gè)智能體的并行訓(xùn)練導(dǎo)致每個(gè)智能體所面臨的環(huán)境動(dòng)態(tài)變化,這是指某個(gè)智能體采取的行動(dòng)會(huì)影響其他智能體回報(bào)及全局環(huán)境的改變,而導(dǎo)致智能體在相同狀態(tài)下執(zhí)行相同動(dòng)作后,由于其他智能體干擾,致使環(huán)境狀態(tài)轉(zhuǎn)移不再具備連續(xù)性[26,41],這有違于強(qiáng)化學(xué)習(xí)馬爾科夫的基本假設(shè)。

    價(jià)值分解和Actor-Critic方法憑借CTDE的學(xué)習(xí)范式,一定程度上緩解了非平穩(wěn)環(huán)境帶來(lái)的收斂困難問(wèn)題。而在獨(dú)立Q學(xué)習(xí)中,盡管一些方法試圖通過(guò)經(jīng)驗(yàn)回放、指紋算法和寬恕/滯回處理等方式來(lái)解決非平穩(wěn)性問(wèn)題,卻仍然由于智能體個(gè)體和其他智能體的策略訓(xùn)練之間缺乏關(guān)聯(lián)性,導(dǎo)致獨(dú)立Q學(xué)習(xí)的方式缺乏根本性的解決方案。

    (2)多智能體稀疏獎(jiǎng)勵(lì)問(wèn)題

    獎(jiǎng)勵(lì)稀疏是RL在復(fù)雜問(wèn)題中學(xué)習(xí)困難的重要原因。目前RL方法中,智能體無(wú)法得到正確的監(jiān)督或協(xié)作信號(hào)以得到期望的目標(biāo)或獎(jiǎng)勵(lì)收益,導(dǎo)致學(xué)習(xí)緩慢甚至無(wú)法有效學(xué)習(xí)。在MARL中,每個(gè)智能體任務(wù)不同,但是彼此之間又相互耦合影響,獎(jiǎng)勵(lì)設(shè)計(jì)的優(yōu)劣直接影響策略的好壞。

    解決獎(jiǎng)勵(lì)稀疏問(wèn)題有三個(gè)主要途徑:一是利用內(nèi)部或外部數(shù)據(jù)進(jìn)行獎(jiǎng)勵(lì)學(xué)習(xí)或重塑,利用專(zhuān)家經(jīng)驗(yàn)或良好軌跡來(lái)學(xué)習(xí)最佳獎(jiǎng)勵(lì)信號(hào),包括模仿學(xué)習(xí)和課程學(xué)習(xí)等,通過(guò)雙水平優(yōu)化獎(jiǎng)勵(lì)參數(shù)自動(dòng)地添加獎(jiǎng)勵(lì)修正,引導(dǎo)強(qiáng)化學(xué)習(xí)智能體獲得優(yōu)異的學(xué)習(xí)策略,最大化真實(shí)環(huán)境下的獎(jiǎng)勵(lì);或者利用已有內(nèi)部數(shù)據(jù)產(chǎn)生內(nèi)在的獎(jiǎng)勵(lì),以鼓勵(lì)更好的探索,包括好奇心驅(qū)動(dòng)和優(yōu)先/事后經(jīng)驗(yàn)回放。二是在時(shí)間和空間角度進(jìn)行信度分配,時(shí)間角度是將稀疏的終止獎(jiǎng)勵(lì)分解到以前的時(shí)間步,空間角度是根據(jù)智能體個(gè)體的貢獻(xiàn)將全局獎(jiǎng)勵(lì)分解到個(gè)體智能體上,而空間上的信度分配是MARL的一大難題。三是任務(wù)層次化分解,將原始任務(wù)分解為離散或連續(xù)的子任務(wù),高層遵循半馬爾科夫決策過(guò)程,底層從高層分解的子目標(biāo)中接收獎(jiǎng)勵(lì)反饋并完成子目標(biāo)。

    (3)智能體個(gè)體的信度分配問(wèn)題

    在協(xié)作多智能體Dec-POMDP問(wèn)題中,環(huán)境的反饋信號(hào)(即獎(jiǎng)勵(lì))由所有智能體的聯(lián)合動(dòng)作所決定,個(gè)體的獎(jiǎng)勵(lì)難以準(zhǔn)確描述,智能體在不同狀態(tài)做出的相同動(dòng)作對(duì)于整個(gè)團(tuán)隊(duì)的貢獻(xiàn)未知[42-43];同樣地,當(dāng)智能體探索到最優(yōu)策略序列中的自身策略時(shí),由于整個(gè)團(tuán)隊(duì)的策略對(duì)于環(huán)境的影響較差,導(dǎo)致智能體對(duì)該最優(yōu)策略的誤判[44]。因此,多智能體面臨信度分配問(wèn)題,即求解單智能體的策略對(duì)MAS聯(lián)合策略的貢獻(xiàn)度。

    在競(jìng)爭(zhēng)或混合任務(wù)場(chǎng)景中,通常采用差異獎(jiǎng)勵(lì)的方式來(lái)促進(jìn)MAS中智能體對(duì)各自任務(wù)的差異化策略訓(xùn)練。然而,協(xié)作多智能體系統(tǒng)中智能體貢獻(xiàn)無(wú)法衡量,目前主要的方式是采取貴族效用的方式,來(lái)衡量智能體實(shí)際行為和平均行為間的差異,計(jì)算優(yōu)勢(shì)函數(shù)來(lái)求解智能體貢獻(xiàn)度。另外,借助RL學(xué)習(xí)過(guò)程中的軌跡,可以按照時(shí)序分配獎(jiǎng)勵(lì)。

    (4)大規(guī)模集群智能的擴(kuò)展性問(wèn)題

    隨著智能體數(shù)量的增加,聯(lián)合動(dòng)作空間維數(shù)呈指數(shù)級(jí)增長(zhǎng),使得現(xiàn)有的小規(guī)模智能體協(xié)作策略算法擴(kuò)展到大規(guī)模集群時(shí),收斂效率大幅降低,甚至陷入資源沖突、無(wú)有效可行解狀態(tài)。因此,對(duì)于大規(guī)模集群性強(qiáng)化學(xué)習(xí)算法需要特殊考慮算法處理指數(shù)級(jí)任務(wù)空間求解優(yōu)化問(wèn)題[45-46]。

    現(xiàn)有的研究集中在采用課程學(xué)習(xí)或?qū)<医?jīng)驗(yàn)來(lái)訓(xùn)練協(xié)同策略行為,使智能體由小規(guī)模到大規(guī)模地進(jìn)行學(xué)習(xí)訓(xùn)練。另外,模型共享的機(jī)制通過(guò)為所有同構(gòu)智能體群組學(xué)習(xí)一個(gè)共享的模型結(jié)構(gòu),從而成為一種解決優(yōu)化大規(guī)??臻g收斂難的途徑。

    (5)多種優(yōu)化目標(biāo)難以平衡問(wèn)題

    MARL模糊的學(xué)習(xí)目標(biāo)主要?dú)w結(jié)為均衡議程和AI議程。均衡議程指收斂到某一個(gè)博弈納什均衡點(diǎn),AI議程指最佳學(xué)習(xí)策略,即學(xué)習(xí)最優(yōu)反饋信號(hào)下的策略序列[47-48]。博弈均衡理論(Game Equilibrium Theory)可以協(xié)調(diào)多智能體優(yōu)化目標(biāo)。在均衡學(xué)習(xí)范式中,智能體策略訓(xùn)練目標(biāo)是在其他智能體策略未知的情況下,智能體試圖至少學(xué)習(xí)到納什均衡狀態(tài)的收益,即收益下限。因此,通過(guò)博弈均衡目標(biāo)的優(yōu)化,可以使得MAS收斂到納什均衡狀態(tài),從而緩解多場(chǎng)景下多目標(biāo)平衡矛盾。

    (6)信息結(jié)構(gòu)復(fù)雜性

    信息結(jié)構(gòu)復(fù)雜性主要有兩個(gè)方面:一方面是信息內(nèi)容不同,即智能體在訓(xùn)練和執(zhí)行階段所需信息是不同的,也是未知的。另一方面是信息基于局部策略,尤其競(jìng)爭(zhēng)環(huán)境下無(wú)法獲得對(duì)手策略和獎(jiǎng)勵(lì)信息。

    4 MARL的應(yīng)用領(lǐng)域

    MARL最前沿的研究一直致力于在復(fù)雜環(huán)境中使得多智能體具有更強(qiáng)的環(huán)境適應(yīng)能力,以及學(xué)習(xí)更好的協(xié)作策略,從而替代人類(lèi)完成一些高?;蛭粗娜蝿?wù)。

    (1)多機(jī)器人協(xié)作

    MARL在工業(yè)[49-51]、農(nóng)業(yè)[52]、軍事[53]和醫(yī)療[54]等領(lǐng)域多機(jī)器人協(xié)作任務(wù)中具有廣泛的用途,如機(jī)械臂、無(wú)人機(jī)、自動(dòng)駕駛和物聯(lián)網(wǎng)等。在現(xiàn)實(shí)生活中,隱式通信的多機(jī)器人通過(guò)協(xié)作來(lái)提升MAS的任務(wù)效率,移動(dòng)機(jī)器人底層的決策和規(guī)劃成為多智能體協(xié)同控制的關(guān)鍵技術(shù),其中多機(jī)器人之間的自主避障和導(dǎo)航是多機(jī)器人協(xié)同的重點(diǎn)。

    (2)資源調(diào)度

    另外,MARL在資源調(diào)度領(lǐng)域的應(yīng)用具有無(wú)可比擬的優(yōu)勢(shì),MARL可以解決資源供需不平衡導(dǎo)致的資源利用率低下等問(wèn)題,如5G網(wǎng)絡(luò)優(yōu)化-多頻段參數(shù)優(yōu)化、供應(yīng)鏈優(yōu)化、芯片3D-IO布線優(yōu)化和電網(wǎng)調(diào)度等場(chǎng)景[55]。由于任務(wù)的復(fù)雜性和多智能體必需的協(xié)同決策,資源調(diào)度任務(wù)并不能簡(jiǎn)單歸類(lèi)為運(yùn)籌學(xué)問(wèn)題或者機(jī)器人規(guī)劃問(wèn)題。因此,MARL可以根據(jù)實(shí)際任務(wù)將復(fù)雜問(wèn)題歸類(lèi)為決策、規(guī)劃以及組合優(yōu)化問(wèn)題,通過(guò)智能體協(xié)同進(jìn)而提升資源利用效率。

    (3)虛擬互聯(lián)網(wǎng)場(chǎng)景

    在虛擬互聯(lián)網(wǎng)場(chǎng)景中,MARL憑借用戶(hù)的實(shí)時(shí)反饋和長(zhǎng)期累積獎(jiǎng)勵(lì),成功在搜索系統(tǒng)、推薦系統(tǒng)和廣告推送等領(lǐng)域廣泛使用。在互聯(lián)網(wǎng)搜索領(lǐng)域,MARL可以訓(xùn)練多個(gè)智能體來(lái)代替通用智能體模型,有效地學(xué)習(xí)各種查詢(xún)重構(gòu)[56-57]。另外,在推薦系統(tǒng)的訓(xùn)練學(xué)習(xí)中,MARL可以捕獲不同場(chǎng)景之間的順序相關(guān)性并聯(lián)合優(yōu)化多個(gè)推薦策略,來(lái)減少訓(xùn)練數(shù)據(jù)需求并執(zhí)行更準(zhǔn)確的策略更新[58]。在互聯(lián)網(wǎng)廣告推送方面,MARL可以將印象分配問(wèn)題定義為一個(gè)拍賣(mài)問(wèn)題,為出版商在不穩(wěn)定環(huán)境下最大限度實(shí)現(xiàn)目標(biāo)提供合作策略[59]。

    (4)游戲AI

    在游戲AI領(lǐng)域,MARL取得眾多進(jìn)展,如德國(guó)撲克、國(guó)際象棋和圍棋等分步回合制對(duì)抗游戲,以及星際爭(zhēng)霸、DOTA和王者榮耀等即時(shí)戰(zhàn)略游戲[60]。智能體可以通過(guò)自我博弈、協(xié)作對(duì)抗等方式學(xué)會(huì)有效信息并不斷增強(qiáng)策略學(xué)習(xí)能力。多智能體游戲AI,由于游戲復(fù)雜性、動(dòng)作狀態(tài)維度過(guò)高和獲取信息局限性等因素影響,使得模型訓(xùn)練難度加大,MARL學(xué)習(xí)更加困難。

    (5)群體博弈

    博弈均衡理論可以有效地協(xié)調(diào)多智能體優(yōu)化目標(biāo)。博弈是指在一定的游戲規(guī)則約束下,基于直接相互作用的環(huán)境條件,參與者依據(jù)所掌握的信息,選擇各自的策略(行動(dòng)),以實(shí)現(xiàn)利益最大化的過(guò)程[61]。在經(jīng)典博弈論中,智能體通過(guò)策略選擇使得自身回報(bào)最大化,最終進(jìn)化為納什均衡狀態(tài)[62]。

    MARL可以理解為一個(gè)隨機(jī)博弈過(guò)程,將每個(gè)狀態(tài)的階段博弈的納什均衡結(jié)合為動(dòng)態(tài)環(huán)境中的智能體策略,并不斷與環(huán)境交互,更新每個(gè)狀態(tài)的階段博弈中的Q函數(shù)。而對(duì)于傳統(tǒng)的納什均衡,每個(gè)智能體都希望優(yōu)化到一個(gè)不動(dòng)點(diǎn),這對(duì)于個(gè)體智能體是最優(yōu)的,而協(xié)作多智能體是一個(gè)非零和博弈過(guò)程,是基于聯(lián)合的最優(yōu)策略序列作為優(yōu)化目標(biāo)。

    5 總結(jié)與展望

    目前,在基于價(jià)值分解的多智能體強(qiáng)化學(xué)習(xí)方法中,MAS通過(guò)建立了一個(gè)集中的混合網(wǎng)絡(luò),將個(gè)體值函數(shù)聯(lián)合,并通過(guò)全局值函數(shù)進(jìn)行訓(xùn)練。為了適應(yīng)動(dòng)態(tài)環(huán)境和MAS的協(xié)作性能,以及考慮每個(gè)智能體的局部?jī)?yōu)化,需遵循IGM原則?;贏ctor-Critic的方法通常用于學(xué)習(xí)MAS的獨(dú)立或共享的Critic網(wǎng)絡(luò),以指導(dǎo)分布式Actor網(wǎng)絡(luò)的梯度更新,即CCDA結(jié)構(gòu)。經(jīng)驗(yàn)回放方法在數(shù)據(jù)采樣及參數(shù)共享訓(xùn)練中可以有效提高數(shù)據(jù)利用率,然而單獨(dú)優(yōu)化經(jīng)驗(yàn)回放采樣方法無(wú)法有效提升MARL方法效率。因此,MARL方法的研究可以引入經(jīng)驗(yàn)回放方法,進(jìn)一步提升算法收斂效率。

    目前,盡管價(jià)值分解方法的實(shí)驗(yàn)性能略?xún)?yōu)于Actor-Critic方法,但其結(jié)構(gòu)在對(duì)抗環(huán)境非平穩(wěn)問(wèn)題方面存在明顯的弱點(diǎn)。集中Critic是通過(guò)輸入全局行動(dòng)和狀態(tài)信息來(lái)處理非平穩(wěn)環(huán)境的有效手段,因此Actor-Critic方法在多智能體強(qiáng)化學(xué)習(xí)研究中前景廣闊。然而,在現(xiàn)有的Actor-Critic框架的MARL方法中,由于集中的Critic和智能體數(shù)量的增加而導(dǎo)致的信用分配,在指導(dǎo)分布式智能體策略梯度方面效率低下,智能體在團(tuán)隊(duì)中的貢獻(xiàn)不能得到有效表達(dá),因此收斂效率變得緩慢。此外,全局最優(yōu)動(dòng)作與個(gè)體的最優(yōu)動(dòng)作組合的一致性不能得到保證,全局貪婪動(dòng)作的選擇不能與局部最優(yōu)動(dòng)作相匹配。這些問(wèn)題使得MARL方法的收斂效率和穩(wěn)定性無(wú)法提高。因此,Actor-Critic方法尚需進(jìn)一步展開(kāi)研究。

    在未來(lái),由于動(dòng)態(tài)環(huán)境獎(jiǎng)勵(lì)稀疏性,將任務(wù)層次化的劃分[63],以及多目標(biāo)、多任務(wù)學(xué)習(xí)[63],將使得智能體學(xué)習(xí)分工協(xié)作成為重點(diǎn)研究的方向。從算法的角度來(lái)看,采用課程學(xué)習(xí)進(jìn)行策略遷移的思想可以更好地引入MARL之中[64],使得MAS在任務(wù)的完成過(guò)程中實(shí)現(xiàn)由易到難的學(xué)習(xí),并且使得小規(guī)模到大規(guī)模智能體得到平穩(wěn)擴(kuò)展。另外,將模仿學(xué)習(xí)[65]等方法的專(zhuān)家經(jīng)驗(yàn)與MARL融合可以解決較為復(fù)雜智能體行為問(wèn)題,如自動(dòng)駕駛、機(jī)械臂裝卸等。最后,智能體劃域和圖卷積網(wǎng)絡(luò)[66-67]的方法在解決大規(guī)模智能體問(wèn)題上也是一個(gè)重要的趨勢(shì)。

    猜你喜歡
    動(dòng)作智能環(huán)境
    長(zhǎng)期鍛煉創(chuàng)造體內(nèi)抑癌環(huán)境
    一種用于自主學(xué)習(xí)的虛擬仿真環(huán)境
    孕期遠(yuǎn)離容易致畸的環(huán)境
    環(huán)境
    智能前沿
    文苑(2018年23期)2018-12-14 01:06:06
    智能前沿
    文苑(2018年19期)2018-11-09 01:30:14
    智能前沿
    文苑(2018年17期)2018-11-09 01:29:26
    智能前沿
    文苑(2018年21期)2018-11-09 01:22:32
    動(dòng)作描寫(xiě)要具體
    畫(huà)動(dòng)作
    午夜福利,免费看| 香蕉国产在线看| 国产欧美亚洲国产| 欧美黑人欧美精品刺激| 91精品三级在线观看| 男女床上黄色一级片免费看| 成年人免费黄色播放视频| 亚洲精品粉嫩美女一区| 日本精品一区二区三区蜜桃| 天堂√8在线中文| 视频区欧美日本亚洲| 90打野战视频偷拍视频| 国产男女超爽视频在线观看| 亚洲性夜色夜夜综合| 99精国产麻豆久久婷婷| 久久精品国产亚洲av高清一级| 精品福利永久在线观看| 99riav亚洲国产免费| 99精品久久久久人妻精品| bbb黄色大片| 欧美丝袜亚洲另类 | 免费黄频网站在线观看国产| 男人舔女人的私密视频| 国产男靠女视频免费网站| 日韩 欧美 亚洲 中文字幕| 一进一出好大好爽视频| 国产精品香港三级国产av潘金莲| 精品亚洲成a人片在线观看| 91成人精品电影| 精品一品国产午夜福利视频| 精品视频人人做人人爽| 国产精品久久久人人做人人爽| 成年动漫av网址| 欧美黑人欧美精品刺激| 日韩欧美免费精品| 大型av网站在线播放| 高清黄色对白视频在线免费看| 久久99一区二区三区| av超薄肉色丝袜交足视频| 欧美乱妇无乱码| 亚洲性夜色夜夜综合| 18禁国产床啪视频网站| 99在线人妻在线中文字幕 | 啦啦啦在线免费观看视频4| 搡老熟女国产l中国老女人| 久热爱精品视频在线9| 欧美+亚洲+日韩+国产| 涩涩av久久男人的天堂| 欧美老熟妇乱子伦牲交| 国产精品九九99| 在线看a的网站| a在线观看视频网站| 三级毛片av免费| 国产精品永久免费网站| 亚洲色图综合在线观看| 在线国产一区二区在线| 欧美精品亚洲一区二区| 久久婷婷成人综合色麻豆| 波多野结衣av一区二区av| 另类亚洲欧美激情| 久久久国产精品麻豆| 亚洲欧美一区二区三区黑人| 大香蕉久久成人网| 精品熟女少妇八av免费久了| 国产区一区二久久| 精品久久久久久久久久免费视频 | 成人三级做爰电影| 亚洲精品乱久久久久久| 国内久久婷婷六月综合欲色啪| 国产成人免费无遮挡视频| 又黄又爽又免费观看的视频| 动漫黄色视频在线观看| 久久人人97超碰香蕉20202| 精品亚洲成a人片在线观看| 99精品欧美一区二区三区四区| 国产精品自产拍在线观看55亚洲 | 咕卡用的链子| 国产精品99久久99久久久不卡| 欧美 日韩 精品 国产| 巨乳人妻的诱惑在线观看| 啦啦啦 在线观看视频| 国产成人精品久久二区二区91| 亚洲一卡2卡3卡4卡5卡精品中文| 久久草成人影院| 丰满迷人的少妇在线观看| 国产在视频线精品| 日本黄色视频三级网站网址 | 18禁裸乳无遮挡动漫免费视频| 人人澡人人妻人| 天天躁日日躁夜夜躁夜夜| 一边摸一边做爽爽视频免费| 午夜免费成人在线视频| 国产91精品成人一区二区三区| 国产亚洲欧美在线一区二区| 午夜福利免费观看在线| 成年人免费黄色播放视频| 夜夜爽天天搞| 男人操女人黄网站| 女人精品久久久久毛片| 国产男女内射视频| 啦啦啦在线免费观看视频4| 色婷婷久久久亚洲欧美| 亚洲专区中文字幕在线| 亚洲成人国产一区在线观看| 欧美日韩乱码在线| 国产欧美日韩一区二区精品| 女人精品久久久久毛片| 亚洲精品av麻豆狂野| 少妇 在线观看| 一级a爱片免费观看的视频| 日本黄色日本黄色录像| 男女免费视频国产| 免费观看a级毛片全部| www.熟女人妻精品国产| 亚洲欧美日韩高清在线视频| 免费在线观看视频国产中文字幕亚洲| 在线观看66精品国产| 精品亚洲成a人片在线观看| 天堂√8在线中文| 18在线观看网站| 校园春色视频在线观看| 色播在线永久视频| 亚洲精品国产区一区二| 一区二区日韩欧美中文字幕| 中文字幕人妻丝袜制服| 热99re8久久精品国产| 两个人看的免费小视频| 老司机在亚洲福利影院| 涩涩av久久男人的天堂| 久久久久久久午夜电影 | 成年人黄色毛片网站| 午夜久久久在线观看| 王馨瑶露胸无遮挡在线观看| 欧美 日韩 精品 国产| 国产一区在线观看成人免费| 精品人妻熟女毛片av久久网站| 精品福利永久在线观看| 日本vs欧美在线观看视频| 国产成人av激情在线播放| 久热爱精品视频在线9| 日本欧美视频一区| 岛国毛片在线播放| 中文欧美无线码| 9色porny在线观看| 色老头精品视频在线观看| 亚洲美女黄片视频| 久久久久久久午夜电影 | 高清毛片免费观看视频网站 | 久久久国产成人免费| av视频免费观看在线观看| 国产男女超爽视频在线观看| 99久久国产精品久久久| 免费在线观看日本一区| 亚洲色图av天堂| 91成人精品电影| 性色av乱码一区二区三区2| 色婷婷av一区二区三区视频| 国产成人精品久久二区二区免费| 精品一区二区三区视频在线观看免费 | 午夜福利视频在线观看免费| 亚洲精品美女久久av网站| 国产精品久久视频播放| 成人三级做爰电影| 91九色精品人成在线观看| 身体一侧抽搐| 另类亚洲欧美激情| 亚洲欧美一区二区三区黑人| 亚洲一卡2卡3卡4卡5卡精品中文| 大片电影免费在线观看免费| 日韩免费高清中文字幕av| 亚洲精品成人av观看孕妇| 国产又爽黄色视频| 天天添夜夜摸| 国产黄色免费在线视频| 操美女的视频在线观看| 王馨瑶露胸无遮挡在线观看| 大型黄色视频在线免费观看| 亚洲av美国av| 国产黄色免费在线视频| 国产区一区二久久| 中文字幕av电影在线播放| 动漫黄色视频在线观看| 国产免费av片在线观看野外av| 久久中文字幕人妻熟女| 亚洲五月婷婷丁香| 校园春色视频在线观看| 在线国产一区二区在线| 国产高清视频在线播放一区| 久久中文看片网| 男女下面插进去视频免费观看| 99久久国产精品久久久| 脱女人内裤的视频| 黑人巨大精品欧美一区二区mp4| 日韩制服丝袜自拍偷拍| 两个人免费观看高清视频| 性色av乱码一区二区三区2| 免费观看a级毛片全部| 两个人看的免费小视频| 亚洲专区国产一区二区| 日韩 欧美 亚洲 中文字幕| 男女之事视频高清在线观看| 久久久久久亚洲精品国产蜜桃av| 精品国产乱子伦一区二区三区| 老司机在亚洲福利影院| 亚洲国产看品久久| 91av网站免费观看| 国产成人一区二区三区免费视频网站| 啦啦啦在线免费观看视频4| 悠悠久久av| 成年人免费黄色播放视频| 久久九九热精品免费| 久久午夜综合久久蜜桃| 国产精品一区二区精品视频观看| 国产又色又爽无遮挡免费看| 午夜亚洲福利在线播放| 欧美日韩视频精品一区| 黑人猛操日本美女一级片| 老熟妇乱子伦视频在线观看| 日本欧美视频一区| 高清黄色对白视频在线免费看| 欧美另类亚洲清纯唯美| 两性午夜刺激爽爽歪歪视频在线观看 | 99riav亚洲国产免费| 黄片播放在线免费| 美女视频免费永久观看网站| 亚洲男人天堂网一区| 黄片大片在线免费观看| 91老司机精品| 日韩免费av在线播放| 啦啦啦 在线观看视频| 波多野结衣一区麻豆| 欧美久久黑人一区二区| 欧美日韩黄片免| 深夜精品福利| 国产精品成人在线| 一级毛片精品| 欧美日韩亚洲高清精品| 亚洲男人天堂网一区| 69精品国产乱码久久久| 亚洲 欧美一区二区三区| 国产欧美日韩一区二区三区在线| 啦啦啦在线免费观看视频4| 999久久久国产精品视频| 热99久久久久精品小说推荐| 免费人成视频x8x8入口观看| 大码成人一级视频| 久久精品亚洲熟妇少妇任你| 国产一区有黄有色的免费视频| 91av网站免费观看| 操美女的视频在线观看| 高清欧美精品videossex| 国产成人系列免费观看| 亚洲国产精品一区二区三区在线| 两人在一起打扑克的视频| 丁香六月欧美| 手机成人av网站| 精品亚洲成国产av| 国内毛片毛片毛片毛片毛片| 可以免费在线观看a视频的电影网站| 高清欧美精品videossex| 欧美av亚洲av综合av国产av| 91av网站免费观看| 国产单亲对白刺激| 国产精品乱码一区二三区的特点 | av福利片在线| 亚洲中文日韩欧美视频| 久久人人97超碰香蕉20202| 国产精品一区二区在线观看99| bbb黄色大片| 亚洲 欧美一区二区三区| 91字幕亚洲| 无限看片的www在线观看| videos熟女内射| 高清黄色对白视频在线免费看| 午夜久久久在线观看| 黄网站色视频无遮挡免费观看| 十八禁网站免费在线| 在线观看免费午夜福利视频| 一级毛片精品| 午夜免费成人在线视频| 精品福利永久在线观看| 久久国产精品人妻蜜桃| 欧美日韩黄片免| 免费高清在线观看日韩| 中出人妻视频一区二区| av免费在线观看网站| 一区二区日韩欧美中文字幕| 亚洲人成电影观看| 国产一区在线观看成人免费| 最新在线观看一区二区三区| 色婷婷av一区二区三区视频| 美女福利国产在线| 久久香蕉激情| 夜夜躁狠狠躁天天躁| 91字幕亚洲| 香蕉丝袜av| 国产亚洲av高清不卡| 国产精品综合久久久久久久免费 | 国产成人精品无人区| 亚洲国产中文字幕在线视频| 亚洲专区国产一区二区| a级片在线免费高清观看视频| 久久九九热精品免费| 亚洲中文日韩欧美视频| 国产真人三级小视频在线观看| a在线观看视频网站| 色综合婷婷激情| 亚洲av成人不卡在线观看播放网| 女人久久www免费人成看片| 交换朋友夫妻互换小说| 日韩欧美免费精品| 成人国语在线视频| 欧美乱色亚洲激情| 巨乳人妻的诱惑在线观看| a级毛片在线看网站| 亚洲欧美日韩高清在线视频| 国产高清视频在线播放一区| 中文字幕另类日韩欧美亚洲嫩草| 成熟少妇高潮喷水视频| 97人妻天天添夜夜摸| 一本一本久久a久久精品综合妖精| 久久香蕉激情| 在线观看舔阴道视频| 久久国产精品男人的天堂亚洲| 亚洲五月天丁香| 夜夜躁狠狠躁天天躁| 日韩制服丝袜自拍偷拍| 免费观看人在逋| 午夜久久久在线观看| 亚洲熟女毛片儿| 人人妻人人澡人人爽人人夜夜| 免费久久久久久久精品成人欧美视频| 国产无遮挡羞羞视频在线观看| 亚洲中文av在线| 久久草成人影院| 麻豆乱淫一区二区| 亚洲av日韩精品久久久久久密| 精品久久蜜臀av无| 成年版毛片免费区| 国产蜜桃级精品一区二区三区 | 啦啦啦视频在线资源免费观看| 国产亚洲精品第一综合不卡| 51午夜福利影视在线观看| 日韩欧美在线二视频 | 国产熟女午夜一区二区三区| 91九色精品人成在线观看| 日韩精品免费视频一区二区三区| 这个男人来自地球电影免费观看| 久久影院123| 国产高清视频在线播放一区| 精品免费久久久久久久清纯 | 精品人妻熟女毛片av久久网站| 18禁裸乳无遮挡动漫免费视频| 国产亚洲精品久久久久久毛片 | 一级毛片精品| 午夜免费成人在线视频| 亚洲黑人精品在线| 精品久久久久久久久久免费视频 | 黑人操中国人逼视频| 欧美在线黄色| 一区在线观看完整版| 精品久久久精品久久久| 国产精品国产av在线观看| 日本一区二区免费在线视频| 老熟妇乱子伦视频在线观看| 久久久国产精品麻豆| 91大片在线观看| 亚洲伊人色综图| 国产精品 国内视频| 久久久久久久久免费视频了| 极品少妇高潮喷水抽搐| 51午夜福利影视在线观看| 最新美女视频免费是黄的| 免费在线观看影片大全网站| 一个人免费在线观看的高清视频| 高清av免费在线| 日韩免费av在线播放| 亚洲国产欧美一区二区综合| 精品国内亚洲2022精品成人 | 国产精品九九99| 18禁裸乳无遮挡动漫免费视频| 日本黄色视频三级网站网址 | 亚洲中文日韩欧美视频| 日韩欧美一区视频在线观看| 一进一出抽搐动态| 亚洲专区国产一区二区| 亚洲人成77777在线视频| 91大片在线观看| 亚洲精品在线观看二区| 欧美乱妇无乱码| 中文字幕精品免费在线观看视频| 亚洲视频免费观看视频| 99精品久久久久人妻精品| 久久久久国产精品人妻aⅴ院 | 亚洲欧美日韩高清在线视频| 无遮挡黄片免费观看| 中文欧美无线码| 成人永久免费在线观看视频| 高清视频免费观看一区二区| 欧美丝袜亚洲另类 | 国产精品欧美亚洲77777| 国产亚洲av高清不卡| 视频区欧美日本亚洲| 在线播放国产精品三级| 亚洲少妇的诱惑av| 嫁个100分男人电影在线观看| 精品国产国语对白av| 一区二区日韩欧美中文字幕| 国产麻豆69| 激情视频va一区二区三区| 亚洲九九香蕉| √禁漫天堂资源中文www| 亚洲精品中文字幕在线视频| 亚洲精品中文字幕一二三四区| 一边摸一边做爽爽视频免费| 91麻豆精品激情在线观看国产 | 在线观看免费日韩欧美大片| 精品久久久精品久久久| 国产主播在线观看一区二区| 久久这里只有精品19| 午夜两性在线视频| 日本a在线网址| 成人18禁高潮啪啪吃奶动态图| 国产一区有黄有色的免费视频| 亚洲人成电影免费在线| 亚洲欧美日韩另类电影网站| 99国产综合亚洲精品| 国产精品久久电影中文字幕 | 国产精品免费一区二区三区在线 | 99久久99久久久精品蜜桃| 他把我摸到了高潮在线观看| 国产成人欧美在线观看 | 免费看十八禁软件| 亚洲一区二区三区不卡视频| 亚洲av成人av| 男女高潮啪啪啪动态图| 在线观看一区二区三区激情| 女警被强在线播放| 一边摸一边做爽爽视频免费| 一夜夜www| 精品高清国产在线一区| 欧美午夜高清在线| 国产精品亚洲一级av第二区| 午夜福利一区二区在线看| 最新在线观看一区二区三区| 天天躁夜夜躁狠狠躁躁| 国产精品成人在线| 亚洲精品成人av观看孕妇| 亚洲精品国产精品久久久不卡| 欧美日韩乱码在线| 日日摸夜夜添夜夜添小说| 国产一区二区三区综合在线观看| 夜夜躁狠狠躁天天躁| 深夜精品福利| 一级毛片女人18水好多| 亚洲熟妇中文字幕五十中出 | 丰满迷人的少妇在线观看| 亚洲成人国产一区在线观看| 高清在线国产一区| 久久亚洲精品不卡| 欧美日韩亚洲国产一区二区在线观看 | 亚洲精品在线观看二区| 一进一出抽搐动态| 亚洲国产欧美日韩在线播放| 两性夫妻黄色片| 在线观看www视频免费| 91国产中文字幕| 飞空精品影院首页| 国产精品偷伦视频观看了| 999精品在线视频| 国产国语露脸激情在线看| 嫩草影视91久久| 成人黄色视频免费在线看| 999精品在线视频| 国产精品美女特级片免费视频播放器 | 色94色欧美一区二区| 免费观看精品视频网站| 中文字幕人妻丝袜一区二区| 人妻丰满熟妇av一区二区三区 | 亚洲人成电影免费在线| 亚洲专区中文字幕在线| 久久这里只有精品19| 韩国精品一区二区三区| 日本vs欧美在线观看视频| 99国产极品粉嫩在线观看| 99热网站在线观看| 色在线成人网| 精品欧美一区二区三区在线| 在线观看免费视频网站a站| 熟女少妇亚洲综合色aaa.| 亚洲精品久久成人aⅴ小说| 欧美日韩亚洲国产一区二区在线观看 | 两个人免费观看高清视频| 中文字幕最新亚洲高清| 欧美老熟妇乱子伦牲交| 精品第一国产精品| 亚洲av美国av| 看免费av毛片| 1024香蕉在线观看| 国产aⅴ精品一区二区三区波| 亚洲,欧美精品.| 正在播放国产对白刺激| 午夜福利一区二区在线看| 黑人猛操日本美女一级片| 久久精品国产清高在天天线| 国产精品一区二区免费欧美| 欧美日本中文国产一区发布| 啦啦啦在线免费观看视频4| 国产三级黄色录像| 黑人操中国人逼视频| 欧美激情高清一区二区三区| 757午夜福利合集在线观看| 亚洲国产欧美一区二区综合| 下体分泌物呈黄色| 69av精品久久久久久| 国产精品98久久久久久宅男小说| 久久天躁狠狠躁夜夜2o2o| 侵犯人妻中文字幕一二三四区| 又大又爽又粗| 黄网站色视频无遮挡免费观看| 一区二区三区精品91| 精品国产超薄肉色丝袜足j| 午夜精品在线福利| 久热爱精品视频在线9| 久久精品91无色码中文字幕| 一边摸一边做爽爽视频免费| 麻豆av在线久日| 亚洲精品国产区一区二| 国产极品粉嫩免费观看在线| 丝瓜视频免费看黄片| 久久久国产成人精品二区 | 国产又爽黄色视频| 久久久国产一区二区| 国产av一区二区精品久久| 极品教师在线免费播放| 久久午夜综合久久蜜桃| 国产91精品成人一区二区三区| 国产激情久久老熟女| 色在线成人网| e午夜精品久久久久久久| www.自偷自拍.com| 极品人妻少妇av视频| 色在线成人网| 亚洲第一欧美日韩一区二区三区| 久久国产乱子伦精品免费另类| 亚洲精品乱久久久久久| 午夜福利欧美成人| 多毛熟女@视频| 1024香蕉在线观看| 亚洲情色 制服丝袜| 捣出白浆h1v1| 国产精品一区二区免费欧美| 99国产精品免费福利视频| 脱女人内裤的视频| 国产亚洲欧美在线一区二区| 亚洲国产欧美网| 91av网站免费观看| 欧美不卡视频在线免费观看 | 午夜精品国产一区二区电影| 国产成人av教育| 新久久久久国产一级毛片| 亚洲欧美激情综合另类| 动漫黄色视频在线观看| 99精品久久久久人妻精品| 99久久人妻综合| 少妇的丰满在线观看| 在线观看免费视频网站a站| 中文字幕最新亚洲高清| 99re6热这里在线精品视频| 啦啦啦视频在线资源免费观看| 久久国产精品大桥未久av| 又黄又粗又硬又大视频| 精品福利永久在线观看| 一边摸一边做爽爽视频免费| 久久午夜亚洲精品久久| 国产无遮挡羞羞视频在线观看| 别揉我奶头~嗯~啊~动态视频| 亚洲av成人不卡在线观看播放网| 免费不卡黄色视频| 天天躁狠狠躁夜夜躁狠狠躁| 亚洲综合色网址| 热99久久久久精品小说推荐| 久久人人爽av亚洲精品天堂| 五月开心婷婷网| 亚洲欧美一区二区三区久久| 亚洲一码二码三码区别大吗| 女同久久另类99精品国产91| 欧美色视频一区免费| 久久精品国产a三级三级三级| av片东京热男人的天堂| 巨乳人妻的诱惑在线观看| www.熟女人妻精品国产| 十八禁网站免费在线| 一区二区三区国产精品乱码| 俄罗斯特黄特色一大片| 久久久久国产精品人妻aⅴ院 | 9热在线视频观看99| 在线观看免费日韩欧美大片| 国产高清视频在线播放一区| 亚洲人成伊人成综合网2020| 精品久久久久久,| 高清av免费在线| 1024香蕉在线观看| 99国产精品99久久久久| 黄频高清免费视频| 国产亚洲av高清不卡| av福利片在线| 波多野结衣av一区二区av| 国产精品欧美亚洲77777| 亚洲av美国av| 亚洲国产欧美网| 高清黄色对白视频在线免费看| 亚洲中文字幕日韩| bbb黄色大片| 国产精品香港三级国产av潘金莲|