• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    面向?qū)κ纸5囊鈭D識別方法綜述

    2021-09-08 12:26:40高巍羅俊仁袁唯淋張萬鵬
    關(guān)鍵詞:意圖建模計劃

    高巍,羅俊仁,袁唯淋,張萬鵬

    面向?qū)κ纸5囊鈭D識別方法綜述

    高巍1,2,羅俊仁1,袁唯淋1,張萬鵬1

    (1. 國防科技大學智能科學學院,湖南 長沙 410073;2. 96843部隊,甘肅 蘭州 730102)

    首先介紹了對手建模的幾種不同的類型,引出行為建模中的意圖識別問題;隨后針對意圖識別的過程、分類、主要研究方法、研究展望以及實際應(yīng)用進行了歸納分析,總結(jié)并討論了相關(guān)領(lǐng)域取得的最新研究成果;最后指出意圖識別目前存在的不足以及未來的發(fā)展方向。

    對手建模;意圖識別;目標識別;計劃識別;目標識別設(shè)計;計劃識別設(shè)計

    1 引言

    基于行為觀測序列推斷智能體的目標是近幾年來人工智能和心理學研究者都感興趣的問題。眾多行為建模方法中,人工智能領(lǐng)域關(guān)于行為識別與設(shè)計得到了廣泛關(guān)注。計劃行動與意圖識別(PAIR,plan, activity, and intent recognition)[1]作為一種基于經(jīng)典識別范式得到了廣泛研究。

    目標識別被廣泛應(yīng)用于人機交互[2]、智能體建模[3]、目標推理[4]、重要基礎(chǔ)設(shè)施保護[5]等。一些新的研究包括將意圖識別應(yīng)用于多智能體行為識別[6]、決策過程中控制意圖的分享與隱藏[7],之間的關(guān)系可分為:不可知識別(agnostic/keyhole recognition),其中執(zhí)行者對觀察者的識別過程不可知;對抗識別,執(zhí)行者在給定約束下試圖欺騙識別者;有意識別,執(zhí)行者有意通過隱式通信的方式將自己的行為告知識別者。這些與可解釋性規(guī)劃[8]、隱私保護規(guī)劃密切相關(guān)[7,9],其中任務(wù)執(zhí)行者可根據(jù)相關(guān)情景主動披露或隱秘混淆其真實目標。

    2 對手建模

    對手建模是在對抗環(huán)境下,考慮如何對除自己以外其他參與者進行行為建模,這是一種典型的行為預(yù)測技術(shù)[10-11]。當前對手建模(OM,opponent modeling)[12]的主要方法有以下幾種(如圖1所示)。

    (1)策略重構(gòu)(policy reconstruction)[13],假設(shè)模型有固定的結(jié)構(gòu),可根據(jù)被觀察智能體行為,預(yù)測行為概率;可以學習滿足模型結(jié)構(gòu)的任意模型,交互過程中模型持續(xù)更新,但這種方式比較復(fù)雜,既耗時又耗空間,可細分為條件行為概率模型[14]、案例推理模型[15]、緊致模型表示[16]和效用重構(gòu)模型[17]。

    (2)類型推理(type reasoning)[18-20],假設(shè)智能體有多種類型,可根據(jù)被觀察智能體行為分析模型的相對可能性,預(yù)測行為概率,其中“類型”可以是“黑盒”,如果真實類型存在可快速匹配,但類型空間出錯時,行為預(yù)測可能出錯,信念空間不足以分辨類型的真假。

    (3)行為分類(action classification)[21],根據(jù)不同信息源信息,選擇模型結(jié)構(gòu),運用機器學習的方法擬合模型參數(shù),預(yù)測智能體的類別,可預(yù)測模型的多種屬性,許多機器學習方法可能使用,但需要大量數(shù)據(jù),模型需要提前計算,實時交互更新很難。

    (4)行為識別(action recognition)[1],算法使用層次化規(guī)劃庫或域理論(domain theory),預(yù)測智能體的目標和可能行為,豐富的規(guī)劃庫有助于識別復(fù)雜行為,但規(guī)劃庫可能不完備,許多識別方法沒有考慮觀察者的存在。

    (5)遞歸推理(recursive reasoning)[22-23],遞歸持續(xù)推理其他智能體的可能模型,預(yù)測其可能行為,可用于分析其他智能體的高層次信念,但遞歸層次難以分析,理性假設(shè)太強。

    (6)圖模型(graph model)[24-25],使用各種圖模型表示智能體決策過程與偏好,預(yù)測智能體的可能行為,圖形化表示有助于計算效率的提高,但對于序列決策過程擴展性不強。

    (7)群組建模(group modeling)[26-27],通過分析一群智能體的行動、目標和規(guī)劃,預(yù)測多智能體的聯(lián)合屬性,可抓住一群智能體行為的關(guān)聯(lián)關(guān)系,但智能體之間的不相關(guān)性,使群組建模很困難。

    (8)集群建模(swarm modeling)[28],通過分析生物群體的行為特征對集群行為模型進行建模。

    除以上介紹以外,隱式建模(implicit modeling)[29]、假設(shè)檢驗[30]和安全最佳反應(yīng)[31]也常用于智能體行為建模。

    圖1 對手建模分類

    Figure 1 Classifications of opponent modeling

    當前這類行為建模方法廣泛應(yīng)用于游戲AI中[32-33]。智能體行為建模面臨的一些問題主要有建模方法的組合、部分可觀情況下的策略重構(gòu)、安全有效的模型探索、決策因素的有效發(fā)覺、算法的高效實現(xiàn)、時變行為的建模、持續(xù)行為的建模、開放域多智能體建模、自主模型補全及修正等。

    3 意圖識別

    3.1 意圖識別過程

    當前研究智能體意圖的兩大模型主要是BDI(信念、愿望和意圖)模型[29]和COI(能力、機會和意圖)模型[5]。意圖識別問題的三大研究要素為環(huán)境(或問題域)、識別者(或識別系統(tǒng))以及被識別者。傳統(tǒng)的行為識別方法通常將被識別者和識別者分別設(shè)定為行為執(zhí)行者與觀察者。

    如圖2所示,意圖識別可以看作一個以觀測信息為輸入,在領(lǐng)域知識支撐下圍繞假說空間的推理與計算,以符合觀測的假說(包括目標與計劃)及其概率分布為輸出的過程。

    3.2 意圖識別分類

    根據(jù)環(huán)境(或問題域)的類型,可以分為確定性識別和隨機性識別。根據(jù)執(zhí)行者和觀察者之間的競合關(guān)系,可以分為:不可知識別,其中執(zhí)行者不知道觀察者的識別過程;有意識別,執(zhí)行者有意通過隱式通信的方式將自己的行為告知識別者;對抗識別,執(zhí)行者在給定約束下試圖欺騙識別者[1,5]。

    意圖識別作為“計劃行動意圖識別”的子問題,與計劃識別、行動識別[34]和目標識別緊密相關(guān)?!坝媱澬袆右鈭D識別”有許多共同之處,為了充分發(fā)揮不同類型識別方法的作用,F(xiàn)reedman等[35]提出“計劃行動意圖識別”的統(tǒng)一框架。根據(jù)研究問題的層次劃分,當前的研究大多把行動識別看作底層識別,把計劃識別看作包括連續(xù)行動和目標的識別,把目標識別僅看作識別行動目標。其實,當智能體的行動與具體特定目標關(guān)聯(lián)時,意圖識別即目標識別。當智能體處于確定性環(huán)境(或問題域)時,其選擇的行動是依經(jīng)典規(guī)劃理論得出與特定目標關(guān)聯(lián)的計劃,包含為了達到目標而執(zhí)行全部行動和行動間的關(guān)系,意圖識別即計劃識別。當智能體處于隨機性環(huán)境(或問題域)時,其選擇的行動是依序貫決策理論或博弈理論得出與特定目標相關(guān)聯(lián)的行動,意圖識別即目標識別。本文主要研究目標識別與計劃識別。

    圖2 意圖識別行為建??蚣?/p>

    Figure 2 Intention recognition behavior modeling framework

    3.3 意圖識別方法

    本文研究假定執(zhí)行意圖識別過程中,觀察者充當識別者。行動識別主要識別底層行為,計劃識別主要識別行為的中上層,目標識別主要識別行為的最終目標。

    當前意圖識別主要有以下三大范式。

    (1)基于規(guī)劃理論的識別范式。這是一種典型的符號式確定性意圖識別方法,其中可以用分層任務(wù)網(wǎng)絡(luò)(HTN,hierarchical task network)、命題語法、與或樹的方式來構(gòu)建執(zhí)行者的計劃庫或直接使用域理論來表征執(zhí)行者的行為?;谝?guī)劃的計劃識別方法(PRAP)[36-37]是一種利用逆向推理識別意圖的方法,其相應(yīng)變體如基于規(guī)劃的目標識別(GRAP)[38]、基于規(guī)劃的模型識別(MRAP)[39]均是基于域理論來進行行為識別的。這類方法大多依賴于計劃庫或域理論生成被觀察到的智能體為實現(xiàn)其目標的計劃假設(shè)空間[1]。此類方法在計算上是有效的,但需要豐富的領(lǐng)域知識,并對觀察到的智能體的偏好做出強有力的假設(shè)。

    (2)基于效用理論的識別范式[5,38,40]。其中,基于部分可觀馬爾可夫決策過程(POMDP)的識別方法[38],建立了不確定條件下的序貫決策模型,為隨機環(huán)境意圖識別提供了方法;而基于博弈理論的識別方法[5,40],使用一種生成式方法[41],為對抗博弈場景下意圖識別與應(yīng)對規(guī)劃提供了新的模型與求解方法。

    (3)基于學習理論的識別范式。其中,策略識別方法[42-43]、逆強化學習[44-46]和正則化強化學習[47-48]方法均可用于學習行為模型、基于代價的深度學習方法[49-52],可用于預(yù)測后續(xù)行動。

    3.3.1 基于代價的目標識別

    目標識別是識別目標驅(qū)動智能體行動策略的一種主要方法,這種方法主要著眼于智能體的目標域相關(guān)問題,相較于計劃識別中注重過程信息,目標域問題將過程隨機化,重點關(guān)注目標的狀態(tài),當前關(guān)于目標域攻防對抗問題的相關(guān)研究已經(jīng)取得相當多的成果。

    目標識別作為“計劃行動意圖識別”的子問題,廣泛應(yīng)用于環(huán)境部分可觀的決策問題,其中觀察者需要構(gòu)造執(zhí)行者的決策行動模型,基于不完全觀測序列識別執(zhí)行者的行動目標。

    目標識別通過觀察智能體的行為來確定其意圖的問題,涉及對最終或“最高層次”目標感興趣的配對問題,而不是必須在實現(xiàn)計劃或次級目標的過程中進行談判的計劃或次級目標[53]。

    如圖3所示,識別者對所感知的智能體行為進行分析,確定智能體的目標。智能體以初始狀態(tài)(標記為“開始”)進入場景,并執(zhí)行指向預(yù)先確定目標的一系列操作(在這種情況下,由圖中標有“目標”的下部方框表示),根據(jù)感知到的觀察序列(不一定完整或準確)分析智能體的目標。此任務(wù)與計劃識別緊密相關(guān),但又不同于計劃識別,后者旨在確定智能體要遵循的完整計劃以實現(xiàn)其目標。

    根據(jù)時效性要求可劃分為離線目標識別和在線目標識別(如表1所示)。在離線目標識別的觀測序列中,雖然本身可能會有很多噪聲或者是不完整的,但觀測序列會提前顯示出來。相反,在在線目標識別中,觀測值是逐步顯示的,而必須在每一次額外的觀察之后做出假設(shè),且不知道哪一次觀察是最后一次觀察。當前,離線目標識別研究比較多[54],近些年也出現(xiàn)了一些在線目標識別相關(guān)方法[55-57]。

    圖3 目標識別過程

    Figure 3 Target recognition process

    表1 目標識別模型屬性

    當前基于代價的目標識別模型主要有:R&G (Ramirez and Geffner)模型[36],可用于與任務(wù)規(guī)劃相關(guān)的經(jīng)典離線目標識別方法;M&S(Masters and Sardina)模型[58],可用于連續(xù)和離散空間與路徑規(guī)劃相關(guān)的離線目標識別方法;V&K (Vered and Kaminka)模型[55],可用于連續(xù)和離散空間與運行規(guī)劃相關(guān)的在線目標識別方法。

    R&G方法:Ramirez和Geffner介紹了第一個基于計劃的目標識別(R&G)方法。給定理論和觀測序列,R&G引入了一種考慮觀測序列的修正理論。

    事實證明,使用M&S方法可以顯著縮短計算時間,同時具有與R&G方法相似的性能。

    3.3.2 基于計劃度量的目標識別

    在規(guī)劃理論中,landmark是指在每一個有效的計劃中,為了從最初的狀態(tài)達到一個特定的目標,必須在某一點上都是正確的事實[60]。

    Vered 和 Kaminka 進行了一系列關(guān)于連續(xù)域上的在線識別工作[55-57],考慮與路線規(guī)劃以外的運動規(guī)劃類型有關(guān)的目標識別,如繪圖分析。同時,將目標識別描述為“目標鏡像”(即人類對觀察的移情反應(yīng))[55],即人類在觀察到的情況下想象自己,并假定被觀察的人有興趣發(fā)現(xiàn)最符合人類推理的“啟發(fā)式”(即概率分布)。在關(guān)注在線目標識別的機制時,Vered 和 Kaminka通過重復(fù)使用“路徑前綴”(即到目前為止觀察到的路徑)的計算代價來節(jié)省時間,而不是重復(fù)計算其全部代價,進而提出了兩種新的機制,以幫助減少計算代價[56]。在在線目標識別中,對觀測數(shù)據(jù)進行增量處理,在收到新的觀測結(jié)果后,該系統(tǒng)首先檢查對手是否在接近“最有可能”的目標。如果是,則跳過重新計算;如果不是,系統(tǒng)將檢查自上一次觀測以來對手的行為軌跡(即運動角度)。如果對手以大于某個給定閾值的角度偏離了一個目標,則該目標將從候選集中剪枝,進行未來概率計算。Vered 和Kaminka將目標鏡像與landmark的使用結(jié)合起來[57],為離散域和連續(xù)域提供在線解決方案,通過每個目標的“l(fā)andmark完成”與“總landmark”的比率來生成概率分布。

    3.3.3 計劃識別

    計劃識別是許多領(lǐng)域中普遍存在的任務(wù),包括自然語言、多智能體系統(tǒng)和輔助認知[61-63]。

    其中,選取的行動序列滿足由動作組成的觀察序列。例如,動作序列π={,,,,,}滿足觀察序列1= {,,}和2= {,,},但不是3= {,,}。這可以借助將中的觀察索引映射為中的動作索引的函數(shù)來形式化。

    3.4 意圖識別設(shè)計

    3.4.1 目標識別設(shè)計

    目標識別設(shè)計(GRD, goal recognition design)由Keren、Gal和Karpa在2014年提出[60],其目的是通過離線執(zhí)行目標識別任務(wù)來降低在線目標識別任務(wù)的復(fù)雜性,修改智能體操作的底層環(huán)境。目標識別設(shè)計的目的是找到最小的一組底層環(huán)境的修改,迫使智能體盡早揭示其目標。這個問題本身與許多相同的目標識別應(yīng)用程序相關(guān),因為通??梢院苋菀仔薷牡讓迎h(huán)境。

    通常情況下,目標識別設(shè)計問題有兩個組成部分:目標識別效果的度量;可能對環(huán)境造成的設(shè)計變化的模型。

    目前,目標識別設(shè)計模型主要包括確定性的目標識別設(shè)計與隨機性的目標識別設(shè)計,表2總結(jié)了現(xiàn)有目標識別設(shè)計模型的概括、度量和可能的設(shè)計。

    (1)確定性目標識別設(shè)計

    目標識別設(shè)計主要分析如何更好地改造執(zhí)行者所處的環(huán)境,使執(zhí)行者的目標更早暴露出來,其中最壞情況顯著性(WCD,worst case distinctiveness)作為衡量目標模糊性度量,用來指導(dǎo)離線的環(huán)境重設(shè)計,它是指智能體在目標被揭示之前可以執(zhí)行的最大動作數(shù)。

    表2 現(xiàn)有目標識別設(shè)計模型屬性

    最初,Keren在2014年提出的目標識別設(shè)計問題是在以下3個假設(shè)下進行的:

    ①系統(tǒng)中的智能體行為將是最優(yōu)的(即智能體將沿著最短的路徑移動到其目標);

    ②智能體是確定性的;

    ③環(huán)境是完全可觀的(即智能體的狀態(tài)和行為都是可觀的)。

    進一步,Keren等于2015年將GRD問題擴展到行動部分可觀測[67]、Agent行動非最優(yōu)[66]等情況,從而對GRD問題領(lǐng)域進行了豐富和拓展。

    限制智能體可以執(zhí)行的一組可用操作是改進模型的一種可行性方法。為了保持用戶的舒適度,改進的模型保留所有目標的原始解決方案成本。另外,希望在最大限度地減少WCD的同時減少引入的更改并遵守可能指定的任何設(shè)計約束。

    此外,針對現(xiàn)有 GRD 問題的求解過于依賴經(jīng)典規(guī)劃,Son等[65]在2016 年提出基于答案集編程(ASP,answer set programming)描述性框架的求解方法,實驗證明基于ASP的GRD問題求解不僅具有良好的擴展性,而且在效率上較傳統(tǒng)方法能夠達到3個數(shù)量級的升躍。

    然而,許多實際應(yīng)用程序必須考慮各種形式的不確定性。特別是目標識別系統(tǒng)通常會由于缺少合適的傳感器、傳感器覆蓋范圍不足、傳感器故障、測量結(jié)果不準確等而導(dǎo)致可觀察性降低。在完全可觀察的設(shè)置中,只有在以下情況下才會妨礙目標識別:智能體的行為可能符合多個目標,當可觀察性不完整時,即使智能體的行為是特定于目標的,智能體的目標也可能無法識別。

    Keren等在2016年將WCD的概念擴展到部分可觀的環(huán)境[67],其基礎(chǔ)是欺騙性智能體能夠控制哪些行為“發(fā)出”觀測結(jié)果。在這種假設(shè)下,智能體可能保持一條模糊的路徑,以獲得更大的距離。同樣,距離是使用最優(yōu)(或“有界最優(yōu)”)路徑從初始狀態(tài)計算的。這一策略本質(zhì)上是一種蓄意欺騙,其特點是“隱私保護”。

    (2)隨機性目標識別設(shè)計

    在現(xiàn)實世界中處處存在著隨機性和局限性,這導(dǎo)致智能體無法控制其行動的結(jié)果,同時,觀察者受到傳感器數(shù)量和質(zhì)量的限制。

    Wayllaced等在初始的GRD基礎(chǔ)上,提出了隨機目標識別設(shè)計(S-GRD)[71],同時,提出了名為“預(yù)期情況顯著性”(ECD,expected-case distinctiveness)的新指標[72],即根據(jù)所有目標成為真正目標的可能性來衡量可能的目標。

    該框架還擴展了以下假設(shè):智能體行為不再可觀察,智能體狀態(tài)只是部分可觀察到的。這種放松是以實際應(yīng)用為動力的。諸如智能體導(dǎo)航之類的操作,智能體操作是不可觀察的,但其狀態(tài)(當前位置)可以是(至少部分)觀察到的。智能體狀態(tài)的部分可觀測性是由于傳感器分辨率低(如GPS),可能導(dǎo)致幾個附近的狀態(tài)彼此無法區(qū)分。最后,將一種新類型的傳感器精化看作改進某些狀態(tài)可觀的可能設(shè)計[73],同時在此基礎(chǔ)上,進行對傳感器精化、搜索空間的剪枝和對部分可觀的S-GRD的ECD度量的推廣。

    S-GRD算法使用增強MDP和Ⅵ類算法,通過從增強初始狀態(tài)到任何增強目標的最大期望成本來計算WCD。

    Ⅵ的局限性在于,即使某些狀態(tài)的預(yù)期成本已經(jīng)收斂,它也會在每次迭代中更新每個狀態(tài)。拓撲值迭代(TVI)[75]通過僅在一個強連接圖(SCC)中重復(fù)更新狀態(tài)直到其值收斂,然后在另一個SCC中更新狀態(tài)來解決此限制。由于SCC形成有向無環(huán)圖,SCC中的狀態(tài)僅影響其之前的狀態(tài)。因此,通過以相反的拓撲排序順序選擇SCC,不再需要考慮狀態(tài)在先前迭代中已經(jīng)收斂的SCC。

    3.4.2 計劃識別設(shè)計

    目標識別設(shè)計是以一種易于識別智能體目標的方式設(shè)計領(lǐng)域的問題。而計劃識別設(shè)計(PRD,plan recognition design)是一種可以更快地識別智能體計劃的設(shè)計域問題。該問題由Mirsky等在2017正式提出[76],計劃識別設(shè)計問題是將原GRD問題推廣到降維區(qū)域,使用層次計劃(GRD-PL),該問題是利用計劃庫設(shè)計領(lǐng)域的任務(wù),以便于快速識別智能體的計劃。GRD可以幫助更快地解釋智能體試圖實現(xiàn)的目標,而PRD則有助于更快地理解智能體如何實現(xiàn)其目標。在GRD范式的基礎(chǔ)上,這兩個新問題(GRD-PL和PRD)都可以采用最壞情況顯著性(WCD)進行量化。

    帶有計劃庫的目標識別設(shè)計(GRD-PL):Ramirez和Geffner[77]提供了一種將計劃庫(表示為AND-OR樹)編譯為STRIPS表示的方法。從理論上講,可以通過解決STRIPS空間中的相應(yīng)GRD問題來解決GRD-PL問題。但是采用該方法得到的STRIPS表示的復(fù)雜度可能比較高。因此,將GRD問題擴展到使用計劃庫進行域的表示作為一種新的方法來解決這類問題。即使WCD計算適應(yīng)于關(guān)于層次計劃的推理以及如何在不限制智能體實現(xiàn)其可能目標的情況下,以最小化其WCD的方式更改給定域。在這種情況下,WCD是使用搜索樹來計算的,該樹在顯示其計劃之前找到智能體可以執(zhí)行的最長操作序列。

    計劃識別設(shè)計:計劃識別設(shè)計是一種可以更快地識別智能體的計劃的設(shè)計域問題。在GRD問題中,該設(shè)計試圖將所需的觀察次數(shù)最小化,直到對智能體的目標不存在任何含糊之處;而PRD則試圖將觀察的數(shù)量降到最低,直到對智能體的完整計劃沒有任何含糊之處。Mirsky等[78]定義了一個新的度量,即最壞的方案區(qū)分(WCPD)。

    WCPD的定義為:在最壞的情況下,能得到智能體的計劃的觀察數(shù)量。形式上,對于每兩個計劃1,2,它們的WCPD計算公式為

    運行示例中計劃庫的WCPD為1,因為在觀察運行之后,對于智能體的計劃仍然存在模糊。請注意,一個額外的觀察(如踢)將明確地識別該智能體的計劃。而計劃識別設(shè)計問題就是解決計劃庫的WCPD最小化的問題。

    GRD、PRD與GRD-PL之間的比較如表3所示。

    4 意圖識別研究展望

    4.1 不完美域模型

    近年來,針對不完美域模型(imperfect domain model)的目標識別方法[79-80]、針對新應(yīng)用場景的主動目標識別[81]、連續(xù)空間的目標識別[58]、非理性智能體的目標識別[59]相繼提出。除了上文中指出的問題和局限性外,在未來研究中,需要探索多種途徑來擴展在不完美離散域模型上的目標識別工作。目前可以從以下兩個設(shè)想出發(fā)進行探索:①使用一個傳播的RPG來解釋不完美域模型,如文獻[82]采用信息來構(gòu)建規(guī)劃啟發(fā)式,用于對不完美域模型進行規(guī)劃;②文獻[83]開發(fā)了一種基于規(guī)劃痕跡的不完美域模型細化方法,采用基于信息的規(guī)劃痕跡和推斷信息的方法獲取不完美域模型。

    4.2 對抗規(guī)劃理論

    在實際應(yīng)用中,意圖識別不是最終目的。觀察者的最終目的是在識別行動者真實意圖的前提下,對行動者進行協(xié)作或者阻礙。對抗條件下,觀察者可以采用更為實用的攔截措施來干擾執(zhí)行者的欺騙行為,控制目標識別過程。除了干擾對方的欺騙性規(guī)劃過程,對抗雙方也能夠試圖控制目標識別的過程,使規(guī)劃具備可解釋性(混淆性、欺騙性、含糊性、隱私性和安全性)以達到干擾對方的意圖識別過程或者防止隱私泄露的目的。

    對抗環(huán)境下的競合關(guān)系是意圖模糊與欺騙的重要因素。同時,對手的欺騙性行為對意圖識別過程的影響是未來開展意圖識別的首要需求。從反制的角度,意圖識別方法研究自然而然地引入了被識別者的欺騙性路徑規(guī)劃問題。目前,針對被識別者的欺騙路徑規(guī)劃問題,考慮其主動欺騙行為對識別效果、遲滯識別時機等方面的影響。同時,欺騙概念可以從路徑規(guī)劃領(lǐng)域延伸到一般的經(jīng)典任務(wù)規(guī)劃問題,如采用概率意圖識別算法評估欺騙量級,并提出一個新的優(yōu)化模型,在資源約束下最大化被識別者的規(guī)劃欺騙性。因此,對抗環(huán)境下的意圖識別與被識別者的欺騙性任務(wù)規(guī)劃方法研究對無人作戰(zhàn)、軍事指揮與控制具有一定價值,也是對現(xiàn)有對手建模與欺騙行為建模的重要補充。

    表3 GRD、PRD、GRD-PL之間的比較

    目前,一種新型的自動方法可以用來對抗RTS中的對手策略[84],它結(jié)合了目標識別功能以推斷對手的目標;landmark的計算以識別可用于阻止對手達成目標的子目標;傳統(tǒng)的自動計劃以生成阻礙對手達成目標的計劃。解決人工智能應(yīng)用于RTS游戲的主要挑戰(zhàn)之一的技術(shù):從無到有綜合計劃反對對手戰(zhàn)略。為了在實時環(huán)境中正常工作,當前的研究主要在已知域無關(guān)反規(guī)劃算法的基礎(chǔ)上進行了兩項修改:①使用代價估計而不是在目標識別中進行計劃計算;②選擇任何地方的對手可以被阻擋,而不是推理最好的停止在哪里阻止它。

    4.3 可解釋人工智能

    隨著人類感知研究的新興領(lǐng)域興起,意圖識別開始與另一個新興領(lǐng)域——可解釋性人工智能重疊[85]。2017年,DARPA發(fā)起“可解釋人工智能”項目研究,以此探索可以使自主系統(tǒng)對其行為進行更好解析的技術(shù)。當前,可解釋性人工智能與合法人工智能、負責任人工智能、隱私保護人工智能是可信任人工智能的主要內(nèi)容。針對規(guī)劃決策領(lǐng)域可解釋性研究,主要關(guān)注可解釋規(guī)劃、可解釋性決策算法。對抗環(huán)境下,智能體的行為模型具備多模態(tài)屬性,可解釋行為(模型也得到了廣泛關(guān)注。文獻[86]對具有人類意圖的智能體和人在回路中的智能體的可說明行為進行了歸納總結(jié)??紤]合作情景時,智能體的目標和規(guī)劃必須同時具備明確性、透明性、解釋性和預(yù)測性[87]??紤]對抗情景時,智能體的目標和規(guī)劃必須具備混淆性、含糊性、隱私性和安全性。近年來,為實現(xiàn)多模態(tài)的規(guī)劃決策方法,控制信息披露和隱藏的規(guī)劃方法、控制目標混淆或明確的規(guī)劃方法和控制意圖分享與隱藏的決策方法相繼被提出。一些新的研究包括將意圖識別應(yīng)用于多智能體行為識別中[6]、決策過程中控制意圖的分享與隱藏[7]。這些與可解釋性規(guī)劃[8]、隱私保護規(guī)劃密切相關(guān)[7,9],其中任務(wù)執(zhí)行者可根據(jù)相關(guān)情景主動披露或隱秘混淆其真實目標。

    4.4 多智能體計劃識別

    在復(fù)雜的戰(zhàn)場環(huán)境中,智能體之間通常采用協(xié)同的方式實現(xiàn)共同的目標,即聯(lián)合意圖??紤]到一個智能體的行為對與其協(xié)同作戰(zhàn)的智能體產(chǎn)生的影響,針對多智能體的聯(lián)合意圖識別比單個智能體的意圖復(fù)雜和困難更加符合實際的作戰(zhàn)需求。多智能體意圖識別的重點和難點是基于統(tǒng)一的建模框架來描述智能體的協(xié)同行為。如果識別者具備領(lǐng)域背景和識別對象行為習慣的相關(guān)知識,那么通??墒褂蔑@示建模的方式,即采用一個復(fù)雜的有向圖模型對各要素間的依賴關(guān)系進行詳細建模。

    多智能體計劃識別(MAPR)[83,88-89]是計劃、活動和意圖識別(PAIR)研究主題的一個子集[1],MAPR研究的重點是觀察單個智能體的行為,并從這些行為中推斷哪些團隊中的智能體進行了工作,以及團隊的目的[90]。目前大多數(shù)MAPR解決方案是識別特定領(lǐng)域的活動,依賴于將觀測結(jié)果與人類生成的庫相匹配,并且預(yù)先分析完整結(jié)構(gòu)的同步痕跡。

    5 實際應(yīng)用

    5.1 軍事輔助決策

    CADET系統(tǒng)是一個集中在旅級地面行動的戰(zhàn)斗規(guī)劃系統(tǒng),其中重要一環(huán)就是對抗推理和對抗規(guī)劃。DARPA從2004年開始籌建實時對抗情報和決策(RAID,real-time adversarial intelligence and decision-making)計劃[91],關(guān)注如何將敵人在軍事行動中的對抗行為納入規(guī)劃考慮范疇。

    RAID系統(tǒng)面臨許多問題,紅藍雙方的行動有很強的相互依賴關(guān)系,一方對另一方的資產(chǎn)和行動知識不可避免地受到限制。觀察和觀察的解釋都有一定限度的誤差和錯誤。除了局部的、延遲的甚至是錯誤的觀察外,對于戰(zhàn)場的知識也會受到有目的性的、持續(xù)的、攻擊性的、智能的隱藏和欺騙。由于文化上、條令條例上和心理上的影響,作戰(zhàn)規(guī)劃時往往僅僅考慮最危險(通常是敵方理論上最優(yōu)的)的作戰(zhàn)行動序列。然而實際最可能發(fā)生的作戰(zhàn)行動序列很大限度上會受到人為因素的影響,甚至可能與理論上的最危險策略不同。以城市戰(zhàn)斗為例,復(fù)雜的城市地理環(huán)境使戰(zhàn)斗呈現(xiàn)高密度同時有碎片化的威脅和機遇[91];地形由于人的參與也是動態(tài)變化的;同時戰(zhàn)場上的非戰(zhàn)斗人員必須明確納入考慮范圍,并最小化其附加損害。除了火力和機動需要考慮之外,其他的如情報收集、后勤等都與火力機動緊密耦合,這些都充滿著對抗性和不確定性。

    5.2 即時戰(zhàn)略游戲

    即時戰(zhàn)略(RTS,real-time strategy)游戲是一種對復(fù)雜戰(zhàn)場環(huán)境模擬的仿真手段,在仿真過程中,己方人員指示己方實體通過獲取資源、構(gòu)造結(jié)構(gòu),來摧毀對手的建筑從而贏得比賽。RTS 游戲是對作戰(zhàn)仿真的簡化,因此,可以作為即時對抗規(guī)劃、不確定條件下的決策支持等方法的試驗床。由于龐大的狀態(tài)空間、動態(tài)的對抗環(huán)境,以及對決策時效性的高度要求,RTS 游戲的研究使 AI 研究人員面臨極大的挑戰(zhàn)。尤其是在對指揮員智能體建模時,需要考慮到全局信息。在廣泛的研究范圍中,作為實時對抗性規(guī)劃和不確定性決策的基本問題,人工智能規(guī)劃已經(jīng)成為一個至關(guān)重要的研究領(lǐng)域。

    RTS游戲由于存在許多具有挑戰(zhàn)性的子問題,如目標推理、策略構(gòu)建、學習等,已被廣泛用于AI研究。應(yīng)用于RTS游戲的AI的主要挑戰(zhàn)之一是自主開發(fā)、綜合考慮對手觀察結(jié)果的計劃。該任務(wù)可以看作對策問題。

    5.3 對抗規(guī)劃

    對抗規(guī)劃劃分為對抗推理和對抗計劃兩個相互影響的部分,來表示在一個對抗環(huán)境下,一方通過計算求解對手的決定性狀態(tài)、意圖和行為并盡全力反制敵方的行動和計劃的動態(tài)規(guī)劃過程。這個領(lǐng)域的子問題包括信念和意圖識別、對手策略預(yù)測、規(guī)劃識別、欺騙計劃發(fā)現(xiàn)、欺騙計劃和計劃生成等。從工程角度來講,對抗計劃的研究覆蓋了廣泛的實際問題領(lǐng)域,除了即時戰(zhàn)略游戲這類娛樂性策略游戲之外,還可以應(yīng)用在軍事計劃和指揮、軍事和外交情報獲取、反恐和國土安全、信息安全、仿真和訓練系統(tǒng)、實用機器人等領(lǐng)域。

    目前,規(guī)劃算法應(yīng)用于機器人、航空航天和工業(yè)工程等領(lǐng)域,其目的是找到困難問題的優(yōu)化解決方案。這些問題可能涉及數(shù)千個參數(shù)和相互作用,不可能通過手工獲得一個解決方案。例如,考慮一個包含數(shù)千臺具有大量數(shù)據(jù)的服務(wù)器的分布式計算基礎(chǔ)設(shè)施,規(guī)劃器將被用來安排數(shù)據(jù)遷移、啟動新的實例、處理數(shù)據(jù)、以最有效的方式分配資源。通常,目標是在所有服務(wù)器上有一個相當分布的工作負載。顯然,找到最優(yōu)的計劃(即成本最低的計劃)并不是一件容易的事情。

    規(guī)劃器是確定性的,意味著可以產(chǎn)生相同的輸入(目標、初始狀態(tài)等)。對手可以從這些輸入? 輸出對進行學習,進而得到行為模型。這樣對手可以在給定輸入時,以高概率預(yù)測出輸出計劃中的關(guān)鍵動作。當計劃人員針對分布式計算調(diào)度問題執(zhí)行任務(wù)時,對手可以推斷出計劃的哪一步至關(guān)重要。即如果避免了那一步,資源或計算位置將產(chǎn)生最大的負面影響。這意味著對手可以識別出最感興趣的服務(wù)器或攻擊的鏈接,并且采取了相應(yīng)的措施。

    如今,通常智能體在某處想要使用計劃系統(tǒng)找到自己的位置和自己的路線是一件很容易的事(應(yīng)用GPS)。路徑規(guī)劃器用于找到從兩個(或多個)點導(dǎo)航的最佳方法,其根據(jù)每個路徑片段的代價(即速度限制、路程等)輸出一組方向。考慮在大規(guī)模使用計劃系統(tǒng)而沒有經(jīng)過人工驗證的情況下應(yīng)用的所有問題(機場、數(shù)據(jù)中心、生產(chǎn)線等)。確定計劃算法可能使用的關(guān)鍵目標,可以提供發(fā)動攻擊的手段,從而增加所需的資源(時間、計算能力、能源等)或阻止規(guī)劃器找到任何合理的計劃。

    5.4 人機協(xié)同

    當前,許多智能系統(tǒng)使用固定通信輸入或預(yù)設(shè)響應(yīng)中至少一個與其他系統(tǒng)進行交互,從而導(dǎo)致僵化的交互體驗以及為系統(tǒng)開發(fā)各種場景的大量努力。固定輸入限制了用戶的自然行為,從而限制了溝通,并且預(yù)設(shè)響應(yīng)會阻止系統(tǒng)適應(yīng)當前情況,除非專門實施。相反,閉環(huán)交互專注于動態(tài)響應(yīng),這些動態(tài)響應(yīng)基于對用戶感知活動的解釋來說明用戶當前正在執(zhí)行的操作。采用閉環(huán)交互的智能體還可以監(jiān)視其交互,以確保用戶按預(yù)期進行響應(yīng)。通過演示實現(xiàn)了一個輔助交互式智能體,該智能體集成了計劃、計劃識別和意圖識別,以預(yù)測用戶要完成的任務(wù)并自主決定響應(yīng)這些預(yù)測要采取的措施。

    當交互式體驗開始時,輔助智能體將沒有用戶模型。這也意味著智能體不知道用戶想要做什么,必須通過觀察才能做出明智的決定。用戶將在模擬環(huán)境中玩回合制游戲,可以自由地從一組完成標準中進行選擇,成功滿足其中任何一個條件都將贏得比賽。用戶將在第一個回合中采取行動,這為智能體提供一些有關(guān)它們打算完成哪些事件的信息。當智能體收到足夠的信息來決定如何做出響應(yīng),則智能體將在第二輪行動。由于演示的模擬游戲設(shè)置,用戶輸入則為簡單的離散按鈕按下和鼠標點擊,不需要任何原始傳感器數(shù)據(jù)。因此,這種實現(xiàn)只是將活動識別作為從輸入到游戲相應(yīng)動作的映射來執(zhí)行。計劃和意圖識別組件收到這些操作后,通過觀察概率識別計劃(R&G方法)[37]進行識別,該算法運行生成規(guī)劃器來模擬用戶解決各種問題。

    6 結(jié)束語

    本文對對手建模進行了簡要的介紹,并針對行為建模中的目標識別、計劃識別、目標識別設(shè)計、計劃識別設(shè)計共4方面現(xiàn)有的研究方法進行了詳細的總結(jié)與分析;同時,給出在不完美域模型、對抗規(guī)劃、意圖識別控制與可解釋人工智能、多智能體意圖識別等方面在意圖識別領(lǐng)域的研究展望;針對軍事輔助決策、即時戰(zhàn)略游戲、對抗規(guī)劃、人機協(xié)同的典型應(yīng)用分析,指出了這一研究工作的實際意義。

    盡管Keren等在最新的綜述中總結(jié)了當前目標識別設(shè)計方面的主要工作[92],現(xiàn)有的研究工作極大地提升了目標識別的速度與正確率,但這些工作仍然是不完善的,仍然有新的應(yīng)用領(lǐng)域以及改進方向為研究工作提出挑戰(zhàn)。這些挑戰(zhàn)多數(shù)來自現(xiàn)有的有限計算能力、人類行為的不確定性以及現(xiàn)實場景中的特殊性質(zhì)。

    [1] SUKTHANKAR G. Plan, activity, and intent recognition: theory and practice[R]. 2014.

    [2] CHAKRABORTI T, KAMBHAMPATI S, SCHEUTZ M, et al. AI challenges in human-robot cognitive teaming[J]. arXiv preprint arXiv:1707.04775, 2017.

    [3] ALBRECHT S V, STONE P. Autonomous agents modelling other agents: a comprehensive survey and open problems[J]. Artificial Intelligence, 2018, 258: 66-95.

    [4] HEINZE C. Modelling intention recognition for intelligent agent systems[R]. 2004.

    [5] LE GUILLARME N. A game-theoretic planning framework for intentional threat assessment[D]. Thèse de doctorat: Université de Caen, 2016.

    [6] BIGELOW D. Intent recognition in multi-agent domains[M]. University of Nevada, Reno, 2013.

    [7] STROUSE D J, KLEIMAN-WEINER M, TENENBAUM J, et al. Learning to share and hide intentions using information regularization[C]//Advances in Neural Information Processing Systems. 2018: 10249-10259.

    [8] CHAKRABORTI T, KULKARNI A, SREEDHARAN S, et al. Explicability legibility predictability transparency privacy security the emerging landscape of interpretable agent behavior[C]//Proceedings of the International Conference on Automated Planning and Scheduling. 2019: 86-96.

    [9] KEREN S, GAL A, KARPAS E. Privacy preserving plans in partially observable environments[C]//IJCAI. 2016: 3170-3176.

    [10] WRIGHT J R. Modeling human behavior in strategic settings[D]. Columbia: University of British Columbia, 2016.

    [11] PLONSKY O, APEL R, ERT E, et al. Predicting human decisions with behavioral theories and machine learning[J]. arXiv preprint arXiv:1904.06866, 2019.

    [12] BORGHETTI B J . Opponent modeling in interesting adversarial environments[M]. Minnesota: University of Minnesota, 2008.

    [13] BROWNE C B, POWLEY E, WHITEHOUSE D, et al. A survey of monte carlo tree search methods[J]. IEEE Transactions on Computational Intelligence and AI in Games, 2012, 4(1): 1-43.

    [14] CHAKRABORTY D, STONE P. Multiagent learning in the presence of memory-bounded agents[J]. Autonomous Agents and Multi-Agent Systems, 2014, 28(2): 182-213.

    [15] KOLODNER J. Case-based reasoning[M]. Morgan Kaufmann, 2014.

    [16] CARMEL D, MARKOVITCH S. Learning models of intelligent agents[C]//AAAI/IAAI. 1996: 62-67.

    [17] BAARSLAG T, HENDRIKX M J C, HINDRIKS K V, et al. Learning about the opponent in automated bilateral negotiation: a comprehensive survey of opponent modeling techniques[J]. Autonomous Agents and Multi-Agent Systems, 2016, 30(5): 849-898.

    [18] BARRETT S, STONE P, KRAUS S, ET al. Teamwork with limited knowledge of teammates[C]//Twenty-Seventh AAAI Conference on Artificial Intelligence. 2013.

    [19] ALBRECHT S V, CRANDALL J W, RAMAMOORTHY S. An empirical study on the practical impact of prior beliefs over policy types[C]//Twenty-Ninth AAAI Conference on Artificial Intelligence. 2015.

    [20] ALBRECHT S V, RAMAMOORTHY S. On convergence and optimality of best-response learning with policy types in multiagent systems[J]. arXiv preprint arXiv:1907.06995, 2019.

    [21] SCHADD F, BAKKES S, SPRONCK P. Opponent modeling in real-time strategy games[C]//GAMEON. 2007: 61-70.

    [22] WEN Y, YANG Y, LU R, et al. Multi-agent generalized recursive reasoning[J]. arXiv preprint arXiv:1901.09216, 2019.

    [23] WEN Y, YANG Y, LUO R, et al. Probabilistic recursive reasoning for multi-agent reinforcement learning[J]. arXiv preprint arXiv:1901.09207, 2019.

    [24] DOSHI P, ZENG Y, CHEN Q. Graphical models for interactive POMDPs: representations and solutions[J]. Autonomous Agents and Multi-Agent Systems, 2009, 18(3): 376.

    [25] TORKAMAN A, SAFABAKHSH R. Robust opponent modeling in real-time strategy games using bayesian networks[J]. Journal of AI and Data Mining, 2019, 7(1): 149-159.

    [26] MAO W, GRATCH J, LI X. Probabilistic plan inference for group behavior prediction[J]. IEEE Intelligent Systems, 2012, 27(4): 27-36.

    [27] HAUSKNECHT M, MUPPARAJU P, SUBRAMANIAN S, et al. Half field offense: an environment for multiagent learning and ad hoc teamwork[C]//AAMAS Adaptive Learning Agents (ALA) Workshop. 2016.

    [28] ?O?I? A. Learning models of behavior from demonstration and through interaction[D]. Technische Universit?t, 2018.

    [29] HERNANDEZ-LEAL P, ZHAN Y, TAYLOR M E, et al. Efficiently detecting switches against non-stationary opponents[J]. Autonomous Agents and Multi-Agent Systems, 2017, 31(4): 767-789.

    [30] ALBRECHT S V, RAMAMOORTHY S. Are you doing what i think you are doing? criticising uncertain agent models[J]. arXiv preprint arXiv:1907.01912, 2019.

    [31] WANG Z, BOULARIAS A, MüLLING K, et al. Balancing safety and exploitability in opponent modeling[C]//Twenty-Fifth AAAI Conference on Artificial Intelligence. 2011.

    [32] STANESCU A M. Outcome prediction and hierarchical models in real-time strategy games[R]. 2019.

    [33] MOURAD M, AREF M, ABD-ELAZIZ M. Opponent models pre-processing in real-time strategy games[J]. International Journal of Intelligent Computing and Information Sciences, 2016, 16(3): 37-45.

    [34] SUKTHANKAR G R. Activity recognition for agent teams[R]. 2007.

    [35] FREEDMAN R G, ZILBERSTEIN S. A unifying perspective of plan, activity, and intent recognition[C]//Proceedings of the AAAI Workshops: Plan, Activity, Internet Recognition. 2019: 1-8.

    [36] RAMíREZ M, GEFFNER H. Plan recognition as planning[C]//Twenty-First International Joint Conference on Artificial Intelligence. 2009.

    [37] SOHRABI S, RIABOV A V, UDREA O. Plan recognition as planning revisited[C]//IJCAI. 2016: 3258-3264.

    [38] PEREIRA R F, OREN N, MENEGUZZI F. Landmark-based approaches for goal recognition as planning[J]. arXiv preprint arXiv:1904.11739, 2019.

    [39] AINETO D, JIMéNEZ S, ONAINDIA E, et al. Model recognition as planning[C]//Proceedings of the International Conference on Automated Planning and Scheduling. 2019: 13-21.

    [40] ANG S, CHAN H, JIANG A X, et al. Game-theoretic goal recognition models with applications to security domains[C]//International Conference on Decision and Game Theory for Security. 2017: 256-272.

    [41] LE GUILLARME N, MOUADDIB A I, LEROUVREUR X, et al. A generative game-theoretic framework for adversarial plan recognition[C]//JFPDA 2015. 2015.

    [42] LI J, REN T, SU H, et al. Learn a robust policy in adversarial games via playing with an expert opponent[C]//Proceedings of the 18th International Conference on Autonomous Agents and MultiAgent Systems. 2019: 2096-2098.

    [43] ?O?I? A. Learning models of behavior from demonstration and through interaction[D]. Technische Universit?t, 2018.

    [44] ZIEBART B D. Modeling purposeful adaptive behavior with the principle of maximum causal entropy[D]. Figshare, 2010.

    [45] TASTAN B. Learning human motion models[C]//Eighth Artificial Intelligence and Interactive Digital Entertainment Conference. 2012.

    [46] GAURAV S, ZIEBART B. Discriminatively learning inverse optimal control models for predicting human intentions[C]//Proceedings of the 18th International Conference on Autonomous Agents and MultiAgent Systems. 2019: 1368-1376.

    [47] LI X, YANG W, ZHANG Z. A unified framework for regularized reinforcement learning[J]. arXiv preprint arXiv:1903.00725, 2019.

    [48] TIAN Z, WEN Y, GONG Z, et al. A regularized opponent model with maximum entropy objective[J]. arXiv preprint arXiv:1905.08087, 2019.

    [49] MAYNARD M, DUHAMEL T, KABANZA F. Cost-based goal recognition meets deep learning[J]. arXiv preprint arXiv:1911.10074, 2019.

    [50] WOOKHEE M, YOUNG E H, ROWE J. Deep learning-based goal recognition in open-ended digital games[C]//Tenth AAAI Conference on Artificial Intelligence & Interactive Digital Entertainment. 2014.

    [51] DUHAMEL T, MAYNARD M, KABANZA F. A transfer learning method for goal recognition exploiting cross-domain spatial fea-tures[J]. arXiv preprint arXiv:1911.10134, 2019.

    [52] THIBAULT D, MAYNARD M, KABANZA F. Imagination-augmented deep learning for goal recognition[J]. arXiv preprint arXiv:2003.09529v1, 2020.

    [53] BLAYLOCK N, ALLEN J. Fast hierarchical goal schema recognition[C]//Proceedings of the National Conference on Artificial Intelligence. 2006: 796.

    [54] VERED M, KAMINKA G A. Heuristic online goal recognition in continuous domains[C]//International Joint Conference on Artificial Intelligence. 2017: 4447-4454.

    [55] VERED M, KAMINKA G A, BIHAM S. Online goal recognition through mirroring: Humans and agents[C]//The Fourth Annual Conference on Advances in Cognitive Systems. 2016.

    [56] VERED M, KAMINKA G A. Online recognition of navigation goals through goal mirroring[C]//Proceedings of the 16th Conference on Autonomous Agents and Multiagent Systems. International Foundation for Autonomous Agents and Multiagent Systems. 2017: 1748-1750.

    [57] VERED M, PEREIRA R F, MAGNAGUAGNO M C, et al. Towards online goal recognition combining goal mirroring and landmarks[C]//AAMAS. 2018: 2112-2114.

    [58] MASTERS P, SARDINA S. Cost-based goal recognition for the path-planning domain[C]//IJCAI. 2018: 5329-5333.

    [59] MASTERS P, SARDINA S. Goal recognition for rational and irrational agents[C]//Proceedings of the 18th International Conference on Autonomous Agents and MultiAgent Systems. International Foundation for Autonomous Agents and Multiagent Systems. 2019: 440-448.

    [60] HOFFMANN J, PORTEOUS J, SEBASTIA L. Ordered landmarks in planning[J]. Journal of Artificial Intelligence Research, 2004, 22: 215-278.

    [61] SCHMIDT C. SRIDHARAN N, GOODSON J. The plan recognition problem: an intersection of psychology and artificial intelligence[J]. Artificial Intelligence, 1978, 11: 45-83.

    [62] COHEN P R, PERRAULT C R, ALLEN J F. Beyond question answering[M]//Strategies for Natural Language Processing. Lawrence Erlbaum Associates, 1981.

    [63] PENTNEY W, POPESCU A, WANG S, KAUTZ H, et al. Sensor-based understanding of daily life via large-scale use of common sense[C]//Proceedings of AAAI. 2006.

    [64] KEREN S, GAL A, KARPAS E. Goal recognition design[C]// Twenty-Fourth International Conference on Automated Planning and Scheduling. 2014.

    [65] SON T C, SABUNCU O, Schulz-Hanke C, et al. Solving goal recognition design using ASP[C]//Thirtieth AAAI Conference on Artificial Intelligence. 2016.

    [66] KEREN S, GAL A, KARPAS E, et al. Goal recognition design for non-optimal agents[C]//National Conference on Artificial Intelligence. 2015: 3298-3304.

    [67] KEREN S, GAL A, KARPAS E. Goal recognition design with non-observable actions[C]//Thirtieth AAAI Conference on Artificial Intelligence. 2016.

    [68] KEREN S, GAL A, KARPAS E. Strong stubborn sets for efficient goal recognition design[C]//Twenty-Eighth International Conference on Automated Planning and Scheduling. 2018.

    [69] SARAH K, AVIGDOR G, EREZ K. Goal recognition design in deterministic environments[J]. Journal of Artificial Intelligence Research, 2019, 65: 209-269.

    [70] KEREN S, PINEDAL, GAL A, et al. Equi-reward utility maximizing design in stochastic environments[C]//Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence. 2017: 4353-4360.

    [71] WAYLLACE C, HOU P, YEOH W, et al. Goal recognition design with stochastic agent action outcomes[C]//IJCAI. 2016.

    [72] WAYLLACE C, HOU P, YEOH W. New Metrics and Algorithms for Stochastic Goal Recognition Design Problems[C]//IJCAI. 2017: 4455-4462.

    [73] WAYLLACE C, KEREN S, YEOH W, et al. Accounting for partial observability in stochastic goal recognition design: messing with the marauder’s map[C]//Proceedings of the 10th Workshop on Heuristics and Search for Domain-Independent Planning (HSDIP), Delft, The Netherlands. 2018: 33-41.

    [74] RICHARD B. Dynamic Programming[M]. Princeton University Press, 1957.

    [75] ROBERT T. Depth-first search and linear graph algorithms[J]. SIAM Journal on Computing, 1972, 1(2): 146-160.

    [76] MIRSKY R, STERN R, GAL Y, et al. Plan recognition design[C]//Workshops at the Thirty First AAAI Conference on Artificial Intelligence. 2017.

    [77] RAMIREZ M, GEFFNER H. Heuristics for planning, plan recognition and parsing[J]. arXiv preprint arXiv:1605.05807, 2016.

    [78] MIRSKY R. Goal and plan recognition design for plan libraries[J]. ACM Transactions on Intelligent Systems and Technology (TIST), 2019, 10(2): 14.

    [79] PEREIRA R F, PEREIRA A G, MENEGUZZI F. Landmark-enhanced heuristics for goal recognition in incomplete domain models[C]//Proceedings of the International Conference on Automated Planning and Scheduling. 2019: 329-337.

    [80] PEREIRA R F. Goal recognition over imperfect domain models[J]. arXiv preprint arXiv:2005.05712, 2020.

    [81] AMATO C, BAISERO A. Active goal recognition[J]. arXiv preprint arXiv:1909.11173, 2019.

    [82] ZHANG T. Solving large scale linear prediction problems using stochastic gradient descent algorithms[C]//Proceedings of the International Conference on Machine Learning (ICML). 2004. 919-926.

    [83] ZHUO H H. Recognizing multi-agent plans when action models and team plans are both incomplete[J]//ACM Transactions on Intelligent Systems and Technology, 2019, 10(3): 1-24.

    [84] POZANCO A, MARTIN Y E, FERNANDEZ S, et al. Counterplanning using Goal Recognition and Landmarks[C]//International Joint Conference on Artificial Intelligence. 2018: 4808-4814.

    [85] GADEPALLY V, GOODWIN J, KEPNER J, et al. AI enabling technologies: a survey[J]. arXiv preprint arXiv:1905.03592, 2019.

    [86] CHAKRABORTI T, KULKARNI A, SREEDHARAN S, et al. Explicability legibility predictability transparency privacy security the emerging landscape of interpretable agent behavior[C]//Proceedings of the International Conference on Automated Planning and Scheduling. 2019: 86-96.

    [87] SREEDHARAN S, KAMBHAMPATI S. Balancing explicability and explanation in human-aware planning[C]//2017 AAAI Fall Symposium Series. 2017.

    [88] BANERJEE B, KRAEMER L, LYLE J, et al. Multi-agent plan recognition: formalization and algorithms[C]//National Conference on Artificial Intelligence, 2010: 1059-1064.

    [89] ZHUO H H. Multiagent plan recognition from partially observed team traces[J]. Plan, Activity, and Intent Recognition, 2014: 227-249.

    [90] ARGENTA C, DOYLE J. Multi-agent plan recognition as planning (MAPRAP)[C]//International Conference on Agents and Artificial Intelligence. 2016: 141-14

    [91] ALEXANDER K, WILLIAM M. McEneaney. Adversarial reasoning: computational approaches to reading the opponent's mind[R]. 2006.

    [92] KEREN S, Gal A, KARPAS E. Goal recognition design-survey[C]//Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence (IJCAI-PRICAI-20). 2020.

    Survey of intention recognition for opponent modeling

    GAO Wei1,2, LUO Junren1, YUAN Weilin1, ZHANG Wanpeng1

    1. College of Intelligence Science and Technology,National University of Defense and Technology, Changsha 410073, China 2. The army of 96843, Lanzhou 730102, China

    Several different methods of opponent modeling were introduced, leading to the problem of intention recognition in behavior modeling. Then, the process, classification, main methods, research prospects and practical applications of intention recognition were analyzed inductively, the latest research in related fields were summarized. Finally, some shortcomings of the current intention recognition and design methods were pointed out and some new insights for the future research were presented.

    opponent modeling, intention recognition, goal recognition, plan recognition, goal recognition design, plan recognition design

    TP18

    A

    10.11959/j.issn.2096?109x.2021052

    2020?07?10;

    2020?09?25

    張萬鵬,wpzhang@nudt.edu.cn

    國家自然科學基金(61702528,61806212,U1734208)

    The National Natural Science Foundation of China (61702528, 61806212, U1734208)

    高巍, 羅俊仁, 袁唯淋, 等. 面向?qū)κ纸5囊鈭D識別方法綜述[J]. 網(wǎng)絡(luò)與信息安全學報, 2021, 7(4): 86-100.

    GAO W, LUO J R, YUAN W L, et al. Survey of intention recognition for opponent modeling[J]. Chinese Journal of Network and Information Security, 2021, 7(4): 86-100.

    高?。?996? ),女,遼寧開原人,國防科技大學碩士生,主要研究方向為對手建模、任務(wù)規(guī)劃、意圖識別、彈道規(guī)劃。

    羅俊仁(1989? ),男,湖北大冶人,國防科技大學博士生,主要研究方向為智能體建模、對抗團隊博弈、多智能體強化學習。

    袁唯淋(1994? ),男,云南曲靖人,國防科技大學博士生,主要研究方向為安全博弈、對手建模、強化學習、多智能體系統(tǒng)。

    張萬鵬(1981? ),男,四川邛崍人,國防科技大學副研究員,主要研究方向為智能決策、任務(wù)規(guī)劃、自動化和控制、人機協(xié)同。

    猜你喜歡
    意圖建模計劃
    原始意圖、對抗主義和非解釋主義
    法律方法(2022年2期)2022-10-20 06:42:20
    陸游詩寫意圖(國畫)
    制定法解釋與立法意圖的反事實檢驗
    法律方法(2021年3期)2021-03-16 05:56:58
    聯(lián)想等效,拓展建?!浴皫щ娦∏蛟诘刃鲋凶鰣A周運動”為例
    基于PSS/E的風電場建模與動態(tài)分析
    電子制作(2018年17期)2018-09-28 01:56:44
    不對稱半橋變換器的建模與仿真
    暑假計劃
    學做假期計劃
    學做假期計劃
    Learn to Make a Holiday Plan學做假期計劃
    又紧又爽又黄一区二区| 黑人操中国人逼视频| xxx96com| 成人18禁在线播放| 欧美3d第一页| 国产日本99.免费观看| 男插女下体视频免费在线播放| 国产精品av久久久久免费| 久久精品综合一区二区三区| 岛国视频午夜一区免费看| 午夜影院日韩av| 日韩精品青青久久久久久| 在线观看一区二区三区| 丰满的人妻完整版| 日本 av在线| 亚洲国产看品久久| 久久亚洲精品不卡| 老汉色∧v一级毛片| 中文在线观看免费www的网站| 亚洲,欧美精品.| 国产午夜福利久久久久久| 国产精品野战在线观看| 色av中文字幕| 久久这里只有精品19| 极品教师在线免费播放| 国产精品久久久久久亚洲av鲁大| 国产成人精品久久二区二区免费| 91在线精品国自产拍蜜月 | 久久午夜综合久久蜜桃| av黄色大香蕉| 久久午夜综合久久蜜桃| 天堂网av新在线| 看免费av毛片| 91九色精品人成在线观看| 日本精品一区二区三区蜜桃| 亚洲自偷自拍图片 自拍| 久久精品国产99精品国产亚洲性色| 国产精品久久久久久精品电影| 看片在线看免费视频| 欧美成狂野欧美在线观看| 99久久精品热视频| 婷婷精品国产亚洲av在线| 两个人的视频大全免费| 1000部很黄的大片| 两个人的视频大全免费| 亚洲成人久久性| 国产爱豆传媒在线观看| 亚洲精品在线观看二区| 国产精品综合久久久久久久免费| 好男人电影高清在线观看| 午夜福利在线观看免费完整高清在 | 国产成人福利小说| 他把我摸到了高潮在线观看| 欧美在线黄色| 午夜福利18| 亚洲成人精品中文字幕电影| 亚洲真实伦在线观看| 日本与韩国留学比较| 精华霜和精华液先用哪个| 99久久精品热视频| 国产欧美日韩精品亚洲av| 亚洲av成人av| 国产精品日韩av在线免费观看| 观看美女的网站| 国产成人精品久久二区二区91| 97超级碰碰碰精品色视频在线观看| 看片在线看免费视频| 午夜视频精品福利| 成人特级av手机在线观看| 男人和女人高潮做爰伦理| 久久午夜综合久久蜜桃| 日韩欧美 国产精品| 五月玫瑰六月丁香| 亚洲成人久久爱视频| 国产激情欧美一区二区| 婷婷精品国产亚洲av在线| 亚洲无线在线观看| 又爽又黄无遮挡网站| 国产精品亚洲美女久久久| 婷婷精品国产亚洲av在线| 一个人免费在线观看的高清视频| 亚洲成a人片在线一区二区| 国产亚洲精品av在线| 久久久久亚洲av毛片大全| 久久久国产精品麻豆| 久9热在线精品视频| 国产美女午夜福利| 一级作爱视频免费观看| 丰满人妻熟妇乱又伦精品不卡| 又黄又爽又免费观看的视频| 精华霜和精华液先用哪个| 麻豆国产97在线/欧美| 欧美日韩福利视频一区二区| 成人一区二区视频在线观看| 男女午夜视频在线观看| 亚洲精品中文字幕一二三四区| 久久精品国产99精品国产亚洲性色| 又黄又粗又硬又大视频| 久久亚洲精品不卡| 中亚洲国语对白在线视频| 午夜成年电影在线免费观看| 久久伊人香网站| 一个人看的www免费观看视频| 精品国产三级普通话版| 国产亚洲精品久久久com| 久久国产精品人妻蜜桃| 日韩欧美 国产精品| 国产午夜精品久久久久久| 熟女人妻精品中文字幕| 国产午夜精品论理片| 精品久久久久久,| 男女之事视频高清在线观看| 精品日产1卡2卡| 欧美激情久久久久久爽电影| 欧美黄色片欧美黄色片| 亚洲人成伊人成综合网2020| 色老头精品视频在线观看| 亚洲美女视频黄频| 久久午夜亚洲精品久久| 亚洲国产欧美网| 国产野战对白在线观看| 免费搜索国产男女视频| 久久久精品大字幕| www.自偷自拍.com| 两个人视频免费观看高清| 美女扒开内裤让男人捅视频| 日韩中文字幕欧美一区二区| 色综合站精品国产| 人妻久久中文字幕网| 国产精品98久久久久久宅男小说| 99久久精品热视频| 国产黄色小视频在线观看| 日韩欧美国产一区二区入口| 成年版毛片免费区| 国产精品影院久久| 久久久国产欧美日韩av| 欧美黑人欧美精品刺激| 99国产综合亚洲精品| 中文字幕熟女人妻在线| 90打野战视频偷拍视频| 亚洲国产精品sss在线观看| 五月玫瑰六月丁香| 欧美zozozo另类| e午夜精品久久久久久久| 国产一区二区在线av高清观看| 久久中文字幕人妻熟女| 无遮挡黄片免费观看| 美女高潮喷水抽搐中文字幕| 国产免费av片在线观看野外av| 欧美激情久久久久久爽电影| 成年女人看的毛片在线观看| 欧美又色又爽又黄视频| 午夜影院日韩av| 97超视频在线观看视频| 亚洲欧美一区二区三区黑人| 久久久国产成人免费| 国产真实乱freesex| 亚洲精品乱码久久久v下载方式 | 欧美国产日韩亚洲一区| 国产亚洲精品av在线| 亚洲人成网站在线播放欧美日韩| av天堂在线播放| 久久香蕉国产精品| 99精品久久久久人妻精品| 搡老熟女国产l中国老女人| 最新中文字幕久久久久 | 99国产精品99久久久久| 久久婷婷人人爽人人干人人爱| 俺也久久电影网| 日日摸夜夜添夜夜添小说| 国产av在哪里看| 无人区码免费观看不卡| 两个人看的免费小视频| 午夜福利18| 欧美xxxx黑人xx丫x性爽| 中文字幕久久专区| 国产真人三级小视频在线观看| 国产成人影院久久av| 国产精品野战在线观看| 在线永久观看黄色视频| 国产淫片久久久久久久久 | 一进一出抽搐动态| 国产精品98久久久久久宅男小说| АⅤ资源中文在线天堂| 免费看日本二区| 国产亚洲av高清不卡| 女生性感内裤真人,穿戴方法视频| 性欧美人与动物交配| 精品不卡国产一区二区三区| 听说在线观看完整版免费高清| 色av中文字幕| 日韩精品青青久久久久久| 一夜夜www| 中国美女看黄片| 日本三级黄在线观看| 亚洲精品在线美女| 亚洲欧美一区二区三区黑人| 亚洲在线自拍视频| 18禁黄网站禁片免费观看直播| 男插女下体视频免费在线播放| 久久久精品大字幕| 51午夜福利影视在线观看| 欧美黄色片欧美黄色片| 老司机午夜十八禁免费视频| 五月伊人婷婷丁香| 脱女人内裤的视频| 天堂网av新在线| 动漫黄色视频在线观看| 久久久久国产一级毛片高清牌| 一本久久中文字幕| 欧美黑人巨大hd| 给我免费播放毛片高清在线观看| 99国产综合亚洲精品| 日本免费a在线| 国产成人精品久久二区二区91| 亚洲狠狠婷婷综合久久图片| 国产成人福利小说| 91av网站免费观看| 啪啪无遮挡十八禁网站| 后天国语完整版免费观看| 欧美日韩福利视频一区二区| 久久草成人影院| 熟女少妇亚洲综合色aaa.| 国产在线精品亚洲第一网站| 中文字幕av在线有码专区| 最新在线观看一区二区三区| 国产单亲对白刺激| 日韩欧美国产在线观看| 日韩大尺度精品在线看网址| 色综合婷婷激情| 国产精品一区二区三区四区免费观看 | 麻豆av在线久日| 午夜福利免费观看在线| 男女之事视频高清在线观看| 啪啪无遮挡十八禁网站| 桃红色精品国产亚洲av| av女优亚洲男人天堂 | 国产99白浆流出| 免费看a级黄色片| 国产高清激情床上av| 国产高清视频在线观看网站| 性色av乱码一区二区三区2| 男女视频在线观看网站免费| 亚洲欧美日韩高清专用| 久久久国产成人精品二区| 久久伊人香网站| 精品国内亚洲2022精品成人| 免费看光身美女| 午夜视频精品福利| 国产三级在线视频| 岛国视频午夜一区免费看| 国产精品爽爽va在线观看网站| 最近最新中文字幕大全免费视频| 日本 欧美在线| 非洲黑人性xxxx精品又粗又长| 久久精品国产99精品国产亚洲性色| 亚洲男人的天堂狠狠| 国产又黄又爽又无遮挡在线| 制服丝袜大香蕉在线| 久久久久久久久久黄片| 精品久久久久久,| 在线观看一区二区三区| 国产成年人精品一区二区| 精品免费久久久久久久清纯| 在线观看免费午夜福利视频| 欧美另类亚洲清纯唯美| 国产激情欧美一区二区| 国产精品一区二区精品视频观看| 午夜影院日韩av| 天堂动漫精品| 99国产精品一区二区蜜桃av| 操出白浆在线播放| 最近最新中文字幕大全电影3| 国产激情偷乱视频一区二区| 一二三四在线观看免费中文在| 免费看a级黄色片| 国产亚洲欧美在线一区二区| www.www免费av| 亚洲精品456在线播放app | 偷拍熟女少妇极品色| 午夜福利视频1000在线观看| 欧洲精品卡2卡3卡4卡5卡区| 搡老熟女国产l中国老女人| 久久久久久人人人人人| 97超视频在线观看视频| 亚洲国产欧美一区二区综合| 久久这里只有精品19| 久久热在线av| 国产伦一二天堂av在线观看| 免费看a级黄色片| 精品国产乱码久久久久久男人| 99热6这里只有精品| 人妻丰满熟妇av一区二区三区| 国产亚洲精品久久久久久毛片| 久久精品aⅴ一区二区三区四区| 性色av乱码一区二区三区2| 日韩有码中文字幕| 中文字幕久久专区| 在线观看免费视频日本深夜| 一级a爱片免费观看的视频| 国产亚洲欧美在线一区二区| 久久精品91无色码中文字幕| 99热这里只有精品一区 | 亚洲精品在线美女| 亚洲av美国av| 国产亚洲av嫩草精品影院| 色尼玛亚洲综合影院| 国产伦在线观看视频一区| 日韩欧美精品v在线| 精品久久久久久久毛片微露脸| bbb黄色大片| 欧美最黄视频在线播放免费| av在线蜜桃| www.999成人在线观看| 亚洲色图 男人天堂 中文字幕| 可以在线观看毛片的网站| 成年女人看的毛片在线观看| 在线免费观看的www视频| 日韩欧美免费精品| bbb黄色大片| 99国产精品99久久久久| 免费在线观看影片大全网站| 亚洲精品国产精品久久久不卡| 亚洲成a人片在线一区二区| 狂野欧美白嫩少妇大欣赏| 丰满人妻熟妇乱又伦精品不卡| 九九在线视频观看精品| 国产91精品成人一区二区三区| 欧美成人一区二区免费高清观看 | 亚洲精品一卡2卡三卡4卡5卡| 日韩欧美一区二区三区在线观看| 99久久无色码亚洲精品果冻| 欧美极品一区二区三区四区| 好看av亚洲va欧美ⅴa在| 无遮挡黄片免费观看| 香蕉丝袜av| 老司机午夜十八禁免费视频| 日韩欧美在线乱码| 人人妻人人澡欧美一区二区| 国内毛片毛片毛片毛片毛片| 亚洲一区高清亚洲精品| 熟妇人妻久久中文字幕3abv| 丁香欧美五月| 听说在线观看完整版免费高清| 欧美日韩一级在线毛片| 免费观看精品视频网站| 日韩免费av在线播放| 亚洲中文av在线| 国产视频内射| 免费无遮挡裸体视频| 在线永久观看黄色视频| 18禁裸乳无遮挡免费网站照片| 国产综合懂色| 动漫黄色视频在线观看| 成年女人永久免费观看视频| 成年免费大片在线观看| 欧美日韩瑟瑟在线播放| 亚洲国产精品999在线| 一个人观看的视频www高清免费观看 | 麻豆av在线久日| 免费观看精品视频网站| 日韩精品青青久久久久久| 国产精品久久久久久人妻精品电影| 婷婷丁香在线五月| 国语自产精品视频在线第100页| 久久天堂一区二区三区四区| 久久性视频一级片| 可以在线观看毛片的网站| 日本与韩国留学比较| 欧美日韩乱码在线| 久久天堂一区二区三区四区| 久99久视频精品免费| 亚洲人与动物交配视频| 色综合婷婷激情| 91av网一区二区| 亚洲国产精品成人综合色| 国产aⅴ精品一区二区三区波| av在线蜜桃| or卡值多少钱| 中出人妻视频一区二区| 女同久久另类99精品国产91| 亚洲精品国产精品久久久不卡| 老司机福利观看| 我的老师免费观看完整版| 亚洲欧美一区二区三区黑人| 精品国内亚洲2022精品成人| 国产伦精品一区二区三区视频9 | 黄片小视频在线播放| 午夜福利视频1000在线观看| 脱女人内裤的视频| 一区二区三区激情视频| 久久精品综合一区二区三区| 欧美一级毛片孕妇| 网址你懂的国产日韩在线| 午夜免费观看网址| 女警被强在线播放| 国产黄片美女视频| 国产精品一区二区三区四区久久| 精品一区二区三区四区五区乱码| 免费在线观看视频国产中文字幕亚洲| 丰满的人妻完整版| 后天国语完整版免费观看| 中文字幕av在线有码专区| 国产精品久久久久久精品电影| 国产真实乱freesex| 成人永久免费在线观看视频| 在线免费观看的www视频| 中文字幕精品亚洲无线码一区| 成年版毛片免费区| 亚洲熟妇中文字幕五十中出| 天堂√8在线中文| 99热6这里只有精品| 国产精品98久久久久久宅男小说| 色综合站精品国产| 色av中文字幕| 亚洲真实伦在线观看| 91在线精品国自产拍蜜月 | 狂野欧美激情性xxxx| h日本视频在线播放| 精品久久久久久久毛片微露脸| 一本精品99久久精品77| 国产高清视频在线播放一区| 听说在线观看完整版免费高清| 国产久久久一区二区三区| 18禁观看日本| 久久精品91无色码中文字幕| 中文资源天堂在线| 午夜免费观看网址| 桃色一区二区三区在线观看| 国产精品亚洲一级av第二区| 视频区欧美日本亚洲| 中文字幕最新亚洲高清| 亚洲专区中文字幕在线| 18禁美女被吸乳视频| 丰满人妻熟妇乱又伦精品不卡| 午夜久久久久精精品| 日韩免费av在线播放| 亚洲精品中文字幕一二三四区| 看免费av毛片| avwww免费| 美女 人体艺术 gogo| 国产乱人伦免费视频| 久久中文字幕一级| 日韩大尺度精品在线看网址| 美女大奶头视频| 国产亚洲精品久久久com| 又黄又粗又硬又大视频| 免费电影在线观看免费观看| 欧美黄色淫秽网站| 全区人妻精品视频| 久久中文字幕一级| 波多野结衣巨乳人妻| 久久婷婷人人爽人人干人人爱| 精品熟女少妇八av免费久了| 黑人巨大精品欧美一区二区mp4| 日韩欧美在线乱码| 午夜免费观看网址| 在线看三级毛片| 日本黄大片高清| 一个人观看的视频www高清免费观看 | av黄色大香蕉| 亚洲国产精品sss在线观看| 亚洲色图 男人天堂 中文字幕| 白带黄色成豆腐渣| 日韩三级视频一区二区三区| 欧美另类亚洲清纯唯美| 国产精品久久久久久亚洲av鲁大| 99久久无色码亚洲精品果冻| 人人妻人人看人人澡| 亚洲精品色激情综合| 国产69精品久久久久777片 | 99国产精品一区二区蜜桃av| 99热精品在线国产| 久久久久久久久久黄片| 亚洲欧美精品综合久久99| 国产一级毛片七仙女欲春2| 久久精品综合一区二区三区| 欧美中文日本在线观看视频| 国产高清视频在线播放一区| 69av精品久久久久久| 啦啦啦韩国在线观看视频| 婷婷六月久久综合丁香| 色视频www国产| 两个人的视频大全免费| 精品久久久久久久末码| 好看av亚洲va欧美ⅴa在| 国产黄a三级三级三级人| 一本精品99久久精品77| 国产又色又爽无遮挡免费看| 欧美色欧美亚洲另类二区| 黄色 视频免费看| 又大又爽又粗| 亚洲色图av天堂| 免费看美女性在线毛片视频| 亚洲 欧美一区二区三区| 男女做爰动态图高潮gif福利片| 美女高潮的动态| 日韩欧美 国产精品| 男人的好看免费观看在线视频| 亚洲最大成人中文| 久久久精品欧美日韩精品| 99热这里只有是精品50| 久久天堂一区二区三区四区| 又爽又黄无遮挡网站| 亚洲精品在线观看二区| 操出白浆在线播放| 成年女人看的毛片在线观看| www.www免费av| 国产精品99久久99久久久不卡| 在线观看美女被高潮喷水网站 | 男人舔女人的私密视频| 免费搜索国产男女视频| 又黄又粗又硬又大视频| 亚洲国产欧美人成| 亚洲国产精品久久男人天堂| 美女免费视频网站| 三级毛片av免费| 伊人久久大香线蕉亚洲五| 男人和女人高潮做爰伦理| 三级男女做爰猛烈吃奶摸视频| 欧美成人性av电影在线观看| 欧美日韩国产亚洲二区| 国产精品九九99| 91老司机精品| 日韩欧美三级三区| 美女扒开内裤让男人捅视频| 久久人人精品亚洲av| 精品熟女少妇八av免费久了| 国产高清视频在线播放一区| 久久性视频一级片| 亚洲精品在线美女| 国产精华一区二区三区| 日韩中文字幕欧美一区二区| cao死你这个sao货| 亚洲国产日韩欧美精品在线观看 | 久久香蕉国产精品| 精品久久久久久久久久免费视频| 男女做爰动态图高潮gif福利片| 狂野欧美激情性xxxx| 天天躁狠狠躁夜夜躁狠狠躁| 国产成人欧美在线观看| 午夜影院日韩av| 国产单亲对白刺激| 久久人人精品亚洲av| 国产成人欧美在线观看| 亚洲精品一区av在线观看| 很黄的视频免费| 人人妻人人澡欧美一区二区| 狂野欧美白嫩少妇大欣赏| 免费在线观看影片大全网站| 久久午夜亚洲精品久久| 身体一侧抽搐| 久久天躁狠狠躁夜夜2o2o| 精品福利观看| 中亚洲国语对白在线视频| 白带黄色成豆腐渣| 老鸭窝网址在线观看| 欧美不卡视频在线免费观看| 最近最新中文字幕大全免费视频| 国产亚洲精品av在线| 性色av乱码一区二区三区2| 99国产精品99久久久久| 欧美黑人欧美精品刺激| 国产69精品久久久久777片 | 国产欧美日韩精品亚洲av| 美女 人体艺术 gogo| 超碰成人久久| 亚洲片人在线观看| 久久精品影院6| 狂野欧美白嫩少妇大欣赏| 国产1区2区3区精品| 久久久久久久久久黄片| 黑人欧美特级aaaaaa片| 精品国产三级普通话版| 亚洲欧洲精品一区二区精品久久久| 久久这里只有精品中国| 亚洲国产中文字幕在线视频| 亚洲国产精品999在线| 午夜福利成人在线免费观看| 国产蜜桃级精品一区二区三区| 美女扒开内裤让男人捅视频| 久久亚洲精品不卡| 亚洲国产精品久久男人天堂| 国产伦精品一区二区三区视频9 | 母亲3免费完整高清在线观看| 国产精品国产高清国产av| 叶爱在线成人免费视频播放| 搞女人的毛片| 黄色视频,在线免费观看| 国产精品亚洲美女久久久| 中文字幕熟女人妻在线| 国产欧美日韩精品一区二区| 亚洲av电影在线进入| 亚洲无线观看免费| 少妇裸体淫交视频免费看高清| 香蕉久久夜色| 岛国在线免费视频观看| 国产精品乱码一区二三区的特点| 亚洲欧美日韩卡通动漫| 三级男女做爰猛烈吃奶摸视频| 麻豆av在线久日| 国产精品一区二区免费欧美| 变态另类丝袜制服| 欧美日本视频| 偷拍熟女少妇极品色| 亚洲专区国产一区二区| 成年人黄色毛片网站| 最好的美女福利视频网| 99久久综合精品五月天人人| 最新中文字幕久久久久 | 亚洲av五月六月丁香网| 精品久久久久久久末码| 每晚都被弄得嗷嗷叫到高潮| 免费在线观看亚洲国产| 国产精品香港三级国产av潘金莲|