• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    概率圖模型的表示理論綜述

    2016-09-02 04:48:17劉建偉黎海恩周佳佳羅雄麟
    電子學(xué)報(bào) 2016年5期
    關(guān)鍵詞:馬爾可夫概率分布貝葉斯

    劉建偉,黎海恩,周佳佳,羅雄麟

    (1.中國(guó)石油大學(xué)(北京)自動(dòng)化系,北京 102249; 2.新華醫(yī)藥化工設(shè)計(jì)有限公司,山東淄博 255086)

    ?

    概率圖模型的表示理論綜述

    劉建偉1,黎海恩2,周佳佳1,羅雄麟1

    (1.中國(guó)石油大學(xué)(北京)自動(dòng)化系,北京 102249; 2.新華醫(yī)藥化工設(shè)計(jì)有限公司,山東淄博 255086)

    概率圖模型結(jié)合概率論與圖論的知識(shí),利用圖結(jié)構(gòu)表示變量的聯(lián)合概率分布,近年已成為不確定性推理的研究熱點(diǎn).隨著概率圖模型在實(shí)際領(lǐng)域中的應(yīng)用日益增加,不同的任務(wù)和應(yīng)用環(huán)境對(duì)概率圖模型的表示理論提出了不同的新要求.本文總結(jié)出近年來(lái)提出的多種概率圖模型的表示理論.最后指出概率圖模型的進(jìn)一步研究方向.

    概率圖模型;連續(xù)化;非齊次化;貝葉斯邏輯;馬爾可夫邏輯;非參數(shù)化;矩陣正態(tài)圖模型;Copula函數(shù);混合圖模型

    1 引言

    近年來(lái),概率圖模型(Probabilistic Graphical Models,PGM)已受到眾多領(lǐng)域的科學(xué)家們的關(guān)注.PGM的表示理論結(jié)合了概率論與圖論的知識(shí),通過(guò)圖來(lái)表示隨機(jī)變量間的依賴關(guān)系,為多變量統(tǒng)計(jì)建模提供了有力的表示框架.自Pearl建立起貝葉斯網(wǎng)的框架[1]后,眾多學(xué)者對(duì)此進(jìn)行研究,不斷豐富概率圖模型的體系.文獻(xiàn)[2,3]詳細(xì)介紹了概率圖模型的表示、推理和學(xué)習(xí)的相關(guān)理論.在PGM經(jīng)典表示理論的基礎(chǔ)上,本文主要?dú)w納了近幾年來(lái)PGM的新表示理論.

    PGM的分類可分兩種情況:(1)根據(jù)邊有無(wú)方向性分類;(2)根據(jù)表示的抽象級(jí)別不同分類,如圖1所示.根據(jù)邊有無(wú)方向性,PGM可以分為三類:(1)有向圖模型[2],也稱為貝葉斯網(wǎng)(Bayesian Network,BN),其網(wǎng)絡(luò)結(jié)構(gòu)使用有向無(wú)環(huán)圖;(2)無(wú)向圖模型[2],也稱為馬爾可夫網(wǎng)(Markov Network,MN),其網(wǎng)絡(luò)結(jié)構(gòu)為無(wú)向圖;(3)局部有向模型,即同時(shí)存在有向邊和無(wú)向邊的模型,包括條件隨機(jī)場(chǎng)(Conditional Random Field,CRF)[4]和鏈圖(Chain Graph)[5].

    根據(jù)表示的抽象級(jí)別不同,PGM可分兩類:(1)基于隨機(jī)變量的概率圖模型,如貝葉斯網(wǎng)、馬爾可夫網(wǎng)、條件隨機(jī)場(chǎng)和鏈圖等;(2)基于模板的概率圖模型.這類模型根據(jù)應(yīng)用場(chǎng)景不同又可分為兩種:(a)為暫態(tài)模型,包括動(dòng)態(tài)貝葉斯網(wǎng)(Dynamic Bayesian Network,DBN)[6]和狀態(tài)觀測(cè)模型,其中狀態(tài)觀測(cè)模型又包括線性動(dòng)態(tài)系統(tǒng)(Linear Dynamic System,LDS)和隱馬爾可夫模型 (Hidden Markov Model,HMM);(b)為對(duì)象關(guān)系領(lǐng)域的概率圖模型[7],包括盤(pán)模型(Plate Model,PM)、概率關(guān)系模型(Probabilistic Relational Model,PRM)和關(guān)系馬爾可夫網(wǎng)(Relational Markov Network,RMN).

    所有概率圖模型均可使用獨(dú)立等價(jià)手段簡(jiǎn)化概率圖模型,利用概率圖節(jié)點(diǎn)的兩兩獨(dú)立、局部獨(dú)立和全局獨(dú)立關(guān)系可以簡(jiǎn)化聯(lián)合概率分布的表示,利用網(wǎng)絡(luò)結(jié)構(gòu)與概率分布間獨(dú)立等價(jià)關(guān)系如獨(dú)立映射、最小I-映射和完美映射,可以實(shí)現(xiàn)不同的概率圖同一聯(lián)合概率分布,從而需要找到最適合學(xué)習(xí)推理的概率圖表示形式.BN、鏈圖、DBN、LDS、HMM、PM 和PRM屬于有向圖模型,MN、 CRF和 RMN屬于無(wú)向圖模型.有向圖模型的聯(lián)合概率分布,可利用參數(shù)和非參數(shù)概率模型對(duì)圖中節(jié)點(diǎn)、邊、團(tuán)、跡等圖結(jié)構(gòu)單元參數(shù)化得到,聯(lián)合概率分布可直接分解為每個(gè)節(jié)點(diǎn)所對(duì)應(yīng)的概率分布的乘積,有利于大規(guī)模學(xué)習(xí)和推理.有向圖模型主要應(yīng)用于具有因果關(guān)系的場(chǎng)景中,如醫(yī)療診斷、故障診斷、統(tǒng)計(jì)決策和專家系統(tǒng)等方面.無(wú)向圖模型的聯(lián)合概率分布,可利用參數(shù)和非參數(shù)概率模型對(duì)圖中的團(tuán)參數(shù)化得到,聯(lián)合概率分布由圖中包含的團(tuán)勢(shì)乘積經(jīng)過(guò)歸一化得到,給學(xué)習(xí)和推理帶來(lái)很大的困難,通常只能通過(guò)局部獨(dú)立假設(shè),通過(guò)消息傳播,求解到近似聯(lián)合概率分布.無(wú)向圖模型不能表示變量間的因果關(guān)系,無(wú)向圖模型不能對(duì)有因果關(guān)系的問(wèn)題進(jìn)行學(xué)習(xí)推理,無(wú)向圖模型主要應(yīng)用于計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理、信息解碼和語(yǔ)言識(shí)別等領(lǐng)域.

    2 概率圖模型的表示理論

    隨著PGM在實(shí)際領(lǐng)域中的應(yīng)用日益增加,不同的任務(wù)和應(yīng)用環(huán)境對(duì)PGM的表示理論提出了不同的新要求.為了更好地適應(yīng)新應(yīng)用場(chǎng)景以及得到能更加準(zhǔn)確地反映真實(shí)系統(tǒng)的模型,研究人員對(duì)PGM的表示理論作出了巨大的努力,推動(dòng)了PGM的快速發(fā)展.

    2.1概率圖模型在暫態(tài)場(chǎng)景中的發(fā)展

    在暫態(tài)模型中,為了簡(jiǎn)化表示問(wèn)題使模型易于處理,模型需要滿足三個(gè)假設(shè),包括離散假設(shè)、馬爾可夫假設(shè)和平穩(wěn)假設(shè).但是,這些假設(shè)條件過(guò)于苛刻,通常不能滿足實(shí)際場(chǎng)景的情況,這限制了暫態(tài)模型的廣泛應(yīng)用.研究學(xué)者對(duì)這些假設(shè)條件進(jìn)行放松,推動(dòng)了暫態(tài)模型的進(jìn)一步發(fā)展,特別是動(dòng)態(tài)貝葉斯網(wǎng)表示理論的發(fā)展.

    2.1.1連續(xù)化

    離散假設(shè)以固定時(shí)間間隔把時(shí)間軸離散化,動(dòng)態(tài)系統(tǒng)的模型只能在這些固定的時(shí)間點(diǎn)上轉(zhuǎn)移,從上一時(shí)間點(diǎn)轉(zhuǎn)移到下一時(shí)間點(diǎn),其推理過(guò)程也只能查詢這些時(shí)間點(diǎn)上的系統(tǒng)狀態(tài).但很多實(shí)際場(chǎng)景中不能離散化時(shí)間軸,需要在連續(xù)的時(shí)間軸上建模,如某些變量會(huì)隨著時(shí)間快速變化的系統(tǒng).為了解決該問(wèn)題,Nodelman等人定義了連續(xù)時(shí)間貝葉斯網(wǎng)(Continuous Time Bayesian Network,CTBN)[8],把馬爾可夫過(guò)程推廣到分解域中.CTBN編碼了一個(gè)指數(shù)狀態(tài)空間上的齊次連續(xù)馬爾可夫過(guò)程.由于CTBN狀態(tài)空間的復(fù)雜性,使得其推理和學(xué)習(xí)過(guò)程難以處理,很多學(xué)者致力于研究CTBN的有效推理和學(xué)習(xí)算法.文獻(xiàn)[9]提出了CTBN的期望傳播推理算法.文獻(xiàn)[10]結(jié)合期望最大化和結(jié)構(gòu)期望最大化算法,提出一種CTBN的結(jié)構(gòu)和參數(shù)學(xué)習(xí)的算法,有效地實(shí)現(xiàn)從局部觀測(cè)數(shù)據(jù)中學(xué)習(xí)CTBN.文獻(xiàn)[11]提出CTBN的平均場(chǎng)變分近似推理算法,把CTBN的后驗(yàn)概率分布近似為獨(dú)立單元的乘積,每個(gè)單元都是一個(gè)非齊次連續(xù)馬爾可夫過(guò)程.

    在動(dòng)態(tài)建模過(guò)程中,除了把有向圖模型BN進(jìn)行連續(xù)化作為建模工具外,El-Hay等人還提出連續(xù)時(shí)間馬爾可夫網(wǎng)(Continuous Time Markov Network,CTMN)[12].CTMN同樣能為連續(xù)時(shí)間動(dòng)態(tài)系統(tǒng)建模,其暫態(tài)過(guò)程的平穩(wěn)分布具有更加簡(jiǎn)潔的圖模型表示.

    2.1.2非齊次化

    平穩(wěn)假設(shè)也稱為齊次假設(shè),假設(shè)了不同時(shí)間點(diǎn)上的數(shù)據(jù)來(lái)自于同一個(gè)齊次馬爾可夫過(guò)程.但實(shí)際上,系統(tǒng)變量之間的依賴關(guān)系或者其參數(shù)模型可能會(huì)隨著時(shí)間的變化而改變,使得數(shù)據(jù)不再是來(lái)自于同一個(gè)過(guò)程.為了使DBN適用于這類暫態(tài)系統(tǒng)的建模,研究人員對(duì)平穩(wěn)假設(shè)進(jìn)行放松,提出非齊次DBN.

    Robinson和Hartemink提出離散非齊次DBN[13],不同時(shí)間點(diǎn)上的模型具有不同的結(jié)構(gòu),并且?guī)в袑?duì)結(jié)構(gòu)差異性進(jìn)行懲罰的正則化項(xiàng).Grzegorczyk和Husmeier提出連續(xù)非齊次DBN[14],其參數(shù)允許隨著時(shí)間變化,并給出一個(gè)共享網(wǎng)絡(luò)來(lái)提供不同時(shí)間點(diǎn)上所共享的信息.Lèbre[15]提出另一種連續(xù)非齊次DBN,允許網(wǎng)絡(luò)結(jié)構(gòu)在不同時(shí)間點(diǎn)上變化.而文獻(xiàn)[16]和文獻(xiàn)[17]提出的模型雖然基于非貝葉斯方法,但也十分類似于非齊次DBN,只是其推理基于參數(shù)的稀疏L1范數(shù)正則化回歸.而Grzegorczyk和Husmeier提出適用于連續(xù)數(shù)據(jù)的非齊次DBN[18].為了解決基因調(diào)控網(wǎng)絡(luò)結(jié)構(gòu)隨時(shí)間變化的問(wèn)題,Dondelinger等人提出一種帶有貝葉斯正則化項(xiàng)的非齊次DBN[19],可適用于連續(xù)型數(shù)據(jù),網(wǎng)絡(luò)結(jié)構(gòu)能夠隨時(shí)間變化,并給出了四種不同的正則化策略.Grzegorczyk和Husmeier還提出正則化非齊次DBN[20],使不同分隔時(shí)間段上的信息能夠共享,其耦合機(jī)制使得不同分隔時(shí)間段的參數(shù)共享類似的先驗(yàn)概率分布模型.

    2.2概率圖模型與邏輯語(yǔ)言的結(jié)合

    概率圖模型可以有效處理不確定性,而邏輯語(yǔ)言可以簡(jiǎn)潔地表示領(lǐng)域中的大量知識(shí).因此,結(jié)合PGM與邏輯語(yǔ)言各自的優(yōu)點(diǎn)一直是人工智能領(lǐng)域的目標(biāo),也是多數(shù)實(shí)際應(yīng)用的迫切需要.目前,研究人員已開(kāi)發(fā)出多種概率邏輯語(yǔ)言.PRM結(jié)合了有向圖模型BN與關(guān)系邏輯語(yǔ)言的優(yōu)點(diǎn),而RMN則是基于無(wú)向圖模型MN與關(guān)系邏輯語(yǔ)言的表示框架.除了對(duì)象關(guān)系域模型之外,PGM與邏輯語(yǔ)言還有多種結(jié)合方式.

    2.2.1貝葉斯邏輯

    Kristian和Luc利用BN和有限子句邏輯的優(yōu)點(diǎn),提出貝葉斯邏輯程序(Bayesian Logic Program,BLP),建立起底層網(wǎng)絡(luò)與隨機(jī)變量之間的一一映射[21,22].Kristian和Luc還把BLP擴(kuò)展到連續(xù)變量空間中[23],并給出了BLP的學(xué)習(xí)方法.Sindhu和Raymond提出貝葉斯溯因邏輯程序(Bayesian Abductive Logic Program,BALP)[24],把BLP與溯因邏輯聯(lián)合起來(lái)用于溯因推理.BLP使用邏輯演繹法來(lái)構(gòu)造貝葉斯網(wǎng),而B(niǎo)ALP使用邏輯溯因法,更適用于規(guī)劃識(shí)別和行為識(shí)別等問(wèn)題.Laskey還提出多實(shí)體貝葉斯網(wǎng)(Multi-Entity Bayesian Networks,MEBN)[25],MEBN也是一種一階貝葉斯知識(shí)庫(kù)語(yǔ)言,能表示多種類型的概率分布,并可在多種應(yīng)用場(chǎng)景中用于領(lǐng)域知識(shí)的表示.

    2.2.2馬爾可夫邏輯

    馬爾可夫邏輯網(wǎng)(Markov Logic Network,MLN) 由Richardson和Domingos提出[26],是無(wú)向圖模型與一階邏輯結(jié)合最典型的情況.MLN可以簡(jiǎn)潔地描述巨大的馬爾可夫網(wǎng),并能夠靈活地表示豐富的領(lǐng)域知識(shí).由于MLN定義在有限域中,不能充分發(fā)揮一階邏輯的優(yōu)點(diǎn),因此Singla和Domingos通過(guò)吉布斯測(cè)度理論把MLN擴(kuò)展到無(wú)限域中,并給出了與MLN勢(shì)函數(shù)相一致的測(cè)度的存在性與唯一性的充分條件[27].Kok和Domingos還把MLN擴(kuò)展到二階邏輯語(yǔ)言[28].Jain等人提出帶有動(dòng)態(tài)參數(shù)的自適應(yīng)MLN[29],通過(guò)對(duì)參數(shù)的動(dòng)態(tài)調(diào)整,能有效表示變量間的隨機(jī)作用關(guān)系.

    溯因法是求解觀察現(xiàn)象最優(yōu)解釋的方法,在自然語(yǔ)言處理中十分重要.Blythe等人在馬爾可夫邏輯中實(shí)現(xiàn)加權(quán)溯因,使用加權(quán)一階規(guī)則來(lái)表示概率知識(shí)[30].而Singla和Mooney利用MLN進(jìn)行溯因推理,并提出隱原因模型和溯因模型使得MLN規(guī)則在規(guī)劃識(shí)別應(yīng)用中比其它方法更優(yōu)越[31].

    一階邏輯概率語(yǔ)言在推理和學(xué)習(xí)過(guò)程中都存在很大的困難,文獻(xiàn)[32]提出上升概率推理使MLN的推理能有效實(shí)現(xiàn),而文獻(xiàn)[33]提出可處理馬爾可夫邏輯(Tractable Markov Logic,TML),當(dāng)圖模型具有高樹(shù)寬時(shí)TML仍能有效推理.

    2.3高斯圖模型的非參數(shù)化

    經(jīng)典概率圖模型BN和MN只能處理離散型數(shù)據(jù),因此連續(xù)型數(shù)據(jù)情況下需要對(duì)BN和MN的參數(shù)模型進(jìn)行約束,使參數(shù)模型服從高斯分布.但這種高斯圖模型的參數(shù)假設(shè)在實(shí)際應(yīng)用中過(guò)于苛刻,不能真實(shí)地反應(yīng)實(shí)際場(chǎng)景.一種常用的解決方法是把高斯圖模型進(jìn)行非參數(shù)化,如使用核密度估計(jì).如何有效構(gòu)造這種非參數(shù)化高斯圖模型,成為研究人員關(guān)注的熱點(diǎn).

    Meinshausen和Buhlmann提出了一種有效估計(jì)高斯圖模型的方法,使用套索(Lasso)技術(shù)保證變量選擇過(guò)程的正確性[34].Liu等人提出一種非參數(shù)算法來(lái)估計(jì)高斯圖模型的結(jié)構(gòu)[35],該算法稱為基于圖優(yōu)化的分類和回歸樹(shù)算法(Graph-Optimized Classification and Regression Trees,Go-CART).為了得到真實(shí)概率分布的一個(gè)更好的近似,Lafferty等人提出兩種方法來(lái)構(gòu)建更加靈活的非參數(shù)高斯圖模型[36],其中一種方法所構(gòu)建的圖模型可使用任意的網(wǎng)絡(luò)結(jié)構(gòu),但參數(shù)模型是高斯模型的非參數(shù)擴(kuò)展,而另一種方法使用核密度估計(jì)參數(shù)模型,并限制網(wǎng)絡(luò)結(jié)構(gòu)為樹(shù)狀或森林狀.

    2.4定性概率圖模型

    在某些實(shí)際應(yīng)用中,由于數(shù)據(jù)的缺失可能會(huì)導(dǎo)致變量間的關(guān)系存在不確定性,此時(shí)BN中嚴(yán)格的數(shù)值量化表示形式并不適用,并可能因?yàn)橹焕糜邢薜念I(lǐng)域知識(shí)而導(dǎo)致模型過(guò)擬合.因此,研究人員提出多種定性建模與定性推理的方法,試圖根據(jù)不同的應(yīng)用場(chǎng)景來(lái)定性描述變量間的關(guān)系.Wellman提出的定性概率網(wǎng)(Qualitative Probabilistic Nerwotk,QPN)是BN的一種定性概念形式[37],QPN的表達(dá)能力低于BN,但是卻簡(jiǎn)化了表示模型以及加速推理過(guò)程,在應(yīng)用上具有更高的效率.

    為了解決由BN導(dǎo)出QPN的過(guò)程中很有可能由于知識(shí)的不確定性而產(chǎn)生有向邊的不確定性關(guān)系,Bolt等人在QPN的框架中融入情景符號(hào)(situational signs)的概念[38],基于情景符號(hào)獲取網(wǎng)絡(luò)當(dāng)前狀態(tài)的影響信息.而Renooij等人基于上下文的信息確定定性影響的符號(hào),在推理時(shí)預(yù)先排除產(chǎn)生歧義的結(jié)果[39].

    由于QPN缺乏對(duì)定性符號(hào)權(quán)重的描述,使得不能以量化機(jī)制來(lái)解決推理過(guò)程中發(fā)生的不一致沖突問(wèn)題,為此Liu和Wellman提出增量式方法,從所對(duì)應(yīng)的BN中獲取數(shù)值信息消除沖突[40].Renooij等人通過(guò)辨識(shí)影響的強(qiáng)弱程度對(duì)QPN進(jìn)行擴(kuò)展,基于“強(qiáng)影響對(duì)結(jié)果的作用大于弱影響”的思想來(lái)消除推理沖突問(wèn)題[41].他們還提出半定性概率網(wǎng)(Semi-QPN,SQPN)的概念[42],每個(gè)定性影響的強(qiáng)度使用一個(gè)概率區(qū)間值描述,從而對(duì)定性影響進(jìn)行量化.文獻(xiàn)[43]則基于粗糙集理論,把變量間的依賴度作為QPN每一條有向邊的定性影響的權(quán)重,并使用權(quán)重傳播的推理方法構(gòu)造模型.

    2.5高斯圖模型與矩陣型數(shù)據(jù)的結(jié)合

    隨著信息技術(shù)的飛速發(fā)展,實(shí)際應(yīng)用中所面臨的數(shù)據(jù)大多數(shù)是高維數(shù)據(jù).矩陣型變量是處理這些帶有重要結(jié)構(gòu)信息的高維數(shù)據(jù)的一個(gè)重要工具,而高斯圖模型能有效地為隨機(jī)變量集之間的條件獨(dú)立關(guān)系建模.因此,高斯圖模型與矩陣變量數(shù)據(jù)的結(jié)合有力地推進(jìn)了高維結(jié)構(gòu)化數(shù)據(jù)處理的發(fā)展,這兩者的結(jié)合產(chǎn)生的模型稱為矩陣正態(tài)圖模型(Matrix Normal Graphical Model,MNGM).

    但是目前MNGM的模型選擇和估計(jì)方法還不成熟,特別是在高維情況中.Wang和West給出了MNGM的貝葉斯分析,提出利用MCMC抽樣方法來(lái)進(jìn)行推理,并把MNGM模型擴(kuò)展到矩陣時(shí)間序列上[44].Allen和Tibshirani提出懲罰似然方法來(lái)進(jìn)行MNGM的模型估計(jì),在協(xié)方差矩陣逆目標(biāo)函數(shù)中引入L1范數(shù)和L2范數(shù)罰函數(shù)[45].Yin和Li提出了L1范數(shù)罰似然方法和坐標(biāo)下降方法來(lái)選擇和估計(jì)MNGM的模型[46].除了使用矩陣范數(shù)之外,研究人員還提出使用數(shù)組范數(shù)來(lái)處理高維數(shù)據(jù)[47].Allen針對(duì)數(shù)組范數(shù)分布提出L1罰估計(jì)方法構(gòu)造MNGM[48].

    2.6概率圖模型與Copula函數(shù)的結(jié)合

    PGM主要應(yīng)用于多變量場(chǎng)景中,但是在其學(xué)習(xí)和推理過(guò)程中多變量分布函數(shù)的估計(jì)是極具挑戰(zhàn)性的任務(wù).Copula函數(shù)描述的是變量間的相關(guān)性,通過(guò)利用邊緣分布函數(shù)之間的copula函數(shù)C,可以把一個(gè)多變量分布函數(shù)分解為單變量或二變量邊緣分布函數(shù)的組合.PGM與Copula函數(shù)的結(jié)合既能利用圖結(jié)構(gòu)的獨(dú)立性簡(jiǎn)化高維Copula函數(shù)的表示,又能通過(guò)Copula函數(shù)構(gòu)造多變量分布函數(shù)簡(jiǎn)化PGM的學(xué)習(xí)和推理過(guò)程.因此,近年來(lái),PGM與Copula函數(shù)的結(jié)合得到了研究人員的關(guān)注.

    文獻(xiàn)[49]和文獻(xiàn)[50]最早提出Copula函數(shù)與圖結(jié)構(gòu)獨(dú)立性結(jié)合的思想,但是他們只局限于使用Pair-Copula構(gòu)造(Pair-Copula Contruction,PCC)概率圖模型.Bauer等人則使用PCC來(lái)構(gòu)造DAG的非高斯概率分布[51].Dobra和Lenkoski提出Copula高斯圖模型,只對(duì)與觀測(cè)變量有一一對(duì)應(yīng)關(guān)系的隱變量作高斯正態(tài)分布假設(shè),其圖模型選擇由半?yún)?shù)高斯Copula函數(shù)實(shí)現(xiàn)[52].Elidan提出Copula貝葉斯網(wǎng)(Copula Bayesian Network,CBN)[53],對(duì)節(jié)點(diǎn)的條件概率分布進(jìn)行基于Copula的參數(shù)化,并與隱含獨(dú)立性關(guān)系的圖結(jié)構(gòu)結(jié)合,實(shí)現(xiàn)了高維概率分布建模的靈活性,同時(shí)又保留了Copula對(duì)單變量邊緣分布的控制.隨后,他還針對(duì)非線性CBN提出一種快速結(jié)構(gòu)學(xué)習(xí)方法[54],并且指出CBN在數(shù)據(jù)缺失的情況下依然具有顯著的計(jì)算優(yōu)勢(shì)[55].Elidan還給出Copula網(wǎng)絡(luò)分類器(Copula Network Classifier)用以解決連續(xù)解釋變量領(lǐng)域的復(fù)雜分類問(wèn)題[56].

    2.7混合圖模型與圖模型的混合

    混合圖模型(Mixed Graphical Model)指模型中同時(shí)包含離散變量和連續(xù)變量.在只有連續(xù)變量的情況中,通常假設(shè)數(shù)據(jù)服從高斯分布.而在只有離散變量的情況中,經(jīng)典的BN和兩兩關(guān)系MN都可適用.模型同時(shí)存在離散和連續(xù)變量則為建模問(wèn)題帶來(lái)了挑戰(zhàn)性.Lauritzen首先提出使用條件高斯分布為混合數(shù)據(jù)建模[57],這一理論成為了混合圖模型研究的奠基石.但是,使用條件高斯分布建模時(shí),模型參數(shù)的個(gè)數(shù)隨著變量個(gè)數(shù)的增加而指數(shù)增長(zhǎng).文獻(xiàn)[58]利用隨機(jī)森林與穩(wěn)定性選擇理論的結(jié)合,解決了混合圖模型在高維情況中的估計(jì)問(wèn)題.Lee和Hastie提出一種新兩兩關(guān)系模型(Pairwise Model),針對(duì)離散和連續(xù)變量的條件概率分布分別使用多類邏輯斯蒂回歸和高斯線性回歸,并給出有效的結(jié)構(gòu)學(xué)習(xí)算法[59].Cheng等人對(duì)條件高斯分布進(jìn)行簡(jiǎn)化,顯著減少模型參數(shù)的個(gè)數(shù),并對(duì)底層網(wǎng)絡(luò)結(jié)構(gòu)作出稀疏性假設(shè)用以處理高維情況的建模[60].

    圖模型的混合(Mixture of Graphical Models)指圖模型中考慮隱變量對(duì)觀測(cè)變量的影響,使得圖模型融合了特定上下文依賴性(Context-Specific Dependencies),觀測(cè)變量之間的結(jié)構(gòu)關(guān)系可隨著隱變量的變化而改變.目前,圖模型混合的研究主要針對(duì)樹(shù)混合,Kumar和Koller考慮使用基于期望最大化的方法進(jìn)行樹(shù)混合的學(xué)習(xí)[61],而Thiesson等人對(duì)該方法進(jìn)行擴(kuò)展討論了DAG圖模型的混合[62].Mossel和Roch提出隱樹(shù)混合,該模型可認(rèn)為是乘積分布的分層混合[63].Anandkumar等人提出離散圖模型混合的無(wú)監(jiān)督估計(jì)算法,可適用于高維情況[64].

    2.8不同數(shù)據(jù)類型下的概率圖模型

    在實(shí)際應(yīng)用領(lǐng)域中常常出現(xiàn)各種不同類型的數(shù)據(jù),最簡(jiǎn)單的有離散數(shù)據(jù)和連續(xù)數(shù)據(jù).數(shù)據(jù)類型的不同也影響著PGM表示理論的發(fā)展.

    分類數(shù)據(jù)是反映事物類別的統(tǒng)計(jì)數(shù)據(jù),高維相關(guān)多變量分類數(shù)據(jù)的分析是機(jī)器學(xué)習(xí)領(lǐng)域的重要問(wèn)題.Khan等人利用隱高斯圖模型分析分類數(shù)據(jù),并給出一種新的Stick-Breaking似然函數(shù),能有效發(fā)現(xiàn)數(shù)據(jù)間的相關(guān)性[65].

    多媒體數(shù)據(jù)同時(shí)融合了文本、圖像、圖形和聲音等信息,通常希望使用低維的隱式表達(dá)方式來(lái)概括這些高維數(shù)據(jù)的特征.為了處理多媒體數(shù)據(jù),Xing等人提出了基于雙層無(wú)向圖模型的Muti-wing Harmonium模型,該模型是有向Latent Dirichlet Allocation模型的一種無(wú)向化對(duì)應(yīng)實(shí)現(xiàn),但在多媒體數(shù)據(jù)推理和學(xué)習(xí)任務(wù)中卻更加有效[66].

    文檔、互聯(lián)網(wǎng)、電子表格和數(shù)據(jù)庫(kù)中經(jīng)常以表格的形式編碼大量信息,這些信息的綜合或者搜索,對(duì)理解信息的含義并顯式表示這些數(shù)據(jù)非常重要.Mulwad等人提出一種新方法可在不同領(lǐng)域中解釋表格數(shù)據(jù)的含義并把含義表示為關(guān)聯(lián)數(shù)據(jù)(Linked Data),該方法的核心為圖模型和概率推理技術(shù)[67].

    3 概率圖模型的研究方向

    (1)概率圖模型的表示應(yīng)該更加準(zhǔn)確地反映變量集上真實(shí)的概率分布和變量間結(jié)構(gòu)關(guān)系,而同時(shí)概率圖模型表示又要具有能模塊化表示的概率分布和簡(jiǎn)單易懂的網(wǎng)絡(luò)結(jié)構(gòu)圖,并且能進(jìn)行有效的推理和學(xué)習(xí)過(guò)程.下一步開(kāi)發(fā)新PGM時(shí)應(yīng)盡量滿足上述條件,或者在構(gòu)造現(xiàn)有PGM時(shí)選擇滿足上述條件的模型.但是,構(gòu)造過(guò)程的候選模型結(jié)構(gòu)和模型參數(shù)個(gè)數(shù)通常很多,最優(yōu)模型的選擇十分重要,而且模型結(jié)構(gòu)和模型參數(shù)是相互依賴的,借助各種模型選擇理論實(shí)現(xiàn)同時(shí)最優(yōu)選擇模型結(jié)構(gòu)和模型參數(shù)是十分重要的研究課題[68].

    (2)BN和MN的分類主要是為了研究和學(xué)習(xí)的便利.而實(shí)際應(yīng)用中所使用的模型有可能是BN和MN的某種形式的結(jié)合.如何結(jié)合兩種模型的表示能力構(gòu)造混合概率圖模型,如何判斷BN和MN的結(jié)合模型的有效性,制定出適當(dāng)?shù)慕M合原則和評(píng)判標(biāo)準(zhǔn),是一個(gè)值得探討的問(wèn)題,這種混合概率圖模型同時(shí)也給模型的推理和學(xué)習(xí)帶來(lái)新的挑戰(zhàn).

    (3)雖然概率圖模型與邏輯語(yǔ)言已成功結(jié)合,并在某些領(lǐng)域得到應(yīng)用,但概率邏輯語(yǔ)言仍有待進(jìn)一步研究.需要開(kāi)發(fā)更豐富的概率邏輯語(yǔ)言,考慮概率模型與不同的邏輯語(yǔ)言的結(jié)合,如時(shí)態(tài)邏輯[69]和模態(tài)邏輯[70]語(yǔ)言的結(jié)合等;深入研究當(dāng)前概率邏輯模型的有效推理與學(xué)習(xí)算法,使推理與學(xué)習(xí)任務(wù)進(jìn)一步簡(jiǎn)化并保證準(zhǔn)確性;提高概率邏輯模型的可擴(kuò)展性,從而應(yīng)用在更多的概率圖模型推理學(xué)習(xí)場(chǎng)景中.

    (4)概率圖模型的非參數(shù)化具有很強(qiáng)的實(shí)際意義,放松了模型對(duì)參數(shù)假設(shè)的約束,在某些情況下能更好地反映實(shí)際場(chǎng)景.除了前面介紹過(guò)的核密度估計(jì)非參數(shù)化方法外,還可考慮通過(guò)無(wú)限混合模型[71]或者狄氏過(guò)程[72]來(lái)進(jìn)行概率圖模型的非參數(shù)化.

    (5)目前的概率圖模型只集中于局部表示(Local Representation)和局部稀疏表示的研究,而對(duì)分布表示(Distributed Representation)[73,74]和稀疏分布表示(Sparse Distributed Representation)[75~77]這兩種重要的表示形式上的概率圖模型的研究還很少,這方面的研究可借鑒深度學(xué)習(xí)理論.

    (6)概率圖模型智能表示隨機(jī)型的不確定性,不能表示模糊型的不確定性,因此應(yīng)用范圍仍受到較大的限制,特別是在人工智能領(lǐng)域,如何使概率圖模型能夠處理模糊信息問(wèn)題是一個(gè)值得關(guān)注的方向.

    4 結(jié)論

    本文系統(tǒng)綜述了PGM的其它表示理論,包括暫態(tài)建模的新發(fā)展、PGM與邏輯語(yǔ)言的結(jié)合、PGM非參數(shù)化理論、定性概率圖模型、矩陣型變量上的概率圖模型、與Copula函數(shù)的結(jié)合、混合圖模型以及不同數(shù)據(jù)類型下的概率圖模型.最后指出了PGM的未來(lái)研究方向.

    概率圖模型是不確定性推理的一種強(qiáng)有力工具,在人工智能和機(jī)器學(xué)習(xí)領(lǐng)域勢(shì)必日益重要.雖然概率圖模型已經(jīng)取得了很好的應(yīng)用效果,但概率圖模型表示理論還應(yīng)時(shí)刻結(jié)合人工智能和機(jī)器學(xué)習(xí)領(lǐng)域出現(xiàn)的新理論和新技術(shù),不斷完善自身體系,以便更好地在實(shí)際領(lǐng)域中應(yīng)用.

    [1]Pearl J.Probabilistic Reasoning in Intelligent Systems:Networks of Plausible Inference[M].San Mateo,California:Morgan Kaufmann Publishers,1988.

    [2]Koller D,Firedman N.Probabilistic Graphical Models:Principles and Techniques[M].MIT Press,Cambridge,2009.

    [3]Edwards D.Introduction to Graphical Modeling[M].Springer,New york,USA,2000.

    [4]Christopher J P,Jerod J W,Lam C T,Daniel S.On learning conditional random fields for stereo:exploring model structures and approximate inference[J].International Journal of Computer Vision,2012,99(3):319-337.

    [5]Golumbic M C,Maffray F,Morel G.A characterization of chain probe graphs[J].Annals of Operation Research,2011,188(1):175-183.

    [6]Murphy K P.Dynamic bayesian networks:Representation,inference and learning[D].Berkeley:University of California,Computer Science Division,2002.

    [7]Getoor L,Taskar B.Introduction to Statistical Relational Learning[M].MIT Press,Cambridge,USA,2007.

    [8]Nodelman U,Shelton C R,Koller D.Continuous time Bayesian networks[A].Proceedings of the 18th Conference on Uncertainty in Artificial Intelligence[C].Edmonton,Alberta,Canada:UAI,2002.378-387.

    [9]Nodelman U,Koller D,Shelton C R.Expectation propagation for continuous time bayesian networks[A].Proceedings of the 21st Conference on Uncertainty in Artificial Intelligence[C].Edinburgh,Scotland,UK:UAI,2005.431-440.

    [10]Nodelman U,Koller D,Shelton C R.Expectation maximization and complex duration distributions for continuous time bayesian networks[A].Proceedings of the 21st Conference on Uncertainty in Artificial Intelligence[C].Edinburgh,Scotland,UK:UAI,2005.421-430.

    [11]Cohn I,El-Hay Tal,Friedman N,Kupferman R.Mean field variational approximation for continuous-time bayesian networks[J].Journal of Machine Learning Research,2010,11(10):2745-2783.

    [12]El-Hay Tal,Friedman N,Koller D,Kupferman R.Continuous time markov networks[A].Proceedings of the 22nd Conference on Uncertainty in Artificial Intelligence[C].Canbridge,MA,USA:UAI,2006.155-164.

    [13]Robinson J W,Hartemink A J.Non-stationary dynamic Bayesian networks[A].Proceedings of the 21Annual Conference on Neural Information Processing Systems[C].Vancouver,British Columbia,Canada:NIPS,2008.21:1369-1376.

    [14]Grzegorczyk M,Husmeier D.Non-stationary continuous dynamic Bayesian networks[A].Proceedings of the Neural Information Processing Systems 22:23rd Annual Conference on Neural Information Processing Systems[C].Vancouver,British Columbia,Canada:NIPS,2009.22:682-690.

    [15]Lèbre S.Stochastic process analysis for genomics and dynamic Bayesian networks inference[R].Ph.D.thesis,Université d'Evry-Val d'Essonne,France,2007.

    [16]Ahmed A,Xing E P.Recovering time-varying networks of dependencies in social and biological studies[J].PANS,2009,106(29):11878-11883.

    [17]Kolar M,Song L,Xing E.Sparsistent learning of varying-coefficient models with structural changes[A].Proceedings of the Neural Information Processing Systems 22:23rd Annual Conference on Neural Information Processing Systems[C].Vancouver,British Columbia,Canada:NIPS,2009.22:1006-1014.

    [18]Grzegorczyk M,Husmeier D.Non-homogeneous dynamic Bayesian networks for continuous data[J].Machine Learning,2011,83(3):355-419.

    [19]Dondelinger F,Lèbre S,Husmeier D.Non-homogeneous dynamic Bayesian networks with Bayesian regularization for inferring gene regulatory networks with gradually time-varying structure[J].Machine Learning,2013,90(2):191-230.

    [20]Grzegorczyk M,Husmeier D.Regularization of non-homogeneous dynamic Bayesian networks with global information-coupling based on hierarchical Bayesian models[J].Machine Learning,2013,91(1):105-154.

    [21]Kersting K,De Raedt L.Bayesian logic programs[R].Technical Report 151,University of Freiburg,Institute for Computer Science,April 2001.

    [22]Kersting K,De Raedt L.Bayesian Logic Programming:Theory and Tool[M].MIT Press,Cambridge,USA,2005.

    [23]Kersting K,De Raedt L.Adaptive bayesian logic programs[A].Proceedings of the 11th International Conference Inductive Logic Programming[C].Strasbourg,France:ILP,2001.104-117.

    [24]Raghavan S,Mooney R.Bayesian abductive logic programs[A].Proceedings of the Statistical Relational Artificial Intelligence[C].Atlanta,Georgia,USA:AAAI workshop,2010.629-644.

    [25]Laskey K B.MEBN:A language for first-order Bayesian knowledge bases[J].Artificial Intelligence,2008,172(2-3):140-178.

    [26]Richardson M,Domingos P.Markov logic networks[J].Machine Learning,2006,62(1-2):107-136.

    [27]Singla P,Domingos P.Markov Logic in Infinite Domains[A]. Proceedings of the 23rd Conference on Uncertainty in Artificial Intelligence[C].Vancouver,BC,Canada:UAI Press,2007.368-375.

    [28]Kok S,Domingos P.Statistical predicate invention[A].Proceedings of the 24th International Conference[C].Corvalis,Oregon,USA:ICML,2007.433-440.

    [29]Jain D,Barthels A,Beetz M.Adaptive markov logic networks:Learning statistical relational models with dynamic parameters[A].Proceedings of the 9th European Conference on Artificial Intelligence[C].Lisbon,Portugal:ECAI,2010.937-942.

    [30]Blyth J,Hobbs J R,Domingos P,et al.Implementing weighted abduction in markov logic[A].Proceedings of the 9th International Conference on Computational Semantics[C].Stroudsburg,PA,USA:Association for computational linguistics,2011.55-64.

    [31]Singla P,Mooney R J.Abductive markov logic for plan recognition[A].Proceedings of the 25th AAAI Conference on Artificial Intelligence[C].San Francisco,California USA:AAAI,2011.1069-1075.

    [32]Gogate V,Domingos P.Probabilistic theorem proving[A].Proceedings of the 27th Conference on Uncertainty in Artificial Intelligence[C].Barcelona,Spain:UAI,2011.256-265.

    [33]Domingos P,Webb W A.A tractable first-order probabilistic logic[A].Proceedings of the 26th AAAI Conference on Artificial Intelligence[C].Toronto,Ontario,Canada:AAAI,2012.1902-1909.

    [34]Meinshausen N,Buhlmann P.High-dimensional graphs and variable selection with the lasso[J].Annals of Statistics,2006,34(3):1436-1462.

    [35]Liu H,Chen X,Lafferty J,Wasserman L.Graph-valued regression[A].Proceedings of the 24th Annual Conference on Neural Information Processing Systems[C].Vancouver,British Columbia,Canada:NIPS,2010.1423-1431.

    [36]Lafferty J,Liu H,Wasserman L.Sparse nonparametric graphical models[J].Institute of Mathematical Statistics in Statistical Science,2012,27(4):519-537.

    [37]Wellman M P.Fundamental concepts of qualitative probabilistic networks[J].Artificial Intelligence,1990,44(3):257-303.

    [38]Bolt JH,Van der Gaag LC,Renooij S.Introducing situational signs in qualitative probabilistic networks[J].International Journal of Approximate Reasoning,2005,38(3):333-354.

    [39]Renooij S,Van der Gaag LC,Parsons S.Context-specific sign-propagation in qualitative probabilistic networks[J].Artificial Intelligence,2002,144(1):207-230.

    [40]Liu C L,Wellman M P.Incremental tradeoff resolution in qualitative probabilistic networks[A].Proceedings of the 14th Conference on Uncertainty in Artificial Intelligence[C].Madison,Wisconsin,USA:UAI,1998.338-345.

    [41]Renooij S,Van der Gaag LC.Enhanced qualitative probabilistic networks for resolving trade-offs[J].Artificial Intelligence,2008,172(12-13):1470-1494.

    [42]Renooij S,van der Gaag L C.From qualitative to quantitative probabilistic networks[A].Proceedings of the 18th Conference in Uncertainty in Artificial Intelligence[C].Edmonton,Alberta,Canada:UAI,2002.422-429.

    [43]Yue K,Liu W Y.Qualitative probabilistic networks with rough-set-based weights[A].IEEE International Conference on Machine Learning and Cybernetics[C].Kunming,China:IEEE,2008.3:1768-1774.

    [44]Wang H,West M.Bayesian analysis of matrix normal graphical models[J].Biometrika,2009,96(4):821-834.

    [45]Allen G,Tibshirani R.Transposable regularized covariance models with an application to missing data imputation[J].The Annals of Applied Statistics,2010,4(2):764-790.

    [46]Yin J,Li H.Model selection and estimation in the matrix normal graphical model[J].Journal of Multivariate Analysis,2012,107(5):119-140.

    [47]Hoff P.Separable covariance arrays via the Tucker product,with applications to multivariate relational data[J].Bayesian Analysis,2011,6(2):179-196.

    [48]Allen G.Comment on article by Hoff[J].Bayesian Analysis,2011,6(2):197-202.

    [49]Hanea A M,Kurowicka D,Cooke R M.Hybrid method for quantifying and analyzing bayesian belief nets[J].Quality and Reliability Engineering,2006,22(6):709-729.

    [50]Kurowicka D,Cooke R.Uncertainty Analysis with High Dimensional Dependence Modelling[M].John Wiley & Sons,Chichester,2006.

    [51]Bauer A,Czado C,Klein T.Pair-copula constructions for non-Gaussian DAG models[J].Canadian Journal of Statistics,2012,40(1):86-109.

    [52]Dobra A,Lenkoski A.Copula Gaussian graphical models and their application to modeling functional disability data[J].The Annals of Applied Statistics,2011,5(2A):969-993.

    [53]Elidan G.Copula bayesian networks[A].Processing of the 23:24rd Annual Conference on Neural Information Processing Systems[C].Vancouver,British Columbia,Canada:NIPS,2010.559-567.

    [54]Elidan G.Lightning-speed structure learning of nonlinear continuous networks[A].Proceedings of the 5th International Conference on Artificial Intelligence and Statistics[C].La Palma,Canary Islands:AISTATS,2012.355-363.

    [55]Elidan G.Inference-less density estimation using Copula Bayesian Networks[A].Proceedings of the 26th Conference on Uncertainty in Artificial Intelligence[C].Catalina Island,CA,USA:UAI,2010.151-159.

    [56]Elidan G.Copula network classifiers (CNCs)[A].Proceedings of the 5th International Conference on Artificial Intelligence and Statistics[C].La Palma,Canary Islands:AISTATS,2012.346-354.

    [57]Lauritzen S.Graphical Models[M].Oxford UK:Oxford University Press.1996.

    [58]Fellinghauer B,Bühlmann P,Ryffel M,et al.Stable graphical model estimation with Random Forests for discrete,continuous,and mixed variables[J].Computational Statistics & Data Analysis,2013,64(8):132-152.

    [59]Lee J D,Hastie T J.Structure learning of mixed graphical models[A].Proceedings of the 6th International Conference on Artificial Intelligence and Statistics[C].Scottsdale,AZ,USA:AISTATS,2013:388-396.

    [60]Edwards D,Gabriel C.G.de Abreu.Labouriau R.Selecting high-dimensional mixed graphical models using minimal AIC or BIC forests[J].BMC Bioinformatics 2010,11(1):11-18.

    [61]Kumar M P,Koller D.Learning a small mixture of trees[A].Proceedings of the Neural Information Processing Systems 22:23rd Annual Conference on Neural Information Processing Systems[C].Vancouver,British Columbia,Canada:NIPS,2009.22:1051-1059.

    [62]Thiesson B,Meek C,Chickering D,Heckerman D.Computationally efficient methods for selecting among mixtures of graphical models[J].Bayesian Statistics,1999,6(1):569-576.

    [63]Mossel E,Roch S.Phylogenetic mixtures:concentration of measure in the large-tree limit[J].The Annals of Applied Probability,2012,22(6):2429-2459.

    [64]Anandkumar A,Hsu D,Huang F,et al.Learning mixtures of tree graphical models[A].Processing of the 25th Annual Conference on Neural Information Processing Systems[C].Lake Tahoe,Nevada,USA:NIPS,2012.1061-1069.

    [65]Khan M E,Mohamed S,Marlin B M,et al.A stick-breaking likelihood for categorical data analysis with latent Gaussian models[A].Proceedings of the 5th International Conference on Artificial Intelligence and Statistics[C].La Palma,Canary Islands:AISTATS,2012.610-618.

    [66]Xing E P,Yan R,Hauptmann A G.Mining associated text and images with dual-wing harmoniums[A].Proceedings of the 21st Conference on Uncertainty in Artificial Intelligence[C].Edinburgh,Scotland,UK:UAI,2005.633-641.

    [67]Mulwad V,Finin T,Joshi A.Search Computing[M].Springer Berlin Heidelberg,2012,7538:16-33.

    [68]P M Lukacs,K P Burnham,D R Anderson.Model selection bias and Freedman’s paradox[J].Annals of the Institute of Statistical Mathematics,2010,62(1):117-125.

    [69]M Reynolds.The complexity of temporal logic over the reals[J].Annals of Pure and Applied Logic,2010,161(8):1063-1096.

    [70]Ditmarscha H V,van der Hoek.W,Kooi B.Local properties in modal logic[J].Artificial Intelligence,2012,187-188(8):133-155.

    [71]Gershmana S J,Blei D M.A tutorial on Bayesian nonparametric models[J].Journal of Mathematical Psychology,2012,56(1):1-12.

    [72]Tayal,Poupart P,Li Y.Hierarchical double dirichlet process mixture of gaussian processes[A].Proceedings of the 26th AAAI Conference on Artificial Intelligence[C].Toronto,Ontario,Canada:AAAI,2012.1126-1133.

    [73]Bengio Y,Ducharme R,Vincent P.A neural probabilistic language model[A].Processing of the 14th Annual Conference on Neural Information Processing Systems[C].Denver,Co,USA:NIPS,2001.933-938.

    [74]Hinton G E.Learning distributed representations of concepts using linear relational embedding[J].IEEE Trans.Knowl.Data Eng,2001,13(2):232-244.

    [75]Bagnell J A,Bradley D M.Differentiable sparse coding[A].Proceedings of the Neural Information Processing Systems 22:23rd Annual Conference on Neural Information Processing Systems[C].Vancouver,British Columbia,Canada:NIPS,2008.113-120.

    [76]Coates A,NG A Y.The importance of encoding versus training with sparse coding and vector quantization[A].Proceedings of the 24:25th Annual Conference on Neural Information Processing Systems[C].Bellevue,Washington,USA:ICML,2011.921-928.

    [77]Goodfellow I J,Courville A C,Bengio Y.Large-scale feature learning with spike-and-slab sparse coding[A].Proceedings of the 29th International Conference on Machine Learning[C].Edinburgh,Scotland,UK:ICML,2012.6407-6423.

    劉建偉男,1966年出生.博士,中國(guó)石油大學(xué)(北京)副研究員,主要研究方向包括智能信息處理,機(jī)器學(xué)習(xí),算法分析與設(shè)計(jì)等.

    E-mail:liujw@cup.edu.cn

    黎海恩女,1988年出生.碩士,2014年畢業(yè)于中國(guó)石油大學(xué)(北京)自動(dòng)化系.現(xiàn)在任職山東新華醫(yī)藥化工設(shè)計(jì)有限公司.

    E-mail:lihaien1988@163.com

    A Survey on the Representation Theory of Probabilistic Graphical Models

    LIU Jian-wei1,LI Hai-en2,ZHOU Jia-jia1,LUO Xiong-lin1

    (1.DepartmentofAutomation,ChinaUniversityofPetroleum,Beijing102249,China; 2.XinhuaPharmaceuticalandChemicalDesigningCompanyLimited,Zibo,Shandong255086,China)

    Probabilistic Graphical models bring together graph theory and probability theory in a single formalism,so the joint probabilistic distribution of variables can be represented using graph.In recent years,probabilistic graphical models have become the focus of the research in uncertainty inference,because of its bright prospect for the application.In this paper,we conclude the representation of probabilistic graphical models in recent years.Finally,a discussion of the future trend of probabilistic graphical models is given.

    probabilistic graphical models;continuous;inhomogeneous;Bayesian logic;Markov logic;non-parametric;matrix normal graphical model;Coupula function;mixed graphical model

    2014-11-15;

    2015-04-30;責(zé)任編輯:馬蘭英

    TP181

    A

    0372-2112 (2016)05-1219-08

    電子學(xué)報(bào)URL:http://www.ejournal.org.cn10.3969/j.issn.0372-2112.2016.05.030

    猜你喜歡
    馬爾可夫概率分布貝葉斯
    離散型概率分布的ORB圖像特征點(diǎn)誤匹配剔除算法
    關(guān)于概率分布函數(shù)定義的辨析
    科技視界(2016年19期)2017-05-18 10:18:46
    貝葉斯公式及其應(yīng)用
    基于概率分布的PPP項(xiàng)目風(fēng)險(xiǎn)承擔(dān)支出測(cè)算
    基于貝葉斯估計(jì)的軌道占用識(shí)別方法
    保費(fèi)隨機(jī)且?guī)в屑t利支付的復(fù)合馬爾可夫二項(xiàng)模型
    一種基于貝葉斯壓縮感知的說(shuō)話人識(shí)別方法
    電子器件(2015年5期)2015-12-29 08:43:15
    基于SOP的核電廠操縱員監(jiān)視過(guò)程馬爾可夫模型
    應(yīng)用馬爾可夫鏈對(duì)品牌手機(jī)市場(chǎng)占有率進(jìn)行預(yù)測(cè)
    認(rèn)知無(wú)線網(wǎng)絡(luò)中基于隱馬爾可夫預(yù)測(cè)的P-CSMA協(xié)議
    亚洲国产精品一区二区三区在线| 亚洲国产毛片av蜜桃av| 高清在线视频一区二区三区| 国产精品久久久人人做人人爽| 亚洲,欧美,日韩| 亚洲精品美女久久久久99蜜臀 | 亚洲国产精品国产精品| 高清在线视频一区二区三区| 久久鲁丝午夜福利片| 中文字幕亚洲精品专区| 国产精品嫩草影院av在线观看| 欧美日韩亚洲高清精品| 国产免费又黄又爽又色| 国产精品.久久久| 国产精品久久久久久人妻精品电影 | 宅男免费午夜| 99re6热这里在线精品视频| 你懂的网址亚洲精品在线观看| 免费高清在线观看视频在线观看| 欧美国产精品一级二级三级| 久久久久网色| 男女午夜视频在线观看| 亚洲av日韩精品久久久久久密 | 欧美精品一区二区免费开放| 亚洲国产中文字幕在线视频| 咕卡用的链子| 少妇人妻精品综合一区二区| 少妇精品久久久久久久| 女性生殖器流出的白浆| 一区在线观看完整版| 亚洲色图综合在线观看| 伦理电影免费视频| 国产精品亚洲av一区麻豆 | 电影成人av| 免费日韩欧美在线观看| 一二三四中文在线观看免费高清| av一本久久久久| 高清av免费在线| 国产一区亚洲一区在线观看| 2018国产大陆天天弄谢| 十分钟在线观看高清视频www| 日韩中文字幕视频在线看片| 高清欧美精品videossex| 亚洲精品国产av蜜桃| 欧美黄色片欧美黄色片| 交换朋友夫妻互换小说| 午夜久久久在线观看| 亚洲国产最新在线播放| 天天躁夜夜躁狠狠躁躁| 高清视频免费观看一区二区| 国产精品国产三级专区第一集| 少妇人妻 视频| 日本wwww免费看| 一级片免费观看大全| 老鸭窝网址在线观看| 亚洲伊人久久精品综合| 国产精品 欧美亚洲| 精品一区二区三区av网在线观看 | 人人澡人人妻人| 欧美人与性动交α欧美软件| 日日啪夜夜爽| 五月开心婷婷网| 视频在线观看一区二区三区| 激情五月婷婷亚洲| 精品久久久精品久久久| 欧美精品亚洲一区二区| 亚洲图色成人| 十八禁网站网址无遮挡| 大话2 男鬼变身卡| 自拍欧美九色日韩亚洲蝌蚪91| 亚洲色图综合在线观看| 欧美成人精品欧美一级黄| 久久婷婷青草| 国产精品av久久久久免费| 亚洲一卡2卡3卡4卡5卡精品中文| 国产激情久久老熟女| 无限看片的www在线观看| 亚洲成人一二三区av| 日韩 欧美 亚洲 中文字幕| 人体艺术视频欧美日本| 又大又黄又爽视频免费| 国产成人av激情在线播放| 九色亚洲精品在线播放| 男女午夜视频在线观看| 精品人妻熟女毛片av久久网站| 日韩av不卡免费在线播放| 色婷婷av一区二区三区视频| 精品久久久精品久久久| 中文字幕亚洲精品专区| 久久久久精品人妻al黑| 99香蕉大伊视频| 多毛熟女@视频| 成年人午夜在线观看视频| 国产爽快片一区二区三区| 亚洲精华国产精华液的使用体验| av在线观看视频网站免费| 久久久国产一区二区| 亚洲国产欧美网| 18禁观看日本| 久久久久精品人妻al黑| av.在线天堂| 精品国产乱码久久久久久小说| 伦理电影免费视频| 亚洲三区欧美一区| 久久天堂一区二区三区四区| 中文字幕另类日韩欧美亚洲嫩草| 最近最新中文字幕免费大全7| 免费观看性生交大片5| 免费看av在线观看网站| 人妻一区二区av| 成人毛片60女人毛片免费| 街头女战士在线观看网站| 成年美女黄网站色视频大全免费| 色播在线永久视频| 男女边吃奶边做爰视频| 日日撸夜夜添| 亚洲欧洲国产日韩| 国产成人欧美在线观看 | 午夜精品国产一区二区电影| 亚洲av成人不卡在线观看播放网 | 美女高潮到喷水免费观看| 免费人妻精品一区二区三区视频| 亚洲精品国产一区二区精华液| 高清欧美精品videossex| 涩涩av久久男人的天堂| 你懂的网址亚洲精品在线观看| 狂野欧美激情性xxxx| 日日爽夜夜爽网站| 老司机在亚洲福利影院| a级片在线免费高清观看视频| 美女大奶头黄色视频| 精品国产一区二区久久| 99久国产av精品国产电影| 亚洲av成人不卡在线观看播放网 | 国产乱来视频区| 美女午夜性视频免费| 国产av精品麻豆| 日韩大片免费观看网站| 亚洲综合精品二区| 国产精品香港三级国产av潘金莲 | 中文字幕人妻丝袜制服| 亚洲一级一片aⅴ在线观看| av在线播放精品| 久久久久久人妻| 在线天堂中文资源库| 久久性视频一级片| 人人澡人人妻人| 免费看av在线观看网站| 精品一品国产午夜福利视频| 老鸭窝网址在线观看| 一本色道久久久久久精品综合| 亚洲精品国产av成人精品| 免费黄频网站在线观看国产| 成人毛片60女人毛片免费| 日日撸夜夜添| 一级片'在线观看视频| 亚洲天堂av无毛| 久久免费观看电影| 欧美精品一区二区大全| 国产一卡二卡三卡精品 | 毛片一级片免费看久久久久| 高清欧美精品videossex| 九色亚洲精品在线播放| 国产精品久久久av美女十八| 色精品久久人妻99蜜桃| 国产视频首页在线观看| 蜜桃国产av成人99| videosex国产| 免费久久久久久久精品成人欧美视频| 韩国av在线不卡| 欧美精品高潮呻吟av久久| 中文字幕另类日韩欧美亚洲嫩草| 爱豆传媒免费全集在线观看| 老司机在亚洲福利影院| 亚洲国产精品999| 精品国产乱码久久久久久小说| 人人澡人人妻人| 九九爱精品视频在线观看| 欧美最新免费一区二区三区| 操美女的视频在线观看| 国产精品一区二区精品视频观看| 十八禁网站网址无遮挡| 国产黄频视频在线观看| 亚洲 欧美一区二区三区| 精品亚洲乱码少妇综合久久| 成年美女黄网站色视频大全免费| 国产视频首页在线观看| 嫩草影视91久久| 大陆偷拍与自拍| 少妇人妻 视频| 欧美 亚洲 国产 日韩一| 日本欧美视频一区| 91国产中文字幕| 国产成人av激情在线播放| 丝瓜视频免费看黄片| 人人妻人人澡人人爽人人夜夜| 中文字幕人妻熟女乱码| 9热在线视频观看99| 精品一品国产午夜福利视频| 最黄视频免费看| 中文字幕高清在线视频| 亚洲国产看品久久| 亚洲激情五月婷婷啪啪| 伦理电影免费视频| 女人被躁到高潮嗷嗷叫费观| 欧美黄色片欧美黄色片| 精品久久久久久电影网| 国产免费一区二区三区四区乱码| 在线观看人妻少妇| 一级,二级,三级黄色视频| 成人影院久久| 飞空精品影院首页| 五月开心婷婷网| 精品一区二区免费观看| 国产日韩欧美视频二区| 成年人免费黄色播放视频| e午夜精品久久久久久久| 日韩免费高清中文字幕av| 久久久精品免费免费高清| 国产精品国产三级专区第一集| 国产精品三级大全| 一级黄片播放器| 久久精品aⅴ一区二区三区四区| 91aial.com中文字幕在线观看| 亚洲精品av麻豆狂野| 丁香六月天网| 男女之事视频高清在线观看 | 极品人妻少妇av视频| 卡戴珊不雅视频在线播放| 黑人巨大精品欧美一区二区蜜桃| 高清黄色对白视频在线免费看| 亚洲国产欧美在线一区| 久久久精品区二区三区| 黄频高清免费视频| 国产片内射在线| 午夜精品国产一区二区电影| 国产福利在线免费观看视频| 久久青草综合色| 久久精品国产a三级三级三级| 最近最新中文字幕大全免费视频 | 国产一区亚洲一区在线观看| 晚上一个人看的免费电影| 成人亚洲精品一区在线观看| 男女边吃奶边做爰视频| 老司机靠b影院| 男女之事视频高清在线观看 | xxx大片免费视频| 欧美成人午夜精品| 亚洲中文av在线| 免费久久久久久久精品成人欧美视频| 亚洲欧美激情在线| 国产男女超爽视频在线观看| 成人毛片60女人毛片免费| 国产激情久久老熟女| 97精品久久久久久久久久精品| 成人亚洲精品一区在线观看| 成年女人毛片免费观看观看9 | 国产日韩一区二区三区精品不卡| 成年人午夜在线观看视频| 少妇人妻精品综合一区二区| 久久久久久久大尺度免费视频| 黄色一级大片看看| 99久久精品国产亚洲精品| 亚洲,一卡二卡三卡| 亚洲少妇的诱惑av| 天天躁夜夜躁狠狠久久av| 久久韩国三级中文字幕| 日韩一区二区视频免费看| 日韩伦理黄色片| 亚洲国产欧美网| 亚洲欧美成人精品一区二区| 精品一区二区免费观看| 国产无遮挡羞羞视频在线观看| 亚洲av日韩精品久久久久久密 | 久久这里只有精品19| 丰满少妇做爰视频| 免费在线观看完整版高清| 少妇被粗大猛烈的视频| 桃花免费在线播放| 99久国产av精品国产电影| 欧美日本中文国产一区发布| 国产熟女午夜一区二区三区| 久久 成人 亚洲| 搡老岳熟女国产| 99精品久久久久人妻精品| 国语对白做爰xxxⅹ性视频网站| 国产不卡av网站在线观看| 亚洲一卡2卡3卡4卡5卡精品中文| 午夜日韩欧美国产| 久久天堂一区二区三区四区| 国产精品久久久久久人妻精品电影 | 国产一区二区 视频在线| 热re99久久精品国产66热6| 欧美日韩综合久久久久久| 一本色道久久久久久精品综合| 国产一级毛片在线| 亚洲av欧美aⅴ国产| 91精品伊人久久大香线蕉| 国产淫语在线视频| 女人精品久久久久毛片| 韩国高清视频一区二区三区| 欧美在线一区亚洲| 嫩草影院入口| 久久精品国产亚洲av涩爱| 操美女的视频在线观看| 伊人久久大香线蕉亚洲五| 亚洲七黄色美女视频| 免费观看性生交大片5| 欧美97在线视频| 青草久久国产| 国产黄色视频一区二区在线观看| videosex国产| 久久久久久久久免费视频了| tube8黄色片| 日本午夜av视频| 2021少妇久久久久久久久久久| 岛国毛片在线播放| 中文字幕最新亚洲高清| 青春草视频在线免费观看| 欧美日韩视频精品一区| 亚洲综合精品二区| 国产一区二区激情短视频 | 色精品久久人妻99蜜桃| 久久久久久久精品精品| 国产成人av激情在线播放| 国产黄色视频一区二区在线观看| 精品少妇黑人巨大在线播放| 久久影院123| 乱人伦中国视频| 青草久久国产| 亚洲国产精品成人久久小说| 免费观看av网站的网址| 久久久精品94久久精品| 男人添女人高潮全过程视频| 国产极品天堂在线| 成年人午夜在线观看视频| 亚洲成人av在线免费| 在线观看国产h片| 无遮挡黄片免费观看| 成人黄色视频免费在线看| 97人妻天天添夜夜摸| 欧美最新免费一区二区三区| 亚洲综合色网址| 亚洲美女搞黄在线观看| 午夜日本视频在线| 国产免费视频播放在线视频| 国产毛片在线视频| www.熟女人妻精品国产| 国产日韩欧美亚洲二区| 99热网站在线观看| 久久久久久久国产电影| 免费在线观看黄色视频的| 在现免费观看毛片| 亚洲七黄色美女视频| 亚洲色图综合在线观看| 成年人免费黄色播放视频| 国产激情久久老熟女| 国产成人系列免费观看| 精品一区二区三区四区五区乱码 | 在线观看免费高清a一片| 国产精品香港三级国产av潘金莲 | 爱豆传媒免费全集在线观看| av在线app专区| 免费人妻精品一区二区三区视频| 一本久久精品| 女性生殖器流出的白浆| 精品少妇内射三级| 国产探花极品一区二区| 久久综合国产亚洲精品| 在线观看免费视频网站a站| 爱豆传媒免费全集在线观看| 丝瓜视频免费看黄片| 欧美日韩福利视频一区二区| 久久精品久久久久久久性| 这个男人来自地球电影免费观看 | 国产福利在线免费观看视频| 精品卡一卡二卡四卡免费| 精品酒店卫生间| 久久久久人妻精品一区果冻| 精品人妻在线不人妻| 色婷婷av一区二区三区视频| 久久久久久人妻| 免费人妻精品一区二区三区视频| 国产成人a∨麻豆精品| 亚洲国产日韩一区二区| 中文字幕最新亚洲高清| 国产伦理片在线播放av一区| 欧美日韩视频精品一区| 亚洲综合精品二区| 黑人欧美特级aaaaaa片| 咕卡用的链子| 两个人免费观看高清视频| www.av在线官网国产| 男的添女的下面高潮视频| 搡老乐熟女国产| 婷婷色av中文字幕| 午夜免费观看性视频| 肉色欧美久久久久久久蜜桃| 各种免费的搞黄视频| 亚洲欧美中文字幕日韩二区| 午夜福利乱码中文字幕| 日韩一本色道免费dvd| 激情五月婷婷亚洲| 黄色视频在线播放观看不卡| 国产在线视频一区二区| 亚洲伊人久久精品综合| 色婷婷久久久亚洲欧美| 久久久欧美国产精品| 中文欧美无线码| 看免费成人av毛片| 成人毛片60女人毛片免费| 日韩成人av中文字幕在线观看| 日韩制服丝袜自拍偷拍| 精品国产露脸久久av麻豆| 中文字幕最新亚洲高清| 亚洲成av片中文字幕在线观看| 午夜激情久久久久久久| 国产精品久久久av美女十八| 日韩中文字幕视频在线看片| 欧美av亚洲av综合av国产av | 国产一区二区 视频在线| 老汉色∧v一级毛片| 两性夫妻黄色片| 亚洲欧美精品综合一区二区三区| 亚洲av国产av综合av卡| 亚洲精品日本国产第一区| 亚洲av日韩在线播放| 热re99久久国产66热| 人人妻人人澡人人爽人人夜夜| 黄片播放在线免费| 国产毛片在线视频| 亚洲情色 制服丝袜| 欧美黄色片欧美黄色片| 国产高清国产精品国产三级| 18禁国产床啪视频网站| 国产精品欧美亚洲77777| 免费看不卡的av| 亚洲国产欧美在线一区| 考比视频在线观看| 国产亚洲欧美精品永久| 国产av一区二区精品久久| 午夜福利在线免费观看网站| 高清av免费在线| 天天影视国产精品| av片东京热男人的天堂| 日韩 欧美 亚洲 中文字幕| 少妇的丰满在线观看| 亚洲第一av免费看| 这个男人来自地球电影免费观看 | 亚洲人成77777在线视频| 9191精品国产免费久久| 成人亚洲欧美一区二区av| 毛片一级片免费看久久久久| 啦啦啦 在线观看视频| 制服人妻中文乱码| 国产精品二区激情视频| 欧美日韩视频高清一区二区三区二| 考比视频在线观看| 国产精品女同一区二区软件| 高清视频免费观看一区二区| 中国国产av一级| 精品人妻熟女毛片av久久网站| 国产高清国产精品国产三级| 黄色视频不卡| 日日爽夜夜爽网站| 性高湖久久久久久久久免费观看| 咕卡用的链子| 99国产综合亚洲精品| 亚洲四区av| 天堂中文最新版在线下载| 国产在视频线精品| 天堂中文最新版在线下载| 成年人午夜在线观看视频| 国产精品久久久久久人妻精品电影 | 黑人猛操日本美女一级片| 国产免费又黄又爽又色| 精品一区在线观看国产| 亚洲视频免费观看视频| 丁香六月欧美| 成人亚洲精品一区在线观看| 热99国产精品久久久久久7| 肉色欧美久久久久久久蜜桃| 欧美国产精品va在线观看不卡| 精品福利永久在线观看| 亚洲国产精品成人久久小说| 欧美精品人与动牲交sv欧美| 韩国高清视频一区二区三区| 国产 一区精品| 自线自在国产av| 国产极品粉嫩免费观看在线| 三上悠亚av全集在线观看| 少妇人妻久久综合中文| 新久久久久国产一级毛片| av网站在线播放免费| 搡老岳熟女国产| 日韩一卡2卡3卡4卡2021年| 国产深夜福利视频在线观看| 国产精品偷伦视频观看了| av国产久精品久网站免费入址| 午夜免费观看性视频| 又大又黄又爽视频免费| 国产乱来视频区| 亚洲精品aⅴ在线观看| 视频在线观看一区二区三区| 色婷婷久久久亚洲欧美| 90打野战视频偷拍视频| 啦啦啦视频在线资源免费观看| 黄片小视频在线播放| 在线观看三级黄色| 天天躁狠狠躁夜夜躁狠狠躁| 看非洲黑人一级黄片| 日韩 亚洲 欧美在线| 精品国产乱码久久久久久男人| 啦啦啦中文免费视频观看日本| 成人午夜精彩视频在线观看| 美女主播在线视频| 青春草国产在线视频| 51午夜福利影视在线观看| 最近中文字幕高清免费大全6| 亚洲欧美日韩另类电影网站| 日韩欧美一区视频在线观看| 国产高清不卡午夜福利| 亚洲av电影在线观看一区二区三区| 久久久久久久国产电影| 另类亚洲欧美激情| 成人三级做爰电影| 亚洲成人免费av在线播放| 国产成人欧美在线观看 | 男女午夜视频在线观看| av福利片在线| 国产老妇伦熟女老妇高清| 黄色一级大片看看| 日韩大片免费观看网站| 午夜福利影视在线免费观看| 日本91视频免费播放| 在线看a的网站| 国产成人啪精品午夜网站| 国产爽快片一区二区三区| 亚洲熟女精品中文字幕| 妹子高潮喷水视频| 一级,二级,三级黄色视频| 日本欧美国产在线视频| 国产成人精品久久久久久| 黄色毛片三级朝国网站| 国产成人午夜福利电影在线观看| 国产欧美日韩综合在线一区二区| 亚洲,一卡二卡三卡| 久久精品aⅴ一区二区三区四区| 在线观看三级黄色| 丝袜在线中文字幕| 免费在线观看黄色视频的| 久久久久久久大尺度免费视频| 国产熟女午夜一区二区三区| 国产日韩欧美视频二区| 国产av码专区亚洲av| 超碰成人久久| www.av在线官网国产| 一本—道久久a久久精品蜜桃钙片| 亚洲av成人不卡在线观看播放网 | av卡一久久| 国产成人一区二区在线| 男女高潮啪啪啪动态图| 久久毛片免费看一区二区三区| 一区二区三区乱码不卡18| 国产男女内射视频| 一边摸一边抽搐一进一出视频| 女人被躁到高潮嗷嗷叫费观| 在线天堂最新版资源| 国产精品三级大全| 人人妻,人人澡人人爽秒播 | 91国产中文字幕| 国产精品久久久久久精品电影小说| 精品酒店卫生间| 亚洲色图综合在线观看| 午夜免费观看性视频| 日韩av免费高清视频| 欧美黑人精品巨大| 一本—道久久a久久精品蜜桃钙片| 亚洲精品一区蜜桃| 日韩中文字幕视频在线看片| 国产日韩欧美在线精品| 国产男女内射视频| avwww免费| 欧美另类一区| 波多野结衣av一区二区av| e午夜精品久久久久久久| av.在线天堂| 多毛熟女@视频| 久久婷婷青草| 国产激情久久老熟女| 一级爰片在线观看| 日日撸夜夜添| videos熟女内射| 亚洲色图 男人天堂 中文字幕| 一区二区av电影网| 免费黄网站久久成人精品| 亚洲免费av在线视频| 亚洲国产毛片av蜜桃av| 欧美少妇被猛烈插入视频| 1024香蕉在线观看| 国产av国产精品国产| 国产男女超爽视频在线观看| 欧美 亚洲 国产 日韩一| 日本欧美视频一区| 2018国产大陆天天弄谢| 免费少妇av软件| 午夜激情久久久久久久| 一个人免费看片子| 国产激情久久老熟女| 日韩电影二区| 欧美精品av麻豆av| 国产一区二区激情短视频 | 国产极品粉嫩免费观看在线| 国产在线一区二区三区精| 欧美日韩福利视频一区二区|