• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    綜述:類腦智能導(dǎo)航建模技術(shù)及其應(yīng)用

    2024-11-25 00:00:00李衛(wèi)斌秦晨浩張?zhí)煲?/span>毛鑫楊東浩紀(jì)文搏侯彪焦李成
    關(guān)鍵詞:人工智能

    摘要: 自主導(dǎo)航能力是無人系統(tǒng)所要具備的核心能力。近年來,無人系統(tǒng)作業(yè)的環(huán)境日益復(fù)雜,所面臨的任務(wù)也越來越有挑戰(zhàn)性,這對其自主導(dǎo)航能力提出更高的要求。隨著神經(jīng)科學(xué)和人工智能的不斷發(fā)展,基于動物大腦空間導(dǎo)航機(jī)理的類腦導(dǎo)航技術(shù)已經(jīng)成為一種解決復(fù)雜環(huán)境下智能導(dǎo)航問題的方案。本文對類腦智能導(dǎo)航技術(shù)的發(fā)展歷程進(jìn)行梳理與總結(jié),重點(diǎn)討論類腦導(dǎo)航的空間認(rèn)知模型建模技術(shù)及其應(yīng)用技術(shù)——類腦同時定位與建圖(simultaneous localization and mapping, SLAM)技術(shù)及類腦集群導(dǎo)航技術(shù)。最后,總結(jié)目前類腦導(dǎo)航技術(shù)面臨的挑戰(zhàn)和不足,并探討未來的重要發(fā)展方向。

    關(guān)鍵詞: 類腦導(dǎo)航; 自主導(dǎo)航; 認(rèn)知地圖; 類腦同時定位與建圖; 人工智能

    中圖分類號: V 249.32

    文獻(xiàn)標(biāo)志碼: A

    DOI:10.12305/j.issn.1001-506X.2024.11.27

    Review: brain-inspired intelligent navigation modeling technology and its application

    LI Weibin*, QIN Chenhao, ZHANG Tianyi, MAO Xin, YANG Donghao, JI Wenbo, HOU Biao, JIAO Licheng

    (School of Artificial Intelligence, Xidian University, Xi’an 710071, China)

    Abstract: Autonomous navigation capability is a core capability for unmanned systems. In recent years, the environment in which unmanned systems operate has become increasingly complex and the tasks they face have become more and more challenging, which puts forward higher requirements for their autonomous navigation capability. With the continuous development of neuroscience and artificial intelligence, the brain-inspired navigation technology based on the spatial navigation mechanism of animal brain has become a solution to the problem of intelligent navigation in complex environments. In this paper, the development history of the brain-inspired intelligent navigation technology is sorted out and summarized, focusing on the spatial cognitive model modeling technology of the brain-inspired navigation and its application technology—the brain-inspired simultaneous localization and mapping (SLAM) technology and the brain-inspired cluster navigation technology. Finally, the challenges and shortcomings of the current brain-inspired navigation technology are summarized, and the important future develop ment directions are discussed.

    Keywords: brain-inspired navigation; autonomous navigation; cognitive map; brain-inspired simultaneous localization and mapping (SLAM); artificial intelligence (AI)

    0 引 言

    近年來,無人移動設(shè)備在越來越多的領(lǐng)域得到廣泛應(yīng)用,為了應(yīng)對不同環(huán)境下的導(dǎo)航任務(wù),對無人系統(tǒng)在復(fù)雜環(huán)境下的穩(wěn)定導(dǎo)航能力要求也與日俱增。傳統(tǒng)的無人系統(tǒng)導(dǎo)航手段有全球?qū)Ш叫l(wèi)星系統(tǒng)(Global Navigation Satellite System, GNSS)及慣性導(dǎo)航系統(tǒng)(inertial navigation system, INS)。此外,還有基于各種傳感器如攝像頭、激光雷達(dá)及磁力計的輔助導(dǎo)航手段。但由于無人系統(tǒng)作業(yè)環(huán)境的高度復(fù)雜性,傳統(tǒng)導(dǎo)航技術(shù)存在諸多問題,如惡劣環(huán)境下GNSS拒止(衛(wèi)星信號中斷、被干擾、遮蔽或者誘騙而導(dǎo)致GNSS設(shè)備無法正常工作);慣性導(dǎo)航累計誤差大;基于雷達(dá)、激光傳感器的輔助導(dǎo)航技術(shù)穩(wěn)定性差,實(shí)時性差且設(shè)備成本高。

    隨著人工智能及神經(jīng)科學(xué)的不斷發(fā)展,科學(xué)家們逐漸揭示了人體大腦中不同導(dǎo)航細(xì)胞(位置細(xì)胞、網(wǎng)格細(xì)胞、頭朝向細(xì)胞等)之間的相互作用方式[1-9,并進(jìn)一步闡明了自然界中動物大腦進(jìn)行方向感知、位置定位以及自主導(dǎo)航的機(jī)理,為類腦智能提供了新的研究方向與研究思路。

    陳雨荻等[1-2均對類腦導(dǎo)航做出定義,但是目前為止,類腦導(dǎo)航技術(shù)的概念還沒有統(tǒng)一。本文作者團(tuán)隊經(jīng)研究認(rèn)為:類腦導(dǎo)航技術(shù)是一種模仿生物大腦端到端的自適應(yīng)導(dǎo)航技術(shù),借鑒動物導(dǎo)航機(jī)理,實(shí)現(xiàn)從抽象的自身運(yùn)動信息輸入到導(dǎo)航行為決策輸出的整合,形成具有自主環(huán)境感知、空間地圖記憶、路徑規(guī)劃決策等功能的智能導(dǎo)航系統(tǒng),其核心在于基于各種生物導(dǎo)航細(xì)胞所構(gòu)建的具有認(rèn)知及記憶功能的類腦空間建模模塊。

    與傳統(tǒng)導(dǎo)航技術(shù)不同,類腦導(dǎo)航技術(shù)并不依賴于精確測量與幾何模型[3,而是利用神經(jīng)網(wǎng)絡(luò)模擬大腦導(dǎo)航系統(tǒng),根據(jù)對環(huán)境的特定認(rèn)知來進(jìn)行導(dǎo)航。因此,自主導(dǎo)航是無人系統(tǒng)必須具備的基礎(chǔ)能力,搭載在無人系統(tǒng)上的自主導(dǎo)航系統(tǒng)一方面要滿足導(dǎo)航的體積小、精確度高、成本低、適合無人系統(tǒng)搭載等要求;另一方面需要輔助解決傳統(tǒng)導(dǎo)航精度、穩(wěn)定性、可靠性等問題。

    類腦導(dǎo)航技術(shù)屬于無人系統(tǒng)自主導(dǎo)航技術(shù)的一種,無人系統(tǒng)自主導(dǎo)航技術(shù)需要解決3個問題[4,即“我在什么地方”“我周身環(huán)境是什么樣的”“我應(yīng)該怎么運(yùn)動”,對應(yīng)類腦導(dǎo)航系統(tǒng)的環(huán)境感知、空間記憶及規(guī)劃決策功能。衛(wèi)星導(dǎo)航、慣性導(dǎo)航、激光導(dǎo)航等技術(shù)依賴于傳感器數(shù)據(jù)的精度及頻度,當(dāng)傳感器出現(xiàn)故障時,導(dǎo)航效果會受到較大影響。類腦導(dǎo)航技術(shù)是對上述技術(shù)的補(bǔ)充,具有低成本、低功耗、高可靠的特點(diǎn),通過綜合多源數(shù)據(jù)、補(bǔ)充和增強(qiáng)導(dǎo)航能力以及實(shí)現(xiàn)自適應(yīng)和智能化導(dǎo)航,以此來應(yīng)對復(fù)雜導(dǎo)航環(huán)境和任務(wù)需求。類腦導(dǎo)航系統(tǒng)之所以具備低成本、低功耗、高可靠性等顯著特點(diǎn),歸因于其背后的變革性理論方法、技術(shù)創(chuàng)新及硬件發(fā)展。

    因此,類腦導(dǎo)航技術(shù)的研究,對無人系統(tǒng)在復(fù)雜、動態(tài)環(huán)境下的精確定位及導(dǎo)航具有重要意義,在無人系統(tǒng)復(fù)雜環(huán)境建圖、無人機(jī)集群飛行任務(wù)規(guī)劃、無人系統(tǒng)復(fù)雜環(huán)境搜救等任務(wù)中有著重要的應(yīng)用價值。

    本文主要分為4個主要部分,著重對目前類腦導(dǎo)航技術(shù)的建模技術(shù)和應(yīng)用進(jìn)行闡述。第1部分對類腦導(dǎo)航的生物基礎(chǔ)及其研究歷程進(jìn)行簡單介紹;第2部分梳理分析目前類腦導(dǎo)航系統(tǒng)的技術(shù)框架及其核心模塊,即類腦空間認(rèn)知模塊的主要技術(shù)手段,詳細(xì)描述了連續(xù)吸引子技術(shù)、脈沖神經(jīng)網(wǎng)絡(luò)技術(shù),并對其做出系統(tǒng)性的闡述和對比分析;第3部分介紹類腦認(rèn)知導(dǎo)航技術(shù)與現(xiàn)有導(dǎo)航技術(shù)結(jié)合的應(yīng)用,即類腦導(dǎo)航與同步定位及建圖(simultaneous localization and mapping, SLAM)技術(shù)和無人機(jī)群多智能協(xié)同導(dǎo)航技術(shù)的發(fā)展及方法進(jìn)行介紹;第4部分對未來類腦導(dǎo)航發(fā)展趨勢及方向做出討論。

    1 類腦智能導(dǎo)航技術(shù)研究基礎(chǔ)

    本節(jié)闡述了類腦導(dǎo)航技術(shù)的生物學(xué)基礎(chǔ)及其發(fā)展歷程,并描述哺乳動物腦導(dǎo)航過程,為引出類腦導(dǎo)航技術(shù)做出鋪墊。

    動物腦導(dǎo)航系統(tǒng)的神經(jīng)機(jī)理是類腦導(dǎo)航系統(tǒng)的研究基礎(chǔ)。自然界中許多哺乳動物有著優(yōu)秀的導(dǎo)航能力,其腦導(dǎo)航系統(tǒng)具有自適應(yīng)性、靈活性、多模態(tài)集成、高效能耗比等諸多優(yōu)越性,能保證動物能夠綜合利用視覺、聽覺、觸覺等多種感知信息,在各種復(fù)雜環(huán)境中進(jìn)行相對低能耗的高效導(dǎo)航行為,最重要的是,動物導(dǎo)航具有在動態(tài)環(huán)境中的適應(yīng)性,面對環(huán)境發(fā)生變化時可以迅速根據(jù)個體的經(jīng)驗和偏好進(jìn)行導(dǎo)航行為的調(diào)整。

    傳統(tǒng)導(dǎo)航方式成本高、易受干擾、動態(tài)性差,SLAM技術(shù)被提出用于移動機(jī)器人在未知環(huán)境中導(dǎo)航任務(wù),但其仍具有功耗高、成本高及穩(wěn)定性差等缺陷。

    動物的腦導(dǎo)航系統(tǒng)使得其可以在復(fù)雜、未知的環(huán)境中實(shí)現(xiàn)從感知外界環(huán)境到形成環(huán)境空間記憶,再到規(guī)劃路徑進(jìn)行導(dǎo)航的功能。類腦導(dǎo)航的研究動機(jī)在于借鑒人類大腦的優(yōu)勢,解決傳統(tǒng)導(dǎo)航系統(tǒng)存在的局限性,提高導(dǎo)航系統(tǒng)的智能化和適應(yīng)性,從而更好地滿足人們對導(dǎo)航的需求,具有重要的研究意義和實(shí)際應(yīng)用價值。

    20世紀(jì)后期起,研究人員對哺乳動物大腦導(dǎo)航系統(tǒng)進(jìn)行實(shí)驗研究(見表1),相繼發(fā)現(xiàn)位置細(xì)胞、頭朝向細(xì)胞、網(wǎng)格細(xì)胞、邊界矢量細(xì)胞等多種腦導(dǎo)航細(xì)胞。研究表明,哺乳動物大腦海馬體及內(nèi)嗅皮層是其可以僅靠認(rèn)知進(jìn)行導(dǎo)航的關(guān)鍵,各種導(dǎo)航細(xì)胞有著不同的功能,通過相互作用實(shí)現(xiàn)從探索感知到記憶再到路徑規(guī)劃的強(qiáng)導(dǎo)航能力。

    表1 動物腦導(dǎo)航系統(tǒng)研究歷程

    Table 1 Research history of animal brain navigation system時間/年份研究者研究內(nèi)容1971O’keefe等位置細(xì)胞被發(fā)現(xiàn)在哺乳動物大腦海馬體中[71978Eccles等揭示了海馬回路的神經(jīng)環(huán)路和神經(jīng)元網(wǎng)絡(luò),證實(shí)海馬體是海馬回路的一部分,這是一種被認(rèn)為與空間導(dǎo)航及記憶有關(guān)的神經(jīng)回路[81979O’keefe等闡述認(rèn)知地圖理論,提出海馬體的某些功能能使動物在場地之間建立聯(lián)系,以此來進(jìn)行空間推斷與探測[91990Taube等頭朝向細(xì)胞被發(fā)現(xiàn)存在于海馬體中,這些細(xì)胞可用來計算頭部朝向信息[102005Hafting等網(wǎng)格細(xì)胞被證明存在于內(nèi)嗅皮層中,可編碼表征動物周圍環(huán)境,當(dāng)動物的位置與代表環(huán)境的等邊三角形網(wǎng)格上的頂點(diǎn)重合時,網(wǎng)格單元被激活[112009Lever等邊界細(xì)胞被證實(shí)存在于海馬體中,這類細(xì)胞可以為位置細(xì)胞提供環(huán)境信息,并補(bǔ)充路徑整合信息[122014Bjerknes等證明邊界細(xì)胞在大鼠導(dǎo)航行為開始時就存在,而網(wǎng)格細(xì)胞成熟速度比邊界細(xì)胞慢[132015Kropff等探討內(nèi)嗅皮層中的速度細(xì)胞在動物自我定位中的作用,即提供關(guān)于運(yùn)行速度的信息,并調(diào)節(jié)多種導(dǎo)航細(xì)胞的放電頻率[142020Yi等證明海馬體在動物導(dǎo)航過程中有連接及整合多個與導(dǎo)航相關(guān)腦區(qū)的作用,支持空間記憶和語言之間連接的神經(jīng)機(jī)制[152021Basu等除了海馬體之外,動物眶額皮層(orbito frontal cortex, OFC)中的神經(jīng)元也可以形成空間表征,在導(dǎo)航過程中持續(xù)指向動物的后續(xù)目標(biāo)目的地[162022Ormond等驗證動物導(dǎo)航過程中,海馬體創(chuàng)建基于矢量的模型來支持動物的靈活導(dǎo)航,使得動物具有最優(yōu)路徑規(guī)劃能力[17

    文獻(xiàn)[2,5-6]對類腦導(dǎo)航生物學(xué)基礎(chǔ)及各種導(dǎo)航細(xì)胞的功能描述的非常詳細(xì),本節(jié)僅對類腦導(dǎo)航機(jī)理做出簡單描述并闡明其研究歷程。

    哺乳動物海馬體與內(nèi)嗅皮層部分區(qū)域有著高度有序的組織結(jié)構(gòu),是哺乳動物定位及導(dǎo)航系統(tǒng)的核心組成部分[18。內(nèi)嗅-海馬系統(tǒng)中的眾多導(dǎo)航細(xì)胞,如位置細(xì)胞、頭朝向細(xì)胞、網(wǎng)格細(xì)胞之間通過放電相互作用而形成的神經(jīng)回路來實(shí)現(xiàn)哺乳動物的導(dǎo)航計算與定位。

    目前,哺乳動物導(dǎo)航機(jī)理可大致被描述為如下流程,如圖1所示。

    首先,邊界細(xì)胞及位置細(xì)胞接受環(huán)境信息并將其輸入網(wǎng)格細(xì)胞中以形成網(wǎng)格細(xì)胞對目前環(huán)境位置的多尺度表征;其次,頭朝向細(xì)胞及速度細(xì)胞等向網(wǎng)格細(xì)胞提供自運(yùn)動信息以執(zhí)行路徑積分;第3,邊界細(xì)胞及位置細(xì)胞表征參與校準(zhǔn)路徑積分誤差,并與網(wǎng)格細(xì)胞一同構(gòu)建認(rèn)知地圖;第4,對比路徑積分與目標(biāo)位置之間的表征,并計算矢量信息,再根據(jù)矢量信息進(jìn)行導(dǎo)航。哺乳動物腦導(dǎo)航系統(tǒng)為類腦導(dǎo)航系統(tǒng)架構(gòu)提供了參考。

    2 類腦導(dǎo)航系統(tǒng)架構(gòu)及關(guān)鍵技術(shù)

    本節(jié)介紹類腦導(dǎo)航技術(shù)的框架,詳細(xì)闡述類腦認(rèn)知模型的關(guān)鍵技術(shù),對吸引子模型、振蕩相干模型、深度學(xué)習(xí)模型以及脈沖神經(jīng)網(wǎng)絡(luò)模型的優(yōu)缺點(diǎn)做出對比,并討論這些方法的應(yīng)用及其實(shí)用性。

    類腦導(dǎo)航是借鑒生物大腦導(dǎo)航系統(tǒng)的神經(jīng)機(jī)制,模仿其機(jī)理以實(shí)現(xiàn)自主導(dǎo)航功能的技術(shù)。當(dāng)哺乳動物腦導(dǎo)航細(xì)胞開始被發(fā)現(xiàn)時,許多學(xué)者就導(dǎo)航任務(wù)提出了基于單個導(dǎo)航細(xì)胞的模型,如基于競爭學(xué)習(xí)的位置細(xì)胞模型[20、基于局部視覺及空間交互表征的位置細(xì)胞模型21、 基于自組織學(xué)習(xí)的位置細(xì)胞模型[22、基于頭朝向細(xì)胞的路徑整合模型23-24、基于吸引子神經(jīng)網(wǎng)絡(luò)與競爭神經(jīng)網(wǎng)絡(luò)的頭朝向細(xì)胞模型25。

    隨著神經(jīng)科學(xué)的不斷發(fā)展,研究者們認(rèn)識到哺乳動物空間導(dǎo)航時不同腦區(qū)有著不同的作用,如圖2所示[26-27,其過程是多種腦區(qū)及細(xì)胞共同作用下的復(fù)雜過程,其中包含多源傳感信息融合[28-29、局部視覺信息記憶、路徑積分、空間認(rèn)知地圖構(gòu)建、導(dǎo)航?jīng)Q策等活動30-31,而相比于簡單的路徑積分及地圖構(gòu)建功能,哺乳動物海馬體更像是連接各導(dǎo)航腦區(qū)的橋梁及整合各種導(dǎo)航信息的粘合劑[4,32。

    隨后,許多學(xué)者開始就類腦導(dǎo)航整體框架進(jìn)行研究,Mhatre等[33提出一個基于自組織地圖模型的類腦導(dǎo)航計算結(jié)構(gòu),用以解釋內(nèi)嗅-海馬體在空間導(dǎo)航中的相互作用;Tejera等[34提出一個多源信息整合的類腦導(dǎo)航計算結(jié)構(gòu),并將Actor-Critic機(jī)制引入路徑規(guī)劃部分;Edvardsen等[35提出基于位置細(xì)胞、網(wǎng)格細(xì)胞及邊界細(xì)胞的類腦導(dǎo)航系統(tǒng)結(jié)構(gòu),并以基于網(wǎng)格單元的矢量導(dǎo)航機(jī)制與邊界單元和位置單元介導(dǎo)的局部避障機(jī)制為核心來支持復(fù)雜環(huán)境中的導(dǎo)航;Llofriu等[36提出一個基于哺乳動物海馬體的多目標(biāo)類腦導(dǎo)航框架,其中目標(biāo)導(dǎo)航計算模型也是基于強(qiáng)化學(xué)習(xí)實(shí)現(xiàn)的。如今,類腦自主導(dǎo)航系統(tǒng)的架構(gòu)已逐漸發(fā)展完整及成熟,如圖3所示。

    目前,類腦導(dǎo)航系統(tǒng)的整體架構(gòu)也未統(tǒng)一,Li等[37提出基于絕對航向的類腦導(dǎo)航模型框架,Chao等[38提出基于脈沖神經(jīng)網(wǎng)絡(luò)的無人機(jī)類腦導(dǎo)航系統(tǒng),文獻(xiàn)[6,39]均有對類腦導(dǎo)航框架做出歸納。本文作者認(rèn)為,類腦導(dǎo)航技術(shù)框架從功能的角度可遵從文獻(xiàn)[6]所提出的技術(shù)路線,被分為3個模塊:類腦環(huán)境感知模型、類腦空間認(rèn)知模型、類腦規(guī)劃決策模型,這3個模塊相互影響、相互補(bǔ)充,共同在導(dǎo)航過程中發(fā)揮作用,后續(xù)的研究內(nèi)容也可以大致被這3個強(qiáng)關(guān)聯(lián)的模塊所劃分。

    2.1 類腦導(dǎo)航系統(tǒng)架構(gòu)

    本節(jié)對類腦導(dǎo)航技術(shù)的架構(gòu)按功能層次分類進(jìn)行闡述,描述了類腦環(huán)境感知模型、類腦空間認(rèn)知模型、類腦規(guī)劃決策模型的主要技術(shù)及研究內(nèi)容,分析以往學(xué)者的研究成果。以往文獻(xiàn)對環(huán)境感知模型及規(guī)劃決策模型的描述已經(jīng)較為詳盡,本文僅對類腦導(dǎo)航系統(tǒng)的核心模塊——類腦空間認(rèn)知模型做出展開論述,并對其各個建模技術(shù)的優(yōu)缺點(diǎn)及實(shí)用性做出分析。

    (1) 類腦環(huán)境感知模型。生物在導(dǎo)航時往往是通過多源渠道獲取不同形式的環(huán)境信息,以此為啟發(fā),類腦環(huán)境感知模型主要基于多模態(tài)的仿生傳感器及類腦傳感信息處理機(jī)制來設(shè)置感知模型,通過諸如基于雙目視覺的事件驅(qū)動傳感器[40、以蝙蝠回聲定位機(jī)制為靈感的電磁聲納傳感器[41、基于深度學(xué)習(xí)與觸覺傳感器的感知模型42,以及一系列仿生傳感器43(如仿生光流傳感器、仿生復(fù)眼傳感器、仿生陀螺儀、仿生磁強(qiáng)計等)獲取感知信息。與此同時,在處理傳感器帶來的巨量信息時,借助生物處理信息的機(jī)制,如注意力機(jī)制[44、快照模型45等可以大大減少運(yùn)算量,又能實(shí)現(xiàn)較為準(zhǔn)確、迅速地對環(huán)境信息中的有用信息進(jìn)行提取,無用信息去除的功能,經(jīng)過預(yù)處理遠(yuǎn)遠(yuǎn)降低了數(shù)據(jù)的初始復(fù)雜度。隨著卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNN)的發(fā)展,其強(qiáng)大的特征提取能力使得它非常契合需要處理大量多源信息的類腦感知任務(wù),也因此被廣泛應(yīng)用于類腦環(huán)境感知模型中。蘇黎世聯(lián)邦理工大學(xué)[46-47利用基于視覺的CNN感知模塊與路徑規(guī)劃模塊集成,以搭載在無人飛行器上完成復(fù)雜環(huán)境下的自主導(dǎo)航,該方法避免了狀態(tài)估計方法帶來的軌跡漂移問題,并且可以在高度動態(tài)的環(huán)境中穩(wěn)定運(yùn)行。Dan等[48提出基于CNN的模糊、抽象的建圖定位方法而非采用傳統(tǒng)點(diǎn)云構(gòu)建顯式地圖,該研究也展現(xiàn)出生成式模型與判別式模型在不同場景下的優(yōu)缺點(diǎn),為后續(xù)研究提供思考,研究者們可以在不同任務(wù)需求下通過不同方式結(jié)合兩種模型來共同實(shí)現(xiàn)定位目標(biāo)。Zhuo等[49提出一種全球定位系統(tǒng)(Global Positioning System, GPS)性能補(bǔ)償方法,利用CNN對視覺信息實(shí)現(xiàn)快速提取,再結(jié)合長短期記憶(long short-term memory, LSTM)網(wǎng)絡(luò)輸出補(bǔ)償信號以此在GPS間斷情況下導(dǎo)航,該方法可以有效地降低慣導(dǎo)方法的位置與速度漂移誤差。Zhao等[50也提出一種基于CNN與門控循環(huán)單元(CNN-gated recurrent unit, CNN-GRU)的INS/GNSS集成導(dǎo)航的輔助方法,先利用CNN快速提取序列特征,再利用GRU網(wǎng)絡(luò)進(jìn)行建模輸出,該方法可在短時間GNSS拒止情況實(shí)現(xiàn)低誤差的軌跡預(yù)測功能。此外,還有其他的基于生物大腦信息處理機(jī)制的類腦環(huán)境感知模型正被學(xué)者們研究。

    (2) 類腦空間認(rèn)知模型。生物腦導(dǎo)航系統(tǒng)的核心是其擁有的豐富的導(dǎo)航細(xì)胞,在類腦導(dǎo)航系統(tǒng)中,類腦空間認(rèn)知模型起到了導(dǎo)航細(xì)胞的作用。類腦空間認(rèn)知模型的基本是模擬導(dǎo)航細(xì)胞放電活動的計算模型,通過完成路徑積分、認(rèn)知地圖構(gòu)建等功能,來表征環(huán)境位置。目前,空間認(rèn)知模型的構(gòu)建方式可以分為兩類:一類是基于單個導(dǎo)航細(xì)胞的貝葉斯模型[51、振蕩相干模型52等;另一類基于多種導(dǎo)航細(xì)胞集群電涌活動的深度學(xué)習(xí)模型、脈沖神經(jīng)網(wǎng)絡(luò)(spiking neural network, SNN)模型[53-55、吸引子神經(jīng)網(wǎng)絡(luò)(attractor neural network, ANN)模型[56-57等。

    (3) 類腦規(guī)劃決策模型。類腦規(guī)劃決策模型會利用空間記憶模型得到的空間認(rèn)知地圖進(jìn)行路徑推理及優(yōu)化,結(jié)合外源信息最終輸出最優(yōu)路線或?qū)Ш經(jīng)Q策結(jié)果。在基于SLAM的導(dǎo)航方法中,路徑規(guī)劃動作主要是基于概率圖[58、快速搜索隨機(jī)樹59-60等方法實(shí)現(xiàn)的,但這些方法大多忽視了外源視覺信息在決策中的作用。在類腦導(dǎo)航系統(tǒng)中,規(guī)劃決策部分的計算模型主要是基于神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的。無監(jiān)督學(xué)習(xí)方法可為導(dǎo)航智能體自主學(xué)習(xí)導(dǎo)航策略,使其能夠?qū)⒏鞣N導(dǎo)航細(xì)胞與不同環(huán)境感知和不同導(dǎo)航?jīng)Q策動作聯(lián)系起來。經(jīng)過無監(jiān)督學(xué)習(xí)訓(xùn)練的導(dǎo)航智能體具有在未知環(huán)境中利用獲取到的認(rèn)知地圖、環(huán)境以及自身運(yùn)動信息選擇最優(yōu)的導(dǎo)航動作的能力,從而實(shí)現(xiàn)自主導(dǎo)航。因此,許多基于無監(jiān)督學(xué)習(xí)的決策模型被提出及驗證。Vegard[61提出一種基于網(wǎng)格解碼機(jī)制的策略模型,通過競爭學(xué)習(xí)監(jiān)測當(dāng)前與目標(biāo)位置網(wǎng)格細(xì)胞表征之間的差異作為導(dǎo)航?jīng)Q策的依據(jù),該模型可以實(shí)現(xiàn)使用網(wǎng)格單元之間的差異性來引導(dǎo)智能體到達(dá)記憶目標(biāo)點(diǎn),并符合生物學(xué)邏輯。Goldschmidt等[62基于聯(lián)想學(xué)習(xí)與獎勵機(jī)制來執(zhí)行基于矢量引導(dǎo)的導(dǎo)航模型,該項研究完成了基于矢量的自主導(dǎo)航方法底層控制與學(xué)習(xí)機(jī)制的合理神經(jīng)實(shí)現(xiàn),為后續(xù)自適應(yīng)的目標(biāo)導(dǎo)航研究提供了思路。此外,半監(jiān)督學(xué)習(xí)方法如強(qiáng)化學(xué)習(xí),也被廣泛地應(yīng)用在規(guī)劃決策模型中。Faust等[63結(jié)合基于采樣的路徑規(guī)劃與強(qiáng)化學(xué)習(xí)方法,強(qiáng)化學(xué)習(xí)代理只學(xué)習(xí)采樣點(diǎn)之間的短程導(dǎo)航策略,結(jié)合多個采樣點(diǎn)之間的動作決策即可實(shí)現(xiàn)高效率的遠(yuǎn)程導(dǎo)航?jīng)Q策。Zhu等[64提出了基于演員-評論家模塊的目標(biāo)驅(qū)動視覺導(dǎo)航任務(wù),該方法很好地提高了強(qiáng)化學(xué)習(xí)在執(zhí)行規(guī)劃決策任務(wù)時的泛化能力。雖然無監(jiān)督學(xué)習(xí)及半監(jiān)督學(xué)習(xí)在一定程度上都具有便利性,但是在復(fù)雜環(huán)境導(dǎo)航中通常會受到各種障礙的影響導(dǎo)致導(dǎo)航穩(wěn)定性變差,且效率低下,部分學(xué)者采用監(jiān)督學(xué)習(xí)的方式來解決這些問題。Shen等[65基于CNN訓(xùn)練生成25個既定動作,又采用情景匹配的方式,通過新的CNN學(xué)習(xí)不同場景下的特征以匹配對應(yīng)動作,并在中間引入情景注意力機(jī)制,實(shí)現(xiàn)根據(jù)場景匹配結(jié)果來選擇導(dǎo)航動作,該方法很好地彌補(bǔ)了無監(jiān)督學(xué)習(xí)的不確定性,使得導(dǎo)航智能體的行為更具可控性及可解釋性。Du等[66提出試驗驅(qū)動的模仿學(xué)習(xí)策略,當(dāng)短時間內(nèi)視覺信息特征重復(fù)性高時,即導(dǎo)航載體陷入死鎖狀態(tài),通過暫定策略網(wǎng)絡(luò)輸出既定指令以打破死鎖狀態(tài)。

    2.2 類腦空間認(rèn)知模型關(guān)鍵技術(shù)

    類腦導(dǎo)航系統(tǒng)的核心是類腦空間認(rèn)知部分,基于各種導(dǎo)航細(xì)胞所構(gòu)建的空間認(rèn)知模型可以整合感知模型傳遞的環(huán)境信息及自運(yùn)動信息,將其轉(zhuǎn)換為導(dǎo)航細(xì)胞的特定放電模式及表征,以此來完成認(rèn)知地圖的構(gòu)建。本節(jié)將介紹并分析幾種典型的空間認(rèn)知建模方式。

    2.2.1 吸引子神經(jīng)網(wǎng)絡(luò)模型

    Marr等[67于20世紀(jì)70年代提出吸引子的概念,吸引子是指在無外界輸入的條件下,一個動力學(xué)系統(tǒng)僅靠自身動力就能維持非靜息的穩(wěn)定狀態(tài),這種穩(wěn)定狀態(tài)也被稱為“工作記憶”。ANN是一種基于吸引子的循環(huán)神經(jīng)網(wǎng)絡(luò),傳統(tǒng)的吸引子是離散的,只能編碼離散的狀態(tài)。隨后,連續(xù)ANN(continuous ANN, CANN)被提出并被證明其動力學(xué)特征使得其可被用于對神經(jīng)系統(tǒng)各種細(xì)胞的建模[68,并可以刻畫大腦的信息處理機(jī)制,CANN內(nèi)部神經(jīng)元集群放電活動對記憶信息高效穩(wěn)定的編碼功能也使得其具有很強(qiáng)的生物意義及應(yīng)用場景[69

    因為其貼近生物神經(jīng)系統(tǒng)表征信息的方式,CANN常被用來編碼不同尺度的腦導(dǎo)航細(xì)胞。頭朝向細(xì)胞一般采用二維吸引子進(jìn)行建模(見圖4(a)),吸引子均勻分布在圓周上,不同位置的細(xì)胞分布取決于細(xì)胞對不同方向的敏感程度,不同方向細(xì)胞之間具有循環(huán)連接,連接權(quán)值大小與距離成反比,進(jìn)而形成細(xì)胞之間距離遠(yuǎn)則相互抑制,距離近則相互激活的效果。在適當(dāng)?shù)拇碳づc抑制之下模型可以實(shí)現(xiàn)保持穩(wěn)定放電的狀態(tài)。對于頭朝向細(xì)胞的活動特性可以通過積分頭方向運(yùn)動的角速度來表征[70-71。位置細(xì)胞、網(wǎng)格細(xì)胞對二維環(huán)境編碼的方式可以通過二維CANN來實(shí)現(xiàn)(見圖4(b))。細(xì)胞在二維CANN中的坐標(biāo)編碼著二維環(huán)境中的位置坐標(biāo),與一維CANN相似,細(xì)胞之間具有循環(huán)連接,連接權(quán)值大小與距離成反比。此外,各個邊界上的細(xì)胞與對立邊界上細(xì)胞也建立循環(huán)連接(見圖4(c)),形成具有周期性邊界的環(huán)面以消除邊界影響。二維CANN可以通過驅(qū)動網(wǎng)絡(luò)狀態(tài)向偏移方向連續(xù)運(yùn)動來實(shí)現(xiàn)路徑積分[50,72

    Milford等[73基于二維連續(xù)吸引子編碼的頭朝向細(xì)胞模型及網(wǎng)格細(xì)胞模型提出視覺與感知相結(jié)合的RatSLAM系統(tǒng)來構(gòu)建拓?fù)涞貓D,并完成室外環(huán)境下66 km建圖任務(wù),該方法可以在長時間、長距離的前提下完成精度較高的二維拓?fù)涞貓D構(gòu)建任務(wù)。此外,Burak等[74提出基于速度與航向編碼的CANN細(xì)胞精確積分模型,該項研究證明基于連續(xù)吸引子模型所構(gòu)建的網(wǎng)格細(xì)胞網(wǎng)絡(luò)可以高精準(zhǔn)度地整合自運(yùn)動信息輸入以生成認(rèn)知地圖,但是吸引子存在穩(wěn)定性的問題,并且吸引子的穩(wěn)定性以及其外部狀態(tài)會對整合結(jié)果造成較多影響。Rivero-Ortega等[75基于環(huán)形吸引子網(wǎng)絡(luò)集成了智能體的感知、認(rèn)知及運(yùn)動控制能力,該方法僅依靠感知模塊來獲取環(huán)境信息,因此無法保障導(dǎo)航路徑是最優(yōu)化的,但其在避障行為和穩(wěn)定性上得到很大提升,能為復(fù)雜環(huán)境下多智能體安全導(dǎo)航提供研究思路。

    然而,哺乳動物強(qiáng)大的導(dǎo)航能力在三維空間內(nèi)是普適的,二維腦導(dǎo)航細(xì)胞模型會喪失許多維度的信息,從而不能被應(yīng)用于三維導(dǎo)航任務(wù)中。文獻(xiàn)[76-78]討論三維條件下的頭方向細(xì)胞計算模型及呈六邊形緊密堆積(hexagonal close-packed, HCP)和面心立方(faced-centered cubic, FCC)堆積的網(wǎng)格細(xì)胞模型。

    為模擬哺乳動物在三維環(huán)境中方向認(rèn)知的神經(jīng)機(jī)制,Tang等[79結(jié)合由一維連續(xù)吸引子編碼的頭方向細(xì)胞模型及三維網(wǎng)格細(xì)胞模型使無人系統(tǒng)進(jìn)行認(rèn)知任務(wù)并構(gòu)建環(huán)境地圖,通過該方法構(gòu)建出的拓?fù)涞貓D被賦予情景記憶后,可引導(dǎo)無人系統(tǒng)進(jìn)行認(rèn)知導(dǎo)航任務(wù)。Yu等[80提出多層連續(xù)吸引子編碼的頭方向模型及三維網(wǎng)格細(xì)胞模型,如圖5所示。多層頭方向細(xì)胞模型可以在三維空間中描述無人系統(tǒng)的頭朝向,每個神經(jīng)元負(fù)責(zé)在特定的垂直區(qū)域繪制特定的偏航角,并與局部視圖單元格相關(guān)聯(lián),以進(jìn)行方向校準(zhǔn)。三維網(wǎng)格細(xì)胞模型編碼無人系統(tǒng)的三維位置、方向及度量信息,并可以根據(jù)自運(yùn)動信息進(jìn)行路徑積分,同時可以根據(jù)外部視覺信息進(jìn)行三維位置校準(zhǔn)。

    ANN可解釋性強(qiáng)、魯棒性高、訓(xùn)練簡單,且因為其豐富的動力學(xué)特征,在模擬動物神經(jīng)機(jī)制建模的任務(wù)中有著廣泛的應(yīng)用前景。但是,基于ANN的方法仍存在諸多技術(shù)瓶頸,如確保吸引子的穩(wěn)定性問題,所模擬的不同導(dǎo)航細(xì)胞之間的交互問題以及吸引子網(wǎng)絡(luò)表征信息的準(zhǔn)確性問題都有待攻克。目前,采用吸引子網(wǎng)絡(luò)編碼的導(dǎo)航細(xì)胞模型僅是逐個的功能模擬。未來,從對單個細(xì)胞模擬到對多個細(xì)胞的功能整合,再到對動物腦導(dǎo)航系統(tǒng)的整體模擬,是一個具有重要研究意義的方向。

    2.2.2 振蕩相干模型

    在1993年O’Keefe等[81發(fā)現(xiàn)大鼠在空間環(huán)境中運(yùn)動時,大鼠海馬體的腦電波呈現(xiàn)8~12 Hz的θ波振蕩,在大鼠經(jīng)過位置野時位置細(xì)胞、網(wǎng)格細(xì)胞的放電野時,其放電脈沖在時間上對應(yīng)θ波的相位會越來越提前,這一過程被稱為θ相位進(jìn)動。振蕩相干模型是基于單個導(dǎo)航細(xì)胞進(jìn)行設(shè)計,認(rèn)為動物的空間信息計算過程在單個導(dǎo)航細(xì)胞內(nèi)完成,隨后再進(jìn)行加權(quán)、干擾等融合為全局一致的導(dǎo)航信息來構(gòu)建認(rèn)知地圖。振蕩相干模型將單個神經(jīng)元的輸入信息設(shè)為多個相位間隔為60°的相干信息組成,如圖6所示,其中GC表示網(wǎng)格細(xì)胞。樹突中受自運(yùn)動信息,如速度、頭朝向信號調(diào)整的周期性振蕩輸入與細(xì)胞體附近的周期性振蕩輸入電流疊加形成了不同的相干模式,進(jìn)而將生物運(yùn)動信息如速度、頭朝向等整合為空間相位,形成位置編碼[82-84。因為振蕩的固有周期性,所以路徑積分的重置是自然發(fā)生的,這也是干涉模型的優(yōu)點(diǎn)所在[85。Soman等[86利用振蕩相干模型編碼網(wǎng)格細(xì)胞,并觀察出現(xiàn)了正六邊形的網(wǎng)格放電場表征,該實(shí)驗也證明在使用振蕩相干模型對網(wǎng)格細(xì)胞進(jìn)行建模時,網(wǎng)格表征來源于純運(yùn)動信息的輸入,并且網(wǎng)格表征與速度有著密切關(guān)系,為振蕩相干模型的生物學(xué)依據(jù)提供了很好的解釋。Zilli等[87提出基于網(wǎng)絡(luò)的振蕩相干模型,并證明在高噪聲情況下,振蕩網(wǎng)絡(luò)的頻率依然能被很好地控制,因此該模型適用于真實(shí)噪聲條件。

    然而,由于大腦的振蕩信號非常復(fù)雜,且多個振蕩器直接有密切的相互作用,而振蕩相干模型僅能模擬獨(dú)立且理想的振蕩作用,并且構(gòu)建出來的振蕩相干模型不能維持像生物一樣長時間的穩(wěn)定放電[87,這也是振蕩相干模型的一大技術(shù)瓶頸,因此振蕩相干模型在構(gòu)建腦導(dǎo)航系統(tǒng)模型時應(yīng)用較少。

    2.2.3 深度學(xué)習(xí)模型

    類腦導(dǎo)航技術(shù)強(qiáng)調(diào)記憶及學(xué)習(xí)能力,隨著深度學(xué)習(xí)的不斷發(fā)展,研究人員發(fā)現(xiàn)循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network, RNN)具有優(yōu)秀的序列信息處理能力,是類腦空間認(rèn)知導(dǎo)航建模的一條途徑[88。此外,LSTM網(wǎng)絡(luò)及門控循環(huán)單元(gate recurrent unit, GRU)等RNN變體解決了RNN中梯度消失及梯度爆炸等問題,為RNN的實(shí)用及穩(wěn)定性提供了保障。哥倫比亞大學(xué)Cueva等[89在利用RNN將導(dǎo)航智能體的頭方向及速度作為輸入訓(xùn)練導(dǎo)航智能體時,RNN節(jié)點(diǎn)可視化結(jié)果呈現(xiàn)出與生理學(xué)觀測一致的邊界細(xì)胞、網(wǎng)格細(xì)胞等腦導(dǎo)航細(xì)胞的放電模式。受此啟發(fā),谷歌DeepMind團(tuán)隊Banino等[90設(shè)計一個基于LSTM網(wǎng)絡(luò)的網(wǎng)格細(xì)胞路徑積分模型,利用導(dǎo)航智能體的速度與航向信息來執(zhí)行路徑積分以生成位置與頭方向的預(yù)測,稱為Grid-cell路徑積分網(wǎng)絡(luò)(見圖7)。

    將該網(wǎng)絡(luò)與基于CNN的視覺輸入模塊以及基于LSTM使用強(qiáng)化學(xué)習(xí)進(jìn)行訓(xùn)練的規(guī)劃決策模塊相結(jié)合,搭建了一個面向目標(biāo)的類腦智能導(dǎo)航系統(tǒng)整體,實(shí)驗表明,經(jīng)過訓(xùn)練的LSTM網(wǎng)絡(luò)隱藏單元出現(xiàn)了網(wǎng)格細(xì)胞、邊界細(xì)胞以及內(nèi)嗅皮層其他細(xì)胞的表征。此外,DeepMind團(tuán)隊在不同模擬環(huán)境上測試證明該智能體,結(jié)果表示該智能體具有良好的空間定位以及導(dǎo)航能力,甚至出現(xiàn)走捷徑的尋路能力,并證明上述表征為導(dǎo)航智能體在復(fù)雜、多變、陌生的環(huán)境中實(shí)現(xiàn)定位目標(biāo)提供了基礎(chǔ)。

    目前,深度學(xué)習(xí)模型存在的技術(shù)瓶頸是功耗性、可解釋性及對高質(zhì)量數(shù)據(jù)的要求。由于深度學(xué)習(xí)模型計算功耗大,可解釋性低,在他應(yīng)用到移動機(jī)器人導(dǎo)航任務(wù)上時就存在實(shí)時性差,能耗大的問題。并且由于深度學(xué)習(xí)模型需要大量的高質(zhì)量導(dǎo)航數(shù)據(jù),包括從實(shí)際導(dǎo)航任務(wù)中獲取的感知信息與行為軌跡,而獲取大規(guī)模高質(zhì)量的訓(xùn)練數(shù)據(jù)是成本高且工作量很大的任務(wù)。因此,如何通過輕量化、半監(jiān)督甚至無監(jiān)督的神經(jīng)網(wǎng)絡(luò)模型構(gòu)建腦導(dǎo)航系統(tǒng)是未來的重大研究方向。

    2.2.4 SNN模型

    基于深度學(xué)習(xí)的類腦空間認(rèn)知模型需要大量監(jiān)督學(xué)習(xí)訓(xùn)練,且沒有實(shí)際的生理學(xué)根據(jù)。1952年,Hodgkin等[91在研究烏賊神經(jīng)細(xì)胞動作發(fā)生機(jī)制時發(fā)現(xiàn)烏賊神經(jīng)細(xì)胞的電位受脈沖電流影響,用電路模型模擬這種神經(jīng)元的脈沖放電機(jī)制就是SNN的雛形。1997年,Maass[92提出基于脈沖神經(jīng)元的SNN模型。SNN中的信息通過脈沖時間(包括延遲和峰值速率)傳輸,這些單獨(dú)的脈沖在時間上是稀疏的,因此每個脈沖都有很高的信息含量,并且在一級近似下具有均勻的振幅[93,與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,包含更多神經(jīng)生理學(xué)細(xì)節(jié),圖8為SNN模型。

    由于SNN具有包含時序動力學(xué)特點(diǎn)的神經(jīng)元節(jié)點(diǎn),所以SNN最大的優(yōu)點(diǎn)是可以利用并傳遞與時空相關(guān)的信息。此外,SNN低功耗網(wǎng)絡(luò)信息處理能力、抵御干擾能力、認(rèn)識增強(qiáng)等優(yōu)點(diǎn)使其十分契合復(fù)雜環(huán)境導(dǎo)航的任務(wù)。近年來,SNN由于其編碼機(jī)制的多樣性、時空動力學(xué)特征的豐富性以及契合硬件的事件驅(qū)動性等優(yōu)點(diǎn)在類腦計算、神經(jīng)計算等領(lǐng)域應(yīng)用廣泛。Chao等[94基于SNN對位置細(xì)胞進(jìn)行建模,并提出無人機(jī)飛行路徑規(guī)劃系統(tǒng),該方法在實(shí)驗環(huán)境下成功實(shí)現(xiàn)規(guī)劃出繞開障礙物的無人機(jī)最優(yōu)飛行路徑,充分利用SNN的特性使得該方法具有更高的魯棒性及效率。但是,其路徑規(guī)劃能力僅是在靜態(tài)環(huán)境下,方法實(shí)時性有待提高。Kreiser等[95基于SNN對頭方向細(xì)胞進(jìn)行建模,以實(shí)現(xiàn)路徑整合并校正累積誤差,并將該網(wǎng)絡(luò)搭載在神經(jīng)形態(tài)硬件上以減少功耗,該研究為基于SNN的類腦導(dǎo)航方法與類腦硬件的結(jié)合提供了研究思路。Lobov等[96提出一種基于SNN的全局網(wǎng)絡(luò)記憶的測量方法,使用突觸向量場方法來驗證結(jié)果并計算信息特征,能夠生成外部環(huán)境的內(nèi)部表示并實(shí)現(xiàn)空間記憶。實(shí)驗表明,該方法可以使機(jī)器人避開危險區(qū)域,雖然機(jī)器人最終會重新進(jìn)入到該區(qū)域,這是因為危險轉(zhuǎn)移到另一個區(qū)域,這代表著機(jī)器人可以不斷根據(jù)經(jīng)驗更新地圖,以適應(yīng)不斷改變的環(huán)境。Tang等[97提出一個具有生物學(xué)約束的SNN,并利用其對頭方向細(xì)胞、網(wǎng)格細(xì)胞及位置細(xì)胞等多種腦導(dǎo)航細(xì)胞模型進(jìn)行學(xué)習(xí)訓(xùn)練,以此控制無人系統(tǒng)進(jìn)行未知環(huán)境導(dǎo)航任務(wù),該方法很好地改善了以往SNN架構(gòu)速度較慢、計算效率低的問題,并且為引入其他信息處理細(xì)胞做出了鋪墊。

    此外,由于SNN具有高度的生物機(jī)理,以此帶動模擬生物神經(jīng)生理結(jié)構(gòu)的神經(jīng)形態(tài)硬件的發(fā)展,結(jié)合SNN及神經(jīng)形態(tài)硬件所設(shè)計的類腦導(dǎo)航軟硬一體化系統(tǒng)也成為實(shí)現(xiàn)高效率、高自主性、實(shí)時反應(yīng)及低功耗類腦導(dǎo)航系統(tǒng)的研究重點(diǎn)及挑戰(zhàn)[80。Fleischer等[98基于生物神經(jīng)系統(tǒng)提出了類腦軟硬一體化(brain based device, BBD)導(dǎo)航系統(tǒng),整合了包括自運(yùn)動信息及導(dǎo)航載體與環(huán)境的交互信息進(jìn)行空間建圖、導(dǎo)航規(guī)劃等任務(wù),也為類腦軟硬件結(jié)合研究提供了思路及范例。加州大學(xué)Hwu等[99將CNN搭載在SNN架構(gòu)的類腦芯片TrueNorth上實(shí)現(xiàn)無人系統(tǒng)的自主導(dǎo)航功能,為在自主嵌入式系統(tǒng)上使用神經(jīng)形態(tài)硬件提供研究思路及范例。Pei等[100提出基于類腦異構(gòu)芯片的“天機(jī)”無人駕駛自行車類腦導(dǎo)航系統(tǒng),結(jié)合多傳感信息及包含CNN、SNN及CANN的多模態(tài)神經(jīng)計算模型實(shí)現(xiàn)無人系統(tǒng)感知、記憶及決策一體化的導(dǎo)航功能。類腦芯片的發(fā)展及SNN準(zhǔn)確性的提升為類腦軟硬一體化智能導(dǎo)航系統(tǒng)的發(fā)展奠定了基礎(chǔ)。

    SNN具有豐富的時空動力學(xué)特征及事件驅(qū)動模式,因此在類腦計算任務(wù)中有獨(dú)特的優(yōu)勢。但是,由于其獨(dú)特的訓(xùn)練方式,在監(jiān)督學(xué)習(xí)中SNN需要具有時序?qū)傩缘哪繕?biāo)脈沖序列形式進(jìn)行編碼后的數(shù)據(jù)來進(jìn)行訓(xùn)練,這為模擬腦導(dǎo)航系統(tǒng)又增加了工作量。其次,由于SNN的理論基礎(chǔ)尚未完備,在類腦導(dǎo)航任務(wù)中,如何構(gòu)建多模態(tài)協(xié)作和多時空尺度聯(lián)合表征的高效脈沖編碼理論與模型也是一個待突破的技術(shù)瓶頸。

    2.2.5 類腦空間認(rèn)知建模技術(shù)對比分析

    針對類腦空間記憶模塊部分,目前所有的建模技術(shù)均有其各自的優(yōu)勢及缺陷。CANN模型可解釋性強(qiáng)、訓(xùn)練簡單且穩(wěn)定性高,因此得到大量的研究與應(yīng)用,但利用CANN進(jìn)行導(dǎo)航細(xì)胞建模時所依賴的部分神經(jīng)機(jī)理并未被證實(shí)存在于哺乳動物大腦中,所以存在完備性問題。振蕩相干模型所依賴的神經(jīng)機(jī)理真實(shí)存在于生物大腦中,但是其對噪聲非常敏感,且無法完全模擬哺乳動物腦振蕩系統(tǒng),在導(dǎo)航過程中實(shí)現(xiàn)連續(xù)、穩(wěn)定地放電。深度學(xué)習(xí)模型如RNN等有著良好的端到端訓(xùn)練導(dǎo)航及記憶能力,能夠很好地整合多源信息完成導(dǎo)航任務(wù),且具備魯棒性高、人工工作量少等優(yōu)勢,但其模型需要大量數(shù)據(jù)進(jìn)行訓(xùn)練,且深度學(xué)習(xí)模型的可解釋性是一直存在的問題。雖然哥倫比亞大學(xué)Cueva等[89及DeepMind團(tuán)隊Banino等[90證明RNN隱藏節(jié)點(diǎn)的物理表征類似于腦導(dǎo)航細(xì)胞的放電場,但其建模所依賴的生理學(xué)依據(jù)及神經(jīng)機(jī)理也有待進(jìn)一步解釋。SNN模型具有優(yōu)秀的生物學(xué)特征,但其功耗低、處理速度快等優(yōu)勢需要在與之匹配的類腦芯片上才能發(fā)揮出最優(yōu)性能。目前,各種建模技術(shù)均存在的技術(shù)瓶頸是無法系統(tǒng)、穩(wěn)定地模擬整個腦導(dǎo)航系統(tǒng)的神經(jīng)運(yùn)行機(jī)制,這與生物學(xué)與腦科學(xué)的發(fā)展也密不可分。

    此外,除了采用各種技術(shù)構(gòu)建各種腦導(dǎo)航細(xì)胞來實(shí)現(xiàn)無人系統(tǒng)的自主導(dǎo)航之外,也有許多學(xué)者提出采用純?nèi)斯ぶ悄艿姆椒ㄊ沟脽o人系統(tǒng)具備自主導(dǎo)航功能。Lv等[101采用CNN與粒子濾波的方法實(shí)現(xiàn)無人機(jī)的自主軌跡視覺導(dǎo)航,利用視覺特征匹配的方式控制無人機(jī)以較小的姿態(tài)角及速度誤差識別目標(biāo)來進(jìn)行導(dǎo)航。熊李艷等[102提出一種雙重注意力的深度強(qiáng)化學(xué)習(xí)算法,使得無人系統(tǒng)在理解環(huán)境的同時實(shí)時自我決策進(jìn)行導(dǎo)航,該算法在模擬環(huán)境中表現(xiàn)優(yōu)秀。目前,基于人工智能的自主導(dǎo)航方法主要有基于計算機(jī)視覺的導(dǎo)航方法[103-105,這類導(dǎo)航方法主要利用神經(jīng)網(wǎng)絡(luò)的特征處理能力,通過對不同場景中的圖像特征匹配來達(dá)到自主目標(biāo)導(dǎo)航效果。此外,還有基于深度強(qiáng)化學(xué)習(xí)的無人系統(tǒng)自主導(dǎo)航方法[106-108,這類方法主要是根據(jù)獎懲機(jī)制使得導(dǎo)航智能體逐漸學(xué)會自主導(dǎo)航能力,這些方法也將導(dǎo)航描述為馬爾可夫決策過程(Markov decision process, MDP)。

    目前,基于純?nèi)斯ぶ悄艿淖灾鲗?dǎo)航算法與類腦導(dǎo)航方法最大的區(qū)別在于,是否通過對腦導(dǎo)航細(xì)胞的建模來模擬腦導(dǎo)航系統(tǒng)實(shí)現(xiàn)自主導(dǎo)航功能?;诩円曈X與強(qiáng)化學(xué)習(xí)的自主導(dǎo)航方法在某些場景下取得了較好的效果,但其缺乏可靠的物理學(xué)及神經(jīng)學(xué)基礎(chǔ),且存在模型的表現(xiàn)不可控,實(shí)時性較差,在復(fù)雜動態(tài)環(huán)境下穩(wěn)定性難以保證等問題。類腦導(dǎo)航的靈感來源于動物大腦的結(jié)構(gòu)和功能,試圖模仿人類導(dǎo)航的方式和智能特性。而基于純?nèi)斯ぶ悄芊椒ǖ膶?dǎo)航則更側(cè)重于利用人工智能技術(shù),如強(qiáng)化學(xué)習(xí)、深度學(xué)習(xí)等,來構(gòu)建導(dǎo)航系統(tǒng),其設(shè)計思路和技術(shù)手段相對獨(dú)立于人類大腦的工作機(jī)制。在實(shí)際應(yīng)用中,類腦導(dǎo)航的一些建模方法也使用到了人工智能的相關(guān)技術(shù)。

    3 類腦智能導(dǎo)航認(rèn)知技術(shù)應(yīng)用

    類腦導(dǎo)航技術(shù)的發(fā)展還處于研究階段,目前,類腦導(dǎo)航技術(shù)主要是作為一種輔助導(dǎo)航手段來結(jié)合其他導(dǎo)航方法進(jìn)行應(yīng)用。趙菁等[109基于位置細(xì)胞模型構(gòu)建無人機(jī)飛行軌跡類腦導(dǎo)航方法,將其與慣性導(dǎo)航技術(shù)結(jié)合,設(shè)計節(jié)點(diǎn)誤差補(bǔ)償模型以降低慣性導(dǎo)航所帶來的漂移誤差,該方法不僅能提高無人系統(tǒng)自主導(dǎo)航精度,同時也證明類腦導(dǎo)航技術(shù)可以修正傳統(tǒng)導(dǎo)航器件所帶來的誤差。申沖等[110利用基于超寬帶(ultra wide band, UWB)模塊的位置細(xì)胞節(jié)點(diǎn)所獲取到的智能體速度與位置信息和利用光流傳感器所獲取的速度與位置信息之間的誤差建立誤差模型,再利用誤差模型對速度與位置信息進(jìn)行校正,該方法成功提高了基于光流法的智能體速度與位置測量精度,也為復(fù)雜環(huán)境下的組合導(dǎo)航技術(shù)提供參考。

    本節(jié)主要闡述了類腦導(dǎo)航技術(shù)與現(xiàn)有的導(dǎo)航技術(shù)的重要結(jié)合與應(yīng)用。目前,研究技術(shù)最成熟、最熱門的自主導(dǎo)航技術(shù)即SLAM技術(shù),因此本節(jié)針對類腦導(dǎo)航技術(shù)與SLAM技術(shù)及多智能協(xié)同導(dǎo)航技術(shù)的結(jié)合及可能性的應(yīng)用展開描述。

    3.1 類腦SLAM技術(shù)

    SLAM技術(shù)有著多年的研究基礎(chǔ)及理論支撐,其穩(wěn)定性及可解釋性較強(qiáng),類腦導(dǎo)航技術(shù)與SLAM技術(shù)的結(jié)合彌補(bǔ)了SLAM技術(shù)的缺陷,又為類腦導(dǎo)航技術(shù)研究及應(yīng)用提供了可解釋性的保障。

    類腦空間認(rèn)知模型的主要任務(wù)是進(jìn)行空間記憶并建立認(rèn)知地圖。認(rèn)知地圖的概念最早由Tolman[111于1948年提出,認(rèn)知地圖是動物在導(dǎo)航過程中理解環(huán)境的整體空間結(jié)構(gòu),主動選擇重要線索從而構(gòu)建出獨(dú)立于自身而存在的環(huán)境全景地圖。認(rèn)知地圖一般具有一定的抽象性和高層次的表示,通常用于規(guī)劃路徑、避障、導(dǎo)航等高級決策和任務(wù)。

    SLAM技術(shù)也是被提出用以解決無人系統(tǒng)在未知環(huán)境中的定位及建圖問題,是指無人平臺在運(yùn)動的過程中利用自身多種傳感器實(shí)時構(gòu)建經(jīng)驗地圖,并以此作為導(dǎo)航與定位的依據(jù)。與認(rèn)知地圖不同,經(jīng)驗地圖是通過實(shí)際經(jīng)驗和實(shí)時感知所積累的環(huán)境信息的記錄和整理,可以用來描述和表示機(jī)器人或無人系統(tǒng)在運(yùn)動中所感知到的環(huán)境特征、位置信息、障礙物等。認(rèn)知地圖和經(jīng)驗地圖也可以相互影響和更新。經(jīng)驗地圖中的數(shù)據(jù)可以用于更新認(rèn)知地圖,改進(jìn)無人系統(tǒng)對環(huán)境的認(rèn)知和理解,認(rèn)知地圖中的高層次結(jié)構(gòu)和規(guī)劃決策也可以引導(dǎo)機(jī)器人在實(shí)時操作中對環(huán)境信息的收集和更新。根據(jù)所應(yīng)用的傳感器,傳統(tǒng)SLAM技術(shù)可大致分為基于激光雷達(dá)的SLAM[112-114、基于視覺的SLAM[115-117及基于多種傳感器如慣性測量單元(inertial measurement unit, IMU)、視覺傳感器及激光雷達(dá)之間的融合SLAM技術(shù)[118-120。

    早期的SLAM大多基于概率統(tǒng)計模型[121-123,如圖9所示,這類方法依賴昂貴的傳感器如激光雷達(dá)與復(fù)雜的計算模型,導(dǎo)致基于概率的SLAM方法具有代價高、計算資源耗費(fèi)高、穩(wěn)定性差等一系列缺點(diǎn)。

    隨后,受到自然界中生物導(dǎo)航策略及哺乳動物腦導(dǎo)航機(jī)制啟發(fā)的類腦SLAM[73,80,125-126技術(shù)被提出,用于低成本、高自適應(yīng)性地完成無人系統(tǒng)在未知環(huán)境中的建圖任務(wù)。類腦SLAM技術(shù)是通過仿照哺乳動物的腦導(dǎo)航系統(tǒng),結(jié)合傳感器數(shù)據(jù)和機(jī)器學(xué)習(xí)算法,實(shí)現(xiàn)機(jī)器在未知環(huán)境中同時進(jìn)行自主定位和地圖構(gòu)建的技術(shù)。其模仿了哺乳動物腦中的空間導(dǎo)航回路和細(xì)胞,通過感知數(shù)據(jù)和機(jī)器學(xué)習(xí)算法來實(shí)現(xiàn)定位和建圖的功能。此外,類腦SLAM技術(shù)可以利用感知數(shù)據(jù)和定位信息來估計導(dǎo)航系統(tǒng)的運(yùn)動狀態(tài),包括速度、加速度、姿態(tài)等,這對于導(dǎo)航系統(tǒng)的行為決策和路徑規(guī)劃非常重要,例如避障、隨動控制、動態(tài)路徑規(guī)劃等。類腦SLAM技術(shù)旨在讓機(jī)器能夠像動物一樣在未知環(huán)境中進(jìn)行自主導(dǎo)航和環(huán)境認(rèn)知,具有較強(qiáng)的魯棒性和適應(yīng)性。類腦SLAM技術(shù)的發(fā)展過程中有兩個至關(guān)重要的算法:一是將類腦與SLAM技術(shù)首次結(jié)合并落地的RatSLAM技術(shù);另一個是將RatSLAM技術(shù)由二維推廣至三維的NeuroSLAM技術(shù)。目前,現(xiàn)存大部分算法均是從這兩個技術(shù)中得到的啟發(fā)或?qū)ζ溥M(jìn)行改進(jìn)。

    3.1.1 RatSLAM技術(shù)

    2004年,Milford等[73提出一個基于競爭吸引子網(wǎng)絡(luò)的嚙齒動物海馬體模型2DSLAM技術(shù),稱為RatSLAM。RatSLAM利用位置細(xì)胞和頭部方向細(xì)胞構(gòu)建了一個名為pose cell network的海馬模型,整合來自視覺傳感器的里程計運(yùn)動數(shù)據(jù)和地標(biāo)。圖10為RatSLAM的基本框架,其中位姿細(xì)胞由競爭吸引子網(wǎng)絡(luò)編碼,接收來自由外部視覺信息轉(zhuǎn)換的局部信息以及由內(nèi)部信息執(zhí)行得到的路徑積分結(jié)果輸入,來控制及判斷無人系統(tǒng)的位姿變化。

    搭載該模型的無人系統(tǒng)可在模糊地標(biāo)信息的條件下執(zhí)行實(shí)時SLAM任務(wù),并且可以從不同程度的路徑積分誤差中自主恢復(fù)過來。受到RatSLAM網(wǎng)絡(luò)的啟發(fā),Steckel等[125提出基于聲納信息的地圖構(gòu)建技術(shù)——BatSLAM,為多源傳感融合及基于仿生聲納的空間定位和地圖構(gòu)建任務(wù)提供了研究思路。Luan等[126將二維RatSLAM模型擴(kuò)展到三維的水下環(huán)境中,稱為DolphinSLAM,并結(jié)合擴(kuò)展的FABMap來處理復(fù)雜海底環(huán)境下的地表檢測任務(wù),該研究僅依賴視覺與聲納信息,為生物啟發(fā)的水下SLAM技術(shù)研究提供了思路與啟發(fā)。昆士蘭科技大學(xué)Milford等[127利用基于純視覺車載RatSLAM實(shí)現(xiàn)長達(dá)66 km的實(shí)時建圖任務(wù),并且實(shí)現(xiàn)地圖閉環(huán)。Kazmi等[128利用RatSLAM與視覺里程計的外部輸入完成校園環(huán)形道路的閉環(huán)建圖,證實(shí)RatSLAM+視覺里程計建圖的可行性,并給出基于RatSLAM的視覺/里程積分算法結(jié)構(gòu)。Yu等[129基于情景記憶的概念,提出一種結(jié)合RatSLAM和情景記憶圖的仿生路徑規(guī)劃技術(shù),并在多種場景下驗證其有效性及魯棒性,該算法也為認(rèn)知拓?fù)涞貓D升維,將拓?fù)涞貓D轉(zhuǎn)變?yōu)檎Z義拓?fù)涞貓D的研究提供了思路。

    此外,Milford等[130通過RatSLAM系統(tǒng)在不同模糊程度外界環(huán)境中的行為表現(xiàn),研究RatSLAM系統(tǒng)中的網(wǎng)格細(xì)胞放電場模式,并證明網(wǎng)格細(xì)胞具有處理模糊信息的功能,同時驗證不確定性是高效導(dǎo)航的必要條件,以此為RatSLAM提供了生物學(xué)依據(jù)。Ball等[131-132分別提出基于機(jī)器人操作系統(tǒng)(robot operating system, ROS)的OpenRatSLAM以及并行的xRatSLAM作為RatSLAM模型的開源框架,供研究人員們驗證及探討。

    RatSLAM模型的提出為SLAM技術(shù)的發(fā)展做出巨大貢獻(xiàn),其有著強(qiáng)大的自主導(dǎo)航能力,并且魯棒性強(qiáng)、實(shí)用范圍廣,可在導(dǎo)航、測繪及自動駕駛等多個領(lǐng)域發(fā)揮作用,但也存在著精度不高、可擴(kuò)展性低以及所需計算資源較高等問題。

    3.1.2 NeuroSLAM技術(shù)

    受到鳥類及蝙蝠等生物利用空間神經(jīng)記憶及外部傳感信息融合進(jìn)行導(dǎo)航的機(jī)制啟發(fā),Yu等[80提出一種基于三維網(wǎng)格細(xì)胞及多層頭朝向細(xì)胞模型的三維4自由度(degree of freedom, DoF)類腦SLAM技術(shù),稱為NeuroSLAM。

    圖11為NeuroSLAM的系統(tǒng)框架,該系統(tǒng)由包括視覺里程計的視覺模塊、三維網(wǎng)格細(xì)胞模塊、多層頭朝向細(xì)胞模塊及多層經(jīng)驗地圖模塊組成,其中視覺模塊提供局部視覺信息以及自運(yùn)動信息,自運(yùn)動信息包括偏航旋轉(zhuǎn)速度、平移速度及高度變化速度等。視覺模塊提供的信息分別被送入多層頭朝向細(xì)胞模塊以及三維網(wǎng)格細(xì)胞模塊進(jìn)行路徑積分并根據(jù)視覺里程計信息進(jìn)行校正,校正后的路徑積分結(jié)果融合局部視圖單元及視覺里程計結(jié)果共同構(gòu)建三維經(jīng)驗地圖。

    多層頭朝向細(xì)胞模型及三維網(wǎng)格細(xì)胞模型分別由多維連續(xù)吸引子網(wǎng)絡(luò)(multi dimensional continuous attractor network, MD-CAN)及三維連續(xù)吸引子網(wǎng)絡(luò)編碼,共同被稱為聯(lián)合位姿細(xì)胞,用以表示無人系統(tǒng)的4DoF位姿(x,y,z,yaw),即空間坐標(biāo)和偏航角。聯(lián)合位姿細(xì)胞的活性會受到無人系統(tǒng)自運(yùn)動信息變化的影響而發(fā)生改變,同時在遇到熟悉的場景時,聯(lián)合位姿細(xì)胞的活性會根據(jù)局部視覺信息而得到校準(zhǔn),即多維吸引子網(wǎng)絡(luò)的活動包會根據(jù)三維視覺里程計信息進(jìn)行移位,局部視覺細(xì)胞將會在三維視覺里程計遇到熟悉的視覺信息時被激活,通過聯(lián)想學(xué)習(xí)將活性注入特定的聯(lián)合位姿細(xì)胞中,從而實(shí)現(xiàn)路徑積分。

    NeuroSLAM的提出填補(bǔ)了三維空間中類腦SLAM技術(shù)的空白,其計算模型更符合三維生物學(xué)特征,并且可以通過軌跡誤差校正實(shí)現(xiàn)經(jīng)驗地圖的閉環(huán)。與傳統(tǒng)三維SLAM技術(shù)沿軌跡不斷生成位姿信息相比,NeuroSLAM降低了大量的計算復(fù)雜度及功耗,同時彌補(bǔ)了傳統(tǒng)三維SLAM魯棒性低、智能性低等問題,為三維類腦SLAM技術(shù)的發(fā)展提供了參考及研究思路。受NeuroSLAM技術(shù)的啟發(fā),Ambrus等[133設(shè)計一個融合NeuroSLAM網(wǎng)絡(luò)與基于Hebbian網(wǎng)絡(luò)關(guān)鍵幀匹配技術(shù)的閉環(huán)類腦建圖和導(dǎo)航系統(tǒng),稱為NeoSLAM。但是目前為止,NeuroSLAM也存在著精度低、僅能生成無語義信息的拓?fù)涞貓D、無法實(shí)現(xiàn)無人系統(tǒng)的路徑規(guī)劃與導(dǎo)航等問題。

    隨著動物腦導(dǎo)航機(jī)制的不斷深入研究,類腦SLAM技術(shù)也隨之蓬勃發(fā)展,呈現(xiàn)出從二維到三維、從3DoF到4DoF甚至更高DoF、從模擬單個腦導(dǎo)航細(xì)胞到多種腦導(dǎo)航細(xì)胞再到整個腦導(dǎo)航系統(tǒng)、從單種傳感器到多種傳感器融合、從高成本到低成本、從低效到高效等發(fā)展趨勢,如表2所示。

    位置細(xì)胞視覺傳感器構(gòu)建基于反赫布學(xué)習(xí)遞歸神經(jīng)網(wǎng)絡(luò)的空間認(rèn)知模型,并采用貝葉斯估計方法進(jìn)行誤差修正,使得無人系統(tǒng)可整合多源信息完成認(rèn)知地圖構(gòu)建任務(wù)[138

    隨著研究的不斷深入,類腦SLAM技術(shù)所構(gòu)建的認(rèn)知地圖精確度也逐漸增高,許多學(xué)者也在研究語義SLAM技術(shù)[139-142,使得構(gòu)建的拓?fù)涞貓D向帶有語義信息的地圖發(fā)展,這也與生物導(dǎo)航機(jī)制更為貼合,為類腦導(dǎo)航技術(shù)提供了研究方向。

    3.2 無人機(jī)群類腦智能協(xié)同導(dǎo)航技術(shù)應(yīng)用

    文獻(xiàn)[143]提出認(rèn)知導(dǎo)航的概念,認(rèn)為認(rèn)知導(dǎo)航具有對空間環(huán)境和導(dǎo)航規(guī)劃決策的注意、記憶、學(xué)習(xí)、思維能力,并提出任務(wù)驅(qū)動的協(xié)同導(dǎo)航能力是認(rèn)知導(dǎo)航的一種新質(zhì)導(dǎo)航能力,而類腦導(dǎo)航與無人機(jī)集群協(xié)同導(dǎo)航技術(shù)的結(jié)合能夠?qū)崿F(xiàn)無人系統(tǒng)的集群認(rèn)知導(dǎo)航,并滿足協(xié)同智能導(dǎo)航能力的要求。

    類腦智能導(dǎo)航技術(shù)在無人機(jī)群的智能協(xié)同導(dǎo)航中具有重要應(yīng)用。在無人機(jī)任務(wù)中,由于功耗、起飛重量、成本等因素的限制,單個無人機(jī)無法同時攜帶多種傳感器和高性能的處理設(shè)備。因此,針對無人機(jī)群協(xié)同導(dǎo)航任務(wù)的研究需要借助適應(yīng)性較強(qiáng)的類腦智能導(dǎo)航技術(shù)。

    無人機(jī)集群是由多架相互聯(lián)系、協(xié)同控制的無人機(jī)組成的具有統(tǒng)一調(diào)配、自主決策功能的無人機(jī)系統(tǒng)。與單架的無人機(jī)相比,無人機(jī)集群可以通過協(xié)同合作以更小的成本適應(yīng)復(fù)雜的外界環(huán)境,執(zhí)行較為困難的任務(wù)時容錯率高,且根據(jù)不同任務(wù)需求,可以分配給每個無人機(jī)不同的子任務(wù)[144。近年來,隨著人工智能與神經(jīng)科學(xué)的發(fā)展,研究者們嘗試?yán)妙惸X導(dǎo)航技術(shù)進(jìn)行無人機(jī)集群的飛行任務(wù)導(dǎo)航研究,并獲得了可觀的成績。

    自然界中有許多生物有著高效的群體交流及導(dǎo)航能力,如鴿群、魚群及蜂群的導(dǎo)航[145-146。目前,類腦無人機(jī)集群系統(tǒng)主要是模擬自然界中鳥群編隊飛行機(jī)制進(jìn)行設(shè)計。鴿群在飛行任務(wù)中有著森嚴(yán)的等級制度[147-148,每個鴿群有一個頭鴿,對整個鴿群的導(dǎo)航方向及路線起到絕對領(lǐng)導(dǎo)作用,其跟隨的個體之間也有著層次關(guān)系,每個個體僅可以跟與之臨近的個體通訊,且絕對服從頭鴿及上層個體的領(lǐng)導(dǎo)。這樣的集群導(dǎo)航系統(tǒng)使得群體之間的通訊次數(shù)大幅減少,并且即使個體故障,群體之間的導(dǎo)航系統(tǒng)也可以快速重構(gòu),使得導(dǎo)航穩(wěn)定性增加。曾子鳴等[149提出一種基于新鴿群的無人機(jī)集群導(dǎo)航拓?fù)浣Y(jié)構(gòu),通過模擬生物集群之間的交流機(jī)制,讓集群導(dǎo)航處于更加協(xié)調(diào)的狀態(tài)。范林飛[150基于鴿群算法解決多無人機(jī)航跡規(guī)劃問題,并在迭代過程中引入Levy擾動以此來更快速地進(jìn)行全局搜索,該方法實(shí)現(xiàn)更小代價、更高效率的無人機(jī)編隊航路規(guī)劃任務(wù),并且利用優(yōu)化后的鴿群算法保證了集群作業(yè)的穩(wěn)定性,為無人機(jī)集群協(xié)同導(dǎo)航提供了完整的研究思路。楊慶等[151利用雁編隊飛行行為機(jī)制設(shè)計四旋翼無人機(jī)集群飛行的自主協(xié)同控制方法,該算法利用鴻雁自組織、自調(diào)節(jié)的編隊飛行特性,為無人機(jī)編隊在大航程、遠(yuǎn)距離編隊導(dǎo)航任務(wù)提供研究思路。

    此外,Zhou等[152實(shí)現(xiàn)基于視覺里程計及軌跡規(guī)劃器的微型無人機(jī)自主導(dǎo)航系統(tǒng),該系統(tǒng)具有避障、目標(biāo)跟蹤、群體協(xié)調(diào)、環(huán)境建圖等多種功能,依靠機(jī)載傳感器的有限信息可實(shí)現(xiàn)快速高效的動作反應(yīng),并且完成了穿越竹林及跟蹤目標(biāo)等任務(wù)。目前為止,類腦集群導(dǎo)航系統(tǒng)的構(gòu)建并未將哺乳動物大腦空間導(dǎo)航自組織機(jī)制與生物集群導(dǎo)航自組織機(jī)制結(jié)合起來,未來這也是一個重要的研究方向。

    4 總結(jié)與展望

    類腦智能導(dǎo)航系統(tǒng)融合了最新的神經(jīng)科學(xué)發(fā)現(xiàn)和人工智能技術(shù),尤其是借鑒人類大腦在空間認(rèn)知和決策制定方面的機(jī)制。通過模擬人腦的信息處理流程和學(xué)習(xí)機(jī)制,導(dǎo)航系統(tǒng)能夠以更自然的方式進(jìn)行環(huán)境感知和路徑規(guī)劃,從而降低對復(fù)雜算法和大量計算資源的依賴,以較低的成本保證系統(tǒng)的運(yùn)行,與此同時通過模擬腦導(dǎo)航系統(tǒng)的環(huán)境信息處理能力,實(shí)現(xiàn)復(fù)雜環(huán)境中動態(tài)調(diào)整導(dǎo)航策略,使得導(dǎo)航行為保持高效和可靠。另外,神經(jīng)形態(tài)計算硬件的發(fā)展如SNN和相應(yīng)的神經(jīng)形態(tài)處理器使得系統(tǒng)在執(zhí)行感知、認(rèn)知任務(wù)時能夠顯著降低能耗。

    目前,類腦導(dǎo)航的技術(shù)難點(diǎn)和發(fā)展瓶頸主要在于如何利用計算機(jī)技術(shù)系統(tǒng)地模擬出腦導(dǎo)航系統(tǒng)的運(yùn)行方式。類腦導(dǎo)航作為人工智能研究的重點(diǎn)之一,已經(jīng)取得了一定的進(jìn)展。類腦導(dǎo)航系統(tǒng)已經(jīng)能夠初步模仿大腦的多種功能,包括高維感官信息的捕獲、空間記憶的形成以及動作規(guī)劃和決策等,從而展現(xiàn)出一種相對智能化的導(dǎo)航系統(tǒng)。但是,由于人類目前對腦的認(rèn)知有限,對大腦內(nèi)各部分工作機(jī)理及細(xì)胞之間的信息交互方式的研究并不深入,所以類腦導(dǎo)航在工作機(jī)理上缺乏可解釋性,并且目前不論是從神經(jīng)動力學(xué)還是從神經(jīng)網(wǎng)絡(luò)的角度去模擬的腦導(dǎo)航系統(tǒng),各部分之間的交互方式均非常簡單,甚至僅僅能模擬出腦導(dǎo)航系統(tǒng)的部分功能,難以確保導(dǎo)航的穩(wěn)定性及精確性,尤其是無法模擬出在復(fù)雜動態(tài)環(huán)境下的快速響應(yīng)能力。類腦導(dǎo)航目前存在的技術(shù)難點(diǎn)及發(fā)展方向大致如下。

    (1) 導(dǎo)航機(jī)理研究。目前,大部分的研究都是對腦局部功能的模仿,如單純基于網(wǎng)格細(xì)胞、頭朝向細(xì)胞的導(dǎo)航模型,這類模型雖能完成部分地圖構(gòu)建及導(dǎo)航任務(wù),但其性能與動物真實(shí)導(dǎo)航能力相差甚遠(yuǎn)。未來,隨著對哺乳動物腦導(dǎo)航機(jī)理的進(jìn)一步研究,對腦導(dǎo)航系統(tǒng)的模擬從局部到整體準(zhǔn)確、高效的耦合,實(shí)現(xiàn)類腦導(dǎo)航系統(tǒng)的魯棒性、高效性、準(zhǔn)確性、實(shí)時響應(yīng)、自主導(dǎo)航等性能將成為重點(diǎn)研究方向。此外,對生物大腦導(dǎo)航機(jī)理的進(jìn)一步研究也是至關(guān)重要的。除了大鼠等哺乳動物外,螞蟻、盲鰻、駱駝、信鴿等多種多樣的生物均具有強(qiáng)大的導(dǎo)航及路徑記憶能力。類腦導(dǎo)航的研究不應(yīng)該局限于模擬某類生物的導(dǎo)航機(jī)理,而是參考自然界中不同物種所具有的豐富的導(dǎo)航機(jī)理。當(dāng)然,類腦導(dǎo)航的研究必須是在對生物腦導(dǎo)航機(jī)理有準(zhǔn)確認(rèn)知的基礎(chǔ)之上開展的。

    (2) 高維認(rèn)知地圖構(gòu)建技術(shù)研究。目前的研究大部分是構(gòu)建二維拓?fù)涞貓D,少部分研究基于三維拓?fù)涞貓D來開發(fā)類腦智能導(dǎo)航系統(tǒng)。但是在真實(shí)環(huán)境中,二維拓?fù)涞貓D的應(yīng)用場景十分局限,因此需要構(gòu)建更高維度以及包含更多信息的認(rèn)知地圖來支持無人系統(tǒng)后續(xù)的導(dǎo)航定位及路徑規(guī)劃任務(wù)。未來,由二維低DoF到三維高DoF的認(rèn)知地圖的構(gòu)建模型,以及從認(rèn)知拓?fù)涞貓D到認(rèn)知語義地圖,都將會是類腦導(dǎo)航系統(tǒng)的重要研究方向。此外,文獻(xiàn)[2]中所提到目前類腦導(dǎo)航技術(shù)缺少對于算法的評價指標(biāo)。本文認(rèn)為,除了對類腦智能導(dǎo)航系統(tǒng)整體性能設(shè)計評價指標(biāo)之外,整個系統(tǒng)中的每個部分均需要設(shè)計單獨(dú)的性能評價指標(biāo)來指導(dǎo)系統(tǒng)的設(shè)計及優(yōu)化。例如,對于類腦信息處理模塊,測度其信息轉(zhuǎn)換的效率及準(zhǔn)確率;對于空間記憶模型,評價其認(rèn)知地圖構(gòu)建與真實(shí)軌跡地圖之間的誤差等;對于規(guī)劃決策模型,考慮其規(guī)劃路徑及動作是否為最優(yōu)選擇;對于類腦導(dǎo)航系統(tǒng)整體,則考慮其功耗、效率、響應(yīng)速度及完成目標(biāo)的準(zhǔn)確性等指標(biāo)。對類腦智能導(dǎo)航系統(tǒng)的評價指標(biāo)的研究需求是迫切的且是首要的,只有建立成熟的評價體系,研究人員才能根據(jù)其所度量的模型性能去設(shè)計并優(yōu)化類腦智能導(dǎo)航系統(tǒng)。

    (3) 軟硬一體化的高效能類腦智能導(dǎo)航系統(tǒng)研究。未來,無人系統(tǒng)復(fù)雜導(dǎo)航任務(wù)越來越要求導(dǎo)航系統(tǒng)的低功耗、高速及實(shí)時反應(yīng)性等能力。隨著類腦計算及類腦芯片的發(fā)展,軟硬一體化的類腦智能導(dǎo)航系統(tǒng)也是實(shí)現(xiàn)上述導(dǎo)航能力的一個重要途徑。此外,由于單傳感器在復(fù)雜環(huán)境中的信息采集能力有限,近年來多傳感器融合導(dǎo)航技術(shù)得到許多研究,未來基于如深度相機(jī)、單目/雙目相機(jī)、仿生傳感器、wifi氣壓計、陀螺儀、慣導(dǎo)芯片等傳感器的多源傳感融合類腦導(dǎo)航系統(tǒng)也是一大重要發(fā)展方向。

    (4) 多智能協(xié)同導(dǎo)航研究。隨著應(yīng)用場景的日益復(fù)雜化,近年來無人機(jī)任務(wù)逐漸由單體向集群任務(wù)方式轉(zhuǎn)換,無人機(jī)群多智能協(xié)同任務(wù)也是未來無人系統(tǒng)的重要應(yīng)用場景。因此,就需要高度智能化、效率化以及低成本化的導(dǎo)航通信一體化技術(shù)的研究。目前,在類腦集群導(dǎo)航方面的研究主要是基于動物集群自適應(yīng)導(dǎo)航機(jī)制來設(shè)置無人系統(tǒng)集群間的信息傳遞方式及高效的群體導(dǎo)航系統(tǒng),但是并未將基于哺乳動物腦導(dǎo)航系統(tǒng)的相關(guān)導(dǎo)航細(xì)胞模型與之結(jié)合起來。未來,在類腦集群導(dǎo)航方向?qū)游锛鹤越M織導(dǎo)航與哺乳動物腦導(dǎo)航機(jī)制結(jié)合將會是一個重要的研究方向。此外,類腦協(xié)同智能之間的信息交互與融合技術(shù)也是降低無人機(jī)群設(shè)備成本及提高導(dǎo)航精準(zhǔn)度的一大主要研究內(nèi)容。例如,無人機(jī)群中,確定一個或有限個主機(jī),主機(jī)攜帶高性能的信息處理設(shè)備,多個從機(jī)分別攜帶激光雷達(dá)、氣壓計、慣性傳感器等信息采集設(shè)備,通過分布式群體間的信息交互達(dá)到在不損失集群定位精準(zhǔn)度的條件下降低單架無人機(jī)成本,提高集群整體可靠性和智能導(dǎo)航能力的目的。

    (5) 類腦導(dǎo)航與大模型技術(shù)的融合研究。近年來,大語言模型的研究與應(yīng)用日益廣泛,因此具身智能成為了當(dāng)下人工智能的前沿和熱點(diǎn)研究領(lǐng)域。具身智能的核心思想是無人系統(tǒng)通過自主與環(huán)境交互,實(shí)現(xiàn)感知、認(rèn)知及決策一體化的高階智能體,其也被認(rèn)為是傳統(tǒng)人工智能邁向通用人工智能的必要途徑[153。未來,類腦智能導(dǎo)航方法可以與大模型進(jìn)行結(jié)合,通過模型強(qiáng)大的認(rèn)知及規(guī)劃能力,可以實(shí)現(xiàn)從圖像輸入到?jīng)Q策輸出一體化的高效率、高精準(zhǔn)度的“具身導(dǎo)航”策略,甚至可以從語義級別來實(shí)現(xiàn)導(dǎo)航任務(wù),如告訴智能體需要導(dǎo)航到杯子所在地點(diǎn),模型通過圖像數(shù)據(jù)自主判斷杯子的所在地,并直接向?qū)Ш捷d體下達(dá)動作指令,以抵達(dá)目的地,實(shí)現(xiàn)無圖、無監(jiān)督、無人工參與的具身導(dǎo)航效果。

    現(xiàn)階段,類腦導(dǎo)航技術(shù)主要是借鑒哺乳動物空間導(dǎo)航機(jī)理,實(shí)現(xiàn)傳感信息輸入及處理、空間記憶及建圖、面向目標(biāo)規(guī)劃決策等功能,形成一個不依賴于地圖模型及衛(wèi)星導(dǎo)航信號的智能自主導(dǎo)航系統(tǒng)。在不遠(yuǎn)的未來,類腦導(dǎo)航技術(shù)主要是作為一種輔助導(dǎo)航手段來結(jié)合衛(wèi)星導(dǎo)航進(jìn)行應(yīng)用,如在長距離導(dǎo)航過程中,可先利用衛(wèi)星導(dǎo)航技術(shù)進(jìn)行路徑規(guī)劃,在導(dǎo)航過程中遇到衛(wèi)星信號干擾或者丟失的情況下,利用類腦導(dǎo)航技術(shù)進(jìn)行導(dǎo)航?jīng)Q策。

    參考文獻(xiàn)

    [1]陳雨荻, 熊智, 劉建業(yè), 等. 基于海馬體的面向未知復(fù)雜環(huán)境類腦導(dǎo)航技術(shù)綜述[J]. 兵工學(xué)報, 2022, 43(11): 2965-2980.

    CHEN Y D, XIONG Z, LIU J Y, et al. Review of brain-inspired navigation technology based on hippocampal formation for unknown complex environments[J]. Acta Armamentarii, 2022, 43(11): 2965-2980.

    [2]朱祥維, 沈丹, 肖凱, 等. 類腦導(dǎo)航的機(jī)理、算法、實(shí)現(xiàn)與展望[J]. 航空學(xué)報, 2023, 44(19): 6-38.

    ZHU X W, SHEN D, XIAO K, et al. Mechanisms, algorithms, implementation and perspectives of brain-inspired navigation[J]. Acta Aeronautica et Astronautica Sinica, 2023, 44(19): 6-38.

    [3]郭遲, 羅賓漢, 李飛, 等. 類腦導(dǎo)航算法: 綜述與驗證[J]. 武漢大學(xué)學(xué)報(信息科學(xué)版), 2021, 46(12): 1819-1831.

    GUO C, LUO B H, LI F, et al. Review and verification for the brain-inspired navigation algorithm[J]. Geomatics and Information Science of Wuhan University, 2021, 46(12): 1819-1831.

    [4]LEONARD J, DURRANT W H. Mobile robot localization by tracking geometric beacons[J]. IEEE Trans.on Robotics and Automation, 1991, 7(3): 376-382.

    [5]斯白露, 羅壹凡. 空間記憶與類腦導(dǎo)航研究進(jìn)展[J]. 人工智能, 2020(1): 16-31.

    SI B L, LUO Y F. Research progress on spatial memory and the brain-inspired navigation[J]. Artificial Intelligence View, 2020(1): 16-31.

    [6]楊闖, 劉建業(yè), 熊智, 等. 由感知到動作決策一體化的類腦導(dǎo)航技術(shù)研究現(xiàn)狀與未來發(fā)展[J]. 航空學(xué)報, 2020, 41(1): 23280.

    YANG C, LIU J Y, XIONG Z, et al. Brain-inspired navigation technology integrating perception and action decision: a review and outlook[J]. Acta Aeronautica et Astronautica Sinica, 2020, 41(1): 23280.

    [7]O’KEEFE J, DOSTROVSKY J. The hippocampus as a spatial map: preliminary evidence from unit activity in the freely-moving rat[J]. Brain Research, 1971, 34(1): 171-175.

    [8]ECCLES J C, MILNER B. Localization of hippocampus in the rat using the 2-deoxyglucose method[J]. Neuroscience Letters, 1978, 8(4): 237-242.

    [9]O’KEEFE J, NADEL L. The hippocampus as a cognitive map[J]. Behavioral and Brain Sciences, 1979, 2(4): 487-494.

    [10]TAUBE J, MULLER R, RANCK J. Head-direction cells recorded from the postsubiculum in freely moving rats. II. Effects of environmental manipulations[J]. Journal of Neuroscience, 1990, 10(2): 436-447.

    [11]HAFTING T, FYHN M, MOLDEN S, et al. Micro-structure of a spatial map in the entorhinal cortex[J]. Nature, 2005, 436(7052): 801-806.

    [12]LEVER C, BURTON S, JEEWAJEE A, et al. Boundary vector cells in the subiculum of the hippocampal formation[J]. Journal of Neuroscience, 2009, 29(31): 9771-9777.

    [13]BJERKNES T, MOSER E, MOSER M B. Representation of geometric borders in the developing rat[J]. Neuron, 2014, 82(1): 71-78.

    [14]KROPFF E, CARMICHAEL J E, MOSER M B, et al. Speed cells in the medial entorhinal cortex[J]. Nature, 2015, 523(7561): 419-424.

    [15]YI P, DOUGLAS C, YANAN S, et al. Theta oscillations support the interface between language and memory[J]. NeuroImage, 2020, 215: 116782.

    [16]BASU R, GEBAUER R, HERFURTH T, et al. The orbitofrontal cortex maps future navigational goals[J]. Nature, 2021, 599(7885): 449-452.

    [17]ORMOND J, O’KEEFE J. Hippocampal place cells have goal-oriented vector fields during navigation[J]. Nature, 2022, 607(7920): 741-746.

    [18]王琳, 王亮. 認(rèn)知地圖的神經(jīng)環(huán)路基礎(chǔ)[J]. 生物化學(xué)與生物物理進(jìn)展, 2017, 44(3): 187-197.

    WANG L, WANG L. Neural circuit basis of cognitive map[J]. Progress in Biochemistry and Biophysics, 2017, 44(3): 187-197.

    [19]楊闖, 劉建業(yè), 熊智, 等. 基于多尺度網(wǎng)格細(xì)胞模型的無人機(jī)類腦矢量導(dǎo)航方法[J]. 中國慣性技術(shù)學(xué)報, 2020, 28(2): 179-185.

    YANG C, LIU J Y, XIONG Z, et al. Brain-inspired vector navigation method based on model of multi-scale grid cells[J]. Journal of Chinese Inertial Technology, 2020, 28(2): 179-185.

    [20]SHARP P E. Computer simulation of hippocampal place cells[J]. Psychobiology, 1991, 19(2): 103-115.

    [21]TOURETZKY D S, REDISH A D. Theory of rodent navigation based on interacting representations of space[J]. Hippocampus, 1996, 6(3): 247-270.

    [22]CHOKSHI K, WERMTER S, WEBER C. Learning localisation based on landmarks using self-organisation[C]∥Proc.of the Artificial Neural Networks and Neural Information Processing, 2003: 504-511.

    [23]ISLAM T, FUKUZAKI R. A model of path integration and navigation based on head direction cells in entorhinal cortex[C]∥Proc.of the International Conference on Neural Information Processing, 2010: 82-90.

    [24]KUBIE J L, FENTON A A. Heading-vector navigation based on head-direction cells and path integration[J]. Hippocampus, 2009, 19(5): 456-479.

    [25]WALTERS D M, STRINGER S M. Path integration of head direction: updating a packet of neural activity at the correct speed using neuronal time constants[J]. Biological Cybernetics, 2010, 103(1): 21-41.

    [26]孔祥禎, 張鳳翔, 蒲藝. 空間導(dǎo)航的腦網(wǎng)絡(luò)基礎(chǔ)和調(diào)控機(jī)制[J]. 心理科學(xué)進(jìn)展, 2023, 31(3): 330-337.

    KONG X Z, ZHANG F X, PU Y. The functional brain network that supports human spatial navigation[J]. Advances in Psychological Science, 2023, 31(3): 330-337.

    [27]COUGHLAN G, LACZó J, HORT J, et al. Spatial navigation deficits—overlooked cognitive marker for preclinical Alzheimer disease?[J]. Nature Reviews Neurology, 2018, 14(8): 496-506.

    [28]EKSTROM A D, HUFFMAN D J, STARRETT M. Interacting networks of brain regions underlie human spatial navigation: a review and novel synthesis of the literature[J]. Journal of neurophysiology, 2017, 118(6): 3328-3344.

    [29]KONG X Z, WANG X, PU Y, et al. Human navigation network: the intrinsic functional organization and behavioral relevance[J]. Brain Structure and Function, 2017, 222: 749-764.

    [30]BAUMANN O, MATTINGLEY J B. Extrahippocampal contributions to spatial navigation in humans: a review of the neuroimaging evidence[J]. Hippocampus, 2021, 31(7): 640-657.

    [31]WOLBERS T, HEGARTY M. What determines our navigational abilities?[J]. Trends in Cognitive Sciences, 2010, 14(3): 138-146.

    [32]CORNWELL B R, JOHNSON L L, HOLROYD T, et al. Human hippocampal and parahippocampal theta during goal-directed spatial navigation predicts performance on a virtual morris water maze[J]. Journal of Neuroscience, 2008, 28(23): 5983-5990.

    [33]MHATRE H, GORCHETCHNIKOV A, GROSSBERG S. Grid cell hexagonal patterns formed by fast self-organized learning within entorhinal cortex[J]. Hippocampus, 2012, 22(2): 320-334.

    [34]TEJERA G, LLOFRIU M, BARRER A, et al. Bio-inspired robotics: a spatial cognition model integrating place cells, grid cells and head direction cells[J]. Journal of Intelligent amp; Robotic Systems: Theory amp; Application, 2018, 91(1): 85-99.

    [35]EDVARDSEN V, BICANSKI A, BURGESS N. Navigating with grid and place cells in cluttered environments[J]. Hippocampus, 2020, 30(3): 220-232.

    [36]LLOFRIU M, SCLEIDOROVICH P, TEJERA G, et al. A computational model for a multi-goal spatial navigation task inspired by rodent studies[C]∥Proc.of the IEEE International Joint Conference on Neural Networks, 2019.

    [37]LI J S, CHU J K, ZHANG R, et al. Brain-inspired navigation model based on the distribution of polarized sky-light[J]. Machines, 2022, 10(11): 1028.

    [38]CHAO Y X, AUGENSTEIN P, ROENNAU A, et al. Brain inspired path planning algorithms for drones[J]. Frontiers in Neurorobotics, 2023, 17: 1111861.

    [39]CHEN Y D, XIONG Z, LIU J Y, et al. A positioning method based on place cells and head-direction cells for inertial/visual brain-inspired navigation system[J]. Sensors, 2021, 21(23): 7988.

    [40]STEFFEN L, REICHARD D, WEINLAND J, et al. Neuromorphic stereo vision: a survey of bio-inspired sensors and algorithms[J]. Frontiers in Neurorobotics, 2019, 13: 28-48.

    [41]GEVA-SAGIV M, LAS L, YOVEL Y, et al. Spatial cognition in bats and rats: from sensory acquisition to multiscale maps and navigation[J]. Nature Reviews Neuroscience, 2015, 16(2): 94-108.

    [42]TIAN S, EBERT F, JAYARAMAN D, et al. Manipulation by feel: touch-based control with deep predictive models[C]∥Proc.of the IEEE International Conference on Robotics and Automation, 2019: 818-824.

    [43]WU W C, SCHENATO L, WOOD R J, et al. Biomimetic sensor suite for flight control of a micromechanical flying insect: design and experimental results[C]∥Proc.of the IEEE International Conference on Robotics and Automation, 2003: 1146-1151.

    [44]DESIMONE R. Neural mechanisms of selective visual attention[J]. Annual Review of Neuroscience, 1995, 18(1): 193-222.

    [45]CARTWRIGHT B A, COLLETT T S. Landmark maps for honeybees[J]. Biological Cybernetics, 1987, 57(1): 85-93.

    [46]KAUFMANN E, LOQUERCIO A, RANFTL R, et al. Deep drone racing: learning agile flight in dynamic environments[C]∥Proc.of the Conference on Robot Learning, 2018: 133-145.

    [47]LOQUERCIO A, KAUFMANN E, RANFTL R, et al. Deep drone racing: from simulation to reality with domain randomization[J]. IEEE Trans.on Robotics, 2020, 36(1): 1-14.

    [48]DAN R, BESSE F, VIOLA F, et al. Learning models for visual 3D localization with implicit mapping[EB/OL]. [2024-03-16]. https:∥doi.org/10.48550/arXiv.1807.03149.

    [49]ZHUO Z A, DL B, LL B. A performance compensation method for GPS/INS integrated navigation system based on CNN-LSTM during GPS outages[J]. Measurement, 2022, 188: 110516.

    [50]ZHAO S, ZHOU Y L, HUANG T C. A novel method for ai-assisted ins/gnss navigation system based on CNN-GRU and CKF during GNSS outage[J]. Remote Sensing, 2022, 14(18): 4494.

    [51]MADL T, FRANKLIN S, CHEN K, et al. Bayesian integration of information in hippocampal place cells[J]. Plos One, 2014, 9(3): e89762.

    [52]MCNAUGHTON B L, BATTAGLIA F P, JENSEN O, et al. Path integration and the neural basis of the “cognitive map”[J]. Nature Reviews Neuroscience, 2006, 7(8): 663-678.

    [53]NICHOLS E, MCDAID L J, SIDDIQUE N H. Case study on a self-organizing spiking neural network for robot navigation[J]. International Journal of Neural Systems, 2010, 20(6): 501-508.

    [54]韓昆, 吳德偉, 來磊. 類腦導(dǎo)航中基于差分Hebbian學(xué)習(xí)的網(wǎng)格細(xì)胞構(gòu)建模型[J]. 系統(tǒng)工程與電子技術(shù), 2020, 42(3): 674-679.

    HAN K, WU D W, LAI L. Model of generating grid cell based on difference Hebbian learning in brain-inspired navigation[J]. Systems Engineering and Electronics, 2020, 42(3): 674-679.

    [55]WANG X, HOU Z G, FENG L, et al. Mobile robots’ modular navigation controller using spiking neural networks[J]. Neurocomputing, 2014, 134(25): 230-238.

    [56]FU E, BRAVO M, ROSKOS B. Single-destination navigation in a multiple-destination environment: a new “l(fā)ater-destination attractor” bias in route choice[J]. Memory amp; Cognition, 2015, 43(7): 1043-1055.

    [57]ANGELAKI D E, LAURENS J. The head direction cell network: attractor dynamics, integration within the navigation system, and three-dimensional properties[J]. Current Opinion in Neurobiology, 2020, 60: 136-144.

    [58]KAVRAKI L E, SVESTKA P, LATOMBE J C, et al. Probabilistic roadmaps for path planning in high-dimensional configuration spaces[J]. IEEE Trans.on Robotics and Automation, 1996, 12(4): 566-580.

    [59]LAVALLE S M, KUFFNER J J. Rapidly-exploring random trees: progress and prospects[C]∥Proc.of the Conference on 4th Algorithmic and Computational Robotics: New Direction, 2001: 303-307.

    [60]JR J, LAVALLE S M. RRT-Connect: an efficient approach to single-query path planning[C]∥Proc.of the IEEE International Conference on Robotics and Automation, 2000: 995-1001.

    [61]VEGARD E. Goal-directed navigation based on path integration and decoding of grid cells in an artificial neural network[J]. Natural Computing, 2019, 18(1): 13-27.

    [62]GOLDSCHMIDT D, MANOONPONG P, DASGUPT S. A neurocomputational model of goal-directed navigation in insect-inspired artificial agents[J]. Frontiers in Neurorobotics, 2017, 11(20). DOI: 10.3389/fnbot.2017.00020.

    [63]FAUST A, RAMIREZ O, FISER M, et al. PRM-RL: long-range robotic navigation tasks by combining reinforcement learning and sampling-based planning[C]∥Proc.of the IEEE International Conference on Robotics and Automation, 2018: 5113-5120.

    [64]ZHU Y, MOTTAGHI R, KOLVE E, et al. Target-driven visual navigation in indoor scenes using deep reinforcement learning[C]∥Proc.of the IEEE International Conference on Robotics and Automation (ICRA), 2017: 3357-3364.

    [65]SHEN W B, XU D, ZHU Y, et al. Situational fusion of visual representation for visual navigation[C]∥Proc.of the IEEE/CVF International Conference on Computer Vision, 2019: 2881-2890.

    [66]DU H M, YU X, ZHENG L. Learning object relation graph and tentative policy for visual navigation[C]∥Proc.of the European Conference on Computer Vision, 2020: 19-34.

    [67]MARR D. Simple memory: a theory for archicortex[J]. Philosophical Transactions of The Royal Society B Biological Sciences, 1971, 262(841): 23-81.

    [68]WU S, WONG K Y M, FUNG C C A, et al. Continuous attractor neural networks: candidate of a canonical model for neural information representation[J]. F1000research, 2016, 5(16): 209-226.

    [69]BUSH D, BURGESS N. A hybrid oscillatory interference/continuous attractor network model of grid cell firing[J]. The Journal of Neuroscience: the Official Journal of the Society for Neuroscience, 2014, 34(14): 5065-5079.

    [70]ZHANG K. Representation of spatial orientation by the intrinsic dynamics of the head-direction cell ensemble: a theory[J]. Journal of Neuroscience, 1996, 16(6): 2112-2126.

    [71]REDISH A D, ELGA A N, TOURETZKY D S. A coupled attractor model of the rodent head direction system[J]. Network Computation in Neural Systems, 1997, 7(4): 671-685.

    [72]趙辰豪, 吳德偉, 韓昆, 等. 基于多尺度網(wǎng)格細(xì)胞的路徑整合模型[J]. 系統(tǒng)工程與電子技術(shù), 2021, 43(10): 2961-2967.

    ZHAO C H, WU D W, HAN K, et al. Path integration model based on multi-scale grid cell[J]. Systems Engineering and Electronics, 2021, 43(10): 2961-2967.

    [73]MILFORD M J, WYETH G F, PRASSER D P. RatSLAM: a hippocampal model for simultaneous localisation and mapping[C]∥Proc.of the IEEE International Conference on Robotics and Automation, 2004: 403-408.

    [74]BURAK Y, FIETE I R. Accurate path integration in continuous attractor network models of grid cells[J]. PLoS Computational Biology, 2009, 5(2): e1000291.

    [75]RIVERO-ORTEGA J D, MOSQUERA-MATURANA J S, PARDO-CABRERA J, et al. Ring attractor bio-inspired neural network for robot social navigation[J]. Frontiers in Neurorobotics, 2023, 17: 1211570.

    [76]HAYMAN R, GIULIO C, WILSON J J, et al. Grid cells on steeply sloping terrain: evidence for planar rather than volumetric encoding[J]. Frontiers in Psychology, 2015, 6: 925.

    [77]JEFFERY K J, WILSON J J, GIULIO C, et al. Neural encoding of large-scale three-dimensional space—properties and constraints[J]. Frontiers in Psychology, 2015, 6: 927.

    [78]KIM M, MAGUIRE E A. Encoding of 3D head direction information in the human brain[J]. Hippocampus, 2019, 29(7): 619-629.

    [79]TANG H, YAN R, TAN K C. Cognitive navigation by neuro-inspired localization, mapping, and episodic memory[J]. IEEE Trans.on Cognitive and Developmental Systems, 2017, 10(3): 751-761.

    [80]YU F W, SHANG J G, HU Y J. NeuroSLAM: a brain-inspired SLAM system for 3D environments[J]. Biological cybernetics, 2019, 113(5): 515-545.

    [81]O’KEEFE J, RECCE M L. Phase relationship between hip-pocampal place units and the EEG theta rhythm[J]. Hippocampus, 1993, 3(3): 317-330.

    [82]MOSER E I, MOSER M B. Grid cells and neural cod-ing in high-end co81rtices[J]. Neuron, 2013, 80(3): 765-774.

    [83]BARRY C, BURGESS N. Neural mechanisms of self-location[J]. Current Biology, 2014, 24(8): 330-339.

    [84]BURGESS N, BARRY C, O’KEEFE J. An oscillatory interference model of grid cell firing[J]. Hippocampus, 2007, 17(9): 801-812.

    [85]GAUSSIER P, BANQUET J P, SARGOLINI F, et al. A model of grid cells involving extra hippocampal path integration, and the hippocampal loop[J]. Journal of Integrative Neuroscience, 2007, 6(3): 447-476.

    [86]SOMAN K, MURALIDHARAN V, CHAKRAVART-HY V S. A unified hierarchical oscillatory network model of head direction cells, spatially periodic cells, and place cells[J]. The European Journal of Neuroscience, 2018, 47(10): 1266-1281.

    [87]ZILLI E A, HASSELMO M E. Coupled noisy spiking neurons as velocity-controlled oscillators in a model of grid cell spatial firing[J]. The Journal of Neuroscience: the Official Journal of the Society for Neuroscience, 2010, 30(41): 13850-13860.

    [88]KANITSCHEIDER I, FIETE I. Training recurrent networks to generate hypotheses about how the brain solves hard navigation problems[EB/OL]. [2024-03-16]. https:∥doi.org/10.48550/arXiv.1609.09059.

    [89]CUEVA C J, WEI X X. Emergence of grid-like representations by training recurrent neural networks to perform spatial localization[EB/OL]. [2024-03-16]. https:∥doi.org/10.48550/arXiv.1803.07770.

    [90]BANINO A, BARRY C, URIA B, et al. Vector-based navigation using grid-like representations in artificial agents[J]. Nature, 2018, 557(7705): 429-433.

    [91]HODGKIN A L, HUXLEY A F. Currents carried by sodium and potassium ions through the membrane of the giant axon of Loligo[J]. The Journal of Physiology, 1952, 116(4): 449-472.

    [92]MAASS W. Networks of spiking neurons: the third generation of neural network models[J]. Neural Networks, 1997, 10(9): 1659-1671.

    [93]AT A, MG B, SRK C, et al. Deep learning in spiking neural networks[J]. Neural Networks, 2019, 111: 47-63.

    [94]CHAO Y, AUGENSTEIN P, ROENNAU A, et al. Brain inspired path planning algorithms for drones[J]. Frontiers in Neurorobotics, 2023, 17: 1111861.

    [95]KREISER R, CARTIGLIA M, MARTEL J, et al. A neuromorphic approach to path integration: a head-direction spiking neural network with vision-driven reset[C]∥Proc.of the IEEE International Symposium on Circuits and Systems, 2018.

    [96]LOBOV S A, ZHARINOV A I, MAKAROV V, et al. Spatial memory in a spiking neural network with robot embodiment[J]. Sensors, 2021, 21(8): 2678.

    [97]TANG G, MICHMIZOS K P. Gridbot: an autonomous robot controlled by a spiking neural network mimicking the brain’s navigational system[C]∥Proc.of the International Conference on Neuromorphic Systems, 2018.

    [98]FLEISCHER J G, EDELMAN G M. Brain-based devices[J]. IEEE Robotics amp; Automation Magazine, 2009, 16(3): 33-41.

    [99]HWU T, ISBELL J, OROS N, et al. A self-driving robot using deep convolutional neural networks on neuromorphic hardware[C]∥Proc.of the International Joint Conference on Neural Networks, 2017: 635-641.

    [100]PEI J, DENG L, SONG S, et al. Towards artificial general intelligence with hybrid Tianjic chip architecture[J]. Nature, 2019, 572(7767): 106-111.

    [101]LV J, TU L H. Deep learning-based visual navigation control method for autonomous trajectory of UAVs[J]. Applied Mathematics and Nonlinear Sciences, 2024, 9(1): 1-14.

    [102]熊李艷, 舒垚淞, 曾輝, 等. 基于深度強(qiáng)化學(xué)習(xí)的機(jī)器人導(dǎo)航算法研究[J]. 華東交通大學(xué)學(xué)報, 2023, 40(1): 67-74.

    XIONG L Y, SHU Y S, ZENG H, et al. Research on robot navigation algorithm based on deep reinforcement learning[J]. Journal of East China Jiaotong University, 2023, 40(1): 67-74.

    [103]KIM Y, BANG H. Vision-based navigation for unmanned aircraft using ground feature points and terrain elevation data[J]. Proceedings of the Institution of Mechanical Engineers, Part G: Journal of Aerospace Engineering, 2018, 232(7): 1334-1346.

    [104]尚克軍, 趙亮, 張偉建, 等. 基于深度特征正射匹配的無人機(jī)視覺定位方法[J]. 中國慣性技術(shù)學(xué)報, 2024, 32(1): 52-57.

    SHANG K J, ZHAO L, ZHANG J W, et al. Unmanned aerial vehicle visual localization method based on deep feature orthorectification matching[J]. Journal of Chinese Inertial Technology, 2024, 32(1): 52-57.

    [105]GARCíA-PINTOS C A, ALDANA-MURILLO N G, OVALLE-MAGALLANES E, et al. A deep learning-based visual map generation for mobile robot navigation[J]. Eng-Advances in Engineering, 2023, 4(2): 1616-1634.

    [106]董明澤, 溫莊磊, 陳錫愛, 等. 安全凸空間與深度強(qiáng)化學(xué)習(xí)結(jié)合的機(jī)器人導(dǎo)航方法[EB/OL]. [2024-03-16]. http:∥kns.cnki.net/kcms/detail/11.2176.TJ.20240229.1058.002.html.

    DONG M Z, WEN Z L, CHEN X A, et al. Research on robot navigation method integrating safe convex space and deep reinforcement learning[EB/OL]. [2024-03-16]. http:∥kns.cnki.net/kcms/detail/11.2176.TJ.20240229.1058.002.html.

    [107]CHEN G D, YAO S Y, MA J, et al. Distributed non-communicating multi-robot collision avoidance via map-based deep reinforcement learning[J]. Sensors, 2020, 20(17): 4836.

    [108]HODGE V J, HAWKINS R, ALEXANDER R. Deep reinforcement learning for drone navigation using sensor data[J]. Neural Computing and Applications, 2021, 33(6): 2015-2033.

    [109]趙菁, 趙東花, 王晨光, 等. 基于場景識別的慣性基類腦導(dǎo)航方法[J]. 導(dǎo)航與控制, 2020, 19(4): 119-125.

    ZHAO J, ZHAO D H, WANG C G, et al. Inertial-based brain-like navigation strategy based on scene recognition[J]. Navigation and Control, 2020, 19(4): 119-125.

    [110]申沖, 劉曉杰, 王晨光, 等. 一種基于光流UWB組合的類腦導(dǎo)航方法[P]. 中國: CN109459025B, 2020-09-04.

    SHEN C, LIU X J, WANG C G, et al. A brain-like navigation method based on optical flow UWB combination[P]. China: CN109459025B, 2020-09-04.

    [111]TOLMAN E C. Cognitive maps in rats and men[J]. Psychological Review, 1948, 55(4): 189-208.

    [112]MONTEMERLO M, THRUN S, KOLLER D, et al. Fast-SLAM: a factored solution to the simultaneous localization and mapping problem[C]∥Proc.of the 18th National Conference on Artificle Intelligence, and 14th Conference on Innovative Application of Artificle Intelligence, 2022: 593-598.

    [113]GRISETTI G, STACHNISS C, BURGARD W. Improved techniques for grid mapping with rao-blackwellized particle filters[J]. IEEE Trans.on Robotics, 2007, 23(1): 34-46.

    [114]WANG H N, NI J Y, QI Y, et al. Optimal design of laser SLAM algorithm based on RBPF improved resampling technology[C]∥Proc.of the IEEE International Conference on Mechatronics and Automation, 2020: 1245-1250.

    [115]PRITSKER A, O’REILLY J J. Simulation with visual SLAM and AweSim[J]. Computers and Mathematics with Applications, 1997, 34(10): 137.

    [116]PUPILLI M, CALWAY A. Real-time visual SLAM with resilience to erratic motion[C]∥Proc.of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2006: 1244-1249.

    [117]ROMERORAMIREZ F J, MUOZSALINAS R, MARíNJI-MNEZ M J, et al. sSLAM: speeded-up visual SLAM mixing artificial markers and temporary keypoints[J]. Sensors, 2023, 23(4): 2210.

    [118]GRAETER J, WILCZYNSKI A, LAUER M. LIMO: lidar-monocular visual odometry[C]∥Proc.of the IEEE/RSJ International Conference on Intelligent Robots and Systems, 2018: 7872-7879.

    [119]CHENG Y, LAI J Z, ZHANG J H, et al. Research on an autonomously tightly integrated positioning method for UAV in sparse-feature indoor environment[C]∥Proc.of the 15th International Bhurban Conference on Applied Sciences and Technology, 2018: 318-324.

    [120]LOU L, LI Y, ZHANG Q, et al. SLAM and 3D semantic reconstruction based on the fusion of lidar and monocular vision[J]. Sensors, 2023, 23(3): 1502.

    [121]MONTEMERLO M, THRUN S, WHITTAKER W. Conditional particle filters for simultaneous mobile robot localization and people-tracking[C]∥Proc.of the IEEE International Conference on Robotics and Automation, 2002: 695-701.

    [122]WALTER M R, EUSTICE R M, LEONARD J J. Exactly sparse extended information filters for feature-based SLAM[J]. The International Journal of Robotics Research, 2007, 26(4): 335-359.

    [123]MATTAR E, MUTIB K A, SULAIMAN M A, et al. Mobile robot intelligence based SLAM features learning and navigation[J]. International Journal of Computing and Digital Systems, 2018, 7(1): 23-34.

    [124]CADENA C, CARLONE L, CARRILLO H, et al. Past, present, and future of simultaneous localization and mapping: toward the robust-perception age[J]. IEEE Trans.on Robotics, 2016, 32(6): 1309-1332.

    [125]STECKEL J, PEREMANS H. BatSLAM: simultaneous localization and mapping using biomimetic sonar[J]. PloS One, 2013, 8(1): e54076.

    [126]LUAN S, GUTH F, DREWS P, et al. An open-source bio-inspired solution to underwater SLAM[J]. IFAC-PapersOnLine, 2016, 48(2): 212-217.

    [127]MILFORD M J, WYETH G F. Mapping a suburb with a single camera using a biologically inspired SLAM system[J]. IEEE Trans.on Robotics, 2008, 24(5): 1038-1053.

    [128]KAZMI S, MERTSCHING B. Gist+RatSLAM: an incremental bio-inspired place recognition front-end for RatSLAM[J]. EAI Endorsed Transactions on Creative Technologies, 2016, 3(8): 3-12.

    [129]YU S M, XU H D, WU C, et al. Bionic path planning fusing episodic memory based on RatSLAM[J]. Biomimetics, 2023, 8(1): 59-77.

    [130]MILFORD M J, WILES J, WYETH G F. Solving navigational uncertainty using grid cells on robots[J]. PLoS Computational Biology, 2010, 6(11): e1000995.

    [131]BALL D, HEATH S, WILES J, et al. OpenRatSLAM: an open source brain-based SLAM system[J]. Autonomous Robots, 2013, 34(3): 149-176.

    [132]DE-SOUZA M M E, CHAVES M M, PIGNATON D F E, et al. xRatSLAM: an extensible RATSLAM computational framework[J]. Sensors, 2022, 22(21): 8305.

    [133]AMBRU瘙塁 R, BORE N, FOLKESSON J, et al. Meta-rooms: building and maintaining long term spatial models in a dynamic world[C]∥Proc.of the IEEE/RSJ International Conference on Intelligent Robots and Systems, 2014: 1854-1861.

    [134]ARLEO A, GERSTNER W. Spatial cognition and neuro-mimetic navigation: a model of hippocampal place cell activity[J]. Biological Cybernetics, 2000, 83(3): 287-299.

    [135]MEYER J A, GUILLOT A, GIRARD B, et al. The Psikharpax project: towards building an artificial rat[J]. Robotics amp; Autonomous Systems, 2005, 50(4): 211-223.

    [136]GIOVANNANGELI C, GAUSSIER P. Autonomous vision-based navigation: goal-oriented action planning by transient states prediction, cognitive map building, and sensory-motor learning[C]∥Proc.of the IEEE/RSJ International Conference on Intelligent Robots and Systems, 2008: 676-683.

    [137]ZENG T P, TANG F Z, JI D X, et al. NeuroBayesSLAM: neurobiologically inspired Bayesian integration of multisensory information for robot navigation[J]. Neural Networks, 2020, 126: 21-35.

    [138]叢明, 邊雪, 劉冬, 等. 基于類腦認(rèn)知與貝葉斯估計的仿生建圖方法[J]. 華中科技大學(xué)學(xué)報(自然科學(xué)版), 2022, 50(4): 33-39.

    CONG M, BIAN X, LIU D, et al. Bionic mapping method based on brain-inspired cognition and Bayesian estimation[J]. Huazhong University of Science amp; Technology (Natural Science Edition), 2022, 50(4): 33-39.

    [139]BAVLE H, PUENTE P, HOW J, et al. VPS-SLAM: visual planar semantic SLAM for aerial robotic systems[J]. IEEE Access, 2020, 8: 60704-60718.

    [140]ZHAO X, ZUO T, HU X Y. OFM-SLAM: a visual semantic SLAM for dynamic indoor environments[J]. Mathematical Problems in Engineering, 2021, 2021: 5538840.

    [141]YOU Y X, WEI P, CAI J L, et al. MISD-SLAM: multimodal semantic SLAM for dynamic environments[J]. Wireless Communications and Mobile Computing, 2022, 2022(1): 11-13.

    [142]SUN L X, WEI J Y, SU S J, et al. SOLO-SLAM: a parallel semantic SLAM algorithm for dynamic scenes[J]. Sensors, 2022, 22(18): 6977.

    [143]吳德偉, 何晶, 韓昆, 等. 無人作戰(zhàn)平臺認(rèn)知導(dǎo)航及其類腦實(shí)現(xiàn)思想[J]. 空軍工程大學(xué)學(xué)報, 2018, 19(6): 33-38.

    WU D W, HE J, HAN K, et al. Cognitive navigation and its thought of brain inspired realization in un-manned combat platform[J]. Journal of Air Force Engineering University(Natural Science Edition), 2018, 19(6): 33-38.

    [144]DARRAH M A, NILAND W, STOLARIK B M. Multiple UAV dynamic task allocation using mixed integer linear programming in a SEAD mission[C]∥Proc.of the Infotech@Aerospace Conference, 2005.

    [145]NAYYAR A, LE D N, NHU N G. The handbook titled “advances in swarm intelligence for optimizing problems in computer science”[M]. New York: Chapman and Hall/CRC, 2018.

    [146]SUN W F, TANG M, ZHANG L J, et al. A survey of using swarm intelligence algorithms in IoT[J]. Sensors, 2020, 20(5): 1420.

    [147]NAGY M, AKOS Z, BIRO D, et al. Hierarchical group dynamics in pigeon flocks[J]. Nature, 2010, 464(7290): 890-893.

    [148]NAGY M, VASARHELYI G, PETTIT B, et al. Con-text-dependent hierarchies in pigeons[J]. Proceedings of the National Academy of Sciences, 2013, 110(32): 13049-13054.

    [149]曾子鳴, 董超, 朱小軍, 等. 面向群體快速融合的仿生無人機(jī)集群架構(gòu)[J]. 電信科學(xué), 2022, 38(8): 17-27.

    ZENG Z M, DONG C, ZHU X J, et al. Bionic UAV architecture for fast swarm fusion[J]. Telecommunications Science, 2022, 38(8): 17-27.

    [150]范林飛. 基于鴿群算法的多無人機(jī)協(xié)同編隊[D]. 南京: 南京航空航天大學(xué), 2020.

    FAN L F. Cooperative formation of multi-UAVs based on pigeon algorithm[D]. Nanjing: Nanjing University of Aeronautics and Astronautics, 2020.

    [151]楊慶, 段海濱. 仿鴻雁編隊的無人機(jī)集群飛行驗證[J]. 工程科學(xué)學(xué)報, 2019, 41(12): 1599-1608.

    YANG Q, DUAN H B. Verification of unmanned aerial vehicle swarm behavioral mechanism underlying the formation of Anser cygnoides[J]. Chinese Journal of Engineering, 2019, 41(12): 1599-1608.

    [152]ZHOU X, WEN X Y, WANG Z P, et al. Swarm of micro flying robots in the wild[J]. Science Robotics, 2022, 7(66): eabm5954.

    [153]GUPTA A, SAVARESE S, GANGULI S, et al. Embodied intelligence via learning and evolution[J]. Nature Communications, 2021, 12(1): 5721.

    作者簡介

    李衛(wèi)斌(1976—),男,教授,博士研究生導(dǎo)師,博士,主要研究方向為北斗、遙感、智能導(dǎo)航、大模型及應(yīng)用、人工智能。

    秦晨浩(2000—),男,碩士研究生,主要研究方向為北斗、遙感、智能導(dǎo)航。

    張?zhí)煲唬?995—),男,博士研究生,主要研究方向為高分遙感、北斗高精定位。

    毛 鑫(1999—),男,碩士研究生,主要研究方向為SLAM、無人系統(tǒng)自主導(dǎo)航。

    楊東浩(1999—),男,碩士研究生,主要研究方向為SLAM、無人系統(tǒng)自主導(dǎo)航。

    紀(jì)文搏(1998—),男,碩士研究生,主要研究方向為遙感、智能導(dǎo)航。

    侯 彪(1974—),男,教授,博士,主要研究方向為遙感圖像解譯與目標(biāo)識別、無人系統(tǒng)協(xié)同感知、人工智能芯片及系統(tǒng)。

    焦李成(1959—),男,歐洲科學(xué)院外籍院士,俄羅斯自然科學(xué)院外籍院士,教授,博士,主要研究方向為人工智能、海量、高維、非結(jié)構(gòu)化信息處理中的優(yōu)化與學(xué)習(xí)、復(fù)雜影像的預(yù)處理、圖像分析和數(shù)據(jù)壓縮、深度學(xué)習(xí)FPGA系統(tǒng)、遙感影像大數(shù)據(jù)類腦解譯系統(tǒng)、類腦SAR系統(tǒng)。

    猜你喜歡
    人工智能
    我校新增“人工智能”本科專業(yè)
    用“小AI”解決人工智能的“大”煩惱
    汽車零部件(2020年3期)2020-03-27 05:30:20
    當(dāng)人工智能遇見再制造
    2019:人工智能
    商界(2019年12期)2019-01-03 06:59:05
    AI人工智能解疑答問
    人工智能與就業(yè)
    基于人工智能的電力系統(tǒng)自動化控制
    人工智能,來了
    數(shù)讀人工智能
    小康(2017年16期)2017-06-07 09:00:59
    人工智能來了
    亚洲成人一二三区av| 在线观看一区二区三区激情| 中文字幕亚洲精品专区| 国产69精品久久久久777片| 亚洲国产精品成人综合色| 久久久精品欧美日韩精品| 国产精品一及| 啦啦啦在线观看免费高清www| 国产精品人妻久久久影院| 国产极品天堂在线| 国产女主播在线喷水免费视频网站| 亚洲欧美中文字幕日韩二区| 亚洲综合精品二区| 热99国产精品久久久久久7| 熟女人妻精品中文字幕| 热re99久久精品国产66热6| 狠狠精品人妻久久久久久综合| 一级毛片aaaaaa免费看小| 夜夜看夜夜爽夜夜摸| 国产伦精品一区二区三区视频9| 久久6这里有精品| 麻豆精品久久久久久蜜桃| 久久这里有精品视频免费| 日本-黄色视频高清免费观看| 免费播放大片免费观看视频在线观看| 色视频在线一区二区三区| 秋霞在线观看毛片| 国产成人一区二区在线| 哪个播放器可以免费观看大片| 欧美性猛交╳xxx乱大交人| 亚洲精品成人av观看孕妇| av专区在线播放| 国产成人精品久久久久久| 日日撸夜夜添| av国产久精品久网站免费入址| 极品教师在线视频| 亚洲性久久影院| 午夜福利在线在线| 在线观看美女被高潮喷水网站| 国产乱来视频区| 亚洲av中文字字幕乱码综合| 黄片无遮挡物在线观看| 综合色丁香网| 亚洲美女搞黄在线观看| 精品酒店卫生间| 哪个播放器可以免费观看大片| 视频中文字幕在线观看| 中文字幕免费在线视频6| 国产探花极品一区二区| 亚洲自拍偷在线| 欧美性感艳星| 亚洲精品国产av蜜桃| 日本熟妇午夜| 3wmmmm亚洲av在线观看| 久久午夜福利片| 精品亚洲乱码少妇综合久久| 欧美xxⅹ黑人| 亚洲自偷自拍三级| 最近2019中文字幕mv第一页| 91狼人影院| 国产精品福利在线免费观看| 一级二级三级毛片免费看| 三级国产精品片| 久久亚洲国产成人精品v| 亚洲精品视频女| 亚洲欧洲日产国产| 久久精品久久久久久久性| 久久亚洲国产成人精品v| 国产精品福利在线免费观看| 美女内射精品一级片tv| 国产探花在线观看一区二区| 久久久午夜欧美精品| 精品一区在线观看国产| 国产精品伦人一区二区| 九草在线视频观看| 国产精品国产三级国产av玫瑰| 一区二区三区乱码不卡18| 中文字幕人妻熟人妻熟丝袜美| 在线a可以看的网站| 菩萨蛮人人尽说江南好唐韦庄| 91精品伊人久久大香线蕉| 亚洲精品乱码久久久v下载方式| 老司机影院毛片| 99久久精品热视频| 丝袜脚勾引网站| 亚洲丝袜综合中文字幕| 久久久亚洲精品成人影院| 日韩强制内射视频| 亚洲精品中文字幕在线视频 | 久久影院123| 少妇熟女欧美另类| 久久久久国产网址| 亚洲一级一片aⅴ在线观看| 男插女下体视频免费在线播放| 真实男女啪啪啪动态图| 亚洲国产高清在线一区二区三| 亚洲av福利一区| 男人爽女人下面视频在线观看| a级一级毛片免费在线观看| 久久久亚洲精品成人影院| 我要看日韩黄色一级片| 18禁动态无遮挡网站| 五月开心婷婷网| 亚洲av.av天堂| 大香蕉97超碰在线| kizo精华| 精品久久久久久电影网| 男人爽女人下面视频在线观看| 小蜜桃在线观看免费完整版高清| 日韩中字成人| 日本一二三区视频观看| 18+在线观看网站| 黄片无遮挡物在线观看| 嫩草影院入口| 国产日韩欧美在线精品| 国产精品成人在线| 大片免费播放器 马上看| 国产色爽女视频免费观看| 交换朋友夫妻互换小说| 欧美日韩视频高清一区二区三区二| 欧美 日韩 精品 国产| 成年版毛片免费区| 亚洲精品乱久久久久久| 国产精品久久久久久精品电影小说 | 韩国av在线不卡| 不卡视频在线观看欧美| 黑人高潮一二区| 丝袜脚勾引网站| 中文资源天堂在线| av免费观看日本| 一个人观看的视频www高清免费观看| 国产 一区 欧美 日韩| av网站免费在线观看视频| 在线观看国产h片| 美女视频免费永久观看网站| 欧美三级亚洲精品| 激情 狠狠 欧美| 一级av片app| 亚洲经典国产精华液单| 国产男人的电影天堂91| 久久精品国产亚洲网站| 人人妻人人澡人人爽人人夜夜| 日韩大片免费观看网站| 各种免费的搞黄视频| 国产av不卡久久| 久久韩国三级中文字幕| 极品教师在线视频| 日本熟妇午夜| 国产高潮美女av| 美女被艹到高潮喷水动态| 亚洲国产日韩一区二区| 日韩精品有码人妻一区| 国产黄片视频在线免费观看| 午夜激情福利司机影院| 色5月婷婷丁香| 黄片无遮挡物在线观看| 久久精品久久精品一区二区三区| 国产乱来视频区| 日韩欧美一区视频在线观看 | 日本欧美国产在线视频| 蜜桃久久精品国产亚洲av| 久久精品国产亚洲av涩爱| 亚洲av欧美aⅴ国产| 亚洲av福利一区| 国产美女午夜福利| 99久久精品一区二区三区| .国产精品久久| 欧美日韩在线观看h| 久久精品综合一区二区三区| 少妇猛男粗大的猛烈进出视频 | 亚洲电影在线观看av| 黄片wwwwww| 听说在线观看完整版免费高清| 亚洲精品日本国产第一区| 精品99又大又爽又粗少妇毛片| 亚洲精品一二三| 国产精品久久久久久久电影| 婷婷色综合大香蕉| 国产精品三级大全| 熟女人妻精品中文字幕| 欧美高清成人免费视频www| 最新中文字幕久久久久| 免费黄色在线免费观看| 波野结衣二区三区在线| 日韩强制内射视频| 午夜精品一区二区三区免费看| 老女人水多毛片| 国产成人精品一,二区| 国产精品一二三区在线看| 久久久欧美国产精品| 男的添女的下面高潮视频| 啦啦啦在线观看免费高清www| 久久久久网色| 日韩视频在线欧美| 肉色欧美久久久久久久蜜桃 | 久久精品久久精品一区二区三区| 综合色av麻豆| 精品人妻偷拍中文字幕| 免费观看a级毛片全部| 免费电影在线观看免费观看| 久久热精品热| 日韩av免费高清视频| 99久国产av精品国产电影| 国产亚洲av片在线观看秒播厂| 日韩,欧美,国产一区二区三区| 日韩av不卡免费在线播放| 啦啦啦在线观看免费高清www| 欧美性猛交╳xxx乱大交人| 国产美女午夜福利| 精品一区二区三卡| 国产欧美亚洲国产| 亚洲精品视频女| 一本色道久久久久久精品综合| 卡戴珊不雅视频在线播放| 如何舔出高潮| 美女被艹到高潮喷水动态| 日本免费在线观看一区| 少妇人妻久久综合中文| 国精品久久久久久国模美| 午夜福利视频1000在线观看| 下体分泌物呈黄色| 亚洲人成网站高清观看| 伊人久久精品亚洲午夜| 欧美日韩精品成人综合77777| 黄片无遮挡物在线观看| 99久久中文字幕三级久久日本| 久久精品国产鲁丝片午夜精品| 五月天丁香电影| 五月天丁香电影| 天堂俺去俺来也www色官网| 男女那种视频在线观看| 天堂网av新在线| 成人亚洲精品一区在线观看 | 在线 av 中文字幕| 性色av一级| 高清毛片免费看| 熟女av电影| 天天一区二区日本电影三级| 亚洲激情五月婷婷啪啪| 26uuu在线亚洲综合色| 国产视频首页在线观看| 六月丁香七月| 久久精品夜色国产| 亚洲欧美一区二区三区国产| 亚洲一级一片aⅴ在线观看| 国内少妇人妻偷人精品xxx网站| 男女边摸边吃奶| 久久99精品国语久久久| 2021天堂中文幕一二区在线观| 亚洲成人精品中文字幕电影| 亚洲精品成人久久久久久| 少妇被粗大猛烈的视频| 亚洲av.av天堂| 国产男人的电影天堂91| 国产黄片视频在线免费观看| 精品少妇久久久久久888优播| 一区二区三区四区激情视频| 国产精品伦人一区二区| 国产伦在线观看视频一区| 大陆偷拍与自拍| 成年女人看的毛片在线观看| 91久久精品电影网| 亚洲熟女精品中文字幕| 99热国产这里只有精品6| 一级毛片 在线播放| 午夜激情久久久久久久| 欧美少妇被猛烈插入视频| 在线观看美女被高潮喷水网站| av国产精品久久久久影院| 王馨瑶露胸无遮挡在线观看| 色婷婷久久久亚洲欧美| 国产成人aa在线观看| 美女高潮的动态| 久久精品国产鲁丝片午夜精品| 成人综合一区亚洲| 如何舔出高潮| 99热全是精品| 免费黄网站久久成人精品| 国产在线男女| 又粗又硬又长又爽又黄的视频| 在线观看三级黄色| 综合色av麻豆| 卡戴珊不雅视频在线播放| 好男人视频免费观看在线| 国产淫片久久久久久久久| a级毛色黄片| 亚洲精品乱码久久久v下载方式| 中文字幕久久专区| 日日摸夜夜添夜夜添av毛片| 久久久久国产网址| 国产午夜福利久久久久久| av在线观看视频网站免费| 26uuu在线亚洲综合色| 99热网站在线观看| xxx大片免费视频| 高清av免费在线| 777米奇影视久久| 91久久精品国产一区二区成人| 插阴视频在线观看视频| 精品人妻熟女av久视频| 麻豆乱淫一区二区| 久久久久久久久久久丰满| 80岁老熟妇乱子伦牲交| 黄色一级大片看看| 我的老师免费观看完整版| 国产真实伦视频高清在线观看| 中国三级夫妇交换| 超碰av人人做人人爽久久| 国模一区二区三区四区视频| 男人和女人高潮做爰伦理| 美女高潮的动态| 在线观看一区二区三区激情| 亚洲无线观看免费| 在线a可以看的网站| 亚洲精品亚洲一区二区| 亚洲伊人久久精品综合| 国产精品女同一区二区软件| 欧美xxxx黑人xx丫x性爽| 亚洲欧美中文字幕日韩二区| 狠狠精品人妻久久久久久综合| 国产亚洲av片在线观看秒播厂| 亚洲性久久影院| 夜夜看夜夜爽夜夜摸| 亚洲熟女精品中文字幕| 亚州av有码| 久久影院123| 偷拍熟女少妇极品色| 成人特级av手机在线观看| 欧美少妇被猛烈插入视频| 久久影院123| 国内精品宾馆在线| 中文字幕亚洲精品专区| 久久久精品免费免费高清| 欧美日韩综合久久久久久| 亚洲av成人精品一二三区| 一区二区三区四区激情视频| 欧美3d第一页| 久久亚洲国产成人精品v| 日韩av不卡免费在线播放| 啦啦啦在线观看免费高清www| 好男人视频免费观看在线| 综合色av麻豆| 国产精品嫩草影院av在线观看| 亚洲国产精品国产精品| 精品酒店卫生间| 精华霜和精华液先用哪个| 少妇裸体淫交视频免费看高清| 日韩一区二区三区影片| 国产成人午夜福利电影在线观看| 久久热精品热| 欧美另类一区| 下体分泌物呈黄色| 成人美女网站在线观看视频| 99视频精品全部免费 在线| 国产伦精品一区二区三区视频9| 91久久精品国产一区二区成人| 18禁动态无遮挡网站| 天天一区二区日本电影三级| 免费观看a级毛片全部| 校园人妻丝袜中文字幕| 尤物成人国产欧美一区二区三区| 亚洲激情五月婷婷啪啪| 国产高清国产精品国产三级 | 国产伦精品一区二区三区视频9| 欧美成人a在线观看| 亚洲精品乱码久久久v下载方式| 波野结衣二区三区在线| 少妇人妻 视频| 亚洲欧美日韩卡通动漫| 国产精品久久久久久久久免| 亚洲性久久影院| 国产精品无大码| 国产av国产精品国产| 欧美高清性xxxxhd video| 最近中文字幕2019免费版| 成人国产av品久久久| 一级毛片我不卡| 国产乱人偷精品视频| 亚洲av二区三区四区| 久久精品久久久久久噜噜老黄| 国产视频首页在线观看| 成年免费大片在线观看| 国产成人一区二区在线| 午夜福利在线在线| 视频中文字幕在线观看| 国产精品久久久久久久久免| 国产欧美亚洲国产| 亚洲欧美成人综合另类久久久| 亚洲高清免费不卡视频| 尤物成人国产欧美一区二区三区| 国产老妇女一区| 在线观看三级黄色| 在线免费十八禁| 亚洲av中文字字幕乱码综合| 免费高清在线观看视频在线观看| 久久久久久久午夜电影| 国产亚洲一区二区精品| 99re6热这里在线精品视频| 26uuu在线亚洲综合色| 亚洲精品影视一区二区三区av| 97在线人人人人妻| 免费观看av网站的网址| av又黄又爽大尺度在线免费看| 毛片女人毛片| 九九爱精品视频在线观看| 亚洲国产高清在线一区二区三| 一级片'在线观看视频| 午夜激情福利司机影院| 欧美+日韩+精品| 免费观看a级毛片全部| 亚洲国产精品成人综合色| 亚洲天堂国产精品一区在线| 日本黄大片高清| 亚洲国产欧美人成| 免费看日本二区| 老司机影院毛片| 亚洲精品乱久久久久久| 熟女人妻精品中文字幕| 精品少妇黑人巨大在线播放| 99久久精品热视频| 精品一区二区三区视频在线| 免费av观看视频| 精品国产乱码久久久久久小说| 国产免费一区二区三区四区乱码| 一级爰片在线观看| 国产黄色免费在线视频| 一区二区三区四区激情视频| videos熟女内射| 国产女主播在线喷水免费视频网站| 综合色av麻豆| 狠狠精品人妻久久久久久综合| 在线天堂最新版资源| 国产亚洲91精品色在线| 韩国高清视频一区二区三区| 精品酒店卫生间| 精品午夜福利在线看| 午夜激情福利司机影院| 免费大片黄手机在线观看| 丰满人妻一区二区三区视频av| 亚洲人与动物交配视频| 久久久久久久久久久免费av| 久久人人爽人人爽人人片va| 又爽又黄无遮挡网站| 国产黄片美女视频| 九色成人免费人妻av| 国产v大片淫在线免费观看| 国产av码专区亚洲av| 国产精品爽爽va在线观看网站| 中文字幕免费在线视频6| 午夜福利在线观看免费完整高清在| a级毛片免费高清观看在线播放| 18禁动态无遮挡网站| 寂寞人妻少妇视频99o| 久久综合国产亚洲精品| 亚洲精品乱码久久久v下载方式| 我的老师免费观看完整版| 欧美日韩视频高清一区二区三区二| 日本爱情动作片www.在线观看| 中文乱码字字幕精品一区二区三区| 高清视频免费观看一区二区| 久久久久久久久大av| 久久久久性生活片| 免费av不卡在线播放| 国产亚洲午夜精品一区二区久久 | 国内少妇人妻偷人精品xxx网站| 亚洲色图综合在线观看| 久久精品熟女亚洲av麻豆精品| 3wmmmm亚洲av在线观看| 五月天丁香电影| 岛国毛片在线播放| 久久精品综合一区二区三区| 别揉我奶头 嗯啊视频| 国产黄色免费在线视频| 性色avwww在线观看| 亚洲无线观看免费| 国产亚洲最大av| 午夜精品一区二区三区免费看| 国产精品偷伦视频观看了| 国产亚洲精品久久久com| 亚洲国产日韩一区二区| 国产黄a三级三级三级人| 亚洲图色成人| 亚洲一区二区三区欧美精品 | 亚洲无线观看免费| 国产亚洲91精品色在线| 免费黄网站久久成人精品| 亚洲av中文av极速乱| 欧美日韩国产mv在线观看视频 | 在线播放无遮挡| 日韩三级伦理在线观看| 午夜精品国产一区二区电影 | 丰满乱子伦码专区| 精品人妻一区二区三区麻豆| 欧美日韩在线观看h| 成年人午夜在线观看视频| h日本视频在线播放| 噜噜噜噜噜久久久久久91| av黄色大香蕉| 3wmmmm亚洲av在线观看| 狂野欧美白嫩少妇大欣赏| 全区人妻精品视频| 女人十人毛片免费观看3o分钟| 美女被艹到高潮喷水动态| 99久久中文字幕三级久久日本| 国产精品久久久久久久久免| 亚洲精品乱码久久久久久按摩| 嫩草影院入口| 十八禁网站网址无遮挡 | 欧美高清成人免费视频www| 国产欧美另类精品又又久久亚洲欧美| 高清毛片免费看| 国产一区二区三区av在线| 亚洲精品成人av观看孕妇| 国产精品一区二区性色av| 午夜老司机福利剧场| 看免费成人av毛片| 激情 狠狠 欧美| 国产淫语在线视频| 免费av毛片视频| 狠狠精品人妻久久久久久综合| 国产黄频视频在线观看| 在线 av 中文字幕| 插逼视频在线观看| 嫩草影院入口| 国产成人精品福利久久| 色视频在线一区二区三区| 国产又色又爽无遮挡免| 九色成人免费人妻av| 亚洲av成人精品一区久久| 亚洲怡红院男人天堂| 91精品国产九色| 亚洲欧美精品专区久久| 久久久久性生活片| 日韩人妻高清精品专区| 男人和女人高潮做爰伦理| 欧美最新免费一区二区三区| 久久久久久久精品精品| 国产伦理片在线播放av一区| 欧美少妇被猛烈插入视频| 亚洲三级黄色毛片| 亚洲自偷自拍三级| 久久久a久久爽久久v久久| 精品一区二区免费观看| 熟妇人妻不卡中文字幕| 美女主播在线视频| 欧美丝袜亚洲另类| 亚洲精品乱码久久久久久按摩| 在现免费观看毛片| 99视频精品全部免费 在线| 大片免费播放器 马上看| 国产精品一区二区三区四区免费观看| 在线观看美女被高潮喷水网站| 国产精品不卡视频一区二区| av一本久久久久| 80岁老熟妇乱子伦牲交| 有码 亚洲区| 精品视频人人做人人爽| 自拍欧美九色日韩亚洲蝌蚪91 | 久久久久久伊人网av| 欧美日韩亚洲高清精品| 欧美日韩视频精品一区| 欧美3d第一页| 欧美日韩在线观看h| 国产69精品久久久久777片| 夜夜看夜夜爽夜夜摸| 美女cb高潮喷水在线观看| 在线天堂最新版资源| 精品久久久精品久久久| 在线天堂最新版资源| 99久久精品国产国产毛片| 色综合色国产| 亚洲aⅴ乱码一区二区在线播放| 国产成人freesex在线| 在线观看美女被高潮喷水网站| 91狼人影院| 啦啦啦中文免费视频观看日本| 国产毛片a区久久久久| 毛片一级片免费看久久久久| 亚洲av二区三区四区| 好男人视频免费观看在线| 成人亚洲欧美一区二区av| 亚洲国产最新在线播放| 全区人妻精品视频| 亚洲最大成人手机在线| 我的老师免费观看完整版| 黄色视频在线播放观看不卡| 日韩人妻高清精品专区| 一级黄片播放器| 亚洲欧美精品专区久久| 欧美 日韩 精品 国产| 黄片wwwwww| 狠狠精品人妻久久久久久综合| 一区二区av电影网| videos熟女内射| 中文精品一卡2卡3卡4更新| a级一级毛片免费在线观看| 国产视频首页在线观看| 国产毛片在线视频| 女人十人毛片免费观看3o分钟| 看十八女毛片水多多多| 美女内射精品一级片tv| 人体艺术视频欧美日本| 亚洲四区av| 精品人妻偷拍中文字幕| 色视频www国产| 99热国产这里只有精品6| 久久久久久久久久久丰满| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 80岁老熟妇乱子伦牲交| 久久影院123| 天天一区二区日本电影三级| 久久久久网色| 网址你懂的国产日韩在线| 亚洲精品国产av成人精品| 两个人的视频大全免费|