• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度學(xué)習(xí)的sEMG與EEG運動意圖識別研究進展

    2025-01-31 00:00:00陳偉聰賴昌生
    科技創(chuàng)新與應(yīng)用 2025年2期
    關(guān)鍵詞:深度學(xué)習(xí)人工智能

    摘" 要:隨著人口老齡化、殘疾人群增加、慢性病患者增多,我國康復(fù)醫(yī)療服務(wù)的需求持續(xù)上升,而康復(fù)意識薄弱,康復(fù)醫(yī)學(xué)教育發(fā)展滯后,康復(fù)專業(yè)人員缺乏、康復(fù)資源緊缺及分配不均等現(xiàn)狀,使得我國康復(fù)治療供需矛盾極其突出。目前由康復(fù)治療師一對一進行訓(xùn)練的傳統(tǒng)康復(fù)訓(xùn)練手段難以滿足現(xiàn)階段的治療需求。近年來,隨著人工智能技術(shù)的發(fā)展,人工智能技術(shù)應(yīng)用于康復(fù)領(lǐng)域愈發(fā)廣泛,尤其是康復(fù)機器人作為主要的工具,有望解決當(dāng)下康復(fù)醫(yī)療供需矛盾,完善我國康復(fù)醫(yī)療體系的發(fā)展。目前,康復(fù)機器人的發(fā)展仍處于起步階段,具有巨大的發(fā)展?jié)摿?,同時也面臨著許多難點和挑戰(zhàn)。人工智能包含機器學(xué)習(xí),其中,深度學(xué)習(xí)是機器學(xué)習(xí)的一個重要分支,廣泛應(yīng)用于表面肌電圖和腦電圖的運動意圖識別分類,可實現(xiàn)康復(fù)機器人輔助患者完成對應(yīng)的運動訓(xùn)練,康復(fù)機器人的應(yīng)用具有良好的發(fā)展前景。該文綜述深度學(xué)習(xí)應(yīng)用于表面肌電圖和腦電圖的運動意圖識別研究進展,以期為相關(guān)領(lǐng)域的專家學(xué)者對康復(fù)機器人的研究提供借鑒和參考。

    關(guān)鍵詞:人工智能;深度學(xué)習(xí);康復(fù)機器人;表面肌電;腦機接口

    中圖分類號:R496" " " 文獻標(biāo)志碼:A" " " " " 文章編號:2095-2945(2025)02-0001-10

    Abstract: With the aging of the population, the increase in the number of disabled people, and the increase in patients with chronic diseases, the demand for rehabilitation medical services in China continues to rise, but the awareness of rehabilitation is weak, the development of rehabilitation medicine education lags behind, the lack of rehabilitation professionals, and there's shortage of rehabilitation resources and uneven distribution, all of which has made the contradiction between supply and demand for rehabilitation treatment extremely prominent. At present, traditional rehabilitation training methods in which rehabilitation therapists conduct one-on-one training cannot meet the treatment needs at this stage. In recent years, with the development of artificial intelligence technology, artificial intelligence technology has become more and more widely used in the field of rehabilitation. In particular, rehabilitation robots, as the main tool, are expected to solve the current contradiction between supply and demand in rehabilitation medical care and improve the development of China's rehabilitation medical system. At present, the development of rehabilitation robots is still in its infancy, with huge development potential, and also faces many difficulties and challenges. Artificial intelligence includes machine learning. Among them, deep learning is an important branch of machine learning. It is widely used in the recognition and classification of motor intentions of surface electromyography and electroencephalography. It can enable rehabilitation robots to assist patients in completing corresponding motor training, with a good prospect for application. This paper reviews the research progress of deep learning applied to motor intention recognition using surface electromyography and electroencephalography, in order to provide reference for experts and scholars in related fields in the research of rehabilitation robots.

    Keywords: artificial intelligence; deep learning; rehabilitation robot; surface EMG; brain-computer interface

    據(jù)《柳葉刀》發(fā)布數(shù)據(jù)稱,全世界約有24.1億人可能需要接受康復(fù)治療,我國是全球康復(fù)需求最大的國家。康復(fù)需求總?cè)藬?shù)超過4.6億人,其中包括超7 000萬殘疾人群體,我國現(xiàn)僅有康復(fù)治療師約5萬人,康復(fù)醫(yī)師占基本人群比例約0.4∶10萬,并且隨著人口老齡化的加劇,遠遠不能滿足現(xiàn)階段的康復(fù)治療需要。傳統(tǒng)的康復(fù)訓(xùn)練方法由康復(fù)治療師一對一進行針對性康復(fù)治療訓(xùn)練,受康復(fù)治療師水平差異及時間資源等限制,康復(fù)治療效果參差不齊。隨著康復(fù)工程(Rehabilitation Engineering,RE)的發(fā)展,康復(fù)機器人已經(jīng)成為一種新的運動神經(jīng)康復(fù)治療手段,可實現(xiàn)個體化、智能化、精確化的康復(fù)訓(xùn)練。2024年,全國政協(xié)十四屆二次會議期間,專家們呼吁社會關(guān)注和支持康復(fù)事業(yè)發(fā)展,加強對康復(fù)醫(yī)學(xué)重視,補齊康復(fù)醫(yī)療短板,并提出運用云計算、大數(shù)據(jù)、互聯(lián)網(wǎng)和人工智能等技術(shù)去實現(xiàn)智能康復(fù)醫(yī)療,是解決當(dāng)下康復(fù)醫(yī)療供需矛盾的關(guān)鍵路徑,建議加大對康復(fù)機器人的支持力度。

    早期傳統(tǒng)的康復(fù)機器人只能提供被動式的訓(xùn)練模式,患者無運動意圖的主動參與,即患者肢體完全被動接收康復(fù)機器人的帶動執(zhí)行軌跡進行運動訓(xùn)練[1],這種單一的機械化訓(xùn)練方法缺乏趣味性,降低患者康復(fù)治療依從性,更重要的是,康復(fù)醫(yī)學(xué)的臨床研究已證實,有患者運動意圖(運動想象)(Motor Imagery,MI)主動參與的康復(fù)訓(xùn)練,大腦對側(cè)初級運動皮層(cM1)的功能磁共振成像(fMRI)激活程度和皮質(zhì)興奮性顯著優(yōu)于被動訓(xùn)練,基于神經(jīng)可塑性的神經(jīng)系統(tǒng)重建和運動功能恢復(fù)效果更好[2]。近年來,以機器學(xué)習(xí)(包含深度學(xué)習(xí))為代表的人工智能技術(shù)在康復(fù)機器人研究中得到廣泛應(yīng)用,智能康復(fù)機器人通?;诹徒嵌葌鞲衅鳎↖MU)采集的數(shù)據(jù)或腦電圖(Electroencephalogram,EEG)、表面肌電圖(Surface electromyography,sEMG)進行特征提取和分類,建立分類模型對患者運動意圖進行識別,智能康復(fù)機器人輔助患者完成對應(yīng)的運動訓(xùn)練[3],具有良好的人機交互性,實現(xiàn)個體化、高效、精確的康復(fù)訓(xùn)練,可激勵患者的主動運動意識,提高康復(fù)治療趣味性及患者康復(fù)治療依從性,因此,實時準(zhǔn)確識別人體運動意圖是實現(xiàn)完美的人機交互和智能康復(fù)機器人穿戴舒適性的關(guān)鍵。在康復(fù)治療中,交互式康復(fù)訓(xùn)練能夠調(diào)動患者的積極性,提高了訓(xùn)練的趣味性并增加患者訓(xùn)練的依從性。有研究表明,有患者運動意圖參與的康復(fù)訓(xùn)練比被動訓(xùn)練促進神經(jīng)系統(tǒng)功能和運動功能的恢復(fù)療效更好[4]。在康復(fù)領(lǐng)域中,深度學(xué)習(xí)分類模型常用于對基于腦電圖或表面肌電圖的運動意圖識別,還用于各類疾病的預(yù)測、診斷、康復(fù)治療的訓(xùn)練評估和預(yù)后評價等,本文主要闡述深度學(xué)習(xí)應(yīng)用于腦電圖或表面肌電圖的運動意圖識別研究進展。為了便于讀者了解本領(lǐng)域的研究現(xiàn)狀,下面分別從“基于運動意圖識別的智能康復(fù)機器人概述”“基于EEG的運動意圖識別深度學(xué)習(xí)模型”“基于sEMG的運動意圖識別深度學(xué)習(xí)模型”3個部分對深度學(xué)習(xí)應(yīng)用于康復(fù)機器人的研究進展進行回顧和討論。

    1" 基于運動意圖識別的智能康復(fù)機器人研究概述

    目前,基于運動意圖識別的智能康復(fù)機器人的發(fā)展仍處于起步階段,具有巨大的發(fā)展?jié)摿Γ瑫r也面臨著許多困難,如何提高識別康復(fù)訓(xùn)練動作運動意圖分類準(zhǔn)確度是首要難題,常用骨骼肌肉模型、傳統(tǒng)機器學(xué)習(xí)模型或深度學(xué)習(xí)模型等方法進行運動意圖識別。骨骼肌肉模型常基于力、慣性和角度傳感器采集人體運動過程中肢體擺動的角度、速度、 加速度和地面反作用力等運動信息,實時性較差,并且生理參數(shù)較多,預(yù)測效果較差,難以實現(xiàn)常規(guī)、自然的人機交互。傳統(tǒng)的機器學(xué)習(xí)分類算法包括支持向量機、人工神經(jīng)網(wǎng)絡(luò)、線性判別分析(LDA)、K近鄰算法(KNN)和隨機森林(RF)等,機器學(xué)習(xí)模型具有計算簡便、運算快、實時性強的特點,然而需要選擇和提取大量特征,選取的特征決定了識別的準(zhǔn)確性。并且,基于傳統(tǒng)機器學(xué)習(xí)的運動意圖識別方法多存在特征提取過程復(fù)雜、魯棒性差、預(yù)測誤差大等問題。與傳統(tǒng)的機器學(xué)習(xí)相比,基于深度學(xué)習(xí)的運動意圖識別具有更高的準(zhǔn)確率和更好的平穩(wěn)性[5]。近年來,深度學(xué)習(xí)研究應(yīng)用于人體運動意圖識別成為熱點,深度學(xué)習(xí)本質(zhì)上指的是采用具有多層特征結(jié)構(gòu)轉(zhuǎn)化的人工神經(jīng)網(wǎng)絡(luò)來解決問題的方法。深度學(xué)習(xí)通過自適應(yīng)特征提取和分類模塊實現(xiàn)端到端學(xué)習(xí),有效改善了模型的非線性、提高了運動意圖識別的準(zhǔn)確率,無需依賴手工特征提取[6]。基于深度學(xué)習(xí)的運動意圖識別可分為2類:離散運動分類和連續(xù)運動回歸,近年來,基于深度學(xué)習(xí)的離散運動分類方法取得了較好的預(yù)測效果。由于離散運動分類的運動描述相對簡單,沒有統(tǒng)一的分類標(biāo)準(zhǔn),無法預(yù)測預(yù)定義之外的動作。因此,離散運動分類不能應(yīng)用于可穿戴機器人的流暢控制??祻?fù)機器人可大致分為上肢機器人、手部機器人和下肢機器人,康復(fù)機器人按照功能特點可以分為輔助型和治療型。

    2" 基于腦電圖的運動意圖識別深度學(xué)習(xí)模型

    腦機接口(Brian Computer Interface, BCI)通過大腦信號將神經(jīng)活動與外部設(shè)備間建立直接連接通路,外部設(shè)備可采集各類大腦信號,如腦電圖、近紅外譜(NIR)等。根據(jù)數(shù)據(jù)信號采集的位置不同分為侵入式腦機接口和非侵入式腦機接口兩大類[7]。侵入式腦機接口具有創(chuàng)傷性、復(fù)雜性等特點很難在康復(fù)領(lǐng)域得到廣泛應(yīng)用,在非侵入性方法中,腦電信號具有較高的時間分辨率、成本效益以及用戶友好型,是最常用的獲取大腦信號的方法。在一側(cè)肢體準(zhǔn)備和執(zhí)行動作的過程中,對側(cè)感覺運動皮層腦電信號的α頻段(812 Hz)和β頻段(1 330 Hz)的幅度降低,稱為事件相關(guān)去同步(ERD),而運動手同側(cè)大腦皮質(zhì)信號的α頻段和β頻段的幅度增加,則稱為事件相關(guān)同步(ERS),運動想象腦電信號的分類是基于ERD/ERS現(xiàn)象實現(xiàn)的[8],在康復(fù)領(lǐng)域,常用非侵入性BCI采集EEG對運動想象進行解碼,即基于運動想象的腦機接口(Motor Imagery-Brain ComputerInterface,MI-BCI)技術(shù),通過將運動想象轉(zhuǎn)換成對外部設(shè)備的控制信號,可實現(xiàn)對外部設(shè)備的直接控制,可應(yīng)用于智能康復(fù)機器人,可以進行直接的人機信息交互,實現(xiàn)主動、被動或輔助運動訓(xùn)練。EEG信號微弱,受偽跡和噪聲影響較大,具有非線性和非平穩(wěn)性的特點。目前,MI-BCI智能康復(fù)機器人的技術(shù)發(fā)展仍在起步發(fā)展階段,僅限于特定環(huán)境或特定個體,還未能廣泛應(yīng)用于臨床康復(fù)治療,而如何準(zhǔn)確識別運動意圖是首要難題。Athanasia等[9]綜述了腦電圖在神經(jīng)康復(fù)的應(yīng)用,腦電圖是腦機接口(BCI)中最重要的輸入,主要針對神經(jīng)運動障礙或神經(jīng)系統(tǒng)創(chuàng)傷的患者,可用于腦卒中、顱腦損傷、脊髓損傷及肌萎縮側(cè)索硬化癥等患者的神經(jīng)康復(fù)。MI-BCI有助于患者控制輪椅、假肢、外部機器人等康復(fù)輔助器具進行訓(xùn)練,針對性地結(jié)合虛擬現(xiàn)實輔助訓(xùn)練和通過誘導(dǎo)神經(jīng)可塑性的行為,可以促進腦卒中或脊髓損傷等患者的神經(jīng)功能和運動功能的恢復(fù)[10],這種訓(xùn)練方法已被證實是更先進、更高效的,未來將廣泛應(yīng)用于腦卒中患者康復(fù)訓(xùn)練[11]。中樞神經(jīng)系統(tǒng)具有高度的可塑性,具有不斷適應(yīng)外部環(huán)境變化而改變神經(jīng)信息傳遞效能從而對自身結(jié)構(gòu)和功能進行重組的能力,這是中樞神經(jīng)損傷后功能恢復(fù)的重要理論依據(jù)。神經(jīng)可塑性與大腦中的樹突和軸突、樹突棘密度、突觸數(shù)目和大小、受體密度有關(guān)[12]。腦卒中、脊髓損傷等中樞神經(jīng)系統(tǒng)損傷或疾病可通過自發(fā)重塑和康復(fù)治療引導(dǎo)的經(jīng)驗依賴性重塑修復(fù)神經(jīng)進行功能代償,促進機體功能的恢復(fù),MI-BCI康復(fù)機器人可以改善腦卒中患者的皮質(zhì)激活與皮質(zhì)重組,從而誘導(dǎo)神經(jīng)可塑性,促進大腦殘余神經(jīng)元連接的逐漸適應(yīng),增加突觸前后的神經(jīng)元連接等改變進行修復(fù)[13]。深度學(xué)習(xí)以其自動特征提取和較高的分類精度成為計算機視覺和自然語言處理領(lǐng)域的研究熱點,非常適合應(yīng)用于MI-BCI。腦機接口一般可分為5個部分:信號采集、預(yù)處理或信號增強、特征提取、分類和控制接口。MI-BCI的深度學(xué)習(xí)模型常用的有卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、生成對抗網(wǎng)絡(luò)(GAN)和深度信念網(wǎng)絡(luò)(DBN)等[14]。

    2.1" 上肢MI-BCI深度學(xué)習(xí)模型

    目前,MI-BCI多采用雙側(cè)上肢運動任務(wù),而對單側(cè)上肢運動想象任務(wù)的研究相對較少。Zhang等[15]對單側(cè)上肢運動想象腦電信號的識別進行了研究,提出了一種多分支融合卷積神經(jīng)網(wǎng)絡(luò)(Multi-branch Fusion Convolutional Neural Network,MF-CNN),包括2個分支,可以同時從原始腦電信號和二維時頻圖中提取特征,研究中使用的數(shù)據(jù)集包含3種類型的運動想象任務(wù):手臂向前伸展、握住杯子、手腕向左旋轉(zhuǎn),無論是在抓取對象和伸臂任務(wù)的二進制分類實驗中或三種任務(wù)都用于分類時, MF-CNN算法的分類性能都優(yōu)于單CNN分支算法。綜上所述,MF-CNN充分利用了腦電的時頻域特性,能夠有效地提高單側(cè)上肢運動圖像腦電信號的分類性能,有助于MI-BCI在中風(fēng)后運動功能康復(fù)訓(xùn)練中的應(yīng)用。

    基于腦電圖的運動想象腦機接口主要用于腦卒中后康復(fù)治療,而實際上考慮到卒中患者試驗安全性,以往所進行的基于運動想象腦機接口(BCI)采集的腦電波多來自健康人,同時這也是腦機接口目前用于腦卒中康復(fù)領(lǐng)域研究進展中面臨的挑戰(zhàn)和難題。Nagarajan等[16]通過收集健康人的數(shù)據(jù),預(yù)先訓(xùn)練MI-BCI模型,研究使用了一種新的遷移學(xué)習(xí)方法Deep ConvNet進行分類,將健康受試者上肢運動的MI-EEG數(shù)據(jù)檢測腦卒中患者的運動想象數(shù)據(jù)。實驗結(jié)果表明,通過使用健康受試者的數(shù)據(jù)對預(yù)先訓(xùn)練的模型進行適應(yīng),71 名中風(fēng)患者的運動想象平均準(zhǔn)確率為71.15%,遷移學(xué)習(xí)后預(yù)訓(xùn)練模型的準(zhǔn)確率提高了18.15%(plt;0.001)。使用遷移學(xué)習(xí)方法在健康人到腦卒中的運動想象腦電信號數(shù)據(jù)與腦卒中患者之間遷移學(xué)習(xí)沒有顯著差異(pgt;0.05),并得出腦卒中患者運動想象的檢測與雙側(cè)運動、額葉和頂葉區(qū)域有關(guān)。因此,通過使用健康人到腦卒中患者的上肢運動想象腦電信號數(shù)據(jù)的遷移學(xué)習(xí)方法,有效解決了腦卒中患者數(shù)據(jù)不足的問題。

    上肢承擔(dān)著復(fù)雜、精細、靈巧的動作,尤其手的精細運動障礙,嚴重影響患者日常生活活動,并且,腦卒中后患者手功能康復(fù)一直是康復(fù)界的難點,也是嚴重影響患者生活質(zhì)量、阻礙患者重返家庭與社會的重要原因。Xu等[17]使用自監(jiān)督學(xué)習(xí)與腦電信號圖像處理相結(jié)合的方法。提出了一種基于改良轉(zhuǎn)換(Modified S-Transform,MST)的對比預(yù)測編碼(Contrast Predictive Coding,CPC)模型,即MST-CPC。MST用于獲取時頻特征,以提高運動想象任務(wù)識別的解碼性能。CPC可用于生成高級特征,實驗中對健康人與腦卒中患者手部的運動想象任務(wù)進行測試,經(jīng)分類性能評估,平均分類準(zhǔn)確率為 89%。該方法可以獲得有效的特征表示并提高MI-BCI系統(tǒng)的性能,該模型具有較高的平均準(zhǔn)確率,有效促進了腦機接口技術(shù)在康復(fù)領(lǐng)域的應(yīng)用。

    目前從大腦皮層來源進行運動學(xué)解碼的研究很少,Jain等[18]探索利用腦電皮質(zhì)源信號解碼手部運動,提出了一種基于殘差卷積神經(jīng)網(wǎng)絡(luò)(CNN)-長短期記憶(LSTM)的運動學(xué)解碼模型,該模型利用運動前大腦活動中存在的運動神經(jīng)元信息,利用實際手部運動學(xué)和預(yù)測手部運動學(xué)之間的相關(guān)值(CV)作為源和傳感器域的性能度量來衡量所提出的解碼模型的效率,對提出的深度學(xué)習(xí)模型在傳感器域和源域的性能進行了比較。實驗結(jié)果表明,利用運動前腦電皮質(zhì)源數(shù)據(jù)進行手部運動學(xué)解碼是可行的。

    Cho等[19]為提高MI-BCI的解碼性能和實用性,提出了一種稱為NeuroGrasp的基于CNN-BLSTM結(jié)構(gòu)和卷積SiamNet的兩階段深度學(xué)習(xí)框架,該方法有效地利用了基于EEG和sEMG的學(xué)習(xí),模型訓(xùn)練過程中的肌電引導(dǎo)使腦-機接口系統(tǒng)能夠準(zhǔn)確地從腦電信號中預(yù)測手的抓握類型,實驗結(jié)果得出,NeuroGrasp在進行在線或離線評估時表現(xiàn)出了穩(wěn)定的分類性能,未來有望應(yīng)用此方法準(zhǔn)確地控制假肢或機械手。

    Cao等[20]提出了一種基于重疊時間窗的腦機接口康復(fù)模型訓(xùn)練方法,該模型使用卷積神經(jīng)網(wǎng)絡(luò)、圖同構(gòu)網(wǎng)絡(luò)(GIN)和長短期記憶3種不同的模型對腦卒中患者手腕伸展運動嘗試(Motor Attempt,MA)進行分類,在不同時間窗長度下進行了多次實驗,結(jié)果表明,基于重疊時間窗的深度學(xué)習(xí)方法在分類精度上取得了提高,其中LSTM結(jié)合計票策略(Vote-counting Strategy,VS)在窗口大小為70時達到了最高的平均分類準(zhǔn)確率90.3%。結(jié)果驗證了重疊時間窗策略對于提高腦機接口康復(fù)模型訓(xùn)練的效率是有效的,同時,分類結(jié)果在不同受試者的時間窗口中的分布是不同的,因此,通過為不同的受試者選擇不同的分類窗口來提高分類性能是可行的,未來該模型的研究可以在時間窗口的選擇上展開。

    Sergio等[21]為了克服MI-BCI受試者間的差異和分類性能,提出了一種新的深度學(xué)習(xí)框架,稱為EEGSym,該CNN包括使用初始模塊、殘差連接和大腦沿中矢狀面對稱性的連體網(wǎng)絡(luò)方法引入網(wǎng)絡(luò)架構(gòu)的設(shè)計,實驗在5個包含280名受試者(目前在類似研究中評估的最大人群)的左手或右手運動想象公開的數(shù)據(jù)集上,比較EEGSym 在受試者間MI分類與 ShallowConvNet、DeepConvNet、EEGNet和EEG-Inception 等模型的性能,實驗結(jié)果得出,EEGSym在主體間MI分類上優(yōu)于先前的最先進的方法。

    腦機接口提供的傳統(tǒng)、有限的類別(通常只有2個或4個)無法實現(xiàn)廣泛的控制模式,為解決這一問題,Bi等[22]提出了一種用于識別6種不同類別的上肢運動想象(包括屈肘、伸肘、前臂旋后、前臂旋前、手張開和手合攏)的時空并行網(wǎng)絡(luò)(Time-Spatial Parallel Network,TSPNet),TSPNet包含3個組件:時間維度特征提取器(TDFE)、空間維度特征提取器(SDFE)和時間空間并行特征提取器(TSPFE)。在實驗收集數(shù)據(jù)集上的準(zhǔn)確率為49.1%±0.043%,在公共數(shù)據(jù)集上的準(zhǔn)確率為49.7%±0.029%,優(yōu)于其他深度學(xué)習(xí)方法,并且TSPNet能夠為不同頻段的腦電信號中的各種上肢運動圖像類別生成不同的分類器模式。TSPNet為康復(fù)機器人、康復(fù)外骨骼機械手等腦-機接口控制設(shè)備增加自由度提供了可能。

    2.2" 下肢MI-BCI深度學(xué)習(xí)模型

    Jeong等[23]提出了混合零訓(xùn)練BCI的模型,收集下肢運動(步態(tài)、坐下、休息)相關(guān)的3類MI腦電數(shù)據(jù),將多域CNN與時域、頻域和空間域結(jié)合進行分類任務(wù)進行識別,表現(xiàn)出了較高的分類準(zhǔn)確度。

    Zhang等[24]提出了一種用于下肢運動想象分類的集成方法,該模型結(jié)合了淺層和深層神經(jīng)網(wǎng)絡(luò)的集成方法。淺層為傳統(tǒng)的小波變換和濾波器組共空間模式(Common Spatial Patterns,CSP),深層神經(jīng)網(wǎng)絡(luò)包括常規(guī)神經(jīng)網(wǎng)絡(luò)、多頭自注意力和時間卷積網(wǎng)絡(luò)。利用左腿和右腿的運動想象以自然的方式驅(qū)動下肢外骨骼進行試驗,結(jié)果得出,該分類方法對左腿運動想象、右腿運動想象和休息時3個類別達到了60.27%的準(zhǔn)確率,下肢運動想象和休息時達到了64.20%的準(zhǔn)確率,為步態(tài)訓(xùn)練和下肢外骨骼的發(fā)展建立了基礎(chǔ)。

    Ortega等[25]開發(fā)了一種帶有注意力和殘留層的深度學(xué)習(xí)架構(gòu)(a deep-learning architecture with attention and residual layers ,cnnatt) 改進EEG和功能性近紅外光譜(Functional Near-infrared Spectroscopy,fNIRS)的融合。實驗結(jié)果得出,EEG和fNIRS的使用改善了雙手力的解碼,為運動康復(fù)評估提供了便利。cnnatt的研究還得出來自每只手的力量在大腦皮層水平上的編碼方式不同及大腦皮質(zhì)活動受到力的水平影響的痕跡,因此,我們可以通過避免手力解碼過程中的手串?dāng)_,從而提高BMI機器人設(shè)備的魯棒性。

    王維振等[26]綜述了下肢運動想象腦機接口的研究進展,其認為目前下肢 BCI-MI任務(wù)分類技術(shù)仍以傳統(tǒng)的機器學(xué)習(xí)為主,深度學(xué)習(xí)模型需要以海量的數(shù)據(jù)為基礎(chǔ)進行訓(xùn)練、模型較為復(fù)雜及可解釋性差的特點限制了其在下肢BCI-MI的應(yīng)用。另外,基于多感官誘導(dǎo)、FES和VR技術(shù)結(jié)合或磁共振功能成像(FMRI)等的下肢MI-BCI范式有利于增強下肢運動想象能力并展現(xiàn)了較好的分類性能,CSP相關(guān)的算法及基于腦網(wǎng)絡(luò)的算法都具有較高的特征提取性能。

    Ferrero[27]為了解決數(shù)據(jù)可獲得性有限的問題,采集5個受試者佩戴下肢外骨骼行走時的運動想象腦電信號數(shù)據(jù),得到小量的數(shù)據(jù)集,使用遷移學(xué)習(xí)的方法對來自其他受試者的腦電信號進行訓(xùn)練模型,然后根據(jù)特定用戶對其進行微調(diào),使用2種CNN:EEGNet和DeepConvNet,均利用一維卷積濾波來提取空間和時間域的特征,在使用池化層采集腦電信號數(shù)據(jù),實驗結(jié)果得出,EEGNet和DeepConvNet框架在使用來自個別受試者的數(shù)據(jù)重新訓(xùn)練時都顯示出更高的準(zhǔn)確率,與獨立于受試者的訓(xùn)練相比,準(zhǔn)確率提高了9%至12%。

    Asanza等[28]通過測試60個受試者,提供了7 440個與運動和運動想象任務(wù)的上肢和下肢執(zhí)行有關(guān)的腦電信號的文件數(shù)據(jù)集,該數(shù)據(jù)集稱為MILimbEEG,包含左手合攏、右手合攏、左足背屈(DLF)、左足屈曲(PLF)、右足背屈(DRF)、右足屈曲(PRF)和任務(wù)間歇休息(REST)等運動想象數(shù)據(jù),有助于評估專用于任務(wù)識別的EEG信號檢測和分類模型。并且還得出右肢運動活動的檢測在結(jié)果中呈現(xiàn)出更高的準(zhǔn)確性,原因是只有5%的受試者是左撇子。

    3" 基于sEMG的運動意圖識別深度學(xué)習(xí)模型

    sEMG是一種實時記錄神經(jīng)-肌肉系統(tǒng)活動時的生物電信號,可以通過電極從淺表肌肉收集,通常在肢體運動前30~150 ms產(chǎn)生,包含豐富的特征信息和成熟的采集技術(shù),具有分辨率高、操作簡便、無創(chuàng)性等優(yōu)點。在臨床上廣泛應(yīng)用于神經(jīng)-肌肉系統(tǒng)疾病的診治以及康復(fù)治療,并且在康復(fù)醫(yī)學(xué)中具有重要的應(yīng)用前景。使用表面肌電信號對動作進行識別,可以實現(xiàn)康復(fù)機器人輔助康復(fù)運動模式?;趕EMG 的人體運動意圖識別可能成為主流[6]?;趥鹘y(tǒng)機器學(xué)習(xí)方法的運動意圖識別需要選擇和提取大量特征,常見的 sEMG 信號特征提取方法有時域法、頻域法、時頻域法。深度學(xué)習(xí)方法一般無需對sEMG 信號特征進行手工選取。到目前為止,基于表面肌電與基于腦機接口深度學(xué)習(xí)相關(guān)的運動意圖識別研究類似,其研究主要集中在上肢,下肢較少。最根本的原因是下肢承載著人體大部分的重量,這對實時性和準(zhǔn)確性要求很高?;趕EMG的運動意圖識別的深度學(xué)習(xí)模型常用的方法為卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)(RNN),常用的RNN 為長短期記憶網(wǎng)絡(luò)和時間卷積網(wǎng)絡(luò)(TCN)[6]。

    3.1" 基于sEMG上肢運動意圖識別深度學(xué)習(xí)模型

    由于個體的皮膚厚度、體脂率、毛發(fā)量、肌肉募集程度和電極放置等差各種因素差異,表面肌電信號在不同的受試者之間表現(xiàn)出很大的差異(即使在精確放置電極的情況下),但經(jīng)過訓(xùn)練的CNN分類器對這些差異表現(xiàn)出很高的魯棒性[29]。Elbeshbeshy等[30]以受試者前臂內(nèi)側(cè)屈肌群為研究對象,采集前臂屈曲和伸展時的單通道表面肌電信號,用不同的時頻EMG表示來構(gòu)建用于EMG分類的常規(guī)和深度學(xué)習(xí)模型,使用GoogLeNet、SqueezeNet和AlexNet CNN預(yù)訓(xùn)練模型,實驗結(jié)果顯示,3種CNN模型的準(zhǔn)確率分別為92.71%、90.63%和87.5%,并且在一個具有10類手指運動數(shù)據(jù)集上進行了驗證,提高了基于GoogLeNet的模型分類精度。將上述3種深度學(xué)習(xí)模型與基于手工特征的傳統(tǒng)分類器進行了比較。使用高斯支持向量機獲得了傳統(tǒng)分類器的最佳分類結(jié)果,準(zhǔn)確率為89.60%,具有良好的動作識別效果。

    在對表面肌電信號進行特征提取的過程中,容易丟失重要信息,并且目前技術(shù)水平區(qū)分康復(fù)動作較少且分類精度有待提高。Zhong等[31]為了解決這些難題,提出了一種多尺度時頻信息融合表示法(multiscale time-frequency information fusion representation method,MTFIFR)來獲取多通道表面肌電信號的時頻特征。研究利用4個表面肌電信號傳感器識別12種上肢康復(fù)動作,使用多特征融合網(wǎng)絡(luò)(Multiple Feature Fusion Network,MFFN)增強特征提取能力,減少了網(wǎng)絡(luò)各部分的特征損失和參數(shù)個數(shù),并使用深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)作為MFFN的分類模型捕捉表面肌電信號的內(nèi)在特征,以提高對多種類型上肢運動的泛化能力,實驗結(jié)果得出,最高識別正確率為86.10%,平均分類正確率為73.49%,表明該時頻表示方法優(yōu)于傳統(tǒng)的機器學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò),證明多特征融合網(wǎng)絡(luò)結(jié)構(gòu)對于表面肌電信號是有意義的。然而在該網(wǎng)絡(luò)體系結(jié)構(gòu)中,表面肌電信號的時頻特征提取過程中可能存在冗余特征,未來需要不斷提升特征融合網(wǎng)絡(luò)框架的性能,才能將其應(yīng)用于康復(fù)醫(yī)學(xué)領(lǐng)域。

    腦卒中的高致殘率導(dǎo)致許多患者不同程度的手部功能障礙,基于手勢識別的手部虛擬康復(fù)系統(tǒng)可達到良好的人機交互和康復(fù)效果,而手勢分析和識別是技術(shù)的關(guān)鍵[32]。Amor等[33]綜述了近年來基于表面肌電信號的手勢識別系統(tǒng)的研究進展和面臨的挑戰(zhàn)?;诒砻婕‰娦盘柕氖謩葑R別中常用的分類器包括神經(jīng)網(wǎng)絡(luò)、支持向量機、KNN、CNN、LSTM和HMM。LSTM在處理EMG信號中的順序依賴關(guān)系方面受到高度重視,使其成為手語識別系統(tǒng)的關(guān)鍵組成部分。作者認為,在基于表面肌電的手語識別系統(tǒng)中,LSTM是最適合捕獲序列依賴關(guān)系和提高手勢識別性能的算法。Liu等[34]提出了一種新的多通道融合方案,對深度學(xué)習(xí)中的時間卷積網(wǎng)絡(luò)(TCN)進行了改進,并與MSFS方法相結(jié)合,測試數(shù)據(jù)表明,將MSFS與改進的TCN相結(jié)合,可以顯著提高實時手勢識別的準(zhǔn)確率,準(zhǔn)確率為93.69%。

    每年因嚴重外傷、嚴重感染、惡性腫瘤等各種原因進行截肢手術(shù)的患者不斷增多,截肢者存在較低水平的日常生活能力,實現(xiàn)假手的自由控制可有效提高截肢者生活質(zhì)量,Li等[35]也綜述了近年來基于深度學(xué)習(xí)的表面肌電信號的假手運動意圖識別技術(shù)的研究進展,并表示基于深度學(xué)習(xí)技術(shù)在利用表面肌電信號準(zhǔn)確解釋截肢者的運動意圖方面具有很大的潛力,這對智能假手的發(fā)展具有重要意義。然而,個體差異、實時可用性、長期穩(wěn)定性和sEMG的高變異性、數(shù)據(jù)的缺乏、硬件設(shè)備的缺少等原因仍然是技術(shù)發(fā)展的關(guān)鍵問題。目前的技術(shù)只能使用有限數(shù)量的模式進行離散分類,并不能解決上肢獨立的、連續(xù)的自然運動,未來的研究需重點解決此類問題。并且未來的研究,可嘗試納入智能假手的反饋信息,不斷完善智能假手系統(tǒng)。

    Wei等[36]提出一種分層視圖池網(wǎng)絡(luò)(Hierarchical View Pooling Network,HVPN)框架,通過從分層匯集的多視點特征空間中學(xué)習(xí)特定視點的深層特征和視點共享的深層特征,改進了基于表面肌電信號的多通道手勢識別。Wei等[37]還發(fā)現(xiàn)了一種漸進融合網(wǎng)絡(luò)(Progressive Fusion Network,PFNet)框架,通過融合領(lǐng)域知識引導(dǎo)的特征工程和深度特征學(xué)習(xí)來改進基于表面肌電信號的手部運動識別,采用三階段漸進融合策略將2個網(wǎng)絡(luò)逐步融合在一起。測試結(jié)果得出,這2種方法均具有較高的準(zhǔn)確度。

    Li等[38]提出了一種(Inception-Max Pooling-Squeeze-Excitation,IMSE)模型來拓寬特征圖像的通道信息。實驗提取表面肌電信號的4個代表性特征:2個時域特征IEMG和RMS以及2個頻域特征MDF和MNF得到多視圖融合的表面肌電信號圖,由改良的IMSE模塊、簡單卷積殘差塊、簡單卷積層組成的特征編碼器作為多視點學(xué)習(xí)的預(yù)處理網(wǎng)絡(luò),并以SWT(Swin Transformer)作為分類骨干網(wǎng)絡(luò),從而構(gòu)成了多視圖學(xué)習(xí)網(wǎng)絡(luò),實驗結(jié)果得出該網(wǎng)絡(luò)對手勢動作分類的平均正確率達到93.96%,顯著提高了分類精度。

    Guo等[39]提出了一種靈活便攜的、舒適安全的基于表面肌電信號的可穿戴康復(fù)手套,利用由表面肌電信號控制的先進的線性集成執(zhí)行器產(chǎn)生的輔助力,可提供輔助力量訓(xùn)練手指,并且可基于鏡面療法和任務(wù)導(dǎo)向療法的理論進行康復(fù)練習(xí)。該手套集成4個表面肌電信號傳感器和深度學(xué)習(xí)算法(1D-CNN算法和InceptionTime算法)。可穿戴手康復(fù)系統(tǒng)具有顯著影響腦卒中癱瘓患者的運動恢復(fù)的潛力,意味著深度學(xué)習(xí)技術(shù)應(yīng)用于康復(fù)領(lǐng)域進展更進一步。

    Lehmler等[40]采集手部運動的數(shù)據(jù),從精度、數(shù)據(jù)需求和訓(xùn)練時間3個方面,深入分析和比較深度學(xué)習(xí)基于sEMG解碼特定主題建模和遷移學(xué)習(xí)等2種常用的方法在解決應(yīng)用有限數(shù)量的訓(xùn)練數(shù)據(jù)校準(zhǔn)深度學(xué)習(xí)模型的差異,實驗結(jié)果得出,與特定主題建模相比,基于微調(diào)的遷移學(xué)習(xí)在較少的訓(xùn)練周期和較少的重復(fù)次數(shù)后就達到了較高的精度,該技術(shù)的創(chuàng)新發(fā)現(xiàn)具有廣泛應(yīng)用的潛力。

    Zhang等[41]開發(fā)了一種基于表面肌電的長短期變壓器特征融合網(wǎng)絡(luò)(A Long Shortterm Transformer Feature Fusion Network),簡稱LST-EMG-Net。該方法主要由長時短時編碼和特征交叉注意兩部分組成,在稀疏肌電數(shù)據(jù)集和高密度表面肌電信號數(shù)據(jù)集上都保持了對所有類型手勢識別的高精度。與其他網(wǎng)絡(luò)結(jié)構(gòu)相比,它提高了手勢識別的穩(wěn)定性。未來,需要不斷改進LST-EMG-Net框架,實現(xiàn)跨主體手勢識別,從而實現(xiàn)深度學(xué)習(xí)技術(shù)快速高效應(yīng)用于康復(fù)領(lǐng)域。

    3.2" 基于sEMG下肢運動意圖識別深度學(xué)習(xí)模型

    譚智峰等[42]以股直肌、股外側(cè)肌、股內(nèi)側(cè)肌、半腱、股二頭肌、腓骨長肌、內(nèi)側(cè)腓腸肌和外側(cè)腓腸肌等8塊肌肉為研究對象,通過采集受試者進行站立動作、站立單抬腿動作、坐立動作、坐立單抬腿動作和邁步動作等5種康復(fù)訓(xùn)練動作時相應(yīng)的表面肌電信號,選用截止點為20 Hz(低)和450 Hz(高)的有限脈沖響應(yīng)帶通濾波器對sEMG信號進行處理,然后進行特征提取,使用密集連接卷積神經(jīng)網(wǎng)絡(luò)(DenseNet)對sEMG信號進行識別。結(jié)果顯示,本研究基于DenseNet 網(wǎng)絡(luò)模型識別下肢康復(fù)動作的方法準(zhǔn)確率、精確率、召回率、F1值分別為83.73%、82.56%、86.94%、84.69%,與傳統(tǒng)的機器學(xué)習(xí)方法相比,具有更好的識別效果。

    Yang等[43]提出了一種融合卷積神經(jīng)網(wǎng)絡(luò)和手工特征的人-外骨骼接口,構(gòu)建了偏癱患者下肢運動預(yù)測框架(HCSNet)。通過采集下肢表面肌電信號進行實驗,將HCSNet與3種最新的基于深度學(xué)習(xí)的運動預(yù)測模型(MCSNet、GoogLeNet和ResNet)進行比較。結(jié)果表明,在組內(nèi)設(shè)計或者組間設(shè)計情況下,HCSNet都具有較好的運動預(yù)測性能。

    Yu等[44]開發(fā)了一種便攜式sEMG信號采集設(shè)備,還開發(fā)了一款對表面肌電信號進行實時監(jiān)測和分析的移動應(yīng)用程序,解決sEMG信號采集設(shè)備長時間佩戴引起不便的缺點,具有繪圖、過濾、存儲以及動作捕捉和識別等功能,該實驗收集了6種下肢康復(fù)訓(xùn)練動作(踢腿、腳尖離地、腳跟離地、腳尖離地和腳跟離地、后退和踢腿,以及完整的步行運動)的表面肌電信號,這6種動作從簡單的單肌肉運動過渡到復(fù)雜的多個肌群的協(xié)調(diào)運動,由站立訓(xùn)練到步行訓(xùn)練、由易到難漸進性運動,有助于患者逐漸恢復(fù)下肢肌肉功能和步態(tài)協(xié)調(diào)性,從而實現(xiàn)更全面和更有效的康復(fù)訓(xùn)練。通過采集上述動作相應(yīng)的表面肌電信號訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(CNN),實驗結(jié)果表明,所有動作的識別準(zhǔn)確率均超過97%,最高準(zhǔn)確率為97.96%,實現(xiàn)了對人體下肢動作的高精度識別性能,還為下肢運動功能康復(fù)的評定提供可靠的信息。未來基于智能手機的生理電信號連續(xù)監(jiān)測系統(tǒng)將成為運動意圖識別研究的一個重要發(fā)展趨勢。

    Liang等[5]提出了一種基于緊耦合卷積轉(zhuǎn)換器(Tightly Coupled Convolutional Transformer,TCCT)的端對端的模型表面肌電信號方法來預(yù)測人體膝關(guān)節(jié)角度,TCCT模型結(jié)合了Informer和CNN的優(yōu)點,能夠?qū)W習(xí)信號的更深層次的特性。研究采集了5名健康受試者的表面肌電信號,經(jīng)過去噪后提取作為模型的輸入,使用TCCT模型來預(yù)測100 ms后的膝關(guān)節(jié)角度。對預(yù)測性能進行分析,模型的均方根誤差、調(diào)整R2和皮爾遜相關(guān)系數(shù)的平均值分別為3.79°、0.96和0.98,預(yù)測時間為11.67±0.67 ms,優(yōu)于傳統(tǒng)的深度學(xué)習(xí)模型。結(jié)果表明,該模型能夠快速、準(zhǔn)確地預(yù)測人體膝關(guān)節(jié)角度,在改善康復(fù)機器人的人機交互方面具有很大的潛力。

    Rezaie等[45]提出了一種集成了雙向長短期記憶(Bidirectional Long Short-term Memory,BiLSTM)網(wǎng)絡(luò)和注意機制(Attention Mechanism,AM)的基于深度學(xué)習(xí)的關(guān)節(jié)運動學(xué)穩(wěn)健估計模型(AM-BiLSTM),通過采集14名受試者跑步時的表面肌電信號和膝關(guān)節(jié)角度,對該模型進行評估,將AM-BiLSTM模型在內(nèi)場景和不同場景中測試與標(biāo)準(zhǔn)的長短期記憶網(wǎng)絡(luò)和多層感知器網(wǎng)絡(luò)(Multi-Layer Perceptron,MLP)網(wǎng)絡(luò)進行比較,結(jié)果都顯著優(yōu)于LSTM和MLP方法(plt;0.05),并且達到了較高的性能。該模型為改善康復(fù)機器人的人機交互方面提供了一種新方法,未來不斷改進技術(shù)可應(yīng)用于運動功能障礙患者在康復(fù)訓(xùn)練中直觀地控制外骨骼機器人,促進了基于深度學(xué)習(xí)sEMG的康復(fù)機器人實現(xiàn)更優(yōu)的人機交互。

    Li等[46]提出了一種基于粒子群優(yōu)化(particle swarm Optimization,PSO)和深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)融合的具有參數(shù)自更新機制的膝關(guān)節(jié)連續(xù)運動估計模型。該方法可自適應(yīng)地優(yōu)化DBN模型的參數(shù),在高維空間完成信號特征結(jié)構(gòu)的最優(yōu)重構(gòu)。實驗結(jié)果得出,該模型優(yōu)于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)的預(yù)測結(jié)果。未來將測試復(fù)雜的運動模式實現(xiàn)關(guān)節(jié)肌肉活動的連續(xù)性的運動估計,不斷完善模型。

    4" 結(jié)束語

    本文綜述了深度學(xué)習(xí)在基于sEMG和EEG運動意圖識別的進展,重點介紹了其中的一些創(chuàng)新技術(shù),在康復(fù)機器人領(lǐng)域取得了很大的進步,并提出了康復(fù)機器人未來發(fā)展的趨勢,但都仍面臨著許多困難和挑戰(zhàn),目前的發(fā)展現(xiàn)狀仍處于探索階段。

    第一,盡管近年來提出了不少對運動意圖識別的創(chuàng)新性方法,分類準(zhǔn)確率整體提高,而實際上,很難找到一種分類模型方法能夠完全識別所有人體運動意圖,并且很難對不同的方法進行有效地比較,即使是對同一動作的運動意圖識別,由于不同的環(huán)境、受試者差異、實驗設(shè)備等各種原因,即使使用同一種模型分類方法進行測試,分類準(zhǔn)確度也可能相差甚遠。并且,未來還需要開發(fā)更多運動訓(xùn)練動作種類的運動意圖識別,實現(xiàn)在三維空間內(nèi)患肢各個關(guān)節(jié)訓(xùn)練的運動意圖高精度的分類識別。還有,目前基于運動意圖識別的康復(fù)機器人的研究缺乏統(tǒng)一的行業(yè)標(biāo)準(zhǔn),包括環(huán)境要求、數(shù)據(jù)的采集,受試者的選擇,實驗室設(shè)備的參數(shù)或條件及評價手段等,這既是康復(fù)機器人行業(yè)技術(shù)能力的體現(xiàn),也是康復(fù)機器人行業(yè)高質(zhì)量發(fā)展的需要。

    第二,目前還缺乏高質(zhì)量、標(biāo)準(zhǔn)化的公開數(shù)據(jù)集,大多數(shù)研究使用的數(shù)據(jù)集是自己收集的,實驗樣本量也普遍較少,導(dǎo)致試驗證據(jù)質(zhì)量較低,因此,很難對不同的深度學(xué)習(xí)分類模型進行有效地比較,未來需要設(shè)計完善多中心、大樣本和多學(xué)科交叉的研究試驗。在未來的工作中還應(yīng)注重建立標(biāo)準(zhǔn)化的數(shù)據(jù)采集方案以及開發(fā)新的校準(zhǔn)數(shù)據(jù)庫,進一步降低自主實驗的難度,并且便于不同方法之間的比較更加具體。

    第三,深度學(xué)習(xí)算法需要大量的數(shù)據(jù)進行訓(xùn)練,醫(yī)療數(shù)據(jù)存在安全隱私問題、醫(yī)療資源及硬件資源匱乏、訓(xùn)練時間冗長等原因,也使得目前極其缺乏數(shù)據(jù)集。基于sEMG或EEG信號的運動意圖識別方法仍處于實驗室階段,真正實現(xiàn)市場化的還很少,而且由于硬件設(shè)備結(jié)構(gòu)和材料等限制,大多康復(fù)機器人重量過重導(dǎo)致訓(xùn)練缺乏流暢性,不利于康復(fù)訓(xùn)練,未來發(fā)展需通過新材料、優(yōu)化機械結(jié)構(gòu)和驅(qū)動技術(shù)研發(fā)輕量化的康復(fù)機器人提高其舒適性和運動準(zhǔn)確性。

    最后,目前絕大多數(shù)實驗研究識別的是健康人的運動意圖,僅適用于特定用戶訓(xùn)練完成的,不同受試者之間數(shù)據(jù)變異性大,樣本遷移學(xué)習(xí)技術(shù)有望解決這一難題。除了需要提高模型的實時性和準(zhǔn)確性,還需要提高模型的自適應(yīng)式和魯棒性。機器人輔助康復(fù)治療的安全性、有效性需要大規(guī)模臨床試驗驗證,訓(xùn)練的安全性是首要,只有分類準(zhǔn)確度和人機交互性達到較高的水平,才能避免康復(fù)機器人輔助訓(xùn)練出現(xiàn)意外故障,才能真正應(yīng)用于臨床康復(fù)治療?;谶\動意圖識別的康復(fù)機器人的研究和推廣應(yīng)用有望解決目前緊缺的醫(yī)療康復(fù)資源矛盾,但目前發(fā)展還處于起步階段,真正實現(xiàn)利用其全面代替臨床醫(yī)生為患者進行康復(fù)訓(xùn)練還有很長的路要走。

    參考文獻:

    [1] 侯增廣,趙新剛,程龍,等.康復(fù)機器人與智能輔助系統(tǒng)的研究進展[J].自動化學(xué)報,2016,42(12):1765-1779.

    [2] LOTZE M. Motor learning elicited by voluntary drive[J]. Brain, 2003,126(4): 866-872.

    [3] 張偉,孟青云,李敏吉.機器學(xué)習(xí)在康復(fù)機器人研究中的應(yīng)用[J].軟件,2022,43(9):87-90.

    [4] LOTZE M. Motor learning elicited by voluntary drive[J]. Brain, 2003,126(4): 866-872.

    [5] LIANG T, SUN N, WANG Q, et al. sEMG-Based End-to-End Continues Prediction of Human Knee Joint Angles Using the Tightly Coupled Convolutional Transformer Model[J]. IEEE Journal of Biomedical and Health Informatics, 2023,27(11): 5272-5280.

    [6] 曹夢琳,陳宇豪,王玨,等.基于表面肌電圖的人體運動意圖識別研究進展[J].中國康復(fù)理論與實踐,2021,27(5):595-603.

    [7] 楊烈.基于深度學(xué)習(xí)的MI-EEG解碼方法及其在腦-機接口系統(tǒng)中的應(yīng)用研究[D].廣州:華南理工大學(xué),2021.

    [8] MA W, WANG C, SUN X, et al. MBGA-Net: A multi-branch graph adaptive network for individualized motor imagery EEG classification[J]. Computer Methods and Programs in Biomedicine, 2023,240: 107641.

    [9] ATHANASIA T ,EFTHIMIOS D, KONSTANTINOS P, et al.EEG in Neurorehabilitation: A Bibliometric Analysis and Content Review[J].Neurology International,2022,14(4):1046-1061.

    [10] NICOLAS-ALONSO L F, GOMEZ-GIL J. Brain Computer Interfaces, a Review[J]. Sensors, 2012,12(2): 1211-1279.

    [11] 楊幫華,馬駿,邱文政.面向腦卒中疾病的運動想象腦機接口技術(shù)[J].人工智能,2021(6):70-78.

    [12] 郭娑,張艷明,申鈺涵.卒中后運動功能康復(fù)的腦可塑性理論的研究進展[J].中國老年保健醫(yī)學(xué),2018,16(3):57-61.

    [13] 李翔,陳健爾,張輝煌,等.腦機接口康復(fù)訓(xùn)練機器人在腦卒中患者上肢功能康復(fù)中的研究進展[J].中國康復(fù)醫(yī)學(xué)雜志,2023,38(2):263-268.

    [14] 謝朋洋,郭亮?xí)?,李?基于深度學(xué)習(xí)的EEG信號處理技術(shù)與前沿應(yīng)用[J].中國體視學(xué)與圖像分析,2021,26(1):1-12.

    [15] ZHANG R, CHEN Y, XU Z, et al. Recognition of single upper limb motor imagery tasks from EEG using multi-branch" fusion convolutional neural network[J]. Front Neurosci,2023,17:1129049.

    [16] NAGARAJAN A, ROBINSON N, ANG K K, et al. Transferring a deep learning model from healthy subjects to stroke patients in a motor imagery brain-computer interface[J].Journal of Neural Engineering, 2024,21(1): 16007.

    [17] XU F, YAN Y, ZHU J, et al. Self-Supervised EEG Representation Learning with Contrastive Predictive Coding" for Post-Stroke Patients[J]. Int J Neural Syst,2023,33(12):2350066.

    [18] JAIN A, KUMAR L. EEG Cortical Source Feature based Hand Kinematics Decoding using Residual" CNN-LSTM Neural Network[J]. Annu Int Conf IEEE Eng Med Biol Soc,2023:1-4.

    [19] CHO J, JEONG J, LEE S. NeuroGrasp: Real-Time EEG Classification of High-Level Motor Imagery Tasks Using a Dual-Stage Deep Learning Framework[J]. IEEE Transactions on Cybernetics,2022,52(12):13279-13292.

    [20] CAO L, WU H, CHEN S, et al. A Novel Deep Learning Method Based on an Overlapping Time Window Strategy for" Brain-Computer Interface-Based Stroke Rehabilitation[J].Brain Sci,2022,12(11).

    [21] SERGIO P, EDUARDO S, VICTOR M, et al. EEGSym: Overcoming Inter-Subject Variability in Motor Imagery Based BCIs With Deep Learning[J]. IEEE Transactions on Neural Systems and Rehabilitation Engineering,2022,30:1766-1775.

    [22] BI J, CHU M, WANG G, et al. TSPNet: a time-spatial parallel network for classification of EEG-based" multiclass upper limb motor imagery BCI[J]. Front Neurosci, 2023,17:1303242.

    [23] JEONG J H, KIM D J, KIM H .Hybrid Zero-Training BCI based on Convolutional Neural Network for Lower-limb Motor-Imagery[C]//International Winter Conference on Brain-Computer Interface.IEEE,2021.

    [24] ZHANG J, LIU D, CHEN W, et al. Boosting lower-limb motor imagery performance through an ensemble method for gait rehabilitation[J]. Computers in Biology and Medicine, 2024,169:107910.

    [25] ORTEGA P, FAISAL A A. Deep learning multimodal fNIRS and EEG signals for bimanual grip force decoding[J]. J Neural Eng,2021,18(4).

    [26] 王維振,曲皓,雷楊浩,等.下肢運動想象腦機接口的研究進展及康復(fù)應(yīng)用[J].北京生物醫(yī)學(xué)工程,2023,42(2):204-211.

    [27] FERRERO L, QUILES V, SORIANO-SEGURA P, et al. Transfer Learning with CNN Models for Brain-Machine Interfaces to command lower-limb exoskeletons: A Solution for Limited Data[J]. Annual International Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering in Medicine and Biology Society. Annual International Conference,2023:1.

    [28] ASANZA V, LORENTE-LEYVA L L, PELUFFO-ORDó?EZ D H, et al. MILimbEEG: A dataset of EEG signals related to upper and lower limb execution of motor and motor imagery tasks[J]. Data in Brief,2023,50:109540.

    [29] KHATTAK A S, ZAIN A, HASSAN R B, et al. Hand gesture recognition with deep residual network using Semg signal[J]. Biomed Tech(Berl),2024:4196-4199.

    [30] ELBESHBESHY A M, RUSHDI M A, EL-METWALLY S M. Electromyography Signal Analysis and Classification using Time-Frequency" Representations and Deep Learning[J]. Annu Int Conf IEEE Eng Med Biol Soc,2021:661-664.

    [31] ZHONG T, LI D, WANG J, et al. Fusion Learning for sEMG Recognition of Multiple Upper-Limb Rehabilitation Movements[J]. Sensors,2021,21(16):5385.

    [32] 王新宇.基于動態(tài)手勢識別的手部虛擬康復(fù)系統(tǒng)關(guān)鍵技術(shù)研究[D].南昌:南昌大學(xué),2022.

    [33] AMOR H B A, GHOUL E O, JEMNI M. Sign Language Recognition Using the Electromyographic Signal: A Systematic Literature Review[J]. Sensors (Basel, Switzerland),2023,23(19):8343.

    [34] LIU X, WANG J, HAN T, et al. Real-Time Control of Intelligent Prosthetic Hand Based on the Improved TCN[J]. Applied Bionics and Biomechanics,2022:1-13.

    [35] LI W, SHI P, YU H. Gesture Recognition Using Surface Electromyography and Deep Learning for Prostheses Hand: State-of-the-Art, Challenges, and Future[J]. Frontiers in neuroscience,2021,15:621885.

    [36] WEI W, HONG H, WU X. A Hierarchical View Pooling Network for Multichannel Surface Electromyography-Based Gesture Recognition[J].Computational Intelligence and Neuroscience,2021:1-13.

    [37] WEI W, HU X, LIU H, et al. Towards Integration of Domain Knowledge-Guided Feature Engineering and Deep Feature Learning in Surface Electromyography-Based Hand Movement Recognition[J]. Computational Intelligence and Neuroscience,2021:1-13.

    [38] LI G, ZOU C, JIANG G, et al. Multi-view fusion network-based gesture recognition using sEMG data[J]. IEEE Journal of Biomedical and Health Informatics,2023:1-13.

    [39] GUO K, ORBAN M, LU J, et al. Empowering Hand Rehabilitation with AI-Powered Gesture Recognition: A Study of an sEMG-Based System[J]. Bioengineering,2023,10(5): 557.

    [40] LEHMLER S J, SAIF-UR-REHMAN M, TOBIAS G, et al. Deep transfer learning compared to subject-specific models for sEMG decoders[J]. J Neural Eng,2022,19(5).

    [41] ZHANG W, ZHAO T, ZHANG J, et al. LST-EMG-Net: Long short-term transformer feature fusion network for sEMG gesture recognitio[J].Frontiers in Neurorobotics,2023,17.

    [42] 譚智峰,張磊,苗娟,等.基于sEMG信號的下肢康復(fù)動作識別算法[J].科技創(chuàng)新與應(yīng)用,2023,13(34):37-40.

    [43] YANG X, FU Z, LI B, et al. An sEMG-Based Human-Exoskeleton Interface Fusing Convolutional Neural Networks" With Hand-Crafted Feature[J].Front Neurorobot,2022,16: 938345.

    [44] YU S, ZHAN H, LIAN X, et al. A Smartphone-Based sEMG Signal Analysis System for Human Action Recognition[J]. Biosensors(Basel),2023,13(8):2079-6374.

    [45] REZAIE A Z, OLUWAROTIMI S W, ALI A, et al., et al. An Attention-based Bidirectional LSTM Model for Continuous Cross-Subject Estimation of Knee Joint Angle during Running from sEMG Signals[J]. Annual International Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering in Medicine and Biology Society. Annual International Conference,2023:14.

    [46] LI J, LI K, ZHANG J, et al. Continuous Motion Estimation of Knee Joint Based on a Parameter Self-Updating Mechanism Model[J]. Bioengineering,2023,10(9):1028.

    第一作者簡介:陳偉聰(1996-),男,碩士研究生,住院醫(yī)師。研究方向為康復(fù)醫(yī)學(xué)智能化。

    *通信作者:賴昌生(1970-),男,碩士,三級教授。研究方向為計算機在醫(yī)藥領(lǐng)域的應(yīng)用。

    猜你喜歡
    深度學(xué)習(xí)人工智能
    我校新增“人工智能”本科專業(yè)
    2019:人工智能
    商界(2019年12期)2019-01-03 06:59:05
    人工智能與就業(yè)
    數(shù)讀人工智能
    小康(2017年16期)2017-06-07 09:00:59
    有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    搞女人的毛片| 人妻久久中文字幕网| 欧美在线一区亚洲| 又黄又爽又免费观看的视频| 一本大道久久a久久精品| 国语自产精品视频在线第100页| 黑人巨大精品欧美一区二区mp4| 亚洲五月色婷婷综合| 每晚都被弄得嗷嗷叫到高潮| av天堂在线播放| 又紧又爽又黄一区二区| 国产亚洲精品久久久久久毛片| 淫妇啪啪啪对白视频| 丁香六月欧美| 黄色a级毛片大全视频| 亚洲自偷自拍图片 自拍| 激情视频va一区二区三区| 亚洲专区中文字幕在线| 在线视频色国产色| 国产91精品成人一区二区三区| 午夜免费观看网址| 亚洲熟妇中文字幕五十中出| 国产欧美日韩一区二区三| 嫩草影视91久久| 日韩精品青青久久久久久| 身体一侧抽搐| 老汉色∧v一级毛片| 老司机在亚洲福利影院| 老司机靠b影院| 乱人伦中国视频| 亚洲精品久久成人aⅴ小说| 变态另类丝袜制服| 国产成人系列免费观看| 人人妻人人爽人人添夜夜欢视频| 国产xxxxx性猛交| 两个人免费观看高清视频| 国产精品影院久久| 午夜福利欧美成人| 免费高清视频大片| 国产亚洲精品久久久久5区| 亚洲人成电影观看| 极品人妻少妇av视频| 国产精品永久免费网站| 一区二区三区国产精品乱码| 成人国产综合亚洲| 涩涩av久久男人的天堂| 欧美黑人欧美精品刺激| 久久精品成人免费网站| 老司机福利观看| 成人18禁在线播放| 精品久久久久久久人妻蜜臀av | 精品国产亚洲在线| 亚洲成人精品中文字幕电影| 国产欧美日韩一区二区三| 女生性感内裤真人,穿戴方法视频| 亚洲av成人av| 午夜亚洲福利在线播放| 这个男人来自地球电影免费观看| 99香蕉大伊视频| 中出人妻视频一区二区| 国产成人啪精品午夜网站| 人妻丰满熟妇av一区二区三区| 99久久99久久久精品蜜桃| 精品福利观看| 老熟妇仑乱视频hdxx| 亚洲国产毛片av蜜桃av| 人人妻人人爽人人添夜夜欢视频| 嫩草影院精品99| av天堂久久9| 中国美女看黄片| 免费久久久久久久精品成人欧美视频| 在线观看www视频免费| 亚洲成av片中文字幕在线观看| 亚洲色图 男人天堂 中文字幕| 免费观看精品视频网站| 亚洲自拍偷在线| 亚洲av第一区精品v没综合| 亚洲性夜色夜夜综合| 日本撒尿小便嘘嘘汇集6| 咕卡用的链子| 巨乳人妻的诱惑在线观看| 啪啪无遮挡十八禁网站| 国内精品久久久久精免费| 欧美一区二区精品小视频在线| avwww免费| 国产亚洲欧美在线一区二区| 国产极品粉嫩免费观看在线| 亚洲国产欧美网| 久久婷婷成人综合色麻豆| 国产野战对白在线观看| 黄频高清免费视频| 18禁黄网站禁片午夜丰满| 欧美一级a爱片免费观看看 | 黑人欧美特级aaaaaa片| 黑人巨大精品欧美一区二区蜜桃| 日日干狠狠操夜夜爽| www.精华液| 亚洲欧美日韩另类电影网站| 琪琪午夜伦伦电影理论片6080| 非洲黑人性xxxx精品又粗又长| 欧美日本视频| 两个人免费观看高清视频| 午夜免费激情av| 精品国产乱子伦一区二区三区| 亚洲中文字幕日韩| 国产精品一区二区三区四区久久 | 桃色一区二区三区在线观看| 搞女人的毛片| 一进一出好大好爽视频| 一进一出抽搐动态| 美女国产高潮福利片在线看| 88av欧美| 成人国语在线视频| 黄网站色视频无遮挡免费观看| 久久精品影院6| 黄色片一级片一级黄色片| netflix在线观看网站| 天天躁狠狠躁夜夜躁狠狠躁| 免费搜索国产男女视频| 黑人欧美特级aaaaaa片| www.自偷自拍.com| 欧美成人性av电影在线观看| 高潮久久久久久久久久久不卡| 天天躁夜夜躁狠狠躁躁| 免费搜索国产男女视频| 日日摸夜夜添夜夜添小说| 人人妻人人澡欧美一区二区 | 亚洲熟女毛片儿| 在线天堂中文资源库| 日本撒尿小便嘘嘘汇集6| 757午夜福利合集在线观看| 国产免费av片在线观看野外av| 在线观看免费日韩欧美大片| 久久精品亚洲精品国产色婷小说| 婷婷六月久久综合丁香| 99久久国产精品久久久| 九色亚洲精品在线播放| 亚洲人成77777在线视频| 大码成人一级视频| 欧美亚洲日本最大视频资源| 久久精品人人爽人人爽视色| 亚洲欧洲精品一区二区精品久久久| 久久久久久免费高清国产稀缺| 欧美日韩中文字幕国产精品一区二区三区 | 操美女的视频在线观看| 亚洲熟女毛片儿| 久久久久久国产a免费观看| 成人国语在线视频| 亚洲精品中文字幕在线视频| 满18在线观看网站| 日日爽夜夜爽网站| 久热这里只有精品99| 真人一进一出gif抽搐免费| 精品国产国语对白av| 午夜a级毛片| 亚洲成av人片免费观看| 亚洲最大成人中文| 亚洲精品国产精品久久久不卡| 性欧美人与动物交配| 久热爱精品视频在线9| 在线天堂中文资源库| 女人被狂操c到高潮| 少妇 在线观看| 女生性感内裤真人,穿戴方法视频| 成人国语在线视频| 12—13女人毛片做爰片一| 丝袜美腿诱惑在线| 夜夜躁狠狠躁天天躁| 人人妻人人澡欧美一区二区 | 999久久久国产精品视频| 搡老妇女老女人老熟妇| 伦理电影免费视频| 成人三级黄色视频| av福利片在线| 久热爱精品视频在线9| 国产一区二区在线av高清观看| 中文字幕色久视频| 亚洲中文字幕日韩| 国产成人精品无人区| 夜夜躁狠狠躁天天躁| 国产野战对白在线观看| 国产熟女午夜一区二区三区| 精品福利观看| 大陆偷拍与自拍| 丰满人妻熟妇乱又伦精品不卡| 一进一出抽搐gif免费好疼| 18禁美女被吸乳视频| 最新美女视频免费是黄的| 国产精品影院久久| 如日韩欧美国产精品一区二区三区| 国产亚洲精品av在线| 久热这里只有精品99| 18禁黄网站禁片午夜丰满| 美女国产高潮福利片在线看| 亚洲精品粉嫩美女一区| av天堂久久9| av中文乱码字幕在线| 1024视频免费在线观看| 日韩国内少妇激情av| 深夜精品福利| 日本三级黄在线观看| 亚洲 国产 在线| 免费观看人在逋| 午夜a级毛片| 禁无遮挡网站| 欧美精品亚洲一区二区| av在线天堂中文字幕| www.熟女人妻精品国产| 美女大奶头视频| 午夜精品在线福利| 777久久人妻少妇嫩草av网站| 日韩三级视频一区二区三区| 久久午夜综合久久蜜桃| 男女下面进入的视频免费午夜 | 一区二区三区激情视频| 一夜夜www| 淫妇啪啪啪对白视频| 久久久国产欧美日韩av| 亚洲五月婷婷丁香| 欧美日韩瑟瑟在线播放| 亚洲无线在线观看| 啦啦啦观看免费观看视频高清 | 91老司机精品| 国产成人系列免费观看| 非洲黑人性xxxx精品又粗又长| 变态另类成人亚洲欧美熟女 | 欧美日韩精品网址| 俄罗斯特黄特色一大片| 中文字幕av电影在线播放| 国产又色又爽无遮挡免费看| 久久久久久亚洲精品国产蜜桃av| 国产精品综合久久久久久久免费 | 国产免费男女视频| 午夜福利免费观看在线| 黄片播放在线免费| 国产精品久久久人人做人人爽| 很黄的视频免费| 亚洲欧美激情在线| av超薄肉色丝袜交足视频| 窝窝影院91人妻| 欧美黑人精品巨大| aaaaa片日本免费| 黄网站色视频无遮挡免费观看| 国产亚洲精品久久久久5区| 国内精品久久久久精免费| 在线观看一区二区三区| 两人在一起打扑克的视频| 亚洲精品在线美女| 又大又爽又粗| av免费在线观看网站| 国产精品精品国产色婷婷| 久久久久久久久免费视频了| 免费av毛片视频| 在线av久久热| 婷婷精品国产亚洲av在线| 91国产中文字幕| 又黄又爽又免费观看的视频| 少妇裸体淫交视频免费看高清 | 成年人黄色毛片网站| 国产精品国产高清国产av| 国产三级黄色录像| 免费在线观看日本一区| 人人妻人人爽人人添夜夜欢视频| 成人亚洲精品av一区二区| 好男人电影高清在线观看| 中国美女看黄片| 免费在线观看视频国产中文字幕亚洲| 免费高清在线观看日韩| 成人精品一区二区免费| 黄色视频不卡| 一级毛片女人18水好多| 欧美老熟妇乱子伦牲交| 伦理电影免费视频| av视频免费观看在线观看| 国产精品亚洲av一区麻豆| 亚洲成人久久性| 一级,二级,三级黄色视频| 无限看片的www在线观看| av有码第一页| 亚洲 欧美一区二区三区| 一进一出好大好爽视频| 久久伊人香网站| 国产亚洲精品第一综合不卡| 日本vs欧美在线观看视频| 亚洲国产欧美日韩在线播放| tocl精华| 国产一级毛片七仙女欲春2 | 免费在线观看日本一区| 亚洲成av片中文字幕在线观看| 欧美中文综合在线视频| 成人三级黄色视频| 性欧美人与动物交配| 亚洲全国av大片| 两性夫妻黄色片| 久久国产精品影院| 一级片免费观看大全| 日韩国内少妇激情av| 91成年电影在线观看| 啦啦啦观看免费观看视频高清 | 热re99久久国产66热| 天堂动漫精品| 午夜免费鲁丝| 1024香蕉在线观看| 亚洲男人的天堂狠狠| 亚洲自拍偷在线| 精品国产一区二区久久| 日本免费一区二区三区高清不卡 | 国产三级在线视频| 男人的好看免费观看在线视频 | 久久中文字幕一级| 欧美人与性动交α欧美精品济南到| 久久午夜综合久久蜜桃| 国产av在哪里看| 亚洲黑人精品在线| 制服人妻中文乱码| 国产亚洲精品第一综合不卡| 亚洲五月婷婷丁香| 91在线观看av| 男女床上黄色一级片免费看| 日本vs欧美在线观看视频| 一二三四在线观看免费中文在| 中文字幕人妻丝袜一区二区| 成人国语在线视频| 一区二区三区激情视频| 精品久久久久久久毛片微露脸| 欧美另类亚洲清纯唯美| 麻豆久久精品国产亚洲av| 日韩欧美免费精品| 最近最新中文字幕大全电影3 | 国产精品1区2区在线观看.| 国产黄a三级三级三级人| 久久久久国产一级毛片高清牌| 少妇 在线观看| 亚洲av日韩精品久久久久久密| 午夜久久久在线观看| 丝袜在线中文字幕| 久久人妻熟女aⅴ| 精品久久久久久久久久免费视频| 久久人人精品亚洲av| 久久久久国内视频| 亚洲中文字幕日韩| 国产av又大| 动漫黄色视频在线观看| 亚洲色图 男人天堂 中文字幕| 成人特级黄色片久久久久久久| 亚洲精品久久国产高清桃花| 成人特级黄色片久久久久久久| 两个人视频免费观看高清| 啦啦啦观看免费观看视频高清 | 国产精品 国内视频| 黄色丝袜av网址大全| 精品第一国产精品| 热re99久久国产66热| 男人舔女人下体高潮全视频| 黄片大片在线免费观看| 热re99久久国产66热| av视频免费观看在线观看| 国产国语露脸激情在线看| 曰老女人黄片| 国产精品九九99| 欧美国产日韩亚洲一区| av福利片在线| 欧美激情久久久久久爽电影 | 精品久久蜜臀av无| 亚洲成人久久性| 夜夜爽天天搞| 波多野结衣巨乳人妻| 国产免费av片在线观看野外av| 国产精品秋霞免费鲁丝片| 久久国产精品影院| 精品免费久久久久久久清纯| 免费一级毛片在线播放高清视频 | 熟女少妇亚洲综合色aaa.| 国产精品综合久久久久久久免费 | 禁无遮挡网站| 精品卡一卡二卡四卡免费| 岛国视频午夜一区免费看| 极品人妻少妇av视频| 国产精品野战在线观看| 美女免费视频网站| 夜夜爽天天搞| 午夜成年电影在线免费观看| 999久久久国产精品视频| 亚洲五月天丁香| 日日爽夜夜爽网站| 精品人妻在线不人妻| 欧美黄色淫秽网站| 久久久久久免费高清国产稀缺| 男女下面插进去视频免费观看| 免费一级毛片在线播放高清视频 | 欧美大码av| 欧美在线黄色| 免费在线观看亚洲国产| 夜夜看夜夜爽夜夜摸| 丝袜美腿诱惑在线| 我的亚洲天堂| 国产主播在线观看一区二区| 国产精品秋霞免费鲁丝片| 日韩中文字幕欧美一区二区| 欧美激情高清一区二区三区| 午夜免费鲁丝| 在线观看一区二区三区| 精品国产一区二区久久| 亚洲熟女毛片儿| 国产高清有码在线观看视频 | 岛国视频午夜一区免费看| 免费久久久久久久精品成人欧美视频| 成人国产一区最新在线观看| 高清毛片免费观看视频网站| 超碰成人久久| 亚洲狠狠婷婷综合久久图片| 精品久久久久久久久久免费视频| 精品国产一区二区三区四区第35| 久99久视频精品免费| 国产亚洲av高清不卡| 亚洲一码二码三码区别大吗| 成人精品一区二区免费| 欧美激情 高清一区二区三区| 大码成人一级视频| 日本免费一区二区三区高清不卡 | 色哟哟哟哟哟哟| 一区二区三区精品91| 夜夜看夜夜爽夜夜摸| 啪啪无遮挡十八禁网站| 成人永久免费在线观看视频| www.999成人在线观看| 丰满人妻熟妇乱又伦精品不卡| 免费看a级黄色片| 18禁黄网站禁片午夜丰满| 激情视频va一区二区三区| av超薄肉色丝袜交足视频| 国产精品乱码一区二三区的特点 | netflix在线观看网站| 国产欧美日韩精品亚洲av| 两个人看的免费小视频| 在线永久观看黄色视频| 在线播放国产精品三级| 他把我摸到了高潮在线观看| 丰满人妻熟妇乱又伦精品不卡| 一区二区日韩欧美中文字幕| 免费久久久久久久精品成人欧美视频| 国产xxxxx性猛交| 很黄的视频免费| 成人av一区二区三区在线看| 如日韩欧美国产精品一区二区三区| 成人特级黄色片久久久久久久| 在线观看免费日韩欧美大片| 亚洲国产高清在线一区二区三 | 叶爱在线成人免费视频播放| 国产激情欧美一区二区| 中亚洲国语对白在线视频| 久久 成人 亚洲| 黑丝袜美女国产一区| www日本在线高清视频| 日本 欧美在线| 亚洲中文字幕一区二区三区有码在线看 | 免费无遮挡裸体视频| 久久亚洲真实| 国产成人欧美| 性欧美人与动物交配| 久热这里只有精品99| 国产成人av激情在线播放| 露出奶头的视频| 色婷婷久久久亚洲欧美| 青草久久国产| 免费看a级黄色片| 亚洲精品国产一区二区精华液| 精品乱码久久久久久99久播| 精品卡一卡二卡四卡免费| 国产成人精品久久二区二区91| 亚洲成人免费电影在线观看| 三级毛片av免费| 啦啦啦免费观看视频1| 最新美女视频免费是黄的| 国产亚洲欧美在线一区二区| 757午夜福利合集在线观看| a在线观看视频网站| 久久久久久人人人人人| 婷婷丁香在线五月| 亚洲久久久国产精品| 91在线观看av| 麻豆av在线久日| 国产精品综合久久久久久久免费 | 成人国产一区最新在线观看| 人妻久久中文字幕网| 亚洲av美国av| av电影中文网址| 电影成人av| 每晚都被弄得嗷嗷叫到高潮| 老司机午夜福利在线观看视频| 国产私拍福利视频在线观看| 看黄色毛片网站| 日韩av在线大香蕉| 少妇粗大呻吟视频| 亚洲欧美精品综合久久99| 国产精品,欧美在线| 麻豆一二三区av精品| 两个人视频免费观看高清| 久久精品91蜜桃| 老司机午夜十八禁免费视频| av欧美777| 欧美最黄视频在线播放免费| 日日干狠狠操夜夜爽| 激情视频va一区二区三区| 老司机午夜十八禁免费视频| 精品卡一卡二卡四卡免费| 久久久久久免费高清国产稀缺| 精品国产一区二区久久| 久久精品国产亚洲av香蕉五月| 国内精品久久久久精免费| 少妇裸体淫交视频免费看高清 | 日本一区二区免费在线视频| av在线播放免费不卡| 久久热在线av| 丝袜美腿诱惑在线| 色婷婷久久久亚洲欧美| 亚洲五月天丁香| 日本黄色视频三级网站网址| 首页视频小说图片口味搜索| 国产伦人伦偷精品视频| 国产午夜福利久久久久久| 亚洲免费av在线视频| 欧美激情 高清一区二区三区| 亚洲国产日韩欧美精品在线观看 | 50天的宝宝边吃奶边哭怎么回事| 日本免费a在线| 国产午夜福利久久久久久| 性欧美人与动物交配| 美女高潮喷水抽搐中文字幕| 免费在线观看视频国产中文字幕亚洲| 久久午夜亚洲精品久久| 久久国产精品男人的天堂亚洲| 日韩大尺度精品在线看网址 | 亚洲精品中文字幕在线视频| 99久久综合精品五月天人人| 亚洲熟妇熟女久久| 激情在线观看视频在线高清| 女警被强在线播放| 黄色女人牲交| 亚洲午夜理论影院| 午夜免费激情av| 色在线成人网| 人妻丰满熟妇av一区二区三区| 亚洲av第一区精品v没综合| 麻豆久久精品国产亚洲av| 成熟少妇高潮喷水视频| 国产亚洲欧美在线一区二区| 一级a爱视频在线免费观看| 精品无人区乱码1区二区| 午夜免费观看网址| 一本大道久久a久久精品| 欧美成狂野欧美在线观看| 美女免费视频网站| 国产精品电影一区二区三区| 一级片免费观看大全| 神马国产精品三级电影在线观看 | 欧洲精品卡2卡3卡4卡5卡区| 国产成人精品在线电影| 亚洲熟女毛片儿| 久久精品国产99精品国产亚洲性色 | 国产成人影院久久av| 亚洲美女黄片视频| 怎么达到女性高潮| 久久久久久久久久久久大奶| 精品人妻1区二区| 黑人欧美特级aaaaaa片| 最近最新中文字幕大全免费视频| 午夜福利高清视频| 亚洲欧洲精品一区二区精品久久久| 俄罗斯特黄特色一大片| 老汉色∧v一级毛片| 精品久久久久久成人av| 精品久久久久久久毛片微露脸| 中文亚洲av片在线观看爽| 狂野欧美激情性xxxx| 19禁男女啪啪无遮挡网站| 一级a爱视频在线免费观看| 两人在一起打扑克的视频| 天堂动漫精品| 国语自产精品视频在线第100页| 人人妻人人澡人人看| 亚洲成人国产一区在线观看| 天天一区二区日本电影三级 | 男人舔女人下体高潮全视频| 波多野结衣巨乳人妻| 嫁个100分男人电影在线观看| 免费少妇av软件| 一区二区三区国产精品乱码| 午夜免费激情av| 国产真人三级小视频在线观看| 成人精品一区二区免费| 男人的好看免费观看在线视频 | 亚洲成人精品中文字幕电影| 国产99久久九九免费精品| 午夜福利在线观看吧| 在线视频色国产色| 91精品国产国语对白视频| 午夜免费激情av| 男人舔女人下体高潮全视频| 9191精品国产免费久久| tocl精华| 国产免费av片在线观看野外av| 久久精品亚洲精品国产色婷小说| 中文字幕人妻熟女乱码| 久久精品国产清高在天天线| 在线十欧美十亚洲十日本专区| 精品国产一区二区久久| 国产精品二区激情视频| 国产精品一区二区精品视频观看| 亚洲一区高清亚洲精品| 国产精品九九99| 一区二区三区激情视频| 亚洲男人的天堂狠狠| 欧美日韩亚洲综合一区二区三区_| 女人被躁到高潮嗷嗷叫费观|