• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度學(xué)習(xí)的sEMG與EEG運動意圖識別研究進展

    2025-01-31 00:00:00陳偉聰賴昌生
    科技創(chuàng)新與應(yīng)用 2025年2期
    關(guān)鍵詞:深度學(xué)習(xí)人工智能

    摘" 要:隨著人口老齡化、殘疾人群增加、慢性病患者增多,我國康復(fù)醫(yī)療服務(wù)的需求持續(xù)上升,而康復(fù)意識薄弱,康復(fù)醫(yī)學(xué)教育發(fā)展滯后,康復(fù)專業(yè)人員缺乏、康復(fù)資源緊缺及分配不均等現(xiàn)狀,使得我國康復(fù)治療供需矛盾極其突出。目前由康復(fù)治療師一對一進行訓(xùn)練的傳統(tǒng)康復(fù)訓(xùn)練手段難以滿足現(xiàn)階段的治療需求。近年來,隨著人工智能技術(shù)的發(fā)展,人工智能技術(shù)應(yīng)用于康復(fù)領(lǐng)域愈發(fā)廣泛,尤其是康復(fù)機器人作為主要的工具,有望解決當(dāng)下康復(fù)醫(yī)療供需矛盾,完善我國康復(fù)醫(yī)療體系的發(fā)展。目前,康復(fù)機器人的發(fā)展仍處于起步階段,具有巨大的發(fā)展?jié)摿?,同時也面臨著許多難點和挑戰(zhàn)。人工智能包含機器學(xué)習(xí),其中,深度學(xué)習(xí)是機器學(xué)習(xí)的一個重要分支,廣泛應(yīng)用于表面肌電圖和腦電圖的運動意圖識別分類,可實現(xiàn)康復(fù)機器人輔助患者完成對應(yīng)的運動訓(xùn)練,康復(fù)機器人的應(yīng)用具有良好的發(fā)展前景。該文綜述深度學(xué)習(xí)應(yīng)用于表面肌電圖和腦電圖的運動意圖識別研究進展,以期為相關(guān)領(lǐng)域的專家學(xué)者對康復(fù)機器人的研究提供借鑒和參考。

    關(guān)鍵詞:人工智能;深度學(xué)習(xí);康復(fù)機器人;表面肌電;腦機接口

    中圖分類號:R496" " " 文獻標(biāo)志碼:A" " " " " 文章編號:2095-2945(2025)02-0001-10

    Abstract: With the aging of the population, the increase in the number of disabled people, and the increase in patients with chronic diseases, the demand for rehabilitation medical services in China continues to rise, but the awareness of rehabilitation is weak, the development of rehabilitation medicine education lags behind, the lack of rehabilitation professionals, and there's shortage of rehabilitation resources and uneven distribution, all of which has made the contradiction between supply and demand for rehabilitation treatment extremely prominent. At present, traditional rehabilitation training methods in which rehabilitation therapists conduct one-on-one training cannot meet the treatment needs at this stage. In recent years, with the development of artificial intelligence technology, artificial intelligence technology has become more and more widely used in the field of rehabilitation. In particular, rehabilitation robots, as the main tool, are expected to solve the current contradiction between supply and demand in rehabilitation medical care and improve the development of China's rehabilitation medical system. At present, the development of rehabilitation robots is still in its infancy, with huge development potential, and also faces many difficulties and challenges. Artificial intelligence includes machine learning. Among them, deep learning is an important branch of machine learning. It is widely used in the recognition and classification of motor intentions of surface electromyography and electroencephalography. It can enable rehabilitation robots to assist patients in completing corresponding motor training, with a good prospect for application. This paper reviews the research progress of deep learning applied to motor intention recognition using surface electromyography and electroencephalography, in order to provide reference for experts and scholars in related fields in the research of rehabilitation robots.

    Keywords: artificial intelligence; deep learning; rehabilitation robot; surface EMG; brain-computer interface

    據(jù)《柳葉刀》發(fā)布數(shù)據(jù)稱,全世界約有24.1億人可能需要接受康復(fù)治療,我國是全球康復(fù)需求最大的國家。康復(fù)需求總?cè)藬?shù)超過4.6億人,其中包括超7 000萬殘疾人群體,我國現(xiàn)僅有康復(fù)治療師約5萬人,康復(fù)醫(yī)師占基本人群比例約0.4∶10萬,并且隨著人口老齡化的加劇,遠遠不能滿足現(xiàn)階段的康復(fù)治療需要。傳統(tǒng)的康復(fù)訓(xùn)練方法由康復(fù)治療師一對一進行針對性康復(fù)治療訓(xùn)練,受康復(fù)治療師水平差異及時間資源等限制,康復(fù)治療效果參差不齊。隨著康復(fù)工程(Rehabilitation Engineering,RE)的發(fā)展,康復(fù)機器人已經(jīng)成為一種新的運動神經(jīng)康復(fù)治療手段,可實現(xiàn)個體化、智能化、精確化的康復(fù)訓(xùn)練。2024年,全國政協(xié)十四屆二次會議期間,專家們呼吁社會關(guān)注和支持康復(fù)事業(yè)發(fā)展,加強對康復(fù)醫(yī)學(xué)重視,補齊康復(fù)醫(yī)療短板,并提出運用云計算、大數(shù)據(jù)、互聯(lián)網(wǎng)和人工智能等技術(shù)去實現(xiàn)智能康復(fù)醫(yī)療,是解決當(dāng)下康復(fù)醫(yī)療供需矛盾的關(guān)鍵路徑,建議加大對康復(fù)機器人的支持力度。

    早期傳統(tǒng)的康復(fù)機器人只能提供被動式的訓(xùn)練模式,患者無運動意圖的主動參與,即患者肢體完全被動接收康復(fù)機器人的帶動執(zhí)行軌跡進行運動訓(xùn)練[1],這種單一的機械化訓(xùn)練方法缺乏趣味性,降低患者康復(fù)治療依從性,更重要的是,康復(fù)醫(yī)學(xué)的臨床研究已證實,有患者運動意圖(運動想象)(Motor Imagery,MI)主動參與的康復(fù)訓(xùn)練,大腦對側(cè)初級運動皮層(cM1)的功能磁共振成像(fMRI)激活程度和皮質(zhì)興奮性顯著優(yōu)于被動訓(xùn)練,基于神經(jīng)可塑性的神經(jīng)系統(tǒng)重建和運動功能恢復(fù)效果更好[2]。近年來,以機器學(xué)習(xí)(包含深度學(xué)習(xí))為代表的人工智能技術(shù)在康復(fù)機器人研究中得到廣泛應(yīng)用,智能康復(fù)機器人通?;诹徒嵌葌鞲衅鳎↖MU)采集的數(shù)據(jù)或腦電圖(Electroencephalogram,EEG)、表面肌電圖(Surface electromyography,sEMG)進行特征提取和分類,建立分類模型對患者運動意圖進行識別,智能康復(fù)機器人輔助患者完成對應(yīng)的運動訓(xùn)練[3],具有良好的人機交互性,實現(xiàn)個體化、高效、精確的康復(fù)訓(xùn)練,可激勵患者的主動運動意識,提高康復(fù)治療趣味性及患者康復(fù)治療依從性,因此,實時準(zhǔn)確識別人體運動意圖是實現(xiàn)完美的人機交互和智能康復(fù)機器人穿戴舒適性的關(guān)鍵。在康復(fù)治療中,交互式康復(fù)訓(xùn)練能夠調(diào)動患者的積極性,提高了訓(xùn)練的趣味性并增加患者訓(xùn)練的依從性。有研究表明,有患者運動意圖參與的康復(fù)訓(xùn)練比被動訓(xùn)練促進神經(jīng)系統(tǒng)功能和運動功能的恢復(fù)療效更好[4]。在康復(fù)領(lǐng)域中,深度學(xué)習(xí)分類模型常用于對基于腦電圖或表面肌電圖的運動意圖識別,還用于各類疾病的預(yù)測、診斷、康復(fù)治療的訓(xùn)練評估和預(yù)后評價等,本文主要闡述深度學(xué)習(xí)應(yīng)用于腦電圖或表面肌電圖的運動意圖識別研究進展。為了便于讀者了解本領(lǐng)域的研究現(xiàn)狀,下面分別從“基于運動意圖識別的智能康復(fù)機器人概述”“基于EEG的運動意圖識別深度學(xué)習(xí)模型”“基于sEMG的運動意圖識別深度學(xué)習(xí)模型”3個部分對深度學(xué)習(xí)應(yīng)用于康復(fù)機器人的研究進展進行回顧和討論。

    1" 基于運動意圖識別的智能康復(fù)機器人研究概述

    目前,基于運動意圖識別的智能康復(fù)機器人的發(fā)展仍處于起步階段,具有巨大的發(fā)展?jié)摿Γ瑫r也面臨著許多困難,如何提高識別康復(fù)訓(xùn)練動作運動意圖分類準(zhǔn)確度是首要難題,常用骨骼肌肉模型、傳統(tǒng)機器學(xué)習(xí)模型或深度學(xué)習(xí)模型等方法進行運動意圖識別。骨骼肌肉模型常基于力、慣性和角度傳感器采集人體運動過程中肢體擺動的角度、速度、 加速度和地面反作用力等運動信息,實時性較差,并且生理參數(shù)較多,預(yù)測效果較差,難以實現(xiàn)常規(guī)、自然的人機交互。傳統(tǒng)的機器學(xué)習(xí)分類算法包括支持向量機、人工神經(jīng)網(wǎng)絡(luò)、線性判別分析(LDA)、K近鄰算法(KNN)和隨機森林(RF)等,機器學(xué)習(xí)模型具有計算簡便、運算快、實時性強的特點,然而需要選擇和提取大量特征,選取的特征決定了識別的準(zhǔn)確性。并且,基于傳統(tǒng)機器學(xué)習(xí)的運動意圖識別方法多存在特征提取過程復(fù)雜、魯棒性差、預(yù)測誤差大等問題。與傳統(tǒng)的機器學(xué)習(xí)相比,基于深度學(xué)習(xí)的運動意圖識別具有更高的準(zhǔn)確率和更好的平穩(wěn)性[5]。近年來,深度學(xué)習(xí)研究應(yīng)用于人體運動意圖識別成為熱點,深度學(xué)習(xí)本質(zhì)上指的是采用具有多層特征結(jié)構(gòu)轉(zhuǎn)化的人工神經(jīng)網(wǎng)絡(luò)來解決問題的方法。深度學(xué)習(xí)通過自適應(yīng)特征提取和分類模塊實現(xiàn)端到端學(xué)習(xí),有效改善了模型的非線性、提高了運動意圖識別的準(zhǔn)確率,無需依賴手工特征提取[6]。基于深度學(xué)習(xí)的運動意圖識別可分為2類:離散運動分類和連續(xù)運動回歸,近年來,基于深度學(xué)習(xí)的離散運動分類方法取得了較好的預(yù)測效果。由于離散運動分類的運動描述相對簡單,沒有統(tǒng)一的分類標(biāo)準(zhǔn),無法預(yù)測預(yù)定義之外的動作。因此,離散運動分類不能應(yīng)用于可穿戴機器人的流暢控制??祻?fù)機器人可大致分為上肢機器人、手部機器人和下肢機器人,康復(fù)機器人按照功能特點可以分為輔助型和治療型。

    2" 基于腦電圖的運動意圖識別深度學(xué)習(xí)模型

    腦機接口(Brian Computer Interface, BCI)通過大腦信號將神經(jīng)活動與外部設(shè)備間建立直接連接通路,外部設(shè)備可采集各類大腦信號,如腦電圖、近紅外譜(NIR)等。根據(jù)數(shù)據(jù)信號采集的位置不同分為侵入式腦機接口和非侵入式腦機接口兩大類[7]。侵入式腦機接口具有創(chuàng)傷性、復(fù)雜性等特點很難在康復(fù)領(lǐng)域得到廣泛應(yīng)用,在非侵入性方法中,腦電信號具有較高的時間分辨率、成本效益以及用戶友好型,是最常用的獲取大腦信號的方法。在一側(cè)肢體準(zhǔn)備和執(zhí)行動作的過程中,對側(cè)感覺運動皮層腦電信號的α頻段(812 Hz)和β頻段(1 330 Hz)的幅度降低,稱為事件相關(guān)去同步(ERD),而運動手同側(cè)大腦皮質(zhì)信號的α頻段和β頻段的幅度增加,則稱為事件相關(guān)同步(ERS),運動想象腦電信號的分類是基于ERD/ERS現(xiàn)象實現(xiàn)的[8],在康復(fù)領(lǐng)域,常用非侵入性BCI采集EEG對運動想象進行解碼,即基于運動想象的腦機接口(Motor Imagery-Brain ComputerInterface,MI-BCI)技術(shù),通過將運動想象轉(zhuǎn)換成對外部設(shè)備的控制信號,可實現(xiàn)對外部設(shè)備的直接控制,可應(yīng)用于智能康復(fù)機器人,可以進行直接的人機信息交互,實現(xiàn)主動、被動或輔助運動訓(xùn)練。EEG信號微弱,受偽跡和噪聲影響較大,具有非線性和非平穩(wěn)性的特點。目前,MI-BCI智能康復(fù)機器人的技術(shù)發(fā)展仍在起步發(fā)展階段,僅限于特定環(huán)境或特定個體,還未能廣泛應(yīng)用于臨床康復(fù)治療,而如何準(zhǔn)確識別運動意圖是首要難題。Athanasia等[9]綜述了腦電圖在神經(jīng)康復(fù)的應(yīng)用,腦電圖是腦機接口(BCI)中最重要的輸入,主要針對神經(jīng)運動障礙或神經(jīng)系統(tǒng)創(chuàng)傷的患者,可用于腦卒中、顱腦損傷、脊髓損傷及肌萎縮側(cè)索硬化癥等患者的神經(jīng)康復(fù)。MI-BCI有助于患者控制輪椅、假肢、外部機器人等康復(fù)輔助器具進行訓(xùn)練,針對性地結(jié)合虛擬現(xiàn)實輔助訓(xùn)練和通過誘導(dǎo)神經(jīng)可塑性的行為,可以促進腦卒中或脊髓損傷等患者的神經(jīng)功能和運動功能的恢復(fù)[10],這種訓(xùn)練方法已被證實是更先進、更高效的,未來將廣泛應(yīng)用于腦卒中患者康復(fù)訓(xùn)練[11]。中樞神經(jīng)系統(tǒng)具有高度的可塑性,具有不斷適應(yīng)外部環(huán)境變化而改變神經(jīng)信息傳遞效能從而對自身結(jié)構(gòu)和功能進行重組的能力,這是中樞神經(jīng)損傷后功能恢復(fù)的重要理論依據(jù)。神經(jīng)可塑性與大腦中的樹突和軸突、樹突棘密度、突觸數(shù)目和大小、受體密度有關(guān)[12]。腦卒中、脊髓損傷等中樞神經(jīng)系統(tǒng)損傷或疾病可通過自發(fā)重塑和康復(fù)治療引導(dǎo)的經(jīng)驗依賴性重塑修復(fù)神經(jīng)進行功能代償,促進機體功能的恢復(fù),MI-BCI康復(fù)機器人可以改善腦卒中患者的皮質(zhì)激活與皮質(zhì)重組,從而誘導(dǎo)神經(jīng)可塑性,促進大腦殘余神經(jīng)元連接的逐漸適應(yīng),增加突觸前后的神經(jīng)元連接等改變進行修復(fù)[13]。深度學(xué)習(xí)以其自動特征提取和較高的分類精度成為計算機視覺和自然語言處理領(lǐng)域的研究熱點,非常適合應(yīng)用于MI-BCI。腦機接口一般可分為5個部分:信號采集、預(yù)處理或信號增強、特征提取、分類和控制接口。MI-BCI的深度學(xué)習(xí)模型常用的有卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、生成對抗網(wǎng)絡(luò)(GAN)和深度信念網(wǎng)絡(luò)(DBN)等[14]。

    2.1" 上肢MI-BCI深度學(xué)習(xí)模型

    目前,MI-BCI多采用雙側(cè)上肢運動任務(wù),而對單側(cè)上肢運動想象任務(wù)的研究相對較少。Zhang等[15]對單側(cè)上肢運動想象腦電信號的識別進行了研究,提出了一種多分支融合卷積神經(jīng)網(wǎng)絡(luò)(Multi-branch Fusion Convolutional Neural Network,MF-CNN),包括2個分支,可以同時從原始腦電信號和二維時頻圖中提取特征,研究中使用的數(shù)據(jù)集包含3種類型的運動想象任務(wù):手臂向前伸展、握住杯子、手腕向左旋轉(zhuǎn),無論是在抓取對象和伸臂任務(wù)的二進制分類實驗中或三種任務(wù)都用于分類時, MF-CNN算法的分類性能都優(yōu)于單CNN分支算法。綜上所述,MF-CNN充分利用了腦電的時頻域特性,能夠有效地提高單側(cè)上肢運動圖像腦電信號的分類性能,有助于MI-BCI在中風(fēng)后運動功能康復(fù)訓(xùn)練中的應(yīng)用。

    基于腦電圖的運動想象腦機接口主要用于腦卒中后康復(fù)治療,而實際上考慮到卒中患者試驗安全性,以往所進行的基于運動想象腦機接口(BCI)采集的腦電波多來自健康人,同時這也是腦機接口目前用于腦卒中康復(fù)領(lǐng)域研究進展中面臨的挑戰(zhàn)和難題。Nagarajan等[16]通過收集健康人的數(shù)據(jù),預(yù)先訓(xùn)練MI-BCI模型,研究使用了一種新的遷移學(xué)習(xí)方法Deep ConvNet進行分類,將健康受試者上肢運動的MI-EEG數(shù)據(jù)檢測腦卒中患者的運動想象數(shù)據(jù)。實驗結(jié)果表明,通過使用健康受試者的數(shù)據(jù)對預(yù)先訓(xùn)練的模型進行適應(yīng),71 名中風(fēng)患者的運動想象平均準(zhǔn)確率為71.15%,遷移學(xué)習(xí)后預(yù)訓(xùn)練模型的準(zhǔn)確率提高了18.15%(plt;0.001)。使用遷移學(xué)習(xí)方法在健康人到腦卒中的運動想象腦電信號數(shù)據(jù)與腦卒中患者之間遷移學(xué)習(xí)沒有顯著差異(pgt;0.05),并得出腦卒中患者運動想象的檢測與雙側(cè)運動、額葉和頂葉區(qū)域有關(guān)。因此,通過使用健康人到腦卒中患者的上肢運動想象腦電信號數(shù)據(jù)的遷移學(xué)習(xí)方法,有效解決了腦卒中患者數(shù)據(jù)不足的問題。

    上肢承擔(dān)著復(fù)雜、精細、靈巧的動作,尤其手的精細運動障礙,嚴重影響患者日常生活活動,并且,腦卒中后患者手功能康復(fù)一直是康復(fù)界的難點,也是嚴重影響患者生活質(zhì)量、阻礙患者重返家庭與社會的重要原因。Xu等[17]使用自監(jiān)督學(xué)習(xí)與腦電信號圖像處理相結(jié)合的方法。提出了一種基于改良轉(zhuǎn)換(Modified S-Transform,MST)的對比預(yù)測編碼(Contrast Predictive Coding,CPC)模型,即MST-CPC。MST用于獲取時頻特征,以提高運動想象任務(wù)識別的解碼性能。CPC可用于生成高級特征,實驗中對健康人與腦卒中患者手部的運動想象任務(wù)進行測試,經(jīng)分類性能評估,平均分類準(zhǔn)確率為 89%。該方法可以獲得有效的特征表示并提高MI-BCI系統(tǒng)的性能,該模型具有較高的平均準(zhǔn)確率,有效促進了腦機接口技術(shù)在康復(fù)領(lǐng)域的應(yīng)用。

    目前從大腦皮層來源進行運動學(xué)解碼的研究很少,Jain等[18]探索利用腦電皮質(zhì)源信號解碼手部運動,提出了一種基于殘差卷積神經(jīng)網(wǎng)絡(luò)(CNN)-長短期記憶(LSTM)的運動學(xué)解碼模型,該模型利用運動前大腦活動中存在的運動神經(jīng)元信息,利用實際手部運動學(xué)和預(yù)測手部運動學(xué)之間的相關(guān)值(CV)作為源和傳感器域的性能度量來衡量所提出的解碼模型的效率,對提出的深度學(xué)習(xí)模型在傳感器域和源域的性能進行了比較。實驗結(jié)果表明,利用運動前腦電皮質(zhì)源數(shù)據(jù)進行手部運動學(xué)解碼是可行的。

    Cho等[19]為提高MI-BCI的解碼性能和實用性,提出了一種稱為NeuroGrasp的基于CNN-BLSTM結(jié)構(gòu)和卷積SiamNet的兩階段深度學(xué)習(xí)框架,該方法有效地利用了基于EEG和sEMG的學(xué)習(xí),模型訓(xùn)練過程中的肌電引導(dǎo)使腦-機接口系統(tǒng)能夠準(zhǔn)確地從腦電信號中預(yù)測手的抓握類型,實驗結(jié)果得出,NeuroGrasp在進行在線或離線評估時表現(xiàn)出了穩(wěn)定的分類性能,未來有望應(yīng)用此方法準(zhǔn)確地控制假肢或機械手。

    Cao等[20]提出了一種基于重疊時間窗的腦機接口康復(fù)模型訓(xùn)練方法,該模型使用卷積神經(jīng)網(wǎng)絡(luò)、圖同構(gòu)網(wǎng)絡(luò)(GIN)和長短期記憶3種不同的模型對腦卒中患者手腕伸展運動嘗試(Motor Attempt,MA)進行分類,在不同時間窗長度下進行了多次實驗,結(jié)果表明,基于重疊時間窗的深度學(xué)習(xí)方法在分類精度上取得了提高,其中LSTM結(jié)合計票策略(Vote-counting Strategy,VS)在窗口大小為70時達到了最高的平均分類準(zhǔn)確率90.3%。結(jié)果驗證了重疊時間窗策略對于提高腦機接口康復(fù)模型訓(xùn)練的效率是有效的,同時,分類結(jié)果在不同受試者的時間窗口中的分布是不同的,因此,通過為不同的受試者選擇不同的分類窗口來提高分類性能是可行的,未來該模型的研究可以在時間窗口的選擇上展開。

    Sergio等[21]為了克服MI-BCI受試者間的差異和分類性能,提出了一種新的深度學(xué)習(xí)框架,稱為EEGSym,該CNN包括使用初始模塊、殘差連接和大腦沿中矢狀面對稱性的連體網(wǎng)絡(luò)方法引入網(wǎng)絡(luò)架構(gòu)的設(shè)計,實驗在5個包含280名受試者(目前在類似研究中評估的最大人群)的左手或右手運動想象公開的數(shù)據(jù)集上,比較EEGSym 在受試者間MI分類與 ShallowConvNet、DeepConvNet、EEGNet和EEG-Inception 等模型的性能,實驗結(jié)果得出,EEGSym在主體間MI分類上優(yōu)于先前的最先進的方法。

    腦機接口提供的傳統(tǒng)、有限的類別(通常只有2個或4個)無法實現(xiàn)廣泛的控制模式,為解決這一問題,Bi等[22]提出了一種用于識別6種不同類別的上肢運動想象(包括屈肘、伸肘、前臂旋后、前臂旋前、手張開和手合攏)的時空并行網(wǎng)絡(luò)(Time-Spatial Parallel Network,TSPNet),TSPNet包含3個組件:時間維度特征提取器(TDFE)、空間維度特征提取器(SDFE)和時間空間并行特征提取器(TSPFE)。在實驗收集數(shù)據(jù)集上的準(zhǔn)確率為49.1%±0.043%,在公共數(shù)據(jù)集上的準(zhǔn)確率為49.7%±0.029%,優(yōu)于其他深度學(xué)習(xí)方法,并且TSPNet能夠為不同頻段的腦電信號中的各種上肢運動圖像類別生成不同的分類器模式。TSPNet為康復(fù)機器人、康復(fù)外骨骼機械手等腦-機接口控制設(shè)備增加自由度提供了可能。

    2.2" 下肢MI-BCI深度學(xué)習(xí)模型

    Jeong等[23]提出了混合零訓(xùn)練BCI的模型,收集下肢運動(步態(tài)、坐下、休息)相關(guān)的3類MI腦電數(shù)據(jù),將多域CNN與時域、頻域和空間域結(jié)合進行分類任務(wù)進行識別,表現(xiàn)出了較高的分類準(zhǔn)確度。

    Zhang等[24]提出了一種用于下肢運動想象分類的集成方法,該模型結(jié)合了淺層和深層神經(jīng)網(wǎng)絡(luò)的集成方法。淺層為傳統(tǒng)的小波變換和濾波器組共空間模式(Common Spatial Patterns,CSP),深層神經(jīng)網(wǎng)絡(luò)包括常規(guī)神經(jīng)網(wǎng)絡(luò)、多頭自注意力和時間卷積網(wǎng)絡(luò)。利用左腿和右腿的運動想象以自然的方式驅(qū)動下肢外骨骼進行試驗,結(jié)果得出,該分類方法對左腿運動想象、右腿運動想象和休息時3個類別達到了60.27%的準(zhǔn)確率,下肢運動想象和休息時達到了64.20%的準(zhǔn)確率,為步態(tài)訓(xùn)練和下肢外骨骼的發(fā)展建立了基礎(chǔ)。

    Ortega等[25]開發(fā)了一種帶有注意力和殘留層的深度學(xué)習(xí)架構(gòu)(a deep-learning architecture with attention and residual layers ,cnnatt) 改進EEG和功能性近紅外光譜(Functional Near-infrared Spectroscopy,fNIRS)的融合。實驗結(jié)果得出,EEG和fNIRS的使用改善了雙手力的解碼,為運動康復(fù)評估提供了便利。cnnatt的研究還得出來自每只手的力量在大腦皮層水平上的編碼方式不同及大腦皮質(zhì)活動受到力的水平影響的痕跡,因此,我們可以通過避免手力解碼過程中的手串?dāng)_,從而提高BMI機器人設(shè)備的魯棒性。

    王維振等[26]綜述了下肢運動想象腦機接口的研究進展,其認為目前下肢 BCI-MI任務(wù)分類技術(shù)仍以傳統(tǒng)的機器學(xué)習(xí)為主,深度學(xué)習(xí)模型需要以海量的數(shù)據(jù)為基礎(chǔ)進行訓(xùn)練、模型較為復(fù)雜及可解釋性差的特點限制了其在下肢BCI-MI的應(yīng)用。另外,基于多感官誘導(dǎo)、FES和VR技術(shù)結(jié)合或磁共振功能成像(FMRI)等的下肢MI-BCI范式有利于增強下肢運動想象能力并展現(xiàn)了較好的分類性能,CSP相關(guān)的算法及基于腦網(wǎng)絡(luò)的算法都具有較高的特征提取性能。

    Ferrero[27]為了解決數(shù)據(jù)可獲得性有限的問題,采集5個受試者佩戴下肢外骨骼行走時的運動想象腦電信號數(shù)據(jù),得到小量的數(shù)據(jù)集,使用遷移學(xué)習(xí)的方法對來自其他受試者的腦電信號進行訓(xùn)練模型,然后根據(jù)特定用戶對其進行微調(diào),使用2種CNN:EEGNet和DeepConvNet,均利用一維卷積濾波來提取空間和時間域的特征,在使用池化層采集腦電信號數(shù)據(jù),實驗結(jié)果得出,EEGNet和DeepConvNet框架在使用來自個別受試者的數(shù)據(jù)重新訓(xùn)練時都顯示出更高的準(zhǔn)確率,與獨立于受試者的訓(xùn)練相比,準(zhǔn)確率提高了9%至12%。

    Asanza等[28]通過測試60個受試者,提供了7 440個與運動和運動想象任務(wù)的上肢和下肢執(zhí)行有關(guān)的腦電信號的文件數(shù)據(jù)集,該數(shù)據(jù)集稱為MILimbEEG,包含左手合攏、右手合攏、左足背屈(DLF)、左足屈曲(PLF)、右足背屈(DRF)、右足屈曲(PRF)和任務(wù)間歇休息(REST)等運動想象數(shù)據(jù),有助于評估專用于任務(wù)識別的EEG信號檢測和分類模型。并且還得出右肢運動活動的檢測在結(jié)果中呈現(xiàn)出更高的準(zhǔn)確性,原因是只有5%的受試者是左撇子。

    3" 基于sEMG的運動意圖識別深度學(xué)習(xí)模型

    sEMG是一種實時記錄神經(jīng)-肌肉系統(tǒng)活動時的生物電信號,可以通過電極從淺表肌肉收集,通常在肢體運動前30~150 ms產(chǎn)生,包含豐富的特征信息和成熟的采集技術(shù),具有分辨率高、操作簡便、無創(chuàng)性等優(yōu)點。在臨床上廣泛應(yīng)用于神經(jīng)-肌肉系統(tǒng)疾病的診治以及康復(fù)治療,并且在康復(fù)醫(yī)學(xué)中具有重要的應(yīng)用前景。使用表面肌電信號對動作進行識別,可以實現(xiàn)康復(fù)機器人輔助康復(fù)運動模式?;趕EMG 的人體運動意圖識別可能成為主流[6]?;趥鹘y(tǒng)機器學(xué)習(xí)方法的運動意圖識別需要選擇和提取大量特征,常見的 sEMG 信號特征提取方法有時域法、頻域法、時頻域法。深度學(xué)習(xí)方法一般無需對sEMG 信號特征進行手工選取。到目前為止,基于表面肌電與基于腦機接口深度學(xué)習(xí)相關(guān)的運動意圖識別研究類似,其研究主要集中在上肢,下肢較少。最根本的原因是下肢承載著人體大部分的重量,這對實時性和準(zhǔn)確性要求很高?;趕EMG的運動意圖識別的深度學(xué)習(xí)模型常用的方法為卷積神經(jīng)網(wǎng)絡(luò)和遞歸神經(jīng)網(wǎng)絡(luò)(RNN),常用的RNN 為長短期記憶網(wǎng)絡(luò)和時間卷積網(wǎng)絡(luò)(TCN)[6]。

    3.1" 基于sEMG上肢運動意圖識別深度學(xué)習(xí)模型

    由于個體的皮膚厚度、體脂率、毛發(fā)量、肌肉募集程度和電極放置等差各種因素差異,表面肌電信號在不同的受試者之間表現(xiàn)出很大的差異(即使在精確放置電極的情況下),但經(jīng)過訓(xùn)練的CNN分類器對這些差異表現(xiàn)出很高的魯棒性[29]。Elbeshbeshy等[30]以受試者前臂內(nèi)側(cè)屈肌群為研究對象,采集前臂屈曲和伸展時的單通道表面肌電信號,用不同的時頻EMG表示來構(gòu)建用于EMG分類的常規(guī)和深度學(xué)習(xí)模型,使用GoogLeNet、SqueezeNet和AlexNet CNN預(yù)訓(xùn)練模型,實驗結(jié)果顯示,3種CNN模型的準(zhǔn)確率分別為92.71%、90.63%和87.5%,并且在一個具有10類手指運動數(shù)據(jù)集上進行了驗證,提高了基于GoogLeNet的模型分類精度。將上述3種深度學(xué)習(xí)模型與基于手工特征的傳統(tǒng)分類器進行了比較。使用高斯支持向量機獲得了傳統(tǒng)分類器的最佳分類結(jié)果,準(zhǔn)確率為89.60%,具有良好的動作識別效果。

    在對表面肌電信號進行特征提取的過程中,容易丟失重要信息,并且目前技術(shù)水平區(qū)分康復(fù)動作較少且分類精度有待提高。Zhong等[31]為了解決這些難題,提出了一種多尺度時頻信息融合表示法(multiscale time-frequency information fusion representation method,MTFIFR)來獲取多通道表面肌電信號的時頻特征。研究利用4個表面肌電信號傳感器識別12種上肢康復(fù)動作,使用多特征融合網(wǎng)絡(luò)(Multiple Feature Fusion Network,MFFN)增強特征提取能力,減少了網(wǎng)絡(luò)各部分的特征損失和參數(shù)個數(shù),并使用深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)作為MFFN的分類模型捕捉表面肌電信號的內(nèi)在特征,以提高對多種類型上肢運動的泛化能力,實驗結(jié)果得出,最高識別正確率為86.10%,平均分類正確率為73.49%,表明該時頻表示方法優(yōu)于傳統(tǒng)的機器學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò),證明多特征融合網(wǎng)絡(luò)結(jié)構(gòu)對于表面肌電信號是有意義的。然而在該網(wǎng)絡(luò)體系結(jié)構(gòu)中,表面肌電信號的時頻特征提取過程中可能存在冗余特征,未來需要不斷提升特征融合網(wǎng)絡(luò)框架的性能,才能將其應(yīng)用于康復(fù)醫(yī)學(xué)領(lǐng)域。

    腦卒中的高致殘率導(dǎo)致許多患者不同程度的手部功能障礙,基于手勢識別的手部虛擬康復(fù)系統(tǒng)可達到良好的人機交互和康復(fù)效果,而手勢分析和識別是技術(shù)的關(guān)鍵[32]。Amor等[33]綜述了近年來基于表面肌電信號的手勢識別系統(tǒng)的研究進展和面臨的挑戰(zhàn)?;诒砻婕‰娦盘柕氖謩葑R別中常用的分類器包括神經(jīng)網(wǎng)絡(luò)、支持向量機、KNN、CNN、LSTM和HMM。LSTM在處理EMG信號中的順序依賴關(guān)系方面受到高度重視,使其成為手語識別系統(tǒng)的關(guān)鍵組成部分。作者認為,在基于表面肌電的手語識別系統(tǒng)中,LSTM是最適合捕獲序列依賴關(guān)系和提高手勢識別性能的算法。Liu等[34]提出了一種新的多通道融合方案,對深度學(xué)習(xí)中的時間卷積網(wǎng)絡(luò)(TCN)進行了改進,并與MSFS方法相結(jié)合,測試數(shù)據(jù)表明,將MSFS與改進的TCN相結(jié)合,可以顯著提高實時手勢識別的準(zhǔn)確率,準(zhǔn)確率為93.69%。

    每年因嚴重外傷、嚴重感染、惡性腫瘤等各種原因進行截肢手術(shù)的患者不斷增多,截肢者存在較低水平的日常生活能力,實現(xiàn)假手的自由控制可有效提高截肢者生活質(zhì)量,Li等[35]也綜述了近年來基于深度學(xué)習(xí)的表面肌電信號的假手運動意圖識別技術(shù)的研究進展,并表示基于深度學(xué)習(xí)技術(shù)在利用表面肌電信號準(zhǔn)確解釋截肢者的運動意圖方面具有很大的潛力,這對智能假手的發(fā)展具有重要意義。然而,個體差異、實時可用性、長期穩(wěn)定性和sEMG的高變異性、數(shù)據(jù)的缺乏、硬件設(shè)備的缺少等原因仍然是技術(shù)發(fā)展的關(guān)鍵問題。目前的技術(shù)只能使用有限數(shù)量的模式進行離散分類,并不能解決上肢獨立的、連續(xù)的自然運動,未來的研究需重點解決此類問題。并且未來的研究,可嘗試納入智能假手的反饋信息,不斷完善智能假手系統(tǒng)。

    Wei等[36]提出一種分層視圖池網(wǎng)絡(luò)(Hierarchical View Pooling Network,HVPN)框架,通過從分層匯集的多視點特征空間中學(xué)習(xí)特定視點的深層特征和視點共享的深層特征,改進了基于表面肌電信號的多通道手勢識別。Wei等[37]還發(fā)現(xiàn)了一種漸進融合網(wǎng)絡(luò)(Progressive Fusion Network,PFNet)框架,通過融合領(lǐng)域知識引導(dǎo)的特征工程和深度特征學(xué)習(xí)來改進基于表面肌電信號的手部運動識別,采用三階段漸進融合策略將2個網(wǎng)絡(luò)逐步融合在一起。測試結(jié)果得出,這2種方法均具有較高的準(zhǔn)確度。

    Li等[38]提出了一種(Inception-Max Pooling-Squeeze-Excitation,IMSE)模型來拓寬特征圖像的通道信息。實驗提取表面肌電信號的4個代表性特征:2個時域特征IEMG和RMS以及2個頻域特征MDF和MNF得到多視圖融合的表面肌電信號圖,由改良的IMSE模塊、簡單卷積殘差塊、簡單卷積層組成的特征編碼器作為多視點學(xué)習(xí)的預(yù)處理網(wǎng)絡(luò),并以SWT(Swin Transformer)作為分類骨干網(wǎng)絡(luò),從而構(gòu)成了多視圖學(xué)習(xí)網(wǎng)絡(luò),實驗結(jié)果得出該網(wǎng)絡(luò)對手勢動作分類的平均正確率達到93.96%,顯著提高了分類精度。

    Guo等[39]提出了一種靈活便攜的、舒適安全的基于表面肌電信號的可穿戴康復(fù)手套,利用由表面肌電信號控制的先進的線性集成執(zhí)行器產(chǎn)生的輔助力,可提供輔助力量訓(xùn)練手指,并且可基于鏡面療法和任務(wù)導(dǎo)向療法的理論進行康復(fù)練習(xí)。該手套集成4個表面肌電信號傳感器和深度學(xué)習(xí)算法(1D-CNN算法和InceptionTime算法)。可穿戴手康復(fù)系統(tǒng)具有顯著影響腦卒中癱瘓患者的運動恢復(fù)的潛力,意味著深度學(xué)習(xí)技術(shù)應(yīng)用于康復(fù)領(lǐng)域進展更進一步。

    Lehmler等[40]采集手部運動的數(shù)據(jù),從精度、數(shù)據(jù)需求和訓(xùn)練時間3個方面,深入分析和比較深度學(xué)習(xí)基于sEMG解碼特定主題建模和遷移學(xué)習(xí)等2種常用的方法在解決應(yīng)用有限數(shù)量的訓(xùn)練數(shù)據(jù)校準(zhǔn)深度學(xué)習(xí)模型的差異,實驗結(jié)果得出,與特定主題建模相比,基于微調(diào)的遷移學(xué)習(xí)在較少的訓(xùn)練周期和較少的重復(fù)次數(shù)后就達到了較高的精度,該技術(shù)的創(chuàng)新發(fā)現(xiàn)具有廣泛應(yīng)用的潛力。

    Zhang等[41]開發(fā)了一種基于表面肌電的長短期變壓器特征融合網(wǎng)絡(luò)(A Long Shortterm Transformer Feature Fusion Network),簡稱LST-EMG-Net。該方法主要由長時短時編碼和特征交叉注意兩部分組成,在稀疏肌電數(shù)據(jù)集和高密度表面肌電信號數(shù)據(jù)集上都保持了對所有類型手勢識別的高精度。與其他網(wǎng)絡(luò)結(jié)構(gòu)相比,它提高了手勢識別的穩(wěn)定性。未來,需要不斷改進LST-EMG-Net框架,實現(xiàn)跨主體手勢識別,從而實現(xiàn)深度學(xué)習(xí)技術(shù)快速高效應(yīng)用于康復(fù)領(lǐng)域。

    3.2" 基于sEMG下肢運動意圖識別深度學(xué)習(xí)模型

    譚智峰等[42]以股直肌、股外側(cè)肌、股內(nèi)側(cè)肌、半腱、股二頭肌、腓骨長肌、內(nèi)側(cè)腓腸肌和外側(cè)腓腸肌等8塊肌肉為研究對象,通過采集受試者進行站立動作、站立單抬腿動作、坐立動作、坐立單抬腿動作和邁步動作等5種康復(fù)訓(xùn)練動作時相應(yīng)的表面肌電信號,選用截止點為20 Hz(低)和450 Hz(高)的有限脈沖響應(yīng)帶通濾波器對sEMG信號進行處理,然后進行特征提取,使用密集連接卷積神經(jīng)網(wǎng)絡(luò)(DenseNet)對sEMG信號進行識別。結(jié)果顯示,本研究基于DenseNet 網(wǎng)絡(luò)模型識別下肢康復(fù)動作的方法準(zhǔn)確率、精確率、召回率、F1值分別為83.73%、82.56%、86.94%、84.69%,與傳統(tǒng)的機器學(xué)習(xí)方法相比,具有更好的識別效果。

    Yang等[43]提出了一種融合卷積神經(jīng)網(wǎng)絡(luò)和手工特征的人-外骨骼接口,構(gòu)建了偏癱患者下肢運動預(yù)測框架(HCSNet)。通過采集下肢表面肌電信號進行實驗,將HCSNet與3種最新的基于深度學(xué)習(xí)的運動預(yù)測模型(MCSNet、GoogLeNet和ResNet)進行比較。結(jié)果表明,在組內(nèi)設(shè)計或者組間設(shè)計情況下,HCSNet都具有較好的運動預(yù)測性能。

    Yu等[44]開發(fā)了一種便攜式sEMG信號采集設(shè)備,還開發(fā)了一款對表面肌電信號進行實時監(jiān)測和分析的移動應(yīng)用程序,解決sEMG信號采集設(shè)備長時間佩戴引起不便的缺點,具有繪圖、過濾、存儲以及動作捕捉和識別等功能,該實驗收集了6種下肢康復(fù)訓(xùn)練動作(踢腿、腳尖離地、腳跟離地、腳尖離地和腳跟離地、后退和踢腿,以及完整的步行運動)的表面肌電信號,這6種動作從簡單的單肌肉運動過渡到復(fù)雜的多個肌群的協(xié)調(diào)運動,由站立訓(xùn)練到步行訓(xùn)練、由易到難漸進性運動,有助于患者逐漸恢復(fù)下肢肌肉功能和步態(tài)協(xié)調(diào)性,從而實現(xiàn)更全面和更有效的康復(fù)訓(xùn)練。通過采集上述動作相應(yīng)的表面肌電信號訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(CNN),實驗結(jié)果表明,所有動作的識別準(zhǔn)確率均超過97%,最高準(zhǔn)確率為97.96%,實現(xiàn)了對人體下肢動作的高精度識別性能,還為下肢運動功能康復(fù)的評定提供可靠的信息。未來基于智能手機的生理電信號連續(xù)監(jiān)測系統(tǒng)將成為運動意圖識別研究的一個重要發(fā)展趨勢。

    Liang等[5]提出了一種基于緊耦合卷積轉(zhuǎn)換器(Tightly Coupled Convolutional Transformer,TCCT)的端對端的模型表面肌電信號方法來預(yù)測人體膝關(guān)節(jié)角度,TCCT模型結(jié)合了Informer和CNN的優(yōu)點,能夠?qū)W習(xí)信號的更深層次的特性。研究采集了5名健康受試者的表面肌電信號,經(jīng)過去噪后提取作為模型的輸入,使用TCCT模型來預(yù)測100 ms后的膝關(guān)節(jié)角度。對預(yù)測性能進行分析,模型的均方根誤差、調(diào)整R2和皮爾遜相關(guān)系數(shù)的平均值分別為3.79°、0.96和0.98,預(yù)測時間為11.67±0.67 ms,優(yōu)于傳統(tǒng)的深度學(xué)習(xí)模型。結(jié)果表明,該模型能夠快速、準(zhǔn)確地預(yù)測人體膝關(guān)節(jié)角度,在改善康復(fù)機器人的人機交互方面具有很大的潛力。

    Rezaie等[45]提出了一種集成了雙向長短期記憶(Bidirectional Long Short-term Memory,BiLSTM)網(wǎng)絡(luò)和注意機制(Attention Mechanism,AM)的基于深度學(xué)習(xí)的關(guān)節(jié)運動學(xué)穩(wěn)健估計模型(AM-BiLSTM),通過采集14名受試者跑步時的表面肌電信號和膝關(guān)節(jié)角度,對該模型進行評估,將AM-BiLSTM模型在內(nèi)場景和不同場景中測試與標(biāo)準(zhǔn)的長短期記憶網(wǎng)絡(luò)和多層感知器網(wǎng)絡(luò)(Multi-Layer Perceptron,MLP)網(wǎng)絡(luò)進行比較,結(jié)果都顯著優(yōu)于LSTM和MLP方法(plt;0.05),并且達到了較高的性能。該模型為改善康復(fù)機器人的人機交互方面提供了一種新方法,未來不斷改進技術(shù)可應(yīng)用于運動功能障礙患者在康復(fù)訓(xùn)練中直觀地控制外骨骼機器人,促進了基于深度學(xué)習(xí)sEMG的康復(fù)機器人實現(xiàn)更優(yōu)的人機交互。

    Li等[46]提出了一種基于粒子群優(yōu)化(particle swarm Optimization,PSO)和深度信念網(wǎng)絡(luò)(Deep Belief Network,DBN)融合的具有參數(shù)自更新機制的膝關(guān)節(jié)連續(xù)運動估計模型。該方法可自適應(yīng)地優(yōu)化DBN模型的參數(shù),在高維空間完成信號特征結(jié)構(gòu)的最優(yōu)重構(gòu)。實驗結(jié)果得出,該模型優(yōu)于傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)的預(yù)測結(jié)果。未來將測試復(fù)雜的運動模式實現(xiàn)關(guān)節(jié)肌肉活動的連續(xù)性的運動估計,不斷完善模型。

    4" 結(jié)束語

    本文綜述了深度學(xué)習(xí)在基于sEMG和EEG運動意圖識別的進展,重點介紹了其中的一些創(chuàng)新技術(shù),在康復(fù)機器人領(lǐng)域取得了很大的進步,并提出了康復(fù)機器人未來發(fā)展的趨勢,但都仍面臨著許多困難和挑戰(zhàn),目前的發(fā)展現(xiàn)狀仍處于探索階段。

    第一,盡管近年來提出了不少對運動意圖識別的創(chuàng)新性方法,分類準(zhǔn)確率整體提高,而實際上,很難找到一種分類模型方法能夠完全識別所有人體運動意圖,并且很難對不同的方法進行有效地比較,即使是對同一動作的運動意圖識別,由于不同的環(huán)境、受試者差異、實驗設(shè)備等各種原因,即使使用同一種模型分類方法進行測試,分類準(zhǔn)確度也可能相差甚遠。并且,未來還需要開發(fā)更多運動訓(xùn)練動作種類的運動意圖識別,實現(xiàn)在三維空間內(nèi)患肢各個關(guān)節(jié)訓(xùn)練的運動意圖高精度的分類識別。還有,目前基于運動意圖識別的康復(fù)機器人的研究缺乏統(tǒng)一的行業(yè)標(biāo)準(zhǔn),包括環(huán)境要求、數(shù)據(jù)的采集,受試者的選擇,實驗室設(shè)備的參數(shù)或條件及評價手段等,這既是康復(fù)機器人行業(yè)技術(shù)能力的體現(xiàn),也是康復(fù)機器人行業(yè)高質(zhì)量發(fā)展的需要。

    第二,目前還缺乏高質(zhì)量、標(biāo)準(zhǔn)化的公開數(shù)據(jù)集,大多數(shù)研究使用的數(shù)據(jù)集是自己收集的,實驗樣本量也普遍較少,導(dǎo)致試驗證據(jù)質(zhì)量較低,因此,很難對不同的深度學(xué)習(xí)分類模型進行有效地比較,未來需要設(shè)計完善多中心、大樣本和多學(xué)科交叉的研究試驗。在未來的工作中還應(yīng)注重建立標(biāo)準(zhǔn)化的數(shù)據(jù)采集方案以及開發(fā)新的校準(zhǔn)數(shù)據(jù)庫,進一步降低自主實驗的難度,并且便于不同方法之間的比較更加具體。

    第三,深度學(xué)習(xí)算法需要大量的數(shù)據(jù)進行訓(xùn)練,醫(yī)療數(shù)據(jù)存在安全隱私問題、醫(yī)療資源及硬件資源匱乏、訓(xùn)練時間冗長等原因,也使得目前極其缺乏數(shù)據(jù)集。基于sEMG或EEG信號的運動意圖識別方法仍處于實驗室階段,真正實現(xiàn)市場化的還很少,而且由于硬件設(shè)備結(jié)構(gòu)和材料等限制,大多康復(fù)機器人重量過重導(dǎo)致訓(xùn)練缺乏流暢性,不利于康復(fù)訓(xùn)練,未來發(fā)展需通過新材料、優(yōu)化機械結(jié)構(gòu)和驅(qū)動技術(shù)研發(fā)輕量化的康復(fù)機器人提高其舒適性和運動準(zhǔn)確性。

    最后,目前絕大多數(shù)實驗研究識別的是健康人的運動意圖,僅適用于特定用戶訓(xùn)練完成的,不同受試者之間數(shù)據(jù)變異性大,樣本遷移學(xué)習(xí)技術(shù)有望解決這一難題。除了需要提高模型的實時性和準(zhǔn)確性,還需要提高模型的自適應(yīng)式和魯棒性。機器人輔助康復(fù)治療的安全性、有效性需要大規(guī)模臨床試驗驗證,訓(xùn)練的安全性是首要,只有分類準(zhǔn)確度和人機交互性達到較高的水平,才能避免康復(fù)機器人輔助訓(xùn)練出現(xiàn)意外故障,才能真正應(yīng)用于臨床康復(fù)治療?;谶\動意圖識別的康復(fù)機器人的研究和推廣應(yīng)用有望解決目前緊缺的醫(yī)療康復(fù)資源矛盾,但目前發(fā)展還處于起步階段,真正實現(xiàn)利用其全面代替臨床醫(yī)生為患者進行康復(fù)訓(xùn)練還有很長的路要走。

    參考文獻:

    [1] 侯增廣,趙新剛,程龍,等.康復(fù)機器人與智能輔助系統(tǒng)的研究進展[J].自動化學(xué)報,2016,42(12):1765-1779.

    [2] LOTZE M. Motor learning elicited by voluntary drive[J]. Brain, 2003,126(4): 866-872.

    [3] 張偉,孟青云,李敏吉.機器學(xué)習(xí)在康復(fù)機器人研究中的應(yīng)用[J].軟件,2022,43(9):87-90.

    [4] LOTZE M. Motor learning elicited by voluntary drive[J]. Brain, 2003,126(4): 866-872.

    [5] LIANG T, SUN N, WANG Q, et al. sEMG-Based End-to-End Continues Prediction of Human Knee Joint Angles Using the Tightly Coupled Convolutional Transformer Model[J]. IEEE Journal of Biomedical and Health Informatics, 2023,27(11): 5272-5280.

    [6] 曹夢琳,陳宇豪,王玨,等.基于表面肌電圖的人體運動意圖識別研究進展[J].中國康復(fù)理論與實踐,2021,27(5):595-603.

    [7] 楊烈.基于深度學(xué)習(xí)的MI-EEG解碼方法及其在腦-機接口系統(tǒng)中的應(yīng)用研究[D].廣州:華南理工大學(xué),2021.

    [8] MA W, WANG C, SUN X, et al. MBGA-Net: A multi-branch graph adaptive network for individualized motor imagery EEG classification[J]. Computer Methods and Programs in Biomedicine, 2023,240: 107641.

    [9] ATHANASIA T ,EFTHIMIOS D, KONSTANTINOS P, et al.EEG in Neurorehabilitation: A Bibliometric Analysis and Content Review[J].Neurology International,2022,14(4):1046-1061.

    [10] NICOLAS-ALONSO L F, GOMEZ-GIL J. Brain Computer Interfaces, a Review[J]. Sensors, 2012,12(2): 1211-1279.

    [11] 楊幫華,馬駿,邱文政.面向腦卒中疾病的運動想象腦機接口技術(shù)[J].人工智能,2021(6):70-78.

    [12] 郭娑,張艷明,申鈺涵.卒中后運動功能康復(fù)的腦可塑性理論的研究進展[J].中國老年保健醫(yī)學(xué),2018,16(3):57-61.

    [13] 李翔,陳健爾,張輝煌,等.腦機接口康復(fù)訓(xùn)練機器人在腦卒中患者上肢功能康復(fù)中的研究進展[J].中國康復(fù)醫(yī)學(xué)雜志,2023,38(2):263-268.

    [14] 謝朋洋,郭亮?xí)?,李?基于深度學(xué)習(xí)的EEG信號處理技術(shù)與前沿應(yīng)用[J].中國體視學(xué)與圖像分析,2021,26(1):1-12.

    [15] ZHANG R, CHEN Y, XU Z, et al. Recognition of single upper limb motor imagery tasks from EEG using multi-branch" fusion convolutional neural network[J]. Front Neurosci,2023,17:1129049.

    [16] NAGARAJAN A, ROBINSON N, ANG K K, et al. Transferring a deep learning model from healthy subjects to stroke patients in a motor imagery brain-computer interface[J].Journal of Neural Engineering, 2024,21(1): 16007.

    [17] XU F, YAN Y, ZHU J, et al. Self-Supervised EEG Representation Learning with Contrastive Predictive Coding" for Post-Stroke Patients[J]. Int J Neural Syst,2023,33(12):2350066.

    [18] JAIN A, KUMAR L. EEG Cortical Source Feature based Hand Kinematics Decoding using Residual" CNN-LSTM Neural Network[J]. Annu Int Conf IEEE Eng Med Biol Soc,2023:1-4.

    [19] CHO J, JEONG J, LEE S. NeuroGrasp: Real-Time EEG Classification of High-Level Motor Imagery Tasks Using a Dual-Stage Deep Learning Framework[J]. IEEE Transactions on Cybernetics,2022,52(12):13279-13292.

    [20] CAO L, WU H, CHEN S, et al. A Novel Deep Learning Method Based on an Overlapping Time Window Strategy for" Brain-Computer Interface-Based Stroke Rehabilitation[J].Brain Sci,2022,12(11).

    [21] SERGIO P, EDUARDO S, VICTOR M, et al. EEGSym: Overcoming Inter-Subject Variability in Motor Imagery Based BCIs With Deep Learning[J]. IEEE Transactions on Neural Systems and Rehabilitation Engineering,2022,30:1766-1775.

    [22] BI J, CHU M, WANG G, et al. TSPNet: a time-spatial parallel network for classification of EEG-based" multiclass upper limb motor imagery BCI[J]. Front Neurosci, 2023,17:1303242.

    [23] JEONG J H, KIM D J, KIM H .Hybrid Zero-Training BCI based on Convolutional Neural Network for Lower-limb Motor-Imagery[C]//International Winter Conference on Brain-Computer Interface.IEEE,2021.

    [24] ZHANG J, LIU D, CHEN W, et al. Boosting lower-limb motor imagery performance through an ensemble method for gait rehabilitation[J]. Computers in Biology and Medicine, 2024,169:107910.

    [25] ORTEGA P, FAISAL A A. Deep learning multimodal fNIRS and EEG signals for bimanual grip force decoding[J]. J Neural Eng,2021,18(4).

    [26] 王維振,曲皓,雷楊浩,等.下肢運動想象腦機接口的研究進展及康復(fù)應(yīng)用[J].北京生物醫(yī)學(xué)工程,2023,42(2):204-211.

    [27] FERRERO L, QUILES V, SORIANO-SEGURA P, et al. Transfer Learning with CNN Models for Brain-Machine Interfaces to command lower-limb exoskeletons: A Solution for Limited Data[J]. Annual International Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering in Medicine and Biology Society. Annual International Conference,2023:1.

    [28] ASANZA V, LORENTE-LEYVA L L, PELUFFO-ORDó?EZ D H, et al. MILimbEEG: A dataset of EEG signals related to upper and lower limb execution of motor and motor imagery tasks[J]. Data in Brief,2023,50:109540.

    [29] KHATTAK A S, ZAIN A, HASSAN R B, et al. Hand gesture recognition with deep residual network using Semg signal[J]. Biomed Tech(Berl),2024:4196-4199.

    [30] ELBESHBESHY A M, RUSHDI M A, EL-METWALLY S M. Electromyography Signal Analysis and Classification using Time-Frequency" Representations and Deep Learning[J]. Annu Int Conf IEEE Eng Med Biol Soc,2021:661-664.

    [31] ZHONG T, LI D, WANG J, et al. Fusion Learning for sEMG Recognition of Multiple Upper-Limb Rehabilitation Movements[J]. Sensors,2021,21(16):5385.

    [32] 王新宇.基于動態(tài)手勢識別的手部虛擬康復(fù)系統(tǒng)關(guān)鍵技術(shù)研究[D].南昌:南昌大學(xué),2022.

    [33] AMOR H B A, GHOUL E O, JEMNI M. Sign Language Recognition Using the Electromyographic Signal: A Systematic Literature Review[J]. Sensors (Basel, Switzerland),2023,23(19):8343.

    [34] LIU X, WANG J, HAN T, et al. Real-Time Control of Intelligent Prosthetic Hand Based on the Improved TCN[J]. Applied Bionics and Biomechanics,2022:1-13.

    [35] LI W, SHI P, YU H. Gesture Recognition Using Surface Electromyography and Deep Learning for Prostheses Hand: State-of-the-Art, Challenges, and Future[J]. Frontiers in neuroscience,2021,15:621885.

    [36] WEI W, HONG H, WU X. A Hierarchical View Pooling Network for Multichannel Surface Electromyography-Based Gesture Recognition[J].Computational Intelligence and Neuroscience,2021:1-13.

    [37] WEI W, HU X, LIU H, et al. Towards Integration of Domain Knowledge-Guided Feature Engineering and Deep Feature Learning in Surface Electromyography-Based Hand Movement Recognition[J]. Computational Intelligence and Neuroscience,2021:1-13.

    [38] LI G, ZOU C, JIANG G, et al. Multi-view fusion network-based gesture recognition using sEMG data[J]. IEEE Journal of Biomedical and Health Informatics,2023:1-13.

    [39] GUO K, ORBAN M, LU J, et al. Empowering Hand Rehabilitation with AI-Powered Gesture Recognition: A Study of an sEMG-Based System[J]. Bioengineering,2023,10(5): 557.

    [40] LEHMLER S J, SAIF-UR-REHMAN M, TOBIAS G, et al. Deep transfer learning compared to subject-specific models for sEMG decoders[J]. J Neural Eng,2022,19(5).

    [41] ZHANG W, ZHAO T, ZHANG J, et al. LST-EMG-Net: Long short-term transformer feature fusion network for sEMG gesture recognitio[J].Frontiers in Neurorobotics,2023,17.

    [42] 譚智峰,張磊,苗娟,等.基于sEMG信號的下肢康復(fù)動作識別算法[J].科技創(chuàng)新與應(yīng)用,2023,13(34):37-40.

    [43] YANG X, FU Z, LI B, et al. An sEMG-Based Human-Exoskeleton Interface Fusing Convolutional Neural Networks" With Hand-Crafted Feature[J].Front Neurorobot,2022,16: 938345.

    [44] YU S, ZHAN H, LIAN X, et al. A Smartphone-Based sEMG Signal Analysis System for Human Action Recognition[J]. Biosensors(Basel),2023,13(8):2079-6374.

    [45] REZAIE A Z, OLUWAROTIMI S W, ALI A, et al., et al. An Attention-based Bidirectional LSTM Model for Continuous Cross-Subject Estimation of Knee Joint Angle during Running from sEMG Signals[J]. Annual International Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering in Medicine and Biology Society. Annual International Conference,2023:14.

    [46] LI J, LI K, ZHANG J, et al. Continuous Motion Estimation of Knee Joint Based on a Parameter Self-Updating Mechanism Model[J]. Bioengineering,2023,10(9):1028.

    第一作者簡介:陳偉聰(1996-),男,碩士研究生,住院醫(yī)師。研究方向為康復(fù)醫(yī)學(xué)智能化。

    *通信作者:賴昌生(1970-),男,碩士,三級教授。研究方向為計算機在醫(yī)藥領(lǐng)域的應(yīng)用。

    猜你喜歡
    深度學(xué)習(xí)人工智能
    我校新增“人工智能”本科專業(yè)
    2019:人工智能
    商界(2019年12期)2019-01-03 06:59:05
    人工智能與就業(yè)
    數(shù)讀人工智能
    小康(2017年16期)2017-06-07 09:00:59
    有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    午夜亚洲福利在线播放| 国产在视频线精品| 嫩草影院新地址| 狂野欧美激情性xxxx在线观看| 青春草亚洲视频在线观看| 毛片一级片免费看久久久久| 99久国产av精品| 精品久久久噜噜| 国产精品一区二区三区四区免费观看| 精品久久久久久久久亚洲| 国产亚洲最大av| 精品一区二区三区视频在线| 乱码一卡2卡4卡精品| 少妇高潮的动态图| 26uuu在线亚洲综合色| 国产精品爽爽va在线观看网站| 久久久色成人| 99热这里只有是精品在线观看| 欧美xxxx性猛交bbbb| 国产乱来视频区| 99久国产av精品| 亚洲美女搞黄在线观看| 久久久a久久爽久久v久久| 天堂网av新在线| 小蜜桃在线观看免费完整版高清| 欧美+日韩+精品| 三级男女做爰猛烈吃奶摸视频| 1000部很黄的大片| av播播在线观看一区| 草草在线视频免费看| av又黄又爽大尺度在线免费看 | 日韩欧美精品免费久久| 在线免费十八禁| 干丝袜人妻中文字幕| 久久久久久久久久久丰满| 国产探花在线观看一区二区| 久久久久免费精品人妻一区二区| 一个人看的www免费观看视频| 身体一侧抽搐| 亚洲欧美精品专区久久| 草草在线视频免费看| 精品久久国产蜜桃| 最近中文字幕高清免费大全6| 国产亚洲av嫩草精品影院| 一级黄片播放器| 九九爱精品视频在线观看| 中文字幕久久专区| 国产精品99久久久久久久久| 小说图片视频综合网站| 日本五十路高清| 免费av毛片视频| 天堂影院成人在线观看| 欧美高清性xxxxhd video| 国产色爽女视频免费观看| 亚洲成av人片在线播放无| 一个人看视频在线观看www免费| 国产成人午夜福利电影在线观看| kizo精华| 亚洲精品乱码久久久v下载方式| www.色视频.com| 国产成人免费观看mmmm| 国产精品一及| 青春草亚洲视频在线观看| 免费观看性生交大片5| 69av精品久久久久久| 久久午夜福利片| 亚洲最大成人手机在线| 日韩一区二区三区影片| 国产又色又爽无遮挡免| 国产真实伦视频高清在线观看| 国产精品女同一区二区软件| 国产亚洲一区二区精品| 女人久久www免费人成看片 | 如何舔出高潮| 最近中文字幕2019免费版| 国产成人91sexporn| 亚洲高清免费不卡视频| 亚洲在线自拍视频| 午夜日本视频在线| 女人十人毛片免费观看3o分钟| 国产一级毛片在线| 小说图片视频综合网站| 五月玫瑰六月丁香| 人妻系列 视频| 亚洲欧美成人精品一区二区| 26uuu在线亚洲综合色| 亚洲精品影视一区二区三区av| 亚洲国产精品久久男人天堂| 麻豆久久精品国产亚洲av| 久久久国产成人精品二区| 一级av片app| 国产乱人偷精品视频| 亚洲三级黄色毛片| 女人久久www免费人成看片 | 国产视频内射| 免费看光身美女| 精华霜和精华液先用哪个| 国产免费视频播放在线视频 | 国产精品.久久久| 26uuu在线亚洲综合色| 校园人妻丝袜中文字幕| 国语对白做爰xxxⅹ性视频网站| 亚洲国产高清在线一区二区三| 特级一级黄色大片| 国产av码专区亚洲av| 久久欧美精品欧美久久欧美| 亚洲怡红院男人天堂| АⅤ资源中文在线天堂| 日本黄色片子视频| 精品不卡国产一区二区三区| 久久久久久国产a免费观看| 狂野欧美白嫩少妇大欣赏| 人人妻人人看人人澡| 国产av在哪里看| 视频中文字幕在线观看| av在线老鸭窝| 国产三级中文精品| 一个人观看的视频www高清免费观看| av线在线观看网站| 国内少妇人妻偷人精品xxx网站| 国产亚洲最大av| 久久精品国产99精品国产亚洲性色| 黄色配什么色好看| 亚洲18禁久久av| 能在线免费观看的黄片| 熟妇人妻久久中文字幕3abv| 国产成人91sexporn| 久久久久网色| 国产精品99久久久久久久久| 亚洲av免费在线观看| 能在线免费观看的黄片| 亚洲色图av天堂| 高清日韩中文字幕在线| 非洲黑人性xxxx精品又粗又长| 国产伦一二天堂av在线观看| 亚洲av免费在线观看| 国产美女午夜福利| 国产精品一区二区三区四区免费观看| 少妇的逼好多水| 久久精品国产亚洲网站| 免费av不卡在线播放| 中文精品一卡2卡3卡4更新| 午夜爱爱视频在线播放| 中文在线观看免费www的网站| 中文字幕制服av| 午夜亚洲福利在线播放| 久久久久网色| 中文字幕亚洲精品专区| 成人综合一区亚洲| av福利片在线观看| 一区二区三区高清视频在线| 亚洲成人中文字幕在线播放| 国产国拍精品亚洲av在线观看| 少妇裸体淫交视频免费看高清| 最后的刺客免费高清国语| 最近的中文字幕免费完整| 天堂影院成人在线观看| 国产精品99久久久久久久久| 日本-黄色视频高清免费观看| 亚洲欧美精品专区久久| 麻豆国产97在线/欧美| 69人妻影院| 精品人妻熟女av久视频| 内地一区二区视频在线| 波多野结衣巨乳人妻| 三级经典国产精品| 国产熟女欧美一区二区| 亚洲真实伦在线观看| 七月丁香在线播放| 天美传媒精品一区二区| 国产精品美女特级片免费视频播放器| av线在线观看网站| 国产伦理片在线播放av一区| 寂寞人妻少妇视频99o| 免费播放大片免费观看视频在线观看 | 日本免费在线观看一区| 精华霜和精华液先用哪个| 国产精品爽爽va在线观看网站| 午夜精品在线福利| 日本三级黄在线观看| 内射极品少妇av片p| 中文字幕av成人在线电影| 色吧在线观看| 亚洲aⅴ乱码一区二区在线播放| 非洲黑人性xxxx精品又粗又长| 国产免费又黄又爽又色| 一级黄色大片毛片| 少妇人妻一区二区三区视频| 亚洲欧洲日产国产| 免费观看的影片在线观看| 内地一区二区视频在线| 免费看光身美女| 国产一区二区三区av在线| a级毛片免费高清观看在线播放| 丰满少妇做爰视频| 久热久热在线精品观看| 日韩在线高清观看一区二区三区| 我的老师免费观看完整版| 草草在线视频免费看| 一夜夜www| 少妇人妻精品综合一区二区| 久久久久久久亚洲中文字幕| 国产黄片美女视频| 久久热精品热| 亚洲av免费在线观看| 一边摸一边抽搐一进一小说| 久久草成人影院| 日韩成人伦理影院| 精品人妻偷拍中文字幕| 国产精品一及| 18禁在线无遮挡免费观看视频| 欧美成人精品欧美一级黄| 高清视频免费观看一区二区 | 91aial.com中文字幕在线观看| 久久久精品欧美日韩精品| 国产精品久久久久久精品电影小说 | 高清毛片免费看| 天天一区二区日本电影三级| 亚洲精品成人久久久久久| 成人特级av手机在线观看| 亚洲av免费高清在线观看| 成人亚洲欧美一区二区av| 国产真实伦视频高清在线观看| 国产精品爽爽va在线观看网站| 久99久视频精品免费| 国产高清三级在线| 国产老妇女一区| 国产精品一及| 一区二区三区免费毛片| 亚洲人成网站在线播| 不卡视频在线观看欧美| 国产亚洲5aaaaa淫片| 国产成人福利小说| 午夜精品在线福利| 国产综合懂色| 欧美日韩综合久久久久久| 热99在线观看视频| 日韩成人av中文字幕在线观看| 超碰97精品在线观看| 亚洲国产日韩欧美精品在线观看| 日韩一本色道免费dvd| 变态另类丝袜制服| 禁无遮挡网站| 国产精品伦人一区二区| 亚洲精华国产精华液的使用体验| 久久欧美精品欧美久久欧美| 国产视频首页在线观看| 中文字幕精品亚洲无线码一区| 可以在线观看毛片的网站| av.在线天堂| 久久精品久久久久久噜噜老黄 | 国产白丝娇喘喷水9色精品| 久久精品久久久久久噜噜老黄 | 亚洲色图av天堂| 久久亚洲精品不卡| 插阴视频在线观看视频| 久久久久久久久久久丰满| 国产av码专区亚洲av| av又黄又爽大尺度在线免费看 | 亚洲在线自拍视频| 国产成人精品久久久久久| 亚洲av福利一区| 久久久久网色| 波多野结衣巨乳人妻| 亚洲激情五月婷婷啪啪| 乱人视频在线观看| 久久99热6这里只有精品| 日韩国内少妇激情av| 久久精品国产自在天天线| 日韩av在线大香蕉| 男人狂女人下面高潮的视频| 特级一级黄色大片| 免费观看a级毛片全部| 丝袜美腿在线中文| 亚洲美女搞黄在线观看| 久久精品91蜜桃| 我的女老师完整版在线观看| 国产在视频线精品| 亚洲人成网站高清观看| 亚洲第一区二区三区不卡| 国国产精品蜜臀av免费| 成人性生交大片免费视频hd| 亚洲av中文字字幕乱码综合| 亚洲精品乱码久久久久久按摩| 国产高清国产精品国产三级 | 麻豆精品久久久久久蜜桃| 国产欧美日韩精品一区二区| 亚洲精品自拍成人| 乱人视频在线观看| 特大巨黑吊av在线直播| 久久鲁丝午夜福利片| 在线观看一区二区三区| 男女视频在线观看网站免费| 最近最新中文字幕大全电影3| 全区人妻精品视频| АⅤ资源中文在线天堂| 能在线免费观看的黄片| 亚洲人成网站在线观看播放| 久久99精品国语久久久| 免费观看人在逋| 欧美成人午夜免费资源| 人体艺术视频欧美日本| 久久久久久久久久黄片| 国产精品久久久久久精品电影小说 | 亚洲最大成人手机在线| 国产探花在线观看一区二区| 亚洲精品久久久久久婷婷小说 | 欧美高清性xxxxhd video| 中文亚洲av片在线观看爽| АⅤ资源中文在线天堂| a级毛色黄片| 成年版毛片免费区| 搡女人真爽免费视频火全软件| 日本免费a在线| 欧美另类亚洲清纯唯美| 最近中文字幕2019免费版| 五月玫瑰六月丁香| 韩国av在线不卡| 久久久久久久久久成人| 色噜噜av男人的天堂激情| 一区二区三区免费毛片| 欧美一级a爱片免费观看看| 国内少妇人妻偷人精品xxx网站| 青春草亚洲视频在线观看| 中文字幕亚洲精品专区| 你懂的网址亚洲精品在线观看 | 成人一区二区视频在线观看| 只有这里有精品99| 卡戴珊不雅视频在线播放| 亚洲天堂国产精品一区在线| 亚洲av日韩在线播放| 超碰av人人做人人爽久久| 老司机福利观看| 亚洲欧美精品自产自拍| 变态另类丝袜制服| 亚洲aⅴ乱码一区二区在线播放| 亚洲天堂国产精品一区在线| 国产三级中文精品| 少妇猛男粗大的猛烈进出视频 | 国产成人a∨麻豆精品| 国产精品麻豆人妻色哟哟久久 | 2022亚洲国产成人精品| 国产精品爽爽va在线观看网站| 欧美极品一区二区三区四区| 日本黄色视频三级网站网址| 不卡视频在线观看欧美| 精品一区二区免费观看| 国产真实乱freesex| 亚洲成av人片在线播放无| 搡女人真爽免费视频火全软件| 水蜜桃什么品种好| 一个人看视频在线观看www免费| 国产精品国产三级国产av玫瑰| 成人性生交大片免费视频hd| 亚洲最大成人中文| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 老师上课跳d突然被开到最大视频| 我的老师免费观看完整版| 一级毛片久久久久久久久女| 欧美成人精品欧美一级黄| 国语自产精品视频在线第100页| 少妇人妻一区二区三区视频| 综合色丁香网| 十八禁国产超污无遮挡网站| 成人三级黄色视频| 男人狂女人下面高潮的视频| 男女下面进入的视频免费午夜| 欧美成人免费av一区二区三区| 精华霜和精华液先用哪个| 成人鲁丝片一二三区免费| 国产av在哪里看| 99久国产av精品国产电影| 中文亚洲av片在线观看爽| 最近手机中文字幕大全| 白带黄色成豆腐渣| 91久久精品国产一区二区三区| 99热这里只有精品一区| 亚洲中文字幕日韩| 青春草亚洲视频在线观看| 99热这里只有是精品50| av免费观看日本| 国产精品久久久久久精品电影小说 | 国产色婷婷99| 少妇丰满av| 男插女下体视频免费在线播放| 亚洲精华国产精华液的使用体验| 婷婷六月久久综合丁香| 国产淫片久久久久久久久| 岛国毛片在线播放| or卡值多少钱| 十八禁国产超污无遮挡网站| 精华霜和精华液先用哪个| 熟女人妻精品中文字幕| 一个人看视频在线观看www免费| 亚洲美女视频黄频| 男插女下体视频免费在线播放| kizo精华| 国内揄拍国产精品人妻在线| 国模一区二区三区四区视频| 午夜免费男女啪啪视频观看| 高清日韩中文字幕在线| 久久精品久久久久久久性| 欧美三级亚洲精品| 久久久久久国产a免费观看| 亚洲美女搞黄在线观看| 日本免费一区二区三区高清不卡| 国产精品爽爽va在线观看网站| 国产精品久久电影中文字幕| 国产成人精品久久久久久| 日韩成人av中文字幕在线观看| 搞女人的毛片| 一区二区三区免费毛片| 日本-黄色视频高清免费观看| 久久6这里有精品| 国产精品人妻久久久久久| 97超视频在线观看视频| 99热这里只有精品一区| 国产精品综合久久久久久久免费| 久久久久久大精品| 国产精品国产三级国产专区5o | av在线观看视频网站免费| 听说在线观看完整版免费高清| 最近2019中文字幕mv第一页| 91精品一卡2卡3卡4卡| 亚洲av中文av极速乱| 长腿黑丝高跟| 午夜精品在线福利| 最近最新中文字幕大全电影3| 亚洲中文字幕一区二区三区有码在线看| 国产精品一及| 久久国内精品自在自线图片| av在线老鸭窝| 日韩欧美 国产精品| 丰满乱子伦码专区| 日本黄色片子视频| 国产毛片a区久久久久| 热99在线观看视频| 春色校园在线视频观看| 毛片一级片免费看久久久久| 午夜精品一区二区三区免费看| 久久精品夜夜夜夜夜久久蜜豆| 麻豆av噜噜一区二区三区| 91午夜精品亚洲一区二区三区| 禁无遮挡网站| 人体艺术视频欧美日本| 天天躁日日操中文字幕| 搞女人的毛片| 久久综合国产亚洲精品| 18+在线观看网站| 国产精品三级大全| 欧美97在线视频| 国产私拍福利视频在线观看| 国产久久久一区二区三区| 成人三级黄色视频| 桃色一区二区三区在线观看| 国产三级中文精品| 水蜜桃什么品种好| 人妻夜夜爽99麻豆av| 大香蕉97超碰在线| 三级男女做爰猛烈吃奶摸视频| 卡戴珊不雅视频在线播放| 日韩,欧美,国产一区二区三区 | 亚洲无线观看免费| 舔av片在线| 国产精品野战在线观看| 国产欧美另类精品又又久久亚洲欧美| av线在线观看网站| 亚洲av成人精品一二三区| 欧美极品一区二区三区四区| 精华霜和精华液先用哪个| 婷婷色av中文字幕| 国产午夜精品久久久久久一区二区三区| 国产中年淑女户外野战色| 日韩欧美 国产精品| 久久久久网色| 人妻夜夜爽99麻豆av| 精品欧美国产一区二区三| 亚洲欧美精品自产自拍| 毛片女人毛片| 国产极品精品免费视频能看的| 亚洲欧美清纯卡通| 在线a可以看的网站| 99久久无色码亚洲精品果冻| 国产精品乱码一区二三区的特点| 国产欧美另类精品又又久久亚洲欧美| 亚洲久久久久久中文字幕| 久久精品国产自在天天线| 晚上一个人看的免费电影| 亚洲乱码一区二区免费版| 乱系列少妇在线播放| 亚洲国产高清在线一区二区三| 欧美成人a在线观看| 99久久九九国产精品国产免费| 欧美性感艳星| 国产成人午夜福利电影在线观看| 又粗又硬又长又爽又黄的视频| 国产精品久久电影中文字幕| 亚洲成人中文字幕在线播放| 婷婷色av中文字幕| 国产成人91sexporn| 国产av一区在线观看免费| 久久精品夜夜夜夜夜久久蜜豆| 中文字幕制服av| 欧美日韩精品成人综合77777| 99热这里只有是精品在线观看| 亚洲精品自拍成人| 少妇人妻精品综合一区二区| 三级国产精品欧美在线观看| 午夜老司机福利剧场| 国产精品一区二区在线观看99 | 草草在线视频免费看| 亚洲国产精品久久男人天堂| 色噜噜av男人的天堂激情| 一卡2卡三卡四卡精品乱码亚洲| 婷婷色综合大香蕉| 中文字幕免费在线视频6| 久久久久精品久久久久真实原创| 成人二区视频| 国产精品福利在线免费观看| 久久久国产成人精品二区| 少妇人妻一区二区三区视频| 蜜桃亚洲精品一区二区三区| 日韩中字成人| 18禁动态无遮挡网站| www日本黄色视频网| 欧美另类亚洲清纯唯美| 国产伦精品一区二区三区视频9| 午夜久久久久精精品| 久久久成人免费电影| 在线播放国产精品三级| 男女下面进入的视频免费午夜| 国产在线一区二区三区精 | 亚洲四区av| 日本黄大片高清| 麻豆成人午夜福利视频| 日韩人妻高清精品专区| 秋霞在线观看毛片| 日本五十路高清| 国产69精品久久久久777片| 国产精品无大码| 老司机福利观看| 九九久久精品国产亚洲av麻豆| 日韩欧美国产在线观看| 我的女老师完整版在线观看| 亚洲国产精品国产精品| 亚洲怡红院男人天堂| 国产综合懂色| 久久精品影院6| 精品久久久久久久人妻蜜臀av| 噜噜噜噜噜久久久久久91| 日韩欧美在线乱码| 亚洲av电影在线观看一区二区三区 | 亚洲18禁久久av| 国产欧美日韩精品一区二区| 噜噜噜噜噜久久久久久91| 特级一级黄色大片| 久久韩国三级中文字幕| 国产av码专区亚洲av| 久久久色成人| 亚洲av中文av极速乱| 又爽又黄无遮挡网站| 在线观看一区二区三区| 级片在线观看| 久久精品影院6| 91精品一卡2卡3卡4卡| 一夜夜www| .国产精品久久| 亚洲四区av| 男人舔奶头视频| 如何舔出高潮| 免费av毛片视频| 国产淫语在线视频| 我要看日韩黄色一级片| 亚洲最大成人中文| 女人十人毛片免费观看3o分钟| 在线a可以看的网站| 亚洲欧美日韩高清专用| 日韩人妻高清精品专区| 成人鲁丝片一二三区免费| 日韩精品有码人妻一区| 又黄又爽又刺激的免费视频.| 久久人人爽人人爽人人片va| 成人午夜精彩视频在线观看| 偷拍熟女少妇极品色| 三级经典国产精品| 国产精华一区二区三区| 纵有疾风起免费观看全集完整版 | 99国产精品一区二区蜜桃av| 插逼视频在线观看| 亚洲最大成人手机在线| 午夜福利网站1000一区二区三区| 99热全是精品| 最新中文字幕久久久久| 真实男女啪啪啪动态图| 国产黄a三级三级三级人| 国产伦一二天堂av在线观看| 一个人观看的视频www高清免费观看| 欧美日韩一区二区视频在线观看视频在线 | 亚洲美女搞黄在线观看| 国产一区亚洲一区在线观看| 看黄色毛片网站| 欧美zozozo另类| 成年女人看的毛片在线观看| 欧美xxxx性猛交bbbb| 97人妻精品一区二区三区麻豆| 高清在线视频一区二区三区 | 韩国高清视频一区二区三区| 久久亚洲精品不卡| 中文字幕久久专区| 亚洲av一区综合| 最近中文字幕2019免费版| 人妻少妇偷人精品九色| 中文欧美无线码| 又爽又黄a免费视频| 色综合站精品国产|