朱明揚,陳 鯨,楊學志,沈 晶,吳克偉
(1.合肥工業(yè)大學 計算機與信息學院,安徽 合肥 230601; 2.工業(yè)安全與應急技術安徽省重點實驗室,安徽 合肥 230601; 3.合肥工業(yè)大學 軟件學院,安徽 合肥 230601; 4.合肥師范學院 電子信息與電氣工程學院,安徽 合肥 230061; 5.安徽微波與通信工程技術研究中心,安徽 合肥 230061)
隨著計算機科學技術的進步,視頻圖像處理技術快速發(fā)展,并與醫(yī)療領域相結合,在醫(yī)學診斷和人體健康監(jiān)測等方面成為現(xiàn)代醫(yī)學的重要助力。在醫(yī)學領域,呼吸率是重要的健康指標,對呼吸率的監(jiān)測在呼吸疾病的預防方面具有重大意義。傳統(tǒng)的呼吸率檢測多為接觸式方法,通過傳感器探測人體因呼吸運動引起的變化來獲取呼吸率,該類方法需要在被測者身上粘貼傳感器,會引起諸多不便,且對于長期癲癇患者、燒傷患者、睡眠中患者難以實施?;谝曨l的呼吸率檢測方法是一種遠距離、非接觸式的生理測量方法,可以避免帶來患者身體上的不適,并提供長時間、自動化的呼吸率檢測,相比于接觸式檢測方法更具優(yōu)勢,是未來呼吸率檢測領域的發(fā)展方向。
近年來,基于視頻的呼吸率檢測方法得到了廣泛的研究。其中,從測量方法上可分為直接測量法和間接測量法。從心電信號、光電容積脈搏波或動脈血壓信號等信號中提取呼吸信號屬于間接測量。文獻[1]通過小波分析和經驗模態(tài)分解從光電容積脈搏波中提取呼吸率;文獻[2]通過連續(xù)小波變換從脈搏波信號中提取呼吸率,這些方法都是從已有的完整信號進行再研究,實時性不強?;跈C器視覺記錄胸部起伏的呼吸率檢測方法屬于直接測量。文獻[3]提出了基于最大似然的呼吸率檢測方法,但該方法沒有對呼吸區(qū)域進行預估,對全圖進行最大似然估計定位呼吸區(qū)域,因此算法時間復雜度較高;文獻[4]提出了基于相位的呼吸率檢測算法,該算法具有良好的抗噪性能,但是算法定位的呼吸區(qū)域過大,且后續(xù)在使用復可控金字塔分解獲取呼吸信號時沒有選擇呼吸運動方向,影響了算法整體速度;文獻[5]利用光流法加歐拉算法進行呼吸率檢測,實現(xiàn)對人體胸腹區(qū)域的準確定位,但對于整個視頻的放大處理和光流編碼需要龐大的計算開銷,最終影響整體算法實時性。
針對以上問題,本文提出了一種基于運動特征預估的呼吸率快速檢測方法。通過對視頻中呼吸運動區(qū)域和運動方向的預估,實現(xiàn)基于相位的呼吸率快速檢測。首先通過人臉檢測確定人臉區(qū)域,并結合人體頭身比選出胸部區(qū)域,然后建立呼吸信號模型,在人體呼吸率有效范圍內利用最大似然法精準定位呼吸區(qū)域,并且通過梯度信息確定呼吸區(qū)域內主要運動方向。在獲取有效的呼吸區(qū)域后,結合呼吸運動方向,采用基于相位的復可控金字塔算法提取呼吸信號,最后根據(jù)峰值檢測獲取呼吸率。
呼吸率檢測方法由呼吸區(qū)域選取和呼吸信號分析兩部分組成。精確的呼吸區(qū)域可以減少后續(xù)呼吸信號處理的數(shù)據(jù)量。本文初步選取到胸部區(qū)域后,進一步通過最大似然估計選取更精確的呼吸區(qū)域。人臉檢測僅需一幀圖像即可實現(xiàn),因此相較于文獻[3]、文獻[5]能夠更快選取呼吸區(qū)域,后續(xù)經最大似然估計選取的呼吸區(qū)域較文獻[4]更為精確,提升了實時性。此外,本文提出使用方向梯度直方圖算法[6](histograms of oriented gradients,HOG)獲取運動的主要方向,在后續(xù)使用復可控金字塔分解獲取呼吸相位信號時僅沿主要方向進行分解,相較文獻[4]有效減少了信號處理的計算量,提升了實時性。本文通過獲取更精確的呼吸區(qū)域和呼吸運動主要方向減少了計算量,提升了實時性。
本文提出的呼吸率檢測算法以基于運動特征的預估為基礎,通過人臉檢測初步選出胸部區(qū)域,并建立信號模型,通過最大似然法精確定位胸部呼吸區(qū)域。然后通過梯度信息確定主要運動方向,為復可控金字塔的方向選取提供依據(jù)。最后采用基于相位的處理方法,提取呼吸信號,并根據(jù)峰值檢測獲得呼吸率。呼吸率檢測的流程圖如圖1所示,圖1包括4個主要步驟:① 基于最大似然的呼吸區(qū)域預估;② 基于方向梯度直方圖的運動方向預估;③ 呼吸相位信號提取;④ 基于峰值檢測的呼吸率估計。
基于視覺的人體呼吸率檢測方法通過檢測人體胸部一段時間內起伏的次數(shù)來實現(xiàn)。由于胸部特征的提取存在困難,沒有直接的胸部識別算法。因此,本文采用人臉檢測算法首先定位人臉位置,然后根據(jù)人體比例關系,由人臉區(qū)域初步確定胸部區(qū)域位置。此時的呼吸區(qū)域的選取沒有針對具體呼吸情況,選取區(qū)域過大,會造成檢測算法計算量大,實時性低。為了提高算法的實時性,對區(qū)域內的像素建立信號模型,通過最大似然估計計算信號基頻和運動幅度,根據(jù)運動幅度較大的點所在位置選取較為準確的呼吸區(qū)域。
1.1.1 呼吸區(qū)域初步定位
人臉檢測是胸部定位的第1步,本文使用基于膚色模型[7]的人臉檢測方法來獲取人臉位置。通過人臉檢測器進行人臉定位后,使用矩形框框選人臉范圍并獲取4個頂點的坐標,為胸部區(qū)域初定位提供位置信息。
圖1 算法流程圖
在獲取人臉范圍后,根據(jù)頭身比獲取胸部區(qū)域。成人身高一般是頭高的8倍,結合實驗結果本文選擇第6頭高和第7頭高之間作為胸部區(qū)域。具體區(qū)域為:從頭頂開始分別向下移動1.5倍頭高和2倍頭高作為縱坐標,橫坐標保持不變,將4點相連初步獲得胸部區(qū)域,然后進行基于最大似然的呼吸區(qū)域定位。呼吸區(qū)域選取示意圖如圖2所示。
圖2 呼吸區(qū)域選取示意圖
圖2中:紅色區(qū)域為人臉區(qū)域;藍色區(qū)域為經頭身比選取的胸部區(qū)域;綠色區(qū)域為本文選取的精確呼吸區(qū)域。
1.1.2 呼吸區(qū)域精確定位
假設所選胸部區(qū)域的像素亮度的變化僅由呼吸運動引起,將表示這種變化的周期信號建模為:
X[n]=C+Acos(2πf0TSn+Φ)+W[n]
(1)
其中:矩陣大小為所選胸部區(qū)域大小,即M1×M2;C為視頻中不變的量;A為幅度;f0為基頻;TS為采樣周期;n為幀序列;Φ為初始相位;W[n]為高斯噪聲。本文使用最大似然對基頻f0和幅度A進行估計,首先對基頻f0進行估計,然后根據(jù)基頻f0估計幅度A,最后根據(jù)幅度A來選取包含呼吸運動的區(qū)域。
為簡化符號,引入表示視頻幀X[n]的矩陣向量化算子:
XV[n]=vec(X[n])=
[x(1,1,n) …x(1,M2,n)
x(2,1,n) …x(2,M2,n)
?
x(M1,1,n) …x(M1,M2,n)]T
(2)
其中:vec為矢量化函數(shù),將矩陣轉化為列向量;列向量XV[n]的大小為M1M2×1;x(i,j,n)為視頻幀X[n]矩陣中第n幀中坐標(i,j)處的亮度值。相應的逆算子被定義為
X[n]=vec-1(XV[n])
(3)
av[n]cos(2πf0TSn+φv[p])]2
(4)
(5)
由于呼吸運動是周期運動,設呼吸率范圍為[fmin,fmax],其中fmin、fmax分別為呼吸率的最低值和最高值。(5)式可以改寫為:
(6)
其中:kmin和kmax分別為能夠取到的最接近fmin和fmax的頻率值;Sp[k]為離散的周期圖譜[8]。第p個像素位置[9]的離散值可表示為:
(7)
(8)
經處理后,人體呼吸區(qū)域如圖2b所示,綠色矩形區(qū)域為所選精確呼吸區(qū)域。由圖2可知,經過最大似然估計,呼吸區(qū)域顯著減小,算法所需計算量減少,整體算法速度明顯提升。以下是基于最大似然的呼吸區(qū)域選取算法。
輸入:由1.1.1節(jié)初步選取的呼吸區(qū)域內視頻幀X[n];呼吸區(qū)域內像素點集合Points;人體呼吸率最高值和最低值fmax、fmin。
1.矢量化處理。簡化符號,引入表示視頻幀X[n]的矩陣向量化算子XV[n]。
for each row ofX[n]
point ofXV[n]=row ofX[n];
end
for eachfbetween [fmin,fmax]
for each point of Points
for each frame ofX[n]
calculate the discrete periodogramSp[k];
end
end
calculate Maximum likelihood estimate off;
end
for each point of Points
for each frame ofX[n]
end
end
for each point of Points
end
find biggest element ofAasA[p];
select region aroundA[p] asXV[p]
通過方向梯度直方圖算法HOG[6]獲取運動的主要方向,為復可控金字塔中濾波器的方向選擇提供依據(jù)。
HOG算法通過灰度化將視頻幀轉化為二維矩陣,并將矩陣分解為一些大小為16×16的塊,且相鄰塊重疊50%區(qū)域。由以下公式計算塊中每點的梯度信息:
(9)
(10)
(11)
(12)
(13)
圖3 方向梯度效果圖
圖3表示圖2b中呼吸區(qū)域對應的S矩陣效果圖。由圖3可知,此時胸部呼吸的主要運動方向為2方向,對應45°。后續(xù)使用復可控金字塔分解視頻圖像時,僅沿45°方向分解,通過減少信號通道數(shù),提升檢測算法實時性。以下是基于HOG的運動方向預估算法。
輸入:由1.1.2節(jié)選取的呼吸區(qū)域內視頻幀灰度矩陣X[n];呼吸區(qū)域內像素點集合Points。
1.建立每幀對應串聯(lián)矩陣C。將X[n]每幀分解為若干等大小的塊Blocks;計算每塊中像素點梯度大小和方向。
Decompose each frame into Blocks;
for each point in each block of Blocks
calculate gradient magnitudeG(x,y);
calculate gradient directionΘ(x,y);
end
計算每塊對應的向量,進而獲取串聯(lián)矩陣C。
for each block of Blocks
calculate the vector corresponding to block;
end
concatenate all vectors to get the MatrixC
2.計算和矩陣S。將所有C矩陣取平均計算平均矩陣M;使用C矩陣和M矩陣計算和矩陣S。
take average of all MatrixCto get MatrixM。
for each frame
MatrixS=S+|C-M|;
end
for eachθbetween [0,π]
calculate Maximum likelihood estimate ofθ;
end
完成對胸部運動特征的預估后,接下來需要提取呼吸信號。如圖 1所示,首先在空間上,使用復數(shù)可控金字塔對視頻序列沿主要運動方向進行不同尺度的子帶分解,獲取相位信息;然后在時域上,對子帶進行帶通濾波、將獲取到的序列取平均得到表征呼吸運動的子帶序列;最后將所有序列求和得到基于相位的呼吸信號。
1.3.1 空間分解
胸部起伏在視頻中表現(xiàn)為像素點亮度的周期性變化。為了減少計算量并突出亮度信息,本文方法將色彩空間由RGB域轉換到Gray域,將三通道整合為單一通道。RGB與Gray-Scale轉換公式為:
Igray=0.298 9R+0.587 0G+0.114 0B
(14)
其中:R、G、B分別為紅、綠、藍3個顏色通道矩陣;Igray為轉換后的灰度矩陣。
為了在頻率空間中提取相位信息,本文通過傅里葉變換實現(xiàn)圖像從時域空間到頻域空間的轉換,并在頻域空間進行相位信息提取、理想帶通濾波等操作用于提取呼吸信號。根據(jù)文獻[10],本文采用復可控金字塔沿主要運動方向將空間域拓展至不同相位域,通過多次迭代將圖像分解為不同尺度的子帶信息,圖像的相位信息蘊含在子帶信息中。以下是復可控金字塔的實現(xiàn)過程。
(1) 根據(jù)輸入圖像尺寸,確定金字塔分解層數(shù)。計算公式為:
(15)
其中,h、w為圖像的高和寬。由(15)式可知,選取更加精確的呼吸區(qū)域后,金字塔分解層數(shù)變少,算法時間復雜度降低。
(2) 濾波器方向選取。首先設置方向參數(shù)N,即金字塔每層共有N個方向(本文N=4),然后根據(jù)1.2節(jié)結果選取主要運動方向,在后續(xù)金字塔分解中僅沿主要運動方向進行不同尺度分解。
(3) 算法首先將輸入圖像分解為高通子帶H0與低通子帶L0,其中低通子帶包含圖像全局信息,高通子帶包含圖像細節(jié)。然后按照參數(shù)N與1.2節(jié)結果進行主要方向帶通濾波,獲得主要方向的帶通子帶序列Bk(k=0,1,…,N)和子帶部分L1。
(4) 將子帶部分L1進行二抽樣后,按步驟(3)中低通子帶分解方法繼續(xù)分解,不斷重復這一步驟,直到尺度分解層數(shù)達到M。
操作完成后,共獲得M+2(H0+M+1)個子帶序列,其中M個帶通子帶序列B中包含呼吸相位信息。至此,方向可控金字塔分解完成。相較于原有N方向分解,僅沿主要方向分解后的通道數(shù)顯著減少,算法時間復雜度降低。
1.3.2 呼吸信號提取與呼吸率計算
成人呼吸頻率一般分為3種情況:呼吸過速(超過24次/min)、呼吸正常(12~24次/min)、呼吸過緩(低于12次/min)。因此本文采用理想帶通濾波器對子帶序列進行濾波,通頻帶為0.1~1.0 Hz(對應呼吸率6~60 次/min)。
獲取呼吸運動序列后,根據(jù)文獻[11],將序列轉換為平均相位信號來表征呼吸運動,平均相位信號為:
(16)
其中,Wl、Hl分別為各級金字塔分解后的圖像尺寸。
將多通道信號按幀相加,計算呼吸區(qū)域內平均相位隨時間的變化序列得到呼吸信號,視頻提取的呼吸波形如圖4所示。
圖4 視頻提取的呼吸波形
呼吸頻率的計算公式為:
(17)
其中:N為視頻總幀數(shù);FS為幀率;P為波峰檢測算法檢測到的呼吸波形中波谷數(shù)目。
實驗通過MATLAB軟件調用攝像機采集完成的視頻,并對采集視頻進行呼吸率估計。實驗中被測者與攝像機水平相距0.5 m,并拍攝人體上半身圖像,如圖5所示。實驗在室內穩(wěn)定白熾燈環(huán)境下使用普通光學攝像機采集視頻,在分辨率1 280×720像素,幀率30幀/s條件下,在RGB空間下保存成AVI格式。
圖5 呼吸率檢測設備場景
由于成人呼吸頻率可分為呼吸過速、正常與呼吸過緩3種狀態(tài),考慮呼吸狀態(tài)與測量對象的差異性[12],實驗要求測試者在呼吸頻率6~36 次/min范圍內進行周期呼吸,對測試者進行多次視頻采集和呼吸率檢測,驗證算法的準確性。測試者按照顯示屏提示進行特定頻次的呼吸作為真實呼吸率進行參考。
實驗復現(xiàn)了文獻[3-5]的視頻呼吸率檢測方法進行本文方法的性能驗證。本文采用3種指標進行性能評估。第1個指標為平均誤差Me,即真實值與檢測值的偏差,即
(18)
其中:N為視頻的數(shù)目;Rev為呼吸率估計值;Rtrue為真實呼吸率值。
第2個指標是平均準確率,記做Rac,根據(jù)相關醫(yī)學指導建議[13],以誤差±3 次/min作為正確組,其余為錯誤組。
(19)
第3個指標為視頻時長與算法用時的比例,記做Rt,用來反映實時性能。
Rt=tv/td
(20)
其中:tv為視頻時長;td為獲取呼吸率所需時間。Rt越大表示實時性越好。
實驗在室內穩(wěn)定白熾燈條件下對測試者進行呼吸率測量,并與其他算法進行實時性和穩(wěn)定性的比較,最后進行各步驟貢獻度驗證實驗。
2.2.1 檢測性能比較
本次實驗在視頻時長60 s,采樣率30幀/s,室內穩(wěn)定白熾燈條件下進行。將采集的視頻采用文獻[3-5]方法和本文方法檢測呼吸率,并根據(jù)檢測結果進行算法性能比較。在上述實驗條件下,呼吸率檢測性能的記錄見表1所列。為直觀解釋表格數(shù)據(jù),本文選取30組實驗數(shù)據(jù)制成散點圖,如圖6所示。
表1 理想環(huán)境下呼吸率檢測性能對比
由表1和圖6可知,本文方法與文獻[3-5]方法在呼吸率檢測準確率上均保持了很好的性能。文獻[3]方法直接對全圖建立呼吸模型并進行最大似然估計,能夠準確地定位到呼吸區(qū)域,從而保證了呼吸率檢測的準確性,然而算法對全圖進行的呼吸信號建模和最大似然估計都需要計算開銷,影響了算法的運行速度;文獻[4]的方法雖然進行了胸口定位和基于相位的圖像處理,但選取的呼吸區(qū)域過大,并且由于沒有選取主要方向,增加了信號通道數(shù),導致計算開銷增大,降低了算法實時性;文獻[5]的方法通過人臉檢測加光流編碼處理,精確定位了運動區(qū)域,且使用歐拉視頻放大[14](Eulerian video magnification,EVM)算法進行預處理,但對于全圖的EVM處理和光流編碼在視頻質量較高、分辨率較大時,影響算法整體的實時性。
圖6 30組呼吸率散點圖
本文方法在提取呼吸信號前用人臉檢測加最大似然估計法精確定位呼吸區(qū)域,減少了需要處理的像素數(shù)。然后通過確定主要運動方向,在呼吸信號提取階段時,僅沿主要運動方向進行時空處理,有效地減少了金字塔層數(shù)與通道數(shù),降低了計算復雜度,在保持檢測精度的同時提高了算法實時性。
2.2.2 算法穩(wěn)定性驗證
穩(wěn)定性驗證可以用于評估算法是否適用于真實場景。本節(jié)通過不同時長、不同衣服特征量、不同呼吸區(qū)域大小、不同幀率4種情況下分別進行呼吸率檢測,并與文獻[3-5]方法進行對比,驗證方法的穩(wěn)定性。
對不同視頻時長條件下的呼吸率檢測進行穩(wěn)定性驗證。在光照條件為普通白熾燈穩(wěn)定光源環(huán)境,呼吸區(qū)域大小64×64,普通帶花紋T恤條件下,分別采集10、20、40、60 s時長的視頻進行驗證。計算4種情況下的平均準確率Rac和Rt,見表2、表3所列。由于文獻[3]和文獻[5]的方法在短時長下失去穩(wěn)定性,僅對文獻[4]方法和本文方法進行實時性的比較。
由表2可知,隨著視頻時長的減少,4種方法呼吸率檢測的平均準確率均逐漸下降,其中文獻[3]方法、文獻[5]方法在10 s視頻時長條件下已經失去穩(wěn)定性。文獻[4]方法和本文方法由于通過金字塔分解獲得了呼吸運動多通道的子帶信息,在視頻時長較短的情況下也能彌補數(shù)據(jù)量較少產生的估計偏差問題。由表3可知,隨著視頻時長的減少,本文方法雖然實時性一直優(yōu)于文獻[4]方法,但也在下降,這是因為對于任意長度視頻,本文算法均花費一定時間選取呼吸區(qū)域與運動方向,當時長變短,后續(xù)呼吸信號處理減少的時間不足以彌補預處理的時間花費,從而導致對短視頻進行呼吸率檢測時,本文方法實時性有所下降。
表2 不同時長下的呼吸率檢測平均準確率 單位:%
表3 不同時長下的呼吸率檢測用時比
對不同衣服特征量條件下的呼吸率檢測進行穩(wěn)定性驗證。在光照條件為普通白熾燈穩(wěn)定光源環(huán)境,呼吸區(qū)域大小為64×64,視頻采集時間為60 s條件下,分別對衣服類型為純色T恤、花紋T恤2種特征量不同的衣服進行測試,具體衣服類型如圖7所示,并以平均準確率Rac作為衡量標準進行穩(wěn)定性驗證,結果見表4所列。
圖7 不同衣服特征量效果圖
表4 不同衣服特征量下的呼吸率檢測平均準確率 單位:%
從表4數(shù)據(jù)可以看出,當衣服特征量較少時,文獻[4]方法、文獻[5]方法已經失去了穩(wěn)定性,而文獻[3]方法、本文方法仍保持良好的性能。主要因為文獻[4]和文獻[5]的方法均使用了閾值進行二值化處理,當所選呼吸區(qū)域都缺少特征時,無論是基于亮度的差值[15]還是基于相位的的差值均可能會因為小于閾值而被忽略,導致提取不到運動。在相同視頻質量的條件下,文獻[3]方法和本文方法沒有使用二值化,通過最大似然估計法仍能精確獲取呼吸運動信號,因此較其他方法準確率會有一定程度提升。
在不同呼吸區(qū)域尺寸條件下進行呼吸率檢測穩(wěn)定性驗證。經最大似然估計后選取到胸口區(qū)域振幅最大的點的位置,以此位置為中心可選取不同尺寸的呼吸區(qū)域。在光照條件為普通白熾燈穩(wěn)定光源環(huán)境,普通帶花紋T恤,視頻采集時間為60 s條件下進行測試。分別采用128×128、64×64、32×32、16×16進行測試,具體區(qū)域大小如圖8所示。在2.2.1節(jié)性能實驗的條件下,分別以50、30、15幀率進行測試。最終以平均準確率Rac、實時性Rt作為衡量標準進行穩(wěn)定性驗證,結果見表5所列。
從表5可以看出,隨著呼吸區(qū)域逐漸減小,Rt逐漸增大,實時性增強。當呼吸區(qū)域過小時,平均準確率Rac顯著下降,本文算法失去穩(wěn)定性。這是因為呼吸區(qū)域內包含的數(shù)據(jù)量太少,影響后續(xù)呼吸率提取。視頻幀率方面,當幀率為15幀時,所要處理數(shù)據(jù)量變小,實時性提高,但平均誤差和平均準確率均會下降。當幀率為50幀時,數(shù)據(jù)量增大,但相較30幀率準確率沒有顯著提高且實時性顯著下降。
圖8 不同呼吸區(qū)域尺寸下的顯示效果圖
表5 不同呼吸區(qū)域尺寸下的呼吸率檢測準確性和實時性
2.2.3 逐步測試
為了驗證呼吸區(qū)域選取和主要運動方向選取對本文算法的貢獻度,本文進行逐步測試。在2.2.1節(jié)性能實驗的條件下,分別在僅選取呼吸區(qū)域、僅選取主要運動方向、本文完整算法條件下進行測試。并以平均準確率Rac、實時性Rt作為衡量標準進行驗證,結果見表6所列。
表6 不同條件下的呼吸率檢測準確性和實時性
從表6中可以看出,在實時性方面呼吸區(qū)域選取貢獻了34.6%,主要運動方向選取貢獻了65.4%,通過精確選取呼吸區(qū)域,可有效減少所需計算的像素點數(shù)量,進而降低算法時間復雜度;通過確定主要運動方向,在后續(xù)金字塔分解中可減少3/4的通道數(shù),有效降低了時間復雜度。在準確性方面,3種方法都保持了良好的性能,說明基于最大似然的呼吸區(qū)域和主要運動方向的選取能夠有效反映人體呼吸時胸腔的主要運動情況。
本文提出了一種基于運動特征預估的呼吸率檢測快速方法。通過基于最大似然的呼吸區(qū)域預估和基于HOG的呼吸方向預估為后續(xù)視頻信號處理降低時間復雜度;最后采用基于相位的歐拉視頻處理方法對呼吸區(qū)域進行快速時空處理,獲取呼吸信號,提取呼吸頻率。
在真實場景中,當被測者出現(xiàn)大的運動或定位不到呼吸區(qū)域時,本文方法無法準確地檢測呼吸率。另外,由于呼吸率的精度要求,當視頻時長小于10 s時,會因為頻率分辨率太低影響檢測結果。在未來的工作中,可針對呼吸運動中存在的大運動干擾、各種情況下的呼吸區(qū)域定位和減少檢測所需視頻時長等方面進行改進,進一步擴大算法的應用范圍。