• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    面向隱私保護(hù)的無鏡頭成像坐姿識別技術(shù)

    2025-04-30 00:00:00朱斌杰李裕麒
    計算機(jī)應(yīng)用研究 2025年4期

    摘 要:現(xiàn)有基于視覺的坐姿識別方法普遍存在過度采集個體生物信息的問題,在追求高識別精度的同時,未充分考慮個人隱私的保護(hù),從而增加了個人信息泄露的風(fēng)險。針對上述問題,提出了一種在無鏡頭成像環(huán)境下基于層疊特征融合區(qū)域注意力增強(qiáng)的坐姿識別方法。該方法旨在利用無鏡頭成像技術(shù)下的模糊圖像,通過設(shè)計特征融合與銳化模塊,結(jié)合改進(jìn)的級聯(lián)分組注意力機(jī)制,增強(qiáng)了模型對關(guān)鍵特征和細(xì)節(jié)的捕捉能力。同時,采用組合損失函數(shù)優(yōu)化了模型性能。實驗結(jié)果表明,所提方法在自建無鏡頭坐姿數(shù)據(jù)集上,在準(zhǔn)確率、精確度、召回率和F1-score上分別達(dá)到了0.964 77、0.931 96、0.935 27和0.932 46,均高于其他對比方法,有效提升了坐姿識別的隱私保護(hù)性和識別精度。

    關(guān)鍵詞:坐姿識別;隱私保護(hù);ResNet;特征融合

    中圖分類號:TP391.41"" 文獻(xiàn)標(biāo)志碼:A""" 文章編號:1001-3695(2025)04-040-1262-06

    doi: 10.19734/j.issn.1001-3695.2024.06.0252

    Privacy protection oriented lensless imaging sitting posture recognition technology

    Zhu Binjie, Li Yuqi

    (School of Information Science amp; Engineering, Ningbo University, Ningbo Zhejiang 315000, China)

    Abstract:Existing vision-based sitting posture recognition methods generally suffer from excessive collection of individual biometric information. While pursuing high recognition accuracy, they fail to fully consider the protection of personal privacy, thereby increasing the risk of personal information leakage. In response to these issues, this paper proposed a sitting posture recognition method based on cascaded feature fusion and regional attention enhancement in a lensless imaging environment. This method aimed to utilize blurred images obtained through lensless imaging technology. By designing a feature fusion and sharpening module combined with an improved cascaded grouped attention mechanism, it enhanced the model’s ability to capture key features and details. Additionally, it employed a composite loss function to optimize model performance. Experimental results demonstrate that the proposed method, when evaluated on a self-constructed lensless sitting posture dataset, achieves an accuracy, precision, recall, and F1-score of 0.964 77, 0.931 96, 0.935 27, and 0.932 46, respectively, surpassing other comparative methods. This effectively enhances both privacy protection and recognition accuracy in sitting posture recognition.

    Key words:sitting posture recognition; privacy protection; ResNet; feature fusion

    0 引言

    隨著智能設(shè)備的普及,人們在日常生活中使用電子產(chǎn)品進(jìn)行工作、學(xué)習(xí)和娛樂的時間更長,讓越來越多的人處于久坐的狀態(tài),久坐中出現(xiàn)異常坐姿的現(xiàn)象也愈發(fā)普遍。長時間坐姿不良可導(dǎo)致近視、腰椎間盤突出或腰椎肌張力、腰椎側(cè)彎、骨盆傾斜和腰椎生理彎曲拉直等疾?。?~3]。因此,識別和糾正不良的坐姿顯得尤為重要。

    近年來,傳感器技術(shù)和深度學(xué)習(xí)方法在人體坐姿識別領(lǐng)域取得了重大進(jìn)展?;趥鞲衅鞯姆椒ǎ篐u等人[4]用柔性傳感器、ADC板和FPGA在辦公椅上實現(xiàn)坐姿識別;Yuan等人[5]則設(shè)計壓力傳感器陣列的智能坐墊來識別坐姿。但這些方法使用的傳感器價格昂貴且可能不舒適。為了降低成本,F(xiàn)eng等人[6]用輕量、低成本的RFID標(biāo)簽,通過相位變化識別坐姿,但是需要不斷更新訓(xùn)練集以提高準(zhǔn)確性。相比之下,基于深度學(xué)習(xí)的方法在坐姿識別中表現(xiàn)出更高的識別準(zhǔn)確率和更強(qiáng)的魯棒性,得到的廣泛應(yīng)用。Mu等人[7]用Sobel運算器實時提取坐姿輪廓特征進(jìn)行識別;李麗等人[8]將人體異常坐姿特征和場景特征進(jìn)行關(guān)聯(lián),實現(xiàn)在復(fù)雜環(huán)境中的坐姿檢測,但是很容易受到光照和膚色影響;葉啟朗等人[9]針對坐姿圖像提取人體骨架信息進(jìn)行姿態(tài)估計,在可變換的環(huán)境下對坐姿類別進(jìn)行分類識別。

    當(dāng)前基于視覺的坐姿識別方法面臨的主要問題是隱私泄露風(fēng)險。這些方法需要直接捕獲用戶的圖像或視頻,導(dǎo)致用戶的面部、身體輪廓等敏感信息可能被不當(dāng)收集和使用。隨著公眾對隱私保護(hù)的關(guān)注度日益提高,這一問題變得尤為突出。因此,在設(shè)計模型時不僅要考慮其功能,還要考慮保護(hù)視覺隱私的能力。Pan等人[10]研究生成了一個光學(xué)編碼模式的局部二值模式圖,并將其用于圖像分類;他們還采用了帶有掩模的無鏡頭相機(jī)所生成的光學(xué)編碼模式進(jìn)行訓(xùn)練,并基于Transformer的架構(gòu)來進(jìn)行圖像分類任務(wù)[11];Wang等人[12]提出了一種使用編碼光圈視頻的隱私保護(hù)動作識別系統(tǒng)。這些方法計算復(fù)雜且對硬件依賴性強(qiáng),同時隱私保護(hù)效果有待提升。

    為了克服上述局限,本文提出了一個面向隱私保護(hù)的無鏡頭坐姿識別RLCNet。該框架利用了無鏡頭成像技術(shù),從根本上避免了直接生成和傳輸用戶可識別圖像的需求,從而在源頭上有效保護(hù)了用戶的隱私信息。為了從無鏡頭圖像中提取出更為關(guān)鍵和魯棒的特征信息,本文設(shè)計了多層級特征融合模塊。該模塊能夠從多個處理層級中提取并整合特征信息,確保了在無鏡頭條件下也能實現(xiàn)準(zhǔn)確的坐姿識別。同時,本文關(guān)注到高頻特征在識別過程中的重要性,特別是它們所包含的關(guān)于物體邊緣、輪廓等關(guān)鍵信息,因此引入了多尺度高頻特征銳化模塊,以增強(qiáng)模型對這些關(guān)鍵信息的捕捉能力。此外,為了提升識別效率和精度,還集成了級聯(lián)分組注意力機(jī)制,使模型能夠自動聚焦于對坐姿識別最為關(guān)鍵的特征區(qū)域。RLCNet通過無鏡頭成像、多層級特征融合、多尺度高頻特征銳化以及級聯(lián)分組注意力機(jī)制等創(chuàng)新技術(shù)的融合應(yīng)用,實現(xiàn)了在不重建圖像的前提下,對坐姿進(jìn)行高效且隱私保護(hù)的識別,為坐姿識別領(lǐng)域提供了一種全新的解決方案。

    本文的貢獻(xiàn)如下:a)設(shè)計實現(xiàn)了面向隱私保護(hù)的無鏡頭坐姿識別網(wǎng)絡(luò)RLCNet,并在本文的數(shù)據(jù)集上驗證了其有效性;b)利用多層級特征融合模塊,捕獲不同層級下的特征信息,通過融合這些特征獲得更準(zhǔn)確和可靠的空間信息;c)提出多尺度高頻特征銳化模塊,通過融合不同大小的窗口提取的高頻特征信息銳化圖像中的高頻特征,從而有效地減少噪聲;d)提出CGA-CB注意力機(jī)制,利用級聯(lián)分組注意力機(jī)制使模型關(guān)注更為關(guān)鍵的特征;e)建立了一個包含5 050個圖像、涵蓋8個不良坐姿類別、8個真實背景及多樣拍攝角度的無鏡頭成像不良坐姿數(shù)據(jù)集。

    1 構(gòu)建無鏡頭成像的不良坐姿數(shù)據(jù)集

    傳統(tǒng)的基于鏡頭的攝影相機(jī)由聚焦鏡頭和放置在鏡頭焦距處的圖像傳感器組成,鏡頭將場景中的光線聚焦到傳感器上,以便場景中的點映射到傳感器上的單個像素。相反,在無鏡頭成像裝置中,用散射元件代替透鏡放置在場景和圖像傳感器之間,每個傳感器像素測量來自場景中廣泛分散點的復(fù)用光,使得傳感器數(shù)據(jù)上的圖像模糊化,從源頭上保護(hù)個人隱私,如圖1所示。

    本文先構(gòu)建一個包含日常生活中各種不良坐姿狀態(tài)的數(shù)據(jù)集。為實現(xiàn)這一目標(biāo),本文精心挑選了90名受試者參與坐姿數(shù)據(jù)的采集工作。采集過程中,在8種不同的真實背景(簡單、復(fù)雜)環(huán)境中采集了5 050個圖像,如圖2所示,以模擬人們在不同場景下的坐姿狀態(tài)。同時,為了確保數(shù)據(jù)的多樣性和豐富性,本文收集了圖3中低頭、歪頭、側(cè)坐、趴桌、抱頭、左傾、后仰、右傾這8種不良坐姿類別,涵蓋了人們?nèi)粘I钪锌赡艹霈F(xiàn)的各種不良坐姿變化。

    在數(shù)據(jù)收集過程中,特別關(guān)注拍攝角度對結(jié)果可能產(chǎn)生的影響,并據(jù)此采用了多樣化的拍攝角度來進(jìn)行拍攝,以捕捉不同視角下的坐姿特征。經(jīng)過統(tǒng)一的采集流程,成功獲得了包含5 050個圖像的坐姿數(shù)據(jù)集。這一數(shù)據(jù)集不僅涵蓋了不同人群、不同背景、不同角度下的坐姿圖像,而且確保了數(shù)據(jù)的質(zhì)量。

    最后利用無鏡頭相機(jī)對該數(shù)據(jù)集進(jìn)行拍攝。使用的無鏡頭相機(jī)由樹莓派5(8G)、雙面膠作為散射元件、傳感器(OV5647,500萬像素)和一個保持?jǐn)z像頭位置的支架組成。本文使用一個1080P的顯示器來顯示坐姿圖像,并將其放置在距離相機(jī)35 cm處以匹配無鏡頭相機(jī)的視野;最后通過輪播圖像完成數(shù)據(jù)集的拍攝,如圖4所示。

    2 RLCNet模型

    由于無鏡頭成像的圖像無法提供足夠的圖像特征信息,同時還受到噪聲、畸變等干擾,為了充分提取關(guān)鍵特征信息,并有效地融合淺層和深層語義信息,本文提出RLCNet模型。其結(jié)構(gòu)如圖5所示,包含MLFF模塊、FS模塊、CGA-CB注意力機(jī)制。該模型采用ResNet-50[13]模型作為基礎(chǔ)網(wǎng)絡(luò),其中的卷積塊分別稱為stage0、stage1、stage2、stage3和stage4。MLFF模塊提取了stage2、stage3和stage4三層特征分別對其進(jìn)行卷積操作,采用層疊的方式將這些經(jīng)過卷積處理的特征進(jìn)行融合,F(xiàn)S模塊對提取到的特征進(jìn)行銳化處理,同時引入注意力機(jī)制實現(xiàn)更加精準(zhǔn)的特征聚焦和全局信息挖掘。

    2.1 多層級特征融合模塊

    無鏡頭成像的圖像由于缺少了直接的光學(xué)成像過程,圖像的質(zhì)量和信息量受到了限制。為了從非直觀的無鏡頭數(shù)據(jù)中提取有效特征,本文設(shè)計了多層級特征融合模塊(multi-level feature fusion module,MLFF)。該模塊通過卷積神經(jīng)網(wǎng)絡(luò)(CNN),在不同深度層級上提取特征圖。然后,利用特征融合層,將這些不同層級的特征圖進(jìn)行上采樣、下采樣等操作后進(jìn)行疊加,以實現(xiàn)特征的整合和增強(qiáng)。這樣,模型就能夠從多個尺度上捕捉到豐富的特征信息,提高坐姿識別的準(zhǔn)確性。多層級特征融合模塊的設(shè)計思路是將不同層級、不同尺度的特征進(jìn)行組合,以更全面地捕捉圖像的信息,增強(qiáng)模型對圖像特征的理解和提取能力。

    具體來說,MLFF模塊將ResNet50中stage2、stage3和stage4三個不同層級的特征進(jìn)行融合。這種融合操作考慮了從淺層到深層的多種特征,使得模型在特征提取時能夠綜合考慮不同層級的上下文信息,以實現(xiàn)對不同層級特征的融合和整合。這些操作不僅保留了關(guān)鍵特征信息,還減少了特征維度,提高了計算效率。通過MLFF模塊的融合操作,模型能夠更全面地利用各層特征信息,提升其在圖像特征提取方面的能力。此外,該模塊使得淺層網(wǎng)絡(luò)更加接近損失函數(shù),在反向傳播過程中讓淺層網(wǎng)絡(luò)能夠?qū)W習(xí)到更多的梯度信息,這有助于解決ResNet中淺層網(wǎng)絡(luò)學(xué)習(xí)能力差的問題,使得模型在訓(xùn)練過程中能夠充分利用各層網(wǎng)絡(luò)的特征信息,如圖6所示。

    淺層網(wǎng)絡(luò)提取的特征圖更側(cè)重于細(xì)節(jié)和紋理,而深層網(wǎng)絡(luò)則更關(guān)注于抽象和全局信息,為了將這些不同尺度的特征圖融合在一起,需要對它們進(jìn)行尺度的調(diào)整,使它們保持在同一個尺度進(jìn)行拼接得到特征圖,計算過程表示為

    2.2 多尺度高頻特征銳化模塊

    在無鏡頭成像技術(shù)中,由于不依賴傳統(tǒng)的光學(xué)鏡頭來聚焦和導(dǎo)引光線,而是通過散射元件來直接獲取圖像信息,這一過程可能受到多種因素的影響,如光的散射、衍射、環(huán)境干擾等,從而導(dǎo)致圖像噪聲的產(chǎn)生。因此,本文提出一個多尺度高頻特征銳化模塊(feature sharpening module,F(xiàn)S),它通過多尺度分析允許在多個尺度下對圖像進(jìn)行觀察和處理,這種分析方法能夠捕捉到圖像中不同大小的結(jié)構(gòu)和細(xì)節(jié),包括從細(xì)小的邊緣到較大的紋理和形狀;在多尺度分析中,高頻成分通常包含圖像的邊緣、紋理等細(xì)節(jié)信息,但同時也可能包含噪聲。通過在不同尺度下對圖像進(jìn)行分解和重構(gòu),可以更有效地區(qū)分信號(有用信息)和噪聲(無用信息);然后將銳化后的高頻特征與原始特征進(jìn)行融合,以提高模型對坐姿細(xì)節(jié)的捕捉能力。

    通過采用特征銳化的方法來減少噪聲對無鏡頭成像圖像的影響。小的卷積核更關(guān)注圖像的局部細(xì)節(jié),但對噪聲也更敏感,大的卷積核能夠考慮更多的上下文信息,對噪聲有一定的平滑作用,但會損失一些細(xì)節(jié),為了獲得不同尺度的特征,本文分別構(gòu)造了四個尺度為5×5、7×7、9×9和11×11的卷積核,以捕獲從細(xì)節(jié)到整體的不同層次特征;在特征提取階段,將這四個不同尺度的卷積核分別應(yīng)用于輸入的特征圖,通過卷積操作使每個卷積核都能從輸入特征圖中提取出對應(yīng)尺度的局部特征,這些特征圖包含了從精細(xì)到粗糙的不同層次信息,為后續(xù)的銳化操作提供了基礎(chǔ);在特征銳化階段,將每個尺度下的卷積結(jié)果與原始特征圖進(jìn)行逐元素相加。這種相加操作不僅保留了原始特征圖中的信息,還通過引入不同尺度的特征來增強(qiáng)對多尺度特征的學(xué)習(xí),如圖8所示。

    a)特征銳化。分別構(gòu)造4個尺度為5×5、7×7、9×9和11×11的卷積核,將不同尺度的卷積結(jié)果和原始特征圖進(jìn)行逐元素相加得到,這樣可以在保留原始特征的同時,增強(qiáng)對多尺度特征的學(xué)習(xí)。特征提取計算過程表示為

    Xm=Xc+conv2D5×5(Xc)+conv2D7×7(Xc)+conv2D9×9(Xc)+conv2D11×11(Xc)

    其中:conv2D表示二維卷積操作;5×5、7×7、9×9和11×11分別表示卷積核大小。

    b)特征深度融合。經(jīng)過特征融合和逐元素相加,這種融合后的特征圖既包含了淺層的細(xì)節(jié)信息,也包含了深層的抽象信息,其計算過程為

    Xout=conv1×1(Xm)+Xc

    2.3 CGA-CB注意力機(jī)制

    在無鏡頭成像的坐姿識別任務(wù)中,由于圖像模糊、低分辨率和復(fù)雜背景等因素的影響,模型需要更加精確地關(guān)注人體的關(guān)鍵部位特征,如脊柱彎曲程度、肩膀傾斜角度等,以提高識別的準(zhǔn)確率。為了實現(xiàn)這一目標(biāo),本文引入級聯(lián)分組注意力(cascaded group attention,CGA)機(jī)制[15]并利用CB[16]將其上一層的Q、K、V均值數(shù)據(jù)與下一層結(jié)合進(jìn)行改進(jìn),得到CAG-CB注意力機(jī)制,該機(jī)制結(jié)合了CGA的細(xì)粒度特征提取能力和CB的上下文信息廣播能力。

    在CGA的基礎(chǔ)上,引入CB機(jī)制以增強(qiáng)對關(guān)鍵特征和上下文信息的關(guān)注度。先在CGA的各個層級計算該層級Q、K、V的均值數(shù)據(jù),這些數(shù)據(jù)代表了該層級的上下文信息;然后將這些均值數(shù)據(jù)廣播到下一層,與下一層的注意力權(quán)重相結(jié)合。通過這種方式,CB機(jī)制使得模型在關(guān)注細(xì)粒度特征的同時,也能考慮到全局的上下文信息,從而更加準(zhǔn)確地識別坐姿。

    隨著數(shù)據(jù)在多層網(wǎng)絡(luò)中的傳遞,輸入分布可能會發(fā)生變化,這可能會導(dǎo)致訓(xùn)練過程中的不穩(wěn)定。通過在上一層計算均值并傳遞給下一層,可以對下一層的輸入進(jìn)行規(guī)范化,從而幫助模型更好地學(xué)習(xí)和收斂。均值信息代表了上一層輸出的一種局部統(tǒng)計特性,通過將其傳遞給下一層,可以為下一層提供額外的上下文信息,幫助下一層的注意力機(jī)制更準(zhǔn)確地定位到關(guān)鍵的信息區(qū)域,從而提高模型的性能。CGA-CB模塊如圖9所示。

    2.4 損失函數(shù)

    本文采用加權(quán)FocalLoss[17]損失函數(shù)和PolyLoss[18]損失函數(shù)進(jìn)行模型訓(xùn)練。針對特征銳化FS層輸出的S1,利用PolyLoss最大化類間特征距離和最小化類內(nèi)特征距離,這使得模型提取到的特征更具判別性。在坐姿識別中,這意味著模型可以更加精確地捕捉到不同坐姿之間的細(xì)微差別,同時減少同一坐姿內(nèi)部的特征差異,從而達(dá)到銳化特征和去除冗余特征的效果。

    3 實驗及結(jié)果分析

    坐姿數(shù)據(jù)集資源稀缺,且受到隱私保護(hù),目前在坐姿識別方面缺乏公共開放的數(shù)據(jù)集。本文收集了5 050張圖像,分別包括低頭、歪頭、側(cè)坐等8種坐姿,數(shù)據(jù)不僅包含視角變化,還以真實環(huán)境為背景。為了達(dá)到有效的分類精度,將圖3(a)~(h)8種坐姿類別分別標(biāo)記為0、1、2、…、7。為了提高樣本數(shù)量和樣本多樣性,采用隨機(jī)裁剪的方式進(jìn)行數(shù)據(jù)增強(qiáng)。實驗中選取80%的數(shù)據(jù)集為訓(xùn)練集,20%為測試集,圖片的大小全部調(diào)整為224×224像素。本文實驗的計算機(jī)硬件環(huán)境配置處理器英特爾酷睿i512400F,顯卡NVIDIA RTX3060;所有實驗?zāi)P投荚赑yTorch 1.12.1中實現(xiàn),采用AdamW優(yōu)化算法,參數(shù)設(shè)置學(xué)習(xí)率為 0.001,batch_size設(shè)置為64,num_workers設(shè)置為4。

    3.1 評價指標(biāo)

    本文選擇accuracy、precision、recall、F1-score和混淆矩陣作為評價指標(biāo)。accuracy表示在多分類任務(wù)中正確預(yù)測一個類別的概率,一個類別被選擇為正類別,其余的類別為負(fù)類別;precision表示預(yù)測為正類的樣本比例;recall表示實際上是正類的樣本被正確預(yù)測的概率;F1-score是一個同時考慮precision和recall的綜合指標(biāo)。

    其中:TP是被模型預(yù)測為正類的正樣本數(shù)量;TN是被模型預(yù)測為負(fù)類的負(fù)樣本數(shù)量;FP是被模型預(yù)測為正類的負(fù)樣本數(shù)量;FN是被模型預(yù)測為負(fù)類的正樣本數(shù)量。

    3.2 對比實驗

    表1展示了本文方法在自建數(shù)據(jù)集上與其他現(xiàn)有先進(jìn)方法的對比實驗結(jié)果。Swin-Transformer通過層級化的設(shè)計和翻轉(zhuǎn)窗口并引入自注意力機(jī)制提高模型的識別能力,Vgg19具有較深的網(wǎng)絡(luò)結(jié)構(gòu),能夠?qū)W習(xí)復(fù)雜的圖像特征,但是兩者由于缺少殘差結(jié)構(gòu),在處理本任務(wù)時面臨梯度消失或梯度爆炸的問題,導(dǎo)致模型難以收斂到最優(yōu)解。InceptionNeXt和RepVGG采用了多分支結(jié)構(gòu)來豐富特征信息,但是缺乏相應(yīng)的注意力機(jī)制。EfficientNet_v2通過優(yōu)化網(wǎng)絡(luò)深度和寬度等參數(shù),實現(xiàn)了高效的特征提??;而EfficientViT則結(jié)合了Transformer的自注意力機(jī)制和卷積神經(jīng)網(wǎng)絡(luò)的局部感受野優(yōu)勢,進(jìn)一步提升了模型性能;但是它們沒有同時考慮上下文信息和全局信息。本文提出的層疊特征融合區(qū)域注意力增強(qiáng)方法(RLCNet),使用多層級特征融合捕捉豐富的特征信息,使用多尺度高頻特征銳化提高模型的細(xì)節(jié)捕捉能力,最后融合CGA-CB注意力機(jī)制的模型在關(guān)注細(xì)粒度特征的同時,也能考慮到全局的上下文信息。

    相比之下,本文RLCNet模型在各項指標(biāo)上都具有良好的性能,提取的特征信息包含全面的特征信息,識別準(zhǔn)確率達(dá)到96.477%,分別比其他模型高出2.981、69.377、2.71、4.01、7.317和69.377百分點,與其他六種算法模型相比,模型在提取和識別特征時更加精確,具有更高的分類準(zhǔn)確性。

    3.3 消融實驗

    為了驗證RLCNet各模塊的有效性,對模型進(jìn)行了消融實驗,評估不同模塊對性能的影響。為了公平比較,所有消融模型均以相同的設(shè)置進(jìn)行訓(xùn)練,結(jié)果列于表2。

    從表2可以看出:a)ResNet50模型在原始圖像上達(dá)到了99.458%的識別準(zhǔn)確率,而在無鏡頭圖像上降到了91.328%,表明無鏡頭成像技術(shù)通過使用散射元件代替?zhèn)鹘y(tǒng)透鏡,有效地提供了隱私保護(hù)的能力,但這種方式形成的模糊圖像也不可避免地導(dǎo)致了圖像質(zhì)量的顯著下降,對于坐姿識別產(chǎn)生了很大的影響;b)在對ResNet50添加MLFF模塊后識別正確率從91.328%提升到了92.954%,說明MLFF有效地提高了不同層次的特征信息提取能力,其原因在于該操作充分考慮了從淺層到深層的語義信息;同時該支路設(shè)計使得淺層網(wǎng)絡(luò)更加接近loss,在反向傳播過程中,淺層網(wǎng)絡(luò)能夠?qū)W習(xí)到更多的梯度信息;c)添加FS模塊后提升到了94.58%,主要歸因于FS模塊能夠有效地增強(qiáng)關(guān)鍵特征,同時在一定程度上抑制噪聲;d)繼續(xù)添加CGA-CB模塊識別正確率提升到了95.664%,表明CGA-CB對于關(guān)鍵特征提取起到了作用;e)在使用組合loss后的RLCNet,無鏡頭圖像的96.477%準(zhǔn)確率進(jìn)一步提升,同時對于原始圖像也達(dá)到了100%的準(zhǔn)確率,證明了模型對于坐姿任務(wù)有著很好的性能。

    為了進(jìn)一步展示CGA-CB注意力機(jī)制的有效性,使用t-SNE在二維空間上進(jìn)行可視化。如圖10所示,不同顏色代表不同的坐姿類型(見電子版)。在基線上有一定的聚類效果,但是在加入特征融合模塊和特征銳化模塊后分類邊界變得模糊,其原因在于特征融合模塊通過求和、連接方式將不同層級的特征進(jìn)行整合這個過程不是最優(yōu)的,它導(dǎo)致關(guān)鍵信息的丟失或冗余信息的增加,從而影響分類邊界的清晰度,同時銳化操作也會導(dǎo)致部分噪聲被增強(qiáng),因此引入CGA-CB注意力機(jī)制是很有必要的。在引入CGA-CB注意力機(jī)制后,模型能夠聚焦于更具辨別力的特征,這些特征在數(shù)據(jù)表示上起到了關(guān)鍵作用,有助于區(qū)分不同的坐姿類型。因此,在通過t-SNE(t-distributed stochastic neighbor embedding)算法將高維特征投影到二維空間進(jìn)行可視化時,本文可以看到各類別之間的間隔得到了顯著的擴(kuò)大。這種間隔的擴(kuò)大直接反映了在特征空間內(nèi)不同坐姿類型之間的區(qū)分度增強(qiáng),從而提高了模型的分類性能。這種改善不僅體現(xiàn)在視覺上的類間隔增大,更體現(xiàn)在模型對坐姿類型分類準(zhǔn)確率的提升上,充分驗證了CGA-CB注意力機(jī)制的有效性。

    3.4 現(xiàn)實場景

    為了系統(tǒng)評估RLCNet在現(xiàn)實應(yīng)用中的表現(xiàn),本文采用無鏡頭相機(jī)在多個實際場景中進(jìn)行了實景拍攝,構(gòu)建了一個包含8種不同坐姿、共計240張圖片的數(shù)據(jù)集,如圖11所示。通過在這一真實世界數(shù)據(jù)集上進(jìn)行的測試,本文旨在驗證基于屏幕上拍攝數(shù)據(jù)訓(xùn)練的RLCNet模型的魯棒性和泛化能力,而不進(jìn)行任何形式的微調(diào)。值得注意的是,由于兩個數(shù)據(jù)集之間存在的光照條件差異,所有模型的識別精度均受到了一定程度的挑戰(zhàn)。然而,即便如此,RLCNet在該數(shù)據(jù)集上依然取得了92.141%的識別準(zhǔn)確率,如表3所示,這一結(jié)果不僅令人滿意,而且顯著優(yōu)于其他對比模型。因此,本研究充分證明了利用屏幕數(shù)據(jù)集訓(xùn)練的RLCNet模型能夠有效擴(kuò)展到真實環(huán)境中,顯著簡化了模型的訓(xùn)練過程,為相關(guān)領(lǐng)域的實際應(yīng)用提供了有力的技術(shù)支撐。

    混淆矩陣(圖12)展現(xiàn)了一個多維度的評估視角,不僅揭示了模型在各類坐姿分類上的精度分布,還隱含了不同坐姿類別間的辨識難度與潛在混淆因素。具體而言,矩陣中沿對角線的高亮區(qū)域,即側(cè)坐、趴桌、后仰等坐姿類別的高預(yù)測準(zhǔn)確率,強(qiáng)有力地證明了RLCNet模型在處理這些具有顯著特征差異的坐姿時,展現(xiàn)出了高度的識別信心與優(yōu)異的分類能力。這一表現(xiàn)不僅體現(xiàn)了模型特征提取與模式識別的有效性,也驗證了所設(shè)計網(wǎng)絡(luò)架構(gòu)及訓(xùn)練策略在復(fù)雜坐姿識別任務(wù)中的適用性。

    然而,值得注意的是,混淆矩陣中右傾、歪頭與左傾等坐姿之間準(zhǔn)確率相對較低;從圖11可以看到,這些類別的坐姿在特征空間中具有很高的相似性,導(dǎo)致模型在決策邊界處出現(xiàn)了混淆,進(jìn)而產(chǎn)生了分類誤差。

    4 結(jié)束語

    無鏡頭成像技術(shù)有效避免了直接捕捉個體形象,顯著降低了個人信息泄露的風(fēng)險,但是由于減少了直接的光學(xué)成像環(huán)節(jié),圖像往往變得模糊使,得精確識別個體特征變得異常困難。本文提出了一種基于層疊特征融合區(qū)域注意力增強(qiáng)的坐姿識別方法。該方法通過MLFF、FS和CGA-CB模塊,實現(xiàn)對坐姿區(qū)域的精準(zhǔn)聚焦和全局特征的深度挖掘,從而顯著提高無鏡頭圖像的坐姿識別準(zhǔn)確率,進(jìn)而達(dá)到隱私保護(hù)的目的。下一步工作要進(jìn)一步研究提高模型算法效率,期望能夠在提高模型識別速度的同時提高識別準(zhǔn)確率,將其應(yīng)用到人們的生活中,進(jìn)一步探索更具普適性的無鏡頭成像識別網(wǎng)絡(luò)模型。

    參考文獻(xiàn):

    [1]Wang Huaijun, Zhao Jing, Li Junhuai, et al. The sitting posture monitoring method based on notch sensor [C]//Proc of IEEE International Conference on Industrial Internet. Piscataway,NJ:IEEE Press, 2019: 301-302.

    [2]O’Sullivan K, Verschueren S, Van Hoof W, et al. Lumbar repositio-ning error in sitting: healthy controls versus people with sitting-related non-specific chronic low back pain (flexion pattern)[J]. Manual Therapy, 2013, 18(6): 526-532.

    [3]Ma Sangyong, Cho W H, Quan Cheng Hao, et al. A sitting posture recognition system based on 3 axis accelerometer [C]//Proc of IEEE Conference on Computational Intelligence in Bioinformatics and Computational Biology. Piscataway,NJ:IEEE Press, 2016: 1-3.

    [4]Hu Qisong, Tang Xiaochen, Tang Wei. A smart chair sitting posture recognition system using flex sensors and FPGA implemented artificial neural network[J]. IEEE Sensors Journal, 2020, 20(14): 8007-8016.

    [5]Yuan Liangqi, Li Jia. Smart cushion based on pressure sensor array for human sitting posture recognition [C]//Proc of IEEE Sensors. Piscataway,NJ:IEEE Press, 2021: 1-4.

    [6]Feng Lin, Li Ziyi, Liu Chen, et al. SitR: sitting posture recognition using RF signals[J]. IEEE Internet of Things Journal, 2020, 7(12): 11492-11504.

    [7]Mu Lan, Li Ke, Wu Chunhong. A sitting posture surveillance system based on image processing technology [C]//Proc of the 2nd International Conference on Computer Engineering and Technology. Pisca-taway,NJ:IEEE Press, 2010: V1-692-V1-695.

    [8]李麗, 張榮芬, 劉宇紅, 等. 基于多尺度注意力機(jī)制的高分辨率網(wǎng)絡(luò)人體姿態(tài)估計 [J]. 計算機(jī)應(yīng)用研究, 2022, 39(11): 3487-3491,3497. (Li Li, Zhang Rongfen, Liu Yuhong, et al. High resolution network human pose estimation based on multi-scale attention mechanism [J]. Application Research of Computers, 2022, 39 (11): 3487-3491,3497.)

    [9]葉啟朗, 李戴薪, 南海. 一種基于人體骨架的任意角度坐姿識別方法 [J]. 計算機(jī)應(yīng)用研究, 2023, 40(11): 3509-3514. (Ye Qilang, Li Daixin, Nan Hai. Arbitrary angle sitting posture recognition based on human skeleton [J]. Application Research of Computers, 2023, 40 (11): 3509-3514.)

    [10]Pan Xiuxi, Nakamura T, Chen Xiao, et al. Lensless inference camera: incoherent object recognition through a thin mask with LBP map generation[J]. Optics Express, 2021, 29(7): 9758-9771.

    [11]Pan Xiuxi, Chen Xiao, Nakamura T, et al. Incoherent reconstruction-free object recognition with mask-based lensless optics and the transformer[J]. Optics Express, 2021, 29(23): 37962-37978.

    [12]Wang Z W, Vineet V, Pittaluga F, et al. Privacy-preserving action recognition using coded aperture videos [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ:IEEE Press, 2019:1-10.

    [13]He Kaming, Zhang Xiangyu, Ren Shaoqing, et al. Deep residual learning for image recognition [C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,NJ:IEEE Press, 2016: 770-778.

    [14]Wang C Y, Yeh I H, Liao H Y M. YOLOv9: learning what you want to learn using programmable gradient information[EB/OL]. (2024). https://arxiv.org/abs/2402.13616.

    [15]Liu Xinyu, Peng Houwen, Zheng Ningxin, et al. EfficientViT: me-mory efficient vision transformer with cascaded group attention [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recog-nition. 2023: 14420-14430.

    [16]Hyeon-Woo N, Yu-Ji K, Heo B, et al. Scratching visual Transformer’s back with uniform attention [C]// Proc of IEEE/CVF International Conference on Computer Vision. 2023: 5807-5818.

    [17]Lin T Y, Goyal P, Girshick R, et al. Focal loss for dense object detection [C]// Proc of IEEE International Conference on Computer Vision. 2017: 2980-2988.

    [18]Leng Zhaoqi, Tan Mingxing, Liu Chenxi, et al. PolyLoss: a polynomial expansion perspective of classification loss functions[EB/OL]. (2022).https://arxiv.org/abs/2204.12511.

    [19]Tan Mingxing, Le Q. EfficientNet: rethinking model scaling for con-volutional neural networks [C]//Proc of International Conference on Machine Learning. 2019: 6105-6114.

    [20]Liu Ze, Lin Yutong, Cao Yue, et al. Swin Transformer: hierarchical vision transformer using shifted windows [C]// Proc of IEEE/CVF International Conference on Computer Vision. 2021: 10012-10022.

    [21]Yu Weihao, Zhou Pan, Yan Shuicheng, et al. InceptionNexT: when inception meets convnext [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2024: 5672-5683.

    [22]Ding Xiaohan, Zhang Xiangyu, Ma Ningning, et al. RepVgg: making vgg-style convnets great again [C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2021: 13733-13742.

    [23]Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[EB/OL]. (2014).https://arxiv.org/abs/1409.1556.

    欧美97在线视频| av卡一久久| av在线播放精品| 一边摸一边抽搐一进一小说| 国产麻豆成人av免费视频| 美女高潮的动态| 国产精品永久免费网站| 联通29元200g的流量卡| 国产精品乱码一区二三区的特点| 国内精品美女久久久久久| 日韩欧美精品v在线| 日韩三级伦理在线观看| 日韩成人av中文字幕在线观看| 久久国内精品自在自线图片| 国产中年淑女户外野战色| 亚洲图色成人| 欧美高清成人免费视频www| 岛国毛片在线播放| 在线观看av片永久免费下载| 亚洲av成人精品一二三区| 黑人高潮一二区| 日本爱情动作片www.在线观看| 亚洲最大成人手机在线| 成人二区视频| 黄色欧美视频在线观看| 看免费成人av毛片| 永久网站在线| 婷婷色综合大香蕉| 精品久久国产蜜桃| 一个人观看的视频www高清免费观看| 简卡轻食公司| 亚洲不卡免费看| 午夜免费男女啪啪视频观看| 99视频精品全部免费 在线| 国产亚洲5aaaaa淫片| 97超视频在线观看视频| 青青草视频在线视频观看| 国产精品熟女久久久久浪| 18禁动态无遮挡网站| 国产精品电影一区二区三区| 网址你懂的国产日韩在线| 亚洲精品aⅴ在线观看| 在线观看一区二区三区| 成年女人永久免费观看视频| 亚洲av一区综合| 男女国产视频网站| 亚洲精品色激情综合| 午夜a级毛片| 亚洲精品,欧美精品| 两个人的视频大全免费| 成人亚洲欧美一区二区av| 欧美人与善性xxx| 人人妻人人看人人澡| 91av网一区二区| 成人午夜精彩视频在线观看| 欧美人与善性xxx| 日本免费一区二区三区高清不卡| 国产成人91sexporn| 观看美女的网站| 国产真实乱freesex| 直男gayav资源| 成人午夜精彩视频在线观看| 高清午夜精品一区二区三区| 男人舔女人下体高潮全视频| 听说在线观看完整版免费高清| 春色校园在线视频观看| 女的被弄到高潮叫床怎么办| 少妇的逼水好多| 全区人妻精品视频| 日韩中字成人| 欧美性感艳星| 国产成人aa在线观看| 真实男女啪啪啪动态图| 女人久久www免费人成看片 | 亚洲国产欧美人成| 亚洲综合精品二区| 亚洲av不卡在线观看| 美女被艹到高潮喷水动态| av天堂中文字幕网| 哪个播放器可以免费观看大片| 久久久精品94久久精品| 国产精华一区二区三区| 中文字幕亚洲精品专区| 国产欧美日韩精品一区二区| 亚洲国产日韩欧美精品在线观看| 欧美人与善性xxx| 男人舔奶头视频| 五月玫瑰六月丁香| 亚洲国产精品成人综合色| 国产乱来视频区| 亚洲三级黄色毛片| 精品国产露脸久久av麻豆 | 男人舔奶头视频| 国产黄a三级三级三级人| 午夜老司机福利剧场| 国产精品蜜桃在线观看| 欧美高清成人免费视频www| 纵有疾风起免费观看全集完整版 | 国产精品人妻久久久久久| 精品熟女少妇av免费看| 亚洲伊人久久精品综合 | 插阴视频在线观看视频| 久久久国产成人精品二区| 亚洲一区高清亚洲精品| 天堂av国产一区二区熟女人妻| 在线天堂最新版资源| 少妇丰满av| 超碰av人人做人人爽久久| 亚洲欧美一区二区三区国产| 国产探花在线观看一区二区| 九九在线视频观看精品| 亚洲欧洲国产日韩| 免费观看性生交大片5| 久久99热6这里只有精品| 一级毛片aaaaaa免费看小| 欧美三级亚洲精品| 久久99热这里只有精品18| 日日摸夜夜添夜夜爱| 啦啦啦啦在线视频资源| 午夜免费男女啪啪视频观看| 国产精品综合久久久久久久免费| 日日撸夜夜添| 亚洲高清免费不卡视频| 欧美极品一区二区三区四区| 国产探花极品一区二区| 黄片无遮挡物在线观看| 综合色av麻豆| 午夜激情福利司机影院| 波多野结衣巨乳人妻| 欧美精品一区二区大全| 亚洲av福利一区| 久久久久九九精品影院| 国产av一区在线观看免费| 三级经典国产精品| 亚洲欧美成人综合另类久久久 | 看十八女毛片水多多多| 午夜a级毛片| 国产免费视频播放在线视频 | 成人一区二区视频在线观看| 你懂的网址亚洲精品在线观看 | 成人av在线播放网站| 国产 一区 欧美 日韩| 非洲黑人性xxxx精品又粗又长| 成人一区二区视频在线观看| 99视频精品全部免费 在线| 日日撸夜夜添| 一级毛片我不卡| 直男gayav资源| av福利片在线观看| 少妇丰满av| 91久久精品国产一区二区成人| 嘟嘟电影网在线观看| 国产伦在线观看视频一区| 秋霞伦理黄片| 亚洲中文字幕日韩| av又黄又爽大尺度在线免费看 | 人人妻人人看人人澡| 日本免费一区二区三区高清不卡| 有码 亚洲区| 久久久国产成人免费| 国产免费又黄又爽又色| 我的老师免费观看完整版| 亚州av有码| 亚洲av免费高清在线观看| 欧美一级a爱片免费观看看| 日本-黄色视频高清免费观看| 亚洲av免费在线观看| 2021少妇久久久久久久久久久| 天堂网av新在线| 欧美三级亚洲精品| 亚洲熟妇中文字幕五十中出| 在现免费观看毛片| 99热精品在线国产| 日韩av不卡免费在线播放| 国产视频首页在线观看| 国产精品国产三级国产专区5o | 搡老妇女老女人老熟妇| 成人二区视频| 欧美不卡视频在线免费观看| 搡女人真爽免费视频火全软件| 卡戴珊不雅视频在线播放| 亚洲精品乱码久久久v下载方式| 国产精品1区2区在线观看.| 美女国产视频在线观看| 春色校园在线视频观看| 国产成人精品一,二区| 美女脱内裤让男人舔精品视频| 国产成人免费观看mmmm| 春色校园在线视频观看| 日韩视频在线欧美| 久久精品人妻少妇| 国产高清国产精品国产三级 | 国产成人freesex在线| 哪个播放器可以免费观看大片| 一级二级三级毛片免费看| 一级av片app| 国产精品.久久久| 亚洲av男天堂| 国产精品嫩草影院av在线观看| 精品久久久噜噜| 中文天堂在线官网| 激情 狠狠 欧美| 啦啦啦啦在线视频资源| 色综合色国产| 亚洲av男天堂| 久久国内精品自在自线图片| 一级毛片aaaaaa免费看小| 日韩人妻高清精品专区| 亚洲最大成人av| 欧美成人精品欧美一级黄| 欧美激情国产日韩精品一区| 91午夜精品亚洲一区二区三区| 国产一区二区在线观看日韩| 色哟哟·www| 一级毛片电影观看 | 两性午夜刺激爽爽歪歪视频在线观看| 久久精品久久久久久噜噜老黄 | 亚洲国产高清在线一区二区三| 国产精品国产三级国产av玫瑰| 国产老妇伦熟女老妇高清| 看片在线看免费视频| 久久99蜜桃精品久久| 搡老妇女老女人老熟妇| 直男gayav资源| 九九在线视频观看精品| 国产亚洲91精品色在线| 狂野欧美白嫩少妇大欣赏| 中国美白少妇内射xxxbb| 少妇人妻一区二区三区视频| 99久久无色码亚洲精品果冻| 观看免费一级毛片| ponron亚洲| 青青草视频在线视频观看| 中文字幕免费在线视频6| 一级黄色大片毛片| 五月玫瑰六月丁香| 久久精品夜色国产| 久久鲁丝午夜福利片| 国产精品久久久久久精品电影| 一边摸一边抽搐一进一小说| 青春草视频在线免费观看| 亚洲精品亚洲一区二区| 日本av手机在线免费观看| 国产乱人偷精品视频| 一区二区三区高清视频在线| 舔av片在线| 蜜桃亚洲精品一区二区三区| 人妻制服诱惑在线中文字幕| 久久婷婷人人爽人人干人人爱| 午夜老司机福利剧场| 成人欧美大片| 国产精品国产三级专区第一集| 国产高清有码在线观看视频| 国产大屁股一区二区在线视频| 高清午夜精品一区二区三区| 久久久久久久午夜电影| 又爽又黄无遮挡网站| 一级黄色大片毛片| 国产一区二区在线av高清观看| 麻豆av噜噜一区二区三区| 网址你懂的国产日韩在线| 中文精品一卡2卡3卡4更新| 免费黄色在线免费观看| 白带黄色成豆腐渣| 亚洲自偷自拍三级| 日本黄色片子视频| 精品国产露脸久久av麻豆 | 免费不卡的大黄色大毛片视频在线观看 | 亚洲国产欧美人成| 国模一区二区三区四区视频| 久热久热在线精品观看| 午夜免费男女啪啪视频观看| 永久网站在线| 在线观看一区二区三区| 亚洲精品国产成人久久av| 亚洲欧美清纯卡通| 精品99又大又爽又粗少妇毛片| 18+在线观看网站| 国产成人精品久久久久久| 亚洲欧美精品专区久久| 亚洲熟妇中文字幕五十中出| 高清在线视频一区二区三区 | 国产av码专区亚洲av| 成人国产麻豆网| 国产黄色小视频在线观看| 久久精品夜色国产| 免费一级毛片在线播放高清视频| 少妇被粗大猛烈的视频| 2021少妇久久久久久久久久久| 色5月婷婷丁香| 日韩大片免费观看网站 | 亚洲色图av天堂| 爱豆传媒免费全集在线观看| 成人鲁丝片一二三区免费| 老司机影院毛片| 久久久久久大精品| 久久精品国产鲁丝片午夜精品| 成人毛片a级毛片在线播放| 综合色丁香网| 日本一本二区三区精品| 欧美日韩在线观看h| 午夜福利视频1000在线观看| 欧美+日韩+精品| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 九九在线视频观看精品| 亚洲av电影在线观看一区二区三区 | 看十八女毛片水多多多| 精品人妻视频免费看| av卡一久久| a级一级毛片免费在线观看| 日韩精品有码人妻一区| 乱系列少妇在线播放| 色综合色国产| 国产视频首页在线观看| 乱码一卡2卡4卡精品| 国产精品福利在线免费观看| 亚洲最大成人手机在线| 成人高潮视频无遮挡免费网站| 七月丁香在线播放| a级毛色黄片| 午夜福利在线观看免费完整高清在| 青春草亚洲视频在线观看| 日本一本二区三区精品| 欧美日韩精品成人综合77777| 麻豆成人午夜福利视频| 国产毛片a区久久久久| 久久精品影院6| 精品99又大又爽又粗少妇毛片| 22中文网久久字幕| 日韩欧美精品免费久久| 欧美人与善性xxx| 长腿黑丝高跟| 欧美成人午夜免费资源| 夫妻性生交免费视频一级片| 亚洲怡红院男人天堂| 六月丁香七月| 级片在线观看| 免费观看在线日韩| 亚洲自偷自拍三级| 亚洲欧美日韩高清专用| 大又大粗又爽又黄少妇毛片口| 亚洲国产高清在线一区二区三| 国产精品一及| 亚洲精品影视一区二区三区av| 九九爱精品视频在线观看| www.av在线官网国产| 黄片wwwwww| 91久久精品国产一区二区成人| 中文字幕制服av| 熟妇人妻久久中文字幕3abv| 精品人妻偷拍中文字幕| 色哟哟·www| 精品人妻熟女av久视频| 国产伦精品一区二区三区四那| 欧美一区二区精品小视频在线| 精品久久久久久久久av| 亚洲欧美中文字幕日韩二区| 秋霞伦理黄片| 婷婷色麻豆天堂久久 | 午夜福利成人在线免费观看| 白带黄色成豆腐渣| 久久亚洲精品不卡| 国模一区二区三区四区视频| 亚洲国产精品国产精品| 免费av不卡在线播放| 国产伦精品一区二区三区视频9| 亚洲aⅴ乱码一区二区在线播放| 欧美潮喷喷水| 色吧在线观看| 久久久久久久国产电影| 久久99精品国语久久久| 久久久国产成人免费| 人人妻人人澡人人爽人人夜夜 | 亚洲自偷自拍三级| 高清毛片免费看| 村上凉子中文字幕在线| 亚洲欧美日韩高清专用| 小说图片视频综合网站| 国产高清有码在线观看视频| 日韩在线高清观看一区二区三区| 国产男人的电影天堂91| 国产av一区在线观看免费| 美女大奶头视频| 国产麻豆成人av免费视频| 人体艺术视频欧美日本| 日日摸夜夜添夜夜爱| 欧美日本视频| 有码 亚洲区| 天堂影院成人在线观看| 91av网一区二区| 国产人妻一区二区三区在| 在线观看66精品国产| 综合色丁香网| 人人妻人人看人人澡| 国产男人的电影天堂91| videos熟女内射| 亚洲成人中文字幕在线播放| 少妇人妻精品综合一区二区| 小说图片视频综合网站| 亚洲aⅴ乱码一区二区在线播放| 久久久久免费精品人妻一区二区| 国产成人精品婷婷| 国产大屁股一区二区在线视频| 男人舔女人下体高潮全视频| 婷婷色av中文字幕| 2022亚洲国产成人精品| 成人av在线播放网站| 成年女人看的毛片在线观看| 国模一区二区三区四区视频| 国产精品.久久久| 久久99热这里只频精品6学生 | 日本午夜av视频| 国产亚洲一区二区精品| 国产爱豆传媒在线观看| 毛片女人毛片| 熟女电影av网| av卡一久久| 九草在线视频观看| 久久精品91蜜桃| 久久99热这里只频精品6学生 | 3wmmmm亚洲av在线观看| 日本黄色片子视频| 亚洲精品日韩在线中文字幕| 成人性生交大片免费视频hd| 国产一级毛片七仙女欲春2| av在线播放精品| 欧美人与善性xxx| 青春草亚洲视频在线观看| 午夜视频国产福利| 天堂√8在线中文| 亚洲人成网站高清观看| 99久久中文字幕三级久久日本| 欧美成人午夜免费资源| 男人舔女人下体高潮全视频| 免费看日本二区| 亚洲自拍偷在线| 国产视频内射| 日日啪夜夜撸| 乱系列少妇在线播放| 大话2 男鬼变身卡| 久久国内精品自在自线图片| 高清午夜精品一区二区三区| 国模一区二区三区四区视频| 亚洲经典国产精华液单| 亚洲国产精品成人综合色| 亚洲最大成人中文| 搡老妇女老女人老熟妇| 亚洲在久久综合| 欧美性猛交╳xxx乱大交人| 看黄色毛片网站| 床上黄色一级片| 亚洲国产精品专区欧美| 亚洲欧美一区二区三区国产| 成人毛片a级毛片在线播放| 中文乱码字字幕精品一区二区三区 | 非洲黑人性xxxx精品又粗又长| 国产精品一区二区在线观看99 | 日本免费a在线| 91精品一卡2卡3卡4卡| 淫秽高清视频在线观看| 午夜免费男女啪啪视频观看| 丰满乱子伦码专区| 国产日韩欧美在线精品| 国产爱豆传媒在线观看| 亚洲欧洲日产国产| 级片在线观看| 国产精品,欧美在线| av在线老鸭窝| 我的女老师完整版在线观看| 国产乱人偷精品视频| 美女国产视频在线观看| 国产在视频线在精品| 亚洲国产精品专区欧美| 尤物成人国产欧美一区二区三区| www.色视频.com| 直男gayav资源| 精品久久久久久电影网 | 久久久成人免费电影| 亚洲av电影不卡..在线观看| 日韩精品有码人妻一区| 色尼玛亚洲综合影院| 美女国产视频在线观看| 老师上课跳d突然被开到最大视频| 日韩欧美三级三区| 真实男女啪啪啪动态图| 五月玫瑰六月丁香| 国产探花在线观看一区二区| 国产亚洲午夜精品一区二区久久 | 成人性生交大片免费视频hd| 久久精品人妻少妇| 色视频www国产| 亚洲精品,欧美精品| 免费看日本二区| 在线观看一区二区三区| 国产精品永久免费网站| 草草在线视频免费看| 国产综合懂色| 在线免费观看的www视频| 国产亚洲av片在线观看秒播厂 | 色噜噜av男人的天堂激情| 蜜桃久久精品国产亚洲av| 亚洲综合色惰| 亚洲在线观看片| 少妇的逼好多水| 国产又色又爽无遮挡免| 亚洲av一区综合| 黄色一级大片看看| 久久韩国三级中文字幕| 精品不卡国产一区二区三区| 午夜免费激情av| 亚洲国产高清在线一区二区三| 国内精品宾馆在线| 日韩人妻高清精品专区| 国产精品国产三级国产专区5o | 欧美高清性xxxxhd video| 七月丁香在线播放| 又黄又爽又刺激的免费视频.| 国产精品一区二区三区四区久久| 国产日韩欧美在线精品| 97在线视频观看| 亚洲,欧美,日韩| 少妇猛男粗大的猛烈进出视频 | 国产在视频线在精品| 国产精品一区二区三区四区久久| 免费一级毛片在线播放高清视频| 最近视频中文字幕2019在线8| 亚洲性久久影院| 69av精品久久久久久| 看十八女毛片水多多多| 日本一二三区视频观看| 国产女主播在线喷水免费视频网站 | 久久综合国产亚洲精品| 天天一区二区日本电影三级| 精品久久久久久久末码| 午夜福利在线观看免费完整高清在| 2021少妇久久久久久久久久久| 永久免费av网站大全| 青春草国产在线视频| 午夜a级毛片| 久久久久久久亚洲中文字幕| 亚洲精品国产成人久久av| 两性午夜刺激爽爽歪歪视频在线观看| 欧美成人a在线观看| 亚洲中文字幕一区二区三区有码在线看| 能在线免费观看的黄片| 国产精品无大码| 国产精品永久免费网站| 国产成人精品婷婷| 尾随美女入室| 91久久精品国产一区二区成人| 日本黄色视频三级网站网址| 久99久视频精品免费| 欧美日韩在线观看h| 色尼玛亚洲综合影院| 黑人高潮一二区| 97超碰精品成人国产| 欧美zozozo另类| 久久精品91蜜桃| 亚洲成人久久爱视频| 国产 一区精品| 天堂影院成人在线观看| 亚洲欧洲日产国产| 免费看光身美女| 一本久久精品| 男人舔奶头视频| 亚洲人成网站在线播| 国产精品人妻久久久影院| 免费av观看视频| 天天躁日日操中文字幕| 永久免费av网站大全| 婷婷色av中文字幕| 国产精品一及| 人人妻人人看人人澡| 少妇猛男粗大的猛烈进出视频 | 十八禁国产超污无遮挡网站| 91久久精品国产一区二区三区| 黄色一级大片看看| 精品欧美国产一区二区三| 国产av在哪里看| 亚洲国产精品国产精品| 久久久久久国产a免费观看| 免费看光身美女| 大香蕉97超碰在线| 蜜臀久久99精品久久宅男| 亚洲图色成人| 色综合站精品国产| 99久久九九国产精品国产免费| 欧美色视频一区免费| 深夜a级毛片| 十八禁国产超污无遮挡网站| or卡值多少钱| 免费av不卡在线播放| 亚洲人与动物交配视频| 久久久成人免费电影| 秋霞伦理黄片| 欧美激情在线99| 亚洲精品aⅴ在线观看| 国产精品伦人一区二区| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 26uuu在线亚洲综合色| 中文字幕久久专区| 我要搜黄色片| 夜夜看夜夜爽夜夜摸| 麻豆av噜噜一区二区三区| 色吧在线观看| 色5月婷婷丁香| 日韩欧美精品免费久久| 日日啪夜夜撸| 中文字幕人妻熟人妻熟丝袜美| 色综合站精品国产| 人人妻人人澡人人爽人人夜夜 | 69人妻影院| 全区人妻精品视频| 久久久久网色| 中文欧美无线码|