摘" 要:為了能夠?qū)崟r準確地檢測出駕駛員的疲勞狀態(tài)及駕駛行為,保障汽車前排駕乘人員的安全駕駛,設(shè)計了一種面部與坐姿智能識別方法,用于實時判定前排駕乘人員的疲勞狀態(tài)及駕駛行為?;诓煌Y(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),捕捉面部和行為特征,定位頭部位置和行為狀態(tài),推斷疲勞程度和全身坐姿。實驗結(jié)果表明,打哈欠疲勞測試結(jié)果準確率高于長時間閉眼;My_Dense模型測試識別優(yōu)于其他兩種坐姿檢測模型。因此,面部與坐姿智能識別方法能夠有效地判定駕駛員的疲勞狀態(tài)及駕駛行為,提供精準輔助與安全預警。
關(guān)鍵詞:前排駕乘人員;面部識別;坐姿識別;駕駛行為
中圖分類號:TP391.4" " 文獻標識碼:A" " 文章編號:2096-4706(2024)23-0087-07
Research and Application of Intelligent Recognition Method of Face and Sitting Position Based on Front-seat Driver and Passenger
XIE Zhifeng, XIANG Feifei, XU Deheng, GAN Wenjin
(Jiangxi University of Technology, Nanchang" 330098, China)
Abstract: In order to detect the fatigue state and driving behavior of drivers in real time and accurately, and ensure the safe driving of front-seat drivers and passengers, an intelligent recognition method of face and sitting position is designed to determine the fatigue state and driving behavior of front-seat drivers and passengers in real time. Neural networks based on different structures capture facial and behavioral features, locate head position and behavioral state, and infer fatigue level and whole body sitting position. The experimental results show that the accuracy of yawning fatigue test is higher than that of prolonged closed eyes. My_Dense model test recognition is better than the other two sitting position detection models. Therefore, the intelligent recognition method of face and sitting position can effectively determine the driver's fatigue state and driving behavior, and provide accurate assistance and safety early warning.
Keywords: front-seat driver and passenger; facial recognition; sitting position recognition; driving behavior
0" 引" 言
由于近幾十年來,計算機技術(shù)、硬件性能的發(fā)展與提升,駕駛姿態(tài)[1-3]相關(guān)領(lǐng)域的研究取得了重大的突破。目前,國內(nèi)外關(guān)于駕駛姿態(tài)檢測的研究較多,其中主要的駕駛檢查手段可以分為基于駕駛員生理特點的檢測、基于機動車行為特點的檢測、基于駕駛員面部特征的檢測和基于駕駛員坐姿的檢測,具體內(nèi)容如下:
1)基于駕駛員生理特點的檢測[4]。即駕駛員穿戴上生物信息檢測裝置,通過這些設(shè)備,獲取到駕駛員生命體征,研究腦電波與腦疲勞之間的關(guān)系進行實驗,表明腦電波會隨著腦疲勞的變化而發(fā)生變化。例如,通過研究腦電波中的δ波、θ波、α波和β波的變化發(fā)現(xiàn)當駕駛員在疲勞狀態(tài)時,δ波的功率會有顯著增長,從而得出δ波的功率變化可以判斷駕駛員的駕駛狀態(tài)。
2)基于機動車行為特點的檢測[5]。當駕駛?cè)顺霈F(xiàn)疲勞狀態(tài)后,駕駛的車輛也會因此出現(xiàn)異常,主要表現(xiàn)在駕駛員對轉(zhuǎn)向、加踏板的壓力。從車道偏移、車輛加速度等因素來判斷駕駛員是否疲勞,例如,通過比較不同時鐘節(jié)點方向盤的轉(zhuǎn)動數(shù)據(jù)、車輪橫縱運動加速度和側(cè)面運動加速度,使用隨機森林算法來確定駕駛員的疲勞狀態(tài),并對這些影響指標進行分析,得出車輛橫向運動的加速度是分析駕駛員疲勞狀態(tài)的最佳指標的結(jié)論。
3)基于駕駛員面部特征的檢測[6]。通過圖像采集,獲取道駕駛員的面部特征,對視頻流進行實時分析,提取駕駛員的眼睛、嘴巴特征,從而進行疲勞判斷。例如,使用紅外攝像頭拍攝駕駛員的眼睛和嘴巴區(qū)域,計算眼瞼和瞳孔區(qū)域的像素數(shù)與眼睛區(qū)域的總像素數(shù)之比,以確定眼睛狀態(tài);采用自適應閾值法對嘴唇顏色和皮膚顏色進行分割,以確定嘴巴狀態(tài),并分別確定眼睛和嘴巴的打開和關(guān)閉狀態(tài),從而判斷駕駛員的疲勞狀態(tài)。
4)基于駕駛員坐姿的檢測[7]。通過對視頻與圖像兩種類型的數(shù)據(jù)集進行對比分析,并參考包括白色平衡、拉普拉斯算子在內(nèi)的多種圖像處理手段,探索了歸一化RGB模型與YCrCb模型在膚色提取上的表現(xiàn),同時評估了全圖像像素分析、連通域質(zhì)心距離計算以及雙手(臂)質(zhì)心坐標提取這三種特征提取方法的應用效果。此外,還對比了KNN、決策樹、神經(jīng)網(wǎng)絡(luò)等七種姿態(tài)分類算法,以深入分析它們在駕駛員姿態(tài)識別過程中的優(yōu)劣性和適用場景。分析結(jié)果顯示,駕駛員姿態(tài)識別技術(shù)距離成為成熟產(chǎn)品尚有差距,這主要是因為當前的膚色模型在應對光線變化時的魯棒性、姿態(tài)識別的精確度以及實時性能尚未滿足商業(yè)應用的標準。
針對汽車前排駕乘人員的面部與坐姿智能識別問題,本文設(shè)計了一種深度學習算法來對人臉和坐姿進行檢測,該算法易訓練、準確度高、對設(shè)備的要求較低,并且可以做到實時檢測,從而可以及時地對駕駛員進行警示[8-9]。
1" 模型設(shè)計
使用不同神經(jīng)網(wǎng)絡(luò)算法進行人臉及坐姿檢測,能夠同時完成人臉檢測和坐姿的任務(wù),相比于傳統(tǒng)算法性能更好,檢測速度更快,該算法是多層卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),使用了級聯(lián)思想,將復雜的問題分解后,降低了算法對設(shè)備的要求,容易訓練,并且可以逐步提高精度,所以準確度較高。神經(jīng)網(wǎng)絡(luò)模型圖如圖1所示。
1.1" 數(shù)據(jù)獲取
臉部數(shù)據(jù)來自廣泛用于人臉檢測模型訓練的WIDER Face數(shù)據(jù)集。數(shù)據(jù)集共有393 703張臉。每張臉都有更詳細的信息,包括blur(模糊程度)、expression(表情)、illumination(光照)、occlusion(遮擋)、pose(姿態(tài))。所以選擇WIDER Face數(shù)據(jù)集來對MTCNN模型進行訓練,共有61個大類。坐姿數(shù)據(jù)來自Kaggel官網(wǎng)的State Farm Distracted Driver Detection競賽,其被廣泛應用于駕乘人員姿態(tài)模型的訓練。數(shù)據(jù)集共有102 153張,共有10個大類。
1.2" 數(shù)據(jù)處理
臉部數(shù)據(jù)的位置是完全隨機的,圖片最小像素為40,最大不會超過原圖片邊寬的一半,最后選取IoU低于0.4并且將樣本resize到12×12,生成負樣本。在隨機偏移的人臉框中IoU大于0.65人臉,由于小臉可能會影響精度,所以將長或者寬的最大值小于40的人臉摒棄,保留大小符合精度條件人臉,生成正樣本。正負樣本劃分完成后,隨機偏移剩余的劃分為部分樣本。正樣本、部分樣本、負樣本的比例是1∶1∶3,因為偏移的負樣本數(shù)據(jù)不夠全面,因此負樣本的比例要多一些。坐姿數(shù)據(jù)中22 424張劃分為訓練集,79 729張劃分為測試集。其中,訓練集分為安全駕駛、用右手發(fā)短信、用右手打電話、用左手發(fā)短信、用左手打電話、操作收音機、喝飲料(或喝酒)、伸手到后面、整理發(fā)型和妝容和其他乘客說話共10類,且按照8∶2將訓練集劃分為訓練集和驗證集,用于模型訓練及調(diào)優(yōu)。
2" 模型訓練
MTCNN模型用于臉部數(shù)據(jù)訓練,由三個子網(wǎng)絡(luò)依次分別訓練,首先訓練P-Net,待其訓練好后,將其訓練結(jié)果用于R-Net的訓練數(shù)據(jù),然后對R-Net進行訓練。同樣地,R-Net訓練完后,將其訓練結(jié)果用于O-Net的訓練數(shù)據(jù),最后訓練O-Net。My_Dense模型、My_CNN模型和My_Data_Augmentation模型分別用于坐姿數(shù)據(jù)訓練。其中,My_Dense模型由一個輸入層、三個隱藏層和一個輸出層組成;My_CNN模型由一個卷積層、池化層、Flatten層和輸出層構(gòu)成;My_Data_Augmentation模型由4個卷積層、1個最大池化層、1個Flatten層、1個全連接層、1個Dropout層和1個輸出層組成。
2.1" 數(shù)據(jù)歸一化
MTCNN模型開始訓練前,需要將圖片傳入進行歸一化,將圖片復制,獲取長和寬,當圖片的長和寬最小的大于500,最大的小于500時,將圖片的比例縮放到500,這樣做的原因是讓輸入模型中訓練的圖片保持相對正常的尺寸,至少有一邊是500,另一邊不會過分大,也不會過分小。My_Dense模型、My_CNN模型和My_Data_Augmentation模型分別將圖像數(shù)據(jù)的像素值從[0,255]縮放到[0,1],以提高數(shù)值穩(wěn)定性,然后分別為訓練和測試數(shù)據(jù)集創(chuàng)建數(shù)據(jù)流,指定了批量大小為128,并將每個圖像的大小都生成指定的批量大小,不斷產(chǎn)生圖像數(shù)據(jù)和標簽,用于訓練和評估深度學習模型。
2.2" 特征點定位
2.2.1" 臉部數(shù)據(jù)定位
Dlib庫封裝了許多優(yōu)秀的機器學習算法,可實現(xiàn)人臉識別、檢測、識別,視頻目標追逐等功能,是由C++開發(fā)的一個開源程序庫,目前也提供了Python接口,可供我們直接調(diào)用。由于MTCNN模型在實時人臉識別的準確率上較優(yōu)于Dlib庫封裝的人臉識別,所以將MTCNN模型與Dlib庫結(jié)合使用,得到人臉后使用Dlib庫提取人臉上的68個特征點,坐標形式返回。提取面部特征點,獲得眼睛、嘴巴坐標,對眼睛、嘴巴狀態(tài)進行計算獲得駕駛員打哈欠、眨眼頻率、閉眼時間,判斷駕駛員的疲勞狀態(tài),人臉特征點定位如圖2所示。
2.2.2" 坐姿數(shù)據(jù)定位
MediaPipe庫是一個跨平臺的機器學習管道Python框架,用于構(gòu)建多媒體處理管道,其內(nèi)含的Pose模型檢測坐姿數(shù)據(jù)中的人體姿態(tài)關(guān)鍵點,能夠檢測人體上的33個關(guān)鍵點(如頭部、身體、四肢等部位),并在檢測到的關(guān)鍵點上繪制連線。其首先將圖片從BGR格式轉(zhuǎn)換為RGB格式,借助process方法獲取關(guān)鍵點,如果檢測到關(guān)鍵點則使用mediapipe.solutions.drawing_utils.draw_landmarks函數(shù)在原始圖片上繪制關(guān)鍵點及其連線,最后將處理后的圖片保存,實現(xiàn)對人體姿態(tài)的精準檢測和可視化展示,如圖3所示。
2.3" 判定訓練
2.3.1" 疲勞判定訓練
前排駕乘人員是否疲勞可根據(jù)嘴巴和眼睛特征點的實時狀態(tài)判定[9-10]。在駕駛員駕駛車輛時,駕駛員的嘴巴狀態(tài)也是判斷其是否處于疲勞駕駛的重要條件之一。打哈欠是人在疲勞狀態(tài)下的條件反射,通過吸取更多的空氣,從而激發(fā)中樞神經(jīng)。因此,通過計算出嘴巴橫向比值(Mouth Aspect Ratio, MAR)從而對嘴巴狀態(tài)做出評價:1)提取嘴唇邊緣和嘴角特征點,將這些特征點作為輸入。2)由于是計算嘴巴縱橫比,所以選擇嘴角特征點,計算嘴巴所對應的歐氏距離。
人的嘴巴狀態(tài)分為閉合、半張嘴和全張嘴,而駕駛員在行車過程中一般都處于閉合和半張嘴狀態(tài),而人在打哈欠時處于全張嘴狀態(tài),所以為了判斷駕駛員是否打哈欠,則需要為嘴巴縱橫比設(shè)定一個閾值。當嘴巴縱橫比平均值處于0~0.3之間說明處于閉合狀態(tài),當嘴巴縱橫比處在0.4~0.5之間則說明處于正常開口說話的半張嘴狀態(tài),而當出現(xiàn)打哈欠行為時,嘴巴縱橫比將會急劇上升超過0.6,并且持續(xù)一段時間。所以最終將0.6作為嘴巴縱橫比EAR的閾值,即當大于此閾值時,判定駕駛員出現(xiàn)打哈欠行為。嘴巴縱橫比閾值如表1所示。
在駕駛員駕駛車輛時,駕駛員的眼睛狀態(tài)是判斷其是否處于疲勞駕駛的重要條件之一。因此,通過計算眼睛的縱橫比(Eye Aspect Ratio, EAR)從而對眼睛狀態(tài)做出評價:1)分別提取左眼特征點、右眼特征點,將這些特征點作為輸入。2)計算兩只眼睛所對應的歐氏距離,歐幾里得距離也被稱為歐氏距離,是公認的距離定義,指的是m維空間中兩點之間的實際距離或矢量的自然長度,歐幾里得距離是二維和三維空間中兩點之間的實際距離。3)因為眨眼是人腦的反射作用,一般左右眼都會同時眨眼,所以求左右眼的平均值。
人的眼睛狀態(tài)分為睜眼和閉眼,從而形成了人的眨眼行為,所以為了判斷眼睛是否處于閉眼狀態(tài),需要為眼睛縱橫比設(shè)定一個閾值。當眼睛縱橫比平均值處于0.2~0.3之間說明處于睜眼狀態(tài),當眼睛縱橫比平均值處在0.12~0.14之間則說明處于閉眼狀態(tài)。為了避免發(fā)生“淺眨眼”現(xiàn)象而導致漏檢,最終將0.2作為眼睛EAR的閾值,即當小于此閾值時,就可以判斷眼睛為閉合狀態(tài)。根據(jù)眼睛的特征點的坐標計算當前人臉眼睛的張開程度,由于眨眼是人腦的反射作用,一般左右眼都會同時眨眼,所以求左右眼的平均值如果左右眼的張開程度的平均值小于設(shè)定好的閾值0.2時,判定為閉眼狀態(tài),當閉眼幀數(shù)到達60幀/秒時,則駕駛員閉眼超過2秒,判定駕駛員長時間閉眼。眼睛縱橫比閾值見表2。
2.3.2" 坐姿判定訓練
前排駕乘人員是否坐姿規(guī)范可根據(jù)人體特征點的實時位置判定[11-12]。在駕駛員駕駛車輛時,駕駛員的坐姿狀態(tài)同樣是判斷其是否處于規(guī)范駕駛的重要條件之一。坐姿數(shù)據(jù)中包含安全員駕駛、發(fā)短信和打電話等10種駕駛行為圖像。為了更好地訓練My_Dense模型、My_CNN模型和My_Data_Augmentation模型,適應不同坐姿識別與判定,將坐姿數(shù)據(jù)中的22 424張分為均衡的10個坐姿類別,進行監(jiān)督學習訓練,訓練結(jié)果如圖4所示。由圖可知,My_CNN模型識別性能優(yōu)于My_Dense模型、My_Data_Augmentation模型。
3" 模型測試
3.1" 參數(shù)設(shè)置
得到輸入模型的原圖片之后,設(shè)置factor縮放因子為0.709,在保留原圖的基礎(chǔ)上將原圖按照factor進行縮放,縮放后的圖片保留再按照factor縮放,直到長和寬最小的小于12時,停止縮放,獲得圖像金字塔。最后將圖像金字塔中的圖片依次輸入模型中P-Net、R-Net、O-Net訓練,MTCNN模型最終輸出的結(jié)果是圖片中人臉候選框的坐標和五個人臉特征點。將訓練得到的MTCNN模型使用WIDER Face數(shù)據(jù)集的驗證集(包含非人臉、部分人臉、人臉)和標注文件,按照交并比(IoU)計算人臉候選框的坐標與數(shù)據(jù)集中實際標注的人坐標的重疊率,計算MTCNN模型的人臉檢測準確率。經(jīng)過在訓練集上的測試,計算出模型的準確率。My_Dense模型三個隱藏層分別由512、256和128個神經(jīng)元和ReLU激活函數(shù)構(gòu)成,一個輸出層由10個神經(jīng)元和構(gòu)成softmax激活函數(shù)構(gòu)成;My_CNN模型卷積層由32個3×3的卷積核和ReLU激活函數(shù)構(gòu)成,輸出層由10個神經(jīng)元和softmax激活函數(shù)構(gòu)成;My_Data_Augmentation模型第1個卷積層由32個3×3的卷積核和ReLU激活函數(shù)構(gòu)成,第2個卷積層由128個3×3的卷積核和ReLU激活函數(shù)構(gòu)成,第3個卷積層由128個3×3的卷積核和ReLU激活函數(shù)構(gòu)成,第4個卷積層由4個3×3的卷積核和ReLU激活函數(shù)構(gòu)成,全連接層由512個神經(jīng)元和ReLU激活函數(shù)構(gòu)成,輸出層由10個神經(jīng)元和softmax激活函數(shù)構(gòu)成。
3.2" 疲勞判定測試
經(jīng)研究得知人在疲勞狀態(tài)下,注意力難以集中,容易出現(xiàn)精神恍惚甚至閉眼狀況[13]。檢測根據(jù)眼睛縱橫比的設(shè)定和眼睛疲勞狀態(tài)判斷進行測試,眼睛縱橫比小于0.2并且連續(xù)2秒判斷為閉眼,本次測試視頻設(shè)置為30幀/秒,所以眼睛縱橫比小于0.2連續(xù)60幀/秒判斷為疲勞,如圖5所示。
圖5(a)為正常狀態(tài)下檢測的效果,(b)為模擬長時間閉眼狀態(tài)到達設(shè)置好的閾值時檢測的效果。從圖中的效果可以判斷眼睛疲勞狀態(tài)判斷功能正常。
除了眼睛特征疲勞外,打哈欠也是疲勞狀態(tài)的一種體現(xiàn),人在疲勞時很容易打哈欠,本次主要是對嘴巴疲勞判斷進行測試,如果嘴巴的縱橫比大于0.6并且連續(xù)1.2秒判斷為打哈欠,所以嘴巴的縱橫比大于0.6并且連續(xù)36幀/秒判斷為疲勞,如圖6所示。
圖6(a)為正常狀態(tài)下檢測的效果,(b)為模擬打哈欠狀態(tài)到達設(shè)置好的閾值時檢測的效果。從圖中的效果可以判斷嘴巴疲勞狀態(tài)判斷功能正常。
完成疲勞特征檢測的功能測試后,還需要對檢測的準確率進行驗證,由于駕車存在不確定因素,考慮到測試的安全性,本文使用YawDD數(shù)據(jù)集進行測試,YawDD數(shù)據(jù)集里面包含有不同性別、年齡的志愿者模擬實際駕駛場景的視頻,其中包含有模擬疲勞駕駛的視頻。
首先對長時間閉眼進行測試,實際長時間閉眼次數(shù)為100次,同時進行實時檢測并記錄檢測次數(shù)。然后記錄YawDD數(shù)據(jù)集中志愿者打哈欠次數(shù)。再對YawDD數(shù)據(jù)集進行逐條檢測,每一段當志愿者做出打哈欠行為時記錄,得到的結(jié)果如表3所示。
統(tǒng)計結(jié)果表明,準確率較高,但是疲勞特征檢測還是都有所誤差,初步判斷由于個別個體的差異,導致有的人在眨眼時眼睛縱橫比可能小于0.2,說話時嘴巴縱橫比可能大于0.6,由于眼睛和嘴巴特征提取相對容易,且大眾的差異較小,所以準確率相對較高。
3.3" 坐姿判定測試
通過訓練集的學習,My_Dense模型、My_CNN模型和My_Data_Augmentation模型具備了一定的識別能力。為了更好地測試3種模型的泛化能力,測試不同坐姿識別,將坐姿數(shù)據(jù)中的79 729張共10個坐姿類別混合在一同測試,進行隨機坐姿識別,測試結(jié)果如圖7所示,展示了3種模型部分識別結(jié)果。由表4可知,對比識別精度和損失度,My_Dense模型測試識別優(yōu)于My_CNN模型、My_Data_Augmentation模型。
4" 結(jié)" 論
研究實現(xiàn)的面部和坐姿識別具有實時性、準確率高、成本低等優(yōu)點,在不對駕駛員造成干擾的前提下進行檢測,確保駕駛員正常駕駛。后續(xù)將從以下幾個方面進行研究:
1)車輛在夜間或者隧道行駛過程中,由于光線不足,對檢測影響較大,可以通過使用紅外攝像頭來加強黑暗環(huán)境下圖像的質(zhì)量或者添加光照補償算法降低光線變化的影響。
2)駕駛員在駕車時,變道時經(jīng)常需要觀察后視鏡觀察車況,而由于駕駛員頭部扭動后,很難通過眼睛、嘴巴識別出駕駛狀態(tài),可以通過添加頭部姿態(tài)特征識別的方法檢測駕駛員的疲勞狀態(tài)。
3)車輛行駛時,影響因素眾多,后續(xù)應該添加不同的樣本數(shù)據(jù)集。包括光照環(huán)境、頭部姿態(tài),并且融合方向盤的轉(zhuǎn)向角度和頻率、車道偏移、車輛加速度等特征檢測,構(gòu)建多數(shù)據(jù)融合檢測的疲勞駕駛方法。
同時,重點研究坐姿與精神狀態(tài)關(guān)系,通過結(jié)合面部特征識別結(jié)果,坐姿智能識別系統(tǒng),全面地評估駕乘人員的駕駛狀態(tài),從而提供更精準的駕駛輔助與安全預警。
參考文獻:
[1] 韓勇,李明旺,張悅蓯,等.MPDB工況下駕駛員姿態(tài)對損傷風險的研究 [J].汽車工程,2024,46(5):874-881.
[2] 李少凡,高尚兵,張瑩瑩.用于駕駛員分心行為識別的姿態(tài)引導實例感知學習 [J].中國圖象圖形學報,2023,28(11):3550-3561.
[3] 王彬,趙作鵬.基于雙流全卷積網(wǎng)絡(luò)的駕駛員姿態(tài)估計方法 [J].江蘇大學學報:自然科學版,2022,43(2):161-168.
[4] 劉哲義.高速公路追尾碰撞事故與駕駛員的生理和心理特點 [J].汽車研究與開發(fā),1999(4):30-32.
[5] 張志遠.基于深度學習的機動車駕駛員危險駕駛行為檢測方法研究 [D].杭州:杭州電子科技大學,2023.
[6] 趙耿耿.基于圖像增強與多特征融合的疲勞駕駛檢測及系統(tǒng)實現(xiàn) [D].哈爾濱:黑龍江大學,2024.
[7] 張軍,何杰,吳冠鶴,等.基于視頻與圖像的駕駛員姿態(tài)識別方法比較分析研究 [J].武漢理工大學學報:交通科學與工程版,2020,44(3):435-438.
[8] 楊艷艷,李雷孝,林浩.提取駕駛員面部特征的疲勞駕駛檢測研究綜述 [J].計算機科學與探索,2023,17(6):1249-1267.
[9] 陳仁文,袁婷婷,黃文斌,等.卷積神經(jīng)網(wǎng)絡(luò)在駕駛員姿態(tài)估計上的應用 [J].光學精密工程,2021,29(4):813-821.
[10] 蔡闖闖,劉慶華.基于多特征數(shù)據(jù)融合的疲勞駕駛檢測研究 [J].江蘇科技大學學報:自然科學版,2023,37(5):52-57.
[11] 孫健,唐旭,徐永能,等.融合機器視覺與高精度定位的高速公路疲勞駕駛行為檢測方法 [J].交通運輸研究,2023,9(6):78-87+118.
[12] 張劍書,王浩然,王彥博,等.基于姿態(tài)估計的駕駛員分心駕駛狀態(tài)分類算法研究 [J].南京工程學院學報:自然科學版,2023,21(1):22-26.
[13] 牟德治,李伊昂,鄒健強,等.結(jié)合車道線檢測與駕駛員面部姿態(tài)識別的駕駛安全輔助提醒方法研究 [J].科技與創(chuàng)新,2023(9):27-30+35.
作者簡介:謝智峰(1993—),男,漢族,江西南昌人,講師,碩士,研究方向:數(shù)據(jù)挖掘與算法優(yōu)化。