中圖分類號:TP391.4;TP397 文獻標識碼:A 文章編號:2096-4706(2025)12-0063-06
Research on Port Tailgating Behavior Detection Method Based on Machine Vision
LIRunhan',ZHANGMei2 (1.Graduate College,China People'sPoliceUniversity,Langfang O65ooo,China; 2.College ofImmigration Management, China People's Police University,Langfang O65ooo,China)
Abstract:To detect the behavior of unauthorized individuals tailgating legitimate passengers at self-service border control gates,thispaper studies thedetectionoftailgating behaviorusingaschemeofanalyzingpedestrian motionattribute characteristicsbyTargetDetectionandtargetrackingmethod.First,thebehaviorisdefiedthroughaninterdisciplinaryotent. Then,a Target Detectionalgorithm isused to identifythelegitimate individuals passngthrough thegates.Atargetracking algorithmisappliedtoextractthemovement tajectoriesofthesubjects,obtainingthespatialrelationshipbetweensuspicious individualsandlegitimatepassngers.Themovementatributesofthetargetsarequantitativelystudied,thethresholdisset, the movementcharacteristicsof individuals are analyzed,and the folow-up judgmentresultsareobtained.This enables the representationof tailgatingbehaviorandtheconstructionofanautomaticrecognitionmodelfor tailgatingbehaviorin specific scenarios.Experimentalresultsshowthatthisalgorithmcanefectivelydetecttailgaters inborderinspectionhallandachieve safe management and control of risky behaviorswithin the area.
Keywords: Machine Vision; Target Detection; movement analysis; abnormal behavior
0 引言
在出入境安全管控中,尾隨行為對口岸安全造成極大威脅。針對口岸人員通關場景下,風險行為自動識別準確率低、預警難的問題。本文對于口岸通關人員尾隨行為展開了研究,主要內(nèi)容為:口岸人員風險行為范式構建;邊檢大廳通關尾隨行為風險識別;閉路電視融合口岸場景人員進行非接觸式行為檢測。實現(xiàn)通關人員風險行為識別與預警,獲取人員行為信息。通過口岸通關人員尾隨行為范式的研究和構建非接觸式監(jiān)控體系,對可疑行為進行精準判定。該過程與傳統(tǒng)的口岸管控人員進行現(xiàn)場排查的方式相比,完成了實時自動化風險行為檢測。
針對區(qū)域內(nèi)尾隨行為的研究主要有數(shù)字圖像處理方法和利用計算機視覺的目標檢測與跟蹤算法。圖像處理方法利用特征描述子提取目標輪廓開展目標檢測,再使用卡爾曼濾波進行目標跟蹤[1。但該算法受環(huán)境影響所帶來的誤差較大,不具備邊檢大廳場景適用性。計算機視覺方法進行尾隨判別利用了YOLOv5算法進行行為識別,其方法較落后且只考慮了人體間距情況,并不適用于口岸上的尾隨情景[2。針對邊檢大廳場景下通關人員風險行為具有突發(fā)性高、隱蔽性強等特點,研究采用YOLOv8算法和ByteTrack算法對自助通關區(qū)域內(nèi)的個體進行目標檢測與跟蹤,設定尾隨風險行為的范式定義和模式定義,利用數(shù)學、視頻偵查技術方法分析其運動屬性。對滿足定義的運動風險特征進行非接觸式組合檢測,實時精準地識別出檢測區(qū)域內(nèi)的尾隨行為風險人員。
1 尾隨行為的定義
尾隨行為的描述與界定決定了其計算機識別算法的設計,研究主要工作為:對尾隨風險行為范式進行構建、提取出尾隨行為的特征集描述。
從犯罪學視角考慮:邊檢大廳尾隨嫌疑人會在擁擠區(qū)域發(fā)生徘徊猶豫行為并伺機尾隨。尾隨行為作為人-人交互行為,其最顯著行為學特征就是人際距離,人際距離縮短[3],極易出現(xiàn)尾隨行為。
基于尾隨行為的各項特征,國際上的行為管控研究將尾隨行為分為兩種,一種是被尾隨人主觀上不知道自己被尾隨,這種情況稱為Tailgating[4,即未授權人跟在合法人員的后方來規(guī)避檢測系統(tǒng)。第二種是被尾隨人主觀上知道自己被尾隨,且有意讓尾隨人跟在其身后,這種情況稱為Piggybacking[5],即未授權人得到了合法通關人員的許可躲避門禁檢測系統(tǒng)。通過風險行為范式的研究,挖掘風險行為的標志性動作組成,對各項尾隨行為特征進行行為定義。
2 尾隨行為的識別過程
本文對尾隨行為的識別過程如圖1所示,先進行行為定義、再開始目標檢測與跟蹤、劃定檢測區(qū)域、區(qū)域計數(shù)操作。當區(qū)域內(nèi)個體大于1時,開始方向判定,對區(qū)域內(nèi)運動方向為靠近閘機的多個目標進行歐氏距離檢測。當這些目標之間的歐氏距離小于閾值,則判定為尾隨。當區(qū)域內(nèi)個體數(shù)量小于等于1時,在該區(qū)域內(nèi)停止尾隨檢測。如果區(qū)域內(nèi)單個目標運動方向表現(xiàn)為遠離閘機時,對該離開目標取消尾隨檢測。
圖1尾隨行為檢測流程
2.1 行為定義
邊檢大廳通關人員的尾隨行為定義為:在閘機入口檢測區(qū)域內(nèi),存在被尾隨目標向閘機靠近,尾隨目標與被尾隨目標運動方向一致,且尾隨間隔距離小于閾值,這樣的行為稱為尾隨。其中尾隨目標指尾隨的一個及以上對象。被尾隨目標指閘機附近準備通關的人員。
定義由幾個關鍵部分組成:
1)閘機入口處劃定尾隨檢測區(qū)域。
2)區(qū)域內(nèi)有目標向閘機靠近。
3)尾隨目標和被尾隨目標方向相同。
4)尾隨目標與被尾隨目標間隔距離小于閾值。
閘機入口處的尾隨檢測區(qū)域,標定了尾隨行為發(fā)生的地點,即在準備通關的合法人員周邊和閘機附近發(fā)生的動作。在該區(qū)域內(nèi),尾隨人可能出現(xiàn)猶豫,徘徊的行為特征。區(qū)域內(nèi)向閘機靠近的目標,標定了目標的犯罪意圖。尾隨目標與被尾隨目標方向相同,標定了尾隨人針對被尾隨人持續(xù)性地跟追。尾隨目標與被尾隨目標的間隔小于閾值,體現(xiàn)了尾隨行為最根本的特征,持續(xù)性距離過近。
邊檢大廳通關人員符合以上四個運動和空間特征的行為,被定義為尾隨行為。滿足如上定義的尾隨行為在邊檢大廳常常表現(xiàn)為兩種形式,在口岸人員通關實際場景中,根據(jù)實踐將邊檢大廳存在的尾隨行為分為路徑重合尾隨和側方位尾隨,如圖2所示。
圖2尾隨行為類別
圖3算法架構圖
2.2 目標檢測與跟蹤
研究采用YOLOv8算法和ByteTrack算法對口岸行人目標進行檢測與跟蹤。首先識別出邊檢大廳場景下的所有通關人員,再通過運動特征提取識別出在通關中存在尾隨行為的風險人員。YOLOv8算法與ByteTrack算法相結合的算法架構圖如圖3所示。
2.2.1 目標檢測
YOLOv8算法是基于Darknet神經(jīng)網(wǎng)絡框架和卷積神經(jīng)網(wǎng)絡進行目標檢測與分類的目標檢測算法[。算法側重關鍵人員局部特征,基于卷積神經(jīng)網(wǎng)絡完成目標檢測。利用單次前向傳播算法判斷目標的位置和類別。對于輸入的圖像,通過多個卷積層進行處理,生成不同的特征圖。再經(jīng)過池化層提取圖像特征。為后續(xù)構建通關人員異常動作檢測和異常行為識別模型,實現(xiàn)對邊檢大廳通關人員風險行為的準確識別做鋪墊。
2.2.2 目標跟蹤
為了準確追尋人員移動軌跡,實現(xiàn)通關人員跟蹤及軌跡分析。研究使用多目標跟蹤技術領域表現(xiàn)較好的ByteTrack算法進行多目標行人跟蹤。傳統(tǒng)的目標跟蹤方法檢索置信度分數(shù)高于閾值的檢測框預測目標移動軌跡,舍棄低于閾值的檢測結果。該算法將高置信度檢測結果與低置信度檢測結果同時保留用來預測軌跡,該算法相對于傳統(tǒng)跟蹤算法的效果較好,滿足了實時跟蹤的要求,與其他算法在MOTA(跟蹤準確度)、MOTP(跟蹤精度)、FPS(跟蹤速度)三個方面指標的效果比較如表1所示[7]。
表1跟蹤算法效果對比
MOTA衡量的是跟蹤算法的整體表現(xiàn),包括精確度、誤報及身份切換的錯誤。MOTP則專注于跟蹤的準確性,表示標注框與預測框間的不匹配程度。FPS指跟蹤速度,即每秒跟蹤多少張圖片,F(xiàn)PS超過30為實時跟蹤。ByteTrack算法在處理同一個目標在跟蹤場景下消失后又出現(xiàn)這方面有較好的表現(xiàn),滿足了未來研究中跨攝像頭多視頻多場景風險行為管控要求[8]。
2.3 運動屬性分析
2.3.1 獲取目標質(zhì)點
在人群密度高的口岸邊檢場景,利用感知設備所采集到的數(shù)據(jù)存在稀疏性、覆蓋范圍不足、信息片面等特點,對人員難以進行全面跟蹤定位和關鍵風險行為提取。本文采用了提取人體目標檢測框質(zhì)點的方式分析人員運動特征。
提取目標人體檢測框的質(zhì)點,即檢測框中心點坐標[。每一組檢測框由左上角點和右下角點的坐標表示,這些坐標共同確定了行人檢測框的質(zhì)心坐標,進而確定每個行人檢測框的瞬時質(zhì)點位置。在目標開始運動時,繪制每一時刻的質(zhì)點軌跡,質(zhì)點軌跡反映被檢測目標的運動路徑。
2.3.2 檢測區(qū)域劃定
在閘機附近劃定檢測區(qū)域,于區(qū)域內(nèi)檢測通關人員和閘機周邊存在的距離過近的可疑人員。區(qū)域長度起始點為行人等待處,終點為閘機口處。成年人平均步長在70到80厘米左右,場地一塊地磚的長度為80厘米。區(qū)域?qū)挾仍O置為上方包含行人全身,下方包括一塊地磚的長度。在本實驗中,圖像上的二維檢測區(qū)域的像素長度設置為 700px ,像素寬度為 550px 。
圖4展示檢測區(qū)域內(nèi)行人正常通關時的場景,檢測框中心點為目標質(zhì)點。目標移動時,質(zhì)點產(chǎn)生一段運動軌跡。檢測框上方的標注為行人運動方向,檢測區(qū)域內(nèi)的行人正在通關。
圖4實驗中劃定的檢測區(qū)域
2.3.3 區(qū)域入侵檢測與人員計數(shù)
對于管控區(qū)域異常入侵的探測預警,使用光學圖像對檢測區(qū)域進行通道入侵檢測[10]。在檢測區(qū)域劃定周界。將劃定的檢測區(qū)域作為區(qū)域入侵檢測的邊框,檢測其中的目標,進行人員侵入預警及行為研判。
在劃定的檢測區(qū)域內(nèi),進入?yún)^(qū)域的人員分為合法目標和可疑目標??梢赡繕吮徽J為存在尾隨風險。當?shù)谝粋€目標進入?yún)^(qū)域時,算法認定該人員正在進行自助通關操作。檢測區(qū)域內(nèi)的目標計數(shù)加一。該目標被判斷為合法目標,不做標記。
后續(xù)多個目標進入計數(shù)區(qū)域時,區(qū)分第一個進入?yún)^(qū)域的目標和后續(xù)進入?yún)^(qū)域的目標[1],同時顯示區(qū)域內(nèi)的個體數(shù)量。區(qū)域外的目標不做檢測,進而識別通關人員尾隨行為。
2.3.4 運動方向檢測
基于試驗場地上標定的相機位置,將目標的運動方向分為靠近閘機(Upward)、遠離閘機(Downward)。研究采用目標軌跡在 x 軸上的投影變化分析目標運動方向。在圖像上定義垂直坐標軸,坐標原點O位于視頻左上角,x軸正方向和y軸正方向分別沿圖像上邊沿向右和圖像左邊沿向下延伸。視頻分辨率為1 280px×720px 。 軸的像素值長度為 1280px ,y軸的像素值長度為 720px 。
閘機在視頻監(jiān)控左方,將向左運動的目標判定為靠近閘機的目標。用保留的質(zhì)點繪制軌跡,取前 k 個軌跡點的連線作為目標的運動方向向量[12]。取該向量在 x 軸方向上的投影,用質(zhì)點在當前保留的軌跡于x 軸分量的始末位置的橫坐標差值標定目標的投影方向。質(zhì)點當前幀的 x 坐標值減去質(zhì)點起點的 x 坐標值,差記為 dx ,如下所示:
dx=xc-xk
其中, xc 表示檢測框中心質(zhì)點橫坐標, xk 表示保留的第 k 個質(zhì)點。當 dxgt;0 時,目標向左運動,判定為遠離閘機方向;當 dxlt;0 時,目標向右運動,判定為靠近閘機方向。
2.3.5 尾隨間隔管理
尾隨間隔管理技術[13]作為一種越界檢測分析最早應用在機場航班管制領域。在行人越界檢測方面,其界限分為時間界限和空間界限。時間界限指:控制每隔一段時間才允許個體或物體通過,該方案需要綜合考慮到通關物體的步長變化和移動速度,主要針對公共交通工具設定??臻g界限指每個通關個體之間的距離差值要大于一定閾值,可以應用在人際尾隨間隔管理方面??臻g間隔距離是尾隨行為中最顯著的特征,可以通過計算兩個個體之間的歐氏距離值來衡量。研究利用區(qū)域內(nèi)其他目標質(zhì)心到被尾隨目標質(zhì)心的歐氏距離[14]來進行越界識別。相當于為每個目標設定了可移動的開放周界。在目標進行自助通關時,對其他進入該周界的目標進行行為識別,判定風險行為。劃定周界進行尾隨間隔管理的歐氏距離計算式為:
其中, d 表示歐氏距離, n 表示 n 維空間, (xi yi, )表示空間內(nèi)兩個點的坐標。后方同向目標與當前目標尾隨間隔距離小于 d 時,將該組目標判定為尾隨。
2.3.6 尾隨行為認定
第一個進入口岸檢測區(qū)域的目標為靶向目標。當靶向目標通關后,第二個進入檢測區(qū)域的目標成為靶向目標。靶向目標后方與其間隔距離小于閾值的,運動方向和靶向目標相同且向閘機靠近的目標判定為尾隨目標。尾隨的認定情形有兩種:
1)尾隨目標從側后方靠近靶向目標,企圖尾隨。
2)尾隨目標從正后方靠近靶向目標,企圖尾隨。
針對這兩種尾隨情形,開始實驗仿真。
3 實驗結果分析
3.1 數(shù)據(jù)集
模型使用了公開評價的COCO數(shù)據(jù)集進行訓練。COCO數(shù)據(jù)集針對復雜場景構建了多種姿態(tài),情形下的行人監(jiān)測圖片數(shù)據(jù),包括80種物體類別。COCO數(shù)據(jù)集中小目標圖像較多,滿足了對遮擋下的人員異常動作識別的要求。其在人-人互動行為的檢測中表現(xiàn)出了優(yōu)越性[15-16]。其中約有285 000 個行人標注實例,研究中數(shù)據(jù)以9:1劃分為訓練集與測試集。
3.2 參數(shù)設置
實驗中需要確定的參數(shù)值分別為 k 值(保留質(zhì)點數(shù))、 d 值(歐氏距離閾值)。參數(shù)的大小由實驗確定。
3.2.1 k 值確定
k 值表示保留人體檢測框中心質(zhì)點的個數(shù),通過影響保留軌跡的長短影響方向檢測。 k 的大小影響運動方向檢測的靈敏度和準確率,用恒定運動的人體在檢測中的方向誤判頻率來確定 k 值的大小。當 k=2 時,相當于用質(zhì)心的當前幀位置和前一幀位置的差值判斷運動方向。當 k 取較大值時,相當于用目標當前幀位置和目標出現(xiàn)的初始幀位置差值判斷運動方向,該方法會導致對目標轉(zhuǎn)向判斷的靈敏度下降。實驗中誤判次數(shù)記為 n , n 隨 k 變化的圖像如圖5所示。
圖5 k 值與方向變化誤差
縱坐標為誤判次數(shù),橫坐標為 k 值。 k 取40時,對運動方向的誤差判斷為0。隨著視頻幀數(shù)的增加,保留的質(zhì)點軌跡會不斷縮短。當軌跡縮短到一定范圍內(nèi)后,隨著人體姿態(tài)的變化,會產(chǎn)生方向誤判。
3.2.2 (204 d 值確定
d 值在實驗中設置為剛好可以保證合法通關人員通過的值,該值設置為 75px 像素距離。像素距離低于閾值的向閘機方向運動的人員判定存在尾隨風險。
3.3 實驗過程
實驗采用相機型號為奧林巴斯E-M5三代,視頻拍攝幀速率為1秒25幀,視頻分辨率為 1 280px× 720px ,計算機處理器型號為i710700。顯卡型號為GTX1650。在口岸邊防檢查實驗室進行尾隨行為算法檢測實驗,實驗分為側方位尾隨、后方尾隨。
3.3.1相機位置和檢測區(qū)域在實際空間中的坐標
邊檢大廳人員密集,行人容易受到遮擋、檢測精度等因素的影響,再加上監(jiān)控圖像拍攝的時間、地點隨機,且光線、角度、姿態(tài)不同,為通關人員軌跡和行為的實時感知帶來巨大挑戰(zhàn)。為了避免行人遮擋,提高檢測精度,固定拍攝位置,將防尾隨相機固定。尾隨相機與閘機在空間內(nèi)的關系如圖6所示。
其中,點G代表相機位置,為Camera。檢測區(qū)域為ABCD連成的矩形區(qū)域。閘機腳為點T(Tumstiles)。F為點G在水平地面上的投影。
圖6相機與閘機試驗場地位置關系
3.3.2 后方尾隨檢測
風險人員正在尾隨通關人員,待閘門開啟后伺機尾隨通關人員進入閘機。實驗結果如圖7所示,算法識別出尾隨行為并標注尾隨人員。
圖7區(qū)域內(nèi)后方尾隨檢測
3.3.3 側方尾隨檢測
一名人員正常通關,其正后方人員在檢測區(qū)域內(nèi)的等候區(qū)等待,一名風險人員從側方位進入閘機企圖尾隨通關人員。實驗結果如圖8所示,算法識別出尾隨行為并標注被尾隨人員。
圖8區(qū)域內(nèi)側方尾隨檢測
3.3.4實驗的虛警率與漏檢率
對口岸自助通關過程的尾隨過程進行仿真模擬,進行100組實驗,計算虛警率與漏檢率。算法參數(shù)為:距離閾值75,保留40個質(zhì)點。系統(tǒng)檢測出紅色尾隨標記框為報警依據(jù)。其中,虛警率與漏檢率的算式為:
其中, NFA 表示誤報的次數(shù)(FalseAlarms), NA
表示報警的總次數(shù)(TotalAlarms)。
其中, NMD 表示漏檢的次數(shù)(MissedDetections), NT 表示目標實際出現(xiàn)的總次數(shù)(TotalActual Targets)。
根據(jù)表3可得出:100組實驗中,算法的虛警率為 27% ,漏檢率為 23% ,準確率為 67‰ 實驗仿真表明,算法在檢測實驗室場景下的標準尾隨存在一定的準確率。但嫌疑人對算法有初步了解的情況下進行的間距控制尾隨,速度控制尾隨的檢測中仍然存在較高的虛警率與漏檢率。
表3虛警率與漏檢率
4結論
本文設計了一種口岸尾隨行為檢測算法,算法對識別邊檢大廳的人-人交互風險行為具有初步的準確率。后續(xù)應當進一步對具備對抗意識的潛在違法人員和刻意保持距離的尾隨人員進行研究,利用多源智能分析與預警技術,提取尾隨行為的更多行為特征,建立面向高效通關和安全防控的智慧通關系統(tǒng)。
參考文獻:
[1]金玥佟.基于視頻的行人異常行為檢測方法研究[D].
北京:華北電力大學,2021.
[2]劉繼紅.視頻監(jiān)控區(qū)人員異常行為視覺檢測及智能分
析技術研究[D].重慶:重慶理工大學,2022.
[3]林舜躍.白云空港口岸出入境自助通關的問題與對策
研究[D].廣州:暨南大學,2021.
[4]CHANTW.Tailgating/PiggybackingDetection Security
System[D].KualaLumpur:UTAR,2013.
[5]AKATI J,CONRAD M.Anti-tailgating Solution Using
Biometric Authentication,Motion Sensorsand Image Recognition
[C]//2021 IEEE Intl Conf on Dependable,Autonomic and Secure
Computing,Intl Conf on Pervasive Intelligence and Computing,
Intl Conf on Cloud and BigData Computing,Intl Conf on Cyber
Scienceand Technology Congress (DASC/PiCom/CBDCom/
CyberSciTech).Alberta:IEEE,2021:825-830.
[6]WANGC-Y,YEHI-H,LIAO H-YM.YOLOv9:
LearningWhatYouWanttoLearnUsingProgrammableGradient
Information[J/OL].arXiv:2402.13616[cs.CV]. (2024-02-21).
https://arxiv.org/abs/2402.13616v2.
[7]ABOUELYAZID M. Comparative Evaluation of SORT,
DeepSORT,and ByteTrack forMultiple Object TrackinginHighway
Videos[J].InternationalJournalof Sustainable Infrastructurefor
Citiesand Societies,2023,8(11):42-52.
[8]王子依,周斌,胡波.基于重疊視域的跨相機多目標跟蹤[J].中南民族大學學報:自然科學版,2023,42(5):702-711.
[9]劉小波,肖肖,王凌,等.基于無錨框的目標檢測方法及其在復雜場景下的應用進展[J].自動化學報,2023,49(7):1369-1392.
[10]WANGX,WANGX,YANYL,et al.RF-Access:Barrier-free Access Control Systemswith UHF RFID[J].AppliedSciences,2022,12(22):11592.
[11]陶晶,吳浩,金鐘楊,等.面向庭院式住宅的周界入侵綜合識別技術[J].科學技術與工程,2024,24(9):3747-3755.
[12]ZHUFY,HWANGJ-N,MAZY,etal.UnderstandingObjectsin Video:Object-oriented Video Captioningvia Structured Trajectory and Adversarial Learning[J].IEEEAccess,2020,8:169146-169159.
[13]趙琴,趙團結,鄭新橋,等.基于運動歷史圖像的異常行為識別算法研究[J].智能計算機與應用,2023,13(10):56-59.
[14]張瀚月.基于數(shù)據(jù)驅(qū)動的尾隨間隔管理策略研究[D].唐山:華北理工大學,2021.
[15]ICLODEANC,VARGABO,CORDOSN.Autonomous Driving Systems [M]//Autonomous Vehicles forPublic Transportation.Cham:Springer International Publishing,2022:69-138.
[16]DIASC,GAZALHM,ALHAJYASEENW,etal.ExploringDriverBehaviorsDuringTailgatingSituations:ADriving Simulator Study[J].Procedia Computer Science,2024,231:103-110.
作者簡介:李潤涵(2001一),男,漢族,安徽蕪湖人,碩士在讀,研究方向:機器視覺;通信作者:張梅(1983—),女,漢族,安徽淮北人,副教授,博士,研究方向:信號與系統(tǒng)。