?

基于車輛外觀特征和幀間光流的目標跟蹤算法

2024-02-18 13:46李紹騫周經美趙祥模
應用科學學報 2024年1期
關鍵詞:光流外觀車輛

李紹騫,程 鑫,周經美,趙祥模

1.長安大學信息工程學院,陜西 西安 710064

2.長安大學電子與控制工程學院,陜西 西安 710064

目標跟蹤算法在機器人視覺、視頻監控和無人駕駛等領域有著廣泛的應用[1],實現高精度和實時的目標跟蹤是一項具有挑戰性的任務。目標跟蹤主要利用目標檢測算法、數據關聯[2]與運動估計算法[3-4]進行處理,首先,通過目標檢測算法得到圖像中目標的位置信息,之后通過數據關聯與運動估計算法預測并更新目標整個運動過程的軌跡信息。在理想情況下,整個運動過程中目標ID 的變換周期與目標出現到消失的周期相同,并且在這一周期內ID 不發生變換[5]。但是道路環境復雜、車輛目標之間的頻繁遮擋和相似的外觀導致跟蹤算法的準確率降低[6],并且多數目標跟蹤算法僅采用預設參數作為目標整個運動過程的運動狀態參數,因此,尋找一個更具有普適性的參數來描述目標運動的狀態,對提升目標跟蹤算法的準確率具有重要意義。

1 相關工作

為解決上述提到的頻繁遮擋以及相似外觀帶來的跟蹤算法準確率降低等問題,目前常用的方法是通過深度學習模型來提取目標外觀特征,然后計算目標的外觀相似性。例如,可以將卷積神經網絡(convolutional neural network,CNN)集成到經典的目標跟蹤算法中提取目標的外觀特征,在后續的跟蹤過程中利用不同目標之間的外觀特征計算兩者間的外觀相似性來重新識別對象[7],進而完成相同目標之間匹配的任務。常見的跟蹤算法DeepSORT(simple online and realtime tracking with a deep association metric)采用檢測和Re-ID 模型分離的策略實現跟蹤,相較于聯合檢測和Re-ID 模型[8-10]的跟蹤算法,分離策略的模型更加簡單,且耦合性更低,因此本文選擇檢測和Re-ID 模型分離的DeepSORT 作為跟蹤的基礎算法。

光流描述的是連續兩幀之間的運動信息。在深度學習未應用于計算機視覺領域之前,通常利用Horn-Schunck 和金字塔LK(Lucas-Kanada)計算圖像間的光流信息,之后可以通過光流圖進行展示,光流圖中不同的顏色以及顏色的深淺代表像素速度大小和方向信息。文獻[11-12] 通過CNN 直接對兩幀之間的光流進行預測,避開了傳統算法需要優化的問題。文獻[13]提出的PWC-Net(CNNs for optical flow using pyramid,warping and cost volume)通過卷積神經網絡得到圖像特征,從低分辨率開始估計光流,之后上采樣到高分辨率,同時構建成本代價矩陣預測當前分辨率的光流,逐步得到最終分辨率的光流,后續很多光流算法基于此框架實現。文獻[14] 提出的RAFT(recurrent all-pairs field transforms for optical flow)通過卷積神經網絡逐像素點提取特征,構建4D 像素點關聯性金字塔,通過像素點的4D 關聯信息,利用門控循環神經網絡迭代更新光流場。RAFT 通過不同尺度的光流相關性特征,解決了不同尺度光流估計不準確的問題。

隨著CNN 的發展,研究人員首先將孿生網絡應用于目標跟蹤領域,通過基于端到端的全卷積孿生網絡計算后續圖像幀與第1 幀模板之間的相似度特征,進而解決目標遮擋的問題,但當圖像出現多個目標交替遮擋時跟蹤性能會大幅下降。文獻[6] 提出的新型多目標跟蹤網絡,首先利用孿生網絡提取待檢測目標的外觀信息,再通過光流和卡爾曼濾波計算得到運動信息,最后將目標與現有軌跡關聯起來得到跟蹤結果。近年來,Tracking-by-detection[7]已成為主要的跟蹤范式,這得益于深度學習和目標檢測技術的成熟。Tracking-by-detection主要分為檢測和關聯匹配兩步。首先對象檢測器獨立發現視頻流中每一幀的潛在目標,然后與上一步中得到的檢測進行關聯。Tracking-by-detection 根據位置或身份特征維護每個軌跡的狀態,并根據其最后可見狀態將當前幀檢測與每個軌跡相關聯[15]。文獻[16] 提出的目標跟蹤算法SORT(simple online and realtime tracking)首次在多目標跟蹤問題上應用Tracking-by-detection 架構,該算法更加注重于實時在線跟蹤,以Faster RCNN 作為目標檢測算法,向跟蹤器中輸入前一幀和當前幀的檢測信息,通過卡爾曼濾波算法和匈牙利算法關聯前后兩幀的數據,進而實現目標的跟蹤,但這種方法的數據關聯度量信息有限,無法滿足遮擋情況下的目標跟蹤需求?;赥racking-by-detection 架構的方法需要兩個模塊都進行特征提取,實時性較差,為此文獻[10] 提出的檢測和跟蹤聯合(joint detection and embedding,JDE)算法將檢測和跟蹤模塊集成到單一網絡中進行訓練,該方法能夠通過單一網絡實現分類、定位與跟蹤任務,但較易產生誤檢。文獻[17] 提出了一種基于卡爾曼濾波器和匈牙利算法的跟蹤方法。該方法首先利用卡爾曼濾波器建立運動模型,然后利用匈牙利算法對目標間的關聯進行優化求解。該算法在實時速度上具有明顯優勢,但當目標運動復雜且當前幀中目標檢測丟失時,卡爾曼濾波器預測的邊界框與輸入不匹配,不可避免地會漏掉一些軌跡。

受上述文獻啟發,針對車輛目標跟蹤任務,本文充分考慮目標跟蹤算法靜態預設參數的不確定性,設計了基于相鄰幀光流變化的運動狀態信息更新算法;考慮車輛目標運動過程中發生的遮擋和相似外觀問題,設計了車輛外觀特征提取模型,提出了基于車輛外觀特征和幀間光流的目標跟蹤算法。

2 跟蹤算法流程

跟蹤算法流程如圖1 所示。選擇相鄰兩幀圖像作為RAFT 算法的輸入,計算光流場變化并生成光流場變化圖;通過YOLOv5 算法中的YOLOv5x 網絡模型獲得車輛目標框的位置信息;利用車輛目標框的位置信息對光流場變化圖進行裁剪得到光流小圖,即幀間光流;在卡爾曼濾波更新運動狀態信息時利用幀間光流進行補償進而得到更精確的運動狀態信息,并利用車輛外觀特征和交并比(intersection over union,IOU)完成軌跡匹配,實現目標跟蹤任務。圖2 為跟蹤算法的詳細流程圖。

圖1 算法流程圖Figure 1 Algorithm flow chart

圖2 跟蹤算法詳細流程圖Figure 2 Detailed flow chart of tracking algorithm

2.1 關聯幀間光流

光流法是計算相鄰幀之間像素運動信息的方法,計算出的光流表示像素在時間域x和y方向上的運動變化。假設圖像上的一個像素點(x,y) 在t時刻的亮度為I(x,y,t),根據亮度恒定假設,在t+dt時刻的亮度I(x+dx,y+dy,t+dt) 與t時刻的亮度相等,即

將上式右側通過Taylor 展開可得光流基本方程

式中:u=dx/dt;v=dy/dt。u和v分別為圖像像素在x和y方向的瞬時速度。

傳統光流計算方法約束條件多、計算復雜,本文采取基于深度學習的RAFT 算法計算連續幀的光流。RAFT 使用共享權重的特征提取模塊提取相鄰圖像特征,通過語義特征提取模塊提取第1 幀圖像特征用于后續光流更新迭代;同時,計算連續特征圖對的內積,構建4D 關聯矩陣和不同尺度的圖像相似度特征,通過不同尺度的特征描述大位移和小位移信息;最后,通過門控循環單元(gated recurrent unit,GRU)對光流迭代更新,直至得到最終的光流。RAFT 算法流程如圖3 所示。

圖3 RAFT 光流提取算法流程圖Figure 3 RAFT optical flow extraction algorithm flow chart

基于RAFT 算法得到的相鄰幀間光流,設計了如圖4 所示的運動狀態信息更新模塊,模塊將卡爾曼濾波的狀態更新參數修改為相鄰幀的光流信息。為得到交通場景下目標的精確光流信息,降低檢測框中雜亂背景的干擾,本文將生成的光流場變化圖進行裁剪得到目標中心位置1/4 區域的光流小圖,根據光流小圖計算x、y兩個通道的均值,得到每個目標的水平、豎直方向的瞬時速度,最終得到的8 維特征(包括目標檢測框的位置特征和目標檢測框的光流信息)。通過實時幀間光流信息替代目標跟蹤算法中的靜態預設參數的方式,得到了更加精細的目標運動狀態信息,從而使目標跟蹤算法能夠滿足不同的場景需求。

圖4 運動狀態信息更新模塊Figure 4 Motion status information update module

2.2 車輛外觀特征提取

DeepSORT 通過外觀模型提取連續圖像幀中目標外觀特征作為目標匹配的度量單位,文獻[17] 的實驗證明,將外觀特征與Mahalanobis 距離特征聯合作為目標匹配的度量單位,能夠有效提升目標跟蹤的準確率和精度。但是,DeepSORT 訓練的ReID 模型無法滿足交通場景下的車輛目標跟蹤需求,其采用的特征提取網絡的CNN 結構如表1 所示。

表1 車輛外觀特征提取網絡結構Table 1 Network structure of vehicle appearance feature extraction

針對交通場景中不同的車輛目標,本文將CNN 結構中的最大池化層改為自適應平均池化層,以此來適應各種尺寸的車輛目標,同時,將原始的6 層殘差網絡修改為16 層殘差網絡,對應網絡的輸出特征維度從128 變為256。通過實驗對比分析可知,加深卷積層的深度雖然能夠強化外觀模型的特征識別能力,但是模型也會增大。本文結合模型大小以及模型檢測精度選擇較為適中的16 層殘差網絡。

在訓練車輛外觀特征模型的過程中使用隨機梯度下降(stochastic gradient descent,SGD)算法作為優化器不斷調整梯度求解損失函數的全局最優解,即損失函數的最小值。一般情況下,若設置訓練過程中的步長恒定不變則會導致隨機梯度下降算法在函數具有多處局部最優解時陷入局部最優的情況,如圖5 所示。

圖5 SGD 算法尋優過程Figure 5 SGD algorithm optimization process

余弦退火調整學習率算法CosineAnnealingLR 可以解決隨機梯度下降算法易陷入局部最優的問題。訓練模型的過程中通過CosineAnnealingLR 算法中的Restart 機制,使得學習率降低到較低點時Restart 返回到原點,通過這種增大步長的方式跳出局部最小點,CosineAnnealingLR 算法的計算公式為

式中:i為運行的次數;分別為學習率的最大值和最小值,從而定義了學習率的范圍;Tcur為當前執行的epoch 的次數;Ti為第i次運行時總的epoch 次數。

圖6 為CosineAnnealingLR 算法的優化過程,當求解過程陷入局部最優時,CosineAnnealingLR 算法的Restart 機制會使得學習率跳出局部最優點。為了避免模型訓練權重的隨機性導致學習率震蕩的問題,在訓練過程中加入WarmUp 機制,訓練初始階段將學習率設置為0 并逐漸增大,即模型在訓練過程中先預熱,直到達到設定的閾值后開始正式訓練。通過WarmUp 機制能夠確保在權重達到穩定后再開始訓練,進而使得模型的收斂效果更好。

圖6 CosineAnnealingLR 尋優過程Figure 6 CosineAnnexingLR optimization process

2.3 關聯幀間光流的目標跟蹤算法

DeepSORT 相比于SORT 提出更加可信的關聯度量和關聯方法,其利用CNN 提取外觀特征解決遮擋問題,并利用級聯匹配為不同的目標分配優先級,對頻繁出現的目標賦予高優先級來解決長時間追蹤的問題。但是,DeepSORT 算法中描述目標運動狀態信息的速度值是通過速度權重估計得出的,這可能使跟蹤算法在不同場景下的表現差別較大,不具有普適性,本文算法在DeepSORT 基礎上進行改進以解決該問題。DeepSORT 算法主要分為4 個步驟:

步驟1基于原始的圖像幀序列,利用檢測器獲得目標的檢測框信息和置信度信息;

步驟2通過卡爾曼濾波算法得到預測框,對檢測框和預測框進行IOU 匹配并計算cost matrix;

步驟3使用匈牙利算法對所得的cost matrix 進行最優匹配;

步驟4輸出跟蹤結果,更新卡爾曼濾波的參數。

卡爾曼濾波預測目標下一幀的狀態信息表示為(x,y,a,h,u,v,a′,h′),其中(x,y) 為目標檢測框的中心坐標;a為檢測框的長寬比;h為檢測框的高;(u,v,a′,h′) 分別表示(x,y,a,h)對應的瞬時速度。得到上述狀態信息后,通過馬氏距離對檢測框和預測框進行匹配,公式為

式中:yi為第i條軌跡的預測框;dj為第j個目標檢測框;Si為通過卡爾曼濾波得到的協方差矩陣。通過χ2設置閾值判斷預測框和檢測框的相似性,公式為

式中:t(1)為χ2對應95% 置信度閾值,本文取9.487 7;當d(1)(i,j) 小于閾值時,取1,表示預測框和檢測框關聯成功,否則為0。為解決當被遮擋目標重新出現在圖像中時ID 的變換問題,需要對一部分幀中的特征進行保存,由集合Fk表示,公式為

式中:Lk為存儲特征的長度,本文設置為100。DeepSORT 選擇最小余弦距離對外觀特征進行度量,公式為

式中:d(2)(i,j) 為第i個關聯軌跡與第j個檢測框的外觀特征最小余弦距離。為最小余弦距離的歸一化結果,與利用馬氏距離判斷兩者相似的方法類似,通過χ2設置閾值t(2),再根據d(2)(i,j) 判斷是否關聯,表示為

通過運動特征和外觀特征構造關聯度量函數,公式為

式中:λ為兩種特征的比例系數。計算出來的ci,j越小表示第i條軌跡和第j個檢測框相似性越大。算法中關聯度量還涉及外觀特征,通過使用WarmUp 結合CosineAnnealingLR 的方法在VERI-Wild 數據集訓練車輛外觀特征模型,保證外觀特征的檢測精度,為外觀特征的度量提供了更加準確的外觀特征提取模型。綜合考慮運動狀態特征和外觀特征來判斷第i條軌跡和第j個檢測框是否關聯成功,公式為

基于關聯度量的結果利用匈牙利算法進行最優匹配。

運動狀態信息是后續運動狀態度量的重中之重,其中,狀態信息中的x、y方向的速度由控制位置的方差權重和控制速度的方差權重估計得到。算法引入幀間光流,光流即相鄰圖像幀間像素在x、y方向的速度,通過實時計算連續幀間光流替換卡爾曼濾波過程狀態信息中的速度量,融合光流后的運動狀態信息相對于使用速度估計值的原始DeepSORT 算法所采用的運動狀態信息,能夠對算法的預測過程提供更有利的支撐。引入光流后狀態信息轉變為:(x,y,a,h,flowx,flowy,a′,h′),其中flowx和flowy分別為檢測框中心坐標在x和y方向上的瞬時速度,a′為檢測框長寬比的瞬時速度,h′為檢測框高的瞬時速度。

3 實驗分析

3.1 實驗平臺與數據集

實驗均基于python 語言和pytorch 1.7.0 框架進行實現,實驗操作系統為Windows 10,實驗平臺內存為32 G,CPU 為Intel Coffeelake I9-9900 CPU,GPU 為GeForce RTX 3090,顯存24 G,CUDA 版本為11.0。

訓練目標檢測模型選擇BDD100K 自動駕駛數據集,此數據集是目前規模最大、最多樣化的開源數據集,由100 000 個視頻組成,每個視頻大約40 s,清晰度為720 P,視頻刷新率為30 幀/s,總時間超過1 100 h,涵蓋了交通場景中多種類的目標,并對道路上常見的目標標注邊界框,與此同時,BDD100K 涵蓋了道路上出現頻次最高的Bus、Truck、Car 的3 種數據,能夠滿足模型應用于交通場景的需求。

訓練車輛外觀特征模型選擇VERI-Wild 數據集,此數據集包含由174 個攝像頭捕獲的監控網絡,覆蓋區域超過200 km2,是第1 個無約束條件收集的車輛數據集,該數據集涵蓋了4 萬輛汽車構成的40 萬幅圖像,并且為每輛汽車分配了ID。同時,此數據集相對于VeRI-776數據集和VehicleID 數據集在視角、光照、背景和遮擋4 個方面更加復雜。

選擇目標跟蹤領域中最常用的MOT Challenge 數據集中的MOT16[18]驗證跟蹤算法的有效性,MOT16 共有14 個視頻,訓練集和測試集各有7 個,視頻中的場景采用固定場景的攝像頭和移動攝像頭進行拍攝,不同視頻的拍攝角度、天氣、時間均不同,并且待跟蹤目標群體密度較高。數據集提供了訓練集的標注、訓練集和測試集的檢測結果,為目標跟蹤任務提供了便利。另外,MOT Challenge 數據集主要側重行人跟蹤,本文主要利用該數據集驗證所提出跟蹤算法的有效性。

3.2 實驗評價指標

為評估檢測模型的性能,使用目標檢測領域典型的評價指標平均精度(average precision,AP)和平均精度均值(mean average precision,mAP),同時,為評估目標跟蹤算法的性能,使用目標跟蹤領域典型的評價指標,包括多目標跟蹤準確度(multiple object tracking accuracy,MOTA)、多目標跟蹤精度(multiple object tracking precision,MOTP)、多數被跟蹤軌跡MT(mostly tracked trajectories)、識別F1 值(Identification F1-Score,IDF1)和高階跟蹤精度(higher order tracking accuracy,HOTA)。

AP 指目標檢測過程中準確率Pprecision和召回率Rrecall繪制的PR 曲線與x軸圍成區域的面積,Pprecision和Rrecall的公式分別為

式中:TP 為正確檢測到目標的數量;FN 為未正確檢測到目標的數量;FP 為檢測錯誤的目標數量。mAP 表示所有檢測類別AP 的平均值,公式為

目標跟蹤的指標主要有MT(mostly tracked),常用來指80% 時間內成功匹配成功的次數,另外本文還選用了MOTP,MOTA、IDF1 和HOTA,公式分別為

式中:mt為第t幀漏檢的數量;fpt為第t幀誤報數量;mmet表示第t幀匹配錯誤的數量;MOTA 是衡量跟蹤算法性能最主要的指標,其值越接近1 表示算法性能越好。

IDF1 綜合了目標重識別和位置兩個方面的性能,能夠更全面地衡量跟蹤算法的綜合性能,不僅考慮正確的匹配,還考慮了漏檢和誤檢的情況。公式為

式中:IDTP 為真正的ID 數;IDFP 為假陽的ID 數;IDFN 為假陰的ID 數。

HOTA 綜合了多個指標,包括誤檢率、漏檢率、ID 混淆率、軌跡錯誤率以及目標重識別的準確率;HOTA 指標引入了目標重識別的準確率,能夠更好地評估目標的外觀變化問題。相關公式為

式中:prID(k)表示預測身份為k的目標;gtID(k)表示真實身份為k的目標;TPA(c)、FNA(c)和FPA(c) 分別表示身份為c的匹配目標、漏檢目標和虛檢目標??梢钥吹紿OTA 指標不僅考慮了跟蹤的準確性還關注了匹配目標的身份正確性,因此更能反映跟蹤算法的綜合性能。

3.3 車輛檢測模型分析

綜合考慮檢測速度、精確度等多方面因素,選擇整體檢測性能較好的YOLO 系列算法,其中YOLOv5 具有檢測準確率較高、算法運行速度快、應用成熟等優勢,因此本文選擇YOLOv5 算法作為目標跟蹤中的檢測器。YOLOv5 系列包含了4 種不同的網絡模型,分別是YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x,且這4 種網絡模型的體積逐漸擴大,檢測準確率逐漸升高。在BDD100K 的基礎上,采用不同的網絡模型進行訓練,訓練使用的數據集中包含100 000 萬幅圖像,訓練集、測試集、驗證集比例為7∶2∶1,網絡訓練超參數如表2 所示。

表2 網絡訓練超參數Table 2 Network training hyperparameters

主要關注Bus、Truck、Car 這3 個種類的平均精度、所有類別的mAP 和不同交并比閾值下的mAP。由表3 可知,在4 種網絡模型訓練得到的結果中,YOLOv5x 在Car、Bus、Truck這3 個類別上的AP 均高于其他3 種網絡模型,同時mAP 也高于其他3 種檢測模型。為進一步對比網絡模型在真實場景中的檢測能力,選取檢測精度相對較高的YOLOv5l、YOLOv5x進行實際應用場景的測試。

表3 網絡模型檢測性能Table 3 Network model checking performance %

為直觀展示檢測模型的有效性,選取某高速隧道數據進行分析,圖7~11 為不同場景下模型檢測效果圖,各圖(a)~(c) 分別展示交通場景原圖、YOLOv5l 網絡模型檢測結果圖、YOLOv5x 網絡模型檢測結果圖。在圖7 所示的紅色矩形選中區域內,YOLOv5l 將遠處的car 檢測為truck,YOLOv5x 模型正確檢測;在圖8 所示的紅色矩形選中區域內,YOLOv5l檢測模型相較于YOLOv5x 檢測模型對car 檢測的置信度更低,此外,YOLOv5l 檢測模型誤將墻壁上背景檢測為目標;在圖9 所示的紅色矩形選中區域內,YOLOv5l 檢測模型將truck檢測為train 并且檢測置信度較低;在圖10 所示的紅色矩形選中區域內,YOLOv5l 檢測模型未檢測出駛入圖像范圍內目標車輛,YOLOv5x 模型正確檢測;在如圖11 所示的紅色矩形選中區域內,YOLOv5l 檢測模型將路障檢測為目標車輛,YOLOv5x 模型未發生此類問題。

圖7 模型誤檢效果對比Figure 7 Comparison of model false detection effects

圖8 模型誤檢效果對比Figure 8 Comparison of model false detection effects

圖9 模型誤檢效果對比Figure 9 Comparison of model false detection effects

圖10 模型漏檢效果對比Figure 10 Comparison of model missing detection effect

圖11 模型誤檢效果對比Figure 11 Comparison of model false detection effects

文獻[17] 研究表明,檢測模型作為“Tracking-by-detection”二階段目標跟蹤策略中的關鍵要素,對目標跟蹤性能有18.9% 的影響。于是本文在BDD100K 的基礎上,采用不同的網絡模型進行訓練,通過對比不同網絡模型在檢測指標、真實應用場景的表現,選擇高準確率、強魯棒性的目標檢測模型。從定量和定性兩個方面對不同網絡模型的效果進行分析,得出YOLOv5x 檢測模型能夠解決誤檢、漏檢、置信度低3 大問題,能夠為目標跟蹤算法提供精準穩定的檢測基礎。

3.4 車輛外觀特征模型分析

采用WarmUp 結合CosineAnnealingLR 方法在VERI-Wild 數據集上訓練車輛外觀特征模型,表4 分別展示了采用DeepSORT 中的Deep 特征提取網絡訓練的車輛外觀特征模型與經本文算法改進后的車輛外觀特征模型在訓練集和驗證集上的精度,改進方法的準確率在訓練集上提升了1.7%,在驗證集上提升了6.3%。圖12(a) 和(b) 分別展示了原方法和改進方法訓練過程中Loss 的變化情況和Top1err 的變化情況,從圖中能夠看出原方法訓練到第150 輪時收斂,改進方法訓練到第120 輪時Loss 達到最小值,兩種方法在訓練集和驗證集的準確率如表4 所示,Top1err 整體趨勢與Loss 趨勢相同,分別在第150 輪時和第120 輪時收斂,表明模型達到最好狀態。

表4 車輛外觀模型訓練結果Table 4 Vehicle appearance model training results %

圖12 損失曲線Figure 12 Loss curves

DeepSORT 采用外觀特征與Mahalanobis 距離特征聯合作為目標匹配的度量單位,其在一定程度上提高了匹配的精度,減少了ID 變換的次數,因此外觀特征是決定目標能否匹配成功的關鍵度量單位之一。為此,修改特征提取網絡結構來獲得更加精確的車輛外觀特征,同時,采用WarmUp 結合CosineAnnealingLR 方法訓練得到準確率更高的車輛外觀特征模型來提取跟蹤過程中的車輛外觀特征,可以提高目標跟蹤算法的精度。

3.5 跟蹤算法分析

通過MOT16 數據集驗證算法在添加幀間光流模塊后的有效性,如表5 所示,相較于DeepSORT 算法,在DeepSORT 算法的基礎上添加幀間光流模塊后,MT 提升了1.6%,MOTA 提升了1.3%,MOTP 提升了0.6%,IDF1 提升了2.6%,HOTA 提升了1.6%,相較表中其他方法,5 項指標結果仍表現較好。

表5 目標跟蹤算法性能指標Table 5 Target tracking algorithm performance indicators %

為直觀展示添加關聯幀間光流模塊后的跟蹤效果,實驗選取某高速道路數據進行應用分析,同時為驗證算法的魯棒性,在視頻中人工添加黑色遮擋,比較目標在遮擋前后的ID 變化,圖13~16 分別展示了跟蹤算法對不同車道目標的跟蹤效果,其中每幅圖的(a) 和(b) 分別展示車輛目標未經過遮擋前的ID 情況和車輛經過遮擋后的ID 情況。在圖13 所示的紅色矩形選中區域內,車輛未經過遮擋前ID 為4,經過遮擋后ID 仍為4;在圖14 所示的紅色矩形選中區域內,車輛未經過遮擋前ID 為49,經過遮擋后ID 仍為49;在圖15 所示的紅色矩形選中區域內,車輛未經過遮擋前ID 為98,經過遮擋后ID 仍為98;在圖16 所示的紅色矩形選中區域內,車輛未經過遮擋前ID 為419,經過遮擋后ID 仍為419。

圖13 逆向1 車道Figure 13 Reverse lane 1

圖14 逆向2 車道Figure 14 Reverse lane 2

圖16 同向2 車道Figure 16 Lane in the same direction 2

目標跟蹤可以通過檢驗目標首次被檢測器檢測到的ID 和目標消失時的ID 的一致性判斷跟蹤算法的性能。本文從兩個方面對目標跟蹤效果分析,在性能指標方面,提出的目標跟蹤算法各項性能指標均優于DeepSORT 及其他跟蹤算法,在實際道路測試方面,提出的目標跟蹤算法在人工添加黑色遮擋的條件下仍能保證被遮擋前后的ID 的一致性。從定量和定性兩個方面分析可得,跟蹤算法在精準度、魯棒性等方面均呈現較好的效果。

4 結論

在復雜道路場景下,車輛目標之間的頻繁遮擋、車輛目標之間相似的外觀、目標整個運動過程中采用的靜態預設參數都會導致跟蹤準確率下降的問題。本文提出了一種基于車輛外觀特征和幀間光流的目標跟蹤算法,并通過實驗驗證了算法的有效性。研究結論如下:

1)在BDD100K 的基礎上,采用不同的網絡模型進行訓練,通過對比不同網絡模型在檢測指標、真實應用場景的表現,選擇高準確率、強魯棒性的目標檢測模型YOLOv5x,能夠克服真實應用場景中存在的誤檢、漏檢、置信度低等問題,為目標跟蹤算法提供精準穩定的檢測基礎;

2)在修改車輛外觀特征提取網絡的基礎上采用WarmUp 結合CosineAnnealingLR 方法訓練得到準確率更高的車輛外觀特征模型來提取跟蹤過程中的車輛外觀特征,進一步提高了目標跟蹤算法的精度;

3)在卡爾曼濾波更新運動狀態信息時關聯幀間光流得到更精確的運動狀態信息,實驗結果表明,改進算法顯著提升了目標跟蹤的準確率和精度。

引入了光流計算模塊能夠為我們提供一種動態更新運動狀態信息的方式,但是由于相鄰幀間的光流計算對系統的要求較高,因此在后續研究中將針對引入關聯幀間光流模塊后導致的跟蹤算法計算量變大的問題進行優化,進而實現高精度、實時性的目標跟蹤算法。

猜你喜歡
光流外觀車輛
利用掩膜和單應矩陣提高LK光流追蹤效果
外觀動作自適應目標跟蹤方法
A Shopping Story to Remember
不論外觀還是聲音,它都很美 Yamaha(雅馬哈)A-S3200合并功放
基于物理學的改善粒子圖像測速穩健光流方法研究
車輛
方外觀遺跡舊照
冬天路滑 遠離車輛
車輛出沒,請注意
提高車輛響應的轉向輔助控制系統
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合