?

基于貝葉斯決策的多方法融合跟蹤算法

2016-10-18 18:55周旭馬玉良
電腦知識與技術 2016年21期
關鍵詞:壓縮感知

周旭+馬玉良

摘要:針對單一的跟蹤算法難以適應復雜多變的環境,提出一種融合多種跟蹤算法的方法??紤]到壓縮跟蹤算法的魯棒性優勢,和HOG行人檢測的輪廓檢測特點,利用算法之間的互補性,根據貝葉斯決策理論,提出了多算法融合的跟蹤方法。融合過程中按照分類的思想,將圖像中像素點按照其是否包含在跟蹤框內分為兩類。通過分析跟蹤目標的移動范圍,預測目標的下一位置,求出目標出現的先驗概率分布。針對目標與環境的具體情況,調整每種算法的融合權值,得到融合后的各個像素點的類條件概率密度,最后根據貝葉斯決策估算各像素點的所屬類別,確定跟蹤框范圍。實驗結果表明,與單一算法相比,融合后的跟蹤算法有更好的適應性和魯棒性。

關鍵詞:行人跟蹤;壓縮感知;行人檢測;貝葉斯決策;多方法融合;

中圖分類號:TP391 文獻標識碼:A 文章編號:1009-3044(2016)21-0265-04

Abstract:A method of integration of various tracking algorithm is proposed, for single tracking algorithm is difficult to adapt to the complex environment. Considering the robustness of compressed tracking algorithm and the characteristics of HOG contour detection, using the complementarities of the two algorithms, the multi-method fusion tracking algorithm is proposed based on Bayesian decision theory. The pixels in the image are divided into two categories according to whether it is included in the track frame. The prior probability distribution of the target is obtained by analyzing the movement and predicting the next position of the target. The class conditional probability density of each pixel is obtained by adjusting the weight of each fusion algorithm. Finally the class of each pixel is estimated and the scope of tracking box is determined based on the Bayesian decision. The experimental results show that, compared with single algorithm, the fused tracking algorithm has better adaptability and robustness.

Key words: pedestrian tracking; compressed sensing;pedestrian detection; Bayesian decision theory; multi method fusion;

1 概述

目標跟蹤是計算機視覺中的一個重要研究方向,在各個領域都有著廣泛的應用前景[1~2]。過去的幾十年里,人們研究出了許多的跟蹤算法[3~8]。但每一種跟蹤方法都有其自身的適應性和局限性,而環境具有多樣性和多變性,這就使得單一的跟蹤算法很難適用于各種環境,融合多種算法已是必然趨勢。圖像處理領域內的數據融合可分為三個級別:像素級融合、特征級融合與決策級融合[3]。研究人員在粒子濾波框架下,提出了大量基于多特征(顏色[6]、紋理、邊緣[9]、灰度、運動等)融合的跟蹤算法,其主要區別在于特征提取和融合策略的不同[3~4]。吳等[5]提出的多方法集成,融合了三種算法,實現了魯棒的目標跟蹤,但其并沒有提出明確的融合策略。

壓縮跟蹤算法[10-12]是目前跟蹤問題研究的一個主流方向,在物體的紋理和光照變化不大的情況下,其跟蹤效果較好。但是,Compressive Tracking算法對目標大小變化的自適應性較差?;贖OG的行人檢測[13],有效地使用了行人的空間信息。

本文綜合考慮了壓縮跟蹤算法在微觀領域的特點,和HOG行人檢測在宏觀領域的優勢。利用算法之間的互補性,根據貝葉斯決策理論,提出了多算法融合的跟蹤方法。實驗結果證明,與單一的跟蹤算法相比,該算法具有更好的適應性和魯棒性。

2 跟蹤算法概述

本文目標是構建一種在線跟蹤算法,既能夠適應目標形狀大小的快速變化,又能夠實現穩定可靠的跟蹤。為實現跟蹤算法的適應性與魯棒性,本文采用了具有互補性的兩種經典的跟蹤算法:壓縮感知跟蹤法、基于HOG行人檢測的跟蹤。壓縮跟蹤算法在物體的紋理和光照變化不大的情況下,其跟蹤效果很好,但對目標大小變化的自適應性較差?;贖OG的行人檢測,有效地使用了行人的空間信息。但時常會發生檢測錯誤或檢測失敗的情況,所以通常需要結合其他跟蹤算法才能使用。

具體來說,基于壓縮感知的跟蹤算法[10~11],首先利用符合壓縮感知RIP條件的隨機感知矩對多尺度圖像特征進行降維,然后在降維后的特征上采用簡單的樸素貝葉斯分類器進行分類[12]。但此算法對目標形狀大小變化的自適應性較差,行人檢測恰好可以精確的彌補此缺陷。

在跟蹤目標是行人的情況下,基于行人檢測的行人跟蹤,通??梢暂^為準確地找到行人所在的位置,得到不錯的跟蹤結果。不過時常會發生檢測錯誤或檢測失敗的情況。跟蹤算法通常是采用這一幀的結果作為下一幀的輸入,所以當跟蹤結果出現了偏差之后,誤差會逐漸累加。跟蹤框偏移或跟蹤的范圍發生改變的情況可能會發生,這都將導致跟蹤目標的改變,以至于跟蹤出錯。

為了避免跟蹤過程中的“漂移”現象,提高跟蹤的魯棒性。本文使用了貝葉斯決策將兩種跟蹤算法進行融合,有效地減少了由于誤差累計造成的“漂移”,使跟蹤保持適應性的同時又兼顧穩定性。

然后預測跟蹤目標在下一幀中可能出現的位置,由目標的預測位置求出目標在各像素點出現的概率分布,作為貝葉斯決策的先驗概率。多種跟蹤算法得到的結果,根據融合權值進行結合,得出類條件概率密度。由貝葉斯決策求出后驗概率,屬于類的像素點集合的最小外接矩形,即為最終計算得到的跟蹤框。

3.1跟蹤目標位置預測

在第一幀圖像中,用矩形框圈定一個區域作為跟蹤目標。之后都使用上一幀圖像的跟蹤結果為依據,預測跟蹤目標在下一幀的可能位置。本文假設幀間質心位置偏移[3]較小,跟蹤目標在相鄰幀間的移動范圍小于跟蹤框面積的四倍(中心點不變,長寬各放大二倍)。在此范圍內,估計跟蹤目標在下一幀圖像中各個像素點出現的概率。

如圖2所示,由(a)中的預測位置,根據公式1得到跟蹤目標位置的概率分布圖。其中越白的區域表示跟蹤目標出現的概率越大,黑色區域表示跟蹤目標出現概率較低。

3.2融合跟蹤結果

跟蹤時,壓縮感知跟蹤算法、與HOG行人檢測在跟蹤過程中同時運行,互不影響。直到得到的最終結果,再作為他們下一幀的輸入。

考慮到跟蹤算法之間的差異性和互補性,合理調整跟蹤算法的融合權值。同時,像素點被越多的跟蹤結果包含,說明其為跟蹤目標的可能也就越大。由此得到目標狀態的類條件概率密度。

3.3貝葉斯決策

基于上述分析,由目標位置預測得到的先驗概率,和由各跟蹤結果融合而來的類條件概率密度,利用貝葉斯公式:

4 實驗結果及分析

實驗均在PKU-SVD-B數據庫上進行,PKU-SVD-B數據庫由北京大學視頻編解碼技術國家工程實驗室聯合北京大學保衛部建立并整理,該數據集采集自固定在校園某些位置的攝像頭。視頻圖像大小為1280×720像素,幀率為30幀/s。算法在VS2013和Opencv2.4下實現。

為了說明本文方法的有效性,分別對壓縮感知跟蹤法、基于行人檢測的跟蹤和本文融合后的跟蹤算法進行試驗對比。部分跟蹤結果分析如圖5、圖6所示。圖5為三種算法跟蹤框的中心點距跟蹤目標中心點的距離。行人檢測在一百多幀時檢測失敗,目標丟失。壓縮感知算法的跟蹤效果相對較好,但其在四百幀之后開始出現偏差。本文算法在三百幀左右,融合結果出現跳變,但很快又重新鎖定了目標;之后本文算法依舊能夠穩定跟蹤。

圖6為兩種算法跟蹤框面積偏差比例的比較。由圖可以看出本文算法在融合了行人檢測后,其對目標大小變化的適應性明顯爭強。

5 結束語

本文考慮到壓縮感知跟蹤算法、與HOG行人檢測算法之間的差異性與互補性,提出了多方法融合的跟蹤算法。通過采用HOG行人檢測算法,提高了跟蹤的外觀變化的適應能力。同時,位置預測有效地避免了跟蹤過程中出現的跳變。實驗表明,相對于單一算法,對背景干擾、光照變化、目標形狀變化等更具魯棒性。

本文的部分研究工作還有待深入,例如,本文提出了利用貝葉斯決策進行多算法融合的方法,選擇不同的算法組合,勢必會帶來不同的效果。實驗中曾融合了光流法和均值漂移跟蹤法,但其跟蹤效果非但沒有提高反而減弱。所以,哪些算法之間具有互補性,還有待進一步論證。

參考文獻:

[1] Viola P, Jones M J, Snow D. Detecting pedestrians using patterns of motion and appearance[C]//Computer Vision, 2003. Proceedings. Ninth IEEE International Conference on. IEEE, 2003: 734-741.

[2] Avidan S. Support vector tracking[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2004, 26(8): 1064-1072.

[3] 雍楊, 王敬儒, 張啟衡. 基于多特征融合的弱小運動目標識別[J]. 量子電子學報, 2006, 23(5): 594-598.

[4] 顧鑫, 王海濤, 汪凌峰, 等. 基于不確定性度量的多特征融合跟蹤[J]. 自動化學報, 2011, 37(5): 550-559.

[5] 吳偉, 李斌. 基于多方法集成的目標跟蹤算法[J]. 中國科學技術大學學報, 2011, 41(11): 1000-1005

[6] 沈云琴, 陳秋紅. 自適應均值漂移算法目標跟蹤檢測仿真研究[J]. 計算機仿真, 2012, 29(4): 290-292.

[7] Comaniciu D, Ramesh V, Meer P. Kernel-based object tracking[J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2003, 25(5): 564-577.

[8] 劉小寧, 陳曉冬, 郁道銀. 基于 DSP 的運動目標識別與跟蹤系統的設計[J]. 電視技術, 2010, 34(11): 107-110.

[9] 王君本, 盧選民, 賀兆. 一種基于快速魯棒特征的圖像匹配算法[J]. 計算機工程與科學, 2011, 33(2): 112-117.

[10] Chummun M R, Bar-Shalom Y, Kirubarajan T. Adaptive early-detection ML-PDA estimator for LO targets with EO sensors[J]. Aerospace and Electronic Systems, IEEE Transactions on, 2002, 38(2): 694-707.

[11] Li H, Shen C, Shi Q. Real-time visual tracking using compressive sensing[C]//Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011: 1305-1312.

[12] Zhang K, Zhang L, Yang M H. Real-time compressive tracking[M]//Computer Vision–ECCV 2012. Springer Berlin Heidelberg, 2012: 864-877.

[13] 曲永宇, 劉清, 郭建明, 等. 基于 HOG 和顏色特征的行人檢測[J]. 武漢理工大學學報, 2011, 33(4): 134-138.

猜你喜歡
壓縮感知
順序小波包圖像壓縮感知方法
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合