Print

发布时间: 2016-06-25
摘要点击次数: 288
全文下载次数: 39
DOI: 10.11834/jig.20160607
2016 | Volumn 21 | Number 6




    图像分析和识别    




  <<上一篇 




  下一篇>> 





利用选择性模型不定时更新的视觉跟踪算法
expand article info 范舜奕, 管桦, 侯志强, 余旺盛, 戴铂
空军工程大学信息与导航学院, 西安 710077

摘要

目的 在目标跟踪中,基本粒子滤波算法和传统模型更新策略在遮挡、光照变化以及自身旋转等情况下通常存在鲁棒性较差的问题。为解决该问题,提出一种基于选择性模型不定时更新的粒子滤波视觉跟踪算法。 方法 本文算法在粒子滤波框架下,定时检测目标变化,采用最速梯度下降法判断更新时机。仅当目标本身逐渐姿态改变而不受背景干扰时更新目标模型;在发生遮挡或光照改变较大时则不更新,保持当前模型继续跟踪。 结果 通过对示例视频的计算机视觉跟踪,在跟踪目标中心位置误差、覆盖率、精度及成功率比较上,本文算法均能表现出较优的实验结果,这表明:本文算法能够对目标模型进行选择性更新,与对比算法比较,总体能够更加有效解决视频中遮挡、光照变化以及自身旋转等情况下的鲁棒跟踪问题。 结论 由于本文算法未考虑尺度,在尺度不变的多种复杂变化条件下,本文算法均具有较好的鲁棒性。

关键词

目标跟踪, 粒子滤波, 最速梯度下降法, 定时检测, 选择性, 不定时模型更新

Robust visual tracking based on periodic updates of the selective model
expand article info Fan Shunyi, Guan Hua, Hou Zhiqiang, Yu Wangsheng, Dai Bo
The Information and Navigation Institute of Air Force Engineering University, Xi'an 710077, China
Supported by: National Natural Science Foundation of China (61175029,61473309); Natural Science Foundation of Shaanxi Province, China(2015JM6269,2016JM6050)

Abstract

Objective In target tracking, the particle filter and frame-by-frame updating of the model both have poor robustness in solving the problems of occlusion, illumination change, and self-rotation. To address these challenges, we propose a new visual object tracking method based on selective model updating without timing. Method Forcefully updating the model on a regular basis results in target distortion and tracking drift because such updates do not consider occlusion and other background interferences. Thus, we select a mechanism to ensure that the updated model is valid and accurate. Frame-by-frame detection can also extend the tracking time and reduce video tracking efficiency. We detect the object changes within a short period to prevent the model updates from significantly affecting real-time tracking, which is of practical significance. We detect the target changes regularly based on particle filter and use the steepest gradient descent method to determine the update time. The steepest gradient descent method can be used to determine whether or not the threshold point of background interference can be reached by comparing the pixel information errors of the target, the initial model, and the model. Result The model is intelligent enough to represent the target, whereas the tracking frame is closer to the ground truth than the other algorithms. The proposed model is also superior to others in terms of center position error, coverage, accuracy, success rate, and time. Thus, the problems of occlusion, illumination change, and self-rotation can be solved by updating the proposed model selectively. Conclusion The proposed method demonstrates excellent robustness in various scenarios under the scale-invariant condition because the dimension is not considered.

Key words

object tracking, particle filter, the steepest gradient descent method, determine the update time, selective, aperiodical model update

0 引 言

基于计算机视觉的视频目标跟踪是视频信息处理领域的热点问题[1],如何适应目标的表观变化及应对背景干扰的影响是目标跟踪所面临的挑战之一。尽管近年来视频跟踪已经被应用于军事和民用领域的很多方面[2],但在复杂环境下,长时间持续稳定的跟踪随时变化的目标,即鲁棒视觉跟踪,依然是一项需要探究和解决的难题。

近年来出现了大量的视觉跟踪算法[3]。其中,粒子滤波算法是一种基于贝叶斯递归推理和蒙特卡罗方法的非线性系统分析算法[4],其本身虽然具有一定的鲁棒性,但是由于算法缺少必要的模型更新策略,当目标表观变化较大,自身旋转或是遮挡较为严重时容易导致跟踪失败。针对跟踪算法中的模型更新问题国内外逐渐开始有许多研究[5]。之前多是基于MeanShift算法快速模式匹配的性质模型更新[6-9],而粒子滤波由于鲁棒性和跟踪整体性优于MeanShift,本文算法基于粒子滤波算法。更新分为目标模型整体更新和对局部特征更新,当使用局部子模型更新时,文献[6]将特征模型中的每个分量作为单独个体,基于每个分量的匹配贡献度,分别选择当前帧中需要更新的子模型分量及其更新权值;文献[7]提出一种基于局部分块和模型更新的视觉跟踪算法,在包含部分背景区域的初始跟踪区域内构建目标模型,利用基于积分直方图的局部穷搜索算法初步确定目标的位置,继而在当前跟踪区域内通过分块学习来精确搜索目标的最终位置以达到更新。对整体模型更新时,文献[8]提出一种基于多特征在线模型更新策略的鲁棒目标跟踪算法,实现多特征融合和增加直方图相似度校验,以避免陷入局部最优解,提升了模型在线更新算法的准确性;文献[9]在利用整体模型更新时,提出一种改进的巴氏系数相似度指标,由于引入了前景和背景置信值,能够有效抑制待匹配区域中背景特征的影响,突出了目标特征的权重,即每一帧都对背景模型进行更新,通过对目标与背景双模型相似度系数进行综合分析,判断干扰目标匹配的原因,从而决定目标模型的更新时机。

在更新时机选择上,经过大量视觉跟踪测试表明,逐帧更新[10]或定时更新[11]的效果并不理想,更新过快或过慢都很难抑制模型的漂移,最终导致跟踪失败。为提高跟踪效率,提出满足条件时才更新的不定时更新。如L1跟踪中[12]通过比较当前帧的结果与L1系数最大模型的相似度,来确定是否用当前帧的结果替换最终权重最小的模型。文献[13]中引入了反馈信息适时更新模型;将当前帧的目标区域作为模型用于下一帧的跟踪中,这种方法用于很多在线分类器的训练中[14],使分类器以一种自然的方式更新,但这种方法会在目标模型中不断引入误差,造成跟踪漂移;还有一种方案是将旧模型与当前模型的归一化线性叠加作为新模型进行跟踪[15]

综合考虑以上算法针对模型更新的优缺点,在文献[5, 16-17]基础上,提出不定时模型更新的粒子滤波算法,调整更新时机,优化目标模型,减少遮挡、目标自身外观、角度及光照变化对目标定位的影响。在定时检测过程中,通过模型是否遮挡或光照改变判断是否更新模型,选择有效稳定的新模型,从而获得更为鲁棒的跟踪效果。

1 粒子滤波算法

粒子滤波,又称序列蒙特卡罗方法,是求解后验概率密度的一种实用算法[4]。其处理过程一般分为预测和更新两个阶段。通过寻找一组在状态空间中传播的随机样本,对概率密度函数p(xk|zk) 进行近似性比较,其中xk表示k时刻系统状态向量,zk表示k时刻系统观测向量。样本均值代替积分运算,从而获得状态最小方差估计,这些样本即称为“粒子”。采用数学语言描述如下:对于平稳的随机过程,假定k-1时刻系统的后验概率密度为p(xk-1|zk-1),依据一定原则选取n个随机样本点,在k时刻获得测量信息后,经过状态和时间更新过程,n个粒子的后验概率密度可近似为p(xk|zk)。随着粒子数目的增加,粒子概率密度函数逐渐逼近状态的概率密度函数,粒子滤波估计即达到了最优贝叶斯估计的效果。

假定动态时变系统描述为

$\left\{ \begin{array}{l} {x_k} = {f_k}\left( {{x_{k - 1}},{v_{k - 1}}} \right)\\ {z_k} = {h_k}\left( {{x_k},{n_k}} \right) \end{array} \right.$ (1)

式中,vk-1表示k-1时刻的系统噪声,nk表示k时刻的量测噪声。若已知状态的初始概率密度函数p(x0|z0)算为p(x0),则状态预测方程为

$\begin{array}{l} p\left( {\left. {{x_k}} \right|{z_{1:k - 1}}} \right) = p\left( {\left. {{x_k}} \right|{x_{k - 1}}} \right) \cdot \\ p\left( {\left. {{x_{k - 1}}} \right|{z_{1:k - 1}}} \right){\rm{d}}{x_{k - 1}} \end{array}$ (2)

而状态更新方程为

$p\left( {\left. {{x_k}} \right|{z_{1:k - 1}}} \right) = \frac{{p\left( {\left. {{z_k}} \right|{x_k}} \right) \cdot p\left( {\left. {{x_k}} \right|{z_{1:k - 1}}} \right)}}{{p\left( {\left. {{z_k}} \right|{z_{1:k - 1}}} \right)}}$ (3)

$\begin{array}{l} p\left( {\left. {{z_k}} \right|{z_{1:k - 1}}} \right) = \\ \int {p\left( {\left. {{z_k}} \right|{x_k}} \right) \cdot p\left( {\left. {{x_k}} \right|{z_{1:k - 1}}} \right){\rm{d}}{x_k}} \end{array}$ (4)

式(2)—(4)描述了最优贝叶斯估计的基本思想,但式(2)中的积分项无法求解非线性、非高斯的动态系统的。因此,粒子滤波将积分运算转化为有限采样点的求和运算,即后验概率分布p(zk|z1:k-1)可近似为

$p\left( {\left. {{z_k}} \right|{z_{1:k}}} \right) = \sum\limits_{i = 1}^N {\omega _k^i\delta \left( {{x_k} - x_k^i} \right)} $ (5)

式中,k时刻点i的重要性权值为

$\omega _k^i = \omega _{k - 1}^i \cdot \frac{{p\left( {\left. {{z_k}} \right|x_k^i} \right) \cdot p\left( {\left. {x_k^i} \right|x_{k - 1}^i} \right)}}{{q\left( {\left. {x_k^i} \right|x_{k - 1}^i,{z_{1:k}}} \right)}}$ (6)

后验概率密度可近似为

$p\left( {\left. {{z_k}} \right|{z_{1:k}}} \right) \approx \sum\limits_{i = 1}^N {\omega _k^i\delta \left( {{x_k} - {x_{k - 1}}} \right)} $ (7)

式中,δ(·)为Dirac delta函数。

2 最速梯度下降法

梯度下降法是一个求最优化的算法,当用于视频跟踪时,即为求跟踪目标随梯度变化后的区域[5]

2.1 模型构建

假设第n(n=1,2,…)帧的整个图像信息是imn(X),模型区域信息是In(X),其中像素坐标X=[x,y]T。其中,第1帧的目标区域I1(X)即为初始模型T0(X)。而从第2帧之后,模型为T(X),在基础粒子滤波算法中T(X)一直为初始模型T0(X)。

2.2 基于最速梯度下降的参数求解

当目标模型发生变化,其对应的位置坐标X=[x,y]T发生改变,即为W(X;p),其中参数p=[p1,p2,p3,p4]T。在2维平面图像块的移动中,W(X;p)使像素坐标映射到另一个位置[16],即

$W\left( {X;p} \right) = \left[ \begin{array}{l} \left( {1 + {p_1}} \right) \cdot x - {p_2} \cdot y + {p_3}\\ {p_2} \cdot x + \left( {1 + {p_1}} \right) \cdot y + {p_4} \end{array} \right]$ (8)

式中,坐标经过变化,参数p1p2是对目标旋转变化的映射,而p3p4是对目标平移变化的映射。经过映射后,充分考虑了2D平面中目标变化。

经过变化的目标模型信息I(W(X;p))中的转移参数p是由Δp迭代相加得到,即

$p \leftarrow p + \Delta p$ (9)

使得模型信息差 I(W(X;p))-T(X) 随着Δp方向变化为

$I\left( {W\left( {X;p + \Delta p} \right)} \right) - T\left( X \right)$ (10)

式中,迭代次数越多,Δp由于反馈,模值越来越小,使得p趋于稳定,找到模型信息经过平移旋转后的位置。当$\left\| {\Delta p} \right\| \le \varepsilon $时,认为p的模趋近于定值。

由式 (8)—(10) 可以得到

$\begin{array}{l} I\left( {W\left( {X;p + \Delta p} \right)} \right) = I\left( {W\left( {X;p} \right)} \right) + \\ \nabla I \cdot \frac{{\partial W}}{{\partial p}} \cdot \Delta p \end{array}$ (11)

式中,I的梯度下降方向为$\nabla I = \left( {\frac{{\partial I}}{{\partial x}},\frac{{\partial I}}{{\partial y}}} \right)$。另一因子$\frac{{\partial W}}{{\partial p}}$W(X;p)随着p梯度的变化,若

$W\left( {X;p} \right) = {\left[ {{W_x}\left( {X;p} \right),{W_y}\left( {X;p} \right)} \right]^{\rm{T}}}$ (12)

$\frac{{\partial W}}{{\partial p}}$

$\frac{{\partial W}}{{\partial p}} = \left( {\begin{array}{*{20}{c}} {\frac{{\partial {W_x}}}{{\partial {p_1}}}}&{\frac{{\partial {W_x}}}{{\partial {p_2}}}}&{\frac{{\partial {W_x}}}{{\partial {p_3}}}}&{\frac{{\partial {W_x}}}{{\partial {p_4}}}}\\ {\frac{{\partial {W_y}}}{{\partial {p_1}}}}&{\frac{{\partial {W_y}}}{{\partial {p_2}}}}&{\frac{{\partial {W_y}}}{{\partial {p_3}}}}&{\frac{{\partial {W_y}}}{{\partial {p_4}}}} \end{array}} \right)$ (13)

则通过式(13)代入本文算法,计算得

$\frac{{\partial W\left( {X;p} \right)}}{{\partial p}} = \left( {\begin{array}{*{20}{c}} x&{ - 1}&1&0\\ y&1&0&1 \end{array}} \right)$ (14)

因此

$\begin{array}{l} \Delta p = {H^{ - 1}} \cdot \sum\limits_x {{{\left[ {\nabla I \cdot \frac{{\partial W}}{{\partial p}}} \right]}^{\rm{T}}}} \cdot \\ \left[ {I\left( {W\left( {X;p} \right)} \right) - T\left( X \right)} \right] \end{array}$ (15)

式中,Hn×n方阵,即

$H = {\sum\limits_X {\left[ {\nabla I \cdot \frac{{\partial W}}{{\partial p}}} \right]} ^{\rm{T}}} \cdot \sum\limits_X {\left[ {\nabla I \cdot \frac{{\partial W}}{{\partial p}}} \right]} $ (16)

综上所述,经过式(8)—(16)的推导,p的值可以通过IT(X)中的坐标信息迭代得出,而反过来作用于I。迭代向量p的计算步骤如下:

1)通过W(X;p)使当前帧目标信息根据变化映射到与T模型相同平面的I(W(X;p));

2)计算$\nabla I = \left( {\frac{{\partial I}}{{\partial x}},\frac{{\partial I}}{{\partial y}}} \right)$,即在I(x,y)中求取各个点梯度;

3)计算式(13)(14)求${\frac{{\partial W}}{{\partial p}}}$

4)通过式(16)求得H并求逆;

5)通过式(15)求得Δp并判断是否$\left\| {\Delta p} \right\| \le \varepsilon $,若是,输出p,若不是,返回步骤2);

6)ppp

3 基于最速梯度下降的模型更新算法

3.1 更新时机

实验结果显示,逐帧更新[10]和定时更新[11]受到遮挡影响使模型严重偏离目标,逐帧检测[17]来判断是否更新则会大幅增加跟踪时间,降低跟踪效率。因此为使更新速率和精度的综合效果更好,本文采用定时检测,不定时更新模型的方法。

由于检测时间间隔短会降低跟踪效率,时间太长则达不到模型更新效果,经实验统计,每47帧进行检测效果较优。由于检测时可能突然出现干扰正常模型更新的信息,比如图像中恰好出现与目标相似的相邻模块,所以简单地用当前帧的目标区域作为模型用于下一帧的跟踪,可能会导致跟踪漂移,而组合模型效果要好一些。因此本文算法将相邻两帧统计结果都进行检测,若均满足条件,新模型将由这两帧目标区域的归一化叠加信息确立,即

$T\left( X \right) \leftarrow \frac{1}{2}\left[ {{I_n}\left( {W\left( {X;p} \right)} \right) + {I_{n + 1}}\left( {W\left( {X;p} \right)} \right)} \right]$ (17)

实验结果表明,更新模型时,由于初始模型或之前模型与当前目标信息相差过大,若将初始模型或之前模型的像素信息归一化叠加到当前模型中,使得更新后模型信息可能产生较大变化,导致失真,跟踪效果变差,所以在替换模型时,只需使用式(17),即当前两帧目标信息归一化线性叠加替代。

3.2 更新策略

首先,逐帧更新[10]模型算法存在“模型漂移”的现象。如果能够求出当前模型与当前帧目标之间的差值,并根据该差值判断是否更新模型,便可以有效地克服模型漂移问题。基于最速梯度下降法的模型更新方法的思路就是从差值出发,当差值大于模型漂移门限时,不进行更新;反之,则更新模型。

当前帧目标与当前模型的误差信息平方和最小值为

${P_n} = gd\mathop {\min }\limits_{p = {p_{n - 1}}} \sum\limits_{X \in T} {{{\left[ {T\left( X \right) - {I_n}\left( {W\left( {X;p} \right)} \right)} \right]}^2}} $ (18)

而当前帧目标与初始模型的误差信息平方和最小值为

$P_n^* = gd\mathop {\min }\limits_{p = {p_n}} \sum\limits_{X \in {T_0}} {{{\left[ {{T_0}\left( X \right) - {I_n}\left( {W\left( {X;p} \right)} \right)} \right]}^2}} $ (19)

式中,gdmin指沿最小梯度下降方向[5],参数p分别从n-1帧和n帧中获取,其余参数由式(8)—(16)得到。式(18)(19)指对应位置上信息发生改变的量之和。检测需要更新模型的判断条件为当前帧目标与当前模型的信息误差和与初始模型的信息误差之误差,即

$\left| {P_n^* - {P_n}} \right| \le \tau $ (20)

式中,τ是一个阈值门限,即算法可以容忍的模型漂移值。通过实验不断取值测试发现,当τ取值较大,超过0.5时,跟踪对遮挡和光照变化不敏感,更新频繁,效果接近于IVT算法,证明容易将遮挡物或光照改变后的变色目标替换为新模型,导致跟丢;当τ取值较小,低于0.1时,跟踪时对任何变化均不敏感,几乎不更新,效果接近于基本粒子滤波算法,证明不能较好检测到目标本身姿态变化,达不到更新模型的目的,所以取一个介于两者之间的阈值能够对误差之差有较好的判断,从而使本文算法达到提高跟踪鲁棒性的效果(τ在本文取0.25)。基于最速梯度下降法的模型更新策略充分利用了固定模型更新的优点,可以很好地克服模型漂移问题,使更新后的模型与真实目标的差值变小。

3.3 本文算法

本文算法总体流程如图 1所示。

图 1 本文算法流程
Fig. 1 Flow chart of the new tracking algorithm

4 实验结果展示及对比分析

为验证本文算法的有效性,选取6段视频序列,图 2展示了实验结果中有代表性的部分序列,将本文算法(ours)与目标的真实位置(Ground Truth)、粒子滤波算法(CPF)、将目标和背景二分类的压缩跟踪算法(CT)[18]、用梯度下降寻找邻域目标的分布场跟踪算法(DFT)[19]、定时模型更新跟踪算法(IVT)[11]、以及黄安奇等人提出的基于MeanShift改进巴氏指标模型更新算法[9](Huang)一同进行比较。为便于对比与分析,且保持结论的一般性,这几种算法都不考虑尺度变换。本文的仿真环境为Intel G1610 CPU,4 GB内存,Windows XP 系统,MATLAB 7.12.0 。本文定时检测帧数k取为5。

图 2 各算法跟踪结果比较(序列右上(下)角图像块为跟踪该帧数时的当前模型)
Fig. 2 Results comparison of the five tracking algorithms (the upper(lower) right corner of the image block sequence is the current model to track the frame) ((a) Basketball; (b) Tiger; (c) Jogging; (d) Subway; (e) Bolt; (f) Football)

4.1 定性分析

图 2(a)为跟踪Basketball视频序列(共725帧,分辨率为678×434像素)实验,跟踪对象为最右绿衣服球员,序列中出现遮挡,并且目标易受到背景中相似人物干扰。示例序列中,CPF和CT由于不能辨别目标与相邻人物而跟踪错位,导致跟丢,IVT偏移严重,DFT和Huang由于不能适应光照变化对目标产生颜色值的改变,导致跟到到相似人物身上;299帧中,本文算法更新模型,使得模型随目标变化而微调模型以适应跟踪,而18帧发生遮挡,678帧发生光照变化,本文算法未更新模型,而且跟踪框距离标准目标区域最近,跟踪效果均较为理想。

图 2(b)为跟踪 Tiger视频序列(共354帧,分辨率为641×481像素)实验,跟踪对象为被树叶遮住一角的老虎玩具,序列中频繁出现遮挡、旋转和光照变化。示例序列中,CPF和DFT出现大幅度漂移,Huang、IVT和CT丢失目标;本文算法中,由于初始帧模型本来就有遮挡,非物体本身,所以需要更新模型,74帧出现物体旋转,本文也选择更新,而18帧又出现叶子遮挡,284帧物体反射光线使光照改变影响模型颜色信息,误差大,模型不更新,跟踪效果均较为理想。

图 2(c)为跟踪Jogging视频序列(共307帧,分辨率为353×289像素)实验,跟踪对象为黄衣服黑裤子女孩,由于序列存在全遮挡,增大了跟踪难度。在第6275帧之间,发生遮挡,其余算法均跟丢目标;本文算法41、299帧因为目标与初始模型误差值小,更新模型,遮挡时本文算法均未更新,总体效果优于其他算法。

图 2(d)为跟踪Subway视频序列(共175帧,分辨率为353×289像素)实验,跟踪对象为最左边男人,在跟踪过程中,目标多次经历遮挡、边缘干扰。示例序列中,CPF很快跟丢目标,IVT大幅漂移;40帧发生遮挡,169帧出现边缘背景干扰,本文算法不更新,均选用该次检测之前的效果良好模型,48帧去除遮挡,更新模型,本文算法效果比其余算法总体较好。

图 2(e)为跟踪Bolt视频序列(共350帧,分辨率为640×360像素)实验,跟踪对象为Bolt,背景中存在多个与目标运动员相似的运动员,且背景变化较多、目标运动速度快,都使得算法跟踪难度增加。29帧开始DFT、CT和IVT开始跟丢,Huang 339帧之前都能跟上,339帧更新模型时由于不断更新背景导致跟丢到相邻人物身上;本序列示例中,本文算法在检测中均判断为目标本身旋转,更新模型,并有效跟踪,跟踪效果理想。

图 2(f)为跟踪Football视频序列(共87帧,分辨率为353×289像素)实验,跟踪对象为左边第2个蓝帽子黄衣服球员,目标移动较快,且有遮挡,本文算法在跟踪中及时更新模型,跟踪效果较参考算法相对理想。

4.2 定量分析

本文算法对于复杂背景下跟踪的鲁棒性,即从跟踪目标中心位置误差、由覆盖率统计的平均成功率及总体精度与成功率3个方面展开。

4.2.1 中心位置误差比较

首先,引入中心位置误差定量分析算法性能,它是指跟踪结果的中心位置坐标与目标中心的真实位置坐标之间的欧氏距离,并以此作为对算法跟踪精度的度量,其值越小跟踪精度越高,反之越低。

图 3所示为6种算法在以上6个具有代表性的图像序列中目标每一帧的中心位置误差曲线图。可以看出,本文算法相比其他5种对比算法,中心位置误差始终保持较低数值。

图 3 中心位置误差比较
Fig. 3 Center location error curve

表 1给出了6种算法对6段视频序列跟踪所得的平均中心位置误差比较。数据表明,本文算法与基础的粒子滤波算法相比,中心位置误差明显降低;与IVT、CT算法相比,本文算法在有遮挡干扰下具有更准确的跟踪精度;与Huang算法相比,本文算法跟踪性能在稳定性明显提高;与DFT算法相比,整体性能相对优越。

表 1 平均中心位置误差比较
Table 1 Average center location error

下载CSV
算法 Basketball Tiger Jogging Subway Bolt Football
DFT 18.041 54.286 31.430 3.485 99.092 4.991
IVT 13.014 72.473 25.964 16.031 118.613 15.932
CT 89.121 95.427 93.211 10.157 306.943 21.436
Huang 18.013 181.13 52.737 17.119 14.392 26.791
CPF 59.633 44.259 18.282 135.103 13.711 6.342
ours 6.819 32.453 18.181 9.375 1 11.166 6.147
注:黑色加粗为几种算法平均中心位置误差最小,即为最优,斜体为次优。

4.2.2 成功率与覆盖率

覆盖率是指跟踪区域和标准目标区域的重合度,成功率表示了覆盖率的稳定性,表 2为成功率的比较,图 4为覆盖率比较。从图 4中可以看出,红线几乎位列所有曲线最上端,说明本文算法比其他算法更能稳定跟踪目标,覆盖面更大,跟踪效果良好;从表 2看出,本文算法成功率平均较高,当成功率阈值定为大于0.5即为成功时,除了Subway和Football序列为次高,其他成功率均为最高。这说明了本文算法稳定性的优异,从而验证了本文算法具有良好的鲁棒性。

表 2 成功率比较
Table 2 Comparison of success rate

下载CSV
算法 Basketball Tiger Jogging Subway Bolt Football
DFT 0.7208 0.2227 0.1947 0.7270 0.094 0.821
IVT 0.6944 0.1805 0.4916 0.4723 0.106 0.363
CT 0.2611 0.0845 0.1788 0.5811 0.010 0.215
Huang 0.8251 0.1226 0.3111 0.3191 0.581 0.351
CPF 0.5986 0.3283 0.5373 0.1443 0.531 0.663
ours 0.9403 0.4552 0.5826 0.5821 0.641 0.697
注:统计成功率大于0.5的帧数,归一化后得到此表,黑色加粗为几种算法成功率最大,即为最优,斜体为次优。
图 4 覆盖率比较
Fig. 4 Comparison of coverage rate

4.2.3 总体精度与成功率比较

图 5展示了将6组视频序列归一化的精度曲线和成功率曲线。图 5(a)(c)说明在不同误差阈值内,精确的帧数所占总帧数百分比;图 5(b)(d)说明在达到不同覆盖率百分比时算为成功的帧数所占总帧数百分比。图 5(a)(b)中,通过与其他5组对比算法比较可以看出,本文算法综合精度与成功率最高,跟踪效果理想;算法A表示更新模型时叠加原模型信息,算法B表示定时检测时只判断一帧是否满足更新条件,而不是本文算法的连续两帧检测。X轴阈值均从0.01开始。图 5(c)(d)实验结果同样表明,本文算法精度与成功率优于算法A、B,证明了为排除突发因素进行连续两帧的检测和更新模型替换时无需叠加之前模型两者的必要性;而逐帧检测的精度和成功率实验结果曲线与本文算法结果几乎全覆盖,说明本文定时检测算法与逐帧检测效果几乎无差,根据表 3时间统计结果,与其余算法比较重,由于本文算法是在CPF基础上增加了模型更新运算,所以仅比CPF慢,比其预算法都快,且本文算法比逐帧检测跟踪速度快,说明本文算法综合跟踪效率有所提高。

图 5 精度与成功率比较
Fig. 5 Comparison of precision and success rate

表 3 平均每帧运行时间
Table 3 Average running time of per frame

下载CSV
/s
算法 Basketball Tiger Jogging Subway Bolt Football
DFT 0.914 0.931 0.986 0.894 0.951 0.892
IVT 0.413 0.421 0.476 0.407 0.451 0.401
CT 0.262 0.282 0.312 0.248 0.288 0.223
Huang 0.267 0.286 0.321 0.251 0.301 0.245
CPF 0.165 0.168 0.171 0.152 0.162 0.154
逐帧 0.412 0.453 0.554 0.397 0.489 0.393
本文 0.261 0.281 0.304 0.243 0.287 0.219
注:黑色加粗为几种算法平均跟踪时间最短,即为最优,斜体为次优。

5 结 论

本文针对传统粒子滤波算法存在的问题,从模型更新角度,在粒子滤波框架下,提出一种基于最速梯度下降法不定时模型更新目标跟踪算法。从实验结果及数据分析表明,本文算法较参考算法能够更好的解决遮挡、光照变化以及自身旋转等问题,提高了算法鲁棒性和有效性。但本文算法只选择了颜色这一种特征,并且没有考虑尺度变化,因此,下一步工作将尽力解决这两方面的问题。

参考文献

  • [1] Yang H X, Shao L, Zheng F, et al. Recent advances and trends in visual tracking: a review[J]. Neurocomputing, 2011 ,74 (18) : 3823 –3831. [DOI:10.1016/j.neucom.2011.07.024]
  • [2] Hou Z Q, Han C Z. A Survey of Visual Tracking[J]. Acta Automatica Sinica, 2006 ,32 (4) : 603 –617. [ 侯志强, 韩崇昭. 视觉跟踪技术综述[J]. 自动化学报, 2006 ,32 (4) : 603 –617.]
  • [3] Wu Y, Lim J, Yang M H.Online object tracking: a benchmark[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Portland, OR: IEEE, 2013: 2411-2418. [DOI: 10.1109/CVPR.2013.312]
  • [4] Smeulders A W M, Chu D M, Cucchiara R, et al. Visual tracking: an experimental survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013 ,36 (7) : 1442 –1468. [DOI:10.1109/TPAMI.2013.230]
  • [5] Matthews I, Ishikawa T, Baker S. The template updateproblem[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004 ,26 (6) : 810 –815. [DOI:10.1109/TPAMI.2004.16]
  • [6] Shen Z X, Yang X, Huang X Y. Study on target model update method in mean shift algorithm[J]. Acta Automatica Sinica, 2009 ,35 (5) : 478 –483. [ 沈志熙, 杨欣, 黄席樾. 均值漂移算法中的目标模型更新方法研究[J]. 自动化学报, 2009 ,35 (5) : 478 –483.] [DOI:10.3724/SP.J.1004.2009.00478]
  • [7] Hou Z Q, Huang A Q, Yu W S, et al. Visual object tracking method based on local patch model and model update[J]. Journal of Electronics & Information Technology, 2015 ,37 (6) : 1357 –1364. [ 侯志强, 黄安奇, 余旺盛, 等. 基于局部分块和模型更新的视觉跟踪算法[J]. 电子与信息学报, 2015 ,37 (6) : 1357 –1364.] [DOI:10.11999/JEIT141134]
  • [8] Chen D Y, Chen Z W, Sang Y J. Robust object tracking based on online update of multi-feature template[J]. Journal of Harbin Institute of Technology, 2014 ,46 (7) : 87 –94. [ 陈东岳, 陈宗文, 桑永嘉. 基于多特征在线模板更新的鲁棒目标跟踪算法[J]. 哈尔滨工业大学学报, 2014 ,46 (7) : 87 –94.] [DOI:10.11918/j.issn.0367-6234.2014.07.015]
  • [9] Huang A Q, Hou Z Q, Yu W S, et al. Visual tracking algorithm based on improved Bhattacharyya coefficient and model update strategy[J]. Journal of Applied Optics, 2015 ,36 (1) : 52 –57. [ 黄安奇, 侯志强, 余旺盛, 等. 基于改进巴氏指标和模型更新的视觉跟踪算法[J]. 应用光学, 2015 ,36 (1) : 52 –57.] [DOI:10.5768/JAO201536.0102001]
  • [10] Avidan S. Ensemble tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007 ,29 (2) : 261 –271. [DOI:10.1109/TPAMI.2007.35]
  • [11] Ross D A, Lim J, Lin R S, et al. Incremental learning for robust visual tracking[J]. International Journal of Computer Vision, 2008 ,77 (1-3) : 125 –141. [DOI:10.1007/s11263-007-0075-7]
  • [12] Mei X, Ling H B. Robust visual tracking using \begin{document}$\ell $\end{document} minimization[C]//Proceedings of the 12th International Conference on Computer Vision. Kyoto: IEEE, 2009: 1436-1443. [DOI: 10.1109/ICCV.2009.5459292]
  • [13] Tong X M, Zhang Y N, Yang T. Robust object tracking based on adaptive and incremental subspacelearning[J]. Acta Automatica Sinica, 2011 ,37 (12) : 1483 –1494. [ 仝小敏, 张艳宁, 杨涛. 基于增量子空间自适应决策的目标跟踪[J]. 自动化学报, 2011 ,37 (12) : 1483 –1494.] [DOI:10.3724/SP.J.1004.2011.01483]
  • [14] Grabner H, Leistner C, Bischof H. Semi-supervised on-line boosting for robust tracking[C]//Proceedings of the 10th European Conference on Computer Vision. Berlin Heidelberg: Springer, 2008: 234-247. [DOI: 10.1007/978-3-540-88682-2_19]
  • [15] Zhong W, Lu H C, Yang M H. Robust object tracking via sparsity-based collaborative model[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI: IEEE, 2012: 1838-1845. [DOI: 10.1109/CVPR.2012.6247882]
  • [16] Baker S, Matthews I. Lucas-Kanade 20 years on: a unifying framework[J]. International Journal of Computer Vision, 2004 ,56 (3) : 221 –255. [DOI:10.1023/B:VISI.0000011205.11775.fd]
  • [17] Ying C K, Hu W J, Zhao Y G. Study of target template-update algorithm in complex background[J]. Journal of Telemetry, Tracking, and Command, 2006 ,27 (6) : 34 –39. [ 应陈克, 胡文江, 赵亦工. 复杂背景下目标模板更新算法研究[J]. 遥测遥控, 2006 ,27 (6) : 34 –39.]
  • [18] Zhang K H, Zhang L, Yang M H. Real-time compressive tracking[C]//Proceedings of the 12th European Conference on Computer Vision. Berlin Heidelberg: Springer, 2012: 866-879. [DOI: 10.1007/978-3-642-33712-3_62]
  • [19] Sevilla-Lara L, Learned-Miller E. Distribution fields for tracking[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI: IEEE, 2012: 1910-1917. [DOI: 10.1109/CVPR.2012.6247891]