|
发布时间: 2018-05-16 |
图像处理和编码 |
|
|
收稿日期: 2017-08-28; 修回日期: 2017-12-08
基金项目: 国家自然科学基金项目(61771177,61375011)
第一作者简介:
鲁国智(1991-), 男, 杭州电子科技大学自动化学院控制工程专业硕士研究生, 主要研究方向为嵌入式系统开发、数字图像处理、计算机视觉。E-mail:m18094784726@163.com.
中图法分类号: TP391
文献标识码: A
文章编号: 1006-8961(2018)05-0662-12
|
摘要
目的 为提高目标跟踪的鲁棒性,针对相关滤波跟踪中的多特征融合问题,提出了一种多特征分层融合的相关滤波鲁棒跟踪算法。方法 采用多通道相关滤波跟踪算法进行目标跟踪时,从目标和周围背景区域分别提取HOG(histogram of oriented gradient)、CN(color names)和颜色直方图3种特征。提出的分层融合算法首先采用自适应加权融合策略进行HOG和CN特征的特征响应图融合,通过计算特征响应图的平滑约束性和峰值旁瓣比两个指标得到融合权重。将该层融合结果与基于颜色直方图特征获得的特征响应图进行第2层融合时,采用固定系数融合策略进行特征响应图的融合。最后基于融合后的响应图估计目标的位置,并采用尺度估计算法估计得到目标更准确的包围盒。结果 采用OTB-2013(object tracking benchmark 2013)和VOT-2014(visual object tracking 2014)公开测试集验证所提跟踪算法的性能,在对多特征分层融合参数进行分析的基础上,与5种主流基于相关滤波的目标跟踪算法进行了对比分析。实验结果表明,本文算法的目标跟踪精度有所提高,其跟踪精度典型值比Staple算法提高了5.9%(0.840 vs 0.781),同时由于有效地融合了3种特征,在多种场景下目标跟踪的鲁棒性优于其他算法。结论 提出的多特征分层融合跟踪算法在保证跟踪准确率的前提下,跟踪鲁棒性优于其他算法。当相关滤波跟踪算法采用了多个不同类型特征时,本文提出的分层融合策略具有一定的借鉴性。
关键词
目标跟踪; 相关滤波; 多特征融合; 分层融合; 特征响应图
Abstract
Objective A robust correlation filtering-based visual tracking algorithm based on multifeature hierarchical fusion is proposed to improve the robustness of target tracking after summarizing the main multifeature fusion strategies to solve the multifeature fusion problem in correlation filtering-based tracking. Method Three features, including histogram of oriented gradient (HOG), color name (CN), and color histogram, are extracted from the target area and its surroundings to depict the appearances of the target and background when the multichannel correlation filtering algorithm is used to track the target. Two fusion layers are used in the proposed hierarchical fusion scheme to combine the response maps of the three features. The HOG and CN features, which describe the gradient and color information of the target, respectively, have a strong discrimination capability and are a pair of complementary features. Given that the saliency of the HOG and CN features is different under different tracking scenarios, the adaptive weighted fusion strategy, which can adaptively adjust fusion weights according to scene change, can be used to combine the responses of the HOG and CN features. Therefore, the adaptive weighted fusion strategy is used to combine the response maps of the HOG and CN features at the first fusion layer, where fusion weights are computed by calculating the smooth constraint and peak-to-sidelobe ratio of the feature response maps. Color histogram is a global statistical feature, and it can handle the case of deformation because the position information is discarded during computation of the color histogram. However, the tracking algorithm has a low accuracy when using the color histogram only because it is susceptible to the interference of similar-colored backgrounds. Thus, the color histogram feature is used as an additional feature in the proposed algorithm. The fixed-coefficient fusion strategy is adopted to combine the feature response maps of the first fusion layer and the feature response maps of the second fusion layer based on the color histogram. Finally, the position of the target is estimated based on the final response map, and the maximum of the final response map corresponds to the target position. The scale estimation algorithm, which uses a 1D scale-dependent filter to estimate the target scale rapidly, is adopted to obtain an accurate bounding box of the target. The model update procedure using a fixed learning factor at each frame is performed to adapt to appearance changes. Result The performance of the proposed tracking algorithm is verified using two public datasets, i.e., OTB-2013 and VOT-2014, for the evaluation of the visual tracking algorithm. The OTB-2013 dataset contains 51 test sequences, of which 35 are color video sequences. The distance precision and success rate curves are selected as performance metrics for the OTB-2013 dataset, and the one-pass evaluation assessment method is used to compute these metrics. The VOT-2014 dataset contains 25 color test sequences, and the accuracy and robustness metrics are used to analyze the performance for the VOT-2014 dataset. The experiments are divided into two parts, i.e., performance analysis of different parameters on the proposed algorithm and comparison with five mainstream correlation-filtering-based tracking algorithms, to analyze the performance of the proposed algorithm fully. The parameters of the proposed multifeature hierarchical fusion scheme, including fusion methods, target features, and fusion parameters, are analyzed using 35 sequences of the OTB-2013 dataset. Experimental results indicate that the proposed adaptive weighted fusion strategy is better than multiplicative fusion strategy, and the HOG, CN, color histogram features can improve the performance of the tracking algorithm. Second, the performance of our algorithm and five mainstream tracking algorithms are compared and analyzed. The six tracking algorithms are initially tested on all sequences and subsequently tested on 10 different individual attribute sequences. Experimental results indicate that the tracking performance is improved, where the precision score of the proposed algorithm is higher than that of the Staple algorithm by 5.9% (0.840 vs 0.781). Meanwhile, the robustness of the proposed algorithm is superior to that of other algorithms in most scenarios because of the effective integration of the CN, HOG, and color histogram features, and the highest success rate is achieved on out-of-plane rotation, occlusion, and fast motion sequences. Conclusion The robustness of the proposed multifeature hierarchical fusion tracking algorithm is superior to that of other algorithms based on correlation filtering under the premise of ensuring the tracking accuracy. The proposed hierarchical fusion strategy can be used and expanded when different types of features are adopted in the correlation filtering-based tracking algorithm.
Key words
target tracking; correlation filter; multi-feature fusion; hierarchical fusion; feature response map
0 引言
视觉跟踪通过图像处理和滤波估计等技术确定感兴趣目标在图像序列中的位姿,是计算机视觉领域研究的热点问题之一,其在军事和民用领域具有广泛的应用[1]。目前实现鲁棒视觉跟踪仍是一个极具挑战的难题,需要解决的难点包括目标形变、快速运动、复杂背景等[2]。
目前主要的视觉跟踪算法包括基于在线学习的跟踪算法、基于稀疏表示的跟踪算法、基于相关滤波的跟踪算法和基于卷积神经网络的跟踪算法等[3]。基于相关滤波的视觉跟踪算法具有实时性好和跟踪性能高的优点,其在VOT视觉跟踪竞赛[3-4]中取得了优异成绩。影响相关滤波跟踪算法性能的主要因素包括相关滤波器的设计,图像特征的提取、选择和融合两个方面。国内外学者做了大量研究工作,提出了多种行之有效的相关滤波跟踪算法,包括误差最小平方和滤波器(MOSSE)[5]、基于检测的核循环结构(CSK)跟踪算法[6]、核相关滤波跟踪算法(KCF)[7]、颜色名(CN)跟踪算法[8]、判别式尺度空间跟踪算法(DSST)[9]、基于多特征融合的尺度自适应跟踪算法(SAMF)[10]等。
早期的相关滤波器,如MOSSE[5]和CSK[6],仅支持单通道特征,这在一定程度上限制了目标多通道互补特征的使用。DSST[9]在MOSSE滤波器的基础上进行多通道特征的滤波器求解,并做了鲁棒性近似,在只考虑单模板的情况下,滤波器求解所需参数少,计算速度快。KCF[7]在求取CSK滤波器的模板乘积核矩阵时,针对目标多通道特征情况,采用将每个单通道的乘积结果进行相加的方式计算核矩阵,将目标特征从单通道扩展到了多通道。
当在相关滤波跟踪算法中采用多源特征时,根据融合的层次不同,融合策略可分为特征提取层融合和特征响应图层融合两种,如图 1所示。融合策略1在特征提取层将多种特征合并成多通道特征,融合策略2在特征响应图层进行融合,融合系数的确定方法可概括为固定系数加权融合、自适应加权融合、自适应特征选择融合和分层融合等。
目前相关滤波跟踪算法普遍采用灰度(Gray)、颜色、方向梯度直方图(HOG)[11]3种特征。MOSSE和CSK均采用Gray特征, 虽然算法实时性好,但其对目标的描述能力有限,跟踪精度不高。KCF对Gray和HOG特征进行比较得出,采用HOG特征的跟踪精度大幅提高。文献[8]对不同颜色空间的颜色特征做了对比分析,实验结果表明,采用CN特征[12]的跟踪算法在准确率和鲁棒性上性能最好。在多特征融合策略方面,DSST采用图 1所示的融合策略1融合Gray和HOG特征。SAMF[10]采用Gray、CN和HOG3种特征,同样采用融合策略1融合这3种特征,由于利用了HOG和CN特征互补的优势,取得了较好的跟踪结果。文献[13]采用融合策略1融合Gray、HOG和色调饱和度亮度(HSV)3种特征,对颜色和梯度特征进行了有效融合,使跟踪性能得到有效提升。文献[14]采用融合策略1将3种互补特征HOG、局部二值模式(Local Binary Pattern, LBP)、CN分别和Gray特征融合,并采用融合策略2中的自适应特征选择融合策略进行多特征融合,能自适应选择最优特征进行目标跟踪。文献[15]通过训练损失函数计算融合权重,采用融合策略2中的自适应加权融合策略融合HOG和CN特征。基于卷积特征的相关滤波跟踪算法(HCF)[16]利用卷积神经网络中的多个卷积层来提取目标特征,通过由粗到精的方式在多个特征响应图层上估计目标位置。Staple(sum of template and pixel-wise learners)跟踪算法[17]在特征提取层将Gray和HOG特征合并成多通道特征,同时提出了适合于相关滤波跟踪算法的颜色直方图特征,利用固定系数加权融合策略在特征响应图层融合基于Gray和HOG组成的多通道特征、颜色直方图特征的滤波结果。上述跟踪算法在特征响应图层只采用了单一的融合策略进行特征融合,当跟踪算法采用了多个不同类型的特征时,单一的特征融合策略往往不能适应跟踪场景的变化,跟踪算法易受跟踪环境变化的干扰,无法准确跟踪目标。因为不同类型的特征描述目标的能力不同,应根据不同特征的判别性采取分层融合策略。
为提高目标跟踪的鲁棒性,针对相关滤波跟踪中多个不同类型的特征融合问题,本文提出了一种多特征分层融合的相关滤波鲁棒跟踪算法。所提算法采用HOG、CN和颜色直方图3种特征,基于多通道相关滤波跟踪算法框架进行目标跟踪。采用自适应加权融合策略首先进行HOG和CN的特征响应图融合,将该层融合结果与基于颜色直方图特征获得的特征响应图进行第2层固定系数特征响应图融合。通过融合后的响应图进行目标位置估计,并采用尺度估计算法估计目标尺度。采用OTB-2013 [18]和VOT-2014 [4]公开测试集验证所提跟踪算法的性能,与5种主流基于相关滤波的目标跟踪算法进行了跟踪性能对比分析。实验结果表明,本文算法在保证跟踪准确率的情况下,跟踪鲁棒性要优于其他算法,验证了本文算法的有效性。
1 多通道相关滤波跟踪原理
记
$ \varepsilon = {\left\| {\mathit{\boldsymbol{g-}}\sum\limits_{l = 1}^d {{\mathit{\boldsymbol{h}}^l} * {\mathit{\boldsymbol{f}}^l}} } \right\|^2} + \lambda \sum\limits_{l = 1}^d {{{\left\| {{\mathit{\boldsymbol{h}}^l}} \right\|}^2}} $ | (1) |
式中,
$ {\mathit{\boldsymbol{H}}^l} = \frac{{\mathit{\boldsymbol{\bar G}}{\mathit{\boldsymbol{F}}^l}}}{{\sum\limits_{k = 1}^d {{{\mathit{\boldsymbol{\bar F}}}^k}{\mathit{\boldsymbol{F}}^k} + \lambda } }};\;\;\;l = 1, \cdots, d $ | (2) |
式中,大写字母表示相应变量的离散傅里叶变换形式,
在仅考虑单个目标样本的条件下,式(2)给出了最优滤波器
$ \begin{array}{l} \mathit{\boldsymbol{A}}_{_t}^{^l} = \left( {1-\eta } \right)\mathit{\boldsymbol{A}}_{_{t-1}}^{^l} + \eta \mathit{\boldsymbol{\bar GF}}_{_t}^{^l};\;\;\;\;\;l = 1, \cdots, d\\ {\mathit{\boldsymbol{B}}_t} = \left( {1-\eta } \right){\mathit{\boldsymbol{B}}_{t - 1}} + \eta \sum\limits_{k = 1}^d {\mathit{\boldsymbol{\bar F}}_{_t}^{^k}\mathit{\boldsymbol{F}}_{_t}^{^k}} \end{array} $ | (3) |
式中,
在第
$ {y_t} = {F^{-1}}\left\{ {\frac{{\sum\limits_{l = 1}^d {\mathit{\boldsymbol{\bar A}}_{_{t-1}}^{^l}\mathit{\boldsymbol{Z}}_{_t}^{^l}} }}{{{\mathit{\boldsymbol{B}}_{t-1}} + \lambda }}} \right\} $ | (4) |
式中,
2 多特征分层融合相关滤波跟踪算法
本文算法在多通道相关滤波算法框架下,采用HOG、CN和颜色直方图3种特征进行目标跟踪。通过自适应加权融合策略进行HOG特征和CN特征的特征响应图融合,将该层融合结果与基于颜色直方图特征获得的特征响应图进行固定系数融合。通过融合后的响应图进行目标位置估计,并采用文献[9]的尺度估计方法进行目标尺度估计。算法细节描述如下。
2.1 多特征描述
相关滤波跟踪算法通过循环移位来构造样本,其目标特征是基于模板的,适合于跟踪刚体目标,但模板特征不适用于处理目标形变问题。颜色直方图特征是基于全局统计特征,其舍弃了每个像素的位置信息,目标发生形变对其影响较小。Staple[17]算法设计了能够用于相关滤波跟踪的颜色直方图特征,其能有效处理目标形变。
2.1.1 基于模板的目标特征
2.1.2 颜色直方图特征
早期的跟踪算法[19-20]仅将颜色直方图特征用于计算目标模板和候选样本间的Bhattacharyya系数,算法只能求得一个最优目标位置,无法得到候选区域响应图。Staple通过线性脊回归方程求取了颜色直方图滤波器,直接通过目标和背景颜色直方图来计算单个像素的相似度,能得到候选区域的响应图,其将颜色直方图特征引入到了相关滤波跟踪算法中[17]。
记颜色直方图滤波器为
$ \begin{array}{l} {\varepsilon _{{\rm{hist}}}} = \frac{1}{{\left| \mathit{\boldsymbol{O}} \right|}}\sum\limits_{u \in O} {{{\left( {{\mathit{\boldsymbol{\beta }}^{\rm{T}}}\mathit{\boldsymbol{\varphi }}\left[u \right] - 1} \right)}^2} + } \\ \;\;\;\;\;\;\;\;\frac{1}{{\left| \mathit{\boldsymbol{B}} \right|}}\sum\limits_{u \in B} {{{\left( {{\mathit{\boldsymbol{\beta }}^{\rm{T}}}\mathit{\boldsymbol{\varphi }}\left[u \right]} \right)}^2}} \end{array} $ | (5) |
式中,
$ {\mathit{\boldsymbol{\beta }}^j} = \frac{{{\mathit{\boldsymbol{\rho }}^j}\left( \mathit{\boldsymbol{O}} \right)}}{{{\mathit{\boldsymbol{\rho }}^j}\left( \mathit{\boldsymbol{O}} \right) + {\mathit{\boldsymbol{\rho }}^j}\left( \mathit{\boldsymbol{B}} \right) + \lambda }};\;\;\;\;\;j = 1, \cdots, M $ | (6) |
式中,
利用
2.2 多特征分层融合算法
通过实验发现,若将本文所用3种特征的特征响应图直接相乘进行特征融合,跟踪准确率和鲁棒性都很差,这是因为不同类型的特征描述目标的能力不同,应根据不同特征的判别性采取分层融合策略。HOG和CN特征分别描述了目标的梯度和颜色特征,特征判别性较强。不同跟踪场景下目标的HOG和CN特征的显著性不同,本文采用自适应加权融合策略进行这两种特征的响应图融合,以增强目标特征的显著性。当只利用颜色直方图特征时,跟踪算法准确率较低。这是因为颜色直方图特征的判别性较弱,易受背景相似颜色的干扰。但当目标发生形变时,模板特征几乎失效,而颜色直方图特征能保留一部分目标信息,可以依赖颜色直方图特征来跟踪目标,从而提高跟踪算法的鲁棒性。当模板特征和颜色直方图特征融合时,将颜色直方图特征作为一种辅助特征,本文采用固定系数融合策略进行特征响应图的融合。
2.2.1 自适应加权特征融合
为计算各特征在跟踪过程中的判别能力,本文采用响应图平滑约束性(SCCM)[21]和峰值旁瓣比(PSR)[5]两个指标来计算模板特征融合权重。
SCCM的定义为
$ S = {\left\| {{\mathit{\boldsymbol{y}}_t}-{\mathit{\boldsymbol{y}}_{t-1}} \oplus \mathit{\boldsymbol{ \boldsymbol{\varDelta} }}} \right\|^2} $ | (7) |
式中,
PSR的计算公式为
$ P = \frac{{\max \left( {{y_t}} \right)-{u_\mathit{\Phi} }\left( {{\mathit{\boldsymbol{y}}_t}} \right)}}{{{\sigma _\mathit{\Phi} }({\mathit{\boldsymbol{y}}_t})}} $ | (8) |
式中,
SCCM越小,PSR值越大,表明对应特征的跟踪结果可信度越高,在模板特征融合时应该赋予更大的权重。基于以上考虑,设计的自适应特征融合权重计算公式为
$ {w_{{\rm{CN}}}} = \frac{{\frac{{{P_{{\rm{CN}}}}}}{{{S_{{\rm{CN}}}}}}}}{{\frac{{{P_{{\rm{CN}}}}}}{{{S_{{\rm{CN}}}}}} + \frac{{{P_{{\rm{HOG}}}}}}{{{S_{{\rm{HOG}}}}}}}} $ | (9) |
式中,
$ {w_{{\rm{CN}}, t}} = \left( {1-\tau } \right) \times {w_{{\rm{CN}}, t-1}} + \tau \times {w_{{\rm{CN}}}} $ | (10) |
式中,
在模板特征响应图层进行自适应特征融合,融合后的输出响应为
$ {\mathit{\boldsymbol{y}}_{{\rm{tmpl}}}} = {w_{{\rm{CN}}}} \times {\mathit{\boldsymbol{y}}_{{\rm{CN}}}} + \left( {1-{w_{{\rm{CN}}}}} \right) \times {\mathit{\boldsymbol{y}}_{{\rm{HOG}}}} $ | (11) |
式中,
2.2.2 固定系数特征融合
本文借鉴文献[17]的特征融合策略,将融合结果和颜色直方图特征响应图进行固定系数融合,融合公式为
$ {\mathit{\boldsymbol{y}}_{{\rm{trans}}}} = \alpha \times {\mathit{\boldsymbol{y}}_{{\rm{hist}}}} + \left( {1-\alpha } \right) \times {\mathit{\boldsymbol{y}}_{{\rm{tmpl}}}} $ | (12) |
式中,
2.3 尺度估计
2.4 算法流程
图 2是本文算法在第
本文提出的基于多特征融合的相关滤波跟踪算法流程如下:
1) 在第
2) 在第
3) 通过式(11)进行自适应特征融合得到
4) 在第
5) 输出第
3 实验结果与分析
3.1 实验环境及算法参数设置
本文实验硬件环境为配置Intel Core i5-3470 CPU,3.20 GHz主频, 4 GB内存的PC机,算法开发平台为Matlab R2014a。位置滤波器学习系数
3.2 数据集及评价指标
采用OTB-2013和VOT-2014公开测试集验证算法性能。OTB-2013中选取了35段彩色序列,使用一次通过评估模式(OPE)。距离精度曲线是计算算法跟踪框和真实目标框中心距离小于某一阀值的帧数占所有帧的百分比,选取阀值为20像素时的距离精度曲线值(DP)作为典型值,其评价了算法的鲁棒性。成功率曲线计算重叠率大于某个阀值的帧数占所有帧的百分比,两个框的重叠面积与总面积之比为重叠率,将成功率曲线下方的面积(AUC)作为典型值,其评价了算法的准确性。VOT-2014中使用准确率(Accuracy)和鲁棒性(Robustness)两种评价指标。Accuracy是指跟踪算法的平均重叠率,计算公式和OTB-2013一致,Robustness是指跟踪算法的平均跟踪失败次数。
3.3 本文算法分析
为对算法进行详细分析,将算法所用特征进行拆分,得到3种算法Ours_CN、Ours_HOG和Ours_CN_HOG,记本文算法为Ours。其中Ours_CN和Ours_HOG算法分别只利用CN和HOG特征进行目标跟踪,Ours_CN_HOG算法利用CN特征和HOG特征进行目标跟踪。
3.3.1 自适应特征融合方法分析
为分析自适应特征融合方法的有效性,将Ours_CN、Ours_HOG和Ours_CN_HOG 3种算法在OTB-2013的Skating1序列上做了实验。图 3是对应3帧的跟踪结果,图 4是Ours_CN_HOG算法的融合权重系数
第118帧中目标存在光照变化,其下半部分和背景颜色接近,导致CN特征响应图分布变化较大,而HOG特征能有效处理光照变化。此时融合权重系数自动变小,使融合后的响应图仍能跟踪目标。第178帧中目标存在部分遮挡,HOG特征响应图分布变化较大,使Ours_HOG算法不能准确跟踪目标。提出的自适应特征融合方法能准确及时地判断出跟踪场景变化,对CN特征赋予了更高的权重。第285帧中目标周围环境光照变化较大,CN特征无法有效利用颜色信息,导致Ours_CN算法估计目标误差较大。提出的自适应特征融合方法通过降低CN特征的融合权重,有效克服了光照变化所带来的不利影响。
3.3.2 目标特征分析
为验证算法所用特征的有效性,在OTB-2013上做了一组实验,实验结果如图 5所示。进行自适应特征融合后,Ours_CN_HOG算法在准确性和鲁棒性上相比于单特征的Ours_CN和Ours_HOG算法均有所提升,说明了CN和HOG特征的有效性。本文算法Ours的准确性和鲁棒性相比于Ours_CN_HOG算法,都有了较大提升,说明了颜色直方图特征对跟踪算法性能提升的重要性。
3.3.3 多特征分层融合参数分析
为分析学习系数
3.4 与5种主流基于相关滤波的跟踪算法对比分析
为验证算法的有效性,在VOT-2014和OTB-2013公开测试集上,将本文算法与5种主流基于相关滤波的目标跟踪算法,包括CN、KCF、SAMF、DSST和Staple进行对比分析。表 1对6种算法所采用的特征和融合策略进行了总结对比。
表 1
6种算法的总结对比
Table 1
Summary and comparison of the six kinds of algorithms
进行测试时,KCF仅采用HOG特征,CN和DSST分别将CN、HOG与Gray特征合并成多通道特征,SAMF将Gray、HOG和CN特征合并成多通道特征。Staple将Gray和HOG特征合并成多通道特征,采用固定系数加权融合策略将模板特征和颜色直方图特征在特征响应图层进行特征融合。本文算法虽然也采用了多个特征,但与其他算法不同的是,本文通过多特征分层融合策略在特征响应图层进行特征融合。
3.4.1 OTB-2013实验结果
图 7为本文算法与5种算法在OTB-2013上的跟踪结果。从图 7看出,本文算法在准确率和鲁棒性上均要好于其他算法。相比于Staple算法,本文算法的DP和AUC分别提高了5.9 % (0.840 vs 0.781)和3.2 % (0.633 vs 0.601)。第1个原因是加入了CN特征,其能够提取具有判别力的颜色特征,且CN和HOG特征具有一定的互补性。第2个原因是本文提出的多特征分层融合策略,能根据不同跟踪场景下特征描述目标的能力,自适应调整融合权重,减少了算法跟丢目标的可能性,提高了算法的鲁棒性。
图 8为6种算法在OTB-2013中10种不同属性序列上的成功率曲线。本文算法在9种属性序列上都取得了较好的跟踪结果,特别是在目标形变序列上,本文算法的AUC相比于Staple算法提高了3.1 % (0.633 vs 0.602)。在背景杂乱序列上,本文算法和Staple跟踪性能都较差,本文算法的AUC相比于Staple算法下降了0.9 % (0.445 vs 0.454)。对于背景杂乱序列,其背景颜色信息往往较丰富,颜色直方图特征易受到相似背景颜色的影响,由于本文算法无法自适应调节颜色直方图特征的融合权重,不能准确跟踪目标。
表 2为6种跟踪算法在OTB-2013上的平均运行速度。从表 2看出,本文算法在采用HOG、CN和颜色直方图3种特征后,算法执行效率相比Staple算法有所下降,但仍能保持实时性。在保证跟踪准确率的前提下,跟踪鲁棒性优于其他算法,具有一定的实用性。
3.4.2 VOT-2014实验结果
VOT-2014的实验类型包含baseline和region noise两种,其中region noise实验是测试算法在干扰情况下的跟踪性能。本文算法没有随机性,在baseline实验上做了3次仿真卡罗模拟,在region noise实验上做了5次仿真卡罗模拟。表 3为本文算法与对比算法在VOT-2014上的跟踪结果,可以看出,本文算法在baseline和region noise实验中的鲁棒性均好于其他算法,这进一步说明了提出的多特征分层融合策略的有效性。
表 3
VOT-2014上6种算法跟踪结果汇总
Table 3
Summary of six kinds of algorithms tracking results on VOT-2014
4 结论
采用HOG、CN和颜色直方图3种特征,提出了一种多特征分层融合的相关滤波鲁棒跟踪算法。采用自适应加权融合策略进行HOG和CN特征的特征响应图融合,将该层融合结果与基于颜色直方图特征获得的特征响应图进行融合时,采用固定系数融合策略进行特征响应图融合。采用OTB-2013和VOT-2014公开测试集验证所提跟踪算法的性能,在对多特征分层融合参数进行分析的基础上,与5种主流基于相关滤波的目标跟踪算法进行了对比分析。实验结果表明,本文算法在保证跟踪准确率的前提下,跟踪鲁棒性优于其他算法,验证了提出的多特征分层融合策略的有效性。当相关滤波跟踪算法采用了多个不同类型的特征时,本文提出的分层融合策略具有一定的借鉴性。但本文算法易受背景杂乱干扰,如何对颜色直方图特征进行自适应特征融合,克服相似背景颜色的影响,是下一步的重点研究方向。
参考文献
-
[1] Huang K Q, Chen X T, Kang Y F, et al. Intelligent visual surveillance:a review[J]. Chinese Journal of Computers, 2015, 38(6): 1093–1118. [黄凯奇, 陈晓棠, 康运锋, 等. 智能视频监控技术综述[J]. 计算机学报, 2015, 38(6): 1093–1118. ] [DOI:10.11897/SP.J.1016.2015.01093]
-
[2] Smeulders A W M, Chu D M, Cucchiara R, et al. Visual tracking:an experimental survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(7): 1442–1468. [DOI:10.1109/TPAMI.2013.230]
-
[3] Kristan M, Matas J, Leonardis A, et al. The visual object tracking VOT2015 challenge results[C]//Proceedings of 2015 IEEE International Conference on Computer Vision Workshop. Santiago, Chile: IEEE, 2016: 564-586. [DOI: 10.1109/ICCVW.2015.79]
-
[4] Kristan M, Pflugfelder R, Leonardis A, et al. The visual object tracking VOT2014 challenge results[C]//Proceedings of European Conference on Computer Vision. Zurich, Switzerland: Springer, 2014: 191-217. [DOI: 10.1007/978-3-319-16181-5_14]
-
[5] Bolme D S, Beveridge J R, Draper B A, et al. Visual object tracking using adaptive correlation filters[C]//Proceedings of 2010 IEEE Conference on Computer Vision and Pattern Recognition. San Francisco, CA, USA: IEEE, 2010: 2544-2550. [DOI: 10.1109/CVPR.2010.5539960]
-
[6] Henriques J F, Caseiro R, Martins P, et al. Exploiting the circulant structure of tracking-by-detection with kernels[C]//Proceedings of the 12th European Conference on Computer Vision. Florence, Italy: Springer-Verlag, 2012: 702-715. [DOI: 10.1007/978-3-642-33765-9_50]
-
[7] Henriques J F, Caseiro R, Martins P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583–596. [DOI:10.1109/TPAMI.2014.2345390]
-
[8] Danelljan M, Khan F S, Felsberg M, et al. Adaptive color attributes for real-time visual tracking[C]//Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE, 2014: 1090-1097. [DOI: 10.1109/CVPR.2014.143]
-
[9] Danelljan M, Häger G, Khan F S, et al. Accurate scale estimation for robust visual tracking[C]//Proceedings of British Machine Vision Conference 2014. Nottingham, UK: BMVA Press, 2014: 1-11. [DOI: 10.5244/C.28.65]
-
[10] Li Y, Zhu J K. A scale adaptive kernel correlation filter tracker with feature integration[C]//Proceedings of European Conference on Computer Vision. Zurich, Switzerland: Springer, 2014: 254-265. [DOI: 10.1007/978-3-319-16181-5_18]
-
[11] Felzenszwalb P F, Girshick R, McAllester D, et al. Object detection with discriminatively trained part-based models[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(9): 1627–1645. [DOI:10.1109/TPAMI.2009.167]
-
[12] Van De Weijer J, Schmid C, Verbeek J, et al. Learning color names for real-world applications[J]. IEEE Transactions on Image Processing, 2009, 18(7): 1512–1523. [DOI:10.1109/TIP.2009.2019809]
-
[13] Xu Y L, Wang J B, Li Y, et al. Scale adaptive correlation tracking combined with color features[J]. Application Research of Computers, 2017, 34(3): 945–948. [徐玉龙, 王家宝, 李阳, 等. 融合颜色特征的尺度自适应相关跟踪[J]. 计算机应用研究, 2017, 34(3): 945–948. ] [DOI:10.3969/j.issn.1001-3695.2017.03.071]
-
[14] Shen Q, Yan X L, Liu L F, et al. Multi-scale correlation filtering tracker based on adaptive feature selection[J]. Acta Optica Sinica, 2017, 37(5): #515001. [沈秋, 严小乐, 刘霖枫, 等. 基于自适应特征选择的多尺度相关滤波跟踪[J]. 光学学报, 2017, 37(5): #515001. ] [DOI:10.3788/aos201737.0515001]
-
[15] Wang W, Wang C P, Li J, et al. Correlation filter tracking based on feature fusing and model adaptive updating[J]. Optics and Precision Engineering, 2016, 24(8): 2059–2066. [王暐, 王春平, 李军, 等. 特征融合和模型自适应更新相结合的相关滤波目标跟踪[J]. 光学 精密工程, 2016, 24(8): 2059–2066. ] [DOI:10.3788/OPE.20162408.2059]
-
[16] Ma C, Huang J B, Yang X K, et al. Hierarchical convolutional features for visual tracking[C]//Proceedings of 2015 IEEE International Conference on Computer Vision. Santiago, Chile: IEEE, 2015: 3074-3082. [DOI: 10.1109/ICCV.2015.352]
-
[17] Bertinetto L, Valmadre J, Golodetz S, et al. Staple: complementary learners for real-time tracking[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 1401-1409. [DOI: 10.1109/CVPR.2016.156]
-
[18] Wu Y, Lim J, Yang M H. Online object tracking: a benchmark[C]//Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition. Portland, OR, USA: IEEE, 2013: 2411-2418. [DOI: 10.1109/CVPR.2013.312]
-
[19] Comaniciu D, Ramesh V, Meer P, et al. Kernel-based object tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(5): 564–577. [DOI:10.1109/TPAMI.2003.1195991]
-
[20] Isard M, Blake A. CONDENSATION-conditional density propagation for visual tracking[J]. International Journal of Computer Vision, 1998, 29(1): 5–28. [DOI:10.1023/A:1008078328650]
-
[21] Liu T, Wang G, Yang Q X. Real-time part-based visual tracking via adaptive correlation filters[C]//Proceedings of 2015 IEEE Computer Vision and Pattern Recognition. Boston, MA, USA: IEEE, 2015: 4902-4912. [DOI: 10.1109/CVPR.2015.7299124]