|
发布时间: 2017-04-16 |
图像理解和计算机视觉 |
|
|
收稿日期: 2016-11-03; 修回日期: 2017-01-04
基金项目: 国家自然科学基金项目(61365009,61462008,61663004);广西省自然科学基金项目(2014GXNSFAA118368,2013GXNSFAA,019336,2016GXNSFAA380146);广西师范大学博士科研启动基金项目;广西信息科学实验中心经费资助课题
第一作者简介: 张灿龙 (1975-), 男, 副教授, 2013年于上海交通大学获控制理论与控制工程专业工学博士学位, 主要研究方向为目标跟踪、信息融合与机器学习。E-mail:zcltyp@163.com
中图法分类号: TP301
文献标识码: A
|
摘要
目的 针对融合跟踪中的实时性和准确性问题,提出一种基于二阶空间直方图联合的红外与可见光目标融合跟踪算法。 方法 该算法以二阶空间直方图为目标表示模型,通过将红外的目标相似度和可见光的目标相似度进行加权融合,来构建新的目标函数;并依据核跟踪推理机制导出目标的联动位移公式;最后使用均值漂移程序实现目标的自动搜索。此外,算法还实现了融合权值的自适应调节和目标模型的在线更新。 结果 实验中选取了4组典型的红外可见光视频对进行跟踪,测试了算法在夜间环境、背景阴影、目标交汇与拥簇,以及目标遮挡等场合下的跟踪性能,并与L1跟踪器(L1T)、基于区域模糊动态融合的跟踪器(FRD),以及基于联合直方图的跟踪器在平均中心误差、平均重叠率、成功率以及平均跟踪时间等指标上进行了定量比较,得到各算法在这4组视频上的对应性能指标数据分别为本文算法(6.664,0.702,0.921,0.009)、L1T跟踪红外目标(25.53,0.583,0.742,0.363)、L1T跟踪可见光目标(31.21,0.359,0.459,0.293)、FRD(10.73,0.567,0.702,0.565)、JHT(15.07,0.622,0.821,0.001),发现本文算法的平均准确率比其他跟踪算法分别高约23%、14%和8%,而平均成功率分别高约32%、46%和10%。 结论 本文算法在处理场景拥簇、光照变化以及空间信息保持等方面要优于传统的单源跟踪方法,适用于夜间环境、背景阴影以及背景拥簇等场景下目标跟踪,对帧频为30帧/s的视频数据,算法可同时在线跟踪到4个目标。
关键词
联合跟踪; 红外; 可见光; 空间直方图; 粒子滤波
Abstract
Objective This study proposes a joint spatiogram tracker after considering the issues of real time and accuracy within the tracking system of a multiple sensor. Method In the proposed method, a second-order spatiogram is used to represent a target, and the similarity between the infrared candidate and its target model, as well as that between the visible candidate and its target model, is integrated into a novel objective function for evaluating target state. A joint target center-shift formula is established by performing a derivation method similar to the mean shift algorithm on the objective function. Finally, the optimal target location is obtained recursively by applying the mean shift procedure. In addition, the adaptive weight adjustment method and the model update method based on a particle filter are designed. Result We tested the proposed tracker on four publicly available data sets. These data sets involved general tracking difficulties, such as the absence of light at night; shade, cluster, and overlap among targets; and occlusion. We also compared our method with joint histogram tracking (JHT, the degenerated version of our method) and state-of-the-art algorithms, such as the L1 tracker (L1T) and the fuzzified region dynamic fusion tracker (FRD), on more than four infrared-visible image sequences. For the quantitative comparison, we use four evaluation metrics, namely, the average center offset error, the average overlap ratio, the average success rate, and the average calculation time. The corresponding test results of each algorithm in the four data sets are as follows: proposed method (6.664, 0.702, 0.921, 0.009), L1T track infrared target (25.53, 0.583, 0.742, 0.363), L1T track visible target (31.21, 0.359, 0.459, 0.293), FRD (10.73, 0.567, 0.702, 0.565), and JHT (15.07, 0.622, 0.821, 0.001). In terms of overlap ratio, the average precision of our method is approximately 23%, 14%, and 8% higher than those of L1T, FRD, and JHT, respectively. In terms of success ratio, the average value of our method is approximately 32%, 46%, and 10% higher than the corresponding trackers. Conclusion The proposed fusion tracker is superior to a single-source tracker in addressing cluttered background, light change, and spatial information retention. It is suitable for tracking targets in certain situations, such as when light is absent at night; shade, cluster, and overlap among targets; and occlusion. The method runs at a rate of 30 frame/s, thereby allowing simultaneous tracking of up to four targets in real time.
Key words
joint tracking; infrared; visible; spatiogram; particle filter
0 引言
目标跟踪是完成视觉监控、人机交互、车辆导航等诸多视频场景分析和理解任务的基础, 已有大量的跟踪方法被报道,可将这些方法大致分成单源跟踪[1-5]和多源跟踪[6-11]两大类。与单源目标跟踪系统相比,多源目标跟踪系统在生存能力、时空覆盖范围、可信度等方面都具有明显的优势,因而被广泛研究,其中最具代表的是红外与可见光的融合跟踪。红外传感器是通过检测目标辐射的热能差异来形成影像,因此在恶劣的光照环境下要比可见光成像更好,但它无法捕获目标对象的颜色和纹理特征。可见光传感器虽然无法感知温度,但在处理多个热目标交汇时,它通常要优于红外传感器,特别当目标对象间有显著的颜色和纹理差异时。因此通过联合它们的数据,能获得比使用单个传感器更好的跟踪性能。文献[6]提出了基于多个空间直方图连乘的红外与可见光目标表示与决策级融合跟踪方法。文献[7]先利用模糊区域动态融合的方式,将红外与可见光图像进行融合,然后在融合图像中提取多个不同特征,并将它们联合来完成红外—可见光目标跟踪。文献[8]提出采用联合稀疏特征表示的方法对红外和可见光目标进行特征级融合跟踪。文献[9]提出了一种基于局部鉴别分析的红外与可见光目标协同跟踪方法。文献[10]提出了先单独采用粒子滤波法跟踪可见光目标,模板匹配法跟踪红外目标,然后将两者的跟踪结果进行联合决策的先跟踪后融合策略。文献[11]提出了基于Kalman滤波和压缩感知的红外与可见光目标时空融合跟踪算法。
以上方法大多是在粒子滤波框架下实现的,其时间复杂度普遍较高。本文拟采用核跟踪策略来实现快速高效的融合跟踪。核跟踪 (KBT)[12]算法由于使用梯度下降的迭代搜索技术,简单快速,已被广泛应用于实时性要求较高的目标跟踪场合。虽然,经过十几年的发展,核跟踪方法已相对成熟,但是,作为一种轻量级、易实现的算法,它仍广受人们的持续关注和研究[13-14]。针对原始KBT方法的空间信息丢失和目标模型更新问题,文献[15]提出了空间直方图 (spatiogram) 概念,文献[16]提出了Kalman滤波的目标模型更新机制。本文利用KBT简单快速、空间直方图能记录目标空间结构信息的优点,提出了一种基于联合空间直方图表示的红外与可见光目标自适应融合跟踪算法。论文的主要贡献有:1) 将核跟踪方法拓展到了多源目标跟踪中;2) 导出了多源目标的联动位移公式;3) 建立了融合权值的自适应调节机制;4) 实现了多源目标模型的协同更新。
1 空间直方图
空间直方图是一种带高阶矩信息的广义直方图。零阶矩对应传统意义上的直方图,而二阶矩直方图则是附加了像素点空间分布的均值和方差信息的直方图,因此能较好地保持目标的空间结构信息[15]。为了行文方便,以下简称二阶矩空间直方图为二阶直方图。
记
$ {p_u}\left( z \right) = C\sum\limits_{i = 1}^n {k\left( {{{\left\| {\frac{{{x_i}-z}}{h}} \right\|}^2}} \right)} {\delta _{iu}} $ | (1) |
$ {\boldsymbol{\mu} _u}\left( z \right) = \frac{1}{{\sum\limits_{j = 1}^n {{\delta _{ju}}} }}\sum\limits_{i = 1}^n {\frac{{{x_i}-z}}{h}} {\delta _{iu}} $ | (2) |
$ {\Sigma _u}\left( z \right) = \frac{{\sum\limits_{i = 1}^n {\left( {\frac{{{x_i}-z}}{h}-{\boldsymbol{\mu} _u}\left( z \right)} \right)} {{\left( {\frac{{{x_i}-z}}{h} - {\boldsymbol{\mu} _u}\left( z \right)} \right)}^{\rm{T}}}{\delta _{iu}}}}{{\sum\limits_{j = 1}^n {{\delta _{ju}} - 1} }} $ | (3) |
式中,
$ k\left( x \right) = \left\{ {\begin{array}{*{20}{l}} {{c^{-1}}_d\left( {d + 2} \right)\left( {1-x} \right)/2}&{x \le 1}\\ 0&{其他} \end{array}} \right. $ | (4) |
式中,
设
$ \mathcal{B}\left[{\mathit{\boldsymbol{h}}\left( z \right), \mathit{\boldsymbol{\tilde h}}} \right] = \sum\limits_{u = 1}^m {{\psi _u}} \left( z \right)\sqrt {{p_u}\left( z \right){q_u}} $ | (5) |
式中,
$ \begin{array}{l} {\psi _u}\left( z \right) = 8{{\rm{ \mathsf{ π} }}^4}\sqrt {|{\Sigma _u}(z){{\tilde \Sigma }_u}|} \\ \mathcal{N}\left( {{{\mathit{\boldsymbol{\tilde \mu }}}_u}\left( z \right);{{\mathit{\boldsymbol{\tilde \mu }}}_u}, {{\hat \Sigma }_u}(z)} \right) \end{array} $ | (6) |
式中,
2 联合空间直方图跟踪算法
2.1 空间直方图的联合
为了表述方便,文中用
$ \mathcal{B}\left[{\mathit{\boldsymbol{I}}\left( z \right), \mathit{\boldsymbol{\tilde I}}} \right] = \sum\limits_{u = 1}^m {{\psi ^I}_u\left( z \right)} \sqrt {{p^I}_u\left( z \right){q^I}_u} $ | (7) |
$ \mathcal{B}\left[{\mathit{\boldsymbol{J}}\left( z \right), \mathit{\boldsymbol{\tilde J}}} \right] = \sum\limits_{u = 1}^m {{\psi ^J}_u\left( z \right)} \sqrt {{p^J}_u\left( z \right){q^J}_u} $ | (8) |
要特别说明的是,在经配准后的可见光图像和红外图像中,同一运动对象的尺寸应该是一致的,因此记它在两图像中的像素点个数均为
同时考虑可见光相似度与红外相似度对目标评判的影响,则可构建联合目标函数为
$ \rho \left( z \right) = \alpha \mathcal{B}\left[{\mathit{\boldsymbol{I}}\left( z \right), \mathit{\boldsymbol{\tilde I}}} \right] + \beta \mathcal{B}[\mathit{\boldsymbol{J}}\left( z \right), \mathit{\boldsymbol{\tilde J}}] $ | (9) |
式中,0≤
2.2 位移公式推导
设目标在前一帧中的位置为
$ \begin{array}{l} \rho \left( z \right) \approx \sum\limits_{u = 1}^m {{w^I}_u\left( {{z_0}} \right)} \left[{{p^I}_u\left( z \right)-{p^I}_u\left( {{z_0}} \right)} \right] + \ldots + \\ \sum\limits_{u = 1}^m {{w^I}_u\left( {{z_0}} \right)} \left[{{\mathit{\boldsymbol{\mu }}^I}_u\left( z \right)-{\mathit{\boldsymbol{\mu }}^I}_u\left( {{z_0}} \right)} \right] + \ldots + \\ \sum\limits_{u = 1}^m {{w^I}_u\left( {{z_0}} \right)} \left[{{p^I}_u\left( z \right)-{p^I}_u\left( {{z_0}} \right)} \right] + \ldots + \\ \sum\limits_{u = 1}^m {{w^I}_u\left( {{z_0}} \right)} \left[{{\mathit{\boldsymbol{\mu }}^J}_u\left( z \right)-{\mathit{\boldsymbol{\mu }}^J}_u\left( {{z_0}} \right)} \right] + \rho ({z_0}) \end{array} $ | (10) |
式中
$ \begin{array}{l} {w^I}_u\left( {{z_0}} \right) = \frac{\alpha }{2}{\psi ^I}_u\left( {{z_0}} \right)\sqrt {\frac{{{q^I}_u}}{{{p^I}_u\left( {{z_0}} \right)}}}, {w^J}_u\left( {{z_0}} \right) = \\ \frac{\beta }{2}{\psi ^J}_u\left( {{z_0}} \right)\sqrt {\frac{{{q^J}_u}}{{{p^J}_u\left( {{z_0}} \right)}}}, \\ {w^I}_u\left( {{z_0}} \right) = \alpha {\psi ^I}_u\left( {{z_0}} \right)\sqrt {{p^I}_u\left( {{z_0}} \right){q^I}_u} \times \\ ({({{\mathit{\hat \Sigma }}^I}u(z0))^{-1}}(\mathit{\boldsymbol{\tilde \mu }}_u^I-\mathit{\boldsymbol{\mu }}_u^I(z0))\\ {w^J}_u\left( {{z_0}} \right) = \beta {\psi ^J}_u\left( {{z_0}} \right)\sqrt {{p^J}_u\left( {{z_0}} \right){q^J}_u} \times \\ ({({{\mathit{\hat \Sigma }}^J}u(z0))^{-1}}(\mathit{\boldsymbol{\tilde \mu }}_u^I - \mathit{\boldsymbol{\mu }}_u^I(z0)) \end{array} $ |
求式 (10) 中
$ \begin{array}{l} \frac{{\partial \rho \left( z \right)}}{{\partial z}} = \sum\limits_{i = 1}^n {{v^I}_i{k^\prime }} \left( {{{\left\| {\frac{{z-{x_i}}}{h}} \right\|}^2}} \right)\left( {z-{x_i}} \right)-\sum\limits_{u = 1}^m {{v^I}_u} + \\ \sum\limits_{i = 1}^n {{v^J}_i{k^\prime }} \left( {{{\left\| {\frac{{z - {y_i}}}{h}} \right\|}^2}} \right)\left( {z - {y_i}} \right) - \sum\limits_{u = 1}^m {{v^I}_u} \end{array} $ | (11) |
式中
$ \left\{ \begin{array}{l} {v^I}_i = \frac{C}{{{h^2}}}\sum\limits_{u = 1}^m {{w^I}_u} \left( {{z_0}} \right){\delta _{iu}}, {v^I}_u = \frac{{{w^I}_u\left( {{z_0}} \right)}}{h}\\ {v^J}_i = \frac{C}{{{h^2}}}\sum\limits_{u = 1}^m {{w^I}_u} \left( {{z_0}} \right){\delta _{iu}}, {v^J}_u = \frac{{{w^J}_u\left( {{z_0}} \right)}}{h} \end{array} \right. $ | (12) |
令
$ {z_1} = \frac{{\left[\begin{array}{l} \sum\limits_{i = 1}^n {\left[{{v^I}_ig\left( {{{\left\| {\frac{{{z_0}-{x_i}}}{h}} \right\|}^2}} \right){x_i} + } \right.} \\ \left. {{v^J}_ig\left( {{{\left\| {\frac{{{z_0}-{y_i}}}{h}} \right\|}^2}} \right){y_i}} \right] -\\ \sum\limits_{u = 1}^m {\left( {{v^I}_u + {v^J}_u} \right)} \end{array} \right]}}{{\left[\begin{array}{l} \sum\limits_{i = 1}^n {\left[{{v^I}_ig\left( {{{\left\| {\frac{{{z_0}-{x_i}}}{h}} \right\|}^2}} \right) + } \right.} \\ \left. {{v^J}_ig\left( {{{\left\| {\frac{{{z_0}-{y_i}}}{h}} \right\|}^2}} \right)} \right] \end{array} \right]}} $ | (13) |
式中,
$ {z_1} = \frac{{\sum\limits_{i = 1}^n {\left( {{v^I}_i{x_i} + {v^J}_i{y_i}} \right)}-\sum\limits_{u = 1}^m {\left( {{v^I}_u + {v^J}_u} \right)} }}{{\sum\limits_{i = 1}^n {({v^I}_i + {v^J}_i)} }} $ | (14) |
2.3 权值的自适应调节
如前所述,权重系数
$ \left\{ \begin{array}{l} \alpha = B[\mathit{\boldsymbol{I}}\left( z \right), \mathit{\boldsymbol{\tilde I}}]/\left\{ {B[\mathit{\boldsymbol{I}}\left( z \right), \mathit{\boldsymbol{\tilde I}}] + B[\mathit{\boldsymbol{J}}\left( z \right), \mathit{\boldsymbol{\tilde J}}]} \right\}\\ \beta = B[\mathit{\boldsymbol{J}}\left( z \right), \mathit{\boldsymbol{\tilde J}}]/\left\{ {B[\mathit{\boldsymbol{I}}\left( z \right), \mathit{\boldsymbol{\tilde I}}] + B[\mathit{\boldsymbol{J}}\left( z \right), \mathit{\boldsymbol{\tilde J}}]} \right\} \end{array} \right. $ | (15) |
3 目标模型的更新
受光照、遮挡等因素的影响,目标表观可能会发生变化,因此必须及时更新其目标模型。在为数不多的研究核跟踪框架下模型更新的文献中,Peng等人[16]提出的基于Kalman滤波的模型更新方法最有效,但Kalman滤波的高斯线性假设并不能很好地表述运动目标表观变化的高度随机性。因此,在借鉴其滤波器更新思想的基础上,本文拟采用粒子滤波方式对空间直方图模型进行在线更新。
3.1 更新模型的建立
称在当前帧
$ \begin{array}{l} 状态方程:\tilde h_u^t = \tilde h_u^{t-1} + \omega _u^{t-1}\\ 观测方程:h_u^t = \tilde h_u^t + v_u^t \end{array} $ | (16) |
式中,
在滤波的过程中,粒子的重要性是通过该粒子对应的观测与当前模型之间的欧氏距离来度量,即
3.2 更新准则
为了避免模型过更新,通过计算第
$ \begin{array}{c} \mathcal{B}\left[{{\mathit{\boldsymbol{h}}^t}, {{\mathit{\boldsymbol{\tilde h}}}^{t-1}}} \right] = \\ \sum\limits_{u = 1}^m {{\psi ^t}_u} \left( {{\mathit{\boldsymbol{\mu }}^t}_u, {\mathit{\Sigma }^t}_u, \mathit{\boldsymbol{\tilde \mu }}_u^{t -1}, \mathit{\tilde \Sigma }_u^{t -1}} \right)\sqrt {{p^t}_u\tilde q_u^{t -1}} \end{array} $ | (17) |
如果
$ {{\mathit{\boldsymbol{\tilde h}}}^t} = \left\{ {\begin{array}{*{20}{l}} {{{\mathit{\boldsymbol{\tilde h}}}^{t - 1}}} & {\mathcal{B}\left[ {{\mathit{\boldsymbol{h}}^t},{{\mathit{\boldsymbol{\tilde h}}}^{t - 1}}} \right] < \gamma }\\ {{{\mathit{\boldsymbol{\hat h}}}^t}} & {\mathcal{B}\left[ {{\mathit{\boldsymbol{h}}^t},{{\mathit{\boldsymbol{\tilde h}}}^{t - 1}}} \right] \ge \gamma } \end{array}} \right. $ | (18) |
式中,
算法1 基于粒子滤波的目标模型更新算法
输入:
1) for
2) 粒子采样:根据状态转移方程生成采样粒子
3) 权值计算:根据观测方程得到每个粒子的观测,由此计算重要性权值
4) 重采样:计算
5) 状态估计:
6) end for
输出:
算法1给出了第
算法2 总结了基于联合空间直方图的跟踪 (JST) 流程。容易看出,当将空间相似度全部设为1时,JST就退化为使用普通直方图的联合跟踪算法,叫其基于联合直方图的跟踪 (JHT)。
算法2 基于联合空间直方图的跟踪算法
输入:初始的目标位置
1) for
2) 根据式 (1)—式 (3) 计算当前位置候选目标的
3) 根据式 (12) 计算权值
4) 根据式 (14) 找到新的候选目标位置
5) 根据式 (1)—式 (3) 计算
6) while
7) 将
8) end while
9) 如果
10) 计算
11) 如果
12) 如果
13) end for
3.3 复杂度分析
算法2主要涉及式 (1)—式 (3) 的空间直方图计算、式 (5)(6) 的相似度计算以及式 (14) 的中心位置计算,而权值调整和模型更新部分的计算量相对较小。设式 (1)(2)(3) 的平均计算量分别为
如果采用粒子滤波的方法实现目标搜索,则虽不需要计算位移公式,但需要进行2
4 实验与分析
4.1 定量比较
定量比较中使用6个评价指标,即位置误差
表 1
各跟踪方法的定量测试结果
Table 1
Quantitative comparison of all trackers
视频video | JST (本文算法) | L1TIR算法 | LITVS算法 | FRD算法 | JHT算法 | |||||||||||||||||||
1 | 3.914 | 0.74 | 0.981 | 0.008 | 2.175 | 0.746 | 0.996 | 0.363 | 25.12 | 0.233 | 0.315 | 0.176 | 9.356 | 0.538 | 0.722 | 0.566 | 4.958 | 0.709 | 0.989 | 0.001 | ||||
2 | 2.391 | 0.768 | 0.995 | 0.003 | 2.381 | 0.752 | 0.995 | 0.319 | 58.10 | 0.033 | 0.037 | 0.404 | 2.028 | 0.786 | 1.000 | 0.519 | 2.010 | 0.779 | 0.986 | 0.001 | ||||
3 | 5.352 | 0.763 | 0.993 | 0.008 | 59.95 | 0.320 | 0.403 | 0.597 | 8.510 | 0.676 | 0.903 | 0.424 | 26.24 | 0.279 | 0.360 | 0.799 | 27.30 | 0.480 | 0.727 | 0.002 | ||||
4 | 15.00 | 0.537 | 0.713 | 0.007 | 37.63 | 0.514 | 0.573 | 0.174 | 33.10 | 0.493 | 0.58 | 0.169 | 5.294 | 0.666 | 0.727 | 0.377 | 26.01 | 0.519 | 0.580 | 0.001 | ||||
平均 | 6.664 | 0.702 | 0.921 | 0.009 | 25.53 | 0.583 | 0.742 | 0.363 | 31.21 | 0.359 | 0.459 | 0.293 | 10.73 | 0.567 | 0.702 | 0.565 | 15.07 | 0.622 | 0.821 | 0.001 | ||||
注:黑色表示性能最佳数值。 |
4.2 定性分析
1) 夜间跟踪。实验1通过跟踪video1序列对来测试JST在夜晚跟踪目标的性能,此序列中,可见光目标被淹没在夜幕中。该序列对有红外、可见光图像各270帧,帧大小为320×240像素,其跟踪结果如图 3所示,其中,第1行为可见光序列,第2行为红外序列,下同。图 1(a)和图 2(a)分别展示了各算法在该序列对上的逐帧位置误差和重叠率。可以看到JST、FRD、JHT这些融合跟踪方法自始至终都能较好地跟踪到运动目标,而L1T跟踪器对红外目标跟踪比较稳定,但是对可见光目标跟踪却非常糟糕,因为在夜间,可见光目标基本掩埋在黑暗中,而热红外传感不受光照影响。这也充分说明,通过红外与可见光的联合,可以弥补可见光在夜间成像的不足,从而拓展跟踪器的时间生存空间。
2) 背景阴影。实验2通过跟踪video2序列对来测试当目标所处背景出现阴影时JST的性能,此序列中,可见光目标的整体颜色与背景阴影非常相近。该序列对有红外、可见光图像各216帧,帧大小为320×240像素。图 4、图 1(b)和图 2(b)分别展示了各算法在该序列对上的部分跟踪结果、逐帧位置误差和重叠率。可以看到目标颜色与背景阴影相近的情况和目标处于夜间的情况比较类似,本质上都是目标与背景间的对比度不高,但两种情况对热红外成像来说没有影响。因此,与video1相似,JST、FRD、JHT这些融合跟踪方法自始至终都能较好地跟踪到运动目标,而L1T跟踪器对红外目标跟踪比较稳定,但是对可见光目标跟踪却非常糟糕。
3) 目标交汇与拥簇。实验3通过跟踪video3序列对来测试当背景拥簇时JST的性能,此序列中出现了多个热目标的交汇拥簇。该序列对有红外、可见光图像各300帧,帧大小为640×480像素。图 5、图 1(c)和图 2(c)分别展示了各算法在该序列对上的部分跟踪结果、逐帧位置误差和重叠率。可以看出JST自始至终都成功地跟踪到了目标对象,这主要是因为该方法将多模融合、目标空间结构保持和表观更新进行了有机整合。与JST相比,JHT的直方图模型中没有保留目标的空间结构信息,因此当出现热目标交互时 (大约在第220帧) 就会被相似的图像区域吸引过去了。FRD方法采用先融合后检测的跟踪策略,由于本视频中出现了多个位置相近的目标,且这些目标在红外成像上外观极为相似,因此FRD检测到其他相似目标的概率就会大大增加。值得注意的是,在该实验中,L1T能很好地跟踪到可见光目标,却跟丢了红外目标,这主要是因为在可见光模式下,真实目标与其左边的同伴在颜色纹理上反差较大,而在红外模式下,两人区分度极低。当然,从第270帧开始,可见光目标也跟丢了,因为此时目标进入了一个拥簇的背景环境中。
4) 目标遮挡。实验4通过跟踪video4序列对来测试JST在处理目标遮挡时的性能,此序列中,目标对象被多次部分或完全遮挡。该序列对有红外、可见光图像各150帧,帧大小为288×240像素。图 6、图 1(d)和图 2(d)分别展示了各算法在该序列对上的部分跟踪结果、逐帧位置误差和重叠率。不难发现,在第80帧以前,所有跟踪方法都比较稳定的跟踪到了男子头部,但之后男子头部被树叶全部遮挡,导致所有跟踪器都失效了,这主要是因为这些跟踪器都缺乏遮挡处理机制。从红外图像中可以清晰的看到,再之后 (大约是130140帧之间) 男子头部又短暂地重现视场中,FRD方法又跟踪到了目标,这是因为该方法是通过全图搜索来锁定目标的,因此只要目标再次出现,它就能检测到。由于缺乏遮挡处理机制,因此本文方法目前还是无法处理目标遮挡情况。
5 结论
论文以空间直方图为目标表示模型,并通过红外目标相似度和可见光目标相似度的加权联合,实现了核框架下的多源目标特征级融合跟踪。算法在目标空间结构保持、模型更新、权值自适应调节和实时性方面实现了有机统一,是将传统单核跟踪向多核融合跟踪的有效拓展。通过对多组红外与可见光序列对的测试结果表明,本文所设计的跟踪器除了能跟踪良好环境下的运动目标之外,在处理夜间环境、背景阴影以及背景拥簇方面也展现出了较好的性能。目前,本文跟踪器处理目标遮挡的能力较弱,因此下一步我们将深入研究这个问题。
参考文献
-
[1] Huang H T, Bi D Y, Zha Y F, et al. Sparse coding visual tracking based on the cartesian product of codebook[J]. Journal of Electronics & Information Technology, 2015, 37(3): 516–521. [黄宏图, 毕笃彦, 查宇飞, 等. 基于笛卡尔乘积字典的稀疏编码跟踪算法[J]. 电子与信息学报, 2015, 37(3): 516–521. ] [DOI:10.11999/JEIT140931]
-
[2] Wu G X, Lu W J, Gao G W, et al. Regional deep learning model for visual tracking[J]. Neurocomputing, 2016, 175: 310–323. [DOI:10.1016/j.neucom.2015.10.064]
-
[3] Zhang C L, Tang Y P, Li Z X, et al. Dual-kernel tracking approach based on second-order spatiogram[J]. Journal of Electronics & Information Technology, 2015, 37(7): 1660–1666. [张灿龙, 唐艳平, 李志欣, 等. 基于二阶空间直方图的双核跟踪[J]. 电子与信息学报, 2015, 37(7): 1660–1666. ] [DOI:10.11999/JEIT141321]
-
[4] Zhang S L, Sui Y, Yu X, et al. Hybrid support vector machines for robust object tracking[J]. Pattern Recognition, 2015, 48(8): 2474–2488. [DOI:10.1016/j.patcog.2015.02.008]
-
[5] Mei X, Ling H B. Robust visual tracking using 1 minimization[C]//Proceedings of the 12th International Conference on Computer Vision. Kyoto, Japan:IEEE, 2009:1436-1443.[DOI:10.1109/ICCV.2009.5459292]
-
[6] Conaire C Ó, O'Connor N E, Smeaton A. Thermo-visual feature fusion for object tracking using multiple spatiogram trackers[J]. Machine Vision and Applications, 2008, 19(5-6): 483–494. [DOI:10.1007/s00138-007-0078-y]
-
[7] Xiao G, Yun X, Wu J M. A multi-cue mean-shift target tracking approach based on fuzzified region dynamic image fusion[J]. Science China Information Sciences, 2012, 55(3): 577–589. [DOI:10.1007/s11432-012-4553-3]
-
[8] Liu H P, Sun F C. Fusion tracking in color and infrared images using joint sparse representation[J]. Science China Information Sciences, 2012, 55(3): 590–599. [DOI:10.1007/s11432-011-4536-9]
-
[9] Wang J T, Chen D B, Li S W, et al. Infrared and visible fusion for robust object tracking via local discrimination analysis[J]. Journal of Computer-Aided Design & Computer Graphics, 2014, 26(6): 870–878. [王江涛, 陈得宝, 李素文, 等. 局部鉴别分析驱动的红外与可见光图像协同目标跟踪[J]. 计算机辅助设计与图形学学报, 2014, 26(6): 870–878. ]
-
[10] Xiao G, Yun X, Wu J M. A new tracking approach for visible and infrared sequences based on tracking-before-fusion[J]. International Journal of Dynamics and Control, 2016, 4(1): 40–51. [DOI:10.1007/s40435-014-0115-4]
-
[11] Yun X, Jing Z L, Xiao G, et al. A compressive tracking based on time-space Kalman fusion model[J]. Science China Information Sciences, 2016, 59(1): 1–15. [DOI:10.1007/s11432-015-5356-0]
-
[12] Comaniciu D, Ramesh V, Meer P. Kernel-based object tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(5): 564–577. [DOI:10.1109/TPAMI.2003.1195991]
-
[13] Leichter I. Mean shift trackers with cross-bin metrics[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(4): 695–706. [DOI:10.1109/TPAMI.2011.167]
-
[14] Vojir T, Noskova J, Matas J. Robust scale-adaptive mean-shift for tracking[J]. Pattern Recognition Letters, 2014, 49: 250–258. [DOI:10.1016/j.patrec.2014.03.025]
-
[15] Birchfield S T, Rangarajan S. Spatiograms versus histograms for region-based tracking[C]//Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. SanDiego, California, USA:IEEE, 2005:1158-1163.[DOI:10.1109/CVPR.2005.330]
-
[16] Peng N S, Yang J, Liu E Q. Model update mechanism for mean-shift tracking[J]. Journal of Systems Engineering and Electronics, 2005, 16(1): 52–57.
-
[17] Conaire C O, O'Connor N E, Smeaton A F. An improved spatiogram similarity measure for robust object localisation[C]//Proceedings of 2007 International Conference on Acoustics, Speech and Signal Processing. Honolulu, HI, USA:IEEE, 2007:1069-1072.[DOI:10.1109/ICASSP.2007.366096]