Print

发布时间: 2018-06-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.170507
2018 | Volume 23 | Number 6




    图像分析和识别    




  <<上一篇 




  下一篇>> 





多特征融合与交替方向乘子法的行人再识别
expand article info 齐美彬, 王慈淳, 蒋建国, 李佶
合肥工业大学计算机与信息学院, 合肥 230009

摘要

目的 由于行人图像分辨率差异、光照差异、行人姿态差异以及摄像机视角和成像质量差异等原因,导致同一行人在不同监控视频中的外观区别很大,给行人再识别带来了巨大挑战。为提高行人再识别的准确率,针对以上问题,提出一种基于多特征融合与交替方向乘子法的行人再识别算法。方法 首先利用图像增强算法对所有行人图像进行处理,减少因光照变化产生的影响,然后把处理后的图像进行非均匀分割,同时使用特定区域均值法提取行人图像的HSV和LAB颜色特征以及SILTP(scale invariant local ternary pattern)纹理特征和HOG(histogram of oriented gradient)特征,融合多种特征得到行人图像对的整体与局部相似度度量函数并结合产生相似度函数,最后使用交替方向乘子优化算法更新出最优的测度矩阵实现行人再识别。结果 在VIPeR、CUHK01、CUHK03和GRID这4个数据集上进行实验,其中VIPeR、CUHK01和GRID 3个数据集Rank1(排名第1的搜索结果即为待查询人的比率)分别达到51.5%、48.7%和21.4%,CUHK03手动裁剪和检测器检测数据集Rank1分别达到62.40%和55.05%,识别率有了显著提高,具有实际应用价值。结论 提出的多特征融合与交替方向乘子优化算法,能够很好地描述行人特征,迭代更新出来的测度矩阵能够很好地表达行人之间的距离信息,较大幅度地提高了识别率。该方法适用于大多数应用场景下的行人再识别。尤其是针对复杂场景下静态图像行人再识别问题,在存在局部遮挡、光照差异和姿态差异的情况下也能保持较高的识别正确率。

关键词

行人再识别; 多特征融合; 非均匀分割; 特定区域均值法; HOG特征; 交替方向乘子法

Person re-identification based on multi-feature fusion and alternating direction method of multipliers
expand article info Qi Meibin, Wang Cichun, Jiang Jianguo, Li Ji
School of Computer and Information, Hefei University of Technology, Hefei 230009, China
Supported by: National Natural Science Foundation of China(61771180); Key Research and Development Project of Anhui Province, China (1704d0802183)

Abstract

Objective Person re-identification is an extremely challenging problem and has practical application value. It plays an important role in video surveillance systems because it can reduce human efforts in searching for a target from a large number of videos. This topic has gained increasing interest in computer vision. Nowadays, person re-identification algorithms have been applied in criminal investigation, where the interference of passers-by can be eliminated to help the police find final suspects. However, differences in color, illumination, posture, imaging quality, as well as low-resolution of the captured frames cause large appearance variance across multiple cameras; thus, person re-identification remains a significant problem. An algorithm for person re-identification, which is based on multi-feature fusion and alternating direction method of multipliers, is proposed to improve the accuracy of person re-identification. Method First, the original images are processed by the image enhancement algorithm to reduce the impact of illumination changes. This enhancement algorithm is committed to provide an image that is close to human visual characteristics. Then, the method of non-uniform segmentation that processes images is used. The method uses a sub-window size of 10-by-10 pixels with 5-pixel overlapping steps to obtain the local information of the pedestrian image. Meanwhile, the method uses the specific region mean method to divide the pedestrian image into five blocks. Specifically, depending on the difference of the expression ability of the legs and torso, these parts are divided into three blocks and two blocks, respectively. Then, the second and third blocks take the maximum operation, whereas the other blocks perform the mean operation because the second and third blocks are less affected by ambient noise compared with the other blocks. We also extract the HSV and LAB color features of the processed images, a texture feature of scale-invariant local ternary pattern and a shape feature of histogram of oriented gradient. The existing pedestrian re-identification algorithms generally consider the matching between local regions to eliminate the gap information between blocks. The combination of the global and local methods can effectively solve this problem. The proposed algorithm uses the multi-feature fusion method to combine the global and local information, which combines the global and local similarity measurement function of the related person, to obtain the final similarity function. Finally, the optimal distance measurement matrix is updated by the alternating direction method of multipliers, and the final similarities between each pair are obtained to conduct the re-identification. Result The proposed method is demonstrated on four public benchmark datasets including VIPeR, CUHK01, CUHK03, and GRID. Each dataset has its own characteristics. The proposed method achieves a 51.5% rank 1 (represents the accurately matched pair) on VIPeR benchmark and 48.7% and 21.4% on CUHK01 and GRID benchmarks, respectively. Rank 5 (represents the expectation of the matches at rank 5) is more than 80% on the VIPeR datasets and more than 70% on the CUHK01 datasets. The proposed method achieved 62.40% and 55.05% rank 1 identification rates with the labeled bounding boxes and automatically detected bounding boxes, respectively, thereby indicating that the method outperforms that of local maximal occurrence with an improvement of 10.2% for the labeled setting and 8.8% for the detected setting. The proposed method significantly improves the recognition rate and has a practical application value. Conclusion The experimental results show that the proposed method can express the image information of pedestrians effectively. Furthermore, the effectiveness of our algorithm stems from the non-uniform segmentation and the specific mean method, which reduces the influence of ambient noise, increases robustness to occlusion, and is more flexible in handling pose variation. The updated distance measure matrix can express the information of the distance between pedestrians and improve the recognition rate effectively. This method is applicable to person re-identification in most scenarios, especially for static image-based person re-identification in complex scenes. This method can maintain high recognition accuracy even in the presence of local occlusion, illumination difference, and pose or viewpoint difference.

Key words

person re-identification; multi-feature fusion; non-uniform segmentation; HOG feature; specific region mean method; alternating direction method of multipliers

0 引言

行人再识别是指在无重叠视域多摄像机监控系统中,辨别两个不同视域摄像机捕捉到的两个行人是否为同一个人,可以在大型视频监控网络中自动跟踪、检索犯罪嫌疑人等目标,对提高视频监控系统的智能性,提高办案效率具有重要意义。但是由于监控视频中的目标图像分辨率差异、场景光照差异、行人姿态差异以及摄像机视角和成像质量差异等问题,导致同一个行人在不同监控视频中有很大的外观区别,给行人再识别问题带来了巨大的挑战。目前的行人再识别算法主要分为基于深度学习的方法[1-3]和传统法[4-8]

深度学习近年来在计算机视觉领域得到了广泛应用,因此不少学者将深度学习引进行人再识别领域研究并取得了突破性的成果。最早在行人再识别方向使用深度学习方法的是文献[1-2]。常用的CNN(卷积神经网络)模型有两种,第1种是分类模型,第2种是使用图像对[2]或图像三元组[3]作为输入的模型。在基于深度学习的行人再识别算法中主要瓶颈还是缺乏训练数据,所以相比而言传统法在小数据集上效果更好,深度学习法在大数据集上识别率则更高。

传统行人再识别研究主要包括行人的特征表达和距离测度学习两个方面。具体来说就是:1)提取鲁棒性的特征表达来解决行人的外观变化的问题;2)设计具有高辨识能力的距离测度来衡量行人图像之间的相似性。文献[4]提出一种保持简单有效原则下的距离测度学习算法(KISSME)。文献[5]采用一种多方向显著性权值学习的方法来度量一对行人图像的相似度。文献[6]把低维线性不可分的特征空间投影到高维可分的非线性空间中,提出了一种核学习的方法。文献[7]在基于文献[6]的基础上提出了一种多特征融合与独立测度学习的行人再识别算法,该算法首先通过Retinex图像增强算法[8]对原始图像进行处理;然后按照行人图像的结构对图像进行非均匀分割,同时提取4种颜色特征和SILTP纹理特征;最后在基于独立的距离测度学习方法下,将行人相似度加权融合,实现相关行人的匹配。文献[9]首次在行人再识别领域使用ADMM(alternating direction method of multipliers)算法。该算法在学习测度矩阵的方法上优于其他算法,但是由于提取特征的局限性导致识别率不是很高。Liao等人[10]提出局部最大发生(LOMO)特征,通过滑动窗口提取局部HSV、LAB和SILTP特征,并进行多尺度(Multi-scale)处理,因此该特征具有良好的视角和尺度鲁棒性。提取LOMO特征后Liao等人在KISSME的基础上,提出了一种子空间学习和距离度量学习相结合的算法(XQDA)。但文献[10]的特征提取方法丢弃了行人相对稳定的几何结构,在训练样本少时出现的过拟合问题同样没有得到解决。

针对行人图像因分辨率差异、场景光照变化、行人姿态变化及视角变化等原因导致的外观差异,在基于文献[10]思想的基础上,提出了一种基于多特征融合与交替方向乘子法的行人再识别算法。该算法首先针对丢弃行人的几何结构问题,在特征提取中改进了LOMO特征并融入了HOG特征;然后对提取的特征使用L2范数归一化,避免在训练样本少的时候出现的过拟合问题;最后在测度学习的方法下使用交替方向乘子优化算法更新出最优的距离测度矩阵,实现相关行人的匹配。

1 多特征融合与交替方向乘子优化算法

1.1 行人图像的特征表示

当前行人再识别算法通常采用多种颜色特征和纹理特征作为行人特征描述,本文在LOMO特征的基础上,改进了LOMO特征并增加了可以描述行人结构的HOG特征,将HSV和LAB颜色特征以及SILTP纹理特征和HOG特征相融合作为行人图像的特征描述。

1.1.1 行人图像的预处理与分割

颜色是描述行人图像不可缺少的特征,但是由于光照变化,摄像机参数不同等原因,会导致同一个行人外观在不同视域下有很大的差异。因此引入图像增强算法,对行人图像进行预处理。该算法巧妙的模仿了人类视觉系统,致力于使图像更接近于现实中人眼所看到的样子。由于光照变化各数据集中行人图像的颜色会有很大差异,这样就给行人匹配带来了困难。利用图像增强算法增强后的图像细节更加突出,颜色信息则更加接近,则提取出来的特征具有更好的鲁棒性。

由于受到视角变化、行人姿态变化及遮挡等因素影响,提取的特征通常不能达到行人再识别的要求。为应对这种挑战,对行人图像采用非均匀分割的方法来分块。根据行人躯干和腿部表达信息能力的差异,将图像进行分割。在每个小块里使用滑动窗口来描述人物图像的细节。具体来说,使用10×10像素的子窗口大小,重叠步长为5像素,来获取行人图像中的局部信息。实验结果表明,这种分块方法在一定程度上减少了行人图像因视角变化、行人姿态变化及遮挡等因素产生的影响,且根据行人腿部和躯干表达信息能力的不同,将躯干部分和腿部分别划分为3块和2块。

1.1.2 行人图像的特征描述

颜色特征是在计算机视觉中应用最为广泛的视觉特征,主要原因在于颜色对于图像有很好的区分度。此外,与其他的视觉特征相比,颜色特征对图像本身的方向、尺寸、视角的依赖性较小,提取方法也非常成熟,从而具有较高的鲁棒性。颜色空间有很多种,其中包含最为常见的基色颜色空间(RGB)和色度、亮度分离的颜色空间(HSV、LAB和YCbCr)。测试表明提取的颜色特征类别越多识别率并不是越高,反而增加了算法的复杂度。选取最有代表性的HSV和LAB颜色特征来进行实验。HSV颜色空间对光照变化不敏感,能够很直观的表达物体色彩的明暗及色调,方便进行颜色之间的对比;LAB颜色空间包括所有人眼可以看见的色彩模式,它的表示范围比其他颜色空间更广泛且描述方式与光线及设备无关。

为了更好地利用行人目标的局部信息,采用尺度不变三值模式来提取行人目标的纹理信息。SILTP[7]是一种改进的LBP描述算子。它对区域范围噪声有很好的抗干扰能力,特别是当检测区域被阴影覆盖或者很暗时。同时,SILTP算子具有尺度不变性,这使得它对亮度变化具有很强的适应能力。在文献[7]中有详细的SILTP特征提取过程。

考虑到行人具有相对稳定的几何结构。行人图像的局部特征能够被梯度或边缘的方向密度分布很好的描述,因此引入在行人检测中运用非常广泛的HOG特征来描述行人图像的信息。HOG特征有很多优点:首先,由于HOG特征提取是在图像的局部单元上操作,所以它有很好的几何不变性和光学不变性;其次,在局部光学归一化条件下,只要行人站立的姿势能够大体上保持,可以允许行人有肢体动作的变化,这些细微的动作可以不影响行人再识别效果。因此HOG特征很适用于行人再识别。如图 1所示是HOG特征的提取步骤。

图 1 HOG特征提取步骤
Fig. 1 The step of HOG feature extraction

按照图 2提出的图像划分标准,设置矩形块的大小为10×10像素步长为5像素,对图像作非均匀分割。可将128×48像素的图片划分为24×8个小块,还进行了多尺度处理,对图片缩放两次,得到64×24像素、32×1像素2的图片。图 2中将行人图像分成5,可以看出第2块和第3块相比于其他分块受到环境噪声影响较小,故对第2块和第3块的特征取最大值操作,而对其他分块取均值操作。

图 2 行人图像的非均匀分割及特征提取(以HSV颜色特征提取为例)
Fig. 2 Non-uniform segmentation and feature extraction of image(use HSV color feature extraction as an example) ((a)original image and its division; (b)image patches; (c)HSV color histogram; (d)histogram after processing)

每个小块提取8×8×8 bin的HSV和LAB颜色直方图,故对每幅行人图像可以提取512×(24+11+5)维的HSV和LAB颜色特征。对每个小块提取阈值为0.3,8邻域半径为1和16邻域半径为两种模式下的SILTP特征,每种模式下的维度为81维,故对每幅行人图像可以提取162×(24+11+5)维的SILTP特征。每张图片经过灰度处理后,对每个小块里的各个像素点提取梯度,将梯度分为8个尺度提取每个小块的梯度直方图,故可以提取8×(24+11+5)维HOG特征。由于特征维度较高且存在较多的冗余信息导致实验运行时间过长,因此使用PCA(principle component analysis)算法将特征维度降到特定维度。

1.2 相似度度量函数

虽然文献[10]中提出的XQDA测度在实验效果上明显优于KISSME测度,但KISSME测度的思想可以应用于ADMM算法迭代出更好的结果,所以实验选择了KISSME测度的方法。

行人再识别是对不同摄像机下出现的行人目标进行关联,其目的是匹配相同行人目标、区分不同的行人目标。文献[4]从统计学角度考虑,提出一种KISSME算法,对于给定的一对有序行人图像对$\left( {i, j} \right)$, 其特征表示为$\left( {{\mathit{\boldsymbol{x}}_i}, {\mathit{\boldsymbol{x}}_j}} \right)$, 则这对行人图像相似度可以表示为

$ \delta \left( {{\mathit{\boldsymbol{x}}_i},{\mathit{\boldsymbol{x}}_j}} \right) = \ln \frac{{{P_{\rm{S}}}\left( {{\mathit{\boldsymbol{x}}_i},{\mathit{\boldsymbol{x}}_j}} \right)}}{{{P_{\rm{D}}}\left( {{\mathit{\boldsymbol{x}}_i},{\mathit{\boldsymbol{x}}_j}} \right)}} $ (1)

式中,${P_{\rm{S}}}\left( {{\mathit{\boldsymbol{x}}_i}, {\mathit{\boldsymbol{x}}_j}} \right)$表示$\left( {i, j} \right)$属于相关行人对的概率,${P_{\rm{D}}}\left( {{\mathit{\boldsymbol{x}}_i}, {\mathit{\boldsymbol{x}}_j}} \right)$表示$\left( {i, j} \right)$属于不相关行人对的概率,如果$\left( {i, j} \right)$属于相关行人对的概率越大,即${P_{\rm{S}}}\left( {{\mathit{\boldsymbol{x}}_i}, {\mathit{\boldsymbol{x}}_j}} \right)$越大,${P_{\rm{D}}}\left( {{\mathit{\boldsymbol{x}}_i}, {\mathit{\boldsymbol{x}}_j}} \right)$越小,$\delta \left( {{\mathit{\boldsymbol{x}}_i}, {\mathit{\boldsymbol{x}}_j}} \right)$则越大,反之亦然。

根据文献[7],相关行人对和不相关行人对在特征空间中服从均值为0,协方差矩阵为${\mathit{\boldsymbol{ \boldsymbol{\varSigma} }}_{\rm{S}}}$${\mathit{\boldsymbol{ \boldsymbol{\varSigma} }}_{\rm{D}}}$的多维正态分布, 则相似度函数可表示为

$ \delta \left( {{\mathit{\boldsymbol{x}}_i},{\mathit{\boldsymbol{x}}_j}} \right) = {\left( {{\mathit{\boldsymbol{x}}_i} - {\mathit{\boldsymbol{x}}_j}} \right)^{\rm{T}}}\left( {\mathit{\boldsymbol{ \boldsymbol{\varSigma} }}_D^{ - 1} - \mathit{\boldsymbol{ \boldsymbol{\varSigma} }}_S^{ - 1}} \right)\left( {{\mathit{\boldsymbol{x}}_i} - {\mathit{\boldsymbol{x}}_j}} \right) $ (2)

$ {\mathit{\boldsymbol{ \boldsymbol{\varSigma} }}_{\rm{S}}} = \frac{1}{{{N_{\rm{S}}}}}\sum\limits_{\left( {i,j} \right) \in \mathit{\boldsymbol{S}}} {\left( {{\mathit{\boldsymbol{x}}_i} - {\mathit{\boldsymbol{x}}_j}} \right){{\left( {{\mathit{\boldsymbol{x}}_i} - {\mathit{\boldsymbol{x}}_j}} \right)}^{\rm{T}}}} $ (3)

$ {\mathit{\boldsymbol{ \boldsymbol{\varSigma} }}_{\rm{D}}} = \frac{1}{{{N_{\rm{D}}}}}\sum\limits_{\left( {i,j} \right) \in \mathit{\boldsymbol{D}}} {\left( {{\mathit{\boldsymbol{x}}_i} - {\mathit{\boldsymbol{x}}_j}} \right){{\left( {{\mathit{\boldsymbol{x}}_i} - {\mathit{\boldsymbol{x}}_j}} \right)}^{\rm{T}}}} $ (4)

$\mathit{\boldsymbol{M}}{\rm{ = }}\mathit{\boldsymbol{ \boldsymbol{\varSigma} }}_{\rm{D}}^{ - 1} - \mathit{\boldsymbol{ \boldsymbol{\varSigma} }}_{\rm{S}}^{ - 1}$,则$\mathit{\boldsymbol{M}}$即为所求的测度矩阵。

$\mathit{\boldsymbol{S}}$表示相关行人对特征空间,$\mathit{\boldsymbol{D}}$表示不相关行人对特征空间。

由于训练样本有限时出现的过拟合问题,使用L2范数将提取的特征向量归一化,$\left({{\mathit{\boldsymbol{l}}_i}, {\mathit{\boldsymbol{l}}_j}} \right)$表示归一化过后的行人图像特征,则可将式(2)转换为

$ \begin{array}{*{20}{c}} {\delta \left( {{\mathit{\boldsymbol{l}}_i},{\mathit{\boldsymbol{l}}_j}} \right) = {{\left( {{\mathit{\boldsymbol{l}}_i} - {\mathit{\boldsymbol{l}}_j}} \right)}^{\rm{T}}}\mathit{\boldsymbol{ \boldsymbol{\varSigma} }}_{{\rm{RD}}}^{ - 1}\left( {{\mathit{\boldsymbol{l}}_i} - {\mathit{\boldsymbol{l}}_j}} \right) - }\\ {{{\left( {{\mathit{\boldsymbol{l}}_i} - {\mathit{\boldsymbol{l}}_j}} \right)}^{\rm{T}}}\mathit{\boldsymbol{ \boldsymbol{\varSigma} }}_{{\rm{RS}}}^{ - 1}\left( {{\mathit{\boldsymbol{l}}_i} - {\mathit{\boldsymbol{l}}_j}} \right) = }\\ {{{\left( {{\mathit{\boldsymbol{l}}_i} - {\mathit{\boldsymbol{l}}_j}} \right)}^{\rm{T}}}\mathit{\boldsymbol{M}}\left( {{\mathit{\boldsymbol{l}}_i} - {\mathit{\boldsymbol{l}}_j}} \right)} \end{array} $ (5)

$ {\mathit{\boldsymbol{ \boldsymbol{\varSigma} }}_{{\rm{RS}}}} = \frac{1}{{{N_{\rm{S}}}}}\sum\limits_{\left( {i,j} \right) \in \mathit{\boldsymbol{S}}} {\left( {{\mathit{\boldsymbol{l}}_i} - {\mathit{\boldsymbol{l}}_j}} \right){{\left( {{\mathit{\boldsymbol{l}}_i} - {\mathit{\boldsymbol{l}}_j}} \right)}^{\rm{T}}}} $ (6)

$ {\mathit{\boldsymbol{ \boldsymbol{\varSigma} }}_{{\rm{RD}}}} = \frac{1}{{{N_{\rm{D}}}}}\sum\limits_{\left( {i,j} \right) \in \mathit{\boldsymbol{D}}} {\left( {{\mathit{\boldsymbol{l}}_i} - {\mathit{\boldsymbol{l}}_j}} \right){{\left( {{\mathit{\boldsymbol{l}}_i} - {\mathit{\boldsymbol{l}}_j}} \right)}^{\rm{T}}}} $ (7)

现有的行人再识别一般只考虑局部区域之间的匹配,那么在块与块交接处的信息必然会丢失,从而导致行人信息的丢失。采用整体和局部相结合方法得到最终的相似度函数很好的解决了这一问题。按照图 1提出的图像划分方法,得到局部和全局相似度函数分别为

$ {\delta ^{{\rm{local}}}}\left( {{\mathit{\boldsymbol{l}}_i},{\mathit{\boldsymbol{l}}_j}} \right) = \sum\limits_{r = 1}^R {{\delta ^r}\left( {{\mathit{\boldsymbol{l}}_i},{\mathit{\boldsymbol{l}}_j}} \right)} $ (8)

$ {\delta ^r}\left( {{\mathit{\boldsymbol{l}}_i},{\mathit{\boldsymbol{l}}_j}} \right) = \sum\limits_{c = 1}^C {{{\left( {\mathit{\boldsymbol{l}}_i^{c,r} - \mathit{\boldsymbol{l}}_j^{c,r}} \right)}^{\rm{T}}}{\mathit{\boldsymbol{M}}^{c,r}}\left( {\mathit{\boldsymbol{l}}_i^{c,r} - \mathit{\boldsymbol{l}}_j^{c,r}} \right)} $ (9)

$ \begin{array}{*{20}{c}} {{\delta ^{{\rm{global}}}}\left( {{\mathit{\boldsymbol{l}}_i},{\mathit{\boldsymbol{l}}_j}} \right) = }\\ {\sum\limits_{c = 1}^C {{{\left( {\mathit{\boldsymbol{l}}_i^{c,{\rm{G}}} - \mathit{\boldsymbol{l}}_j^{c,{\rm{G}}}} \right)}^{\rm{T}}}{\mathit{\boldsymbol{M}}^{c,{\rm{G}}}}\left( {\mathit{\boldsymbol{l}}_i^{c,{\rm{G}}} - \mathit{\boldsymbol{l}}_j^{c,{\rm{G}}}} \right)} } \end{array} $ (10)

式中, R表示图像的分块数(R=5),C表示提取的特征数(C=4)。局部相似度函数和全局相似度函数相结合得到最终的相似度函数为

$ \delta \left( {{\mathit{\boldsymbol{l}}_i},{\mathit{\boldsymbol{l}}_j}} \right) = {\delta ^{{\rm{local}}}}\left( {{\mathit{\boldsymbol{l}}_i},{\mathit{\boldsymbol{l}}_j}} \right) + \gamma {\delta ^{{\rm{global}}}}\left( {{\mathit{\boldsymbol{l}}_i},{\mathit{\boldsymbol{l}}_j}} \right) $ (11)

式中, $γ$是调解局部和整体相似度函数的超参(hyper-parameter)。

1.3 交替方向乘子优化算法

交替方向乘子法(ADMM)最初由Gabay等人[11]提出。ADMM是一种解决可分离凸规划问题的简单有效方法,可以看成是在增广拉格朗日算法基础上发展的一种新算法。ADMM最大的优越性在于将原问题的目标函数进行等价分解为若干个较易找到的局部解的子问题进行交替分析,从而迭代出问题的全局解。文献[12]提出了一种正交投影非负矩阵的交替方向乘子分解算法应用于目标跟踪,与常见的目标跟踪算法相比能较好地应对视频场景中的光照变化、尺度变化及遮挡等干扰,其跟踪性能更加稳定。因此采用ADMM优化算法来处理行人再识别的相关问题是可行的。

采用马氏距离来度量行人的相似度,应用于ADMM算法需要正则化测度矩阵,即

$ R\left( \mathit{\boldsymbol{m}} \right) = \sum\limits_{\mathit{\boldsymbol{M}} \in \mathit{\boldsymbol{m}}} {\sum\limits_{i = 1}^d {{{\left\| {{\mathit{\boldsymbol{M}}_i}} \right\|}_2}} } $ (12)

式中,$\mathit{\boldsymbol{m}} = \left\{ {{\mathit{\boldsymbol{M}}^{c, 1}}, {\mathit{\boldsymbol{M}}^{c, 2}}, \cdots , {\mathit{\boldsymbol{M}}^{c, r}}, \cdots , {\mathit{\boldsymbol{M}}^{c, R}}, {\mathit{\boldsymbol{M}}^{c, G}}} \right\}_{c = 1}^C$$R = 5, C = 4, d = 24$。由于行人再识别问题常被等价为排名问题,当两幅行人图像是同一个行人时可以得到更高的分来提升排名,为此构造三元组损失函数[9]

$ L\left( \mathit{\boldsymbol{m}} \right) = \sum\limits_{n = 1}^N {\sum\limits_{{\mathit{\boldsymbol{l}}_i} \in \mathit{\boldsymbol{l}}_n^ + ,{\mathit{\boldsymbol{l}}_j} \in \mathit{\boldsymbol{l}}_n^ - } {{l_{{\rm{triplet}}}}\left( {{\mathit{\boldsymbol{l}}_n},{\mathit{\boldsymbol{l}}_i},{\mathit{\boldsymbol{l}}_j}} \right)} } $ (13)

$ {l_{{\rm{triplet}}}}\left( {{\mathit{\boldsymbol{l}}_n},{\mathit{\boldsymbol{l}}_i},{\mathit{\boldsymbol{l}}_j}} \right) = {\left[ {\delta \left( {{\mathit{\boldsymbol{l}}_n},{\mathit{\boldsymbol{l}}_i}} \right) - \delta \left( {{\mathit{\boldsymbol{l}}_n},{\mathit{\boldsymbol{l}}_j}} \right) + \alpha } \right]_ + } $ (14)

式中,${\rm triplet}$表示一个三元组,这个三元组是这样构成:从训练数据集中随机选取一个样本记为${\mathit{\boldsymbol{l}}_n}$,然后再选取一个和${\mathit{\boldsymbol{l}}_n}$属于同一类的样本${\mathit{\boldsymbol{l}}_i} \in \mathit{\boldsymbol{l}}_n^ + $和不同类的样本${\mathit{\boldsymbol{l}}_j} \in \mathit{\boldsymbol{l}}_n^ - $,由此构成一个三元组。三元组损失函数的目的就是通过学习,让${\mathit{\boldsymbol{l}}_n}$${\mathit{\boldsymbol{l}}_i}$特征表达之间的距离尽可能小,而${\mathit{\boldsymbol{l}}_n}$${\mathit{\boldsymbol{l}}_j}$的特征表达之间的距离尽可能大,并且要让${\mathit{\boldsymbol{l}}_n}$${\mathit{\boldsymbol{l}}_i}$之间的距离和${\mathit{\boldsymbol{l}}_n}$${\mathit{\boldsymbol{l}}_j}$之间的距离之间有一个最小的间隔$\alpha = 1$${\left[ {~} \right]_ + }$表示$\left[ {~} \right]$内的值大于零的时候,取该值为损失,小于零的时候损失为零。根据式(12)(13)可得到行人再识别的目标函数为

$ \begin{array}{l} \mathop {\min }\limits_\mathit{\boldsymbol{m}} L\left( \mathit{\boldsymbol{m}} \right) + \lambda R\left( \mathit{\boldsymbol{m}} \right)\\ {\rm{s}}.\;{\rm{t}}.\;\;\;\;\;{\mathit{\boldsymbol{M}}^{c,r}}{\mathit{\boldsymbol{M}}^{c,G}} \in \mathit{\boldsymbol{S}}_ - ^d\\ c = 1, \cdots ,C;r = 1, \cdots ,R \end{array} $ (15)

式中,$λ$取经验值0.000 3,$\mathit{\boldsymbol{S}}_ - ^d$表示负半定矩阵的集合,它是目标函数的约束条件使迭代得到的测度矩阵满足负半定性。由式(5)可知,当测度矩阵是负半定矩阵时,同一个行人相似则可以得到更高的分。

可见目标函数是一类可用ADMM框架解决的特殊优化问题,为了便于优化将式(15)转换为等价公式

$ \begin{array}{*{20}{c}} {\mathop {\min }\limits_{{U_1},{U_2},{U_3}} {g_1}\left( {{\mathit{\boldsymbol{U}}_1}} \right) + {g_2}\left( {{\mathit{\boldsymbol{U}}_2}} \right) + {g_3}\left( {{\mathit{\boldsymbol{U}}_3}} \right)}\\ {{\rm{s}}.\;{\rm{t}}.\;\;\;{\mathit{\boldsymbol{U}}_1} = {\mathit{\boldsymbol{U}}_2} = {\mathit{\boldsymbol{U}}_3}} \end{array} $ (16)

式中, ${g_1}\left( \mathit{\boldsymbol{U}} \right) = L\left( \mathit{\boldsymbol{U}} \right)$${g_2}\left( \mathit{\boldsymbol{U}} \right) = \lambda R\left( \mathit{\boldsymbol{U}} \right)$${g_3}\left( \mathit{\boldsymbol{U}} \right) = \infty \delta \left[ {\mathit{\boldsymbol{U}} \notin \mathit{\boldsymbol{S}}_ - ^d} \right]$$\delta \left[ \cdot \right]$是一个指标函数,如果参数为真则为1否则为0。通过现有成熟的ADMM算法得到迭代公式

$ \mathit{\boldsymbol{U}}_1^{k + 1} = \arg \mathop {\min }\limits_{{\mathit{\boldsymbol{U}}_1}} {g_1}\left( {{\mathit{\boldsymbol{U}}_1}} \right) + \frac{\rho }{2}\left\| {{\mathit{\boldsymbol{U}}_1} - \left( {\mathit{\boldsymbol{U}}_3^k - \mathit{\boldsymbol{ \boldsymbol{\varLambda} }}_1^k} \right)} \right\|_{\rm{F}}^2 $ (17)

$ \mathit{\boldsymbol{U}}_2^{k + 1} = \arg \mathop {\min }\limits_{{\mathit{\boldsymbol{U}}_2}} {g_2}\left( {{\mathit{\boldsymbol{U}}_2}} \right) + \frac{\rho }{2}\left\| {{\mathit{\boldsymbol{U}}_2} - \left( {\mathit{\boldsymbol{U}}_3^k - \mathit{\boldsymbol{ \boldsymbol{\varLambda} }}_2^k} \right)} \right\|_{\rm{F}}^2 $ (18)

$ \begin{array}{*{20}{c}} {\mathit{\boldsymbol{U}}_3^{k + 1} = \arg \mathop {\min }\limits_{{\mathit{\boldsymbol{U}}_3}} {g_3}\left( {{\mathit{\boldsymbol{U}}_3}} \right) + }\\ {\rho \left\| {{\mathit{\boldsymbol{U}}_3} - \frac{1}{2}\left( {\mathit{\boldsymbol{U}}_1^{k + 1} + \mathit{\boldsymbol{U}}_2^{k + 1} + \mathit{\boldsymbol{ \boldsymbol{\varLambda} }}_1^k + \mathit{\boldsymbol{ \boldsymbol{\varLambda} }}_2^k} \right)} \right\|_{\rm{F}}^2} \end{array} $ (19)

$ \left\{ \begin{array}{l} \mathit{\boldsymbol{ \boldsymbol{\varLambda} }}_1^{k + 1} = \mathit{\boldsymbol{ \boldsymbol{\varLambda} }}_1^k + \mathit{\boldsymbol{U}}_1^{k + 1} - \mathit{\boldsymbol{U}}_3^{k + 1}\\ \mathit{\boldsymbol{ \boldsymbol{\varLambda} }}_2^{k + 1} = \mathit{\boldsymbol{ \boldsymbol{\varLambda} }}_2^k + \mathit{\boldsymbol{U}}_2^{k + 1} - \mathit{\boldsymbol{U}}_3^{k + 1} \end{array} \right. $ (20)

可以看出,每次迭代分为4步:首先求解与${\mathit{\boldsymbol{U}}_1}$相关的最小化问题,更新变量${\mathit{\boldsymbol{U}}_1}$;然后求解与${\mathit{\boldsymbol{U}}_2}$相关的最小化问题,更新变量${\mathit{\boldsymbol{U}}_2}$;接着求解与${\mathit{\boldsymbol{U}}_3}$相关的最小化问题,更新变量${\mathit{\boldsymbol{U}}_3}$;最后更新对偶变量${\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}^1}$${\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}^2}$。迭代公式中$\rho $=0.001,整个迭代更新优化算法过程交替方向乘子优化算法如下:

输入:$\left\{ {{\mathit{\boldsymbol{l}}_i}, \mathit{\boldsymbol{l}}_i^ + , \mathit{\boldsymbol{l}}_i^ - } \right\}_{i = 1}^n$

输出:权重系数$\mathit{\boldsymbol{U}}$

for$k = 0, \cdots , K - 1$(直到收敛)

    更新$\mathit{\boldsymbol{U}}_1^{k + 1}$

    更新$\mathit{\boldsymbol{U}}_2^{k + 1}$

    更新$\mathit{\boldsymbol{U}}_3^{k + 1}$

    更新$\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}_1^{k + 1}$$\mathit{\boldsymbol{ \boldsymbol{\varLambda} }}_2^{k + 1}$

end

$\mathit{\boldsymbol{U}} \leftarrow \mathit{\boldsymbol{U}}_3^K$

1.4 行人再识别算法

行人再识别算法操作步骤如下:

1) 输入数据集内的所有图像,运用Retinex算法对输入图像进行预处理。

2) 对处理后的图像非均匀分割,提取图像的特征${\left( {{\mathit{\boldsymbol{x}}_i}, {\mathit{\boldsymbol{x}}_j}} \right)_c}$包含HSV、LAB颜色特征以及SILTP纹理特征和HOG特征;$i, j = 1, 2, \cdots , N$; $c = 1, 2, 3, 4$$i, j$表示行人对,$c$表示不同的特征空间,$N$为图像总数。使用L2范数对提取的特征向量归一化,归一化后的特征用$\left( {{\mathit{\boldsymbol{l}}_i}, {\mathit{\boldsymbol{l}}_j}} \right)$表示。

3) 各个分块对应特征的距离测度矩阵用$\left\{ {{\mathit{\boldsymbol{M}}^{c, 1}}, {\mathit{\boldsymbol{M}}^{c, 2}}, \cdots , {\mathit{\boldsymbol{M}}^{c, r}}, \cdots , {\mathit{\boldsymbol{M}}^{c, R}}{, ^{c, G}}} \right\}_{c = 1}^C$表示, $R$为5,$C$为4。

4) 利用迭代更新优化算法迭代更新出最优的距离测度矩阵,得到每对行人之间的最终相似度。

2 实验结果及分析

实验是基于MATLAB R2015b实现,实验平台:16 GB内存、Intel(R) Core(TM) i7-4790K CPU @3.60 GHz处理器。算法在行人再识别常用的VIPeR[13]、GRID[14]、CUHK01[15]和CUHK03[2]数据集上进行测试。对每项测试,在相同条件下重复进行10次实验,每次实验均随机生成测试集和训练集,取10次结果的平均值作为本项测试的最终结果,并采用累积匹配特性(CMC)曲线进行评价。CMC曲线是指在行人图像库中搜索待查询的行人,前$r$个搜索结果中找到的待查询人比率。第1匹配率($r$=1)非常重要,它表示算法真正的识别能力。但当$r$取值较小时,同样可以通过人为的判别查找到目标。

2.1 VIPeR数据集的测试结果

VIPeR数据集是由632对行人1 264幅图像组成,每一对行人图像来源于不同的摄像头场景。VIPeR数据集是行人再识别中最具有挑战性的数据集,算法在VIPeR数据集上的测试结果也最具有说服力,因此本文算法的对比实验也均在VIPeR数据集上测试。实验中训练样本集和测试样本集(P)均为316对行人图像。

为验证引入HOG特征对本文算法的影响,表 1列出了有无引入HOG特征的实验对比。

表 1 本文算法是否使用HOG特征的识别率
Table 1 Matching rates of the proposed algorithm whether using HOG feature

下载CSV
/%
HOG特征 Rank1 Rank5 Rank10 Rank20
48.54 78.39 89.37 98.96
51.49 80.79 89.40 99.27

表 1中实验数据可以看出,融合了HOG特征后,Rank1和Rank5识别率分别提升了2.95%和2.4%,由此可以说明,融入HOG特征可以很好地表达行人信息,较大幅度地提高行人再识别率。

为验证提取特征过程中采用局部最大值法和本文采用的特定区域均值法对实验结果的影响,表 2给出了实验对比。

表 2 本文算法特定区域均值法和最大值法的识别率比较
Table 2 Matching rates of the proposed algorithm based on specific region mean method and local maximum method

下载CSV
/%
区域处理法 Rank1 Rank5 Rank10 Rank20
最大值法 49.91 80.28 89.87 99.21
本文 51.49 80.79 89.40 99.27

表 2实验数据可以看出,相对局部最大值法而言,采用特定区域均值法行人再识别率又有了一定的提升,其中Rank1提升了1.5%。由此说明,特定区域均值法提取的特征能有效地去除无用的环境信息,保留了大部分行人信息,故相比于单一的最大值法其效果更好。

为验证Retinex图像增强算法对实验结果的影响,同样做了一组对比实验。当未使用Retinex算法时Rank1的识别率为50.28%, 使用之后识别率提升了1.2%。这说明使用图像增强算法预处理过后的图像细节更加突出,颜色信息则更加接近人眼看到的样子, 具有更好的鲁棒性。

表 3所示,在VIPeR数据集上,测试集$P$=316时本文算法与现有算法性能比较。从表 3数据可以看出,本文算法明显优于其他算法。本文算法基于改进LOMO特征,对图像采取非均匀分割,采用交替方向乘子优化算法,使行人再识别的性能有了较大提升。其中Rank1达到51.5%,Rank5达到80.8%,一定程度上已经可以运用到工程实践中。实验在相同情况下重复进行10次, 其平均运行时间为44.468 3 s,因此应用到实时系统中是可行的。

表 3 不同算法在VIPeR数据集上的识别率
Table 3 Matching rates of different methods on VIPeR

下载CSV
/%
算法 Rank1 Rank5 Rank10 Rank20
KISSME[4] 19.2 48.8 64.9 80.2
kLFDA[16] 32.3 65.8 79.7 90.9
Polymap[9] 36.8 70.4 83.7 91.8
LOMO[10] 40.0 68.1 80.5 91.0
文献[6] 40.7 72.3 83.9 92.0
文献[7] 42.7 74.5 85.4 92.8
本文 51.5 80.8 89.4 99.3

2.2 CUHK数据集的测试结果

CUHK01数据集中的图像是在校园环境中捕获,共971个行人,每个行人包含4幅图像,每个行人的前两幅图像和后两幅图像是视频中前后帧的关系。实验中,将图像大小统一设置为高128像素,宽48像素。其中训练集为485对行人图像,测试集为486对行人图像。表 4为本文算法与现有行人再识别算法的性能比较。

表 4 不同算法在CUHK01数据集上的识别率
Table 4 Matching rates of different methods on CUHK01

下载CSV
/%
算法 Rank1 Rank5 Rank10 Rank20
KISSME[5] 17.9 38.1 48.0 58.8
kLFDA[16] 29.1 55.2 66.4 77.3
MFA[16] 29.6 55.8 66.4 77.3
文献[7] 36.1 62.6 72.6 81.9
文献[8] 43.7 70.8 79.0 87.3
本文 48.7 73.1 81.6 88.9

表 4所示,针对CUHK01数据集,本文算法与现有算法相比,在识别率上有显著提升,其中Rank1达到了48.7%, 比文献[7]算法提高了将近5%,通过在CUHK01数据集上的对比同样说明了本算法的优越性。

除此之外对CUHK03数据集同样进行了实验。CUHK03数据集中包括1 360个行人的13 164幅图像。CUHK03数据集在几个月内被6台监视摄像机捕获,每个行人平均有4.8幅图像。除了手动裁剪的行人图像之外,还提供了使用最先进的行人检测器检测到的样本。数据集被划分为1 160人的训练集和100人的测试集。如表 5所示,为本文算法在手动裁剪和检测器检测的数据集上随机运行20次得出的实验结果。

表 5 不同算法在CUHK03数据集上的识别率
Table 5 Matching rates of different methods onCUHK03

下载CSV
/%
算法 检测器检测 手动裁剪
KISSME[4] 11.70 14.17
DeepReID[2] 19.89 20.65
文献[17] 44.96 54.74
LOMO[10] 46.25 52.20
本文 55.05 62.40

表 5所示,本文算法在CUHK03库上面的两组实验Rank1识别率分别达到55.05%和62.40%,比LOMO算法的识别率46.5%和52.20%分别提升了近10个百分点。因此可以看出,在大数据集上本文算法依然有较好的性能。

2.3 GRID数据集的测试结果

GRID数据集由1 275人图像组成。其中有250行人图像对。每对中的图像属于同一个人,但是从不同的相机视图中捕获。此外,还有775个额外的人物图像不属于250人中的任何一个。实验中,将图像大小统一设置为高128像素,宽48像素,其中训练集为125对行人图像,测试集为125对行人图像和775不相关行人图像。由于增加了大量不相关行人图像做干扰,这也使GRID数据集的整体识别率较低,但GRID数据集更贴近现实,因为在刑事侦查中同样是有很多路人干扰警方找到最终的犯罪嫌疑人。

表 6所示,针对GRID数据集,本文算法与现有算法相比,行人再识别率有大幅度提升,其中Rank1达到了21.4%, 比LOMO算法提高了将近5%,在Rank5、Rank10和Rank20上也均有较大提升,因此在GRID数据集上的对比依然同样体现了本算法的优越性。其中LOMO实验结果为作者论文主页中提取。

表 6 不同算法在GRID数据集上的识别率
Table 6 Matching rates of different methods on GRID

下载CSV
/%
算法 Rank1 Rank5 Rank10 Rank20
Mrank-PRDC[18] 11.1 26.1 35.8 46.6
Mrank-RankSVM[18] 12.2 27.8 36.3 46.6
Polymap[19] 16.3 35.8 46.0 57.6
LOMO[10] 16.6 33.8 41.8 52.4
本文 21.4 40.3 49.9 59.3

2.4 超参$\gamma $取值不同时算法性能比较

由1.2节式(11)可知,行人图像最终的相似度函数为$\delta \left( {{\mathit{\boldsymbol{l}}_i}, {\mathit{\boldsymbol{l}}_j}} \right)$。为了分析超参$\gamma $取值不同时对算法性能的影响,图 3给出了在3种数据集不同$\gamma $取值下的对比实验。可以看出,对于VIPeR、GRID和CHUK01数据集当$\gamma $取值分别为1.1、0.8和0.8时行人再识别性能达到最优。

图 3 算法在3种数据集上不同$\gamma $值下的性能比较
Fig. 3 Performances at different weights $\gamma $ on the three dataset ((a) VIPeR dataset; (b) GRID dataset; (c) GRID dataset)

3 结论

行人再识别问题的研究面临着诸多挑战,现有的行人再识别算法一般提取的是颜色特征和纹理特征,但这种提取方法往往会丢失行人相对稳定的几何结构;在学习方法上,过度拟合训练样本也是亟待解决的问题。针对这些问题,本文提出了一种基于多特征融合与交替方向乘子法的行人再识别算法,通过图像增强和对图像的非均匀分割提取改进的LOMO特征,将图像整体与局部相似度函数结合得到最终的相似度函数,最后使用交替方向乘子优化算法更新出最优的距离测度矩阵,得到每对行人之间的最终相似度。实验结果表明,本文算法显著地提高了行人再识别性能,具有广阔的应用前景。但本文在非均匀分割中将图像统一分成了5块,这仅仅是一种一般化的划分,实验中无法自适应的找到最佳的划分方法,未来的工作可以针对图像划分方法,以及融入新的特征来继续提高行人再识别的性能。此外与深度学习的方法相结合也是行人再识别领域今后发展的方向,未来可以融合深度神经网络提取的特征进行近一步研究。

参考文献

  • [1] Yi D, Lei Z, Liao S C, et al. Deep metric learning for person re-identification[C]//Proceedings of the 22nd International Conference on Pattern Recognition. Stockholm, Sweden: IEEE, 2014: 34-39. [DOI:10.1109/ICPR.2014.16]
  • [2] Li W, Zhao R, Xiao T, et al. DeepReID: deep filter pairing neural network for person re-identification[C]//Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE, 2014: 152-159. [DOI:10.1109/CVPR.2014.27]
  • [3] Schroff F, Kalenichenko D, Philbin J. FaceNet: a unified embedding for face recognition and clustering[C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA, USA: IEEE, 2015: 815-823. [DOI:10.1109/CVPR.2015.7298682]
  • [4] Köstinger M, Hirzer M, Wohlhart P, et al. Large scale metric learning from equivalence constraints[C]//Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI, USA: IEEE, 2012: 2288-2295. [DOI:10.1109/CVPR.2012.6247939]
  • [5] Chen Y, Huo Z H. Person re-identification based on multi-directional saliency metric learning[J]. Journal of Image and Graphics, 2015, 20(12): 1674–1683. [陈莹, 霍中花. 多方向显著性权值学习的行人再识别[J]. 中国图象图形学报, 2015, 20(12): 1674–1683. ] [DOI:10.11834/jig.20151212]
  • [6] Qi M B, Tan S S, Wang Y X, et al. Multi-feature subspace and kernel learning for person re-identification[J]. Acta Automatica Sinica, 2016, 42(2): 299–308. [齐美彬, 檀胜顺, 王运侠, 等. 基于多特征子空间与核学习的行人再识别[J]. 自动化学报, 2016, 42(2): 299–308. ] [DOI:10.16383/j.aas.2016.c150344]
  • [7] Qi M B, Hu L F, Jiang J G, et al. Person re-identification based on multi-features fusion and independent metric learning[J]. Journal of Image and Graphics, 2016, 21(11): 1464–1472. [齐美彬, 胡龙飞, 蒋建国, 等. 多特征融合与独立测度学习的行人再识别[J]. 中国图象图形学报, 2016, 21(11): 1464–1472. ] [DOI:10.11834/jig.20161106]
  • [8] Jobson D J, Rahman Z, Woodell G A. A multiscale retinex for bridging the gap between color images and the human observation of scenes[J]. IEEE Transactions on image Processing, 1997, 6(7): 965–976. [DOI:10.1109/83.597272]
  • [9] Chen D P, Yuan Z J, Hua G, et al. Similarity learning on an explicit polynomial kernel feature map for person re-identification[C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA, USA: IEEE, 2015: 1565-1573. [DOI:10.1109/CVPR.2015.7298764]
  • [10] Liao S C, Hu Y, Zhu X Y, et al. Person re-identification by local maximal occurrence representation and metric learning[C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA, USA: IEEE, 2015: 2197-2206. [DOI:10.1109/CVPR.2015.7298832]
  • [11] Gabay D, Mercier B. A dual algorithm for the solution of nonlinear variational problems via finite element approximation[J]. Computers & Mathematics with Applications, 1976, 2(1): 17–40. [DOI:10.1016/0898-1221(76)90003-1]
  • [12] Wang H B, Lu C, Zhou J, et al. Orthogonal projection non-negative matrix factorization using alternating direction method of multipliers[J]. Journal of Image and Graphics, 2017, 22(4): 463–471. [王华彬, 路成, 周健, 等. 正交投影非负矩阵的交替方向乘子分解方法[J]. 中国图象图形学报, 2017, 22(4): 463–471. ] [DOI:10.11834/jig.20170406]
  • [13] Gray D, Tao H. Viewpoint invariant pedestrian recognition with an ensemble of localized features[C]//Proceedings of the 10th European Conference on Computer Vision. Marseille, France: Springer, 2008: 262-275. [DOI:10.1007/978-3-540-88682-2_21]
  • [14] Loy C, Xiang T, Gong S G. Multi-camera activity correlation analysis[C]//Proceedings of the 2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami, FL, USA: IEEE, 2009: 1988-1995. [DOI:10.1109/CVPR.2009.5206827]
  • [15] Zhao R, Ouyang W L, Wang X G. Learning mid-level filters for person re-identification[C]//Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH, USA: IEEE, 2014: 144-151. [DOI:10.1109/CVPR.2014.26]
  • [16] Xiong F, Gou M R, Camps O, et al. Person re-identification using kernel-based metric learning methods[C]//Proceedings of the 13th European Conference on Computer Vision. Zurich, Switzerland: Springer, 2014: 1-16. [DOI:10.1007/978-3-319-10584-0_1]
  • [17] Ahmed E, Jones M, Marks T K. An improved deep learning architecture for person re-identification[C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA, USA: IEEE, 2015: 3908-3916. [DOI:10.1109/CVPR.2015.7299016]
  • [18] Loy C C, Liu C X, Gong S G. Person re-identification by manifold ranking[C]//Proceedings of the 2013 IEEE International Conference on Image Processing. Melbourne, VIC, Australia: IEEE, 2013: 3567-3571. [DOI:10.1109/ICIP.2013.6738736]