Print

发布时间: 2016-10-25
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.20161009
2016 | Volumn 21 | Number 10




    图像分析和识别    




  <<上一篇 




  下一篇>> 





前背景骨架区域随机点对策略驱动下的车标识别方法
expand article info 余烨, 聂振兴, 金强, 王江明
合肥工业大学计算机与信息学院可视化与协同计算研究室, 合肥 230009

摘要

目的 现有的车标识别算法均为各种经典的图像特征算子结合不同的分类器组合而成,均未分析车标图像的结构特点。综合考虑车标图像的灰度特征和结构特征,提出了一种前背景骨架区域随机点对策略驱动下的车标识别方法。 方法 本文算法将标准车标图像分为前景区域和背景区域,分别提取前、背景的骨架区域,在其中进行随机取点,形成点对,通过进行点对的有效性判断,提取能表示车标的点对特征。点对特征表示两点周围局部区域的相似关系,反映了实际车标成像过程中车标图案部分与背景部分的灰度明暗关系。 结果 在卡口系统截取的19 044张车标图像上进行实验,结果表明,与其他仅基于灰度特征的识别方法相比,本文提出的点对特征识别方法具有更好的识别效果,识别率达到了95.7%。在弱光照条件下,本文算法的识别算法效果同样优于其他仅基于灰度特征的识别方法,识别率达到了87.2%。 结论 本文提出的前背景骨架区域随机点对策略驱动下的车标识别方法,结合了车标图像的灰度特征和结构特征,在进行车标的描述上具有独特性和排他性,有效地提高了车标的识别率,尤其是在弱光照条件下,本文方法具有更强的鲁棒性。

关键词

车标识别; 点对特征; 前背景区域; 骨架区域; 随机取点; 交叉配对

Vehicle logo recognition based on randomly sampled pixel-pair feature from foreground-background skeleton areas
expand article info Yu Ye, Nie Zhenxing, Jin Qiang, Wang Jiangming
VCC Division, School of Computer and Information, Hefei University of Technology, Hefei 230009, China
Supported by: National Natural Science Foundation of China (61370167)

Abstract

Objective Most of the existing vehicle logo recognition (VLR) approaches simply combine traditional image features with different classifiers, such as template matching, HOG(histogram of oriented gradient)/SVM(support vector machine), HOG/KNN(k-nearest neighbor), SIFT(scale-invariant feature transform)/SVM, and radial Chebyshev moments/SVM, but they do not consider structure features of vehicle logo image. Vehicle logo images have distinct structure information, which is the significant clue for VLR. Considering both their gray and structure features, this study proposes a new VLR approach based on pixel-pair features that are randomly sampled from foreground-background skeleton areas. Method First, a standard vehicle logo image is partitioned into foreground and background areas. Second, the skeleton areas of both foreground and background are extracted, which contracts foreground and background areas, because pixels in skeleton areas are more stable. Third, pixels are randomly selected from the two skeleton areas, forming pixel pairs by cross-matching that can obtain more pixel pairs. Then, through pixel-pair validation, accepted pixels are selected to express vehicle logo features. Features express similarity of local areas centered on both pixels, which reflect the gray relationship of logo and background areas after the imaging process. Pixel-pair validation has two crucial rules. One is that the pixel pair in a different sample of the same class has the same similarity relationship; and the other is that the pixel pair in a different sample of a different class has a different similarity relationship. Last, the connection relationship is introduced during classification. Through the connection relationship, independent pixel pairs, which contribute to vehicle logo recognition, can be aggregated. Result Experimental data derived from 19 044 vehicle logo images are captured by surveillance cameras in the real world. This image group is called Test Set 1. To test the performance of different methods under weak illumination, 2 326 vehicle logo images with weak illumination are selected in Test Set 1, which is now called Test Set 2. Experiment shows that compared with recognition results based on other image features, the method based on the proposed feature can achieve higher recognition performance. Test Set 1 has a 95.7% recognition rate. Under weak illumination, our method attains an 87.2% recognition rate on Test Set 2. Conclusion Considering both gray and structure features of vehicle logo images, we propose a new VLR approach based on pixel-pair features, which are randomly sampled from foreground-background skeleton areas. Pixel-pair feature extraction process fully considers the logo shape, which makes this feature distinctive and exclusive. Experiments show that our method attains a higher recognition rate compared with traditional VLR methods. Our method has shown strong robustness especially under weak illumination.

Key words

vehicle logo recognition; pixel pair feature; foreground and background areas; skeleton area; random sampling; cross-matching

0 引 言

随着社会的发展、车辆拥有量的增加,借助车辆为作案工具的案件也随之增加。在进行此类案件的侦破时,由于盗用车牌号、污损车牌、摘除车牌等手段的使用,使得目前较为成熟的车牌识别技术不能发挥应有的关键作用,而作为车辆的主要特征之一,车标在车辆识别中所能发挥作用不容小觑。作为智能交通系统的核心技术,车标识别(VLR)在实现异常车辆跟踪、特定车辆识别及行车轨迹自动生成等方面发挥了关键作用,为事故逃逸车辆、套牌车辆、假牌车辆、逾期报废车辆、逾期未年检车辆等的发现和追踪提供辅助手段,为交通管理执法部门提供重要判断依据。因此,车标识别具有巨大的潜在应用前景和研究价值。

车标识别主要指通过识别车辆的商标信息,确认车辆的生产制造商,是车辆品牌和型号识别(VMMR)中重要的一步,有助于车辆品牌的确定并缩小车辆型号种类的范围。很多面向车辆品牌和型号识别的研究,其核心步骤之一为车标识别。Psyllos等人[1]在进行车型识别时是以车标识别作为辅助的,通过车牌定位来确定车标位置,在进行车标识别时,采用概率神经网络(PNN)的方法,最终在对10种车辆品牌进行分类时,取得了85%的识别率。车标识别的关键在于选取何种特征、何种分类器来进行车标的分类和识别。车标种类繁多,实际智能交通系统中采集的车标图像分辨率低下,光照、阴影等因素的影响,增加了车标识别的不确定性,这些都是目前车标识别技术所面临的难题。

在车标识别过程中,车标图像的特征提取与表示尤为重要。部分学者致力于将传统特征应用于车标识别中,如Wang等人[2]采用边缘方向梯度来对车标进行表示,Sam等人[3]利用扩展的Haar特征进行车标的检测,Dai等人[4]通过6个方向的切比雪夫不变矩描述车标,Badura等人[5]利用SURF(Speeded Up Robust Features)[6]找特征点,然后生成不变矩作为形状描述子来表示车标。同时,SIFT(scale-invariant feature transform)[7]、HOG(Histogram of Oriented Gradient)[8]等经典的特征描述子也在车标识别中发挥了很大作用。Psyllos等人[9]利用SIFT的旋转和尺度不变性,将同一类样本中所有车标图像的特征点映射到参考图像上,提出一种增强的SIFT特征,并采用最近邻分类器对车标进行分类识别。Yu等人[10]提出了一种SIFT与词包相结合的特征表示方法,利用SVM(Support Vector Machine)进行分类识别,该算法改善了传统SIFT时间复杂度高的问题,提高了处理速度。

在实际的智能交通系统中,虽然采集到的图像整体分辨率很高,但是车标在整个图像中所占的比例很少,所以用来描述车标的像素点有限,且受不同天气、光照的影响,成像区别很大。因此在实际的车标图像中无法得到足够的特征点,如SIFT这种基于点的车标识别算法就不那么适用。针对小分辨率车标图像的识别,Llorca等人[11]将HOG特征结合SVM分类器,在27类3 579张车标样本的情况下取得了92%的识别率。Sun等人[12]同样将HOG特征结合SVM分类器算法应用于车标识别中,在15类1 386张车标样本存在的情况下取得了97%的识别率。Xiao等人[13]提出了一种形状直方图特征用来描述车标,使用加权多类支持向量机作为分类器来进行车标识别,证明了形状直方图在车标识别上的优越性。Peng等人[14]基于随机稀疏采样的策略提出了一种描述两点相互关系的特征(本文称之为点对特征),点对特征反映了点对中两点局部区域的明暗对比关系,该算法适用于智能交通系统中的小分辨率车标图像,得到了较好的识别结果,在3 370张测试样本中识别率达到了97.3%。Peng等人[14]提出的点对是从整幅图像随机选取,这种方式得到的点对特征的稳定性完全受到随机性的限制,使得无法在大量的实验数据中保持良好的识别率。

为了提高点对特征的稳定性和鲁棒性,本文综合考虑车标图像的灰度特征和结构特征,提出了一种前背景骨架区域随机点对策略驱动下的车标识别方法(PF-FBSA),该方法将前景(车标图案区域)、背景(非图案区域)分开,提取各自的骨架区域,并从骨架区域中进行随机取点,形成点对,通过点对中两点局部区域的相似关系来表示点对特征。实验结果表明,通过本文方法提取的点对特征能有效地对车标的形状特征和灰度特征进行描述,具有更强的稳定性和鲁棒性,而基于此点对特征的PF-FBSA方法提高了低分辨率情况下车标的识别率,同时对光照具有更强的鲁棒性,在弱光照情况下本文方法获得的识别率明显高于其他仅基于灰度特征进行识别的方法。

1 算法整体思想

从实际监控系统中获取的车标图像,由于拍摄环境、背景光照不一致,车标成像后,各部分的灰度值变化较大。Peng等人[14]采用点对中两点所对应局部区域灰度对比关系来表示点对特征。点对特征没有强调每一点的灰度值,忽略了由于灰度值变化造成的影响,在拍摄环境、背景光照变化时具有较强的鲁棒性。然而这种点对的选取方式完全取决于随机算法,且忽略了车标图像的结构特征。

车标图像中灰度值的变化与车标图案的形状密切相关,一般车标部分为金属材质,成像时灰度值较高,而非车标图案区域则灰度值较低。基于此特性,考虑可以在进行随机取点时,将车标图案部分与非图案部分进行区分,将车标图像中的车标图案部分定义为“前景”,非图案部分定义为“背景”。

由于受噪声、光照的影响,在车标图像中,越趋近前景或背景边缘的像素,其灰度值的稳定性越弱,越靠近前景或背景核心区域的像素,其灰度值的稳定性越强。而在提取特征点对时,希望点周围像素的灰度值越稳定越好,因此,本文采用仅从前景、背景的核心区域中提取点对的方式,以提高点对特征的鲁棒性。为描述方便,将前景、背景的核心区域定义为“骨架区域”。

基于上述分析,提出了一种前背景骨架区域随机点对策略驱动下的车标识别方法。算法整体描述如下(如图 1所示):基于标准车标图像,分别提取其前、背景中的骨架区域,然后分别从其中随机取点,将前景骨架区域中的点与背景骨架区域中的点进行交叉配对,形成初始的点对集合,点对记录了两点的位置及两点对应局部区域的灰度关系。将上述提取的点对映射到从实际卡口监控系统中获取的同类及异类车标图像上,对其有效性进行判断,提取点对特征较稳定的点对,形成有效点对的集合。有效点对集合唯一地描述了该类车标的灰度特征,将其形成模板,用于后续的识别。

图 1 算法流程图
Fig. 1 Diagram of the algorithm

2 算法描述

2.1 车标前背景骨架区域提取

每类车标的形状都是固定的,基于标准车标图案,将其进行二值化,二值化的依据为:车标图案部分,即前景部分,二值化后为白色;非车标图案部分,即背景部分,二值化后为黑色。将二值化后的车标图像称为“标准车标图像”,图 2展示了20类车辆品牌的标准车标图像。

图 2 标准车标图像示意图
Fig. 2 Images of the standard vehicle logos

从实际卡口监控系统中获取的车标图像,由于环境、光照的影响,同一类车标成像后车标图案均大致相似,难以完全一致。考虑同类车标在实际成像后具有相同图案这一特点,本文采用标准车标图像进行初始点对的选取,避免了车标成像不一致造成的干扰。

在车标图像中,前景和背景边缘处的像素点灰度值不稳定,为了控制后续随机取点的范围,提前排除不稳定像素点对特征提取的干扰,本文采用Zhang等人[15]提出的并行细化算法分别收缩前景和背景,提取前景和背景的骨架区域。

2.2 初始点对提取

提取骨架区域后,分别从前、背景骨架区域中进行随机取点。Peng等人[14]提出了一种随机一致性稀疏采样方法(RUSS)来选取初始点。通过实验发现,RUSS方法与均匀随机取点的方法相比,并未带来车标识别率的显著提高。因此,为简化取点步骤、提高算法效率,采用了均匀随机的采样方式。

针对第i类车标,在其对应标准车标图像的前、背景骨架区域中分别提取数量为n的像素点,形成集合FsBs,对两个集合的点进行交叉配对,产生初始点对集合Pairi={<p1,p2>j|p1FBs,p2FBs,j=1,2,…,n0},其中点对总数为n0=n2

图 3 交叉配对示意图
Fig. 3 Pixel pair generation through cross-matching

交叉配对,即Fs中的每一点均与Bs中每一个点进行配对。交叉配对允许不同点对之间有一个公共点。如图 3所示,P1-1、P1-2、P1-3为前景点,P2-1、P2-2、P2-3为背景点,交叉配对后产生<P1-1,P2-1>、<P1-1,P2-2>、<P1-1,P2-3>、<P1-2,P2-1>、<P1-2,P2-2>、<P1-2,P2-3>、<P1-3,P2-1>、<P1-3,P2-2>、<P1-3,P2-3>共9个点对。

采用相似关系S来表示点对特征,相似关系反映的是点对<p1,p2>p1、p2两点所代表局部区域的相似性。相似关系S的取值有两种情况:1(相似)、0(不相似)。为弱化局部区域亮度差异对相似性的影响,本文通过归一化交叉相关(NCC)来评估以点p1、p2为中心的局部区域的相似程度。相似关系为

$S\left( {{p_1},{p_2}} \right) = \left\{ {\matrix{ 1 & {NCC\left( {{p_1},{p_2}} \right) \ge T{H_{NCC}}} \cr 0 & {NCC\left( {{p_1},{p_2}} \right) < T{H_{NCC}}} \cr } } \right.$ (1)

式中,NCC(p1,p2)表示使用NCC计算得到的两点局部区域相似程度,其值域为(0,1],局部窗口大小为5×5;THNCC表示相似关系判别阈值,大于等于该值为相似,小于该值为不相似

2.3 点对的有效性判断

通过上述方法,可以提取大量初始点对。为得到更加鲁棒的点对特征,提出两个有效性判断原则用于筛选初始点对,判断原则描述如下:

1)点对<p1,p2>在第i类车标的所有样本中是否具有相同的相似关系;

2)点对<p1,p2>在非第i类车标的所有样本中是否具有不同的相似关系。

将基于标准车标图像提取的点对映射到从卡口监控系统中获取的车标样本上,统计点对相似关系在样本中的出现频率,以此判断点对的有效性。首先,将点对映射到相同种类的车标样本上,以进行上述第一个原则的判断,称此过程为“共性筛选”;然后,将其映射到其他种类的车标样本上,以进行上述第2个原则的判断,称此过程为“异性筛选”。经过“共性筛选”和“异性筛选”,剩余的点对为有效点对。

2.3.1 共性筛选

针对第i类车标,判断初始点对在第i类车标训练样本上的相似关系。记初始点对j在第i类车标样本中呈现“相似”、“不相似”关系的概率分别为fij(1)、 fij(0),其计算公式为

${f_{ij}}\left( 1 \right) = {1 \over N}\mathop \sum \limits_x \left( {{S_j}\left( x \right) = = 1} \right)$ (2)

${f_{ij}}\left( 0 \right) = {1 \over N}\mathop \sum \limits_x \left( {{S_j}\left( x \right) = = 0} \right)$ (3)

式中,x表示第i类车标的训练样本,N表示第i类车标的训练样本数,Sj(x)表示将点对j映射到样本x上后计算得到的相似关系。

将出现概率高的相似关系作为初始点对j在第i类车标中呈现的最终相似关系,记为Sij,则

${S_{ij}} = \left\{ {\matrix{ 1 & {{f_{ij}}\left( 1 \right) \ge {f_{ij}}\left( 0 \right)} \cr 0 & {{f_{ij}}\left( 1 \right) < {f_{ij}}\left( 0 \right)} \cr } } \right.$ (4)

其出现的频率为fij

${f_{ij}} = {\rm{max}}\left( {{f_{ij}}\left( 1 \right),{f_{ij}}\left( 0 \right)} \right)$ (5)

针对第i类车标,点对j的特征由点对j的位置<p1,p2>、相似关系Sij和相似关系出现频率fij表示。由上述的第1个判断原则可知,相似关系出现频率越高的点对越具有代表性,才能用来表示同类车标的共性特征,因此基于fij的大小来对初始点对共性筛选。筛选后的点对集合Pair'i需满足条件

$Pair{{\rm{'}}_i} = \left\{ {{{\left\langle {{p_1},{p_2}} \right\rangle }_j}\left| {{f_{ij}}} \right\rangle T{H_c},j = 1,2, \ldots ,{n_c}} \right\}$

式中,THc表示共性筛选频率的判断阈值,即出现频率达到阈值要求的点对才被选取,并用来表示车标特征,nc表示筛选后形成的点对集合Pair'i中的元素个数。

2.3.2 异性筛选

针对第i类车标,计算Pair'i中所有点对在非第i类车标训练样本上的相似关系。以点对k为例,计算点对k在非第i类车标样本上的相似关系,计算其与共性筛选中得到的相似关系不一致的频率fik,即

${f_{ik}} = {1 \over M}\mathop \sum \limits_y \left( {{S_k}\left( y \right)! = {S_{ik}}} \right)$ (6)

式中,y表示非第i类车标的训练样本,Sk(y)表示点对k在样本y上计算得到的相似关系,Sik表示点对k在共性筛选中得到的相似关系,M表示非第i类车标的训练样本数。

由上述的判断原则2)得知,在非第i类车标样本中,点对k的相似关系与Sik不同的样本数越多,说明点对k的区分性越好,越有利于后续的识别工作。因此本文基于fik的大小来判断点对k是否被选取。筛选后的点对集合Pair"i需满足条件

$Pair_i^{''} = \left\{ {{{\left\langle {{p_1},{p_2}} \right\rangle }_k}\left| {{f_{ik}}} \right\rangle T{H_s},k = 1,2, \ldots ,{n_s}} \right\}$

式中,THs表示异性筛选频率的判断阈值,ns表示筛选后形成的点对集合Pair"i中的元素个数。Pair"i为最终的有效点对集合。

经过共性筛选和异性筛选,获得最后能够有效描述车标的特征点对,并保留每个点对对应的相似关系、相似关系出现频率信息,用于后续识别过程。

2.4 车标识别

将各类车标的点对特征集合作为模板分别映射到待识别样本上,判断点对在该样本上的相似关系与训练得到的是否一致。建立了一个匹配度衡量函数m,以评价待测车标与点对特征模板的匹配度,然后选取匹配度最大的一类作为识别结果。待测样本在第i类车标下的匹配度为

$m\left( i \right) = \mathop \sum \limits_{j \in Pair_i^{''}} \left( {S\left( j \right) = = {S_{ij}}} \right) \times {f_{ij}}$ (7)

式中,j表示有效点对集合Pair"i中的点对,Sij、fij分别表示第i类车标有效点对集合中的点对j训练得到的相似关系及其出现频率,S(j)表示点对j在待测样本上得到的相似关系。

通过交叉配对方式生成的点对,在经过有效性判断,去除不满足要求的一些点对后,特征点间并非完全连通,可以根据连通关系将其划分为几个区域(如图 4所示)。同一连通区域满足要求的点对越多,对最终匹配度的影响越大。

图 4 连通关系示意图
Fig. 4 Connection relationship of pixel pairs

针对第i类车标的特征点对,记被划分的连通区域数为Ti,连通域t对最终匹配度的影响系数为Ci(t),则

${C_i}\left( t \right) = \left\{ {\matrix{ {\left( {{F_i}\left( t \right) - 1} \right)/{\rm{lo}}{{\rm{g}}_2}{N_{it}},} & {{F_i}\left( t \right) > 1} \cr {0,} & {{F_i}\left( t \right) \le 1} \cr } } \right.$ (8)

式中,Nit表示连通域t内包含的点对数,Fi(t)表示连通域t内相似关系与训练得到的一致的点对数量。连通影响系数Ci(t)不仅考虑了连通域内满足要求的点对,也考虑了该连通域内包含的点对数Nit,削弱了Nit较大时对Ci(t)的影响。进行连通关系之后,待测样本在第i类车标下的匹配度为

$M\left( i \right) = \mathop \sum \limits_{j \in Pair_i^{''}} \left( {S\left( j \right) = = {S_{ij}}} \right) \times {f_{ij}} + \mathop \sum \limits_{t = 1}^{{N_{it}}} {C_i}\left( t \right)$ (9)

3 实验结果与分析

为验证算法的有效性与普遍性,本文使用大量测试数据进行验证。测试数据均为交管部门提供的由公路车辆智能检测监控记录系统(简称卡口系统)抓拍的过车图像,从中截取的20类车标共计19 044张车标数据,其中4 434张用于训练,以提取点对特征,14 610张用于测试实验,将包含白天、黑夜等各种情况下的14 610张车标图像形成测试样本1。为了测试本文算法在恶劣光照条件下的性能,从测试样本1中选取恶劣光照下的车标图像2 326张,形成测试样本2,测试样本集示例如图 5所示。本文样本尺寸均归一化为50×50像素。

图 5 样本示例
(a) 测试样本1 (b) 测试样本2
Fig. 5 Example of test sets
(a) test set 1; (b) test set 2

本文实验环境Win7+VS2012+opencv2.4.11,所用PC配置为Intel Core i5 CPU、8 GB RAM。为了进行算法有效性检验,本文在相同软硬件开发环境下将本文算法PF-FBSA与文献[14]算法、文献[11]中的HOG+SVM算法,以及LBP+SVM算法进行对比分析。PF-FBSA算法在实现过程中,一些参数的设置如下:随机取点时,分别在前景和背景骨架区域各取200个点,交叉配对产生40 000个初始点对;相似关系判别阈值THNNc=0.85;共性筛选频率判断阈值THc=0.85。为使实验更加充分,将测试样本1分为7个子测试集,本文算法PF-FBSA与文献[11]中的HOG+SVM算法、文献[14]算法、LBP+SVM算法在7个子测试集下的识别率如表 1所示。

表 1 不同算法的识别率比较
Table 1 Recognition rate comparison between our method and other methods

下载CSV
测试集样本数/张识别率/%
HOG+SVMLBP+SVM文献[14]算法PF-FBSA
1210091.689.990.797.1
2210089.888.789.798.0
3210087.490.190.193.5
4210091.687.986.594.7
5210087.581.392.097.4
6210092.285.791.894.9
7201093.790.086.194.4
总计1461090.587.689.695.7

表 1可以看出,本文提出的PF-FBSA算法与HOG+SVM算法[11]和LBP+SVM算法相比,平均识别率有了显著提高,这说明针对车标的识别,点对特征与传统的HOG、LBP特征相比,更能有效地对车标进行描述。与文献[11]算法相比,PF-FBSA算法的平均识别率提高了6%左右,说明本文的点对特征在考虑灰度特征变化的同时,也考虑了车标的形状特征,因此更具有稳定性和代表性。

文献[14]中的一个重要贡献是RUSS随机取点算法的提出。本文算法的取点方式为均匀随机,这是因为:在前背景分开取点的情况下,前背景骨架区域面积较小,易出现狭长形状,此时RUSS随机取点算法并不能获得最优的结果,即RUSS取点方式不适用于该场合。为验证上述结论的有效性,将PF-FBSA中的取点方式改为RUSS,对比在两种取点方式下算法的平均识别率,和取点时间复杂度,结果如表 2所示。从表 2可以看出,采用均匀随机取点方式,不仅提高了算法的平均识别率,且降低了时间复杂度,使得训练效率得到了很大提升。

表 2 PF-FBSA采用两种不同取点方式的比较
Table 2 The comparison of two sampling methods

下载CSV
样本数/张平均识别率/%取点时间复杂度
RUSS均匀随机RUSS均匀随机
1461094.995.7O(N2)O(N)

在实际应用中,各类样本数量不一致,识别算法的性能不能靠平均识别率唯一确定。为了对算法进行更全面的比较,图 6给出了本文算法、文献[11]算法、文献[14]算法和LBP+SVM算法的ROC曲线。从ROC曲线可以看出,与其他算法相比,本文算法更加接近于坐标轴的左上角,说明本文算法在负正类率(FPR)相同的情况下真正类率(TPR)更高,即有更多的正样本被正确区分。

图 6 各类算法ROC曲线比较图
Fig. 6 ROC curves of different algorithms

PF-FBSA算法在提取车标的点对特征时,所提取最终有效点对数对算法的识别效果有一定影响。本文在提取不同点对数的情况下,对算法的平均识别率进行测试,实验结果如图 7所示。从图 7可以看出,PF-FBSA算法的识别率曲线变化情况大致分为4个阶段:1) 识别率随着有效点对数的增加而递增,这是因为有效点对数太少时无法充分体现出各类车标的特点;2) 识别率达到最高并趋于平稳;3) 识别率随着有效点对数的增加而减少,这是因为有效点对数过多会造成冗余的特征对结果产生更多干扰;4) 识别率趋于平稳。实验结果表明,在有效点对数为70时,识别率达到最高值95.7%,因此本文将各类车标的有效点对数设置为70。

图 7 平均识别率随有效点对数n变化曲线
Fig. 7 Effect of different n on average recognition rate

表 3展示了PF-FBSA算法在多种归一化尺寸下的平均识别率。由表 3结果得知,归一化尺寸为50×50时平均识别率最高。大多数车标图像在截取中得到的原始尺寸在40×40到50×50之间,归一化尺寸为50×50时最接近车标图像的原始尺寸,损失的信息最少。

表 3 归一化尺寸对识别率的影响
Table 3 Effect of different normalized size on average recognition rate

下载CSV
归一化尺寸平均识别率/%
30×3095.1
40×4095.5
50×5095.7
60×6094.9

由于PF-FBSA算法以前背景骨架区域点周围的相似性变化作为比较标准,在弱光照情况下具有更强的鲁棒性。为验证这一观点,基于测试样本2进行一组测试实验。基于测试样本1和测试样本2,各种算法所获得的测试结果如图 8所示。从图 8中可以看出,在两个测试样本下,PF-FBSA的识别率高于文献[14]算法、HOG+SVM算法[11]和LBP+SVM算法,而针对恶劣光照下车标的识别,其平均识别率变化的幅度更小,证明了本文算法在弱光照情况下具有更强的鲁棒性。

图 8 基于不同测试样本获得的识别结果
Fig. 8 Recognition rate achieved based on different test sets

4 结论

本文综合考虑车标图像的结构特征和灰度特征,提出了一种基于前背景骨架区域随机点对策略驱动下的车标识别方法——PF-FBSA。该方法考虑车标图像的结构特征,将其划分为前景区域和背景区域,然后提取前、背景骨架区域,分别在其中进行随机取点,形成特征点对,并通过共性筛选和异性筛选,对特征点对的有效性进行判断,将有效特征点对形成特征模型,用于后续的识别。在车标识别过程中,充分考虑实际情况,采用计算多连通域下的匹配度来对其相似性进行度量,以判断车标的类型。实验结果表明,本文算法与其他一些基于灰度特征,及没有考虑车标结构特征的点对特征的算法相比,识别率得到了有效的提升,尤其是在弱光照条件下,本文算法的鲁棒性均高于其他几种算法。

在实际的智能交通系统中,获得的部分车标样本与本文提供的测试样本相比,分辨率更低,受天气、光照影响的程度更大,如何进一步提高车标识别算法在恶劣条件下的识别率,将一直成为我们的研究聚焦点。

参考文献

  • [1] Psyllos A, Anagnostopoulos C N, Kayafas E. Vehicle model recognition from frontal view image measurements[J]. Computer Standards & Interfaces , 2011, 33 (2) : 142–151. DOI:10.1016/j.csi.2010.06.005
  • [2] Wang Y Q, Liu Z F, Xiao F. A fast coarse-to-fine vehicle logo detection and recognition method[C]//Proceedings of IEEE International Conference on Robotics and Biomimetics. Sanya, China: IEEE, 2007: 691-696.[DOI: 10.1109/ROBIO.2007.4522246]
  • [3] Sam K T, Tian X L. Vehicle logo recognition using modest adaboost and radial tchebichef moments[C]//Proceedings of the 20124th International Conference on Machine Learning and Computing. Singapore: IACSIT Press, 2012, 25: 91-95.
  • [4] Dai S J, He H, Gao Z Y, et al. Vehicle-logo recognition method based on tchebichef moment invariants and SVM[C]//Proceedings of WRI World Congress on Software Engineering. Xiamen, China: IEEE, 2009: 18-21.[DOI: 10.1109/WCSE.2009.263]
  • [5] Badura S, Foltán S. Advanced scale-space, invariant, low detailed feature recognition from images-car brand recognition[C]//Proceedings of 2010 International Multiconference on Computer Science and Information Technology. Wisla, Poland: IEEE, 2010: 19-23.[DOI: 10.1109/IMCSIT.2010.5679924]
  • [6] Bay H, Tuytelaars T,Van Gool L. SURF: speeded up robust features[C]//Proceedings of the 9th European Conference on Computer Vision. Berlin Heidelberg: Springer, 2006: 404-417.[DOI: 10.1007/11744023_32]
  • [7] Lowe D G. Object recognition from local scale-invariant features[C]//Proceedings of the Seventh IEEE International Conference on Computer Vision. Kerkyra,Greece: IEEE, 1999, 2: 1150-1157.[DOI: 10.1109/ICCV.1999.790410]
  • [8] Dalal N, Triggs B. Histograms of oriented gradients for human detection[C]//Peoceedings of IEEE Conference on Computer Vision and Pattern Recognition. San Diego, CA, USA: IEEE, 2005, 1: 886-893.[DOI: 10.1109/CVPR.2005.177]
  • [9] Psyllos A P, Anagnostopoulos C N E, Kayafas E. Vehicle logo recognition using a sift-based enhanced matching scheme[J]. IEEE Transactions on Intelligent Transportation Systems , 2010, 11 (2) : 322–328. DOI:10.1109/TITS.2010.2042714
  • [10] Yu S Y, Zheng S B, Yang H, et al. Vehicle logo recognition based on Bag-of-Words[C]//Proceedings of the 10th IEEE International Conference on Advanced Video and Signal Based Surveillance. Krakow, Poland: IEEE, 2013: 353-358.[DOI: 10.1109/AVSS.2013.6636665]
  • [11] Llorca D F, Arroyo R, Sotelo M A. Vehicle logo recognition in traffic images using HOG features and SVM[C]//Proceedings of the 16th International IEEE Conference on Intelligent Transportation Systems. The Hague, Holland: IEEE, 2013: 2229-2234.[DOI: 10.1109/ITSC.2013.6728559]
  • [12] Sun Q, Lu X B, Chen L, et al. An improved vehicle logo recognition method for road surveillance images[C]//The Seventh International Symposium on Computational Intelligence and Design. Hangzhou, China: IEEE, 2014: 373-376.[DOI: 10.1109/ISCID.2014.12]
  • [13] Xiao J L, Xiang W S, Liu Y C. Vehicle logo recognition by weighted multi-class support vector machine ensembles based on sharpness histogram features[J]. IET Image Processing , 2015, 9 (7) : 527–534. DOI:10.1049/iet-ipr.2014.0691
  • [14] Peng H Y, Wang X, Wang H Y, et al. Recognition of low-resolution logos in vehicle images based on statistical random sparse distribution[J]. IEEE Transactions on Intelligent Transportation Systems , 2015, 16 (2) : 681–691. DOI:10.1109/TITS.2014.2336675
  • [15] Zhang T Y, Suen C Y. A fast parallel algorithm for thinning digital patterns[J]. Communications of the ACM , 1984, 27 (3) : 236–239. DOI:10.1145/357994.358023