0引言随着计算机视觉技术的迅速发展,尤其是伴随自动驾驶技术的兴起和人们对高科技事物的追求,对智能交通系统智能化和人性化的需求逐渐增大。车标识别作为智能交通系统的重要组成部分,对其识别率的要求逐渐提高。车标是车辆的重要信息之一,标识了车辆的生产厂商和品牌。与车牌相比,车标不容易损坏或篡改,而与车型(车辆精细型号)相比,车标的种类明显减少,其标定难度和样本获取难度都得到了降低。因此,车标作为车辆的重要特征之一,对其识别的研究具有十分重要的价值和意义,一直受到众多研究者的青睐。据初步统计,现有车标多达300余种。车标形状多样,由各种不同的边缘线条和纹理信息构成,实际监控系统中的车标识别具有挑战性,这是因为:1) 部分车标间存在相似结构,类间差异小;2) 受实际环境的影响,同一类车标存在外观差异大的问题,即类内差异大;3) 实际监控系统中抓拍的车标图像,其分辨率非常低。已有的车标识别方法主要分为两类,基于传统特征描述的方法和基于深度学习的方法。在样本充足的情况下,基于深度学习的方法具有识别率高、鲁棒性强等优点,然而,在实际应用场景中,车标种类繁多,构建具有大规模样本的数据集需要耗费大量的时间和人力,且基于深度学习的方法计算成本高,训练时间长,对系统硬件性能有着较高的要求。与此相比,基于传统特征描述的方法不受样本的限制,且计算成本小,对硬件要求不高,更易于在实际智能交通系统中得到应用。因此,基于传统特征描述的车标识别方法仍具有十分重要的研究价值。本文主要目标是提升小样本情况下的车标识别率,采用基于传统特征描述的方法来开展研究。由于从实际监控系统中获取的车标图像,车标占比小,分辨率低,且易受拍摄环境影响,因此,车标的特征并不是非常明显,对其识别造成了一定的影响。针对这类小目标的识别,特征增强是一个很好的选择。从如何增强车标特征的角度出发,本文提出了一种特征增强策略驱动下的车标识别方法(feature enhancement based vehicle logo recognition, FE-VLR),该方法综合考虑了车标结构的左右相似性特征及车标局部显著性特性,将其与车标整体特征相融合,以进行车标的识别。本文的创新点体现在:1) 在车标特征的基础上,分析车标对称性结构特征,提取并融合车标自对称相似特征,以对车标特征进行增强,提高其独特性和可区分性;2) 基于邻域块相关度进行显著区域的计算,以提取图像局部显著信息,并将其与车标整体特征融合,从而增强车标局部特征的表达,提升识别效果。1相关工作1.1基于传统特征描述的车标识别方法基于传统特征描述的车标识别方法均基于经典的特征描述子和模式识别算法展开。SIFT(scale-invariant feature transform)特征具有尺度不变性的优点,Psyllos等人(2012)提出了一种基于SIFT改进的车标识别方法M-SIFT,通过将相似对象的关键点合并到相同的坐标和比例来提升特征的描述,提高了车标的识别率。Chen等人(2016)考虑了空间位置信息,将SIFT特征与空间金字塔结合,并使用逻辑回归分类器进行分类,该方法也获得了较好的识别效果。Yu等人(2013)和Huang等人(2018b)通过结合SIFT特征和BOW(bag-of-words)模型,实现了快速有效的识别。然而实际场景中获得的车标图像,由于其分辨率低,在小样本情况下,基于SIFT特征的方法无法提取足够的特征点,因此难以获得理想的效果。HOG(histogram of oriented gradient)特征可以很好地描述边缘梯度特征,在车标识别上获得了不错的表现(Llorca等,2013;Sun等,2014)。Vu和Caplier(2012)通过结合HOG和LBP(local binary pattern)特征,提出了一种基于POEM (patterns of oriented edge magnitudes)的识别算法,在人脸识别上获得了较好的效果。Yu等人(2018)构建了一个来自卡口图像的具有低质量、低分辨率特点的数据集,并通过重叠块策略来增强POEM特征的描述力,该方法以较少的训练样本实现了车标的识别。余烨等人(2019)在POEM基础上增强边缘梯度特征的表达,并通过特征局部量化生成特征码本以实现特征维度的精简,在不同的数据集上都获得了不错的效果。此外,稀疏表达理论在车标识别上也具有重要的应用,其核心思想是将要识别的样本表示为训练样本的线性稀疏组合,然后通过计算其重构误差来确定其属于哪个类别。Li等人(2016)针对基于稀疏表示的车辆识别的计算成本高的问题,提出了一种基于优化字典和鲁棒协作表示的车辆标识识别方法,该方法有效地提升了计算速度。为了增强特征描述,一些学者从图像的自身特性和形状、结构出发进行研究,通过分析并合理应用图像自身特点来增强车标识别效果。Burkhard等人(2011)使用傅里叶变换来提取车标的轮廓,该方法对光线变化引起的失真不敏感,与使用SIFT特征提取车标信息相比,可以获得更好的效果。Peng等人(2015)提出一种新颖的特征表示策略,它使用随机稀疏采样获得像素对,对于每个像素对,通过比较其两个像素点所在邻域的强度均值大小关系作为图像特征来描述灰度图像的分布,并采用多尺度扫描的方式对低分辨率和低质量图像进行特征提取。余烨等人(2016)考虑车标的灰度和结构信息,提出了一种基于前景—背景像素对特征的方法,该方法从前景—背景骨架区域中随机采样像素来反映实际车标成像过程中车标图案部分与背景部分的灰度明暗关系,获得了较好的识别效果,特别是在弱光照下,表现出很强的鲁棒性。1.2基于深度学习的车标识别方法随着深度学习的发展,在车标识别领域,基于深度学习的方法也得到了研究者们的重视。Huang等人(2015)引入有效的预训练策略来降低训练网络的成本,同时构建了一个车标数据集XMU(Xiamen University Vehicle Logo Dataset),该数据集包含10类共11 500幅的车标图像,每类1 500幅图像,其中1 000幅用于训练,150幅用于测试,该方法在其构建的数据集上达到了99.07%的识别率,证明了大量的训练样本可以增强车标识别的有效性和鲁棒性。Huang等人(2017)为了降低高维数据带来的复杂性和高计算量,通过采用简单的体系结构构建了一个深层的卷积神经网络(convolutional meural network, CNN),该网络可减小数据维数并加速大量样本的计算,性能优于线性支持向量机(support vector machine,SVM)、LeNet-5和GoogleNet等方法。Huang等人(2018a)通过将Faster-RCNN(region CNN)模型分别与两个不同的卷积神经网络(VGG(Visual Geometry Group)-16和ResNet-50)集成的策略,在其构建的车标数据集上获得了较好的鲁棒性。Soon等人(2019)在深度卷积神经网络(deep CNN, DCNN)的基础上,通过白化变换技术来去除相邻图像像素冗余,并在Huang等人(2015)构建的数据集上达到了99.13%的识别率。2算法描述2.1算法整体思想每个车标上,有特征明显之处,也有特征不明显之处;每个车标本身是否为对称结构,左右半部分相似度如何,都可以作为区分车标的特征之一。在提取车标特征时,如果仅仅考虑整体车标的单一特征描述方式,在车标种类众多,且部分车标存在结构、纹理等相似的情况下,难以进行区分。存在一些类别的车标,其整体设计结构相似,仅有轻微的差别,但是通过车标结构的对称度可以辅助其进行较好的区分(如图 1所示)。此外,车标图像设计紧凑,一些车标具有相同的外轮廓形状,而具有辨别性的信息大都集中在轮廓内部,这些具有辨别性的显著局部特征可以辅助进行更好的分类。基于上述分析,从对车标特征进行增强的角度出发,提出了一种特征增强策略驱动下的车标识别方法FE-VLR。该方法在车标整体特征的基础上,考虑车标的自对称相似特征和局部显著特征,将这些特征进行融合,以对整体特征进行加强,提高特征的可区分性和独特性。 图1 HFUT-VL车标数据集中的一些车标图像 Some images from HFUT-VL datasetFig 1((a) HONDA; (b) HYUNDAI; (c) INFINITI; (d) RELY) 本文算法整体步骤描述如下(如图 2所示):首先,提取车标的自对称相似特征;同时,基于车标图像,构建其金字塔模型,得到不同尺度下的车标图像;在不同尺度下,一方面,进行局部显著区域的检测和其特征的提取,另一方面,提取车标图像的整体特征。局部显著特征和车标整体特征均使用HOG特征来进行描述。将自对称相似特征、局部显著特征和车标整体特征进行融合,然后基于CRC (collaborative representation based classification)分类器实现车标的最终分类和识别。具体的实现细节将在后续小节中进行详细描述。 图2 算法流程图 Diagram of our algorithmFig 22.2车标自对称相似特征提取2.2.1自对称相似特征分析车标图像设计多样,部分车标具有对称结构,或左右两半部分具有相似性。通过对HFUT-VL(Vehicle Logo Dataset from Hefei University of Technology)车标数据集中80类常见车标进行统计后发现,对称性车标种类数接近一半,如奔驰、丰田和大众等(如图 3(a)所示),而左右部分具有相似性的占据20%,如英菲尼迪、吉利和雪佛兰等(如图 3(b)所示)。车标图像的自对称相似度是一种有效判别信息,可以作为一种辅助信息,用于车标图像的识别。因此,本文把车标自对称相似特征作为一种辅助特征,用于对车标整体特征进行增强。 图3 左右对称或相似的车标图像 Vehicle logo images ((a) logo images with symmetrical structure; (b) logo images with similar structure between left and right part)Fig 3本文基于车标自身结构特征的相似性计算其自对称相似特征。通过滑动窗口提取图像不同局部区域的特征,然后迭代计算局部区域特征之间的最小欧氏距离,使用欧氏距离值来表达图像的自对称相似特征。距离值越小,则图像越趋于对称性结构,距离值越大,则可以认为该车标图像越趋于非对称结构。2.2.2自对称相似特征提取输入一幅$W$×$H$的原图像,设置大小为$m$×$n$滑动窗口,滑动步长为$l$,在水平方向上从左向右滑动,则滑动次数$k$计算为 1 $k=\left\lfloor\frac{W-m}{l}\right\rfloor+1$ 1) 选取基准特征。对于所得的$k$个滑动窗口,在水平方向上从左至右依次选取基准特征${\mathit{\boldsymbol{f}}^{\left(i \right)}}$, $i \in \left[ {1, \left\lfloor {k/2} \right\rfloor } \right]$。在第1次循环中首先选取第1个滑动窗口,并提取其HOG特征${\mathit{\boldsymbol{f}}^{\left(1 \right)}}$为基准特征。2) 计算最小距离。将位于第${\left\lfloor {k/2} \right\rfloor }$个滑动窗口之后的滑动窗口进行翻转,并提取其HOG特征,然后依次计算所得特征${\mathit{\boldsymbol{f}}^{\left(j \right)}}$与基准特征的欧氏距离$d={dist}\left(\boldsymbol{f}^{(i)} \boldsymbol{f}^{(j)}\right), j \in[\lfloor k / 2\rfloor+1, k]$,距离值越小,则表明两个图像块之间的相似度越大。从所得距离值中选取最小距离值$D$为本次循环的自对称相似度值,即 2 $D=\min \left[d_{1}, d_{2}, \cdots, d_{\lfloor k / 2\rfloor}\right]$ 3) 计算最终自对称相似度值。依次将下一个图像块特征${\mathit{\boldsymbol{f}}^{\left(2 \right)}}$作为基准特征,重复步骤2),并更新图像块的自对称相似度值。经过多次循环后,得到最终的自对称相似度值,将其融合到图像的整体特征中以增强图像特征信息。2.3局部显著特征提取与整幅车标图像的特征相比,车标中心部分区域信息密集、有效信息占比更高,其特征更具有独特性和区分性。这些区域属于局部显著区域,因此提出了一种利用图像局部显著区域信息来对车标特征进行进一步增强的方法。该方法的具体步骤描述如下:1) 计算消除背景的车标幅值图。车标图像周围往往伴随着水平、垂直或网格状的格栅,对显著性特征检测有一定的影响。而去掉背景后的车标幅值图像,能够很好地保留车标纹理特征,有利于显著性特征检测(Liu等,2015)。因此,首先计算消除背景的车标幅值图。基于Prewitt边缘检测算法,对图像$\mathit{\boldsymbol{I}}$进行水平和垂直方向的滤波,以有效消除图像中水平和垂直方向的纹理。基于式(3)和式(4)计算水平和垂直方向上的幅值图${\mathit{\boldsymbol{W}}_1}$和${\mathit{\boldsymbol{W}}_2}$,即 3 $\boldsymbol{W}_{1}=\boldsymbol{I} \otimes \boldsymbol{P}^{\mathrm{T}} \otimes \boldsymbol{Q}^{\mathrm{T}}$ 4 $\boldsymbol{W}_{2}=\boldsymbol{I} \otimes \boldsymbol{P} \otimes \boldsymbol{Q}$ 式中,$\mathit{\boldsymbol{I}}$为原图像,$ \otimes $为卷积操作,$\mathit{\boldsymbol{P}}$和${\mathit{\boldsymbol{P}}^{\rm{T}}}$为Prewitt算子垂直和水平方向上的滤波模板,$\mathit{\boldsymbol{P}}$=$\left[\begin{array}{ccc}-1 & -1 & -1 \\ 0 & 0 & 0 \\ 1 & 1 & 1\end{array}\right]$,$\mathit{\boldsymbol{Q}}$为方向模板,$\mathit{\boldsymbol{Q}}$=[-1  1]。为减少图像中噪声的影响,基于${\mathit{\boldsymbol{W}}_1}$和${\mathit{\boldsymbol{W}}_2}$中能量较小的方向幅值图进行下一步的操作,即为消除背景后的车标幅值图 5 $\boldsymbol{W}=\left\{\begin{array}{ll}\boldsymbol{W}_{1} & E\left(\boldsymbol{W}_{1}\right)E\left(\boldsymbol{W}_{2}\right) \\\boldsymbol{W}_{2} & E\left(\boldsymbol{W}_{1}\right) \geqslant E\left(\boldsymbol{W}_{2}\right)\end{array}\right.$ 式中,计算车标幅值图的整体能量值$E$为 6 $E(\boldsymbol{W})=\sqrt{\sum W_{i j}^{2}}$ 式中,${W_{ij}}$为像素点的幅值。图 4显示了车标图像以及提取车标幅值图的过程。图 4(a)为原车标图像;图 4(b)为对应的Prewitt水平滤波图像;图 4(c)为对应的Prewitt垂直滤波图像;图 4(d)、(e)和(f)分别对应水平方向、垂直方向和最终的幅值图。从图 4可以看出,所获得的车标幅值图可以保留车标的纹理特征,同时有效地去除了背景,减少了栅格等背景纹理的影响。 图4 消除车标周围背景 Eliminate the background around the car logo ((a)original images; (b)horizontally Prewitt filtered images; (c)vertically Prewitt filtered images; (d)${\mathit{\boldsymbol{W}}_1}$; (e)${\mathit{\boldsymbol{W}}_2}$; (f)$\mathit{\boldsymbol{W}}$)Fig 42) 计算显著性图。邻域块可以很好地帮助分析图像局部区域的特征。设$g=(x, y)$为图像$\mathit{\boldsymbol{W}}$中的像素点,取以此像素点为中心,大小为$n$×$n$的方形区域,记为该点的邻域块$\mathit{\boldsymbol{p}}\left(g \right)$。计算邻域块的块强度为 7 $T(\boldsymbol{p}(g))=\sqrt{\sum\limits_{(i, j) \in \boldsymbol{p}(g)} W_{i j}^{2}}$ 通过计算每个像素点的块强度获得整幅图像的强度图$\mathit{\boldsymbol{T}}$如图 5(b)所示。强度大小可以反映特征的显著性,强度越大则显著性越强。显著性区域内包含多个邻域块,而邻域块之间的距离和相似度也可以反映出不同邻域块同属于显著性区域的可能性。邻域块之间的距离越小,相似度越大,则邻域块位于显著区域内的可能性越大。基于块相关度进行显著性区域提取步骤如下: 图5 车标原图及对应的强度图与显著图 The original image of the vehicle logo and the corresponding intensity map and saliency mapFig 5((a) original images; (b)intensity maps; (c)saliency maps; (d)saliency blocks) 首先,计算强度图$\mathit{\boldsymbol{T}}$的质心位置,其可以反映密集特征的中心位置。计算为 8 $M_{x}=\frac{\sum\limits_{x=1}^{w} \sum\limits_{y=1}^{h} x \cdot T(x, y)}{\sum\limits_{x=1}^{w} \sum\limits_{y=1}^{h} T(x, y)} $ 9 $M_{y}=\frac{\sum\limits_{x=1}^{w} \sum\limits_{y=1}^{h} y \cdot T(x, y)}{\sum\limits_{x=1}^{w} \sum\limits_{y=1}^{h} T(x, y)}$ 式中,$w$和$h$为强度图的宽和高,$T(x, y)$为$(x, y)$位置处对应的强度值。然后,以质心$g_{0}=\left(M_{x}, M_{y}\right)$位置的邻域块为基准,通过距离公式计算其他位置邻域块与其之间的相似度$s$和位置距离$d$,并得到对应的相关度$f$。计算为 10 $s=\left|T(g)-T\left(g_{0}\right)\right|^{2} $ 11 $d=\frac{\left(x-M_{x}\right)^{2}+\left(y-M_{y}\right)^{2}}{\lambda}$ 12 $f\left(g, g_{0}\right)=\frac{T(\boldsymbol{p}(g))}{\mathrm{e}^{(d+s)}}$ 式中,距离控制变量$λ$与图像的宽和高相关,本文在实验中设置其值为图像面积的0.01倍。最终像素点$g$处的显著性特征值 13 $R(g)=1-\exp \left(-k \cdot f\left(g, g_{0}\right)\right)$ 式中,显著性控制变量$k$为20。基于上述过程获得的车标显著性图如图 5(c)所示。将显著块区域映射到车标图像上,可以提取其显著块信息。本文使用HOG特征来进行显著块的描述,即为局部显著特征。并将局部显著特征、车标整体特征和自对称相似特征进行融合,以对车标整体特征进行增强。2.4特征融合与车标识别特征融合过程如图 6所示。针对金字塔的每一层,拼接该层下获得的局部显著特征和车标图像整体特征。将每层金字塔的上述特征再进行拼接,最后与自相似特征进行拼接,获得最终的特征向量。 图6 特征融合方式 The process of feature fusionFig 6在得到图像的最终特征之后,本文结合不同的分类器进行实验。其中,基于协同表示的分类器CRC是一种快速有效、适用小训练样本情况的分类器。该分类器在稀疏表示的基础上进行改进,通过正则化最小二乘法来高效求解,并使用样本字典中所有样本协同编码来表示预测样本,从而借助不同类别车标之间同一属性的差异来提高识别率。因此,本文采用CRC作为车标识别的分类器。3实验结果与分析3.1实验环境与实验数据集硬件环境:Intel Core i7-3770、24 GB RAM;软件环境:Windows10操作系统、MATLAB R2018a开发平台。本文基于公开的HFUT-VL(Vehicle Logo Dataset from Hefei University of Technology)和XMU(Xiamen University Vehicle Logo Dataset)车标数据集开展实验。HFUT-VL为Yu等人(2018)构建的车标数据集,包含80类国内道路上常见车标图像,每类各有200幅。HFUT-VL来自于实际道路卡口图像,可以真实地表达受到各种外界因素影响的图像质量,图像大小为64×64像素,dpi(dots per inch)低于100,具有低质量、低分辨率的特点。与大多数现有的车标数据集相比,该数据集车标类别更多,能够验证车标识别方法的性能,数据集中的部分图像如图 7所示。 图7 HFUT-VL车标数据集中的部分样本 Samples from HFUT-VL datasetFig 7XMU为Huang等人(2015)构建的车标数据集,共包含10类热门车标图像,其中训练集单类1 000幅图像,测试集单类150幅图像。XMU数据集中的车标图像通过自动检测与定位的方法获得,为了模拟各种噪声效果,车标图像被各种失真(光照、旋转和不同种类的噪声)处理。虽然XMU数据集在车标种类上具有局限性,但图像中各种噪声和光照的问题可以很好地验证车标识别算法的鲁棒性,数据集中的部分图像如图 8所示。 图8 XMU车标数据集中的部分样本 Samples from XMU vehicle logo datasetFig 83.2特征的有效性分析为了验证自对称相似特征和局部显著特征的有效性,进行消融实验。首先,在不同的训练样本数下,在车标整体特征上融合自对称相似特征,如图 9所示,车标的识别率均得到了一定的提升。这说明车标图像的自对称相似特征可以对整体特征进行增强。需要说明的是,图像的自对称相似特征只有1维,不会造成图像特征过大和识别速度降低。 图9 自对称相似度特征对车标识别的影响 Influence of self-symmetrical similarity characteristics on vehicle logo recognitionFig 9然后,在车标整体特征上融合局部显著特征,从图 9可以看出,与仅使用车标整体特征相比,此时的识别率有了明显的提升。这是因为车标局部显著区域中包含了丰富的特征,可以有效地对车标整体特征进行增强。最后,在车标整体特征上融合自对称相似特征和局部显著特征,结果表明其识别率最高,在仅有5幅训练样本下可以达到97.78%的识别率,而在15幅训练样本时识别率可以达到99.01%,实现了在小样本下的高准确率识别。这表明上述3种特征是可以互补的,其融合能有效地增强车标特征,提升车标的识别率。3.3分类器的有效性分析对使用不同分类器的识别结果进行了对比和分析,结果如表 1所示。从实验结果可以看出,在训练样本数量较少的情况下,CRC分类器由于其协同性表现出一定的优势,在训练样本数低于20时,其识别率高于KNN(K-nearest neighbors)和SVM分类器。而当样本数量增加时,由于数据集中各类样本数量均衡,KNN分类器表现得更加有效。SVM分类器也能达到较好的识别率,但在小训练样本情况下,其稍微弱于CRC分类器,而在样本数较多时,其稍弱于KNN分类器。因为本文主要考虑小样本情况下的车标分类问题,因此,最终选择了CRC分类器。 表1 不同分类器的比较 训练样本数/幅 KNN SVM CRC 5 97.68 97.75 97.78 10 98.69 98.79 98.88 15 98.94 98.9 99.01 20 99.22 98.79 99.10 30 99.35 99.07 99.13 50 99.47 99.30 99.43 100 99.70 99.45 99.45 Comparison of different classifiers  /%Table 1 加粗字体表示最优结果。3.4实验结果比较3.4.1基于HFUT-VL数据集的实验结果比较为验证FE-VLR算法在车标识别上的有效性,将其与其他一些已有的车标识别方法进行了对比,包括HOG+SVM (Llorca等,2013)、SIFT+LCC(local coordinate coding) (Ou等,2014)、OE-POEM(overlapping enhanced patterns of oriented edge magnitudes) (Yu等,2018),与上述车标识别方法的比较结果如表 2所示。从表 2中可以看出,FE-VLR的识别率优于其他的一些车标识别方法,尤其是当训练样本较少(在5幅以下)时,该方法的优越性更加明显。 表2 本文方法与其他方法在HFUT-VL数据集上的对比 算法 训练样本数/幅 3 4 5 10 20 HOG+SVM 92.20 92.80 92.40 95.0 96.7 SIFT+LCC 67.03 70.11 74.52 84.3 89.6 OE-POEM 96.30 97.01 97.30 98.4 98.9 FE-VLR 97.29 97.49 97.78 98.88 99.1 Comparison of our method with other algorithms on HFUT-VL dataset  /%Table 2 加粗字体表示每列最优结果。为进一步说明本文方法的有效性,也与其他一些基于深度学习的方法进行了比较。在样本较少时,深度学习的方法不能得到充足的训练,无法获得较好的表现。在样本数逐渐增多的情况下,虽然基于深度学习的方法识别率会明显增加,但是本文方法的表现也并不差。从表 3中可以看出,当训练样本数逐步增加时,本文方法的识别率仍然高于基于深度学习的方法。 表3 本文方法与深度学习方法在HFUT-VL数据集上的比较 算法 训练样本数/幅 5 10 30 50 100 150 SeNet-154 71.34 85.48 93.14 95.30 96.80 98.93 ResNet50 72.37 82.41 93.13 96.20 98.38 98.97 darknet53 73.71 83.18 94.06 96.16 96.28 99.23 FE-VLR 97.78 98.88 99.13 99.43 99.45 99.467 Comparison of our method with other deep learning algorithms on HFUT-VL dataset  /%Table 3 加粗字体表示每列最优结果。3.4.2基于XMU数据集的实验结果比较XMU数据集与HFUT-VL数据集的区别为,种类少,仅有10类,但是每类的样本数量多。为验证FE-VLR方法的鲁棒性,在XMU数据集上也开展了对比实验,实验结果如表 4和表 5所示。 表4 本文方法与其他方法在XMU车标数据集上的比较 算法 训练样本数/幅 5 10 15 20 30 50 HOG+SVM 49.85 63.24 67.36 72.14 80.87 90.27 SIFT+LCC 48.39 60.43 68.06 74.83 79.86 86.40 OE-POEM 64.11 78.54 84.48 87.26 92.06 96.40 FE-VLR 72.89 87.82 91.69 93.01 95.32 97.74 Comparison of our method with other algorithms on XMU vehicle logo dataset  /%Table 4 加粗字体表示每列最优结果。 表5 本文方法与深度学习方法在XMU车标数据集上的比较 算法 训练样本数/幅 5 10 30 50 100 150 SeNet-154 48.41 70.75 94.31 98.66 99.57 99.82 ResNet50 39.94 71.14 94.89 97.42 99.92 99.88 darknet53 38.62 63.76 95.30 98.18 99.81 99.89 FE-VLR 72.89 87.82 95.32 97.74 98.98 98.25 Comparison of our method with other deep learning algorithms on XMU vehicle logo dataset  /%Table 5 加粗字体表示每列最优结果。如表 4所示,在XMU车标数据集上,当训练样本数增加时,本文方法的识别率逐渐增加。在小训练样本情况下,本文方法的识别率表现最好。尤其是在20幅训练样本及以下,本文方法的识别率与具有较好表现的OE-POEM算法相比平均提升了6.5%。随着训练样本的增加,在50幅样本时,识别率可以达到97.74%,验证了本文方法的鲁棒性。表 5为FE-VLR与基于深度学习方法在XMU数据集上的实验结果。显然,基于深度学习的方法在小样本下的表现非常差,很难满足实际情况下的车标识别应用需要。而本文基于特征增强的方法在小样本下具有极大的优势,可以获得较高的识别率。虽然当样本数达到50以上时,基于深度学习的方法其识别率要高于FE-VLR,但FE-VLR的表现也不弱。综上,在小样本情况下,FE-VLR算法比基于深度学习的一些车标识别方法更符合实际需要。4结论在综合考虑车标的对称结构特征、局部显著性特征的基础上,将车标的自对称相似特征和局部显著特征与车标整体特征相融合,提出了一种特征增强策略驱动下的车标识别方法FE-VLR。在对车标的左右对称或相似特征进行分析的基础上,通过计算图像块的欧氏距离获得其相似度值,用来对相似度特征进行表示。在对车标局部显著特征进行分析的基础上,通过基于邻域块相关度的显著区域计算方法来获取局部显著区域,并用HOG特征来表示显著块的特征。最后,通过特征融合,对车标图像的整体特征进行增强,并基于CRC分类器进行最终车标的分类识别。在公开的HFUT-VL和XMU数据集上对实验结果进行分析,实验结果表明,在小样本情况下,FE-VLR的识别率高于其他已有的一些车标识别方法,且优于一些基于深度学习模型的识别方法。在实际的智能交通系统中,即使是识别率的微小提升也能带来非常大的经济和社会价值,而在小样本情况下,如何获得高的识别率仍然具有很大的挑战。如何在确保识别速度的同时,进一步提高车标识别算法在低质量图像上的识别率,将是未来研究的聚焦点。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读