|
发布时间: 2017-11-16 |
图像分析和识别 |
|
|
收稿日期: 2017-05-03; 修回日期: 2017-08-05
基金项目: 国家自然科学基金项目(61601213);第61批中国博士后面上基金项目(2017M611252);辽宁省教育厅一般项目(LJYL017)
第一作者简介:
贾迪(1982-), 男, 副教授, 2011年于东北大学获计算机应用专业博士学位, 主要研究方向为图像的PDE处理、立体匹配、3维重建。E-mail:lntu_jiadi@163.com.
中图法分类号: TP391
文献标识码: A
文章编号: 1006-8961(2017)11-1512-09
|
摘要
目的 图像模板匹配法常用于寻找像对间区域的对应关系,目前尚存的问题有:1)随着摄影基线的增加,待匹配区域在目标影像中有效信息逐渐降低;2)匹配区域的选择对匹配结果准确性影响较大。为了解决上述问题,提出一种基于分值图的图像模板选择与匹配方法。方法 首先利用图像多通道特征,提出采用抽样矢量归一化相关算法SV-NCC(sampling vector-normalized cross correlation)度量两幅图像间区域一致性,增加多通道特征间的有效信息对比,以此降低噪声与光照对模板匹配的影响。其次,在矢量空间中对图像进行分块聚类,将模板区域根据颜色特征分为几类,统计匹配图像的每个区域类中心颜色在待匹配图像中相似数量的倒数作为度量值,其值越大则颜色或颜色组合在目标图像中相似的概率越小,以该位置为基础选取模板进行匹配的准确率越高。最后,给出依据分值图排序模板区域的方法,并选取高分值区域作为最终的模板选择区域。结果 实验采用公共数据集从两个方面对本文方法进行客观评价:1)在摄影基线变换不大的情况下,SAD与SV-NCC方法的准确率均较高,达到90%以上。随着摄影基线的增大,采用SAD方法匹配准确率降低速率更快,在第6幅Graf图像的测试中匹配准确率低于20%,而SV-NCC方法匹配准确率高于40%;2)随着摄影基线的增大,落在高分值图区域匹配的正确率高于未落在高分值图区域匹配的正确率,由此可见高分值图区域的合理选择将提高模板匹配方法的准确率,验证了本文分值图与选择最佳模板匹配位置方法的有效性。结论 该方法从定量和定性比较上都体现了较好的像对匹配能力,其匹配结果适用于影像融合、超分辨率重建及3维重建等技术中的先期处理步骤。
关键词
归一化互相关; 模板匹配; 分值图; 密度聚类; 摄影基线
Abstract
Objective
Template matching algorithms consider all possible transformations, such as rotation, scaling, and affine transformations.Template matching algorithms are commonly used to find the corresponding image regions between image pairs.However, the two following issues negatively affect its accuracy.1) When the photography baseline increases, the effective information of the area to be matched in the target image decreases and the matching accuracy gradually decreases.2) The choice of matching areas significantly influences the matching accuracy; thus, the matching results may differ considerably by selecting different regions as matching templates.We propose a template selection and matching algorithm for image matching to resolve these problems.
Method
First, sampling vector normalized cross-correlation (SV-NCC) is proposed to measure the regional consistency between two images by multichannel features.The proposed method discards two parameters, i.e., Δ
Key words
normalized cross correlation; template matching; score map; density clustering; photographic baseline
0 引言
模板匹配算法通常考虑所有可能的变换,包括旋转、尺度及仿射变换。Alexe等人[1]提供了一种高效的计算方式处理两幅图像匹配窗口中的高维矢量,该方法提取两个窗口重叠部分的边界,并使用它去限制与匹配多窗口。Tsai等人[2]提出使用波分解与环形投影提高匹配准确率,并重点考虑了旋转变换。Kim等人[3]给出一种灰度模板匹配方法,该方法具备较好地抗旋转与尺度变换。Yao等人[4]提出一种搜索颜色纹理的方法,该方法同样考虑了旋转与尺度变换。在宽基线条件下,后3种方法存在匹配质量不高的问题。另一项相关研究为Tian等人[5]的工作,该方法对密度形变场进行参数估计,是一种从目标变换参数空间中获得最小变换距离的方法。FAST-Match[6]由Korman等人于2013年提出,该方法通过抽样计算匹配区域像素间最小化SAD(sum of absolute differences)判定匹配结果,并使用全局模板匹配[7]实现加速搜索,但对彩色图像匹配前需要预先转化为灰度图像。文献[8]以该方法为基础,实现了一种由粗到精的区域选择与匹配。CFAST-Match由Jia等人[9]提出,通过计算模板区域中不同颜色所占比例提高彩色图像模板匹配的准确性,但该方法需要对部分参数依据经验进行设置,此外该方法使用了密度聚类(DBSCAN[10]),在处理大尺寸图像时执行时间长,降低了该方法的实用性。
在实际同物方影像的采集过程中,随着摄影基线的增大,待匹配区域在目标影像中有效信息逐渐降低,这种情况下利用图像中的多种信息、选择合适的待匹配位置成为提高匹配准确性的有效手段,为此本文提出一种基于分值图的图像模板选择与匹配方法。主要贡献点为:1) 提出抽样矢量归一化方法(SV-NCC),提高彩色图像块间匹配的实用性;2) 依据选取的模板中所包含的颜色或颜色组合在待匹配图像中越少,则匹配正确性概率越高这一规律,提出一种分值图的计算方法,利用分值图排序模板区域,并选取高分值区域作为最终的模板选择区域,通过实验验证了本文方法的有效性。
1 SV-NCC度量彩色图像块间相似性
彩色图像灰度化的过程中将损失部分重要信息。如图 1(a)所示,该图由3种颜色构成,其RGB的值分别为(69,0,0)、(0,35,0)、(0,0,182)。图 1(b)是由图 1(a)灰度化后获得的结果。可见,红、绿、蓝区域转化后的灰度相同,其值均为21。因此当使用模板匹配算法时,损失了原有图像中的颜色信息,可能导致匹配错误率升高。
令图像I1与I2间的区域相似性
$ {{\Delta }_{T}}\left( {{\mathit{\boldsymbol{I}}}_{1}}, {{\mathit{\boldsymbol{I}}}_{2}} \right)=\frac{1}{n_{1}^{2}}\sum\limits_{p\in {{I}_{1}}}{\left| {{I}_{1}}\left( p \right)-{{I}_{2}}\left( T\left( p \right) \right) \right|} $ | (1) |
式中,
$ {{d}_{T}}\left( {{\mathit{\boldsymbol{I}}}_{1}}, {{\mathit{\boldsymbol{I}}}_{2}} \right)=\frac{1}{n_{1}^{2}}\sum\limits_{p\in {{\mathit{\boldsymbol{I}}}_{1}}}{F\left( {{I}_{1}}\left( p \right), {{I}_{2}}\left( T\left( p \right) \right) \right)} $ | (2) |
$ \begin{array}{l} F\left( {{I_1}\left( p \right), {I_2}\left( {T\left( p \right)} \right)} \right) = \\ \left\{ \begin{array}{l} |(I_1^R(p)-I_2^R(T(p))| + |I_1^G(p)-I_2^G(T(p))| + \\ \;\;\;\;\;\;|I_1^B(p)-I_2^B(T(p))|) * \Delta s\left( p \right)\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;D(C({I_1}(p)), {I_2}(T(p))) \le r\\ 1\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;D(C({I_1}(p)), {I_2}(T(p))) > r \end{array} \right. \end{array} $ |
式中,R、G、B为彩色图像中RGB通道的颜色值,D(*)用来计算两个输入参数间的相似性,
为了解决上述问题,考虑摒弃Δ
$ \begin{align} & {{\Delta }_{T}}\left( {{\mathit{\boldsymbol{I}}}_{1}}, {{\mathit{\boldsymbol{I}}}_{2}} \right)= \\ & \frac{\sum\limits_{p\in {{I}_{1}}}{\sum\limits_{m\in K}{\left[\begin{matrix} |I_{1}^{V\left( m \right)}\left( p \right)-E\left( I_{1}^{V\left( m \right)}\left( p \right) \right)|\cdot \\ \left| I_{2}^{V\left( m \right)}\left( T\left( p \right) \right)-E\left( I_{2}^{V\left( m \right)}\left( T\left( p \right) \right) \right) \right| \\ \end{matrix} \right]}}}{\sqrt{\begin{align} & \sum\limits_{p\in {{I}_{1}}}{\sum\limits_{m\in K}{{{\left[I_{1}^{V\left( m \right)}\left( p \right)-E\left( I_{1}^{V\left( m \right)}\left( p \right) \right) \right]}^{2}}\cdot }} \\ & \sum\limits_{p\in {{I}_{1}}}{\sum\limits_{m\in K}{{{\left[I_{2}^{V\left( m \right)}\left( T\left( p \right) \right)-E\left( I_{2}^{V\left( m \right)}\left( T\left( p \right) \right) \right) \right]}^{2}}}} \\ \end{align}}} \\ \end{align} $ | (3) |
式中,M与N为模板的长和宽,
1) 令输入彩色图像为I1与I2,精度参数
2) 根据
2 分值图与选择最佳模板匹配位置
采用模板匹配算法匹配两幅图像时,匹配模板位置的选择对匹配准确率影响很大。图 3(a)由4种色块构成,图 3(b)为图 3(a)经过仿射变换得到。图 3(a)中的A—D区域为模板选择区域,在与图 3(b)进行匹配时,由于模板A—C均存在多相似性区域,导致很难获得准确的匹配结果,而模板D中存在的颜色组合唯一,在图 3(b)中仅位于图像中心处,因此容易准确匹配。由此可见,选择颜色或颜色组合在目标图像中出现尽可能少的区域作为模板容易提高匹配的准确率。
尽管如此,由于图 3(a)中每个区域在图 3(b)中进行比较是一件非常耗时的事,因此采用如下方法解决该问题:在矢量空间中对图像进行聚类,将模板区域根据颜色分为几类,统计匹配图像的每个区域类中心颜色在待匹配图像中相似数量的倒数作为度量值,为每个区域打分,分数越高则颜色或颜色组合在目标图像中相似的概率越小, 即
$ {S_{{\rm{Map}}}}\left( {i, j} \right) = \frac{1}{{{C_{{\rm{Sim}}}}\left( {{I_1}\left( {i, j} \right), {\mathit{\boldsymbol{I}}_2}} \right) + o}} $ | (4) |
式中,I1与I2分别为待匹配与匹配图像,
1) 将图像I1与I2根据块大小的设定进行分块,分别获得N1、N2个分块,构成集合B1、B2;
2) 分别对于每个分块的 < R G B > 3维数据进行密度聚类(DBSCAN)处理,获得集合DB1、DB2;
3) 分别求取DB1、DB2中每个分块内部同类标号(标号为DBSCAN密度聚类算法的输出结果,标号相同的位置代表同一类)的相同通道均值,记为
4) 将S1与S2中前3项
5) 计算S1到S2的每个s单元间
6) 构造行列分别为
7) 输出分值图SM(ScoreMap)。
需要说明的是,上述过程中虽然用到了DBSCAN算法,但由于对图像进行了分块处理,因此无论图像尺寸有多大,均不会极大增加像素聚类的处理时间。另外,分块聚类尽管会出现“马赛克”的现象,但不会影响后续分值的计算。利用上述分值图,通过积分图的方式排序每个模板区域,将前
1) 计算分值图SM的积分图[9],记为SMSAT;
2) 设定待匹配模板大小为W×H;
3) 遍历SMSAT中的每个点
$ \begin{array}{c} BS = SAT\left( {i + W, j + H} \right) + SAT\left( {i, j} \right)-\\ SAT\left( {i + W, j} \right)-SAT\left( {i, j + H} \right) \end{array} $ |
构造
4) 依据BS的值由大到小排序集合中的单元
5) 从S[0]开始,通过S中的
6) 返回R作为最后的模板选择结果。
3 实验分析
选用4核主频为3.3 GHz的CPU,内存8 GB的计算机作为实验环境,Matlab编码。采用牛津大学数据Graf[11],其中包含6张不同视角拍摄的同目标影像,以及建筑影像数据Pascal VOC 2010[12],模板大小设置为100×100、
图 4为描述分值图生成过程的示例图。图 4(a)为两幅包含相同场景的宽基线影像。采用分块密度聚类方法,获得如图 4(b)所示的结果。以该结果作为输入,采用本文第2节给出的分值图计算方法,得到如图 4(c)所示的结果。由图 4(c)可见,分值最高(灰度值)的区域为对应原图中的黄色区域,而该区域在目标图像中存在的部分最少;灰色区域的分值最低,而该类区域在目标图像中存在的部分最多,因此可以直观地反映分值图计算方法的正确性。利用第2节方法(分值图)确定分块位置,并分别采用文献[6]和本文方法进行实验获得如图 5的实验结果。图 5(a)为采用本文第2节给出方法标记模板位置的图像,图 5(b)为采用本文第1节给出方法获得的匹配结果,图 5(c)为采用文献[6]获得的匹配结果。图 5(d)与(e)分别为图 5(b)与(c)中每个匹配位置的区域放大图。由图 5(d)可见,Ⅰ、Ⅱ、Ⅲ、Ⅳ、Ⅴ、Ⅸ、Ⅹ、Ⅺ、Ⅻ为正确的匹配区域,因此其匹配准确率为9/12=75 %,而图 5(e)中,仅有Ⅱ、Ⅲ、Ⅴ为正确匹配区域,因此其准确率为25 %,验证了本文第2节给出方法的有效性。
图 6(a)为采用随机方法确定的模板位置(模板间不重叠,尽可能使模板分布均匀),图 6(b)为采用本文第1节方法获得的匹配结果,相应的局部放大区域如图 6(c)所示。由图 6(c)可见,正确的匹配区域为Ⅱ、Ⅵ、Ⅸ、Ⅻ,因此其匹配准确率为33 %,低于75 %。对比图 5(d)与图 6(c)明显可见,依据分值表选择的模板匹配准确性更高,验证了本文第1节给出方法的有效性。图 7选择的实验影像为另一组宽基线影像,图 7(a)标记的模板区域由图 7(b)的分值图获得,图 7(c)与图 7(d)分别为采用本文方法和文献[6]的方法获得的匹配结果,尽管两幅图像中存在着多相似性区域,但从实验结果上同样验证了本文方法优于文献[6]给出的方法。图 8为一组采用牛津大学数据Graf[11]获得的法性能评估图,由图 8(a)可见随着图像编号的增加,摄影基线在逐渐增大。图 8(b)为采用第1节给出的方法与文献[6]方法的对比结果。由图可见,在摄影基线变换不大的情况下,两种方法的准确率较高,均达到90 %以上。随着摄影基线的增加,文献[6]所采用的SAD方法匹配准确率降低速率更快,如在编号为6的图像中,本文所采用的SV-NCC方法匹配准确率高于40 %,文献[6]的方法匹配准确率低于20 %。图 8(c)为采用本文第1节给出的方法匹配所有位置的实验结果,粉色曲线为落在高分值图区域(分值高于平均值)且匹配正确的比率,蓝色曲线为未落在高分值图区域且匹配正确的比率。由图可见,高分值图区域的合理选择将提高模板匹配方法的准确率,同样验证了本文第2节给出方法的有效性。为了缩短算法的处理时间,采用多核CPU通过并行DBSCAN算法处理对每个分块进行密度聚类。例如,采用一颗8核的CPU处理的800×600像素的图像,当分块大小为100×100时,平均耗时2.8 s。其次,排序分值图利用了积分图SAT,同样降低了计算复杂度,提高了本文方法的执行效率。
4 结论
为了提高模板图像匹配的准确率,引入彩色图像的多通道特征,提出抽样矢量归一化互相关方法SV-NCC计算区域间的相似性。通过选择两幅图像中越少的颜色或颜色组合区域,在进行区域随机抽样匹配时准确率越高这一规律,给出一种基于分值图的模板选择方法,提高了模板匹配的准确率。实验结果表明,本文方法对彩色图像匹配有着较高的适用性,在需要更高匹配准确率的应用环境下,可结合RANSAC剔除误匹配区域,从而为后续图像融合、3维重建等高级图像处理提供更好的支持。与基于点特征匹配方法相比,模板类匹配方法由于需要比较所有的变换区域,因此执行速度较慢。下一步将以本文方法中的分值图为基础,研究模板匹配空间搜索方法,提高模板匹配的运行速度。
参考文献
-
[1] Alexe B, Petrescu V, Ferrari V.Exploiting spatial overlap to efficiently compute appearance distances between image windows[C]//Advances in Neural Information Processing Systems 24:25th Annual Conference on Neural Information Processing Systems.Spain, Curran Associates Inc, 2011, 24:2735-2743.
-
[2] Tsai D M, Chen C H. Rotation-invariant pattern matching using wavelet decomposition[J]. Pattern Recognition Letters, 2002, 23(1-3): 191–201. [DOI:10.1016/S0167-8655(01)00099-X]
-
[3] Kim H Y, de Araújo S A.Grayscale template-matching invariant to rotation, scale, translation, brightness and contrast[C]//Advances in Image and Video Technology.Santiago de Chile, Chile:Springer, 2007:100-113.[DOI:10.1007/978-3-540-77129-6_13]
-
[4] Yao C H, Chen S Y. Retrieval of translated, rotated and scaled color textures[J]. Pattern Recognition, 2003, 36(4): 913–929. [DOI:10.1016/S0031-3203(02)00124-3]
-
[5] Tian Y, Narasimhan S G. Globally optimal estimation of nonrigid image distortion[J]. International Journal of Computer Vision, 2012, 98(3): 279–302. [DOI:10.1007/s11263-011-0509-0]
-
[6] Korman S, Reichman D, Tsur G, et al.FAsT-match:fast affine template matching[C]//Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition.Portland, OR:IEEE, 2013:2331-2338.[DOI:10.1109/CVPR.2013.302]
-
[7] Penate-Sanchez A, Porzi L, Moreno-Noguer F.Matchability prediction for full-search template matching algorithms[C]//Proceedings of 2015 International Conference on 3D Vision.Lyon, France:IEEE, 2015:353-361.[DOI:10.1109/3DV.2015.47]
-
[8] Yang Y C, Lu Z J, Sundaramoorthi G.Coarse-to-fine region selection and matching[C]//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition.Boston, MA:IEEE, 2015:5051-5059.[DOI:10.1109/CVPR.2015.7299140]
-
[9] Jia D, Cao J, Song W D, et al. Colour FAST (CFAST) match:fast affine template matching for colour images[J]. Electronics Letters, 2016, 52(14): 1220–1221. [DOI:10.1049/el.2016.133]
-
[10] Han J W, Kamber M. Data Mining:Concepts and Techniques[M]. San Francisco: Morgan Kaufmann Publishers, 2001.
-
[11] Mikolajczyk K, Schmid C. A performance evaluation of local descriptors[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(10): 1615–1630. [DOI:10.1109/TPAMI.2005.188]
-
[12] Everingham M, Van Gool L, Williams C K I, et al. The Pascal visual object classes (VOC) challenge[J]. International Journal of Computer Vision, 2010, 88(2): 303–338. [DOI:10.1007/s11263-009-0275-4]