Print

发布时间: 2017-12-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.170222
2017 | Volume 22 | Number 12




    遥感图像处理    




  <<上一篇 




  下一篇>> 





结合非监督分类和几何-纹理-光谱特征的高分影像道路提取
expand article info 韩洁1,2, 郭擎1, 李安1
1. 中国科学院遥感与数字地球研究所, 北京 100094;
2. 中国科学院大学, 北京 100049

摘要

目的 目前针对复杂场景高分辨率遥感影像道路提取多采用监督分类方法,但需要人工选择样本,自动化程度低且具有不稳定性。基于像元级的方法,提取完整度低且易产生椒盐噪声;面向对象的方法易产生粘连问题。为了提高道路提取的完整度、准确度和自动化程度,提出一种基于非监督分类和几何-纹理-光谱特征的道路提取方法。方法 首先考虑光谱特征利用非监督分类进行初步分割,结合基于纹理特征分类的结果得到初始道路区域。然后根据道路特征建立一套完整的非道路区域滤除体系:边缘滤波断开道路和非道路的连接、纹理滤波滤除大面积非道路区域、形状滤波去除剩余小面积非道路区域。最后利用张量投票算法得到连贯、平滑的道路中心线。结果 选择复杂场景下的高分辨率IKONOS影像和QuickBird影像进行实验,与国内外基于像素和面向对象的两种有代表性的道路提取方法进行对比,采用完整率、正确率、检测质量3个评价指标进行定量评价。实验结果表明该方法相比于其他算法在完整率、正确率和检测质量上平均提高26.61%、5.57%和26.77%。定性分析结果表明,本文方法可以有效改善椒盐噪声和粘连现象。此外本文方法的自动化程度更高。结论 提出了一种基于非监督分类和几何-纹理-光谱特征的高分辨遥感影像道路提取方法,非监督相对于监督分类的方法有更高的自动化程度,复杂场景下的道路提取融合几何-纹理-光谱特征有效避免了基于像元级道路提取易产生的椒盐噪声现象和面向对象道路提取易产生的粘连现象。该方法适用于高分辨率遥感影像城市道路提取,能够得到较高的完整度、准确度以及自动化程度。非监督分类和多特征结合的道路提取方法有广阔的应用前景。

关键词

非监督分类; 纹理特征分类; 边缘滤波; 形状滤波; 道路提取

Road extraction based on unsupervised classification and geometric-texture-spectral features for high-resolution remote sensing images
expand article info Han Jie1,2, Guo Qing1, Li An1
1. Institute of Remote Sensing and Digital Earth, Chinese Academy of Sciences, Beijing 100094, China;
2. University of Chinese Academy of Sciences, Beijing 100049, China
Supported by: National Natural Science Foundation of China(61771470)

Abstract

Objective Road extraction in complex scenes for high-resolution remote sensing images is mostly performed using the supervised classification method. However, this method requires the manual selection of samples, thereby leading to low degree of automation and instability. The pixel-based extraction method exhibits low completeness and can easily produce salt-and-pepper noise. The object-oriented method can easily produce adhesion problem. In this study, a road extraction method based on unsupervised classification and geometrical-textural-spectral features (i.e., unsupervised classification and fused features, UCFF) is proposed to improve the completeness, accuracy, and automation of road extraction. In the UCFF method, the unsupervised classification avoids the artificial sample selection steps; its fusion of spectral, geometrical, and textural features produces extraction results of high accuracy. The proposed UCFF road extraction method still presents high completeness and accuracy while improving the degree of automation. Method The UCFF method mainly includes three parts:the road candidate area extraction, non-road area filtering, and road centerline extraction. The road candidate area extraction involves two steps. First, spectral features are adopted for unsupervised classification. The ISODATA method is used in the unsupervised classification. However, the non-road area of similar spectral features is easily separated into roads by the unsupervised classification. Second, another classification based on textural feature is applied. Given that most of the non-road and road areas significantly differ in textural features, the classification based on textural feature can be used to distinguish road area from the non-road area with similar spectral features. The textural feature used is the variance of four different directions:horizontal, vertical, diagonal, and back-diagonal. A 3×3 sliding window with a center pixel is used to calculate the variance. When all the variances in four directions are less than the threshold, the center pixel is considered the road. By combining the two classification results, the road candidate region is obtained. For the non-road area filtering, edge, texture, and shape filters are gradually applied. The edge filter is used to disconnect road and non-road connections. A Canny method is performed to extract the edge. The roads are considered not on the edge. If a point in the image is an edge, then it is not the road. The textural feature is used to filter large non-road area that is wider than the road, such as large parking lots and buildings. In the binary image, the road is narrow and is a long connected area. A window that is slightly larger than the width of the road is selected. In this window, the textural feature value of the non-road area is less than that of the road area. When the textural feature value is less than the threshold, the center pixel is considered the non-road and should be filtered. Finally, a shape index (i.e., linear feature index) is used to filter the remaining small non-road area and thus extract the final road area. For the road centerline extraction, a tensor voting algorithm is used. Result Experiments on high-resolution remote sensing images are conducted to verify the effectiveness of the proposed method. High-resolution IKONOS images of Australia's Hobart region and QuickBird images of Texas, USA, in complex scenes are employed. Another two typical pixel-based and object-oriented road extraction methods at home and abroad are compared to further prove the feasibility and effectiveness of the proposed method. Three indexes of completeness, accuracy, and detection quality are used for quantitative evaluation. Quantitative analysis shows that the three indexes of the proposed method are averagely 26.61%, 5.57%, and 26.77% higher than those of the two other algorithms. The qualitative analysis also shows that the proposed method can effectively suppress the salt-and-pepper noise and adhesion phenomena. The method also presents high automation capability. The proposed road extraction method can be used mainly in complex scenes for high-resolution remote sensing images. The preliminary classification under unsupervised conditions can avoid the steps of sample selection in an automatic manner. The spectral feature is considered in the unsupervised classification, while the textural feature of road is fully utilized in the texture classification. Thereafter, the two road classification results are combined as the candidate region to effectively avoid the adhesion and salt-and-pepper noise phenomena. The road extraction results are smooth and complete. In the non-road filter stage, the specific nature of the road is fully used, which combines the edge, shape, and textural features to achieve the accuracy of road extraction. Conclusion A road extraction method for high-resolution remote sensing images based on unsupervised classification and geometrical-textural-spectral features is proposed. The unsupervised classification method possesses higher degree of automation than that of the supervised classification method. Road extraction under complex scenes based on geometrical-textural-spectral features can effectively avoid the salt-and-pepper noise and adhesion phenomena while obtaining high completeness and accuracy. This method is suitable for road extraction in complex scenes, such as cities, and achieves high completeness, accuracy, and automation. Unsupervised classification and multiple feature combination have broad application prospects in the road extraction. The theory can provide reference for other road extraction in future studies.

Key words

unsupervised classification; texture feature classification; edge filter; shape filter; road extraction

0 引言

随着高分辨率遥感影像的普及,基于高分辨率遥感影像目标提取已经成为研究的热点,尤其是道路提取与检测,准确、实时的路网信息在导航、更新地理信息数据库、城市规划与管理等方面具有重大意义[1]

目前国内外高分辨率遥感影像道路提取方法主要有以下几种。

1) 基于边缘约束的方法。比较有代表性的有边缘检测的方法[2]、平行曲线检测的样条曲线方法[3]和Snake算法及其改进算法[4-5]。边缘检测的方法利用Canny算子提取边缘,利用形状特征剔除道路边缘,然后进行断线连接。平行曲线检测的样条曲线方法,对检测到的边缘利用平行双边缘进行追踪。Snake算法及其改进算法,文献[4]设定初始种子点,利用Snake模型逼近道路边缘。文献[5]构造多光谱信息的四元组表达式,提出一种能够在多光谱影像上实现道路提取的Snake改进方法。基于边缘约束的方法提取的效率和自动化程度都很高,但边缘检测容易受道路与背景之间的对比度影响出现漏检和错检现象,特别是复杂场景中效果不理想,例如城市中道路的边缘遮挡比较严重,路上车辆较多,提取精度不高,且容易产生椒盐噪声现象。

2) 基于模板匹配的方法。主要有T型模板[6]法、矩形模板[7]法和人工模板[8]法。T型模板法利用最小二乘T型模板和角度纹理特征提取道路。矩形模板法设计一个矩形模板与影像做灰度差值运算,通过设定阈值提取道路。而人工模板法在影像上人工选择两个模板,计算模板与影像灰度值的相似程度来提取道路。基于模板匹配的方法提取效率高,但受模板大小和模板值的影响容易产生漏提取并且提取结果具有不稳定性[9]。上面两类又都属于像元层次道路提取算法。

3) 面向对象的方法[10-11]。文献[10]计算不同尺度下的道路特征,利用Ribbon Snake法提取道路。文献[11]在4个尺度下分别进行面向对象的分割,在分割的基础上选择道路和非道路作为正负样本,采用样本的对象级特征和光谱特征进行SVM(support vector machine)训练,融合4个尺度的提取结果得到最终的道路网络。由于正负样本是人工选择的,自动化程度低。而且影像上非道路地物种类很多,负样本的选择要兼顾到每一类非道路地物,否则不能得到理想的实验结果。此外,训练采用的对象级特征易受分割尺度的影响,存在不稳定性。面向对象的方法, 提取结果的准确率和完整率都很高,但受分割的影响容易产生粘连现象。

4) 基于知识的方法。主要包含基于Marr视觉理论[12]法和知觉编组和最优分割理论[13]法。基于Marr视觉理论法用Canny算子进行边缘检测,然后基于几何和辐射特性产生的知识制定规则对道路进行识别。知觉编组和最优分割理论法综合运用知觉编组和最优分割理论,用Gabor滤波和张量投票提取道路的几何特征进行数据编码,基于知觉编组的图像分割提取道路。基于知识的道路提取方法将道路特征与相关理论相结合,对边缘检测等方法提取的结果利用知识进行后续滤除、连接等操作,受前期提取方法的影响而具有局限性。

5) 特征融合的方法。比如形状特征和光谱特征融合[14],利用改进的长宽比指数对遥感影像分割结果进行滤波,结合光谱特征从线性特征中提取纯净道路段。再如像元级特征和对象级特征融合[15],将对象级光谱特征与像素级空间特征输入SVM分类器中,通过决策级融合得到不同尺度下的道路网络。特征融合的方法充分考虑影像中道路的光谱、几何特征,在道路提取的完整性和正确性上均取了较好的效果。但文献[15]对融合后的特征利用SVM分类,需要人工选取训练样本,这样不仅操作繁琐,自动化程度低,提取结果受人工样本选择的不同而存在不稳定性。

为了提高在复杂场景中道路提取的完整度、准确度以及自动化程度,提出了一种基于非监督分类的高分辨率遥感影像道路提取方法,并融合道路的几何、纹理、光谱特征进行道路提取,最后利用张量投票的方法得到连贯、平滑的道路中心线。本文方法是在非监督的条件下进行的初步分类,避免了样本选择的步骤,自动化程度更高;在非监督分类时充分考虑到光谱特征,基于纹理特征的分类时充分利用道路的纹理特征,两个分类结果相结合作为道路候选区域,能够有效的避免粘连现象和椒盐噪声现象的发生,使得道路提取结果更加光滑、完整;在后续非道路区域滤除时又利用道路的特有性质,融合了道路的边缘、形状与纹理特征共同实现道路精细提取,提高了道路提取的准确度。

为了验证本文道路提取方法的有效性,选择复杂场景下的高分辨率IKONOS影像和QuickBird影像进行实验,并选择国内外典型的道路提取方法[8, 11]进行对比实验,从定性和定向两个角度验证本文方法的有效性。

1 基于非监督分类和几何-纹理-光谱特征的道路提取算法

本文所提出的基于非监督分类和几何-纹理-光谱特征的道路提取算法(UCFF),如图 1所示,主要包括3个阶段:第1阶段获取道路候选区域,利用光谱特征进行非监督分类,由于容易把光谱特征相似的非道路误分成道路,其中大部分地物和道路具有较大纹理差异,所以又基于纹理特征进行分类,结合两者分类结果得到道路候选区域;第2阶段非道路区域滤除,首先利用边缘滤波断开道路和非道路区域的连接,然后利用纹理滤波滤除大面积的非道路区域,最后利用形状指数LFI(linear feature index)进行形状滤波滤除剩余小面积非道路区域,得到最终道路提取结果;第3阶段是用张量投票算法提取道路中心线。

图 1 道路中心线提取流程
Fig. 1 Flow chart of the road centerline extraction

1.1 提取道路候选区域

1.1.1 非监督分类

道路在影像上与其他地物有明显的光谱差异,利用非监督分类的方法可以在没有先验知识的情况下使用光谱信息对影像进行分类。ISODATA(iterativeself-organizing data analysis techniques algorithm)算法[16]也称为迭代自组织数据分析算法,是常用的非监督分类方法。该算法能很好地实现光谱聚类,任意给定初值都能得到较好的分类结果[17]。算法的核心思想是随意或者根据经验知识确定类别参数,随机选择初始聚类中心,按照最小距离准则把样本分给聚类中心得到初始聚类。该方法使用合并与分裂机制,当某两类聚类中心距离小于阈值时,将其合并为一类,当某一类标准差大于阈值时或样本数目超过阈值时,将其分裂为两类。当某类样本数目少于阈值时,将其取消。每一次分裂、合并操作后,修正各聚类中心的值。最终迭代得到比较理想的分类结果。

1.1.2 基于纹理特征的分类

仅根据光谱特征分类很容易把一些光谱相似却与道路截然不同的地物例如沥青屋顶、水泥花坛、与道路连接的娱乐设施等误分为道路[18-19],这些地物在后续的处理中由于形状与道路相似很难被滤除掉。由于道路本身比较光滑,与其他地物的粗糙纹理有明显的差异,本文利用纹理特征对影像进行分类来解决这一问题。首先设定3×3的滤波窗口,然后在4个方向(如图 2)上计算窗口内影像的方差,其中( $i$ , $j$ )处为窗口中心像素。

图 2 计算纹理特征的4个方向
Fig. 2 Four directions for computing texture features

方差计算公式为

$ {{\bar D}_d} = \frac{1}{3}\sum\limits_{n = - p,m = - q}^{n = p,m = q} {{v_{i + n,j + m}}} $ (1)

$ {{\bar D}_d} = \frac{1}{3}\sum\limits_{n = - p,m = - q}^{n = p,m = q} {{{\left( {{v_{i + n,j + m}} - \bar v} \right)}^2}} $ (2)

式中,( $i$ + $n$ , $j$ + $m$ )为像素坐标,$ {v_{i + n, j + m}} $是像素点的灰度值,$ {\bar v_d} $$ {\bar D_d}\left( {d = 1, 2, 3, 4} \right) $分别是4个方向上像素的平均值和方差。水平方向$ d = 1:p = 0, q = 1 $;竖直方向$ d = 2:p = 1, q = 0 $;正对角线方向$ d = 3:p = 1, q = 1 $;反对角线方向$ d = 4:p = - 1, q = 1 $。最后通过人工设定阈值判断窗口中心点( $i$ , $j$ )是否为道路,如果4个方向的方差值都小于阈值,认为这个区域内的对象是匀质的道路区域,得到基于纹理特征的分类结果。然后把非监督分类和基于纹理特征分类结果相结合得到最终的道路候选区域。

1.2 非道路区域滤除

1.2.1 边缘滤波

经过非监督分类和基于纹理特征的分类得到的道路候选区域图像,存在一些与道路相连的非道路部分。由于其与道路部分连接,很难直接利用形状大小滤波将其移除,从而产生粘连现象[20]。为了解决这一问题,提出一种边缘滤波方法。连通的道路在交叉处是平滑的,但是道路和非道路地物的连接处因材质不同会存在边缘,首先利用Canny算子提取原始全色影像的边缘,认为在边缘存在的位置不存在道路,在候选道路上把边缘存在处赋值为0。这样就把现实中道路与相邻的非道路区域隔离开。原理公式为

$ C = \left\{ \begin{array}{l} 1\;\;\;A\;是道路且\;B\;不是边缘\\ 0\;\;\;其他 \end{array} \right. $ (3)

式中, $A$ 是二值图像上的候选道路点, $B$ 是经Canny边缘提取后的边缘点, $C$ 是经边缘滤波后的道路二值图像。

1.2.2 纹理滤波

非监督分类和基于纹理特征分类得到的道路候选区域中仍存在与道路有相似的光谱和纹理特征被误分为道路的非道路区域,例如大型停车场和建筑物等。利用纹理滤波来滤除这些宽度大于道路的大面积非道路区域。在道路候选二值图像中,道路是狭长的连通区域,连通区域内部的值为1,背景值为0。采用纹理特征分类中方差的计算方法,选择一个略大于道路宽度的窗口遍历二值图像计算方差。道路内部的点,4个方向上的方差都比较大。大面积非道路区域,窗口遍历到内部时全为1,4个方向上方差比较小。因此,4个方向上方差都小于阈值的区域认为是非道路区域进行滤除。

1.2.3 形状滤波

由于道路是狭长的连通区域[21],它们都有较大的面积和长宽比。利用长宽比-线性特征指数 $\rm{LFI}$ (linear-feature index)[22],如图 3所示,对经过边缘滤波和纹理滤波的道路候选二值图像进行形状滤波,滤除一些剩余小面积的地物和长宽比较接近的例如房屋屋顶等地物。 $\rm{LFI}$ 的计算步骤如下:

图 3 $\rm{LFI}$ 示意图
((a) interest area;(b) new rectangle)
Fig. 3 Illustration of the $\rm{LFI}$ computation

1) 寻找二值图像的连通区域(4或8连通),并计算它们的最小外接矩形。以外接矩形的对角线 $L$ 为长边建立新矩形,新矩形的面积等于连通区域的面积, 即

$ LW = N,{L^2} = L_{{\rm{MER}}}^2 + W_{{\rm{MER}}}^2 $ (4)

式中, $L$ $W$ 分别为新矩形的长度和宽度;$ {L_{{\rm{MER}}}} $, $ {W_{{\rm{MER}}}} $分别为二值图像连通区域最小外接矩形的长和宽; $N$ 为道路连通区域像素的个数。

2) $\rm{LFI}$ 的计算公式为

$ {L_{{\rm{LFI}}}} = \frac{L}{W} = \frac{L}{{N/L}} = \frac{{{L^2}}}{N} $ (5)

考虑到道路狭长的特性,道路区域有较大的 $\rm{LFI}$ 指数,设定一个阈值,可以把房屋屋顶等非狭长的地物滤除。

1.3 道路中心线提取

由于道路网络是相互交叉的连通区域,普通的形态学细化方法提取道路中心线容易产生毛刺,线性回归方法又不能很好地处理交叉路口。因此,本文道路中心线的提取采用张量投票算法,该算法可以提取道路网络中的交叉区域[23],利用交叉区域将道路网络分解为互不重叠、独立的道路段,计算局部极大值,进行断线连接得到完整的道路中心线。张量投票算法包括3个部分:张量编码、张量传递和张量分解[24-26]

1) 张量编码。对于2维空间中的点,可以用张量表示为

$ \begin{array}{*{20}{c}} {\mathit{\boldsymbol{T}} = \left[ {{\mathit{\boldsymbol{e}}_{\bf{1}}}{\mathit{\boldsymbol{e}}_{\bf{2}}}} \right]\left[ {\begin{array}{*{20}{c}} {{\lambda _1}}&\mathit{0}\\ \mathit{0}&{{\lambda _2}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {\mathit{\boldsymbol{e}}_{\bf{1}}^{\rm{T}}}\\ {\mathit{\boldsymbol{e}}_{\bf{2}}^{\rm{T}}} \end{array}} \right] = }\\ {{\mathit{\boldsymbol{\lambda }}_{\bf{1}}}{\mathit{\boldsymbol{e}}_{\bf{1}}}\mathit{\boldsymbol{e}}_{\bf{1}}^{\rm{T}} + {\mathit{\boldsymbol{\lambda }}_{\bf{2}}}{\mathit{\boldsymbol{e}}_{\bf{2}}}\mathit{\boldsymbol{e}}_{\bf{2}}^{\rm{T}} = } \end{array} $ (6)

$ \left( {{\mathit{\boldsymbol{\lambda }}_{\bf{1}}} - {\mathit{\boldsymbol{\lambda }}_{\bf{2}}}} \right){\mathit{\boldsymbol{e}}_{\bf{1}}}\mathit{\boldsymbol{e}}_{\bf{1}}^{\rm{T}} + {\mathit{\boldsymbol{\lambda }}_{\bf{2}}}\left( {{\mathit{\boldsymbol{e}}_{\bf{1}}}\mathit{\boldsymbol{e}}_{\bf{1}}^{\rm{T}} + {\mathit{\boldsymbol{e}}_{\bf{2}}}\mathit{\boldsymbol{e}}_{\bf{2}}^{\rm{T}}} \right) $ (7)

式中,$ {\lambda_1} $$ {\lambda_2} $为特征值且满足$ {\lambda _1} \ge {\lambda _2} \ge 0 $$ {\mathit{\boldsymbol{e}}_1} $$ {\mathit{\boldsymbol{e}}_2} $为相应的特征向量,$ {\mathit{\boldsymbol{e}}_1}{\mathit{\boldsymbol{e}}_1}^{\rm{T}} $$ {\mathit{\boldsymbol{e}}_1}{\mathit{\boldsymbol{e}}_1}^{\rm{T}} + {\mathit{\boldsymbol{e}}_2}{\mathit{\boldsymbol{e}}_2}^{\rm{T}} $分别为棒状分量和球状分量; $ \left( {{\lambda _1} - {\lambda _2}} \right) $$ {\lambda _2} $为对应棒状特征和球状特征的显著性指标。

2) 张量传递。

对图像中的每一个像素点进行张量编码之后,每一个像素点的张量向四周投票来传递方向性和显著性信息,即投票的方向和大小。方向性信息的传递如图 4所示,假设 $O$ 为投票者的位置, $P$ 为接受者所在的位置, $C$ 为通过点 $P$ $O$ 的密切圆的圆心,通过密切圆的传播路线保持曲率,所以 $P$ 所收到的投票方向平行于密切圆⊙ $C$ (以 $C$ 为圆心)在 $P$ 处径向的向量。

图 4 张量投票示意图
Fig. 4 Tensor voting diagram

显著性信息的传递由显著性衰减函数决定,即

$ DF\left( {s,\kappa ,\sigma } \right) = {{\rm{e}}^{ - \left( {\frac{{{s^2} + c{\kappa ^2}}}{{{\sigma ^2}}}} \right)}} $ (8)

式中,$ s = \frac{{l\theta }}{{\sin \theta }} $,为 $OP$ 间的弧长;$ k = \frac{{2\sin \theta }}{l} $为曲率; $c$ 控制了曲率的退化程度; $σ$ 称为尺度因子,影响投票域的大小。 $c$ $σ$ 的关系式为

$ c = \frac{{ - 16\ln \left( {0.1} \right) \times \left( {\sigma - 1} \right)}}{{{{\rm{ \mathsf{ π} }}^2}}} $ (9)

3) 张量分解。

当张量投票结束后,每一个像素点获得一个新的张量,利用式(6)(7)对每一个像素点的张量进行张量分解,获得每一个点的棒状分量$ \left( {{\lambda _1} - {\lambda _2}} \right) $和球状分量$ {\lambda _2} $的显著性。根据球状分量的特点,交叉区域有较高的球状分量值。使用以下条件判断像素点是否在交叉区域,并通过简单的阈值法对道路网进行分解:

(1) 当$ \left( {{\lambda _1} - {\lambda _2}} \right) > {\lambda _2} $时,该像素点为位于曲线上的点;

(2) 当$ {\lambda _1} \approx {\lambda _2} > 0 $时,该像素点为位于一个区域内部点或者交叉处的点;

(3) 当$ {\lambda _1} $$ {\lambda _2} $取值都非常小,该像素判断为异常值。

最后对分解后的道路网络,计算局部极大值得到中心线,然后进行断线连接得到最终道路中心线。

2 实验结果与分析

为了验证本文方法的可行性与有效性,选择复杂场景下的两组实验数据,分别是澳大利亚Hobart地区的IKONOS影像和美国德克萨斯州地区的QuickBird影像。同时选择国内外两种典型的道路提取方法进行对比,其中Chaudhuri[8]方法是在像素层面上选择道路模板,通过计算模板与全色影像灰度值的相似程度来提取道路;黄昕[11]方法是在对象的层面上把多尺度和监督分类相结合进行道路提取。最终的精度评价从定性和定量两个角度进行,其中定量评价采用了完整率$ {E_1} $、正确率$ {E_2} $、检测质量$ {E_3} $这3个指标[27-31],计算公式为

$ {E_1} = \frac{{TP}}{{TP + FN}} $ (10)

$ {E_2} = \frac{{TP}}{{TP + FP}} $ (11)

$ {E_3} = \frac{{TP}}{{TP + FP + FN}} $ (12)

式中, $TP$ 表示正确提取的道路长度(像元个数), $FN$ 表示没有提取出的道路长度, $FP$ 表示错误提取出的道路长度。道路提取的精度需要同时考虑3个指标的结果[32]

2.1 IKONOS影像实验

实验数据为澳大利亚Hobart地区的IKONOS影像,影像大小为1 058×1 049像素,空间分辨率1 m,波段数为可见光RGB共3波段。图 5为实验采用的影像数据和目视判读得到的道路区域真实值和中心线。

图 5 实验一IKONOS数据
Fig. 5 IKONOS datatest((a) IKONOS image; (b) manual road areas; (c) manual road centerline)

首先对遥感影像利用ISODATA算法进行非监督分类,其中分类类别为5~7类,最小类间距为5,得到分类后的影像,选择类别聚类中心光谱值与道路光谱值最接近的两类为初始道路结果。然后计算全色影像的纹理特征,设定阈值500,纹理特征值小于阈值的认为是道路,得到基于纹理特征分类结果。对两个分类结果求交集,得到初始道路区域。然后用Canny算子提取全色影像的边缘,对初始道路区域进行边缘滤波,断开道路与非道路的连接,得到经边缘滤波后的道路区域。然后进行纹理滤波滤除大面积非道路区域, 阈值设置为0.20。最后对该道路区域进行形状滤波,形状滤波阈值设置为12,小于阈值的认为是非道路滤除,得到最终道路提取结果。在道路提取结果的基础上,本文利用张量投票方法提取道路中心线,中心线提取参数设置为20,并用文献[32]的方法进行连接,得到最终的道路中心线。本文方法得到的结果与Chaudhuri[8]、黄昕[11]的方法进行了对比。Chaudhuri算法中,通过人工设置两个5×5道路模板,分割参数设置为T=20,非道路区域去除,面积参数设置为50,长度参数设置为150,区域搜索参数设置为30。黄昕算法中尺度参数为30,35,40,45。提取结果如图 6所示。

图 6 IKONOS实验中不同方法所提道路区域和中心线
Fig. 6 IKONOS data experiment results((a) Chaudhuri method[8]; (b) Huang method[11]; (c) proposed UCFF method)

从IKONOS影像实验中不同方法所提道路区域和中心线结果图中可以看出,Chaudhuri算法出现了较多的漏提现象,黄昕算法产生了较多的漏提现象和毛刺,本文方法提取结果比较完善,并且中心线比较完整,目视效果好。从道路提取算法精度评价结果可以发现,本文方法的3个精度指标均处于较高的水平,证明了本文方法的有效性。Chaudhuri方法在正确性上比较好,但是会有一些漏提现象,导致完整率低。黄昕方法在完整性上比较好,但是有粘连现象,导致结果正确率低。本文方法总体上说道路提取更为完整,准确率更高,检测质量好,取得了更优的定量结果。实验精度如表 1所示。

表 1 IKONOS影像实验精度对比
Table 1 IKONOS data accuracy comparison

下载CSV
/%
方法 完整率 正确率 检测质量
本文 79.40 86.24 70.47
Chaudhuri[8] 45.51 89.21 43.14
黄昕[11] 50.33 72.47 42.25

2.2 QuickBird影像实验

实验数据为美国德克萨斯州地区的QuickBird影像,影像大小为1 043×880像素,波段数为可见光RGB,空间分辨率为2.6 m。图 7为实验采用的影像数据和目视判读得到的道路区域真实值和中心线。

图 7 实验二QuickBird数据
Fig. 7 QuickBird datatest((a) QuickBird image; (b) manual road areas; (c) manual road centerline)

对遥感影像利用ISODATA算法进行非监督分类,其中分类类别为5~6类,最小类间距为5。基于纹理特征分类的阈值是1 700,纹理滤波阈值设置为0.22,形状滤波阈值设置为13,中心线提取参数设置为15。本文方法的结果与Chaudhuri[8]、黄昕[11]的方法进行了对比。Chaudhuri方法中,通过人工设置两个5×5道路模板,分割参数设置为 $T$ =20,非道路区域去除,面积参数设置为50,长度参数设置为150,区域搜索参数设置为30。黄昕方法中尺度参数为15,20,25,35。提取结果如图 8所示。

图 8 QuickBird实验中不同方法所提道路区域和中心线
Fig. 8 QuickBird data experiment results((a) Chaudhuri method[8]; (b) Huang method[11]; (c) proposed UCFF method)

表 2 QuickBird影像实验精度对比
Table 2 QuickBird data accuracy comparison

下载CSV
/%
方法 完整率 正确率 检测质量
本文 87.16 87.01 77.12
Chaudhuri[8] 40.48 94.87 39.61
黄昕[11] 90.35 67.67 63.10

从QuickBird影像实验不同方法所提道路区域和中心线结果图中可以看出,Chaudhuri方法出现了较多的漏提现象,黄昕算法产生了较多的毛刺,本文方法提取结果比较完善,并且中心线比较完整,目视效果好。从道路提取算法精度评价对比表格中可以发现,在QuickBird实验中,Chaudhuri方法正确率较高,但是存在大量的漏提取,所以完整率较低。黄昕方法完整率较高,但是存在大量的粘连,很多与道路相连接的非道路被误分为道路,所以正确率较低。检测质量指标同时考虑到漏提和错提现象,本文方法在检测质量上高于以上两种方法,且完整率和准确率均处于较高的水平,从而证明了本文方法的有效性。

综合以上道路提取结果和精度指标评价结果,本文方法能有效避免椒盐噪声和粘连现象,相比于其他两种算法在完整率、正确率和检测质量上平均提高26.61%、5.57%和26.77%。从定性和定量两个角度来说,本文道路提取结果取得了较好的效果,能够为实际应用和其他研究方向提供参考和借鉴。

3 结论

本文提出了一种基于非监督分类和几何-纹理-光谱特征的高分辨遥感影像道路提取方法,对不同场景、不同分辨率的影像进行实验表明,本文的道路提取方法有以下特点:

1) 本文方法是一种非监督模式的高分辨率遥感影像道路提取方法,道路提取结果不依赖于样本选择的好坏,相对于监督分类的方法有更高的自动化程度。

2) 本文方法把非监督分类结果和基于纹理特征的分类结果相结合,有效避免了基于像元级道路提取易产生的椒盐噪声现象和面向对象道路提取易产生的粘连现象,取得了良好的道路提取效果。

3) 本文的道路提取方法融合了高分辨率遥感影像中道路的几何、光谱、纹理特征,使得道路提取的完整度、准确度更高。

4) 本文方法适用于高分辨率遥感影像城市道路提取。非监督分类和多特征结合的道路提取方法有广阔的应用前景,能够为道理提取其他研究提供参考和借鉴。本文方法虽然能够在高分辨率影像复杂场景下得到比较理想的提取结果,但是只考虑影像中有复杂的非道路地物的情况,对于阴影遮挡问题并未予以考虑。如何解决阴影遮挡的问题,将成为后续的主要研究内容。

参考文献

  • [1] Shi W Z, Zhu C Q, Wang Y. Road feature extraction from remotely sensed image:review andprospects[J]. Acta Geodaetica et Cartographica Sinica, 2001, 30(3): 257–262. [史文中, 朱长青, 王昱. 从遥感影像提取道路特征的方法综述与展望[J]. 测绘学报, 2001, 30(3): 257–262. ] [DOI:10.3321/j.issn:1001-1595.2001.03.014]
  • [2] Unsalan C, Sirmacek B. Road network detection using probabilistic and graph theoretical methods[J]. IEEE Transactions on Geoscience and Remote Sensing, 2012, 50(11): 4441–4453. [DOI:10.1109/tgrs.2012.2190078]
  • [3] Treash K, Amaratunga K. Automatic road detection in grayscale aerial images[J]. Journal of Computing in Civil Engineering, 2000, 14(1): 60–69. [DOI:10.1061/(ASCE)0887-3801(2000)14:1(60)]
  • [4] Anil P N, Natarajan S. A novel approach using active contour model for semi-Automatic road extraction from high resolution satellite imagery[C]//Proceedings of 2010 Second International Conference on Machine Learning and Computing. Bangalore:IEEE, 2010:263-266.[DOI:10.1109/icmlc.2010.36]
  • [5] Tang W, Zhao S H. Road extraction in quaternion space from high spatial resolution remotely sensed images basing on GVF Snakemodel[J]. Journal of Remote Sensing, 2011, 15(5): 1040–1052. [唐伟, 赵书河. 基于GVF和Snake模型的高分辨率遥感图像四元数空间道路提取[J]. 遥感学报, 2011, 15(5): 1040–1052. ]
  • [6] Lin X G, Zhang J X, Li H T, et al. Semi-automatic extraction of ribbon road from high resolution remotely sensed imagery by a Tshaped templatematching[J]. Geomatics and Information Science of Wuhan University, 2009, 34(3): 293–296. [林祥国, 张继贤, 李海涛, 等. 基于T型模板匹配半自动提取高分辨率遥感影像带状道路[J]. 武汉大学学报:信息科学版, 2009, 34(3): 293–296. ] [DOI:10.13203/j.whugis2009.03.027]
  • [7] Zhang J X, Lin X G, Liu Z J, et al. Semi-automatic road tracking by template matching and distance transformation in urban areas[J]. International Journal of Remote Sensing, 2011, 32(23): 8331–8347. [DOI:10.1080/01431161.2010.540587]
  • [8] Chaudhuri D, Kushwaha N K, Samal A. Semi-Automated road detection from high resolution satellite images by directional morphological enhancement and segmentation techniques[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2012, 5(5): 1538–1544. [DOI:10.1109/jstars.2012.2199085]
  • [9] Fu G, Zhao H R, Li C, et al. A method by improved circular projection matching of tracking twisty road from remote sensingimagery[J]. Acta Geodaetica et Cartographica Sinica, 2014, 43(7): 724–730, 738. [傅罡, 赵红蕊, 李聪, 等. 曲折道路遥感影像圆投影匹配改进追踪法[J]. 测绘学报, 2014, 43(7): 724–730, 738. ] [DOI:10.13485/j.cnki.11-2089.2014.0097]
  • [10] Laptev I, Baumgartner A, Steger C. Automatic road extraction based on multi-Scale modeling, context, and snakes[J]. International Archives of Photogrammetry & Remote Sensing, 1997, 32(3): 106–113.
  • [11] Huang X, Zhang L P. Roadcentreline extraction from high-resolution imagery based on multiscale structural features and support vector machines[J]. International Journal of Remote Sensing, 2009, 30(8): 1977–1987. [DOI:10.1080/01431160802546837]
  • [12] Trinder J C, Wang Y D. Automatic road extraction from aerial images[J]. Digital Signal Processing, 1998, 8(4): 215–224. [DOI:10.1006/dspr.1998.0322]
  • [13] Poullis C, You S Y. Delineation and geometric modeling of road networks[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2010, 65(2): 165–181. [DOI:10.1016/j.isprsjprs.2009.10.004]
  • [14] Miao Z L, Shi W Z, Zhang H. A road centerline extraction algorithm from high resolution satelliteimagery[J]. Journal of China University of Mining & Technology, 2013, 42(5): 887–892, 898. [苗则朗, 史文中, 张华. 一种高分辨率影像道路中心线提取算法[J]. 中国矿业大学学报, 2013, 42(5): 887–892, 898. ]
  • [15] Cao Y G, Wang Z P, Shen L, et al. Fusion of pixel-based and object-based features for road centerline extraction from high-resolution satellite imagery[J]. Acta Geodaetica et Cartographica Sinica, 2016, 45(10): 1231–1240, 1249. [曹云刚, 王志盼, 慎利, 等. 像元与对象特征融合的高分辨率遥感影像道路中心线提取[J]. 测绘学报, 2016, 45(10): 1231–1240, 1249. ] [DOI:10.11947/j.AGCS.2016.20160158]
  • [16] Sun J B. Principles and Applications of Remote Sensing[M]. 2nd ed. Wuhan: Wuhan University Press, 2009. [ 孙家炳. 遥感原理与应用[M]. 2版. 武汉: 武汉大学出版社, 2009.]
  • [17] Zhao S H. Experimental study of methods for high spatial resolution remote sensing data processing[J]. Earth Science Frontiers, 2006, 13(3): 60–68. [赵书河. 高分辨率遥感数据处理方法实验研究[J]. 地学前缘, 2006, 13(3): 60–68. ] [DOI:10.3321/j.issn:1005-2321.2006.03.009]
  • [18] Huang X, Zhang L P, Li P X. Classification of high spatial resolution remotelysensed imagery based on the fusion of spectral and shape features[J]. Journal of Remote Sensing, 2007, 11(2): 193–200. [黄昕, 张良培, 李平湘. 融合形状和光谱的高空间分辨率遥感影像分类[J]. 遥感学报, 2007, 11(2): 193–200. ] [DOI:10.3321/j.issn:1007-4619.2007.02.008]
  • [19] Li M M, Stein A, Bijker W, et al. Region-based urban road extraction from VHR satellite images using binary partition tree[J]. International Journal of Applied Earth Observation and Geoinformation, 2016, 44: 217–225. [DOI:10.1016/j.jag.2015.09.005]
  • [20] Wang R S, Hu Y, Zhang X M. Extraction of road networks using pan-sharpened multispectral and panchromaticquickBird images[J]. Geomatica, 2005, 59(3): 263–273.
  • [21] Dell'Acqua F, Gamba P. Detection of urban structures in SAR images by robust fuzzy clustering algorithms:the example of street tracking[J]. IEEE Transactions on Geoscience and Remote Sensing, 2001, 39(10): 2287–2297. [DOI:10.1109/36.957292]
  • [22] Miao Z L, Shi W Z, Zhang H, et al. Road centerline extraction from high-resolution imagery based on shape features and multivariate adaptive regression splines[J]. IEEE Geoscience and Remote Sensing Letters, 2013, 10(3): 583–587. [DOI:10.1109/lgrs.2012.2214761]
  • [23] Shi W Z, Miao Z L, Debayle J. An integrated method for urban main-road centerline extraction from optical remotely sensed imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(6): 3359–3372. [DOI:10.1109/tgrs.2013.2272593]
  • [24] Medioni G, Lee M S, Tang C K. A Computational Framework for Segmentation and Grouping[M]. Amsterdam: Elsevier, 2000: 243-253.
  • [25] Medioni G, Tang C K, Lee M S. Tensor voting:theory and applications[C]//Proceedings of RFIA. Paris, France, 2000:1482-1495.
  • [26] Shen D J, Wang Z, Tian J W. Road networks detection in SAR images using tensor voting algorithm[J]. Journal of Huazhong University of Science & Technology:Natural Science Edition, 2009, 37(4): 51–54. [沈大江, 王峥, 田金文. 基于张量投票算法的SAR图像道路提取方法[J]. 华中科技大学学报:自然科学版, 2009, 37(4): 51–54. ] [DOI:10.13245/j.hust.2009.04.032]
  • [27] Heipke C, Mayer H, Wiedemann C, et al. Evaluation of automatic road extraction[J]. International Archives of Photogrammetry and Remote Sensing, 1997, 32(Part 3-2W3): 47–56.
  • [28] Miao Z L, Shi W Z, Samat A, et al. Information fusion for urban road extraction from VHR optical satellite images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2016, 9(5): 1817–1829. [DOI:10.1109/jstars.2015.2498663]
  • [29] Shi W Z, Miao Z L, Wang Q M, et al. Spectral-spatial classification and shape features for urban road centerline extraction[J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(4): 788–792. [DOI:10.1109/lgrs.2013.2279034]
  • [30] Cheng G L, Wang Y, Xu S B, et al. Automatic road detection and centerline extraction via cascaded end-to-end convolutional neural network[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(6): 3322–3337. [DOI:10.1109/tgrs.2017.2669341]
  • [31] Zang Y, Wang C, Yu Y, et al. Joint enhancing filtering for road network extraction[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(3): 1511–1525. [DOI:10.1109/tgrs.2016.2626378]
  • [32] Chen Q, Sun Q S, Heng P A, et al. A double-threshold image binarization method based on edge detector[J]. Pattern Recognition, 2008, 41(4): 1254–1267. [DOI:10.1016/j.patcog.2007.09.007]