Print

发布时间: 2020-05-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.190324
2020 | Volume 25 | Number 5




    遥感图像处理    




  <<上一篇 




  下一篇>> 





树形结构卷积神经网络优化的城区遥感图像语义分割
expand article info 胡伟, 高博川, 黄振航, 李瑞瑞
北京化工大学信息科学与技术学院, 北京 100029

摘要

目的 高分辨率遥感图像通常包含复杂的语义信息与易混淆的目标,对其语义分割是一项重要且具有挑战性的任务。基于DeepLab V3+网络结构,结合树形神经网络结构模块,设计出一种针对高分辨率遥感图像的语义分割网络。方法 提出的网络结构不仅对DeepLab V3+做出了修改,使其适用于多尺度、多模态的数据,而且在其后添加连接树形神经网络结构模块。树形结构通过建立混淆矩阵、提取混淆图、构建图分割,能够对易混淆的像素更好地区分,得到更准确的分割结果。结果 在国际摄影测量及遥感探测学会(International Society for Photogrammetry and Remote Sensing,ISPRS)提供的两个不同城市的遥感影像集上分别进行了实验,模型在整体准确率(overall accuracy,OA)这一项表现最好,在Vaihingen和Potsdam数据集上分别达到了90.4%和90.7%,其整体分割准确率较其基准结果有10.3%和17.4%的提升,对比ISPRS官方网站上的3种先进方法也有显著提升。结论 提出结合DeepLab V3+和树形结构的卷积神经网络,有效提升了高分辨率遥感图像语义分割整体精度,其中易混淆类别数据的分割准确率显著提高。在包含复杂语义信息的高分辨率遥感图像中,由于易混淆类别之间的像素分割错误减少,使用了树形结构的网络模型的整体分割准确率也有较大提升。

关键词

卷积神经网络; 遥感图像; 语义分割; 树形结构; DeepLab V3+

Semantic segmentation of urban remote sensing image based on optimized tree structure convolutional neural network
expand article info Hu Wei, Gao Bochuan, Huang Zhenhang, Li Ruirui
College of Information Science and Technology, Beijing University of Chemical Technology, Beijing 100029, China

Abstract

Objective High-resolution remote sensing image segmentation refers to the task of assigning a semantic label to each pixel in an image. Recently, with the rapid development of remote sensing technology, we have been able to easily obtain very-high resolution remote sensing images with a ground sampling distance of 5 cm to 10 cm. However, the very heterogeneous appearance of objects, such as buildings, streets, trees, and cars, in very-high-resolution data makes this task challenging, leading to high intraclass variance while the inter-class variance is low. A research hotspot is on detailed 2D semantic segmentation that assigns labels to multiple object categories. Traditional image processing methods depend on the extraction technique of the vectorization model, for example, based on region segmentation, line analysis, and shadow analysis. Another mainstream study relies on supervised classifiers with manually designed features. These models were not generalized when dealing with high-resolution remote sensing images. Recently, deep learning-based technology has helped explore the high-level semantic information in imaged and provide an end-to-end approach for semantic segmentation. Method Based on DeepLab V3+, we proposed an adaptive constructed neural network, which contains two connected modules, namely, the segmentation module and the tree module. When segmenting remote-sensing images, which contain multiscale objects, understanding the context is important. To handle the problem of segmenting objects at multiple scales, DeepLab V3+ employs atrous convolution in cascade or in parallel captures multiscale context by adopting multiple atrous rates. We adopted a similar idea in designing the segmentation module. This module uses an encoder-decoder architecture. The encoder is composed of four structures: EntryFlow, MiddleFlow, ExitFlow, and atrous spatial pyramid pooling(ASPP). In addition, the decoder is composed of two layers of SeparableConv blocks. The middle flow has two Xception blocks, which are linear stacks of depth-separable convolutional layers with residual connections. The segmentation module could capture well the multiscale features in the context. However, these features pay less attention to the easily confused classes. The other core contribution of the proposed method is the tree module. This module is constructed adaptively during the training. In each round, the method computes the confusion matrix on the evaluation data and calculates the confusion degrees between every two classes. A graph could be constructed according to the confusion matrix, and we can obtain a certain tree structure through the minimum cut algorithm. According to the tree structure, we build the tree module, in which each node is a ResNeXt unit. These nodes are connected by the concatenated connections. The tree module helped distinguish the pixels between easily confused classes by adding several neural layers to process their features. To implement the proposed method, the segmentation model is based on the MXNet framework and uses two Nvidia GeForce GTX1080 Ti graphic cards for accelerated training. The input size of the image block is 640×640 pixels due to memory limitation. We set the momentum (momentum) to 0.9, the initial learning rate to 0.01, adjust the learning rate to 0.001 when the training reaches half, and adjust the learning rate to 0.000 1 when the training reaches 3/4. We perform data augmentation before training due to the small amount of data in the ISPRS(International Society for Photogrammetry and Remote Sensing) remote sensing dataset. For each piece of raw data, we rotate the image center by 10° each time and cut out the largest square tile. In this way, each training image can obtain 36 sets of pictures after rotation. In addition, because the original training image is very large in size, to directly place the entire image into the network for training is not possible. Thus, it needs to be cropped into image blocks of 640×640 pixels. We apply an overlap-tile strategy to ensure no obvious cracks in the segmentation result map after splicing. Result The model in this study performed the best in terms of overall accuracy (OA), which reached 90.4% and 90.7% on the Vaihingen and Potsdam datasets, respectively. This result indicates that the model can achieve high segmentation accuracy. In addition, in the performance of easily confused categories, for example, low shrub vegetation (low_veg) and trees, F1 values have greatly improved. In experiments of the Vaihingen dataset, the F1 values of the low shrub vegetation and tree species reached 83.6% and 89.6%, respectively. In experiments of the Potsdam dataset, the F1 values of the low shrub vegetation and tree species reached 86.8% and 87.1%. As for the average F1 value, the scores of the model on the Vaihingen and Potsdam datasets are 89.3% and 92.0%, respectively. This number is much higher than the other latest methods, indicating that the model in this study is the best for both the segmentation of remote sensing images and the average performance of each category. Additionally, compared with the model without the tree module, the proposed method has higher segmentation accuracy for each category. The OA by using tree module increased by 1.1%, and the average F1 value increased by 0.6% in the Vaihingen dataset. The OA and the average F1 value increased by 1.3% and 0.9% in the Potsdam dataset. The result shows that the tree module does not only target a certain category but also improves the overall segmentation accuracy. Conclusion The proposed network can effectively improve the overall semantic segmentation accuracy of high-resolution remote sensing images. The experimental results show that the proposed segmentation module with the tree module is greatly improved due to the reduction of the error on easily confused pixels. The proposed method in this study is universal and suitable for a wide range of application scenarios.

Key words

convolutional neural networks(CNN); remote sensing images; semantic segmentation; tree like structure; DeepLab V3+

0 引言

高分辨率遥感图像语义分割任务是指为遥感图像中的每一个像素分配语义标签的过程。近年来,随着遥感测绘技术的高速发展,已经可以轻而易举地获得地面采样间隔(ground sample distance,GSD)为5~10 cm的超高分辨率的光学遥感图像(Audebert等,2018)。城区高分辨率遥感图像以人工地物建筑为主体部分,辅以一些自然植被用地,人工地物建筑主要包括房屋、机场、道路、桥梁等。例如:对房屋目标的准确分割,可以迅速获得住宅房屋密度等城市用地指标,为城市进一步规划提供依据。因此,如何准确地理解上下文语义,对这些图像像素进行标注成为遥感图像分割领域的研究热点。

高分辨率遥感图像包含丰富的语义信息,大多数传统方法无法有效地表征,分割效果不理想。早期,人工地物建筑的分割依赖矢量化的模型提取技术(孙金彦等,2017王海等,2014),例如:基于区域分割的方法、直线分析、阴影分析等。其他大量的研究依赖人手工设计的特征,通过有监督的分类器实现分割操作。人手工设计的特征往往在表示高级语义信息时,泛化性较差。深度学习技术能够自动提取特征(张康等,2018王璐等,2015),可以充分挖掘图像中的高级语义信息特征。

深度学习技术已经在计算机视觉领域取得了巨大成功,例如图像分类(Krizhevsky等,2012Hu等,2015)、目标检测(李旭冬等,2017)、语义分割(Long等,2015)等。深度卷积神经网络接收原始图像数据输入,以端到端的结构进行学习,根据特定任务得到最终分割结果。在遥感图像解译领域,深度卷积神经网络开展了广泛的研究。城区遥感图像包含的语义信息复杂(Cordts等,2016谭琨等,2019),具有人工地物目标种类多样、小型目标众多(Kampffmeyer等,2016)的特征,其易混淆数据往往在空间分布上是相邻或交错的,分割难度较大。全卷积神经网络(fully convolutional network, FCN)在2016年(Maggiori等,2016)首次应用于遥感图像分割任务,可以接受任意大小的图像输入和测试,并且避免了使用像素块带来的重复存储和计算卷积的问题,相比于传统的带有全连接的卷积神经网络(convolutional neural networks,CNN)更加高效,但是其分割结果不够精细,对图像的细节保留不够完整。在此基础上,“沙漏状网络”包括反卷积网络(DeconvNet)(Noh等,2015)、SegNet(Badrinarayanan等,2017)、U-Net(Ronneberger等,2015)和DeepUNet(Li等,2018)等方法陆续被提出,应用于遥感图像分割。这些网络在其解码器结构上进行了不同调整,并且取得了更高的分割准确率。

基于空洞卷积,DeepLab(Chen等,2017)提出了空间金字塔模块,其在输入特征图上应用多采样率的空洞卷积、多感受野卷积或池化操作,以探索多尺度上下文信息。DeepLab V3+(Chen等,2018)不仅采用了可分离卷积,同时为了融合多尺度信息,引入语义分割常用的编码器—解码器结构, 通过逐渐恢复空间信息来捕捉清晰的分割目标边界,细化分割结果,是目前图像语义分割领域表现较好的网络框架模型。

本文提出一种改进的DeepLab V3+的网络模型,在DeepLab V3+网络后面添加一种新颖的树形优化模块,用于提高对易混淆类别数据的分割能力。该方法采用端到端的网络训练,在国际摄影测量及探测学会(International Society for Photogrammetry and Remote Sensing, ISPRS)两个遥感数据集上,与最新方法相比,得到了更高的分割精度。

1 语义分割网络结构

对于多类别的遥感图像分割任务,由于易混淆的类别数据在空间分布上通常是相邻或交错分布,此外一般的网络模型很难学习到有效的特征表示,因此分割的准确率并不高。本文为了改善易混淆类别数据分割准确率低的问题,设计了一种基于DeepLab V3+结构改进的树形网络模型。网络的主体结构如图 1所示,该网络结构分为两个部分:分割模块和树形模块。

图 1 网络模型整体示意图
Fig. 1 Overall schematic diagram of the network

1.1 分割模块

考虑到城区遥感图像的特点,在提取密集特征的基础上还要兼顾分割边缘的准确性,因此本文选用DeepLab V3+网络作为分割模型,如图 2所示。DeepLab V3+的网络模型主要由两部分组成:编码器部分和解码器部分。编码器模块由进入流、中间流、退出流和空洞空间金字塔池化(atrous spatial pyramid pooling, ASPP) 4个结构组成,解码器由两层SeparableConv块构成。其中多个Xception块是带有残差连接的深度可分卷积层的线性堆叠,SeparableConv即可分卷积层。相比于原来的DeepLab V3+结构,训练所用的图像数据和计算资源有限,因此本文将中间流结构中的Xception单元由16个降为2个。

图 2 DeepLab V3+:具有空洞卷积和ASPP的编码器—解码器结构
Fig. 2 DeepLab V3+: encoder-decoder with atrous convolution and ASPP

1.2 树形模块

本文网络模型的核心是树形处理结构。虽然DeepLab V3+网络具有优秀的性能,能够提取合理的上下文语义特征,也能够通过上采样最大限度保留边界信息,但是仍然解决不了在相邻区域中存在的易混淆类别像素的准确预测问题。树形网络模块是连接在基础网络模块后面的一个增强模块,它和基础网络模块一起构成了一个端到端的分割网络。树形网络通过计算混淆矩阵自适应构建,其作用是让易混淆类别的像素通过更深的树状层次,让易区分类别的像素通过较浅的树状层次,树的节点通过残差链接有效避免了梯度消失,延迟过拟合,提升网络精度和泛化性。ISPRS遥感数据集共包含6类数据,因此将树形结构设计为一个具有6个节点的二叉树状模型。树状结构中的每一个节点均为一个ResNeXt单元,结构如图 3所示,它需要经过32组相互独立且具有相同结构的整流变换流程,最后将结果进行融合。ResNeXt单元(Xie等,2017)是ResNet(He等,2016)结构的改进版,它能够在不增加参数复杂度的情况下提高准确率,每一个ResNeXt单元通过Plus连接第1层的卷积层,保证能够获得足够的特征信息量。除此之外,ResNeXt单元不仅可以避免在训练过程中出现梯度消失的现象,而且还可以通过减少超参数的数量来减小显存的训练开销。

图 3 树形模块示意图
Fig. 3 Illustration of tree-like block

通过先验的分割结果,可以计算得到混淆矩阵$\mathit{\boldsymbol{A}}$。因为数据集中一共包含6个类别,所以混淆矩阵$\mathit{\boldsymbol{A}}$是一个6×6的矩阵。将相对应的行列的元素${a_{ij}}$${a_{ji}}$相加,得到对应的下三角矩阵$\mathit{\boldsymbol{B}}$。矩阵$\mathit{\boldsymbol{B}}$的元素${b_{ij}}$

$ {b_{ij}} = \left\{ {\begin{array}{*{20}{l}} {{a_{ij}} + {a_{ji}}}&{i > j}\\ 0&{{\rm{ 其他 }}} \end{array}} \right. $ (1)

三角矩阵$\mathit{\boldsymbol{B}}$作为邻接矩阵,可以得到一个无向图$\mathit{\boldsymbol{G}}$。该无向图中共有6个顶点,分别代表ISPRS数据集中的6个类别。利用最小割的方法(Boykov和Kolmogorov,2004),依次割去图中的顶点,可以逐步得到子类别。以此先后顺序得到一个6个节点的二叉树结构,此结构即为本文网络结构中的树形模块。由于网络连接了树形模块,能够获得足够的信息量,在小型物体和易混淆物体的分割任务中能够得到更加精确的分割结果。

本文的网络模型是一个全卷积神经网络,并不存在全连接层,通过树形模块之后,所有的特征图将会被送入一个1×1的卷积层,并通过Softmax函数进行输出。

2 实验数据集

本文在ISPRS Vaihingen和Potsdam两个遥感数据集(Gerke,2014)上进行了实验,并且展示了实验结果,数据集如图 4所示。ISPRS遥感数据集是一个在网上公开的遥感高分辨率图像数据集,主要包含了城市中心和周围的环境情况,其中包含遥感图像中最常见的土地覆盖类别:非渗透表面(impervious surfaces)、建筑(building)、低灌木植被(low_veg)、树木(tree)、车辆(car)和杂波层(clutter)。

图 4 ISPRS数据集示意图
Fig. 4 Overview of the ISPRS dataset
((a) Vaihingen; (b) Potsdam)

2.1 Vaihingen数据集

该数据集共包含33幅由无人机摄影机在德国Vaihingen镇上空拍摄的高分辨率图像,这组数据包含红外、红和绿(IR-Red-Green, IRRG)三通道的格式, 数字地表模型(digital surface model,DSM)(吴军等, 2015)格式和数据标注。每幅图像的平均尺寸为2 494×2 046像素,空间分辨率为9 cm。本组实验将随机选取11幅图像作为训练集、5幅作为验证集以及17幅作为测试集。

2.2 Potsdam数据集

Potsdam数据集共包含38幅俯拍高分辨率遥感图像,图像尺寸均为6 000×6 000像素,空间分辨率为5 cm。这组数据有RGB格式、DSM格式、IRRG格式和数据标注。由于数据集中有一幅图像存在大量错误标注(编号7_10),因此本组实验将随机选取17幅图像作为训练集、5幅图像作为验证集和15幅图像作为测试集。

3 实验评价标准

分割实验以整体准确率(${OA}$)作为评价标准。对每一类数据的分割表现,使用${F_1}$值进行评价,它是由精确率(${P}$)和召回率(${R}$)计算得来。使用类别间的平均${F_1}$值来评价整体类别分割表现,是由于整体准确率对于不平衡分布的数据的评价并不敏感。整体准确率和${F_1}$值计算为

$ OA = \frac{{tp + tn}}{{tp + tn + fp + fn}} $ (2)

$ {F_1} = 2 \times \frac{{P \times R}}{{P + R}} $ (3)

$ P = \frac{{tp}}{{tp + fp}} $ (4)

$ R = \frac{{tp}}{{tp + fn}} $ (5)

式中,${tp}$表示将正类预测为正类数即真正率,${tn}$表示将负类预测为负类数即真负率,${fp}$表示将负类预测为正类数即假正率, ${fn}$表示将正类预测为负类数即假负率。

4 实验环境及数据预处理

本文分割模型基于MXNet框架实现,使用2块Nvidia GeForce GTX1080 Ti显卡进行加速训练。由于显存的限制,训练中输入的图像块大小为640×640像素,批量大小为4。训练80个回合(epoch),设置动量(momentum)为0.9,初始学习率设置为0.01,当训练到达一半时将学习率调整为0.001,当训练到达3/4时再将学习率调整为0.000 1。

ISPRS遥感数据集中数据量较小,需要进行数据增广来扩充训练数据:对于每幅原始数据,以图像中心每次旋转10°,并截取出最大的正方形图块。这样,每幅训练图像可以在旋转后得到36幅图像。

另外,原始训练图像的尺寸非常大,不能直接将整幅图像放入网络中进行训练,需要裁剪为640×640像素大小的图像块。为了保证在拼接后的分割结果图中不会出现明显的裂痕,需要使用影像重叠策略(overlap-tile strategy)。影像重叠策略是在原始影像内部切割的时候进行重叠,在原始影像边缘部分进行镜像反射外推,如图 5所示,白色实线为训练图像的边界,红色区域为切割图像时的大小,而黄色区域为实际分割时有效区域的大小。

图 5 影像重叠策略示意图
Fig. 5 Schematic diagram of overlapping tiles

5 实验结果及分析

分别在Vaihingen和Potsdam两个数据集上进行了实验,实验结果见表 1表 2。其中楼梯视觉库(stair vision library, SVL) (Gerke,2014)的方法为ISPRS主办方提供的基准结果,基于Dempster-Shafer理论(Dempster-Shafer theory, DST)的方法(Sherrah,2016)为FCN加入条件随机场(conditional random field, CRF)单元的结果,苏黎世大学的方法(University of Zurich,UZ) (Volpi和Tuia,2017)则是反卷积网络的分割结果,以上结果均引自ISPRS官方网站。

表 1 不同模型在Vaihingen测试数据集上的分割结果对比
Table 1 Quantitative comparisons among different models on the ISPRS Vaihingen test set 

下载CSV
/%
方法imp_surfbuildinglow_vegtreecar${OA}$平均${F_1}$
SVL(Gerke, 2014)86.691.077.085.055.684.879.0
DST(Sherrah, 2016)90.593.783.489.272.689.185.9
UZ(Volpi和Tuia, 2017)89.292.581.686.957.387.381.5
本文92.594.983.689.685.990.489.3
注:加粗字体为每列最优结果。

表 2 不同模型在Potsdam测试数据集上的分割结果对比
Table 2 Quantitative comparisons among different models on the ISPRS Potsdam test set 

下载CSV
/%
方法imp_surfbuildinglow_vegtreecar${OA}$平均${F_1}$
SVL(Gerke, 2014)83.591.772.263.262.277.874.6
DST(Sherrah, 2016)92.596.486.788.094.790.391.7
UZ(Volpi和Tuia, 2017)89.395.481.880.586.585.886.7
本文93.197.386.887.195.890.792.0
注:加粗字体为每列最优结果。

5.1 实验整体结果分析

表 1表 2可以看出,本文模型均在整体准确率这一项中表现最好,在Vaihingen和Potsdam数据集上分别达到了90.4%和90.7%,说明该模型具有较高的分割精度。另外,在低灌木植被(low_veg)和树木(tree)这两个相互易混淆的类别的表现上,相比较于其他网络模型,${F_1}$值均有提升。在Vaihin-gen数据集的实验中,本文模型的低灌木植被和树木类别的${F_1}$值分别为83.6%和89.6%;在Potsdam数据集的实验中,本文模型的低灌木植被和树木类别的${F_1}$值分别为86.8%和87.1%。对于平均${F_1}$值这一指标,本文模型在Vaihingen和Potsdam数据集上的分数分别是89.3%和92.0%,远远高于其他3种方法,说明本文模型对于遥感图像的整体分割表现优秀,并且在树木之外的其他类别上,表现都是最好的。

5.2 树状模块性能分析

本文模型的一个创新点在于提出了一种树形的处理结构模块。在本节中,对网络是否带有树形模块进行了对照实验,实验结果如表 3所示,同时也使用了经典的直线型结构(Ss)和树状结构(Ts)进行对照实验,实验结果如表 4所示。

表 3 是否加入树形结构的对照实验结果
Table 3 Controlled experimental result with and without the tree-like block 

下载CSV
/%
数据集树形结构imp_surfbuildinglow_vegtreecarclutter${OA}$平均${F_1}$
Vaihingen×91.594.182.789.385.547.189.388.7
92.594.983.689.685.952.090.489.3
Potsdam×92.897.484.585.595.144.789.491.1
93.197.386.887.195.853.090.792.0
注:加粗字体为每列最优结果, 其中×代表未加入树形结构,√代表加入了树形结构。

表 4 不同附加模块的对照实验结果
Table 4 Control experiment results with different additional modules 

下载CSV
/%
数据集附加模块imp_surfbuildinglow_vegtreecarclutter${OA}$平均${F_1}$
VaihingenSs91.191.478.985.880.447.184.385.5
Ts92.594.983.689.685.952.090.489.3
PotsdamSs89.191.780.880.093.239.185.287.0
Ts93.197.386.887.195.853.090.792.0
注:加粗字体为每列最优结果。

具有树形结构的网络模型相比于没有该结构的模型,对于每个类别的分割准确率均得到不同程度的提升。在Vaihingen数据集上,包含树形结构的整体准确率提升了1.1%,平均${F_1}$值提升了0.6%;而在Potsdam数据集上,整体准确率和平均${F_1}$值分别提升了1.3%和0.9%。由此说明树形结构对于网络的提升并不针对于某一个类别,而是分割精度的全面提升。精细比较每个类别,在分割低灌木植被(low_veg)和树木(tree)这一对易混淆的类别时,其精确度有明显提升。此外,在杂波层(clutter)和非渗透表面(imp_surf)的边缘细节分割上也有了显著的精度提升。

为了保证对照实验的一致性,使用相同结构的ResNeXt单元构建模型。因为数据集分为6个类别,因此构建了一个6层的直线型附加模块作为对照实验。

树形结构模块相较于经典的直线型结构模块,在每个类别的分割准确率都有非常明显的提升,在Vaihingen数据集上,树形结构较直线型结构的整体准确率提升了6.1%,平均${F_1}$值提升了3.8%;在Potsdam数据集上,整体准确率和平均${F_1}$值分别提升了5.5%和5%。加入直线型结构的模型在整体的分割准确率上甚至低于没有添加附加结构的原始模型。说明本文设计的树形结构相较于经典的直线型结构更适合存在易混淆类别的遥感图像分割任务。

是否加入树状结构的对照实验结果示例如图 6所示。从图中可以看出,本文模型加入了树形结构后,分割精度明显提升,并且分割的边缘更加顺滑,没有产生气泡化现象。

图 6 测试集图像的全局和局部分割结果
Fig. 6 Global and local detailed segmentation results of test dataset
((a)original images; (b) ground truth; (c) network without tree-like block; (d) network with tree-like block)

6 结论

以DeepLab V3+作为基础结构,提出了一种基于树形结构优化的卷积神经网络模型。该模型可以有效地改善高分辨率下的城区遥感图像语义分割问题。在ISPRS的高分辨率遥感数据集上,本模型得到的整体分割准确率较其基准结果有10.3%和17.4%的提升,对比SVL、DST和UZ等多种先进方法也有显著提升。针对大多数类别,本模型也得到了最优的分割准确率,特别是对于易混淆类别数据,使用树形结构可以得到更顺滑更精确的分割结果。

虽然树形结构对于遥感图像中易混淆类别的数据分割精度有一定程度的提升,但是未来仍有需要解决的难点:1)树形结构是否适用于所有的分割网络模型,例如基于现有的所有分割网络模型,加入该结构是否均可以在原有基础上得到一定程度的提升,仍然需要大量实验的验证;2)尽管使用了数据增广的手段,但是网络模型训练的数据量仍较小,是否可以通过生成对抗网络(generative adversarial network,GAN)的思想增大数据量,进一步提升优化模型结构,以获得更高的分割精确度,这也是未来的重点工作方向。

参考文献

  • Audebert N, Le Saux B, Lefèvre S. 2018. Beyond RGB:very high resolution urban remote sensing with multimodal deep networks. ISPRS Journal of Photogrammetry and Remote Sensing, 140: 20-32 [DOI:10.1016/j.isprsjprs.2017.11.011]
  • Badrinarayanan V, Kendall A, Cipolla R. 2017. SegNet:a deep convolutional encoder-decoder architecture for image segmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39(12): 2481-2495 [DOI:10.1109/TPAMI.2016.2644615]
  • Boykov Y, Kolmogorov V. 2004. An experimental comparison of min-cut/max-flow algorithms for energy minimization in vision. IEEE Transactions on Pattern Analysis and Machine Intelligence, 26(9): 1124-1137 [DOI:10.1109/TPAMI.2004.60]
  • Chen L C, Papandreou G, Schroff F and Adam H. 2017. Rethinking Atrous Convolution for Semantic Image Segmentation[EB/OL].[2019-07-01].https://arxiv.org/pdf/1706.05587.pdf
  • Chen L C, Zhu Y K, Papandreou G, Schroff F and Adam H. 2018. Encoder-decoder with atrous separable convolution for semantic image segmentation//Proceedings of the 15th European Conference on Computer Vision. Munich, Germany: Springer: 833-851[DOI:10.1007/978-3-030-01234-2_49]
  • Cordts M, Omran M, Ramos S, Rehfeld T, Enzweiler M, Benenson R, Franke U, Roth S and Schiele. 2016. The cityscapes dataset for semantic urban scene understanding//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE: 3213-3223[DOI:10.1109/CVPR.2016.350]
  • Gerke M. 2014. Use of the Stair Vision Library within the ISPRS 2D Semantic Labeling Benchmark (Vaihingen). Holland: University of Twente
  • He K M, Zhang X Y, Ren S Q and Sun J. 2016. Deep residual learning for image recognition//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE: 770-778[DOI:10.1109/CVPR.2016.90]
  • Hu W, Huang Y Y, Wei L, Zhang F, Li H C. 2015. Deep convolutional neural networks for hyperspectral image classification. Journal of Sensors, 2015 [DOI:10.1155/2015/258619]
  • Kampffmeyer M, Salberg A B and Jenssen R. 2016. Semantic segmentation of small objects and modeling of uncertainty in urban remote sensing images using deep convolutional neural networks//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition Workshops. Las Vegas, NV, USA: IEEE: 680-688[DOI:10.1109/CVPRW.2016.90]
  • Krizhevsky A, Sutskever I and Hinton G E. 2012. ImageNet classification with deep convolutional neural networks//Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada, USA Curran Associates Inc: 1097-1105
  • Li R R, Liu W J, Yang L, Sun S H, Hu W, Zhang F, Li W. 2018. Deepunet:a deep fully convolutional network for pixel-level sea-land segmentation. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 11(11): 3954-3962 [DOI:10.1109/JSTARS.2018.2833382]
  • Li X D, Ye M, Li T. 2017. Review of object detection based on convolutional neural networks. Application Research of Computers, 34(10): 2881-2886, 2891 (李旭冬, 叶茂, 李涛. 2017. 基于卷积神经网络的目标检测研究综述. 计算机应用研究, 34(10): 2881-2886, 2891) [DOI:10.3969/j.issn.1001-3695.2017.10.001]
  • Long J, Shelhamer E and Darrell T. 2015. Fully convolutional networks for semantic segmentation//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA, USA: IEEE: 3431-3440[DOI:10.1109/CVPR.2015.7298965]
  • Maggiori E, Tarabalka Y, Charpiat G and Alliez. 2016. Fully convolutional neural networks for remote sensing image classification//Proceedings of 2016 IEEE International Geoscience and Remote Sensing Symposium. Beijing, China: IEEE: 5071-5074[DOI:10.1109/IGARSS.2016.7730322]
  • Noh H, Hong S and Han B. 2015. Learning deconvolution network for semantic segmentation//Proceedings of 2015 IEEE International Conference on Computer Vision. Santiago, Chile: IEEE: 1520-1528[DOI:10.1109/ICCV.2015.178]
  • Ronneberger O, Fischer P and Brox T. 2015. U-Net: convolutional networks for biomedical image segmentation//Proceedings of the 18th International Conference on Medical image computing and computer-assisted intervention. Munich, Germany: Springer: 234-241[DOI:10.1007/978-3-319-24574-4_28]
  • Sherrah J. 2016. Fully convolutional networks for dense semantic labelling of high-resolution aerial imagery[EB/OL].[2019-07-01].https://arxiv.org/pdf/1606.02585.pdf
  • Sun J Y, Huang Z J, Zhou S G, Xu N, Qian H M, Wang C L. 2017. Building outline vectorization from high spatial resolution imagery. Journal of Remote Sensing, 21(3): 396-405 (孙金彦, 黄祚继, 周绍光, 徐南, 钱海明, 王春林. 2017. 高分辨率遥感影像中建筑物轮廓信息矢量化. 遥感学报, 21(3): 396-405) [DOI:10.11834/jrs.20176127]
  • Tan K, Wang X, Du P J. 2019. Research progress of the remote sensing classification combining deep learning and semi-supervised learning. Journal of Image and Graphics, 24(11): 1823-1841 (谭琨, 王雪, 杜培军. 2019. 结合深度学习和半监督学习的遥感影像分类进展. 中国图象图形学报, 24(11): 1823-1841) [DOI:10.11834/jig.190348]
  • Volpi M, Tuia D. 2017. Dense semantic labeling of subdecimeter resolution images with convolutional neural networks. IEEE Transactions on Geoscience and Remote Sensing, 55(2): 881-893 [DOI:10.1109/TGRS.2016.2616585]
  • Wang H, Tong H J, Zuo B X, Tang W R. 2014. Integration of multiscale segmentation algorithm and vectorization algorithm for remote sensing image. Computer Engineering, 40(6): 256-261 (王海, 童恒建, 左博新, 汤文瑞. 2014. 遥感图像多尺度分割算法与矢量化算法的集成. 计算机工程, 40(6): 256-261) [DOI:10.3969/j.issn.1000-3428.2014.06.055]
  • Wang L, Zhang F, Li W, Xie X M, Hu W. 2015. A method of SAR target recognition based on Gabor filter and local texture feature extraction. Journal of Radars, 4(6): 658-665 (王璐, 张帆, 李伟, 谢晓明, 胡伟. 2015. 基于Gabor滤波器和局部纹理特征提取的SAR目标识别算法. 雷达学报, 4(6): 658-665) [DOI:10.12000/JR15076]
  • Wu J, Cheng M M, Yao Z X, Peng Z Y, Li J, Ma J. 2015. Automatic generation of high-quality urban DSM with airborne oblique images. Journal of Image and Graphics, 20(06): 117-128 (吴军, 程门门, 姚泽鑫, 彭智勇, 李俊, 马峻. 2015. 倾斜航空影像的城区DSM生成. 中国图象图形学报, 20(06): 117-128) [DOI:10.11834/jig.20150615]
  • Xie S N, Girshick R, Dollár P, Tu Z W and He K M. 2017. Aggregated residual transformations for deep neural networks//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, HI, USA: IEEE: 5987-5995[DOI:10.1109/CVPR.2017.634]
  • Zhang K, Hei B Q, Zhou Z, Li S Y. 2018. CNN with coefficient of variation-based dimensionality reduction for hyperspectral remote sensing images classification. Journal of Remote Sensing, 22(1): 87-96 (张康, 黑保琴, 周壮, 李盛阳. 2018. 变异系数降维的CNN高光谱遥感图像分类. 遥感学报, 22(1): 87-96) [DOI:10.11834/jrs.20187075]