Print

发布时间: 2019-09-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.180693
2019 | Volume 24 | Number 9




    遥感图像处理    




  <<上一篇 




  下一篇>> 





提高小样本高光谱图像分类性能的变维卷积神经网络
expand article info 刘万军, 尹岫, 曲海成, 刘腊梅
辽宁工程技术大学软件学院, 葫芦岛 125105

摘要

目的 为了解决基于卷积神经网络的算法对高光谱图像小样本分类精度较低、模型结构复杂和计算量大的问题,提出了一种变维卷积神经网络。方法 变维卷积神经网络对高光谱分类过程可根据内部特征图维度的变化分为空—谱信息融合、降维、混合特征提取与空—谱联合分类的过程。这种变维结构通过改变特征映射的维度,简化了网络结构并减少了计算量,并通过对空—谱信息的充分提取提高了卷积神经网络对小样本高光谱图像分类的精度。结果 实验分为变维卷积神经网络的性能分析实验与分类性能对比实验,所用的数据集为Indian Pines和Pavia University Scene数据集。通过实验可知,变维卷积神经网络对高光谱小样本可取得较高的分类精度,在Indian Pines和Pavia University Scene数据集上的总体分类精度分别为87.87%和98.18%,与其他分类算法对比有较明显的性能优势。结论 实验结果表明,合理的参数优化可有效提高变维卷积神经网络的分类精度,这种变维模型可较大程度提高对高光谱图像中小样本数据的分类性能,并可进一步推广到其他与高光谱图像相关的深度学习分类模型中。

关键词

卷积神经网络; 高光谱图像; 小样本数据; 变维特征提取; 空-谱联合分类

Dimensionality-varied convolutional neural network for improving the classification performance of hyperspectral images with small-sized labeled samples
expand article info Liu Wanjun, Yin Xiu, Qu Haicheng, Liu Lamei
College of Software, Liaoning Technical University, Huludao 125105, China
Supported by: Young Scientists Fund of National Natural Science Foundation of China (41701479)

Abstract

Objective Hyperspectral image classification is a challenging task because of the large number of spectral channels, small-sized labeled training samples, and large spatial variability. Most existing hyperspectral image classification models only consider spectral feature information and neglect the important role of spatial information in classification. Spatial features have become increasingly important in hyperspectral image classification because adjacent pixels are likely to belong to the same category, and the spectral-spatial classification method has the best classification accuracy. Compared with other remote sensing image data, hyperspectral remote sensing image data comprise 2D spatial plane images and increase spectral dimensions that contain the spectral information of objects. Hence, hyperspectral remote sensing image data are able to form 3D data cubes containing rich image information and spectral information. However, the number of bands increases with an increase in the dimension of a hyperspectral image. The information correlation between bands is high, and the hidden features are rich. The problem with high-dimensional small-sized labeled samples is that the number of labeled samples in a dataset is much smaller than the dimension of the sample features. The high data dimensions of hyperspectral images lead to low classification accuracy, excessive dependence on training samples, extended iteration training time, and low efficiency. First, the scale of corresponding feature space increases rapidly with an increase in feature dimensions, thereby leading to dimension issues. Second, the presence of many irrelevant or noise features means that the learning samples are few, resulting in overfitting. Therefore, a small training error still leads to the poor generalization ability of classifiers, which directly reduces the prediction capability of classification models. Multi-spectral image processing algorithms cannot be directly applied to hyperspectral image processing, which involves high-dimensional information and features that are complex, diverse, and massive. A dimensionality-varied convolutional neural network is proposed in this work to solve the problems of low classification accuracy, complex model structure, and large computational complexity of the algorithm on the basis of a convolution neural network for small-sized labeled samples of hyperspectral images. Method The dimensionality-varied convolutional neural network is an improved model that is based on convolution neural networks. Optimizing the structure of 3D convolution and 2D convolution in a network is the key to a successful classification. In a dimensionality-varied convolutional neural network, the main component of the convolution layer is a convolution core. The convolution core of the 3D feature extraction process is a 3D filter composed of a set of learning parameters. The application of the 3D convolution core to hyperspectral image classification simplifies the network structure and improves the accuracy of feature extraction. The convolution core of the 2D feature extraction process is a 2D filter composed of a set of learning parameters. If the number of convolution kernels is sufficient, then we can extract all feature types of an image synthetically and obtain an effective and rich extraction of the convolution layer. The basic function of the pooling layer is to gradually reduce the size of the feature expression space so as to reduce the network parameters and computational load and thereby control the fitting. The dimensionality-varied convolutional neural network mainly uses a max pooling operation, which is a non-linear operation, and improves the computational speed and robustness of feature extraction. The classification accuracy is higher when the classification model has many layers and convolution kernels. However, as the complexity of the model increases, the computational complexity increases as well. The dimensionality-varied convolutional neural network can be divided into spectral-spatial information fusion, dimension reduction, mixed feature extraction, and spectral-spatial classification according to the changes in the dimensions of internal feature maps. The process can ensure that the network can extract small-sized labeled sample features in a certain depth. In the feature extraction process of the dimensionality-varied convolutional neural network, the dimension of the internal feature map is changed instead of retaining the 3D structure, thereby reducing the required computation and storage space. This dimensionality-varied structure simplifies the network structure and reduces computational complexity by changing the dimension of feature mapping. The accuracy of the convolutional neural network for hyperspectral image classification of small-sized labeled samples is improved by fully extracting the spectral-spatial information. Result The experiment is divided into performance analysis and classification performance comparison of the dimensionality-varied convolutional neural network. The datasets used are the Indian Pines and Pavia University Scene datasets. Experiment results show that the dimensionality-varied convolutional neural network can achieve high classification accuracy for hyperspectral images with small-sized labeled samples. The selection of parameters in the dimensionality-varied convolutional neural network greatly influences classification accuracy. Experiments on batch size, threshold, dropout, and kernel number show that a reasonable parameter selection has an important impact on the classification performance of the algorithm. For the Indian Pines and Pavia University Scene datasets, the optimal classification performance is achieved when the batch sizes are set to 40 and 150, the thresholds are both set to 1×10-15, the dropout values are both set to 0.8, and the kernel numbers are set to 8 and 5, respectively. The overall classification accuracies for the Indian Pines and Pavia University Scene datasets are 87.87% and 98.18%, respectively. Compared with other classification algorithms, the proposed algorithm has evident performance advantages. The combination of the two optimization methods, namely, spectral-spatial information and dimensionality reduction for feature maps, can effectively improve the classification of hyperspectral images with small-sized labeled samples. Conclusion Experimental results show that by changing the dimensions of feature maps in feature extraction, high-precision spectral-spatial feature extraction is realized, and the complexity of the model is reduced. Compared with other classification algorithms, the dimensionality-varied convolutional neural network can effectively improve the classification of small-sized labeled samples and greatly reduce the complexity of the model. Reasonable parameter optimization can effectively improve the classification accuracy of the dimensionality-varied convolutional neural network. This dimensionality-varied model can greatly improve the classification performance of small-sized labeled samples in hyperspectral images and can be further extended to other deep learning classification models related to hyperspectral images.

Key words

convolutional neural network (CNN); hyperspectral image(HSI); small-sized samples; dimensionality-varied feature extraction; spectral-spatial classification

0 引言

高光谱数据包含丰富的空间与光谱信息,其突出的特点为“图谱合一”。高光谱数据在采集过程中使用的光谱分辨率较高,一般可达5~10 nm,其成像波段数较多,且在某一光谱波段范围内能连续成像,因此高光谱数据中包含着地物的大量空间与光谱的特征信息。利用高光谱数据可对感兴趣区域信息获取、目标分类与识别以及物质勘测,因此,高光谱图像(HSI)[1]广泛应用于医学、农业[2]、地理监测与环境保护等领域。

遥感高光谱图像的分析与处理在实际应用中具有重要的价值,而高光谱图像分类则是许多领域的重点研究环节。高光谱图像分类是在多光谱分类的基础上,充分利用高光谱图像的数据特性与优势,完成对目标像元赋以唯一类别标识的过程[3]

当前计算机视觉、机器学习和模式识别等技术已成为高光谱图像分类的重要技术手段[4]。而近年来,基于空—谱联合特征的分类方法在分类性能方面取得了显著的进步。基于空—谱联合分类的算法[5]一般分为两类。第1类算法先分别提取光谱特征和空间特征,再使用分类器进行特征融合并完成分类;第2类算法则是对光谱特征和空间特征进行同步提取,使用分类器对提取到的混合特征进行分类。第2类算法的分类性能要明显优于第1类算法。由Li等人[6]提出的基于卷积稀疏表示的高光谱图像分类方法结合了高光谱图像像元的光谱信息以及空间邻域信息,提高了分类性能;涂兵等人[7]提出的融合递归滤波与K近邻(KNN)的高光谱遥感图像分类方法强化了空间结构,利用地物目标的空间上下文信息,提升了高光谱图像的分类精度;黄鸿等人[8]提出的空—谱联合(SSDL)特征提取算法融合了数据中深层非线性特征和空间信息,获取了更高的分类精度。

基于传统方法的高光谱图像分类算法在不断发展的同时,研究人员对基于深度学习(DL)[9]的分类算法也展开了广泛研究。能够实现高维数据的非线性降维的自编码神经网络(AE)、有无限回顾之前所有输入能力的循环神经网络(RNN)[10]以及能够自动从图像中提取空间和光谱特征的卷积神经网络(CNN)[11],都是具有代表性的深度学习的模型。与其他的深度学习算法相比,卷积神经网络能够基于大数据和深层网络结构,从原始高光谱数据中提取丰富的特征,保证了空间和光谱信息的完整性,避免人为特征提取的主动性与随意性,这也是其在特征提取的最大优势之一。此外,对高光谱图像这种高维数据,卷积神经网络可以取得优于其他深度学习模型的分类效果。

在实际研究中获取的遥感高光谱数据往往没有大量的标签样本,训练样本数量有限且质量不均,即会产生“不适定”问题[12]。在样本数目稀少的情况下实现高光谱图像的分类是一个具有挑战性的问题。具有高维特性的高光谱图像波段间具有高度相关性,光谱混合和冗余度较高,直接进行分类时运算时间较长,且可用于分类的特征过多导致利用率较低。休斯效应指出,在有限训练样本的情况下,维数增加会导致分类精度降低。卷积神经网络虽然在高光谱图像分类方面取得了优异的性能,但其前提是使用大量有标记样本对网络进行训练,寻找数据间的规律以得到较理想的分类模型。且其对3维空—谱联合特征提取往往需要复杂的网络结构和巨大的计算量。因此如何利用卷积神经网络强大的特征提取能力实现对高光谱小样本数据分类是遥感领域中面临的一个具有挑战性的问题。

Huang等人[13]提出的极限学习机算法(ELM)获得了比较快的学习速度和较好的泛化性能,但由于其随机初始化的特点,难以建立基于小样本的线性模型;廖建尚等人[14]提出的面向空间自相关信息的高光谱图像分类方法有效去除了高光谱图像分类的椒盐现象,但未能解决小样本的问题;杨随心等人[15]提出的基于谱聚类算法的高光谱图像分类方法在对高光谱图像数据进行特征降维的基础上采用了K-means算法对图像进行粗聚类处理,提高了分类精度,但针对有限训练样本分类效果不佳。为了解决这一问题,提出了一种变维卷积神经网络(DV-CNN)模型。在DV-CNN中,高光谱图像的分类过程可根据网络内部特征图维度的变化而分为4个阶段,分别完成空—谱信息融合、降维、混合特征提取与空—谱联合分类的过程。对于实现小样本高光谱图像的空—谱联合分类,DV-CNN具有比其他基于卷积神经网络算法更简单的网络结构[16],并能取得更好的分类性能。本文实验中使用的数据集是两个代表性的高光谱图像公开数据集,即Indian Pines和Pavia University Scene数据集,将通过参数选择对DV-CNN的算法性能进行分析,并与其他分类算法在小样本分类问题上进行比较,以证明DV-CNN算法具有更好的分类性能。

1 卷积神经网络

卷积神经网络是一种深度前馈人工神经网络,可对如高光谱图像这样的大型图像进行处理。卷积神经网络最初是受视觉神经网络启发的[17],主要用于识别位移、缩放和其他形式扭曲不变性的2维图形[18]。卷积神经网络识别图像的一般步骤为:卷积层通过卷积运算使原信号特征增强,初步提取特征,池化层对图像进行子抽样,起到二次特征提取的作用,全连接层将各部分特征汇总为向量,最后产生分类器用于预测和识别。局部互联、共享权值、下采样以及使用多个卷积层是卷积神经网络的4个基本特征。

1.1 卷积神经网络结构

卷积神经网络模型由输入层、隐层和输出层3部分组成。模型的输入是原始图像,不需要人为手动地进行特征选择或提取等预处理操作。隐层可以通过反复训练来实现模型的构建与特征的提取,并完成分类。隐层中的数据以特征图的方式逐级传递,特征提取主要通过卷积与池化操作实现[19],并通过全连接层的单层感知器在输出层输出分类结果。卷积神经网络结构如图 1所示。

图 1 卷积神经网络结构
Fig. 1 Convolutional neural network structure

图 1可以看出,与传统的高光谱图像分类算法不同,卷积神经网络的输入是未经预处理的原始图像,有效地避免了传统特征提取时人为参与的主观性与随意性。隐层是一种多层次的非线性结构,位于输入层与输出层之间,包括卷积层、池化层和全连接层,实现特征提取。卷积层C1负责卷积操作,提取输入图像的特征并生成对应的特征图。每个卷积层由若干卷积单元组成,每个卷积单元的参数都通过反向传播算法实现优化。卷积层运算的目的是提取输入的不同特征,通过逐层处理机制,由颜色、纹理等低层特征逐步抽象到复杂轮廓、场景语义等高层特征,卷积层数越多,能迭代提取的特征就越复杂。卷积层之后的池化层S2接受卷积层生成的特征图,将特征切分成几个区域取其最大值或平均值,得到新的、维度较小的特征,达到降维和进一步特征提取的目的,并生成新的特征图。C3和S4的组合结构重复C1和S2的操作,对中间特征图进行进一步的特征提取。卷积神经网络的隐层中存在大量卷积池化层或其组合结构,实现了隐层中的特征提取功能。全连接层位于隐层的最后一层,其功能为将所有局部特征结合变成全局特征,通过该层的单层感知器,计算出最后每一类的精度。

1.2 卷积神经网络的2维特征提取

卷积神经网络主要用于识别位移、缩放以及其他形式扭曲不变性的2维图像。输入2维图像,由卷积层和池化层来完成特征提取,在这种层级特征提取的过程中,卷积核的大小逐渐变小,数量逐渐变多,提取的特征也逐渐变多。大量的特征信息汇聚在全连接层,全排列后通过单层感知器实现了2维图像的分类。卷积神经网络避免了显式的特征提取,而隐式地从训练数据中进行学习。

2维特征提取中的卷积过程可以表示为

$ m_{(l + 1),i}^{\alpha ,\beta } = \sum\limits_{x = 1}^L {\sum\limits_{y = 1}^W {k_{(l + 1),i}^{x,y}} } n_l^{g(x)},g(y) $ (1)

式中,$L$$W$分别为输入数据的长度和宽度,$k^{x, y}_{(l+1), i}$是卷积核$k_{(l+1), i}$的一个元素,$i$是第$l+1$层特征提取中卷积核的序号,$(x, y)$表示元素的位置;$n^{g(x), g(y)}_{l}$是特征图$n_{l}$的元素之一,$l$是输入2维特征图所在层数的序号,$(g(x), g(y))$表示元素的位置。$m^{α, β}_{(l+1), i}$则是卷积计算的结果,$(α, β)$代表 2维特征矩阵中的坐标。

在卷积层中,上一层输出的特征图由可学习的卷积核进行卷积,然后通过激活函数获得输出特征图。若$l$层为卷积层,则其输出特征图为

$ {\mathit{\boldsymbol{X}}}_j^l = f\left( {\sum\limits_{i \in {M_j}} {{\mathit{\boldsymbol{X}}}_i^{l - 1}} \cdot k_{i,j}^l + b_j^l} \right) $ (2)

式中,$\mathit{\boldsymbol{M}}_{j}$表示$l-1$层输入特征图的集合,$\mathit{\boldsymbol{X}}^{l-1}_{i}$表示$l-1$层的第$i$个特征图,$k^{l}_{i, j}$表示$l-1$层和$l$层之间与$X^{l-1}_{i}$进行卷积计算的第$j$个卷积核,$b^{l}_{j}$表示卷积核$k^{l}_{i, j}$对应的偏置值,$f(·)$表示激活函数,$\mathit{\boldsymbol{X}}^{l}_{j}$表示第$l$层进行卷积计算之后输出的第$j$个特征图。

对于子采样层来说,输入特征图与输出特征图数量相等,只是每个输出特征图的大小变小。若$l$层为子采样层,则其输出特征图为

$ \mathit{\boldsymbol{X}}_j^l = f\left( {\beta _j^lD\left( {X_j^{l - 1}} \right) + b_j^l} \right) $ (3)

式中,$β^{l}_{j}$表示第$l$层第$j$个特征图的系数,$D(·)$表示一个子采样函数,$b^{l}_{j}$表示第$l$层第$j$个特征图的偏置。

2 变维卷积神经网络

2.1 变维卷积神经网络结构

提出的DV-CNN方法是对Liu等人[16]提出的DV-CNN方法的改进。本文方法与原DV-CNN方法均在卷积神经网络中通过改变提取高光谱特征图维度的方法来简化模型结构,增强模型特征提取能力,从而提高高光谱图像分类的精度,但是文献[16]中一般性的高光谱图像分类算法对小样本分类的普适性较弱。不同于原DV-CNN方法解决一般性的高光谱分类问题,本文方法研究的出发点是解决高光谱样本分布不均衡和小样本分类问题。本文方法为了解决小样本分类问题,针对小样本特征分布不均和特征相对较少等问题对模型进行优化,网络结构主要优化了3维卷积和2维卷积过程,强化模型特征表达能力,使提取到的特征更精确,模型更适合于小样本高光谱数据分类问题。由于现实存在的高光谱数据大多为无标签数据,监督学习使用的有标签样本属于少量,因此使用卷积神经网络解决小样本问题具有很强的现实意义。

本文立足于卷积神经网络的高光谱小样本分类问题展开研究,优化网络结构提高小样本分类精度,为高光谱图像分类中样本不均衡和小样本等问题提供了一种改进思路。在之后对高光谱小样本研究中,将基于本文算法进一步改进和拓展网络结构,优化网络特征提取与表达能力,进一步增强高光谱小样本分类精度。因此本文算法具有较强的可扩展性。

DV-CNN是一种基于卷积神经网络的改进模型。基于特征映射的维度变化,分为4个阶段,各个阶段都与特征提取相关并具有特征映射的特定维度。DV-CNN在特征提取过程中,内部的特征图的维度是变化的,而不是一直以3维结构存在,节省了大量的计算量与存储空间。其维度变化与结构如图 2所示。

图 2 DV-CNN结构图
Fig. 2 DV-CNN structure

DV-CNN的第1阶段实现了从原始高光谱图像数据中提取3维特征与降维。网络的输入是一个3维立方体结构的高光谱图像,由许多像素级别的波段共同组成,保留了原始的空间信息与光谱信息,DV-CNN可以充分利用这些空—谱信息提取到更高精度的特征。输入图像与3维卷积核进行卷积,同步提取空—谱联合特征图。在阶段1中有3个卷积层和1个池化层,用于提取空间与光谱的混合特征,可以最大化保留空间与光谱的特征信息。阶段1有3个3维特征提取的过程:3-D-1、3-D-2和3-D-3,通过3维卷积与池化实现空—谱融合特征提取与降维,这是一个持续的过程。3维卷积核的大小由具体数据集决定,并且随着层数的增加,卷积核的数量也随之增加。其输出结果是对原始高光谱图像进行3维特征提取后产生的1维特征向量,其中每个特征向量都包含特定的空—谱联合特征。

阶段2将阶段1产生的所有1维向量顺序组合成2维矩阵。2维矩阵包含空—谱联合特征,同时具有比高光谱图像数据更低的维度。

阶段3和阶段4组成了2维图像分类的通用卷积神经网络模型。在阶段3的特征提取过程中,输入数据是由阶段2输出的2维矩阵,这一阶段有3个卷积层和3个池化层,实现3次2维特征提取过程,每个特征提取过程都包含卷积和池化操作,其输出结果是一系列特征提取后的2维特征图。在阶段4中,有2个全连接层、1个dropout层和1个softmax层对阶段3输出的2维特征图进行分类。阶段3的所有输出在全连接层中重新组成一个1维向量,使得阶段4中的所有特征映射都是1维向量。阶段4的最后一层为输出层,实现DV-CNN分类结果的输出。

将3维卷积核运用到高光谱图像分类方法中,简化了网络的结构,可以更准确地提取特征,分类模型的层数和卷积核数量越多,分类精度越高。但是随着模型的复杂性增加,计算量也随之增多。卷积神经网络在完成模型的训练过程中,决定其时间复杂度的因素包含每个卷积核输出特征图的边长$M$,每个卷积核边长$K$,卷积核的通道数$C_{\rm in}$,本卷积层具有的卷积核个数$C_{\rm out}$。2维卷积核的时间复杂度为$O(M^{2}·K^{2}·C_{\rm{in}}·C_{\rm{out}})$,3维卷积核的时间复杂度为$O(M^{2}·K^{3}·C_{\rm{in}}·C_{\rm{out}})$。显然2维卷积核的时间复杂度和计算量更小。由于2维卷积核在进行空—谱联合特征提取时,光谱空间信息利用不足,所以2维卷积核比3维卷积核的分类精度低,但其可以在很大程度上降低网络的计算量和复杂度。在DV-CNN中,3维卷积核提取了空—谱联合特征,而2维卷积核简化了进一步特征提取的过程。DV-CNN提供了更多卷积核来提取空—谱联合特征,特征映射与维度变化保证了特征提取的精度,减少了模型的复杂度与计算量。在3维特征提取和2维特征提取过程中,选择合适的卷积层数和池化层数可以有效地解决高光谱图像分类的小样本问题。

2.2 变维卷积神经网络的3维特征提取与融合

在DV-CNN中使用了两种不同的特征提取,即3维特征提取[20]和2维特征提取,每个特征提取包含卷积和最大池化操作。在阶段1中,除了对空间降维与特征提取外,还需要同步提取空—谱联合特征。其特征提取过程的卷积过程可表示为

$ {f_{{\rm{out }}}}\left( {m_{l,i}^h} \right) = \sum\limits_{x = 1}^L {\sum\limits_{y = 1}^W {\sum\limits_{z = 1}^H {{f_{{\rm{in }}}}} } } \left( {\mathit{\boldsymbol{n}}_{(l - 1),i}^{g(x),g(y),g(z)}} \right)k_{l,i}^{x,y,z} $ (4)

$ g(x) = x + s(h - 1) $ (5)

式中,$L$$W$$H$分别代表输入数据的长、宽和高,$\mathit{\boldsymbol{n}}_{\rm{(l-1), i}}$为池化特征图,是本层的输入,$\mathit{\boldsymbol{n}}^{g(x), g(y), g(z)}_{\rm{(l-1), i}}$为池化特征图$\mathit{\boldsymbol{n}}_{\rm{(l-1), i}}$中的元素,坐标$(g(x), g(y), g(z))$代表元素位置,$l$代表特征提取层,$i$代表在$l-1$层中输入的3维特征图$\mathit{\boldsymbol{n}}_{\rm{(l-1), i}}$的序号;$k_{\rm{l, i}}$为卷积核,$k^{x, y, z}_{\rm{l, i}}$代表卷积核$k_{\rm{l, i}}$中的一个元素值,其中$i$代表第$l$层中卷积核的序号,坐标$(x, y, z)$代表元素在卷积核中的位置。$m^{h}_{\rm{l, i}}$代表生成的1维特征向量中序号为$h$的元素值。$s$代表卷积在移动方向的步长。

经过卷积操作来提取特征后,对特征进行激活以及池化操作可表示为

$ {f_{{\rm{out }}}}\left( {{m_{(l + 1),i}}} \right) = f\left( {{m_{l,i}} + {b_{l,i}}} \right) $ (6)

式中,$m_{\rm{l, i}}$$l$层的输入,$b_{\rm{l, i}}$为偏置值,$f(·)$为激活函数ReLU,$m_{\rm{(l+1), i}}$为激活函数$f(·)$的结果。

阶段3的2维特征提取与融合与1.2节中的描述相同。

在DV-CNN的3维特征提取过程中,有3个卷积层和1个最大池化层,在2维特征提取过程中,有3个卷积层和3个最大池化层。特征提取过程中卷积核的数量和大小见表 1。池化域大小的设置见表 2

表 1 DV-CNN不同阶段卷积核数量及大小设置
Table 1 The numbers and sizes of convolution kernels in different stages of DV-CNN

下载CSV
特征提取阶段 Indian Pines
数据集
Pavia University Scene
数据集
3-D-1 5,5×5×5 6,4×3×3
3-D-2 10,5×3×3 12,4×3×3
3-D-3 22,5×3×3 22,4×3×3
2-D-1 5,3×3 6,3×3
2-D-2 10,3×3 12,3×3
2-D-3 20,3×3 36,3×3

表 2 DV-CNN不同阶段池化域大小设置
Table 2 The sizes of maxpooling area in different stages of DV-CNN

下载CSV
特征提取阶段 Indian Pines
数据集
Pavia University Scene
数据集
3-D 2×2×2 1×2×2
2-D 2×2 2×2

3 实验与结果分析

3.1 实现数据集与参数设置

实验用两个不同的真实高光谱图像数据集(http://www.ehu.eus/ccwintco/index.php?title=Hyperspectral_Remote_Sensing_Scenes)来测试分类性能,分别为Indian Pines和Pavia University Scene数据集,数据集如图 3所示。这两个有标记数据集都被随机分为训练集和测试集两部分,比率为1 :9,以模拟小样本高光谱图像数据。

图 3 两个数据集
Fig. 3 Data sets((a) Indian Pines; (b) Pavia University Scene)

第1个数据集是Indian Pines数据集,是由AVIRIS传感器在印第安纳西北部的印度试验场收集的。其光谱波长变化范围为0.4~2.5 μm,包含了16类地物,共有145×145个像素,每个像元对应220个波段,去除水吸收的波段之后,剩余200个光谱波段,因此,Indian Pines数据集的输入大小为200×145×145。Indian Pines数据集样本总数为10 249,其中1 025个样本作为训练集,即待分类样本,9 224个样本作为测试集。

第2个数据集是Pavia University Scene数据集,它是由ROSIS传感器在意大利帕维亚上空采集的610×340像素的高光谱图像。Pavia University Scene数据集的波长范围为0.43~2.5 μm,共有9类地物,图像中的每个像元对应于103个波段,因此Pavia University Scene数据集的输入大小为103×610×340。对数据集进行空—谱联合特征提取时,Indian Pines数据集的空间邻域大小设为10×10,Pavia University Scene数据集的空间邻域大小设为8×8。Pavia University Scene数据集样本总数为42 776,其中4 278个样本作为训练集, 即待分类样本,38 498个样本作为训练集。

实验采用Tensorflow框架实现了DV-CNN,所使用计算机的CPU型号为Intel Core i7-6700 @3.4 GHz,GPU型号为NVIDIA GTX 1080Ti,内存为16 GB。实验分为两部分,第1部分分析DV-CNN内部参数对其分类性能的影响,寻找出最优参数,并以此为基础进行第2部分的实验,实现对于小样本的高光谱图像分类,并检验基于空—谱联合特征的DV-CNN算法在小样本高光谱图像上是否优于其他算法的分类性能。

在实验中,每组实验做10次,取其平均值作为最后的结果。采用总体精度(OA)、平均精度(AA)和Kappa系数(κ)评价本文算法的分类性能。DV-CNN算法中应用了自适应时刻估计(Adam)算法,将学习率设定为1×10-3

3.2 DV-CNN参数对分类精度的影响实验

1) 批训练样本大小对分类性能的影响实验。为了检验输入DV-CNN模型中的批训练样本大小对其分类性能的影响,分别选择卷积神经网络实验中常用的5个批训练样本大小作为两个数据集的输入,Indian Pines数据集的批训练样本大小的范围为10~50,Pavia University Scene数据集的批训练样本大小范围为120~160,通过对比实验测试各自的分类性能,寻找出能使分类性能达到最优的样本大小值。实验结果如图 4图 5所示。

图 4 批训练样本大小对DV-CNN在Indian Pines数据集的分类性能影响
Fig. 4 Influence of batch size on classification performance of DV-CNN in Indian Pines ((a) varying curves of OA, AA and κ; (b) variable histogram of the standard deviation of OA, AA and κ)
图 5 批训练样本大小对DV-CNN在Pavia University Scene数据集的分类性能影响
Fig. 5 Influence of batch size on classification performance of DV-CNN in Pavia University Scene ((a) varying curves of OA, AA and κ; (b) variable histogram of the standard deviation of OA, AA and κ)

图 4图 5中,当对Indian Pines数据集和Pavia University Scene数据集进行分类,输入DV-CNN的批训练样本大小分别为40和150时,取得的OA、AA和κ值最高,且标准差最小,分类精度最高。

2) 优化交叉熵算法的阈值对分类性能的影响实验。优化交叉熵算法的关键在于DV-CNN对卷积神经网络中的交叉熵进行函数优化进而实现迭代次数的控制,而交叉熵的优化关键在于域值的选择。本实验中选择5个常用的交叉熵阈值数据进行实验,分别按1×10-30、1×10-25、1×10-20、1×10-15、1×10-10逐级递增,实验结果如图 6图 7所示。

图 6 阈值对DV-CNN在Indian Pines数据集的分类性能影响
Fig. 6 Influence of threshold on classification performance of DV-CNN in Indian Pines ((a) varying curves of OA, AA and κ; (b) variable histogram of the standard deviation of OA, AA and κ)
图 7 阈值对DV-CNN在Pavia University Scene数据集的分类性能影响
Fig. 7 Influence of threshold on classification performance of DV-CNN in Pavia University Scene ((a) varying curves of OA, AA and κ; (b) variable histogram of the standard deviation of OA, AA and κ)

图 6图 7可以看出,当阈值设置为1×10-15时,DV-CNN在Indian Pines数据集和Pavia University Scene数据集上都取得了最高的分类精度和最小的标准差,取得了最好的分类性能。

3) dropout值对分类性能的影响实验。卷积神经网络中使用dropout层防止模型过拟合。其基本思想是在训练的过程中随机丢弃一些神经元的参数值,这样可以使模型鲁棒性更好,以防模型过于依赖某些局部的特征。本实验中选择5个常用的dropout值,研究其对分类性能的影响,并分别寻找出对两个数据集适用性最好的dropout值。实验结果如图 8图 9所示。

图 8 dropout值对DV-CNN在Indian Pines数据集的分类性能影响
Fig. 8 Influence of dropout on classification performance of DV-CNN in Indian Pines ((a) varying curves of OA, AA and κ; (b) variable histogram of the standard deviation of OA, AA and κ)
图 9 dropout值对DV-CNN在Pavia University Scene数据集的分类性能影响
Fig. 9 Influence of dropout on classification performance of DV-CNN in Pavia University Scene ((a) varying curves of OA, AA and κ; (b) variable histogram of the standard deviation of OA, AA and κ)

图 8图 9可以看出,当dropout值设置为0.8时,DV-CNN在Indian Pines数据集和Pavia University Scene数据集上都取得了最好的分类效果,此时分类精度最高,标准差最小。因此,将dropout值设置为0.8时可以使DV-CNN得到最佳的分类性能。

4) 卷积核个数对分类性能的影响实验。在本次实验中,卷积核个数是指3-D-1阶段中卷积核的个数,其他阶段中卷积核数量的设置见表 1。为了检测卷积核个数在空—谱联合特征提取与融合阶段对分类性能的影响,分别选择5个常用的数值作为两个数据集的实验数据,Indian Pines数据集为6~10,Pavia University Scene数据集为3~7,分类效果分别如图 10图 11所示。

图 10 卷积核个数对DV-CNN在Indian Pines数据集的分类性能影响
Fig. 10 Influence of kernel number on classification performance of DV-CNN in Indian Pines ((a) varying curves of OA, AA and κ; (b) variable histogram of the standard deviation of OA, AA and κ)
图 11 卷积核个数对DV-CNN在Pavia University Scene数据集的分类性能影响
Fig. 11 Influence of kernel number on classification performance of DV-CNN in Pavia University Scene ((a) varying curves of OA, AA and κ; (b) variable histogram of the standard deviation of OA, AA and κ)

图 10图 11中,当卷积核的数量分别设置为8和5时,在Indian Pines数据集和Pavia University Scene数据集上取得了最好的分类性能,其分类精度最高,标准差最小。

3.3 DV-CNN分类效果对比实验

DV-CNN在Indian Pines数据集和Pavia University Scene数据集上的分类精度及标准差见表 3。Indian Pines数据集上DV-CNN的OA为87.87%,AA为82.88%,Kappa系数为0.862;Pavia University Scene数据集上DV-CNN的OA为98.18%,AA为97.20%,Kappa系数为0.976。Pavia University Scene数据集的分类结果优于Indian Pines数据集,其中一个主要因素是数据量。在Indian Pines数据集中,在145×145区域中有10 249个标记的像素,但在Pavia University Scene数据集中,在610×340区域中有42 776个标记的像素。在深度学习模型中,数据量的大小往往是影响训练效果的关键因素。DV-CNN在Indian Pines数据集和Pavia University Scene数据集上的分类结果如图 12所示。

表 3 DV-CNN的分类结果
Table 3 Classification results of DV-CNN

下载CSV
Indian Pines数据集 Pavia University Scene数据集
OA/% 87.87±0.41 98.18±0.29
AA/% 82.88±1.44 97.20±0.31
κ 0.862±0.005 0.976±0.004
图 12 DV-CNN的分类结果
Fig. 12 Classification results of DV-CNN((a) Indian Pines; (b) Pavia University Scene)

本实验选择了一些用于小样本高光谱图像分类的最新方法与DV-CNN进行比较,这些方法都得到了研究者们的广泛认可。在表 4表 5中列出了支持向量机(SVM)[21]、正交匹配追踪(OMP)[22]、最近邻正则化子空间分类器(NRS)[23]、CRT (collaborative representation with Tikhonov regularization)[24]、KCRT (kernel CRT)[24]和DKCRT (Discriminative KCRT)[25]的分类结果,包括了每类地物的分类精度和图像的总体精度、平均精度和κ系数,并在Indian Pines数据集和Pavia University Scene数据集上与DV-CNN进行了比较。对两组数据集进行了相同的实验,并采用了相同的比较方法,根据实验结果评价本文方法的优缺点。每个实验在不同的训练集中重复10次,并对结果进行平均,以消除随机因素对结果的影响。

表 4 在Indian Pines数据集上DV-CNN与其他方法的分类结果
Table 4 Classification results of Indian Pines with different methods

下载CSV
地物种类 样本总数/个 方法
SVM OMP NRS CRT KCRT DKCRT DV-CNN
苜蓿 46 42.32 47.20 52.68 16.71 72.32 71.34 64.29
免耕玉米地 1 428 78.77 65.36 48.42 83.96 80.63 83.34 83.28
玉米幼苗 830 63.72 47.26 25.40 49.18 68.95 73.35 77.64
玉米 237 72.37 40.56 35.54 25.40 63.33 75.21 68.22
草地—牧场 483 89.55 85.10 88.18 90.10 92.89 93.43 93.56
草地—树木 730 96.64 91.41 95.25 98.65 98.07 98.71 96.80
修剪后草地 28 67.00 26.20 54.00 5.60 64.80 63.80 80.77
干草—料堆 478 98.92 98.70 99.67 100.00 99.73 99.78 99.77
燕麦 20 35.28 29.44 33.61 5.83 50.83 50.83 33.33
免耕大豆地 972 70.53 48.73 28.10 64.45 76.11 84.87 85.94
大豆幼苗 2 455 86.17 70.52 98.14 84.67 83.24 82.95 90.90
修剪后大豆地 593 80.48 51.74 35.28 67.58 82.07 89.50 75.47
小麦 205 97.66 94.35 95.27 99.27 99.24 99.29 92.97
木材 1 265 96.59 93.33 97.59 96.97 95.62 96.54 94.91
建筑—草—树木—机器 386 52.44 48.40 59.03 55.26 63.63 61.04 79.60
石钢塔 93 87.80 88.04 81.67 86.67 87.38 86.55 80.95
OA/% 82.60 69.87 70.81 79.44 83.78 86.06 87.60
AA/% 76.01 64.15 64.25 64.39 79.93 81.91 81.15
κ 0.800 0.654 0.653 0.763 0.815 0.841 0.858
注:加粗字体表示最优结果。

表 5 在Pavia University Scene数据集上DV-CNN与其他方法的分类结果
Table 5 Classification results of Pavia University Scene with different methods

下载CSV
地物种类 样本总数/个 方法
SVM OMP NRS CRT KCRT DKCRT DV-CNN
沥青 6 631 91.18 70.29 93.01 85.32 83.29 86.49 98.73
草甸 18 649 98.51 92.60 98.75 98.59 95.92 97.98 99.67
砾石 2 099 33.26 57.49 58.59 56.00 67.19 67.86 91.80
树木 3 064 85.80 82.54 78.53 83.98 84.09 83.78 98.19
金属板 1 345 98.87 99.77 98.85 99.70 99.47 99.22 100.00
裸土 5 029 49.98 58.37 53.25 55.86 75.88 74.02 97.92
柏油 1 330 14.87 54.33 41.92 63.18 74.53 75.86 94.65
3 682 89.99 63.09 84.78 81.87 79.28 86.50 95.96
阴影 947 99.83 83.62 91.08 90.14 99.95 99.74 95.78
OA/% 84.26 78.97 85.96 85.68 87.45 89.29 98.28
AA/% 73.59 73.57 77.64 79.40 84.40 85.72 96.97
κ 0.785 0.718 0.808 0.805 0.833 0.856 0.977
注:加粗字体表示最优结果。

SVM和CRT方法仅利用光谱信息,忽略了空间信息,且未对特征图降维,使得在样本数量不充足的情况下,训练过程中提取的特征不具有代表性,所含信息不丰富;OMP、KCRT和DKCRT方法利用了光谱和空间信息,但是未对特征图降维,虽然提取的特征中同时包含了光谱和空间信息,但是由于数据内部结构仍是3维的,所以在分类过程中仍可能丢失重要信息,并且计算量庞大;NRS方法对特征图进行了降维处理,但是在分类过程中只利用了光谱信息,仍然存在空间相关信息利用不足的问题,对样本的适应性差。

表 4表 5中加粗的数值代表所有方法的最佳分类结果。从表 4可以看出,在Indian Pines数据集上DKCRT方法的AA最高,本文方法的OA和κ系数最高;从表 5可以看出,Pavia University Scene数据集上本文方法的OA、AA和κ系数都为最高。结合表 4表 5可以看出,SVM和CRT方法除了免耕玉米地和干草—料堆类别,在其他类地物中的分类精度均偏低,尤其是在数据量较少的地物中;OMP、KCRT和DKCRT方法除了免耕玉米地、干草—料堆、大豆幼苗和木材类别,在其他所有地物中的分类精度均仅次于或稍微高于本文的DV-CNN方法,说明了充分利用光谱和空间信息的必要性;NRS方法在数据量比较多的大豆幼苗和木材类别中分类精度最高,而在其他数据量较少的地物类别中分类效果处于中等,说明了在小样本高光谱图像分类中,仅降低特征图的维度是无法保证分类精度的;本文DV-CNN方法的分类性能整体上较好,并且在建筑—

草—树木—机器和砾石两类上的分类精度明显高于其他方法,在一定程度上说明了充分利用光谱和空间信息并降低特征图维度可以提取具有代表性的特征,保留重要的信息。对于每种类别,DV-CNN方法都可以通过充分提取类内所有训练样本的特征来计算测试样本的近似值,有效地提高了小样本高光谱图像的分类性能。

从理论上分析,由于充分利用光谱与空间信息和只利用光谱信息的不同,对特征图降维和不对特征图降维的不同,造成了网络在特征提取能力以及提取信息质量的差异。

3.4 结果分析

本文的实验分为两部分:1)DV-CNN算法的分类性能分析实验;2)与现有小样本高光谱图像分类方法的性能对比实验。

第1部分的结果表明,DV-CNN中的参数选择对分类精度有很大影响。通过在批训练样本大小、阈值、dropout值和卷积核数量参数上的实验,说明合理参数选择对算法分类性能有着重要的影响。对于Indian Pines数据集和Pavia University Scene数据集,批训练样本个数分别设置为40和150、阈值均设置为1×10-15、dropout值均设置为0.8、卷积核个数分别设置为8和5时,分类性能最好。

第2部分的结果证明了DV-CNN算法对小样本的高光谱图像分类的优越性。将DV-CNN与其他深度学习算法进行了比较,DV-CNN在Indian Pines数据集和Pavia University Scene数据集上的总体分类精度分别为87.87%和98.18%,都获得了最好的结果。通过从充分利用空—谱联合信息和对特征图降维两方面优化的比较,说明了将两种优化方法结合起来可以有效提高小样本高光谱图像的分类性能。

4 结论

本文研究工作主要是针对高光谱图像分类中小样本数据分类精度低和基于深度学习模型计算量大、模型结构复杂的问题,提出了变维卷积神经网络模型,通过在训练过程改变特征图的维度和对高精度空—谱联合特征的提取,降低了模型的复杂度,提升了模型的分类性能。

通过性能分析实验选用了最优的参数组,并将这组参数应用到网络中,进行了与其他分类算法的对比实验。实验表明了变维卷积神经网络将充分利用空—谱联合信息和对特征图降维两种优化方法结合起来可以较大程度地减少模型的复杂度,充分提取高光谱特征,进而有效地提高对小样本的分类性能。因此,变维卷积神经网络是一种提高高光谱图像小样本分类性能的有效算法。

变维卷积神经网络的分类精度受样本数量影响较大,不同的样本数量会引起分类结果的差异。在未来的研究中,将通过生成对抗网络(GAN)来实现数据增强,丰富训练样本,以进一步提高分类精度。

参考文献

  • [1] Zhang H K, Li Y, Jiang Y N. Deep learning for hyperspectral imagery classification:the state of the art and prospects[J]. Acta Automatica Sinica, 2018, 44(6): 961–977. [张号逵, 李映, 姜晔楠. 深度学习在高光谱图像分类领域的研究现状与展望[J]. 自动化学报, 2018, 44(6): 961–977. ] [DOI:10.16383/j.aas.2018.c170190]
  • [2] Wang D, Wu J. Study on crop variety identification by hyperspectral remote sensing[J]. Geography and Geo-information Science, 2015, 31(2): 29–33. [王岽, 吴见. 农作物种类高光谱遥感识别研究[J]. 地理与地理信息科学, 2015, 31(2): 29–33. ] [DOI:10.3969/j.issn.1672-0504.2015.02.007]
  • [3] Zhang C M, Mu T K, Yan T Y, et al. Overview of hyperspectral remote sensing technology[J]. Spacecraft Recovery & Remote Sensing, 2018, 39(3): 104–114. [张淳民, 穆廷魁, 颜廷昱, 等. 高光谱遥感技术发展与展望[J]. 航天返回与遥感, 2018, 39(3): 104–114. ] [DOI:10.3969/j.issn.1009-8518.2018.03.012]
  • [4] Liu W J, Liang X J, Qu H C. Learning performance of convolutional neural networks with different pooling models[J]. Journal of Image and Graphics, 2016, 21(9): 1178–1190. [刘万军, 梁雪剑, 曲海成. 不同池化模型的卷积神经网络学习性能研究[J]. 中国图象图形学报, 2016, 21(9): 1178–1190. ] [DOI:10.11834/jig.20160907]
  • [5] Xue Z H, Li J, Cheng L, et al. Spectral-spatial classification of hyperspectral data via morphological component analysis-based image separation[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(1): 70–84. [DOI:10.1109/TGRS.2014.2318332]
  • [6] Li H C, Zhou H L, Pan L, et al. Gabor feature-based composite kernel method for hyperspectral image classification[J]. Electronics Letters, 2018, 54(10): 628–630. [DOI:10.1049/el.2018.0272]
  • [7] Tu B, Zhang X F, Zhang G Y, et al. Hyperspectral image classification via recursive filtering and KNN[J]. Remote Sensing for Land & Resources, 2019, 31(1): 22–32. [涂兵, 张晓飞, 张国云, 等. 递归滤波与KNN的高光谱遥感图像分类方法[J]. 国土资源遥感, 2019, 31(1): 22–32. ] [DOI:10.6046/gtzyyg.2019.01.04]
  • [8] Huang H, He K, Zheng X L, et al. Spatial-spectral feature extraction of hyperspectral image based on deep learning[J]. Laser & Optoelectronics Progress, 2017, 54(10): #101001. [黄鸿, 何凯, 郑新磊, 等. 基于深度学习的高光谱图像空-谱联合特征提取[J]. 激光与光电子学进展, 2017, 54(10): #101001. ] [DOI:10.3788/LOP54.101001]
  • [9] Yuan L, Hu S X, Zhang A W, et al. A classification method for hyperspectral imagery based on deep learning[J]. Artificial Intelligence and Robotics Research, 2017, 6(1): 31–39. [袁林, 胡少兴, 张爱武, 等. 基于深度学习的高光谱图像分类方法[J]. 人工智能与机器人研究, 2017, 6(1): 31–39. ] [DOI:10.12677/AIRR.2017.61005]
  • [10] Zhang K J, Li W N, Qian R, et al. Automatic text summarization scheme based on deep learning[J]. Journal of Computer Applications, 2019, 39(2): 311–315. [张克君, 李伟男, 钱榕, 等. 基于深度学习的文本自动摘要方案[J]. 计算机应用, 2019, 39(2): 311–315. ] [DOI:10.11772/j.issn.1001-9081.2018081958]
  • [11] Hinton G E, Salakhutdinov R R. Reducing the dimensionality of data with neural networks[J]. Science, 2006, 313(5786): 504–507. [DOI:10.1126/science.1127647]
  • [12] Crawford M M, Tuia D, Yang H L. Active learning:any value for classification of remotely sensed data?[J]. Proceedings of the IEEE, 2013, 101(3): 593–608. [DOI:10.1109/JPROC.2012.2231951]
  • [13] Huang G B, Zhou H M, Ding X J, et al. Extreme learning machine for regression and multiclass classification[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 2012, 42(2): 513–529. [DOI:10.1109/TSMCB.2011.2168604]
  • [14] Liao J S, Wang L G. Classification method of hyperspectral image based on spatial autocorrelation information[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(6): 215–224. [廖建尚, 王立国. 面向空间自相关信息的高光谱图像分类方法[J]. 农业机械学报, 2018, 49(6): 215–224. ] [DOI:10.6041/j.issn.1000-1298.2018.06.025]
  • [15] Yang S X, Geng X R, Yang W T, et al. A method of hyperspectral remote sensing image classification based on spectral clustering[J]. Journal of University of Chinese Academy of Sciences, 2019, 36(2): 267–274. [杨随心, 耿修瑞, 杨炜暾, 等. 一种基于谱聚类算法的高光谱遥感图像分类方法[J]. 中国科学院大学学报, 2019, 36(2): 267–274. ]
  • [16] Liu W J, Liang X J, Qu H C. Dimensionality-varied convolutional neural network for spectral-spatial classification of hyperspectral data[C]//Proceedings of SPIE 10605, LIDAR Imaging Detection and Target Recognition. Changchun, China: SPIE, 2017: 219.[DOI: 10.1117/12.2295865]
  • [17] Liu W J, Liang X J, Qu H C. Convolutional neural network algorithm based on double optimization for image recognition[J]. Pattern Recognition and Artificial Intelligence, 2016, 29(9): 856–864. [刘万军, 梁雪剑, 曲海成. 基于双重优化的卷积神经网络图像识别算法[J]. 模式识别与人工智能, 2016, 29(9): 856–864. ] [DOI:10.16451/j.cnki.issn1003-6059.201609011]
  • [18] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[C]//Proceedings of the 25th International Conference on Neural Information Processing Systems. Lake Tahoe, Nevada, USA: ACM, 2012: 1097-1105.
  • [19] Xia M, Cao G, Wang G Y, et al. Remote sensing image classification based on deep learning and conditional random fields[J]. Journal of Image and Graphics, 2017, 22(9): 1289–1301. [夏梦, 曹国, 汪光亚, 等. 结合深度学习与条件随机场的遥感图像分类[J]. 中国图象图形学报, 2017, 22(9): 1289–1301. ] [DOI:10.11834/jig.170122]
  • [20] Ji S W, Xu W, Yang M, et al. 3D convolutional neural networks for human action recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(1): 221–231. [DOI:10.1109/TPAMI.2012.59]
  • [21] Ran Q, Yu H Y, Gao L R, et al. Superpixel and subspace projection-based support vector machines for hyperspectral image classification[J]. Journal of Image and Graphics, 2018, 23(1): 95–105. [冉琼, 于浩洋, 高连如, 等. 结合超像元和子空间投影支持向量机的高光谱图像分类[J]. 中国图象图形学报, 2018, 23(1): 95–105. ] [DOI:10.11834/jig.170201]
  • [22] Ma J Y, Chen C, Li C, et al. Infrared and visible image fusion via gradient transfer and total variation minimization[J]. Information Fusion, 2016, 31: 100–109. [DOI:10.1016/j.inffus.2016.02.001]
  • [23] Li W, Tramel E W, Prasad S, et al. Nearest regularized subspace for hyperspectral classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(1): 477–489. [DOI:10.1109/TGRS.2013.2241773]
  • [24] Li W, Du Q, Xiong M M. Kernel collaborative representation with tikhonov regularization for hyperspectral image classification[J]. IEEE Geoscience and Remote Sensing Letters, 2015, 12(1): 48–52. [DOI:10.1109/LGRS.2014.2325978]
  • [25] Ma Y, Li C, Li H, et al. Hyperspectral image classification with discriminative kernel collaborative representation and tikhonov regularization[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(99): 587–591. [DOI:10.1109/LGRS.2018.2800080]