Print

发布时间: 2021-08-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.200857
2021 | Volume 26 | Number 8




    高光谱图像分类    




  <<上一篇 




  下一篇>> 





高光谱图像分类的自适应决策融合方法
expand article info 叶珍, 董睿, 陈浩鑫, 白璘
长安大学电子与控制工程学院, 西安 710064

摘要

目的 目前高光谱图像决策融合方法主要采用以多数票决(majority vote,MV)为代表的硬决策融合和以对数意见池(logarithmic opinion pool,LOGP)为代表的软决策融合策略。由于这些方法均使用统一的权重系数进行决策融合,没有对子分类器各自的分类性能进行评估而优化分配权重系数,势必会影响最终的分类精度。针对该问题,本文对多数票决和对数意见池融合策略进行了改进,提出了面向高光谱图像分类的自适应决策融合方法。方法 根据相关系数矩阵对高光谱图像进行波段分组,对每组波段进行空谱联合特征提取;利用高斯混合模型(Gaussian mixture model,GMM)或支持向量机(support vector machine,SVM)分类器对各组空谱联合特征进行分类;最后,采用本文研究的两种基于权重系数优化分配的自适应融合策略对子分类器的分类结果进行决策融合,使得分类精度低的波段组和异常值对最终分类结果的影响达到最小。结果 对两个公开的高光谱数据集分别采用多种特征和两种分类器组合进行实验验证。实验结果表明,在相同特征和分类器条件下,本文提出的自适应多数票决策融合策略(adjust majority vote,adjustMV)、自适应对数意见池决策融合策略(adjust logarithmic opinion pool,adjustLOGP)比传统的MV决策融合策略、LOGP决策融合策略对两个数据集的分类精度均有大幅度提高。Indian Pines数据集上,adjustMV算法的分类精度比相应的MV算法平均提高了1.2%,adjustLOGP算法的分类精度比相应的LOGP算法平均提高了7.38%;Pavia University数据集上,adjustMV算法的分类精度比相应的MV算法平均提高了2.1%,adjustLOGP算法的分类精度比相应的LOGP算法平均提高了4.5%。结论 本文提出的自适应权重决策融合策略为性能较优的子分类器(即对应于分类精度高的波段组)赋予较大的权重,降低了性能较差的子分类器与噪声波段对决策融合结果的影响,从而大幅度提高分类精度。所研究的决策融合策略的复杂度和计算成本均较低,在噪声环境中具有更强的鲁棒性,同时在一定程度上解决了高光谱图像分类应用中普遍存在的小样本问题。

关键词

高光谱图像分类; 空谱特征提取; 决策融合; 多数票决; 自适应权重

Adjustive decision fusion approaches for hyperspectral image classification
expand article info Ye Zhen, Dong Rui, Chen Haoxin, Bai Lin
School of Electronics and Control Engineering, Chang'an University, Xi'an 710064, China
Supported by: National Key Research and Development Program of China (2020YFC1512000);National Natural Science Foundation of China (41601344, 61601059); Fundamental Research Funds for the Central Universities (300102320107)

Abstract

Objective Hyperspectral imagery contains rich spectral and spatial information and transforms remote sensing technology from qualitative to quantitative analysis. It can be widely used in geological prospecting, precision agriculture, ecology environment, and urban remote sensing. However, classification and recognition applications have many difficulties because hyperspectral image has large amount of data, multiple bands, and strong correlation between bands. In particular, the "Hughes" phenomenon caused by the decline in classification accuracy with the increase in data complexity when the number of training samples is limited needs to be addressed. Research on feature extraction and classification algorithm for hyperspectral image has become an important task in hyperspectral data processing to fully utilize the advantages of hyperspectral remote sensing technology and overcome the disadvantages caused by the large number of bands. Multi-classifier system with band-selection dimensionality reduction is effective for hyperspectral image classification, particularly when the size of the training dataset is small. The usual methods of decision fusion strategies at present are hard decision fusion represented by majority vote (MV) and soft decision fusion represented by logarithmic opinion pool (LOGP). These methods use the unified weight coefficient for decision fusion without evaluating the respective classification performance of sub-classifiers and optimizing the allocation of weight coefficients, which will inevitably affect the classification results. Two adaptive decision fusion strategies are studied in this work on the basis of MV and LOGP to solve this problem, and a multi-classifier system is designed for hyperspectral image classification. Method The correlation between adjacent bands of hyperspectral image usually appears in groups, the intra-band correlation is strong, and the inter-band correlation is weak. Thus, band selection is used for dimensionality reduction, and band grouping is utilized to feed features to multi-classifiers. Specifically, the hyperspectral data are grouped according to the correlation coefficient matrix. Then, spatial-spectral features are extracted for the bands with strong correlation in each group. Gabor and local binary pattern (LBP) features are proven to be suitable and powerful for hypershectral image(HSI) classification. The former is oriented to global features, and the latter is oriented to local features. These features are investigated for the proposed multi-classifier system. Apart from principal component analysis, two advanced local protection dimensionality reduction methods, namely, locality-preserving nonnegative matrix factorization (LPNMF) and locality fisher discriminant analysis (LFDA), are also used in the proposed system. LPNMF aims to find a low-dimensional subspace and use its single element to represent the categories of ground objects for effectively protecting the diverse local structures of the original hyperspectral image. LFDA is suitable for dimensionality reduction of multi-model data, which can protect the local information between adjacent pixels by linear spectrum. Next, Gaussian mixture model (GMM) classifiers or support vector machine (SVM) classifiers are used to classify each group of features. Finally, the adjustMV decision fusion strategy and adjustLOGP decision fusion strategy are designed, which are based on the weight coefficient optimization allocation for sub-classifiers. They minimize the effect of band groups and abnormal values with low classification accuracy on the final classification results. Result Multiple features and two classifiers are executed crosswise for classification to verify the effectiveness of the proposed decision fusion strategies and multi-classifier system. Experiments are conducted on two public hyperspectral datasets, namely, the Indian Pines and Pavia University datasets. Experimental results show that the classification accuracies of the adjustMV strategy for Indian Pines and Pavia University datasets are improved by 1.02% and 3.39%, respectively, when Gabor features and GMM classifiers are used for MV decision fusion. When LBP features and SVM classifiers are used for MV decision fusion, the accuracies of the adjustMV strategy for Indian Pines and Pavia University datasets are improved by 1.32% and 0.82%, respectively. GMM classifiers followed by LFDA, LPNMF, or Gabor features, as three basic lines, are conducted into adjustLOGP strategy. For Indian Pines dataset, three adjustLOGP-based algorithms drive higher classification accuracies (18.54%, 5.14%, and 2.87%) than three LOGP-based algorithms. For Pavia University dataset, three adjustLOGP-based algorithms drive higher classification accuracies (2.06%, 5.81%, and 6.99%) than three LOGP based algorithms. Experiments are also conducted on the two datasets with different numbers of training samples and different powers of noise. The proposed adaptive decision fusion strategies still have better classification performance, even in situations of small sample size and environments with noise. It also has better stability by computing the standard deviations from 20 trails. When the number of training samples is 70, the classification accuracies of the two proposed decision fusion strategies on the Indian Pines and Pavia University datasets have 1.97% and 1.03% improvements compared with the unified weight fusion strategies. When the number of training samples is 30, the classification accuracies of the two proposed decision fusion strategies on the Indian Pines and Pavia University datasets have 4.91% and 3.55% improvements. Gaussian noise is added to the two hyperspectral datasets to further study the robustness of the improved strategies. The classification accuracies of 10 decision fusion algorithms are compared in the case that the signal-to-noise ratio(SNR) of noised datasets is 20 dB. Clearly, five adjustMV-based and adjustLOGP-based strategies are superior to the MV-based and LOGP-based strategies in the noise environment. Conclusion Two adaptive decision fusion strategies and a multi-classifier system are proposed for hyperspectral image classification in this study. The proposed decision fusion strategies consider allocating different weights with higher reliability to sub-classifiers according to their classification performance. The proposed adjustMV can cast a more important vote to obtain a final decision, and the proposed adjustLOGP has a higher probability of a posteriori to increase the probability of a correct decision. The proposed strategies have low complexity, but they can greatly improve the classification accuracy and possess better stability, even under situations of small sample size and environments with noise.

Key words

hyperspectral image classification; spatial-spectral feature extraction; decision fusion; majority vote; adaptive weights

0 引言

高光谱遥感具有丰富的光谱信息,同时,也由于数据维数高、训练样本不足等问题,在分类中容易产生“维数灾难”现象(Huang等,2016Du等,2013)。因此,对高光谱图像进行分类时,有必要对其进行降维来去除谱间相关性。传统的降维方法分为无监督方法和有监督方法,如主成分分析(principal component analysis, PCA)(Jiang等,2018)和线性判别式分析(linear discriminant analysis, LDA)(Hou等,2019)。在LDA的基础上,一系列局部保护降维方法相继提出,如局部保护投影(local protection projection, LPP)(骆仁波和皮佑国,2014)、局部Fisher判别分析(locality Fisher discriminant analysis, LFDA)(Li等,2012)、局部保护非负矩阵分离(locality-preserving nonnegative matrix factorization, LPNMF)(叶珍等,2016)等。

仅通过降维对高光谱图像进行光谱特征提取,忽略了像元间空间信息的相关性,分类精度难以大幅度提升。因此,有必要研究高光谱图像的空谱特征(叶珍等,2016Ye等,2017邱云飞等,2019)。局部二值模式(local binary patterns, LBP)具有灰度和旋转不变性的优点,可以在角度空间的圆形邻域内和任意空间分辨率下挖掘高光谱图像丰富的局部纹理信息。Li等人(2015)首次将LBP引入对高光谱图像进行空谱特征提取,并与极限学习机(extreme learning machine, ELM)相结合,获得了令人满意的分类结果。Jia等人(2018)提出了基于局部二值模式的超像素级决策融合方法,将均匀LBP用于提取局部特征、熵率分割方法用于超像素分割,并结合支持向量机对高光谱图像分类。Ye等人(2020)提出了分割局部二值模式(segmented local binary patterns, SLBP)的高光谱图像决策融合分类方法,从每个波段组中提取基于LBP的空谱特征,以保持原始数据的几何结构,并通过多分类器与决策融合系统进一步提高分类器性能。

目前,对高光谱图像决策融合分类的研究主要通过降维和特征提取展开,对决策融合规则的研究还比较少。Prasad和Bruce(2008)最先提出对高光谱图像的波段进行子空间识别与分组,将多个分类器和决策融合系统相结合,提高分类器整体的鲁棒性,同时减少小样本问题的影响。Li和Du(2014)将OAO(one against one)策略和核判别分析(kernel discriminant analysis, KDA)应用于高光谱图像分类,并通过多数票决(majority vote, MV)和对数意见池(logarithmic opinion pool, LOGP)决策融合策略得到最终的分类结果。此外,基于超级PCA的高光谱图像特征提取技术被用于对高光谱图像分割反射率相似的区域,再对每个区域使用支持向量机(support vector machine, SVM)分类器进行分类,并通过MV对分类结果进行融合(Jiang等,2018)。尹玉萍等人(2020)在集成学习算法的基础上,考虑不同波段在高光谱图像分类过程中的作用不同,提出了融合累积变异比和集成超限学习机的高光谱图像分类方法,能够有效提取特征光谱维度的差异性,从而提高分类精度。

以上基于决策融合的高光谱图像分类方法,采用不同的特征提取方法、分类器,结合经典决策融合策略对高光谱图像分类,以达到提高分类精度的目的。这些方法只是将经典决策融合策略应用在了不同的多分类系统中,对决策融合策略本身没有进行深入研究。本文从软决策融合策略和硬决策融合策略着手,研究了两种改进的决策融合策略,实现了进一步提高多分类器系统分类性能的目的。

经典软决策融合策略和硬决策融合策略根据多分类器系统中子分类器个数对各个子分类器权重系数进行平均分配。这两类决策融合策略都是通过统计各个子分类器的分类结果的投票个数或可能发生的概率对分类结果进行最终决策。在计算投票个数或概率大小时,经典决策融合策略采用统一、平均分配多分类器系统权重系数的原则,使来自不同分类器的分类结果在最终决策中都具有相同的影响力,没能起到对分类结果筛选的作用,导致分类效果好的分类器的权重系数过小或分类效果差的分类器权重系数过大。针对以上问题,本文提出了两种改进的决策融合策略,根据各个子分类器分类性能的优劣自适应地调整权重系数的大小,尽可能减小分类效果差的分类器的权重系数、增大分类效果好的分类器的权重系数,从而做出正确的决策,充分发挥多分类器与决策融合系统的优势。

针对以MV为代表的硬决策融合和以LOGP为代表的软决策融合,本文分别研究了相应的自适应权重计算策略。使用交叉验证方法将子分类器验证集的分类精度作为自适应权重引入决策融合策略中。对于MV,由于其分类结果仅与分类样本标签有关,通过设置阈值来消除分类精度较差波段组对最终分类结果的影响。对于LOGP,最终的分类决策取决于分类的后验概率,即通过所有子分类器的类成员函数得到最终的决策。但是,零值的出现可能使后验概率否定其他分类器的决策。因此,将各个波段组验证集分类精度多次实验的方差作为权重引入决策融合策略。本文提出了面向高光谱图像分类的决策融合方法,流程图如图 1所示,其中,所研究的两种自适应权重的决策融合策略命名为adjustMV和adjustLOGP。首先,对Indian Pines和Pavia University两个经典高光谱数据集进行波段分组,并对各波段组进行光谱—空间特征提取与分类,再应用以上两种自适应决策融合策略得到最终的分类结果。实验中,将所提方法的分类结果与单分类器、传统决策融合策略下的分类结果进行了系统的比较。由于本文提出的自适应决策融合分类方法在充分挖掘高光谱图像空谱信息的前提下,区别于传统决策融合策略采用统一、平均分配的权重系数,通过评估子分类器各自的分类性能优化分配权重系数,降低了在决策过程中的误判概率,从而提高了算法的分类精度,有效解决了高光谱图像在分类应用中常见的小样本问题,并在噪声环境下具有一定的鲁棒性。

图 1 自适应决策融合方法流程图
Fig. 1 Flow chart of adaptive decision fusion method

1 自适应决策融合方法

由于高光谱图像相邻波段间通常具有较强的相关性,因此利用波段间相关系数矩阵进行波段分组,得到的波段组其内部波段相关性较高,组间相关性较低。对于Indian Pines数据集,由于{104~108}波段和{150~163}波段属于噪声波段,相关性较差。去除这些噪声波段后,可以将该数据集分为5个波段组。对于Pavia University数据集,同理可以划分为3个波段组。

然后,采用不同的方法提取每个波段组上的光谱特征或空间特征,采用LPNMF或LFDA等降维方法对提取的特征进行降维。利用SVM或高斯混合模型(Gaussian mixture model,GMM)分类器对降维后的特征进行分类。最后利用统一权重和自适应权重两类决策融合规则对分类结果进行融合,得到最终的分类结果。

1.1 自适应决策融合策略

目前,针对高光谱图像分类的决策融合算法中对所有子分类器多采用统一权重系数的决策融合策略,因此多分类器系统中的每个分类器具有相同的票决长度。对于分类性能不同的分类器,使用这样的单一决策规则会限制算法的分类性能。如对于传统MV决策融合策略,当多个类别获得相同票数时,往往随机选择其中一个作为最终结果,这样的投票策略过于笼统,难免会产生一定的误判,从而降低最终分类的准确性。因此,具有较强可分性和高精度的分类器在投票时应被赋予较高的权值。鉴于此,本文提出了以分类器性能优劣来对权重系数赋值的自适应多数表决(adjustMV)决策融合方法。

决策融合规则可以表述为

$ N\left(j \right) = \sum\limits_{i = 1}^n {{\lambda _i}I({\omega _i} = j)} $ (1)

$ {\lambda _n} = \frac{{{X_n} - {X_{{\rm{min}}}}}}{{{X_{{\rm{max}}}} - {X_{{\rm{min}}}}}} $ (2)

式中,$I$为指示函数,$ω$是每个类的类标签,$n$表示分类器的个数,$N(j)$代表第$j$类的数量。通过“交叉验证”来评估各子分类器的权重系数$λ_{n}, X_{n}$代表第$n$个分类器的验证集分类精度,$X_\text{min}$代表最小分类精度,$X_\text{max}$代表最大分类精度。在通过自适应多数表决决策融合方法对高光谱图像进行分类时,应先确定子分类器的个数,再根据所有子分类器的分类精度得到分类标签的值,最后,通过归一化处理所有分类标签来确定各个分类器权重系数的大小。

根据式(2),由每个分类器的验证集精度$X_{n}$来计算$λ_{n}, λ_{n}$将作为决策融合过程中各个子分类器的权重值。多数票决的过程不再是简单地计算每个可能结果的投票个数,而是计算每个可能类别的置信水平。如果分类器的分类精度不同,则其投票的置信度不同。如果分类精度小于0.5,即分类结果的精度不如随机分类,该结果可能对最终结果产生较大影响,因此该分类器的结果将被丢弃。

利用所有分类器的后验概率估计LOGP的全局类隶属函数。对LOGP决策融合规则的改进可以表示为

$ \begin{gathered} C\left(w_{j} \mid x\right)=\prod\limits_{i=1}^{n} p_{i}\left(w_{i} \mid x\right)^{\alpha_{i}} \Rightarrow \\ \log C\left(w_{j} \mid x\right)=\prod\limits_{i=1}^{n} \alpha_{i} \log p_{i}\left(w_{j} \mid x\right) \end{gathered} $ (3)

$ {\alpha _i} = \frac{{\sum\limits_{i = 1}^N {{{({A_i} - {\mu _i})}^2}} }}{N} $ (4)

式中,$i=1, 2, …, n, n$代表分类器数量,$C$代表可能类的数量。$w$是每一类的类标签。与改进MV算法相同,利用“交叉验证”进行实验,$α_{i}$是第$i$个分类器的权重,$A_{i}$是第$i$个验证集的分类精度,$μ$是验证集的平均分类精度,$N$代表每个分类器的重复测试次数。利用各波段组验证集分类精度来评估分类器性能,即通过各组验证集分类精度的一致性来确定各组的权重系数。

传统LOGP决策融合方法对不同波段、不同特征对应的子分类器使用统一的权重$α_{i}=1/n$,而自适应对数意见池(adjustLOGP)决策融合方法通过对子分类器性能评估后,对权重系数$α_{i}$的大小进行重新分配。改进算法首先对每个波段组进行分类,经过$N$次重复实验后,由式(4)计算出$N$次实验的方差,以此作为该组的权重。最后,利用平均后验概率及其权重计算全局类成员函数,对稳定性强、精度高的分类器赋予较高的权值,如式(3)。adjustLOGP决策融合方法不仅可以提高分类精度,而且可以增加决策融合系统的稳健性。

图 2为自适应决策融合策略的具体实施方案。以Indian Pines数据集为例,根据波段间相关系数矩阵可将该数据分为5个波段组,每个波段组的特征将送入对应的分类器。假设$X$为某个待分类样本,5个分类器的权重系数分别为$W_{1} \sim W_{5},label$$X$的分类标签,由5个子分类器可以得到不同的分类标签$label_{1} \sim label_{5}$。分类器1~3的分类结果为$label=1$,分类器4、5的分类结果为$label=2$。传统MV决策融合策略对每个分类器设置相同的权重系数(如图 2右下所示,$W_{1}\sim W_{5}$均等于0.2),$X$被判为类别1和类别2的概率(即权重系数和)分别为0.6与0.4,因此,将$X$判定为类别1。对于本文提出的adjustMV决策融合策略,根据5个子分类器的权重系数(如图 2右上举例为$W_{1}\sim W_{5}$),计算$X$为类别1和类别2的概率(即权重系数和)分别为0.4与0.6,因此,判定$X$属于类别2。如图 2右上所示,分类器2和分类器3对应的权重系数最低,均为0.1。在adjustMV策略下,通过先验知识对决策融合系统的权重系数进行合理分配,减小了分类效果较差的子分类器2和子分类器3对于最终决策的影响。采用不同特征提取方法和分类器对来自不同波段的高光谱数据进行特征提取与分类时,得到的分类效果不尽相同。经典决策融合策略将各个子分类器的权重系数进行统一、平均分配,因此,没能充分发挥多分类器与决策融合系统的优势。本文提出的改进决策融合策略可以根据分类的结果来自适应地调整权重系数的大小,对权重$W_{1}\sim W_{n}$进行优化分配,可尽量减小性能较差的分类器对最终判决结果的影响。

图 2 自适应决策融合
Fig. 2 Implementation of adaptive decision fusion

1.2 高光谱图像分类

1.2.1 空谱特征提取

对高光谱图像进行空间特征提取通常采用的方法有局部二值模式(LBP)(Li等,2015)、盖博(Gabor)变换(Jia等,2020)、小波变换(discrete wavelet transform, DWT)(Cao等,2021)、形态属性特征(morphological properties, MP)(Wang等,2018)和马尔可夫随机场(Markov random field, MRF)(Pan等,2020)等。为了验证所提方法对不同特征分类的有效性,采用2维Gabor特征与LBP特征对高光谱图像进行空间特征提取。

LBP面向高光谱图像的局部空间特征,通过计算中心像素$g_{c}$和其邻域像素$\{g_{i}\}^{B-1}_{i=0} $的灰度差值来描绘图像块的空间纹理特征,其中$B$是以$R$为半径的圆形邻域内的成员个数。可将$B$$R$视为两个参数,分别控制并决定了角度空间内的成员个数和空间分辨率的大小。对于同一图像块,设置不同的$(B, R)$参数,将有不同的邻域集。当给定中心像素的邻域像素灰度值后,得到一个有序二进制集,定义为LBP策略,即

$ \begin{array}{l} LB{P_{B, R}} = \sum\limits_{i = 0}^{B - 1} {s({g_i} - {g_c}){2^i}} \\ s\left(x \right) = \left\{ {\begin{array}{*{20}{l}} 1&{x \ge 0}\\ 0&{x < 0} \end{array}} \right. \end{array} $ (5)

式中,$s(g_{i}-g_{c})$为符号函数。

邻域像素与中心像素的差值决定了该点的值为1或0。LBP编码只与中心像素与邻域像素灰度值的差异有关,反映不同的纹理模式信息。本文在利用LBP对高光谱图像进行空间特征提取时,首先,对高光谱图像进行波段分组;然后,通过PCA降维后在角度空间的圆形邻域内和任意空间分辨率下计算“图像块”(规定图像区域)的空间纹理特征;再将所有图像块的LBP统计直方图连接成为一个特征向量,作为每个波段组的LBP空间纹理特征;最后,将各组LBP特征送入多分类器系统,从而减少组间相关性,改善各组内部的统计信息。

Gabor特征提取的是高光谱图像的全局特征。1维Gabor变换由傅里叶变换演变而来,用来最大化信号的时—频分辨率,从而更好地描述信号的局部特性;2维Gabor变换是一种用来对图像进行特征提取的线性变换,广泛应用于高光谱图像的分类与识别领域(Li和Du,2014)。2维Gabor变换函数由一个实部和一个虚部构成,是通过高斯包络调制的正弦曲线函数,可表示为

$ \begin{array}{l} \;\;\;\;\;\;\;g\left({x, y;\delta, \theta, \psi, \sigma, \gamma } \right) = \\ {\rm{exp}}\left({ - \frac{{{{x'}^2} + {\gamma ^2}{{y'}^2}}}{{2{\sigma ^2}}}} \right) \times {\rm{exp}}\left({j\left({2{\rm{ \mathit{ π} }}\frac{{x'}}{\delta } + \psi } \right)} \right) \end{array} $ (6)

$ x' = x{\rm{cos}}\theta + y{\rm{sin}}\theta $ (7)

$ y' = - x{\rm{sin}}\theta + y{\rm{cos}}\theta $ (8)

式中,$σ$为高斯包络的标准差,$δ$代表正弦因子的波长,其值以像素为单位,通常大于或等于2,但不能大于输入图像尺寸的五分之一;$θ$代表Gabor核的方向夹角,取值范围为[0, π],指定了Gabor函数并行条纹的方向;$ψ$为相位偏移,默认值为π/2,代表Gabor变换是具有实部和虚部的复数;$γ$代表限定Gabor核函数椭圆率的空间相位比,当$γ=1$时,Gabor核函数的形状是圆的,当$γ < 1$时,其形状随着平行条纹方向而拉长,取0.5作为默认值。

由于高光谱图像波段数众多,直接对所有波段逐一进行空间特征提取不但计算量过大,而且冗余波段会影响空间特征的质量。因此,对所采用的两种空间特征提取方法均配合PCA降维技术进行预处理,即得到的LBP特征与Gabor特征均为高光谱图像的空谱特征。

1.2.2 分类器

SVM通过引入结构风险最小化原理、最优化理论和核方法演化而成,因能较好地解决小样本问题,而广泛应用于高光谱图像分类。由于高光谱图像各类之间的统计分布常常是复杂的多模型结构,GMM分类器结合局部保护降维已被证明同样适用于对高光谱图像分类(Li等,2012Ye等,2017),甚至能得到比SVM更好的分类结果。GMM分类器通常用来对具有两个或两个以上高斯分布的数据进行分类。

局部Fisher判别分析(LFDA)将LDA和LPP相结合,使用“亲和”矩阵保留嵌入的邻域关系。局部保护非负矩阵因式分解(LPNMF)基于非负矩阵因式分解(non-negative matrix factorization, NMF)和局部保护投影(LPP)而提出。LFDA和LPNMF不仅可以使提取的特征包含更多有用的信息,而且可以保护原始图像多样化的局部结构,使特征提取过程更加高效。此外,局部保护降维方法与GMM分类器相结合通常可以得到更高的精度分类结果(Makantasis等,2015)。因此,本文将以上两种降维方法与GMM分类器结合应用。本文利用GMM分类器验证了自适应决策融合策略对高光谱图像分类的优势。在后续所有涉及GMM分类器的实验中,选取$k=5$作为高斯混合模型的个数。

根据模型的分类目标,可以将分类方法分成生成式模型与判别式模型。GMM分类器为生成式模型,解决了样本的标签和样本是如何生成的两类问题,可以得到样本属于每个类别的后验概率,而软决策融合LOGP正是利用了所有分类器的后验概率来估计全局类隶属函数的。由于SVM分类器属于判别式模型,只关注样本的分类标签,无法了解数据的分布与后验概率,而硬决策融合在融合阶段只需要统计样本分类标签的数目。因此,本文采用SVM分类器匹配MV决策融合,采用GMM分类器匹配LOGP决策融合规则。

2 实验与分析

为了验证改进决策融合策略(adjustMV和adjustLOGP)比经典决策融合策略(MV和LOGP)能有效提高多分类器系统的分类性能,将光谱特征(LFDA或LPNMF)、空谱特征(基于Gabor或LBP)和分类器(SVM或GMM)分别进行组合,对10种基于决策融合策略的分类算法进行了系统的实验,并与其他5种算法进行了比较与分析。实验结果采用各类分类精度、总体分类精度(overall accuracy,OA)、Kappa系数、小样本分类精度和噪声环境中分类精度等指标来衡量各个算法的分类性能。为了得到更加可靠、稳定的模型,采用交叉验证的方法划分训练集与测试集,并以验证集的分类精度作为改进决策融合策略(adjustMV和adjustLOGP)权重系数的分配标准。

2.1 实验数据

本文使用的两组实验数据集是常用的Indian Pines和Pavia University高光谱数据集。Indian Pines是由一种机载可见红外成像光谱仪(airborne visible infrared imaging spectrometer,AVIRIS)对美国印第安纳州的一片印第安松林进行成像得到。该图像大小为145×145像素,如图 3所示。AVIRIS成像光谱仪空间分辨率为20 m,包括220个连续波段,在实验时剔除了20个低反射率波段。原Indian Pines数据集包含16种类型的地物特征,但这16种类型的样本数量分布极不均匀,因此本文选取样本数较多的8种地物类别作为研究对象,具体类别与样本数量如表 1所示。Pavia University数据集是由德国机载反射光学光谱成像仪(reflective optics system imaging spectrometer, ROSIS)对意大利帕维亚市进行成像得到的高光谱数据。其空间分辨率为1.3 m,该图像大小为610×340像素,如图 4所示。剔除噪声波段后,选择剩余的103个波段。本文选取所有的9类地物类别作为研究对象,具体类别与样本数量如表 2所示。

图 3 Indian Pines伪彩色与真实地物标记图
Fig. 3 Pseudo color map and ground truth of Indian Pines dataset

表 1 Indian Pines数据集地物类别标签及训练—测试样本
Table 1 Class labels and train-test distribution of samples for Indian Pines dataset

下载CSV
类别 类名 训练样本 测试样本
1 Corn-no till 30 1 460
2 Corn-min till 30 834
3 Grass/Pasture 30 497
4 Hay-windowed 30 489
5 Soybean-no 30 968
6 Soybean-min 30 2 468
7 Soybean-clean 30 614
8 Woods 30 1 294
总和 240 8 624
图 4 Pavia University伪彩色与真实地物标记图
Fig. 4 Pseudo color map and ground truth of Pavia University dataset

表 2 Pavia University数据集地物类别标签及训练—测试样本
Table 2 Class labels and train-test distribution of samples for Pavia University dataset

下载CSV
类别 类名 训练样本 测试样本
1 Asphalt 30 6 631
2 Meadows 30 18 649
3 Gravel 30 2 099
4 Trees 30 3 064
5 Metal sheets 30 1 345
6 Bare Soil 30 5 029
7 Bitumen 30 1 330
8 Bricks 30 3 682
9 Shadows 30 947
总和 270 42 776

为了验证本文方法的有效性,在特征提取和降维方法相同的前提下,将所提出的自适应权重决策融合方法的分类结果与传统决策融合、无决策融合的单分类器结果进行比较。通过混淆矩阵、总体分类精度和Kappa系数来衡量各算法的分类性能。

2.2 参数调优

首先讨论主成分数量($PC$)和邻域大小($W$)这两个参数。测试阶段,在较大的范围内对这两个参数进行取值,以获得最优分类结果。$PC$$W$在2~14范围内以2为间隔取值,图 5(a)(b)分别显示了两个数据集在这两个参数下总体分类精度的趋势。当$PC=14$$W=10$时,Indian Pines数据集的分类精度最优;当$PC=14$$W=12$时,Pavia University数据集的分类精度达到最优。对于LBP邻域参数集($N, R$)的选取,可参照图 6,分别选择$N=10$$R=4$$N=10$$R=2$,作为Indian Pines数据集和Pavia University数据集的最优参数。图 7显示了与Gabor特征相关的两个参数:PCA的维数$PC$和正弦因子波长$ λ $。由图 7可见,当$PC=10$$λ=30$时,Indian Pines数据集的分类精度较优;当$PC=12$$λ=20$时,Pavia University数据集的分类精度达到最高。

图 5 参数$PC$$W$对总体分类精度的影响
Fig. 5 Overall classification accuracy versus varying principle component ($PC$) and the patch size ($W$)
((a)Indian Pines dataset; (b) Pavia University dataset)
图 6 参数$N$$R$的取值对总体分类精度的影响
Fig. 6 Overall classification accuracy versus varying circular neighbors ($N$) and radius ($R$)
((a) Indian Pines dataset; (b) Pavia University dataset)
图 7 不同参数$PC$$λ$对总体分类精度的影响
Fig. 7 Overall classification accuracy versus varying principle component ($PC$) and wavelength of the sinusoidal factor ($λ$)
((a)Indian Pines dataset; (b) Pavia University dataset)

2.3 实验结果

对于Indian Pines数据集和Pavia University数据集的每个类别,均选择前30个样本作为训练样本,所有非零像素作为测试样本。为了得到更加可靠稳定的模型,同时避免训练集的选取对最终结果的影响,本文采用交叉验证的方法将原始数据划分为训练集与测试集,在训练集中将50%训练样本作为训练集,另50%训练样本作为验证集,通过验证集的分类精度来确定改进策略的权重系数值。

总体分类精度(overall accuracy,OA)通常简称为分类精度,它反映了一个随机样本的分类结果与真实标记类型相一致的概率。Kappa系数(K)反映的是分类结果图与真实地物标记图的相似程度,同时也能表现整体分类的误差性,尤其是在某些特殊情况下的分类结果具有一定的不确定性,Kappa系数能更加公正地表示分类结果的优劣。表 3表 6呈现了两组高光谱数据通过不同分类算法得到的总体分类精度、Kappa系数及各类分类精度。为了避免随机选取训练样本带来的实验误差,本文实验结果均为20次实验的平均值,并对表 3表 6中的所有数据计算了标准方差,根据标准方差可以比较各个算法的稳定性,表 3表 6中,spectral表示仅使用光谱特征进行分类。图 8图 11为各分类算法对两个数据集的分类结果图。

表 3 在Indian Pines数据集上基于SVM分类器的几种算法总体分类精度(OA)和Kappa系数(K)
Table 3 Overall classification accuracy (OA) and Kappa coefficients (K) of several methods using SVM classifiers for Indian Pines dataset 

下载CSV
/%
类别 specrtal LBP Gabor LBP_MV Gabor_MV LBP_adjustMV Gabor_adjustMV
1 58.77(±7.39) 86.24(±4.36) 82.58(±6.74) 95.61(±1.82) 69.03(±6.65) 96.47(±0.22) 96.02(±1.29)
2 62.63(±5.57) 92.75(±4.97) 92.82(±3.31) 98.18(±0.92) 82.58(±9.39) 95.65(±0.39) 99.81(±0.24)
3 90.38(±3.60) 97.44(±2.32) 96.60(±3.28) 98.94(±0.75) 82.21(±8.28) 97.64(±1.46) 100.00(±0.00)
4 99.35(±0.34) 96.28(±2.31) 100.0(±0.42) 99.34(±0.68) 98.98(±1.83) 99.45(±0.00) 100.00(±0.00)
5 69.75(±5.63) 92.94(±4.42) 90.41(±3.66) 96.32(±1.32) 75.98(±9.63) 96.64(±0.57) 99.25(±0.21)
6 52.27(±6.11) 88.30(±4.12) 91.88(±2.89) 93.24(±1.83) 79.89(±8.75) 95.63(±0.24) 99.43(±0.31)
7 73.16(±5.60) 94.26(±4.34) 98.76(±2.63) 98.25(±1.20) 87.20(±5.62) 99.83(±0.00) 100.00(±0.00)
8 95.03(±2.35) 96.43(±3.90) 98.29(±1.96) 98.59(±1.05) 88.45(±6.23) 98.12(±0.23) 99.88(±0.13)
OA 69.10(±1.85) 92.45(±1.30) 93.11(±1.02) 96.63(±0.51) 98.02(±1.32) 98.02(±0.15) 99.04(±0.24)
K 63.68(±2.02) 91.43(±1.46) 91.77(±1.35) 96.32(±0.58) 97.63(±1.49) 97.64(±0.16) 98.85(±0.29)
注:加粗字体为每行最优结果,括号内为方差。

表 4 在Pavia University数据集上基于SVM分类器的几种算法的总体分类精度(OA)和Kappa系数(K)
Table 4 Overall classification accuracy (OA) and Kappa coefficient (K) of several methods using SVM classifier for Pavia University dataset 

下载CSV
/%
类别 Specrtal LBP Gabor LBP_MV Gabor_MV LBP_adjustMV Gabor_adjustMV
1 76.37(±4.34) 80.96(±2.53) 84.50(±9.09) 84.95(±3.00) 91.01(±1.88) 81.24(±2.74) 87.69(±4.83)
2 77.00(±5.51) 94.08(±2.70) 87.52(±5.03) 90.77(±2.60) 91.99(±1.50) 83.03(±2.28) 93.69(±1.90)
3 76.72(±4.80) 93.59(±3.53) 90.04(±3.41) 97.20(±0.73) 86.39(±2.26) 97.26(±1.52) 91.72(±3.72)
4 93.32(±2.94) 69.89(±6.01) 91.80(±3.04) 72.57(±4.69) 89.82(±3.43) 75.93(±2.79) 95.57(±1.32)
5 99.13(±0.31) 89.55(±6.90) 99.57(±0.54) 97.38(±1.51) 99.71(±0.46) 97.51(±1.46) 100.00(±0.00)
6 84.99(±4.67) 94.30(±3.55) 96.01(±3.14) 97.62(±2.34) 88.74(±3.04) 98.65(±0.83) 95.57(±2.18)
7 91.15(±3.48) 96.20(±2.46) 90.88(±4.89) 98.34(±0.84) 89.24(±4.00) 99.02(±0.70) 97.23(±1.32)
8 79.67(±5.51) 88.15(±5.68) 80.27(±6.43) 94.05(±2.21) 75.46(±4.25) 94.41(±1.83) 90.80(±3.74)
9 99.91(±0.06) 76.47(±4.07) 88.68(±2.47) 78.29(±2.56) 92.34(±2.85) 81.64(±4.56) 96.81(±1.05)
OA 80.87(±2.38) 84.98(±1.17) 88.36(±3.00) 90.10(±1.09) 89.76(±0.83) 90.92(±1.22) 93.15(±1.18)
K 75.65(±2.78) 80.67(±1.39) 85.01(±3.70) 87.16(±1.38) 86.59(±1.06) 87.96(±4.88) 91.04(±1.51)
注:加粗字体为每行最优结果,括号内为方差。

表 5 Indian Pines数据集上基于GMM分类器的几种算法的总体分类精度(OA)和Kappa系数(K)
Table 5 Overall classification accuracy (OA) and Kappa coefficient (K) of different methods using GMM classifiers on Indian Pines dataset 

下载CSV
/%
类别 LFDA LPNMF LFDA_LOGP LPNMF_LOGP Gabor_LOGP LFDA_adjustLOGP LPNMF_adjustLOGP Gabor_adjustLOGP
1 72.88(±7.34) 80.63(±4.40) 92.36(±6.59) 95.56(±2.77) 97.01(±4.18) 99.41(±0.24) 98.61(±0.61) 99.84(±0.13)
2 80.42(±6.64) 85.11(±7.94) 94.84(±7.13) 97.01(±1.97) 98.90(±1.44) 99.77(±0.28) 99.58(±0.30) 99.94(±0.08)
3 85.14(±11.39) 92.13(±4.19) 56.11(±12.05) 91.77(±4.35) 97.34(±2.75) 85.84(±3.26) 99.77(±0.33) 99.88(±0.21)
4 76.37(±16.21) 97.36(±3.19) 67.20(±17.04) 98.92(±1.29) 100.00(±0.00) 97.75(±1.77) 99.98(±0.06) 100.00(±0.00)
5 79.29(±7.57) 79.43(±4.37) 70.55(±18.81) 83.07(±5.74) 90.44(±2.99) 94.87(±7.17) 98.47(±0.90) 99.19(±0.45)
6 71.29(±15.56) 84.03(±4.71) 80.42(±14.80) 96.22(±3.20) 98.42(±0.46) 94.37(±6.88) 97.79(±1.01) 99.55(±0.40)
7 83.26(±8.86) 87.69(±6.60) 80.99(v15.55) 94.59(±4.40) 99.82(±0.20) 95.37(±7.43) 99.63(±0.29) 99.95(±0.07)
8 76.02(±6.40) 88.73(±4.60) 80.20(±11.72) 93.62(±5.51) 97.74(±2.45) 96.29(±1.91) 99.81(±0.16) 99.97(±0.07)
OA 75.99(±4.23) 85.23(±1.41) 80.87(±4.97) 94.10(±1.54) 97.34(±0.76) 95.86(±2.83) 98.85(±0.27) 99.73(±0.09)
K 71.41(±4.72) 82.30(±1.65) 76.50(±5.12) 92.88(±1.88) 96.81(±0.92) 95.04(±3.37) 98.62(±0.32) 99.68(±0.11)
注:加粗字体为每行最优结果,括号内为方差。

表 6 Pavia University数据集上基于GMM分类器的几种算法的总体分类精度(OA)和Kappa系数(K)
Table 6 Overall classification accuracy (OA) and Kappa coeffcient (K) of several methods using GMM classifiers on Pavia University dataset 

下载CSV
/%
类别 LFDA LPNMF LFDA_LOGP LPNMF_LOGP Gabor_LOGP LFDA_adjustLOGP LPNMF_adjustLOGP Gabor_adjustLOGP
1 81.75(±3.29) 75.95(±4.14) 89.26(±2.05) 83.87(±3.92) 89.19(±1.73) 97.75(±0.46) 95.50(±2.13) 97.23(±0.64)
2 86.59(±13.02) 76.69(±4.29) 92.44(±1.24) 87.96(±3.84) 89.55(±3.26) 93.90(±2.82) 95.84(±0.45) 96.58(±0.23)
3 78.91(±13.67) 82.71(±2.84) 96.51(±1.87) 93.63(±0.60) 96.46(±2.82) 91.52(±1.96) 96.19(±0.41) 99.32(±0.13)
4 82.13(±6.07) 92.65(±2.29) 98.11(±0.99) 97.49(±0.97) 98.92(±0.86) 94.39(±3.56) 99.03(±0.30) 99.58(±0.12)
5 99.73(±0.33) 99.98(±0.04) 100.00(±0.00) 100.00(±0.00) 99.50(±0.70) 100.00(±0.00) 100.00(±0.00) 100.00(±0.00)
6 91.39(±4.12) 84.31(±5.60) 96.46(±1.10) 90.23(±2.24) 93.28(±2.50) 91.74(±2.89) 87.07(±2.00) 99.32(±0.29)
7 92.66(±2.84) 86.42(±3.23) 95.59(±3.60) 90.58(±3.59) 95.64(±1.82) 95.69(±1.10) 97.69(±1.29) 99.75(±0.13)
8 75.57(±4.83) 84.17(±2.83) 88.12(±4.13) 88.37(±4.28) 85.77(±11.92) 94.91(±2.40) 94.40(±1.35) 95.20(±1.28)
9 74.94(±11.45) 86.31(±0.72) 97.44(±0.54) 99.54(±0.26) 98.42(±1.06) 97.64(±0.86) 99.54(±0.30) 99.89(±0.15)
OA 81.90(±4.98) 80.00(±1.87) 92.37(±1.45) 89.67(±2.05) 91.98(±2.42) 94.43(±1.70) 95.48(±0.63) 97.63(±0.64)
K 76.84(±5.93) 74.80(±2.14) 90.53(±2.24) 86.66(±2.54) 89.89(±2.91) 92.71(±2.15) 94.04(±0.94) 96.88(±0.83)
注:加粗字体为每行最优结果,括号内为方差。
图 8 Indian Pines数据集上基于SVM分类器的各算法分类结果图
Fig. 8 Classification maps resulting from several methods using SVM classifier on Indian Pines dataset
((a) LBP; (b) Gabor; (c)LBP_MV; (d)Gabor_MV; (e)LBP_adjustMV; (f)Gabor_adjustMV)
图 9 Pavia University数据集上基于SVM分类器的各算法分类结果图
Fig. 9 Classification maps resulting from several methods using SVM classifier on Pavia University dataset
((a)LBP; (b) Gabor; (c) LBP_MV; (d)Gabor_MV; (e)LBP_adjustMV; (f)Gabor_adjustMV)
图 10 Indian Pines数据集上基于GMM分类器的各算法分类结果图
Fig. 10 Classification maps resulting from several methods using GMM classifiers on Indian Pines dataset
((a)LFDA; (b) LPNMF; (c) LFDA_LOGP; (d)LPNMF_LOGP; (e)Gabor_LOGP; (f)LFDA_adjustLOGP; (g)LPNMF_adjustLOGP; (h)Gabor_adjustLOGP)
图 11 Pavia University数据集上基于GMM分类器的各算法分类结果图
Fig. 11 Classification maps resulting from several methods using GMM classifiers on Pavia University dataset
((a)LFDA; (b)LPNMF; (c)LFDA_LOGP; (d)LPNMF_LOGP; (e)Gobor_LOGP; (f)LFDA_adjust LOGP; (g)LPNMF_adjust LOGP; (h)Gabor_adjust LOGP)

对于高光谱图像来说,较高的光谱分辨率能增强地物细微差别的分辨能力,但由于各类别地物训练样本不足,制约了现有高光谱图像分类技术的应用。因此,在训练样本数较少的情况下(即小样本情况下)的分类精度,成为评价高光谱图像分类算法性能的重要标准之一。为了研究改进策略在不同训练样本数(尤其是小样本)情况下的分类性能,图 12图 13分别给出了Indian Pines数据集和Pavia University数据集的分类结果。针对这两个数据集,对每个类别的训练样本从30~70范围内(以10为间隔)随机选取。

图 12 不同训练样本数下Indian Pines数据集的分类精度
Fig. 12 Classification accuracy on Indian Pines dataset versus training samples
((a) using SVM classifiers; (b) using GMM classifiers)
图 13 不同训练样本数下Pavia University数据集的分类精度
Fig. 13 Classification accuracies of Pavia University dataset versus training samples
((a) using SVM classifiers; (b) using GMM classifiers)

在噪声环境中的分类性能,常常作为遥感图像分类算法的衡量标准之一。在光学遥感成像模型中,一般采用加性高斯噪声来模拟遥感图像中的噪声(Pu等,2014)。为了进一步研究改进策略的鲁棒性,对两组高光谱数据添加高斯噪声,在带噪数据的信噪比(signal-to-noise ratio,SNR)均为20 dB的情况下,对10种决策融合算法的总体分类精度进行对比,如图 14所示。

图 14 带噪数据的分类结果
Fig. 14 Classification results of noised datasets

由于本文提出的adjustMV和adjustLOGP分别属于软决策融合策略和硬决策融合策略,它们具有不同的权重系数计算与分配方式,这不但导致其各自构成的多分类器系统具有不同的分类性能,而且使得各分类算法的运算成本也具有差异。本文所有实验在MATLAB仿真平台及2.4 GHz主频、8 GB内存的计算机上执行完成。为了考察改进策略的执行效率,表 7给出了10种决策融合算法的代码运行时间(以s为单位)。

表 7 决策融合算法的运行时间
Table 7 Running time of decision fusion algorithms 

下载CSV
/s
分类器 算法 Indian Pines Pavia University
SVM LBP-MV 215.77 1 229.74
LBP-adjustMV 213.94 1 218.98
Gabor-MV 36.77 93.42
Gabor-adjustMV 35.10 92.89
GMM LFDA-LOGP 50.55 95.86
LFDA-adjustLOGP 76.39 135.83
LPNMF-LOGP 68.65 108.96
LPNMF-adjustLOGP 86.48 148.28
Gabor-LOGP 36.20 89.60
Gabor-adjustLOGP 58.36 118.87

2.4 实验分析

首先,通过表 3图 8来呈现几种采用SVM分类器的算法对Indian Pines数据集进行分类的各类分类精度、总体分类精度、Kappa系数及分类结果图;通过表 4图 9来呈现几种采用SVM分类器的算法对Pavia University数据集的分类结果。由表 3表 4可知,采用MV决策融合策略算法的分类精度普遍高于仅采用LBP和Gabor空谱特征提取算法的分类精度。对于Indian Pines数据集,由表 3可知,基于adjustMV决策融合策略的LBP_adjustMV和Gabor_adjustMV比LBP_MV和Gabor_MV的总体分类精度分别高出1.39%和1.02%。除Corn-no till类别外,其余类别分类精度最高的算法都为Gabor_adjustMV。对于Pavia University数据集,由表 4可知,LBP_adjustMV和Gabor_adjustMV比LBP_MV和Gabor_MV的总体分类精度分别高出0.82%和3.39%。这两组实验验证了改进的adjustMV决策融合策略的有效性,即adjustMV决策融合策略比经典MV决策融合策略能进一步提升多分类器系统的分类性能。

然后,通过表 5图 10呈现几种采用GMM分类器的算法对Indian Pines数据集进行分类的各类分类精度、总体分类精度、Kappa系数及分类结果图;通过表 6图 11呈现几种采用GMM分类器的算法对Pavia University数据集的分类结果。表 5表 6对基于GMM分类器的几种算法的总体分类精度(OA)和Kappa系数(K)进行了比较。比较了LFDA、LPNMF光谱特征及基于Gabor空谱特征的3类算法。首先,可以看出基于LOGP决策融合策略的LFDA_LOGP和LPNMF_LOGP比单纯基于LFDA、LPNMF光谱特征的分类精度有较大幅度提高;其次,不难发现改进的adjustLOGP比基于经典LOGP的算法性能更优;再次,通过加入Gabor空谱特征进行比较,发现Gabor_adjustLOGP无论是总体分类精度还是各个类别的分类精度均能达到最高,而且20次实验的标准差最小,说明算法最稳定;同时,所有基于改进adjustLOGP算法的Kappa系数比传统LOGP算法均有不同程度的提高。对于Indian Pines数据集,由表 5可知,改进算法Gabor_adjustLOGP、LPNMF_adjustLOGP和LFDA_adjustLOGP的分类精度分别比基于LOGP决策融合的Gabor_LOGP、LPNMF_LOGP和LFDA_LOGP高出2.39%、4.75%和14.99%。对于Pavia University数据集,由表 6可知,改进算法Gabor_adjustLOGP,LPNMF_adjustLOGP和LFDA_adjustLOGP比基于LOGP决策融合的Gabor_LOGP、LPNMF_LOGP和LFDA_LOGP的分类精度分别提高5.65%、5.81%和2.06%。对于每种类别,分类精度最高的算法均为Gabor_adjustLOGP或LFDA_adjustLOGP算法。对于Asphalt和Self_Blocking两种类别,采用LPNMF_LOGP和LFDA_LOGP算法的分类效果不理想,而LPNMF_adjustLOGP和LFDA_adjustLOGP将两种类别分类精度平均提高了8.24%。综上所述,改进的adjustLOGP决策融合策略比经典LOGP决策融合策略能进一步提升多分类器系统的分类性能。Indian Pines数据的空间分辨率为20 m,是以块状为主的大面积植被覆盖图像,空间分辨率较低;Pavia University数据的空间分辨率为1.3 m,是以线性分布为主的城市遥感图像,空间分辨率较高。由于来自不同传感器的高光谱图像,其空间分辨率不同,同一算法在相同训练样本情况下的分类结果也不同,对比表 3表 6中的数据可验证以上结论。

通常情况下,对于同一种算法,训练样本越少,得到的分类精度越低。由图 12(a)可知,各个算法总体分类精度均随着训练样本数的减少而降低。然而,本文提出的LBP_adjusMV和Gabor_adjustMV的分类精度始终高于LBP_MV和Gabor_MV,且训练样本数量越少,分类精度的提高越明显。由图 12(b)可知,本文提出的基于adjustLOGP算法的分类效果整体优于传统LOGP算法。即使训练样本的数量只有30个时,改进算法的分类精度仍可达95%以上。分析图 13可知,当训练样本数较少时,本文算法对Pavia University数据集的分类优势依然明显。

作为性能良好的高光谱图像分类算法,在高斯噪声环境中应该具有一定的鲁棒性,即对带有不同程度噪声的图像进行分类时,能得到比其他算法更好的分类结果。相较于决策融合算法,传统的基于光谱特征(如spectral、LFDA、LPNMF)或空谱特征(LBP、Gabor)算法的分类精度会随着噪声强度的增加而快速下降。而决策融合算法由于其具有多分类器的先天优势,对噪声普遍具有较好的鲁棒性,即噪声强度的改变对分类精度的影响有限(Ye等,2014)。因此,本文仅在1种信噪比的情况下,对5种决策融合算法(LBP_MV、Gabor_MV、LFDA_LOGP、LPNMF_LOGP和Gabor_LOGP)及其相应的5种改进算法进行了比较。由图 14可知,无论是adjustMV还是adjustLOGP决策融合策略,比经典MV或LOGP在噪声环境下有更强的鲁棒性。

根据表 3表 7的数据对比可知,本文提出的两种自适应决策融合策略比传统决策融合策略在分类精度上有较大程度的提高,且运算成本并没有大幅度增加。由于改进方法主要体现在决策融合策略上,即对来自子分类器的分类结果进行权重分配与优化决策,因此改进策略并没有比相对应的经典策略增加太大计算量。由于软决策融合策略与硬决策融合策略的权重系数的分配方法不同,改进的adjustMV与adjustLOGP决策融合策略对相应分类算法的运算成本具有不同程度的影响。其中,结合SVM的adjustMV决策融合策略,其运算成本与传统MV决策融合策略相当。这是因为adjustMV对子分类器的分类结果通过简单加减运算来实现权重分配与决策融合; 而利用adjustLOGP求取各个子分类器权重系数时,涉及多次方差计算,因此运算成本比经典LOGP有所增加,但仍在可接受的范围内。

3 结论

本文提出了面向高光谱图像分类的自适应决策融合方法,通过将高光谱数据进行波段分组而实现多分类器协作判别,解决了传统决策融合策略由于均匀分配权重导致分类器分类效果差或异常点对最终决策有负面影响的问题。对经典MV硬决策融合策略进行改进,提出的adjustMV通过先验知识对决策融合系统的权重系数进行合理分配,可尽量减小性能较差的分类器对最终判决结果的影响;对经典LOGP软决策融合策略进行改进,提出的adjustLOGP策略利用平均后验概率及其权重计算全局类成员函数,对稳定性强、精度高的分类器赋予较高的权值,通过提高后验概率来增加正确决策的概率。通过对两个经典高光谱数据集Indian Pines和Pavia University进行实验可知,本文提出的基于adjustMV和adjustLOGP决策融合策略的分类算法比基于传统MV和LOGP决策融合策略的分类算法的分类性能有明显提高,且随着样本数量的减小,自适应权重对高光谱图像决策融合分类的优势更为明显。

参考文献

  • Cao X Y, Yao J, Fu X Y, Bi H X, Hong D F. 2021. An enhanced 3-D discrete wavelet transform for hyperspectral image classification. IEEE Geoscience and Remote Sensing Letters, 18(6): 1104-1108 [DOI:10.1109/LGRS.2020.2990407]
  • Du Q, Zhang L P, Zhang B, Tong X H, Du P J, Chanussot J. 2013. Foreword to the special issue on hyperspectral remote sensing: theory, methods, and applications. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 6(2): 459-465 [DOI:10.1109/JSTARS.2013.2257422]
  • Hou Q L, Wang Y J, Jing L, Chen H B. 2019. Linear discriminant analysis based on kernel-based possibilistic c-means for hyperspectral images. IEEE Geoscience and Remote Sensing Letters, 16(8): 1259-1263 [DOI:10.1109/LGRS.2019.2894470]
  • Huang L H, Chen C, Li W, Qian D. 2016. Remote sensing image scene classification using multi-scale completed local binary patterns and fisher vectors. Remote Sensing, 8(6): #483 [DOI:10.3390/rs8060483]
  • Jia S, Deng B, Zhu J S, Jia X P, Li Q Q. 2018. Local binary pattern-based hyperspectral image classification with superpixel guidance. IEEE Transactions on Geoscience and Remote Sensing, 56(2): 749-759 [DOI:10.1109/TGRS.2017.2754511]
  • Jia S, Lin Z J, Deng B, Zhu J S, Li Q Q. 2020. Cascade superpixel regularized Gabor feature fusion for hyperspectral image classification. IEEE Transactions on Neural Networks and Learning Systems, 31(5): 1638-1652 [DOI:10.1109/TNNLS.2019.2921564]
  • Jiang J J, Ma J Y, Chen C, Wang Z Y, Cai Z H, Wang L Z. 2018. SuperPCA: a superpixelwise PCA approach for unsupervised feature extraction of hyperspectral imagery. IEEE Transactions on Geoscience and Remote Sensing, 56(8): 4581-4593 [DOI:10.1109/TGRS.2018.2828029]
  • Li W, Chen C, Su H J, Du Q. 2015. Local binary patterns and extreme learning machine for hyperspectral imagery classification. IEEE Transactions on Geoscience and Remote Sensing, 53(7): 3681-3693 [DOI:10.1109/TGRS.2014.2381602]
  • Li W, Du Q. 2014. Gabor-filtering-based nearest regularized subspace for hyperspectral image classification. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 7(4): 1012-1022 [DOI:10.1109/JSTARS.2013.2295313]
  • Li W, Prasad S, Fowler J E, Bruce L M. 2012. Locality-preserving dimensionality reduction and classification for hyperspectral image analysis. IEEE Transactions on Geoscience and Remote Sensing, 50(4): 1185-1198 [DOI:10.1109/TGRS.2011.2165957]
  • Luo R B, Pi Y G. 2014. Supervised neighborhood preserving embedding feature extraction of hyperspectral imagery. Acta Geodaetica et Cartographica Sinica, 43(5): 508-513, 528 (骆仁波, 皮佑国. 2014. 有监督的邻域保留嵌入的高光谱遥感影像特征提取. 测绘学报, 43(5): 508-513, 528) [DOI:10.13485/j.cnki.11-2089.2014.0079]
  • Makantasis K, Karantzalos K, Doulamis A and Doulamis N. 2015. Deep supervised learning for hyperspectral data classification through convolutional neural networks//2015 IEEE International Geoscience and Remote Sensing Symposium. Milan, Italy: IEEE: 4959-4962[DOI: 10.1109/IGARSS.2015.7326945]
  • Pan C, Jia X P, Li J, Gao X B. 2020. Adaptive edge preserving maps in Markov random fields for hyperspectral image classification. IEEE Transactions on Geoscience and Remote Sensing: #9258970 [DOI:10.1109/TGRS.2020.3035642]
  • Prasad S, Bruce L M. 2008. Decision fusion with confidence-based weight assignment for hyperspectral target recognition. IEEE Transactions on Geoscience and Remote Sensing, 46(5): 1448-1456 [DOI:10.1109/TGRS.2008.916207]
  • Pu H Y, Chen Z, Wang B, Jiang G M. 2014. A novel spatial-spectral similarity measure for dimensionality reduction and classification of hyperspectral imagery. IEEE Transactions on Geoscience and Remote Sensing, 52(11): 7008-7022 [DOI:10.1109/TGRS.2014.2306687]
  • Qiu Y F, Wang X P, Wang C Y, Meng L G. 2019. Hyperspectral image classification based on cascaded multi-classifiers. Journal of Image and Graphics, 24(11): 2021-2034 (邱云飞, 王星苹, 王春艳, 孟令国. 2019. 应用级联多分类器的高光谱图像分类. 中国图象图形学报, 24(11): 2021-2034) [DOI:10.11834/jig.190047]
  • Wang J Y, Wang X Y, Zhang K, Madani K, Sabourin C. 2018. Morphological band selection for hyperspectral imagery. IEEE Geoscience and Remote Sensing Letters, 15(8): 1259-1263 [DOI:10.1109/LGRS.2018.2830795]
  • Ye Z, Bai L, Nian Y J. 2016. Hyperspectral image classification algorithm based on Gabor feature and locality-preserving dimensionality reduction. Acta Optica Sinica, 36(10): #1028003 (叶珍, 白璘, 粘永健. 2016. 基于Gabor特征与局部保护降维的高光谱图像分类算法. 光学学报, 36(10): #1028003) [DOI:10.3788/AOS201636.1028003]
  • Ye Z, Dong R, Bai L, Jin C X, Nian Y J. 2020. Hyperspectral image classification based on segmented local binary patterns. Sensing and Imaging, 21(1): #15 [DOI:10.1007/s11220-020-0274-7]
  • Ye Z, Fowler J E, Bai L. 2017. Spatial-spectral hyperspectral classification using local binary patterns and Markov random fields. Journal of Applied Remote Sensing, 11(3): #035002 [DOI:10.1117/1.JRS.11.035002]
  • Ye Z, Prasad S, Li W, Fowler J E, He M Y. 2014. Classification based on 3-D DWT and decision fusion for hyperspectral image analysis. IEEE Geoscience and Remote Sensing Letters, 11(1): 173-177 [DOI:10.1109/LGRS.2013.2251316]
  • Yin Y P, Wei L, Liu W J. 2020. Ensemble extreme learning machine with cumulative variation quotient for hyperspectral image classification. Journal of Image and Graphics, 25(5): 1053-1068 (尹玉萍, 魏林, 刘万军. 2020. 融合累积变异比和集成超限学习机的高光谱图像分类. 中国图象图形学报, 25(5): 1053-1068) [DOI:10.11834/jig.190379]