Print

发布时间: 2016-09-25
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.20160905
2016 | Volumn 21 | Number 9




    图像分析和识别    




  <<上一篇 




  下一篇>> 





结合类内和类间距离的可能聚类分割算法
expand article info 刘璐, 吴成茂
西安邮电大学电子工程学院, 西安 710061

摘要

目的 为了进一步提高噪声图像分割的抗噪性和准确性,提出一种结合类内距离和类间距离的改进可能聚类算法并将其应用于图像分割。 方法 该算法避免了传统可能性聚类分割算法中仅仅考虑以样本点到聚类中心的距离作为算法的测度, 将类内距离与类间距离相结合作为算法的新测度,即考虑了类内紧密程度又考虑了类间离散程度,以便对不同的聚类结构有较强的稳定性和更好的抗噪能力,并且将直方图融入可能模糊聚类分割算法中提出快速可能模糊聚类分割算法,使其对各种较复杂图像的分割具有即时性。 结果 通过人工合成图像和实际遥感图像分割测试结果表明,本文改进可能聚类算法是有效的,其分割轮廓清晰,分类准确且噪声较小,其误分率相比其他算法至少降低了2个百分点,同时能获得更满意的分割效果。 结论 针对模糊C-均值聚类分割算法和可能性聚类分割算法对于背景和目标颜色相近的图像分类不准确的缺陷,将类内距离与类间距离相结合作为算法的测度有效的解决了图像分割归类问题,并且结合直方图提出快速可能模糊聚类分割算法使其对于大篇幅复杂图像也具有适用性。

关键词

模糊聚类; 可能聚类; 图像分割; 误分率; 类内距离; 类间距离

Possibilistic clustering segmentation algorithm based on intra-class and inter-class distance
expand article info Liu Lu, Wu Chengmao
School of Electronic Engineering, Xi'an University of Posts and Telecommunications, Xi'an 710061, China
Supported by: The State Key Program of National Natural Science Foundation of China(61136002); National Natural Science Foundation of China(61073106)

Abstract

Objective As image segmentation technology has continued to develop, scholars have proposed numerous algorithms for image segmentation. Image complexity and structure instability have resulted in a growing number of image segmentation methods, which provide segmentation effects for different types of images. To further improve noise immunity and the accuracy of image segmentation, an improved possibilistic clustering algorithm combining intra-class distance and inter-class distance is proposed and applied to image segmentation. Method The algorithm uses a possible measure to describe the degree of membership. The constraint that memberships of sample points across clusters must sum to 1 in fuzzy c-means is removed using a possibility measure so that membership degree is suitable for the characterization of "typical" and "compatibility". The algorithm avoids the traditional possibilistic clustering segmentation algorithm that only considers the distance of the sample to the cluster center. In this paper, intra-class and inter-class distances are combined as a new measure for the algorithm, with consideration of both the intra-class compactness and the inter-class scatter degree, to improve the stability and anti-noise ability of different clustering structures. The histogram is integrated into the possibility of the fuzzy clustering segmentation algorithm so that it can achieve segmentation of all types of complex images. Result Through synthetic and remote sensing images, segmentation tests show that the proposed improved possibilistic clustering algorithm is effective, segmentation contour is clear, and classification accuracy and noise are small. Compared with other algorithms, the error rate is reduced by 2 percentage points, and the result is more satisfactory. Conclusion This study aims to conduct fuzzy c-means clustering segmentation algorithm and possibilistic clustering segmentation algorithm for image classification with similar backgrounds and targeting color inaccuracy defects by combining intra-class distance and inter-class distance as measures of the algorithm effectively to solve the image segmentation problem classification. This method, combined with the histogram, is proposed for a fast possibilistic fuzzy clustering segmentation algorithm that is also applicable for complex, large images.

Key words

fuzzy clustering; possibilistic clustering; image segmentation; partition coefficient; intra-class distance; inter-class distance

0 引言

聚类[1-2]是一种将数据对象分为相对同质的群组的模式分析技术,其中非监督聚类是机器学习领域研究和应用最为广泛的重要技术之一。近年来,聚类技术得到了蓬勃发展,已广泛应用于机器学习、图像理解和识别、生物信息处理等众多领域[3-4]。图像分割是将图像分成若干个特定的、具有独特性质的区域并提出感兴趣目标的技术和过程,它是图像理解和识别的关键步骤,长期以来备受学者们高度重视。由于图像本身的复杂性和结构的不适定性,导致大量图像分割方法的不断涌现[5-6],以便针对不同类型的图像能获得满意的分割效果。由于图像分割的本质是像素划分归类问题,因此,聚类技术成为解决图像分割问题的重要方法之一。在众多的聚类方法中[7-10],模糊C-均值聚类是最为广泛应用于图像分割的重要方法之一。但是,直接利用模糊C-均值聚类进行图像分割并不具有一定的普适性,其根本原因在于图像分割像素并不是孤立的,它与其周围邻域像素紧密相关联,于是学者们提出了空间邻域信息与灰度信息相融合的模糊聚类分割算法[11-17],提高现有模糊C-均值聚类分割法的抗噪性和鲁棒性,虽然其分割性能有所改善,但是其不足是算法耗时较长,不利于实时性要求较高场合和大幅面图像分割需要。为此,学者们放松了模糊C-均值聚类的隶属度约束条件,提出了可能性聚类[18]并将其应用于图像分割,改善了传统模糊C-均值聚类分割图像时的抗噪性,但是其聚类方差

$ {\eta _j}=K\frac{{\sum\limits_{i=1}^n {p_{ij}^md_{ij}^2} }}{{\sum\limits_{i=1}^n {p_{ij}^m} }} $

中参数K选取不同值时对分割效果的影响较为显著(其中pij表示隶属度,dij表示样本到聚类中心的欧氏距离),后来学者们提出了模糊C-均值聚类和可能性聚类相融合的可能模糊C-均值聚类算法[19-21],改善了模糊C-均值聚类算法的鲁棒性,但其分类性能难以得到提高。为此,学者们提出了结合可信性理论的可信聚类算法,该算法对于图像分割的分类性能得到改善,并且对于噪声和野值点具有较强的鲁棒性。为了进一步提高图像分割的鲁棒性和抗噪性,学者们提出了新可信聚类算法[22],其聚类目标函数不仅考虑了样本与聚类中心之间的距离,而且引入了类间距离,促使聚类类间分离程度最大化且类内紧致性程度最小化,以便获得良好的分类性能。与此类似的文献[23]也提出了改进的鲁棒模糊聚类算法,它采用Voronoi cell距离代替传统欧氏距离且计算隶属度时考虑到了类间最小距离并得到了抗噪性较强的鲁棒模糊C-均值聚类算法。但是,文献[22-23]聚类中心表达式的计算与文献[24]的聚类中心表达式相比缺乏严格的数学理论推导。

为此,针对文献[22]的可信聚类算法,对其聚类目标函数和可信度、隶属度和聚类中心迭代表达式之间的关系进行分析,发现聚类中心和可信度的表达式是无法进行严格推导的,甚至可信度公式还存在一定错误。于是,针对文献[22]中基于类内距离和类间距离之差的可信聚类目标函数,将利用$\sqrt {{x^2} + \varepsilon } $代替|x|并获得新的可能聚类目标函数(其中x表示样本点,ε表示误差,一般取0.01)采用拉格朗日乘子法推导并得到一种新的可能聚类算法,其中聚类中心表达式不仅与样本属于该类的可能度有关,甚至与其他类中心紧密关联,这是现有所有模糊聚类和可能聚类的聚类中心未考虑到的显著特点,它改善了聚类样本隶属度,以便获得良好的分类性能。通过实际图例分割测试和比较,表明改进后的新可能性聚类算法具有较强的抗噪性、准确性和合理性并且优于其他聚类算法的分割效果。

1 聚类算法基础

1.1 模糊C均值聚类

在众多模糊聚类算法中,由Dunn[25]提出并由Bezdek加以推广的模糊C均值算法(FCM),应用最为广泛且较为成功,其目标函数可表示为

$ {J_{{\rm{FCM}}}}\left({U, V} \right)=\sum\limits_{k=1}^n {\sum\limits_{i=1}^c {u_{ik}^md_{ik}^2} } $ (1)

隶属度和聚类中心表达式为

$ {u_{ik}}=\frac{1}{{\sum\limits_{j=1}^c {{{\left({\frac{{d_{ik}^2}}{{d_{jk}^2}}} \right)}^{1/\left({m-1} \right)}}} }} $ (2)

$ {{v_i}}=\frac{{\sum\limits_{k=1}^n {u_{ik}^m{x_k}} }}{{\sum\limits_{k=1}^n {u_{ik}^m} }} $ (3)

式中,c表示分类数,m是模糊性加权指数,vi表示区域的聚类中心,uik表示xk属于i类区域的隶属度。dik2(xk, vi)=‖xk-vi2表示样本点xk距聚类中心vi的欧氏距离。

1.2 可能性聚类算法

为了克服FCM的模糊隶属度并不能与直观上的属于程度相一致,并且对于噪声或野值较敏感的缺陷,为此,文献[18]中Krishnapuram和Keller提出了可能性聚类算法(PCM),放松了FCM的隶属度约束条件,其目标函数为

$ {J_{PCM}}\left({U, V} \right)=\sum\limits_{k=1}^n {\sum\limits_{i=1}^c {u_{ik}^md_{ik}^2} } + \sum\limits_{i=1}^c {{\eta _i}\sum\limits_{k=1}^n {{{\left({1-{u_{ik}}} \right)}^m}} } $

隶属度和聚类中心表达式

$ {u_{ik}}={\left({1 + {{\left({\frac{{d_{ik}^2}}{{{\eta _i}}}} \right)}^{1/\left({m-1} \right)}}} \right)^{-1}} $ (4)

$ {{v_i}}=\frac{{\sum\limits_{k=1}^n {u_{ik}^m{x_i}} }}{{\sum\limits_{k=1}^n {u_{ik}^m} }} $ (5)

式中

$ {\eta _i}=K\frac{{\sum\limits_{k=1}^n {u_{ik}^md_{ik}^2} }}{{\sum\limits_{k=1}^n {u_{ik}^m} }} $

式中,c表示分类数,m是模糊性加权指数,vi表示区域的聚类中心,uik表示xk属于i类区域的隶属度。dik2(xk, vi)=‖xk-vi2表示样本点xk距聚类中心vi的欧氏距离。ηi为聚类方差,Kηi中的参数,K取值不同,则对图像分割结果影响较大。

2 本文聚类算法(NPCM1)

结合可能性测度与类内距离和类间距离之差,提出一种可能性聚类算法(NPCM1):1)引入可能聚类测度避免了模糊C均值聚类算法中各样本对于所有类的隶属度之和为1的概率约束,使得隶属度与聚类测度的物理意义相符,尤其是对于其隶属度是典型性或兼容性而非共享度的情况来说更适用;2)将类内距离和类间距离相结合,既考虑类内紧密度又考虑到类间离散度。

2.1 目标函数

FCM是利用样本点到聚类中心的欧氏距离作为测度,其目标函数为式(1),本文聚类算法的目标函数是在FCM的基础上进行改进的,其引入类内距离与类间距离之差替换了FCM中仅仅表示类内关系的欧氏距离,使得类间离散度和类内紧密度都达到最优化,以便获得更好的分割效果,其表达式为

$ \begin{array}{l} J\left({U, V} \right)=\sum\limits_{k=1}^n {\sum\limits_{i=1}^c {\sum\limits_{j=1}^c {u_{ik}^m} } } \left| {d_{ik}^2-\alpha d_{ij}^2} \right|=\\ \sum\limits_{k=1}^n {\sum\limits_{i=1}^c {\sum\limits_{j=1}^c {u_{ik}^m} } } \left| {{{\left\| {{x_k}-{v_i}} \right\|}^2}-\alpha {{\left\| {{v_i}-{v_j}} \right\|}^2}} \right| \end{array} $ (6)

式中,dij2表示聚类中心vi到聚类中心vj的距离。当样本k到聚类中心vi的欧氏距离dik2达到最小时,则表明类内紧密度最大,当聚类中心vi到聚类中心vj的距离dij2最大时,则表明类间离散度最大,当|dik2-αdij2|获得最优值时,则其目标函数才能获得较理想的极小值,但是,并不是说当类内距离达到最小值并且类间距离达到最大值时,分割效果最好,因此,在类间距离前加了可调参数α,在进行图像分割迭代实验时,通过调整参数α,使得|dik2-αdij2|获得相对最优值,从而提高图像分割的有效性和抗噪性。

如果直接对目标函数即式(1)中的U求最小化会得到没有意义的零解,因此,为了避免这种情况的发生,必须在目标函数J(U, V)中加上一个附加项,即f(U), 它是关于uik的函数,而对于f(U)应选择异常值影响最小的关系式,即

$ f\left(U \right)=\sum\limits_{i=1}^c {{\eta _i}\sum\limits_{k=1}^n {{{\left({1-{u_{ik}}} \right)}^m}} } $ (7)

改进的新可能性聚类目标函数为

$ \begin{array}{l} {J_{{\rm{NPCM}}}}\left({U, V} \right)=\sum\limits_{k=1}^n {\sum\limits_{i=1}^c {\sum\limits_{j=1}^c {u_{ik}^m} } } \left| {d_{ik}^2-\alpha d_{ij}^2} \right| + \\ {\kern 1pt} \; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \sum\limits_{i=1}^c {{\eta _i}\sum\limits_{k=1}^n {{{\left({1-{u_{ik}}} \right)}^m}} } \end{array} $ (8)

式中,dik2(xk, vi)=‖xk-vi2表示样本点xk距聚类中心vi的欧氏距离,dij2(vi, vj)=‖vi-vj2表示第i类与第j类的类间距离,α是大于0的可调参数。

2.2 隶属度

可能性聚类的隶属度避免了FCM中各个样本点对于所有类的隶属度之和为1的概率约束,这就意味着具有uik坐标向量y可以在超立方体Hm中任意移动,即满足条件

$ \left\{ \begin{array}{l} 0 \le {u_{ik}} \le 1, i=1, 2, \cdots, c, k=1, 2, \cdots, n\\ \mathop {\max \; {u_{ik}}}\limits_{i=1, \cdots, c} > 0, k=1, \cdots, n\\ 0 < \sum\limits_{k=1}^n {{u_{ik}}} < n, i=1, 2, \cdots, c \end{array} \right. $ (9)

约束条件的改变对于隶属度uik的解释来说有较大的影响,在FCM算法中,uik表示xk属于i类区域的隶属度,在这里,uik表示xk对第i个聚类表达式的兼容度,即uik表示的是xk属于第i个聚类的可能性,其仅仅取决于xk和第i个聚类表达式,与xk属于任何其他聚类的可能性无关。

根据本文聚类算法目标函数式(8)对隶属度uik求导并令其值为零,即

$ \begin{array}{l} \frac{{\partial {J_{{\rm{NPCM}}}}\left({U, V} \right)}}{{\partial {u_{ik}}}}=\frac{{\partial \left({\sum\limits_{k=1}^n {\sum\limits_{i=1}^c {\sum\limits_{j=1}^c {u_{ik}^m} } } \left| {d_{ik}^2-\alpha d_{ij}^2} \right|} \right)}}{{\partial {u_{ik}}}} + \\ \; \;\; \;\; \;\; \frac{{\partial \left({\sum\limits_{i=1}^c {{\eta _i}\sum\limits_{k=1}^n {{{\left({1-{u_{ik}}} \right)}^m}} } } \right)}}{{\partial {u_{ik}}}}=0 \end{array} $

化简得

$ mu_{ik}^{m-1}\sum\limits_{j=1}^c {\left| {d_{ik}^2-\alpha d_{ij}^2} \right|-m{\eta _i}{{\left({1-{u_{ik}}} \right)}^{m-1}}}=0 $

解得

$ \begin{array}{l} {\left({\frac{{1-{u_{ik}}}}{{{u_{ik}}}}} \right)^{m-1}}=\frac{h}{{{\eta _i}}} \Rightarrow \\ \frac{{1-{u_{ik}}}}{{{u_{ik}}}}={\left({\frac{h}{{{\eta _i}}}} \right)^{\frac{1}{{m-1}}}} \Rightarrow \\ \frac{1}{{{u_{ik}}}}=1 + {\left({\frac{h}{{{\eta _i}}}} \right)^{\frac{1}{{m-1}}}} \Rightarrow \\ {u_{ik}}=\frac{1}{{1 + {{\left({\frac{h}{{{\eta _i}}}} \right)}^{\frac{1}{{m-1}}}}}} \end{array} $

式中

$ h=\sum\limits_{j=1}^c {\left| {d_{ik}^2-\alpha d_{ij}^2} \right|} $

$ {u_{ik}}=\frac{1}{{1 + {{\left({\frac{{\sum\limits_{j=1}^c {\left| {d_{ik}^2-\alpha d_{ij}^2} \right|} }}{{{\eta _i}}}} \right)}^{\frac{1}{{m-1}}}}}} $ (10)

根据传统可能聚类中[18]参数ηi的构造方法,将参数ηi模仿构造为

$ {\eta _i}=K\frac{{\sum\limits_{k=1}^n {u_{ik}^m\sum\limits_{j=1}^c {\left| {d_{ik}^2-d_{ij}^2} \right|} } }}{{\sum\limits_{k=1}^n {u_{ik}^m} }} $ (11)

ηi的值决定了本文聚类算法目标函数式(8)中前后两项的相对重要性,它与第i=1, …, c个聚类的形状和大小有关。换句话说,ηi决定了样本点xk与聚类中心vi之间的不相似性,因此,聚类参数ηi决定了特定点对于第i类表达值估计的影响程度。

2.3 聚类中心

由于本文聚类算法目标函数式(8)中的类内距离与类间距离之差

$ \left| {d_{ik}^2-\alpha d_{ij}^2} \right| \approx \sqrt {{e_0} + {{\left| {d_{ik}^2-\alpha d_{ij}^2} \right|}^2}} $

所以其目标函数可展开为

$ \begin{array}{l} {J_{{\rm{NPCM}}}}\left({U, V} \right) \approx \sum\limits_{k=1}^n {\sum\limits_{i=1}^c {\left\{ {u_{ik}^m\sqrt {{e_0} + {{\left| {d_{ik}^2-\alpha d_{ij}^2} \right|}^2}} + } \right.} } \\ \; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \left. {\sum\limits_{\mathop {i=1}\limits_{j \ne i} }^c {u_{ik}^m} \sqrt {{e_0} + {{\left| {d_{ik}^2-\alpha d_{ij}^2} \right|}^2}} } \right\} + \\ \; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \sum\limits_{i=1}^c {{\eta _i}\sum\limits_{k=1}^n {{{\left({1-{u_{ik}}} \right)}^m}} } \end{array} $ (12)

i=j,则

$ {\left| {d_{ik}^2-\alpha d_{ij}^2} \right|^2}={\left| {d_{ik}^2} \right|^2}={\left({x_k^2-2{x_k}{v_i} + v_i^2} \right)^2} $

ij,则

$ \begin{array}{l} {\left| {d_{ik}^2-\alpha d_{ij}^2} \right|^2}=\left({x_k^2 + \left({1-\alpha } \right)} \right.v_i^2-\\ \; \;\; \;\; \;\; {\left. {2{x_k}{v_i}-\alpha {v_j} + 2\alpha {v_i}{v_j}} \right)^2} \end{array} $

将目标函数对聚类中心vi求导并令其为零,即

$ \frac{{\partial J\left({U, V} \right)}}{{\partial {v_i}}}=\sum\limits_{k=1}^n {u_{ik}^m\frac{{d_{ik}^2\left({{v_i}-{x_k}} \right)}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2} \right|}^2}} }}}-{h_1}=0 $

式中

$ {h_1}=\sum\limits_{k=1}^n {\sum\limits_{\mathop {i=1}\limits_{j \ne i} }^c {u_{ik}^m} } \frac{{\left({d_{ik}^2-\alpha d_{ij}^2} \right)\left({{x_k}-\alpha {v_i}-\left({1-\alpha } \right){v_i}} \right)}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2-\alpha d_{ij}^2} \right|}^2}} }} $

解得

$ \sum\limits_{k=1}^n {u_{ik}^m} \frac{{d_{ik}^2\left({{x_k}-{v_i}} \right)}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2} \right|}^2}} }}={h_1} $

化简得

$ {v_i}=\frac{{\sum\limits_{k=1}^n {u_{ik}^m} \frac{{d_{ik}^2{x_k}}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2} \right|}^2}} }} + {h_2}}}{{\sum\limits_{k=1}^n {u_{ik}^m} \frac{{d_{ik}^2}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2} \right|}^2}} }} + {h_3}}} $ (13)

式中

$ {h_3}=\sum\limits_{k=1}^n {\sum\limits_{\mathop {i=1}\limits_{j \ne i} }^c {u_{ik}^m} } \frac{{\left({d_{ik}^2-\alpha d_{ij}^2} \right)\left({1-\alpha } \right)}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2-\alpha d_{ij}^2} \right|}^2}} }} $

2.4 参数α

根据本文聚类算法目标函数式(12)对参数α求导并令其值为零,即

$ \frac{{\partial {J_{{\rm{NPCM}}}}\left({U, V} \right)}}{{\partial \alpha }}=0 $

可得到关于参数α的非线性方程为

$ \alpha=\frac{{\sum\limits_{i=1}^c {\sum\limits_{j=1, j \ne i}^c {\sum\limits_{k=1}^n {u_{ik}^m} \frac{{d_{ik}^2 \times d_{ij}^2}}{{\sqrt {{{\left| {d_{ik}^2-\alpha d_{ij}^2} \right|}^2} + {e_0}} }}} } }}{{\sum\limits_{i=1}^c {\sum\limits_{j=1, j \ne i}^c {\sum\limits_{k=1}^n {u_{ik}^m} \frac{{{{\left({d_{ij}^2} \right)}^2}}}{{\sqrt {{{\left| {d_{ik}^2-\alpha d_{ij}^2} \right|}^2} + {e_0}} }}} } }} $

利用数值分析中非线性方程求根的拟牛顿法或二分法可获得其参数的α最优值。但是,这种计算方法非常耗时,不利于实时性要求较高场合图像分割的需要。为此,直接选取该值,以便降低算法的复杂性。不同参数α值可导致聚类分割效果存在一定差异,再通过对分割效果进行评价可获得相对满意的α值。一般而言,通过调节参数α使得聚类目标函数中类内紧密度和类间离散度均达到最优化,以便对不同的聚类结构有较强的稳定性和更好的抗噪能力。

2.5 本文聚类算法的收敛性证明

为了证明该算法满足收敛性条件,用类似于Bezdek证明传统模糊C-均值聚类算法[26]收敛的方法(Zangwill定理[27])来证明本文算法NPCM1满足收敛性条件。

如果本文算法是收敛的,那么迭代算法应满足Zangwill定理中的条件1,即JNPCM(U, V)是下降函数。

JNPCM(U, V)是下降函数,则下面的两个命题应该成立。

命题 1    如果本文算法收敛,那么对于给定的VL=JNPCM(U, V),当且仅当用式(10)计算uij*时,U*L的严格局部极小点。如果本文算法不收敛,那么命题将不成立且不能满足收敛条件。

证明    该给定聚类中心V的条件下,令${d_{ijk}}=\sqrt {{e_0} + {{\left({{{\left\| {{x_k}-{v_i}} \right\|}^2}-\alpha {{\left\| {{v_i}-{v_j}} \right\|}^2}} \right)}^2}} $,其目标函数为$L\left(U \right)=\sum\limits_{k=1}^n {\sum\limits_{j=1}^c {\sum\limits_{i=1}^c {u_{ik}^m{d_{ijk}}} + \sum\limits_{i=1}^c {{\eta _i}\sum\limits_{k=1}^n {{{\left({1-{u_{ik}}} \right)}^m}} } } } $如果U*L的极小点,则$\frac{{\partial L\left({{U^*}} \right)}}{{\partial {u_{ik}}}}=0$,即

$ m{\left({u_{ik}^*} \right)^{m-1}}\sum\limits_{j=1}^c {{d_{ijk}}-m{\eta _i}{{\left({1-u_{ik}^*} \right)}^{m-1}}}=0 $

得到

$ u_{ik}^*=\frac{1}{{1 + {{\left({\frac{{\sum\limits_{j=1}^c {{d_{ijk}}} }}{{{\eta _i}}}} \right)}^{\frac{1}{{m-1}}}}}} $ (14)

因此,U*满足式(10)的必要条件。为了证明充分性,需要考虑在U=U*处函数L的大小为nc×nc的Hessian矩阵,也就是

$ \left\{ \begin{array}{l} 0\;\; \;\; \;\; \;\; \;\; \;\; \;\; a \ne i或b \ne k\\ m\left({m-1} \right)\left({\sum\limits_{j=1}^c {{{\left({u_{ij}^*} \right)}^{m-2}}{d_{ijk}} + {\eta _i}{{\left({1-u_{ik}^*} \right)}^{m-2}}} } \right)\\ \; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;a=i且b=k \end{array} \right. $ (15)

因此,该海森矩阵是对角线元素大于0且非对角线元素为0的对称正定矩阵。于是U*L的严格局部极小点,故命题成立。

命题 2    如果本文算法收敛,那么对于给定的U,以及V的局部邻域φ(V)={V+0 <‖V-V+2 < δ}中的V+L(V)=JNPCM(U, V, V+),当且仅当用式(13)计算vj*时,V*L的严格局部极小点。如果本文算法NPCM1不收敛,那么命题将不成立且不能满足收敛条件。

证明    在给定聚类模糊划分矩阵U,以及聚类中心V的局部邻域φ(V)={V′|‖V-V′‖2 < δ}中V′(V的邻域聚类中心)的条件下,令${d_{ijk}}=\sqrt {{e_0} + {{\left({{{\left\| {{x_k}-{v_i}} \right\|}^2}-\alpha {{\left\| {{v_i}-{v_j}} \right\|}^2}} \right)}^2}} $,构造其相应的目标函数为

$ L\left(V \right)=\sum\limits_{k=1}^n {\sum\limits_{j=1}^c {\sum\limits_{i=1}^c {u_{ik}^m{d_{ijk}}} + \sum\limits_{i=1}^c {{\eta _i}\sum\limits_{k=1}^n {{{\left({1-{u_{ik}}} \right)}^m}} } } } $

如果V*L的极小点,则有$\frac{{\partial L\left({{V^*}} \right)}}{{\partial {u_i}}}=0$,也就是

$ \frac{{\partial L\left({{V^*}} \right)}}{{\partial {u_i}}}=\sum\limits_{k=1}^n {u_{ik}^m} \frac{{d_{ik}^2\left({{x_k}-v_i^*} \right)}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2} \right|}^2}} }}-{h_1}=0 $

式中

$ {h_1}=\sum\limits_{k=1}^n {\sum\limits_{\mathop {i=1}\limits_{j \ne i} }^c {u_{ik}^m} } \frac{{h_{ijk}^{*, 1}\left({{x_k}-\alpha v_j^*-\left({1-\alpha } \right)v_i^*} \right)}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2-\alpha d_{ij}^2} \right|}^2}} }} $

于是可得到

$ v_i^*=\frac{{\sum\limits_{k=1}^n {u_{ik}^m} {l_{ik}}{x_k} + \sum\limits_{k=1}^n {\sum\limits_{\mathop {i=1}\limits_{j \ne i} }^c {u_{ik}^m} } \frac{{h_{ijk}^{*, 1}\left({{x_k}-\alpha v_j^*} \right)}}{{\sqrt {{e_0} + {{\left| {h_{ijk}^{*, 1}} \right|}^2}} }}}}{{\sum\limits_{k=1}^n {u_{ik}^m} {l_{ik}} + \sum\limits_{k=1}^n {\sum\limits_{\mathop {i=1}\limits_{j \ne i} }^c {u_{ik}^m} } \frac{{\left({d_{ik}^2-\alpha d_{ij}^2} \right)\left({1-\alpha } \right)}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2-\alpha d_{ij}^2} \right|}^2}} }}}} $ (16)

式中

$ \begin{array}{l} h_{ijk}^{*, 1}={\left\| {{x_k}-v_i^*} \right\|^2}-\alpha {\left\| {v_j^*-v_i^*} \right\|^2}\\ \; \;\; \;\; \;\; {l_{ik=}}\frac{{d_{ik}^2}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2} \right|}^2}} }} \end{array} $

因此,V*满足式(13)的必要条件。但是,实际迭代计算使用了聚类中心V的局部邻域φ(V)={V+|0 <‖V-V+2 < δ}中的V+=(v1+, v2+, …, vc+)进行计算为

$ v_i^*=\frac{{\sum\limits_{k=1}^n {u_{ik}^m} {l_{ik}}{x_k} + \sum\limits_{k=1}^n {\sum\limits_{\mathop {i=1}\limits_{j \ne i} }^c {u_{ik}^m} } \frac{{h_{ijk}^{*, 1}\left({{x_k}-\alpha v_j^ + } \right)}}{{\sqrt {{e_0} + {{\left| {h_{ijk}^{*, 1}} \right|}^2}} }}}}{{\sum\limits_{k=1}^n {u_{ik}^m} {l_{ik}} + \sum\limits_{k=1}^n {\sum\limits_{\mathop {i=1}\limits_{j \ne i} }^c {u_{ik}^m} } \frac{{\left({d_{ik}^2-\alpha d_{ij}^2} \right)\left({1-\alpha } \right)}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2-\alpha d_{ij}^2} \right|}^2}} }}}} $ (17)

即有

$ \begin{array}{l} \frac{{\partial L\left({{V^*}} \right)}}{{\partial {v_i}}}=\left({\sum\limits_{k=1}^n {u_{ik}^m} \frac{{d_{ik}^2\left({{x_k}-v_i^*} \right)}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2} \right|}^2}} }}} \right)-\\ \left({\sum\limits_{k=1}^n {\sum\limits_{\mathop {i=1}\limits_{j \ne i} }^c {u_{ik}^m} } \frac{{h_{ijk}^{*, 1}\left({{x_k}-\alpha v_j^ +-\left({1-\alpha } \right)v_i^*} \right)}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2-\alpha d_{ij}^2} \right|}^2}} }}} \right)=0 \end{array} $

于是构造相应的偏导数表达式为

$ \begin{array}{l} \frac{{\partial L\left({{V^*}} \right)}}{{\partial {v_i}}}=\left({\sum\limits_{k=1}^n {u_{ik}^m} \frac{{d_{ik}^2\left({{x_k}-{v_i}} \right)}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2} \right|}^2}} }}} \right)-\\ \left({\sum\limits_{k=1}^n {\sum\limits_{\mathop {i=1}\limits_{j \ne i} }^c {u_{ik}^m} } \frac{{h_{ijk}^{*, 1}\left({{x_k}-\alpha v_j^ +-\left({1-\alpha } \right){v_i}} \right)}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2-\alpha d_{ij}^2} \right|}^2}} }}} \right) \end{array} $

为了证明充分性,需要考虑在V=V*处函数L的大小为c×c的Hessian矩阵,也就是

$ \begin{array}{l} \; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\frac{\partial }{{\partial {v_l}}}\left({\frac{{\partial L\left({{V^*}} \right)}}{{\partial {v_i}}}} \right)=\\ \left\{ \begin{array}{l} \sum\limits_{k=1}^n {u_{ik}^m} \frac{{d_{ik}^2}}{{\sqrt {{e_0} + {{\left| {d_{ik}^2} \right|}^2}} }} + \\ \; \;\; \;\; \;\; \;\; \sum\limits_{k=1}^n {\sum\limits_{\mathop {i=1}\limits_{j \ne i} }^c {u_{ik}^m} } \left({1-\alpha } \right){\mathop{\rm sgn}} h_{ijk}^{*, 1}\; \;l=i\\ 0\;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;l \ne i \end{array} \right. \approx \\ \left\{ \begin{array}{l} \sum\limits_{k=1}^n {u_{ik}^m} + \sum\limits_{k=1}^n {\sum\limits_{\mathop {i=1}\limits_{j \ne i} }^c {u_{ik}^m} } \left({1-\alpha } \right){\mathop{\rm sgn}} h_{ijk}^{*, 1}\; \;l=i\\ 0\;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;l \ne i \end{array} \right.=\\ \left\{ \begin{array}{l} \sum\limits_{k=1}^n {u_{ik}^m} + \sum\limits_{k=1}^n {\sum\limits_{\mathop {i=1}\limits_{j \ne i} }^c {u_{ik}^m} } \left({1-\alpha } \right){\mathop{\rm sgn}} h_{ijk}^{*, 1}\; \;l=i\\ 0\;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;l \ne i \end{array} \right.=\\ \left\{ \begin{array}{l} \sum\limits_{k=1}^n {u_{ik}^m} + \left({1 + \left({1-\alpha } \right) \bullet \sum\limits_{\mathop {i=1}\limits_{j \ne i} }^c {{\mathop{\rm sgn}} h_{ijk}^{*, 1}} } \right)\; \;l=i\\ 0\;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; l \ne i \end{array} \right. \end{array} $ (18)

式中

$ \begin{array}{c} {\mathop{\rm sgn}} h_{ijk}^{*, 1}=\frac{{{{\left\| {{x_k}-v_i^*} \right\|}^2}-\alpha {{\left\| {v_j^*-v_i^*} \right\|}^2}}}{{\sqrt {{e_0} + {{\left| {{{\left\| {{x_k}-v_i^*} \right\|}^2}-\alpha {{\left\| {v_j^*-v_i^*} \right\|}^2}} \right|}^2}} }}\\ d_{ik}^2 \approx \sqrt {{e_0} + {{\left| {d_{ik}^2} \right|}^2}} \end{array} $

$\sum\limits_{i=1, j \ne i}^c {{\mathop{\rm sgn}} h_{ijk}^{*, 1}} $的取值范围是[-(c-1), c-1],若满足$ 1+ \left({1-\alpha } \right)\sum\limits_{i=1, j \ne i}^c {{\mathop{\rm sgn}} h_{ijk}^{*, 1}} $大于零,则该海森矩阵是对称正定的。于是,本文得出该矩阵是正定的判定条件如下:

1) 若α < 0时,很显然${\mathop{\rm sgn}} h_{ijk}^{*, 1} \ge 0$,于是得到该海森矩阵是正定的。于是V*L的严格局部极小点。

2) 若参数α满足条件$\frac{{c-2}}{{c-1}} < \alpha < \frac{c}{{c-1}}$时,上述海森矩阵是正定的。于是V*L的严格局部极小点。

综合两个命题的证明,获得本文迭代算法的收敛性结论如下:

在满足$\frac{{c-2}}{{c-1}} < \alpha < \frac{c}{{c-1}}$或者α < 0的条件下,本文聚类算法是满足收敛定理的条件,所以本文算法是收敛的。

3 基于直方图的本文聚类算法(NPCM2)

将本文聚类算法用于图像分割时,其本质是不同位置像素值的聚类问题,其相应的聚类目标函数描述为

$ \begin{array}{l} \; \;\; \;\; \;\; \;\; \;\; \;\; \;\; \;\; {J_{{\rm{NPCM}}}}\left({U, V} \right)=\\ \sum\limits_{i=1}^n {\sum\limits_{j=1}^n {\sum\limits_{l=1}^M {\sum\limits_{k=1}^N {u_{i, g\left({l, k} \right)}^m} } } } \left| {{f_1}-\alpha {{\left({{v_i}-{v_j}} \right)}^2}} \right| + \\ \; \;\; \;\; \;\; \;\; \sum\limits_{i=1}^n {{\eta _i}\sum\limits_{l=1}^M {\sum\limits_{k=1}^N {{{\left({1-{u_{i, g\left({l, k} \right)}}} \right)}^m}} } } \end{array} $

其相应的聚类分割迭代表达式为

$ \begin{array}{l} {u_{i, g\left({l, k} \right)}}=\frac{1}{{1 + {{\left({\frac{{\sum\limits_{j=1}^c {\left| {{f_1}-\alpha {{\left({{v_j}-{v_i}} \right)}^2}} \right|} }}{{{\eta _i}}}} \right)}^{\frac{1}{{m-1}}}}}}\\ {v_i}=\frac{{\sum\limits_{l=1}^M {\sum\limits_{k=1}^N {u_{i, g\left({l, k} \right)}^m\frac{{{f_1} \bullet g\left({l, k} \right)}}{{\sqrt {{e_0} + {{\left| {{f_1}} \right|}^2}} }} + {f_2}} } }}{{\sum\limits_{l=1}^M {\sum\limits_{k=1}^N {u_{i, g\left({l, k} \right)}^m\frac{{{f_1}}}{{\sqrt {{e_0} + {{\left| {{f_1}} \right|}^2}} }} + {f_3}} } }} \end{array} $

式中

$ \begin{array}{c} {f_1} = {\left( {g\left( {l,k} \right) - {v_i}} \right)^2}\\ {f_2} = \sum\limits_{l = 1}^M {\sum\limits_{k = 1}^N {\sum\limits_{\mathop {i = 1}\limits_{j \ne i} }^c {u_{i,g\left( {l,k} \right)}^m\frac{{{f_1} - \alpha d_{ij}^2}}{{\sqrt {{e_0} + {{\left| {{f_1} - \alpha d_{ij}^2} \right|}^2}} }} \times } } } \\ \sum\limits_{l = 1}^M {\sum\limits_{k = 1}^N {\sum\limits_{\mathop {i = 1}\limits_{j \ne i} }^c {u_{i,g\left( {l,k} \right)}^m} \frac{{g\left( {l,k} \right) - \alpha {v_j}}}{{\sqrt {{e_0} + {{\left| {{f_1} - \alpha d_{ij}^2} \right|}^2}} }}} } \\ {f_3} = \sum\limits_{l = 1}^M {\sum\limits_{k = 1}^N {\sum\limits_{\mathop {i = 1}\limits_{j \ne i} }^c {u_{i,g\left( {l,k} \right)}^m\frac{{\left( {{f_1} - \alpha d_{ij}^2} \right) \bullet \left( {1 - \alpha } \right)}}{{\sqrt {{e_0} + {{\left| {{f_1} - \alpha d_{ij}^2} \right|}^2}} }}} } } \end{array} $

式中,M, N分别是图像高宽大小,g(l, k)表示图像位置(l, k)处的像素值。

但是,该像素值聚类分割算法的时间复杂度为O(MN)。针对大幅面图像而言,采用上述目标函数所对应的聚类算法分割时就非常耗时,不利于实时场合广泛应用。为此,将已有模糊C-均值聚类图像分割快速算法推广至本文聚类算法,得到基于直方图的可能聚类快速分割算法(NPCM2),其相应的聚类目标函数描述为

$ \begin{array}{c} {J_{{\rm{NPCM}}}}\left({U, V} \right)=\sum\limits_{i=1}^c {\sum\limits_{j=1}^c {\sum\limits_{l=0}^{L-1} {h\left(l \right)u_{il}^m\left| {{{\left({l-{v_i}} \right)}^2}-} \right.} } } \\ \left. {\alpha {{\left({{v_j}-{v_i}} \right)}^2}} \right| + \sum\limits_{i=1}^c {{\eta _i}\sum\limits_{l=0}^{L-1} {h\left(l \right){{\left({1-{u_{il}}} \right)}^m}} } \end{array} $

其相应的聚类分割迭代表达式为

$ {u_{il}}=\frac{1}{{1 + \left({\frac{{\sum\limits_{j=1}^c {\left| {d_{il}^2-\alpha {{\left({{v_j}-{v_i}} \right)}^2}} \right|} }}{{{\eta _i}}}} \right)}} $ (19)

$ {v_i}=\frac{{\sum\limits_{l=0}^{L-1} {h\left(l \right)u_{il}^m\frac{{d_{il}^2 \cdot l}}{{\sqrt {{e_0} + {{\left| {d_{il}^2} \right|}^2}} }} + {f_4}} }}{{\sum\limits_{l=0}^{L-1} {h\left(l \right)} u_{il}^m\frac{{d_{il}^2}}{{\sqrt {{e_0} + \left| {d_{il}^2} \right|} }} + {f_5}}} $ (20)

$ {\eta _i}=K\frac{{\sum\limits_{l=0}^{L-1} {h\left(l \right)u_{il}^m\sum\limits_{j=1}^c {\left| {d_{iml}^2-d_{ij}^2} \right|} } }}{{\sum\limits_{l=1}^{L-1} {h\left(l \right){u^{il}}} }} $ (21)

式中

$ \begin{array}{c} d_{il}^2 = {\left( {l - {v_i}} \right)^2}\\ {f_4} = \sum\limits_{l = 0}^{L - 1} {\sum\limits_{\mathop {i = 1}\limits_{j \ne i} }^c {h\left( l \right)u_{il}^m} \frac{{\left( {d_{il}^2 - \alpha d_{ij}^2} \right) \cdot \left( {l - \alpha {v_j}} \right)}}{{\sqrt {{e_0} + {{\left| {d_{il}^2 - \alpha d_{ij}^2} \right|}^2}} }}} \\ {f_5} = \sum\limits_{l = 0}^{L - 1} {\sum\limits_{\mathop {i = 1}\limits_{j \ne i} }^c {h\left( l \right)u_{il}^m\frac{{\left( {d_{il}^2 - \alpha d_{ij}^2} \right) \cdot \left( {1 - \alpha } \right)}}{{\sqrt {{e_0} + {{\left| {d_{il}^2 - \alpha d_{ij}^2} \right|}^2}} }}} } \end{array} $

式中,{0, 1,…, L-1}表示像素灰度级范围,h(l)表示灰度级为l的像素点个数,uil表示灰度级l属于第i类的隶属度,vi表示像素所对应第i类的聚类中心。

利用直方图统计数据出现的次数避免了计算数据取值重复时耗费时间较长的缺陷,这使得基于直方图的可能性聚类算法对于大幅面图像极大地提高了分割速度,其算法时间复杂度为O(L),特别适合实时场合目标跟踪、识别等需要。

根据直方图的本文聚类模型,可得本文聚类算法NPCM2步骤如下:

1) 确定图像聚类分割区域数目c, (2≤cn)模糊指数m, 参数K, α, 初始化聚类区域平均灰度值即聚类中心,设定终止迭代条件阈值。

2) 设定迭代计数器ct=0,利用FCM聚类算法计算隶属度uil

3) 利用式(21)计算ηi

4) 利用式(19)更新可能性隶属度uil

5) 利用式(20)更新聚类中心vi

6) 如果$\mathop {\max }\limits_{1 \le i \le c} \left| {v_i^{ct}-v_i^{ct + 1}} \right| < \varepsilon $或迭代次数大于给定最大迭代次数时,则循环迭代终止;否则,设置ct=ct+1,转步骤3)。

7) 去可能化,根据可能性隶属度最大原则去可能化,换句话说,就是将像素点归为可能性隶属度最大的那一类中,用Gk表示第k个样本点所属的类别为${G_k}=\arg \mathop {\; \max }\limits_i \left({{u_{ik}}} \right)$,于是实现图像分割结果为

$ {{g'}_{ij}}={L_{{c^*}}}, {c^*}=\arg \mathop {\; \max }\limits_c {u_{c, g\left({i, j} \right)}} $

式中,${{g'}_{ij}}={L_{{c^*}}}, {c^*}=\arg \mathop {\; \max }\limits_c {u_{c, g\left({i, j} \right)}}, g\left({i, j} \right)$g(i, j)表示被分割图像G中任意位置(i, j)处像素所对应的灰度值大小,lc表示不同分割区域标识灰度值。

4 实验结果和分析

4.1 实验结果

为了验证本文聚类算法NPCM2的有效性,在实验运行环境为Matlab7.0,算法参数选取模糊因子m的最佳取值范围为[1.5, 2.5], 参数α取值范围为(-1, 1), 参数K大于0,迭代误差ε=0.01, 最大迭代次数Tm=500的条件下,对人工合成图像和复杂遥感图像进行分割。图 1图 3为本文算法NPCM2在不同参数时的分割结果。

图 1 洞庭湖遥感图像分割结果
Fig. 1 The segmentation results of dongting lake remote sensing image ((a)the original image; (b)m=1.7, K=4.8, α=0.5; (c) m=1.7, K=3.5, α=0.2; (d) m=1.7, K=0.7, α=0.5)
图 2 房屋遥感图像分割结果
Fig. 2 The segmentation results of housing remote sensing image((a)the original image; (b)m=1.7, K=6.0, α=-0.5;(c) m=1.7, K=0.2, α=-0.4;(d) m=1.5, K=1.5, α=0.2)
图 3 大脑医学图像分割结果
Fig. 3 The segmentation results of brain medical image((a)the original image; (b)m=2.0, K=2.5, α=-2.8;(c)m=1.8, K=6.2, α=0.6; (d) m=1.8, K=2.5, α=0.3)

4.2 分割性能评价

为了将聚类算法的分割效果更直观地用数值指标表示出来,引入一个评价聚类效果好坏的评价指标即误分率,分割误分率是指错误分割的像素占整幅理想图像所有像素的百分比。其表达式为

$ r=\frac{1}{2}\frac{{\sum\limits_{q=1}^c {\left| {{m_q}-{n_q}} \right|} }}{{\sum\limits_{q=1}^c {\left| {{n_q}} \right|} }} $

式中,mq为分割结果中属于标号为q区域的像素个数,q=1, 2, …c, nq为理想分割图像中属于标号为q区域的像素个数,q=1, 2, …, c

图 1图 3可以看出,对于本文聚类算法NPCM2来说只要参数选取正确,则其对图像的分割效果就会达到最好,分类较准确,其轮廓清晰,噪声小且平滑连续。通过表 1可以更直观地用数值来比较不同参数的分割效果,参数选取最佳,则误分率最小,即图像分割效果最好。模糊性加权指数m是预先选定的并且影响最终结果的模糊分类索引,参数K的取值将会影响聚类方差ηi的大小,其值不能为负值,参数α是类间距离的系数,它的作用是控制类间距离以便获得最优类间离散度值,从而使得图像分割达到最佳分类效果,根据实验得出,其中模糊性加权指数m一般取值范围是[1.5-2.5], K为大于0的参数,α的最佳取值范围是(-1, 1),只要遵循每个参数的规定范围,则会获得有效的分割效果。图 4为不同算法的实验原图和结果,KFLICM为基于核空间的模糊局部C均值聚类算法,FCS为基于模糊离散矩阵的改进模糊聚类算法。

表 1 不同参数的图像分割结果比较
Table 1 Comparison of segmentation results for different parameters

下载CSV
r/% m K α
图 1(b) 36.15 1.7 6.0 -0.5
图 1(c) 18.43 1.7 3.5 0.2
图 1(d) 2.5 1.7 0.7 0.4
图 2(b) 6.89 1.7 6.0 -0.5
图 2(c) 5.4 1.7 0.2 -0.4
图 2(d) 4.5 1.5 1.5 0.2
图 3(b) 4.12 2.0 8.5 0.6
图 3(c) 12.84 1.8 6.2 0.6
图 3(d) 2.32 1.8 2.5 0.3
图 4 实测图像及其不同方法分割结果
Fig. 4 Real images and segmentation results of different algorithms ((a) the original imges; (b) the FCM algorithm; (c) the KFLICM algorithm[17]; (d) the PCM algorithm[18]; (e) the FCS algorithm[25]; (f) the proposed algorithm)

图 4所示的分割结果来看,采用模糊C均值聚类算法、基于核空间的模糊局部C均值聚类算法以及可能性聚类算法的分割结果中抗噪性较差,不能清晰地将目标从背景中分割出来,图像区域一致性和边缘准确性较差,从而导致图像误分率较高,且采用基于核空间的模糊局部C均值聚类算花费时间较大不适用于大篇幅和复杂图像的分割,采用一种基于模糊离散矩阵的改进模糊聚类算法的分割效果优于前面3种算法分割效果,但是本文聚类算法NPCM2分割效果更好,抗噪性好且轮廓清晰,图像的区域一致性很好且耗时较少,因此误分率明显小于模糊聚类算法和可能性聚类算法的分割结果的误分率,利用误分率性能指标,对图像进行了定量分析。因此,本文算法NPCM2相比其他4种分割算法具有更好的分类性能,有利于复杂场景和遥感图像目标提取需要。其充分说明采用算法优于其他算法。

表 2 不同聚类方法分割结果比较
Table 2 Comparison of segmentation results for different clustering algorithms

下载CSV
图像 算法 错误率/% m K α
地表 FCM 11.21 2.0
KFLICM 10.35 2.0
PCM 13.23 1.5 0.2
FCS 8.12 2.0 0.5
NPCM2 6.4 1.7 5.2 0.3
河流 FCM 25.93 2.0
KFLICM 12.56 2.0
PCM 22.30 1.7 0.3
FCS 11.87 2.0 0.65
NPCM2 6.8 1.7 0.3 0.4
人物 FCM 12.23 2.0
KFLICM 10.06 2.0
PCM 23.56 1.8 0.05
FCS 15.23 2.0 0.35
NPCM2 10.12 1.7 0.3 0.27

5 结论

在模糊C均值聚类的基础上结合了可能测度并且在其目标函数中引入了类内距离与类间距离之差,在聚类分割时使得类内的紧密度和类间离散度均达到最优化,从而使得目标函数获得最优解,经过认真分析与推导获得新的隶属度和聚类中心表达式,提出了改进的新可能性聚类。由理论分析和实验结果表明,本文提出的新可能性聚类提高了人工合成图像和复杂遥感等图像噪声干扰分割的抗噪能力和准确性,对于进一步探讨更优的聚类分割算法具有积极促进的作用。在经过大量实验后,发现本文所提出的算法对于个别图像的分割效果不理想,因此应对算法进一步改进以提高其普适性。

参考文献

  • [1] Wang Y, Xiang Y, Zhang J, et al. Internet traffic classification using constrained clustering[J]. IEEE Transactions on Parallel and Distributed System , 2014, 25 (11) : 2932–2943. DOI:10.1109/TPDS.2013.307
  • [2] Li X J, Lyu J C, Li L L. Online clustering via energy scoring based on low-rank and sparse representation[J]. Electronics Letters , 2014, 50 (25) : 1927–1929. DOI:10.1049/el.2014.2713
  • [3] Huang G, Song S J, Gupta J N D, et al. Semi-supervised and unsupervised extreme learning machines[J]. IEEE Transactions on Cybernetics , 2014, 44 (12) : 2405–2417. DOI:10.1109/TCYB.2014.2307349
  • [4] Maji P. Mutual information-based supervised attribute clustering for microarray sample classification[J]. IEEE Transactions on Knowledge and Data Engineering , 2012, 24 (1) : 127–140. DOI:10.1109/TKDE.2010.210
  • [5] Shivhare P, Gupta V. Review of image segmentation techniques:including pre&post processing operations[J]. International Journal of Engineering and Advanced Technology (IJEAT) , 2015, 4 (3) : 153–157.
  • [6] Gong M G, Su L Z, Jia M, et al. Fuzzy clustering with a modified MRF energy function for change detection in synthetic aperture radar images[J]. IEEE Transactions on Fuzzy Systems , 2014, 22 (1) : 98–109. DOI:10.1109/TFUZZ.2013.2249072
  • [7] Shah G A, Alagoz F, Fadel E A, et al. A spectrum-aware clustering for efficient multimedia routing in cognitive radio sensor networks[J]. IEEE Transactions on Vehicular Technology , 2014, 63 (7) : 3369–3380. DOI:10.1109/TVT.2014.2300141
  • [8] Hyder C S, Grebur B, Li X, et al. ARC:adaptive reputation based clustering against spectrum sensing data falsification attacks[J]. IEEE Transactions on Mobile Computing , 2014, 13 (8) : 1707–1719. DOI:10.1109/TMC.2013.26
  • [9] Anand S, Mittal S, Tuzel O, et al. Semi-supervised kernel mean shift clustering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence , 2014, 36 (6) : 1201–1215. DOI:10.1109/TPAMI.2013.190
  • [10] Zhou J, Chen C L P, Chen L, et al. A collaborative fuzzy clustering algorithm in distributed network environments[J]. IEEE Transactions on Fuzzy Systems , 2014, 22 (6) : 1443–1456. DOI:10.1109/TFUZZ.2013.2294205
  • [11] Cai W L, Chen S C, Zhang D Q. Fast and robust fuzzy c-means clustering algorithms incorporating local information for image segmentation[J]. Pattern Recognition , 2007, 40 (3) : 825–838. DOI:10.1016/j.patcog.2006.07.011
  • [12] Krinidis S, Chatzis V. A robust fuzzy local information C-Means clustering algorithm[J]. IEEE Transactions on Image Processing , 2010, 19 (5) : 1328–1337. DOI:10.1109/TIP.2010.2040763
  • [13] Wang J Z, Kong J, Lu Y H, et al. A modified FCM algorithm for MRI brain image segmentation using both local and non-local spatial constraints[J]. Computerized Medical Imaging and Graphics , 2008, 32 (8) : 685–698. DOI:10.1016/j.compmedimag.2008.08.004
  • [14] Zhao F, Jiao L C, Liu H Q. Fuzzy c-means clustering with non local spatial information for noisy image segmentation[J]. Frontiers of Computer Science in China , 2011, 5 (1) : 45–56. DOI:10.1007/s11704-010-0393-8
  • [15] Zhao F, Jiao L C, Liu H Q, et al. A novel fuzzy clustering algorithm with non local adaptive spatial constraint for image segmentation[J]. Signal Processing , 2011, 91 (4) : 988–999. DOI:10.1016/j.sigpro.2010.10.001
  • [16] Li Y, Shen Y. Fuzzy c-means clustering based on spatial neighborhood information for image segmentation[J]. Journal of Systems Engineering and Electronics , 2010, 21 (2) : 323–328.
  • [17] Gong M G, Liang Y, Shi J, et al. Fuzzy c-means clustering with local information and kernel metric for image segmentation[J]. IEEE Transactions on Image Processing , 2013, 22 (2) : 573–584. DOI:10.1109/TIP.2012.2219547
  • [18] Krishnapuram R, Keller J M. A possibilistic approach to clustering[J]. IEEE Transactions on Fuzzy Systems , 1993, 1 (2) : 98–110. DOI:10.1109/91.227387
  • [19] Pal N R, Pal K, Keller J M, et al. A possibilistic fuzzy C-means clustering algorithm[J]. IEEE Transactions on Fuzzy Systems , 2005, 13 (4) : 517–530. DOI:10.1109/TFUZZ.2004.840099
  • [20] Ojeda-Magafia B, Ruelas R, Corona-Nakamura M A, et al.An improvement to the possibilistic fuzzy c-means clustering algorithm[C]//Proceedings of 2006 World Automation Congress.Budapest:IEEE, 2006:1-8.[DOI:10.1109/WAC.2006.376056]
  • [21] Zhang J S, Leung Y W. Improved possibilistic c-means clustering algorithms[J]. IEEE Transactions on Fuzzy Systems , 2004, 12 (2) : 209–217. DOI:10.1109/TFUZZ.2004.825079
  • [22] Kalhori M R N, Zarandi M H F, Turksen I B. A new credibilistic clustering algorithm[J]. Information Sciences , 2014, 279 : 105–122. DOI:10.1016/j.ins.2014.03.106
  • [23] Zhang Y, Wang S T, Han B. Robust image segmentation based on improved fuzzy clustering algorithm[J]. Journal of Image and Graphics , 2008, 13 (5) : 911–917. [ 张扬, 王士同, 韩斌. 基于改进模糊聚类算法鲁棒的图像分割[J]. 中国图象图形学报 , 2008, 13 (5) : 911–917. DOI:10.11834/jig.20080512 ]
  • [24] Wu K L, Yu J, Yang M S. A novel fuzzy clustering algorithm based on a fuzzy scatter matrix with optimality tests[J]. Pattern Recognition Letters , 2005, 26 (5) : 639–652. DOI:10.1016/j.patrec.2004.09.016
  • [25] Dunn J C. A graph theroretic analysis of pattern classification via tamura's fuzzy relation[J]. IEEE Transactions on Systems Man and Cybernet , 1974, 4 (3) : 310–313. DOI:10.1109/TSMC.1974.5409141
  • [26] Bezdek J C. A convergence theorem for the fuzzy ISODATA clustering algorithms[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence , 1980, PAMI-2 (1) : 1–8. DOI:10.1109/TPAMI.1980.4766964
  • [27] Zangwill W I. Nonlinear Programming:A Unified Approach[M]. Englewood Cliffs, NJ: Prentice-Hall, 1969 .