Print

发布时间: 2023-01-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.210988
2023 | Volume 28 | Number 1




    医学图像处理    




  <<上一篇 




  下一篇>> 





肺部肿瘤跨模态图像融合的并行分解自适应融合模型
expand article info 周涛1,2, 刘珊1, 董雅丽1, 白静1,2, 陆惠玲3
1. 北方民族大学计算机科学与工程学院, 银川 750021;
2. 北方民族大学图像图形智能处理国家民委重点实验室, 银川 750021;
3. 宁夏医科大学理学院, 银川 750004

摘要

目的 跨模态像素级医学图像融合是精准医疗领域的研究热点。针对传统的像素级图像融合算法存在融合图像对比度不高和边缘细节不能较好保留等问题,本文提出并行分解图像自适应融合模型。方法 首先,使用NSCT(non-subsampled contourlet transform)提取原图像的细节方向信息,将原图像分为低频子带和高频子带,同时使用潜在低秩表示方法(latent low-rank representation, LatLRR)提取原图像的显著能量信息,得到低秩部分、显著部分和噪声部分。然后,在低频子带融合方面,NSCT分解后得到的低频子带包含原图像的主要能量,在融合过程中存在多对一的模糊映射关系,因此低频子带融合规则采用基于模糊逻辑的自适应方法,使用高斯隶属函数表示图像模糊关系;在高频子带融合方面,NSCT分解后得到高频子带系数间有较强的结构相似性,高频子带包含图像的轮廓边缘信息,因此高频子带采用基于Piella框架的自适应融合方法,引入平均结构相似性作为匹配测度,区域方差作为活性测度,设计自适应加权决策因子对高频子带进行融合。结果 在5组CT(computed tomography)肺窗/PET(positron emission tomography)和5组CT纵膈窗/PET进行测试,与对比方法相比,本文方法融合图像的平均梯度提升了66.6%,边缘强度提升了64.4%,边缘保持度提升了52.7%,空间频率提升了47.3%。结论 本文方法生成的融合图像在主客观评价指标中均取得了较好的结果,有助于辅助医生进行更快速和更精准的诊疗。

关键词

图像融合; Piella框架; NSCT; 低秩表示方法(LatLRR); PET/CT

Parallel decomposition adaptive fusion model: cross-modal image fusion of lung tumors
expand article info Zhou Tao1,2, Liu Shan1, Dong Yali1, Bai Jing1,2, Lu Huiling3
1. School of Computer Science and Engineering, North Minzu University, Yinchuan 750021, China;
2. Key Laboratory of Images and Graphics Intelligent Processing of State Ethnic Affairs Commission, North Minzu University, Yinchuan 750021, China;
3. School of Science, Ningxia Medical University, Yinchuan 750004, China
Supported by: National Natural Science Foundation of China(62062003)

Abstract

Objective Cross-modal medical image fusion has been developed as a key aspect for precision diagnosis. Thanks to the development of precision technology, positron emission tomography (PET) and computed tomography (CT) can be mainly used for lung tumors detection. The high-resolution of CT images are beneficial to bone tissues diagnosis, but the imaging effect of the lesions is poor, especially the information of tumors-infiltrated cannot be displayed clearly. The PET images can show soft tissues clearly, but the imaging effect of the bone tissues is weakened. Medical images fusion technology can integrate the anatomical and functional information of lesions region and locate lung tumors more accurately. To resolve the problem of low contrast and poor edge detail retention in traditional pixel-level image fusion, the paper develop a decomposition-paralleled adaptive fusion model. Method 1) Use non-subsampled contourlet transform (NSCT) to extract multi-directional details information, 2) use latent low-rank representation (LatLRR) to extract key feature information. The following four aspects are taken into consideration in terms of low frequency sub-bands fusion: first, image fusion is a mapping process of gray value many-to-one, and there is uncertainty existing in the mapping process. Next, the noise in the image is caused by artificial respiration, blood flow, and the overlap between organs and tissues. The noise confuses the contour features in the image and magnifies the ambiguity of the image. Third, the original image is decomposed by NSCT to obtain low-frequency and high-frequency sub-bands. The low-frequency sub-band retains the main energy information like the contour and background of the original image, and the uncertain relationship of the mapping is also retained. Therefore, it is required to design reasonable fusion rules to deal with the mapping relationship. Fourth, fuzzy set theory based fusion rules represent the whole image with a fuzzy matrix and a certain algorithm is used to solve the fuzzy matrix, which solves the fuzzy problem effectively in the image fusion process. The Gaussian membership function can apparently describe the low-frequency sub-band contextual fuzzy information. Therefore, the Gaussian membership function is used as the adaptive weighting coefficient of the low-frequency sub-band, and the fuzzy logic-based adaptive weighting fusion rule is adopted. The fusion rules of the high-frequency sub-bands are considered in the following aspects as well. First, considering that the high-frequency sub-bands contain the contours and edge details of the tissues and organs of the original image, they have structural similarity, and there are strong coefficients between coefficients. Second, structural similarity index measure (SSIM) is a measure of the similarity between two images, which reflects the correlation better between high-frequency sub-band coefficients. Therefore, the averaged structural similarity index is used to measure the coefficient correlation between the two high-frequency sub-bands. Third, the range of the lesion region of lung tumors is no more than one hundred pixels in common. The region-based fusion rules can more complete the characteristics of the lesion region. The regional variance can represent the variation degree of gray value in local regions. The larger of the variance is, the richer of the information reflecting the details of the image are. Therefore, the region variance is selected as the basis for calculating the image activity. The high frequency sub-bands are composed of contour edge information of the image. Therefore, the high frequency sub-bands use the fusion in terms of the Piella framework. In this method, the averaged structure similarity is introduced as the matching method, and the regional variance is used as the activity method, and an adaptive weighting decision factor is designed to fuse the high frequency sub-bands. Finally, the effectiveness of our algorithm is verified via comparative experiments. Result The paper focus on five groups of CT pulmonary window/PET and the five groups of CT mediastinal window/PET are tested. The experiment of compressed sensing-integrated NSCT is carried out and six objective evaluation indexes are selected to evaluate the quality of fused images. The experimental results show that our average gradient, edge intensity and spatial frequency of fused images are improved by 66.6%, 64.4% and 80.3%, respectively. Conclusion To assist quick-response clinical activity and accurate diagnosis and treatment more, our research method is potential to improve the contrastive result of fused images and retain edge details effectively.

Key words

image fusion; Piella framework; non-subsampled contourlet transform (NSCT); latent low-rank representation (LatLRR); positron emission tomography/computed tomography (PET/CT)

0 引言

肺癌是造成全球死亡人数最多的癌症(Sung等,2021)。随着精准医疗技术的发展,正电子发射断层扫描(positron emission tomography,PET)和计算机断层扫描(computed tomography,CT)已成为检测肺部肿瘤的主要工具。CT影像有较高的空间分辨率,对骨组织显像清晰(Li等,2021),但对病变部位显像效果较差(Khan等,2020),尤其不能清楚地显示浸润性肿瘤信息(Zhang等,2020)。PET影像对软组织显像清晰,但对骨组织显像较差(Polinati和Dhuli,2020)。CT和PET影像融合技术能够综合病灶和组织器官的解剖学和功能信息,帮助医生对肺部肿瘤进行更准确的定位和定性诊断。因此,PET/CT图像融合技术在临床上具有重要意义。

周涛等人(2021)对经典像素级图像融合算法和框架进行综述。Zhang和Blum(1999)提出经典像素级图像融合框架。在此基础上,Piella(2003)对框架进行完善,将融合过程概括为图像分解和融合规则,使融合过程更加系统和规范。在图像分解方面,常用的有双树复小波变换(魏兴瑜,2015)和NSCT(non-subsampled contourlet transform)(da Cunha等,2006)等。NSCT将原图像分解为不同方向的高频子带,具有平移不变性和多方向性。Zhu等人(2019)在NSCT变换的基础上,使用相位一致高频融合规则,有效地增强图像细节特征。Li和Wu(2018)采用低秩表示(low-rank representation, LRR)方法,有效地提取原图像的全局和局部结构,但对噪声敏感。对此,Li和Wu(2022)提出潜在低秩表示(latent low-rank representation,LatLRR)方法,有效地将噪声部分与显著部分分离。

Piella(2003)将融合规则分为匹配测度、活性测度、决策模块和合成模块。在Piella框架的指导下,Polinati和Dhuli(2020)使用平均融合规则作为活性测度,该方法有效地平滑图像特征,但会降低图像对比度。Liu等人(2018)采用NSML(new sum of modified Laplacian)为活性测度,实验表明该方法比绝对值最大融合规则保留了更多的细节信息。由于图像信号是高度结构化的,人眼视觉系统能够自适应地提取图像背景中的结构信息,为了对图像结构失真程度的度量能够更符合人眼视觉效果,Wang等人(2004)提出结构相似性度量(structural similarity index measure,SSIM),从亮度、对比度和结构3个方面度量图像相似性。刘卷舒和蒋伟(2018)采用基于SSIM建立的Piella指标作为适应度函数,通过蛙跳算法对一系列的超参数进行寻优,寻优得到的超参数参与融合操作,得到的融合图像效果较好。

因此,为了改善融合图像同时提取图像的细节信息和能量信息不理想问题,本文提出并行分解PET/CT医学图像融合方法,LatLRR具有提取显著特征的细节信息的能力,NSCT变换具有多方向细节信息的能力,所以本文对肺部肿瘤的跨模态医学图像使用NSCT变换分解来提取疾病的多方向细节信息,同时使用LatLRR变换提取原图像的显著特征的细节信息,最后将两个分支的信息进行融合,实现显著特征和多方向细节信息的互补。在融合规则上,使用模糊逻辑融合规则融合低频子带,能够有效解决图像中存在的模糊问题;采用基于Piella框架的高频子带融合规则,引入用SSIM作为活性测度,使融合图像更符合人类视觉系统的感知特性。

1 相关技术

1.1 NSCT变换

2006 年,da Cunha 等人(2006) 在 contourlet 变换的基础上进行改进,提出NSCT变换。NSCT使用 两个非下采样滤波器组,即非下采样金字塔滤波器组( non-subsampled pyramid filter banks, NSPFB) 和非下采样方向滤波器组( non-subsampled directional filter banks, NSDFB)。NSCT变换取消 contourlet变换中的下采样操作,避免 contourlet 变换过程中容易出现的伪吉普斯现象。NSCT变换分解得到的高低 频子带尺寸与原图像相同。单层NSCT分解过程如下:首先,原图像经过 NSPFB 分解为一个低频子带和一个高频子带。然后,对高频子带使用 NSDFB 进行$K$级方向分解, 得到$2^k$个方向子带。$J$级NSCT分解可以得到1个低频子带和$\sum\limits_{j=1}^J 2^{k_j}$个高频子带。其中, $k_j$为尺度$j$下的方向分解级数。NSCT分解示意图如图 1所示。

图 1 NSCT分解示意图
Fig. 1 NSCT decomposition diagram

1.2 LatLRR方法

Liu和Yan(2011)提出LatLRR方法,针对LRR得到的图像包含过多噪声数据,无法有效提取图像特征值的问题,LatLRR方法将输入的图像分解为低秩部分、显著部分和噪声部分。噪声部分在低秩的约束条件下被去除,其表达式为

$ \boldsymbol{X}=\boldsymbol{Z} \boldsymbol{X}+\boldsymbol{L} \boldsymbol{X}+\boldsymbol{E} $ (1)

式中, $\boldsymbol{X}$是输人图像, $\boldsymbol{Z}$是低秩系数, $\boldsymbol{L}$是显著性系数; $\boldsymbol{Z X}$$\boldsymbol{L X}$分别表示低秩部分和显著部分; $\boldsymbol{E}$表示稀疏噪声。LatLRR问题再次进行最优化求解,其最终表达式为

$ \begin{gathered} \min _{\boldsymbol{Z}, \boldsymbol{L}, \boldsymbol{E}}\|\boldsymbol{Z}\|_*+\|\boldsymbol{L}\|_*+\lambda\|\boldsymbol{E}\|_1 \\ \text { s. t. } \quad \boldsymbol{X}=\boldsymbol{Z} \boldsymbol{X}+\boldsymbol{L} \boldsymbol{X}+\boldsymbol{E} \end{gathered} $ (2)

式中, $\|\cdot\|_*=\sum \sigma_i$表示矩阵的核范数, $\sigma_i$为矩阵的奇异值, $\|\cdot\|_1$表示L1范数; $\lambda$表示平衡系数且$\lambda>0$

2 并行分解自适应融合模型

Piella框架下的并行分解图像自适应融合模型的主要步骤如下:

1) $\left[\boldsymbol{L}_a, \boldsymbol{H}_a\right]={NSCTdec}(\boldsymbol{A}); \left[\boldsymbol{L}_b, \boldsymbol{H}_b\right]=NSCTdec (\boldsymbol{B})$。图像$\boldsymbol{A}$和$\boldsymbol{B}$ 是已配准的CT和PET图像, $NSCTdec$ () 是NSCT变换。$\boldsymbol{L}_a$和$\boldsymbol{L}_b$ 分别是图像$\boldsymbol{A}$和$\boldsymbol{B}$ 经过NSCT变换后得到的低频子带, $\boldsymbol{H}_a=$ $\left\{H_{a i}(x, y) \mid i=1, 2, \cdots, 8\right\}$和$\boldsymbol{H}_b=\left\{H_{b i}(x, y) \mid i=\right.$ $1, 2, \cdots, 8\}$ 分别是图像$\boldsymbol{A}$和$\boldsymbol{B}$ 经过NSCT变换后得到的8个高频子带。

2) $\left[\boldsymbol{L r r}_a, \boldsymbol{S}_a, \boldsymbol{E}_a\right]={LatLRR}(\boldsymbol{A})$; $\left[\boldsymbol{L r r}_b, \boldsymbol{S}_b\right.$, $\left.\boldsymbol{E}_b\right]={LatLRR}(\boldsymbol{B}) 。{LatLRR}(\;)$是LatLRR分解。$\boldsymbol{L r r}_a, \boldsymbol{S}_a, \boldsymbol{E}_a$$\boldsymbol{L r r}_b, \boldsymbol{S}_b$$\boldsymbol{E}_b$分别是图像$\boldsymbol{A}$$\boldsymbol{B}$经过LatLRR分解后得到的低秩部分、显著部分和噪声部分。

3) $\boldsymbol{F}_{\mathrm{L}}=F L A\left(\boldsymbol{L}_a, \boldsymbol{L}_b\right) 。F L A($) 函数是基于模糊逻辑自适应的低频子带融合规则(fuzzy logic adaptive fusion rules, FLA), $\boldsymbol{F}_{\mathrm{L}}$是低频子带融合图像。

4) $\boldsymbol{F}_{\mathrm{H}}={Piella}\left(\boldsymbol{H}_a, \boldsymbol{H}_b\right) ; M_{a b}={Match}\left(\boldsymbol{H}_a, \right. $$ \left.\boldsymbol{H}_b\right) ; \alpha_a={Active}\left(\boldsymbol{H}_a\right) ; \alpha_b={Active}\left(\boldsymbol{H}_b\right)$

计算高频子带融合图像

$ \boldsymbol{F}_{\mathrm{H}}=d \times \boldsymbol{H}_a+(1-d) \times \boldsymbol{H}_b $

$Piella$ () 函数是基于Piella框架的高频子带融合规则, $Match$ () 函数是计算匹配测度的方法, $M_{a b}$是两幅高频子带之间的相似值, $Active$() 是计算活性测度的函数, $\alpha_a$$\alpha_b$是两幅图像$\boldsymbol{A}$$\boldsymbol{B}$经过$Active$函数计算得到的图像相异度, $d$是决策因子, $\boldsymbol{F}_{\mathrm{H}}$$Piella$函数的返回值, 表示高频子带的融合图像。

5) $\overline{\boldsymbol{F}}={InverseNSCT}\left(\boldsymbol{F}_{\mathrm{L}}, \boldsymbol{F}_{\mathrm{H}}\right) 。$ $InversenSCT$ () 是NSCT逆变换, $\overline{\boldsymbol{F}}$$InverseNSCT$函数的返回值, 表示融合图像。

6) $\boldsymbol{F}=\overline{\boldsymbol{F}}+\boldsymbol{S}_a+\boldsymbol{S}_b \circ \boldsymbol{F}$是图像$\boldsymbol{A}$$\boldsymbol{B}$的最终融合图像。

算法融合框架如图 2所示。

图 2 并行分解图像自适应融合模型
Fig. 2 Adaptive image fusion model of parallel multi-scale transform
((a) image adaptive fusion model of parallel multi-scale transform;(b) FLA function adaptive fusion model;(c) adaptive fusion model of Piella function)

2.1 低频融合规则

低频子带融合规则的设计从4个方面考虑。1)在图像融合过程中,图像融合过程是灰度值多对一的映射过程,在映射过程中存在不确定性;2)在成像过程中,由于PET和CT影像成像过程的复杂性,以及在成像过程中由于人体呼吸、血液流动和器官组织间相互重叠等无法避免的因素,导致图像存在混淆轮廓特征的噪声,使图像的模糊性被放大;3)在图像分解方法方面,原图像经过NSCT分解后,低频子带保留原图像的轮廓、背景等主要能量信息,映射的不确定关系也被保留,需要设计合理的融合规则对映射关系进行处理(蔡怀宇等,2018);4)基于模糊集理论的融合规则将整幅图像用模糊矩阵表示,通过一定的算法对模糊矩阵进行求解,能够有效解决图像融合过程中的模糊问题。高斯隶属度函数能够有效地描述低频子带包含的模糊信息(王艳等,2019)。因此,使用高斯隶属度函数作为低频子带的自适应加权系数,采用基于模糊逻辑的自适应加权融合规则,计算式为

$ \begin{gathered} \boldsymbol{F}_{\mathrm{L}}(i, j)=F L A\left(\boldsymbol{L}_a, \boldsymbol{L}_b\right)= \\ \frac{\omega_a}{\omega_a+\omega_b} \boldsymbol{L}_a(i, j)+\frac{\omega_b}{\omega_a+\omega_b} \boldsymbol{L}_b(i, j) \end{gathered} $ (3)

式中, $\boldsymbol{F}_{\mathrm{L}}(i, j)$为低频子带融合图像; $F L A\left(\boldsymbol{L}_a, \boldsymbol{L}_b\right)$为基于模糊逻辑的自适应加权融合规则; $\boldsymbol{L}_a(i, j)$$\boldsymbol{L}_b(i, j)$分别为图像$\boldsymbol{A}$$\boldsymbol{B}$的低频图像; $\omega_a(i$, $j), \omega_b(i, j)$分别为$\boldsymbol{L}_a(i, j)$$\boldsymbol{L}_b(i, j)$$(i, j)$的高斯隶属度, $\omega_b(i, j)$的计算与$\omega_a(i, j)$相同, $\omega_a(i, j)$的计算式为

$ \omega_a(i, j)=\exp \left\{-\frac{\left(\boldsymbol{L}_a(i, j)-\boldsymbol{\mu}_a\right)^2}{2\left(k \sigma_a\right)^2}\right\} $ (4)

式中, $\boldsymbol{\mu}_a$为图像$\boldsymbol{A}$的均值, $\sigma_a$为图像$\boldsymbol{A}$的方差, $k$是高斯函数参数, 参考范围为$[1, 2.5]$, 一般取值为$k=1.2$; 均值$\boldsymbol{\mu}_b$$\boldsymbol{\mu}_a$的计算相同, 方差$\sigma_a$$\sigma_b$的计算相同, $\boldsymbol{\mu}_a$$\sigma_a$的计算式为

$ \boldsymbol{\mu}_a=\frac{1}{M \times N} \sum\limits_{i=1}^M \sum\limits_{j=1}^N \boldsymbol{L}_a(i, j) $ (5)

$ \sigma_a=\frac{\sum\limits_{i=1}^M \sum\limits_{j=1}^N\left(\boldsymbol{L}_a(i, j)-\boldsymbol{\mu}_a\right)^2}{M \times N} $ (6)

式中,低频子带尺寸经过NSCT分解后和原图像相同,为$ M×N$

2.2 高频融合规则

高频子带的融合规则从3个方面考虑。1)考虑到高频子带自身的特点,原图像经过NSCT分解后,得到的8个高频子带包含原图像的组织器官的轮廓、边缘细节特征,具有多方向性和结构相似性,系数间存在较强的相关性;2)SSIM是衡量两幅图像相似性的指标,能够较好地反映高频子带系数之间的相关性,因此,采用平均结构相似性指标衡量两幅高频子带之间的系数相关性;3)肺部肿瘤的病变区域范围一般不超过100个像素点,所以采用基于区域的融合规则可以使病变区域的特性表现的更完整,区域方差能够表示局部区域的灰度值变化程度,方差越大,反映图像的细节信息就越丰富。因此,选取区域方差作为计算图像活性测度的依据。

高频子带融合规则设计具体为

$ \boldsymbol{F}_{\mathrm{H}}={Piella}\left(\boldsymbol{H}_a, \boldsymbol{H}_b\right) $ (7)

式中,$ Piella$()函数指基于Piella框架的融合规则。融合过程包含4个模块,分别为:Match模块(即计算两幅图像匹配测度的函数)、Active模块(即计算图像活性测度的函数)、决策模块和合成模块。

1) Match模块。本文使用平均结构相似性指标度量图像$ \boldsymbol{A} {和} \boldsymbol{B}$高频系数之间的相似度$M_{ab} $。首先利用滑动窗口将图像分块,考虑到窗口形状对分块的影响,简单的加窗会使映射矩阵出现不良的“分块”效应,因此使用高斯加权计算每一个窗口的均值、方差和协方差。考虑到PET图像的病灶约在100个像素以内,将滑动窗口大小设置为11 × 11,并逐像素遍历整幅图像,得到由局部SSIM组成的映射矩阵$\boldsymbol{S S I M}_j\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right) $,最后对映射矩阵的所有局部SSIM指数取平均值。

$\boldsymbol{A}$$\boldsymbol{B}$图像分成$M$个图像块$\boldsymbol{I}_a, \boldsymbol{I}_b$, 对$M$个图像块$\boldsymbol{I}_a, \boldsymbol{I}_b$的所有$\boldsymbol{S S I M}_j\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)(j=1, 2$, $\cdots, M)$求平均值, 记为$M_{a b}$。计算式为

$ M_{a b}={Match}\left(\boldsymbol{H}_a, \boldsymbol{H}_b\right)=\frac{1}{M} \sum\limits_{j=1}^M {\boldsymbol{SSIM}}_j\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right) $ (8)

式中, $\boldsymbol{H}_{a i}$$\boldsymbol{H}_{b i}$分别为图像$\boldsymbol{A}$$\boldsymbol{B}$的第$i$个高频子带, $\boldsymbol{I}_a$$\boldsymbol{I}_b$分别为图像$\boldsymbol{A}$$\boldsymbol{B}$的图像块。$\boldsymbol{S S I M}_j\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)(j=1, 2, \cdots, M)$是局部$\boldsymbol{S S I M}$组成的映射矩阵, 图像块的$\boldsymbol{S S I M}$值分别从亮度、对比度和结构相似性3个部分计算得到, 计算式为

$ \begin{gathered} {\boldsymbol{SSIM}}\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)= \\ {\left[l\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)\right]^\alpha \times\left[c\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)\right]^\beta \times\left[s\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)\right]^\gamma} \end{gathered} $ (9)

式中, $\alpha>0, \beta>0, \gamma>0$是调整亮度、对比度和结构度所占权重的重要参数。设$\alpha=\beta=\gamma=1$, $\boldsymbol{I}_a, \boldsymbol{I}_b$$\boldsymbol{H}_{a i}$$\boldsymbol{H}_{b i}$相同位置提取的窗口大小为$11 \times$ 11的图像块, $l\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)$$\boldsymbol{I}_a, \boldsymbol{I}_b$图像块的亮度相似性函数, $c\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)$为对比度相似性函数, $s\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)$为结构相似性函数, 分别定义为

$ l\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)=\frac{2 \boldsymbol{\mu}_{I a} \boldsymbol{\mu}_{I b}+C_1}{\boldsymbol{\mu}_{I a}^2+\boldsymbol{\mu}_{I b}^2+C_1} $ (10)

$ c\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)=\frac{2 \sigma_{I a} \sigma_{I b}+C_2}{\sigma_{I a}^2+\sigma_{I b}^2+C_2} $ (11)

$ s\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)=\frac{{cov}\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)+C_3}{\sigma_{l a} \sigma_{l b}+C_3} $ (12)

式中, $C_1, C_2, C_3$为维持公式稳定的变量。设定$C_1=\left(K_1 \times L\right)^2, C_2=\left(K_2 \times L\right)^2, C_3=C_2 / 2, K_1=$ $0.01, K_2=0.03, L=255_{\circ} \boldsymbol{\mu}_{I a}, \boldsymbol{\mu}_{I b}, \sigma_{I a}, \sigma_{l b}$, ${cov}\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)$分别为图像块$\boldsymbol{I}_a, \boldsymbol{I}_b$的均值、标准差和协方差。其中, $\boldsymbol{\mu}_{I a}$$\boldsymbol{\mu}_{I b}$计算相同, $\sigma_{I a}$$\sigma_{I b}$计算相同。$\boldsymbol{\mu}_{I a}, \sigma_{I a}, {cov}\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)$分别定义为

$ \boldsymbol{\mu}_{I a}=\frac{1}{M \times N} \sum\limits_{x=1}^M \sum\limits_{y=1}^N \omega(x, y) \boldsymbol{I}_a(x, y) $ (13)

$ \begin{gathered} \sigma_{I a}= \\ \sqrt{\frac{1}{M \times N-1} \sum\limits_{x=1}^M \sum\limits_{y=1}^N \omega(x, y)\left(\boldsymbol{I}_a(x, y)-\boldsymbol{\mu}_{I a}\right)^2} \end{gathered} $ (14)

$ \begin{gathered} {cov}\left(\boldsymbol{I}_a, \boldsymbol{I}_b\right)= \\ \frac{1}{M \times N-1} \sum\limits_{x=1}^M \sum\limits_{y=1}^N \omega(x, y)\left(\boldsymbol{I}_a(x, y)-\boldsymbol{\mu}_{I a}\right) \times \\ \left(\boldsymbol{I}_b(x, y)-\boldsymbol{\mu}_{I b}\right) \end{gathered} $ (15)

式中, $\omega(x, y)(x, y=1, 2, \cdots, N)$$11 \times 11$的高斯加权函数, 标准差为$1.5, N=11$

2) Active模块。图像相异度计算式为

$ \alpha_a={Active}\left(\boldsymbol{H}_a\right) $ (16)

$ \alpha_b={Active}\left(\boldsymbol{H}_b\right) $ (17)

经过NSCT分解得到的高频子带包含图像的边缘等细节信息,各个方向的高频子带系数间具有很强的区域相关性。因此,选取区域方差作为计算图像活性测度的依据,以更好地保留图像的清晰度。区域方差$ V A R_{a i} \text { 与 } V A R_{b i}$计算相同。$ V A R_{a i}$计算式为

$ {VAR}_{a i}(x, y)=\frac{\sum\limits_{x=1}^M \sum\limits_{y=1}^N\left(\boldsymbol{H}_{a i}(x, y)-\boldsymbol{\mu}_{a i}\right)^2}{M \times N} $ (18)

式中, 区域窗口尺寸设为$3 \times 3, \boldsymbol{\mu}_{b i}$$\boldsymbol{\mu}_{a i}$为图像$\boldsymbol{A}$$\boldsymbol{B}$高频子带$\boldsymbol{H}_{a i}$$\boldsymbol{H}_{b i}$的均值, $\boldsymbol{\mu}_{b i}$$\boldsymbol{\mu}_{a i}$计算相同${ }_{\circ} \boldsymbol{\mu}_{a i}$的计算式为

$ \boldsymbol{\mu}_{a i}=\frac{1}{M \times N} \sum\limits_{x=1}^M \sum\limits_{y=1}^N \boldsymbol{H}_{a i}(x, y) $ (19)

3) 决策模块。使用匹配测度和活性测度共同构造决策模块,通过计算得到决策因子$ d$对高频子带进行融合。决策因子$ d$的计算式为

$ \begin{align} & \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \mathit{d}\text{=} \\ & \left\{ \begin{array}{*{35}{l}} 1\quad \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ {{M}_{ab}}<T\text{ 且 } \\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \mathit{VA}{{\mathit{R}}_{\mathit{ai}}}(\mathit{x, y})>\mathit{VA}{{\mathit{R}}_{\mathit{bi}}}(\mathit{x, y} ) \\ 0\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ {{M}_{ab}}<T\ \text{且 } \\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \mathit{VA}{{\mathit{R}}_{\mathit{ai}}}(\mathit{x, y})<\mathit{VA}{{\mathit{R}}_{\mathit{bi}}}(\mathit{x, y}) \\ \frac{\mathit{VA}{{\mathit{R}}_{\mathit{ai}}}(\mathit{x, y})}{\mathit{VA}{{\mathit{R}}_{\mathit{ai}}}(\mathit{x, y})+\mathit{VA}{{\mathit{R}}_{\mathit{bi}}}(\mathit{x, y})}\quad {{\mathit{M}}_{\mathit{ab}}}\ge \mathit{T} \\ \end{array} \right. \\ \end{align} $ (20)

设置阈值$T $= 0.5。当$M_{ab}<T $时,两个高频子带的灰度值差异明显,选择区域方差较大的高频子带系数作为融合系数;$ M_{ab}≥T $时,两个对应高频子带的相似度较高,使用区域方差自适应加权方法计算高频子带的融合系数。

4) 合成模块。

$ \begin{gathered} \boldsymbol{F}_{H i}(x, y)=d \times \boldsymbol{H}_{a i}(x, y)+ \\ (1-d) \times \boldsymbol{H}_{b i}(x, y) \end{gathered} $ (21)

式中,$ d$为决策因子,对各个高频子带按照决策模块进行融合,即合成模块。

5) $\overline{\boldsymbol{F}}= InversenNSCT \left(\boldsymbol{F}_{\mathrm{L}}, \boldsymbol{F}_{\mathrm{H}}\right)$。其中, $InverseNSC T$() 表示NSCT逆变换, $\boldsymbol{F}_{\mathrm{L}}$表示低频部分融合图像, $\boldsymbol{F}_{\mathrm{H}}$表示高频部分融合图像, $\overline{\boldsymbol{F}}$为融合图像。

6) $\boldsymbol{F}=\overline{\boldsymbol{F}}+\boldsymbol{S}_a+\boldsymbol{S}_b$。其中, $\boldsymbol{S}_a$$\boldsymbol{S}_b$$\boldsymbol{A}$$\boldsymbol{B}$的显著图, $\boldsymbol{F}$为最终的融合图像。

3 实验结果及分析

实验硬件环境为Intel(R) Core(TM) i7-9700CPU@3.00 GHz,64位Windows10操作系统;软件环境为MATLAB R2020a。

实验数据为某三甲医院的10例已配准的肺部肿瘤PET和CT影像,图像大小为365 × 365像素。

为验证本文方法的有效性进行了两组实验。实验1为5例CT肺窗和PET影像;实验2为5例CT纵膈窗和PET影像。对比实验选择4种像素级图像融合方法。方法1为NSCT-SSIM,用于证明LatLRR并行分解的有效性,分解方法为NSCT变换,高低频子带融合规则为本文方法一致;方法2为NSCT-CS(王惠群等,2016),使用NSCT变换,低频子带系数使用高斯加权平均融合规则,高频子带系数使用基于压缩感知(compression perception,CS)的融合规则;方法3为NSCT-CS-PCNN(陆惠玲等,2017),使用NSCT变换,低频子带系数使用PCNN融合规则,高频子带系数使用基于CS融合规则;方法4为LatLRR(Li和Wu,2022),使用LatLRR变换,低频子带系数使用平均值融合规则,高频子带系数使用区域能量融合规则。

选用6种客观评价指标对融合图像质量进行评价,分别是:

1) 平均梯度(average gradient,AG)(敬忠良等,2007),反映融合图像细节信息变化,平均梯度越大,图像细节越多,图像清晰度越高;

2) 边缘强度(edge intensity,EI) (Zhu等,2016),边缘强度越大,融合图像质量越高;

3) 信息熵(information entropy,IE)(敬忠良等,2007),反映图像信息量,信息熵越大,融合图像的细节信息越多;

4) 空间频率(spatial frequency,SF)(敬忠良等,2007)),反映图像的整体清晰度;

5) 标准差(standard deviation,STD)(敬忠良等,2007),衡量信息的丰富程度,标准差越大,图像的灰度级分布越分散,图像的信息量越多;

6) 边缘保持度(Qabf),值越高表示融合图像保留原图像的边缘信息越丰富(Bondžulić和Petrović, 2008)。

6种评价指标均是值越大,融合质量越好。

3.1 实验1:PET/CT肺窗

实验1为5组PET影像和CT肺窗影像的融合,结果如图 3所示。

图 3 PET/CT肺窗融合结果
Fig. 3 Results of PET/CT lung window fusion
((a)CT;(b)PET;(c)NSCT-SSIM;(d)NSCT-CS;(e)NSCT-CS-PCNN;(f)LatLRR;(g)ours)

图 3可以看出,在肺部支气管清晰度显示方面,与4组对比实验相比,本文算法的融合结果更清晰地区分了支气管与周围软组织之间的位置关系,支气管区域的边缘效果表现更好。在病变区域显示方面,方法4的融合图像中的病变区域对比度较低,边缘模糊,对代谢信息显示效果较差,方法1、方法2、方法3和本文方法生成的融合图像能更清楚地显示病变区域的生理代谢信息,但方法3生成的融合图像伪影变多,病灶区域的阴影区域变大,对医生误诊带来一定隐患。实验结果表明,本文算法的融合性能较好。实验1融合图像指标评价结果如表 1所示。

表 1 PET/CT肺窗融合图像指标评价结果
Table 1 Index evaluation results of PET/CT lung window fusion image

下载CSV
图像组 方法 平均梯度 边缘强度 信息熵 空间频率 标准差 边缘保持度
1 NSCT-SSIM 5.482 7 51.725 9 6.821 3 25.409 6 47.332 4 0.451 2
NSCT-CS 4.234 1 41.867 3 6.561 2 16.012 1 43.887 2 0.363 9
NSCT-CS-PCNN 5.710 6 60.230 9 7.197 5 16.676 6 74.741 5 0.536 4
LatLRR 4.617 6 44.406 7 6.713 7 19.388 6 37.686 2 0.420 2
本文 7.084 7 68.873 2 6.866 4 28.868 2 58.906 8 0.550 1
2 NSCT-SSIM 5.517 0 51.978 0 6.942 5 24.832 7 43.346 6 0.435 1
NSCT-CS 4.195 2 41.088 0 6.648 0 15.192 1 38.608 3 0.338 2
NSCT-CS-PCNN 5.764 1 60.373 9 7.525 8 15.573 8 71.171 2 0.495 6
LatLRR 4.668 5 44.483 3 6.767 7 18.707 6 36.872 6 0.404 4
本文 7.166 7 69.485 7 7.000 4 28.017 4 57.874 0 0.514 6
3 NSCT-SSIM 5.687 5 53.807 1 6.789 4 25.347 1 43.821 1 0.449 6
NSCT+CS 4.320 6 42.641 3 6.535 7 15.403 5 41.119 0 0.349 9
NSCT-CS-PCNN 5.905 3 62.229 9 7.441 5 16.335 2 68.691 6 0.512 9
LatLRR 4.754 0 45.753 5 6.765 2 19.018 4 34.861 1 0.409 0
本文 7.554 8 73.843 9 7.226 9 28.911 3 58.822 5 0.544 9
4 NSCT-SSIM 5.680 2 53.668 2 6.909 1 25.557 0 47.302 1 0.449 5
NSCT-CS 4.273 2 42.092 1 6.555 7 15.426 8 42.887 8 0.347 4
NSCT-CS-PCNN 5.861 3 61.616 1 7.426 8 16.270 1 74.007 2 0.506 5
LatLRR 4.690 9 44.748 5 6.728 2 18.819 4 36.908 0 0.403 5
本文 7.300 3 70.893 0 6.998 1 28.848 9 61.210 0 0.528 5
5 NSCT-SSIM 5.463 3 51.149 9 6.769 5 24.981 4 40.186 3 0.425 6
NSCT-CS 4.094 5 39.951 1 6.429 4 15.444 0 35.265 7 0.322 1
NSCT-CS-PCNN 5.766 7 60.228 5 7.422 7 15.933 0 70.524 0 0.491 9
LatLRR 4.829 0 45.930 6 6.726 2 19.195 2 37.046 5 0.418 7
本文 7.247 8 69.983 7 6.984 5 28.268 5 54.561 4 0.524 5
注:加粗字体表示各组图像中各项指标的最优结果。

图 4是PET/CT肺窗融合图像评价指标柱状图。可以看出,在AG、EI、SF、Qabf中,本文方法的融合图像优于其他4组对比实验,但在IE和STD数值中低于方法3,因为方法3提高了融合图像的对比度,从而保证IE和STD数值大,但方法3提高对比度时,图像中伪影变多,带来一定的误诊隐患。本文方法在增大对比度的情况下,有效避免了图像中伪影变多和病灶区域的阴影区域变大问题。虽然本文方法在这两个指标中的优势较弱,但在其他4种评价指标上取得了较好的结果。

图 4 PET/CT肺窗融合图像评价指标柱状图
Fig. 4 Histogram of PET/CT lung window fusion image evaluation index
((a)AG; (b)EI; (c)IE; (d)SF; (e)STD; (f)Qabf)

图 5是可视化显示结果,是第3组图像的评价指标雷达图。可以看出,在AG、EI、SF、Qabf等客观评价指标中,本文方法生成的融合图像明显好于4组对比实验方法。

图 5 第3组图像评价指标雷达图
Fig. 5 Radar diagram of the third group of image evaluation indicators

3.2 实验2: PET/CT纵膈窗

实验2为5组CT纵膈窗和PET影像融合,融合结果如图 6所示。

图 6 PET/CT纵膈窗图像融合结果
Fig. 6 Image fusion results of PET/CT mediastinal window image fusion
((a)CT; (b)PET; (c)NSCT-SSIM; (d)NSCT-CS; (e)NSCT-CS-PCNN; (f)LatLRR; (g)ours)

图 6可以看出,在骨骼、器官软组织清晰度显示方面,本文方法和方法3生成的融合图像中的骨骼、器官的轮廓信息的对比度更高。在病变区域显示方面,本文方法、方法1和方法2生成的融合图像更好地保留了PET影像中肿瘤病变区域的生理代谢信息。与方法1和方法2相比,本文方法对病变区域的定位线的显示有更好的效果。实验结果表明,本文方法能够较好地融合PET影像中的病灶信息和CT影像中的纵膈等组织、骨骼的轮廓细节信息。实验2融合图像指标评价结果如表 2所示。

表 2 PET/CT纵膈窗融合图像指标评价结果
Table 2 Index evaluation results of PET/CT mediastinal window image fusion

下载CSV
图像组 方法 平均梯度 边缘强度 信息熵 空间频率 标准差 边缘保持度
1 NSCT-SSIM 5.763 8 54.934 6 6.568 6 25.193 2 39.161 0 0.368 0
NSCT-CS 4.482 1 43.823 2 6.460 2 16.358 5 34.179 7 0.248 7
NSCT-CS-PCNN 6.066 3 64.828 4 5.228 8 19.868 3 66.935 0 0.462 6
LatLRR 5.883 5 56.837 6 6.538 2 21.624 2 37.362 3 0.473 4
本文 7.698 6 75.173 4 7.169 6 29.761 0 51.347 3 0.506 6
2 NSCT-SSIM 4.977 4 46.465 7 5.728 2 24.039 0 34.186 7 0.343 0
NSCT-CS 3.805 6 37.131 0 5.806 6 14.466 5 29.577 0 0.230 7
NSCT-CS-PCNN 5.270 7 56.257 3 5.048 0 16.941 4 72.088 4 0.448 3
LatLRR 5.014 8 47.991 3 6.200 1 19.311 7 37.737 2 0.446 2
本文 6.945 9 66.826 0 6.989 8 28.126 8 46.919 6 0.507 6
3 NSCT-SSIM 4.924 6 45.861 1 5.810 4 23.569 1 34.405 1 0.334 9
NSCT-CS 3.704 8 35.696 2 5.787 4 14.383 6 28.808 9 0.218 7
NSCT-CS-PCNN 5.215 0 55.706 0 4.946 3 16.872 2 72.683 3 0.440 7
LatLRR 4.922 3 47.045 4 6.201 8 19.098 8 38.157 3 0.433 0
本文 6.794 8 65.339 5 6.975 8 27.401 2 47.237 2 0.493 7
4 NSCT-SSIM 5.155 9 48.350 0 5.865 9 24.330 3 33.742 2 0.341 5
NSCT-CS 3.921 6 38.072 3 5.884 8 14.713 3 28.617 4 0.223 0
NSCT-CS-PCNN 5.401 2 57.500 8 5.013 1 17.396 9 70.221 2 0.429 9
LatLRR 5.350 4 51.086 1 6.266 3 20.134 6 36.874 8 0.454 8
本文 7.152 1 69.012 1 7.015 3 28.234 5 46.226 8 0.495 1
5 NSCT-SSIM 5.133 2 48.138 8 6.025 8 24.556 2 35.603 9 0.345 5
NSCT-CS 3.870 1 37.640 9 5.938 0 14.635 2 29.584 6 0.222 0
NSCT-CS-PCNN 5.415 7 57.824 0 5.095 0 17.297 9 73.871 9 0.450 3
LatLRR 5.106 6 48.920 9 6.298 6 19.510 1 38.418 9 0.442 5
本文 7.056 1 68.077 3 7.035 5 28.532 5 47.576 5 0.505 2
注:加粗字体表示各图像中各项指标的最优结果。

图 7是PET/CT纵膈窗融合图像评价指标柱状图。从表 2图 7可以看出,本文方法与4组对比实验生成的融合图像相比,在平均梯度、边缘强度、信息熵、空间频率和边缘保持度方面均有较大提升。方法3在标准差指标上(图 7(e))更占优势,但在视觉效果上,方法3不能反映病变区域的位置。实验结果表明,本文方法生成的融合图像具有优势。

图 7 PET/CT纵膈窗融合图像评价指标柱状图
Fig. 7 Histogram of fusion image evaluation index of PET/CT mediastinum window
((a)AG; (b)EI; (c)IE; (d)SF; (e)STD; (f)Qabf)

图 8是第1组图像的评价指标雷达图。可以看出,相比4组对比实验,本文方法生成的融合图像在AG、EI、IE、SF和Qabf等客观评价指标中更占优势。

图 8 第1组图像评价指标雷达图
Fig. 8 Radar diagram of the first group of image evaluation indicators

4 结论

针对CT图像对病灶的成像效果较差,尤其是浸润性肿瘤信息无法清晰显示,以及PET的骨组织的成像效果较差,传统像素级图像融合技术对PET/CT的融合图像不能较好地突出病灶区域信息,存在对比度低、边缘细节信息不能较好保留等问题,本文在Piella框架基础上,提出并行分解图像自适应融合模型,用于肺部肿瘤多模态图像融合。对已配准的CT和PET影像进行并行NSCT变换和LatLRR分解,经过NSCT变换后得到低频和高频子带,考虑到不同频率子带的特性以及图像自身的特点,低频子带使用自适应模糊逻辑融合规则,突出显示病灶的代谢信息;高频子带使用基于Piella框架的融合规则,保留原图像的边缘细节信息;对经过NSCT逆变换得到的融合图像与经过LatLRR分解得到的显著图相加,同时保留图像边缘细节信息和整体对比度,得到最终的融合图像。通过5组CT肺窗/PET和5组CT纵膈窗/PET的融合实验表明,与对比实验相比,本文方法生成的融合图像细节更清晰,视觉效果更好,在客观评价指标中取得较好的结果,有助于医生更快速、更精准地进行诊疗。

影像数据获取较难,本文方法仅在一个数据集上进行测试,未对其他尺寸的影像进行检测,因此,本文方法的普适性具有很大的提升潜力。此外,本文方法使用了并行分解方法,虽然提高了图像融合质量,但在运行中占用了较多的时间和内存,未来将研究时间复杂度和图像融合质量都更优的算法。

参考文献

  • Bondžulić B, Petrović V. 2008. Objective image fusion performance measures. Military Technical Courier, 56(2): 181-193 [DOI:10.5937/vojtehg0802181B]
  • Cai H Y, Zhuo L R, Zhu P, Huang Z H, Wu X Y. 2018. Fusion of infrared and visible images based on non-subsampled contourlet transform and intuitionistic fuzzy set. Acta Photonica Sinica, 47(6): #0610002 (蔡怀宇, 卓励然, 朱攀, 黄战华, 武晓宇. 2018. 基于非下采样轮廓波变换和直觉模糊集的红外与可见光图像融合. 光子学报, 47(6): #0610002) [DOI:10.3788/gzxb20184706.0610002]
  • da Cunha A L, Zhou J, Do M N. 2006. The nonsubsampled contourlet transform: theory, design, and applications. IEEE Transactions on Image Processing, 15(10): 3089-3101 [DOI:10.1109/TIP.2006.877507]
  • Jing Z L, Xiao G, Li Z H. 2007. Image Fusion: Theory and Applications. Beijing: Higher Education Press (敬忠良, 肖刚, 李振华. 2007. 图像融合——理论与应用. 北京: 高等教育出版社)
  • Khan M A, Rubab S, Kashif A, Sharif M I, Muhammad N, Shah J H, Zhang Y D, Satapathy S C. 2020. Lungs cancer classification from CT images: an integrated design of contrast based classical features fusion and selection. Pattern Recognition Letters, 129: 77-85 [DOI:10.1016/j.patrec.2019.11.014]
  • Li H and Wu X J. 2018. Multi-focus image fusion using dictionary learning and low-rank representation[EB/OL]. [2021-12-18]. https://arxiv.org/pdf/1804.08355.pdf
  • Li H and Wu X J. 2022. Infrared and visible image fusion using latent low-rank representation[EB/OL]. [2022-01-29]. https://arxiv.org/pdf/1804.08992.pdf
  • Li Y, Zhao J L, Lv Z H, Li J H. 2021. Medical image fusion method by deep learning. International Journal of Cognitive Computing in Engineering, 2: 21-29 [DOI:10.1016/j.ijcce.2020.12.004]
  • Liu G C and Yan S C. 2011. Latent low-rank representation for subspace segmentation and feature extraction//Proceedings of 2011 International Conference on Computer Vision. Barcelona, Spain: IEEE: 1615-1622 [DOI: 10.1109/ICCV.2011.6126422]
  • Liu J S, Jiang W. 2018. Improved image fusion algorithm based on nonsubsampled Contourlet transform. Journal of Computer Applications, 38(S1): 194-197 (刘卷舒, 蒋伟. 2018. 改进的基于非下采样的Contourlet变换的图像融合算法. 计算机应用, 38(S1): 194-197)
  • Liu X B, Mei W B, Du H Q. 2018. Multi-modality medical image fusion based on image decomposition framework and nonsubsampled shearlet transform. Biomedical Signal Processing and Control, 40: 343-350 [DOI:10.1016/j.bspc.2017.10.001]
  • Lu H L, Zhou T, Wang H Q, Xia Y, Shi H B. 2017. PET/CT image pixel-level fusion algorithm based on NSCT and compressed sensing. Journal of Graphics, 38(6): 887-895 (陆惠玲, 周涛, 王惠群, 夏勇, 师宏斌. 2017. 基于非下采样轮廓波变换和压缩感知的PET/CT像素级融合算法. 图学学报, 38(6): 887-895) [DOI:10.11996/JG.j.2095-302X.2017060887]
  • Piella G. 2003. A general framework for multiresolution image fusion: from pixels to regions. Information Fusion, 4(4): 259-280 [DOI:10.1016/S1566-2535(03)00046-0]
  • Polinati S, Dhuli R. 2020. Multimodal medical image fusion using Empirical wavelet decomposition and local energy maxima. Optik, 205: #163947 [DOI:10.1016/j.ijleo.2019.163947]
  • Sung H, Ferlay J, Siegel R L, Laversanne M, Soerjomataram I, Jemal A, Bray F. 2021. Global cancer statistics 2020: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries. CA: A Cancer Journal for Clinicians, 71(3): 209-249 [DOI:10.3322/caac.21660]
  • Wang H Q, Zhou T, Lu H L, Xia Y, Wang W W. 2016. Lung cancer PET/CT image fusion based on multiresolution transform and compressive sensing. Video Engineering, 40(3): 11-16 (王惠群, 周涛, 陆惠玲, 夏勇, 王文文. 2016. 基于多分辨率变换和压缩感知的PET/CT融合方法. 电视技术, 40(3): 11-16) [DOI:10.16280/j.vide0e.2016.03.003]
  • Wang Y, Yang Y C, Dang J W, Wang Y P. 2019. Image fusion based on fuzzy logic combined with adaptive pulse coupled neural network in nonsubsampled Contourlet transform domain. Laser and Optoelectronics Progress, 56(10): #101006 (王艳, 杨艳春, 党建武, 王阳萍. 2019. 非下采样Contourlet变换域内结合模糊逻辑和自适应脉冲耦合神经网络的图像融合. 激光与光电子学进展, 56(10): #101006) [DOI:10.3788/LOP56.101006]
  • Wang Z, Bovik A C, Sheikh H R, Simoncelli E P. 2004. Image quality assessment: from error visibility to structural similarity. IEEE Transactions on Image Processing, 13(4): 600-612 [DOI:10.1109/TIP.2003.819861]
  • Wei X Y. 2015. Pixel level Fusion Research Based on Non-Small Cell Lung Cancer PET/CT Images. Yinchuan: Ningxia Medical University (魏兴瑜. 2015. 非小细胞肺癌PET/CT图像像素级融合研究. 银川: 宁夏医科大学)
  • Zhang Y D, Dong Z C, Wang S H, Yu X, Yao X J, Zhou Q H, Hu H, Li M, Jiménez-Mesa C, Ramirez J, Martinez F J, Gorriz J M. 2020. Advances in multimodal data fusion in neuroimaging: overview, challenges, and novel orientation. Information Fusion, 64: 149-187 [DOI:10.1016/j.inffus.2020.07.006]
  • Zhang Z, Blum R S. 1999. A categorization of multiscale-decomposition-based image fusion schemes with a performance study for a digital camera application. Proceedings of the IEEE, 87(8): 1315-1326 [DOI:10.1109/5.775414]
  • Zhou T, Liu S, Dong Y L, Huo B Q, Ma Z J. 2021. Research on pixel-level image fusion based on multi-scale transformation: progress application and challenges. Journal of Image and Graphics, 26(9): 2094-2110 (周涛, 刘珊, 董雅丽, 霍兵强, 马宗军. 2021. 多尺度变换像素级医学图像融合: 研究进展、应用和挑战. 中国图象图形学报, 26(9): 2094-2110) [DOI:10.11834/jig.200803]
  • Zhu Z Q, Chai Y, Yin H P, Li Y X, Liu Z D. 2016. A novel dictionary learning approach for multi-modality medical image fusion. Neurocomputing, 214: 471-482 [DOI:10.1016/j.neucom.2016.06.036]
  • Zhu Z Q, Zheng M Y, Qi G Q, Wang D, Xiang Y. 2019. A phase congruency and local laplacian energy based multi-modality medical Image fusion method in NSCT domain. IEEE Access, 7: 20811-20824 [DOI:10.1109/ACCESS.2019.2898111]