0引言在临床医学中,将不同模态的图像进行配准, 可以给医生提供病灶部位的不同信息, 提高医生诊断疾病的准确性。因此,多模态医学图像配准在图像融合、肿瘤生长监测、图像引导手术治疗及放疗计划制定等方面发挥着重要作用(Sotiras等,2013)。多模态脑部图像配准主要有基于特征、基于灰度和基于图像合成等3类方法。1)基于特征的方法是通过提取图像的显著特征建立图像间的映射关系完成配准,计算效率较高,但配准的精度取决于特征提取的准确性(Oliveira和Tavares,2014),如RAMMS、Hammer和SURF(speeded up robust feature)。2)基于灰度的方法直接对不同模态图像的灰度特性进行全局最优化实现配准,配准精度高,但计算量大。如Powell优化的MI(mutual information)法(Maes等,1996)、ANTs-SyN(advanced normalization toolbox-symmetric normalization)(Avants等,2008)和D. Demons(diffeomorphic demons)(Vercauteren等,2009)。3)基于图像合成的方法是实现高精度配准的主要方法。由于不同模态的图像灰度强度不一致,通过一种模态合成另一种模态,可以将复杂的多模态配准转换为相对容易的单模态配准,当配准图像存在较大形变时比其他两类方法有更大优势。用于医学图像合成的方法大致分为传统方法和基于深度学习的方法两类。1)传统方法。如基于图谱(Atlas)的方法(Burgos等,2015)、基于稀疏表示(sparse representation,SR)的方法(Roy等,2010;Ye等,2013)和基于随机森林(random forest,RF)的方法(Huynh等,2016)等。基于图谱的方法通过将图谱集中的所有图像与源图像做配准,根据形变场与图谱标记的映射关系合成目标图像。此类方法对配准的准确性非常敏感,且合成图像边缘轮廓比较模糊。基于稀疏表示的方法由于需要利用稀疏编码理论将源图像块和对应的目标图像块分别表示为相应的字典,再通过学习字典之间的映射关系,生成给定源图像的目标图像,花费时间较长。基于随机森林的方法当样本数据存在较大噪声时会出现过拟合现象(Ye等,2015)。2)基于深度学习的方法。近年来,深度学习在图像处理领域取得了显著成果,在大量任务中,深度学习得到的特征被证实比传统方法得到的特征具有更强的表达能力(Krizhevsky等,2012)。Han(2017)利用深度卷积神经网络(deep convolutional neural network,DCNN)从MR(magnetic resonance)图像合成CT(computed tomography)图像,与基于回归的方法(Huynh等,2016)相比计算量较小,但当输入图像尺寸较小时,容易忽略预测目标图像中的邻域信息。Xie等人(2016)将可以保留结构信息的全卷积网络(fully convolutional networks,FCN)用于图像合成,然而要训练稳健且准确的模型需要大量的数据集而且训练耗费时间很长。之后,Nie等人(2018)提出了基于生成对抗网络(generative adversarial network,GAN)(Goodfellow等,2014)的合成算法,通过生成器和鉴别器的对抗训练构建合成模型。实验表明,相比其他深度学习算法(Han,2017;Xie等,2016),结合对抗学习能够生成更逼真的图像且模型结构易于扩展。但生成对抗网络由于生成过程过于自由,当数据集规模较大且图像内容复杂时,会导致生成样本与目标不一致,且在训练过程中易出现模式崩塌、梯度消失的问题(Salimans等,2016),另外,以上图像合成方法均在单一方向上进行,即只有一种图像的解剖信息指导配准,容易引入偏差。针对上述问题,本文提出了基于残差密集相对平均条件生成对抗网络(residual dense-relativistic average conditional generative adversarial network,RD-RaCGAN)的多模态脑部图像配准方法,通过结合相对平均生成对抗网络(relativistic average GAN,RaGAN)(Jolicoeur-Martineau,2018)和条件生成对抗网络(conditional GAN, CGAN)(Mirza和Osindero,2014)来改进脑部图像的建模方法。其中,生成器的结构对生成样本的质量有较大影响,Zhang等人(2018)认为残差密集块能充分利用深层网络中各卷积层的分层特征,并有效缓解网络退化问题。因此,本文的生成器以残差密集块作为核心组件,卷积神经网络为相对平均鉴别器,通过对抗学习训练合成模型,完成CT到MR及MR到CT的双向图像合成。然后,采用区域自适应配准算法联合估计形变场,并将形变场作用于浮动图像完成配准。1相关工作1.1相对平均生成对抗网络为了解决GAN中存在的不稳定问题,相对平均生成对抗网络(RaGAN)从鉴别器(discriminator)$D$的角度对GAN做出了改进。在GAN中,$D$判断输入数据是来自生成器(generator)$G$生成的数据$x_{{\rm f}}$还是真实数据$x_{{\rm r}}$。如图 1所示,若输入数据为$x_{{\rm r}}$,则输出为1,若输入为$x_{{\rm f}}$,则$D(x_{{\rm f}}$)输出为0。RaGAN通过向$D$中加入梯度惩罚因子$Ex_{{\rm f}}[C(x_{{\rm f}})])$和$Ex_{{\rm r}}[C(x_{{\rm r}})])$得到相对平均鉴别器(relative average discriminator)$D_{{\rm Ra}}$,$D_{{\rm Ra}}$($x_{{\rm r}}$, $x_{{\rm f}}$)表示$x_{{\rm r}}$比平均给定的$x_{{\rm f}}$更真实的概率,$D_{{\rm Ra}}$($x_{{\rm f}}$, $x_{{\rm r}}$)表示$x_{{\rm f}}$比平均给定的$x_{{\rm r}}$更假的概率。RaGAN通过限定$D$的输出值,避免$D$过早饱和,增加网络的稳定性,实验表明,RaGAN可以经过多次迭代训练而不造成梯度消失。 图1 GAN与RaGAN鉴别器的区别 Difference between GAN discriminator and RaGAN discriminator ((a) GAN; (b) RaGAN)Fig 11.2条件生成对抗网络GAN作为一种无监督方法,当数据集中的图像内容复杂时,使用GAN模型很难控制生成的结果。条件生成对抗网络(CGAN)通过在$G$和$D$的建模中均引入条件变量$c$,将无监督GAN改进为有监督的生成模型。$c$可以基于多种信息,如类别标签、图像特征或来自不同模态的数据。$c$对模型增加了约束条件,用于指导数据生成过程,使得CGAN更关注对于阐释样本相关的特征,并忽略不相关特征,有效提高了网络收敛速度和生成数据的质量。1.3残差密集块残差密集块(residual dense block,RDB)将残差网络(He等,2016)中的跳跃连接与密集网络(Huang等,2017)中的密集连接相结合,使得网络不仅具有残差网络能缓解深层网络退化的效果,又具有密集网络增强特征表达的作用。基本的残差密集块如图 2所示。 图2 基本残差密集块 Basic residual dense blockFig 2图 2中,每个RDB包含3层卷积(conv),后接ReLU激活函数,$F_{d-1}$和$F_{d}$分别表示第$d-1$和第$d$个RDB的输出,RDB通过连续记忆将$F_{d-1}$的特征信息输入到第$d$个RDB的每个卷积层中。同时,密集连接使得层与层之间的特征信息充分利用,concat表示第$d-1$和第$d$个RDB产生的特征图的级联,随着层数和特征数的增多,为了去除冗余信息,对有效的特征进行局部特征融合(local feature fusion,LF)得到$F_{d, {\rm LF}}$。$F_{d-1}$到$F_{d}$的局部残差学习使得网络能够顺畅训练。最终,第$d$个RDB的输出为$F_{d}$=$F_{d-1}$+$F_{d, {\rm LF}}$。2基于RD-RaCGAN的脑部图像配准算法2.1RD-RaCGAN算法网络结构综合CGAN中加入条件$c$能够提高生成图像质量和RaGAN中采用相对平均鉴别器能够增加模型稳定性的特点,使用有监督的相对平均条件生成对抗网络模型训练生成器$G$和相对平均鉴别器$D_{{\rm Ra}}$。由于RDB具有在深层网络中充分利用所有卷积层的分层信息的优势,$G$通过使用多层RDB来保证提取信息的充分性,并在训练阶段选用相对交叉熵更稳定的最小二乘损失函数优化$G$和$D_{{\rm Ra}}$,构建残差密集相对平均条件对抗网络合成模型,具体框架如图 3所示。 图3 RD-RaCGAN的基本框架 Basic framework of RD-RaCGANFig 3RD-RaCGAN(residual dense-relativistic average conditional generative adversarial network)由生成器($G$)和相对平均鉴别器($D_{{\rm Ra}}$)构成,数据集中每幅MR图像都有1幅对应的CT图像,当MR合成CT图像时,在生成器中,输入随机噪声$\boldsymbol{z}$的同时,将MR图像作为条件$c$,这样通过图像可以直接调节$G$,每幅MR图像输入$G$都会生成1幅合成CT (synthetize CT,S-CT)图像,然后,CT、S-CT和MR图像输入$D_{{\rm Ra}}$完成判别。$G$和$D_{{\rm Ra}}$进行对抗训练,并用最小二乘损失函数不断更新网络参数,指导生成高质量的图像,最终$G$生成的S-CT图像能够以假乱真,模型训练完成。CT合成MR图像的过程与此相同,通过训练好的合成模型可以将待配准的CT/MR图像分别合成对应的S-CT图像和合成MR(synthetize MR,S-MR)图像,并将CT、S-CT、MR、S-MR图像用于区域自适应配准算法。2.1.1生成器生成器$G$的目的是捕捉样本分布的规律,生成具有特定意义的目标图像,即输入MR或CT图像,生成相对应的S-CT或S-MR图像。本文通过增加网络的深度来提高网络的性能。由于过深的网络难以训练,将RDB设置为9层,并将浅层特征提取部分设计为3层以达到充分提取特征信息的目的,另外,采用可学习的反卷积层保证输入图像和生成图像尺寸一致,得到更细致的目标图像,并减少孔洞的出现。生成器的网络结构如图 4所示,当MR合成CT图像时,$\boldsymbol{I}_{{\rm MR}}$和$\boldsymbol{I}_{{\rm CT}}$表示输入和输出,$k$、$n$和$s$分别表示内核(kernel)尺寸、滤波器个数(number)和步长(stride),并在对图像卷积操作时,进行了填充操作,填充适宜的0用以保持图像的尺寸。网络主要分为4个部分:第1部分为3个卷积层(conv),输入大小为256 × 256 × 1的MR图像,通过3个卷积层的浅层特征提取生成较小尺寸的特征图像,并用于全局残差学习及RDB的输入;第2部分为9个RDB,每个RDB包括3层卷积,其中卷积层都为256个3 × 3大小滤波器的卷积层;第3部分为全局特征融合及全局残差学习,concat层将9个RDB的分层特征融合,经1 × 1卷积核进行降维及信息整合(Tai等,2017)后得到深层特征,通过跳跃连接的全局残差学习将浅层特征与深层特征结合在一起,得到全局密集特征;第4部分是反卷积(conv transposed)和重建,为了使生成器生成与输入图像大小一致的CT图像,通过两层反卷积操作使前一阶段获得的特征逐渐恢复到原图大小,之后是ReLU激活函数,最后通过4 × 4的卷积层后输出大小为256 × 256 × 1的CT图像。 图4 生成器网络结构图 Generator network structure diagramFig 42.1.2相对平均鉴别器相对平均鉴别器($D_{{\rm Ra}}$)的目的是正确区分出合成图像和真实图像,当MR由$G$生成S-CT时,将CT、S-CT以及MR图像输入$D_{{\rm Ra}}$进行判断,通过最小二乘函数计算鉴别损失来衡量鉴别器的判别能力,并将信息反馈给$D_{{\rm Ra}}$,使$D_{{\rm Ra}}$继续增强学习,直到与$G$达到平衡状态,训练完成。本文中的$D_{{\rm Ra}}$选用典型的卷积神经网络(convolutional neural network,CNN)架构,如图 5所示,输入待鉴别的CT图像,通过5层的conv层提取图像特征,为了增大局部感受野,采用4 × 4尺寸的卷积核,步长为2,然后用BN(batch normalization)层来提高训练速度和避免局部最优,后接ReLU激活函数。最后,经全连接层(fully connected layer,FC)后加一个sigmod函数将输出数据归一化到0和1,然后根据阈值输出概率值作为判别结果。 图5 相对平均鉴别器网络结构图 Relativistic average discriminator network structure diagramFig 52.1.3最小二乘损失函数损失函数的选择是影响网络性能的重要因素,GAN、CGAN和RaGAN均以交叉熵为损失函数。Arjovsky等人(2017)指出GAN训练不稳定是由于交叉熵不适合衡量不相交部分的分布造成的,Mao等人(2016)指出对抗学习过程中的不稳定性部分是由鉴别器的饱和引起的。如图 6所示,最小二乘函数的饱和区域远小于交叉熵函数的饱和区域,对于对抗学习,最小二乘损失函数比交叉熵损失函数更稳定,生成图像质量更高。因此,本文采用最小二乘作为损失函数,将最小二乘函数看作最优化问题,通过最小化目标函数值,达到合成图像与真实图像相似的目的。 图6 交叉熵和最小二乘函数 Cross entropy and least squares functions((a) cross entropy; (b) least squares)Fig 6以最小二乘为损失函数的CGAN中$G$和$D$的损失分别为 1 $L_{G}^{\mathrm{CGAN}}=\frac{1}{2} E_{c \sim p(c)}\left[D\left(\boldsymbol{x}_{\mathrm{f}}\right)-1\right]^{2}$ 2 $\begin{aligned}L_{D}^{\mathrm{CGAN}}=& \frac{1}{2} E_{x_{\mathrm{r}} \sim p\left(x_{\mathrm{r}}\right)}\left[\left(D\left(\boldsymbol{x}_{\mathrm{r}}\right)-1\right)^{2}\right]+\\& \frac{1}{2} E_{c \sim p(c)}\left[D(c, G(c, \boldsymbol{z}))^{2}\right]\end{aligned}$ 式中,$p$为数据的概率分布,$c$为条件,$\boldsymbol{z}$为随机噪声,并用${\rm L}_1$形式的正则项约束生成图像$\boldsymbol{x}_{{\rm f}}$与真实图像$\boldsymbol{x}_{{\rm r}}$之间的偏差,具体为 3 $L_{1}(G)=E_{x_{\mathrm{r}}, x_{\mathrm{f}} \sim p\left(x_{\mathrm{r}}, x_{\mathrm{f}}\right)}\left[\left\|\boldsymbol{x}_{\mathrm{r}}-\boldsymbol{x}_{\mathrm{f}}\right\|_{1}\right]$ 在式(1)和式(2)中加入相对平均鉴别器的梯度惩罚因子,得到RD-RaCGAN的损失函数为 4 $L_{\mathrm{RD}-\mathrm{RaCGAN}}=\left\{\min \left(L_{D_{\mathrm{Ra}}}^{\mathrm{RaCGAN}}\right), \min \left(L_{G}^{\mathrm{RaCGAN}}\right)\right\}$ 5 $\begin{array}{c}L_{D_{\mathrm{Ra}}}^{\mathrm{RaCGAN}}=\frac{1}{2} E_{x_{\mathrm{r}}, x_{\mathrm{f}} \sim p\left(x_{\mathrm{r}, x_{\mathrm{f}}}\right)} \times \\\left\{\left[D_{\mathrm{Ra}}\left(\boldsymbol{x}_{\mathrm{r}}, \boldsymbol{x}_{\mathrm{f}}\right)-1\right]^{2}+\left[D_{\mathrm{Ra}}\left(\boldsymbol{x}_{\mathrm{r}}, \boldsymbol{x}_{\mathrm{f}}\right)\right]^{2}\right\}\end{array}$ 6 $\begin{array}{c}L_{G}^{\mathrm{RaCGAN}}=\frac{1}{2} E_{x_{{\rm r}}, x_{\mathrm{f}} \sim p\left(x_{r}, x_{f}\right)} \times \\{\left[D_{\mathrm{Ra}}\left(\boldsymbol{x}_{\mathrm{r}}, \boldsymbol{x}_{\mathrm{f}}\right)-1\right]^{2}+\lambda L_{1}(G)}\end{array}$ 式中,$L_{{\rm RD-RaCGAN}}$表示RD-RaCGAN算法的损失函数,$L_{D_{\mathrm{Ra}}}^{\mathrm{RaCGAN}}$、$L_{G}^{\mathrm{RaCGAN}}$分别为相对平均鉴别器和生成器的损失函数, $λ$为正则项系数,网络训练的目的即最小化$L_{D_{\mathrm{Ra}}}^{\mathrm{RaCGAN}}$和$L_{G}^{\mathrm{RaCGAN}}$。损失函数值越小,说明图像生成质量越高。在$G$和$D_{{\rm Ra}}$的对抗训练过程中,$D_{{\rm Ra}}$的训练过程是最大化准确率、最小化损失函数的过程,其对真实图像的输出$D_{{\rm Ra}}$($\boldsymbol{x}_{{\rm r}}$, $\boldsymbol{x}_{{\rm f}}$)趋向1,对合成图像的输出$D_{{\rm Ra}}$($\boldsymbol{x}_{{\rm f}}$, $\boldsymbol{x}_{{\rm r}}$)趋向0。而训练$G$的目的是最小化$D_{{\rm Ra}}$的准确率,使$D_{{\rm Ra}}$($\boldsymbol{x}_{{\rm f}}$, $\boldsymbol{x}_{{\rm r}}$)趋向1。最终,随着$G$和$D_{{\rm Ra}}$的对抗训练,$G$和$D_{{\rm Ra}}$达到纳什均衡(Ratliff等,2013),此时, $L_{G}^{\mathrm{RaCGAN}}$和$L_{D_{\mathrm{Ra}}}^{\mathrm{RaCGAN}}$达到最优值,训练完成,整体网络结构如图 7所示。 图7 整体网络结构 Overall network structureFig 72.2区域自适应配准算法以CT为参考图像,MR为浮动图像,经已训练好的RD-RaCGAN合成模型分别合成参考S-MR和浮动S-CT图像。为了避免单向合成的图像信息指导多模态图像配准引入偏差,在MR与CT配准时,同时利用S-MR和S-CT的解剖信息,采用区域自适应配准算法(Cao等,2018a)进行配准,主要过程分为3个阶段:1) 关键点采样。为了得到CT和MR之间的形变场$φ$,在具有解剖信息的CT、MR、S-CT和S-MR图像域中进行关键点采样,具体为 7 $P=\frac{|\nabla x|+|\nabla y|+|\nabla z|}{|\nabla G|}$ 式中,$P$为采样概率,$\nabla x, \nabla y$和$\nabla Z$分别表示3个方向的图像梯度算子,$|\nabla G|$是图像中的最大梯度,以将$P$归一化为[0, 1]2) 关键点的区域自适应选择。对式(7)采取截断阈值操作,从CT对(CT和S-CT)中选取骨骼信息的关键点,从MR对(MR和S-MR)中选取软组织信息的关键点,并通过归一化互相关(normalized cross correlation,NCC)检测关键点间的匹配关系。3) 分层对称配准。通过双向图像合成,将MR和CT的配准转化为CT对和MR对的单模态配准,即 8 $\boldsymbol{\varphi}=\arg \min M\left(\boldsymbol{I}_{\mathrm{CT}}, D\left(\boldsymbol{I}_{\mathrm{S}-\mathrm{CT}}, \boldsymbol{\varphi}\right)\right)+$$M\left(\boldsymbol{I}_{\mathrm{S}-\mathrm{MR}}, D\left(\boldsymbol{I}_{\mathrm{MR}}, \boldsymbol{\varphi}\right)\right)+\alpha R(\boldsymbol{\varphi})$ 式中,$\boldsymbol{I}_{\mathrm{CT}}, \boldsymbol{I}_{\mathrm{MR}}, \boldsymbol{I}_{\mathrm{S}-\mathrm{CT}}$和$\boldsymbol{I}_{\mathrm{S}-\mathrm{MR}}$分别表示CT、MR、S-CT和S-MR图像,$D(·)$表示通过形变场$\boldsymbol{\varphi}$变形图像的操作符。$R$为约束$\boldsymbol{\varphi}$平滑度的正则项,$M$为相似性测度,$α$为权重衡量系数。为了求解式(8),采用分层对称配准的思想,通过最小化CT对和MR对之间的差异优化形变场$\boldsymbol{\varphi}$,得 9 $\begin{aligned}\left\{\boldsymbol{\varphi}_{1}, \boldsymbol{\varphi}_{2}\right\}=& \arg \min\limits_{\boldsymbol{\varphi}_{1}, \boldsymbol{\varphi}_{2}} M\left(D\left(\boldsymbol{T}, \boldsymbol{\varphi}_{1}\right), D\left(\boldsymbol{S}, \boldsymbol{\varphi}_{2}\right)\right)+\\ & \alpha\left(R\left(\boldsymbol{\varphi}_{1}\right)+R\left(\boldsymbol{\varphi}_{2}\right)\right) \end{aligned}$ 将CT、S-MR作为模板空间$\boldsymbol{T}$,MR、S-CT作为目标空间$\boldsymbol{S}$,$R$为基于薄板样条(thin plate spline,TPS)(Bookstein,1989)的变换模型。如图 8所示,通过关键点指导$\boldsymbol{T}$和$\boldsymbol{S}$中的图像同时扭曲得到两个形变场,随着$\boldsymbol{T}$和$\boldsymbol{S}$彼此靠近,逐渐增加关键点,并通过更丰富的信息改进两个形变场,直到它们在整个变形的中点彼此相似,得到两个形变场$\boldsymbol{\varphi}_{1}$和$\boldsymbol{\varphi}_{2}$,此时,$\boldsymbol{\varphi}_{1}$和$\boldsymbol{\varphi}_{2}$之间的差异已达到最小。最终得形变场$\boldsymbol{\varphi}$为 图8 区域自适应配准算法 Region adaptive registration algorithmFig 8 10 $\begin{aligned}&\boldsymbol{\varphi}=\boldsymbol{\varphi}_{2} \circ \boldsymbol{\varphi}_{1}^{-1}\\&\boldsymbol{\varphi}^{-1}=\boldsymbol{\varphi}_{1} \circ \boldsymbol{\varphi}_{2}^{-1}\end{aligned}$ 式中,“$\circ$”表示变形成分,$\boldsymbol{\varphi}、\boldsymbol{\varphi}^{-1}$表示前向和后向形变场,$\boldsymbol{\varphi}^{-1}$是$\boldsymbol{\varphi}$的倒数。2.3RD-RaCGAN的脑部图像配准算法本文提出的基于RD-RaCGAN的多模态脑部图像配准算法流程如图 9所示,具体步骤为: 图9 本文算法流程图 Algorithm flow chart in this paperFig 91) 构建RD-RaCGAN合成模型。CGAN中条件$c$能直接指导生成器并提高生成图像质量、RaGAN中相对平均鉴别器能提高网络稳定性、RDB能在深层网络中充分提取信息,综合这3种能力,以RDB为核心组件构建生成器$G$,CNN为相对平均鉴别器$D_{{\rm Ra}}$,对抗训练过程中,采用相对交叉熵函数更稳定、饱和度更小的最小二乘损失函数优化$G$和$D_{{\rm Ra}}$,直到$G$、$D_{{\rm Ra}}$达到平衡状态,RD-RaCGAN合成模型训练完成。2) 合成图像生成。输入两幅大小相同的待配准脑部图像,如参考CT和浮动MR图像,经RD-RaCGAN合成模型执行CT到S-MR和MR到S-CT的图像合成。3) 区域自适应配准。双向合成后得到4幅图像:CT对(CT和S-CT)和MR对(MR和S-MR)。从CT对选取骨骼信息的关键点,从MR对选取软组织信息的关键点,采用区域自适应配准算法,在配准期间逐渐增加关键点的数量,分层对称地指导形变场的估计。4) 将最终的形变场作用于浮动图像完成配准。3实验结果与分析3.1数据集与实验环境本文的训练集来自数据库RIRE(retrospective image registration evaluation)(http://insight-journal.org/rire)和Atlas(Johnson和Becker,1999)。从RIRE数据库的18位患者及Atlas数据库中的急性脑中风、高血压性脑病变和颅内肿瘤患者中挑选了518对清晰度高、纹理丰富、细节复杂的MR/CT图像作为数据集,其中,RIRE数据库中CT图像的体素大小在0.40×0.40×3.00 mm3~0.65×0.65×4.00 mm3之间,MR图像的体素大小在0.82×0.82×3.00 mm3~1.25×1.25×4.00 mm3之间,Atlas数据库中CT图像大小为512 × 512像素,MR图像为256 × 256像素。首先,将RIRE数据库中的DICOM(digital imaging and communications in medicine)格式的数据及Atlas数据库中的GIF(graphics interchange format)格式的数据均转换为PNG(portable network graphic format)格式。其次,采用N4(Tustison等,2010)偏差校正算法消除MR图像的灰度不均匀性,最后,将所有图像重新采样到256 × 256像素,切片厚度为1 mm。数据集分为3部分,包括训练集、测试集、验证集。训练集用于训练网络模型,占数据的80%,共414对;验证集用于对模型准确率进行初步评估,以决定是否停止训练,占10%,共52对;测试集用于评估最终模型的泛化能力,占10%,共52对;由于深度模型通常受益于大数据,为了充分利用数据集,采用Albumentations(Buslaev等,2018)对训练集进行数据增强,对数据集中的每幅图像分别进行90°、180°和270°旋转、水平和垂直翻转、转置、弹性变换、网格变形、光学畸变等操作,获得4×6-1=23倍的数据,即9 936对图像进行训练。实验的硬件平台是一台Intel Xeon服务器,搭载2块NVIDIA Tesla M40的GPU,每块显存12 GB。软件平台是64位的Windows 7操作系统,Pycharm64,Tensorflow V1.2,MATLAB R2016a。3.2训练过程生成器$G$和相对平均鉴别器$D_{{\rm Ra}}$采用交替的方式进行对抗式训练。首先固定$G$训练$D_{{\rm Ra}}$,然后固定$D_{{\rm Ra}}$训练$G$,再继续循环训练,$G$和$D_{{\rm Ra}}$的能力都得到增强,最终$G$生成的图像能够以假乱真,此时训练结束,当有新的图像输入时,$G$生成的$\boldsymbol{x}_{{\rm f}}$就可以作为真实的图像结果使用。具体训练过程如下:1) 固定$G$,用$\boldsymbol{x}_{{\rm r}}$训练$D_{{\rm Ra}}$,训练$n$个epoch(训练样本集中的每个样本训练1次);2) 用$G$生成$\boldsymbol{x}_{{\rm f}}$,用$\boldsymbol{x}_{{\rm f}}$训练$D_{{\rm Ra}}$,训练$n$个epoch;3) 固定$D_{{\rm Ra}}$,用$D_{{\rm Ra}}$的输出作为图像标签,用$D_{{\rm Ra}}$的训练损失训练$G$,训练$n$个epoch;4) 重复步骤1)—3),并用验证集对模型进行评估,得到乱真的目标图像。5) 选用测试集图像评估最终模型性能,以及合成图像质量。本文采用Adam优化算法(Kingma和Ba,2014)在训练过程中促使鉴别损失和生成损失函数达到最小来不断更新网络的参数。网络初始学习率设置为1 × 10-4,动量参数设定为0.9,权重衰减为5 × 10-4。在初始赋值方面,卷积层和反卷积层的赋值满足均值为0、标准差为0.01的正态分布。受GPU显存的限制,采用mini-batch的训练方式,batch-size设置为16,由于MR图像相对CT图像解剖信息更丰富,MR合成S-CT,属于由“复杂”到“简单”的合成,CT合成S-MR,属于由“简单”到“复杂”的合成,在训练过程中,由CT到S-MR的合成模型训练时间相对较长,经过200个epoch的训练后,$L_{G}^{\mathrm{RaCGAN}}$和$L_{D_{\mathrm{Ra}}}^{\mathrm{RaCGAN}}$随着迭代次数的变化趋势如图 10所示。 图10 损失函数变化趋势图 The change trend chart of loss ((a) generation loss function; (b) discriminator loss)Fig 10从图 10可以看出,随着迭代次数的增加,$L_{G}^{\mathrm{RaCGAN}}$整体呈下降趋势,曲线后段逐渐稳定并接近0.2,说明生成器错误率已经小于20%,生成的目标图像与真实图像非常相似。另一方面,随着迭代次数的增加,$L_{D_{\mathrm{Ra}}}^{\mathrm{RaCGAN}}$整体呈现缓慢上升并趋于稳定,综合权衡生成损失和判别损失,确定最终迭代次数为9 936/16 × 200 = 124 200次(训练样本数:9 936,batch-size:16,epoch数量:200)。另外,从损失函数的变化情况可以看出,在整个训练过程中,$L_{G}^{\mathrm{RaCGAN}}$和$L_{D_{\mathrm{Ra}}}^{\mathrm{RaCGAN}}$均未出现大幅度的忽高忽低的情况,说明使用RD-RaCGAN训练模型较为稳定。3.3结果比较与分析由于合成图像的质量直接影响配准精度,为了验证本文算法配准图像的效果,设计了3组对比实验。1) 由MR合成CT不同算法效果比较。图 11给出了测试集中的3组脑部MR-T2及对应的CT图像,本组实验选取FCN-GAN(Nie等,2018)、Atlas、DCNN(Han,2017)、SR和RF等5种方法比较并分析合成效果。由图 11可以看出,Atlas算法合成的CT图像轮廓不清晰、不完整;SR算法合成的图像整体看起来很模糊;DCNN算法得到的图像有很多噪声;RF和FCN-GAN算法在图像锐度和视觉效果方面都较好,但相比RD-RaCGAN在细节方面的处理仍显不足,例如,从第1行放大图可以看出耳道、更细的骨骼和颅骨后侧这些复杂的细节部分合成不精确;而RD-RaCGAN算法合成的图像在视觉上显示出了更逼真的纹理细节, 与真实CT图像更相似、噪声更小,从第2行可以看出骨骼和空气界面附近区域的合成较其他方法更准确。 图11 不同算法由MR-T2合成CT图像结果图 Different algorithms from MR-T2 to synthesize CT image result ((a) MR-T2 image; (b) real CT image; (c) Atlas; (d) SR; (e) RF; (f) DCNN; (g) FCN-GAN; (h) RD-RaCGAN)Fig 11为了客观评价合成效果,采用平均绝对误差(mean absolute error,MAE)和峰值信噪比(peak signal-noise ratio,PSNR)来衡量合成图像的精度,具体为 11 $M_{{\rm A E}}=\frac{\sum\limits_{i=1}^{H}\left|\boldsymbol{C T}_{{\rm R}}(i)-\boldsymbol{C T}_{{\rm S}}(i)\right|}{H}$ 12 $P_{\mathrm{SNR}}=10 \ln \left(\frac{Q^{2}}{M_{\mathrm{SF}}}\right)$ 式中,$\boldsymbol{C T}_{{\rm R}}$、$\boldsymbol{C T}_{{\rm S}}$分别为真实CT和合成CT图像,$H$是每幅图像中像素的个数,$Q$为$\boldsymbol{C T}_{{\rm S}}$和$\boldsymbol{C T}_{{\rm R}}$的最大强度值,$M_{\mathrm{SE}}$为均方误差。通常,$M_{\rm AE}$值越小,$P_{\rm SNR}$值越高,合成效果越好,$\boldsymbol{C T}_{{\rm S}}$越接近$\boldsymbol{C T}_{{\rm R}}$。表 1为使用6种算法合成CT图像所得MAE和PSNR的平均值(mean)和标准差(std)值。为了更好地评估各算法的合成性能,表 1总结了大脑不同区域的MAE值,包括空气、骨骼和软组织区域。依据对实验结果中配准后图像以及表 1的各项指标来看,本文使用的合成模型具有更好的合成效果。通过计算其他区域的MAE值可以得出各合成方法在骨骼和空气区域的产生误差较大,其余组织区域MAE值较小的结论。 表1 不同合成算法下合成CT图像的MAE和PSNR值 算法 全脑 空气 骨骼 组织 MAE PSNR/dB MAE MAE MAE Atlas mean 169.5 20.9 294.21 271.39 55.6 std 35.6 1.6 65.5 64.95 23.34 SR mean 166 21.2 302.48 283.96 52.18 std 37.6 1.7 68.99 60.5 22.84 RF mean 99.9 26.3 240.94 264.1 42.61 std 14.2 1.4 57.47 55.7 14.32 DCNN mean 102.4 26.2 256.5 255.22 43.23 std 11.3 1.22 57.32 55.32 16.9 FCN-GAN mean 93.5 27.9 238.5 245.3 39.09 std 13.9 1.18 52.5 48.97 11.2 本文 mean 88.3 28.15 235.44 240.2 38.65 std 10.25 1.17 50.21 47.74 8.58 MAE and PSNR values of CT images synthesized by different synthesis algorithms resultsTable 12) 由CT合成MR不同算法效果比较。图 12给出了从测试集中选出的两组脑部MR-T2及其对应的CT图像,并分别通过MT-RF(multi-target regression forest)(Cao等,2018a)算法与本文中的RD-RaCGAN算法从CT图像合成MR图像所得结果。从图 12可以看出,MT-RF算法比RD-RaCGAN算法对丰富纹理处理仍然显得不够细腻,MT-RF算法合成的图像比较模糊且视觉过于平滑,RD-RaCGAN算法在视觉上显示出了更逼真的纹理细节。 图12 不同算法由CT合成MR-T2图像结果图 MR-T2 image synthesized from CT of different algorithms((a) CT image; (b) real MR-T2; (c) MT-RF; (d) RD-RaCGAN)Fig 12表 2列出了使用两种合成算法各项评价指标的计算结果,结果表明本文算法的各项评价指标均优于MT-RF算法。通过观察发现,表 2中的MAE值略大于表 1中的数值,而PSNR值略小于表 1中的数值,这是因为由解剖信息简单的CT合成复杂的MR图像比由MR合成CT的计算复杂度更高,合成产生的误差也相应的略高。 表2 不同合成算法下合成MR图像的MAE和PSNR值 算法 全脑 空气 骨骼 组织 MAE PSNR/dB MAE MAE MAE MT-RF mean 124.53 26.52 238.45 246.96 40.52 std 7.88 0.78 53.24 52.37 14.33 本文 mean 120.55 27.21 225.93 241.78 39.02 std 6.43 0.82 51.85 48.02 7.96 MAE and PSNR values of MR images synthesized by different synthesis algorithms resultsTable 23) 不同配准算法的效果比较。为了评估基于RD-RaCGAN算法的配准性能,选取Atlas数据库中的急性脑卒中患者CT/MR图像,图像大小均为256 × 256像素,将实验分为两组,每组从24对切片中随机抽取8对进行实验,以CT为参考图像,MR为浮动图像,并对两组图像中的MR图像分别随机施加±20像素的平移、±10°的旋转和20%的纹波变形。实验分别使用常用于多模态医学配准Powell优化的MI法、D. Demons、ANTs-SyN、Cue-Aware Net(Cao等,2018b)、I-SI(Öfverstedt等,2019)以及本文方法进行比较。图 12展示了采用上述6种方法配准的效果和配准后的图像差。本组实验采用归一化互信息(normalized mutual information,NMI)、均方根误差(root mean square error,RMSE)评价图像的配准效果。NMI度量描述的是两幅图像之间的统计相关性,配准后图像与参考图像之间的NMI值越大,两幅图像越相似,配准越精确;RMSE表示配准后图像与参考图像的偏差,RMSE值越小,则图像配准效果越好。NMI和RMSE的表达式为 13 $N_{\mathrm{MI}}=\frac{H(R)+H(M(\boldsymbol{\varphi}(n)))}{H(R, M(\boldsymbol{\varphi}(n)))}$ 14 $R_{\mathrm{MSE}}=\sqrt{\frac{1}{n} \sum\limits_{i=1}^{n}\left(M_{i}-R_{i}\right)^{2}}$ 式中,$R$、$M$分别表示参考图像和浮动图像上的灰度,$H(R)$和$H(M(\boldsymbol{\varphi}(n)))$分别为参考图像和配准后的浮动图像的熵,$H(R, M(\boldsymbol{\varphi}(n)))$为联合熵,且NMI的范围为[1, 2],$n$表示图像中的像素点的数量。表 3列出了本文算法及对比算法的平均NMI、RMSE值及平均配准时间。从表 3可以看出,本文算法与Powell-MI、ANTs-SyN、D.Demons、Cue-Aware Net和I-SI的图像配准的方法相比,NMI均值分别提高了43.71%、12.87%、10.59%、0.47%、5.59%,RMSE均值分别下降了39.80%、38.67%、15.68%、4.38%、2.61%,故基于RD-RaCGAN的配准算法效果更好,精度更高。但从配准时间上来看,本文算法的效率略低于D. Demons和ANTs-SyN,主要是因为本文方法是基于图像合成且合成模型是通过RD-RaCGAN训练得到的,并在此基础上对待配准的CT/MR图像双向合成,因此,通过合成模型合成相应的S-CT/S-MR图像需要花费一定时间。 表3 不同算法配准图像的评价指标值及时间 配准方法 NMI RMSE 配准时间/s Powell-MI 1.025 1.304 208.86 ANTs-SyN 1.305 1.280 148.52 D.Demons 1.332 0.931 136.48 Cue-Aware Net 1.466 0.821 300.80 I-SI 1.395 0.806 209.40 本文 1.473 0.785 181.32 The average evaluation index value and time of images registered by different algorithmsTable 3图 13是不同算法的配准结果和配准后图像差,从图中箭头所指的纹理和边缘区域可以看出:1)经过扭曲变形后的浮动图像,通过本文配准算法得到的结果更接近参考图像;2)本文算法得到的配准图像与参考图像的图像差比其他5种方法得到的图像差的差异性小。配准后两幅图像的差异性越小,配准效果越好。 图13 不同算法的配准结果和配准后图像差 Registration results of different algorithms and post-registration image differenceFig 13((a) Powell-MI; (b) ANTs-SyN; (c) D.Demons; (d) Cue-Aware Net; (e) I-SI; (f) ours)4结论本文提出了基于残差密集相对平均条件生成对抗网络(RD-RaCGAN)的多模态脑部图像配准方法,解决了基于图像合成的配准算法合成模型鲁棒性差导致合成图像不准确和配准效果欠佳的问题。实验结果表明,本文方法能够将待配准的MR和CT图像通过RD-RaCGAN合成模型合成S-CT及S-MR图像,并用于联合估计形变场。本文算法有以下特点:1)RD-RaCGAN合成模型综合CGAN中条件变量能直接指导生成器并提高生成图像质量及RaGAN中相对平均鉴别器能提高网络稳定性的优点,具有鲁棒性强、合成图像效果好的特点; 2)利用双向合成的图像信息指导配准,降低了多模态配准的难度,提高了配准精度。但本文算法也存在局限性,尚有较大提升空间,具体表现在:1)本文算法需要将两幅待配准图像通过预先训练好的合成模型合成对应图像再进行相应的配准,相比传统方法需要更多的时间。后续工作将致力于有效降低算法执行时间的研究。2)本文算法中的图像合成模型仅适用于单图像域的合成任务,当进行多个域间的合成时,需要为每对域训练一个单独的生成器,计算成本很高。如何设计多图像域合成模型以适用于多模态图像配准任务将有助于提升配准效率。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读