论文引用格式:Chai J W, Li A K, Zhang H, Ma Y, Mei X G and Ma J Y. 2024. 3D multi-organ segmentation network combining local and global features and multi-scale interaction. Journal of Image and Graphics, 29(03):0655-0669(引用格式:柴静雯, 李安康, 张浩, 马泳, 梅晓光, 马佳义. 2024. 结合局部全局特征与多尺度交互的三维多器官分割网络. 中国图象图形学报, 29(03):0655-0669)[0 引 言中国癌症病患人数和死亡人数逐年上升,已成为主要死因之一。高度适形放射治疗是常用的癌症治疗方法,该方法精准匹配辐射外形和标靶器官外形,但这非常依赖于对癌组织和周边多个危及器官(organ at risk,OAR)解剖结构的精确分割(盛荣军 等,2023)。三维医学图像多器官分割是指将三维医学图像中多个不同的器官或者病灶区域划分出来,是医学图像分析领域中关键的技术之一。深度学习因其强大的特征表示能力,近年来大量应用于医学图像的临床研究(陈弘扬 等,2021),而基于深度学习的三维医学图像多器官分割方法具有耗时短、水平一致性高的优点,已经成为该领域中的主要研究方向(周涛 等,2021)。视觉Transformer(vision Transformer,ViT)(Dosovitskiy等,2021)因突破了卷积神经网络(convolutional neural network,CNN)局部视野的固有限制而成为最新的研究热点,大量基于CNN和ViT的深度神经网络模型被开发出来(Shamshad等,2023),并获得当时的最佳结果。然而,现有三维医学图像分割方法常忽略多尺度架构(Hatamizadeh等,2022b)或是通过限制ViT的注意力计算范围来实现多尺度(Cao等,2023),因此丧失了ViT在长距离关联提取上的优势;此外,现有方法中局部和全局的特征提取器往往在不同尺度上串行连接,而并未在同尺度中并行执行(Huang等,2023),使得局部特征和全局特征的交互受限。为使得网络能够在不同尺度间进行信息交互,本文提出LoGoF(local-global-features fusion)编码器,并在其基础上构建端到端三维医学图像多器官分割网络M0;此外,引入多尺度交互(multi-scale interaction,MSI)模块和注意力指导(attention guidance,AG)结构,为M0在不同尺度特征中引入空间先验,最终提出用于三维医学图像多器官分割的LoGoFUNet(local-global-features fusion UNet)网络。经过定性和定量分析,该方法在3个公开数据集上的分割性能均优于其他二维或三维先进算法,且泛化性能较好,最后本文开展了充分的消融实验,以证明LoGoFUNet模块设计的合理性。1 方法1.1 LoGoF编码器LoGoF编码器旨在于同一特征尺度下同时捕获三维医学图像的局部细节和全局关联,因此采用局部和全局的双分支结构来提取特征,下面本文将介绍LoGoF编码器的构建思路。1.1.1 局部特征提取手段幽灵卷积(Han等,2020)认为自然图像卷积过程中部分特征图的产生过程可以用相对简单的线性映射完成,由此可在不影响特征提取性能的前提下降低性能消耗,因此本文希望引入幽灵卷积作为低耗的局部特征提取器。标准幽灵卷积的特征提取过程可以简单表述为Iout=BNReLUIin*fst⊕BNReLUIin*fst*fsp (1)式中,Iin表示输入特征,Iout表示输出的幽灵卷积特征,*表示卷积操作,fst和fsp分别表示标准卷积和深度可分离卷积,⊕表示通道维度上的拼接操作,BN()表示批归一化(batch normalization BN),ReLU表示ReLU(rectified linear unit)函数。为使得幽灵卷积在局部特征提取上具有更好的性能,需对其进行一些改进:首先,由于景深信息的缺失,相比自然图像,医学图像特征图之间具备更多的线性映射关系,因此本文将标准幽灵卷积中fst和fsp中的输出通道数从1∶1调整为1∶3;其次,将幽灵卷积中所有的BN转换为层归一化(layer normalization,LN),这是因为已有工作(Liu等,2022)证明BN可能对模型的泛化性产生不利影响;最后,将幽灵卷积中所有的ReLU替换为GeLU(Gaussian error linear unit),以解决ReLU在负梯度下突然归零的问题。综上,LoGoF模块局部分支采用的改进幽灵卷积运算可表示为Ilo=LNGeLUIin*fst⊕LNGeLUIin*fst*fsp (2)式中,Ilo表示幽灵卷积的局部特征图输出,该模块的局部特征提取方式如图 1所示。10.11834/jig.230356.F001图 1局部特征提取方式Fig.1Local feature extraction1.1.2 全局特征提取手段标准ViT通过密集的自注意力运算来获取图像的长距离依赖关系,该自注意力运算可表示为Iabc=∑h=1H∑w=1W∑d=1DsoftmaxqabcT+pabcqkhwd+phwdkdk× vhwd+phwdv (3)式中,H、W和D表示每个方向上的patch数量,Iabc表示在任意位置a,b,c上(a∈1,⋯,H,b∈1,⋯,W, c∈1,⋯,D)的自注意力,qabc表示在任意位置a,b,c上的查询向量,khwd和vhwd表示在任意位置h,w,d上的键向量和值向量。位置编码pq、pk和pv是可学习的,dk表示查询向量的维度,用于收缩数据范围。需要注意的是,为方便表述,以上阐述忽略自注意力的多头特性。ViT自注意力计算中的亲和度计算需要消耗很大的计算资源,然而在三维医学图像分割中,不同个体的同一个分割目标相对位置基本固定,因而常规ViT的注意力运算在医学分割中具有较大的资源冗余。受到Al-Shabi 等人(2021)的启发,本文将ViT的全局自注意力计算按照三维轴向拆分为3个低计算复杂度的面自注意力计算。以垂直于H(height)轴的面WD(width-depth)上的自注意力计算为例,计算可表示为IabcWD=∑w=1W∑d=1DsoftmaxqabcT+peabcqkawd+peawdkdk×vawd+peawdv (4)式中,IabcWD表示在任意位置a,b,c处的WD面上的自注意力。类似地, HD(height-depth)和HW(height-width)面上的自注意力运算表示为IabcHD=∑h=1H∑d=1DsoftmaxqabcT+pabcqkhbd+phbdkdk×vhbd+phbdv (5)IabcHW=∑h=1H∑w=1WsoftmaxqabcT+pabcqkhwc+phwckdk×vhwc+phwcv (6)式中,IabcHD和IabcHW分别表示在a,b,c处的HD面和HW面上的自注意力。类似ViT中的标准Transformer块(如图 2(a)),利用3个面自注意力运算来构建一个FTB(facial Transformer block),其结构如图 2(b)所示。图中FTB运算可表示为Iin1=FSA_WDLNIin+IinIin2=FSA_HDIin1+Iin1Iin3=FSA_HWIin2+Iin2Igo=MLPLNIin3+Iin3 (7)式中,Iin表示FTB结构的输入,FSA_WD(⋅)、FSA_HD(⋅)和FSA_HW(⋅)分别表示WD面、HD面和HW面上的自注意力运算函数,Iin1、Iin2和Iin3分别表示各个面自注意力模块的输入和输出相加的结果,MSA(·)表示ViT中的多头自注意力模块。MLP(·)表示ViT中的多层感知机层。经过LoGoF模块的全局分支,可得到全局特征图Igo。10.11834/jig.230356.F002图2Transformer模块和FTB模块Fig.2Transformer block and FTB block((a)Transformer block;(b)FTB block)1.1.3 特征增强和融合经过LoGoF模块,局部特征和全局特征被单独提取,首先对其施加空间注意力(Woo等,2018)和通道注意力(Hu等,2018),以充分发挥其优势。经过注意力增强后,局部和全局特征间已经存在较大差别,这种差异会阻碍神经网络的特征识别。为平滑并融合两种特征,提出了一种特征融合模块(feature fusion module,FFM),如图3所示。10.11834/jig.230356.F003图3特征融合模块Fig.3Feature fusion module该模块的主要思想是通过不同分支间交叉相乘来增强差异特征的学习。这里假设将通过通道注意力增强的全局特征记为Igo',通过空间注意力增强的局部特征记为Ilo',之后通过提取各自分支的主要特征并与其他分支的特征权重进行交叉相乘,从而得到经过融合的全局特征Igof'和局部特征Ilof',最终通过拼接操作得到特征融合模块的输出If,具体为If=Igof'+Ilof' (8)1.1.4 构建特征编码器本节构造局部全局特征融合(LoGoF)编码器。LoGoF模块的整体结构如图4(a)所示,全局分支采用FTB运算并对其输出施加通道注意力,局部分支采用三维幽灵卷积操作并对其输出施加空间注意力。经过特征增强后,网络将全局特征和局部特征一同馈入特征融合模块进行特征融合,得到LoGoF模块的输出。通过将LoGoF模块的两个分支拆分开来,可形成两个单独可用的编码器Lo模块和Go模块,如图4(b)(c)所示。由于特征类型单一,这些编码器中均不包含特征融合模块。10.11834/jig.230356.F004图4LoGoF模块、Lo模块和Go模块Fig.4LoGoF module, Lo module and Go module((a)LoGoF module;(b)Lo module;(c)Go module)1.2 多尺度网络M0基于1.1.4节提出的3种特征编码器来构建多尺度的三维医学图像多器官分割网络M0。为充分利用卷积滤波器的细节捕获能力和ViT的全局特征关联捕获能力,本文将M0网络设计如图5所示。10.11834/jig.230356.F005图 5M0网络总体结构Fig.5Overall structure of M0 model在网络顶层(编码器1),本文仍采用一个标准3×3×3卷积滤波器,先将图像映射到隐藏维度并最大程度地从原图提取细节;在浅层仅设置一个Lo编码器2,以最高的特征分辨率来提取目标细节;在中间层设置LoGoF编码器3和LoGoF编码器4,充分利用图像局部和全局的融合信息;在深层仅设置一个Go编码器5,以获取网络深层最抽象的语义特征。具体来说,将网络的输入记为I∈RH×W×D×C。网络在第1层引入标准CNN结构的编码器1,将I的特征通道转换为预设的基础特征数fbase=32,得到I1∈RH×W×D×32。网络在第2层设置一个Lo编码器,第1层的输入I1∈RH×W×D×32通过降低特征尺度和翻倍通道数的操作将其大小变换为H2×W2×D2×64,之后经过改进的幽灵卷积和空间注意力得到网络第2层的输出I2∈RH2×W2×D2×64。第3层和第4层设置两个完整的LoGoF编码器3和编码器4。在编码器3的全局分支中,I2∈RH2×W2×D2×64先以图像块大小为2×2×2的标准进行细粒度切分,然后通过patch到token的线性映射得到尺寸为H4×W4×D4×128的token序列,之后通过FTB运算和通道注意力加强得到全局分支的输出Igo3∈RH4×W4×D4×128;在编码器3的局部分支中,I2∈RH2×W2×D2×64通过降低特征尺度和翻倍通道数的操作将其尺寸变换为H4×W4×D4×128,之后通过改进的幽灵卷积和空间注意力得到局部分支的输出Ilo3∈RH4×W4×D4×128;最后将Ilo3和Igo3一同馈入特征融合模块,得到网络第3层的输出I3∈RH4×W4×D4×128。类似地,经过编码器4的双分支结构及融合模块可得到网络第4层的输出I4∈RH8×W8×D8×256。网络第5层仅设置一个Go编码器,I4通过细粒度切分和线性映射操作将特征图尺寸变换为H16×W16×D16×256,之后通过FTB运算和通道注意力加强,得到网络第5层输出I5∈RH16×W16×D16×256。在网络的解码路径中,第5层通过反卷积,将I5的尺度恢复为原来的2倍,并和第4层的输出I4在通道维度上进行拼接,之后再恢复为和I4一致的256,作为解码器5的输出。最终,解码器2得到同输入图像尺寸一致的输出特征图,经过1×1×1逐点卷积操作,将输出特征图的通道数调整为C'。至此,网络得到最终的输出,该输出的尺度以及通道数和金标准图像完全一致。1.3 三维医学图像多器官分割网络LoGoFUNet1.3.1 多尺度交互(MSI)为了建立多尺度特征之间的信息交互,本文针对M0网络设计了一个多尺度交互模块如图6所示。其输入为M0中4层编码器输出的不同尺度的特征图I2,I3,I4,I5。首先,各个尺度下的特征图将分别按照4×4×4和2×2×2的标准切分为细粒度和粗粒度的patch,之后每一个灰色框内部的所有patch将进行信息交互。在图6中,patch块中不同的颜色表示该patch块在原图像的所属部分。经过自注意力交互后,网络可将细粒度和粗粒度的patch添加到原始特征图中,获得带多层交互的特征输出Iinter2,Iinter3,Iinter4,Iinter5。10.11834/jig.230356.F006图6多尺度交互模块Fig.6Multi-scale interaction module为了更直观地展示多尺度交互模块的作用,本文可视化展示了Synapse数据集中的肝脏部位在多尺度交互中的情况,如图7所示。10.11834/jig.230356.F007图7多尺度交互可视化Fig.7Visulization of the multi-scale interaction以绿色遮罩部分的图像块为例,粗粒度切分将肝脏某个位置切分出来,而细粒度切分对肝脏在该位置进行了更精细的切分。经过多尺度交互后,不同尺度的轮廓和细节信息均产生了交互,因而可以更好地定位和分割器官。1.3.2 注意力指导结构(AG)在M0网络中,浅层大尺度特征图包含丰富的细节信息fd、较少的语义信息fs和细粒度的全局关联信息fg,而深层小尺度特征图具有较少的细节信息fdd、较多的语义信息fss以及粗粒度的全局关联信息fgg。为了保持多尺度下对同一器官的注意力,可以利用在fd上学习到的空间注意力来指导fdd和fss的空间注意力,而为了借助对上层细部间关联的注意力来提升下层粗部间关系的提取效果,可以利用在fg上学习到的通道注意力来指导fgg的通道注意力。具体来说,本文在M0网络的编码器2—编码器5上应用AG结构,如图8所示。图中蓝色箭头和黄色箭头分别代表通道AG函数和空间AG函数。由于编码器2只有局部分支且编码器5只有全局分支,因此其AG路径只有一条。10.11834/jig.230356.F008图8注意力指导结构Fig.8Attention guidance structure1.3.3 LoGoFUNet将MSI模块和AG结构引入M0网络之后,即可得到三维医学图像多器官分割网络LoGoFUNet,其总体结构如图9所示。10.11834/jig.230356.F009图9LoGoFUNet网络总体结构Fig.9Overall structure of the LoGoFUNet2 实验2.1 数据集划分为了验证LoGoFUNet的有效性,本文在3种公开数据集上进行了验证。第1个数据集是Synapse腹部多器官分割数据集,该数据集包含30幅腹部CT(computer tomography)扫描图像以及它们的分割金标准,本文仅在目前最佳方法(state of the art,SOTA)常用的8个器官上评估本文的方法,即主动脉、胆囊、左肾、右肾、肝脏、胰腺、脾脏和胃。为防止过拟合,实验随机抽取12幅作为测试样本,剩余18幅进行10次增广得到18+18×10共198幅训练样本。第2个数据集是SegTHOR(segmentation of thoracic organ at risk)(Lambert等,2020)胸部多器官分割数据集,该数据集包含40幅胸部CT扫描图像以及它们的分割金标准,本文在金标准包含的4个器官上评估了本文的方法,这些器官是:食管、心脏、气管和主动脉。为防止过拟合,实验随机抽取10幅作为测试样本,剩余30幅进行6次增广得到30+30×6共210幅训练样本。第3个数据集是ACDC(automatic cardiac diagnosis challenge)挑战赛数据集,其中包含100幅MRI(magnetic resonance imaging)扫描图像以及它们的分割金标准,金标准中包含3个器官,即左心室、右心室和心肌。类似地,本文按照随机生成的列表对数据集进行划分,且不进行增广,由于每个样本包含两幅CT图像,因而训练、验证和测试样本数量分别为140幅、20幅和40幅。2.2 损失函数医学图像分割任务中,Dice损失函数(Dice loss)是常用的损失函数,相比交叉熵损失函数(cross entropy loss,CELoss),Dice损失函数从整体目标形态上监督网络分割质量,相比交叉熵损失函数更易优化,收敛更快。然而,在处理多目标分割任务时,网络对部分像素的错误预测会令整个Dice损失值产生大幅度的变化,导致训练不稳定。因此,本文使用Dice损失和交叉熵损失结合的加权损失函数,具体为L=αLdiY, Y^+βLceY, Y^=   α1-2C∑c=1C ∑v=1VYv,cY^v,c∑v=1VYv,c+∑v=1VY^v,c-   β1V∑v=1V ∑c=1CYv,clogY^v,c (9)式中,Ldi(⋅)和Lce(⋅)分别表示Dice损失函数和交叉熵损失函数,C表示需要分割的器官总类别数,V表示像素总数,Y^v,c和Yv,c分别表示c类别器官中的像素v的预测值和金标准值,α,β为可学习的参数。2.3 实施细节和评估指标对于Synapse数据集,本文定量对比了一些2D方法:V-Net(Milletari等,2016)、DARR(domain adaptive relational reasoning)(Fu等,2020)、R50 U-Net、U-Net(Ronneberger等,2015)、R50 Att-UNet、Att-UNet(Oktay等,2018)和R50 ViT,定量和定性对比了另一些2D方法TransUNet(Chen 等,2021)、SwinUNet(Cao等,2023)、AFTer-UNet(Yan等,2022)、MISSFormer(Huang等,2023)、ScaleFormer(Huang等,2023)和3D方法UNETR(UNet Transformers)(Hatamizadeh等,2022b)、SwinUNETR(Hatamizadeh等,2022a)。对于SegTHOR数据集,本文定量和定性对比了一些2D方法TransUNet、SwinUNet、AFTer-UNet、MISSFormer、ScaleFormer和3D方法UNETR、SwinUNETR。对于ACDC数据集,本文定量对比了一些2D方法R50 U-Net、R50 Att-UNet、R50 ViT,定量和定性对比了另一些2D方法TransUNet、SwinUNet、AFTer-UNet、MISSFormer、ScaleFormer和3D方法UNETR、SwinUNETR。在所有数据集上,LoGoFUNet采用相同的训练设置:训练次数600轮,批大小设置为1,采用AdamW优化器进行参数更新,权重衰减设置为1×10-5,学习率初始值设置为1×10-4,并采用线性预热和余弦退火算法进行学习率更新,最后,采用Dice相似度系数(Dice similarity cefficient,DSC)和豪斯多夫距离(Hausdorff distance 95,HD95)评估实验结果。2.4 公开数据集实验结果2.4.1 Synapse数据集Synapse数据集上的实验结果如表1所示。其中,“*”表示该方法重新训练的结果,其他数据则来源于其原论文,DSC指标越大表示方法性能越好, HD95指标越小表示方法性能越好。由表1可知,在Synapse数据集上,LoGoFUNet相比于其他的SOTA 方法,表现出最佳平均DSC和最低的平均HD95,说明LoGoFUNet在大小不一的整体型器官、长条形器官和片状器官的组合图像中能展现出最优秀的定位和分割水平。10.11834/jig.230356.T001表1Synapse数据集对比实验结果Table 1Comparison experiment results on Synapse dataset方法平均DSC/%HD95DSC/%主动脉胆囊左肾右肾肝脏胰腺脾脏胃V-Net68.81-75.3451.8777.1080.7587.8440.0580.5656.98DARR69.77-74.7453.7772.3173.2494.0854.1889.9045.96R50 U-Net74.6836.8787.7463.6680.6078.1993.7456.9085.8774.16U-Net76.8539.7089.0769.7277.7768.6093.4353.9886.6775.58R50 Att-UNet75.5736.9755.9263.9179.2072.7193.5649.3787.1974.95Att-UNet77.7736.0289.5568.8877.9871.1193.5758.0487.3075.75R50 ViT71.2932.8773.7355.1375.8072.2091.5145.9981.9973.95TransUNet77.4831.6987.2363.1381.8777.0294.0855.8685.0875.62SwinUNet79.1221.5585.4766.5383.2879.6194.2956.5890.6676.60AFTer-UNet81.02-90.9164.8187.9085.3092.2063.5490.9972.48MISSFormer81.9618.2086.9968.6585.2182.0094.4165.6791.9280.81ScaleFormer82.8616.8188.7374.9786.3683.3195.1264.8589.4080.14TransUNet*79.7636.4187.3663.9481.6877.0194.0465.5688.9879.50SwinUNet*78.0126.9984.9264.8781.8678.6093.6257.9188.1974.12ScaleFormer*81.2019.3288.8070.5485.4680.5094.7564.3287.7877.52UNETR*74.9722.8385.5965.0887.2387.9894.6945.7983.0764.93SwinUNETR*79.5018.4187.5363.5082.4382.7894.1962.9888.6573.94LoGoFUNet(本文)85.808.2690.4370.3485.9187.8696.1974.9594.0386.67注:*表示该方法重新训练的结果,加粗字体表示各列最优结果,“-”表示该指标在原文中未给出具体值。为进行直观对比,本文从测试样本29中抽取3个切片并形成对照组1、2和3,其分割结果的3D对照如图10所示。从单个器官上来看,LoGoFUNet在其中4种器官中表现出最佳的平均DSC水平,分别是肝脏(liver)、胰腺(pancreas)、脾脏(spleen)和胃(stomach)。值得注意的是,LoGoFUNet在分割胰腺上的DSC(74.95%)大幅度超出其他对比方法中的最佳DSC(65.57%)。观察并对比对照组3中的红色方框可以发现,LoGoFUNet能在保留胰腺上部断裂部分的同时尽可能捕获全局和局部信息,因而获得了最佳的胰腺器官分割效果。此外,LoGoFUNet具备多尺度架构,既可以通过大视野合理利用周围器官的位置关系来定位小器官,又可以通过小视野捕获器官的细节,因此在胃和脾脏这种小尺寸的整体型器官上也获得了最佳的分割性能。在3D对照组中,LoGoFUNet的分割结果明显比其他2D方法具备更平滑的边缘,也比其他3D方法UNETR和SwinUNETR具备更好的分割细节。10.11834/jig.230356.F010图10Synapse数据集定性对比结果Fig.10Qualitative comparison results of Synapse dataset2.4.2 SegTHOR数据集表2展示了SegTHOR数据集上的实验结果,观察可知,相比于其他方法,LoGoFUNet在单个器官的平均分割结果指标上均优于对比方法,说明LoGoFUNet在整体型器官和长条形器官的组合图像中能完成精确定位和分割。为进行直观对比,本文从测试样本12中抽取3个切片并形成对照组1、2和3,其分割结果的3D对照如图11所示。10.11834/jig.230356.T002表2SegTHOR数据集对比实验结果Table 2Comparison experiment results on SegTHOR dataset方法平均DSC/%HD95DSC/%食管心脏气管主动脉TransUNet83.384.6463.8793.4486.1690.06SwinUNet81.385.6364.6290.1984.0786.63ScaleFormer84.325.6068.4992.9385.8590.00UNETR84.995.9771.9691.8586.6589.49SwinUNETR86.185.1174.6493.6185.0791.39LoGoFUNet(本文)91.112.1984.2195.9189.9594.36注:加粗字体表示各列最优结果。10.11834/jig.230356.F011图11SegTHOR数据集定性对比结果Fig.11Qualitative comparison results of SegTHOR dataset对照组1展示的是位于主动脉上部边缘处的切片,观察可知对照中的2D方法边缘锯齿感严重,且所有对比方法都存在一定程度的误分割,而LoGoFUNet具备最精确的分割结果。对照组2展示的是气管底部边缘处的切片,在金标准中,气管底部存在分叉结构,因此该横截面切片中的分割结果应当存在分离的部分。由于心脏顶部和气管底部在垂直方向上重叠且跨越了周围的切片,UNETR和SwinUNet等方法均出现了误分割情况,只有LoGoFUNet正确分割了该位置,并和金标准非常接近。此外,在气管底部位置处,食管受到了压缩,对照组2中只有LoGoFUNet的结果最符合金标准,其他方法分割的食管均被压得很扁。这也说明LoGoFUNet能很好地捕捉多个长条形器官之间的位置关系,因而在气管、食管上分割性能较好。对照组3展示的是位于心脏器官上部边缘的切片,LoGoFUNet最精确地捕获了心脏和周围器官的位置关系,而其他的网络对于食管和心脏的定位都过近。UNETR虽然边缘平滑,但是由于不具备多尺度特征,对目标细节的分割性能明显较差,导致了相对较差的DSC指标。SwinUNETR具备多尺度结构,但无法很好地捕捉到心脏上下边缘范围和表面细节。相比之下LoGoFUNet的心脏分割结果具备光滑的边缘和接近金标准的上下部位置,展现出了最好的分割效果。2.4.3 ACDC数据集ACDC数据集上的实验结果如表3所示。由表3可知,LoGoFUNet相比其他的方法,具有最高的平均DSC和最低的平均HD95,且在心肌和右心室器官上表现出最佳的DSC结果。从网络结构来看,LoGoFUNet具备细粒度的面自注意力结构,信息可以在矢状面和冠状面上的细粒度柱状token间自由流通,因此在该数据集上的性能表现大大超越了其他3D网络。为突出LoGoFUNet的细粒度面自注意力的优势,本文选择性地可视化了ACDC数据集中样本09、样本29和样本46的frame01。从可视化图12中可以看出,LoGoFUNet在量化性能上超越了对比方法的同时,其可视化结果的边缘细节也是最接近金标准的。10.11834/jig.230356.T003表 3ACDC数据集对比实验结果Table 3Comparison experiment results on ACDC dataset方法平均DSC/%HD95DSC/%右心室心肌左心室R50 U-Net87.55-87.1080.6394.92R50 Att-UNet86.75-87.5879.2093.47R50 ViT87.57-86.0781.8894.75TransUNet89.71-88.8684.5395.73SwinUNet90.00-88.5585.6295.83ScaleFormer90.17-87.3388.1695.04SwinUNet*88.121.6286.7385.1792.47TransUNet*89.892.4787.8787.8693.94ScaleFormer*88.801.6686.7686.7792.85UNETR*85.3713.7282.0982.8091.23SwinUNETR*69.314.4463.4974.1683.53LoGoFUNet(本文)92.371.5892.2489.4395.45注:*表示该方法重新训练的结果,加粗字体表示各列最优结果,“-”表示该指标在原文中未给出具体值。10.11834/jig.230356.F012图12ACDC数据集定性对比结果Fig.12Qualitative comparison results of ACDC dataset2.5 消融实验2.5.1 M0网络设计为探究LoGoFUNet中各个模块对网络性能的影响,在Synapse数据集上开展了消融实验,并在M0的基础上衍生了3个变体M1,M2和M3。M1将M0中的幽灵卷积替换为标准3×3×3卷积结构;M2将M0中的面自注意力替换为标准ViT自注意力;M3将编码器2—编码器5中的Lo模块和Go模块替换为LoGoF模块。表4展示了该消融实验的结果。其中,TSD(time spent during 100 epochs)表示训练100轮次花费的时间,PC(parameters count)表示网络总参数量。由表4可知,4种网络最终的平均DSC差别并不大,但M1、M2和M3相比M0,训练100个epoch花费的时间分别增加了约10.41%、12.25%和13.63%,总参数量增加了约9.03%、33.53%和35.47%。这表明LoGoF模块已经基本弥补了局部和全局分支中采用“廉价替代”所带来的性能衰减,在不降低分割性能的前提下,有效减少了网络的参数量。10.11834/jig.230356.T004表 4网络设计对M0实验结果的影响Table 4The impact on results of M0 design方法DSC/%HD95TSD/hPC/106M182.8012.737.2126.31M282.5113.277.3332.22M382.7711.457.4232.69M082.6513.946.5324.90注:加粗字体表示各列最优结果。2.5.2 多尺度交互和注意力指导结构为探究多尺度交互和注意力指导的有效性,在3个数据集上展开消融实验。从M0上衍生出3个变体模型M6、M7和M8,M6代表仅添加注意力指导的M0,M7代表仅添加多尺度交互的M0,M8代表两者都添加的M0。在3个数据集上的实验结果如表5—表7所示。从表中可以看出,M6通过添加注意力指导,在Synapse、SegTHOR和ACDC测试集上的平均DSC相比M0分别提升了0.45%、0.19%和0.07%,M7通过添加多尺度交互模块,在3个测试集上的平均DSC相比M0分别提升了2.22%、1.52%和0.76%,而添加两者之后的M8,在3个测试集上的平均DSC相比M0分别提升了3.15%、1.73%和1.68%。折线图13展示了不同模型在3个数据集上的DSC指标(×100)的直观对比。10.11834/jig.230356.T005表 5不同消融模型在Synapse数据集上的性能对比Table 5The performance comparison of different ablation models on Synapse dataset方法平均DSC/%HD95DSC/%主动脉胆囊左肾右肾肝脏胰腺脾脏胃M082.6513.9487.7964.2485.6885.2595.7365.8492.7983.88M683.1014.0490.3969.4386.7084.8096.5071.1487.5378.29M784.878.2989.7970.0085.9686.3896.2368.8493.7288.03M885.808.2690.4370.3485.9187.8696.1974.9594.0386.67注:加粗字体表示各列最优结果。10.11834/jig.230356.T006表 6不同消融模型在SegTHOR数据集上的性能对比Table 6The performance comparison of different方法平均DSC/%HD95DSC/%食管心脏气管主动脉M089.383.1880.4094.7789.4992.85M689.574.2681.6594.6888.5393.44M790.902.2683.9195.5390.3893.79M891.112.1984.2195.9189.9594.36注:加粗字体表示各列最优结果。ablation models on SegTHOR dataset10.11834/jig.230356.T007表 7不同消融模型在ACDC数据集上的性能对比Table 7The performance comparison of different ablation models on the ACDC dataset方法平均DSC/%HD95DSC/%右心室心肌左心室M090.691.7588.7488.7594.57M690.767.3690.3687.6294.30M791.457.8191.6688.0994.60M892.371.5892.2489.4395.45注:加粗字体表示各列最优结果。10.11834/jig.230356.F013图13消融实验的数据集DSC值对比Fig.13The DSC comparison of ablation experiments该结果说明,多尺度交互模块和注意力指导结构均对网络分割性能有所提升,且前者带来的提升比后者更显著。3 结论为进一步提升三维医学图像多器官分割的性能,本文提出LoGoF编码器,用于在同尺度下用可接受的计算复杂度来融合CNN和ViT特征,并基于LoGoF编码器构建出三维医学图像分割网络M0,该网络在不牺牲ViT运算范围的前提下实现了网络的多尺度架构。此外,将多尺度交互模块和注意力指导结构引入M0网络,最终构建了LoGoFUNet。该网络继承M0的多尺度架构,能够在三维数据下直接建立多尺度特征之间的信息交互,从而有效提升多器官分割性能。为验证LoGoFUNet在多器官分割任务上的有效性,本文选择Synapse、SegTHOR和ACDC 3个数据集进行实验,并对比多种2D和3D的医学图像分割方法。实验结果表明,相比于表现第2的模型,LoGoFUNet在Synapse和SegTHOR数据集上的DSC指标分别提高2.94%和4.93%,HD95指标分别下降8.55和2.45,表明多器官分割性能的整体改善。尽管实验结果较为乐观,但LoGoFUNet具有较高的计算复杂度和内存消耗,在训练过程中,即使将批大小设置为1,内存也几乎被占满(接近24 GB)。本文已尝试过使用更激进的轴向自注意力来替代面自注意力运算,尽管在减少参数量的同时基本维持了现有分割效果,但还不足以完全消解如此庞大的模型体量和随之带来的较为缓慢的推理速度。因此通过更合理的设计提升推理速度,降低内存消耗是未来的一个研究方向。另外,由于内存限制,本文提出的多尺度交互结构仅在两个粒度的token之间进行信息交互,这可能会影响到分割目标尺度差异更大的某些特定数据集上的分割性能,因而引入更多粒度之间的特征交互以及通过其他手段消解由此带来的额外计算量也是未来的一个研究方向。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读