Print

发布时间: 2018-08-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.170585
2018 | Volume 23 | Number 8




    医学图像处理    




  <<上一篇 




  下一篇>> 





结合改进的U-Net和Morphsnakes的肝脏分割
expand article info 刘哲1, 张晓林1, 宋余庆1, 朱彦2, 袁德琪3
1. 江苏大学, 镇江 212013;
2. 江苏大学附属医院, 镇江 212001;
3. 镇江市第一人民医院新区分院, 镇江 212132

摘要

目的 精确的肝脏分割是计算机辅助肝脏疾病诊断和手术规划的必要步骤,但由于肝脏解剖学的复杂性、邻近器官的低对比度和病态等原因,使得肝脏分割在医学图像处理领域仍然是具有挑战性的任务。针对腹部图像器官边界模糊及传统U-Net模型实现端到端的分割时精确度不高等问题,设计了一种基于改进的U-Net(IU-Net)和Morphsnakes算法的增强CT图像肝脏分割方法。方法 首先根据CT图像头文件信息对原始数据进行预处理并构建数据集,然后使用构建好的数据集训练IU-Net,训练过程中使用自定义的Dice层评测图像分割结果的准确率,最后通过OpenCV和Morphsnakes对初始分割结果进行精细分割,最终实现增强CT图像中肝脏的精确分割。结果 实验数据包括200组增强CT,160组用于训练,40组用于测试。本文算法分割准确率达到了94.8%,与U-Net、FCN-8s模型相比,具有更好的分割效果。结论 本文算法可以准确分割增强CT图像中各种形状的肝脏,能够为临床诊断提供可靠依据。

关键词

全卷积神经网络; 肝脏分割; 深度学习; 主动轮廓; Morphsnakes

Liver segmentation with improved U-Net and Morphsnakes algorithm
expand article info Liu Zhe1, Zhang Xiaolin1, Song Yuqing1, Zhu Yan2, Yuan Deqi3
1. Jiangsu University, Zhenjiang 212013, China;
2. Affiliated Hospital of Jiangsu University, Zhenjiang 212001, China;
3. Zhenjiang First People's Hospital, Zhenjiang 212132, China
Supported by: National Natural Science Foundation of China(61772242, 61572239, 61402204)

Abstract

Objective Precise liver segmentation is necessary in the computer-aided diagnosis and surgical planning of liver disease. However, liver segmentation remains challenging in medical image processing task due to the complexity of the liver anatomy and low contrast and morbidity of neighboring organs. To solve the problem of the fuzzy boundary of abdominal image organs and low accuracy of traditional U-Net model in end-to-end segmentation, this study presents an enhanced CT liver segmentation method based on improved U-Net and Morphsnakes algorithm. Method First, we proposed a method for medical image preprocessing. Medical image is different from natural image. The CT images we obtained from a hospital cannot be used directly because the original format of CT images is not rectangular. Pixel padding value (0028, 0120) is used to pad grayscale images (those with a photometric interpretation of MONOCHROME1 or MONOCHROME2) to rectangular format. The first step of image preprocessing is to set the pixel padding value to 0. The second step is converting pixel values to CT values. We then used the processed images to create a dataset. Thereafter, IU-Net is trained with the constructed dataset. IU-Net is a U-Net-like convolution neural network that can achieve end-to-end segmentation. IU-Net contains two paths:downsample path to extract features from images and upsample path to resume image resolution. Between these two paths, the skip connections that can provide additional features for upsample path are available. IU-Net is deeper than U-Net but with less skip connections. While training segmentation neural network, only seeing the loss is insufficient. Often, the loss has good performance, but the segmentation accuracy is low. Therefore, IU-Net has an additional dice layer to evaluate segmentation accuracy during the training epoch. When training loss is stable at low levels, and dice accuracy is stable at high levels, training ends. Finally, OpenCV and Morphsnakes are used to refine the segmentation results generated by IU-Net. OpenCV is used to fill the hole and remove the redundant part of the segmented liver. Morphsnakes is a morphological approach to contour evolution on the basis of a new curvature morphological operator valid for surfaces of any dimension. Morphsnakes approximates the numerical solution of the curve evolution PDE by the successive application of a set of morphological operators defined on a binary level set and with equivalent infinitesimal behavior. The binary segmentation mask optimized by OpenCV also serves as the binary level set. Through the processing of Morphsnakes, we obtained the final segmentation mask and liver contour. In this study, we trained IU-Net, U-Net, and FCN-8s, and all of them were trained in two kinds of processed data. One kind of data is Hounsfield windows, which we used to set the CT value to[-100, 400]. The other one has nothing to do with CT value. IU-Net and U-Net were both trained from scratch. FCN-8s was trained using a fine-tuning strategy, because this strategy did not merge when we trained FCN-8s from scratch. We also compared the performance of rectified linear units and parametric rectified linear units on IU-Net. Result The experimental data include 200 sets of enhanced CT, 160 sets for training, and 40 sets for testing. The segmentation accuracy of our proposed method is 94.8%, which is better than that of the U-Net and FCN-8s models. Fine-tuning can make neural network training easy because it takes an already learned model and adapts the architecture. When building a neural network model completely different from a previous one, fine-tuning is no longer useful. Conclusion Our proposed method can accurately segment liver from enhanced CT images in various shapes and provide a reliable basis for clinical diagnosis.

Key words

fully convolutional neural network; liver segmentation; deep learning; active contouring; Morphsnakes

0 引言

肝癌是世界上最常见的6种癌症之一,也是癌症死亡的主要原因。医学图像肝脏分割对于肝脏疾病诊断,功能评估和治疗决策非常重要。但是由于肝脏解剖学的复杂性,邻近器官的低对比度和病态等原因,使得肝脏分割在医学图像处理领域仍然是一项具有挑战性的任务。计算机断层扫描(CT)现在已经被广泛应用于肝脏疾病无创诊断。但在CT图像中,因切片位置不同,各个切片中肝的形状大小不同,并且肝的形状因人而异,使得肝脏自动分割困难重重。

肝脏分割方法一般可分为基于图像和统计模型两大类。单纯基于图像的分割方法是指运用图像灰度、梯度或纹理等可直接从图像中获取的信息进行分割的方法,主要包括阈值、聚类[1]、区域生长[2-3]、水平集[4]、活动轮廓模型[5-7]和图割[8-10]等。文献[1]提出运用阈值、形态学操作、K-means聚类和多层感知神经网络(MLP)对肝脏进行分割。文献[2]提出了一种基于区域生长的肝脏CT图像分割方法,通过运用拟蒙特卡洛(Quasi-MonteCarlo)算法获取感兴趣区域的种子点和设计区域生长准则。文献[4]提出一种基于先验信息水平集方法的肝脏CT序列图像自动分割方法,用二次区域生长法获取肝脏的初步分割结果,将其作为先验知识,构造新的边缘指示函数和水平集能量函数,最后应用自适应边缘行进算法修补边缘,细化分割。文献[5]提出了基于层次的上下文活动轮廓(HCAC)的于3维CT肝脏全自动分割方法,先利用训练图像以及对应的手动肝脏分割结果学习模型,然后使用上下文活动轮廓(CAC)进行迭代分割, 得到最后的分割结果。文献[6]提出了一种将凸性可变模型与图像亮度和局部区域特征相结合的肝脏自动分割方法。文献[8]利用相邻切片之间的空间相关性构建图割能量函数,迭代分割整个序列。文献[10]结合相邻切片之间的位置信息构建图割能量函数,用图割算法实现肝脏初始分割,再结合亮度和轮廓几何特性,运用边缘行进算法优化分割结果。该方法需要手动分割初始切片,并且对于对比度较低的图像分割效果较差。此外,基于位置、形状等先验信息的统计模型也常用于CT序列中肝脏的分割。该方法通常需要运用大量的数据建立一个大致的肝脏位置或形状模型[11-12],因此,耗时长,对于形状不规则的肝脏分割效果较差。

相比以上方法,卷积神经网络具有高效的特征提取能力、良好的容错能力、自学习能力、自适应性能好等优势,基于卷积神经网络的图像分割方法成为目前研究的热点。其中,全卷积神经网络(FCN)[13]可以直接处理整个图像,实现端到端的图像分割。Olaf等人[14]采用端到端的全卷积神经网络,实现了生物医学图像中的细胞分割,这是全卷积神经网络在医学图像分割领域的第一次应用;Patrick等人[15]直接采用两个级联的U-Net的网络模型实现肝脏以及肝脏肿瘤的分割。Cohen等人[16]采用基于VGG-16[17]修改的FCN-8s来实现肝脏以及肝脏损伤的检测。但是该方法分割结果不够精细,分割的图像边缘粗糙。本文对U-Net进行了改进和优化,重新构建了IU-Net模型,在输出输入等尺寸的基础上,大大提高CT图像肝脏的分割准确率,并且通过OpenCV和Morphsnakes算法对IU-Net的分割结果进行精细分割,使最后的分割结果边界更加平滑、精确。

1 相关理论

1.1 卷积神经网络(CNN)

卷积神经网络(CNN)是一个多层的神经网络,每层由多个2维平面组成,而每个平面由多个独立神经元组成。在图像分类中,卷积神经网络通常由输入层、卷积层、激活函数、池化层、全连接层组成;而在用卷积神经网络做图像分割时,通常将全连接层变为全卷积层,并在之后通过上采样层恢复图像维度,输出分割图,即输入层、卷积层、激活函数层、池化层、全卷积层、上采样层、卷积层、激活函数层、输出层。卷积神经网络通过一次前向传播,产生分类或分割结果,在通过最后的损失层计算loss,根据loss使用反向传播算法,计算梯度,更新权重,这样网络完成一次迭代。训练过程中通过多次迭代,获得最终的模型。

卷积层(convolution layers)在卷积神经网络中主要起到特征提取的功能,通过将输入图像与卷积核做卷积操作,来提取特征,卷积核的大小即感受野(receptive field)大小。一种卷积核能提取一种特征,而同一特征图上的权值相同,即权值共享。产生的特征图通过激活函数层来增加神经网络模型的非线性。

卷积层和激活函数运算为

$ x_j^l = f\left( {\sum\limits_{i \in {M_j}} {x_i^{l - 1} \times w_{ij}^l + b_j^l} } \right) $ (1)

式中,括号内的部分为卷积层提取特征的主要运算,$l$为网络的当前层,${x_i^{l - 1}}$为感受野中第$i$个像素点的值,${w_{ij}^l}$${x_i^{l - 1}}$${x_j^l}$的权重,${b_j^l}$为偏置项,$f\left( {} \right)$为激活函数。

池化层(pooling layers)对输入的特征图进行压缩,一方面使特征图变小,简化网络计算复杂度;另一方面进行特征压缩,提取主要特征,并保证特征的位置与旋转不变性。主要有均值池化(average pooling)和最大值池化(max pooling)。均值池化取感受野内所有值的平均值作为输出,最大值池化取感受野内所有值的最大值作为输出。

反卷积层(deconvolution layers):反卷积类似于卷积, 都是卷积操作, 导致名称不同的是卷积所处的位置,但是它的作用是通过反向训练, 达到从输出重构输入的效果, 使得输出图像大小与输入图像一样。

1.2 Morphsnakes算法

Morphsnakes[18]是一种采用形态学算子的主动轮廓边界演化方法,这种方法比其他基于水平集的主动轮廓方法运行速度更快、更稳定,且不需要重新初始化,Morphsnakes求解的水平集$\left\{ {u\left( t \right) = {\rm{div}}\left( {\frac{{\nabla u}}{{\left| {\nabla u} \right|}}} \right)} \right\}$表示的闭合曲线的方程为

$ \begin{array}{*{20}{c}} {\frac{{\partial u}}{{\partial t}} = g\left( I \right)\left| {\nabla u} \right|\left( {{\rm{div}}\left( {\frac{{\nabla u}}{{\left| {\nabla u} \right|}}} \right) + v} \right) + }\\ {\nabla g\left( I \right)\;\;\;\nabla u} \end{array} $ (2)

式中,$u$为水平集函数,$\nabla $为梯度算子,div为散度算子,$v$为常数,$g\left( {} \right)$为边界停止函数。

假设第$n$次轮廓演变的结果为${u^n}$,则${u^n}$${u^{n + 1}}$次迭代的演变为

$ \begin{array}{*{20}{c}} {{u^{n + \frac{1}{3}}}\left( x \right) = }\\ {\left\{ \begin{array}{l} ({D_d}{u^n})\left( x \right)\;\;g\left( I \right)\left( x \right) > \theta 且v > 0\\ ({E_d}{u^n})\left( x \right)\;\;g\left( I \right)\left( x \right) > \theta 且v < 0\\ {u^n}\left( x \right)\;\;\;\;\;\;\;\;\;其他 \end{array} \right.} \end{array} $ (3)

$ {u^{n + \frac{2}{3}}}\left( x \right) = \left\{ \begin{array}{l} 1\;\;\;\;\;\;\;\;\nabla {u^{n + \frac{1}{3}}}\;\;\nabla g\left( I \right)\left( x \right) > 0\\ 0\;\;\;\;\;\;\;\;\nabla {u^{n + \frac{1}{3}}}\;\;\nabla g\left( I \right)\left( x \right) < 0\\ {u^{n + \frac{1}{3}}}\;\;\;\;\nabla {u^{n + \frac{1}{3}}}\;\;\nabla g\left( I \right)\left( x \right) = 0 \end{array} \right. $ (4)

$ {u^{n + 1}}\left( x \right) = ({(S{I_d} \circ I{S_d})^\mu }{u^{n + \frac{2}{3}}})\left( x \right) $ (5)

式中,${D_d}$为扩张运算,${E_d}$为侵蚀运算,$S{I_d} \circ I{S_d}$为平滑操作中的形态连续线性算子,$\mu \in {\bf{N}}$

2 本文方法

通过对原始增强CT图像进行预处理构建数据集,然后训练IU-Net,最后采用OpenCV和Morphsnakes细化IU-Net分割结果。实验整体流程如图 1所示。

图 1 本文算法示意图
Fig. 1 Illustration of the proposed method

2.1 基于Hounsfield的数据预处理

CT图像与自然图像不同,CT图像数据类型多为int16,也有int32。而不同的设备采集到的CT图像处理方式也有所不同,为了在图像信息不丢失的前提下,使图像值尽量保持在一个区间内,需要对医院获取的原始CT图像进行预处理,并用这种预处理方法构建数据集。

具体步骤如下:

1) 对CT图像中的像素填充值(Pixel Padding Valu)进行预处理。人体腹部截面多为不规则形状,因此在CT图像采集过程中会对图像增加填充值,使图像成为规则形状,填充值会使后续图像处理过程中图像值域变化较大,因此,需要对其进行处理。在DatasetA中CT图像中Pixel Padding Value为-2 000,通过处理将图像中的填充值设置为0,并将Pixel Padding Value值从CT图像的头文件中删除。

2) 将图像的像素值转换为CT值。CT值是测定人体某一局部组织或器官密度大小的一种计量单位,通常称亨氏单位($HU$),空气为-1 000,致密骨为+1 000,各个器官所处的CT值范围不同,但同一器官所处的CT值都有一定的范围,同时增强CT的CT值也会因造影剂的用量和种类不同而发生一些变化,将像素值转换为CT值,更有助于腹部器官的分割。像素值与CT值(用$HU$表示CT值)之间的转换关系为

$ HU = pixel\_value \times RS + RI $ (6)

式中,$RS$表示RescaleSlope,$RI$表示RescaleIntercept都可从CT图像的头文件中获取,本文CT图像$RS$=1,$RI$=-1 024,数据集3DIRCADb的$RS$=1,$RI$=0。

采用两种方式分别进行数据处理:第1种采用文献[15]中的处理方式,将数据$HU$值设定在[-100, 400](将$HU$值小于-100的值设置为-100,将$HU$值大于400的值设置为400),从而忽略不感兴趣的器官和区域,训练模型为IU-Net;第2种不对图像作处理,直接将原图输入到神经网络中进行训练。

2.2 IU-Net模型结构

实验采用的网络架构如图 2,网络由15个卷积层组、7个池化层和7个上采样层组成,每个卷积层组包含两个卷积层,在每个卷积层以及上采样层后面都采用ReLU[19]作为激活函数。第1个卷积层组中每个层维度为64×512×512(通道数×图像高度×图像宽度),第2个卷积层组中每个层维度为128×256×256,第3个卷积层组中每个层的维度为128×128×128,第4个卷积层组中每个层的维度为256×64×64,第5个卷积层组中每个层的维度为256×32×32,第6个卷积层组中每个层的维度为512×16×16,第7个卷积层组中每个层的维度为512×8×8,第8个卷积层组中每个层的维度为1024×4×4,之后上采样路径中的卷积层组与前面对应层的维度相同;在每个上采样层,通过反卷积操作恢复图像的维度,并且采用skip-connection,复制对应池化层的特征图像,通过Concat层将两者结合,之后将他们通过卷积层组进行后续操作,在进行卷积操作过程中,实现了池化层特征图重用。U-Net复制的是池化层经过两次卷积和ReLU函数激活的特征,与之相比,直接复制池化层信息丢失更少。训练过程采用SoftmaxWithLoss层计算网络的loss,并用自定义的Dice层观测训练过程中分割结果的准确率。网络层结构与深度是通过多次实验确定的。

图 2 IU-Net网络结构
Fig. 2 IU-Net network structure

全卷积神经网络中所有的卷积层,都采用3×3的卷积核以及$pad$=1(在图像周围填充0)。权值共享是卷积神经网络的重要特征,而这个特征也使得网络的参数主要有卷积核大小来决定,在同一张特征图上,5×5的卷积核有25个参数而3×3的卷积核只有9个参数,采用小的卷积核能显著减少神经网络的计算量,并且网络分割效果也不会降低[20];对于pad取1,主要是因为在卷积过程中,卷积操作会使图像维度发生变化,每次在卷积操作前对图像增加pad可以使图像维度保持不变,正是由于这个原因U-Net[14]的输出与输入图像的大小并不相等。因此,在采用3×3的卷积核的同时,采用了$pad$=1。

2.3 基于OpenCV和Morphsnakes的肝脏精准分割

神经网络对图像处理是通过卷积核以滑动窗口的方式实现的,没有考虑到局部区域与整个肝脏的位置关系,有些因病变导致CT值发生较大变化肝癌的区域,或者因造影剂影响CT值发生变化较大的肝脏中的血管区域,没有包含在分割结果中。因此,本文采用OpenCV对肝脏区域部分的空洞进行填充,然后通过Morphsnakes算法优化分割图边缘。效果如图 3所示。

图 3 肝脏分割图
Fig. 3 Segmentation results of liver

3 实验结果与分析

本文实验硬件环境为型号i7-6700k的处理器,32 GB的内存,使用型号GTX1080的GPU加速图像处理,卷积神经网络在caffe[21]开源框架下实现,caffe版本为1.0.0 -rc3。实验训练采用DatasetA中的数据集,训练100 epoch,获得IU-Net模型。

3.1 数据集

本文使用了两个数据集。第1个数据集DatasetA由来自江苏大学附属医院的180例病人的增强CT图像通过基于Hounsfield的数据预处理构成,每例病人图片都有专业医生标注,并有与之对应的Ground Truth。第2个数据集是一个公开的数据集3DIRCADb(http://ircad.fr/research/3d-ircadb-01/),其中包含20例病人的增强CT图像。从DatasetA中选取30例病人数据,从3DIRCADb中选取10个病人数据作为测试集,其余病人的数据作为训练集。

3.2 模型训练过程中的参数设置以及实验设备

参数设置:实验中IU-Net采用的初始学习率为1E-4,IU-Net (PReLU),U-Net采用的初始学习率1E-5,权重初始化选用“Xavier”,权重衰减值为0.000 5,学习率衰减策略为“step”,gamma取0.1,学习率变化公式为:lr=base_lr×0.1^(floor($iteration/stepsize$)),lr是当前学习率,base_lr是初始学习率,iteration为当前迭代次数,stepsize是学习率下降的周期,floor()向下取整,batch_size为1,每组实验都训练100 epoch(将数据集中所有图片训练一次为一个epoch)。FCN-8s采用初始学习率为10E-8,训练时将图片裁剪为500×500像素,因从头训练网络不收敛,训练时使用原始FCN-8s权重初始化,进行fine-tuning操作,训练50 epoch。

3.3 评价指标

1) 采用Dice来对分割结果进行评价,Dice重合率定义为

$ D = \frac{{2\left| {\mathit{\boldsymbol{A}} \cap \mathit{\boldsymbol{B}}} \right|}}{{\left| \mathit{\boldsymbol{A}} \right| + \left| \mathit{\boldsymbol{B}} \right|}} $ (7)

式中,$\mathit{\boldsymbol{A}}$表示分割结果,$\mathit{\boldsymbol{B}}$表示与之对应的Ground Truth,${\mathit{\boldsymbol{A}} \cap \mathit{\boldsymbol{B}}}$为分割图中属于肝脏的部分,Dice越接近1,表示分割结果越准确。

2) 采用精准率($P$)和召回率($R$)对分割结果进行评价,定义为

$ P = \frac{{TP}}{{TP + FP}} $ (8)

$ R = \frac{{TP}}{{TP + FN}} $ (9)

式中,$TP$表示正确预测的肝脏部分,$FP$表示将背景预测为肝脏的部分,$FN$表示将肝脏预测为背景的部分。

3.4 实验分析

图 4分别为本文算法、FCN-8s和U-Net算法分割图,从图 4中可以看到,本文算法对于各种形状的肝脏的都有较高的分割准确率;FCN-8s对肝脏区域较大的图像分割准确率高,但结果较为细碎,分割较小的肝脏时,有许多冗余部分;U-Net能分割出肝脏所在区域的大致位置,但是无法获得肝脏的精确边界。

图 4 不同算法分割图
Fig. 4 Segmentation results of different method ((a) U-Net; (b) FCN-8s;(c) ours)

卷积神经网络是卷积核以滑窗的方式提取特征,每个特征图都是一组卷积核与前一层所有特征做卷积得到的,特征种类更多,并不是单纯的记忆肝脏形状和位置。图 4中各个肝脏切片来自不同病人的不同位置,肝脏形状差异很大,第2行和第4行中的肝脏还有损伤。本文模型在进行肝脏分割时,并不受肝脏形状等因素的影响。而且本文训练时使用的是腹部增强CT的CT值,各个器官的CT值都有一定的范围,即便不同个体肝脏形状差异很大,但并不会影响各器官CT值的总体分布。因此,以这种方式训练的模型泛化性能较好。但当改变成像格式时,如使用平扫CT或MRI时,分割准确率会有所降低。增强CT受造影剂的影响,器官CT值分布会不同于平扫CT。MRI图像与CT图像成像原理不同,因此,此模型不适合MRI图像分割。

用测试集对各个模型进行评价,评价结果如表 1。从表 1中可以看出,本文算法分割准确率高于其他模型。对于同一个模型,对训练数据处理方式不同,获得的模型分割准确率不同;FCN-8s、IU-Net使用数据的原始CT值进行训练时,准确率要高,而U-Net则相反。当测试图像数据分布和训练模型所用图像数据分布差异很大时,模型准确率也会发生很大变化,这也是本文使用CT值训练模型的重要原因。在训练过程中,IU-Net和U-Net从头开始训练,网络很快收敛,而从头训练FCN-8s时,网络不收敛。因此,训练FCN-8s时使用了fine-tuning策略,有较好的模型参数对其进行初始化,因此训练50 epoch就达到较高准确率。

表 1 不同算法分割结果对比
Table 1 Comparison of results obtained from different algorithms

下载CSV
模型数据处理方式Dice$P$$R$
IU-Net(ReLU)不处理0.9350.9370.913
IU-Net (PReLU)不处理0.8880.8560.876
IU-Net(ReLU)+Morphsnakes不处理0.9480.9430.932
FCN-8s不处理0.9130.8590.839
U-Net不处理0.7010.7200.774
IU-Net(ReLU)$HU$[-100, 400]0.8950.9070.893
FCN-8s$HU$[-100, 400]0.8230.8710.813
U-Net$HU$[-100, 400]0.8670.8760.897
Cascaded U-Net+3D CRF[15]$HU$[-100, 400]0.931
FCN-8s[16]0.88
FCN-4s[16]0.87

4 结论

本文提出了一种基于IU-Net和Morphsnakes算法的肝脏分割方法。首先使用本文数据预处理方式,将医院获取的数据进行预处理,然后使用IU-Net对肝脏进行初始分割,接着使用OpenCV算法完善肝脏区域,最后通过Morphsnakes算法优化分割边缘。该模型全部使用增强CT图像训练测试,并且利用各器官CT值有固定的范围区间这一特点进行训练,使得得到的模型可以适用来源不同的增强CT腹部图像的肝脏分割。但平扫CT等图像,各器官CT值与增强CT分布不同,分割结果将会有所下降。实验结果和对比实验表明,该方法肝脏分割准确率高,并且容易训练。在以后的工作中,会加强对CT等医学图像分割的研究,并实现肝癌及其他腹部器官(如:胰腺)的准确分割。

参考文献

  • [1] Selver M A, Kocaoǧlu A, Demir G K, et al. Patient oriented and robust automatic liver segmentation for pre-evaluation of liver transplantation[J]. Computers in Biology and Medicine, 2008, 38(7): 765–784. [DOI:10.1016/j.compbiomed.2008.04.006]
  • [2] Lu X Q, Wu J S, Ren X Y, et al. The study and application of the improved region growing algorithm for liver segmentation[J]. Optik-International Journal for Light and Electron Optics, 2014, 125(9): 2142–2147. [DOI:10.1016/j.ijleo.2013.10.049]
  • [3] Zhang X Q, Xiong B L, Kuang G Y. A ship target discrimination method based on change detection in SAR imagery[J]. Journal of Electronics & Information Technology, 2015, 37(1): 63–70. [张小强, 熊博莅, 匡纲要. 一种基于变化检测技术的SAR图像舰船目标鉴别方法[J]. 电子与信息学报, 2015, 37(1): 63–70. ] [DOI:10.11999/JEIT140143]
  • [4] Zhao Y Q, Yan G X, Xu X W, et al. Automatic segmentation of livers from CT series based on level set method with prior knowledge[J]. Journal of Central South University:Science and Technology, 2015, 46(4): 1310–1317. [赵于前, 闫桂霞, 徐效文, 等. 基于先验信息水平集方法的肝脏CT序列图像自动分割[J]. 中南大学学报:自然科学版, 2015, 46(4): 1310–1317. ] [DOI:10.11817/j.issn.1672-7207.2015.04.020]
  • [5] Ji H W, He J P, Yang X. Three-dimensional CT liver image segmentation based on hierarchical contextual active contour[J]. Journal of Biomedical Engineering, 2014, 31(2): 405–412. [吉宏伟, 何江萍, 杨新. 基于层次上下文活动轮廓的三维CT肝脏图像分割[J]. 生物医学工程学杂志, 2014, 31(2): 405–412. ] [DOI:10.7507/1001-5515.20140076.]
  • [6] Han M, Liu J M, Meng J Y, et al. Local energy information combined with improved signed distance regularization term for image target segmentation algorithm[J]. Journal of Electronics & Information Technology, 2015, 37(9): 2047–2054. [韩明, 刘教民, 孟军英, 等. 结合局部能量与改进的符号距离正则项的图像目标分割算法[J]. 电子与信息学报, 2015, 37(9): 2047–2054. ] [DOI:10.11999/JEIT141473]
  • [7] Peng J L, Wang Y, Kong D X. Liver segmentation with constrained convex variational model[J]. Pattern Recognition Letters, 2014, 43: 81–88. [DOI:10.1016/j.patrec.2013.07.010]
  • [8] Afifi A, Nakaguchi T. Liver segmentation approach using graph cuts and iteratively estimated shape and intensity constrains[M]//Ayache N, Delingette H, Golland P, et al. Medical Image Computing and Computer-Assisted Intervention-MICCAI 2012. Berlin, Heidelberg: Springer, 2012, 7511: 395-403. [DOI: 10.1007/978-3-642-33418-4_49]
  • [9] Chen X J, Udupa J K, Bagci U, et al. Medical image segmentation by combining graph cuts and oriented active appearance models[J]. IEEE Transactions on Image Processing, 2012, 21(4): 2035–2046. [DOI:10.1109/TIP.2012.2186306]
  • [10] Liao M, Zhao Y Q, Zeng Y Z, et al. Liver segmentation from abdominal CT volumes based on graph cuts and border marching[J]. Journal of Electronics & Information Technology, 2016, 38(6): 1552–1556. [廖苗, 赵于前, 曾业战, 等. 基于图割和边缘行进的肝脏CT序列图像分割[J]. 电子与信息学报, 2016, 38(6): 1552–1556. ] [DOI:10.11999/JEIT151005]
  • [11] Heimann T, Meinzer H P, Wolf I. A statistical deformable model for the segmentation of liver CT volumes[C]//MICCAI Workshop 3D Segmentation Clinic: A Grand Challenge. Brisbane: MICCAI, 2007: 161-166.
  • [12] Kainmüller D, Lange T, Lamecker H. Shape constrained automatic segmentation of the liver based on a heuristic intensity model[C]//MICCAI Workshop 3D Segmentation Clinic: A Grand Challenge. Brisbane: MICCAI, 2007: 109-116.
  • [13] Long J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation[C]//Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 3431-3440. [DOI: 10.1109/CVPR.2015.7298965]
  • [14] Ronneberger O, Fischer P, Brox T. U-Net: convolutional networks for biomedical image segmentation[C]//Proceedings of the 18th International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer, 2015: 234-241. [DOI: 10.1007/978-3-319-24574-4_28]
  • [15] Christ P F, Ettlinger F, Grün F, et al. Automatic Liver and Lesion Segmentation in CT Using Cascaded Fully Convolutional Neural Networks and 3D Conditional Random Fields[C]//Medical Image Computing and Computer-Assisted Intervention. Cham: Springer, 2016: 415-423. [DOI: 10.1007/978-3-319-46723-8_48]
  • [16] Ben-Cohen A, Diamant I, Klang E, et al. Fully convolutional network for liver segmentation and lesions detection[C]//Proceedings of the First International Workshop on Large-Scale Annotation of Biomedical Data and Expert Label Synthesis. Cham: Springer, 2016: 77-85. [DOI: 10.1007/978-3-319-46976-8_9]
  • [17] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[C]//International Conference on Learning Representations, 2015.
  • [18] Marquez-Neila P, Baumela L, Alvarez L. A morphological approach to curvature-based evolution of curves and surfaces[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(1): 2–17. [DOI:10.1109/TPAMI.2013.106]
  • [19] Glorot X, Bordes A, Bengio Y. Deep sparse rectifier neural networks[C]//Proceedings of the 14th International Conference on Artificial Intelligence and Statistics. Fort Lauderdale: PMLR, 2011: 315-323.
  • [20] Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the inception architecture for computer vision[C]//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, United States: IEEE, 2016: 2818-2826. [DOI: 10.1109/CVPR.2016.308]
  • [21] Jia Y Q, Shelhamer E, Donahue J, et al. Caffe: convolutional architecture for fast feature embedding[C]//Proceedings of the 22nd ACM international conference on Multimedia (MM'14). New York, NY, USA: ACM, 2014: 675-678. [DOI: 10.1145/2647868.2654889]