Print

发布时间: 2017-04-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.20170411
2017 | Volume 22 | Number 4




    医学图像处理    




  <<上一篇 




  下一篇>> 





前列腺磁共振图像分割的反卷积神经网络方法
expand article info 詹曙1, 梁植程1, 谢栋栋2
1. 合肥工业大学计算机与信息学院, 合肥 230009;
2. 安徽省医科大学第二附属医院泌尿外科, 合肥 230601

摘要

目的 前列腺磁共振图像存在组织边界对比度低、有效区域少等问题,手工勾勒组织轮廓边界的传统分割方法无法满足临床实时性要求,针对这些问题提出了一种基于深度反卷积神经网络的前列腺磁共振图像分割算法。 方法 基于深度学习理论,将训练图像样本输入设计好的卷积神经网络,提取具有高度区分性的前列腺图像特征,反卷积策略用于拓展特征图尺寸,使网络的输入尺寸与输出预测图大小匹配。网络生成的概率预测图通过训练一个softmax分类器,对预测图像取二值化,获得最终的分割结果。为克服原始图像中有效组织较少的问题,采用dice相似性系数作为卷积网络的损失函数。 结果 本文算法以Dice相似性系数和Hausdorff距离作为评价指标,在MICCAI 2012数据集中,Dice相似性系数大于89.75%,Hausdorff距离小于1.3 mm,达到了传统方法的分割精度,并且将处理时间缩短在1 min以内,明显优于其他方法。 结论 定量与定性的实验表明,基于反卷积神经网络的前列腺分割方法可以准确地对磁共振图像进行分割,相比于其他分割算法大幅度减小了处理时间,能够很好地适用于临床的前列腺图像分割任务。

关键词

前列腺分割; 磁共振图像; 卷积神经网络; Dice相似性系数; Hausdorff距离

Deconvolutional neural network for prostate MRI segmentation
expand article info Zhan Shu1, Liang Zhicheng1, Xie Dongdong2
1. School of Computer and Information, Hefei University of Technology, Hefei 230009, China;
2. Department of Urology, the Second Affiliated Hospital of Anhui Medical University, Hefei 230601, China
Supported by: National Natural Science Foundation of China (61371156)

Abstract

Objective Prostate cancer is one of the leading causes of deaths due to cancer among older men, and its diagnosis experiences many challenging problems. Imaging-based prostate cancer screening, such as magnetic resonance imaging (MRI), requires an experienced medical professional to extensively review the obtained data and perform a diagnosis. The first step in prostate radiation therapy is to identify the difference between the original image and the nearby prostate tissue. However, prostate MRI results face the problems of low organizational boundary contrast ratio and lack of effective areas. Manual segmentation will take considerable time, which cannot meet clinical real-time requirements. Although several methods presented in the MICCAI 2012 challenge achieved reasonable results, they highly depended on feature selection or statistical shape modeling performance, and thus, presented limited success. A segmentation algorithm for prostate MRI based on a deep deconvolutional neural network is proposed to solve the aforementioned deficiencies. Method Inspired by the latest deep learning technology, fully convolutional network, and DeconvNet, we present a multi-layer deconvolutional convolutional network to demonstrate that a deep neural network can dramatically increase the automated segmentation of prostate MRI images compared with systems based on handcrafted features. The deep neural network model exhibits strong feature learning and end-to-end training capacities, which provide better performance than former image processing techniques. Unlike an image classification task, each pixel in an MRI image is regarded as an object that should be classified. Hence, we obtain the final segmentation results by considering the prediction of prostate tissues as a two-stage classification task. This study presents a multi-layer convolutional network, which utilizes a convolution filter, a pooling layer, and a decoder network to transform an input MRI image into a probability map. A convolutional neural network is used in the training process of this model to extract highly distinct image features. Then, a deconvolution strategy is adopted to expand the feature map size and to maintain the sizes of the input image and the output probability map. The stacked convolution and deconvolution layers can maintain resolution size by adding a pad to the input image. In addition to achieving deeper network architecture, the stacked convolution layers exhibit strong robustness against overfitting. Finally, the probability map is used to train a softmax classifier and the final segmentation result is obtained. We replace the classical neuron activation function with a rectified linear unit in our model to speed up the training process and avoid the vanishing gradient. The Dice similarity coefficient is used as the loss function in our convolutional network to overcome the problem of low effective organization in the original image. The images provided in MICCAI 2012 exhibit varying sizes and resolutions, and thus, we preprocess the images and augment the size of the data set via multi-scale cropping and scale transformation to improve training reliability. Result All the experiments are performed on the MICCAI 2012 data set. The algorithm proposed in this study uses the Dice similarity coefficient and Hausdorff distance as evaluation metrics. The Dice similarity coefficient is over 89.75%, whereas Hausdorff distance is shorter than 1.3 mm, which can realize the segmentation accuracy of traditional methods. Furthermore, the processing time is shortened to within 1 min, which is clearly superior to those of other methods. Conclusion The deep learning approach is gradually being applied to the medical field. This study introduces a new deep learning method that is used to segment prostate images. Both the qualitative and quantitative experiments show that the prostate segmenting method based on the deconvolutional neural network can segment MRI images accurately. The proposed method can attain higher segmentation accuracy than the traditional methods. All the calculations are performed on a graphics processing unit, and handling time is considerably shortened compared with those of other segmentation algorithms. Therefore, the proposed model is highly appropriate for the clinical segmentation of prostate images.

Key words

prostate segmentation; magnetic resonance imaging; convolutional neural network; Dice similarity coefficient; Hausdorff distance

0 引言

前列腺癌是老年男性的主要健康问题之一。研究发现,男性慢性前列腺炎的发病率高达2.5~%16%,是导致男性死亡的第二大癌症[1]。前列腺疾病的诊断一直以来是影像学研究的重点,目前常见的前列腺影像学诊疗手段有直肠超声 (TRUS)、计算机断层扫描 (CT) 和磁共振成像 (MRI)。相比于其他成像方法,磁共振成像的图像质量对区分前列腺解剖区域更为清晰,对于病变组织更加敏感。因此, 磁共振成像公认为目前诊断癌变前列腺的最有效方法,对评估前列腺病变的性质发挥重要作用[2]

磁共振成像因其能够获取高对比度的清晰图像而被广泛应用于肿瘤检测等临床应用中。针对前列腺病变的检测与治疗规划,医生首先需要勾勒出前列腺组织轮廓,区分前列腺与周围器官,然后决定采取相对应的治疗手段。但是,这一过程目前主要依赖于医师手工,这是一个十分耗时的过程,并且分割的结果好坏也因人而异[3]。过去数十年中,一些自动的前列腺图像分割算法取得了一定成果,但是效果有限,由于以下原因,前列腺磁共振图像分割仍然是一个极具挑战性的任务:1) 前列腺组织与周围其他组织的对比度较低,它们的边界难以区分;2) 在一幅磁共振图像中,属于前列腺组织的区域很小,可以获取的有效信息较少;3) 较长的算法时间消耗有可能推迟临床诊断。

为了解决以上问题,研究学者提出了多种针对前列腺磁共振图像的分割方法。基于边界特征学习的算法需要利用形状和纹理信息来选择显著的特征点,描述正确的边缘。Mahapatra[4]提出了一种基于图像和上下文特征的自动分割算法,首先利用超像素分割自动获得感兴趣的前列腺区域,然后利用学习到的图像特征及上下文特征生成区域的概率图,最后结合随机森林分类器获取最终的分割。基于模型的分割算法则是通过将测试图像与一个已经包含形状和外形信息的模型进行匹配,获取前列腺组织的轮廓[5]。这类算法对局部图像伪影和噪声有很好的鲁棒性,但是通常需要手工标记出许多前列腺边界点作为先验知识,对边界标记点的位置非常敏感,计算复杂。Yang等人[6]引入判别分析法,结合SIFT特征,自适应地调整每一个标记点的位置,取得了一定的效果。

尽管这些方法在MICCAI2012挑战中取得了令人信服的分割准确度,但是他们过于依赖手工特征选择的好坏或是需要引入先验信息,算法运行计算时间较长,使得这些传统分割算法在临床应用中受到限制。Liao等人[7]引入深度学习框架,自动学习网络模型参数,实现前列腺图像的分割,将算法测试时间缩小在1 min以内,远远小于之前提出的方法。本文受该算法和现在流行的深度学习模型思想[8-9]启发,针对前列腺磁共振图像分割中存在的上述问题,提出了一种基于深度反卷积神经网络的前列腺磁共振图像分割算法。该算法定义的深度反卷积网络能够自动学习前列腺组织的形状特征,学习一个softmax分类器获得磁共振图像中每个像素点属于前列腺组织的可能性。引入的Dice相似性损失函数能够有效解决前列腺磁共振图像中目标与背景区域比例区别过大的问题。通过实验对比分析,本文提出的方法相比于其他方法体现了更好的性能。1深度卷积网络

近年来,深度学习研究,尤其是基于卷积神经网络模型 (CNNs) 的研究得到了越来越多的关注。深度学习通过模拟人脑神经结构,提取输入数据的逐层特征,通过“预训练+微调”的方式,能够有效表达目标数据更为本质的特征[10]。1998年,Lecun等人[11]首次提出利用多层次卷积网络实现手写字符的识别,为卷积神经网络在图像分析处理中的可行性奠定理论基础。由于大数据和高性能计算机的出现,卷积神经网络目前已被广泛用于各种计算机视觉任务,如图像分类、人脸识别、目标检测以及图像分割。而在医学图像分析领域,如计算机医学辅助检测、脑部图像分割、基因图谱序列分析、深度学习也得到了应用推广[12]

1.1 卷积网络

典型的深度卷积网络通常包含一个输入层,若干个卷积层和下采样层,最后训练一个分类器,由分类器输出相应的类别概率预测。

卷积层用以学习图像的特征,利用局部连接和权值共享的特性,减少网络所需要学习的参数数量,降低了计算的复杂度。随着网络的不断加深,卷积层逐层提取更加抽象的图像特征。作为模式识别的关键步骤之一,特征提取的好坏直接影响了图像识别的精度。

在下采样层中,将前一层特征图中相邻若干个特征合并,减小特征的分辨率,从而实现特征对平移、缩放、扭曲的不变性。在网络模型的学习过程中,批量图像输入具有初始权重的网络模型,进行前向传递计算,逐层学习特征,最后利用有标签样本数据输入到softmax等分类器,通过后向反馈微调整个网络的参数。

1.2 卷积层学习

在卷积层中,为了学习图像的局部统计特征,一个可学习的卷积核$M$需要与前一层的若部分特征图进行卷积运算,卷积结果通过激活函数$f$计算得到相应的特征输出,并作为下一层的输入。在网络模型中,卷积层的第1层输入是原始训练图像。第$l$层卷积特征图$\boldsymbol{h}^l$的计算方法为

$ {\boldsymbol{h}^l} = f\left( {\sum\limits_{j = 1}^{{M_x}} {\sum\limits_{k = 1}^{{M_y}} {{w_{jk}}} } *{\boldsymbol{h}^{l-1}}\left( {j, k} \right) + {\boldsymbol{b}^l}} \right) $ (1)

式中, $M_x$$M_y$分别表示卷积滤波器$M$的长和宽,$w_jk$是卷积核中学习的权值,${{\boldsymbol{h}^{l-1}}}$表示卷积层$l$的输入,${{\boldsymbol{b}^l}}$表示第$l$层滤波器的偏置,$f\left( \cdot \right)$是激活函数。现在流行的深度神经网络多采用ReLU激活函数[13]代替传统的Sigmoid函数,以加速网络收敛,其数学表达式为

$ f\left( x \right) = {\rm{max}}\left( {0,x} \right) $ (2)

卷积网络需要学习的权值成千上万,因此需要大量的训练集来覆盖所有可能的参数,训练集的数量与质量也变得尤为重要。

1.3 下采样层误差传递

卷积层之后获得的特征通常需要进行下采样操作,以减少特征维度,降低计算量,便于实现特征分类。下采样层采用池化操作,即设置一个小尺寸的池化窗口,对窗口内的特征图部分区域取平均值 (或最大值)。池化操作能够实现对提取的特征的平移不变性,同时也减少了网络的过拟合问题。一般来说,下采样层的特征图个数与前一层卷积层的特征图个数相同。通常池化窗口 (大小为$s \times s$) 不重叠,对特征图求取平均值或最大之后,特征图的分辨率缩小为原来的$1/s$

1.4 全连接层学习

与卷积层不同的部分连接方式不同,深度卷积网络的最后几层通常采用完全连接的方式,即完全连接层,用于连接最后的分类器层。定义完全连接层$l$的输出向量为${\boldsymbol{h}^l}$,即

$ {\boldsymbol{h}^l} = f\left( {{\boldsymbol{W}^l}{\boldsymbol{h}^{l-1}} + {\boldsymbol{b}^l}} \right) $ (3)

式中,${{\boldsymbol{h}^{l-1}}}$是该层的输入,${{\boldsymbol{W}^l}}$${{\boldsymbol{b}^l}}$分别表示网络权重与偏置,$f$是对应的激活函数。

2 反卷积前列腺图像分割算法

如前文所说,一般的深度卷积网络会逐层减小特征层的维度大小,输入图像尺寸远小于输出预测图,对于图像分类任务,最终只能获得对一幅图像的分类预测。而对于图像分割任务,图像的每一个像素点都是需要预测的对象,通常的卷积网络结构将不再适用。

对于基于深度学习的医学图像分割任务,解决这一问题的通常方法是预先将图像分成若干个小块,再根据图像块中心像素点是否属于目标组织,给予该图像块一个标签,连同图像块输入到网络之中,实现单标签分类任务。这种方法增大了图像预处理的复杂性,而且整个网络需要预先处理大量的数据块,加大了计算的时间消耗。

Long等人[8]于2015年提出全卷积神经网络 (FCN) 实现自然图像的语义分割。他们将卷积网络中最后的全连接层替换为卷积层,并应用上采样和特征层裁剪操作,解决了输入图像大小与输出预测图尺寸不一致的问题,实现图像的逐像素 (pixel-wise) 预测。此后,一系列基于卷积神经网络训练的语义图像分割算法相继提出,并且屡屡刷新语义图像分割的精度。Hyeonwoo等人[9]提出的反卷积网络 (DeconvNet) 是FCN应用的一个拓展,它学习一个多层次的反卷积网络,重建目标细节,有效解决了FCN中容易错分小目标、丢失目标边缘细节等问题。

受到FCN与DeconvNet等最新深度学习算法的启发,我们采用全卷积网络,结合反卷积技术完成前列腺磁共振图像的分割。本文使用的深度反卷积网络是一种监督学习方法,其包括训练阶段和测试阶段 (如图 1所示)。在训练阶段,我们采用十倍交叉验证法, 将45个病人的前列腺磁共振图像与手工分割的真实图像作为训练样本输入神经网络,经过前向和反向传播,迭代地训练网络模型权重,并以另外5个病人样本的图像作为验证样本,为训练的模型提供监督指导。最终训练一个Softmax分类器,并优化Dice损失函数,获得整幅图片的分类概率图;在测试阶段,测试图像通过对比度调节处理后输入到训练好的网络模型中,经过一次前向传播计算得到最终的测试图像分割结果。

图 1 本文学习方法框图
Fig. 1 Diagram of the proposed method

2.1 反卷积网络结构与参数

本文提出的网络结构如图 2所示。为方便网络输入,统一将输入图像裁剪为3×224×224像素大小。在卷积网络部分中,采用的是与FCN相似的结构,将最后的全连接层替换为卷积层。卷积网络模型包含5组堆叠的卷积层,5个最大池化层以及两个完全卷积层。卷积采用的是堆叠形式,即在每一个卷积层后设置连续一到两层完全相同的卷积层。网络中卷积核大小均为3×3的小窗口,步长为1,通过在输入特征图边缘添加宽度为1的数值“0”来保持卷积操作前后特征图尺寸的一致。堆叠卷积层不仅能够增加网络的深度,以学习更多的网络参数,同时也能有效地避免过拟合现象。

图 2 反卷积网络结构图
Fig. 2 Deconvolution network architecture

反卷积网络部分采用的是卷积网络的镜像结构,目的在于重建输入目标的形状,因此多层次的反卷积结构也能够像卷积网络一样捕获不同层次的形状细节。卷积网络的模型中,低层次特征可以描述整个目标粗略信息,如目标位置、大致形状等,而更复杂的高层次的特征具有分类特性,也包含了更多目标细节信息。

2.2 Dice损耗层

训练图像输入网络,最终通过一个softmax层生成一个与原始输入分辨率大小相同的分类概率图,表示每一个像素点属于前景或者背景的可能性。分类概率图通过计算与真实标签的误差,优化损失函数,获得最终的卷积网络模型权重。与自然图像不同,对于前列腺磁共振图像,属于前景的有效区域通常很小,背景区域占整幅磁共振图像更大比例。在学习过程中,网络更容易偏向学习背景区域特征,一般损失函数易陷入局部最小,导致前景区域检测丢失。为了改进分类响应图,根据Dice相似性系数,提出一种新的目标损失函数$D$,用于最大化预测响应图与真实分割结果之间的相似性,其数学表达式定义为

$ D = \frac{{2\sum\limits_i^N {{p_i}{g_i}} }}{{\sum\limits_i^N {{p^2}_i} + \sum\limits_i^N {{g^2}_i} }} $ (4)

式中,$p_i$$g_i$分别表示预测图与真实分割图中的第$i$个像素点的值。对式 (4) 求导可得

$ \frac{{\delta D}}{{\delta {p_i}}} = 2\left[{\frac{{{g_i}\left( {\sum\limits_i^N {{p^2}_i} + \sum\limits_i^N {{g^2}_i} } \right)-2{p_i}\left( {\sum\limits_i^N {{p_i}{g_i}} } \right)}}{{{{\left( {\sum\limits_i^N {{p^2}_i} + \sum\limits_i^N {{g^2}_i} } \right)}^2}}}} \right] $ (5)

该偏导数用于反向传播中的参数更新过程。实验表明,采用Dice损失函数相比一般的损失函数,有更好的性能。

3 实验与结果分析

3.1 数据集与实验参数

在深度学习过程中,训练数据的数目与质量对网络模型影响很大。本次实验采用Medical Image Computing and Computer Assisted Intervention 2012(MICCAI 2012) 数据集。数据包含50个训练病人样本,30个测试病人样本。对于每个样本,包含20~40个轴向切片,以及对应的手工分割真实图像。MICCAI 2012的图片数量不大,并且不同病人样本图片具有不同尺寸的分辨率,为了方便网络输入,提高模型学习的性能,采用以下方式对原始数据进行预处理:

1) 通过裁剪和尺度变换等方式扩展数据集;

2) 去除样本中不包含前列腺图像信息的图片,减小负样本所占比例;

3) 通过对比度调节方法,增强磁共振组织的边缘的差异。

本文方法是基于Caffe[14]工具实现,所有的运算在一块Gefore GTX TITAN X图形显卡上来加速网络训练。

在训练阶段,使用VGG-16[15]预先训练好的Caffe模型作为实验的微调模型,用于初始化网络参数,加快网络训练收敛。初始的学习率被设置为0.1,并使用随机梯度下降法 (SGD) 更新网络权值。

在测试阶段,一幅任意大小的测试图像被输入到已经训练好的网络模型中,只通过前向传递的方式,计算出该图像每一像素点的分割预测,通过二值化分割预测图,获得最后的分割结果。

3.2 图像分割实验

本实验采用两种参数来定量评价不同分割算法的性能,分别是Dice相似性系数 ($DSC$) 与Hausdorff距离 (HD)。$DSC$计算的是两个轮廓区域的相似程度。用$\boldsymbol{A}$$\boldsymbol{B}$表示两个轮廓区域所包含的点集,则其定义为

$ DSC\left( {\boldsymbol{A}, \boldsymbol{B}} \right) = \frac{{2|\boldsymbol{A} \cap \boldsymbol{B}|}}{{|\boldsymbol{A}| + |\boldsymbol{B}|}} $ (6)

$HD$反映出两个轮廓点集之间的最大差异,定义为

$ HD\left( {\boldsymbol{A}, \boldsymbol{B}} \right) = {\rm{max}}(h\left( {\boldsymbol{A}, \boldsymbol{B}} \right), h(\boldsymbol{B}, \boldsymbol{A})) $ (7)

式中, $h\left( {\boldsymbol{A}, \boldsymbol{B}} \right) = \mathop {{\rm{max}}}\limits_{{a_i} \in \boldsymbol{A}} \mathop {{\rm{min}}}\limits_{{b_j} \in \boldsymbol{B}} ||{a_i}-{b_j}||, h\left( {\boldsymbol{B}, \boldsymbol{A}} \right) = \mathop {{\rm{max}}}\limits_{{b_j} \in \boldsymbol{B}} \mathop {{\rm{min}}}\limits_{{a_i} \in \boldsymbol{A}} ||{b_j}-{a_i}||$。更小的$HD$数值意味着更高的分割准确率。表 1给出了不同方法分割结果的定量评价数值。

表 1 定量比较分割结果
Table 1 Quantitative comparison of segmentation results

下载CSV
方法 $DSC$/% $HD$/mm 时间/min
Tian[16] 83.4 9.3 4
活动轮廓方法[17] 86 9.5 6~8
Mahapatra[4] 92.1 5.5 23
堆叠ISA[7] 86.7 1.9 1.4
本文 89.75 1.3 0.3

表 1可以看出,本文方法的分割准确度在$DSC$$HD$两个指标上接近,甚至超过了传统的前列腺图像分割方法。虽然在$DSC$这一指标中不如Mahapatra[4]提出分割算法,但是卷积网络的运算均在GPU上完成,使得本文提出方法的运行时间远小于专业医生手动分割 (15~20 min) 和其他的处理时间,满足了实际临床需求。

图 3是本文方法前列腺图像的概率预测图,颜色越偏向红色表示该区域更有可能属于前列腺组织,而蓝色表示更有可能属于非前列腺组织。可以看出本文提出方法生成的概率预测图中与前列腺组织与非前列腺组织具有很高的区分度。

图 3 前列腺组织概率预测图
Fig. 3 Probability maps for prostate ((a) original MR image; (b) ground truth image; (c) probability maps)

图 4给出了两例前列腺磁共振图像的分割结果。图像原始大小是512×512像素,可以看出,本文方法已经比较接近真实的分割图像。

图 4 磁共振图像分割结果
Fig. 4 Segmentation results of MR images

4 结论

采用最新的深度学习技术来实现前列腺磁共振图像的分割任务。为了实现图片的逐像素分割,本文方法利用全卷积网络与反卷积技术结合的方式,逐层训练图像特征,学习网络模型权值,生成与输入图像大小一致的概率预测图。通过在softmax分类器后添加dice相似性损失函数,解决训练图像中,前列腺和背景区域比例区别过大的问题,提高分割的精度。最后根据分类预测图,通过二值化预测概率得到前列腺组织的分割结果。实验结果表明,深度反卷积神经网络的前列腺分割方法已经达到了传统方法的分割精度。尽管本文方法未能超过一些更好的算法,但算法的所有运算均在GPU上实现,减少了算法的运算时间,因此更加符合实际临床实时性的需求。目前本文的工作主要针对2维的磁共振图像,未来的研究工作将探讨如何提高分割精度,并将卷积神经网络用于3维前列腺磁共振图像分割中。

参考文献

  • [1] Ralph D J, Wylie K R. Ejaculatory disorders and sexual function[J]. BJU International, 2005, 95(9): 1181–1186. [DOI:10.1111/j.1464-410X.2005.05536.x]
  • [2] Sharp G, Fritscher K D, Pekar V, et al. Vision 20/20: perspectives on automated image segmentation for radiotherapy[J]. Medical Physics, 2014, 41(5): #050902. [DOI:10.1118/1.4871620]
  • [3] Yacoub J H, Oto A, Miller F H. MR imaging of the prostate[J]. Radiologic Clinics of North America, 2014, 52(4): 811–837. [DOI:10.1016/j.rcl.2014.02.010]
  • [4] Mahapatra D, Buhmann J M. Prostate MRI segmentation using learned semantic knowledge and graph cuts[J]. IEEE Transactions on Biomedical Engineering, 2014, 61(3): 756–764. [DOI:10.1109/TBME.2013.2289306]
  • [5] Heimann T, Meinzer H P. Statistical shape models for 3D medical image segmentation: a review[J]. Medical Image Analysis, 2009, 13(4): 543–563. [DOI:10.1016/j.media.2009.05.004]
  • [6] Yang M J, Li X L, Turkbey B, et al. Prostate segmentation in MR images using discriminant boundary features[J]. IEEE Transactions on Biomedical Engineering, 2013, 60(2): 479–88. [DOI:10.1109/TBME.2012.2228644]
  • [7] Liao S, Gao Y Z, Oto A, et al. Representation learning: a unified deep learning framework for automatic prostate MR segmentation[C]//Proceedings of the 16th International Conference on Medical Image Computing and Computer-Assisted Intervention-MICCAI 2013. Berlin Heidelberg: Springer, 2013: 254-261.[DOI: 10.1007/978-3-642-40763-5_32]
  • [8] Shelhamer E, Long J, Darrell T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016. [DOI:10.1109/TPAMI.2016.2572683]
  • [9] Noh H, Hong S, Han B. Learning deconvolution network for semantic segmentation[C]//Proceedings of 2015 IEEE International Conference on Computer Vision. Santiago, Chile: IEEE, 2015: 1520-1528.[DOI: 10.1109/ICCV.2015.178]
  • [10] Yu K, Jia L, Chen Y Q, et al. Deep learning: yesterday, today, and tomorrow[J]. Journal of Computer Research and Development, 2013, 50(9): 1799–1804. [余凯, 贾磊, 陈雨强, 等. 深度学习的昨天、今天和明天[J]. 计算机研究与发展, 2013, 50(9): 1799–1804. ]
  • [11] Lecun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278–2324. [DOI:10.1109/5.726791]
  • [12] Mamoshina P, Vieira A, Putin E, et al. Applications of deep learning in biomedicine[J]. Molecular Pharmaceutics, 2016, 13(5): 1445–1454. [DOI:10.1021/acs.molpharmaceut.5b00982]
  • [13] Nair V, Hinton G E. Rectified linear units improve restricted boltzmann machines[C]//Proceedings of the 27th International Conference on Machine Learning. Haifa, Israel: Omnipress, 2010: 807-814.
  • [14] Jia Y Q, Shelhamer E, Donahue J, et al. Caffe: convolutional architecture for fast feature embedding[C]//Proceedings of the 22nd ACM international conference on Multimedia. New York, USA: ACM, 2014: 675-678.[DOI: 10.1145/2647868.2654889]
  • [15] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. arXiv preprint arXiv:1409.1556, 2014.
  • [16] Tian Z Q, Liu L Z, Fei B W. A fully automatic multi-atlas based segmentation method for prostate MR images[C]//Proceedings of the SPIE 9413, Medical Imaging 2015: Image Processing. Orlando, FL: SPIE, 2015, 9413: #941340.[DOI: 10.1117/12.2082229]
  • [17] Kirschner M, Jung F, Wesarg S. Automatic prostate segmentation in MR images with a probabilistic active shape model[C]//Proceedings of PROMISE 2012-MICCAI 2012 Grand Challenge: Prostate MR Image Segmentation. Nice, France: Springer, 2012.