Print

发布时间: 2018-10-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.180232
2018 | Volume 23 | Number 10




    医学图像处理    




  <<上一篇 




  下一篇>> 





融合深度网络和浅层纹理特征的甲状腺结节癌变超声图像诊断
expand article info 迟剑宁, 于晓升, 张艺菲
东北大学机器人科学与工程学院, 沈阳 110819

摘要

目的 在甲状腺结节图像中对甲状腺结节进行良恶性分析,对于甲状腺癌的早期诊断有着重要的意义。随着医疗影像学的发展,大部分的早期甲状腺结节可以在超声图像中准确地检测出来,但对于结节的性质仍然缺乏准确的判断。因此,为实现更为准确的早期甲状腺结节良恶性超声图像诊断,避免不必要的针刺或其他病理活检手术、减轻病患生理痛苦和心理压力及其医疗费用,提出一种基于深度网络和浅层纹理特征融合的甲状腺结节良恶性分类新算法。方法 本文提出的甲状腺结节分类算法由4步组成。首先对超声图像进行尺度配准、人工标记以及图像复原去除以增强图像质量。然后,对增强的图像进行数据扩展,并作为训练集对预训练过的GoogLeNet卷积神经网络进行迁移学习以提取图像中的深度特征。同时,提取图像的旋转不变性局部二值模式(LBP)特征作为图像的纹理特征。最后,将深度特征与图像的纹理特征相融合并输入至代价敏感随机森林分类器中对图像进行良恶性分类。结果 本文方法在标准的甲状腺结节癌变数据集上对甲状腺结节图像取得了正确率99.15%,敏感性99.73%,特异性95.85%以及ROC曲线下面积0.997 0的的好成绩,优于现有的甲状腺结节图像分类方法。结论 实验结果表明,图像的深度特征可以描述医疗超声图像中病灶的整体感官特征,而浅层次纹理特征则可以描述超声图像的边缘、灰度分布等特征,将二者统一的融合特征则可以更为全面地描述图像中病灶区域与非病灶区域之间的差异以及不同病灶性质之间的差异。因此,本文方法可以准确地对甲状腺结节进行分类从而避免不必要手术、减轻病患痛苦和压力。

关键词

超声图像分类; 甲状腺结节; 计算机辅助诊断; 深度学习; 卷积神经网络; 迁移学习

Thyroid nodule malignantrisk detection in ultrasound image by fusing deep and texture features
expand article info Chi Jianning, Yu Xiaosheng, Zhang Yifei
College of Robot Science and Engineering, Northeastern University, Shenyang 110819, China
Supported by: National Natural Science Foundation of China (61701101, 61603080)

Abstract

Objective Detection and analysis of thyroid nodules play vital roles in diagnosing thyroid cancer.With the development of theories and technologies in medical imaging, most of the thyroid nodules can be incidentally detected in the early stage.However, the nature of nodule lacks accurate judgement, leading to that many patients with benign nodules still need Fine Needle Aspiration (FNA) biopsies or surgeries, increasing the physical pain and mental pressure of patients as well as unnecessary medical health care costs.Therefore, we present an image-based computer-aided diagnosis (CAD) system for classifying the thyroid nodules in ultrasound images in this paper, which novelly applies the image features fused by both high-level features from deep learning network and low-level features from texture descriptor. Method Our proposed thyroid nodule classification method consists of four steps.Firstly, we pre-process the ultrasound image to enhance the image quality, including searching scale ticks, calibrating images so that the pixel-distance in each image represents the same real-world distance, removing the artifacts and restoring images so that the lesion regions in the images are not interrupted.Secondly, the enhanced images are augmented to enlarge the size of training data set and used to fine-tune the parameters of the pre-trained GoogLeNet convolutional neural network.Meanwhile the rotation invariant uniform local binary pattern (ULBP) features are extracted from each of the images as the low-level texture features.Thirdly, the high-level deep features extracted by the fine-tuned GoogLeNet neural network and the low-level ULBP features are normalized and cascaded as one fusion feature that can represent both the semantic context and the texture patterns distributed in the image.Finally, the fusion features of the images are sent to the Cost-sensitive Random Forest classifier to classify the images into "malignant" and "benign" cases. Result The proposed classification method is applied to a standard open access thyroid nodule database to evaluate the effectiveness, achieving excellent classification performance where the accuracy, sensitivity, specificity and area of the ROC curve are 99.15%, 99.73%, 95.85% and 0.9970 respectively. Conclusion Experimental results indicate that the high-level features extracted by the deep neural network from the medical ultrasound image can reflect the visual features of the lesion region, while the low-level texture features can describe the edges, direction and distribution of intensities.The combination of the two types of features can describe the differences between the lesion regions and other regions, and the differences between lesions regions of malignant and benign thyroid nodules.Therefore, the proposed method can classify the thyroid nodules accurately, and provides the superior performance over most of the state-of-the-art thyroid nodule classification approaches, especially in reducing the false positive rate of the diagnosis.

Key words

ultrasound image classification; thyroid nodule; computer-aided diagnosis; deep learning; convolutional neural network; transfer learning

0 引言

甲状腺癌的发病率虽只占甲状腺结节的5%、全身肿瘤的1%,却是内分泌系统最常见的恶性肿瘤。近年来,中国甲状腺癌发病率和病死率呈上升趋势,每年分别以14.5%和1.4%的速度上升。2015年癌症统计数据显示,年新发甲状腺癌将近90 000例,其中男性22 000例,女性67 900例;年甲状腺癌死亡6 800例,其中男性2 500例,女性4 300例;年龄小于30岁的年轻女性中,甲状腺癌发病率位居恶性肿瘤第1位。在过去的20年中,随着医疗影像学技术的发展,大量的甲状腺结节可以在超声图像中正确地检测出来。因为大部分结节为良性或惰性的,对于结节的良恶性准确判断可以降低病人的医疗风险以及大量的由针刺检测带来的医疗健康费用。目前对于甲状腺结节性质的检查主要依靠对超声波图像分析完成,影像师总结了甲状腺结节的一系列超声图像特性作为癌变征兆,包括低回声反射性、光晕缺失、微钙化点、硬度高、结节内流和形状纵横比等[1]。基于这些性质,影像师提出了一种专业的甲状腺图像报告及数据系统(TTI-RADS)[2]来分类甲状腺结节并评估结节癌变的风险:TI-RADS中的分数2,3,4a,4b,4c和5分别代表“良性”,“接近良性”,“一个疑似症状”,“两个疑似症状”,“3个及以上疑似症状”以及“恶性”。然而,依靠TI-RADS系统对甲状腺结节进行评估耗费时间多、鲁棒性差。另外,由于当前的超声图像学中的癌变结节判据尚不完善,甲状腺结节中回声模式的变化会大大地限制影像师的判别能力[3]。因此,基于超声图像的计算机辅助诊断系统有助于准确、快速地输出TI-RADS分数,对甲状腺结节性质进行判别。

此前的研究集中于从甲状腺超声图像中提取不同人为设计的特征,然后将提取出的特征通过已有的机器学习分类器进行有监督分类。例如Chen等人[4]提出了将纹理特征与病理学特征相结合采用遗传支持向量机对甲状腺结节进行分类,Chang等人[5]利用小波系数、同质性、直方图以及多尺度灰度差作为特征对甲状腺图像进行分类以检测甲亢等疾病,Katsigiannis等人[6]采用基于图像轮廓小波变换的特征对甲状腺超声纹理进行分类,Acharya等人[7]对甲状腺3维超声图像使用复小波变换滤波器提取特征以分类甲状腺肿瘤,Savelonas等人[8]提出采用随机场中的特征来表述甲状腺超声图像中的方向模式并采用有监督分类器来分类甲状腺结节,Iakovidis等人[9]采用一种模糊局部二值模式(LBP)特征对甲状腺超声图像中的纹理进行分类识别。大部分的研究工作使用纹理特征结合支持向量机(SVM)分类器用来完成对结节的检测,基于结节癌变风险对结节的分类以及结节中癌变的种类的判别[10]。在文献[11]中,Acharya等人总结了计算机决定的图像特征对于医疗图像分类问题的重要性和优势。在文章中,采用非医学特征,如组织刚度系数、纹理以及基于离散小波变换的特征,对医疗图像分类的准确率大幅度地高于单独使用图像中的医学特征的分类,如血管分布、边缘空隙、形状、微钙化点等。但传统的特征提取需要人工设计复杂的特征提取方法,提取到的特征维度较高,工作量大且效率较低。

随着机器学习的发展,近年来深度学习成为机器学习研究领域的一大热点。通过深度卷积神经网络(DCNN)[12]提取的图像特征被证明可以有效地应用于图像分类、分割或检索应用中。Hijazi等人[13]提出,与传统的特征提取算法相比,DCNN有以下优势:

1) 基于DCNN的检测和特征提取对于由于摄像机焦距变化、不同的光照条件、不同的姿势、部分遮挡、水平或垂直的偏移等引起的图像扭曲具有良好的鲁棒性;

2) 基于DCNN的特征提取算法计算量相对较低,因为对于不同的输入图像,网络卷积层中的参数保持不变。

基于其在非医疗图像上的优势,DCNN开始被逐渐应用于医疗图像分类和检测问题中。例如,Spanhol等人[14]提出了使用DCNN来分类乳腺癌病理图像,Li等人[15]提出了基于DCNN的肺结节分类系统,Roth等人[16]提出了应用DCNN开发淋巴结检测系统的算法。基于以上的DCNN应用于医疗图像上的成功经验,我们尝试应用DCNN对甲状腺超声图像进行分类。然而,当前用以训练DCNN模型的图像有以下缺陷:

1) 训练图像从不同的医疗机构中收集得到所以数据集中的图像尺度变化过大;

2) 如图 1所示,影像师在图像中所做的人工标记会影响学习过程;

图 1 基于GoogLeNet和ULBP特征的甲状腺结节分类算法流程
Fig. 1 The processing flow of thyroid nodule classification method based on GoogLeNet and ULBP features

3) 训练图像的数据量仍然较小,不足以独立训练完善的卷积神经网络。

因此,提升图像质量,并对已有的卷积神经网络进行迁移学习训练使得网络可以提取医疗图像中的特征是非常必要的。

本文提出对图像进行预处理以提升图像质量,扩展图像样本对一种表现较好的DCNN,即GoogLeNet[17]进行迁移学习,采用参数微调后的DC-NN提取图像的深度特征,并将深度特征与纹理特征融合为联合特征,最后将特征输入至代价敏感随机森林分类器中对甲状腺结节图像进行分类,并对比了当前其他对于甲状腺结节分类算法的分类效果。

1 卷积神经网络

1.1 卷积神经网络模型

卷积神经网络是一个自主监督学习的多层感知器,主要包括输入层、隐含层(卷积层和降采样层)和输出层等,通过反向传导优化网络来更新网络参数。卷积层上将得到多个特征图,每个特征图提取一种特征,特征图像的每一个神经元都与前一层的局部感受野相连接,共享一组权值。经过卷积运算,完成特征提取的过程。由于多个特征图有多个不同的权值,因而得到不同的特征。在训练的过程中,不断通过反向传导更新权值,使得最后的分类结果向着更准确的方向发展。卷积层计算公式为

$ x_j^l = f\left( {\sum\limits_{i \in {\mathit{\boldsymbol{M}}_j}} {x_i^{l - 1} * k_{ij}^l + b_j^l} } \right) $ (1)

式中,${\mathit{\boldsymbol{M}}_j}$是所有输入maps的集合,${K_{ij}}$是卷积核,${b_j}$是每个输入map的偏移量。

降采样层上进行特征图的池化作用,使图像的分辨率降低,特征图数目不变。除了特征维数得到降低之外,对位移、缩放、扭曲的鲁棒性也有一定程度的增强。降采样的公式为

$ x_j^l = f\left( {\beta _j^ld\left( {x_j^{l - 1}} \right) + b_j^l} \right) $ (2)

式中,$d$表示一个下采样函数,${\beta _j}$为权重系数。

1.2 GoogLeNet神经网络

在当前主流的DCNN模型中,GoogLeNet被证明为可以对图像进行很好的分类,GoogLeNet为2014年的ILSVRC的分类冠军,其top 5的错误率为6.7%。GoogLeNet是一个22层的卷积神经网络,其创新地提出了“感知层”的结构。“感知层”可看做一组“内网络”滤波器和层间不同大小的卷积滤波器的组合。每个“内网络”滤波器都连接3×3像素或5×5像素的滤波器,然后送入池化层以及连接层,每一层都有不同尺寸的滤波器以对应输入该层的具有不同分辨率的特征。尽管GoogLeNet深度很大,但它的参数比AlexNet少12倍所以训练的计算更有效率。

尽管GoogLeNet对于自然图像的识别非常优秀,但直接将该网络应用于超声甲状腺结节图像上,由于图像内容与原始训练样本差异过大,网络无法收敛,不能得到很好的分类识别效果。因此,我们需要采用迁移学习的方法,将预处理过的甲状腺超声图像样本输入至预训练好的GoogLeNet进行参数微调使其对甲状腺图像内容更加敏感,再利用微调过的网络对超声甲状腺结节图像进行特征提取,最后将提取的高层次深度特征与低层次纹理特征融合进行图像分类识别。

2 基于GoogLeNet的甲状腺结节分类

本文提出的分类算法过程如图 1所示,主要包括图像预处理、深度卷积神经网络迁移学习、深度特征与纹理特征融合并分类3个部分。

2.1 超声图像预处理

由于数据集中的图像来自于不同医疗设备或机构,因此在使用图像进行神经网络训练之前需要对图像进行预处理以提升其质量。对于超声图像预处理包括图像尺度配准和图像中人工标记去除两个部分。

2.1.1 图像尺度配准

不同来源的超声图像中纹理细节尺度不同,会很大程度影响后续图像特征的学习,因此需要对图像进行尺度的配准使得训练集中的图像具有相同的距离尺度。如图 2(a)(b)所示,首先采用阈值法得到包含图像中疑似比例尺位置的二值图像

$ B\left( {i,j} \right) = \left\{ {\begin{array}{*{20}{c}} \begin{array}{l} 1\\ 0 \end{array}&\begin{array}{l} f\left( {i,j} \right) \ge T\\ f\left( {i,j} \right) < T \end{array} \end{array}} \right. $ (3)

图 2 超声图像中刻度尺位置的检测
Fig. 2 Detection of the position of the scale tick in ultrasound image
((a) original ultrasound image; (b) region of deemed scale tick; (c) image column containing the scale tick)

式中,$f\left( {i, j} \right)$为输入图像在$\left( {i, j} \right)$的像素值,$\mathit{\boldsymbol{B}}$为输出的二值图像,$T$为阈值。

得到疑似的比例尺位置后,求$\mathit{\boldsymbol{B}}$中每一列的自相关函数[18],并找到该列中符合条件的极值点的位置

$ \begin{array}{l} {A_j} = AR\left( {B\left( {;,j} \right)} \right),j \in \left[ {1,n} \right]\\ {S_j} = {A_j}\left( i \right) > \alpha * \max \left( {{A_j}} \right)?i \end{array} $ (4)

式中,$B\left( {:, j} \right)$表示式(3)中得到的二值图像$\mathit{\boldsymbol{B}}$中第$j$列,$AR$为自相关函数,${A_j}$则为$\mathit{\boldsymbol{B}}$中第$j$列的自相关系数,$\max \left( {{A_j}} \right)$${A_j}$的最大值,记录${A_j}$中所有大于$\alpha *\max \left( {{A_j}} \right)$的峰值的位置,构成位置序列${S_j}$图 3(a)(b)分别为图 2(c)中蓝色图像列L1和红色图像列L2的自相关函数。

图 3 不同的图像列的自相关系数
Fig. 3 The auto-correlation coefficients of different image columns
((a) auto-correlation coefficients of image column without scale tick; (b) auto-correlation coefficients of image column with scale tick)

由于图像中的比例尺上有多个刻度点并且分布规律,而其他图像列上像素点分布不规律,因此通过计算位置序列${S_j}$中峰值的位置关系可得到真实的比例尺在图像中的位置和每个刻度之间的像素距离, 即

$ {\Delta _{{s_j}}} = {S_j}\left( {i + 1} \right) - {S_j}\left( i \right),i = 1,2, \cdots ,N - 1 $ (5)

$ P = \left\{ {\begin{array}{*{20}{c}} \begin{array}{l} \frac{{\sum\limits_{i = 1}^N {{\Delta _i}} }}{N}\\ N/a \end{array}&\begin{array}{l} \sigma \left( {{\Delta _{{s_j}}}} \right) \le {T_\sigma }\\ 其他 \end{array} \end{array}} \right. $ (6)

式中,${{\Delta _{{S_j}}}} $${S_j}$中相邻峰值点之间的距离,如果距离的方差$\sigma \left( {{\Delta _{{S_j}}}} \right)$小于阈值${T_\sigma }$,该列为真实的比例尺所在列,而各个相邻峰值点的距离的平均值则为比例尺上每个刻度的像素长度。

计算所有图像的比例尺上刻度的像素长度,并将图像根据像素长度与标准图像中的像素长度的比值进行插值缩放,即可得到具有同样距离尺度的图像集

$ \mathit{\boldsymbol{F}} = s\left( {f,\frac{{{P_f}}}{{{P_n}}}} \right) $ (7)

式中,$s\left( \cdot \right)$表示对图像$f$进行插值缩放,缩放比例为输入图像中刻度长度${P_f}$与标准图像中刻度长度${P_n}$的比值,$\mathit{\boldsymbol{F}}$为输出的具有标准距离尺度的图像。尺度配准的图像如图 4所示,可以看出两张图像中比例尺上每个刻度之间的物理距离(像素数)相同。

图 4 尺度校准后的图像以及其中刻度尺部分
Fig. 4 Images after scale calibration and the regions containing scale bars
((a) image 1; (b) image 2;(c) region with scale bar in Image 1;(d) region with scale bar in image 2)

2.1.2 图像人工标记去除

人工标记主要指超声图像中由影像师所做的对病灶区域的标记。如图 5(a)所示,人工标记会遮挡图像中的纹理部分,影响待分析区域图像的完整性,因此需要将图像中的人工标记去除并复原被遮挡的部分。首先计算出图像中所有非零区域并对其进行标签化,即

图 5 超声图像中的人工标记去除
Fig. 5 The removal of artifacts in the ultrasound image
((a) the image with artifacts in it; (b) the image after removing artifacts; (c) the image after restoration)

$ g\left( {i,j} \right) = \left\{ {\begin{array}{*{20}{c}} \begin{array}{l} 1\\ 0 \end{array}&\begin{array}{l} f\left( {i,j} \right) \ge T\\ f\left( {i,j} \right) < T \end{array} \end{array}} \right. $ (8)

$ \mathit{\boldsymbol{L}} = l\left( \mathit{\boldsymbol{g}} \right) $ (9)

式中,$\mathit{\boldsymbol{f}}$为输入图像,$\mathit{\boldsymbol{g}}$为阈值后的二值图像,$T$为阈值,$l\left( \cdot \right)$为标签化操作,$\mathit{\boldsymbol{L}}$为输出的标签图像。找到$\mathit{\boldsymbol{L}}$中面积最大的区域从$\mathit{\boldsymbol{f}}$中去除,得到疑似标记区域

$ M\left( {i,j} \right) = \left\{ {\begin{array}{*{20}{c}} \begin{array}{l} 0\\ f\left( {i,j} \right) \end{array}&\begin{array}{l} f\left( {i,j} \right) \in {L_{\max }}\\ 其他 \end{array} \end{array}} \right. $ (10)

式中,${L_{\max }}$为具有最大面积的连通域,$\mathit{\boldsymbol{M}}$为输出包含疑似标记区域的图像。计算$\mathit{\boldsymbol{M}}$的灰度直方图并对直方图进行$k$均值聚类[19],得到$k$个灰度区间,每个灰度区间内具有最多分布的灰度值即为标记的灰度值,最后从图像中去除掉满足条件的像素点即得到去除标记的超声图像

$ F\left( {i,j} \right) = \left\{ {\begin{array}{*{20}{c}} \begin{array}{l} 0\\ f\left( {i,j} \right) \end{array}&\begin{array}{l} f\left( {i,j} \right) \in \left\{ {{g_1},{g_2}, \cdots ,{g_k}} \right\}\\ 其他 \end{array} \end{array}} \right. $ (11)

式中,${g_1}$, ${g_2}$, …, ${g_k}$$k$个灰度区域内具有最多分布的灰度值,如图 5(b)所示,$\mathit{\boldsymbol{F}}$为输出的不包含标记的超声图像。

接下来,对$\mathit{\boldsymbol{F}}$中的空白区域采用TV模型[20]估算其修复后的值

$ F_{\rm{o}}^n = \sum\limits_{p \in \Lambda } {H_{{\rm{o}}p}^{n - 1}F_p^{n - 1}} + H_{{\rm{oo}}}^{n - 1}F_{\rm{o}}^{n - 1} $ (12)

式中,${F_{\rm{o}}}$代表当前像素,${F_p}$代表其4邻域像素,系数$H$定义为

$ {H_{{\rm{o}}p}} = \frac{{{w_p}}}{{\sum\limits_{p \in \Lambda } {{w_p} + \lambda } }},{H_{{\rm{oo}}}} = \frac{\lambda }{{\sum\limits_{p \in \Lambda } {{w_p} + \lambda } }} $ (13)

式中, $\lambda $为平滑系数,而${w_p}$的定义为

$ {w_p} = \frac{1}{{\sqrt {{{\left| {\nabla {u_p}} \right|}^2} + {a^2}} }},p \in {\bf{\Lambda }} $ (14)

式中,$\nabla {u_p}$为散度,以右侧邻域为例$\nabla {u_e}$定义为

$ \nabla {u_e} \approx \sqrt {{{\left( {{F_{\rm{E}}} - {F_{\rm{o}}}} \right)}^2} + {{\left[ {\left( {{F_{{\rm{NE}}}} - {F_{{\rm{SE}}}}} \right)/2} \right]}^2}} $ (15)

式中,${F_{\rm{E}}}$${F_{\rm{NE}}}$${F_{\rm{SE}}}$分别代表当前像素的右邻接、右上邻接和右下邻接像素。通过迭代可以得到对于空白区域的估计,如图 5(c)所示,影像师所添加的标记被很好地移除并复原为与周围的组织相似的纹理。

2.2 基于GoogLeNet的迁移学习

原始的GoogLeNet网络是在mnist数据集上进行训练得到的,对于甲状腺结节图像的敏感度不高。

而现有的甲状腺图像数据量不足以训练全新的网络,因此利用现有的图像对已训练过的GoogLeNet进行迁移学习和参数微调以得到对甲状腺图像特征敏感的深度网络。

2.2.1 数据扩展

由于已有数据集的样本量有限,我们需要对每个样本进行扩展。目前主流的对图像样本进行拓展的方法主要包括角度旋转、尺度变换或对比度变换等方法[21],并不适用于医疗图像的扩展。因此本文提出了一种新的数据扩展方法,具体步骤如下:

1) 计算出影像师给定的对于甲状腺结节位置的标记的图像位置;

2) 根据标记的位置计算出甲状腺结节区域的4个边界的坐标(${x_t}$, ${y_t}$),(${x_l}$, ${y_l}$),(${x_b}$, ${y_b}$)和(${x_r}$, ${y_r}$);

3) 如图 6所示,以结节区域为中心,取同时包含结节区域以及其周围组织区域的9个图像部分作为扩展的样本,以左上角区域为例,$W \times W$扩展样本在$m \times n$图像中的坐标区域为

$ {I_1}:I\left( \begin{array}{l} \max \left( {{x_l} - \frac{W}{2},1} \right): \min\left( {{x_l} + \frac{W}{2},m} \right),\\ \max \left( {{y_t} - \frac{W}{2},1} \right): \min\left( {{y_t} + \frac{W}{2},n} \right) \end{array} \right) $ (16)

图 6 训练样本的数据扩展
Fig. 6 Data augmentation of training samples
((a) the ultrasound image containing the lesion area of thyroid nodule; (b) the image of lesion area; (c) augmented sample 1;(d) augmented sample 2; (e) augmented sample 3;(f) augmented sample 4;(g) augmented sample 5;(h) augmented sample 6;(i) augmented sample 7; (j) augmented sample 8;(k) augmented sample 9)

式中,$W$为目标区域的宽度,${x_l}$${y_t}$分别为左侧标记点和上标记点的横坐标和纵坐标。图 6中其他8个区域的坐标可以用类似的方法计算得到。

图 6(c)-(k)所示为使用本文方法对原始图像样本进行扩展的结果。可以看出每个扩展样本同时包含疑似病灶区域和周围组织区域,使得DCNN可以更好地从结节组织本身的纹理和结节组织和其他组织之间的差异中学习甲状腺结节的特征。

2.2.2 迁移学习与参数微调

得到经过预处理后质量提升、经过扩展后数量增大的训练图像样本后,可以对GoogLeNet进行参数微调以得到可以准确学习和提取甲状腺超声图像中特征的深度网络。本文采用Caffe深度学习架构[22]对GoogLeNet网络进行微调,如图 7所示,参数微调的环节为:

图 7 利用扩展数据集对GoogLeNet进行参数微调
Fig. 7 Fine-tuning the parameters of GoogLeNet by using the augmented data-set

1) 训练图像修改为甲状腺结节超声图像;

2) DCNN中Loss1/classifier,Loss2/classifier和Loss3/classifier层的输出,即num_output的值从1 000修改为2,使得网络只学习两类输出以对应两种病例,即良性和恶性。另外,将以上3个网络输出层重新命名使得GoogLeNet中各网络层权重得以重新随机生成而非沿用原始的GoogLeNet中的参数,微调参数的网络层如表 1所示;

表 1 进行参数微调的GoogLeNet网络层
Table 1 The GoogLeNet layers fine-tuned by using the new data-set

下载CSV
进行参数微调的GoogLeNet网络层
conv1/7×7_s2, conv2/3×3_reduce, conv2/3×3
inception_3a/3×3_reduce, inception_3a/3×3, inception_3a/1×1, inception_3a/5×5_reduce, inception_3a/5×5, inception_3a/pool_proj, inception_3b/3×3_reduce, inception_3b/3×3, inception_3b/1×1, inception_3b/5×5_reduce, inception_3b/5×5, inception_3b/pool_proj
inception_4a/3×3_reduce, inception_4a/3×3, inception_4a/1×1, inception_4a/5×5_reduce, inception_4a/5×5, inception_4a/pool_proj, inception_4b/3×3_reduce, inception_4b/3×3, inception_4b/1×1, inception_4b/5×5_reduce, inception_4b/5×5, inception_4b/pool_proj, inception_4c/3×3_reduce, inception_4c/3×3, inception_4c/1×1, inception_4c/5×5_reduce, inception_4c/5×5, inception_4c/pool_proj, inception_4d/3×3_reduce, inception_4d/3×3, inception_4d/1×1, inception_4d/5×5_reduce, inception_4d/5×5, inception_4d/pool_proj, inception_4e/3×3_reduce, inception_4e/3×3, inception_4e/1×1, inception_4e/5×5_reduce, inception_4e/5×5, inception_4e/pool_proj
inception_5a/3×3_reduce, inception_5a/3×3, inception_5a/1×1, inception_5a/5×5_reduce, inception_5a/5×5, inception_5a/pool_proj, inception_5b/3×3_reduce, inception_5b/3×3, inception_5b/1×1, inception_5b/5×5_reduce, inception_5b/5×5, inception_5b/pool_proj

3) 整体的学习速率base_lr从0.01降低到0.001,使得模型的权重不会下降过多过快。

通过对原始的GoogLeNet进行迁移学习得到了对与甲状腺超声图像特征敏感的深度卷积神经网络。之后即可利用该神经网络提取图像特征并对甲状腺图像进行分类。

2.3 融合深度特征与浅层纹理的甲状腺超声图像分类

深度神经网络可以直接对图像进行分类,但并未利用到图像的低层次特征。考虑到医疗图像中具有大量的纹理等低层次特征,本文利用深度神经网络从图像提取深度特征并与纹理特征融合,然后使用代价敏感分类器对图像进行分类。

2.3.1 基于旋转不变性局部二值模式(ULBP)的图像浅层纹理特征提取

旋转不变性局部二值模式(ULBP)[23]可以作为图像浅层特征对超声图像中的纹理特征进行准确地描述。对于图像中的任意像素点(${x_c}$, ${y_c}$), 它的LBP编码遵循定义为

$ {B_{P,R}}\left( {{x_c},{y_c}} \right) = \sum\limits_{p = 0}^P {S\left( {{n_p} - {n_c}} \right) \times {2^p}} $ (17)

式中,$S\left( \cdot \right)$定义为

$ S\left( x \right) = \left\{ {\begin{array}{*{20}{c}} \begin{array}{l} 1\\ 0 \end{array}&\begin{array}{l} \left| x \right| \ge {T_{{\rm{LBP}}}}\\ \left| x \right| < {T_{{\rm{LBP}}}} \end{array} \end{array}} \right. $ (18)

式中,${n_c}$为邻域中心点(${x_c}$, ${y_c}$)的像素值,${n_p}$为以中心点为圆心半径为$R$的圆上的第$p$个像素点的像素值,${T_{{\rm{LBP}}}}$为一小正值用以增强LBP对于图像中平滑区域描述的鲁棒性。

得到任意像素点的LBP代码后,对其进行循环右位移,得到具有最小值的LBP转译代码即可得到具有旋转不变性的局部二值模式。对图像中所有点进行以上计算,并统计局部二值模式的转译值的直方图作为该图像的浅层纹理特征。

2.3.2 基于深度特征与纹理特征的融合特征

给定1幅待分类甲状腺结节超声图像,将其输入至微调过的GoogLeNet中,网络的pool5/7×7_s1层的输出即为图像的深度特征,如图 8(a)所示,深度特征的维数为1 024。

图 8 图像深度特征与浅层纹理特征融合
Fig. 8 Feature fusion of deep features and ULBP texture features of the image
((a) deep features of the image; (b) ULBP texture features of the image; (c) fused features of uniformed deep features and ULBP features)

对于图像的浅层纹理特征,采用ULBP[23]作为图像的纹理特征,如图 8(b)所示,ULBP特征的维数为59。将两部分特征分别做归一化然后级联即可得到如图 8(c)所示的图像的高低层次融合特征

$ {{\tilde F}_{{\rm{high}}}} = \frac{{{F_{{\rm{high}}}} - F_{{\rm{high}}}^{\min }}}{{F_{{\rm{high}}}^{\max } - F_{{\rm{high}}}^{\min }}} $ (19)

$ {{\tilde F}_{{\rm{low}}}} = \frac{{{F_{{\rm{low}}}} - F_{{\rm{low}}}^{\min }}}{{F_{{\rm{low}}}^{\max } - F_{{\rm{low}}}^{\min }}} $ (20)

$ F = \left\{ {{{\tilde F}_{{\rm{high}}}},{{\tilde F}_{{\rm{low}}}}} \right\} $ (21)

式中,${{\tilde F}_{{\rm{high}}}}$表示深度特征${F_{{\rm{high}}}}$归一化后的值,$F_{{\rm{high}}}^{\min }$$F_{{\rm{high}}}^{\max }$分别为归一化前深度特征向量中的最小值和最大值,${{\tilde F}_{{\rm{low}}}}$${F_{{\rm{low}}}}$$F_{{\rm{high}}}^{\min }$$F_{{\rm{high}}}^{\max }$则分别表示纹理特征的归一化后的值,未归一化的值,未归一化的特征向量最小和最大值,$F$表示将深度特征与纹理特征相融合的联合特征,用以对图像进行分类。

2.3.3 基于代价敏感随机森林分类器的甲状腺超声图像分类

由于甲状腺结节图像的良性和恶性病例分布很不平衡,所以本文采用代价敏感随机森林算法[24]对图像进行分类。

针对本文的甲状腺结节良恶性分类问题,假设恶性(+或者+1)表示少数类,良性(-或者-1)表示多数类,一个病例本应属于类别$j$,但被错误分类为类别$i$的代价为$C\left( {i, j} \right)$。代价敏感分类以最小化无分类代价建立模型:

$ \begin{array}{*{20}{c}} {H\left( {x,y} \right) = \arg \mathop {\min }\limits_{i,j} \left( {\sum {P\left( {j\left| x \right.} \right)C\left( {i,j} \right)} + } \right.}\\ {\left. {P\left( {i\left| y \right.} \right)C\left( {j,i} \right)} \right)} \end{array} $ (22)

式中,$P\left( {j\left| x \right.} \right)$$P\left( {i\left| y \right.} \right)$是把病例$x$分类为类别$j$和把病例$y$分类为类别$i$的后验概率。接下来在随机森林中引入以上代价因子即可处理不平衡的数据分类,算法流程如下:

1) 通过Bagging方法获得Bootstrap数据集;

2) 对每个Bootstrap数据集建立不剪枝的分类回归(CART)决策树,在CART决策树中的Gini指数计算中引入代价因子

$ {I_C}\left( t \right) = \sum\limits_{ij} {{C_{ij}}p\left( {i/t} \right)p\left( {j/t} \right)} $ (23)

式中,${C_{ij}}$代表误分类代价。

在实际应用中,使用WEKA数据分析环境[25]实现代价敏感随机森林分类算法,只需要确定决策树的数量和代价敏感矩阵即可。

3 实验

对提出的基于深度特征和纹理特征融合的甲状腺结节超声图像分类系统的效果进行测试。

3.1 实验数据来源

使用的甲状腺结节超声图像数据来自于Pedraza等人[26]提供的开源数据库。数据库由428幅560×360像素超声图像组成,其中357幅为恶性病例(TI-RADS分数为3,4a,4b或5),71幅为良性病例(TI-RADS分数为1或2)。图像是从TOSHIBA Nemio 30和TOSHIBA Nemio MX超声仪器以12 MHz的频率采集的甲状腺超声视频序列中抽取得到的。另外,数据库中包含大部分的病理学特征和由活检和BETHESDA系统得到的病理诊断。TI-RADS分数是由专业医师独立地对图像进行描述得到的。如表 2所示,将428幅病例图进行7次随机分组并进行数据扩展,每次分组保证其中306幅(扩展后得到306×9=2 754幅样本图像)用来对GoogLeNet进行训练,61幅(扩展后得到61×9=549幅样本图像)用来对GoogLeNet进行验证,61幅(扩展后得到61×9=549幅样本图像)作为测试数据集。

表 2 数据集中训练、验证和测试样本分布(以一组为例)
Table 2 The distribution of training, validating and testing samples in data-set (one group)

下载CSV
总数恶性良性
病例样本病例样本病例样本
训练3062 7542562 30450450
验证61549514591090
测试61549504501199

3.2 实验步骤与评估标准

本文的实验步骤如下:

1) 对数据集中的甲状腺结节图像采用本文提出的算法进行分类;

2) 通过10折交叉验证(10-fold cross validation),计算相关评估指标并与其他算法相比较以评价基于深度学习的甲状腺结节图像分类算法效果。在同一数据集上比较了当前主流的甲状腺结节图像分类算法,同时也比较了各算法在其他数据集(非开源)上的表现。

对于代价敏感随机森林分类器,我们将决策树数量设置为10,而代价矩阵则根据数据集中良性和恶性病例的数量的比例确定,即$C\left( { - , + } \right) = \frac{{357}}{{71}}$$C\left( { + , - } \right) = \frac{{71}}{{357}}$

对于分类的结果,采用正确率、敏感性、特异性以及ROC曲线下面积进行评估,具体定义为

$ ACC = \frac{{TP + TN}}{{TP + FP + FN + TN}} $ (24)

$ SENS = \frac{{TP}}{{TP + FN}} $ (25)

$ SPEC = \frac{{TN}}{{TN + FP}} $ (26)

式中, $ACC$$SENS$$SPEC$分别表示正确率、敏感性和特异性,$TP$$TN$$FP$$FN$分别表示分类得到的真阳性、真阴性、假阳性和假阴性的数目。

3.3 实验结果分析与讨论

3.3.1 给定数据集的分类结果

对3.1中得到7组数据集分别进行3.2中的实验并计算指标,最后求7组指标的均值即为本文提出的分类算法对于测试数据集的分类正确率、敏感性、特异性以及ROC曲线下面积。表 3为本文提出的算法与其他各算法对测试集的分类正确率、敏感性、特异性以及最大ROC曲线下面积,而图 9为对应的ROC曲线。本文提出的算法对于数据集的分类可达到正确率99.15%,敏感性99.70%,特异性95.85%,下面积0.997 0,均优于对比方法,而ROC曲线也更贴近于区域左上角,说明本文提出的算法可以同时保证高敏感性和高特异性,对良恶性结节均有准确的判别。

图 9 对测试数据集采用不同图像分类算法进行分类的ROC曲线
Fig. 9 The ROC curves of applying different image classification methods to classify images in the testing data-set

表 3 各分类算法在开源测试数据集中的分类效果比较
Table 3 Comparison of the effects of classifying testing data by different methods (same data-set)

下载CSV
算法准确率/%敏感性/%特异性/%AUC
Acharya[7]97.1297.3692.180.982 0
Ekta[27]98.2999.1093.900.995 0
Lim[28]93.0893.8591.150.962 0
Savelonas[29]92.0692.1384.560.941 0
Iakovidis[30]96.6896.7892.840.975 0
Legakis[31]92.2092.7983.750.948 0
Luo[32]87.2987.5076.900.927 0
本文99.1599.7395.850.997 0

3.3.2 当前其他甲状腺结节分类效果比较

虽然当前其他评价甲状腺结节图像分类算法的数据集并未开源,但其准确率仍然可以作为参考来评价本文提出的算法。表 4中为各个分类算法所使用的特征、分类器、数据集大小以及准确率。

表 4 各分类算法在各自测试数据集中的分类效果比较
Table 4 Comparison of the effects of classifying testing data by different methods (different data-sets)

下载CSV
算法所用特征分类器测试数量准确率/%
Lim[28]尺寸、回波率、囊变人工神经网络19093.78
Savelonas[29]形状特征k近邻17393.00
Iakovidis[30]模糊灰度直方图SVM25097.50
Legakis[31]纹理特征、形状特征SVM14293.20
Luo[32]小波能量谱LDA9887.50
Acharya[7]高阶波谱模糊分类器8099.10
本文深度特征、纹理特征代价敏感随机森林54999.15

可以看出本文算法首先提出了用深度学习的方法对甲状腺结节图像进行分类并且正确率高于其他算法。尽管无法与其他算法模型进行直接比较,但可以反映出本文提出的基于深度学习的算法可以在更大的数据集上对甲状腺结节超声图像进行更准确地癌变风险评估。

4 结论

本文针对甲状腺结节超声图像提出了一种新的基于深度卷积神经网络的分类算法。对图像进行尺度校准和标记去除以提升训练图像质量,利用高质量的训练图像对已有的GoogLeNet网络进行迁移学习,将深度网络得到的深度特征与图像纹理特征融合得到高层次与低层次兼顾的融合特征,并针对数据集分布不平衡的问题采用了代价敏感随机森林分类器进行分类。实验分析表明本文提出的算法可以有效地提升甲状腺结节超声图像的分类的正确率,降低各类的错分概率,更符合TI-RADS评分系统对于甲状腺结节癌变风险的评估。

本文进一步工作为继续优化算法,扩充数据集以训练全新的对甲状腺图像敏感的深度卷积神经网络,在分类的过程中加入其他不同类型的代价因子,对算法进行持续改进。

参考文献

  • [1] Gaitini D, Evans R M, Ivanac G.Thyroid ultrasound[M]//Dietrich C F.EFSUMB-European Course Book.Germany: EFSUMB, 2011.
  • [2] Kwak J Y, Han K H, Yoon J H, et al. Thyroid imaging reporting and data system for us features of nodules:a step in establishing better stratification of cancer risk[J]. Radiology, 2011, 260(3): 892–899. [DOI:10.1148/radiol.11110206]
  • [3] Lingam R K, Qarib M H, Tolley N S. Evaluating thyroid nodules:predicting and selecting malignant nodules for fine-needle aspiration (FNA) cytology[J]. Insights into Imaging, 2013, 4(5): 617–624. [DOI:10.1007/s13244-013-0256-6]
  • [4] Chen S J, Chang C Y, Chang K Y, et al. Classification of the thyroid nodules based on characteristic sonographic textural feature and correlated histopathology using hierarchical support vector machines[J]. Ultrasound in Medicine and Biology, 2010, 36(12): 2018–2026. [DOI:10.1016/j.ultrasmedbio.2010.08.019]
  • [5] Chang C Y, Liu H Y, Tseng C H, et al. Computer-aided diagnosis for thyroid graves' disease in ultrasound images[J]. Biomedical Engineering:Applications, Basis and Communications, 2010, 22(2): 91–99. [DOI:10.4015/S1016237210001815]
  • [6] Katsigiannis S, Keramidas E G, Maroulis D. A contourlet transform feature extraction scheme for ultrasound thyroid texture classification[J]. International Journal of Engineering Intelligent Systems for Electrical Engineering and Communications, 2010, 18(3-4): 171.
  • [7] Acharya U R, Sree S V, Swapna G, et al. Effect of complex wavelet transform filter on thyroid tumor classification in three-dimensional ultrasound[J]. Proceedings of the Institution of Mechanical Engineers, Part H:Journal of Engineering in Medicine, 2013, 227(3): 284–292. [DOI:10.1177/0954411912472422]
  • [8] Savelonas M A, Iakovidis D K, Dimitropoulos N, et al.Computational characterization of thyroid tissue in the radon domain[C]//The Twentieth IEEE International Symposium on Computer-Based Medical Systems.Maribor, Slovenia: IEEE, 2007: 189-192.[DOI: 10.1109/CBMS.2007.33]
  • [9] Iakovidis D K, Keramidas E G, Maroulis D.Fuzzy local binary patterns for ultrasound texture characterization[C]//Proceedings of the 5th International Conference on Image Analysis and Recognition.Póvoa de Varzim, Portugal: Springer, 2008: 750-759.[DOI 10.1007/978-3-540-69812-8_74]
  • [10] Chang C Y, Chen S J, Tsai M F. Application of support-vector-machine-based method for feature selection and classification of thyroid nodules in ultrasound images[J]. Pattern Recognition, 2010, 43(10): 3494–3506. [DOI:10.1016/j.patcog.2010.04.023]
  • [11] Acharya U R, Swapna G, Sree S V, et al. A review on ultrasound-based thyroid cancer tissue characterization and automated classification[J]. Technology in Cancer Research & Treatment, 2014, 13(4): 289–301. [DOI:10.7785/tcrt.2012.500381]
  • [12] Krizhevsky A, Sutskever I, Hinton G E.ImageNet classification with deep convolutional neural networks[C]//Proceedings of the 25th International Conference on Neural Information Processing Systems.Lake Tahoe, Nevada: Curran Associates Inc., 2012: 1097-1105.
  • [13] Hijazi S, Kumar R, Rowen C.Using convolutional neural networks for image recognition[R].Cadence Design Systems, Inc., San Jose, CA, USA,, 2015.
  • [14] Spanhol F A, Oliveira L S, Petitjean C, et al.Breast cancer histopathological image classification using convolutional neural networks[C]//Proceedings of 2016 International Joint Conference on Neural Networks.Vancouver, BC, Canada: IEEE, 2016: 2560-2567.[DOI: 10.1109/IJCNN.2016.7727519]
  • [15] Li W, Cao P, Zhao D Z, et al. Pulmonary nodule classification with deep convolutional neural networks on computed tomography images[J]. Computational and Mathematical Methods in Medicine, 2016, 2016. [DOI:10.1155/2016/6215085]
  • [16] Roth R H, Lu L, Seff A, et al.A new 2.5D representation for lymph node detection using random sets of deep convolutional neural network observations[C]//Proceedings of the 17th International Conference on Medical Image Computing and Computer-Assisted Intervention.Boston, MA, USA: Springer, 2014: 520-527.[DOI: 10.1007/978-3-319-10404-1_65]
  • [17] Szegedy C, Liu W, Jia Y Q, et al.Going deeper with convolutions[C]//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition.Boston, MA, USA: IEEE, 2015: 1-9.[DOI: 10.1109/CVPR.2015.7298594]
  • [18] Dunn P F. Measurement and Data Analysis for Engineering and Science[M]. New York: McGraw-Hill, 2005.
  • [19] Lloyd S P. Least squares quantization in PCM[J]. IEEE Transactions on Information Theory, 1982, 28(2): 129–137. [DOI:10.1109/TIT.1982.1056489]
  • [20] Osher S, Burger M, Goldfarb D, et al. An iterative regularization method for total variation-based image restoration[J]. Multiscale Modelling & Simulation, 2005, 4(2): 460–489. [DOI:10.1137/040605412]
  • [21] Gando G, Yamada T, Sato H, et al. Fine-tuning deep convolutional neural networks for distinguishing illustrations from photographs[J]. Expert Systems with Applications, 2016, 66: 295–301. [DOI:10.1016/j.eswa.2016.08.057]
  • [22] Jia Y Q, Shelhamer E, Donahue J, et al.Caffe: convolutional architecture for fast feature embedding[C]//Proceedings of the 22nd ACM International Conference on Multimedia.Orlando, Florida, USA: ACM, 2014: 675-678.[DOI: 10.1145/2647868.2654889]
  • [23] Ojala T, Pietikainen M, Maenpaa T. Multiresolution gray-scale and rotation invariant texture classification with local binary patterns[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2002, 24(7): 971–987. [DOI:10.1109/TPAMI.2002.1017623]
  • [24] Zadrozny B, Langford J, Abe N.Cost-sensitive learning by cost-proportionate example weighting[C]//Proceedings of the 3rd IEEE International Conference on Data Mining.Melbourne, FL, USA: IEEE, 2003: 435-442.[DOI: 10.1109/ICDM.2003.1250950]
  • [25] Witten I H, Frank E. Weka:Practical machine learning tools and techniques with Java implementations[J]. ACM Sigmod Record, 1999, 31(1): 76–77.
  • [26] Pedraza L, Vargas C, Narváez F, et al.An open access thyroid ultrasound image database[C]//Proceedings of SPIE Volume 9287, 10th International Symposium on Medical Information Processing and Analysis.Cartagena de Indias, Colombia: SPIE, 2015: #92870W.[DOI: 10.1117/12.2073532]
  • [27] Bhullar E W, Babyn P, Groot G, et al.A deep learning approach to thyroid nodule classification in sonographic images[C]//Proceedings of 2016 Scientific Conference on Machine Intelligence in Medical Imaging.Alexandria, VA, USA: C-MIMI, 2016.
  • [28] Lim K J, Choi C S, Yoon D Y, et al. Computer-aided diagnosis for the differentiation of malignant from benign thyroid nodules on ultrasonography[J]. Academic Radiology, 2008, 15(7): 853–858. [DOI:10.1016/j.acra.2007.12.022]
  • [29] Savelonas M, Maroulis D, Sangriotis M. A computer-aided system for malignancy risk assessment of nodules in thyroid US images based on boundary features[J]. Computer Methods and Programs in Biomedicine, 2009, 96(1): 25–32. [DOI:10.1016/j.cmpb.2009.04.001]
  • [30] Iakovidis D K, Keramidas E G, Maroulis D. Fusion of fuzzy statistical distributions for classification of thyroid ultrasound patterns[J]. Artificial Intelligence in Medicine, 2010, 50(1): 33–41. [DOI:10.1016/j.artmed.2010.04.004]
  • [31] Legakis I, Savelonas M A, Maroulis D, et al. Computer-based nodule malignancy risk assessment in thyroid ultrasound images[J]. International Journal of Computers and Applications, 2011, 33(1): 29–35. [DOI:10.2316/Journal.202.2011.1.202-2955]
  • [32] Luo S, Kim E H, Dighe M, et al. Thyroid nodule classification using ultrasound elastography via linear discriminant analysis[J]. Ultrasonics, 2011, 51(4): 425–431. [DOI:10.1016/j.ultras.2010.11.008]