Print

发布时间: 2020-10-25
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.200245
2020 | Volume 25 | Number 10




    超声图像    




  <<上一篇 




  下一篇>> 





乳腺超声肿瘤动态噪声指数及分割算法
expand article info 邹海鹏1, 龚勋1, 胡毕杰1, 罗俊2
1. 西南交通大学信息科学与技术学院, 成都 610031;
2. 四川省医学科学院, 四川省人民医院, 成都 610072

摘要

目的 深度学习在各种语义分割任务中取得了优异的性能,但需要大量带有准确标注的训练样本。乳腺超声由于其成像特点,导致图像对比度和分辨率低、斑点噪声较高、组织间边界模糊等,这些问题导致精确标注十分困难。超声分割数据集中存在较多非准确的标注,这些数据即标注噪声。若训练集中包含一定量的噪声,将会极大地影响网络的分割准确度。为了解决该问题,提出了一种针对超声图像的动态噪声指数及分割算法,实现在乳腺超声数据包含噪声的情况下肿瘤区域的准确分割。方法 针对超声图像的噪声特点提出动态噪声指数(dynamic noise index,DNI);在网络训练过程中实时更新DNI,并在每次迭代结束后计算整个训练集的DNI分布,进而实现对噪声数据的可检测;提出一个改进的损失函数以增强网络噪声检测性能,同时结合DNI降低噪声对训练反向传播的影响。最后本文将动态噪声指数和改进的损失函数联合形成一个噪声容忍框架,该框架可以应用于其他分割网络。结果 本文将噪声容忍框架和多种分割网络进行结合,并在两个数据集上进行实验。公开数据集的实验结果显示,增加噪声容忍框架的网络相比于原网络各指标提高了8%~12%。本文构建了一个包含1 805幅图像的乳腺超声肿瘤分割数据集,结合噪声容忍框架之后的网络各指标也取得了4%~7%的提升。结论 本文提出的动态噪声指数及分割算法针对不同噪声比例的训练数据集,对噪声均能有效地抑制,并取得稳定的分割性能。

关键词

乳腺超声图像; 乳腺肿瘤分割; 噪声注释; 深度学习; 损失函数

Dynamic noise index and segmentation algorithm for breast ultrasound tumor
expand article info Zou Haipeng1, Gong Xun1, Hu Bijie1, Luo Jun2
1. School of Information Science and Technology, Southwest Jiaotong University, Chengdu 610031, China;
2. Sichuan Academy of Medical Sciences, Sichuan Provincial People's Hospital, Chengdu 610072, China
Supported by: National Natural Science Foundation of China (61876158); Sichuan Science and Technology Program (2019YFS0432)

Abstract

Objective Breast cancer has become one of the highest mortality rates in women. The incidence rate of breast cancer has been increasing in recent years. Early diagnosis of breast cancer is the key to treatment and control. Clinical data show that early diagnosis can reduce the mortality by 40%. Medical ultrasound has high accuracy, without trauma and radiation to the body, and requires extremely low cost. Therefore, ultrasound is often used as the first choice in medical diagnosis. Computer-aided diagnosis combines the powerful analysis and calculation ability of computers with medical image processing, thereby immensely improving the working efficiency and reducing the missed diagnosis and misdiagnosis. Deep learning has achieved excellent performance in various semantic segmentation tasks, and its accuracy is far beyond the traditional method. A common application of deep learning is focus segmentation. The focus area is the location of the lesion, which is usually part of the entire ultrasound image. Before diagnosis, the focus area is divided as the region of interest. On the one hand, it can reduce the amount of computation to improve the speed of the algorithm. On the other hand, it can reduce the background interference to improve the accuracy of the algorithm. The training of deep learning needs a large number of training samples with accurate labels. The precise location and segmentation of the focus area need to be manually labeled. Breast ultrasound results in low contrast and resolution, high speckle noise, and blurry boundary between tissues because of its imaging characteristics. These problems make accurate labeling extremely difficult. At present, breast ultrasound is the common method for experienced doctors to accurately label the focus area. However, this labor-intensive work aggravates the workload of doctors and seriously affects the diagnosis efficiency of doctors. Thus, studying the automatic location and segmentation of the focus area in ultrasound images is of great significance. Although the ultrasonic segmentation data set marked by doctors is uncleaned many times, many inaccurate marks are found in the data set, which are called mark noise. The training set will immensely affect the accuracy of network segmentation when it contains a certain amount of noise. To solve this problem, this paper proposes a dynamic noise index (DNI) and a novel loss function to achieve the segmentation of breast ultrasound tumor in noisy environment. Method In this paper, DNI is proposed to realize the detectability of noise. The DNI is then updated in real time during network training. At the end of each iteration, the DNI distribution of the entire training set is calculated. The detection of noise data is realized through the monitoring of data distribution. This paper proposes an improved loss function to enhance the performance of network noise detection. This loss function combines DNI to reduce the influence of noise on training back propagation. To verify the effectiveness of the algorithm, the DNI and the improved loss function are combined to form a noise tolerance framework. The framework can be applied to all types of segmented networks. The experiment is designed into two datasets, namely, open breast tumor segmentation dataset of Breast Ultrasound Images (DBUI) and Noisy Breast Ultrasound Image Dataset (NBUID). NBUID consists of 1 305 rough labeled breast tumor images. The validation and test sets consist of 500 exact annotation samples. Five hundred samples cover different nodule shapes (round, elliptical, irregular, lobulated, etc.), different nodule sizes, different nodule boundaries, different internal echoes, and different growth sites. 350 of them are test sets, and 150 are verification sets. Result In this paper, the noise tolerance framework is combined with three segmentation networks, namely, U-net, PSPNet, and FastFCN. The test results of DBUI30 show that the network with noise tolerance framework is 8%~12% higher than the original network. This paper constructs a data set of 1 805 images of breast ultrasound tumor segmentation. Combined with the noise tolerance framework, the performance of the network is improved by 4%~7%. Conclusion The proposed DNI and segmentation algorithm can effectively suppress noise and achieve stable segmentation performance for training data sets with different noise ratios.

Key words

breast ultrasound; breast tumor segmentation; noise annotation; deep learning; loss function

0 引言

医学影像正朝着绿色无辐射的方向发展,而医学超声由于其准确、无创、无辐射和低成本等优点,在医疗诊断中常作为首选方法。医学超声广泛应用于对乳腺肿瘤、甲状腺肿瘤、血管瘤等人体器官病变的诊断。乳腺癌的早期诊断是治疗控制的关键。研究表明,早期诊断出病症能降低40%的死亡率(Cheng等,2010)。临床上,医生需要利用肿瘤的形状、大小和回声等特征信息来对病变区域进行诊断。然而现阶段,特征信息的获取手段主要依赖于医生的经验,特别是肿瘤的标记和测量。

近年来,计算机辅助诊断(computer aided detection,CAD)将计算机强大的分析计算能力与医学图像处理相结合,极大提高了工作效率,减少了漏诊和误诊情况。计算机辅助诊断使用的模型需要大量数据的训练,一个高质量的数据集对深度学习是非常重要的。然而医学图像和传统图像相比,数据量十分稀缺。目前,只有DBUI (dataset of breast ultrasound images)被认为是准确标注肿瘤区域的公开乳腺超声图像数据集,其中也仅仅包含780个样本。而常见的传统分割数据集PASCAL VOC 2012中就包含2 913个语义分割样本,共6 929个自然物体(Al-Dhabyani等,2020)。

图 1所示,和自然图像对比,超声成像具有对比度低、肿瘤边界模糊的特点,人们在对数据集进行标注的时候,由于边界不清晰,容易导致标注区域与实际病变区域存在误差。图 2展示了两种最常见的噪声。标注医学超声图像需要一定的专业知识,人工对超声图像注释进行清洗的代价非常大。因此,研究能抑制噪声的算法十分必要。

图 1 不同目标物体的边界对比图
Fig. 1 Boundary comparison of different objects
((a) ultrasound tumor; (b) human; (c) animal)
图 2 数据集中的两种噪声注释
Fig. 2 Two kinds of noise annotation in dataset
((a) real tumor areas; (b) annotated tumor areas)

在图像分类领域,对标签噪声的研究已经进行了较长时间,并取得了不错的成果。Goldberger和Ben-Reuven(2016)借鉴通信中的信道模型,利用EM(expectation-maximization)算法寻找网络中的正确标签,提出用softmax层替换线性层,增加了模型的稳定性。Zhang等人(2016)提出深度神经网络很容易拟合噪声标签,噪声会让模型训练结果的不确定性增加。许多学者在这个基础上展开了研究,如Hu等人(2019a)利用干净的标签数据进行辅助预训练一个非线性分类器,实现噪声标签和真实标签的映射关系。非线性分类器方法虽然在分类任务中取得不错的结果,但这种映射关系很难在分割任务中实现。也有文献利用多阶段学习,在网络学习到区分噪声的能力之后开始动态识别并处理噪声。Wu等人(2018)根据多个训练阶段的数据分布区间,对噪声数据进行清洗。

目前仍缺少针对分割的噪声处理方法。现有的分类噪声处理方法通常都有先决条件或损失函数限制,不能很好地应用于分割任务中。针对上述问题,本文提出噪声容忍的乳腺超声肿瘤分割框架(segmentation framework of noise tolerance,SFONT)。该框架由两部分组成:动态噪声指数和动态噪声约束损失(dynamic noise constraint loss,DNC-Loss)。如图 3所示,基于阶段学习思想,本文的乳腺超声肿瘤分割算法主要分为两步,首先在骨干分割网络上进行数据的分割训练,每次迭代完成利用DNI动态检测数据分布。当干净数据和噪声数据的分隔距离满足条件时,利用动态噪声约束损失实现对噪声的抑制。

图 3 本文算法框架
Fig. 3 Overview of the proposed method

本文创新主要有以下两点:

1) 提出一种针对乳腺超声图像的噪声检测方法。在模型训练过程中,通过网络的输出和样本原始注释计算动态噪声指数来代表样本是噪声的概率,并在训练过程中动态更新。

2) 提出一种基于噪声检测的动态噪声约束损失函数。该损失函数能抑制噪声数据对网络的干扰,使得在训练集包含一定量噪声的情况下,网络依然能取得可靠的性能。

1 相关工作

1.1 乳腺超声肿瘤分割

深度卷积神经网络(deep convolution neural network,DCNN)在计算机视觉方向发展迅速,在自然图像的图像分类、物体检测和语义分割等具体任务上展现了强大的图像处理能力。在医学图像处理领域,DCNN也取得了不错的效果,相关研究成果逐渐增多,例如肿瘤良恶性分类、肿瘤检测和分割等。Yap等人(2018)在研究DCNN性能时,使用U-Net(Ronneberger等,2015)、LeNet(LeCun等,1998)和FCN-AlexNet(Krizhevsky等,2012)检测乳腺超声肿瘤。在该实验中FCN-AlexNet取得了最好的分割性能。Huang等人(2018)在乳腺超声图像分割研究中结合医学知识约束分割结果,该方法训练全卷积网络时使用小波变换信息预处理增强图像,乳腺超声图像的语义被划分为3类:乳腺层、肿瘤和背景。应用层级结构信息,在条件随机场中联合了乳腺癌位于乳腺层内的医学先验知识,此联合方法作为DCNN的后处理完成乳腺癌分割。该方法在325例超声图像的数据集上取得了不错的分割性能。

Huang等人(2020)结合超像素语义分类分割乳腺肿瘤。该方法首先选择两个对角点在原始图像上裁剪感兴趣区域。利用简单线性迭代聚类(simple linear iterative clustering, SLIC)将裁剪后的图像分割成多个超像素。然后利用反向传播网络(back propagation network,BPNN)进行初始分类。最后,利用K近邻(k-nearest neighbor,KNN)进行再分类,得到分割结果。

以上分割方法都是在干净数据集中进行实验。在面对数据集包含噪声的场景,这些方法并不能取得很好的效果。本文在对超声图像肿瘤分割任务细致研究后,结合阶段学习相关知识提出了噪声容忍的乳腺超声肿瘤分割框架SFONT。使用SFONT能降低噪声对网络训练的干扰,节省数据清洗时间,从而降低数据集构建难度。

1.2 抗噪声学习

抗噪声学习的目标是减小数据集中的噪声数据影响,尽可能提高网络性能。有许多针对噪声进行学习的方法不断被提出,常见的有两类,更改损失函数去训练一个噪声容忍网络和增加判断数据类型的网络结构。为了达到去除噪声的目的,大多数方法都会建立一个附加的网络来校正噪声数据标签。例如,利用噪声数据训练线性分类器,形成错误标签和真实标签的映射(Hu等,2019a)。使用无监督算法生成噪声数据的权重。同时利用标记的真实值和预估值之间的差异作为样本的噪声可能性(Liu等,2017)。然而,在分割任务中,很难找到噪声数据和干净数据之间的联系。

为了避免额外的计算开销,可以通过修改CNN(convolution neural network)网络或损失函数来训练更好的噪声容忍模型。例如,在训练过程中,将大量的干净数据打包并混合到训练数据集中,得到一个干净的数据分布区间。Yi和Wu(2019)根据多个训练阶段的分布区间对噪声数据进行清洗。Hu等人(2019b)利用加权范式,通过cos函数的分布来调整样本的权重。这种权重范式可以通过cos函数分布动态增加部分样本训练权重。

2 本文算法

2.1 动态噪声指数

在超声分割问题中,训练集由两部分构成, $\mathit{\boldsymbol{X}} = \left\{ {{\mathit{\boldsymbol{x}}_1}, {\mathit{\boldsymbol{x}}_2}, \cdots {\mathit{\boldsymbol{x}}_n}} \right\}$$\mathit{\boldsymbol{Y}} = \left\{ {{\mathit{\boldsymbol{y}}_1}, {\mathit{\boldsymbol{y}}_2}, \cdots {\mathit{\boldsymbol{y}}_n}} \right\}$。理想情况下每幅2维超声图像${\mathit{\boldsymbol{x}}_i}$都有一幅准确的肿瘤掩模图像${\mathit{\boldsymbol{y}}_i}$。然而在本文研究的场景中,掩模图像可能是错误的。检测数据集中包含的噪声有多种方法,本文进行了不同的实验。交并比(intersection over union,IoU)是常见的医学分割代价函数,计算为

$ I = \frac{{|\{ \mathit{\boldsymbol{y}} = c\} \cup \{ \mathit{\boldsymbol{\hat y}} > d\} |}}{{|\{ \mathit{\boldsymbol{y}} = c\} \cap \{ \mathit{\boldsymbol{\hat y}} > d\} |}} $ (1)

式中,$\mathit{\boldsymbol{y}}$代表手工标注的乳腺结节掩模图像,${\mathit{\boldsymbol{\hat y}}}$代表整个图像的模型预测输出。$c$的值为类别标签, 1代表肿瘤,0代表背景。${\{ \mathit{\boldsymbol{y}} = c\} }$}代表取$\mathit{\boldsymbol{y}}$中值为$c$的区域。$d$为阈值,${\{ \mathit{\boldsymbol{\hat y}} > d\} }$表示大于$d$的区域为乳腺结节。本文中$d$取0.5。

本文在IoU的基础上,调整了预测结果在整个公式里的影响,得到了动态噪声指数DNI。计算为

$ D = 1 - \frac{{|\{ \mathit{\boldsymbol{y}} = c\} \cap \{ \mathit{\boldsymbol{\hat y}} > d\} |}}{{|\{ \mathit{\boldsymbol{\hat y}} > d\} |}} $ (2)

利用DNI来判断数据在训练中的分布情况。图 4展示了不同训练阶段,数据集中干净样本和噪声的分布变化。图中实验使用的损失函数为交叉熵(CrossEntropy-Loss),IoU代表的是训练集结果。可以发现,在训练结束时,深度神经网络不仅能拟合干净数据,大部分噪声也能被拟合。但是,噪声数据在训练过程中的分布变化和干净数据是存在区别的。与干净数据相比,噪声拟合速度更为缓慢,因此在网络训练过程中,存在一个特殊的时间点。如图 4(b),大部分干净数据被拟合,而大部分噪声没有被拟合。此时存在3个区域,第1个区域(DNI≤ 0.3)大部分为干净数据,少量噪声数据。第2个区域(0.3 < DNI≤0.5)干净数据和噪声混和在一起。第3个区域(0.5 < DNI)大部分为噪声。基于这个发现,本文在训练过程中采用两条高斯曲线去拟合DNI分布,并得到两个曲线的顶点。将两个顶点横坐标的间隔距离用来控制训练阶段的切换。当顶点间隔距离大于0.4时,损失函数的参数$\mu $开始动态调节以削弱噪声对网络训练的干扰。

图 4 干净样本和噪声在不同训练阶段的DNI分布图
Fig. 4 DNI distribution of clean data and noise in different training stages
((a) data distribution of 37.76% IoU; (b) data distribution of 62.18% IoU; (c) data distribution of 72.62% IoU)

2.2 DNC-Loss

目前分割模型中大多采用计算预测区域与真实区域的交叉熵作为损失函数。交叉熵单独评估每个像素矢量的类预测,然后对所有像素求平均值,所以可以认为图像中的像素被均等学习

$ {L_{{\rm{CE}}}} = - \frac{1}{n}\sum\limits_{i = 1}^n {\sum\limits_{j = 1}^c {{y_{ij}}} } \log {f_j}\left({{\mathit{\boldsymbol{x}}_i};\mathit{\boldsymbol{\theta }}} \right) $ (3)

式中,${{y_{ij}}}$表示第$i$张样本的第$j$类。${{\mathit{\boldsymbol{x}}_i}}$代表乳腺超声图像,$c$表示语义分割任务的分割目标种类数量,本文中$c$取1,表示乳腺肿瘤。$f$是模型的预测,$\mathit{\boldsymbol{\theta }}$是网络的参数集合。

传统的交叉熵易于优化,对不同训练场景的适应能力强。但是,医学图像中常出现类别不均衡(class imbalance)的问题,由此导致训练会被像素较多的类主导,对于较小的物体很难学习到其特征,从而降低网络的有效性。Focal-Loss(Lin等,2017)在目标检测框架中被提出,专为解决类别不均衡问题。整体上看,Focal-Loss中的调节因子降低了简单类别对损失的贡献,对于困难样本的学习更有利。

以上损失函数并不能直接用于抑制噪声,本文结合交叉熵和Focal-Loss提出动态噪声约束损失DNC-Loss。在数据集包含噪声的情况下,为了让模型更好地拟合干净数据,同时减少噪声数据的影响,DNC-Loss通过动态噪声指数值实现对两种数据的区别处理。对于干净数据,DNC-Loss等于Focal-Loss,完成正常的反向传播。如图 5所示,对于噪声数据,DNC-Loss给出一个反向的惩罚指数来减少反向传播梯度。DNC-Loss计算为

$ \begin{array}{l} {L_{{\rm{DNC}}}} = - \frac{1}{n}\sum\limits_{i = 1}^n K L\left({{y_i}\left\| {f\left({{\mathit{\boldsymbol{x}}_i};\mathit{\boldsymbol{\theta }}} \right)} \right.} \right) \end{array} $ (4)

$ \begin{array}{c} KL\left({{y_i}\left\| {f\left({{\mathit{\boldsymbol{x}}_i};\mathit{\boldsymbol{\theta }}} \right)} \right.} \right) = \\ { - \alpha {{\left({1 - f\left({{\mathit{\boldsymbol{x}}_i};\mathit{\boldsymbol{\theta }}} \right)} \right)}^{{\mu _i}}}\log f\left({{\mathit{\boldsymbol{x}}_i};\mathit{\boldsymbol{\theta }}} \right)} \end{array} $ (5)

图 5 DNC-Loss对噪声的抑制和对困难样本的挖掘
Fig. 5 DNC-loss for noise suppression and difficult sample mining

式中,$\alpha $为平衡因子,用来平衡正负样本本身的数量比例不均,本文$\alpha $取2。其中$\mu $>0能有效减少易分类样本的损失,使模型更关注于困难的、错分的样本。与此同时,动态的$\mu $可以降低不同噪声数据的损失,削弱噪声对网络的影响。$\mu $计算为

$ {\mu = \gamma + {\rm{ }}\mathit{relu }\left({{N_i} - \frac{{{\varphi _2} + {\varphi _1}}}{2}} \right) \times \omega } $ (6)

$ {{\rm{ }}\mathit{relu}{\rm{ }}(x) = \left\{ {\begin{array}{*{20}{l}} {x\;\;\;{\kern 1pt} x > 0}\\ {0\;\;\;{\kern 1pt} x \le 0} \end{array}} \right.} $ (7)

式中,$\gamma $为超参数,和$\alpha $一起解决类别不均问题。${{\varphi _1}, {\varphi _2}}$分别代表两个高斯曲线的顶点横坐标。${{N_i}}$代表第$i$个样本的DNI。$\omega $用来控制噪声抑制强度。

3 实验结果与分析

3.1 数据集及评价指标

本文实验数据包含两个数据集。第1个为开源的乳腺超声肿瘤分割数据集DBUI,它包含437个良性结节和210个恶性结节。DBUI包含的样本均为精确标注。为了测试本文算法的噪声检测性能,控制数据总量不变,添加10%、20%、30%和50%的噪声数据。这4个数据集分别命名为DBUI10、DBUI20、DBUI30、DBUI50。10%、20%、30%的噪声比例注重测试网络抵抗噪声的性能变化,50%的噪声比例目的是测试网络的高噪声比例场景下的抗噪声性能,但是在现实中高于50%噪声的数据集极少。添加的噪声如图 6所示。第2个数据集NBUID(noisy breast ultrasound image dataset)为四川省某医院超声科所提供的1 805幅乳腺超声数据。经医生建议,本文挑选了500幅超声图像由资深医生手工标记,且覆盖不同结节形状(圆形、椭圆形、不规则和分叶状等)、不同的结节大小、不同的结节边界情况、不同的内部回声情况和不同生长部位,其中350幅作为测试集,150幅作为验证集。剩下的1 305幅作为实验的训练集,进行手工标注,不进行二次检查。

图 6 添加进DBUI的噪声
Fig. 6 Noise added to DBUI

本文的研究重点是肿瘤分割而不是其他区域。为了使计算和比较结果更加清晰,本文选取了交并比(IoU)、真阳性比(TPR)和假阳性比(FPR)这3个参数作为主要的评价标准。分别定义为

$ \mathit{IoU} = \frac{{|\mathit{\boldsymbol{y}} \cap \mathit{\boldsymbol{\hat y}}|}}{{|\mathit{\boldsymbol{y}} \cup \mathit{\boldsymbol{\hat y}}|}} $ (8)

$ TPR = \frac{{|\mathit{\boldsymbol{y}} \cap \mathit{\boldsymbol{\hat y}}|}}{{|\mathit{\boldsymbol{y}}|}} $ (9)

$ FPR = \frac{{|\mathit{\boldsymbol{y}} \cup \mathit{\boldsymbol{\hat y}} - \mathit{\boldsymbol{y}}|}}{{|\mathit{\boldsymbol{y}}|}} $ (10)

式中,${\mathit{\boldsymbol{\hat y}}}$表示模型预测出来的肿瘤区域,$\mathit{\boldsymbol{y}}$表示标定的肿瘤区域,IoU指标值越高,表示预测结果和标定结果的重合率越高并且不重合的区域越少;TPR指标值越高,表示预测结果覆盖标定结果的程度越高;FPR指标值越低,表示预测结果和非标定区域的重合率越低。

3.2 算法参数分析

本文提出的动态噪声约束损失涉及了2个超参数$\gamma $$\omega $,其中参数$\gamma $用来挖掘难分样本,$则控制框架抑制噪声的强度。为了验证$\gamma $$\omega $的不同选择对分割结果的影响,进行参数分析。

在DBUI30上进行测试实验,选择FastFCN作为骨干分割网络。在实验中,首先固定$\omega $为10,$\gamma $的取值范围为[0, 5]。结果如图 7(a)所示,可以从图上发现$\gamma $的取值在[1, 5]区间内网络均能取得优秀的IoU结果,其中$\gamma $为2的时候网络分割性能最好。然后控制$\gamma $不变,$\omega $∈[2, 20],间隔为2。图 7(b)展示了本文提出的动态噪声约束损失函数对噪声明显的抑制效果,在[2, 10]区间,随着$\omega $值逐渐增大,网络的分割性能也在增加,在$\omega $>10之后分割准确度缓慢下降。

图 7 不同的$\omega $$\gamma $取值在测试集上的IoU
Fig. 7 $\omega $ of different $\gamma $and IoUvalues on the test set
((a) IoUof different $\gamma $values; (b) IoU of different $\omega $values)

3.3 主流算法对比及分析

为验证本文损失函数设计的有效性,对4种不同损失函数进行比较:CrossEntropy-Loss、Dice-Loss、Focal-Loss和DNC-Loss。实验分割网络选择Fast-FCN,配合噪声指数DNI在DBUI30上进行对比。具体实验结果如表 1所示,本文提出的DNC-Loss对乳腺肿瘤的分割交并比为74.04%,真阳性比为81.26%,假阳性比为17.42%,均优于对比算法。从表 1中还可以看出,动态噪声约束损失在面对包含噪声的数据集时具有明显的分割性能优势。对比分割性能第2的Focal-Loss,交并比提升了9%,假阳性比取得了12%的下降。

表 1 不同损失函数在DBUI30上的分割效果比较
Table 1 Comparision of segmentation effects of different loss functions on DBUI30

下载CSV
损失函数 交并比/% 真阳性比/% 假阳性比/%
CrossEntropy-Loss 62.65 69.92 27.53
Dice-Loss 62.93 71.09 30.94
Focal-Loss 64.72 72.85 29.33
DNC-Loss 72.04 81.26 17.42
注:加粗字体为每列最优值。

目前,公开的乳腺数据集十分匮乏。DBUI数据集于2020年发布,目前缺少在该数据上的分割结果。因此本文将主流算法和最新的算法应用于噪声数据集分别测试分割性能和添加SFONT后的性能。本文实验的网络:U-Net(Ronneberger等,2015)、PSPNet(Zhao等,2017)、DeepV3(Chen等,2018)和FastFCN(Wu等,2019)均采用作者提供的源码。结合SFONT时,只修改损失函数部分代码。

表 2提供了在DBUI30中,添加噪声容忍框架和原始网络的分割性能对比,表中数据显示本文提出的算法在各个骨干网络中均取得了可靠的抗噪性能。具体地,在U-Net网络中取得了10%的交并比提升,假阳性比也降低了9%。在PSPNet上抗噪效果最明显,达到12%的交并比提升。为了测试本文算法在不同噪声环境里的抗噪声性能,实验在NBUID、DBUI、DBUI10、DBUI20和DBUI50等5个数据集上进行了测试。各个实验的交并比结果在表 3中列出。从DBUI和DBUI10的实验结果对比来看,噪声非常影响网络性能影响。分析以上结果,认为模型在拟合了训练集噪声之后,网络参数对正常数据的适应能力明显降低。分割网络在结合抗噪声算法之后,IoU均提高了4%~12%。在自建数据集NBUID上,U-Net结合SFONT取得了4.5%的IoU提升,DeepV3提升最小,仅3.1%。对比不同噪声比例数据集的实验结果,依据交并比、真阳性比和假阳性比3种评价指标,显示4种分割网络在结合SFONT后均表现出可靠的抗噪声标注性能。同时,从50%噪声比例数据集上的实验结果可以看出,SFONT在高噪声比例场景下依然取得了不错的IoU结果。

表 2 在DBUI30上不同网络结合SFONT的分割效果比较
Table 2 Comparison of the segmentation effect of different networks combined with SFONT on DBUI30

下载CSV
方法 交并比/% 真阳性比/% 假阳性比/%
U-net 61.23 69.67 30.98
U-net+SFONT 68.18 78.46 21.42
PSPNet 62.84 71.27 28.92
PSPNet+SFONT 72.78 80.22 19.42
DeepV3 62.08 72.39 27.65
DeepV3+SFONT 70.60 81.14 17.88
FastFCN 64.38 74.09 25.85
FastFCN+SFONT 72.04 81.26 17.42
注:加粗字体为每列最优值。

表 3 不同数据集上SFONT的IoU性能比较
Table 3 IoU performance comparison of SFONT in different dataset  

下载CSV
/%
方法 NBUID DBUI DBUI10 DBUI20 DBUI50
U-Net 70.34 71.87 67.72 65.09 52.44
U-Net+SFONT 74.86 73.92 72.61 69.17 61.91
PSPNet 69.56 73.04 65.51 63.39 56.04
PSPNet+SFONT 75.11 76.21 75.32 73.34 64.23
DeepV3 65.87 76.04 67.43 64.62 54.18
DeepV3+SFONT 69.96 77.51 73.72 71.83 67.17
FastFCN 71.20 75.28 69.32 67.61 60.53
FastFCN+SFONT 78.54 76.29 75.76 73.41 68.56
注:加粗字体为每列最优值。

4 结论

训练数据集包含一定量的噪声标注影响研究者对网络结构的设计。在医学超声图像分割中,这个问题变得更加严峻。本文研究工作的主要内容是针对乳腺超声图像的自身特点,设计了一个端到端的乳腺肿瘤分割算法帮助分割网络抵抗噪声标注的干扰,该算法包括动态噪声指数和动态噪声约束损失函数两个模块。设计了合适噪声指数实现对训练集数据分布检测,之后针对干净数据和噪声分布中间存在混合区的问题,提出动态噪声约束损失函数用于挖掘难以判断的困难样本,并对检测出的噪声进行限制。本文在U-Net、PSPNet、DeepV3和FastFCN等4个网络上进行了SFONT框架有效性验证对比实验,依据3种性能评价指标,SFONT能有效避免网络过度拟合噪声数据导致精度下降的问题。

乳腺肿瘤形态复杂,且具有多尺度的特点。在今后的研究中,将考虑结合肿瘤的尺度信息增强SFONT框架对跨尺度数据集的鲁棒性。

参考文献

  • Al-Dhabyani W, Gomaa M, Khaled H, Fahmy A. 2020. Dataset of breast ultrasound images. Data in Brief, 28: 104863 [DOI:10.1016/j.dib.2019.104863]
  • Chen L C, Zhu Y K, Papandreou G, Schroff F and Adam H. 2018. Encoder-decoder with atrous separable convolution for semantic image segmentation//Proceedings of the 15th European Conference on Computer Vision. Cham: Springer: 833-851[DOI:10.1007/978-3-030-01234-2_49]
  • Cheng H D, Shan J, Ju W, Guo Y H, Zhang L. 2010. Automated breast cancer detection and classification using ultrasound images:a survey. Pattern Recognition, 43(1): 299-317 [DOI:10.1016/j.patcog.2009.05.012]
  • Goldberger J and Ben-Reuven E. 2016. Training deep neural-networks using a noise adaptation layer[EB/OL].[2020-05-15]. http://www.eng.biu.ac.il/goldbej/files/2012/05/ICLR2017.pdf
  • Hu M Y, Han H, Shan S G and Chen X L. 2019a. Multi-label learning from noisy labels with non-linear feature transformation//Proceedings of the 14th Asian Conference on Computer Vision. Cham: Springer: 404-419[DOI:10.1007/978-3-030-20873-8_26]
  • Hu W, Huang Y Y, Zhang F and Li R R. 2019b. Noise-tolerant paradigm for training face recognition CNNs//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE: 11879-11888[DOI:10.1109/CVPR.2019.01216]
  • Huang K, Cheng H D, Zhang Y T, Zhang B Y, Xing P and Ning C P. 2018. Medical knowledge constrained semantic breast ultrasound image segmentation//Proceedings of the 24th International Conference on Pattern Recognition. Beijing: IEEE: 1193-1198[DOI:10.1109/ICPR.2018.8545272]
  • Huang Q H, Huang Y H, Luo Y Z, Yuan F N, Li X L. 2020. Segmentation of breast ultrasound image with semantic classification of superpixels. Medical Image Analysis, 61: 101657 [DOI:10.1016/j.media.2020.101657]
  • Krizhevsky A, Sutskever I and Hinton G E. 2012. ImageNet classification with deep convolutional neural networks//Proceedings of the 25th International Conference on Neural Information Processing Systems. Red Hook: ACM: 1097-1105
  • LeCun Y, Bottou L, Bengio Y, Haffner P. 1998. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11): 2278-2324 [DOI:10.1109/5.726791]
  • Lin T Y, Goyal P, Girshick R, He K M and Dollár P. 2017. Focal loss for dense object detection//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE: 2999-3007[DOI:10.1109/ICCV.2017.324]
  • Liu W Y, Wen Y D, Yu Z D, Li M, Raj B and Song L. 2017. SphereFace: deep hypersphere embedding for face recognition//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE: 6738-6746[DOI:10.1109/CVPR.2017.713]
  • Ronneberger O, Fischer P and Brox T. 2015. U-Net: convolutional networks for biomedical image segmentation//Proceedings of the 18th International Conference on Medical Image Computing and Computer-Assisted Intervention. Munich: Springer: 234-241[DOI:10.1007/978-3-319-24574-4_28]
  • Wu H K, Zhang J G, Huang K Q, Liang K M and Yu Y Z. 2019. FastFCN: rethinking dilated convolution in the backbone for semantic segmentation[EB/OL].[2020-05-15]. http://arxiv.org/pdf/1903.11816.pdf
  • Wu X, He R, Sun Z N, Tan T N. 2018. A light CNN for deep face representation with noisy labels. IEEE Transactions on Information Forensics and Security, 13(11): 2884-2896 [DOI:10.1109/TIFS.2018.2833032]
  • Yap M H, Pons G, Martí J, Ganau S, Sentís M, Zwiggelaar R, Davison A K, Martí R. 2018. Automated breast ultrasound lesions detection using convolutional neural networks. IEEE Journal of Biomedical and Health Informatics, 22(4): 1218-1226 [DOI:10.1109/JBHI.2017.2731873]
  • Yi K and Wu J X. 2019. Probabilistic end-to-end noise correction for learning with noisy labels//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE: 7010-7018[DOI:10.1109/CVPR.2019.00718]
  • Zhang C Y, Bengio S, Hardt M, Recht B and Vinyals O. 2016. Understanding deep learning requires rethinking generalization[EB/OL].[2020-05-15]. https://arxiv.org/pdf/1611.03530.pdf
  • Zhao H S, Shi J P, Qi X J, Wang X G and Jia J Y. 2017. Pyramid scene parsing network//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE: 6230-6239[DOI:10.1109/CVPR.2017.660]