摘要:目的X射线光片是用于诊断多种胸部疾病常用且经济的方法。然而,不同疾病的位置及病灶区域大小在X光片上差异较大且纹理表现存在多样性,是胸部疾病分类任务面临的主要挑战。此外,样本数据类别不平衡进一步增加了任务的困难。针对以上挑战以及目前算法识别精度有待提升的问题,本文采用深度学习方法提出一种基于密集挤压激励网络的多标签胸部疾病分类算法。方法将挤压激励模块同样以密集连接的方式加入密集连接网络中作为特征通道高度注意模块,以增强对于网络正确判断疾病有用信息的传递同时抑制无用信息的传递;使用非对称卷积块增强网络的特征提取能力;采用焦点损失函数,增加难识别疾病的损失权重而减小易识别疾病的损失权重,以增强网络对难识别样本的学习。结果在ChestX-ray14数据集上的实验结果表明,本文算法对14种胸部疾病的分类精度较目前3种经典及先进算法有所提升,平均AUC(area under ROC curve)值达到0.802。另外本文将算法模型在诊断时依据的病灶区域进行可视化,其结果进一步证明了模型的有效性。结论本文提出的基于密集挤压激励网络的多标签分类算法,在胸部疾病识别上的平均AUC值较高,适用于胸部X光片的疾病分类。
摘要:目的眼底图像中的动静脉分类是许多系统性疾病风险评估的基础步骤。基于传统机器学习的方法操作复杂,且往往依赖于血管提取的结果,不能实现端到端的动静脉分类,而深度语义分割技术的发展使得端到端的动静脉分类成为可能。本文结合深度学习强大的特征提取能力,以提升动静脉分类精度为目的,提出了一种基于语义融合的动静脉分割模型SFU-Net(semantic fusion based U-Net)。方法针对动静脉分类任务的特殊性,本文采用多标签学习的策略来处理该问题,以降低优化难度。针对动静脉特征的高度相似性,本文以DenseNet-121作为SFU-Net的特征提取器,并提出了语义融合模块以增强特征的判别能力。语义融合模块包含特征融合和通道注意力机制两个操作:1)融合不同尺度的语义特征从而得到更具有判别能力的特征;2)自动筛选出对目标任务更加重要的特征,从而提升性能。针对眼底图像中血管与背景像素之间分布不均衡的问题,本文以focal loss作为目标函数,在解决类别不均衡问题的同时重点优化困难样本。结果实验结果表明,本文方法的动静脉分类的性能优于现有绝大多数方法。本文方法在DRIVE(digital retinal images for vessel extraction)数据集上的灵敏性(sensitivity)与目前最优方法相比仅有0.61%的差距,特异性(specificity)、准确率(accuracy)和平衡准确率(balanced-accuracy)与目前最优方法相比分别提高了4.25%,2.68%和1.82%;在WIDE数据集上的准确率与目前最优方法相比提升了6.18%。结论语义融合模块能够有效利用多尺度特征并自动做出特征选择,从而提升性能。本文提出的SFU-Net在动静脉分类任务中表现优异,性能超越了现有绝大多数方法。