0引言我国医学影像数据正以30%的速度逐年增长,大量的医学影像数据给临床医生的工作带来了极大挑战,也为疾病诊疗模式的变革带来了机遇。人工智能依靠强大的图像识别、数据挖掘和深度学习技术,可有效解决医学影像大数据处理难题,显著提高数据分析的效率和准确性,提升了健康与诊疗的效益及价值(Limkin等,2017)。深度学习在医学图像智能处理与分析中涉及多个病种、多种图像模态和多组学,并且能实现多种功能。如眼底病变识别、皮肤癌识别、脑部疾病预测、鼻咽癌精准放疗靶区勾画和肺结节良恶性分类等。针对眼底病变,应用深度学习提出了一种自动检测眼底图像中糖尿病视网膜病变和糖尿病黄斑水肿的算法,对基层医生正确筛选患者有着重要意义(Gulshan等,2016;Ting等,2017),但由于训练样本及专家分级的限制,无法处理大多数眼科医生也无法识别的细微图像,不能代替综合眼科检查。Kermany等人(2018)提出基于深度学习的卷积神经网络Inception V3模型和迁移学习(transfer learning, TL)的诊断模型,用于眼底疾病的分类,并在儿童肺炎诊断上验证了该模型的泛化性能,实现了秒级判定和人工智能精确指导抗生素合理使用的功能。针对皮肤癌,Esteva等人(2017)使用卷积神经网络Inception V3对皮肤癌图像进行分类,准确率达到91%,可与专业医生媲美。针对肺癌,Coudray等人(2018)使用迁移学习和Inception V3模型对非小细胞肺癌(non-small cell lung cancer,NSCLC)病理图像进行分类,结果表明深度学习模型可以为专家和患者提供快速、准确和廉价的癌症类型或基因突变检测,对癌症治疗产生了重大影响。针对脑部疾病,Choi和Jin(2018)提出一种深度卷积神经网络,使用18F-脱氧葡萄糖(18F-Fluorodeoxyglucose,18F-FDG)PET(positron emission tomography)图像准确预测阿尔茨海默氏症(Alzheimer’s disease,AD)和轻度认知障碍(mild cognitive impairment,MCI)患者,可以尽快确定并有效治疗受试者。Lee等人(2019)训练小样本的头部计算机断层扫描(computed tomography,CT)图像创建人工智能诊断平台,诊断颅内出血的准确率能与医生媲美。该平台通过对小样本数据的增强处理,解决了深度学习样本量的问题, 决策过程及诊断依据的可视化解决了人工智能算法的黑盒问题。针对鼻咽癌,中山大学孙颖团队首次利用人工智能实现了全期鼻咽癌精准放射治疗靶区自动勾画(Lin等,2019)。针对计算机视觉问题,由于缺乏大型高质量已标注数据集,医学影像的深度学习研究一度面临巨大挑战,对此,Xie等人(2019)提出了一种基于多视角知识协同(multi-view knowledge-based collaborative,MV-KBC)深度学习模型,使用ResNet-50网络对胸部CT图像进行肺结节良恶性分类,结果明显优于当前最先进的方法。随着人工智能的高速发展,曾经的巨大挑战正在逐步攻破。深度学习在医学图像及其涉及的医学领域的应用十分广泛,且算法改进与实验思路多样。为帮助医学图像智能处理领域的研究者进行高效的探索和应用开发,本文首先阐述深度学习的发展历史及模型评价,随后对深度学习中出现的新思路、新方法以及对传统方法的改进进行较全面阐述,最后总结该领域现阶段面临的问题并对未来的研究方向做出展望。1深度学习的发展深度学习是指通过数据驱动的方式,采用一系列非线性变换,从原始数据中自动提取由低层到高层、由具体到抽象、由一般到特定语义的多层特征表示(Christopher等,2018)。Rosenblatt(1957)提出神经网络的鼻祖感知机(perceptron);20世纪80年代Fukushiba等人(1980)提出一种多层级的神经网络神经认知机(neocognitron);LeCun等人(1998)首次提出多层级联的卷积结构LeNet;Krizhevsky等人(2012)提出AlexNet,这是一个8层深的卷积神经网络。此后的网络发展分为两类,一类是网络结构的调整,另一类是网络深度的优化。对于网络结构的调整,Lin等人(2013)提出NIN(network in network),推广了1×1的卷积结构;2014年Google提出Inception V1网络,可以反复堆叠并且高效,取得当年ILSVRC(ImageNet Large Scale Visual Recognition Challenge)比赛冠军(Szegedy等,2015);2015年Google提出Inception V2网络,使用批归一化(batch normalization)方法大幅加速了训练过程,并提升了网络性能(Ioffe等, 2015);同年末,Google提出小卷积因式分解(factorization in small convolutions)的思想,分解大尺寸卷积为多个小卷积乃至1维卷积,形成Inception V3网络(Szegedy等,2016)。对于网络深度的优化,2014年牛津大学和Google DeepMind公司提出VGGNet (visual geometry group network),使用3×3的卷积,更能防止过拟合,且网络深度多达19层(Simonyan等, 2014)。2015年微软提出ResNet(residual neural network),网络深度达到152层,缓解了梯度消失和梯度爆炸;其后又增加了批归一化,并去除激活层而使用恒等映射(identity mapping)或预激活(preactivate),更新为ResNet V2(He等, 2015, 2016)。2016年Google提出Inception V4、Inception-ResNet V1和Inception-ResNet V2网络,证明不引入残差结构也能达到和引入残差结构相似的结果,且Inception-ResNet V2网络集网络深度与网络宽度优势于一体,取得了较好的分类效果(Szegedy等,2017)。Xception将群卷积(group convolution)思想发挥到了极致(François等,2016)。2017年,美国康奈尔大学、清华大学和Facebook提出了DenseNet,能更好地复用特征,缓解了梯度消失问题,并大幅减少了参数数量(Huang等,2017);Xie等人(2017)提出ResNeXt,引入基数制约(cardinality)概念,与Xception网络相似,对网络通道进行了优化,将卷积进化为群卷积。Chen等人(2017a)提出DPN(duall path networks)网络,融合了ResNeXt和DenseNet的核心思想。2018年,Momenta公司和牛津大学提出SENet(squeeze and excitation networks),很容易被其他网络部署嵌入,在模型结构和计算复杂度上具有良好的特性(Hu等,2020)。自2012年AlexNet提出后,深度学习领域的研究进展迅速,新技术往往体现在网络结构、网络深度和卷积形式的改进上,在图像处理领域不断创造更高的准确率记录。Eldan和Shamir(2015)从理论上证明了加深网络比加宽网络更有效。Kusumoto等人(2018)也提出预测精度与网络深度和待分析图像像素大小相关。Tang(2015)提出了深度学习结合机器学习算法的新模型。随着GPU(graphics processing unit)计算资源、开源工具(如Tensorflow、Pytorch等)以及大量可利用的开源医学影像数据库的出现,研究人员可以简单快速地设计神经网络,并在多中心、多模态的公开数据集上进行研究、测试、部署乃至实用。2深度学习在医学影像领域的应用深度学习在医学图像领域发展十分迅速,产生了许多算法,并且具有很强的应用前景。根据应用现状,深度学习在医学影像领域的应用大致包括智能诊断、疗效评估和预测预后。2.1深度学习在智能诊断中的应用面对大量复杂的医学影像信息和持续增长的医学影像诊断需求,人工影像诊断暴露出的工作负荷大、易受主观认知影响、效率低且误诊率高等诸多缺点愈加明显。而基于深度学习的算法在处理大数据和复杂非确定性数据、深入挖掘数据潜在信息等方面有着超越人类的优势。运用深度学习解读医学影像,通过与其他病例记录的对比分析,帮助医生定位病灶,辅助诊断,可以有效弥补其中的缺口,减轻医生负荷,减少医学误判,提高诊疗效率。对于细胞识别,Kusumoto等人(2018)利用卷积神经网络建立了一种自动识别来自诱导多能干细胞(induced pluripotent stem cells,iPSCs)的内皮细胞的方法,仅基于形态学特征就能高效识别内皮细胞,得出预测精度与网络深度和待分析图像的像素大小有关的结论。细胞周围环境是一个重要识别特征,即时的微环境也是分化的重要因素。密集样本的弱染色、非特异性荧光和自发性荧光会干扰模型判别,因此模型受样本的细胞密度和形态影响较大,对异构图像的分类效果还有待提高。后续研究中,应改进对图像非均匀区域的二值化方法,样本应该培养到一个合适的密度,在图像异构的情况下,应训练网络来区分真假阳性。对于眼底病变,已有研究表明基于深度学习的眼底图像评估在临床决策支持系统和大规模眼底黄斑病变、青光眼检测和筛查项目的自动化中具有重要的应用价值,但大多是从单中心获取或只纳入了符合研究标准的训练样本,进入实际临床应用还需要更多探索(Lee等,2017;Schlegl等,2018;Christopher等,2018)。对于口腔疾病,Aubreville等人(2017)提出一种新颖的自动分类深度学习方法,对口腔鳞状细胞癌病人的显微内镜图像进行诊断,该方法优于基于图像纹理的分类器等传统分类方法。后续研究可将该模型扩展到更复杂的原位癌前病变或转移到上消化呼吸道的鳞状细胞癌实体的鉴别。此外,优化基础数学算法,在筛选过程中直接对患者进行口腔鳞状细胞癌的实时识别还需进一步探究。对于脑部疾病,Lee等人(2019)利用深度学习平台检测急性颅内出血,性能与放射科医师相似,但纳入的数据集来源单一,且排除了在临床上存在的情况,还需使用更完善的急诊病人数据集进行进一步的测试。若将此平台无缝嵌入到临床使用中,还需将对基于预测的诊断模块进行额外的优化和集成。基于3D-CNN(3 dimensional-convolutional neural network)架构的计算机辅助监测急性神经疾病在颅脑成像,有分流放射科工作的潜力,可以有效减少诊断时间,但也需要在多中心临床试验中验证(Titano等,2018)。Shi等人(2018)提出了一种多模态叠加深度多项式网络(multimodal stacked deep polynomial network, MM-SDPN),融合后的PET和核磁共振图像(magnetic resonance imaging,MRI)能准确诊断AD及MCI,但使用的是传统的DPN(deep polynomial networks)算法,后期研究可对网络结构和算法进行改进。由于无标记医学图像的获取相对容易,半监督的MM-SDPN算法也是未来的研究热点之一。Jun等人(2018)提出了一种基于自标记技术的深度学习磁共振黑血(black blood,BB)成像和3维卷积神经网络的脑转移灶检测方法,表明基于深度学习的3维BB成像可以有效检测脑转移瘤,但还需要在多种采集设备或采集协议的数据集上进行验证,临床转化受限。对于乳腺癌,Ferreira等人(2018)利用Inception ResNet V2网络和TL对乳腺癌的病理图像进行分类,对乳腺癌智能初筛有重要作用。但在网络训练过程中,过拟合的出现导致盲测集的准确性远低于先前已知并评估的数据集。后续研究中,可以采取一些策略来避免过拟合,比如应用网络顶层少量神经元,增加用于验证和测试的图像数量,选取相似性更大的数据集和引入交叉验证和正则化技术等。将现代深度学习和计算机视觉技术应用于放射成像的进一步研究正在进行中,尤其是针对脑部和眼底病变等高发病率的疾病,临床上迫切需求智能诊断技术加以辅助。优化研究标签的生成、在医学图像中指定病理区域、建立强监督模型而不是弱监督模型并裁剪算法部署在图像存档和通信系统(picture archiving and communication system,PACS)平台将为算法改进和进入临床环境提供途径。表 1详细描述了深度学习在智能诊断中的应用,研究对象主要包括颅内出血、NSCLC(non-small cell lung cancer)、AMD(age-related macular degeneration)、DME(diabetic macular edema)、RVO(retinal vein obstruction)、ADNI(Alzheimer’s disease neuroimaging initiative)等,研究模态主要包括CT、病理图像、OCT(optical coherence tomography)图像等,研究方法主要包括VGG16、ResNet-50、InceptionV3、Inception-ResNet-V2、3D-CNN+NLP(natural language processing)等,评价指标主要采用AUC(area under curve)。 表1 深度学习在医学影像智能诊断中的应用 文献 研究对象 研究模态 研究方法 研究结果 Lee等人(2019) 颅内出血1 300例 CT VGG16、ResNet-50、 Inception-V3、 Inception-ResNet-V2 灵敏度为98%、92%,特异性为95%、95%,性能与放射科医师相似 Coudray等人(2018) NSCLC 病理图像 TL + CNN(Inception V3) AUC指标优于随机森林、SVM、贝叶斯算法 Christopher等人(2018) iPSCs 显微镜图像 CNN(LeNet + AlexNet) F1-score和准确率分别为0.90和95% Lee等人(2017) 正常52 690幅 AMD 4 861幅 OCT图像 CNN(VGG16) AUC为92.78%、93.83%、97.45%,准确率为87.63%、88.98%、93.45%,敏感性和特异性分别为92.64%、93.69% Schlegl等人(2018) AMD 400例 DME 400例 RVO 400例 OCT图像 fully automated deep learning AUC为0.94,平均精度为0.91,平均召回率为0.84 Christopher等人(2018) 大型眼底图像数据库(n = 14 822) OCT图像 TL + CNN(VGG16、 Inception V3、ResNet50) 迁移学习结合ResNet50模型的AUC为0.91,明显高于其他所有模型 Aubreville等人(2017) 口腔鳞状细胞癌图像序列7 894幅 显微镜图像 CNN AUC为0.96,平均准确率为88.3%(灵敏度86.6%,特异度90%),优于目前技术水平 Titano等人(2018) 37 236幅头部疾病 CT 3D-CNN + NLP 减少治疗时间和改善结果 Shi等人(2018) ADNI PET+MRI DPN(MM-SDPN) 分别对PET和MRI使用深度网络进行处理,实现网络对多模态数据处理 Jun等人(2018) 55组黑血成像数据 MRI CNN 深度学习BB、原始BB影像的准确率分别为0.970 8、0.943 7,敏感性均为100% Ferreira等人(2018) 乳腺癌 病理图像 Inception ResNet V2 + TL 训练集、验证集、测试集准确率分别为0.99、0.93、0.90,盲测集精度为0.76 Application of deep learning in intelligent diagnosis of medical imagingTable 12.2深度学习在疗效评估中的应用手术标本的病理评价是与长期肿瘤预后相关的唯一可靠指标。但是,这些病理数据只有在完成所有的术前治疗和手术后才能获得,不能作为调整治疗的指导。开发具有早期预测潜力的非侵入性生物标志物至关重要。越来越多的证据表明,基因型与表型之间的关系确实可以从基因组学扩展到临床影像学,影像特征可以作为检测分子谱和临床相关参数,如预后、治疗效果、并发症的潜在生物标志物(Vardhanabhuti和Kuo,2018)。研究表明,可以通过治疗前后的肿瘤影像特征评价肿瘤患者的治疗效果与治疗反应,指导临床治疗(Fave等,2017)。对于肺部疾病,Coroller等人(2016)研究了非小细胞型肺癌患者新辅助放化疗后的影像特征与病理的相关性,表明影像特征能反映肺癌患者治疗后的肿瘤残留情况和肿瘤改善情况。对于直肠癌,Sun等人(2018)利用患者的CT图像训练的人工智能平台可以准确预测程序性死亡受体1(programmed cell death protein 1,PD-1)抑制剂的治疗效果,进一步阐明了标准医学图像与CD8细胞的基因表达特征、肿瘤浸润淋巴细胞的数量、肿瘤免疫表型和免疫治疗的临床结果之间的联系。但该平台由于样本纳入标准较高,导致样本量较少,需要在大型前瞻性研究中进行进一步的评估来验证结果。该研究将免疫反应评分分为高、低两类,在免疫表型验证队列中,只选择了3种描述免疫表型中的免疫炎症型和免疫荒漠型两种表型进行验证。随着对肿瘤和间质免疫功能研究的不断进展,未来的前瞻性研究可以合并3种免疫表型或者使用额外的免疫亚型对人工智能平台的预测结果进行验证。Nie等人(2016)指出多参数MRI在预测局部晚期直肠癌术前放化疗后病理反应中具有重要作用,但需要大量的数据样本对图像特征进行全面的面板选择,并使用非线性统计模型对大维度数据进行传统的线性统计分析。Bibault等人(2018)建立了一个深度神经网络(deep neural network,DNN)来预测直肠癌放化疗后的完全反应,有助于确定哪些患者将适用于保守治疗,而不是根治性切除。对于特征提取,Oakden-Rayner等人(2017)系统分析了传统影像组学特征提取和卷积神经网络方法对生存预测的效果。传统影像组学经过特征选择和提取的深度特征在预测生存周期的效果比较接近,但在结合病种相关的临床特征后,预测准确率大幅提升。Ypsilantis等人(2015)应用3D卷积神经网络和迁移学习方法提取PET图像的深度特征,然后应用基于对称不确定性的特征选择方法,提取最有效的深度特征,能预测治疗食管癌药物的有效性。目前在此领域大多是利用传统的机器学习算法或者统计学方法进行研究,深度学习的论著相对较少,然而人工智能、肿瘤影像学和精准医学具有很强的研究前景。如何设计相应的医学影像人工智能程序,实现生物学和临床信息的自动提取、肿瘤内淋巴细胞浸润水平的智能判定、患者接受免疫疗法疗效的影像组学指标的预测,以及为放化疗治疗提供指导,值得研究者投入更多精力。表 2详细描述了深度学习在疗效评估中的应用,研究对象包括肺癌、直肠癌和食管癌,研究方法包括线性混合效应模型、多变量模型、ANN(artificial neural network)以及SVM(support vector machine)等。 表2 深度学习在疗效评估中的应用 文献 研究对象 研究模态 研究方法 研究结果 Fave等人(2017) 肺癌 CT 线性混合效应模型、多变量模型 结果可指导临床治疗 Nie等人(2016) 局部晚期直肠癌48例 MRI ANN 预测PCR(pathologic complete response)的最优AUC为0.84,预测GR(good response)的最优AUC为0.89 Ypsilantis等人(2015) 食管癌患者107例 PET 3S-CNN 平均敏感性为80.7%,平均特异性为81.6%,优于其他预测模型 Bibault等人(2018) 局部晚期直肠癌患者90例 CT SVM + DNN DNN预测完全响应的准确率为80%,优于线性回归模型(69.5%)和SVM模型(71.58%) Application of deep learning in response evaluation of medical imagingTable 22.3深度学习在预测预后中的应用利用深度学习的方法,通过影像学标记可以预测基因的突变状态,预测调节治疗相关蛋白活性的分子类别,预测疾病状态和预后情况,具有无创性、可重复性和价廉的优点。对于影像基因组学,Rios等人(2017)提出基于深度学习自动量化影像组学表型特征的预测模型,能比较准确地判断表皮生长因子受体(epidermal growth factor receptor,EGFR)的基因突变状态,将影像学标记与临床数据相结合的综合预测模型的效果也很显著。Hosny等人(2018)基于3D卷积神经网络首次探索从医学图像到医学图像的迁移学习,将基因表达数据与分子信息关联起来。Wang等人(2019)提出了一种深度学习预测模型,通过影像特征预测肺腺癌中EGFR的突变状态,结果较专家手工CT特征或临床特征有显著改善,且EGFR突变型肿瘤和野生型肿瘤的深度学习评分差异有统计学意义。针对肝部疾病,Yu等人(2018)提出基于转移学习的预测算法,通过构建一个完全自动化的、准确的肝纤维化分期预测模型,使肝纤维化分期的自动评分成为可能。针对脑部疾病,Ding等人(2019)基于18F-FDG PET图像开发并验证了一种基于Inception V3网络的算法,可以进行AD和MCI的诊断。Lao等人(2017)通过迁移学习对术前多模态MRI提取深层特征,将其产生的影像组学特征用于预测多形胶质母细胞瘤患者的总体生存期。Li等人(2017)利用改进的卷积神经网络提取低级别胶质瘤患者的多模态MRI中的深度信息,并预测异柠檬酸脱氢酶1(isocitrate dehydrogenase 1,IDH1)的突变状态。对于代谢影像组学,应用PET-CT图像提取相邻图像块的糖酵解图像,作为一个新的影像学标记,再结合传统的影像组学纹理特征和支持向量机获得了较为理想的肺癌和宫颈癌的放疗预后预测指标(Hao等,2018)。18F-FDG PET在提供糖酵解活跃程度信息(standardized uptake value maximum,SUVmax)的同时,其丰富的纹理特征能预测患者预后,而且这些纹理特征的诊断效能可能优于SUVmax。本课题组临床研究发现,应用18F-FDG PET/CT代谢显像能对人类表皮生长因子受体2(human epidermal growth factor receptor-2, HER2)、乳酸脱氨酶A(Lactate Dehydrogenase A, LDHA)等癌相关基因的表达进行客观评价,基于细胞代谢的多模态高分辨分子影像技术为肿瘤诊断、疗效及预后评价提供了可靠的分析手段(Chen等,2016, 2017b, 2019)。然而,目前临床对分子影像包含的丰富信息的深度挖掘少有涉及,数据分析手段比较简单,代谢组学显像定量参数(如SUVmax)的功能相对单一,信息指向较为匮乏,仅能区别代谢水平的大体情况,无法细分到具体蛋白功能及特定通路的影响等。因此,如何实现代谢影像数据的系统分析、深度挖掘并真正实现分子水平的动态量化智能评价是亟待解决的关键科学问题。在后续研究中可以通过不同层次对多组学数据和医学影像数据进行噪点去除、纹理分析、肿瘤分割、非监督学习特征提取,通过集成聚类分析、特征选择、回顾性分析和深度网络学习,完成不同组学的数据融合,实现基于内容与语义的推理机关联模型,并且利用数据间的关联关系,建立结构化数据的快速检索方法,建立准确性高、鲁棒性强的智能预测模型。表 3详细描述了深度学习在预测预后中的应用,研究对象包括肺癌、肺腺癌和鼠肝等,研究方法包括深度学习自动量化、CNN、MLR(multinomial logistic regression)和RF(random forest)等。 表3 深度学习在预测预后中的应用 文献 研究对象 研究模态 研究方法 研究结果 Rios Velazquez等人(2017) 709例肺癌 CT 深度学习自动量化 能较准确判断EGFR的突变状态,AUC = 0.69;影像学标记与临床数据相结合的综合预测模型的AUC为0.75 Hosny等人(2018) 不同机构的7个医学影像肺癌数据集 CT 3D CNN + TL 深度学习网络可用于非小细胞肺癌患者死亡率风险分层 Wang等人(2019) 844例术前肺腺癌 CT+基因+临床数据 CNN 深度学习模型在两个主要队列中(n = 603), AUC = 0.85;在独立验证队列中(n = 241),AUC = 0.81 Yu等人(2018) 鼠肝100例 显微图像 ANN,AlexNet, MLR,SVM,RF AlexNet的AUC = 0.85~0.95,ANN的AUC = 0.87~1.00 Ding等人(2019) AD+MCI 18F-FDG PET Inception V3 在独立测试集上评估预测AD最终临床诊断时,AUC为0.98,敏感性为100%,特异性为82% Lao等人(2017) 多形胶质母细胞瘤 多模态MRI TL + LASSO 可预测患者的总生存期 Li等人(2017) 低级别胶质瘤151例 MRI 改进的CNN 相同数据集下,常规放射组学方法的AUC为86%,利用DLR的AUC为92%。基于多模态MRI的DLR(deep learning-based radiomics)将预测IDH1的AUC提高到95% Application of deep learning in prediction prognostic of medical imagingTable 33问题及展望综上所述可以看出,深度学习在智能诊断、疗效评估和预测预后等方面都有杰出表现,为在医疗卫生中应用提供了重要的理论基础和技术支撑,对全病种都具有很强的应用前景。然而,智能医学影像高速发展的背后依旧存在许多问题。1)缺少高质量标注的训练样本。目前基于深度学习的算法往往是有监督的学习,即需要大量已精确标记的训练数据,但是标记医学数据依赖医生的专业知识,耗时耗力,而公开数据集的训练数据往往数量少、质量差,单一机构的小样本数据训练出来的模型存在过拟合或者鲁棒性和推广性差的问题,难以临床转化和商业使用。2)目前提出的基于深度学习的模型依旧有待优化,许多算法的鲁棒性和泛化性不足。3)影像组学数据的深度挖掘必然产生对疾病的新认识或新模型,但是缺乏第三方评价体系。目前深度学习方法的应用大部分是用以验证深度学习,解决基于医学影像进行智能诊断、疗效评估、预后预测以及肿瘤分割问题的效果,没有深入到应用医学影像组学的定量评价肿瘤异质性以及由此产生的生物行为的差异性,在评估慢性疾病组织变化方面的应用探索较少,这也是导致其临床转化受限的主要原因。4)由于是端到端的输入输出形式,决策过程透明度较差,大部分利用深度学习得到的模型存在“黑匣子”问题,理论支撑薄弱,可解释性较差。如何解决上述问题将成为目前的研究热点。首先,针对训练样本少的问题,可以采用TL、生成对抗网络(generative adversarial nets,GAN)等数据增强方式和病灶自动勾画算法,在一定程度上解决样本量和医生标注效率低的问题。参数迁移、模型迁移将逐步被抛弃,取而代之的是任务迁移。其次,针对模型鲁棒性和泛化性问题,更集成、更综合和更强大的多任务模型将逐步取代单任务模型,Mask R-CNN就是其中的代表,全病种的孵化也成为重点突破的研究热点。最后,针对直接使用端到端的卷积神经网络得出的结果使网络的可解释性较差,出现“黑匣子”问题,后期研究可仅在特征提取阶段应用卷积神经网络模型,再使用理论基础更强的算法作为后端处理。同时,后期的研究应将人工智能平台的决策过程及诊断依据可视化以增加可解释性。基于深度学习方法的智能影像评估与更无创、高效的多组学检测技术(如液体活检技术的基因蛋白组学)的结合,将在精准医疗的发展中发挥重要作用。4结语人工智能技术将作为辅助新一代无创诊疗技术发展、推动精准医疗和个性化医疗的重要工具,大量高质量已标注影像病例的获取、多中心的研究验证、决策过程和诊断依据的可视化及第三方评价体系的建立尤为关键。此外,智能医学影像的发展不仅需要大数据技术和医学影像技术的深度融合、临床经验与多组学的大数据融合、人工智能人才和医学影像人才的融合,还需要以医学问题和临床结果为导向,实现微观—宏观—系统—精准微观的闭环式研究,进而解决在术前、术中和术后实现肿瘤的精准分割、疾病智能诊断以及对治疗效果、治疗反应和疾病状态的无创跟踪等实际临床问题。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读