0引言随着现代影像学三维重建、触觉交互以及三维(three-dimensional, 3D)立体打印等技术日渐成熟,传统的手术治疗理念正在发生前所未有的革命性改变。传统开放性的手术、大面积放疗和化疗等粗放型治疗方式在复杂病症的治疗中已经逐渐被个体化精准手术规划的“精准医学”所替代,随着“精准医学”模式逐步应用到临床手术,手术治疗进入一个新的时代。现实中人体的器官及其病理变化都是呈现三维变化的,相比于医学教学二维图像和各种诊断医学二维图像,立体显示技术更加直观和具体。而在生活中解读各种内窥镜手术影像和诊断医学图像都是依赖于医生的专业经验,限制了医学诊断的效果,也降低了解读诊断影像的准确性,增加了手术操作的难度。随着21世纪科技的飞速发展,高清晰度、高亮度、低串扰的立体成像显示技术越发成熟,使其在医学领域中的应用越发深入。医学的发展和立体显示技术两者相辅相成,后者为前者提供患者影像数据中病况、病灶的大小位置及与其周围血管脏器的定量关系,前者根据后者提供的关系和影像数据制定个性化的精准治疗方案。简而言之,前者为后者提供强大的牵引需求,后者带来了更为先进的技术支持(Stepan等,2017)。科幻的出现往往是基于科学又高于科学,远程手术这一想法最初就是通过好莱坞的电影进入医学领域,经由医学工作者们关注转变为具体化造福人类。师云雷(2014)于2014年提出了基于管理信息系统的医学机器人系统,即二维远程运动中心,此系统通过促进机器人技术的发展、提高机器人性能为复杂的外科手术问题的解决提供了可能。沉浸式立体显示技术,或称做扩展现实技术(extended reality, XR),根据观察者沉浸体验的不同,以及真实环境与虚拟环境的虚实结合程度主要分为:虚拟现实(virtual reality, VR)、增强现实(augmented reality, AR)和混合现实(mixed reality, MR),图 1中展示的头盔显示器(helmet-mounted displays, HMD)是VR显示系统现阶段普遍采用的一种立体显示设备(陈华等,2006)。依据计算机断层扫描(computerized tomography, CT)以及核磁共振图像(magnetic resonance imaging, MRI)等二维图像创建的3D模型图像,以此来重建病人的解剖结构,使医生能够根据情况更好地制定手术计划。此外,这项技术还能够对头骨附近的神经以及血管进行3D构建,使脑部结构能够在VR头盔中显示出来,以此来观察肿瘤的确切位置,使医生能够更好地找到肿瘤并精确地切除掉。而AR技术是将虚拟事物在现实中叠加,并且能够与虚拟事物进行实时交互,使AR显示技术在医疗、工业和教育等领域具有广阔的应用发展前景。尤其是在临床医学中,可以帮助医生在手术过程中实时获取各种必要的信息,而且可以将虚拟的器官组织模型叠加到真实的器官组织上,让外科医生在手术过程中实时获取患者的影像检查、血管造影等图像支持数据。MR技术则结合了VR与AR技术的优势,同时集成了数据采集、跟踪、呈现和交互技术,加之与传感网络的结合日益紧密,MR显示技术逐步成为人在虚实融合环境中数据汇聚、交互可视分析和决策的载体。MR技术在临床医学中最重要的应用是诊疗教育与训练。本文将从影像诊断、手术训练、规划与导航、治疗和教育培训4个方面,总结立体显示技术在临床医学领域中的研究进展。 图1 混合现实概念示意图 Concept schematic for mixed realityFig 11国际研究现状 1.1基于虚拟现实的数字解剖教学应用研究人体解剖学是研究人体正常形态结构的科学,旨在理解和掌握人体各组织器官的结构、位置,以及与周围组织器官的空间关系,为临床医学奠定了基础,医学生进入临床实践必须要具备良好的解剖学知识。传统的解剖教学主要包括书本上的平面解剖图、尸体解剖和三维假体等,但是这些方式都存在很大的不足,书本上的平面解剖图缺乏空间感,主要凭借医生的经验和主观猜测在大脑中形成三维器官及空间关系。由于尸体资源严重不足,无法满足广大医学生的需求,尸体解剖教学受到了极大限制。随着VR技术的发展,目前其已广泛应用到很多领域,在医学解剖中也发挥了很大的作用。医生能够通过VR技术在术前针对不同患者的解剖和病变特点制定个体化手术方案,立体显示技术结合VR系统为优化术前规划、提高手术成功率提供了理想的平台。该平台能够让医生提前反复体验术中所见的手术场景,提前对术中可能遇到的意外情况做出安排,锻炼应变能力的同时减少手术风险。VR医学解剖很大程度上解决了传统解剖教学的不足,提供沉浸式的解剖环境,将三维的人体器官组织更加真实地展现在用户面前,并可以通过多种交互方式和虚拟器官进行交互(Maciel等,2008;Coles等,2011);同时也支持多人同时在线共享同一解剖学模型,便于专家直接对学习者进行指导。Medis Media公司开发了一款3D Organon VR解剖软件,拥有完整的3D男性和女性身体模型及系统,使用户可以直观地了解身体构造,探索人体内4 000多个逼真的解剖结构和器官(Halic和De,2010)。1.2基于虚拟现实的微创手术技能培训应用研究与传统的开放手术相比,微创手术由于创伤小、疼痛轻和恢复周期短等优点成为常规手术之一(Cutolo等,2017)。微创手术的优点也使其操作技能变得极其重要,微创手术主要包括:胸腔镜手术、腹腔镜手术和内窥镜手术等,传统的手术技能培训主要包括尸体解剖、视频教学和手术室观摩等,这些传统的方式都存在很多不足之处,主要集中在实体资源匮乏,几乎没有上手实践机会,因此大量的模拟器被开发用于新手的操作技能培训,新手可以随时随地进行不同的手术技能练习, 如手眼协调、双手协调和深度感知的能力等,同时模拟器也可用于对受试者进行手术技能评估。目前,市场上主要有针对腹腔镜技能培训的箱式模拟器和虚拟现实模拟器,还没有专门针对胸腔镜的模拟器上市。腹腔镜模拟器在市场上已得到较好的应用,美国胃肠和内窥镜外科医生协会(Society of American Gastvointestinal and Endoscopic Surgeons, SAGES)和美国外科医师学会(American College of Surgeons, ACS)开发和验证了腹腔镜手术基础培训项目(fundamentals of laparoscopic surgery, FLS),并提出了腹腔镜手术技能的评估标准(Qian等,2015)。Fried等人(2004)设计并验证了MISTELS(minimal invasive surgery, tele-surgery)是可靠、有效的,可作为医学技能培训设备。Fu等人(2020)仿照FLS箱式模拟器开发了一款虚拟基础腹腔镜技能培训模拟器VBLaSTTM,包括4个任务: 微小物体转移、图案剪切、结扎和缝合,VBLaSTTM作为FLS项目的虚拟版可用于对受试者进行培训。Nemani等人(2019)首次将无创脑成像技术应用到腹腔镜的技能评估中,fNIRS(functional near-infrared spectroscopy)指标更加客观、准确,验证了在FLS箱式模拟器和VBLaST模拟器上获得的技能能够转移到真实的环境中。Huber等人(2018)将VR头盔和虚拟腹腔镜(LapSim)结合,创建了一个人造的虚拟现实(artificial VR, AVR)场景和一个高度沉浸式的虚拟现实(immersive VR, IVR)场景,使新一代的手术技能培训模拟器成为可能。Jensen等人(2017)在传统的箱式模拟器和虚拟腹腔镜模拟器(LapSim)上进行了胸腔镜的肾切除术训练,保留一段时间后又在猪模型上进行了胸腔镜肺叶切除术,验证了两种模拟器的有效性,箱式模拟器比虚拟现实模拟器训练更加有效。同时Jensen等人于2016年首次验证了VATS(video-assisted thoracoscopic surgery)中右上肺叶切除的虚拟现实模拟器的有效性,确定了评估医学生的胸外科手术技能指标(Jensen等,2017)。1.3基于增强现实的术中导航应用研究增强现实技术虚实结合的优点使其在多个领域有广阔的应用,如医疗、工业和教育等。在临床医学中,医生在减少手术时间的同时还必须进行复杂的手术任务,而且还要保持高精度的手术操作要求,所以术中导航技术就显得至关重要。结合增强现实技术的AR手术导航系统应运而生,由于其能够精准显示病灶、无创体外操作以及快速注册等特性,使得AR手术导航系统逐渐成为临床微创手术导航的首选。将AR技术引入其中,为医生提供术区的深度线索的同时还解决了手眼一致性问题(Coles等,2011;丁再珍,2006)。为了让医生观察到穿透半透、半反镜中叠加到真实场景中的三维医学影像信息,AR导航一般采用原位透视融合显示系统,以此作为实现AR手术导航的一条新途径。AR技术是一种用于“无缝”集成真实世界信息和虚拟世界信息的新技术(Shan等,2017),其中包括了多媒体、三维建模、实时跟踪及注册、智能交互和传感等多种技术手段的广泛运用,通过模拟仿真计算机生成的文字、图像、三维模型和视频等虚拟信息与真实世界中的信息相互补充,从而实现对真实世界的“增强” (Hou等,2016)。Wei等人(2014)开发了一种基于投影的AR术中系统,可以将模拟区域图像(肿瘤或血管)实时投影到患者的头部、颅骨或脑表面。该系统不需要外科医生在手术过程中佩戴额外的设备,可更快更容易地计划手术过程,同时降低成本。Gerard等人(2018)将术中超声AR图像与传统的NSSs(neuro-surgical simulations)相结合,对MRI进行处理和可视化,以提高手术中的准确性。Cutolo等人(2017)提出了一种新的基于头戴式立体视频透视显示的AR系统。Liebmann等人(2019)则开发了一种适用于在微软Hololens上运行的新导航方法,在不需要术中成像的情况下,通过实时可视化实现配准和工具跟踪,结果表明该装置可以精确地实现腰椎椎弓根螺钉插入导航(Liebmann等,2019;Basdogan等,2004)。1.4基于立体视觉的机器人及远程手术应用研究混合现实技术在临床医学中作为一个外科手术工具,具备不受地域限制、可扩展性强等优势,在手术中基于混合现实的高清图像传输给医生,提供了清晰、精准的手术视野和临床环境。机器人手术的存在,对于远程手术的精密度和准确性都有很大的提高。机器人手术促进了远程手术的发展,外科医生通过立体显示技术借助高速数据传输和远程信息控制,可以操控手术机器人完成远程手术,拉近与患者的空间距离,缩短手术时间、降低操作错误概率。现有已开发的远程手术机器人系统,主要应用是分析系统的性能和可靠性,并在局域网环境下成功地实施组织吻合手术。全球主要有美国、英国、法国、德国和日本等发达国家着手于基于立体视觉的机器人及远程手术应用研究。早在20世纪90年代左右,有关医疗方面的手术机器人已经开始发展。2001年,关于机器人远程手术的研究大幅度涌现在人们的视线中,美国Instuitive Surgical公司推出的达芬奇外科手术机器人在微创条件下可以为医生提供开口手术的直观操作感受,同时也可以过滤掉医生由于各种原因造成的手抖现象。主刀医生在立体显示技术所提供的全景、三维、10~15倍的高清放大的立体图像的辅助下,能够更加清晰准确地完成组织定位和手术器械操作,使手术的精确性得到了保障。除此以外,美国Computer Motion公司开发研制了ZEUS(宙斯)机器人外科手术系统,并且得到了美国的FDA(Food and Drug Administration)认证(Feng等,2012)。2003年一套远程微创外科手术机器人系统由日本东京大学与九州大学联合完成。美国的达芬奇手术系统(da Vinci Surgical System),应用于医学微创条件下的外科机器人,目前已在多个医院使用,应用率较高(Liu等,2017)。在2006年—2007年这一时期,美国华盛顿大学利用开发的RAVEN远程手术机器人进行了有效的实验(Khan等,2017)。实验对象是特定环境内的动物,实验环境是在极端环境分别进行水上与水下远程操作实验。2012年,美国的约翰霍普金斯大学针对商业化手术机器人的体积大、远程等功能受制的缺点开发了一套紧凑型远程微创手术机器人系统(Escobar-Castillejos等,2016)。随着机器人技术在微创手术领域的发展,机器人的性能得到了很大发展,逐步能够帮助解决复杂的外科手术问题。国外的远程手术机器人系统特点主要是具有3D高清视觉系统、操纵手感极佳并且控制能力顺畅,使其在手术治疗过程中大大缩短了时间,突破传统方法并解决了资源分配问题。但是也存在手术系统调试过程复杂、机器人占地面积较大且价格昂贵等问题。2国内研究进展2.1基于虚拟现实的数字解剖教学应用研究在将虚拟现实技术应用于数字解剖教学方面,国内的发展相比于国外有一定程度的滞后,这也导致了在相关技术方面相对薄弱。在这种形势下,国内的一些高校和研究单位仍然在该领域获得了显著成果,包括北京工业大学于2014年使用Unity3D结合Kinect手势识别技术开发出一款能够让多人同时在线学习,无创远程、便捷的虚拟解剖教学系统;另外还有历时五年时间,由四川大学打造的兼容HTC Vive设备的“人卫3D系统解剖学”软件,将虚拟现实技术和现代医学教学相结合,帮助学生全方位、立体地观察人体的器官;此外还有上海曼恒公司开发的虚拟人体解剖系统,以及北京黎明视景公司的生物医学三维模型库等(陈华,2006)。随着虚拟现实技术的成熟,以其为基础的数字解剖教学凭借方便性和实用性在医学领域中占据了重要的地位。但由于虚拟现实技术所包含的理论层次复杂,涉及的学科种类多样,包括物理学、信息学等,这也就为其技术创新提供了上升的空间,所以接下来的发展需要高校和各大医院进行深入合作和研究。2.2基于虚拟现实的微创手术技能培训的应用研究基于虚拟现实的微创手术技能培训的应用研究在国内发展迅速。通过弹性系数、阻尼系数和质量等参数的建模,天津大学在物理建模方面引入表现人体器官的物理特性,同时采用线性弹性模型,构造出了柔性可形变的质点弹簧模型作为人体器官的虚拟手术训练模型,从而使得人体器官模型的形变和反馈力可以通过邻接矩阵来表示模型的拓扑结构,并建立了模型的动力学方程,求解方程来得到。陈华(2006)将力反馈设备应用到小耳畸形手术的教学中,模拟、指导小耳畸形整形修复所涉及的手术过程,实现手术仿真操作,力反馈的运用使医学中应用的虚拟现实技术从单纯的视觉方面发展到视觉和触觉并存的系统。汪军和刘冬(2016)开展了一种胆囊切除虚拟手术仿真训练平台的研究,提出一种采用不同的包围盒碰撞检测的Capsule-Sphere混合碰撞检测方法。在受力变形上,提出一种网格—骨架模型的质点弹簧形变方法,并在前期研究的虚拟手术力反馈手柄上进行了测试。北京航空航天大学潘俊君团队于2015年提出了一个有效的框架,根据腹腔镜手术的实际需求,对形变模拟、碰撞检测、软组织解剖和绘制等方面进行优化,以提高整体性能的逼真度和响应速度(Qian等,2015)。潘俊君团队又于2020年提出了一个实时缝合模拟框架,可以处理外科手术器械和软组织之间复杂的交互作用(Yu等,2020)。通过匹配并生成针、缝合线与穿透路径之间的约束条件,提出了一种新颖的耦合方法,该方法具有较高的视觉真实感和触觉保真度,能够达到较好的实时效果(de Paolis,2012)。Fu等人(2020)采用累积和方法分析了医学生在模拟器VBLaST-SS上进行150次培训的学习曲线,参与者在体内缝合和图案剪切任务上的技能有了明显提高,并且休息2周后,技能仍得到了保留。2.3基于增强现实的术中导航的应用研究基于增强现实的术中导航的应用研究,我国开展的时间相对较早。钮艳华等人(2004)从空间定位、跟踪、匹配和可视化方面对基于增强现实的外科手术导航技术进行了分类综述,对其系统及应用系统进行探讨和展望,使虚拟现实技术开始逐步走向人们的视野。自2008年,北京航空航天大学虚拟现实技术(VR)与系统国家重点实验室开始了VR在医学教育中的技术研究,形成了一批我国自主知识产权并带动了国内虚拟现实技术的研究,至今国内主要由北京航空航天大学、北京理工大学和浙江大学等高校对增强现实技术这方面进行研究,同时这一技术已经被列为我国技术发展的一个重点方向。袁媛等人(2008)将虚拟模型和病人的鼻内镜术野图像以及手术器械融合通过增强现实技术显示,从而为医生提供病人鼻窦结构的准确空间信息,同时设立手术危险区域用于对手术器械“警告”提醒,提高手术训练系统的真实性。臧晓军等人(2010)对病人的CT和MRI扫描进行颅内组织器官的三维建模,并用三维扫描仪对病人的面部数据进行采集,运用DLT(direct linear transformation)算法坐标校准,术中使用光学跟踪器对手术器械实时跟踪,使整个系统的精度达到了亚毫米级,满足手术的实时操作需求。复旦大学的宋志坚等人(2010)发明了一种基于光学增强现实技术的手术导航系统及方法,这项系统根据标定点三维空间到光学式头盔显示器成像二维空间的映射,绘制虚拟信息显示在头盔显示屏上,实现对手术场景进行增强,这项技术的发表很好地支持了增强现实技术在手术导航系统上的应用。张欣然等人(2015)通过设计单独的光学透镜组件提高了立体全像分辨率,同时设计了一个高精度立体全像渲染的方式来弥补光学透镜相差引起的光学系统像差的问题,为实现更精确的微创手术提供了理论支持。李杨(2017)提出了基于多模态数据融合的微创脊柱手术引导系统框架,此框架针对腰椎CT图像的个性化差异,不同角度、病理情况下CT图像特征多变问题,根据二维术中图像对患者的姿态进行三维腰椎模型重构。手术过程中腰椎内部解剖结构黑盒问题提出4种不同的针对性算法,将病人的脊柱腰椎模型更加具象化地展现在医生眼前,使微创脊柱手术引导系统框架的精确度更上了一个台阶。南昌大学的Cheng等人(2018)展开了针对虚拟手术仿真系统中软组织切割模型的研究,将大量医学图像中的二维CT图像作为数据源,重构了包含表面网格和内部点云的软组织三维体素。Hou等人(2016)通过对MRI和iPhone失位照片进行配准来定位颅内肿瘤, 并与无框NSS(neuro-surgical simulation)进行比较,结果表明基于图像的iPhone助手和增强现实解决方案是可行的。实验证明通过结合增强现实技术和力反馈系统能够使整个手术导航系统更加精确,对医学初学者来说更加具有训练的指导意义。2.4基于立体视觉的机器人及远程手术应用研究在国外研究团队着手于有关远程手术时,我国的研究团队也已经对这方面有所重视。1997年北京航空航天大学机器人研究所针对机器人的定向神经外科手术展开了立项研究,这一研究打开了我国对机器人在医学领域的大门(Wang等,2012)。2001年北京航天大学联合海军医院与清华大学在共同研发无框架定向神经外科手术机器人时引入了虚拟现实技术,开创了国内自主开发外科手术机器人的先河(Zhao和Wang,2010)。2005年天津大学发明了关于喉部手术“妙手”系统。2006年北京积水潭医院与延安大学附属医院联合完成了基于立体视觉的机器人及远程手术关于骨科的第一个案例(Jiang等,2013)。哈尔滨大学基于达芬奇手术机器人进行了腹腔镜手术,并发明了手术操作中所使用的相关手术器械,对猪的胆囊进行远程剥离操作实验,并取得了成功(王征,2006)。通过了解不同专业外科医生对远程医疗和远程医疗技术的具体需求,我国的机器人手术也在远程医疗和远程医疗服务中逐步发展。3存在的问题与未来的发展3.1存在的问题沉浸式立体显示技术通过其沉浸性(immersion)、互动性(interactivity)和构想性(imagination),将真实世界和虚拟世界进行融合,把虚拟信息叠加到现实世界上产生虚实结合的效果,给临床医学中的各种复杂应用场景提供了训练与决策方式的变革(Qian等,2017)。但需要注意的是,目前沉浸式立体显示技术在临床医学中,仍然需要解决几个关键的技术问题:1) 如何实现人体器官模型建模的智能化和精确化,虚拟病人和临床手术环境的高效物理建模(physics-based rendering, PBR),例如:颜色复现的准确性、立体视觉真实感、准确的纹理表现,以及生物组织的非匀质、半透明光学特性,具有较高的动态范围,另外扫描设备在获得物体的三维颜色信息、纹理信息时,由于器官光滑包膜表面的散射和高光变得困难,同时也很难通过反射信号获得准确的空间编码信息。2) 虚拟环境的实时三维注册和视觉图像的融合呈现,将医学图像数据库前期的信息与术中器官组织的实时状态进行无缝关联和交叠,是现阶段AR手术导航中面临的最大挑战。例如:如何将术前CT/MRI静态图像重建的三维图形与术中呼吸状态下的动态人体器官进行精准注册融合,以及手术过程中烫断、切割和剥离等复杂场景中的虚拟重建信息的实时逼真合成等。3) 沉浸式交互过程中硬件系统设计本身带来的问题,例如:传感器和真实图像之间的图像偏差,需要对亮度以及光学传感进行实时矫正;同时现有的手术仿真系统的交互设备及SDK(software development kit),绝大多数仅支持单触点和纯压觉(Haptic)的触觉渲染,但对于复杂手术过程中要求的双手、多指、动—压觉精细渲染的要求还差很远,如何将复杂的视—触交互模型应用推广到手术训练的范围和更深层次的现实场景中的问题,仍然亟待解决。3.2发展趋势与展望扩展现实技术可用于医学解剖教学,使医学院学生能够更加直观地了解人体的器官组织结构及与相邻器官组织的空间位置关系。同时,作为扩展现实技术和医学研究结合的重要成果,虚拟手术也是当今医学领域研究的热点问题之一。扩展现实技术与医学相结合的虚拟手术,成为解决手术问题和训练外科医生的研究热点。结合扩展现实技术的手术模拟器可以对实习医生和住院医师进行手术技能模拟训练,快速提高操作者的手术技能,如双手协调、手眼协调和深度感知能力等。增强现实技术在手术导航中具有重要的作用,如增强现实外科导航系统,用以辅助脊椎、颅骨和创伤外科手术,基于增强现实的穿刺活检导航等。另外,机器人辅助系统在微创手术中得到了广泛的应用,可以显著提高手术过程的精密度和准确性。新的VR/AR类硬件设备,需要医生学习和适应新的显示模式和临床具体应用场景结合,掌握新的系统操作技巧;同时3D头盔或显示器的长时间佩戴,会给医生带来眩晕和头痛等不适感。在认真分析上述问题并提出针对性的解决方案后,才能促使临床医学与立体显示技术的相互促进和融合发展。4结语沉浸式立体显示技术作为一个集医学、生物力学、光学工程、材料科学和计算机技术等诸多学科为一体的交叉研究领域,目前已成为一个新兴的研究方向。本文充分分析了立体显示技术在临床医学中的应用,介绍了微创外科手术以及远程诊疗领域的国内外研究现状,从影像诊断、手术训练、规划与导航、治疗和教育培训4个方面,总结了立体显示技术在临床医学领域中的研究进展。在未来临床医学领域,借助三维图像技术、混合现实技术、人机交互技术等一系列前沿计算机技术,能够更加直观、精准地使混合现实设备呈现可视化三维图形,并提供一系列数字模拟工具,使得临床医生可以依据虚拟模型与真实临床应用场景进行交流沟通,从而更精准的定制个体化的临床诊断和治疗方案。
使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,
确定继续浏览么?
复制成功,请在其他浏览器进行阅读
复制地址链接在其他浏览器打开
继续浏览