Print

发布时间: 2017-05-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.160601
2017 | Volume 22 | Number 5




    第十八届全国图像图形
学术会议专栏    




  <<上一篇 




  下一篇>> 





虚拟结肠镜中皱襞预匹配的结肠配准
expand article info 郭志飞1,2, 段侪杰1,2, 梁正荣3
1. 深圳市无损和微创医疗技术重点实验室, 清华大学深圳研究生院, 深圳 518055;
2. 清华大学生物医学工程系, 北京 100084;
3. 美国纽约州立大学石溪分校放射学系, 纽约 11790

摘要

目的 虚拟结肠镜是一种采用CT或者MRI图像重建出结肠3维结构,通过漫游虚拟结肠来检测结肠组织,一般用于早期结直肠癌筛查。结肠配准能够有效提高息肉检测的效率和精确度,但由于仰卧和俯卧位下的结肠图像形变太大,现有的配准方案中特征点的提取没有考虑到较多特殊情况,因此需要寻找一个新的配准方案完成完整的结肠配准。 方法 提出了一种新的结肠图像配准方法,能够完成不同体位获取的虚拟结肠图像之间的配准。首先提取可以反映结肠结构信息的皱襞特征,用模板匹配和特征匹配方法找出两幅结肠中匹配的皱襞对。然后将匹配对的中心点作为标记点,做基于标记点的非刚性粗配准,最后将两幅图做B样条配准完成细配准。这种方法能够将结肠内部较大的形变先矫正,使得两幅图之间的形变缩小到一定范围,然后利用传统配准方法能够完成配准。 结果 在5套数据中,找到能够成功匹配的皱襞区域数量占所有分割出的皱襞区域总数量的62%左右,匹配错误率为4.7%左右。完成皱襞粗配准后,结肠形变明显趋于一致,灰度值相对误差减小,最终完成了结肠配准。 结论 先进行皱襞匹配再做基于匹配好的皱襞的映射关系做结肠配准,能够将存在较大形变的两套结肠匹配起来。在之后的工作中需要量化特征点选取对配准结果的影响,同时在做配准评估时,单纯采用灰度差值不能很好完成评估,因为灰度特征只能一定程度反映整体差异,不能很好体现结构差异,需要添加其他评估标准辅助配准评估。

关键词

虚拟结肠镜; 展平; 配准; 皱襞; 匹配

Colon images registration based on the pre-match of haustral folds
expand article info Guo Zhifei1,2, Duan Chaijie1,2, Liang Zhengrong3
1. Shenzhen Key Laboratory for Nondestructive and Minimal Invasive Medical Technologies, Graduate School at Shenzhen, Tsinghua University, Shenzhen 518055, China;
2. Department of Biomedical Engineering, Tsinghua University, Beijing 100084, China;
3. Department of Radiology, Stony Brook University, Stony Brook, New York 11790, USA
Supported by: National Natural Science Foundation of China (81230035)

Abstract

Objective Virtual colonoscopy is a method that scans through the 3D structure of a colon constructed by CT or MRI images and detects colon tissue, specifically, the polypus, which has great significance for early colorectal cancer screening. Registering colon images that have been acquired with different body positions can greatly improve the efficiency and accuracy of polyp detection in virtual colonoscopy. However, the traditional registration cannot accomplish this goal because of the drastic change in the supine and prone position of the patient, and the extraction of the feature points in the existing registration scheme does not take into account more special cases. Therefore, finding a new registration scheme of colon image is crucial. Method In this paper, a new method of colon registration that can complete the image registration acquired in different positions is proposed. Many previous works gradually flatten the three-dimensional (3D) colon to two-dimensional (2D) coordinates because of the large volume of 3D colon data. Registering 2D colon image directly is more convenient and easy to use for clinical application. Substantial work has been done to extract the effective feature points of the two images in registration. However, feature points acquired with previous methods cannot fully reflect the structural characteristics of the colon images obtained in different body positions, particularly the correlation between the two images. Haustral folds are remarkable and distributed in the entire colon; these folds are stable while the patient switches position. Therefore, the corresponding center of the fold can fully reflect the structural characteristics of the colon and is very suitable for colon registration. This paper proposes a new method to match the folds the two colon images and extract the center of matched folds as the feature point for registration. The complete registration scheme is as follows. First, extract the haustral fold that can reflect the information of fold structure. Gather the matched haustral folds using the method of template matching and feature matching and extract the center of matched folds as the feature points for image registration. Subsequently, do the non-rigid registration based in the center of matched haustral folds as coarse registration. The deformation between the two images is reduced in a more appropriate range after coarse registration. Finally, use b-spline registration based on gray value to complete the fine registration of the two pictures. This method can retrieve the drastic change in the colon image and make the change of the two images within certain limits. The traditional registration method can also be used as the feature point registration in previous works. Result Specific trained people can find out the two sets of matching colon folds because of the fold is remarkable in the colon. In the five sets of clinical data, about 62% haustral folds can be matched in comparison with the results of artificial matching. The rate of matching error is 4.7% because the center of matched folds is a significant feature point with high confidence in the two colon images and is very stable when patients switch position from supine to prone. The center of matched folds is more illustrative than other structural feature points in colon registration. The colonic deformation decreases after the rough registration of the folds, which makes the two colon images be registered using the traditional registration method. We accomplished the registration of colon images by using b-spline registration based on coarse registration. After registration, the gray absolute difference between the two colon images is clearly reduced. The set of colons that matches the high ratio of folds has the best registration accuracy. The gray value of the folds will have some differences because of the different angles of color rendering, and the absolute difference of gray image will still have a certain value after image registration. However, gray-scale difference can only reflect the global difference between the two colon images, but the structural features of the colon cannot be well evaluated. Therefore, the difference of polyp location detected by clinicians will be added to improve the evaluation method in the future. Conclusion A new colon registration scheme is proposed in this paper. The drastic deformation between colon images caused by colon displacement and colon leakage makes the registration environment more complex and the previous feature points acquired unable to work well. Compared with the feature points using the previous method, the center of matched folds used as feature points can characterize the colon structure more significantly. The deformation of two colon images can be corrected when performing the rough registration of two colon images. We also completed fine registration using b-spline registration method based on coarse registration. In the present work, selecting the central points of the matched folds is still a more subjective process. Using all the center points may cause over registration and using less center points may also cause under-registration. Moreover, there will be more quantitative work on the final selection of feature points. However, the assessment cannot be completed simply using the difference of gray scale when performing registration evaluation. Therefore, others should be selected as criteria to improve the results of registration evaluation.

Key words

virtual colonoscopy; flatten; registration; haustral fold; matching

0 引言

大肠癌,包括结直肠癌,是常见的恶性肿瘤,全世界范围内大肠癌的发病率男女均处于恶性肿瘤的前列。中国结直肠癌发病率和死亡例数分别占全世界发病率和死亡例数的18.6 %和20.1 %,均居第1位[1],中国癌症预防与控制规划纲要已将结直肠癌列为重点防治对象。结肠息肉发展到癌症一般要10年左右的时间,因此早期的筛查和治疗能够极大地降低结直肠癌的发病率和死亡率[1]

虚拟结肠镜 (VC) 技术是一种无创无痛的结肠内部肿瘤检测技术,通过获取患者腹部断层扫描 (CT) 图像重建结肠内腔结构并可视化,采用腔内漫游的方式供医生检查,观察息肉等异常结构,如图 1所示。相对于传统光学结肠镜来说,VC不需要内窥镜体插入,无穿透无感染,患者痛苦低,观察角度全面准确度高的优点。计算机辅助检测 (CAD) 技术能够有效降低息肉误检和漏检的概率,提高医生的检查效率和精度。如何提高CAD技术对结肠息肉检测的灵敏度,同时降低假阳性率,是该领域一直以来的研究热点。对不同体位获取的虚拟结肠图像进行配准,特别是在CAD系统中能够将同一息肉在仰卧位和俯卧位数据中的位置进行自动的对应,则可以提取更多的有效信息和特征加以分析 (比如在重力作用下,仰卧位中几何特征不明显的息肉,在俯卧位中可能表现出更明显的几何特征),进而提高CAD息肉检测的灵敏度和特异性。同时,也有利于医生在两套数据间快速定位同一个息肉,方便医生进行高效的对比检查。

图 1 虚拟结肠镜
Fig. 1 Virtual colonoscopy ((a) lumen of the virtual colon; (b) panorama of the virtual colon)

人体结肠具有复杂的管腔状结构,而且随着人体移动,结肠形态也随之改变,相比于肺部和心脏的有规律、小范围形变而言,结肠配准的难度更为复杂。Nain等人[2]提出了一种中心线配准方法实现了不同体位虚拟结肠的同步显示,并将中心线配准方法引入结肠配准。Nappi等人[3]及Li等人[4]通过改进中心线配准方法,实现了辅助息肉检测的不同体位的结肠配准。Nappi等人[3]用来匹配的结肠段是在3维空间中用区域生长法获取的。但在数据提取时,患者结肠并不一定能保证处于完全充气状态,尤其是切换体位时,漏气现象将会很明显影响区域生长效果,这将使得配准尺度明显改变。Li等人[4]提出的配准方法基于中心线上局部z坐标变换剧烈的特征点,对于结构复杂的结肠,不同体位上这种特征特别多,容易导致误匹配。同时,基于3维结肠配准的方法,计算量也很大,因此逐渐出现了将3维结肠映射到2维平面,对得到的不同体位的2维展平结肠进行配准。Hampshire等人[5]用保角映射的方法将结肠展平,以展平后结肠上皱襞灰度值作为特征点,利用不同尺度的B样条晶格控制图像变化,完成图像由粗到细的配准。Hampshire直接使用了不同体位上的皱襞灰度信息,这要求用于配准的两套结肠上的皱襞基本对应,即皱襞数目形状变化不大。但在实际数据获取中,患者从仰卧位到俯卧位移动时,在数据中体现的皱襞形态和数目都会发生改变,如果直接使用皱襞灰度信息很可能出现配准失败的问题。Zeng等人[6]对展平后结肠进行处理,用图割法提取皱襞和特征点,对两幅图上的特征点生成谐波映射函数并作为目标函数完成配准。这种方法在结肠上皱襞密集的部分如升结肠和横结肠能够得到比较好的结果,但在皱襞稀疏的结肠段如降结肠和乙状结肠,由于皱襞稀疏,特征点较少,并不一定能完成配准,因此这种方法不太适用于整套结肠配准。

结肠内腔结构的复杂包括结肠本身生理结构的复杂,如皱襞形态和分布不一,结肠带位置等,还包括数据获取时外界因素导致的复杂,如患者由仰卧位切换到俯卧位时,结肠充气状态的改变,位移带来的结肠形态改变尤其是皱襞形态的改变。针对于现有虚拟结肠配准工作中出现的问题,本文提出一种新的结肠配准方法,利用两套结肠共有的特征,完成两套结肠的配准。首先是将3维结肠通过保角映射方法展平成2维平面,将3维结肠上的结构信息映射到展平后的2维图像上,然后通过局部空间信息和皱襞特征寻找两幅图像中的匹配皱襞对,获取匹配皱襞对的中心作为标记点,最后根据皱襞中心的映射关系做标记点配准完成结肠图像粗配准,矫正内部形变,并用B样条配准在粗配准基础上完成细配准。

1 方法

结肠具有复杂的生理结构,包括3条由肌肉组成的结肠带,以及由于结肠带和结肠管腔长度不一形成的若干结肠袋和结肠袋襞。结肠袋襞在形态上表现为明显的环状向内凸起,遍布整个结肠腔,可以作为区分结肠几何结构的有效标记。因此,可以通过将结肠袋襞作为标记物,对仰卧位和俯卧位的两套结肠数据进行位置映射和配准。为了降低计算复杂度,需要将3维结肠映射到2维平面,采用保角映射[7-8]的方法能够很好地保留结肠局部特征,方便皱襞提取,如图 2所示。

图 2 3维结肠展平效果示例
Fig. 2 Example of flatten colon

结肠配准方法流程图如图 3所示。首先将结肠展平,计算3维结肠上每个点的平均曲率和最大最小曲率并映射到2维,计算形状特征指数 (SICV),然后根据形状特征对2维结肠做颜色编码,再通过图割法提取出皱襞特征,之后根据获取的皱襞特征求出皱襞信息匹配出最合适的皱襞对,提取皱襞中心得到两幅结肠的匹配点,最后根据匹配点进行结肠粗配准,再进一步完成皱襞细配准。

图 3 结肠配准流程图
Fig. 3 Flow chart of colon registration

1.1 结肠皱襞提取和分割

将3维结肠展平的2维平面后,直接根据点在3维空间的向量信息来对2维点做颜色渲染,虽然整体上较为美观,但是并不利于单独提取出皱襞结构。因此需要采用别的颜色编码方法,突出皱襞特征,从而完成皱襞提取。

在现有的皱襞提取方案中,Wei等人[9]采用Gabor滤波器的方法对展平后的结肠进行滤波提取皱襞轮廓,但这种方法只适用于提取皱襞大致轮廓。Xu等人[10]提出了一种计算互补测地线距离变换的方法完成皱襞提取,步骤较为复杂。目前主流皱襞提取方法仍然是基于3维结肠节点曲率特征进行的[11]

形状特征指数包含了对拓扑结构的形状描述 ($SI$) 和弯曲度描述 ($CV$)。对于3维空间中某个曲面上的点$p$,可以通过计算该点的主曲率 (包括最大、最小曲率) 来计算$SI$$CV$值,即

$SI\left( p \right) = \frac{1}{2}-\frac{1}{\pi }\arctan \frac{{{k_1}\left( p \right) + {k_2}\left( p \right)}}{{{k_1}\left( p \right)-{k_2}\left( p \right)}}$ (1)

$CV\left( p \right) = \frac{2}{\pi }\ln \sqrt {{k_1}{{\left( p \right)}^2} + {k_2}{{\left( p \right)}^2}} $ (2)

式中,$k_1$$k_2$分别表示某点的最大曲率和最小曲率。

$SI$值范围为[0,1],反应了点局部曲面的形状,0~1的值分别对应从杯形到肚脐形的变化,如图 4所示。很明显可以从图 4看出,皱襞形状类似于马鞍形,因此在皱襞上的点$SI$值一般在0.75左右。$CV$指的是点局部曲面的弯曲程度,范围为[0,+∞],$CV$值越大,局部曲面变化越剧烈,反之越显得平坦。

图 4 SI值对应的不同形状特征[12]
Fig. 4 Different shape characteristics corresponding $SI$ value[12]

利用结肠上点的SICV特征,根据一定规则做颜色编码,可以很好地体现出两套结肠上的皱襞结构,显示效果如图 5所示。

图 5 根据SICV值做颜色编码后的图像
Fig. 5 The colon image after color coded with SICV ((a) supine image; (b) prone image)

为了将皱襞从图像中提取出来,采用图割法对两套结肠进行特征提取。根据图像灰度值设定图像上每个像素与背景和目标的边权值,再利用最大流、最小割的方法[13]去解决一个能量最小化的问题,完成图像分割,能量函数计算公式为

$E\left( L \right) = \sum\limits_{p \in P} {{D_p}\left( {{L_p}} \right)} + \sum\limits_{\left( {p, q} \right) \in N} {{V_{p, q}}\left( {{L_p}, {L_q}} \right)} $ (3)

${D_p}\left( {{L_p}} \right) = {\left( {{I_p}-{I_{{L_p}}}} \right)^2}$ (4)

${V_{p, q}}\left( {{L_p}, {L_q}} \right) = \exp \left( {-\frac{{{{\left( {{I_p}-{I_q}} \right)}^2}}}{\sigma }} \right)$ (5)

式中,$L = \left\{ {{L_p}\left| {p \in P} \right.} \right\}$为图像$P$的标签,${D_p}\left( \cdot \right)$为惩罚项,${V_{p, q}}\left( \cdot \right)$为相邻像素的边权值,认为该点与周围点有联系,$N$为相邻像素集合,如4邻域或8邻域像素集合。${I_p}, {I_q}$分别为像素$p$$q$的灰度值,$I_{Lp}$为该类中心灰度值,$\sigma $为图像方差。

图割法在二值标号问题中能得到能量函数全局最小,得到的数值解有很强的鲁棒性,相比与区域生长种子点很难选取,分水岭分割容易过分割,图割算法能很好地将皱襞特征从背景中分割出来。

先将结肠映射到矩形区域,再做图割计算,结果如图 6所示。

图 6 图割法分割皱襞
Fig. 6 Haustralfold segmentation with graph cut method ((a) supine image; (b) prone image)

1.2 皱襞匹配

在采用不同体位拍摄CT时,患者的移动会导致结肠较大形变,部分皱襞可能会粘连或者拉长,皱襞特征也可能会变得不明显,这在图中表现是部分皱襞发生缺失。因此如果仅根据皱襞本身的几何和纹理信息,并不能很好地在另一幅图像中找到对应的皱襞,容易出现匹配错误或者失败。本文提出一种新的皱襞匹配方法:对于当前皱襞,先用其周围局部结构作为模板,寻找在另一幅图像上的最佳匹配区域,再根据皱襞位置、形状、曲率和纹理信息,寻找匹配程度大于一定阈值的皱襞作为匹配项。

1) 模板匹配。对任意一个皱襞,将皱襞周围大小为$m \times n$的区域$p$裁剪下来作为目标模板。在另一幅结肠图像上的对应位置周围的一个大小为$M \times N$的扩展区域$s$内进行搜索匹配,得到一个相关系数矩阵,求出具有最大的相关系数的位置,作为$p$$s$上的最佳匹配点。模板匹配示意图如图 7所示。

图 7 模板匹配示意图
Fig. 7 Schematic diagram of template matching ((a) template cut from p; (b) target area cut from s; (c) cross correlation matrix; (d) cross-correlation maximum points)

2) 模板匹配的优点。对皱襞形状、面积和位置有一定容忍性,对皱襞空间结构有一定限制,这比较符合皱襞分布,皱褶在两个图像中虽然有位移和形变,但是空间结构大致不变,因此通过相关可以求出皱襞最可能匹配区域。

3) 具体匹配流程如下:

(1) 在皱襞$p_i$周围截出一小块区域$p$,用模板匹配法求出$p$$S$上的互相关最大点${c_{\max }}\left( {p, s} \right)$,设定阈值$c_{\rm{T}}$,如果${c_{\max }}\left( {p, s} \right) > {c_{\rm{T}}}$,则进入下一步,否则停止搜索匹配项;

(2) 找到疑似对应项$s_i$后,检测$p_i$$s_i$在图像中的相对位置,计算$p_i$$s_i$之间的距离$d_{\rm{ps}}$,设定阈值$d_{\rm{T}}$,如果${d_{{\rm{ps}}}}s < {d_{\rm{T}}}$则进入下一步,否则停止搜索;

(3) 分别计算$p_i$$s_i$的外接椭圆,获取两个椭圆的主曲率方向并计算夹角${\theta _{{\rm{ps}}}}$,设定阈值${a_{\rm{T}}}$,如果${\theta _{{\rm{ps}}}} < {a_{\rm{T}}}$,进入下一步,否则停止搜索。

(4) 计算$p_i$$s_i$之间的灰度方差差值${\sigma _{{\rm{ps}}}}$,设定阈值${\sigma _{\rm{T}}}$,如果${\sigma _{{\rm{ps}}}} < {\sigma _{\rm{T}}}$,确定$p_i$$s_i$匹配,否则$p_i$无匹配项。

图 7所示,模板匹配采用了皱襞$p_i$周围一定区域的空间信息作为源,以皱襞中心为模板中心,寻找与$p_i$周围空间结构类似目标区域,利用了局部空间结构特征搜索。模板匹配并不完全要求局部空间对应,对结构形变有一定容忍性,只有在$S$上找到与皱襞周围空间有一定相似度的区域才算空间匹配成功。如果求出的目标区域中心$x$正好在一个皱襞上,则将该皱襞作为候选皱襞$s_i$,否则选距离中心$x$最近的皱襞作为候选皱襞$s_i$。在保证局部空间对应下,用两个皱襞在各自图像上的相对位置的距离,皱襞外接椭圆主曲率差和皱襞灰度方差作为进一步确认。这样保证了皱襞在图像上相对位置的相似,皱襞大致轮廓相似和皱襞纹理相似。

获取皱襞匹配对信息后,就可以根据匹配的皱襞中心位置,得到两幅图的匹配点对,用标记点配准方法,将匹配点对作为两幅图的标记点,用自由网格模型 (FFD) 做初步的非刚性配准[14-15],之后在ITK (insight toolkit) 中,在粗配准的基础上用基于灰度值的B样条配准完成进一步的细配准。

2 实验

采用算法匹配与人工匹配对比的方式验证匹配算法。由于褶皱特征较为明显,具备一定结肠生理特征知识的人员便可完成人工匹配。验证方案如下:

1) 对获取的两套3维结肠体数据做等值面分割,并展平到2维平面;

2) 根据SICV值提取两套展平结肠的褶皱特征,并分割褶皱;

3) 根据两套结肠上的褶皱特征信息,人工匹配褶皱对并记录;

4) 采用本文算法匹配两套结肠上的褶皱,并对比人工匹配结果,分析匹配效果。

图像匹配结果如图 8(a)所示。在临床采集的5套数据中,成功匹配的皱襞区域数量占所有分割出的皱襞区域总数量的62 %左右,匹配错误率为4.75 %左右,具体如表 1所示。

图 8 匹配和粗配准
Fig. 8 Fold matching and coarse registration ((a) result after matching; (b) result after coarse registration)

表 1 不同结肠皱襞匹配成功率和错误率
Table 1 The proportion of matched fold in different colon

下载CSV
/ %
结肠样本
1 2 3 4 5
成功率 60.75 56.52 92.97 53.06 48.98
错误率 4.67 5.17 4.68 5.36 3.85

皱襞匹配完成后,以获取的匹配好的皱襞中心点作为两套结肠配准的标记点,从而生成B样条晶格,控制两套结肠做初步的FFD非刚性配准。在粗配准的基础上,在ITK中做基于灰度值的B样条细配准,从而完成两套结肠的配准,配准结果如图 9所示。

图 9 配准结果
Fig. 9 Registration result ((a) supine image; (b) prone image; (c) registration result)

由于存在皱襞缺失的情况,直接采用了两幅图匹配皱襞处的灰度绝对差值作为配准评估标准。结果如表 2所示。

表 2 配准前后匹配皱襞处灰度绝对差值
Table 2 The gray absolute difference among matched fold before and after registration

下载CSV
结肠样本 灰度值
配准前 配准后
1 18 166 8 743
2 18 152 7 993
3 25 554 4 443
4 12 312 8 385
5 14 894 9 517

本文采用的结构特征结合局部空间信息的皱襞匹配方法,能够将两套结肠大部分对应的皱襞提取出。与人工匹配结果对比,本文算法匹配错误率平均低于5 %,匹配成功的皱襞占结肠皱襞总数平均为62 %。皱襞匹配后提取的皱襞中心点足够于作为特征点用于结肠配准。由于匹配皱襞中心点是置信度很高的同时存在于两套结肠中的显著特征点,结合皱襞能够很好地表征两套结肠之间的结构差异,因此匹配皱襞的中心点作为配准特征点,相对于其他结构特征点[3-4]更具有代表性。

表 2可知,对俯卧位和仰卧位结肠配准后,匹配皱襞处灰度绝对差值明显减少。其中第2套结肠配准效果最好,主要是因为匹配成功的皱襞比率很高,结肠图像结构差异并不是特别大。由于不同角度下颜色渲染后的皱襞灰度会有一定差异,配准后的灰度绝对差值仍会有一定值。灰度差值只能一定程度反映出图像配准后整体的配准效果,对于结肠内重要的结构特征并不能很好评估,因此在之后的工作中,将会添加特征点、息肉位置在配准前后的差异,从而完善本文配准方法的评估。

3 结论

提出了一种新的结肠配准方法,在展平后的两套不同体位的结肠上,提取出结肠自身的皱襞特征,并对两套结肠上的皱襞特征进行匹配,寻找出两套结肠上共有的皱襞特征,从而获取出两套结肠图像特征映射关系。根据匹配皱襞中心点位置完成图像粗配准,将两幅图像之间的形变差异降到一定范围,并在之后完成图像细配准。

目前的结肠配准方案中,主要工作仍然集中于提取出两幅结肠上的特征点做配准。相比较于分别在两套结肠上寻找符合条件的特征点,本文采用的是两套结肠上共有的显著特征即匹配成功的皱襞中心点作为特征点,这种共有特征点更加适用于由于位移、漏气等原因导致结肠配准环境更为复杂的情况。根据皱襞本身分布于整套结肠的特点,根据匹配得到的特征点同时适用于整套结肠的配准,从而避免分段配准导致结肠局部扭曲的现象。

目前的工作中,从匹配成功的皱襞中心点中选取部分中心点作为特征点用于图像配准仍然是一个较为主观性的过程,本文采取的方法是计算每对匹配成功的皱襞中心点之间的位置差异,选取差异大于一定阈值的中心点作为特征点。配准时发现不同的中心点选取方案对配准结果有一定影响,因此在今后的工作中,针对于特征点最终选取问题将会做更加量化的工作。同时在配准结果评估中,直接采用灰度差值作为评估标准并不完善,需要添加息肉位置配准效果评估,从而完善配准结果。

参考文献

  • [1] Zheng S, Zhang S Z, Huang Y Q. Review and current status of colorectal study in 30 year[J]. Journal of Practical Oncology, 2016, 31(1): 2–5. [郑树, 张苏展, 黄彦钦. 结直肠癌研究30年回顾和现状[J]. 实用肿瘤杂志, 2016, 31(1): 2–5. ] [DOI:10.13267/j.cnki.syzlzz.2016.01.002]
  • [2] Nain D, Haker S, GrimsonW E L, et al. Intra-patient prone to supine colon registration for synchronized virtual colonoscopy[C]//Proceedings of the 5th International Conference on Medical Image Computing and Computer-Assisted Intervention. Berlin Heidelberg:Springer, 2002, 2489:573-580.[DOI:10.1007/3-540-45787-9_72]
  • [3] Näppi J, Okamura A, Frimmel H, et al. Region-based supine-prone correspondence for the reduction of false-positive CAD polyp candidates in CT colonography[J]. Academic Radiology, 2005, 12(6): 695–707. [DOI:10.1016/j.acra.2004.12.026]
  • [4] Li P, Napel S, Acar B, et al. Registration of central paths and colonic polyps between supine and prone scans in computed tomography colonography:pilot study[J]. Medical Physics, 2004, 31(10): 2912–2923. [DOI:10.1118/1.1796171]
  • [5] Hampshire T E, Roth H R, Boone D J, et al. Prone to supine CT colonography registration using a landmark and intensity composite method[C]//Proceedings of the 4th International Workshop on Abdominal Imaging. Computational and Clinical Applications. Berlin Heidelberg:Springer, 2012, 7601:1-9.[DOI:10.1007/978-3-642-33612-6_1]
  • [6] Zeng W, Marino J, Gurijala K C, et al. Supine and prone colon registration using Quasi-conformal mapping[J]. IEEE Transactions on Visualization and Computer Graphics, 2010, 16(6): 1348–1357. [DOI:10.1109/TVCG.2010.200]
  • [7] Hong W, Gu X F, QiuF, et al. Conformal virtual colon flattening[C]//2006 ACM Symposium on Solid and Physical Modeling. New York:ACM, 2006:85-93.[DOI:10.1145/1128888.1128901]
  • [8] Zeng W, Samaras D, G uD. Ricci flow for 3D shape analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(4): 662–677. [DOI:10.1109/TPAMI.2009.201]
  • [9] Wei Z S, Yao J H, Wang S J, et al. Haustral fold detection for CT colonography images using gabor filter[C]//Proceedings of 2010 Conference Record of the Forty Fourth Asilomar Conference on Signals, Systems and Computers. Pacific Grove, CA:IEEE, 2010:329-331.[DOI:10.1109/ACSSC.2010.5757528]
  • [10] Xu Y R, Zhao J. Segmentation of haustral folds and polyps on haustral folds in CT colonography using complementary geodesic distance transformation[J]. Journal of Shanghai Jiaotong University (Science), 2014, 19(5): 513–520. [DOI:10.1007/s12204-014-1534-2]
  • [11] Zhu H B, Barish M, Pickhardt P, et al. Haustral fold segmentation with curvature-guided level set evolution[J]. IEEE Transactions on Biomedical Engineering, 2013, 60(2): 321–331. [DOI:10.1109/TBME.2012.2226242]
  • [12] Yoshida H, Nappi J. Three-dimensional computer-aided diagnosis scheme for detection of colonic polyps[J]. IEEE Transactions on Medical Imaging, 2001, 20(12): 1261–1274. [DOI:10.1109/42.974921]
  • [13] Boykov Y, Kolmogorov V. An experimental comparison of min-cut/max-flow algorithms for energy minimization in vision[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004, 26(9): 1124–1137. [DOI:10.1109/TPAMI.2004.60]
  • [14] Modat M, Zeike A, Barnes J, et al. Fast free-form deformation using the normalised mutual information gradient and graphics processing units[C]//HP-MICCA, New York:MICCAI 2008 Workshop, Amsterdam, The Netherlands:Elsevier, 2010:278-284.[DOI:10.1016/j.cmpb.2009.09.002]
  • [15] Modat M, McClelland J, Ourselin S.Lung registration using the NiftyReg package[C]//Medical Image Analysis for the Clinic:A Grand Challenge, Beijing:EMPIRE10, 2010:33-42.