|
发布时间: 2022-08-16 |
图像处理和编码 |
|
|
收稿日期: 2021-02-07; 修回日期: 2021-05-12; 预印本日期: 2021-05-19
基金项目: 国家重点研发计划资助(2017YFC0821402);国家自然科学基金项目(U1613214)
作者简介:
陈东岳,1980年生,男,教授,博士生导师,主要研究方向为计算机视觉和图像处理。E-mail:chendongyue@ise.neu.edu.cn
朱晓明,男,硕士研究生,主要研究方向为图像处理和机器视觉。E-mail:fuxiao567@163.com 马腾,男,硕士研究生,主要研究方向为图像处理和计算机视觉。E-mail:mateng0328@outlook.com 宋园园,女,硕士研究生,主要研究方向为3D人体重建。E-mail:2992046483@qq.com 贾同,通信作者,男,教授,博士生导师,主要研究方向为计算机视觉和生物医学图像处理和分析。E-mail:jiatong@ise.neu.edu.cn *通信作者: 贾同 jiatong@ise.neu.edu.cn
中图法分类号: TN911.73
文献标识码: A
文章编号: 1006-8961(2022)08-2344-12
|
摘要
目的 深度图像作为一种重要的视觉感知数据,其质量对于3维视觉系统至关重要。由于传统方法获取的深度图像大多有使用场景的限制,容易受到噪声和环境影响,导致深度图像缺失部分深度信息,使得修复深度图像仍然是一个值得研究并有待解决的问题。对此,本文提出一种用于深度图像修复的双尺度顺序填充框架。方法 首先,提出基于条件熵快速逼近的填充优先级估计算法。其次,采用最大似然估计实现缺失深度值的最优预测。最后,在像素和超像素两个尺度上对修复结果进行整合,准确实现了深度图像孔洞填充。结果 本文方法在主流数据集MB(Middlebury)上与7种方法进行比较,平均峰值信噪比(peak signal-to-noise ratio,PSNR)和平均结构相似性指数(structural similarity index,SSIM)分别为47.955 dB和0.998 2;在手工填充的数据集MB+中,本文方法的PSNR平均值为34.697 dB,SSIM平均值为0.978 5,对比其他算法,本文深度修复效果有较大优势。在时间效率对比实验中,本文方法也表现优异,具有较高的效率。在消融实验部分,对本文提出的填充优先级估计、深度值预测和双尺度改进分别进行评估,验证了本文创新点的有效性。结论 实验结果表明,本文方法在鲁棒性、精确度和效率方面相较于现有方法具有比较明显的优势。
关键词
深度图像修复; 顺序填充; 条件熵快速逼近; 深度最优预测; 超像素
Abstract
Objective The acquired depth information has led to the research development of three-dimensional reconstruction and stereo vision. However, the acquired depth images issues have challenged of image holes and image noise due to the lack of depth information. The quality of the depth image is as a benched data source for each 3D-vision(3DV) system. Our method is focused on the lack of depth map information repair derived from objective factors in the depth acquisition process. It is required of the high precision, the spatial distribution difference between color and depth features, the interference of noise and blur, and the large scale holes information loss. Method Real-time ability is relatively crucial in terms of the depth image recovery algorithms serving as pre-processing modules in the 3DV systems. The sequential filling method has been optimized in computational speed by processing each invalid point in one loop. The invalid points based pixels are obtained without depth values. By contrast, depth values captured pixels are referred to as valid points. Therefore, we facilitate a dual-scale sequential filling framework for depth image recovery. We carry out filling priority estimation and depth value prediction of the invalid points in this framework. For the evaluation of the priority of invalid points, we use conditional entropy as the benchmark for evaluating the priority of invalid point filling evaluation and verification. It is incredible to estimate the filling priority and filling depth value through the overall features of a single pixel and its 8-neighborhood. However, the use of multi-scale filtering increases the computational costs severely. We introduce the super-pixel over-segmentation algorithm to segment the input image into more small patches, which ensures the pixels inside the super-pixel homogeneous contexts like color, texture, and depth. We believe that the super-pixels can provide more reliable features in larger scale for priority estimation filling and depth value prediction. In addition, we optioned a simple linear iterative clustering (SLIC) algorithm to handle the super-pixel segmentation task and added a depth difference metric for the image characteristics of RGB-D to make it efficient and reliable. For depth estimation, we use maximum likelihood estimation to estimate the depth of invalid points integrated to the depth value exhaustive method. Finally, the restoration results are integrated on the pixel and super-pixel scales to accurately fill the holes in the depth image. Result Our method is compared to 7 methods related to dataset Middlebury (MB), which shows great advantages on deep repair effection. The averaged peak signal-to-noise ratio (PSNR) is 47.955 dB and the averaged structural similarity index (SSIM) is 0.998 2. Our PSNR reached 34.697 dB and the SSIM reached 0.978 5 in MB based manual populated data set for deep repair. The method herein verifies that this algorithm has relatively strong efficiency in comparison to time efficiency validation. Our filling priority estimation, depth value prediction and double-scale improvement ability are evaluated in the ablation experimental section separately. Conclusion We illustrate a dual-scale sequential filling framework for depth image recovery. The experimental results demonstrate that our algorithm proposed has its priority to optimize robustness, precision and efficiency.
Key words
depth image recovery; sequential filling; fast approximation of conditional entropy; depth value prediction; super-pixel
0 引言
3维视觉(three dimensional vision, 3DV)是图形学、计算机视觉和图像处理相互交叉的一个重要研究方向,广泛应用于场景建模、人机交互、工业产品测量、无人驾驶汽车和智能移动机器人等领域。深度图像作为感知、表征和存储3维信息的一种基本数据形式,广泛应用于各类3D(three dimensional)感知和建模方法。深度图像的准确性和完整性在很大程度上决定了3D点云和网格模型的质量。然而在具体应用中,无论使用多视角、结构光、TOF(time of flying)或激光扫描,在捕获的深度图像中都不可避免地会出现一些孔洞,这严重影响了3D重建的性能。因此,深度图像孔洞填充一直是3DV领域的一个关键问题。由于标签信息的缺失、孔洞位置和大小的不确定性以及对实时性能的高要求,深度图像孔洞填充目前仍然是一个未得到充分解决的开放性课题。现有的深度图像修复方法主要有3种思路:滤波、顺序填充和局部优化。
滤波方法通常使用滤波函数的输出预测孔洞区域无效点的深度值。典型算法包括多模式联合滤波算法和时空滤波算法。前者采用彩色图像与深度图像的双边联合滤波。典型的有:Min等人(2012)提出的基于联合直方图的加权滤波;Kopf等人(2007)提出的联合双边上采样方法;李应彬等人(2013)提出的利用直方图生成孔洞掩膜的双边滤波算法。后者基于无效点周围的时空邻域进行滤波实现深度预测。Matyunin等人(2011)利用视频对象的运动和颜色信息对深度图进行修复;林玲等人(2019)提出了在前期加入卡尔曼滤波对跳变进行处理的解决方案。滤波方法快速、简便,但通常只适用于类似于噪声点的面积较小的孔洞。对于比较大的孔洞,无论是放大滤波器窗口还是采用迭代滤波策略,都无法保证算法的准确性、可靠性和计算成本。
顺序填充法的代表性工作是快速行进法(fast marching method,FMM)(Telea,2004),根据到种子区域的快速行进距离对所有孔洞区域无效点进行排序,并根据其邻域的距离加权平均值进行填充。尽管可以通过引入基于颜色的权重作为指导来改进FMM(Gong等,2013),但是当边界附近的无效点在其邻域未完全处理之前被预先填充时,FMM往往会增加虚假边缘。此外,快速行进距离的更新非常耗时。
局部优化的基本思想是找到一种面向能量函数优化的局部填充模式。最常用的局部优化算法是低秩矩阵补全,比较经典的有Lee等人(2014)提出的可以自适应减少迭代步长的ADMiRA(atomic decomposition for minimum rank approximation)。低秩矩阵补全这类方法对直线区域补全效果较高,但对曲线形状孔洞的填充效果无法令人满意。局部优化方法中,比较典型的有马尔可夫随机场(Harrison和Newman,2010)和采取混沌粒子群优化的马尔可夫方法(曾祥进和卢成,2013)。此外,Liu和Gong(2013)和郑传远等人(2016)也尝试将各向异性扩散用于深度图像修复。基于马尔可夫随机场和各向异性扩散的一些研究工作也属于局部优化法,但上述算法的修复结果通常带有毛刺和边缘模糊。
基于以上分析,本文在彩色图像和深度图像联合修复的假设下,主要面向具有较大面积的深度图像孔洞,将基于最大似然估计的局部优化方法融入基于条件熵的顺序填充框架中,通过对正常像素和超像素两个尺度上的深度预测结果的融合实现深度图像修复。本文具体贡献可概括为如下两点:1)基于条件熵在像素和超像素两个尺度上的快速逼近,提出一种填充优先级估计的新算法,用于生成更加合理的填充顺序;2)提出基于最大似然估计的深度值优化算法来填充无效点。通过在顺序填充框架下对上述两点进行整合,最终提出并实现了深度图像的准确快速恢复。
1 算法
大多数深度图像修复算法在实际应用中对实时性要求较高。相比于其他类型方法,顺序填充方法由于仅需要对每个无效点处理一次,在计算速度上具有明显优势。因此本文采用顺序填充作为基本框架,将孔洞区域像素称为无效点,其他像素称为有效点,以无效点的填充优先级估计和深度值预测作为核心内容。算法框架如图 1所示。
1.1 RGB-D图像的超像素分割
完全依靠单个像素及其8-邻域特征来估计填充优先级和填充深度值是不可靠的,而使用多尺度滤波通常会显著增加计算负担。因此本文引入了超像素分割算法,将输入图像分为多个具有内部特征匀质性的超像素块。超像素可以在更大尺度上为填充优先级估计和深度值预测任务提供更可靠的判别与计算依据。
在超像素分割任务上,本文在可靠性与实时性表现最稳定的SLIC(simple linear Iterative clustering)(Achanta等,2012)算法的基础上,根据RGB-D图像的特点对算法进行了改进。原始的SLIC算法使用颜色和位置的差异来测量特定像素与相邻超像素之间的聚类距离。本文通过添加深度差构建了一种新的距离度量。具体为
$D = \sqrt {d_{\rm{c}}^2 + {{\left({\frac{{{d_{\rm{s}}}}}{S}} \right)}^2}{m^2} + {{\left({\frac{{{d_{\rm{r}}}}}{R}} \right)}^2}{k^2}} $ | (1) |
式中,
1.2 填充优先级估计
本文基于当前无效点实际深度值可由其邻域深度进行预测的假设,建立了顺序填充框架。为了加快填充过程,每个像素在顺序填充框架中仅填充一次。由于填充深度值主要取决于其有效邻域点的深度,即无效点邻域周围有效点越多,填充深度值时可以参考的有用信息就越多,因此应尽可能多地填充当前无效点的相关邻近像素。这正是本文将填充顺序作为研究重点的原因。
在确定填充顺序之前,本文需要为无效点的可预测性建立数学描述。在最大似然估计的框架下,当前无效点
$\begin{array}{l} {p_{\rm{d}}}(x\mid \mathit{\boldsymbol{S}}(x)) = p(d(x)\mid \mathit{\boldsymbol{c}}(x), \mathit{\boldsymbol{ \boldsymbol{\varOmega} }}(x)) = \\ \frac{{p(d(x), \mathit{\boldsymbol{c}}(x), \mathit{\boldsymbol{ \boldsymbol{\varOmega} }}(x))}}{{p(\mathit{\boldsymbol{c}}(x))p(\mathit{\boldsymbol{ \boldsymbol{\varOmega} }}(x))}} = \frac{{p(d(x), \mathit{\boldsymbol{c}}(x))}}{{p(\mathit{\boldsymbol{c}}(x))}} \end{array}$ | (2) |
式中,
$\begin{array}{c} En{t_{\rm{d}}}(x\mid \mathit{\boldsymbol{S}}(x)) = \\ - \int_0^{ + \infty } {{p_{\rm{d}}}} (x\mid \mathit{\boldsymbol{S}}(x))\log {p_{\rm{d}}}(x\mid \mathit{\boldsymbol{S}}(x)){\rm{d}}(d(x)) \end{array}$ | (3) |
本文将无效点
$p(\mathit{\boldsymbol{f}}(x)) = \sum\limits_{{x_i} \in \mathit{\boldsymbol{ \boldsymbol{\varOmega} }}(x)} {{\alpha _i}} p_i^f(x)$ | (4) |
式中,
$p_i^{\rm{f}}(x) = \frac{{\exp \left({ - \frac{1}{2}{\mathit{\boldsymbol{\theta }}_i}{{(x)}^{\rm{T}}}{{\left({\Sigma _i^{\rm{f}}} \right)}^{ - 1}}{\mathit{\boldsymbol{\theta }}_i}(x)} \right)}}{{\sqrt {{{(2\pi)}^l}\left| {\Sigma _i^{\rm{f}}} \right|} }}$ | (5) |
${\mathit{\boldsymbol{\theta }}_i}(x) = \mathit{\boldsymbol{f}}(x) - \mathit{\boldsymbol{f}}\left({{x_i}} \right)$ | (6) |
式中,
式(2)中的项
$p(\mathit{\boldsymbol{c}}(x)) = \int_0^{ + \infty } p (\mathit{\boldsymbol{f}}(x)){\rm{d}}(d(x))$ | (7) |
根据式(2)和式(3)分别计算条件概率分布
$H(\mathit{\boldsymbol{Q}}) = \sum\limits_{t = 1}^n E n{t_{\rm{d}}}\left({{x^{(t)}}\mid \mathit{\boldsymbol{S}}\left({{x^{(t)}}} \right)} \right)$ | (8) |
最佳填充顺序的求解可以视为一个优化问题,即
${\mathit{\boldsymbol{Q}}^*} = \mathop {{\mathop{\rm argmin}\nolimits} }\limits_\mathit{\boldsymbol{Q}} [H(\mathit{\boldsymbol{Q}})]$ | (9) |
需要注意的是,邻域
${x^{(t)}} = \mathop {{\mathop{\rm argmin}\nolimits} }\limits_x \left[ {Ent_{\rm{d}}^{(t)}(x\mid \mathit{\boldsymbol{S}}(x))} \right]$ | (10) |
因此,条件熵
1.3 条件熵的快速估计
为了快速计算每个无效点当前的条件熵
$\begin{array}{l} {p_{\rm{c}}} = \sum\limits_{{x_i} \in \mathit{\boldsymbol{ \boldsymbol{\varOmega} }}(x)} {{\alpha _i}} p_i^{\rm{c}}(x) = \\ \sum\limits_{{x_i} \in \mathit{\boldsymbol{ \boldsymbol{\varOmega} }}(x)} {{\alpha _i}} N\left({\mathit{\boldsymbol{c}}\left({{x_i}} \right), \Sigma _i^{\rm{c}}} \right) \end{array}$ | (11) |
式中,
$\begin{array}{c} En{t_{\rm{d}}} \approx - \sum\limits_{d \in \mathit{\boldsymbol{D}}} {\frac{{{p_{\rm{f}}}}}{{{p_{\rm{c}}}}}} \log \frac{{{p_{\rm{f}}}}}{{{p_{\rm{c}}}}} = \\ - \frac{1}{{{p_{\rm{c}}}}}\sum\limits_{d \in \mathit{\boldsymbol{D}}} {{p_{\rm{f}}}} \left({\log {p_{\rm{f}}} - \log {p_{\rm{c}}}} \right) = \frac{{ - \sum\limits_{d \in \mathit{\boldsymbol{D}}} {{p_{\rm{f}}}} \log {p_{\rm{f}}}}}{{{p_{\rm{c}}}}} + \\ \frac{{\log {p_{\rm{c}}}}}{{{p_{\rm{c}}}}}\sum\limits_{d \in \mathit{\boldsymbol{D}}} {{p_{\rm{f}}}} = \frac{{En{t_{\rm{f}}}}}{{{p_{\rm{c}}}}} + \log {p_{\rm{c}}} \end{array}$ | (12) |
显然,条件熵
根据式(4),RGB-D特征
$En{t_{\rm{f}}}(x) \approx - \sum\limits_{d \in \mathit{\boldsymbol{D}}{x_i} \in \mathit{\boldsymbol{ \boldsymbol{\varOmega} }}(x)} {\sum\limits_i {\log } } \left({\sum\limits_{{x_j} \in \mathit{\boldsymbol{ \boldsymbol{\varOmega} }}(x)} {{\alpha _j}} p_j^{\rm{f}}\left({{x_i}} \right)} \right)$ | (13) |
式中,
$\begin{array}{c} {\alpha _i} = \\ \frac{{(1 - \eta)r\left({{\mathit{\boldsymbol{c}}^{\rm{p}}}(x), {\mathit{\boldsymbol{c}}^{\rm{p}}}\left({{x_i}} \right)} \right) + \eta r\left({{\mathit{\boldsymbol{c}}^{{\rm{sp}}}}(x), {\mathit{\boldsymbol{c}}^{{\rm{sp}}}}\left({{x_i}} \right)} \right)}}{C} \end{array}$ | (14) |
式中,函数
为了论证本文提出的条件熵快速估计方法的合理性,首先根据式(12)分析
1.4 深度值最优预测
本文在第1.2节提到,无效点
${d^*}(x) = \mathop {{\mathop{\rm argmax}\nolimits} }\limits_{d(x) \in \mathit{\boldsymbol{D}}} {p_{\rm{d}}}(x\mid \mathit{\boldsymbol{S}}(x))$ | (15) |
由于
1.5 算法步骤
本文提出的条件熵快速逼近的双尺度顺序优化填充算法流程可简化归纳为填充优先级估计和深度值预测,具体步骤如下:
输入:RGB-D图像。彩色图像部分使用LAB色彩空间。
输出:填充后的深度图像。
初始化:
1) 执行改进SLIC算法,统计超像素色彩特征
2) 统计有效点集合
初始化
初始化
初始化
3) 计算
4)
顺序填充:
1) 在集合
2) 为
3) 更新
4) 在集合
5) 更新
6) 将
7) 重复上述步骤,直到集合
在初始化步骤中,首先对RGB-D图像进行超像素分割,并统计每个超像素对应的平均色彩特征向量
在顺序填充阶段,从无效点集合
2 实验结果与分析
实验使用具有32 GB RAM、1个Intel Xeon E5-2620处理器和2个GT1080Ti GPU卡的工作站,在MATLAB R2017a软件平台上测试。
2.1 数据集
实验采用在深度图像修复领域广泛使用的数据集Middlebury 2006(MB)(Scharstein和Pal,2007), 并建立了在深度通道上带有噪声和孔洞的RGB-D图像及其真值深度图像两个新数据集,以验证本文算法。第1个数据集称为MB+,包含直接从原始MB的21组数据集中收集的10组测试图像,相应的真实深度图是通过人工手动填充测试深度图像的孔来制作的,如图 3(a)(b)所示。第2个数据集称为MB-,其真实深度图与MB数据集的原始图像相同,相应的测试图像是通过添加一些新的孔来制作的,如图 3(c)(d)所示。
2.2 消融实验
为了客观衡量算法对深度图像的修复效果,采用峰值信噪比和结构相似性指数作为评价指标。峰值信噪比(peak signal-to-noise ratio,PSNR)主要用于衡量有损变换的重建质量,单位是dB,其值越大,代表图像失真越少。结构相似性指数(structural similarity index,SSIM)主要用于量化两幅图像间的结构相似性的指标,其值的范围为0~1,越大代表图像越相似。
消融实验对本文提出的填充优先级估计、深度值优化和双尺度改进分别进行评估,以验证本文创新点的有效性。在第1个实验中,将本文提出的基于条件熵的填充优先级估计方法(Ent)替换为渐进式Z-scanning(Zscan)、geodesic distance(GD)、基于颜色的快速行进距离(color-based fast marching distance,CFM)、基于深度的快速行进距离(depth-based fast marching distance,DFM)、有效邻域数(valid neighbors number,VN)和局部协方差(covariance,COV)等6种方法,其中,GD、CFM和DFM优先考虑与有效点距离较小的无效点,VN倾向于使用具有更多有效邻域的点,COV优先考虑具有较低局部协方差的像素点。实验将这些方法与本文提出的基于最大似然估计的深度值预测方法(maximum-probability-based depth value prediction,MaxP)结合起来,分别在MB+和MB-数据集上进行测试,得到的PSNR分数如图 4所示。
与上述方法相似,在第2个实验中,采用本文提出的基于条件熵的填充优先级估计方法,并将基于最大似然估计的深度值预测方法(MaxP)与加权平均法(weighted mean,WMean)、中值滤波法(median filter,Med)和最近邻法(nearest neighbor,NN)等深度值填充方法进行比较,在MB+和MB-数据集上进行测试,结果如图 5所示。
上述结果表明,对于数据集MB+和MB-中的大多数图像,在填充优先级估计和深度值预测两个实验中,本文算法均优于其他算法。表 1显示了MB+和MB-数据集上的9种替代算法以及本文算法的平均PSNR和SSIM得分。可以看出,本文算法Ent+MaxP在4个条件下均得分最高。结果表明,在两个阶段中本文方法都具有更好的精度和鲁棒性。从次优和第3优得分对比于其他没有应用基于熵的填充优先级的方法中可以看出,相比深度值预测,填充优先级估计的作用更关键。
表 1
MB+和MB-上不同组合的平均PSNR和SSIM分数
Table 1
Average PSNR and SSIM scores of different methods for the MB+ and MB-datasets
算法 | MB+数据集 | MB-数据集 | |||
PSNR/dB | SSIM | PSNR/dB | SSIM | ||
Ent+MaxP | 34.696 7 | 0.978 5 | 47.954 6 | 0.998 2 | |
Ent+Wmean | 34.445 8 | 0.978 1 | 47.424 3 | 0.998 2 | |
Ent+Med | 34.218 8 | 0.976 3 | 46.554 5 | 0.997 3 | |
Ent+NN | 34.123 8 | 0.977 0 | 44.782 4 | 0.997 0 | |
Zscan+MaxP | 32.460 6 | 0.972 9 | 42.498 4 | 0.994 9 | |
GD+MaxP | 30.428 8 | 0.961 4 | 36.939 2 | 0.989 1 | |
CFM+MaxP | 30.938 1 | 0.962 0 | 40.019 7 | 0.992 9 | |
DFM+MaxP | 31.053 8 | 0.963 3 | 39.300 6 | 0.990 6 | |
VN+MaxP | 32.915 0 | 0.974 4 | 43.001 2 | 0.994 1 | |
COV+MaxP | 32.225 6 | 0.971 6 | 42.261 1 | 0.993 0 | |
注:加粗、斜体、加下划线字体分别表示各列最优、次优、第3优结果。 |
此外,本文还通过改变式(14)中的比例因子
2.3 与其他算法的比较
为进一步验证本文算法的性能,与其他7个深度图像修复算法进行比较,包括各向异性扩散(anisotropic diffusion,AD)(Liu和Gong,2013)、快速行进方法(fast marching method, FMM)(Telea,2004)、低秩矩阵补全(low-rank matrix completion,LRC)(Wang等,2016)、马尔可夫随机场(Markov random field,MRF)(Harrison和Newman,2010)、加权模式滤波器(weighted mode filter,WMF)(Min等,2012)、基于区域的深度修复(region-based depth recovery,RDR)(Pertuz和Kamarainen,2017)和深度补全(deep depth completion,DDC)(Zhang和Funkhouser,2018)。
图 7显示了本文算法和本领域7个代表性算法在MB+和MB-上的PSNR得分。相对应地,图 8显示了8种算法在MB+和MB-数据集上的SSIM得分。结果显示,与其他竞争算法相比,本文算法具有明显优势。
为了更加直观地展示本文算法在修复效果上的优势,图 9显示了MB+中大多数图像在不同方法下的修复结果,从下至上依次为baby1、baby2、bowling、cloth、flowerpots、lampshade、midd、rocks1和rocks2图像,共9幅。图 10则具体显示了MB+中最典型的“芦荟(aloe)”图像的修复结果。
为了更好地展示各算法的修复效果,本文给出了“芦荟”图像修复细节放大图,如图 11所示。通过仔细观察,可以清楚地发现AD、MRF和WMF算法容易在边缘周围产生毛刺和模糊。FMM和LRC算法则经常会出现超出真实边界的伪边缘。RDR算法整体表现良好,但是也会在一些物体边缘产生模糊现象,导致细节缺失。而本文算法可以更清晰、更完整地保留真实边界,并且几乎不会产生毛刺。
在修复速度方面,本文算法与其他7种深度图像修复算法进行了比较,结果如表 2所示。
表 2
不同算法时间效率对比
Table 2
The time efficiency comparison of different algorithms
/s | |||||||||||||||||||||||||||||
方法 | 图像 | 平均 | |||||||||||||||||||||||||||
aloe | baby1 | bowling | midd | rocks1 | |||||||||||||||||||||||||
AD | 3.859 2 | 3.587 7 | 3.803 7 | 3.629 9 | 3.683 8 | 3.712 8 | |||||||||||||||||||||||
FMM | 1.279 5 | 1.202 2 | 1.131 9 | 1.095 7 | 1.169 0 | 1.175 6 | |||||||||||||||||||||||
LRC | 5.242 3 | 5.407 8 | 5.232 6 | 5.379 3 | 5.585 3 | 5.369 5 | |||||||||||||||||||||||
MRF | 10.841 9 | 8.995 7 | 9.174 1 | 9.479 2 | 9.023 6 | 9.502 9 | |||||||||||||||||||||||
WMF | 23.043 | 23.635 2 | 23.631 1 | 24.284 1 | 24.217 5 | 23.762 2 | |||||||||||||||||||||||
DDC | 5.194 7 | 3.744 3 | 3.822 3 | 3.766 1 | 3.607 3 | 4.026 9 | |||||||||||||||||||||||
RDR | 18.576 0 | 19.105 5 | 18.741 1 | 20.448 1 | 19.839 6 | 19.342 1 | |||||||||||||||||||||||
本文 | 0.499 4 | 0.503 0 | 0.459 9 | 0.438 0 | 0.437 3 | 0.467 5 | |||||||||||||||||||||||
注:加粗字体表示各列最优结果。 |
本文算法与其他对比算法相比,主要优势来自基于条件熵的填充优先级评估方法,该方法会优先修复深度平坦区域的无效点,之后再修复不确定性较大的边缘区域,显著地提高了填充深度的鲁棒性。
3 结论
深度图像修复任务对精度要求很高,颜色和深度特征之间的空间分布差异、噪声和模糊的干扰以及大面积孔洞导致的信息丢失等问题都对图像的精准修复提出了巨大挑战。本文在双尺度顺序填充的框架下,提出了基于条件熵快速逼近的填充优先级估计方法和基于最大似然估计的深度值优化填充算法,为深度图像修复任务提供了一种具有更加清晰的数学模型背景的解决方案,在MB+和MB-数据集上,PSNR分别达到34.697 dB和47.955 dB,SSIM分别达到0.978 5和0.998 2,明显超过其他7种对比算法。此外,通过实验验证了本文方法可以更清晰、更完整地保留真实边界,并且几乎不会产生毛刺。实验表明,在总体效果和边缘保存方面,与其他对比方法相比,本文算法在准确性、鲁棒性和效率上均具有明显优势。在大孔洞修复方面,虽然本文方法对比其他算法有着更好的效果,但仍有改进空间。在未来工作中,将重点研究如何通过引入特征的全局分布作为深度预测的参考来进一步提高算法的鲁棒性。
参考文献
-
Achanta R, Shaji A, Smith K, Lucchi A, Fua P, Süsstrunk S. 2012. SLIC superpixels compared to state-of-the-art superpixel methods. IEEE Transactions on Pattern Analysis and Machine Intelligence, 34(11): 2274-2282 [DOI:10.1109/tpami.2012.120]
-
Gong X J, Liu J Y, Zhou W H, Liu J L. 2013. Guided depth enhancement via a fast marching method. Image and Vision Computing, 31(10): 695-703 [DOI:10.1016/j.imavis.2013.07.006]
-
Harrison A and Newman P. 2010. Image and sparse laser fusion for dense scene reconstruction//Proceedings of Field and Service Robotics. Berlin, Germany: Springer: 219-228 [DOI: 10.1007/978-3-642-13408-1_20]
-
Hershey J R and Olsen P A. 2007. Approximating the Kullback Leibler divergence between Gaussian mixture models//Proceedings of 2007 IEEE International Conference on Acoustics, Speech and Signal Processing—ICASSP'07. Honolulu, USA: IEEE: IV-317-IV-320 [DOI: 10.1109/icassp.2007.366913]
-
Huber M F, Bailey T, Durrant-Whyte H and Hanebeck U D. 2008. On entropy approximation for Gaussian mixture random vectors//Proceedings of 2008 IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems. Seoul, Korea (South): IEEE: 181-188 [DOI: 10.1109/mfi.2008.4648062]
-
Kopf J, Cohen M F, Lischinski D and Uyttendaele M. 2007. Joint bilateral upsampling//Proceedings of ACM SIGGRAPH 2007 Papers. San Diego, USA: ACM [DOI: 10.1145/1275808.1276497]
-
Kampa K, Hasanbelliu E and Principe J C. 2011. Closed-form Cauchy-Schwarz PDF divergence for mixture of Gaussians//Proceedings of 2011 International Joint Conference on Neural Networks. San Jose, USA: IEEE: 2578-2585. [DOI: 10.1109/IJCNN.2011.6033555]
-
Li Y B, Feng J, Zhang H X, Li C Q. 2013. New algorithm of depth hole filling based on intensive bilateral filter. Industrial Control Computer, 26(11): 105-106, 109 (李应彬, 冯杰, 张华熊, 李晨勤. 2013. 基于改进双边滤波的Kinect深度图像空洞修复算法研究. 工业控制计算机, 26(11): 105-106, 109) [DOI:10.3969/j.issn.1001-182X.2013.11.046]
-
Lin L, Chen Y J, Guo T H. 2019. Kinect depth image restoration algorithm based on space-time domain data fusion. Science Technology and Engineering, 19(30): 215-220 (林玲, 陈姚节, 郭同欢. 2019. 基于时空域数据融合的Kinect深度图像修复算法. 科学技术与工程, 19(30): 215-220) [DOI:10.3969/j.issn.1671-1815.2019.30.032]
-
Liu J Y and Gong X J. 2013. Guided depth enhancement via anisotropic diffusion//Proceedings of the 14th Pacific-Rim Conference on Multimedia. Nanjing, China: Springer: 408-417 [DOI: 10.1007/978-3-319-03731-8_38]
-
Matyunin S, Vatolin D, Berdnikov Y and Smirnov M. 2011. Temporal filtering for depth maps generated by Kinect depth camera//Proceedings of 2011 3DTV Conference: the True Vision-Capture, Transmission and Display of 3D Video (3DTV-CON). Antalya, Turkey: IEEE: 1-4 [DOI: 10.1109/3dtv.2011.5877202]
-
Min D B, Lu J B, Do M N. 2012. Depth video enhancement based on weighted mode filtering. IEEE Transactions on Image Processing, 21(3): 1176-1190 [DOI:10.1109/tip.2011.2163164]
-
Pertuz S and Kamarainen J. 2017. Region-based depth recovery for highly sparse depth maps//Proceedings of 2017 IEEE International Conference on Image Processing (ICIP). Beijing, China: IEEE: 2074-2078 [DOI: 10.1109/icip.2017.8296647]
-
Scharstein D and Pal C. 2007. Learning conditional random fields for stereo//Proceedings of 2007 IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis, USA: IEEE: 1-8 [DOI: 10.1109/cvpr.2007.383191]
-
Telea A. 2004. An image inpainting technique based on the fast marching method. Journal of Graphics Tools, 9(1): 23-34 [DOI:10.1080/10867651.2004.10487596]
-
Lee K, Bresler Y. 2010. ADMiRA: atomic decomposition for minimum rank approximation. IEEE Transactions on Information Theory, 56(9): 4402-4416
-
Wang Z Y, Song X W, Wang S Z, Xiao J, Zhong R, Hu R M. 2016. Filling kinect depth holes via position-guided matrix completion. Neurocomputing, 215: 48-52 [DOI:10.1016/j.neucom.2015.05.146]
-
Zeng X J, Lu C. 2013. The application of MRF based-on chaos-PSO optimization in depth information estimation. Journal of Huazhong University of Science and Technology (Natural Science Edition), 41(Z1): 223-225 (曾祥进, 卢成. 2013. 混沌PSO优化的马尔可夫随机场的深度恢复. 华中科技大学学报(自然科学版), 41(Z1): 223-225) [DOI:10.13245/j.hust.2013.s1.059]
-
Zhang Y D and Funkhouser T. 2018. Deep depth completion of a single RGB-D image//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE: 175-185 [DOI: 10.1109/cvpr.2018.00026]
-
Zheng C Y, Li L F, Xiao Z S, Lu C. 2016. A depth image enhancement algorithm based on improved anisotropic diffusion. Computer Engineering and Science, 38(9): 1823-1829 (郑传远, 李良福, 肖樟树, 陆铖. 2016. 一种改进的各向异性扩散深度图像增强算法. 计算机工程与科学, 38(9): 1823-1829) [DOI:10.3969/j.issn.1007-130X.2016.09.013]