|
发布时间: 2018-06-16 |
图像处理和编码 |
|
|
收稿日期: 2017-07-27; 修回日期: 2017-11-08
基金项目: 上海市电站自动化技术重点实验室基金项目(13DZ2273800)
第一作者简介:
黄福珍(1976-), 女, 副教授, 2003年于上海交通大学获控制理论与控制工程专业工学博士学位, 主要研究方向人脸信息处理和红外图像处理。E-mail:huangfzh@shiep.edu.cn.
中图法分类号: TP301.6
文献标识码: A
文章编号: 1006-8961(2018)06-0792-10
|
摘要
目的 现有的基于邻域嵌入的人脸超分辨率重建算法只利用了低分辨率图像流形空间的几何结构,而忽略了原始高分辨率图像的流形几何结构,不能很好的反映高低分辨率图像流形几何结构的关系。此外,其对同一幅图像中的不同图像块选取固定数目的最近邻域图像块,从而导致重建质量的下降。为了充分利用原始高分辨率图像空间的几何结构信息,提出基于联合局部约束和自适应邻域选择的邻域嵌入人脸超分辨率重建算法。方法 该方法结合待重构图像与低分辨率图像样本库的相似性约束与初始高分辨图像与高分辨率图像样本库的相似性约束,形成约束低分辨率图像块的重构权重,并利用该重构权重估计出高分辨率的人脸图像,同时引入自适应邻域选择的方法。结果 在CAS-PEAL-R1人脸库上的实验结果表明,相较于传统的基于邻域嵌入的人脸超分辨率重建方法,本文算法在PSNR和SSIM上分别提升了0.39 dB和0.02。相较于LSR重建方法,在PSNR和SSIM上分别提升了0.63 dB和0.01;相较于LcR重建方法,在PSNR和SSIM上分别提升了0.36 dB和0.003 2;相较于TRNR重建方法,在PSNR和SSIM上分别提升了0.33 dB和0.001 1。结论 本文所提的重建方法在现有人脸数据库上进行实验,在主观视觉和客观评价指标上均取得了较好的结果,可进一步适用于现实监控视频中人脸图像的高分辨率重建。
关键词
流形空间; 联合局部约束; 自适应邻域选择; 邻域嵌入; 人脸超分辨率重建
Abstract
Objective Face super-resolution reconstruction is a technique based on an observed low-quality, low-resolution face image. Combined with prior knowledge, which is acquired from learning high- and low-resolution training sample pairs, face super-resolution reconstruction can estimate clear high-resolution face images and increase the resolution of the image to effectively improve the image visual effects. The existing face super-resolution reconstruction algorithm mainly adopts the method of neighborhood embedding, but the traditional reconstruction algorithm based on neighborhood embedding has drawbacks. For example, the algorithm only utilizes the geometric structure of the low-resolution image manifold space while ignoring the manifold geometry of the original high-resolution image, so it cannot effectively reflect the relationship between the high- and low-resolution image manifold geometry. This situation also causes a significant loss in available information of the original high-resolution images and eventually leads to a reconstructed face image with incomplete local details, image blur, and other issues. In addition, the method is based on the image super-resolution reconstruction, where a fixed number of nearest neighborhood image blocks are selected for different image blocks in the same image. Both methods are based on the assumption that the high- and low-resolution image block manifolds have a consistent geometric structure. However, a "one-to-many" correspondence exists between the high-and low-resolution images, and the assumptions of the proposed manifold geometry consistency do not conform to the actual situation. The neighborhood relationship of the low-resolution image obtained after the original image is degraded and cannot truly reflect the neighborhood relationship of the original image, resulting in a decline in the quality of reconstruction. To fully utilize the geometric structure information of the original high-resolution image space, this work proposes a neighborhood embedded face super-resolution reconstruction algorithm based on joint local constraints and adaptive neighborhood selection. Method To solve the problem caused by the algorithm presented, this work proposes a face super-resolution reconstruction method based on joint local constraint neighbor embedding. The algorithm mainly includes two parts, namely, sample library and match reconstruction. Establishing the sample library mainly involves construction on high-and low-resolution image blocks. When matching the reconstruction process, to better characterize the neighborhood relation of the original image block, this study introduces the following constraints: the distance between the input low-resolution image and the low-resolution sample is taken as one of the constraints, and the distance between the initial high-resolution image obtained by the input low-resolution image interpolation and the high-resolution sample is assumed as another constraint. The neighborhood of the low-resolution image block in the low-resolution image block sample and the initial high-resolution image block in the high-resolution image block sample are used as local constraints to solve the optimal reconstruction weight coefficients. The two constraints are combined to effectively maintain the geometric structure of the image, forming a reconstructed weight coefficient that constrains the low-resolution image block. For each image block obtained from the input low-resolution face image, the optimal reconstruction weight is solved by minimizing the reconstruction error. After determining the optimal weight, the reconstructed high-resolution image block can be obtained by weighted summing and using the weight and the corresponding high-resolution image sample block. Then, the high-resolution face image is estimated by using the reconstructed weight. At the same time, the method of adaptive neighborhood selection is introduced. Result In this study, the experiment is conducted on the CAS-PEAL-R1 face database, and the proposed reconstruction algorithm is compared with the relatively advanced face super-resolution reconstruction algorithm to verify the effectiveness of the algorithm. Furthermore, the subjective image of the experimental results is given, and the image quality of the reconstructed results of different methods is evaluated by the peak signal-to-noise ratio (PSNR) and structural similarity (SSIM). The experimental results show that, compared with the traditional face super-resolution reconstruction method based on neighborhood embedding, the subject image obtained by the proposed algorithm has more details on facial features and is more similar to the original high-resolution face image. Moreover, the contrast of the objective indicators, which were raised to 0.39 and 0.02 dB in the PSNR and SSIM, respectively, shows the superiority of the algorithm. Compared with the indicators for the LSR reconstruction method, the PSNR and SSIM were improved by 0.63 dB and 0.01, respectively. Compared with the indicators for the LCR reconstruction method, the PSNR and SSIM were improved by 0.36 dB and 0.003 2, respectively. Compared with the indicators for the TRNR reconstruction method, the PSNR and SSIM were improved by 0.33 dB and 0.001 1, respectively. Conclusion The reconstruction method described in this study is conducted on the existing face database. The facial image is unified and segmented through the experiment to determine the optimal experimental parameters, while ignoring the location information of the facial features. Compared with the indicators of other algorithms, the subjective visual and objective evaluation indicators of the proposed algorithm achieved good results, which can be further applied to a real surveillance video with high-resolution image reconstruction. Combined with the location information of facial features and a reasonable segmentation of human face images, the full use of the prior structure of face images for super-resolution reconstruction is a future research direction.
Key words
manifold space; joint local constraint; adaptive neighborhood selection; neighbor embedding; face super resolution reconstruction
0 引言
视频监控环境中采集的图像由于环境噪声和运动目标与采集设备之间的距离较远等影响,导致视频中的人脸图像存在分辨率较低的问题,无法被人或机器所识别。人脸超分辨率重建是一种根据观测到的低质量、低分辨率人脸图像,结合从高低分辨率训练样本对中学习得到的先验知识,估计出清晰的高分辨率人脸图像的技术,有效地增加图像的分辨率提高图像视觉效果[1]。现有的人脸超分辨率重建方法主要分为基于插值的方法、基于重构的方法和基于学习的方法[2]。基于插值的方法通常是利用混叠特性对低分辨率图像上采样过程直接去混叠得到高分辨率图像,是在不改变低分辨率图像的像素的前提下,对缺失的高分辨率像素通过一定的插值函数进行内插;基于插值的方法生成的高分辨率图像,低分辨率像素位置的像素是不改变的,且插值过程不会增加图像的中高频分量,所以图像的细节和边缘看起来不够清晰,而基于重构的方法可以弥补插值生成图像的缺点;在基于凸集投影和最大后验概率的重建方法中,所有可用的图像信息都是从输入数据中得到,没有任何附加的背景信息,整个重建过程相当于信息提取和信息融合。这些算法依赖某种模型从输入图像中产生新的图像信息,且随着分辨率的提高,算法性能下降较快,难以改进重建效果。为了打破这种局限,出现了基于学习的超分辨率重建技术。基于学习的人脸超分辨率重建方法是目前的研究热点,最先由Freeman等人[3]提出的,他们使用Markov网络模型(MNM)对图像进行建模,训练得到高频、低频信息对,并利用最大后验概率估计重建高分辨率图像块。其大体上可以分为3个大类:基于全局特征的方法[3-4]、基于局部特征的方法[5-6]、基于局部特征与全局特征相结合的方法[7-9]。本文主要研究基于局部特征的人脸超分辨率重建方法。
基于局部特征的方法是一种基于图像局部特征的方法,即通过像素级或局部图像块特征匹配进行高频信息的预测。通常,基于局部特征的方法首先将人脸图像划分为大小相等的重叠图像块,然后按照从左到右、从上到下的顺序对每个图像块进行重建,最后对重建得到的高分辨率图像块进行拼接融合,对重叠区域做平均处理,得到最终的整幅高分辨率图像。基于图像块的人脸超分辨率重建方法均是基于高低分辨率图像块流形具有一致几何结构的前提假设。然而,高低分辨率图像之间存在“一对多”的对应关系,其提出的流形几何结构一致性的假设并不符合实际情况。原始图像降质后得到的低分辨率图像的邻域关系并不能真实反映原始图像的邻域关系。
为了解决上述问题,本文提出基于联合局部约束的邻域嵌入人脸超分辨率重建算法。输入的低分辨率图像与低分辨率样本之间的距离作为其中一项约束,输入的低分辨率图像插值得到的初始高分辨率图像与高分辨率样本之间的距离作为另一项约束,联合两项约束来更好的保持图像的几何结构,进一步优化重构权值。
1 基于邻域嵌入的人脸超分辨率重建
Chang等人[10]在局部线性嵌入流形学习的基础上,提出基于邻域嵌入的超分辨重建方法。该方法假设高分辨图像块与其对应的低分辨率图像块具有相似的局部几何结构。根据上述假设,求取输入的低分辨率图像块与训练样本库中的低分辨率图像块之间的线性关系,并将其映射到高分辨率图像块上,进而重构出高分辨率的图像块。基于邻域嵌入的超分辨率重建主要分为两部分,样本库的建立和匹配重建。具体流程如图 1所示。
1) 样本库的建立。首先选取大量高分辨率的图像作为训练图像,并对选取的图像进行降质,得到对应的低分辨率图像。降质模型有很多,如高斯降质模型、点平均降质模型等。由于高斯降质模型更符合真实的降质过程,因此一般采用高斯降质模型对图像进行降质处理。之后提取图像特征,低分辨率数字图像使用其一阶梯度和二阶梯度向量作为特征量,高分辨率数字图像使用去均值的亮度值作为其特征。最后,对高低分辨率图像进行重叠分块,高分辨率图像块和对应位置的低分辨率图像块分别构成相应的训练样本库。
2) 匹配重建。对待重建低分辨率图像进行特征提取和分块,然后在低分辨率图像块样本集中,为每一个待重建图像块
$ \begin{array}{*{20}{c}} {{w_t} = \arg \min \left\| {{\mathit{\boldsymbol{x}}_t} - \sum\limits_{k \in C\left( {{x_t}} \right)} {{w_k}{\mathit{\boldsymbol{x}}_k}} } \right\|_2^2}\\ {{\rm{s}}.\;{\rm{t}}.\;\;\;\;\;\sum\limits_{i = 1}^N {{w_i} = 1} } \end{array} $ | (1) |
式中,
求解得到最优权重后,利用该权重和对应的高分辨率图像样本块,加权求和即可得到重建后的高分辨率图像块。加权求和
$ {\mathit{\boldsymbol{y}}_t} = \sum\limits_{k \in C\left( {{\mathit{\boldsymbol{x}}_t}} \right)} {{w_k}{\mathit{\boldsymbol{y}}_k}} $ | (2) |
式中,
得到重建的高分辨率图像块后,对高分辨率图像块进行拼接,得到最终的高分辨率图像。
2 基于联合局部约束的邻域嵌入人脸超分辨率重建
2.1 理论分析
基于联合局部约束的邻域嵌入人脸超分辨率重建算法将输入的低分辨率图像与低分辨率样本之间的距离作为其中一项约束,输入的低分辨率图像插值得到的初始高分辨率图像与高分辨率样本之间的距离作为另一项约束,联合两项约束来更好的保持图像的几何结构,进一步优化重构权值,并重构出高分辨率的人脸图像。
对于输入的低分辨率人脸图像中的每一个图像块
$ \begin{array}{*{20}{c}} {J\left( w \right) = \left\| {{\mathit{\boldsymbol{x}}_t} - \sum\limits_{k \in C\left( {{y_t}} \right)} {{w_k}{\mathit{\boldsymbol{x}}_k}} } \right\|_2^2 + }\\ {\lambda \left\| {dis{t_{{\rm{L}}\left| K \right.}}w} \right\|_2^2 + \tau \left\| {dis{t_{{\rm{H}}\left| K \right.}}w} \right\|_2^2} \end{array} $ | (3) |
式中,
$ dis{t_{{\rm{L}}i}} = {\left\| {{\mathit{\boldsymbol{x}}_t} - {\mathit{\boldsymbol{x}}_i}} \right\|_2},\;\;\;\;1 \le i \le N $ | (4) |
$ dis{t_{{\rm{H}}i}} = {\left\| {{\mathit{\boldsymbol{y}}_t} - {\mathit{\boldsymbol{y}}_i}} \right\|_2},\;\;\;\;1 \le i \le N $ | (5) |
式(3)是最小二乘问题,给定
$ \begin{array}{*{20}{c}} {J\left( w \right) = {\mathit{\boldsymbol{w}}^{\rm{T}}}\mathit{\boldsymbol{Qw}}}\\ {\mathit{\boldsymbol{Q}} = {{\left( {{\mathit{\boldsymbol{x}}_t} \cdot {{\bf{1}}^{\rm{T}}} - {\mathit{\boldsymbol{X}}_k}} \right)}^{\rm{T}}}\left( {{\mathit{\boldsymbol{x}}_t} \cdot {{\bf{1}}^{\rm{T}}} - {\mathit{\boldsymbol{X}}_k}} \right) + }\\ {\lambda dist_{{\rm{L}}\left| K \right.}^{\rm{T}}dis{t_{{\rm{L}}\left| K \right.}} + \tau dist_{{\rm{H}}\left| K \right.}^{\rm{T}}dis{t_{{\rm{H}}\left| K \right.}}} \end{array} $ | (6) |
式中,1是
$ \mathit{\boldsymbol{J}}\left( {\mathit{\boldsymbol{w}},\mu } \right) = {\mathit{\boldsymbol{w}}^{\rm{T}}}\mathit{\boldsymbol{Qw}} + \mu \left( {{\mathit{\boldsymbol{l}}^{\rm{T}}}\mathit{\boldsymbol{w}} - 1} \right) $ | (7) |
式中,
根据拉格朗日乘数法,由式(7)可得到
$ \left\{ \begin{array}{l} \frac{{\partial \mathit{\boldsymbol{J}}\left( {w,\mu } \right)}}{{\partial w}} = 2\mathit{\boldsymbol{Qw}} + \mu \mathit{\boldsymbol{l}} = 0\\ \frac{{\partial \mathit{\boldsymbol{J}}\left( {w,\mu } \right)}}{{\partial \mu }} = {\mathit{\boldsymbol{l}}^{\rm{T}}}\mathit{\boldsymbol{w}} - 1 = 0 \end{array} \right. $ | (8) |
求解式(8)可得
$ \left\{ \begin{array}{l} \mathit{\boldsymbol{w}} = - \frac{\mu }{2}{\mathit{\boldsymbol{Q}}^{ - 1}}\mathit{\boldsymbol{l}}\\ {\mathit{\boldsymbol{l}}^{\rm{T}}}w = {\mathit{\boldsymbol{l}}^{\rm{T}}}\left( { - \frac{\mu }{2}{\mathit{\boldsymbol{Q}}^{ - 1}}\mathit{\boldsymbol{l}}} \right) = - \frac{\mu }{2}{\mathit{\boldsymbol{l}}^{\rm{T}}}{\mathit{\boldsymbol{Q}}^{ - 1}}\mathit{\boldsymbol{l}} = 1 \end{array} \right. $ | (9) |
进一步求解可得
$ - \frac{\mu }{2} = {\left( {{\mathit{\boldsymbol{l}}^{\rm{T}}}{\mathit{\boldsymbol{Q}}^{ - 1}}\mathit{\boldsymbol{l}}} \right)^{ - 1}} $ | (10) |
由式(9)(10)可得
$ \mathit{\boldsymbol{w}} = \frac{{{\mathit{\boldsymbol{Q}}^{ - 1}}\mathit{\boldsymbol{l}}}}{{\left( {{\mathit{\boldsymbol{l}}^{\rm{T}}}{\mathit{\boldsymbol{Q}}^{ - 1}}\mathit{\boldsymbol{l}}} \right)}} $ | (11) |
通过式(11)求解重构权值,需要求解
$ \mathit{\boldsymbol{w}} = \mathit{\boldsymbol{Q\backslash l}} $ | (12) |
式中,“\”代表矩阵左除,如
求解得到最优权重后,利用该权重和对应的高分辨率图像样本块,加权求和即可得到重建后的高分辨率图像块,加权求和公式如式(2)所示。
2.2 算法设计
本文提出的基于联合局部约束和自适应邻域选择的邻域嵌入人脸超分辨率重建方法的流程图如图 2所示。
本文算法主要包括样本库的建立和匹配重建两部分。由图 2可知,样本库的建立主要是对高低分辨率图像进行分块;匹配重建过程中,为了更好地表征原始图像块的邻域关系,本文结合低分辨率图像块在低分辨率图像块样本集中的邻域与初始高分辨率图像块在高分辨率图像块样本集中的邻域作为局部约束用于求解最优的重建权重系数。
该方法的具体步骤如下:
1) 输入:高分辨率人脸图像样本集
2) 计算图像块行数
$ U = c\left\{ {\frac{{M - {l_{{\rm{over}}}}}}{{{s_{{\rm{patch}}}} - {l_{{\rm{over}}}}}}} \right\} $ |
$ V = c\left\{ {\frac{{N - {l_{{\rm{over}}}}}}{{{s_{{\rm{patch}}}} - {l_{{\rm{over}}}}}}} \right\} $ |
式中,
3) 对待重建的低分辨率图像
4) 对图像进行分块,对待重建的低分辨率人脸图像
5) 计算待重建的低分辨率图像块
6) 求解目标函数式(1),得到最优重构权值
7) 通过式(2)得到高分辨率图像块
8) 按照图像块在图像中的位置对重建得到的高分辨率图像块进行拼接叠加,重叠区域进行像素值平均,得到最终的完整高分辨率人脸图像。
3 实验结果与分析
在CAS-PEAL-R1人脸库上进行实验,并将本文提出的重建算法与前沿的人脸超分辨率重建算法进行比较,验证本文算法的有效性,实验中采用峰值信噪比(PSNR)和结构相似性(SSIM)指标来评估不同方法的重建结果的图像质量。
3.1 参数设置
选择CAS-PEAL-R1正面人脸子库中的1 040幅标准人脸图像进行实验,随机选择1 000幅人脸图像用于训练,剩余40幅人脸图像用于测试。因此,所有的测试图像均不包含在训练样本中。确定训练和测试样本后,对所有的图像进行几何归一化处理,并将图像大小裁剪为128×112像素。对训练样本中的高分辨率图像进行平滑滤波和下采样得到大小为32×28像素的低分辨率图像,其中平滑滤波采用模板尺寸为4×4像素的均值滤波算子,下采样采用4倍双三次插值方法。在所提出的方法中图像块大小和局部约束参数需要设置,下面将通过实验选择合适的参数值:
1) 局部约束参数。为了验证局部约束参数
表 1
不同局部约束参数情况下的图像PSNR
Table 1
PSNR values under different local constraint parameters
/dB | |||||||
10 | 1 | 0.1 | 0.01 | 0.001 | 0.000 1 | 0.000 01 | |
10 | 25.307 710 | 25.332 681 | 25.335 295 | 25.335 558 | 25.335 584 | 25.335 587 | 25.335 587 |
1 | 26.858 417 | 27.101 733 | 27.129 617 | 27.132 447 | 27.132 731 | 27.132 759 | 27.132 762 |
0.1 | 27.463 528 | 27.849 663 | 27.887 107 | 27.890 545 | 27.890 884 | 27.890 918 | 27.890 921 |
0.01 | 27.549 949 | 27.956 785 | 27.969 556 | 27.962 700 | 27.961 675 | 27.961 567 | 27.961 556 |
0.001 | 27.559 109 | 27.971 155 | 27.986 603 | 27.965 529 | 27.957 431 | 27.956 348 | 27.956 236 |
0.000 1 | 27.560 028 | 27.972 667 | 27.992 974 | 27.981 915 | 27.963 610 | 27.956 055 | 27.955 031 |
0.000 01 | 27.560 120 | 27.972 815 | 27.993 737 | 27.988 669 | 27.981 083 | 27.963 262 | 27.955 717 |
表 2
不同局部约束参数情况下的图像SSIM
Table 2
SSIM values under different local constraint parameters
10 | 1 | 0.1 | 0.01 | 0.001 | 0.000 1 | 0.000 01 | |
10 | 0.826 781 | 0.827 250 | 0.827 300 | 0.827 305 | 0.827 305 | 0.827 305 | 0.827 305 |
1 | 0.860 398 | 0.866 436 | 0.867 161 | 0.867 235 | 0.867 242 | 0.867 243 | 0.867 243 |
0.1 | 0.876 840 | 0.891 794 | 0.894 268 | 0.894 540 | 0.894 567 | 0.894 570 | 0.894 570 |
0.01 | 0.879 544 | 0.897 912 | 0.901 687 | 0.902 090 | 0.902 128 | 0.902 132 | 0.902 133 |
0.001 | 0.879 838 | 0.898 733 | 0.902 936 | 0.903 262 | 0.903 218 | 0.903 209 | 0.903 209 |
0.000 1 | 0.879 867 | 0.898 817 | 0.903 114 | 0.903 587 | 0.903 428 | 0.903 334 | 0.903 321 |
0.000 01 | 0.879 870 | 0.898 826 | 0.903 131 | 0.903 667 | 0.903 653 | 0.903 443 | 0.903 344 |
2) 图像块大小。图像块尺寸和相邻图像块之间的重叠尺寸对获得高质量可靠的重建效果至关重要,设置不同的图像块大小(
3) 自适应邻域选择。邻域数目
表 3
图像块邻域选择库
Table 3
Image block neighborhood selection library
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | |
1 | 290 | 290 | 30 | 90 | 30 | 10 | 50 | 10 | 10 | 30 | 10 | 10 | 10 | 10 | 10 | 10 | 10 | 10 | 10 | 10 | 10 | 30 | 10 | 10 | 50 | 290 |
2 | 130 | 290 | 70 | 290 | 290 | 290 | 290 | 170 | 270 | 270 | 290 | 290 | 290 | 290 | 290 | 290 | 290 | 250 | 290 | 290 | 290 | 290 | 290 | 290 | 290 | 290 |
3 | 290 | 290 | 290 | 230 | 90 | 50 | 70 | 30 | 290 | 150 | 290 | 290 | 290 | 290 | 290 | 290 | 290 | 30 | 30 | 130 | 190 | 290 | 30 | 290 | 70 | 230 |
4 | 290 | 290 | 290 | 130 | 210 | 10 | 110 | 30 | 290 | 290 | 150 | 290 | 290 | 290 | 170 | 290 | 290 | 50 | 230 | 290 | 170 | 210 | 70 | 290 | 290 | 250 |
5 | 30 | 70 | 290 | 290 | 50 | 290 | 30 | 290 | 90 | 90 | 270 | 270 | 290 | 290 | 290 | 170 | 50 | 50 | 290 | 10 | 30 | 290 | 290 | 290 | 290 | 50 |
3.2 实验分析
将本文新提出的方法与Julio等人[11]提出的几何感知领域搜索(GANS)、Qing等人[12]提出的基于梯度锐化(GPS)的单图像超分辨率重建方法、Ma等人[13]提出的基于最小二乘表示(LSR)的位置图像块人脸幻构方法、Jiang等人[14]提出的基于局部约束表示(LcR)的人脸超分辨率重建方法、Jiang等人[15-17]提出的基于吉洪诺夫正则化邻域嵌入(TRNR)的人脸超分辨率重建方法进行比较,实验结果如图 4所示。图 4从左到右分别为输入的低分辨率人脸图像、几何感知领域搜索的结果、GPS的重建结果、LSR的重建结果、LcR的重建结果、TRNR的重建结果、本文方法的重建结果、原始的高分辨率人脸图像。为了使各种方法均能达到最佳性能,对每种方法的参数进行调节。基于梯度锐化的超分辨率重建方法中邻域数目设置为150,基于局部约束表示(LcR)的人脸超分辨率重建算法中,局部约束参数取0.04,基于吉洪诺夫正则化邻域嵌入(TRNR)的人脸超分辨率重建方法中邻域数目取150,约束参数取0.01。本文方法采用自适应的邻域选择库,高分辨率图像块局部约束参数取10-5,低分辨率图像块局部约束参数取10-1。基于图像块的重建方法,重叠像素数越多,重建效果越好,为实现公平比对,所有基于图像块的方法中图像块大小均为12像素,重叠像素数目为8,相应的低分辨率图像块为3像素,重叠像素数目为2。
1) 主观结果对比。如图 4所示,6幅测试图像采用不同的方法进行重建,中间6列为采用不同方法进行重建的结果。第3列到第7列均为采用基于图像块的人脸超分辨率重建算法重构出的人脸图像,由图 4可知,基于图像块的人脸超分辨率重建算法重建出的人脸在视觉效果上明显优于基于几何感知领域搜索得到的人脸。在基于图像块的重建方法中,本文方法重构出的人脸图像具有更多的人脸特征细节,而且与原始高分辨率人脸图像更加相似。
2) 客观结果对比。为了进一步比对不同方法的重建性能,表 4给出了不同方法在CAS-PEAL-R1人脸库中40张测试人脸重建结果的平均PSNR和SSIM值。由表 4所知,基于局部图像块重建方法明显优于几何感知领域搜索的方法,这主要归功于图像分块策略,局部图像块包含了更多的人脸特征信息,增强了人脸训练样本库。本文方法相对于Ma提出的LSR重建方法效果显著,在PSNR上提升了0.63 dB,SSIM上提升了0.01,相较于GPS重建方法,在PSNR和SSIM上分别提升了0.34 dB和0.001 4,相较于LcR重建方法,在PSNR和SSIM上分别提升了0.36 dB和0.003 2,相较于TRNR重建方法,在PSNR和SSIM上分别提升了0.33 dB和0.001 1。本文所提算法在在PSNR和SSIM上的提升,主要归功于低分辨率空间结构局部约束和高分辨率空间结构局部约束的结合,以及邻域的自适应选择。
表 4
不同方法的平均PSNR和SSIM值
Table 4
Mean PSNR and SSIM values of different methods
方法 | ||||||
GANS | LSR | LcR | GPS | TRNR | 本文方法 | |
PSNR/dB | 26.841 747 | 27.495 789 | 27.789 556 | 27.770 985 | 27.798 293 | 28.131 184 |
SSIM | 0.876 753 5 | 0.893 481 | 0.899 945 | 0.902 284 | 0.902 003 | 0.903 067 |
3) 计算复杂度。不同方法在CAS-PEAL-R1人脸库上进行实验,表 5给出了40幅测试人脸在Intel(R)Core(TM)i7-4510U 4核CPU电脑和Matlab R2013a上重建所用的平均运行时间,即单张人脸图像重建所用的时间。
表 5
不同方法重建单张图片所用时间
Table 5
GANS | LSR | LcR | GPS | TRNR | 本文方法 | |
时间/s | 4.06 | 39.17 | 39.32 | 5.41 | 2.08 | 11.39 |
由表 5可知,基于TRNR的人脸超分辨率重建方法重构出一幅图像所用用时最短,但其重建效果不及本文算法的重建效果。本文方法相比GPS重建方法和TRNR重建方法,运行时间较长,主要在于本文采用联合局部约束,需要分别计算低分辨率人脸图像块与低分辨率样本库中图像块的欧氏距离和高分辨率人脸图像块与高分辨率样本库中图像块的欧氏距离。针对耗时较长的问题,可以采用图像处理器GPU或并行处理的方式进行加速。
4 结论
本文提出了一个基于联合局部约束和自适应邻域选择的邻域嵌入人脸超分辨率重建算法,并在CAS-PEAL人脸库上进行实验,通过实验确定了最优的实验参数,并与其他算法进行比较,本文所提方法的重建结果在主观视觉上具有更多的人脸特征细节,而且与原始高分辨率人脸图像更加相似,在客观评价指标上也取得了较好的结果,本文方法的PSNR和SSIM值相较其他方法均有所提高,可用于实际的视频人脸图像重建,进一步应用于各安全领域的安防监控系统,捕捉目标的人脸特征,提高安防的准确性。但该方法重建出的人脸图像仍存在平滑现象,细节不够丰富。本文对人脸图像进行统一分块,忽略了人脸的五官位置信息。结合人脸的五官位置,对人脸图像进行合理分块,充分利用人脸图像的结构先验进行超分辨率重建是未来需要进一步研究的方向。
参考文献
-
[1] Zhao J J, Fang Q, Liang Z C, et al. Sketch face recognition based on super-resolution reconstruction[J]. Journal of Image and Graphics, 2016, 21(2): 218–224. [赵京晶, 方琪, 梁植程, 等. 超分辨率重建的素描人脸识别[J]. 中国图象图形学报, 2016, 21(2): 218–224. ] [DOI:10.11834/jig.20160211]
-
[2] Zhao L, Qi X B, Li X M. A single frame super resolution algorithm based on fusion of regression function and local self-similarity[J]. Computer measurement & control, 2016, 24(4): 181–184. [赵丽, 齐兴斌, 李雪梅. 基于回归函数结合局部自相似的单帧图像超分辨率算法[J]. 计算机测量与控制, 2016, 24(4): 181–184. ] [DOI:10.16526/j.cnki.11-4762/tp.2016.04.053]
-
[3] Freeman W T, Jones T R, Pasztor E C. Example-based super-resolution[J]. IEEE Computer Graphics and Applications, 2002, 22(2): 56–65. [DOI:10.1109/38.988747]
-
[4] Chakrabarti A, Rajagopalan A N, Chellappa R. Super-resolution of face images using kernel PCA-based prior[J]. IEEE Transactions on Multimedia, 2007, 9(4): 888–892. [DOI:10.1109/TMM.2007.893346]
-
[5] Jiang J J, Ma X, Cai Z H, et al. Sparse support regression for image super-resolution[J]. IEEE Photonics Journal, 2015, 7(5): #6901211. [DOI:10.1109/JPHOT.2015.2484287]
-
[6] Wang X G, Tang X O. Hallucinating face by eigentransformation[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part C (Applications and Reviews), 2005, 35(3): 425–434. [DOI:10.1109/TSMCC.2005.848171]
-
[7] Huang H, He H T, Fan X. Super-resolution of human face image using canonical correlation analysis[J]. Pattern Recognition, 2010, 43(7): 2532–2543. [DOI:10.1016/j.patcog.2010.02.007]
-
[8] Zhuang Y T, Zhang J, Wu F. Hallucinating faces:LPH super-resolution and neighbor reconstruction for residue compensation[J]. Pattern Recognition, 2007, 40(11): 3178–3194. [DOI:10.1016/j.patcog.2007.03.011]
-
[9] Huang H, Wu N, Fan X, et al. Face image super resolution by linear transformation[C]//Proceedings of 2010 IEEE International Conference on Image Processing. Hong Kong, China: IEEE, 2010: 913-916. [DOI:10.1109/ICIP.2010.5651255]
-
[10] Chang H, Yeung D Y, Xiong Y M. Super-resolution through neighbor embedding[C]//Proceedings of 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, USA: IEEE, 2004: 275-282. [DOI:10.1109/CVPR.2004.1315043]
-
[11] Ferreira J C, Vural E, Guillemot C. Geometry-aware neighborhood search for learning local models for image superresolution[J]. IEEE Transactions on Image Processing, 2016, 25(3): 1354–1367. [DOI:10.1109/TIP.2016.2522303]
-
[12] Yan Q, Xu Y, Yang X K, et al. Single image superresolution based on gradient profile sharpness[J]. IEEE Transactions on Image Processing, 2015, 24(10): 3187–3202. [DOI:10.1109/TIP.2015.2414877]
-
[13] Ma X, Zhang J P, Qi C. Hallucinating face by position-patch[J]. Pattern Recognition, 2010, 43(6): 2224–2236. [DOI:10.1016/j.patcog.2009.12.019]
-
[14] Jiang J J, Hu R M, Wang Z Y, et al. Noise robust face hallucination via locality-constrained representation[J]. IEEE Transactions on Multimedia, 2014, 16(5): 1268–1281. [DOI:10.1109/TMM.2014.2311320]
-
[15] Jiang J J, Chen C, Huang K B, et al. Noise robust position-patch based face super-resolution via Tikhonov regularized neighbor representation[J]. Information Sciences, 2016, 367-368: 354–372. [DOI:10.1016/j.ins.2016.05.032]
-
[16] Ma J Y, Zhou H B, Zhao J, et al. Robust feature matching for remote sensing image registration via locally linear transforming[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(12): 6469–6481. [DOI:10.1109/TGRS.2015.2441954]
-
[17] Thomaz C E, Giraldi G A. A new ranking method for principal components analysis and its application to face image analysis[J]. Image and Vision Computing, 2010, 28(6): 902–913. [DOI:10.1016/j.imavis.2009.11.005]