Print

发布时间: 2017-12-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.170325
2017 | Volume 22 | Number 12




    图像理解和计算机视觉    




  <<上一篇 




  下一篇>> 





多通道卷积的图像超分辨率方法
expand article info 李云飞, 符冉迪, 金炜, 纪念
宁波大学信息科学与工程学院, 宁波 315211

摘要

目的 超分辨率技术在实际生活中具有较为广泛的应用。经典的基于卷积神经网络的超分辨率(SRCNN)方法存在重建图像纹理结构模糊以及网络模型训练收敛过慢等问题。针对这两个问题,在SRCNN的基础上,提出一种多通道卷积的图像超分辨率(MCSR)算法。方法 通过增加残差链接,选择MSRA初始化方法对网络权值进行初始化,加快模型收敛;引入多通道映射提取更加丰富的特征,使用多层3×3等小卷积核代替单层9×9等大卷积核,更加有效地利用特征,增强模型的超分辨率重构效果。结果 MCSR迭代4×106次即可收敛,在Set5与Set14数据集上边长放大3倍后的平均峰值信噪比分别是32.84 dB和29.28 dB,与SRCNN相比提升显著。结论 MCSR收敛速度更快,并且可以生成轮廓清晰的高分辨率图像,超分辨率效果更加优秀。

关键词

图像超分辨率; 深度学习; 卷积神经网络; 多通道卷积; 残差学习

Image super-resolution using multi-channel convolution
expand article info Li Yunfei, Fu Randi, Jin Wei, Ji Nian
Faculty of Electrical Engineering and Computer Science, Ningbo University, Ningbo 315211, China
Supported by: National Natural Science Foundation of China(61471212); Natural Science Foundation of Zhejiang Province of China(LY16F010001); Ningbo Municipal Natural Science Foundation(2016A610091)

Abstract

Objective Super-resolution (SR) technology is the method for satisfying the demand for high-quality images. The method was first proposed in the 1960s, and its goal is to obtain one or a series of high-resolution (HR) image(s) using one or a sequence of low-resolution (LR) image(s). SR technology not only can improve the visual performance of images but also can help improve the analysis and processing of images, including object recognition, image retrieval, and object detection. SR technology is widely used in real life, such as in video surveillance system, medical image processing, and remote sensing image processing. Traditional methods, such as interpolation-, reconstruction-, and learning-based algorithms, cannot achieve desirable SR results and short SR times. In recent years, a modern convolutional neural network (CNN)-based method called super-resolution CNN (SRCNN) has been proposed. The SRCNN method is a deep learning method for single-image SR and directly learns an end-to-end mapping between LR and HR images. This method achieves better performance in SR results and SR times that do the traditional ones but still presents several limitations. SRCNN uses stacked CNN structure and Gauss initialization method, thereby resulting in slow convergence and time-consuming model training. Furthermore, SRCNN exhibits poor nonlinear mapping capability and simple feature extraction because it comprises only three layers of convolution kernels. The method generates unclear HR images of blurry texture. An image SR method based on multi-channel CNN (MCSR) is proposed to resolve the aforementioned issues. Method MCSR adopts two different strategies, namely, residual CNN model and MSRA initialization method, to accelerate the convergence of model training. Given that residual CNN possesses an identity mapping from input to output, the model training aims to explicitly model the residual image, which is the difference between HR and LR images. This change is advantageous considering that LR and HR images share the same information to a large extent. The MSRA initialization method can maintain activation and back-propagated gradient variances when moving up or down the network. Both schemes result in substantially fast convergence. At the same time, the two schemes are suggested to improve the performance of image SR. The deeper the CNN structure, the better the performance of CNN. MCSR replaces the large convolution kernel, such as 9×9, as chosen by SRCNN with several layers of small convolution kernel, such as 3×3. As a result, MCSR obtains seven layers of convolution kernel and exhibits enhanced capability of nonlinear mapping. In addition to deepening, MCSR is widened to multi-channel on the nonlinear mapping part. Precisely, the basic MCSR possesses four channels of one layer of 3×3 convolution kernels, two layers of stacked 3×3 convolution kernels, one layer of 1×5 convolution kernels, and one layer of 5×1 convolution kernels. Experimental results show that different channels produce dissimilar feature maps. In particular, the 3×3 channel produces local feature maps, the 2×3×3 channel produces relative global feature maps, the 1×5 channel extracts transversal textural features, and the 5×1 channel extracts vertical textural feature. Furthermore, MCSR possesses an extra one layer of 1×1 convolution kernel for compressing the dimension of the feature map, thereby providing the method with powerful nonlinear capability. Powerful nonlinear mapping capability and diverse feature maps can result in good SR performance. Result The proposed MCSR is trained on Image91 dataset, the same as SRCNN, and tested on Set5, Set14, and BSD200 datasets. Experimental results demonstrate that MCSR converges within 4×106 backprops whereas SRCNN converges at least 1.5×107 backprops. The average peak signal-to-noise ratios (PSNRs) with an upscaling factor 3 on Set5, Set14, and BSD200 are 32.84 dB, 29.28 dB, and 29.03 dB and increase by 0.45 dB, 0.27 dB, and 0.38 dB, respectively, compared with those for SRCNN. Structural similarity image measurement also achieves considerable improvement. With regard to subjective effect, MCSR can produce high-quality HR images of clear texture. The produced images barely show shadow and ripple effects. These findings indicate that MCSR achieves good SR performance. Notably, we propose an extra method called MCSR-Ex, which extends the MCSR method to five channels. The additional channel consists of three layers of 3×3 convolution kernels and improves the PSNR by approximately 0.1 dB on Set5 dataset on average. Conclusion In this study, a new SR method called MCSR is proposed. On the one hand, the combination of residual model and MSRA initialization method can significantly accelerate the convergence of model training. On the other hand, the suggested two schemes, which include widening the CNN model to multi-channel and deepening the CNN model to seven layers, can considerably improve the performance of image SR. In other words, the good SR performance is attributed to extracting various feature maps and using feature maps.

Key words

image super-resolution; deep learning; convolution neural network; multi-channel convolution; residual learning

0 引言

超辨率(SR)技术是计算机视觉领域的一门重要学科,目的是利用已有的低分辨率(LR)图像生成对应的高分辨率(HR)图像。HR图像具有较高的像素密度,可以提供更加丰富的细节信息,有利于图像、视频的进一步处理。图像超分辨率技术在医学图像处理、遥感卫星图像处理、视频监控等领域有比较广泛的应用。

自1964年Harris提出[1]以来,SR领域已经形成基于插值的方法[2-3]、基于重建的方法[4-5]、基于学习的方法[6-7] 3类主流方法,其中基于学习的SR方法是近年来图像SR领域的热点方向,它的基本思路是通过大量样本训练得到LR图像与HR图像之间的映射关系,并藉此作为先验知识进行重建。Yang等人[6]提出基于稀疏编码的图像超分辨(ScSR)算法,对高、低分辨率图像块进行联合训练得到相应的一个过完备字典,通过这个字典进行高低分辨率图像块的稀疏关联,取得非常不错的效果。Zeyde等人[7]在Yang的基础上应用K-SVD算法[8]对字典的训练过程进行改进,提高了训练字典速度,使得重建的图像在主观与客观评价指标上均有所改善,但是重建过程的计算复杂度高,HR图像生成时间过长。为了实现图像的实时处理,Timofte等人[9]提出锚点邻域回归(ANR)算法,把稀疏编码的思想用于最近邻域嵌入算法NE[10]之上, 大大降低重建过程的计算复杂度,但是重建图像的质量还有待提高。

Krizhevsk等人[11]凭借卷积神经网络(CNN)这一利器以绝对优势赢得了2012年的ImageNet图像分类大赛,同时也引起了新一轮的研究CNN的热潮。之后几年,不断涌现出像ZFNet[12]、GoogLeNet[13]、ResNet等人[14]优秀的CNN模型。实践证明,用于分类任务的CNN模型迁移到其他任务也可以取得非常优秀的效果[15-17]。因此,Dong等人[18]在基于样本学习的SR算法基础上提出了超分辨率卷积神经网络(SRCNN)。SRCNN首次将CNN引入SR任务中,将传统SR方法的分步处理整合到一个深度学习模型中,大大简化了SR工作流程。SRCNN的提出证明将深度学习,特别是CNN应用到SR任务中是非常合适的,发展前景广阔。

同传统的SR算法相比,SRCNN在SR性能上有不错的提升。但SRCNN在以下两个方面依旧具有局限性:1)SRCNN的模型在训练过程中收敛速度过于缓慢;2)SRCNN在重建HR图像时,利用到的区域特征单一并且利用效率不高,最终导致重建的HR图像纹理模糊,SR性能有待提高。

针对上述两个不足,作出以下改进:1)采取MSRA权值初始化方法与残差学习CNN模型的组合,加快模型训练的收敛速度;2)提出使用多通道卷积来提取丰富的区域特征,同时加深模型增强模型的非线性映射能力,更有效地利用提取到的特征进行HR图像重建。

最终,提出了一种多通道超分辨率卷积神经网络(MCSR)模型。实验证明,同SRCNN相比,MCSR收敛速度更快:SRCNN至少需要迭代1.5×107次才可以收敛,而MCSR只需要4×106次;超分辨效果更加优秀:在Set5与Set14数据集放大3倍边长后每幅图片的平均峰值信噪比(PSNR)为32.84 dB和29.28 dB,同SRCNN的32.39 dB和29.01 dB分别提升0.45 dB和0.27 dB。当放大倍数扩展到4倍以及8倍时,MCSR的表现依旧优于SRCNN等方法。

1 相关工作

1.1 SRCNN

SRCNN的超分辨率流程如下:对于一幅原始图像,首先采用双三次线性插值到目标尺寸,然后送入SRCNN模型进行多层卷积映射,最终得到想要的HR图像。其中,将原始图像插值到目标尺寸是唯一的预处理工作。为方便表示,下文提到的LR图像均表示将原始图像进行双三次(Bicubic)插值后得到的图像。

SRCNN具有由3层卷积核组成,尺寸分别为:9×9、1×1、5×5,相应的每层卷积核数分别是:64、32、1。SRCNN对3层卷积核的解释分别是:

输入特征提取、非线性映射以及高分辨率图重构,结构如图 1所示。第1层用于将输入LR图像表示为64幅不同的特征图(feature map);第2层将其映射为32幅特征图,不同于上一层,这一层的特征图可以通过组合进而表示成HR图像;第3层就是对第2层的特征图进行组合表示,得到HR图像。

图 1 SRCNN结构图
Fig. 1 Structure of SRCNN

在训练过程中,首先建立训练集时,将来自image91的91幅HR图像通过双三次插值进行1/$N$倍下采样,然后再进行$N$倍的上采样得到对应的91幅LR图像。高、低分辨率图各切成24 320幅13×13的图像块,分别作为训练集的标签以及数据。训练时,输入一幅LR图像块,经过3层的卷积和非线性映射计算,重构一幅目标图像,并且与HR标签图像块进行像素级别的均方误差(MSE)计算,然后将误差进行反向传递更新权值。权值更新策略采用随机梯度下降法(SGD),batchsize设定为128,即计算128幅图像的误差后权值更新一次,作为迭代一次。经过大量训练,最终学习到LR图像到HR图像端对端的映射。测试时输入一幅LR图像即可输出一幅对应的HR图像,而不需要其他操作。

同时Dong等人[19]将SRCNN的卷积核尺寸扩展到9×9、5×5、5×5,并将其命为SRCNN-Ex。第2层的卷积核尺寸由1×1扩展到5×5,这导致:参数数目由8 032增加到57 184;感受野由13×13增加到17×17,最终使得超分辨率效果提升了0.19 dB(Set5为例)。我们认为这样扩展网络换取性能的方式是低效的,即依旧没有改变特征提取单一以及特征利用不足的状况。

值得一提的是,Dong等人[18]中通过增加一层1×1的卷积核将SRCNN扩展到4层,训练之后发现这种做法反而会损失SR性能。于是,他们认为深层的网络并不会提升模型的SR性能。然而,本文提出的MSCR通过将模型扩展到7层大大的提升了模型的SR性能。

1.2 PReLU与MSRA初始化

SRCNN选择使用修正线性单元(ReLU)函数作为激活函数,即

$f\left( {{x_i}} \right) = \left\{ {\begin{array}{*{20}{l}} {{x_i}}&{{x_i} > 0}\\ 0&{{x_i} < 0} \end{array}} \right.$ (1)

和Sigmoid函数相比,ReLU可以加快模型训练速度,缩短模型收敛时间,同时一定程度上抑制梯度消失现象。但是ReLU强制将负数值置零的特性常导致许多特征的丢失。

因此,He等人[20]提出一种新的激活函数:含参修正线性单元(PReLU),表达式为

$f\left( {{x_i}} \right) = \left\{ {\begin{array}{*{20}{l}} {{x_i}}&{{x_i} > 0}\\ {{a_i}{x_i}}&{{x_i} < 0} \end{array}} \right.$ (2)

对比式(1)(2)可以发现,PReLU引入一个新的参数:${a_i}$${a_i}$的值通常被设定为非常小,如0.01等。这样,既可以保留ReLU可以修正数据分布以及加速收敛的优点,同时又可以不完全丢失特征。因此,采用PReLU函数作为MCSR的激活函数。

另一方面,模型训练过程中对网络权值进行合理的初始化是非常重要的。初始化方法的不同选择可以直接决定一个模型是否可以收敛、收敛速度快慢以及最终的收敛状态如何。Glorot等人[21]发现当输入权值与输出权值在前向传播与反向传播过程中保持相同的分布时,模型的性能最优秀:模型可以快速收敛并且收敛的结果更优秀。为了达到这个目的,提出一种简便的初始化方法:Xavier初始化。它规定第$i$层的权值${w_i}$服从均值为0,方差为$\frac{2}{{{n_i} + {n_{i + 1}}}}$的分布,并且建议采用均匀分布形式${w_i} \sim U\left({ -\frac{{\sqrt 6 }}{{\sqrt {{n_i} + {n_{i + 1}}} }}, \frac{{\sqrt 6 }}{{\sqrt {{n_i} + {n_{i + 1}}} }}} \right)$,使得输出保持和输入相同的均值为0,方差为$\sigma _x^2$的分布,其中${n_i}$表示当前层的参数数目,${{n_{i + 1}}}$表示下一层的参数数目。Xavier初始化大大提高了模型性能,但是它的应用前提是激活函数在零点附近是线性的,因此只适用于sigmoid函数,不适用于ReLU以及PReLU函数。之后,He等人[20]在Xavier的基础上提出一种适用于ReLU以及PReLU函数的权值初始化的方法:MSRA(microsoft research)初始化。它规定第$i$层的权值${w_i}$服从均值为0,方差为$\frac{2}{{{n_i}}}$的分布,通常采用高斯分布形式,${w_i} \sim N\left({0, \sqrt {\frac{2}{{{n_i}}}} } \right)$,同样输入和输出保持相同的分布,加快收敛速度同时提高模型性能。SRCNN中采用均值为0,方差为0.01的高斯分布对模型的权值进行初始化,MCSR采用MSRA初始化方法对模型的权值进行初始化。

2 本文方法

本文提出的MCSR主要包括以下几个步骤:

1) 构建模型训练所需数据集;

2) 构建CNN模型,并确定相关的超参数;

3) 训练模型,优化网络参数,得到图像超分辨率的先验知识;

4) 输入低分辨率图像,测试模型的SR效果。

其中步骤1)首先对原始数据集进行增强(详见3.1节),然后采取SRCNN的方法建立数据集。下面对步骤2)3)进行详细的阐述。

2.1 网络结构

本文提出的MCSR和SRCNN相比:增加残差链接、选择MSRA对网络的权值进行初始化加快模型收敛;使用多层的小卷积核(3×3等)代替单层的大卷积核(9×9等)加深网络模型,同时将非线性映射部分改为局部多通路映射,增强模型SR性能。本文提出的CNN模型由5个部分组成,分别是:残差连接、输入特征提取部分、维度压缩部分、非线性映射部分以及高分辨率图像重建部分,网络结构如图 2所示。

图 2 MCSR结构图
Fig. 2 Structure of MCSR

在SRCNN模型中,模型直接通过训练学习由LR图像$x$到HR图像$y$的映射关系。在实际情况中,高、低分辨率图像拥有大量的相似信息:低频信息,而SR任务的主要内容就是在保存原有的低频信息的同时增强LR图像的高频信息。而这种思想在SRCNN的映射关系中并没有得到体现。为了更好的利用图像中的低频信息,我们引入一种更加有效的映射学习方法:残差学习[14]。MCSR增加了一条残差通道,将输入的低分辨率图像直接送到输出端。训练SRCNN模型的目的是直接学习一幅LR图像到HR图像的映射关系,函数关系式为$y = H\left(x \right)$。加入残差通道后映射关系式变为$y = F\left(x \right) + x = H\left(x \right)$,其中$F\left(x \right)$为LR与HR图像之间的残差映射。而残差映射常表现为图像中的高频信息,故模型训练的目的转变为学习LR图像到图像纹理细节等高频信息的映射。实验证明,残差学习的引入可以大大加速模型的收敛速度。

Hinton等人[22]将神经网络推向了深度学习的阶段,并证明深层的网络结构具有更加强大的非线性映射能力。深层网络结合各种模型压缩的方法[11-13],可以在保证相同感受野情况下减少参数的数目。例如:一层尺寸为5×5的卷积核可以被两层尺寸为3×3的卷积核代替(假设步长均为1,输入输出均为$C$通道)。这样做带来两个好处:1)非线性映射由一层变成了两层,增加了局部的非线性映射能力;2)参数数目由5×5×$C$2减少到2×(3×3×$C$2),降低了参数数目。因此,MCSR用多个3×3卷积核代替SRCNN中的9×9卷积核与5×5卷积核,将网络结构扩展到7层,包括6层的3×3卷积核以及一层的1×1卷积核。具体来说,我们采用两层的3×3卷积核作为模型的特征提取部分,同样采用两层的3×3卷积核作为模型的高分辨率重构部分。

Szegedy等人[13]在图像分类任务中使用1×1卷积核来增加模型的非线性映射能力,并取得了非常优秀的效果。本模型在特征提取之后加入1×1卷积核,除了增强一定的非线性映射能力之外,更重要的是对特征图进行维度压缩,从而减少参数。本文将厚度为64的conv2通过1×1卷积压缩到16层,然后进行多通道的卷积,压缩的比率达到了25%。

受GoogleNet的启发,MCSR模型对非线性映射部分进行局部多通道扩展。每个通道具有不同层次,不同结构的卷积核。具体的,MCSR包含四条不同的通道,从上到下依次为:conv4_1,由一层尺寸为3×3的卷积核组成;conv4_2,由两层尺寸均为3×3的卷积核组成;conv4_3,由一层尺寸为5×1的卷积核组成;conv4_4,由一层尺寸为1×5的卷积核组成。之后对四个通道的卷积结果进行粘和(concat)作为整个非线性映射部分的输出,同时作为高分辨率图像重构部分的输入。

4条不同的通道,可以提取不同的特征。conv4_1和conv4_2通道相比:conv4_1具有一层,每个像素点是关于conv3中3×3个像素点的映射,偏向提取局部特征;conv4_2具有两层,每个像素点是关于conv3中5×5个像素点的映射,提取的特征相对更全面。conv4_1、conv4_3和conv4_4通道相比:3条通道都是一层,但是conv4_1是3×3,conv4_3是5×1,conv4_4是1×5,不同的卷积核尺寸提取了不同的特征图。conv4_1提取局部细节,conv4_3主要提取了纵向的纹理细节,conv4_4主要提取了横向的纹理细节,如图 3所示。

图 3 非线性映射部分不同通道输出
Fig. 3 Outputs of different channels in Non-Liner Mapping; ((a) feature map from conv4_1;(b) feature map from conv4_2; (c) feature map from conv4_3; (d) feature map from conv4_4)

选择Set5数据集中的Woman图作为输入,在每条通道的16幅输出特征图中各选择一幅激活度较高的边缘特征图,进行对比度增强后作为图 3的子图。观察发现,同样是对woman图的边缘特征进行提取:1)与双层的、具有更大感受野的conv4_2相比单层的conv4_1、conv4_3、conv4_4提取的特征会比较的粗糙。2)图 3(c)中脸颊以及手指等位置的特征比较清晰,纵向特征更丰富,即conv4_3提取了大量纵向边缘特征;图 3(d)中嘴唇以及下巴等位置的轮廓比较清晰,横向特征更加丰富,即conv4_4提取了大量的横向边缘特征。

本文最终提出的MCSR模型拥有57 296个参数,相较于SRCNN的8 032个有较大提升,同SRCNN-Ex的57 184个相差不大,可以认为处于同一参数数量级。同时本文对提出CNN模型进行扩展:非线性映射部分增加一条含有3层3×3卷积核的通道,命名为MCSR-Ex,参数数目增加了(3×3×16×16)×3=6 912,总数目达到了64 208个。多种模型进行SR效果对比,以此证明是本文提出的多通道卷积等策略增强了SR性能。

2.2 其他设置

选择PReLU函数作为本模型的激活函数,相应地使用MSRA进行模型初始化。本模型采取与SRCNN相同的学习率,即基础学习率为10-4最后的高分辨率重构部分学习率设定为10-5,较小的学习率可以保证模型更稳定地拟合映射关系。为了缩短迭代一次的时间,batchsize设定为64。遗忘率设定为0.9,没有采用权值衰减。

3 实验及分析

针对两个目的:1)加快模型收敛速度;2)增强模型SR性能,所做的改进是合理的。设计两组实验:第1组,对比观察不同策略对模型收敛的影响;第2组,对比观察MCSR对SR结果的提升。

3.1 实验说明

实验在ubuntu14.04系统下进行,硬件配置为Intel i7-4720HQ @2.6 GHz、GTX-970M、6 GB显存、16 GB内存。基于深度学习框架Caffe训练并生成CNN模型,HR图像生成工作在Matlab 2014a平台展开。

一般情况下,训练集越大训练得到的模型会更加优秀。例如:SRCNN-Ex在Image91库上进行训练,Set5的平均PSNR可以达到32.58 dB,而在ImageNet库上进行训练时,Set5的平均PSNR可以达到35.75 dB。本文选择Image91数据集作为唯一的原始训练库,不同于SRCNN的是:本文对训练集进行了扩展。首先是旋转,Image91数据集的每幅图都依次旋转90°、180°以及270°,于是图像总数扩展到之前的4倍。其次是裁剪,上一步产生了每幅图都被缩放为原尺寸的0.6、0.7、0.8、0.9倍。经过两步处理,图像总数变成未处理之前的5×4=20倍。之后采取和SRCNN相同的方法生成许多对的HR图像块以及LR图像块,分别作为标签和输入数据训练模型。与此同时,选择Set5,Set14以及BSD200共3个数据集进行SR性能测试,并对部分图像的重构效果进行展示。

选择包括:Bicubic、ScSR算法、ANR算法、SRCNN、SRCNN-Ex以及ESRCN[23]在内的多种方法作为对比。其中SRCNN、SRCNN-Ex以及ESRCN使用和本文相同的image91图像库进行训练。实验选择PSNR以及结构相似度(SSIM)作为客观评价指标。PSNR比较了HR图像与原始图之间像素级的误差,SSIM从亮度、对比度、结构3个方面衡量图像的相似度,通常认为两个参数越高,SR效果越好。本章节最后展示3幅图像基于不同方法的高分辨率结果,作为主观评价。

3.2 实验结果及分析

针对上文提出的两种提升模型收敛速度的策略:增加残差链接以及使用MSRA初始化,设计两个实验,对比观察两种策略对模型收敛状况的影响,实验结果如图 4所示。蓝色曲线代表本文提出的MCSR模型,作为基准;红色曲线表示MCSR移除残差链接后的模型收敛情况;黑色曲线表示权值初始化为均值为0,方差为0.01的高斯分布(SRCNN的策略)后MCSR模型收敛情况。测试集为Set5数据集,放大倍数为3倍。

图 4 不同方法在Set5数据集的收敛曲线
Fig. 4 Convergence curves for different strategies on the Set5 dataset

对比图 4的蓝色曲线与黑色曲线发现:蓝色曲线一直处于黑色曲线上方,蓝色曲线迭代2.5×106次开始收敛而黑色曲线直到迭代3×106次也没有收敛的迹象,这证明增加残差链接可以加快模型收敛速度。对比蓝色曲线与红色曲线发现:蓝色曲线一直处于红色曲线上方,红色曲线一直没有收敛并且有PSNR降低的倾向,说明MSRA初始化可以加快模型收敛速度,同时也可以提高模型的性能。综上,我们可以认为MSCR采用的MSRA初始化与残差学习的组合可以有效地加快模型收敛速度。

图 5展示了不同模型在Set5数据集上的收敛曲线,由于不同CNN模型收敛时刻相差过大,仅展示到SRCNN-Ex收敛时刻,SRCNN并未达到收敛状态。观察发现MCSR收敛速度远超SRCNN以及SRCNN-Ex模型。MCSR在4×106次就达到收敛状态,SRCNN-Ex达到收敛状态需要迭代8×106次,而SRCNN则需要更久(图 5中未展示)。可知,同时采用残差链接以及MSRA初始化参数两个策略大大提升了模型的收敛速度。

图 5 不同方法在Set5数据集的收敛曲线
Fig. 5 Convergence curves for different strategies on the Set5 dataset

观察图 5可以发现本文模型结果优于SRCNN-Ex以及SRCNN,平均每幅图PSNR值超SRCNN-Ex大约0.3 dB,超过SRCNN大约0.5 dB。同时发现,在MCSR的基础上提出的MCSR-Ex模型具有更好的性能,同MCSR相比提升了约0.1 dB。有理由相信随着卷积通道的进一步丰富,模型的SR性能会进一步提升。

表 1列出了不同SR算法在Set5数据集的PSNR以及SSIM数值。表 2列出了不同SR方法在Set14以及BSD200数据集的平均PSNR值。

表 1 不同超分辨率算法在Set5数据集的PSNR以及SSIM对比
Table 1 The comparison of different SR strategies for PSNR(dB)and SSIM on Set5 dataset

下载CSV
图像倍数BicubicScSRANRSRCNNSRCNN-ExESRCNMCSRMCSR-Ex
PSNR/dBBaby333.9234.3135.0635.0135.0334.8835.0135.10
Bird332.5934.0934.4934.9135.1035.1635.4135.57
Butterfly324.0425.5925.8527.5827.9628.1528.8029.09
Head332.9033.2133.6333.5533.6433.2933.5933.62
Woman328.5729.9030.3330.9231.2031.2831.4331.57
Baby431.7731.1033.0132.9833.01-32.9833.14
Bird430.1829.8731.7831.9732.25-32.4132.49
Butterfly422.0922.4123.5025.0725.23-25.8926.11
Head431.5931.0932.2832.1832.36-32.3432.49
Woman426.4626.3327.8328.2128.41-28.8128.92
SSIMBaby30.904 20.921 00.922 50.920 90.920 50.920 60.919 10.920 5
Bird30.924 90.943 30.949 40.949 40.949 80.951 50.951 80.925 3
Butterfly30.819 70.875 10.871 80.901 10.908 10.909 80.921 30.924 4
Head30.800 10.822 30.824 10.821 50.823 20.823 40.823 00.824 1
Woman30.889 10.913 20.917 00.923 60.926 10.926 80.928 00.929 0
Baby40.857 70.838 40.881 10.877 80.896 0-0.876 10.878 5
Bird40.871 80.864 20.901 70.901 80.900 1-0.905 10.910 3
Butterfly40.733 80.765 40.788 60.841 60.850 8-0.864 10.863 3
Head40.755 10.735 50.776 20.772 50.776 7-0.777 40.782 1
Woman40.831 20.824 70.861 80.870 90.888 6-0.891 30.898 9
PSNR/dB平均值330.4031.4231.8732.3932.5832.5532.8432.99
428.4228.1529.6930.0830.31-30.4832.63
SSIM平均值30.867 60.894 90.896 90.903 30.905 50.905 40.908 60.910 4
40.810 00.805 60.841 80.852 90.862 4-0.862 80.866 6

表 2 不同超分辨率算法在Set14以及BSD200数据集的平均PSNR对比
Table 2 The comparison of different SR strategies for average PSNR (dB) on Set5 & BSD200 datasets

下载CSV
/dB
数据集倍数BicubicScSRANRSRCNNSRCNN-ExESRCNMCSRMCSR-Ex
Set14327.5328.3128.6429.0129.1029.0829.2829.39
426.0025.9426.8527.2027.44-27.5527.62
BSD200327.7028.2028.3928.6528.7828.6529.0329.10
426.3926.2626.5026.7126.84-27.4127.55

对比发现MCSR同传统SR算法相比在PSNR指标以及SSIM指标方面均有不同程度的提升。

训练速度方面,每迭代1×104次:SRCNN用时61 s;SRCNN-Ex用时107 s;MCSR用时80 s。为了衡量不同方法的计算效率,以Set5数据集以及Set14数据集作为测试集,统计不同方法的所需的平均每幅图的SR重构时间,结果如表 3所示。

表 3 不同超分辨率算法平均重建时间对比
Table 3 The comparison of different SR strategies for average reconstruction time

下载CSV
/s
数据集SRCNNSRCNN-ExESRCNMCSRMCSR-Ex
Set50.351.090.111.121.28
Set140.682.150.262.212.37

表 3可以看出,ESRCN所需时间最短,本文方法所需时间略高于SRCNN-Ex,但是差距不大。考虑到MCSR在SR性能上的提升,其计算时间的牺牲是可以接受的。图 6以及图 7展示的两幅图像分别来自Set14数据集以及Set5数据集,放大3倍。

图 6 放大3倍时ppt3图
Fig. 6 The "ppt3" image with an upscaling factor 3 ((a) original image; (b) Bicubic result; (c) ScSR result; (d) ANR result; (e) SRCNN result; (f) SRCNN-Ex result; (g) MCSR result; (h) MCSR-Ex result)
图 7 放大3倍时butterfly图
Fig. 7 The "butterfly" image with an upscaling factor 3 ((a) original image; (b) Bicubic result; (c) ScSR result; (d) SRCNN result; (e) SRCNN-Ex result; (f) ESRCN result; (g) MCSR result; (h) MCSR-Ex result)

我们分别放大显示ppt3图的标题边界区域以及Butterfly图的斑点区域,对比观察不同方法SR性能的差异。观察图 6发现,MCSR基本消除了黑色标题周围的灰色阴影,和其他SR算法相比提升明显。观察图 7发现,MCSR基本消除了斑点周围的振铃现象,而这一现象在其他算法的结果中均不同程度地存在。为了进一步验证本文算法的有效性,我们将放大倍数扩大到8倍并对比观察不同算法的表现,结果如图 8所示。可以非常明显的观察到,MC-SR算法可以产生更加清晰地边界线。综上可知,同传统方法相比本文提出的MCSR可以生成更加细腻清晰的边缘,和原图更加相似,更加符合人眼主观感受。

图 8 放大8倍时22013图
Fig. 8 The "22013" image with an upscaling factor 8((a) original HR image; (b) LR image; (c) Bicubic result; (d) SRCNN result; (e) MCSR result)

4 结论

本文主要通过对SRCNN模型进行加深以及加宽处理达到提高SR性能的目的。其中加深操作通过将大尺寸的卷积核替换为多层3×3卷积核达到;加宽操作通过将非线性映射部分改为多通道卷积实现,不同通道采用不同形式的卷积操作,提取不同的图像特征。另外,我们增加从模型的输入直达输出的残差链接并采用MSRA初始化方法,进而加快模型收敛速度。实验结果显示MCSR模型在主观与客观两种评价方式上均优于经典方法。这表明:若要提升模型的SR性能,必然要求模型可以提取更加丰富的LR图像特征并且更有效地利用特征生成HR图像,将来可以沿这条路线做更多的工作。

参考文献

  • [1] Harris J L. Diffraction andresolving power[J]. Journal of the Optical Society of America (1917-1983), 1964, 54: 931–933. [DOI:10.1364/JOSA.54.000931]
  • [2] Ur H, Gross D. Improved resolution from subpixel shifted pictures[J]. CVGIP:Graphical Models and Image Processing, 1992, 54(2): 181–186. [DOI:10.1016/1049-9652(92)90065-6]
  • [3] Parker J A, Kenyon R V, Troxel D E. Comparison of interpolating methods for image resampling[J]. IEEE Transactions on medical imaging, 1983, 2(1): 31–39. [DOI:10.1109/TMI.1983.4307610]
  • [4] Irani M, Peleg S. Improving resolution by image registration[J]. CVGIP:Graphical models and image processing, 1991, 53(3): 231–239. [DOI:10.1016/1049-9652(91)90045-L]
  • [5] Schultz R R, Stevenson R L. A Bayesian approach to image expansion for improved definition[J]. IEEE Transactions on Image Processing, 1994, 3(3): 233–242. [DOI:10.1109/83.287017]
  • [6] Yang J, Wright J, Huang T, et al. Image super-resolution as sparse representation of raw image patches[C]//Computer Vision and Pattern Recognition, 2008. CVPR 2008. IEEE Conference on. IEEE, 2008:1-8.[DOI:10.1109/CVPR.2008.4587647]
  • [7] Zeyde R, Elad M, Protter M. On single image scale-up using sparse representations[C]//International Conference on Curves and Surfaces. Springer-Verlag, 2010:711-730.[DOI:10.1007/978-3-642-27413-8_47]
  • [8] Aharon M, Elad M, Bruckstein A. K-SVD:An algorithm for designing overcomplete dictionaries for sparse representation[J]. IEEE Transactions on Signal Processing, 2006, 54(11): 4311–4322. [DOI:10.1109/TSP.2006.881199]
  • [9] Timofte R, De V, Gool L V. Anchored neighborhood regression for fast example-based super-resolution[C]//IEEE International Conference on Computer Vision. IEEE, 2013:1920-1927.[DOI:10.1109/ICCV.2013.241]
  • [10] Chang H, Yeung D Y, Xiong Y. Super-resolution through neighbor embedding[C]//IEEE Computer Society Conference on Computer Vision & Pattern Recognition. IEEE Computer Society, 2004:275-282.[DOI:10.1109/CVPR.2004.1315043]
  • [11] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[C]//International Conference on Neural Information Processing Systems. Curran Associates Inc. 2012:1097-1105.[DOI:10.1145/3065386]
  • [12] Zeiler M D, Fergus R. Visualizing and understanding convolutional networks[C]//European conference on computer vision. Springer, Cham, 2014:818-833.[DOI:10.1007/978-3-319-10590-1_53]
  • [13] Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2015:1-9.[DOI:10.1109/CVPR.2015.7298594]
  • [14] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2016:770-778.[DOI:10.1109/CVPR.2016.90]
  • [15] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2014:580-587.[DOI:10.1109/CVPR.2014.81]
  • [16] He K, Zhang X, Ren S, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[C]//European Conference on Computer Vision. Springer, Cham, 2014:346-361.[DOI:10.1007/978-3-319-10578-9_23]
  • [17] Babenko A, Slesarev A, Chigorin A, et al. Neural codes for image retrieval[C]//European conference on computer vision. Springer, Cham, 2014:584-599.[DOI:10.1007/978-3-319-10590-1_38]
  • [18] Dong C, Loy CC, He K, et al. Image super-resolution using deep convolutional networks[J]. IEEE transactions on pattern analysis and machine intelligence, 2016, 38(2): 295–307. [DOI:10.1109/TPAMI.2015.2439281]
  • [19] Dong C, Loy CC, He K, et al. Learning a deep convolutional network for image super-resolution[C]//European Conference on Computer Vision. Springer, Cham, 2014:184-199.[DOI:10.1007/978-3-319-10593-2_13]
  • [20] He K, Zhang X, Ren S, et al.Delving deep into rectifiers:Surpassing human-level performance on imagenet classification[C]//Proceedings of the IEEE international conference on computer vision. 2015:1026-1034.[DOI:10.1109/ICCV.2015.123]
  • [21] Glorot X, Bengio Y. Understanding the difficulty of training deep feedforward neural networks[J]. Journal of Machine Learning Research, 2010, 9: 249–256.
  • [22] Hinton G E, Osindero S, Teh Y W. A fast learning algorithm for deep belief nets[J]. Neural computation, 2006, 18(7): 1527–1554. [DOI:10.1162/neco.2006.18.7.1527]
  • [23] Shi W, Caballero J, Huszár F, et al. Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2016:1874-1883.[DOI:10.1109/CVPR.2016.207]