Print

发布时间: 2022-05-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.210739
2022 | Volume 27 | Number 5




    低照图像增强    




  <<上一篇 




  下一篇>> 





改进融合策略下透明度引导的逆光图像增强
expand article info 赵明华1,2, 程丹妮1, 都双丽1, 胡静1, 石程1, 石争浩1
1. 西安理工大学计算机科学与工程学院, 西安 710048;
2. 陕西省网络计算与安全技术重点实验室, 西安 710048

摘要

目的 针对传统的逆光图像增强算法存在的曝光正常区域与逆光区域间阈值计算复杂、分割精度不足、过度曝光以及增强不足等问题,提出一种改进融合策略下透明度引导的逆光图像增强算法。方法 对逆光图像在HSV(hue, saturation, value)空间中的亮度分量进行亮度提升和对比度增强,然后通过金字塔融合策略对改进的亮度分量进行分解和重构,恢复逆光区域的细节和颜色信息。此外,利用深度抠图网络计算透明度蒙版,对增强的逆光区域与源图像进行融合处理,维持非逆光区域亮度不变。通过改进融合策略增强的图像在透明度引导下既有效恢复了逆光区域又避免了曝光过度的问题。结果 实验在多幅逆光图像上与直方图均衡算法、MSR (multi-scale Retinex)、Zero-DEC (zero-reference deep curve estimation)、AGLLNet (attention guided low-light image enhancement)和LBR (learning-based restoration) 5种方法进行了比较,在信息熵(information entropy, IE)和盲图像质量指标(blind image quality indicators, BIQI)上,比AGLLNet分别提高了1.9%和10.2%;在自然图像质量评价(natural image quality evaluation, NIQE)方面,比Zero-DCE(zero-reference deep curve estimation)提高了3.5%。从主观评估上看,本文算法增强的图像在亮度、对比度、颜色及细节上恢复得更加自然,达到了较好的视觉效果。结论 本文方法通过结合金字塔融合技术与抠图技术,解决了其他方法存在的色彩失真和曝光过度问题,具有更好的增强效果。

关键词

图像处理; 逆光图像增强; 深度抠图; 灰度拉伸; 金字塔融合

An improved fusion strategy based on transparency-guided backlit image enhancement
expand article info Zhao Minghua1,2, Cheng Danni1, Du Shuangli1, Hu Jing1, Shi Cheng1, Shi Zhenghao1
1. School of Computer Science and Engineering, Xi′an University of Technology, Xi′an 710048, China;
2. Shaanxi Key Laboratory of Network Computing and Security Technology, Xi′an 710048, China
Supported by: National Key R&D Program of China (2017YFB1402103-3); National Natural Science Foundation of China (61901363, 61901362); Natural Science Foundation of Shaanxi Province, China (2020JQ-648, 2019JM-381, 2019JQ-729); Key Laboratory Foundation of Shaanxi Education Department (20JS086)

Abstract

Objective The backlit image is a kind of redundant reflection derived of the light straightforward to the camera, resulting in dramatic reduced visibility of region of interest (ROI) in the captured image. Different from ordinary low-light images, the backlit image has a wider grayscale range due to the extremely dark and bright parts. Traditional enhancement algorithms restore brightness and details of backlit parts in terms of overexposure and color distortion. Fusion technology or threshold segmentation is difficult to implement sufficient enhancement or adequate segmentation accuracy due to uneven images gray distribution. A transparency-guided backlit image enhancement method is demonstrated based on an improved fusion strategy. Method The backlit image enhancing challenge is to segment and restore the backlit region, which is regarded as the foreground and the rest as the background. First, the deep image matting model like encoder-decoder network and refinement network is illustrated. The backlit image and its related trimap are input into the encoder-decoder network to get the preliminary transparency value matrix. The output is melted into the refinement network to calculate the transparency value of each pixel, which constitutes the same scale alpha matte as the original image. The range of transparency value is between 0 and 1, 0 and 1 indicates pixels in the normal exposure region and the backlit region, respectively. The value between 0 and 1 is targeted to the overlapped regions. The alpha matte can be used to substitute the traditional weight map for subsequent fusion processing in terms of processed non-zero pixels. Next, the backlit image is converted into HSV(hue, saturation, value) space to extract the luminance component and the adaptive logarithmic transformation is conducted to enhance brightness in terms of the base value obtained from the number of low-gray image pixels. Contrast-limited adaptive histogram equalization is also adopted to enhance the contrast of the luminance component while logarithmic transformation can only be stretched or compressed gray values. Subsequently, Laplacian pyramid fusion is illustrated on the two improved luminance components. The obtained result was integrated into the original hue component and saturation component and it is converted to RGB space to obtain the global enhanced image. Finally, the alpha matte is used to linearly fuse the source image and the global enhanced image to maintain the brightness of non-backlit area. Result Our demonstration is compared to existing methods, including histogram equalization (HE), multi-scale Retinex (MSR), zero-reference deep curve estimation(Zero-DCE), attention guided low-light image enhancement(AGLLNet) and learning-based restoration (LBR). Information entropy (IE), blind image quality indicator (BIQI) and natural image quality evaluation (NIQE) are utilized to evaluate the restored image quality. IE is used to measure the richness of image information. The larger the value is, the richer the information and the higher the image quality are. BIQI performs distortion recognition is based on the calculated degradation rate of the image, and a small value represents a high quality image. NIQE compares the image with the designed natural image model, and the lower the value is, the higher the image sharpness is. Both subjective visual effects and objective image quality evaluation indicators are analyzed further. Our qualitatiave analysis can demonstrate better backlit image, no artifacts and natural visual effect, while HE causes color distortion and serious halo phenomenon in non-backlit region. MSR processes the three color channels each to cause the color information loss, Zero-DCE lacks color saturation and the enhancement effect of AGLLNet is not clarified. LBR is limited to segmentation accuracy, leading to color distortion and edge artifacts. Our quantitative algorithm illustrates its priorities in IE, BIQI and NIQE, improving by 0.137 and 3.153 compared with AGLLNet in IE and BIQI, respectively, and 3.5% in NIQE compared with Zero-DCE. Conclusion We introduced the deep image matting with precise segmentation capability to detect and identify the backlit region. An enhanced image brightness component is obtained via the improved Laplacian pyramid based fusion strategy. Our demonstration improves the brightness and contrast of the backlit image and restores the details and color information. The over-exposure and insufficient enhancement can be resolved further. Artifacts and distortion issues are not involved in our algorithm, and the improvement of objective quality evaluation index validates the backlight image enhancement.

Key words

image processing; backlight image enhancement; deep image matting; gray stretching; pyramid fusion

0 引言

科技的快速发展,引领人类生活智能化的不断进步,图像处理在社会的各个角落都发挥着至关重要的作用。目前,大多数由恶劣天气引起的低质图像增强方法都致力于低照度图像(Yang等,2021Xu等,2020)和雨雾图像(Ju等,2021袁非牛等,2021)的研究。而逆光图像与低照度图像有着十分明显且重要的不同:后者像素灰度值较低且分布较为集中,而逆光图像不仅存在光照不足的区域,还存在曝光正常的区域,且灰度范围分布较为广泛,如图 1所示。若通过增强相机曝光来显示曝光不足区域的信息,那么曝光良好的区域就会曝光过度甚至饱和。此外,由于制作成对的逆光图像数据集十分困难,而深度学习的方法需要大量的图像数据来训练网络模型,对硬件要求较高且比较耗时,目前还没有将深度学习应用于逆光图像增强的技术。因此,在保持曝光正常区域亮度不变的前提下对图像中的逆光区域进行增强,具有十分重要的研究意义(Trongtirakul等,2020)。

图 1 逆光图像与正常光照图像、低照度图像的对比
Fig. 1 Comparison of backlit image with normal light image and low-light image
((a)normal light images; (b) low-light images; (c)backlit images)

早期传统的图像增强方法主要分为全局增强和局部增强。其中,全局增强方法,如直方图均衡化(histogram equalization, HE)(Zhu等,2015)和灰度变换(满乐等,2017), 也称为单调映射方法,能在一定程度上消除光照较暗导致的区域不可见问题。但逆光图像的灰度分布极不均匀,应用此类增强技术会产生图像对比度失真,局部细节丢失和增强效果不足等问题。局部增强方法, 如基于直方图均衡化的改进算法和基于Retinex理论的增强算法, 前者包含对比度受限的自适应直方图均衡化(contrast limited adaptive histogram equalization,CLAHE)(Chang等,2018)、局部直方图修正算法(local histogram modification algorithm,LHMA)(Lisani,2018)等,通过计算图像块的局部直方图,对像素灰度值进行重新分布改变图像的对比度。后者包括单尺度Reintex(single-scale Retinex,SSR)(Jobson等,1997a)、多尺度Retinex(multi-scale Retinex,MSR)(Jobson等,1997b)等,该类算法基于Retinex模型,先从原始图像中估计出光照图像,进而算出反射率图像,消除弱光照的影响得到增强后的图像。由于能针对性地适应不同的局部灰度值分布,局部增强方法对逆光图像的增强效果要比全局增强方法更好,但仍存在无法同时保留细节和颜色信息,易在曝光正常区域产生光晕和伪影等问题(Wang等,2019Buades等,2020)。

上述方法忽略了逆光与非逆光区域的亮度分布问题,直接用于恢复逆光图像会导致局部增强过度。因此研究者们针对该问题提出了一系列算法,大致从两个角度出发。其一是采用融合方法,Wang等人(2016)将图像中的多尺度特征融合为单一特征,并引入权值映射来增强图像的可见性。Buades等人(2020)对输入图像的各个通道分别应用多个色调映射函数,再将其结果融合,并使用锐化算法和色度校正进行后处理。虽然该类方法能保留曝光正常区域的细节信息,但在光照过低的区域存在增强不足的问题。另一类方法从分割的角度出发,对逆光图像中的逆光前景和其他背景进行划分,然后分别应用不同的色调映射函数再融合。Trongtirakul等人(2020)将图像转为亮度图,计算阈值并将其分解为逆光区域和普通区域。Li和Wu(2018)通过监督学习构建的软二值分类器检测逆光区域与其余部分。Li等人(2015)使用由高斯混合模型驱动的软二值分割过程对逆光区域和过度曝光区域进行识别。这类方法依赖于阈值计算的准确性或分类、分割的精确度,具有一定的局限性。

针对上述不足,本文引入了具有高分割精度的抠图模型来检测和识别逆光区域。首先通过基于拉普拉斯金字塔的改进融合策略对图像的亮度分量进行增强,同时将单幅逆光图像输入到深度抠图网络中计算精确透明度值,用于后续的线性融合。本文方法不仅有效地提升了图像的亮度和对比度,恢复了图像的细节和颜色信息,同时也解决了曝光过度和增强不足等问题。

1 相关理论

1.1 金字塔融合

图像金字塔通过压缩图像降低尺寸,由高分辨率到低分辨率依下而上有序排列,将图像呈现出一种金字塔式的结构(Ancuti等,2018)。高斯金字塔的每层均使用高斯低通滤波器处理图像,输入的第1层为原始图像,在水平和垂直两个方向上将输入图像削减两倍,并将削减后的低通图像作为后续金字塔等级的输入。计算为

$ \begin{aligned} G_{l}(i, j) &=\sum\limits_{m=-2}^{2} \sum\limits_{n=-2}^{2} \omega(m, n) G_{l-1}(2 i+m, 2 j+n) \\ 1 & \leqslant l \leqslant N, 0 \leqslant i \leqslant R_{l}, 0 \leqslant j \leqslant C_{l} \end{aligned} $ (1)

式中,N为层数,RlCl分别为l层的行数和列数,Gl是高斯金字塔的l层,ω是5×5的高斯核,表示为

$ \boldsymbol{\omega}=\frac{1}{256}\left[\begin{array}{ccccc} 1 & 4 & 6 & 4 & 1 \\ 4 & 6 & 24 & 16 & 4 \\ 6 & 24 & 36 & 24 & 6 \\ 4 & 16 & 24 & 16 & 4 \\ 1 & 4 & 6 & 4 & 1 \end{array}\right] $ (2)

拉普拉斯金字塔是在高斯金字塔的基础上生成的,由高斯金字塔某层与其上层图像经过上采样处理的结果之差计算而来。

$ \boldsymbol{L}_{l}= \begin{cases}\boldsymbol{G}_{l} & l=N \\ \boldsymbol{G}_{l}-\boldsymbol{G}_{l+1}^{*} & 0 \leqslant l < N\end{cases} $ (3)

式中,Ll表示拉普拉斯金字塔的l层,Gl+1*是对高斯金字塔的l+1层进行上采样的结果。

金字塔融合算法是将所有待融合图像进行拉普拉斯金字塔分解,然后将其同一层按一定规则进行融合,得到一个新的金字塔,再对其进行重构,得到最终的融合图像。

1.2 图像抠图

图像抠图是把图像分解为前景层和背景层(Hou和Liu,2019),为一个线性组合下的图像合成方程,即

$ I=\alpha F+(1-\alpha) B $ (4)

式中,I是给定像素的颜色,F是未知的前景色,B为未知背景色,α为未知的透明度。抠图过程从图像开始,尝试计算其透明度,以此来提取前景。然而,对于每一个像素,这是一个包含7个未知量和3个已知量的难题。传统抠图方法如贝叶斯抠图(Chuang等,2001)、K邻近抠图(Chen等,2013)等技术的主要局限性是将颜色视为一个可区分的特征,当图像前景与背景的颜色重叠时,这种抠图方法的效果就不尽人意(Boda和Pandya,2018)。而基于深度学习的抠图方法可以学习图像的自然结构,将其反映到透明度蒙版上,不主要依赖于色彩信息。本文将图像中的逆光区域视为前景,采用有效的深度抠图模型精确检测出图像中的逆光区域,在一定程度上解决曝光过度的问题,改善增强效果。

2 本文逆光图像增强方法

2.1 算法流程

逆光图像增强面临的重要难题就是无法有效地区分逆光区域与非逆光区域,易产生增强不足和曝光过度的问题。为此,提出一种改进融合策略下透明度引导的逆光图像增强算法,既在保持曝光良好区域亮度不变的情况下增强了逆光区,又大大恢复了图像的亮度和细节。算法流程如图 2所示。算法主要步骤如下:

图 2 算法流程图
Fig. 2 Algorithm flow chart

1) 将逆光图像转换到HSV空间,提取亮度分量V,对其分别使用改进的自适应对数变换和对比度受限的自适应直方图均衡化进行增强,得到亮度改进的VLOG和对比度改进的VCLAHE

2) 对两个改进的V分量进行拉普拉斯金字塔融合得到V′,使其同时包含二者的有效信息。将V′与原始的色调分量H、饱和度分量S合并,转换到RGB空间得到融合增强图像I′

3) 引入深度抠图模型计算逆光图像的透明度蒙版α,作为权重图进行后续的融合处理。

4) 利用透明度蒙版将I′与源图像进行线性融合,得到最终的增强图像。

2.2 改进的金字塔融合策略

对逆光图像的增强实质上是对逆光区域亮度的提升,为了改善因亮度提升引起的对比度下降、细节丢失等问题,提出改进的金字塔融合策略对图像局部区域的亮度与对比度进行增强。

HSV(hue、saturation、value)是一种较为常用的颜色空间,比RGB更加接近于人们对色彩的视觉感知。将图像转换到HSV空间并提取其亮度分量V,针对不同角度进行增强,得到两个改进的V分量。

1) 亮度改进的VLOG。通过自适应对数变换可以将V中范围较窄的低灰度值映射到范围较宽的灰度区间,从而提高暗区可视化。具体计算为

$ \boldsymbol{V}_{\mathrm{LOG}}=\log _{a+1}(1+a \cdot \boldsymbol{V}) $ (5)

式中,a是对数变换因子,其值越大,低灰度提高越明显,其对应的对数变换曲线如图 3(a)所示。由于每幅逆光图像的灰度分布都极不均匀,需要进行不同程度的灰度扩展。因此令a的值取决于图像中低灰度值像素的数量,具体为

$ a = 1 - \frac{{N - M}}{N} $ (6)

式中,N表示输入图像的总像素数,M表示灰度值小于50的像素数(Wang等,2016)。图 3展示了两幅不同逆光程度的图像在使用多个不同因子值变换下的增强结果。当源图像中低灰度像素较多时,图像需要更强的拉伸,反之,拉伸强度较弱。如图 3(g)上图和下图的自适应因子分别为171.299 3和19.235 4。

图 3 不同对数变换因子的增强结果
Fig. 3 The results of different logarithmic transformation factors
((a)transformation curves; (b)α=1;(c)α=10;(d)α=50;(e)α=100;(f)α=200;(g)adaptive value)

2) 对比度改进的VCLAHE。对比度受限的自适应直方图均衡化(CLAHE)基于块处理来调整图像的灰度直方图分布,将输入图像划分为不重叠的子块,在每个子块内进行直方图均衡化,然后用双线性内插方法将相邻块组合起来。采用CLAHE增强图像的V分量以改善图像的局部对比度,恢复更多的细节信息。MATLAB中adapthisteq函数可用于执行这一操作,其中较高的对比度因子值C(cliplimit)会产生较强的对比度,C值过大会导致过度锐化,图 4展示了不同对比度因子的增强效果。经实验对比分析,将对比度因子取值为0.005,用来限制对比度的增强程度,防止图像的同质区域出现过饱和现象。

图 4 不同对比度因子的增强结果
Fig. 4 The results of different contrst factors
((a)C=0;(b)C=0.002;(c)C=0.005;(d)C=0.01;(e)C=0.05;(f)C=0.08;(g)C=0.1)

VLOGVCLAHE进行拉普拉斯金字塔融合得到最终的融合亮度分量V′,具体为

$ \boldsymbol{L}_{V^{\prime}}=\omega \times \boldsymbol{L}_{\mathrm{LOG}}+(1-\omega) \times \boldsymbol{L}_{\mathrm{CLAHE}} $ (7)

式中,LLOGLCLAHE分别表示VLOGVCLAHE的拉普拉斯金字塔,ω为平均权值。图 5展示了融合策略的流程。对LV′进行拉普拉斯金字塔重构得到最终的融合亮度分量V′,再将原始的色调分量H、饱和度分量S与改进的V′合并,并转换到RGB空间,得到全局增强图像I′

图 5 改进融合策略的流程图
Fig. 5 Flow chart of improved fusion strategy

2.3 透明度蒙版预测

深度抠图网络模型包括两个阶段,网络具体设计参数可参考Xu等人(2017)的方法。第1个阶段是深度卷积编码—译码器网络,该网络的输入是原图和其对应的trimap图,其中trimap图采用描绘边界的方式将图像粗略划分为前景、背景及未知区域,得到与原图大小一致的预测透明度蒙版。

该网络使用了两个损失函数,一个是透明度预测损失,另一个是合成损失。透明度预测损失定义了真实的透明度值和预测的透明度值在每一个像素位置上的绝对差,计算为

$ \mathcal{L}_{\alpha}^{i}=\sqrt{\left(\alpha_{p}^{i}-\alpha_{g}^{i}\right)^{2}+\varepsilon^{2}}, \alpha_{p}^{i}, \alpha_{g}^{i} \in[0, 1] $ (8)

式中,αpi是预测前景蒙版在像素i点处的预测透明度值,αgi是真实前景蒙版中像素i点处的透明度值,ε是一个极小实数,取值10-6

合成损失是指利用真实透明度值合成的图像与预测透明度值合成的图像进行绝对差的计算,近似表示为

$ \mathcal{L}_{c}^{i}=\sqrt{\left(c_{p}^{i}-c_{g}^{i}\right)^{2}+\varepsilon^{2}} $ (9)

式中,c为RGB通道,p为预测透明度蒙版合成的图像,g为真实透明度蒙版合成的图像。合成损失约束网络的合成操作,从而得到更准确的透明度蒙版预测结果。两个损失的加权总和为总损失,即

$ \mathcal{L}_{\text {all }}=\omega_{l} \cdot \mathcal{L}_{\alpha}+\left(1-\omega_{l}\right) \cdot \mathcal{L}_{c} $ (10)

式中,如果像素i在trimap中的未知区域内,ωl =1, 否则ωl为0。

上述网络得到的结果通常过于平滑,因此加入第2阶段的网络进一步细化结果。细化网络的输入是原始逆光图像和经过编码—译码器网络输出的预测透明度蒙版。深度抠图与其他逆光图像增强研究中采用的分割方法相比而言,前者在分割的精度上更加精确,其透明度取值为[0, 1],因此存在自然的过渡区域, 而后者结果并不理想,如图 6中红色框所示,因此引入深度抠图模型对逆光图像中曝光不足区域进行分割,使最终的增强结果更加自然。

图 6 不同方法对逆光区域检测和分割的结果
Fig. 6 The results of backlit region detection and segmentation by different methods
((a)backlit images; (b) soft binary segmentation; (c)learning-based restoration; (d)deep image matting)

值得注意的是,深度抠图本用于提取某一主体,将其与另一背景融合,而本文需利用深度抠图模型对图像中所有逆光区域进行透明度计算,不只局限于主体的人或物。在得到的透明度蒙版中,白色像素(值为1)表示逆光区域,不同程度的灰色像素(值在0~1之间)表示逆光区域与曝光正常区域的重叠,黑色像素(值为0)表示曝光正常区域,如图 7(b)所示。因此将透明度蒙版作为最终融合的权重图,对源图像与增强图像I′进行线性融合,得到最终的输出图像Iout,表示为

$ \boldsymbol{I}_{\text {out }}=\alpha \times \boldsymbol{I}+(1-\alpha) \times \boldsymbol{I}^{\prime} $ (11)

图 7 用透明度蒙版进行线性融合的结果
Fig. 7 The result of linear fusion with alpha matte
((a)backlit image; (b)alpha matte of (a); (c)global enhanced image; (d)enhanced image by introducing alpha matte)

式中,α为使用深度抠图模型得到的透明度值,I为输入的逆光图像。图 7展示了采用透明度蒙版进行线性融合的实验结果。从中可以看出,经过改进金字塔融合策略增强的图 7(c)在背景的森林处被过度增强,失去了对比度。而引入透明度蒙版后,非逆光区域像素值被源图像中对应区域的像素值代替,使曝光正常区域的亮度保持不变,避免了上述问题,证明其有效性。

3 实验结果及分析

实验的运行环境为Lenovo PC端,Corei5-8250U CPU,8 GB内存, 操作系统与运行平台为Windows 10、MATLAB R2016b和PyCharm 2020。实验是在目前唯一公开且通用的逆光图像数据集(Li和Wu,2018)的基础上扩充后进行测试的,原数据集有38幅逆光图像,最终测试数据集共包含112幅,其中从Caltech Faces 1999 Dataset、TM-DIED和Brightening数据集(Wei等,2018)中分别获取了12幅(896×592像素)、33幅(800×600像素)和29幅(384×384像素)逆光图像。为验证本文方法的有效性,从主观视觉评价和客观质量评价指标两方面将本文方法与现有的其他方法进行比较,包括经典的直方图均衡化(HE)、多尺度Retinex(MSR)、零参考深度曲线估计(zero-reference deep curve estimation, Zero-DCE)、注意引导微光图像增强(attention guided low-light image enhancement, AGLLNet)和基于分类学习的方法(learning-based restoration, LBR)。

3.1 主观评价

图 8是多幅逆光图像在不同方法上增强的实验对比结果。从图 8(b)中的图A、图B和图E可以看出,HE方法使逆光区域亮度明显提高,但出现了颜色扭曲,并在非逆光区产生严重的光晕现象,这是由于输出图像的平均亮度被拉伸到灰度范围的中间值,从而丢失了原始图像的亮度信息。图 8(c)显示MSR方法以失去对比度为代价提升了图像整体亮度,由于算法在增强过程中对颜色通道分别进行处理,使图像颜色信息丢失,整体偏灰白色。使用Zero-DCE (Guo等,2020)恢复的图像色彩饱和度较低,绿色框还展示了增强不足和饱和度失真的现象。AGLLNet (Lyu等,2021)使用大量合成的低照度图像训练网络,使增强图像在非逆光区域产生曝光过度,如图 8中图B和图D放大区域存在明显伪影。LBR (Li和Wu,2018)解决了逆光区域不可见问题,但受到分割精度的影响,导致区域连接边界失真,如图A和图G中的颜色失真,图B中树枝和图F中石头的边缘伪影。与上述5种方法相比,本文方法增强结果同时恢复了图像的细节和颜色信息,避免产生伪影且视觉效果更为自然。

图 8 不同算法的增强效果图
Fig. 8 Results of different algorithms
((a)original images; (b)HE; (c)MSR; (d)Zero-DCE; (e)AGLLNet; (f)LBR; (g)ours)

3.2 客观评价

由于真实逆光图像没有可参考的标准图像,为了更客观地验证本文方法的有效性,实验采用信息熵(information entropy, IE)(Roberts等,2008)、盲图像质量指标(blind image quality indicators,BIQI)(Moorthy和Bovik,2010)和自然图像质量评价(natural image quality evaluation, NIQE)(Mittal等,2013)等无参考质量评价指标及处理时间对本文方法与其他方法进行比较分析。IE可用来衡量图像信息的丰富程度,值越大表明图像中信息越丰富,图像质量越高。BIQI是一种基于自然场景统计NSS (natural scene statistics)的无参考图像质量评估框架,对图像的退化率进行辨识,值越小说明图像质量越好。NIQE是将图像与设计的自然图像模型进行比较,数值越低说明图像清晰度越高。

实验对数据集中的112幅逆光图像进行评估,将本文方法与其他5种方法的结果进行比较,如表 1所示。可以看出,本文方法在IE、BIQI上均获得了最优值,分别比AGLLNet提高了0.137、3.153,在NIQE指标上有较优表现,比Zero-DCE提高了0.133。说明本文方法的信息丰富度较高,失真度低且清晰度较好。关于处理时间,HE和MSR为传统的像素级处理方法,算法复杂度较低。而Zero-DCE是一个轻量级模型,且借助了GPU的加速计算,处理速度较快。AGLLNet具有包含4个深层网络的复杂结构,LBR算法复杂度较高且未经优化,因此运行时间较长。

表 1 不同算法的客观评价结果比较
Table 1 Comparison of objective evaluation results among different algorithms

下载CSV
方法 IE (↑) BIQI (↓) NIQE(↓) 时间/s
HE 7.176 36.718 3.931 0.052
MSR 7.392 35.988 3.933 0.457
Zero-DCE 7.332 35.009 3.790 0.238
AGLLNet 7.415 30.877 3.563 9.287
LBR 7.406 37.362 3.874 40.979
本文 7.552 27.724 3.657 0.827
注:↑表示数值越大图像质量越好,↓表示数值越小图像质量越好,加粗字体为每列最优值。

此外,本文方法也可用于光线不足条件下拍摄的局部区域曝光不足图像。比如在夜晚无路灯处(图 9(a))、室内光线较暗(图 9(b))及受到高建筑物遮挡(图 9(d))等条件下拍摄的特殊弱光图像,由于这类图像与逆光图像具备相同特性,本文方法也可对此类图像进行增强,处理结果如图 9所示。

图 9 对不同特殊光照图像的增强结果
Fig. 9 Results of different special illumination images
((a)outdoor low light; (b)indoor low light; (c)night view; (d) occlusion of light)

4 结论

逆光图像增强的主要任务和难题是对逆光区域进行划分和增强,将图像中的逆光区域视为前景,曝光正常区域视为背景,提出了一种改进融合策略下透明度引导的逆光图像增强方法。首先对输入图像的亮度图进行自适应灰度拉伸与对比度提升,通过拉普拉斯金字塔重构同时增强逆光区域的细节和颜色信息;其次利用抠图模型计算输入图像的透明度蒙版;最后对全局增强图像与源图像进行透明度引导的融合处理。实验结果表明,该算法既有效增强了逆光图像又避免了局部曝光过度的问题。相较于传统的HE、MSR方法,深度学习方法Zero-DCE、AGLLNet以及基于分类学习的LBR,本文方法的图像视觉效果更好,避免了颜色失真、光晕和伪影等现象,在IE、BIQI、NIQE等客观质量评价指标上也都取得了较优值。

本文方法从逆光图像灰度分布的特点出发,利用亮度融合策略提升图像的清晰度和对比度,引入抠图模型进行透明度预测,但对于处理复杂场景条件下的逆光图像存在时间复杂度较高、效果欠佳等问题。未来的研究将考虑融入图像结构特征的检测与提取,并探索区域间亮度相关的逆光图像增强方法。

参考文献

  • Ancuti C O, Ancuti C, De Vleeschouwer C, Bekaert P. 2018. Color balance and fusion for underwater image enhancement. IEEE Transactions on Image Processing, 27(1): 379-393 [DOI:10.1109/TIP.2017.2759252]
  • Boda J and Pandya D. 2018. A survey on image matting techniques//Proceedings of 2018 International Conference on Communication and Signal Processing. Chennai, India: IEEE: 765-770 [DOI: 10.1109/ICCSP.2018.8523834]
  • Buades A, Lisani J L, Petro A B, Sbert C. 2020. Backlit images enhancement using global tone mappings and image fusion. IET Image Processing, 14(2): 211-219 [DOI:10.1049/iet-ipr.2019.0814]
  • Chang Y K, Jung C, Ke P, Song H, Hwang J. 2018. Automatic contrast limited adaptive histogram equalization with dual gamma correction. IEEE Access, 6: 11782-11792 [DOI:10.1109/ACCESS.2018.2797872]
  • Chen Q F, Li D Z Y, Tang C K. 2013. KNN matting. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(9): 2175-2188 [DOI:10.1109/TPAMI.2013.18]
  • Chuang Y Y, Curless B, Salesin D H and Szeliski R. 2001. A Bayesian approach to digital matting//Proceedings of 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Kauai, USA: IEEE: 264-271 [DOI: 10.1109/CVPR.2001.990970]
  • Guo C L, Li C Y, Guo J C, Loy C C, Hou J H, Kwong S and Cong R M. 2020. Zero-reference deep curve estimation for low-light image enhancement//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE: 1777-1786 [DOI: 10.1109/CVPR42600.2020.00185]
  • Hou Q Q and Liu F. 2019. Context-aware image matting for simultaneous foreground and alpha estimation//Proceedings of 2019 IEEE/CVF International Conference on Computer Vision. Seoul, Korea (South): IEEE: 4129-4138 [DOI: 10.1109/ICCV.2019.00423]
  • Jobson D J, Rahman Z, Woodell G A. 1997a. Properties and performance of a center/surround Retinex. IEEE Transactions on Image Processing, 6(3): 451-462 [DOI:10.1109/83.557356]
  • Jobson D J, Rahman Z, Woodell G A. 1997b. A multiscale Retinex for bridging the gap between color images and the human observation of scenes. IEEE Transactions on Image Processing, 6(7): 965-976 [DOI:10.1109/83.597272]
  • Ju M Y, Ding C, Ren W Q, Yang Y, Zhang D Y, Guo Y J. 2021. IDE: image Dehazing and exposure using an enhanced atmospheric scattering model. IEEE Transactions on Image Processing, 30: 2180-2192 [DOI:10.1109/TIP.2021.3050643]
  • Li Z H, Cheng K and Wu X L. 2015. Soft binary segmentation-based backlit image enhancement//Proceedings of the 17th IEEE International Workshop on Multimedia Signal Processing. Xiamen, China: IEEE: 1-5 [DOI: 10.1109/MMSP.2015.7340808]
  • Li Z H, Wu X L. 2018. Learning-based restoration of backlit images. IEEE Transactions on Image Processing, 27(2): 976-986 [DOI:10.1109/TIP.2017.2771142]
  • Lisani J L. 2018. An analysis and implementation of the shape preserving local histogram modification algorithm. Image Processing on Line, 8: 408-434 [DOI:10.5201/ipol.2018.236]
  • Lyu F F, Li Y, Lu F. 2021. Attention guided low-light image enhancement with a large scale low-light simulation dataset. International Journal of Computer Vision, 129(7): 2175-2193 [DOI:10.1007/s11263-021-01466-8]
  • Man L, Zhao Y, Wang H X. 2017. Improved nonlinear brightness-lifting model for restoring backlight images. Journal of Computer Applications, 37(2): 564-568 (满乐, 赵钰, 王好贤. 2017. 改进非线性亮度提升模型的逆光图像恢复. 计算机应用, 37(2): 564-568) [DOI:10.11772/j.issn.1001-9081.2017.02.0564]
  • Mittal A, Soundararajan R, Bovik A C. 2013. Making a "Completely Blind" image quality analyzer. IEEE Signal Processing Letters, 20(3): 209-212 [DOI:10.1109/LSP.2012.2227726]
  • Moorthy A K, Bovik A C. 2010. A two-step framework for constructing blind image quality indices. IEEE Signal Processing Letters, 17(5): 513-516 [DOI:10.1109/LSP.2010.2043888]
  • Roberts J W, van Aardt J A, Ahmed F B. 2008. Assessment of image fusion procedures using entropy, image quality, and multispectral classification. Journal of Applied Remote Sensing, 2(1): #023522 [DOI:10.1117/1.2945910]
  • Trongtirakul T, Chiracharit W, Agaian S S. 2020. Single backlit image enhancement. IEEE Access, 8: 71940-71950 [DOI:10.1109/ACCESS.2020.2987256]
  • Wang Q H, Fu X Y, Zhang X P and Ding X H. 2016. A fusion-based method for single backlit image enhancement//Proceedings of 2016 IEEE International Conference on Image Processing. Phoenix, USA: IEEE: 4077-4081 [DOI: 10.1109/ICIP.2016.7533126]
  • Wang R X, Zhang Q, Fu C W, Shen X Y, Zheng W S and Jia J Y. 2019. Underexposed photo enhancement using deep illumination estimation//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach, USA: IEEE: 6842-6850 [DOI: 10.1109/CVPR.2019.00701]
  • Wei C, Wang W J, Yang W H and Liu J Y. 2018. Deep Retinex decomposition for low-light enhancement[EB/OL]. [2021-08-24]. https://arxiv.org/pdf/1808.04560.pdf
  • Xu K, Yang X, Yin B C and Lau R W H. 2020. Learning to restore low-light images via decomposition-and-enhancement//Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, USA: IEEE: 2278-2287 [DOI: 10.1109/CVPR42600.2020.00235]
  • Xu N, Price B, Cohen S and Huang T. 2017. Deep image matting//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE: 311-320 [DOI: 10.1109/CVPR.2017.41]
  • Yang W H, Wang W J, Huang H F, Wang S Q, Liu J Y. 2021. Sparse gradient regularized deep Retinex network for robust low-light image enhancement. IEEE Transactions on Image Processing, 30: 2072-2086 [DOI:10.1109/TIP.2021.3050850]
  • Yuan F N, Li Z Q, Shi J T, Xia X, Li Y. 2021. Image defogging algorithm using a two-phase feature extraction strategy. Journal of Image and Graphics, 26(3): 568-580 (袁非牛, 李志强, 史劲亭, 夏雪, 李雅. 2021. 两阶段特征提取策略的图像去雾. 中国图象图形学报, 26(3): 568-580) [DOI:10.11834/jig.200057]
  • Zhu R, Zhu L, Li D N. 2015. Study of color heritage image enhancement algorithms based on histogram equalization. Optik, 126(24): 5665-5667 [DOI:10.1016/j.ijleo.2015.08.169]