Print

发布时间: 2018-05-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.170610
2018 | Volume 23 | Number 5




    图像处理和编码    




  <<上一篇 




  下一篇>> 





不同颜色模型下自适应直方图拉伸的水下图像增强
expand article info 黄冬梅, 王龑, 宋巍, 王振华, 杜艳玲
上海海洋大学信息学院, 上海 201306

摘要

目的 水下图像是海洋信息的重要载体,然而与自然环境下的图像相比,其成像原理更复杂、对比度低、可视性差。为保证不同类型水下图像的增强效果,本文提出在两种颜色模型下自适应直方图拉伸的水下图像增强方法。方法 首先,进行基于Gray-World理论对蓝、绿色通道进行颜色均衡化预处理。然后,根据红绿蓝(R-G-B)通道的分布特性和不同颜色光线在水下传播时的选择性衰减,提出基于参数动态优化的R-G-B颜色模型自适应直方图拉伸,并采用引导滤波器降噪。接下来,在CIE-Lab颜色模型,对‘L’亮度和‘a’‘b’色彩分量分别进行线性和曲线自适应直方图拉伸优化。最终,增强的水下图像呈现出高对比度、均衡的饱和度和亮度。结果 选取不同类型的水下图像作为数据集,将本文方法与融合颜色模型(ICM)、非监督颜色纠正模型(UCM)、基于暗通道先验性(DCP)的水下图像复原和基于水下暗通道先验(UDCP)的图像复原方法相比较,增强后的图像具有高对比度和饱和度。定性和定量分析实验结果说明本文提出的方法能够获得更好视觉效果,增强后的图像拥有更高信息熵和较低噪声。结论 在RGB颜色模型中,通过合理地考虑水下图像的分布特性和水下图像退化物理模型提出自适应直方图拉伸方法;在CIE-Lab颜色模型中,引入拉伸函数和指数型曲线函数重分布色彩和亮度两个分量,本方法计算复杂度低,适用于不同复杂环境下的水下图像增强。

关键词

水下图像增强; 直方图分布; 自适应直方图拉伸; 颜色模型; 拉伸函数; 指数型曲线函数

Underwater image enhancement method using adaptive histogram stretching in different color models
expand article info Huang Dongmei, Wang Yan, Song Wei, Wang Zhenhua, Du Yanling
College of Information Technology, Shanghai Ocean University, Shanghai 201306, China
Supported by: National Natural Science Foundation of China (61702323, 41671431, 41501419)

Abstract

Objective Underwater image is an important carrier of ocean information, and clear images obtained underwater play a critical role in ocean engineering, such as underwater device inspection and marine biological recognition. However, compared with images captured in terrestrial environment, underwater images often exhibit color shift, low contrast, and poor visibility because the light is absorbed, scattered, and reflected by the water medium when traveling from an object to a camera in the complicated underwater environment. Existing methods cannot be effective and suitable for different types of underwater images. To address these problems, we propose a simple underwater image enhancement method using adaptive histogram stretching in different color models, which can improve the contrast and brightness of the underwater image, reduce the introduction of noise, and generate a relatively natural image. Method Given that images are rarely color balanced in the underwater situation, we first preprocess the underwater image with color equalization in the red, green, and blue (RGB) color model based on gray world assumption theory. Color equalization is employed only on the green and blue channels of the input image to avoid the inappropriate compensation for the red channel in the water, which is often achieved by simple color balancing. Then, we analyze the distribution characteristics of the RGB channels, which are focused on the regular range. Meanwhile, we determine the rule of selective attenuation in three channels of the underwater image, in which the red color is seriously affected and the wavelength of the red color is the longest, leading to most underwater images having a blue-green tone. On the basis of the results and analysis, we propose an adaptive histogram stretching approach in the RGB color model to adapt to different underwater images. Given that underwater images are disturbed by various factors, the stretching range is limited to the range[0.5%, 99.5%] and is obtained based on the inherent characteristics similar to the variation of Rayleigh distribution to reduce the effect of several extreme pixels on the process of adaptive histogram stretching. The desired range of each channel is acquired according to Rayleigh distribution theory, the image formation model, and the residual energy ratios of different color channels underwater. These dynamic stretching ranges have considered the characteristics of histogram distribution in hazed image and in the expected output image simultaneously. Finally, four possible situations of histogram stretching on the basis of the desired range are introduced to preserve the enhanced underwater images from over-stretching or under-stretching. Although the smart method based on adaptive histogram stretching will not introduce obvious noise to the output image, the guided filter is employed to eliminate the effect of noise to improve the contrast and capture relevant details of the image. Then, in the CIE-Lab color model, the "L" luminance component, which is equivalent to image luminance, is applied with linear normalization in the stretch range[0.1%, 99.9%], and the brightness of the entire image is significantly improved. The "a" and "b" color components are modified to acquire the appropriate color correction using the exponential model curve function. Ultimately, a color-equalized, contrast-enhanced, and brightness-corrected underwater image can be produced as the perceivable output image. Result Our proposed method is evaluated by comparing it with two effective nonphysical methods and two state-of-the-art physical methods qualitatively and quantitatively. The integrated color model and the unsupervised color correction model, as typical nonphysical methods, are most similar to the proposed method in terms of histogram modification. The blind global histogram stretching usually tends to produce output images that contain under-enhanced or over-enhanced and undersaturated or oversaturated areas and high noise. The dark channel prior-based and underwater dark channel prior-based underwater image restoration are imposed to estimate the background light and transmission map (TM) to restore underwater images based on the optical physical model. Physical methods are appropriate only for the enhancement and restoration of certain underwater images under specific circumstances and are time consuming for estimating the TM. Experimental results of different types of underwater images, such as brown coral, underwater fishes, and stones with different color tones, show that our proposed method can achieve better enhanced quality. Our method obtains the highest average subjective quality score among the underwater image enhancement and restoration methods, further proving that our method exhibits the best visual effects. The proposed method is not only simple and effective but also improves the contrast, details, and colors of the input images. In quantitative assessment, the maximum value of UCIQE represents the balance of the chroma, saturation, and contrast of the enhanced image in all methods; the highest value of ENTROPY means that our method preserves the richest information and details; the lowest value of Q-MOS indicates better perceptual quality; and the lowest value of MSE and the highest value of the peak signal-to-noise ratio can reduce the introduction of noise when the original image is enhanced based on adaptive histogram stretching. In summary, the final results have shown that our method can recover natural underwater images, enhance the visibility of hazed images, and produce high-quality underwater images. Conclusion The proposed method consists of two parts, i.e., color correction and contrast enhancement in the RGB color model and modification of the brightness and hue in the CIE-Lab color model. In the RGB color model, adaptive histogram stretching is proposed with reasonable consideration of the distribution characteristics of the underwater image and the physical model of underwater image degradation. In the CIE-Lab color model, the stretching and S-model curve functions are adopted to modify the luminance and colors. The proposed method can be of low complexity, can be appropriate for different underwater images under complicated scenarios, and can effectively enhance visibility according to the best perceptual quality, high contrast, and most information and details. Our method achieves impressive results for applicability and robustness compared with the representative underwater image enhancement and restoration methods. Despite its satisfactory performance, our method still needs some improvements:1) the influences of the distance from the object to the water surface and artificial light on the results of restoration and enhancement are all ignored to some extent; 2) the noise due to histogram stretching cannot be entirely removed based on the guided filter; 3) in deep ocean, the radiation of natural light spreading from the water surface to the object fades away and the artificial light becomes the main light source for underwater imaging. These limitations will be investigated, and the proposed method will be refined in future work.

Key words

underwater image enhancement; histogram distribution; adaptive histogram stretching; color model; stretching function; exponential-model curve function

0 引言

在海洋工程中,获得清晰的水下图像是一项重要的任务,然而水下图像往往存在颜色衰减、模糊和低对比度等问题。造成水下图像退化的原因包括不同波长的光线在水中传播具有不同的衰减特性、水下悬浮颗粒和人造光源[1]。低质量水下图像对海洋生态保护[2]、海洋资源探索、海洋军事战略等研究带来阻碍。还原清晰、真实的水下图像对于海洋世界的研究具有重要意义[3, 4]。目前,水下图像清晰化技术大致可以分为两类:水下图像增强方法和水下图像复原方法。水下图像增强方法不考虑水下成像原理,主要通过调整图像的像素值来优化颜色和对比度。水下图像复原方法通常是基于水下成像物理模型,分析水下图像退化机理,估计成像模型参数并以反补偿的方式复原清晰的水下图像。

水下图像增强方法中最简单、最常见方法之一是直方图拉伸或直方图均衡化。2007年,Iqbal等人[5]提出一种基于直方图滑动拉伸(ICM)的水下图像增强算法。首先,在RGB颜色模型中整个范围[0, 255]地拉伸衰减严重的R-G分量。然后图像被转换到HSI颜色模型,对‘S’和‘I’分量采用相似的全局直方图拉伸算法提高输出图像的饱和度和亮度。2010年,Iqbal等人[6]提出一种基于VKH (Von Kries hypothesis)的颜色修正和选择性直方图拉伸的对比度优化的非监督水下图像增强算法(UCM)。ICM改进后的UCM可以有效地移除蓝色偏差、提高低分量的红色信道和亮度。2012年,Ancuti等人[7]提出了基于图像融合的水下图像增强模型。首先,根据输入图像产生两个融合图像:第1个通过白平衡进行颜色纠正,第2个通过局部自适应直方图均衡化进行对比度增强。然后,依据两个融合图像的对比度、显著特征和暴露比重确定4个融合权重。最后,将两个融合图像和定义好的权重采用多尺度融合策略产生具有更好对比度和白平衡的增强图片。2015年,Ghani等人[8-9]在ICM和UCM的基础上,考虑到清晰的水下图像呈现瑞利分布,因此采用瑞利分布函数对输入图像重分布。改进后结果很明显地提高图像对比度和减少过增强、过饱和区域以及噪声引入。基于物理模型的方法需要建立水下图像的成像模型,通过限制条件估算构建模型中参数,最后反演退化过程得到理想的水下图像。由于水下图像成像环境和户外大雾天气相似,因此何凯明[10]提出的暗通道先验特性(DCP)被广泛地使用在水下图像复原。2010年,Chao等人[11]直接使用DCP复原水下图像,该算法只能提高部分水下图像对比度但是大部分复原图像出现颜色失真。同年,Carlevaris-Bianco等人[12]发现红色通道和蓝绿色通道在水下传播时存在明显差异的衰减率,通过不同光线在水中传播的物理属性得出传输地图和背景光,简单地解决光照散射、对比度低的问题。过不同光线在水中传播的物理属性得出传输地图和背景光,简单地解决光照散射、对比度低的问题。2011年,Yang等人[13]基于DCP探索出一个简单有效的复原方法,为了降低计算复杂度,使用最小滤波器和中值滤波器代替软抠图(soft matting)。该算法使用颜色纠正提高复原图像的对比度,但是低质量的复原结果限制输出图像的视觉效果。2012年,Chiang等人[14]提出波长弥补和图像去雾(WCID)方法,该方法不但有效地产生高质量的水下图像,还可以降低人造光源对复原过程的影响。但是,本方法的物理模型构建局限性大、模型参数估计的计算复杂度高,不适用于不同类型的水下图像复原。为了减少红色分量在图像复原时的影响,研究人员进一步提出基于蓝绿色通道的DCP(也被称作UDCP)。2013年,Drews等人[15]提出基于G-B通道的暗通道先验(UDCP)估计更准确的水下传输地图(TM),最终得到效果更好的输出结果。同年,Wen等人[16]提出一种新的水下光学成像数学模型,基于UDCP推导出散射率和背景光,最后反演新的成像模型、输出复原图像。2015年,Galdran等人[17]提出一种自动红色信道水下图像复原方法。该方法类似于UDCP,主要基于倒置的红色通道和蓝绿色通道的暗通道先验;合理地处理人造光源区域;复原图像颜色的真实性。Peng等人[18]研究发现图像中更模糊的目标表现更远的场景深度,因此提出了基于图像模糊强度估计传输地图和场景深度的水下图像复原方法。2016年,Li等人[19]基于UDCP对蓝绿色通道去雾、基于灰度世界假设理论纠正红色通道,提出自适应曝光地图调整过亮或者过暗的区域,解决水下图像对比度低、颜色偏差的问题。

无论是基于物理模型还是非物理模型,现有方法在兼顾图像增强和复原中的有效性、实时性和鲁棒性等方面仍然存在问题。理想的水下图像增强方法应该做到针对不同的水下应用场景和不同类型的退化图像做出自适应的调整,不应受到应用场景和外界条件的限制,具有较好的鲁棒性和自适应能力。

1 相关工作

1.1 成像模型

水下图像的形成可以认为是介质、光线和场景的复杂交互作用[20-21],也可以认为是直接照明、前景散射和背景散射的线性组合。背景散射是造成图像模糊的主要原因,因此简单的图像成像模型可以被简化为[22]

$ {I^c}\left( x \right) = {J^c}\left( x \right) {t^c}\left( x \right) + {B^c}\left( {1 - {t^c}\left( x \right)} \right) $ (1)

式中, $x$ 代表图像中的某个坐标 $(i, j)$ $c$ 代表红绿蓝(R-G-B)通道, $J^c(x)t^c(x)$ 表示场景能量中直接衰减的部分, $J^c(x)$ 表示复原后的图像(期望值), $t^c(x)$ 表示 $J^c(x)$ 经过衰减、散射和折射等过程后到达相机的残余能量比率, $B^c$ 表示均匀背景光。在水中, $t^c(x)$ 也叫残余能量比例,受到光线波长和场景与相机间距离的影响,因此 $t^c(x)$ 可以表示为[14]

$ {t_\lambda }\left( x \right) = Nrer{\left( \lambda \right)^{d\left( x \right)}} $ (2)

式中, $Nrer(λ)$ 为标准化残余能量比,代表初始化能量在水中每经过单位距离剩余的能量比, $d(x)$ 表示场景到相机的距离。蓝绿色光线波长比红色光线要短,蓝绿色光线的衰减率比红色光线的低,这也就说明深海图像多呈现蓝绿色调。 $Nrer(λ)$ 只与光线波长有关,在海洋一级标准下定义为

$ Nrer\left( \lambda \right) = \left\{ \begin{array}{l} 0.8 \sim 0.85\;\;\;\;\;\;\lambda = 650 \sim 750\;{\rm{ \mathsf{ μ} m}}\left( {\rm{R}} \right)\\ 0.93 \sim 0.97\;\;\;\;\lambda = 490 \sim 550\;{\rm{ \mathsf{ μ} m}}\left( {\rm{G}} \right)\\ 0.95 \sim 0.99\;\;\;\;\lambda = 400 \sim 490\;{\rm{ \mathsf{ μ} m}}\left( {\rm{B}} \right) \end{array} \right. $ (3)

1.2 滑动拉伸

经典的图像增强方法包括灰度世界(gray-world)、白平衡(white balance)、直方图均衡化(histogram equalization)等基于非物理模型的像素重分布方法。以上方法有效地去除图像中存在的色偏,但是在处理直方图分布集中的水下图像时存在明显的局限性。为了克服传统的图像增强方法在去除颜色偏差和低对比度的困难,直方图滑动拉伸被Iqbal等人[5-6]首先提出用在水下图像增强方面。直方图滑动拉伸的公式定义为

$ {p_o} = \left( {{p_i} - a} \right)\left( {\frac{{c - d}}{{b - a}}} \right) + d $ (4)

式中, $p_i$ $p_o$ 分别表示输入输出像素值, $a、b、c、d$ 分别表示输入图像和目标图像的最小最大值。在全局拉伸中, $c$ $d$ 分别设定成期望最大值255和最小值0。为了防止噪声的干扰, $a$ $b$ 分别选取输入图像中最小和最大的0.2 %位置的像素值。

2 本文算法

考虑到水下图像物理模型的有效性和水下图像固有特性的简单性,提出在不同颜色模型下自适应直方图拉伸的水下图像增强方法。在RGB颜色模型中经过自适应直方图拉伸的水下图像容易引入少量不明显的噪点,因此引导滤波器(guided filter)[23]用来在保留图像边缘细节的前提下有效地去除噪点。图 1是整个算法的流程图。

图 1 整个算法流程图
Fig. 1 The entire processing of the proposed method

2.1 基于灰度世界猜想的G-B通道颜色均衡化

在水下环境中,由于图像中红色通道相对较暗因此大多呈现蓝绿色调。2010年,Iqbal等人[6]提出的颜色均衡化主要是以蓝色为标准分别对红色和绿色进行纠正,红、绿色分别乘上均衡化系数。2015年,Ghani等人[9]基于VKH的变形式,首先计算R-G-B每个通道的平均值,选取3个平均值的中间值作为平衡标准对其余两个通道进行颜色均衡化。上述方法存在一定的风险:一旦红色通道分量偏低,预处理的图像很容易产生红色过饱和现象,直接影响下一步图像增强。

本文根据Gray-World阐述在灰度世界中完美彩色图像的平均值是0.5,即

$ \left( {{R_{{\rm{avg}}}} + {G_{{\rm{avg}}}} + {B_{{\rm{avg}}}}} \right)/3 = 0.5 $ (5)

式中, $R_{{\rm{avg}}}$ $G_{{\rm{avg}}}$ $B_{{\rm{avg}}}$ 分别表示红色、绿色和蓝色通道的归一化平均值。

水下图像的红色通道很难通过简单的颜色均衡化进行补偿,往往盲目的纠正会引起彩色失真。因此我们不把红色通道作为纠正对象,只对G-B两通道进行初步纠正,即

$ \begin{array}{l} {G_{{\rm{avg}}}} = \frac{1}{{255 \times MN}}\sum\limits_{i = 1}^M {\sum\limits_{j = 1}^N {{I_{\rm{g}}}\left( {i,j} \right),{\theta _{\rm{g}}} = \frac{{0.5}}{{{G_{{\rm{avg}}}}}}} } \\ {B_{{\rm{avg}}}} = \frac{1}{{255 \times MN}}\sum\limits_{i = 1}^M {\sum\limits_{j = 1}^N {{I_{\rm{b}}}\left( {i,j} \right),{\theta _{\rm{b}}} = \frac{{0.5}}{{{B_{{\rm{avg}}}}}}} } \end{array} $ (6)

式(6)用来计算G-B通道的均衡化系数 $θ_{{\rm{g}}}, θ_{{\rm{b}}}$ $M$ $N$ 代表这幅图像的空间分辨率。G-B通道分别乘以参数 $θ_{{\rm{g}}}, θ_{{\rm{b}}}$ ,得到调整后的像素

$ G' = {\theta _{\rm{g}}} \times G,B' = {\theta _{\rm{b}}} \times B $ (7)

式中, $G$ $B$ 为输入图像的像素点, $G'$ $B'$ 为颜色均衡化后的像素点。

2.2 在RGB颜色模型中的自适应直方图拉伸

全局直方图拉伸是将分布集中的直方图调整到全局范围,加大前景和背景灰度的差别以达到增强对比度的效果。Iqbal等人[5-6]将全局直方图拉伸应用在RGB颜色模型和HIS颜色模型,但是输出结果仍然存在大量蓝绿色分量以及引入部分噪声。由于光线在水中传播时呈现选择性衰减,R-G-B通道的直方图表现出各自的分布特性,盲目的全局直方图拉伸不但会引入噪声降低图像的可视度,而且会引入伪影导致颜色失真。因此,水下图像的直方图拉伸需要合理考虑其成像特性、3种光线在水下传播时的衰减特性以及R-G-B通道的直方图分布规律。自适应直方图拉伸的创新点在于动态地选择需要拉伸的范围和期望的范围。

2.2.1 原始图像的拉伸区间选择

统计分析大量水下图像的直方图分布,能够发现水下图像的直方图分布与瑞利分布相似[8],瑞利分布的概率表达式为

$ RD = \frac{x}{{{a^2}}}{{\rm{e}}^{ - {x^2}/2{a^2}}};x \ge 0,a > 0 $ (8)

式中,分布函数的尺度参数$a $是众数,表示每个R-G-B直方图中的峰值,当某个通道呈现正态分布时,中位数和众数是同一个值。选择每个通道的众数作为分界点确定直方图拉伸的范围。

在自适应直方图拉伸时,为了减少极端像素点(例如噪点、极大值和极小值)对拉伸的影响,选取输入图像中整个直方图 0.5 %到99.5 %的像素值作为拉伸范围。

$ \begin{array}{l} {I_{\min }} = P{s_{{\rm{st}}}}\left[ {Ps\left( a \right) \times 0.5\% } \right]\\ {I_{\max }} = P{s_{{\rm{st}}}}\left[ { - \left( {P{s_{{\rm{len}}}} - Ps\left( a \right)} \right) \times 0.5\% } \right] \end{array} $ (9)

式中, $I_{\min}$ $I_{\max}$ 表示最小、最大拉伸值, $Ps$ 是R-G-B每个通道的像素集, $Ps._{\rm{st}}$ $Ps$ 像素集从小到大的正向排列, $Ps(a)$ 是直方图分布中众数的索引值, $Ps_{\rm{st}}[x]$ 代表正向排列的像素集中索引为 $x$ 的值, $Ps_{\rm{len}}$ 表示图像的大小 $(600×400)$

2.2.2 期望的拉伸区间估计

全局直方拉伸时期望拉伸范围为[0, 255],图像中仍然存在大量蓝绿色光亮,为了能够获得最优的期望拉伸范围,因此动态地定义R-G-B每个通道最小期望拉伸值 $O_{\lambda {\rm{min}}}$ 和最大期望拉伸值 $O_{\lambda {\rm{max}}}$

首先,计算瑞利分布的标准偏差 $σ_{\lambda }$ ,表达式为

$ {\sigma _\lambda } = \sqrt {\frac{{4 - {\rm{ \mathsf{ π} }}}}{2}} {a_\lambda } = 0.655{a_\lambda } $ (10)

式中 $,\lambda ∈\{R, G, B\}$ 表示R-G-B通道, $a$ 为某一个通道的众数。最小期望拉伸值为

$ {O_{\lambda \min }} = {a_\lambda } - {\beta _\lambda } \times {\sigma _\lambda },0 \le {O_{\lambda \min }} \le {I_{\lambda \min }} $ (11)

式中, $β_{\lambda }$ 能够通过式(10)(11)可以计算获得。

$ \frac{{{a_\lambda } - {I_{\min }}}}{{{\sigma _\lambda }}} \le {\beta _\lambda } \le \frac{{{a_\lambda }}}{{{\sigma _\lambda }}} $ (12)

式(12)的右边,假设 $ {a_\lambda } \ge {I_{\min }}$ , 可以确定 $0≤β_{\lambda }$ 。将式(10)代入式(12)的右边,我们可以获得 $ β_{\lambda }≤ 1.526$ 。定义 $β_{\lambda }∈Z$ , 这是 $β_{\lambda }$ 只有一个解 $ β_{\lambda }= 1$ ,所以表达式(11)可以被简化为

$ {O_{\lambda \min }} = {a_\lambda } - {\sigma _\lambda } $ (13)

光线在水中传播表现不同衰减等级,对于求取期望的最大范围,必须单独分析R-G-B三个通道的特性分别计算获得。根据简化的成像模型式(1),清晰的图像 $J_{\lambda }(x)$ 的复原公式为

$ {J_\lambda }\left( x \right) = \frac{{{I_\lambda }\left( x \right) - \left( {1 - {t_\lambda }\left( x \right)} \right){B_\lambda }}}{{\kappa {t_\lambda }\left( x \right)}} $ (14)

式中,通过大量的实验分析表明, $κ=1.25$ $κ=0.85$ 分别表示红色和蓝绿色通道的经验最优值。最大期望拉伸值 $O_{\max}$ 的求取公式为

$ \begin{array}{*{20}{c}} {\max \left( {\left( {{J_\lambda }\left( x \right)} \right)} \right. = }\\ {\max \left( {\frac{{{I_\lambda }\left( x \right) - \left( {1 - {t_\lambda }\left( x \right)} \right){B_\lambda }}}{{\kappa {t_\lambda }\left( x \right)}}} \right)} \end{array} $ (15)

$B_{\lambda }$ =0时, $J_{\lambda }(x)$ 得到最大值。不同通道的最大期望拉伸值 $O_{\max}$ 定义为

$ \begin{array}{*{20}{c}} {{O_{\lambda \max }} = \frac{{{I_\lambda }}}{{\kappa \times {t_\lambda }}} = \frac{{{a_\lambda } + {\mu _\lambda } \times {\sigma _\lambda }}}{{\kappa \times {t_\lambda }}}}\\ {{I_{\lambda \max }} \le {O_{\lambda \max }} \le 255} \end{array} $ (16)

式中, $t_{\lambda }(x)$ 通过式(2)得出,在海洋一级标准中,大约98 %的 $Nrer(\lambda )$ 对于R-G-B通道[14]分别设定为 $0.83, 0.95, 0.97$ $d(x)$ 设定为常数值 $4 \sim 6$ ,表示场景和照相机之间的距离。在各通道直方图分布中, $I_{\lambda }$ 表示众数右边的数值( $I_{\lambda }=a_{\lambda }+μ_{r}×σ_{\lambda }$ )。基于 $O_{\lambda {\rm{max}}}$ 的范围值,系数 $μ_{\lambda }$ 满足

$ \begin{array}{*{20}{c}} {\frac{{\kappa \times {t_\lambda } \times {I_\lambda }}}{{{\sigma _\lambda }}} \le {\mu _\lambda } + 1.526 \le }\\ {\frac{{\kappa \times {t_\lambda } \times 255}}{{{\sigma _\lambda }}}} \end{array} $ (17)

式中, $μ_{\lambda }$ 在整数域中可能没有解。当 $μ_{\lambda }$ 存在多解时,我们选定所有解的平均值。当 $μ_{\lambda }$ 无解时,简单地设定 $O_{\lambda {\rm{max}}}$ 为255。

2.2.3 自适应直方图拉伸

上述2.2.1节和2.2.2节具体介绍了直方图拉伸前范围和拉伸后期望范围,接下来具体介绍4种拉伸方式。

1) 当 $β_λ$ 无解且 $μ_λ$ 无解时,使用全局直方图拉伸公式(4),选取输入图像中整个直方图 0.5 %到99.5 %的像素点作为拉伸范围,期望拉伸范围为[0, 255]。

2) 当 $β_λ$ 有解但 $μ_λ$ 无解时,按照两部分拉伸:

(1) 整幅图像前0.5 %的像素点像素值

$ {p_{{\rm{out}}}} = \left( {{p_{{\rm{in}}}} - {{I'}_{\min }}} \right)\left( {\frac{{{O_{\min }}}}{{{{I'}_{\min }}}}} \right) + {{I'}_{\min }} $ (18)

式中, $p_{\rm{in}}$ $p_{\rm{out}}$ 分别代表了输入和输出像素值, $I' _{\min}$ 是整个像素集的最小值, $O_{\min}$ 为期望拉伸最小值。

(2) 整幅图像后99.5 %的像素采用拉伸式(4),期望拉伸范围为[ $O_{\min}$ , 255]。

$ {p_{{\rm{out}}}} = \left( {{p_{{\rm{in}}}} - {I_{\min }}} \right)\left( {\frac{{{O_{\max }} - {O_{\min }}}}{{{I_{\max }} - {I_{\min }}}}} \right) + {O_{\min }} $ (19)

式中, $I_{\min}$ 是式(9)中代表的像素值, $O_{\max}$ 为255。

3) 当 $β_λ$ 无解但 $μ_λ$ 有解时,步骤和上述情况相似。

4) 当 $β_λ$ 有解且 $μ_λ$ 有解时, $β_λ=1$ 是确定值,一旦出现 $μ_λ$ 有多个值,选取其平均值作为最终参数。因此可以依次得出最小像素值 $O_{\min}$ 和最大像素值 $O_{\max}$ 。其中 $O_{\lambda {\rm{min}}}=a_λ-σ_λ$ $I_λ=a_λ+μ_λ×σ_λ$ 。最后采用三段式拉伸,如图 2中在RGB颜色模型中的自适应直方图拉伸部分所示:

图 2 红色通道的拉伸示意图
Fig. 2 The flowchart of stretching processing in red channel

(1) 整幅图像前0.5 %像素集的拉伸公式为

$ {p_{{\rm{out}}}} = \left( {{p_{{\rm{in}}}} - {I_{\min }}} \right)\left( {\frac{{{O_{\min }}}}{{{I_{\min }}}}} \right) + {I_{\min }} $ (20)

式中, $I_{\min}$ 为输入图像拉伸最小值。

(2) 输入图像中整个直方图的0.5 %到99.5 %像素集的直方图滑动拉伸公式

$ {p_{{\rm{out}}}} = \left( {{p_{{\rm{in}}}} - {I_{\min }}} \right)\left( {\frac{{{O_{\max }} - {O_{\min }}}}{{{I_{\max }} - {I_{\min }}}}} \right) + {O_{\min }} $ (21)

式中, $(I_{\min}, I_{\max}$ )代表原图像拉伸区间,( $O_{\min}, O_{\max}$ )代表获取期望的拉伸区间。

(3) 整幅图像后0.5 %像素集的拉伸公式

$ {p_{{\rm{out}}}} = \left( {{p_{{\rm{in}}}} - {I_{\max }}} \right)\left( {\frac{{{O_{\max }}}}{{{I_{\max }}}}} \right) + {I_{\max }} $ (22)

式中, $I_{\max}$ 是原图像拉伸最大值, $O_{\max}$ 是期望拉伸最大值。

2.3 在CIE-Lab颜色模型中的自适应拉伸

对比度增强后的图像将在CIE-Lab颜色模型进行颜色纠正,L分量表示图像亮度(L=100时图像最亮,L=0时图像最暗),当a=0,b=0时,颜色通道将呈现中性灰度值。因此,a和b颜色分量的渐变梯度可以通过调整得到正确的纠正色,然而L亮度分量用来调整图像的整体亮度。首先将L分量归一化处理,通过分析L分量的直方图分布特性,采用拉伸公式

$ {F_s}\left( V \right) = \frac{{V - \min \left( V \right)}}{{\max \left( V \right) - \min \left( V \right)}} $ (23)

式中, $V$ 表示L分量归一化向量,选取0.1 %到99.9 %的拉伸范围。

实验中,a和b分量的范围为[0, 255],其中128是中间值,首先对色彩两个分量进行归一化处理,a和b分量采用方程式(24)进行自适应调整。

$ {p_\chi } = \frac{{{I_\chi }}}{{\varphi \left| {{I_\chi } - 0.5} \right|}},\;\;\;\chi \in \left\{ {{\rm{a}},{\rm{b}}} \right\} $ (24)

式中, $I_{χ}$ $p_{χ}$ 分别表示输入和输出值, $χ∈{\rm{\{ a, b\} }}$ 表示‘a’和‘b’颜色分量。文中, $φ$ 是最优的实验结果值,确定为1.5~2.0。式(24)使用一个指数函数作为一个重分布系数,并且 $I_{χ}$ 越接近于0.5,幅度越小。在RGB颜色模型经过自适应直方图拉伸后的增强图像仍然存在蓝绿色偏差问题,根据颜色偏差的程度使用指数型曲线函数调整图像色彩。

经过在RGB颜色模型中自适应直方图拉伸和在CIE-Lab颜色模型中线性和非线性调整后,最终可以得到高对比度、平衡化、饱和化的清晰图像。图 2是红色通道的拉伸过程示意图,其中直方图横坐标的范围是[0, 255],直方图纵坐标表示像素值的分布概率。

3 实验及结果分析

为了证明本文方法的有效性,首先建立水下图像数据集,数据集的获取主要通过截取Youtube网站发布的水下视频和许多参考文献中作为比较数据的水下图像[14-16, 24-25]。为了保证评价体系的公正,所有图像的大小均无损地预处理为600×400像素,实验平台均采用Window7,Python3.6.3语言编程环境,Intel 3.6 GHz CPU时钟频率,内存为8.0 GB。接下来,为了验证本文方法在对比度、饱和度均衡化、亮度增强等方面的性能,从定性和定量两方面将本文方法与传统的非物理水下增强方法、水下图像复原方法做出比较。Iqbal等人分别在2007年和2010年提出的ICM[5]和UCM[6]方法,都是简单有效的非物理模型,在直方图调整方面与本文方法存在相似性。因此将ICM和UCM作为比较对象,进一步说明本文方法的健壮性和鲁棒性。此外,本文方法和纯粹基于物理模型的水下图像复原方法,包括被广泛应用于水下图像复原的DCP[10, 13]和改进后的UDCP[15]进行比较分析。

虽然基于ICM和UCM方法提高图像的对比度和饱和度,但是整幅图像出现过饱和现象、蓝绿色偏差仍然存在,同时引入明显的噪声。直接采用DCP方法产生的结果并没有提高图像的质量甚至降低整体效果,其效果总体较ICM和UCM差。基于UDCP的水下图像增强方法在估计背景光时直接选取暗通道先验中最亮的点作为背景光,在复原特殊水域的图像时也会失败(例如图像中存在人造光区域、暗淡区域或者前景比背景亮)。本文方法增强后的水下图像可以获得更好的对比度和平衡的饱和度,并且使得前景目标明显地与背景区分离。

3.1 定性分析

郭继昌教授[26]邀请5位具有图像处理相关研究背景的观察者从主观视觉角度给目前主流的增强和复原结果依次打分。本文也采取和郭教授相似的方法,邀请十名本学院计算机视觉方向的老师和硕士生为30张鱼类、水藻、珊瑚3种图像依次打分(图 3图 4中显示一些被评价图像的示例),最后算出平均值。分数从0.1~1以0.1为步长分为10个等级,分数越高代表该幅图片越符合人类视觉感知。主观质量评估结果如表 1所示。

图 3 直方图分布结果
Fig. 3 The results of the histogram distribution ((a) original image; (b) DCP; (c) Yang; (d) Drews; (e) UCM; (f) ours; enhanced images on the top and their corresponding gray-level histogram distributions on the bottom)
图 4 定性分析(图片放大获得最好的视觉效果)
Fig. 4 Quantitative assessment (best view on high-resolution display with zoom-in)
((a) original images; (b) DCP; (c) Yang; (d) Drews; (e) UCM; (f) ours)

表 1 水下图像复原或增强的平均主观质量分数
Table 1 Average subjective quality scores for the results of underwater images restoration and enhancement

下载CSV
方法 得分
DCP 0.23
Yang’s 0.27
Drews’ 0.45
UCM 0.63
本文 0.76

图 3给出了本文方法与其他4种方法的输出结果所对应的直方图分布。图 3的第2行中,原始图像和增强图像直方图$ x $轴的范围从0 255,图 3(a)(b)的灰度直方图分布比较集中,这也说明彩色图像表现出对比度低、可见度差的原因。图 3(c)(d) 的灰度直方图存在有些分量过多的现象,恰恰解释图 3(c)图偏亮而图 3(d)图偏暗。ICM和UCM方法增强后输出结果大致相同,考虑到论文空间有限,因此我们选用输出结果较好的UCM作为比较对象。图 3(e)(f)的灰度直方图明显地分布在整个范围,基于灰度世界假设的预处理,本文提出的自适应直方图分布得出的结果在直方图分布上更合理。

图 4对比了不同类型的水下图像经过多种水下图像增强、复原方法后的处理结果。在本文提及的增强和复原方法中,明显地可以看出本文方法比其他方法的结果更自然、清晰。由于直方图拉伸前后的范围影响增强后图像的可见度,通过分析输入图像的R-G-B三通道的直方图分布特性、考虑水下图像的成像特性和不同波长的光线在水中传播时的选择性衰减和Ghani等人[8]提出高质量的水下图像多呈现瑞利分布,因此我们提出符合水下图像增强的自适应直方图拉伸方法。图 4(f)中没有产生过增强或者欠增强的区域,更不会出现颜色衰减的现象。

图 4前两行图像中,由于原始图像的蓝绿色分量偏多,直接采用DCP的输出结果和输入结果几乎没有变化,证明了何凯明[10]提出的DCP只适用于户外图像去雾,因此直接使用DCP在水下图像的复原不能增强水下图像还会降低输入图像可视度。Yang等人[13]直接将DCP的结论用在水下图像复原上,在图像复原后采用颜色对比度增强方法,由于忽略复原图像中红色分量太少、蓝绿色分量偏多,增强后图像表现出偏红色。UDCP[15]可以避免少量红色通道信息的影响,不但去除蓝绿色偏差而且提高红色分量的亮度,最后可以获得相对清晰的水下图像。在最后三行图片中,基于DCP或者UDCP的水下图像复原方法都不能平衡水下图像的颜色、提高水下图像的对比度,甚至降低原有图像的可视度。水下图像的复原方法存在一些实际问题,例如水下图像成像模型和先验知识的可靠性、水下成像数学模型的复杂性以及人工估算时的误差。以上任何环节存在错误都会带来失败的复原结果,所以基于物理模型的水下图像复原方法在复原不同环境、不同色调和不同目标的水下图像时存在明显的局限性。

UCM方法在两种不同的颜色模型均衡化,有效地增强了水下图像的可视度和对比度。在前4张增强图片中,可以发现图片中存在大量的过饱和、欠饱和、过增强和欠增强的区域,部分图片仍然存在蓝绿色偏差。在最后两张图片中,UCM放大噪声并引入伪影,降低整张图片的可视度和对比度。图 5放大显示图 4(e)最后两行照片中的噪点。

图 5 局部噪点
Fig. 5 Local noise

3.2 定量分析

从人为主观视觉角度分析发现本文结果在各项指标都获得最好的增强效果。依据其他研究人员提出的水下图像评价体系,将合理地使用多个定量分析指标用以支持上述主观结论,包括信息熵(ENTROPY)、水下彩色图像质量评价(UCIQE)[27]、高动态范围的视觉差异预测-High-Dynamic Range Vis-ual Difference Predictor2(Q-MOS)[28]、均方误差(MSE)和峰值信噪比(PSNR)。表 2中的数据是300张水下图片经过不同的水下图像增强后各指标的平均值[29]。本文结果在各项定量指标中都是最好的。

表 2 不同算法结果定量分析
Table 2 Quantitative analysis in terms of ENTROPY, UCIQE, Q-MOS, MSE and PSNR

下载CSV
方法 ENTROPY UCIQE Q-MOS MSE PSNR
DCP 6.238 0.367 51.591 2 926.559 13.467
Yang’s 6.325 0.412 55.677 3 978.658 12.133
Drews’ 6.679 0.435 49.276 3 248.649 13.014
ICM 7.134 0.496 42.425 1 548.364 16.232
UCM 7.235 0.513 38.956 1 468.251 16.463
本文 7.631 0.628 35.782 1 031.281 17.997
注:加粗的数字表示在对应评价指标中的最好结果。

图像拥有更高的熵就代表图像保留了更多的细节、包含更多的信息。基于物理模型的方法虽然可以在局部复原一些水下图像但没有保持颜色平衡甚至是颜色失真,因此复原图片具有较低的熵值。ICM和UCM的结果显然比物理模型要优越,但是盲目的全局直方图拉伸丢失了图像中部分细节降低图像的信息量,本文方法在提高图像对比度的同时还考虑保存图像局部信息。UCIQE是目前针对水下彩色图像质量评价的非参考模型,代表一个水下图像的色度(Chroma)、饱和度(Saturation)和对比度(Contrast)综合指标。最高的UCIQE值反映本文增强方法很好地平衡色度、饱和度和对比度,获得最好的视觉效果。本文对比度增强方法(自适应直方图拉伸)比ICM和UCM中对比度增强方法更符合水下图像的分布特性;在CIE-Lab颜色模型中建立线性和曲线拉伸模型,在不损失图像信息的前提下,有效地提高图像的亮度和色彩度。

高动态范围的视觉差异预测(该模型的在线测试网站http://driiqm.mpi-inf.mpg.de/)使用先进的人类感知模型预测人为产品的可见性和图片的整体质量,包括Q-MOS评价指标(表示图像质量,得分越高、质量越低)。MSE和PSNR通常被用来评价图像噪声。以上3个评价指标都是全参考模型,由于没有无损的水下图像,因此以原始水下图像作为参考图像。尽管如此,由于选择的参考标准一致,并不影响在多个方法结果之间的对比。表 2显示本文方法获得最佳感知质量(最低的Q-MOS值)和最少噪声(最低的MSE和最高的PSNR)。UCM在增强图像对比度的同时还引入大量明显的噪声(见图 4(e)),从而降低了PSNR值和提高了Q-MOS值。以上结果显示本文方法能够产生高质量的水下图像,比目前大多数水下图像增强和复原方法要先进。

定性和定量分析实验结果证明本文方法适用于复杂环境下的水下图像增强、有效地增强可视性和获得更高的信息。相比于本文提出的水下图像增强、复原方法,本文方法有着更好的实时性和鲁棒性。

4 结论

本文方法主要从对比度增强和颜色纠正两方面自适应提高水下图像的视觉效果、保存图像有用信息和减少噪声的引入。与目前水下图像增强方法相比,本文方法改进ICM中盲目直方图拉伸,考虑图像原有性质、图像成像模型和最优水下图像的直方图分布特性最终获得清晰的水下图像。基于物理模型的水下图像复原方法计算复杂度高、适用范围低,因此基于物理模型的方法需要提高方法的时效性。定性分析和定量分析表明本文方法可以有效地增强图片的可见性、提高图片细节和降低噪声和伪影的引入。

尽管本文方法可以获得很好的效果,但是仍然存在一些局限性。第一,没有将人造光源考虑在图像增强方法中,可能会在人造光源区域产生过增强和过饱和现象。第二,本文方法的对比度增强和颜色纠正算法虽然可以保留大量细节、平衡颜色,如果整体图像过于暗淡,本文提出的增强方法不能有效地复原图像、提高图像亮度。第三,在RGB颜色模型中,只考虑场景到相机的距离却忽略光线从水平面到目标对象的距离,但是忽略的部分对水下图像成像模型的完整性起到重要的作用。在未来的研究中,将解决以上提出的问题。此外,还将建立大量的高质量和模糊的水下图像数据集,提出简单有效的水下图像复原增强模型。

参考文献

  • [1] Kocak D M, Dalgleish F R, Caimi F M, et al. A focus on recent developments and trends in underwater imaging[J]. Marine Technology Society Journal, 2008, 42(1): 52–67. [DOI:10.4031/002533208786861209]
  • [2] Mazel C H. In situ measurement of reflectance and fluorescence spectra to support hyperspectral remote sensing and marine biology research[C]//Proceedings of Oceans 2006. Boston, MA, USA: IEEE, 2006: 1-4. [DOI: 10.1109/OCEANS.2006.307001]
  • [3] Ghani A S A, Isa N A M. Underwater image quality enhancement through Rayleigh-stretching and averaging image planes[J]. International Journal of Naval Architecture and Ocean Engineering, 2014, 6(4): 840–866. [DOI:10.2478/IJNAOE-2013-0217]
  • [4] Zhao X W, Jin T, Qu S. Deriving inherent optical properties from background color and underwater image enhancement[J]. Ocean Engineering, 2015, 94: 163–172. [DOI:10.1016/j.oceaneng.2014.11.036]
  • [5] Iqbal K, Salam R A, Osman A, et al. Underwater image enhancement using an integrated colour model[J]. IAENG International Journal of Computer Science, 2007, 34(2): 239–244.
  • [6] Iqbal K, Odetayo M, James A, et al. Enhancing the low quality images using unsupervised colour correction method[C]//Proceedings of 2010 IEEE International Conference on Systems Man and Cybernetics. Istanbul, Turkey: IEEE, 2010: 1703-1709. [DOI: 10.1109/ICSMC.2010.5642311]
  • [7] Ancuti C, Ancuti C O, Haber T, et al. Enhancing underwater images and videos by fusion[C]//Proceedings of 2012 IEEE conference on Computer Vision and Pattern Recognition. Providence, RI, USA: IEEE, 2012: 81-88. [DOI: 10.1109/CVPR.2012.6247661]
  • [8] Ghani A S A, Isa N A M. Underwater image quality enhancement through composition of dual-intensity images and Rayleigh-stretching[J]. SpringerPlus, 2014, 3: #757. [DOI:10.1186/2193-1801-3-757]
  • [9] Ghani A S A, Isa N A M. Underwater image quality enhancement through integrated color model with Rayleigh distribution[J]. Applied Soft Computing, 2015, 27: 219–230. [DOI:10.1016/j.asoc.2014.11.020]
  • [10] He K M, Sun J, Tang X O. Single image haze removal using dark channel prior[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(12): 2341–2353. [DOI:10.1109/TPAMI.2010.168]
  • [11] Chao L, Wang M. Removal of water scattering[C]//Proceedings of the 2nd International Conference on Computer Engineering and Technology. Chengdu, China: 2010, 2: V2-35-V2-39. [DOI: 10.1109/ICCET.2010.5485339]
  • [12] Carlevaris-Bianco N, Mohan A, Eustice R M. Initial results in underwater single image dehazing[C]//Proceedings of 2010 IEEE Conference on Oceans. Seattle, WA, USA: IEEE, 2010: 1-8. [DOI: 10.1109/OCEANS.2010.5664428]
  • [13] Yang H Y, Chen P Y, Huang C C, et al. Low complexity underwater image enhancement based on dark channel prior[C]//Proceedings of the 2nd International Conference on Innovations in Bio-Inspired Computing and Applications. Shenzhan, China: IEEE, 2011: 17-20. [DOI: 10.1109/IBICA.2011.9]
  • [14] Chiang J Y, Chen Y C. Underwater image enhancement by wavelength compensation and dehazing[J]. IEEE Transactions on Image Processing, 2012, 21(4): 1756–1769. [DOI:10.1109/TIP.2011.2179666]
  • [15] Drews P, Do Nascimento E, Moraes F, et al. Transmission estimation in underwater single images[C]//Proceedings of 2013 IEEE International Conference on Computer Vision Workshops. Sydney, NSW, Australia: IEEE, 2013: 825-830. [DOI: 10.1109/ICCVW.2013.113]
  • [16] Wen H C, Tian Y H, Huang T J, et al. Single underwater image enhancement with a new optical model[C]//2013 IEEE International Symposium on Circuits and Systems. Beijing, China: IEEE, 2013: 753-756. [DOI: 10.1109/ISCAS.2013.6571956]
  • [17] Galdran A, Pardo D, Picón A, et al. Automatic Red-Channel underwater image restoration[J]. Journal of Visual Communication and Image Representation, 2015, 26: 132–145. [DOI:10.1016/j.jvcir.2014.11.006]
  • [18] Peng Y T, Zhao X, Cosman P C. Single underwater image enhancement using depth estimation based on blurriness[C]//Proceedings of 2015 IEEE International Conference on Image Processing. Quebec City, QC, Canada: IEEE, 2015: 4952-4956. [DOI: 10.1109/ICIP.2015.7351749]
  • [19] Li C Y, Quo J C, Pang Y W, et al. Single underwater image restoration by blue-green channels dehazing and red channel correction[C]//Proceedings of 2016 IEEE International Conference on Acoustics, Speech and Signal Processing. Shanghai, China: IEEE, 2016: 1731-1735. [DOI: 10.1109/ICASSP.2016.7471973]
  • [20] McGlamery B L. A computer model for underwater camera systems[C]//Proceedings of SPIE Volume 0208, Ocean Optics Ⅵ. Monterey, United States: SPIE, 1980: 221-231. [DOI: 10.1117/12.958279]
  • [21] Jaffe J S. Computer modeling and the design of optimal underwater imaging systems[J]. IEEE Journal of Oceanic Engineering, 1990, 15(2): 101–111. [DOI:10.1109/48.50695]
  • [22] Narasimhan S G, Nayar S K. Vision and the atmosphere[J]. International Journal of Computer Vision, 2002, 48(3): 233–254. [DOI:10.1023/A:1016328200723]
  • [23] He K M, Sun J, Tang X O. Guided image filtering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(6): 1397–1409. [DOI:10.1109/TPAMI.2012.213]
  • [24] Ancuti C O, Ancuti C, De Vleeschouwer C, et al. Color balance and fusion for underwater image enhancement[J]. IEEE Transactions on Image Processing, 2018, 27(1): 379–393. [DOI:10.1109/TIP.2017.2759252]
  • [25] Peng Y T, Cosman P C. Underwater image restoration based on image blurriness and light absorption[J]. IEEE Transactions on Image Processing, 2017, 26(4): 1579–1594. [DOI:10.1109/TIP.2017.2663846]
  • [26] Guo J C, Li C Y, Guo C L, et al. Research progress of underwater image enhancement and restoration methods[J]. Journal of Image and Graphics, 2017, 22(3): 273–287. [郭继昌, 李重仪, 郭春乐, 等. 水下图像增强和复原方法研究进展[J]. 中国图象图形学报, 2017, 22(3): 273–287. ] [DOI:10.11834/jig.20170301]
  • [27] Yang M, Sowmya A. An underwater color image quality evaluation metric[J]. IEEE Transactions on Image Processing, 2015, 24(12): 6062–6071. [DOI:10.1109/TIP.2015.2491020]
  • [28] Mantiuk R, Kim K J, Rempel A G, et al. HDR-VDP-2:a calibrated visual metric for visibility and quality predictions in all luminance conditions[J]. ACM Transactions on Graphics, 2011, 30(4): #40. [DOI:10.1145/2010324.1964935]
  • [29] Guo J C, Li C Y, Zhang Y, et al. Quality assessment method for underwater images[J]. Journal of Image and Graphics, 2017, 22(1): 1–8. [郭继昌, 李重仪, 张艳, 等. 面向水下图像的质量评价方法[J]. 中国图象图形学报, 2017, 22(1): 1–8. ] [DOI:10.11834/jig.20170101]