|
发布时间: 2020-09-16 |
图像分析和识别 |
|
|
收稿日期: 2019-11-22; 修回日期: 2020-03-20; 预印本日期: 2020-03-27
基金项目: 国家自然科学基金项目(61961038)
第一作者简介:
李明旭, 1997年生, 男, 硕士研究生, 主要研究方向为显著性检测。E-mail:Li.Mingxu@my.swjtu.edu.cn.
中图法分类号: TP391.41
文献标识码: A
文章编号: 1006-8961(2020)09-1837-11
|
摘要
目的 显著性检测领域的研究重点和难点是检测具有复杂结构信息的显著物体。传统的基于图像块的检测算法,主要根据相对规则的图像块进行检测,计算过程中不能充分利用图像不规则的结构和纹理的信息,对算法精度产生影响。针对上述问题,本文提出一种基于不规则像素簇的显著性检测算法。方法 根据像素点的颜色信息量化颜色空间,同时寻找图像的颜色中心,将每个像素的颜色替代为最近的颜色中心的颜色。然后根据相同颜色标签的连通域形成不规则像素簇,并以连通域的中心为该簇的位置中心,以该连通域对应颜色中心的颜色为该簇整体的颜色。通过像素簇的全局对比度得到对比度先验图,利用目标粗定位法估计显著目标的中心,计算图像的中心先验图。然后将对比度先验图与中心先验图结合得到初始显著图。为了使显著图更加均匀地突出显著目标,利用图模型及形态学变化改善初始显著图效果。结果 将本文算法与5种公认表现最好的算法进行对比,并通过5组图像进行验证,采用客观评价指标精确率—召回率(precision-recall,PR)曲线以及精确率和召回率的调和平均数F-measure进行评价,结果表明本文算法在PR曲线上较其他算法表现良好,在F-measure方面相比其他5种算法均有00.3的提升,且有更佳的视觉效果。结论 本文通过更合理地对像素簇进行划分,并对目标物体进行粗定位,更好地考虑了图像的结构和纹理特征,在显著性检测中有较好的检测效果,普适性强。
关键词
显著性检测; 不规则块; 颜色空间量化; 全局对比度; 中心先验
Abstract
Objective Saliency detection is a technique that uses algorithms to simulate human visual characteristics. It aims to identify the most conspicuous objects or regions in an image and is used as a first step in image analysis and synthesis, allowing priority to be given to the allocation of computational resources in subsequent processing. The technique has been widely used in several visual applications, such as image segmentation of regions of interest, object recognition, image adaptive compression, and image retrieval. In most traditional methods, the basic unit of saliency detection is formed by image oversegmentation on the basis of regular regions, which are usually improved on n×n square blocks. Final saliency maps consist of these regions with their saliency scores, which result in the boundary block effect of the final saliency map. The performance of these models relies on whether the segmentation results fit the boundary of the salient object and the accuracy of feature extraction. By using this method, an improved effect can be obtained on the salient target with relatively regular structure and texture. However, in the real world, significant objects and backgrounds are often characterized by complex textures and irregular structure. These approaches cannot produce satisfactory results when images have complex textures, which yield low accuracy. To deal with the limitations of the past algorithms, we propose an algorithm for salient object detection based on irregular superpixels. This algorithm can consider the information of the structure and color features of the object and is closer to the object boundary to a certain extent, thus increasing the precision and recall rate. Method In the algorithm, the images to be inputted are first preprocessed by bilateral filtering and mean-shift in to reduce the scattered dots in the picture. Then in the RGB(red-green-blue) color space, the K-means algorithm is used to quantize the color of the image, and the color values of the cluster center and the cluster center are obtained and saved, in order to speed up the subsequent calculations. Then, according to the connected domain of the same color label, irregular pixel clusters are formed, in the meantime, set the center of the connected domain to the center of the location of the cluster, set the color corresponding to the color label of the connected domain to the color of the cluster. Next, for the contrast prior, the saliency scores of the image pixel cluster is determined by the color statistic information of the input image. In particular, the saliency scores of a pixel cluster is defined by its color contrast with all other pixel clusters in the image, the size of the pixel cluster and the probability of the corresponding color appearing in the picture. For the central prior graph, the center of the significant target is first estimated by the target coarse positioning method. Then, on the basis of the distance between clusters and the center, the saliency scores of each pixel cluster can be calculated; thus, the central prior graph can be formed. The contrast prior graph is then combined with the central prior graph to obtain an initial saliency map. Lastly, to make the salient map highlight the significant target prominently, a graph model and morphological changes are introduced in saliency detection due to their outstanding performance in image segmentation tasks. In this manner, the final saliency map is obtained. Result To test the recognition effect of the proposed algorithm, we compare our model with five excellent saliency models on two public datasets, namely, DUT-OMRON(Dalian University of Technology and OMRON Corporation) and Microsoft Research Asia(MSRA) salient object database. The quantitative evaluation metrics contain F-measure and precision-recall(PR) curves. We provide several saliency maps of each method for comparison. Experiment results show that the algorithm proposed in this study has a greater performance improvement compared with the previous algorithms; it also has a better visual effect in the MSRA and DUT-OMRON datasets. The saliency maps show that our model can produce refined results. Compared with the detection results in frequency-tuned salient region detection(FT), luminance contrast(LC), histogram based contrast(HC), region based contrast(RC), and minimum barrier salient object detection(MB) in MSRA, the F-measure (higher is better) increases by 47.37%, 61.29%, 31.05%, 2.73%, and 5.54%, respectively. Compared with DUT-OMRON, the F-measure increases by 75.40%, 92.10%, 63.50%, 8.83%, and 16.34%, respectively. Comparative experiments demonstrate that the fusion algorithm improves saliency detection. In addition, a series of comparative experiments in MSRA are conducted to show the preponderance of our algorithm. Conclusion In this study, a saliency recognition algorithm based on irregular pixel blocks is proposed. The algorithm is divided into three parts: irregular pixel blocks, which are constructed by using the color information of images; initial saliency graph, which is obtained by fusing contrast prior and center prior; The final saliency map is obtained by improving the initial saliency map using a graph model. Experimental results show that our model improves recognition performance and outperforms several best performing saliency approaches.
Key words
significance detection; irregular block; color space quantization; global contrast; center prior
0 引言
显著目标检测,是一种通过算法模拟人的视觉特点,从图中得到显著物体区域的技术。作为图像分析与合成的先行步骤,它允许在随后的处理中优先分配计算资源,该技术在很多领域,如对感兴趣区域的图像分割(Itti等,1998;Harel等,2006)、对象识别(Zhang等,2008)、图像的自适应压缩(Judd等,2010)和图像检索(Cheng等,2011)中得到了广泛的应用。目前的显著性检测算法大致可以分为两类:眼动点预测模型和显著目标检测模型。
Itti等人(1998)提出了一种可行的眼动点预测方法,通过构建图像的颜色、亮度和方向的高斯金字塔,计算图像亮度、颜色和方向的特征图,然后通过高斯金字塔得到多个特征显著图。最后,将各个显著图经过归一化和相加,得到最终的显著图。眼动预测模型实质上是为了预测出图像中引起人眼注意的区域,典型的方法还有GBVS(graph-based visual saliency)显著性检测算法(Harel等,2006)、利用自然统计的显著性贝叶斯检测框架SUN (Bayesian framework for saliency using natural statistics) (Zhang等,2008)以及Judd等人(2010)提出的方法。
另一类显著性检测方法是目标检测模型,其原理类似图像分割,主要思想是根据颜色、纹理等特征,提取出图像中显著的区域。Cheng等人(2011)通过全局对比度方法计算图像过分割后颜色、距离空间的加权,最后得到每个区域的显著性。Zhang等人(2015)使用FastMBD(fast minimum barrier distance)算法测量像素和图像边界的连通性, 规避了区域抽象方法,大幅提高了最终显著性图的计算速度。Goferman等人(2012)同时结合了图像的高层理解信息、图像组织结构,以及全局稀有度、局部对比度线索,来对图像的显著度进行建模。Yang等人(2013)利用简单线性迭代聚类(simple linear iterative clustering, SLIC)算法对图像进行过分割,再对处理后的图像计算中心先验图和对比度先验图,最后通过先验融合,得到最终的显著图。
目前很多显著性识别技术都采用规则图像块对图像进行显著性计算,这样并不能充分反映图像块结构信息与颜色信息的不规则性,从而影响显著性检测的结果。针对上述问题,本文提出了一种不规则图像块的显著性检测算法,如图 1所示,利用像素点颜色信息对像素进行聚类,划分区域块,然后利用不规则的像素簇,分别计算每个簇的空间显著性和对比度显著性,得到中心先验图和对比度先验图,最后通过先验融合得到最终的显著图。为了评估本文方法,在2个公开的数据集进行了测试,与5种公认表现最好的算法进行对比,本文方法性能均有所提升。
1 划分不规则像素簇
对图像进行过分割是指根据图像的一定特征,将其分割为能够代表其周围像素的图像块,并以此作为后续图像处理的单元(Liu等,2019;Wang等,2016)。过分割后得到的图像块,比像素具有更少的数量,大大降低了后续操作的时间,因此在计算机视觉任务中得到广泛的应用, 如图 2所示, 本文算法也将像素簇作为基本处理单元。
传统的基于块的显著目标检测方法中,分割所得到的簇都是相对规则的,通常是在
1.1 颜色空间量化
若对图像中每一个像素的颜色全局对比度进行计算,算法的时间复杂度将会非常高,而显著性识别作为大量图像处理算法的预处理部分,应具有快速的特点,本文采用减少图像中颜色数目的方法来降低算法时间复杂度。在真实世界中,彩色空间包含2563种可能的颜色,这通常大于图像像素的数量。Zhai和Shah(2006)通过只使用亮度来减少颜色的数量
$ D = \sqrt {{{({r_k} - {r_i})}^2} + {{({g_k} - {g_i})}^2} + {{({b_k} - {b_i})}^2}} $ | (1) |
式中,
输入:图像
1) 随机在RGB颜色空间中选取
2) 按照每个像素点到中心的距离,划分像素簇;
3) 重新计算颜色中心;
4) 若达到对应精度,或达到迭代次数,则停止,否则返回步骤1)。
由于K-means初始颜色中心的选择具有随机性,因此无法保证收敛达到全局最优,并且聚类的结果对初始聚类中心敏感,因此本文根据K-means++算法的思想选取初始值,运行多次,以误差平方和(sum of the squared error, SSE)作为聚类误差的判断准则,选取其中误差最小的结果作为最终结果,公式为
$ E = \sum\limits_{i = 1}^k {\sum\limits_{x \in {c_i}} D } {({c_i},x)^2} $ | (2) |
式中,
1.2 构造不规则簇
在经过颜色空间量化后,原图像被量化为
输入:颜色中心
1) 遍历每一个
2) 找到二值图像中的连通域,并求得该连通域的重心作为连通域的中心。
3) 遍历当前颜色中心的所有连通域,并初始化该簇的位置、颜色信息及像素点集合。
4) 返回像素簇的队列。
2 计算不规则像素簇的显著值
2.1 对比度先验
目前的显著性检测算法,大多都直接或者间接采用了对比度计算方法,本文利用输入图像的颜色统计信息来确定图像像素的显著性值,图 4(b)为对比度先验示例。对于对比度先验, 像素簇的显著性是使用其与图像中所有其他像素簇的颜色对比度来定义的,给定像素簇
$ {\mathit{\boldsymbol{S}}_{{\rm{co}}}}(i) = \sum\limits_{j \ne i} {{\rm{ }}dist{\rm{ }}} ({I_i},{I_j}) \times {P_{j,k}} \times {N_j} $ | (3) |
式中,
$ \begin{align} & \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \Delta {{E}_{00}}= \\ & \sqrt{\begin{matrix} {{\left( \frac{\Delta {{L}^{\prime }}}{{{K}_{L}}\times {{S}_{L}}} \right)}^{2}}+{{\left( \frac{\Delta C_{ab}^{\prime }}{{{K}_{C}}\times {{S}_{C}}} \right)}^{2}}+{{\left( \frac{\Delta H_{ab}^{\prime }}{{{K}_{H}}\times {{S}_{H}}} \right)}^{2}}+ \\ \ \ \ \ \ \ \ {{R}_{T}}\times \left( \frac{\Delta C_{ab}^{\prime }}{{{K}_{C}}\times {{S}_{C}}} \right)\times \frac{\Delta H_{ab}^{\prime }}{{{K}_{H}}\times {{S}_{H}}} \\ \end{matrix}} \\ \end{align} $ | (4) |
式中,
$ \Delta H_{ab}^\prime = 2 \times \sqrt {C_{ab,1}^* \times C_{ab,2}^*} \times {\rm{sin}}\left( {\frac{{\Delta h_{ab}^\prime }}{2}} \right) $ | (5) |
式中,
2.2 中心先验
在现实图像中存在背景区域有高对比度的像素块问题,而基于对比度的计算方法会将这些像素块识别为显著物体,参照图 4(c)。此外,对于带有纹理的显著物体在聚类时,纹理无法和显著物体归为一类。因此,本文引入中心先验,不仅有助于减弱背景区域高对比度的像素块的显著性值,也有助于提升显著物体内,由物体纹理引起的低对比度像素块的显著性值。
目前中心先验往往采用2种方式,一种是传统的中心先验(Goferman等,2012;Jiang等,2011;Zhang等,2016),但在现实世界中,目标物并不仅仅集中于图像中心位置,如摄影中的1/3法则就是将目标物放在图像1/3的位置;另一种是计算图像角点,以所有角点的中心来估计目标物中心,但这样做也存在问题,即图像复杂,角点过多时,往往估计中心会偏移目标物的中心。针对上述问题,本文提出新的中心先验图方法。
考虑到显著目标并非固定存在于图像中的某一区域,本文假设不规则像素簇中存在一种组合,使该组合中的像素恰好组成显著物体,即该组合的中心恰好为显著物体的中心。本文提出一种粗定位方法,首先计算每一个不规则像素簇的边界点,并通过计算所有边界点的质心来估计显著物体的大致位置,即通过计算不规则像素簇的边界点质心,得到新的中心
$ {\mathit{\boldsymbol{S}}_{{\rm{cc}}}}(i) = {\rm{exp}}\left( { - \frac{{{{({x_i} - {x_0})}^2}}}{{2\sigma _x^2}} - \frac{{{{({y_i} - {y_0})}^2}}}{{2\sigma _y^2}}} \right) $ | (6) |
式中,
2.3 先验融合
与特征融合理论框架(袁巧等,2018;Zhang等,2016;李波等,2016)相似,本文将中心先验与对比度先验所得结果融合,以得到初始先验图,方法为
$ {\mathit{\boldsymbol{S}}_{{\rm{ in }}}}(i) = {\mathit{\boldsymbol{S}}_{{\rm{ cc }}}}(i) \circ {\mathit{\boldsymbol{S}}_{{\rm{ co }}}}(i) $ | (7) |
式中,符号“
由图 4(d)可以看出,中心先验与对比度先验融合,可以抑制对比度先验中由于背景区域的高对比度而导致的错误突出的部分;另外,由于在计算过程中,中心先验图被标识为各向同性的高斯模型,因此先验图对显著物体的形态较为敏感,进而导致显著物体的各区域显著性值差距较大。为了更加均匀地突出显著物体,本文引入图模型和形态学变化来改善初始先验图。
2.4 改善初始显著图
在得到初始显著图后,进行了一系列有效操作,以提高显著图
为了在保持重要边界细节的同时平滑
$ \delta = \alpha \sqrt s $ | (8) |
式中,
为了更好地区分前景与背景,使得检测结果更加均匀地突出显著物体,类似于Yang等人(2013)的方法,本文将图模型引入到显著性检测中。先将像素簇表示为一个系数图
$ {w_{i,j}} = {\rm{exp}}( - \left\| {{\mathit{\boldsymbol{c}}_i} - {\mathit{\boldsymbol{c}}_j}} \right\|/2 \times \sigma _w^2) $ | (9) |
式中,
$ {\mathit{\boldsymbol{S}}^*} = {\mathit{\boldsymbol{S}}_{{\rm{ in }}}}{(\mathit{\boldsymbol{I}} + 2\lambda \mathit{\boldsymbol{L}})^{ - 1}} $ | (10) |
式中,
通过以上步骤处理初始显著图有以下优点:首先,形态学变化可以在一定程度上填补由图像中的噪点或者显著物体中由纹理带来的空洞;其次,基于图模型的光滑约束,在保持物体边界的同时,能够降低显著物体中不同像素簇带来的显著值差异,使初始显著图足够光滑;最后,上述步骤可以带来显著的效果提升,而其时间消耗可以忽略不计,其效果如图 4(e)所示。图 5展示了不同的
3 显著性检测流程
根据上文所述,不规则像素簇的显著性识别算法流程如图 6所示,首先将待输入的图像进行预处理,包括双边滤波、均值迁移的去噪处理等,不仅有助于加快算法运行速度,也有助于减弱目标物中的纹理,以及小面积遮挡物对显著物体检测造成的影响。然后在RGB颜色空间内,量化图像颜色,得到图像每一个像素对应的簇心及簇心的颜色值,并在CIELab颜色空间内,计算每个簇心之间的色差,以提高后续计算速度。针对簇的显著性计算,分为中心先验与对比度先验。对于对比度先验。每一个像素簇的显著性值用其颜色的全局对比度来定义,对于中心先验,物体的中心由不规则像素簇的所有边界点的质心确定,而每个像素簇的显著性值由簇的质心与物体中心的距离确定。再将中心先验与对比度先验所得的先验图融合,得到初始先验图。最后通过图模型及形态学变化改善初始显著图,得到最终的显著图。
4 实验结果与分析
本文的实验设置如下:
1) 算法实现。在实验中,本文设置聚类的颜色数目为43,式(6)中
2) 数据集。本文采用MSRA(Microsoft Researth Asia)-B和DUT-OMRON(Dalian University of Technology and OMRON Corporation)数据集进行实验验证。MSRA-B由Liu等人(2007)提出,是在MSRA数据库中随机选择了具有一致边界框标签的5 000幅图像。这些图像具有来自MSRA数据集的10 000幅图像的像素级显著性标记。DUT-OMRON数据库由Yang等人(2013)提出,由5 168幅高质量的图像组成,这些图像是从140 000多幅图像中手工挑选而出。该数据集的图像有一个或多个突出对象和相对复杂的背景。与MSRA以及其他数据集相比,对该数据集的图像进行显著性检测更加困难,具有更大的挑战性。
3) 对比方法。为了检验算法的识别效果,将本文方法与5种公认表现最好算法进行对比,包括RC(region based contrast) (Cheng等,2011)、FT(frequency-tuned salient region detection) (Achanta等,2009)、HC(histogram based contrast) (Cheng等,2011)、LC(luminance contrast) (Zhai和Shah,2006)和MB(minimum barrier salient object detection) (Zhang等,2015)。RC通过稀疏直方图比较来计算区域对比度,FT算法利用颜色特征的中央—周边算子得到显著图,将显著值表示为当前像素的颜色与图像均值之间的距离,HC提出了一种基于直方图的加速方法,通过计算与其他像素的颜色差异来得到像素的显著性值,LC通过计算像素在整个图像上的全局对比度,并将像素与其他所有像素在颜色差之和作为该像素的显著值,MB算法以路径代价函数作为像素点的显著性值。图 7显示了本文算法与对比算法样本显著性图。实验结果表明,本文算法在基于图像块的显著性检测中具有良好的表现。
4.1 利用PR曲线进行评价
类似于Cheng等人(2011)以及Jiang等人(2013)的方法,本文使用精确率—召回率(precision-recall, PR)对识别结果进行对比分析。通过在[0, 255]范围内设定固定阈值的方法生成一组二值图像,并计算每个二值图像的精确率和召回率。在数据集上,通过计算每个阈值下不同图像的精确率和召回率的平均值来计算平均PR曲线。
1) 精确率(precision):正确检测到的显著像素个数除以所有检测到的显著像素个数。
2) 召回率(recall):本文方法在图像中正确检测到的显著像素个数,除以真值图中显著像素个数。
图 8展示了本文方法与其他算法的PR曲线对比。可以看出,本文方法在MSRA和DUT-OMRON上,检测效果优于对比方法。在MSRA数据集中,相比LC、FT和HC算法,本文方法优势明显,相比RC和MB,在召回率较高的区域,RC和MB对应的曲线高于本文算法对应的曲线,这是因为RC和MB算法更好地抑制了背景,但在召回率较小的区域,本文算法与MB算法相比优势明显,因为在抑制背景的同时,MB与RC算法也抑制了显著物体区域。在DUT-OMRON数据集上,本文方法较FT、LC、HC和RC都有显著优势。在召回率较高的区域,MB算法对应的曲线高于本文算法,但在召回率较低区域,本文算法具有较大优势。
4.2 利用F-measure进行评价
由于曲线插值和像素之间独立性的不当假设以及对所有误差的同等重要性分配,这些度量可能无法可靠地评估显著性图的质量。因此,采用加权F-measure度量,通过系数制衡召回率与精确率的比例,从而能够较好地比较显著性检测算法的效果计算为
$ {F_\beta } = \frac{{(1 + {\beta ^2})p \times r}}{{{\beta ^2} \times p + r}} $ | (11) |
式中,
4.3 新的中心先验有效性
为了验证提出的新的中心先验的有效性,本文在MSRA数据库上,对比了3种情况下的PR曲线,3种情况分别是对比度先验、对比度先验与传统中心先验融合以及对比度先验与新的中心先验融合,结果如图 10所示。从图中可知,在召回率较高(阈值较低)和召回率较低(阈值较高)的区域,新的中心先验与传统中心先验对比都有显著优势,这是因为,新的中心先验能更灵活地对目标位置进行粗定位,并达到更好的增强前景、抑制背景的效果。
5 结论
传统的基于图像块分割的显著性识别算法主要采用规则的图像过分割得到超像素进行显著性识别,不能充分利用图像的结构与纹理信息,针对上述问题,本文提出了基于不规则像素块的显著性识别算法。算法分为3部分:1)利用图像颜色信息构建不规则像素块;2)通过对比度先验与中心先验,并经过先验融合得到初始显著图;3)通过图模型改善初始显著图,得到最终显著图。在两个公开数据集上与5种算法进行对比,结果显示,本文算法对比清晰,表现良好;在客观指标上,本文算法的PR曲线、F-measure值均有显著优势。同时,本文算法也表现出一定不足,通过图模型改善初始显著图,需要计算不规则像素簇的相邻簇,这会增加计算时间。在后续的研究中将尝试融合图像更多的特征,包括物体形态、障碍物结构以及边界特征等,以进一步提升检测结果。
参考文献
-
Achanta R, Hemami S, Estrada F and Susstrunk S. 2009. Frequency-tuned salient region detection//Proceedings of 2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami: IEEE: 1597-1604[DOI:10.1109/CVPR.2009.5206596]
-
Achanta R, Shaji A, Smith K, Lucchi A, Fua P, Süsstrunk S. 2012. SLIC superpixels compared to state-of-the-art superpixel methods. IEEE Transactions on Pattern Analysis and Machine Intelligence, 34(11): 2274-2282 [DOI:10.1109/TPAMI.2012.120]
-
Cheng M M, Zhang G X, Mitra N J, Huang X L and Hu S M. 2011. Global contrast based salient region detection//Proceedings of 2011 Computer Vision and Pattern Recognition (CVPR). Providence: IEEE: 409-416[DOI:10.1109/CVPR.2011.5995344]
-
Goferman S, Zelnik-Manor L, Tal A. 2012. Context-aware saliency detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 34(10): 1915-1926 [DOI:10.1109/TPAMI.2011.272]
-
Harel J, Koch C and Perona P. 2006. Graph-based visual saliency//Advances in Neural Information Processing Systems 19: Proceedings of the 2006 Conference. Cambridge: MIT Press: 545-552[DOI:10.7551/mitpress/7503.003.0073]
-
Itti L, Koch C, Niebur E. 1998. A model of saliency-based visual attention for rapid scene analysis. IEEE Transactions on Pattern Analysis and Machine Intelligence, 20(11): 1254-1259 [DOI:10.1109/34.730558]
-
Jiang H, Wang J, Yuan Z, Liu T, Zheng N and Li S. 2011. Automatic salient object segmentation based on context and shape prior//Proceedings of the 22nd British Machine Vision Conference. Dundee: BMVC: 110.1-110.12[DOI:10.5244/C.25.110]
-
Jiang H, Wang J, Yuan Z, Wu Y, Zheng N and Li S. 2013. Salient object detection: a discriminative regional feature integration approach//Proceedings of 2013 IEEE Conference on Computer Vision And Pattern Recognition (CVPR). Portland: IEEE: 2083-2090
-
Judd T, Ehinger K, Durand F and Torralba A. 2010. Learning to predict where humans look//Proceedings of the 12th IEEE International Conference on Computer Vision. Kyoto: IEEE: 2106-2113[DOI:10.1109/ICCV.2009.5459462]
-
Li B, Lu C Y, Jin L B, Leng C C. 2016. Saliency detection based on lazy random walk. Journal of Image and Graphics, 21(9): 1191-1201
-
李波, 卢春园, 金连宝, 冷成财. 2016. 惰性随机游走视觉显著性检测算法. 中国图象图形学报, 21(9): 1191-1201 [DOI:10.11834/jig.20160908]
-
Liu T, Zheng N N, Tang X and Shum H Y. 2007. Learning to detect a salient object//Proceedings of 2007 IEEE Conference on Computer Vision and Pattern Recognition(VPR). Minneapolis: IEEE: 1-8[DOI:10.1109/CVPR.2007.383047]
-
Liu Y, Han J G, Zhang Q, Wang L. 2019. Salient object detection via two-stage graphs. IEEE Transactions on Circuits and Systems for Video Technology, 29(4): 1023-1037 [DOI:10.1109/TCSVT.2018.2823769]
-
Margolin R, Zelnik-Manor L and Tal A. 2014. How to evaluate foreground maps//Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus: IEEE: 248-255[DOI:10.1109/CVPR.2014.39]
-
Wang Q S, Zheng W and Piramuthu R. 2016. GraB: visual Saliency via novel graph model and background priors//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas: IEEE: 535-543[DOI:10.1109/CVPR.2016.64]
-
Yang C, Zhang L H, Lu H C, Ruan X and Yang M H. 2013. Saliency detection via graph-based manifold ranking//Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition. Portland: IEEE: 3166-3173[DOI:10.1109/CVPR.2013.407]
-
Yuan Q, Cheng Y F, Chen X Q. 2018. Saliency detection based on multiple priorities and comprehensive contrast. Journal of Image and Graphics, 23(2): 239-248
-
袁巧, 程艳芬, 陈先桥. 2018. 多先验特征与综合对比度的图像显著性检测. 中国图象图形学报, 23(2): 239-248 [DOI:10.11834/jig.170381]
-
Zhai Y and Shah M. 2006. Visual attention detection in video sequences using spatiotemporal cues//Proceedings of the 14th ACM International Conference on Multimedia. Santa Barbara: ACM: 815-824[DOI:10.1145/1180639.1180824]
-
Zhang J M, Sclaroff S, Lin Z, Shen X H, Price B and Mech R. 2015. Minimum barrier salient object detection at 80 FPS//Proceedings of 2015 IEEE International Conference on Computer Vision (ICCV). Santiago: IEEE: 1404-1412[DOI:10.1109/ICCV.2015.165]
-
Zhang L Y, Tong M H, Marks T K, Shan H H, Cottrell G W. 2008. SUN:a Bayesian framework for saliency using natural statistics. Journal of Vision, 8(7): 32-32 [DOI:10.1167/8.7.32]
-
Zhang Q, Lin J J and Xie Z G. 2016. Structure extraction and region contrast based salient object detection//Proceedings of the 8th International Conference on Digital Image Processing. Chengdu: SPIE, 10033: #100330K[DOI:10.1117/12.2244930]