Print

发布时间: 2022-04-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.200612
2022 | Volume 27 | Number 4




    数据集论文    




  <<上一篇 




  下一篇>> 





MTMS300:面向显著物体检测的多目标多尺度基准数据集
expand article info 李楚为1, 张志龙1, 李树新2
1. 国防科技大学电子科学学院自动目标识别重点实验室,长沙 410073;
2. 国防科技大学信息通信学院,西安 710106

摘要

目的 在显著物体检测算法发展过程中,基准数据集发挥了重要作用。然而,现有基准数据集普遍存在数据集偏差,难以充分体现不同算法的性能,不能完全反映某些典型应用的技术特点。针对这一问题,本文对基准数据集的偏差和统计特性展开定量分析,提出针对特定任务的新基准数据集。方法 首先,讨论设计和评价数据集时常用的度量指标;然后, 定量分析基准数据集的统计学差异,设计新的基准数据集MTMS300(multiple targets and multiple scales);接着,使用基准数据集对典型视觉显著性算法展开性能评估;最后,从公开基准数据集中找出对多数非深度学习算法而言都较为困难(指标得分低)的图像,构成另一个基准数据集DSC(difficult scenes in common)。结果 采用平均注释图、超像素数目等6种度量指标对11个基准数据集进行定量分析,MTMS300数据集具有中心偏差小、目标面积比分布均衡、图像分辨率多样和目标数量较多等特点,DSC数据集具有前景/背景差异小、超像素数量多和图像熵值高的特点。使用11个基准数据集对18种视觉显著性算法进行定量评估,揭示了算法得分和数据集复杂度之间的相关性,并在MTMS300数据集上发现了现有算法的不足。结论 提出的两个基准数据集具有不同的特点,有助于更为全面地评估视觉显著性算法,推动视觉显著性算法向特定任务方向发展。

关键词

视觉显著性; 显著物体检测; 基准数据集; 多目标; 多尺度; 小目标

MTMS300: a multiple-targets and multiple-scales benchmark dataset for salient object detection
expand article info Li Chuwei1, Zhang Zhilong1, Li Shuxin2
1. National Key Laboratory of Science and Technology on Automatic Target Recognition, College of Electronic Science and Technology, National University of Defense Technology, Changsha 410073, China;
2. School of Information and Communication, National University of Defense Technology, Xi′an 710106, China
Supported by: National Natural Science Foundation of China (61101185); Key Laboratory Foundation of National Defense Science and Technology (614250303010417, 6142503190301); Postgraduate Scientific Research Innovation Project of Hunan Province (CX20200044)

Abstract

Objective Benchmark dataset is essential to salient object detection algorithms. It conducts quantitative evaluation of various salient object detection algorithms. Most public datasets have a variety of biases like center bias, selection bias and category bias, respectively. 1) Center bias refers to the tendency of the photographer to place the object in the center of the camera's field of view when shooting the object, which is called camera-shooting bias. 2) Selection bias means the designer has a specific tendency when choosing images in the process of dataset construction, such as simple background option or large object orientation. 3) Category bias refers to the category imbalance in the dataset, which is often in the training process of deep convolutional neural network (DCNN). Based on the dataset bias, current visual saliency algorithms are aimed at daily scenes images. Such images are usually shot from close distance with a single background, and the saliency of the object is related to the object size and position. A salient object algorithm can easily judge its saliency when the large-scale object is located in the center of the image. The current saliency detection benchmark datasets are constrained of these biases. Our demonstration illustrates the statistical differences of several commonly used benchmark datasets quantitatively and proposes a new high-quality benchmark dataset. Method Centers bias, clutter and complexity, and label consistency of benchmark datasets are the crucial to design and evaluate a benchmark dataset. First, the commonly used evaluation metrics are discussed, including average annotation map (AAM), normalized object distance (NOD), super-pixels amount, image entropy, and intersection over union (IoU). Next, a new benchmark dataset is constructed, we split the image acquisition and annotation procedure to avoid dataset bias. In terms of the image acquisition requirement, we yield 6 participants to collect images based on Internet surfing and employ the similarity measurement to conduct similar or replicated images deduction. The image annotation process is divided into two stages to ensure the consistency of the annotation as well. At the beginning, a roughly annotated bounding-box is required 5 participants to label the salient objects in the image with a box and use the IoU to clarify further labeled objects. Next, a pixel-level annotation map generation, which is labeled by 2 participants. The mechanisms of pixel-level labeling are proposed as below: 1) The unoccluded parts of salient objects are only labeled; 2) The adjacent objects are segmented into independent parts based on the targets orientation. For overlapped objects, we do not separate them into dis-continuous parts deliberately; 3) Objects can be identified just by looking at their outlines. We built a benchmark dataset in the context of 300 multi-facets images derived of sea, land and sky and called it multiple targets and multiple scales (MTMS300). Third, we conducted a quantitative analysis of the current benchmark datasets and our dataset based on 6 factors and ranked them according to their difficulty degree. After that, we test and compare 18 representative visual saliency models quantitatively in the span of the public benchmark datasets and our new dataset. We reveal the possibilities of the failure of the models based on benchmark datasets. At the end, we leverage a set of images from the benchmark datasets and construct a new benchmark dataset named DSC (difficult scenes in common). Result The demonstration is divided into two parts: statistical analysis of benchmark datasets and quantitative evaluation of visual saliency algorithms. In the first part, we utilize average annotation map and normalized object distance to analyze the dataset center bias. Normalized object size, Chi-square distance of histograms, the number of super-pixels and the image entropy are used to analyze the dataset complexity simultaneously. Compared with other public datasets, MTMS300 dataset has a smaller center bias. MTMS300 dataset is also prominent in terms of object quantity and object size. The priority of the DSC dataset is derived of its small foreground/background difference, large number of super-pixels, and high image entropy. In the second part, two most widely adopted metrics are adopted to evaluate existing visual saliency algorithms. In terms of the experiments and evaluations of 18 algorithms on 11 datasets, we discovered that there is a correlation between the metric score of the algorithm and the difficulty of the dataset. Meanwhile, we analyzed the limitations of the current algorithms running on the new dataset. Conclusion We demonstrate a benchmark dataset for salient object detection, which is characterized by less center bias, balanced distribution of salient object size ratio, diverse image resolution, and multiple objects scenarios. Moreover, the multi-labelers-based annotation guaranteed that most objects in our dataset are clear and consistent. Our MTMS300 dataset includes 300 color images containing multiple targets and multiple scales. We evaluated 18 representative visual saliency algorithms on this new dataset and review the challenging issues of various algorithms. At last, we have found a set of images based on the 9 existing benchmark datasets and construct a dataset named DSC. These two datasets can evaluate the performance of various visual saliency algorithms, and facilitate the development of salient object detection algorithms further, especially for task-specific applications.

Key words

visual saliency; salient object detection; benchmark dataset; multiple target; multiple scale; small target

0 引言

视觉注意是人类视觉系统有选择性地处理显著视觉刺激的一种特殊机制。在计算机视觉领域,视觉显著性的典型应用包括目标检测识别、图像和视频压缩、图像分割以及视觉跟踪等(Borji等,2015)。视觉显著性算法大致可以分为3类,即启发式的方法、基于超像素分割的方法和基于卷积神经网络(convolutional neural network, CNN)或全卷积网络(fully convolutional networks, FCN)的方法。启发式的方法通常直接或间接利用心理学和视觉理论研究成果,此类方法的研究始于1998年左右,典型的有基于认知的Itti模型(Itti等,1998)、基于信息论的AIM(attention based on information maximization)模型(Bruce和Tsotsos,2005)、基于图的GBVS(graph-based visual saliency)模型(Harel等,2006)和基于布尔图理论的BMS(Boolean map saliency)模型(Zhang和Sclaroff,2013)等。基于超像素分割的方法首先利用超像素分割算法将图像划分为超像素,再计算显著性。此类方法的研究始于2011年左右,典型的有RC(region-based contrast)模型(Cheng等,2011)和DRFI(discriminative regional feature integration)模型(Jiang等,2013b)等。在Borji等人(2015)的评估实验中,表现最好的6个视觉显著性模型中有5个是基于超像素分割的方法。基于卷积神经网络(CNN)或全卷积网络(FCN)(Shelhamer等,2017)的方法一般用预训练的VGGNet(Visual Geometry Group network)或ResNet(residual neural network)作为基础网络架构,然后构建特定的卷积层或全连接层,再在MSRA-B(Microsoft Research Asia)(Liu等,2011)、MSRA10K(Cheng等,2015)等显著性基准数据集上进行微调。此类方法的研究始于2015年左右,典型的有MDF(multiscale deep features)(Li和Yu,2016)、ELD(encoded low level distance)(Lee等,2016)和AFNet(attentive feedback network)(Feng等,2019)等。

在视觉显著性模型发展过程中,基准数据集起到了至关重要的作用。在基准数据集上的测试可以使研究者对各种视觉显著性模型进行定量评估和分析,为模型改进与发展提供助力;此外,基准数据集可以训练基于CNN或FCN的视觉显著性模型。

基准数据集经历了从边框标注到像素级标注、从单目标到多目标、从简单背景到复杂背景以及从几百幅图像到上万幅图像的发展历程,公开的基准数据集也越来越多,如表 1所示。然而,并非所有关于数据集的文献都详细介绍数据集的构建方法和制备过程,对不同数据集的定量分析和对比也甚少,随着基准数据集的规模和种类不断扩大,这些问题不利于视觉显著性模型的发展。

表 1 显著性检测基准数据集
Table 1 Saliency detection benchmark dataset

下载CSV
数据集 图像/幅 分辨率/像素 目标/个 描述
DUT-OMRON(Yang等,2013) 5 168 400×89~401×401 1~19 多数图像包含至少1个显著目标,背景较为复杂。
ECSSD(Shi等,2016) 1 000 400×139~400×400 1~6 包含许多语义丰富、结构复杂的图像,多数图像前景/背景差异较小。
ImgSal(Li等,2011) 235 640×480 1~6 分别有50/80/60幅包含大/中/小显著目标的图像。此外,有15幅图像杂乱无章;15幅图像有重复的干扰;15幅图像同时包括大、小显著目标。
Judd-A(Borji,2015) 900 1 024×405~1 024×1 024 1~2 图像中场景较为杂乱,视野较大,多数图像分辨率为1 024×768像素。
MSRA10K(Cheng等,2015) 10 000 222×165~400×400 1~23 大多数图像仅包含1个无歧义的显著目标。
PASCAL-S(Li等,2014) 850 191×500~500×500 1~17 图像通常包含多个大、小目标。
SED1(Alpert等,2007) 100 300×125~300×465 1 每幅图像仅包含1个目标。
SED2(Alpert等,2007) 100 300×144~300×297 2 每幅图像仅包含2个目标。
THUR15K(Cheng等,2014) 6 233 300×300~1 208×300 1~2 包含5个不同关键字对应的图像,每类约3 000幅,并非所有图像都进行标注,多数图像仅包含1个显著目标。
MTMS300(本文) 300 275×183~3 872×2 592 1~42 包含300幅侦察和监视场景的图像,图像中目标较多,分辨率跨度大,图像的前景/背景差异和熵都较小,超像素较少。
DSC(本文) 319 400×89~1 024×1 024 1~3 图像对多数非深度学习的显著性检测算法来说都较困难。
注:DUT-OMRON:Dalian University of Technology and OMRON Corporation;SED1:segmentation evaluation database 1;SED2:segmentation evaluation database 2。

现有的基准数据集大多存在一些偏差,常见的有中心偏差、选择偏差和类别偏差等。中心偏差指在拍摄过程中,拍摄者往往倾向于将目标置于相机视野的中央,这类偏差也称为相机拍摄偏差;选择偏差指在数据集构建过程中,设计者选择图像时带有特定倾向,如只选择背景简单的或只选择目标较大的;类别偏差指数据集中的类别不均衡,此类问题在深度卷积神经网络训练过程中经常遇到。图 1是两幅MSRA10K数据集的典型偏差图像。图 1(a)具有严重的中心偏差;图 1(b)则选择偏差过强(背景极其简单)。

图 1 基准数据集中的偏差问题
Fig. 1 Bias in benchmark datasets
((a) center bias; (b) selection bias)

基准数据集偏差问题很大程度上已将显著性模型发展带入歧途,使人们对显著性的概念产生了只要目标够大且位于图像中央就具有显著性的固化印象。在消除数据集偏差方面,已有学者做了一些工作。Shi等人(2016)认为前景和背景相似的图像对显著性检测来说更具挑战性,建立了ECSSD数据集(extended complex scene saliency dataset),包含语义上有意义、结构上复杂的自然图像,并与MSRA-1000数据集(Achanta等,2009)进行对比,在CIELab(commission international eclairage)色彩空间的3个通道上比较前景和背景的差异。Li等人(2014)指出现有显著性基准数据集存在严重设计缺陷,将误导模型发展,认为数据集偏差来源于图像采集和标注过程,提出如果将图像采集和图像标注分开就可以避免设计偏差,并基于这一思想建立了PASCAL-S(pattern analysis, statistical modeling and computational learning)数据集。另一方面,尽管现有数据集存在偏差,但并不意味要否定它们,而是应该对数据集偏差进行正确理解和分析,从而合理利用现有数据集,或避开既有偏差去创建新的数据集。Bylinskii等人(2019)指出需要研究特定任务的基准数据集并妥善处理数据集偏差。以侦察和监视任务为例,图像中往往包含多个小目标并且背景复杂。此种情形下,目标的显著性通常体现为目标和环境差异蕴含的显著性,而不是目标尺寸或位置带来的显著性(如图 1所示)。在缺少相应数据集作为支撑的前提下,通用的视觉显著性算法往往难以直接应用于这类任务。

如上所述,现有基准数据集普遍存在偏差,因此难以充分体现不同模型的性能,不能完全反映某些典型应用(如侦察监视)的技术特点。为此,本文通过定量分析目前常用的9个基准数据集的统计学差异,提出两个新的基准数据集。本文的贡献主要有3个方面:1)设计了一个能体现侦察监视应用特点的新基准数据集MTMS300(multiple targets and multiple scales)。数据集包含300幅来自海陆空场景的彩色可见光图像,具有中心偏差小、目标面积比分布均衡、图像尺寸多样及图像中包含多个目标等特点;2)利用MTMS300数据集和公开基准数据集对典型的视觉显著性算法展开性能评估,从公开基准数据集中找出对多数非深度学习算法而言都较为困难(指标得分低)的图像,构成了一个新的基准数据集DSC(difficult scenes in common);3)讨论了基准数据集的定量评估方法,从复杂度和中心偏差的角度对9个公开基准数据集和本文提出的两个数据集进行分析和对比。

本文提出的两个数据集的在线发布地址为:https://github.com/iammusili/MTMS300_SOD_dataset/

1 数据集属性

1.1 MTMS300数据集

MTMS300数据集包含600幅图像,彩色可见光图像和像素级标注图各300幅,可见光图像与标注图一一对应。图像具体信息如下:1)图像名称从001开始递增编号,最大为300;2)图像分辨率不固定;3)可见光图像以jpg格式保存,位深度为24位;标注图以bmp格式保存,位深度为8位。

1.2 DSC数据集

DSC数据集包含638幅图像,319幅彩色可见光图像和319幅像素级标注图,可见光图像与标注图一一对应。图像具体信息如下:1)图像名称为数据集名称_数据集图像编号,例如ImgSal数据集编号107的图像在DSC数据集的名称为ImgSal_107;2)图像分辨率不固定;3)可见光图像以jpg格式保存,位深度为24位;标注图以png格式保存,位深度为8位。

2 数据集描述

显著性检测基准数据集的构建通常包括图像采集、图像标注和显著物体筛选。图像标注和显著物体筛选也可同时进行。Li等人(2014)提出将图像采集和图像标注分开以避免数据集的设计偏差,同时为确保显著物体的标注一致性,避免带歧义的标注,一种典型做法是多名参与者分别标注,然后投票保留票数高的区域(Borji等,2013a)。也可以将参与者分为测试组和真值组,对测试组计算AUC(area under roc curve)值或F值,并用该值表征标注的一致性(Li等,2014Shi等,2016)。Borji等人(2012)Fan等人(2018)利用交并比(intersection over union,IoU)定义图像的标注一致性,IoU越接近1,一致性越大。

为避免数据集设计偏差,提高标注一致性,本文将图像采集和图像标注分开,分两步构建数据集。首先6名参与者分别采集图像,再进行筛选和汇总;然后另外5名参与者对采集的图像手工标注。在标注阶段,使用IoU确保标注的一致性。

2.1 图像采集

图像采集分两阶段进行以保证图像质量。第1阶段是图像收集,首先明确需要收集的图像为侦察和监视场景下常见的多目标、复杂背景图像,然后6名参与者通过关键词搜索、在相关网站浏览的方式,下载公开的可见光图像,最终得到约400幅图像。第2阶段是图像筛选,本文结合HSV(hue saturation value)色彩特征和LBP(local binary pattern)纹理特征,通过计算图像特征直方图的差异进行相似度判断,排除过于相似甚至重复的图像,保留324幅图像,然后选择海陆空场景各100幅,最终确定300幅图像用于标注。

同时,本文对已有基准数据集进行相似度判断,DUT-OMRON、ImgSal、MSRA10K和THUR15K数据集分别有42、28、26和106幅重复图像,ECSSD、Judd-A、PASCAL-S、SED1和SED2数据集没有重复图像。

2.2 图像标注

图像标注也分两阶段进行,以保证标注的一致性,第1阶段是粗略的边框式标注,第2阶段是精细的像素级标注,如图 2所示。在第1阶段,5名参与者先用矩形边框标注图像的显著物体,然后用IoU判定物体是否具有显著性。本文参考Fan等人(2018)方法,仅考虑至少3个人标注的区域,同时参考Borji等人(2012)的统计结果,将IoU阈值设为0.6。以图 2(b)为例,图中有3个区域标注框(红色矩形框),但仅两个区域满足阈值条件,判定为显著性区域,另一区域则丢弃。在第2阶段,2名参与者对包含显著物体的矩形边框进行精细的像素级标注,如图 2(c)所示。最终,本文建立了一个包含海面、陆地和天空3种场景各100幅图像的基准数据集MTMS300,图 3给出了这个数据集中的一些图像和对应的标注图。像素级标注的原则是:1)只标注显著物体未遮挡区域(图 3(a));2)尽可能地将物体独立分割,但不强行分割具有重叠区域的物体(图 3(b));3)尽可能地使图像使用者能仅通过轮廓就辨识出物体(图 3(c))。

图 2 从粗到细的图像标注过程
Fig. 2 Image annotation process from coarse to fine
((a) original image; (b) bounding-box annotation; (c) pixel-wise annotation)
图 3 MTMS300数据集中的例图和对应的标注图
Fig. 3 Examples from MTMS300 dataset and the corresponding annotation maps
((a) occluded objects; (b) overlapped objects; (c) discernable contours; (d) multiple objects)

3 数据集验证与评估

3.1 公开基准数据集

Borji和Itti(2013)Borji(2015)详细介绍了多种数据集的图像数量和图像分辨率。Borji和Itti(2013)介绍的主要是眼动(eye movement)数据集;Borji(2015)介绍的是显著物体数据集,既有边框级标注,也有像素级标注。

本文基于3个原则选择公开基准数据集:1)具有像素级标注;2)广泛使用;3)尽可能地包含多个目标。最终确定9个公开数据集,如表 1所示。由于图像包含的目标数量一定程度上代表了图像的复杂度,本文通过计算标注图中连通区域数量的方式,统计数据集包含的最大目标个数和多目标图像的比例,结果如表 2所示。可以看出,无论多目标最大数量还是图像比例,本文提出的MTMS300数据集都远超其他数据集,随后是ImgSal、PASCAL-S、DUT-OMRON和ECSSD数据集。Judd-A、THUR15K、MSRA10K和DSC是单目标图像比例最大的4个数据集。

表 2 基准数据集中多目标图像比例
Table 2 The percentage of multi-objects images in benchmark datasets

下载CSV
数据集 最大目标数 比例/%
目标数= 1 目标数= 2 目标数= 3 目标数> 3
DUT-OMRON 19 87.20 9.30 2.20 1.30
ECSSD 6 91.80 6.60 0.90 0.70
ImgSal 6 54.90 26.00 10.20 8.90
Judd-A 2 99.00 1.00 0 0
MSRA10K 23 97.00 2.20 0.40 0.40
PASCAL-S 17 68.40 21.00 6.20 4.40
SED1 1 100 0 0 0
SED2 2 0 100 0 0
THUR15K 2 98.20 1.80 0 0
MTMS300(本文) 42 1.70 8.00 12.70 77.60
DSC(本文) 3 93.10 4.40 2.50 0

3.2 基准数据集定量分析

数据集的中心偏差和复杂度是设计和评价数据集时必须考虑的问题。Alpert等人(2007)Achanta等人(2009)Li等人(2011)Yang等人(2013)Cheng等人(2015)都提出了新的基准数据集,但是缺乏对数据集的定量分析。

3.2.1 中心偏差

在评价数据集的中心偏差方面,Borji等人(2012)Borji等人(2013a)Borji(2015)均使用平均注释图(average annotation map,AAM);Borji(2015)Fan等人(2018)均使用目标形心到图像中心的归一化距离(normalized object distance from image center,NOD),Fan等人(2018)还使用目标中最远点到图像中心的归一化距离;Borji等人(2013b)还提出一个新的度量CBR(center-bias ratio)。参考以上方法,本文使用NOD和AAM分析数据集的中心偏差。NOD称为归一化的目标距离,由标注图中每个目标的形心到图像中央的距离除以图像对角线长度的一半得到,各数据集的NOD概率密度曲线如图 4所示。AAM是数据集中所有标注图的平均值,用灰度图或伪彩色图表示。用伪彩色图时,颜色深的区域越靠近图像中央,说明中心偏差越大。为便于展示,所有图像都缩放为200 × 200像素,如图 5所示。由图 4图 5可以看出,本文提出的MTMS300数据集在显著物体的空间分布上更加均匀和分散,这意味着该数据集的中心偏差较小。ImgSal和Judd-A数据集的NOD分布也较为均匀;DSC和SED2数据集主要分布在0.2~0.6区间;ECSSD、SED1、THUR15K和MSRA10K则是中心偏差最大的4个数据集。

图 4 基准数据集的NOD概率密度分布
Fig. 4 Distributions of normalized object distances of benchmark datasets
图 5 不同基准数据集的AAM对比
Fig. 5 Comparison of AAM among different benchmark datasets

3.2.2 复杂度

Shi等人(2016)Li等人(2014)Fan等人(2018)用颜色直方图对比方法分析数据集的复杂度。Shi等人(2016)通过在CIELab色彩空间的3个通道上计算前景和背景的直方图卡方距离比较目标和背景的差异,并用ECSSD和MSRA-1000作为对比数据集进行评价实验,认为直方图卡方距离小的图像对显著物体检测更具挑战性(因为背景和前景更相似)。Li等人(2014)通过局部颜色对比、全局颜色对比、局部gPB边界强度和目标尺寸4种方法分析数据集的复杂度。Cheng等人(2014)Borji(2015)Li等人(2017)用超像素判断数据集的复杂度。Borji(2015)使用基于图的超像素分割算法(Felzenszwalb和Huttenlocher,2004)计算图像的超像素,认为超像素越多,图像越复杂,同时认为Bruce-A数据集的超像素较少是由显著物体小造成的。说明对显著物体小的图像,超像素数量不能完全代表其复杂度。Borji等人(2012)Judd等人(2009)认为熵值高的图像包含更强的干扰,通常有不同的纹理细节;Borji等人(2012)Borji等人(2013a)Borji(2015)Li等人(2017)通过目标占图像比例(归一化目标尺寸)分析复杂度,认为比例越小,图像越复杂;Borji(2015)Fan等人(2018)用图像中目标的数量判断复杂度,认为目标越多,图像越复杂。

本文采用归一化目标尺寸、前景/背景直方图卡方距离、超像素数量和图像熵等度量方式分析数据集的复杂度。

归一化目标尺寸的计算方法为:用标注图中目标的面积除以图像的总面积。归一化目标尺寸的取值范围为[0,1],值越大说明目标在图像中的比例越大。归一化目标尺寸的统计结果如表 3所示,可以看出,MTMS300数据集中多数目标的归一化尺寸都小于10-2;MSRA10K、SED1和ECSSD数据集中多数目标都大于10-1;ImgSal和DSC数据集有超过半数的目标在10-2~10-1之间。

表 3 基准数据集归一化目标尺寸
Table 3 Normalized object sizes of benchmark datasets

下载CSV
数据集 0~10-4 10-4~10-3 10-3~10-2 10-2~10-1 10-1~1
DUT-OMRON 0 0.025 6 0.089 0 0.431 8 0.453 6
ECSSD 0 0.001 8 0.015 3 0.222 0 0.760 8
ImgSal 0 0.038 6 0.222 2 0.587 0 0.152 2
Judd-A 0 0.013 1 0.114 3 0.377 6 0.495 0
MSRA10K 0 0.003 3 0.024 9 0.120 8 0.851 0
PASCAL-S 0 0.005 4 0.087 2 0.322 5 0.584 9
SED1 0 0.009 4 0.037 7 0.1415 0.811 3
SED2 0 0.005 1 0.102 0 0.494 9 0.398 0
THUR15K 0.000 2 0.011 0 0.026 4 0.394 8 0.567 6
MTMS300(本文) 0.093 1 0.396 6 0.391 4 0.112 5 0.006 4
DSC(本文) 0.027 5 0.011 0 0.074 4 0.595 0 0.292 1
注:加粗字体表示各列最大值。

前景/背景直方图卡方距离的计算方法为:根据标注图的真值掩膜将彩色图像分为前景和背景,然后分别计算CIELab色彩空间中L、a、b等3个通道的前景/背景直方图卡方距离,再取平均值。表 4以0.2、0.4、0.6和0.8为分界线给出了前景/背景直方图卡方距离的统计结果。图像的直方图卡方距离越小,说明前景和背景越接近,对显著性检测更具挑战性。事实上,Li和Yu(2016)构建数据集时,选择的都是直方图卡方距离小于0.7的图像。

表 4 前景/背景直方图卡方距离统计结果
Table 4 Statistical results of Chi-square distance of histograms

下载CSV
数据集 0~0.2 0.2~0.4 0.4~0.6 0.6~0.8 0.8~1
DUT-OMRON 0.049 1 0.389 3 0.394 7 0.151 1 0.015 7
ECSSD 0.134 0 0.421 0 0.299 0 0.133 0 0.013 0
ImgSal 0.114 9 0.566 0 0.285 1 0.029 8 0.004 3
Judd-A 0.196 7 0.470 0 0.256 7 0.058 9 0.017 8
MSRA10K 0.036 4 0.234 4 0.341 1 0.270 7 0.117 4
PASCAL-S 0.191 8 0.455 3 0.256 5 0.078 8 0.017 6
SED1 0.020 0 0.180 0 0.440 0 0.270 0 0.090 0
SED2 0.030 0 0.120 0 0.390 0 0.370 0 0.090 0
THUR15K 0.057 4 0.395 5 0.371 9 0.143 8 0.031 4
MTMS300(本文) 0.053 3 0.540 0 0.303 3 0.096 7 0.006 7
DSC(本文) 0.147 3 0.548 6 0.266 5 0.034 5 0.003 1
注:加粗字体表示各列最大值。

超像素数量的计算方法为:先将图像缩放至400 × 400像素,再计算超像素数量。在此,使用基于图的超像素分割算法(Felzenszwalb和Huttenlocher,2004),算法参数为$σ$ = 1,$K$ = 500,min = 50。超像素数量统计结果如表 5所示。可以看出,MTMS300数据集的超像素数目最少,该结果与Borji(2015)的结论吻合,因为MTMS300数据集包含的主要是小目标。SED1和SED2数据集的超像素也较少,DSC数据集的超像素数目最多,然后是ECSSD、DUT-OMRON、Judd-A和PASCAL-S数据集。

表 5 超像素数量统计结果
Table 5 Statistical results of the number of superpixels

下载CSV
数据集 0~40 40~80 80~120 120~200 >200
DUT-OMRON 0.097 5 0.404 0 0.336 3 0.156 9 0.005 2
ECSSD 0.070 0 0.353 0 0.416 0 0.155 0 0.006 0
ImgSal 0.200 0 0.553 2 0.161 7 0.080 9 0.004 3
Judd-A 0.110 0 0.377 8 0.370 0 0.136 7 0.005 6
MSRA10K 0.252 6 0.466 3 0.210 4 0.065 8 0.004 9
PASCAL-S 0.098 8 0.404 7 0.356 5 0.135 3 0.004 7
SED1 0.350 0 0.400 0 0.200 0 0.050 0 0
SED2 0.460 0 0.390 0 0.110 0 0.040 0 0
THUR15K 0.172 8 0.492 2 0.271 6 0.062 1 0.001 3
MTMS300(本文) 0.513 3 0.396 7 0.090 0 0 0
DSC(本文) 0.028 2 0.253 9 0.476 5 0.235 1 0.006 3
注:加粗字体表示各列最大值。

图像的熵值越大,图像包含的信息越多,图像越复杂。表 6是5,7,7.5和7.8为分界线的图像熵统计结果。可以看出,DSC数据集的熵值最大,这也侧面印证了图像熵在一定程度上代表了数据集的复杂度(DSC数据集由多数模型得分都低的困难图像组成)。此外,DUT-OMRON、ECSSD、ImgSal、Judd-A和PASCAL-S的熵值都较大,MTMS300数据集的熵值分布比较平均。综合而言,SED2的熵最小,其次是MSRA10K和SED1。

表 6 图像熵的统计结果
Table 6 Statistical results of the image entropy

下载CSV
数据集 0~5 5~7 7~7.5 7.5~7.8 7.8~8
DUT-OMRON 0.001 4 0.085 7 0.312 7 0.458 2 0.142 0
ECSSD 0.001 0 0.086 0 0.344 0 0.454 0 0.115 0
ImgSal 0 0.093 6 0.340 4 0.451 1 0.114 9
Judd-A 0.014 4 0.142 2 0.300 0 0.437 8 0.105 6
MSRA10K 0.073 4 0.254 8 0.310 0 0.293 1 0.068 7
PASCAL-S 0.010 6 0.131 8 0.282 4 0.429 4 0.145 9
SED1 0 0.240 0 0.330 0 0.330 0 0.100 0
SED2 0.020 0 0.400 0 0.300 0 0.210 0 0.070 0
THUR15K 0.014 9 0.178 2 0.330 3 0.375 9 0.100 6
MTMS300(本文) 0.003 3 0.216 7 0.380 0 0.330 0 0.070 0
DSC(本文) 0 0.037 6 0.185 0 0.554 9 0.222 6
注:加粗字体表示各列最大值。

3.2.3 小结

结合表 1表 6图 4图 5可以得出以下结论:1)基准数据集的侧重点不同。例如,Judd-A的图像场景较为杂乱且视野较大;MSRA10K通常只有1个无歧义的显著目标;SED1和SED2分别只包含1个和2个目标但类别多样化;THUR15K只包含5种特定类别目标;ECSSD包含语义丰富但结构复杂的自然图像。2)通用数据集中,MSRA10K、SED1和SED2是最简单的3个数据集,ImgSal、DSC、Judd-A和PASCAL-S是最复杂的4个数据集,DSC数据集在前景/背景差异、超像素数量和图像熵上较为突出,暗示包含的图像很复杂。3)与其他数据集相比,MTMS300数据集在目标数量、中心偏差和目标大小等方面比较突出,能够较好地满足侦察监视场景的需求。4)不同度量指标之间没有必然的相关性。例如,ECSSD、DUT-OMRON和Judd-A等前景/背景差异较大的数据集,超像素数目都较多。但是同样前景/背景差异较大的MTMS300数据集,却因为包含了很多小目标,导致超像素数目不多。综上所述,在用数据集进行视觉显著性模型的性能评估或训练时,需要综合考虑数据集的特性。

3.3 视觉显著性模型的性能评估

实验通过在数据集上定量测试多种算法模型,对数据集的复杂度和难度进行定性对比分析。

3.3.1 实验设计

视觉显著性模型包括启发式方法、基于超像素分割的方法和基于深度学习的方法3大类。实验时每类模型选取6种共18种具有代表性的视觉显著性模型进行评估,如表 7所示。

表 7 视觉显著性模型
Table 7 Visual saliency models

下载CSV
模型 超像素处理 深度学习
Itti(Itti等,1998)
GBVS(Harel等,2006)
SR(Hou和Zhang,2007)
SS(Hou等,2012)
COV(Erdem和Erdem,2013)
BMS(Zhang和Sclaroff,2013)
DSR(Li等,2013)
MC(Jiang等,2013a)
PCA(Margolin等,2013)
DRFI(Jiang等,2013b)
GMR(Yang等,2013)
RBD(Zhu等,2014)
ELD(Lee等,2016)
AMU(Zhang等,2017b)
UCF(Zhang等,2017a)
WSS(Wang等,2017)
ASNet(Wang等,2018)
AFNet(Feng等,2019)
注:GBVS:graph-based visual saliency;SR:spectral residual;SS:signature saliency;COV:covariance;BMS:Boolean map saliency;DSR:dense and sparse reconstruction;MC:Markov chain;PCA:principal component analysis;DRFI:discriminative regional feature integration;GMR:graph-based manifold ranking;RBD:robust background detection;ELD:encoded low level distance;AMU:aggregating multi-level;UCF:uncertain convolutional features;WSS:weakly supervised saliency;ASNet:attentive saliency network;AFNet:attentive feedback network。

3.3.2 性能评价指标

采用AUC值和F值指标评估视觉显著性模型的性能。首先用1~255的阈值等间隔分割显著图${\mathit{\boldsymbol{S}}}$得到二值图${\mathit{\boldsymbol{B}}}$,然后将二值图${\mathit{\boldsymbol{B}}}$与标注图${\mathit{\boldsymbol{G}}}$进行比较,分别计算精度$P$、召回$R$、真正类率$TPR$(true positive rate)和假正类率$FPR$(false positive rate),在此基础上计算AUC值和F值。具体为

$ P=\frac{|\boldsymbol{B} \cap \boldsymbol{G}|}{|\boldsymbol{B}|}, \quad R=\frac{|\boldsymbol{B} \cap \boldsymbol{G}|}{|\boldsymbol{G}|} $ (1)

$ T P R=\frac{|\boldsymbol{B} \cap \boldsymbol{G}|}{|\boldsymbol{G}|}, \quad F P R=\frac{|\boldsymbol{B} \cap \widetilde{\boldsymbol{G}}|}{|\widetilde{\boldsymbol{G}}|} $ (2)

式中,$\widetilde{\boldsymbol{G}}$${\mathit{\boldsymbol{G}}}$的补集。

$TPR$$FPR$构成受试者工作特征(receiver operating characteristic,ROC)曲线,对ROC曲线积分即求得AUC值。AUC值的取值范围为[0, 1],值越大,说明模型性能越好。

F值(也称$F_{β}$)的计算方法为

$ F_{\beta}=\frac{\left(1+\beta^{2}\right) \cdot P \cdot R}{\beta^{2} \cdot P+R} $ (3)

F值同时考虑了精度$P$和召回$R$,可以更全面地评价显著图的质量。本文参照Achanta等人(2009)的方法,将$β^{2}$设为0.3,以增加精度的权重,并只使用F值的最大值描述模型性能。

3.3.3 实验结果

表 8表 9分别是视觉显著性模型在不同基准数据集上的AUC值和F值。由表 8表 9可以得出以下结论:1)经过多年发展,视觉显著性模型的性能在简单数据集上已趋于饱和,但在复杂数据集上还远远不够。以MSRA10K数据集为例,1998年Itti模型的AUC和F值仅为0.87和0.66;2013年MC模型的AUC和F值提高到0.95和0.90;2018年ASNet模型的AUC和F值达到0.99和0.96。然而,在Judd-A这样的复杂数据集上,表现最好的ASNet算法的F值也仅为0.6,不能令人满意。2)数据集质量与模型性能有紧密联系。以DUT-OMRON数据集为例,其图像数量只有MSRA10K的一半,但用DUT-OMRON训练的ASNet模型与用MSRA10K训练的ELD和AMU模型相比,在多个复杂数据集上的指标得分都更高。3)模型在数据集上的指标得分与数据集复杂度成反比。MSRA10K、SED1和SED2数据集最为简单,ImgSal、DSC、Judd-A、PASCAL-S和MTMS300数据集最为复杂,模型在这些数据集上的F值和AUC值印证了这一结论。4)在公开基准数据集上训练的算法模型难以直接应用到特定场景的视觉显著性任务中。以DRFI和ASNet等模型为例,它们在公开数据集上的F值高达0.9,但是在MTMS300数据集上的F值仅为0.66,这也表明针对侦察监视任务等特定场景,设计新的视觉显著性算法很有必要。

表 8 不同模型在不同数据集上的AUC值
Table 8 AUC values of different models on different datasets

下载CSV
模型 DUT-OMRON ECSSD ImgSal Judd-A MSRA10K PASCAL-S SED1 SED2 THUR15K MTMS300 DSC
Itti 0.830 2 0.809 6 0.920 4 0.773 5 0.870 0 0.786 3 0.846 4 0.893 2 0.845 1 0.899 4 0.544 1
GBVS 0.860 1 0.877 5 0.935 2 0.828 0 0.913 1 0.827 1 0.886 2 0.845 6 0.891 2 0.875 8 0.578 6
SR 0.768 9 0.702 4 0.896 7 0.748 7 0.821 1 0.733 6 0.784 7 0.821 3 0.798 7 0.922 6 0.541 9
SS 0.791 3 0.743 5 0.916 4 0.771 7 0.844 2 0.766 5 0.822 8 0.839 4 0.825 9 0.901 7 0.562 9
COV 0.842 6 0.787 6 0.940 7 0.757 9 0.860 7 0.769 1 0.795 5 0.853 6 0.805 9 0.920 9 0.605 8
BMS 0.858 8 0.878 1 0.865 9 0.797 7 0.932 4 0.821 7 0.884 1 0.851 7 0.885 5 0.769 3 0.576 9
DSR 0.891 5 0.913 1 0.895 2 0.824 4 0.953 0 0.853 3 0.937 9 0.908 6 0.899 3 0.832 8 0.564 1
MC 0.887 7 0.925 4 0.881 8 0.837 5 0.955 2 0.863 2 0.943 8 0.895 8 0.913 8 0.786 1 0.556 2
PCA 0.886 3 0.883 1 0.923 2 0.807 1 0.946 8 0.834 4 0.908 6 0.908 0 0.894 6 0.814 0 0.535 5
DRFI 0.925 6 0.947 1 0.919 2 0.852 9 0.979 8 0.883 0 0.969 6 0.937 4 0.932 9 0.930 1 0.606 0
GMR 0.854 7 0.914 5 0.840 5 0.800 5 0.952 4 0.834 7 0.943 3 0.838 6 0.886 2 0.671 3 0.491 9
RBD 0.894 0 0.902 9 0.898 8 0.832 9 0.959 0 0.854 0 0.927 2 0.910 1 0.891 7 0.881 8 0.517 8
ELD 0.927 9 0.960 7 0.636 8 0.847 7 0.935 9 0.673 8 0.954 1 0.897 5 0.753 6 0.848 8 0.665 4
AMU 0.942 2 0.981 0 0.942 5 0.872 8 0.998 2 0.925 0 0.980 6 0.970 9 0.950 2 0.905 4 0.726 5
UCF 0.936 4 0.982 9 0.9423 0.875 7 0.996 0 0.931 5 0.985 7 0.974 4 0.953 1 0.898 2 0.712 8
WSS 0.922 9 0.962 6 0.9498 0.870 7 0.978 6 0.913 1 0.968 4 0.957 1 0.956 5 0.941 3 0.742 1
ASNet 0.975 5 0.986 5 0.9535 0.864 6 0.994 9 0.920 8 0.972 1 0.960 4 0.954 8 0.943 3 0.783 3
AFNet 0.935 6 0.980 7 0.8792 0.812 8 0.968 7 0.907 4 0.963 1 0.924 9 0.945 5 0.837 3 0.734 3
注:ASNet的训练集为DUT-OMRON;DRFI、ELD、AMU、UCF的训练均使用MSRA10K或其子集。

表 9 不同模型在不同数据集上的F值
Table 9 F values of different models on different datasets

下载CSV
模型 DUT-OMRON ECSSD ImgSal Judd-A MSRA10K PASCAL-S SED1 SED2 THUR15K MTMS300 DSC
Itti 0.513 8 0.580 7 0.588 7 0.413 2 0.657 1 0.633 0 0.678 5 0.704 1 0.525 6 0.461 0 0.153 0
GBVS 0.567 6 0.669 0 0.654 6 0.472 2 0.729 9 0.676 6 0.736 0 0.634 8 0.584 8 0.458 1 0.158 6
SR 0.460 0 0.498 7 0.587 0 0.402 7 0.599 2 0.587 0 0.609 9 0.584 6 0.453 7 0.449 5 0.165 7
SS 0.473 9 0.525 1 0.615 3 0.417 3 0.621 4 0.608 2 0.642 5 0.582 6 0.474 6 0.384 3 0.173 5
COV 0.532 9 0.588 9 0.656 7 0.415 4 0.657 0 0.620 6 0.643 4 0.661 1 0.475 4 0.457 4 0.185 7
BMS 0.651 3 0.753 1 0.630 8 0.501 0 0.857 7 0.736 3 0.818 7 0.762 8 0.659 6 0.360 7 0.197 3
DSR 0.673 7 0.777 2 0.631 2 0.507 5 0.865 4 0.742 0 0.864 8 0.833 3 0.663 5 0.468 1 0.169 2
MC 0.720 1 0.814 7 0.683 6 0.557 0 0.900 8 0.775 0 0.896 7 0.855 0 0.712 1 0.530 8 0.166 1
PCA 0.617 2 0.691 3 0.649 8 0.472 3 0.819 0 0.698 2 0.787 9 0.804 8 0.598 5 0.462 5 0.145 4
DRFI 0.747 0 0.846 6 0.729 9 0.560 3 0.923 1 0.805 3 0.918 1 0.894 2 0.744 4 0.644 9 0.218 3
GMR 0.689 5 0.813 7 0.618 8 0.537 0 0.901 8 0.764 7 0.907 6 0.829 7 0.695 7 0.329 1 0.161 1
RBD 0.715 0 0.785 7 0.664 3 0.526 4 0.901 5 0.774 9 0.885 3 0.890 8 0.675 4 0.576 4 0.154 2
ELD 0.763 5 0.900 4 0.256 9 0.569 7 0.873 8 0.526 7 0.923 1 0.859 1 0.470 1 0.648 7 0.314 1
AMU 0.765 0 0.929 0 0.695 4 0.567 2 0.973 5 0.877 0 0.940 7 0.921 4 0.769 6 0.481 6 0.333 0
UCF 0.763 2 0.926 1 0.707 3 0.572 1 0.961 8 0.870 5 0.939 5 0.922 8 0.776 5 0.494 5 0.321 4
WSS 0.725 0 0.878 8 0.716 2 0.551 2 0.913 0 0.838 0 0.909 8 0.881 1 0.766 2 0.598 4 0.325 5
ASNet 0.882 6 0.942 2 0.833 4 0.597 6 0.961 9 0.885 7 0.937 5 0.912 5 0.786 4 0.664 1 0.463 9
AFNet 0.818 9 0.942 1 0.751 7 0.558 1 0.925 1 0.883 6 0.936 2 0.884 0 0.796 1 0.641 7 0.410 1
注:ASNet的训练集为DUT-OMRON;DRFI、ELD、AMU、UCF的训练均使用MSRA10K或其子集。

3.4 DSC数据集的构建

基于3.3节的实验,本文从9个公开数据集中找出“共同困难”图像,构建DSC数据集。“共同困难”图像的定义为:如果12个非深度学习模型中有至少8个模型都在同一幅图像上指标得分低,就认为这幅图像是“共同困难”图像。

具体来说,本文分3步构建DSC数据集:第1步,找出AUC低于0.7的“共同困难”图像;第2步,找出F值低于0.3的“共同困难”图像;第3步,两部分图像取交集。将AUC阈值设为0.7的原因是:0.5是随机猜测的得分,如果低于0.7,说明不比随机猜测好多少,那么必然是困难的图像;根据经验将F值的阈值设为0.3。从各公开基准数据集中找出的“共同困难”图像的数量如表 10所示。

表 10 来自公开基准数据集的“共同困难”图像数量
Table 10 The number of difficult images in common from public benchmark datasets 

下载CSV
/幅
数据集 步骤1 步骤2 步骤3
DUT-OMRON 247 378 108
ECSSD 26 7 1
ImgSal 2 9 2
Judd-A 106 237 54
MSRA10K 30 2 1
PASCAL-S 84 9 3
SED1 0 0 0
SED2 0 0 0
THUR15K 224 683 150
合计 719 1 325 319

图 6给出了DSC数据集的例图和模型的显著图。可以看出,对传统算法而言,“共同困难”的图像对一些最新的算法模型仍具有挑战性。

图 6 DSC数据集的例图和对应的显著图
Fig. 6 Examples from DSC dataset and the corresponding saliency maps
((a)original images; (b)annotation maps; (c)ELD; (d)AMD; (e)UCF; (f)WSS)

4 数据集使用说明

4.1 数据使用方法

数据集的推荐使用方法如下:1)使用者利用自己编写的视觉显著性算法或软件读取1幅或多幅彩色可见光图像,根据算法进行显著性判别,输出与可见光图像尺寸一致的显著图。2)同时读取显著图和相应的标注图,计算显著图对应的AUC值和F值等指标得分;也可根据实际需求,自行设计新的评估指标并计算。本文数据集提供上述评估指标的程序代码。

4.2 应用场景

本文数据集适用于视觉显著性模型的性能评测和模型训练。

5 讨论

5.1 模型在公开数据集上的失败原因

模型在公开基准数据集上得分较低的情况分为模型不够完善和数据集质量欠佳两类。1)所有模型在DSC数据集上的指标得分都较低。DSC数据集具有前景/背景差异小、超像素数量多和图像熵大等3个明显特点。前景/背景差异小意味着人眼容易区分的物体对模型却极具挑战;超像素数量多和图像熵大说明图像复杂,检测难度大。因此,模型在DSC和Judd-A等数据集上得分低,原因是模型不够完善,难以应对复杂图像。2)数据集标注质量问题(如图 7所示)可细分为标注有误和标注有歧义两种。第1种情况,以SED2数据集中的一幅图像(图 7第1行)为例,标注位置与显著物体实际位置之间存在错位(这种错误很难发现)。尽管Borji等人(2015)将其归为DRFI和MC模型的低得分图像,但这并非模型失败,而是标注错误所致。第2种情况,与SED1、SED2和ECSSD数据集中没有歧义的图像相比,THUR15K数据集中的图像在很大程度上令人怀疑其标注的一致性(换言之,是否标注时强制要求只能选择1个物体而忽略了其他物体的显著性)。如图 7第2~4行所示,与标注的物体相比,其他物体没有理由不标注。模型只有在一致性高的图像上才能取得更好的效果(Borji等,2012)。因此,标注质量过低在一定程度上拉低了模型得分。

图 7 低质量标注的例图
Fig. 7 Examples of low-quality annotation
((a) original images; (b) annotation maps)

5.2 模型在MTMS300数据集上的失败原因

MTMS300数据集制备过程中,将图像采集和图像标注分开,用IoU判定标注一致性,尽可能避免了数据集的设计偏差,提高了数据集的标注一致性。因此,模型在MTMS300数据集上得分不高的原因,主要有:1)模型只突出主要目标,抑制了小目标(图 8第1行),甚至完全无法检测到图像中的小目标(图 8第2、3行)。2)对图像存在多个目标的情形,不能全部检测出来(图 8第4、5行)。3)模型参数固定,难以自适应图像尺寸。以RBD模型为例,其超像素大小固定为600像素,对大图像而言,该参数会使RBD模型容易检测出所有目标,但这将导致小图像只包含几十个超像素。并且对于图像中的小目标(如10 × 10像素大小的目标)而言,其面积甚至不如一个超像素大,因而容易被漏检。

图 8 模型在MTMS300数据集的失败例子
Fig. 8 Failure cases of models over MTMS300 dataset
((a)original images; (b)annotation maps; (c)UCF; (d)WSS; (e)ASNet; (f)AFNet)

6 结论

本文提出一个面向侦察监视应用的显著性检测基准数据集MTMS300,主要特点是:中心偏差小、目标面积比分布均衡、图像分辨率多样以及场景中包含多个目标。

本文利用6个度量指标对基准数据集展开定量分析,统计了数据集的中心偏差和复杂度等特性,并评估了数据集的难度系数。此外,通过18个模型在11个数据集上的实验和评估,证明了模型的得分和数据集的难度系数是有相关性的。但是也有一些难度系数低的数据集(如THUR15K),模型的得分不高,本文认为这主要与标注质量有关。

本文分析了模型在基准数据集上失败的原因,并找出了公开数据集中令多数传统模型都觉得困难(指标得分低)的图像,构成了一个“共同困难”数据集DSC。

结合实验和分析,本文发现仍有一些值得关注的问题:1)构建数据集时,必须严格把控数据集的质量。例如,DUT-OMRON数据集的图像数量只有MSRA10K的一半,但是用DUT-OMRON训练的模型比用MSRA10K训练的模型效果显然要好,这表明数据集的质量对模型有直接影响。2)本文使用6种度量指标对数据集展开了定量分析,如何在此基础上充分利用数据集的特性,将不同的数据集融合,提升基于深度学习的视觉显著性模型的性能,是一个值得研究的问题。3)现有显著性检测模型的评估指标无法适用于特定任务下的数据集。例如,对于同时包含大、小目标的图像,如果模型只检测出了大目标(如图 8第1行)也能获得不低的指标得分,相当于评估指标忽视了小目标漏检,这显然是不理想的。而且,现有评估指标无法体现显著图中的目标个数和实际目标个数的差异。因此,如何设计一个指标表征此类场景下显著物体检测模型的性能是一个值得考虑的方向。

致谢 MTMS300数据集的构建得到了新浪军事、中国军事图片中心和铁血社区的支持,在此表示感谢。

参考文献

  • Achanta R, Hemami S, Estrada F and Susstrunk S. 2009. Frequency-tuned salient region detection//Proceedings of 2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami, USA: IEEE: 1597-1604[DOI: 10.1109/CVPR.2009.5206596]
  • Alpert S, Galun M, Basri R and Brandt A. 2007. Image segmentation by probabilistic bottom-up aggregation and cue integration//Proceedings of 2007 IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis, USA: IEEE: 1-8[DOI: 10.1109/CVPR.2007.383017]
  • Borji A. 2015. What is a salient object? A dataset and a baseline model for salient object detection. IEEE Transactions on Image Processing, 24(2): 742-756 [DOI:10.1109/TIP.2014.2383320]
  • Borji A, Cheng M M, Jiang H Z, Li J. 2015. Salient object detection: a benchmark. IEEE Transactions on Image Processing, 24(12): 5706-5722 [DOI:10.1109/TIP.2015.2487833]
  • Borji A, Itti L. 2013. State-of-the-art in visual attention modeling. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(1): 185-207 [DOI:10.1109/TPAMI.2012.89]
  • Borji A, Sihite D N and Itti L. 2012. Salient object detection: a benchmark//Proceedings of the 12th European Conference on Computer Vision. Florence, Italy: Springer: 414-429[DOI: 10.1007/978-3-642-33709-3_30]
  • Borji A, Sihite D N, Itti L. 2013a. What stands out in a scene? A study of human explicit saliency judgment. Vision Research, 91: 62-77 [DOI:10.1016/j.visres.2013.07.016]
  • Borji A, Sihite D N, Itti L. 2013b. Quantitative analysis of human-model agreement in visual saliency modeling: a comparative study. IEEE Transactions on Image Processing, 22(1): 55-69 [DOI:10.1109/TIP.2012.2210727]
  • Bruce N D B and Tsotsos J K. 2005. Saliency based on information maximization//Proceedings of the 18th International Conference on Neural Information Processing Systems. Vancouver, Canada: MIT Press: 155-162
  • Bylinskii Z, Judd T, Oliva A, Torralba A, Durand F. 2019. What do different evaluation metrics tell us about saliency models?. IEEE Transactions on Pattern Analysis and Machine Intelligence, 41(3): 740-757 [DOI:10.1109/TPAMI.2018.2815601]
  • Cheng M M, Mitra N J, Huang X L, Hu S M. 2014. SalientShape: group saliency in image collections. The Visual Computer, 30(4): 443-453 [DOI:10.1007/s00371-013-0867-4]
  • Cheng M M, Mitra N J, Huang X L, Torr P H S, Hu S M. 2015. Global contrast based salient region detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 37(3): 569-582 [DOI:10.1109/TPAMI.2014.2345401]
  • Cheng M M, Zhang G X, Mitra N J, Huang X L and Hu S M. 2011. Global contrast based salient region detection//Proceedings of 2011 IEEE Conference on Computer Vision and Pattern Recognition. Colorado Springs, USA: IEEE: 409-416[DOI: 10.1109/CVPR.2011.5995344]
  • Erdem E, Erdem A. 2013. Visual saliency estimation by nonlinearly integrating features using region covariances. Journal of Vision, 13(4): 11 [DOI:10.1167/13.4.11]
  • Fan D P, Cheng M M, Liu J J, Gao S H, Hou Q B and Borji A. 2018. Salient objects in clutter: bringing salient object detection to the foreground//Proceedings of the 15th European Conference on Computer Vision. Munich, Germany: Springer: 196-212[DOI: 10.1007/978-3-030-01267-0_12]
  • Felzenszwalb P F, Huttenlocher D P. 2004. Efficient graph-based image segmentation. International Journal of Computer Vision, 59(2): 167-181 [DOI:10.1023/B:VISI.0000022288.19776.77]
  • Feng M Y, Lu H C and Ding E R. 2019. Attentive feedback network for boundary-aware salient object detection//Proceedings of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Long Beach, USA: IEEE: 1623-1632[DOI: 10.1109/CVPR.2019.00172]
  • Harel J, Koch C and Perona P. 2006. Graph-based visual saliency//Proceedings of the 19th International Conference on Neural Information Processing Systems. Vancouver, Canada: MIT Press: 545-552
  • Hou X D, Harel J, Koch C. 2012. Image signature: highlighting sparse salient regions. IEEE Transactions on Pattern Analysis and Machine Intelligence, 34(1): 194-201 [DOI:10.1109/TPAMI.2011.146]
  • Hou X D and Zhang L Q. 2007. Saliency detection: a spectral residual approach//Proceedings of 2007 IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis, USA: IEEE: 1-8[DOI: 10.1109/CVPR.2007.383267]
  • Itti L, Koch C, Niebur E. 1998. A model of saliency-based visual attention for rapid scene analysis. IEEE Transactions on Pattern Analysis and Machine Intelligence, 20(11): 1254-1259 [DOI:10.1109/34.730558]
  • Jiang B W, Zhang L H, Lu H C, Yang C and Yang M H. 2013a. Saliency detection via absorbing Markov chain//Proceedings of 2013 IEEE International Conference on Computer Vision. Sydney, Australia: IEEE: 1665-1672[DOI: 10.1109/ICCV.2013.209]
  • Jiang H Z, Wang J D, Yuan Z J, Wu Y, Zheng N N and Li S P. 2013b. Salient object detection: a discriminative regional feature integration approach//Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition. Portland, USA: IEEE: 2083-2090[DOI: 10.1109/CVPR.2013.271]
  • Judd T, Ehinger K, Durand F and Torralba A. 2009. Learning to predict where humans look//Proceedings of the 12th IEEE International Conference on Computer Vision. Kyoto, Japan: IEEE: 2106-2113[DOI: 10.1109/ICCV.2009.5459462]
  • Lee G, Tai Y W and Kim J. 2016. Deep saliency with encoded low level distance map and high level features//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE: 660-668[DOI: 10.1109/CVPR.2016.78]
  • Li G B, Yu Y Z. 2016. Visual saliency detection based on multiscale deep CNN features. IEEE Transactions on Image Processing, 25(11): 5012-5024 [DOI:10.1109/TIP.2016.2602079]
  • Li J, Levine M, An X J and He H E. 2011. Saliency detection based on frequency and spatial domain analyses//Proceedings of the 22nd British Machine Vision Conference. Dundee, UK: BMVA Press: 86.1-86.11[DOI: 10.5244/C.25.86]
  • Li S Q, Zeng C, Liu S P, Fu Y. 2017. Merging fixation for saliency detection in a multilayer graph. Neurocomputing, 230: 173-183 [DOI:10.1016/j.neucom.2016.12.026]
  • Li X H, Lu H C, Zhang L H, Ruan X and Yang M H. 2013. Saliency detection via dense and sparse reconstruction//Proceedings of 2013 IEEE International Conference on Computer Vision. Sydney, Australia: IEEE: 2976-2983[DOI: 10.1109/ICCV.2013.370]
  • Li Y, Hou X D, Koch C, Rehg J M and Yuille A L. 2014. The secrets of salient object segmentation//Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, USA: IEEE: 4321-4328[DOI: 10.1109/CVPR.2014.43]
  • Liu T, Yuan Z J, Sun J, Wang J D, Zheng N N, Tang X O, Shum H Y. 2011. Learning to detect a salient object. IEEE Transactions on Pattern Analysis and Machine Intelligence, 33(2): 353-367 [DOI:10.1109/TPAMI.2010.70]
  • Margolin R, Tal A and Zelnik-Manor L. 2013. What makes a patch distinct?//Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition. Portland, USA: IEEE: 1139-1146[DOI: 10.1109/CVPR.2013.151]
  • Shelhamer E, Long J, Darrell T. 2017. Fully convolutional networks for semantic segmentation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 39(4): 640-651 [DOI:10.1109/TPAMI.2016.2572683]
  • Shi J P, Yan Q, Xu L, Jia J Y. 2016. Hierarchical image saliency detection on extended CSSD. IEEE Transactions on Pattern Analysis and Machine Intelligence, 38(4): 717-729 [DOI:10.1109/TPAMI.2015.2465960]
  • Wang L J, Lu H C, Wang Y F, Feng M Y, Wang D, Yin B C and Ruan X. 2017. Learning to detect salient objects with image-level supervision//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE: 3796-3805[DOI: 10.1109/CVPR.2017.404]
  • Wang W G, Shen J B, Dong X P and Borji A. 2018. Salient object detection driven by fixation prediction//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE: 1711-1720[DOI: 10.1109/CVPR.2018.00184]
  • Yang C, Zhang L H, Lu H C, Ruan X and Yang M H. 2013. Saliency detection via graph-based manifold ranking//Proceedings of 2013 IEEE Conference on Computer Vision and Pattern Recognition. Portland, USA: IEEE: 3166-3173[DOI: 10.1109/CVPR.2013.407]
  • Zhang J M and Sclaroff S. 2013. Saliency detection: a Boolean map approach//Proceedings of 2013 IEEE International Conference on Computer Vision. Sydney, Australia: IEEE: 153-160[DOI: 10.1109/ICCV.2013.26]
  • Zhang P P, Wang D, Lu H C, Wang H Y and Yin B C. 2017a. Learning uncertain convolutional features for accurate saliency detection//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE: 212-221[DOI: 10.1109/ICCV.2017.32]
  • Zhang P P, Wang D, Lu H C, Wang H Y and Ruan X. 2017b. Amulet: aggregating multi-level convolutional features for salient object detection//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice, Italy: IEEE: 202-211[DOI: 10.1109/ICCV.2017.31]
  • Zhu W J, Liang S, Wei Y C and Sun J. 2014. Saliency optimization from robust background detection//Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus, USA: IEEE: 2814-2821[DOI: 10.1109/CVPR.2014.360]