Print

发布时间: 2021-10-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.200261
2021 | Volume 26 | Number 10




    数据集论文    




  <<上一篇 




  下一篇>> 





FGSC-23:面向深度学习精细识别的高分辨率光学遥感图像舰船目标数据集
expand article info 姚力波1, 张筱晗1, 吕亚飞2, 孙炜玮1, 李孟洋1
1. 海军航空大学信息融合研究所, 烟台 264001;
2. 91977部队, 北京 100036

摘要

目的 基于光学遥感图像的舰船目标识别研究广受关注,但是目前公开的光学遥感图像舰船目标识别数据集存在规模小、目标类别少等问题,难以训练出具有较高舰船识别精度的深度学习模型。为此,本文面向基于深度学习的舰船目标精细识别任务研究需求,搜集公开的包含舰船目标的高分辨率谷歌地球和GF-2卫星水面场景遥感图像,构建了一个高分辨率光学遥感图像舰船目标精细识别数据集(fine-grained ship collection-23,FGSC-23)。方法 将图像中的舰船目标裁剪出来,制作舰船样本切片,人工对目标类别进行标注,并在每个切片中增加舰船长宽比和分布方向两类属性标签,最终形成包含23个类别、4 052个实例的舰船目标识别数据集。结果 按1:4比例将数据集中各类别图像随机划分为测试集和训练集,并展开验证实验。实验结果表明,在通用识别模型识别效果验证中,VGG16(Visual Geometry Group 16-layer net)、ResNet50、Inception-v3、DenseNet121、MobileNet和Xception等经典卷积神经网络(convolutional neural network,CNN)模型的整体测试精度分别为79.88%、81.33%、83.88%、84.00%、84.24%和87.76%;在舰船目标精细识别的模型效果验证中,以VGG16和ResNet50模型为基准网络,改进模型在测试集上的整体测试精度分别为93.58%和93.09%。结论 构建的FGSC-23数据集能够满足舰船目标识别算法的验证任务。

关键词

光学遥感图像; 舰船目标; 精细识别; 数据集; 深度学习

FGSC-23: a large-scale dataset of high-resolution optical remote sensing image for deep learning-based fine-grained ship recognition
expand article info Yao Libo1, Zhang Xiaohan1, Lyu Yafei2, Sun Weiwei1, Li Mengyang1
1. Information Fusion Institute, Naval Aviation University, Yantai 264001, China;
2. Troops of 91977, Beijing 100036, China
Supported by: National Natural Science Foundation of China (91538201, 61790554, 61971432, 61531020)

Abstract

Objective Maritime activities are quite important to human society as they influence economic and social development. Thus, maintaining marine safety is of great significance to promoting social stability. As the main vehicle of marine activities, numerous ships of varying types cruise the sea daily. The fine-grained classification of ships has become one of the basic technologies for marine surveillance. With the development of remote sensing technology, satellite optical remote sensing is becoming one of the main means for marine surveillance due to its wide coverage, low acquisition cost, reliability, and real-time monitoring. As a result, ship classification through optical remote sensing images has attracted the attention of researchers. For the image target recognition task in computer vision, deep learning-based methods outperform traditional methods based on handcrafted features due to the powerful representation ability of convolutional neural networks. Thus, it is natural to combine deep learning technology and ship classification task in optical remote sensing images. However, most deep learning-based algorithms are data-driven, which rely on well-annotated large-scale datasets. To date, problems of small amount of data and few target categories exist in public ship classification datasets with optical remote sensing, which cannot meet the requirements of studies on deep learning-based ship classification tasks, especially the fine-grained ship classification task. Method On the basis of the above analysis and requirements, a fine-grained ship collection named FGSC-23 with high-resolution optical remote sensing images is established in this study. There are a total of 4 052 instance chips and 23 categories of targets including 22-category ships and 1-category negative samples in FGSC-23. All the images are obtained from public images of Google Earth and GF-2 satellite, and the ship chips are split from these images. All the ships are labeled by human interpretation. Except for the category labels, the attributes of ship aspect ratio and the angle between the ship's central axis and image's horizontal axis are also annotated. To our knowledge, FGSC-23 contains more fine-grained categories of ships compared with the public datasets. Thus, it can be used for fine-grained ship classification research. Overall, FGSC-23 shares the properties of category diversity, imaging scene diversity, instance label diversity, and category imbalance. Result Experiments are conducted on the constructed FGSC-23 to test the classification accuracy of classical convolutional neural networks. FGSC-23 is divided into a testing set and training set with a ratio of about 1:4. Models including VGG16(Visual Geometry Group 16-layer net), ResNet50, Inception-v3, DenseNet121, MobileNet, and Xception are trained using the training set and tested on the testing set. The accuracy rate of each category and the overall accuracy rate are recorded, and the visualization of confusion matrixes of the classification results is also given. The overall accuracies of these models are 79.88%, 81.33%, 83.88%, 84.00%, 84.24%, and 87.76%, respectively. Besides these basic classification models, an optimizing model using the ship's attribute feature and enhanced multi-level local features is also tested on FGSC-23. A state-of-the-art classification performance is achieved as 93.58%. Conclusion The experimental results show that the constructed FGSC-23 can be used to verify the effectiveness of deep learning-based ship classification methods for optical remote sensing images. It is also helpful to promote the development of related researches.

Key words

optical remote sensing image; ship; fine-grained recognition; dataset; deep learning

0 引言

舰船作为海上活动的主要移动载体,是对海观测的重点目标,对其进行精确的型号鉴别在军民领域都有着迫切的应用需求。面对广阔的海洋空间,遥感观测可实现远距离非接触成像,具有覆盖范围广、获取成本低、不受国界和地理条件限制、可靠实时等优势。与其他遥感手段相比,光学遥感具有成像分辨率高的特点。因此,利用光学遥感图像实现海上舰船目标识别是目标识别领域的一个热点研究方向(Shi等,2018)。

图像目标识别的本质是建立图像特征与语义信息的对应关系。因此,特征提取与特征选择对图像目标识别结果至关重要。舰船目标识别任务可分为3个等级:第1级是元识别,即判断是船或非船;第2级是粗粒度识别,即判断是航母或非航母、是军舰或民船等较大的舰船范畴;第3级是精细识别,即判断具体舰种甚至舰级识别。识别等级越高,语义信息越复杂,识别难度也越大,但是在实际应用中更有价值。传统的遥感图像舰船目标识别技术主要包括特征提取、特征选择与分类等步骤。人为设计特征可分为视觉特征、统计特征、变换域特征等类别,其中,灰度特征、几何特征、纹理特征、尺度不变特征变换(scale-invariant feature transform,SIFT)(Lowe,2004)、局部二值算子(local binary pattern,LBP)(Beamer等,1998)和熵特征(Beamer等,1998)等都是常用的目标识别特征。有效的特征选择算法包括遗传算法(蒋定定等,2004)、模糊聚类(李娜和刘方,2012)和融合隶属度及D-S证据理论(石文君等,2009)等。人工设计特征在传统舰船目标识别中具有重要作用,但是表征能力相对有限。提取抽象高级和语义信息丰富的特征是深度学习技术的优势,将深度学习引入遥感图像目标分析任务已成为一种研究趋势。基于2维傅里叶变换的深度网络(2D-DFrFT based deep network,FDN)(Shi等,2018)、多特征表征CNN(multifeature ensemble with convolutional neural network,ME-CNN)(Shi等,2019)以及基于CNN的SAR(synthetic aperture radar)舰船识别算法(Li等,2018)等模型效果已在现有数据集上得到了验证。然而,目前的多数深度学习算法属于数据驱动算法,训练好一个模型往往需求大量的训练标注样本。因此,构建大规模、准确标注的遥感图像舰船目标识别数据集是开展相关研究的基础。

目前,针对光学遥感图像舰船目标识别的公开数据集主要有海面卫星图像(maritime satellite imagery,MASATI)(Gallego等,2018)、BT1000(bulk carriers and tankers)、CCT250(cargos, containers and tankers)、BCCT200(barges, cargos, containers and tankers)(Rainey和Stastny,2011)等,基本信息如表 1所示。其中,MASATI将海面场景卫星图像分成有船、无船两类,适用于第1级识别任务;BT1000将2 000幅卫星全色图像分为散装货船和油轮两类;CCT250将750幅舰船图像分为货船、集装箱船、油轮3类,BCCT200在CCT250的基础上增加了驳船类别。这些数据集中舰船目标类别相对较少,多数仅适合第1、第2级舰船识别任务,整体规模较小,不适合基于深度学习的舰船目标精细识别算法的研究。根据人工图像解译归纳的经验,舰船的精细识别对遥感图像分辨率有较高要求,通常分辨率优于4.5 m的遥感图像才可能实现精细识别。因此,本文构建了一个以高分辨率光学图像为主的舰船目标精细识别样本集,收集公开的谷歌地球图像和GF-2卫星全色图像,并将其中的舰船样本切片分离出来,借助他源信息辅助,通过人工解译方式对舰船类别进行标注,最后整理形成一个包含23类目标的精细识别舰船数据集(fine-grained ship collection,FGSC-23),并基于该数据集验证了一些经典的基于深度学习的识别算法效果。

表 1 公开遥感图舰船目标识别数据集
Table 1 Some public datasets for ship classification in optical remote sensing

下载CSV
名称 来源 图像类型 图像数量/幅 类别数 识别任务级别 样本数均衡 舰船方向
MASATI 微软Bing地图 彩色 6 212 2/7 level-1 不均衡 任意
BT1000 欧洲光—电侦察卫星 灰度 2 000 2 level-2 均衡 任意
CCT250 欧洲光—电侦察卫星 灰度 750 3 level-2 均衡 任意
BCCT200 欧洲光—电侦察卫星 灰度 800 4 level-2 均衡 任意

1 样本类别与标签

FGSC-23数据集的图像主要来源于公开的谷歌地球数据和GF-2卫星全色遥感图像,部分舰船切片(约1 600个)源于公开的HRSC2016舰船目标检测数据集(Liu等,2017),图像分辨率为0.4~2 m,共包含4 052个国外舰船切片。每个切片中,目标的中心与图像中心重合。样本分为23类,1类为状似舰船的非舰船目标,22类为舰船目标,包括集装箱船、散装货船、渔船和客船等,标注类别序号为0到22。各类别样本数量如表 2所示。可以看出,数据集中各个类别样本数目并不均衡。样本均保存为“.jpg”格式图像,图像中舰船目标分布呈任意方向。

表 2 FGSC-23各类别样本数目表
Table 2 The numbers of each category in FGSC-23

下载CSV
序号 数量 占比/% 序号 数量 占比/%
0 416 10.27 12 143 3.53
1 167 4.12 13 225 5.55
2 542 13.38 14 114 2.81
3 108 2.67 15 72 1.78
4 295 7.28 16 116 2.86
5 90 2.22 17 344 8.49
6 293 7.23 18 165 4.07
7 88 2.17 19 102 2.52
8 154 3.8 20 88 2.17
9 89 2.2 21 94 2.32
10 266 6.56 22 54 1.33
11 27 0.67 总数 4 052 100

FGSC-23数据集对样本切片均给出目标舰船的类别信息,并对长宽比和舰船方向(舰船中心轴线与水平轴的夹角)两个属性进行标注,如图 1所示。舰船中心指图像中目标的几何中心,长宽比为舰船长度与宽度之比,用[1,13]区间的数值(数据集中舰船最大长宽比为13)表示,方向角度用[0,180]区间的角度值表示,二者均取整处理。标签信息体现在图像名中。例如,某图像名为3_20225_8_91.jpg,3代表舰船类别标签,20225代表图像编号,8代表舰船长宽比,91表示舰船的方向角度。

图 1 FGSC-23数据集属性标签示意图
Fig. 1 The illustration of attribute labels in FGSC-23
((a) aspect ratio(L/W); (b) direction(θ))

2 数据集特点

FGSC-23数据集有以下特点:

1) 类别多样性。FGSC-23数据集对图像中的舰船样本进行精细分类。例如,将货船类别细分为集装箱船、散装货船、汽车运输船、油船和液化气体船等5个细粒度类别。与目前公开的舰船目标识别数据集相比,FGSC-23数据集是包含类别最多的高分辨率舰船图像。

2) 图像多样性。FGSC-23数据集包括全色图像和合成彩色图像,成像天气条件和光照条件多样,舰船背景有离岸和靠岸等,舰船方向不尽相同,图像分辨率介于0.4~2 m之间。数据多样性一定程度上增加了识别难度,有助于训练出泛化能力更强的识别模型。

3) 标签多样性。大部分目标识别数据集仅有目标的类别标签。FGSC-23数据集除了目标类别标签,给出了舰船长宽比和方向两个属性标签。因此,除了舰船目标多级识别任务,FGSC-23数据集可以用于目标长宽比预测和分布方向估计等多学习任务。本文主要对舰船目标精细识别任务进行分析。

4) 类别不均衡。从表 2可以看出,FGSC-23数据集存在样本不均衡问题。在现实世界中,各类舰船的数量也是不均衡的,一些特种舰船如医疗船的数量相对较少,图像更难获取,样本不均衡问题暂时不可避免,仍需后续改进。

5) 公开与非盈利性。FGSC-23数据集免费公开,仅可用于非盈利的相关学术研究(下载链接:https://pan.baidu.com/s/1 h_F7c-btLqhOxLT20XHW-Bg,提取码:n8ra)。

3 数据集验证与评估

为了对FGSC-23数据集进行验证评估,用其对在计算机视觉任务中有较大影响的VGG16(Visual Geometry Group 16-layer net)(Simonyan和Zisserman,2015)、ResNet50(He等,2016)、Inception-v3(Szegedy等,2016)、DenseNet121(Huang等,2017)、MobileNet(Howard等,2017)和Xception(Chollet,2017)等卷积神经网络(convolutional neural network,CNN)模型的识别精度进行测试。其中,VGG系列网络首次以小卷积核、深卷积层方式获得2014年ILSVRC(ImageNet large scale visual recognition challenge)竞赛第2名;ResNet系列通过加入残差学习机制,在大幅加深网络深度的前提下提高了识别效果;Inception模型的主要思想是以密集成分近似最优局部稀疏解,并使用了不同尺度的卷积核模块;DenseNet系列采用密集连接机制相互连接所有卷积层;MobileNet使用深度可分离卷积机制实现了轻量级CNN网络设计;Xception架构可视为ResNet模型与Inception模型的综合。

实验在一台64位计算机上完成,配置为8块i7-6970K型号CPU,1块NVIDIA RTX 2080Ti型号GPU,搭载Ubuntu 16.06系统,采用Python语言、Keras深度学习框架编写程序。模型均训练100回合(epoch),初始学习率设为0.000 1。

各类算法识别精度的评价指标采用舰船目标识别任务常用的各类别的准确率(accuracy rate,AR)、整体准确率(overall accuracy,OA)以及混淆矩阵(confusion matrix,CM)。其中,各类别的AR指正确样本占该类别总数的比例,OA指测试集整体正确分类的样本数与测试集总数的比值,CM是对分类结果更为详细的可视化描述。假设分类的类别为$S$,则CM是一个大小为$S$×$S$的矩阵,矩阵中元素$a_ij$表示实际为第$i$类别、但识别为第$j$类的比例。CM中对角线元素表示各类别正确分类的比例。此外,CM还能表示识别中的错误分类分布情况。

实验将FGSC-23数据集划分为训练集与测试集。划分原则为随机选取各类别图像的20 % 为实验测试集,其余为训练集。对类别11,由于数量太少,随机选取10幅作为测试数据,其余17幅为训练数据。为避免样本不均衡对模型训练产生不良影响,实验中通过数据增强将训练集中样本数量不足200幅的类别扩充到200幅,具体方法包括图像亮度改变(乘以[0.5,1.5]区间的随机数)、尺度扩张缩放(在[0.8,1.2]范围内进行)、随机裁剪和随机翻转等。利用划分好的训练集训练各模型,并在测试集上进行测试。各识别模型的测试结果和混淆矩阵CM可视化结果分别如表 3图 2所示,可以看出,各模型基本取得80 % 以上的整体识别率,Xception模型的OA值最高,为87.76 %。

表 3 不同CNN识别模型在FGSC-23数据集中的测试结果
Table 3 Test results of different CNN recognition models in FGSC-23 dataset  

下载CSV
/ %
指标 VGG16 ResNet50 Inception-v3 DenseNet121 MobileNet Xception
AR0 80.41 86.60 87.63 86.60 84.54 89.69
AR1 76.47 85.29 91.18 82.35 88.24 88.24
AR2 75.93 85.19 89.81 89.81 88.89 91.67
AR3 82.00 77.27 77.27 72.73 86.36 81.82
AR4 86.44 86.44 91.53 84.75 88.16 96.61
AR5 72.22 77.78 83.33 77.78 77.78 88.89
AR6 84.75 77.97 76.27 72.88 86.44 86.44
AR7 83.33 72.22 94.44 77.78 83.33 83.33
AR8 90.32 83.87 100.00 100.00 100.00 90.32
AR9 77.78 72.22 55.56 77.78 77.78 94.44
AR10 85.41 85.42 89.58 93.75 91.67 93.75
AR11 100.00 90.00 100.00 100.00 90.00 100.00
AR12 89.66 93.10 93.10 93.10 93.10 82.76
AR13 75.56 75.56 68.89 75.56 75.56 77.78
AR14 80.00 75.00 80.00 85.00 80.00 85.00
AR15 92.86 85.71 92.86 100.00 92.86 92.86
AR16 95.83 95.82 100.00 100.00 100.00 100.00
AR17 65.22 69.57 76.81 75.36 75.36 76.81
AR18 69.70 69.70 66.67 78.79 69.70 81.82
AR19 70.00 50.00 40.00 55.00 45.00 70.00
AR20 66.67 77.78 72.22 66.67 55.56 77.78
AR21 95.00 100.00 90.00 100.00 100.00 100.00
AR22 90.91 90.91 90.91 90.91 90.91 90.91
OA 79.88 81.33 83.88 84.00 84.24 87.76
注:加粗字体为每行最优结果,ARi代表类别i的准确率。
图 2 不同CNN模型混淆矩阵可视化结果
Fig. 2 Visualization results of confusion matrix for different CNN models
((a) VGG16; (b) ResNet50; (c) Inception-v3; (d) DenseNet121; (e) MobileNet; (f) Xception)

4 数据集扩展应用

对舰船目标精细识别任务来说,目标的全局属性特征以及局部特征都有着重要价值,舰船的属性特征可作为舰船精细识别的辅助信息提高识别精度。Zhang等人(2020)提出一种基于属性与局部特征优化的舰船目标精细识别模型,基本框架如图 3所示。该方法分别提取目标的全局特征以及局部特征。首先,在常规卷积神经网络架构中增加舰船目标属性预测分支,训练网络预测舰船长宽比属性,并将最后一个全连接层输出的特征向量视为包含大量属性信息的属性特征;其次,在深度卷积特征的基础上提取舰船目标多级局部特征,利用基于循环神经网络(recurrent neural network, RNN)的注意力模块对多级局部特征进行加权,引导网络增强重点区域特征并抑制非重点区域特征,得到增强的局部特征向量;最后,将属性特征与增强的多级局部特征串联,经过两个全连接层得到融合特征,利用融合特征实现舰船目标的精细识别。该模型中的两个模块可嵌入目前绝大多数CNN架构中,并可进行端到端地训练和测试。训练中设置交叉熵损失和作为分类损失,L1损失作为属性预测损失,整个模型的训练损失为分类损失与属性预测损失之和。

图 3 Zhang等人(2020)模型框架图
Fig. 3 The structure of the proposed model(Zhang et al., 2020))

实验以VGG16和ResNet50为基准模型,应用Zhang等人(2020)方法在FGSC-23数据集中对AR和OA指标进行测试,训练时应用FGSC-23数据集的目标长宽比属性标签。在测试集上的测试结果和对应两个模型的混淆矩阵可视化结果分别如表 4图 4所示。可以看出,Zhang等人(2020)方法将VGG16和ResNet50模型的目标识别精度分别提升至93.58 %和93.09 %。

表 4 使用Zhang等人(2020)方法的识别结果
Table 4 The recognition results of Zhang et al. (2020)  

下载CSV
/ %
指标 VGG16+Zhang等人(2020)方法 ResNet50+Zhang等人(2020)方法
AR0 98.97 97.94
AR1 94.12 94.12
AR2 99.07 98.15
AR3 90.91 77.27
AR4 94.92 96.61
AR5 83.33 94.44
AR6 88.98 89.83
AR7 88.89 83.33
AR8 93.55 100.00
AR9 83.33 88.89
AR10 95.83 95.83
AR11 100.00 100.00
AR12 96.55 100.00
AR13 86.67 91.11
AR14 100.00 85.00
AR15 92.86 100.00
AR16 100.00 100.00
AR17 91.30 89.86
AR18 87.88 84.85
AR19 70.00 70.00
AR20 88.89 83.33
AR21 100.00 95.00
AR22 90.91 90.91
OA 93.58 93.09
图 4 Zhang等人(2020)方法的混淆矩阵可视化结果
Fig. 4 Visualization results of confusion matrix by Zhang et al.(2020)
((a) VGG16+Zhang et al.(2020); (b)ResNet50+ Zhang et al.(2020))

实验结果表明,基准模型在应用舰船属性特征与增强的局部特征后,识别精度得到了有效提高。表明FGSC-23数据集中的属性标注对舰船精细识别任务是一个有效的信息补充。

5 结论

针对基于深度学习的遥感图像舰船目标精细识别需求,本文构建了一个高分辨率光学遥感图像舰船目标精细识别数据集FGSC-23,包含23类舰船子目标、4 052个舰船样本切片,每个目标均给出类别标签、长宽比标签以及分布方向标签。与现有光学遥感图像舰船目标识别数据集相比,FGSC-23数据集具有图像场景多样、类别区分精细和标注标签齐全等特点。通过VGG16、ResNet50、Inception-v3、DenseNet121、MobileNet和Xception等经典CNN识别模型在FGSC-23数据集上的识别精度测试,表明构建的数据集能够用于对目标识别模型的验证,而且FGSC-23数据集中的属性标签可作为类别标签的补充,进一步提升CNN模型在光学遥感图像舰船目标精细识别任务中的识别精度。但FGSC-23数据集存在类别不均衡问题,且规模整体相对较小。在未来工作中,将对数据集数量和类别作进一步扩充。

参考文献

  • Beamer L J, Carroll S F, Eisenberg D. 1998. The BPI/LBP family of proteins: a structural analysis of conserved regions. Protein Science, 7(4): 906-914 [DOI:10.1002/pro.5560070408]
  • Chollet F. 2017. Xception: deep learning with depthwise separable convolutions//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE: 1800-1807[DOI: 10.1109/CVPR.2017.195]
  • Gallego A J, Pertusa A, Gil P. 2018. Automatic ship classification from optical aerial images with convolutional neural networks. Remote Sensing, 10(4): #511 [DOI:10.3390/rs10040511]
  • He K M, Zhang X Y, Ren S Q and Sun J. 2016. Deep residual learning for image recognition//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas, USA: IEEE: 770-778[DOI: 10.1109/CVPR.2016.90]
  • Howard A G, Zhu M L, Chen B, Kalenichenko D, Wang W J, Weyand T, Andreetto M and Adam H. 2017. MobileNets: efficient convolutional neural networks for mobile vision applications[EB/OL]. [2020-05-17]. https://arxiv.org/pdf/1704.04861.pdf
  • Huang G, Liu Z, Van Der Maaten L and Weinberger K Q. 2017. Densely connected convolutional networks//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE: 2261-2269[DOI: 10.1109/CVPR.2017.243]
  • Jiang D D, Xu Z L, Li K D. 2004. Surface ship target recognition research based on SGA. Engineering Science, 6(8): 79-81 (蒋定定, 许兆林, 李开端. 2004. 应用基本遗传算法进行水面舰船目标识别研究. 中国工程科学, 6(8): 79-81) [DOI:10.3969/j.issn.1009-1742.2004.08.015]
  • Li J W, Qu C W, Peng S J. 2018. Ship classification for unbalanced SAR dataset based on convolutional neural network. Journal of Applied Remote Sensing, 12(3): #035010 [DOI:10.1117/1.JRS.12.035010]
  • Li N, Liu F. 2012. A SAR target recognition method based on view-aspects partitioned by fuzzy clustering. Acta Electronica Sinica, 40(2): 394-399 (李娜, 刘方. 2012. 基于模糊聚类视区划分的SAR目标识别方法. 电子学报, 40(2): 394-399) [DOI:10.3969/j.issn.0372-2112.2012.02.030]
  • Liu Z K, Yuan L and Weng L B. 2017. A high resolution optical satellite image dataset for ship recognition and some new baselines//Proceedings of the 6th International Conference on Pattern Recognition Applications and Methods (ICPRAM). Porto, Portugal: SCITEPRESS-Science and Technology Pubications[DOI: 10.5220/0006120603240331]
  • Lowe D G. 2004. Distinctive image features from scale-invariant keypoints. International Journal of Computer Vision, 60(2): 91-110 [DOI:10.1023/B:VISI.0000029664.99615.94]
  • Rainey K and Stastny J. 2011. Object recognition in ocean imagery using feature selection and compressive sensing//Proceedings of 2011 IEEE Applied Imagery Pattern Recognition Workshop (AIPR). Washington, USA: IEEE: 1-6[DOI: 10.1109/AIPR.2011.6176352]
  • Shi Q Q, Li W and Tao R. 2018. 2D-DFrFT based deep network for ship classi? cation in remote sensing imagery//Proceedings of the 10th IAPR Workshop on Pattern Recognition in Remote Sensing (PRRS). Beijing, China: IEEE: 1-5[DOI: 10.1109/PRRS.2018.8486413]
  • Shi Q Q, Li W, Tao R, Sun X, Gao L R. 2019. Ship classification based on multifeature ensemble with convolutional neural network. Remote Sensing, 11(4): #419 [DOI:10.3390/rs11040419]
  • Shi W J, Wang X P, Wang D W. 2009. Alongshore ship detection based on D-S evidence theory. Electronics Optics and Control, 16(11): 87-91 (石文君, 汪小平, 王登位. 2009. 基于D-S证据理论的近岸舰船目标识别. 电光与控制, 16(11): 87-91) [DOI:10.3969/j.issn.1671-637X.2009.11.024]
  • Simonyan K and Zisserman A. 2015. Very deep convolutional networks for large-scale image recognition[EB/OL]. [2020-05-17]. https://arxiv.org/pdf/1409.1556v6.pdf
  • Szegedy C, Vanhoucke V, Ioffe S, Shlens J and Wojna Z. 2016. Rethinking the inception architecture for computer vision//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA: IEEE: 2818-2826[DOI: 10.1109/CVPR.2016.308]
  • Zhang X H, Lv Y F, Yao L B, Xiong W, Fu C L. 2020. A new benchmark and an attribute-guided multilevel feature representation network for fine-grained ship classification in optical remote sensing images. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 13: 1271-1285 [DOI:10.1109/JSTARS.2020.2981686]