Print

发布时间: 2020-09-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.200288
2020 | Volume 25 | Number 9




    学者观点    




  <<上一篇 




  下一篇>> 





遥感边缘智能技术研究进展及挑战
expand article info 孙显1,2,3, 梁伟1,2,3,4, 刁文辉1,2, 曹志颖1,2,3,4, 冯瑛超1,2,3,4, 王冰1,2,3,4, 付琨1,2,3
1. 中国科学院空天信息创新研究院, 北京 100094;
2. 中国科学院网络信息体系重点实验室, 北京 100190;
3. 中国科学院大学, 北京 100190;
4. 中国科学院大学电子电气与通信工程学院, 北京 100190

摘要

随着航空航天、遥感和通信等技术的快速发展,5G等高效通信技术的革新,遥感边缘智能(edge intelligence)成为当下备受关注的研究课题。遥感边缘智能技术通过将遥感数据处理与分析技术前置实现,在近数据源的位置进行高效地遥感信息分析和决策,在卫星在轨处理解译、无人机动态实时跟踪、大规模城市环境重建和无人驾驶识别规划等应用场景中起着至关重要的作用。本文对边缘智能在遥感数据解译中的研究现状进行了归纳总结,介绍了目前遥感智能算法模型在边缘设备进行部署应用中面临的主要问题,即数据样本的限制、计算资源的限制以及灾难性遗忘问题等。针对问题具体阐述了解决思路和主要技术途径,包括小样本情况下的泛化学习方法,详细介绍了样本生成和知识复用两种解决思路;轻量化模型的设计与训练,分析了模型剪枝和量化等方法以及基于知识蒸馏的训练框架;面向多任务的持续学习方法,对比了样本数据重现和模型结构扩展两种原理。同时,还结合了典型的遥感边缘智能应用,对代表性算法的优势和不足进行了深层剖析。最后介绍了遥感边缘智能面临的挑战,以及未来技术的主要发展方向。

关键词

遥感数据; 边缘智能; 小样本学习; 模型轻量化; 持续学习

Progress and challenges of remote sensing edge intelligence technology
expand article info Sun Xian1,2,3, Liang Wei1,2,3,4, Diao Wenhui1,2, Cao Zhiying1,2,3,4, Feng Yingchao1,2,3,4, Wang Bing1,2,3,4, Fu Kun1,2,3
1. Aerospace Information Research Institute, Chinese Academy of Sciences, Beijing 100094, China;
2. Key Laboratory of Network Information System Technology(NIST), Chinese Academy of Sciences, Beijing 100190, China;
3. University of Chinese Academy of Sciences, Beijing 100190, China;
4. School of Electronic, Electrical and Communication Engineering, University of Chinese Academy of Sciences, Beijing 100190, China
Supported by: National Natural Science Foundation of China (41701508, 61725105)

Abstract

Remote sensing edge intelligence technology has become an important research topic due to the rapid development of aerospace, remote sensing, and communication as well as the innovation of 5G and other efficient communication technologies. Remote sensing edge intelligence technology aims to achieve the front of intelligent application and perform efficient information analysis and decision making at a location close to the data source. This technology can be effectively used in satellite on-orbit processing and interpretation, unmanned aerial vehicle(UAV) dynamic real-time tracking, large-scale urban environment reconstruction, automatic driving recognition planning, and other scenarios to saving a considerable amount of transmission bandwidth, processing time, and resource consumption and achieve fast, accurate, and compact design of intelligent technology algorithm. We summarize the research status of edge intelligence in remote sensing in this study. First, we discuss the problems faced by the current remote sensing field in deployment of applications on edge devices, namely, 1) limitation of number of samples: compared with visual scene images, remote sensing data continue to be a problem of small samples. Remote sensing scenes contain a large number of complex backgrounds and target categories, but the actual number of effective samples is relatively small. Newly emerged and modified targets typically face serious problems of uneven distribution of categories. 2) Limitation of computing resources: coverage area of remote sensing images that can generally reach several or even hundreds of kilometers and data size of a single image that can reach up to several hundred GBs require a large amount of storage space for edge devices. In addition, the increasing complexity of deep learning models increases the requirements for computing power resources. Therefore, remote sensing edge intelligence must solve the contradiction between model complexity and power consumption on edge devices. 3) Catastrophic forgetting: new tasks and categories continue to emerge in the analysis of remote sensing data. Existing algorithms have poor generalization ability for continuous input data. Hence, continuous learning must also be solved to maintain high accuracy and high performance of algorithms. We then introduce solutions and primary technical approaches to related problems, including generalized learning in the case of small samples, design and training strategy of the lightweight model, and continuous learning for multitasks. 1) Generalized learning in the case of small samples: we summarize existing solutions into two categories, namely, combine characteristics of remote sensing images to expand the sample intelligently and meet data requirements of the model training as well as introduce priority knowledge from the perspective of knowledge reuse through different learning strategies, such as transfer learning, meta- learning, and metric learning, to assist the model in learning new categories and reduce the model's need for remote sensing data. 2) Design and training strategy of the lightweight model: the former introduces convolution calculation unit design, artificial network design, automatic design, model pruning and quantification methods, while the latter compares training frameworks based on knowledge distillation and traditional training methods. 3) Continuous learning for multitasks: the first category is based on the reproduction of sample data. The model plays back stored samples while learning new tasks by storing samples of previous tasks or applying a generated model to generate pseudo samples to balance the training data of different tasks and reduce the problem of catastrophic forgetting. The second category is based on the method of model structure expansion. The model is divided into subsets dedicated to each task by constraining parameter update strategies or isolating model parameters. The method of model structure expansion improves the task adaptability of the model and avoids catastrophic forgetting without relying on historical data. Furthermore, combined with typical applications of remote sensing edge intelligence technology, we analyze the advantages and disadvantages of representative algorithms. Finally, we discuss challenges faced by remote sensing edge intelligence technology and future directions of this study. Further research is required in remote sensing edge intelligence technology to improve its depth and breadth of application.

Key words

remote sensing data; edge intelligence; few-shot learning; lightweight model; continuous learning

0 引言

随着对地观测技术、计算机技术和人工智能技术等的发展,遥感大数据时代已经到来。特别是5G等通信技术的革新,使得万物智能互联逐渐成为可能。在此情况下,发展遥感边缘智能的应用技术,将遥感数据处理与分析技术前置,应用于卫星在轨处理解译、无人机动态实时跟踪、大规模城市环境重建和无人驾驶识别规划等场景中,无疑可以节省大量的传输带宽、处理时间和资源消耗。因此,如何设计更快、更准、更小型化的智能技术算法模型,在遥感领域已受到越来越多的重视。

深度学习凭借其强大的特征自学习和应用泛化能力,在遥感数据智能解译领域已得到大量研究,众多基于深度神经网络模型的遥感数据智能解译模型被相继提出,并获得推广(Gao等,2018Yan等,2018Wang等,2020a)。然而,由于深度学习模型复杂度高,同时依赖海量的样本数据驱动,尤其是遥感分析任务中数据量大且时效性要求高,使得基于深度学习的遥感智能应用普遍需要依赖硬件系统强大的计算能力。而现有实用级的基于深度学习的智能系统大多部署在具有强大计算能力的云计算数据中心。因此,如何将深度学习模型高效地部署在资源受限的终端设备,从而使得在低功耗的环境下进行智能前移是目前遥感智能技术应用中极具挑战性的难题。

针对上述问题,边缘智能(edge intelligence,EI)技术提供了一种新的解决模式。边缘智能是结合人工智能和边缘计算的新兴领域,充分利用并整合云、边缘和终端设备,达到任务全局性能最优的目标(Zhou等,2019)。具体地,通过协同终端设备与边缘服务器,整合二者的计算本地性与强计算能力的互补性优势,达到显著降低深度学习模型训练和预测等的延迟与能耗的目的,从而具备根据设备类型和场景分配智能的能力,让智能在云和边缘之间流动。现阶段该技术在计算资源的分配与协调方面已取得初步进展,然而,其核心科学问题在于:如何在资源受限的边缘端高效运行部署深度学习模型,除了边缘服务器与终端设备间的协同调度(即资源重构),还包括边缘设备深度学习模型优化(即模型压缩)和适用于边缘设备的样本迁移学习(即小样本学习)等问题。

综上所述,面对实际应用中瞬息万变的环境以及边缘应用场景中对目标快速发现、精准识别和协同分析的应用需求,基于遥感智能解译技术和边缘智能技术的研究成果,构建面向新型应用场景支撑高效信息获取和决策的遥感边缘智能技术具有重要的研究意义。目前遥感边缘智能技术的研究主要面临以下3个难题:

1) 样本数量限制。相比于视觉场景图像,遥感数据本质上存在着小样本的问题。遥感场景包含大量复杂背景和目标类别,但实际有效样本数量较少。尤其是新出现、新改装的目标,往往面临着严重的类别分布不均衡问题。

2) 计算资源限制。遥感图像数据覆盖区域一般可达数公里甚至数百公里,单幅数据量最大可达数百吉字节(Gigabyte,GB),给边缘设备的存储空间带来不小压力。此外随着深度学习模型越来越复杂,通常要求较高的算力资源支持,在边缘端就需要解决模型复杂度和功耗间的矛盾。

3) 灾难性遗忘问题。遥感数据分析中,新任务、新类别层出不穷,现有的算法面向持续输入的数据往往泛化能力差,存在灾难性遗忘问题,如何进行持续学习,以保持模型算法的高精度和高性能也成为亟待解决的挑战。

针对上述问题,目前国内外相关领域已经开展了部分方法研究与技术攻关,如图 1所示,在利用小样本学习解决边缘端受样本限制问题,持续学习解决边缘端灾难性遗忘问题,以及通过轻量化模型设计、模型剪枝、模型压缩和知识蒸馏等方法解决边缘端受计算资源限制问题等方面取得了一系列成果。本文对上述边缘智能算法的理论及其在遥感数据解译中的研究现状进行了归纳总结,同时针对遥感边缘智能的典型应用进行了介绍,以期推进边缘智能技术在遥感应用领域的发展和应用。

图 1 遥感边缘智能技术研究相关技术路线图
Fig. 1 Related technologies of edge intelligence technology

1 小样本情况下的泛化学习

深度学习技术所带来的算法性能提升是在大量训练样本提供的数据支撑下获取的。相较于动辄上万的视觉图像,在遥感边缘智能应用场景中,深度学习算法通常面临着小样本问题:对于出现频率较低的目标,实际往往只能获取几幅到几十幅图像的样本数据。以基于遥感图像的飞机目标识别任务为例,部分型号的飞机生产和保有的数量较少,因此可获取的图像样本数量十分有限,而现有的飞机型号识别算法缺乏小样本条件下的学习能力,实际中往往陷入严重的过拟合问题,导致在实际应用中的识别效果较差。针对边缘终端上的小样本问题对于遥感边缘智能技术发展的约束,探索适用于遥感数据解译需求的小样本学习方法成为学界研究重点。如图 2所示,现有的解决思路可以归为两大类:一类是结合遥感图像特性进行样本智能化扩充,从而满足模型训练时的数据量需求;另一类则是从知识复用的角度出发,按照迁移学习、元学习和度量学习等策略引入先验知识,辅助在新地物类别上的学习,从而实现降低算法对遥感样本数据量需求的目的,完成小样本遥感智能解译。如表 1所示,本节将从样本生成以及知识复用两个角度介绍相关的算法原理和技术应用。

图 2 小样本泛化学习方法与典型应用场景总结
Fig. 2 A taxonomy of few-shot learning methods and typical applications

表 1 不同小样本方法总结
Table 1 Comparison of different few-shot learning methods

下载CSV
原理 方法 优点 缺点 典型应用
样本生成 传统数据扩充方法 扩充速度快,扩充效率高 需要结合专家经验选择具体扩充方法;扩充样本信息丰度有限 Yu等人(2017)Wang等人(2019c)
基于仿真技术的样本生成方法 可以按需自定义设置图像内容,并自动化生成图像的标注信息 仿真建模需要一定的专业知识和时间投入 Kusk等人(2016)Yan等人(2019)Kong等人(2020)
基于深度生成模型的样本生成方法 样本生成自动化程度高 深度生成模型训练中的不稳定性问题 Ma等人(2019)Zhang等人(2018b)
知识复用 迁移学习 操作简单,学习精度高 迁移的数据集之间需要存在较强的相关性 Marmanis等人(2016)Rostami等人(2019)
基于度量学习的小样本学习方法 对于各类小样本学习任务的通用性较强,无需再训练 双源输入型结构对终端计算、存储性能存在一定需求 Rao等人(2019)Zhang等人(2019a)
基于元学习的小样本学习方法 在各类小样本学习任务上通用性较强,学习速度快 模型的泛化性能依赖于类别信息丰富的辅助数据集作为支撑 Zhai等人(2019)Alajaji和Alhichri(2020)

1.1 样本生成

基于样本生成的小样本学习方法研究如何自动化地进行高质量遥感数据的生成,利用生成样本集满足深度学习算法中对数据量的训练需求。传统的样本生成方法是通过对数据施加平移、旋转和滤波等操作进行的,然而这种数据扩充方式往往需要结合专家经验手动设计筛选数据扩充方法,并且不能对地物目标生成新的语义信息导致生成的地物信息丰度有限。针对传统样本生成方法的上述缺陷,基于仿真技术的样本生成方法和基于深度生成模型的样本生成方法应运而生,并广泛应用于多种遥感图像解译任务中的样本智能化扩充,对满足遥感智能解译算法的训练数据需求,实现小样本学习具有重要意义。下面将详细介绍两类样本生成方法的原理和典型应用。

1.1.1 基于仿真技术的样本生成方法

基于仿真技术的样本生成方法旨在借助仿真建模平台对遥感解译任务中的具体地物目标或地物场景进行模拟构建并进行仿真数据生成。这种样本生成方法的优势在于可以免去传统遥感图像数据的采集成本,并按照解译任务中的具体需求灵活调整仿真图像中的地物信息和成像信息(光照度、高度和视场等),在进行高质量仿真数据生成的同时自动化地完成数据标注任务。基于仿真样本数据,结合适当的迁移学习技术,可以有效应对小样本条件下的遥感智能解译任务,对于遥感边缘智能技术发展具有重要意义。

基于仿真技术的样本生成方法在遥感智能应用中的研究主要集中在合成孔径雷达(synthetic aperture radar, SAR)图像和可见光图像这两类数据的解译任务中。在SAR图像地物目标识别任务上,Kusk等人(2016)Malmgren-Hansen等人(2017)结合计算机辅助设计(computer aided design,CAD)建模技术和SAR仿真成像系统提出了一种用于SAR数据仿真的框架,利用3D CAD建模文件对特定地物目标进行模型构建,结合仿真系统对SAR成像引入噪声、地形信息进行数据仿真。在可见光图像的地物目标检测任务中,考虑到遥感图像中的高分辨率和复杂背景特性,为了节约建模成本, 一种较为常见的技术方案是基于实例级别对检测目标进行建模仿真。Yan等人(2019)则基于点云数据在3维空间上进行船舶模型构建,并利用正射投影变换将模型从模型空间投影至海岸遥感图像上进行仿真数据生成。为了进一步提升仿真对象和遥感背景间的适配性,Wang等人(2020a)进一步提出利用CycleGAN(Zhu等,2017b)对仿真的飞机目标和背景进行自适应调整,设计了一种用于目标检测任务的建模仿真数据生成框架。在地物要素分类任务上,Kong等人(2020)利用CityEngine仿真平台的批量建模特性,首次探索在广域范围内进行城市级别的场景建模,并发布了一套用于建筑物分割的遥感仿真数据集Synthinel-1。

1.1.2 基于深度生成模型的样本生成方法

另一类样本生成策略是利用深度生成模型进行数据扩充。深度生成模型利用深层次网络逼近遥感图像数据的分布特性,对数据的联合统计分布特性进行深度建模学习,并利用建模模型在特征层面或图像层面进行新样本生成。典型的深度生成模型包括玻尔兹曼机、变分编码器(variational autoencoder, VAE)和生成对抗网络(generative adversarial network,GAN)等,现阶段遥感领域的基于深度生成模型的样本生成算法是基于GAN所展开的。Zhu等人(2018)分别在光谱特征、空谱特征上构建了GAN分类模型,并将生成器所生成的伪样本用于高光谱分类任务的训练。Zhang等人(2018b)利用条件生成网络对高分辨率图像进行合成用于飞机型号识别的学习。Zhan等人(2018)基于1D GAN提出了一种半监督学习方法用于高光谱图像分类。Ma等人(2019)通过联合约束生成器和判别器的损失函数来保证生成样本的丰度和真实度,并通过实验验证了利用GAN生成伪样本推广到各类模型上均具有普遍意义上的促进作用。

1.2 知识复用

基于知识复用的小样本学习方法研究如何自动化地对既有数据域中的相关知识进行提炼和建模,并将这些知识推广到目标数据域中,以期提升模型在样本较少的目标数据域上的泛化精度。如表 1所示,根据源数据域与目标数据域的关系,知识复用方法可大致分为迁移学习、度量学习和元学习3类。下面将详细介绍3类方法的原理和典型应用。

1.2.1 迁移学习

迁移学习研究利用数据、任务和模型之间的相似性,将在源域上习得的知识在目标域上进行复用(Pan和Yang,2010),以期降低模型在目标域上的数据依赖需求,满足遥感边缘智能应用中的小样本解译需求。按照具体复用策略可以划分为基于模型重用的迁移学习和基于特征映射的迁移学习。

基于模型重用的迁移学习主要研究在源域上预训练好的模型的复用策略,通过对模型的结构和参数的选择性利用,在假设空间上逼近最优解来降低训练样本量需求,其中最典型的方法是微调技术(finetuning)。Marmanis等人(2016)Chen等人(2018)分别验证了视觉场景数据集ImageNet(Deng等,2009)上的预训练模型用于可见光遥感图像地物场景分类任务、飞机检测任务在少量训练样本条件下的实验效果。然而这种基于ImageNet上的预训练模型的复用范围仅限于应用在RGB波段的可见光遥感图像,对于多光谱图像、SAR图像上的小样本解译任务,缺乏适宜的模型复用来源和标注信息充足的源域数据。基于上述问题,Kemker等人(2018)提出结合基于仿真技术的样本生成方法和迁移学习方法,利用数字成像和遥感影像生成(digital imaging and remote sensing image generation, DIRSIG)建模系统进行遥感场景建模并进行高光谱数据仿真,将高光谱仿真数据作为源域数据进行基于模型复用的迁移学习。Huang等人(2017b)从另一角度出发,提出基于无标注的源域数据进行级联自编码器无监督学习,并以此作为初始化参数用于SAR图像小样本条件下的分类任务,同样取得了一定的提升效果。

基于特征映射的迁移学习研究一种域间的最优映射空间:即对于每一类地物目标,期望它在源域的特征和在目标域上的特征在映射空间上具有较高的相似性,同时对学习任务具有较强的判别性。Zhou和Prasad(2018)设计了一种深度特征对齐网络,将源域和目标域上的高光谱图像输入深度神经网络,并将网络各层提取到的特征映射至一子空间内进行分布对齐,约束网络专注于学习对源域和目标域所通用的特征,并通过源域上先验知识的引入有效提升了模型在目标域上的分割精度。Luo和Ma(2018)提出对类内分布施加最大均值差异(max mean discrepancy,MMD)约束进行域间特征对齐来用于高光谱分割任务。这类算法的缺陷在于往往需要人为筛选设置特征对齐的层次和特征对齐的度量标准,针对这一问题,许夙晖等人(2017)提出利用对抗学习技术,在分类器的基础上增设域分类器用于衡量特征在源域和目标域上的二分类,通过二者的对抗学习提升网络的泛化能力和特征提取能力,在小样本遥感图像无监督分类任务上取得了较好的分类结果。

1.2.2 度量学习

度量学习是一种直接基于样本间距离度量的方法,旨在建立对象之间的相似性和相异性关系(Kaya和Bilge,2019)。基于度量学习的小样本学习方法通过应用卷积神经网络学习一系列映射函数,使得输入的样本对在映射后的特征空间上具有类内相似度高和类间相似度低的特性。在测试阶段通过在映射后的特征空间上对测试数据与各类标注数据进行相似度度量,作为测试数据在各类地物目标上的分类置信度分值。

基于度量学习的小样本学习方法的优势主要体现在:学习模型无需二次训练即可推广至各类地物目标上的解译任务进行应用,具备较强的通用性。结合高光谱图像特征,Liu等人(2018)利用3D卷积神经网络(three dimensions convolutional neural networks, 3D-CNN)(Ji等,2013)对度量空间进行参数化建模,基于欧氏距离准则对测试样本特征与各类样本特征按照最近邻分类准则进行像素级的比对,完成高光谱图像在小样本条件下的地物要素分类任务。Tang等人(2020)则进一步基于空间邻域的相关性对高光谱图像进行局部模式编码来生成空谱特征,并设计了用于提取类内原型向量的算法来对空谱度量空间进行高效率学习。基于度量学习的小样本学习方法往往需要人为设计选择适宜的度量准则用于特征间的最近邻分类,例如欧氏距离、余弦相似度和曼哈顿距离等,针对这一问题,Rao等人(2019)设计了一种自适应选择距离度量准则的分类器,通过特征拼接技术和1×1卷积操作的参数化分类结构直接输出测试样本在各类地物标签上的置信度分数,提升了小样本学习算法的自动化程度并在高光谱地物要素分类任务上取得了较优的分类结果。Yang等人(2020)则从度量对象上进行改进,提出应用局部描述子替代全局描述子作为新的度量对象来提供更加多样化的模态信息,并设计了一种中心损失函数用于强化类内样本特征的相似度,避免在局部描述子上的误分类问题。

1.2.3 元学习

元学习是一种研究如何通过学习经验的积累来提升模型学习效率的学习方法(Vilalta和Drissi,2002),其目的是使得模型能够根据当前学习任务灵活地自适应调整,即学会学习。基于元学习的小样本学习方法通过在大批量的小样本学习任务上对模型进行训练,期望模型能够完成通用知识积累,获得与人类相似的触类旁通的学习能力,面对新的地物类别能够以较少的样本实现快速学习。元学习将模型划分为元学习器和基学习器,利用元学习器在各类地物目标上的小样本学习进行通用性特征提取,利用基学习器具体对每一类地物目标进行特征挖掘,通过在大量类别上的小样本学习,获得具有强泛化能力的元模型,可以快速学习满足各类地物目标的小样本解译需求。

基于元学习的小样本学习方法在遥感边缘智能技术的应用前景十分广阔,训练好的元模型可以同时用于多类地物目标上的解译任务,同时其快速学习能力也极大地契合了边缘终端上的实时解译需求。作为一种跨模型应用的算法,可以推广到分类、回归和强化学习等各种类型的学习算法中。Zhai等人(2019)提出将元学习方法MAML(model-agnostic meta-learning)(Finn等,2017)用于遥感领域的地物场景分类实现终身学习,可以有效解决模型在小样本条件下的学习问题并对多源遥感图像的域间漂移问题具备较好的泛化性能。Alajaji和Alhichri(2020)则探究了元学习算法在地物场景分类应用上对于未知地物类别的小样本学习效果,通过元学习的训练过程获得一元学习模型,并验证该元学习模型对于各类地物场景下的小样本学习任务具备较强的通用性和快速学习能力。另外,元学习用于遥感边缘智能也存在一些应用难点,即元学习模型的训练依赖于类别信息足够丰富的数据集,然而现有的遥感图像数据集中标注的地物目标类别数量有限,限制了元学习算法泛化性能的获取,以及元学习算法学习过程中的学习效率偏低问题。

2 轻量化模型设计与训练

随着遥感大数据时代的到来,遥感数据的数量和质量得到了极大提升,因此基于数据驱动的深度学习算法得到了广泛应用,并取得了显著成就。与自然场景图像相比,遥感图像具有图幅广阔、目标要素繁杂以及图像模态类型多样等特点,需要更复杂的深度学习算法模型捕获图像特征完成相应的解译任务。例如,遥感图像分类任务中,由于遥感要素目标(特殊建筑、工业用地等)所占像素较多,因此需要输入更大尺寸的图像以覆盖目标要素,需要更深的模型提取目标要素的分类信息;在遥感图像地物要素提取任务和目标检测任务中,遥感场景中不同目标存在较大的尺度差异,因此需要额外设计相应的特征融合网络来适应尺度分布更广的遥感目标,增加了额外的参数量,降低了算法处理速度。此外,遥感图像处理通常面对多种模态的图像数据,如SAR图像、高光谱图像和数字表面模型(digital surface model, DSM)图像等。在处理大范围复杂场景的遥感图像时通常需要借助多种模态的数据进行算法和模型设计,多通道模态数据的输入一方面直接增加了网络参数量,另一方面往往需要多种模型协同进行,增大了模型的规模。基于深度学习的遥感智能解译技术面临着模型参数量高、规模庞大以及算法效率无法应对海量的遥感数据和高时效性任务需求的问题。针对上述问题和挑战,本节分别从轻量化网络模型设计以及轻量化网络模型训练两个方面出发介绍相关的算法原理和遥感边缘智能技术应用。

2.1 轻量化模型设计

海量的遥感图像和日益提高的遥感图像分辨率对深度学习算法的性能要求越来越高。随着图幅尺寸的增加、数据量的扩增,早期出现的一些卷积神经网络,例如LeNet(LeCun等,1998)和AlexNet(Krizhevsky等,2012)等浅层卷积神经网络逐渐难以满足工业界对算法性能指标的要求。因此,诞生了一大批网络深度更深,性能更加卓越的卷积神经网络,如VGG(visual geometry graph)(Simonyan和Zisserman,2015)、GoogLeNet(Szegedy等,2015)、ResNet(He等,2016)和DenseNet(Huang等,2017a)等。受限于卷积神经网络局部连接的属性,为了获取更好的特征表达能力,模型需要不断增加网络的深度,从最初仅有7层的AlexNet到16层的VGG,再到101层的ResNet,甚至动辄成百上千层的DenseNet。

随着遥感图像分辨率的提升、网络深度的增加和参数的堆叠带来性能的提升,与之相伴的是庞大的模型、巨量的参数和缓慢的算法效率。只有解决了深度学习在存储、功耗和速度上的问题,才能让深度学习走出实验室,走向工业界,从而更广泛地应用到边缘计算设备上,推动边缘智能技术的发展。

面对现阶段存在的问题和挑战,轻量化模型设计成为重要的解决途径。轻量化模型设计是在算法设计阶段尽可能保留算法高性能前提下,减少模型参数、提高算法运算速度的一种设计理念。如图 3表 2所示,轻量化模型设计方法通常可分为两大类,第1类是在模型训练前进行轻量化模型设计的方法,这类方法通常结合遥感图像图幅尺寸广阔、分辨率高、模态多样的特点进行设计,从而提高模型处理大尺寸多通道遥感数据的速度。常见的有卷积计算单元设计方法、人工网络设计方法和自动设计方法。第2类轻量化模型设计方法是在模型初次设计后或模型训练完成后,再进行进一步的设计优化。这类方法通常针对遥感图像场景中存在的冗余特征和遥感图像高比特位的数据表示方式进行设计,从而减少冗余的特征和数据表示,进一步提高算法响应速度。常见的方法有模型剪枝和模型量化方法。下面是几种常见轻量化模型设计方法的介绍。

图 3 轻量化模型设计方法与典型应用场景总结
Fig. 3 A taxonomy of lightweight model designing methods and typical applications

表 2 轻量化模型设计总结
Table 2 Lightweight model design method

下载CSV
原理 方法 优点 缺点 实现方式 运用领域 典型应用
模型
设计
轻量化
模型
较好地平衡模型规模和模型精度,对性能影响较小 依赖人工先验知识或大规模机器搜索 卷积计算单元轻量化 图像分类 Krizhevsky等人(2012)Chollet(2017)Zhang等人(2018a)Ma等人(2018)
图像地物要素提取 Valada等人(2020)Cao等人(2019)Wang等人(2019b)
SAR图像船舶检测 Zhang等人(2019b)
人工设计轻量化模型 图像分类 Howard等人(2017)Sandler等人(2018)Zhang等人(2018a)Ma等人(2018)Iandola等人(2016)
图像建筑物提取 Ji等人(2018)Ma等人(2020)
图像目标检测 Li等人(2019)
自动设计轻量化模型 图像分类 Zoph等人(2018)Tan等人(2018)
图像语义分割 Howard等人(2019)
模型
优化
模型
剪枝
灵活地从多
种粒度对模
型空间复杂
度进行缩减,
不依赖于硬
件环境
训练过程复
杂;过度剪枝
可能导致模
型的特征表
达能力损失
细粒度剪枝 图像分类 Guo等人(2016)Hassibi和Stork(1993)LeCun等人(1989)
核内剪枝 图像分类 Mao等人(2017)
粗粒度剪枝 图像分类 He等人(2017)Liu等人(2017)Luo等人(2017)
图像目标检测 王生生等人(2019a)
层级剪枝 图像分类 Rueda等人(2017)Li等人(2017)
模型
量化
适用于所有模型,模型压缩程度较高 需要依赖相应的底层硬件支持 二值量化 图像分类 Hubara等人(2016)Rastegari等人(2016)Lin等人(2017)
三值量化 图像分类 Zhu等人(2017a)
多值量化 图像分类 Jacob等人(2018)

2.1.1 轻量化模型

轻量化模型的设计目的在于通过优化卷积神经网络计算方式,减少处理大图幅多通道的遥感图像的模型所包含的参数量。轻量化模型设计可以分为卷积计算单元轻量化设计方法、模型轻量化人工设计方法和模型轻量化自动设计方法。下面将对其中经典网络的设计理念进行介绍。

2.1.1.1 卷积计算单元轻量化设计方法

卷积计算单元轻量化设计是在卷积运算等基础操作层面上进行的轻量化设计,其中最为经典的方法包括分组卷积(group convolution)(Krizhevsky等,2012)、深度可分卷积(depthwise separable convolution)(Chollet,2017)和卷积通道混洗操作(channel shuffle)(Zhang等,2018a)。其中,分组卷积主要通过解耦通道维度的连接达到减少计算和降低参数的效果;深度可分卷积将传统卷积进一步解耦为逐深度卷积(depthwise convolution)和逐点卷积(pointwise convolution)两步卷积操作,进一步减少模型参数量;而卷积通道混洗通过对特征的重组(reshape)和转置(transpose)达到组间特征重排,在没有引入新的参数情况下,提升了分组卷积的性能。

卷积计算单元轻量化设计方法在遥感智能技术领域的应用十分广泛,并且作为卷积操作级别的基础轻量化方法在多种遥感图像解译算法的边缘智能化进展中发挥着重要作用。针对遥感图像的卷积计算单元轻量化设计主要面向目标多尺度、模态多样化和图幅分辨率高等几个遥感图像目标的典型特征。

Valada等人(2020)利用分组卷积的设计思想提出了一种高效的带孔空间金字塔池化结构,用于高分辨遥感图像地物要素提取。提出的方法对输入特征图在通道维度上进行分组,在每一组中分别进行带孔卷积操作。该结构不仅可以有效提取广阔的遥感场景中多种尺度目标的高层语义特征,还能够减少87.87%的参数量,减少89.88%的每秒浮点运算次数(floating-point operations per second, FLOPS)。Zhang等人(2019b)基于深度可分卷积设计了一种面向合成孔径雷达(SAR)图像的船舶检测算法的特征提取网络,检测速度提升至轻量化前的2.7倍,测试集上单个船舶检测速度可达5.76 ms,已经具备在遥感图像船舶检测领域实际应用价值。Cao等人(2019)利用深度可分卷积设计了一种用于提取数字表面模型数据的结构,该网络结构无需预训练模型仍可以快速收敛,将网络训练时间降低50%以上。该结构也可以作为一种轻量级模块迁移到已有的卷积神经网络中,用于结合多模态遥感图像提高地物要素分类任务在多种场景中的性能。Wang等人(2019b)提出一种MFNet(multi-fiber network)的特征提取网络用于进行高分辨率航拍数据的地物要素分类任务。在MFNet中分别使用2层1×1卷积进行通道维度的分组,使用2层3×3卷积和残差短连结构用于特征的提取和交互。相比于轻量级网络ResNet-18(He等,2016),提出的网络在分类精度提升的同时,将参数量减少了40%,推理速度提高了27%。

2.1.1.2 模型轻量化人工设计方法

基于卷积计算单元轻量化设计理念出现了许多人工设计的轻量级网络,其中SqueezeNet(Iandola等,2016)、MobileNet(Howard等,2017Sandler等,2018)和ShuffleNet(Zhang等,2018aMa等,2018)等网络凭借其轻量化程度高,任务性能损失少,成为人工设计轻量化模型中的典型代表。SqueezeNet由多组FireModule结构构成,FireModule核心结构分为压缩与扩展,相比连续卷积堆叠的深层网络可显著减少网络参数量。MobileNet(Howard等,2017)整体结构基于深度可分卷积模组,MobileNet V2(Sandler等,2018)进一步改进MobileNet中特征融合方式,获得更高分类性能的同时需要的参数量更少,时延更低。ShuffleNet(Zhang等,2018a)轻量化设计核心在于深度可分卷积和卷积通道混洗。ShuffleNet V2(Ma等,2018)关注于直接影响轻量化程度的指标内存使用量(memory access cost,MAC)和多种运行平台上模型算法的并行度。

人工设计的轻量化深度神经网络在遥感边缘智能计算的发展过程中具有重要意义,遥感图像图幅尺寸广阔,模态类型多样,直接增加了网络处理数据的空间维度和通道维度,间接导致了网络宽度和深度的增加,造成算法推理速度缓慢,因此利用人工设计的轻量网络提取遥感图像数据特征有助于从根源上降低网络参数量和模型规模,推进遥感边缘智能技术的发展。

目前有大量借鉴轻量化网络设计理念用于遥感图像解译的相关工作。Ji等人(2018)利用SqueezeNet作为遥感卫星图像建筑物检测系统的特征提取和分类网络,在保证算法检测速度的前提下,相比其他方法在多个卫星图像建筑物数据集上提升了检测精度。Li等人(2019)基于轻量级网络MobileNet设计了一种用于遥感图像目标的基于上下文单阶段多快速目标检测框架,相比基线方法参数量减少近50%,网络计算量减少近80%。文中同时提出了一种由多个2维处理元素神经处理单元构成的高效的深度学习处理器的硬件架构。在现场可编程门阵列(field programmable gate array, FPGA)上获得比CPU上更高的能耗效率。Ma等人(2020)利用ShuffleNet V2网络构建了一种用于灾后倒塌建筑目标检测的轻量化网络,文中遵循ShuffleNet V2论文中(Ma等,2018)提出的4条轻量网络设计结论,重新设计单阶段目标检测网络基础结构。提出的模型检测速度高达29.23帧/s,相比于基线网络检测速度提高了5.21帧/s,检测精度提高了5.24%,在遥感灾害防治方面发挥着重要作用。

2.1.1.3 模型轻量化自动设计方法

以上介绍的都是面向遥感数据特征,基于理论计算或实验结果进行人工干预和设计的轻量化方法。神经架构搜索(neural architecture search, NAS)技术的兴起,使自动化轻量模型设计成为可能。常见自动化轻量模型设计方法包括NasNet(Zoph等,2018)、MnasNet(Tan等,2018)和MobileNet V3(Howard等,2019)。NasNet在候选的基本运算单元和连接方式中不断尝试多种组合,并在给定评价指标下确定最优的模型结构,达到全局最优搜索的目的。MnasNet面向移动端设备进一步优化NasNet,提速2.4倍。MobileNet V3进行模块级搜索和NetAdapt局部搜索的互补搜索技术,在降低模型实际操作数(multiply-addition operations, MAdds)的情况下,取得了超越MnasNet的分类性能。

在遥感图像解译领域中,遥感目标类型和模态属性多样、数据分布范围广且特征复杂。基于人工设计的轻量化模型泛化性能较差,应对海量的遥感数据,利用自动化轻量模型设计方法在搜索空间自动选择的模型能够进一步降低人工成本和专业知识需求,在遥感边缘智能技术研究中有广阔的应用前景。

2.1.2 模型剪枝

模型剪枝的轻量化设计基于卷积神经网络过参数化的假设,即在神经网络中参数众多,包含大量无用甚至有害的参数,在遥感图像解译领域,多种模态的数据和图像局部的空间、颜色、纹理等特征都存在一定程度的冗余和重复,剪枝的目的就是删减掉冗余和不必要的参数。

表 2所示,模型剪枝按照剪枝粒度的区别可分为细粒度剪枝、核内剪枝、粗粒度剪枝和层级剪枝。其中,细粒度剪枝指对模型中单个权重的剪枝,核内剪枝的剪枝粒度扩大到卷积核的某一维,粗粒度剪枝方法通常是直接对卷积核、特征图甚至是通道进行剪枝,层级剪枝则是在模型网络层的级别上进行剪枝。

模型剪枝算法按照不同的剪枝执行阶段可分为迭代式剪枝和动态剪枝。如图 4所示,最常见的迭代剪枝方式遵循:训练/微调—剪枝规则计算—剪枝—训练/微调的步骤。动态剪枝通常指剪枝和训练同时进行,一般是在目标函数中加入指导剪枝的正则项。如表 3所示,按照模型剪枝方式和规则进一步进行了分类总结。

图 4 迭代剪枝过程示意图
Fig. 4 Schematic diagram of iterative pruning process

表 3 模型剪枝方法总结
Table 3 Model pruning method

下载CSV
剪枝方法 原理 优点 缺点 剪枝方式 剪枝规则 典型应用
细粒度
剪枝
单个权重的剪枝 模型收敛快压缩比高 需要适配智能计算终端设备底层硬件 迭代式剪枝 判别函数 Guo等人(2016)
动态剪枝 海森矩阵 Hassibi和Stork(1993)
LeCun等人(1989)
核内剪枝 卷积核某一维剪枝 进一步摆脱存储空间的制约 易导致计算量增加 迭代式剪枝 权重阈值 Mao等人(2017)
粗粒度
剪枝
卷积核、特征图或通道进行剪枝 对底层硬件兼容性更好 剪枝粒度大,遗留大量冗余参数,需要后处理操作 迭代式剪枝 Lasso回归 He等人(2017)
迭代式剪枝 BN缩放系数 Liu等人(2017)
迭代式剪枝 通道子集近似 Luo等人(2017)
层级剪枝 网络层级别进行剪枝 压缩效率最高 模型结构改变,算法精度下降明显,训练难度较高 动态剪枝 判别函数 Rueda等人(2017)
迭代式剪枝 权重层合并 Li等人(2017)

遥感数据通常需在机载、舰载和星载等算力受到严重制约的应用平台上进行处理和分析任务,对模型算法的速度和功耗有较高要求。而模型剪枝算法能够有效降低模型空间复杂度,通常随着剪枝粒度的增加,模型轻量化程度逐步提高,大粒度的剪枝算法更适合在严苛计算能力存储条件下终端的算法部署。

目前模型剪枝算法在遥感场景的应用中仍属于起步阶段。Wang等人(2019a)提出一种基于卷积核剪枝方法的两阶段目标检测方法,将卷积核权重绝对值之和作为剪枝标准,升序排序后,进行剪枝操作,精简网络结构提高推理速度。文中提出的模型结构在多个遥感数据集上提升了检测算法的速度。

2.1.3 模型量化

模型量化也常称做权值量化,是一种通过减少表示权值比特数来压缩初始网络的轻量化模型设计方法。遥感图像通常由于富含丰富的空间、颜色、纹理和高度等特征信息,需要使用高比特数来进行数据的表示。此外,现有神经网络中的参数一般用32比特长度浮点型的单精度数值格式来表示,模型量化算法认为无需使用高精度数值格式,可以用低精度代替。根据量化后存储权重需要的位数,模型量化方法可以分为:二值量化、三值量化和多值量化的方法。二值量化(Hubara等,2016Rastegari等,2016Lin等,2017)是将表示权值的单精度浮点数用两个值(0/1或-1/1)进行表示。从32 bit浮点数量化为1 bit,可以把模型规模压缩为原来的1/32。三值量化(Zhu等,2017a)设计理念是在不增加计算量的基础上引入三阶量化(-1,0,1),减少性能的损失。多值量化(Jacob等,2018)是用更高的精度来表示常规精度,使量化网络达到更接近原始网络的性能。常见的有8 bit和16 bit量化方式。

面对高比特数据表示的遥感图像,模型量化方法可以通过降低模型参数的数据表示精度来降低模型规模、内存占用和硬件功耗,可以在算力功耗受限的载荷环境上进行部署。此外,模型量化的方法通常会导致算法精度的降低,因此如何在遥感应用中大幅压缩网络规模的同时保持模型精度成为现阶段模型量化的研究重点。

2.2 轻量化模型训练

2.2.1 传统方法

传统的轻量化神经网络训练遵循反向传播算法(backpropagation algorithm,BP)。如图 5所示,在模型训练过程中,以批量训练数据作为输入,通过前向传播过程得到预测输出,根据损失函数计算预测输出与期望输出的累计误差值。然后,通过反向传播过程,基于梯度下降法完成参数的更新。重复以上过程,直到累计误差最小或者达到设置的训练步骤。

图 5 模型训练示意图
Fig. 5 Schematic diagram of model training

在遥感领域,主要针对目标多尺度、数据多模态等特点对训练过程进行改进。其中,针对遥感图像的多尺度特征,通过融合不同特征学习阶段的多尺度特征图方式实现多尺度特征学习,通常对各个特征的输出进行辅助目标函数监督,能够在不增加推理阶段计算量的前提下显著提高性能、加速训练过程。针对多种模态数据的遥感图像,通常通过增加正则惩罚项显示约束各个模态数据的训练过程,有助于均衡特征学习速度,防止欠拟合和过拟合的产生。

2.2.2 知识蒸馏

与传统的训练方法相比,知识蒸馏的训练过程需要两个网络模型。如图 6所示,学生网络表示需要训练的轻量化模型,尤其是边缘智能模型,网络的模型尺寸较小,性能有限,而教师网络表示已经经过预训练的、高精度的网络模型。因此,知识蒸馏框架的目的就是通过对教师网络知识的学习,促进学生网络性能的提升。学生网络在训练过程中,除了同传统方法一样,应用训练数据的标签作为监督信息,还会将提取自教师网络的知识同时作为一种监督信息,用来辅助学生网络的训练。目前,已经提出了很多种知识提取策略,例如Hinton等人(2015)提出的知识蒸馏框架中,使用教师网络的软化概率输出监督学生网络的训练。Romero等人(2015)提出匹配教师网络和学生网络的中间层的特征。Zagoruyko和Komodakis(2016)则建议匹配两个网络的注意力图。为了减轻两个网络的特征差异较大的问题,Kim等人(2018)提出应用自编码器进行特征对齐操作。Shen等人(2019)基于生成对抗网络,对教师网络和学生网络的特征进行相似性鉴别。

图 6 知识蒸馏结构图
Fig. 6 The framework of knowledge distillation

针对遥感数据的知识蒸馏主要考虑目标的尺度差异大、形状不规则等方面的特点进行蒸馏架构的设计,其中多尺度特征可通过学习教师网络不同阶段的知识实现,形状特征则通过学习教师网络输入之间的相关特征实现。此外,还有一些方法通过自蒸馏架构提升学生网络的性能,即使用学生网络本身作为教师指导学生网络训练,例如,浅层网络学习深层网络的上下文注意力信息,深层网络学习浅层网络的语义注意力信息。

3 面向多任务的持续学习

遥感数据的获取速度和数量得到快速提高,对人工智能提出了新的标准和要求,迫切希望深度神经网络模型可以不断地适应并随着时间的推移不断学习。当前的深度神经网络模型一般都是静态模型,需要使用大量数据进行长时间的训练,然而模型只能应用于当前任务,不能随着时间推移而适应或者扩展。当有新的数据可用并且模型需要更新时,模型无法保持对原任务的性能要求,导致灾难性遗忘问题。例如,基于卫星图像的飞机、船舶等目标的检测识别任务,目前通用的方法是针对不同的目标训练单独的模型,甚至是针对细分的目标型号单独训练模型,这种方式实现复杂且应用繁琐。而卫星图像每天都可以大量更新,现存的静态模型无法及时更新并利用新增的数据。针对上述问题,要求深度模型具有持续学习能力,而多任务持续学习是解决该问题的有效技术手段。

多任务持续学习研究的是从无限的数据流中学习知识的问题,目标是将学习到的知识进行扩展,应用于未来的学习中,如图 7所示,多任务持续学习有广阔的应用场景。多任务持续学习结构如图 8所示。数据流中不同阶段的数据样本分别属于不同的任务,比如飞机船舶的检测任务、地物要素的分类任务等。如表 4所示,在持续学习模型训练阶段,样本集只包含当前任务样本,而先前任务的样本不可见;在持续学习模型推理阶段,要求模型对先前任务和当前任务均保持良好的预测精度。存在的方法主要分为两类:基于样本数据重现的方法以及基于模型结构扩展的方法。前者通过储存或者拟合先前任务的训练数据避免灾难性遗忘,后者主要是调整模型的参数或者结构,保证网络的持续学习能力。

图 7 多任务持续学习方法与典型应用场景总结
Fig. 7 A taxonomy of multi-tasks continual learning methods and typical applications
图 8 多任务持续学习结构图
Fig. 8 The framework of multi-tasks continual learning

表 4 多任务持续学习方法总结
Table 4 Multi-tasks continual learning methods

下载CSV
原理 方法 优点 缺点 运用领域 训练策略 特点 典型应用
样本
数据
重现
旧样本存储 平衡训练数据 增加样本存储空间,应用场景受到限制 图像分类 近邻样本均值 提升鲁棒性 Rebuffi等人(2017)
Li等人(2020)
道路检测 覆盖算法 仅适用于单一类别 Zhang等人(2017)
精细化标注 知识蒸馏 多标签分类 Tasar等人(2019a,b)
伪样本生成 生成数据自由 训练步骤复杂,生成模型难收敛 图像分类 生成对抗 可以持续生成大量样本 Xiang等人(2019)
模型
结构
扩展
优化
约束
实现
简单
要求任务具有相关性,网络容量易耗尽 图像分类 应用费雪信息矩阵 实现简单 Kirkpatrick等人(2017)
渐进增加 资源可以重复使用 Rusu等人(2016)
精细化标注 自组织网络 自适应类别和节点 Kurnaz等人(2005)
参数
隔离
任务自
适应
额外的参数存储 图像分类 构建网络原型 保留历史信息 Bruzzone和Prieto(1999)
多源数据融合 集成算法 无需历史数据 Aljundi等人(2017)Parikh和Polikar(2007)

3.1 基于样本数据重现的方法

基于深度学习的多任务学习方法的基本范式是联合训练(joint training),即同时计算并拟合多个任务上的性能损失。因此,模型需要利用每个任务的大量数据进行训练。基于样本数据重现的持续学习方法借鉴了该思路,通过存储先前任务的样本或应用生成模型产生伪样本的方式,在学习新任务的同时,回放存储的样本,可以平衡不同任务的训练数据,减轻灾难性遗忘问题。

Rebuffi等人(2017)的工作中,以学习到的特征空间中每个类的均值为标准,将可以最佳近似每个类均值的样例放入样本存储池中。同时,为了避免随着任务数量的增加,导致样本池溢出问题,在完成当前任务训练以后,需要根据相同的标准重新选择先前任务的样本。由于新旧任务的样本数量严重不均衡,模型往往会出现预测偏差问题,即大概率地将输入预测为新任务的目标。为了解决这个问题,Li和Hoiem(2018)借鉴了知识蒸馏的思想(Hinton等,2015),提出了LWF(learning without forgetting)框架,使用先前模型在当前任务的样本数据的输出作为先前任务的软标签来减轻模型的遗忘和知识转移。另外,样本存储池的设置大大增加了内存的消耗,Xiang等人(2019)提出使用生成对抗网络的方式,基于先前任务的统计信息生成伪样本,参与先前任务的训练。但是,这种方法也增加了训练生成模型的复杂性。在遥感领域,Zhang等人(2017)提出了一种基于覆盖算法的持续学习道路检测的方法,通过构造的初始分类模型,在不同阶段的样本数据上进行检测,然后基于储存的样本逐步修正模型,保持模型的检测性能。Li等人(2020)建立了一个大规模的遥感图像场景持续学习数据集CLRS(continual learning benchmark for remote sensing),给出了划分为3个持续学习场景的训练批次的标准,并应用LWF框架给出了该数据集的基准结果。针对精细化地物分类任务的多任务持续学习问题,Tasar等人(2019a, b)提出利用知识蒸馏的思想构建模型,并设计了一种基于类别权重的样本储存标准,实现了模型对建筑物提取、道路提取以及水体提取等任务的持续学习能力。

3.2 基于模型结构扩展的方法

在某些特殊的应用场景下,尤其是遥感应用场景,可能由于存储限制或隐私问题而暂时无法获取到先前任务的历史数据,比如,机场、港口等地的数据。因此,提出了一类基于模型结构扩展的方法,通过约束参数的更新策略或者是将模型的参数进行隔离,将模型划分为专用于每个任务的子集,提高模型的任务适应性,实现不依赖历史数据的情况下避免灾难性遗忘。

最早基于模型结构扩展的方法是将先前模型参数的分布作为先验。由于深度模型巨大的参数量,这种方法复杂性过高,难以实现。DeepMind的研究人员提出了EWC(elastic weight consolidation)算法(Kirkpatrick等,2017),假设模型参数是独立的,并为参数估计其重要性权重,在进行当前任务训练时,重要参数的修改将会受到惩罚。EWC方法以概率论的角度分析了增量学习框架,并基于拉普拉斯近似的方法证明了参数的二阶导可以反映模型的重要程度。在不限制模型容量、允许动态网络的前提下,Rusu等人(2016)提出了渐进神经网络(progressive neural networks, PNN),随着任务数量的增加,在网络的每一层添加了横向连接,然后,新的参数用来学习当前任务,而旧参数将保持权重不变,这意味着每次添加任务时都会重复使用资源。Aljundi等人(2017)提出为每个任务创建一个完整的副本,但是,随着任务数量的添加,网络的开销也会急剧增加。在固定网络架构下,通过识别用于先前任务的参数并在训练当前任务期间将其掩盖也可以实现参数隔离。Fernando等人(2017)提出了PathNet,基于进化策略通过权重来学习选择性路由。Mallya等人(2018)使用二进制掩码为每个任务创建不同的子网。目前,基于模型结构扩展的方法在遥感领域的应用处于初步探索阶段,Bruzzone和Prieto(1999)提出了一种用于遥感图像分析的分类器,通过构建网络原型的集合,实现在新的训练集可用时定期获取新信息,同时保留网络在先前训练集上获得的知识。Kurnaz等人(2005)提出了自组织的增量神经网络来自动确定图像中的类数和节点,实现对遥感图像精细化标注的持续学习。Parikh和Polikar(2007)提出了一种基于分类器的算法集成方法Learn++实现遥感数据的多源融合,该方法可以顺序生成一组分类器,并专门从每个数据集中寻找最有区别的信息,可以连续学习来自同一来源的其他数据的补充信息和来自新数据来源的补充信息,而无需访问任何先前看到的数据。

4 展望与挑战

遥感边缘智能技术的研究在小样本学习技术、轻量化模型设计和持续学习技术领域取得了初步进展。然而,在不同的实际应用场景和多样化的需求约束下遥感边缘智能技术仍面临着诸多挑战。

1) 单样本/零样本下的小样本学习技术。在遥感领域,现有的小样本学习方法大多属于广义上的小样本学习,主要体现在两方面。一方面,现有的“小样本”的定义默认为具备完备标注信息的样本量较少,但无标注的样本数据充足,例如基于特征映射的迁移学习算法和基于深度生成模型的迁移学习算法的训练对于小样本任务上的未标注数据有着一定的数量需求。然而在实际的遥感边缘智能应用场景中,即便是无标注的遥感数据的获取难度有时也是偏大的,例如新类别目标的数据。另一方面,现有的小样本定义从数据量上看仍是几十幅到几百幅不等,结合数据获取难度和标注难度看,数据量并不算很小。考虑终端上的数据制作难度以及边缘智能技术对遥感解译任务的快速响应需求,研究狭义条件下的小样本学习算法,即对于单样本甚至于零样本条件下进行小样本学习,对于遥感边缘智能技术的落地发展是未来值得重点深入研究的方向。

2) 多任务模型轻量化。遥感边缘智能技术应用中关于轻量化模型设计与训练方法的发展和研究进展迅猛,已经积累了大量成熟的技术及方法,在实际工业应用中得到初步应用。目前,面向遥感应用场景轻量化模型设计与训练通常只针对单一任务或功能,模型轻量化的目标通常只针对单一特定的遥感图像解译任务,例如:遥感目标识别、检测和地物要素分类等任务。此外,轻量化模型设计在一种任务中通常只针对单一特定的功能步骤,例如:特征提取步骤、语义信息获取步骤、空间信息提取步骤和分类步骤等。伴随着遥感数据的海量增长,应用需求日益增加,单任务遥感图像解译算法已经无法满足当前的应用需求,面向遥感图像解译领域的多任务处理算法模型逐渐成为目前研究的热点,因此,如何完成从单一功能到多种功能、单一任务到多种任务的轻型化模型设计与训练方法,仍然是未来亟待研究和探索的领域。

3) 引入领域专家知识。面向多任务的持续学习存在着灾难性遗忘问题。尤其在遥感技术领域,由于成像方式的复杂多样,前景背景的极不平衡,以及目标分布密集等问题,导致遥感场景的任务难度更大,遗忘问题会更加严重。引入遥感领域专家知识可以解决这个问题,在遥感任务中,比如飞机、船舶目标型号的判别任务,不同型号的目标相似性极高,而相同型号的目标也可能由于光照、方向等原因差异较大,引入专家知识或者专家经验的指导可以更加高效地解决这些问题。因此,可以考虑引入专家知识解决面向多任务持续学习的灾难性遗忘问题,专家知识可以帮助持续学习模型判别网络参数对每个任务的重要性程度,增强对重要性权值更改的惩罚,约束并指导持续学习模型的学习方向,从而减少甚至避免灾难性遗忘。

5 结语

传统遥感大数据智能应用在深度学习技术的发展推动下已日趋完善,为了进一步推广遥感智能技术、拓展遥感智能应用场景,迫切需要将遥感智能解译技术与边缘计算整合应用。本文对遥感边缘智能的理论和研究现状介绍分析,并针对现阶段遥感边缘智能技术的研究难点,将小样本学习、持续学习、轻量化模型设计与训练等用于遥感边缘智能的技术理论和研究成果进行了归纳总结,并对未来的边缘智能发展方向进行展望。

未来,遥感边缘智能技术作为边缘计算和遥感智能解译彼此赋能的崭新范式,将在智能物联网、智能制造和智慧城市等众多领域快速崛起和发展,相关技术的探索和研究将成为引导遥感智能解译和边缘计算的关键。

参考文献

  • Alajaji D and Alhichri H. 2020. Few shot scene classification in remote sensing using meta-agnostic machine//Proceedings of the 6th Conference on Data Science and Machine Learning Applications. Riyadh, Saudi Arabia: IEEE: 77-80[DOI:10.1109/cdma47397.2020.00019]
  • Aljundi R, Chakravarty P and Tuytelaars T. 2017. Expert gate: lifelong learning with a network of experts//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE: 3366-3375[DOI:10.1109/CVPR.2017.753]
  • Bruzzone L, Prieto D F. 1999. An incremental-learning neural network for the classification of remote-sensing images. Pattern Recognition Letters, 20(11-13): 1241-1248 [DOI:10.1016/S0167-8655(99)00091-4]
  • Cao Z Y, Fu K, Lu X D, Diao W H, Sun H, Yan M L, Yu H F, Sun X. 2019. End-to-end DSM fusion networks for semantic segmentation in high-resolution aerial images. IEEE Geoscience and Remote Sensing Letters, 16(11): 1766-1770 [DOI:10.1109/LGRS.2019.2907009]
  • Chen Z, Zhang T, Ouyang C. 2018. End-to-end airplane detection using transfer learning in remote sensing images. Remote Sensing, 10(1): #139 [DOI:10.3390/rs10010139]
  • Chollet F. 2017. Xception: deep learning with depthwise separable convolutions//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE: 1800-1807[DOI:10.1109/CVPR.2017.195]
  • Deng J, Dong W, Socher R, Li L J, Li K and Li F F. 2009. ImageNet: a large-scale hierarchical image database//Proceedings of 2009 IEEE Conference on Computer Vision and Pattern Recognition. Miami: IEEE: 248-255[DOI:10.1109/cvpr.2009.5206848]
  • Fernando C, Banarse D, Blundell C, Zwols Y, Ha D, Rusu AA, Pritzel A and Wierstra D. 2017. Pathnet: evolution channels gradient descent in super neural networks[EB/OL].[2020-02-04]. https://arxiv.org/pdf/1701.08734.pdf
  • Finn C, Abbeel P and Levine S. 2017. Model-agnostic meta-learning for fast adaptation of deep networks//Proceedings of the 34th International Conference on Machine Learning. Sydney: JMLR.org: 1126-1135
  • Gao X, Sun X, Yan M L, Sun H, Fu K, Zhang Y and Ge Z P. 2018. Road extraction from remote sensing images by multiple feature pyramid network//IGARSS 2018-2018 IEEE International Geoscience and Remote Sensing Symposium. Valencia: IEEE: 6907-6910[DOI:10.1109/IGARSS.2018.8519093]
  • Guo Y W, Yao A B and Chen Y R. 2016. Dynamic network surgery for efficient DNNs//Proceedings of the 30th International Conference on Neural Information Processing Systems. Red Hook: ACM: 1381-1395
  • Hassibi B and Stork D G. 1993. Second order derivatives for network pruning: optimal brain surgeon//Advances in Neural Information Processing Systems. San Francisco: ACM: 164-171
  • He K M, Zhang X Y, Ren S Q and Sun J. 2016. Deep residual learning for image recognition//Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas: IEEE: 770-778[DOI:10.1109/CVPR.2016.90]
  • He Y H, Zhang X Y and Sun J. 2017. Channel pruning for accelerating very deep neural networks//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice: IEEE: 1398-1406[DOI:10.1109/ICCV.2017.155]
  • Hinton G E, Vinyals O and Dean J. 2015. Distilling the knowledge in a neural network[EB/OL].[2020-02-04]. https://arxiv.org/pdf/1503.02531.pdf
  • Howard A, Sandler M, Chu G, Chen L C, Chen B, Tan M X, Wang W J, Zhu Y K, Pang R M, Vasudevan V, Le Q V and Adam H. 2019. Searching for MobileNetV3[EB/OL].[2020-02-04]. https://arxiv.org/pdf/1905.02244.pdf
  • Howard A G, Zhu M L, Chen B, Kalenichenko D, Wang W J, Weyand T, Andreetto M and Adam H. 2017. MobileNets: efficient convolutional neural networks for mobile vision applications[EB/OL].[2020-02-04].https://arxiv.org/pdf/1704.04861.pdf
  • Huang G, Liu Z, Van Der Maaten L and Weinberger K Q. 2017a. Densely connected convolutional networks//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE: 2261-2269[DOI:10.1109/CVPR.2017.243]
  • Huang Z L, Pan Z X, Lei B. 2017b. Transfer learning with deep convolutional neural network for SAR target classification with limited labeled data. Remote Sensing, 9(9): #907 [DOI:10.3390/rs9090907]
  • Hubara I, Courbariaux M and Soudry D. 2016. Binarized neural networks//Proceedings of 2016 Conference on Neural Information Processing Systems. Barcelona: NIPS: # 6573
  • Iandola F N, Han S, Moskewicz M W, Ashraf K, Dally W J and Keutzer K. 2016. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and < 0.5 MB model size[EB/OL].[2020-02-04].https://arxiv.org/pdf/1602.07360.pdf
  • Jacob B, Kligys S, Chen B, Zhu M L, Tang M, Howard A, Adam H and Kalenichenko D. 2018. Quantization and training of neural networks for efficient integer-arithmetic-only inference//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE: 2704-2713[DOI:10.1109/cvpr.2018.00286]
  • Ji M, Liu L F, Buchroithner M. 2018. Identifying collapsed buildings using post-earthquake satellite imagery and convolutional neural networks:a case study of the 2010 Haiti earthquake. Remote Sensing, 10(11): #1689 [DOI:10.3390/rs10111689]
  • Ji S W, Xu W, Yang M, Yu K. 2013. 3D convolutional neural networks for human action recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, 35(1): 221-231 [DOI:10.1109/tpami.2012.59]
  • Kaya M, Bilge H Ş. 2019. Deep metric learning:a survey. Symmetry, 11(9): 1066 [DOI:10.3390/sym11091066]
  • Kemker R, Salvaggio C, Kanan C. 2018. Algorithms for semantic segmentation of multispectral remote sensing imagery using deep learning. ISPRS Journal of Photogrammetry and Remote Sensing, 145: 60-77 [DOI:10.1016/j.isprsjprs.2018.04.014]
  • Kim J, Park S and Kwak N. 2018. Paraphrasing complex network: network compression via factor transfer//Proceedings of the 32nd Conference on Neural Information Processing Systems. Montréal: NIPS: #7541
  • Kirkpatrick J, Pascanu R, Rabinowitz N, Veness J, Desjardins G, Rusu A A, Milan K, Quan J, Ramalho T, Grabska-Barwinska A, Hassabis D, Clopath C, Kumaran D, Hadsell R. 2017. Overcoming catastrophic forgetting in neural networks. Proceedings of the National Academy of Sciences of the United States of America, 114(13): 3521-3526 [DOI:10.1073/pnas.1611835114]
  • Kong F J, Huang B H, Bradbury K and Malof J M. 2020. The synthinel-1 dataset: a collection of high resolution synthetic overhead imagery for building segmentation//Proceedings of 2020 IEEE Winter Conference on Applications of Computer Vision. Snowmass Village, CO: IEEE: 1803-1812[DOI:10.1109/wacv45572.2020.9093339]
  • Krizhevsky A, Sutskever I and Hinton G E. 2012. ImageNet classification with deep convolutional neural networks//Proceedings of the 25th International Conference on Neural Information Processing Systems. Red Hook: ACM: 1097-1105
  • Kurnaz M N, Dokur Z, Ölmez T. 2005. Segmentation of remote-sensing images by incremental neural network. Pattern Recognition Letters, 26(8): 1096-1104 [DOI:10.1016/j.patrec.2004.10.004]
  • Kusk A, Abulaitijiang A and Dall J. 2016. Synthetic SAR image generation using sensor, terrain and target models//Proceedings of the 11th EUSAR European Conference on Synthetic Aperture Radar. Hamburg: VDE: 405-409
  • LeCun Y, Denker J S and Solla S A. 1989. Optimal brain damage//Proceedings of the 2nd International Conference on Neural Information Processing Systems. Cambridge: ACM: 598-605
  • LeCun Y, Bottou L, Bengio Y, Haffner P. 1998. Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11): 2278-2324 [DOI:10.1109/5.726791]
  • Li D W, Wang X L and Kong D G. 2017. DeepRebirth: accelerating deep neural network execution on mobile devices[EB/OL].[2020-02-04].https://arxiv.org/pdf/1708.04728.pdf
  • Li H F, Jiang H, Gu X, Peng J, Li W B, Hong L, Tao C. 2020. CLRS:continual learning benchmark for remote sensing image scene classification. Sensors, 20(4): #1226 [DOI:10.3390/s20041226]
  • Li L, Zhang S B, Wu J. 2019. Efficient object detection framework and hardware architecture for remote sensing images. Remote Sensing, 11(20): #2376 [DOI:10.3390/rs11202376]
  • Li Z Z, Hoiem D. 2018. Learning without forgetting. IEEE Transactions on Pattern Analysis and Machine Intelligence, 40(12): 2935-2947 [DOI:10.1109/TPAMI.2017.2773081]
  • Lin X F, Zhao C and Pan W. 2017. Towards accurate binary convolutional neural network//Proceedings of the 31st Conference on Neural Information Processing Systems. Long Beach: NIPS: #6638
  • Liu B, Yu X C, Yu A Z, Zhang P Q, Wan G, Wang R R. 2019. Deep few-shot learning for hyperspectral image classification. IEEE Transactions on Geoscience and Remote Sensing, 57(4): 2290-2304 [DOI:10.1109/tgrs.2018.2872830]
  • Liu Z, Li J G, Shen Z Q, Huang G, Yan S M and Zhang C S. 2017. Learning efficient convolutional networks through network slimming//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice: IEEE: 2755-2763[DOI:10.1109/ICCV.2017.298]
  • Luo C, Ma L. 2018. Manifold regularized distribution adaptation for classification of remote sensing images. IEEE Access, 6: 4697-4708 [DOI:10.1109/access.2018.2789932]
  • Luo J H, Wu J X and Lin W Y. 2017. ThiNet: a filter level pruning method for deep neural network compression//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice: IEEE: 2068-5076[DOI:10.1109/ICCV.2017.541]
  • Ma D A, Tang P, Zhao L J. 2019. SiftingGAN:generating and sifting labeled samples to improve the remote sensing image scene classification baseline in vitro. IEEE Geoscience and Remote Sensing Letters, 16(7): 1046-1050 [DOI:10.1109/lgrs.2018.2890413]
  • Ma H J, Liu Y L, Ren Y H, Yu J X. 2020. Detection of collapsed buildings in post-earthquake remote sensing images based on the improved YOLOv3. Remote Sensing, 12(1): #44 [DOI:10.3390/rs12010044]
  • Ma N N, Zhang X Y, Zheng H T and Sun J. 2018. ShuffleNet V2: practical guidelines for efficient CNN architecture design//Proceedings of the 15th European Conference on Computer Vision. Cham: Springer: 122-138[DOI:10.1007/978-3-030-01264-9_8]
  • Mallya A, Davis D and Lazebnik S. 2018. Piggyback: adapting a single network to multiple tasks by learning to mask weights//Proceedings of the 15th European Conference on Computer Vision. Cham: Springer: 67-82[DOI:10.1007/978-3-030-01225-0_5]
  • Malmgren-Hansen D, Kusk A, Dall J, Nielsen A A, Engholm R, Skriver H. 2017. Improving SAR automatic target recognition models with transfer learning from simulated data. IEEE Geoscience and Remote Sensing Letters, 14(9): 1484-1488 [DOI:10.1109/lgrs.2017.2717486]
  • Mao H Z, Han S, Pool J, Li W S, Liu X Y, Wang Y, and Dally W J. 2017. Exploring the regularity of sparse structure in convolutional neural networks[EB/OL].[2020-02-04]. https://arxiv.org/pdf/1705.08922.pdf
  • Marmanis D, Datcu M, Esch T, Stilla U. 2016. Deep learning earth observation classification using ImageNet pretrained networks. IEEE Geoscience and Remote Sensing Letters, 13(1): 105-109 [DOI:10.1109/lgrs.2015.2499239]
  • Pan S J, Yang Q. 2010. A survey on transfer learning. IEEE Transactions on Knowledge and Data Engineering, 22(10): 1345-1359 [DOI:10.1109/tkde.2009.191]
  • Parikh D, Polikar R. 2007. An ensemble-based incremental learning approach to data fusion. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 37(2): 437-450 [DOI:10.1109/TSMCB.2006.883873]
  • Rao M B, Tang P, Zhang Z. 2019. Spatial-spectral relation network for hyperspectral image classification with limited training samples. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 12(12): 5086-5100 [DOI:10.1109/jstars.2019.2957047]
  • Rastegari M, Ordonez V, Redmon J and Farhadi A. 2016. XNOR-Net: imageNet classification using binary convolutional neural networks//Proceedings of the 14th European Conference on Computer Vision. Cham: Springer: 525-542[DOI:10.1007/978-3-319-46493-0_32]
  • Rebuffi S A, Kolesnikov A, Sperl G and Lampert C H. 2017. ICaRL: incremental classifier and representation learning//Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition. Honolulu: IEEE: 2001-2010[DOI:10.1109/CVPR.2017.587]
  • Romero A, Ballas N, Kahou S E, Chassang A, Gatta C and Bengio Y. 2015. FitNets:hints for thin deep nets[EB/OL].[2020-02-04].https://arxiv.org/pdf/1412.6550.pdf
  • Rostami M, Kolouri S, Eaton E, Kim K. 2019. Deep transfer learning for few-shot SAR image classification. Remote Sensing, 11(11): #1374 [DOI:10.3390/rs11111374]
  • Rueda F M, Grzeszick R and Fink G A. 2017. Neuron pruning for compressing deep networks using maxout architectures//Proceedings of the 39th German Conference on Pattern Recognition. Cham: Springer: 177-188[DOI:10.1007/978-3-319-66709-6_15]
  • Rusu A A, Rabinowitz N C, Desjardins G, Soyer H, Kirkpatrick J, Kavukcuoglu K, Pascanu R and Hadsell R. 2016. Progressive neural networks[EB/OL].[2020-02-04]. https://arxiv.org/pdf/1606.04671.pdf
  • Sandler M, Howard A, Zhu M L, Zhmoginov A and Chen L C. 2018. MobileNetV2: inverted residuals and linear bottlenecks//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE: 4510-4520[DOI:10.1109/CVPR.2018.00474]
  • Shen Z Q, He Z K and Xue X Y. 2019. Meal: multi-model ensemble via adversarial learning//Proceedings of 2019 AAAI Conference on Artificial Intelligence. Honolulu, Hawaii: AAAI: 4886-4893[DOI:10.1609/aaai.v33i01.33014886]
  • Simonyan K and Zisserman A. 2015. Very deep convolutional networks for large-scale image recognition[EB/OL].[2020-02-04].https://arxiv.org/pdf/1409.1556.pdf
  • Szegedy C, Liu W, Jia Y Q, Sermanet P, Reed S, Anguelov D, Erhan D, Vanhoucke V and Rabinovich A. 2015. Going deeper with convolutions//Proceedings of 2015 IEEE Conference on Computer Vision and Pattern Recognition. Boston: IEEE: 1-9[DOI:10.1109/CVPR.2015.7298594]
  • Tan M X, Chen B, Pang R M, Vasudevan V, Sandler M, Howard A and Le Q V. 2018. MnasNet: platform-aware neural architecture search for mobile[EB/OL].[2020-02-04].https://arxiv.org/pdf/1807.11626.pdf
  • Tang H J, Li Y S, Han X, Huang Q H, Xie W X. 2020. A spatial-spectral prototypical network for hyperspectral remote sensing image. IEEE Geoscience and Remote Sensing Letters, 17(1): 167-171 [DOI:10.1109/lgrs.2019.2916083]
  • Tasar O, Tarabalka Y and Alliez P. 2019a. Continual learning for dense labeling of satellite images//IGARSS 2019-2019 IEEE International Geoscience and Remote Sensing Symposium. Yokohama: IEEE: 4943-4946[DOI:10.1109/IGARSS.2019.8898615]
  • Tasar O, Tarabalka Y, Alliez P. 2019b. Incremental learning for semantic segmentation of large-scale remote sensing data. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 12(9): 3524-3537 [DOI:10.1109/JSTARS.2019.2925416]
  • Valada A, Mohan R, Burgard W. 2020. Self-supervised model adaptation for multimodal semantic segmentation. International Journal of Computer Vision, 128(5): 1239-1285 [DOI:10.1007/s11263-019-01188-y]
  • Vilalta R, Drissi Y. 2002. A perspective view and survey of meta-learning. Artificial Intelligence Review, 18(2): 77-95 [DOI:10.1023/A:1019956318069]
  • Wang P J, Sun X, Diao W H, Fu K. 2020a. FMSSD:feature-merged single-shot detection for multiscale objects in large-scale remote sensing imagery. IEEE Transactions on Geoscience and Remote Sensing, 58(5): 3377-3390 [DOI:10.1109/TGRS.2019.2954328]
  • Wang S S, Wang M, Wang G Y. 2019a. Deep neural network pruning based two-stage remote sensing image object detection. Journal of Northeastern University (Natural Science), 40(2): 174-179 (王生生, 王萌, 王光耀. 2019a. 基于深度神经网络剪枝的两阶段遥感图像目标检测. 东北大学学报(自然科学版), 40(2): 174-179) [DOI:10.12068/j.issn.1005-3026.2019.02.005]
  • Wang Y H, Chen C, Ding M, Li J Y. 2019b. Real-time dense semantic labeling with dual-path framework for high-resolution remote sensing image. Remote Sensing, 11(24): #3020 [DOI:10.3390/rs11243020]
  • Wang Y L, Gu J, Zhao L J, Zhang Y, Wang H Q. 2020b. Target detection based on simulated image domain migration. IEEE Access, 8: 79724-79733 [DOI:10.1109/access.2020.2989458]
  • Wang Z C, Du L, Mao J S, Liu B, Yang D W. 2019c. SAR target detection based on SSD with data augmentation and transfer learning. IEEE Geoscience and Remote Sensing Letters, 16(1): 150-154 [DOI:10.1109/lgrs.2018.2867242]
  • Xiang Y, Fu Y, Ji P and Huang H. 2019. Incremental learning using conditional adversarial networks//Proceedings of 2019 IEEE/CVF International Conference on Computer Vision. Seoul: IEEE: 6619-6628[DOI:10.1109/ICCV.2019.00672]
  • Xu S H, Mu X D, Zhang X M, Chai D. 2017. Unsupervised remote sensing domain adaptation method with adversarial network and auxiliary task. Acta Geodaetica et Cartographica Sinica, 46(12): 1969-1977 (许夙晖, 慕晓冬, 张雄美, 柴栋. 2017. 结合对抗网络与辅助任务的遥感影像无监督域适应方法. 测绘学报, 46(12): 1969-1977) [DOI:10.11947/j.AGCS.2017.20170291]
  • Yan Y M, Tan Z C, Su N. 2019. A data augmentation strategy based on simulated samples for ship detection in rgb remote sensing images. ISPRS International Journal of Geo-Information, 8(6): #276 [DOI:10.3390/ijgi8060276]
  • Yan Z Y, Yan M L, Sun H, Fu K, Hong J, Sun J, Zhang Y, Sun X. 2018. Cloud and cloud shadow detection using multilevel feature fused segmentation network. IEEE Geoscience and Remote Sensing Letters, 15(10): 1600-1604 [DOI:10.1109/LGRS.2018.2846802]
  • Yang X, Nan X T, Song B. 2020. D2N4:a discriminative deep nearest neighbor neural network for few-shot space target recognition. IEEE Transactions on Geoscience and Remote Sensing, 58(5): 3667-3676 [DOI:10.1109/tgrs.2019.2959838]
  • Yu X R, Wu X M, Luo C B, Ren P. 2017. Deep learning in remote sensing scene classification:a data augmentation enhanced convolutional neural network framework. GIScience and Remote Sensing, 54(5): 741-758 [DOI:10.1080/15481603.2017.1323377]
  • Zagoruyko S and Komodakis N. 2016. Paying more attention to attention: improving the performance of convolutional neural networks via attention transfer[EB/OL].[2020-02-04].https://arxiv.org/pdf/1612.03928.pdf
  • Zhai M, Liu H P, Sun F C. 2019. Lifelong learning for scene recognition in remote sensing images. IEEE Geoscience and Remote Sensing Letters, 16(9): 1472-1476 [DOI:10.1109/lgrs.2019.2897652]
  • Zhan Y, Hu D, Wang Y T, Yu X C. 2018. Semisupervised hyperspectral image classification based on generative adversarial networks. IEEE Geoscience and Remote Sensing Letters, 15(2): 212-216 [DOI:10.1109/lgrs.2017.2780890]
  • Zhang J, Chen L, Wang C, Zhuo L, Tian Q, Liang X. 2017. Road recognition from remote sensing imagery using incremental learning. IEEE Transactions on Intelligent Transportation Systems, 18(11): 2993-3005 [DOI:10.1109/TITS.2017.2665658]
  • Zhang T F, Sun X, Zhang Y, Yan M L, Wang Y L, Wang Z R and Fu K. 2019a. A training-free, one-shot detection framework for geospatial objects in remote sensing images//IGARSS 2019-2019 IEEE International Geoscience and Remote Sensing Symposium. Yokohama: IEEE: 1414-1417[DOI:10.1109/igarss.2019.8898679]
  • Zhang T W, Zhang X L, Shi J, Wei S J. 2019b. Depthwise separable convolution neural network for high-speed SAR ship detection. Remote Sensing, 11(21): #2483 [DOI:10.3390/rs11212483]
  • Zhang X Y, Zhou X Y, Lin M X and Sun J. 2018a. ShuffleNet: an extremely efficient convolutional neural network for mobile devices//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE: 6848-6856[DOI:10.1109/cvpr.2018.00716]
  • Zhang Y H, Sun H, Zuo J W, Wang H Q, Xu G L, Sun X. 2018b. Aircraft type recognition in remote sensing images based on feature learning with conditional generative adversarial networks. Remote Sensing, 10(7): #1123 [DOI:10.3390/rs10071123]
  • Zhou X, Prasad S. 2018. Deep feature alignment neural networks for domain adaptation of hyperspectral data. IEEE Transactions on Geoscience and Remote Sensing, 56(10): 5863-5872 [DOI:10.1109/tgrs.2018.2827308]
  • Zhou Z, Chen X, Li E, Zeng L K, Luo K, Zhang J S. 2019. Edge intelligence:paving the last mile of artificial intelligence with edge computing. Proceedings of the IEEE, 107(8): 1738-1762 [DOI:10.1109/JPROC.2019.2918951]
  • Zhu C, Han S and Mao H. 2017a. Trained ternary quantization[EB/OL].[2020-02-04]. https://arxiv.org/pdf/1612.01064.pdf
  • Zhu J Y, Park T, Isola P and Efros A A. 2017b. Unpaired image-to-image translation using cycle-consistent adversarial networks//Proceedings of 2017 IEEE International Conference on Computer Vision. Venice: IEEE: 2242-2251[DOI:10.1109/iccv.2017.244]
  • Zhu L, Chen Y S, Ghamisi P, Benediktsson J A. 2018. Generative adversarial networks for hyperspectral image classification. IEEE Transactions on Geoscience and Remote Sensing, 56(9): 5046-5063 [DOI:10.1109/tgrs.2018.2805286]
  • Zoph B, Vasudevan V, Shlens J and Le Q V. 2018. Learning transferable architectures for scalable image recognition//Proceedings of 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE: 8697-8710[DOI:10.1109/cvpr.2018.00907]