Research and Development on Applications of Convolutional Neural Networks of Radar Automatic Target Recognition
-
摘要:
自动目标识别(ATR)是雷达信息处理领域的重要研究方向。由于卷积神经网络(CNN)无需进行特征工程,图像分类性能优越,因此在雷达自动目标识别领域研究中受到越来越多的关注。该文综合论述了CNN在雷达图像处理中的应用进展。首先介绍了雷达自动目标识别相关知识,包括雷达图像的特性,并指出了传统的雷达自动目标识别方法局限性。给出了CNN卷积神经网络原理、组成和在计算机视觉领域的发展历程。然后着重介绍了CNN在雷达自动目标识别中的研究现状,其中详细介绍了合成孔径雷达(SAR)图像目标的检测与识别方法。接下来对雷达自动目标识别面临的挑战进行了深入分析。最后对CNN新理论、新模型,以及雷达新成像技术和未来复杂环境下的应用进行了展望。
Abstract:Automatic Target Recognition(ATR) is an important research area in the field of radar information processing. Because the deep Convolution Neural Network(CNN) does not need to carry out feature engineering and the performance of image classification is superior, it attracts more and more attention in the field of radar automatic target recognition. The application of CNN to radar image processing is reviewed in this paper. Firstly, the related knowledges including the characteristics of the radar image is introduced, and the limitations of traditional radar automatic target recognition methods are pointed out. The principle, composition, development of CNN and the field of computer vision are introduced. Then, the research status of CNN in radar automatic target recognition is provided. The detection and recognition method of SAR image are presented in detail. The challenge of radar automatic target recognition is analyzed. Finally, the new theory and model of convolution neural network, the new imaging technology of radar and the application to complex environments in the future are prospected.
-
1. 引言
雷达具有较好的穿透特性,可全天时,全天候使用。雷达工作在成像模式下,可实现远程遥感,战场侦察和目标识别。雷达成像技术根据应用场景有所差异:对空/天目标成像主要使用高分辨距离像(High Range Resolution Profiles, HRRP)技术;对地面和海面目标成像主要使用合成孔径雷达(Synthetic Aperture Radar, SAR)成像技术。为了获取更为精确的信息,成像后还需要进行图像的解译,识别感兴趣的目标。传统的人工图像解译效率低,错误率高,耗费资源多,不满足时间敏感性应用需求。
当前主流的自动目标识别(Automatic Target Recognition, ATR)方法是基于模板的方法和基于模型的方法。基于模板的方法,其核心在于特征的提取和选择,需要有深厚的领域知识作为基础。基于特征的方法本质上是一种特征空间的稀疏处理方法,一些隐含的但可能关键的特征并不能被有效利用,限制了其性能提升。而基于模型的方法的核心在于目标模型设计。将目标电磁散射特性设计到目标模型之中,通过高频电磁计算软件模拟电磁波照射在目标的散射过程,实时预测目标在不同姿态、配置和环境条件下的图像或特征。但这种方法太过于依赖目标模型信息的获取。
基于大数据的深度学习方法提供了一条无需进行手动特征工程和目标建模的全新技术路线。2012年,在ImageNet竞赛上(Imagenet Large Scale Visual Recognition Competition, ILSVRC),深度学习方法以绝对优势取得冠军[1],掀起了深度学习的热潮。深度学习的诸多方法中,卷积神经网络(Convolution Neural Network, CNN)已经成功地应用于人脸检测、行为识别、语音识别、推荐系统、图像分类和自然语言处理等众多领域。卷积神经网络不需要进行复杂的手动特征提取和使用,避免了对图像进行复杂的前期预处理,能够识别出图像潜在的特征,具有优良的图像分类和识别能力,引起了雷达图像处理领域研究者的高度关注。CNN被认为是雷达ATR的重要发展方向,已成为了新的研究热点。
文章余下部分的结构组织如下:第2节介绍雷达图像的特性,分析了传统ATR方法的缺陷;第3节介绍了CNN的原理、构成和历史进展;第4节为本文的重点,介绍了常用的目标识别数据集,详细分析了CNN在当前雷达目标检测与目标识别领域的进展情况;第5节分析了雷达ATR面临的挑战;第6节展望雷达ATR未来的发展趋势;第7节为结束语。
2. 雷达自动目标识别
2.1 雷达图像特性
不同于光学图像处理,雷达图像解译和信息获取必须基于对基本的电磁(Electro Magnetic, EM)散射机制的理解。光学图像和雷达图像的差异如表1所示。
表 1 光学图像和雷达图像的差异特性 光学图像 雷达图像 波段 可见光,红外 微波段 信号形式 多波段灰度信息 单波段复信号 成像原理 能量聚焦积累 相位相干积累 尺度特性 和成像距离有关 目标尺寸不随成像距离变化 成像方向 俯仰角-方位角 距离向-方位角 相比于光学图像,雷达自动目标识别在全天时,全天候和探测距离等方面具有显著优势,但也面临着一些挑战如:图像纹理信息不显著,相干斑噪声严重,存在几何畸变和结构缺失,对角度的敏感性等等。
2.2 雷达自动识别的传统方法与缺陷
基于模板的识别方法的主要工作集中在特征库构建方面。传统的特征提取方法涉及基于空间、光谱、纹理、形态和其它信息,以手动设计的特征为主。典型的特征包括:纹理描述图、gist特征、尺度不变特征变换、梯度直方图、局部二进制模式等[2,3]。基于模板的方法符合直观理解,在计算量方面具有显著的优势。但基于模板的方法有明显的缺陷:(1)由于杂波异质性和运行环境等因素的影响,特征稳健性难以保证;(2)需要有丰富工程经验和理论基础知识来构建实用的特征库;(3)特征维数多,计算复杂,多特征维度间的关系不明确,特征缺乏充分的理论支撑,(4)缺乏智能推理能力来学习和适应动态环境,泛化能力较差;(5)在面对分层特征、不规则或者复杂决策问题时,分类方法可能会变得非常复杂[4]。
基于模型的方法主要工作量在于目标的物理模型构建,包括其外形、几何结构、纹理、材质等。对感兴趣目标的物理结构进行表征,贴近其物理本质,因此有更好的鲁棒性和通用性。基于模型的方法同样有明显缺陷:(1)需要获取目标模型的详细信息,在军事应用中实现比较困难;(2)物理模型仿真计算复杂,难以实时应用;(3)需要领域相关知识,结果受到特征提取和模板匹配技术的影响;(4)ATR系统无法自主学习SAR图像的最优分类特征[5]。
基于模板和模型的方法,都需要有深厚的领域知识来构建特征库或模型库。深度神经网络方法可从实测数据中习得目标的各种隐藏特征,无需构造复杂的高逼真度模型,也无需进行耗时的高频电磁计算,已成为当前雷达自动目标识别领域的新热点。
3. 卷积神经网络(CNN)
3.1 CNN的原理
CNN是当前图像领域应用最为广泛的深度神经网络模型。CNN的学习过程中,有3个思想起到了重要的作用:稀疏交互、参数共享和等变表征[6]。稀疏交互减少了模型的存储需求,提高了它的统计运行效率;参数共享减少了卷积核中的参数数量,利用图片空间的局部相关性实现了自动特征提取;等变表征意味着每当输入发生变化时,输出都会以相同的方式发生变化,实现了图像特征的平移不变性。LeCun等人[7]于1998年提出了LeNet-5模型,它是第1个成功应用于数字识别问题的卷积神经网络。不含输入层在内,LeNet-5模型一共有7层,主要包括输入层、卷积层、池化层、全连接层以及输出层,如图1所示。
3.2 CNN的组成
尽管CNN已经发展出了很多种不同的结构形式,但其基本的结构中都包含了卷积层,池化层和全连接层这3种类型的处理层。CNN的主要操作有:卷积、池化、全连接、非线性激活等。
卷积主要的作用是抽取特征,使网络具有一定转移不变性,也起到了降维作用。卷积层由多个不同的卷积核组成,每个卷积核用来计算不同的特征映射图,而多个不同的核描述了完整的特征映射图。卷积操作的参数共享机制缩减了模型的复杂度,使得网络更易于训练。
池化操作也被称为子采样或下采样,设定的池化窗口按着设定的规则,如求最大或求平均,在输入特征映射图中按顺序移动,输出特征图中的一个元素。主要起降维的作用,同时也使得神经网络对于小的位移和形变具有较好的鲁棒性[6]。
全连接层将前一层中的所有特征图连接到当前层的特征图,从而可以生成全局的语义信息,其本质上是一种感知器。
因为非线性性质使得网络具有一致逼近能力,而激活函数可将非线性性质引入到网络中。整流线性单元(Rectified Linear Unit, ReLU)避免了梯度消失问题,而且计算快,收敛也快,更易于学习优化,其单边特性更符合生物神经元的特征,使网络具有稀疏性,缓解了过拟合问题的发生,因此得到了广泛的应用。
3.3 CNN在机器视觉领域的研究进展
在图像分类和目标检测领域,CNN方法展现了强大的能力,在领域内的许多公开竞赛中取得了优势显著的结果。在LeNet-5模型的基础上,研究人员陆续提出了新的CNN的模型。下面以在ImageNet[8]上举行的著名的ILSVRC历年的竞赛结果为主线,重点关注目标分类任务竞赛,介绍CNN在图像处理领域的研究进展。
2012年,最具代表性的研究成果是Krizhevsky等人[1]提出的大型深层卷积神经网络AlexNet,以绝对优势夺取了竞赛冠军。2014年,Zeller等人[9]提出了反卷积网络可视化技术,并且据此提出了ZFNet模型体系结构,赢得了2014年的ImageNet分类挑战赛冠军。2014年,GoogleNet[10]赢得了2014年度ILSVRC冠军,Inception结构是其最大贡献,既增加了网络的深度, 又减少了网络参数,提高了对尺度的适应性和训练的效率。2014年的VGG[11]网络获得了ImageNet挑战赛亚军。2016年,He等人[12]提出了可用于更深层网络的ResNet,在图像分类、目标检测、目标定位任务上都取得了最好竞赛成绩。2016年,Trimps-Soushen团队利用多模型融合算法,以2.99%的错误率获得冠军。2017年,WMW设计了一个名为“挤压激励(Squeeze-and-Excitation, SE)”的架构SENet[13],每个模块通过“挤压”操作嵌入来自全局感受野的信息,并且通过“激励”操作选择性地诱导响应增强,获得了年度冠军。表2给出了一些网络的主要结构参数。
表 2 部分典型网络的参数总结LeNet5 AlexNet Overfeatfast VGG16 GoogleNetV1 ResNet50 输入图像尺寸 28×28 227×227 231×231 224×224 224×224 224×224 卷积层数量 2 5 5 13 57 53 全连接层数量 2 3 3 3 1 1 卷积核大小 5 3,5,11 3,5,11 3 1,3,5,7 1,3,7 步长 1 1,4 1,4 1 1,2 1,2 权值参数数量 60 k 61 M 146 M 138 M 7 M 25.5 M 乘积运算数量 341 k 724 M 2.8 G 15.5 G 1.43 G 3.9 G Top-5误差 – 16.4 14.2 7.4 6.7 5.25 图2列出了ILSVRC竞赛的历年冠军队伍和成绩。
4. 卷积神经网络在雷达目标识别领域的应用进展
随着CNN技术的快速发展,各个领域对它的关注程度也在逐渐增加。从web of science的检索统计来看,CNN在遥感和雷达目标识别领域的发表文章数量也在稳步增长。如图3所示。可以看出,在雷达图像处理领域,CNN在深度网络(DNN)中的占比已经显著超过了1/2,充分说明了CNN正处在方兴未艾的阶段。
4.1 数据集与预处理
雷达成像技术这些年来得到了快速的发展,一批高分辨率星载SAR系统和高分辨的机载SAR系统得到了成功的应用。当前的对地观测系统主要基于机载平台,而同时具有对地和对海观测能力的系统主要基于星载平台。
4.1.1 雷达目标识别数据集
(1) 机载雷达SAR数据集:大多数机载雷达图像检测与识别算法采用了MSTAR作为基准数据集。20世纪90年代中期,美国国防高级研究计划局(DARPA)和空军研究实验室(AFRL)联合开展了MSTAR计划。基于圣地亚国家实验室(SNL)的STARLOS X波段SAR传感器平台,采用0.3×0.3 m分辨率聚束模式,极化方式为HH,从不同的俯仰角度以圆形飞行路径采集而得。数据集包含公开目标和混合目标数据集。公开目标数据集有3大类目标(T72, BMP2和BTR70),混合目标数据集有9种不同俯仰角关于7类目标(BRDM 2, BTR60, D7, T62, ZIL 131, ZSU 234, 2S1)的SAR图像数据。在0°~360°方位角下,每隔1°~2°获取到1次目标切片。表3为MSTAR数据集的目标类型和图像数目。
表 3 MSTAR数据集的目标类型和样本数量数据集 2S1 BMP2 BRD M2 BTR 60 BTR 70 D7 T62 T72 ZIL 131 ZSU 234 训练集 299 233 298 256 233 299 299 298 299 299 测试集 274 587 274 195 196 274 196 274 274 274 (2) 星载目标识别数据集:星载雷达以SAR成像为主要感知手段,往往只提供原始SAR图像。一般获取想要的数据后,还需要进行辐射标定,地形校正,斑点噪声抑制等处理后,再进行数据集的生成。一般情况下,还需要用户自行进行目标数据的标注。主要的星载雷达数据源包括:TerraSAR-X, Sentinel-1, RadarSat-2,高分3号等。
4.1.2 数据预处理
首先对原始的SAR数据进行降噪处理,一般采用核大小为3×3的Lee滤波器对每幅图像进行处理。再将每个图像分割为预定大小的图像块。在此步骤中,一般只保留与至少1个目标相交的图像块。然后手动进行图像数据块的样本标注。SAR数据的获取和标注都是成本很高的活动,所以SAR目标识别常常面临样本匮乏的问题。
4.1.3 数据增强
为了解决小样本问题,增加训练数据集显然是一个重要的思路。在现有数据有限的情况下,通过改变数据的结构、数据之间的组合以及增加数据复杂性,可创造出“增广数据集”,与原有的训练集进行混合后,对网络进行训练。表4列举了常用的数据增强技术[14]。
表 4 常见数据增强技术名称 主要方法 旋转变换 将图像旋转一定角度 翻转变换 沿水平或垂直方向翻转图像 缩放变换 放大或缩小图像 平移变换 在图像平面上对图像进行平移 尺度变换 对图像按照置顶的尺度因子进行缩放,改变图像内容的大小或模糊程度 反射变换 对称变换,包括轴反射变换和镜面反射变换 噪声扰动 在图像内增加噪声,如指数噪声,高斯噪声,瑞利噪声,椒盐噪声等 4.2 SAR图像目标检测与识别
4.2.1 SAR图像目标检测
目标检测的目的是指出可能存在的目标类别,以及其在图像中的具体的坐标位置。需要说明的是,和传统的基于时频图的目标检测不同[15],这里主要指基于SAR图像的目标检测。基于深度学习模型的目标检测算法有两大类:(1)基于候选窗口的two-stage检测算法:先从输入图像中提取出候选目标的区域,然后使用目标检测网络对候选区域进行分类和边框回归[16];(2)基于回归的one-stage检测算法:直接产生物体的类别概率和位置坐标。
(1) 基于候选窗的方法:基于候选窗的目标检测框架需要在检测图像上产生很多候选窗口,判别这些候选窗,判别其类别并进行窗回归,最终得到的包含物体的候选窗就是目标窗。
基于区域的卷积神经网络(Region based Convolutional Neural Network, RCNN)[17],首次将目标检测与卷积网络结合,由3部分组成:候选窗生成、提取特征、分类和窗口回归。RCNN的每个候选窗都需要进行处理,效率很低,所以空间金字塔池化网络[18](Spatial Pyramid Pooling net, SPPnet)和快速RCNN[19](Fast RCNN)被提出来。Ren等人[20]提出的Faster RCNN将RCNN的3个组成部分聚合为一个整体的深度网络框架,用CNN完成候选区域的生成,同时候选区域生成网络(Region Proposal Net, RPN)和目标检测网络共享特征提取层,系统的处理效率更高,检测性能也更好。Dai等人[21]提出的R-FCN,融合了全卷积网络和RPN,更进一步提高了处理速度,而且精度与Faster RCNN相当。超级网络[22](HyperNet),特征金字塔网络[23](Feature Pyramid Network, FPN), Mask RCNN[24]等多种方法的思路都有相通之处:融合低层的高分辨信息,中层的辅助信息以及高层的语义信息,使得底层的高分辨网络层也获得语义信息,提高检测准确率;在此基础上使用RPN生成候选窗,然后使用Fast RCNN进行分类和窗口回归。
Faster RCNN具有优良的检测性能和不错的处理效率,被普遍地应用在SAR图像检测中[25]。杜兰等人[16]研究了在训练样本不足的情况下,基于Faster RCNN框架的强大特征提取能力,获得了较好的检测效果。Li等人[26]分析了Faster RCNN检测算法应用于SAR图像舰船检测领域的局限性,包括目标特征不同,成像原理不同以及数据集不同带来的局限性,提出了特征聚合、模型迁移、损失函数设计和细节调整等一些改进方法。Kang等人[27]针对SAR图像的多尺度目标检测问题,利用Faster R-CNN算法对传统的恒虚警率(Constant False Alarm Rate, CFAR)算法的保护窗口提出的目标方案进行改进,提取小尺寸目标。通过对检测网络中分类分数较低的边框进行重新评价,获得了较好的性能。Kang等人[28]还提出了一种基于上下文区域的多层融合卷积神经网络,采用中间层与缩小的浅层和向上采样的深层相结合的方法来生成建议区域。这种框架融合可深层次的语义和浅层次的高分辨率特征,提高了小型舰船的检测性能。Jiao等人[29]提出了一种基于Faster RCNN框架的密集连接多尺度神经网络,将特征映射与高分辨率特征映射合并,在每个融合特征图上附加RPN,用于解决多尺度,多场景SAR舰船检测问题。Zhong等人[30]借鉴R-FCN的思想,提出了多类地理空间目标检测的位置敏感平衡框架,解决了分类阶段的平移不变性与目标检测阶段的平移方差之间的矛盾。
(2) 基于回归的方法:基于候选窗的方法是目前主流的目标检测方法,但相对来说速度比较慢,不能满足实时性要求。基于回归的目标检测框架不需要产生候选窗口,给定输入图像,直接在图像的多个位置上回归出这个位置的目标边框和目标类别。其中的代表性方法是YOLO[31]和SSD[32]。
YOLO将图像分成若干×若干个网格(grid cell),每个网格预测若干个边框。每个边框要回归自身的位置,还要预测目标置信度和类别概率。去除置信度值较低的边框后,采用(Non-Maximum Suppression, NMS)去除冗余窗口。YOLO大大加快了处理速度,每个网络预测目标窗口时使用了全图充分的上下文信息,使得背景错误比例大幅降低。但是YOLO不能精准地定位目标,而且对相邻目标准确率较低。SSD将YOLO的回归思想与Faster RCNN的锚定方法相结合,利用不同尺度的特征图进行预测。SSD在特征图上采用卷积核来预测边框的类别分数和偏移量;为提高检测的准确率,采用不同尺度的特征图进行预测,实现了端到端的训练,是一种高精度的实时目标检测方法。SSD的处理速度比YOLO还要快,也保证了检测性能接近于Faster-RCNN的水准。
Wang等人[33,34]将SSD技术应用于SAR图像中的舰船检测。SSD的第1级是类似于VGG16的基础网络,第2级使用多尺度特征映射和卷积层相结合的方法进行目标检测,第3级使用NMS来生成最终结果。文献[33,34]对比了SSD-300和SSD-512两种模型,在训练过程中应用了迁移学习来解决船舶数量样本有限的问题。
综上,基于候选窗口的目标检测算法通常检测准确率较高,而基于回归窗口的目标检测方法在检测效率上结果较好。目前也有方法试图在这两类之间建立联系,RON[35]网络就试图利用RPN建立目标先验以提升回归模型的检测效率。表5给出了几种热门的目标检测方法的对比。Cui等人[36]结合基于回归的方法和RPN的方法,提出了一种面向大场景数据快速滑动分割的区域间非最大抑制方法,定位最合适的候选目标区域,有效解决了大场景SAR数据的目标直接检测问题。
表 5 基于CNN的目标检测方法对比方法 提出场合 核心思想 MAP(%) 主要特点 候选窗方法 RCNN ECCV 2014 选择搜索方法生成候选窗 66.0 训练分多个阶段,每个候选窗都需要用CNN处理,占用磁盘空间大,处理效率低 Fast RCNN ICCV2015 加入了SPPnet 70.0 选择搜索方法生成候选窗,耗时长,无法满足实时应用 Faster RCNN NIPS2015 提出了RPN网络,融合区域生成与CNN 73.2 性能与速度较好的折中,但区域生成方式计算量依然很大,不能实时处理 R-FCN NIPS2016 RPN+位置敏感的预测层+ROI polling+投票决策层 76.6 速度比Faster RCNN快,且精度相当 回归方法 YOLO CVPR2016 将检测问题变为回归问题 57.9 没有区域生成步骤,网格回归的定位性能较弱,检测精度不高。 SSD ECCV2016 YOLO+Proposal+多尺度 73.9 速度非常快,性能也不错 4.2.2 SAR图像目标识别
(1) 网络结构设计:2012年,AlexNet在ILSVRC上的成功,吸引了SAR自动目标识别系统研究者的注意力。
2013年,Ni等人[37]提出了一种基于视觉皮层系统的SAR自动目标识别方法,在图像预处理后,采用自适应交叉皮质模型进行图像分割,采用4层的稀疏自编码器模拟人体皮质系统的深层结构来提取特征,获得了较好的识别率。尽管Ni的方法保留了传统的特征提取步骤,但采用深层网络结构来实现目标识别功能,是一种突破性的尝试。
2014年,CNN在SAR目标识别领域得到了快速的发展。Chen等人[38]采用单层卷积神经网络对SAR图像进行特征自动识别。但仅采用单层网络,其性能表现尚不如人工特征提取方法。Wagner[39]将CNN和SVM相结合,从CNN中采用特征提取部分,在决策阶段采用SVM代替完全连通的多层感知器。既提高了分类器的泛化能力,又保持了较低的计算时间。
2015年,CNN的SAR应用开始进入了蓬勃发展时期。Wang等人[40]提出用稀疏连通卷积层代替完全连通层,改善了训练数据集有限带来的过拟合问题。Wagner[41]在之前工作的基础上,提出了用形态学成分分析做预处理的方式,将分类准确率提升到了99%。
2016年,在目标识别领域发展出了很多新的CNN结构,进一步提高了处理性能。Schwegmann等人[42]提出了使用卷积高速公路单元(Convolutional Highway Unit, CHU)构建非常深的网络,由于CHU的自适应选通机制,可以实现灵活的网络配置,以防止跨多层的梯度衰减。可以在数据集较小的情况下,对典型的SAR的船舶数据进行有效的检测训练。
2017年,CNN在SAR雷达目标识别领域的发展进入了高潮。网络训练技术和相关理论发展进一步完善。Cho等人[43]为了提高网络对不同姿态、噪声和旋转条件下的稳健性,提出了一种基于特征抽取的CNN结构。Lin等人[44]提出了卷积高速公路单元网络(CHU-Net)用于小数据集条件下的SAR目标识别,可以在有限数据下训练更深层次的网络,提供更好的泛化性能。He等人[45]利用MSTAR数据集训练出一个较浅的CNN,提取前向传播中第1层的输出;然后通过最大采样和聚类确定目标在图像中的位置,实现了SAR目标的快速无监督检测。
(2) 算法优化:代价函数也是性能改进的一种思路,田壮壮等人[46]在误差代价函数中引入类别可分性度量来提高网络的类别区分能力。出于过拟合和计算量等方面的考虑,网络结构优化也是研究的热点之一。Chen等人[47]提出了一种新的低自由度稀疏连通卷积结构取代传统的全连接,减少自由参数的数量,优化训练图像数量限制带来的严重过拟合问题;采取了“Dropout”技术和“早期停止”提升网络的泛化能力;采用了“带动量的小批量随机梯度下降法”进行优化,快速寻找全局最优点。Wilmanski等人[48]致力于学习算法的改进,采用了AdaGrad和AdaDelta技术,避免手动调节学习率等参数,对于参数选择具有更好的鲁棒性。
由于SAR图像的成像原理,图像往往会出现相干斑噪声,几何畸变和结构缺失等现象,使人工标注过程中难以避免的引入噪声,导致学习能力和泛化能力急剧下降。针对含噪声标签的SAR图像优化分类问题,赵娟萍等人[49]提出了一种基于概率转移模型的CNN方法。在传统CNN模型基础上,基于含噪标记与正确标记之间的概率转移模型,建立噪声标记转移层,这种新的CNN模型可潜在地校正错误标记,增强了含噪标记下分类模型鲁棒性。
(3) 特征融合:多通道,多特征融合也是一个重要的研究方向。Amrani等人[50]采用传统的级联和判别相关分析算法对提取的深层特征进行融合。Wang等人[51]提出了一种强度特征和梯度幅度特征的双通道特征融合方法。将每个通道的深层特征重新构造成1个2维数组,再将两个2维数组合成1个2维数组。这种表征方法可以保持两种特征之间的空间关系,达到更好的特征融合效果。Zheng等人[52]提出了一种具有较高泛化能力和较少过拟合概率的CNN改进形式,将CNN的卷积层与2维PCA算法相结合,进一步提高效率和鲁棒性。Pei等人[5]在多视角SAR模式的基础上,提出了一种灵活的方法来生成足够的多视角SAR数据。在此基础上,提出了一种包含多输入并行网络拓扑的结构,逐层学习提取不同视角的SAR图像的特征,并将不同视点的特征逐步融合在一起,对视角变化具有较好的鲁棒性。
4.3 主要思想与方法小结
各类雷达图像的卷积神经网络检测与识别技术的研究,主要可以归结于在3个方面的努力:致力于减少训练复杂度和训练时间的快速算法,致力于改进网络结构、优化网络性能的提高算法和致力于应对雷达小样本含噪数据集的扩展算法。具体情况如表6所示。
表 6 CNN在雷达图像识别应用进展的思想与方法概要提升类型 主要思想 引用文献和方法概要说明 快速算法 快速寻优预训练 文献[47]:带动量小批量随机梯度下降,快速寻找全局最优点 文献[45]:预训练较浅卷积网络,实现无监督快速检测。 文献[53]:用大样本数据对卷积网络进行预训练 用其他结构取代全连接层 文献[40,47]:低自由度稀疏连通卷积结构 文献[39]:SVM代替FC 文献[53]:用超限学习机替换FC 抽取特征再训练 文献[54]:先抽取特征再训练的两步快速训练方法 提升算法 提高网络的泛化能力 文献[47]:Dropout和早期停止 文献[52]:将卷积层与2维PCA方法结合 代价函数改进 文献[46]:代价函数中引入类别可分性度量提高类别区分能力 含噪样本训练 文献[49]:基于概率转移模型增强含噪标记下分类模型鲁棒性。 扩展算法 迁移学习 文献[26,53,55]:大样本预训练,迁移学习加快训练速度 CAD模型仿真 文献[56]: 采用CAD模型目标仿真解决SAR真实数据有限问题 文献[57]: CAD模型生成不同方位和俯仰角度的HRRP图像 预处理提升信息的利用率 文献[41]:形态学成分分析预处理提升性能 文献[58]:采用去噪自编码器预训练 小样本深度训练网络 文献[42,44]:卷积高速公路单元在小样本条件下训练深度网络 文献[59]:无监督和有监督训练结合,应对标签数据有限情况 5. 雷达自动目标识别面临的挑战
5.1 SAR与可见光图像的成像机理差异带来的挑战
SAR成像的图像分辨率相对较低,尤其对于低频段雷达和带宽较窄的雷达来说,情况更为严重;当背景杂波较强或电磁干扰条件下,目标电磁散射特征退化严重,图像信噪比降低,从而导致图像质量退化,难以获取目标的有用信息;而且SAR图像的相干斑点噪声为非高斯乘性噪声,而光学图像处理的加性高斯噪声模型难以应用于SAR图像;SAR图像的纹理信息不够显著,网络更容易过拟合;SAR目标成像结果与环境相关联,且有显著的角度敏感性。以上这些都对SAR图像识别提出了不一样的需求。
5.2 多尺度目标检测挑战
雷达可能关注的目标类型较多,特征差异较大,尤其是海面目标的多样化特征较为显著。从几米尺度的小船和快艇,到数百米尺度的大型货轮、邮轮、航母,尺度差异大。多尺度目标检测问题是现在CNN研究的热点问题。如特征金字塔网络[23]的每层特征图来源于当前层和更高级层的特征融合,既可以在不同分辨率的特征图上检测对应尺度的目标,同时又具有足够的特征表达能力。SSD方法中也同样带有多尺度结构。这类多尺度目标检测技术在雷达SAR图像目标检测中得到了快速应用[26-29,33,34,59]。多尺度SAR目标检测问题已得到一定程度的缓解,但还有一些问题需要进一步研究:复杂背景下的多尺度目标检测,如地海交界区域的多尺度目标检测;噪声条件下的小目标检测,尤其是在强斑点噪声条件下,仅有几个像素点的小尺寸目标的检测;受天线副瓣影响或者主瓣加权后展宽影响,在大尺度目标的附近的小目标检测性能下降。这些挑战都是后续可以深入的研究方向。
5.3 小样本数据集挑战
考虑到雷达图像获取的成本限制和条件限制,大规模数据样本的获取相对困难。另外,雷达图像的成像原理导致了雷达图像容易受到结构缺失、斑点噪声、角度敏感等问题的困扰,而且军事领域的非合作目标图像获取尤为困难,更加难以对提取的图像块进行准确的标注。所以在雷达军事应用领域的小样本数据集问题更加突出。
5.3.1 迁移学习
迁移学习的本质,就是要找出源数据集和目标数据集的共同点,在通用特征的层面上进行迁移。通过对其它图像数据集如ImageNet进行训练,或者是对来自于相似雷达的其它图像进行学习,获得可以使用的中低层特征。实际使用中,用源数据集训练好一个网络,然后把前面若干层复制到目标网络中,剩下的其他层随机初始化后开始训练[55]。网络进行误差反向传播时,可以选择冻结迁移过来的前面若干层;也可以不冻结,而进行微调。在雷达图像检测与识别应用中,由于带标签数据集小,相对而言,参数个数较多,更加容易出现过拟合现象,因此建议采用冻结的方式[26,53,55]。另外,源数据集和目标数据集不同,学习率、Dropout比率等细节都需要有适应性调整。
5.3.2 使用辅助数据
在一些特定的应用场合,目标数据的获取非常困难,此时仿真数据也是一种可行的手段。有时候获取全方位角和所有俯仰角的数据很困难,数据集不完整的情况也很常见。文献[56]用真实数据和仿真数据进行训练,用真实数据进行测试,取得了预期的效果。文献[57]设计了10种不同舰船类型的计算机辅助设计模型,考虑了不同的方位和俯仰角目标散射特性,并利用这些模型剖面生成了2维数据图像,仿真结果表明用这种方式进行分类是完全可行的。
5.3.3 无监督训练
数据集生成工作中,最为困难的步骤就是为目标样本的类别打上标签。尤其是在广域监视图像中,需要对目标块进行检测,然后对目标类型进行分类。在没有外部辅助信息的条件下,仅凭人工标注,正确率往往难以保证。因此高质量的大规模雷达目标样本数据集一直是制约实际应用的重要瓶颈。可行的思路是,根据少量的标注样本,结合无监督训练方法,或者直接采用无监督训练方法进行聚类的预处理,同样可以提高系统的检测识别能力[41,58]。
5.3.4 小样本训练网络
小的样本集容易过拟合,往往只能采用较为浅层的结构。目前提出的针对雷达图像的深度网络层数都比较有限,绝大多数的特征抽取层和分类层都在5~10层左右。卷积高速公路单元能够有效缓解梯度弥散的问题,可以在小样本条件下训练深度网络[44,60]。刘晨等人[53]提出用大样本对卷积神经网络进行预训练,通过迁移学习保持网络的卷积层和下采样层不变,并用超限学习机替换CNN的全连接层,降低网络对训练样本数量的要求。
6. 未来的发展趋势分析
6.1 CNN理论发展
神经网络是一个黑盒子模型,欠缺坚实的理论基础,一直被业界所诟病。但是随着卷积神经网络技术的不断发展,相关的理论研究也在不断进步之中。目前的CNN模型发展迅速,适用于各种应用的改进算法层出不穷,但是依然有必要在研究CNN的基本原理上做出更多的努力。比如说,如何利用自然视觉感知机制进一步改进CNN的设计;如何缩小生物神经网络和CNN之间的理论差距。Bengio等人[61]提出的关于生物大脑如何在深层层次上执行信用分配的动机,或许是将深度计算模型与人脑机制联系起来的重要思路。将循环神经网络和卷积神经网络结合起来,并使用增强学习来精准定位目标对象也是值得期待的研究方向[62]。Facebook 首席人工智能科学家、纽约大学教授 Yann LeCun在IJCAI 2018发表了以“Learning World Models: the Next Step towards AI”为主题的演讲,提出了“基于背景知识推理的世界模型”是未来人工智能发展的重要方向。因此,未来基于雷达成像理论和相关应用领域的专家知识,结合深度卷积网络技术进行设计,依然是一条值得发展的路线。
6.2 高性能实时处理快速网络模型
当前的模型研究逐渐聚焦于速度和准确度的权衡,网络模型正在从巨型网络向轻量化网络演变,又快又准的网络具有更广泛的实用价值。对于雷达图像处理的军事应用来说,实时性更是必须要考虑的问题。这个问题对一些高度时敏的移动应用场景来说尤为关键。而具备在移动平台部署潜力的轻量化网络是目前的研究热点。面向移动应用的MobileNet[63]通过使用空间可分离卷积方法,选择宽度因子和分辨率因子,综合考虑大小,延迟和精度,构造速度更快的网络。而ShuffleNet同样使用了空间可分离卷积,同时结合通道“洗牌”,能以超少量参数获得媲美AlexNet的准确率。DenseNet[64]在小模型场景下也展现了相当好的性能。
综上,未来的快速网络结构将会有以下一些特征:多个小卷积核代替大卷积核,如1×N和N×1的卷积核代替N×N的卷积核;使用1×1卷积核的bottleneck结构;组卷积和深度可分离卷积;通道洗牌和通道自主加权;低精度浮点数存储;密度连接等。相信未来还将会有更多针对快速网络的新型结构出现。
6.3 多通道雷达图像处理模型
雷达成像技术的发展,丰富了雷达成像的手段。多波段/多极化雷达成像,MIMO雷达多通道成像,以及多角度成像技术,都对雷达目标检测与识别提出了新的需求。多通道雷达图像的处理可以按照传统的多通道卷积处理,在每个通道做完卷积后,将多个通道卷积得到的输出直接相加,得到输出结果。但为进一步提高网络性能,需要考虑如何更好地利用不同通道的数据特性差异。可以采用类似AlexNet[1]的思路,进行组卷积,分别抽取每个通道的特征,再通过多个全连接层来融合特征;也可以采用ShuffleNet的思路,在每一次堆叠组卷积层之前,都进行一次“通道洗牌”,将打散的特征分配到不同的组,获得更好的特征表示;也可以采用SENet[13]的思想,通过“挤压”和“抽取”操作,显式地建模特征通道之间的相互依赖关系,并学习获取每个特征通道的重要程度,据此提升有用的特征并抑制无用特征。
6.4 复杂对抗环境下小规模含噪样本数据的训练问题
含噪样本有两个方面的内涵:一是成像过程中产生的不想要的噪声图像点;二是在人工标注过程中,由于标注错误产生的噪声样本。低质量含噪样本数据的检测和识别迫切需要探索低质量数据深度学习模型。生成式对抗网络(Genevative Adversarial Networks, GAN)[65]通过生成式网络自动生成与观测数据类似的新数据;而判别式网络用于判别数据的真实性。通过两者的动态博弈和学习,最终的平衡点就是学习的目标。在图像风格迁移,图像修复等方面,GAN已经获得了成功的应用。GAN在某种程度上可以学习到高分辨率图像的分布,从而生成质量比较好的高分辨率图像,进一步提高训练模型的泛化能力。因此,在雷达图像的小规模样本数据的迁移学习,图像降噪,超分辨细节生成等应用方面,GAN很好的应用前景。在无标签和部分标签数据情况下,GAN能大幅度提升训练效果。
7. 结束语
雷达目标识别技术是当前的研究热点方向,得到了越来越多的关注。深度学习技术的快速发展,给目标识别技术带来了新的思路。尤其是深度卷积神经网络在光学图像领域的卓越表现,促进了其在雷达图像处理领域的全面应用。本文的主要贡献如下:(1)了解雷达图像处理领域现有方法的局限性;(2)快速掌握CNN的原理和核心概念,了解CNN的发展路线;(3)CNN在雷达图像处理领域的进展和应用;(4)雷达图像处理领域的数据集、数据增强方法和小样本数据的应对思路;(5)未来在理论、模型和数据等方面的发展趋势。
未来CNN在雷达图像处理领域的工程化应用有以下4个趋势:(1)CNN是当前雷达目标识别领域最有可能取得理想工程应用效果的技术方向;(2)数据集依然是突破应用瓶颈的关键障碍,好的数据集甚至比好的网络模型还要重要;(3)不宜盲目追求网络深度,在雷达图像处理领域,巨型网络向轻量化网络的发展是大势所趋,应考虑数据集和应用需求,合理设计网络结构;(4)轻量化网络中的优化方法尤为重要,值得进行深入研究。
总的来说,卷积神经网络的发展为雷达目标识别领域带来了令人鼓舞的研究前景,必将为这个领域的发展提供强劲动力。
-
表 1 光学图像和雷达图像的差异
特性 光学图像 雷达图像 波段 可见光,红外 微波段 信号形式 多波段灰度信息 单波段复信号 成像原理 能量聚焦积累 相位相干积累 尺度特性 和成像距离有关 目标尺寸不随成像距离变化 成像方向 俯仰角-方位角 距离向-方位角 表 2 部分典型网络的参数总结
LeNet5 AlexNet Overfeatfast VGG16 GoogleNetV1 ResNet50 输入图像尺寸 28×28 227×227 231×231 224×224 224×224 224×224 卷积层数量 2 5 5 13 57 53 全连接层数量 2 3 3 3 1 1 卷积核大小 5 3,5,11 3,5,11 3 1,3,5,7 1,3,7 步长 1 1,4 1,4 1 1,2 1,2 权值参数数量 60 k 61 M 146 M 138 M 7 M 25.5 M 乘积运算数量 341 k 724 M 2.8 G 15.5 G 1.43 G 3.9 G Top-5误差 – 16.4 14.2 7.4 6.7 5.25 表 3 MSTAR数据集的目标类型和样本数量
数据集 2S1 BMP2 BRD M2 BTR 60 BTR 70 D7 T62 T72 ZIL 131 ZSU 234 训练集 299 233 298 256 233 299 299 298 299 299 测试集 274 587 274 195 196 274 196 274 274 274 表 4 常见数据增强技术
名称 主要方法 旋转变换 将图像旋转一定角度 翻转变换 沿水平或垂直方向翻转图像 缩放变换 放大或缩小图像 平移变换 在图像平面上对图像进行平移 尺度变换 对图像按照置顶的尺度因子进行缩放,改变图像内容的大小或模糊程度 反射变换 对称变换,包括轴反射变换和镜面反射变换 噪声扰动 在图像内增加噪声,如指数噪声,高斯噪声,瑞利噪声,椒盐噪声等 表 5 基于CNN的目标检测方法对比
方法 提出场合 核心思想 MAP(%) 主要特点 候选窗方法 RCNN ECCV 2014 选择搜索方法生成候选窗 66.0 训练分多个阶段,每个候选窗都需要用CNN处理,占用磁盘空间大,处理效率低 Fast RCNN ICCV2015 加入了SPPnet 70.0 选择搜索方法生成候选窗,耗时长,无法满足实时应用 Faster RCNN NIPS2015 提出了RPN网络,融合区域生成与CNN 73.2 性能与速度较好的折中,但区域生成方式计算量依然很大,不能实时处理 R-FCN NIPS2016 RPN+位置敏感的预测层+ROI polling+投票决策层 76.6 速度比Faster RCNN快,且精度相当 回归方法 YOLO CVPR2016 将检测问题变为回归问题 57.9 没有区域生成步骤,网格回归的定位性能较弱,检测精度不高。 SSD ECCV2016 YOLO+Proposal+多尺度 73.9 速度非常快,性能也不错 表 6 CNN在雷达图像识别应用进展的思想与方法概要
提升类型 主要思想 引用文献和方法概要说明 快速算法 快速寻优预训练 文献[47]:带动量小批量随机梯度下降,快速寻找全局最优点 文献[45]:预训练较浅卷积网络,实现无监督快速检测。 文献[53]:用大样本数据对卷积网络进行预训练 用其他结构取代全连接层 文献[40,47]:低自由度稀疏连通卷积结构 文献[39]:SVM代替FC 文献[53]:用超限学习机替换FC 抽取特征再训练 文献[54]:先抽取特征再训练的两步快速训练方法 提升算法 提高网络的泛化能力 文献[47]:Dropout和早期停止 文献[52]:将卷积层与2维PCA方法结合 代价函数改进 文献[46]:代价函数中引入类别可分性度量提高类别区分能力 含噪样本训练 文献[49]:基于概率转移模型增强含噪标记下分类模型鲁棒性。 扩展算法 迁移学习 文献[26,53,55]:大样本预训练,迁移学习加快训练速度 CAD模型仿真 文献[56]: 采用CAD模型目标仿真解决SAR真实数据有限问题 文献[57]: CAD模型生成不同方位和俯仰角度的HRRP图像 预处理提升信息的利用率 文献[41]:形态学成分分析预处理提升性能 文献[58]:采用去噪自编码器预训练 小样本深度训练网络 文献[42,44]:卷积高速公路单元在小样本条件下训练深度网络 文献[59]:无监督和有监督训练结合,应对标签数据有限情况 -
KRIZHEVSKY A, SUTSKEVER I, and HINTON G E. Imagenet classification with deep convolutional neural networks[C]. The 25th International Conference on Neural Information Processing Systems, Lake Tahoe, USA, 2012: 1097–1105. CHENG Gong, HAN Junwei, and LU Xiaoqiang. Remote sensing image scene classification: benchmark and state of the art[J]. Proceedings of the IEEE, 2017, 105(10): 1865–1883. doi: 10.1109/JPROC.2017.2675998 陈小龙, 关键, 何友, 等. 高分辨稀疏表示及其在雷达动目标检测中的应用[J]. 雷达学报, 2017, 6(3): 239–251. doi: 10.12000/JR16110CHEN Xiaolong, GUAN Jian, HE You, et al. High-resolution sparse representation and its applications in radar moving target detection[J]. Journal of Radars, 2017, 6(3): 239–251. doi: 10.12000/JR16110 BALL J E, ANDERSON D T, and CHAN C S. Comprehensive survey of deep learning in remote sensing: theories, tools, and challenges for the community[J]. Journal of Applied Remote Sensing, 2017, 11(4): 042609. doi: 10.1117/1.JRS.11.042609 PEI Jifang, HUANG Yulin, HUO Weibo, et al. SAR automatic target recognition based on multiview deep learning framework[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(4): 2196–2210. doi: 10.1109/tgrs.2017.2776357 GOODFELLOW I, BENGIO Y, and COURVILLE A. Deep Learning[M]. Cambridge, Massachusetts: MIT Press, 2016. LECUN Yann, BOTTOU Léon, BENGIO Yoshua, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278–2324. doi: 10.1109/5.726791 RUSSAKOVSKY O, DENG Jia, SU Hao, et al. Imagenet large scale visual recognition challenge[J]. International Journal of Computer Vision, 2015, 115(3): 211–252. doi: 10.1007/s11263-015-0816-y ZEILER M D and FERGUS R. Visualizing and understanding convolutional networks[C]. The 13th European Conference on Computer Vision, Zurich, Switzerland, 2014: 818–833. SZEGEDY C, LIU Wei, JIA Yangqing, et al. Going deeper with convolutions[C]. The IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 1–9. SIMONYAN K and ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[EB/OL]. http://arxiv.org/abs/1409.1556, 2014. HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. The IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778. doi: 10.1109/CVPR.2016.90. HU Jie, SHEN Li, ALBANIE S, et al. Squeeze-and-excitation networks[EB/OL]. https://arxiv.org/abs/1709.01507, 2017. 许强, 李伟, LOUMBI P. 深度卷积神经网络在SAR自动目标识别领域的应用综述[J]. 电讯技术, 2018, 58(1): 106–112. doi: 10.3969/j.issn.1001-893x.2018.01.019XU Qiang, LI Wei, and LOUMBI P. Applications of Deep convolutional neural network in SAR automatic target recognition: a summarization[J]. Telecommunication Engineering, 2018, 58(1): 106–112. doi: 10.3969/j.issn.1001-893x.2018.01.019 苏宁远, 陈小龙, 关键, 等. 基于卷积神经网络的海上微动目标检测与分类方法[J]. 雷达学报, 2018, 7(5): 565–574. doi: 10.12000/JR18077SU Ningyuan, CHEN Xiaolong, GUAN Jian, et al. Detection and classification of maritime target with micro-motion based on CNNs[J]. Journal of Radars, 2018, 7(5): 565–574. doi: 10.12000/JR18077 杜兰, 刘彬, 王燕, 等. 基于卷积神经网络的SAR图像目标检测算法[J]. 电子与信息学报, 2016, 38(12): 3018–3025. doi: 10.11999/JEIT161032DU Lan, LIU Bin, WANG Yan, et al. Target detection method based on convolutional neural network for SAR image[J]. Journal of Electronics &Information Technology, 2016, 38(12): 3018–3025. doi: 10.11999/JEIT161032 GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. The IEEE Conference on Computer Vision and Pattern Recognition, Columbus, USA, 2014: 580–587. HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[C]. The 13th European Conference on Computer Vision, Zurich, Switzerland, 2014: 346–361. GIRSHICK R. Fast R-CNN[C]. The IEEE international Conference on Computer Vision, Santiago, Chile, 2015: 1440–1448. REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[C]. The 28th International Conference on Neural Information Processing Systems, Montreal, Canada, 2015: 91–99. DAI Jifeng, LI Yi, HE Kaiming, et al. R-FCN: Object detection via region-based fully convolutional networks[C]. The 30th International Conference on Neural Information Processing Systems, Barcelona, Spain, 2016: 379–387. KONG Tao, YAO Anbang, CHEN Yurong, et al. Hypernet: Towards accurate region proposal generation and joint object detection[C]. The IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 845–853. LIN T Y, DOLLÁR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]. The IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 936–944. HE Kaiming, GKIOXARI G, DOLLÁR P, et al. Mask R-CNN[C]. The 2017 IEEE International Conference on Computer Vision, Venice, Italy, 2017: 2980–2988. WANG Sifei, CUI Zongyong, and CAO Zongjie. Target recognition in large scene SAR images based on region proposal regression[C]. The 2017 IEEE International Geoscience and Remote Sensing Symposium, Fort Worth, USA, 2017: 3297–3300. LI Jianwei, QU Changwen, and SHAO Jiaqi. Ship detection in SAR images based on an improved faster R-CNN[C]. The 2017 SAR in Big Data Era: Models, Methods and Applications, Beijing, China, 2017: 1–6. KANG Miao, LENG Xiangguang, LIN Zhao, et al. A modified faster R-CNN based on CFAR algorithm for SAR ship detection[C]. The 2017 International Workshop on Remote Sensing with Intelligent Processing, Shanghai, China, 2017: 1–4. KANG Miao, JI Kefeng, LENG Xiangguang, et al. Contextual region-based convolutional neural network with multilayer fusion for SAR ship detection[J]. Remote Sensing, 2017, 9(8): 860. doi: 10.3390/rs9080860 JIAO Jiao, ZHANG Yue, SUN Hao, et al. A densely connected end-to-end neural network for multiscale and multiscene SAR ship detection[J]. IEEE Access, 2018, 6: 20881–20896. doi: 10.1109/ACCESS.2018.2825376 ZHONG Yanfei, HAN Xiaobing, and ZHANG Liangpei. Multi-class geospatial object detection based on a position-sensitive balancing framework for high spatial resolution remote sensing imagery[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2018, 138: 281–294. doi: 10.1016/j.isprsjprs.2018.02.014 REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]. The 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 779–788. LIU Wei, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector[C]. The 14th European Conference on Computer Vision, Amsterdam, The Netherlands, 2016: 21–37. WANG Yuanyuan, WANG Chao, ZHANG Hong, et al. Combing single shot multibox detector with transfer learning for ship detection using Chinese Gaofen-3 images[C]. The 2017 Progress in Electromagnetics Research Symposium - Fall, Singapore, 2018: 712–716. WANG Yuanyuan, WANG Chao, and ZHANG Hong. Combining a single shot multibox detector with transfer learning for ship detection using sentinel-1 SAR images[J]. Remote Sensing Letters, 2018, 9(8): 780–788. doi: 10.1080/2150704X.2018.1475770 KONG Tao, SUN Fuchun, YAO Anbang, et al. Ron: Reverse connection with objectness prior networks for object detection[C]. The 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 5244–5252. CUI Zongyong, DANG Sihang, CAO Zongjie, et al. SAR target recognition in large scene images via region-based convolutional neural networks[J]. Remote Sensing, 2018, 10(5): 776. doi: 10.3390/rs10050776 NI Jiacheng and XU Yuelei. SAR automatic target recognition based on a visual cortical system[C]. The 6th International Congress on Image and Signal Processing, Hangzhou, China, 2013: 778–782. CHEN Sizhe and WANG Haipeng. SAR target recognition based on deep learning[C]. The 2014 International Conference on Data Science and Advanced Analytics, Shanghai, China, 2014: 541–547. WAGNER S. Combination of convolutional feature extraction and support vector machines for radar ATR[C]. The 17th International Conference on Information Fusion, Salamanca, Spain, 2014: 1–6. WANG Haipeng, CHEN Sizhe, XU Feng, et al. Application of deep-learning algorithms to MSTAR data[C]. The 2015 IEEE International Geoscience and Remote Sensing Symposium, Milan, Italy, 2015: 3743–3745. WAGNER S. Morphological component analysis in SAR images to improve the generalization of ATR systems[C]. The 3rd International Workshop on Compressed Sensing Theory and its Applications to Radar, Sonar and Remote Sensing, Pisa, Italy, 2015: 46–50. SCHWEGMANN C P, KLEYNHANS W, SALMON B P, et al. Very deep learning for ship discrimination in Synthetic Aperture Radar imagery[C]. The 2016 IEEE International Geoscience and Remote Sensing Symposium, Beijing, China, 2016: 104–107. CHO J H and PARK C G. Additional feature CNN based automatic target recognition in SAR image[C]. The 40th Asian Conference on Defence Technology, Tokyo, Japan, 2017: 1–4. LIN Zhao, JI Kefeng, KANG Miao, et al. Deep convolutional highway unit network for SAR target classification with limited labeled training data[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(7): 1091–1095. doi: 10.1109/lgrs.2017.2698213 HE Hao, WANG Shicheng, YANG Dongfang, et al. SAR target recognition and unsupervised detection based on convolutional neural network[C]. The 2017 Chinese Automation Congress, Jinan, China, 2017: 435–438. 田壮壮, 占荣辉, 胡杰民, 等. 基于卷积神经网络的SAR图像目标识别研究[J]. 雷达学报, 2016, 5(3): 320–325. doi: 10.12000/JR16037TIAN Zhuangzhuang, ZHAN Ronghui, HU Jiemin, et al. SAR ATR based on convolutional neural network[J]. Journal of Radars, 2016, 5(3): 320–325. doi: 10.12000/JR16037 CHEN Sizhe, WANG Haipeng, XU Feng, et al. Target classification using the deep convolutional networks for SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(8): 4806–4817. doi: 10.1109/tgrs.2016.2551720 WILMANSKI M, KREUCHER C, and LAUER J. Modern approaches in deep learning for SAR ATR[J]. SPIE, 2016, 9843: 98430N. doi: 10.1117/12.2220290 赵娟萍, 郭炜炜, 柳彬, 等. 基于概率转移卷积神经网络的含噪标记SAR图像分类[J]. 雷达学报, 2017, 6(5): 514–523. doi: 10.12000/JR16140ZHAO Juanping, GUO Weiwei, LIU Bin, et al. Convolutional neural network-based SAR image classification with noisy labels[J]. Journal of Radars, 2017, 6(5): 514–523. doi: 10.12000/JR16140 AMRANI M and JIANG Feng. Deep feature extraction and combination for synthetic aperture radar target classification[J]. Journal of Applied Remote Sensing, 2017, 11(4): 042616. doi: 10.1117/1.Jrs.11.042616 WANG Ning, WANG Yinghua, LIU Hongwei, et al. Feature-fused SAR target discrimination using multiple convolutional neural networks[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(10): 1695–1699. doi: 10.1109/lgrs.2017.2729159 ZHENG Ce, JIANG Xue, and LIU Xingzhao. Generalized synthetic aperture radar automatic target recognition by convolutional neural network with joint use of two-dimensional principal component analysis and support vector machine[J]. Journal of Applied Remote Sensing, 2017, 11(4): 046007. doi: 10.1117/1.Jrs.11.046007 刘晨, 曲长文, 周强, 等. 基于卷积神经网络迁移学习的SAR图像目标分类[J]. 现代雷达, 2018, 40(3): 38–42. doi: 10.16592/j.cnki.1004-7859.2018.03.009LIU Chen, QU Changwen, ZHOU Qiang, et al. SAR image target classification based on convolutional neural network transfer learning[J]. Modern Radar, 2018, 40(3): 38–42. doi: 10.16592/j.cnki.1004-7859.2018.03.009 LI Xuan, LI Chunsheng, WANG Pengbo, et al. SAR ATR based on dividing CNN into CAE and SNN[C]. The 5th IEEE Asia-Pacific Conference on Synthetic Aperture Radar, Singapore, 2015: 676–679. 李松, 魏中浩, 张冰尘, 等. 深度卷积神经网络在迁移学习模式下的SAR目标识别[J]. 中国科学院大学学报, 2018, 35(1): 75–83. doi: 10.7523/j.issn.2095-6134.2018.01.010LI Song, WEI Zhonghao, ZHANG Bingchen, et al. Target recognition using the transfer learning-based deep convolutional neural networks for SAR images[J]. Journal of University of Chinese Academy of Sciences, 2018, 35(1): 75–83. doi: 10.7523/j.issn.2095-6134.2018.01.010 ØDEGAARD N, KNAPSKOG A O, COCHIN C, et al. Classification of ships using real and simulated data in a convolutional neural network[C]. The 2016 IEEE Radar Conference, Philadelphia, USA, 2016: 1–6. KARABAYIR O, YUCEDAG O M, KARTAL M Z, et al. Convolutional neural networks-based ship target recognition using high resolution range profiles[C]. The 18th International Radar Symposium, Prague, Czech Republic, 2017. BENTES C, VELOTTO D, and LEHNER S. Target classification in oceanographic SAR images with deep neural networks: Architecture and initial results[C]. The 2015 IEEE International Geoscience and Remote Sensing Symposium, Milan, Italy, 2015: 3703–3706. WANG Zhaocheng, DU Lan, WANG Fei, et al. Multi-scale target detection in SAR image based on visual attention model[C]. The 5th IEEE Asia-Pacific Conference on Synthetic Aperture Radar, Singapore, 2015: 704–709. YUAN Lele. A time-frequency feature fusion algorithm based on neural network for HRRP[J]. Progress in Electromagnetics Research, 2017, 55: 63–71. doi: 10.2528/PIERM16123002 BENGIO Y, MESNARD T, FISCHER A, et al. STDP-compatible approximation of backpropagation in an energy-based model[J]. Neural Computation, 2017, 29(3): 555–577. doi: 10.1162/NECO_a_00934 LECUN Y, BENGIO Y, and HINTON G. Deep learning[J]. Nature, 2015, 521(7553): 436–444. doi: 10.1038/nature14539 HOWARD A G, ZHU Menglong, CHEN Bo, et al. Mobilenets: Efficient convolutional neural networks for mobile vision applications[EB/OL]. http://arxiv.org/abs/1704.04861, 2017. HUANG Gao, LIU Zhuang, VAN DER MAATEN L, et al. Densely connected convolutional networks[C]. The IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 2261–2269. GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]. The 27th International Conference on Neural Information Processing Systems, Montreal, Canada, 2014: 2672–2680. 期刊类型引用(46)
1. 李妙歌,陈渤,王东升,刘宏伟. 面向SAR图像目标分类的CNN模型可视化方法. 雷达学报. 2024(02): 359-373 . 百度学术
2. 郭家鑫,苏孟豪,左昊文. 基于深度学习的机械故障诊断方法研究. 信息与电脑(理论版). 2024(02): 139-141 . 百度学术
3. 曾祥书,黄一飞,蒋忠进. 基于改进YOLOv5卷积神经网络的SAR图像目标识别. 现代雷达. 2024(02): 138-145 . 百度学术
4. 姜全越. 基于卷积神经网络的视频监控识别方法. 信息与电脑(理论版). 2024(04): 144-146 . 百度学术
5. 韩璐娇,邓文龙. 基于异常音频信号的踏板机械系统轴承故障识别研究. 自动化与仪器仪表. 2024(04): 225-229+234 . 百度学术
6. 卢小华,李爱军. 嵌入注意力机制的深度可分离卷积SAR目标识别. 无线电工程. 2024(05): 1083-1090 . 百度学术
7. 李云川,李勇发,左小清,李永宁,徐浩翔,张彧然. U-Net网络结合多注意力机制的极化SAR影像地物识别方法. 测绘科学. 2024(10): 69-76 . 百度学术
8. 宋昕,王保云,朱双颖. 融合残差注意力机制的深度可分离UNet泥石流堆积扇分割. 辽宁工程技术大学学报(自然科学版). 2024(06): 752-760 . 百度学术
9. 王晨,王明江,陈嵩. 一种基于修正激活函数的CNN车载毫米波雷达目标检测方法. 信号处理. 2023(01): 116-127 . 百度学术
10. 岳帅英,彭芃,任渊. 舰载多功能相控阵雷达发展现状与趋势. 舰船科学技术. 2023(02): 141-147 . 百度学术
11. 劳春华,林燕慧. 基于深度学习和数学形态学的经济欠发达地区农村住房智能识别研究. 热带地理. 2023(02): 179-189 . 百度学术
12. 关键,刘宁波,王国庆,丁昊,董云龙,黄勇,田凯祥,张梦雨. 雷达对海探测试验与目标特性数据获取——海上目标双极化多海况散射特性数据集. 雷达学报. 2023(02): 456-469 . 百度学术
13. 王源源. 联合变分模态分解和卷积神经网络的SAR图像目标分类方法. 电光与控制. 2023(06): 41-46 . 百度学术
14. 周雅,栗心怡,武喜艳,赵宇飞,宋勇. 基于DT-LIF神经元与SSD的脉冲神经网络目标检测方法. 电子与信息学报. 2023(08): 2722-2730 . 本站查看
15. 张季伦,朱毅,李颖,陈方,刘颖,屈鸿. 基于多层脉冲神经网络的非接触液位检测方法. 电子与信息学报. 2023(08): 2759-2769 . 本站查看
16. 谢雯,王若男,羊鑫,李永恒. 融合深度可分离卷积的多尺度残差UNet在PolSAR地物分类中的研究. 电子与信息学报. 2023(08): 2975-2985 . 本站查看
17. 丁昊,朱晨光,刘宁波,王国庆. 高海况条件下海面漂浮小目标特征提取与分析. 海军航空大学学报. 2023(04): 301-312 . 百度学术
18. 刘盛启,张会强,滕书华,瞿爽,吴中杰. 基于联合动态稀疏表示的开集距离像目标识别方法. 电子与信息学报. 2023(11): 4101-4109 . 本站查看
19. 涂潜,李俊,范东亮,孔琪,沈洁. 面向数字孪生的变电站三维场景自动目标识别. 系统仿真学报. 2023(12): 2594-2601 . 百度学术
20. 李汪华,张贞凯. 一种基于集成卷积神经网络的SAR图像目标识别算法. 电讯技术. 2023(12): 1918-1924 . 百度学术
21. 何峻,傅瑞罡,付强. 自动目标识别评价方法发展述评. 雷达学报. 2023(06): 1215-1228 . 百度学术
22. 夏新程,元松. 基于探地雷达的路基脱空病害图像自动识别. 城市道桥与防洪. 2023(12): 41-43+57+15 . 百度学术
23. 赵春雷,姚嘉嵘,李京效,戚张行,魏汇赞. 地基雷达空中目标识别方法研究综述. 空天预警研究学报. 2023(05): 313-320+334 . 百度学术
24. 余印振,韩哲哲,许传龙. 基于深度卷积神经网络和支持向量机的NO_x浓度预测. 中国电机工程学报. 2022(01): 238-248 . 百度学术
25. 吴济洲,张红敏. 一种航迹数据高维特征矩阵提取方法. 指挥控制与仿真. 2022(01): 51-57 . 百度学术
26. 李硕,陈春雨,刘文龙. 深度学习的移动端可视耳标检测识别研究. 应用科技. 2022(02): 70-74 . 百度学术
27. 许述文,茹宏涛. 基于标签传播算法的海面漂浮小目标检测方法. 电子与信息学报. 2022(06): 2119-2126 . 本站查看
28. 史亚,张文博,朱明哲,王磊,徐胜军. 雷达辐射源个体识别综述. 电子与信息学报. 2022(06): 2216-2229 . 本站查看
29. 王彩云,吴钇达,王佳宁,马璐,赵焕玥. 基于改进的CNN和数据增强的SAR目标识别. 系统工程与电子技术. 2022(08): 2483-2487 . 百度学术
30. 郁文贤. 自动目标识别的工程视角述评. 雷达学报. 2022(05): 737-752 . 百度学术
31. 孟亦然,穆仕博. 飞机外形变化对雷达目标识别算法的影响. 电子测试. 2022(19): 69-71 . 百度学术
32. 霍鑫怡,李焱磊,陈龙永,张福博,孙巍. 基于卷积注意力和胶囊网络的SAR少样本目标识别方法. 中国科学院大学学报. 2022(06): 783-792 . 百度学术
33. 苏航,徐从安,姚力波,李健伟,凌青,高龙. 一种轻量化SAR图像舰船目标斜框检测方法. 航空学报. 2022(S1): 157-164 . 百度学术
34. 李俊侠,张秦,郑桂妹. 超宽带雷达人体姿态识别综述. 计算机工程与应用. 2021(03): 14-23 . 百度学术
35. 刘宁波,丁昊,黄勇,董云龙,王国庆,董凯. X波段雷达对海探测试验与数据获取年度进展. 雷达学报. 2021(01): 173-182 . 百度学术
36. 汪卫平. 卷积神经网络的电力系统设备状态智能识别研究. 信息技术. 2021(02): 115-119 . 百度学术
37. 王艳,李昂,王晟全. 训练集对遥感图像超分辨率下自动目标识别影响的研究. 重庆理工大学学报(自然科学). 2021(02): 136-143 . 百度学术
38. 李璐,杜兰,何浩男,李晨,邓盛. 基于深度森林的多级特征融合SAR目标识别. 电子与信息学报. 2021(03): 606-614 . 本站查看
39. 董小伟,韩悦,张正,曲洪斌,高国飞,陈明钿,李博. 基于多尺度加权特征融合网络的地铁行人目标检测算法. 电子与信息学报. 2021(07): 2113-2120 . 本站查看
40. 简川霞,陈鑫,林浩,张韬,王华明. 基于卷积神经网络的印刷套准识别方法. 包装工程. 2021(15): 275-283 . 百度学术
41. 王强,曹磊,史润佳,杨非,蒋忠进. 基于DCResNet的SAR图像车辆目标识别. 雷达科学与技术. 2021(04): 387-392+402 . 百度学术
42. 周隽凡,孙浩,雷琳,计科峰,匡纲要. SAR图像稀疏对抗攻击. 信号处理. 2021(09): 1633-1643 . 百度学术
43. 胡伏原,李林燕,尚欣茹,沈军宇,戴永良. 基于卷积神经网络的目标检测算法综述. 苏州科技大学学报(自然科学版). 2020(02): 1-10+25 . 百度学术
44. 郭炜炜,张增辉,郁文贤,孙效华. SAR图像目标识别的可解释性问题探讨. 雷达学报. 2020(03): 462-476 . 百度学术
45. 徐英,谷雨,彭冬亮. 基于稀疏表示和多特征融合的SAR图像识别. 指挥信息系统与技术. 2020(03): 29-35 . 百度学术
46. 白江波,杨阳,张文生. 基于改进CycleGAN的合成孔径雷达图像仿真. 中国科学技术大学学报. 2020(08): 1181-1186 . 百度学术
其他类型引用(40)
-