Research on Maneuvering State Recognition Method of Hypersonic Glide Vehicle
-
摘要: 高超声速滑翔飞行器(HGV)的迅猛发展改变了传统的作战样式,开辟了军事斗争的新领域。对HGV的机动状态进行识别可以为威胁评估、轨迹预测和防御决策提供有力支撑。为提高HGV机动状态识别精度,该文提出一种基于注意力机制的卷积长短时记忆网络识别模型(AT-ConvLSTM)。在对HGV进行机动建模和特性分析基础上,将HGV在空间的机动状态分为8类,构造了对应的特征识别参数,建立了包含不同初始条件和控制模式下HGV机动轨迹的轨迹库。推导了从雷达跟踪信息到特征识别参数的转换步骤,使用提出的状态识别模型对HGV机动轨迹的时空特征进行提取,并通过SoftMax分类器输出机动状态分类。最后,通过仿真实验对模型性能进行验证。结果表明,所提状态识别模型能够有效在线识别HGV机动状态,具有较好的实时性和准确性。Abstract: The rapid development of Hypersonic Glide Vehicle (HGV) has changed the traditional combat style and opened a new field of military struggle. Identifying the maneuvering state of HGV can provide a powerful support for threat assessment, trajectory prediction and defense decision. In order to improve the accuracy of HGV maneuver state recognition, an HGV maneuver state recognition model based on ATtention Convolutional Long Short-Term Memory network (AT-ConvLSTM) is proposed. First, on the basis of maneuvering modeling and characteristic analysis of HGV, the maneuvering state of HGV in space is divided into eight categories, and the corresponding feature recognition parameters are constructed. A trajectory library containing HGV maneuvering trajectories under different initial conditions and control modes is established. Then, the conversion steps from radar tracking information to feature recognition parameters are deduced. The proposed state recognition model is used to extract the spatial features of HGV motion trajectory, and the maneuvering state is classified by the SoftMax classifier. Finally, the algorithm is verified by simulation experiments. The results show that the proposed method can effectively identify HGV maneuvering state online, which has good real-time and accuracy.
-
Key words:
- Hypersonic /
- Vehicle /
- State recognition /
- Deep learning /
- Maneuver modeling
-
1. 引言
合成孔径雷达(Synthetic Aperture Radar, SAR)是一种主动式的对地观测系统,能够全天时全天候对地观测,广泛应用于民用监测领域和军事侦察领域。近年来,随着SAR领域相关技术的发展,对SAR图像进行快速准确的目标检测是该领域的关键技术,也是目前的技术研究热点。
现有的SAR图像目标检测方法中,双参数CFAR检测算法[1-3]是一种应用广泛的检测方法。该方法要求SAR图像中目标与背景杂波的对比度较高,并且假定背景杂波服从高斯分布,同时需要根据目标大小设置参考窗尺寸。在场景简单的情况下,该方法的检测效果较好,但是在复杂场景下检测性能较差。
随着深度学习技术的发展,卷积神经网络(Convolutional Neural Network, CNN)[4-9]的特征提取能力不断提升,基于CNN的目标检测算法[10-12]层出不穷。基于CNN的目标检测方法具有强大的特征提取能力和检测性能,因此将其应用于SAR图像目标检测能够获得较高的性能。文献[13]提出的基于CNN的SAR图像目标检测方法,可以在训练数据充足的情况下获得优异的检测性能,但是网络的训练依赖于切片级标记的训练样本以及扩充数据集,在切片级训练样本数量少的情况下,该方法的性能不佳。
现有的SAR图像目标检测方法依赖于大量的切片级标记训练样本,然而实际中对样本进行切片级标记十分耗时耗力。训练样本指训练时输入网络的SAR图像,切片级标记是对SAR图像中感兴趣目标的位置进行标记。对SAR图像进行切片级标记需要人工观察图像,在图像中复杂的人造杂波和自然杂波干扰的情况下,对感兴趣目标的位置和类别进行标记,人工标记的速度很慢;有的目标与杂波的区分度不高,人工标记很有可能漏标或者错标。相比之下,对SAR图像进行图像级标记较为容易,只需要标记SAR图像中是否含有感兴趣目标,不需要对目标位置进行标记。因此,在切片级标记的训练样本数量少的情况下,使用半监督学习方法对图像级标记的训练样本进行有效利用,是提升目标检测性能的一种解决方案。
早期的半监督学习方法主要利用人工特征和分类器进行自学习,文献[14]提出一种基于半监督自学习的目标检测方法,该方法首先对训练图像提取疑似目标切片,并对部分切片进行标记,接着利用标记样本训练分类器,然后利用训练好的分类器对未标记的切片进行分类,将分类置信度较高的样本加入到有标记样本集中,最后用更新的有标记样本集重新训练分类器。上述过程迭代进行直到不存在无标记样本。该方法在仅有少量目标切片标记的情况下,可以取得较好的性能,但是该方法需要选择合适的特征和分类器,在实际应用中较为困难。
将半监督学习方法与深度网络进行结合,可以避免选择特征和分类器的问题,并且网络的特征提取和分类器联合训练,可以取得较好的性能。文献[15]提出一种基于卷积神经网络的半监督学习方法,该方法提出候选区域提取网络和定位网络来提取候选区域和定位飞机,利用半监督学习框架从原始图像中自动挖掘和扩充训练数据集。该方法在对训练图像进行少量目标级标记的情况下,可以取得较好的性能,但是该方法仅从原始图像中挖掘负样本,会造成正负切片比例不均衡的问题,对结果造成不利影响;另外,该方法预测的目标尺寸固定,不能针对目标自动修正尺寸,对目标位置的预测不够精确。
针对以上问题,本文基于Faster R-CNN目标检测框架[12],在切片级标记SAR图像数量较少的情况下,将图像级标记SAR图像有效利用,提出一种基于CNN的半监督SAR图像目标检测方法。本文的主要工作包括:(1)基于Faster R-CNN目标检测框架,提出一种迭代挑选正负切片和训练网络交替进行的半监督学习方法,降低了网络对切片级标记样本的依赖程度;(2)通过网络获取负包,并将负包中的负切片加入候选区域集中,提高负切片的数量和多样性。由于本文方法同时挑选正切片和负切片,可以保证正负切片的比例均衡;此外,本文方法使用多任务深度网络,可以同时预测类别和位置,能够针对不同目标自适应地预测出准确的尺寸,对目标位置的预测较为精确。基于实测数据的实验结果表明,本文方法可以有效提升目标检测的性能,其性能与使用全部样本进行切片级标记的全监督方法的性能相差不大。
2. 基于CNN的半监督SAR目标检测方法
本文提出的基于CNN的半监督SAR图像目标检测方法如图1所示。
本文方法的网络结构主要包括候选区域提取网络和检测网络。候选区域提取网络对SAR图像进行特征提取,并获得潜在的候选区域;然后将候选区域送入检测网络,检测网络对候选区域进一步分类和位置调整,获得最终的检测结果。
如图1,本文方法的训练过程分为3步:第1步使用蓝色框和蓝色箭头表示,使用切片级标记的SAR图像对候选区域提取网络和检测网络进行训练,并获得这些图像对应的候选区域集;第2步使用黄色框和黄色箭头表示,将图像级标记的杂波SAR图像输入网络,对输出切片进行挑选得到负包,将负包中的杂波切片加入候选区域集;第3步使用绿色框和绿色箭头表示,将图像级标记的目标SAR图像输入网络,对输出的正负切片进行挑选并去重复,然后挑选的切片加入到候选区域集中,最后使用更新的候选区域集对网络进行训练。第3步需要交替迭代进行直到收敛。
接下来分别介绍本文方法的网络结构和半监督学习方法。
2.1 网络结构
目标检测网络的网络结构主要包括候选区域提取网络和检测网络。候选区域提取网络和检测网络共享特征提取网络。
特征提取网络的结构如图2所示,该网络有3个卷积层,每个卷积层后面接着批归一化(Batch Normalization, BN)[16]层和修正线性单元(Rectified Linear Unit, ReLU)[17]层,前两个ReLU层的后面使用池化层对特征进行降维,3个卷积层的卷积核个数分别是64, 128和256,卷积核大小分别是11×11, 7×7和3×3,卷积步长分别是2, 1和1。
候选区域提取网络通过特征提取网络提取图像的特征,然后使用一个滑动的小网络,通过滑动窗口的方式访问特征图的每个位置,使用每个位置的特征预测得到候选区域。这个滑动的小网络将
n×n 大小的滑动窗口对应的特征作为输入,通过全连接映射到一个低维的特征,然后将低维特征送入两个全连接层,分别是边框回归层和分类层,全连接层的输出是预测的候选区域。检测网络通过特征提取网络提取图像的特征,使用ROI池化获得候选区域对应的特征,然后将特征通过全连接层对候选区域进一步分类和位置调整。ROI池化首先在特征图上截取候选区域对应的特征块,然后将特征块均匀划分为
m×m 个小格,对每个小格通过最大值池化降维,得到尺寸为m×m 的特征。2.2 半监督学习
2.2.1 半监督学习训练过程
本文提出的基于CNN的半监督SAR图像目标检测方法如图1所示,网络的半监督训练过程分为3步,具体算法步骤如下:
步骤 1
(1) 使用切片级标记的SAR图像,通过4步训练法[12]对候选区域提取网络和检测网络进行训练。
(2) 将切片级标记的SAR图像输入训练好的候选区域提取网络,网络的输出是输入图像对应的候选区域,通过与真实切片级标记进行比对,获得每个候选区域的标签,即可得到切片级标记的SAR图像对应的正切片和负切片,构成初始候选区域集。
步骤 2
将图像级标记的SAR图像集中的杂波类图像输入步骤1训练好的目标检测网络中,对网络的输出切片进行选择得到负包,将负包中的杂波切片加入候选区域集。
步骤 3
(1) 将图像级标记的SAR图像集中的目标类图像输入目标检测网络,对输出结果进行NMS去重复处理,得到检测结果,检测结果包括预测得到的正切片和负切片。
(2) 使用切片挑选模块对检测结果中的正负切片进行挑选,首先挑选出置信度大于阈值的切片,然后去掉与候选区域集中已有切片重复的切片,得到挑选出的切片。如果挑选出的切片数量占候选区域集中所有切片数量的比例小于设定的比例阈值,则说明已经收敛,停止训练;否则将挑选出的切片加入候选区域集,并继续进行下一步。
(3) 使用更新后的候选区域集对检测网络再次进行训练。训练时,使用上次训练好的模型进行参数初始化,并使用更新的数据集进行微调,训练好之后对网络进行测试,获得测试准确率,如果准确率与上次训练的准确率相比没有提升,则说明已经收敛,停止训练,否则继续进行下一步。
步骤(1)—步骤(3)交替进行直到收敛。
接下来详细介绍步骤2中的负包生成过程和步骤3中的切片挑选过程。
2.2.2 负包生成过程
将图像级标记的SAR图像集中的杂波图像输入到训练好的目标检测网络中,获取对应的检测结果,因为输入的是杂波图像,所以输出的所有切片都是杂波切片,选择每一幅图像的检测结果中置信度最高的前
K 个杂波切片,作为该杂波图像的杂波切片集,称之为负包。由于此过程需要尽可能挑选出难分的杂波切片,并且要保证候选区域集中目标切片和杂波切片的比例不会失衡,因此K 不能设置的较高。将杂波图像输入目标检测网络,可以获得大量尺寸不同并且背景多样的杂波切片,加入的杂波切片可以提升候选区域集中切片的多样性,提升检测网络的泛化能力。
2.2.3 切片挑选过程
将图像级标记的SAR图像集中的目标类图像输入目标检测网络,预测得到其对应的检测结果,检测结果包括每个预测目标切片和杂波切片的分类置信度和边框坐标。
对检测结果进行NMS去重复处理,并选择检测结果中目标切片和杂波切片的分类置信度大于阈值
Ts 的切片,将挑选的切片与候选区域集中重复的切片删除。接下来介绍判断切片是否为重复切片的方法:步骤 1 计算初始切片集中的切片与候选区域集中所有切片重叠率的最大值
IOUmax 。初始切片集中第
i 个切片的IOUmax,i 的计算方法为IOUmax,i=maxj(Cnew,i∩Cold,jCnew,i∪Cold,j) (1) 其中
Cnew,i 表示初始切片集中的第i 个切片,Cold,j 表示候选区域集中的第j 个切片,Cnew,i∩Cold,j 表示两个切片区域交集的面积,Cnew,i∪Cold,j 表示两个切片区域并集的面积。步骤 2 如果
IOUmax,i 大于设定的阈值IOUT ,则认为该切片是重复的,应该删除掉。经过阈值挑选和去除重复后,计算挑选出的切片数量与候选区域集中切片数量的比例
β 。如果β 大于等于βT ,说明挑选出的新切片较多,这些新切片可以提升数据集中的切片的数量和多样性,新切片对网络的训练还会有较大的帮助,因此将挑选的切片加入候选区域集。如果β 小于设定的阈值βT ,说明挑选出的新切片数量非常少,如果将新切片加入候选区域集,更新后的候选区域集与更新前相比差别非常小,训练后网络的泛化能力基本不会提升。所以当β 小于βT 时,迭代过程终止,半监督学习过程结束。交替迭代的过程中,如果网络的测试准确率与上次训练的网络准确率相比没有提升,说明此时网络的性能与上次迭代训练好的网络的性能也没有提升,如果使用当前的网络继续挑选切片,挑选出的切片与上次迭代挑选出的切片就会非常相似,那么候选区域集就基本不会更新,再次训练的网络的性能也就不会提升。因此为了减小不必要的训练时间,如果准确率与上次训练的准确率相比没有提升,则说明网络的性能已经达到顶峰,可以停止交替迭代的过程。
3. 实验结果与分析
3.1 实验数据集介绍
MiniSAR实测数据集[18]和FARADSAR实测数据集[19]是美国Sandia国家实验室分别在2006年和2015年公开的SAR图像数据集,分辨率为0.1 m×0.1 m,都是场景复杂的地面图像。实验将SAR图像中的车辆目标作为感兴趣目标。图3是MiniSAR数据集和FARADSAR数据集的示例。
3.2 评价准则和实验细节
为了验证本文方法的有效性,使用F1-score作为检测结果的性能评价指标。F1-score的计算公式为
P=TPTP+FP,R=TPNP (2) F1-score=2PRP+R (3) 其中,
TP 是检测结果中的正确目标个数,FP 是错误目标个数,NP 是真实目标个数,P 是检测精度,R 是召回率,F1-score是评价性能的主要指标。实验中随机选择30%的SAR训练子图像进行切片级标记,剩余的图像进行图像级标记。通过10次随机选择样本并进行10次重复实验,将得到的测试结果取平均作为最终的测试结果。实验中挑选切片的阈值Ts 为0.925,判断是否重复的重叠率阈值IOUT 为0.8,判断网络是否收敛的新切片数量的比例阈值βT 为0.03。3.3 切片挑选方案和负包对网络性能的影响
对于MiniSAR数据集,实验对比了使用不同的挑选切片方案的性能,包括只挑选正切片,只挑选负切片,以及正负切片都挑选共3种方案,实验也对比了加入负包对性能的影响,负包是通过杂波SAR图像获得的杂波切片集合,负包数量是指使用杂波SAR子图像的数量。
使用不同的切片挑选方案以及加入负包的数量对应的实验结果如表1所示,表中数字加粗表示对应方案的F1-score最高。
表 1 不同方案的实验结果负包数量 挑选的切片 P R F1-score 0 正切片 0.6397 0.7500 0.6905 负切片 0.8833 0.4569 0.6023 正切片+负切片 0.7387 0.7069 0.7225 10 正切片 0.6797 0.7500 0.7131 负切片 0.7917 0.4914 0.6064 正切片+负切片 0.7573 0.6724 0.7123 20 正切片 0.7658 0.7328 0.7489 负切片 0.8382 0.4914 0.6196 正切片+负切片 0.8137 0.7155 0.7615 30 正切片 0.8202 0.6293 0.7122 负切片 0.8413 0.4569 0.5922 正切片+负切片 0.8675 0.6207 0.7236 40 正切片 0.8111 0.6293 0.7087 负切片 0.8667 0.4483 0.5909 正切片+负切片 0.8352 0.6552 0.7343 实验结果表明对正切片和负切片都进行挑选的性能最佳。主要原因是只挑选正切片或负切片会使得候选区域集中某种切片的数量越来越多,造成正负切片比例不均衡的问题,影响网络的性能;对正负切片都进行挑选能保证候选区域集中正负切片的数量同时增加,不会造成正负切片的数量比例失衡,还可以提高切片的多样性,提升检测网络的性能。
实验结果还表明,当加入负包的数量增大时,在一定范围内,网络的性能不断提升,超过一定范围,网络的性能就会降低。主要原因是加入的负包提升了候选区域集中负切片的多样性,检测网络就具有更好的泛化性能;如果加入负包的数量过多,那么候选区域集中负切片的数量过多,会造成正负切片比例不均衡的问题,网络的性能就会降低。
3.4 与其他方法的检测结果对比
表2对比了不同方法的实验结果,其中Gaussian-CFAR使用文献[1]中的方法;Faster R-CNN-少部分切片级标记使用文献[13]中的网络,仅使用了少部分切片级标记的训练样本;Faster R-CNN-全部切片级标记使用文献[13]中的网络,对全部训练样本都进行了切片级标记;文献[14]方法使用原文的半监督算法框架,利用CFAR提取疑似切片,使用林肯特征训练SVM分类器;文献[15]方法使用原文的半监督算法框架,使用候选区域提取网络和定位网络,多次迭代挑选负切片并训练网络;本文方法基于Faster R-CNN网络,使用网络挑选杂波切片并得到负包,通过网络迭代挑选正负切片进行半监督学习。
表 2 不同方法的实验结果不同方法 MiniSAR数据集 FARADSAR数据集 P R F1-score P R F1-score Gaussian-CFAR 0.3789 0.7966 0.5135 0.2813 0.4671 0.3512 Faster R-CNN-少部分切片级标记 0.6455 0.6121 0.6283 0.7370 0.8813 0.8027 Faster R-CNN-全部切片级标记 0.8073 0.7586 0.7822 0.7760 0.9479 0.8534 文献[14]方法 0.5814 0.9806 0.7285 0.4506 0.7325 0.5580 文献[15]方法 0.4699 0.7480 0.5772 0.3744 0.7945 0.5090 本文方法 0.8137 0.7155 0.7615 0.8035 0.8813 0.8406 从表2可以看出,Gaussian-CFAR方法的F1-score非常低,虚警很多,有很多检测结果是错误的;Faster R-CNN-少部分切片级标记的方法仅使用了少量的训练样本,其F1-score较低;文献[14]方法虽然召回率很高,能将大部分目标检测出来,但是检测精度较低,虚警较多;文献[15]方法的召回率较高,但是检测精度较低,虚警也较多;本文方法的检测精度, 召回率和F1-score都较高,相比其他方法有较大优势,本文方法检测虚警量较少,能检测出大部分的目标。对于MiniSAR数据集,本文方法的F1-score相比Faster R-CNN-少部分切片级标记的结果提升了0.1332,仅比Faster R-CNN-全部切片级标记的检测结果低0.0207;对于FARADSAR数据集,本文方法的F1-score相比Faster R-CNN-少部分切片级标记的结果提升了0.0379,仅比Faster R-CNN-全部切片级标记的检测结果低0.0128。因此,本文方法在仅使用少量切片级标记训练样本和大量图像级标记训练样本的情况下,与全监督方法的性能相差不大。
图4,图5,图6,图7,图8和图9分别表示Gaussian-CFAR, Faster R-CNN-少部分切片级标记,Faster R-CNN-全部切片级标记,文献[14]方法,文献[15]方法和本文方法在MiniSAR数据集上的测试结果;图10,图11,图12,图13,图14和图15分别表示上述方法在FARADSAR数据集上的测试结果,由于该数据集的测试图片较多,本节只展示了其中两幅测试图片的结果。图中绿色框表示检测正确的目标,红色框表示检测错误的目标,蓝色框表示未检测到的目标。实验结果表明在建筑物,树木和其它军事目标的区域中,Gaussian-CFAR的虚警非常多,Faster R-CNN-少部分切片级标记的方法的检测结果虚警较多,文献[14]方法和文献[15]方法也有较多虚警;本文方法的检测结果中的虚警最低;在车辆较为集中的区域,Gaussian-CFAR和Faster R-CNN-少部分切片级标记的方法的检测结果含有一些漏警,本文方法的漏警较少;本文方法与Faster R-CNN-全部切片级标记的测试结果相差不大。
图 7 MiniSAR数据集:文献[14]方法的检测结果图 8 MiniSAR数据集:文献[15]方法的检测结果图 13 FARADSAR数据集:文献[14]方法的检测结果图 14 FARADSAR数据集:文献[15]方法的检测结果本文方法性能较高的主要原因有两个方面:第一,本文方法使用半监督学习的方案训练目标检测网络,使用迭代挑选正负切片的方法对图像级标记图像进行有效利用,提升了网络的泛化性能;第二,本文方法通过将负包中的负切片加入候选区域集中,提高了候选区域集中负切片的多样性,提升了网络的泛化性能。
4. 结论
本文研究了利用半监督学习方法对目标检测网络进行训练的方法,解决了现有方法对切片级标记的训练样本依赖程度高的问题。本文所提的半监督学习方法仅需要对训练样本中少部分样本进行切片级标记,剩余大部分样本进行图像级标记。本文方法不依赖于具体的目标检测算法,可以适用于任何两阶段目标检测器。基于实测数据的实验结果证明了在切片级标记训练样本数量少的情况下,本文方法在SAR图像目标检测中可以获得较好的性能,并且使用本文方法训练得到的模型的性能,与全部训练样本切片级标记训练的全监督方法的性能相差不大。
-
表 1 不同步长对应的模型训练结果
时间步长 精度(%) 训练集精度 验证集精度 50 92.36 91.25 100 95.97 94.68 150 96.13 95.54 200 97.41 96.32 250 98.59 97.75 300 97.98 97.04 表 2 模型精度对比
网络模型 精度(%) 训练集精度 验证集精度 RNN 80.51 77.51 LSTM 86.18 82.31 CNN-LSTM 97.33 96.79 ConvLSTM 98.06 97.41 本文AT-ConvLSTM 98.59 97.75 表 3 模型识别准确率(%)
轨迹 CNN-LSTM ConvLSTM 本文AT-ConvLSTM LSTM RNN 轨迹1 89.44 90.00 91.67 88.89 87.22 轨迹2 90.00 91.11 92.78 73.33 66.67 表 4 模型识别准确率结果
网络模型 错误点数/总点数 准确率(%) RNN 18000/43200 58.33 LSTM 12600/43200 71.53 CNN-LSTM 4500/43200 89.58 ConvLSTM 3600/43200 91.66 本文AT-ConvLSTM 3300/43200 92.36 -
[1] 王国宏, 李岳峰, 于洪波, 等. 三维空间中高超声速目标修正三级Hough变换-检测前跟踪算法[J]. 电子与信息学报, 2018, 40(4): 890–897. doi: 10.11999/JEIT170622WANG Guohong, LI Yuefeng, YU Hongbo, et al. Modified triple-stage Hough transform track-before-detect algorithm in three-dimensional space for hypersonic target[J]. Journal of Electronics &Information Technology, 2018, 40(4): 890–897. doi: 10.11999/JEIT170622 [2] 肖松, 谭贤四, 王红, 等. 地基雷达部署对探测临近空间高超声速目标影响研究[J]. 电子与信息学报, 2015, 37(7): 1723–1728. doi: 10.11999/JEIT141024XIAO Song, TAN Xiansi, WANG Hong, et al. Detection performance assessment of near-space hypersonic target based on ground-based radar[J]. Journal of Electronics &Information Technology, 2015, 37(7): 1723–1728. doi: 10.11999/JEIT141024 [3] WANG Yongjun, DONG Jiang, LIU Xiaodong, et al. Identification and standardization of maneuvers based upon operational flight data[J]. Chinese Journal of Aeronautics, 2015, 28(1): 133–140. doi: 10.1016/j.cja.2014.12.026 [4] MA Yanjun, ZHAO Shunyi, and HUANG Biao. Multiple-model state estimation based on Variational Bayesian inference[J]. IEEE Transactions on Automatic Control, 2019, 64(4): 1679–1685. doi: 10.1109/TAC.2018.2854897 [5] 孟光磊, 张慧敏, 朴海音, 等. 自动化飞行训练评估中的战机机动动作识别[J]. 北京航空航天大学学报, 2020, 46(7): 1267–1274. doi: 10.13700/j.bh.1001-5965.2019.0445MENG Guanglei, ZHANG Huimin, PIAO Haiyin, et al. Recognition of fighter maneuver in automatic flight training evaluation[J]. Journal of Beijing University of Aeronautics and Astronautics, 2020, 46(7): 1267–1274. doi: 10.13700/j.bh.1001-5965.2019.0445 [6] 徐西蒙, 杨任农, 于洋, 等. 基于运动分解和H-SVM的空战目标机动识别[J]. 控制与决策, 2020, 35(5): 1265–1272. doi: 10.13195/j.kzyjc.2018.1210XU Ximeng, YANG Rennong, YU Yang, et al. Target maneuver recognition in air combat based on motion decomposition and H-SVM[J]. Control and Decision, 2020, 35(5): 1265–1272. doi: 10.13195/j.kzyjc.2018.1210 [7] 熊邦书, 刘雨, 莫燕, 等. 基于SVM的直升机飞行状态识别[J]. 应用科学学报, 2016, 34(4): 469–474. doi: 10.3969/j.issn.0255-8297.2016.04.012XIONG Bangshu, LIU Yu, MO Yan, et al. Recognition of helicopter flight condition based on support vector machine[J]. Journal of Applied Sciences, 2016, 34(4): 469–474. doi: 10.3969/j.issn.0255-8297.2016.04.012 [8] 张裕禄, 毕红葵, 叶泽浩, 等. 基于随机森林的HRGV滑翔段飞行状态识别[J]. 战术导弹技术, 2020(2): 1–8,21. doi: 10.16358/j.issn.1009-1300.2020.9.142ZHANG Yulu, BI Hongkui, YE Zehao, et al. Flight state recognition of HRGV glide section based on random forest[J]. Tactical Missile Technology, 2020(2): 1–8,21. doi: 10.16358/j.issn.1009-1300.2020.9.142 [9] 周旺旺, 姚佩阳, 张杰勇, 等. 基于深度神经网络的空中目标作战意图识别[J]. 航空学报, 2018, 39(11): 322468–322476. doi: 10.7527/S1000-6893.2018.22468ZHOU Wangwang, YAO Peiyang, ZHANG Jieyong, et al. Combat intention recognition for aerial targets based on deep neural network[J]. Acta Aeronautica et Astronautica Sinica, 2018, 39(11): 322468–322476. doi: 10.7527/S1000-6893.2018.22468 [10] 季学武, 费聪, 何祥坤, 等. 基于LSTM网络的驾驶意图识别及车辆轨迹预测[J]. 中国公路学报, 2019, 32(6): 34–42. doi: 10.19721/j.cnki.1001-7372.2019.06.003JI Xuewu, FEI Cong, HE Xiangkun, et al. Intention recognition and trajectory prediction for vehicles using LSTM network[J]. China Journal of Highway and Transport, 2019, 32(6): 34–42. doi: 10.19721/j.cnki.1001-7372.2019.06.003 [11] 贾镇泽, 樊晓光, 薛明浩, 等. 基于机动动作元的敌机战术机动在线识别方法[J]. 北京理工大学学报, 2018, 38(8): 820–827. doi: 10.15918/j.tbit1001-0645.2018.08.009JIA Zhenze, FAN Xiaoguang, XUE Minghao, et al. Online identification method for tactical maneuver of target based on air combat maneuver element[J]. Transactions of Beijing Institute of Technology, 2018, 38(8): 820–827. doi: 10.15918/j.tbit1001-0645.2018.08.009 [12] ZHENG Tianyu, YAO Yu, HE Fenghua, et al. Active switching multiple model method for tracking a noncooperative gliding flight vehicle[J]. Science China Information Sciences, 2020, 63(9): 192202. doi: 10.1007/s11432-019-1515-2 [13] FAUST O, SHENFIELD A, KAREEM M, et al. Automated detection of atrial fibrillation using long short-term memory network with RR interval signals[J]. Computers in Biology and Medicine, 2018, 102: 327–335. doi: 10.1016/j.compbiomed.2018.07.001 [14] 张君彪, 熊家军, 兰旭辉, 等. 基于自适应滤波的高超声速滑翔目标三维跟踪算法[J]. 系统工程与电子技术, 2022, 44(2): 628–636. doi: 10.12305/j.issn.1001-506X.2022.02.33ZHANG Junbiao, XIONG Jiajun, LAN Xuhui, et al. 3D tracking algorithm of hypersonic gliding target based on adaptive filtering[J]. Systems Engineering and Electronics, 2022, 44(2): 628–636. doi: 10.12305/j.issn.1001-506X.2022.02.33 [15] LI Guanghua, ZHANG Hongbo, and TANG Gguojian. Maneuver characteristics analysis for hypersonic glide vehicles[J]. Aerospace Science and Technology, 2015, 43: 321–328. doi: 10.1016/j.ast.2015.03.016 [16] JOSHI A, SIVAN K, and AMMA S S. Predictor-corrector reentry guidance algorithm with path constraints for atmospheric entry vehicles[J]. Journal of Guidance, Control, and Dynamics, 2007, 30(5): 1307–1318. doi: 10.2514/1.26306 [17] 陈克俊, 刘鲁华, 孟云鹤. 远程火箭飞行动力学与制导[M]. 北京: 国防工业出版社, 2014: 146–156.CHEN Kejun, LIU Luhua, MENG Yunhe. Launch Vehicle Flight Dynamics and Guidance[M]. Beijing: National Defense Industry Press, 2014: 146–156. [18] 王璐璐, 秦玉亮, 王宏强, 等. 飞行器升阻比估计误差分析方法研究[J]. 雷达科学与技术, 2012, 10(2): 174–179,186. doi: 10.3969/j.issn.1672-2337.2012.02.011WANG Lulu, QIN Yuliang, WANG Hongqiang, et al. Study on vehicle lift-to-drag ratio estimation error analysis method[J]. Radar Science and Technology, 2012, 10(2): 174–179,186. doi: 10.3969/j.issn.1672-2337.2012.02.011 [19] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278–2324. doi: 10.1109/5.726791 [20] SAJJAD M, KHAN S, HUSSAIN T, et al. CNN-based anti-spoofing two-tier multi-factor authentication system[J]. Pattern Recognition Letters, 2019, 126: 123–131. doi: 10.1016/j.patrec.2018.02.015 [21] HOCHREITER S and SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735–1780. doi: 10.1162/neco.1997.9.8.1735 [22] QING Xiangyun and NIU Yugang. Hourly day-ahead solar irradiance prediction using weather forecasts by LSTM[J]. Energy, 2018, 148: 461–468. doi: 10.1016/j.energy.2018.01.177 [23] SHI Xingjian, CHEN Zhourong, WANG Hao, et al. Convolutional LSTM network: A machine learning approach for precipitation Nowcasting[C]. The 28th International Conference on Neural Information Processing Systems, Montreal, Canada, 2015: 802–810. [24] CHEN Zhenghua, WU Min, ZHAO Rui, et al. Machine remaining useful life prediction via an attention-based deep learning approach[J]. IEEE Transactions on Industrial Electronics, 2021, 68(3): 2521–2531. doi: 10.1109/TIE.2020.2972443 期刊类型引用(19)
1. 姜杰,闫文君,刘凯,张立民. 基于IC-GANs的红外舰船目标识别方法. 兵器装备工程学报. 2025(01): 277-284 . 百度学术
2. 郭瑞香. 基于感兴趣区域池化的SAR图像目标检测算法. 邵阳学院学报(自然科学版). 2023(02): 29-36 . 百度学术
3. 袁翔,程塨,李戈,戴威,尹文昕,冯瑛超,姚西文,黄钟泠,孙显,韩军伟. 遥感影像小目标检测研究进展. 中国图象图形学报. 2023(06): 1662-1684 . 百度学术
4. 谢灶芳. 基于显著性引导SSD算法的SAR图像目标检测. 地理空间信息. 2023(08): 5-8 . 百度学术
5. 许述文,茹宏涛. 基于标签传播算法的海面漂浮小目标检测方法. 电子与信息学报. 2022(06): 2119-2126 . 本站查看
6. 杜兰,王梓霖,郭昱辰,杜宇昂,严俊坤. 结合强化学习自适应候选框挑选的SAR目标检测方法. 雷达学报. 2022(05): 884-896 . 百度学术
7. 崔雷,庄磊,张泽栋,魏松杰. 基于特征叠加网络的SAR海上舰船运动状态感知方法. 上海航天(中英文). 2022(06): 75-83 . 百度学术
8. 王红卫,董鹏宇,陈游,周一鹏,肖冰松. 半监督条件下基于朴素贝叶斯和Choi-Williams时频分布能量积累的雷达信号识别. 电子与信息学报. 2021(03): 589-597 . 本站查看
9. 李璐,杜兰,何浩男,李晨,邓盛. 基于深度森林的多级特征融合SAR目标识别. 电子与信息学报. 2021(03): 606-614 . 本站查看
10. 赵建辉,张蓓,李宁,郭拯危. 基于Sentinel-1/2遥感数据的冬小麦覆盖地表土壤水分协同反演. 电子与信息学报. 2021(03): 692-699 . 本站查看
11. 陈嘉琪,刘祥梅,李宁,张燕. 一种超分辨SAR图像水域分割算法及其应用. 电子与信息学报. 2021(03): 700-707 . 本站查看
12. 洪汉玉,吴世康,时愈,吴锦梦,孙春生. 非合作水雷目标图像非均匀强噪声去除方法. 红外与激光工程. 2021(03): 251-260 . 百度学术
13. 李维鹏,杨小冈,李传祥,卢瑞涛,黄攀. 红外目标检测网络改进半监督迁移学习方法. 红外与激光工程. 2021(03): 243-250 . 百度学术
14. 刘畅,朱卫纲. 基于卷积神经网络的SAR图像目标检测综述. 兵器装备工程学报. 2021(03): 15-21 . 百度学术
15. 王迪聪,白晨帅,邬开俊. 基于深度学习的视频目标检测综述. 计算机科学与探索. 2021(09): 1563-1577 . 百度学术
16. 高宇歌,杨海涛,王晋宇,李高源,张长弓,冯博迪. 联合知识与CNN的遥感影像目标检测研究综述. 计算机工程与应用. 2021(18): 65-74 . 百度学术
17. 李昊,周帅. 基于深度学习的变电设备缺陷检测. 云南电力技术. 2021(06): 17-20 . 百度学术
18. 杜兰,王兆成,王燕,魏迪,李璐. 复杂场景下单通道SAR目标检测及鉴别研究进展综述. 雷达学报. 2020(01): 34-54 . 百度学术
19. 付哲泉,李尚生,李相平,但波,王旭坤. 基于高效可扩展改进残差结构神经网络的舰船目标识别技术. 电子与信息学报. 2020(12): 3005-3012 . 本站查看
其他类型引用(17)
-