Loading [MathJax]/jax/output/HTML-CSS/jax.js
高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于稀疏自编码器的空间微动目标融合识别方法

田旭东 白雪茹 周峰

田旭东, 白雪茹, 周峰. 基于稀疏自编码器的空间微动目标融合识别方法[J]. 电子与信息学报, 2023, 45(12): 4336-4344. doi: 10.11999/JEIT221163
引用本文: 田旭东, 白雪茹, 周峰. 基于稀疏自编码器的空间微动目标融合识别方法[J]. 电子与信息学报, 2023, 45(12): 4336-4344. doi: 10.11999/JEIT221163
Gao Xiang-wu, Yang Ru-liang. Study on the Antenna Beam Control of Spaceborne Broad-Sense Spotlight SAR[J]. Journal of Electronics & Information Technology, 2005, 27(12): 1876-1878.
Citation: TIAN Xudong, BAI Xueru, ZHOU Feng. Fusion Recognition of Space Targets with Micro-Motion Based on a Sparse Auto-Encoder[J]. Journal of Electronics & Information Technology, 2023, 45(12): 4336-4344. doi: 10.11999/JEIT221163

基于稀疏自编码器的空间微动目标融合识别方法

doi: 10.11999/JEIT221163
基金项目: 国家自然科学基金(62131020),中央高校基本科研业务费专项资金
详细信息
    作者简介:

    田旭东:男,博士生,研究方向为雷达目标识别

    白雪茹:女,教授,研究方向为高分辨雷达成像、雷达目标识别

    周峰:男,教授,研究方向为电子对抗、雷达成像

    通讯作者:

    白雪茹 xrbai@xidian.edu.cn

  • 中图分类号: TN957

Fusion Recognition of Space Targets with Micro-Motion Based on a Sparse Auto-Encoder

Funds: The National Natural Science Foundation of China (62131020), The Fundamental Research Funds for the Central Universities
  • 摘要: 当采用高分辨雷达对空间微动目标进行观测时,往往能同时获得其窄带、宽带回波。为充分利用其中蕴含的丰富电磁散射、形状、结构及运动信息,该文提出基于稀疏自编码器(SAE)的空间微动目标特征级融合识别方法。在训练阶段,首先采用卷积神经网络(CNN)分别提取训练集中微动目标回波的1维高分辨距离像(HRRP)、时频图(JTF)及距离-瞬时多普勒像(RID)层级特征。随后,将提取的3个深层特征进行1维拼接形成联合特征向量,并采用SAE自动学习联合特征向量的隐层特征。进而剔除SAE解码部分并在编码器后接入Softmax分类器构成识别网络。最后,利用SAE网络参数对识别网络进行初始化,并利用上述联合特征向量对其进行微调得到训练好的识别网络。在测试阶段,将CNN所提测试集的联合特征向量直接输入训练好的识别网络以得到融合识别结果。不同条件下的电磁仿真数据识别结果证明了所提方法的有效性及稳健性。
  • 随着人类太空探索及航天活动的不断增加,轨道中包含着大量空间碎片及失效卫星等微动目标。同时,中段或再入段弹道目标(如舱体、诱饵、弹头等)也具有自旋、进动等典型微动。因此,如何从空间微动目标独特的微多普勒调制中提取丰富的形状、结构和运动信息,进而实现有效的分类识别在空间态势感知及弹道目标防御中具有重要作用[1-3]

    针对微动目标窄带回波,主要提取均值、方差、中位数、极值、标准差等统计特征和微动周期等运动特征[4]。针对窄带回波时频图(Joint Time-Frequency, JTF)[5],主要提取周期、多普勒调制带宽等物理特征和图像熵、矩、方向性、倒谱、双相关系数等统计特征[6]。在此基础上,可对JTF沿时间轴做傅里叶变换得到2维韵律频谱(Cadence Velocity Diagram, CVD),并从CVD及平均归一化CVD序列中提取伪泽尼克矩等相关统计特征[7]。针对微动目标宽带回波,可从高分辨1维距离像(High Resolution Range Profiles, HRRP)序列中估计微动频率及尺寸[8]。同时,通过在距离-慢时间域进行逆Radon变换提取目标运动及散射点分布特征[9]

    综上所述,现有空间微动目标识别方法主要为物理驱动,即根据专家经验及先验知识设计特征提取器(如区域特征、轮廓特征、散射特征、运动特征等)和分类器,该过程耗时较长且难以推广。同时,大部分微动目标识别方法要求目标的观测时间应大于一个微动周期,由于多功能雷达任务繁多、资源有限,很难满足该要求。此外,空间微动目标观测时往往能够同时获得其宽、窄带回波,而现有识别方法仅从宽带或窄带等单一回波中提取特征。由于难以充分利用空、时、频信息,因此识别精度较低。当目标特性或雷达参数变化时,对单一回波的高度依赖会造成识别方法性能下降甚至完全失效。

    针对上述空间微动目标识别中的难点与关键问题,本文提出基于稀疏自编码器(Sparse Auto-Encoder, SAE)的空间微动目标特征级融合识别方法。该方法为数据驱动,能够自动提取有助于识别的目标特征,从而避免了人工特征设计及选择环节,具有较强的泛化能力[10]。在训练阶段,首先采用卷积神经网络(Convolution Neural Network, CNN)分别提取HRRP, JTF、距离-瞬时多普勒(Range Instantaneous Doppler, RID)像的层级特征,进而通过特征拼接形成联合特征向量。随后,采用SAE无监督地学习出联合特征向量的隐层特征。进而剔除SAE解码器部分并在编码器后接入Softmax分类器构成识别网络。最后利用SAE网络参数对识别网络进行初始化,并利用上述联合特征向量对其进行微调得到训练好的识别网络。在测试阶段,将CNN所提测试集的联合特征向量直接输入训练好的识别网络中,得到融合识别结果。各种条件下的电磁仿真数据识别结果表明,即使观测时间小于目标微动周期,所提方法仍然能够获得优良的识别性能。同时,与仅采用单一回波的识别方法相比,所提方法显著提升了识别正确率,并且对噪声具有稳健性。

    空间微动目标通常包含自旋、进动、章动、旋转、翻滚等多种微动形式。在目标本地坐标系中,若初始时刻散射中心p的坐标矢量为rp=[xp,yp,zp]T,雷达视线矢量为ξ,则该散射点瞬时斜距满足

    Rp(t)=Rrotrp,ξ (1)

    其中,表示内积,Rrot为旋转矩阵,具体表达式由目标微动形式决定[2]

    在距离脉压后,微动目标回波满足

    g(r,t)=pσpa(2Bc(rΔRp(t)))exp(j4πλΔRp(t)) (2)

    其中,p表示散射点序号,σp表示第p个散射点的后向散射系数,a()为与波形相关的函数,B为信号带宽,c为光速,ΔRp(t) = Rp(t)RrefRref为参考距离,λ = c/fc为载频对应的波长。

    对于窄带雷达,目标回波集中在一个距离单元内,因此式(2)退化为

    gn(r,t)=pσpexp(j4πλΔRp(t)) (3)

    在获得目标原始回波后,对其对做短时傅里叶变换(Short-Time Fourier Transform, STFT)得到联合时频分布图。对于窄带回波gn(r,t)

    STFT(t,ω)=gn(r,t)h(tt)exp{jωt}dt (4)

    其中,tω分别是时间与多普勒单元,h()是窗函数。

    对于宽带回波,可进一步进行距离-瞬时多普勒成像[11]。设宽带回波分别包含Nr个距离单元和Na个方位单元,则在距离脉压后对Nr个距离单元分别作短时傅里叶变换得到其时频图In(tm,fd)RM×Nd,其中n=1,2,,Nr, M=(NaL/2)/str, m=1,2,,M, L为窗长,str为步长,Nd是多普勒单元的数量。然后,将时频图In(tm,fd)堆叠成一个3维矩阵Q(n,tm,fd)RNr×M×Nd并沿时间轴抽取2维矩阵切片,即可得RID像。

    本节将详细介绍基于SAE的空间微动目标特征级融合识别方法,该方法的流程如图1所示。在训练阶段,首先采用CNN分别提取HRRP, JTF, RID像的层级特征,进而通过特征拼接形成联合特征向量。随后,采用SAE无监督地学习出联合特征向量的隐层特征。进而剔除SAE解码器部分并在编码器后接入Softmax分类器构成识别网络。最后利用SAE网络参数对识别网络进行初始化,并利用上述联合特征向量对其进行微调得到训练好的识别网络。在测试阶段,将CNN所提测试集的联合特征向量直接输入训练好的识别网络中,得到融合识别结果,下面将详细介绍各模块结构。

    图 1  基于SAE的空间微动目标特征级融合识别流程

    与基于手动特征提取的传统目标识别方法不同,CNN的数据驱动机制能够避免复杂的特征提取器设计。此外,其局部连接、权值共享、池化及多层结构[10]保证了层级特征的有效提取。对于从微动目标宽带回波获得的HRRP序列、RID像及从窄带回波获得的JTF,本文分别设计3种CNN结构用于数据域特征提取,如图2所示。以图2(a)为例,CNN-I网络“Conv.16@5×5 BN/ReLU/Dropout”表示卷积层中特征图数量为16,卷积核大小为5×5,卷积核滑动步长为1,在每个卷积层之后加入批归一化BN[12]和整流线性单元(ReLU)[13]进行激活,为防止过拟合在该层之后加入dropout层[14];“Max pool 2×2”表示采用最大池化,池化核大小为2×2,滑动步长为2;“Fully connected/256”表示全连接层,全连接点数为256。同时,CNN-I网络结构共包含4个卷积层、4个池化层和2个全连接层。4个卷积层的卷积核大小分别为5×5, 5×5, 4×44×4,步长均为1;对应卷积特征图数量分别为16, 32, 64, 128。第1个全连接层节点数为256,第2个全连接层节点数为4。最后,通过Softmax分类器输出预测标签。为进一步防止过拟合,在CNN-I和CNN-III中将网络部分权重以0.1概率随机剔除,CNN-II中网络部分权重以0.2概率随机剔除。

    图 2  CNN网络结构

    在训练过程中,输出层损失函数采用交叉熵损失函数

    L(w)=Tt=1ytlnˆyt(w) (5)

    其中,ˆyt为激活函数Softmax的输出,yt为样本标签,T为总的目标类别数,w为网络参数。

    所提方法中,将第1个全连接层输出作为提取的深层特征。因此对于HRRP序列,JTF及RID像,可分别提取一个256维、128维以及256维的特征向量,进而将其拼接为一个640维的联合特征向量。

    在得到联合特征向量后,本文进一步设计SAE以无监督地学习联合特征向量的隐层特征并实现宽、窄带特征融合。相较于传统自编码器,SAE通过引入稀疏惩罚项提升隐层特征的表征能力并减小过拟合风险,同时可以实现特征优选和冗余抑制[15,16]。如图1所示,本文所设计的SAE包含3层网络结构,即输入层、隐藏层和输出层。

    SAE的训练过程包含编码和解码两个阶段。在编码阶段,通过激活函数f将联合特征向量x=[x(1),x(2),,x(m)]映射到隐藏层h

    h(x(i),w(1),b)=f(w(1)x(i)+b(1)), i=1,2,,m (6)

    其中,w(1)为输入层与隐藏层之间的权值矩阵,b(1)为偏置,m=640为联合特征向量的长度。在解码阶段,通过激活函数g将隐藏层h映射到输出层,得到重构联合特征向量ˆx,其第i个元素为

    ˆx(i)=g(w(2)h(x(i),w(1),b)+b(2)), i=1,2,,m (7)

    其中,w(2)为隐藏层与输出层之间的权值矩阵,b(2)为对应偏置。

    传统自编码器通过最小化重构误差训练网络,其代价函数为

    J(w,b)=[1mmi=1(12x(i)ˆx(i)2)]+β2nl1l=1sli=1sl+1j=1(w(l)ji)2 (8)

    其中,第1项为原始输入x与重构输入ˆx的均方误差,第2项为权值衰减项,用于防止网络过拟合。nl为神经网络的层数,sl为第l层的神经元节点数,β为权值衰减系数。

    在传统自编码器的基础上,SAE通过引入稀疏惩罚项Ppenalty将隐藏层的神经元节点限制在“不活跃”状态(神经单元节点的激活值为0或者接近于0),即

    Ppenalty=s2j=1KL(ρˆρj)=s2j=1ρlgρˆρj+(1ρ)lg(1ρ)(1ˆρj) (9)
    ˆρj=1mmi=1hj(x(i),w(1),b) (10)

    其中,ρ为稀疏参数,ˆρj为隐藏层第j个神经元节点的平均激活值,hj(x(i),w(1),b)为联合特征向量中第i个元素对应的第j个隐藏节点的激活值,s2为隐藏层节点数,KL()表示KL散度,用于衡量ρˆρ分布之间的相似性。SAE的代价函数由重构均方误差式(8)和稀疏惩罚项两项组成

    Jsparse(w,b)=J(w,b)+γs2j=1KL(ρˆρj) (11)

    其中,γ为稀疏惩罚系数,用于控制稀疏惩罚项的权重。

    本文所设计的SAE输入层和输出层均包含640个节点,隐藏层包含1 024个节点。设置稀疏参数ρ = 0.05,稀疏惩罚系数γ = 0.2

    在采用SAE学习到联合特征向量的隐层特征后,剔除SAE解码器部分,同时在编码器后接入Softmax分类器构成识别网络。而后,利用SAE网络参数对识别网络的参数进行初始化,进而利用联合特征向量对其进行微调得到训练好的识别网络。在测试阶段,用训练好的CNN提取测试样本的联合特征向量并输入识别网络中得到目标类别标签。

    由于很难获得空间微动目标的实测数据[17],因此本文通过动态电磁仿真获得各类典型微动目标的回波,并通过不同条件下的实验对比分析,验证所提方法的有效性和稳健性。

    根据现有空间微动目标识别文献,选取4类典型空间微动目标,同时根据文献给出的参数范围设计了对应目标的尺寸及微动参数[4,7,17,18]。文中采用的4类目标3维几何模型及剖面图如图3所示,其形状相似、材质相同,分别为平底锥(目标1)、平底锥柱体(目标2)、球底锥(目标3)、球底锥柱体(目标4)。为实现动态回波仿真,首先采用物理光学法[19]获得目标的静态全角域回波。由于目标旋转对称,因此在本地坐标系中雷达视线方位角固定而俯仰角在0°~360°变化(间隔为0.1°)。雷达工作于X波段,HH极化,载频为10 GHz,宽带信号带宽为2 GHz,窄带信号带宽为20 MHz。图4为4类目标窄带静态全角域回波随俯仰角的变化曲线,图5为4类目标宽带静态全角域回波随俯仰角的变化的曲线。

    图 3  4类目标3维模型及剖面图
    图 4  4类目标RCS值随俯仰角变换关系图
    图 5  4类目标全俯仰角HRRP成像结果

    在动态回波仿真时,宽带信号和窄带信号的重频均为200 Hz,观测时间均为0.5 s,4类目标微动参数如表1所示。各类目标初始俯仰角在21°~30°内以1°为间隔连续变化,进动频率以0.2 Hz为间隔连续变化,进动角以0.15°为间隔连续变化。因此,每类目标对应10个初始俯仰角,11种进动频率(按照设定的观测时间,当进动频率低于2 Hz时,均观测不到一个完整周期),11个进动角。为获得目标动态电磁仿真回波,首先根据微动参数计算出雷达视线与目标对称轴的夹角(等效俯仰角),进而分别对窄带和宽带全角域静态电磁回波进行抽取[20]。最终,每类目标可得到1 210组窄带回波和1 210组宽带回波,对应维度分别为1×101101×101。为进一步验证所提方法对噪声的稳健性,在原始窄带和宽带回波中分别加入高斯噪声,从而获得0 dB, 5 dB, 10 dB, 15 dB和20 dB的信噪比(Signal to Noise Ratio, SNR)。在此基础上,进一步得到对应的JTF,HRRP序列和RID像。

    表 1  4类目标微动参数
    目标俯仰角(°)自旋频率(Hz)进动频率(Hz)进动角(°)
    目标121~303.02.0~4.04.0~5.5
    目标221~301.51.5~3.52.0~3.5
    目标321~302.01.0~3.03.0~4.5
    目标421~301.00.5~2.51.0~2.5
    下载: 导出CSV 
    | 显示表格

    本文按照初始俯仰角将数据集划分为训练集和测试集[17]。具体而言,取初始俯仰角21°~25°对应的样本作为训练集,可得到2 420个训练样本;取初始俯仰角26°~30°对应的样本作为测试集,可得到2 420个测试样本。

    采用反向传播方法[21]训练特征提取网络、SAE网络和识别网络。为加快网络收敛速度并减少存储空间,采用包含动量机制和权值衰减技术的SGD(Stochastic Gradient Descent)优化器[22]进行参数更新,更新公式如下

    w(τ+1)=w(τ)+Δw(τ+1) (12)
    Δw(τ+1)=αΔw(τ)βητw(τ)ητL(w(τ)) (13)

    其中,w(τ+1)是第τ + 1次迭代时的网络参数,w(τ)是第τ次迭代时的网络参数,Δw(τ)是第τ次迭代时w的变化量,α为动量系数,β为权值衰减系数,L(w(τ))为代价函数L(w(τ))τ次迭代时对w的导数。ητ为第τ次迭代时的学习率,并且以指数形式衰减

    ητ=η0×dτtb (14)

    其中,η0为初始学习率,d为衰减因子,τ为当前迭代次数,tb是总迭代次数。

    在训练各网络模块时,相应超参数如表2所示,表中α为动量系数,β为权值衰减系数,η0为初始学习率,d为衰减因子,tb是总迭代次数。同时,批处理(Batch Size)大小均设置为64。

    表 2  网络超参数
    网络模块SGD优化器学习率迭代次数批处理大小
    αβη0dtbBatch Size
    特征提取0.50.010.10.945064
    SAE0.50.0010.10.965064
    识别网络0.500.10.945064
    下载: 导出CSV 
    | 显示表格

    当SNR为0 dB, 5 dB, 10 dB, 15 dB和20 dB时,所提方法识别结果如表3所示。可以看出,SNR为20 dB时,识别率为97.64%,SNR为0 dB时,识别率为95.00%,性能下降较少,从而证明所提方法的有效性及噪声稳健性。

    表 3  所提方法在各SNR下识别结果(%)
    实验结果 SNR(dB)
    05101520
    识别率95.0096.6997.2797.5297.64
    下载: 导出CSV 
    | 显示表格

    为进一步验证所提方法相较于单一回波识别方法的优越性,表4列出不同SNR下所提方法与基于JTF, HRRP序列及RID像等单一回波识别方法的准确率对比。可以看出,所提方法的识别率最小可提升8.59%, 7.23%, 6.69%, 5.78%, 5.00%,从而证明其优越性。

    表 4  所提方法与单一回波识别结果对比(%)
    识别特征SNR(dB)
    05101520
    JTF86.4189.4690.5891.7492.64
    HRRP86.0086.7488.8488.9389.96
    RID85.5887.4088.1088.5188.64
    所提方法95.0096.6997.2797.5297.64
    下载: 导出CSV 
    | 显示表格

    为了证明所提特征融合方法的有效性,与两种常见的特征级融合识别方法进行对比。第1种方法将所提取的3个深层特征直接进行拼接,然后输入分类层得到识别结果。第2种方法将所提取的3个深层特征相加,然后输入分类层得到识别结果。由于提取初级特征的维度不同,因此在相加之前先将不同模态的初级特征映射到同一维度。识别结果如表5所示,可以看出,所提算法相较于传统特征级融合方法的识别率均有不同程度的提升。

    表 5  实验对比结果(%)
    融合方法SNR(dB)
    05101520
    特征拼接92.9393.9394.0194.2695.79
    特征相加92.3193.7694.0594.1795.95
    所提方法95.0096.6997.2797.5297.64
    下载: 导出CSV 
    | 显示表格

    为充分挖掘利用微动目标宽、窄带雷达回波中蕴含的丰富信息,提出基于SAE的空间微动目标特征级融合识别方法。在训练阶段,首先采用CNN提取HRRP, JTF和RID像的层级特征,进而对深层特征进行拼接以获得联合特征向量。随后,采用SAE无监督地学习出联合特征向量的隐层特征,进而剔除SAE解码器部分并在编码器后接入Softmax分类器构成识别网络。最后,利用SAE网络参数对识别网络进行初始化,并利用联合特征向量对其微调以得到训练好的识别网络。在测试阶段,用训练好的CNN提取测试样本的联合特征向量,并直接输入训练好的识别网络以得到目标类别标签。各种条件下的电磁仿真数据识别结果表明,与仅采用单一回波的识别方法相比,所提方法能显著提升识别正确率并表现出噪声稳健性。未来将进一步研究观测样本不足条件下的空间微动目标小样本融合识别方法。

  • 图  1  基于SAE的空间微动目标特征级融合识别流程

    图  2  CNN网络结构

    图  3  4类目标3维模型及剖面图

    图  4  4类目标RCS值随俯仰角变换关系图

    图  5  4类目标全俯仰角HRRP成像结果

    表  1  4类目标微动参数

    目标俯仰角(°)自旋频率(Hz)进动频率(Hz)进动角(°)
    目标121~303.02.0~4.04.0~5.5
    目标221~301.51.5~3.52.0~3.5
    目标321~302.01.0~3.03.0~4.5
    目标421~301.00.5~2.51.0~2.5
    下载: 导出CSV

    表  2  网络超参数

    网络模块SGD优化器学习率迭代次数批处理大小
    αβη0dtbBatch Size
    特征提取0.50.010.10.945064
    SAE0.50.0010.10.965064
    识别网络0.500.10.945064
    下载: 导出CSV

    表  3  所提方法在各SNR下识别结果(%)

    实验结果 SNR(dB)
    05101520
    识别率95.0096.6997.2797.5297.64
    下载: 导出CSV

    表  4  所提方法与单一回波识别结果对比(%)

    识别特征SNR(dB)
    05101520
    JTF86.4189.4690.5891.7492.64
    HRRP86.0086.7488.8488.9389.96
    RID85.5887.4088.1088.5188.64
    所提方法95.0096.6997.2797.5297.64
    下载: 导出CSV

    表  5  实验对比结果(%)

    融合方法SNR(dB)
    05101520
    特征拼接92.9393.9394.0194.2695.79
    特征相加92.3193.7694.0594.1795.95
    所提方法95.0096.6997.2797.5297.64
    下载: 导出CSV
  • [1] BAI Xueru, XING Mengdao, ZHOU Feng, et al. High-resolution three-dimensional imaging of spinning space debris[J]. IEEE Transactions on Geoscience and Remote Sensing, 2009, 47(7): 2352–2362. doi: 10.1109/TGRS.2008.2010854
    [2] 李瑞, 李开明, 张群, 等. 基于角多普勒效应的自旋目标微动特征提取[J]. 电子与信息学报, 2021, 43(3): 547–554. doi: 10.11999/JEIT200595

    LI Rui, LI Kaiming, ZHANG Qun, et al. Micro-motion feature extraction of spinning target based on angular Doppler effect[J]. Journal of Electronics &Information Technology, 2021, 43(3): 547–554. doi: 10.11999/JEIT200595
    [3] 冯存前, 李江, 黄大荣, 等. 弹道中段不同平动多目标的平动参数估计方法[J]. 电子与信息学报, 2021, 43(3): 564–571. doi: 10.11999/JEIT200075

    FENG Cunqian, LI Jiang, HUANG Darong, et al. Estimation method of translational parameters for different translational of ballistic targets in midcourse[J]. Journal of Electronics &Information Technology, 2021, 43(3): 564–571. doi: 10.11999/JEIT200075
    [4] CHOI I O, PARK S H, KIM M, et al. Efficient discrimination of ballistic targets with micromotions[J]. IEEE Transactions on Aerospace and Electronic Systems, 2020, 56(2): 1243–1261. doi: 10.1109/TAES.2019.2928611
    [5] GAO Hongwei, XIE Lianggui, WEN Shuliang, et al. Micro-Doppler signature extraction from ballistic target with micro-motions[J]. IEEE Transactions on Aerospace and Electronic Systems, 2010, 46(4): 1969–1982. doi: 10.1109/TAES.2010.5595607
    [6] SHI Xiaoran, ZHOU Feng, LIU Lei, et al. Textural feature extraction based on time–frequency spectrograms of humans and vehicles[J]. IET Radar, Sonar & Navigation, 2015, 9(9): 1251–1259. doi: 10.1049/iet-rsn.2014.0432
    [7] PERSICO A R, CLEMENTE C, GAGLIONE D, et al. On model, algorithms, and experiment for micro-Doppler-based recognition of ballistic targets[J]. IEEE Transactions on Aerospace and Electronic Systems, 2017, 53(3): 1088–1108. doi: 10.1109/TAES.2017.2665258
    [8] LUO Ying, ZHANG Qun, QIU Chengwei, et al. Micro-Doppler effect analysis and feature extraction in ISAR imaging with stepped-frequency chirp signals[J]. IEEE Transactions on Geoscience and Remote Sensing, 2010, 48(4): 2087–2098. doi: 10.1109/TGRS.2009.2034367
    [9] PERSICO A R, ILIOUDIS C V, CLEMENTE C, et al. Novel classification algorithm for ballistic target based on HRRP frame[J]. IEEE Transactions on Aerospace and Electronic Systems, 2019, 55(6): 3168–3189. doi: 10.1109/TAES.2019.2905281
    [10] 杨敏佳, 白雪茹, 刘士豪, 等. 基于高斯原型网络的小样本逆合成孔径雷达目标识别[J]. 电子与信息学报, 2022, 44(10): 3566–3573. doi: 10.11999/JEIT210724

    YANG Minjia, BAI Xueru, LIU Shihao, et al. Small-data inverse synthetic aperture radar object recognition based on Gaussian prototypical network[J]. Journal of Electronics &Information Technology, 2022, 44(10): 3566–3573. doi: 10.11999/JEIT210724
    [11] BAI Xueru and PENG Xin. Radar image series denoising of space targets based on Gaussian process regression[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(7): 4659–4669. doi: 10.1109/TGRS.2019.2892183
    [12] IOFFE S and SZEGEDY C. Batch normalization: Accelerating deep network training by reducing internal covariate shift[C]. Proceedings of the 32nd International Conference on Machine Learning, Lille, France, 2015: 448–456.
    [13] GLOROT X, BORDES A, and BENGIO Y. Deep sparse rectifier neural networks[C]. Proceedings of the Fourteenth International Conference on Artificial Intelligence and Statistics, Fort Lauderdale, USA, 2011: 315–323.
    [14] 张淑军, 张群, 李辉. 基于深度学习的手语识别综述[J]. 电子与信息学报, 2020, 42(4): 1021–1032. doi: 10.11999/JEIT190416

    ZHANG Shujun, ZHANG Qun, and LI Hui. Review of sign language recognition based on deep learning[J]. Journal of Electronics &Information Technology, 2020, 42(4): 1021–1032. doi: 10.11999/JEIT190416
    [15] 袁野, 贾克斌, 刘鹏宇. 基于深度卷积神经网络的多元医学信号多级上下文自编码器[J]. 电子与信息学报, 2020, 42(2): 371–378. doi: 10.11999/JEIT190135

    YUAN Ye, JIA Kebin, and LIU Pengyu. Multi-context autoencoders for multivariate medical signals based on deep convolutional neural networks[J]. Journal of Electronics &Information Technology, 2020, 42(2): 371–378. doi: 10.11999/JEIT190135
    [16] 唐伦, 王恺, 张月, 等. 网络切片场景下基于分布式生成对抗网络的服务功能链异常检测[J]. 电子与信息学报, 2023, 45(1): 262–271. doi: 10.11999/JEIT211261

    TANG Lun, WANG Kai, ZHANG Yue, et al. Service function chain anomaly detection based on distributed generative adversarial network in network slicing scenario[J]. Journal of Electronics &Information Technology, 2023, 45(1): 262–271. doi: 10.11999/JEIT211261
    [17] TIAN Xudong, BAI Xueru, XUE Ruihang, et al. Fusion recognition of space targets with micromotion[J]. IEEE Transactions on Aerospace and Electronic Systems, 2022, 58(4): 3116–3125. doi: 10.1109/TAES.2022.3145303
    [18] ZHANG Yuanpeng, ZHANG Qun, KANG Le, et al. End-to-end recognition of similar space cone-cylinder targets based on complex-valued coordinate attention networks[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5106214. doi: 10.1109/TGRS.2021.3115624
    [19] BINGLE M, GARCIA-AGUILAR A, ILLENSEER F, et al. Overview of the latest electromagnetic solver features in FEKO suite 7.0[C]. Proceedings of the 2015 31st International Review of Progress in Applied Computational Electromagnetics, Williamsburg, USA, 2015: 1–2.
    [20] BAI Xueru and BAO Zheng. Imaging of rotation-symmetric space targets based on electromagnetic modeling[J]. IEEE Transactions on Aerospace and Electronic Systems, 2014, 50(3): 1680–1689. doi: 10.1109/TAES.2014.120772
    [21] LECUN Y, BOSER B, DENKER J S, et al. Backpropagation applied to handwritten zip code recognition[J]. Neural Computation, 1989, 1(4): 541–551. doi: 10.1162/neco.1989.1.4.541
    [22] RUDER S. An overview of gradient descent optimization algorithms[EB/OL]. https://arxiv.org/abs/1609.04747, 2017.
  • 加载中
图(5) / 表(5)
计量
  • 文章访问数:  635
  • HTML全文浏览量:  337
  • PDF下载量:  159
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-09-06
  • 修回日期:  2023-03-10
  • 网络出版日期:  2023-03-16
  • 刊出日期:  2023-12-26

目录

/

返回文章
返回