Aerial Target Intention Recognition Method Integrating Information Classification Processing and Multi-scale Embedding Robust Learning with Noisy Labels
-
摘要: 针对传统深度学习意图识别方法难以在噪声标签存在时获得可靠模型的问题,该文提出基于信息分类处理(ICP)网络和多尺度鲁棒学习的空中目标意图识别(ATIR)方法。首先,基于空中目标属性性质,构建基于ICP的编码器,以获得更具可分性的嵌入;随后,设计了从精细到粗糙的跨尺度嵌入融合机制,利用不同尺度的目标序列,训练多个编码器来学习判别模式;同时,利用不同尺度的互补信息,以交叉教学的方式训练每个编码器,以选择小损失样本作为干净标签;对于未选定的大损失样本,基于多尺度嵌入图和说话者-倾听者标签传播算法(SLPA),使用干净样本的标签进行校正。在不同标签噪声类型、多级噪声水平的ATIR数据集上的实验结果表明,该方法的测试准确率和Macro F1分数显著优于其他基线方法,说明其具有更强的噪声标签鲁棒性。Abstract:
Objective Aerial Target Intention Recognition (ATIR) predicts and assesses the intentions of non-cooperative targets by integrating information acquired and processed by various sensors. Accurate recognition enhances decision-making, aiding commanders and combatants in steering engagements favorably. Therefore, robust and precise recognition methods are essential. Advances in big data and detection technologies have driven research into deep-learning-based intention recognition. However, noisy labels in target intention recognition datasets hinder the reliability of traditional deep-learning models. To address this issue, this study proposes an intention recognition method incorporating Information Classification Processing (ICP) and multi-scale robust learning. The trained model demonstrates high accuracy even in the presence of noisy labels. Methods This method integrates an ICP network, a cross-scale embedding fusion mechanism, and multi-scale embedding graph learning. The ICP network performs cross-classification processing by analyzing attribute correlations and differences, facilitating the extraction of embeddings conducive to intention recognition. The cross-scale embedding fusion mechanism employs target sequences at different scales to train multiple Deep Neural Networks (DNNs) simultaneously. It sequentially integrates robust embeddings from fine to coarse scales. During training, complementary information across scales enables a cross-teaching strategy, where each encoder selects clean-label samples based on a small-loss criterion. Additionally, multi-scale embedding graph learning establishes relationships between labeled and unlabeled samples to correct noisy labels. Specifically, for high-loss unselected samples, the Speaker-Listener Label Propagation (SLPA) algorithm refines their labels using the multi-scale embedding graph, improving model adaptation to the class distribution of target attribute sequences. Results and Discussions When the proportion of symmetric noise is 20% ( Table 1 ), the test accuracy of the cross-entropy (CE) method exceeds 80%, demonstrating the effectiveness of the ICP network. The proposed method achieves both test accuracy and a Macro F1 score (M F1) above 92%. At higher noise levels—50% symmetric noise and 40% asymmetric noise (Table 1 )—the performance of other methods declines significantly. In contrast, the proposed method maintains accuracy and M F1 above 80%, indicating greater stability and robustness. This strong performance can be attributed to: (1) Cross-scale fusion, which integrates complementary information from different scales, enhancing the separability and robustness of fused embeddings. This ensures the selection of high-quality samples and prevents performance degradation caused by noisy labels in label propagation. (2) SLPA in multi-scale embedding graph learning, which stabilizes label propagation even when the dataset contains a high proportion of noisy labels.Conclusions This study proposes an intelligent method for recognizing aerial target intentions in the presence of noisy labels. The method effectively addresses label noise by integrating an ICP network, a cross-scale embedding fusion mechanism, and multi-scale embedding graph learning. First, an embedding extraction encoder based on the ICP network is constructed using acquired target attributes. The cross-scale embedding fusion mechanism then integrates encoder outputs from sequences at different scales, facilitating the extraction of multi-scale features and enhancing the reliability of clean samples identified by the small-loss criterion. Finally, multi-scale embedding graph learning, incorporating SLPA, refines noisy labels by leveraging selected clean labels. Experiments on the ATIR dataset across various noise types and levels demonstrate that the proposed method achieves significantly higher test accuracy and M F1 than other baseline approaches. Ablation studies further validate the effectiveness and robustness of the network architecture and mechanisms. -
1. 引言
强海杂波背景下的弱目标检测是雷达目标检测中较为重要的难题,其检测性能主要受到杂波、噪声和其他干扰的限制,而海杂波的影响最为显著。在现有的检测方法中,基于快速傅里叶变换(Fast Fourier Transform, FFT)滤波器组的单元平均法(Cell Averaging, CA),即FFT-CA法被广泛应用[1]。然而,在杂波谱展宽、多普勒滤波器组能量泄露以及多普勒分辨率较低的短脉冲序列情况下,FFT-CA算法的性能受到严重的影响[1]。为了克服这些缺点,Conte等人[2]采用增加相干积累时间的相干检测算法,提出了自适应归一化匹配滤波器(Adaptive Normalized Matched Filter, ANMF)检测方法,该方法对杂波的结构分量和协方差矩阵都具有恒虚警性,且相对于非相参雷达,显著提高了检测性能。随后一系列基于相干积累检测算法被相继提出并得以应用[3-5]。
对于目标多普勒矢量未知的情况下,相干积累检测算法会存在失配损失。为了克服这一缺点,一类捕获数据之间相关性的矩阵CFAR检测方法被提出[6-17]。类比于常规FFT+CFAR检测方法,Arnaudon等人[6]提出的矩阵CFAR检测器利用检测单元回波相关矩阵与参考单元相关矩阵之间的黎曼均值的测地线距离作为检测统计量,并将其应用于其他雷达目标检测场景中[7]。为了克服测地线距离的能量积累性能有限的缺陷,赵兴刚等人[8-10]利用具有更优积累性能的KLD (Kullback-Leibler Divergence)代替测地线距离,提出了一种改进的矩阵CFAR检测器和基于AR模型的矩阵CFAR检测器,取得了较好的检测和恒虚警性能。Ye等人[11]利用信息几何将角度和多普勒域的多维信息映射到厄米特正定矩阵空间,提出局部矩阵CFAR算法用于低信杂比的高频天波雷达中,获得了不错的检测效果。
上述矩阵CFAR检测器利用迭代算法估计均值矩阵,其较高的计算复杂度限制了其在实际武器装备中的应用。为了降低这类算法的计算复杂度,赵文静等人[12-15]基于特征值分解,提出了采用最大特征值作为检测统计量的矩阵CFAR检测方法(Matrix CFAR Detection method based on the Maximum Eigenvalue, MEMD),在保证恒虚警性能的前提下,利用目标导向矢量的先验信息对数据进行预处理,提出了将频域相干积分与最大特征值方法相结合的预处理的最大特征值矩阵CFAR检测(Maximum Eigenvalue Matrix CFAR Detection Using Pre-Processing, P-MEMD)方法[14],适用于目标多普勒频率偏离杂波中心频谱的场景。随后,赵文静等人[16,17]利用矩阵谱范数来测量矩阵的非相似性提出了两个矩阵CFAR检测器,均获得了较好的检测性能。
当目标的多普勒频率在杂波中心频谱附近时,MEMD的检测性能较好。然而在实际环境中,目标多普勒频率可能在杂波频谱的任何位置出现,故当目标的多普勒频率偏离杂波中心频谱时,其检测问题也亟待解决。于是本文从这一实际环境出发,提出滤波器组与矩阵CFAR相结合的思想,采用滤波器组作为预处理过程[18],并利用最大特征值简化滤波器组的求门限过程,实现对通带外杂波的抑制,对目标多普勒频率进行了准确的定位,结合矩阵CFAR调整门限提高检测性能,对目标能量进行最大限度的积累,实现目标多普勒频率在杂波频谱内和远离杂波频谱时检测性能的提升。
本文的主要结构安排如下:第2节主要介绍海杂波背景下的目标检测模型,第3节提出基于矩阵CFAR的最大特征值检测与滤波器组子带分鲜相结合的FD-MEMD检测算法,第4节通过仿真实验验证本文算法的有效性,第5节给出结论。
2. 检测模型
假设雷达接收回波
y ,在不失一般性的情况下,依据文献[18],雷达信号检测问题可以通过二元假设检验模型表述H0:{y=c˜yk=ck,k=1,2,···,KH1:{y=s+c˜yk=ck,k=1,2,···,K} (1) 其中,在零假设
H0 下,接收到的N 维脉冲数据y∈CN×1 仅由杂波c 组成;在备择假设H1 下,接收到的N 维脉冲数据y 不仅包含杂波c ,还包含目标信号s ,目标信号与杂波是统计独立的。˜yk 为辅助数据,仅由杂波样本组成,K 为参考单元的个数。主要数据y 和辅助数据˜yk 是独立同分布的。借助文献[18],通过式(2)模拟目标回波
s(n)=ˉA√Pca(n)exp⋅{j[4πλ(v0(1−nN)+v1nN)nΔt+φ0]},n=1,2,···,N (2) 其中,
Pc 是海杂波的功率,ˉA 是调整信杂比(Signal to Clutter Ratio, SCR)的正因子,a(n) 是高度相关的幅度序列,λ 是雷达波长,v0 和v1 分别是初始和最终的径向速度,Δt 是雷达的脉冲重复周期,φ0 是随机初始相位。对于目标回波模型式(2)的参数选择,幅度序列
a(n) 是单位平均正随机序列。将模拟目标回波与功率为Pc 的海杂波相加,雷达回波的SCR为20lg(ˉA) 。参数ˉA 由间隔[10−12,101] 的均匀分布产生,即ˉA∼U(10−12,101) ,对应于−10 ~20dB 的SCR范围。实际场景中,海面小目标一般具有较小的速度和加速度[19,20]。对于海面小目标,当观测时间在几秒以内时,简单的恒加速度模型就足够了。假设目标速度服从
[−α,α] 的均匀分布,目标加速度在长度为NΔt 的观测时间间隔内限制在[−β,β] 内,运动方向与雷达视线的夹角服从[−π,π] 的均匀分布。在这些假设下,初始和最终的径向速度为u0=αx,u1=αy,|u0−u1|≤βNΔt,v0=u0cosθ,v1=u1cosθ,θ=πz,x,y,z∼U(−1,1) (3) 其中,随机数
x ,y 和z 相互独立。注意,如果不满足对加速度的约束,则再次生成随机数x 和y 。a(n) 被建模为非负、高度相关的幂次随机序列,依据文献[19],a(n) 的表达形式为a(n)=√3(1+ρ)(1−ρ)√2(2+ρ)(11−ρ+g(n+W)),n=1,2,··· (4) 其中,
g(n) 为通过1阶自回归系统生成的高度相关的序列,g(n+1)=ρg(n)+f(n+1),n=1,2,···;ρ∈(0,1) (5) 独立样本
f(n) 满足f(n)∼U(−1,1) ,其均值为0 ,方差为1/3 ,g(1)=f(1) ,g(n)∈[−11−ρ,11−ρ] 。在自回归系统中,采用足够大的整数W 来避免初始值的过渡效应。3. 基于子带分解最大特征值的矩阵CFAR检测器
基于最大特征值矩阵CFAR检测方法(MEMD)的设计是为了在目标频谱与杂波频谱重叠时获得更好的检测性能和相对其他CFAR检测方法具有更低的计算复杂度。然而,依据文献[14],当目标多普勒频率严重偏离杂波频谱时,MEMD算法的检测性能不佳。在此基础上,一些学者考虑增加预处理过程来减弱杂波对检测性能的影响,并提出了将频域相干积分与最大特征值方法结合在一起的基于预处理的最大特征值检测(P-MEMD)方法。其使用目标导向矢量的先验信息来减弱杂波的影响,进一步提高了MEMD的检测性能。由于海表面的无规则波动,海杂波的能量比较分散,然而海面慢速小目标的回波信号的能量在频域上往往集中在特定频段内。此外,动目标检测依据目标与杂波的能量差异进行目标检测,一般使用各种滤波器,滤去海浪等背景产生的杂波而取出运动目标的回波[21]。基于这一现象,本文利用动目标检测原理,提出了利用滤波器组对接收数据进行滤波处理,然后再与最大特征值相结合的矩阵CFAR检测方法,将其命名为FD-MEMD,以达到保留潜在的有用目标回波信号,同时抑制带外杂波的目的,由此即可提升雷达回波信号的信杂比。后续的仿真实验表明,该方法适用于海面慢速小目标,目标多普勒频率在杂波频谱内和远离杂波频谱均获得了较好的检测性能。
令
{y,˜y1,···,˜yK} 是接收到的数据矩阵,它分为主要数据y 和辅助数据˜y1,˜y2,···,˜yK 。这里,y 表示待检测单元的N 维接收数据(主要数据),˜y1,˜y2,···, ˜yK 表示参考单元中由杂波组成的接收数据(辅助数据)。图1显示了所提出的FD-MEMD方法的检测框图。本文将分DFT调制滤波器组、数据滤波处理、确定目标所在的子带和FD-MEMD检测统计量这4个小节进行介绍。3.1 DFT调制滤波器组
本文使用线性相位DFT调制滤波器组实现子带分解,采用线性相位是为了保持目标回波的相位结构不发生改变,同时,DFT调制滤波器组具有高的阻带抑制能力。
DFT调制滤波器组由一个低通原型滤波器
h(l) 调制而成。不失一般性,假定低通原型滤波器是因果2L 阶线性相位滤波器[18],且满足h(2L−l)= h(l) ,l=0,1,···,2L ,它的频率响应为H(ω)=e−jLω{h(L)+L−1∑l=0h(l)cos(L−l)ω}≡e−jLωdTL(ω)q (6) 其中,
q=[h(0),h(1),···,h(L)]T (7) dL(ω)=[2cos(Lω),···,2cos(ω),1]T (8) 其中,上标
T 表示转置。针对本文的应用,期望原型滤波器h(l) 具有尽可能平坦的通带和高的阻带抑制性,平坦的通带保证了目标回波的幅度和相位具有较小的失真,高的阻带抑制性保证了通带外的杂波能够被抑制。依据文献[18],
2P+1 个通道的DFT调制滤波器组的结构为Hp(ω)=H(ω−2pπ2P+1) (9) 其中,
p=−P,−P+1,···,0,1,···,P ,H(ω)= ∑h(l)e−jωl ,h(l) 是通带位于[−π2P+1,π2P+1] 的低通原型滤波器。只要h(l) 是一个线性相位、因果的、有限冲激响应滤波器,所有子带滤波器hp(l) 都是线性相位、因果的、有限冲激响应滤波器。3.2 数据滤波处理
如图1所示,虚线框为预处理部分,包括一个前置的
2P+1 个通道的线性相位DFT调制滤波器组,其中Xp(n) ,p=−P,−P+1,···,P−1,P 是滤波后的子带时间序列,其表达形式为Xp(n)=hp(l)∗y(n),p=−P,−P+1,···,P−1,P;l=0,1,···,2L (10) 其中,
∗ 表示卷积运算,y(n) 为雷达接收的待检测单元的回波数据。滤波器组主要达到提升雷达回波信杂比的目的,无论目标回波的能量在频域上较为集中或是较为分散,在
2P+1 个滤波器中总会有一个或多个滤波器的通带内保留了目标信号。3.3 确定包含目标信号的子带
ˆp 求出待检测单元的子带信号所对应的相关矩阵
Cp 的最大特征值ζp ,找出2P+1 个最大特征值的最大值η 所对应的子带ˆp ,将第ˆp 个子带指定为包含目标信号的子带,从而实现了抑制杂波。待检测单元的相关矩阵
Cp 表述为Cp=E[XpXHp]=[rp,0···ˉrp,N−1⋮⋱⋮rp,N−1···rp,0] (11) 其中,
Cp 是一个特普利茨厄米特正定矩阵,CHp= Cp ,(.)H 表示共轭转置。根据广义平稳的遍历性,数据Xp 的相关系数可以通过随时间平均而非其统计平均来计算,即rp,i=1NN−1−|i|∑n=0xp(n)ˉxp(n+i),|i|≤N−1 (12) 其中,
xp(n) 是向量Xp 的元素,ˉx 表示x 的复共轭。对
Cp 进行特征值分解,可得Cp=UpΛpUHp (13) 其中,
Up 是由特征向量组成的特征矩阵,Λp 是由特征值[λp,1,λp,2,···,λp,M] 组成的对角矩阵。第p 个子带相关矩阵Cp 对应的最大特征值ζp 为ζp=max(λp,1,λp,2,···,λp,M) (14) 于是,所有
2P+1 个子带的特征值的最大值η 为η=max(ζ−P,ζ−P+1,···,ζP) (15) 因此,确定最大特征值
η 对应的子带为ˆp ˆp:η≡ζˆp (16) 其中,
ˆp∈{−P,−P+1,···,0,1,···,P} ,即为目标信号所在的子带。于是,利用
η≡ζˆp 可以确定出第ˆp 个子带的接收回波的滤波数据Xˆp 。3.4 FD-MEMD的检测统计量
利用第
ˆp 个子带的滤波器对所接收到的参考数据˜yk(n) 进行滤波处理,即˜Xˆp,k=hˆp(l)∗˜yk(n),k=1,2,···,K (17) 参考数据第
ˆp 个子带的滤波数据˜Xˆp,k 的相关矩阵˜Cˆp,k 为˜Cˆp,k=E[Xˆp,kXHˆp,k],k=1,2,···,K (18) 借助式(11)、式(12)和式(13),对
˜Cˆp,k 进行特征值分解,并求得第ˆp 个子带第k 个距离单元的最大特征值˜ξk ,则所有K 个参考单元中最大特征值˜ξk 的算术平均值为δ=1KK∑k=1˜ξk (19) 同理,待检测单元第
ˆp 个子带的滤波数据Xˆp 的相关矩阵Cˆp 为Cˆp=E[XˆpXHˆp] (20) 依据相同的处理,对
Cˆp 进行特征值分解,并求得该第ˆp 个子带的最大特征值为ξ 。最后,依据矩阵CFAR的原理,FD-MEMD检测统计量可表示为
ξδ≷ (21) 其中,
\hat \eta 为FD-MEMD的检测阈值。当检测统计量大于阈值\hat \eta 时,判断为目标出现在检测单元中,否则判为目标在检测单元中未出现。4. 仿真实验及结果分析
该节主要基于真实海杂波数据进行了仿真实验,验证本文提出的FD-MEMD算法的有效性。在仿真实验中,使用由加拿大McMaster大学提供的IPIX海杂波数据(19980205_185111_ANTSTEP.CDF)。该数据由27个距离单元组成,每个距离单元包含60000个脉冲数据。对于这个数据集,本文获取实测数据的多普勒频谱图,如图2所示,经过FFT变换,估计海杂波的平均多普勒频率约为–222 Hz。考虑到目标多普勒在杂波频谱内外的情况,利用式(2),添加仿真目标之后的海杂波和目标的混合频谱图如图3所示。
由于有限的实测数据,在本文的仿真实验中,虚警概率被设置为
{10^{{\rm{ - }}3}} ,脉冲数N = 8 ,脉冲重复频率为1000 Hz,雷达射频频率{{F}} 为9.39 GHz。参考单元个数K = 16 ,极化方式为HH, HV, VH和VV。对于滤波器组仿真模型,P = 8 ,L = 25 。对于目标仿真模型,\rho 取0.96,整数W 取500。考虑了目标多普勒频率在杂波频谱内外的两种情况,利用公式{{f_{\rm{d}}}} = \dfrac{{vF}}{\rm{c}} ,目标多普勒频率分别被设置为–222 Hz和215 Hz。其中{{f_{\rm{d}}}} 是目标多普勒频率,v 是目标相对雷达的径向速度,F 是雷达射频,{\rm{c}} 是电磁波的传播速度。图4(a)、图4(c)、图4(e)和图4(g)对应于杂波频谱与目标频谱重叠的检测场景。可以看出FD-MEMD方法的检测性能明显优于ANMF, sub-ANMF以及P-MEMD。值得注意的是,上述图中的FD-MEMD方法相对于P-MEMD方法的性能有明显的改善,这主要是因为P-MEMD利用对检测单元和参考单元接收到的数据进行FFT变换,将其在频域上分解成N个多普勒频段,利用峰值搜索找到目标所在的多普勒频段,从而抑制杂波。而FD-MEMD方法利用滤波器组将接收到的数据分解成2P+1个子带信号,通过查找最大特征值的最大值所在的子带信号从而确定目标所在的子带,目标子带之外的杂波全被滤除,相对于P-MEMD方法,杂波抑制更明显。图4(b)、图4(d)、图4(f)和图4(h)描述了目标多普勒频率在杂波频谱之外的情况下的检测性能的比较。可以看出,FD-MEMD方法的检测性能同样优于ANMF, sub-ANMF和P-MEMD。总之,FD-MEMD方法在目标多普勒频率位于杂波频谱之内和之外的两种场景下都具有稳健的性能,更适用于在实际环境中应用。
5. 结束语
本文主要解决海杂波背景下海面目标检测问题,旨在改善目标多普勒频率严重偏离杂波频谱时矩阵CFAR检测性能较低的状况。本文依据目标回波的能量在频域上相对集中而海杂波能量在频域上相对分散这一特点,提出一种基于子带分解的矩阵CFAR最大特征值检测方法。该方法有效地抑制了杂波,提高了信杂比及检测性能。仿真结果表明,该方法不仅在强杂波的环境下具有良好的检测性能,在目标多普勒频率偏离杂波频谱的情况下也具有较好的检测性能,能够在实际海洋环境中应用。
-
1 信息分类处理网络
输入:空中目标属性训练集 \mathcal{D} = \left\{ {\mathcal{X},\mathcal{Y}} \right\} = \left\{ {\left( {{{\boldsymbol{X}}_i},{y_i}} \right)} \right\}_{i = 1}^N ;迭
代次数T输出:空中目标属性嵌入集{\boldsymbol{E}} = \left\{ {{{\boldsymbol{E}}^i}} \right\}_{i = 1}^N (1) 构建BaseNet1, BaseNet2, BaseNet3; (2) 令K1, K2, K3分别表示BaseNet1,BaseNet2, BaseNet3的支路网
络数量(3) 初始化所有BaseNet的参数θ (4) epoch \leftarrow 0 (5) While epoch < T do (6) for i = 1:N do (7) for j = 1:3 do (8) for k = 1:Kj do (9) {\boldsymbol{E}}_{j,k}^i = {\text{BaseNe}}{{\text{t}}_{j,k}}({{\boldsymbol{X}}_{i,j}}) //通过BaseNetj第k个支
路网络处理特征,获得基础特征(10) if Kj≥2 do (11) {\boldsymbol{E}}_{j,f}^i = {\left( {{\text{Fusio}}{{\text{n}}_j}} \right)^{{K_j} - 1}}\left( {{\boldsymbol{E}}_{j,1}^i,{\boldsymbol{E}}_{j,2}^i, \cdots ,{\boldsymbol{E}}_{j,{K_j}}^i} \right)
//融合特征(12) else do (13) {\boldsymbol{E}}_{j,f}^i = {\boldsymbol{E}}_{j,1}^i (14) end (15) end (16) {{\boldsymbol{E}}^i} = {\text{Linear}}\left( {{\text{CONCAT}}({\boldsymbol{E}}_{1,f}^i,{\boldsymbol{E}}_{2,f}^i,{\boldsymbol{E}}_{3,f}^i)} \right) (17) end (18) epoch = epoch + 1 (19) end 2 噪声标签下融合ICP编码器和多尺度鲁棒学习的意图识别模型学习范式
输入:ICP编码器 [ICPA, ICPB, ICPC],分类器[ClassifierA, ClassifierB, ClassifierC],精细尺度目标属性序列XA,中等尺度目标属性序列
XB,粗糙尺度目标属性序列XC输出:[ICPA, ICPB, ICPC]和[ClassifierA, ClassifierB, ClassifierC] (1) 获得单个尺度嵌入 rA,rB,rC; rA = ICPA(XA),rB = ICPB(XB),rC = ICPC(XC); (2) 获得跨尺度融合嵌入vA,vB,vC; vA = rA,vB = 式(11)(rB, vA),vC = 式(11)(rC, vB); (3) 获得用于交叉学习训练的干净标签yA,yB,yC; yA = ClassifierC(vC) //利用小损失标准; yB = ClassifierA(vA) //利用小损失标准; yC = ClassifierB(vB) //利用小损失标准; (4) 获得用于分类训练的修正标签 ycA,ycB,ycC; ycA = SLPA(vA, yA),ycB = SLPA(vB, yB),ycC = SLPA(vC, yC); (5) 参数更新; 计算交叉熵损失CrossEntropy(vA, yA &ycA)并更新ICP编码器 ICPA和分类器ClassifierA; 计算交叉熵损失CrossEntropy(vB, yB &ycB)并更新ICP编码器ICPB和分类器ClassifierB; 计算交叉熵损失CrossEntropy(vC, yC &ycC)并更新ICP编码器ICPC和分类器ClassifierC。 表 1 基准方法对比实验结果(%)
方法 指标 Sym, 20% Sym, 50% Asym, 40% CE Acc 81.15 68.13 50.15 M F1 80.36 64.05 48.56 Mixup Acc 82.66 72.88 41.67 M F1 82.25 72.40 42.18 Mixup-BMM Acc 80.16 67.03 55.26 M F1 79.63 66.68 52.54 Co-teaching Acc 91.78 75.65 61.35 M F1 91.61 75.46 61.22 SIGUA Acc 80.08 74.91 67.13 M F1 79.79 74.98 66.37 SREA Acc 80.16 67.45 78.54 M F1 78.98 61.51 77.51 CTW Acc 87.78 80.36 79.76 M F1 87.63 79.53 79.36 Sel-CL Acc 78.15 73.01 68.52 M F1 77.69 71.26 66.18 本文 Acc 92.77 84.01 83.77 M F1 92.99 84.11 83.72 表 2 编码器采用不同网络架构时的意图识别性能(%)
网络架构 指标 Sym, 0% Sym, 20% FCL Acc 89.26 89.22 M F1 89.23 89.01 FCN Acc 92.60 90.49 M F1 92.58 90.26 GRU Acc 91.23 90.75 M F1 91.37 91.13 1DCNN_BiLSTM Acc 90.06 90.50 M F1 90.16 90.44 ICP Acc 96.13 92.77 M F1 96.00 92.99 表 3 消融实验结果(%)
方法 指标 Sym, 20% Sym, 50% Asym, 40% 本文 Acc 92.77 84.01 83.77 M F1 92.99 84.11 83.72 w/o cross-scale fusion Acc 92.71 73.08 69.83 M F1 92.82 74.34 64.48 w/o downsampling Acc 91.41 78.61 68.15 M F1 91.28 77.79 67.09 w/o graph learning Acc 91.03 80.64 81.46 M F1 91.09 80.45 77.74 replace SLPA with LPA Acc 90.86 83.26 81.02 M F1 90.54 83.10 80.47 w/o momentum update Acc 91.77 82.95 74.28 M F1 91.88 82.46 70.70 w/o dynamic threshold Acc 93.10 77.39 78.91 M F1 93.17 76.47 75.83 表 4 20%对称噪声标签占比下、不同尺度数目取值时的准确率(%)
尺度数目 Acc 2 0.904 4 3 0.927 7 4 0.903 2 5 0.908 2 表 5 20%对称噪声标签占比下、不同动量更新增量取值时的准确率(%)
动量更新增量 Acc 0.99 0.911 2 0.9 0.927 7 0.75 0.903 2 0.5 0.905 3 表 6 20%对称噪声标签占比下、不同最近邻数量取值时的准确率(%)
最近邻数量 Acc 5 0.911 1 10 0.927 7 15 0.913 6 表 7 20%对称标签占比下、SLPA中不同阈值取值时的准确率(%)
SLPA中阈值 Acc 0.5 0.921 1 0.6 0.927 7 0.7 0.910 5 表 8 20%对称噪声标签占比下、不同γ取值时的准确率(%)
γ Acc 0.99 0.927 7 0.95 0.903 4 0.9 0.901 1 0.8 0.897 2 -
[1] AHMED A A and MOHAMMED M F. SAIRF: A similarity approach for attack intention recognition using fuzzy min-max neural network[J]. Journal of Computational Science, 2018, 25: 467–473. doi: 10.1016/j.jocs.2017.09.007. [2] AKRIDGE C. On advanced template-based interpretation as applied to intention recognition in a strategic environment[D]. [Master dissertation], University of Central Florida, 2007. [3] GONZALEZ A J, GERBER W J, DEMARA R F, et al. Context-driven near-term intention recognition[J]. The Journal of Defense Modeling and Simulation, 2004, 1(3): 153–170. doi: 10.1177/875647930400100303. [4] CHARNIAK E and GOLDMAN R P. A Bayesian model of plan recognition[J]. Artificial Intelligence, 1993, 64(1): 53–79. doi: 10.1016/0004-3702(93)90060-O. [5] YU Quan, SONG Jinyu, YU Xiaohan, et al. To solve the problems of combat mission predictions based on multi-instance genetic fuzzy systems[J]. The Journal of Supercomputing, 2022, 78(12): 14626–14647. doi: 10.1007/s11227-022-04388-5. [6] SVENMARCKT P and DEKKER S. Decision support in fighter aircraft: From expert systems to cognitive modelling[J]. Behaviour & Information Technology, 2003, 22(3): 175–184. doi: 10.1080/0144929031000109755. [7] MENG Guanglei, ZHAO Runnan, WANG Biao, et al. Target tactical intention recognition in multiaircraft cooperative air combat[J]. International Journal of Aerospace Engineering, 2021, 2021: 9558838. doi: 10.1155/2021/9558838. [8] TRABOULSI A and BARBEAU M. Recognition of drone formation intentions using supervised machine learning[C]. Proceedings of 2019 International Conference on Computational Science and Computational Intelligence, Las Vegas, USA, 2019: 408–411. doi: 10.1109/CSCI49370.2019.00079. [9] 胡智勇, 刘华丽, 龚淑君, 等. 基于随机森林的目标意图识别[J]. 现代电子技术, 2022, 45(19): 1–8. doi: 10.16652/j.issn.1004-373x.2022.19.001.HU Zhiyong, LIU Huali, GONG Shujun, et al. Target intention recognition based on random forest[J]. Modern Electronics Technique, 2022, 45(19): 1–8. doi: 10.16652/j.issn.1004-373x.2022.19.001. [10] ZHANG Chenhao, ZHOU Yan, LI Hui, et al. Combat intention recognition of air targets based on 1DCNN-BiLSTM[J]. IEEE Access, 2023, 11: 134504–134516. doi: 10.1109/ACCESS.2023.3337640. [11] ZHANG Zhuo, WANG Hongfei, JIANG Wen, et al. A target intention recognition method based on information classification processing and information fusion[J]. Engineering Applications of Artificial Intelligence, 2024, 127: 107412. doi: 10.1016/j.engappai.2023.107412. [12] CHENG Cheng, LIU Xiaoyu, ZHOU Beitong, et al. Intelligent fault diagnosis with noisy labels via semisupervised learning on industrial time series[J]. IEEE Transactions on Industrial Informatics, 2023, 19(6): 7724–7732. doi: 10.1109/TII.2022.3229130. [13] ZHANG Hongyi, CISSÉ M, DAUPHIN Y N, et al. Mixup: Beyond empirical risk minimization[C]. Proceedings of the 6th International Conference on Learning Representations, Vancouver, Canada, 2018. [14] ARAZO E, ORTEGO D, ALBERT P, et al. Unsupervised label noise modeling and loss correction[C]. Proceedings of the 36th International Conference on Machine Learning, Long Beach, USA, 2019: 312–321. [15] HAN Bo, YAO Quanming, YU Xingrui, et al. Co-teaching: Robust training of deep neural networks with extremely noisy labels[C]. Proceedings of the 32nd International Conference on Neural Information Processing Systems, Montréal, Canada, 2018: 8536–8546. [16] HAN Bo, NIU Gang, YU Xingrui, et al. SIGUA: Forgetting may make learning with noisy labels more robust[C]. Proceedings of the 37th International Conference on Machine Learning, 2020: 4006–4016. (查阅网上资料, 未找到出版地信息, 请补充) . [17] CASTELLANI A, SCHMITT S, and HAMMER B. Estimating the electrical power output of industrial devices with end-to-end time-series classification in the presence of label noise[C]. Proceedings of European Conference on Machine Learning and Knowledge Discovery in Databases. Bilbao, Spain, 2021: 469–484. doi: 10.1007/978-3-030-86486-6_29. [18] LI Shikun, XIA Xiaobo, GE Shiming, et al. Selective-supervised contrastive learning with noisy labels[C]. Proceedings of 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition, New Orleans, USA, 2022: 316–325. doi: 10.1109/CVPR52688.2022.00041. [19] MA Peitian, LIU Zhen, ZHENG Junhao, et al. CTW: Confident time-warping for time-series label-noise learning[C]. Proceedings of the 32nd International Joint Conference on Artificial Intelligence, Macao, China, 2023: 4046–4054. doi: 10.24963/ijcai.2023/450. [20] 魏琦, 孙皓亮, 马玉玲, 等. 面向标签噪声的联合训练框架[J]. 中国科学: 信息科学, 2024, 54(1): 144–158. doi: 10.1360/SSI-2022-0395.WEI Qi, SUN Haoliang, MA Yuling, et al. A joint training framework for learning with noisy labels[J]. SCIENTIA SINICA Informationis, 2024, 54(1): 144–158. doi: 10.1360/SSI-2022-0395. [21] LIANG Xuefeng, LIU Xingyu, and YAO Longshan. Review–a survey of learning from noisy labels[J]. ECS Sensors Plus, 2022, 1(2): 021401. doi: 10.1149/2754-2726/ac75f5. [22] SHAN Yuxiang, LU Hailiang, and LOU Weidong. A hybrid attention and dilated convolution framework for entity and relation extraction and mining[J]. Scientific Reports, 2023, 13(1): 17062. doi: 10.1038/s41598-023-40474-1. [23] CHEN Wei and SHI Ke. Multi-scale attention convolutional neural network for time series classification[J]. Neural Networks, 2021, 136: 126–140. doi: 10.1016/j.neunet.2021.01.001. [24] ZHANG Yitian, MA Liheng, PAL S, et al. Multi-resolution time-series transformer for long-term forecasting[C]. Proceedings of the 27th International Conference on Artificial Intelligence and Statistics, Valencia, Spain, 2024: 4222–4230. [25] BISCHOF B and BUNCH E. Geometric feature performance under downsampling for EEG classification tasks[J]. arXiv: 2102.07669, 2021. doi: 10.48550/arXiv.2102.07669. (查阅网上资料,未能确认文献类型,请确认) . [26] LI Junnan, WONG Yongkang, ZHAO Qi, et al. Learning to learn from noisy labeled data[C]. Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 5046–5054. doi: 10.1109/CVPR.2019.00519. [27] XIA Xiaobo, LIU Tongliang, HAN Bo, et al. Sample selection with uncertainty of losses for learning with noisy labels[C]. Proceedings of the Tenth International Conference on Learning Representations, 2022. (查阅网上资料, 未找到出版地信息, 请补充) . [28] GUI Xianjin, WANG Wei, and TIAN Zhanghao. Towards understanding deep learning from noisy labels with small-loss criterion[C]. Proceedings of the Thirtieth International Joint Conference on Artificial Intelligence, Montreal, Canada, 2021: 2469–2475. [29] 王晓莉, 薛丽. 标签噪声学习算法综述[J]. 计算机系统应用, 2021, 30(1): 10–18. doi: 10.15888/j.cnki.csa.007776.WANG Xiaoli and XUE Li. Review on label noise learning algorithms[J]. Computer Systems & Applications, 2021, 30(1): 10–18. doi: 10.15888/j.cnki.csa.007776. [30] 崔瑞博, 王峰. 动量更新与重构约束的限制视角下3D物品识别[J]. 华东师范大学学报(自然科学版), 2023(6): 61–72. doi: 10.3969/j.issn.1000-5641.2023.06.006.CUI Ruibo and WANG Feng. Momentum-updated representation with reconstruction constraint for limited-view 3D object recognition[J]. Journal of East China Normal University (Natural Science), 2023(6): 61–72. doi: 10.3969/j.issn.1000-5641.2023.06.006. [31] 邓琨, 李文平, 陈丽, 等. 一种新的基于标签传播的复杂网络重叠社区识别算法[J]. 控制与决策, 2020, 35(11): 2733–2742. doi: 10.13195/j.kzyjc.2019.0176.DENG Kun, LI Wenping, CHEN Li, et al. A novel algorithm for overlapping community detection based on label propagation in complex networks[J]. Control and Decision, 2020, 35(11): 2733–2742. doi: 10.13195/j.kzyjc.2019.0176. [32] XIE Jierui, SZYMANSKI B K, and LIU Xiaoming. SLPA: Uncovering overlapping communities in social networks via a speaker-listener interaction dynamic process[C]. Proceedings of the 2011 IEEE 11th International Conference on Data Mining Workshops, Vancouver, Canada, 2011: 344–349. doi: 10.1109/ICDMW.2011.154. [33] ZHANG Bowen, WANG Yidong, HOU Wenxin, et al. FlexMatch: Boosting semi-supervised learning with curriculum pseudo labeling[C]. Proceedings of the 35th International Conference on Neural Information Processing Systems, Red Hook, USA, 2024: 1407. (查阅网上资料, 未能确认出版地信息, 请确认) . [34] SONG Zihao, ZHOU Yan, CHENG Wei, et al. Robust air target intention recognition based on weight self-learning parallel time-channel transformer encoder[J]. IEEE Access, 2023, 11: 144760–144777. doi: 10.1109/ACCESS.2023.3341154. [35] WANG Jingdong, WANG Fei, ZHANG Changshui, et al. Linear neighborhood propagation and its applications[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(9): 1600–1615. doi: 10.1109/TPAMI.2008.216. [36] WANG Zhiguang, YAN Weizhong, and OATES T. Time series classification from scratch with deep neural networks: A strong baseline[C]. Proceedings of 2017 International Joint Conference on Neural Networks, Anchorage, USA, 2017: 1578–1585. doi: 10.1109/IJCNN.2017.7966039. 期刊类型引用(1)
1. 胡哲,王宁,高东明,邓杰,黄永立. 考虑海杂波特征的SAR图像海上运动小目标检测方法. 电子设计工程. 2024(07): 173-176+181 . 百度学术
其他类型引用(5)
-