An Efficient Lightweight Network for Intra-pulse Modulation Identification of Low Probability of Intercept Radar Signals
-
摘要: 针对低信噪比(SNRs)下低截获概率(LPI)雷达脉内波形识别准确率低的问题,该文提出一种基于时频分析(TFA)、混合扩张卷积(HDC)、卷积块注意力模块(CBAM)和GhostNet网络的LPI雷达辐射源信号识别方法,旨在提升LPI雷达信号的识别性能。该方法先从信号预处理角度给出一种适合LPI雷达信号的时频图像增强处理方法,并基于双时频特征融合技术,有效提升了后续网络对LPI雷达信号脉内调制的识别准确率。接着改造了一种高效轻量级网络,用于对LPI雷达脉内调制信号识别,该网络在GhostNet基础上,结合HDC和CBAM,形成了改进型GhostNet,扩大了特征图的感受野并增强了网络获取通道和位置信息的能力。仿真结果表明,在–8 dB信噪比下,该方法的雷达信号识别准确率依然能够达到98.98%,并在参数数量上也优于对比网络。该文所提方法在低信噪比环境下显著提高了LPI雷达脉内波形识别的准确率,为LPI雷达信号识别领域提供了新的技术途径。Abstract:
Objective Low Probability of Intercept (LPI) radar enhances stealth, survivability, and operational efficiency by reducing the likelihood of detection, making it widely used in military applications. However, accurately analyzing the intra-pulse modulation characteristics of LPI radar signals remains a key challenge for radar countermeasure technologies. Traditional methods for identifying radar signal modulation suffer from poor noise resistance, limited applicability, and high misclassification rates. These limitations necessitate more robust approaches capable of handling LPI radar signals under low Signal-to-Noise Ratios (SNRs). This study proposes an advanced deep learning-based method for LPI radar signal recognition, integrating Hybrid Dilated Convolutions (HDC) and attention mechanisms to improve performance in low SNR environments. Methods This study proposes a deep learning-based framework for LPI radar signal modulation recognition. The training dataset includes 12 types of LPI radar signals, including BPSK, Costas, LFM, NLFM, four multi-phase, and four multi-time code signals. To enhance model robustness, a comprehensive preprocessing pipeline is applied. Initially, raw signals undergo SPWVD and CWD time-frequency analysis to generate two-dimensional time-frequency feature maps. These maps are then processed through grayscale conversion, Wiener filtering for denoising, principal component extraction, and adaptive cropping. A dual time-frequency fusion method is subsequently applied, integrating SPWVD and CWD to enhance feature distinguishability ( Fig. 2 ). Based on this preprocessed data, the model employs a modified GhostNet architecture, Dilated CBAM-GhostNet (DCGNet). This architecture integrates HDC and the Convolutional Block Attention Module (CBAM), optimizing efficiency while enhancing the extraction of spatial and channel-wise information (Fig. 7 ). HDC expands the receptive field, enabling the model to capture long-range dependencies, while CBAM improves feature selection by emphasizing the most relevant spatial and channel-wise features. The combination of HDC and CBAM strengthens feature extraction, improving recognition accuracy and overall model performance.Results and Discussions This study analyzes the effects of different preprocessing methods, network architectures, and computational complexities on LPI radar signal modulation recognition. The results demonstrate that the proposed framework significantly improves recognition accuracy, particularly under low SNR conditions. A comparison of four time-frequency analysis methods shows that SPWVD and CWD achieve higher recognition accuracy ( Fig. 8 ). These datasets are then fused to evaluate the effectiveness of image enhancement techniques. Experimental results indicate that, compared to datasets without image enhancement, the fusion of SPWVD and CWD reduces signal confusion and improves feature discriminability, leading to better recognition performance (Fig. 9 ). Comparative experiments validate the contributions of HDC and CBAM to recognition performance (Fig. 10 ). The proposed architecture consistently outperforms three alternative network structures under low SNR conditions, demonstrating the effectiveness of HDC and CBAM in capturing spatial and channel-wise information. Further analysis of three attention mechanisms confirms that CBAM enhances feature extraction by focusing more effectively on relevant time-frequency regions (Fig. 11 ). To comprehensively evaluate the proposed network, its performance is compared with ResNet50, MobileNetV2, and MobileNetV3 using the SPWVD and CWD fusion-based dataset (Fig. 12 ). The results show that the proposed network outperforms the other three networks under low SNR conditions, confirming its superior recognition capability for low SNR radar signals. Finally, computational complexity and storage requirements are assessed using floating-point operations and parameter count (Table 2 ). The results indicate that the proposed network maintains relatively low computational complexity and parameter count, ensuring high efficiency and low computational cost. Overall, the proposed deep learning framework improves radar signal recognition performance while maintaining efficiency.Conclusions This study proposes a deep learning-based method for LPI radar signal modulation recognition using the DCGNet model, which integrates dilated convolutions and attention mechanisms. The framework incorporates an advanced image enhancement preprocessing pipeline, leveraging SPWVD and CWD time-frequency feature fusion to improve feature distinguishability and recognition accuracy, particularly under low SNR conditions. Experimental results confirm that DCGNet outperforms existing methods, demonstrating its practical potential for radar signal recognition. Future research will focus on optimizing the model further and extending its applicability to a wider range of radar signal types and scenarios. -
1. 引言
低截获概率(Low Probability of Intercept, LPI)雷达作为新型雷达的典型代表,通过减少被敌方侦测的可能性,显著提升了其在电子战中的隐蔽性、生存力和作战效率。这种雷达系统利用低能耗、宽频带和频率捷变等技术,得到了广泛的部署和应用[1]。因此,如何准确地分析LPI雷达信号脉内特征是雷达反侦察技术的关键挑战[2]。
传统的LPI雷达信号脉内调制识别方法在噪声环境中表现较差,且容易产生主观误判,因此在复杂电子战场景中的适用性受限。随着深度学习的不断发展,利用深度神经网络对LPI雷达信号的调制方式进行自动识别成为国内外研究人员关注的热点[3–7]。文献[8]提出了一种基于卷积神经网络(Convolutional Neural Network, CNN)的LPI雷达波形识别技术。在信噪比(Signal-to-Noise Ratio, SNR)为–6 dB时,对12种雷达信号的识别准确率达到93.58%。然而该方法使用的CNN网络虽然性能优异,但其需要进行大量的卷积、池化和矩阵运算,导致计算复杂度高。文献[9]提出了一种基于深度学习的LPI雷达信号调制方式识别方法,算法模型由长短时记忆(Long Short Term Memory, LSTM)网络、CNN网络和分类网络等3部分构成,在信噪比为0 dB时的识别精度达到94.1%。但是由于其模型结构较为复杂,包含LSTM, CNN和分类网络等多个部分,因此计算量较大,运行时间较长。文献[10]提出基于4种典型LPI雷达信号的CNN检测算法,构建了对不同调制方式、参数和信噪比的LPI雷达信号检测模型,并在低信噪比下表现出较好的检测效果。但该算法的性能依赖于训练数据的质量和数量,雷达信号种类较少,算法的泛化能力不足。文献[11]提出了一种基于LPI-Net深度卷积神经网络的LPI雷达波形识别方法,该方法使用崔-威廉斯分布(Choi-Williams Distribution, CWD)技术,在0 dB信噪比下实现了波形的识别准确率超过98%,然而该方法在低信噪比下,噪声干扰会变得更加严重,导致特征提取能力会下降。尽管文献[8–11]在提高雷达信号识别的能力上有所突破,但在低信噪比环境下,针对特征相近的低可探测性雷达信号的快速辨识问题,目前的研究仍然不够深入。因此,本文提出一种基于扩张型卷积块注意力GhostNet (Dilated CBAM-GhostNet, DCGNet)的LPI雷达信号脉内调制识别方法。本文的主要贡献如下:
(1)从信号预处理的角度提出一种时频图像增强处理方法,并基于双时频特征融合技术,有效提高了后续网络对LPI雷达信号脉内调制识别的准确率。
(2)提出一种高效且轻量级的网络结构DCGNet,该网络在GhostNet的基础上,结合混合扩张卷积(Hybrid Dilated Convolution, HDC)和卷积块注意力模块(Convolutional Block Attention Module, CBAM),通过扩大感受野并增强网络对通道与位置信息的学习能力,显著提升了LPI雷达信号的识别性能。
2. 算法模型
2.1 信号模型建立
2.1.1 LPI雷达信号
LPI雷达信号是一种特殊设计的雷达信号,其主要目的是在执行雷达探测任务的同时,降低被敌方电子支援措施系统检测和截获的可能性。LPI雷达信号的一般数学表达式为
x(t)=Arect(tT)ej(2πfct+φ(t)+φ0) (1) rect(tT)={1,|t/T|≤1/20,|t/T|>1/2 (2) 其中,A是信号的振幅,rect(⋅)是门函数,T是信号的脉冲宽度,fc是信号的载波频率,φ0是信号的初始相位,φ(t)是关于时间的相位函数,φ(t)决定着信号不同的调制模式。LPI雷达信号的频率调制技术是其关键之一,可以采用线性调频、相位编码等多种调制方式。这些技术增加了信号在频谱上的复杂度,使其难以被分析和识别。此外,脉内调制技术的应用不仅提升了LPI雷达的隐秘性,也提高了其在多变电磁环境中的适应性和抗干扰能力。
2.1.2 时频特征图像增强处理
在LPI雷达信号脉内调制识别过程中利用时频分析(Time-Frequency Analysis, TFA)技术将1维时域信号转化为2维时频分布图尤其关键[12]。常用的时频分析方法有短时傅里叶变换(Short Time Fourier Transform, STFT)、小波变换(Wavelet Transform, WT)、魏纳格-威尔分布(Wigner-Ville Distribution, WVD)和CWD。其中WVD 具有出色的时频分辨能力,但存在交叉项问题[13]。这一限制激发了抑制交叉项技术的发展,包括CWD和平滑伪魏格纳-维利分布(Smoothed Pseudo Wigner-Ville Distribution, SPWVD)。CWD采用指数核函数,抑制交叉项的同时使时频图像保持较高的分辨率,其表达式为
G(t,ω)=+∞∫−∞x(t+τ2)x∗(t−τ2)ϕ(τ,υ)e−jωτdτ (3) ϕ(τ,υ)=e−τ2υ2σs (4) 其中,x(t)表示任意平稳或非平稳信号,在ϕ(τ,υ)指数核函数中,σs为控制交叉项抑制程度的常数。
SPWVD通过把WVD与平滑函数进行卷积得到,具有较好的消除交叉项效果[14]和时频集群特征[15]。SPWVD的表达式为
G(t,ω)=+∞∫−∞g(u−t)+∞∫−∞h(τ)x(t+τ2)⋅x∗(t−τ2)e−jωτdτdu (5) 其中,g(u)和h(τ)分别为时间域和频率域的窗函数。
虽然CWD和SPWVD可以抑制部分交叉项,但时频图像仍存在噪声和冗余信息。因此,需要进行图像增强预处理,包括灰度化、维纳滤波降噪、主成分提取和自适应裁剪。该流程如图1所示。
图像灰度化去除了颜色信息的干扰,同时保留了图像的纹理和结构;维纳滤波根据输入信号的统计特性来调整滤波器的参数,以最小化输出信号的均方误差[16];主成分提取用于识别时频图像中的有效区域,通过门限检测确定信号起始和结束位置,并提取关键特征,从而去除冗余信息;自适应裁剪根据输入的信噪比参数,采用双线性插值算法将截取后时频图像尺寸的高度和宽度调整为224×224,以包含更多的有效信息并减少噪声。
2.1.3 CWD和SPWVD双时频特征融合
时频特征融合作为一种数据级融合技术,通过整合时频信息,丰富了数据维度并实现信息互补,广泛应用于深度学习[17]。本研究通过融合SPWVD的全局特征捕捉与CWD的细节揭示能力,将两者转换得到的特征图沿通道维度组合,生成的复合特征图用于网络的训练与验证,以提升模型性能。这种融合不仅提升了多频段信号的解析能力,还保持了高时频分辨率,增强了网络的辨识力。
本文的信号预处理过程如图2所示。其中,数字224代表图像的高度和宽度,单位是像素。首先对输入的原始信号经过时频分析得到一系列时频特征图。随后对这些时频特征图进行时频特征图像增强处理,得到一系列自适应裁剪图像,增强了特征的可辨识度。最后,采用双时频融合方法对这些图像进行了综合处理,有效地融合了多源信息,构建了一个综合性的特征表示,并输出了预处理结果。
2.2 特征提取和识别分类
2.2.1 轻量化网络GhostNet
一种新型的端侧神经网络架构GhostNet在国际计算机视觉与模式识别会议(IEEE conference on Computer Vision and Pattern Recognition, CVPR)上由华为诺亚方舟实验室提出[18]。该网络的主要特点是通过使用计算成本更低的操作来产生冗余特征图,从而在不损失精度的前提下,提高处理速度并减少计算资源的消耗[19,20]。
Ghost模块的工作流程如图3所示,输入特征图X,其尺寸为C⋅H⋅W,常规卷积核K的尺寸为C⋅k2,输出特征图Y的尺寸为C′⋅H′⋅W′。首先Ghost模块通过一个常规卷积层对输入图像进行处理,生成尺寸为M⋅H′⋅W′的内在特征图,这一步骤旨在减少输入特征的通道数,实现特征的初步浓缩。随后,对初步浓缩后的内在特征层应用深度可分离卷积,这个过程分为两步:深度卷积和逐点卷积。在深度卷积阶段,对s−1个通道独立进行低成本操作ψ,生成大量的Ghost特征图,并且每个ψ操作的平均内核尺寸等于d2。在逐点卷积阶段,使用1⋅1卷积来组合这些生成的Ghost特征图,进一步调整通道数和特征的表达。最后将上述步骤得到的内在特征图映射到输出特征图,并堆叠s−1组Ghost特征图,构建出尺寸为C′⋅H′⋅W′的Ghost模块。s为冗余比率,表示每个原始特征图可以生成Ghost特征图的倍数。
通过使用Ghost卷积代替传统残差网络中的常规卷积操作,可以显著降低网络的计算复杂度。常规卷积操作的计算量为
FLOPsconv=C′⋅C⋅k2⋅H′⋅W′ (6) Ghost卷积的计算量可以分为2个主要部分:第1部分是通过常规卷积操作生成的内在特征图;第2部分是通过深度可分离卷积操作生成的Ghost特征图。Ghost卷积总的计算量为
FLOPsghost=C′⋅s−1⋅C⋅k2⋅H′⋅W′+(s−1)⋅C′⋅s−1⋅H′⋅W′⋅d2 (7) 其中,C′/s是第1次变换时的输出通道数目M。恒等映射不涉及任何计算,因此第2部分的计算量为s−1。由于ψ操作的卷积核和常规卷积的卷积核有相似的大小,因此d2≈k2,同时冗余比率s远小于原始通道数C。经计算,Ghost卷积与常规卷积计算量比值为
P=FLOPsconvFLOPsghost=C⋅k2s−1⋅C⋅k2+(s−1)⋅s−1⋅d2≈s⋅Cs+C−1≈s (8) Ghost卷积与常规卷积计算量比值约等于冗余比率s,且一般情况下s≥2。Ghost模块的独特之处在于,它通过简单的低成本操作从已有的特征图中生成新的冗余特征图,而不是依赖于传统的卷积操作。这种设计使得GhostNet在保持较高特征提取能力的同时,大幅降低了计算成本。
2.2.2 卷积块注意力模块CBAM
CBAM注意力机制通过分别在通道和空间维度上计算注意力权重,从而实现对特征的自适应强化[21]。如图4所示,通道注意力通过池化和多层感知机生成权重图,空间注意力则通过通道池化和卷积实现。通过2个维度的特征图加权,生成更具辨识力的输出特征图,从而提升网络对关键信息的捕捉能力[22]。为了提升GhostNet模型性能,在Ghost模块中嵌入CBAM,使其能够同时捕捉通道关系和位置信息。
2.2.3 混合扩张卷积HDC
扩张卷积是在常规卷积核中注入空洞,从而扩展了模型的感受野[23]。但仅使用相同空洞率的卷积核进行堆叠时,无法保证输入图像信息的连续性,如图5(a)所示。解决这个问题最直接的方法是采用HDC,确保相邻卷积层的空洞率的最大公约数不超过1,以此来减轻由于空洞所导致的信息损耗,如图5(b)所示。引入HDC到GhostNet中,可以有效改善网络性能,通过减少信息丢失,提升网络的识别能力。
2.2.4 DCGNet网络
结合LPI雷达信号时频图像的特性,在确保较高识别率的前提下,尽可能降低网络的参数量和计算量。本研究基于GhostNet,并结合HDC和CBAM,从而设计出了适用于12类LPI雷达信号识别任务的扩张型卷积块注意力Ghost(Dilated CBAM Ghost, DCG)单元结构。
DCG单元结构如图6所示,当步长为1时,首先将输入分别送入2个分支,其中主分支为2个Ghost卷积块加1个CBAM,主分支通过2个Ghost卷积对输入特征图进行特征提取,CBAM注意力机制有助于提高特征表示能力;侧分支则为恒等映射以提升网络训练的并行度,缓解梯度消失问题,并允许网络进行更深的训练。当步长为2时,主分支在2个Ghost卷积中间加入HDC和CBAM模块,通过HDC对输入特征图进行压缩;侧分支包含步长为2的HDC和点卷积,其中点卷积的引入主要是为了解决深度卷积输出的通道之间信息交流不畅的问题。
多个DCG单元结构堆叠,组合形成DCGNet网络,其整体结构如图7所示,网络结构每层标注的3个数字,分别对应于该层输出特征图的高度、宽度和通道数,单位为像素。首先,输入图像经过一个卷积层,该层包含了卷积、批量归一化和ReLU激活函数操作。这个阶段的目的是对输入图像进行初步的特征提取。接下来是经过一系列的步长为1和步长为2的DCG单元结构。在每个DCG单元中,通过调整卷积核大小、Ghost模块的通道数以及适当的填充策略,以优化输出特征图的尺寸,从而在减少参数数量的同时提高计算效率。在所有DCG单元处理后,网络引入全局平均池化层,能够从每个特征图中提取出关键的全局特征。最后,网络进入全连接层通过SoftMax分类器进行分类。综上所述,DCGNet网络结合了Ghost的高效结构、HDC和CBAM,旨在提高网络的分类性能,同时保持较低的参数量和计算成本。
3. 模拟结果和分析
3.1 实验设置
3.1.1 数据集介绍
仿真实验中模拟12种典型的 LPI 雷达脉内调制信号,包括:二进制相移键控(BPSK)、频率编码信号(Costas)、线性调频信号(LFM)、非线性调频信号(NLFM)、多相码(P1, P2, P3, P4)和多时码(T1, T2, T3, T4)。这些信号的详细参数如表1所示,其中,U()表示参数在区间内均匀随机选择;[]表示参数可取区间内的任何整数值;{}表示参数仅能取特定离散值。所有参数均在取值范围内随机选择。为了保持信号的时间-频率分布特性,信号采样率fs采用归一化频率。
表 1 信号仿真参数表信号类型 参数 取值范围 单位 BPSK 载频fc U(1/10,1/3)⋅fs 赫兹(Hz) 巴克码长度Ncode {7,11,13} 码元(bit) Costas 跳频序列长度Ns {3,4,5,6} - 基准频率fmin U(1/24,1/20)⋅fs 赫兹(Hz) LFM
NLFM起始频率f0 U(1/10,1/3)⋅fs 赫兹(Hz) 带宽B U(1/10,1/5)⋅fs 赫兹(Hz) P1,P2 载频fc U(1/10,1/3)⋅fs 赫兹(Hz) 相位控制数M [8,12],P2码的M为偶数 - 相位子波数cpp [2,5] 个/周期 P3,P4 载频fc U(1/10,1/3)⋅fs 赫兹(Hz) 相位控制数M {36,64,81,100} - 相位子波数cpp [2,5] 个/周期 T1,T2 载频fc U(1/10,1/3)⋅fs 赫兹(Hz) 波形段数Nk [4,6] - T3,T4 载频fc U(1/10,1/3)⋅fs 赫兹(Hz) 波形段数Nk [4,6] - 调制带宽F U(1/20,1/8)⋅fs 赫兹(Hz) 注:“-”表示此处是一个计数单位,表示数量。 在数据集生成过程中,训练集样本在信噪比为–8~8 dB之间产生,步进2 dB,每个步进dB下产生256个信号,并进行时频分析生成时频图像,共27 648(256×12×9)个时频图像。测试集样本在信噪比为–10~10 dB之间产生,步进2 dB,每个步进dB下产生90个信号,并进行时频分析生成时频图像,共11 880(90×12×11)个时频图像。为了方便后续指代,将未经过时频特征图像增强处理得到的12类信号时频图像的数据集统称为Original-TFA,将Original-TFA经过时频特征图像增强处理后的数据集统称为IE-TFA,将由不同时频分析方法两两融合得到的融合时频图像数据集统称为Fusion-TFA。
3.1.2 实验参数设置
本研究实验基于PyTorch深度学习框架进行,训练过程中,网络训练的最大迭代次数为100。优化算法选用自适应动量估计,初始学习率设定为 0.01,并根据测试损失的变化动态调整。当测试损失连续3次未改善时,学习率会下降至原值的30%,以进一步提升模型的优化效果。为防止过拟合并提高训练效率,采用提前停止策略。这些设置有效平衡了模型的训练效率和泛化能力,为实验结果的可靠性提供了保障。
3.2 实验与结果分析
3.2.1 不同预处理方法的识别效果
为了研究不同预处理方法对LPI雷达信号网络识别性能的影响,本节选择了4种时频分析技术,并基于这些方法构建了图像增强数据集:IE-SPWVD, IE-CWD, IE-STFT和IE-WT。通过对这些数据集进行DCGNet训练,评估了它们在12类LPI雷达信号识别中的性能。图8展示了网络对4种不同时频分析方法数据集的识别准确率。
分析图8可知,采用SPWVD和CWD时频分析技术处理的数据集在识别准确率上表现更佳,尤其是在低信噪比环境下,IE-SPWVD和IE-CWD数据集的准确率显著高于IE-STFT和IE-WT数据集。
基于这一发现,进一步对SPWVD和CWD处理的数据集进行了时频融合处理,创建了经过图像增强处理的IE-SPWVD-CWD双时频融合数据集和未经图像增强处理的SPWVD-CWD双时频融合数据集。在信噪比为–8 dB的条件下,从每个数据集的测试集中选择了100个样本,生成了识别结果的混淆矩阵,如图9所示。横坐标表示网络预测的类别,纵坐标表示真实类别。
从图9可见,相比于图9(a)的混淆矩阵,图9(b)中P3与P1, T2与BPSK, Costas与T4之间出现较为明显的混淆,表明IE-SPWVD-CWD数据集有效减少了混淆现象,验证了图像增强处理在提高LPI雷达信号识别性能中的有效性。综上所述,表明了基于SPWVD和CWD融合的时频特征图像增强数据集在特征提取和模型训练方面有优势。
3.2.2 HDC和CBAM有效性分析
为了验证本文算法中各模块的有效性和差异性,设计了一组对比实验,对比分析IE-SPWVD-CWD数据集在不同网络结构上的训练效果。本实验选取了4种网络结构进行对比,包括本文提出的网络结构DCGNet、原始GhostNet网络、引入HDC和通道注意力机制(Channel Attention, CA)的GhostNet变体,以及引入HDC和压缩与激励注意力机制(Squeeze-and-Excitation, SE)的GhostNet变体。得到4种网络的识别准确率折线如图10所示。总体来看,随着信噪比的增加所有网络的识别准确率都呈现上升趋势。然而,在低信噪比条件下,不同网络的性能差异较大,其中DCGNet的表现明显优于其他网络。与GhostNet相比,表明HDC和CBAM有效提升了网络的识别能力。进一步对比DCGNet和两个GhostNet变体,验证了CBAM的有效性。
为了更好地分析3种注意力机制的效果,本文分别绘制了3种注意力机制在识别LFM信号和P3信号的热力图。如图11所示,当网络识别上述测试样本时,它们容易受到背景噪声的影响,从而出现分散和不完整的注意力区域。相比于SE和CA的热力图,CBAM在LFM和P3的热力图中表现出了更明显的关注区域,特别是在图像的中心区域,这表明它能够更好地识别和强调这些区域。
3.2.3 不同网络的分类性能对比
为了进一步分析所提出的网络的性能,使用IE-SPWVD-CWD数据集来训练DCGNet, ResNet50[6], MobileNetV2[24]和MobileNetV3[25]4种网络。得到4种网络在不同信噪比情况下对12类LPI雷达信号的识别准确率如图12所示。
从折线图中可以看出,DCGNet在低信噪比下识别准确率显著高于其他网络,在–8 dB信噪比下DCGNet的识别准确率依然能够达到98.98%,显示出其优异的信号识别能力。
为了全面评估不同网络结构的计算复杂度、存储需求和实际性能,本研究采用浮点运算次数(FLOPs)和参数量(Params)作为主要评估指标。浮点运算次数以百万次(M)为单位,用于衡量网络的计算复杂度;参数量同样以百万(M)为单位,用于评估网络的存储需求。
实验结果如表2所示,综合考虑浮点运算次数和参数量,DCGNet的计算复杂度和参数量都相对较低,意味着它在资源受限的环境中更为实用,这使得它成为一个轻量级的网络。MobileNetV3虽然在浮点运算次数上具有一定的优势,但在低信噪比条件下进行雷达信号识别时,其准确率大幅下降。综上所述,使用轻量级卷积神经网络DCGNet可以显著降低参数和计算复杂度,同时实现较高的识别准确率。
表 2 不同网络浮点运算次数和参数量比较(M)网络 浮点运算次数 参数量 DCGNet 2.82 1.04 ResNet50 4 090.00 23.53 MobileNetV2 3.15 2.24 MobileNetV3 2.28 4.22 4. 结论
本文提出了一种基于DCGNet的LPI雷达信号脉内调制识别方法。主要从两个方面对LPI雷达信号识别技术做出了提升,首先利用图像增强预处理和双时频融合技术,减少了噪声干扰,去除了冗余频带,有效利用了信号的双时频特征。其次,在GhostNet中引入混合扩张卷积和卷积块注意力模块,进一步增强了获取信道和位置信息的能力。实验结果表明,相较于现有方法,本文所提方法在性能上具有显著提升,对12种LPI雷达信号在–8 dB信噪比下的识别准确率依然能够达到98.98%,且在参数数量上优于现有网络。
-
表 1 信号仿真参数表
信号类型 参数 取值范围 单位 BPSK 载频fc U(1/10,1/3)⋅fs 赫兹(Hz) 巴克码长度Ncode {7,11,13} 码元(bit) Costas 跳频序列长度Ns {3,4,5,6} - 基准频率fmin U(1/24,1/20)⋅fs 赫兹(Hz) LFM
NLFM起始频率f0 U(1/10,1/3)⋅fs 赫兹(Hz) 带宽B U(1/10,1/5)⋅fs 赫兹(Hz) P1,P2 载频fc U(1/10,1/3)⋅fs 赫兹(Hz) 相位控制数M [8,12],P2码的M为偶数 - 相位子波数cpp [2,5] 个/周期 P3,P4 载频fc U(1/10,1/3)⋅fs 赫兹(Hz) 相位控制数M {36,64,81,100} - 相位子波数cpp [2,5] 个/周期 T1,T2 载频fc U(1/10,1/3)⋅fs 赫兹(Hz) 波形段数Nk [4,6] - T3,T4 载频fc U(1/10,1/3)⋅fs 赫兹(Hz) 波形段数Nk [4,6] - 调制带宽F U(1/20,1/8)⋅fs 赫兹(Hz) 注:“-”表示此处是一个计数单位,表示数量。 表 2 不同网络浮点运算次数和参数量比较(M)
网络 浮点运算次数 参数量 DCGNet 2.82 1.04 ResNet50 4 090.00 23.53 MobileNetV2 3.15 2.24 MobileNetV3 2.28 4.22 -
[1] CHEN Binbin, WANG Xudong, ZHU Daiyin, et al. LPI radar signals modulation recognition in complex multipath environment based on improved ResNeSt[J]. IEEE Transactions on Aerospace and Electronic Systems, 2024, 60(6): 8887–8900. doi: 10.1109/TAES.2024.3436634. [2] CHEN Tao, LIU Lizhi, and HUANG Xiangsong. LPI radar waveform recognition based on multi-branch MWC compressed sampling receiver[J]. IEEE Access, 2018, 6: 30342–30354. doi: 10.1109/ACCESS.2018.2845102. [3] LEI Wentai, TAN Xin, LUO Chaopeng, et al. Mutual interference suppression and signal enhancement method for ground-penetrating radar based on deep learning[J]. Electronics, 2024, 13(23): 4722. doi: 10.3390/electronics13234722. [4] HOU Qinghua and WU Huibin. Recognition of LPI radar signal intrapulse modulation based on CNN and time-frequency denoising[J]. Journal of Electronics and Information Science, 2024, 9(1): 142–152. doi: 10.23977/jeis.2024.090119. [5] REN Feitao, QUAN Daying, SHEN Lai, et al. LPI radar signal recognition based on feature enhancement with deep metric learning[J]. Electronics, 2023, 12(24): 4934. doi: 10.3390/electronics12244934. [6] LIANG Jingyue, LUO Zhongtao, and LIAO Renlong. Intra-pulse modulation recognition of radar signals based on efficient cross-scale aware network[J]. Sensors, 2024, 24(16): 5344. doi: 10.3390/s24165344. [7] LIU Yunhao, HAN Sicun, GUO Chengjun, et al. The research of intra-pulse modulated signal recognition of radar emitter under few-shot learning condition based on multimodal fusion[J]. Electronics, 2024, 13(20): 4045. doi: 10.3390/electronics13204045. [8] KONG S H, KIM M, HOANG L M, et al. Automatic LPI radar waveform recognition using CNN[J]. IEEE Access, 2018, 6: 4207–4219. doi: 10.1109/ACCESS.2017.2788942. [9] 石礼盟, 杨承志, 王美玲, 等. 基于深度网络的雷达信号调制方式识别[J]. 兵器装备工程学报, 2021, 42(6): 190–193,218. doi: 10.11809/bqzbgcxb2021.06.033.SHI Limeng, YANG Chengzhi, WANG Meiling, et al. Recognition method of radar signal modulation method based on deep network[J]. Journal of Ordnance Equipment Engineering, 2021, 42(6): 190–193,218. doi: 10.11809/bqzbgcxb2021.06.033. [10] 蒋伊琳, 尹子茹. 基于卷积神经网络的低截获概率雷达信号检测算法[J]. 电子与信息学报, 2022, 44(2): 718–725. doi: 10.11999/JEIT210132.JIANG Yilin and YIN Ziru. Low probability of intercept radar signal detection algorithm based on convolutional neural networks[J]. Journal of Electronics & Information Technology, 2022, 44(2): 718–725. doi: 10.11999/JEIT210132. [11] HUYNH-THE T, DOAN V S, HUA C H, et al. Accurate LPI radar waveform recognition with CWD-TFA for deep convolutional network[J]. IEEE Wireless Communications Letters, 2021, 10(8): 1638–1642. doi: 10.1109/LWC.2021.3075880. [12] DONG Ning, JIANG Hong, LIU Yipeng, et al. Intrapulse modulation radar signal recognition using CNN with second-order STFT-based synchrosqueezing transform[J]. Remote Sensing, 2024, 16(14): 2582. doi: 10.3390/rs16142582. [13] QUAN Daying, REN Feitao, WANG Xiaofeng, et al. WVD‐GAN: A Wigner‐Ville distribution enhancement method based on generative adversarial network[J]. IET Radar, Sonar & Navigation, 2024, 18(6): 849–865. doi: 10.1049/rsn2.12532. [14] LIU Lutao and LI Xinyu. Radar signal recognition based on triplet convolutional neural network[J]. EURASIP Journal on Advances in Signal Processing, 2021, 2021(1): 112. doi: 10.1186/s13634-021-00821-8. [15] KALRA M, KUMAR S, and DAS B. Moving ground target detection with seismic signal using smooth pseudo Wigner-Ville distribution[J]. IEEE Transactions on Instrumentation and Measurement, 2020, 69(6): 3896–3906. doi: 10.1109/TIM.2019.2932176. [16] HEPSIBA D and JUSTIN J. Enhancement of single channel speech quality and intelligibility in multiple noise conditions using wiener filter and deep CNN[J]. Soft Computing, 2022, 26(23): 13037–13047. doi: 10.1007/s00500-021-06291-2. [17] YU Xiao, WANG Songcheng, XU Hongyang, et al. Intelligent fault diagnosis of rotating machinery under variable working conditions based on deep transfer learning with fusion of local and global time–frequency features[J]. Structural Health Monitoring, 2024, 23(4): 2238–2254. doi: 10.1177/14759217231199427. [18] HAN Kai, WANG Yunhe, TIAN Qi, et al. GhostNet: More features from cheap operations[C]. Proceedings of 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Seattle, USA, 2020: 1577–1586. doi: 10.1109/CVPR42600.2020.00165. [19] MA Danqing, LI Shaojie, DANG Bo, et al. Fostc3net: A lightweight YOLOv5 based on the network structure optimization[J]. Journal of Physics: Conference Series, 2024, 2824: 012004. doi: 10.1088/1742-6596/2824/1/012004. [20] WANG Zhong and LI Tong. A lightweight CNN model based on GhostNet[J]. Computational Intelligence and Neuroscience, 2022, 2022(1): 8396550. doi: 10.1155/2022/8396550. [21] WOO S, PARK J, LEE J Y, et al. CBAM: Convolutional block attention module[C]. Proceedings of the 15th European Conference on Computer Vision, Munich, Germany, 2018: 3–19. doi: 10.1007/978-3-030-01234-2_1. [22] SI Weijian, LUO Jiaji, and DENG Zhian. Radar signal recognition and localization based on multiscale lightweight attention model[J]. Journal of Sensors, 2022, 2022(1): 9970879. doi: 10.1155/2022/9970879. [23] BIAN Shengqin, HE Xinyu, XU Zhengguang, et al. Hybrid dilated convolution with attention mechanisms for image denoising[J]. Electronics, 2023, 12(18): 3770. doi: 10.3390/electronics12183770. [24] ZHAO Liquan, WANG Leilei, JIA Yanfei, et al. A lightweight deep neural network with higher accuracy[J]. PLoS One, 2022, 17(8): e0271225. doi: 10.1371/journal.pone.0271225. [25] LEI Yanmin, PAN Dong, FENG Zhibin, et al. Lightweight YOLOv5s human ear recognition based on MobileNetV3 and Ghostnet[J]. Applied Sciences, 2023, 13(11): 6667. doi: 10.3390/app13116667. -