Loading [MathJax]/jax/element/mml/optable/BasicLatin.js
高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于梅尔倒谱系数的无人机探测与识别方法

聂伟 张中洋 杨小龙 周牧

聂伟, 张中洋, 杨小龙, 周牧. 基于梅尔倒谱系数的无人机探测与识别方法[J]. 电子与信息学报. doi: 10.11999/JEIT241111
引用本文: 聂伟, 张中洋, 杨小龙, 周牧. 基于梅尔倒谱系数的无人机探测与识别方法[J]. 电子与信息学报. doi: 10.11999/JEIT241111
NIE Wei, ZHANG Zhongyang, YANG Xiaolong, ZHOU Mu. Unmanned Aerial Vehicles Detection and Recognition Method Based on Mel Frequency Cepstral Coefficients[J]. Journal of Electronics & Information Technology. doi: 10.11999/JEIT241111
Citation: NIE Wei, ZHANG Zhongyang, YANG Xiaolong, ZHOU Mu. Unmanned Aerial Vehicles Detection and Recognition Method Based on Mel Frequency Cepstral Coefficients[J]. Journal of Electronics & Information Technology. doi: 10.11999/JEIT241111

基于梅尔倒谱系数的无人机探测与识别方法

doi: 10.11999/JEIT241111
基金项目: 国家自然科学基金(62101085),重庆市教委科学技术研究项目(KJQN202400647),公安部科技计划项目 (2024JSZ16),重庆市技术创新与应用发展专项重点项目(CSTB2024TIAD-KPX0104)
详细信息
    作者简介:

    聂伟:男,讲师,研究方向为微波毫米波电路、天线技术、雷达成像技术等

    张中洋:男,硕士生,研究方向为射频指纹识别技术

    杨小龙:男,副教授,硕士生导师,研究方向为无线感知与定位技术、光电信息融合智能感知技术等

    周牧:男,教授,博士生导师,研究方向为研究方向为量子雷达、无线定位与感知技术、机器学习等

    通讯作者:

    杨小龙 yangxiaolong@cqupt.edu.cn

  • 中图分类号: TN957.51; TN929.5

Unmanned Aerial Vehicles Detection and Recognition Method Based on Mel Frequency Cepstral Coefficients

Funds: The National Natural Science Foundation of China (62101085), The Science and Technology Research Program of Chongqing Municipal Education Commission (KJQN202400647), The Science and Technology Project of Ministry of Public Security (2024JSZ16), Chongqing Technology Innovation and Application Development Special Key Project (CSTB2024TIAD-KPX0104)
  • 摘要: 近年来无人机(UAV)数量的剧增,无论是在民用还是军用领域都带来了一定的隐私和安全问题,因此对无人机的管控技术已成为研究热点。当前基于深度学习的射频指纹识别(RFFI)技术虽然在无人机识别上表现优异,但由于模型复杂度高,训练速度慢,且在不同数据分布下的泛化能力有限,因此在实际应用中存在局限性。该文提出一种基于梅尔频率倒谱系数的无人机识别方法,使用USRP N210采集无人机图传信号,然后提取梅尔倒谱系数(MFCC)作为无人机射频指纹特征,输入门控循环单元(GRU)进行分类识别,最后通过正则化正交匹配追踪算法(ROMP)估计无人机定位参数得到无人机具体位置。试验结果表明无人机的识别准确率可达98%,且GRU模型参数量只有1.6 k,训练时间仅需9 s,显著降低了模型复杂度并提高了训练速度和识别精度,在无人机定位中,其3维定位误差小于1 m。为进一步验证该文所提方法的可行性,对同一厂家同一型号10个无线模块进行不同距离的分类识别,1 m, 2 m, 3 m和5 m识别结果分别为100%, 98%, 98%和99%。
  • 随着无人机技术的不断发展与进步,无人机已在民用与军用领域得到了广泛的应用,但与此同时带来了一些新的挑战,如隐私保护、空域管理等问题,传统的对无人机进行识别的方法主要通过光电信号、音频信号[1]、雷达回波信号[2]等进行识别,都存在一定的局限性。不论是基于光电信号、无人机声音信号还是雷达回波信号的探测方法,在实际应用中都可能因为外界因素的干扰而受限。相比之下,射频指纹识别(Radio Frequency Fingerprinting Identification, RFFI)被认为是一种更加有效的无人驾驶飞行器监管技术。该技术通过分析无人机发射的独特电磁信号实现对无人机的分类与识别,尽管许多无人机可能来自同一个制造商并且是同一型号,但在硬件层面依然存在着细微的差异。这些差异像人的指纹一样表现在无人机的射频信号中,作为无人机的唯一标识符。相较于光电信号和声音信号,射频信号中包含了更多的能够反映无人机硬件上的特征信息,且不易受环境影响,利用这些信号中的特征作为无人机的射频指纹,可以更有效地实现无人机的分类与识别。

    射频指纹识别作为一种新兴的物理层安全技术,在无线设备识别和物理层认证应用中得到了广泛的应用[35],例如,文献[6]通过调节温度来增加设备射频指纹间的差异,实现智能手机的识别,文献[7]利用基于深度学习的RFFI对近场通信(Near Field Communication, NFC)设备进行识别等。目前的射频指纹识别技术主要为基于专家特征的识别和基于深度学习的识别。

    基于专家特征的射频指纹识别是通过对信号进行预处理或在其变换域中提取特征,其需要较强的专家和领域知识,以及需要高质量的信号采集设备,而且该方法想提取到最优特征比较困难,且需要较好或合适的分类器才能达到理想的分类效果。

    目前基于深度学习的射频指纹识别主要以卷积神经网路(Convolutional Neural Network, CNN)和循环神经网络(Recurrent Neural Network, RNN)为主,其主要用于对信号的特征提取,其优点为不用人工提取特征,可以直接导入原始数据,自主学习特征,但存在训练数据量大、模型复杂、训练速度慢等缺点。CNN结构的优点是能够自发地从数据中提取信号的关键局部特征,然而CNN在全局上的特征提取能力较为欠缺,由于其局部连接的特性,导致一些存在于信号序列全局上的关键特征无法提取,因而使其识别精度受影响。RNN更适用于处理序列数据,其中每个元素都与前一个元素有关。从而捕捉信号随时间变化的动态特性以及全局特征。

    对于射频指纹识别流程主要包括信号预处理、特征提取和识别分类3个模块。传统方法主要通过提取特征然后输入分类算法进行分类与识别。基于射频信号所设计的特征提取算法,受通信协议的限制,具有一定的局限性,不利于实际应用。Wang等人[8]通过提取信号前导码的Welch功率谱作为射频信号特征,对20个基于Zigbee协议的辐射源设备进行识别,在低信噪比条件下也能达到较好的识别效果,但该方法的不足之处是只适用于通信协议已知的情景下,对于没有前导码的通信信号该方法将受限。

    在传统方法的基础上,除单特征外还有研究进行多特征融合来提升识别精度,Yang等人[9]从射频信号中提取多个特征(包括上升瞬态、下降瞬态和同步特征),然后将这些特征按行连接形成字典矩阵,使用稀疏表示分类(Sparse Representation-based Classification, SRC)算法对处理后的特征进行分类。该方法能够有效结合不同特征以提高分类性能,但该算法较复杂,识别速度慢。

    图像处理以及文本翻译等领域中,深度学习已经表现出相比于传统基于专家知识提取的特征方法更好的优势,而无线电信号与图像、文本等数据不同,其没有直观的视觉形式,目前研究主要以无线信号的同向/正交(In-phase/Quadrature, I/Q)数据输入深度学习模型进行特征提取然后输出识别结果。其流程为,采集信号的原始I/Q数据,然后将数据以2×N的尺寸存储,2分别表示同向分量I和正交分量QN则代表信号沿时间方向的序列长度。该方法输入深度学习模型的数据量较大,模型参数量大、识别速度慢、且精度不高,在实际场景的应用比较困难。

    2021年,Lin等人[10]提出了一种名为“等势星球图”(Contour Stellar Image, CSI)的特征,用于将复杂的无线信号的原始I/Q数据转换成图像格式,这有助于深度学习模型捕捉和理解信号的内在特征,从而提高识别精度。相较于基于专家特征的浅层分类器(如支持向量机SVM)表现更优,即使SVM使用更多特征,在高信噪比区域,CSI结合深度学习(如AlexNet)仍能取得更好效果。但是该方法需要较大的计算资源和时间。

    根据上述分析,本文提出一种基于梅尔倒谱系数的无人机探测与识别方法,在不需要数据预处理的情况下,将梅尔频率倒谱系数 (Mel Frequency Cepstral Coefficients, MFCC)作为无人机射频指纹特征输入门控循环单元(Gate Recurrent Unit, GRU)神经网络进行分类识别,使得输入模型数据量大幅度减小,模型复杂度大幅度降低,且识别精度较高。此外本文基于正则化正交匹配追踪算法(Regularized Orthogonal Matching Pursuit, ROMP)估计无人机的方位角(Angle Of Azimuth, AOA)和俯仰角(Angle Of Elevation, AOE)定位参数,然后通过定位模型以及参数信息实现无人机的3维定位。

    传统的MFCC主要用于无人机的声音信号的识别,其易受到环境噪声的影响,导致识别精度较差。本文将其作为无人机的射频指纹特征,在减小计算复杂度的同时,有效地表征无人机射频信号。

    梅尔倒谱系数(MFCC)主要应用于语音识别和音频处理领域,其利用人耳对不同频率声波的听觉敏感度差异的原理,通过模拟这一特性来获取语音信号的本质特征[11]。数学模型为将信号从线性频域变换到梅尔频域再提取其倒谱系数,其中梅尔域描述了人耳频率的非线性特征,与频率的关系可用式(1)表示

    Mel(f)=2595×lg(1+f700) (1)

    具体流程如下:

    (1)分帧:对采集到的数据采取滑动窗口分帧处理[12],将数据分割成长度为N的短帧片段,窗口滑动后重叠长度为L,如图1所示,其横坐标为信号采样长度,纵坐标为信号幅值。标准帧为25 ms,即对于2.4 GHz的信号,帧长度N=0.025×2.4×106,帧移通常是10 ms,即帧移长度L=0.01×2.4×106。使用滑动窗分帧处理目的是使相邻帧前后都有一小部分交叉,避免相邻两帧之间的变化过大,保证相邻帧之间的连续性。

    图 1  数据分帧示意图

    (2)加窗:为了增加输入信号s(n)相邻帧之间的连续性,让每一帧与汉明窗[13]相乘得到信号s(n),计算公式为

    s(n)=s(n)[μ(1μ)cos(2πn(N1))],0nN1 (2)

    其中,N为帧长度,μ为汉明窗系数。

    (3)离散傅里叶变换:将输入信号从时域变换到频域。计算公式为

    W(k)=N-1n=0s(n)ei2πNnk,0kN1 (3)

    生成梅尔滤波器组:

    (a)确定最低频率fL、最高频率fH和梅尔滤波器个数M(通常为22~40),本文经过测试,选择滤波器个数为40效果最好。

    (b)在梅尔频率域中,生成滤波器的中心频率是等间距的,则有

    fd(mel)=Mel(fL)+Mel(fH)M+1 (4)

    每个滤波器的中心频率为

    f(m)=(Nfs)Mel1[(fL)+mMel(fL)+Mel(fH)M+1] (5)

    其中,1mMN为离散傅里叶变换时的长度,fs为采样频率。

    (c)每个滤波器的函数表达式为

    Hm(k)={0,k<f(m1)kf(m1)f(m)f(m1),f(m1)kf(m)f(m+1)kf(m+1)f(m),f(m)<kf(m+1)0,k>f(m+1) (6)

    (4)梅尔滤波并提取对数功率谱:将离散傅里叶变换后得到的频谱数据,通过梅尔滤波器组滤波,计算每一个梅尔滤波器输出的对数,即相应频带的对数功率谱,其计算公式为

    Wmel(m)=ln(N1k=0|W(k)|2Hm(k)) (7)

    其中,m=1,2,,MM为滤波器个数;Hm(k)为第m个滤波器。

    (5)离散余弦变换(Discrete Cosine Transform​, DCT):将对数功率谱通过离散余弦变换从频域变换到时域中,所得到的结果就是梅尔频率倒谱系数,其计算公式为

    Mfcc(n)=Mm=1Wmelcos(nπM(m12)) (8)

    门控循环单元(Discrete Cosine Transform, GRU)是一种特殊类型的循环神经网络(RNN),由Cho等人[14]在2014年提出。GRU的设计灵感来源于长短期记忆网络(Long Short-Term Memory, LSTM),但它通过简化LSTM的结构来减少计算复杂度和提高效率[15]

    GRU的核心思想是将LSTM中的3个门[16]—输入门、遗忘门和输出门合并为2个门:更新门和重置门,如图2所示,ztrt分别为更新门和重置门,相比于LSTM, GRU的参数量更少,训练更快。

    图 2  GRU内部结构图

    具体来说,GRU的每个时间步的状态更新可以表示为以下公式:

    (1)更新门:决定保留多少之前的信息。更新门的激活函数通常使用修正线性单元(Rectified Linear Unit, ReLU)(Sigmoid函数)。设rt为当前时间步的重置门激活值,则有

    rt=σ(Wrxt+Urht1+br) (9)

    其中,Wr, Urbr分别是权重、偏置和激活函数参数,xt是当前输入,ht1 是前一时刻的隐藏状态。

    (2)重置门:决定保留多少之前的记忆。重置门的激活函数也通常使用ReLU。设zt为当前时间步的重置门激活值,则有

    zt=σ(Wzxt+Uzht1+bz) (10)

    其中,Wz, Uzbz分别是权重、偏置和激活函数参数。

    (3)隐藏状态更新:结合更新门和重置门的输出,计算新的隐藏状态。设ht为当前时间步的隐藏状态,则有

    ht=ztht1+(1zt)rttanh(Whxt+Uhht1+bh) (11)

    其中,表示元素-wise乘法,tanh是双曲正切函数,Wh, Uhbh分别是权重、偏置和激活函数参数。

    GRU通过这种方式有效地控制了信息的保留和更新,从而在处理长距离依赖时能够保持较小的梯度爆炸风险。

    GRU模型中确定隐藏层个数是一个关键,隐藏单元过多会导致过拟合,过少会对特征的学习不够导致识别精度达不到最佳。本文对不同隐藏单元数目做出对比,其中参数量变化如图3所示,模型参数量随着隐藏单元数的增加而增加,这是因为隐藏单元数的增加会导致权重矩阵和偏置向量的维度增加,从而使得模型的参数量显著增加,因此在保证高识别率的情况下,尽可能选取小的隐藏层数目。

    图 3  GRU模型参数量与隐藏单元个数的关系

    本文中GRU模型基于MATLAB Deep Learning Toolbox进行构建,其中主要包括输入层、扁平化层、GRU层以及全连接层和输出层。输入层尺寸为50×1×1,扁平化层的作用为将多维张量转化为1维向量,以便与GRU层兼容,这里输入已经是1维向量而继续添加扁平化层,是因为在MATLAB中出于框架的兼容性和一致性考虑,以及确保模型在处理输入时不会出现形状不匹配的问题,而要求加入扁平化层,本文中将GRU层的隐藏层数目设置为5,具体的GRU模型结构图如图4所示。

    图 4  GRU模型结构图

    在模型参数设置中,其优化算法选择自适应动量估计(Adaptive momentum, Adam)算法,Adam是一种自适应动量的随机优化方法,在深度学习中经常作为优化器算法,Adam算法适合于不稳定的目标函数,因为其会记录每次梯度与当前梯度的平均值,使其每次更新与前一次相差不会太大,即梯度平滑。为避免模型由于数据顺序而导致过拟合,在每次训练时关闭验证,且打乱数据集。

    本文将MFCC与GRU相结合,首先对无人机信号提取MFCC特征,再输入GRU神经网络进行分类识别。MFCC提取流程简单且具有一定的泛化能力,同时适用于频域数据和时域数据,在减小模型复杂度的同时提高了训练速度以及识别精度,其具体流程如图5所示。

    图 5  分类识别流程图

    本文实验平台主要基于软件定义无线电(Software Defined Radio, SDR) 搭建,SDR为通过软件操控硬件的无线电设备。SDR 通过搭配通用软件无线电外设(Universal Software Radio Peripheral, USRP)可以实现信号的发送与接收,通过GNU Radio对信号频段的设定采集数据以及存储。USRP 具有多种系列,本文则选取N210作为实验平台外设。 N 系列具有高带宽、高动态范围的处理能力,USRP N210如图6所示,其主要工作参数如表1所示。

    图 6  USRP N210整体结构示意图
    表 1  USRP N210主要工作参数
    参数 数值(Mbit/s)
    ADC采样率 100
    DAC采样率 400
    数据传输速率 50
    下载: 导出CSV 
    | 显示表格

    本文对5架不同厂家不同型号的无人机进行测量,无人机如图7所示,分别为Tello Boost combo, DJI Spark,以及3架不同厂家的支持图传功能的玩具无人机,飞莱尔科技JS23、兽SG105和4DRC。测试距离为5 m,高度为2 m, 5台无人机均采用Wi-Fi连接方式进行连接,工作频段均为2.4 GHz。通过USRP N210外接定向天线进行信号的采集,定向天线工作频段为2.4 GHz,天线增益为17 dBi。通过GNU Radio参数设置为采样率10 MHz、中心频率2.4 GHz。每台无人机采集100组数据,其中每组数据包含1 M个点。

    图 7  5架不同厂家的无人机

    本文使用MATLAB进行仿真实验,提取信号数据的MFCC特征,并按9:1的比例划分为训练集和测试集。训练集用于训练GRU模型,测试集用于评估模型性能,分类准确率达到98%。

    图8展示了训练和测试阶段的混淆矩阵,表明模型识别效果良好。为验证方法的有效性,本文在保证各分类模型参数优化公平性的前提下对比了GRU模型与加权K邻近算法(K-Nearest Neighbor, KNN)和线性支持向量机算法(SVM)以及卷积神经网络(CNN)和长短时记忆网络(LSTM)算法的性能,结果如表2所示。深度学习模型优于传统方法,其中GRU在识别精度、参数量和训练时间上表现最佳,尤其适用于射频指纹特征的分类识别。

    图 8  GRU模型混淆矩阵
    表 2  不同分类算法对比表
    方法 识别精度(%) 参数量(k) 训练时间(s)
    KNN 93.3
    SVM 88.7
    CNN 96.0 17.5 20
    LSTM 96.6 7.5 16
    GRU 98.0 1.6 9
    下载: 导出CSV 
    | 显示表格

    为验证所提方法的有效性,本文使用10个同型号的nRF24L01无线模块模拟无人机信号,如图9所示,在室内不同距离下进行分类识别。实验旨在评估算法性能,而非直接模拟实际场景。通过在1 m, 2 m, 3 m和5 m距离下的测试,识别精度分别为100%, 98%, 98%和99%,如表3所示。结果表明,该方法在不同距离下具有稳定的识别性能。

    图 9  nRF24L01无线模块
    表 3  不同距离识别精度对比表
    距离(m)1235
    识别精度(%)100989899
    下载: 导出CSV 
    | 显示表格

    在1 m距离内,识别精度达到100%,主要由于信号传输损耗较小,特征信息完整。随着距离增加,信号衰减和噪声干扰导致精度略有下降,但GRU模型仍能有效提取主要特征。5 m距离下,多径效应可能增强了某些特征,使识别精度回升至99%。混合不同距离信号进行识别时,精度仍达96.25%,表明该方法适用于实际无人机识别任务。

    此外,本文使用频谱分析仪采集10个nRF24L01模块的频域数据,识别准确率达98%,验证了方法在不同数据分布下的泛化能力。频域数据无需分帧、加窗和FFT处理,可直接提取特征。

    本文采用ROMP算法估计无人机定位参数,使用L型阵列天线接收信号。阵列天线在x轴和y轴上分别有N个和M个均匀分布的阵元。当检测到K个无人机信源时,可构建阵列天线的方向矩阵,其中x轴上N个阵元的方向矩阵为

    Ax=[ax(θ1,1),ax(θ2,2),,ax(θK,K)] (12)
    ax(θK,K)=[1,ej2πsinθsinϕd/λ,,ej2π(N1)sinθsinϕd/λ]T (13)

    y轴上M个阵元的方向矩阵为

    Ay=[ay(θ1,1),ay(θ2,2),,ay(θK,K)] (14)
    ay(θK,K)=[1,ej2πsinθsinϕd/λ,,ej2π(M1)sinθsind/λ]T (15)

    综合x轴和y轴上的天线阵元可以得到L型阵列天线的阵列流型可表示为

    AL=[AxAy]=[ax(θ,)ay(θ,)]=a(θ,) (16)

    由以上公式,接收的无人机公式可以表示为

    x(t)=AL(θ,ϕ)s(t)+n(t) (17)

    其中,s(t)=[s1,s2,,sK]T表示K个信源向量,AL(θ,ϕ)为阵列流型矩阵,n(t)为信号噪声。

    通过将阵列流型矩阵扩展成Q维的过完备冗余字典G(θ,ϕ),利用冗余字典将无人机信号稀疏处理即可得到无人机的定位参数AOA和EOA的估计值

    ˆδ=argminδ0,s.t.x=Gδ+n (18)

    本文使用3台接收机对无人机信号进行收集,每台接收机均采用L型阵列天线(x轴和y轴的阵元数相等),即N=M=3,通过ROMP算法可以估计无人机的定位参数,利用最小二乘法和无人机的AOA估计值可以确定无人机的2维平面位置

    pos=argmin (19)

    其中, {\phi _i} 表示无人机飞行位置 p 到接收机 i 的实际AOA值, {\hat \phi _i} 为无人机的AOA的估计值。

    无人机的高度 {h_i} 由AOE的估计值计算得出,将3台接收机的高度估计值的平均值作为无人机的实际高度,定位模型如图10所示。

    图 10  无人机定位模型

    本文利用Wireless InSite模拟了一个200 m×100 m的无人机飞行场景,其中包含与真实环境相同的教学楼、操场、树木、水池等,如图11所示。在模拟的无人机飞行场景中,3台接收机分别对飞行高度为15 m, 20 m, 30 m和50 m的无人机进行定位。

    图 11  基于Wireless InSite模拟的无人机飞行场景图

    本文采用正则化正交匹配追踪(Regularized Orthogonal Matching Pursuit, ROMP)算法进行无人机定位参数估计。ROMP算法由Needell等人[17,18]提出,通过正则化条件选择一组原子,相比OMP算法具有更高的容错率和鲁棒性,对噪声敏感度较低。

    在不同距离下,3台接收机的平均角度估计误差如图12所示。结果表明,方位角(Angle Of Azimuth, AOA)误差在各高度下均小于俯仰角(Angle Of Elevation, AOE),且AOA误差小于0.1°,AOE误差小于0.6°。AOA误差较小主要因其依赖于几何关系,对信号传播路径变化的敏感度较低,而AOE在低空环境下受复杂传播路径影响较大,随着高度增加,误差逐渐减小。

    图 12  接收机的平均误差图

    本文将OMP算法和ROMP算法进行对比,如图13所示,在不同高度下,ROMP算法的估计误差无论是AOA还是AOE均小于OMP算法的估计误差,其表现出更高的估计精度。

    图 13  两种算法的AOA和AOE误差对比图

    表4-表6为在50%和60%置信度下的两种算法对比,在2维定位中两种算法性能接近,而在3维定位中在不同高度下ROMP算法由于其正则化机制都表现出更高的精度。

    表 4  飞行高度20 m算法对比表
    算法置信度(%)2维误差(m)3维误差(m)
    OMP500.300.65
    ROMP500.300.55
    OMP
    ROMP
    60
    60
    0.35
    0.35
    0.70
    0.60
    下载: 导出CSV 
    | 显示表格
    表 5  飞行高度30 m算法对比表
    算法置信度(%)2维误差(m)3维误差(m)
    OMP500.300.60
    ROMP500.300.45
    OMP
    ROMP
    60
    60
    0.35
    0.35
    0.65
    0.60
    下载: 导出CSV 
    | 显示表格
    表 6  飞行高度50 m算法对比表
    算法置信度(%)2维误差(m)3维误差(m)
    OMP500.250.65
    ROMP500.270.45
    OMP
    ROMP
    60
    60
    0.29
    0.35
    0.95
    0.55
    下载: 导出CSV 
    | 显示表格

    针对非法无人机监管问题,本文提出一种基于梅尔倒谱系数的无人机探测与识别方法。本方法通过提取无人机图传信号的MFCC作为射频指纹,利用GRU进行识别,最后利用ROMP算法对无人机定位参数进行估计。结果表明对5台无人机的识别准确率在不需要做任何预处理的情况下也可以达到98%,且三维定位误差小于1 m。为进一步验证本文所提分类识别方法的可行性,本文对10个同一厂家同一型号的无线模块进行测试,在1 m, 2 m, 3 m以及5 m的距离下均能达到较高的识别准确率。同时,不同数据分布形式以及不同信号源的高识别率进一步验证了本方法的适应性和鲁棒性。

  • 图  1  数据分帧示意图

    图  2  GRU内部结构图

    图  3  GRU模型参数量与隐藏单元个数的关系

    图  4  GRU模型结构图

    图  5  分类识别流程图

    图  6  USRP N210整体结构示意图

    图  7  5架不同厂家的无人机

    图  8  GRU模型混淆矩阵

    图  9  nRF24L01无线模块

    图  10  无人机定位模型

    图  11  基于Wireless InSite模拟的无人机飞行场景图

    图  12  接收机的平均误差图

    图  13  两种算法的AOA和AOE误差对比图

    表  1  USRP N210主要工作参数

    参数 数值(Mbit/s)
    ADC采样率 100
    DAC采样率 400
    数据传输速率 50
    下载: 导出CSV

    表  2  不同分类算法对比表

    方法 识别精度(%) 参数量(k) 训练时间(s)
    KNN 93.3
    SVM 88.7
    CNN 96.0 17.5 20
    LSTM 96.6 7.5 16
    GRU 98.0 1.6 9
    下载: 导出CSV

    表  3  不同距离识别精度对比表

    距离(m)1235
    识别精度(%)100989899
    下载: 导出CSV

    表  4  飞行高度20 m算法对比表

    算法置信度(%)2维误差(m)3维误差(m)
    OMP500.300.65
    ROMP500.300.55
    OMP
    ROMP
    60
    60
    0.35
    0.35
    0.70
    0.60
    下载: 导出CSV

    表  5  飞行高度30 m算法对比表

    算法置信度(%)2维误差(m)3维误差(m)
    OMP500.300.60
    ROMP500.300.45
    OMP
    ROMP
    60
    60
    0.35
    0.35
    0.65
    0.60
    下载: 导出CSV

    表  6  飞行高度50 m算法对比表

    算法置信度(%)2维误差(m)3维误差(m)
    OMP500.250.65
    ROMP500.270.45
    OMP
    ROMP
    60
    60
    0.29
    0.35
    0.95
    0.55
    下载: 导出CSV
  • [1] DING Siyi, GUO Xiao, PENG Ti, et al. Drone detection and tracking system based on fused acoustical and optical approaches[J]. Advanced Intelligent Systems, 2023, 5(10): 2300251. doi: 10.1002/aisy.202300251.
    [2] MAKSYMIUK R, PŁOTKA M, ABRATKIEWICZ K, et al. 5G network-based passive radar for drone detection[C]. Proceedings of 2023 24th International Radar Symposium (IRS), Berlin, Germany, 2023: 1–10. doi: 10.23919/IRS57608.2023.10172437.
    [3] ZHANG Junqing, WOODS R, SANDELL M, et al. Radio frequency fingerprint identification for narrowband systems, modelling and classification[J]. IEEE Transactions on Information Forensics and Security, 2021, 16: 3974–3987. doi: 10.1109/TIFS.2021.3088008.
    [4] HE Jiashuo, HUANG Sai, YANG Zheng, et al. Channel-agnostic radio frequency fingerprint identification using spectral quotient constellation errors[J]. IEEE Transactions on Wireless Communications, 2024, 23(1): 158–170. doi: 10.1109/TWC.2023.3276519.
    [5] LI Dingzhao, QI Jie, HONG Shaohua, et al. A class-incremental approach with self-training and prototype augmentation for specific emitter identification[J]. IEEE Transactions on Information Forensics and Security, 2024, 19: 1714–1727. doi: 10.1109/TIFS.2023.3343193.
    [6] GU Xiaolin, WU Wenjia, ZHOU Yusen, et al. TEA-RFFI: Temperature adjusted radio frequency fingerprint-based smartphone identification[J]. Computer Networks, 2024, 238: 110115. doi: 10.1016/j.comnet.2023.110115.
    [7] 张晔. 基于深度学习的射频指纹识别系统设计与实现[D]. [硕士论文], 中国科学院大学(中国科学院国家空间科学中心), 2021. doi: 10.27562/d.cnki.gkyyz.2021.000024.

    ZHANG Ye. Design and implementation of radio frequency fingerprint identification system based on deep learning[D]. [Master dissertation], University of Chinese of Academy of Science (National Space Science Center, Chinese Academy of Sciences), 2021. doi: 10.27562/d.cnki.gkyyz.2021.000024.
    [8] 王检, 张邦宁, 魏国峰, 等. 基于Welch功率谱和卷积神经网络的通信辐射源个体识别[J]. 电讯技术, 2021, 61(10): 1197–1204. doi: 10.3969/j.issn.1001-893x.2021.10.001.

    WANG Jian, ZHANG Bangning, WEI Guofeng, et al. Communication transmitter individual identification based on Welch power spectrum and convolution neural network[J]. Telecommunication Engineering, 2021, 61(10): 1197–1204. doi: 10.3969/j.issn.1001-893x.2021.10.001.
    [9] YANG K, KANG J, JANG J, et al. Multimodal sparse representation-based classification scheme for RF fingerprinting[J]. IEEE Communications Letters, 2019, 23(5): 867–870. doi: 10.1109/LCOMM.2019.2905205.
    [10] LIN Yun, TU Ya, DOU Zheng, et al. Contour Stella image and deep learning for signal recognition in the physical layer[J]. IEEE Transactions on Cognitive Communications and Networking, 2021, 7(1): 34–46. doi: 10.1109/TCCN.2020.3024610.
    [11] 凌逆战. 梅尔倒谱系数(MFCC)的原理讲解及python实现[EB/OL]. https://www.cnblogs.com/LXP-Never/p/10918590.html, 2024.

    LING Nizhan. Explanation of the principle and python implementation of the Mel Frequency Cepstral Coefficients (MFCC)[EB/OL]. https://www.cnblogs.com/LXP-Never/p/10918590.html, 2024.
    [12] 张亚楠. 语音信号处理基础(十一)——梅尔倒谱系数的提取[EB/OL]. https://blog.csdn.net/qq_40644291/article/details/104417894, 2024.

    ZHANG Yanan. Fundamentals of speech signal processing (XI) - extraction of Mel frequency cepstral coefficients[EB/OL]. https://blog.csdn.net/qq_40644291/article/details/104417894, 2024.
    [13] 何正祥, 彭平安, 廖智勤. 基于梅尔倒谱系数的矿山复杂微震信号自动识别分类方法[J]. 中国安全生产科学技术, 2018, 14(12): 41–47. doi: 10.11731/j.issn.1673-193x.2018.12.006.

    HE Zhengxiang, PENG Pingan, and LIAO Zhiqin. An automatic identification and classification method of complex microseismic signals in mines based on Mel-frequency cepstral coefficients[J]. Journal of Safety Science and Technology, 2018, 14(12): 41–47. doi: 10.11731/j.issn.1673-193x.2018.12.006.
    [14] CHO K, VAN MERRIENBOER B, BAHDANAU D, et al. On the properties of neural machine translation: Encoder-Decoder approaches[C]. Proceedings of SSST-8, Eighth Workshop on Syntax, Semantics and Structure in Statistical Translation, Doha, Qatar, 2014: 103–111. doi: 10.3115/v1/W14-4012.
    [15] 生瓜蛋子. 深度探索: 机器学习门控循环单元(GRU)算法原理及其应用[EB/OL]. https://blog.csdn.net/qq_51320133/article/details/137629302, 2024.

    Raw Melon Eggs. Deep exploration: Principles of the machine learning gated recurrent unit (GRU) algorithm and its applications[EB/OL]. https://blog.csdn.net/qq_51320133/article/details/137629302, 2024.
    [16] COLAH. Understanding LSTM networks[EB/OL]. http://colah.github.io/posts/2015-08-Understanding-LSTMs/, 2015.
    [17] NEEDELL D and VERSHYNIN R. Greedy signal recovery and un-certainty principles[C]. Proceedings of the Conference on Computational Imaging, San Jose, USA, 2008: 68140J. doi: 10.1117/12.776996.
    [18] NEEDELL D and VERSHYNIN R. Uniform uncertainty principle and signal recovery via regularized orthogonal matching pursuit[J]. Foundations of Computational Mathematics, 2009, 9(3): 317–334. doi: 10.1007/s10208-008-9031-3.
  • 加载中
图(13) / 表(6)
计量
  • 文章访问数:  69
  • HTML全文浏览量:  16
  • PDF下载量:  17
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-12-17
  • 修回日期:  2025-03-17
  • 网络出版日期:  2025-03-25

目录

/

返回文章
返回