高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

DroneRFa:用于侦测低空无人机的大规模无人机射频信号数据集

俞宁宁 毛盛健 周成伟 孙国威 史治国 陈积明

俞宁宁, 毛盛健, 周成伟, 孙国威, 史治国, 陈积明. DroneRFa:用于侦测低空无人机的大规模无人机射频信号数据集[J]. 电子与信息学报, 2024, 46(4): 1147-1156. doi: 10.11999/JEIT230570
引用本文: 俞宁宁, 毛盛健, 周成伟, 孙国威, 史治国, 陈积明. DroneRFa:用于侦测低空无人机的大规模无人机射频信号数据集[J]. 电子与信息学报, 2024, 46(4): 1147-1156. doi: 10.11999/JEIT230570
Tang Hai-rong, Xiang Mao-sheng, Wu Yi-rong, Zhu Min-hui, Jin Wei-qi. A Noise Analysis Method to Evaluate Image Quality of Optical Satellites[J]. Journal of Electronics & Information Technology, 2004, 26(3): 370-374.
Citation: YU Ningning, MAO Shengjian, ZHOU Chengwei, SUN Guowei, SHI Zhiguo, CHEN Jiming. DroneRFa: A Large-scale Dataset of Drone Radio Frequency Signals for Detecting Low-altitude Drones[J]. Journal of Electronics & Information Technology, 2024, 46(4): 1147-1156. doi: 10.11999/JEIT230570

DroneRFa:用于侦测低空无人机的大规模无人机射频信号数据集

doi: 10.11999/JEIT230570
基金项目: 国家自然科学基金(U21A20456, 62271444, 61901413),浙江省自然科学基金(LZ23F010007),浙江大学教育基金会启真人才基金,杭州未来科技城5G开放实验室,中央高校基本科研业务费(226-2022-00107)
详细信息
    作者简介:

    俞宁宁:男,博士生,研究方向为反无人机检测、电磁频谱认知、信号识别等

    毛盛健:男,硕士生,研究方向为无人机信号识别、电磁频谱学习等

    周成伟:男,博士,研究员,研究方向为阵列信号处理、张量信号处理、无人机智能监测技术

    孙国威:男,一级警长,研究方向为无人机应用与防控

    史治国:男,博士,教授,研究方向为信号处理及其定位应用、物联网等

    陈积明:男,博士,教授,研究方向为网络优化与控制、网络系统安全、工业大数据与物联网等

    通讯作者:

    史治国 shizg@zju.edu.cn

  • 1注:数据集下载网址为https://jeit.ac.cn/web/data/getData?dataType=Dataset3,若在论文、学术报告中使用该数据集,请务必引用本文。
  • 中图分类号: TN975

DroneRFa: A Large-scale Dataset of Drone Radio Frequency Signals for Detecting Low-altitude Drones

Funds: The National Natural Science Foundation of China (U21A20456, 62271444, 61901413), The Zhejiang Provincial Natural Science Foundation of China (LZ23F010007), Zhejiang University Education Foundation Qizhen Scholar Foundation, 5G Open Laboratory of Hangzhou Future Sci-Tech City, The Fundamental Research Funds for the Central Universities (226-2022-00107)
  • 摘要: 为研究与发展反无人机检测识别技术,该文公开了一个名为DroneRFa的大规模无人机射频信号数据集。该数据集使用软件无线电设备探测无人机与遥控器相互通信的射频信号,包含城市户外场景下运动无人机信号9类、城市室内场景下信号15类以及背景参照信号1类。每类数据有不少于12个片段,每个片段包含1亿个以上的采样点。数据采集覆盖了3个ISM无线电频段,记录无人机多频通信的真实活动。该数据集具有详细的无人机户外飞行距离和工作频段标注,以前缀字符结合二进制编码的形式方便用户灵活访问所需数据。此外,该文提供了基于频谱可视统计特征和基于深度学习表征的两种无人机识别方案,以验证数据集的可靠和有效性。
  • 拍摄图像时,相机与物体的相对运动往往会造成图像模糊,严重影响图像在实际生活中的应用效果。图像去模糊作为一种改善图像质量的方式,广泛应用于医学图像、交通监控等领域。图像去模糊是图像处理中典型的病态反问题,旨在从模糊图像中恢复出相应的清晰图像。近年来,这项技术受到广泛的关注和研究,但由于现实场景中模糊核的复杂多变性,从真实模糊图像中恢复清晰图像仍具有挑战性。

    图像去模糊过程可看作从解空间中寻找最优解的过程,传统方法利用不同的自然图像先验(如L0-范数梯度先验[1])约束解空间,通过最大后验估计模型的迭代寻找最优解。然而传统方法中采用的迭代优化方式计算繁琐,实时性差;且过于简单的模糊模型假设会导致模糊核的不准确估计,降低算法性能。近年来,随着深度学习的发展,卷积神经网络(Convolutional Neural Networks, CNN)广泛地应用于图像去模糊领域。根据图像块信息,Sun等人[2]利用CNN预测图像的局部模糊核,通过非盲解卷积去除非均匀运动模糊。Gong等人[3]利用全卷积网络估计模糊图像的运动场,从估计的运动场中恢复清晰图像。Nah等人[4]提出一种端到端(无核估计)的图像处理方法,该方法遵循由粗到精的思想,逐步恢复清晰图像。Kupyn等人[5]采用带有梯度惩罚和感知损失的Wasserstein GAN(Wasserstein Generative Adversarial Networks)去除运动模糊,恢复更多的纹理信息。Kupyn等人[6]进一步改进网络,将特征金字塔网络作为DeblurGAN-v2(Deblurring Generative Adversarial Networks Version 2)的核心构建块,此网络可与各种骨干网络配合使用,在性能和效率之间取得平衡。Tao等人[7]提出尺度递归的思想,利用不同尺度的图像共同训练网络,实现网络参数共享,运动去模糊效果显著。梁晓萍等人[8]利用头脑风暴优化算法自动搜寻BP(Back Propagation)神经网络更佳的初始权值和阈值,提升网络性能。

    近期的研究主要从改进网络结构、引入多尺度和增大感受野等角度改善图像重建算法的性能。Tao等人[7]引入网络参数共享机制,在减少参数的同时获得更好的效果。Ronneberger等人[9]提出一种编-解码结构的网络(Unet网络),充分利用上下文信息,在图像语义分割中获得较好的性能。Nah等人[4]将多尺度应用到去模糊网络中,逐渐去除不同程度的模糊。Chen等人[10]将平滑的扩张卷积嵌入到网络中,在保持参数量不变的情况下,通过增大感受野提高区域性能,但随着网络深度的增加,扩张卷积仅考虑使用棋盘格模式对位置进行稀疏采样,从而导致部分信息丢失[11]。Jin等人[12]采用重采样卷积操作确保网络的第1层就具有大的感受野,但是随着图像尺寸的增加,网络的效率大幅降低,且没有增加图像特征的稀疏性。

    受上述研究的启发,本文提出一种基于深度多级小波变换的图像盲去模糊算法,在小波域下学习模糊图像和清晰图像4个子带之间的映射关系,以端到端的方式实现动态场景去模糊。本文的工作如下:(1) 将小波变换嵌入到编码阶段以减少特征图的尺寸,确保网络具有大的感受野。在解码阶段采用小波逆变换,将低分辨率特征图上采样为高分辨率特征图,可有效地避免池化层造成的图像信息损失[11]。此外,图像在小波域中具有稀疏性,网络学习稀疏特征到稀疏特征的映射[13],可有效地提高网络的学习效率。(2) 利用多尺度扩张稠密块(Multi-scale Dilated Dense Block, MDDB),在保证参数不变的前提下提取图像的多尺度深层特征,同时通过稠密连接消除扩张卷积引起的网格伪影。引入的多尺度结构提高了网络对模糊程度的鲁棒性,使恢复的图像更加清晰。(3) 编-解码结构之间的跳跃连接通过增加信息流的传递来融合网络浅层和深层的特征。本文提出的特征融合块(Feature Fusion Block, FFB)引入了动态选择机制[14],允许每个神经元根据输入信息自适应地调整浅层特征与深层特征之间的比重,提高特征融合的有效性。(4) 图像在小波域与空间域具有不同的表示方式,与小波域相比,图像在空间域内含有更加精细的图像细节信息。为补充小波域忽略的图像细节信息,本文提出空间域重建模块(Spatial Domain Reconstruction Module, SDRM),在空间域内学习模糊图像与清晰图像之间的映射关系,进一步提高重构图像的质量。

    本文的网络结构如图1所示,在该网络中,首先利用模块A在小波域中去除模糊图像中的模糊,小波系数的稀疏性可简化去模糊过程,同时通过增大感受野来提高大模糊核导致的运动模糊的鲁棒性;然后利用模块B在空间域重建图像,得到去模糊图像。

    图 1  网络结构
    y=GB(GA(x;δA);δB)
    (1)

    其中,xy分别是模糊图像和去模糊图像,GA()GB()分别表示模块A和模块B的输出,δAδB分别表示模块A和模块B中的超参数。网络中的滤波器的大小为3×3,激活函数为Leaky ReLU,以Tanh激活层作为最后的输出层。

    本文采用MDDB提取图像的多尺度特征,同时进一步增大网络的感受野,提升网络性能。如图2所示,MDDB由一个卷积层和3个多尺度扩张块组成。卷积层减少特征图的通道数,多尺度扩张块提取图像的多尺度特征。每个多尺度扩张块利用4个大小不同的滤波器提取不同尺度的特征,采用级联操作融合多尺度信息,并使用大小为1×1的滤波器以解决特征级联引起的参数过多的问题。为减少网络的计算量,本文采用扩张率(s)分别为1, 2, 3和4的扩张卷积[10]代替普通卷积以获取大尺度特征。

    图 2  多尺度扩张稠密块
    hn=f1×1(C(hn,1,hn,2,hn,3,hn,4);ξn),n=1,2,3
    (2)

    其中,hn表示第n个多尺度扩张块的输出,hn,s表示第n个多尺度扩张块中扩张率为s的扩张卷积提取的特征,f1×1表示大小为1×1的卷积层,ξn表示第n个多尺度扩张块中大小为1×1的卷积层的超参数,C()表示级联操作。扩张卷积会使网络产生网格伪影,降低网络的性能,所以本文在多尺度扩张块之间加入稠密跳跃连接[15,16],通过增加信息流的传递来补偿扩张卷积的稀疏采样。

    fms=C(h0,h1,h2,h3)
    (3)

    其中,fms为MDDB提取的深层特征,h0表示多尺度扩张稠密块中卷积层的输出。

    编-解码结构中存在丰富的上下文信息,有效地融合这些信息可使网络产生更清晰的结果。若简单地采用特征图相加或级联操作融合编-解码的图像特征,会造成大量的信息冗余。最近的方法利用图像通道间[17]/空间[18]的相互依赖性自适应地校正通道/空间的特征响应,或引入动态选择机制提高网络的表征能力[14]。本文使用FFB在通道上动态选择编-解码的特征进行融合,减少信息冗余的同时提升网络性能。如图3所示,FFB分为融合和选择两个阶段。融合阶段采用特征图相加的方式简单地融合编码阶段的浅层特征和解码阶段的深层特征,然后利用平均池化获取融合特征的全局信息,并经过大小为1×1的卷积层在低维空间进行进一步的转换;选择阶段分别采用两个大小为1×1的卷积层学习编-解码阶段对应通道的权重a,bRc×1,利用softmax运算进行归一化,并将权重作用到相应通道上得到融合特征v=[v1,v2,···,vc],vcRH×W

    图 3  特征融合块

    模块A是具有对称编-解码结构的小波域重建模块,编码阶段包括3个编码模块(Encoder Module, EM),每个EM均由卷积层和3个残差块[19]堆叠而成。EM中引入的小波变换将图像尺寸降为原来的1/4,利用卷积层改变特征图的通道数,通过残差块提取丰富且稀疏的图像特征。

    Ei(xi;θi)=fres3(fres2(fres1(fc(DWT(xi);θ0,i);θ1,i);θ2,i);θ3,i),i=1,2,3
    (4)

    其中,xiEi(xi;di)分别表示第i个EM的输入和输出,fc()表示第i个EM中卷积层的输出,fresk()表示第i个EM中第k个残差块的输出,DWT(·)表示2维离散Haar小波变换,θi={θ0,i,θ1,i,θ2,i,θ3,i}表示第i个EM中卷积层的超参数。Haar小波变换利用4个不同的滤波器fLL, fLH, fHL, fHH将图像分解成逼近原始图像的低频子带、水平子带、垂直子带和对角子带4个部分[12],滤波器的定义如式(5)所示。

    fLL=[1111]fLH=[1111]fHL=[1111]fHH=[1111]}
    (5)

    解码阶段包括3个解码模块(Decoder Module, DM), DM的结构与EM的完全对称。利用小波变换的可逆性,在增加图像分辨率的同时保留了图像的细节信息。

    Dm(xm;ηm)=IDWT(fc(fres3(fres2(fres1(xm;η0,m);η1,m);η2,m);η3,m)),m=1,2,3
    (6)

    其中,xmDm(xm;ηm)分别表示第m个DM的输入和输出, IDWT()表示2维离散小波逆变换,ηm={η0,m,η1,m,η2,m,η3,m}表示第m个DM中卷积层的超参数。为进一步提升网络的去模糊性能,本文在编-解码之间加入多尺度扩张稠密块(MDDB)以提取深层特征fms,并将fms用于解码阶段以获得更多的高频细节信息。同时利用特征融合块(FFB)自适应地选择编-解码的特征以实现有效的特征融合。

    e1=E1(x;θ1)e2=E2(e1;θ2)e3=E3(e2;θ3)fms=MDDB(e3;r)fd=D1(FFB1(e1,D2(FFB2(e2,D3(fms;η3);φ2);η2);φ1);η1)yA=fd+x}
    (7)

    其中,fd表示模块A中解码阶段的输出,yA表示模块A的输出,ei表示编码器中第i个EM提取的图像特征,{θ1,θ2,θ3,ρ,η1,η2,η3,φ1,φ2}表示模块A中卷积层的超参数。

    模块B是一个空间域重建模块,在空间域学习图像特征,获取小波域忽略的更精细的图像细节信息。模块B由卷积层和残差块堆叠而成,首先通过卷积层提取图像的浅层特征,然后利用残差块提取更丰富的特征,最后通过卷积层在空间域重建去模糊图像。

    y=fc(fres(fc(yA;δ1);δ2);δ3)+yA
    (8)

    其中,y表示模块B的输出,{δ1,δ2,δ3}表示模块B中卷积层的超参数。

    本文采用的训练集是GoPro训练集[3],从GoPro训练集中随机选取图像,并随机裁剪成320×320×3的图像块,batch size设为24。为提高模型的鲁棒性,利用随机旋转、随机上下翻转、添加加性高斯噪声进行数据扩充处理,其中旋转角度为0°, 90°, 180°, 270°,噪声的均值为0,标准差为(0, 5)。此外,本文利用小尺度的模糊核与训练样本的卷积来增强训练样本的多样性。测试集是GoPro测试集、DVD测试集[18]和真实模糊图像[20]。在训练过程中,本文使用l2范数损失函数来优化网络,网络的优化方法为Adam,所有实验在Pytorch深度学习框架下进行训练,在Inter Core i7-8700 CPU,主频3.2 GHz,内存64 GB,显卡NVIDIA QUADRO RTX 5000平台下完成。

    值得注意的是,本文采用模块化训练方法获取网络模型,在保证其他模块参数不变的前提下,逐一训练网络的各个模块。首先在不添加多尺度扩张稠密块(MDDB),特征融合模块(FFB)和空间域重建模块(Spatial Domain Reconstruction Module, SDRM)的情况下训练网络其他模块,初始学习率为1e–4,当网络训练趋于稳定时调整学习率为5e–5,再次趋于稳定时调整学习率为5e–6;然后分别将MDDB, FFB和SDRM添加到网络中进行单独训练,训练周期为1300 epochs,初始学习率设置为1e–4,分别在400 epochs和900 epochs调整学习率为5e–5和5e–6;最后统一训练网络中的所有模块,微调网络参数,训练周期和学习率调整策略与多尺度模块的相同。

    为说明算法的性能,本文与近年来提出的去模糊算法进行比较,如DeblurGAN-v2[6]、SRN[7]等,分别在GoPro测试集、DVD测试集进行测试,采用峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)和结构相似度(Structural SIMilarity index, SSIM)作为评价指标。GoPro测试集包含1111个模糊-清晰图像对,主要由相机的抖动和物体的运动造成,可以有效地模拟动态场景下真实的运动模糊。DVD测试集由多种设备(如iPhone6s, GoPro)收集,包括1496对模糊-清晰图像,所涉及的动态场景与GoPro测试集的不同。GoPro, DVD测试集上的实验对比结果分别如表1表2表3所示,GoPro测试集、DVD测试集、真实模糊图像上的视觉对比结果分别如图4图5所示。

    表 1  各算法在GoPro测试数据集上的定量评估
    评价指标文献[2]文献[1]文献[5]文献[4]文献[6]文献[7]本文
    PSNR24.6425.1028.7029.0829.5530.2631.39
    SSIM0.8420.8900.9580.9140.9340.9340.952
    下载: 导出CSV 
    | 显示表格
    表 2  各算法在GoPro测试数据集上的运行时间(s)
    评价指标文献[4]文献[6]文献[7]本文
    时间2.160.140.640.23
    下载: 导出CSV 
    | 显示表格
    表 3  文献[7]与本文算法在DVD测试数据集上的定量评估
    评价指标文献[7]本文
    PSNR29.3429.97
    SSIM0.9140.921
    下载: 导出CSV 
    | 显示表格
    图 4  各个算法在GoPro测试集上的恢复结果对比
    图 5  文献[7]与本文算法在DVD数据集和真实数据集上的恢复结果对比

    表1表2可以看出,与Tao等人[7]得到的结果相比,本文的PSNR提高1.13 dB, SSIM提高0.018,运行时间减少0.41 s。在重构图像的质量方面,本文算法明显优于其他算法;在算法的重构效率方面,本文算法同样优于其他算法(除Kupyn等人[6]提出的DeblurGAN-v2外)。由表3可以看出,本文算法在不同场景下具有更强的鲁棒性。

    本文还在GoPro测试集、DVD测试集和真实的模糊图像上与各个算法进行视觉比较。在GoPro测试集上的视觉对比结果如图4所示,在大的非均匀运动模糊的情况下,本文算法在GoPro测试集上恢复出结果具有更加清晰的条纹和边缘,如在第2行和第6行的红色框中重建了清晰的脸部轮廓和数字形状,没有严重的颜色伪迹和图像失真。在DVD测试集和真实的模糊图像上的视觉对比结果如图5所示,相比于Tao等人[7]得到的去模糊图像,本文算法恢复的图像的局部模糊更少,颜色更加逼真,结构更加清晰。

    为评价各个模块的有效性,本文在GoPro测试集上进行对比试验,采用W-MS, W-FF, W-SDR, W-C3和W-B这5个基准模型说明多尺度扩张稠密块(MDDB),特征融合模块(FFB)和空间域重建模块(SDRM)对网络性能的影响。W-MS, W-FF和W-SDR分别表示只包含MDDB, FFB和SDRM的网络模型,W-C3表示用3个卷积层代替MDDB的网络模型,其网络深度与W-MS的相同,W-B表示不引入3种模块的网络模型。各模块的对比结果如表4所示。

    表 4  各基准模型在GoPro测试集上的定量结果
    模型W-BW-C3W-MSW-FFW-SDR本文
    多尺度××××
    特征融合××××
    空间域图像重构××××
    嵌入卷积×××××
    PSNR30.9831.0231.1031.0931.1331.39
    SSIM0.9490.9490.9500.9500.9500.952
    下载: 导出CSV 
    | 显示表格

    表4可得,在不引入MDDB, FFB和SDRM的情况下,PSNR可达到30.98 dB,这说明将小波变换嵌入到编-解码结构中可有效地提升网络的性能。其原因主要包括以下3个方面:⑴将小波变换嵌入到编-解码结构中会增大网络的感受野,可有效地利用图像的上下文信息产生边缘更加清晰的结果,同时小波变换的可逆性避免了图像信息的丢失。⑵图像在小波域具有稀疏性,利用小波变换进行下采样增强了图像特征的稀疏性,提高网络的学习能力。⑶小波变换在小波子带中提供的垂直、水平和对角线边缘信息,可用于学习图像的轮廓和细节特征。MDDB, FFB和SDRM的引入使平均PSNR分别提高0.12 dB, 0.11 dB和0.15 dB,平均SSIM均提高0.001,使网络获得高质量的重构图像。

    本文分别采用整体训练和模块化训练的方式训练网络,对比了这两种训练方法对网络性能的影响。GoPro测试集上的定量结果如表5所示,相比于整体训练的网络,模块化训练的网络的PSNR提高0.34 dB, SSIM提高0.003。对于本文算法来说,模块化训练可以使网络各个模块分别达到最优以确保网络整体产生更好的结果,对网络的性能起到积极的推动作用。

    表 5  两种训练方法在GoPro测试集上的定量对比
    训练方法整体训练模块化训练
    PSNR31.0531.39
    SSIM0.9490.952
    下载: 导出CSV 
    | 显示表格

    本文提出一种基于深度多级小波变换的图像盲去模糊算法,通过正/逆小波变换实现上采样/下采样操作,在增大网络感受野的同时利用图像在小波域中的稀疏性,降低了映射的复杂程度。为了在小波域重建高质量图像,本文通过多尺度扩张稠密块引入多尺度结构,实现了多尺度深层特征的提取与重用。同时,本文还利用特征融合块自适应地选择编-解码的特征进行有效的特征融合。由于图像在小波域和空间域的表示方式存在差异,本文采用空间域重建模块融合这两种不同的特征表示以进一步提高重构图像的质量。在训练时,采用模块化训练的方式进一步提高网络的性能。GoPro测试集和DVD测试集上的实验结果表明,本文方法恢复的图像具有更好的视觉效果,并且在不同场景下具有更强的鲁棒性。

  • 图  1  Phantom 4 Pro近距离(D00)采样数据时域分布图

    图  2  数据采集场景与设备示意图

    图  3  数据读取(Python脚本)

    图  4  本数据库中6类无人机信号时频谱示意图

    图  5  跳频信号时频图

    图  6  图传信号时频图

    图  7  跳频信号统计特征定义

    图  8  DJI Air 2S (T0101) 在近中远距离下的时频图变化

    图  9  基于ResNet-18模型的本数据集无人机信号识别混淆矩阵

    表  1  近年全球无人机事件

    时间国家(地区)行业/性质事件
    2021年10月7日美国(加利福尼亚)走私一架微型大疆(DJI)无人机通过美国边境墙走私其自身重量的毒品
    2022年4月19日法国(马赛)执法无人机飞手因在法国总统马克龙讲话的禁区内驾驶无人机被捕
    2022年4月23日意大利(罗马)公共安全游客操作无人机不当导致无人机撞向罗马和比萨的意大利地标
    2022年7月27日中国(海口)公共安全摄影师在铁路线上擅自操作DJI Mini 2无人机被海口铁路公安逮捕并罚款
    2022年9月2日美国(加利福尼亚)个人隐私无人机非法入侵住宅窥探女子隐私
    2022年9月28日美国(华盛顿)政府无人机进入禁区造成白宫紧急疏散
    2022年10月2日中国(武汉)个人隐私一名妇女指控无人机多次侵犯她的隐私并拍摄她住宅信息
    2023年2月21日爱尔兰(都柏林)机场无人机入侵导致都柏林机场的航班暂时停止
    下载: 导出CSV

    表  2  反无人机探测基本手段优劣势比较

    探测手段探测距离优势劣势
    视觉适中(1~2 km)成本适中,属于被动探测隐蔽性好,
    结果直观,对环境无影响
    易受遮挡物影响,对光线强度变化敏感,红外传感器成本高,光电传感器无法在夜间工作
    声音近(<150 m)成本低,属于被动探测隐蔽性好,对环境无影响城市环境受噪声影响大
    雷达较远(3~8 km)覆盖范围广,可测目标运动速度受杂波干扰大,低空低速目标探测难,设备成本高,瞬时辐射强不适用于城市环境
    射频(被动)远(1~5 km)电磁特性不易隐藏可靠性好,属于被动探测隐蔽性好,对环境无影响受同频杂波干扰大,设备成本较高
    下载: 导出CSV

    表  3  二进制编码与标签对应关系

    前缀字符二进制编码含义说明(T型号/D探测距离/S信号片段)
    T0000背景(含蓝牙、WiFi)
    T0001DJI Phantom 3
    T0010DJI Phantom 4 Pro
    T0011DJI MATRICE 200
    T0100DJI MATRICE 100
    T0101DJI Air 2S
    T0110DJI Mini 3 Pro
    T0111DJI Inspire 2
    T1000DJI Mavic Pro
    T1001DJI Mini 2
    T1010DJI Mavic 3
    T1011DJI MATRICE 300
    T1100DJI Phantom 4 Pro RTK
    T1101DJI MATRICE 30T
    T1110DJI AVATA
    T1111DJI通信模块自组机
    T10000DJI MATRICE 600 Pro
    T10001VBar 飞控器
    T10010FrSky X20 飞控器
    T10011Futaba T6IZ 飞控器
    T10100Taranis Plus 飞控器
    T10101RadioLink AT9S 飞控器
    T10110Futaba T14SG 飞控器
    T10111云卓 T12 飞控器
    T11000云卓 T10 飞控器
    D0020~40 m
    D0140~80 m
    D1080~150 m
    S0000~0111设置初始通信在915 MHz或2.4 GHz
    S1000~1111若设备支持则切换至2.4 GHz或5.8 GHz
    下载: 导出CSV

    表  4  无人机射频信号统计特征表

    机型跳频
    信号
    带宽
    (MHz)
    跳频
    信号
    时长
    (ms)
    最邻跳
    频块时
    间间
    隔(ms)
    最邻跳
    频块带
    宽间
    隔(MHz)
    图传
    信号
    周期
    (ms)
    图传
    信号
    占空
    比(%)
    Phantom 31.81.85.228//
    Phantom 4 Pro1.22.2120.451468
    MATRICE 2001.22.212211468
    MATRICE 1001.22.2126.8//
    Air 2S2.20.52////
    Mini 3 Pro2.20.52////
    Inspire 21.22.212211468
    Mavic Pro1.10.52////
    Mini 21.10.52////
    Mavic 32.20.52////
    MATRICE 3002.20.52////
    Phantom 4 Pro RTK1.10.525.58.2//
    MATRICE 30T2.20.52////
    AVATA1.10.52//1012
    大疆通信模块自组机1.10.52////
    MATRICE 600 Pro1.22.212401468
    VBar 飞控器0.721.8////
    FrSky X20 飞控器0.422.84.04.2//
    Futaba T6IZ 飞控器2.01.4////
    Taranis Plus飞控器0.757.9121.0//
    RadioLink AT9S飞控器5.02.1////
    Futaba T14SG 飞控器2.02.05.020//
    云卓 T12 飞控器1.74.6////
    云卓 T10 飞控器1.80.3////
    下载: 导出CSV

    表  5  深度神经网络模型在不同输入信号下的识别性能比较

    组号信号长度(T)分辨率(N)准确率精确率召回率F值fps
    1(基准)102410240.97730.97760.97740.977353
    276810240.95770.95780.95630.956666
    351210240.90300.90510.90160.901693
    425610240.72710.73730.72780.7301154
    510245120.96860.97040.96890.969392
    610242560.91450.91880.91460.9154154
    710241280.87850.88590.87990.8810217
    下载: 导出CSV
  • [1] BIKOV T, MIHAYLOV G, ILIEV T, et al. Drone surveillance in the modern agriculture[C]. Proceedings of the 8th International Conference on Energy Efficiency and Agricultural Engineering, Ruse, Bulgaria, 2022: 1–4.
    [2] QUBAA A R, THANNOUN R G, and MOHAMMED R M. UAVs/drones for photogrammetry and remote sensing: Nineveh archaeological region as a case study[J]. World Journal of Advanced Research and Reviews, 2022, 14(3): 358–368. doi: 10.30574/wjarr.2022.14.3.0539.
    [3] QU Chengyi, SORBELLI F B, SINGH R, et al. Environmentally-aware and energy-efficient multi-drone coordination and networking for disaster response[J]. IEEE Transactions on Network and Service Management, 2023, 20(2): 1093–1109. doi: 10.1109/TNSM.2023.3243543.
    [4] Team DRONEII. com. Global drone market report 2022–2030[EB/OL]. https://droneii.com/product/drone-market-report, 2023.
    [5] Dedrone. Worldwide drone incidents[EB/OL]. https://www.dedrone.com/resources/incidents-new/all, 2023.
    [6] 宋晨, 周良将, 吴一戎, 等. 基于自相关-倒谱联合分析的无人机旋翼转动频率估计方法[J]. 电子与信息学报, 2019, 41(2): 255–261. doi: 10.11999/JEIT180399.

    SONG Chen, ZHOU Liangjiang, WU Yirong, et al. An estimation method of rotation frequency of unmanned aerial vehicle based on auto-correlation and cepstrum[J]. Journal of Electronics &Information Technology, 2019, 41(2): 255–261. doi: 10.11999/JEIT180399.
    [7] 杨勇, 王雪松, 张斌. 基于时频检测与极化匹配的雷达无人机检测方法[J]. 电子与信息学报, 2021, 43(3): 509–515. doi: 10.11999/JEIT200768.

    YANG Yong, WANG Xuesong, and ZHANG Bin. Radar detection of unmanned aerial vehicles based on time-frequency detection and polarization matching[J]. Journal of Electronics &Information Technology, 2021, 43(3): 509–515. doi: 10.11999/JEIT200768.
    [8] 张霞, 余道杰, 刘广怡, 等. 一种无人机蜂群飞行同步检测和抑制方案[J]. 电子与信息学报, 2023, 45(12): 4317–4326.

    ZHANG Xia, YU Daojie, LIU Guangyi, et al. Countermeasures against UAV swarm through detection and suppression of fly synchronization[J]. Journal of Electronics & Information Technology, 2023, 45(12): 4317–4326.
    [9] SHI Xiufang, YANG Chaoqun, XIE Weige, et al. Anti-drone system with multiple surveillance technologies: Architecture, implementation, and challenges[J]. IEEE Communications Magazine, 2018, 56(4): 68–74. doi: 10.1109/MCOM.2018.1700430.
    [10] SHI Zhiguo, CHANG Xianyu, YANG Chaoqun, et al. An acoustic-based surveillance system for amateur drones detection and localization[J]. IEEE Transactions on Vehicular Technology, 2020, 69(3): 2731–2739. doi: 10.1109/TVT.2020.2964110.
    [11] ZHANG Zongyu, SHI Zhiguo, and GU Yujie. Ziv-Zakai bound for DOAs estimation[J]. IEEE Transactions on Signal Processing, 2023, 71: 136–149. doi: 10.1109/TSP.2022.3229946.
    [12] GUVENC I, KOOHIFAR F, SINGH S, et al. Detection, tracking, and interdiction for amateur drones[J]. IEEE Communications Magazine, 2018, 56(4): 75–81. doi: 10.1109/MCOM.2018.1700455.
    [13] KHAN M A, MENOUAR H, ELDEEB A, et al. On the detection of unauthorized drones-techniques and future perspectives: A review[J]. IEEE Sensors Journal, 2022, 22(12): 11439–11455. doi: 10.1109/JSEN.2022.3171293.
    [14] ALLAHHAM M H D S, AL-SA'D M F, AL-ALI A, et al. DroneRF dataset: A dataset of drones for RF-based detection, classification and identification[J]. Data in Brief, 2019, 26: 104313. doi: 10.1016/j.dib.2019.104313.
    [15] BISIO I, GARIBOTTO C, LAVAGETTO F, et al. Blind detection: Advanced techniques for WiFi-based drone surveillance[J]. IEEE Transactions on Vehicular Technology, 2019, 68(1): 938–946. doi: 10.1109/TVT.2018.2884767.
    [16] XIE Yuelei, JIANG Ping, GU Yi, et al. Dual-source detection and identification system based on UAV radio frequency signal[J]. IEEE Transactions on Instrumentation and Measurement, 2021, 70: 2006215. doi: 10.1109/TIM.2021.3103565.
    [17] EZUMA M, ERDEN F, ANJINAPPA C K, et al. Detection and classification of UAVs using RF fingerprints in the presence of Wi-Fi and Bluetooth interference[J]. IEEE Open Journal of the Communications Society, 2020, 1: 60–76. doi: 10.1109/OJCOMS.2019.2955889.
    [18] FU Hua, ABEYWICKRAMA S, ZHANG Lihao, et al. Low-complexity portable passive drone surveillance via SDR-based signal processing[J]. IEEE Communications Magazine, 2018, 56(4): 112–118. doi: 10.1109/MCOM.2018.1700424.
    [19] ALSOLIMAN A, RIGONI G, LEVORATO M, et al. COTS drone detection using video streaming characteristics[C]. Proceedings of the 22nd International Conference on Distributed Computing and Networking, Nara, Japan, 2021: 166–175.
    [20] ALIPOUR-FANID A, DABAGHCHIAN M, WANG Ning, et al. Machine learning-based delay-aware UAV detection and operation mode identification over encrypted Wi-Fi traffic[J]. IEEE Transactions on Information Forensics and Security, 2020, 15: 2346–2360. doi: 10.1109/TIFS.2019.2959899.
    [21] AL-SA’D M F, AL-ALI A, MOHAMED A, et al. RF-based drone detection and identification using deep learning approaches: An initiative towards a large open source drone database[J]. Future Generation Computer Systems, 2019, 100: 86–97. doi: 10.1016/j.future.2019.05.007.
    [22] BASAK S, RAJENDRAN S, POLLIN S, et al. Combined RF-based drone detection and classification[J]. IEEE Transactions on Cognitive Communications and Networking, 2022, 8(1): 111–120. doi: 10.1109/TCCN.2021.3099114.
    [23] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778.
  • 加载中
图(9) / 表(5)
计量
  • 文章访问数:  9115
  • HTML全文浏览量:  2244
  • PDF下载量:  1677
  • 被引次数: 0
出版历程
  • 收稿日期:  2023-06-08
  • 修回日期:  2023-07-24
  • 网络出版日期:  2023-07-27
  • 刊出日期:  2024-04-24

目录

/

返回文章
返回