DroneRFb-DIR: An RF Signal Dataset for Non-cooperative Drone Individual Identification
-
摘要: 无人机射频检测是实现非合作无人机管控的手段之一,而基于射频信号的无人机个体识别(DIR)是无人机检测的重要环节。鉴于当前DIR开源数据集缺失,该文公开了一个名为DroneRFb-DIR的无人机射频信号数据集。该数据集使用软件无线电设备采集无人机与遥控器间通信的射频信号,包含城市场景下的无人机种类共6类(每类无人机各包含3架不同个体)以及1类背景参考信号。采样信号存储为最原始的I/Q数据,每类数据包含不少于40个片段,每个片段包含不少于4 M个采样点。信号采集范围为2.4~2.48 GHz,包含无人机飞控信号、图传信号以及周围干扰设备的信号。该数据集包含详细的个体编号和视距或非视距场景标注,并已划分训练集与测试集,以便于用户进行识别算法验证和性能对比分析。与此同时,该文提供了一种基于快速频率估计和时域相关分析的无人机个体识别方法,并在该数据集上验证了所提方法的有效性。Abstract:
RF-based drone detection is an essential method for managing non-cooperative drones, with Drone Individual Recognition (DIR) via RF signals being a key component in the detection process. Given the current scarcity of DIR datasets, this paper proposes an open-source DroneRFb-DIR dataset for RF-based DIR. The dataset is constructed by capturing RF signals exchanged between drones and their remote controllers using a Software-Defined Radio (SDR). It includes signals from six types of drones, each with three different individuals, as well as background signals from urban environments. The captured signals are stored in raw I/Q format, and each drone type consists of over 40 signal segments, with each segment containing more than 4 million sample points. The RF sampling range spans from 2.4 GHz to 2.48 GHz, covering Flight Control Signals (FCS), Video Transmission Signals (VTS), and interference from surrounding devices. The dataset is annotated with entity identifiers (e.g., drone type and individual) and environmental labels (line-of-sight vs. non-line-of-sight). A DIR method based on fast frequency estimation and time-domain correlation analysis is also proposed and validated using this dataset. Objective: Drones are increasingly used in sectors such as geospatial mapping, aerial photography, traffic monitoring, and disaster relief, playing a significant role in modern industries and daily life. However, the rise in unauthorized drone operations presents serious threats to national security, public safety, and privacy, especially in urban areas. While existing methods emphasize general drone detection and classification, they struggle to distinguish individual drones of the same type, which is crucial for distinguishing friend from foe, analyzing swarm dynamics, and implementing effective countermeasures. This study addresses this gap by introducing the DroneRFb-DIR dataset, a large-scale, open-source RF signal dataset for non-cooperative DIR. Additionally, a novel method based on fast frequency estimation and time-domain correlation analysis is proposed to achieve accurate drone identification in urban environments. Methods: The DroneRFb-DIR dataset is developed using SDR device to capture RF signals in an urban environment with interference from devices like Wi-Fi and Bluetooth. It includes signals from six drone types, each with three individual units, as well as background reference signals. The dataset is collected at an 80 MHz sampling rate in the 2.4–2.48 GHz band and stored in raw I/Q format for detailed analysis. Each signal is annotated with identifiers (e.g., drone type and individual) and scene labels (line-of-sight and non-line-of-sight). For algorithm validation, the dataset is partitioned into training and testing sets. The proposed method consists of three key stages: (1) Signal Detection: A dynamic bandpass or band-stop filter isolates drone control signals from background noise and interference. (2) Frequency Localization: Adaptive filtering and frequency estimation to identify the spectral location of drone signals. (3) Identity Feature Extraction: Correlation analysis extracts identity features from control signal segments to differentiate individual drones, focusing on unique frequency modulation patterns. Results and Discussions: The dataset comprises 4,690 signal segments, each containing with over 4 million sample points. Experiments demonstrated the effectiveness of the proposed method (Table 3), showing high rejection rates of background signals and accurate identification of specific drone types. However, performance varied across drone types due to factors such as signal quality, environmental interference, and control signal characteristics. For instance, drones with low-SNR signals or less distinct frequency modulation patterns posed greater challenges for identification. Despite these difficulties, the method achieved competitive accuracy in identifying individual drones, even in non-line-of-sight conditions. These findings underscore the importance of advanced filtering and feature extraction for robust DIR in complex urban environments. Conclusions: This study addresses the critical need for DIR technologies by introducing the DroneRFb-DIR dataset and a novel identification method. Featuring six drone types, 18 individual drones, and one background signal class, the dataset is the first large-scale open-source resource for non-cooperative DIR in urban scenarios (Table 2). The proposed method effectively separates drone signals from interference and accurately identifies individual drones. Future work will focus on expanding the dataset with more diverse drone types, additional environmental scenarios (e.g., multipath interference and dynamic drone states), and machine learning models for improved recognition. Optimization of non-learning methods will also be explored to enhance feature extraction and identification rates, especially for drones with weaker signal characteristics. -
1. 引言
随着低空经济产业的迅猛发展,无人机正改变人们的生产与生活方式,其已被广泛应用于地理测绘、航空摄像、交通监管和灾害救援等领域[1–3]。与此同时,近年来地缘政治冲突加剧,以俄乌冲突和巴以冲突为代表的现代化局部战争表明:无人机颠覆了过去依靠重型火力压制的作战方式[4],在现代化战争中发挥着情报搜集、火力诱骗和重点目标打击等关键作用。作为一种新兴的消费产品,当前针对无人机飞行的法律政策尚未完善。尽管相关部门出台了低空无人机飞行的管理条例[5],但因为法律和管理条例还未完全普及以及一些未注册无人机不受条例管控等因素,无人机“黑飞、滥飞”行为对国家安全、社会公共安全和个人隐私安全造成了严重威胁。
为了阻止非法无人机带来的危害,当前亟需有效的无人机管控手段。无人机管控的流程包括:防御系统首先对无人机目标进行检测,再对目标进一步识别、定位[6]和跟踪[7],最后采取导航诱骗、高功率电磁压制或激光武器等措施,使无人机返航、迫降或坠毁。其中,实时有效的无人机探测是实施无人机精准反制的前提。目前,无人机探测手段主要有雷达、音频、视觉和射频4种[1],这4种方法的特点如表1所示。
表 1 无人机探测手段特点探测手段 最大有效距离(m) 原理 缺点 雷达 8000 微多普勒 无人机雷达截面积小,成本高,不适合城市场景 音频 200 时频特征 覆盖范围小,受噪声影响大 视觉 1500 外观特征和运动特征 受遮挡、天气环境影响大 射频 5000 通信信道 易受城市环境下干扰信号影响 综合考虑上述4种无人机探测手段的特点,基于射频的无人机探测方法更适合在城市多建筑物遮挡、高噪声环境下全天候工作[8],因此本文从射频角度开展无人机个体识别技术。无人机的通信信号主要由飞控信号和图传信号组成。具体而言,飞控信号承载遥控器向无人机发送的飞行控制指令,图传信号承载无人机机载相机的视频流。基于射频的探测手段主要通过部署射频接收机,采集环境中的电磁信号并提取上述两种信号的特征,从而发现入侵的无人机并确定其种类和身份等信息。目前研究者在无人机检测和种类识别方面已经取得一定进展[9],课题组前期已发布用于侦测低空无人机的大规模无人机射频信号数据集[10],并提出了基于频谱可视统计特征和基于射频语义表征的无人机种类开集识别方法[11]。但这些方法仅解决了无人机的检测和种类识别问题,尚不涉及无人机个体识别(Drone Individual Recognition, DIR)。为支持未来城市低空经济的发展和现代化军事作战的现实需求,亟待研究无人机个体识别技术,主要有以下3点原因:
(1) 敌我区分。当敌方使用与我方作业相同种类的无人机时,由于同类无人机信号的时频特点相似,现有基于射频的方法无法发现隐藏在无人机发送射频信号中的身份信息,导致敌我无人机被识别为同一目标。
(2) 集群识别。当空中存在无人机集群时,现有基于射频的方法只能确定无人机的种类,难以确定无人机的具体数量和个体身份。然而,明确集群内部的目标数量和个体动态有助于分析出实时的集群态势[12],为实施高效精准的目标打击提供支持。
(3) 智能反制。现有的全频段高功率电磁压制手段会导致频段内的通信设备(例如蓝牙、Wi-Fi等)和我方作业无人机无法正常通信。无人机个体识别技术能够确定敌方目标飞控信号的发送规律和工作频率,从而制定基于时空频[13–15]精细规划的电磁智能抑制方案。
当前,无人机个体识别研究仍存在大量技术空白,研究挑战包括:
(1) 身份信息特征弱。无人机射频信号典型带宽为10/20/40 MHz,其时频特征占总信号的时频特征10%以上,而无人机个体身份信息仅存在于飞控信号的部分字段中,该部分字段所对应的时频特征仅占总信号的1%左右,难以获取。
(2) 身份信息不明确。对于合作无人机,其通信协议可由生产厂商公开,因此通过解码射频信号可以获取无人机唯一的身份编号。然而,对于大多数非合作的“黑飞”无人机,由于通信协议未知,其身份信息获取困难。
目前已有部分研究者研究无人机个体识别[16],但仍缺乏公开发布的无人机个体识别数据集。为此,本文构建和开源了用于非合作个体识别的无人机射频信号数据集DroneRFb-DIR。该数据集包含城市场景下的6类无人机(每类无人机各3架)以及1类背景参考信号。数据集划分为训练集和测试集两部分,方便用户进行算法验证与性能比较。同时,本文提出了一种基于快速频率估计和时域相关分析的无人机个体识别方法,通过频率估计快速确定目标信号时频位置,并利用相关性分析方法提取出信号中含有的身份信息字段,从而实现无人机信号的快速检测和精准个体识别。在该数据集上的实验结果论证了本文所提方法的有效性。
2. 数据集描述
2.1 射频信号采集流程
DroneRFb-DIR 数据集的城市采集场景如图1(a)所示,该环境下干扰信号主要来自建筑物内部的常规电子通信设备(例如Wi-Fi、蓝牙等)。本数据集借助建筑物遮挡,在视距和非视距两种情况下采集无人机射频信号。如图1(b)所示,无人机及其遥控器放置在同一位置,接收机的位置固定,无人机与接收机的直线距离为10 m。
射频接收机采用软件无线电通用设备(Universal Software Radio Peripheral, USRP),型号为USRP-2955。其主要参数设置为:采样率80 MHz,中心频率2.44 GHz,每个片段采样时间40 ms。每次采集前,将无人机及其遥控器开机配对,并设置无人机通信频段为2.4 GHz,先后放置到图1(b)中的视距和非视距位置,然后使用射频接收机采集多个独立的信号片段,并按照采集场景、个体编号、时间戳等信息命名片段文件名称。由于接收机本身的处理时间限制,每个片段内部的采样点时间上连续,但片段之间时间不连续。
2.2 标签含义
本数据集采集了6类大疆新款无人机的通信信号和不包含无人机的背景信号。如表2所示,无人机的型号具体为DJI Mavic 3 Pro, DJI Mini 2 SE, DJI Mini 3, DJI Mini 4 Pro, DJI Air 2S, DJI Air 3,每类无人机分别有3架不同的个体。
表 2 个体标签与型号对应关系个体标签 型号 A1, A2, A3 DJI Mavic 3 Pro B 背景 C1, C2, C3 DJI Mini 2 SE D1, D2, D3 DJI Mini 4 Pro E1, E2, E3 DJI Mini 3 F1, F2, F3 DJI Air 3 G1, G2, G3 DJI Air 2S 本数据集所有文件均为“.mat”格式。对于放置在“train”文件夹下的训练集,每个文件的名称为该文件的标签信息。对于放置在“test”文件夹下的测试集,每个文件的名称为该文件标号,无特殊含义。在文件“test_labels.txt”中记录了文件标号对应文件的标签信息。以标签“A1_IN_S0_slice_2.mat”为例,“A1”代表无人机机型及其个体编号(机型“A/Background/C/D/E/F/G”+个体编号“1/2/3”)、“IN”代表采集条件(“IN”代表视距采集,“OUT”代表非视距采集),“S0”代表采集时间序号,“slice_2”代表片段序号。每个“.mat”文件内包含了双通道数据,通道名为“I”“Q”,其中“I”为基带信号的同相(In-phase)分量值,“Q”为基带信号的正交(Quadrature)分量值,数值存储为单精度浮点型(2字节)。以DJI Mavic 3 Pro机型为例,其采集信号在时频域上分布如图2所示,分别对应数据集中的“A1_IN_S0_slice_1.mat”文件和“A1_OUT_slice_4.mat”文件。对于视距和非视距场景,二者的信噪比相差大致为20 dB。
由于本数据集面向的是城市复杂电磁环境的无人机个体识别问题,故信号采集场景含有大量室内Wi-Fi、蓝牙设备以及其他2.4 GHz频段设备。对于无人机信号,统一配置为:通信频段为2.4 GHz频段,图传信号带宽20 MHz,频率位置接近2.48 GHz(在DJI FLY APP中,能够手动设置的2.4GHz频段最高频率范围)。图3标出了无人机图传和飞控信号在时频图中的位置,其中红色实线框代表图传信号,蓝色实线框代表飞控信号,蓝色虚线框代表蓝牙信号,红色虚线框代表Wi-Fi信号。
2.3 数据集划分
本数据集共包含
4690 个信号片段,每个片段不少于4 M个采样点。根据随机数将信号片段打乱,并划分为训练集和测试集两部分,分别用文本文件(文件名“train_labels.txt”和“test_labels.txt”)汇总片段及其对应的标签,可供学习类方法和非学习类方法使用。训练集包含12架无人机(6类无人机,每类2架)和1类背景信号(没有任何无人机开机),对应于13类标签,即A1/A2/B/C1/C2/D1/D2/E1/E2/F1/F2/G1/G2,共计
2177 个片段。测试集包含18架无人机(6类无人机,每类3架,涵盖训练集中的12架无人机)和1类背景信号,对应于19类标签,相比训练集额外包含A3/C3/D3/E3/F3/G3,即测试集中存在6架从未在训练集中出现的无人机个体,共计2513 个片段。3. 基于快速频率估计和时域相关分析的无人机个体识别方法
针对非合作无人机个体识别问题,本文提出了一种基于快速频率估计和时域相关分析的无人机个体识别方法。为了减少城市场景中干扰信号对无人机飞控信号特征提取的影响,首先设计了基于动态带通/带阻滤波器的信号检出机制,以实现目标信号与噪声分离。进一步地,利用常见商业无人机飞控信号含有扫频头这一特点来快速筛选出无人机飞控信号;对于不含有扫频头的飞控信号,可以采用带宽筛选等其他飞控信号定位方法。最终,通过时域相关性分析判断该无人机是否为记录在库的无人机,从而实现无人机个体识别。
3.1 信号检出
对于宽带信号,其信号检出的典型流程如图4所示。
对于一段采集的时域信号,由于接收机为正交采样,n时刻的采样值为
S(n)=N∑i=1ai(n)⋅exp(jwi(n)+ϕi) (1) 其中,N表示离散的频点数量,i为频点的索引值,ai(n)表示随时间变化的信号幅度,ωi(n)表示正弦信号角速度,ϕi表示正弦信号初始相位。当在某一时刻发生信号的产生或消失时,时域信号的瞬时功率也会发生相应的变化,本文借助这一特点对信号进行检出。
考虑到环境中存在噪声,需要借助信号短时分析将目标信号和噪声分离。由于信号的采样率为80 MHz,本文设置的时间窗长度为
3200 个采样点,对应的时间长度为40 μs。窗口在采集的信号序列上滑动,每次滑动的间隔和时间窗长度一致。对于某一时间窗,其平均幅度为Vmean=T∑n=1|S(n)|T (2) 其中,Vmean为该时间窗的平均幅度,T为时间窗长度。对于某个时间窗,将其分为Tw/stepw个子窗,其中Tw为整个窗口的长度,stepw为子窗口长度;分别计算每个子窗的平均幅值以及整个窗的平均幅值,两两选取每个子窗的平均幅值计算比值,如果比值大于阈值Rv且较大者大于整个窗的平均幅值,则认为在当前时间窗发生了信号的产生或消失。根据训练集中信号的统计结果,将阈值Rv设定为0.5。
为了减少干扰信号和背景噪声对后续时域信号处理的影响,本文设计了动态带通/带阻滤波器用于将无人机飞控信号与其他干扰信号进一步分离。滤波器设计需要信号的中心频率和带宽这两个参数。由于无人机飞控信号是一种非常驻信号,每一帧飞控信号的频率都是随机的,但带宽和持续时长固定。为此,需要准确估计出飞控信号的中心频率和带宽,这有助于减少传统带宽估计方法的计算复杂度。任意时刻的瞬时频率定义为[17]
foff(n)=arctan(S(n+1)⋅S∗(n)|S(n+1)⋅S∗(n)|)⋅Fs2π (3) 其中,S∗(n)表示为复信号S(n)的共轭,Fs为采样频率。估计出信号的大致频率后,使用动态带通/带阻滤波器估计出当前时刻的中心频率,并进一步将原始信号下变频。
频谱搬移后的信号集中在基带附近,对信号进行低通滤波、抽样可实现无损压缩。根据对频谱的分析结果,大多数信号的带宽不超过采样率的1/4,即20 MHz,故本方法抽样为1/4抽样。为了得到目标信号的带宽,引入另一个长度为fftw的时间窗,将原始信号分为Tw/fftw份。对每份信号进行快速傅里叶变换(Fast Fourier Transform, FFT),并对FFT的结果加权平均,得到当前窗的平均信号谱。平均信号谱在频率上连续性和平滑性更好。最后,通过寻找平均信号谱的升起和衰落点得到信号的带宽。
本文使用的滤波器类型是巴特沃斯滤波器,该滤波器带内纹波小,阻带衰减大[18]。考虑到无人机飞控信号的带宽大于1 MHz,本方法设计的滤波器阶数为7,并根据需要“陷波”的频率范围,来决定带通滤波器是否更换为低通/高通滤波器。例如,当带通滤波器频率范围为1~11 MHz,由于采样率为80 MHz,滤波器的低通通过频率远低于采样率,所以将带通滤波器更换为截止频率为11 MHz的低通滤波器。
上述方法生成的带通/带阻滤波器,可将目标信号和环境中的其他信号相分离,分离开的信号分别表示为S1(n)和S2(n)。考虑到信号存在的时间有限,需要在S1(n)信号结束时将滤波器回收,即不再对采样信号滤波。同时,还需要对S2(n)中可能存在的其他信号进行前述相同操作,进而检出其他同时存在的信号。
3.2 信号判断
信号被检出后,在时域上只存在目标信号和与其频率相同的噪声。为了能够快速判断检出的目标信号是否为无人机的飞控信号,本文借助无人机飞控信号存在扫频头这一特点进行判别,如图5所示。
扫频信号的特点是,对于相邻两个时间窗(对应的频谱分别为fft1和fft2),信号的频谱幅度不会发生较大的变化,而仅仅是频率发生整体偏移,如图6所示。
两个时间窗信号的谱图互相关系数定义为
R(n1,n2)=E(S1(n1)∗S2(n2)) (4) 其中,E(⋅)表示数学期望,S1(n1)和S2(n2)表示信号序列,∗表示1维卷积。如果互相关系数大于相关性阈值,即认为该信号为无人机飞控信号的扫频头。针对训练集中信号的特征,将相关性阈值设定为0.4。
3.3 个体识别
经过3.1节和3.2节的信号检出和信号判断步骤后,已经能够将无人机飞控信号筛选出来。由于本文考虑的是非合作无人机,其身份信息占据飞控信号的时间长度和在飞控信号中的时间位置未知,因此设计的方法需要能够自适应提取无人机身份信息。为此,本文建立了飞控信号组成模型,如图7所示,分别为扫频头、身份信息、自定义数据、扫频尾。
飞控信号的扫频头用于无人机处理器判断该射频信号是否为飞控信号;飞控信号的身份信息用于无人机确认该信号是否为匹配的遥控器发出,按照互联网数据帧格式,该部分包含“源地址”和“目的地址”,由于本文不对射频信号解调,无法获得具体的码元信息;自定义数据部分包含遥控器发出的指令以及其他信息;飞控信号的扫频尾用于提示无人机处理器该帧信号已发送完毕。
经过对无人机飞控信号的结构组成分析,在无人机个体识别问题中有如下重要结论:
(1) 对于由同一个体无人机发出的飞控信号,扫频头、扫频尾一定相同,身份信息不总是相同;对于连续多帧的飞控信号,存在两帧身份信息吻合,自定义数据总是不同。
(2) 对于由同类但不同个体或不同类别无人机发出的飞控信号,扫频头、扫频尾可能相同,身份信息和自定义数据总是不同。
根据以上结论,本文使用皮尔逊相关系数计算两帧飞控信号的相似程度,即
ρX,Y=E(XY)−E(X)E(Y)√E(X2)−E2(X)⋅√E(Y2)−E2(Y) (5) 其中,X和Y表示信号序列。
将得到的I/Q信号取模得到包络信号,然后对齐两帧信号的起始点,以信号起始点为开头,取不同长度的包络信号序列,计算两帧信号的相关性变化曲线。为了减少计算量,本文使用了一种增量计算方法。例如,对于序列长度为
1000 和1001 的两组相关计算序列,其前1000 的序列内容一致,则在计算相关系数过程中得到的均值被复用;当序列长度增加时,只需要计算增加部分的均值即可。按照增量计算方法得到的相关性变化曲线,计算量等价于对整个序列作单次相关系数计算,即O(n)。不同情况下无人机飞控信号的相关性随计算点数变化如图8所示,曲线变化与无人机飞控信号组成有较强的对应关系。例如,两架相同个体的相关系数显著高于其他两种情况,对应两帧飞控信号中的扫频头和身份信息相同。根据相关性曲线趋势、拐点数等特点,即可判断两帧信号是否属于同一无人机个体。根据训练集中信号的统计情况,取相关系数阈值为0.8,相关曲线拐点大于该阈值判断为同一个体,小于该阈值判断为不同个体。
4. 实验
由于本文第3节提出的无人机个体识别方法属于非学习类方法,只需从每架无人机个体对应的信号片段中随机各取一个片段,用于提取无人机身份信息。然后,将提取出的身份信息与测试集中的无人机身份信息进行比对,判断测试集中的片段是否属于训练集中的无人机个体,抑或是未在训练集中出现的无人机个体。所提方法的识别结果如表3所示。
表 3 无人机个体识别结果种类标签 识别率(%) A 63.96 B 100.00 C 60.74 D 29.63 E 68.62 F 37.50 G 67.95 上述无人机个体识别结果表明:
(1) 不同种类的无人机个体识别难度不同,其中机型A, C, E和G识别相对容易,机型D和F识别相对困难。主要原因为:目前采集的环境干扰设备繁多,无人机信号被采集时的具体信道不同,使得采集的信号信噪比各不相同;此外,部分机型飞控信号特征不明显、信号功率较低,导致飞控信号检出困难。
(2) 尽管测试集中存在大量的非视距无人机信号片段,且每架无人机只从一个信号片段提取身份信息,本文所提方法仍能实现较好的识别效果。尤其是在飞控信号能够成功检出的前提下,个体识别准确率较高。
(3) 本文所提方法对背景信号和无人机信号具有较好的区分能力,实现了100%的背景正检率。
5. 结论与展望
目前,基于射频信号的无人机个体识别研究尚缺乏统一的、种类丰富的无人机个体射频信号数据集。为解决当前无人机个体识别开源数据集缺失的问题,本文构建并公开了一个大规模无人机射频信号数据集DroneRFb-DIR,其包含6类共计18架无人机射频信号和1类背景参考信号,涵盖视距和非视距两种场景。同时,提出了基于快速频率估计和时域相关分析的无人机个体识别方法,并在该数据集上验证了其有效性。
随着实际应用需求的快速增长,未来将考虑采集更多类型的无人机射频信号,并涵盖更多复杂环境(如多径干扰场景)和动态场景(如无人机运动中的状态切换)。同时,针对部分无人机机型个体识别率较低的情况,对于非学习类方法,将从优化信号检出算法、丰富特征提取的角度,提高飞控信号的检出率和识别率;对于学习类方法,将结合图像识别、目标检测,提升方法的检测性能和泛化能力。
-
表 1 无人机探测手段特点
探测手段 最大有效距离(m) 原理 缺点 雷达 8000 微多普勒 无人机雷达截面积小,成本高,不适合城市场景 音频 200 时频特征 覆盖范围小,受噪声影响大 视觉 1500 外观特征和运动特征 受遮挡、天气环境影响大 射频 5000 通信信道 易受城市环境下干扰信号影响 表 2 个体标签与型号对应关系
个体标签 型号 A1, A2, A3 DJI Mavic 3 Pro B 背景 C1, C2, C3 DJI Mini 2 SE D1, D2, D3 DJI Mini 4 Pro E1, E2, E3 DJI Mini 3 F1, F2, F3 DJI Air 3 G1, G2, G3 DJI Air 2S 表 3 无人机个体识别结果
种类标签 识别率(%) A 63.96 B 100.00 C 60.74 D 29.63 E 68.62 F 37.50 G 67.95 -
[1] SHI Xiufang, YANG Chaoqun, XIE Weige, et al. Anti-drone system with multiple surveillance technologies: Architecture, implementation, and challenges[J]. IEEE Communications Magazine, 2018, 56(4): 68–74. doi: 10.1109/MCOM.2018.1700430. [2] 陈新颖, 盛敏, 李博, 等. 面向6G的无人机通信综述[J]. 电子与信息学报, 2022, 44(3): 781–789. doi: 10.11999/JEIT210789.CHEN Xinying, SHENG Min, LI Bo, et al. Survey on unmanned aerial vehicle communications for 6G[J]. Journal of Electronics & Information Technology, 2022, 44(3): 781–789. doi: 10.11999/JEIT210789. [3] KAUFMANN E, BAUERSFELD L, LOQUERCIO A, et al. Champion-level drone racing using deep reinforcement learning[J]. Nature, 2023, 620(7976): 982–987. doi: 10.1038/s41586-023-06419-4. [4] KUNERTOVA D. The war in Ukraine shows the game-changing effect of drones depends on the game[J]. Bulletin of the Atomic Scientists, 2023, 79(2): 95–102. doi: 10.1080/00963402.2023.2178180. [5] 国务院, 中央军委. 无人驾驶航空器飞行管理暂行条例[EB/OL]. https://www.gov.cn/zhengce/content/202306/content_6888799.htm, 2023.The State Council of the People’s Republic of China, The Central Military Commission of the Communist Party of China. Interim regulations on the management of unmanned aircraft flights[EB/OL]. https://www.gov.cn/zhengce/content/202306/content_6888799.htm, 2023. [6] 聂伟, 戴琪霏, 杨小龙, 等. 基于多维信号特征的无人机探测识别方法[J]. 电子与信息学报, 2024, 46(3): 1089–1099. doi: 10.11999/JEIT230302.NIE Wei, DAI Qifei, YANG Xiaolong, et al. Unmanned aerial vehicle detection and recognition method based on multi-dimensional signal feature[J]. Journal of Electronics & Information Technology, 2024, 46(3): 1089–1099. doi: 10.11999/JEIT230302. [7] SHI Zhiguo, CHANG Xianyu, YANG Chaoqun, et al. An acoustic-based surveillance system for amateur drones detection and localization[J]. IEEE Transactions on Vehicular Technology, 2020, 69(3): 2731–2739. doi: 10.1109/TVT.2020.2964110. [8] SI Zheng, LIU Chao, LIU Jianyu, et al. Application of SNNS model based on multi-dimensional attention in drone radio frequency signal classification[C].2024 IEEE International Conference on Acoustics, Speech and Signal Processing, Seoul, Republic of Korea, 2024: 231–235. doi: 10.1109/ICASSP48485.2024.10446694. [9] GLÜGE S, NYFELER M, AGHAEBRAHIMIAN A, et al. Robust low-cost drone detection and classification using convolutional neural networks in low SNR environments[J]. IEEE Journal of Radio Frequency Identification, 2024, 8: 821–830. doi: 10.1109/JRFID.2024.3487303. [10] 俞宁宁, 毛盛健, 周成伟, 等. DroneRFa: 用于侦测低空无人机的大规模无人机射频信号数据集[J]. 电子与信息学报, 2024, 46(4): 1147–1156. doi: 10.11999/JEIT230570.YU Ningning, MAO Shengjian, ZHOU Chengwei, et al. DroneRFa: A large-scale dataset of drone radio frequency signals for detecting low-altitude drones[J]. Journal of Electronics & Information Technology, 2024, 46(4): 1147–1156. doi: 10.11999/JEIT230570. [11] YU Ningning, WU Jiajun, ZHOU Chengwei, et al. Open set learning for RF-based drone recognition via signal semantics[J]. IEEE Transactions on Information Forensics and Security, 2024, 19: 9894–9909. doi: 10.1109/TIFS.2024.3463535. [12] 彭鸿飞, 朱鑫潮, 周成伟, 等. 基于静动态综合估计的无人机蜂群态势感知技术[J]. 信号处理, 2024, 40(5): 826–838. doi: 10.16798/j.issn.1003-0530.2024.05.003.PENG Hongfei, ZHU Xinchao, ZHOU Chengwei, et al. UAV swarm situational awareness technology based on static and dynamic comprehensive estimations[J]. Journal of Signal Processing, 2024, 40(5): 826–838. doi: 10.16798/j.issn.1003-0530.2024.05.003. [13] ZHOU Chengwei, GU Yujie, SHI Zhiguo, et al. Structured nyquist correlation reconstruction for DOA estimation with sparse arrays[J]. IEEE Transactions on Signal Processing, 2023, 71: 1849–1862. doi: 10.1109/TSP.2023.3251110. [14] ZHENG Hang, ZHOU Chengwei, SHI Zhiguo, et al. Coarray tensor direction-of-arrival estimation[J]. IEEE Transactions on Signal Processing, 2023, 71: 1128–1142. doi: 10.1109/TSP.2023.3260559. [15] 郑航, 周成伟, 王勇, 等. EMVS互质面阵张量波束成形[J]. 信号处理, 2024, 40(2): 250–262. doi: 10.16798/j.issn.1003-0530.2024.02.003.ZHENG Hang, ZHOU Chengwei, WANG Yong, et al. Tensor beamforming for EMVS coprime planar array[J]. Journal of Signal Processing, 2024, 40(2): 250–262. doi: 10.16798/j.issn.1003-0530.2024.02.003. [16] WANG Qiexiang, WANG Longhui, YU Lebin, et al. An ID-based robust identification approach toward multitype noncooperative drones[J]. IEEE Sensors Journal, 2023, 23(9): 10179–10192. doi: 10.1109/JSEN.2023.3259203. [17] ZHAO Zheng, SÄRKKÄ S, SJÖLUND J, et al. Probabilistic estimation of instantaneous frequencies of chirp signals[J]. IEEE Transactions on Signal Processing, 2023, 71: 461–476. doi: 10.1109/TSP.2023.3245720. [18] KHODARAHMI M and MAIHAMI V. A review on Kalman filter models[J]. Archives of Computational Methods in Engineering, 2023, 30(1): 727–747. doi: 10.1007/s11831-022-09815-7. -