Infrared Small Target Detection Model with Multi-scale Fractal Attention
-
摘要: 为提高红外图像小目标检测的性能,融合传统方法的先验知识和深度学习方法的特征学习能力,该文设计了一种融合多尺度分形注意力的红外小目标端到端检测模型。首先,在对适用于红外图像弱小目标检测的多尺度分形特征分析基础上,给出了基于深度学习算子对其进行加速计算的过程。其次,设计卷积神经网络(CNN)学习度量得到目标显著性分布图,结合特征金字塔注意力模块和金字塔池化下采样模块,提出了一种基于多尺度分形特征的注意力模块。将其嵌入到红外目标语义分割模型时,采用非对称上下文融合机制提高浅层特征和深层特征的融合效果,并利用非对称金字塔非局部模块获取全局注意力,以提高红外小目标检测性能。最后,采用单帧红外小目标(SIRST)数据集验证提出算法的性能,所提模型交并比(IoU)和归一化交并比(nIoU)分别达到了77.4%和76.1%,优于目前已知方法的性能。同时通过迁移实验进一步验证了提出模型的有效性。由于有效地融合了传统方法和深度学习方法的优势,所提模型适用于复杂环境下的红外小目标检测。Abstract: In order to improve the performance of infrared image small target detection, an end-to-end infrared small target detection model that integrates multi-scale fractal attention is designed by combining prior knowledge of traditional methods and feature learning ability of deep learning methods. Firstly, the procedure of accelerating the calculation of multi-scale fractal feature with deep learning operator is proposed based on analysis of this feature, which is suitable for detecting dim and small targets in infrared images. Secondly, the Convolutional Neural Network(CNN) is designed to obtain the target significance distribution map, and a multi-scale fractal feature attention module is proposed by combining the feature pyramid attention and pyramid pooling downsampling module. When embedding it into the infrared target semantic segmentation model, asymmetric context modulation is adopted to improve fusion performance of shallow features and deep features, and asymmetric pyramid non-local block is used to obtain global attention to improve infrared small target detection performance. Finally, the performance of the proposed algorithm is verified by experiments on the Single-frame InfRared Small Target(SIRST) dataset, where Intersection over Union (IoU) and normalized IOU(nIoU) reach 77.4% and 76.1%, respectively, which is better than the performance of the currently known methods. Meanwhile, the effectiveness of the proposed model is further verified by migration experiments. Due to the effective integration of the advantages of traditional methods and deep learning methods, the proposed model is suitable for infrared small target detection in complex environments.
-
1. 引言
随着时代的快速发展,更高速的通信技术和更可靠的控制技术使得无人机技术逐渐趋于成熟稳定。虽然无人机具有极高的灵活性,但是单架无人机在实际环境中能发挥的作用是极其有限的,因此在目前应用场景中使用多架无人机完成任务[1,2]。通过对无人机编队进行统一调配,扩大了无人机的通信覆盖范围。
无人机编队控制体系根据是否有主控无人机可以分为:集中式控制体系、分布式控制体系和混合式控制体系[3-6]。分布式控制体系是指各个无人机利用独立的算法来计算自己的标准位置,由此维持编队的队形以及稳定性。目前常用的对多架无人机组成的编队进行协同控制算法有:领航跟随法、人工势场法和基于子行为的算法[7-10]。基于子行为的算法,即基于行为策略算法,是利用子行为来描述无人机编队在执行任务时各种动作,相应的权重算法可以描述不同时刻下各个子行为重要程度。常用的多架无人机协同搜索覆盖方案可以分为1架无人机的搜索覆盖和同时利用多架无人机的搜索覆盖[11]。常用的多架无人机协同搜索方法是编队分离式搜索,即将待搜索区域依据某种规则划分成多个子目标区域,每个小区域由1架无人机单独完成搜索覆盖。无人机常用的路径规划算法是静态算法中的A∗算法,即基于栅格的路径搜索算法[12,13],在Dijkstra算法基础上加入指向目标方向的启发式函数,可以有效提升最优路径的寻找效率。
在上述研究中,虽然通过对无人机编队的控制使得编队在执行任务的过程中可以避开障碍、以一定的队形高效完成任务,但未考虑无人机编队为地面用户提供中继通信。因此在经典的基于行为策略算法的基础上,设计了一种空地协同无人机编队控制算法。通过增加“中继通信”这一子行为来描述无人机和地面用户的通信情况,使得无人机编队能为用户提供中继通信。使用Unity软件测试采用该算法的无人机编队的避障和切换队形等能力。理论研究和仿真结果表明,使用该算法的无人机编队能为地面提供可靠的中继通信且两种任务方案均具有可行性。
2. 空地协同无人机编队控制算法及队形设计
2.1 空地协同控制算法及子行为设计
基于行为策略算法在无人机编队开始执行任务时,各个无人机分别计算各个子行为的权值,最终执行当前重要性最高的子行为。该算法使得无人机编队能维持一定的队形朝着目标点飞行,在飞行过程中避开障碍物且避免无人机之间相撞。结合目前空地协同任务的需求,增加空地协同行为使无人机群能够带领地面用户避开障碍物。集合A来表示所有子行为的集合,如式(1)所示
A={a1,a2,a3,a4,a5} (1) 其中,集合中的元素分别表示编队朝向目标点飞行行为、避开障碍物行为、编队队形保持行为、机间防撞毁行为和空地协同行为,每个行为都有对应的增益集G和权值集W
G={g1,g2,g3,g4,g5} (2) W={w1,w2,w3,w4,w5} (3) 2.1.1 朝向目标点飞行行为
朝向目标点飞行行为使得无人机编队能够在完成任务过程中始终朝向目标点飞行。a1表示朝向目标点飞行行为,该行为的增益为g1,权值为w1,权值算法如式(4)所示
w1=g1 (4) 2.1.2 避开障碍物行为
避开障碍物行为使得无人机编队既可以避开飞鸟等动态障碍物,也可以带领地面用户避开沼泽等静态障碍。a2表示避开障碍物行为,用d2表示无人机与障碍物的实时距离,权值计算方法为
w2={g2,d2≤d2ming2×(d2max−d2d2max−d2min),0,d2>d2maxd2min<d2≤d2max (5) 2.1.3 编队队形保持行为
编队队形保持行为使得无人机编队在执行任务的过程中可以维持一定的队形。a3表示编队队形保持行为,该行为的增益和权值分别为g3和w3。d3表示无人机与标准点的距离,其权值算法为
w3={0,d3≤d3ming3×(d3−d3mind3max−d3min)g3,d3>d3max,d3min<d3≤d3max (6) 2.1.4 机间防撞毁行为
机间防撞毁行为保证在执行任务的过程中无人机避免相互碰撞。a4表示无人机之间防撞毁行为,该行为的增益为g4,权值为w4。用d4表示自身与最邻近的无人机之间的距离,式(7)为该子行为的权值算法
w4={g4,d4≤d4ming4×(d4−d4mind4max−d4min)0,d4>d4max,d4min<d4≤d4max (7) 2.1.5 空地协同行为
空地协同行为使得在执行任务时某通信无人机可以为在地面移动的用户提供行进的方向引导(中继通信)。向量a5表示空地协同子行为,该行为的增益为g5,权值为w5,空地协同行为的权值由式(8)计算。
w5={0,d5≤d5ming5×(d5−d5mind5max−d5min)g5,d5>d5max,d5min<d5≤d5max (8) 朝向目标点飞行子行为的缺失将影响编队到达目标点所需的时间,避障行为的缺失可能导致无人机被撞毁,队形保持行为缺失将影响编队的协调性和中继通信的质量,无人机机间防撞行为的缺失可能因1次撞击导致两架无人机被撞毁,中继通信行为的缺失可能导致地面用户的失联。根据子行为缺失的严重性,设置其权值增益的大小关系如式(9)、式(10)所示
max{g1,g3}<min{g2,g4,g5} (9) g2<g4 (10) 2.2 无人机编队队形设计
无人机编队由7架无人机组成,并设计4种队形:横队、纵队、六边形和角弧度为θ的扇形队形,部分无人机编队队形如图1。
由p1至p7表示编队中每架无人机的坐标,因此式(11)所表示的矩阵P即为无人机编队的3维坐标。Unity3D坐标系的底面由x轴和z轴组成,y轴垂直于底面向上。
P=[p1p2p3p4p5p6p7]T (11) 无人机标准点和站位点(当前坐标点)的关系由如下命题给出:
命题1 在某一固定的队形下,无人机标准点坐标g、相对标准向量v和站位点s之间应满足式(12)
s=g+v (12) 编队中无人机的站位点坐标设为s1至s7,则站位点矩阵S如式(13)所示
S=[s1s2s3s4s5s6s7]T (13) 同理,可以用矩阵G表示无人机编队标准点,矩阵V表示无人机编队的相对标准向量,矩阵U表示无人机各自的队形偏离向量。各个无人机脱离队伍的严重程度如式(14)所示
U=S−P (14) 无人机编队采用单位中心标准来计算几何中心点p0,计算方法如式(15)所示。单位中心标准是指在已知编队各个无人机位置坐标的前提下,编队中所有无人机根据编队的几何中心点来确认自己位置。各个无人机根据标准点矩阵G,如式 (16)所示。图2展示了无人机编队在扇形队形下的单位中心标准示意图,其中u表示当前无人机距离扇形队形下的标准位置的距离。
p0=n∑i=1pin (15) G=[p0p0p0p0p0p0p0] (16) 4种无人机编队队形下的相对标准向量计算方法如式(17)—式(20)所示。其中无人机之间的标准间隔距离用d0表示,向量vf和vup分别表示无人机编队的前进方向单位向量和垂直于编队平面的单位向量。
v1=(000)v2=d0×(vup×vf)v3=−d0×(vup×vf)v4=2d0×(vup×vf)v5=−2d0×(vup×vf)v6=3d0×(vup×vf)v7=−3d0×(vup×vf)} (17) v1=2d0×vfv2=d0×vfv3=(000)v4=−d0×vfv5=−2d0×vfv6=−3d0×vfv7=−4d0×vf} (18) v1=0.8d0×vfv2=d0×(0.3×vf+√32×(vup×vf))v3=d0×(0.3×vf−√32×vf)v4=−0.2d0×vfv5=−1.2d0×vfv6=d0×(−0.7×vf+√32×(vup×vf))v7=d0×(−0.7×vf−√32×(vup×vf))} (19) v1=1.2d0×sinθ×vfv2=d0×(0.2×sinθ×vf+cosθ×(vup×vf))v3=d0×(0.2×sinθ×vf−cosθ×(vup×vf))v4=d0×(−0.8×sinθ×vf+2×cosθ×(vup×vf))v5=d0×(−0.8×sinθ×vf−2×cosθ×(vup×vf))v6=d0×(−1.8×sinθ×vf+3×cosθ×(vup×vf))v7=d0×(−1.8×sinθ×vf−3×cosθ×(vup×vf))} (20) 3. 任务方案设计
3.1 区域搜索覆盖方案
无人机编队在对设定的目标区域进行搜索时,采用整体不分离式的平行搜索方法。设无人机的搜索半径为r,计算4种无人机编队队形的一次搜索宽度B如式(21)—式(24)所示
B=6d0 (21) B=2r (22) B=√3d+2r (23) B=6d0sinθ+2r (24) 第i个转弯点的坐标Ti可以由式(25)计算得到,其中h表示无人机的飞行高度,L是待搜索区域的长度,转弯点用于判断无人机编队是否行进到路线转弯处。
Ti=(L×1+(−1)[i−12]2,h,B×(12+[i2])) (25) 3.2 用户失联搜救方案
用户失联搜救方案是指无人机在执行时,检测到用户失联则执行用户失联搜索方案寻找失联用户并使带领该用户前往队伍。邻节点的选取方法是在对目标区域进行栅格化后按照四方向、八方向选择下一步路径节点,如图3(a)和图3(b)所示。改进邻节点选取方法:用六边形对目标区域进行划分,在当前节点选取下一目标节点时提供6个备选方向,如图3(c)所示。各算法的寻路结果如图4所示。
对于同尺寸栅格地图,3种邻节点选取方法生成路径的规划时间和路径长度结果如表1所示。改进的六邻域选取法规划出的路径长度低于四邻域选取法,路径规划时间低于八邻域选取法,综合性能最高。
表 1 仿真数据对比邻节点选取方法 规划出的路径长度(m) 路径规划时间(s) 四邻域选取法 23.00 1.69 六邻域选取法 21.00 2.15 八邻域选取法 12.00 2.69 4. 仿真实验
4.1 空地协同无人机编队控制算法仿真
仿真的理想环境是指无障碍物、无地形起伏变化的环境,如图5(a)所示。模拟实际环境是指有地形变化、有障碍物的环境,如图5(b)所示。设计了一条直角转弯路径来测试采用该算法的无人机编队的转弯性能。仿真参数如表2所示,测试结果如图6所示,行进时间、队形保持率如表3所示,其中队形保持率为队形保持时间与总时间的比值。无人机编队的避障能力和队形变化能力测试结果如图7和图8所示。测试结果图6中的横轴与纵轴的单位长度均为25 m。
表 2 仿真参数设定无人机参数 设定值 无人机参数 设定值 最高速度(m/s) 5.0 避障行为最大边界值d2max(m) 10.0 最高加速度(m/s2) 2.0 避障行为最小边界值d2min(m) 5.0 机间标准距离d0(m) 20.0 队形保持行为最大边界值d3max(m) 25.0 奔向目标行为增益值g1 0.8 队形保持行为最小边界值d3min(m) 2.0 避开障碍行为增益值g2 1.5 机间防撞行为最大边界值d4max(m) 5.0 队形保持行为增益值g3 1.0 机间防撞行为最小边界值d4min(m) 3.0 机间防撞行为增益值g4 2.0 中继通信行为最大边界值d5max(m) 60.0 中继通信行为增益值g5 1.5 中继通信行为最小边界值d5min(m) 25.0 表 3 理想环境下仿真结果无人机编队队形 行进时间(s) 队形保持率(%) 横队队形 92.98 92.25 纵队队形 58.36 93.83 六边形队形 76.07 98.33 扇形队形 82.30 93.21 基于上述实验可知:在转弯行进方面:横队队形转弯耗时最长,纵队队形转弯耗时最少。在队形保持率方面:六边形队形的无人机编队队形保持率最高,横队队形的无人机编队队形保持率最低。
针对上述仿真结果可知:采用该算法的无人机编队能避开动态障碍物,并且能恢复原先编队的队形继续朝目标点行进;能带领地面用户绕开地面静态障碍物,其队形保持率为90.79 %。
4.2 任务方案仿真
在模拟实际环境中对无人机编队的区域覆盖能力进行测试,仿真结果如图9所示。仿真图中红色实心点表示仿真过程中设置的沼泽。无人机编队完成目标区域搜索覆盖的总时间、队形保持率如表4所示。
表 4 区域平行搜索方案搜索用时结果信息表无人机编队队形 搜索用时 队形保持率(%) 横队队形 25分 01 秒 89.57 纵队队形 3时04分31秒 88.24 六边形队形 1时12分13秒 90.28 扇形队形 33分43秒 87.29 假设一名用户与无人机编队失去联系,测试用户失联搜救方案,仿真结果如图10和图11所示。从图中可知:用户失联后立即派出无人机飞向搜救区域寻找该失联用户;找到失联用户后带领该用户归队。
5. 结束语
基于传统的行为策略算法设计了适用于空地协同任务的空地协同无人机编队控制算法,添加的中继通信行为子行为使得无人机编队能带领地面用户完成目标区域的搜索覆盖。无人机编队在4种队形下测试动态避障、队形保持、变换队形和中继通信能力,由此验证该算法能在复杂的环境下有较强的适应能力。其次,设计了两种任务方案:主任务方案用于指定区域的搜索覆盖,应急方案用于对失联用户进行搜救。最后在Unity软件上进行仿真,测试了使用该算法的无人机编队在理想环境下的转弯性能、在模拟实际环境下的避障以及切换队形能力;在模拟实际环境下测试两种方案的可行性。实验证明改进后的编队控制算法有着出色的综合性能并且两种方案具有可行性。虽然已完成上述研究内容,未来可以在不同地形环境、不同天气条件下对所提的空地协同无人机编队控制算法的性能进行进一步的研究。
-
表 1 不同模块消融实验结果
实验编号 改进多尺度分形注意力模块 融合方式 预测头 IoU nIoU 1 × Concat FcnHead 67.643 69.040 2 √ Concat FcnHead 71.842 74.656 3 √ Concat Prediction 73.636 74.649 4 × ACM FcnHead 73.450 74.083 5 √ ACM FcnHead 74.827 77.150 6 √ ACM Prediction 77.423 76.110 表 2 迁移实验结果
实验编号 改进多尺度分形注意力模块 融合方式 预测头 IoU nIoU 1 × Concat FcnHead 42.561 38.685 2 √ Concat FcnHead 43.740 36.882 3 √ Concat Prediction 46.138 40.211 4 × ACM FcnHead 46.948 42.846 5 √ ACM FcnHead 50.542 45.163 6 √ ACM Prediction 54.484 49.631 -
[1] LI Zhongmin, MEI Lifei, and SONG Mao. A survey on infrared weak small target detection method[J]. Advanced Materials Research, 2014, 945/949: 1558–1560. doi: 10.4028/www.scientific.net/AMR.945-949.1558 [2] 李俊宏, 张萍, 王晓玮, 等. 红外弱小目标检测算法综述[J]. 中国图像图形学报, 2020, 25(9): 1739–1753. doi: 10.11834/jig.190574LI Junhong, ZHANG Ping, WANG Xiaowei, et al. Infrared small-target detection algorithms: A survey[J]. Journal of Image and Graphics, 2020, 25(9): 1739–1753. doi: 10.11834/jig.190574 [3] XU Yonghui and ZHANG J A. Real-time detection algorithm for small space targets based on max-median filter[J]. Journal of Information and Computational Science, 2014, 11(4): 1047–1055. doi: 10.12733/jics20102961 [4] 吴健, 陆书文, 芮大庆, 等. 基于背景抑制的改进Top-Hat红外小目标检测方法[J]. 电光与控制, 2018, 25(9): 42–44. doi: 10.3969/j.issn.1671-637X.2018.09.009WU Jian, LU Shuwen, RUI Daqing, et al. An improved Top-Hat infrared small target detection method based on background suppression[J]. Electronics Optics &Control, 2018, 25(9): 42–44. doi: 10.3969/j.issn.1671-637X.2018.09.009 [5] 侯旺, 孙晓亮, 尚洋, 等. 红外弱小目标检测技术研究现状与发展趋势[J]. 红外技术, 2015, 37(1): 1–10.HOU Wang, SUN Xiaoliang, SHANG Yang, et al. Present state and perspectives of small infrared targets detection technology[J]. Infrared Technology, 2015, 37(1): 1–10. [6] CHEN C L P, LI Hong, WEI Yantao, et al. A local contrast method for small infrared target detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(1): 574–581. doi: 10.1109/TGRS.2013.2242477 [7] WEI Yantao, YOU Xinge, and LI Hong. Multiscale patch-based contrast measure for small infrared target detection[J]. Pattern Recognition, 2016, 58: 216–226. doi: 10.1016/j.patcog.2016.04.002 [8] GAO Chenqiang, MENG Deyu, YANG Yi, et al. Infrared patch-image model for small target detection in a single image[J]. IEEE Transactions on Image Processing, 2013, 22(12): 4996–5009. doi: 10.1109/TIP.2013.2281420 [9] WANG Huan, ZHOU Luping, and WANG Lei. Miss detection vs. false alarm: Adversarial learning for small object segmentation in infrared images[C]. 2019 IEEE/CVF International Conference on Computer Vision (ICCV), Seoul, Korea (South), 2019: 8508–8517. [10] 刘俊明, 孟卫华. 融合全卷积神经网络和视觉显著性的红外小目标检测[J]. 光子学报, 2020, 49(7): 0710003. doi: 10.3788/gzxb20204907.0710003LIU Junming and MENG Weihua. Infrared small target detection based on fully convolutional neural network and visual saliency[J]. Acta Photonica Sinica, 2020, 49(7): 0710003. doi: 10.3788/gzxb20204907.0710003 [11] DAI Yimian, WU Yiquan, ZHOU Fei, et al. Asymmetric contextual modulation for infrared small target detection[C]. 2021 IEEE Winter Conference on Applications of Computer Vision (WACV), Waikoloa, USA, 2021: 949–958. [12] DAI Yimian, WU Yiquan, ZHOU Fei, et al. Attentional local contrast networks for infrared small target detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(11): 9813–9824. doi: 10.1109/TGRS.2020.3044958 [13] YU Chuang, LIU Yunpeng, WU Shuhang, et al. Infrared small target detection based on multiscale local contrast learning networks[J]. Infrared Physics & Technology, 2022, 123: 104107. doi: 10.1016/j.infrared.2022.104107 [14] HUANG Lian, DAI Shaosheng, HUANG Tao, et al. Infrared small target segmentation with multiscale feature representation[J]. Infrared Physics & Technology, 2021, 116: 103755. doi: 10.1016/j.infrared.2021.103755 [15] ZHANG Tianfang, CAO Siying, PU Tian, et al. AGPCNet: Attention-guided pyramid context networks for infrared small target detection[EB/OL]. https://arxiv.org/abs/2111.03580, 2021. [16] WANG Xiaolong, GIRSHICK R, GUPTA A, et al. Non-local neural networks[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 7794–7803. [17] LI Boyang, XIAO Chao, WANG Longguang, et al. Dense nested attention network for infrared small target detection[J]. IEEE Transactions on Image Processing, 2023, 32: 1745–1758. [18] ZHOU Z W, SIDDIQUEE M R, TAJBAKHSH N, et al. UNet++: A nested U-net architecture for medical image segmentation[C]. The 4th International Workshop on Deep Learning in Medical Image Analysis, Granada, Spain, 2018: 3–11. [19] TONG Xiaozhong, SUN Bei, WEI Junyu, et al. EAAU-Net: Enhanced asymmetric attention U-Net for infrared small target detection[J]. Remote Sensing, 2021, 13(16): 3200. doi: 10.3390/rs13163200 [20] RONNEBERGER O, FISCHER P, and BROX T. U-Net: Convolutional networks for biomedical image segmentation[C]. The 18th International Conference on Medical Image Computing and Computer-Assisted Intervention, Munich, Germany, 2015: 234–241. [21] 谷雨, 刘俊, 沈宏海, 等. 基于改进多尺度分形特征的红外图像弱小目标检测[J]. 光学 精密工程, 2020, 28(6): 1375–1386. doi: 10.3788/OPE.20202806.1375GU Yu, LIU Jun, SHEN Honghai, et al. Infrared dim-small target detection based on an improved multiscale fractal feature[J]. Optics and Precision Engineering, 2020, 28(6): 1375–1386. doi: 10.3788/OPE.20202806.1375 [22] LI Hanchao, XIONG Pengfei, AN Jie, et al. Pyramid attention network for semantic segmentation[C]. The British Machine Vision Conference 2018, Newcastle, UK, 2018: 285. [23] ZHAO Hengshuang, SHI Jianping, QI Xiaojuan, et al. Pyramid scene parsing network[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 2881–2890. [24] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778. [25] JOCHER G. Yolov5[EB/OL]. Https://github.com/ultralytics/yolov5, 2020. [26] ZHU Zhen, XU Mengdu, BAI Song, et al. Asymmetric non-local neural networks for semantic segmentation[C]. 2019 IEEE/CVF International Conference on Computer Vision, Seoul, Korea (South), 2019: 593–602. [27] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904–1916. doi: 10.1109/TPAMI.2015.2389824 [28] RAHMAN A and WANG Yang. Optimizing intersection-over-union in deep neural networks for image segmentation[C]. The 12th International Symposium on Visual Computing, Las Vegas, USA, 2016: 234–244. [29] BERMAN M, TRIKI A R, and BLASCHKO M B. The Lovasz-Softmax loss: A tractable surrogate for the optimization of the intersection-over-union measure in neural networks[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 4413–4421. 期刊类型引用(8)
1. 王建鹏,陈晔,曹德胜. 重叠加窗下卫星直序扩频通信干扰非线性抑制方法. 现代电子技术. 2024(09): 16-20 . 百度学术
2. 肖汉周,刘迎春. 基于改进B+树索引的大型数据库检索研究. 桂林航天工业学院学报. 2024(03): 446-451 . 百度学术
3. 申晓平. 基于奇异值分解的航空遥感图像小目标提取方法. 计算机测量与控制. 2024(09): 262-268 . 百度学术
4. 丁心安,王艳娥. 基于SVM数据滤波的非同轴两轮机器人转弯自动平衡控制方法. 计算机测量与控制. 2024(12): 124-130 . 百度学术
5. 马艳艳,洪伟,齐永梅. 基于数据重构的杂波抑制方法. 舰船电子对抗. 2023(02): 79-82 . 百度学术
6. 张远亮. 基于多维行为分析的窃电高风险客户精准定位方法. 广西科学院学报. 2023(02): 199-205 . 百度学术
7. 刘遵义,孙雪亮,武博强,朱世彬,许刚刚. 基于SBAS-InSAR的露天煤矿排土场沉降监测与分析. 煤炭技术. 2023(06): 192-196 . 百度学术
8. 李永,朱姝. 无线通信网络导频复用干扰协调优化算法. 无线电工程. 2023(06): 1351-1358 . 百度学术
其他类型引用(0)
-