Loading [MathJax]/jax/output/HTML-CSS/jax.js
高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

标签噪声下融合信息分类处理和多尺度鲁棒学习的空中目标意图识别方法

宋子豪 周焰 蔡益朝 程伟 袁凯 黎慧

周牧, 王烟濛, 袁慧, 田增山. 基于Mann-Whitney秩和检验的无线局域网室内映射与定位方法[J]. 电子与信息学报, 2019, 41(7): 1555-1564. doi: 10.11999/JEIT180392
引用本文: 宋子豪, 周焰, 蔡益朝, 程伟, 袁凯, 黎慧. 标签噪声下融合信息分类处理和多尺度鲁棒学习的空中目标意图识别方法[J]. 电子与信息学报. doi: 10.11999/JEIT241074
Mu ZHOU, Yanmeng WANG, Hui YUAN, Zengshan TIAN. Mann-Whitney Rank Sum Test Based Wireless Local Area Network Indoor Mapping and Localization Approach[J]. Journal of Electronics & Information Technology, 2019, 41(7): 1555-1564. doi: 10.11999/JEIT180392
Citation: SONG Zihao, ZHOU Yan, CAI Yichao, CHENG Wei, YUAN Kai, LI Hui. Aerial Target Intention Recognition Method Integrating Information Classification Processing and Multi-scale Embedding Robust Learning with Noisy Labels[J]. Journal of Electronics & Information Technology. doi: 10.11999/JEIT241074

标签噪声下融合信息分类处理和多尺度鲁棒学习的空中目标意图识别方法

doi: 10.11999/JEIT241074
详细信息
    作者简介:

    宋子豪:男,博士生,研究方向为深度学习、态势智能认知

    周焰:男,教授,博士生导师,研究方向为态势智能认知、数据融合

    蔡益朝:男,教授,博士生导师,研究方向为态势感知、智能数据关联

    程伟:男,副教授,硕士生导师,研究方向为深度学习、雷达通信一体化

    袁凯:男,博士生,研究方向为强化学习、无人机集群控制

    黎慧:女,教授,研究方向为数据融合

    通讯作者:

    周焰 songzh@88.com

  • 中图分类号: TP183; TP391.4

Aerial Target Intention Recognition Method Integrating Information Classification Processing and Multi-scale Embedding Robust Learning with Noisy Labels

  • 摘要: 针对传统深度学习意图识别方法难以在噪声标签存在时获得可靠模型的问题,该文提出基于信息分类处理(ICP)网络和多尺度鲁棒学习的空中目标意图识别(ATIR)方法。首先,基于空中目标属性性质,构建基于ICP的编码器,以获得更具可分性的嵌入;随后,设计了从精细到粗糙的跨尺度嵌入融合机制,利用不同尺度的目标序列,训练多个编码器来学习判别模式;同时,利用不同尺度的互补信息,以交叉教学的方式训练每个编码器,以选择小损失样本作为干净标签;对于未选定的大损失样本,基于多尺度嵌入图和说话者-倾听者标签传播算法(SLPA),使用干净样本的标签进行校正。在不同标签噪声类型、多级噪声水平的ATIR数据集上的实验结果表明,该方法的测试准确率和Macro F1分数显著优于其他基线方法,说明其具有更强的噪声标签鲁棒性。
  • 随着无线通信技术的发展[13],人们对位置服务的需求与日俱增。现有的成熟定位系统,如全球定位系统(Global Positioning System, GPS)等,已在室外环境下得到广泛应用。但由于室内环境的复杂性以及多径信号干扰等原因,GPS等室外定位系统在室内环境中的定位性能差强人意。与此同时,随着无线局域网(Wireless Local Area Network, WLAN)的快速普及,利用广泛部署的WLAN基础设施来实现室内定位已受到人们的密切关注。由于来自WLAN无线接入点(Access Point, AP)的接收信号强度(Received Signal Strength, RSS)易于测量,如用于楼内用户定位与跟踪的射频系统(RADAR)[4]和Horus系统[5]等采用RSS位置指纹的WLAN室内定位方案已得到普遍应用。这类系统通常包括两个阶段,在离线阶段,用户需在目标区域内每个参考点处采集来自不同AP的RSS,以构建位置指纹数据库,在在线阶段,系统根据新采集的RSS与位置指纹数据库的匹配结果,实现对用户的位置估计[6]。然而,位置指纹数据库的构建通常需要消耗大量的人力和时间开销,从而导致WLAN室内定位系统的普适性较差。

    于是,为了降低位置指纹数据库的构建开销,人们提出独立于位置指纹的室内映射与定位方法,如即时定位与映射(Simultaneous Localization And Mapping, SLAM)方法[7],其将用户随机采集的RSS样本与运动传感器信息相融合,以避免繁复的逐点指纹数据采集过程。独立于位置勘测的无线室内定位(Wireless Indoor LocaLization without site survey, WILL)[8,9]利用加速度信息对RSS样本进行筛选,以构造信号空间中的用户运动地图,并根据用户运动地图与物理环境的映射关系来实现定位。Li等人[10]提出了一种基于模糊理论的WLAN室内映射方法,其利用加速计和陀螺仪数据对5种典型用户运动模式进行识别,并通过挖掘不同用户的姿态特征来优化定位结果。Naik等人[11]利用专用的探测器监视和识别通信范围内的基站,并在此基础上构建动态地图以实现室内定位。SmartSLAM系统[12]基于智能手机进行人员位置跟踪的同时,实现对未知室内环境平面图的绘制。ActionSLAM系统[13]通过对具有位置依赖性的人体动作进行标定,修正运动传感器的漂移误差,实现准确定位。WiSLAM系统[14]则是在行人足部安装惯性测量单元(Inertial Measurement Unit, IMU),通过融合IMU中的Wi-Fi和里程计数据来实现室内跟踪。此外,SignalSLAM系统[15]通过融合Wi-Fi、蓝牙、长期演进(Long Term Evolution, LTE)网络和磁传感器数据,构建用于室内定位和映射的多模式信号图。然而,基于SLAM的映射与定位方法通常对终端设备有特殊的硬件要求,且需要利用行之有效的数据融合算法进行特征提取和参数优化[16],从而对系统复杂度提出了更高的要求。

    与此同时,Zhou等人[17]利用热点排序方法建立物理和信号空间的映射关系,其无需运动传感器辅助和构建位置指纹数据库,并在文献[18]中利用半监督流形学习方法,实现了在少量标记点条件下的高精度定位。Wang等人[19]利用RSS时空特性来实现室内定位和路径映射,其无需任何特殊硬件设备或平面地图的辅助。文献[20]则利用RSS在时域和频域上的变化,通过对少量标定的RSS数据进行学习,得到行人在运动和静止状态下对应的RSS阈值,进而实现对目标位置和相关运动行为的估计。Shin等人[21]通过对连续采集的RSS数据进行语义标定,构建位置转移拓扑图,来进行室内定位。然而,该方法需人为划分目标区域且采集一定数量的标记信号,使得系统可靠性受到限制。

    针对上述问题,本文提出一种基于Mann-Whitney秩和检验的WLAN室内映射与定位方法。本方法包括客户端、商户端和服务端3个部分,其中,客户端用户按照其日常行走习惯在目标区域中随机采集RSS序列;商户端提供目标区域结构图并根据实际需求设定期望定位精度;服务端则利用客户端和商户端提供的信息,建立物理与信号空间的映射关系并完成对客户端的定位。具体而言,首先,通过对目标区域物理结构的分析,预测用户运动趋势并利用A*搜索算法[22]对运动路径进行建模。同时,基于Mann-Whitney秩和检验合并相似运动路径片段,利用得到的物理聚类实现对目标区域的划分。相比于传统基于建筑结构的人为物理空间划分方法[8,9,18],本文所提方法考虑了用户的行走习惯,从而具有更好的物理空间转移逻辑性。然后,根据连续采集RSS信号在物理空间中的邻接关系,同样利用Mann-Whitney秩和检验方法对RSS序列片段进行聚类,由此保证所属相同聚类的RSS样本具有较好的物理邻接性。最后,为了建立物理与信号空间的映射关系,将信号空间中出现频率较高的信号聚类(即信号空间中的骨干节点)映射到物理空间中用户活动频繁的物理聚类(即物理空间中的骨干节点),同时利用逐层扩散方法对骨干节点的邻接点依次进行映射,直到所有信号聚类均被映射到物理空间中。此外,本文所提方法无需运动传感器辅助和构建位置指纹数据库,且具有较高的映射与定位精度和较强的环境适应性。

    本文结构安排如下:第2节详细描述了本文所提基于Mann-Whitney秩和检验的WLAN室内映射与定位方法;第3节通过实验数据验证了所提方法的有效性;第4节总结全文并给出下一步工作。

    本系统包括用户端、商户端和服务端3个部分,其系统架构如图1所示。

    图 1  系统架构
    2.1.1   运动路径建模

    为了保护用户的位置隐私,选择图2所示走廊区域为目标区域并在该区域中布置NAP=4个WLAN接入点。同时,为了刻画运动路径的物理属性,将目标区域中的障碍物分为兴趣障碍物(即用户经常使用的物体,如门和椅子)和非兴趣障碍物(即用户较少使用的物体,如空白墙面和窗户),同时将可行走区域分为功能区域(即兴趣障碍物的邻近区域,如房间和电梯的出入口区域)和非功能区域(即非兴趣障碍物的邻近区域,如不同空白墙面之间的走廊区域)。从而,每条运动路径可表示为两个功能区域之间的用户行走轨迹。为了模拟用户在目标区域中的行走轨迹,本系统采用启发式A*搜索算法[22]对用户运动路径进行建模。具体而言,首先将图2中目标区域结构图转变为图3所示目标区域图像,其中,像素宽度为wp=0.3 m,黑色为非兴趣障碍物,深灰色为非目标区域,浅灰色和白色分别为功能和非功能区域。然后,从起始像素点(即起点位置)出发,依次将其周围8邻域像素点中位于可行走区域的像素点作为候选像素点,同时计算每个候选像素点与起始和终止像素点(即终点位置)之间距离之和,选择距离之和最小的候选像素点为下一像素点。迭代该过程,直到终止像素点被遍历,由此得到的起点与终点间一系列连续的像素点集合即为构建的运动路径。

    图 2  目标区域结构图
    图 3  目标区域图像

    本系统中,当前与前一像素点的距离用欧氏距离进行度量,并根据每个像素点与其前一像素点的欧式距离累加,得到当前与起始像素点的距离,该距离的定义符合用户对其所行走路径距离的评判习惯。与此同时,由于在实际室内环境中运动路径的终点位置通常位于用户的视距范围之外,当前与终止像素点之间的行走距离往往远大于其欧式距离,因此,本系统利用曼哈顿距离对当前与终止像素点的距离进行估计[23]。此外,考虑用户行走的随机性,在每次运动路径建模时,本系统将随机选择目标区域图像中一定比例的像素点为不可行走的障碍点,于是对于具有相同起始和终止功能区域的多次运动路径建模结果均存在差异。

    2.1.2   运动路径建模

    由于用户的行走习惯通常为选择两点间的最短路径行走,在图4(a)室内无障碍物环境中,相比于曼哈顿距离,欧式和路径距离更能有效刻画真实与估计位置之间的用户行走距离;而在图4(b)室内有障碍物环境中,相比于欧式和曼哈顿距离,路径距离更能有效刻画真实与估计位置之间的用户行走距离。基于此,本系统利用路径距离来度量用户位置的估计误差。基于上述距离度量方法,若令与用户真实位置的距离小于期望定位精度Ar的区域为可接受定位区域,则可接受定位区域内任意两点之间的距离小于2{A_{\rm r}。此时,令物理相似度阈值εP=2Ar,则同一物理区域内的点彼此之间的距离小于εP。于是,对于每条运动路径,从其起始像素点开始遍历,将路径距离小于εP的像素点划分为一个运动路径片段Ti=[(xi1,yi1),(xi2,yi2),···,(xini,yini)],其中,niTi包含的像素点数(即Ti的片段长度)。此外,过短的运动路径片段不能有效地刻画用户运动行为,于是通过设定像素点阈值NumP=[lmin/wp]剔除像素点个数小于NumP的运动路径片段,其中,“[]”表示取整运算,lmin为允许的最短运动路径片段长度。

    图 4  不同环境中的距离度量比较
    2.1.3   物理逻辑图构建

    为了构建能充分反映用户在目标环境中各子区域间转移关系的物理逻辑图,不同于传统的基于建筑结构的人为划分方法,本系统引入用户的行走习惯,通过合并相似运动路径片段得到物理聚类,实现对目标区域的划分。同时,由于用户运动具有随机性,难以选择某一分布函数对运动路径上位置进行刻画,因此,本系统采用Mann-Whitney秩和检验方法[24]对两两运动路径片段的相似性进行度量。具体而言,对于任意两条运动路径片段Tp=[(xp1,yp1),(xp2,yp2),···,(xpn,ypn)]Tq=[(xq1,yq1),(xq2,yq2),···,(xqm,yqm)],可得其第1和第2维坐标集合分别为[xp1,xp2,···,xpn][xq1,xq2,···,xqm],以及[yp1,yp2,···,ypn][yq1,yq2,···,yqm],其中,nm分别为TpTq的片段长度。若将TpTq的第i维坐标集合分别看作来自总体CpiCqi,则检验TpTq的第i维坐标集合是否相似的问题等价于检验CpiCqi是否相同。令Mann-Whitney秩和检验显著性水平为α,构造假设检验问题

    H0:CpiCqi 相似H1:CpiCqi不相似} (1)

    构造包含n+m个数据的集合Cti=CpiCqi,令Cti中最小数据的秩为1,次小数据的秩为2,以此类推,得到最大数据的秩为n+m,同时将相同数据的秩定义为其对应的所有秩的平均值。通过对属于CpiCqi的数据的秩分别求和,得到秩和WpiWqi,进而得到CpiCqi的检验统计量Upi=Wpin(n+1)/2Uqi=Wqim(m+1)/2。令U=min(Upi,Uqi),由于U在小样本(即n, m20)情况下近似服从Mann-Whitney分布[25],因此根据Mann-Whitney秩和检验临界值表[26],当U大于临界值表中数据个数分别为nm条件下的临界值Uα时,接受H0,即认为TpTq的第i维坐标集合相似;反之,则认为不相似。与此同时,在大样本情况下,U近似服从正态分布[17],若Cti中不存在相同数据,则由正态逼近过程可得检验统计量

    z=(Unm/2)/mn(m+n+1)/2 (2)

    Cti中存在相同数据,则式(2)可修正为

    z=(Unm2)/mn(m+n+1)12mn(gi=1τ3igi=1τi)12(m+n)(m+n+1)(3)

    其中,τi为第i种相同数据的个数,g为相同数据的类数。计算标准正态分布条件下从z的累积分布概率P,然后比较精度双尾P=2(1P)与显著性水平α的大小,若P<α,则接受H1;反之则接受H0

    基于上述Mann-Whitney秩和检验方法,可对TpTq的每一维坐标集合进行检验,若两者的每一维坐标集合均来自相同总体,则认为TpTq为相似运动路径片段。最后,通过合并相似的运动路径片段,得到NP个物理聚类,进而根据不同物理聚类间的转移关系,将每个物理聚类和对应的转移关系抽象为物理逻辑图的顶点vPi(i=1,2,···,NP)和边ePij=(vPi,vPj)(i,j=1,2,···,NP; ij)。特别地,为了保证目标区域的连通性,当构建的物理逻辑图为非连通图时,仅保留其最大连通子图。

    2.2.1   RSS序列采集与分段

    根据用户行走习惯,用户端在目标区域内随机采集Ntr条RSS序列{RSS1,RSS2,···,RSSNtr},其中,RSSi={rssi1,rssi2,···,rssiMi}(i=1,2,···,Ntr), rssij=(rssij1,rssij2,···,rssijk)(j=1,2,···,Mi), Mi为第i条RSS序列长度,k为AP个数,rssijl(1lk)rssij中来自第l个AP的RSS值。由于具有较短路径距离的物理位置处通常采集得到相似的RSS样本[12],于是为了提高用户连续行走过程中采集RSS序列的稳定性,对原始采集RSS序列的每一维RSS样本进行均值滤波,如图5所示。

    图 5  某一RSS序列均值滤波结果

    与运动路径分段过程类似,通过设置信号相似度阈值εS对RSS序列进行分段。为此,根据信号传播模型中RSS均值与物理距离之间关系[27],由物理相似度阈值εP计算得到信号相似度阈值εS。具体而言,首先,计算物理距离d1d2处的RSS均值差

    ΔP=¯P1¯P2=10βlg(d2/d1)=10βlg(1+Δd/d1) (4)

    其中,β为路径损耗指数[28]Δd=|d1d2|,当Δd给定时,d1越小,ΔP越大。于是,令d1=1 m, Δd=εP,则可计算得到ΔP=10βlg(1+εP/d1)=εS。对于每条RSS序列,从其第1个RSS矢量开始遍历,将每一维RSS差值均小于εS的RSS矢量分为一段Si={rssi1,rssi2,···,rssimi},其中,mi为第i条RSS序列片段Si包含的RSS矢量数(即Si的片段长度)。

    2.2.2   信号逻辑图构建

    类似地,采用Mann-Whitney秩和检验方法对两两RSS序列片段的相似性进行检验。具体而言,若两条RSS序列片段的每一维RSS矢量集合均来自相同总体,则认为它们为相似RSS序列片段。然后,通过合并相似RSS序列片段,得到NS个信号聚类,进而根据不同信号聚类之间的转移关系,将每个信号聚类和对应的转移关系抽象为信号逻辑图中的顶点vSi和边eSij=(vSi,vSj)(i,j=1,2,···,NS;ij)。特别地,为保证RSS序列采集的连续性,当构建的信号逻辑图为非连通图时,仅保留其最大连通子图。

    由于物理聚类之间的转移关系刻画了用户的运动趋势,而信号聚类之间的转移关系反映了其对应RSS序列的采集路径,于是,当运动趋势能够有效反映目标区域中用户的行走习惯时,不同物理聚类之间和信号聚类之间的转移关系将存在相似性。基于此,本系统基于龙骨映射[8]的思想,提出一种关于物理与信号空间映射的骨干节点扩散映射方法。本方法首先对物理和信号逻辑图中的骨干节点进行映射,然后利用逐层扩散方法对骨干节点的邻接点依次进行映射,直到所有信号聚类均被映射到具有相似转移关系的物理聚类。

    首先,计算物理和信号逻辑图中所有顶点的邻接度[29],显然,某个顶点的邻接度越大,其在图中的中心性就越明显。令顶点v的度为deg(v),其邻接点vAi(i=1,2,···,Nd)的度为deg(vAi),其中,Ndv的邻接点个数,则v的邻接度可计算为Adj(v)=deg(v)+Ndi=1deg(vAi)

    然后,分别将物理和信号逻辑图中的顶点按邻接度降序排列,得到集合VPRa=[vPRa1,vPRa2,···,vPRaNP]VSRa=[vSRa1,vSRa2,···,vSRaNS],其中,Adj(vPRa1)···Adj(vPRaNP)Adj(vSRa1)···Adj(vSRaNS)。令物理和信号逻辑图中邻接度最大的NA个节点所组成的骨干节点集合为VPBo=[vPRa1,vPRa2,···,vPRaNA]VSBo=[vSRa1,vSRa2,···,vSRaNA],则通过将信号逻辑图中的骨干节点映射到物理逻辑图中与其具有相同邻接度排序的骨干节点,实现物理和信号逻辑图的骨干节点映射。当完成所有骨干节点映射之后,继续对骨干节点的邻接点进行映射。此时,令vPRa1的邻接点集合为AP1vSRa1的邻接点集合中未映射的顶点集合为AS1,分别对AP1AS1中的顶点按邻接度降序排列得到APRa1ASRa1,将APRa1ASRa1中邻接度排序相同的顶点进行映射,从而完成物理和信号逻辑图中具有最大邻接度的骨干节点的邻接点映射。特别地,若ASRa1中顶点数NSRa1大于APRa1中顶点数NPRa1,则不对ASRa1中邻接度序号大于NPRa1的顶点进行映射。以此类推,直到完成所有骨干节点的邻接点映射。由于某些物理区域中可能没有采集RSS序列,所以可能存在物理逻辑图中某些顶点未被映射的情况,此时,未被映射的顶点将从物理逻辑图中剔除。

    本系统利用物理与信号聚类之间的映射关系,对目标区域内用户进行定位。具体而言,令第i个物理聚类所包含位置坐标的均值(ˉxi,ˉyi)为其物理聚类中心,第j个信号聚类所包含RSS矢量的均值¯rssj为其信号聚类中心,当用户新采集RSS序列为RSSnew={rssnew1,rssnew2,···,rssnewM}时,对于每个新采集的RSS矢量rssnewi (i =1, 2, ···, M ),计算其与每个信号聚类中心的欧式距离,选择距离最近的中心所对应信号聚类为rssnewi的所属聚类,该信号聚类所映射的物理聚类中心即为用户该时刻的估计位置。

    实验环境选择某实验楼5楼走廊区域,其平面结构如图2所示。针对图3所示目标区域图像,在Matlab仿真平台上利用A*搜索算法对同一楼梯出入口到同一实验室门口之间两次运动路径进行模拟,同时假定用户在运动过程中不会存在长时间逗留、中途折返等情况。根据用户在目标区域中的行走习惯,分别针对上班、工作和下班3种假设模式各仿真95条运动路径,如图6所示。在上班、工作和下班3种假设模式下,用户的行走习惯分别倾向于从楼梯或电梯出入口走向各个实验室门口、从各个实验室门口走向其它实验室门口和从各个实验室门口走向楼梯或电梯出入口。像素点色度越深,代表运动路径经过该像素点次数越多。

    图 6  不同假设模式下的运动路径仿真结果

    不失一般性,令εP=7 m并对每条运动路径进行分段。考虑路径长度小于1 m的运动路径片段不能有效刻画用户的运动行为,故剔除包含像素点个数小于4的运动路径片段(因为4×wp=1.2m>1m)。在统计学中,通常把在现实世界中发生几率小于5%的事件称为“不可能事件”,即小概率原理[30]。因此,令显著性水平α=0.05,当精度双尾P值小于该显著性水平时,拒绝原假设H0,即比较的两条运动路径片段不相似。基于此,利用Mann-Whitney秩和检验方法对运动路径片段进行聚类,得到图7所示聚类结果。最后,根据不同物理聚类之间的转移关系,构造物理逻辑图。

    图 7  运动路径片段聚类结果

    与此同时,在图2所示实验环境中,使用D-Link DAP-2310作为AP发射Wi-Fi信号,并选择三星S7568手机及自主开发的Wi-Fi信号采集软件对每条运动路径上的RSS数据进行采集。由图8可知,同一物理聚类中的各个位置点大多位于彼此的视距(Line Of Sight, LOS)范围内。因此,令式(4)中的参数β等于室内LOS环境下典型路径损耗指数值,即β=1.6 [31]。从而,由式(4)可得εS=14.4 dBm并对RSS序列进行分段。同样,利用Mann-Whitney秩和检验方法对RSS序列片段进行聚类,根据信号聚类间的转移关系,构造信号逻辑图。根据骨干节点扩散映射方法,分别选取物理和信号逻辑图中邻接度最大的NA个顶点作为两幅图的骨干节点,其中,骨干节点邻接度之和占所有顶点邻接度总和的比重反映了该骨干节点集合的重要程度,如图8所示。综合考虑骨干节点集合的重要性以及节点扩散映射的精度,本系统选择NA=5,此时骨干节点邻接度的比重大于75%且骨干节点扩散映射方法具有较高精度。在物理和信号逻辑图中,邻接度排序最高的5个骨干节点的编号分别依次为2, 5, 7, 6, 3和7, 6, 1, 3, 4,如图9(a)所示。当完成所有骨干节点映射之后,继续对骨干节点的邻接点进行映射,最终建立图9(b)中物理与信号空间的映射关系。

    图 9  物理与信号逻辑图映射关系
    图 8  骨干节点集合重要性对比

    为了验证本文方法的映射与定位精度,分别针对上班、工作和下班3种假设模式下的用户行走习惯,各采集5条具有位置标定的RSS序列用于测试。不失一般性,在图10中根据不同物理区域的功能性对目标区域进行划分,在此基础上,图11比较了本文系统与已有WILL[8]和文献[17]所述系统的映射精度,其中,映射精度定义为新采集RSS矢量匹配到用户正确所属子区域的概率。由图可知,本文系统的平均正确匹配概率为80.4%,优于WILL和文献[17]所述系统的69.7%和68.5%。

    图 10  目标区域划分结果
    图 11  映射精度对比

    将定位精度定义为用户估计位置与真实位置之间的欧式距离误差,可得本文系统在上班、工作和下班3种假设模式下的误差累积分布函数,如图12所示。由图可计算得到3种假设模式及全模式下的平均误差分别为5.4 m, 3.1 m, 5.2 m和4.5 m。

    图 12  不同假设模式下的定位误差

    与此同时,图13比较了本文系统与WILL和文献[17]所述系统在全模式下的误差累积分布函数。由图可计算得到本文系统的平均误差为4.5 m,小于WILL和文献[17]所述系统的4.9 m和10 m。此外,由于本文系统同时具有较高的映射精度,所以其拖尾误差远小于另外两个系统。针对上述结果究其原因,WILL系统根据子区域划分个数对信号进行K均值聚类,所得信号聚类难以匹配其所属子区域且K均值聚类性能关于初始聚类中心的选择具有较大随机性[32],故该系统的聚类结果不稳定,定位精度难以得到保证;而文献[17]所述系统假设在信号采集过程中用户行走速率不变,显然其不符合实际室内环境中的用户行走习惯,故该系统在用户行走速率变化较大的情况下,信号聚类结果不可靠,即属于相同聚类的RSS样本可能在物理上不邻近,进而导致定位性能下降。

    图 13  不同系统的定位误差

    最后,图14比较了本文系统在不同物理相似度阈值条件下的定位精度。由图可知,当物理相似度阈值过小(如εP=3 m)时,利用Mann-Whitney秩和检验方法得到的物理和信号聚类较多,从而难以保证较高的映射精度,并最终导致定位性能下降;而当物理相似度阈值过大(如εP=9 m)时,每个物理聚类可能对应多个信号聚类,从到导致物理和信号逻辑图中的聚类转移关系不一致,使得映射与定位精度下降。

    图 14  不同物理相似度阈值下的定位误差

    本文所提基于Mann-Whitney秩和检验的WLAN室内映射与定位方法不依赖于运动传感器或指纹数据库构建,并对现有WLAN硬件设备不作特殊要求,从而具有较好的普适性和经济性。此外,利用一种基于相似RSS序列片段的信号聚类算法来保证同一聚类中RSS样本的物理邻接关系,并基于骨干节点扩散映射方法建立物理与信号空间的映射关系,进而实现对运动用户的定位。相比于传统WLAN室内映射与定位方法,本文方法具有更高的映射与定位精度。然而,本文讨论的用户行为较为简单,于是,针对复杂室内环境下的用户运动路径建模和行为特征分析是本文的下一步研究工作。

  • 图  1  对称标签噪声及非对称标签噪声转移矩阵示意图

    图  2  方法整体架构

    图  3  ICP网络架构

    图  4  交互式特征融合

    图  5  非对称噪声转移矩阵设置

    图  6  对称噪声占比为20%时已训练模型输出嵌入的t-SNE可视化结果

    图  7  对称噪声占比为50%时已训练模型输出嵌入的t-SNE可视化结果

    图  8  干净和带噪声样本损失值变化情况

    图  9  干净和噪声标签样本损失分布情况

    1  信息分类处理网络

     输入:空中目标属性训练集D={X,Y}={(Xi,yi)}Ni=1;迭
     代次数T
     输出:空中目标属性嵌入集E={Ei}Ni=1
     (1) 构建BaseNet1, BaseNet2, BaseNet3
     (2) 令K1, K2, K3分别表示BaseNet1,BaseNet2, BaseNet3的支路网
     络数量
     (3) 初始化所有BaseNet的参数θ
     (4) epoch0
     (5) While epoch < T do
     (6)  for i = 1:N do
     (7)   for j = 1:3 do
     (8)    for k = 1:Kj do
     (9)     Eij,k=BaseNetj,k(Xi,j) //通过BaseNetjk个支
           路网络处理特征,获得基础特征
     (10)     if Kj≥2 do
     (11)      Eij,f=(Fusionj)Kj1(Eij,1,Eij,2,,Eij,Kj)
            //融合特征
     (12)     else do
     (13)      Eij,f=Eij,1
     (14)    end
     (15)   end
     (16)   Ei=Linear(CONCAT(Ei1,f,Ei2,f,Ei3,f))
     (17) end
     (18) epoch = epoch + 1
     (19) end
    下载: 导出CSV

    2  噪声标签下融合ICP编码器和多尺度鲁棒学习的意图识别模型学习范式

     输入:ICP编码器 [ICPA, ICPB, ICPC],分类器[ClassifierA, ClassifierB, ClassifierC],精细尺度目标属性序列XA,中等尺度目标属性序列
     XB,粗糙尺度目标属性序列XC
     输出:[ICPA, ICPB, ICPC]和[ClassifierA, ClassifierB, ClassifierC]
     (1) 获得单个尺度嵌入 rArBrC
       rA = ICPA(XA),rB = ICPB(XB),rC = ICPC(XC);
     (2) 获得跨尺度融合嵌入vA,vB,vC
        vA = rA,vB = 式(11)(rB, vA),vC = 式(11)(rC, vB);
     (3) 获得用于交叉学习训练的干净标签yA,yB,yC
       yA = ClassifierC(vC) //利用小损失标准;
       yB = ClassifierA(vA) //利用小损失标准;
       yC = ClassifierB(vB) //利用小损失标准;
     (4) 获得用于分类训练的修正标签 ycA,ycB,ycC
       ycA = SLPA(vA, yA),ycB = SLPA(vB, yB),ycC = SLPA(vC, yC);
     (5) 参数更新;
       计算交叉熵损失CrossEntropy(vA, yA &ycA)并更新ICP编码器 ICPA和分类器ClassifierA
       计算交叉熵损失CrossEntropy(vB, yB &ycB)并更新ICP编码器ICPB和分类器ClassifierB
       计算交叉熵损失CrossEntropy(vC, yC &ycC)并更新ICP编码器ICPC和分类器ClassifierC
    下载: 导出CSV

    表  1  基准方法对比实验结果(%)

    方法指标Sym, 20%Sym, 50%Asym, 40%
    CEAcc81.1568.1350.15
    M F180.3664.0548.56
    MixupAcc82.6672.8841.67
    M F182.2572.4042.18
    Mixup-BMMAcc80.1667.0355.26
    M F179.6366.6852.54
    Co-teachingAcc91.7875.6561.35
    M F191.6175.4661.22
    SIGUAAcc80.0874.9167.13
    M F179.7974.9866.37
    SREAAcc80.1667.4578.54
    M F178.9861.5177.51
    CTWAcc87.7880.3679.76
    M F187.6379.5379.36
    Sel-CLAcc78.1573.0168.52
    M F177.6971.2666.18
    本文Acc92.7784.0183.77
    M F192.9984.1183.72
    下载: 导出CSV

    表  2  编码器采用不同网络架构时的意图识别性能(%)

    网络架构指标Sym, 0%Sym, 20%
    FCLAcc89.2689.22
    M F189.2389.01
    FCNAcc92.6090.49
    M F192.5890.26
    GRUAcc91.2390.75
    M F191.3791.13
    1DCNN_BiLSTMAcc90.0690.50
    M F190.1690.44
    ICPAcc96.1392.77
    M F196.0092.99
    下载: 导出CSV

    表  3  消融实验结果(%)

    方法指标Sym, 20%Sym, 50%Asym, 40%
    本文Acc92.7784.0183.77
    M F192.9984.1183.72
    w/o cross-scale fusionAcc92.7173.0869.83
    M F192.8274.3464.48
    w/o downsamplingAcc91.4178.6168.15
    M F191.2877.7967.09
    w/o graph learningAcc91.0380.6481.46
    M F191.0980.4577.74
    replace SLPA with LPAAcc90.8683.2681.02
    M F190.5483.1080.47
    w/o momentum updateAcc91.7782.9574.28
    M F191.8882.4670.70
    w/o dynamic thresholdAcc93.1077.3978.91
    M F193.1776.4775.83
    下载: 导出CSV

    表  4  20%对称噪声标签占比下、不同尺度数目取值时的准确率(%)

    尺度数目 Acc
    2 0.904 4
    3 0.927 7
    4 0.903 2
    5 0.908 2
    下载: 导出CSV

    表  5  20%对称噪声标签占比下、不同动量更新增量取值时的准确率(%)

    动量更新增量 Acc
    0.99 0.911 2
    0.9 0.927 7
    0.75 0.903 2
    0.5 0.905 3
    下载: 导出CSV

    表  6  20%对称噪声标签占比下、不同最近邻数量取值时的准确率(%)

    最近邻数量 Acc
    5 0.911 1
    10 0.927 7
    15 0.913 6
    下载: 导出CSV

    表  7  20%对称标签占比下、SLPA中不同阈值取值时的准确率(%)

    SLPA中阈值 Acc
    0.5 0.921 1
    0.6 0.927 7
    0.7 0.910 5
    下载: 导出CSV

    表  8  20%对称噪声标签占比下、不同γ取值时的准确率(%)

    γ Acc
    0.99 0.927 7
    0.95 0.903 4
    0.9 0.901 1
    0.8 0.897 2
    下载: 导出CSV
  • [1] AHMED A A and MOHAMMED M F. SAIRF: A similarity approach for attack intention recognition using fuzzy min-max neural network[J]. Journal of Computational Science, 2018, 25: 467–473. doi: 10.1016/j.jocs.2017.09.007.
    [2] AKRIDGE C. On advanced template-based interpretation as applied to intention recognition in a strategic environment[D]. [Master dissertation], University of Central Florida, 2007.
    [3] GONZALEZ A J, GERBER W J, DEMARA R F, et al. Context-driven near-term intention recognition[J]. The Journal of Defense Modeling and Simulation, 2004, 1(3): 153–170. doi: 10.1177/875647930400100303.
    [4] CHARNIAK E and GOLDMAN R P. A Bayesian model of plan recognition[J]. Artificial Intelligence, 1993, 64(1): 53–79. doi: 10.1016/0004-3702(93)90060-O.
    [5] YU Quan, SONG Jinyu, YU Xiaohan, et al. To solve the problems of combat mission predictions based on multi-instance genetic fuzzy systems[J]. The Journal of Supercomputing, 2022, 78(12): 14626–14647. doi: 10.1007/s11227-022-04388-5.
    [6] SVENMARCKT P and DEKKER S. Decision support in fighter aircraft: From expert systems to cognitive modelling[J]. Behaviour & Information Technology, 2003, 22(3): 175–184. doi: 10.1080/0144929031000109755.
    [7] MENG Guanglei, ZHAO Runnan, WANG Biao, et al. Target tactical intention recognition in multiaircraft cooperative air combat[J]. International Journal of Aerospace Engineering, 2021, 2021: 9558838. doi: 10.1155/2021/9558838.
    [8] TRABOULSI A and BARBEAU M. Recognition of drone formation intentions using supervised machine learning[C]. Proceedings of 2019 International Conference on Computational Science and Computational Intelligence, Las Vegas, USA, 2019: 408–411. doi: 10.1109/CSCI49370.2019.00079.
    [9] 胡智勇, 刘华丽, 龚淑君, 等. 基于随机森林的目标意图识别[J]. 现代电子技术, 2022, 45(19): 1–8. doi: 10.16652/j.issn.1004-373x.2022.19.001.

    HU Zhiyong, LIU Huali, GONG Shujun, et al. Target intention recognition based on random forest[J]. Modern Electronics Technique, 2022, 45(19): 1–8. doi: 10.16652/j.issn.1004-373x.2022.19.001.
    [10] ZHANG Chenhao, ZHOU Yan, LI Hui, et al. Combat intention recognition of air targets based on 1DCNN-BiLSTM[J]. IEEE Access, 2023, 11: 134504–134516. doi: 10.1109/ACCESS.2023.3337640.
    [11] ZHANG Zhuo, WANG Hongfei, JIANG Wen, et al. A target intention recognition method based on information classification processing and information fusion[J]. Engineering Applications of Artificial Intelligence, 2024, 127: 107412. doi: 10.1016/j.engappai.2023.107412.
    [12] CHENG Cheng, LIU Xiaoyu, ZHOU Beitong, et al. Intelligent fault diagnosis with noisy labels via semisupervised learning on industrial time series[J]. IEEE Transactions on Industrial Informatics, 2023, 19(6): 7724–7732. doi: 10.1109/TII.2022.3229130.
    [13] ZHANG Hongyi, CISSÉ M, DAUPHIN Y N, et al. Mixup: Beyond empirical risk minimization[C]. Proceedings of the 6th International Conference on Learning Representations, Vancouver, Canada, 2018.
    [14] ARAZO E, ORTEGO D, ALBERT P, et al. Unsupervised label noise modeling and loss correction[C]. Proceedings of the 36th International Conference on Machine Learning, Long Beach, USA, 2019: 312–321.
    [15] HAN Bo, YAO Quanming, YU Xingrui, et al. Co-teaching: Robust training of deep neural networks with extremely noisy labels[C]. Proceedings of the 32nd International Conference on Neural Information Processing Systems, Montréal, Canada, 2018: 8536–8546.
    [16] HAN Bo, NIU Gang, YU Xingrui, et al. SIGUA: Forgetting may make learning with noisy labels more robust[C]. Proceedings of the 37th International Conference on Machine Learning, 2020: 4006–4016. (查阅网上资料, 未找到出版地信息, 请补充) .
    [17] CASTELLANI A, SCHMITT S, and HAMMER B. Estimating the electrical power output of industrial devices with end-to-end time-series classification in the presence of label noise[C]. Proceedings of European Conference on Machine Learning and Knowledge Discovery in Databases. Bilbao, Spain, 2021: 469–484. doi: 10.1007/978-3-030-86486-6_29.
    [18] LI Shikun, XIA Xiaobo, GE Shiming, et al. Selective-supervised contrastive learning with noisy labels[C]. Proceedings of 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition, New Orleans, USA, 2022: 316–325. doi: 10.1109/CVPR52688.2022.00041.
    [19] MA Peitian, LIU Zhen, ZHENG Junhao, et al. CTW: Confident time-warping for time-series label-noise learning[C]. Proceedings of the 32nd International Joint Conference on Artificial Intelligence, Macao, China, 2023: 4046–4054. doi: 10.24963/ijcai.2023/450.
    [20] 魏琦, 孙皓亮, 马玉玲, 等. 面向标签噪声的联合训练框架[J]. 中国科学: 信息科学, 2024, 54(1): 144–158. doi: 10.1360/SSI-2022-0395.

    WEI Qi, SUN Haoliang, MA Yuling, et al. A joint training framework for learning with noisy labels[J]. SCIENTIA SINICA Informationis, 2024, 54(1): 144–158. doi: 10.1360/SSI-2022-0395.
    [21] LIANG Xuefeng, LIU Xingyu, and YAO Longshan. Review–a survey of learning from noisy labels[J]. ECS Sensors Plus, 2022, 1(2): 021401. doi: 10.1149/2754-2726/ac75f5.
    [22] SHAN Yuxiang, LU Hailiang, and LOU Weidong. A hybrid attention and dilated convolution framework for entity and relation extraction and mining[J]. Scientific Reports, 2023, 13(1): 17062. doi: 10.1038/s41598-023-40474-1.
    [23] CHEN Wei and SHI Ke. Multi-scale attention convolutional neural network for time series classification[J]. Neural Networks, 2021, 136: 126–140. doi: 10.1016/j.neunet.2021.01.001.
    [24] ZHANG Yitian, MA Liheng, PAL S, et al. Multi-resolution time-series transformer for long-term forecasting[C]. Proceedings of the 27th International Conference on Artificial Intelligence and Statistics, Valencia, Spain, 2024: 4222–4230.
    [25] BISCHOF B and BUNCH E. Geometric feature performance under downsampling for EEG classification tasks[J]. arXiv: 2102.07669, 2021. doi: 10.48550/arXiv.2102.07669. (查阅网上资料,未能确认文献类型,请确认) .
    [26] LI Junnan, WONG Yongkang, ZHAO Qi, et al. Learning to learn from noisy labeled data[C]. Proceedings of the 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 5046–5054. doi: 10.1109/CVPR.2019.00519.
    [27] XIA Xiaobo, LIU Tongliang, HAN Bo, et al. Sample selection with uncertainty of losses for learning with noisy labels[C]. Proceedings of the Tenth International Conference on Learning Representations, 2022. (查阅网上资料, 未找到出版地信息, 请补充) .
    [28] GUI Xianjin, WANG Wei, and TIAN Zhanghao. Towards understanding deep learning from noisy labels with small-loss criterion[C]. Proceedings of the Thirtieth International Joint Conference on Artificial Intelligence, Montreal, Canada, 2021: 2469–2475.
    [29] 王晓莉, 薛丽. 标签噪声学习算法综述[J]. 计算机系统应用, 2021, 30(1): 10–18. doi: 10.15888/j.cnki.csa.007776.

    WANG Xiaoli and XUE Li. Review on label noise learning algorithms[J]. Computer Systems & Applications, 2021, 30(1): 10–18. doi: 10.15888/j.cnki.csa.007776.
    [30] 崔瑞博, 王峰. 动量更新与重构约束的限制视角下3D物品识别[J]. 华东师范大学学报(自然科学版), 2023(6): 61–72. doi: 10.3969/j.issn.1000-5641.2023.06.006.

    CUI Ruibo and WANG Feng. Momentum-updated representation with reconstruction constraint for limited-view 3D object recognition[J]. Journal of East China Normal University (Natural Science), 2023(6): 61–72. doi: 10.3969/j.issn.1000-5641.2023.06.006.
    [31] 邓琨, 李文平, 陈丽, 等. 一种新的基于标签传播的复杂网络重叠社区识别算法[J]. 控制与决策, 2020, 35(11): 2733–2742. doi: 10.13195/j.kzyjc.2019.0176.

    DENG Kun, LI Wenping, CHEN Li, et al. A novel algorithm for overlapping community detection based on label propagation in complex networks[J]. Control and Decision, 2020, 35(11): 2733–2742. doi: 10.13195/j.kzyjc.2019.0176.
    [32] XIE Jierui, SZYMANSKI B K, and LIU Xiaoming. SLPA: Uncovering overlapping communities in social networks via a speaker-listener interaction dynamic process[C]. Proceedings of the 2011 IEEE 11th International Conference on Data Mining Workshops, Vancouver, Canada, 2011: 344–349. doi: 10.1109/ICDMW.2011.154.
    [33] ZHANG Bowen, WANG Yidong, HOU Wenxin, et al. FlexMatch: Boosting semi-supervised learning with curriculum pseudo labeling[C]. Proceedings of the 35th International Conference on Neural Information Processing Systems, Red Hook, USA, 2024: 1407. (查阅网上资料, 未能确认出版地信息, 请确认) .
    [34] SONG Zihao, ZHOU Yan, CHENG Wei, et al. Robust air target intention recognition based on weight self-learning parallel time-channel transformer encoder[J]. IEEE Access, 2023, 11: 144760–144777. doi: 10.1109/ACCESS.2023.3341154.
    [35] WANG Jingdong, WANG Fei, ZHANG Changshui, et al. Linear neighborhood propagation and its applications[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(9): 1600–1615. doi: 10.1109/TPAMI.2008.216.
    [36] WANG Zhiguang, YAN Weizhong, and OATES T. Time series classification from scratch with deep neural networks: A strong baseline[C]. Proceedings of 2017 International Joint Conference on Neural Networks, Anchorage, USA, 2017: 1578–1585. doi: 10.1109/IJCNN.2017.7966039.
  • 期刊类型引用(2)

    1. 郭红霞,李强,张冰琦,于溪. 2000—2020年安徽省耕地转化与粮食高产—稳产的时空关系. 中国农业信息. 2024(04): 95-110 . 百度学术
    2. 陈孟元,徐明辉. 基于自组织可增长映射的移动机器人仿生定位算法研究. 电子与信息学报. 2021(04): 1003-1013 . 本站查看

    其他类型引用(2)

  • 加载中
图(9) / 表(10)
计量
  • 文章访问数:  56
  • HTML全文浏览量:  22
  • PDF下载量:  9
  • 被引次数: 4
出版历程
  • 收稿日期:  2024-12-05
  • 修回日期:  2025-03-28
  • 网络出版日期:  2025-03-28

目录

/

返回文章
返回