高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于联合动态稀疏表示的开集距离像目标识别方法

刘盛启 张会强 滕书华 瞿爽 吴中杰

周莉, 张歆茗, 郭伟震, 王琰. 基于改进冲突度量的多证据直接融合算法[J]. 电子与信息学报, 2019, 41(5): 1145-1151. doi: 10.11999/JEIT180578
引用本文: 刘盛启, 张会强, 滕书华, 瞿爽, 吴中杰. 基于联合动态稀疏表示的开集距离像目标识别方法[J]. 电子与信息学报, 2023, 45(11): 4101-4109. doi: 10.11999/JEIT221284
Li ZHOU, Xinming ZHANG, Weizhen GUO, Yan WANG. A Direct Fusion Algorithm for Multiple Pieces of Evidence Based on Improved Conflict Measure[J]. Journal of Electronics & Information Technology, 2019, 41(5): 1145-1151. doi: 10.11999/JEIT180578
Citation: LIU Shengqi, ZHANG Huiqiang, TENG Shuhua, QU Shuang, WU Zhongjie. Open-set HRRP Target Recognition Method Based on Joint Dynamic Sparse Representation[J]. Journal of Electronics & Information Technology, 2023, 45(11): 4101-4109. doi: 10.11999/JEIT221284

基于联合动态稀疏表示的开集距离像目标识别方法

doi: 10.11999/JEIT221284
基金项目: 国家自然科学基金(62001486, 62201587),湖南省自然科学基金(2023JJ0185),湖南省教育厅科学研究重点项目(22A0640)
详细信息
    作者简介:

    刘盛启:男,副研究员,研究方向为雷达目标识别与跟踪

    张会强:男,博士,研究方向为雷达信号处理、自动目标识别

    滕书华:男,副教授,研究方向为雷达信号处理

    瞿爽:男,硕士,研究方向为雷达信号处理

    吴中杰:男,讲师,研究方向为认知雷达、雷达目标特性与识别等

    通讯作者:

    刘盛启  SQLiu@nudt.edu.cn

  • 中图分类号: TN959.1+7

Open-set HRRP Target Recognition Method Based on Joint Dynamic Sparse Representation

Funds: The National Natural Science Foundation of China (62001486, 62201587), Hunan Provincial Natural Science Foundation Project (2023JJ0185), The Key Scientific Research Project of Hunan Provincial Department of Education (22A0640)
  • 摘要: 针对开集条件下多视高分辨距离像(HRRP)目标识别问题,提出了一种基于联合动态稀疏表示(JDSR)的开集识别方法。该方法利用JDSR求解多视HRRP在过完备字典上的重构误差,采用极值理论(EVT)对匹配和非匹配类别的重构误差拖尾进行建模,将开集识别问题转化为假设检验问题求解。识别时利用重构误差确定候选类,根据尾部分布的置信度获得匹配类与非匹配类得分,并将两者的加权和作为类别判据最终确定库外目标或候选类。该方法能够有效利用多视观测来自相同目标的先验信息提高开集条件下的HRRP识别性能,并且对多视数据不同的获取场景具有良好的适应性。利用从MSTAR反演生成的HRRP数据对算法进行了测试,结果表明所提方法的性能优于主流开集识别方法。
  • 证据理论(Dempster-Shafter theory, D-S theory)因其灵便的数据处理方式,近年来被广泛应用于目标辨识,故障诊断以及决策分析等领域[15]。但由于证据理论中的Dempster证据组合规则未对冲突数据加以有效利用,导致其不能准确处理高冲突证据。为此,学者们提出众多改进策略,包括预先处理原始证据[613]和改进组合算法模型或证据合成规则[1416],而各种改进策略的重点均是先要实现对证据冲突程度的准确衡量[1720],否则后续的证据融合工作也就失去了意义。

    研究显示,Dempster组合规则中的冲突系数k,不能有效度量概率分配值较分散的一致或近似一致证据之间的冲突,也不能准确刻画含有非单子集焦元证据之间的不一致性;Jousselme证据距离函数在对概率赋值较分散的冲突证据进行冲突度量时,其度量结果会出现不同程度的偏低;彭颖等人[17]基于证据模值的大小对Jousselme证据距离函数进行改进,但仍未较好解决Jousselme证据距离函数不能较好刻画证据之间局部冲突情况的问题;毛艺帆等人[18]提出利用证据之间的非重合度衡量证据之间的冲突,但该度量参数仅仅根据证据之间的非重合概率赋值来描述证据之间的冲突,不能从全局范围对证据之间的不一致性进行整体描述,其冲突度量结果通常偏低。另有一些其他冲突度量函数,如信息熵[12]、不确定度[19]以及各种相似性度量函数[20]等也均存在某些方面的不足。为发挥不同冲突度量参数的性能优势,克服其不足,本文对Jousselme距离函数、冲突系数和非重合度3个冲突度量参数进行优化组合利用,给出改进的融合冲突度量函数。在此基础上,对各焦元冲突分配系数进行改进和优化,在不同程度上提高了多维冲突信息的再分配精度。

    Θ={θ1,θ2,···,θN}是一辨识框架,2Θ表示Θ的幂集,其中含有2N个元素,他们构成命题集合。m:2Θ[0,1],满足:(1) m()=0; (2) A2Θm(A)=1。称m(A)为命题A的基本概率分配,若m(A)>0,称A为焦元,m(A)刻画了证据mA所描述事件的认可程度。

    mj(j=1,2,···,J)J个彼此独立的证据,则J个证据合成的Dempster组合规则定义为

    m(X)={AiAj···Al=X[m1(Ai)m2(Aj)···mJ(Al)]1k,X0,X=

    (1)

    其中,

    k=AiAj···Al=[m1(Ai)m2(Bj)···mJ(Al)]
    (2)

    当Dempster组合规则中的不一致因子k接近于1时,其证据合成结果会出现与真实情况相矛盾的结论,称为融合悖论[5]。其原因是在k值接近于1时,式(1)中分子与分母的取值都很小,其比值很容易随某个焦元赋值的微小变化出现识别结果的根本性改变。即当证据之间存在的一致性信息太少时,Dempster组合规则会由于信息缺乏导致证据合成结果出错。

    由于信息冲突原因和形成形式的多样性和复杂性,单一的冲突度量参数通常不能够全面描述冲突证据的多方面特性,致使冲突度量结果不准确。目前尚未找到一种能对各种类型冲突证据均进行有效冲突度量的全能参数。因此,有必要考虑对已有性能较好的冲突度量参数进行综合优化利用,以发挥不同冲突度量参数的特长,克服其不足,达到从全方位、多角度对证据冲突程度进行描述和度量的目的。

    证据冲突度量结果的准确性,对证据融合效果起着关键性的作用,在能够确保冲突度量结果十分准确的情况下,可考虑采用证据预处理算法对冲突证据进行修正后合成,即采用文献[10]的算法思路,在对证据源进行冲突衡量的基础上,对加权证据进行一定次数的重复融合,得到最终结果,但该类算法的目标识别结论实际上由冲突度量结果完全确定。如果对证据的冲突度量结果的准确性没有十足的把握,则应考虑在对证据进行冲突度量的基础上,对局部冲突实行按比例分配,以达到对证据冲突度量误差进行修正,提高证据融合结果可靠性的目的。曹洁等人[16]在利用Jousselme证据距离对证据权系数进行计算的基础上,对两两证据组合过程中形成的诸多形如AB的2维冲突组合所含不一致信息进行重新按比例分配,该算法的不足之一是其只采用Jousselme证据距离对冲突证据进行冲突度量,结果不够准确;不足之二是其未对证据融合次序进行优化,算法结果欠稳定。对不足之一的改进措施即是要改进证据冲突度量算法;而对不足之二的改进思路一是优化证据融合次序,二是提高局部冲突分配过程中参与直接融合证据的个数。很显然,采用后者可以更充分利用多维冲突组合所含有用信息,减少证据组合次序的影响,提高冲突证据融合结果的可靠性。为此,本文给出基于改进冲突度量的多证据直接融合算法。

    首先,针对Jousselme证据距离函数随证据中各焦元概率赋值分散程度的增大对证据的冲突度量结果偏低的不足,给出新改进的Jousselme证据距离函数如式(3)

    dNIJ(mi,mj)=(mimj)TD(mimj)+γnc(mi,mj)2+γnc(mi,mj),i,j=1,2,···,J
    (3)

    其中,D(A,B)=|AB|/|AB|, ||为求模运算,γ[0,+)为可调参数,nc是两证据之间的非重合度,其定义如式(4)

    nc=1c(mi,mj),i,j=1,2,···,J
    (4)

    其中,

    c(mi,mj)=2Nk=1min(mi(Ak),mj(Ak))
    (5)

    这里,N是识别框架中命题的个数,式(5)表示两条证据mimj对各命题的共同认可程度的总和。

    根据式(3),如果证据mimj之间的非重合度nc取值较大,说明两条证据之间的冲突程度较高,此时应考虑增大可调参数γ的取值。根据大量实验可知:(1)当0.6<nc1.0时,可取γ(4,8],对于高冲突证据,通常取γ=8,当取γ>8时,其对应冲突度量结果会有一定的增大,但增大的幅度较小;(2)当0.1<nc0.6时,取γ(0,4];(3)若0nc0.1,说明证据之间的冲突程度较小,可令γ=0,此时,式(3)退变为Jousselme证据距离函数。

    考虑到在一般情况下,冲突系数k能够较好刻画证据之间的局部冲突情况,为此,基于冲突系数k和新改进的Jousselme证据距离函数共同构建改进的融合冲突度量函数如式(6)

    df(mi,mj)=1[(1k)δ(1(mimj)TD(mimj)+γnc(mi,mj)2+γnc(mi,mj))]1/2,i,j=1,2,···,J
    (6)

    γ=0,式(6)退变为

    df(mi,mj)=1[(1k)δ(1(mimj)TD(mimj)2)]1/2,i,j=1,2,···,J
    (7)

    其中,δ为二值示性函数,对不含有非单子集焦元的冲突证据进行冲突度量时,取δ=1;否则,取δ=0

    即当证据之间冲突程度不是很高,且不含非单子集焦元证据时,可采用式(7)对证据进行融合冲突度量。这是由于在对概率分配较分散的相同或相似程度较高的两条证据进行冲突度量时,k的冲突度量值会偏高,而此时基于Jousselme证据距离函数的冲突度量值偏低,因此式(7)中采用对基于两个冲突度量参数的相似性度量函数进行相乘的方式,恰好可以避免不一致因子k和Jousselme证据距离函数存在的不足;且对上述两个冲突度量参数进行如式(6)和式(7)所示的组合利用,可以从局部冲突和整体不一致性两方面刻画证据之间的冲突程度,起到较好发挥各冲突度量参数的特长,避免其不足的作用。

    本节考虑在对证据进行改进冲突度量的基础上,对焦元冲突分配系数进行优化,以提高局部多维冲突信息按比例分配的精度。

    改进的多证据直接融合算法步骤如下:

    步骤 1 基于式(6)或式(7)计算证据mimj之间的相似度函数如式(8)

    fij=1df(mi,mj),i,j=1,2,···,J
    (8)

    则证据mi基于改进冲突度量的权系数(可信度)可表示为

    c(mi)=e(mi)Jj=1e(mj),i,j=1,2,···,J
    (9)

    其中,

    e(mi)=Jj=1fij,i,j=1,2,···,J
    (10)

    步骤 2 J条证据的加权证据mw可描述为

    mw(Ak)=Ji=1c(mi)mi(Ak),i,j=1,2,···,J;k=1,2,···,N
    (11)

    其中,N为证据中焦元的个数;

    步骤 3 从证据mi中焦元Ak的概率赋值mi(Ak)与其加权均值mw(Ak)的相似性程度和可靠性两方面考虑,将证据mi中焦元Ak的支持度描述为

    s1[mi(Ak)]=s1g[mi(Ak)]s1l[mi(Ak)]Jj=1s1g[mj(Ak)]Jj=1s1l[mj(Ak)],i,j=1,2,···,J
    (12)

    其中,

    s1g[mi(Ak)]=2mi(Ak)mw(Ak)[mi(Ak)]2+[mw(Ak)]2
    (13)
    s1l[mi(Ak)]={0,mi(Ak)>2mw(Ak)mi(Ak)/mw(Ak),mi(Ak)mw(Ak)1dw[mi(Ak)]/mw(Ak), 

    (14)

    dw[mi(Ak)]=|mi(Ak)mw(Ak)|
    (15)

    其中,s1g[mi(Ak)]的不足是其对相差较大的两个数值的相似度的度量结果偏高,但其能够区分对mi(Ak)mw(Ak)具有相同的距离差的两组值可信程度的高低,即其对取值较高的一组值的相似性度量结果较高,而这是s1l[mi(Ak)]所不具有的,但s1l[mi(Ak)]能够较好区分两个值之间的差距大小。因此二者综合利用,可以较好地描述考虑加权均值mw(Ak)的证据mi中焦元Ak的支持度。

    另外,从mi中焦元Ak被其他证据中同一焦元的支持的度量方面考虑,对证据mi中焦元Ak的支持度又可描述为

    s2[mi(Ak)]=Jj=1[1|mi(Ak)mj(Ak)|]Ji=1Jj=1[1|mi(Ak)mj(Ak)|],i,j=1,2,···,J
    (16)

    故综合考虑上述两方面因素,mi中焦元Ak的信任度可以描述为

    $$ {s^f}[{m_i}({A_k})] = \frac{{s[{m_i}({A_k})]}}{{\displaystyle\sum\limits_{i = 1}^J {s[{m_i}({A_k})]} }} $ 其中,$ (17)
    s[mi(Ak)]=s1[mi(Ak)]s2[mi(Ak)]Ji=1s1[mi(Ak)]Ji=1s2[mi(Ak)]
    (18)

    因此,mi中焦元Ak的冲突分配系数可描述为

    λ[mi(Ak)]=c(mi)sf[mi(Ak)]Ji=1Nk=1c(mi)sf[mi(Ak)],i=1,2,···,J;k=1,2,···,N
    (19)

    步骤 4  故在形如(rAi,Ai,···,Ai,Aj,Aj,Ak,···,Ah)J维冲突组合中,焦元Ai, Aj应占冲突分配比例分别为

    ω(Ai)=1Sru=1λ[mu(Ai)]mu(Ai)
    (20)
    ω(Aj)=1Sr+2v=r+1λ[mv(Aj)]mv(Aj)
    (21)

    其中,

    S=ru=1λ[mu(Ai)]mu(Ai)+r+2v=r+1λ[mv(Aj)]mv(Aj)+···+λ[mJ(Ah)]mJ(Ah)
    (22)

    类似可计算得到任意其它组成形式的多维冲突组合中某一焦元在冲突分配中所占比例;

    步骤 5 基于改进融合冲突度量的多证据直接融合算法可描述为

    m(X)=Jj=1Aj=XJj=1mj(Aj)+AjX=Xω(Aj)η
    (23)

    其中,Aj表示来自第j个证据中的焦元;式(23)中第1项求和号中的表达式表示当某一J维冲突组合中来自各不同证据的焦元有相同的公共部分X时对X的信度赋值;第2项求和号中的表达式表示某J维冲突组合中来自J个不同证据的焦元中仅有部分焦元含有X时对X的信度赋值,ω(Aj)表示某一J维冲突组合中焦元Aj在冲突信息按比例分配中的权重,η表示对应J维冲突组合的概率赋值。

    为验证本文所提冲突度量和证据融合算法的有效性,以下给出本文所提新算法与相关算法的算例及仿真应用效果比较与分析。

    例1 目标识别框架Θ={A,B,C},在下面两种情况下,讨论证据之间的冲突情况。

    情况1:

    m1(A)=0.20,m1(B)=0.10,m1(C)=0.70m2(A)=0.65,m2(B)=0.10,m2(C)=0.25

    情况2:

    m1(A)=0.00,m1(B)=1.00,m1(C)=0.00m2(A)=0.75,m2(B)=0.10,m2(C)=0.15

    解 基于不同参数的冲突度量结果如表1表2所示。

    表 1  不同参数对情况1中证据的冲突度量结果
    冲突度量参数m1m1m2m2m1m2
    dJ000.4500
    k0.46000.50500.6850
    nc000.4500
    dPJ000.6255
    dNIJ(γ=4)000.7618
    df(γ=4)0.26520.29640.7241
    下载: 导出CSV 
    | 显示表格
    表 2  不同参数对情况2中证据的冲突度量结果
    冲突度量参数m1m1m2m2m1m2
    dJ000.8352
    k00.40500.9000
    nc000.9000
    dPJ000.9352
    dNIJ(γ=8)000.9886
    df(γ=8)00.22870.9662
    下载: 导出CSV 
    | 显示表格

    表1表2中,dPJ表示文献[17]所提改进冲突度量函数。观察情况1中的两个证据可知,两证据的概率赋值相对分散,总体冲突程度相对较大。其中,Jousselme证据距离函数和非重合度对两条证据的冲突度量结果均为0.45,明显偏低。文献[17]所提改进算法的冲突度量结果为0.6255,低于冲突系数取值0.6850,而从一致性因子的组成1k=0.13+0.01+0.175来看,其概率赋值的一致性程度并不高,可知不一致因子的取值0.6850是偏低的。基于本文式(7)计算情况1中两证据的冲突度量结果为0.7241,结合情况1中证据概率赋值情况可以看出,该值较好刻画了两个证据之间的真实冲突状况。

    情况2中的两个证据明显属于高冲突情况,由表2可知,冲突系数和非重合度仅根据局部冲突情况确定证据之间的冲突为0.9,从整体冲突状况来看偏低。Jousselme证据距离函数的冲突度量结果0.8352也显然低于两个证据之间的实际冲突程度。从情况2两证据间的总体冲突情况分析,本文新改进冲突度量函数的冲突度量结果0.9662,综合体现了两个证据之间的局部和整体冲突状况。

    例2 我方空中观测平台用7部探测雷达对某一空域中3部飞行器机型进行辨别,Θ={A,B,C},这里A为军用侦察机,BC均为民用货机。飞行器A,B,C分别以均速1000 m/s在距我方观测平台100 km处相对飞行。雷达1,雷达2判断A,B,C为军用侦察机的信度分别恒定为0.43, 0.47, 0.10和0.01, 0.49, 0.50;雷达3—雷达7在100 km以及10 km处对侦察机机型进行正确辨别的信度分别为0.25和0.70,在10~100 km之间对飞行器A机型的判别准确程度和敌我飞行器之间间隔距离成反比;在无严重干扰场合,雷达3—雷达7判别飞行器B为侦察机的信度均为0.20。在观测平台与对方飞行器间隔20~30 m阶段,雷达6和雷达7受到严重干扰,准确辨别A,B飞行目标机型的可能性为0。

    采用本文所提新算法和相关算法,在上述仿真场合下的实验结果如图1图2所示。

    图 1  不同算法判断A为侦察机的概率
    图 2  不同算法判断B为侦察机的概率

    图1图2中,本文NA1和本文NA2分别指采用式(7)和式(8)计算证据冲突的基于改进焦元冲突分配系数的多证据直接融合算法,直接乘法(DM)是指采用式(10)计算证据权系数,而采用文献[16]算法计算焦元冲突分配系数的直接融合算法。由图1图2可以看出,在无严重干扰阶段,文献[10]算法(L[10])和文献[11]算法(L[11])的目标识别效果分别优于DM算法以及本文NA1和本文NA2两种新算法,其原因是前述两种算法均借助Dempster组合规则对加权证据进行自身组合,实现向加权证据所辨别目标的快速聚焦。由2.3节的分析可知,在对高冲突证据进行融合时,前述两种算法均存在稳定性差的缺点。Dempster组合规则(D-S)只能在冲突程度不高时正确辨别出目标,在严重干扰场合,D-S和L[10]以及L[11]均没能正确辨识出目标,对比图1图2可知,此时DM算法也只是勉强识别出目标,但其正确目标识别概率分别远远低于本文所提两种新算法的对应结果。与NA2相比,NA1的正确目标辨识概率高出约0.16个点,而NA2又比DM算法高出约0.15个点。

    本文从发挥不同冲突度量参数特长,克服其缺陷与不足的角度出发构建改进的融合冲突度量函数,避免了一般单参数冲突度量函数随证据之间冲突程度的增大对应冲突度量值偏低的不足。与冲突系数k相比,基于新改进Jousselme证据距离函数和冲突系数k共同计算证据及焦元权系数的改进冲突度量算法避免了其对概率赋值较分散的相同或相似证据的冲突度量结果偏高的不足。由仿真实验结果可以看出,与对冲突证据的各种预处理算法相比,本文所提基于改进冲突度量算法的直接融合算法具有较好的稳定性和较强的抗干扰性;与原有直接融合算法相比,新算法不论在非干扰场合还是在严重干扰场合下,其正确目标识别概率均得到较大幅度的提升。如何进一步提高新改进冲突度量算法的证据冲突度量精度,并相应提高多证据直接融合算法的计算效率仍需进行更深入的探讨与研究。

  • 图  1  JDSR-OSR算法流程图

    图  2  部分拖尾分布示意图

    图  3  库内样本及库外样本重构误差对比

    图  4  SAR反演HRRP数据流程图

    图  5  不同开放程度下的实验结果(Situation-Ⅰ)

    图  6  不同开放程度下的实验结果(Situation-Ⅱ)

    图  7  两场景实验结果对比

    算法1 重构误差拟合及参数估计流程
     1. 输入:训练阶段重构误差 R=[R1,R2,,Rc]
     2. 匹配类重构误差 Rmc=R(:,c),非匹配类重构误差: Rnmc=i:icR(:,i)
     3. 对重构误差排序: Rc=[rc1,rc2,,rcNc]T,rc1rc2rcNc
     4. 选取匹配类重构误差右拖尾 ρmc=[rmc(Ncρ),rmc(Ncρ+1),,rmcNc],非匹配类重构误差左拖尾 ρnmc=[rnmc1,rnmc2,,rnmc(Ncρ)]
     5. 选取匹配类门限值 tmc=rmc(Ncρ1),非匹配类门限值 tnmc=rnmc(Ncρ+1)
     6. 匹配类溢额值 Xmc=[rmc(Ncρ)tmc,rmc(Ncρ+1)tmc,,rmcNctmc],非匹配类溢额值
      Xnmc=[rnmc1tnmc,rnmc2tnmc,,rnmc(Ncρ)tnmc]
     7. 估计极值参数 lgL(σm,γm)=Nclgσ(1γ+1)Nci=1lg(1+γXmcσ)
      lgL(σnm,γnm)=Nclgσ(1γ+1)Nci=1lg(1+γXnmcσ)
     8. 输出参数 ˆσm,ˆγm,ˆσnm,ˆγnm
    下载: 导出CSV
    算法2 JDSR-OSR训练算法
     1 输入:训练样本 Ytr=[Y1,Y2,,YC],标签集
      Ltr=[L1,L2,,LC],字典矩阵 D,稀疏度K,多视数目n
     尾部大小 ρ
     2 训练样本划分为多视数据 Y11=[y11,y12,,y1(1+n)],
      L11=[l1,l12,,l1(1+n)], ···,
      Yci=[yci,yc(i+1),,yc(i+n)],
      Lci=[lci, lc(i +1), ··· , lc(i +n)]
     3 计算重构误差 RJDSR(Y,l,D,K)
     4 匹配类重构误差: Rmc=R(:,c);非匹配类重构误差:
      Rnmc=i:icR(:,i)
     5 拟合尾部极值参数: GPDfit(Rmc,ρ)ˆσmc,ˆγmc
      GPDfit(Rnmc,ρ)ˆσnmc,ˆγnmc
     6 输出极值参数 ˆσmc,ˆγmc,ˆσnmc,ˆγnmc
    下载: 导出CSV
    算法3 JDSR-OSR分类方法
     1 输入:多视数据 Yj, D, k, ˆσm,ˆγm,ˆσnm,ˆγnm, δg, w
     2 计算重构误差 RJDSR(Yj,D,K)
     3 得到候选类别 c=argminiRi
     4  rm=Rmc,rnm=icRi
     5  scorem=G(rm;ˆσm(c),ˆγm(c)),scorenm=G(rnm;ˆσnm(c),ˆγnm(c))
     6  score=scorem+wscorenm
    ifscore>δgYjopensetelseClassYj=c
     7 输出 Yj类别
    下载: 导出CSV

    表  1  Situation-Ⅰ JDSR-OSR的混淆矩阵

    类别 BMP2 BTR70 T72 未知新类
    BMP2 0.712 0.088 0.060 0.140
    BTR70 0.066 0.827 0.025 0.082
    T72 0.030 0.007 0.825 0.138
    BTR60 0.048 0.124 0.027 0.801
    2S1 0.045 0.086 0.131 0.738
    BRDM2 0.134 0.076 0.038 0.752
    D7 0.011 0.010 0.080 0.899
    T62 0.003 0 0.121 0.876
    ZIL 0 0 0.051 0.949
    ZSU 0 0 0.096 0.904
    下载: 导出CSV

    表  2  Situation-Ⅱ JDSR-OSR的混淆矩阵

    类别 BMP2 BTR70 T72 未知新类
    BMP2 0.735 0.056 0.019 0.190
    BTR70 0.020 0.910 0.022 0.048
    T72 0.005 0 0.960 0.035
    BTR60 0.019 0.042 0.039 0.900
    2S1 0.016 0.056 0.045 0.883
    BRDM2 0.066 0.018 0 0.916
    D7 0 0.002 0.247 0.751
    T62 0 0 0.403 0.597
    ZIL 0 0 0.177 0.823
    ZSU 0 0 0.318 0.682
    下载: 导出CSV

    表  3  JDSR-OSR与其他方法平均识别率的对比结果

    方法 Situation-Ⅰ Situation-Ⅱ
    JDSR-OSR 0.832 0.816
    SR-OSR 0.809 0.732
    W-SVM 0.786 0.687
    1-vs-set 0.794 0.709
    KLD-RPA 0.813 0.752
    下载: 导出CSV

    表  4  不同测试类别下的算法运行时间对比(s)

    测试类别数 SR-OSR JDSR-OSR
    4 16.585 15.637
    5 18.875 18.400
    6 19.765 20.937
    7 22.520 23.584
    8 24.150 26.731
    9 25.640 29.815
    10 30.015 032.076
    下载: 导出CSV
  • [1] 付哲泉, 李尚生, 李相平, 等. 基于高效可扩展改进残差结构神经网络的舰船目标识别技术[J]. 电子与信息学报, 2020, 42(12): 3005–3012. doi: 10.11999/JEIT190913

    FU Zhequan, LI Shangsheng, LI Xiangping, et al. Ship target recognition based on highly efficient scalable improved residual structure neural network[J]. Journal of Electronics & Information Technology, 2020, 42(12): 3005–3012. doi: 10.11999/JEIT190913
    [2] 贺丰收, 何友, 刘准钆, 等. 卷积神经网络在雷达自动目标识别中的研究进展[J]. 电子与信息学报, 2020, 42(1): 119–131. doi: 10.11999/JEIT180899

    HE Fengshou, HE You, LIU Zhunga, et al. Research and development on applications of convolutional neural networks of radar automatic target recognition[J]. Journal of Electronics & Information Technology, 2020, 42(1): 119–131. doi: 10.11999/JEIT180899
    [3] GÖRNITZ N, LIMA L A, MÜLLER K R, et al. Support vector data descriptions and k-means clustering: One class?[J]. IEEE Transactions on Neural Networks and Learning Systems, 2018, 29(9): 3994–4006. doi: 10.1109/TNNLS.2017.2737941
    [4] PÉREZ G J, SANTIBÁÑEZ M, VALDOVINOS R M, et al. On-line learning with reject option[J]. IEEE Latin America Transactions, 2018, 16(1): 279–286. doi: 10.1109/TLA.2018.8291485
    [5] GEIFMAN Y and EL-YANIV R. Selective classification for deep neural networks[C]. Proceedings of the 31st International Conference on Neural Information Processing Systems, Long Beach, USA, 2017: 4885–4894.
    [6] SCHEIRER W J, DE REZENDE ROCHA A, SAPKOTA A, et al. Toward open set recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(7): 1757–1772. doi: 10.1109/TPAMI.2012.256
    [7] SCHEIRER W J, JAIN L P, and BOULT T E. Probability models for open set recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(11): 2317–2324. doi: 10.1109/TPAMI.2014.2321392
    [8] JAIN L P, SCHEIRER W J, and BOULT T E. Multi-class open set recognition using probability of inclusion[C]. Proceedings of the 13th European Conference on Computer Vision, Zurich, Switzerland, 2014: 393–409. doi: 10.1007/978-3-319-10578-9_26.
    [9] ZHANG He and PATEL V M. Sparse representation-based open set recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(8): 1690–1696. doi: 10.1109/TPAMI.2016.2613924
    [10] BENDALE A and BOULT T. Towards open world recognition[C]. Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 1893–1902. doi: 10.1109/CVPR.2015.7298799.
    [11] SADHUKHAN P. Can reverse nearest neighbors perceive unknowns?[J]. IEEE Access, 2020, 8: 6316–6343. doi: 10.1109/ACCESS.2019.2963471
    [12] SHU Lei, XU Hu, and LIU Bing. DOC: Deep open classification of text documents[C]. Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, Copenhagen, Denmark, 2017: 2911–2916. doi: 10.18653/v1/D17-1314.
    [13] OZA P and PATEL V M. C2AE: Class conditioned auto-encoder for open-set recognition[C]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, USA, 2019: 2302–2311. doi: 10.1109/CVPR.2019.00241.
    [14] ZENG Zhiqiang, SUN Jinping, XU Congan, et al. Unknown SAR target identification method based on feature extraction network and KLD–RPA joint discrimination[J]. Remote Sensing, 2021, 13(15): 2901. doi: 10.3390/rs13152901
    [15] RUDD E M, JAIN L P, SCHEIRER W J, et al. The extreme value machine[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(3): 762–768. doi: 10.1109/TPAMI.2017.2707495
    [16] PAPPADÀ R, PERRONE E, DURANTE F, et al. Spin-off extreme value and Archimedean copulas for estimating the bivariate structural risk[J]. Stochastic Environmental Research and Risk Assessment, 2016, 30(1): 327–342. doi: 10.1007/s00477-015-1103-8
    [17] FALK M and STUPFLER G. An offspring of multivariate extreme value theory: The max-characteristic function[J]. Journal of Multivariate Analysis, 2017, 154: 85–95. doi: 10.1016/j.jmva.2016.10.007
    [18] 刘盛启. 基于高分辨距离像的特征提取与识别增强技术研究[D]. [博士论文], 国防科学技术大学, 2016.

    LIU Shengqi. Research on feature extraction and recognition performance enhancement algorithms based on high range resolution profile[D]. [Ph. D. dissertation], National University of Defense Technology, 2016.
    [19] AL-LABADI L and ZAREPOUR M. Two-sample Kolmogorov-Smirnov test using a Bayesian nonparametric approach[J]. Mathematical Methods of Statistics, 2017, 26(3): 212–225. doi: 10.3103/S1066530717030048
    [20] 刘振. 基于稀疏表示的图像分类若干新方法研究[D]. [博士论文], 江南大学, 2021. doi: 10.27169/d.cnki.gwqgu.2021.001957.

    LIU Zhen. Research on new methods of image classification via sparse representation[D]. [Ph. D. dissertation], Jiangnan University, 2021. doi: 10.27169/d.cnki.gwqgu.2021.001957.
    [21] 缪吴霞. SAR图像回波反演及典型目标特征提取方法研究[D]. [硕士论文], 哈尔滨工业大学, 2019. doi: 10.27061/d.cnki.ghgdu.2019.001165.

    MIAO Wuxia. Research on SAR image echo inversion and typical target featuer extraction method[D]. [Master dissertation], Harbin Institute of Technology, 2019. doi: 10.27061/d.cnki.ghgdu.2019.001165.
  • 加载中
图(7) / 表(7)
计量
  • 文章访问数:  402
  • HTML全文浏览量:  216
  • PDF下载量:  59
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-10-10
  • 修回日期:  2023-10-12
  • 网络出版日期:  2023-10-18
  • 刊出日期:  2023-11-28

目录

/

返回文章
返回