高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于代价敏感结构化SVM的目标跟踪

袁广林 孙子文 秦晓燕 夏良 朱虹

周莉, 张歆茗, 郭伟震, 王琰. 基于改进冲突度量的多证据直接融合算法[J]. 电子与信息学报, 2019, 41(5): 1145-1151. doi: 10.11999/JEIT180578
引用本文: 袁广林, 孙子文, 秦晓燕, 夏良, 朱虹. 基于代价敏感结构化SVM的目标跟踪[J]. 电子与信息学报, 2021, 43(11): 3335-3341. doi: 10.11999/JEIT200708
Li ZHOU, Xinming ZHANG, Weizhen GUO, Yan WANG. A Direct Fusion Algorithm for Multiple Pieces of Evidence Based on Improved Conflict Measure[J]. Journal of Electronics & Information Technology, 2019, 41(5): 1145-1151. doi: 10.11999/JEIT180578
Citation: Guanglin YUAN, Ziwen SUN, Xiaoyan QIN, Liang XIA, Hong ZHU. Object Tracking Based on Cost Sensitive Structured SVM[J]. Journal of Electronics & Information Technology, 2021, 43(11): 3335-3341. doi: 10.11999/JEIT200708

基于代价敏感结构化SVM的目标跟踪

doi: 10.11999/JEIT200708
基金项目: 安徽省自然科学基金(2008085QF325)
详细信息
    作者简介:

    袁广林:男,1973年生,博士,副教授,主要研究方向为图像处理、计算机视觉、机器学习及其应用等

    孙子文:男,1996年生,硕士生,研究方向为计算机视觉、机器学习

    秦晓燕:女,1980年生,硕士,讲师,主要研究方向为计算机视觉、机器学习等

    夏良:男,1980年生,硕士,副教授,主要研究方向为计算机视觉、机器学习、大数据等

    朱虹:女,1987年生,硕士,讲师,主要研究方向为计算机视觉、图像处理等

    通讯作者:

    袁广林 yuangl_plus@126.com

  • 中图分类号: TN911.73; TP391.4

Object Tracking Based on Cost Sensitive Structured SVM

Funds: Anhui Provincial Natural Science Foundation (2008085QF325)
  • 摘要: 基于结构化SVM的目标跟踪由于其优异的性能而受到了广泛关注,但是现有方法存在正样本和负样本不平衡问题。针对此问题,该文首先提出一种用于目标跟踪的代价敏感结构化SVM模型,其次基于对偶坐标下降原理设计了该模型的求解算法,最后利用提出的代价敏感结构化SVM实现了一种多尺度目标跟踪方法。在OTB100数据集和VOT2019数据集上进行了实验验证,实验结果表明:该文方法相比相关滤波目标跟踪方法,跟踪精度较高,相比深度目标跟踪方法,具有速度优势。
  • 证据理论(Dempster-Shafter theory, D-S theory)因其灵便的数据处理方式,近年来被广泛应用于目标辨识,故障诊断以及决策分析等领域[15]。但由于证据理论中的Dempster证据组合规则未对冲突数据加以有效利用,导致其不能准确处理高冲突证据。为此,学者们提出众多改进策略,包括预先处理原始证据[613]和改进组合算法模型或证据合成规则[1416],而各种改进策略的重点均是先要实现对证据冲突程度的准确衡量[1720],否则后续的证据融合工作也就失去了意义。

    研究显示,Dempster组合规则中的冲突系数k,不能有效度量概率分配值较分散的一致或近似一致证据之间的冲突,也不能准确刻画含有非单子集焦元证据之间的不一致性;Jousselme证据距离函数在对概率赋值较分散的冲突证据进行冲突度量时,其度量结果会出现不同程度的偏低;彭颖等人[17]基于证据模值的大小对Jousselme证据距离函数进行改进,但仍未较好解决Jousselme证据距离函数不能较好刻画证据之间局部冲突情况的问题;毛艺帆等人[18]提出利用证据之间的非重合度衡量证据之间的冲突,但该度量参数仅仅根据证据之间的非重合概率赋值来描述证据之间的冲突,不能从全局范围对证据之间的不一致性进行整体描述,其冲突度量结果通常偏低。另有一些其他冲突度量函数,如信息熵[12]、不确定度[19]以及各种相似性度量函数[20]等也均存在某些方面的不足。为发挥不同冲突度量参数的性能优势,克服其不足,本文对Jousselme距离函数、冲突系数和非重合度3个冲突度量参数进行优化组合利用,给出改进的融合冲突度量函数。在此基础上,对各焦元冲突分配系数进行改进和优化,在不同程度上提高了多维冲突信息的再分配精度。

    Θ={θ1,θ2,···,θN}是一辨识框架,2Θ表示Θ的幂集,其中含有2N个元素,他们构成命题集合。m:2Θ[0,1],满足:(1) m()=0; (2) A2Θm(A)=1。称m(A)为命题A的基本概率分配,若m(A)>0,称A为焦元,m(A)刻画了证据mA所描述事件的认可程度。

    mj(j=1,2,···,J)J个彼此独立的证据,则J个证据合成的Dempster组合规则定义为

    m(X)={AiAj···Al=X[m1(Ai)m2(Aj)···mJ(Al)]1k,X0,X=

    (1)

    其中,

    k=AiAj···Al=[m1(Ai)m2(Bj)···mJ(Al)]
    (2)

    当Dempster组合规则中的不一致因子k接近于1时,其证据合成结果会出现与真实情况相矛盾的结论,称为融合悖论[5]。其原因是在k值接近于1时,式(1)中分子与分母的取值都很小,其比值很容易随某个焦元赋值的微小变化出现识别结果的根本性改变。即当证据之间存在的一致性信息太少时,Dempster组合规则会由于信息缺乏导致证据合成结果出错。

    由于信息冲突原因和形成形式的多样性和复杂性,单一的冲突度量参数通常不能够全面描述冲突证据的多方面特性,致使冲突度量结果不准确。目前尚未找到一种能对各种类型冲突证据均进行有效冲突度量的全能参数。因此,有必要考虑对已有性能较好的冲突度量参数进行综合优化利用,以发挥不同冲突度量参数的特长,克服其不足,达到从全方位、多角度对证据冲突程度进行描述和度量的目的。

    证据冲突度量结果的准确性,对证据融合效果起着关键性的作用,在能够确保冲突度量结果十分准确的情况下,可考虑采用证据预处理算法对冲突证据进行修正后合成,即采用文献[10]的算法思路,在对证据源进行冲突衡量的基础上,对加权证据进行一定次数的重复融合,得到最终结果,但该类算法的目标识别结论实际上由冲突度量结果完全确定。如果对证据的冲突度量结果的准确性没有十足的把握,则应考虑在对证据进行冲突度量的基础上,对局部冲突实行按比例分配,以达到对证据冲突度量误差进行修正,提高证据融合结果可靠性的目的。曹洁等人[16]在利用Jousselme证据距离对证据权系数进行计算的基础上,对两两证据组合过程中形成的诸多形如AB的2维冲突组合所含不一致信息进行重新按比例分配,该算法的不足之一是其只采用Jousselme证据距离对冲突证据进行冲突度量,结果不够准确;不足之二是其未对证据融合次序进行优化,算法结果欠稳定。对不足之一的改进措施即是要改进证据冲突度量算法;而对不足之二的改进思路一是优化证据融合次序,二是提高局部冲突分配过程中参与直接融合证据的个数。很显然,采用后者可以更充分利用多维冲突组合所含有用信息,减少证据组合次序的影响,提高冲突证据融合结果的可靠性。为此,本文给出基于改进冲突度量的多证据直接融合算法。

    首先,针对Jousselme证据距离函数随证据中各焦元概率赋值分散程度的增大对证据的冲突度量结果偏低的不足,给出新改进的Jousselme证据距离函数如式(3)

    dNIJ(mi,mj)=(mimj)TD(mimj)+γnc(mi,mj)2+γnc(mi,mj),i,j=1,2,···,J
    (3)

    其中,D(A,B)=|AB|/|AB|, ||为求模运算,γ[0,+)为可调参数,nc是两证据之间的非重合度,其定义如式(4)

    nc=1c(mi,mj),i,j=1,2,···,J
    (4)

    其中,

    c(mi,mj)=2Nk=1min(mi(Ak),mj(Ak))
    (5)

    这里,N是识别框架中命题的个数,式(5)表示两条证据mimj对各命题的共同认可程度的总和。

    根据式(3),如果证据mimj之间的非重合度nc取值较大,说明两条证据之间的冲突程度较高,此时应考虑增大可调参数γ的取值。根据大量实验可知:(1)当0.6<nc1.0时,可取γ(4,8],对于高冲突证据,通常取γ=8,当取γ>8时,其对应冲突度量结果会有一定的增大,但增大的幅度较小;(2)当0.1<nc0.6时,取γ(0,4];(3)若0nc0.1,说明证据之间的冲突程度较小,可令γ=0,此时,式(3)退变为Jousselme证据距离函数。

    考虑到在一般情况下,冲突系数k能够较好刻画证据之间的局部冲突情况,为此,基于冲突系数k和新改进的Jousselme证据距离函数共同构建改进的融合冲突度量函数如式(6)

    df(mi,mj)=1[(1k)δ(1(mimj)TD(mimj)+γnc(mi,mj)2+γnc(mi,mj))]1/2,i,j=1,2,···,J
    (6)

    γ=0,式(6)退变为

    df(mi,mj)=1[(1k)δ(1(mimj)TD(mimj)2)]1/2,i,j=1,2,···,J
    (7)

    其中,δ为二值示性函数,对不含有非单子集焦元的冲突证据进行冲突度量时,取δ=1;否则,取δ=0

    即当证据之间冲突程度不是很高,且不含非单子集焦元证据时,可采用式(7)对证据进行融合冲突度量。这是由于在对概率分配较分散的相同或相似程度较高的两条证据进行冲突度量时,k的冲突度量值会偏高,而此时基于Jousselme证据距离函数的冲突度量值偏低,因此式(7)中采用对基于两个冲突度量参数的相似性度量函数进行相乘的方式,恰好可以避免不一致因子k和Jousselme证据距离函数存在的不足;且对上述两个冲突度量参数进行如式(6)和式(7)所示的组合利用,可以从局部冲突和整体不一致性两方面刻画证据之间的冲突程度,起到较好发挥各冲突度量参数的特长,避免其不足的作用。

    本节考虑在对证据进行改进冲突度量的基础上,对焦元冲突分配系数进行优化,以提高局部多维冲突信息按比例分配的精度。

    改进的多证据直接融合算法步骤如下:

    步骤 1 基于式(6)或式(7)计算证据mimj之间的相似度函数如式(8)

    fij=1df(mi,mj),i,j=1,2,···,J
    (8)

    则证据mi基于改进冲突度量的权系数(可信度)可表示为

    c(mi)=e(mi)Jj=1e(mj),i,j=1,2,···,J
    (9)

    其中,

    e(mi)=Jj=1fij,i,j=1,2,···,J
    (10)

    步骤 2 J条证据的加权证据mw可描述为

    mw(Ak)=Ji=1c(mi)mi(Ak),i,j=1,2,···,J;k=1,2,···,N
    (11)

    其中,N为证据中焦元的个数;

    步骤 3 从证据mi中焦元Ak的概率赋值mi(Ak)与其加权均值mw(Ak)的相似性程度和可靠性两方面考虑,将证据mi中焦元Ak的支持度描述为

    s1[mi(Ak)]=s1g[mi(Ak)]s1l[mi(Ak)]Jj=1s1g[mj(Ak)]Jj=1s1l[mj(Ak)],i,j=1,2,···,J
    (12)

    其中,

    s1g[mi(Ak)]=2mi(Ak)mw(Ak)[mi(Ak)]2+[mw(Ak)]2
    (13)
    s1l[mi(Ak)]={0,mi(Ak)>2mw(Ak)mi(Ak)/mw(Ak),mi(Ak)mw(Ak)1dw[mi(Ak)]/mw(Ak), 

    (14)

    dw[mi(Ak)]=|mi(Ak)mw(Ak)|
    (15)

    其中,s1g[mi(Ak)]的不足是其对相差较大的两个数值的相似度的度量结果偏高,但其能够区分对mi(Ak)mw(Ak)具有相同的距离差的两组值可信程度的高低,即其对取值较高的一组值的相似性度量结果较高,而这是s1l[mi(Ak)]所不具有的,但s1l[mi(Ak)]能够较好区分两个值之间的差距大小。因此二者综合利用,可以较好地描述考虑加权均值mw(Ak)的证据mi中焦元Ak的支持度。

    另外,从mi中焦元Ak被其他证据中同一焦元的支持的度量方面考虑,对证据mi中焦元Ak的支持度又可描述为

    s2[mi(Ak)]=Jj=1[1|mi(Ak)mj(Ak)|]Ji=1Jj=1[1|mi(Ak)mj(Ak)|],i,j=1,2,···,J
    (16)

    故综合考虑上述两方面因素,mi中焦元Ak的信任度可以描述为

    $$ {s^f}[{m_i}({A_k})] = \frac{{s[{m_i}({A_k})]}}{{\displaystyle\sum\limits_{i = 1}^J {s[{m_i}({A_k})]} }} $ 其中,$ (17)
    s[mi(Ak)]=s1[mi(Ak)]s2[mi(Ak)]Ji=1s1[mi(Ak)]Ji=1s2[mi(Ak)]
    (18)

    因此,mi中焦元Ak的冲突分配系数可描述为

    λ[mi(Ak)]=c(mi)sf[mi(Ak)]Ji=1Nk=1c(mi)sf[mi(Ak)],i=1,2,···,J;k=1,2,···,N
    (19)

    步骤 4  故在形如(rAi,Ai,···,Ai,Aj,Aj,Ak,···,Ah)J维冲突组合中,焦元Ai, Aj应占冲突分配比例分别为

    ω(Ai)=1Sru=1λ[mu(Ai)]mu(Ai)
    (20)
    ω(Aj)=1Sr+2v=r+1λ[mv(Aj)]mv(Aj)
    (21)

    其中,

    S=ru=1λ[mu(Ai)]mu(Ai)+r+2v=r+1λ[mv(Aj)]mv(Aj)+···+λ[mJ(Ah)]mJ(Ah)
    (22)

    类似可计算得到任意其它组成形式的多维冲突组合中某一焦元在冲突分配中所占比例;

    步骤 5 基于改进融合冲突度量的多证据直接融合算法可描述为

    m(X)=Jj=1Aj=XJj=1mj(Aj)+AjX=Xω(Aj)η
    (23)

    其中,Aj表示来自第j个证据中的焦元;式(23)中第1项求和号中的表达式表示当某一J维冲突组合中来自各不同证据的焦元有相同的公共部分X时对X的信度赋值;第2项求和号中的表达式表示某J维冲突组合中来自J个不同证据的焦元中仅有部分焦元含有X时对X的信度赋值,ω(Aj)表示某一J维冲突组合中焦元Aj在冲突信息按比例分配中的权重,η表示对应J维冲突组合的概率赋值。

    为验证本文所提冲突度量和证据融合算法的有效性,以下给出本文所提新算法与相关算法的算例及仿真应用效果比较与分析。

    例1 目标识别框架Θ={A,B,C},在下面两种情况下,讨论证据之间的冲突情况。

    情况1:

    m1(A)=0.20,m1(B)=0.10,m1(C)=0.70m2(A)=0.65,m2(B)=0.10,m2(C)=0.25

    情况2:

    m1(A)=0.00,m1(B)=1.00,m1(C)=0.00m2(A)=0.75,m2(B)=0.10,m2(C)=0.15

    解 基于不同参数的冲突度量结果如表1表2所示。

    表 1  不同参数对情况1中证据的冲突度量结果
    冲突度量参数m1m1m2m2m1m2
    dJ000.4500
    k0.46000.50500.6850
    nc000.4500
    dPJ000.6255
    dNIJ(γ=4)000.7618
    df(γ=4)0.26520.29640.7241
    下载: 导出CSV 
    | 显示表格
    表 2  不同参数对情况2中证据的冲突度量结果
    冲突度量参数m1m1m2m2m1m2
    dJ000.8352
    k00.40500.9000
    nc000.9000
    dPJ000.9352
    dNIJ(γ=8)000.9886
    df(γ=8)00.22870.9662
    下载: 导出CSV 
    | 显示表格

    表1表2中,dPJ表示文献[17]所提改进冲突度量函数。观察情况1中的两个证据可知,两证据的概率赋值相对分散,总体冲突程度相对较大。其中,Jousselme证据距离函数和非重合度对两条证据的冲突度量结果均为0.45,明显偏低。文献[17]所提改进算法的冲突度量结果为0.6255,低于冲突系数取值0.6850,而从一致性因子的组成1k=0.13+0.01+0.175来看,其概率赋值的一致性程度并不高,可知不一致因子的取值0.6850是偏低的。基于本文式(7)计算情况1中两证据的冲突度量结果为0.7241,结合情况1中证据概率赋值情况可以看出,该值较好刻画了两个证据之间的真实冲突状况。

    情况2中的两个证据明显属于高冲突情况,由表2可知,冲突系数和非重合度仅根据局部冲突情况确定证据之间的冲突为0.9,从整体冲突状况来看偏低。Jousselme证据距离函数的冲突度量结果0.8352也显然低于两个证据之间的实际冲突程度。从情况2两证据间的总体冲突情况分析,本文新改进冲突度量函数的冲突度量结果0.9662,综合体现了两个证据之间的局部和整体冲突状况。

    例2 我方空中观测平台用7部探测雷达对某一空域中3部飞行器机型进行辨别,Θ={A,B,C},这里A为军用侦察机,BC均为民用货机。飞行器A,B,C分别以均速1000 m/s在距我方观测平台100 km处相对飞行。雷达1,雷达2判断A,B,C为军用侦察机的信度分别恒定为0.43, 0.47, 0.10和0.01, 0.49, 0.50;雷达3—雷达7在100 km以及10 km处对侦察机机型进行正确辨别的信度分别为0.25和0.70,在10~100 km之间对飞行器A机型的判别准确程度和敌我飞行器之间间隔距离成反比;在无严重干扰场合,雷达3—雷达7判别飞行器B为侦察机的信度均为0.20。在观测平台与对方飞行器间隔20~30 m阶段,雷达6和雷达7受到严重干扰,准确辨别A,B飞行目标机型的可能性为0。

    采用本文所提新算法和相关算法,在上述仿真场合下的实验结果如图1图2所示。

    图 1  不同算法判断A为侦察机的概率
    图 2  不同算法判断B为侦察机的概率

    图1图2中,本文NA1和本文NA2分别指采用式(7)和式(8)计算证据冲突的基于改进焦元冲突分配系数的多证据直接融合算法,直接乘法(DM)是指采用式(10)计算证据权系数,而采用文献[16]算法计算焦元冲突分配系数的直接融合算法。由图1图2可以看出,在无严重干扰阶段,文献[10]算法(L[10])和文献[11]算法(L[11])的目标识别效果分别优于DM算法以及本文NA1和本文NA2两种新算法,其原因是前述两种算法均借助Dempster组合规则对加权证据进行自身组合,实现向加权证据所辨别目标的快速聚焦。由2.3节的分析可知,在对高冲突证据进行融合时,前述两种算法均存在稳定性差的缺点。Dempster组合规则(D-S)只能在冲突程度不高时正确辨别出目标,在严重干扰场合,D-S和L[10]以及L[11]均没能正确辨识出目标,对比图1图2可知,此时DM算法也只是勉强识别出目标,但其正确目标识别概率分别远远低于本文所提两种新算法的对应结果。与NA2相比,NA1的正确目标辨识概率高出约0.16个点,而NA2又比DM算法高出约0.15个点。

    本文从发挥不同冲突度量参数特长,克服其缺陷与不足的角度出发构建改进的融合冲突度量函数,避免了一般单参数冲突度量函数随证据之间冲突程度的增大对应冲突度量值偏低的不足。与冲突系数k相比,基于新改进Jousselme证据距离函数和冲突系数k共同计算证据及焦元权系数的改进冲突度量算法避免了其对概率赋值较分散的相同或相似证据的冲突度量结果偏高的不足。由仿真实验结果可以看出,与对冲突证据的各种预处理算法相比,本文所提基于改进冲突度量算法的直接融合算法具有较好的稳定性和较强的抗干扰性;与原有直接融合算法相比,新算法不论在非干扰场合还是在严重干扰场合下,其正确目标识别概率均得到较大幅度的提升。如何进一步提高新改进冲突度量算法的证据冲突度量精度,并相应提高多证据直接融合算法的计算效率仍需进行更深入的探讨与研究。

  • 图  1  结构化SVM目标跟踪中存在的正样本和负样本不平衡问题

    图  2  6种高性能跟踪器在OTB100数据集上取效果前5名的OPE, TRE和SRE性能指标曲线

    表  1  6种基于结构化SVM的跟踪器在OTB100数据集上的OPE性能与速度指标

    跟踪方法精度(pixels)成功率(AUC)速度(fps)
    Scale-DLCS_SSVM0.8370.64812.18
    DLCS_SSVM0.8050.60325.32
    Scale-DLSSVM[8]0.8030.56111.47
    DLSSVM[8]0.7650.54023.16
    Struck[1]0.6350.4597.52
    LMCF[9]0.7860.57878.23
    下载: 导出CSV

    表  2  5种跟踪方法在OTB100数据集上的速度指标(fps)

    跟踪方法Scale-DLCS_SSVMDLCS_SSVMDeepLMCF[9]DeepSRDCF[17]TADT[18]
    速度12.1825.327.451.5627.89
    下载: 导出CSV

    表  3  本文多尺度方法与近年来4种高性能跟踪方法在VOT2019数据集上实验结果

    本文SiamMask[20]GradNet[21]TADT[18]DeepSRDCF[17]
    EAO↑0.2170.2890.2130.2070.198
    Accuracy↑0.5380.5960.5310.5160.512
    Robustness↓0.5590.4610.5380.5670.572
    下载: 导出CSV
  • [1] HARE S, SAFFARI A, and TORR P H S. Struck: Structured output tracking with kernels[C]. 2011 International Conference on Computer Vision, Barcelona, Spain, 2011: 263−270.
    [2] HARE S, GOLODETZ S, SAFFARI A, et al. Struck: Structured output tracking with kernels[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(10): 2096–2109. doi: 10.1109/TPAMI.2015.2509974
    [3] YAO Rui, SHI Qinfeng, SHEN Chunhua, et al. Robust tracking with weighted online structured learning[C]. The 12th European Conference on Computer Vision, Florence, Italy, 2012: 158–172.
    [4] YAO Rui, SHI Qinfeng, SHEN Chunhua, et al. Part-based visual tracking with online latent structural learning[C]. 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, USA, 2013: 2363–2370.
    [5] BAI Yancheng and TANG Ming. Robust tracking via weakly supervised ranking SVM[C]. 2012 IEEE Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 1854–1861.
    [6] ZHANG Jianming, MA Shugao, and SCLAROFF S. MEEM: Robust tracking via multiple experts using entropy minimization[C]. The 13th European Conference on Computer Vision, Zurich, Swiss, 2014: 188–203.
    [7] HONG S, YOU T, KWAK S, et al. Online tracking by learning discriminative saliency map with convolutional neural network[C]. The 32nd International Conference on International Conference on Machine Learnin, Lille, France, 2015: 597–606.
    [8] NING Jifeng, YANG Jimei, JIANG Shaojie, et al. Object tracking via dual linear structured SVM and explicit feature map[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 4266–4274.
    [9] WANG Mengmeng, LIU Yong, and HUANG Zeyi. Large margin object tracking with circulant feature maps[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 4800–4808.
    [10] JI Zhangjian, FENG Kai, and QIAN Yuhua. Part-based visual tracking via structural support correlation filter[J]. Journal of Visual Communication and Image Representation, 2019, 64: 102602. doi: 10.1016/j.jvcir.2019.102602
    [11] ZUO Wangmeng, WU Xiaohe, LIN Liang, et al. Learning support correlation filters for visual tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2019, 41(5): 1158–1172. doi: 10.1109/TPAMI.2018.2829180
    [12] ZABIH R and WOODFILL J. Non-parametric local transforms for computing visual correspondence[C]. The Third European Conference on Computer Vision, Stockholm, Sweden, 1994: 151–158.
    [13] WU Yi, LIM J, and YANG M H. Object tracking benchmark[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1834–1848. doi: 10.1109/TPAMI.2014.2388226
    [14] KRISTAN M, BERG J, LEONARDIS A, et al. The seventh visual object tracking VOT2019 challenge results[C]. 2019 IEEE/CVF International Conference on Computer Vision Workshop, Seoul, South Korea, 2019: 2206–2241.
    [15] IRANMEHR A, MASNADI-SHIRAZI H, and VASCONCELOS N. Cost-sensitive support vector machines[J]. Neurocomputing, 2019, 343: 50–64. doi: 10.1016/j.neucom.2018.11.099
    [16] RAMANAN D. Dual coordinate solvers for large-scale structural SVMs[J]. arXiv: 1312.1743v2, 2014.
    [17] DANELLJAN M, HÄGER G, KHAN F S, et al. Convolutional features for correlation filter based visual tracking[C]. 2015 IEEE International Conference on Computer Vision Workshop, Santiago, Chile, 2015: 621–629.
    [18] WANG Qiang, ZHANG Li, BERTINETTO L, et al. Fast online object tracking and segmentation: A unifying approach[C]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 1328–1338.
    [19] LI Peixia, CHEN Boyu, OUYANG Wanli, et al. GradNet: Gradient-guided network for visual object tracking[C]. 2019 IEEE/CVF International Conference on Computer Vision, Seoul, South Korea, 2019: 6161–6170.
    [20] LI Xin, MA Chao, WU Baoyuan, et al. Target-aware deep tracking[C]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 1369–1378.
    [21] BERTINETTO L, VALMADRE J, GOLODETZ S, et al. Staple: Complementary learners for real-time tracking[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 1401–1409.
  • 加载中
图(2) / 表(3)
计量
  • 文章访问数:  1046
  • HTML全文浏览量:  526
  • PDF下载量:  86
  • 被引次数: 0
出版历程
  • 收稿日期:  2020-08-10
  • 修回日期:  2021-04-14
  • 网络出版日期:  2021-07-11
  • 刊出日期:  2021-11-23

目录

/

返回文章
返回