Loading [MathJax]/jax/output/HTML-CSS/jax.js
高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于多层卷积特征的自适应决策融合目标跟踪算法

孙彦景 石韫开 云霄 朱绪冉 王赛楠

孙彦景, 石韫开, 云霄, 朱绪冉, 王赛楠. 基于多层卷积特征的自适应决策融合目标跟踪算法[J]. 电子与信息学报, 2019, 41(10): 2464-2470. doi: 10.11999/JEIT180971
引用本文: 孙彦景, 石韫开, 云霄, 朱绪冉, 王赛楠. 基于多层卷积特征的自适应决策融合目标跟踪算法[J]. 电子与信息学报, 2019, 41(10): 2464-2470. doi: 10.11999/JEIT180971
Yanjing SUN, Yunkai SHI, Xiao YUN, Xuran ZHU, Sainan WANG. Adaptive Strategy Fusion Target Tracking Based on Multi-layer Convolutional Features[J]. Journal of Electronics & Information Technology, 2019, 41(10): 2464-2470. doi: 10.11999/JEIT180971
Citation: Yanjing SUN, Yunkai SHI, Xiao YUN, Xuran ZHU, Sainan WANG. Adaptive Strategy Fusion Target Tracking Based on Multi-layer Convolutional Features[J]. Journal of Electronics & Information Technology, 2019, 41(10): 2464-2470. doi: 10.11999/JEIT180971

基于多层卷积特征的自适应决策融合目标跟踪算法

doi: 10.11999/JEIT180971
基金项目: 江苏省自然科学基金青年基金(BK20180640, BK20150204),江苏省重点研发计划(BE2015040),国家重点研发计划(2016YFC0801403),国家自然科学基金(51504214, 51504255, 51734009, 61771417)
详细信息
    作者简介:

    孙彦景:男,1977年生,教授,博士生导师,研究方向为无线传感器网络、视频目标跟踪、人工智能、信息物理系统

    石韫开:男,1993年生,硕士生,研究方向为视频目标跟踪和人工智能

    云霄:女,1986年生,讲师,研究方向为视频目标跟踪和人工智能

    朱绪冉:女,1993年生,硕士生,研究方向为目标检测与识别

    王赛楠:女,1992年生,硕士生,研究方向为视频目标跟踪

    通讯作者:

    云霄 yxztong@163.com

  • 中图分类号: TP391.4

Adaptive Strategy Fusion Target Tracking Based on Multi-layer Convolutional Features

Funds: The Natural Science Foundation of Jiangsu Province (BK20180640, BK20150204), The Research Development Programme of Jiangsu Province (BE2015040), The State Key Research Development Program (2016YFC0801403), The National Natural Science Foundation of China (51504214, 51504255, 51734009, 61771417)
  • 摘要: 针对目标快速运动、遮挡等复杂视频场景中目标跟踪鲁棒性差和跟踪精度低的问题,该文提出一种基于多层卷积特征的自适应决策融合目标跟踪算法(ASFTT)。首先提取卷积神经网络(CNN)中帧图像的多层卷积特征,避免网络单层特征表征目标信息不全面的缺陷,增强算法的泛化能力;使用多层特征计算帧图像相关性响应,提高算法的跟踪精度;最后该文使用自适应决策融合算法将所有响应中目标位置决策动态融合以定位目标,融合算法综合考虑生成响应的各跟踪器的历史决策信息和当前决策信息,以保证算法的鲁棒性。采用标准数据集OTB2013对该文算法和6种当前主流跟踪算法进行了仿真对比,结果表明该文算法具有更加优秀的跟踪性能。
  • 目标跟踪是在视频序列中根据第1帧的目标状态信息估计其后续状态的过程[1],其在机器人技术、智能监控和人机交互等领域有广泛应用。目标跟踪近年来取得较大发展,但由于形变,快速运动和遮挡等因素影响,其仍是计算机视觉领域研究的难点。

    随着卷积神经网络(Convolutional Neural Network, CNN)[2]的不断发展,其在图像分类[3]、图像识别[4]、显著性检测[5]、语义分割[6]等领域已经取得研究成果。在目标跟踪领域,基于卷积特征的跟踪算法成为了研究的热点方向。Wang等人[7]基于消噪自编码器原理,使用网络深层特征提出深度学习跟踪器(DLT)算法;文献[8]中使用孪生神经网络的深层特征进行相关性计算,提升了算法的稳健性。这些跟踪器与基于手工选择特征(如hog[9]和颜色直方图[10]等)的算法相比,具有更高的跟踪精度。

    上述基于卷积特征的跟踪算法通常使用网络深层特征来表征目标对象,跟踪效果较好,但是无法适应较为复杂的视频环境。网络深层特征丰富的语义信息有利于目标对象的分类,但捕捉目标细节信息较少;浅层特征对目标的细节捕捉较为明显, 但会引入较多的背景杂波。

    利用特征的相关性计算响应主要包括相关滤波响应和相似性响应两类:相关滤波响应[11,12]通过训练滤波模板,计算相关响应图的峰值定位目标。Henriques等人[13]提出循环结构核(Circulant Structure Kernel, CSK)算法,利用循环移位操作为跟踪器训练构造大量负样本,提升了跟踪器判别能力;随后在文献[14]中在该算法中加入核技巧,提出了核化相关滤波(Kernel Correlation Filter, KCF)算法,提高了跟踪器的跟踪效率。相关滤波响应仅考虑帧间相关信息,导致目标发生遮挡、漂移时跟踪精度偏低。相似性响应[8,15,16]采用模板匹配后的峰值定位目标,其在孪生神经网络中通过计算视频中模板图像和待检测图像特征的相似性响应最值确定目标位置,取得了较好的效果。相似性响应仅计算首帧图像和待检测图像的相关性,没有考虑相邻帧图像之间的相关性致使跟踪结果较低。

    由上述分析可知,相关滤波响应仅考虑帧间相关信息,在目标发生遮挡和突变时算法跟踪精度较低;相似性响应仅考虑图像第1帧与待检测帧相关信息,缺少相邻帧的相关性信息降低了算法跟踪性能。文献[17]中提出一种比例融合算法,通过计算当前帧中各响应所占比例,确定下一帧各响应对应权重融合系数,效率较高但融合精度较低;文献[18]中提出一种融合算法,通过在线学习的方式对响应权重进行训练更新,取得了较好的融合效果。上述算法在融合权重更新时仅考虑各跟踪器当前位置决策信息,当目标移动较快,跟踪器的当前位置决策准确性可能较低,其在历史帧中位置决策的准确性相对较高。

    综上所述,本文提出一种基于多层卷积特征的自适应决策融合目标跟踪算法(Adaptive Strategy Fusion Target Tracking algorithm, ASFTT)。本算法首先提取多层卷积特征表征目标信息,提高模型泛化能力;其次使用各层特征计算帧图像相关性响应,以表征不同帧图像之间的相关性信息,提高算法的跟踪精度;最后通过本文自适应决策融合算法将所有响应中位置信息动态融合,训练融合权重时同时考虑产生响应的各跟踪器的历史和当前决策信息,提高算法的鲁棒性。

    本文ASFTT算法框图如图1所示。算法包含特征提取、响应计算和决策融合3部分。在特征提取阶段,提取孪生神经网络多层卷积特征;在响应计算阶段,提出一种帧图像相关性响应计算方式,包括计算相关滤波和相似性两类响应;在决策融合阶段,使用自适应决策融合算法融合位置决策信息以定位目标。

    图 1  ASFTT算法框图

    卷积神经网络(CNN)作为一个多层感知器, 每个卷积层都可以表达输入图像的不同特征。孪生神经网络[8]是典型的CNN网络结构,其主要由Conv1~Conv5的5层卷积层组成,其中,Conv1和Conv2层的卷积核大小分别为11×11和5×5,其余各卷积层卷积核大小为3×3。孪生神经网络仅使用Conv5的深层卷积特征,没有使用Conv1~Conv4的较浅层卷积特征表征目标信息。

    不同深度的卷积层特征具有不同的表达能力,层数越浅,特征图中包含的细节信息越多,但会产生背景杂波;层数越深,特征图中较多的语义信息有利于训练跟踪器进行跟踪,但包含的细节信息越少。因此在算法特征提取阶段,本文提取待检测图像通过孪生神经网络获得的多层卷积特征ok,表示不同分辨率和语义信息下的待检测目标,提取模板图像最后一层特征u表征已检测目标,如式(1)所示,其中P, QC分别表示特征图的宽、高和通道数

    ok,uRP×Q×C (1)

    由于卷积网络的池化操作,待检测图像分支中不同网络层特征图的尺寸大小不同,层级越深,特征图的尺寸越小。利用双线性插值对特征图ok进行上采样操作,使得所有卷积层的特征图具有相同尺寸xk,式(2)xki表示xk中第i个位置的特征向量,其中aij为插值权重

    xki=jaijokj (2)
    2.2.1   相关滤波响应

    相关滤波响应值表征图像相邻帧之间的相关性。对待检测图像各层特征xk在垂直和水平方向上的循环移位作为训练样本xkp,q, (p,q){0,1,···,P1}×{0,1,···,Q1}。通过最小化理想输出yk(p,q)xkp,q的损失误差,对第k个相关滤波跟踪器进行最优建模

    hk=argmin[p,qyk(p,q)hxkp,q2+λh22] (3)

    其中,λ是正则化参数且λ0; yk(p,q)=exp((pP/2)2+(qQ/2)2/2σ2)是与xkp,q对应的2维高斯核函数,σ为高斯核的宽度;hxkp,q=Cc=1(hp,q,c)Txkp,q,c,表明各通道矩阵相乘;hk为需要求得的最优权重。

    对式(3)在傅里叶域中求解得到第k个跟踪器c(c{1,2,···,C})通道的最优权重Hkc,其中表示点乘操作;YkXk分别为ykxk的DFT变换;ˉXkXk的复数共轭。如式(4)所示

    Hkc=YkˉXkcCi=1XkiˉXki+λ (4)

    对于第t帧各跟踪器Hk,tc,令Ak,t1cBk,t1c分别表示其在第t1帧时的分子、分母项,则在第t帧中,跟踪器的更新策略如式(5)所示

    Ak,tc=(1η)Ak,t1c+ηYkˉXk,tcBk,tc=(1η)Bk,t1c+ηCi=1Xk,tiˉXk,tiHk,tc=Ak,tc/(Bk,tc+λ)} (5)

    参数更新后的跟踪器用于预测目标的位置,对于第k个卷积层提取的测试图像特征zkRP×Q×C,通过检测得到响应输出Rk,如式(6)所示

    Rk=F1(Cc=1ˉZkcHkc) (6)

    其中,ˉZkzk的DFT的共轭复数。查找最大响应的位置即为目标的预测位置(ak,bk),如式(7)所示

    (ak,bk)=argmaxa,bRk(a,b) (7)
    2.2.2   相似性响应

    相似性响应表征待检测图像与第1帧模板图像之间的相关性,有助于提高突变,漂移等干扰性因素下跟踪器性能。本文使用离线训练的孪生神经网络最后一层输出的第1帧模板特征和待检测图像特征计算相似性响应,如式(8)所示

    R=u1xt+b (8)

    其中,u1,xt分别表示第1帧模板图像和第t帧待检测图像经过网络最后一层的特征映射图,表示卷积操作。计算特征映射u1xt的相似性,生成响应图R。响应图中得分最高的点为目标预测位置(a,b),如式(9)所示

    (a,b)=argmaxa,bR(a,b) (9)

    文献[18]中提出了一种融合算法,以解决多决策者的决策理论问题。算法中决策者为产生响应的各个跟踪器,加权融合所有决策者生成的决策(预测位置),计算目标的最终位置。通过计算决策损失更新每个决策者对应的权重以优化决策模型。

    然而,此算法只考虑了同一决策者的当前决策信息,在目标移动速度较快,发生遮挡等情况时鲁棒性较差。因此,本文使用自适应决策融合算法,通过引入稳定性度量值,在训练权重时自适应地对各决策者的历史决策信息和当前决策信息分配不同的比例。将2.2节中相关性响应产生的预测位置分别视为相应决策,预测视频中第t帧的目标决策位置,如式(10)所示

    (at,bt)=Mm=1(wmtamt,wmtbmt) (10)

    其中,wmt为每个决策者m对应的权重,所有权重总和Mm=1wmt=1。计算第t帧中决策者m的决策损失

    Lmt=max(Rmt)Rmt(at,bt) (11)

    式(11)中max()表示计算响应矩阵中的最大值,R(a,b)表示矩阵中目标位置(a,b)的响应值。式(12)计算所有决策者的加权平均损失与决策者m决策损失的差值,即当前代价函数pmt

    pmt=¯LmtLmt (12)

    其中,¯Lmt=Mm=1wmtLmt。由于在视频序列中目标在短时间内不会发生显著的外观变化,本文使用均值为μmt,标准方差为σmt的高斯分布来表示每个决策者m在时间Δt内的决策损失,如式(13)所示

    μmt=1Δttγ=tΔt+1max(Rmγ)Rmγ(aγ,bγ)σmt=1Δt1tγ=tΔt+1(max(Rmγ)Rmγ(aγ,bγ)μmt)2}

    (13)

    计算决策者m的稳定性度量值rmt,如式(14)所示

    rmt=|max(Rmt)Rmt(at,bt)μmt|σmt (14)

    由式(14)可知,rmt较小表明决策者m的决策信息准确率变化不大,较为稳定,因此应该主要相信决策者m在第t帧中的表现;rmt较大说明决策者m的决策信息准确率变化较大,不太稳定,因此应该主要相信决策者m的历史表现。如式(15a)和式(15b)所示

    Smt=(1αmt)Smt1+αmtpmt (15a)
    αmt=min(exp(βrmt),g) (15b)

    其中,累积代价函数Smt由历史累积代价函数Smt1和当前代价函数pmt两部分组成。β为比例系数,g定义了pmtSmt中所占的最大比例,以避免出现不考虑Smt1的情况。

    通过最小化Smt以优化每个决策者m对应的权重。本文所提自适应决策融合算法权重优化与文献[18]采用相同的方法

    wmt+1([Smt]+/ct)exp(([Smt]+)2/2ct) (16)

    其中,[Smt]+表示max{0,Smt}, ct与文献[18]中比例系数相同,其值通过求解1MMm=1exp(([Smt]+)2/2ct)=e来确定。

    算法流程如表1所示。

    表 1  基于多层卷积特征的自适应决策融合目标跟踪算法
     输入:视频序列第1帧的目标位置;初始各决策权重w11,w21,···,wm1; Rm1=0,lm1=0
     输出:每帧图像的目标位置(at,bt)
     (1) //权重初始化。使用式(4)计算k个跟踪器的初始权重;
     (2) for t=2 to T(T是视频的总帧数):
     (3) //提取网络多层特征。提取网络中待检测图像k层的特征xkt和模板分支最后一层特征u1
     (4) //响应值计算。使用式(6)和式(8)计算k个相关滤波响应值Rkt和相似性响应值Rt
     (5) //自适应响应决策融合。计算目标位置首先使用式(7)和式(9)计算步骤(4)中每个决策者预测的目标位置(amt,bmt);通过式(10)计算最终的    目标位置(at,bt)
     (6) //更新权重值,用于下一帧检测。首先通过式(11)和式(12)计算各决策者的损失Lmt和当前代价函数pmt;其次使用式(13)和式(14)更新稳    定性模型并计算每个决策者的稳定性度量值rmt;使用式(15b)和式(15a)计算每个决策者当前代价函数pmtαmt比例值和每个决策者    的累积代价函数Smt;并使用式(16)更新每个决策者所对应的权重wmt+1;最后通过式(5)更新k个跟踪器的权重;
     (7) end for;
    下载: 导出CSV 
    | 显示表格

    为验证算法的综合性能,在标准数据集OTB2013[19]中将本文所提ASFTT算法和SiamFC[8], SAMF_CA[20], fDSST[21], Staple[22], KCF[14]和CNT[23]算法进行了对比分析。其中在评估算法性能中,距离精度DP是指视频中预测目标位置与实际目标位置之间的中心误差小于阈值的帧数占总帧数的百分比,重叠成功率OS是指视频中预测目标位置与实际目标位置之间的重叠率大于阈值的帧数占总帧数的百分比。

    实验条件为:PC机, Intel(R)Core(TM)i7 CPU, NVIDIA GTX Titan X GPU, Matlab R2016a。OTB2013数据集中包含11种影响因素:光照变化、尺度变化、遮挡、形变、运动模糊、快速运动、平面内旋转、平面外旋转、出视野、背景杂波和低分辨率。实验参数设置:λ=104; η=0.01

    3.2.1   整体性能分析

    在一次通过评估(One Pass Evaluation, OPE)条件下使用距离精度(DP)和重叠成功率(OS)对ASFTT算法和6种算法的性能进行整体评估。精度曲线使用DP进行评估,成功率曲线使用下曲线面积(Area Under Curve, AUC)进行比较。

    图2可知,本文算法在总体的距离精度和成功率两个指标上都取得第1名,其中距离精度值DP和成功重叠率值OS高于SiamFC, SAMF_CA, fDSST等其它跟踪算法。因此本文所提ASFTT算法在整体性能上较为优秀。

    图 2  算法整体的精度曲线和成功率曲线图
    3.2.2   基于视频集属性的分析

    本文在OTB2013中OPE条件下对7种跟踪算法进一步比较分析,图3依次为各算法在快速运动和遮挡影响因素下的跟踪效果。精度曲线使用DP进行评估,成功率曲线使用下曲线面积(AUC)进行比较。

    图 3  算法各属性的精度曲线和成功率曲线图

    图3可知,本文算法在快速运动和遮挡影响因素下均具优势。距离精确度DP和成功重叠率OS高于SiamFC, SAMF_CA, fDSST等其它跟踪算法。表明本文算法在复杂视频环境下仍有良好的跟踪精度和鲁棒性。

    本文从OTB2013视频库中选择4个包含多个影响因素的视频序列,比较4个跟踪器(SiamFC, fDSST, Staple和KCF)和ASFTT的跟踪性能。SiamFC是CNN跟踪器,fDSST是加入特征降维的相关滤波跟踪器,Staple是基于多特征融合的相关滤波跟踪器,KCF是基于核相关滤波的跟踪器。部分跟踪结果如图4所示。表2显示了这些序列中包含的影响因素。

    表 2  测试视频序列包含的影响因素
    序列帧数影响因素
    basketball725形变、遮挡、光照变化、背景杂波等
    jumping313运动模糊、快速运动
    shaking365光照变化、背景杂波、尺度变化等
    couple140平面外旋转、尺度变化、形变等
    下载: 导出CSV 
    | 显示表格
    图 4  跟踪效果对比图

    (1) 图4(a)为basketball。第57帧,目标发生形变,fDSST和Staple出现跟踪漂移。第654帧,视频中出现相似人物目标干扰时,SiamFC, fDSST跟踪失败,KCF算法出现偏移。本文算法在视频中则始终紧跟目标。

    (2) 图4(b)为jumping。第96帧,第221帧以及后续帧目标移动速度较快时,fDSST算法出现漂移,Staple和KCF跟丢物体。本文算法和SiamFC始终跟踪情况良好。

    (3) 图4(c)为shaking。第60帧,本文算法,SiamFC和fDSST与目标保持一致,其它算法在背景遭遇高光时偏离目标。第184帧,出现颜色类似干扰时,SiamFC和fDSST出现漂移。

    (4) 图4(d)为couple。第59帧发生形变时,Staple, KCF发生漂移,之后丢失目标。第113帧出现相似物时,除本文算法其它跟踪器全部跟踪失败。

    由上述分析可以看出,本文所提基于多层卷积特征的自适应决策融合目标跟踪算法能有效应对复杂的视频环境,在保障跟踪精度的同时兼顾鲁棒性。

    本文提出了一种基于多层卷积特征的自适应决策融合目标跟踪算法。通过提取网络多层特征,提高算法的泛化能力;使用多层特征计算帧图像相关性响应,提高算法的跟踪精度;本文使用自适应决策融合算法,将各跟踪器的历史决策信息和当前决策信息引入融合权重训练之中,提高跟踪算法在遮挡、形变等复杂环境中的鲁棒性。在标准数据集OTB2013中的实验结果表明,本文算法的跟踪精度与鲁棒性明显优于其它算法,证明了本文算法优秀的性能。

  • 图  1  ASFTT算法框图

    图  2  算法整体的精度曲线和成功率曲线图

    图  3  算法各属性的精度曲线和成功率曲线图

    图  4  跟踪效果对比图

    表  1  基于多层卷积特征的自适应决策融合目标跟踪算法

     输入:视频序列第1帧的目标位置;初始各决策权重w11,w21,···,wm1; Rm1=0,lm1=0
     输出:每帧图像的目标位置(at,bt)
     (1) //权重初始化。使用式(4)计算k个跟踪器的初始权重;
     (2) for t=2 to T(T是视频的总帧数):
     (3) //提取网络多层特征。提取网络中待检测图像k层的特征xkt和模板分支最后一层特征u1
     (4) //响应值计算。使用式(6)和式(8)计算k个相关滤波响应值Rkt和相似性响应值Rt
     (5) //自适应响应决策融合。计算目标位置首先使用式(7)和式(9)计算步骤(4)中每个决策者预测的目标位置(amt,bmt);通过式(10)计算最终的    目标位置(at,bt)
     (6) //更新权重值,用于下一帧检测。首先通过式(11)和式(12)计算各决策者的损失Lmt和当前代价函数pmt;其次使用式(13)和式(14)更新稳    定性模型并计算每个决策者的稳定性度量值rmt;使用式(15b)和式(15a)计算每个决策者当前代价函数pmtαmt比例值和每个决策者    的累积代价函数Smt;并使用式(16)更新每个决策者所对应的权重wmt+1;最后通过式(5)更新k个跟踪器的权重;
     (7) end for;
    下载: 导出CSV

    表  2  测试视频序列包含的影响因素

    序列帧数影响因素
    basketball725形变、遮挡、光照变化、背景杂波等
    jumping313运动模糊、快速运动
    shaking365光照变化、背景杂波、尺度变化等
    couple140平面外旋转、尺度变化、形变等
    下载: 导出CSV
  • 侯志强, 张浪, 余旺盛, 等. 基于快速傅里叶变换的局部分块视觉跟踪算法[J]. 电子与信息学报, 2015, 37(10): 2397–2404. doi: 10.11999/JEIT150183

    HOU Zhiqiang, ZHANG Lang, YU Wangsheng, et al. Local patch tracking algorithm based on fast fourier transform[J]. Journal of Electronics &Information Technology, 2015, 37(10): 2397–2404. doi: 10.11999/JEIT150183
    HUANG C, LUCEY S, and RAMANAN D. Learning policies for adaptive tracking with deep feature cascades[C]. Proceedings of IEEE International Conference on Computer Vision, Venice, Italy, 2017: 105–114.
    KRIZHEVSKY A, SUTSKEVER I, and HINTON G E. ImageNet classification with deep convolutional neural networks[C]. Proceedings of the 25th International Conference on Neural Information Processing Systems, Lake Tahoe, Nevada, 2012: 1097–1105.
    WANG Linzhao, WANG Lijun, LU Huchuan, et al. Saliency detection with recurrent fully convolutional networks[C]. Proceedings of the 14th Computer Vision European Conference on Computer Vision, Amsterdam, The Netherlands, 2016: 825–841.
    LONG J, SHELHAMER E, and DARRELL T. Fully convolutional networks for semantic segmentation[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 3431–3440.
    DANELLJAN M, ROBINSON A, KHAN F S, et al. Beyond correlation filters: learning continuous convolution operators for visual tracking[M]. LEIBE B, MATAS J, SEBE N, et al. Computer Vision – ECCV 2016. Cham: Springer, 2016: 472–488.
    WANG Naiyan and YEUNG D Y. Learning a deep compact image representation for visual tracking[C]. Proceedings of the 26th International Conference on Neural Information Processing Systems, Lake Tahoe, Nevada, 2013: 809–817.
    BERTINETTO L, VALMADRE J, HENRIQUES J F, et al. Fully-convolutional siamese networks for object tracking[C]. Proceedings of the Computer Vision – ECCV 2016 Workshops, Amsterdam, The Netherlands, 2016: 850–865.
    DALAL N and TRIGGS B. Histograms of oriented gradients for human detection[C]. Proceedings of IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Diego, USA, 2005: 886–893.
    TIAN Gang, HU Ruimin, WANG Zhongyuan, et al. Improved object tracking algorithm based on new hsv color probability model[M]. YU Wen, HE Haibo, ZHANG Nian. Advances in Neural Networks – ISNN 2009. Berlin Heidelberg, Springer, 2009: 1145–1151.
    孙航, 李晶, 杜博, 等. 基于多阶段学习的相关滤波目标跟踪[J]. 电子学报, 2017, 45(10): 2337–2342. doi: 10.3969/j.issn.0372-2112.2017.10.004

    SUN Hang, LI Jing, DU Bo, et al. Correlation filtering target tracking based on online multi-lifespan learning[J]. Acta Electronica Sinica, 2017, 45(10): 2337–2342. doi: 10.3969/j.issn.0372-2112.2017.10.004
    DANELLJAN M, HÄGER G, KHAN F S, et al. Accurate scale estimation for robust visual tracking[C]. Proceedings of British Machine Vision Conference, Nottingham, UK, 2014: 65.1–65.11.
    HENRIQUES J F, CASEIRO R, MARTINS P, et al. Exploiting the circulant structure of tracking-by-detection with kernels[C]. Proceedings of the 12th European Conference on Computer Vision, Florence, Italy, 2012: 702–715.
    HENRIQUES J F, CASEIRO R, MARTINS P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583–596. doi: 10.1109/tpami.2014.2345390
    HELD D, THRUN S, and SAVARESE S. Learning to track at 100 FPS with deep regression networks[C]. Proceedings of the 14th European Conference on Computer Vision, Amsterdam, The Netherlands, 2016: 749–765.
    TAO Ran, GAVVES E, and SMEULDERS A W M. Siamese instance search for tracking[C]. Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 1420–1429.
    ZHANG Hainan, SUN Yanjing, LI Song, et al. Long-term tracking based on multi-feature adaptive fusion for video target[J]. IEICE Transactions on Information and Systems, 2018.
    CHAUDHURI K, FREUND Y, and HSU D. A parameter-free hedging algorithm[C]. Proceedings of the 22nd International Conference on Neural Information Processing Systems, Vancouver, British Columbia, Canada, 2009: 297–305.
    WU Yi, LIM J, and YANG M H. Online object tracking: a benchmark[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Portland, USA, 2013: 2411–2418.
    MUELLER M, SMITH N, and GHANEM B. Context-aware correlation filter tracking[C]. Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 1387–1395.
    DANELLJAN M, HÄGER G, KHAN F S, et al. Discriminative scale space tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(8): 1561–1575. doi: 10.1109/TPAMI.2016.2609928
    BERTINETTO L, VALMADRE J, GOLODETZ S, et al. Staple: complementary learners for real-time tracking[C]. Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 1401–1409.
    ZHANG Kaihua, LIU Qingshan, WU Yi, et al. Robust visual tracking via convolutional networks without training[J]. IEEE Transactions on Image Processing, 2016, 25(4): 1779–1792.
  • 期刊类型引用(16)

    1. 高智勇,乔姝函. 智能全景视觉传感网络视频多目标跟踪仿真. 计算机仿真. 2023(01): 223-226+238 . 百度学术
    2. 熊川,赵海盟. 基于像素分类的复杂场景中运动目标跟踪算法. 计算机仿真. 2023(03): 241-245 . 百度学术
    3. 赵远方. 基于数据融合和PSO的移动目标跟踪方法. 山东商业职业技术学院学报. 2023(05): 123-126 . 百度学术
    4. 范洁,谢鑫,陈战胜. 关键姿态映射下视频动态帧目标定位方法. 计算机仿真. 2022(03): 156-159+248 . 百度学术
    5. 杨波,王小虎. 自适应分块优化的目标跟踪算法. 计算机工程与设计. 2022(06): 1719-1724 . 百度学术
    6. 欧阳美龙. 基于分块提取与异步更新的目标跟踪算法. 火力与指挥控制. 2022(09): 120-127+136 . 百度学术
    7. 谭建豪,殷旺,刘力铭,王耀南. 引入全局上下文特征模块的DenseNet孪生网络目标跟踪. 电子与信息学报. 2021(01): 179-186 . 本站查看
    8. 徐涛,段仪浓,杜佳浩,刘才华. 基于多尺度增强网络的人群计数方法. 电子与信息学报. 2021(06): 1764-1771 . 本站查看
    9. 赵辉,李志伟,张天琪. 基于注意力机制的单发多框检测器算法. 电子与信息学报. 2021(07): 2096-2104 . 本站查看
    10. 董小伟,韩悦,张正,曲洪斌,高国飞,陈明钿,李博. 基于多尺度加权特征融合网络的地铁行人目标检测算法. 电子与信息学报. 2021(07): 2113-2120 . 本站查看
    11. 洪波,刘雪芹,秦志亮,马本俊,王飞,刘映锋. 水面运动目标跟踪监控系统的设计与实现. 海洋技术学报. 2021(04): 62-73 . 百度学术
    12. 张博,龙慧,刘刚. 基于特征约束与光流场模型的多通道视频目标跟踪算法. 液晶与显示. 2021(11): 1554-1564 . 百度学术
    13. 韩高峰. 基于数据挖掘的异构网络多源目标数据融合跟踪方法研究. 安庆师范大学学报(自然科学版). 2020(03): 43-46+56 . 百度学术
    14. 柳长源,王琪,毕晓君. 基于多通道多尺度卷积神经网络的单幅图像去雨方法. 电子与信息学报. 2020(09): 2285-2292 . 本站查看
    15. 李晓峰,邢金明. 融合时空多特征表示的运动人体目标跟踪算法. 应用科技. 2020(04): 26-31+41 . 百度学术
    16. 张晓颖,陶薇薇. 触屏媒体中缺陷图像校准检验算法研究. 计算机仿真. 2020(12): 140-143+306 . 百度学术

    其他类型引用(9)

  • 加载中
图(4) / 表(2)
计量
  • 文章访问数:  3544
  • HTML全文浏览量:  1536
  • PDF下载量:  174
  • 被引次数: 25
出版历程
  • 收稿日期:  2018-10-17
  • 修回日期:  2019-02-26
  • 网络出版日期:  2019-03-16
  • 刊出日期:  2019-10-01

目录

/

返回文章
返回