
Citation: | Han Qi-yi, Ren Meng-yin, Wen Hong. Topological Potential Based Recommendation Trust Model for P2P Communities System[J]. Journal of Electronics & Information Technology, 2015, 37(6): 1279-1284. doi: 10.11999/JEIT141303 |
目标跟踪是计算机视觉领域中的基础研究课题,它是视频分析中的一项重要技术,其目标是利用视频数据估计目标的状态。目标跟踪在视频监控、车辆导航、人机交互、智能交通、运动分析和姿态估计等民用领域,以及视觉制导、目标定位和火力控制等军事领域均有重要的应用价值。近年来,虽然目标跟踪有了较大发展,但是其仍然面临复杂背景、目标变化和快速运动等诸多难题,目前仍然是计算机视觉领域中研究的热点问题。
受到结构化SVM在目标检测中应用的启发,Hare等人[1]于2011年在ICCV上首次提出基于结构化SVM的目标跟踪方法Struck,2015年该文的扩展[2]发表在顶级国际期刊IEEE Transactions on Pattern Analysis and Machine Intelligence上。Struck把目标跟踪看作结构化学习问题,避免了传统判别式跟踪的中间分类环节,显著提高了目标跟踪的性能。为了适应目标的变化同时又不丢失目标的时间上下文信息,Yao等人[3]于2012年提出一种加权在线结构化SVM跟踪方法,进一步提升了结构化SVM跟踪的性能。为了提高遮挡与形变目标的跟踪性能,2013年,Yao等人[4]又以在线算法Pegasos为基础,提出一种在线结构化SVM用于目标跟踪。为了解决目标跟踪中存在的模型漂移问题,2012年Bai等人[5]提出一种在线拉普拉斯排序SVM跟踪。同样是为了应对模型漂移问题,Zhang等人[6]于2014年提出了MEEM跟踪,该方法以在线SVM作为基础跟踪建立专家组跟踪目标,取得了较好的效果。2015年Hong等人[7]利用在线SVM指导反向传播特定目标的CNN特征到输入层,进而建立特定目标的显著图跟踪目标,该方法建立的显著图保持了目标的空间结构,增强了目标跟踪的鲁棒性。2016年Ning等人[8]基于对偶坐标下降原理提出一种对偶线性结构化SVM目标跟踪方法,该方法保证了目标跟踪的鲁棒性,同时又提高了目标跟踪的速度。2017年Wang等人[9]提出LMCF跟踪,该方法利用相关滤波对基于结构化SVM的目标跟踪进行了加速。2018年Ji等人[10]采用了与LMCF跟踪类似的思想来加速基于目标部件的结构化SVM跟踪。2019年Zuo等人[11]提出一种基于离散傅里叶变换的交替优化方法求解相关滤波器,并设计了多通道支撑相关滤波器跟踪目标,进一步提升了基于SVM的目标跟踪的性能。
综上所述,基于结构化SVM的目标跟踪方法具有较优的跟踪性能,受到了广泛的关注,但是现有方法存在正样本和负样本不平衡的问题。针对基于结构化SVM的目标跟踪中存在的负样本和正样本不平衡的问题,本文提出一种代价敏感结构化SVM模型,基于对偶坐标优化原理设计了该模型的求解算法,并利用该算法实现了单尺度目标跟踪算法(Dual Liner Cost Sensitive Structured Support Machine, DLCS-SSVM)和多尺度目标跟踪方法(Scale Dual Liner Cost Sensitive Structured Support Machine, Scale-DLCS-SSVM)。利用OTB100数据集[12]和VOT2019数据集[13]对提出的目标跟踪方法进行了实验验证,并与现有的先进目标跟踪方法进行了比较。实验结果表明,本文提出的目标跟踪方法达到了预期的跟踪效果,与现有目标跟踪方法相比具有较好的性能。
为了解决SVM中存在的正负样本不平衡的问题,文献[14]提出一种代价敏感支持向量机。假设二分类训练数据集是
argminw,b,ξi12‖w‖2+C(C1∑{i|yi=1}ξi+1κ∑{i|yi=−1}ξi)∀ξi≥0s.t.(wTxi+b)≥1−ξi;yi=+1(wTxi+b)≤−κ+ξi;yi=−1 | (1) |
其中
κ=12C−1−1,0<κ≤1≤1κ≤C1 | (2) |
w和b分别是SVM分类器的法向量和偏置,ξi是松弛变量,C, C1, C–1和κ是正则化参数。
受到结构化SVM在目标检测中应用的启发,2011年Hare等人[1]提出了基于结构化SVM的目标跟踪Struck。Struck把目标跟踪看作结构化学习问题,避免了传统判别式跟踪的中间分类环节,显著提高了目标跟踪的性能。在利用结构化学习器进行预测时,其目标是预测给定样本x∈Rd的结构化输出y∈Y,其中Y可以是任意结构输出空间。在基于结构化SVM的目标跟踪中,Y是矩形框空间,它的任一元素用(x,y,w,h)表示,其中(x,y)表示矩形框的中心位置,w和h分别表示矩形框的宽和高。假设训练数据为
y∗=argmax | (3) |
其中,
\begin{split} & \mathop {\min }\limits_{\boldsymbol{w}} \frac{1}{2}{\left\| {\boldsymbol{w}} \right\|^2} + C\sum\limits_{i = 1} {{\xi _i}} \\ & {{\rm{s}}{\rm{.t}}{\rm{.}}} \ \ \;\;\forall i,{\xi _i} \ge 0 \\ & \;\; \quad\quad \forall i,\forall {\boldsymbol{y}} \ne {{\boldsymbol{y}}_i}:\left\langle {{\boldsymbol{w}},{{\boldsymbol{\varPsi }}_i}({\boldsymbol{y}})} \right\rangle \ge L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) - {\xi _i} \end{split} | (4) |
其中,
L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) = 1 - s({{\boldsymbol{y}}_i},{\boldsymbol{y}}) | (5) |
其中
s\left( {{{\boldsymbol{y}}_i},{\boldsymbol{y}}} \right) = \frac{{{{\boldsymbol{y}}_i} \cap {\boldsymbol{y}}}}{{{{\boldsymbol{y}}_i} \cup {\boldsymbol{y}}}} | (6) |
现有基于结构化SVM的目标跟踪方法存在正样本和负样本不平衡的问题。如图1所示,与目标重叠区域较大的训练样本称为正样本,与目标重叠区域较小的训练样本称为负样本。目标跟踪需要在当前目标周围区域中进行采样更新表观模型。从图1可以看出,在采样得到的样本中,负样本的数量远大于正样本的数量,即负样本与正样本严重不平衡。其中,黑色实线是非代价敏感结构化SVM的超平面,红色虚线是代价敏感结构化SVM的超平面。当训练数据集不平衡时,SVM分类器对少数类的识别率较低,因此该问题制约了目标跟踪的性能。为了解决正样本和负样本不平衡对基于结构化SVM目标跟踪方法性能的影响,本文将文献[14]的思想引入到文献[1]提出的结构化SVM中,设计一种基于代价敏感的结构化SVM模型,描述为
\begin{split} &\mathop {\min }\limits_{\boldsymbol{w}} \frac{1}{2}{\left\| {\boldsymbol{w}} \right\|^2} + C\left( {{C^ + }\sum\limits_{{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i},\atop L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) < m} {{\xi _i}} + \frac{1}{\kappa }\sum\limits_{{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i},\atop L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) \ge m} {{\xi _i}} } \right)\\ &\quad\;\;\;\; \forall i,\;{\xi _i} \ge 0\\ &{{\rm{s}}{\rm{.t}}{\rm{.}}}\;\;\;\forall i,\forall {\boldsymbol{y}} \ne {{\boldsymbol{y}}_i},\;L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) < m\\ &\;\;\;\; \quad\left\langle {{\boldsymbol{w}},{{\boldsymbol{\varPsi }}_i}({\boldsymbol{y}})} \right\rangle \ge L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) - {\xi _i}\\ &\;\;\;\; \quad \forall i,\forall {\boldsymbol{y}} \ne {{\boldsymbol{y}}_i},\;L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) \ge m\\ &\;\;\;\; \quad\left\langle {{\boldsymbol{w}},{{\boldsymbol{\varPsi }}_i}({\boldsymbol{y}})} \right\rangle \ge \kappa L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) - {\xi _i}\\[-10pt] \end{split} | (7) |
其中,
\kappa = \frac{1}{{2{C^ - } - 1}},\;0 < \kappa \le 1 \le \frac{1}{\kappa } \le {C^ + } | (8) |
为了求解本文提出的代价敏感结构化支持向量机式(7),使用拉格朗日乘子法可得到其对偶问题,为此引入拉格朗日乘子
\forall i,\forall {\bf{y}} \ne {{\bf{y}}_i}:\alpha _i^{\bf{y}} \ge 0,\;\beta _i^{\bf{y}} \ge 0 | (9) |
则式(7)的拉格朗日函数为
\begin{split} & L({\boldsymbol{w}},\xi ,\alpha ,\beta ) = \frac{1}{2}{\left\| {\boldsymbol{w}} \right\|^2} \\ & \quad + {\rm{ }}C\left( {{C^ + }\sum\limits_{i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i}\atop L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) < m}^{} {{\xi _i}} + \frac{1}{\kappa }\sum\limits_{i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i}\atop L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) \ge m}^{} {{\xi _i}} } \right) \\ & \quad - \sum\limits_{i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i}\atop L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) < m}^{} {\alpha _i^{\boldsymbol{y}}\left( {\left\langle {{\boldsymbol{w}},{{\boldsymbol{\varPsi }}_i}({\boldsymbol{y}})} \right\rangle + \xi _i^{} - L({{\boldsymbol{y}}_i},{\boldsymbol{y}})} \right)} \\ & \quad-\sum\limits_{i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i}\atop L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) \ge m}^{} {\alpha _i^{\boldsymbol{y}}\left( {\left\langle {{\boldsymbol{w}},{{\boldsymbol{\varPsi }}_i}({\boldsymbol{y}})} \right\rangle + {\xi _i} - \kappa L({{\boldsymbol{y}}_i},{\boldsymbol{y}})} \right)} \\ & \quad - {\rm{ }}\sum\limits_{i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i}}^{} {\beta _i^{\boldsymbol{y}}{\xi _i}} \end{split} | (10) |
将拉格朗日函数
{\boldsymbol{w}} = \sum\limits_{i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i}}^{} {\alpha _i^{\boldsymbol{y}}{{\boldsymbol{\varPsi }}_i}({\boldsymbol{y}})} | (11) |
\forall i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i},\;L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) < m,\;C{C^ + } - \alpha _i^{\boldsymbol{y}} - \beta _i^{\boldsymbol{y}}{\rm{ = }}0 | (12) |
\forall i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i},\;L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) \ge m,\;\frac{C}{\kappa } - \alpha _i^{\boldsymbol{y}} - \beta _i^{\boldsymbol{y}}{\rm{ = }}0 | (13) |
将式(11)—式(13)代入式(10),可以将
\begin{split} \mathop {{\rm{min}}}\limits_{\alpha \ge 0} L(\alpha ) =\,& \frac{1}{2}{\left\| {\sum\limits_{i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i}}^{} {\alpha _i^{\boldsymbol{y}}{{\boldsymbol{\varPsi }}_i}({\boldsymbol{y}})} } \right\|^2} - \sum\limits_{i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i},\atop L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) < m}^{} {\alpha _i^{\boldsymbol{y}}L({{\boldsymbol{y}}_i},{\boldsymbol{y}})} \\ & - \kappa \sum\limits_{i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i},\atop L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) \ge m}^{} {\alpha _i^{\boldsymbol{y}}L({{\boldsymbol{y}}_i},{\boldsymbol{y}})} \end{split} \tag{14a} |
{\rm{s}}{\rm{.t}}{\rm{.}}\;\forall i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i},\;L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) < m,\;\alpha _i^{\boldsymbol{y}} \ge 0,\sum\limits_{\boldsymbol{y}} {\alpha _i^{\boldsymbol{y}}} \le C{C^ + } \tag{14b} |
\forall i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i},\;L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) \ge m,\;\alpha _i^{\boldsymbol{y}} \ge 0,\;\sum\limits_{\boldsymbol{y}} {\alpha _i^{\boldsymbol{y}}} \le \frac{C}{\kappa } \tag{14c} |
本文模型采用线性核,并基于对偶坐标优化原理[15]设计模型式(14)的求解算法。由文献[15]可知,对偶坐标优化(Dual Coordinate Descent,DCD)算法每次利用式(15)从训练集中选择一个训练样本k,然后利用式(16)更新其对偶标量
{\boldsymbol{y}}_k^ * = \mathop {\arg \max }\limits_{{\boldsymbol{y}} \in {{\boldsymbol{Y}}_k}} L({\boldsymbol{y}},{{\boldsymbol{y}}_k}) - {{\boldsymbol{w}}^{\rm T}}{{\boldsymbol{\varPsi }}_k}\left( {\boldsymbol{y}} \right) | (15) |
\qquad \alpha _k^{{{\boldsymbol{y}}^ * }({\rm{new}})} = \alpha _k^{{{\boldsymbol{y}}^ * }({\rm{old}})} + \Delta \alpha _k^{{{\boldsymbol{y}}^ * }} | (16) |
解决问题的关键是如何求得式(16)中的
\begin{split} L(\Delta \alpha _k^{{{\boldsymbol{y}}^ * }}) = \,& \frac{1}{2}{\left( {\alpha _k^{{{\boldsymbol{y}}^ * }({\rm{old}})} + \Delta \alpha _k^{{{\boldsymbol{y}}^ * }}} \right)^2}{\left\| {{{\boldsymbol{\varPsi }}_k}({{\boldsymbol{y}}^ * })} \right\|^2} \\ & + \Delta \alpha _k^{{{\boldsymbol{y}}^ * }}\sum\limits_{i \ne k\atop {{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i}\atop {\boldsymbol{y}} \ne {{\boldsymbol{y}}^ * }}} {\alpha _i^{\boldsymbol{y}}{{\boldsymbol{\varPsi }}_i}({\boldsymbol{y}}){{\boldsymbol{\varPsi }}_k}({\boldsymbol{y}})} \\ &- \Delta \alpha _k^{{{\boldsymbol{y}}^ * }}L({{\boldsymbol{y}}_k},{{\boldsymbol{y}}^ * })\left| {_{L({{\boldsymbol{y}}_k},{{\boldsymbol{y}}_i}) < m}} \right. \\ & - \kappa \Delta \alpha _k^{{{\boldsymbol{y}}^ * }}L({{\boldsymbol{y}}_k},{{\boldsymbol{y}}^ * })\left| {_{L({{\boldsymbol{y}}_k},{{\boldsymbol{y}}_i}) \ge m}} \right. + {\rm{c}} \end{split} | (17) |
其中,
\begin{split} & \forall i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i},\;L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) < m,\\ & \Delta \alpha _k^{{{\boldsymbol{y}}^ * }} = \frac{{L({{\boldsymbol{y}}_k},{{\boldsymbol{y}}^ * }) - {{\boldsymbol{w}}^{\rm{T}}}{{\boldsymbol{\varPsi }}_k}({{\boldsymbol{y}}^ * })}}{{{{\left\| {{{\boldsymbol{\varPsi }}_k}({{\boldsymbol{y}}^ * })} \right\|}^2}}} \end{split} | (18) |
\begin{split} & \forall i,{\boldsymbol{y}} \ne {{\boldsymbol{y}}_i},\;L({{\boldsymbol{y}}_i},{\boldsymbol{y}}) \ge m,\\ & \Delta \alpha _k^{{{\boldsymbol{y}}^ * }} = \frac{{\kappa L({{\boldsymbol{y}}_k},{{\boldsymbol{y}}^ * }) - {{\boldsymbol{w}}^{\rm{T}}}{{\boldsymbol{\varPsi }}_k}({{\boldsymbol{y}}^ * })}}{{{{\left\| {{{\boldsymbol{\varPsi }}_k}({{\boldsymbol{y}}^ * })} \right\|}^2}}} \end{split} | (19) |
根据约束条件式(14b)可得
当
\left[ - \alpha _k^{{{\boldsymbol{y}}^ * }({\rm{old}})},C{C^ + } - \sum\limits_{\boldsymbol{y}} {\alpha _k^{\boldsymbol{y}}} \right] | (20) |
根据约束条件式14(c)可得
当
\left[ - \alpha _k^{{{\boldsymbol{y}}^ * }({\rm{old}})},\frac{C}{\kappa } - \sum\limits_{\boldsymbol{y}} {\alpha _k^{\boldsymbol{y}}} \right] | (21) |
利用式(18)—式(21)可以得到
{{\boldsymbol{w}}^{({\rm{new}})}} = {{\boldsymbol{w}}^{({\rm{old}})}} + \Delta \alpha _k^{{{\boldsymbol{y}}^ * }}{{\boldsymbol{\varPsi }}_k}\left( {{{\boldsymbol{y}}^ * }} \right) | (22) |
在基于结构化SVM的目标跟踪中,随着时间的推移,结构化SVM中的支持向量的数量不断增加。为了保证目标跟踪的效率,需要固定支持向量的数目。为此,当结构化SVM中模式数超出预算时,根据式(23)选择一个支持向量删除,本文提出的代价敏感结构化SVM采用这一策略。
{\alpha ^ * } = \mathop {\arg \min }\limits_{\alpha _i^{\boldsymbol{y}} \in \alpha } {\left\| {\alpha _i^{\boldsymbol{y}}{{\boldsymbol{\varPsi }}_i}\left( {{{\boldsymbol{x}}_i},{\boldsymbol{y}}} \right)} \right\|^2} | (23) |
综上所述,本文提出的代价敏感结构化SVM学习算法如算法1所示。
算法1 代价敏感结构化SVM学习算法
输入:t-1时刻代价敏感结构化SVM的参数
输出:t时刻代价敏感结构化SVM的参数
步骤1
For j=1:n1
步骤2 计算模式集
步骤3 令
步骤4 用式(15),从模式
步骤5 用式(16),更新
步骤6 用式(22),更新
步骤7 如果模式集
步骤8 计算模式集
For p=1:n2
令
步骤9 用式(15),从模式
步骤10 用式(16),更新
步骤11 用式(22),更新
End For
End For
步骤12 令
说明:算法1中n1和n2是外部循环和内循环的迭代次数,本文分别取5和10。
本文使用网格搜索生成候选样本,搜索区域的大小由跟踪目标的大小自适应确定。样本的大小设定为20×20。在得到代价敏感结构化SVM的超平面w后,利用内积运算计算候选样本的得分,根据最大得分准则式(24)估计目标的状态。
{{\boldsymbol{y}}^ * } = \mathop {\arg \max }\limits_{{\boldsymbol{y}} \in {\boldsymbol{Y}}} {{\boldsymbol{w}}^{\rm{T}}}{{\boldsymbol{\varPsi }}_t}\left( {\boldsymbol{y}} \right) | (24) |
对于目标特征,本文选择目标的Lab颜色和局部秩变换(Local Rank Transformation, LRT)特征,LRT特征的计算方法同文献[16],这里不再详述。基于上面的分析,本文提出的代价敏感结构化SVM目标跟踪方法描述如下。
方法1 代价敏感结构化SVM目标跟踪方法
输入:序列图像
输出:每一帧的跟踪结果
步骤1 根据当前目标状态
步骤2 初始
步骤3 调用算法1初始化t=1时刻DLCS_SSVM的参数
For (t=2:T),
For (k=1: length(Sp))
It,k=Scale(It,Sp[k]);
步骤4 利用滑动窗口在It,k上的搜索区域中采样测试样本
步骤5 利用最大化得分准则估计目标当前状态:
End For
{{\boldsymbol{s}}_{\rm{t}}} = \max ({\boldsymbol{s}}_{t,k}^{\rm{m}} ),\;m \in {\rm{S}}p |
步骤6 根据当前目标状态
步骤7 调用算法1更新DLCS_SSVM的
End For
方法1中It,k=Scale(It, Sp[k])的功能是利用尺度参数Sp[k]对图像It进行缩放,结果赋予It,k。对于单尺度目标跟踪,尺度参数Sp设定为{1},即可完成单尺度目标跟踪,称为单尺度代价敏感结构化SVM目标跟踪方法(简称DLCS_SSVM)。对于多尺度目标跟踪,尺度参数Sp={Sp[1], Sp[2], ···, Sp[n]},本文Sp={1, 0.995, 1.005},即在3种不同尺度图像上分别跟踪目标,以最大得分作为跟踪结果,即可完成多尺度目标跟踪,称为多尺度代价敏感结构化SVM目标跟踪(Scale-DLCS_SSVM)。
在SYS-7048GR-TR台式机(CPU型号为Intel Xeon(R) ES-2630v4@2.20 GHz×20,内存为64 GB,GPU为RTX2080Ti 11 GB)上使用Matlab和OpenCV实现了本文提出的跟踪方法,其中Matlab版本为R2017a, OpenCV版本为2.4.8。一方面利用OTB100数据集[12]对提出的目标跟踪方法进行实验验证。评价指标为OPE, TRE和SRE[12]。另一方面利用VOT2019数据集[13]对提出的目标跟踪方法进行实验验证。评价指标为EAO, Accuracy, Robustness[13]。本文提出的目标跟踪方法中有一些需要设置参数,实验中这些参数固定不变。惩罚系数C的值为100,支持向量的预算设为100,C+的值设为2,κ的值设为0.67,正样本与负样本的阈值m设为0.5。多尺度估计参数设置为Scale={1, 0.995, 1.005}。
表1给出了本文方法DLCS_SSVM, Scale-DLCS_SSVM, DLSSVM[8], Scale-DLSSVM[8], Struck[1]和LMCF[9]等6种基于结构化SVM跟踪器在OTB100数据集上的OPE性能指标比较结果。从表1可以看出,在精度和成功率两项指标上,本文提出的方法Scale-DLCS_SSVM均明显优于其它跟踪器。在跟踪速度上,本文选择一个长视频liquor(1741帧)[12]进行评估。由表1中的比较结果可以看出:本文方法与DLSSVM[8]方法相比不仅在性能上有明显提升,而且对目标跟踪速度几乎没有影响。
由表2与其他高性能跟踪器跟踪速度比较可知,相较于深度学习目标跟踪方法,如DeepLMCF[9]和DeepSRDCF[17],本文方法速度明显更快。相较于相关滤波目标跟踪方法,如TADT[18],本文单尺度方法速度与其速度相当,能够达到实时的跟踪效果。
在OTB100数据集上,将本文提出的目标跟踪方法与4种优秀的目标跟踪方法进行比较。4种方法分别是基于深度学习的DeepSRDCF[17]、基于相关滤波的Staple[19]、基于结构化SVM的多尺度跟踪Scale-DLSSVM[8]及基于结构化SVM与相关滤波的LMCF[9]。图2为6种跟踪器在OTB100数据集上取效果前5名的OPE, TRE和SRE性能指标曲线。从图2中的结果可以看出,本文提出的Scale-DLCS_SSVM与DLCS_SSVM跟踪器在准确度和成功率两个指标上相比Scale-DLSSVM跟踪方法都有明显的提高。且在OPE评价指标上Scale-DLCS_SSVM相比DeepSRDCF[17]在成功率上高1.3%,在TRE评价指标上Scale-DLCS_SSVM相比DeepSRDCF[17]在成功率上高1.5%,在SRE评价指标上Scale-DLCS_SSVM相比DeepSRDCF[17]在成功率上高1.0%。
如表3所示,本文选取近两年高性能的深度学习与相关滤波跟踪方法在VOT2019数据集上进行比较。由表3可知,本文多尺度方法在单个指标上略低于SiamMask,但是相较于其他高性能方法来说在各个性能上有着优势。
从上述所有实验结果可以看出:本文提出的目标跟踪方法达到了预期的跟踪效果,其跟踪性能优于现有基于结构化SVM的目标跟踪方法;与相关滤波目标跟踪方法相比,本文方法跟踪精度较高;与深度学习目标跟踪方法相比,本文方法具有速度优势。
本文分析了基于结构化SVM的目标跟踪在进行训练时存在正样本和负样本不平衡的问题。针对该问题,基于代价敏感SVM和结构化SVM提出一种代价敏感结构化SVM模型,并利用对偶坐标下降优化设计了代价敏感结构化SVM算法。最后,利用提出的代价敏感结构化SVM实现了一种多尺度目标跟踪方法。利用OTB100数据集和VOT2019数据集分别对提出的目标跟踪方法进行了实验验证和分析。实验结果表明,与相关滤波目标跟踪中的一些优秀方法相比,本文方法跟踪精度较高,与深度目标跟踪中的一些优秀方法相比,本文方法具有速度优势。在目标跟踪中,由于跟踪误差会引起模型漂移,进而导致跟踪失败,如何利用结构化SVM解决这一问题是进一步研究的方向。
Feldman M, Padimitriou C, Chuang J, et al.. Free-riding and whitewashing in peer-to-peer systems[J]. IEEE Selected Areas in Communications, 2006, 24(5): 1010-1019.
|
Saroiu S, Gummadi P K, and Gribble S D. A measurement study of peer-to-peer file sharing systems[C]. SPIE International Conference on Multimedia Computing and Networking, San Jose, USA, 2002: 156-170.
|
Huang Kun and Wang Lu. Research of trust model based on peer-to-peer network security[C]. IEEE International Conference on Information Technology and Applications, Chengdu, China, 2013: 126-129.
|
Ahmet C and Bharat B. SORT: a self-organizing trust model for peer-to-peer systems[J]. IEEE Transactions on Dependable and Secure Computing, 2013, 10(1): 14-27.
|
Kamvar D and Schlosser T. EigenRep: reputation management in P2P networks[C]. The 12th ACM International World Wide Web Conference, Budapest, Hungary, 2003: 123-134.
|
窦文, 王怀民, 贾焰, 等. 构造基于推荐的Peer-to-Peer环境下的Trust模型[J]. 软件学报, 2004, 15(4): 571-583.
|
Dou Wen, Wang Huai-min, Jia Yan, et al.. A recommendation-based peer-to-peer trust model[J]. Journal of Software, 2004, 15(4): 571-583.
|
Zhou Run-fang, Hwang Kai, and Cai Min. GossipsTrust for fast reputation aggregation in peer-to-peer networks[J]. IEEE Transactions on Knowledge and Data Engineering, 2008, 20(9): 1282-1295.
|
Xu Hai-mei, Liu Yu-lin, Qi Shou-qing, et al.. A novel trust model based on probability and statistics for peer to peer networks[C]. IEEE International Conference on Quality, Reliability, Risk, Maintenance, and Safety Engineering, Chengdu, China, 2013: 2047-2050.
|
Wang Guo-jun, Felix M, Guo Song, et al.. Neighbor similarity trust against sybil attack in P2P e-commerce[J]. IEEE Transactions on Parallel and Distributed Systems, DOI: 10.1109/TPDS.2014.2312932.
|
Li Xiong and Ling Liu. PeerTrust: supporting reputation- based trust for peer-to-peer electronic communities[J]. IEEE Transactions on Knowledge and Data Engineering, 2004, 16(7): 843-857.
|
田春岐, 江建慧, 胡治国, 等. 一种基于聚集超级节点的P2P网络信任模型[J]. 计算机学报, 2010, 33(2): 345-355.
|
Tian Chun-qi, Jiang Jian-hui, Hu Zhi-guo, et al.. A novel super peer based trust model for peer to peer networks[J]. Chinese Journal of Computers, 2010, 33(2): 345-355.
|
Adele J, Rameez R, Tamas V, et al.. Systemic risk and user-level performance in private P2P communities[J]. IEEE Transactions on Parallel and Distributed Systems, 2013, 24(12): 2503-2512.
|
Niu Chang-yong, Luo Heng, Fan Ming, et al.. On feedback similarity measurement in web of trust[C]. IEEE Global Congress on Intelligent Systems, Xiamen, China, 2009, 3: 33-37.
|
Wang Jun-she, Li Xiao-long, and Zhang Yun. Research of P2P network trust model[C]. IEEE International Conference on Intelligent Human-Machine Systems and Cybernetics, Hangzhou, China, 2013: 70-73.
|
张健沛, 李泓波, 杨静, 等. 基于拓扑势的网络社区结点重要度排序算法[J]. 哈尔滨工程大学学报, 2012, 33(6): 745-752.
|
Zhang Jian-pei, Li Hong-bo, Yang Jing, et al.. An importance-sorting algorithm of network community nodes based on topological potential[J]. Journal of Harbin Engineering University, 2012, 33(6): 745-752.
|
淦文燕, 赫南, 李德毅, 等. 一种基于拓扑势的网络社区发现方法[J]. 软件学报, 2009, 20(8): 2241-2254.
|
Gan Wen-yan, He Nan, Li De-yi, et al.. Community discovery method in networks based on topological potential[J]. Journal of Software, 2009, 20(8): 22412254.
|
王子厚, 韩言妮, 林涛, 等. 可重构网络中基于中心度与拓扑势排序的资源分配算法[J]. 通信学报, 2012, 33(8): 10-20.
|
Wang Zi-hou, Han Yan-ni, Lin Tao, et al.. Resource allocation algorithms in the reconfigurable network based on network centrality and topology potential[J]. Journal on Communications, 2012, 33(8): 10-20.
|