高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于时空信息融合的无人艇水面目标检测跟踪

周治国 荆朝 王秋伶 屈崇

周治国, 荆朝, 王秋伶, 屈崇. 基于时空信息融合的无人艇水面目标检测跟踪[J]. 电子与信息学报, 2021, 43(6): 1698-1705. doi: 10.11999/JEIT200223
引用本文: 周治国, 荆朝, 王秋伶, 屈崇. 基于时空信息融合的无人艇水面目标检测跟踪[J]. 电子与信息学报, 2021, 43(6): 1698-1705. doi: 10.11999/JEIT200223
Zhiguo ZHOU, Zhao JING, Qiuling WANG, Chong QU. Object Detection and Tracking of Unmanned Surface Vehicles Based on Spatial-temporal Information Fusion[J]. Journal of Electronics & Information Technology, 2021, 43(6): 1698-1705. doi: 10.11999/JEIT200223
Citation: Zhiguo ZHOU, Zhao JING, Qiuling WANG, Chong QU. Object Detection and Tracking of Unmanned Surface Vehicles Based on Spatial-temporal Information Fusion[J]. Journal of Electronics & Information Technology, 2021, 43(6): 1698-1705. doi: 10.11999/JEIT200223

基于时空信息融合的无人艇水面目标检测跟踪

doi: 10.11999/JEIT200223
详细信息
    作者简介:

    周治国:男,1977年生,副教授,研究方向为海上目标探测、识别理论及方法

    荆朝:男,1995年生,硕士生,研究方向为智能无人航行器信息感知与导航

    王秋伶:女,1994年生,硕士生,研究方向为智能无人航行器信息感知与导航

    屈崇:男,1980年生,高级工程师,研究方向为智能船舶

    通讯作者:

    周治国 zhiguozhou@bit.edu.cn

  • 中图分类号: TN911.73; TP391.4

Object Detection and Tracking of Unmanned Surface Vehicles Based on Spatial-temporal Information Fusion

  • 摘要: 在无人艇(USV)的导航、避障等多种任务中,目标检测与跟踪都十分重要,但水面环境复杂,存在目标尺度变化、遮挡、光照变化以及摄像头抖动等诸多问题。该文提出基于时空信息融合的无人艇水面视觉目标检测跟踪,在空间上利用深度学习检测,提取单帧深度语义特征,在时间上利用相关滤波跟踪,计算帧间方向梯度特征相关性,通过特征对比将时空信息进行融合,实现了持续稳定地对水面目标进行检测与跟踪,兼顾了实时性和鲁棒性。实验结果表明,该算法平均检测速度和精度相对较高,在检测跟踪速度为15 fps情况下,检测跟踪精确度为0.83。
  • 近年来,能够独立完成自主作业任务的水面无人艇(Unmanned Surface Vehicle, USV)发展迅速,主要用于执行不适于有人船只执行的危险任务,在民用和军事领域的应用前景极其广泛。无人艇的自主导航需要利用视觉检测与跟踪感知周围环境,但是水面存在目标难以采样,目标形变、光照变化、尺度变化、目标遮挡、摄像头抖动等多种状况[1],这些不可预测的问题增加了无人艇视觉检测跟踪的难度,可能会造成虚警、漏检、跟踪失败等后果。

    在海天背景下的目标检测识别领域,主要从传统图像处理方法和深度学习两个角度展开研究。传统方法主要是通过研究水面环境下的前景和背景特征、滤波理论实现对目标的识别。传统算法[2,3]运行速度较快,在光照条件良好、没有遮挡、运动缓慢的环境下表现较好,但在水面复杂条件下检测效果不佳,例如光照过强或过弱时,往往会出现误检过亮波浪噪点、漏检过暗目标等问题,难以满足鲁棒性需求。

    深度学习算法在目标识别领域中取得了良好的效果。Faster RCNN[4], YOLO[5], SSD[6] 等在经典数据集上的目标识别效果已经远远超过了传统方法。在水面目标识别方面,Qin等人[7]设计FCN-8s网络结构用于检测水面障碍物;Yang等人[8]通过Faster-RCNN检测目标的候选框,在候选框中实现图像分割。深度学习算法精度较高,但是检测速度较慢,需要高功耗实验设备的支持,难以移植到嵌入式设备中。

    目前的视觉检测算法大都是针对固定的一帧静态图片进行处理,而帧与帧之间时间上的信息并没有得到充分利用,在对视频进行处理时可能会出现目标漏检等情况。

    与视觉目标检测相比,目标跟踪对实时性的要求更高,按有无检测过程的参与,可分为生成式跟踪与判别式跟踪。生成式跟踪[9-11]是先对前景目标进行表观建模,再按一定的跟踪策略估计目标的最优位置,这类方法极易受到干扰,导致跟踪失败。判别式跟踪[12-14]将跟踪看作前景与背景的二分类问题,通过对每一帧图像进行目标检测来获取跟踪目标状态,跟踪相对稳定但对训练样本的依赖程度相对较高。基于时频变换的相关滤波跟踪算法计算高效,近年来受到广泛关注[15-20]。Henriques 等人[21]于2015年提出了核化相关滤波器(Kernelized Correlation Filter, KCF)算法,扩充了CSK,在其中引入不同的核方法以及方向梯度直方图(Histogram of Oriented Gradient, HOG)特征,大大提高了跟踪算法的精度。

    这些目标跟踪算法主要是基于视频序列中的时间信息对目标进行处理,对其具体位置及尺度等空间信息的确定精确度不高,跟踪过程中可能会不断积累误差,造成目标漂移,导致跟踪失败。

    本文提出基于时空信息融合的无人艇水面目标检测跟踪,利用深度学习检测获得更加精确的空间位置和尺度信息,减少累积误差,利用相关滤波跟踪计算视频帧间梯度特征的时间信息相关性,即视频帧与帧之间的关联性,降低漏检概率,保证运行速度,在跟踪的过程中每隔一定的图像帧数后运行一次检测,通过特征对比将时空信息进行融合,在确保跟踪速度和准确率的情况下,还能够及时检测到水面视野中新出现的目标并长时间持续跟踪。

    基于时空信息融合的无人艇水面目标检测跟踪主要分为3个部分,基于空间信息的深度学习检测、基于时间信息的相关滤波跟踪和时空信息的融合。先通过单发多盒探测器(Single Shot multibox Detector, SSD)检测视频图像,再利用KCF技术对水面目标进行跟踪,在跟踪一定帧数后再次引入SSD检测机制,比较旧跟踪框与新检测框的置信度,通过时空信息融合策略得到合适的框继续跟踪,若在视野中检测到有新的目标出现,则同时跟踪新目标。系统整体架构如图1所示。

    图 1  算法框架图

    本文采用基于SSD算法框架实现对目标的检测,并针对水面环境的特殊性,改进默认框生成方法,提高目标空间信息检测精度。

    输入图像首先由基础网络经过迭代卷积运算充分提取特征,再通过附加网络进行进一步的特征提取与分析,利用卷积预测器进行目标位置偏移量预测与分类,最后用非极大值抑制方法去除冗余。基础网络采用VGG结构作为特征提取网络,在网络末端使用2个卷积层替换原网络的2个全连接层,并在其后增加8层附加网络进一步提高特征提取能力。深度不同的特征图的感受野不同,对不同尺度目标的响应也不同。SSD检测网络从特征提取网络抽取conv4_3, conv7, conv8_2, conv9_2, conv10_2和池化层pool11共6层尺度递减的特征图作为输入,以实现多尺度目标的检测。其网络结构图如图2所示。

    图 2  检测算法网络结构图

    检测多尺度目标分3步:在不同尺度特征图上生成宽高比不同面积相同的默认框;经过大量样本的训练卷积预测器以默认框中的抽象特征为输入,预测默认框的偏差;通过非极大值抑制去除置信度较低的冗余框。

    默认框生成方法改进如下:

    设需要在共m个特征图上做预测,则第k个特征图上默认框面积(尺度)sk

    sk=smin+smaxsminm1(k1),k[1,m]
    (1)

    本文取m=6,最小面积为0.20,最大面积为0.95。本文采用K-means聚类分析算法处理数据集中所有目标的宽高比,得到5个聚类中心,即新的宽高比ar∈{1.0, 1.8, 2.5, 3.8, 5.0},为目标检测提供更好的初值。

    利用SSD卷积网络得到固定默认框到实际目标的坐标偏移量与类别的得分,通过类别得分和坐标偏移量的归一化和加权,得到损失函数

    L(xkij,c,l,g)=1N[Lconf(xkij,c)+αLloc(xkij,l,g)]
    (2)

    其中xkij=1表示候选框i与类别p的真实框j匹配成功,反之代表匹配失败。N是与真实值可以匹配的候选框的个数,Lloc是位置损失函数Smooth L1 Loss, α设为1。根据损失函数的结果对网络参数进行调整。

    对于水面无人艇来说,在海面任务中跟踪的实时性至关重要,本文基于在速度方面优势较大的KCF算法实现,同时考虑到水面目标尺度变化较大的特点,加入多尺度自适应模块。

    采用HOG特征训练分类器,转化为岭回归模型[20],建立输入的样本变量x和输出的响应y之间的映射关系,岭回归目标函数为

    minwi(f(xi)yi)2+λ||w||2
    (3)

    其中λ(λ0)是正则化参数,加入正则项是为了避免过拟合的发生。

    为了使通过回归器预测到的样本标签与真实标签差距最小,为每个样本分配权值系数,得到回归参数的闭合求解公式

    w=(XTX+λI)1XTy
    (4)

    由于密集采样计算比较耗时,采用循环移位构建训练样本,将问题变换到离散傅里叶域,利用循环矩阵的性质,避免矩阵求逆的过程,加速学习。循环矩阵对角化为

    X=Fdiag(ˆx)FH
    (5)

    为了简化计算,将线性空间岭回归得到的特征通过核函数映射到非线性空间,在非线性空间求解一个对偶问题。通过映射函数φ(x)分类器变为

    f(xi)=wTφ(xi)
    (6)

    w=iαiφ(xi),将w的求解变为α的求解,设核函数K=φ(X)φT(X),得到基于核函数下的岭回归的解

    α=(K+λI)1y
    (7)

    在傅里叶域得到所有测试样本的响应

    f(z)=ˆkxzˆα
    (8)

    采用响应最强的采样作为本帧位置。

    跟踪算法整体框架图如图3所示。首先对首帧图像进行初始化,对初始图像进行特征提取,从而进行模型训练,得到滤波器模板;然后进行目标跟踪,对当前帧进行特征提取,与前一帧训练得到的滤波器模板做卷积,得到响应图,最相关的即为目标位置。

    图 3  跟踪算法整体框架图

    为应对目标尺度变化,制定尺度自适应策略来保证跟踪的稳定性。以目标位置为中心,选取不同尺度的矩形区域作为样本,分别提取其HOG特征,通过跟踪分类器后得到各自的样本响应R0,R+1,R1,比较后得到最强的响应R

    R=max(R0,R+1R1)
    (9)

    得到响应最强的样本所对应矩形框即为当前目标尺度。利用此方法进行多尺度自适应,运算量小且高效可行。

    利用深度学习进行目标检测来提取单帧图像特征,精确度较高,可以对未知目标进行识别分类,鲁棒性强。但检测没有结合视频图像帧与帧之间的时间信息关系,可能会导致漏检,且运行速度较慢。而相关滤波跟踪是通过提取连续帧图像的特征并训练滤波器实现,计算量少,处理速度快,但是其容易累积误差,导致目标漂移,易受目标遮挡与水面风浪引起的晃动等影响。因此,将时间信息与空间信息进行融合,可以充分利用两者的优点,提高整体性能,实现对水面目标更加准确、稳定的检测跟踪,兼顾鲁棒性和实时性。

    融合时,在首帧图像中通过检测算法确定目标空间位置信息,再将首帧目标的位置作为跟踪算法的输入,之后的数帧采用跟踪算法对目标进行跟踪。跟踪固定帧数后运行再检测机制,通过检测算法确保持续检测跟踪的精确度。两次再检测之间进行跟踪的帧数通过实验确定。

    运行再检测机制后,并不能确定之前的跟踪候选框和再检测得到的检测候选框哪个效果更好,因此本文设计了候选框选择策略,如图4所示。

    图 4  候选框选择策略流程图

    首先计算检测候选框Si与跟踪候选框Kj之间的重合度,判断检测到的与跟踪的是否是同一个目标。本文使用交并比(Intersection Over Union, IOU)作为重合度的评判标准,即两个候选框交集与并集的比值,计算方法为

    IOU=SiKjSiKj
    (11)

    如果 ∀ Kj, IOU(Si, Kj) < 0.4,则将Si视为新目标并输出,参与跟踪算法的初始化。如果 ∃ Kj, IOU(Si, Kj) > 0.4,则认为检测框Si与跟踪框Kj检测到了同一目标,此时将检测算法输出框的置信度conf(Si)与跟踪算法输出框的归一化响应conf(Kj)进行比较,取置信度较大的框作为系统的输出。

    为了提高检测算法在水面任务中的精确度和鲁棒性,本文自行构建了水面无人艇检测目标数据集,共1550张图片。训练时,以Pascal VOC2007训练出的SSD模型作为权重起点对网络进行微调,设置学习率为0.001,权重衰减为0.0005,在NVIDIA GeForce GTX 1080TI上进行了30000次训练。

    本文选取实地实验中5个比较有代表性的视频进行验证,视频1显视角、尺度变化,视频2显示目标遮挡和尺度变化,视频3, 4显示由风、浪等引起的视野晃动,视频5显示光照变化。测试平台为2.1 GHz, 8GB内存的AMD Ryzen 5 3500U主机。

    本文使用精确度和成功率作为衡量指标来比较实验结果,前者为视频序列图像中心位置误差小于某个阈值的相对帧数,后者为目标边界框重叠率超过阈值的帧所占百分比[19]

    无人艇在不同环境影响下对水面目标的检测跟踪结果如表1所示,5个不同视频序列中检测跟踪的具体精确度和成功率曲线如图5所示。

    表 1  测试数据集和检测跟踪结果(IOU@0.6)
    视频主要环境影响成功率速度(FPS)
    视频1视角、尺度变化0.8818.52
    视频2遮挡、尺度变化0.6115.01
    视频3晃动0.8016.60
    视频4晃动0.9512.50
    视频5光照0.6313.19
    下载: 导出CSV 
    | 显示表格
    图 5  测试数据集检测跟踪精确度及成功率

    表1图5可知,与视频1相比,视频2, 3, 4, 5的跟踪成功率都下降,可见遮挡、尺度变化、晃动和光照都对检测跟踪效果有影响,其中遮挡和光照变化影响较大,晃动剧烈程度不同,对检测跟踪的影响也不同。在设定目标重叠率(IOU)阈值为0.6的情况下,平均检测跟踪精确度为77%,平均速度可达到15 FPS。视频2的处理速度较慢是由于视野中出现新目标引起的,视频4中目标尺度较大,因此检测跟踪时间较长。

    选择受环境影响更大的目标遮挡条件下的视频2和光照变化条件下的视频5进行对比实验,分别将本文提出的基于时空信息融合的水面目标检测跟踪算法与单一跟踪算法、检测算法进行比较。

    视频2中存在目标遮挡的问题,实验结果如表2图6所示。就精确度和成功率而言,显然融合算法更为出色。深度学习检测算法可能无法检测到尺度过小的目标,导致召回率较低,造成漏检。在长时间的检测跟踪中,相关滤波跟踪算法会累积误差,导致准确性较差,尤其是对于被遮挡的目标,很容易发生跟踪漂移现象。这些原因使得单一检测或跟踪算法下的精确度和成功率不高。融合算法通过KCF跟踪保证了较高的召回率,通过SSD检测纠正了累积误差,在目标被遮挡后仍然能重新检测到目标并持续跟踪,解决了水面目标检测跟踪中的遮挡问题。

    表 2  分别使用KCF、SSD和融合算法的结果比较(视频2)
    方法KCFSSD融合算法
    精确度0.300.490.69
    成功率0.290.450.61
    速度 (fps)19.600.7415.01
    下载: 导出CSV 
    | 显示表格
    图 6  分别使用 KCF、SSD和融合算法的检测跟踪精确度和成功率比较(视频2)

    视频5中存在光照变化问题,实验结果如表3图7所示。由于受到光照变化的影响,目标边缘与背景之间的明暗程度难以区别,检测跟踪的目标边界框很难确定,即使能够检测跟踪到目标的位置,对于目标尺度的判断却并不准确,因此KCF跟踪算法中利用中心位置误差计算得到的精确度较高,利用目标重叠率计算得到的成功率却较低。SSD检测算法的鲁棒性较强,但是却存在漏检现象。融合算法的检测跟踪效果则比较好,在光照变化明显的环境中综合表现较好。

    表 3  分别使用KCF, SSD和融合算法的结果比较(视频5)
    方法KCFSSD融合算法
    精确度0.970.690.94
    成功率0.250.720.95
    速度 (FPS)15.340.7713.19
    下载: 导出CSV 
    | 显示表格
    图 7  与分别使用 KCF, SSD和融合算法的检测跟踪精确度和成功率比较(视频5)

    本文采用了不同检测和跟踪算法在单目标视频(视频1、视频3、视频4、视频5)上进行了对比实验。其中,空间维度上选取了在工业界广泛应用的YOLOv3和SSD算法,时间维度上选取了经典单目标跟踪算法DSST, ECO与KCF算法。该实验分为两个部分,第1部分是单一的空间检测算法或时间跟踪算法,与本文融合算法的对比;第2部分是在本文融合策略的基础上,不同检测和跟踪算法组合的对比。

    表4显示了单一算法的对比结果。若单独对比检测算法,SSD算法的检测精度更高,虽然YOLOv3在公开数据集上有较好的普适性,但是SSD在本数据集上更有针对性。而时间上则是KCF算法的精度更高,体现了其在水天背景下的优势。整体来看,单一算法的成功率远低于SSD+KCF融合算法。这是因为检测算法受到水面环境下的复杂光线反射的影响,导致其出现大量的漏检现象;而时间算法会受到摄像头晃动的影响,积累误差导致跟踪框漂移,使跟踪框与Ground Truth的IOU达不到0.6。

    表 4  单一SSD, YOLOv3, KCF, DSST和ECO的算法成功率对比(IOU@0.6)
    类别检测算法跟踪算法融合算法
    方法SSDYOLOv3KCFDSSTECOSSD+KCF
    成功率0.560.300.290.190.290.77
    速度 (fps)0.770.9015.6011.604.0115.00
    下载: 导出CSV 
    | 显示表格

    表5对比了不同经典算法在IOU为0.6时的融合效果。由于空间上YOLOv3在数据集上的效果较差,漏检较多,因此未将其作为空间检测算法参与融合测试。因此这一部分实验空间上仅采用了SSD,时间上分别采用KCF, DSST和ECO算法测试了融合的效果。其检测结果如表5

    表 5  SSD与KCF, DSST和ECO融合算法的成功率对比
    方法SSD+DSSTSSD+ECOSSD+KCF
    精确度0.460.710.77
    速度 (FPS)11.003.9015.00
    下载: 导出CSV 
    | 显示表格

    表5中可以看出 SSD+KCF算法的效果最好。由于表4中KCF算法在跟踪算法中效果较好,同样的SSD+KCF的整体效果也优于SSD+DSST和SSD+ECO。因为跟踪算法利用时间信息了填补了检测算法的漏检,而检测算法又通过对单帧图像的精确检测纠正了跟踪框的漂移,所以融合算法检测的成功率相比表4中的单一算法有了明显提升。不同融合算法在实际视频上的表现如图8所示,绿色框代表SSD+KCF,红色框代表SSD+DSST,粉色框代表SSD+ECO。

    图 8  3种融合算法的检测跟踪结果对比

    在无人艇水面目标检测跟踪中,通常会面临各种环境干扰,尤其是目标尺度变化、遮挡、光照变化以及晃动,本文提出了基于时空信息融合的无人艇水面目标检测跟踪。利用深度学习检测提取空间信息,提高检测精确度,避免目标位置漂移;利用相关滤波跟踪得到时间信息,结合帧间特征相关性,避免漏检;利用时空信息融合策略,使检测信息与跟踪信息互补,从而优化检测跟踪系统。为了验证该系统的有效性,实地进行无人艇实验,在水面拍摄视频作为测试数据集,结果表明基于时空信息融合的检测跟踪算法能够高效地对不同复杂场景下的水面目标进行持续检测跟踪,在一定程度上可以应对上述环境干扰因素的影响,兼具鲁棒性和实时性,可应用于实际水面无人艇的工作中。但对于尺度过小的水面目标检测跟踪效果稍差,下一步工作将在这方面做出改进。

  • 图  1  算法框架图

    图  2  检测算法网络结构图

    图  3  跟踪算法整体框架图

    图  4  候选框选择策略流程图

    图  5  测试数据集检测跟踪精确度及成功率

    图  6  分别使用 KCF、SSD和融合算法的检测跟踪精确度和成功率比较(视频2)

    图  7  与分别使用 KCF, SSD和融合算法的检测跟踪精确度和成功率比较(视频5)

    图  8  3种融合算法的检测跟踪结果对比

    表  1  测试数据集和检测跟踪结果(IOU@0.6)

    视频主要环境影响成功率速度(FPS)
    视频1视角、尺度变化0.8818.52
    视频2遮挡、尺度变化0.6115.01
    视频3晃动0.8016.60
    视频4晃动0.9512.50
    视频5光照0.6313.19
    下载: 导出CSV

    表  2  分别使用KCF、SSD和融合算法的结果比较(视频2)

    方法KCFSSD融合算法
    精确度0.300.490.69
    成功率0.290.450.61
    速度 (fps)19.600.7415.01
    下载: 导出CSV

    表  3  分别使用KCF, SSD和融合算法的结果比较(视频5)

    方法KCFSSD融合算法
    精确度0.970.690.94
    成功率0.250.720.95
    速度 (FPS)15.340.7713.19
    下载: 导出CSV

    表  4  单一SSD, YOLOv3, KCF, DSST和ECO的算法成功率对比(IOU@0.6)

    类别检测算法跟踪算法融合算法
    方法SSDYOLOv3KCFDSSTECOSSD+KCF
    成功率0.560.300.290.190.290.77
    速度 (fps)0.770.9015.6011.604.0115.00
    下载: 导出CSV

    表  5  SSD与KCF, DSST和ECO融合算法的成功率对比

    方法SSD+DSSTSSD+ECOSSD+KCF
    精确度0.460.710.77
    速度 (FPS)11.003.9015.00
    下载: 导出CSV
  • [1] 李寰宇, 毕笃彦, 杨源, 等. 基于深度特征表达与学习的视觉跟踪算法研究[J]. 电子与信息学报, 2015, 37(9): 2033–2039. doi: 10.11999/JEIT150031

    LI Huanyu, BI Duyan, YANG Yuan, et al. Research on visual tracking algorithm based on deep feature expression and learning[J]. Journal of Electronics &Information Technology, 2015, 37(9): 2033–2039. doi: 10.11999/JEIT150031
    [2] WANG Bo, SU Yumin, and WAN Lei. A sea-sky line detection method for unmanned surface vehicles based on gradient saliency[J]. Sensors, 2016, 16(4): 543. doi: 10.3390/s16040543
    [3] KRISTAN M, KENK V S, KOVAČIČ S, et al. Fast image-based obstacle detection from unmanned surface vehicles[J]. IEEE Transactions on Cybernetics, 2016, 46(3): 641–654. doi: 10.1109/TCYB.2015.2412251
    [4] REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[C]. International Conference on Neural Information Processing Systems, Istanbul, Turkey, 2015: 91–99.
    [5] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time object detection[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 779–788. doi: 10.1109/Cvpr.2016.91.
    [6] LIU Wei, ANGUELOV D, ERHAN D, et al. SSD: Single shot MultiBox detector[C]. 14th European Conference on Computer Vision, The Netherlands, 2016: 21–37. doi: 10.1007/978-3-319-46448-0_2.
    [7] QIN Yueming and ZHANG Xiuzhi. Robust obstacle detection for unmanned surface vehicles[C]. MIPPR 2017: Remote Sensing Image Processing, Geographic Information Systems, and Other Applications, Xiangyang, China, 2018: 10611E1–10611E6. doi: 10.1117/12.2285607.
    [8] YANG Jian, XIAO Yang, FANG Zhiwen, et al. An object detection and tracking system for unmanned surface vehicles[C]. Target and Background Signatures III, Warsaw, Poland, 2017: 104320R1–104320R8. doi: 10.1117/12.2278220.
    [9] COMANICIU D, RAMESH V, and MEER P. Real-time tracking of non-rigid objects using mean shift[C]. The 2000 IEEE Conference on Computer Vision and Pattern Recognition, Hilton Head, USA, 2000: 142–149. doi: 10.1109/CVPR.2000.854761.
    [10] LI Yongmin. On incremental and robust subspace learning[J]. Pattern Recognition, 2004, 37(7): 1509–1518. doi: 10.1016/j.patcog.2003.11.010
    [11] XUE Mei and LING Haibin. Robust visual tracking using ℓ1 minimization[C]. The 2009 IEEE 12th International Conference on Computer Vision, Kyoto, Japan, 2009: 1436–1443. doi: 10.1109/ICCV.2009.5459292.
    [12] OZA N C. Online bagging and boosting[C]. The 2005 IEEE International Conference on Systems, Man and Cybernetics, Waikoloa, USA, 2005: 2340–2345. doi: 10.1109/ICSMC.2005.1571498.
    [13] HARE S, SAFFARI A, and TORR P H S. Struck: Structured output tracking with kernels[C]. The 2011 International Conference on Computer Vision, Barcelona, Spain, 2011: 263–270. doi: 10.1109/ICCV.2011.6126251.
    [14] BREIMAN L. Random forests[J]. Machine Learning, 2001, 45(1): 5–32. doi: 10.1023/A:1010933404324
    [15] 侯志强, 王帅, 廖秀峰, 等. 基于样本质量估计的空间正则化自适应相关滤波视觉跟踪[J]. 电子与信息学报, 2019, 41(8): 1983–1991. doi: 10.11999/JEIT180921

    HOU Zhiqiang, WANG Shuai, LIAO Xiufeng, et al. Adaptive regularized correlation filters for visual tracking based on sample quality estimation[J]. Journal of Electronics &Information Technology, 2019, 41(8): 1983–1991. doi: 10.11999/JEIT180921
    [16] BOLME D S, BEVERIDGE J R, DRAPER B A, et al. Visual object tracking using adaptive correlation filters[C]. 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Francisco, USA, 2010: 2544–2550. doi: 10.1109/CVPR.2010.5539960.
    [17] HENRIQUES J F, CASEIRO R, MARTINS P, et al. Exploiting the circulant structure of tracking-by-detection with kernels[C]. Proceedings of the 12th European Conference on Computer Vision, Florence, Italy, 2012: 702–715. doi: 10.1007/978-3-642-33765-9_50.
    [18] LI Yang and ZHU Jianke. A scale adaptive kernel correlation filter tracker with feature integration[C]. 2014 European Conference on Computer Vision (ECCV) Workshops, Zurich, 2014: 254–265. doi: 10.1007/978-3-319-16181-5_18.
    [19] DANELLJAN M, HÄGER G, KHAN F S, et al. Accurate scale estimation for robust visual tracking[C]. British Machine Vision Conference, Nottingham, UK, 2014: 65.1–65.11. doi: 10.5244/C.28.65.
    [20] 王鹏, 孙梦宇, 王海燕, 等. 一种目标响应自适应的通道可靠性跟踪算法[J]. 电子与信息学报, 2020, 42(8): 1950–1958. doi: 10.11999/JEIT190569

    WANG Peng, SUN Mengyu, WANG Haiyan, et al. An object tracking algorithm with channel reliability and target response adaptation[J]. Journal of Electronics &Information Technology, 2020, 42(8): 1950–1958. doi: 10.11999/JEIT190569
    [21] HENRIQUES J F, CASEIRO R, MARTINS P, et al. High-speed tracking with kernelized correlation filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 583–596. doi: 10.1109/tpami.2014.2345390
  • 期刊类型引用(10)

    1. 郑荣添,陈泽同,管孝汉,王浩,刘荣林,假冬冬. 深度学习驱动的无人机河道巡检异物监测及定位技术研究. 水力发电学报. 2025(03): 87-98 . 百度学术
    2. 郑兵,董超,胡海驹,陈焱琨,刘蔚. 基于L_0梯度平滑与图像分块聚类的海天线检测. 应用海洋学学报. 2024(01): 106-115 . 百度学术
    3. 侯志强,王卓,马素刚,赵佳鑫,余旺盛,范九伦. 长时视觉跟踪中基于双模板Siamese结构的目标漂移判定网络. 电子与信息学报. 2024(04): 1458-1467 . 本站查看
    4. 任思羽,黄琦麟,左良栋,吴瑞,蔡枫林. 面向智能航道巡检的水面目标检测算法. 重庆大学学报. 2024(04): 114-126 . 百度学术
    5. 项新建,翁云龙,谢建立,郑永平,吴善宝,许宏辉,杨斌. 基于改进YOLOv5s的水面漂浮物检测算法研究. 人民黄河. 2024(07): 85-91 . 百度学术
    6. 陈任飞,彭勇,吴剑,李昱,岳廷秀. 基于改进SSD模型和自适应滤波算法的水面漂浮物目标检测跟踪方法. 工程科学与技术. 2023(04): 119-129 . 百度学术
    7. 杨静,李斌,李少波,王崎,于丽娅,胡建军,袁坤. 脑启发式持续学习方法:技术、应用与发展. 电子与信息学报. 2022(05): 1865-1878 . 本站查看
    8. 仇祝令,查宇飞,李振宇,李禹铭,张鹏,朱川. 基于多模型蒸馏的时间正则化相关滤波跟踪算法. 系统工程与电子技术. 2022(08): 2448-2456 . 百度学术
    9. 孙志成,董一杰,胡爱兰,张瑞权. 关联动态特征的目标自适应跟踪算法. 电子技术应用. 2022(11): 57-62 . 百度学术
    10. 詹云峰,黄志斌,付波,王小龙. 基于视觉的水面背景下目标检测与跟踪算法. 科学技术与工程. 2022(33): 14809-14819 . 百度学术

    其他类型引用(10)

  • 加载中
图(8) / 表(5)
计量
  • 文章访问数:  1776
  • HTML全文浏览量:  542
  • PDF下载量:  241
  • 被引次数: 20
出版历程
  • 收稿日期:  2020-03-31
  • 修回日期:  2020-09-29
  • 网络出版日期:  2020-09-30
  • 刊出日期:  2021-06-18

目录

/

返回文章
返回