Moving Object Detection Method Based on Low-Rank and Sparse Decomposition in Dynamic Background
-
摘要: 针对背景运动引起动目标检测精度显著下降的问题,该文提出一种基于低秩及稀疏分解的动目标检测方法。所提方法首先引入伽马范数(
γ−norm )近乎无偏地逼近秩函数以解决核范数过度惩罚较大奇异值从而导致所得最小化问题无法获得最优解进而降低检测性能的问题,而后利用L1/2 范数抽取稀疏前景目标以增强对噪声的稳健性,同时基于虚警像素所具有稀疏且空间不连续特性提出空间连续性约束以抑制动态背景像素,进而构建目标检测模型。最后利用基于交替方向最小化(ADM)策略扩展的增广拉格朗日乘子(ALM)法对所得优化问题求解。实验结果表明,与现有主流算法对比,所提方法可显著改善动态背景情况下动目标检测精度。Abstract: Focusing on the issue that the detection accuracy of moving object is significantly reduced by background motion, a low-rank and sparse decomposition based moving object detection method is developed. Firstly, in order to solve the problem that the nuclear norm over-penalizing large singular values lead to the optimal solution of the obtained minimization problem can not be obtained and then the detection performance is decreased, the gamma norm (γ−norm ) is introduced to acquire almost unbiased approximation of rank function. In what follows, theL1/2 norm is used to extract the sparse foreground object to enhance the robustness to noise, and the spatial continuity constraint is proposed to suppress dynamic background pixels such that the moving object detection model can be constructed on the basis of the sparse and spatially discontinuous nature of the false alarm pixels. After that, the Augmented Lagrange Multiplier (ALM) method, which is the extension of the Alternating Direction Minimizing (ADM) strategy, can be employed to deal with the acquired constrained minimization problem. Compared with some state-of-the-art algorithms, the experimental results show that the proposed method can significantly improve the accuracy of moving object detection in the case of dynamic background.-
Key words:
- Foreground detection /
- Dynamic background /
- Low-rank /
- Sparsity /
- L1/2 regularization
-
1. 引言
动目标检测在诸如交通监控等计算机视觉领域具有广泛应用[1]。作为自动视频分析的第1步,动目标检测旨在确定和分割感兴趣目标,据此为后续目标追踪和行为识别提供依据[2]。
动目标检测算法可分为帧差法[3]、光流法[4]和背景减除(Background Subtraction, BS)法[5]3类。帧差法快速简单但其仅在相邻帧间比较目标与背景差异导致无法提取完整目标区域[6]。光流法依视频时空梯度估算运动场,需计算整幅图像光流信息,计算开销大[7]。BS法将背景模板和视频帧不同部分视为动目标[8]。传统中值模型等构建模板虽较简单,但存在运动背景时检测效果不甚理想[9]。据此,Stauffer等人[10]提出高斯混合(Mixture of Gaussian, MoG)模型。MoG相对稳定且精确,但模型参数固定导致其难以适应场景变化。针对此缺点,Zivkovic[11]提出改进自适应高斯混合模型,然其建模时间较长。针对此问题,Candès等人[12]提出稳健主分量分析(Robust Principal Component Analysis, RPCA)模型,将观测矩阵分解为低秩与稀疏矩阵,利用主分量追踪(Principal Component Pursuit, PCP)法求解。RPCA虽不存在参数更新,然其未考虑观测噪声使得噪声环境下检测精度显著下降。基于此,Ding等人[13]提出贝叶斯稳健主分量分析(Bayesian Robust Principal Component Analysis, BRPCA)模型,考虑噪声同时引入贝叶斯方法以增强模型稳健性,然而当观测矩阵出现数据丢失时该模型所使用
L2 损失项将导致检测性能下降[14]。针对此问题,Wang等人[15]提出稳健矩阵分解概率(Probabilistic Robust Matrix Factorization, PRMF)方法,基于L1 损失及L2 正则项以解决BRPCA存在的问题。但由于未能利用前景像素空间分布特性从而导致算法虚警率较高进而动态背景下动目标检测性能较低。针对此问题,Zhou等人[16]提出低秩表示检测连续前景(DEtecting Contiguous Outliers in the LOw-rank Representation, DECOLOR)法,利用稀疏前景聚类特性解决动态背景下PRMF方法性能不佳问题,然而由于该模型贪婪特性,强运动背景场景下检测精度显著降低。综上,本文提出一种动态背景下基于低秩与稀疏分解的目标检测方法。该方法先引入
γ 范数近似矩阵秩函数以解决核范数过惩罚较大奇异值导致有偏估计致使最小化问题无法获得最优解进而降低检测性能的问题。而后针对L1 范数未充分使用前景像素空域先验信息问题,利用L1/2 范数对前景进行稀疏约束以抑制动态背景。进而基于虚警像素稀疏及空间不连续特性,对前景施加空间连续性(Spatial Continuity, SC)约束使得前景抽取更完整。最后利用基于交替方向最小化(Alternating Direction Minimizing, ADM)策略扩展的增广拉格朗日乘子(Augmented Lagrange Multiplier, ALM)法求解所得模型以实现动目标检测。2. RPCA检测模型
设图像序列
M∈Rm×n×s ,其中m ,n 分别为图像高度和宽度,s 为帧数。将M 重构为Z∈Rmn×s ,则动目标检测可建模为式(1)的RPCA问题[12]minH,K‖H‖∗+λ‖K‖1,s.t.Z=H+K (1) 其中,
H∈Rmn×s ,K∈Rmn×s 分别为低秩背景和稀疏前景矩阵,‖⋅‖∗ 为核范数,‖⋅‖1 为L1 范数,λ 为权衡低秩和稀疏度的正则因子。强动态背景下,RPCA模型无法完整检测目标且前景充斥大量背景像素,检测性能较差[17]。主要原因在于核范数近似矩阵秩函数过度惩罚矩阵较大奇异值,致核范数最小化问题无法获得最优解进而降低目标检测性能[18]。据此,本文采用非凸γ 范数代替核范数以获得秩函数近乎无偏估计。此外,相较于L1 范数,L1/2 范数可获得更加稀疏前景矩阵,因此可降低虚警率[19]。同时,对前景施加SC约束可抑制动态背景像素影响。综上,本文提出基于γ 和L1/2 范数SC正则化低秩近似(γ−norm&L1/2−norm and Spatial Continuity regularized Low-Rank approximation,SCLR−γ&L1/2 )动目标检测方法以改善动态背景下目标检测精度。3. 基于
SCLR−γ&L1/2 的动目标检测方法本节首先介绍
γ 和L1/2 范数并提出SC约束正则化,而后构建SCLR−γ&L1/2 动目标检测模型,最后利用基于ADM的ALM方法对所得优化问题进行求解。3.1
γ 范数由于核范数可导致有偏估计,而极大极小凹加(Minmax Concave Plus, MCP)函数可近似无偏估计矩阵秩函数,因而作为MCP矩阵扩展形式的
γ 范数在秩最小化问题中可得更好近似解[20]。给定向量β=(β1β2···βp)T∈Rp ,λ>0 ,γ>1 , MCP函数可定义为Mλ,γ(β)=∑pi=1Ωλ,γ(βi) 。其中Ωλ,γ(t)=λ∫t0[1−x/λγ]+dx={λ2γ/2, |t|≥λγλ|t|−t2/2γ,其他 (2) 其中,
(z)+=max{z,0} 。同理,给定矩阵A=[Aij]∈Rm×n ,其MCP范数可定义为Mλ,γ(A)=∑i,jΩλ,γ(Ai,j) 。设矩阵
A 奇异值分解(Singular Value Decomposition, SVD)可表示为A=UAΣAVAT ,其中,UA=[u1u2⋯un] ,VA=[v1v2···vn] ,ΣA=diag(σ1σ2···σn) ,且σ1≥σ2≥⋯≥σn≥0 ,σi(A) 表示A 的第i 个奇异值,令σ(A)=(σ1(A)σ2(A)···σr(A))T ,r=min{m,n} 。定义Ωγ(t)=Ω1,γ(t) ,Mγ(A)=M1,γ(A) ,则矩阵A 的γ 范数可定义为‖A‖γ=∑ri=1∫σi(A)0(1−u/γ)+du=∑ri=1Ω1,γ(σi(A))= Mγ(σ(A)) 。3.2
L1/2 范数Lq 正则化中,q∈(1/2,1) 时q 值越小,解越稀疏;q∈(0,1/2) 时解的稀疏性无明显差异[21]。因而L1/2 相较于L1 范数具有较好稀疏特性。假设矩阵A 划分为{A1A2···As} ,则L1/2 范数可定义为‖A‖1/2=(∑si=1|Ai|1/2)2 。3.3 SC约束
通常,前景矩阵
K 中动态背景造成的虚警像素具有稀疏但不连续特性,而潜在被检测动目标具备明显且连续强度变化这一特征[22]。因此对前景施加SC约束以抑制动态背景像素可使前景更为完整进而降低虚警率。设K∈Rmn×s 由{K1K2···Ks} 构成,Kk∈Rm×n 为第k 帧,则SC约束可表示为Φ(K)=∑sk=1‖Kk‖SC 。其中,‖Kk‖SC 为第k 帧所有像素值之和,即‖Kk‖SC=m−1∑i=1n−1∑j=1√(Kkh(i,j))2+(Kkv(i,j))2+m−1∑i=1|Kkv(i,n)|+n−1∑j=1|Kkh(m,j)| (3) 其中,
Kkh 和Kkv 分别定义为图像水平和垂直方向上的操作[23]Kkh(i,j)={Kk(i,j+1)−Kk(i,j),j<n0,j=n (4) Kkv(i,j)={Kk(i+1,j)−Kk(i,j),i<m0,i=m (5) 其中,
Kk(i,j) 为第k 帧图像i 行j 列位置像素值。综上所述,为提高秩函数近似精度且在抽取稀疏前景目标同时抑制动态背景的影响以改善目标检测性能,本文提出如下
SCLR−γ&L1/2 动目标检测模型minH,K‖H‖γ+λ1‖K‖1/21/2+λ2Φ(K),s.t.‖Z−H−K‖22≤ε (6) 其中,
‖K‖1/21/2 为矩阵K 的L1/2 正则化,‖⋅‖2 为欧氏范数。λ1 权衡前景稀疏性,λ2 控制约束强度,ε 为误差上界。3.4 所提模型求解
本文采用ALM法[24]求解式(6)动目标检测优化问题,为方便后续使用交替最小化策略求解,令
G=K ,此时式(6)转化为式(7)的等价问题minH,K,G‖H‖γ+λ1‖K‖1/21/2+λ2Φ(G),s.t.‖Z−H−K‖22≤ε,K−G=0 (7) 通常,约束条件
K−G=0 在工程中较为苛刻,等价松弛为‖K−G‖22≤ε1 ,ε1 为误差上界,式(7)等价为minH,K,G‖H‖γ+λ1‖K‖1/21/2+λ2Φ(G),s.t.‖Z−H−K‖22≤ε,‖K−G‖22≤ε1 (8) 则增广拉格朗日函数可表示为
minLμ1,μ2(H,K,G,Y1,Y2)=minH,K,G,Y1,Y2‖H‖γ+λ1‖K‖1/21/2+λ2Φ(G)+⟨Y1,Z−H−K⟩+⟨Y2,K−G⟩+μ1/2‖Z−H−K‖22+μ2/2‖K−G‖22 (9) 其中,
Y1 和Y2 为拉格朗日乘子,μ1 和μ2 为惩罚参数。式(9)最优化问题可划分为如下4个子问题。(1) 更新
Hk+1 minH‖H‖γ+⟨Y1k,Z−H−Kk⟩+μ1/2‖Z−H−Kk‖22 (10) 由于
‖H‖γ 关于σ(H) 非凸,可每次迭代时使用‖H‖γ 在σ(Hold) 的局部线性逼近(Locally Linear Approximation, LLA)进行近似求解,其中Hold 为上一次迭代值[18]。因此,式(10)可进一步表示为minHQγ(σ(H)|σ(Hold))+⟨Y1k,Z−H−Kk⟩+μ1/2‖Z−H−Kk‖22 (11) 其中,
Qγ(A|Aold)=Mγ(Aold)+∑i,j(1−|Aoldij|/γ)+(|Aij|−|Aoldij|) 为给定Aold 时Mγ(A) 的LLA。式(11)最优解为ˆHk+1←S1/μ1,Λ(Z−Kk+Yk1/μ1) (12) 其中,
Sτ,Λ(Y)=minX12‖X−Y‖22+τQγ(σ(X)|σ(Xold)) ,Sτ,Λ(X)=UXDτ,Λ(ΣX)VTX 为广义奇异值收缩算子,Λ=(I−ΣXold/γ)+ ,I 为单位矩阵。[Dτ,Λ(A)]ij=sgn(Aij)(|Aij|−τΛij) 为广义收缩算子,sgn(⋅) 为符号函数。(2) 更新
Kk+1 minKλ1‖K‖1/21/2+⟨Y1k,Z−Hk+1−K⟩+⟨Y2k,K−Gk⟩+μ1/2‖Z−Hk+1−K‖22+μ2/2‖K−Gk‖22 (13) 式(13)可通过文献[25]中的半阈值化算子(Half-Thresholding Operator, HTO)求解。求解式(13)前,先由式(14)的
L1/2 正则化问题推导出HTOminx∈RN{‖y−Ax‖22+λ‖x‖1/21/2} (14) 其中,
A∈RM×N 为给定矩阵,y 为观测数据,x=(x1x2⋯xN)T∈RN 为待恢复稀疏结构,λ>0 为正则化参数。对于式(14),只要‖x‖1/21/2 的梯度∇(‖x‖1/21/2) 其预解式存在,即对于任意正实数λ ,算子Rλ,1/2(⋅)=(I+λ/2∇(‖⋅‖1/21/2))−1 均被定义,则可得x=(I+λμ/2∇(‖⋅‖1/21/2))−1(x+μAT(y−Ax))=Rλμ,1/2(x+μAT(y−Ax)) (15) μ 为正的参数,定义Bμ(x)=x+μAT(y−Ax) ,则得到x=Rλμ,1/2(Bμ(x)) 。由文献[25]知,对角非线性表示算子Rλ,1/2(x)=(fλ,1/2(x1)fλ,1/2(x2)···fλ,1/2(xN))T ,其中,fλ,1/2(xi)=2/3xi(1+cos(2π/3−2/3φλ(xi))) 且φλ(xi)=arccos(λ/8(|xi|/3)−(3/2)) 。由此,可得L1/2 正则化问题阈值化函数为hλμ,1/2(x)={fλμ,1/2(x), |x|>3√54/4(λμ)2/30, 其他 (16) 问题式(14)阈值可表示为
x=Hλμ,1/2(Bμ(x)) ,Hλμ,1/2(x)=(hλμ,1/2(x1)hλμ,1/2(x2)···hλμ,1/2(xN))T 。式(16)为半阈值化函数,Hλμ, 1/2为 HTO。综上所述,基于HTO,可得问题式(13)最优解为
ˆKk+1←H2λ1/(μ1+μ2)⋅[(Y1k−Y2k+μ1Z−μ1Hk+1+μ2Gk)/(μ1+μ2)] (17) (3) 更新
Gk+1 minGλ2Φ(G)+⟨Y2k,Kk+1−G⟩+μ2/2‖Kk+1−G‖22 (18) 式(18)可等价为
minGλ2Φ(G)+μ2/2‖G−(Kk+1+(Y2k/μ2))‖22 。假设W=Kk+1+Y2k/μ2 ,W=[W1W2···Ws]∈Rmn×s ,G=[G1G2···Gs]∈Rmn×s ,则min{Gj}sj=1λ2s∑j=1‖Gj‖SC+μ2/2s∑j=1‖Gj−Wj‖22 (19) 其中,
Gj∈Rmn×1 ,Wj∈Rmn×1 。将Gj 和Wj 重塑为2维形式,即min{(Gj)m×n}sj=1λ2s∑j=1‖(Gj)m×n‖SC+μ2/2s∑j=1‖(Gj)m×n−(Wj)m×n‖22 (20) 式(20)的最优化问题可拆分为
s 个子问题,且每个子问题都可使用文献[26]中的快速梯度投影法求解,即(Gj)m×n=PC((Wj)m×n−λ2/μ2L(p,q)) 。其中,(p,q) 为矩阵对,p∈R(m−1)×n ,q∈Rm×(n−1) 。L 定义为R(m−1)×n×∈Rm×(n−1)→Rm×n ,L(p,q)i,j=pi,j+qi,j−pi−1,j−qi,j−1,i=1,2,···,m;j=1,2,···,n 。PC 表示集合C=Rm×n 上的正交投影算子。对于n 维空间Bl.u={x:l≤xij≤u,∀i,j} ,若C=Bl,u ,则PBl,u(x)ij={l,xij<lxij, l≤xi,j≤uu,xij>u (21) 获得各子问题最优解后,将其重塑为
Gjk+1∈Rmn×1 ,则Gk+1 可通过式(22)更新ˆGk+1←[Gk+11Gk+12⋯Gk+1s] (22) (4) 更新拉格朗日乘子
Y1k+1=Y1k+μ1(Z−Hk+1−Kk+1) (23) Y2k+1=Y2k+μ2(Gk+1−Kk+1) (24) 在已知观测矩阵
Z 条件下,通过式(12),式(17)和式(22)交替优化H ,K 和G 直至满足迭代收敛条件:‖Z−Hk−Kk‖22≤φ‖Z‖22 ,φ 为控制误差的常数,依据实验选取φ=1×10−5 。综上,本文所提基于低秩与稀疏分解的动目标检测方法步骤如表1所示。表 1 低秩与稀疏分解动目标检测方法算法:使用ADM策略扩展的ALM法求解问题式(7) 输入:观测矩阵Z,参数γ, λ1, λ2, μ1, μ2和φ。 输出:H, K和G。 (1):固定其他变量,计算式(12)以更新变量H; (2):固定其他变量,由式(17)更新变量K; (3):固定其他变量,计算式(22)以更新变量G; (4):由式(23)和式(24)更新拉格朗日乘子Y1和Y2; (5):重复步骤(1)—(4),直至满足收敛条件。 4. 实验及分析
实验数据集:本文利用CDnet-2014[17]和UCSD[27]数据集的5个视频序列(Boats, Bottle, Rain, Fountain, Fall)作为测试集,并与MoG[10], PCP[12], BRPCA[13], PRMF[15]和DECOLOR(DEC)[16]算法对比以验证动态背景下所提方法动目标检测的有效性。实验环境如下:处理器i7-7700,内存8GB,仿真软件MATLAB R2017b。评价指标:本文采用准确率(Precision)、召回率(Recall)和F值(F-measure)作为评价指标。真阳性(True Positive, TP)为正确分类为前景像素的数目,假阳性(False Positive, FP)为误分类为前景而实际为背景像素的数目,假阴性(False Negative, FN)为被错误分类为背景而实际为前景像素的数目。
Precision=TP/(TP+FP) ,Recall=TP/(TP+FN) ,F-measure=2(Precision×Recall/(Precision+Recall)) 。4.1 参数设置
依据实验,本文设置
λ1=0.4/√mn ,λ2=2/√mn ,μ1=μ2=1×10−3 ,φ=1×10−5 。由文献[18]可知,参数γ 应被设置为严格大于1的较小实数。为确定最优γ 取值,经多次重复实验,本文在[1,10] 范围内重复实验以研究不同γ 取值对F-measure的影响。为调整方便,本文从集合{1,2,4,6,8,10} 中选择离散的最优参数。由图1可知,在不同动态背景场景下,F-measure随
γ 取值变化产生的波动不大,稳健性较好。[1,4] 内各场景下F-measure均不断增大,[4,10] 内随γ 增大F-measure均呈减小趋势,从而可知当γ=4 时所提SCLR−γ&L1/2 模型在不同动态背景场景下均可实现最优动目标检测,因而,在以下实验中均设置γ=4 。4.2 定性分析
图2为6种算法在5个动态背景场景下部分目标检测结果对比。由图2(c)可知,当环境存在不同程度动态背景干扰时,所提方法均可较好抑制动态背景,同时目标检测结果较为完整,从而表明所提方法具有较高检测精度和稳健性。由图2(d)可知,BRPCA算法在Boats, Fountain和Fall场景下对动态背景抑制较差,其虽在Bottle和Rain场景下可抑制大部分动态背景但虚警率较高。由图2(e)可知,DEC算法在不同动态场景下均存在较严重误检,检测精度较差。由图2(f),图2(g)及图2(h)可知,PRMF, MoG和PCP算法在Rain场景下可较好抑制动态背景,然而均不同程度丢失目标细节,检测结果不够完整,且在Boats, Bottle, Fountain和Fall场景下均不能较好抑制动态背景。
4.3 定量分析
所提方法及5种对比算法在5个场景下的Precision, Recall和F-measure对比如图3所示。其中,图3(f)为6种算法在5个场景下3个性能指标的平均值对比图,其对应数据指标如表2所示。加粗字体标识Precision, Recall和F-measure之最大值,下划线标识对应次最大值。由图3可知,所提方法在各场景下均有较高Precision, Recall和F-measure值。由表2可知,所提方法在所有场景下均具有最高Precision和F-measure。DEC算法平均Recall值稍高于本文所提方法,由图2可知是由于其在动态背景场景下检测的前景区域过于平滑且包含较多虚警像素。
表 2 不同场景下6种算法评价指标平均值评价指标 PCP MoG PRMF DEC BRPCA 本文算法 Precision 0.4715 0.4896 0.5556 0.6938 0.7908 0.8967 Recall 0.7888 0.7978 0.8193 0.9199 0.8953 0.9181 F-measure 0.5440 0.5885 0.6387 0.7643 0.8333 0.9022 此外,通过对比平均F-measure以分别验证非凸
γ 范数、L1/2 范数及SC约束相较于RPCA模型的性能提升效果。由图4知,使用非凸γ 范数,L1/2 范数及SC约束时F-measure相较于RPCA模型均有不同程度提升。与使用非凸γ 范数及L1/2 范数约束相比,施加SC约束相较于RPCA模型性能提升最大,说明利用动目标具备明显且连续强度变化这一特征施加SC约束可有效抑制动态背景像素进而提高动目标检测精度。4.4 计算复杂度分析
本文所提
SCLR−γ&L1/2 模型计算复杂度主要由SVD及若干矩阵乘法运算决定。给定单幅大小为m×n 共计s 帧图像序列,令a=mn ,b=s 。每次迭代时,分别更新H ,K ,G 及拉格朗日乘子Y1 ,Y2 。更新H 时首先计算a×b 大小的矩阵SVD,需(4a2b+8ab2+9b3) 次浮点运算[28],然后利用广义奇异值收缩算子求得收缩奇异值矩阵并与左、右奇异向量矩阵相乘,此时需要((a+b)r2) 次浮点运算,r≤min(a,b) 为图像序列矩阵的秩。可得更新H 时需O(a2b+ab2+b3) 次浮点运算。更新K ,G ,Y1 和Y2 需逐元素相加和收缩操作,需O(ab) 次浮点运算。综上,所提方法总计算复杂度为O(a2b+ab2+b3+4ab)=O(a2b+ab2+b3) 。为进一步验证所提方法时间开销性能,选取100帧分辨率为
432×288 的RGB图像序列进行多次重复实验,对比平均运行时间以分析所提方法和对比算法时间开销大小。由表3知,与PCP和BRPCA算法相比,本文所提方法运行时间较短,表明所提方法时间开销更小。虽然与MoG、PRMF和DEC算法相比本文所提方法运行时间较长,即时间开销较大,然而结合上述定性与定量分析可知,本文所提方法检测性能显著优于上述3种算法,本文所提方法以牺牲一定程度的计算效率为代价换取明显的动目标检测性能提升。表 3 不同动目标检测算法平均运行时间对比(s)算法 PCP MoG PRMF DEC BRPCA 本文算法 运行时间 541.55 177.70 105.31 288.36 6161.29 498.42 5. 结论
基于低秩与稀疏分解理论,本文提出一种基于
γ 和L1/2 范数SC正则化动目标检测方法。所提方法通过引入γ 范数得到最小化问题最优解以提高检测准确率,同时利用L1/2 范数获得更加稀疏前景矩阵。基于虚警像素稀疏且不连续特性对前景施加SC约束以抽取更为完整和平滑前景,进而构建SCLR−γ&L1/2 模型。最后,利用基于ADM扩展的ALM法求解约束最小化问题。实验结果表明,与主流算法对比,所提方法在所有场景下均具有最高准确率和F值,可显著改善动目标检测精度。 -
表 1 低秩与稀疏分解动目标检测方法
算法:使用ADM策略扩展的ALM法求解问题式(7) 输入:观测矩阵Z,参数γ, λ1, λ2, μ1, μ2和φ。 输出:H, K和G。 (1):固定其他变量,计算式(12)以更新变量H; (2):固定其他变量,由式(17)更新变量K; (3):固定其他变量,计算式(22)以更新变量G; (4):由式(23)和式(24)更新拉格朗日乘子Y1和Y2; (5):重复步骤(1)—(4),直至满足收敛条件。 表 2 不同场景下6种算法评价指标平均值
评价指标 PCP MoG PRMF DEC BRPCA 本文算法 Precision 0.4715 0.4896 0.5556 0.6938 0.7908 0.8967 Recall 0.7888 0.7978 0.8193 0.9199 0.8953 0.9181 F-measure 0.5440 0.5885 0.6387 0.7643 0.8333 0.9022 表 3 不同动目标检测算法平均运行时间对比(s)
算法 PCP MoG PRMF DEC BRPCA 本文算法 运行时间 541.55 177.70 105.31 288.36 6161.29 498.42 -
LUO Yuan, ZHOU Hanxing, TAN Qin, et al. Key frame extraction of surveillance video based on moving object detection and image similarity[J]. Pattern Recognition and Image Analysis, 2018, 28(2): 225–231. doi: 10.1134/S1054661818020190 SENTHIL M A, SUGANYA D K, SIVARANJANI A, et al. A study on various methods used for video summarization and moving object detection for video surveillance applications[J]. Multimedia Tools and Applications, 2018, 77(3): 23273–23290. doi: 10.1007/s11042-018-5671-8 CHEN Changhong, LIANG Jimin, ZHAO Heng, et al. Frame difference energy image for gait recognition with incomplete silhouettes[J]. Pattern Recognition Letters, 2009, 30(11): 977–984. doi: 10.1016/j.patrec.2009.04.012 KE Ruimin, LI Zhibin, TANG Jinjun, et al. Real-time traffic flow parameter estimation from UAV video based on ensemble classifier and optical flow[J]. IEEE Transactions on Intelligent Transportation Systems, 2019, 20(1): 54–64. doi: 10.1109/TITS.2018.2797697 YONG Hongwei, MENG Deyu, ZUO Wangmeng, et al. Robust online matrix factorization for dynamic background subtraction[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2018, 40(7): 1726–1740. doi: 10.1109/TPAMI.2017.2732350 LIU Hongkun, DAI Jialun, WANG Ruchen, et al. Combining background subtraction and three-frame difference to detect moving object from underwater video[C]. OCEANS 2016, Shanghai, China, 2016: 1–5. SEVILLA-LARA L, SUN Deqing, JAMPANI V, et al. Optical flow with semantic segmentation and localized layers[C]. The IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 3889–3898. PRASAD D K, PRASATH C K, RAJAN D, et al. Object detection in a maritime environment: Performance evaluation of background subtraction methods[J]. IEEE Transactions on Intelligent Transportation Systems, 2019, 20(5): 1787–1802. doi: 10.1109/tits.2018.2836399 ZENG Zhi, JIA Jianyuan, YU Dalin, et al. Pixel modeling using histograms based on fuzzy partitions for dynamic background subtraction[J]. IEEE Transactions on Fuzzy Systems, 2017, 25(3): 584–593. doi: 10.1109/TFUZZ.2016.2566811 STAUFFER C and GRIMSON W E L. Adaptive background mixture models for real-time tracking[C]. 1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Fort Collins, USA, 1999: 246–252. ZIVKOVIC Z. Improved adaptive Gaussian mixture model for background subtraction[C]. The 17th International Conference on Pattern Recognition, Cambridge, UK, 2004: 28–31. CANDÈS E J, LI Xiaodong, MA Yi, et al. Robust principal component analysis?[J]. Journal of the ACM, 2011, 58(3): 11. doi: 10.1145/1970392.1970395 DING Xinghao, HE Lihan, and CARIN L. Bayesian robust principal component analysis[J]. IEEE Transactions on Image Processing, 2011, 20(12): 3419–3430. doi: 10.1109/TIP.2011.2156801 GAO Junbin. Robust L1 principal component analysis and its Bayesian variational inference[J]. Neural Computation, 2008, 20(2): 555–572. doi: 10.1162/neco.2007.11-06-397 WANG Naiyan, YAO Tiansheng, WANG Jingdong, et al. A probabilistic approach to robust matrix factorization[C]. The 12th European Conference on Computer Vision, Florence, Italy, 2012: 126–139. ZHOU Xiaowei, YANG Can, and YU Weichuan. Moving object detection by detecting contiguous outliers in the low-rank representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(3): 597–610. doi: 10.1109/TPAMI.2012.132 WANG Yi, JODOIN P M, PORIKLI F, et al. CDnet 2014: An expanded change detection benchmark dataset[C]. 2014 IEEE Conference on Computer Vision and Pattern Recognition Workshops, Columbus, USA, 2014: 393–400. WANG Shusen, LIU Dehua, and ZHANG Zhihua. Nonconvex relaxation approaches to robust matrix recovery[C]. The 23rd International Joint Conference on Artificial Intelligence, Beijing, China, 2013: 1764–1770. JIA Sen, ZHANG Xiujun, and LI Qingquan. Spectral–spatial hyperspectral image classification using ℓ1/2 regularized low-rank representation and sparse representation-based graph cuts[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2015, 8(6): 2473–2484. doi: 10.1109/JSTARS.2015.2423278 ZHANG Hengmin, YANG Jian, XIE Jianchun, et al. Weighted sparse coding regularized nonconvex matrix regression for robust face recognition[J]. Information Sciences, 2017, 394–395: 1–17. doi: 10.1016/j.ins.2017.02.020 CAO Wenfei, SUN Jian, and XU Zongben. Fast image deconvolution using closed-form thresholding formulas of regularization[J]. Journal of Visual Communication and Image Representation, 2013, 24(1): 31–41. doi: 10.1016/j.jvcir.2012.10.006 CAO Xiaochun, YANG Liang, and GUO Xiaojie. Total variation regularized RPCA for irregularly moving object detection under dynamic background[J]. IEEE Transactions on Cybernetics, 2016, 46(4): 1014–1027. doi: 10.1109/TCYB.2015.2419737 CHAMBOLLE A. An algorithm for total variation minimization and applications[J]. Journal of Mathematical Imaging and Vision, 2004, 20(1/2): 89–97. doi: 10.1023/b:jmiv.0000011325.36760.1e XUE Yawen, GUO Xiaojie, and CAO Xiaochun. Motion saliency detection using low-rank and sparse decomposition[C]. 2012 IEEE International Conference on Acoustics, Speech and Signal Processing, Kyoto, Japan, 2012: 1485–1488. XU Zongben, CHANG Xiangyu, XU Fengmin, et al. L1/2 regularization: A thresholding representation theory and a fast solver[J]. IEEE Transactions on Neural Networks and Learning Systems, 2012, 23(7): 1013–1027. doi: 10.1109/TNNLS.2012.2197412 BECK A and TEBOULLE M. Fast gradient-based algorithms for constrained total variation image denoising and deblurring problems[J]. IEEE Transactions on Image Processing, 2009, 18(11): 2419–2434. doi: 10.1109/TIP.2009.2028250 MAHADEVAN V and VASCONCELOS N. Spatiotemporal saliency in dynamic scenes[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 32(1): 171–177. doi: 10.1109/TPAMI.2009.112 GOLUB G H and REINSCH C. Singular value decomposition and least squares solutions[J]. Numerische Mathematik, 1970, 14(5): 403–420. doi: 10.1007/BF02163027 期刊类型引用(2)
1. 陈华杰,许琮擎,周枭,占俊杰. 利用局部特征匹配的运动小目标光流估计. 电光与控制. 2024(02): 98-104 . 百度学术
2. 王振平. 竞赛用投篮自动机器人目标识别方法研究. 机械设计与制造. 2023(10): 273-276+280 . 百度学术
其他类型引用(3)
-