Salient Target Extraction from Low Depth of Field Images Based on Diversity Measure in Singular Value Decomposition Domain
-
摘要: 针对低景深图像(DOF)目标提取过程中,容易出现目标提取不完整或背景被误识为目标等现象,该文提出一种奇异值分解 (SVD)域差异性度量的低景深图像目标提取方法。先对低景深图像进行高斯模糊,以图像中每一个像素点为中心,利用滑动窗口分别截取模糊前后图像上相同位置的图像块并进行奇异值分解,再构造两奇异值之间的差异特征向量,针对此向量定义低中高全频段信息加权的差异性度量算子,计算对应像素点的显著性特征值,逐像素处理得到显著性结果图并进行阈值化处理,实现低景深图像目标的有效提取。对大量低景深图像进行处理,并与几种现有方法进行比较,提出方法的F度量值最大可提高54%,平均绝对误差减少76%~87%,可完整提取目标并有效去除背景,具有较强的可靠性。Abstract: In the process of target extraction in low Depth Of Field (DOF) image, it is easy to get incomplete target extraction or the background is mistakenly recognized as a target. A low DOF image target extraction method based on Singular Value Difference (SVD) measurement is proposed. Firstly, Gaussian blur is applied to the low DOF image. Taking the current pixel as the center, the image blocks at the same position on the image before and after blur are intercepted by using the sliding window, and singular value decomposition is carried out. Then, the difference feature vector between the two singular values is constructed. Based on this vector, the difference measurement operator is defined to calculate the characteristic intensity value of the corresponding pixel. The feature salient map is obtained by pixel by pixel processing, and the threshold processing is carried out to realize the effective extraction of low DOF image targets. A large number of low DOF images are processed, and compared with several existing methods, the maximum F measure can be increased by 54%, and the average absolute error can be reduced by 76%~87%. The proposed method can completely extract the target and effectively remove the background, and has strong reliability.
-
1. 引言
低景深图像(low Depth-Of-Field, DOF)一般表现为目标聚焦清晰且显著突出,背景虚化模糊,可有效增强目标与背景的视觉对比,广泛应用于工业自动检测、电子消费和互联网等各个领域。低景深图像中的聚焦区域包含着重要的信息,是最能引人视觉注意的显著性目标区域(Region-Of-Interest, ROI),因此低景深目标的提取也可以表述为显著性目标或聚焦区域的提取。低景深图像中显著性目标提取方法的研究一直是人们关注的热点问题,也是目标自动检测识别、图像描述、视频自动检索及医学图像处理等领域[1-8]需要深入探索的问题。
如何有效提取显著性目标并去除干扰背景,是低景深图像显著性目标提取过程中的关键问题。许多学者针对这一关键问题开展了深入研究,取得了大量研究成果。如Zhai等人[9]通过计算图像中某个像素点和其他所有像素的欧氏距离的总和,得到像素特征显著图,达到有效提取目标的目的。Achanta等人[10]利用局部特征提取方法,将多个尺度的显著性相加得到最终的目标显著图。Cheng等人[11,12]提出了基于全局和局部相结合的方法,充分考虑显著性目标像素的色彩特性和邻域像素之间的空间关系,生成像素级别的显著性图。上述这些方法依据纹理、灰度或色彩信息等提取图像显著性特征,对于目标与背景颜色差异明显的普通图像,都能较好地将显著性目标与背景分离开来,达到显著性目标检测的目的。而对于低景深图像,其聚焦信息往往起着更为重要的作用,利用色彩或灰度分布信息难以将显著性特征与背景区分开来,可能将相同颜色的背景当作目标提取而出现伪目标现象[7]。
部分研究者依靠获取图像的高频成分,从而实现显著性目标和背景的分割。如Hou等人[13]提出一种基于谱残差的视觉显著性计算模型,通过在频率中去除低频背景,保留高频目标得到显著性图,后续有学者在其基础上提出了改进算法[14]。 Achanta等人[15]利用带通滤波得到显著性结果图,还有通过高阶统计量或其与纹理等特征融合的方法来获取低景深图像的高频成分[16-19]。这些方法仅考虑了图像的高频部分,在聚焦对象的细节或边缘处能获得较高的强度值,由于没有充分利用图像的空间特性和频率特性,无法覆盖整个聚焦对象,不能保证显著性目标提取的完整性[7]。
近几年来,随着深度学习技术在计算机视觉领域的广泛应用,部分学者对基于深度学习的低景深目标提取方法进行了深入研究,建立了基于单流网络、多流网络、侧融合网络、自下而上/自上而下网络、分支网络及多种网络融合等深度学习模型的低景深目标提取方法[20-22],针对特定的应用对象取得了较好的效果。但这些模型的训练建立在大量应用领域的特定数据集基础上,因此数据集的质量对模型训练的结果造成了严重挑战。
上述现有方法在低景深图像目标提取过程中会出现目标不完整或伪目标,以及深度学习方法易受制于训练样本和模型优化设计等问题,因此本文提出一种局部奇异值差异特征度量方法(SVD Domain difference Measure, SVD-DM)。针对小样本低景深图像中不同区域的特征强度各有不同,聚焦目标区域差异特征强度值大,模糊背景区域特征强度值小的特点。先通过奇异值分解(Singular Value Decomposition, SVD),构造原图像和模糊后图像局部图像块的奇异值差异特征向量,再利用SVD域内特征向量低、中、高频段信息加权来计算像素显著性强度值,形成目标显著、背景微弱的特征强度图。保证了目标提取的准确性,减少平均绝对误差,同时也避免了大量训练样本需求及复杂的模型优化设计问题。
2. 低景深图像的奇异值分布特性
2.1 图像的奇异值分解
在光学成像中,只有位于对焦平面的物体会出现清晰的成像。因此低景深(DOF)图像一般分为聚焦目标区域和离焦背景区域两个部分。从频域来说,低景深图像中离焦模糊背景区域主要位于低频部分,聚焦目标区域则分布在频率域的低中高多个频段。如图1所示,低景深图像方框中A为背景离焦模糊区域,聚焦的清晰区域B为图像的显著目标区域。
将低景深图像或其上的某一图像块S看成一个2维矩阵,对矩阵进行SVD分解,写成如式(1)的形式[23-26]
S=U×Σ×VT (1) 其中,U和V都是单位正交矩阵。
Σ 是一个主对角线为奇异值,其余值为0的矩阵Σ=[λ10000λ20000⋱0000λN] (2) 其中,矩阵内奇异值由大到小排列:
λ1>λ2>⋯>λN ,且奇异值减小得特别快。前面几个较大的奇异值,代表图像的大部分信息,即图像的低频部分。后面较小的奇异值,对应图像细节信息,代表图像的高频分量。2.2 图像块模糊前后的奇异值分布特征
低景深图像中显著性目标的提取,关键在于提取离焦模糊区域和聚焦清晰区域之间的高区分度特征,从而实现目标与背景的有效分割。本文通过分析离焦和聚焦区域与各自模糊后的SVD奇异值差异特征,并定义全频段特征的差异特征度量算子,达到有效分割离焦模糊背景和聚焦目标区域的目的。
对图1中模糊的背景图像块A(图2(a))和清晰目标图像块B(图2(b))进行SVD分解,分解后的奇异值分布曲线如图2(c)所示。模糊背景图像块A的SVD奇异值主要分布在前面几个较大的值上,后面的值几乎全部为0,如图2(c)蓝色实线所示。清晰图像块B的SVD奇异值除了分布在前面几个较大的值上,也会分布在后面较小的值上,如图2(c)中红色实线所示。图中横坐标为SVD奇异特征值个数,纵坐标为奇异特征值大小。全文中SVD曲线图横纵坐标参数相同。
为了区分两种不同区域SVD奇异值分布的差异特性,本文将奇异值对应到不同的低、中、高3个频率段进行分析。可以看出,A,B区域均包含不同的频率信息,只是各频率数值不同。模糊区域A的奇异值下降很快,在P点处及以后趋于0,只在低频部分有值;而清晰区域B的奇异值下降到M点处后缓慢减少,在中、高频段部分也有分布值,对应的局部放大如图2(d)所示。
对图2中A,B区域分别进行相同的高斯模糊处理,得到模糊后的区域Ablur, Bblur,再对Ablur和Bblur进行SVD分解,得到结果如图3所示。图3(c)、图3(d)中,蓝色虚线为Ablur的奇异值分布曲线,红色虚线为Bblur的奇异值分布曲线。
为了更加明显地看出模糊区域A和清晰区域B进行模糊前后SVD奇异值分布的变化特征,将A, B, Ablur和Bblur 4个区域的SVD奇异值分布曲线进行对比,如图4所示。
可以看出,背景图像块A与其高斯模糊后图像块Ablur的SVD奇异值分布相比,变化很小,如图4(a)和图4(b)中蓝色曲线。目标图像块B与其高斯模糊后图像块Bblur的SVD奇异值在分布特征上变化较大。由此说明,低景深图像中的模糊图像块进行高斯模糊后,奇异值分布改变很小,说明模糊过程对低频图像影响不大;反之对清晰图像块进行模糊后,SVD奇异值曲线下降更加迅速,高频成分减少,模糊前后奇异值分布曲线差异较大,表明模糊过程对清晰图像影响较大。
3. 显著性目标提取方法
从上述分析可知,背景图像块A, Ablur之间的奇异值分布差异远远小于目标图像块B, Bblur之间的差异。由此本文提出一种定义在两者之间的具有高区分度的差异特征度量方法,来区分低景深图像中的模糊背景和清晰目标区域,达到提取显著性目标的目的。若图像块模糊前后的奇异值分布差异较小,可定义为模糊背景区域,反之,若差异较大,则可定义为显著性目标区域。
3.1 奇异值差异特征向量构造
令要进行显著性目标提取的低景深图像为
f(x,y) ,对其进行高斯模糊处理后图像为fblur(x,y) ,高斯模糊用如式(3)的卷积过程表示fblur(x,y)=h(x,y)∗f(x,y) (3) 其中,
h(x,y) 为高斯模糊核,表示为h(x,y)=12πσ2e−(x2+y2)2σ2 (4) 其中,(x,y)为坐标变量,
σ 为模糊因子。设定两个大小相同的滑动窗口,大小为W1×W2,分别在f(x,y) 和fblur(x,y) 上从左到右,从上至下,每滑动一个像素,以该像素为中心的窗口内的图像块定义为fk(x,y) 和fkblur(x,y) 。分别对fk(x,y) 和fkblur(x,y) 进行SVD分解,得到两个奇异值向量λf=SVD(fk(x,y)) (5) λfblur=SVD(fkblur(x,y)) (6) 利用差比型算子构造两个奇异值之间的差异特征向量
δλ ,如δλ(x,y)=(λf(x,y)−λfblur(x,y))/ηλfblur(x,y) (7) 其中,
η 为加权调节因子,值位于0~1。3.2 SVD域差异性度量算子
利用上述算法,分别对图1中A, B两图像块进行处理,得到的差异特征向量
δAλ 和δBλ 分布曲线如图5所示。从图5曲线看出,对背景图像块A进行处理,其对应的差异特征向量分布最高点为MA处,在PA处下降到0后一直保持不变。而目标图像块B的差异特征向量分布达到最高点MB处后,缓慢下降,中频和高频部分的值都大于0,且最高点位置MB远高于MA。
从频率域上分析,将图像块的差异特征分布曲线定义为低、中、高频3个部分,A对应分布曲线只占低频和中频前面的一小部分,其余都为0;而B对应曲线分布从低频段开始逐渐上升,到中频后达到极大值,然后缓慢下降,一直到高频段也保持较高的值。针对现有方法中只考虑高频信息而导致目标信息提取不完整的问题,本文定义一个包含低中高3个频段范围的差异性度量算子,来描述不同图像块的特征强度,用式(8)表示为
Dδ(x,y)=ln(αa∑i=1δλi+βb∑j=aδλj+γc∑k=bδλk) (8) 其中,
α,β和γ 分别为低中高3个频段的加权因子,满足α+β+γ=1 ,a, b, c分别为3个频段位置坐标。如图5所示,若令横向坐标轴长度为L,在0~0.15L区间内,两条曲线的值几乎都为0;0.15L~0.8L段内,两条曲线的值达到顶峰后逐渐下降,且清晰图像块的曲线值远远大于对应模糊图像块曲线值;0.8L~L区间,清晰图像块的曲线值逐渐下降,模糊图像块曲线值为0。因此本文定义a, b, c的值为:a=0.15L, b=0.8L, c=L。为了最大限度将两条曲线的特征区分出来,本文确定3个分段的加权值分别为α=0.1 ,β=0.6 ,γ=0.3 。避免因只选取部分频段信息而导致特征丢失,同时也能较好地去除背景干扰。3.3 阈值化处理
根据上述步骤,对低景深图像中的每一个像素进行处理,得到一个对应的特征强度值。遍历整幅图像进行处理,则可得到特征显著性结果图。结果图中目标最为突出的,表现为高强度值,模糊背景部分则表现为较低的强度值,得到了较好的抑制。因此可以采用一个简单的阈值化运算提取目标,本文定义阈值公式为
Th=κ⋅Dδ/N (9) 其中,
κ 为一个0~1的系数,N为奇异值向量的长度。在本文中,经过大量实验表明,当κ 取0.3~0.5的值时,能取得较好的阈值化效果。考虑到不同图像中目标的显著性程度存在一定的差别,κ 值大小可适当调整。3.4 算法流程
对一幅分辨率为M×N的低景深图像,定义大小为W1×W2的滑动窗口,计算该图像每一个像素对应图像块模糊前后在SVD域上的差异特征强度值,最后得到特征显著性结果图,本文计算像素的特征度量值算法步骤如表1所示。
表 1 像素特征度量值计算(1) 输入低景深图像f(x,y) (2) 对f(x,y)进行高斯模糊处理得到图像fblur(x,y) (3) x=1:M 循环 (4) y=1:N 循环 (5) 式(5)、式(6),计算以(x,y)为中心的窗口大小图像块
fk(x,y)和fkblur(x,y)的SVD奇异值(6) 式(7), 计算两图像块奇异值差异特征向量δλ (7) 利用度量式(8), 计算(x,y)像素点的特征度量值 (8) 终止循环(4) (9) 终止循环(3) (10) 利用式(9)进行阈值化,得到目标提取结果图像 计算单个像素特征强度值的算法流程示意如图6所示。对每一个像素计算得到一个特征强度值,图像中显著性目标像素的特征强度值高,模糊背景像素点的特征强度值低,这样就在特征显著性图中将目标区域显著地表现出来,经过阈值化处理,最后得到显著性目标。
4. 实验结果与分析
4.1 高斯模糊参数影响分析
由于算法中对原图像及其高斯模糊后的图像进行SVD分解,由于图像模糊程度会直接影响SVD奇异值分布及像素差异度值结果,在本文中,将影响模糊程度的偏差系数
σ 定义为模糊因子。从理论上来看,模糊因子越大,图像的模糊程度越强。本文针对不同模糊因子条件下处理得到的特征显著性图进行计算实验,并使用Pratt的优点图(Pratt’s Figure Of Merit, PFOM)度量[6]来评估不同高斯模糊条件下计算得到的结果,进而确定最合适的高斯模糊因子。PFOM度量公式为PM=1INIA∑i=111+ad2 (10) 其中,
IN=Max(II,IA) ,II 为理想结果图,IA 为处理的结果图,a为缩放系数,d为处理的结果图中目标边缘像素的分离距离。使用PFOM度量进行计算,得到的PFOM度量值越大,表示结果图质量越好。本文算法实验中,所用实验图像的分辨率为256×256,滑动窗口大小为5×5,高斯模糊半径取为2,分别取不同高斯模糊因子
σ ,计算图像差异特征强度结果如图7所示。从图7的特征显著性结果图可以看出,σ 值较小时,由于模糊程度不够,导致图像模糊前后的奇异值差异很小,得到结果图中目标和背景像素强度值都较低,提取的目标信息微弱。σ 取较大的值时,目标区域奇异值差异特征增强的同时,背景区域的奇异值差异特征也得到增强,随着σ 增大,背景噪声也越来越强。因此,本文根据图像评价度量PM来选择合适的模糊因子。图8为高斯模糊因子
σ 与PM的分布曲线。从图8的PM值曲线分布可以看出,当模糊因子逐渐变大时,PM值也逐步增大,当模糊因子达到一定值时,PM达到最大值,然后随着模糊因子的增大而减小。根据上述结果,本文取PM达最大值时的参数为最佳模糊因子σ =0.5。4.2 实验结果比较与分析
本文提出方法主要面向只有极少样本条件下的低景深图像目标提取,为验证本文算法(SVD-DM)处理结果的优越性,对大量不同场景、不同目标和背景的低景深图像进行了处理,实验所用图像为Zhao等人[20]提供的大连理工大学离焦模糊检测(Dalian University of Technology-Defocus Blur Detection, DUT-DBD)数据集,图像分辨率为256×256。Zhao等人[20]采用深度学习来提取图像的显著性目标,在深度学习模型训练过程中,利用大量的图像作为训练样本,耗费较多的人力和时间进行大量的图像真值标记(Ground Truth, GT),并利用专业的硬件设备执行算法,因此取得了较好的结果。本文针对较少样本图像,以Zhao等人[20]的提取结果作为参考的评判标准,对本文及现有的5种主流算法如亮度对比度法 (Luminance Contrast, LC)[9], Achanta的对比度法(Achanta’s Contrast, AC)[10],直方图对比度法(Histogram-based Contrast, HC)[11],谱残差法 (Spectral Residual, SR)[13]和频率调谐法 (Frequency-Tuned, FT)[15]进行了对比评价,并针对不同类型图像的处理结果进行比较分析。在此基础上,利用精确度-召回率(Precision and Recall, PR)曲线、F度量(F-measure)和平均绝对误差(Mean Absolute Error, MAE)3种评价方法对上述所有方法的处理结果进行了评价计算。图9所示为简单背景下本文方法与现有方法的处理结果。图10为复杂背景条件下本文方法与现有方法的处理结果比较。
图9中,从左至右,第1列为简单背景低景深图像,第2列为真值图(GT),其余各列分别为LC[9], AC[10], HC[11], SR[13], FT[15], Zhao等人[20]及本文方法的处理结果。在图9的第1~4行中,原图像中目标区域与背景区域颜色差异较大,且背景色彩单一,LC, AC, HC, FT方法的目标提取结果较好,背景也比较干净,SR方法提取结果中虽然背景干净,但目标区域欠完整。图9第5行结果中,对于原图中背景与目标中颜色相近区域,LC, AC, HC, FT方法将背景误检测为目标。SR方法的提取结果中背景较干净,但目标完整性不够。从结果图可以看出,本文所提方法能准确地将目标区域与背景区域区分开,且提取的目标区域信息完整,背景干净,最接近文献[20]方法的处理效果。
图10中,从左至右,第1列为复杂背景低景深图像,第2列为真值图(GT),其余各列分别为LC[9], AC[10], HC[11], SR[13], FT[15], Zhao等人[20]及本文方法的处理结果。当图像中的背景较为复杂时,LC, AC, HC, FT方法在提取目标的同时,误将很大一部分背景作为目标提取出来,特别是图10中第2~3行的结果中,提取的目标甚至湮没在背景中。由于SR仅保留原图像的高频部分,提取的结果图中背景去除得很干净,但目标信息微弱,甚至存在部分目标缺失现象(见图10第3行SR方法结果)。与上述几种方法相比,本文方法处理结果中,目标都提取得比较完整,结果图像中的背景都被去除干净,接近文献[20]方法的处理结果。
从上述结果及分析可以看出,本文方法在SVD域中处理图像,在提取图像目标信息过程中,不仅考虑图像的高频信息,还将中频和低频信息作为目标信息提取重要因素,因此较好地避开了色彩因素等对目标提取的影响,提取的目标也比仅保留高频成分的SR方法要完整。
4.3 实验结果评价
4.3.1 PR曲线
PR曲线是用来评估显著性目标提取性能的重要指标之一,PR曲线中的P(Precision)和R(Recall)分别表示“精确度”和“召回率”。以“精确度”为纵坐标,“召回率”为横坐标所做的曲线即为PR曲线。首先将所提取的显著性结果图进行二值化,然后通过下面公式逐像素对比实际提取目标与人工标注目标(Ground-Truth,GT)来计算Precision值与Recall值
P=TPTP+FP,R=TPTP+FN (11) 其中,TP(True Positive)为准确分类的目标,TN(True Negative)为背景,FP(False Positive)为误分为目标的背景区域,FN(False Negative)为误分为背景的目标区域,如图11所示,GT表示Ground-Truth目标区域(红色区域),Ge表示实际提取的目标区域(绿色区域)。
通常根据PR曲线的平衡点来评价该PR曲线对应的性能。平衡点(Break-Even Point, BEP)是P=R时的取值,如果该值较大,则说明算法性能较好。图12为对数据集DUT-DBD中的图像,利用本文方法与现有方法PR曲线结果比较。
可以看出,FT, LC, HC, AC方法的PR曲线相近,从平衡点直线来看,LC方法的平衡点的值最小,即LC方法的目标提取性能较差,FT, HC, AC 3种方法的平衡点相近,大于LC方法,但远远小于SR方法。本文方法PR曲线最接近Zhao等人的方法,说明本文方法的性能优于其他5种方法。
4.3.2 F度量方法
由于很多情况下,精确度Precision和召回率Recall均不能全面地对显著性结果进行评估。本文还采用F-measure方法来对处理结果进行评价,F度量(F-measure)方法是P和R加权调和平均,F-measure值越大表示目标提取结果越好,其表达式为
Fβ=(1+β2)×P×Rβ2×P+R (12) 其中,
β2 为非负权重值,本文取0.3。表2为对数据集DUT-DBD中的图像,用不同方法处理结果的F-measure值,粗体数字为本文方法(SVD-DM)结果。表 2 不同方法的F-measure值LC FT AC HC SR 文献[20] SVD-DM F-measure 0.5867 0.6069 0.5588 0.4955 0.7094 0.8942 0.7639 从表2结果可以看出,LC方法的F-measure值最小,性能最差。FT, HC, AC 3种方法的F-measure值相近,SR方法结果稍大于前面4种方法,Zhao等人方法的F-measure值最大。本文方法的F-measure值大于LC, FT, HC, AC, SR 5种方法,低于Zhao等人的方法。与F-measure最低的LC方法相比,本文方法F-measure值提高54%。上述所有结果中,本文方法与Zhao等人方法的F-measure值最接近,表明了本文方法进行低景深图像目标提取的优势。
4.3.3 平均绝对误差
平均绝对误差(Mean Absolute Error, MAE)是直接计算各种方法处理结果与人工标注的真值图(GT)之间的平均绝对误差,其值越小,表明处理结果S与真值图GT之间的差距越小,目标提取结果越好。计算公式为
MAE=1M×NM∑x=1N∑y=1|S(x,y)−GT(x,y)| (13) 其中,
M 和N 分别表示原图像和结果图的高与宽。对数据集DUT-DBD中的图像,用不同方法得到的结果进行测试,得到的MAE结果如表3所示,粗体数字为本文方法结果。表 3 不同方法对应的平均绝对误差值LC FT AC HC SR 文献[20] SVD-DM MAE 0.6415 0.6993 0.7320 0.6629 0.3983 0.0728 0.0957 从表3所示结果来看,MAE值最高的是AC方法,最低的是Zhao等人方法,本文方法MAE值大于Zhao等人方法,但与Zhao等人方法MAE值接近,且远小于其他5种方法。从图9和图10的结果可以看出,HC, LC, FT, AC方法结果中有部分大面积的背景区域被误作为目标提取出来,因而造成较高的误差率。SR方法对应的平均绝对误差小于HC, LC, FT, AC方法,说明对背景的去除效果较好,但是MAE值远大于本文方法,表明SR提取目标的完整性欠佳。本文方法与AC方法相比,MAE减少87%;与SR方法相比,MAE减少76%。表3所示结果中,只有本文方法和Zhao等人[20]方法的MAE值相近,且都小于0.1。由此证明,本文提出方法与现有的这几种方法相比,目标提取完整性最好,背景去除能力最强。
5. 结论
对大量不同背景的低景深图像进行了显著性目标提取,对不同区域图像块分别进行模糊,并进行奇异值分解后,发现目标所在区域图像块模糊前后的奇异值分布差异远远大于背景所在区域图像块。根据这一特征,本文针对图像块模糊前后奇异值差异特征定义了一个包含低中高3个频段范围的差异性度量算子,计算不同区域像素对应的特征强度值。最后进行阈值化将高强度值像素确定为目标,低强度值像素确定为背景,将目标和背景分割出来。实验结果表明,本文方法能较好地保持目标完整性和有效去除背景。
-
表 1 像素特征度量值计算
(1) 输入低景深图像f(x,y) (2) 对f(x,y)进行高斯模糊处理得到图像fblur(x,y) (3) x=1:M 循环 (4) y=1:N 循环 (5) 式(5)、式(6),计算以(x,y)为中心的窗口大小图像块
fk(x,y)和fkblur(x,y)的SVD奇异值(6) 式(7), 计算两图像块奇异值差异特征向量δλ (7) 利用度量式(8), 计算(x,y)像素点的特征度量值 (8) 终止循环(4) (9) 终止循环(3) (10) 利用式(9)进行阈值化,得到目标提取结果图像 表 2 不同方法的F-measure值
LC FT AC HC SR 文献[20] SVD-DM F-measure 0.5867 0.6069 0.5588 0.4955 0.7094 0.8942 0.7639 表 3 不同方法对应的平均绝对误差值
LC FT AC HC SR 文献[20] SVD-DM MAE 0.6415 0.6993 0.7320 0.6629 0.3983 0.0728 0.0957 -
[1] XU Guodong, QUAN Yuhui, and HUI Ji. Estimating defocus blur via rank of local patches[C]. 2017 IEEE International Conference on Computer Vision, Venice, Italy, 2017: 5381–5389. [2] XIAN Ke, PENG Juewen, ZHANG Chao, et al. Ranking-based salient object detection and depth prediction for shallow depth-of-field[J]. Sensors, 2021, 21(5): 1815. doi: 10.3390/s21051815 [3] RAFIEE G, DLAY S S, and WOO W L. Region-of-interest extraction in low depth of field images using ensemble clustering and difference of Gaussian approaches[J]. Pattern Recognition, 2013, 46(10): 2685–2699. doi: 10.1016/j.patcog.2013.03.006 [4] WIRTH T, NABER A, and NAHM W. Combination of color and focus segmentation for medical images with low depth-of-field[J]. Current Directions in Biomedical Engineering, 2018, 4(1): 345–349. doi: 10.1515/cdbme-2018-0083 [5] LIU Zhi, LI Weiwei, SHEN Liquan, et al. Automatic segmentation of focused objects from images with low depth of field[J]. Pattern Recognition Letters, 2010, 31(7): 572–581. doi: 10.1016/j.patrec.2009.11.016 [6] HASSAN H, BASHIR A K, ABBASI R, et al. Single image defocus estimation by modified gaussian function[J]. Transactions on Emerging Telecommunications Technologies, 2019, 30(6): e3611. doi: 10.1002/ett.3611 [7] LI Nianyi, YE Jinwei, JI Yu, et al. Saliency detection on light field[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(8): 1605–1616. doi: 10.1109/TPAMI.2016.2610425 [8] BORJI A, CHENG Mingming, JIANG Huaizu, et al. Salient object detection: A benchmark[J]. IEEE Transactions on Image Processing, 2015, 24(12): 5706–5722. doi: 10.1109/TIP.2015.2487833 [9] ZHAI Yun and SHAH M. Visual attention detection in video sequences using spatiotemporal cues[C]. The 14th ACM international conference on Multimedia, Santa Barbara, USA, 2006: 815–824. [10] ACHANTA R, ESTRADA F, WILS P, et al. Salient region detection and segmentation[C]. The 6th International Conference on Computer Vision Systems, Santorini, Greece, 2008: 66–75. [11] CHENG Mingming, MITRA N J, HUANG Xiaolei, et al. Global contrast based salient region detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 569–582. doi: 10.1109/TPAMI.2014.2345401 [12] CHENG Mingming, ZHANG Guoxin, MITRA N J, et al. Global contrast based salient region detection[C]. 2011 IEEE Computer Vision and Pattern Recognition, Colorado Springs, USA, 2011: 409–416. [13] HOU Xiaodi and ZHANG Liqing. Saliency detection: A spectral residual approach[C]. 2007 IEEE Conference on Computer Vision and Pattern Recognition, Minneapolis, USA, 2007: 1–8. [14] GUO Chenlei, MA Qi, and ZHANG Liming. Spatio-temporal saliency detection using phase spectrum of quaternion Fourier transform[C]. 2008 IEEE Conference on Computer Vision and Pattern Recognition, Anchorage, USA, 2008: 1–8. [15] ACHANTA R, HEMAMI S, ESTRADA F, et al. Frequency-tuned salient region detection[C]. 2009 IEEE Conference on Computer Vision and Pattern Recognition, Miami, USA, 2009: 1597–1604. [16] KIM J, HAN D, TAI Y W, et al. Salient region detection via high-dimensional color transform and local spatial support[J]. IEEE Transactions on Image Processing, 2016, 25(1): 9–23. doi: 10.1109/TIP.2015.2495122 [17] BORJI A, CHENG Mingming, HOU Qibin, et al. Salient object detection: A survey[J]. Computational Visual Media, 2019, 5(2): 117–150. doi: 10.1007/s41095-019-0149-9 [18] AHN S and CHONG J. Segmenting a noisy low-depth-of-field image using adaptive second-order statistics[J]. IEEE Signal Processing Letters, 2015, 22(3): 275–278. doi: 10.1109/LSP.2014.2357792 [19] 邓小玲, 倪江群, 李震, 等. 多特征融合的低景深图像前景提取算法[J]. 自动化学报, 2013, 39(6): 846–851. doi: 10.3724/SP.J.1004.2013.00846DENG Xiaoling, NI Jiangqun, LI Zhen, et al. Foreground extraction from low depth-of-field images based on colour-texture and HOS Features[J]. Acta Automatica Sinica, 2013, 39(6): 846–851. doi: 10.3724/SP.J.1004.2013.00846 [20] ZHAO Wenda, ZHAO Fan, WANG Dong, et al. Defocus blur detection via multi-stream bottom-top-bottom network[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8): 1884–1897. doi: 10.1109/TPAMI.2019.2906588 [21] WANG Lijun, SHEN Xiaohui, ZHANG Jianming, et al. DeepLens: Shallow depth of field from a single image[J]. ACM Transactions on Graphics, 2018, 37(6): 245. doi: 10.1145/3272127.3275013 [22] WANG Wenguan, LAI Qiuxia, FU Huazhu, et al. Salient object detection in the deep learning era: An in-depth survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 43: 1–20. doi: 10.1109/TPAMI.2021.3051099. [23] 季正燕, 陈辉, 张佳佳, 等. 一种基于奇异值分解的解相干算法[J]. 电子与信息学报, 2017, 39(8): 1913–1918. doi: 10.11999/JEIT161157JI Zhengyan, CHEN Hui, ZHANG Jiajia, et al. Decorrelation algorithm based on singular value decomposition[J]. Journal of Electronics &Information Technology, 2017, 39(8): 1913–1918. doi: 10.11999/JEIT161157 [24] LI Ping, WANG Hua, LI Xuemei, et al. An image denoising algorithm based on adaptive clustering and singular value decomposition[J]. IET Image Processing, 2021, 15(3): 598–614. doi: 10.1049/ipr2.12017 [25] SANG Qingbing, YANG Yunshuo, LIU Lixiong, et al. Image quality assessment based on quaternion singular value decomposition[J]. IEEE Access, 2020, 8: 75925–75935. doi: 10.1109/ACCESS.2020.2989312 [26] XIAO Huimei, LU Wei, LI Ruipeng, et al. Defocus blur detection based on multiscale SVD fusion in gradient domain[J]. Journal of Visual Communication and Image Representation, 2019, 59: 52–61. doi: 10.1016/j.jvcir.2018.12.048 期刊类型引用(8)
1. 孙宝刚,何国斌. 融合相似度与随机森林的数据挖掘算法改进. 计算机仿真. 2025(01): 362-366 . 百度学术
2. 孙百康,李艳军,周茂辉. 基于奇异值分解的机器人视觉图像显著目标自动提取方法研究. 机电信息. 2024(07): 49-51+55 . 百度学术
3. 韦少凡,张琼. 无人机激光雷达遥感图像显著性目标检测方法. 机械设计与研究. 2024(02): 69-72+84 . 百度学术
4. 丁晓红,蒋雪峰. 通道奇异谱分析的绿色建筑能耗预测方法仿真. 计算机仿真. 2024(09): 351-355 . 百度学术
5. 李雪,何涛,樊泽园,宋晓娟. 基于BFGS算法的铁路区间老化电缆故障检测仿真. 计算机仿真. 2024(10): 106-109+264 . 百度学术
6. 占娜,王溪,白晨. 基于同态滤波的高空无人机测绘图像薄云去除方法. 电子设计工程. 2024(24): 68-71+76 . 百度学术
7. 胡艳婷,王璐娜,张通,李明亮. 高斯函数在显著图像特征提取中的应用仿真. 计算机仿真. 2023(12): 232-235 . 百度学术
8. 陈蓝,杨帆,曾桢. 优化预训练模型的小语料中文文本分类方法. 现代计算机. 2022(16): 1-8+15 . 百度学术
其他类型引用(1)
-