高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于非局部梯度的图像质量评价算法

高敏娟 党宏社 魏立力 张选德

周莉, 张歆茗, 郭伟震, 王琰. 基于改进冲突度量的多证据直接融合算法[J]. 电子与信息学报, 2019, 41(5): 1145-1151. doi: 10.11999/JEIT180578
引用本文: 高敏娟, 党宏社, 魏立力, 张选德. 基于非局部梯度的图像质量评价算法[J]. 电子与信息学报, 2019, 41(5): 1122-1129. doi: 10.11999/JEIT180597
Li ZHOU, Xinming ZHANG, Weizhen GUO, Yan WANG. A Direct Fusion Algorithm for Multiple Pieces of Evidence Based on Improved Conflict Measure[J]. Journal of Electronics & Information Technology, 2019, 41(5): 1145-1151. doi: 10.11999/JEIT180578
Citation: Minjuan GAO, Hongshe DANG, Lili WEI, Xuande ZHANG. Image Quality Assessment Algorithm Based on Non-local Gradient[J]. Journal of Electronics & Information Technology, 2019, 41(5): 1122-1129. doi: 10.11999/JEIT180597

基于非局部梯度的图像质量评价算法

doi: 10.11999/JEIT180597
基金项目: 国家自然科学基金(61871260, 61603234, 61362029, 61461043)
详细信息
    作者简介:

    高敏娟:女,1984年生,博士生,研究方向为图像处理、图像质量评价

    党宏社:男,1962年生,教授,博士生导师,研究方向为工业过程与优化、计算机控制、图像处理

    魏立力:男,1965年生,教授,研究方向为应用统计与数据分析

    张选德:男,1979 年生,教授,博士生导师,研究方向为图像恢复、图像质量评价、稀疏表示和低秩逼近理论

    通讯作者:

    张选德 zhangxuande@sust.edu.cn

  • 中图分类号: TP391

Image Quality Assessment Algorithm Based on Non-local Gradient

Funds: The National Natural Science Foundation of China (61871260, 61603234, 61362029, 61461043)
  • 摘要:

    图像质量评价研究的目标在于模拟人类视觉系统对图像质量的感知过程,构建与主观评价结果尽可能一致的客观评价算法。现有的很多算法都是基于局部结构相似设计的,但人对图像的主观感知是高级的、语义的过程,而语义信息本质上是非局部的,因此图像质量评价应该考虑图像的非局部信息。该文突破了经典的基于局部信息的算法框架,提出一种基于非局部信息的框架,并在此框架内构建了一种基于非局部梯度的图像质量评价算法,该算法通过度量参考图像与失真图像的非局部梯度之间的相似性来预测图像质量。在公开测试数据库TID2008, LIVE, CSIQ上的数值实验结果表明,该算法能获得较好的评价效果。

  • 证据理论(Dempster-Shafter theory, D-S theory)因其灵便的数据处理方式,近年来被广泛应用于目标辨识,故障诊断以及决策分析等领域[15]。但由于证据理论中的Dempster证据组合规则未对冲突数据加以有效利用,导致其不能准确处理高冲突证据。为此,学者们提出众多改进策略,包括预先处理原始证据[613]和改进组合算法模型或证据合成规则[1416],而各种改进策略的重点均是先要实现对证据冲突程度的准确衡量[1720],否则后续的证据融合工作也就失去了意义。

    研究显示,Dempster组合规则中的冲突系数k,不能有效度量概率分配值较分散的一致或近似一致证据之间的冲突,也不能准确刻画含有非单子集焦元证据之间的不一致性;Jousselme证据距离函数在对概率赋值较分散的冲突证据进行冲突度量时,其度量结果会出现不同程度的偏低;彭颖等人[17]基于证据模值的大小对Jousselme证据距离函数进行改进,但仍未较好解决Jousselme证据距离函数不能较好刻画证据之间局部冲突情况的问题;毛艺帆等人[18]提出利用证据之间的非重合度衡量证据之间的冲突,但该度量参数仅仅根据证据之间的非重合概率赋值来描述证据之间的冲突,不能从全局范围对证据之间的不一致性进行整体描述,其冲突度量结果通常偏低。另有一些其他冲突度量函数,如信息熵[12]、不确定度[19]以及各种相似性度量函数[20]等也均存在某些方面的不足。为发挥不同冲突度量参数的性能优势,克服其不足,本文对Jousselme距离函数、冲突系数和非重合度3个冲突度量参数进行优化组合利用,给出改进的融合冲突度量函数。在此基础上,对各焦元冲突分配系数进行改进和优化,在不同程度上提高了多维冲突信息的再分配精度。

    Θ={θ1,θ2,···,θN}是一辨识框架,2Θ表示Θ的幂集,其中含有2N个元素,他们构成命题集合。m:2Θ[0,1],满足:(1) m()=0; (2) A2Θm(A)=1。称m(A)为命题A的基本概率分配,若m(A)>0,称A为焦元,m(A)刻画了证据mA所描述事件的认可程度。

    mj(j=1,2,···,J)J个彼此独立的证据,则J个证据合成的Dempster组合规则定义为

    m(X)={AiAj···Al=X[m1(Ai)m2(Aj)···mJ(Al)]1k,X0,X=

    (1)

    其中,

    k=AiAj···Al=[m1(Ai)m2(Bj)···mJ(Al)]
    (2)

    当Dempster组合规则中的不一致因子k接近于1时,其证据合成结果会出现与真实情况相矛盾的结论,称为融合悖论[5]。其原因是在k值接近于1时,式(1)中分子与分母的取值都很小,其比值很容易随某个焦元赋值的微小变化出现识别结果的根本性改变。即当证据之间存在的一致性信息太少时,Dempster组合规则会由于信息缺乏导致证据合成结果出错。

    由于信息冲突原因和形成形式的多样性和复杂性,单一的冲突度量参数通常不能够全面描述冲突证据的多方面特性,致使冲突度量结果不准确。目前尚未找到一种能对各种类型冲突证据均进行有效冲突度量的全能参数。因此,有必要考虑对已有性能较好的冲突度量参数进行综合优化利用,以发挥不同冲突度量参数的特长,克服其不足,达到从全方位、多角度对证据冲突程度进行描述和度量的目的。

    证据冲突度量结果的准确性,对证据融合效果起着关键性的作用,在能够确保冲突度量结果十分准确的情况下,可考虑采用证据预处理算法对冲突证据进行修正后合成,即采用文献[10]的算法思路,在对证据源进行冲突衡量的基础上,对加权证据进行一定次数的重复融合,得到最终结果,但该类算法的目标识别结论实际上由冲突度量结果完全确定。如果对证据的冲突度量结果的准确性没有十足的把握,则应考虑在对证据进行冲突度量的基础上,对局部冲突实行按比例分配,以达到对证据冲突度量误差进行修正,提高证据融合结果可靠性的目的。曹洁等人[16]在利用Jousselme证据距离对证据权系数进行计算的基础上,对两两证据组合过程中形成的诸多形如AB的2维冲突组合所含不一致信息进行重新按比例分配,该算法的不足之一是其只采用Jousselme证据距离对冲突证据进行冲突度量,结果不够准确;不足之二是其未对证据融合次序进行优化,算法结果欠稳定。对不足之一的改进措施即是要改进证据冲突度量算法;而对不足之二的改进思路一是优化证据融合次序,二是提高局部冲突分配过程中参与直接融合证据的个数。很显然,采用后者可以更充分利用多维冲突组合所含有用信息,减少证据组合次序的影响,提高冲突证据融合结果的可靠性。为此,本文给出基于改进冲突度量的多证据直接融合算法。

    首先,针对Jousselme证据距离函数随证据中各焦元概率赋值分散程度的增大对证据的冲突度量结果偏低的不足,给出新改进的Jousselme证据距离函数如式(3)

    dNIJ(mi,mj)=(mimj)TD(mimj)+γnc(mi,mj)2+γnc(mi,mj),i,j=1,2,···,J
    (3)

    其中,D(A,B)=|AB|/|AB|, ||为求模运算,γ[0,+)为可调参数,nc是两证据之间的非重合度,其定义如式(4)

    nc=1c(mi,mj),i,j=1,2,···,J
    (4)

    其中,

    c(mi,mj)=2Nk=1min(mi(Ak),mj(Ak))
    (5)

    这里,N是识别框架中命题的个数,式(5)表示两条证据mimj对各命题的共同认可程度的总和。

    根据式(3),如果证据mimj之间的非重合度nc取值较大,说明两条证据之间的冲突程度较高,此时应考虑增大可调参数γ的取值。根据大量实验可知:(1)当0.6<nc1.0时,可取γ(4,8],对于高冲突证据,通常取γ=8,当取γ>8时,其对应冲突度量结果会有一定的增大,但增大的幅度较小;(2)当0.1<nc0.6时,取γ(0,4];(3)若0nc0.1,说明证据之间的冲突程度较小,可令γ=0,此时,式(3)退变为Jousselme证据距离函数。

    考虑到在一般情况下,冲突系数k能够较好刻画证据之间的局部冲突情况,为此,基于冲突系数k和新改进的Jousselme证据距离函数共同构建改进的融合冲突度量函数如式(6)

    df(mi,mj)=1[(1k)δ(1(mimj)TD(mimj)+γnc(mi,mj)2+γnc(mi,mj))]1/2,i,j=1,2,···,J
    (6)

    γ=0,式(6)退变为

    df(mi,mj)=1[(1k)δ(1(mimj)TD(mimj)2)]1/2,i,j=1,2,···,J
    (7)

    其中,δ为二值示性函数,对不含有非单子集焦元的冲突证据进行冲突度量时,取δ=1;否则,取δ=0

    即当证据之间冲突程度不是很高,且不含非单子集焦元证据时,可采用式(7)对证据进行融合冲突度量。这是由于在对概率分配较分散的相同或相似程度较高的两条证据进行冲突度量时,k的冲突度量值会偏高,而此时基于Jousselme证据距离函数的冲突度量值偏低,因此式(7)中采用对基于两个冲突度量参数的相似性度量函数进行相乘的方式,恰好可以避免不一致因子k和Jousselme证据距离函数存在的不足;且对上述两个冲突度量参数进行如式(6)和式(7)所示的组合利用,可以从局部冲突和整体不一致性两方面刻画证据之间的冲突程度,起到较好发挥各冲突度量参数的特长,避免其不足的作用。

    本节考虑在对证据进行改进冲突度量的基础上,对焦元冲突分配系数进行优化,以提高局部多维冲突信息按比例分配的精度。

    改进的多证据直接融合算法步骤如下:

    步骤 1 基于式(6)或式(7)计算证据mimj之间的相似度函数如式(8)

    fij=1df(mi,mj),i,j=1,2,···,J
    (8)

    则证据mi基于改进冲突度量的权系数(可信度)可表示为

    c(mi)=e(mi)Jj=1e(mj),i,j=1,2,···,J
    (9)

    其中,

    e(mi)=Jj=1fij,i,j=1,2,···,J
    (10)

    步骤 2 J条证据的加权证据mw可描述为

    mw(Ak)=Ji=1c(mi)mi(Ak),i,j=1,2,···,J;k=1,2,···,N
    (11)

    其中,N为证据中焦元的个数;

    步骤 3 从证据mi中焦元Ak的概率赋值mi(Ak)与其加权均值mw(Ak)的相似性程度和可靠性两方面考虑,将证据mi中焦元Ak的支持度描述为

    s1[mi(Ak)]=s1g[mi(Ak)]s1l[mi(Ak)]Jj=1s1g[mj(Ak)]Jj=1s1l[mj(Ak)],i,j=1,2,···,J
    (12)

    其中,

    s1g[mi(Ak)]=2mi(Ak)mw(Ak)[mi(Ak)]2+[mw(Ak)]2
    (13)
    s1l[mi(Ak)]={0,mi(Ak)>2mw(Ak)mi(Ak)/mw(Ak),mi(Ak)mw(Ak)1dw[mi(Ak)]/mw(Ak), 

    (14)

    dw[mi(Ak)]=|mi(Ak)mw(Ak)|
    (15)

    其中,s1g[mi(Ak)]的不足是其对相差较大的两个数值的相似度的度量结果偏高,但其能够区分对mi(Ak)mw(Ak)具有相同的距离差的两组值可信程度的高低,即其对取值较高的一组值的相似性度量结果较高,而这是s1l[mi(Ak)]所不具有的,但s1l[mi(Ak)]能够较好区分两个值之间的差距大小。因此二者综合利用,可以较好地描述考虑加权均值mw(Ak)的证据mi中焦元Ak的支持度。

    另外,从mi中焦元Ak被其他证据中同一焦元的支持的度量方面考虑,对证据mi中焦元Ak的支持度又可描述为

    s2[mi(Ak)]=Jj=1[1|mi(Ak)mj(Ak)|]Ji=1Jj=1[1|mi(Ak)mj(Ak)|],i,j=1,2,···,J
    (16)

    故综合考虑上述两方面因素,mi中焦元Ak的信任度可以描述为

    $$ {s^f}[{m_i}({A_k})] = \frac{{s[{m_i}({A_k})]}}{{\displaystyle\sum\limits_{i = 1}^J {s[{m_i}({A_k})]} }} $ 其中,$ (17)
    s[mi(Ak)]=s1[mi(Ak)]s2[mi(Ak)]Ji=1s1[mi(Ak)]Ji=1s2[mi(Ak)]
    (18)

    因此,mi中焦元Ak的冲突分配系数可描述为

    λ[mi(Ak)]=c(mi)sf[mi(Ak)]Ji=1Nk=1c(mi)sf[mi(Ak)],i=1,2,···,J;k=1,2,···,N
    (19)

    步骤 4  故在形如(rAi,Ai,···,Ai,Aj,Aj,Ak,···,Ah)J维冲突组合中,焦元Ai, Aj应占冲突分配比例分别为

    ω(Ai)=1Sru=1λ[mu(Ai)]mu(Ai)
    (20)
    ω(Aj)=1Sr+2v=r+1λ[mv(Aj)]mv(Aj)
    (21)

    其中,

    S=ru=1λ[mu(Ai)]mu(Ai)+r+2v=r+1λ[mv(Aj)]mv(Aj)+···+λ[mJ(Ah)]mJ(Ah)
    (22)

    类似可计算得到任意其它组成形式的多维冲突组合中某一焦元在冲突分配中所占比例;

    步骤 5 基于改进融合冲突度量的多证据直接融合算法可描述为

    m(X)=Jj=1Aj=XJj=1mj(Aj)+AjX=Xω(Aj)η
    (23)

    其中,Aj表示来自第j个证据中的焦元;式(23)中第1项求和号中的表达式表示当某一J维冲突组合中来自各不同证据的焦元有相同的公共部分X时对X的信度赋值;第2项求和号中的表达式表示某J维冲突组合中来自J个不同证据的焦元中仅有部分焦元含有X时对X的信度赋值,ω(Aj)表示某一J维冲突组合中焦元Aj在冲突信息按比例分配中的权重,η表示对应J维冲突组合的概率赋值。

    为验证本文所提冲突度量和证据融合算法的有效性,以下给出本文所提新算法与相关算法的算例及仿真应用效果比较与分析。

    例1 目标识别框架Θ={A,B,C},在下面两种情况下,讨论证据之间的冲突情况。

    情况1:

    m1(A)=0.20,m1(B)=0.10,m1(C)=0.70m2(A)=0.65,m2(B)=0.10,m2(C)=0.25

    情况2:

    m1(A)=0.00,m1(B)=1.00,m1(C)=0.00m2(A)=0.75,m2(B)=0.10,m2(C)=0.15

    解 基于不同参数的冲突度量结果如表1表2所示。

    表 1  不同参数对情况1中证据的冲突度量结果
    冲突度量参数m1m1m2m2m1m2
    dJ000.4500
    k0.46000.50500.6850
    nc000.4500
    dPJ000.6255
    dNIJ(γ=4)000.7618
    df(γ=4)0.26520.29640.7241
    下载: 导出CSV 
    | 显示表格
    表 2  不同参数对情况2中证据的冲突度量结果
    冲突度量参数m1m1m2m2m1m2
    dJ000.8352
    k00.40500.9000
    nc000.9000
    dPJ000.9352
    dNIJ(γ=8)000.9886
    df(γ=8)00.22870.9662
    下载: 导出CSV 
    | 显示表格

    表1表2中,dPJ表示文献[17]所提改进冲突度量函数。观察情况1中的两个证据可知,两证据的概率赋值相对分散,总体冲突程度相对较大。其中,Jousselme证据距离函数和非重合度对两条证据的冲突度量结果均为0.45,明显偏低。文献[17]所提改进算法的冲突度量结果为0.6255,低于冲突系数取值0.6850,而从一致性因子的组成1k=0.13+0.01+0.175来看,其概率赋值的一致性程度并不高,可知不一致因子的取值0.6850是偏低的。基于本文式(7)计算情况1中两证据的冲突度量结果为0.7241,结合情况1中证据概率赋值情况可以看出,该值较好刻画了两个证据之间的真实冲突状况。

    情况2中的两个证据明显属于高冲突情况,由表2可知,冲突系数和非重合度仅根据局部冲突情况确定证据之间的冲突为0.9,从整体冲突状况来看偏低。Jousselme证据距离函数的冲突度量结果0.8352也显然低于两个证据之间的实际冲突程度。从情况2两证据间的总体冲突情况分析,本文新改进冲突度量函数的冲突度量结果0.9662,综合体现了两个证据之间的局部和整体冲突状况。

    例2 我方空中观测平台用7部探测雷达对某一空域中3部飞行器机型进行辨别,Θ={A,B,C},这里A为军用侦察机,BC均为民用货机。飞行器A,B,C分别以均速1000 m/s在距我方观测平台100 km处相对飞行。雷达1,雷达2判断A,B,C为军用侦察机的信度分别恒定为0.43, 0.47, 0.10和0.01, 0.49, 0.50;雷达3—雷达7在100 km以及10 km处对侦察机机型进行正确辨别的信度分别为0.25和0.70,在10~100 km之间对飞行器A机型的判别准确程度和敌我飞行器之间间隔距离成反比;在无严重干扰场合,雷达3—雷达7判别飞行器B为侦察机的信度均为0.20。在观测平台与对方飞行器间隔20~30 m阶段,雷达6和雷达7受到严重干扰,准确辨别A,B飞行目标机型的可能性为0。

    采用本文所提新算法和相关算法,在上述仿真场合下的实验结果如图1图2所示。

    图 1  不同算法判断A为侦察机的概率
    图 2  不同算法判断B为侦察机的概率

    图1图2中,本文NA1和本文NA2分别指采用式(7)和式(8)计算证据冲突的基于改进焦元冲突分配系数的多证据直接融合算法,直接乘法(DM)是指采用式(10)计算证据权系数,而采用文献[16]算法计算焦元冲突分配系数的直接融合算法。由图1图2可以看出,在无严重干扰阶段,文献[10]算法(L[10])和文献[11]算法(L[11])的目标识别效果分别优于DM算法以及本文NA1和本文NA2两种新算法,其原因是前述两种算法均借助Dempster组合规则对加权证据进行自身组合,实现向加权证据所辨别目标的快速聚焦。由2.3节的分析可知,在对高冲突证据进行融合时,前述两种算法均存在稳定性差的缺点。Dempster组合规则(D-S)只能在冲突程度不高时正确辨别出目标,在严重干扰场合,D-S和L[10]以及L[11]均没能正确辨识出目标,对比图1图2可知,此时DM算法也只是勉强识别出目标,但其正确目标识别概率分别远远低于本文所提两种新算法的对应结果。与NA2相比,NA1的正确目标辨识概率高出约0.16个点,而NA2又比DM算法高出约0.15个点。

    本文从发挥不同冲突度量参数特长,克服其缺陷与不足的角度出发构建改进的融合冲突度量函数,避免了一般单参数冲突度量函数随证据之间冲突程度的增大对应冲突度量值偏低的不足。与冲突系数k相比,基于新改进Jousselme证据距离函数和冲突系数k共同计算证据及焦元权系数的改进冲突度量算法避免了其对概率赋值较分散的相同或相似证据的冲突度量结果偏高的不足。由仿真实验结果可以看出,与对冲突证据的各种预处理算法相比,本文所提基于改进冲突度量算法的直接融合算法具有较好的稳定性和较强的抗干扰性;与原有直接融合算法相比,新算法不论在非干扰场合还是在严重干扰场合下,其正确目标识别概率均得到较大幅度的提升。如何进一步提高新改进冲突度量算法的证据冲突度量精度,并相应提高多证据直接融合算法的计算效率仍需进行更深入的探讨与研究。

  • 图  1  基于局部和非局部信息的FRIQA模型两步框架

    图  2  参考图像中以i为中心、t为边长的方邻域

    图  3  6种算法在TID2008数据库中的散点图

    表  1  10种不同IQA算法在TID2008, CSIQ, LIVE数据库的实验结果比较

    数据库性能指标PSNRVSNRSSIMMS-SSIMIW-SSIMFSIMESSIMGMSDGSIMNGSIM
    TID2008 SROCC 0.524 0.704 0.774 0.852 0.855 0.880 0.884 0.891 0.855 0.892
    KROCC 0.369 0.534 0.576 0.654 0.663 0.694 0.704 0.708 0.665 0.713
    PLCC 0.530 0.682 0.773 0.842 0.857 0.873 0.885 0.879 0.846 0.886
    RMSE 1.137 0.981 0.851 0.729 0.689 0.652 0.624 0.640 0.715 0.622
    CSIQ SROCC 0.805 0.810 0.875 0.913 0.921 0.924 0.932 0.957 0.912 0.962
    KROCC 0.608 0.624 0.690 0.739 0.752 0.756 0.768 0.813 0.740 0.825
    PLCC 0.800 0.800 0.861 0.899 0.914 0.912 0.922 0.954 0.897 0.961
    RMSE 0.157 0.157 0.133 0.114 0.106 0.100 0.101 0.079 0.115 0.073
    LIVE SROCC 0.875 0.927 0.947 0.944 0.956 0.963 0.962 0.960 0.955 0.950
    KROCC 0.686 0.761 0.796 0.792 0.817 0.833 0.839 0.823 0.813 0.815
    PLCC 0.872 0.923 0.944 0.943 0.952 0.959 0.953 0.960 0.943 0.946
    RMSE 13.36 10.50 8.944 9.095 8.347 7.678 7.003 7.62 9.037 7.455
    下载: 导出CSV

    表  2  10种不同IQA算法在TID2008,CSIQ, LIVE数据库单一失真性能(SROCC)的比较

    数据库失真类型PSNRVSNRSSIMMS-SSIMIW-SSIMFSIMESSIMGMSDGSIMNGSIM
    TID2008 AWN 0.907 0.772 0.811 0.809 0.786 0.857 0.885 0.918 0.857 0.902
    ANMC 0.899 0.779 0.803 0.805 0.792 0.851 0.813 0.898 0.809 0.873
    SCN 0.917 0.766 0.815 0.819 0.771 0.848 0.913 0.913 0.890 0.929
    JPEG 0.872 0.917 0.925 0.934 0.918 0.928 0.943 0.952 0.939 0.956
    JP2K 0.813 0.951 0.962 0.973 0.973 0.977 0.975 0.980 0.975 0.958
    J2TE 0.831 0.790 0.858 0.852 0.820 0.854 0.879 0.883 0.892 0.926
    CSIQ AWGN 0.936 0.924 0.897 0.947 0.938 0.926 0.949 0.968 0.944 0.966
    JPEG 0.888 0.903 0.954 0.963 0.966 0.965 0.964 0.965 0.963 0.966
    JP2K 0.936 0.948 0.960 0.968 0.968 0.968 0.967 0.972 0.964 0.974
    FNIOSE 0.933 0.908 0.892 0.933 0.905 0.923 0.943 0.950 0.938 0.962
    BLUR 0.929 0.944 0.960 0.971 0.978 0.972 0.962 0.971 0.958 0.967
    CONTRST 0.862 0.870 0.792 0.952 0.953 0.942 0.939 0.904 0.950 0.946
    LIVE JPEG2 0.895 0.955 0.961 0.962 0.964 0.971 0.980 0.971 0.958 0.972
    JPEG 0.880 0.965 0.976 0.981 0.980 0.983 0.981 0.978 0.909 0.960
    AWGN 0.985 0.978 0.969 0.973 0.966 0.965 0.976 0.974 0.977 0.993
    BLUR 0.782 0.941 0.951 0.954 0.972 0.970 0.991 0.957 0.951 0.939
    FASTFA 0.890 0.902 0.955 0.947 0.944 0.949 0.947 0.942 0.939 0.956
    下载: 导出CSV
  • BAE S H and KIM M. A novel image quality assessment with globally and locally consilient visual quality perception[J]. IEEE Transactions on Image Processing, 2016, 25(5): 2392–2406. doi: 10.1109/TIP.2016.2545863
    WANG Hanli, FU Jie, LIN Weisi, et al. Image quality assessment based on local linear information and distortion-specific compensation[J]. IEEE Transactions on Image Processing, 2017, 26(2): 915–926. doi: 10.1109/TIP.2016.2639451
    DI E C and JACOVITTI G. A detail based method for linear full reference image quality prediction[J]. IEEE Transactions on Image Processing, 2017, 27(1): 179–192. doi: 10.1109/TIP.2017.2757139
    CHANDLER D M and HEMAMI S S. VSNR: A wavelet-based visual signal-to-noise ratio for natural images[J]. IEEE Transactions on Image Processing, 2007, 16(9): 2284–2298. doi: 10.1109/TIP.2007.901820
    褚江, 陈强, 杨曦晨. 全参考图像质量评价综述[J]. 计算机应用研究, 2014, 31(1): 13–22. doi: 10.3969/j.issn.1001-3695.2014.01.003

    CHU Jiang, CHEN Qiang, and YANG Xichen. Review on full reference image quality assessment algorithms[J]. Application Research of Computers, 2014, 31(1): 13–22. doi: 10.3969/j.issn.1001-3695.2014.01.003
    WANG Zhou and BOVIK A C. Mean squared error: love it or leave it? A new look at signal fidelity measures[J]. IEEE Signal Processing Magazine, 2009, 26(1): 98–117. doi: 10.1109/MSP.2008.930649
    HUYNH-THU Q and GHANBARI M. Scope of validity of PSNR in image/video quality assessment[J]. Electronics Letters, 2008, 44(13): 800–801. doi: 10.1049/el:20080522
    WANG Zhou, BOVIK A C, SHEIKH H R, et al. Image quality assessment: from error visibility to structural similarity[J]. IEEE Transactions on Image Processing, 2004, 13(4): 600–612. doi: 10.1109/TIP.2003.819861
    WANG Zhou, SIMONCELLI E P, and BOVIK A C. Multiscale structural similarity for image quality assessment[C]. Proceedings of 37th IEEE Asilomar Conference on Signals, Systems and Computers, Pacific Grove, USA, 2003: 1398–1402.
    LI Chaofeng and BOVIK A C. Three-component weighted structural similarity index[C]. SPIE Conference on Image Quality and System Performance, San Jose, USA, 2009, 7242: 72420Q–72420Q-9.
    WANG Zhou and LI Qiang. Information content weighting for perceptual image quality assessment[J]. IEEE Transactions on Image Processing, 2011, 20(5): 1185–1198. doi: 10.1109/TIP.2010.2092435
    ZHANG Lin, ZHANG Lei, MOU Xuanqin, et al. FSIM: A feature similarity index for image quality assessment[J]. IEEE Transactions on Image Processing, 2011, 20(8): 2378–2386. doi: 10.1109/TIP.2011.2109730
    LIU Anmin, LIN Weisi, and NARWARIA M. Image quality assessment based on gradient similarity[J]. IEEE Transactions on Image Processing, 2012, 21(4): 1500–1512. doi: 10.1109/TIP.2011.2175935
    XUE Wufeng, ZHANG Lei, MOU Xuanqin, et al. Gradient magnitude similarity deviation: A highly efficient perceptual image quality index[J]. IEEE Transactions on Image Processing, 2014, 23(2): 684–695. doi: 10.1109/TIP.2013.2293423
    ZHANG Xuande, FENG Xiangchu, WANG Weiwei, et al. Edge strength similarity for image quality assessment[J]. IEEE Signal Processing Letters, 2013, 20(4): 319–322. doi: 10.1109/LSP.2013.2244081
    WANG Tonghan, JIA Huizhen, and SHU Huazhong. Full-reference image quality assessment algorithm based on gradient magnitude and histogram of oriented gradient[J]. Journal of Southeast University, 2018, 48(2): 276–281. doi: 10.3969/j.issn.1001-0505.2018.02.014
    NI Zhangkai, MA Lin, ZENG Huanqiang, et al. Gradient direction for screen content image quality assessment[J]. IEEE Signal Processing Letters, 2016, 23(10): 1394–1398. doi: 10.1109/LSP.2016.2599294
    DING Li, HUANG Hua, and ZANG Yu. Image quality assessment using directional anisotropy structure measurement[J]. IEEE Transactions on Image Processing, 2017, 26(4): 1799–1809. doi: 10.1109/TIP.2017.2665972
    张帆, 张偌雅, 李珍珍. 基于对称相位一致性的图像质量评价方法[J]. 激光与光电子学进展, 2017, 54(10): 194–202. doi: 10.3788/LOP54.101003

    ZHANG Fan, ZHANG Ruoya, and LI Zhenzhen. Image quality assessment based on symmetry phase congruency[J]. Laser &Optoelectronics Progress, 2017, 54(10): 194–202. doi: 10.3788/LOP54.101003
    PONOMARENKO N, LUKIN V, ZELENSKY A, et al. TID2008: A database for evaluation of full-reference visual quality assessment metrics[OL]. http://www.ponomarenko.info/papers/mre2009tid.pdf. 2016.10.
    LARSON EC and CHANDLER D. Categorical subjective image quality (CSIQ) database[OL]. http://vision.okstate.edu/csiq, 2016.10.
    SHEIKH H R, WANG Zhou, BOVIK A C, et al. Image and video quality assessment research at LIVE[OL]. http://live.ece.utexas.edu/rese-arch/quality/. 2016.10.
  • 加载中
图(3) / 表(2)
计量
  • 文章访问数:  2138
  • HTML全文浏览量:  982
  • PDF下载量:  111
  • 被引次数: 0
出版历程
  • 收稿日期:  2018-06-19
  • 修回日期:  2018-12-18
  • 网络出版日期:  2018-12-26
  • 刊出日期:  2019-05-01

目录

/

返回文章
返回