高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于多路混合注意力机制的水下图像增强网络

李云 孙山林 黄晴 井佩光

李云, 孙山林, 黄晴, 井佩光. 基于多路混合注意力机制的水下图像增强网络[J]. 电子与信息学报, 2024, 46(1): 118-128. doi: 10.11999/JEIT230495
引用本文: 李云, 孙山林, 黄晴, 井佩光. 基于多路混合注意力机制的水下图像增强网络[J]. 电子与信息学报, 2024, 46(1): 118-128. doi: 10.11999/JEIT230495
Li Yu-qing, Shui Peng-lang, Lin Ying. A New Method to Suppress Cross-Terms of WVD via Thresholding Superimposition of Multiple Spectrograms[J]. Journal of Electronics & Information Technology, 2006, 28(8): 1435-1438.
Citation: LI Yun, SUN Shanlin, HUANG Qing, JING Peiguang. Underwater Image Enhancement Network Based on Multi-channel Hybrid Attention Mechanism[J]. Journal of Electronics & Information Technology, 2024, 46(1): 118-128. doi: 10.11999/JEIT230495

基于多路混合注意力机制的水下图像增强网络

doi: 10.11999/JEIT230495
基金项目: 国家自然科学基金(61861014),博士启动基金(BS2021025)
详细信息
    作者简介:

    李云:女,教授,博士,研究方向为水下无线传感器网络、大数据分析和智能算法

    孙山林:男,教授,博士,研究方向为图像处理和智能算法

    黄晴:男,硕士生,研究方向为图像处理、人工智能

    井佩光:男,副教授,博士,研究方向为多媒体信息处理、图像处理、人工智能

    通讯作者:

    井佩光 pgjing@tju.edu.cn

  • 中图分类号: TN911.73

Underwater Image Enhancement Network Based on Multi-channel Hybrid Attention Mechanism

Funds: The National Natural Science Foundation of China(61861014), Ph. D. Startup Fund(BS2021025)
  • 摘要: 光线在水下被吸收或者散射使得水下图像成像出现色偏、模糊遮挡等问题,影响水下视觉任务。传统的图像增强方法分别采用直方图均衡、伽马矫正和白平衡方法较好地增强水下图像。然而,3种方法融合增强水下图像的互补性和相关性方面的研究较少。因此,该文提出一种基于多路混合注意力机制的水下图像增强网络。首先,提出多路特征提取模块,对图像进行直方图均衡支路、伽马矫正支路和白平衡支路的多路特征提取,提取图像的对比度、亮度和颜色特征;然后,融合直方图均衡、伽马矫正和白平衡3支路特征,增强3支路特征融合的互补性;最后,设计混合注意力学习模块,深度挖掘3支路在对比度、亮度和颜色的相关性矩阵,并引入跳跃连接增强图像输出。在多个数据集上的实验结果表明,该方法能够有效恢复水下图像色偏、模糊遮挡和提高图像明亮度。
  • 粒子滤波是通过对后验滤波密度的量测更新给出离散状态的贝叶斯近似解。不但适用于非高斯非线性离散系统的状态估计,而且序列重要性重采样是获取样本的主要方法,通过样本与对应似然权值的加权和得到滤波状态[1]。由于粒子滤波方法结构简单局限性小,因此已被广泛应用到各种实际问题中。

    粒子滤波要求系统的模型参数或者量测噪声统计信息保持不变,但在实际应用中可能噪声参数未知且随环境的变化而变化,这时再使用传统粒子滤波算法会使滤波性能下降甚至滤波失效。因此在滤波的同时需要对噪声统计特性或模型结构参数进行更新。针对这个问题,Storvik[2]给出未知静态参数下的状态和参数同时估计的粒子滤波算法,通过给定模型和未知噪声参数的充分统计量,利用已知的参数递推方法更新参数,得到实时状态估计。文献[3,4]又考虑了统计特性恒定和时变的高斯噪声,用共轭先验设定Gauss分层参数的分布,并进行递推更新。变分贝叶斯(Variational Bayes, VB)方法是一种从结构上近似推断的贝叶斯方法,在假定参数和隐变量独立情况下,能将联合参数估计问题分解为近似的单变量估计问题,依据后验密度和真实密度在KL (Kullback–Leibler)距离最大化准则下表示近似程度[5]。Piche等人[6]首次提出用VB结合学生t量测分布模型进行状态估计,从而解决观测过程中出现厚尾非高斯量测,文献[7,8]用学生t分布分别来建模量测模型和过程模型,结合VB方法得到新颖的鲁棒卡尔曼滤波。文献[9]将VB方法与粒子滤波结合用来实现对具有学生t分布的厚尾量测模型进行非线性状态估计,同文献[3,4]一样采用边缘化的方法对状态与参数分别估计,不同之处在于将学生t分布的自由度参数设为待估计参数,同尺度参数与隐变量一道,通过伽马共轭先验分布和VB方法得到参数后验分布表达式。仿真表明,由于自由度可以调节,使学生t分布厚尾形状可变,所以在相同噪声情况下估计性能优于文献[3,4]中所提的方法。粒子滤波与变分贝叶斯方法相结合在文献[10]中也给出一种形式,但它是利用变分贝叶斯在分割的空间内采样粒子,以使粒子滤波适用于高维状态空间的估计,这种形式不同于本文用VB估计参数的研究领域。

    从学生t构成形式可以发现,决定学生t分布对称轴位置的均值变量与尺度参数、自由度参数具有同等重要地位。而且在实际应用中,如导航[11]和测距[4]中,由于传感器偏移使噪声均值非0且随系统运行发生变化,所以对均值变量的估计也十分必要。文献[11,12]通过极大后验和VB方法对线性状态模型的量测噪声均值进行了估计。但对于非线性状态空间模型,使用VB方法对噪声均值的估计还没有涉及。从贝叶斯推断的角度,均值作为变量与尺度参数相关联,因此通过VB推导的均值后验分布表达式不同于以往没有均值参与的,如文献[9]所给形式。在得到量测噪声参数后,对量测噪声时变的噪声同时关联的粒子滤波问题进行探究。尽管文献[13,14]涉及了粒子滤波的噪声关联问题,但是它们不能解决量测噪声时变或有野值的情况。

    基于以上讨论,本文用学生t分布对非高斯量测噪声进行建模,同时考虑均值参数的影响,将均值与尺度矩阵联合共轭先验为高斯-伽马分布,利用变分贝叶斯方法结合粒子滤波对时变量测噪声下非线性状态进行估计得到MPF-VBM算法,然后通过获得参数估计研究过程噪声依赖时变量测噪声的粒子滤波算法MPF-VBM-COR。文章的其余部分组织如下,问题公式化在第2节给出,在学生t量测分布下的参数和状态估计算法及噪声关联算法在第3节给出,仿真演示的例子在第4节给出,第5节给出结论。

    首先考虑如式(1)、式(2)所示的非线性状态空间模型

    xk=f(xk1)+wk1
    (1)
    zk=h(xk)+vk
    (2)

    其中,xkRn状态向量,量测zkRm, f()h()都是已知非线性函数,过程噪声wkRn假定服从0均值高斯分布,具有方差E[wkwTk]=Qk,厚尾观测噪声vk服从对称学生t分布,分布表达式为

    S(x|μ,Λ,ν)=Γ((ν+m)/2)Γ(ν/2)|Λ|1/2(πν)m/2[1+1ν(xμ)TΛ(xμ)](ν+m)/2
    (3)

    其中,S()表示学生t分布,Γ()表示伽马函数,μ,Λν分别表示均值,尺度矩阵和自由度参数。应该指出的是学生t分布是一种厚尾的高斯分布,当ν时就成为具有相同μ的对应高斯分布。从式(3)可见,即使对于同一个数据点x,均值的不同也会使密度值不同。所以准确知道均值变量十分重要。为进行利用VB的参数估计,不失一般性,假定vk的尺度矩阵Λk为对角矩阵,即Λk=diag(Λk,1,Λk,2,···,Λk,m)。对于式(1)、式 (2)所给状态空间模型,依据学生t的量测噪声分布特点,时刻k的量测似然可表示为具有隐变量uk的如式(4)、式(5)的高斯分层形式

    p(zk|x(i)k,μk,uk,Λk)=N(zk|h(x(i)k)+μk,(ukΛk)1)
    (4)
    p(uk|νk)=G(uk|νk/2,νk/2)
    (5)

    其中,uk是引入的隐变量,G(|α,β)表示服从参数为α,β的伽马分布。由文献[15]所示,均值和尺度矩阵的联合共轭先验服从高斯-伽马分布,并且可分解为各自单独分布的乘积

    p(μk,Λk)=p(μk|Λk)p(Λk)=mj=1[N(μk,j|ηk|k1,j,(βk|k1Λk,j)1)G(Λk,j|ck|k1,j,dk|k1,j)]
    (6)

    其中,ηk|k1,j(βk|k1Λk,j)1分别为μk,j的均值和方差,βk|k1为精度系数。

    自由度νk的共轭先验服从伽马分布

    p(νk)=G(νk|ak|k1,bk|k1)
    (7)

    为了更清晰地说明各变量之间的关系,用图1所示的有向图对k时刻状态,量测和超参数的贝叶斯分层模型进行表示:

    图 1  贝叶斯推断图模型

    图1中可见,相比于在文献[9],两个额外的超参数βkηk被加入进来,并且μk,Λk之间具有关联性,相比于文献[6],自由度变量具有超参数ak,bk

    本节主要应用VB对式(1)—式(7)的中参数的变分后验进行推导。VB方法的原理及公式详见文献[7,15]。

    首先,状态、量测和参数的联合分布可分解为

    p(x(i)k,μk,uk,Λk,νk|z1:k)p(x(i)k,|z1:k1)p(zk|x(i)k,μk,uk,Λk)p(μk|Λk)p(Λk)p(uk|νk)p(νk)
    (8)

    其中,x(i)k表示k时刻第i个粒子,令Θk={μk,Λk,νk}表示参数集,利用边缘化思想可分别进行状态与参数的估计,在时刻k,状态参数联合后验分布为

    p(xk,Θk|z1:k)=p(Θk|xk,z1:k)p(xk|z1:k)=Ni=1ω(i)kp(Θ(i)k|k|x(i)k,z1:k)δ(xkx(i)k)
    (9)

    而且

    ω(i)k=ω(i)k1p(zk|x(i)k,Θ(i)k|k1)
    (10)

    其中,δ()表示Dirac-Delta函数。ω(i)k是对应第i个粒子的重要性权值,式(10)中的似然p(zk|x(i)k,Θ(i)k|k1)服从学生t分布,可见它不但依赖粒子样本值,而且依赖于k1时刻参数一步预测的样本值。下面给出在量测更新后,Θ(i)k依据VB的具体更新过程。

    首先,对于均值变量μk和尺度矩阵Λk,通过基本贝叶斯公式p(x|y)=p(x,y)/p(y), (μk,Λk)联合变分后验的对数函数表示为

    lnq(μk,Λk)=Eukνk[lnp(zk|x(i)k,μk,uk,Λk)+lnp(μk|Λk)+lnp(Λk)]+Cμ,Λ=12mj=1lnΛk,j12βk|k1mj=1Λk,j(μkηk|k1)2j+m2E[lnuk]12E[uk]mj=1Λk,j(zkh(x(i)k)μk)2j+mj=1[(ck|k1,j1)lnΛk,jdk|k1,jΛk,j]+Cμ,Λ
    (11)

    其中,Ex[]表示括号中的概率分布对变量x求期望,Cμ,Λ是独立于μΛ的常数项,()j表示括号中向量的第j个分量。μk边缘后验对数函数为

    lnq(μk|Λk)=Euk,νk[lnp(zk|x(i)k,μk,uk,Λk)+lnp(μk|Λk)]+C=12E[uk]mj=1Λk,j(zkh(x(i)k)μk)2j12βk|k1mj=1Λk,j(μkηk|k1)2j+Cμ
    (12)

    由于式(12)是μk的2次式,所以变分后验q(μk|Λk)服从正态分布N(μk|ηk|k,(βk|kΛk|k)1),其中参数的递推公式为

    βk|k=βk|k1+E[uk]
    (13)
    ηk|k=ηk|k1+E[uk](βk|k)1(zkh(x(i)k)ηk|k1)
    (14)

    Λk的变分后验分布对数式由式(11)减式(12)得到

    lnq(Λk)=12(zkh(x(i)k)μk)TE[uk]Λk(zkh(x(i)k)μk)12(μkηk|k1)Tβk|k1Λk(μkηk|k1)+mj=1[(ck|k1,j1)lnΛk,jdk|k1,jΛk,j]+12(μkηk|k)T(βk|kΛk)(μkηk|k)+C
    (15)

    将式(13),式(14)代入式(15),通过表达式化简和共轭先验的概念,得到Λk,j变分后验服从伽马分布q(Λk,j)=G(Λk,j|ck|k,j,dk|k,j),其中参数

    ck|k,j=ck|k1,j+12
    (16)
    dk|k,j=dk|k1,j+12E[uk][1E[uk](βk|k)1][(zkh(x(i)k)ηk|k1)(zkh(x(i)k)ηk|k1)T]jj
    (17)

    其中,[A]jj表示矩阵A主对角线第jj个元素。

    隐变量uk变分后验q(uk)的对数函数表示为

    lnq(uk)=Eμk,Λk,νk[lnp(zk|x(i)k,μk,uk,Λk)+lnp(uk|νk)]+Cu=E[νk]12lnukE[νk]2uk+m2lnuk+12ln|Λk|12EμkΛk[(zkh(x(i)k)μk)T(ukΛk)(zkh(x(i)k)μk)]+Cu
    (18)

    对式(18)指数化运算,q(uk)服从伽马分布q(uk)=G(uk|ν1k,ν2k),其中

    ν1k=12(E[νk]+m)ν2k=12(E[νk]+EμkΛk[(zkh(x(i)k)μk)TΛk(zkh(x(i)k)μk)])=12[E[νk]+(zkh(x(i)k)ηk|k)TE[Λk](zkh(x(i)k)ηk|k)+mβ1k|k]
    (19)

    这里,在EμkΛk[(zkh(x(i)k)μk)TΛk(zkh(x(i)k)μk)]推导中,使用了μk的如式(20)的2阶矩

    EμkΛk[μkμTk]E[μk]E[μk]T=(βk|kE[Λk])1
    (20)

    自由度νk的近似后验为

    lnq(νk)=νk2lnνk2lnΓ(νk2)+(νk21)E[lnuk]νk2E[uk]+(ak|k11)lnνkbk|k1νk+Cv
    (21)

    使用Stirling的近似lnΓ(νk2)νk12lnνk2νk2, q(νk)为伽马分布q(νk)=G(νk|ak|k,bk|k),其中

    ak|k=ak|k1+12
    (22)
    bk|k=bk|k1+12E[uk]12E[lnuk]12
    (23)

    在以上每一个参数推导过程中,都需要对其余参数进行期望操作,根据分布期望公式,参数期望如式(24)给出

    E[uk]=ν1k/ν2k,E[lnuk]=Ψ(ν1k)lnν2kE[Λk,t]=ck|k,t/dk|k,t,E[νk]=ak|k/bk|k,E[μk]=ηk|k}
    (24)

    其中,Ψ()为di-gamma函数。

    尽管以上参数更新相互耦合,但这一问题解决可通过对任一参数初始化实现,然后依次迭代更新。同时可见,如果均值变量为0,涉及均值的超参数ηkβk的递推式(13)、式(14)以及在式(17)和式(19)含有的ηkβk都消失了,算法退化为文献[9]所提算法。因此所提算法可视为文献[9]算法的丰富和扩展。

    噪声可能为时变的情形,因此引入遗忘因子ρ(0,1)标识噪声波动程度,噪声参数时间更新模型为

    ηk|k1=ρηk1|k1, βk|k1=ρβk1|k1,ak|k1=ρak1|k1,  bk|k1=ρbk1|k1,ck|k1,t=ρck1|k1,t,dk|k1,t=ρdk1|k1,t}
    (25)

    表1给出所提算法1的流程。

    表 1  基于VB带有噪声均值估计的边缘粒子滤波(MPF-VBM)算法
     从分布N(x0|m0|0,P0|0)采样粒子x(i)0i=1,2,···,N,并且设置权值ω(i)0=1/N;初始化超参数a(i)0,b(i)0,c(i)0,d(i)0,ν(i)0,η(i)0β(i)0;计算初
    始参数μ0, Λ0ν0期望。对时刻k=1,2,···,K
     对每一个粒子i=1,2,···,N
     (1) 使用式(25)做噪声参数的时间更新;
     (2) 从状态传递方程p(x(i)k|x(i)k1)做粒子的一步预测;
     (3) 通过新量测zk用式(15)更新重要性权值;
     (4) 必要的话,粒子重采样;
     (5) 使用式(13),式(14),式(16),式(17),式(18),式(19),式(22),式(23),并利用重采样粒子做噪声参数后验更新,
    Θ(i)k|k=T(Θ(i)k|k1,x(i)k,zk);其中T()代表参数充分统计量;
     得出当前的噪声参数期望值及对应状态值;
     在k==K前,进行下一次循环。
    下载: 导出CSV 
    | 显示表格

    依据表1,接着考虑过程噪声依赖时变量测噪声的粒子滤波算法。将学生t量测似然式(4)改写成高斯分层形式

    p(zk|x(i)k,Rk,uk)=N(zk|h(x(i)k)+μk,Rkuk)
    (26)
    p(uk|νk)=G(uk|νk/2,νk/2)
    (27)

    其中,正态分布的方差表达式为Rk/uk, Rk表示式(4)中(Λk)1。假定过程噪声依赖量测噪声的关联矩阵为Sk,即

    E[wkvTk]=Sk
    (28)

    同时假定wk, vk各自单独序列仍然是相互独立的。下面利用解关联框架进行噪声解关联操作,根据式(2), zkh(xk)vk=0,那么状态传递方程式(1)修改为

    xk+1=f(xk)+wk+Jk(zkh(xk)vk)=f(xk)+Jkzk+ wk
    (29)

    这里,f(xk)=f(xk)Jkh(xk), wk=wkJkvk, Jk是要确定的辅助参数。wk可被看成新的过程噪声,由于是高斯分布的线性组合,所以仍然服从高斯分布,且它与量测噪声vk的协方差为

    E[wkvTk]=E[wkvk]JkE[vkvTk]=SkJk(E[Rk]/E[uk])
    (30)

    令协方差E[wkvTk]=0,得到辅助矩阵Jk

    Jk=Sk(E[uk](E[Rk])1)
    (31)

    式(29),式(2)连同式(31)一起给出噪声同时关联的等价状态空间模型。通过式(31),等价传递模型的高斯过程噪声wk的均值与方差为

    E[wk]=εk=E[wk]JkE[vk]=Sk(E[uk](E[Rk])1)μk
    (32)
    var[wk]=Qk=Qk+Jk(E[Rk]/E[uk])JTkSkJTkJkSTk=QkSk(E[uk](E[Rk])1)STk
    (33)

    因此,由式(1),式(2)组成具有噪声关联的系统转化为由式(29),式(2)组成不含噪声关联的等价系统滤波问题。算法流程与表1算法相同,就是在第(2)步中增加对wk噪声参数的计算式(32)和式(33),状态转移模型由pwk(x(i)k|x(i)k1)替换为pwk(x(i)k|x(i)k1,zk1),这样得到时变量测噪声下噪声同时关联的粒子滤波算法,记作MPF-VB-COR-1(Marginalized Particle Filter with VB for Correlation-1)。

    这里考虑在文献[4,9]广泛使用的如下非线性模型来验证上面所提两种算法的性能

    xk=0.5xk1+25xk11+x2k1+8cos(1.2(k1))+wk1zk=0.05x2k+vk}
    (34)

    算法1 初始状态x0N(0,5),过程噪声分布p(wk)=N(wk|0,5),量测噪声vk服从学生t分布,初始超参数为:a0=b0=0.12, c0=2, d0=5, η0=1β0=2,遗忘因子选取根据文献[9]的遗忘因子与超参数收敛时间的比较说明,设为ρ=1exp(4)。仿真时间长度设为1000。根据文献[9]的粒子数与状态均方根误差平均值(ARMSE)的关系,考虑程序运行的时间因素,粒子数设为100。Monte Carlo仿真运行30次,所提的MPF-VBM算法与另外两种算法MPF-VBS (Student)[9]和MPF-CP (Conjugate Prior)[3]在相同仿真状况下进行均方根误差(RMSE)[8]及(ARMSE)[9]比较。仿真设置3种不同情况噪声,噪声及对应的状态ARMSE及时间如表2所示。

    表 2  对应3种噪声的3种算法的均方根误差平均值(ARMSE)
    量测噪声MPF-VBMMPF-VBSMPF-CP
    N(0,1)+20%U(–20, 20)野值5.56735.54688.5571
    N(6, 1)无野值4.61708.11418.8132
    N(6,5)+20%U(20, 60)野值6.33538.62888.7588
    运行时间(s)0.010670.0071870.005587
    下载: 导出CSV 
    | 显示表格

    U()表示均匀分布,野值以随机形式进入噪声分布。第1种标准高斯噪声加入20%服从均匀分布野值,噪声均值为0;第2种高斯噪声无野值加入,均值为6;第3种高斯噪声均值为6有20% U(20, 60)的野值加入。MPF-VBM与MPF-CP量测噪声均值估计比较图如图2所示。

    图 2  算法噪声均值估计比较图

    图2可见,本文MPF-VBM算法对3种噪声情况的均值都具有稳健而准确的估计能力,相比较而言,MPF-CP的均值估计易受到野值干扰,跟踪真值时的震荡性较强。但从图2(b)估计图所示,在没有野值干扰时,MPF-CP均值估计具有收敛速度快优点。

    图3图5给出了3种算法对应3种噪声的RMSE的比较图,为了清晰起见,这里只列出了300~330 s时间范围内的RMSE的比较曲线。从图3图5可见,所提MPF-VBM算法对3种噪声都始终处于估计性能最优越的算法行列。3种算法对应3种噪声ARMSE如表2所示,结果验证了RMSE图的显示。在运行时间上,MPF-VBM近似为MPF-VBS时间的1.5倍,为MPF-CP时间的2倍。量级为ms级。

    图 3  3种算法对应第1种噪声RMSE比较图
    图 5  3种算法对应第3种噪声RMSE比较图
    图 4  3种算法对应第2种噪声RMSE比较图

    算法2 所提噪声关联的MPF-VB-COR与算法MPF-VBM及文献[13]中的算法PF-COR在相同噪声关联情况下进行性能比较。Monte Carlo仿真次数为30次。过程噪声与量测噪声超参数设置与算法1相同。设过程噪声wk量测噪声vk有关系式wk=Tkvk,其中Tk为常矩阵,此处设为[Tk]=0.8,得到关联矩阵Sk=E[wkvTk]=TkE[vkvTk]=TkE[Rk]/E[uk]。为了更清晰表示算法性能,图6图8给出单次Monte Carlo状态的ARMSE的曲线比较图,表3给出设置的量测噪声及30次Monte Carlo的ARMSE。其中,第2种噪声方差R如下变化,当t[1s:300s], R=8;当t[301s:700s], R=20;当t[701s:1000s], R=2

    图 6  3种算法对第1种关联噪声的ARMSE比较图
    图 8  3种算法对第3种关联噪声的状态ARMSE比较图
    表 3  对应3种噪声的3种算法的均方根误差平均值(ARMSE)
    量测噪声MPF-VBMMPF-VB-CORPF-COR
    N(0,5/2)3.86623.40253.1384
    N(0,R) R时变5.51784.55365.0392
    N(0,5/2)+20%
    Unif (–5, 5)野值
    8.58928.757411.0393
    下载: 导出CSV 
    | 显示表格
    图 7  3种算法对第2种关联噪声的状态ARMSE比较图

    图6图8表3可见,当第1种量测噪声是参数确定的高斯噪声时,PF-COR的估计性能最好,本文的MPF-VB-COR-1与PF-COR估计性能相近,两者都好于没有考虑关联性的MPF-VBM,从ARMSE曲线看,含有变分估计方法的估计一致性更好;第2种量测噪声是方差时变的高斯噪声,MPF-VB-COR的估计性能好于PF-COR,两者的性能都优于MPF-VBM,仍然说明考虑了噪声关联情况粒子滤波算法此时更好。在第3种具有野值的高斯噪声,MPF-VB-COR与MPF-VBM的性能基本相同,好于PF-COR,说明此时具有抑制野值干扰的滤波算法具有更好性能,而所提MPF-VB-COR也是具有这一能力的。

    本文讨论了具有学生t量测噪声的鲁棒粒子滤波算法。量测噪声被设计成服从学生t分布,利用变分贝叶斯方法对t分布的噪声包括均值在内的全部参数进行了估计。先给出了参数的共轭先验,然后推导出参数变分后验表达式。通过边缘化思想给出估计参数值对应的状态值。将此算法与已有学生t量测噪声的粒子滤波方法比较,对于给出的噪声情况,所提粒子滤波展现出其有效性和优越的性能。接着基于所提鲁棒粒子滤波框架,探究了量测噪声时变的噪声关联的粒子滤波,仿真表明当量测噪声时变或有野值存在时,所提噪声关联的粒子滤波算法优于已有噪声关联粒子滤波算法。所提算法运行时间一般为102 s的量级。

  • 图  1  网络结构图

    图  2  消融实验训练损失曲线图

    图  3  UIEB数据集上不同方法生成的水下图像视觉对比

    图  4  EUVP1数据集上不同方法生成的水下图像视觉对比

    图  5  EUVP2数据集上不同方法生成的水下图像视觉对比

    图  6  LSUI数据集上不同方法生成的水下图像视觉对比

    表  1  4种不同水下数据集的划分

    UIEBEUVP1EUVP2LSUI
    总图像890370021854279
    训练集790333019663879
    测试集100370219400
    下载: 导出CSV

    表  2  网络结构消融实验数值结果

    MSE(×103)PSNRSSIM
    A0.932919.55490.8759
    A+B4.654711.84240.6027
    A+C1.088618.61550.8698
    A+D11.60757.64270.1967
    A+B+C0.909619.77090.8864
    A+B+D0.769020.26610.8901
    A+C+D0.806220.36610.8925
    A+B+C+D0.767120.38850.8798
    A+B+C+D+E0.719320.76780.8958
    下载: 导出CSV

    表  3  UIEB数据集上不同方法的定量评价

    MSE(×103)PSNRSSIMUCIQE运行时间(s)
    原图1.516018.37820.77630.3934
    Fusion0.976428.12350.84280.483267.85
    GDCP3.617313.56130.73650.4560579.41
    Dehaze2.398115.79780.75440.462412.74
    HLRP4.669212.18800.23090.4673300.11
    BRUE2.663315.08870.65550.4257249.12
    Shallow-UWnet1.226318.47890.80410.356630.48
    WaterNet1.025818.77040.87770.416564.85
    UResnet1.434317.95620.76150.406534.74
    本文0.719320.76780.89580.407657.85
    下载: 导出CSV

    表  4  EUVP1数据集上不同方法的定量评价

    MSE(×103)PSNRSSIMUCIQE运行时间(s)
    原图1.516216.94080.72820.4244
    Fusion1.554316.54570.66060.471130.87
    GDCP4.353812.43840.59220.4735223.98
    Dehaze2.995014.06050.64220.45757.87
    HLRP4.195312.26900.12950.4607144.62
    BRUE1.973716.39210.65040.428185.99
    Shallow-UWnet0.394522.77180.80850.39385.28
    WaterNet0.413322.87060.83390.41286.90
    UResnet0.323723.78040.82960.43708.81
    本文0.365123.38990.83090.43787.49
    下载: 导出CSV

    表  5  EUVP2数据集上不同方法的定量评价

    MSE(×103)PSNRSSIMUCIQE运行时间(s)
    原图0.764419.84640.73610.4274
    Fusion1.528716.85240.66820.482219.44
    GDCP3.211213.70860.62270.4794149.14
    Dehaze2.075216.26890.67050.46465.25
    HLRP4.060412.30130.16690.471895.323
    BRUE2.033915.95200.66260.432458.81
    Shallow-UWnet0.323423.56120.77800.41284.71
    WaterNet0.464922.34870.79970.420710.00
    UResnet0.298224.08100.80340.431410.11
    本文0.373223.14600.80550.40635.40
    下载: 导出CSV

    表  6  LSUI数据集上不同方法的定量评价

    MSE(×103)PSNRSSIMUCIQE运行时间(s)
    原图1.068418.80530.79770.4194
    Fusion1.324217.66040.72770.482534.72
    GDCP3.545913.40690.67660.4796363.02
    Dehaze2.382815.46750.71920.46749.64
    HLRP3.894912.51320.19180.4915240.86
    BRUE1.755816.67390.70740.4301162.92
    Shallow-UWnet0.852719.66730.80460.37099.24
    WaterNet0.493122.13360.86280.437013.18
    UResnet0.583121.15760.81240.424313.13
    本文0.557621.55630.85520.400415.50
    下载: 导出CSV

    表  7  不同方法的运行时间和FPS

    FusionGDCPDehazeHLRPBRUEShallow-UWnetWaterNetUResnet本文
    时间(s)67.85579.4112.74300.11249.1230.4864.8534.7457.85
    Fps1.470.177.850.330.403.281.542.881.73
    下载: 导出CSV
  • [1] 侯冬, 任军委, 郭广坤, 等. 高精度水下激光频率传递研究进展[J]. 光电工程, 2023, 50(2): 220149. doi: 10.12086/oee.2023.220149

    HOU Dong, REN Junwei, GUO Guangkun, et al. Progress on high-precision laser-based underwater frequency transfer[J]. Opto-Electronic Engineering, 2023, 50(2): 220149. doi: 10.12086/oee.2023.220149
    [2] PIZER S M, AMBURN E P, AUSTIN J D, et al. Adaptive histogram equalization and its variations[J]. Computer Vision, Graphics, and Image Processing, 1987, 39(3): 355–368. doi: 10.1016/S0734-189X(87)80186-X
    [3] PIZER S M, JOHNSTON R E, ERICKSEN J P, et al. Contrast-limited adaptive histogram equalization: Speed and effectiveness[C]. The First Conference on Visualization in Biomedical Computing, Atlanta, USA, 1990: 337–345.
    [4] ANCUTI C, ANCUTI C O, HABER T, et al. Enhancing underwater images and videos by fusion[C]. 2012 IEEE Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 81–88.
    [5] RIZZI A, GATTA C, and MARINI D. Color correction between gray world and white patch[C]. The SPIE 4662, Human Vision and Electronic Imaging VII, San Jose, USA, 2002: 1–10.
    [6] SINGH G, JAGGI N, VASAMSETTI S, et al. Underwater image/video enhancement using wavelet based color correction (WBCC) method[C]. 2015 IEEE Underwater Technology, Chennai, India, 2015: 1–5.
    [7] MUNIRAJ M and DHANDAPANI V. Underwater image enhancement by combining color constancy and dehazing based on depth estimation[J]. Neurocomputing, 2021, 460: 211–230. doi: 10.1016/j.neucom.2021.07.003
    [8] BERMAN D, LEVY D, AVIDAN S, et al. Underwater single image color restoration using haze-lines and a new quantitative dataset[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 43(8): 2822–2837. doi: 10.1109/TPAMI.2020.2977624
    [9] WANG Yi, LIU Hui, and CHAU L P. Single underwater image restoration using adaptive attenuation-curve prior[J]. IEEE Transactions on Circuits and Systems I:Regular Papers, 2018, 65(3): 992–1002. doi: 10.1109/TCSI.2017.2751671
    [10] PENG Y T, CAO Keming, and COSMAN P C. Generalization of the dark channel prior for single image restoration[J]. IEEE Transactions on Image Processing, 2018, 27(6): 2856–2868. doi: 10.1109/TIP.2018.2813092
    [11] LI Chongyi, ANWAR S, HOU Junhui, et al. Underwater image enhancement via medium transmission-guided multi-color space embedding[J]. IEEE Transactions on Image Processing, 2021, 30: 4985–5000. doi: 10.1109/TIP.2021.3076367
    [12] 李钰, 杨道勇, 刘玲亚, 等. 利用生成对抗网络实现水下图像增强[J]. 上海交通大学学报, 2022, 56(2): 134–142. doi: 10.16183/j.cnki.jsjtu.2021.075

    LI Yu, YANG Daoyong, LIU Lingya, et al. Underwater image enhancement based on generative adversarial networks[J]. Journal of Shanghai Jiaotong University, 2022, 56(2): 134–142. doi: 10.16183/j.cnki.jsjtu.2021.075
    [13] MARQUES T P and ALBU A B. L2UWE: A framework for the efficient enhancement of low-light underwater images using local contrast and multi-scale fusion[C]. The 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, Seattle, USA, 2020: 2286–2295.
    [14] LI Chongyi, GUO Chunle, REN Wenqi, et al. An underwater image enhancement benchmark dataset and beyond[J]. IEEE Transactions on Image Processing, 2020, 29: 4376–4389. doi: 10.1109/TIP.2019.2955241
    [15] SUN Xin, LIU Lipeng, LI Qiong, et al. Deep pixel-to-pixel network for underwater image enhancement and restoration[J]. IET Image Processing, 2018, 13(3): 469–474. doi: 10.1049/iet-ipr.2018.5237
    [16] 方明, 刘小晗, 付飞蚺. 基于注意力的多尺度水下图像增强网络[J]. 电子与信息学报, 2021, 43(12): 3513–3521. doi: 10.11999/JEIT200836

    FANG Ming, LIU Xiaohan, and FU Feiran. Multi-scale underwater image enhancement network based on attention mechanism[J]. Journal of Electronics &Information Technology, 2021, 43(12): 3513–3521. doi: 10.11999/JEIT200836
    [17] 米泽田, 晋洁, 李圆圆, 等. 基于多尺度级联网络的水下图像增强方法[J]. 电子与信息学报, 2022, 44(10): 3353–3362. doi: 10.11999/JEIT220375

    MI Zetian, JIN Jie, LI Yuanyuan, et al. Underwater image enhancement method based on multi-scale cascade network[J]. Journal of Electronics &Information Technology, 2022, 44(10): 3353–3362. doi: 10.11999/JEIT220375
    [18] ZHUANG Peixian, WU Jiamin, PORIKLI F, et al. Underwater image enhancement with hyper-laplacian reflectance priors[J]. IEEE Transactions on Image Processing, 2022, 31: 5442–5455. doi: 10.1109/TIP.2022.3196546
    [19] ZHUANG Peixian, LI Chongyi, and WU Jiamin. Bayesian retinex underwater image enhancement[J]. Engineering Applications of Artificial Intelligence, 2021, 101: 104171. doi: 10.1016/j.engappai.2021.104171
    [20] SZEGEDY C, VANHOUCKE V, IOFFE S, et al. Rethinking the inception architecture for computer vision[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 2818–2826.
    [21] BAHDANAU D, CHO K, and BENGIO Y. Neural machine translation by jointly learning to align and translate[C]. The 3rd International Conference on Learning Representations, San Diego, USA, 2014.
    [22] WANG Zhou, BOVIK A C, SHEIKH H R, et al. Image quality assessment: From error visibility to structural similarity[J]. IEEE Transactions on Image Processing, 2004, 13(4): 600–612. doi: 10.1109/TIP.2003.819861
    [23] ISLAM M J, XIA Youya, and SATTAR J. Fast underwater image enhancement for improved visual perception[J]. IEEE Robotics and Automation Letters, 2020, 5(2): 3227–3234. doi: 10.1109/LRA.2020.2974710
    [24] PENG Lintao, ZHU Chunli, and BIAN Liheng. U-shape transformer for underwater image enhancement[J]. IEEE Transactions on Image Processing, 2023, 32: 3066–3079. doi: 10.1109/TIP.2023.3276332
    [25] YANG Miao and SOWMYA A. An underwater color image quality evaluation metric[J]. IEEE Transactions on Image Processing, 2015, 24(12): 6062–6071. doi: 10.1109/TIP.2015.2491020
    [26] HE Kaiming, SUN Jian, and TANG Xiaoou. Single image haze removal using dark channel prior[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(12): 2341–2353. doi: 10.1109/TPAMI.2010.168
    [27] LIU Peng, WANG Guoyu, QI Hao, et al. Underwater image enhancement with a deep residual framework[J]. IEEE Access, 2019, 7: 94614–94629. doi: 10.1109/ACCESS.2019.2928976
    [28] NAIK A, SWARNAKAR A, and MITTAL K. Shallow-UWnet: Compressed model for underwater image enhancement (student abstract)[C]. The 35th AAAI Conference on Artificial Intelligence, 2021: 15853–15854.
  • 加载中
图(6) / 表(7)
计量
  • 文章访问数:  748
  • HTML全文浏览量:  438
  • PDF下载量:  133
  • 被引次数: 0
出版历程
  • 收稿日期:  2023-05-26
  • 修回日期:  2023-06-28
  • 网络出版日期:  2023-07-03
  • 刊出日期:  2024-01-17

目录

/

返回文章
返回