高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于密度分类引导的双阶段雨天图像复原方法

梅天灿 曹敏 杨宏 高智 易国洪

梅天灿, 曹敏, 杨宏, 高智, 易国洪. 基于密度分类引导的双阶段雨天图像复原方法[J]. 电子与信息学报, 2023, 45(4): 1383-1390. doi: 10.11999/JEIT220157
引用本文: 梅天灿, 曹敏, 杨宏, 高智, 易国洪. 基于密度分类引导的双阶段雨天图像复原方法[J]. 电子与信息学报, 2023, 45(4): 1383-1390. doi: 10.11999/JEIT220157
Mao Yong-Fei, Xiang Mao-Sheng. Joint Calibration of Airborne Interferometric SAR Data Using Weighted Optimization Method[J]. Journal of Electronics & Information Technology, 2011, 33(12): 2819-2824. doi: 10.3724/SP.J.1146.2011.00431
Citation: MEI Tiancan, CAO Min, YANG Hong, GAO Zhi, YI Guohong. Two-stage Rain Image Removal Based on Density Guidance[J]. Journal of Electronics & Information Technology, 2023, 45(4): 1383-1390. doi: 10.11999/JEIT220157

基于密度分类引导的双阶段雨天图像复原方法

doi: 10.11999/JEIT220157
详细信息
    作者简介:

    梅天灿:男,副教授,研究方向为计算机视觉、模式识别、机器学习

    曹敏:女,硕士生,研究方向为恶劣天气图像复原

    杨宏:男,高级工程师,研究方向为航空遥感及数据应用技术

    高智:男,教授,研究方向为人工智能、计算机视觉、智能无人系统、遥感

    易国洪:男,副教授,研究方向为软件工程、模式识别

    通讯作者:

    梅天灿 mtc@whu.edu.cn

  • 中图分类号: TN911.73

Two-stage Rain Image Removal Based on Density Guidance

  • 摘要: 雨天作为最常见的恶劣天气,对图像造成的退化效应主要包括雨线对背景的遮挡、雨线累积形成的雨雾效应,从而导致很多为清晰成像条件设计的视觉系统运行效果大打折扣。为了实现雨线和雨雾同时去除、更鲁棒地处理各种真实雨天场景,该文提出了一种雨密度分类引导的双阶段雨天图像复原方法。该方法结合雨天物理模型先验与cGAN网络优化,综合考虑不同模式的雨线与雨雾,利用单独的雨密度分类网络为优化阶段提供引导信息,可以实现不同密度的雨线和雨雾图像复原。在公开合成数据集和真实雨天图像上进行了大量实验,定量和定性的结果均表明了所提方法在去雨有效性和泛化性上的优势。
  • 随着众多数字媒体设备的出现,同一张照片在不同显示设备上智能缩放,即图像缩放技术(image retargeting)已经得到了广泛的关注。图像缩放的主要目标是保证图像重要信息的同时改变图像的尺寸和分辨率,该方法已经在众多领域[1-4]得到了推广和应用。内容敏感缩放(context-aware method)作为非均匀缩放技术被广泛研究,其中包括Seam Carving[5]及其改进算法。

    根据实现原理,内容敏感缩放模型可以分为两大类:(1)连续缩放模型,将图像映射为3维空间内的概率分布,根据显著性等因素修改映射程度达到图像缩放的目的,如warping算法[6,7];(2)离散缩放模型,迭代寻找最小能量线(Seam),通过增加或删除Seam实现图像缩放,如改进的Seam Carving(SC)算法[8,9]。本文主要关注离散缩放模型采用基于SC的内容敏感缩放算法。为了保证图像的重要区域不丢失,Zhou等人[10]提出的WSM模型(Wall-Seam Model)结合显著性特征和图像边缘信息,采用双向缩放保持图像重要信息的同时达到最小缩放扭曲。立体显著性[11]结合显著信息、景深信息和梯度能量信息,可以更加准确地估算每一个像素的重要性。文献[12,13]通过计算显著能量在物体边界的加速度不仅能够保持重要区域的结构信息,还能够对非显著区域的结构信息进行保护。然而,在上述方法中,缩放扭曲现象始终普遍存在,尤其是在物体边缘区域,这将会严重影响缩放图片的质量。主要原因有两方面:第一,在迭代式缩放过程中扭曲信息是递增出现的,等到出现严重的视觉缺陷时,扭曲现象已经过n(n>2)代叠加了;第二,Seam Carving算法的离散式缩放模式导致无法将缩放信息传递给下一代,无法在后续迭代中有效避免严重扭曲叠加现象。

    为解决上述问题,本文提出新的SC连续模型,在每一次迭代后,Seam的移除 (增加)会导致轻微的像素位移。相邻像素间不同方向的位移累积会导致多次迭代后的潜在扭曲。本文提出最小位移可视差(Just Noticeable Distortion, JND)检测算法计算每次迭代中的像素位移。通过本文提出的能量权重(Energy Weight, Ew),将JND信息传递到下一次迭代中,从而有效避免扭曲现象。Ew和JND的提出,使得改进SC算法从离散缩放模型变成连续缩放模型。通过与最新缩放算法在公共图像缩放数据集RetargetMe[14]进行对比实验,验证了本文方法的有效性和先进性。

    SC算法采用8连通相邻最小能量线的方式,从上至下或从左至右对图像进行缩放。由于其算法的普适性和有效性吸引了大量研究人员的关注,基于改进SC的算法陆续出现。根据近年来的研究成果,改进算法大致可以分为3个方向。

    第一,研究人员致力于图像显著性特征的改进,常用的显著性特征模型包括GBVS(Graph-Based Visual Saliency)模型[15]、Itti模型[16]和HSaliency模型[17]等。结合深度信息的立体显著性特征[11]、边缘特征[12,13]、阴影特征[8]和Global Scalar梯度特征[18]等不同特征可以辅助显著性特征,增强缩放后的重要信息保持。虽然多特征融合有助于更全面地捕捉图像信息,对于尽可能多地保持图像重要信息具有积极作用,但是这些特征中缺少对于图像内容和语义方面的指导,往往会导致缩放效果无法兼顾图像内容的语义完整性(边界扭曲)。

    第二,多方法融合算法解决针对单一缩放模型的局限性。Fang等人[19]和Wei等人[20]分别在2017年和2018年提出融合Crop, SC, Warping, Scale和Stretch算法的图像缩放模型,能够获得普遍优于单一方法的效果。但是,针对不同类型图像如何调整和确定各方法间的平衡参数,以及昂贵的时间代价都对该方向算法的改进提出了挑战。

    第三,还有研究学者采用其他的技术辅助SC算法,例如遗传算法[10],Block Artifact Grid[21]和共形映射[22]等。辅助方法都能够针对某类图像获得较好的缩放效果,但是仍不能解决缩放扭曲的问题。本文研究在现有的3个改进方向的基础上提出了新的思路,即通过JND算法的提出将SC的离散缩放模型改进为连续模型,能够将每次迭代的缩放扭曲信息累加传递下去,从而改进缩放效果且抑制图像边缘扭曲现象。

    本文的主要研究目标是改进SC模型的图像缩放质量,减少缩放后的边缘扭曲现象。尽管现在已经存在很多改进算法且缩放质量逐步提高,经过反复试验发现对于大比例缩放和图像内容复杂的情况扭曲现象仍普遍存在。本文通过分析发现,该问题出现的主要原因在于SC算法的离散式迭代和最小能量函数法。最小能量函数法仅计算当前状态下的能量线(Seam),离散式迭代导致前一次迭代信息无法传递到后续的缩放过程中。换句话说,如果第i次迭代出现了微小的扭曲,在离散式SC运行机制下扭曲位置无法在第i+1次迭代过程中得到保护。这将会导致接下来的k次迭代后,会出现扭曲放大进而影响缩放的美观性。因此本文提出假设:如果在每一次迭代过程中的最小扭曲可视差JND能够进行检测,并将其传递至随后的迭代过程中,则能有效降低扭曲出现的概率,提高缩放结果的质量。本文连续模型如图1所示,其中图(a)为离散SC模型,图(b)为本文提出的连续SC模型,通过结合JND信息和能量权重Ew·(SC+Ew),图像缩放能量能够以累加的方式传递到后续的迭代过程中,有效抑制扭曲现象的出现。

    图 1  传统SC模型与本文模型对比图

    方向相反的微小像素移动会产生微小的图像扭曲。经实验表明2个像素以内的位移不会产生可视化扭曲。在光流估计研究领域,相邻两帧的像素移动可以通过最小化位移差进行计算[23]。受此启发,本文定义最小位移可视差JND为像素位移向量,u=(u,v)T,其中u表示水平位移,v表示垂直位移。JND信息可以通过计算相邻两次迭代Seam Carving结果的能量相似性进行表达。本文希望在保持图像重要信息的前提下,相邻两次迭代Seam Carving结果具有最高的相似性。也就是说,目标函数可以表示为Seam Carving的能量差最小化问题,如式(1)所示。

    ED(u)=x12||I2(x+u)I1(x)||+12α||I2(x+u)I1(x)||
    (1)

    其中,α表示权重,I1为Seam Carving之前的图像,I2为Seam Carving之后的图像,x为图像中的像素,为梯度计算。式(1)的第1项为颜色不变约束,第2项为梯度约束。如果u计算准确,则ED(u)将趋向于0。根据参考文献[23],一个好的模型应该倾向于含有更多信息的约束,而不是所有约束。我们定义一个二分权重映射θ(γ):Z2{0,1},在优化过程中通过遍历决定采用哪一项约束。新的能量函数可以表示为

    ED(u)=xθ(γ)||I2(x+u)I1(x)||+(1θ(γ))α||I2(x+u)I1(x)||
    (2)

    θ(γ)=0时,梯度约束起作用;当θ(γ)=1时,颜色不变约束起作用。

    在Seam Carving过程中,物体边界对于缩放后的效果起重要的影响。因此,我们定义边界保持正则项对位移能量进行约束,如式(3)。

    Es(u)=xω(x)||(u)(x)||
    (3)

    其中,xZ2,并且||(u)(x)||为TV正则项,ω(x)为简单结构适应映射[23]。因此,最终的可视化能量函数可以定义为式(4)

    E(u,θ)=ED(u)+λEs(u)
    (4)

    其中,λ为正则项权重。

    当位移可视差u计算最准确时,式(4)能够取得最小值。因此,计算u的过程可以看作对式(4)的最小化寻优过程,最终目标函数可以表示为式(5):

    F=minu,θE(u,θ)
    (5)

    最小化过程中需要同时对两个变量uθ进行计算,一般采用迭代优化策略。在本文问题中,θ是二分映射,因此我们可以用平均场近似算法[24](Mean Field approximation, MF)化简优化。通过特定状态替换θ减少一个变量简化寻优过程。特定状态的当前系统概率分布可以表示为式(6):

    P(u,θ)=1ZeβE(u,θ)
    (6)

    其中,β表示温度反转的阈值,Z表示状态划分函数。Z可以表示为式(7):

    Z=uθeβE(u,θ)
    (7)

    沿鞍点方向所有的θ状态代入式(7)可近似得到

    Z={u}{θ=0,1}eβE(u,θ)={u}eβEs(u){θ=0,1}eβx(θ(x)ΨI(u,x)+(1θ(x))ΨI(u,x))={u}eβEs(u)x(eβΨI(u,x)+eβΨI(u,x))={u}eβ{Es(u)x1β(ln(eβΨI(u,x)+eβΨI(u,x)))}maxueβ{Es(u)x1β(ln(eβΨI(u,x)+eβΨI(u,x)))}
    (8)

    其中,ΨI(u,x)=I2(x+u)I1(x)ΨI(u,x)=I2(x+u)I1(x)。因此对式(5)的最小化可以近似为对式(8)的最小化。在式(8)中只有一个变量, 将会降低优化难度。本文提出有效位移可视差函数可以表示为

    EeffD(u)=λEs(u)x1βln(eβΨI(u,x)+eβΨI(u,x))
    (9)

    将式(9)代入式(5),最终最小化目标函数可以表示为

    F=minuEeffD(u)
    (10)

    通过对单变量u进行寻优,可以计算出每一次Seam Carving迭代后的最小位移可视差作为JND信息。

    最小位移可视差检测算法可以获得每次迭代后缩放的JND信息。在此基础上,为了解决传统离散模型对于缩放信息无法传递的问题,本文提出采用能量权重Ew表示累加缩放信息。JND中基于8连通域的相邻像素移动方向相反表明该处大概率会出现扭曲现象。将该位置信息通过权重增加的方式记录在Ew中,并在后续的最小能量线查找过程中进行适当的保护可以降低扭曲现象出现的概率。本文算法处理流程如图2所示。每一次迭代过程中,首先对目标图像提取特征,然后通过SC算法,结合上一次迭代的Ew寻找最小能量线进行缩放;然后将缩放前和缩放后的图像计算JND信息,将扭曲像素位置在Ew中进行叠加传递到下一次迭代过程中,从而将离散的SC模型变为连续模型。

    图 2  连续SC缩放模型处理流程

    引入JND信息和Ew后的Seam Carving缩放过程可以表示为式(11)—式(13):

    fen=Esa+Ede+Eed+Egr
    (11)
    Eiw=iik+1JNDi1,i[1,n],k[1,i]
    (12)
    Ire(x,y)=minx,yI(Eiwfen)
    (13)

    根据文献[12,13],本文将显著特征Esa、景深特征Ede、边缘特征Eed和梯度特征Egr相结合进行最小能量线搜索。每一次迭代的能量权重是通过前k代的JND信息叠加产生的,如式(12),其中JND0={0,0,···}即第1次迭代时默认最小位移可视差为0。能量权重Ew可以叠加前k代的位移差对当前最小能量线搜索进行约束,通过式(13)可以计算出最小能量线。便于计算本文在实验中设置k=1,n为缩放指定的迭代次数。

    连续Seam Carving图像缩放算法如表1所示。

    表 1  连续Seam Carving图像缩放算法
     输入:目标图像, Iin,缩放比例参数, n
     输出:缩放结果图像,Iout
     1: repeat
     2: 根据式(11)计算fen
     3: 根据式(12)计算Eiw
     4: 微小缩放I2I1至相同大小
     5: 根据式(9)和式(10)计算ui
     6: 进行缝合计算
     7: 更新缩放参数
     8: until seamnum=n
    下载: 导出CSV 
    | 显示表格

    本文实验环境为i7-6700 3.4 GHz, 16 GB DDR内存,GTX1070显卡,显存8 GB, MATLAB R2015b。本文使用3个特征:显著性特征Hsaliency[17],景深特征JNB[25]和结构保持性边界信息[13]。实现过程中的相关参数为:式(9)中的λ=0.5, β=5。

    本文主要实验数据来自图像缩放公共数据集RegargetMe。为了验证算法的有效性共设计并实现3组实验:第1组实验与当前Seam Carving改进算法进行对比,包括SC[5], WSM[10], SC+SA+DE[11]和本文算法,验证本文方法针对SC模型改进的有效性;第2组实验与当前最新其他方法进行比较,验证本文算法在图像缩放方面的先进性,包括Crop, SC, Warping[6], SNS[26],本文方法离散模型和本文方法连续模型;第3组为定量对比,分别采用当前主流图像缩放质量评估算法Sift-flow[27], ARS[28,29]和Vssm[30]进行定量对比。

    在第1组实验中,我们针对其他Seam Carving改进算法进行对比实验。针对高分辨率图像和运动图像进行大比例缩放实验(缩放比例超过60%),见图3

    图 3  SC改进算法定量对比实验

    图3中,儿童草地图为高清图像,SC算法和SA+DE+SC算法都造成了小孩身体的缩小或头部扭曲,WSM算法删除了远处的彩带,本文算法在前景和背景保持方面都表现良好。在赛车图中,SC算法导致赛车严重缩小,WSM算法造成赛道扭曲,SA+DE+SC算法和本文算法表现良好。在滑板图中,SC算法和SA+DE+SC算法都对人物及其影子产生了严重的扭曲,WSM算法对于背景街道有所扭曲,本文算法对于运动图像,无论前景还是背景都保持最为完整。通过第1组实验可以证明本文方法对于扭曲现象具有明显的减少效果。为了更好地体现JND算法在抑制扭曲方面的效果,我们在图3所示的缩放过程中,计算前500次迭代过程中的像素级平均扭曲度(JND errors),将其归一化至[0, 1]区间内,如图4所示。图像扭曲度在缩放开始阶段都比较小,随着缩放迭代数的增加,扭曲度都在不同程度的递增(0–150代)。其中,SC算法由于只考虑到图像梯度能量,扭曲产生得最快;WSM算法增加了边缘信息的检测,扭曲度的增加比SC算法略缓。SA+DE+SC算法通过景深能量值和显著性能量值的约束,扭曲度的增加相较于SC算法和WSM算法更加缓慢。与此3种算法不同的是,本文算法能够及时地检测扭曲度并且通过Ew传递到下一代,因此本文算法的扭曲度虽然在初期也随着迭代逐步递增,但到达一定程度后(0.45)扭曲度递增程度逐渐降低,并能保持在相对较低的范围内。由此可以证明本文提出的连续SC模型能够对扭曲进行抑制,有效地避免了大规模的扭曲现象。

    图 4  像素级扭曲度对比

    第2组实验中,本文与当前主流的各种算法进行了对比,包括传统缩放方法Crop,经典离散缩放方法SC, SNS(Scale-and-Stretch),经典连续缩放方法Warping, JND+离散SC和JND+连续SC。实验数据全部来自RegargetMe,选取其中4类图像:人物、建筑、自然风光和动植物进行多次实验,如图5

    图 5  图像缩放算法定量对比实验

    图5中,从左到右依次为:(a)原图,(b)Crop算法,(c)标准Seam Carving算法,(d)SNS算法,(e)Warping算法,(f)JND+离散SC模型,(g)JND+连续SC模型。其中,Crop算法能够最完美地保持图像中的重要区域(包括细节与尺寸),但是会造成图像两侧数据的大量丢失;SC算法在人脸、建筑都产生了扭曲;SNS算法虽然扭曲比较少,但是图像中的重要信息尺寸缩减得最严重,例如蝴蝶;Warping算法在自然风景和动植物图像中都产生了重要信息没有完整保存的问题。JND+离散SC算法中,人物的脸部明显扭曲,建筑图像的尺寸缩减较大。相比较前面的算法,JND+连续SC算法在4类图像方面都取得了非常好的缩放效果,在重要信息保持、抑制扭曲现象方面综合来看明显优于前面的算法。

    当前,对于图像缩放算法主流的评价方法还是基于用户的视觉判断。近年来陆续出现针对缩放质量评估的算法,本文选用其中的3个:Sift-flow, ARS, Vssm。其中,Sift-flow算法能够计算原始图像与缩放图像之间的稠密相关性,用来衡量图像缩放后内容的保持程度,结果越高越好。ARS算法为近年来提出的,通过计算局部block的变化有效地评价缩放后的图像扭曲程度,结果越高越好。Vssm算法通过双向patch比较评估显著性区域的不相似程度,结果越低越好。

    本文在上述4个图像类别中,每类图像选取5幅,其中人物图像和建筑图像采用50%的缩放比,自然景观图像和动植物图像采用60%的缩放比率。通过计算缩放前后图像在3个评价算法的平均得分进行对比,具体如表2所示,DISJND表示JND+离散SC模型,CONJND表示JND+连续SC模型。

    表 2  图像缩放定量对比
    CropSCSNSWARPDISJNDCONJND
    Sift-flow0.370.570.690.380.590.79
    ARS0.940.890.900.890.890.91
    Vssm0.250.680.680.750.650.42
    下载: 导出CSV 
    | 显示表格

    表2中数据显示了本文方法在4个图像类别中的图像缩放优越性。对于Sift-flow算法评价越高意味着缩放后的图像与原图像联系越大。通过对比发现,本文算法提出的JND+连续SC模型在该指标评价高达0.79。对于ARS算法,Crop方法获得最高的评价指标,这是因为Crop能够原样保存图像缩放前的重要区域,不会产生扭曲。但是会造成图像背景信息的大量丢失。除了Crop算法,本文算法在扭曲约束方面表现最好。对于Vssm算法,同样是Crop方法获得最高的评价指标,这是因为基于剪裁的方法,图像重要区域与原图基本相同,因此不相似性最低。除去Crop算法,本文算法仍旧获得最佳评价。通过定量对比实验得出的结论基本与5.2节的定性对比实验结果一致。

    本文提出最小位移可视差检测算法,能够在SC每次迭代过程中计算会造成扭曲的JND信息,通过本文提出的能量权值逐代累加传递下去,有效地将离散的SC模型变为连续模型,从而降低了传统SC过程中出现的扭曲现象。通过实验证明,基于JND的SC连续模型对于当前图像缩放算法在性能上带来较大的提高。

    但由于加大了每次迭代的计算量,本文方法存在耗时严重的问题。采用GPU并行算法或其他加速算法减少时间复杂度将是未来需要解决的问题之一。另外,为了进一步提高图像缩放质量,改进的SC模型与其他算法的结合将会是未来的潜在研究方向。

  • 图  1  基于密度分类引导的双阶段去雨网络结构

    图  2  先验去雨网络子网络结构

    图  3  不同密度大小雨天图像及其真值

    图  4  不同方法在合成测试图像上去雨结果

    图  5  不同方法在真实雨天图像上去雨结果

    图  6  本文算法去雨前后图像目标检测结果

    表  1  不同方法在OTS-test测试集上的平均PSNR和SSIM结果

    方法PSNR (dB)SSIM
    DID-MDN18.970.7386
    HRR23.670.8720
    PReNet23.860.8782
    MSPFN23.690.8607
    本文方法25.100.8854
    下载: 导出CSV

    表  2  不同方法在Rain100L和Rain100L测试集上的平均PSNR和SSIM结果

    方法Rain100LRain100H
    PSNR (dB)SSIMPSNR (dB)SSIM
    DSC24.160.8715.660.54
    LP29.110.8814.260.42
    DID-MDN25.560.8615.950.56
    HRR25.400.8922.190.78
    本文方法29.210.9224.140.83
    下载: 导出CSV

    表  3  不同网络结构OTS-test测试集上的平均PSNR和SSIM结果

    方法PSNR (dB)SSIM
    DID-MDN18.970.738 6
    DID-MDN+优化19.580.754 6
    本文方法-分类器23.920.866 6
    本文方法25.100.885 4
    下载: 导出CSV
  • [1] BAHNSEN C H and MOESLUND T B. Rain removal in traffic surveillance: Does it matter?[J]. IEEE Transactions on Intelligent Transportation Systems, 2019, 20(8): 2802–2819. doi: 10.1109/TITS.2018.2872502
    [2] GARG K and NAYAR S K. Vision and rain[J]. International Journal of Computer Vision, 2007, 75(1): 3–27. doi: 10.1007/s11263-006-0028-6
    [3] LI Yu, TAN R T, GUO Xiaojie, et al. Rain streak removal using layer priors[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 2736–2744.
    [4] CHEN Yilei and HSU C T. A generalized low-rank appearance model for spatio-temporally correlated rain streaks[C]. Proceedings of the IEEE International Conference on Computer Vision, Sydney, Australia, 2013: 1968–1975.
    [5] 王志超, 陈震. 基于小波融合的视频图像去雨(雪)方法[J]. 北华大学学报:自然科学版, 2018, 19(1): 135–140. doi: 10.11713/j.issn.1009-4822.2018.01.028

    WANG Zhichao and CHEN Zhen. Method of removing rain (snow) from video images based on wavelet fusion[J]. Journal of Beihua University:Natural Science, 2018, 19(1): 135–140. doi: 10.11713/j.issn.1009-4822.2018.01.028
    [6] FU Xueyang, HUANG Jiabin, DING Xinghao, et al. Clearing the skies: A deep network architecture for single-image rain removal[J]. IEEE Transactions on Image Processing, 2017, 26(6): 2944–2956. doi: 10.1109/TIP.2017.2691802
    [7] 郭继昌, 郭昊, 郭春乐. 多尺度卷积神经网络的单幅图像去雨方法[J]. 哈尔滨工业大学学报, 2018, 50(3): 185–191. doi: 10.11918/j.issn.0367-6234.201704075

    GUO Jichang, GUO Hao, and GUO Chunle. Single image rain removal based on multi-scale convolutional neural network[J]. Journal of Harbin Institute of Technology, 2018, 50(3): 185–191. doi: 10.11918/j.issn.0367-6234.201704075
    [8] ZHANG He and PATEL V M. Density-aware single image de-raining using a multi-stream dense network[C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 695–704.
    [9] REN Dongwei, ZUO Wangmeng, HU Qinghua, et al. Progressive image deraining networks: A better and simpler baseline[C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 3932–3941.
    [10] JIANG Kui, WANG Zhongyuan, YI Peng, et al. Multi-scale progressive fusion network for single image deraining[C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 8343–8352.
    [11] LIN C Y, TAO Zhuang, XU Aisheng, et al. Sequential dual attention network for rain streak removal in a single image[J]. IEEE Transactions on Image Processing, 2020, 29: 9250–9265. doi: 10.1109/TIP.2020.3025402
    [12] DENG Sen, WEI Mingqiang, WANG Jun, et al. Detail-recovery image deraining via context aggregation networks[C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 14548–14557.
    [13] FU Xueyang, QI Qi, ZHA Zhengjun, et al. Rain streak removal via dual graph convolutional network[C]. Proceedings of the AAAI Conference on Artificial Intelligence, Palo Alto, USA, 2021: 1352–1360.
    [14] GUO Qing, SUN Jingyang, JUEFEI-XU F, et al. Uncertainty-aware cascaded dilation filtering for high-efficiency deraining[J]. arXiv: 2201.02366, 2022.
    [15] ZHENG Shen, LU Changjie, WU Yuxiong, et al. SAPNet: Segmentation-aware progressive network for perceptual contrastive deraining[C]. Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision. Waikoloa, USA, 2022: 52–62.
    [16] LI Ruoteng, CHEONG L F, and TAN R T. Heavy rain image restoration: Integrating physics model and conditional adversarial learning[C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 1633–1642.
    [17] WEI Yanyan, ZHANG Zhao, WANG Yang, et al. Deraincyclegan: Rain attentive cyclegan for single image deraining and rainmaking[J]. IEEE Transactions on Image Processing, 2021, 30: 4788–4801. doi: 10.1109/TIP.2021.3074804
    [18] WEI Yanyan, ZHANG Zhao, WANG Yang, et al. Semi-deraingan: A new semi-supervised single image deraining[C]. IEEE International Conference on Multimedia and Expo (ICME), Shenzhen, China, 2021: 1–6.
    [19] ISOLA P, ZHU Junyan, ZHOU Tinghui, et al. Image-to-image translation with conditional adversarial networks[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 5967–5976.
    [20] JOLICOEUR-MARTINEAU A. The relativistic discriminator: A key element missing from standard GAN[C]. 7th International Conference on Learning Representations, New Orleans, USA, 2018.
    [21] LI Boyi, REN Wenqi, FU Dengpan, et al. Benchmarking single-image dehazing and beyond[J]. IEEE Transactions on Image Processing, 2019, 28(1): 492–505. doi: 10.1109/TIP.2018.2867951
    [22] BOCHKOVSKIY A, WANG C Y, and LIAO H Y M. Yolov4: Optimal speed and accuracy of object detection[J]. arXiv: 2004.10934, 2020.
  • 加载中
图(6) / 表(3)
计量
  • 文章访问数:  497
  • HTML全文浏览量:  470
  • PDF下载量:  95
  • 被引次数: 0
出版历程
  • 收稿日期:  2022-02-21
  • 修回日期:  2022-08-31
  • 网络出版日期:  2022-09-03
  • 刊出日期:  2023-04-10

目录

/

返回文章
返回