Three Subnets Image Dehazing Method Based on Transfer Learning
-
摘要: 目前大部分图像去雾算法只在一种或几种均匀雾图数据集中有较好的表现,对于不同风格或非均匀雾图数据集去雾效果较差,同时算法在实际应用中会因模型泛化能力差导致模型场景受限。针对上述情况,该文提出一种基于迁移学习的卷积神经网络(CNN)用于解决去雾算法中非均匀雾图处理效果不佳和模型泛化能力差等问题。首先,该文使用ImageNet预训练的模型参数作为迁移学习模型的初始参数,以加速模型训练收敛速度。其次,主干网络模型由3个子网组成:残差特征子网络、局部特征提取子网络和整体特征提取子网络。3子网结合以保证模型可从整体和局部两个方面进行特征提取,在现实雾场景(浓雾、非均匀雾)中获得较好的去雾效果。该文在模型训练效率、去雾质量和雾图场景选择灵活性3个方面进行了研究和改进,为衡量模型性能,模型选择在去雾难度较大的非均匀雾图数据集NTIRE2020和NTIRE2021上进行定量与定性实验。实验结果证明3子网模型在图像主观和客观评价指标两个方面都取得了较好的效果。该文模型改善了算法泛化性能差和小数据集难以进行模型训练的问题,可将该文成果广泛应用于小规模数据集和多变场景图像的去雾工作中。Abstract: Most image dehazing algorithms perform well in one or several homogeneous hazy map datasets, but process poor performance in datasets with different styles or nonhomogeneous hazy map datasets. Meanwhile, in practical application, the algorithm will be limited in model scenes due to poor model generalization ability. In view of the above situation, a Convolutional Neural Network (CNN) based on transfer learning is proposed to alleviate problems such as nonhomogeneous hazy map dehazing and defective generalization ability. ImageNet pre-trained model parameters are utilized as the initial parameters of the transfer learning model. In order to accelerate the convergence rate of model training, the algorithm is able to adapt quickly to different datasets. The model is composed of three subnets: residual feature sub network, local network and the overall feature extraction of feature extraction sub network. The model is ensured by the combination of three subnets to extract features from both the whole image feature and the local image feature, and achieves excellent dehazing effect in real hazy scenes (homogeneous and nonhomogeneous haze). In summary, the proposed method improves the model efficiency, haze removal quality and convenience of hazy map scene selection. To quantitatively and qualitatively measure the performance of the model, experiments are performed on NTIRE2020 and NTIRE2021, which are nonhomogeneous hazy map datasets with high haze removal difficulty. Experimental results show that the three-subnets model achieves outstanding results in both subjective and objective evaluation metrics. Unsatisfactory generalization performance of the algorithm and training difficulty are improved in small datasets. The architecture of three subnets can be widely utilized in small-scale datasets and changeable scene image dehazing projects.
-
1. 引言
雾霾天气中大量悬浮粒子会对大气光产生反射、折射、吸收等作用,降低场景的能见度,导致在视觉采集过程中得到的图像细节模糊,图像对比度低,场景色彩失真,图像信息丢失等问题,因此对采集后图像进行去雾复原处理至关重要。在去雾算法中,通常使用大气散射模型[1]描述雾霾图像与无雾图像之间的关系
I(x)=J(x)t(x)+A(1−t(x)) (1) 其中,
x 为图像像素,I(x) 为输入量含雾图像,J(x) 为待复原变量无雾图像,A 为大气光值。其中A 是可变的,但当它被视为恒定值时,介质的透射率t(x) 可以描述为t(x)=e−βd(x) (2) 其中,
β 为大气散射系数,d(x) 为物体到视觉传感器的距离。早期用于去雾的图像增强方法包括直方图均化[2]、同态滤波[3]、小波变换[4]和Retinex[5]等,该类算法基于图像的低对比度、低饱和度等特点通过增强图像中的有用信息而抑制或删除不需要的信息来提高图像质量和图像清晰度。而后基于先验知识的方法在去雾工作上利用模型中参数的特征作为假设,使参数可解。暗原色(Dark Channel Prior, DCP)[6]先验算法是基于先验知识的雾霾图像复原方法的典型代表,以局部区域的最小值作为叠加环境光的初步估计,结合大气散射模型的边缘优化算法可以直接恢复无雾图像。最大化局部对比度算法(Maximum Contrast, MC)[7]基于无雾图像比雾图像对比度高的特点,提高了雾图像的对比度,获得了高能见度的图像。近年传统方法,杨燕等人[8]使用改进后的暗通道模型自适应地估算并拟合获取暗通道图像,以得到最佳透射率用于雾图复原。Raikwar等人[9]将传输估计问题转化为模糊图像与无雾图像最小颜色通道差的估计用于图像去雾工作。
随后出现的基于深度学习的方法在低级图像处理领域上进行实验后,发现其效果对比于传统方法在图像去雾、去模糊[10]和去噪等小方向上得到了处理速度和图像质量的进步,去雾算法通过网络自行学习图像与图像之间的特征对应关系从而达到快速且有效果的图像去雾目的。DehazeNet[11]作为早期使用了神经网络和先验知识结合的网络,使用多尺度的深层卷积神经网络来学习雾图到透射率之间的映射关系。端到端去雾算法(an All-in-One Network, AOD-Net)[12]是首个将端到端网络使用在深度学习去雾中的算法,提出了一种通过估计参数K来恢复无雾图像的卷积神经网络,其为网络的端到端和轻量化提供了设计思路。密集金字塔去雾算法(Densely Connected Pyramid Dehazing Network, DCPDN)[13]提出了带边缘保留的金字塔编码器-解码器网络结构,通过边缘保留损失函数进行网络训练优化,同时由于大气散射模型估计的透射率与雾图相关,算法还使用了生成对抗网络对样本进行判定。GridDehazeNet[14]提出了一种端到端可训练的卷积神经网络,算法中可训练预处理模块相较于手工选择的预处理方法,可以产生更加丰富的信息多样性和更强针对性的输入。主干模块使用了新的基于注意力机制的多尺度估计方法,极大地解决了传统图像多尺度方法中的信息传递问题。密集特征融合多尺度增强去雾网络(Multi-Scale Boosted Dehazing Network, MSBDN)[15]提出了一种基于U-Net的具有密集特征融合的多尺度增强去雾网络,基于boosting和误差反馈原理设计,并在模型解码器中使用增强-操作-减去(strengthen-operate-subtract)策略用于图像去雾。两阶段弱监督去雾算法(RefineDNet)[16]将基于先验和基于深度学习的知识进行结合,并将去雾分为两个子任务,包括能见度恢复和真实度提高,算法通过暗通道恢复图像可见性,再使用对抗学习提高图像真实感,最后使用感知融合用于混合多类信息以得到最终去雾输出。除去以上算法外还使用了集成学习的算法、两分支去雾算法(Two-Branch)[17]、域适应算法(Domain Adaptation, DA)[18]、基于生成对抗网络或对抗学习的算法融合鉴别器的生成对抗网络(Fusion-Discriminator GAN, FD-GAN)[19]、非齐次离散小波变换去雾网络(Discrete Wavelet transform GAN, DW-GAN)[20]和基于潜在集成结构和对抗学习的深度去雾网络(Deep Dehazing Network, DDN)[21],视频去雾算法[22]等适用于去雾工作。
大自然界中绝大多数图像都有着相似的特性,例如图像花丛部分经常呈现高对比度和较为剧烈的边缘改变特性等,因此迁移学习可以通过使用现有研究中他人已经在自然界图像中学习到的特征进一步对特定图像数据集有针对性地训练以减少网络的初始化和起步阶段的试错困难程度。基于此,本文将迁移学习用于去雾工作中,使得模型快速学习自然界中图像色彩规律,保证去雾算法模型处理后的图像更加贴近自然图像。
模型的迁移学习体现在使用ImageNet[23]已学习后的初步参数作为本文模型中编码器初始参数以替代随机参数,以此缩短网络初步学习困难度并规范网络学习方向。通过这种方法可以做到克服现有算法中出现的长时间训练和数据集针对性等问题。本文的主要创新点如下:
(1)通过迁移学习的方法降低网络训练过程中的不确定性和困难程度,避免了网络初始化时的随机参数给网络训练目标带来的偏差,加速网络收敛过程。同时,使用少量数据图像训练得到良好的模型质量,增强网络模型在实际工作中使用的可行性。
(2)本文提出的3子网各有侧重,缺一不可。模型使用整体特征子网增强网络在全局特征提取上的能力。使用平滑膨胀卷积和大尺度卷积保证模型拥有更大的卷积感受野,有效避免网格伪影,达到去雾图像拥有更均衡的整体特征信息的目的。实验结果证明了3子网集成的有效性。
2. 相关理论
2.1 迁移学习
迁移学习作为一种机器学习思想,具体实行过程为将某个领域、工作上已学习到的知识或参数应用到相似问题中的网络模型中帮助新模型的训练。因为相似问题中大部分数据是具有相关性的,故使用迁移学习可以加速模型的训练过程。其中迁移学习使用的手段包含以下:(1)Transfer learning,固定预训练模型中的全部卷积层,单独训练新模型的全连接层。(2)Extract feature vector,首先提取出预训练模型对于参数的特征向量,再训练新模型的简易网络。(3)Fine-tuning,固定预训练模型中部分卷积网络层,只对其余网络层进行训练。将迁移学习嵌入去雾算法可以达到快速训练和更佳的模型处理效果的结果,模型对于含雾图像的复原过程中,可以得到更加贴近于自然色彩结构的去雾图像。
2.2 集成学习
机器学习中被训练模型常出现单独偏好的情况,这表明了单一的常用模型对于多方面任务并没有完全的掌握能力。而集成学习则是通过构建、结合多个学习器集众家之所长来完成多方面需求任务,如果算法能达到适当的多样性,每个学习器(子网)的误差不同,通过一定的策略进行组合可以达到减少总体误差,增强模型最终效果的作用。集成学习可以用于分类、特征选取和检测等各类机器学习、深度学习问题,集成学习可分类为Bagging,Boosting和Stacking。集成学习用于去雾算法中可以将多种针对不同图像特征的子网进行结合,综合各类子网关注特征以达到单一算法完成各类图像特征学习的作用。
3. 网络结构
本节将详细介绍本文模型结构,包括网络中的3子网:残差特征子网、局部特征子网和整体特征子网,并在尾部进行融合。由于本模型主要侧重于像素级图像信息复原,全局特征作为信息补充子网权重占比略小,因此算法设定3者比例为1:1:0.5。局部特征子网因为其对于图像细节特征的把控能力,其去雾图像在物体细节边沿及颜色的保留程度较高,但是过于注重局部特征而导致较大像素级的目标信息保留不完整,因此本文在其基础上加上了整体特征子网,其与局部特征子网相结合以达到大小目标信息都能得到保留的目的。如图1所示。
3.1 残差特征子网络
在Res2Net[24]被提出后,残差网络结构被应用于各类主流网络模型之中用于网络训练过程中更新过的梯度的相关性保留,以便网络更好地进行拟合学习,编码器-解码器结构作为常规的特征提取结构被应用于本文网络中,将以上两者结合成残差特征提取子网络。
从模型处理效率方面考虑,模型将局部特征子网的残差通道注意力组和残差通道注意力块数量分别置为3和5,在保证图像质量的前提下控制模型参数、提高处理效率。
为了尽可能多地保留图像信息,因此没有使用上下采样的步骤。在残差连接的编码器部分,在训练开始前预先加载ImageNet预训练模型参数,与随机的初始化的参数相比,ImageNet中的参数将会更好地帮助提取并学习特征。对于残差网络的调用而言,本文模型采用的是Res2Net,16次下采样的前端。
3.2 局部特征子网
由于上节中的子网使用编码器-解码器结构只能提取基础的图像特征信息,而更加精细的物体信息无法进行学习,因此在本节中将残差通道注意力模块应用于其中,该部分所提取的精细的图像特征可作为残差特征提取子网络的信息补充。为了尽可能多地保留细节图像信息,本文使用了CBL(卷积+批量归一化+LeakyReLU)模块,通过LeakyReLU激活函数给负值赋予非零的斜率,在子网输入部分作用于保留图像信息。
局部特征子网首先由CBL模块作为输入的第1个处理模块,再用4个残差编码块对输入特征图进行特征提取和3次下采样,缩小特征图大小,然后经过4个通道注意力模块进行3次上采样达到图像局部特征的精细处理的目的,最后将还原后的特征图加入尾部进行融合。
3.3 整体特征子网
以上两类子网,通过迁移学习和注意力机制将网络的训练目标转移到小目标、小感受野的环境中。网络层传递过程中卷积核所对应的图像感受野较小,网络中较多注意力集中于局部特征而忽略图像中局部特征相关性。因此,3子网模型中添加了整体特征子网作为信息补充子网,该子网使用膨胀卷积[25]和少量5×5大尺度卷积代替残差特征子网和局部特征子网中常用的3×3卷积核,以增加卷积过程中卷积核的感受野并避免出现网格伪影。膨胀卷积和大尺度卷积的多次使用保证了网络层的深度。算法保留了平滑膨胀卷积块中5层中的第1,3,5层在门控融合块中进行了信息融合,进一步增强不同层次图像信息的保留程度。
同时,为了保持模型整体参数量不激增,整体特征子网只采用了一次上下采样。由于一个周期内训练中的输入图像数量较少,使用实例归一化(Instance Normalization, IN)以防止网络训练中的梯度消失,并使网络更加关注单幅图像的整体信息而非一次迭代内的所有图像的相关特征信息,以便获得更好质量的训练模型。最后,整体特征子网使用门控融合子网集合不同级别的特征。通过以上模块组合构成整体特征子网,以补充网络中图像全局特征提取能力。
3.4 损失函数
损失函数用于规范网络训练中参数的学习方向,本文方法模型的损失函数由4个类型函数组成,分别为重建损失函数、多尺度结构相似损失函数、视觉损失函数和对抗损失函数。重建损失函数作为主要规范函数,用于图像像素级的差异修正,多尺度结构相似损失函数与视觉损失函数结合用于规范处理后图像符合人类视觉感知,最后使用对抗损失用于规范网络中生成对抗结构的训练平衡。
3.4.1 重建损失
重建损失由
L1 和L2 两类像素级损失函数结合作用,使得去雾后图像的像素信息更加接近于清晰图像的信息,算法给予两类函数各自的权重α1 和α2 ,其中,i 代表图像像素,y 和ˆy 分别代表去雾后和无雾图形LR=α1L1+α2L2L1(ˆy,y)=m∑i=0|y(i)−ˆy(i)|iL2(ˆy,y)=m∑i=0(y(i)−ˆy(i))2} (3) 3.4.2 多尺度结构相似损失
多尺度结构相似损失从多尺度图像大小的亮度、对比度和结构3个指标进行考虑,使用该损失规范网络处理后的图像更加符合人眼视觉感知
LMS−SSIM(i)=1−MSSSIM(i)MSSSIM(i)=lαM(p)⋅M∏j=1[csj(i)]βjβ2} (4) 其中,
i 代表图像像素,l 表示像素亮度,cs 代表图像对比度和结构相似性。3.4.3 视觉损失
通过使用VGG预训练网络模型的参数来评价模型处理后图像与清晰图像之间的高级感知信息和其语义差异,为网络训练过程中图像复原提供更加全面的规范条件
LP=1CHWC∑c=1H∑h=1W∑w=1|ϕc,h,w(Id)−ϕc,h,w(Ig)| (5) 其中,
ϕ 为通过VGG所提取的特征信息,C, H, W分别代表通道数、高度和宽度,Id 代表去雾后图像,Ig 代表无雾图。3.4.4 对抗损失
生成对抗网络中为还原图像的真实性,对抗损失是最为常用的一类损失函数,除了以上3类损失函数,3子网模型将其共同使用以恢复图像更多细节
LA=1NN∑i=1log2(1−D(Ii,˜Ji)) (6) 其中,
D 为网络中判别器的返回值,˜Ji 和Ii 分别代表去雾后图像和无雾图像。综上所述,总体的损失函数为
Ltotal=γ1LR+γ2LMS−SSIM+γ3LP+γ4LA (7) 其中,
γ 用于平衡网络损失函数权重,由于重建损失和多尺度结构相似性损失分别用来衡量图像局部和整体特征信息,故前两者给予大权重分配分别为1和0.5,视觉损失和对抗损失为辅助损失,根据常用经验权重设定为0.01和5e-4。4. 实验
本节将介绍模型训练与测试所使用的数据集、运行环境、训练过程中所设定的参数和图像评价指标。同时为了证明本文模型的有效性,本章也会将本文模型结果与现存算法进行比较分析。
4.1 数据集
为了验证本文模型对于较困难的非均匀雾图的处理能力,本文选择了两个非均匀的公开雾图数据集NTIRE2020和NTIRE2021作为模型的训练数据集和测试集,其中NTIRE2020中包含了45张非均匀雾图,NTIRE2021包含了25张非均匀雾图,每张雾图都有对应的无雾图像。两个数据集图像都是真实场景雾图,使用此类数据集可以更好地验证算法模型在实际项目中的去雾效果,其中共70张图像选用60张用于训练,10张用于测试。
因选择的两个数据集属于同类型的数据,训练前将其合并作为单一数据集进行训练和测试,但由于两个数据集收集时的环境光不同,会造成图像亮度不同,模型在亮度不同、风格略有差异的图像中进行训练时会出现学习效率低下的问题。为了解决这个问题,两类数据集进行灰度直方图分析,然后对于整体灰度值较低的数据集进行伽马矫正,将两个数据集中图像的亮度保持一致,以便获得更好的网络训练效果。
4.2 训练设置
对于训练数据集,本文未使用过于繁杂的增强技术,仅采用了图像剪裁方法,将60对1600×1200大小的训练图像每张平均剪裁分为4张800×600大小的图像用于增加训练数据集的数量。网络中Adam优化器使用默认参数
β1 = 0.9,β2 = 0.999,学习率设定为1e-4,整体训练迭代次数为2000,batchsize为4,损失函数L1与L2的权重α1 和α2 分别为0.6和0.4。本文所有涉及模型运行环境均为英伟达GTX 1660 SUP,神经网络框架为Pytorch。4.3 实验结果
本实验对NTIRE2020和NTIRE2021两个真实世界雾图数据结合而成的数据集进行测试,并与近年的去雾方法进行定量和定性的比较,本文选取了3种评价标准,包括峰值信噪比(PSNR)、结构相似性(SSIM)和深度特征度量图像相似度(LPIPS),运行时间为算法对于单幅图像的导入、处理和保存的整体流程时间,如图2和表1所示。
表 1 3子网模型结果与主流去雾算法去雾图像数值比较表算法 指标 PSNR↑ SSIM↑ LPIPS↓ 运行时间 (s)↓ DCP 10.79 0.34 0.432 13.45 AOD-Net 11.67 0.38 0.471 3.39 GCA-Net 11.09 0.34 0.402 4.48 GDNet 13.56 0.58 0.473 3.02 DMSHN 12.05 0.31 0.376 2.96 MSBDN 12.05 0.32 0.478 5.14 本文 15.73 0.69 0.326 3.47 GT +∞ 1 0 × 由于算法DCP是基于先验知识设计的模型,去雾效果受到先验知识的限制,图像处理过程使用手工特征遍历图像,因此处理速度较为复杂缓慢,在非均匀雾图的情况下得到的图像出现了颜色偏移现象。AOD-Net和GCA-Net类似,都属于轻量级的神经网络,GCA-Net去雾视觉效果较好,但图像整体颜色偏深,而AOD-Net对于非均匀和浓雾部分处理效果较差。两者的PSNR较DCP有8.15%和2.78%的提升,但AOD-Net的SSIM有11.76%的提升。GDNet使用了U-Net作为主体框架进行去雾工作,结果中可以看出其去雾效果图未发生严重的色彩偏移,SSIM指标较前3算法均取得了提升,但其去雾图仍残留了较大面积的带雾部分。DMSHN框架设计目标为非均匀雾去除,结果图中展示了大面积雾区域的处理效果较好,小面积雾仍有残留。算法MSBDN对于浓雾区域无法进行图像复原,大面积的雾区域残留严重。
本文算法使用了迁移学习,将ImageNet的参数作为模型初始参数权重,以帮助模型明确训练方向,加速收敛速度,并使用3子网通过集成学习的方法构建模型。从结果图中可看出,本文算法对于非均匀雾图进行了完整的去雾,在3个图像评价指标上分别提升了16.01%, 18.96%和13.29%。图像中未出现大面积的残留雾区域,且色彩还原度较高。
3子网结构涵盖了包括整体、局部特征信息,其中整体特征子网主要注重图像全局特征和结构相关性方面信息学习,因此模型SSIM和LPIPS指标数值结果更佳,而局部特征信息子网侧重于像素级图像信息学习,对PSNR指标有着较大的提升作用。由于3子网模型组成部分中卷积、转置卷积和上下采样等大计算量和参数量的操作少于MSBDN,因此模型处理速度高于DCP和MSBDN等传统或复杂神经网络算法,却低于AOD-Net和DMSHN等简单网络层连接方式的端到端小计算量和参数量算法的处理时间。
4.4 消融实验
模型框架分为3个部分进行对比结果如图3和图4(整体与细节图),从(b)组图像中可以看出仅使用全局特征提取子网后的去雾图对比度较高,浓雾区域无法得到还原且色偏移严重。(c)组图像对于颜色和物体细节的还原度较高,但整体图像对比度仍然略高,真实性欠缺,浓雾处无法恢复或补充信息。本文方法整体颜色更加贴近于无雾图,浓雾处进行了丢失信息的补充,使得图像完整性提高,图像整体对比度偏低,符合现实生活中成像设备展现的风格。本文算法图对浓雾区域进行了信息补充,虽然复原程度仍然不充足,但在视觉感官上有着更佳的效果。
表2数据显示本文算法对比于前两种结构在PSNR和SSIM两个指标上分别取得了55.54%, 2.50%和17.37%, 1.22%的提升,证明了本文算法结合两种子网得到的图像整体信息特征更加均衡。但本文方法LPIPS指标落后于局部特征提取子网模型0.006,这是由于本文方法舍弃掉了部分局部特征模块。本文模型在保证了整体模型参数稳定的情况下,去雾图像质量相较全局特征提取子网和局部特征提取子网两者都有提升。
表 2 3子网模型结果与2子网去雾图像质量数值对比PSNR SSIM LPIPS 模型参数 全局特征提取子网 13.9719 0.6750 0.309 0.67M 局部特征提取子网 21.2036 0.7822 0.256 47.37M 本文算法 21.7329 0.7923 0.262 47.86M 5. 结束语
针对非均匀雾图去雾困难和算法模型泛化能力较差的问题,本文提出了一种基于迁移学习的多子网算法,通过结合全局特征提取子网、局部特征提取子网和残差子网,将图像中的物体颜色、轮廓和结构等特征信息进行提取并包含在网络学习的目标中。为了保证模型的运行速度和参数量,算法对3子网结合后进行了剪枝。通过迁移学习方法将预训练的ImageNet模型初始参数权重导入本文的网络中,使模型更加容易学习并达到预期性能,这种方法对于实际场景中的小数据集雾图环境更为友好,为小数据集雾图场景的去雾算法训练提供了更高的可行性。实验结果证明了本文算法模型的有效性和泛化能力得到了提升。后续工作中,算法可在迁移学习的基础上整合3子网的部分功能并进行信息共享和进一步模型剪枝,在不损失图像质量的前提下提高模型对于大批量实际场景雾图的处理效率。
-
表 1 3子网模型结果与主流去雾算法去雾图像数值比较表
算法 指标 PSNR↑ SSIM↑ LPIPS↓ 运行时间 (s)↓ DCP 10.79 0.34 0.432 13.45 AOD-Net 11.67 0.38 0.471 3.39 GCA-Net 11.09 0.34 0.402 4.48 GDNet 13.56 0.58 0.473 3.02 DMSHN 12.05 0.31 0.376 2.96 MSBDN 12.05 0.32 0.478 5.14 本文 15.73 0.69 0.326 3.47 GT +∞ 1 0 × 表 2 3子网模型结果与2子网去雾图像质量数值对比
PSNR SSIM LPIPS 模型参数 全局特征提取子网 13.9719 0.6750 0.309 0.67M 局部特征提取子网 21.2036 0.7822 0.256 47.37M 本文算法 21.7329 0.7923 0.262 47.86M -
[1] HOWARD J N. Scattering phenomena. (Book reviews: Optics of the atmosphere. Scattering by molecules and particles)[J]. Science, 1977, 196(4294): 1084–1085. doi: 10.1126/science.196.4294.1084.b [2] PIZER S M, AMBURN E P, AUSTIN J D, et al. Adaptive histogram equalization and its variations[J]. Computer Vision, Graphics, and Image Processing, 1987, 39(3): 355–368. doi: 10.1016/S0734-189X(87)80186-X [3] OPPENHEIM A V. Speech analysis-synthesis system based on homomorphic filtering[J]. The Journal of the Acoustical Society of America, 1969, 45(2): 458–465. doi: 10.1121/1.1911395 [4] ZHANG Dengsheng. Wavelet transform[M]. ZHANG Dengsheng. Fundamentals of Image Data Mining: Analysis, Features, Classification and Retrieval. Cham: Springer, 2021. [5] LAND E H. The retinex[J]. American Scientist, 1964, 52(2): 247–264. [6] HE Kaiming, SUN Jian, and TANG Xiaoou. Single image haze removal using dark channel prior[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(12): 2341–2353. doi: 10.1109/TPAMI.2010.168 [7] TAN R T. Visibility in bad weather from a single image[C]. 2008 IEEE Conference on Computer Vision and Pattern Recognition, Anchorage, USA, 2008: 1–8. [8] 杨燕, 王志伟. 基于均值不等关系优化的自适应图像去雾算法[J]. 电子与信息学报, 2020, 42(3): 755–763. doi: 10.11999/JEIT190368YANG Yan and WANG Zhiwei. Adaptive image Dehazing algorithm based on mean unequal relation optimization[J]. Journal of Electronics &Information Technology, 2020, 42(3): 755–763. doi: 10.11999/JEIT190368 [9] RAIKWAR S C and TAPASWI S. Lower bound on transmission using non-linear bounding function in single image Dehazingin[J]. IEEE Transactions on Image Processing, 2020, 29: 4832–4847. doi: 10.1109/TIP.2020.2975909 [10] 潘金山. 基于深度学习的图像去模糊方法研究进展[J]. 计算机科学, 2021, 48(3): 9–13. doi: 10.11896/jsjkx.201200043PAN Jinshan. Research progress on deep learning-based image deblurring[J]. Computer Science, 2021, 48(3): 9–13. doi: 10.11896/jsjkx.201200043 [11] CAI Bolun, XU Xiangmin, JIA Kui, et al. DehazeNet: An end-to-end system for single image haze removal[J]. IEEE Transactions on Image Processing, 2016, 25(11): 5187–5198. doi: 10.1109/TIP.2016.2598681 [12] LI Boyi, PENG Xiulian, WANG Zhangyang, et al. AOD-Net: All-in-one dehazing network[C]. 2017 IEEE International Conference on Computer Vision, Venice, Italy, 2017. [13] ZHANG He and PATEL V M. Densely connected pyramid dehazing network[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 3194–3203. [14] LIU Xiaohong, MA Yongrui, SHI Zhihao, et al. GridDehazeNet: Attention-based multi-scale network for image dehazing[C]. 2019 IEEE/CVF International Conference on Computer Vision (ICCV), Seoul, Korea (South), 2019: 7313–7322. [15] DONG Hang, PAN Jinshan, XIANG Lei, et al. Multi-scale boosted dehazing network with dense feature fusion[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Seattle, USA, 2020: 2154–2164. [16] ZHAO Shiyu, ZHANG Lin, SHEN Ying, et al. RefineDNet: A weakly supervised refinement framework for single image dehazing[J]. IEEE Transactions on Image Processing, 2021, 30: 3391–3404. doi: 10.1109/TIP.2021.3060873 [17] YU Yankun, LIU Huan, FU Minghan, et al. A two-branch neural network for non-homogeneous dehazing via ensemble learning[C]. 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, Nashville, USA, 2021: 193–202. [18] SHAO Yuanjie, LI Lerenhan, REN Wenqi, et al. Domain adaptation for image dehazing[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Seattle, USA, 2020: 2808–2817. [19] DONG Yu, LIU Yihao, ZHANG He, et al. FD-GAN: Generative adversarial networks with fusion-discriminator for single image dehazing[C]. 34th AAAI Conference on Artificial Intelligence, New York, USA, 2020: 10729–10736. [20] FU Minghan, LIU Huan, YU Yankun, et al. DW-GAN: A discrete wavelet transform GAN for NonHomogeneous dehazing[C]. 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, Nashville, USA, 2021: 203–212. [21] LI Yuenan, LIU Yuhang, YAN Qixin, et al. Deep dehazing network with latent ensembling architecture and adversarial learning[J]. IEEE Transactions on Image Processing, 2021, 30: 1354–1368. doi: 10.1109/TIP.2020.3044208 [22] 汤勇明, 戴荣时, 俞峰, 等. 视频图像去雾算法的自适应机制设计及FPGA加速实现[J]. 电子与信息学报, 2021, 43(9): 2542–2551. doi: 10.11999/JEIT200554TANG Yongming, DAI Rongshi, YU Feng, et al. Design of adaptive video image dehazing algorithm and FPGA accelerated implementation[J]. Journal of Electronics &Information Technology, 2021, 43(9): 2542–2551. doi: 10.11999/JEIT200554 [23] DENG Jia, DONG Wei, SOCHER R, et al. ImageNet: A large-scale hierarchical image database[C]. 2009 IEEE Conference on Computer Vision and Pattern Recognition, Miami, USA, 2009: 248–255. [24] GAO Shanghua, CHENG Mingming, ZHAO Kai, et al. Res2Net: A new multi-scale backbone architecture[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 43(2): 652–662. doi: 10.1109/TPAMI.2019.2938758 [25] YU F and KOLTUN V. Multi-scale context aggregation by dilated convolutions[J]. arXiv: 1511.07122, 2015. 期刊类型引用(0)
其他类型引用(2)
-