Motion Defocus Infrared Image Restoration Based on Multi Scale Generative Adversarial Network
-
摘要:
红外热成像系统在夜间实施目标识别与检测优势明显,而移动平台上动态环境所导致的运动散焦模糊影响上述成像系统的应用。该文针对上述问题,基于生成对抗网络开展运动散焦后红外图像复原方法研究,采用生成对抗网络抑制红外图像的运动散焦模糊,提出一种针对红外图像的多尺度生成对抗网络(IMdeblurGAN)在高效抑制红外图像运动散焦模糊的同时保持红外图像细节对比度,提升移动平台上夜间目标的检测与识别能力。实验结果表明:该方法相对已有最优模糊图像复原方法,图像峰值信噪比(PSNR)提升5%,图像结构相似性(SSIMx)提升4%,目标识别YOLO置信度评分提升6%。
Abstract:Infrared thermal imaging system has obvious advantages in target recognition and detection at night, and the motion defocus blur caused by dynamic environment on mobile platform affects the application of the above imaging system. In order to solve the above problems, based on the research of infrared image restoration method after motion defocusing using generating confrontation network, a Infrared thermal image Multi scale deblurGenerative Adversarial Network (IMdeblurGAN) is proposed to suppress motion defocusing blurring effectively while preserving the image by using generating confrontation network to suppress the motion defocusing blurring of infrared image to hold the contrast of infrared image details, to improve the detection and recognition ability of night targets on motion platform. The experimental results show that compared with the existing optimal restoration methods for blurred images, Peak Signal to Noise Ratio (PSNR) of the image is increased by 5%, the Structure SIMilarity (SSIM) is increased by 4%, and the confidence score of YOLO for target recognition is increased by 6%.
-
1. 引言
夜间目标探测方面,目前存在大量搭载红外热成像设备的移动平台如车辆,无人机,舰艇等。该类平台自身的移动与目标的运动易造成抓拍的红外图像存在运动散焦模糊,进而影响夜间环境下目标的识别与检测[1]。
对于运动散焦模糊的图像复原,经典方法包括Wiener逆滤波算法,LR(Lucy-Richardson)迭代去卷积算法等,该类算法特点在于需要根据点扩散函数(Point Spread Function, PSF)的模糊长度与模糊角度对运动模糊图像进行还原,实际情况下,对这两个参数估计的不理想会造成还原效果不佳。近年来基于深度学习的图像处理方法广泛运用,使用深度学习可对运动模糊图像进行效果较为理想的盲还原,Kupyn等人[2]于CVPR2017大会上提出基于生成对抗网络(Generative Adversarial Networks, GAN)的去模糊网络DeblurGAN。生成对抗网络可以保存影像的细节纹理特征,作者利用这个特点,结合GAN和多元内容损失来构建DeblurGAN,以实现对运动图像的去模糊化,由于采用对抗网络进行端对端的训练,以及对细节纹理的保存,在视觉效果上使用DeblurGAN复原的运动模糊图像表现相对传统方法更加优良。TAO等人[3]于CVPR2018大会上提出一种多尺度深度神经网络SRN-DeblurNet,能高效地去除图像运动散焦模糊,去模糊效果为目前主流方法中最佳。然而相比可见光图像,红外图像细节对比度较低,缺乏色彩特征,直接使用上述方法去除红外图像的运动散焦模糊易导致红外图像细节的损失。
在深度学习技术进行红外图像复原与重建方面,生成对抗网络得到了广泛应用,He等人[4]于2018年提出了一种非制冷红外探测器中的不均匀性校正方法,采用了生成对抗网络的端对端训练模式很好地解决了红外图像采集过程中的非均匀性。邵宝泰等人[5]于2018年提出了使用SRGAN生成对抗网络提升红外图像分辨率的方法,该方法在SRGAN基础上增加了损失函数分量,使生成的单帧超分辨率红外图像具备更好的视觉效果。因此,设计一种基于生成对抗网络的方法进行运动散焦红外图像的复原有着重要实用价值。
红外图像相对可见光图像具有分辨率较低,缺乏色彩特征,目标与背景细节对比度较低的特点,运动散焦红外图像盲还原需考虑以下两个问题:(1)去除运动散焦模糊的效果;(2)红外图像细节特征的保留。本文针对动态环境中运动散焦红外图像还原问题的特点,提出了一种针对红外图像的多尺度去模糊生成对抗网络(Infrared thermal image Multi scale deblurGAN, IMdeblurGAN),该网络在生成网络设计环节参考文献[6]的网络构架设计了一种多尺度回归结构,以达到理想的去模糊效果,每个尺度上的卷积神经网络构架参考文献[4]结构进行改进设计,改进的基本思路为,由于红外图像缺乏高分辨率语义特征,因此在生成网络部分,提取浅层卷积层语义与深层网络语义特征相融合以最大程度保留红外图像细节对比度。同时对网络损失函数进行改进,分为尺度内容损失与对抗损失两部分,使其更适宜于多尺度生成网络训练。最后通过实验验证,本文方法相对目前先进方法在对运动散焦红外图像的还原方面具备更好的性能与效果。
2. 运动散焦红外图像复原方法
2.1 图像退化模型
在移动平台动态环境下采集抓拍的红外图像,主要存在两种类型的模糊:运动模糊和散焦模糊。而多数情况下,由于移动抓拍的动态性,易产生融合以上两种模糊的复合型模糊,运动散焦模糊。因此,采用图像退化模型为
G(x,y)=g(x,y)⋅h(x,y) (1) 式中,G(x, y)为退化图像。h(x, y)为散焦点扩散函数,对于散焦模糊类型,由几何光学分析可知其点扩散函数近似为一个半径R的圆盘模型。散焦模糊轨迹(R=2.3)如图1所示。
g(x,y)为运动模糊图像,表达式为
g(x,y)=T∫0f[(x−x0(t)),(y−y0(t))]dt (2) 式中,f(x,y)为原始清晰图像,x0(t)与y0(t)分别为在x和y方向上随时间变化的量。
2.2 图像复原方法
通常情况下,移动平台无法提供模糊核与拍摄设备的运动信息,因此利用对抗训练更有利于实际情况下的运动散焦模糊红外图像的盲复原。生成对抗网络GAN是Goodfellow等人[7]于2014年提出的一个通过对抗过程估计生成模型的新框架。它是一种深度学习模型,是近年来复杂分布上无监督学习最具前景的方法之一。模型通过框架中两个模块:生成模型(Generative model)和判别模型(Discriminative model)的互相博弈学习产生相当好的输出,运用中使用深度神经网络作为G和D。
本文提出的多尺度去模糊生成对抗网络IMdeblurGAN,使用生成对抗网络进行运动散焦的红外图像盲复原,总体结构如图2所示。
方法基本原理为:退化图像作为生成网络(G)输入,生成网络输出还原图像产生还原图像样本集,该样本集与原始清晰图像样本集作为判别网络(D)输入,网络进行端对端对抗训练,通过判别结果不断更新生成网络,直至判别网络输出判别结果为真,即无法判别还原图像来自于还原图像样本集,训练得出的模型将有效还原运动散焦红外图像[8]。
2.3 网络结构
生成网络(G)作用在于去除退化图像的运动散焦模糊,生成还原图像,对于红外图像的处理在去除模糊的同时需考虑保留红外图像较低的对比度,根据红外图像去除运动散焦模糊的要求,在文献[6]基础上提出了一种多尺度回归卷积神经网络有效去除红外图像运动散焦模糊,红外图像由于其低分辨率,细节模糊特点,浅层卷积层反映其有效特征较多,而深层卷积层提取特征易引入视野噪声,因此每个尺度卷积神经网络增加池化层(Pooling layer),反卷积层(Denconv layer),全连接层(Concat layer))将首个卷积层提取特征与深层卷积层提取特征相融合,有效利用浅层卷积层特征以最大程度保留红外图像细节对比度[9-14],生成器网络结构如图3所示。
为提高去除运动散焦模糊效果,生成网络需得到图像不同层次特征,形成一种金字塔型多尺度回归结构,均衡特征提取精度与网络收敛难度,选取尺度为3构建由粗到细的多尺度金字塔网络结构,分别为粗粒度层,中间层与精细层,每一尺度输出通过2倍升采样作为下一尺度首个卷积层输入,输入/输出高斯金字塔图像块分辨率分别是64×64, 128×128和256×256。
每一尺度上的深度卷积神经网络针对保留红外图像细节对比度的要求。在首个卷积层后插入池化层,扩大图像特征接收范围。在最后一个卷积层后插入反卷积层,恢复图像原始空间分辨率。其后插入全连接层,拼接特征图,输出采用tanh函数提升数据集收敛速度。每个尺度上的深度卷积网络由29个(Conv)卷积层,26个(Istancenorm)规范化层,26个(ReLU)激活函数,1个(Pooling)池化层,1个(Deconv)反卷积层,1个(Concat)组成。金字塔型生成网络3个尺度上共包括87个卷积层,能够全面地学习红外图像特征。
判别网络(D)作用在于区别原始清晰红外图像与生成网络生成的还原图像,参考文献[5]设计了如图4所示的判别网络。
该判别网络采用6个卷积层提取图像特征,7个激活函数,将提取到的特征经过两个连接层拼接后使用Sigmoid函数输出样本分类概率。对于文中所使用的多尺度回归结构生成网络,需使用该判别网络对每个尺度上的生成网络结果进行判别[15-18]。
为提高网络训练效率,网络参数初始化采用迁移学习方式,使用VGG19图像感知模型在图像集ImageNet中训练VGG19网络并结合多尺度模型训练所得的模型初始化本文对抗网络参数。
2.4 损失函数
损失函数的定义对于生成对抗网络性能至关重要,生成模型训练过程本质在于对损失函数的不断优化。对于多尺度生成对抗网络而言,文献[3]中使用Euclid损失函数,表达式为
L=n∑i=1kiNi||Ii−I∗i||2 (3) 式中,
Ii 与Ii∗ 分别为在尺度i上的网络输出与真实样本,{ki }为第i个尺度上的权重,Ni 为网络输出在尺度i上的归一化输出。该方法运算消耗较大,收敛速度较慢,且对噪声敏感。为改善多尺度生成对抗网络训练效果与收敛速度,采用改进损失函数。改进的总损失函数由两部分构成:尺度内容损失与对抗损失。表达式为
L=LGAN+λ×LCONT (4) 式中,
LGAN 为对抗损失,LCONT 为尺度内容损失,λ 为权重常数,取100。为降低损失函数运算量,减小噪声影响,尺度内容损失函数采用感知损失计算方法,计算生成图像与目标图像特征映射差异,表达式为
LCONT=K∑k=1Wi∑x=1(ϕi(Lk)x−ϕi(Sk)x)22ckWi (5) 式中,
ϕi 为生成网络中第i个卷积层后获得的特征映射,Wi 为特征映射维度,k为当前尺度,Lk 为k层模型输出,Sk 为k层真实参考图像,ck 为k层归一化处理因子。同时,为改善多尺度对抗训练带来的收敛速度慢,梯度消失现象,结合梯度惩罚项,将对抗损失函数部分进行改善,表达式为
LGAN=−K∑k=1D(G(Ik)) (6) 式中,G为生成网络,k为当前尺度,
Ik 为当前尺度下模型输入,D为判别网络。3. 实验结果及分析
3.1 实验平台
实验数据采集平台为普雷德G35氧化钒384×288分辨率机芯,35 mm镜头户外热成像探测仪。模型训练与验证使用硬件平台为:Core i7-8750H 2.2 GHz处理器,16 GB内存,Geforce GTX 1080 8 GB显卡,软件平台为:Win10+tensorflow1.9.0, CUDA9.2, VS2017, Opencv4.0。
3.2 实验数据与模型训练
由于公开的红外热成像数据集较少,本文采用CVC09/14数据集中红外部分结合户外热像仪实际采集的红外图像自建红外数据集,自建红外数据集包含行人、车辆、建筑、街景等红外热成像图像。
在自建红外数据集中截取8000幅剪裁大小为720×720的图像作为原始清晰图像样本。根据文献[3,4]与实际测试,对于720×720的红外图像运动退化可复原极限范围为水平/垂直方向上正/负70像素,散焦退化可复原极限散焦半径范围为3.5。据此,对清晰图像样本进行运动散焦退化处理得到模糊图像样本集,退化处理根据式(2)选用水平方向x0(t)随机平移(–70~70)像素,垂直方向y0(t)随机平移(–70~70)像素得到运动模糊样本,再根据式(1)选取点扩散函数半径随机分布(1.8~3.5)得到运动散焦模复合型样本。最终形成8000对红外图像样本集。
样本集划分6500对图像为训练集,1500对图像为测试集,开展端对端对抗训练。对抗训练过程中,使用ADAM优化器,初始学习率设置为10–4,迭代次数(epochs)2000次后,网络收敛效果理想[19,20]。
3.3 评价指标
本文采用以下几条指标进行运动散焦红外图像还原性能评价:
(1) 还原图像与真实清晰图像的峰值信噪比(PNSR)计算式为
PSNR=20lg(MAXI√1mnm−1∑i=0n−1∑j=0||I(i,j)−K(i,j)||2) (7) 式中,I, K分别为m×n大小的原始图像与对比图像,MAXI表示图像点颜色最大值。还原图像对比原始清晰图像峰值信噪比越高,代表还原效果越好。
(2) 还原图像与真实清晰图像的结构相似性(SSIM)计算如式(8)
SSIM(x,y)=[2μxμy+(k1L)2][2σxy+(k2L)2][μx2+μy2+(k1L)2][σx2+σy2+(k2L)2] (8) 式中,
μx,μy 分别为图像x, y的均值,σx,σy,σxy 分别为图像x, y的方差与协方差,k1, k2为稳定常数,L为像素值动态范围,当两幅图像完全一致时,SSIM为1。(3) 复原图像与真实清晰图像的主观视觉细节效果对比。
(4) 对存在特定目标的红外图像复原效果,引入YOLO置信度评价机制,对比原始清晰图像中特定目标预测置信度与还原图像中特定目标的预测置信度。对特定目标预测置信度越接近于原始清晰图像中目标预测置信度,即复原效果越好。
3.4 实验结果分析
随机选取500幅自建红外数据集中的红外图像进行退化处理,分别使用经典去运动模糊的代表性方法:Wiener逆滤波,LR迭代去卷积。最新深度学习去运动模糊代表性方法:DeblurGAN, SRN-DeblurNet与本文所提出的IMdeblurGAN进行红外图像复原对比,部分处理结果如图5所示。
由图5测试对比结果可见,使用经典去运动模糊方法Wiener逆滤波与LR迭代去卷积由于先验点扩散函数不能准确估计,因此在对运动散焦红外图像进行盲复原效果较差,而使用DeblurGAN复原方法一定程度上复原运动散焦模糊的红外图像,但效果有限,使用SRN-DeblurNet方法与本文提出的IMdeblurGAN方法复原运动散焦红外图像效果较为理想。由表1性能对比分析进一步可见,本文提出的IMdeblurGAN在平均PSNR上高于DeblurGAN方法5 dB,高于SRN-DeblurNet方法1.5 dB,在平均SSIM上高于DeblurGAN方法0.17,高于SRN-DeblurNet方法0.04。由此可见本文提出方法在该两项指标上相对已知代表性方法表现更为优良。
表 1 复原性能对比分析复原方法 平均峰值信噪比 (dB) 平均结构相似性 Wiener 21.3 0.62 LR 22.5 0.65 DeblurGAN 27.0 0.75 SRN-DeblurNet 30.5 0.88 本文IMdeblurGAN 32.0 0.92 复原图像与真实清晰图像的主观视觉细节效果对比。选取一副使用上述5种方法复原的退化图像并截取图像细节进行对比,测试结果如图6所示。
由图6细节复原视觉效果对比测试可见,使用经典方法Wiener逆滤波与LR迭代去卷积对运动散焦红外图像进行复原,细节还原度上效果较差,主观视觉还原效果不明显,DeblurGAN复原方法在红外图像细节复原上主观视觉细节效果有一定提升,而SRN-DeblurNet方法与本文提出的IMdeblurGAN方法复原运动散焦红外图像细节主观视觉效果较为理想,通过仔细观察,可以发现在图像复原细节方面本文方法细节对比度相对SRN-DeblurNet更为突出。
红外热成像系统重要的功能在于夜间目标检测与识别,特别在全黑环境下目标的智能检测应用领域,抓拍图像如存在运动散焦将影响目标识别效果,为验证复原方法对存在运动散焦情况下抓拍的红外图像目标检测与识别的方面的改善,本文引入深度学习目标识别网络YOLO V3对存在特定目标的红外图像进行目标置信度预测,以预测置信度评价运动散焦图像,与各种方法复原图像对存在模糊情况下对夜间目标识别的影响,测试结果如图7所示。
由图7置信度对比测试可见,原始清晰图像人体置信度达到最高值,存在运动散焦模糊的红外图像无法识别人体目标,使用经典方法进行复原的红外图像由于复原效果较差,无法识别人体目标,而使用3种基于深度学习的方法进行复原的红外图像均可恢复对人体目标的识别。由表2分析可见,原始清晰图像人体目标所获置信度最高为0.97,复原图像中,本文方法所获置信度为0.95,最接近于原始图像中的目标置信度,本文方法的复原图像中对特定目标识别置信度高于DeblurGAN方法复原图像18%,高于SRN-DeblurNet方法复原图像6%,由此可见,本文方法复原运动散焦红外图像相对采用已有代表性方法复原,对存在运动散焦情况下的夜间目标自动检测改善程度最佳。
表 2 YOLO V3置信度对比分析原始图像 运动散焦图像 Wiener逆滤波 LR迭代去卷积 DeblurGAN SRN-DeblurNet 本文IMdeblurGAN YOLOV3 评分 0.97 不能识别 不能识别 不能识别 0.77 0.89 0.95 4. 结束语
为去除搭载于移动平台上红外热成像系统抓拍图像存在的运动散焦模糊,本文提出了一种针对红外图像的多尺度生成对抗网络(IMdeblurGAN),该网络设计了一种多尺度回归生成网络结构,每个尺度上的卷积神经网络构架结构进行优化设计,设计了判别网络,对网络损失函数进行改进。通过实验分析验证,本文方法相比已知最优方法SRN-DeblurNet在复原运动失焦模糊红外图像方面,峰值信噪比提升5%,结构一致性提升4%,复原图像主观视觉细节效果进一步提升,YOLO置信度评价机制下,本文方法复原图像获得与原始清晰图像最相近的目标检测置信度。本文方法对于运动散焦红外图像的复原,有着很高的应用价值。
-
表 1 复原性能对比分析
复原方法 平均峰值信噪比 (dB) 平均结构相似性 Wiener 21.3 0.62 LR 22.5 0.65 DeblurGAN 27.0 0.75 SRN-DeblurNet 30.5 0.88 本文IMdeblurGAN 32.0 0.92 表 2 YOLO V3置信度对比分析
原始图像 运动散焦图像 Wiener逆滤波 LR迭代去卷积 DeblurGAN SRN-DeblurNet 本文IMdeblurGAN YOLOV3 评分 0.97 不能识别 不能识别 不能识别 0.77 0.89 0.95 -
崔美玉. 论红外热像仪的应用领域及技术特点[J]. 中国安防, 2014(12): 90–93. doi: 10.3969/j.issn.1673-7873.2014.12.026CUI Meiyu. On the application field and technical characteristics of infrared thermal imager[J]. China Security &Protection, 2014(12): 90–93. doi: 10.3969/j.issn.1673-7873.2014.12.026 KUPYN O, BUDZAN V, MYKHAILYCH M, et al. DeblurGAN: Blind motion deblurring using conditional adversarial networks[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 8183–8192. TAO Xin, GAO Hongyun, SHEN Xiaoyong, et al. Scale-recurrent network for deep image deblurring[C]. The 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 8174–8182. HE Zewei, CAO Yanpeng, DONG Yafei, et al. Single-image-based nonuniformity correction of uncooled long-wave infrared detectors: A deep-learning approach[J]. Applied Optics, 2018, 57(18): D155–D164. doi: 10.1364/AO.57.00D155 邵保泰, 汤心溢, 金璐, 等. 基于生成对抗网络的单帧红外图像超分辨算法[J]. 红外与毫米波学报, 2018, 37(4): 427–432. doi: 10.11972/j.issn.1001-9014.2018.04.009SHAO Baotai, TANG Xinyi, JIN Lu, et al. Single frame infrared image super-resolution algorithm based on generative adversarial nets[J]. Journal of Infrared and Millimeter Wave, 2018, 37(4): 427–432. doi: 10.11972/j.issn.1001-9014.2018.04.009 刘鹏飞, 赵怀慈, 曹飞道. 多尺度卷积神经网络的噪声模糊图像盲复原[J]. 红外与激光工程, 2019, 48(4): 0426001. doi: 10.3788/IRLA201948.0426001LIU Pengfei, ZHAO Huaici, and CAO Feidao. Blind deblurring of noisy and blurry images of multi-scale convolutional neural network[J]. Infrared and Laser Engineering, 2019, 48(4): 0426001. doi: 10.3788/IRLA201948.0426001 BOUSMALIS K, SILBERMAN N, DOHAN D, et al. Unsupervised pixel-level domain adaptation with generative adversarial networks[C]. The 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 95–104. 李凌霄, 冯华君, 赵巨峰, 等. 红外焦平面阵列的盲元自适应快速校正[J]. 光学精密工程, 2017, 25(4): 1009–1018. doi: 10.3788/OPE.20172504.1009LI Lingxiao, FENG Huajun, ZHAO Jufeng, et al. Adaptive and fast blind pixel correction of IRFPA[J]. Optics and Precision Engineering, 2017, 25(4): 1009–1018. doi: 10.3788/OPE.20172504.1009 DONG Chao, LOY C, HE Kaiming, et al. Learning a deep convolutional network for image super-resolution[C]. The 13th European Conference on Computer Vision, Zurich, Switzerland, 2014: 184–199. EFRAT N, GLASNER D, APARTSIN A, et al. Accurate blur models vs. image priors in single image super-resolution[C]. The 2013 IEEE International Conference on Computer Vision, Sydney, Australia, 2013: 2832–2839. HE Anfeng, LUO Chong, TIAN Xinmei, et al. A twofold Siamese network for real-time object tracking[C]. The 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 4834–4843. LIN Zhouchen and SHUM H Y. Fundamental limits of reconstruction-based superresolution algorithms under local translation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004, 26(1): 83–97. doi: 10.1109/TPAMI.2004.1261081 杨阳, 杨静宇. 基于显著性分割的红外行人检测[J]. 南京理工大学学报, 2013, 37(2): 251–256.YANG Yang and YANG Jingyu. Infrared pedestrian detection based on saliency segmentation[J]. Journal of Nanjing University of Science and Technology, 2013, 37(2): 251–256. PINNEGAR C R and MANSINHA L. Time-local spectral analysis for non-stationary time series: The S-transform for noisy signals[J]. Fluctuation and Noise Letters, 2003, 3(3): L357–L364. doi: 10.1142/S0219477503001439 CAO Yanpeng and TISSE C L. Single-image-based solution for optics temperature-dependent nonuniformity correction in an uncooled long-wave infrared camera[J]. Optics Letters, 2014, 39(3): 646–648. doi: 10.1364/OL.39.000646 REAL E, SHLENS J, MAZZOCCHI S, et al. YouTube-boundingboxes: A large high-precision human-annotated data set for object detection in video[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 7464–7473. WU Yi, LIM J, and YANG M H. Online object tracking: A benchmark[C]. The 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, USA, 2013: 2411–2418. doi: 10.1109/CVPR.2013.312. WANG Zhou, BOVIK A C, SHEIKH H R, et al. Image quality assessment: From error visibility to structural similarity[J]. IEEE Transactions on Image Processing, 2004, 13(4): 600–612. doi: 10.1109/TIP.2003.819861 KIM J, LEE J K, and LEE K M. Accurate image super-resolution using very deep convolutional networks[C]. The 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 1646–1654. doi: 10.1109/CVPR.2016.182. KRIZHEVSKY A, SUTSKEVER I, and HINTON G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84–90. doi: 10.1145/3065386 期刊类型引用(13)
1. 张天骐,周琳,梁先明,徐伟. 基于Blob-Harris特征区域和NSCT-Zernike的鲁棒水印算法. 电子与信息学报. 2021(07): 2038-2045 . 本站查看
2. 陆金江. 基于深度卷积神经网络的模糊字迹图像识别方法. 佳木斯大学学报(自然科学版). 2021(05): 42-46 . 百度学术
3. 黄媛. 数字视频图像加密域水印嵌入鲁棒性评估仿真. 计算机与数字工程. 2018(05): 1012-1016+1057 . 百度学术
4. 石慧,冯斌,王相海,李明楚,宋传鸣. 用于盗版追踪的格雷码加密域可逆水印研究. 中国图象图形学报. 2018(11): 1635-1651 . 百度学术
5. 石红芹,余鹰,王艳. 基于NSCT和压缩感知的数字图像水印算法. 包装工程. 2017(11): 176-180 . 百度学术
6. 邱育桥. 基于智能图像视觉的船舱内部监控与识别. 舰船科学技术. 2017(04): 178-180 . 百度学术
7. 孙丽,高娜. 密文域下3D激光雷达图像认证方法研究. 激光杂志. 2017(07): 151-155 . 百度学术
8. 陈建辉. 混合云环境下基于椭圆曲线加密的隐私保护模型. 微电子学与计算机. 2017(08): 128-132 . 百度学术
9. 丛红艳. 基于多帧二维动画图像的三维自动生成技术. 现代电子技术. 2017(18): 98-100 . 百度学术
10. 肖迪,马青青,王兰,向艳萍. 基于稀疏表示的云协助安全数字水印技术. 信息网络安全. 2017(01): 1-7 . 百度学术
11. 刘艳波. 基于JPEG图像的改进小波变换信息隐藏算法. 北华大学学报(自然科学版). 2017(05): 697-700 . 百度学术
12. 吴秋玲,吴蒙. 基于小波变换的语音信息隐藏新方法. 电子与信息学报. 2016(04): 834-840 . 本站查看
13. 姚军财,刘贵忠. 一种基于人眼对比度敏感视觉特性的图像自适应量化方法. 电子与信息学报. 2016(05): 1202-1210 . 本站查看
其他类型引用(30)
-