高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

结合可逆神经网络和逆梯度注意力的抗屏摄攻击水印方法

李谢华 娄芹 杨俊雪 廖鑫

李谢华, 娄芹, 杨俊雪, 廖鑫. 结合可逆神经网络和逆梯度注意力的抗屏摄攻击水印方法[J]. 电子与信息学报, 2024, 46(7): 3046-3053. doi: 10.11999/JEIT230953
引用本文: 李谢华, 娄芹, 杨俊雪, 廖鑫. 结合可逆神经网络和逆梯度注意力的抗屏摄攻击水印方法[J]. 电子与信息学报, 2024, 46(7): 3046-3053. doi: 10.11999/JEIT230953
Tang Hai-rong, Xiang Mao-sheng, Wu Yi-rong, Zhu Min-hui, Jin Wei-qi. A Noise Analysis Method to Evaluate Image Quality of Optical Satellites[J]. Journal of Electronics & Information Technology, 2004, 26(3): 370-374.
Citation: LI Xiehua, LOU Qin, YANG Junxue, LIAO Xin. Screen-Shooting Resilient Watermarking Scheme Combining Invertible Neural Network and Inverse Gradient Attention[J]. Journal of Electronics & Information Technology, 2024, 46(7): 3046-3053. doi: 10.11999/JEIT230953

结合可逆神经网络和逆梯度注意力的抗屏摄攻击水印方法

doi: 10.11999/JEIT230953
基金项目: 国家自然科学基金(U22A2030, 61972142),湖南省自然科学基金(2021JJ30140),湖南省杰出青年科学基金(2024JJ2025),长沙市科技重大专项经费(kh2205033)
详细信息
    作者简介:

    李谢华:女,助理教授,研究方向为大数据安全、云计算与存储系统安全、图像与文本可搜索加密

    娄芹:女,硕士生,研究方向为数字水印、人工智能安全

    杨俊雪:女,博士生,研究方向为信息隐藏、人工智能安全

    廖鑫:男,教授,研究方向为多媒体安全、数字取证、人工智能安全

    通讯作者:

    李谢华 beverly@hnu.edu.cn

  • 中图分类号: TN911.73; TP309

Screen-Shooting Resilient Watermarking Scheme Combining Invertible Neural Network and Inverse Gradient Attention

Funds: The National Natural Science Foundation of China (U22A2030, 61972142), Hunan Provincial Natural Science Foundation (2021JJ30140), Hunan Provincial Funds for Distinguished Young Scholars (2024JJ2025), Changsha Science and Technology Major Project (kh2205033)
  • 摘要: 随着智能设备的普及,数字媒体内容的传播和分享变得更加便捷,人们可以通过手机拍摄屏幕等简单方式轻松获取未经授权的信息,导致屏幕拍摄传播成为版权侵权的热点问题。为此,该文针对屏幕盗摄版权保护任务提出一种端到端的基于可逆神经网络和逆梯度注意力的抗屏摄攻击图像水印框架,实现屏幕盗摄场景下版权维护的目标。该文将水印的嵌入和提取视为相互关联的逆问题,利用可逆神经网络实现编解码网络的一体化,有助于减少信息传递损失。进一步地,通过引入逆梯度注意模块,捕捉载体图像中鲁棒性强且视觉质量高的像素值,并将水印信息嵌入到载体图像中不易被察觉和破坏的区域,保证水印的不可见性和模型的鲁棒性。最后,通过可学习感知图像块相似度(LPIPS)损失函数优化模型参数,指导模型最小化水印图像感知差异。实验结果表明,所提方法在鲁棒性和水印图像视觉质量上优于目前同类的基于深度学习的抗屏摄攻击水印方法。
  • 拍摄图像时,相机与物体的相对运动往往会造成图像模糊,严重影响图像在实际生活中的应用效果。图像去模糊作为一种改善图像质量的方式,广泛应用于医学图像、交通监控等领域。图像去模糊是图像处理中典型的病态反问题,旨在从模糊图像中恢复出相应的清晰图像。近年来,这项技术受到广泛的关注和研究,但由于现实场景中模糊核的复杂多变性,从真实模糊图像中恢复清晰图像仍具有挑战性。

    图像去模糊过程可看作从解空间中寻找最优解的过程,传统方法利用不同的自然图像先验(如L0-范数梯度先验[1])约束解空间,通过最大后验估计模型的迭代寻找最优解。然而传统方法中采用的迭代优化方式计算繁琐,实时性差;且过于简单的模糊模型假设会导致模糊核的不准确估计,降低算法性能。近年来,随着深度学习的发展,卷积神经网络(Convolutional Neural Networks, CNN)广泛地应用于图像去模糊领域。根据图像块信息,Sun等人[2]利用CNN预测图像的局部模糊核,通过非盲解卷积去除非均匀运动模糊。Gong等人[3]利用全卷积网络估计模糊图像的运动场,从估计的运动场中恢复清晰图像。Nah等人[4]提出一种端到端(无核估计)的图像处理方法,该方法遵循由粗到精的思想,逐步恢复清晰图像。Kupyn等人[5]采用带有梯度惩罚和感知损失的Wasserstein GAN(Wasserstein Generative Adversarial Networks)去除运动模糊,恢复更多的纹理信息。Kupyn等人[6]进一步改进网络,将特征金字塔网络作为DeblurGAN-v2(Deblurring Generative Adversarial Networks Version 2)的核心构建块,此网络可与各种骨干网络配合使用,在性能和效率之间取得平衡。Tao等人[7]提出尺度递归的思想,利用不同尺度的图像共同训练网络,实现网络参数共享,运动去模糊效果显著。梁晓萍等人[8]利用头脑风暴优化算法自动搜寻BP(Back Propagation)神经网络更佳的初始权值和阈值,提升网络性能。

    近期的研究主要从改进网络结构、引入多尺度和增大感受野等角度改善图像重建算法的性能。Tao等人[7]引入网络参数共享机制,在减少参数的同时获得更好的效果。Ronneberger等人[9]提出一种编-解码结构的网络(Unet网络),充分利用上下文信息,在图像语义分割中获得较好的性能。Nah等人[4]将多尺度应用到去模糊网络中,逐渐去除不同程度的模糊。Chen等人[10]将平滑的扩张卷积嵌入到网络中,在保持参数量不变的情况下,通过增大感受野提高区域性能,但随着网络深度的增加,扩张卷积仅考虑使用棋盘格模式对位置进行稀疏采样,从而导致部分信息丢失[11]。Jin等人[12]采用重采样卷积操作确保网络的第1层就具有大的感受野,但是随着图像尺寸的增加,网络的效率大幅降低,且没有增加图像特征的稀疏性。

    受上述研究的启发,本文提出一种基于深度多级小波变换的图像盲去模糊算法,在小波域下学习模糊图像和清晰图像4个子带之间的映射关系,以端到端的方式实现动态场景去模糊。本文的工作如下:(1) 将小波变换嵌入到编码阶段以减少特征图的尺寸,确保网络具有大的感受野。在解码阶段采用小波逆变换,将低分辨率特征图上采样为高分辨率特征图,可有效地避免池化层造成的图像信息损失[11]。此外,图像在小波域中具有稀疏性,网络学习稀疏特征到稀疏特征的映射[13],可有效地提高网络的学习效率。(2) 利用多尺度扩张稠密块(Multi-scale Dilated Dense Block, MDDB),在保证参数不变的前提下提取图像的多尺度深层特征,同时通过稠密连接消除扩张卷积引起的网格伪影。引入的多尺度结构提高了网络对模糊程度的鲁棒性,使恢复的图像更加清晰。(3) 编-解码结构之间的跳跃连接通过增加信息流的传递来融合网络浅层和深层的特征。本文提出的特征融合块(Feature Fusion Block, FFB)引入了动态选择机制[14],允许每个神经元根据输入信息自适应地调整浅层特征与深层特征之间的比重,提高特征融合的有效性。(4) 图像在小波域与空间域具有不同的表示方式,与小波域相比,图像在空间域内含有更加精细的图像细节信息。为补充小波域忽略的图像细节信息,本文提出空间域重建模块(Spatial Domain Reconstruction Module, SDRM),在空间域内学习模糊图像与清晰图像之间的映射关系,进一步提高重构图像的质量。

    本文的网络结构如图1所示,在该网络中,首先利用模块A在小波域中去除模糊图像中的模糊,小波系数的稀疏性可简化去模糊过程,同时通过增大感受野来提高大模糊核导致的运动模糊的鲁棒性;然后利用模块B在空间域重建图像,得到去模糊图像。

    图 1  网络结构
    y=GB(GA(x;δA);δB)
    (1)

    其中,xy分别是模糊图像和去模糊图像,GA()GB()分别表示模块A和模块B的输出,δAδB分别表示模块A和模块B中的超参数。网络中的滤波器的大小为3×3,激活函数为Leaky ReLU,以Tanh激活层作为最后的输出层。

    本文采用MDDB提取图像的多尺度特征,同时进一步增大网络的感受野,提升网络性能。如图2所示,MDDB由一个卷积层和3个多尺度扩张块组成。卷积层减少特征图的通道数,多尺度扩张块提取图像的多尺度特征。每个多尺度扩张块利用4个大小不同的滤波器提取不同尺度的特征,采用级联操作融合多尺度信息,并使用大小为1×1的滤波器以解决特征级联引起的参数过多的问题。为减少网络的计算量,本文采用扩张率(s)分别为1, 2, 3和4的扩张卷积[10]代替普通卷积以获取大尺度特征。

    图 2  多尺度扩张稠密块
    hn=f1×1(C(hn,1,hn,2,hn,3,hn,4);ξn),n=1,2,3
    (2)

    其中,hn表示第n个多尺度扩张块的输出,hn,s表示第n个多尺度扩张块中扩张率为s的扩张卷积提取的特征,f1×1表示大小为1×1的卷积层,ξn表示第n个多尺度扩张块中大小为1×1的卷积层的超参数,C()表示级联操作。扩张卷积会使网络产生网格伪影,降低网络的性能,所以本文在多尺度扩张块之间加入稠密跳跃连接[15,16],通过增加信息流的传递来补偿扩张卷积的稀疏采样。

    fms=C(h0,h1,h2,h3)
    (3)

    其中,fms为MDDB提取的深层特征,h0表示多尺度扩张稠密块中卷积层的输出。

    编-解码结构中存在丰富的上下文信息,有效地融合这些信息可使网络产生更清晰的结果。若简单地采用特征图相加或级联操作融合编-解码的图像特征,会造成大量的信息冗余。最近的方法利用图像通道间[17]/空间[18]的相互依赖性自适应地校正通道/空间的特征响应,或引入动态选择机制提高网络的表征能力[14]。本文使用FFB在通道上动态选择编-解码的特征进行融合,减少信息冗余的同时提升网络性能。如图3所示,FFB分为融合和选择两个阶段。融合阶段采用特征图相加的方式简单地融合编码阶段的浅层特征和解码阶段的深层特征,然后利用平均池化获取融合特征的全局信息,并经过大小为1×1的卷积层在低维空间进行进一步的转换;选择阶段分别采用两个大小为1×1的卷积层学习编-解码阶段对应通道的权重a,bRc×1,利用softmax运算进行归一化,并将权重作用到相应通道上得到融合特征v=[v1,v2,···,vc],vcRH×W

    图 3  特征融合块

    模块A是具有对称编-解码结构的小波域重建模块,编码阶段包括3个编码模块(Encoder Module, EM),每个EM均由卷积层和3个残差块[19]堆叠而成。EM中引入的小波变换将图像尺寸降为原来的1/4,利用卷积层改变特征图的通道数,通过残差块提取丰富且稀疏的图像特征。

    Ei(xi;θi)=fres3(fres2(fres1(fc(DWT(xi);θ0,i);θ1,i);θ2,i);θ3,i),i=1,2,3
    (4)

    其中,xiEi(xi;di)分别表示第i个EM的输入和输出,fc()表示第i个EM中卷积层的输出,fresk()表示第i个EM中第k个残差块的输出,DWT(·)表示2维离散Haar小波变换,θi={θ0,i,θ1,i,θ2,i,θ3,i}表示第i个EM中卷积层的超参数。Haar小波变换利用4个不同的滤波器fLL, fLH, fHL, fHH将图像分解成逼近原始图像的低频子带、水平子带、垂直子带和对角子带4个部分[12],滤波器的定义如式(5)所示。

    fLL=[1111]fLH=[1111]fHL=[1111]fHH=[1111]}
    (5)

    解码阶段包括3个解码模块(Decoder Module, DM), DM的结构与EM的完全对称。利用小波变换的可逆性,在增加图像分辨率的同时保留了图像的细节信息。

    Dm(xm;ηm)=IDWT(fc(fres3(fres2(fres1(xm;η0,m);η1,m);η2,m);η3,m)),m=1,2,3
    (6)

    其中,xmDm(xm;ηm)分别表示第m个DM的输入和输出, IDWT()表示2维离散小波逆变换,ηm={η0,m,η1,m,η2,m,η3,m}表示第m个DM中卷积层的超参数。为进一步提升网络的去模糊性能,本文在编-解码之间加入多尺度扩张稠密块(MDDB)以提取深层特征fms,并将fms用于解码阶段以获得更多的高频细节信息。同时利用特征融合块(FFB)自适应地选择编-解码的特征以实现有效的特征融合。

    e1=E1(x;θ1)e2=E2(e1;θ2)e3=E3(e2;θ3)fms=MDDB(e3;r)fd=D1(FFB1(e1,D2(FFB2(e2,D3(fms;η3);φ2);η2);φ1);η1)yA=fd+x}
    (7)

    其中,fd表示模块A中解码阶段的输出,yA表示模块A的输出,ei表示编码器中第i个EM提取的图像特征,{θ1,θ2,θ3,ρ,η1,η2,η3,φ1,φ2}表示模块A中卷积层的超参数。

    模块B是一个空间域重建模块,在空间域学习图像特征,获取小波域忽略的更精细的图像细节信息。模块B由卷积层和残差块堆叠而成,首先通过卷积层提取图像的浅层特征,然后利用残差块提取更丰富的特征,最后通过卷积层在空间域重建去模糊图像。

    y=fc(fres(fc(yA;δ1);δ2);δ3)+yA
    (8)

    其中,y表示模块B的输出,{δ1,δ2,δ3}表示模块B中卷积层的超参数。

    本文采用的训练集是GoPro训练集[3],从GoPro训练集中随机选取图像,并随机裁剪成320×320×3的图像块,batch size设为24。为提高模型的鲁棒性,利用随机旋转、随机上下翻转、添加加性高斯噪声进行数据扩充处理,其中旋转角度为0°, 90°, 180°, 270°,噪声的均值为0,标准差为(0, 5)。此外,本文利用小尺度的模糊核与训练样本的卷积来增强训练样本的多样性。测试集是GoPro测试集、DVD测试集[18]和真实模糊图像[20]。在训练过程中,本文使用l2范数损失函数来优化网络,网络的优化方法为Adam,所有实验在Pytorch深度学习框架下进行训练,在Inter Core i7-8700 CPU,主频3.2 GHz,内存64 GB,显卡NVIDIA QUADRO RTX 5000平台下完成。

    值得注意的是,本文采用模块化训练方法获取网络模型,在保证其他模块参数不变的前提下,逐一训练网络的各个模块。首先在不添加多尺度扩张稠密块(MDDB),特征融合模块(FFB)和空间域重建模块(Spatial Domain Reconstruction Module, SDRM)的情况下训练网络其他模块,初始学习率为1e–4,当网络训练趋于稳定时调整学习率为5e–5,再次趋于稳定时调整学习率为5e–6;然后分别将MDDB, FFB和SDRM添加到网络中进行单独训练,训练周期为1300 epochs,初始学习率设置为1e–4,分别在400 epochs和900 epochs调整学习率为5e–5和5e–6;最后统一训练网络中的所有模块,微调网络参数,训练周期和学习率调整策略与多尺度模块的相同。

    为说明算法的性能,本文与近年来提出的去模糊算法进行比较,如DeblurGAN-v2[6]、SRN[7]等,分别在GoPro测试集、DVD测试集进行测试,采用峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)和结构相似度(Structural SIMilarity index, SSIM)作为评价指标。GoPro测试集包含1111个模糊-清晰图像对,主要由相机的抖动和物体的运动造成,可以有效地模拟动态场景下真实的运动模糊。DVD测试集由多种设备(如iPhone6s, GoPro)收集,包括1496对模糊-清晰图像,所涉及的动态场景与GoPro测试集的不同。GoPro, DVD测试集上的实验对比结果分别如表1表2表3所示,GoPro测试集、DVD测试集、真实模糊图像上的视觉对比结果分别如图4图5所示。

    表 1  各算法在GoPro测试数据集上的定量评估
    评价指标文献[2]文献[1]文献[5]文献[4]文献[6]文献[7]本文
    PSNR24.6425.1028.7029.0829.5530.2631.39
    SSIM0.8420.8900.9580.9140.9340.9340.952
    下载: 导出CSV 
    | 显示表格
    表 2  各算法在GoPro测试数据集上的运行时间(s)
    评价指标文献[4]文献[6]文献[7]本文
    时间2.160.140.640.23
    下载: 导出CSV 
    | 显示表格
    表 3  文献[7]与本文算法在DVD测试数据集上的定量评估
    评价指标文献[7]本文
    PSNR29.3429.97
    SSIM0.9140.921
    下载: 导出CSV 
    | 显示表格
    图 4  各个算法在GoPro测试集上的恢复结果对比
    图 5  文献[7]与本文算法在DVD数据集和真实数据集上的恢复结果对比

    表1表2可以看出,与Tao等人[7]得到的结果相比,本文的PSNR提高1.13 dB, SSIM提高0.018,运行时间减少0.41 s。在重构图像的质量方面,本文算法明显优于其他算法;在算法的重构效率方面,本文算法同样优于其他算法(除Kupyn等人[6]提出的DeblurGAN-v2外)。由表3可以看出,本文算法在不同场景下具有更强的鲁棒性。

    本文还在GoPro测试集、DVD测试集和真实的模糊图像上与各个算法进行视觉比较。在GoPro测试集上的视觉对比结果如图4所示,在大的非均匀运动模糊的情况下,本文算法在GoPro测试集上恢复出结果具有更加清晰的条纹和边缘,如在第2行和第6行的红色框中重建了清晰的脸部轮廓和数字形状,没有严重的颜色伪迹和图像失真。在DVD测试集和真实的模糊图像上的视觉对比结果如图5所示,相比于Tao等人[7]得到的去模糊图像,本文算法恢复的图像的局部模糊更少,颜色更加逼真,结构更加清晰。

    为评价各个模块的有效性,本文在GoPro测试集上进行对比试验,采用W-MS, W-FF, W-SDR, W-C3和W-B这5个基准模型说明多尺度扩张稠密块(MDDB),特征融合模块(FFB)和空间域重建模块(SDRM)对网络性能的影响。W-MS, W-FF和W-SDR分别表示只包含MDDB, FFB和SDRM的网络模型,W-C3表示用3个卷积层代替MDDB的网络模型,其网络深度与W-MS的相同,W-B表示不引入3种模块的网络模型。各模块的对比结果如表4所示。

    表 4  各基准模型在GoPro测试集上的定量结果
    模型W-BW-C3W-MSW-FFW-SDR本文
    多尺度××××
    特征融合××××
    空间域图像重构××××
    嵌入卷积×××××
    PSNR30.9831.0231.1031.0931.1331.39
    SSIM0.9490.9490.9500.9500.9500.952
    下载: 导出CSV 
    | 显示表格

    表4可得,在不引入MDDB, FFB和SDRM的情况下,PSNR可达到30.98 dB,这说明将小波变换嵌入到编-解码结构中可有效地提升网络的性能。其原因主要包括以下3个方面:⑴将小波变换嵌入到编-解码结构中会增大网络的感受野,可有效地利用图像的上下文信息产生边缘更加清晰的结果,同时小波变换的可逆性避免了图像信息的丢失。⑵图像在小波域具有稀疏性,利用小波变换进行下采样增强了图像特征的稀疏性,提高网络的学习能力。⑶小波变换在小波子带中提供的垂直、水平和对角线边缘信息,可用于学习图像的轮廓和细节特征。MDDB, FFB和SDRM的引入使平均PSNR分别提高0.12 dB, 0.11 dB和0.15 dB,平均SSIM均提高0.001,使网络获得高质量的重构图像。

    本文分别采用整体训练和模块化训练的方式训练网络,对比了这两种训练方法对网络性能的影响。GoPro测试集上的定量结果如表5所示,相比于整体训练的网络,模块化训练的网络的PSNR提高0.34 dB, SSIM提高0.003。对于本文算法来说,模块化训练可以使网络各个模块分别达到最优以确保网络整体产生更好的结果,对网络的性能起到积极的推动作用。

    表 5  两种训练方法在GoPro测试集上的定量对比
    训练方法整体训练模块化训练
    PSNR31.0531.39
    SSIM0.9490.952
    下载: 导出CSV 
    | 显示表格

    本文提出一种基于深度多级小波变换的图像盲去模糊算法,通过正/逆小波变换实现上采样/下采样操作,在增大网络感受野的同时利用图像在小波域中的稀疏性,降低了映射的复杂程度。为了在小波域重建高质量图像,本文通过多尺度扩张稠密块引入多尺度结构,实现了多尺度深层特征的提取与重用。同时,本文还利用特征融合块自适应地选择编-解码的特征进行有效的特征融合。由于图像在小波域和空间域的表示方式存在差异,本文采用空间域重建模块融合这两种不同的特征表示以进一步提高重构图像的质量。在训练时,采用模块化训练的方式进一步提高网络的性能。GoPro测试集和DVD测试集上的实验结果表明,本文方法恢复的图像具有更好的视觉效果,并且在不同场景下具有更强的鲁棒性。

  • 图  1  基于INN和逆梯度注意力的抗屏摄攻击水印框架

    图  2  逆梯度注意模块

    图  3  可逆嵌取模块

    图  4  不同方法的可视化水印图像

    图  5  不同强度失真条件下的水印提取准确率

    图  6  有/没有LPIPS损失引导的水印图像及水印残差

    表  1  视觉质量指标测试

    方法PSNRSSIMLPIPS
    SSRW[8]37.7760.9690.033
    HiDDeN[11]31.1520.9450.011
    Stegastamp[14]29.4190.9060.063
    PIMoG[15]36.4110.9750.009
    本文39.3060.9840.001
    下载: 导出CSV

    表  2  不同拍摄距离下的水印提取准确率(%)

    距离(cm)2030405060
    SSRW[8]92.3890.0071.1995.0082.97
    HiDDeN[11]80.2280.4482.0073.1185.00
    Stegastamp[14]99.9389.9990.9385.3397.10
    PIMoG[15]97.7899.7899.3394.5299.17
    本文10099.5299.2998.9199.08
    下载: 导出CSV

    表  3  不同水平拍摄角度下的水印提取准确率(%)

    角度(°)左45左30左15右15右30右45
    SSRW[8]83.2188.4579.0492.3881.9177.86
    HiDDeN[11]72.2676.6787.0288.2171.1982.74
    Stegastamp[14]97.1399.0397.2097.4886.4796.37
    PIMoG[15]96.9194.6498.2199.8896.7998.93
    本文98.5796.5598.2198.8198.3398.81
    下载: 导出CSV

    表  4  不同垂直拍摄角度下的水印提取准确率(%)

    角度(°)上45上30上15下15下30下45
    SSRW[8]76.6795.1298.3382.6293.6984.05
    HiDDeN[11]74.0577.5073.9388.8170.9575.24
    Stegastamp[14]95.4098.0399.1798.4198.1388.67
    PIMoG[15]99.5299.7695.7899.0596.4396.19
    本文99.2999.0599.2299.1798.5794.40
    下载: 导出CSV

    表  5  不同显示/拍摄设备下的水印提取准确率(ENVISION/LG)

    方法 HuaWei Nova7 Nikon Z30 HuaWei Mate30
    SSRW[8] 92.38/79.52 83.81/72.14 75.24/84.76
    HiDDeN[11] 80.22/66.22 81.78/77.11 73.56/69.33
    Stegastamp[14] 99.93/86.86 86.53/99.00 81.00/97.00
    PIMoG[15] 97.77/96.00 100/96.89 94.44/95.33
    本文 100/97.11 99.76/98.10 90.95/99.29
    下载: 导出CSV

    表  6  视觉质量指标测试(w&w/o IGA)

    视觉评价指标 PSNR SSIM LPIPS
    w/o IGA 37.464 0.972 0.006
    w IGA 39.306 0.984 0.001
    下载: 导出CSV

    表  7  不同拍摄距离的水印提取精度(w&w/o IGA)

    距离(cm) 20 30 40 50 60
    w/o IGA 99.52 97.63 95.95 90.95 97.62
    w IGA 100 99.52 99.29 98.91 99.08
    下载: 导出CSV
  • [1] VAN SCHYNDEL R G, TIRKEL A Z, and OSBORNE C F. A digital watermark[C]. 1st International Conference on Image Processing, Austin, USA, 1994, 2: 86–90. doi: 10.1109/ICIP.1994.413536.
    [2] 方涵. 屏摄鲁棒水印方法研究[D]. [博士论文], 中国科学技术大学, 2021. doi: 10.27517/d.cnki.gzkju.2021.000591.

    FANG Han. Research on screen shooting resilient watermarking[D]. [Ph. D. dissertation], University of Science and Technology of China, 2021. doi: 10.27517/d.cnki.gzkju.2021.000591.
    [3] WAN Wenbo, WANG Jun, ZHANG Yunming, et al. A comprehensive survey on robust image watermarking[J]. Neurocomputing, 2022, 488: 226–247. doi: 10.1016/j.neucom.2022.02.083.
    [4] 项世军, 杨乐. 基于同态加密系统的图像鲁棒可逆水印算法[J]. 软件学报, 2018, 29(4): 957–972. doi: 10.13328/j.cnki.jos.005406.

    XIANG Shijun and YANG Le. Robust and reversible image watermarking algorithm in homomorphic encrypted domain[J]. Journal of Software, 2018, 29(4): 957–972. doi: 10.13328/j.cnki.jos.005406.
    [5] 张天骐, 周琳, 梁先明, 等. 基于Blob-Harris特征区域和NSCT-Zernike的鲁棒水印算法[J]. 电子与信息学报, 2021, 43(7): 2038–2045. doi: 10.11999/JEIT200164.

    ZHANG Tianqi, ZHOU Lin, LIANG Xianming, et al. A robust watermarking algorithm based on Blob-Harris and NSCT-Zernike[J]. Journal of Electronics & Information Technology, 2021, 43(7): 2038–2045. doi: 10.11999/JEIT200164.
    [6] KANG Shuangyong, JIN Biao, LIU Yuxin, et al. Research on screen shooting resilient watermarking based on dot-matric[C]. 2023 2nd International Conference on Big Data, Information and Computer Network (BDICN), Xishuangbanna, China, 2023: 194–199. doi: 10.1109/BDICN58493.2023.00048.
    [7] SCHABER P, KOPF S, WETZEL S, et al. CamMark: Analyzing, modeling, and simulating artifacts in camcorder copies[J]. ACM Transactions on Multimedia Computing, Communications, and Applications, 2015, 11(2s): 42. doi: 10.1145/2700295.
    [8] FANG Han, ZHANG Weiming, ZHOU Hang, et al. Screen-shooting resilient watermarking[J]. IEEE Transactions on Information Forensics and Security, 2019, 14(6): 1403–1418. doi: 10.1109/TIFS.2018.2878541.
    [9] DONG Li, CHEN Jiale, PENG Chengbin, et al. Watermark-preserving keypoint enhancement for screen-shooting resilient watermarking[C]. 2022 IEEE International Conference on Multimedia and Expo, Taipei, China, 2022: 1–6. doi: 10.1109/ICME52920.2022.9859950.
    [10] KANDI H, MISHRA D, and GORTHI S R K S. Exploring the learning capabilities of convolutional neural networks for robust image watermarking[J]. Computers & Security, 2017, 65: 247–268. doi: 10.1016/j.cose.2016.11.016.
    [11] ZHU Jiren, KAPLAN R, JOHNSON J, et al. HiDDeN: Hiding data with deep networks[C]. 15th European Conference on Computer Vision, Munich, Germany, 2018: 682–697. doi: 10.1007/978-3-030-01267-0_40.
    [12] ZHANG Honglei, WANG Hu, CAO Yuanzhouhan, et al. Robust data hiding using inverse gradient attention[EB/OL]. https://doi.org/10.48550/arXiv.2011.10850, 2020.
    [13] WENGROWSKI E and DANA K. Light field messaging with deep photographic steganography[C]. IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 1515–1524. doi: 10.1109/CVPR.2019.00161.
    [14] TANCIK M, MILDENHALL B, and NG R. StegaStamp: Invisible hyperlinks in physical photographs[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 2114–2123. doi: 10.1109/CVPR42600.2020.00219.
    [15] FANG Han, JIA Zhaoyang, MA Zehua, et al. PIMoG: An effective screen-shooting noise-layer simulation for deep-learning-based watermarking network[C]. 30th ACM International Conference on Multimedia, Lisbon, Portugal, 2022: 2267–2275. doi: 10.1145/3503161.3548049.
    [16] DINH L, KRUEGER D, and BENGIO Y. NICE: Non-linear independent components estimation[C]. 3rd International Conference on Learning Representations, San Diego, USA, 2015.
    [17] KINGMA D P and DHARIWAL P. Glow: Generative flow with invertible 1×1 convolutions[C]. Proceedings of the 32nd International Conference on Neural Information Processing Systems, Montréal, Canada, 2018: 10236–10245.
    [18] XIE Yueqi, CHENG K L, and CHEN Qifeng. Enhanced invertible encoding for learned image compression[C]. 29th ACM International Conference on Multimedia, Chengdu, China, 2021: 162–170. doi: 10.1145/3474085.3475213.
    [19] XIAO Mingqing, ZHENG Shuxin, LIU Chang, et al. Invertible image rescaling[C]. 16th European Conference on Computer Vision, Glasgow, UK, 2020: 126–144. doi: 10.1007/978-3-030-58452-8_8.
    [20] GUO Mengxi, ZHAO Shijie, LI Yue, et al. Invertible single image rescaling via steganography[C]. 2022 IEEE International Conference on Multimedia and Expo (ICME), Taipei, China, 2022: 1–6. doi: 10.1109/ICME52920.2022.9859915.
    [21] LU Shaoping, WANG Rong, ZHONG Tao, et al. Large-capacity image steganography based on invertible neural networks[C]. 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Nashville, USA, 2021: 10811–10820. doi: 10.1109/CVPR46437.2021.01067.
    [22] GUAN Zhenyu, JING Junpeng, DENG Xin, et al. DeepMIH: Deep invertible network for multiple image hiding[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023, 45(1): 372–390. doi: 10.1109/TPAMI.2022.3141725.
    [23] MA Rui, GUO Mengxi, HOU Yi, et al. Towards blind watermarking: Combining invertible and non-invertible mechanisms[C]. 30th ACM International Conference on Multimedia, Lisbon, Portugal, 2022: 1532–1542. doi: 10.1145/3503161.3547950.
    [24] ZHANG R, ISOLA P, EFROS A A, et al. The unreasonable effectiveness of deep features as a perceptual metric[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 586–595. doi: 10.1109/CVPR.2018.00068.
  • 加载中
图(6) / 表(7)
计量
  • 文章访问数:  705
  • HTML全文浏览量:  347
  • PDF下载量:  74
  • 被引次数: 0
出版历程
  • 收稿日期:  2023-08-31
  • 修回日期:  2024-03-21
  • 网络出版日期:  2024-04-12
  • 刊出日期:  2024-07-29

目录

/

返回文章
返回