Loading [MathJax]/jax/element/mml/optable/GeneralPunctuation.js
高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于深层特征差异性网络的图像超分辨率算法

程德强 袁航 钱建生 寇旗旗 江鹤

程德强, 袁航, 钱建生, 寇旗旗, 江鹤. 基于深层特征差异性网络的图像超分辨率算法[J]. 电子与信息学报, 2024, 46(3): 1033-1042. doi: 10.11999/JEIT230179
引用本文: 程德强, 袁航, 钱建生, 寇旗旗, 江鹤. 基于深层特征差异性网络的图像超分辨率算法[J]. 电子与信息学报, 2024, 46(3): 1033-1042. doi: 10.11999/JEIT230179
Shi Ai-ye, Xu Li-zhong . Remote-Sensed Images Fusion Using Fuzzy Density Determined Adaptively Based on Wavelet Transform[J]. Journal of Electronics & Information Technology, 2007, 29(2): 355-359. doi: 10.3724/SP.J.1146.2006.00679
Citation: CHENG Deqiang, YUAN Hang, QIAN Jiansheng, KOU Qiqi, JIANG He. Image Super-Resolution Algorithms Based on Deep Feature Differentiation Network[J]. Journal of Electronics & Information Technology, 2024, 46(3): 1033-1042. doi: 10.11999/JEIT230179

基于深层特征差异性网络的图像超分辨率算法

doi: 10.11999/JEIT230179
基金项目: 国家自然科学基金 (52204177, 52304182),中央高校基本科研业务费专项资金 (2020QN49)
详细信息
    作者简介:

    程德强:男,博士生导师,教授,主要研究方向为图像智能监测与模式识别 ,图像处理与视频编码等

    袁航:男,硕士生,研究方向为图像超分辨率重建

    钱建生:男,教授,主要研究方向为宽带网络技术及应用,矿井通信与监控等

    寇旗旗:男,讲师,主要研究方向为视频图像处理,模式识别等

    江鹤:男,讲师,主要研究方向为图像超分辨率重建,图像识别等

    通讯作者:

    江鹤 jianghe@cumt.edu.cn

  • 中图分类号: TN911.73; TP391

Image Super-Resolution Algorithms Based on Deep Feature Differentiation Network

Funds: The National Natural Science Foundation of China (52204177, 52304182), The Fundamental Research Funds for the Central Universities (2020QN49)
  • 摘要: 传统深层神经网络通常以跳跃连接等方式堆叠深层特征,这种方式容易造成信息冗余。为了提高深层特征信息的利用率,该文提出一种深层特征差异性网络(DFDN),并将其应用于单幅图像超分辨率重建。首先,提出相互投影融合模块(MPFB)提取多尺度深层特征差异性信息并融合,以减少网络传输中上下文信息的损失。第二,提出了差异性特征注意力机制,在扩大网络感受野的同时进一步学习深层特征的差异。第三,以递归的形式连接各模块,增加网络的深度,实现特征复用。将DIV2K数据集作为训练数据集,用4个超分辨率基准数据集对预训练的模型进行测试,并通过与流行算法比较重建的图像获得结果。广泛的实验表明,与现有算法相比,所提算法可以学习到更丰富的纹理信息,并且在主观视觉效果和量化评价指标上都取得最好的排名,再次证明了其鲁棒性和优越性。
  • 基于网络的计算服务和应用程序在人们的生活中发挥着重要作用,越来越多的网络节点设备连接到互联网中。据统计研究数据库(Statista)估计,到2025年,将有7.5×1010台设备连接到互联网,构成巨大的网络接入设备规模[1]。随着互联网规模指数级增大,网络攻击所使用的协议、操作系统和应用软件的缺陷和漏洞也在不断更新与增多。流量异常检测是保护网络和信息系统安全的有效手段,被广泛用于检测网络流量恶意行为[2]

    随着流量数据不断增加,研究人员引入机器学习方法对大规模流量数据进行分类和预测,实现流量异常检测。早期,研究人员基于传统机器学习方法进行流量异常检测,使用单个分类器[3,4]或融合多个分类器[5-8]进行检测。但研究发现以传统机器学习算法为基础的流量异常检测结果并不理想,其检测性能较依赖特征。大多强调特征工程和特征选择,具有较高的误报率[9]

    近年来,许多深度学习方法[10,11]通过神经网络的搜索空间从原始流量特征中自动提取高级特征,被应用到流量异常检测研究中,取得了一些较好的研究成果。董书琴等人[12]提出一种结合堆叠去噪自编码器和softmax的流量异常检测方法提高对NSL-KDD的检测性能。缪祥华等人[13]将密集连接卷积神经网络应用于流量异常检测,提升对KDD99数据集的检测准确率。Sivamohan等人[14]对长短期记忆网络(Long Short Term Memory, LSTM)、门控循环单元、双向长短期记忆网络3种循环神经网络在CICIDS2017数据集上的检测性能进行对比评估,发现双向长短期记忆网络(Bidirectional Long Short Term Memory, BiLSTM)的检测准确率最优。

    大多数基于传统机器学习模型和深度学习模型的流量异常检测方法都需要大量样本数据进行充分学习来获取更好的检测效果。然而流量数据存在严重的类别不平衡,正常样本往往远多于异常样本,在异常样本中各攻击类流量数据所占的比例差别很大[15]。在异常数据较少、流量数据严重不平衡的情况下,将这种不平衡流量数据训练集直接输入传统分类模型进行学习和训练会导致多数类样本淹没少数类样本,少数威胁程度高的攻击流量有可能被错误检测为良性流量或其他攻击类别,这也对网络、设备、用户构成更高的风险。因此,为有效检测网络中的恶意流量,需要解决网络流量异常检测中的类别不平衡问题。

    研究人员主要从数据和算法两个角度解决流量异常检测中的类别不平衡问题。在数据方面,主要通过重采样技术均衡各类流量数据,如合成少数类过采样技术 (Synthetic Minority Oversampling TEchnique, SMOTE)[16]、自适应合成抽样技术 [17]、平衡重采样技术[18,19]等。在算法方面,通过改进算法或使用集成方法[20-23]提升检测能力。但现有研究在少数类攻击流量的检出率方面还存在较大提升空间。为解决流量异常检测中的类别不平衡问题,本文提出一种基于联合注意力机制和1维卷积神经网络-双向长短期记忆网络(One-Dimensional Convolutional Neural Network-Bidirectional Long Short Term Memory, 1DCNN-BiLSTM)模型的流量异常检测方法,将数据增强技术与深度学习模型相结合提升少数攻击类的检出率。本文的主要贡献如下:

    (1)本文提出一种基于联合注意力机制和1DCNN-BiLSTM模型的流量异常检测方法,融合数据不平衡处理技术和深度学习模型,从均衡数据和改进模型两方面出发,提高对高度不平衡流量数据的检测性能。

    (2)本文设计一种联合注意力机制和1DCNN-BiLSTM的深度学习混合模型用于流量异常检测,分别利用1DCNN和BiLSTM提取网络流量数据的局部与长距离序列特征,同时在1DCNN的每个块和BiLSTM末端添加有效的注意力机制,着重关注对分类起重要作用的特征,提高对少数攻击类的检出率。

    (3)本文使用NSL-KDD和CICIDS2017流量数据集进行实验,利用多种评估指标将所提方法与一些现有典型机器学习方法和在流量数据不平衡问题上效果较好的方法进行对比,实验结果表明,本文方法能够显著提升少数类攻击流量的检出率,在对不平衡流量数据的检测性能上表现出优越性。

    本文设计流量异常检测方法的目标是在恶意流量样本数量较少的情况下,对流量数据实现优越的检测性能。对此,本文所提流量异常检测方法结合了数据重采样技术和深度学习网络模型,所提方法的整体检测框架如图1所示,主要包含3个模块:数据预处理模块、流量异常检测模块和分类评估模块。

    图 1  流量异常检测框架

    数据预处理模块负责对原始流量特征数据进行量化、归一化以及训练数据重采样等操作,量化和归一化使数据能满足深度学习模型的输入格式要求,更有利于模型的训练和检测,数据重采样能够使流量数据均衡,减轻原始数据类别不平衡对检测结果造成的影响和偏差。

    在流量异常检测模块,本文对预处理后的流量数据设计一种联合注意力机制和1DCNN-BiLSTM的模型进行深度流量特征提取和学习,同时对特征重要性予以考虑,有效检测数量少且威胁程度高的攻击流量。

    在分类评估模块中,利用多种检测评价指标对模型的检测结果进行评估和分析。

    (1)量化。流量特征数据包含非数值特征(如NSL-KDD数据集中'protocol type', 'service' 和 'flag'),需要将这类特征转换为数值特征,本文采用LabelEncoder()函数进行标签编码。同时,样本类别标签也需转换为数字,对于二分类,将正常和攻击标签分别编码为0和1,对于多分类,将各攻击类型进行独热编码。

    (2)归一化。为缩小流量数据集中特征值间的大小差异,避免数值量级差异和单位差异对检测结果的影响,保证检测结果有效,采用Min-Max归一化方法将各特征数据映射到[0,1]区间,其公式如式(1)所示

    xn=xXminXmaxXmin (1)

    其中,x为特征列X的各特征值,XminXmax分别为特征列X的最小值和最大值。

    (3)过采样。流量数据集中不同类别的样本数量差异显著,如在NSL-KDD数据集中,正常样本的数量是提权攻击(User-to-Root, U2R)样本的1 000多倍。深度学习分类器在模型训练过程中,对少数类攻击样本的特征学习不充分,会影响模型的检测性能。因此在数据预处理过程中,需要对少数类攻击流量过采样,使深度学习模型能充分有效地学习流量样本空间中每个类的边界,边界样本对泛化更重要,但它们更容易发生错误分类。对流量异常检测,需要新合成的攻击类样本处于类别边界附近来提供足够的信息用于学习和检测。本文利用borderlineSMOTE算法对异常流量样本进行过采样,首先识别边缘的攻击样本,然后重新生成攻击样本,最后将新生成的样本加入到流量数据训练集。

    对于训练集中每个攻击样本x,计算其m个最近邻,若x的最近邻中,正常样本的数量多于攻击样本,那么x作为攻击类的边界样本很可能被错分为正常样本,需对这类边界样本过采样。在采样过程中,计算攻击样本xk个最近邻攻击样本,并从中随机选择n个(1<n<k)攻击样本,攻击类流量新样本的生成公式如式(2)所示

    Tn=Ti+rand(0,1)×|TjTi| (2)

    其中,Tn为新生成的样本,Ti为边界样本,TjTi的邻居,rand(0,1)表示生成[0,1]区间的随机数。

    流量数据本质上可以看作具有前后关联关系的序列数据,因此流量特征数据也具有显著的前后序列依赖关系和同一序列不同特征间的关联关系,如NSL-KDD数据集的Probe攻击可能表现为流量特征在一段时间的持续变化,对于该攻击类型,可以利用序列学习模型学习数据集中“基于主机的流量统计特征”和“基于时间的流量统计特征”来捕获时间前后流量数据的关联关系和深层特征进行检测。

    为提升对少数攻击流量的检出率,本文设计一种联合注意力机制和1DCNN-BiLSTM的流量异常检测模型,对流量特征数据进行充分学习,有效提取其深层复杂特征。在该模型中,1DCNN适用于序列处理,可以实现更多非线性转换,对流量序列特征提供较强的局部特征学习能力。网络流量数据遵循时间序列模式,可以根据过去跨长距离的流量连接记录对当前流量连接记录进行分类,但1DCNN在长距离学习建模方面的能力有限。BiLSTM网络主要用于实现长距离序列特征学习。因此,将1DCNN提取的深度流量特征输入BiLSTM,进一步学习深度流量特征向量之间跨长距离的序列关联模式。为进一步提升模型对不平衡流量数据的检测性能,本文在模型中加入有效注意力层,附加在1DCNN网络的各池化层末端和BiLSTM网络末端,在学习特征的过程中,提高与流量类别相关特征的权重,使模型倾向于注意对异常流量检测更重要的特征。根据特征重要性调整权值,更全面地把握流量特征,提高少数类攻击流量的检出率。

    联合注意力机制和1DCNN-BiLSTM的模型可以学习正常和恶意流量数据序列的相关性与局部特征,具有多层结构,包括1维卷积层(Conv1D layer)、池化层(Pooling layer)、注意力层(Attention layer)、双向长短期记忆网络层(BiLSTM layer)、平铺层(Flatten layer)和全连接层(Full Connection layer, FC layer)等,其模型结构如图2所示。将经过预处理的流量数据通过输入层输入模型后,利用隐层计算得到检测结果,通过输出层输出。

    图 2  联合注意力机制和1DCNN-BiLSTM模型结构图
    2.3.1   1DCNN

    1DCNN是一种以1维网格形式获取序列数据进行特征识别的CNN。虽然1DCNN只有1个维度,但它在特征识别方面同样具有2DCNN的平移不变性优势。基于此,本文将流量特征数据构建为具有良性和恶意标签的序列数据,首先应用1DCNN实现对流量数据的局部特征提取。1DCNN模型通过堆叠1维卷积层和池化层来实现局部空间特征提取功能,解决局部特征丢失问题,其结构如图3所示。

    图 3  1DCNN结构图

    1维卷积层是特征提取的关键,它通过训练流量数据得到一组具有最小损失的最优卷积核,利用卷积核(滤波器)自动提取复杂流量特征。流量数据的第i个样本可表示为m维特征向量xiRm,多个连续向量xi,xi+1,,xj可表示为xi:j,1维卷积仅在流量特征数据序列的垂直方向进行卷积,因此其卷积核的宽度即为流量特征的维度,通过使用滤波器w对输入流量数据应用卷积操作来构建一个特征映射,实现局部空间特征提取,其计算公式如式(3)所示

    hi=f(wxi:j+b) (3)

    其中,b为偏置值,f()表示卷积计算的非线性激活函数线性整流函数(Rectified Linear Unit, ReLU)。

    池化层进一步聚集和保留了卷积层所提取的短期特征,得到最重要的特征。常用的池化方法是最大池化和平均池化。本文利用最大池化层将各卷积层特征向量的最大值合并,作为最终特征值。在1维卷积层和池化层进行操作后,得到了一个1×n维的数据特征,很好地分析并保留流量数据序列的局部特征。

    2.3.2   BiLSTM

    BiLSTM是一种LSTM变体,它不仅具有LSTM模型的远距离序列学习能力,而且进一步改进LSTM,能够学习序列数据正向和反向的关联关系,使模型在分类问题上更具优势。本文利用输入流量数据训练BiLSTM的正向LSTM和反向LSTM,其结构如图4所示,包含输入层、正向隐层、反向隐层和输出层。正向LSTM提取输入的深度流量特征序列的正向特征,而反向LSTM与之相反,提取深度流量特征序列从后往前的反向特征。输出层对二者的输出数据进行整合。在时间步t利用BiLSTM模型对当前时刻的输入序列元素值xt进行特征提取的正向LSTM和反向LSTM计算如算法1所示。

    图 4  BiLSTM结构图
    算法1 正向LSTM和反向LSTM计算
    正向LSTM反向LSTM
    it=σ(Wi[ht1,xt]+bi)it=σ(Wi[ht+1,xt]+bi)
    ft=σ(Wf[ht1,xt]+bf)ft=σ(Wf[ht+1,xt]+bf)
    gt=tanh(Wc[ht1,xt]+bc)gt=tanh(Wc[ht+1,xt]+bc)
    Ct=itgt+ftCt1Ct=itgt+ftCt+1
    ot=σ(Wo[ht1,xt]+bo)ot=σ(Wo[ht+1,xt]+bo)
    ht=ottanh(Ct)h
    下载: 导出CSV 
    | 显示表格

    时间步t上输出向量计算公式如式(4)所示

    {{\boldsymbol{H}}_t} = {{\boldsymbol{W'}}_{hf}}{\boldsymbol{h'}} + {{\boldsymbol{W''}}_{hb}}{\boldsymbol{h''}} + {{\boldsymbol{b}}_h} (4)

    其中, {{\boldsymbol{x}}_t} t时刻的输入序列,{{\boldsymbol{C}}_t}t时刻的记忆细胞状态,{{\boldsymbol{h}}_{t - 1}}为隐层状态, {{\boldsymbol{W}}_c},{{\boldsymbol{W}}_f},{{\boldsymbol{W}}_i},{{\boldsymbol{W}}_o} 分别为记忆细胞状态、遗忘门、输入门和输出门的权重矩阵, {{\boldsymbol{b}}_c},{{\boldsymbol{b}}_f},{{\boldsymbol{b}}_i},{{\boldsymbol{b}}_o} 分别表示对应偏置,⊙表示两个向量对应元素相乘操作, {{\boldsymbol{W'}}_{hf}},{{\boldsymbol{W''}}_{hb}} 分别表示正向和反向输入到隐层权重矩阵。

    BiLSTM有效利用网络流量前后数据中存在的时序特征来改进模型训练,使模型全面学习序列特征。

    2.3.3   注意力机制

    注意力机制的原理是:在大量信息中,将有限的注意力资源聚焦于需要关注的少数关键信息上,忽略无用和不相关信息,对更关键重要的信息进行特征提取。在流量异常检测领域,通过引入注意力机制,对用于检测攻击的不同流量特征赋予对应的权重,更有利于提高少数攻击样本的检出率。本文在1DCNN网络和BiLSTM网络中分别引入注意力机制。对于1DCNN,将注意力层附加在卷积块末端,改善卷积神经网络仅关注局部特征而导致对全局特征学习不准确的情况。对于BiLSTM,注意力机制对其隐层向量输出表达式进行加权求和,检测效果更优。注意力机制通过分配概率代替原始随机分配权重。将卷积块或BiLSTM得到的隐层向量ht作为注意力层的输入,其处理过程如式(5)—式(7)所示

    \qquad\qquad {{\boldsymbol{e}}_t}{\text{ = }}{\boldsymbol{u}}\tanh ({{\boldsymbol{w}}_t}{{\boldsymbol{h}}_t}{\text{ + }}{\boldsymbol{b}}) (5)
    \qquad\qquad {{\boldsymbol{a}}_t} = \frac{{\exp ({{\boldsymbol{e}}_t})}}{{\displaystyle\sum\limits_{j = 1}^t {\exp ({{\boldsymbol{e}}_j})} }} (6)
    \qquad\qquad {{\boldsymbol{s}}_t} = \sum\limits_{t = 1}^l {{{\boldsymbol{a}}_t}{{\boldsymbol{h}}_t}} (7)

    其中,at为权重,st为对ht加权求和得到的高级流量特征。最后将st输入到全连接层,得到检测结果。

    本文的所有实验均在一台具有32 GB内存、Intel Core i7-8700 3.20 GHz CPU和Nvidia GeForce GT 730 GPU的台式机上进行,使用Python3.5编程,对NSL-KDD和CICIDS2017数据集进行实验,以评估其检测多种经典攻击和现代攻击的有效性。本文使用评估指标准确率(Accuracy)、精确率(Precision)、检出率(Detection Rate, DR)、误报率(False Positive Rate, FPR)和F1-score来评估模型的检测性能。评估指标的计算公式如式(8)所示

    \left. \begin{aligned} & {\text{Accuracy}} = \frac{{{\text{TP + TN}}}}{{{\text{TP + FP + TN + FN}}}} \\ & {\text{Precision = }}\frac{{{\text{TP}}}}{{{\text{TP + FP}}}} \\ & {\text{DR = }}\frac{{{\text{TP}}}}{{{\text{TP + FN}}}} \\ & {\text{FPR = }}\frac{{{\text{FP}}}}{{{\text{FP + TN}}}} \\ & {\text{F1-score = }}\frac{{{\text{2}} \times {\text{Precision}} \times {\text{Recall}}}}{{{\text{Precision + Recall}}}} \end{aligned} \right\} (8)

    其中,TP为正确预测为攻击样本的数量,TN为正确预测为正常样本的数量,FP为错误预测为攻击样本的数量,FN为错误预测为正常样本的数量。

    由于深度学习模型具有参数化特性,模型的训练和检测结果受参数的影响较大。本文设计的联合注意力机制和1DCNN-BiLSTM的模型结构同2.3节的结构图一致。3个卷积层的卷积核数为64-128-32,3个最大池化层的poolsize设置为1。池化层的输出作为注意力层输入,1DCNN网络中最后一个注意力层的输出作为BiLSTM网络的输入,BiLSTM包含64个单元,其后的dropout层参数为0.5,用于防止过拟合,其后附加注意力层,之后连接Flatten平铺层用于将多维输出1维化,输出层使用全连接层,将模型的输出向量转换为类别标签的维度。对于二分类,输出层包含1个单元,激活函数为sigmoid,用于区分正常和攻击类型;对于多分类,输出层包含n个单元(n为样本类别数),激活函数为softmax,用于区分多个攻击类型。经过多次调整模型的超参数,得到使模型学习效果最佳的超参数配置。模型的超参数配置为:训练过程损失函数为categorical_crossentropy,采用Adam优化器,学习率为0.001, Epoch=30, Batchsize=32。

    NSL-KDD数据集KDD CUP99数据集的改进,广泛用于流量异常检测。尽管还有其他更新的数据集,但它仍然被许多最先进的流量异常检测文献用于性能评估。它删除了数据集中的冗余记录,包含正常样本和4种攻击样本,攻击类别包含DoS, Probe, U2R, R2L。该数据集包含41维流量特征和1维类别标签。在实验中,将KDDTrain+_20Percent作为训练集,KDDTest+为测试集。其数据分布如表1所示。

    表 1  NSL-KDD数据集数据分布
    类别正常流量DoSProbeU2RR2L总计
    KDDTrain+_20Percent13 4499 2342 2891120925 192
    KDDTest+9 7117 4582 116200 3 05922 544
    下载: 导出CSV 
    | 显示表格

    CICIDS2017数据集由通信安全机构(Communications Security Establishment, CSE)与加拿大网络安全研究所(Canadian Institute for Cybersecurity, CIC)在2017年收集,是一个具有复杂现代攻击类型的流量数据集。该数据集含有3 119 345个网络传输样本、78维流量特征和1维类别标签,包含正常样本和14种攻击样本。此外,该数据集中包含一些标签和特征缺失的样本,删除这些样本后,共得到2 824 876个样本,其数据分布如表2所示。

    表 2  CICIDS2017数据集数据分布
    类别正常流量BotDDoSDoS GoldenEyeDoS HulkDoS SlowhttptestDoS SlowlorisFTP-Patator
    数量2 271 3201 956128 02510 293230 1245 4995 7967 935
    类别HeartbleedInfiltrationPortScanSSH-PatatorWeb Attack Brute ForceWeb Attack-SQL InjectionWeb Attack-XSS总计
    数量1136158 8042 8971 507216522 824 876
    下载: 导出CSV 
    | 显示表格

    本节基于NSL-KDD和CICIDS2017数据集对流量异常检测方法进行二分类实验。

    为验证本文模型的检测性能,实验先比较了3种机器学习的典型分类方法以及在类别不平衡问题上当前较流行且检测效果较好的3种模型在NSL-KDD数据集上的检测性能。3种机器学习方法分别为典型的随机森林(Random Forest, RF)、多层感知机(MultiLayer Perceptron, MLP)和组合模型1DCNN-BiLSTM,3种文献模型分别为文献[14]提出的BiLSTM模型,文献[19]提出的深度CNN模型以及文献[23]提出的朴素贝叶斯决策表和多目标进化特征选择(Naïve Bayes Decision Table and Multi Objective Evolutionary Feature Selection, DTNB+MOEFS)组合模型。同时为验证BorderlineSMOTE的有效性,本实验还比较了模型在不采用重采样方法、采用随机过采样(Random Over-Sampling, ROS)方法以及采用BorderlineSMOTE过采样方法3种情况下对NSL-KDD数据集的检测性能。其中,ROS方法的采样思路是:从少数类攻击流量样本中随机采样复制样本,使少数类流量与多数类流量的样本量相同,从而得到新的均衡数据集。实验结果如表3所示。

    表 3  基于NSL-KDD数据集的二分类检测结果(%)
    模型采样方法准确率精确率检出率误报率F1-score
    MLP78.7390.5869.979.6978.92
    ROS79.0892.0369.348.0479.04
    BorderlineSMOTE79.9293.2671.026.7279.82
    RF80.1790.8472.469.6580.62
    ROS80.5290.7973.219.8181.06
    BorderlineSMOTE80.8890.1874.5310.7381.61
    CNN[19]81.4389.0476.9112.5882.38
    ROS82.1790.6576.559.9583.07
    BorderlineSMOTE84.2091.6978.968.8784.91
    BiLSTM[14]85.1880.1689.0317.7384.36
    ROS86.7392.4983.468.9687.74
    BorderlineSMOTE87.0192.5483.967.9588.04
    DTNB+MOEFS[23]83.0482.7982.2916.7382.54
    ROS85.9686.0285.1414.0985.58
    BorderlineSMOTE87.5788.4986.2013.3087.33
    1DCNN-BiLSTM84.3782.1685.0513.5683.58
    ROS86.1384.9286.2312.7485.57
    BorderlineSMOTE89.0688.4288.9210.3488.67
    本文模型88.9490.9089.5311.8490.20
    ROS89.5491.6689.7810.7990.71
    BorderlineSMOTE93.1793.5294.558.6494.03
    下载: 导出CSV 
    | 显示表格

    表3中观察到,在异常流量样本少于良性样本的情况下,本文方法对攻击流量取得了最高的检测准确率、精确率、检出率和F1-score,分别为93.17%, 93.52%, 94.55%, 94.03%。本文方法的检测误报率为8.64%,相比其他模型中最低的误报率仅增加了0.69%。对于本文模型,采用BorderlineSMOTE过采样方法的检测准确率相比不采用重采样提升了4.76%,相比采用ROS过采样方法提升了4.05%。MLP和RF模型的检测准确率较低,分别为80.88%和79.92%。这是由于这两种模型在样本量较少的情况下,挖掘能力略差。因此在仅用原始训练集KDDTrain 20%样本构成的训练集KDDTrain+_20Percent进行学习时,准确学习数据特征的能力较差,检测准确率低。相比于CNN模型[19]、BiLSTM模型[14]、DTNB+MOEFS模型[23]和组合模型1DCNN-BiLSTM,本文模型的检测准确率分别提升了10.65%, 7.08%, 6.39%和4.61%,在精确率方面也分别提升了2.00%, 1.06%, 5.68%和5.77%,在检出率方面分别提升了19.74%, 12.61%, 9.69%和6.33%,检出率大幅提升,说明本文方法在区分正常流量和异常流量方面的检测性能优于其他模型。综上分析,本文方法对经典NSL-KDD数据集进行检测时,在正常流量与异常流量不平衡的情况下,检测性能优于其他方法,这验证了本文方法面对经典流量数据集正常和异常数据不平衡问题上的有效性。

    为了评估本文方法检测新型现代攻击样本的有效性,实验在CICIDS2017数据集上进行进一步验证。由于CICIDS2017数据集数据量较大,其中良性样本占80.30%,攻击样本占19.70%。为提高实验效率,抽取10%的数据作为实验数据,训练集和测试集按照7:3的比例划分。由于上一实验已证明BorderlineSMOTE过采样方法的有效性,因此,本实验仅对比不同模型的检测性能,实验结果如表4所示。

    表 4  基于CICIDS2017数据集的二分类检测结果(%)
    模型准确率精确率检出率误报率F1-score
    MLP94.0186.9493.005.6189.87
    CNN[19]95.6891.3693.433.2992.38
    BiLSTM[14]98.1492.8696.853.7494.81
    RF96.6193.2894.203.5193.74
    DTNB+MOEFS[23]96.8097.4096.703.7097.05
    联合注意力机制和1DCNN-BiLSTM模型98.6597.2199.773.0798.47
    下载: 导出CSV 
    | 显示表格

    表4可以观察到,本文的流量异常检测的准确率相比RF模型提升了2.11%,相比MLP模型提升了4.94%,相比深度CNN模型[19]提升了3.10%,相比BiLSTM模型[14]提升了0.52%,相比DTNB+MOEFS模型[23]提升了1.91%,检测效果有明显提升。所提模型的检测精确率、检出率和F1-score均高于其他方法,FPR均小于其他方法。进一步验证了本文方法对新型数据集中不平衡流量样本的检测有效性。

    为了验证本文的流量异常检测方法区分不同攻击类型的检测有效性,实验基于NSL-KDD数据集进行模型多分类性能评估。实验对比了机器学习典型算法MLP, RF和现有流行的3种面对流量数据类别不平衡问题效果较好的模型CNN[19], BiLSTM[14], I-SiamIDS[22],不同模型的检测性能见图5图8

    图 5  基于NSL-KDD数据集的多分类检出率
    图 6  基于NSL-KDD数据集的多分类检测精确率
    图 7  基于NSL-KDD数据集的多分类检测误报率
    图 8  基于NSL-KDD数据集的多分类检测F1-score

    图5为6种方法的检出率对比图,其中蓝色、红色、绿色、紫色、黄色分别表示各模型对正常流量、DoS攻击流量 、Probe攻击流量、U2R攻击流量、R2L攻击流量的检出率。由图5可以观察到,本文方法在正常类流量数据的检出率上略小于其他算法,其检出率为92.07%,相对于最高的RF算法,降低了5.46%。但对DoS攻击流量以及样本量较少的U2R和R2L攻击流量,本文方法相比其他方法均取得了最高的检出率,分别为93.66%, 83.00%和84.66%。对U2R攻击流量的检出率,本文方法相比其他方法至少提升了13.70%。对R2L攻击流量的检出率,本文方法相比其他方法至少提升了9.78%。这一结果表明,与基准分类器相比,本文方法能够提高对样本量较少的各攻击样本的检出率,对少数类攻击样本的识别能力较好。

    图6为6种方法的检测精确率对比图,其中各颜色分别表示模型对各类别流量的检测精确率。由图6可知,本文方法对DoS, Probe, R2L的检测精确率分别为98.21%, 74.55%, 80.08%,虽略小于个别分类器,但在所有分类模型中,本文方法对正常类和样本量较少的U2R攻击流量均取得了最高的精确率,分别为95.47%和79.05%。对于正常类和4种攻击类,本文方法相对其他方法的检测精确率更稳定。这一结果表明,本文方法对各类样本的检测精确程度良好。

    图7为6种方法的多分类检测误报率对比图,其中各颜色分别表示模型对各类别流量的检测误报率。由图可知,本文方法对正常类、DoS类均取得了最低的检测误报率,分别为3.30%和0.84%。对Probe, U2R, R2L 3类的检测误报率略高于个别基准模型,这是由于在检测过程中,本文方法将一定量正常类和DoS攻击流量数据误判为这3类数据,导致检测误报率略高,但本文方法对5类数据的误报率较小,均不超过4%。其他方法对正常样本的检测误报率较高,这是由于其他对比方法在检测过程中将一些攻击样本识别为正常样本,识别不准确,检测误报率较高,这也说明所对比其他算法无法有效应对数据不平衡问题。

    图8是6种方法的多分类检测F1-score对比图,其中各颜色分别表示模型对各类别流量的检测F1-score。F1-score更能反映模型的整体检测性能。由图8可知,本文方法对各类流量数据均取得最高的F1-score,对正常流量,DoS, Probe, U2R, R2L攻击流量的检测F1-score分别为93.74%, 95.88%, 82.56%, 80.98%, 82.31%。这表明本文方法在保证检测精确率的同时,提升了对少数攻击流量数据的检出率。

    图5图8的各项性能参数对比可以看出,本文模型无论是对样本量较多的正常流量和DoS, Probe攻击流量,还是对样本量较少的U2R, R2L攻击流量,在各个检测性能指标上都较好,虽然在个别评价指标上略差于某个分类器,但在少数攻击流量的检出率等性能上效果最好,相比其他典型模型具有明显提升,能够对少数类攻击流量有效分类。由此验证了本文方法对不平衡流量数据多分类任务的有效性和优越性。

    考虑到流量异常检测中类别不平衡问题严重影响了对攻击流量数据的检测准确率和对少数攻击类流量的检出率,本文提出了一种基于联合注意力机制和1DCNN-BiLSTM模型的流量异常检测方法,该方法结合了类不平衡处理技术BorderlineSMOTE和混合深度学习模型。通过BorderlineSMOTE生成新的攻击数据,使各类数据均衡。同时设计了联合注意力机制和1DCNN-BiLSTM的模型对流量数据进行训练,充分提取流量数据的局部特征和长距离序列特征,更好地学习流量特征数据的前后关联关系,并对特征按重要性赋予权重,充分发挥重要特征在流量异常检测中的作用,从而提高检测准确率和检出率。本文使用NSL-KDD和CICIDS2017数据集进行训练与测试。实验结果表明,与一些现有典型的和较为流行的机器学习算法相比,本文方法在二分类和多分类的检测准确率、精确率、检出率、误报率和F1-Score 5种性能评估指标上取得了良好的效果,验证了本文方法检测不平衡攻击流量的有效性。在未来的研究中,将探索其他检测模型和方法,提高对恶意流量的检测性能,以增强模型用于实际网络流量的可能性。

  • 图  1  整体网络结构图

    图  2  相互投影融合模块结构图

    图  3  DSA模块

    图  4  亚像素卷积

    图  5  Set14中barbara重建结果

    图  6  Urban100中Img075重建结果

    图  7  Urban100中Img092的重建结果

    图  8  Set5中head的差异图

    图  9  B100中291000的差异图

    图  10  Urban100中Img027的差异图

    表  1  MPFB模块和DSA模块对模型性能的影响

    算法1算法2算法3算法4
    MPFB××
    DSA××
    PSNR
    (dB)
    32.1332.2432.2732.30
    SSIM0.92870.92960.93000.9301
    注:加粗字体为每行最优值。
    下载: 导出CSV

    表  2  缩放因子为2、3、4时在基准数据集下的指标对比

    模型 缩放因子 Set5[29] Set14[30] BSD100[31] Urban100[24]
    PSNR(dB) SSIM PSNR(dB) SSIM PSNR(dB) SSIM PSNR(dB) SSIM
    SRCNN[11] X2 36.66 0.9542 32.43 0.9063 31.36 0.8879 29.50 0.8946
    VDSR[25] X2 37.54 0.9587 33.03 0.9124 31.90 0.8960 30.76 0.9140
    CARN[26] X2 37.76 0.9590 33.52 0.9166 32.09 0.8978 31.92 0.9256
    MSRN[14] X2 38.08 0.9605 33.74 0.9170 32.23 0.9013 32.22 0.9326
    IMDN[15] X2 38.00 0.9605 33.63 0.9177 32.19 0.8996 32.17 0.9283
    OISR-RK2[17] X2 38.12 0.9609 33.80 0.9193 32.26 0.9006 32.48 0.9317
    LatticeNet[27] X2 38.15 0.9610 33.78 0.9193 32.25 0.9005 32.43 0.9302
    SwinIR-light[28] X2 38.14 0.9611 33.86 0.9206 32.31 0.9012 32.76 0.9340
    DID-D5[18] X2 38.15 0.9610 33.77 0.9190 32.27 0.9006 32.38 0.9305
    LBNet[19] X2
    NGswin[20] X2 38.05 0.9610 33.79 0.9199 32.27 0.9008 32.53 0.9324
    DFDN(本文) X2 38.19 0.9612 33.85 0.9199 32.3 0.9013 32.68 0.9335
    SRCNN[11] X3 32.75 0.9090 29.30 0.8215 28.41 0.7863 26.24 0.7989
    VDSR[25] X3 33.66 0.9213 29.77 0.8314 28.82 0.7976 27.14 0.8279
    CARN[26] X3 34.29 0.9255 30.29 0.8407 29.06 0.8034 28.06 0.8493
    MSRN[14] X3 34.38 0.9262 30.34 0.8395 29.08 0.8041 28.08 0.8554
    IMDN[15] X3 34.36 0.9270 30.32 0.8417 29.09 0.8046 28.17 0.8519
    OISR-RK2[17] X3 34.55 0.9282 30.46 0.8443 29.18 0.8075 28.50 0.8597
    LatticeNet[27] X3 34.53 0.9281 30.39 0.8424 29.15 0.8059 28.33 0.8538
    SwinIR-light[28] X3 34.62 0.9289 30.54 0.8463 29.20 0.8082 28.66 0.8624
    DID-D5[18] X3 34.55 0.9280 30.49 0.8446 29.19 0.8069 28.39 0.8566
    LBNet[19] X3 34.47 0.9277 30.38 0.8417 29.13 0.8061 28.42 0.8599
    NGswin [20] X3 34.52 0.9282 30.53 0.8456 29.19 0.8078 28.52 0.8603
    DFDN(本文) X3 34.69 0.9293 30.55 0.8464 29.25 0.8089 28.70 0.8630
    SRCNN[11] X4 30.48 0.8628 27.49 0.7503 26.90 0.7101 24.53 0.7221
    VDSR[25] X4 31.35 0.8830 28.01 0.7680 27.29 0.7251 25.18 0.7543
    CARN[26] X4 32.13 0.8937 28.60 0.7806 27.58 0.7349 26.07 0.7837
    MSRN[14] X4 32.07 0.8903 28.60 0.7751 27.52 0.7273 26.04 0.7896
    IMDN[15] X4 32.21 0.8948 28.58 0.7811 27.56 0.7353 26.04 0.7838
    OISR-RK2[17] X4 32.32 0.8965 28.72 0.7843 27.66 0.7390 26.37 0.7953
    LatticeNet[27] X4 32.30 0.8962 28.68 0.7830 27.62 0.7367 26.25 0.7873
    SwinIR-light[28] X4 32.44 0.8976 28.77 0.7858 27.69 0.7406 26.47 0.7980
    DID-D5[18] X4 32.33 0.8968 28.75 0.7852 27.68 0.7386 26.36 0.7933
    LBNet[19] X4 32.29 0.8960 28.68 0.7832 27.62 0.7382 26.27 0.7906
    NGswin [20] X4 32.33 0.8963 28.78 0.7859 27.66 0.7396 26.45 0.7963
    DFDN(本文) X4 32.56 0.8989 28.87 0.7880 27.73 0.7414 26.59 0.8008
    注:黑色加粗字体为每列最优值,蓝色加粗字体为每列次优值
    下载: 导出CSV

    表  3  不同MPFB数量对网络性能的影响

    模型参数量(M)PSNR(dB)SSIM时间(ms)
    M=11.9632.290.9300131
    M=2 (本文)3.5632.530.9328173
    M=35.1732.680.9338268
    注:加粗字体为每列最优值。
    下载: 导出CSV

    表  4  不同注意力模块对网络性能的影响

    模型ESADSA
    Set5PSNR/SSIM38.11/0.961138.16/0.9612
    Set14PSNR/SSIM33.60/0.919333.61/0.9191
    BSD100PSNR/SSIM32.27/0.901032.31/0.9011
    Urban100PSNR/SSIM32.39/0.931332.53/0.9328
    注:加粗字体为每行最优值。
    下载: 导出CSV

    表  5  通道数对网络性能的影响

    模型参数量(M)PSNR(dB)SSIM时间(ms)
    C16C16C160.8037.730.9599104
    C16C32C64
    (本文)
    3.5637.970.9607173
    C32C32C321.9537.900.9604143
    C32C32C643.8037.980.9607184
    C64C64C646.5538.040.9669232
    注:加粗字体为每列最优值。
    下载: 导出CSV

    表  6  不同残差块数量对网络性能的影响

    参数量(M)PSNR(dB)SSIM时间(ms)
    Res=22.4037.910.9604150
    Res=4
    (本文)
    3.5637.970.9607173
    Res=64.7338.010.9608216
    注:加粗字体为每列最优值。
    下载: 导出CSV

    表  7  不同RFFB数量对网络性能的影响

    参数量(M)PSNR(dB)SSIM时间(ms)
    D=21.3926.080.7858113
    D=3
    (本文)
    2.0026.240.7903153
    D=42.6226.340.7941207
    注:加粗字体为每列最优值。
    下载: 导出CSV

    表  8  与基于Transformer算法的对比

    模型参数量(M)PSNR(dB)SSIM
    LBNet[19]0.7232.290.8960
    SwinIR[28]11.832.720.9021
    SwinIR-light[28]0.8832.440.8976
    NGswin[20]1.0032.330.8963
    DFDN
    (本文)
    3.8632.560.8989
    注:加粗字体为每列最优值。
    下载: 导出CSV
  • [1] 陈嘉琪, 刘祥梅, 李宁, 等. 一种超分辨SAR图像水域分割算法及其应用[J]. 电子与信息学报, 2021, 43(3): 700–707. doi: 10.11999/JEIT200366.

    CHEN Jiaqi, LIU Xiangmei, LI Ning, et al. A high-precision water segmentation algorithm for SAR image and its application[J]. Journal of Electronics & Information Technology, 2021, 43(3): 700–707. doi: 10.11999/JEIT200366.
    [2] 陈书贞, 曹世鹏, 崔美玥, 等. 基于深度多级小波变换的图像盲去模糊算法[J]. 电子与信息学报, 2021, 43(1): 154–161. doi: 10.11999/JEIT190947.

    CHEN Shuzhen, CAO Shipeng, CUI Meiyue, et al. Image blind deblurring algorithm based on deep multi-level wavelet transform[J]. Journal of Electronics & Information Technology, 2021, 43(1): 154–161. doi: 10.11999/JEIT190947.
    [3] 何鹏浩, 余映, 徐超越. 基于动态金字塔和子空间注意力的图像超分辨率重建网络[J]. 计算机科学, 2022, 49(S2): 210900202. doi: 10.11896/jsjkx.210900202.

    HE Penghao, YU Ying, and XU Chaoyue. Image super-resolution reconstruction network based on dynamic pyramid and subspace attention[J]. Computer Science, 2022, 49(S2): 210900202. doi: 10.11896/jsjkx.210900202.
    [4] 马子杰, 赵玺竣, 任国强, 等. 群稀疏高斯洛伦兹混合先验超分辨率重建[J]. 光电工程, 2021, 48(11): 210299. doi: 10.12086/oee.2021.210299.

    MA Zijie, ZHAO Xijun, REN Guoqiang, et al. Gauss-Lorenz hybrid prior super resolution reconstruction with mixed sparse representation[J]. Opto-Electronic Engineering, 2021, 48(11): 210299. doi: 10.12086/oee.2021.210299.
    [5] 黄友文, 唐欣, 周斌. 结合双注意力和结构相似度量的图像超分辨率重建网络[J]. 液晶与显示, 2022, 37(3): 367–375. doi: 10.37188/CJLCD.2021-0178.

    HUANG Youwen, TANG Xin, and ZHOU Bin. Image super-resolution reconstruction network with dual attention and structural similarity measure[J]. Chinese Journal of Liquid Crystals and Displays, 2022, 37(3): 367–375. doi: 10.37188/CJLCD.2021-0178.
    [6] OOI Y K and IBRAHIM H. Deep learning algorithms for single image super-resolution: A systematic review[J]. Electronics, 2021, 10(7): 867. doi: 10.3390/ELECTRONICS10070867.
    [7] CHEN Hanting, WANG Yunhe, GUO Tianyu, et al. Pre-trained image processing transformer[C]. Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Nashville, USA, 2021: 12294–12305. doi: 10.1109/CVPR46437.2021.01212.
    [8] WANG Xuan, YI Jinglei, GUO Jian, et al. A review of image super-resolution approaches based on deep learning and applications in remote sensing[J]. Remote Sensing, 2022, 14(21): 5423. doi: 10.3390/RS14215423.
    [9] YANG Jianchao, WRIGHT J, HUANG T, et al. Image super-resolution as sparse representation of raw image patches[C]. 2008 IEEE Conference on Computer Vision and Pattern Recognition, Anchorage, USA, 2008: 1–8. doi: 10.1109/CVPR.2008.4587647.
    [10] 程德强, 陈亮亮, 蔡迎春, 等. 边缘融合的多字典超分辨率图像重建算法[J]. 煤炭学报, 2018, 43(7): 2084–2090. doi: 10.13225/j.cnki.jccs.2017.1263.

    CHENG Deqiang, CHEN Liangliang, CAI Yingchun, et al. Image super-resolution reconstruction based on multi-dictionary and edge fusion[J]. Journal of China Coal Society, 2018, 43(7): 2084–2090. doi: 10.13225/j.cnki.jccs.2017.1263.
    [11] DONG Chao, LOY C C, HE Kaiming, et al. Image super-resolution using deep convolutional networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(2): 295–307. doi: 10.1109/TPAMI.2015.2439281.
    [12] SHI Wenzhe, CABALLERO J, HUSZÁR F, et al. Real-time single image and video super-resolution using an efficient sub-pixel convolutional neural network[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 1874–1883. doi: 10.1109/CVPR.2016.207.
    [13] LIM B, SON S, KIM H, et al. Enhanced deep residual networks for single image super-resolution[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops, Honolulu, USA, 2017: 1132–1140. doi: 10.1109/CVPRW.2017.151.
    [14] LI Juncheng, FANG Faming, MEI Kangfu, et al. Multi-scale residual network for image super-resolution[C]. The 15th European Conference on Computer Vision, Munich, Germany, 2018: 527–542. doi: 10.1007/978-3-030-01237-3_32.
    [15] HUI Zheng, GAO Xinbo, YANG Yunchu, et al. Lightweight image super-resolution with information multi-distillation network[C]. The 27th ACM International Conference on Multimedia, Nice, France, 2019: 2024–2032. doi: 10.1145/3343031.3351084.
    [16] 程德强, 郭昕, 陈亮亮, 等. 多通道递归残差网络的图像超分辨率重建[J]. 中国图象图形学报, 2021, 26(3): 605–618. doi: 10.11834/jig.200108.

    CHENG Deqiang, GUO Xin, CHEN Liangliang, et al. Image super-resolution reconstruction from multi-channel recursive residual network[J]. Journal of Image and Graphics, 2021, 26(3): 605–618. doi: 10.11834/jig.200108.
    [17] HE Xiangyu, MO Zitao, WANG Peisong, et al. ODE-inspired network design for single image super-resolution[C]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 1732–1741. doi: 10.1109/CVPR.2019.00183.
    [18] LI Longxi, FENG Hesen, ZHENG Bing, et al. DID: A nested dense in dense structure with variable local dense blocks for super-resolution image reconstruction[C]. 2020 25th International Conference on Pattern Recognition, Milan, Italy, 2021: 2582–2589. doi: 10.1109/ICPR48806.2021.9413036.
    [19] GAO Guangwei, WANG Zhengxue, LI Juncheng, et al. Lightweight bimodal network for single-image super-resolution via symmetric CNN and recursive transformer[C]. The Thirty-First International Joint Conference on Artificial Intelligence, Vienna, Austria, 2022: 913–919. doi: 10.24963/ijcai.2022/128.
    [20] CHOI H, LEE J, and YANG J. N-gram in Swin transformers for efficient lightweight image super-resolution[C]. The IEEE/CVF Computer Society Conference on Computer Vision and Pattern Recognition, Vancouver, Canada, 2023: 2071–2081. doi: 10.1109/CVPR52729.2023.00206.
    [21] HARIS M, SHAKHNAROVICH G, and UKITA N. Deep back-projection networks for super-resolution[C]. The 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 1664–1673. doi: 10.1109/CVPR.2018.00179.
    [22] LIU Jie, ZHANG Wenjie, TANG Yuting, et al. Residual feature aggregation network for image super-resolution[C]. The IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 2356–2365. doi: 10.1109/CVPR42600.2020.00243.
    [23] DAI Tao, CAI Jianeui, ZHANG Yongbing, et al. Second-order attention network for single image super-resolution[C]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Long Beach, USA, 2019: 11057–11066. doi: 10.1109/CVPR.2019.01132.
    [24] HUANG Jiabin, SINGH A, and AHUJA N. Single image super-resolution from transformed self-exemplars[C]. 2015 IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 5197–5206. doi: 10.1109/CVPR.2015.7299156.
    [25] KIM J, LEE J K, and LEE K M. 2016. Accurate image super-resolution using very deep convolutional networks[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, USA, 2016: 1646–1654. doi: 10.1109/CVPR.2016.182.
    [26] AHN N, KANG B, and SOHN K A. Fast, accurate, and lightweight super-resolution with cascading residual network[C]. The 15th European Conference on Computer Vision, Munich, Germany, 2018: 256–272. doi: 10.1007/978-3-030-01249-6_16.
    [27] LUO Xiaotong, XIE Yuan, ZHANG Yulun, et al. LatticeNet: Towards lightweight image super-resolution with lattice block[C]. The 16th European Conference on Computer Vision, Glasgow, UK, 2020: 272–289. doi: 10.1007/978-3-030-58542-6_17.
    [28] LIANG Jingyun, CAO Jiezhang, SUN Guolei, et al. SwinIR: Image restoration using swin transformer[C]. The IEEE/CVF International Conference on Computer Vision Workshops, Montreal, Canada, 2021: 1833–1844. doi: 10.1109/ICCVW54120.2021.00210.
    [29] BEVILACQUA M, ROUMY A, GUILLEMOT C, et al. Low-complexity single-image super-resolution based on nonnegative neighbor embedding[C]. British Machine Vision Conference, Surrey, UK, 2012: 1–10.
    [30] ZEYDE R, ELAD M, and PROTTER M. On single image scale-up using sparse-representations[C]. The 7th International Conference on Curves and Surfaces, Avignon, France, 2010: 711–730. doi: 10.1007/978-3-642-27413-8_47.
    [31] MARTIN D, FOWLKES C, TAL D, et al. A database of human segmented natural images and its application to evaluating segmentation algorithms and measuring ecological statistics[C]. Proceedings Eighth IEEE International Conference on Computer Vision, Vancouver, Canada, 2001: 416–423. doi: 10.1109/ICCV.2001.937655.
  • 加载中
图(10) / 表(8)
计量
  • 文章访问数:  616
  • HTML全文浏览量:  391
  • PDF下载量:  92
  • 被引次数: 0
出版历程
  • 收稿日期:  2023-08-06
  • 修回日期:  2022-11-02
  • 录用日期:  2023-12-18
  • 网络出版日期:  2023-12-25
  • 刊出日期:  2024-03-27

目录

/

返回文章
返回