Loading [MathJax]/jax/element/mml/optable/GeneralPunctuation.js
Advanced Search
Volume 45 Issue 3
Mar.  2023
Turn off MathJax
Article Contents
ZHOU Jin, LI Yuzhi, LI Bin. Image Processing-Driven Spectrum Sensing with Small Training Samples[J]. Journal of Electronics & Information Technology, 2023, 45(3): 1102-1110. doi: 10.11999/JEIT220084
Citation: ZHOU Jin, LI Yuzhi, LI Bin. Image Processing-Driven Spectrum Sensing with Small Training Samples[J]. Journal of Electronics & Information Technology, 2023, 45(3): 1102-1110. doi: 10.11999/JEIT220084

Image Processing-Driven Spectrum Sensing with Small Training Samples

doi: 10.11999/JEIT220084
Funds:  The Humanities and Social Sciences of Ministry of Education Planning fund (19YJA630046), Tianjin Education Commission Scientific Research Program (2021SK102)
  • Received Date: 2022-01-19
  • Accepted Date: 2022-08-25
  • Rev Recd Date: 2022-08-24
  • Available Online: 2022-08-30
  • Publish Date: 2023-03-10
  • To resolve the problems of high computational complexity in strong noise environment, infeasibility of gaining large number of labeled samples and low detection probability, an Image Denoising and Classification driven Spectrum Sensing (IDCSS) method is proposed. Firstly, time-frequency transformation is employed to convert radio numerical signals into images. Then, as received signals of cognitive users and noise are highly correlated under strong noise environments, a novel Generative Adversarial Network (GAN) is designed to enhance the number and quality of samples of cognitive user signals. In the generator, residual-long-short-term memory network is designed to replace U-Net skip connection, realizing denoising and multi-scale features extraction. Loss function based on entropy is designed to optimize robustness to noise. A multi-dimensional discriminator is designed to enhance the quality of the generated image and retain the image details of the low signal-to-noise ratio cognitive user signals. Finally, the generated high-quality samples are used as labeled data, and the real samples combine to train the classifier to realize the recognition and classification of the spectrum occupancy state. Simulation results show that the proposed algorithm has better detection performance by comparing it with the state-of-the-art methods.
  • 认知无线电技术准许感知用户接入授权给主用户的空余无线电资源,解决频谱匮乏的矛盾[1-3]。受到深度学习在图像处理领域优越性能的启发[4-6],近年来,有学者借鉴图像识别方法解决频谱感知问题。如文献[7]为达到更深层次的匹配映射,提出一种新型基于深度网络的频谱探测算法,该方法将频谱状态检测等价为图像识别问题,应用残差单元训练网络模型,捕获接收信号图像的高层语义特征,在低信噪比下获得了更高的检测效率。但是该论文提出的方法用改进的U-Net结构的残差网络取代跳跃连接忽略了无线电信号的时序特性,多径信道可造成信号的时序改变从而影响频谱感知准确度。文献[8]为解决能量检测判决门限受噪声影响较大的问题,将无监督图像聚类方法应用于频谱状态探测。改进了图像强度实现对低信噪比下的接收信号图像增强功能,之后提取图像特征并利用改进的聚类算法进行图像分类。然而该文献没有对上述方法的去噪性能进行研究,噪声对低信噪比环境下的频谱感知性能影响较大。上述方法的判决器仅从信号时域特性判决,忽略了信号的频域特性,而无线电信号在频域上具有明显的结构化稀疏特性。深度学习网络需要大量训练样本才能获得较好的网络性能,通常很难大量获取无线信号样本,生成对抗网络的提出为解决训练样本不足的难题提供了全新的解决途径。文献[9]针对通信环境信道的时变特性和发射机发射模式动态变化导致难以获取大量训练样本的困难,首次将生成对抗网络(Generative Adversarial Network, GAN)用于频谱感知架构。但该文的生成器沿用传统编码器-解码器结构,可能导致接收信号高阶细节丢失。文献[10]利用改进的深度卷积生成对抗网络来扩展训练集,以此解决训练样本匮乏的难题。该方法将接收信号的统计量矩阵转换为图像,然后将图像划分为训练集和测试集。训练集经过改进的深度卷积生成对抗网络并进行训练。但该方法仅考虑了白噪声场景,且并未考查信道环境恶劣下的频谱感知性能。

    基于上述问题,本文提出一种小样本背景下图像去噪及分类驱动的频谱感知方法(Image Denoising and Classification driven Spectrum Sensing, IDCSS),首先将感知用户的接收信号进行时频变换,由数值转换为灰度图像。然后在最小二乘生成对抗网络[11]的基础上改进生成器:为提取接收信号的时域特性,构建残差-长短期记忆网络[12,13](Res-Long Short Term Memory, Res-LSTM)来取代跳跃连接,为生成器构建基于信息熵的最小二乘损失函数来提高和衡量该网络抗噪能力。最后,为提取接收信号的结构化频域特征,建立多维度判决器。生成的高质量增强样本训练SVM分类器,判别频谱占用状态。

    假设每位感知用户配备M根天线。令${\boldsymbol{x}}(n) = [{x_1}(n), {x_2}(n), \cdots ,{x_M}(n)]^{\text{T}}$表示第n个观测向量,$ {x_i}(n) $表示感知用户第i根天线$ (i = 1,2, \cdots ,M) $上的时刻n的离散采样值。频谱感知可以等效成两维度假设问题

    H1:x(n)=s(n)+u(n)H0:x(n)=u(n)} (1)

    其中,${\boldsymbol{s}}(n) \in {\mathbb{C}^{M \times 1}}$表示经历路径损耗和信道衰落的信号向量。${\boldsymbol{u}}(n) \in {\mathbb{C}^{M \times 1}}$代表均值为零、方差为$ {\sigma ^2} $的高斯白噪声。$ {{\text{H}}_1} $$ {{\text{H}}_0} $各自表示频谱由主用户占用、频谱空余两种情况。当接收信号的数值矩阵转换为图像时,图像表现出不同特性。将接收信号向量转换成2维矩阵,图1表示不同信噪比下信道占用/空闲状态下,感知用户接收信号的时频图像。信噪比较低时,频谱占用/空闲两种情况下接收信号的时频图像亮度差异较小,信噪比较高时,差异较大。低信噪比情况时,两种状态的图像差异较小会导致频谱感知准确度下降,其原因是低信噪比时噪声功率较大,甚至超过授权用户的发射功率,使两种情况下的图像差异降低。

    图  1  信道占用/空闲情况下接收信号时频图像

    本文提出的IDCSS方法分为信号预处理、数据增强和频谱感知检测分类3部分。信号预处理模块对感知用户接收到的信号进行时频域转换,其目的是将频谱二分类问题转换为图像分类问题。数据增强模块通过去噪和样本扩充,实现对接收信号图像进行增强处理,提高低信噪比下频谱感知的检测性能。分类做出频谱占用状态的决策判断。系统构成如图2所示。

    图  2  IDCSS方法总体框图

    文中以最小二乘-GAN(Least Square Generative Adversarial Network, LSGAN)作为频谱感知方法的基本框架,构造改进的损失函数来度量该网络的去噪性能,从而起到图像增强的作用。LSGAN的判决器采用具有a-b编码结构的最小方差损失函数,a和b各自代表生成数据和真实数据的标签。LSGAN的目标函数定义为

    minDVLSGAN(D)=12Expdata(x)[(D(x)b)2]+12Ezpz(z)[(D(G(z))a)2] (2)
    minGVLSGAN(G)=12Ezpz(z)[D(G(z)c)]2 (3)

    其中,x表明真实数据,即高信噪比接收信号,$ {p_{{\text{data}}}}(x) $为数据x的概率分布,z表示可以生成增强数据$ G(z) $的随机噪声,z为低信噪比下感知用户接收信号的频谱图像。c表示生成器希望判决器信任的数据。因此,生成器最终能够生成与真实数据,即高信噪比下感知用户接收信号图像所尽可能接近的样值。受神经网络杰出的去噪性能启发,结合LSGAN的优点,本文采用LSGAN的基本框架来去除低信噪比感知用户接收信号图像中的噪声。本文提出的低信噪比接收信号图像增强模块结构如图3所示。

    图  3  低信噪比信号增强网络

    生成器G将低信噪比下接收信号时频2维图像转换为类似于高信噪比接收信号图像的去噪图像。判决器D用于对抗训练,本文采用感知网络和两级基于信息熵的最小均方网络进行感知及结构归一化,两级MSE分别为高信噪比接收信号图像信息熵与生成图像信息熵之间的MSE、低信噪比接收信号图像中的噪声信息熵和生成数据中的噪声信息熵之间的MSE。本文提出的对抗目标函数表达为

    minDLA(D;G)=Nk=1minDLA(Dk;G)=Nk=1Exnp(xn)[ (4)
    \begin{split} \mathop {\min }\limits_G {\mathcal{L}_A}(G;D)& = \sum\limits_{k = 1}^N {\mathop {\min }\limits_G {\mathcal{L}_A}(G;{D_k})} \\ & = \sum\limits_{k = 1}^N {{{\rm{E}}_{{x_l} \sim p({x_l})}}[{{\left\| {{D_k}(G({x_l})) - 1} \right\|}^2}]} \end{split} (5)

    其中,$ {D_k} $是用于训练第k个尺度的第k个判决器。${{\rm{E}}_{{x_n} \sim p({x_n})}}$${{\rm{E}}_{{x_l} \sim p({x_l})}}$分别表示高信噪比接收信号图像数据$ {x_n} $和低信噪比接收信号图像数据$ {x_l} $期望。生成器试图合成虚拟的高信噪比接收信号图像从而“欺骗”判决器D,判决器经过训练来区分高信噪比接收信号图像和生成的虚假图像$ G({x_l}) $。感知损失函数表示为

    {L_P} = \frac{1}{{{N_i}}}{\left\| {{{\boldsymbol{\varPhi}} ^i}({x_n}) - {{\boldsymbol{\varPhi}} ^i}(G({x_l}))} \right\|_1} (6)

    其中,${{\boldsymbol{\varPhi}} ^i}( \cdot )$表示预训练VGG-19网络的第i层提取到的特征图谱,$ {N_i} $表示${{\boldsymbol{\varPhi}} ^i}( \cdot )$中的元素数量。生成图像$ G({x_l}) $与高信噪比接收信号图像$ {x_n} $之间的差值作为内容损失函数,表示为

    {L_C} = \frac{1}{{{N_x}}}(({x_n}) - {(G({x_l}))^2} (7)

    其中,$ {N_x} $表示图像中的像素总数。本文采用MSE作为损失函数的原因是:MSE损失函数对由噪声引发的图像差异更为敏感。此外,本文提出以信息熵的损失量来度量网络的去噪能力,该函数定义为

    L = \frac{1}{N}(\left| {H({x_n}) - H({x_l})} \right| - \left| {H(G({x_l}) - H({x_l})} \right|) (8)

    有用信号的信息熵低于噪声。$ {x_l} $$ {x_n} $信息熵的差值表征噪声信息熵,若该信息熵与生成数据和$ {x_l} $之间的信息熵差值近似相等,则生成数据接近于$ {x_n} $。网络去噪能力越强,生成数据$ G({x_l}) $的信息熵越小。式(12)最小化时,$ G({x_l}) $的信息熵接近高信噪比接收信号图像的信息熵,使生成图像与高信噪比接收信号图像近似。

    3.2.1   生成器设计

    图4为生成器模型,4层卷积层、4层反卷积层,卷积层1参数为64×64×32、卷积层2参数为32×32×64、卷积层3参数为16×16×128、卷积层4参数为16×16×256、反卷积层1参数为16×16×256、反卷积层2参数为16×16×128、反卷积层3参数为32×32×64、反卷积层4参数为64×64×32。考虑到U-Net架构良好的细节提取能力,本文在每一个跳跃连接路径上加入LSTM-Res模块。连接至反卷积层之前,利用4个LSTM-Res模块来处理4个不同的卷积层。由于感知接收信号具有时变特性,同时利用接收信号的频域特性和时域特性。由残差网络来提取接收信号的频域特性。采用不同的卷积核来提取接收信号丰富的频域特性。LSTM网络将频域特性作为输入信号来提取接收信号的时域特性。

    图  4  本文提出的生成器模型

    取代跳跃连接的LSTM-Res架构如图5所示。通过堆叠两个混合层(每个混合层包括1个BN层,1个非线性激活层和1个Conv2D层)来建立残差单元。所有Conv2D的滤波器设置为30,即采用30个卷积核来从接收信号的STFT变化图谱中提取其频域特性。本文采用包含1024个单元的LSTM来学习接收信号的时域及频域特性。

    图  5  本文提出的LSTM-Res网络结构
    3.2.2   多尺度判决器

    本文采用包含多级子判决器的4级联合判决器。如图6所示。每个子判决器由n层CNN构成,输入信号是生成器的反卷积层输出信号和高信噪比接收信号时频图像的下采样信号。为挖掘时频图像的更多细节,本文对生成图像、低信噪比图像、高信噪比图像开展离散余弦变换(Discrete Cosine Transformation, DCT)。然后分别测量生成图像与低信噪比时频图像的差异、低信噪比时频图像和高信噪比时频图像的差异,两个度量量分别反映了低信噪比图像的丢失信息量和生成器得到的增强样本的丢失信息熵。下一步两种差异量作为对抗损失函数用于测量生成器从低信噪比时频图像中恢复丢失细节信息的能力。最后,各级子判决器将判别结果进行融合计算,测量生成器从低信噪比时频图像中恢复丢失细节信息的能力。

    图  6  本文提出的多尺度判决器

    本文训练样本和测试数据集由MATLAB 2019b平台仿真形成;在Win7操作系统下使用Python3.6及Caffe深度学习编程框架进行算法实现;硬件采用GPU Geforce GTX 1080,内存16 GB。主用户发射信号为OFDM信号。对H1模拟仿真生成高信噪比及较低信噪比下的数据,对其求取STFT且转换为图像,STFT采用汉明窗函数,标签设置为[1,0]。对H0仿真生成数据,标签设置为[0,1]。测试集数据生成方法与训练样本相同。

    4.2.1   检测性能比照

    本实验考察高斯白噪声下算法检测概率性能。横坐标为比特信噪比Eb/N0,纵坐标为检测概率。图7(a)图7(b)分别表示训练样本取1000组、100组时3种算法检测概率随信噪比变化趋势对比结果。由图可以看到,当Eb/N0和虚警概率相同时,IDCSS在性能上优于图像聚类算法、SAGA算法和传统能量检测算法。随着训练样本数量降低,本文算法在检测准确率方面性能凸显:当训练样本数量为1000组时,信噪比取–10 dB,SAGA算法检测概率为0.789,图像聚类算法为0.920,传统能量检测算法为0.375,本文算法检测概率为0.973。当训练样本数量降为100组时,图像聚类频谱感知方法的检测概率显著下降,因为该算法采用的基于直方图的特征提取算法无法在少量样本前提下获得准确的信号特征。本文方法的去噪能力使得检测概率性能在小样本前提下优于基于传统GAN的SAGA算法。图8为3种算法漏警概率性能比较结果。3种算法均满足漏警概率小于等于0.1。随信噪比增加,3种方法的漏警概率均降低。由于本文方法针对低信噪比下接收信号进行了数据增强,利用多尺度判决器提取接收信号的多维度特征,同时增加网络去噪功能,图像聚类的频谱感知方法仅从图像亮度角度对低信噪比接收信号进行增强,SAGA方法仅对接收信号进行样本量扩充,因此本文算法经迭代后漏警概率值低于其他两种方法,尤其在低信噪比条件下性能优势更为明显。

    图  7  4种算法的检测概率随信噪比趋势性能比照
    4.2.2   训练样本数量与检测概率性能比照

    图9(a)(c)描述了在–20 dB, –12 dB和–5 dB情况下IDCSS、SAGA和基于图像聚类频谱感知算法检测概率随样本数量及增强样本数量变化趋势。当信噪比为–5 dB时。虽然本文算法达到稳定的检测概率所需样本数多于SAGA算法和图像聚类频谱感知算法,但大约120个增强样本生成后,基于图像增强的频谱感知算法的检测概率高于其他两种方法。基于图像增强的方法在迭代稳定后其检测概率均高于SAGA方法和图像聚类的频谱感知算法。本文提出的IDCSS方法在低信噪比场景下相比其他两种方法有较高的检测概率。

    图  8  检测概率随训练样本数量变化情况比较
    图  9  ROC性能
    4.2.3   ROC曲线

    3种方法的ROC曲线如图10所示。在虚警概率一定时,IDCSS方法的检测概率高于SAGA模型和基于图像聚类的频谱感知方法。主用户信号呈相关模型的频谱感知性能优于主用户信号呈独立同分布模型的原因是前者的信号相比后者具有更明显的判别性特征。图10(a)表示主用户信号呈独立同分布模型下虚警概率与检测概率变化趋势。信噪比取值为–20~15 dB。图10(b)是主用户信号服从指数相关模型的ROC性能。本文方法性能优于基于图像聚类的频谱感知方法和SAGA算法。当虚警概率等于0.8时,IDCSS方法、SAGA模型、基于图像聚类的频谱感知方法的检测概率分别为0.812, 0.533, 0.289。其原因是本文方法在增强频谱感知模型的特征提取能力的同时,对噪声具有较强鲁棒性。

    图  10  ROC性能
    4.2.4   生成图像可视化及质量评价对比

    图11为分别采用IDCSS, SAGA, CGAN时接收信号图像做比照实验。图11(a)为10 dB时接收信号STFT图像。图11(b)为IDCSS方法对–10 dB接收信号的生成图像。图11(c)为–10 dB时接收信号STFT图像。图11(d)为–10 dB时SAGA方法的生成图像。图11(e)为–10 dB时CGAN得到的生成图像。IDCSS方法的生成图像更接近于高信噪比情况下的接收信号图像。SAGA模型在强噪声环境下频谱感知性能劣于IDCSS。

    图  11  3种基于GAN频谱感知方法生成图像可视化对比

    PSNR值越大,去噪能力越强。SSIM越大,图像相似性越高。FID表征实际图像和生成图像的特征向量之间的相关度。信噪比为–10 dB时计算基于CGAN的频谱感知算法、SAGA网络及本文方法生成图像的PNSR, SSIM和FID值,结果如表1所示。本文方法PNSR和SSIM值最大,FID值最小,表明本文方法对接收信号的图像具有较强的去噪效果和细节特征提取能力。

    表  1  3种方法生成图像质量比照结果
    所用方法PSNR(dB)SSIMFID
    CGAN15.66000.650087.1200
    SAGA22.35000.720052.8100
    IDCSS24.24000.790046.1300
    下载: 导出CSV 
    | 显示表格
    4.2.5   有色噪声环境下算法性能比照

    对–15~0 dB下的有色闪烁噪声建立训练集。由图12可知,当信噪比低于–12 dB时IDCSS方法与其他两种频谱感知方法表现出优势。信噪比为–12 dB时,IDCSS方法、SAGA算法、根据图像聚类的频谱感知算法的检测概率各自为0.80, 0.44, 0.34。本文方法对恶劣信道环境下的频谱感知具有较强的泛化能力。

    图  12  3种方法在不同功率有色噪声场景下的检测概率
    4.2.6   计算复杂度及实时性分析

    基于图像聚类的频谱感知方法采用直方图进行接收信号特征提取,然后利用K-means方法进行频谱占用状态分类,其算法复杂度是$ O(n \times k \times t) $,其中n表示样本数据数量,k为簇的数量,t为迭代次数。聚类方法所需样本数量集较大。图像聚类算法缺点:本质是一种基于直方图的特征提取算法,描述子生成过程冗长,导致速度慢,实时性差;很难处理遮挡问题。由于梯度的性质,该描述子对噪点相当敏感。为获取相对准确的分类结果,基于直方图的特征提取算法需要大量的感知用户训练样本,而本文所提方法在小样本前提下可获得精确的频谱感知检测概率。本文方法的生成器、判别器均在卷积神经网络基础上建立,其时间复杂度表示为:$时间复杂度\sim {O}\left({\displaystyle {\sum }_{l=1}^{L}{M}_{l}^{2}{K}_{l}^{2}{C}_{l-1}{C}_{l}}\right)$K表示卷积核维度,C表示通道数量,L表示网络层数。根据本文设计的网络架构,时间复杂度如表2表3所示。

    表  2  本文算法生成器时间复杂度$\sim {O}\left( {4.365 \times {{10}^7}} \right)$
    MKCl–1Cl
    M1=8K1=3C1=64C2=128
    M2=16K2=3C2=128C3=64
    M3=32K3=3C3=64C4=32
    M4=64K4=3C4=32C5=1
    下载: 导出CSV 
    | 显示表格
    表  3  本文算法判决器时间复杂度$ \sim O\left( {5.78 \times {{10}^7}} \right) $
    MKCl–1Cl
    M1=64K1=3C1=1C2=32
    M2=32K2=3C2=32C3=64
    M3=16K3=3C3=64C4=128
    M4=8K4=3C4=128C5=256
    下载: 导出CSV 
    | 显示表格

    本文所提的频谱感知算法通过LSTM-Res连接跳过一个或多个卷积层,使得网络可以跳跃性地选择层数,无需像GAN算法中遍历所有层直至累加到第K层,因此本文所提方法减少了训练卷积层所需的参数,从而降低了算法复杂度。表4为3种算法离线训练时间和在线频谱感知时间对比结果。本文提出的基于图像去噪及分类的频谱感知算法在实时性上优于图像聚类和SAGA方法。这是因为IDCSS采用了LSTM-Res连接免去如SAGA网络中的逐层遍历连接,加快了网络收敛速度。图像聚类的频谱感知方法首先利用直方图算法对接收信号进行特征提取,然后利用改进的K-means聚类进行频谱占用情况分类。而HOG特征提取对噪声不敏感、特征维度大,使得训练时间延长。K-means聚类分类需要不断调整聚类中心点,尤其当主用户不断变换发射模式时计算量庞大,使得感知时间延长。

    表  4  训练及感知时间(s)对比
    方法离线训练时间在线感知时间
    图像聚类40.134.01
    SAGA20.052.27
    本文方法18.741.43
    下载: 导出CSV 
    | 显示表格

    强噪声环境下频谱感知检测性能较差,现有的强噪声环境下的频谱感知方法通常需要捕获感知用户接收信号的高阶特征向量,计算复杂度较高。此外,无线信道的时变特性导致很难获取大量有标签信号样本,使得频谱监测准确性降低。利用无线电信号的2维图像表征,本文提出一种由图像去噪和图像分类思想驱动的频谱感知方法。算法首先对感知用户的接收信号进行时频变换,将无线电数值信号转换为图像;考虑到强噪声环境下感知用户接收信号图像与噪声图像相关度大,因此建立生成对抗网络来增强样本数量和图像质量,利用残差-长短时记忆网络取代生成网络U-Net结构中的跳跃连接,提取感知用户接收信号图像的多尺度特征,建立最小二乘生成对抗网络损失函数来衡量网络的抗噪能力,最后设计适用无线电图像信号的多维度判决器来增强生成图像的质量、保留低信噪比感知用户信号的图像细节。仿真实验结果从6个方面验证了所提方法较现有协同频谱感知算法的优越性。

  • [1]
    陈勇, 张余, 柳永祥. 电磁频谱战发展剖析与思考[J]. 指挥与控制学报, 2018, 4(4): 319–324.

    CHEN Yong, ZHANG Yu, and LIU Yongxiang. Analysis and thinking on the development of electromagnetic spectrum warfare[J]. Journal of Command and Control, 2018, 4(4): 319–324.
    [2]
    XIONG Tianyi, YAO Yudong, REN Yujue, et al. Multiband spectrum sensing in cognitive radio networks with secondary user hardware limitation: Random and adaptive spectrum sensing strategies[J]. IEEE Transactions on Wireless Communications, 2018, 17(5): 3018–3029. doi: 10.1109/TWC.2018.2805729
    [3]
    张莹, 滕伟, 韩维佳, 等. 认知无线电频谱感知技术综述[J]. 无线电通信技术, 2015, 41(3): 12–16. doi: 10.3969/j.issn.1673-1131.2015.07.056

    ZHANG Ying, TENG Wei, HAN Weijia, et al. Review of spectrum sensing techniques in cognitive radio networks[J]. Radio Communications Technology, 2015, 41(3): 12–16. doi: 10.3969/j.issn.1673-1131.2015.07.056
    [4]
    CHEN Hongsong, ZHANG Yongpeng, CAO Yongrui, et al. Security issues and defensive approaches in deep learning frameworks[J]. Tsinghua Science and Technology, 2021, 26(6): 894–905. doi: 10.26599/TST.2020.9010050
    [5]
    TANG Hao, LIU Hong, XIAO Wei, et al. When dictionary learning meets deep learning: Deep dictionary learning and coding network for image recognition with limited data[J]. IEEE Transactions on Neural Networks and Learning Systems, 2021, 32(5): 2129–2141. doi: 10.1109/TNNLS.2020.2997289
    [6]
    WANG Xi, TANG Fangyao, CHEN Hao, et al. UD-MIL: Uncertainty-driven deep multiple instance learning for OCT image classification[J]. IEEE Journal of Biomedical and Health Informatics, 2020, 24(12): 3431–3442. doi: 10.1109/JBHI.2020.2983730
    [7]
    盖建新, 薛宪峰, 吴静谊, 等. 基于深度卷积神经网络的协作频谱感知方法[J]. 电子与信息学报, 2021, 43(10): 2911–2919. doi: 10.11999/JEIT201005

    GAI Jianxin, XUE Xianfeng, WU Jingyi, et al. Cooperative spectrum sensing method based on deep convolutional neural network[J]. Journal of Electronics &Information Technology, 2021, 43(10): 2911–2919. doi: 10.11999/JEIT201005
    [8]
    岳文静, 刘文博, 陈志. 基于图像K-means聚类分析的频谱感知算法[J]. 信号处理, 2020, 36(2): 203–209. doi: 10.16798/j.issn.1003-0530.2020.02.006

    YUE Wenjing, LIU Wenbo, and CHEN Zhi. Spectrum sensing algorithm based on image K-means clustering analysis[J]. Journal of Signal Processing, 2020, 36(2): 203–209. doi: 10.16798/j.issn.1003-0530.2020.02.006
    [9]
    DAVASLIOGLU K and SAGDUYU Y E. Generative adversarial learning for spectrum sensing[C]. 2018 IEEE International Conference on Communications, Kansas City, USA, 2018: 1–6.
    [10]
    LIU Zheng, JING Xiaojun, ZHANG Ronghui, et al. Spectrum sensing based on deep convolutional generative adversarial networks[C]. 2021 International Wireless Communications and Mobile Computing, Harbin, China, 2021: 796–801.
    [11]
    MAO Xudong, LI Qing, XIE Haoran, et al. Least squares generative adversarial networks[C]. 2017 IEEE International Conference on Computer Vision (ICCV), Venice, Italy, 2017: 2813–2821.
    [12]
    麻文刚, 张亚东, 郭进. 基于LSTM与改进残差网络优化的异常流量检测方法[J]. 通信学报, 2021, 42(5): 23–40. doi: 10.11959/j.issn.1000-436x.2021109

    MA Wengang, ZHANG Yadong, and GUO Jin. Abnormal traffic detection method based on LSTM and improved residual neural network optimization[J]. Journal on Communications, 2021, 42(5): 23–40. doi: 10.11959/j.issn.1000-436x.2021109
    [13]
    蒲悦逸, 王文涵, 朱强, 等. 基于CNN-ResNet-LSTM模型的城市短时交通流量预测算法[J]. 北京邮电大学学报, 2020, 43(5): 9–14. doi: 10.13190/j.jbupt.2019-243

    PU Yueyi, WANG Wenhan, ZHU Qiang, et al. Urban short-term traffic flow prediction algorithm based on CNN-ResNet-LSTM model[J]. Journal of Beijing University of Posts and Telecommunications, 2020, 43(5): 9–14. doi: 10.13190/j.jbupt.2019-243
  • Cited by

    Periodical cited type(1)

    1. 程风云,周金. 信号增强网络驱动的调制识别. 电信科学. 2024(04): 139-150 .

    Other cited types(3)

  • 加载中

Catalog

    通讯作者: 陈斌, bchen63@163.com
    • 1. 

      沈阳化工大学材料科学与工程学院 沈阳 110142

    1. 本站搜索
    2. 百度学术搜索
    3. 万方数据库搜索
    4. CNKI搜索

    Figures(12)  / Tables(4)

    Article Metrics

    Article views (534) PDF downloads(83) Cited by()
    Proportional views
    Related

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return