Remote Sensing Image Change Detection Based on Fully Convolutional Neural Networks with Edge Change Information
-
摘要: 高分辨率遥感图像变化检测是了解地表变化的关键,是遥感图像处理领域的一个重要分支。现有很多基于深度学习的变化检测方法,取得了良好的效果,但是不易获得高分辨率遥感图像中的结构细节且检测精度有待提高。因此,该文提出融合了边缘变化信息和通道注意力模块的网络框架(EANet),分为边缘结构变化信息检测、深度特征提取和变化区域判别3个模块。首先,为了得到双时相图像的边缘变化信息,对其进行边缘检测得到边缘图,并将边缘图相减得到边缘差异图;其次,考虑到高分辨率遥感图像精细的图像细节和复杂的纹理特征,为了充分提取单个图像的深度特征,构建基于VGG-16网络的3支路模型,分别提取双时相图像和边缘差异图的深度特征;最后,为了提高检测精度,提出将通道注意力机制嵌入到模型中,以关注信息量大的通道特征来更好地进行变化区域的判别。实验结果表明,无论从视觉解释或精度衡量上看,提出算法与目前已有的一些方法相比,具有一定的优越性。Abstract: Change detection in high resolution remote sensing images is the key to understanding of land surface changes. Change detection of remote sensing images is an important branch of remote sensing image processing. Many existing change detection methods based on deep learning have achieved good results, but it is not easy to obtain the structural details of high resolution remote sensing images, and the accuracy of the detection needs to be improved. Therefore, a network framework which combines Edge change information and channel Attention Network module (EANet) is proposed. EANet is divided into three modules: Edge structure change information detection, depth feature extraction and change area discrimination. Firstly, in order to get the edge change information of the two-phase images, the edge of the two-phase images is detected to get the edge images, and the edge images is subtracted to get the edge difference images. Secondly, in consideration of the fine image details and complex texture features of high resolution remote sensing images, in order to extract fully the depth features of a single image, a model with three branches based on VGG-16 network is constructed to extract the depth features of bitemporal images and edge difference images respectively. Finally, in order to improve the accuracy of the detection, the channel attention mechanism is embedded into the model to focus on the channel features with large amount of information to identify better the changed regions. The experimental results show that the proposed algorithm is superior to some existing methods in terms of visual interpretation and accuracy measurement.
-
Key words:
- Remote sensing image /
- Change detection /
- Deep learning /
- Attention mechanism /
- Edge change information
-
1. 引言
随着卫星与无人机等遥感技术的飞速发展,遥感图像数据总量和类型都不断增加,也为遥感图像的处理提出了更多的挑战和要求[1]。多时相遥感图像的变化检测,实质是利用同一地区不同时相的多幅遥感图像,监测该地区的地物变化的过程。目前,遥感图像变化检测技术在许多领域都有着广泛的应用,如土地利用变化监测、城市发展规划和布局、水资源地理分布情况和质量勘测等[2-4]。
传统的遥感图像变化检测方法主要借助底层或中层特征作为变化区域判别的依据。这些方法可以分为直接比较法和先分析后比较法。前者是指先通过比较像素或各种特征来构成差异图,然后利用差异图来提取变化的区域。直接比较法又包括图像差值法、图像比值法、变化矢量分析法等[5,6]。例如,文献[6]提出一种基于PCA-K-means的算法,这是一种经典的直接比较法,其首先利用主成分分析(Principal Component Analysis, PCA)来提取两幅图像相减的差异图像正交特征向量,然后使用K-means得到变化检测图像。直接比较法对数据预处理比较敏感,若预处理效果不好,检测结果很容易受到噪声影响。而先分析后比较法是先对两幅图像中的地物进行分析,根据分析的结果判断变化区域。这类方法包括支持向量机、随机森林、决策树等[7,8]。上述两类传统的变化检测方法,由于从图像中所提取的特征都比较浅层,并不适合目前具有高分甚至超高分辨率的遥感图像。
近年来,深度学习由于能从图像中提取更深层次的特征,而广泛应用于图像处理和模式识别领域。目前,国内外学者提出了许多基于深度学习的遥感图像变化检测方法。从方法的框架上来看,大致可分为3类:(1) 先提取特征再进行检测的方法,即先使用深度网络对双时相图像提取图像特征,再根据特征进行变化检测[9];(2) 先预分类再进行检测的方法,即先使用传统算法对差分图像进行预分类,挑选明确是变化与不变的样本对深度网络进行训练,最后将不确定的样本输入训练好的网络,得到结果图[10]。尽管这两类方法都基于深度学习,其变化检测的效果也优于传统的方法,但它们在检测过程中所需的阈值判断、聚类和样本选择等步骤仍受到人为经验的影响,容易产生误差。(3) 基于全卷积网络的方法,这是一种完全端到端的学习框架,中间不掺杂人为因素的干扰,整个过程更加鲁棒、高效[11]。根据图像的输入方法,这类方法又可以细分为单输入的网络和双输入的网络。单输入网络是将双时相图像级联为一幅图像后再输入网络[12,13]。例如,文献[13]将双时相图像对串联作为改进UNet++网络的输入,将不同语义层次的变化图进行合并,生成最终的变化图。相比较单输入网络而言,双输入网络是借鉴了孪生网络[14-16],将全卷积网络前端特征提取部分改为两个结构相同的网络。例如,文献[15]提出了3种全卷积神经网络框架用于遥感图像的变化检测,其中一种是单输入,另外两种为双输入,实验结果表明双输入的网络架构更适用于变化检测。文献[16]提出一种基于DSIFN的方法,属于双输入的基于全卷积网络的方法,双时相图像通过孪生输入网络提取深度特征,在训练时将降采样后的变化图的直接反馈引入网络的中间层,独立计算损失来更新网络参数。
尽管基于全卷积网络的方法取得了较好的变化检测性能,但仍然存在一些不足:(1)全卷积网络在提取双时相图像深度特征时,不易获得图像的结构变化信息(如边缘信息等),这将不利于网络后端检测图像的重建;(2)部分全卷积网络为了满足单输入的要求,会将双时相图像串联为一个图像,较难区分每个图像的深度特征,不利于最后变化图的重建[17];(3)类似UNet[18]这种全卷积网络,在变化检测时会将前端原始深层图像特征引入到后端,与图像差异特征级联在一起,这会带来特征冗余问题。
为此,本文针对上述问题,提出了一种基于融合边缘变化信息全卷积神经网络的遥感图像变化检测方法。首先,为了获取双时相图像的结构变化信息,提出计算两时相图像的边缘检测图,以得到边缘差异图像,作为后续网络的一个输入。其次,为了充分提取和区分每个输入的深度特征,搭建了一种基于VGG-16的3支路网络框架,该框架将对双时相图像和边缘差异图像分别进行深度特征提取。最后,在变化判别部分,设计了一种通道注意力模块,用于关注特征图中的关键信息,同时抑制无用信息,从而进一步提升变化检测的精度。整个方法的创新点在于融合了边缘变化的信息和通道注意力的模块,因此,本文将其称为EANet (Edge-Attention Network)。
2. 提出的方法
2.1 总体框架
图1为本文提出算法的总体框架。EANet由边缘结构变化信息检测、深度特征提取和变化区域判别3部分组成。深度特征提取部分包含3个支路,双时相遥感图像(即变化前的图像和变化后的图像)分别输入支路T1和T2,边缘差异图像输入第3个支路C3。变化区域判别部分将3支路提取得到的深度特征进行级联,用于变化区域的判别。
2.2 边缘结构变化信息检测
在计算机视觉领域中,边缘可以有效传达图像的结构信息。为此,本文采用 Canny算子[19],对双时相图像进行边缘检测,计算边缘图。
(1) 采用高斯滤波器对图像进行卷积来降低噪声对检测的影响。设
f(x,y) 表示输入图像,G(x,y) 表示高斯函数,用G(x,y) 对f(x,y) 进行卷积,得到平滑图像fs(x,y) ,即G(x,y)=1√2πμexp(−(x2+y2)2μ2) (1) fs(x,y)=f(x,y)∗G(x,y) (2) 其中,
μ 为平滑尺度参数,*表示卷积操作。(2) 设计梯度算子
gx=∂fs/∂x ,gy=∂fs/∂y ,计算平滑图像各像素点的梯度大小和方向。M(x,y)=√g2x+g2y (3) α(x,y)=arctan(gygx) (4) (3) 比较每个像素
3×3 邻域的中心像素和沿梯度方向的两个像素。若大于沿梯度方向上相邻2个像素点灰度值的梯度幅值,那么该点即为可能的边缘点。然后设定两个高低阈值maxVal 和minVal 。当像素点梯度值大于maxVal 或梯度值介于两者之间且能与边缘点相连接时,判定为最终边缘点。(4) 将得到的两个双时相图像的边缘图
g1(x,y) ,g2(x,y) 相减,获取边缘差异图像gdi(x,y) ,即gdi(x,y)=g2(x,y)−g1(x,y) (5) 2.3 深度特征提取
为了提取双时相图像及边缘差异图的深度特征,本文设计了一种基于VGG-16[20]的3支路网络框架。在图像处理领域,VGG-16作为一个强大而准确的分类网络,在图像分类和目标检测等任务中取得了良好的效果。为此,本文采用在“ImageNet”数据集[21]上预先训练好的VGG-16的前5层卷积和池化部分,对双时相图像和边缘差异图进行深度特征的提取。
具体地,卷积层使用
k×k 卷积核。假设第l 层为卷积层,则第l 层的第j 个特征图zlj 可通过式(6)计算得到zlj=g(∑i∈Ml−1zl−1i∗wlij+blj) (6) 其中,*表示卷积操作,
zl−1i 表示第l−1 层第i 个特征图,wlij 表示从zl−1i 到zlj 的卷积核,blj 表示第l 层第j 个特征图的偏置,g(⋅) 表示激活函数,Ml−1 表示第l−1 层特征图的个数。池化层设定步长为2,假设第
l 层为池化层,则第l 层的第j 特征图zlj 的计算公式为zlj=g(∑i∈Mi−1βlj⋅down(zl−1i)+blj) (7) 其中,
g(⋅) 表示激活函数,βlj 表示第l 层第j 个特征图的池化参数,down(⋅) 表示池化函数,zl−1i 表示第l−1 层第i 个特征图,blj 表示第l 层第j 个特征图的偏置。2.4 变化区域判别
在特征提取部分,经过卷积和池化后,最后一层生成的特征图具备了较为丰富的全局信息,但也损失了很多细节。为了弥补这些损失,本文借鉴UNet中的跳跃连接(Skip-connection),在每进行一次转置卷积后,使用跳跃连接将前端提取的特征图引入后端,并与上一层转置卷积得到的特征图进行级联。然后,为了关注特征图中的关键信息,同时抑制无用信息,引入SE(Squeeze-and-Excitation)[22]模块,将级联后的特征图先通过SE,再经过3层卷积层和转置卷积层。最后,通过Softmax对特征进行分类,得到最终的变化检测结果。
2.4.1 SE 模块
SE模块,又称为挤压-激励模块,它可以学习通道之间的相关性,用学习的方式得到不同通道特征的重要性。图2给出了SE模块的结构示意图。
设输入的特征图
U 维度为W×H×C ,其中W ,H ,C 分别表示特征图的宽度、高度和通道数。首先,对特征图进行全局平均池化(Global pooling),对全局空间信息进行压缩,得到维度为1×1×C 的输出zc ,即zc=1H×WH∑i=1W∑j=1uc(i,j) (8) 其中,
uc 是特征图U 中第c 个W×H 的特征通道。然后,为了利用上述挤压操作中聚合的信息,将
zc 分别经过全连接层(Fully Connected layers, FC)、ReLU激活函数、全连接层进行先降维再升维[23]。最后经过Sigmoid函数,进行0到1之间的归一化,得到每个特征通道的维度权重。整个过程描述为s=σ(W2δ(W1z)) (9) 其中,
W1 和W2 分别为两个全连接层的参数,δ 为激活函数ReLU,σ 为Sigmoid函数。最后将特征图U 乘以不同通道的权重。˜xc=sc⋅uc (10) 其中,
sc 为第c 个通道的权重,uc 为特征图U 的第c 个通道,˜xc 表示带有注意力的特征。2.4.2 转置卷积
为了恢复图像尺寸,我们在网络中还加入了转置卷积层,如图1所示。转置卷积层采用
2×2 的卷积核,设定步长为2。假设第l 层为转置卷积层,则第l 层的第j 特征图zlj 的计算式为(zlj)T=∑i∈Mi−1(zl−1i)T∗(wlij)T (11) 其中,*表示卷积操作,
(zl−1i)T 表示第l−1 层第i 个特征图的转置形式,(wlij)T 表示从zl−1i 到zlj 的卷积核的转置形式。2.4.3 损失函数
网络最后采用Softmax进行二进制分类。通常,二分类损失函数为交叉熵函数:
Lbce=−tiln(yi)−(1−ti)ln(1−yi) (12) 其中,
ti=1 表示像素i 为真实变化的像素点,ti=0 表示像素i 为真实没有变化的像素点;yi 为预测像素i 为变化的概率,1−yi 为预测像素i 为无变化的概率。若yi 值很小,会导致Lbce 值很大。若yi = 0 ,−ln(yi) 将会无限大,而loss函数的值无限大会破坏网络。因此,使用改进的Sigmoid交叉熵函数[16]
Lsig\_bce=−tiln(σ(yi))−(1−ti)ln(σ(1−yi)) (13) 其中,
σ 表示Sigmoid函数。最后,考虑到变化区域通常所占比例较小,直接利用Sigmoid交叉熵函数训练结果较差。因此,本文提出结合Sigmoid交叉熵函数和Dice损失函数作为网络训练的最终损失函数
Ldice=1−(2yiti)/(yi+ti) (14) L=Lsig\_bce+Ldice (15) 其中,
Ldice 为Dice损失函数。式(15)中,L 表示整个网络的损失函数。3. 实验结果和分析
3.1 实验数据集
实验采用LEVIR-CD数据集[24],该数据集由637张超高分辨率(0.5 m/pixel)的Google Earth图像对组成。每张图像有RGB3个波段,大小为1024像素×1024像素。图像来自美国得克萨斯州20个不同地区,捕捉时间从2002年到2018年不等,具有显著的土地利用变化信息。
3.2 实验环境和设置
本文实验运行环境为Linux,平台为11 GB显存的GPU(RTX2080Ti),采用Python3.6语言,Pytorch框架。训练选用Adam优化算法,batch size为8,0.0001的学习率,200个epochs,耗时4 h。本文使用准确率(Accuracy, Acc)、查准率(Precision)、查全率(Recall)、F1测量值(F1-measure)作为算法评价指标[23]。
此外,实验针对2.2节涉及的
maxVal 和minVal 参数设定方法如下:根据文献[20]建议,maxVal 和minVal 的比率一般设定为2:1或3:1,因此本文首先设置maxVal 为255,然后minVal 的取值从100~150逐次增加5并遍历所有结果,最后根据实验结果选择效果最好的maxVal 和minVal 的值。另外,针对2.3节涉及的卷积层使用k×k 卷积核,k×k 取值设定为3×3 ,且卷积核步长设定为1,其原因在于与7×7 或5×5 的卷积核相比,3×3 卷积核能够保证在具有相同感知野的条件下,提升网络的深度,从而在一定程度上提升深度网络的学习效果,同时在本文设计的基于VGG-16的3支路网络框架中所采用的多个3×3 卷积核比一个仅具有较大尺寸的卷积核拥有更少的参数,这也在另一方面保证了网络训练的效率。3.3 结果和分析
3.3.1 提出算法的实验结果
为了验证本文提出的边缘变化信息检测和通道注意力模块的作用,构建了不同的网络形式,并进行了消融实验。设BASIC为最基础的双输入UNet网络,该网络不含边缘变化信息检测和通道注意力模块;BSE表示在BASIC网络后端加入通道注意力模块。图3给出了BASIC, BSE和本文提出EANet定性分析结果。
如图3所示,为测试集中随机选取的5对图像的实验结果图。图中前两行为输入的双时相图像(Input1和Input2),第3行为真实变化图(Ground Truth, GT),第4行为BASIC网络的变化检测结果,第5行为BSE网络的变化检测结果,第6行为本文提出的EANet变化检测结果。图中黄色椭圆标出的是实际没有变化却预测为变化的像素区域,红色方框标出的是实际变化却预测为未变化的像素区域。由图3可以看出,本文提出的算法,其检测结果优于BSE 和BASIC。例如,图3(a)示例1中,与GT相比,BASIC将实际未变化的区域判定成了变化区域(见黄色椭圆框标注);与BASIC相比,BSE由于加入了通道注意力,有效避免了对变化区域的误检,这说明了通道注意力模块的有效性。再如,图3(b)示例2中,BASIC和BSE都只能检测到部分变化的区域(见红色方框标注),而我们的方法检测到了较为完整的变化区域,与GT图最为吻合。这说明边缘变化信息的融入强调了双时相图像的结构变化,从而减少了漏检的像素区域。综上结果反映了本文提出的融合边缘变化信息和通道注意力模块的EANet在遥感图像变化检测中的优越性。
表1为不同网络架构的变化检测定量结果对比。可以看出,本文提出的EANet网络变化检测结果最好,Acc(99.67%)、Recall(92.35%)、F1(93.85%)最高。此外,BSE的4个指标结果均优于BASIC,证明了通道注意力模块重新分配特征通道的重要性,有利于网络后端变化区域的判别。最后,将EANet与BSE比较发现,虽然EANet的Precision相对较低,但其Acc, Recall和F1均较高,综合来说本文算法结果更好。
表 1 不同网络架构的变化检测定量结果对比(%)架构 Acc Recall Precision F1 BASIC 99.63 90.77 95.15 92.91 BSE 99.66 91.50 95.67 93.54 本文EANet 99.67 92.35 95.38 93.85 图4为不同的网络架构在训练集和测试集上Loss曲线和F1曲线对比结果。其中,图4(a)为Loss训练曲线,图4(b)为Loss测试曲线,图4(c)为训练F1曲线,图4(d)为测试F1曲线。如图4(a)所示,3个网络模型均呈现了良好的训练效果,在100个epoch之后Loss曲线趋于平缓。如图4(b)所示,本文方法在测试集上的Loss曲线最优,BSE次之,可见在网络中加入边缘变化信息和通道注意力模块都能够增强网络泛化的能力。如图4(c)和图4(d)所示,本文提出的网络在测试集上的F1都要略微高于其余两个网络,说明该网络变化检测精度高。
3.3.2 与其他算法的比较结果
将其余3个现有的算法在LEVIR-CD数据集进行变化检测。第1种比较算法是传统的基于PCA-K-means的算法[6];第2种比较算法是基于单输入全卷积网络Unet++的方法[13];第3种比较算法是基于双输入全卷积网络DSIFN的方法[16]。这3种算法的具体描述参见引言部分。
图5为与其他算法的比较结果图。图5第4列PCA-K-means检测结果图只能模糊地检测出少量变化区域,图中明显有大量噪声干扰,传统方法的检测结果很差,并不适用于高分辨率遥感图像。图5第5行Unet++算法的检测结果,虽能检测出变化区域,但是检测结果图边界模糊。例如:图5(b)列示例2的GT图中,我们可以看到有很多边界明显的建筑物的变化,Unet++只能检测出变化区域整体外部轮廓,而不能精细地将每一个变化的建筑物区分开来,不利于精确地检测出每一处变化的位置,有很多误检的像素点。图5第6行DSIFN算法的检测结果有与GT图比较有部分漏检的像素点。例如:图5(c)列示例3的红色方框中,GT图有4块变化的区域,DSIFN只能检测出3块变化区域,本文算法检测出了4块变化的区域,与GT图比较仅有少许像素点的差别。
表2为其他算法的比较结果精度对比。结合图5和表2的结果,本文方法获得了最佳的检测效果。PCA-K-means算法 F1(10.50%)最低,检测效果最差,深度学习比传统方法更适用于高分辨率遥感图像。Unet++算法F1(75.60%),虽也取得了较高的检测结果,但是结合检测结果图可知图像单个特征不充分导致检测图像边界模糊,只能检测出变化区域的外部轮廓,双时相图像使用孪生输入网络提取的图像单个特征更有利于检测图像的重建。本文方法相对于DSIFN在检测精度F1上有些微的提升。
表 2 不同算法的变化检测定量结果对比(%)算法 Acc Recall Precision F1 PCA-Kmeans 90.57 10.95 10.09 10.50 Unet++ 98.41 92.37 63.98 75.60 DSIFN 99.64 91.78 94.54 93.14 本文 99.67 92.35 95.38 93.85 图6为与其他算法在训练和测试时Loss曲线和F1曲线的对比,图6(a)为Loss训练曲线,图6(b)为Loss测试曲线,图6(c)为F1训练曲线,图6(d)为F1测试曲线。如图6(a)所示,与Unet++相比,双端输入的网络训练损失曲线下降速度快,双端输入的网络是较好的训练模式。在第100个epoch时,Unet++的Loss训练曲线还未趋于平缓,训练代价较大。如图6(b)所示,本文框架在测试集上损失曲线最后下降的值最小,Unet++最大,则Unet++的泛化能力最差,单端输入的深度学习网络在变化检测领域的泛化能力不如其余两个双输入网络。DSIFN和本文网络均为双端输入网络,本文网络在泛化能力上略优于DSIFN。如图6(d)所示,Unet++的测试精度远没有DSIFN和本文算法高,结合表2的精度对比数据,本文算法的检测精度最高。
最后,本文还对提出的网络和两种深度网络模型(Unet++和DSIFN)进行了模型计算力(FLOPs)、参数量(Params)及训练时间的对比和分析,结果如表3所示。鉴于本文模型在深度特征提取部分采用了3个支路,比Unet++多出2条支路,比DSIFN多出1条支路,因此提出算法的计算力FLOPs和参数量Params略有提升。此外,由于本文方法在处理双时相图像时需要预先检测出边缘差异图,所以其算法训练时间也略高一些。尽管增加了计算代价,但是本文方法在变化检测的精度方面有了显著的提升,结果图中误检数和漏检数也减少了很多。未来工作将研究如何在保证精度提升的前提下,降低模型空间和时间代价。
表 3 不同算法的计算效率结果对比算法 FLOPs(G) Params(M) 训练时间(ms) Unet++ 38.11 9.20 95.86 DSIFN 63.00 50.44 115.35 本文 86.20 70.85 129.23 4. 结束语
本文提出了一种融合了边缘变化信息和SE模块的EANet高分辨率遥感图像变化检测。首先对双时相图像进行边缘检测得到边缘图,相减得到边缘差异图。再使用3支基于VGG-16的模型提取双时相图像和边缘差异图的深度特征,强调双时相图像的结构变化信息。双时相图像和边缘差异图的特征图输入网络后端变化判别部分用于变化检测。在变化区域判别部分,每一次特征图级联后加入SE模块,来强调携带信息量大的通道。网络在公开的LEVIR-CD遥感数据集上进行了验证。实验表明,边缘差值图能有效传递边缘变化信息,强调双时相图像的结构变化,加入SE模块能提高检测精度。将本文方法与其他3种变化检测方法对比,本文方法在视觉效果和精度衡量上均优于其余3种方法。由于本文提出的方法能够有效提取遥感图像中变化区域的结构信息,从而提高变化检测的精度,因此算法更适用于城市建筑群变化检测等类似问题上。
-
表 1 不同网络架构的变化检测定量结果对比(%)
架构 Acc Recall Precision F1 BASIC 99.63 90.77 95.15 92.91 BSE 99.66 91.50 95.67 93.54 本文EANet 99.67 92.35 95.38 93.85 表 2 不同算法的变化检测定量结果对比(%)
算法 Acc Recall Precision F1 PCA-Kmeans 90.57 10.95 10.09 10.50 Unet++ 98.41 92.37 63.98 75.60 DSIFN 99.64 91.78 94.54 93.14 本文 99.67 92.35 95.38 93.85 表 3 不同算法的计算效率结果对比
算法 FLOPs(G) Params(M) 训练时间(ms) Unet++ 38.11 9.20 95.86 DSIFN 63.00 50.44 115.35 本文 86.20 70.85 129.23 -
[1] 徐从安, 吕亚飞, 张筱晗, 等. 基于双重注意力机制的遥感图像场景分类特征表示方法[J]. 电子与信息学报, 2021, 43(3): 683–691. doi: 10.11999/JEIT200568XU Congan, LÜ Yafei, ZHANG Xiaohan, et al. A discriminative feature representation method based on dual attention mechanism for remote sensing image scene classification[J]. Journal of Electronics &Information Technology, 2021, 43(3): 683–691. doi: 10.11999/JEIT200568 [2] LYU H, LU Hui, MOU Lichao, et al. Long-term annual mapping of four cities on different continents by applying a deep information learning method to Landsat data[J]. Remote Sensing, 2018, 10(3): 471. doi: 10.3390/rs10030471 [3] 冀广宇, 梁兴东, 董勇伟, 等. 基于体散射约束的极化SAR相干变化检测方法[J]. 电子与信息学报, 2018, 40(10): 2461–2469. doi: 10.11999/JEIT180035JI Guangyu, LIANG Xingdong, DONG Yongwei, et al. Polarimetric SAR coherent change detection method based on volume scattering constraint[J]. Journal of Electronics &Information Technology, 2018, 40(10): 2461–2469. doi: 10.11999/JEIT180035 [4] HUANG Fenghua, YU Ying, and FENG Tinghao. Automatic building change image quality assessment in high resolution remote sensing based on deep learning[J]. Journal of Visual Communication and Image Representation, 2019, 63: 102585. doi: 10.1016/j.jvcir.2019.102585 [5] CHEN Jin, CHEN Xuehong, CUI Xihong, et al. Change vector analysis in posterior probability space: A new method for land cover change detection[J]. IEEE Geoscience and Remote Sensing Letters, 2011, 8(2): 317–321. doi: 10.1109/LGRS.2010.2068537 [6] LV Zhiyong, LIU Tongfei, SHI Cheng, et al. Novel land cover change detection method based on k-Means clustering and adaptive majority voting using bitemporal remote sensing images[J]. IEEE Access, 2019, 7: 34425–34437. doi: 10.1109/ACCESS.2019.2892648 [7] MALPICA J A, ALONSO M C, PAPÍ F, et al. Change detection of buildings from satellite imagery and lidar data[J]. International Journal of Remote Sensing, 2013, 34(5): 1652–1675. doi: 10.1080/01431161.2012.725483 [8] QIN Rongjun, HUANG Xin, GRUEN A, et al. Object-based 3-D building change detection on multitemporal stereo images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2015, 8(5): 2125–2137. doi: 10.1109/JSTARS.2015.2424275 [9] SAHA S, BOVOLO F, and BRUZZONE L. Unsupervised deep change vector analysis for multiple-change detection in VHR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(6): 3677–3693. doi: 10.1109/TGRS.2018.2886643 [10] CHEN Hongruixuan, WU Chen, DU Bo, et al. Deep siamese multi-scale convolutional network for change detection in multi-temporal VHR images[C]. The 2019 10th International Workshop on the Analysis of Multitemporal Remote Sensing Images, Shanghai, China, 2019: 1–4. [11] LONG J, SHELHAMER E, and DARRELL T. Fully convolutional networks for semantic segmentation[C]. 2015 IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 3431–3440. [12] LAN Lingxiang, WU Dong, and CHI Mingmin. Multi-temporal change detection based on deep semantic segmentation networks[C]. The 2019 10th International Workshop on the Analysis of Multitemporal Remote Sensing Images, Shanghai, China, 2019: 1–4. [13] PENG Daifeng, ZHANG Yongjun, and GUAN Haiyan. End-to-end change detection for high resolution satellite images using improved UNet++[J]. Remote Sensing, 2019, 11(11): 1382. doi: 10.3390/rs11111382 [14] HOU Bin, WANG Yunhong, and LIU Qingjie. Change detection based on deep features and low rank[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(12): 2418–2422. doi: 10.1109/LGRS.2017.2766840 [15] DAUDT R C, LE SAUX B, and BOULCH A. Fully convolutional siamese networks for change detection[C]. The 2018 25th IEEE International Conference on Image Processing, Athens, Greece, 2018: 4063–4067. [16] ZHANG Chenxiao, YUE Peng, TAPETE D, et al. A deeply supervised image fusion network for change detection in high resolution bi-temporal remote sensing images[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 166: 183–200. doi: 10.1016/j.isprsjprs.2020.06.003 [17] JIANG Huiwei, HU Xiangyun, LI Kun, et al. PGA-SiamNet: Pyramid feature-based attention-guided Siamese network for remote sensing orthoimagery building change detection[J]. Remote Sensing, 2020, 12(3): 484. doi: 10.3390/rs12030484 [18] RONNEBERGER O, FISCHER P, and BROX T. U-Net: Convolutional networks for biomedical image segmentation[C]. The 18th International Conference on Medical Image Computing and Computer-Assisted Intervention, Munich, Germany, 2015: 234–241. [19] CANNY J. A computational approach to edge detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986, PAMI-8(6): 679–698. doi: 10.1109/TPAMI.1986.4767851 [20] SIMONYAN K and ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[C]. The 3rd International Conference on Learning Representations, San Diego, USA, 2015: 1790–2022. [21] DENG Jia, DONG Wei, SOCHER R, et al. ImageNet: A large-scale hierarchical image database[C]. 2009 IEEE Conference on Computer Vision and Pattern Recognition, Miami, USA, 2009: 248–255. [22] HU Jie, SHEN Li, ALBANIE S, et al. Squeeze-and-excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020, 42(8): 2011–2023. doi: 10.1109/TPAMI.2019.2913372 [23] 倪黎, 邹卫军. 基于SE模块改进Xception的动物种类识别[J]. 导航与控制, 2020, 19(2): 106–111. doi: 10.3969/j.issn.1674-5558.2020.02.015NI Li and ZOU Weijun. Recognition of animal species based on improved Xception by SE module[J]. Navigation and Control, 2020, 19(2): 106–111. doi: 10.3969/j.issn.1674-5558.2020.02.015 [24] CHEN Hao and SHI Zhenwei. A spatial-temporal attention-based method and a new dataset for remote sensing image change detection[J]. Remote Sensing, 2020, 12(10): 1662. doi: 10.3390/rs12101662 期刊类型引用(0)
其他类型引用(1)
-