Building Extraction from Satellite Imagery Based on Footprint Map and Bidirectional Connection Map
-
摘要: 目前,大多数基于深度学习的遥感影像建筑物提取方法采用语义分割的方式,对遥感影像进行二分类预测。然而,该类方法没有考虑建筑物的几何特性,难以进行精确提取。为了更精确地提取建筑物,该文引入建筑物的几何信息,提出一种基于脚点热度图和双向连接图的建筑物轮廓提取方法。该方法为一种多分支的深度卷积网络,分别对建筑物的脚点以及脚点间的连接性进行预测。在其中一个分支中,预测建筑物的脚点热度图,并用非极大抑制算法得到建筑物的脚点像素坐标;利用另外两个分支预测脚点之间的正向连通性和反向连通性,并通过这种双向连接图对脚点间是否具有连接性进行判断,在将具有连通性的脚点进行连接后,可得到最终的建筑物轮廓。该文算法在Buildings2Vec数据集上进行了验证,结果表明该方法在遥感影像建筑物提取中具有一定的优越性。Abstract: Most state-of-the-art building extraction from satellite imagery are based on binary segmentation. However, the geographic information has not been considered in these methods, thus, it is difficult to extract building accurately. To consider fully the geographic information on feature extraction, a building extraction convolutional neural network based on footprint map and bidirectional connection is proposed. The proposed method is a multi-branch network, which is designed to predict the footprint and bidirectional connection map, respectively. This paper predicts the footprint heatmap of buildings and uses the Non-Maximum Suppression (NMS) algorithm to obtain the pixel coordinates. Another two branches are used to predict positive connectivity and negative connectivity between footprints. Each pair of nodes is connected according to the bidirectional connectivity map to obtain the final building outline. Experiments on the Buildings2Vec dataset demonstrate that the proposed method outperforms various previous work, which illustrate the superiority in building extraction from satellite imagery.
-
Key words:
- Satellite imagery /
- Deep learning /
- Footprint prediction /
- Bidirectional connection map
-
1. 引言
水下声场环境中,文献[1,2] 指出声源测距一般采用匹配场处理(Matched Field Processing, MFP)来解决,但匹配场处理需要对水下声场精确建模才能给出合理的预测。从Bucker[3]提出匹配场处理开始,Fizell等人[4]证明匹配场的应用价值后,匹配失真的问题层出不穷。水下声场是时变和空变的,充满着复杂和不确定性,这易造成建模声场与实测环境的失配。一些学者提出将环境参数加入改进的匹配场算法,如文献[5]中的环境聚焦匹配场处理等,但这些方法增加了计算量,并且引入了更多的包括环境参数在内的先验信息,进一步提升了构建有效匹配场模型的难度。
另外,文献[6,7]指出随着机器学习理论和技术的不断进步,基于该方法下的水声被动测距方法成为一个可靠的研究方向。通过文献[8-11]可知,机器学习应用于水声领域中已经有很长时间,而应用于水声被动测距却刚走向成熟。近几年来,文献[12-14]基于最小二乘和传感器网络实现了车辆以及水下传感器网络节点的高精度测距,文献[15-19]证明了机器学习在水声声源测距方面优于传统的匹配场处理方法,文献[20,21]也证明了神经网络估计水下声源距离和深度的可靠性。
虽然机器学习方法进行水下声源测距不需要环境先验信息,但机器学习算法通常需要足够多的训练样本支撑,而数据样本获取难度大,训练样本稀缺恰恰是水声领域的突出问题。相比于文献[15,16]将单一航次的数据划分为训练集和测试集进行性能验证的应用场景,更期望能用已知的历史信息作为训练样本训练模型,对新获取的未知数据进行有效分析。传统机器学习理论有效的一个基本假设是训练样本与测试样本满足独立同分布,不同的水声实验任务中获取的数据很难满足该前提,致使使用传统机器学习方法基于历史数据构建的模型泛化能力非常有限。针对上述问题,本文尝试采用基于迁移学习的方法进行解决。由文献[22]可知迁移学习是机器学习技术的一种,雷波等人[23]的研究初步验证了迁移学习算法在针对前向散射声呐进行主动测距,但是在被动测距的应用鲜有见刊。在迁移学习的理论中,所有已有的知识称为源域(source domain),将要学习的新知识称为目标域(target domain),其中源域和目标域分别属于不同的特征空间;而基于特征的迁移学习方法将来自源域和目标域的数据映射到共同的特征空间,减少域之间的差异性。基于迁移学习思想,本文将已标注航次航迹数据当作源域,将要进行测距任务的未标注航次航迹数据当作目标域,而学习的目标是将从源域中学到的特征更好地适配于未知航迹数据的学习过程,最终提升测距模型的泛化能力。
本文应用联合分布适配(Joint Distribution Adaptation, JDA)算法对船舶在不同航迹时与垂直接收阵之间距离的回归和预测:引入文献[24]提出的联合分布适配算法至水下测距问题中,提出了基于联合分布适配的水下声源测距方法;详细说明了实验数据的预处理过程和目标测距算法的性能指标;对比了K近邻(KNN)、支持向量机(Support Vector Machine, SVM)、卷积神经网络(Convolutional Neural Network, CNN)和完成迁移学习后再由3种分类器回归预测的实验结果;最后分析对比了迁移学习的迁移效果,结果表明基于联合分布适配的水下声源测距算法的距离估计精度更高。
2. 基于联合分布适配的水下声源测距算法
本文提出一种基于联合分布适配的水下声源测距算法,从目标距离差异引起声场统计特性不同的角度出发,建立起互谱密度矩阵信息与目标位置的映射关系,将水下声源距离估计问题转化为分类问题。联合分布适配则是针对概率分布差异提出的一种迁移学习算法,下面将介绍联合分布适配方法,并提出基于联合分布适配的水下声源测距算法。
2.1 联合分布适配方法思想
针对目标域没有标注数据的无监督迁移学习中,已有方法通常仅适配了边缘概率分布,但这会导致域间概率分布的欠适配问题,严重影响学习模型的泛化性能。由此,Long等人[24]提出了联合分布适配方法,这种方法适用于迁移学习的领域自适应(domain adaptation)方向,并在图像迁移领域有着较多的应用。JDA方法是一个适配于概率分布的方法,其主要的思想是将源域以及目标域的联合概率作为适配的对象。由于水下声源距离参数估计中的源域和目标域边缘分布不同且源域和目标域条件分布不同,为了同时适配于两个分布,该方法必须适配于两者的联合概率。
文献[25]提出JDA方法的具体过程如图1所示,给定有标注源域
Ds (已标注航次航迹数据)和无标注目标域Dt (待预测航次航迹数据),如图1(a),可以看出,由于两者概率分布的差异,Ds 训练得到的判别面f 不能准确地分类Dt 。因此该方法首先进行边缘分布适配(MDA),最小化边缘分布之间的距离,如图1(b),从而增加分类结果的准确率;然后进行条件分布适配(CDA),最小化条件分布的差异,如图1(c),使类别中心与Dt 对应;最后进行流形正则化(MR)改变判别面f 的位置,如图1(d)保证可以得到更加可靠的标注距离。2.2 联合分布适配方法原理
根据文献[24],本文工作中联合分布适配方法的具体实现步骤是,找到变换
A ,使得变换后作为已标注数据的源域的边缘分布P(ATxs) 和作为未标注数据的目标域的边缘分布P(ATxt) 的距离能够尽可能地接近,同时源域的条件分布P(ys|ATxs) 和目标域的条件分布P(yt|ATxt) 的距离也要足够小。(1) 边缘分布适配。
P(ATxs) 和P(ATxt) 的距离要尽可能地接近,这里使用最大均值差异(MMD)距离度量源域和目标域的分布差异‖1nn∑i=1ATxsi−1mm∑i=1ATxti‖2H=tr(ATXM0XTA) (1) 其中,
X 是源域和目标域的联合数据,M0 是一个MMD矩阵(M0)ij={1n2,xi,xj∈Ds1m2,xi,xj∈Dt−1mn,其他 (2) 其中,
n,m 分别是源域和目标域样本的个数。通过最小化式(1),使域之间的边缘分布在Z=ATX 的表示形式下接近。(2) 条件分布适配。适配于源域和目标域的条件概率分布,用
P(xt|yt) 来近似P(yt|xt) ,在样本质量较高但样本中未知量较多的情况下,从中选择一些统计量,近似地代替需要估计的分布。依靠(xs,ys) 训练一个K近邻分类器,直接对xt 进行预测得到一些预标注ˆyt 作为迁移的目标域标注计算。则这时修改类与类之间的MMD距离为C∑c=1‖1nc∑xsi∈D(c)sATxsi−1mc∑xti∈D(c)sATxti‖2H=tr(ATXMcXTA) (3) 其中,
nc,mc 分别是源域和目标域中来自第c类的样本个数。且Mc 为(Mc)ij={1n2c,xi,xj∈D(c)s1m2c,xi,xj∈D(c)t−1mcnc,{xi∈D(c)s,xj∈D(c)txi∈D(c)t,xj∈D(c)s0,其他 (4) 通过最小化式(3),使域之间的条件分布在
Z=ATX 的表示形式下接近。尽管由于边缘分布和条件分布的差异,预标注与实际标注对应的距离相差较大,但可以将式(3)中的条件与修正的MMD距离相匹配,通过这种方式,用分类器减小目标域标注结果的误差。(3)联合分布适配。为了实现有效且鲁棒的迁移学习,同时最小化源域和目标域的边缘分布与条件分布的差异,将式(1)和式(3)结合,即得到了基于联合分布适配的目标函数
min (5) 其中,
\lambda \left\| {\boldsymbol{A}} \right\|_{\rm{F}}^2 为正则项。除此之外,增加变换前后数据方差不变的限制条件,得到一个新的优化目标:\max {{\boldsymbol{A}}^{\rm{T}}}{\boldsymbol{XH}}{{\boldsymbol{X}}^{\rm{T}}}{\boldsymbol{A}} 。和上一个优化目标联合并使用拉格朗日法得到\left( {{\boldsymbol{X}}\sum\limits_{c = 0}^C {{{\boldsymbol{M}}_c}{{\boldsymbol{X}}^{\rm{T}}} + \lambda {\boldsymbol{I}}} } \right){\boldsymbol{A}} = {\boldsymbol{XH}}{{\boldsymbol{X}}^{{\rm{T}}} }{\boldsymbol{A}}\varPhi (6) 其中,
\varPhi 是拉格朗日乘子。在此过程中迭代更新得到新的预标注,再次根据优化目标找出变换{\boldsymbol{A}} ,更进一步减小源域和目标域的分布差异,直到算法收敛。本文提出算法通过上述方式将源域数据和目标域数据映射到共享特征空间,降低了不同任务域数据服从分布的差异性,最终提升了基于此构建的分类器的分类精度和泛化能力。
2.3 测距算法流程
本节提出一个基于联合分布适配的声源测距算法,图2为水下声源测距算法具体流程图。
(1)数据预处理。对采集到的声压时域信号求互相关得到采样协方差矩阵,对其做傅里叶变换得到归一化的互谱密度矩阵,将该矩阵作为数据特征。
(2)为源域和目标域标注。根据距离信息和对应样本数为源域数据与目标域数据标注。
(3)迁移学习。用源域数据和源域标注训练的KNN分类器给出目标域的预标注,将源域数据、源域标注和目标域数据、目标域预标注作为输入,寻找令最大均值差异最小化的变换矩阵,同时调整源域和目标域的边缘分布适配与条件分布适配,进行联合分布适配,在此过程中迭代寻优使得源域和目标域的分布差异最小化,由此得到新的源域数据(JDA-source)和目标域数据(JDA-target)。
(4)预测目标域的标注。由JDA-source和源域标注作训练集训练所选分类器,用训练好的分类器预测JDA-target,然后将预测结果映射到距离信息得到目标声源距离。
3. 实验验证及结果分析
本文使用了联合分布适配进行迁移学习,使用支持向量机、K近邻、卷积神经网络进行分类,其中联合分布适配前使用的预标注分类器为KNN。
3.1 实验数据及预处理方法介绍
基于文献[15,16,20],一些基于传统机器学习的水下声源测距算法优于传统匹配场的Bartlett处理器,本文不再多进行对比。本文用于验证所提出算法的数据集来源于文献[26]中R/V New Horizon在Noise09试验中辐射的船舶噪声数据,预处理过程参考了牛海强等人[7]对实验的做法。
在Noise09试验中,利用接收阵列接收的船舶辐射噪声共有5组连续的信号。其中,垂直接收阵列(VLA)包含16个间距为1m的水听器,用于接收船舶辐射噪声,接收阵元水听器的采样频率为25 kHz,文献[26]给出试验数据集来源的船舶航迹和接收阵列位置如图3所示。
数据处理过程中,将试验数据转换为采样协方差矩阵,设置快拍(snapshots)为10,并对采样协方差矩阵做傅里叶变换得到互谱密度矩阵,取其上三角并向量化,得到维度为7200维的数据特征,数据的样本数由采样频率和航行时间决定,每组数据样本数不尽相同。
阵列接收信号经过上述预处理得到源域数据和目标域数据,再由GPS记录值计算出对应样本的目标船舶距离,由目标船舶距离映射得到源域和目标域的标注。
3.2 实验设计
为了验证所提出算法的泛化能力,本文将5个航次航迹的数据集分为3个源域和目标域的组合,用4个航迹的已标注数据对剩余1组航迹的未标注数据进行预测。源域和目标域的划分、距离范围和各个实验任务的样本数及维度如表1所示。
表 1 源域和目标域划分及其规模和维度实验任务 实验1 实验2 实验3 源域(距离范围) DataSet2345(960 m,3080 m) DataSet1245(0 m,2960 m) DataSet1235(0 m,2960 m) 源域规模和维度 (3105,7200) (3345,7200) (2985,7200) 目标域(距离范围) DataSet01(960 m,2960 m) DataSet03(960 m,2960 m) DataSet04(1000 m,2840 m) 目标域规模和维度 (523,7200) (650,7200) (1010,7200) 5个航迹中目标船舶与接收阵列之间的距离在0~2960 m,因为数据量少以及需要尽量减少预测距离误差,所以标注时需保证每个标注下的样本数量不会太少且标注对应距离间隔不会过大。由此,为源域和目标域数据标注1~149,间隔为1,映射在0~2960 m,间隔为20 m。
实验中,本文首先使用K近邻、支持向量机两个典型的浅层分类器,和卷积神经网络作为深层分类器代表,共3个分类器对原始数据进行距离标注预测,之后用联合分布适配对源域和目标域数据迁移,再用3个分类器重新预测。其中,对于KNN,其参数决定最邻近的k个样本作为同一推测类别,在本文所用实验数据中不同实验任务需选用不同的k值从2~5,从而保证预测误差达到最低。对于SVM,我们经过对线性核、多项式核、高斯核的分别测试,得出结论,高斯核效果最好,所以本文中均使用高斯核对经过预处理的数据进行训练和分类,其中高斯核自带参数
\gamma 取值经过从0.0005到1间隔为0.0005分别训练计算预测结果误差,得到最优值,并得到误差最小的结果。对于CNN,本文使用的结构主要由两层卷积-池化层和两层全连接层构成,由于本文实验条件中每类数据量较小,因此不进行随机丢弃,优化器选择Adam。3.3 实验结果及分析
图4、图5为实验1的预测结果图(蓝色为预测结果,红色为实际距离)和样本空间的数据可视化(TSNE,同一形状颜色的点标注相同)3维图。
实验1的预测距离范围为900~3000 m。从图4(a)—图4(c)对比来看,KNN和SVM要明显优于CNN,CNN的距离预测精度很低,这是因为每个类别数据量不够多的情况下CNN容易过拟合,值得注意的是,3个分类器对2000 m以上的部分预测误差均较大。图4(d)—图4(f)对比来看,经过JDA算法迁移后的数据再进行分类,分类误差比迁移前更小,CNN和KNN分类器的提升尤为明显,而SVM的性能最好,同时,3个分类器的远距离预测结果提升也极其明显。经过对迁移前和迁移后的样本数据做数据可视化得到图5可以看出,联合分布适配前样本数据的分布较为杂乱,分类器很难判别给出正确结果,而联合分布适配后同一标注的样本数据更加集中,有利于分类器构建超平面进行判别给出正确的分类结果。
图6、图7为实验2的预测结果图(蓝色为预测结果,红色为实际距离)和TSNE3维图。
实验2的预测距离范围同样为900~3000 m。图6(a)、图6(c)的对比结果与实验1的结论基本相同。但从图6(d)—图6(f)对比来看,迁移前的KNN和SVM在2000 m以上的远距离分类上部分预测误差甚至超过1000 m,迁移后的3种分类器在该部分的预测误差普遍减小,JDA效果明显。通过图7可以看出数据经过联合分布适配后聚类效果提升明显,因此分类精度也显著提升。
图8、图9为实验3的预测结果图(蓝色为预测结果,红色为实际距离)和TSNE3维图。
从图8的测距结果可以看出,本数据的一个特点是针对1600~1800 m的区间,SVM和CNN的识别效果均不佳。图8(a)—图8(c)对比来看,在迁移学习前,SVM距离预测结果精度最高,只有在1600~1800 m的距离预测误差较大,而KNN的远距离预测出现1000 m以上的误差,CNN预测结果最差;迁移学习后,SVM除在1600~1800 m的距离预测误差比KNN略高外,其余距离的测距精度均较KNN更高。图8(d)—图8(f)对比来看,KNN的远距离预测性能提升尤其明显,SVM在1600~1800 m的距离预测误差有一定程度的减小,CNN总体提升明显。由图9可以看出,样本数据经过联合分布适配后明显更有利于减少分类结果相差极大的情况。
为更好量化距离估计方法的预测性能,用均方根误差(RMSE)和平均绝对误差(Mean Absolute Error, MAE)[7]对预测性能进行评估,其中均方根误差与平均绝对误差分别定义为
\qquad {\rm{RMSE}} = \sqrt {\frac{1}{n}\sum\limits_{i = 1}^n {{{\left( {\hat{y_i}} - {y_i} \right)^2}} }} (7) \qquad {\rm{MAE}} = \frac{1}{n}\sum\limits_{i = 1}^n {\left| {\hat{{y_i}} - {y_i}} \right|} (8) 其中,预测值:
\hat y = \left\{ {\hat {{y_1}} ,\hat {{y_2}} , \cdots ,\hat {{y_n}} } \right\} ,真实值:y = \left\{ {{y_1},{y_2}, \cdots ,{y_n}} \right\} 。RMSE能较为直观地给出预测距离和实际距离之间的偏差,而MAE考虑了错误范围估计中的误差大小以及总体平均的预测效果。在本文中,3个预测任务分别独立完成,与GPS真值作对比计算度量误差。图10,图11分别是3种分类器的预测以及进行联合分布适配后再预测目标域两种度量误差的直观比较图。
从图10可以看出,从单独的各个实验任务来看,CNN和KNN的分类误差最大,在最大预测距离不超过3 km的情况下,均方根误差甚至达到300 m以上,平均绝对误差最高在100 m以上。经过JDA迁移学习后,均方根误差和平均绝对误差均有明显改善,误差降低幅度极大。其中CNN主要是因为数据量较小,难以形成有效的学习过程,而KNN分类方式过于简单,所以两者在迁移学习前分类误差相对较大,SVM的分类误差相对于KNN和CNN最小。经过迁移学习后,SVM分类后距离误差明显低于其他分类器,KNN的分类效果其次,CNN分类效果最差,误差相对较大。从与实际值的偏差来看,SVM的RMSE降低值最小,降低幅度较大;KNN的误差降低值其次,降低幅度较大;CNN的误差降低值最大,降低幅度较小。从图11MAE来看,经过迁移学习后,SVM分类结果精度最高,其次是KNN, CNN效果最差;CNN降低值最大,其次是KNN, SVM降低值最小;SVM降低幅度较小,KNN和CNN的降低幅度较大。
4. 结论
本文提出了一种基于联合分布适配的水下声源测距算法。考虑到不同时间和方位上的航船轨迹数据服从不同的分布基于机器学习的声源测距方法造成的影响。本文将归一化的互谱密度矩阵作为输入,通过对已标注数据和未标注待预测数据进行JDA映射,从而使得原本服从不同概率密度函数的数据实现一致性分布,之后训练3种机器学习模型对水下声源距离进行预测以求对所提出算法进行验证。实验结果表明,在同样样本空间的条件下,经过联合分布适配迁移后在不同时间不同航迹下的距离预测结果的RMSE都降低超过20 m,降低幅度都超过40%,预测结果的MAE除实验1中的KNN都降低超过10 m,降低幅度都超过30%,相比没有进行迁移学习前可以更好地完成水下声源测距任务。此外,使用并不服从独立同分布的历史数据构建的分类模型,对未来数据进行分析在水声领域成为可能,这对于解决该领域天然面临的数据稀缺性问题具有显著的实际意义。同时本研究还得到一个重要结论,即尽管深度学习算法在特征提取方面有着理论上更强的能力,但是针对具体的任务时,例如水声测距任务的数据特点,并不能使得普通的深度学习算法凸显优势,反倒由于数据量不足和差异性过大导致训练结果比诸如KNN和SVM之类的典型浅层分类器更差。
致谢 感谢Scripps海洋学研究所的海洋物理实验室团队提供的Noise09实验数据集。
-
表 1 双向连接性效果定量指标
方法 {P}_{{\rm{c}}} {R}_{{\rm{c}}} {{\rm{F}}1}_{{\rm{c}}} {P}_{{\rm{e}}} {R}_{{\rm{e}}} {{\rm{F}}1}_{{\rm{e}}} 单向连接性效果 0.790 0.832 0.810 0.575 0.661 0.615 双向连接性效果 0.803 0.846 0.824 0.591 0.682 0.633 表 2 本文方法与其他方法定量化对比
方法 {P}_{{\rm{c}}} {R}_{{\rm{c}}} {{\rm{F}}1}_{{\rm{c}}} {P}_{{\rm{e}}} {R}_{{\rm{e}}} {{\rm{F}}1}_{{\rm{e}}} PPGNet 0.893 0.694 0.781 0.737 0.501 0.596 Conv-MPN 0.779 0.802 0.790 0.569 0.607 0.587 本文方法 0.803 0.846 0.824 0.591 0.682 0.633 -
[1] 徐旺, 游雄, 张威巍, 等. 2D地图的建筑物场景结构提取方法及其在城市增强现实中的应用[J]. 测绘学报, 2020, 49(12): 1619–1629.XU Wang, YOU Xiong, ZHANG Weiwei, et al. Method of building scene structure extraction based on 2D map and its application in urban augmented reality[J]. Acta Geodaetica et Cartographica Sinica, 2020, 49(12): 1619–1629. [2] SUN Yao, MONTAZERI S, WANG Yuanyuan, et al. Automatic registration of a single SAR image and GIS building footprints in a large-scale urban area[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 170: 1–14. doi: 10.1016/j.isprsjprs.2020.09.016 [3] WANG Jun, YANG Xiucheng, QIN Xuebin, et al. An efficient approach for automatic rectangular building extraction from very high resolution optical satellite imagery[J]. IEEE Geoscience and Remote Sensing Letters, 2015, 12(3): 487–491. doi: 10.1109/LGRS.2014.2347332 [4] COTE M and SAEEDI P. Automatic rooftop extraction in nadir aerial imagery of suburban regions using corners and variational level set evolution[J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 51(1): 313–328. doi: 10.1109/TGRS.2012.2200689 [5] MANNO-KOVÁCS A and OK A O. Building detection from monocular VHR images by integrated urban area knowledge[J]. IEEE Geoscience and Remote Sensing Letters, 2015, 12(10): 2140–2144. doi: 10.1109/LGRS.2015.2452962 [6] NGO T T, COLLET C, and MAZET V. Automatic rectangular building detection from VHR aerial imagery using shadow and image segmentation[C]. 2015 IEEE International Conference on Image Processing, Quebec City, Canada, 2015: 1483–1487. [7] SUN Yao, HUA Yuansheng, MOU Lichao, et al. CG-Net: Conditional GIS-aware network for individual building segmentation in VHR SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5201215. doi: 10.1109/TGRS.2020.3043089 [8] CHEN Ziyi, LI Dilong, FAN Wentao, et al. Self-attention in reconstruction bias U-Net for semantic segmentation of building rooftops in optical remote sensing images[J]. Remote Sensing, 2021, 13(13): 2524. doi: 10.3390/rs13132524 [9] BOONPOOK W, TAN Yumin, and XU Bo. Deep learning-based multi-feature semantic segmentation in building extraction from images of UAV photogrammetry[J]. International Journal of Remote Sensing, 2021, 42(1): 1–19. doi: 10.1080/01431161.2020.1788742 [10] DING Cheng, WENG Liguo, XIA Min, et al. Non-local feature search network for building and road segmentation of remote sensing image[J]. ISPRS International Journal of Geo-Information, 2021, 10(4): 245. doi: 10.3390/ijgi10040245 [11] NOSRATI M S and SAEEDI P. A novel approach for polygonal rooftop detection in satellite/aerial imageries[C]. The 16th IEEE International Conference on Image Processing, Cairo, Egypt, 2009: 1709–1712. [12] IZADI M and SAEEDI P. Three-dimensional polygonal building model estimation from single satellite images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2012, 50(6): 2254–2272. doi: 10.1109/TGRS.2011.2172995 [13] BALUYAN H, JOSHI B, AL HINAI A, et al. Novel approach for rooftop detection using support vector machine[J]. ISRN Machine Vision, 2013, 2013: 819768. doi: 10.1155/2013/819768 [14] LI Er, FEMIANI J, XU Shibiao, et al. Robust rooftop extraction from visible band images using higher order CRF[J]. IEEE Transactions on Geoscience and Remote Sensing, 2015, 53(8): 4483–4495. doi: 10.1109/TGRS.2015.2400462 [15] HOSSEINPOUR H, SAMADZADEGAN F, and JAVAN F D. CMGFNet: A deep cross-modal gated fusion network for building extraction from very high-resolution remote sensing images[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2022, 184: 96–115. doi: 10.1016/j.isprsjprs.2021.12.007 [16] YANG M Y, KUMAAR S, LYU Ye, et al. Real-time semantic segmentation with context aggregation network[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2021, 178: 124–134. doi: 10.1016/j.isprsjprs.2021.06.006 [17] LI Kun and HU Xiangyun. A deep interactive framework for building extraction in remotely sensed images via a coarse-to-fine strategy[C]. 2021 IEEE International Geoscience and Remote Sensing Symposium IGARSS, Brussels, Belgium, 2021: 4039–4042. [18] LI Kun, HU Xiangyun, JIANG Huiwei, et al. Attention-guided multi-scale segmentation neural network for interactive extraction of region objects from high-resolution satellite imagery[J]. Remote Sensing, 2020, 12(5): 789. doi: 10.3390/rs12050789 [19] DAS P and CHAND S. AttentionBuildNet for building extraction from aerial imagery[C]. 2021 International Conference on Computing, Communication, and Intelligent Systems (ICCCIS), Greater Noida, India, 2021: 576–580. [20] CHENG D, LIAO Renjie, FIDLER S, et al. DARNet: Deep active ray network for building segmentation[C]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Long Beach, USA, 2020: 7423–7431. [21] HE Hao, WANG Shuyang, ZHAO Qian, et al. Building extraction based on U-net and conditional random fields[C]. The 2021 6th International Conference on Image, Vision and Computing (ICIVC), Qingdao, China, 2021: 273–277. [22] GUO Wen and ZHANG Qiao. Building extraction using high-resolution satellite imagery based on an attention enhanced full convolution neural network[J]. Remote Sensing for Land & Resources, 2021, 33(2): 100–107. doi: 10.6046/gtzyyg.2020230 [23] 刘德祥, 张海荣, 承达瑜, 等. 融合注意力机制的建筑物提取方法[J]. 遥感信息, 2021, 36(4): 119–124. doi: 10.3969/j.issn.1000-3177.2021.04.016LIU Dexiang, ZHANG Hairong, CHENG Dayu, et al. A building extraction method combined attention mechanism[J]. Remote Sensing Information, 2021, 36(4): 119–124. doi: 10.3969/j.issn.1000-3177.2021.04.016 [24] ZHU Qing, LIAO Cheng, HU Han, et al. MAP-Net: Multiple attending path neural network for building footprint extraction from remote sensed imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(7): 6169–6181. doi: 10.1109/TGRS.2020.3026051 [25] CHEN Keyan, ZOU Zhengxia, and SHI Zhewei. Building extraction from remote sensing images with sparse token transformers[J]. Remote Sensing, 2021, 13(21): 4441. doi: 10.3390/rs13214441 [26] TOMPSON J, JAIN A, LECUN Y, et al. Joint training of a convolutional network and a graphical model for human pose estimation[C]. The 27th International Conference on Neural Information Processing Systems, Montreal, Canada, 2014: 1799–1807. [27] TOSHEV A and SZEGEDY C. DeepPose: Human pose estimation via deep neural networks[C]. 2014 IEEE Conference on Computer Vision and Pattern Recognition, Columbus, USA, 2014: 1653–1660. [28] CHEN Yilun, WANG Zhicheng, PENG Yuxiang, et al. Cascaded pyramid network for multi-person pose estimation[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 7103–7112. [29] NAUATA N and FURUKAWA Y. Vectorizing world buildings: Planar graph reconstruction by primitive detection and relationship inference[C]. The 16th European Conference on Computer Vision, Glasgow, UK, 2020: 711–726. [30] ZHANG Ziheng, LI Zhengxin, BI Ning, et al. Ppgnet: Learning point-pair graph for line segment detection[C]. 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Los Angeles, USA. 2019: 7098–7107. [31] ZHANG Fuyang, NAUATA N, and FURUKAWA Y. Conv-MPN: Convolutional message passing neural network for structured outdoor architecture reconstruction[C]. 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Seattle, USA, 2020: 2795–2804. [32] JI Shunping, WEI Shiqing, and LU Meng. Fully convolutional networks for multisource building extraction from an open aerial and satellite imagery data set[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 57(1): 574–586. doi: 10.1109/TGRS.2018.2858817 期刊类型引用(1)
1. 何奇山,赵凌君,计科峰,匡纲要. 面向SAR目标识别成像参数敏感性的深度学习技术研究进展. 电子与信息学报. 2024(10): 3827-3848 . 本站查看
其他类型引用(4)
-