Research on Multi-scale Residual UNet Fused with Depthwise Separable Convolution in PolSAR Terrain Classification
-
摘要: 极化合成孔径雷达(Polarimetric Synthetic Aperture Radar, PolSAR)地物分类作为合成孔径雷达(Synthetic Aperture Radar, SAR)图像解译的重要研究内容之一,越来越受到国内外学者的广泛关注。不同于自然图像,PolSAR数据集不仅具有独特的数据属性同时还属于小样本数据集,因此如何更充分地利用数据特性以及标签样本是需要重点考虑的内容。基于以上问题,该文在UNet基础上提出了一种新的用于PolSAR地物分类的网络架构——多尺度可分离残差UNet (Multiscale Separable Residual Unet, MSR-Unet)。该网络结构首先利用深度可分离卷积替代普通2D卷积,分别提取输入数据的空间特征和通道特征,降低特征的冗余度;其次提出改进的多尺度残差结构,该结构以残差结构为基础,通过设置不同大小的卷积核获得不同尺度的特征,同时采用密集连接对特征进行复用,使用该结构不仅能在一定程度上增加网络深度,获取更优特征,还能使网络充分利用标签样本,增强特征传递效率,从而提高PolSAR地物的分类精度。在3个标准数据集上的实验结果表明:与传统分类方法及其它主流深度学习网络模型如UNet相比,MSR-Unet网络结构能够在不同程度上提高平均准确率、总体准确率和Kappa系数且具有更好的鲁棒性。
-
关键词:
- PolSAR地物分类 /
- UNet /
- 残差结构 /
- 深度可分离卷积
Abstract: As one of the important research contents of Synthetic Aperture Radar(SAR) image interpretation, Polarimetric Synthetic Aperture Radar(PolSAR) terrain classification has attracted more and more attention from scholars at home and abroad. Different from natural images, the PolSAR dataset not only has unique data attributes but also belongs to a small sample dataset. Therefore, how to make full use of the data characteristics and label samples is a key consideration. Based on the above problems, a new network on the basis of UNet for PolSAR terrain classification—Multiscale Separable Residual Unet(MSR-Unet) is proposed in this paper. In order to extract separately the spatial and channel features of the input data while reducing the redundancy of features, the ordinary 2D convolution is replaced by the depthwise separable convolution in MSR-Unet. Then, an improved multi-scale residual structure based on the residual structure is proposed. This structure obtains features of different scales by setting convolution kernels of different sizes, and at the same time the feature is reused by dense connection, using the structure can not only increase the depth of the network to a certain extent and obtain better features, but also enable the network to make full use of label samples and enhance the transmission efficiency of features information, thereby improving the classification accuracy of PolSAR terrain. The experimental results on three standard datasets show that compared with the traditional classification methods and other mainstream deep learning network models such as UNet, the MSR-Unet can improve average accuracy, overall accuracy and Kappa coefficient in different degrees and has better robustness. -
1. 引言
随着人类太空探索及航天活动的不断增加,轨道中包含着大量空间碎片及失效卫星等微动目标。同时,中段或再入段弹道目标(如舱体、诱饵、弹头等)也具有自旋、进动等典型微动。因此,如何从空间微动目标独特的微多普勒调制中提取丰富的形状、结构和运动信息,进而实现有效的分类识别在空间态势感知及弹道目标防御中具有重要作用[1-3]。
针对微动目标窄带回波,主要提取均值、方差、中位数、极值、标准差等统计特征和微动周期等运动特征[4]。针对窄带回波时频图(Joint Time-Frequency, JTF)[5],主要提取周期、多普勒调制带宽等物理特征和图像熵、矩、方向性、倒谱、双相关系数等统计特征[6]。在此基础上,可对JTF沿时间轴做傅里叶变换得到2维韵律频谱(Cadence Velocity Diagram, CVD),并从CVD及平均归一化CVD序列中提取伪泽尼克矩等相关统计特征[7]。针对微动目标宽带回波,可从高分辨1维距离像(High Resolution Range Profiles, HRRP)序列中估计微动频率及尺寸[8]。同时,通过在距离-慢时间域进行逆Radon变换提取目标运动及散射点分布特征[9]。
综上所述,现有空间微动目标识别方法主要为物理驱动,即根据专家经验及先验知识设计特征提取器(如区域特征、轮廓特征、散射特征、运动特征等)和分类器,该过程耗时较长且难以推广。同时,大部分微动目标识别方法要求目标的观测时间应大于一个微动周期,由于多功能雷达任务繁多、资源有限,很难满足该要求。此外,空间微动目标观测时往往能够同时获得其宽、窄带回波,而现有识别方法仅从宽带或窄带等单一回波中提取特征。由于难以充分利用空、时、频信息,因此识别精度较低。当目标特性或雷达参数变化时,对单一回波的高度依赖会造成识别方法性能下降甚至完全失效。
针对上述空间微动目标识别中的难点与关键问题,本文提出基于稀疏自编码器(Sparse Auto-Encoder, SAE)的空间微动目标特征级融合识别方法。该方法为数据驱动,能够自动提取有助于识别的目标特征,从而避免了人工特征设计及选择环节,具有较强的泛化能力[10]。在训练阶段,首先采用卷积神经网络(Convolution Neural Network, CNN)分别提取HRRP, JTF、距离-瞬时多普勒(Range Instantaneous Doppler, RID)像的层级特征,进而通过特征拼接形成联合特征向量。随后,采用SAE无监督地学习出联合特征向量的隐层特征。进而剔除SAE解码器部分并在编码器后接入Softmax分类器构成识别网络。最后利用SAE网络参数对识别网络进行初始化,并利用上述联合特征向量对其进行微调得到训练好的识别网络。在测试阶段,将CNN所提测试集的联合特征向量直接输入训练好的识别网络中,得到融合识别结果。各种条件下的电磁仿真数据识别结果表明,即使观测时间小于目标微动周期,所提方法仍然能够获得优良的识别性能。同时,与仅采用单一回波的识别方法相比,所提方法显著提升了识别正确率,并且对噪声具有稳健性。
2. 建模
2.1 微动建模
空间微动目标通常包含自旋、进动、章动、旋转、翻滚等多种微动形式。在目标本地坐标系中,若初始时刻散射中心p的坐标矢量为rp=[xp,yp,zp]T,雷达视线矢量为ξ,则该散射点瞬时斜距满足
Rp(t)=⟨Rrotrp,ξ⟩ (1) 其中,⟨⟩表示内积,Rrot为旋转矩阵,具体表达式由目标微动形式决定[2]。
2.2 信号建模
在距离脉压后,微动目标回波满足
g(r,t)=∑pσpa(2Bc(r−ΔRp(t)))⋅exp(−j4πλΔRp(t)) (2) 其中,p表示散射点序号,σp表示第p个散射点的后向散射系数,a(⋅)为与波形相关的函数,B为信号带宽,c为光速,ΔRp(t) = Rp(t)−Rref,Rref为参考距离,λ = c/fc为载频对应的波长。
对于窄带雷达,目标回波集中在一个距离单元内,因此式(2)退化为
gn(r,t)=∑pσpexp(−j4πλΔRp(t)) (3) 2.3 预处理
在获得目标原始回波后,对其对做短时傅里叶变换(Short-Time Fourier Transform, STFT)得到联合时频分布图。对于窄带回波gn(r,t),
STFT(t,ω)=∫gn(r,t′)h(t−t′)exp{−jωt′}dt′ (4) 其中,t和ω分别是时间与多普勒单元,h(⋅)是窗函数。
对于宽带回波,可进一步进行距离-瞬时多普勒成像[11]。设宽带回波分别包含Nr个距离单元和Na个方位单元,则在距离脉压后对Nr个距离单元分别作短时傅里叶变换得到其时频图In(tm,fd)∈RM×Nd,其中n=1,2,⋯,Nr, M=⌊(Na−L/2)/str⌋, m=1,2,⋯,M, L为窗长,str为步长,Nd是多普勒单元的数量。然后,将时频图In(tm,fd)堆叠成一个3维矩阵Q(n,tm,fd)∈RNr×M×Nd并沿时间轴抽取2维矩阵切片,即可得RID像。
3. 所提算法
本节将详细介绍基于SAE的空间微动目标特征级融合识别方法,该方法的流程如图1所示。在训练阶段,首先采用CNN分别提取HRRP, JTF, RID像的层级特征,进而通过特征拼接形成联合特征向量。随后,采用SAE无监督地学习出联合特征向量的隐层特征。进而剔除SAE解码器部分并在编码器后接入Softmax分类器构成识别网络。最后利用SAE网络参数对识别网络进行初始化,并利用上述联合特征向量对其进行微调得到训练好的识别网络。在测试阶段,将CNN所提测试集的联合特征向量直接输入训练好的识别网络中,得到融合识别结果,下面将详细介绍各模块结构。
3.1 基于CNN的特征提取
与基于手动特征提取的传统目标识别方法不同,CNN的数据驱动机制能够避免复杂的特征提取器设计。此外,其局部连接、权值共享、池化及多层结构[10]保证了层级特征的有效提取。对于从微动目标宽带回波获得的HRRP序列、RID像及从窄带回波获得的JTF,本文分别设计3种CNN结构用于数据域特征提取,如图2所示。以图2(a)为例,CNN-I网络“Conv.16@5×5 BN/ReLU/Dropout”表示卷积层中特征图数量为16,卷积核大小为5×5,卷积核滑动步长为1,在每个卷积层之后加入批归一化BN[12]和整流线性单元(ReLU)[13]进行激活,为防止过拟合在该层之后加入dropout层[14];“Max pool 2×2”表示采用最大池化,池化核大小为2×2,滑动步长为2;“Fully connected/256”表示全连接层,全连接点数为256。同时,CNN-I网络结构共包含4个卷积层、4个池化层和2个全连接层。4个卷积层的卷积核大小分别为5×5, 5×5, 4×4和4×4,步长均为1;对应卷积特征图数量分别为16, 32, 64, 128。第1个全连接层节点数为256,第2个全连接层节点数为4。最后,通过Softmax分类器输出预测标签。为进一步防止过拟合,在CNN-I和CNN-III中将网络部分权重以0.1概率随机剔除,CNN-II中网络部分权重以0.2概率随机剔除。
在训练过程中,输出层损失函数采用交叉熵损失函数
L(w)=−T∑t=1ytlnˆyt(w) (5) 其中,ˆyt为激活函数Softmax的输出,yt为样本标签,T为总的目标类别数,w为网络参数。
所提方法中,将第1个全连接层输出作为提取的深层特征。因此对于HRRP序列,JTF及RID像,可分别提取一个256维、128维以及256维的特征向量,进而将其拼接为一个640维的联合特征向量。
3.2 基于SAE的融合识别
在得到联合特征向量后,本文进一步设计SAE以无监督地学习联合特征向量的隐层特征并实现宽、窄带特征融合。相较于传统自编码器,SAE通过引入稀疏惩罚项提升隐层特征的表征能力并减小过拟合风险,同时可以实现特征优选和冗余抑制[15,16]。如图1所示,本文所设计的SAE包含3层网络结构,即输入层、隐藏层和输出层。
SAE的训练过程包含编码和解码两个阶段。在编码阶段,通过激活函数f将联合特征向量x=[x(1),x(2),⋯,x(m)]映射到隐藏层h
h(x(i),w(1),b)=f(w(1)x(i)+b(1)), i=1,2,⋯,m (6) 其中,w(1)为输入层与隐藏层之间的权值矩阵,b(1)为偏置,m=640为联合特征向量的长度。在解码阶段,通过激活函数g将隐藏层h映射到输出层,得到重构联合特征向量ˆx,其第i个元素为
ˆx(i)=g(w(2)h(x(i),w(1),b)+b(2)), i=1,2,⋯,m (7) 其中,w(2)为隐藏层与输出层之间的权值矩阵,b(2)为对应偏置。
传统自编码器通过最小化重构误差训练网络,其代价函数为
J(w,b)=[1mm∑i=1(12‖x(i)−ˆx(i)‖2)]+β2nl−1∑l=1sl∑i=1sl+1∑j=1(w(l)ji)2 (8) 其中,第1项为原始输入x与重构输入ˆx的均方误差,第2项为权值衰减项,用于防止网络过拟合。nl为神经网络的层数,sl为第l层的神经元节点数,β为权值衰减系数。
在传统自编码器的基础上,SAE通过引入稀疏惩罚项Ppenalty将隐藏层的神经元节点限制在“不活跃”状态(神经单元节点的激活值为0或者接近于0),即
Ppenalty=s2∑j=1KL(ρ‖ˆρj)=s2∑j=1ρlgρˆρj+(1−ρ)⋅lg(1−ρ)(1−ˆρj) (9) ˆρj=1mm∑i=1hj(x(i),w(1),b) (10) 其中,ρ为稀疏参数,ˆρj为隐藏层第j个神经元节点的平均激活值,hj(x(i),w(1),b)为联合特征向量中第i个元素对应的第j个隐藏节点的激活值,s2为隐藏层节点数,KL(⋅)表示KL散度,用于衡量ρ与ˆρ分布之间的相似性。SAE的代价函数由重构均方误差式(8)和稀疏惩罚项两项组成
Jsparse(w,b)=J(w,b)+γs2∑j=1KL(ρ‖ˆρj) (11) 其中,γ为稀疏惩罚系数,用于控制稀疏惩罚项的权重。
本文所设计的SAE输入层和输出层均包含640个节点,隐藏层包含1 024个节点。设置稀疏参数ρ = 0.05,稀疏惩罚系数γ = 0.2。
在采用SAE学习到联合特征向量的隐层特征后,剔除SAE解码器部分,同时在编码器后接入Softmax分类器构成识别网络。而后,利用SAE网络参数对识别网络的参数进行初始化,进而利用联合特征向量对其进行微调得到训练好的识别网络。在测试阶段,用训练好的CNN提取测试样本的联合特征向量并输入识别网络中得到目标类别标签。
4. 实验设置
4.1 数据集设置
由于很难获得空间微动目标的实测数据[17],因此本文通过动态电磁仿真获得各类典型微动目标的回波,并通过不同条件下的实验对比分析,验证所提方法的有效性和稳健性。
根据现有空间微动目标识别文献,选取4类典型空间微动目标,同时根据文献给出的参数范围设计了对应目标的尺寸及微动参数[4,7,17,18]。文中采用的4类目标3维几何模型及剖面图如图3所示,其形状相似、材质相同,分别为平底锥(目标1)、平底锥柱体(目标2)、球底锥(目标3)、球底锥柱体(目标4)。为实现动态回波仿真,首先采用物理光学法[19]获得目标的静态全角域回波。由于目标旋转对称,因此在本地坐标系中雷达视线方位角固定而俯仰角在0°~360°变化(间隔为0.1°)。雷达工作于X波段,HH极化,载频为10 GHz,宽带信号带宽为2 GHz,窄带信号带宽为20 MHz。图4为4类目标窄带静态全角域回波随俯仰角的变化曲线,图5为4类目标宽带静态全角域回波随俯仰角的变化的曲线。
在动态回波仿真时,宽带信号和窄带信号的重频均为200 Hz,观测时间均为0.5 s,4类目标微动参数如表1所示。各类目标初始俯仰角在21°~30°内以1°为间隔连续变化,进动频率以0.2 Hz为间隔连续变化,进动角以0.15°为间隔连续变化。因此,每类目标对应10个初始俯仰角,11种进动频率(按照设定的观测时间,当进动频率低于2 Hz时,均观测不到一个完整周期),11个进动角。为获得目标动态电磁仿真回波,首先根据微动参数计算出雷达视线与目标对称轴的夹角(等效俯仰角),进而分别对窄带和宽带全角域静态电磁回波进行抽取[20]。最终,每类目标可得到1 210组窄带回波和1 210组宽带回波,对应维度分别为1×101和101×101。为进一步验证所提方法对噪声的稳健性,在原始窄带和宽带回波中分别加入高斯噪声,从而获得0 dB, 5 dB, 10 dB, 15 dB和20 dB的信噪比(Signal to Noise Ratio, SNR)。在此基础上,进一步得到对应的JTF,HRRP序列和RID像。
表 1 4类目标微动参数目标 俯仰角(°) 自旋频率(Hz) 进动频率(Hz) 进动角(°) 目标1 21~30 3.0 2.0~4.0 4.0~5.5 目标2 21~30 1.5 1.5~3.5 2.0~3.5 目标3 21~30 2.0 1.0~3.0 3.0~4.5 目标4 21~30 1.0 0.5~2.5 1.0~2.5 本文按照初始俯仰角将数据集划分为训练集和测试集[17]。具体而言,取初始俯仰角21°~25°对应的样本作为训练集,可得到2 420个训练样本;取初始俯仰角26°~30°对应的样本作为测试集,可得到2 420个测试样本。
4.2 实验设置
采用反向传播方法[21]训练特征提取网络、SAE网络和识别网络。为加快网络收敛速度并减少存储空间,采用包含动量机制和权值衰减技术的SGD(Stochastic Gradient Descent)优化器[22]进行参数更新,更新公式如下
w(τ+1)=w(τ)+Δw(τ+1) (12) Δw(τ+1)=αΔw(τ)−βητw(τ)−ητ∇L(w(τ)) (13) 其中,w(τ+1)是第τ + 1次迭代时的网络参数,w(τ)是第τ次迭代时的网络参数,Δw(τ)是第τ次迭代时w的变化量,α为动量系数,β为权值衰减系数,∇L(w(τ))为代价函数L(w(τ))第τ次迭代时对w的导数。ητ为第τ次迭代时的学习率,并且以指数形式衰减
ητ=η0×dτtb (14) 其中,η0为初始学习率,d为衰减因子,τ为当前迭代次数,tb是总迭代次数。
在训练各网络模块时,相应超参数如表2所示,表中α为动量系数,β为权值衰减系数,η0为初始学习率,d为衰减因子,tb是总迭代次数。同时,批处理(Batch Size)大小均设置为64。
表 2 网络超参数网络模块 SGD优化器 学习率 迭代次数 批处理大小 α β η0 d tb Batch Size 特征提取 0.5 0.01 0.1 0.94 50 64 SAE 0.5 0.001 0.1 0.96 50 64 识别网络 0.5 0 0.1 0.94 50 64 4.3 实验结果
当SNR为0 dB, 5 dB, 10 dB, 15 dB和20 dB时,所提方法识别结果如表3所示。可以看出,SNR为20 dB时,识别率为97.64%,SNR为0 dB时,识别率为95.00%,性能下降较少,从而证明所提方法的有效性及噪声稳健性。
表 3 所提方法在各SNR下识别结果(%)实验结果 SNR(dB) 0 5 10 15 20 识别率 95.00 96.69 97.27 97.52 97.64 为进一步验证所提方法相较于单一回波识别方法的优越性,表4列出不同SNR下所提方法与基于JTF, HRRP序列及RID像等单一回波识别方法的准确率对比。可以看出,所提方法的识别率最小可提升8.59%, 7.23%, 6.69%, 5.78%, 5.00%,从而证明其优越性。
表 4 所提方法与单一回波识别结果对比(%)识别特征 SNR(dB) 0 5 10 15 20 JTF 86.41 89.46 90.58 91.74 92.64 HRRP 86.00 86.74 88.84 88.93 89.96 RID 85.58 87.40 88.10 88.51 88.64 所提方法 95.00 96.69 97.27 97.52 97.64 为了证明所提特征融合方法的有效性,与两种常见的特征级融合识别方法进行对比。第1种方法将所提取的3个深层特征直接进行拼接,然后输入分类层得到识别结果。第2种方法将所提取的3个深层特征相加,然后输入分类层得到识别结果。由于提取初级特征的维度不同,因此在相加之前先将不同模态的初级特征映射到同一维度。识别结果如表5所示,可以看出,所提算法相较于传统特征级融合方法的识别率均有不同程度的提升。
表 5 实验对比结果(%)融合方法 SNR(dB) 0 5 10 15 20 特征拼接 92.93 93.93 94.01 94.26 95.79 特征相加 92.31 93.76 94.05 94.17 95.95 所提方法 95.00 96.69 97.27 97.52 97.64 5. 结束语
为充分挖掘利用微动目标宽、窄带雷达回波中蕴含的丰富信息,提出基于SAE的空间微动目标特征级融合识别方法。在训练阶段,首先采用CNN提取HRRP, JTF和RID像的层级特征,进而对深层特征进行拼接以获得联合特征向量。随后,采用SAE无监督地学习出联合特征向量的隐层特征,进而剔除SAE解码器部分并在编码器后接入Softmax分类器构成识别网络。最后,利用SAE网络参数对识别网络进行初始化,并利用联合特征向量对其微调以得到训练好的识别网络。在测试阶段,用训练好的CNN提取测试样本的联合特征向量,并直接输入训练好的识别网络以得到目标类别标签。各种条件下的电磁仿真数据识别结果表明,与仅采用单一回波的识别方法相比,所提方法能显著提升识别正确率并表现出噪声稳健性。未来将进一步研究观测样本不足条件下的空间微动目标小样本融合识别方法。
-
表 1 消融实验结果表
模型 Unet Res DSC MRes EMRes 德国ESRA数据集 西安地区数据集 San Francisco数据集 AA OA Kappa AA OA Kappa AA OA Kappa A √ 0.9489 0.9559 0.9262 0.9752 0.9757 0.9622 0.9415 0.9692 0.9499 B √ √ 0.9564 0.9612 0.9349 0.9721 0.9785 0.9666 0.9487 0.9717 0.9538 C √ √ √ 0.9639 0.9675 0.9456 0.9758 0.9791 0.9675 0.9512 0.9754 0.9599 D √ √ √ 0.9669 0.9708 0.9511 0.9852 0.9847 0.9760 0.9709 0.9851 0.9756 E √ √ √ 0.9691 0.9726 0.9542 0.9844 0.9864 0.9788 0.9776 0.9879 0.9803 表 2 不同方法在德国ESRA数据集上的分类精度
方法 SVM[3] Wishart[5] CNN[10] FCN[18] MS-FCN[28] UNet[19] MSR-Unet 建筑区 0.7316 0.6732 0.8447 0.9124 0.9339 0.9180 0.9487 林区 0.8477 0.8109 0.8762 0.9502 0.9445 0.9557 0.9765 开放区 0.8845 0.9062 0.9515 0.9711 0.9691 0.9732 0.9820 AA 0.8213 0.7968 0.8907 0.9442 0.9492 0.9489 0.9691 OA 0.8463 0.8346 0.9113 0.9520 0.9554 0.9559 0.9726 Kappa 0.7324 0.7118 0.8479 0.9197 0.9252 0.9262 0.9542 表 3 不同方法在西安地区数据集上的分类精度及AA、OA、Kappa值
方法 SVM[3] Wishart[5] CNN[10] FCN[18] MS-FCN[28] UNet[19] MSR-Unet 草地 0.7870 0.8209 0.9208 0.9740 0.9677 0.9797 0.9887 城市 0.8202 0.8745 0.9528 0.9725 0.9701 0.9762 0.9903 庄稼 0.2711 0.1544 0.9004 0.9852 0.9531 0.9838 0.9880 河流 0.9053 0.7343 0.9319 0.9528 0.9571 0.9612 0.9707 AA 0.6959 0.6460 0.9265 0.9711 0.9620 0.9752 0.9844 OA 0.7958 0.7153 0.9324 0.9706 0.9663 0.9757 0.9864 Kappa 0.6803 0.5942 0.8940 0.9542 0.9475 0.9622 0.9788 表 4 不同方法在San Francisco数据集上的分类精度及AA、OA、Kappa值
方法 SVM[3] Wishart[5] CNN[10] FCN[18] MS-FCN[28] UNet[19] MSR-Unet 发达城市 08125 0.8167 0.8096 0.9044 0.9277 0.8989 0.9738 水域 0.9758 0.9954 0.9898 0.9952 0.9982 0.9978 0.9991 高密度城市 0.7047 0.7828 0.7936 0.9449 0.8943 0.9421 0.9762 低密度城市 0.6249 0.6623 0.7905 0.9222 0.8840 0.9309 0.9742 植物 0.7642 0.5979 0.9051 0.9305 0.9334 0.9406 0.9647 AA 0.7764 0.7710 0.8577 0.9394 0.9287 0.9415 0.9776 OA 0.8293 0.8239 0.9026 0.9662 0.9582 0.9692 0.9879 Kappa 0.7511 0.7445 0.8569 0.9448 0.9316 0.9499 0.9803 表 5 不同深度学习方法的参数量及FLOPs比较结果
数据集 CNN FCN MS-FCN Unet MSR-Unet 西安数据集 参数量(M) 23.38 16.52 34.97 5.88 4.05 FLOPs (G) 0.66 2.99 17.91 3.87 1.94 德国ESAR数据集
San Francisco数据集参数量 (M) 23.38 16.52 34.97 5.88 4.05 FLOPs (G) 0.66 12.00 71.65 15.50 7.77 -
[1] HUANG Zhongling, DATCU M, PAN Zongxu, et al. Deep SAR-Net: Learning objects from signals[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 161: 179–193. doi: 10.1016/j.isprsjprs.2020.01.016 [2] JAFARI M, MAGHSOUDI Y, and VALADAN ZOEJ M J. A new method for land cover characterization and classification of polarimetric SAR data using polarimetric signatures[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2015, 8(7): 3595–3607. doi: 10.1109/JSTARS.2014.2387374 [3] FUKUDA S and HIROSAWA H. Support vector machine classification of land cover: Application to polarimetric SAR data[C]. Proceedings of IEEE 2001 International Geoscience and Remote Sensing Symposium, Sydney, Australia, 2001: 187–189. [4] OKWUASHI O, NDEHEDEHE C E, OLAYINKA D N, et al. Deep support vector machine for PolSAR image classification[J]. International Journal of Remote Sensing, 2021, 42(17): 6498–6536. doi: 10.1080/01431161.2021.1939910 [5] LEE J S, GRUNES M R, AINSWORTH T L, et al. Quantitative comparison of classification capability: Fully-polarimetric versus partially polarimetric SAR[C]. Proceedings of IEEE 2000 International Geoscience and Remote Sensing Symposium. Taking the Pulse of the Planet: The Role of Remote Sensing in Managing the Environment, Honolulu, USA, 2000: 1101–1103. [6] 魏志强, 毕海霞. 基于聚类识别的极化SAR图像分类[J]. 电子与信息学报, 2018, 40(12): 2795–2803. doi: 10.11999/JEIT180229WEI Zhiqiang and BI Haixia. PolSAR image classification based on discriminative clustering[J]. Journal of Electronics &Information Technology, 2018, 40(12): 2795–2803. doi: 10.11999/JEIT180229 [7] CHEN Yanqiao, JIAO Licheng, LI Yangyang, et al. Multilayer projective dictionary pair learning and sparse autoencoder for PolSAR image classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2017, 55(12): 6683–6694. doi: 10.1109/TGRS.2017.2727067 [8] XIE Wen, MA Gaini, HUA Wenqiang, et al. Complex-valued wishart stacked auto-encoder network for Polsar image classification[C]. Proceedings of 2019 IEEE International Geoscience and Remote Sensing Symposium, Yokohama, Japan, 2019: 3193–3196. [9] AI Jiaqiu, WANG Feifan, MAO Yuxiang, et al. A fine PolSAR terrain classification algorithm using the texture feature fusion-based improved convolutional autoencoder[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5218714. doi: 10.1109/TGRS.2021.3131986 [10] CHEN Siwei and TAO Chensong. PolSAR image classification using polarimetric-feature-driven deep convolutional neural network[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(4): 627–631. doi: 10.1109/LGRS.2018.2799877 [11] HUA Wenqiang, ZHANG Cong, XIE Wen, et al. Polarimetric SAR image classification based on ensemble dual-branch CNN and superpixel algorithm[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2022, 15: 2759–2772. doi: 10.1109/JSTARS.2022.3162953 [12] CUI Yuanhao, LIU Fang, JIAO Licheng, et al. Polarimetric multipath convolutional neural network for PolSAR image classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5207118. doi: 10.1109/TGRS.2021.3071559 [13] 秦先祥, 余旺盛, 王鹏, 等. 基于复值卷积神经网络样本精选的极化SAR图像弱监督分类方法[J]. 雷达学报, 2020, 9(3): 525–538. doi: 10.12000/JR20062QIN Xianxiang, YU Wangsheng, WANG Peng, et al. Weakly supervised classification of PolSAR images based on sample refinement with complex-valued convolutional neural network[J]. Journal of Radars, 2020, 9(3): 525–538. doi: 10.12000/JR20062 [14] LIU Fang, JIAO Licheng, and TANG Xu. Task-oriented GAN for PolSAR image classification and clustering[J]. IEEE Transactions on Neural Networks and Learning Systems, 2019, 30(9): 2707–2719. doi: 10.1109/TNNLS.2018.2885799 [15] LI Xiufang, SUN Qigong, LI Lingling, et al. SSCV-GANs: Semi-supervised complex-valued GANs for PolSAR image classification[J]. IEEE Access, 2020, 8: 146560–146576. doi: 10.1109/ACCESS.2020.3004591 [16] YANG Chen, HOU Biao, CHANUSSOT J, et al. N-Cluster loss and hard sample generative deep metric learning for PolSAR image classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5210516. doi: 10.1109/TGRS.2021.3099840 [17] 贺丰收, 何友, 刘准钆, 等. 卷积神经网络在雷达自动目标识别中的研究进展[J]. 电子与信息学报, 2020, 42(1): 119–131. doi: 10.11999/JEIT180899HE Fengshou, HE You, LIU Zhunga, et al. Research and development on applications of convolutional neural networks of radar automatic target recognition[J]. Journal of Electronics &Information Technology, 2020, 42(1): 119–131. doi: 10.11999/JEIT180899 [18] LI Yangyang, CHEN Yanqiao, LIU Guangyuan, et al. A novel deep fully convolutional network for PolSAR image classification[J]. Remote Sensing, 2018, 10(12): 1984. doi: 10.3390/rs10121984 [19] RONNEBERGER O, FISCHER P, and BROX T. U-Net: Convolutional networks for biomedical image segmentation[C]. Proceedings of the 18th International Conference on Medical Image Computing and Computer-Assisted Intervention, Munich, Germany, 2015: 234–241. [20] KOTRU R, SHAIKH M, TURKAR V, et al. Semantic segmentation of PolSAR images for various land cover features[C]. Proceedings of 2021 IEEE International Geoscience and Remote Sensing Symposium, Brussels, Belgium, 2021: 351–354. [21] HOWARD A G, ZHU Menglong, CHEN Bo, et al. MobileNets: Efficient convolutional neural networks for mobile vision applications[J]. arXiv: 1704.04861, 2017. [22] CHOLLET F. Xception: Deep learning with depthwise separable convolutions[C]. Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 1800–1807. [23] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. Proceedings of 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778. [24] HUANG Gao, LIU Zhuang, VAN DER MAATEN L, et al. Densely connected convolutional networks[C]. Proceedings of 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 2261–2269. [25] AI Jiaqiu, MAO Yuxiang, LUO Qiwu, et al. SAR target classification using the multikernel-size feature fusion-based convolutional neural network[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5214313. doi: 10.1109/TGRS.2021.3106915 [26] SHANG Ronghua, HE Jianghai, WANG Jiaming, et al. Dense connection and depthwise separable convolution based CNN for polarimetric SAR image classification[J]. Knowledge-Based Systems, 2020, 194: 105542. doi: 10.1016/j.knosys.2020.105542 [27] 孙军梅, 葛青青, 李秀梅, 等. 一种具有边缘增强特点的医学图像分割网络[J]. 电子与信息学报, 2022, 44(5): 1643–1652. doi: 10.11999/JEIT210784SUN Junmei, GE Qingqing, LI Xiumei, et al. A medical image segmentation network with boundary enhancement[J]. Journal of Electronics &Information Technology, 2022, 44(5): 1643–1652. doi: 10.11999/JEIT210784 [28] WU Wenjin, LI Hailei, LI Xinwu, et al. PolSAR image semantic segmentation based on deep transfer learning—realizing smooth classification with small training sets[J]. IEEE Geoscience and Remote Sensing Letters, 2019, 16(6): 977–981. doi: 10.1109/LGRS.2018.2886559 -