A Review of Progress in Super-Resolution Reconstruction of Polarimetric Radar Image Target
-
摘要: 成像雷达具有全天时、全天候的观测能力,能够通过成像处理获得目标雷达图像信息,是对地观测、侦察监视等民用和军用领域中的重要遥感设备。高分辨率雷达图像能够提供目标的详细轮廓和精细结构,有利于后续目标分类识别等应用。对获取的雷达图像,如何利用信号和信息处理等理论方法进一步提升分辨率,突破分辨率瑞利极限,具有重要的科学研究和实际应用价值。另一方面,作为电磁波的重要属性之一,极化在目标特性的获取和挖掘中发挥着重要作用,能够为目标超分辨率重建带来丰富信息。为此,该文梳理了极化雷达图像目标超分辨率重建的概念及性能评价指标,并重点归纳整理了极化雷达图像目标超分辨率重建方法及其应用。最后,总结了现有方法的局限性并展望了未来的技术发展趋势。Abstract: Radar possesses the capability for all-day, all-weather observation and can generate radar target images through image processing. It serves as an indispensable piece of remote sensing equipment in various civil and military applications, including earth observation, and surveillance. High-resolution radar images can provide a detailed outline and fine structure of the target, which is conducive to subsequent applications such as target classification and recognition. For the acquired radar images, how to use theoretical methods such as signal and information processing to further improve the resolution and break through the Rayleigh limit has important scientific research and practical application value. On the other hand, polarization, a crucial attribute of electromagnetic waves, plays a significant role in the acquisition and analysis of target characteristics, and can provide rich information for super-resolution reconstruction. Accordingly, this work initially elucidates the concept of polarimetric radar image super-resolution reconstruction, summarizes the performance evaluation metrics, and primarily focuses on the methods of polarimetric radar image super-resolution reconstruction and their applications. Lastly, the limitations of existing methods are summarized and potential future trends in technology are forecasted.
-
Key words:
- Radar image /
- Polarization /
- Super-resolution reconstruction /
- Signal processing /
- Deep learning
-
1. 引言
随着硬件系统、成像技术、信号与信息处理方法的进步,近年来成像雷达快速发展[1,2]。其中,合成孔径雷达(Synthetic Aperture Radar, SAR)和逆合成孔径雷达(Inverse Synthetic Aperture Radar, ISAR)是典型的成像雷达,具有全天时、全天候观测能力,能够对观测目标实现2维成像,获得目标雷达图像信息。而高分辨率雷达图像能够提供目标的详细轮廓和精细结构,有利于后续目标分类识别等应用。
雷达图像分辨率的提升主要有3种途径:提升硬件水平、超分辨率成像和超分辨率重建。本文主要关注成像后的图像处理阶段,即从雷达图像域映射到雷达图像域的超分辨率重建算法。但是低分辨率图像与高分辨率图像之间的复杂隐式关系给图像超分辨率重建任务带来挑战。对于雷达图像超分辨率重建,现有研究工作将其作为一种预处理手段,并应用于水域分割[3,4]、自然地物分类[5]、人造目标分类[6,7]及海冰漂移跟踪[8]等领域。近年来,以卷积神经网络(Convolutional Neural Network, CNN)为代表的深度学习方法在雷达图像处理领域得到了广泛研究和应用[9,10],能够自适应地进行特征提取和挖掘数据中的非线性映射关系。目前,针对雷达图像目标超分辨率重建的智能化技术,研究人员主要从深度网络模型结构、损失函数和学习策略等方面进行了改进。
极化是雷达收发电磁波的重要信息维度和本质属性之一[11,12],在雷达探测中承载了目标丰富的物理属性信息。当前,具备极化测量能力的极化雷达成像系统已经被广泛应用于对地观测[13]、减灾防灾[14]、侦察监视[11]、太空探测[15–18]、精确制导[19]等重要领域,并成为成像雷达目标探测的主流传感器[1]。按照极化信息的获取能力进行分类,常用的极化模式包括单极化、双极化、全极化和简缩极化模式。其中,简缩极化是一种特殊的双极化模式,相比于传统水平和垂直极化基下的双极化模式,其信号组合方式更加灵活[17,20]。不同极化通道具有相关性,对其进行挖掘与利用能够为雷达图像超分辨率重建提供丰富信息。
当前已经形成了一系列具有代表性的雷达图像目标超分辨率重建方法。该文从理论基础、基于单极化处理的极化雷达图像目标超分辨率重建进展、多极化联合处理的极化雷达图像目标超分辨率重建进展及其应用4个方面进行系统性梳理,并对未来的技术发展进行展望。
2. 极化雷达图像目标超分辨率重建概念
2.1 极化雷达图像分辨率提升途径
高分辨率图像能够提供目标的详细轮廓和精细结构,有利于后续目标反演识别。图1给出了雷达系统硬件参数优化下,卫星实测ISAR图像对比结果[21,22]。雷达图像的分辨率表征雷达对观测空间中相邻两个目标的分辨能力,分为距离向分辨率ρr和方位向分辨率ρa,为
ρr=cτ2=c2B(m) (1) ρa=λ2θ(m) (2) 其中,c为电磁波传播速度(3×108m/s),τ为雷达信号的脉冲宽度,B为雷达信号带宽,λ为雷达信号载频波长,θ为雷达成像相干积累时间内目标相对雷达视线的视角变化量。ρr与ρa也代表了基于FFT的成像算法所能达到的分辨率瑞利极限值[23]。注意到,文献[23]指出τ一般计算为脉冲压缩后信号两个–3 dB点之间的间隔,即信号峰值0.707倍数值间的脉冲宽度,式(1)中还应包含因子项 0.886。但是,考虑信号处理过程中所加窗函数带来的展宽效应,因子项0.886可以忽略[23]。
提升极化雷达图像分辨率的方法主要有3种,如图2所示,包括:(1) 成像前阶段,提高硬件水平,增大系统发射和接收信号带宽,合成更大的成像孔径。(2) 成像阶段,对原始回波信号进行处理,即超分辨率成像算法。(3) 成像后阶段,采用图像处理方法提升图像分辨率,即图像超分辨率重建算法。对于途径(1),如图1所示,随着硬件水平的提升,雷达系统带宽由1 GHz提升至8 GHz,目标实测ISAR图像分辨率也显著提升,并呈现出更多目标纹理等细节信息。途径(2)主要包括:(a) 点扩散函数伪逆求解方法[24];(b) 带宽外推方法[25];(c) 正则化方法[26];(d) 谱估计方法[27];(e) 基于属性散射中心模型的方法[28];(f) 非线性滤波方法[29];(g) 稀疏表示方法[30];(h) 深度学习方法[31]等。本文主要关注途径(3)图像超分辨率重建。
2.2 极化雷达图像目标超分辨率重建问题
图像的成像分辨率受到系统参数的限制。图像超分辨率重建技术最先由Harris等人提出[32],目前是计算机视觉等多学科领域研究者关注的热点问题[33,34]。
极化雷达图像目标超分辨率重建指的是成像后阶段,采用图像处理方法使得极化雷达图像分辨率优于系统参数所决定的瑞利极限值ρr和ρa,如式(1)和式(2)所示。注意到,极化雷达图像超分辨率重建算法在预成像的基础上提升图像质量,现有研究工作中采用的预成像方法包括距离-多普勒(Range-Doppler, RD)算法[35]和极坐标格式化(Polar Format Algorithm, PFA)[16,36]算法等。
2.3 极化雷达图像目标超分辨率重建评价指标
超分辨率重建是改善极化雷达图像质量的一种方式,重建效果的评价方式可分为主观评价与客观评价。主观评价方式一般为对极化雷达图像超分辨率重建结果进行目视分析[37],客观评价为采用定量指标进行衡量。对于光学图像超分辨率重建,研究人员提出了一系列定量评价指标[33,34],而现有极化雷达图像超分辨率重建工作大多采用这些评价指标,如峰值信噪比和结构相似度指标等。根据是否需要参考图像,可以分为有参考图像和无参考图像的方法;根据评价对象范围大小,可以分为基于点目标和基于面目标的方法[38]。表1和表2分别归纳了基于点目标和基于面目标的极化雷达图像超分辨率重建定量评价指标,并给出了相应的含义和计算公式,以便研究人员参考。
表 1 基于点目标的极化雷达图像目标超分辨率重建定量评价指标评价指标 是否需要参考图像 含义 计算公式 变量与符号说明 距离向3 dB主瓣宽度[17,39–43] 否 距离向瑞利极限值 δr={y|ˆImax≥ˆI(y)≥0.707ˆImax} ˆI为超分辨率重建图像幅度特征图,ˆImax为主瓣峰值,y为距离向坐标 方位向3 dB主瓣宽度[17,39–43] 否 方位向瑞利极限值 δa={x|ˆImax≥ˆI(x)≥0.707ˆImax} x为方位向坐标 峰值旁瓣比(Peak Side Lobe Ratio, PSLR)[42–44] 否 第一旁瓣与主瓣峰值的比值,能够表征弱目标被强目标旁瓣压制的程度 PSLR=20lg(ˆISideLobe/ˆISideLobeˆImaxˆImax) ˆISideLobe为第一旁瓣峰值 积分旁瓣比(Integrate Side Lobe Ratio, ISLR) [42] 否 旁瓣能量与主瓣能量的比值,能够表征对旁瓣的抑制能力 ISLR=20lg(ESideLobe/ESideLobeEMainLobeEMainLobe) ESideLobe为旁瓣总能量,EMainLobe为主瓣总能量 距离向分辨率增强指数(Intersection Amplitude Value, IAV)[45] 是 参考图像与超分辨率重建图像中两个不完全孤立的点目标距离向回波幅值交叉点取值的差 IAVr = IAVhrr−IAVsrr IAVhrr和IAVsrr分别为参考图像与超分辨率重建图像中两个不完全孤立的点目标距离向回波幅值交叉点取值 方位向分辨率增强指数(Intersection Amplitude Value, IAV)[45] 是 参考图像与超分辨率重建图像中两个不完全孤立的点目标方位向回波幅值交叉点取值的差 IAVa = IAVhra−IAVsra IAVhra和IAVsra分别为参考图像与超分辨率重建图像中两个不完全孤立的点目标方位向回波幅值交叉点取值 峰值点匹配准确率[46] 是 重建后强散射点位置保持
精度– – 表 2 基于面目标的极化雷达图像目标超分辨率重建定量评价指标评价指标 是否需要参考图像 含义 计算公式 变量与符号说明 图像熵[44,47–51] 否 图像平均信息量 Entropy=−H∑y=1W∑x=1|ˆI(x,y)|2Qlg|ˆI(x,y)|2Q Q为超分辨率重建图像总能量。H与W分别为图像距离向与方位向的
像素数图像对比度(Image Contrast, IC)[42,48] 否 超分辨率重建图像强度标准差与方差
的比值IC=std(ˆI2)/std(ˆI2)mean(ˆI2)mean(ˆI2) std(⋅)为数据标准差,mean(⋅)为数据均值 图像信噪比(Signal-to-noise Ratio, SNR)[48] 否 超分辨率重建图像目标区域强度与背景区域强度的比值 SNR=20lg[mean(ˆI2target)mean(ˆI2background)] ˆI2target为目标区域图像强度,ˆI2background为背景区域图像强度 平均绝对误差(Mean Absolute Error, MAE)[5,43,52,53] 是 超分辨率重建图像与参考图像幅度值之间绝对误差的平均值 MAE=‖ {{\boldsymbol{I}}} 为参考图像幅度特征图,{\left\| \cdot \right\|_1}为矩阵1范数 均方误差(Mean Square Error, MSE)[44] 是 超分辨率重建图像与参考图像幅度值之间差值平方的平均值 {\text{MSE}} = \left\| {{\hat {\boldsymbol{I}}} - {{\boldsymbol{I}}}} \right\|_2^2 {\left\| \cdot \right\|_2}为矩阵2范数 均方根误差(Root Mean Square Error, RMSE)[30,43,54] 是 均方误差的算数
平方根{\text{RMSE}} = {\left\| {{\hat {\boldsymbol{I}}} - {{\boldsymbol{I}}}} \right\|_2} – 平均归一化均方根误差(Average Normalized Root Mean Square Error, NRMSE)[55] 是 归一化的均方根误差 {\text{NRMSE}} = \dfrac{{{{\left\| {{\hat {\boldsymbol{I}}} - {{\boldsymbol{I}}}} \right\|}_2}}}{{{{\left\| {{\hat {\boldsymbol{I}}}} \right\|}_2}{{\left\| {{\boldsymbol{I}}} \right\|}_2}}} – 峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)[3–5,8,43,44,46,49,51–53,56–59] 是 超分辨率重建图像最大强度与均方误差强度的比值 {\text{PSNR = 10lg}}\dfrac{{{{\boldsymbol{I}}}_{\max }^2}}{{{\text{MSE}}}} – 结构相似度(Structural Similarity, SSIM)[4,8,43,46,49,57–59] 是 超分辨率重建图像与参考图像结构
相似程度{\text{SSIM = }}L\left( {{\hat {\boldsymbol{I}}}{\text{,}}{{\boldsymbol{I}}}} \right){{C}}\left( {{\hat {\boldsymbol{I}}}{\text{,}}{{\boldsymbol{I}}}} \right){{S}}\left( {{\hat {\boldsymbol{I}}}{\text{,}}{{\boldsymbol{I}}}} \right) {{L}}\left( \cdot \right) 为亮度相似程度, {{C}}\left( \cdot \right) 为对比度相似程度, {{S}}\left( \cdot \right) 为结构相似
程度[60]特征相似性指标(Feature Similarity Index Metric, FSIM)[61,62] 是 超分辨率重建图像与参考图像特征相似程度,取值越接近1,相似性越高 \begin{gathered} {\text{FSIM}} = \\ \frac{{\displaystyle\sum\limits_{y = 1}^H {\displaystyle\sum\limits_{x = 1}^W {{\text{S}}'\left[ {{\hat {\boldsymbol{I}}}\left( {x,y} \right){\text{,}}{{\boldsymbol{I}}}\left( {x,y} \right)} \right]{\text{P}}{{\text{C}}_{\text{m}}}\left[ {{\hat {\boldsymbol{I}}}\left( {x,y} \right){\text{,}}{{\boldsymbol{I}}}\left( {x,y} \right)} \right]} } }}{{\displaystyle\sum\limits_{y = 1}^H {\displaystyle\sum\limits_{x = 1}^W {{\text{P}}{{\text{C}}_{\text{m}}}\left[ {{\hat {\boldsymbol{I}}}\left( {x,y} \right){\text{,}}{{\boldsymbol{I}}}\left( {x,y} \right)} \right]} } }} \\ \end{gathered} {\text{S}}'\left( \cdot \right) 为超分辨率重建图像与参考图像的局部相似性, {\text{P}}{{\text{C}}_{\text{m}}}\left( \cdot \right) 为对应的最大相位一致性[63] 皮尔逊相关系数[8] 是 参考图像与超分辨率重建图像协方差与标注差的比值 {\text{P = }}\frac{{\displaystyle\sum\limits_{y = 1}^H {\displaystyle\sum\limits_{x = 1}^W {\left[ {{\hat {\boldsymbol{I}}}\left( {x,y} \right) - {\text{mean}}\left( {{\boldsymbol{I}}} \right)} \right]} } \left[ {{\hat {\boldsymbol{I}}}\left( {x,y} \right) - {\text{mean}}\left( {{\hat {\boldsymbol{I}}}} \right)} \right]}}{{{{\left\| {{\hat {\boldsymbol{I}}}} \right\|}_2}{{\left\| {{\boldsymbol{I}}} \right\|}_2}}} – 边缘保持指数(Edge Preservation Index, EPI)[62] 是 针对乘性噪声的图像距离向边缘保持度量 \begin{gathered} {\text{EPI = }} \\ \frac{{\displaystyle\sum\limits_{y = 1}^H {\displaystyle\sum\limits_{x = 1}^W {\left[ {\Delta {\hat {\boldsymbol{I}}}\left( {x,y} \right) - {\text{mean}}\left( {\Delta {\hat {\boldsymbol{I}}}} \right)} \right]\left[ {\Delta {{\boldsymbol{I}}}\left( {x,y} \right) - {\text{mean}}\left( {\Delta {{\boldsymbol{I}}}} \right)} \right]} } }}{{{{\left\| {\Delta {\hat {\boldsymbol{I}}} - {\text{mean}}\left( {\Delta {\hat I}} \right)} \right\|}_2}{{\left\| {\Delta {{\boldsymbol{I}}} - {\text{mean}}\left( {\Delta {{\boldsymbol{I}}}} \right)} \right\|}_2}}} \\ \end{gathered} \Delta {\hat {\boldsymbol{I}}} 为超分辨率重建图像的边缘滤波特征图, \Delta {{\boldsymbol{I}}} 为参考图像的边缘滤波特征图[64] 距离向边缘保持度量指标(Edge Preservation Index-ROA, EPI-ROA)[57] 是 针对乘性噪声的图像距离向边缘保持度量 {\text{EPI - RO}}{{\text{A}}_{\text{r}}}{\text{ = }}\frac{{\displaystyle\sum\limits_{y = 1}^H {\displaystyle\sum\limits_{x = 1}^W {\left[ {{{{\hat {\boldsymbol{I}}}\left( {x,y + 1} \right)}/ {{\hat {\boldsymbol{I}}}\left( {x,y} \right)}}} \right]} } }}{{\displaystyle\sum\limits_{y = 1}^H {\sum\limits_{x = 1}^W {\left[ {{{{{\boldsymbol{I}}}\left( {x,y + 1} \right)} \mathord{\left/ {\vphantom {{{I}\left( {x,y + 1} \right)} {{I}\left( {x,y} \right)}}} \right. } {{{\boldsymbol{I}}}\left( {x,y} \right)}}} \right]} } }} – 方位向边缘保持度量指标(Edge Preservation Index-ROA, EPI-ROA)[57] 是 针对乘性噪声的图像方位向边缘保持度量 {\text{EPI - RO}}{{\text{A}}_{\text{a}}}{\text{ = }}\frac{{\displaystyle\sum\limits_{y = 1}^H {\displaystyle\sum\limits_{x = 1}^W {\left[ {{{{\hat {\boldsymbol{I}}}\left( {x + 1,y} \right)} \mathord{\left/ {\vphantom {{{\hat I}\left( {x + 1,y} \right)} {{\hat I}\left( {x,y} \right)}}} \right. } {{\hat {\boldsymbol{I}}}\left( {x,y} \right)}}} \right]} } }}{{\displaystyle\sum\limits_{y = 1}^H {\displaystyle\sum\limits_{x = 1}^W {\left[ {{{{{\boldsymbol{I}}}\left( {x + 1,y} \right)} \mathord{\left/ {\vphantom {{{{\boldsymbol{I}}}\left( {x + 1,y} \right)} {{{\boldsymbol{I}}}\left( {x,y} \right)}}} \right. } {{{\boldsymbol{I}}}\left( {x,y} \right)}}} \right]} } }} – Pauli相似性指标[16] 是 全极化雷达图像Pauli矢量重建精度 {{R}} = \dfrac{{{{\left\| {{{\boldsymbol{k}}}_{{\text{sr}}}^{}{{\boldsymbol{k}}}_{{\text{hr}}}^{\text{H}}} \right\|}_1}}}{{{{\left\| {{{\boldsymbol{k}}}_{{\text{sr}}}^{}} \right\|}_1}{{\left\| {{{\boldsymbol{k}}}_{{\text{hr}}}^{}} \right\|}_1}}} {{\boldsymbol{k}}}_{{\text{sr}}}^{}为超分辨率重建图像Pauli矢量,{{\boldsymbol{k}}}_{{\text{hr}}}^{}为参考图像Pauli矢量 注意到,现有文献中研究人员使用的部分极化雷达图像超分辨率重建定量评价指标具有相关性,指标之间可以通过简单的数学运算进行推导。RMSE指标为MSE指标的算数平方根,PSNR为最大值归一化下的MSE取值。此外,根据2.2节所述图像超分辨率重建问题的定义,距离向与方位向3 dB主瓣宽度能够反映算法对分辨率瑞利极限的超越程度。然而,图像超分辨率重建是一个不适定问题[33,34],解的不唯一性可能给重建结果带来伪影等问题,影响重建结果质量。因此,除了采用基于点目标的评价指标进行局部度量,有必要选取基于面目标的评价指标衡量全局重建精度和图像精细程度。此外,极化雷达图像超分辨率重建效果与后续应用紧密相关,如何发展一套标准的评价体系值得深入研究。
3. 基于单极化处理的极化雷达图像目标超分辨率重建进展
极化是雷达收发电磁波的重要信息维度和本质属性之一[11,65],在雷达遥感中承载了目标丰富物理属性信息。对于极化雷达图像目标超分辨率重建,一个朴素的思想是分别对每个单极化通道单独进行重建处理。目前,基于单极化雷达图像的目标超分辨率重建方法可以大致分为传统信号处理方法与深度学习方法两类。本文首先介绍雷达极化表征基础。
3.1 雷达极化表征
以水平和垂直极化基为例,极化雷达获取的目标全极化信息可由极化散射矩阵 {{\boldsymbol{S}}} 表征[65],为
{{\boldsymbol{S}}} = \left[ {\begin{array}{*{20}{l}} {{S_{{\text{HH}}}}}&{{S_{{\text{HV}}}}} \\ {{S_{{\text{VH}}}}}&{{S_{{\text{VV}}}}} \end{array}} \right] (3) 其中,下标{\text{HV}}代表垂直发射和水平接收,其他项可类似定义。在互易性条件下(即 {S_{{\text{HV}}}} = {S_{{\text{VH}}}} ),Pauli矢量 {{{\boldsymbol{k}}}_{\text{P}}} 和Lexicographic矢量 {{{\boldsymbol{k}}}_{\text{L}}} 为
{{{\boldsymbol{k}}}_{\text{P}}} = \frac{1}{{\sqrt 2 }}{\left[ {\begin{array}{*{20}{c}} {{S_{{\text{HH}}}} + {S_{{\text{VV}}}}}&{{S_{{\text{HH}}}} - {S_{{\text{VV}}}}}&{2{S_{{\text{HV}}}}} \end{array}} \right]^{\text{T}}} (4) {{{\boldsymbol{k}}}_{\text{L}}} = {\left[ {\begin{array}{*{20}{c}} {{S_{{\text{HH}}}}}&{\sqrt 2 {S_{{\text{HV}}}}}&{{S_{{\text{VV}}}}} \end{array}} \right]^{\text{T}}} (5) 进一步,利用Lexicographic散射矢量可以构建全极化协方差矩阵 {{\boldsymbol{C}}}_{{\text{Quad}}}^{} ,为
{{\boldsymbol{C}}}_{{\text{Quad}}}^{} = \left\langle {{{{\boldsymbol{k}}}_{\text{L}}}{{\boldsymbol{k}}}_{\text{L}}^{\text{H}}} \right\rangle = \left[ {\begin{array}{*{20}{c}} {{C_{{\text{11}}}}}&{{C_{{\text{12}}}}}&{{C_{13}}} \\ {{C_{21}}}&{{C_{22}}}&{{C_{23}}} \\ {{C_{31}}}&{{C_{32}}}&{{C_{33}}} \end{array}} \right] (6) 其中, \langle \cdot \rangle 代表样本平均, {{\boldsymbol{k}}}_{\text{L}}^{\text{H}} 是 {{{\boldsymbol{k}}}_{\text{L}}} 的共轭转置。 {C_{ij}} 代表极化协方差矩阵 {{\boldsymbol{C}}}_{{\text{Quad}}}^{} 索引为\left( {i,j} \right)的元素。
单极化模式下,目标散射系数为极化散射矩阵 {{\boldsymbol{S}}} 中的元素。例如,{\text{HH}}单极化模式下目标散射系数表示为 {S_{{\text{HH}}}} ,其他单极化模式可类似定义。
双极化模式包括{\text{VV}}-{\text{HV}}双极化模式、{\text{HH}}-{\text{VH}}双极化模式等[66]。以常见的{\text{HH}}-{\text{VH}}双极化模式为例,双极化协方差矩阵 {{\boldsymbol{C}}}_{{\text{Dual}}}^{} 为
{{\boldsymbol{C}}}_{{\text{Dual}}}^{} = \left[ {\begin{array}{*{20}{l}} {{C_{{\text{11}}}}}&{{C_{{\text{12}}}}} \\ {{C_{{\text{21}}}}}&{{C_{22}}} \end{array}} \right] (7) 注意到,简缩极化是一种特殊的双极化模式,相比于传统水平和垂直极化基下的双极化模式,其信号组合方式更加灵活[17,20]。
3.2 基于单极化与传统信号处理的重建方法
(1) 贝叶斯方法
贝叶斯方法结合先验知识与样本数据获得未知参数的后验概率,核心在于贝叶斯公式[67]。文献[37]构建了一种基于贝叶斯方法的雷达图像目标超分辨率重建方法,将成像过程建模为目标场景与雷达系统点扩散函数的卷积,通过贝叶斯公式估计散焦参数,并结合粗成像结果对超分辨率重建图像特征的后验概率进行估计。车辆目标单极化SAR数据的超分辨率重建对比结果如图3所示。注意到,该算法属于参数化方法,对数据模型误差较为敏感,且依赖于目标散射系数服从高斯分布的先验假设。
图 3 单极化SAR图像车辆目标超分辨率重建对比结果[37](2) 正则化方法
正则化方法的基本思想是将先验知识结合到图像超分辨率重建过程中,以获得稳定解,即根据单极化雷达图像的先验信息构造合适的约束条件提升雷达图像分辨率性能。文献[40]提出了一种基于
范数的SAR图像超分辨率重建正则化方法,通过引入重建图像能量约束条件,将单极化SAR图像超分辨率重建问题转换为最小化目标函数 J({{\boldsymbol{I}}}) ,为
J(\boldsymbol{I})=\Vert {\boldsymbol{I}}-{{\boldsymbol{I}}} {\Vert }_{2}^{2}+\lambda \Vert {{\boldsymbol{I}} } {\Vert }_{k}^{k} (8) 其中, {{\boldsymbol{I}}} 为原始雷达图像数据, {\hat{\boldsymbol{ I}}} 为超分辨率重建结果, \lambda 为正则化参数,k为系数因子。在此基础上,利用牛顿法进行迭代求解。进一步,为了能够在超分辨率重建过程中,抑制噪声和重建出目标更加丰富的细节信息,文献[56]基于模糊熵的邻域一致性测度构建了一种局部自适应双边全变分(Bilateral Total Variation, BTV)正则项 {\Upsilon _{{\text{BTV}}}}\left( {{\boldsymbol{I}}} \right) ,对重建SAR图像的平滑性进行约束,为
{\Upsilon _{{\text{BTV}}}}\left( {{\boldsymbol{I}}} \right) = \sum\limits_{x = - w}^w {\sum\limits_{y = - w}^w {{\alpha ^{|x| + |y|}}} } \left| {{{\boldsymbol{I}}} - {{\boldsymbol H}}_{\text{a}}^x{{\boldsymbol H}}_{\text{r}}^y{{\boldsymbol{I}}}} \right| (9) 其中, \alpha 为系数因子, w 为平移范围。 {{\boldsymbol H}}_{\text{a}}^x 与 {{\boldsymbol H}}_{\text{r}}^y 分别为方位向与距离向的平移矩阵,表示将雷达图像在方位向和距离向分别平移x像素与y像素。同时,引入了一种梯度逼近项保持超分辨率重建图像的边缘信息。最后,结合最速下降方法对约束条件进行迭代求解。文献[68]提出一种基于图像纹理先验的全变分(Total Variation, TV)的SAR图像目标超分辨率重建正则化方法,能够保持高分辨率和低分辨率SAR图像中的轮廓梯度,并采用Bregman方法[69]进行迭代优化。全变分正则化项 {\Upsilon _{{\text{TV}}}}\left( {{\boldsymbol{I}}} \right) 为
{\Upsilon _{{\text{TV}}}}\left( {{\boldsymbol{I}}} \right) = \sum\limits_{x = - w}^w {\sum\limits_{y = - w}^w {\sqrt {{{\left( {{\nabla _{\text{a}}}{{{\boldsymbol{I}}}_{x,y}}} \right)}^2} + {{\left( {{\nabla _{\text{r}}}{{{\boldsymbol{I}}}_{x,y}}} \right)}^2}} } } (10) 其中, {\nabla _{\text{a}}}{{{\boldsymbol{I}}}_{x,y}} 与 {\nabla _{\text{r}}}{{{\boldsymbol{I}}}_{x,y}} 分别表示雷达图像 {{\boldsymbol{I}}} 在像素位置\left( {x,y} \right)处沿方位向和距离向的梯度。文献[61]将核回归与自适应重要性采样无迹卡尔曼滤波器(Adaptive Importance Sampling Unscented Kalman Filter, AISUKF)框架进行融合,能够同时实现SAR图像相干斑滤波与超分辨率重建,并对三种不同的非线性核:反余弦核、径向基函数核和导向核进行了实验分析。其中,建筑区域的超分辨率重建对比结果如图4所示。正则化方法属于非参数化方法,一般不需要获取场景中散射点个数等参数,但是该类方法性能受到正则化参数求解和约束条件选择的制约,且低信噪比条件下鲁棒性不高。
图 4 单极化SAR图像建筑区域超分辨率重建对比结果[61](3) 稀疏表示方法
对于N \times 1维信号{{\boldsymbol{X}}},可以在字典矩阵或者基矩阵{{\boldsymbol{D}}}下表征为N \times 1维矢量 {{\boldsymbol{\varTheta}} = }{{{\boldsymbol{D}}}^{\text{T}}}{{\boldsymbol{X}}} 。如果满足 {\left\| {{\boldsymbol{\varTheta}} } \right\|_0} < N ,{{\boldsymbol{X}}}可以认为是稀疏信号[44]。其中, {\Vert \cdot\Vert }_{0} 为零范数,表示矢量中非零元素的个数。注意到,零范数 {\Vert \cdot\Vert }_{0} 为非凸函数,求解面临NP(Non-deterministic Polynomial)难题,故一般采用p范数 {\Vert \cdot\Vert }_{p} ,p > 0度量信号的稀疏性。基于稀疏表示的雷达图像超分辨率重建方法假设目标雷达图像的稀疏性进行超分辨率重建。其中,散射中心理论认为雷达图像中目标散射特性可以由少数的散射中心表示。对此,文献[41]结合散射中心理论与SAR成像模型,采用矩阵1范数 {\Vert \cdot\Vert }_{1} 度量图像的稀疏性,并利用非线性最小二乘方法从低分辨率图像中迭代地估计高分辨率图像散射点的成像模型参数,最后基于求解的参数重建得到超分辨率结果。该文使用TerraSAR-X海域单极化SAR数据验证了所提方法的性能。其中,舰船目标的超分辨率重建对比结果如图5所示。
图 5 单极化SAR图像舰船目标超分辨率重建对比结果[41]压缩感知(Compressed Sensing, CS)理论在稀疏表示的基础上,对观测矩阵{{\boldsymbol{A}}}与重建算法进行设计,恢复稀疏信号[70]。基于压缩感知理论,单极化雷达图像超分辨率重建可以表示为
{{\boldsymbol{I}} = {\boldsymbol{A}}\hat {\boldsymbol{I}} + {\boldsymbol{E}}} (11) 其中, {{\boldsymbol{E}}} 为高斯白噪声矩阵。忽略噪声矩阵,结合超分辨率图像 {\hat {\boldsymbol{I}}} 的稀疏表示,可推导为
\qquad\qquad {\hat {\boldsymbol{I}} = {\boldsymbol{D\varTheta}} } (12) {\text{min}}{\left\| {{\boldsymbol{\varTheta}} } \right\|_0}{\text{, s}}{\text{.t}}{\text{. }} {{\boldsymbol{I}} = {\boldsymbol{AD\varTheta}} } (13) 其中,观测矩阵{{\boldsymbol{A}}}的求解是难点。文献[30]在CS框架下,提出一种结合多字典的单极化雷达图像目标超分辨率重建方法,采用两个字典矩阵{{{\boldsymbol{D}}}_1}与{{{\boldsymbol{D}}}_2},并基于梯度的优化方法进行迭代求解,由式(13)可写为
\begin{split} & {\text{min}}{\left\| {{\boldsymbol{\varTheta}} } \right\|_0}{\text{, }} {\text{s}}{\text{.t}}{\text{. }}\left\| { {{F}}\left( {{{\boldsymbol{A}}}{{{\boldsymbol{D}}}_1}{{\boldsymbol{\varTheta}} }} \right) - {{F}}\left( {{\boldsymbol{I}}} \right)} \right\|_2^2 \le {\varepsilon _1} \\ & \qquad\qquad\qquad\; \left\| { {{\boldsymbol{A}}}{{{\boldsymbol{D}}}_2}{{\boldsymbol{\varTheta}} } - {\hat {\boldsymbol{I}}'}} \right\|_2^2 \le {\varepsilon _2} \end{split} (14) 其中, {\varepsilon _1} 与 {\varepsilon _2} 为设定的误差值, {F}(\cdot) 为高通滤波器, {\hat {\boldsymbol{I}}'} 为上一轮迭代优化得到的超分辨率重建结果。最后该文使用TerraSAR-X港口区域单极化SAR数据验证了方法的有效性。
3.3 基于单极化与深度学习的重建方法
近年来,深度学习技术快速发展,并广泛应用于图像处理领域。与基于传统信号处理的图像超分辨率重建方法不同,深度学习算法能够自适应地提取输入数据的特征并通过自学习的方式获得低分辨率图像与高分辨率图像的复杂隐式关系,从而建立两者间的转换模型。
香港中文大学Dong等人[71]率先将深度学习方法用于光学图像超分辨率重建,提出了一种基于卷积神经网络(Super-Resolution Convolutional Neural Network, SRCNN)的方法,实现了低分辨率光学图像到高分辨率光学图像之间的端到端学习,如图6所示。SRCNN是一种典型的基于CNN网络结构的重建方法,为后续基于深度学习的图像超分辨率重建方法奠定了基础。
图 6 SRCNN网络模型结构[71]与光学图像不同,雷达图像具有复值和高动态范围的特点,目标后向散射特性敏感于目标姿态与雷达视线的相对几何关系[72]。需要首先指出,上采样方式和上采样阶段是影响基于深度学习的图像超分辨率重建方法运算效率和性能的关键因素之一[16,17,33,34]。常用的上采样方式包括基于插值的上采样方式和可学习的上采样方法两种。其中,最近邻插值、双线性(Bilinear)插值和双三次线性(Bicubic)插值等是典型的基于插值的上采样方法。它们计算较为简便,运算效率高,并被广泛使用[33]。可学习的上采样方法中部分变量被设置为超参数,能够在网路训练过程中被迭代更新,包含反卷积和亚像素卷积重排等。反卷积也被称为转置卷积,本质是利用卷积处理拓展矩阵空间维度,但其可能给重建结果带来棋盘状纹理。亚像素卷积重排首先对图像进行卷积操作,使得图像特征维度拓展为原来的{r^2}倍。其中,r为上采样倍数。然后对结果进行重新排列,压缩图像特征维度,并拓展图像空间维度为原来的r倍,如图7所示。除此之外,现有方法[16,17]还通过像素坐标和多层感知机模型(Multilayer Perceptron, MLP)对图像特征取值进行映射,拓展图像空间维度。值得注意的是,表3所示部分方法在构建数据集的过程中,使用插值等方法使得低分辨率雷达图像与高分辨率图像保持相同的图像像素尺寸。对此,该类方法在实现时没有添加上采样模块。
表 3 基于深度学习的极化雷达图像超分辨率重建方法研究现状极化模式 网络模型结构 文献 学习方式 损失函数 升采样方式 升采样阶段 单极化 Shallow CNN [42] 监督学习 {L_2}/{L_{{\text{SSIM}}}} Bicubic 前升采 Shallow CNN [73] 监督学习 {L_2} Bicubic 前升采 ResNet [43] 监督学习 {L_2}/{L_{{\text{SSIM}}}} 反卷积 后升采 ResNet [3] 监督学习 {L_2} 反卷积 后升采 ResNet [4] 监督学习 {L_1} 亚像素卷积重排 后升采 ResNet [57] 监督学习 {L_2}/ {L_{{\text{Content}}}} 反卷积 后升采 ResNet [8] 监督学习 {L_1}/{L_{{\text{Edge}}}} Bicubic 后升采 ResNet [58] 监督学习 {L_1} Bicubic 后升采 GAN [74] 监督学习 {L_2}/{L_{{\text{GAN}}}}/ {L_{{\text{Content}}}} / {L_{{\text{Style}}}} – – GAN [75] 监督学习 {L_1}/{L_{{\text{GAN}}}} – – GAN [49] 监督学习 {L_1}/{L_{{\text{GAN}}}}/ {L_{{\text{Content}}}} – – GAN [73] 监督学习 {L_{{\text{GAN}}}}/ {L_{{\text{Content}}}} – – GAN [46] 监督学习 {L_{{\text{GAN}}}}/{L_{{\text{CycleGAN}}}} – – GAN [7] 无监督学习 {L_2}/{L_{{\text{SSIM}}}} – – 双极化 ResNet [52] 监督学习 {L_1}/{L_{{\text{Phy}}}} 反卷积 前升采 隐式神经表征 [17] 半监督学习 {L_2}/{L_{{\text{Self}}}}/{L_{{\text{Penalty}}}}/{L_{{\text{CE}}}} Bilinear 后升采 全极化 ResNet [5,76] 监督学习 {L_2} 反卷积 前升采 ResNet [53] 监督学习 {L_{\text{F}}}/{L_{{\text{Phy}}}} 反卷积 前升采 ResNet [77] 监督学习 {L_{\text{C}}}/{L_{{\text{Edge}}}} 反卷积 前升采 ResNet [15] 监督学习 {L_1} 亚像素卷积重排 后升采 隐式神经表征 [78] 半监督学习 {L_1}/{L_{{\text{Self}}}} Bilinear 后升采 根据上采样模块在网络模型中的位置,可以分为前升采样和后升采样两种。前升采样方式首先使得输入图像与参考图像保持相同的像素大小,使网络训练更加容易,但其计算复杂度和对硬件的内存消耗较高。后升采样是在特征提取之后再拓展图像空间维度,提高图像像素密度,其计算复杂度和对硬件的内存消耗较低。当然,目前基于深度学习的光学图像超分辨率重建方法还使用渐进升采样和迭代升采样等方式,请参考文献[33]。
基于单极化与深度学习的超分辨率重建模型采用不同的网络设计策略及学习策略构建得到,这些方法本质都属于CNN模型。根据网络模型设计策略的不同,可以大致分为以下几类:浅层CNN网络模型(Shallow CNN)、残差网络模型(Residual Network, ResNet)及生成对抗网络模型(Generative Adversarial Network, GAN),表3对其进行了总结和归纳。
(1) 浅层CNN网络模型
SRCNN是一种光学图像处理中典型的基于CNN网络的超分辨率重建方法,其结构简单,由3层卷积层直接堆叠得到[71]。文献[42]对SRCNN方法进行了改进,结合MSE损失函数{L_2}和基于SSIM[60]的损失函数{L_{{\text{SSIM}}}}实现ISAR图像目标超分辨率重建。针对双基地SAR图像超分辨率重建,文献[73]首先使用Bicubic方法进行上采样,再使用包含6层卷积层的双分支网络结构进行特征提取和融合,最后通过1层卷积层映射得到高分辨率SAR图像。
(2) 残差网络模型
随着网络深度的加深,传统CNN网络模型面临训练优化困难等问题。对此,研究人员提出一种基于残差结构的网络模型ResNet[79],通过跨层连接或者短接的方式使网络模型对残差值进行优化,提高了网络模型的收敛性能。文献[3]融合残差卷积神经网络,提出了一种基于局部超分辨重建的SAR图像水域分割方法,对GF-3及Sentinel-1数据进行了超分辨重建和水域边界提取,提升了SAR图像水域分割精度。超分辨率处理前后水域场景SAR图像对比结果如图8所示。
图 8 水域场景SAR图像超分辨率重建结果[3]深度学习中的注意力机制是一种模仿人类视觉和认知系统的方法[80],能够使得深度神经网络自动地学习并选择性地关注输入数据中的重要信息,能够提高模型的性能和泛化能力。文献[4]在残差模型中引入通道注意力模块,对Lee相干斑滤波后的水域SAR图像进行超分辨率重建。针对SAR图像数据复值的特点,文献[43]提出了一种复数CNN网络模型,利用两个网络分支分别提取复数SAR数据的实部与虚部信息。考虑到传统残差单元感受野有限的问题,文献[57]将空洞卷积模块引入残差网络中,提出了一种基于特征复用的膨胀-残差卷积超分辨网络模型(Feature Reuse Dilated-Resnet CNN, FRDR-CNN),将不同层级上具有相同尺度的特征图进行叠加和卷积操作来捕获更多的空间上下文特征。同时引入感知损失 {L_{{\text{Content}}}} ,以减少SAR图像相干斑噪声的干扰。文献[8]指出当SAR图像数据对之间存在较大分辨率差异时,它们之间的区域特征会显著不同。为了统一异源SAR图像数据分辨率,该团队构建了一种平滑边缘引导的超分辨率递归残差学习网络(Smooth Edge-Guide Super-Resolution, SEGSR)。注意到,文中指出SAR图像相干斑噪声会给超分辨率重建带来伪影问题,并且在统一分辨率的过程中,低分辨率图像中的单像素强峰值点往往是不可靠的特征点,会导致重建结果中出现斑块。对此,研究人员设计了一种平滑感知系数,能够根据SAR图像中的噪声水平进行自适应地调整,从而实现对斑块的抑制。最后结合图像边缘损失函数{L_{{\text{Edge}}}}和{L_1}损失函数训练网络模型。{L_{{\text{Edge}}}}的具体表达式请参考文献[8]。进一步,考虑到相干斑噪声对SAR图像超分辨率重建的影响,文献[7]在残差网络中引入SAR图像相干斑噪声统计先验,提出了一种无监督的SAR图像盲超分辨率重建方法。在网络训练过程中,通过组合高斯核函数、高斯加性噪声及Gamma乘性噪声降低输入SAR图像质量,如图9所示。其中,核函数及噪声参数通过残差网络和SAR图像分布进行估计。在此基础上,使用基于矩阵1范数的损失函数{L_1}和基于SSIM的损失函数{L_{{\text{SSIM}}}}训练网络模型。
图 9 SAR图像降质模型[7]多源数据的综合利用能够为基于单极化的极化雷达图像超分辨率重建带来丰富的目标信息。文献[58]基于残差网络模型,提出了一种光学图像辅助的SAR图像超分辨率重建方法(Optical Guidance Residual Network, OGRN),采用特征拼接的方法融合SAR低分辨率图像与光学图像,并结合{L_1}损失函数训练网络模型。OGRN网络结构如图10所示。
图 10 光学图像辅助的OGRN网络结构[58](3) 生成对抗网络模型
生成对抗网络采用生成模型{\text{G}}与判别模型{\text{D}}进行对抗学习,以达到纳什平衡[81,82]。Ledig等人[82]首先提出了结合GAN网络的光学图像超分辨率方法,并基于交叉熵(Cross Entropy)损失函数,构建了训练生成模型与判别模型的对抗损失函数{L_{\text{G}}}与{L_{\text{D}}},为
{L_{\text{G}}} = - \lg {{D}}\left( {{\hat {\boldsymbol{I}}}} \right) (15) {L_{\text{D}}} = - \lg {{D}}\left( {{{{\boldsymbol{I}}}_{{\text{Sampled}}}}} \right) - \lg \left[ {{{1 - {{D}}}}\left( {{\hat {\boldsymbol{I}}}} \right)} \right] (16) 其中, {{{\boldsymbol{I}}}_{{\text{Sampled}}}} 代表参考图像数据集中的随机采样结果。一般而言,损失函数{L_{\text{G}}}与{L_{\text{D}}}是GAN网络训练和学习的基础,后续研究人员对其进行了一系列改进[33,34]。为了方便,该文将形如{L_{\text{G}}}与{L_{\text{D}}}的损失函数统一记为生成对抗损失函数{L_{{\text{GAN}}}}。
对于雷达图像超分辨率重建,文献[75]使用{L_1}损失函数和对抗损失函数{L_{{\text{GAN}}}}训练网络模型,从而引导网络恢复弱散射点。进一步,文献[49]在此基础上增加了感知损失 {L_{{\text{Content}}}} ,使得超分辨率重建图像在全局纹理结构上与参考图像保持一致。具体地,研究人员参考文献[83]将超分辨率重建结果 {\hat {\boldsymbol{I}}} 和参考图像 {{\boldsymbol{I}}} 分别输入预训练好的VGG网络中,并提取网络中间特定卷积层的结果,分别记为 \varPhi \left( {{\hat {\boldsymbol{I}}}} \right) 与 \varPhi \left( {{\boldsymbol{I}}} \right) 。在此基础上,使用矩阵1范数衡量两者差距,为
{L_{{\text{Content}}}} = {\left\| {\varPhi \left( {{\hat {\boldsymbol{I}}}} \right) - \varPhi \left( {{\boldsymbol{I}}} \right)} \right\|_1} (17) 需要指出的是,可以选用不同的预训练网络模型得到 \varPhi \left( {{\hat {\boldsymbol{I}}}} \right) 与 \varPhi \left( {{\boldsymbol{I}}} \right) ,并采用不同的矩阵范数计算 {L_{{\text{Content}}}} 。该文将形如式(17)的感知损失统一记为 {L_{{\text{Content}}}} 。
进一步,考虑到循环生成对抗网络(CycleGAN)对输入样本差异适应性较好,文献[46]从损失函数、优化过程和判别器结构3方面对CycleGAN网络结构进行改进,加快了网络的收敛速度,如图11所示。具体地,研究人员基于矩阵1范数构建了循环一致损失函数{L_{{\text{CycleGAN}}}},并结合对抗损失{L_{{\text{GAN}}}}训练网络模型。{L_{{\text{CycleGAN}}}}的具体计算公式请参考文献[46]。
图 11 CycleGAN网络结构[46]文献[74]认为图像分辨率提升在一定程度上类似于SAR图像风格迁移。对此,该团队针对不同分辨率异源SAR图像数据,提出了一种辩证生成对抗网络模型,生成模型采用U-Net为主干网络,判别模型采用CNN为主干网络。该方法以一种雷达传感器的高分辨率SAR图像为参考样本,将其纹理细节信息迁移学习到另一种雷达传感器的低分辨率SAR图像中。最后,融合纹理损失函数 {L_{{\text{Style}}}} 、感知损失函数 {L_{{\text{Content}}}} , {L_2}损失函数和对抗损失函数{L_{{\text{GAN}}}}训练网络模型。 {L_{{\text{Style}}}} 的计算公式请参考文献[74]。
总结而言,基于单极化与深度学习的超分辨率重建方法大多采用单一传感器的幅度数据或者复数数据进行超分辨率重建,如何利用和融合多源传感器信息值得进一步研究。
4. 多极化联合处理的极化雷达图像目标超分辨率重建进展
不同极化通道具有相关性,如何对其进行挖掘与利用值得考虑。针对多极化通道联合重建方法,现有研究也可以大致分为基于传统信号处理与基于深度学习两类。
4.1 基于传统信号处理的多极化联合重建方法
基于传统信号处理的多极化联合超分辨率重建方法从频谱合成方法发展而来[84]。Pastina等人[85]指出不同极化通道人造物体的后向散射可能差异明显,仅使用单个极化通道可能会丢失目标信息,此外,极化信道的适当联合处理可以提高信噪比,使算法更具有鲁棒性。对此,该文分析了现代谱估计技术在舰船目标极化SAR超分辨率重建中的应用,提出了两种多极化信息联合处理策略,如图12所示。多极化联合重建策略1为分别对多极化通道SAR数据进行超分辨率重建,取归一化化后进行融合;多极化联合重建策略2为首先使用极化白化滤波器(Polarimetric Whitening Filter, PWF)[86]对极化散射矢量 {{k}_{\text{L}}} 进行处理得到单通道数据 {k_{{\text{whiten}}}} ,再利用基于单极化的超分辨率重建方法进行处理。以全极化雷达数据为例,有
图 12 极化雷达图像目标超分辨率重建中的多极化联合策略[85]{k_{{\text{whiten}}}} = {{\boldsymbol{k}}}_{\text{L}}^{\text{H}}{{\boldsymbol{C}}}_{{\text{Quad}}}^{ - 1}{{\boldsymbol{k}}}_{\text{L}}^{} (18) 注意到,经过PWF处理后, {{\boldsymbol{k}}_{{\text{whiten}}}} 为实数。对此,该文使用极化散射矢量 {{{\boldsymbol{k}}}_{\text{L}}} 中第i个元素的相位 {\text{Arg}}\left( {{{\boldsymbol{k}}}_{\text{L}}^i} \right) 与 {{\boldsymbol{k}}_{{\text{whiten}}}} 进行组合,得到融合后的复数变量 {k_{{\text{fuse}}}} ,为
{k_{{\text{fuse}}}} = \sqrt {{k_{{\text{whiten}}}}} \exp \left[ {{\text{jArg}}\left( {{{\boldsymbol{k}}}_{\text{L}}^i} \right)} \right] (19) Chen等人[87]基于乘性噪声的前提假设,利用凸集上投影方法(Projections onto Convex Sets, POCS)[88]对舰船目标全极化SAR图像进行超分辨率重建。该方法假设超分辨率解空间中的解有l个限制条件,并将每个限制条件定义为向量空间中的凸集{\varOmega }。超分辨率重建问题的解空间为这些凸集的交空间,即有{\hat {\boldsymbol{I}}} \in \cap _{i = 1}^l{{{\boldsymbol{\varOmega}} }_l},并通过迭代地方式进行求解。特别地,{{\boldsymbol{\varOmega}} }的初始值为每个极化通道幅度特征的集合,为{{{\boldsymbol{\varOmega}} }_{{\text{Initial}}}} = \left\{ {\left| {{S_{{\text{HH}}}}} \right|,\left| {{S_{{\text{HV}}}}} \right|,\left| {{S_{{\text{VV}}}}} \right|} \right\}。
极化目标分解是极化雷达目标散射机理解译的主流工具,能够从多极化通道的相关性中提取表征雷达目标散射特性的参数。文献[84]考虑了极化目标分解结果与全极化SAR图像空域特性的相关性。以图13所示标号为5的像素单元为例,假设低分辨率像素单元{{{A}}_5}中的第i个极化散射分量{{\boldsymbol{\kappa}} _i}为对应高分辨率像素单元{{A}}_5^j第i个极化散射分量\hat {\boldsymbol{\kappa}} _i^j的和,即
图 13 低分辨率与高分辨率SAR图像像素单元示意图[84]{{\boldsymbol{\kappa}} _i} = \hat {\boldsymbol{\kappa}} _i^1 + \hat {\boldsymbol{\kappa}} _i^2 + \hat {\boldsymbol{\kappa}} _i^3 + \hat {\boldsymbol{\kappa}} _i^4 (20) 在此基础上,考虑高分辨率SAR图像像素单元中每个像素极化散射分量\hat {\boldsymbol{\kappa}} _i^j与其3 \times 3邻域内每个像素极化散射分量的差值R_5^j,超分辨率重建问题即等价于在式(20)的约束下,最小化目标函数R_5^j。
4.2 基于深度学习的多极化联合重建方法
根据网络模型结构的不同,基于深度学习的多极化联合超分辨率重建方法可以大致分为基于残差网络模型和基于隐式神经表征两类,表3对其进行了总结和归纳。
(1) 基于残差网络模型的多极化联合重建方法
武汉大学研究团队认为全极化SAR数据不同通道的特性不同,有必要对全极化SAR数据进行重组,并分别进行特征提取[5,76]。对此,研究人员提出一种基于残差网络的全极化SAR超分辨率重建方法(Residual Convolutional Neural Network for Polarimetric SAR Image Super Resolution, PSSR)[5]。如图14所示,该团队研究人员构建了一种复数卷积模块,将矢量化后极化相干矩阵中的元素进行配对,即将同一复数元素的实部和虚部作为一组进行卷积处理,提取浅层特征。然后使用残差网络结构提取深层特征实现全极化SAR图像超分辨率重建。
图 14 复数卷积模块[5]考虑到不同极化模式数据间的信息互补,文献[53]提出一种融合低分辨全极化SAR数据和高分辨单极化SAR数据的深度神经网络模型(PolSAR Images and Single SAR Images Fusion Network, PSFN)。该文构建了一种由两层CNN组成的空域注意力模块,挖掘不同极化SAR数据中的纹理信息,并提出了一种极化损失函数{L_{{\text{Phy}}}},用于衡量网络输出结果特定极化通道与参考的单极化高分辨率图像间的重建精度。最后,结合Frobenius范数损失函数{L_{\text{F}}}与极化损失函数{L_{{\text{Phy}}}}训练网络模型。{L_{{\text{Phy}}}}的详细表达式请参考文献[53]。从极化目标分解的角度,该团队[52]还提出一种融合低分辨率极化SAR图像和高分辨率双极化SAR图像的超分辨率重建方法。在该框架下利用低分辨全极化SAR图像极化目标分解结果对双极化SAR图像特征图进行加权。最后,该文利用Radarsat-2星载SAR系统标准及精细模式下的实测数据验证了所提方法的有效性,不同方法的对比结果如图15所示,并使用H/\bar \alpha / A 极化目标分解结果验证了网络模型对于极化信息的保持能力。
图 15 港口区域全极化SAR图像超分辨率重建结果对比[53]除了文献[53]使用的空域注意力机制,文献[77]在残差网络中融入了多尺度注意力机制,并结合Charbonnier损失函数{L_{\text{C}}}与边缘损失函数{L_{{\text{Edge}}}}训练网络模型。作者团队[15]针对全极化ISAR数据多通道及复值数据的特点,提出了一种分组残差注意力网络模型(Group Residual Attention Network, GRAN)。在互易性条件下,考虑了极化相干矩阵中的9个元素,首先对其进行分组处理,并使用非局部上下文注意力单元[89]进行浅层特征提取。
(2) 基于隐式神经表征的多极化联合重建方法
真实世界中的图像信号具有连续性,但是考虑到数字信号处理的需要,需要对其进行离散化处理。隐式神经表征[78]指的是通过坐标信息{{\boldsymbol{\chi}} }和隐变量{{\boldsymbol{z}}}表征图像信息{{\boldsymbol{h}}},记作隐函数{f_{\boldsymbol{\varTheta}} },为
{{\boldsymbol{h}}} = {f_{\boldsymbol{\varTheta}} }\left( {{{\boldsymbol{z}}},{{\boldsymbol{\chi}} }} \right) (21) 注意到,坐标{{\boldsymbol{\chi}} }是连续的,对此{f_{\boldsymbol{\varTheta}} }能够对图像信息进行连续表征。
现有基于深度学习的多极化联合重建方法大多采用监督学习的方式,对低分辨率极化雷达图像中的纹理等信息挖掘能力有限。对此,作者团队基于隐式神经表征方法[78],提出了一种极化ISAR图像半监督隐式神经表征方法(Semi-Supervised Implicit Neural Representation, SSINR),能够利用坐标信息将全极化ISAR图像建模为一个连续函数{f_{\boldsymbol{\varTheta}} },并使用多层感知机模型拟合函数{f_{\boldsymbol{\varTheta}} }。图16所示为SSINR算法流程图。在此基础上,该文构建了一种新的坐标调制模块,融合了像素坐标信息与神经网络提取的深度特征。除了采用{L_1}损失函数减小重建结果与参考高分辨率图像间的重建误差,SSINR算法能够利用隐式表征方法实现低分辨率全极化ISAR图像无监督学习,并在自监督损失函数 {L_{{\text{Self}}}} 的约束下更好地挖掘低分辨率图像中蕴含的纹理等信息。 {L_{{\text{Self}}}} 的具体表达式请参考文献[78]。进一步,该网络结构能够通过一次训练实现多倍数全极化ISAR图像超分辨率重建。对此,作者团队利用预训练的SSINR模型对全极化ISAR图像1倍与1.5倍超分辨率重建进行了研究和讨论。
上述基于深度学习的多极化联合重建方法仅使用图像信息进行超分辨率重建,缺乏对不同超分辨率重建场景的自适应感知能力。对此,作者团队[17]通过融合场景语义信息,提出了一种简缩极化ISAR图像非局部场景感知超分辨率重建方法(Non-Local Scene Awareness Network, NLSAN)。通过超分辨率重建与场景感知两个网络分支,联合了图像极化域、空域和语义信息,能够自适应区分背景和目标区域,并针对性地进行超分辨率重建。在此基础上,该文结合提取的语义信息提出了一种场景感知下的惩罚损失函数{L_{{\text{Penalty}}}},能够自适应地抑制背景中的伪影。此外,NLSAN方法从插值模型出发,结合隐式神经表征,构建了一种非局部上采样模块,能够充分挖掘简缩极化ISAR全局纹理和极化信息。损失函数方面,NLSAN使用{L_2}损失函数进行监督训练,使用 {L_{{\text{Self}}}} 实现自监督学习,并融合了{L_{{\text{Penalty}}}}损失函数与交叉熵损失函数{L_{{\text{CE}}}}训练网络模型。进一步,作者团队从超分辨率重建结果中分别选取了目标主体区域(roi-target)、目标边缘区域(roi-edge)及背景区域(roi-background)开展研究,如图17所示。考虑到隐式特征的高维特点,研究人员使用t-SNE方法[90]进行特征降维,并对两个网络分支分别提取的超分辨率隐式特征和语义隐式特征间的区别和联系进行了研究与讨论。可视化结果如图18所示,图18(a)-图18(c)选取自不同视角下的空间目标超分辨率重建结果。
图 17 空间目标简缩极化ISAR图像NLSAN方法超分辨率重建结果中感兴趣区域选取[17]图 18 不同类型感兴趣区域超分辨率与语义隐式特征可视化[17]值得注意的是,特征平面中不同区域超分辨率隐式特征呈现团状分布,而语义隐式特征差异明显,呈现条带状分布,能够较好地区别不同场景。另外,超分辨率隐式特征与语义隐式特征间没有重叠,代表神经网络从不同维度进行了信息提取,与主观理解保持一致。但是,由于深度神经网络的黑盒特性,对其分布规律的理解需要进一步研究。
值得注意的是,特征平面中不同区域超分辨率隐式特征呈现团状分布,而语义隐式特征差异明显,呈现条带状分布,能够较好地区别不同场景。另外,超分辨率隐式特征与语义隐式特征间没有重叠,代表神经网络从不同维度进行了信息提取,与主观理解保持一致。但是,由于深度神经网络的黑盒特性,对其分布规律的理解需要进一步研究。
综上,综合利用不同极化通道信息能够实现超分辨率重建。现有基于深度学习的多极化联合超分辨率重建研究主要针对全极化模式,全极化目标分解方法也较为成熟,能够为重建过程中物理机制的解译与约束条件的设计提供指导。然而,与单极化模式相同,双极化模式中仍然面临极化信息缺失的问题,如何有效利用双通道的极化信息进行超分辨率重建需要进一步研究。
5. 极化雷达图像目标超分辨率重建应用
雷达图像超分辨率重建可以看作一种预处理方式。表1和表2详细归纳了现有极化雷达图像超分辨率重建工作中采用的定量评价指标,然而其性能优劣仍需要结合后续应用进行研究和分析。本节将介绍极化雷达图像目标超分辨率重建数据集的构建及其在实际任务中的应用效果。
5.1 极化雷达图像目标超分辨率重建数据集构建
受限于极化雷达图像实测数据的数量和获取成本,现有研究工作主要通过电磁仿真方式构建数据集,并集中于单极化SAR领域。研究对象包括典型散射结构[55]、自然地物[4]、舰船[30]、车辆[37]、飞机[44]和卫星[16]等。其中,典型散射结构包括球、圆柱、二面角和三面角等。
极化雷达图像目标超分辨率重建方法往往需要高分辨率极化雷达图像进行定量评估。特别地,基于监督学习的深度学习需要首先构建低分辨率-高分辨率极化雷达图像数据对,并以低分辨率极化雷达图像为输入,高分辨率极化雷达图像为学习目标更新和迭代网络模型参数。现有的图像数据对构建方式主要有4种:(1)下采样方法[3,8,57,58,61],即使用Bicubic等线性插值方法对高分辨率极化雷达图像进行下采样得到低分辨率极化雷达图像;(2)采用不同成像参数进行成像处理[15–17,46],即采用不同带宽和相干积累角的极化雷达回波数据进行成像处理得到图像对;(3)点扩散函数方法[5,7,37],即采用点扩散函数降低图像质量[37]或者提升图像质量[49],获得图像对;(4)基于深度学习的方法[5,7],即设计基于深度学习的图像质量退化网络,对高分辨率极化雷达图像进行处理获取图像数据对。
5.2 极化雷达图像超分辨率重建应用
现有研究主要将极化雷达图像超分辨率重建作为一种图像预处理方式,在提升雷达图像分辨率的基础上,结合后续算法实现目标高精度分割、分类和跟踪等。
(1) 水域分割应用
传统SAR图像水域分割方法一般在图像像素级尺度上开展,但分割精度受到SAR分辨率的限制。对此,文献[3]融合残差卷积神经网络,提出了一种基于局部超分辨率重建的SAR图像水域分割方法,对GF-3及Sentinel-1数据进行超分辨重建。在此基础上,结合主动轮廓模型(Active Contour Mode, ACM)边缘提取算法得到水域边缘轮廓信息。算法示意图如图19所示,丹江口水库SAR图像超分辨率重建前后的对比结果如图8所示,水域分割对比结果如图20所示。
图 19 基于局部超分辨重建的SAR图像高精度水域分割方法[3]图 20 丹江口水库SAR图像水域分割对比结果[3]。实验结果表明超分辨重建技术的融入提升了SAR图像分辨率和水域分割精度。其中,分割结果中目标虚警率小于0.04%,准确率大于99%。进一步,文献[4]引入通道注意力模块,对Lee相干斑滤波后的水域SAR图像进行超分辨率重建,并结合ACM算法提取水域轮廓。该文对多庆错湖区域SAR图像进行水域分割,如图21所示。实验结果表明在融入了超分辨重建技术和注意力机制后,该文方法提取结果与真值更为接近。
图 21 多庆错湖区域SAR图像水域分割对比结果[4]。(2) 自然地物分类应用
相比于单极化SAR,全极化SAR在获得目标丰富的极化信息的同时,空间分辨率往往较低。文献[5]在使用深度卷积神经网络进行超分辨率重建的基础上,结合支持向量机方法开展了全极化SAR地物分类研究。实验结果表明对于选取的AIRSAR Flevoland区域全极化SAR地物分类数据集,使用超分辨率重建处理后,对15类地物的平均分类精度提升1.32%,Kappa指标提升0.02,不同方法的对比结果如图22所示。
图 22 Flevoland区域全极化SAR地物分类结果对比[5](3) 人造目标分类应用
文献[6]提出了一种结合超分辨率重建网络和深度学习分类网络的SAR图像目标识别方法,算法示意图如图23所示。该文首先通过基于GAN的超
图 23 结合超分辨率重建网络和深度学习分类网络的SAR图像目标识别方法[6]分辨率重建网络提高SAR图像目标纹理的辨识程度,然后使用基于VGG的分类网络对MSTAR数据集中的车辆目标进行分类识别。在标准工作条件和扩展工作条件下,所提方法识别精度都优于98%。同时,使用超分辨率处理前后分类网络训练过程中的分类精度变化情况如图24(a)所示。该文指出采用超分辨率处理后,分类网络的训练收敛速度更快,这也一定程度地说明超分辨率增强后,车辆目标SAR图像特征较增强前更容易提取和学习。文献[7]利用所提无监督SAR图像深度学习超分辨率重建方法对MSAR数据集进行预处理,并结合YOLOV5网络模型,实现对舰船、桥梁和油箱等SAR图像人造目标的分类识别,实验结果中mAP指标提升0.15。另一方面,使用超分辨率处理前后分类网络训练过程中的mAP指标变化情况如图24(b)所示。可以观察到,红色曲线所示结合超分辨率处理的方法收敛速度更快。
(4) 海冰漂移跟踪
短时间间隔的SAR图像序列有利于提高海冰漂移跟踪精度,使用异源SAR图像又能够相对容易地构造具有短时间间隔的SAR图像对。然而,异源SAR图像面临空间分辨率差异带来的特征匹配问题,并制约异源SAR海冰漂移跟踪的精度[8]。文献[8]利用所提平滑边缘引导的超分辨率递归残差学习网络模型统一异源SAR图像数据分辨率。在此基础上,结合SIFT算法进行特征提取和特征点匹配,从而获取海冰漂移参数,算法流程图如图25所示。从特征点提取的角度,该文指出使用超分辨率重建统一异源图像数据分辨率后,特征点提取的准确率至少提高了20.6%,召回率至少提高了28.85%。进一步,使用超分辨率处理后,如图26所示,海冰漂移速度场的反演结果与参考真值更为接近,且小的海冰漂移能够得到检测。
图 25 结合超分辨率重建模型的海冰漂移跟踪模型[8]图 26 海冰漂移速度场对比结果[8]6. 极化雷达图像目标超分辨率重建研究展望
相比于光学图像,极化雷达图像具有稀疏性、高动态范围以及复值数据的特点,目标散射机理也更为复杂。极化雷达系统硬件水平制约极化雷达图像分辨率的提升,而极化雷达图像分辨率影响图像质量和目标细节呈现能力。面向极化雷达图像目标检测和识别等应用对于高分辨率图像的需求,以下问题仍需展开深入研究:
(1) 极化雷达图像超分辨率重建评价指标问题
现有研究工作缺乏统一的评价指标和评价流程。超分辨率重建的性能不仅涉及算法对分辨率瑞利极限的突破程度,同时与重建图像质量相关。需要指出的是,图像质量评估一直是一个开放性问题。但是,可以综合考虑图像全局和局部的重建情况,从多个维度对重建结果进行评估。特别地,对于多极化雷达图像,现有方法大多对极化相干矩阵中的三个实分量进行评估,忽略了其他元素,且对超分辨率重建后目标极化特性的保持关注较少。
(2) 极化雷达图像超分辨率重建数据集构建问题
现有研究工作主要基于电磁仿真数据开展研究,缺少标准的实测数据集。此外,相较于光学图像,极化雷达图像训练样本数量和种类相对较少,如何获取和构建大规模极化雷达图像目标超分辨率重建数据集面临挑战。
(3) 高维特征提取和有效利用
单极化雷达图像能够提取的特征有限,且现有研究工作主要集中于单帧雷达图像超分辨率重建。从空域角度拓展目标信息,发展极化雷达序列图像超分辨率重建值得考虑。作为电磁波的重要维度之一,极化信息的增加能够带来目标丰富的信息。然而,目标电磁散射响应受到目标姿态、取向等的影响,这种目标散射多样性制约极化信息的有效利用。值得注意的是,目标散射多样性中也蕴含目标丰富的信息。如何将目标散射多样性中挖掘的信息用于极化雷达图像目标超分辨率重建需要进一步研究。
(4) 机理与深度学习方法的有机结合
深度学习方法能够自适应地进行特征提取并从大数据中挖掘图像中复杂的隐式规律。然而,深度学习方法的可解释性较差,雷达领域先验知识的利用也较为有限。发展机理与模型双驱动的极化雷达图像目标超分辨率重建方法有望提高模型超分辨率重建性能,增强模型可解释性。
-
图 3 单极化SAR图像车辆目标超分辨率重建对比结果[37]
图 4 单极化SAR图像建筑区域超分辨率重建对比结果[61]
图 5 单极化SAR图像舰船目标超分辨率重建对比结果[41]
图 6 SRCNN网络模型结构[71]
图 8 水域场景SAR图像超分辨率重建结果[3]
图 9 SAR图像降质模型[7]
图 10 光学图像辅助的OGRN网络结构[58]
图 11 CycleGAN网络结构[46]
图 12 极化雷达图像目标超分辨率重建中的多极化联合策略[85]
图 13 低分辨率与高分辨率SAR图像像素单元示意图[84]
图 14 复数卷积模块[5]
图 15 港口区域全极化SAR图像超分辨率重建结果对比[53]
图 17 空间目标简缩极化ISAR图像NLSAN方法超分辨率重建结果中感兴趣区域选取[17]
图 18 不同类型感兴趣区域超分辨率与语义隐式特征可视化[17]
图 19 基于局部超分辨重建的SAR图像高精度水域分割方法[3]
图 20 丹江口水库SAR图像水域分割对比结果[3]。
图 21 多庆错湖区域SAR图像水域分割对比结果[4]。
图 22 Flevoland区域全极化SAR地物分类结果对比[5]
图 23 结合超分辨率重建网络和深度学习分类网络的SAR图像目标识别方法[6]
图 25 结合超分辨率重建模型的海冰漂移跟踪模型[8]
图 26 海冰漂移速度场对比结果[8]
表 1 基于点目标的极化雷达图像目标超分辨率重建定量评价指标
评价指标 是否需要参考图像 含义 计算公式 变量与符号说明 距离向3 dB主瓣宽度[17,39–43] 否 距离向瑞利极限值 {\delta _{\text{r}}} = \left\{ {y\left| {{{{\hat {\boldsymbol{I}}}}_{\max }} \ge {\hat {\boldsymbol{I}}}\left( y \right) \ge 0.707{{{\hat {\boldsymbol{I}}}}_{\max }}} \right.} \right\} {\hat {\boldsymbol{I}}}为超分辨率重建图像幅度特征图, {{\hat {\boldsymbol{I}}}_{\max }} 为主瓣峰值,y为距离向坐标 方位向3 dB主瓣宽度[17,39–43] 否 方位向瑞利极限值 {\delta _{\text{a}}} = \left\{ {x\left| {{{{\hat {\boldsymbol{I}}}}_{\max }} \ge {\hat {\boldsymbol{I}}}\left( x \right) \ge 0.707{{{\hat {\boldsymbol{I}}}}_{\max }}} \right.} \right\} x为方位向坐标 峰值旁瓣比(Peak Side Lobe Ratio, PSLR)[42–44] 否 第一旁瓣与主瓣峰值的比值,能够表征弱目标被强目标旁瓣压制的程度 {\text{PSLR}} = 20\lg \left( {{{{{{\hat {\boldsymbol{I}}}}_{{\text{SideLobe}}}}} \mathord{\left/ {\vphantom {{{{{\hat I}}_{{\text{SideLobe}}}}} {{{{\hat I}}_{\max }}}}} \right. } {{{{\hat {\boldsymbol{I}}}}_{\max }}}}} \right) {{\hat {\boldsymbol{I}}}_{{\text{SideLobe}}}} 为第一旁瓣峰值 积分旁瓣比(Integrate Side Lobe Ratio, ISLR) [42] 否 旁瓣能量与主瓣能量的比值,能够表征对旁瓣的抑制能力 {\text{ISLR}} = 20\lg \left( {{{{E_{{\text{SideLobe}}}}} \mathord{\left/ {\vphantom {{{E_{{\text{SideLobe}}}}} {{E_{{\text{MainLobe}}}}}}} \right. } {{E_{{\text{MainLobe}}}}}}} \right) {E_{{\text{SideLobe}}}} 为旁瓣总能量, {E_{{\text{MainLobe}}}} 为主瓣总能量 距离向分辨率增强指数(Intersection Amplitude Value, IAV)[45] 是 参考图像与超分辨率重建图像中两个不完全孤立的点目标距离向回波幅值交叉点取值的差 {\text{IA}}{{\text{V}}_{\text{r}}}{\text{ = IAV}}_{\text{r}}^{{\text{hr}}} - {\text{IAV}}_{\text{r}}^{{\text{sr}}} {\text{IAV}}_{\text{r}}^{{\text{hr}}} 和 {\text{IAV}}_{\text{r}}^{{\text{sr}}} 分别为参考图像与超分辨率重建图像中两个不完全孤立的点目标距离向回波幅值交叉点取值 方位向分辨率增强指数(Intersection Amplitude Value, IAV)[45] 是 参考图像与超分辨率重建图像中两个不完全孤立的点目标方位向回波幅值交叉点取值的差 {\text{IA}}{{\text{V}}_{\text{a}}}{\text{ = IAV}}_{\text{a}}^{{\text{hr}}} - {\text{IAV}}_{\text{a}}^{{\text{sr}}} {\text{IAV}}_{\text{a}}^{{\text{hr}}} 和 {\text{IAV}}_{\text{a}}^{{\text{sr}}} 分别为参考图像与超分辨率重建图像中两个不完全孤立的点目标方位向回波幅值交叉点取值 峰值点匹配准确率[46] 是 重建后强散射点位置保持
精度– – 表 2 基于面目标的极化雷达图像目标超分辨率重建定量评价指标
评价指标 是否需要参考图像 含义 计算公式 变量与符号说明 图像熵[44,47–51] 否 图像平均信息量 {\text{Entropy}} = - \sum\limits_{y = 1}^H {\sum\limits_{x = 1}^W {\frac{{{{\left| {{\hat {\boldsymbol{I}}}\left( {x,y} \right)} \right|}^2}}}{Q} {{\lg }}\frac{{{{\left| {{\hat {\boldsymbol{I}}}\left( {x,y} \right)} \right|}^2}}}{Q}} } Q 为超分辨率重建图像总能量。H与W分别为图像距离向与方位向的
像素数图像对比度(Image Contrast, IC)[42,48] 否 超分辨率重建图像强度标准差与方差
的比值{\text{IC}} = {{{\text{std}}\left( {{{{\hat {\boldsymbol{I}}}}^2}} \right)} \mathord{\left/ {\vphantom {{{\text{std}}\left( {{{{\hat I}}^2}} \right)} {{\text{mean}}\left( {{{{\hat I}}^2}} \right)}}} \right. } {{\text{mean}}\left( {{{{\hat {\boldsymbol{I}}}}^2}} \right)}} {\text{std}}\left( \cdot \right) 为数据标准差, {\text{mean}}\left( \cdot \right) 为数据均值 图像信噪比(Signal-to-noise Ratio, SNR)[48] 否 超分辨率重建图像目标区域强度与背景区域强度的比值 {\text{SNR}} = 20\lg \left[ {\dfrac{{{\text{mean}}\left( {{\hat {\boldsymbol{I}}}_{{\text{target}}}^2} \right)}}{{{\text{mean}}\left( {{\hat {\boldsymbol{I}}}_{{\text{background}}}^2} \right)}}} \right] {\hat {\boldsymbol{I}}}_{{\text{target}}}^2 为目标区域图像强度, {\hat {\boldsymbol{I}}}_{{\text{background}}}^2 为背景区域图像强度 平均绝对误差(Mean Absolute Error, MAE)[5,43,52,53] 是 超分辨率重建图像与参考图像幅度值之间绝对误差的平均值 {\text{MAE}} = {\left\| {{\hat {\boldsymbol{I}}} - {{\boldsymbol{I}}}} \right\|_1} {{\boldsymbol{I}}} 为参考图像幅度特征图,{\left\| \cdot \right\|_1}为矩阵1范数 均方误差(Mean Square Error, MSE)[44] 是 超分辨率重建图像与参考图像幅度值之间差值平方的平均值 {\text{MSE}} = \left\| {{\hat {\boldsymbol{I}}} - {{\boldsymbol{I}}}} \right\|_2^2 {\left\| \cdot \right\|_2}为矩阵2范数 均方根误差(Root Mean Square Error, RMSE)[30,43,54] 是 均方误差的算数
平方根{\text{RMSE}} = {\left\| {{\hat {\boldsymbol{I}}} - {{\boldsymbol{I}}}} \right\|_2} – 平均归一化均方根误差(Average Normalized Root Mean Square Error, NRMSE)[55] 是 归一化的均方根误差 {\text{NRMSE}} = \dfrac{{{{\left\| {{\hat {\boldsymbol{I}}} - {{\boldsymbol{I}}}} \right\|}_2}}}{{{{\left\| {{\hat {\boldsymbol{I}}}} \right\|}_2}{{\left\| {{\boldsymbol{I}}} \right\|}_2}}} – 峰值信噪比(Peak Signal-to-Noise Ratio, PSNR)[3–5,8,43,44,46,49,51–53,56–59] 是 超分辨率重建图像最大强度与均方误差强度的比值 {\text{PSNR = 10lg}}\dfrac{{{{\boldsymbol{I}}}_{\max }^2}}{{{\text{MSE}}}} – 结构相似度(Structural Similarity, SSIM)[4,8,43,46,49,57–59] 是 超分辨率重建图像与参考图像结构
相似程度{\text{SSIM = }}L\left( {{\hat {\boldsymbol{I}}}{\text{,}}{{\boldsymbol{I}}}} \right){{C}}\left( {{\hat {\boldsymbol{I}}}{\text{,}}{{\boldsymbol{I}}}} \right){{S}}\left( {{\hat {\boldsymbol{I}}}{\text{,}}{{\boldsymbol{I}}}} \right) {{L}}\left( \cdot \right) 为亮度相似程度, {{C}}\left( \cdot \right) 为对比度相似程度, {{S}}\left( \cdot \right) 为结构相似
程度[60]特征相似性指标(Feature Similarity Index Metric, FSIM)[61,62] 是 超分辨率重建图像与参考图像特征相似程度,取值越接近1,相似性越高 \begin{gathered} {\text{FSIM}} = \\ \frac{{\displaystyle\sum\limits_{y = 1}^H {\displaystyle\sum\limits_{x = 1}^W {{\text{S}}'\left[ {{\hat {\boldsymbol{I}}}\left( {x,y} \right){\text{,}}{{\boldsymbol{I}}}\left( {x,y} \right)} \right]{\text{P}}{{\text{C}}_{\text{m}}}\left[ {{\hat {\boldsymbol{I}}}\left( {x,y} \right){\text{,}}{{\boldsymbol{I}}}\left( {x,y} \right)} \right]} } }}{{\displaystyle\sum\limits_{y = 1}^H {\displaystyle\sum\limits_{x = 1}^W {{\text{P}}{{\text{C}}_{\text{m}}}\left[ {{\hat {\boldsymbol{I}}}\left( {x,y} \right){\text{,}}{{\boldsymbol{I}}}\left( {x,y} \right)} \right]} } }} \\ \end{gathered} {\text{S}}'\left( \cdot \right) 为超分辨率重建图像与参考图像的局部相似性, {\text{P}}{{\text{C}}_{\text{m}}}\left( \cdot \right) 为对应的最大相位一致性[63] 皮尔逊相关系数[8] 是 参考图像与超分辨率重建图像协方差与标注差的比值 {\text{P = }}\frac{{\displaystyle\sum\limits_{y = 1}^H {\displaystyle\sum\limits_{x = 1}^W {\left[ {{\hat {\boldsymbol{I}}}\left( {x,y} \right) - {\text{mean}}\left( {{\boldsymbol{I}}} \right)} \right]} } \left[ {{\hat {\boldsymbol{I}}}\left( {x,y} \right) - {\text{mean}}\left( {{\hat {\boldsymbol{I}}}} \right)} \right]}}{{{{\left\| {{\hat {\boldsymbol{I}}}} \right\|}_2}{{\left\| {{\boldsymbol{I}}} \right\|}_2}}} – 边缘保持指数(Edge Preservation Index, EPI)[62] 是 针对乘性噪声的图像距离向边缘保持度量 \begin{gathered} {\text{EPI = }} \\ \frac{{\displaystyle\sum\limits_{y = 1}^H {\displaystyle\sum\limits_{x = 1}^W {\left[ {\Delta {\hat {\boldsymbol{I}}}\left( {x,y} \right) - {\text{mean}}\left( {\Delta {\hat {\boldsymbol{I}}}} \right)} \right]\left[ {\Delta {{\boldsymbol{I}}}\left( {x,y} \right) - {\text{mean}}\left( {\Delta {{\boldsymbol{I}}}} \right)} \right]} } }}{{{{\left\| {\Delta {\hat {\boldsymbol{I}}} - {\text{mean}}\left( {\Delta {\hat I}} \right)} \right\|}_2}{{\left\| {\Delta {{\boldsymbol{I}}} - {\text{mean}}\left( {\Delta {{\boldsymbol{I}}}} \right)} \right\|}_2}}} \\ \end{gathered} \Delta {\hat {\boldsymbol{I}}} 为超分辨率重建图像的边缘滤波特征图, \Delta {{\boldsymbol{I}}} 为参考图像的边缘滤波特征图[64] 距离向边缘保持度量指标(Edge Preservation Index-ROA, EPI-ROA)[57] 是 针对乘性噪声的图像距离向边缘保持度量 {\text{EPI - RO}}{{\text{A}}_{\text{r}}}{\text{ = }}\frac{{\displaystyle\sum\limits_{y = 1}^H {\displaystyle\sum\limits_{x = 1}^W {\left[ {{{{\hat {\boldsymbol{I}}}\left( {x,y + 1} \right)}/ {{\hat {\boldsymbol{I}}}\left( {x,y} \right)}}} \right]} } }}{{\displaystyle\sum\limits_{y = 1}^H {\sum\limits_{x = 1}^W {\left[ {{{{{\boldsymbol{I}}}\left( {x,y + 1} \right)} \mathord{\left/ {\vphantom {{{I}\left( {x,y + 1} \right)} {{I}\left( {x,y} \right)}}} \right. } {{{\boldsymbol{I}}}\left( {x,y} \right)}}} \right]} } }} – 方位向边缘保持度量指标(Edge Preservation Index-ROA, EPI-ROA)[57] 是 针对乘性噪声的图像方位向边缘保持度量 {\text{EPI - RO}}{{\text{A}}_{\text{a}}}{\text{ = }}\frac{{\displaystyle\sum\limits_{y = 1}^H {\displaystyle\sum\limits_{x = 1}^W {\left[ {{{{\hat {\boldsymbol{I}}}\left( {x + 1,y} \right)} \mathord{\left/ {\vphantom {{{\hat I}\left( {x + 1,y} \right)} {{\hat I}\left( {x,y} \right)}}} \right. } {{\hat {\boldsymbol{I}}}\left( {x,y} \right)}}} \right]} } }}{{\displaystyle\sum\limits_{y = 1}^H {\displaystyle\sum\limits_{x = 1}^W {\left[ {{{{{\boldsymbol{I}}}\left( {x + 1,y} \right)} \mathord{\left/ {\vphantom {{{{\boldsymbol{I}}}\left( {x + 1,y} \right)} {{{\boldsymbol{I}}}\left( {x,y} \right)}}} \right. } {{{\boldsymbol{I}}}\left( {x,y} \right)}}} \right]} } }} – Pauli相似性指标[16] 是 全极化雷达图像Pauli矢量重建精度 {{R}} = \dfrac{{{{\left\| {{{\boldsymbol{k}}}_{{\text{sr}}}^{}{{\boldsymbol{k}}}_{{\text{hr}}}^{\text{H}}} \right\|}_1}}}{{{{\left\| {{{\boldsymbol{k}}}_{{\text{sr}}}^{}} \right\|}_1}{{\left\| {{{\boldsymbol{k}}}_{{\text{hr}}}^{}} \right\|}_1}}} {{\boldsymbol{k}}}_{{\text{sr}}}^{}为超分辨率重建图像Pauli矢量,{{\boldsymbol{k}}}_{{\text{hr}}}^{}为参考图像Pauli矢量 表 3 基于深度学习的极化雷达图像超分辨率重建方法研究现状
极化模式 网络模型结构 文献 学习方式 损失函数 升采样方式 升采样阶段 单极化 Shallow CNN [42] 监督学习 {L_2}/{L_{{\text{SSIM}}}} Bicubic 前升采 Shallow CNN [73] 监督学习 {L_2} Bicubic 前升采 ResNet [43] 监督学习 {L_2}/{L_{{\text{SSIM}}}} 反卷积 后升采 ResNet [3] 监督学习 {L_2} 反卷积 后升采 ResNet [4] 监督学习 {L_1} 亚像素卷积重排 后升采 ResNet [57] 监督学习 {L_2}/ {L_{{\text{Content}}}} 反卷积 后升采 ResNet [8] 监督学习 {L_1}/{L_{{\text{Edge}}}} Bicubic 后升采 ResNet [58] 监督学习 {L_1} Bicubic 后升采 GAN [74] 监督学习 {L_2}/{L_{{\text{GAN}}}}/ {L_{{\text{Content}}}} / {L_{{\text{Style}}}} – – GAN [75] 监督学习 {L_1}/{L_{{\text{GAN}}}} – – GAN [49] 监督学习 {L_1}/{L_{{\text{GAN}}}}/ {L_{{\text{Content}}}} – – GAN [73] 监督学习 {L_{{\text{GAN}}}}/ {L_{{\text{Content}}}} – – GAN [46] 监督学习 {L_{{\text{GAN}}}}/{L_{{\text{CycleGAN}}}} – – GAN [7] 无监督学习 {L_2}/{L_{{\text{SSIM}}}} – – 双极化 ResNet [52] 监督学习 {L_1}/{L_{{\text{Phy}}}} 反卷积 前升采 隐式神经表征 [17] 半监督学习 {L_2}/{L_{{\text{Self}}}}/{L_{{\text{Penalty}}}}/{L_{{\text{CE}}}} Bilinear 后升采 全极化 ResNet [5,76] 监督学习 {L_2} 反卷积 前升采 ResNet [53] 监督学习 {L_{\text{F}}}/{L_{{\text{Phy}}}} 反卷积 前升采 ResNet [77] 监督学习 {L_{\text{C}}}/{L_{{\text{Edge}}}} 反卷积 前升采 ResNet [15] 监督学习 {L_1} 亚像素卷积重排 后升采 隐式神经表征 [78] 半监督学习 {L_1}/{L_{{\text{Self}}}} Bilinear 后升采 -
[1] 陈思伟. 成像雷达极化旋转域解译理论与应用[M]. 北京: 科学出版社, 2023: 1–251.CHEN Siwei. Imaging Radar Polarimetric Rotation Domain Interpretation[M]. Beijing: Science Press, 2023: 1–251. [2] CHEN Siwei, WANG Xuesong, XIAO Shunping, et al. Target Scattering Mechanism in Polarimetric Synthetic Aperture Radar[M]. Singapore: Springer, 2018: 1–225. doi: 10.1007/978-981-10-7269-7. [3] 李宁, 牛世林. 基于局部超分辨重建的高精度SAR图像水域分割方法[J]. 雷达学报, 2020, 9(1): 174–184. doi: 10.12000/JR19096.LI Ning and NIU Shilin. High-precision water segmentation from synthetic aperture radar images based on local super-resolution restoration technology[J]. Journal of Radars, 2020, 9(1): 174–184. doi: 10.12000/JR19096. [4] 陈嘉琪, 刘祥梅, 李宁, 等. 一种超分辨SAR图像水域分割算法及其应用[J]. 电子与信息学报, 2021, 43(3): 700–707. doi: 10.11999/jeit200366.CHEN Jiaqi, LIU Xiangmei, LI Ning, et al. A high-precision water segmentation algorithm for SAR image and its application[J]. Journal of Electronics & Information Technology, 2021, 43(3): 700–7076. doi: 10.11999/jeit200366. [5] SHEN Huanfeng, LIN Liupeng, LI Jie, et al. A residual convolutional neural network for polarimetric SAR image super-resolution[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2020, 161: 90–108. doi: 10.1016/j.isprsjprs.2020.01.006. [6] SHI Xiaoran, ZHOU Feng, YANG Shuang, et al. Automatic target recognition for synthetic aperture radar images based on super-resolution generative adversarial network and deep convolutional neural network[J]. Remote Sensing, 2019, 11(2): 135. doi: 10.3390/rs11020135. [7] ZHANG Chongqi, ZHANG Ziwen, DENG Yao, et al. Blind super-resolution for SAR images with speckle noise based on deep learning probabilistic degradation model and SAR priors[J]. Remote Sensing, 2023, 15(2): 330. doi: 10.3390/rs15020330. [8] MEN Peng, GUO Hao, AN Jubai, et al. Large-resolution difference heterogeneous SAR image sea ice drift tracking using a smooth edge-guide Super-resolution residual network[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61: 5212519. doi: 10.1109/tgrs.2023.3296462. [9] 高勋章, 张志伟, 刘梅, 等. 雷达像智能识别对抗研究进展[J]. 雷达学报, 2023, 12(4): 696–712. doi: 10.12000/jr23098.GAO Xunzhang, ZHANG Zhiwei, LIU Mei, et al. Intelligent radar image recognition countermeasures: A review[J]. Journal of Radars, 2023, 12(4): 696–712. doi: 10.12000/jr23098. [10] CHEN Siwei and TAO Chensong. PolSAR image classification using polarimetric-feature-driven deep convolutional neural network[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(4): 627–631. doi: 10.1109/LGRS.2018.2799877. [11] LI Mingdian, XIAO Shunping, and CHEN Siwei. Three-dimension polarimetric correlation pattern interpretation tool and its application[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5238716. doi: 10.1109/TGRS.2022.3222691. [12] CHEN Siwei, LI Mingdian, CUI Xingchao, et al. Polarimetric roll-invariant features and applications for polarimetric synthetic aperture radar ship detection: A comprehensive summary and investigation[J]. IEEE Geoscience and Remote Sensing Magazine, 2024, 12(1): 36–66. doi: 10.1109/MGRS.2023.3328472. [13] CHEN Siwei. Polarimetric coherence pattern: A visualization and characterization tool for PolSAR data investigation[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(1): 286–297. doi: 10.1109/TGRS.2017.2746662. [14] CHEN Siwei, WANG Xuesong, and SATO M. Urban damage level mapping based on scattering mechanism investigation using fully polarimetric SAR data for the 3. 11 east Japan earthquake[J]. IEEE Transactions on Geoscience and Remote Sensing, 2016, 54(12): 6919–6929. doi: 10.1109/TGRS.2016.2588325. [15] LI Mingdian, CUI Xingchao, YANG Chengli, et al. Polarimetric ISAR super-resolution based on group residual attention network[C]. 2022 IEEE 10th International Conference on Information, Communication and Networks (ICICN), Zhangye, China, 2022: 566–571. doi: 10.1109/ICICN56848.2022.10006508. [16] LI Mingdian, DENG Junwu, XIAO Shunping, et al. Semi-supervised implicit neural representation for polarimetric ISAR image super-resolution[J]. IEEE Geoscience and Remote Sensing Letters, 2023, 20: 3505505. doi: 10.1109/LGRS.2023.3287283. [17] LI Mingdian, DENG Junwu, XIAO Shunping, et al. NLSAN: A non-local scene awareness network for compact polarimetric ISAR image super-resolution[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61: 5111416. doi: 10.1109/TGRS.2023.3331822. [18] 崔兴超, 李郝亮, 付耀文, 等. 空间目标散射结构极化旋转域辨识[J]. 电子与信息学报, 2022, 45(6): 2105–2114. doi: 10.11999/JEIT220493.CUI Xingchao, LI Haoliang, FU Yaowen, et al. Scattering structure recognition of space target in polarimetric rotation domain[J]. Journal of Electronics & Information Technology, 2023, 45(6): 2105–2114. doi: 10.11999/JEIT220493. [19] 李郝亮, 陈思伟. 海面角反射体电磁散射特性与雷达鉴别研究进展与展望[J]. 雷达学报, 2023, 12(4): 738–761. doi: 10.12000/jr23100.LI Haoliang and CHEN Siwei. Electromagnetic scattering characteristics and radar identification of sea corner reflectors: Advances and prospects[J]. Journal of Radars, 2023, 12(4): 738–761. doi: 10.12000/JR23100. doi: 10.12000/jr23100. [20] 许璐, 张红, 王超, 等. 简缩极化SAR数据处理与应用研究进展[J]. 雷达学报, 2020, 9(1): 55–72. doi: 10.12000/JR19106.XU Lu, ZHANG Hong, WANG Chao, et al. Progress in the processing and application of compact polarimetric SAR[J]. Journal of Radars, 2020, 9(1): 55–72. doi: 10.12000/JR19106. [21] CZERWINSKI M G and USOFF J M. Development of the haystack ultrawideband satellite imaging radar[J]. Lincoln Laboratory Journal, 2014, 21(1): 28–44. [22] 呼鹏江. 空天目标逆合成孔径雷达精细成像技术研究[D]. [博士论文], 国防科技大学, 2018. doi: 10.27052/d.cnki.gzjgu.2018.000338.HU Pengjiang. Research on inverse synthetic aperture radar fine imaging technology of aerospace targets[D]. [Ph. D. dissertation], National University of Defense Technology, 2018. doi: 10.27052/d.cnki.gzjgu.2018.000338. [23] CUMMING I G, WONG F H, 洪文, 胡东辉, 译. 合成孔径雷达成像: 算法与实现[M]. 北京: 电子工业出版社, 2007: 1–428.CUMMING I G, WONG F H, HONG Wen and HU Donghui. translation. Digital Processing of Synthetic Aperture Radar Data: Algorithms and Implementation[M]. Beijing: Publishing House of Electronics Industry, 2007: 1–428. [24] SOUMEKH M. Synthetic Aperture Radar Signal Processing with MATLAB Algorithms[M]. New York: Jone Wiley & Sons, 1999: 1–648. [25] BORISON S L, BOWLING S B, and CUOMO K M. Super-resolution methods for wideband radar[J]. The Lincoln Laboratory Journal, 1992, 5(3): 441–461. [26] JONSSON R. Regularization based super resolution imaging using FFT: s[C]. SPIE 5808, Algorithms for Synthetic Aperture Radar Imagery XII, Orlando, USA, 2005: 122–131. doi: 10.1117/12.604347. [27] FARINA A, PRODI F, and VINELLI F. Application of superresolution techniques to radar imaging[J]. Journal of Systems Engineering and Electronics, 1994, 5(1): 1–14. [28] 冉承其, 王正明. 基于基追踪的SAR图像超分辨处理[J]. 宇航学报, 2006, 27(1): 51–56. doi: 10.3321/j.issn:1000-1328.2006.01.011.RAN Chengqi and WANG Zhengming. Super-resolution processing of SAR image by basis pursuit method[J]. Journal of Astronautics, 2006, 27(1): 51–56. doi: 10.3321/j.issn:1000-1328.2006.01.011. [29] ZHANG Ping and YANG Ruliang. A new superresolution SAR imaging algorithm based on extrapolation[C]. 2008 IEEE International Geoscience and Remote Sensing Symposium, Boston, USA, 2008: 407–410. doi: 10.1109/IGARSS.2008.4779744. [30] HE Chu, LIU Longzhu, XU Lianyu, et al. Learning based compressed sensing for SAR image super-resolution[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2012, 5(4): 1272–1281. doi: 10.1109/jstars.2012.2189555. [31] DU Chuan, XIE Pengfei, ZHANG Lei, et al. Conditional prior probabilistic generative model with similarity measurement for ISAR imaging[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 4013205. doi: 10.1109/LGRS.2021.3073691. [32] HARRIS J L. Diffraction and resolving power[J]. Journal of the Optical Society of America, 1964, 54(7): 931–936. doi: 10.1364/josa.54.000931. [33] MOSER B B, RAUE F, FROLOV S, et al. Hitchhiker's guide to super-resolution: Introduction and recent advances[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2023, 45(8): 9862–9882. doi: 10.1109/TPAMI.2023.3243794. [34] WANG Zhihao, CHEN Jian, and HOI S C H. Deep learning for image super-resolution: A survey[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 43(10): 3365–3387. doi: 10.1109/TPAMI.2020.2982166. [35] 邢孟道, 保铮, 李真芳, 等. 雷达成像算法进展[M]. 北京: 电子工业出版社, 2014: 1–262.XING Mengdao, BAO Zheng, LI Zhenfang, et al. Progress of Radar Imaging Algorithm[M]. Beijing: Publishing House of Electronics Industry, 2014: 1–262. [36] LIPPS R and KERR D. Polar reformatting for ISAR imaging[C]. 1998 IEEE Radar Conference, RADARCON'98. Challenges in Radar Systems and Solutions, Dallas, USA 1998: 275–280. doi: 10.1109/NRC.1998.678014. [37] 朱正为, 周建江. 基于联合聚焦/超分辨贝叶斯模型的雷达目标超分辨重建[J]. 系统工程与电子技术, 2011, 33(6): 1261–1264. doi: 10.3969/j.issn.1001-506X.2011.06.13.ZHU Zhengwei and ZHOU Jianjiang. Radar target image super-resolution reconstruction based on bayesian joint focus/super-resolution model[J]. Systems Engineering and Electronics, 2011, 33(6): 1261–1264. doi: 10.3969/j.issn.1001-506X.2011.06.13. [38] 张倩. SAR图像质量评估及其目标识别应用[D]. [博士论文], 中国科学技术大学, 2011.ZHANG Qian. Quality assessment and target recognition in SAR images[D]. [Ph. D. dissertation], University of Science and Technology of China, 2011. [39] 王光新, 王正明, 王卫威. 基于Cauchy稀疏分布的SAR图像超分辨算法[J]. 宇航学报, 2008, 29(1): 299–303. doi: 10.3873/j.issn.1000-1328.2008.01.054.WANG Guangxin, WANG Zhengming, and WANG Weiwei. SAR image super-resolution based on sparse cauchy distribution[J]. Journal of Astronautics, 2008, 29(1): 299–303. doi: 10.3873/j.issn.1000-1328.2008.01.054. [40] 汪雄良, 王正明, 赵侠, 等. 基于lk范数正则化方法的SAR图像超分辨[J]. 宇航学报, 2005, 26(S1): 77–82. doi: 10.3321/j.issn:1000-1328.2005.z1.015.WANG Xiongliang, WANG Zhengming, ZHAO Xia, et al. SAR image super-resolution based on regularization of lk norm[J]. Journal of Astronautics, 2005, 26(S1): 77–82. doi: 10.3321/j.issn:1000-1328.2005.z1.015. [41] 曲长文, 徐舟, 陈天乐. 稀疏条件下基于散射点估计的SAR切片超分辨重建[J]. 电子与信息学报, 2015, 37(1): 71–77. doi: 10.11999/JEIT140121.QU Changwen, XU Zhou, and CHEN Tianle. Super-resolution reconstruction of SAR section based on scattering center estimation and sparse constraint[J]. Journal of Electronics & Information Technology, 2015, 37(1): 71–77. doi: 10.11999/JEIT140121. [42] QI Mingrui, CHEN Chen, and YANG Qingwei. Single ISAR image enhancement based on convolutional neural network[C]. SPIE 12166, Seventh Asia Pacific Conference on Optics Manufacture and 2021 International Forum of Young Scientists on Advanced Optical Manufacturing (APCOM and YSAOM 2021), Hong Kong, China, 2022: 121665R. doi: 10.1117/12.2617683. [43] ADDABBO P, BERNARDI M L, BIONDI F, et al. Super-resolution of synthetic aperture radar complex data by deep-learning[J]. IEEE Access, 2023, 11: 23647–23658. doi: 10.1109/ACCESS.2023.3251565. [44] YANG Ting, SHI Hongyin, LANG Manyun, et al. ISAR imaging enhancement: Exploiting deep convolutional neural network for signal reconstruction[J]. International Journal of Remote Sensing, 2020, 41(24): 9447–9468. doi: 10.1080/01431161.2020.1799449. [45] QIN Dan, LIU Diyang, GAO Xunzhang, et al. ISAR resolution enhancement using residual network[C]. 2019 IEEE 4th International Conference on Signal and Image Processing (ICSIP), Wuxi, China, 2019: 788–792. doi: 10.1109/SIPROCESS.2019.8868757. [46] 易拓源, 户盼鹤, 刘振. 基于改进CycleGAN的ISAR图像超分辨方法[J]. 信号处理, 2023, 39(2): 323–334. doi: 10.16798/j.issn.1003-0530.2023.02.013.YI Tuoyuan, HU Panhe, and LIU Zhen. ISAR images super-resolution method based on ameliorated CycleGAN[J]. Journal of Signal Processing, 2023, 39(2): 323–334. doi: 10.16798/j.issn.1003-0530.2023.02.013. [47] ZHOU Peng, MARTORELLA M, ZHANG Xi, et al. Circular scan ISAR mode super-resolution imaging of ships based on a combination of data extrapolation and compressed sensing[J]. IEEE Sensors Journal, 2019, 19(16): 6883–6894. doi: 10.1109/JSEN.2019.2913903. [48] GIUSTI E, CATALDO D, BACCI A, et al. ISAR image resolution enhancement: Compressive sensing versus state-of-the-art super-resolution techniques[J]. IEEE Transactions on Aerospace and Electronic Systems, 2018, 54(4): 1983–1997. doi: 10.1109/taes.2018.2807283. [49] WANG Haobo, LI Kaiming, LU Xiaofei, et al. ISAR resolution enhancement method exploiting generative adversarial network[J]. Remote Sensing, 2022, 14(5): 1291. doi: 10.3390/rs14051291. [50] WANG Yong, JI Bingren, ZHAO Bin, et al. A novel super-resolution ISAR imaging method based on the EM-turbo technique[J]. Remote Sensing Letters, 2022, 13(8): 844–853. doi: 10.1080/2150704x.2022.2091962. [51] LEE S J and LEE S G. Super-resolution procedure for target responses in KOMPSAT-5 images[J]. Sensors, 2022, 22(19): 7189. doi: 10.3390/s22197189. [52] LIN Liupeng, SHEN Huanfeng, LI Jie, et al. FDFNet: A fusion network for generating high-resolution fully polSAR images[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 4500905. doi: 10.1109/lgrs.2021.3127958. [53] LIN Liupeng, LI Jie, SHEN Huanfeng, et al. Low-resolution fully polarimetric SAR and high-resolution single-polarization SAR image fusion network[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 5216117. doi: 10.1109/TGRS.2021.3121166. [54] SUWA K and IWAMOTO M. A two-dimensional bandwidth extrapolation technique for polarimetric synthetic aperture radar images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2007, 45(1): 45–54. doi: 10.1109/TGRS.2006.885406. [55] WEI Yangkai, LI Yinchuan, DING Zegang, et al. SAR parametric super-resolution image reconstruction methods based on ADMM and deep neural network[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(12): 10197–10212. doi: 10.1109/TGRS.2021.3052793. [56] 李春茂, 吴顺君, 张林让. 基于边缘保持的自适应SAR图像超分辨重建算法[J]. 系统仿真学报, 2014, 26(2): 254–259. doi: 10.16182/j.cnki.joss.2014.02.020.LI Chunmao, WU Shunjun, and ZHANG Linrang. Adaptive edge-preserving based reconstruction algorithm for SAR images[J]. Journal of System Simulation, 2014, 26(2): 254–259. doi: 10.16182/j.cnki.joss.2014.02.020. [57] 李萌, 刘畅. 基于特征复用的膨胀-残差网络的SAR图像超分辨重建[J]. 雷达学报, 2020, 9(2): 363–372. doi: 10.12000/JR19110.LI Meng and LIU Chang. Super-resolution reconstruction of SAR images based on feature reuse dilated-residual convolutional neural networks[J]. Journal of Radars, 2020, 9(2): 363–372. doi: 10.12000/JR19110. [58] LI Yanshan, XU Fan, ZHOU Li, et al. Optical-guided residual learning network for synthetic aperture radar image super-resolution[J]. Journal of Applied Remote Sensing, 2022, 16(3): 036503. doi: 10.1117/1.Jrs.16.036503. [59] KANAKARAJ S, NAIR M S, and KALADY S. SAR image super resolution using importance sampling unscented kalman filter[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2018, 11(2): 562–571. doi: 10.1109/jstars.2017.2779795. [60] WANG Zhou, BOVIK A C, SHEIKH H R, et al. Image quality assessment: From error visibility to structural similarity[J]. IEEE Transactions on Image Processing, 2004, 13(4): 600–612. doi: 10.1109/TIP.2003.819861. [61] KANAKARAJ S, NAIR M S, and KALADY S. Adaptive importance sampling unscented kalman filter with kernel regression for SAR image super-resolution[J]. IEEE Geoscience and Remote Sensing Letters, 2022, 19: 4004305. doi: 10.1109/lgrs.2020.3031600. [62] KANAKARAJ S, NAIR M S, and KALADY S. Adaptive importance sampling unscented kalman filter based SAR image super resolution[J]. Computers & Geosciences, 2019, 133: 104310. doi: 10.1016/j.cageo.2019.104310. [63] LIN Zhang, ZHANG Lei, MOU Xuanqin, et al. FSIM: A feature similarity index for image quality assessment[J]. IEEE Transactions on Image Processing, 2011, 20(8): 2378–2386. doi: 10.1109/TIP.2011.2109730. [64] SATTAR F, FLOREBY L, SALOMONSSON G, et al. Image enhancement based on a nonlinear multiscale method[J]. IEEE Transactions on Image Processing, 1997, 6(6): 888–895. doi: 10.1109/83.585239. [65] LEE J S, POTTIER E, 洪文, 李洋, 尹嫱, 等译. 极化雷达成像基础与应用[M]. 北京: 电子工业出版社, 2013: 1–312.LEE J S POTTIER E, HONG Wen, LI Yang, YIN Qiang, et al. translation. Polarimetric Radar Imaging From Basics to Applications[M]. Beijing: Publishing House of Electronics Industry, 2013: 1–312. [66] 吴永辉, 郁文贤, 计科峰, 等. 基于修正H-α方法的双极化SAR散射机理识别性能分析[J]. 电子学报, 2010, 38(3): 572–579.WU Yonghui, YU Wenxian, JI Kefeng, et al. Performance analysis of scattering mechanism identification of dual-polarization SAR using a modified H-α decomposition[J]. Acta Electronica Sinica, 2010, 38(3): 572–579. [67] 孙即祥. 现代模式识别[M]. 北京: 高等教育出版社, 2008: 186, 187.SUN Jixiang. Modern Pattern Recognition[M]. Beijing: Higher Education Press, 2008: 186, 187. [68] LIU Lu, HUANG Wei, and WANG Cheng. Texture image prior for SAR image super resolution based on total variation regularization using split Bregman iteration[J]. International Journal of Remote Sensing, 2017, 38(20): 5673–5687. doi: 10.1080/01431161.2017.1346325. [69] GOLDSTEIN T and OSHER S. The split bregman method for L1-regularized problems[J]. SIAM Journal on Imaging Sciences, 2009, 2(2): 323–343. doi: 10.1137/080725891. [70] DONOHO D L. Sparse components of images and optimal atomic decompositions[J]. Constructive Approximation, 2001, 17(3): 353–382. doi: 10.1007/s003650010032. [71] DONG Chao, LOY C C, HE Kaiming, et al. Image super-resolution using deep convolutional networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016, 38(2): 295–307. doi: 10.1109/TPAMI.2015.2439281. [72] 陈思伟, 李永祯, 王雪松, 等. 极化SAR目标散射旋转域解译理论与应用[J]. 雷达学报, 2017, 6(5): 442–455. doi: 10.12000/JR17033.CHEN Siwei, LI Yongzhen, WANG Xuesong, et al. Polarimetric SAR target scattering interpretation in rotation domain: Theory and application[J]. Journal of Radars, 2017, 6(5): 442–455. doi: 10.12000/JR17033. [73] CEN Xi, SONG Xuan, LI Yachao, et al. A deep learning-based super-resolution model for bistatic SAR image[C]. 2021 International Conference on Electronics, Circuits and Information Engineering (ECIE), Zhengzhou, China, 2021: 228–233. doi: 10.1109/ECIE52353.2021.00056. [74] AO Dongyang, DUMITRU C O, SCHWARZ G, et al. Dialectical GAN for SAR image translation: From Sentinel-1 to TerraSAR-X[J]. Remote Sensing, 2018, 10(10): 1597. doi: 10.3390/rs10101597. [75] QIN Dan and GAO Xunzhang. Enhancing ISAR resolution by a generative adversarial network[J]. IEEE Geoscience and Remote Sensing Letters, 2021, 18(1): 127–131. doi: 10.1109/LGRS.2020.2965743. [76] LIN Liupeng, LI Jie, YUAN Qiangqiang, et al. Polarimetric SAR image super-resolution via deep convolutional neural network[C]. 2019 IEEE International Geoscience and Remote Sensing Symposium, Yokohama, Japan, 2019: 3205–3208. doi: 10.1109/IGARSS.2019.8898160. [77] 林镠鹏, 李杰, 沈焕锋. 基于多尺度注意力机制的PolSAR深度学习超分辨率模型[J]. 遥感学报, 预初版. doi: 10.11834/jrs.20233002.LIN Liupeng, LI Jie, and SHEN Huanfeng. PolSAR image deep learning super-resolution model based on multi-scale attention mechanism[J]. National Remote Sensing Bulletin, in press. doi: 10.11834/jrs.20233002. [78] CHEN Yinbo, LIU Sifei, and WANG Xiaolong. Learning continuous image representation with local implicit image function[C]. 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Nashville, USA, 2021: 8624–8634. doi: 10.1109/CVPR46437.2021.00852. [79] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Las Vegas, USA, 2016: 770–778. doi: 10.1109/CVPR.2016.90. [80] ZHU Hongyu, XIE Chao, FEI Yeqi, et al. Attention mechanisms in CNN-based single image super-resolution: A brief review and a new perspective[J]. Electronics, 2021, 10(10): 1187. doi: 10.3390/electronics10101187. [81] GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]. 27th International Conference on Neural Information Processing Systems, Montreal, Canada, 2014: 2672–2680. [82] LEDIG C, THEIS L, HUSZÁR F, et al. Photo-realistic single image super-resolution using a generative adversarial network[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, USA, 2017: 105–114. doi: 10.1109/CVPR.2017.19. [83] WANG Xintao, YU Ke, WU Shixiang, et al. ESRGAN: Enhanced super-resolution generative adversarial networks[C]. Computer Vision – ECCV 2018 Workshops, Munich, Germany, 2019: 63–79. doi: 10.1007/978-3-030-11021-5_5. [84] ZHANG Lamei, ZOU Bin, HAO Huijun, et al. A novel super-resolution method of PolSAR images based on target decomposition and polarimetric spatial correlation[J]. International Journal of Remote Sensing, 2011, 32(17): 4893–4913. doi: 10.1080/01431161.2010.492251. [85] PASTINA D, LOMBARDO P, FARINA A, et al. Super-resolution of polarimetric SAR images of a ship[C]. IEEE 2001 International Geoscience and Remote Sensing Symposium, Sydney, Australia, 2001: 2343–2345. doi: 10.1109/IGARSS.2001.977996. [86] NOVAK L M and BURL M C. Optimal speckle reduction in polarimetric SAR imagery[C]. Twenty-Second Asilomar Conference on Signals, Systems and Computers, Pacific Grove, USA, 1988: 781–793. doi: 10.1109/ACSSC.1988.754657. [87] CHEN Jiong and YANG Jian. Super-resolution of polarimetric SAR images for ship detection[C]. 2007 International Symposium on Microwave, Antenna, Propagation and EMC Technologies for Wireless Communications, Hangzhou, China, 2007: 1499–1502. doi: 10.1109/MAPE.2007.4393565. [88] STARK H and OSKOUI P. High-resolution image recovery from image-plane arrays, using convex projections[J]. Journal of the Optical Society of America A, 1989, 6(11): 1715–1726. doi: 10.1364/josaa.6.001715. [89] CAO Yue, XU Jiarui, LIN S, et al. GCNet: Non-local networks meet squeeze-excitation networks and beyond[C]. 2019 IEEE/CVF International Conference on Computer Vision Workshop (ICCVW), Seoul, Korea (South), 2019: 1971–1980. doi: 10.1109/ICCVW.2019.00246. [90] VAN DER MAATEN L and HINTON G. Visualizing data using t-SNE[J]. Journal of Machine Learning Research, 2008, 9(86): 2579–2605. -