Loading [MathJax]/jax/element/mml/optable/MathOperators.js
高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于金字塔池化网络的道路场景深度估计方法

周武杰 潘婷 顾鹏笠 翟治年

时艳玲, 李君豪. 基于子带矩阵CFAR的海面慢速小目标检测算法[J]. 电子与信息学报, 2021, 43(9): 2703-2710. doi: 10.11999/JEIT200402
引用本文: 周武杰, 潘婷, 顾鹏笠, 翟治年. 基于金字塔池化网络的道路场景深度估计方法[J]. 电子与信息学报, 2019, 41(10): 2509-2515. doi: 10.11999/JEIT180957
Yanling SHI, Junhao LI. Target Detecting Algorithm Based on Subband Matrix for Slow Target in Sea Clutter[J]. Journal of Electronics & Information Technology, 2021, 43(9): 2703-2710. doi: 10.11999/JEIT200402
Citation: Wujie ZHOU, Ting PAN, Pengli GU, Zhinian ZHAI. Depth Estimation of Monocular Road Images Based on Pyramid Scene Analysis Network[J]. Journal of Electronics & Information Technology, 2019, 41(10): 2509-2515. doi: 10.11999/JEIT180957

基于金字塔池化网络的道路场景深度估计方法

doi: 10.11999/JEIT180957
基金项目: 国家自然科学基金(61502429),浙江省自然科学基金(LY18F0002)
详细信息
    作者简介:

    周武杰:男,1983年生,副教授,博士,研究方向为计算机视觉与模式识别,深度学习

    潘婷:女,1994年生,硕士,研究方向为计算机视觉与模式识别

    顾鹏笠:男,1989年生,硕士,研究方向为计算机视觉与模式识别

    翟治年:男,1977年生,讲师,博士,研究方向为深度学习

    通讯作者:

    周武杰 wujiezhou@163.com

  • 中图分类号: TP391.4

Depth Estimation of Monocular Road Images Based on Pyramid Scene Analysis Network

Funds: The National Natural Science Foundation of China (61502429), The Zhejiang Provincial Natural Science foundation (LY18F020012)
  • 摘要: 针对从单目视觉图像中估计深度信息时存在的预测精度不够准确的问题,该文提出一种基于金字塔池化网络的道路场景深度估计方法。该方法利用4个残差网络块的组合提取道路场景图像特征,然后通过上采样将特征图逐渐恢复到原始图像尺寸,多个残差网络块的加入增加网络模型的深度;考虑到上采样过程中不同尺度信息的多样性,将提取特征过程中各种尺寸的特征图与上采样过程中相同尺寸的特征图进行融合,从而提高深度估计的精确度。此外,对4个残差网络块提取的高级特征采用金字塔池化网络块进行场景解析,最后将金字塔池化网络块输出的特征图恢复到原始图像尺寸并与上采样模块的输出一同输入预测层。通过在KITTI数据集上进行实验,结果表明该文所提的基于金字塔池化网络的道路场景深度估计方法优于现有的估计方法。
  • 强海杂波背景下的弱目标检测是雷达目标检测中较为重要的难题,其检测性能主要受到杂波、噪声和其他干扰的限制,而海杂波的影响最为显著。在现有的检测方法中,基于快速傅里叶变换(Fast Fourier Transform, FFT)滤波器组的单元平均法(Cell Averaging, CA),即FFT-CA法被广泛应用[1]。然而,在杂波谱展宽、多普勒滤波器组能量泄露以及多普勒分辨率较低的短脉冲序列情况下,FFT-CA算法的性能受到严重的影响[1]。为了克服这些缺点,Conte等人[2]采用增加相干积累时间的相干检测算法,提出了自适应归一化匹配滤波器(Adaptive Normalized Matched Filter, ANMF)检测方法,该方法对杂波的结构分量和协方差矩阵都具有恒虚警性,且相对于非相参雷达,显著提高了检测性能。随后一系列基于相干积累检测算法被相继提出并得以应用[3-5]

    对于目标多普勒矢量未知的情况下,相干积累检测算法会存在失配损失。为了克服这一缺点,一类捕获数据之间相关性的矩阵CFAR检测方法被提出[6-17]。类比于常规FFT+CFAR检测方法,Arnaudon等人[6]提出的矩阵CFAR检测器利用检测单元回波相关矩阵与参考单元相关矩阵之间的黎曼均值的测地线距离作为检测统计量,并将其应用于其他雷达目标检测场景中[7]。为了克服测地线距离的能量积累性能有限的缺陷,赵兴刚等人[8-10]利用具有更优积累性能的KLD (Kullback-Leibler Divergence)代替测地线距离,提出了一种改进的矩阵CFAR检测器和基于AR模型的矩阵CFAR检测器,取得了较好的检测和恒虚警性能。Ye等人[11]利用信息几何将角度和多普勒域的多维信息映射到厄米特正定矩阵空间,提出局部矩阵CFAR算法用于低信杂比的高频天波雷达中,获得了不错的检测效果。

    上述矩阵CFAR检测器利用迭代算法估计均值矩阵,其较高的计算复杂度限制了其在实际武器装备中的应用。为了降低这类算法的计算复杂度,赵文静等人[12-15]基于特征值分解,提出了采用最大特征值作为检测统计量的矩阵CFAR检测方法(Matrix CFAR Detection method based on the Maximum Eigenvalue, MEMD),在保证恒虚警性能的前提下,利用目标导向矢量的先验信息对数据进行预处理,提出了将频域相干积分与最大特征值方法相结合的预处理的最大特征值矩阵CFAR检测(Maximum Eigenvalue Matrix CFAR Detection Using Pre-Processing, P-MEMD)方法[14],适用于目标多普勒频率偏离杂波中心频谱的场景。随后,赵文静等人[16,17]利用矩阵谱范数来测量矩阵的非相似性提出了两个矩阵CFAR检测器,均获得了较好的检测性能。

    当目标的多普勒频率在杂波中心频谱附近时,MEMD的检测性能较好。然而在实际环境中,目标多普勒频率可能在杂波频谱的任何位置出现,故当目标的多普勒频率偏离杂波中心频谱时,其检测问题也亟待解决。于是本文从这一实际环境出发,提出滤波器组与矩阵CFAR相结合的思想,采用滤波器组作为预处理过程[18],并利用最大特征值简化滤波器组的求门限过程,实现对通带外杂波的抑制,对目标多普勒频率进行了准确的定位,结合矩阵CFAR调整门限提高检测性能,对目标能量进行最大限度的积累,实现目标多普勒频率在杂波频谱内和远离杂波频谱时检测性能的提升。

    本文的主要结构安排如下:第2节主要介绍海杂波背景下的目标检测模型,第3节提出基于矩阵CFAR的最大特征值检测与滤波器组子带分鲜相结合的FD-MEMD检测算法,第4节通过仿真实验验证本文算法的有效性,第5节给出结论。

    假设雷达接收回波y,在不失一般性的情况下,依据文献[18],雷达信号检测问题可以通过二元假设检验模型表述

    H0:{y=c˜yk=ck,k=1,2,···,KH1:{y=s+c˜yk=ck,k=1,2,···,K} (1)

    其中,在零假设H0下,接收到的N维脉冲数据yCN×1仅由杂波c组成;在备择假设H1下,接收到的N维脉冲数据y不仅包含杂波c,还包含目标信号s,目标信号与杂波是统计独立的。˜yk为辅助数据,仅由杂波样本组成,K为参考单元的个数。主要数据y和辅助数据˜yk是独立同分布的。

    借助文献[18],通过式(2)模拟目标回波

    s(n)=ˉAPca(n)exp{j[4πλ(v0(1nN)+v1nN)nΔt+φ0]},n=1,2,···,N (2)

    其中,Pc是海杂波的功率,ˉA是调整信杂比(Signal to Clutter Ratio, SCR)的正因子,a(n)是高度相关的幅度序列,λ是雷达波长,v0v1分别是初始和最终的径向速度,Δt是雷达的脉冲重复周期,φ0是随机初始相位。

    对于目标回波模型式(2)的参数选择,幅度序列a(n)是单位平均正随机序列。将模拟目标回波与功率为Pc的海杂波相加,雷达回波的SCR为20lg(ˉA)。参数ˉA由间隔[1012,101]的均匀分布产生,即ˉAU(1012,101),对应于1020dB的SCR范围。

    实际场景中,海面小目标一般具有较小的速度和加速度[19,20]。对于海面小目标,当观测时间在几秒以内时,简单的恒加速度模型就足够了。假设目标速度服从[α,α]的均匀分布,目标加速度在长度为NΔt的观测时间间隔内限制在[β,β]内,运动方向与雷达视线的夹角服从[π,π]的均匀分布。在这些假设下,初始和最终的径向速度为

    u0=αx,u1=αy,|u0u1|βNΔt,v0=u0cosθ,v1=u1cosθ,θ=πz,x,y,zU(1,1) (3)

    其中,随机数x, yz相互独立。注意,如果不满足对加速度的约束,则再次生成随机数xya(n)被建模为非负、高度相关的幂次随机序列,依据文献[19],a(n)的表达形式为

    a(n)=3(1+ρ)(1ρ)2(2+ρ)(11ρ+g(n+W)),n=1,2,··· (4)

    其中,g(n)为通过1阶自回归系统生成的高度相关的序列,

    g(n+1)=ρg(n)+f(n+1),n=1,2,···;ρ(0,1) (5)

    独立样本f(n)满足f(n)U(1,1),其均值为0,方差为1/3g(1)=f(1)g(n)[11ρ,11ρ]。在自回归系统中,采用足够大的整数W来避免初始值的过渡效应。

    基于最大特征值矩阵CFAR检测方法(MEMD)的设计是为了在目标频谱与杂波频谱重叠时获得更好的检测性能和相对其他CFAR检测方法具有更低的计算复杂度。然而,依据文献[14],当目标多普勒频率严重偏离杂波频谱时,MEMD算法的检测性能不佳。在此基础上,一些学者考虑增加预处理过程来减弱杂波对检测性能的影响,并提出了将频域相干积分与最大特征值方法结合在一起的基于预处理的最大特征值检测(P-MEMD)方法。其使用目标导向矢量的先验信息来减弱杂波的影响,进一步提高了MEMD的检测性能。由于海表面的无规则波动,海杂波的能量比较分散,然而海面慢速小目标的回波信号的能量在频域上往往集中在特定频段内。此外,动目标检测依据目标与杂波的能量差异进行目标检测,一般使用各种滤波器,滤去海浪等背景产生的杂波而取出运动目标的回波[21]。基于这一现象,本文利用动目标检测原理,提出了利用滤波器组对接收数据进行滤波处理,然后再与最大特征值相结合的矩阵CFAR检测方法,将其命名为FD-MEMD,以达到保留潜在的有用目标回波信号,同时抑制带外杂波的目的,由此即可提升雷达回波信号的信杂比。后续的仿真实验表明,该方法适用于海面慢速小目标,目标多普勒频率在杂波频谱内和远离杂波频谱均获得了较好的检测性能。

    {y,˜y1,···,˜yK}是接收到的数据矩阵,它分为主要数据y和辅助数据˜y1,˜y2,···,˜yK。这里,y表示待检测单元的N维接收数据(主要数据),˜y1,˜y2,···,˜yK表示参考单元中由杂波组成的接收数据(辅助数据)。图1显示了所提出的FD-MEMD方法的检测框图。本文将分DFT调制滤波器组、数据滤波处理、确定目标所在的子带和FD-MEMD检测统计量这4个小节进行介绍。

    图 1  FD-MEMD方法的原理框图

    本文使用线性相位DFT调制滤波器组实现子带分解,采用线性相位是为了保持目标回波的相位结构不发生改变,同时,DFT调制滤波器组具有高的阻带抑制能力。

    DFT调制滤波器组由一个低通原型滤波器h(l)调制而成。不失一般性,假定低通原型滤波器是因果2L阶线性相位滤波器[18],且满足h(2Ll)=h(l)l=0,1,···,2L,它的频率响应为

    H(ω)=ejLω{h(L)+L1l=0h(l)cos(Ll)ω}ejLωdTL(ω)q (6)

    其中,

    q=[h(0),h(1),···,h(L)]T (7)
    dL(ω)=[2cos(Lω),···,2cos(ω),1]T (8)

    其中,上标T表示转置。针对本文的应用,期望原型滤波器h(l)具有尽可能平坦的通带和高的阻带抑制性,平坦的通带保证了目标回波的幅度和相位具有较小的失真,高的阻带抑制性保证了通带外的杂波能够被抑制。

    依据文献[18],2P+1个通道的DFT调制滤波器组的结构为

    Hp(ω)=H(ω2pπ2P+1) (9)

    其中,p=P,P+1,···,0,1,···,PH(ω)=h(l)ejωlh(l)是通带位于[π2P+1,π2P+1]的低通原型滤波器。只要h(l)是一个线性相位、因果的、有限冲激响应滤波器,所有子带滤波器hp(l)都是线性相位、因果的、有限冲激响应滤波器。

    图1所示,虚线框为预处理部分,包括一个前置的2P+1个通道的线性相位DFT调制滤波器组,其中Xp(n), p=P,P+1,···,P1,P是滤波后的子带时间序列,其表达形式为

    Xp(n)=hp(l)y(n),p=P,P+1,···,P1,P;l=0,1,···,2L (10)

    其中,表示卷积运算,y(n)为雷达接收的待检测单元的回波数据。

    滤波器组主要达到提升雷达回波信杂比的目的,无论目标回波的能量在频域上较为集中或是较为分散,在2P+1个滤波器中总会有一个或多个滤波器的通带内保留了目标信号。

    求出待检测单元的子带信号所对应的相关矩阵Cp的最大特征值ζp,找出2P+1个最大特征值的最大值η所对应的子带ˆp,将第ˆp个子带指定为包含目标信号的子带,从而实现了抑制杂波。

    待检测单元的相关矩阵Cp表述为

    Cp=E[XpXHp]=[rp,0···ˉrp,N1rp,N1···rp,0] (11)

    其中,Cp是一个特普利茨厄米特正定矩阵,CHp=Cp(.)H表示共轭转置。根据广义平稳的遍历性,数据Xp的相关系数可以通过随时间平均而非其统计平均来计算,即

    rp,i=1NN1|i|n=0xp(n)ˉxp(n+i),|i|N1 (12)

    其中,xp(n)是向量Xp的元素,ˉx表示x的复共轭。

    Cp进行特征值分解,可得

    Cp=UpΛpUHp (13)

    其中,Up是由特征向量组成的特征矩阵,Λp是由特征值[λp,1,λp,2,···,λp,M]组成的对角矩阵。第p个子带相关矩阵Cp对应的最大特征值ζp

    ζp=max(λp,1,λp,2,···,λp,M) (14)

    于是,所有2P+1个子带的特征值的最大值η

    η=max(ζP,ζP+1,···,ζP) (15)

    因此,确定最大特征值η对应的子带为ˆp

    ˆp:ηζˆp (16)

    其中,ˆp{P,P+1,···,0,1,···,P},即为目标信号所在的子带。

    于是,利用ηζˆp可以确定出第ˆp个子带的接收回波的滤波数据Xˆp

    利用第ˆp个子带的滤波器对所接收到的参考数据˜yk(n)进行滤波处理,即

    ˜Xˆp,k=hˆp(l)˜yk(n),k=1,2,···,K (17)

    参考数据第ˆp个子带的滤波数据˜Xˆp,k的相关矩阵˜Cˆp,k

    ˜Cˆp,k=E[Xˆp,kXHˆp,k],k=1,2,···,K (18)

    借助式(11)、式(12)和式(13),对˜Cˆp,k进行特征值分解,并求得第ˆp个子带第k个距离单元的最大特征值˜ξk,则所有K个参考单元中最大特征值˜ξk的算术平均值为

    δ=1KKk=1˜ξk (19)

    同理,待检测单元第ˆp个子带的滤波数据Xˆp的相关矩阵Cˆp

    Cˆp=E[XˆpXHˆp] (20)

    依据相同的处理,对Cˆp进行特征值分解,并求得该第ˆp个子带的最大特征值为ξ

    最后,依据矩阵CFAR的原理,FD-MEMD检测统计量可表示为

    ξδ (21)

    其中,\hat \eta 为FD-MEMD的检测阈值。当检测统计量大于阈值\hat \eta 时,判断为目标出现在检测单元中,否则判为目标在检测单元中未出现。

    该节主要基于真实海杂波数据进行了仿真实验,验证本文提出的FD-MEMD算法的有效性。在仿真实验中,使用由加拿大McMaster大学提供的IPIX海杂波数据(19980205_185111_ANTSTEP.CDF)。该数据由27个距离单元组成,每个距离单元包含60000个脉冲数据。对于这个数据集,本文获取实测数据的多普勒频谱图,如图2所示,经过FFT变换,估计海杂波的平均多普勒频率约为–222 Hz。考虑到目标多普勒在杂波频谱内外的情况,利用式(2),添加仿真目标之后的海杂波和目标的混合频谱图如图3所示。

    图 2  海杂波频谱图
    图 3  海杂波和目标的混合频谱图

    由于有限的实测数据,在本文的仿真实验中,虚警概率被设置为{10^{{\rm{ - }}3}},脉冲数N = 8,脉冲重复频率为1000 Hz,雷达射频频率{{F}}为9.39 GHz。参考单元个数K = 16,极化方式为HH, HV, VH和VV。对于滤波器组仿真模型,P = 8, L = 25。对于目标仿真模型,\rho 取0.96,整数W取500。考虑了目标多普勒频率在杂波频谱内外的两种情况,利用公式{{f_{\rm{d}}}} = \dfrac{{vF}}{\rm{c}},目标多普勒频率分别被设置为–222 Hz和215 Hz。其中{{f_{\rm{d}}}}是目标多普勒频率,v是目标相对雷达的径向速度,F是雷达射频,{\rm{c}}是电磁波的传播速度。

    图4(a)图4(c)图4(e)图4(g)对应于杂波频谱与目标频谱重叠的检测场景。可以看出FD-MEMD方法的检测性能明显优于ANMF, sub-ANMF以及P-MEMD。值得注意的是,上述图中的FD-MEMD方法相对于P-MEMD方法的性能有明显的改善,这主要是因为P-MEMD利用对检测单元和参考单元接收到的数据进行FFT变换,将其在频域上分解成N个多普勒频段,利用峰值搜索找到目标所在的多普勒频段,从而抑制杂波。而FD-MEMD方法利用滤波器组将接收到的数据分解成2P+1个子带信号,通过查找最大特征值的最大值所在的子带信号从而确定目标所在的子带,目标子带之外的杂波全被滤除,相对于P-MEMD方法,杂波抑制更明显。图4(b)图4(d)图4(f)图4(h)描述了目标多普勒频率在杂波频谱之外的情况下的检测性能的比较。可以看出,FD-MEMD方法的检测性能同样优于ANMF, sub-ANMF和P-MEMD。总之,FD-MEMD方法在目标多普勒频率位于杂波频谱之内和之外的两种场景下都具有稳健的性能,更适用于在实际环境中应用。

    图 4  FD-MEMD, P-MEMD, sub-ANMF和ANMF方法在实测数据4种极化方式的检测性能比较图

    本文主要解决海杂波背景下海面目标检测问题,旨在改善目标多普勒频率严重偏离杂波频谱时矩阵CFAR检测性能较低的状况。本文依据目标回波的能量在频域上相对集中而海杂波能量在频域上相对分散这一特点,提出一种基于子带分解的矩阵CFAR最大特征值检测方法。该方法有效地抑制了杂波,提高了信杂比及检测性能。仿真结果表明,该方法不仅在强杂波的环境下具有良好的检测性能,在目标多普勒频率偏离杂波频谱的情况下也具有较好的检测性能,能够在实际海洋环境中应用。

  • 图  1  本文提出的神经网络框架

    图  2  两种残差网络块块的结构图

    图  3  上采样恢复尺度模块

    图  4  金字塔池化模块

    表  1  深度图像的预测值与真实值之间的误差和相关性

    RMSE Lg Lg_rms a1 a2 a3
    Fine_coarse[17] 2.6440 0.272 0.167 0.488 0.948 0.972
    ResNet50[18] 2.4618 0.243 0.126 0.674 0.943 0.972
    ResNet_fcn50[19] 2.5284 0.247 0.134 0.636 0.950 0.979
    D_U[20] 2.8246 0.305 0.127 0.634 0.916 0.945
    UVD_fcn[21] 2.6507 0.264 0.145 0.566 0.945 0.970
    本文方法 2.3504 0.230 0.120 0.684 0.949 0.975
    下载: 导出CSV

    表  2  不同恢复尺度方法的结果

    RMSE Lg Lg_rms a1 a2 a3
    使用反卷积层恢复尺度的方法 2.3716 0.237 0.125 0.673 0.946 0.973
    使用卷积块恢复尺度的方法 2.4724 0.240 0.129 0.646 0.948 0.974
    使用上采样层恢复尺度的方法 2.3504 0.230 0.120 0.684 0.949 0.975
    下载: 导出CSV
  • LUO Yue, REN J, LIN Mude, et al. Single view stereo matching[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 155–163.
    SILBERMAN N, HOIEM D, KOHLI P, et al. Indoor segmentation and support inference from RGBD images[C]. The 12th European Conference on Computer Vision, Florence, Italy, 2012: 746–760.
    REN Xiaofeng, BO Liefeng, and FOX D. RGB-(D) scene labeling: Features and algorithms[C]. 2012 IEEE Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 2759–2766.
    SHOTTON J, SHARP T, KIPMAN A, et al. Real-time human pose recognition in parts from single depth images[J]. Communications of the ACM, 2013, 56(1): 116–124. doi: 10.1145/2398356
    ALP GÜLER R, NEVEROVA N, and KOKKINOS I. Densepose: Dense human pose estimation in the wild[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 7297–7306.
    LUO Wenjie, SCHWING A G, and URTASUN R. Efficient deep learning for stereo matching[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 5695–5703.
    FLINT A, MURRAY D, and REID I. Manhattan scene understanding using monocular, stereo, and 3D features[C]. 2011 International Conference on Computer Vision, Barcelona, Spain, 2011: 2228–2235.
    KUNDU A, LI Yin, DELLAERT F, et al. Joint semantic segmentation and 3D reconstruction from monocular video[C]. The 13th European Conference on Computer Vision, Zurich, Switzerland, 2014: 703–718.
    YAMAGUCHI K, MCALLESTER D, and URTASUN R. Efficient joint segmentation, occlusion labeling, stereo and flow estimation[C]. The 13th European Conference on Computer Vision, Zurich, Switzerland, 2014: 756–771.
    BAIG M H and TORRESANI L. Coupled depth learning[C]. 2016 IEEE Winter Conference on Applications of Computer Vision, Lake Placid, USA, 2016: 1–10.
    EIGEN D and FERGUS R. Predicting depth, surface normals and semantic labels with a common multi-scale convolutional architecture[C]. 2015 IEEE International Conference on Computer Vision, Santiago, Chile, 2015: 2650–2658.
    SCHARSTEIN D and SZELISKI R. A taxonomy and evaluation of dense two-frame stereo correspondence algorithms[J]. International Journal of Computer Vision, 2002, 47(1/3): 7–42. doi: 10.1023/A:1014573219977
    UPTON K. A modern approach[J]. Manufacturing Engineer, 1995, 74(3): 111–113. doi: 10.1049/me:19950308
    FLYNN J, NEULANDER I, PHILBIN J, et al. Deep stereo: Learning to predict new views from the world's imagery[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 5515–5524.
    SAXENA A, CHUNG S H, and NG A Y. 3-D depth reconstruction from a single still image[J]. International Journal of Computer Vision, 2008, 76(1): 53–69.
    KARSCH K, LIU Ce, and KANG S B. Depth transfer: Depth extraction from video using non-parametric sampling[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(11): 2144–2158. doi: 10.1109/TPAMI.2014.2316835
    EIGEN D, PUHRSCH C, and FERGUS R. Depth map prediction from a single image using a multi-scale deep network[C]. The 27th International Conference on Neural Information Processing Systems, Montréal, Canada, 2014: 2366–2374.
    LAINA I, RUPPRECHT C, BELAGIANNIS V, et al. Deeper depth prediction with fully convolutional residual networks[C]. The 4th International Conference on 3D Vision, Stanford, USA, 2016: 239–248.
    FU Huan, GONG Mingming, WANG Chaohui, et al. Deep ordinal regression network for monocular depth estimation[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 2002–2011.
    DIMITRIEVSKI M, GOOSSENS B, VEELAERT P, et al. High resolution depth reconstruction from monocular images and sparse point clouds using deep convolutional neural network[J]. SPIE, 2017, 10410: 104100H.
    MANCINI M, COSTANTE G, VALIGI P, et al. Toward domain independence for learning-based monocular depth estimation[J]. IEEE Robotics and Automation Letters, 2017, 2(3): 1778–1785. doi: 10.1109/LRA.2017.2657002
    GARG R, VIJAY KUMAR B G, CARNEIRO G, et al. Unsupervised CNN for single view depth estimation: Geometry to the rescue[C]. The 14th European Conference on Computer Vision, Amsterdam, The Netherlands, 2016: 740–756.
    KUZNIETSOV Y, STUCKLER J, and LEIBE B. Semi-supervised deep learning for monocular depth map prediction[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 6647–6655.
    GODARD C, MAC AODHA O, and BROSTOW G J. Unsupervised monocular depth estimation with left-right consistency[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 6602–6611.
    ZORAN D, ISOLA P, KRISHNAN D, et al. Learning ordinal relationships for mid-level vision[C]. 2015 IEEE International Conference on Computer Vision, Santiago, Chile, 2015: 388–396.
    CHEN Weifeng, FU Zhao, YANG Dawei, et al. Single-image depth perception in the wild supplementary Materia[C]. The 30th Conference on Neural Information Processing Systems, Barcelona, Spain, 2016: 730–738.
    HE Kaiming, ZHANG Xiangyu, Ren Shaoqing, et al. Deep residual learning for image recognition[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778.
    ZHAO Hengshuang, SHI Jianping, QI Xiaojuan, et al. Pyramid scene parsing network[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 6230–6239.
    ZHOU Bolei, KHOSLA A, LAPEDRIZA A, et al. Object detectors emerge in deep scene CNNs[J]. arXiv preprint arXiv: 1412.6856, 2014.
    SZEGEDY C, LIU Wei, JIA Yangqing, et al. Going deeper with convolutions[C]. 2015 IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 1–9.
    UHRIG J, SCHNEIDER N, SCHNEIDER L, et al. Sparsity invariant CNNs[C]. 2017 International Conference on 3D Vision, Qingdao, China, 2017: 11–20.
    KINGMA D P and BA J. Adam: A method for stochastic optimization[J]. arXiv preprint arXiv: 1412.6980, 2014.
  • 期刊类型引用(1)

    1. 胡哲,王宁,高东明,邓杰,黄永立. 考虑海杂波特征的SAR图像海上运动小目标检测方法. 电子设计工程. 2024(07): 173-176+181 . 百度学术

    其他类型引用(5)

  • 加载中
图(4) / 表(2)
计量
  • 文章访问数:  3029
  • HTML全文浏览量:  1487
  • PDF下载量:  75
  • 被引次数: 6
出版历程
  • 收稿日期:  2018-10-12
  • 修回日期:  2019-05-21
  • 网络出版日期:  2019-05-28
  • 刊出日期:  2019-10-01

目录

/

返回文章
返回