Loading [MathJax]/jax/output/HTML-CSS/jax.js
高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于改进循环生成式对抗网络的图像风格迁移

张惊雷 厚雅伟

章毓晋. 客观的图象质量测度及其在分割评价中的应用[J]. 电子与信息学报, 1997, 19(1): 1-5.
引用本文: 张惊雷, 厚雅伟. 基于改进循环生成式对抗网络的图像风格迁移[J]. 电子与信息学报, 2020, 42(5): 1216-1222. doi: 10.11999/JEIT190407
Zhang Yujin. OBJECTIVE IMAGE QUALITY MEASURES AND THEIR APPLICATIONS IN SEGMENTATION EVALUATION[J]. Journal of Electronics & Information Technology, 1997, 19(1): 1-5.
Citation: Jinglei ZHANG, Yawei HOU. Image-to-image Translation Based on Improved Cycle-consistent Generative Adversarial Network[J]. Journal of Electronics & Information Technology, 2020, 42(5): 1216-1222. doi: 10.11999/JEIT190407

基于改进循环生成式对抗网络的图像风格迁移

doi: 10.11999/JEIT190407
详细信息
    作者简介:

    张惊雷:男,1969,教授,博士,研究方向为模式识别、图像处理等

    厚雅伟:男,1995,硕士生,研究方向为图像处理、目标检测等

    通讯作者:

    张惊雷 zhangjinglei@tjut.edu.cn

  • 中图分类号: TN911.73; TP317

Image-to-image Translation Based on Improved Cycle-consistent Generative Adversarial Network

  • 摘要:

    图像间的风格迁移是一类将图片在不同领域进行转换的方法。随着生成式对抗网络在深度学习中的快速发展,其在图像风格迁移领域中的应用被日益关注。但经典算法存在配对训练数据较难获取,生成图片效果差的缺点。该文提出一种改进循环生成式对抗网络(CycleGAN++),取消了环形网络,并在图像生成阶段将目标域与源域的先验信息与相应图片进行纵深级联;优化了损失函数,采用分类损失代替循环一致损失,实现了不依赖训练数据映射的图像风格迁移。采用CelebA和Cityscapes数据集进行实验评测,结果表明在亚马逊劳务平台感知研究(AMT perceptual studies)与全卷积网络得分(FCN score)两个经典测试指标中,该文算法比CycleGAN, IcGAN, CoGAN, DIAT等经典算法取得了更高的精度。

  • 无线目标定位技术在军民领域都发挥着重要作用,近年来成为国内外研究热点。在定位理论研究中,以点源模型为基础的定位算法具有简单的计算方法和较高精度的定位结果[1,2]。但在实际移动通信、雷达和声呐等应用领域中,受复杂环境下的散射、反射等因素影响,大量多径信号存在,导致信号源在空间发生一定的角度扩展,具有了比点源更复杂的空间分布特性,在这种情况下,需要将目标信源建立为一个分布源模型[3]。如果此时仍使用点源模型进行定位,将导致算法性能恶化,甚至无法提供可靠的定位结果。

    分布源定位作为复杂电磁环境下目标位置估计的重点和难点问题,近年来已得到较为广泛的研究,其中传统算法首先估计目标信号的AOA, TOA等定位参数,然后根据得到的定位参数计算目标位置。为便于分析分布源定位问题,角度密度函数概念被提出用于描述信号的空间分布特性,体现接收信号角度扩展状态[4]。基于此理论,子空间类算法[5]、波束形成类算法[6]、最大似然类算法[7]和稀疏重构类算法[8]等分布源参数求解算法被相继提出。随着非圆信号的普遍应用,利用其特征提高分布源参数估计精度的方法也得到研究。其中,文献[9]给出了一种基于互相关矩阵的分布式非圆信号的1维角度估计算法。文献[10]给出了一种基于稀疏表示的非圆分布源角度估计算法。文献[11]给出了一种基于自动匹配的低维非圆分布源2维角度估计算法,上述算法在利用非圆特征后,均获得了更好的参数估计效果。

    通过上述方法获得分布源定位参数估计结果后,需要通过Chan算法、泰勒级数展开等方法完成目标位置估计。虽然这种先进行参数估计然后再进行位置解算的两步定位方法简单便于实现,但仍存在几点不足:一是在参数估计阶段忽略了信号来自于同一目标这一先验信息,观测站之间缺乏限制和联系,损失了部分位置信息;二是分布源参数估计精度易受复杂环境影响,第1步引进的参数估计误差将影响第2步位置解算精度,误差的传递和累积不可避免。因此,这种两步定位方法是一种次优估计,不能获得最佳的定位精度[12]。与两步定位算法相比,近些年被提出的数据域直接定位算法(Direct Position Determination, DPD)避免了参数估计和位置解算分布计算带来的缺陷,利用采样信号直接估计目标位置能够获得更好定位效果[13,14]。由于DPD算法的优良性能,其在阵列信号处理中得到了广泛应用[15]。由于DPD算法可以有效利用信号的波形特征,因此Wang等人[16]提出了基于恒模信号特征的直接定位算法,Lu等人[17]提出了基于OFDM信号特征的DPD算法,都取得了较好的定位效果。在针对非圆信号研究中,Yin等人[18]给出了基于非圆信号特征的扩展子空间数据融合直接定位算法,定位性能较圆信号模型下具有较大提升。将直接定位思想引入到分布源定位中,Shalom等人[19]提出了一种圆信号条件下分布源直接定位算法,给出了满足高斯扩展条件下的分布源定位模型,并通过最大似然方法求解,与两步定位方法相比,提升了分布源目标定位精度。然而算法计算复杂,且仅针对高斯分布模型的相干分布源适用,并缺少了对信号特征的利用,定位性能仍有提升空间。

    综上所述,两步定位方法虽然利用非圆信号特征提高了参数估计精度,但受制于其固有缺陷,并不能获得最优的定位精度。而现有直接定位算法在解决分布源定位时,缺乏对信号特征的利用,依赖于分布模型,定位性能仍有待提高。为此,本文在现有算法基础上,针对相干分布源提出一种基于对称旋转不变性的非圆信号数据域融合直接定位算法,不需要依赖分布模型,且利用非圆信号特征进一步提高了定位精度,提升算法实用价值。

    根据散射特性不同,分布源主要分为相干分布源和非相干分布源。由于在低仰角雷达、移动通信等环境下,信号一般是相干的,因此本文仅考虑相干分布源的定位问题。假设L个观测站和P个分布源目标均为静止状态,观测站由(2M+1)元直线阵组成,阵元间距为dm,且观测站已完成时间同步。观测站第1个阵元的坐标为ol=(ol,x,ol,y),l=1,2,···,L,目标坐标为up=(up,x,up,y),p=1,2,···,P,不同目标信号之间相互独立。第l个观测站的接收信号rl可以表示为

    rl(t)=Pp=1ππbl(ϕl,p(up))sp(ϕl,p(up)θl,p(up),t)dϕl,p(up)+wl(t),0tT (1)

    其中,bl(ϕl,p(up))为阵列导向矢量,ϕl,p(up)表示具有分布特性的入射角,sp(ϕl,p(up)θl,p(up),t)为角信号密度函数,wl(t)为零均值高斯白噪声。θl,p(up)为目标的中心波达方向,由θl,p(up)=arctan(up,yol,y)/(up,xol,x)给出。

    在相干分布源模型下,角信号密度函数可以写为

    sp(ϕl,p(up)θl,p(up),t)=sp(t)gp(ϕl,p(up)θl,p(up)) (2)

    其中,gp(ϕl,p(up)θl,p(up))是一个以θl,p(up)为对称中心的单峰确定性分布函数,且满足

    ππgp(ϕl,p(up)θl,p(up))dϕl,p(up)=1 (3)

    设扩展阵列矢量cl

    cl,p(up)=ππbl,p(ϕl,p(up))gp(ϕl,p(up)θl,p(up))dϕl,p(up) (4)

    则经过离散采样后,观测信号可以表示为

    rl[n]=Pp=1cl,p(up)sp[n]+wl[n],n=1,2,···,N (5)

    其中,N表示采样点数。令s=[s1,s2,···,sP]T, Cl(˜u)=[cl,1(u1),cl,2(u2),···,cl,P(uP)],其中˜u=[uT1,uT2,···,uTP]T代表P个目标的位置参数矢量。则rl可以表示为

    rl=Cl(˜u)s+wl (6)

    根据统计特性是否具有旋转不变性,信号可分圆信号与非圆信号。其中非圆信号有式(7)的性质

    E[s2p]=ρejφpE[|sp|2] (7)

    其中,0ρ1为非圆率,φp为非圆相位。由于BPSK, MASK, AM等常用信号的非圆率均为1,因此本文主要研究ρ=1的非圆信号定位问题。结合式(7),由于信号之间互相独立,可以得到

    Rs=E[ssT]=ΦφRs (8)

    其中,Φφ=diag{[ejφ1,ejφ2,···,ejφP]},对角线元素由各个目标非圆相位组成。相应地可以得到

    Rl=E[rlrTl]=Cl(˜u)RsCHl(˜u) (9)

    为了利用上述非圆信息,令˜rl=[rTl,rHl]T,则有

    ˜Rl=E[˜rl˜rHl]=[RlRlRlRl] (10)

    其中,Rl=E[rlrHl]=Cl(˜u)RsCHl(˜u), []H表示共轭转置矩阵,[]表示共轭矩阵。对˜Rl进行子空间分解,得到

    ˜Rl=Ul,sΣl,sUHl,s+σ2l,wUl,wUHl,w (11)

    其中,Ul,s为信号子空间,Ul,w为噪声子空间。下面将基于˜Rl给出联合多个观测站接收信号的直接定位方法。

    根据第2节提出的定位模型,文献[19]基于高斯分布模型给出了一种最大似然直接定位算法,计算复杂度较高。文献[20]给出了一种基于子空间数据融合直接定位算法,但并未避免对模型的依赖。为了提升算法实用性,避免对分布模型的依赖,本节将提出一种基于旋转不变性的数据域融合直接定位算法,可以处理未知分布模型的目标定位问题,下面详细介绍算法原理。

    首先根据阵列理论,对于任意的中心对称阵列,以中心阵元为参考,阵列导向矢量bl,p具有旋转不变性,即满足式(12)

    Γbl,p=Πpbl,p (12)

    其中,Γ为反转矩阵,其反对角线元素全为1,其余元素为0,即

    Γ=[00100100] (13)

    其中,0表示全0矩阵。Πp为对角矩阵

    Πp=diag{exp(j4πdmcos(θl,p(up)))},m=[M,M+1,···,0,1,···,M1,M] (14)

    由于分布函数gp是一个以θl,p(up)为对称中心的单峰确定性分布函数,在小角度扩展条件下,设ϕl,p(up)=θl,p(up)+˜θ,其中˜θ为到达角相对于中心角的偏移量。则式(4)可以表示为

    cl,p(up,σp)=ππbl,p(θl,p(up)+˜θ)gp(˜θ,up)d˜θ (15)

    从而可以得到cl,p(up,σp)的近似表达式为

    mexp(j2πdmcos(θl,p(up)))ππexp(j2πdm˜θsin(θl,p(up)))gp(˜θ,up)d˜θ=[bl,p(θl,p(up))]m[yp(up)]m (16)

    其中,

    [yp(up)]m=ππexp(j2πdm˜θsin(θl,p(up)))gp(˜θ,up)d˜θ (17)

    由于gp(˜θ,up)为单峰对称函数,关于˜θ偶对称,因此可以得到如式(18)的对称性

    [yp(up)]m=[yp(up)](m) (18)

    结合bl,p的旋转不变性,可以得到cl,p(up,σp)具有相同的性质,即Γcl,p=Πpcl,p。根据式(10),由于利用非圆特性后,协方差矩阵维度得到了扩展,令

    cNCl,p(up,σp,φp)=[cl,p(up,σp)cl,p(up,σp)ejφp] (19)

    cNCl,p(up,σp,φp)具有如bl,p同样的旋转不变关系,即满足

    ˜ΓcNCl,p=˜ΠpcNCl,p (20)

    其中,

    ˜Γ=[Γ00Γ],˜Πp=[Πp00Πp] (21)

    CNC,l=[cNCl,1,cNCl,2,···,cNCl,P],从而式(10)可以表示为

    ˜Rl=E[˜rl˜rHl]=CNC,lRsCHNC,l+σ2l,wI2M (22)

    根据子空间特性,信号子空间Ul,x的列向量张成的空间与CNC,l的列向量张成的空间相同,因此存在P阶非奇异矩阵D使式(23)成立

    Ul,x=CNC,lD (23)

    为利用cNCl,p的旋转不变性,构造函数

    {{F}}({{u}}) = {{\tilde{{{Γ}}}  {{U}}}_{l,x}^{} - {{Q}}({{u}}){{U}}_{l,x}^{} (24)

    其中,Q(u)

    Q(u)=[diag{exp(j4πdmcos(θl,p(u)))}00diag{exp(j4πdmcos(θl,p(u)))}],m=[M,M+1,···,0,1,···,M1,M] (25)

    根据式(20),式(24)可以表示为

    F(u)=˜ΓCNC,lDQ(u)CNC,lD=[(˜Π1Q(u))cNCl,1,(˜Π2Q(u))cNCl,2,···,(˜ΠPQ(u))cNCl,P]D (26)

    根据式(26),如果Q(u)=˜Πp,则F(u)的第p列为0,从而F(u)为缺秩矩阵,此时det{FH(u)F(u)}= 0,因此可以利用此特点得到目标的位置估计为

    {{{{\hat}}^\!\!\!\!\!\!\, { u}}} = \mathop {\arg \min }\limits_{({{u}})} \; \; \; 1 \biggr/\sum\limits_{l = 1}^L {\det \{ {{F}}_{}^{\rm{H}}({{u}}){{F}}({{u}})\}} (27)

    综上所述,在利用式(27)估计目标位置时,由于利用了旋转不变关系,所以并不需要已知分布源的具体分布模型,避免了对分布模型的依赖,提高了算法的适用范围,同时通过利用非圆信号特征扩展了子空间维度,在同样阵列条件下,可以同时对更多目标展开定位。仿真实验中将会对算法性能进一步验证。由于利用了非圆特性和旋转不变性,为便于描述,简称本文算法为SSI-DPD算法。根据上述原理分析,SSI-DPD算法流程为

    输入: 观测站接收数据:rl,l=1,2,···,L;其他参数:ul,fc,N,M,P

    步骤1 构造接收数据˜rl=[rTl,rHl]T,计算自相关矩阵{\hat \tilde{ R}}_l^{} = 1\Bigr/N \displaystyle\sum\nolimits_{n = 1}^N {{\tilde{ r}}_l^{}(n){\tilde{ r}}_l^{\rm{H}}(n)}

    步骤2 对{\hat \tilde{ R}}_l^{}进行特征值分解,获得信号子空间Ul,w

    步骤3 确定位置的搜索区间和搜索间隔,根据式(25)计算每一个位置对应矩阵Q(u)

    步骤4 根据式(24)计算F(u)

    步骤5 融合所有观测站数据,利用式(27)估计目标位置ˆu

    为了显示与现有算法的性能差异,本节实验的对比算法主要包括:(1)本文提出的利用旋转不变关系的非圆相干分布源直接定位算法(简称SSI-DPD算法);(2)文献[20]给出的在已知高斯分布模型下的相干分布源子空间类直接定位算法(为做对比,加入非圆信息,简称GSDF-DPD算法);(3)文献[18]提出的点源模型下非圆信号子空间直接定位算法(简称ESDF-DPD算法);(4)基于圆信号的相干分布源直接定位算法(简称CSDF-DPD算法)。

    假设观测站和目标均位于2维平面内,观测站个数L=4,每个观测站由M=7元均匀线阵组成,阵元间距为半波长,观测站坐标分别为o1=(1500,2000) m, o2=(1500,2000)m, o3=(1500,2000) m, o4=(1500,2000) m。目标发送信号采用高斯随机信号,载波频率fp=1 GHz。观测站采样频率为fs=1 MHz,采样点数为N=200。假设存在两个分布源,分别位于u1=(1000,0) m和u2=(500,0) m,空间散射体扩展半径方差为cσ=[200,200]m,非圆信号相位为gφ=[π/3,π/5]

    为了验证所提算法对分布源的定位性能,首先假设两个分布源均满足高斯分布。在信噪比SNR=10 dB条件下,得到各算法的空间谱图如图1所示,其中x轴和y轴为位置坐标,z轴为归一化的目标函数值。从图1可以看出,虽然ESDF-DPD算法利用了非圆信号特征,但是基于点源模型,因此峰值不够尖锐。CSDF-DPD基于分布源模型,算法能够对两个目标进行有效定位,但是没有利用非圆特性,谱峰平缓。与之相比,GSDF-DPD算法利用了非圆特性,且基于高斯分布源模型获得,因此定位精度得到提升。与GSDF-DPD算法相比,SSI-DPD算法不需已知分布源模型,达到了与其相同的定位效果,证明了算法的有效性。

    图 1  各算法空间谱图

    为了进一步说明算法的定位性能,进行100次蒙特卡洛仿真实验,将不同算法的定位均方根误差(Root Mean Square Error, RMSE)随信噪比的变化趋势进行对比,结果如图2所示。从图中可以看出,在低信噪比下,由于噪声是影响定位精度的主要因素,基于非圆信号特征的3种算法性能基本相同。随着信噪比的提高,由于ESDF-DPD算法基于点源模型,存在固有的系统误差,因此定位性能不会随信噪比的提升有显著提高。CSDF-DPD算法虽然基于分布源模型,但是未利用非圆特征,性能较差。与之相比,GSDF-DPD和SSI-DPD算法定位精度更高,且性能基本一致,随信噪比的提高,定位精度不断提升。图1图2的仿真结果说明本文给出的SSI-DPD算法不仅能够解决分布源定位问题,而且达到了与已知分布模型算法一致的定位性能,证明了本文算法的正确性。

    图 2  算法定位均方根误差随信噪比的变化趋势

    为了验证算法在多类型分布源混合场景下的定位性能,假设目标1为高斯分布源,目标2为均匀分布源,在SNR=10 dB条件下,得到GSDF-DPD和SSI-DPD算法的空间谱图如图3所示,进行100次蒙特卡洛仿真实验,得到估计误差随信噪比的变化趋势如图4所示。从仿真结果可以看出,由于GSDF-DPD算法根据高斯分布模型得到,因此只能解决高斯分布源定位问题,而针对均匀分布源,GSDF-DPD算法由于存在模型误差,定位性能较差。而SSI-DPD算法定位性能明显优于GSDF-DPD算法,对两种分布模型目标均能得到高精度定位结果。上述两个仿真说明,本文所提SSI-DPD算法不再依赖分布模型,针对分布源混合存在场景,依然能够有效定位,且具有较高的定位精度,提升了算法实用价值。

    图 3  算法空间谱图
    图 4  算法定位性能随信噪比的变化趋势

    信号采样点数对算法定位性能有较大影响,在SNR=5 dB条件下,图5给出了算法定位误差随采样点数的变化趋势,其中两个目标均为高斯分布源。从图中可以看到,受限于模型误差,ESDF-DPD算法定位误差随采样点数的增加性能提升有限。SSI-DPD算法定位误差随采样点数的增加下降明显,与GSDF-DPD算法性能一致,且一直好于CSDF-DPD和ESDF-DPD算法。仿真结果表明,低采样点条件下SSI-DPD算法可以达到高采样点条件下CSDF-DPD算法的定位性能,即实际应用中缩短了观测时间,可以增加目标定位的时效性。

    图 5  算法定位性能随快拍数的变化趋势

    相干分布源定位是复杂环境下的难点问题,为了进一步提高分布源定位精度,本文提出了基于对称旋转不变关系的直接定位算法,并结合了非圆信号特征提高目标定位性能。仿真实验给出了所提算法与其他定位算法的性能对比分析,证明所提算法定位精度更高,具有一定实用价值。

  • 图  1  CycleGAN中单向GAN网络结构图

    图  2  CycleGAN++的网络结构

    图  3  CycleGAN++的生成网络

    图  4  CycleGAN++的判别网络

    图  5  CycleGAN与CycleGAN++的训练过程对比

    图  6  CycleGAN++在人物性别转换领域下的可视化结果

    图  7  CycleGAN++与原算法在CelebA测试集下的对比

    图  8  CycleGAN++与原算法在Cityscapes测试集下的对比

    表  1  CycleGAN+与原算法的AMT测试结果对比(%)

    方法男性→女性女性→男性照片→标签标签→照片
    CycleGAN24.6±2.321.1±1.826.8±2.823.2±3.4
    CycleGAN+29.5±3.229.2±4.127.8±2.228.2±2.4
    下载: 导出CSV

    表  2  CycleGAN+与原算法的FCN得分结果对比

    方法每像素精度每类精度IoU分类
    CycleGAN0.520.170.11
    CycleGAN+0.600.210.16
    下载: 导出CSV

    表  3  CycleGAN++与CycleGAN+的AMT感知研究结果对比(%)

    方法男性→女性女性→男性照片→标签标签→照片
    CycleGAN+29.5±3.229.2±4.127.8±2.228.2±2.4
    本文CycleGAN++31.4±3.832.6±4.730.1±2.630.9±2.7
    下载: 导出CSV

    表  4  CycleGAN++与CycleGAN+的FCN得分结果对比

    方法每像素精度每类精度IoU分类
    CycleGAN+0.600.210.16
    本文CycleGAN++0.690.270.23
    下载: 导出CSV

    表  5  各算法的AMT感知研究结果对比(%)

    方法男性→女性女性→男性照片→标签标签→照片
    CycleGAN[12]24.6±2.321.1±1.826.8±2.823.2±3.4
    IcGAN[22]23.2±2.522.4±2.922.8±2.619.8±1.9
    CoGAN[10]6.8±1.15.1±0.90.6±0.50.9±0.5
    DIAT[21]31.1±3.930.2±3.628.4±2.927.2±2.5
    本文CycleGAN++31.4±3.832.6±4.730.1±2.630.9±2.7
    下载: 导出CSV

    表  6  各算法的FCN得分结果对比

    方法每像素精度每类精度IoU分类
    CycleGAN[12]0.520.170.11
    IcGAN[22]0.430.110.07
    CoGAN[10]0.400.100.06
    DIAT[21]0.680.240.21
    本文CycleGAN++0.690.270.23
    下载: 导出CSV
  • HERTZMANN A, JACOBS C E, OLIVER N, et al. Image analogies[C]. The 28th Annual Conference on Computer Graphics and Interactive Techniques, New York, USA, 2001: 327–340. doi: 10.1145/383259.383295.
    GOODFELLOW I J, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]. The 27th International Conference on Neural Information Processing Systems, Montreal, Canada, 2014: 2672–2680.
    RADFORD A, METZ L, and CHINTALA S. Unsupervised representation learning with deep convolutional generative adversarial networks[EB/OL]. https://arxiv.org/abs/1511.06434, 2015.
    ARJOVSKY M, CHINTALA S, and BOTTOU L. Wasserstein GAN[EB/OL]. https://arxiv.org/abs/1701.07875, 2017.
    GULRAJANI I, AHMED F, ARJOVSKY M, et al. Improved training of wasserstein GANs[C]. The 31st International Conference on Neural Information Processing Systems, Red Hook, USA, 2017: 5769–5779.
    ISOLA P, ZHU Junyan, ZHOU Tinghui, et al. Image-to-image translation with conditional adversarial networks[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 5967–5976. doi: 10.1109/CVPR.2017.632.
    MIRZA M and OSINDERO S. Conditional generative adversarial nets[EB/OL]. https://arxiv.org/abs/1411.1784, 2014.
    ROSALES R, ACHAN K, and FREY B. Unsupervised image translation[C]. The 9th IEEE International Conference on Computer Vision, Nice, France, 2003: 472–478. doi: 10.1109/ICCV.2003.1238384.
    LIU Mingyu, BREUEL T, KAUTZ J, et al. Unsupervised image-to-image translation networks[C]. The 31st Conference on Neural Information Processing Systems, Long Beach, USA, 2017: 700–708.
    LIU Mingyu and TUZEL O. Coupled generative adversarial networks[C]. The 30th Conference on Neural Information Processing Systems, Barcelona, Spain, 2016: 469–477.
    KINGMA D P and WELLING M. Auto-encoding variational bayes[EB/OL]. https://arxiv.org/abs/1312.6114, 2013.
    ZHU Junyan, PARK T, ISOLA P, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]. 2017 IEEE International Conference on Computer Vision, Venice, Italy, 2017: 2242–2251. doi: 10.1109/ICCV.2017.244.
    KIM T, CHA M, KIM H, et al. Learning to discover cross-domain relations with generative adversarial networks[C]. The 34th International Conference on Machine Learning, Sydney, Australia, 2017: 1857–1865.
    YI Zili, ZHANG Hao, TAN Ping, et al. DualGAN: Unsupervised dual learning for image-to-image translation[C]. 2017 IEEE International Conference on Computer Vision, Venice, Italy, 2017: 2868–2876. doi: 10.1109/ICCV.2017.310.
    BOUSMALIS K, SILBERMAN N, DOHAN D, et al. Unsupervised pixel-level domain adaptation with generative adversarial networks[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 95–104. doi: 10.1109/CVPR.2017.18.
    SHRIVASTAVA A, PFISTER T, TUZEL O, et al. Learning from simulated and unsupervised images through adversarial training[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 2242–2251. doi: 10.1109/CVPR.2017.241.
    TAIGMAN Y, POLYAK A, and Wolf L. Unsupervised cross-domain image generation[EB/OL]. https://arxiv.org/abs/1611.02200, 2016.
    LI Chuan and WAND M. Precomputed real-time texture synthesis with markovian generative adversarial networks[C]. The 14th European Conference on Computer Vision, Amsterdam, The Netherlands, 2016: 702–716. doi: 10.1007/978-3-319-46487-9_43.
    LIU Ziwei, LUO Ping, WANG Xiaogang, et al. Deep learning face attributes in the wild[C]. 2015 IEEE International Conference on Computer Vision, Santiago, Chile, 2015: 3730–3738. doi: 10.1109/ICCV.2015.425.
    KINGMA D P and BA J. Adam: A method for stochastic optimization[EB/OL]. https://arxiv.org/abs/1412.6980, 2014.
    LI Mu, ZUO Wangmeng, and ZHANG D. Deep identity-aware transfer of facial attributes[EB/OL]. https://arxiv.org/abs/1610.05586, 2016.
    PERARNAU G, VAN DE WEIJER J, RADUCANU B, et al. Invertible conditional GANs for image editing[EB/OL]. https://arxiv.org/abs/1611.06355, 2016.
  • 加载中
图(8) / 表(6)
计量
  • 文章访问数:  5054
  • HTML全文浏览量:  2447
  • PDF下载量:  315
  • 被引次数: 0
出版历程
  • 收稿日期:  2019-06-05
  • 修回日期:  2019-12-23
  • 网络出版日期:  2019-12-31
  • 刊出日期:  2020-06-04

目录

/

返回文章
返回