Loading [MathJax]/jax/output/HTML-CSS/jax.js
高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于分类误差一致性准则的自适应知识迁移

梁爽 杭文龙 冯伟 刘学军

梁爽, 杭文龙, 冯伟, 刘学军. 基于分类误差一致性准则的自适应知识迁移[J]. 电子与信息学报, 2019, 41(11): 2736-2743. doi: 10.11999/JEIT181054
引用本文: 梁爽, 杭文龙, 冯伟, 刘学军. 基于分类误差一致性准则的自适应知识迁移[J]. 电子与信息学报, 2019, 41(11): 2736-2743. doi: 10.11999/JEIT181054
Gao Xiang-wu, Yang Ru-liang. Study on the Antenna Beam Control of Spaceborne Broad-Sense Spotlight SAR[J]. Journal of Electronics & Information Technology, 2005, 27(12): 1876-1878.
Citation: Shuang LIANG, Wenlong HANG, Wei FENG, Xuejun LIU. Adaptive Knowledge Transfer Based on Classification-error Consensus Regularization[J]. Journal of Electronics & Information Technology, 2019, 41(11): 2736-2743. doi: 10.11999/JEIT181054

基于分类误差一致性准则的自适应知识迁移

doi: 10.11999/JEIT181054
基金项目: 国家自然科学基金(61802177),江苏省高校自然科学研究面上项目(18KJB520020),南京邮电大学引进人才科研启动基金(NY219034),江苏省重点研发计划(BE2015697)
详细信息
    作者简介:

    梁爽:女,1987年生,讲师,研究方向为机器学习、信号处理

    杭文龙:男,1988年生,讲师,研究方向为机器学习、模式识别

    冯伟:男,1995年生,硕士生,研究方向机器学习、模式识别

    刘学军:男,1970年生,教授,硕士生导师,研究方向为数据挖掘、大数据分布式处理

    通讯作者:

    杭文龙 wlhang@njtech.edu.cn

  • 中图分类号: TP181

Adaptive Knowledge Transfer Based on Classification-error Consensus Regularization

Funds: The National Nature Science Foundation of China (61802177), The Natural Science Foundation of the Higher Education Institutions of Jiangsu Province (18KJB520020), NUPTSF (NY219034), Key Research and Development Program of Jiangsu Province (BE2015697)
  • 摘要: 目前大多数迁移学习方法在利用源域数据辅助目标域数据建模时,通常假设源域中的数据均与目标域数据相关。然而在实际应用中,源域中的数据并非都与目标域数据的相关程度一致,若基于上述假设往往会导致负迁移效应。为此,该文首先提出分类误差一致性准则(CCR),对源域与目标域分类误差的概率分布积分平方误差进行最小化度量。此外,该文提出一种基于CCR的自适应知识迁移学习方法(CATL),该方法可以快速地从源域中自动确定出与目标域相关的数据及其权重,以辅助目标域模型的构建,使其能在提高知识迁移效率的同时缓解负迁移学习效应。在真实图像以及文本数据集上的实验结果验证了CATL方法的优势。
  • 随着人类太空探索及航天活动的不断增加,轨道中包含着大量空间碎片及失效卫星等微动目标。同时,中段或再入段弹道目标(如舱体、诱饵、弹头等)也具有自旋、进动等典型微动。因此,如何从空间微动目标独特的微多普勒调制中提取丰富的形状、结构和运动信息,进而实现有效的分类识别在空间态势感知及弹道目标防御中具有重要作用[1-3]

    针对微动目标窄带回波,主要提取均值、方差、中位数、极值、标准差等统计特征和微动周期等运动特征[4]。针对窄带回波时频图(Joint Time-Frequency, JTF)[5],主要提取周期、多普勒调制带宽等物理特征和图像熵、矩、方向性、倒谱、双相关系数等统计特征[6]。在此基础上,可对JTF沿时间轴做傅里叶变换得到2维韵律频谱(Cadence Velocity Diagram, CVD),并从CVD及平均归一化CVD序列中提取伪泽尼克矩等相关统计特征[7]。针对微动目标宽带回波,可从高分辨1维距离像(High Resolution Range Profiles, HRRP)序列中估计微动频率及尺寸[8]。同时,通过在距离-慢时间域进行逆Radon变换提取目标运动及散射点分布特征[9]

    综上所述,现有空间微动目标识别方法主要为物理驱动,即根据专家经验及先验知识设计特征提取器(如区域特征、轮廓特征、散射特征、运动特征等)和分类器,该过程耗时较长且难以推广。同时,大部分微动目标识别方法要求目标的观测时间应大于一个微动周期,由于多功能雷达任务繁多、资源有限,很难满足该要求。此外,空间微动目标观测时往往能够同时获得其宽、窄带回波,而现有识别方法仅从宽带或窄带等单一回波中提取特征。由于难以充分利用空、时、频信息,因此识别精度较低。当目标特性或雷达参数变化时,对单一回波的高度依赖会造成识别方法性能下降甚至完全失效。

    针对上述空间微动目标识别中的难点与关键问题,本文提出基于稀疏自编码器(Sparse Auto-Encoder, SAE)的空间微动目标特征级融合识别方法。该方法为数据驱动,能够自动提取有助于识别的目标特征,从而避免了人工特征设计及选择环节,具有较强的泛化能力[10]。在训练阶段,首先采用卷积神经网络(Convolution Neural Network, CNN)分别提取HRRP, JTF、距离-瞬时多普勒(Range Instantaneous Doppler, RID)像的层级特征,进而通过特征拼接形成联合特征向量。随后,采用SAE无监督地学习出联合特征向量的隐层特征。进而剔除SAE解码器部分并在编码器后接入Softmax分类器构成识别网络。最后利用SAE网络参数对识别网络进行初始化,并利用上述联合特征向量对其进行微调得到训练好的识别网络。在测试阶段,将CNN所提测试集的联合特征向量直接输入训练好的识别网络中,得到融合识别结果。各种条件下的电磁仿真数据识别结果表明,即使观测时间小于目标微动周期,所提方法仍然能够获得优良的识别性能。同时,与仅采用单一回波的识别方法相比,所提方法显著提升了识别正确率,并且对噪声具有稳健性。

    空间微动目标通常包含自旋、进动、章动、旋转、翻滚等多种微动形式。在目标本地坐标系中,若初始时刻散射中心p的坐标矢量为rp=[xp,yp,zp]T,雷达视线矢量为ξ,则该散射点瞬时斜距满足

    Rp(t)=Rrotrp,ξ (1)

    其中,表示内积,Rrot为旋转矩阵,具体表达式由目标微动形式决定[2]

    在距离脉压后,微动目标回波满足

    g(r,t)=pσpa(2Bc(rΔRp(t)))exp(j4πλΔRp(t)) (2)

    其中,p表示散射点序号,σp表示第p个散射点的后向散射系数,a()为与波形相关的函数,B为信号带宽,c为光速,ΔRp(t) = Rp(t)RrefRref为参考距离,λ = c/fc为载频对应的波长。

    对于窄带雷达,目标回波集中在一个距离单元内,因此式(2)退化为

    gn(r,t)=pσpexp(j4πλΔRp(t)) (3)

    在获得目标原始回波后,对其对做短时傅里叶变换(Short-Time Fourier Transform, STFT)得到联合时频分布图。对于窄带回波gn(r,t)

    STFT(t,ω)=gn(r,t)h(tt)exp{jωt}dt (4)

    其中,tω分别是时间与多普勒单元,h()是窗函数。

    对于宽带回波,可进一步进行距离-瞬时多普勒成像[11]。设宽带回波分别包含Nr个距离单元和Na个方位单元,则在距离脉压后对Nr个距离单元分别作短时傅里叶变换得到其时频图In(tm,fd)RM×Nd,其中n=1,2,,Nr, M=(NaL/2)/str, m=1,2,,M, L为窗长,str为步长,Nd是多普勒单元的数量。然后,将时频图In(tm,fd)堆叠成一个3维矩阵Q(n,tm,fd)RNr×M×Nd并沿时间轴抽取2维矩阵切片,即可得RID像。

    本节将详细介绍基于SAE的空间微动目标特征级融合识别方法,该方法的流程如图1所示。在训练阶段,首先采用CNN分别提取HRRP, JTF, RID像的层级特征,进而通过特征拼接形成联合特征向量。随后,采用SAE无监督地学习出联合特征向量的隐层特征。进而剔除SAE解码器部分并在编码器后接入Softmax分类器构成识别网络。最后利用SAE网络参数对识别网络进行初始化,并利用上述联合特征向量对其进行微调得到训练好的识别网络。在测试阶段,将CNN所提测试集的联合特征向量直接输入训练好的识别网络中,得到融合识别结果,下面将详细介绍各模块结构。

    图 1  基于SAE的空间微动目标特征级融合识别流程

    与基于手动特征提取的传统目标识别方法不同,CNN的数据驱动机制能够避免复杂的特征提取器设计。此外,其局部连接、权值共享、池化及多层结构[10]保证了层级特征的有效提取。对于从微动目标宽带回波获得的HRRP序列、RID像及从窄带回波获得的JTF,本文分别设计3种CNN结构用于数据域特征提取,如图2所示。以图2(a)为例,CNN-I网络“Conv.16@5×5 BN/ReLU/Dropout”表示卷积层中特征图数量为16,卷积核大小为5×5,卷积核滑动步长为1,在每个卷积层之后加入批归一化BN[12]和整流线性单元(ReLU)[13]进行激活,为防止过拟合在该层之后加入dropout层[14];“Max pool 2×2”表示采用最大池化,池化核大小为2×2,滑动步长为2;“Fully connected/256”表示全连接层,全连接点数为256。同时,CNN-I网络结构共包含4个卷积层、4个池化层和2个全连接层。4个卷积层的卷积核大小分别为5×5, 5×5, 4×44×4,步长均为1;对应卷积特征图数量分别为16, 32, 64, 128。第1个全连接层节点数为256,第2个全连接层节点数为4。最后,通过Softmax分类器输出预测标签。为进一步防止过拟合,在CNN-I和CNN-III中将网络部分权重以0.1概率随机剔除,CNN-II中网络部分权重以0.2概率随机剔除。

    图 2  CNN网络结构

    在训练过程中,输出层损失函数采用交叉熵损失函数

    L(w)=Tt=1ytlnˆyt(w) (5)

    其中,ˆyt为激活函数Softmax的输出,yt为样本标签,T为总的目标类别数,w为网络参数。

    所提方法中,将第1个全连接层输出作为提取的深层特征。因此对于HRRP序列,JTF及RID像,可分别提取一个256维、128维以及256维的特征向量,进而将其拼接为一个640维的联合特征向量。

    在得到联合特征向量后,本文进一步设计SAE以无监督地学习联合特征向量的隐层特征并实现宽、窄带特征融合。相较于传统自编码器,SAE通过引入稀疏惩罚项提升隐层特征的表征能力并减小过拟合风险,同时可以实现特征优选和冗余抑制[15,16]。如图1所示,本文所设计的SAE包含3层网络结构,即输入层、隐藏层和输出层。

    SAE的训练过程包含编码和解码两个阶段。在编码阶段,通过激活函数f将联合特征向量x=[x(1),x(2),,x(m)]映射到隐藏层h

    h(x(i),w(1),b)=f(w(1)x(i)+b(1)), i=1,2,,m (6)

    其中,w(1)为输入层与隐藏层之间的权值矩阵,b(1)为偏置,m=640为联合特征向量的长度。在解码阶段,通过激活函数g将隐藏层h映射到输出层,得到重构联合特征向量ˆx,其第i个元素为

    ˆx(i)=g(w(2)h(x(i),w(1),b)+b(2)), i=1,2,,m (7)

    其中,w(2)为隐藏层与输出层之间的权值矩阵,b(2)为对应偏置。

    传统自编码器通过最小化重构误差训练网络,其代价函数为

    J(w,b)=[1mmi=1(12x(i)ˆx(i)2)]+β2nl1l=1sli=1sl+1j=1(w(l)ji)2 (8)

    其中,第1项为原始输入x与重构输入ˆx的均方误差,第2项为权值衰减项,用于防止网络过拟合。nl为神经网络的层数,sl为第l层的神经元节点数,β为权值衰减系数。

    在传统自编码器的基础上,SAE通过引入稀疏惩罚项Ppenalty将隐藏层的神经元节点限制在“不活跃”状态(神经单元节点的激活值为0或者接近于0),即

    Ppenalty=s2j=1KL(ρˆρj)=s2j=1ρlgρˆρj+(1ρ)lg(1ρ)(1ˆρj) (9)
    ˆρj=1mmi=1hj(x(i),w(1),b) (10)

    其中,ρ为稀疏参数,ˆρj为隐藏层第j个神经元节点的平均激活值,hj(x(i),w(1),b)为联合特征向量中第i个元素对应的第j个隐藏节点的激活值,s2为隐藏层节点数,KL()表示KL散度,用于衡量ρˆρ分布之间的相似性。SAE的代价函数由重构均方误差式(8)和稀疏惩罚项两项组成

    Jsparse(w,b)=J(w,b)+γs2j=1KL(ρˆρj) (11)

    其中,γ为稀疏惩罚系数,用于控制稀疏惩罚项的权重。

    本文所设计的SAE输入层和输出层均包含640个节点,隐藏层包含1 024个节点。设置稀疏参数ρ = 0.05,稀疏惩罚系数γ = 0.2

    在采用SAE学习到联合特征向量的隐层特征后,剔除SAE解码器部分,同时在编码器后接入Softmax分类器构成识别网络。而后,利用SAE网络参数对识别网络的参数进行初始化,进而利用联合特征向量对其进行微调得到训练好的识别网络。在测试阶段,用训练好的CNN提取测试样本的联合特征向量并输入识别网络中得到目标类别标签。

    由于很难获得空间微动目标的实测数据[17],因此本文通过动态电磁仿真获得各类典型微动目标的回波,并通过不同条件下的实验对比分析,验证所提方法的有效性和稳健性。

    根据现有空间微动目标识别文献,选取4类典型空间微动目标,同时根据文献给出的参数范围设计了对应目标的尺寸及微动参数[4,7,17,18]。文中采用的4类目标3维几何模型及剖面图如图3所示,其形状相似、材质相同,分别为平底锥(目标1)、平底锥柱体(目标2)、球底锥(目标3)、球底锥柱体(目标4)。为实现动态回波仿真,首先采用物理光学法[19]获得目标的静态全角域回波。由于目标旋转对称,因此在本地坐标系中雷达视线方位角固定而俯仰角在0°~360°变化(间隔为0.1°)。雷达工作于X波段,HH极化,载频为10 GHz,宽带信号带宽为2 GHz,窄带信号带宽为20 MHz。图4为4类目标窄带静态全角域回波随俯仰角的变化曲线,图5为4类目标宽带静态全角域回波随俯仰角的变化的曲线。

    图 3  4类目标3维模型及剖面图
    图 4  4类目标RCS值随俯仰角变换关系图
    图 5  4类目标全俯仰角HRRP成像结果

    在动态回波仿真时,宽带信号和窄带信号的重频均为200 Hz,观测时间均为0.5 s,4类目标微动参数如表1所示。各类目标初始俯仰角在21°~30°内以1°为间隔连续变化,进动频率以0.2 Hz为间隔连续变化,进动角以0.15°为间隔连续变化。因此,每类目标对应10个初始俯仰角,11种进动频率(按照设定的观测时间,当进动频率低于2 Hz时,均观测不到一个完整周期),11个进动角。为获得目标动态电磁仿真回波,首先根据微动参数计算出雷达视线与目标对称轴的夹角(等效俯仰角),进而分别对窄带和宽带全角域静态电磁回波进行抽取[20]。最终,每类目标可得到1 210组窄带回波和1 210组宽带回波,对应维度分别为1×101101×101。为进一步验证所提方法对噪声的稳健性,在原始窄带和宽带回波中分别加入高斯噪声,从而获得0 dB, 5 dB, 10 dB, 15 dB和20 dB的信噪比(Signal to Noise Ratio, SNR)。在此基础上,进一步得到对应的JTF,HRRP序列和RID像。

    表 1  4类目标微动参数
    目标俯仰角(°)自旋频率(Hz)进动频率(Hz)进动角(°)
    目标121~303.02.0~4.04.0~5.5
    目标221~301.51.5~3.52.0~3.5
    目标321~302.01.0~3.03.0~4.5
    目标421~301.00.5~2.51.0~2.5
    下载: 导出CSV 
    | 显示表格

    本文按照初始俯仰角将数据集划分为训练集和测试集[17]。具体而言,取初始俯仰角21°~25°对应的样本作为训练集,可得到2 420个训练样本;取初始俯仰角26°~30°对应的样本作为测试集,可得到2 420个测试样本。

    采用反向传播方法[21]训练特征提取网络、SAE网络和识别网络。为加快网络收敛速度并减少存储空间,采用包含动量机制和权值衰减技术的SGD(Stochastic Gradient Descent)优化器[22]进行参数更新,更新公式如下

    w(τ+1)=w(τ)+Δw(τ+1) (12)
    Δw(τ+1)=αΔw(τ)βητw(τ)ητL(w(τ)) (13)

    其中,w(τ+1)是第τ + 1次迭代时的网络参数,w(τ)是第τ次迭代时的网络参数,Δw(τ)是第τ次迭代时w的变化量,α为动量系数,β为权值衰减系数,L(w(τ))为代价函数L(w(τ))τ次迭代时对w的导数。ητ为第τ次迭代时的学习率,并且以指数形式衰减

    ητ=η0×dτtb (14)

    其中,η0为初始学习率,d为衰减因子,τ为当前迭代次数,tb是总迭代次数。

    在训练各网络模块时,相应超参数如表2所示,表中α为动量系数,β为权值衰减系数,η0为初始学习率,d为衰减因子,tb是总迭代次数。同时,批处理(Batch Size)大小均设置为64。

    表 2  网络超参数
    网络模块SGD优化器学习率迭代次数批处理大小
    αβη0dtbBatch Size
    特征提取0.50.010.10.945064
    SAE0.50.0010.10.965064
    识别网络0.500.10.945064
    下载: 导出CSV 
    | 显示表格

    当SNR为0 dB, 5 dB, 10 dB, 15 dB和20 dB时,所提方法识别结果如表3所示。可以看出,SNR为20 dB时,识别率为97.64%,SNR为0 dB时,识别率为95.00%,性能下降较少,从而证明所提方法的有效性及噪声稳健性。

    表 3  所提方法在各SNR下识别结果(%)
    实验结果 SNR(dB)
    05101520
    识别率95.0096.6997.2797.5297.64
    下载: 导出CSV 
    | 显示表格

    为进一步验证所提方法相较于单一回波识别方法的优越性,表4列出不同SNR下所提方法与基于JTF, HRRP序列及RID像等单一回波识别方法的准确率对比。可以看出,所提方法的识别率最小可提升8.59%, 7.23%, 6.69%, 5.78%, 5.00%,从而证明其优越性。

    表 4  所提方法与单一回波识别结果对比(%)
    识别特征SNR(dB)
    05101520
    JTF86.4189.4690.5891.7492.64
    HRRP86.0086.7488.8488.9389.96
    RID85.5887.4088.1088.5188.64
    所提方法95.0096.6997.2797.5297.64
    下载: 导出CSV 
    | 显示表格

    为了证明所提特征融合方法的有效性,与两种常见的特征级融合识别方法进行对比。第1种方法将所提取的3个深层特征直接进行拼接,然后输入分类层得到识别结果。第2种方法将所提取的3个深层特征相加,然后输入分类层得到识别结果。由于提取初级特征的维度不同,因此在相加之前先将不同模态的初级特征映射到同一维度。识别结果如表5所示,可以看出,所提算法相较于传统特征级融合方法的识别率均有不同程度的提升。

    表 5  实验对比结果(%)
    融合方法SNR(dB)
    05101520
    特征拼接92.9393.9394.0194.2695.79
    特征相加92.3193.7694.0594.1795.95
    所提方法95.0096.6997.2797.5297.64
    下载: 导出CSV 
    | 显示表格

    为充分挖掘利用微动目标宽、窄带雷达回波中蕴含的丰富信息,提出基于SAE的空间微动目标特征级融合识别方法。在训练阶段,首先采用CNN提取HRRP, JTF和RID像的层级特征,进而对深层特征进行拼接以获得联合特征向量。随后,采用SAE无监督地学习出联合特征向量的隐层特征,进而剔除SAE解码器部分并在编码器后接入Softmax分类器构成识别网络。最后,利用SAE网络参数对识别网络进行初始化,并利用联合特征向量对其微调以得到训练好的识别网络。在测试阶段,用训练好的CNN提取测试样本的联合特征向量,并直接输入训练好的识别网络以得到目标类别标签。各种条件下的电磁仿真数据识别结果表明,与仅采用单一回波的识别方法相比,所提方法能显著提升识别正确率并表现出噪声稳健性。未来将进一步研究观测样本不足条件下的空间微动目标小样本融合识别方法。

  • 图  1  6种对比算法在文本数据集上的分类精度

    表  1  图像数据集USPS及MNIST中源域数据与目标域数据的详细设置

    任务源域数据目标域数据
    正类负类正类负类
    1USPS7USPS9MNIST7MNIST9
    2USPS4USPS9MNIST4MNIST9
    3USPS0USPS6MNIST0MNIST6
    下载: 导出CSV

    表  2  文本数据集20-Newsgroups中源域数据与目标域数据的详细设置

    任务源域数据目标域数据
    正类负类正类负类
    1comp.graphicsrec.autoscomp.os.ms-windows.miscrec.motorcycles
    2comp.sys.ibm.pc.hardwarerec.sport.baseballcomp.sys.mac.hardwarerec.sport.hokey
    3sci.crypttalk.politics.gunssci.electronicstalk.politics.mideast
    4sci.medtalk.politics.miscsci.spacetalk.religion.misc
    5rec.autostalk.politics.gunsrec.motorcyclestalk.politics.mideast
    6rec.sport.baseballtalk.politics.miscrec.sport.hokeytalk.religion.misc
    下载: 导出CSV

    表  3  各种算法在图像任务上的分类精度

    任务已标注样本LSSVMCDSVMASVMTrAdaBoostSTMPRIFCATL2
    140.52870.56110.59130.57990.60180.62450.6359
    60.55200.58000.60940.61330.62980.63840.6477
    80.58970.61120.62660.60070.63190.64210.6528
    100.60300.63920.65020.62130.64870.65390.6672
    120.63810.64610.63830.65880.66430.67530.6791
    140.65410.65870.67540.66820.69010.69820.7014
    240.53540.57430.59980.58870.59830.62230.6133
    60.58970.59920.62930.59030.64260.64780.6520
    80.62760.63870.64920.66900.68030.68930.6927
    100.65080.66410.68430.69050.70670.70290.7168
    120.68920.66980.69880.71230.72340.73260.7387
    140.70980.71560.72070.70760.72660.73910.7421
    340.65780.69030.70260.68730.72350.74720.7492
    60.70130.74450.75290.73540.75410.76320.7726
    80.74520.76950.77210.74550.7618077260.7829
    100.77620.78030.77890.78360.79280.79180.8193
    120.79230.79440.80340.79940.82880.81720.8301
    140.82340.82130.81780.81450.83970.82630.8452
    下载: 导出CSV
  • DENG Zhaohong, JIANG Yizhang, CHOI K S, et al. Knowledge-leverage-based TSK fuzzy system modeling[J]. IEEE Transactions on Neural Networks and Learning Systems, 2013, 24(8): 1200–1212. doi: 10.1109/TNNLS.2013.2253617
    DAI Wenyuan, YANG Qiang, XUE Guirong, et al. Boosting for transfer learning[C]. The 24th International Conference on Machine Learning, Corvalis, USA, 2007: 193–200.
    JIANG Yizhang, DENG Zhaohong, CHUNG F L, et al. Recognition of epileptic EEG signals using a novel multiview TSK fuzzy system[J]. IEEE Transactions on Fuzzy Systems, 2017, 25(1): 3–20. doi: 10.1109/TFUZZ.2016.2637405
    ZHUANG Fuzhen, LUO Ping, DU Changying, et al. Triplex transfer learning: Exploiting both shared and distinct concepts for text classification[J]. IEEE Transactions on Cybernetics, 2014, 44(7): 1191–1203. doi: 10.1109/TCYB.2013.2281451
    PAN S J, NI Xiaochuan, SUN Jiantao, et al. Cross-domain sentiment classification via spectral feature alignment[C]. Proceedings of the 19th International Conference on World Wide Web, Raleigh, USA, 2010: 751–760.
    ZANG Shaofei, CHENG Yuhu, WANG Xuesong, et al. Semi-supervised transfer discriminant analysis based on cross-domain mean constraint[J]. Artificial Intelligence Review, 2018, 49(4): 581–595. doi: 10.1007/s10462-016-9533-3
    WANG Guanjin, ZHANG Guangquan, CHOI K S, et al. Deep additive least squares support vector machines for classification with model transfer[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2019, 49(7): 1527–1540. doi: 10.1109/TSMC.2017.2759090
    YANG Jun, YAN Rong, and HAUPTMANN A G. Adapting SVM classifiers to data with shifted distributions[C]. The Seventh IEEE International Conference on Data Mining Workshops, Omaha, USA, 2007: 69–76.
    JIANG Yizhang, DENG Zhaohong, CHUNG F L, et al. Realizing two-view TSK fuzzy classification system by using collaborative learning[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2017, 47(1): 145–160. doi: 10.1109/TSMC.2016.2577558
    CHU Wensheng, DE LA TORRE F, and COHN J F. Selective transfer machine for personalized facial action unit detection[C]. 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, USA, 2013: 3515–3522.
    GRETTON A, SMOLA A, HUANG Jiayuan, et al. Covariate Shift by Kernel Mean Matching[M]. QUIÑONERO-CANDELA J, SUGIYAMA M, SCHWAIGHOFER A, et al. Dataset Shift in Machine Learning. Cambridge, USA: MIT Press, 2009: 131–160.
    CHENG Yuhu, WANG Xuesong, and CAO Ge. Multi-source tri-training transfer learning[J]. IEICE Transactions on Information and Systems, 2014, E97-D(6): 1668–1672. doi: 10.1587/transinf.e97.d.1668
    WANG Yunyun, ZHAI Jie, LI Yun, et al. Transfer learning with partial related " instance-feature” knowledge[J]. Neurocomputing, 2018, 310: 115–124. doi: 10.1016/j.neucom.2018.05.029
    CHEN Minmin, XU Zhixiang, WEINBERGER K Q, et al. Marginalized denoising autoencoders for domain adaptation[C]. The 29th International Conference on Machine Learning, Edinburgh, Scotland, 2012: 1627–1634.
    ZHOU J T, PAN S J, TSANG I W, et al. Hybrid heterogeneous transfer learning through deep learning[C]. The 28th AAAI Conference on Artificial Intelligence, Québec City, Canada, 2014: 2213–2219.
    GLOROT X, BORDES A, and BENGIO Y. Domain adaptation for large-scale sentiment classification: A deep learning approach[C]. The 28th International Conference on Machine Learning, Bellevue, Washington, USA, 2011: 513–520.
    LONG Mingsheng, WANG Jianmin, CAO Yue, et al. Deep learning of transferable representation for scalable domain adaptation[J]. IEEE Transactions on Knowledge and Data Engineering, 2016, 28(8): 2027–2040. doi: 10.1109/TKDE.2016.2554549
    PARZEN E. On estimation of a probability density function and mode[J]. The Annals of Mathematical Statistics, 1962, 33(3): 1065–1076. doi: 10.1214/aoms/1177704472
    DENG Zhaohong, CHUNG F L, and WANG Shitong. FRSDE: Fast reduced set density estimator using minimal enclosing ball approximation[J]. Pattern Recognition, 2008, 41(4): 1363–1372. doi: 10.1016/j.patcog.2007.09.013
    TOMMASI T, ORABONA F, and CAPUTO B. Learning categories from few examples with multi model knowledge transfer[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2014, 36(5): 928–941. doi: 10.1109/TPAMI.2013.197
    LACOSTE-JULIEN S, SCHMIDT M, and BACH F. A simpler approach to obtaining an O(1/t) convergence rate for the projected stochastic subgradient method[J]. arXiv:1212.2002, 2012.
    LONG Mingsheng, WANG Jianmin, DING Guiguang, et al. Transfer learning with graph co-regularization[J]. IEEE Transactions on Knowledge and Data Engineering, 2014, 26(7): 1805–1818. doi: 10.1109/TKDE.2013.97
    SUYKENS J A K and VANDEWALLE J. Least squares support vector machine classifiers[J]. Neural Processing Letters, 1999, 9(3): 293–300. doi: 10.1023/a:1018628609742
    BART E and ULLMAN S. Cross-generalization: Learning novel classes from a single example by feature replacement[C]. 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Diego, USA, 2005: 672–679.
    GU Xiaoqing, CHUNG F L, and WANG Shitong. Bayesian Takagi-Sugeno-Kang fuzzy classifier[J]. IEEE Transactions on Fuzzy Systems, 2017, 25(6): 1655–1671. doi: 10.1109/TFUZZ.2016.2617377
  • 加载中
图(1) / 表(3)
计量
  • 文章访问数:  2577
  • HTML全文浏览量:  1426
  • PDF下载量:  58
  • 被引次数: 0
出版历程
  • 收稿日期:  2018-11-20
  • 修回日期:  2019-04-30
  • 网络出版日期:  2019-05-16
  • 刊出日期:  2019-11-01

目录

/

返回文章
返回