高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

基于行人属性分级识别的行人再识别

陈鸿昶 吴彦丞 李邵梅 高超

汪荣贵, 韩梦雅, 杨娟, 薛丽霞, 胡敏. 多级注意力特征网络的小样本学习[J]. 电子与信息学报, 2020, 42(3): 772-778. doi: 10.11999/JEIT190242
引用本文: 陈鸿昶, 吴彦丞, 李邵梅, 高超. 基于行人属性分级识别的行人再识别[J]. 电子与信息学报, 2019, 41(9): 2239-2246. doi: 10.11999/JEIT180740
Ronggui WANG, Mengya HAN, Juan YANG, Lixia XUE, Min HU. Multi-level Attention Feature Network for Few-shot Learning[J]. Journal of Electronics & Information Technology, 2020, 42(3): 772-778. doi: 10.11999/JEIT190242
Citation: Hongchang CHEN, Yancheng WU, Shaomei LI, Chao GAO. Person Re-identification Based on Attribute Hierarchy Recognition[J]. Journal of Electronics & Information Technology, 2019, 41(9): 2239-2246. doi: 10.11999/JEIT180740

基于行人属性分级识别的行人再识别

doi: 10.11999/JEIT180740
基金项目: 国家自然科学基金(61601513)
详细信息
    作者简介:

    陈鸿昶:男,1964年生,教授,博士生导师,研究方向为通信与信息系统、计算机视觉

    吴彦丞:男,1994年生,硕士生,研究方向为计算机视觉

    李邵梅:女,1982年生,博士,讲师,研究方向为通信与信息系统、计算机视觉

    高超:男,1982年生,博士,讲师,研究方向为通信与信息系统、计算机视觉

    通讯作者:

    吴彦丞 wuyc1994@163.com

  • 中图分类号: TP391.41

Person Re-identification Based on Attribute Hierarchy Recognition

Funds: The National Natural Science Foundation of China (61601513)
  • 摘要: 为了提高行人再识别算法的识别效果,该文提出一种基于注意力模型的行人属性分级识别神经网络模型,相对于现有算法,该模型有以下3大优点:一是在网络的特征提取部分,设计用于识别行人属性的注意力模型,提取行人属性信息和显著性程度;二是在网络的特征识别部分,针对行人属性的显著性程度和包含的信息量大小,利用注意力模型对属性进行分级识别;三是分析属性之间的相关性,根据上一级的识别结果,调整下一级的识别策略,从而提高小目标属性的识别准确率,进而提高行人再识别的准确率。实验结果表明,该文提出的模型相较于现有方法,有效提高了行人再识别的首位准确率,其中,Market1501数据集上,首位准确率达到了93.1%,在DukeMTMC数据集上,首位准确率达到了81.7%。
  • 近年来,深度学习在人工智能任务中取得了良好的效果,如目标检测[1]、图像分类[2]、机器翻译[3]等。但是深度学习模型训练需要大规模的数据集,且模型收敛缓慢。相比之下,人类视觉系统能够在仅观察1个或几个实例之后识别新物体。人类视觉系统与深度学习模型之间的这种显著差距引起了对小样本学习[4]的研究兴趣。小样本学习的目的是在每个类只有少量标注样本时构建一个分类模型,使其具有较好的分类效果。

    目前小样本学习的解决方案主要有以下3类:数据增强、元学习和度量学习。小样本任务中每个类只有少量标签样本,数据增强技术通过扩充数据集来缓解过拟合,如生成样本[5]或幻想特征[6,7],但是生成的样本或特征极其相似,并没有很大地提升分类效果。元学习方法[8-10]使用大量任务进行训练,学习跨任务迁移知识,实现在新的任务上可以快速学习,因而适合小样本学习,如学习好的初始化条件[8],跨任务的梯度更新策略[9]或者通过循环神经网络(Recurrent Neural Network, RNN)构建外部记忆存储器[10]以利用过去的经验。这些方法取得了较好的分类效果,但是RNN会导致网络结构复杂效率低下。另一类度量学习方法则是学习样本与特征之间的映射关系,将样本映射到特征空间,然后在空间内中寻找最近邻实现分类[11-16],并借助episode[12]训练策略模拟测试环境以及归纳偏置思想为每个类学习一个原型表达[13,14,16]提高小样本分类精度。具有代表性的方法是Vinyals等人[12]提出的匹配网络,在支持集上使用注意力机制预测测试集的类别,该算法可看作带权的最近邻分类器。Snell等人[13]考虑归纳偏置的思想进一步提出原型网络,该算法学习一个度量空间,在空间内以类内样本特征的均值作为类的原型表达,计算样本特征与每个类原型的欧氏距离进行分类。

    本文基于度量学习提出多级注意力特征网络,针对单一尺度图像特征忽略不同尺度图像下的细节信息以及均值类原型不能很好地评估类中各个支持集样本特征对于类原型的不同贡献,提出多级注意力特征概念。首先通过对图像进行处理获得多个尺度的图像,并提取多个尺度图像的特征使用图像级注意力机制学习图像级注意力特征,然后在类内样本的图像级注意力特征上使用类级注意力机制学习类级注意力特征。另外考虑到固定距离度量依赖学习的特征好坏导致错误分类的情况,采用网络计算特征之间的相似性关系,与特征联合学习更能捕获特征之间的相似性提高分类准确率。而且本文方法具有鲁棒性,不仅可以解决类别平衡条件下的小样本问题,还可以应用于类别不平衡条件下的小样本学习,即类内样本数量不相等的情况。

    本节详细介绍所提多级注意力特征网络,本文方法使用多个尺度图像进行特征提取,通过多级注意力机制学习图像级注意力特征和类级注意力特征。在训练时使用episode训练策略,每个episode从训练集中随机采样N个类构建一个支持集和一个查询集,每个类抽取K个样本作为支持集,称为N-way K-shot小样本分类。支持集S={(xi,yi)}N×Ki=1,查询集Q={(xj,yj)}Mj=1,其中yi,yj{1,2,···,N}, M是查询集样本数量。下面将分为3个小节,分别从K-shot分类、不平衡条件下的分类以及one-shot分类详细介绍本文方法。

    本文以N=3, K=5为例介绍K-shot分类任务,网络结构如图1所示,由特征模块f、类级注意力机制p以及度量模块m组成。首先通过特征模块f提取支持集图像的图像级注意力特征,然后对每个类的5个样本特征使用类级注意力机制p学习类级注意力特征,最后通过度量模块计算查询样本和每个类的类级注意力特征之间的相似性分数预测类别。下面将详细介绍5-shot分类中图像级注意力特征、类级注意力特征和相似性分数的学习。

    图 1  5-shot 分类网络结构图
    2.1.1   图像级注意力特征

    本文使用图像的多个尺度进行特征提取,并通过图像级注意力机制融合多个尺度图像的特征学习图像级注意力特征提高分类精度。通过实验证明使用3个尺度图像进行特征提取分类效果最好,所以本文采用3种尺度图像进行特征提取。提取图像级注意力特征的特征模块如图2所示,包含两个部分:提取不同尺度图像特征的卷积神经网络和融合多个尺度图像特征的图像级注意力机制。卷积神经网络结构如表1所示,C表示卷积层,MP表示最大池化层,由于3个分支的输入大小不同,为了方便后期在3个尺度图像特征上进行注意力操作,本文采用3个不同的网络分支获得维度相同的图像特征。图像级注意力机制是包含两个卷积块的注意力网络,以多个尺度图像特征的深度级联作为输入,学习图像级注意力特征。具体过程如下:给定一张m×m像素大小图像,首先对图像使用最大值采样方法进行多次下采样,第1次下采样即把原始图像2×2窗口内的图像变成1个像素,这个像素点的值是窗口内所有像素的最大值,得到m/2×m/2像素大小图像,再对m/2×m/2像素大小图像进行第2次下采样,得到m/4×m/4像素大小图像。对m×m, m/2×m/2, m/4×m/4多个尺度图像使用卷积神经网络提取特征,然后在多个尺度图像特征上使用图像级注意机制融合特征学习图像级注意力特征。

    表 1  不同尺度图像的特征提取网络分支结构
    网络名分支1分支2分支3
    结构[C:3×3,64MP:2×2][C:3×3,64MP:2×2][C:3×3,64]
    [C:3×3,64MP:2×2][C:3×3,64][C:3×3,64]
    [C:3×3,64][C:3×3,64][C:3×3,64]
    [C:3×3,64][C:3×3,64][C:3×3,64]
    下载: 导出CSV 
    | 显示表格
    图 2  特征模块
    f(xi)=fφ2(c(f1φ1(x1i),f2φ1(x2i),···,flφ1(xli)))
    (1)

    这里xli是图像xi经过下采样之后需要通过第l个分支提取特征的输入图像,flφ1是卷积神经网络中的第l分支网络,flφ1(xli)是通过第l个网络分支提取的图像特征,c函数执行多个尺度特征的深度级联,fφ2是学习图像级注意力特征的注意力网络,f(xi)是通过整个特征模块学习到的图像xi的图像级注意力特征。

    2.1.2   类级注意力特征

    小样本学习一个关键问题是如何从每个类少量的一组图像中学习一个高质量的类特征。原型网络在度量空间内以类内样本特征的简单平均作为类原型。但是小样本图像数据集中类内样本差异较大,有些样本目标不明显,例如样本图片的背景较大目标较小、只包含部分目标、目标被部分遮挡等情况。这些情况下并不能很好地学习到样本的目标特征,其特征相比于样本目标明显的特征会较为偏离类原型,所以其对原型的贡献不应和样本目标明显的特征一致。本文通过类级注意力机制融合类内样本的特征,学习每个类的类级注意力特征,能够更好地表达原型。类级注意力机制是同图像级注意机制结构相同的注意力网络,以类内样本特征的深度级联作为输入,学习每个类的类级注意力特征。通过类级注意力机制融合类内样本特征,可以学习与类最相关的部分。

    pn=pφ3(c(f(x1),f(x2),···,f(xK))
    (2)

    这里f(x1),f(x2),···,f(xK)是类别nK个样本的图像级注意力特征,c函数执行类内样本特征的深度级联,pφ3是用于学习类级注意力特征的注意力网络。pn是通过类级注意力机制融合类内样本特征学习到的第n个类的类级注意特征,n{1,2,···,N}

    2.1.3   相似性度量

    大多数小样本学习方法使用固定的距离度量计算特征之间的相似性关系,例如欧氏或余弦距离,只学习了特征嵌入,然后在给定学习嵌入的情况下使用固定度量,在很大程度上取决于学习的特征嵌入,当嵌入网络学习的特征区分信息不充分时往往受限。本文通过灵活的函数逼近器来学习相似性,以数据驱动的方式学习一个好的度量,而不必手动选择度量(欧氏、余弦),可以更好地比较数据。计算相似性的度量模块包含两个卷积块,两个全连接层和1个sigmoid函数,每个卷积块后跟1个最大池化层。度量模块以查询样本的图像级注意力特征和每个类的类级注意力特征的深度级联作为输入,生成一个0~1的分数表示查询样本和每个类之间的相似性。在这里输入度量模块的特征是一个3维的特征图,而不是1维的特征向量,因为1维的特征向量只包含高级语义信息,而3维的特征图还包含着图像的部分信息,适合使用神经网络学习特征之间的关系。

    rj,n=mφ4(c(f(xj),pn))
    (3)

    这里mφ4是计算相似性的神经网络,rj,n是查询图像xj和类别n之间的相似性分数。

    2.1.4   损失函数

    对于大规模图像分类或者回归任务,采用均方差损失函数(Mean Squared Error loss function, MSE)作为损失函数,目标函数为

    JMSE(φ)=Mj=1Nn=1(rj,nz)2
    (4)

    在小样本分类任务中,由于样本量稀疏,基本损失函数(均方差损失函数)训练的网络模型在测试时会因为数据量少产生过拟合。本文使用均方误差损失JMSE(φ)加上L2正则化约束项作为目标函数训练模型,增强模型的鲁棒性。损失函数为

    J(φ)=JMSE(φ)+λ(φ22)=Mj=1Nn=1(rj,nz)2+λ(φ22)
    (5)

    其中,λ是正则化项惩罚系数,z={0,yjn1,yj=n, yj是图像xj的类别标签,n是类别标签。

    反向传播梯度求导公式为

    dJ(φ)dφ=dJMSE(φ)dφ+dλ(φ22)dφ=JMSE(φ)+λφ
    (6)

    加上正则化前梯度下降公式

    φ=φηJMSE(φ)
    (7)

    加上L2正则化项后梯度下降公式

    φ=φη(JMSE(φ)+λφ)=(1ηλ)φηJMSE(φ)
    (8)

    这里φ是整个网络模型的可学习参数,η是学习率。式(5)中当图像xj的类别标签yj=n时常数项z为1, yjn常数项z为0。因此若图像xj属于n类,只有当图像xj的图像级注意力特征f(xj)与类n的类级注意力特征pn相似性分数接近于1,与其他类别的类特征的相似性分数接近于0时,损失函数最小。因此,经过反向传播训练得到的网络模型会使得同类样本的相似性分数趋向于1,不同类样本的相似性分数趋向于0,使得分类更加准确。当加入正则化项后,参数的权重衰减使得网络权值不断减小,增强了模型的抗扰动能力,减轻测试数据差异情况下的过拟合。

    在实际生活中可能会存在类别不平衡的情况,即类内样本数量不同。本文方法能解决类别不平衡条件下的小样本分类任务,以3个类的小样本分类为例,支持集中有的类含有3个样本,有的类含有2个样本,网络结构如图3所示。首先通过特征模块f提取支持集样本的图像级注意力特征,然后计算每个类的类内样本特征均值再通过类级注意力机制p学习每个类的平衡类级注意力特征。最后通过度量模块m计算查询样本特征和每个类的类级注意力特征之间的相似性分数,取相似性分数最高的类别作为预测类别。

    图 3  类别不平衡条件下的小样本分类网络结构图

    one-shot分类支持集中每个类只有1张样本,类特征即样本特征本身,因此本文方法应用于one-shot分类任务只包含特征模块f和度量模块m,如图4所示。对于5-way 1-shot任务,每个episode抽取5个类,每个类抽取1张样本作为支持集,其余样本作为查询集。给定一张查询图像,首先通过特征模块提取支持集样本和查询图像的图像级注意力特征,然后在深度上级联查询图像特征和每个支持集样本特征,再通过度量模块计算特征之间的相似性分数,取相似性分数最高的类别作为查询图像的预测类别。

    图 4  one-shot 分类网络结构图

    Omniglot数据集是由50个字母表共计1623类字符组成,每类字符包含20个样本,由不同的人书写而成。MiniImagenet 数据集是由匹配网络提出,从ILSVRC-2012数据集中随机采样100个类,每类600张样本组成。

    本文在Ubuntu15.04 操作系统上使用开源深度学习框架PyTorch进行实验,并使用 GPU 加速计算。在所有实验中,使用初始学习率为10-3的Adam算法进行训练,每10000次迭代学习率减半。在Omniglot和MiniImgenet数据集上与小样本分类的经典算法进行对比实验,包括MANN, Meta-LSTM, MAML,关系网络(Relation Net),原型网络(Prototypical Net),匹配网络(Matching Net)等。

    在实验中将Omniglot数据集分为两个部分,1200类用于训练,423类用于测试,所有图像大小均设置为28×28。并采用MAML提出的MiniImagenet数据集划分方法,将MiniImgenet数据集分为3个部分,64类用于训练,16类用于验证,20类用于测试,所有图像大小均被设置为84×84。在Omniglot数据集上进行5-way 1-shot, 5-way 5-shot, 20-way 1-shot 与 20-way 5-shot分类任务,以测试集随机生成的1000个episode的分类准确率取平均作为在Omniglot数据集上的分类准确率。在MiniImgenet数据集上分别进行 5-way 1-shot和5-way 5-shot分类任务,以测试集随机生成的600个episode的分类准确率取平均作为在MiniImgenet数据集上的分类准确率。

    3.3.1   Omniglot数据集

    本文与小样本学习的经典算法在Omniglot数据集上的对比结果如表2所示,由实验结果可看出本文算法在 5-way 1-shot, 20-way 1-shot 与 20-way 5-shot分类任务上都取得了较高的分类准确率。由于MAML方法进行了模型微调,在5-way 5-shot分类任务上的分类准确率高于本文方法,而本文方法没有进行模型微调。

    表 2  Omniglot数据集上的小样本分类准确率(%)
    方法微调5-way 分类准确率20-way 分类准确率
    1-shot5-shot1-shot5-shot
    MANN82.894.9
    MATCHING NETS97.998.793.598.7
    PROTOTYPICAL NETS98.899.796.098.9
    MAML98.7±0.499.9±0.195.8±0.398.9±0.2
    RELATION NET99.6±0.299.8±0.197.6±0.299.1±0.1
    本文方法99.699.797.899.2
    下载: 导出CSV 
    | 显示表格
    3.3.2   MiniImagenet数据集

    本文与其他小样本学习方法在MiniImagenet数据集上的对比结果见表3,由实验结果可看出本文算法在 5-way 1-shot与5-way 5-shot 任务上都取得了较好的性能。对于5-way 5-shot实验,由于原型网络在训练过程中每个episode使用20个类,每类15个查询样本,因此分类准确率高于本文方法。而本文方法每个episode使用5个类,每类5个查询样本进行训练,样本数量比原型网络少很多,当原型网络每个episode使用5个类进行训练时,分类准确率为65.77%,低于本文方法。此外本文还在MiniImagenet数据集上进行了类别不平衡条件下的小样本分类实验,以5-way分类任务为例,将5个类的样本数量分别设为1, 2, 3, 4, 5进行测试,分类准确率为61.44%,验证了本文方法在类别不平衡条件下也可以达到很好的分类效果。

    表 3  MiniIamgenet数据集上的小样本分类准确率(%)
    方法微调5-way分类准确率
    1-shot5-shot
    MATCHING NETS43.56±0.8453.11±0.73
    META-LEARN LSTM43.44±0.7760.60±0.71
    MAML48.70±1.8463.11±0.92
    PROTOTYPICAL NETS49.42±0.7868.20±0.66
    RELATION NETS50.44±0.8265.32±0.70
    本文方法53.18±0.8066.72±0.71
    本文方法(L2正则化)54.56±0.8167.39±0.68
    下载: 导出CSV 
    | 显示表格
    3.4.1   类级注意力特征实验分析

    本节针对2.1.2节所提类级注意力特征进行分析,与均值类原型和简单求和学习类特征的方法进行对比。从表4可以看出类级注意力特征方法使得分类准确率有所提升。分析原因可知,小样本图像分类任务类内差异大,类内有些样本类特征明显,因此每个样本在生成类特征时贡献度应当是有差异的。本文方法通过类级注意力机制融合类内样本特征,能够学习到与类最相关的部分。

    表 4  MiniImageNet数据集上类特征方法的对比(%)
    类特征5-way 5-shot 分类准确率
    本文方法(均值类原型)65.80±0.65
    本文方法(求和)65.56±0.66
    本文方法(类级注意力特征)66.43±0.68
    下载: 导出CSV 
    | 显示表格
    3.4.2   图像级注意力特征实验分析

    本节针对2.1.1节所提图像级注意力特征进行分析,与单尺度图像特征和两尺度图像特征进行对比。实验结果如表5所示,使用图像级注意力特征具有更高的分类准确率。分析原因可知,单个尺度只能提取图像的全局特征,而多个尺度既能提取图像的全局特征还能提取图像的特征细节,因此图像级注意力特征具有更多的鉴别信息,能够提高分类正确率。

    表 5  MiniImageNet数据集上图像特征方法的对比(%)
    图像特征5-way 分类准确率
    1-shot5-shot
    本文方法(单尺度特征)52.20±0.8266.43±0.68
    本文方法(两尺度特征)53.93±0.7966.89±0.71
    本文方法(图像级注意力特征)54.56±0.8167.39±0.68
    下载: 导出CSV 
    | 显示表格
    3.4.3   多尺度实验分析

    本节针对所使用的图像金字塔多尺度机制进行分析,与特征金字塔网络的多尺度方法和不同大小卷积核分别提取图像特征再融合的多尺度方法进行比较。实验结果如表6所示,本文方法能够利用多个尺度图像下的信息,取得最好的分类效果。与特征金字塔网络的多层特征融合方法相比,分类准确率提高0.89%。与不同大小卷积核提取图像特征相融合的方法相比,准确率提高1.1%。

    表 6  MiniImageNet数据集上多尺度方式对比(%)
    多尺度方法5-way 分类准确率
    1-shot5-shot
    特征金字塔网络53.42±0.7666.50±0.69
    不同卷积核53.27±0.8366.29±0.66
    本文方法54.56±0.8167.39±0.68
    下载: 导出CSV 
    | 显示表格
    3.4.4   相似性度量实验分析

    本节验证2.1.3节使用的相似性度量方法,与欧氏距离,余弦距离度量方式进行对比实验。由于本文实验中学习的特征是一个3维的特征图,适合使用网络计算相似性关系,当使用距离度量计算相似性时需要把3维的特征图先转换为1维的特征向量,并不具有高级语义信息,因此使用欧氏距离和余弦距离效果较差,实验结果如表7所示。欧氏距离和余弦距离这类设置好固定度量方式的方法,依赖于学习到的图像特征,而本文方法通过网络计算特征间相似性分数,与特征提取一起端到端的学习更能捕获特征之间的相似性。

    表 7  MiniImageNet数据集上相似性度量方法的对比(%)
    度量方式5-way 分类准确率
    1-shot5-shot
    本文方法(欧氏距离)48.43±0.7863.52±0.71
    本文方法(余弦相似度)46.54±0.8260.50±0.70
    本文方法(网络计算)54.56±0.8167.39±0.68
    下载: 导出CSV 
    | 显示表格

    本文提出多尺度条件下的多级注意力融合特征的小样本图像分类算法,针对单一尺度图像特征忽略不同尺度图像下的细节信息提出改进的特征模块,使用多个尺度的图像进行特征提取并通过图像级注意力机制融合特征,进一步学习样本更细节的特征表达。针对类中目标不明显样本导致错误分类的情况提出类级注意力机制,使用注意力网络学习类级注意力特征的方法降低目标不明显样本对类特征的影响,提高类特征的鲁棒性从而完成正确分类。针对相似性计算使用固定度量依赖学习的特征嵌入情况提出改进的度量方法,使用网络计算相似性分数与特征嵌入联合学习提高分类准确率。本文进行详细的实验验证了多级注意力特征网络在Omniglot和MiniImagenet数据集上的优秀表现。

  • 图  1  网络整体结构

    图  2  注意力模型网络结构

    图  3  分级网络中每一级的识别结果

    图  4  数据集部分属性间相关性及其共现概率

    图  5  网络参数及改进效果对比

    表  1  Market1501数据集中的属性类别

    属性类(G)属性数量(k)
    Gendermale, female2
    Agechild, teenager, adult, old4
    Hair lengthlong, short2
    Length of lower-body clothinglong, short2
    Type of lower-body clothingpants, dress2
    Wearing hatyes, no2
    Carrying bagyes, no2
    Carrying backpackyes, no2
    Carrying handbagyes, no2
    Color of upper-body clothingblack, white, red, purple,yellow, gray, blue, green8
    Color of lower-body clothingblack, white, pink, purple,yellow, gray, blue, green, brown9
    下载: 导出CSV

    表  2  Market1501数据集各属性识别准确率(%)

    行人属性genderagehairL.slvL.lowS.clothB.packH.bagbaghatC.upC.lowmean
    基础网络82.1885.3280.1292.4871.5885.6779.5781.5479.6670.5691.2387.8182.31
    本文算法90.2788.1591.5493.5587.2590.4889.7787.6584.6787.3992.4493.4889.72
    下载: 导出CSV

    表  3  DukeMTMC数据集各属性识别准确率(%)

    行人属性genderhatbootsL.upB.packH.bagbagC.shoesC.upC.lowmean
    基础网络82.4775.4876.1473.5871.5869.4278.3168.5462.1751.2470.89
    本文算法83.5987.2484.5676.3377.1175.3283.7872.1974.8862.1877.72
    下载: 导出CSV

    表  4  Market1501数据集行人再识别结果(%)

    方法Rank-1mAP
    XQDA[11]43.822.2
    SCS[12]51.926.3
    DNS[13]61.035.6
    G-SCNN[14]65.839.5
    MSCAN[15]80.357.5
    PDC[16]84.163.4
    JLML[17]85.165.5
    HA-CNN[8]91.275.7
    基础网络82.461.2
    基础网络-R185.766.7
    基础网络-R288.470.3
    基础网络-C186.968.5
    本文算法93.176.2
    下载: 导出CSV

    表  5  DukeMTMC数据集行人再识别结果(%)

    方法Rank-1mAP
    BoW+KISSME[18]25.112.2
    LOMO+XQDA[11]30.817.0
    ResNet50[19]65.245.0
    ResNet50+LSRO[20]67.747.1
    JLML[17]73.356.4
    HA-CNN[8]80.563.8
    基础网络73.655.7
    基础网络-R175.357.4
    基础网络-R277.860.8
    基础网络-C178.361.2
    本文算法81.765.9
    下载: 导出CSV
  • FARENZENA M, BAZZANI L, PERINA A, et al. Person re-identification by symmetry-driven accumulation of local features[C]. 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, San Francisco, USA, 2010: 2360–2367.
    曾明勇, 吴泽民, 田畅, 等. 基于外观统计特征融合的人体目标再识别[J]. 电子与信息学报, 2014, 36(8): 1844–1851. doi: 10.3724/SP.J.1146.2013.01389

    ZENG Mingyong, WU Zemin, TIAN Chang, et al. Fusing appearance statistical features for person re-identification[J]. Journal of Electronics &Information Technology, 2014, 36(8): 1844–1851. doi: 10.3724/SP.J.1146.2013.01389
    陈鸿昶, 陈雷, 李邵梅, 等. 基于显著度融合的自适应分块行人再识别[J]. 电子与信息学报, 2017, 39(11): 2652–2660. doi: 10.11999/JEIT170162

    CHEN Hongchang, CHEN Lei, LI Shaomei, et al. Person re-identification of adaptive blocks based on saliency fusion[J]. Journal of Electronics &Information Technology, 2017, 39(11): 2652–2660. doi: 10.11999/JEIT170162
    KÖSTINGER M, HIRZER M, WOHLHART P, et al. Large scale metric learning from equivalence constraints[C]. 2012 IEEE Conference on Computer Vision and Pattern Recognition, Providence, USA, 2012: 2288–2295.
    LI Wei, ZHAO Rui, XIAO Tong, et al. DeepReID: Deep filter pairing neural network for person re-identification[C]. Proceedings of 2014 IEEE Conference on Computer Vision and Pattern Recognition, Columbus, USA, 2014: 152–159.
    LIU Hao, FENG Jiashi, QI Meibin, et al. End-to-end comparative attention networks for person re-identification[J]. IEEE Transactions on Image Processing, 2017, 26(7): 3492–3506. doi: 10.1109/TIP.2017.2700762
    MATSUKAWA T and SUZUKI E. Person re-identification using CNN features learned from combination of attributes[C]. The 23rd International Conference on Pattern Recognition, Cancun, Mexico, 2016: 2428–2433.
    LI Wei, ZHU Xiatian, and GONG Shaogang. Harmonious attention network for person re-identification[C]. 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018, 2285–2294.
    LIN Yutian, ZHENG Liang, ZHENG Zhedong, et al. Improving person re-identification by attribute and identity learning[EB/OL]. http://arxiv.org/abs/1703.07220, 2017.
    XU K, BA J, KIROS R, et al. Show, attend and tell: Neural image caption generation with visual attention[C]. 2015 International Conference on Machine Learning. New York, USA, 2015: 2048–2057.
    LIAO Shengcai, HU Yang, ZHU Xiangyu, et al. Person re-identification by local maximal occurrence representation and metric learning[C]. 2015 IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 2197–2206.
    CHEN Dapeng, YUAN Zejian, CHEN Badong, et al. Similarity learning with spatial constraints for person re-identification[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 1268–1277.
    ZHANG Li, XIANG Tao, and GONG Shaogang. Learning a discriminative null space for person re-identification[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 1239–1248.
    VARIOR R R, HALOI M, and WANG Gang. Gated Siamese convolutional neural network architecture for human re-identification[C]. The 14th European Conference on Computer Vision, Amsterdam, The Netherlands, 2016: 791–808.
    LI Dangwei, CHEN Xiaotang, ZHANG Zhang, et al. Learning deep context-aware features over body and latent parts for person re-identification[C]. 2017 IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 7398–7407.
    SU Chi, LI Jianing, ZHANG Shiliang, et al. Pose-driven deep convolutional model for person re-identification[C]. 2017 IEEE International Conference on Computer Vision, Venice, Italy, 2017: 3980–3989.
    LI Wei, ZHU Xiatian, and GONG Shaogang. Person re-identification by deep joint learning of multi-loss classification[C]. The 26th International Joint Conference on Artificial Intelligence, Melbourne, Australia, 2017: 2194–2200.
    WANG Hanxiao, GONG Shaogang, and XIANG Tao. Highly efficient regression for scalable person re-identification[EB/OL]. http://arxiv.org/abs/1612.01341, 2016.
    HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778.
    ZHENG Zhedong, ZHENG Liang, and YANG Yi. Unlabeled samples generated by GAN improve the person re-identification baseline in vitro[C]. 2017 IEEE International Conference on Computer Vision, Venice, Italy, 2017: 3774–3782.
  • 期刊类型引用(6)

    1. 曹增辉,陈浩,曹雅慧. 基于类注意力的原型网络改进方法. 自动化与信息工程. 2025(01): 59-65 . 百度学术
    2. 郭礼华,王广飞. 基于稀疏注意力关系网络的小样本图像分类方法. 重庆科技学院学报(自然科学版). 2024(01): 41-47 . 百度学术
    3. 沈鸿翔,倪双静. 基于自注意力的隧道视频火灾识别技术研究. 消防科学与技术. 2023(02): 253-257 . 百度学术
    4. 李刚,徐长明,龚翔,卢佩玲,董贺超,史维利. 基于掩码自编码器的小样本深度学习道岔故障诊断模型. 中国铁道科学. 2022(06): 175-185 . 百度学术
    5. 董小伟,韩悦,张正,曲洪斌,高国飞,陈明钿,李博. 基于多尺度加权特征融合网络的地铁行人目标检测算法. 电子与信息学报. 2021(07): 2113-2120 . 本站查看
    6. 魏胜楠,张景异,陈亮,耿俊香,王中洲. 自适应局部关系网络的小样本学习方法. 沈阳理工大学学报. 2021(04): 35-41 . 百度学术

    其他类型引用(27)

  • 加载中
图(5) / 表(5)
计量
  • 文章访问数:  4168
  • HTML全文浏览量:  2174
  • PDF下载量:  137
  • 被引次数: 33
出版历程
  • 收稿日期:  2018-07-20
  • 修回日期:  2019-03-03
  • 网络出版日期:  2019-04-17
  • 刊出日期:  2019-09-10

目录

/

返回文章
返回