Advanced Search
Volume 42 Issue 1
Jan.  2020
Turn off MathJax
Article Contents
Zheng He, HuHan-ying, Zhou Hua-ying. New Approach to Optimal Approximation of Tanh Rule for LDPC Codes under the Gaussian Approximation[J]. Journal of Electronics & Information Technology, 2006, 28(10): 1837-1841.
Citation: Dengguo FENG, Min ZHANG, Yutong YE. Research on Differentially Private Trajectory Data Publishing[J]. Journal of Electronics & Information Technology, 2020, 42(1): 74-88. doi: 10.11999/JEIT190632

Research on Differentially Private Trajectory Data Publishing

doi: 10.11999/JEIT190632
Funds:  The National Natural Science Foundation of China (U1636216)
  • Received Date: 2019-08-26
  • Rev Recd Date: 2019-11-30
  • Available Online: 2019-12-05
  • Publish Date: 2020-01-21
  • Securely sharing and publishing location trajectory data relies on support of location privacy protection technology. Prior to the advent of differential privacy, K-anonymity and its derived models provide a means of quantitative assessment of location-trajectory privacy protection. However, its security relies heavily on the background knowledge of the attacker, and the model can not provide perfect privacy protection when a new attack occurs. Differential privacy effectively compensates for the above problems, and it proves the level of privacy protection based on rigorous mathematical theory and is increasingly used in the field of trajectory data privacy publishing. Therefore, the trajectory privacy protection technology based on differential privacy theory is studied and analyzed, and the methods of spatial statistical data publishing are introduced such as location histogram and trajectory histogram, the method of trajectory data set publishing and the model of continuous real-time location release privacy protection. At the same time, the existing methods are compared and analyzed, the key development directions are put forward in the future.

  • 步态识别是一种基于受试者的身体外形和行走方式实现身份认证的生物识别技术,然而现实场景中的相机视角、服装和携带物等因素会导致人体轮廓发生明显变化,从而给步态识别任务带来巨大挑战[1,2]

    根据研究对象的数据类型,步态识别方法可以大致分为两类:基于模型的方法[310]和基于表观的方法[1122]。近年来,基于步态剪影的表观学习方法表现出更为优秀的性能,且占用计算资源更少,因而该类方法逐渐成为主流。当前基于表观的深度步态识别方法大致可以分为3类。第1类方法[14,15]将步态序列当作一个无序的图像帧集合,分别提取帧级特征和集合级特征,并使用水平金字塔映射(Horizontal Pyramid Mapping, HPM)聚合全局和局部特征;第2类方法[1618]关注于步态特征在空间维度上的划分方式,并利用3D卷积神经网络(Convolutionnal Nerual Network, CNN)以获得全局时空特征和各个身体部分的局部时空表征;第3类方法[1922]侧重对步态序列进行时间关系建模和运动特性捕捉,尝试设计多尺度时间特征和运动特征提取方法。

    通过观察分析,步态剪影的有效信息集中在边缘轮廓,然而上述方法没有针对人体轮廓设计特定的特征提取方法。因此,Liang等人[23]提出GaitEdge,该方法利用语义分割从RGB图像中提取步态剪影,并将剪影中的边缘区域与对应位置的语义分割概率相乘,然后将该边缘与人体内部区域组合以得到边缘增强的步态剪影,但该方法依然缺乏重要的显式运动信息。针对该问题,本文创新性地借助点集配准中的形变场来刻画行走过程中人体轮廓的位移量和位移方向,该形变场不仅能够有效保留人体形态信息,还可以弥补GaitEdge缺乏显式运动信息的问题,为后续获取步态运动特征奠定良好基础。

    综上,本文的主要贡献包括:(1)针对步态剪影数据中运动信息不足的问题,本文首次将非刚性点集配准算法引入步态识别,利用人体轮廓形变场提升对运动变化的感知能力,并提出基于形变场和步态剪影的双路径网络模型GaitDef;(2)利用人体轮廓预处理和非刚性点集配准算法从剪影序列中获取人体轮廓形变场,并针对形变场数据的稀疏性,本文在形变场分支中设计多尺度特征提取模块以提升网络对形变场数据的表征能力;(3)针对受试者的行走特性,本文在步态剪影分支中提出帧间差异性特征提取模块以捕捉行走过程中人体的动态变化特征,并构建帧间上下文特征提取模块以提取连续步态帧之间的上下文信息。

    GaitDef的网络结构如图1所示,其主要包括形变场特征提取分支、步态剪影特征提取分支,全连接层(Fully Connected Layer, FC)[1416]和分类器(Classifier)组成。与多数直接将步态剪影作为输入数据的步态识别方法不同,本文利用经过点集配准得到的形变场提升对人体轮廓形状信息和运动特性的表征能力。

    图  1  GaitDef网络框架

    形变场和步态剪影数据分别经过特征提取网络得到形变场和步态剪影特征。在形变场分支中,形变场数据依次经过3维卷积(Conv3d)、时间聚合操作(Temporal Aggregation, TA)、多尺度特征提取模块(Multi-Scale Feature Extraction Module, MSFEM)、时间池化(Temporal Pooling, TP)和空间维度GeM(Generalized-Mean)池化。根据求和与拼接这两种特征融合方式,本文将MSFEM模块分别定义为MSFEM A和MSFEM B, MSFEM模块的结构如图2所示。此外,本文针对步态剪影设计了帧间差异性和上下文信息特征提取模块(Adjacent frame difference and Context Feature Extraction Module, ACFEM)。同样,根据特征融合方式将ACFEM模块定义为ACFEM A和ACFEM B,其结构如图3所示。

    图  2  多尺度特征提取模块(MSFEM)的网络结构
    图  3  帧间差异性和上下文信息特征提取模块(ACFEM)

    形变场特征和步态剪影特征通过相加操作得到最终的步态特征,该步态特征依次经过FC层和分类器。本文对全连接层的输出特征计算3元组损失(triplet loss),对分类器输出的结果计算交叉熵损失(cross-entropy loss)。

    在经典的非刚性点集匹配算法中,薄板样条鲁棒点匹配算法(Thin-Plate Spline RPM, TPS-RPM)[24]将退火算法、薄板样条和软分配用于空间变换和离群值的剔除,从而获得点集间的对应关系。由于人体轮廓变化是一种典型的非刚性变换,因而本文使用TPS-RPM算法对相邻帧的人体轮廓点进行非刚性点集配准,以刻画相邻帧之间的人体轮廓点对应关系和挖掘受试者在行走过程中所隐含的运动特征。

    图4(a)展示了从步态剪影生成形变场的过程,本文首先进行人体轮廓提取,利用等间隔抽样将连续的人体轮廓离散化,然后对相邻帧的轮廓点集合进行配准。人体轮廓配准可视化效果如图4(b)所示,红色圆圈代表前一帧的人体轮廓点,黄色十字代表后一帧的人体轮廓点。

    图  4  人体轮廓点离散化和配准过程

    TPS-RPM算法主要包含两个相互迭代的关键步骤:计算点集之间的对应关系M和求解非刚性空间变换函数f。假设两个待配准人体轮廓点集为V={va,a=1,2,,K}U={ui,i=1,2,,N},其中,vaR2×1uiR2×1是表示2维空间坐标点的列向量。定义X为中间变换点集,fVX的变换函数,V中每个点通过f映射到一个新位置xa=f(va)。点集配准的目标可以表示为最小化2次能量函数E(Z,f)

    minZ,fE(Z,f)=minZ,fNi=1Ka=1zaiuif(va)2+λLf2ξNi=1Ka=1zai
    (1)

    Z={zai}是二值矩阵,它表示VU的对应关系矩阵,如果两个点对应,则该位置值为1,否则为0。

    式(1)中第2项的Lf2是引入的平滑性约束项,其可以表示为

    Lf2=[(2fx2)2+2(2fxy)2+(2fy2)2]dxdy
    (2)

    第3项用于防止过多的点被判断为野点。λξ是权重参数。TPS-RPM使用关系矩阵M代替Z将整数匹配变换为实数匹配。M的大小为N×K,且M中每个元素mai的取值范围为[0,1]mai越接近1表示两点对应程度越高。则式(1)可以表示为

    minM,fE(M,f)=minM,fNi=1Ka=1maiuif(va)2+λLf2ξNi=1Ka=1mai
    (3)

    在此基础上,迭代更新对应关系矩阵M和变换函数f。首先,根据退火参数w和空间变换f更新对应矩阵M,直至w达到或小于终止温度时终止

    mai=1wexp((uif(va))T(uif(va))2w)
    (4)

    然后逐行、逐列对M进行归一化,根据更新后的对应关系矩阵M对变换函数f进行更新

    minfE(f)=minfKa=1yaf(va)2+λLf2
    (5)

    其中,ya=Ni=1maiui,变量ya为点集U根据对应关系矩阵M计算得到va的对应点。

    最后,将TPS与式(5)中的能量目标E(f)结合,并展开平滑项Lf2,即可得到薄板样条能量函数

    ETPS(f)=Ka=1yaf(va)2+λ[(2fx2)2+2(2fxy)2+(2fy2)2]dxdy
    (6)

    相邻帧人体轮廓集合经过配准可以对应关系矩阵MM记录了从点va移动到点ui过程中水平和垂直方向的位移量。定义输入剪影序列S维度为1×T0×H×WT0为序列的帧数,H×W代表图像的高度和宽度,通道数1表示剪影为灰度图像。定义点集配准输出的形变场序列D的维度为2×(T01)×H×W,通道数2为水平和垂直方向发生的位移量。D记录了相邻两帧人体轮廓点间的对应关系。由于个体间行为习惯和人体形态存在差异,连续帧的形变场序列可以有效表征人体形态变化,提升对人体行为动作的动态感知能力。

    人体轮廓形变场虽然可以有效表征人体行走过程中的运动变化量,但其只在人体轮廓离散点上有数据。因此,本文在空间维度上使用多尺度卷积以提升对形变场数据的感知能力和获得高判别力步态特征。形变场分支的网络结构如图1所示,形变场D经过3维卷积和时间聚合操作[16]得到特征fD,该过程可以表示为

    fD=FTA(FConv3d(D))
    (7)

    其中,fD的维度为CTA×TTA×H×WCTA表示通道数,TTA为压缩后的帧数,FConv3d()表示卷积核尺寸为k=(3,3,3)的3维卷积。FTA()为时间聚合操作,它是卷积核为k=(3,3,3),步长为s=(3,1,1)的3维卷积。

    由于形变场D中的有效数值只分布在人体轮廓点位置,形变场数据具有稀疏性,针对该特性,本文设计多尺度特征提取模块(MSFEM),该模块的网络结构如图2所示。假设输入特征为fDefInput,其维度为CIn×TIn×H×WfDefInput分别被送入卷积核尺寸为k=(3,3,3),k=(3,5,5)k=(3,7,7)的3维卷积。同时,本文对卷积核尺寸为k=(3,5,5)k=(3,7,7)的两个3维卷积增加残差连接,以增强特征的表征能力。此外,如图2所示,根据该模块的输出特征融合方式(Feature Fusion),本文将MSFEM模块定义为:MSFEM A(元素级特征相加)和MSFEM B(通道维度特征拼接)。

    融合后的特征定义为fDefFusionfDefFusion的特征维度定义为CFusion×TFusion×H×W。然后,fDefFusion经过TP层,在时间维度对特征进行最大池化操作并得到fTPfTP的维度为CFusion×1×H×W。进一步,fTP被送入GeM层[16]以在空间维度上实现特征压缩,该过程可以表示为

    fDefGeM=(F1×1×WAvg((fTP)p))1/1pp
    (8)

    其中,fDefGeM为形变场分支最终的输出特征,其维度为CFusion×1×H×1F1×1×WAvg()表示对W维度的平均池化操作,p是可以随网络训练而不断更新的参数。

    步态剪影序列不仅可以有效地反映出人体轮廓的形状特点,同时直接刻画了行走过程中人体的动态变化。本文从帧间动态差异性提取和时间上下文信息增强的角度出发,设计步态剪影特征提取网络分支,该分支的网络结构如图1所示。定义输入剪影序列为SS的维度为1×T×H×WS首先经过卷积层和时间聚合层得到fS,然后fS被送入帧间差异性和上下文信息特征提取模块(ACFEM)。

    图3是ACFEM模块的网络结构,其输入特征定义为fSilInputfSilInput的维度为CIn×TIn×H×W。该模块由3部分组成:全局特征提取分支、帧间差异性特征提取分支和上下文信息提取分支。其中,全局特征提取分支由卷积核为k=(3,3,3)的3维卷积和激活函数LeakyReLU构成,用于提取整体特征fSilGlobal_final

    在帧间差异性特征提取分支中,为捕捉连续帧的人体动态变化特性,本文在时间维度上计算fSilInput中相邻帧之间的特征差值并得到fSilDiffSilDif的维度为CIn×(TIn1)×H×W,然后使用0值填充得到fSilDif,其维度为CIn×TIn×H×WfSilDif分别经过卷积核为k=(3,3,3)的3维卷积得到动态区域的时空特征和卷积核为k=(1,3,3)的3维卷积得到动态区域的空间特征,两个特征相加后经过激活函数得到增强特征fSilDif_final

    在上下文信息提取分支中,本文对特征fSilInput中相邻帧之间的特征计算均值并得到fSilContfSilCont的维度为CIn×(TIn1)×H×W,使用0值填充得到fSilCont,其维度为CIn×TIn×H×W。然后,fSilCont分别经过卷积核k=(3,3,3)的3维卷积以提取时空特征和卷积核k=(3,1,1)的3维卷积以提取时序特征,两个输出特征在经过激活函数后相加得到特征fSilCout_final。此外,如图3所示,根据该模块的输出特征融合方式,将ACFEM模块定义为:ACFEM A(元素级特征相加)和ACFEM B(通道维度特征拼接)。ACFEM模块的输出特征定义为fSilFusionfSilFusion依次经过TP层和GeM层,得到输出特征fSilGeMfSilGeMfDefGeM拥有相同的特征维度。

    本文对形变场特征fDefGeM和步态剪影特征fSilGeM进行元素级特征求和并得到融合特征fFusion=fDefGeM+fSilGeM。然后,fFusion依次经过FC层和分类器,其中FC层的输出特征用于计算3元组损失以拉近类内样本的距离和推远类间样本的距离,分类器的输出分类结果用于计算交叉熵损失以约束网络学习身份判别性特征。

    对于3元组损失,假设给定一个特征3元组(fa,fp,fq),其中fafq属于同一受试者的特征,fafp属于不同受试者的特征,当存在H个3元组{Gh|Gh=(fha,fhp,fhq),h=1,2,,H}时,则3元组损失可以表示为

    Ltri=1HHh=1max(mdh+d+h,0)
    (9)

    其中,d+h=fhafhq22dh=fhafhp22表示两个特征间的欧氏距离,m表示边界阈值。

    本文中的交叉熵损失可以表示为

    Lce=Ii=1ziln(pi)
    (10)

    其中,I是身份特征的数量,zi是第i个样本对应的one-hot类型身份标签,pi表示第i个样本的预测概率。

    最终,网络训练的总损失Lall可以表示为

    Lall=Lce+Ltri
    (11)

    CASIA-B[25]包含了124位受试者在3种行走条件下采集的10组步态数据,其中包括6组正常行走(NM)数据、2组背包行走(BG)数据和2组穿衣行走(CL)数据。并且每组步态数据对应有11个不同视角,即每位受试者共有110组步态序列。其中74位受试者的步态数据用于训练,剩余50位受试者的步态数据用于测试。在测试阶段,每位受试者在NM条件下的前4组数据为验证集(Gallery),剩余6组数据为探针集(Probe)。

    CCPG[26]包含了200位受试者的步态数据,每位受试者数据包含7组不同的服装和携带物以及10个不同方位的相机视角,共有室内和室外两种采集场景。其中前100位受试者的步态数据用于训练,剩余100位受试者的步态数据用于测试。测试阶段包含了4种测试场景:全身换装,仅换上装,仅换下装和背包。

    网络模型输入的步态剪影尺寸为H×W=64×44,训练阶段中,输入的步态序列长度为T=30,测试阶段将序列中所有帧送入网络架构。3元组损失中边界阈值设为m=0.2,GeM层中的参数p采用与文献[16]相同的设置,初始值设为6.5。在CASIA-B数据集上,MSFEM和ACFEM模块在3个阶段(A,A,B)输出的特征通道数分别为(64,128,128),在CCPG数据集上,设为(64,128,256)。此外,在网络训练阶段,Batchsize设置为8×8=64,其中每组训练数据抽取的受试者人数设置为8,每位受试者中选取的样本数为8。本文采用Adam作为优化器,学习率设置为0.000 1,训练迭代次数(epoch)设置为100K。本文使用的硬件环境为2卡NVIDIA GeForce RTX 3090,CPU型号为Intel(R)Core(TM)i9-13900KF。实验环境使用的Ubuntu20.04.6,Cuda版本为12.2,Python版本为3.9.16,Pytorch版本为1.10.2。

    本节分别在CASIA-B和CCPG数据集上将GaitDef与近年来先进的步态识别方法进行对比,包括GaitSet[14], GaitGL[16], GaitPart[19],基于上下文敏感的时间特征学习网络(Context-Sensitive Temporal feature Learning network, CSTL)[20], Lagrange[22], MetaGait[27]和GaitGCI-T[28]。由于CSTL, Lagrange, MetaGait和GaitGCI-T等方法仅包含CASIA-B数据集上的实验结果,且尚未提供源码或源码不完整,因此本文在CCPG数据集上仅对GaitSet, GaitPart和GaitGL 3种方法进行实验对比。

    在CASIA-B数据集上,GaitDef与对比方法的结果如表1所示。从表1可以看出,在NM, BG和CL条件下,GaitDef的Rank-1识别准确率分别可以达到97.6%, 95.7%和87.2%。其中在NM条件下,本文所提方法超过了GaitSet, GaitPart, GaitGL和Lagrange等4种最先进的方法,略低于CSTL, GaitGCI和MetaGait。在BG条件下,本文所提方法达到了SOTA的性能,与MetaGait和GaitGCI-T相比,GaitDef准确率也分别高出0.5%和0.7%。在CL条件下,GaitDef的识别结果明显高于其他对比方法,分别比MetaGait和GaitGCI-T高出0.3%和0.8%。实验结果表明,虽然MetaGait在NM条件下取得了最优结果,但GaitDef整体表现更优,且GaitDef在应对背包和穿衣场景时可以达到更高的识别准确率。

    表  1  Rank-1识别准确率在CASIA-B数据集上的对比结果,不包括相同视角的情况(%)
    验证集 NM#1-4 0°~180° 均值
    探针集 18° 36° 54° 72° 90° 108° 126° 144° 162° 180°
    NM#
    5-6
    GaitSet AAAI19 90.8 97.9 99.4 96.9 93.6 91.7 95.0 97.8 98.9 96.8 85.8 95.0
    GaitPart CVPR20 94.1 98.6 99.3 98.5 94.0 92.3 95.9 98.4 99.2 97.8 90.4 96.2
    GaitGL ICCV21 96.0 98.3 99.0 97.9 96.9 95.4 97.0 98.9 99.3 98.8 94.0 97.4
    CSTL ICCV21 97.2 99.0 99.2 98.1 96.2 95.5 97.7 98.7 99.2 98.9 96.5 97.8
    Lagrange CVPR22 95.2 97.8 99.0 98.0 96.9 94.6 96.9 98.8 98.9 98.0 91.5 96.9
    MetaGait ECCV22 97.3 99.2 99.5 99.1 97.2 95.5 97.6 99.1 99.3 99.1 96.7 98.1
    GaitGCI-T CVPR23 97.9
    GaitDef 本文 95.3 98.1 99.2 98.0 96.7 96.0 98.6 99.4 99.2 99.1 94.1 97.6
    BG#
    5-6
    GaitSet AAAI19 83.8 91.2 91.8 88.8 83.3 81.0 84.1 90.0 92.2 94.4 79.0 87.2
    GaitPart CVPR20 89.1 94.8 96.7 95.1 88.3 94.9 89.0 93.5 96.1 93.8 85.8 91.5
    GaitGL ICCV21 92.6 96.6 96.8 95.5 93.5 89.3 92.2 96.5 98.2 96.9 91.5 94.5
    CSTL ICCV21 91.7 96.5 97.0 95.4 90.9 88.0 91.5 95.8 97.0 95.5 90.3 93.6
    Lagrange CVPR22 89.9 94.5 95.9 94.6 93.9 88.0 91.1 96.3 98.1 97.3 88.9 93.5
    MetaGait ECCV22 92.9 96.7 97.1 96.4 94.7 90.4 92.9 97.2 98.5 98.1 92.3 95.2
    GaitGCI-T CVPR23 95.0
    GaitDef 本文 93.8 97.0 97.1 96.7 95.8 92.5 95.2 97.5 98.3 97.0 92.0 95.7
    CL#
    5-6
    GaitSet AAAI19 61.4 75.4 80.7 77.3 72.1 70.1 71.5 73.5 73.5 68.4 50.0 70.4
    GaitPart CVPR20 70.7 85.5 86.9 83.3 77.1 72.5 76.9 82.2 83.8 80.2 66.5 78.7
    GaitGL ICCV21 76.6 90.0 90.3 87.1 84.5 79.0 84.1 87.0 87.3 84.4 69.5 83.6
    CSTL ICCV21 78.1 89.4 91.6 86.6 82.1 79.9 81.8 86.3 88.7 86.6 75.3 84.2
    Lagrange CVPR22 81.6 91.0 94.8 92.2 85.5 82.1 86.0 89.8 90.6 86.0 73.5 86.6
    MetaGait ECCV22 80.0 91.8 93.0 87.8 86.5 82.9 85.2 90.0 90.8 89.3 78.4 86.9
    GaitGCI-T CVPR23 86.4
    GaitDef 本文 77.8 92.8 94.2 91.0 87.7 82.7 86.4 90.1 91.9 88.5 75.6 87.2
    下载: 导出CSV 
    | 显示表格

    在CCPG数据集上,本文将GaitDef与GaitSet, GaitPart, GaitGL等3个主流步态识别方法进行对比,对比结果如表2所示,所有结果为10个不同方位相机的平均值,且不包括相同相机,其中不同方位的相机对应不同的相机编号。从表2可以看出,在全身换装(CL-FULL)、仅换上装(CL-UP)、仅换下装(CL-DN)和背包(BG)等条件下,GaitDef的Rank-1识别准确率分别可以达到65.4%, 71.1%, 64.5%和72.1%,实验结果在多数相机视角下超过其它方法。在CL-FULL, CL-UP和BG条件下,GaitDef的Rank-1准确率比GaitGL分别高出3.8%, 3.3%和2.6%,实验结果表明GaitDef在换衣和背包场景下可以获得更高的识别准确率。

    表  2  Rank-1识别准确率在CCPG数据集上的对比结果,不包括相同视角的情况(%)
    相机编号
    1 2 3 4 5 6 7 8 9 10 均值
    CL-FULL GaitSet AAAI19 50.6 44.7 57.0 63.8 59.2 61.4 58.3 65.9 62.5 67.4 59.1
    GaitPart CVPR20 49.8 42.4 56.5 60.3 58.8 62.4 56.1 63.7 62.1 66.1 57.8
    GaitGL ICCV21 56.0 47.9 60.9 65.8 60.7 64.9 58.2 67.8 68.2 65.7 61.6
    GaitDef 本文 59.3 52.3 65.4 66.5 66.3 70.3 62.9 70.1 68.5 72.3 65.4
    CL-UP GaitSet AAAI19 59.2 56.0 64.2 65.2 66.8 70.7 66.0 66.3 64.5 72.2 65.1
    GaitPart CVPR20 58.6 52.3 62.4 65.1 65.9 68.3 61.8 65.8 64.4 67.6 63.2
    GaitGL ICCV21 61.8 59.1 67.4 68.9 68.6 72.3 65.0 71.6 73.9 69.8 67.8
    GaitDef 本文 66.1 62.4 71.2 71.2 72.7 76.8 69.3 72.9 73.0 75.6 71.1
    CL-DN GaitSet AAAI19 59.9 52.9 62.7 68.0 65.1 66.3 63.7 69.6 67.6 72.4 64.8
    GaitPart CVPR20 58.2 49.6 61.1 65.5 64.9 68.0 60.8 66.2 69.4 69.4 63.3
    GaitGL ICCV21 63.4 51.7 63.7 65.1 63.4 67.1 59.3 68.3 71.6 66.9 64.1
    GaitDef 本文 63.8 51.2 62.5 62.5 66.8 68.9 61.2 69.1 70.0 69.4 64.5
    BG GaitSet AAAI19 64.3 54.8 69.9 74.1 69.6 73.3 67.5 67.7 66.2 73.6 68.1
    GaitPart CVPR20 62.7 56.0 67.1 68.3 70.1 72.8 63.4 67.4 65.0 72.9 66.6
    GaitGL ICCV21 64.7 55.0 71.6 72.6 67.3 74.9 66.0 74.1 73.1 75.4 69.5
    GaitDef 本文 67.6 55.2 74.1 76.0 72.3 77.0 71.2 75.2 74.6 77.8 72.1
    下载: 导出CSV 
    | 显示表格

    本文在人体轮廓配准前,对人体轮廓进行了等间隔抽样的离散化处理,由于数据集中部分样本的人体轮廓点数少于140个,因此本节在轮廓点抽样时分别设置了4种不同轮廓点数:50个、80个、100个和120个。图5为基于不同抽样点数得到的形变场数据经过形变场分支的实验结果。从中可以发现在NM, BG和CL条件下,步态识别准确率随人体轮廓点数量增加而逐渐提升。其中,在NM条件下,抽样点数为100个时取得了最高识别准确率93.1%。在BG和CL条件下,准确率随轮廓点数增加得到的提升效果更为明显。此外,从对比实验结果中可以发现,即使形变场中只有50个有效数据点,在NM, BG和CL条件下,识别准确率也分别可以达到91.7%, 80.1%和65.4%,进而验证了人体轮廓形变场数据的有效性。

    图  5  基于不同人体轮廓点数量的形变场分支网络在CASIA-B数据集上的实验结果

    本节分别在CASIA-B和CCPG数据集上进行了网络分支的消融实验以验证不同分支的有效性,该实验中的形变场分支的输入数据为基于120个人体轮廓点得到的形变场。

    CASIA-B数据集上的消融实验结果如表3所示。在形变场网络结构中,当MSFEM模块中分别单独使用卷积核尺寸为3, 5和7的卷积层提取形变场特征时,它们在3种状态下的平均Rank-1识别准确率分别可以达到75.7%, 81.5%和81.5%;同时使用两种不同尺寸的卷积核提取步态特征时,识别准确率明显高于单独使用一种尺寸卷积核时的结果;同时使用3种不同尺寸卷积核的卷积提取形变场特征时,其性能达到最优。

    表  3  不同分支网络结构在CASIA-B数据集上的Rank-1识别准确率,不包括相同视角的情况(%)
    网络分支 特征提取模块结构 NM BG CL 均值
    形变场分支 MSFEM只使用卷积核尺寸为(3,3,3)的卷积 88.9 80.2 58.1 75.7
    MSFEM只使用卷积核尺寸为(3,5,5)的卷积 92.4 85.3 66.9 81.5
    MSFEM只包含卷积核尺寸为(3,7,7)的卷积 92.4 84.8 67.3 81.5
    MSFEM使用卷积核尺寸为(3,3,3)和(3,5,5)的卷积 92.5 85.7 67.6 81.9
    MSFEM使用卷积核尺寸为(3,3,3)和(3,7,7)的卷积 92.8 85.4 67.3 81.8
    MSFEM使用卷积核尺寸为(3,5,5)和(7,7,7)的卷积 93.1 85.7 67.9 82.2
    MSFEM 93.0 86.4 69.2 82.9
    步态剪影分支 ACFEM只使用全局特征分支 96.8 94.1 84.1 91.7
    ACFEM只使用帧间差异性特征提取分支 97.0 94.6 84.6 92.1
    ACFEM只使用上下文特征提取分支 96.6 94.0 83.7 91.4
    ACFEM使用全局特征和帧间差异性特征提取分支 97.2 95.3 86.1 92.9
    ACFEM使用全局特征和上下文特征提取分支 97.2 94.7 85.2 92.4
    ACFEM使用帧间差异性特征和上下文特征提取分支 97.1 95.1 86.4 92.9
    ACFEM 97.5 95.4 86.6 93.2
    特征融合 形变场分支(MSFEM)+步态剪影分支(ACFEM) 97.6 95.7 87.2 93.5
    下载: 导出CSV 
    | 显示表格

    在步态剪影分支中,ACFEM分别只使用全局分支、帧间差异性特征提取分支和上下文特征提取分支的Rank-1指标可以达到91.7%, 92.1%和91.4%,其中帧间差异性提取分支的性能最优。同时使用任意两个特征提取分支取得的准确率明显高于单独使用帧间差异性提取分支。在融合3个特征提取分支后,ACFEM在NM, BG和CL条件下可以达到97.5%, 95.4%和86.6%,取得最优结果。

    此外,基于形变场和步态剪影的特征融合方法在NM, BG和CL条件下的Rank-1识别准确率分别为97.6%, 95.7%和87.2%,该结果超过了单独使用形变场分支和步态剪影分支,进而验证了特征融合的有效性。

    CCPG数据集上的消融实验结果如表4所示。由于换衣对人体轮廓影响较大,并且形变场为离散的轮廓点数据,因此单独使用形变场分支在CL-Full, CL-UP, CL-DN, BG等条件下的Rank-1识别准确率仅为50.5%, 59.8%, 57.5%和61.4%。同时使用形变场和步态剪影分支在4种条件下的平均结果为68.3%,比单独使用形变场和步态剪影分支分别高出11%和3.2%,进而验证了特征融合的有效性。

    表  4  不同分支网络结构在CCPG数据集上的Rank-1识别准确率,不包括相同视角的情况(%)
    网络分支特征提取模块结构CL-FullCL-UPCL-DNBG均值
    形变场分支MSFEM50.559.857.561.457.3
    步态剪影分支ACFEM62.067.562.868.265.1
    特征融合形变场分支(MSFEM)+步态剪影分支(ACFEM)65.471.164.572.168.3
    下载: 导出CSV 
    | 显示表格

    本节分析了3元组损失函数中边界值m对模型的影响,并设置m的取值范围为{0.1,0.2,0.3,0.4,0.5}。由表5可知,不同的边界值m会影响模型在训练阶段的步态特征学习,进而导致模型在测试阶段的性能差异。当m值设置为0.2时,模型的Rank-1识别准确率最高;而当m值设置偏小或偏大,模型性能都会有所下降。

    表  5  3元组损失函数中的不同边界值在CASIAB数据集上的Rank-1识别准确率对比,不包括相同视角的情况(%)
    m NM BG CL 均值
    0.1 97.3 95.3 85.9 92.8
    0.2 97.6 95.7 87.2 93.5
    0.3 97.3 94.9 84.9 92.4
    0.4 97.3 94.9 85.2 92.5
    0.5 97.5 95.0 84.6 92.4
    下载: 导出CSV 
    | 显示表格

    本节对比了GaitDef与GaitSet, GaitPart, GaitGL等方法在CASIA-B数据集上的NM, BG和CL 3种条件下的平均识别准确率、模型参数量和浮点计算次数(FLoating Point Operations, FLOPs)。对比结果如表6所示。在步态识别准确率方面,GaitDef的平均Rank-1识别准确率优于其他对比方法;而在模型复杂度方面,由于GaitDef是双分支网络结构,因此GaitDef的模型复杂度较高。形变场分支通过使用多尺度3维卷积提升形变场特征的表征能力,导致该分支模型参数量和FLOPs较高,如何在保持较高识别准确率的条件下设计更为轻量的步态识别模型成为本文未来的研究方向。

    表  6  平均Rank-1识别准确率(%)、参数量(M)和浮点计算次数(G)在CASIA-B数据集上的对比
    方法 平均Rank-1
    识别准确率
    参数量 浮点计算次数
    GaitSet 84.2 2.59 6.54
    GaitPart 88.8 1.20 113.92
    GaitGL 91.8 2.49 25.24
    GaitDef(形变场分支) 82.9 8.07 136.45
    GaitDef(步态剪影分支) 93.2 2.48 55.91
    GaitDef(形变场分支+
    步态剪影分支)
    93.5 10.55 178.38
    下载: 导出CSV 
    | 显示表格

    本文将点集配准引入步态识别任务,利用点集配准得到的人体轮廓形变场表征行走过程中人体轮廓的动态变化,对比实验验证了形变场数据的有效性。并在此基础上,提出一种基于人体轮廓形变场的双流步态识别网络结构GaitDef,针对形变场数据的稀疏性设计多尺度特征提取模块,利用多尺度卷积捕捉人体空间特征,针对步态剪影序列提出帧间差异性捕捉模块和上下文信息特征增强模块,以提升网络对行走过程中动态区域变化特性和上下文信息的表征能力,消融实验验证了网络结构的有效性。

  • BAO Jie, HE Tianfu, RUAN Sijie, et al. Planning bike lanes based on sharing-bikes’ trajectories[C]. The 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, Halifax, Canada, 2017: 1377–1386.
    YUAN Jing, ZHENG Yu, ZHANG Chengyang, et al. T-drive: Driving directions based on taxi trajectories[C]. The 18th SIGSPATIAL International Conference on Advances in Geographic Information Systems, San Jose, USA, 2010: 99–108.
    TOCKAR A. Riding with the stars: Passenger privacy in the NYC Taxicab dataset[EB/OL]. https://research.neustar.biz/author/atockar/, 2018.
    W-Pwn. 健身APP泄露军事机密, 包括中国南海[EB/OL]. https://zhuanlan.zhihu.com/p/33405626, 2018.
    CHEN Zhenyu, FU Yanyan, ZHANG Min, et al. The de-anonymization method based on user spatio-temporal mobility trace[C]. The 19th International Conference on Information and Communications Security, Beijing, China, 2017: 459–471.
    ABUL O, BONCHI F, and NANNI M. Never walk alone: Uncertainty for anonymity in moving objects databases[C]. The 24th IEEE International Conference on Data Engineering, Cancun, Mexico, 2008: 376–385.
    TERROVITIS M, POULIS G, MAMOULIS N, et al. Local suppression and splitting techniques for privacy preserving publication of trajectories[J]. IEEE Transactions on Knowledge and Data Engineering, 2017, 29(7): 1466–1479. doi: 10.1109/TKDE.2017.2675420
    YAO Lin, WANG Xinyu, WANG Xin, et al. Publishing sensitive trajectory data under enhanced l-diversity model[C]. The 20th IEEE International Conference on Mobile Data Management, Hong Kong, China, 2019: 160–169.
    冯登国. 大数据安全与隐私保护[M]. 北京: 清华大学出版社, 2018: 194–219.
    DWORK C. Differential privacy[C]. The 33rd International Colloquium on Automata, Languages and Programming, Venice, Italy, 2006: 1–12. doi: 10.1007/11787006_1.
    ZHU Tianqing, LI Gang, ZHOU Wanlei, et al. Differentially private data publishing and analysis: A survey[J]. IEEE Transactions on Knowledge and Data Engineering, 2017, 29(8): 1619–1638. doi: 10.1109/TKDE.2017.2697856
    MCSHERRY F and TALWAR K. Mechanism design via differential privacy[C]. The 48th Annual IEEE Symposium on Foundations of Computer Science, Providence, USA, 2007: 94–103.
    MCSHERRY F D. Privacy integrated queries: An extensible platform for privacy-preserving data analysis[C]. The 2009 ACM SIGMOD International Conference on Management of Data, Rhode Island, USA, 2009: 19–30.
    DWORK C, KENTHAPADI K, MCSHERRY F, et al. Our data, ourselves: Privacy via distributed noise generation[C]. The 24th Annual International Conference on the Theory and Applications of Cryptographic Techniques, Peterbury, Russia, 2006: 486–503.
    KIFER D and MACHANAVAJJHALA A. No free lunch in data privacy[C]. The 2011 ACM SIGMOD International Conference on Management of Data, Athens, Greece, 2011: 193–204.
    GEHRKE J, LUI E, and PASS R. Towards privacy for social networks: A zero-knowledge based definition of privacy[C]. The 8th Conference on Theory of Cryptography, Providence, USA, 2011: 432–449.
    KIFER D and MACHANAVAJJHALA A. Pufferfish: A framework for mathematical privacy definitions[J]. ACM Transactions on Database Systems, 2014, 39(1): Article No.3. doi: 10.1145/2514689
    DWORK C. A firm foundation for private data analysis[J]. Communications of the ACM, 2011, 54(1): 86–95. doi: 10.1145/1866739.1866758
    DWORK C, MCSHERRY F, NISSIM K, et al. Calibrating noise to sensitivity in private data analysis[C]. The 3rd Theory of Cryptography Conference, New York, USA, 2006: 265–284.
    QARDAJI W, YANG Weining, and LI Ninghui. Differentially private grids for geospatial data[C]. The 29th IEEE International Conference on Data Engineering, Brisbane, Australia, 2013: 757–768.
    CORMODE G, PROCOPIUC C, SRIVASTAVA D, et al. Differentially private spatial decompositions[C]. The 28th IEEE International Conference on Data Engineering, Washington, USA, 2012: 20–31.
    ZHANG Jun, XIAO Xiaokui, and XIE Xing. PrivTree: A differentially private algorithm for hierarchical decompositions[C]. The 2016 International Conference on Management of Data, San Francisco, USA, 2016: 155–170.
    HAY M, RASTOGI V, MIKLAU G, et al. Boosting the accuracy of differentially private histograms through consistency[J]. Proceedings of the VLDB Endowment, 2010, 3(1/2): 1021–1032.
    XIAO Yonghui, XIONG Li, and YUAN Chun. Differentially private data release through multidimensional partitioning[C]. The 7th Workshop on Secure Data Management, Singapore, 2010: 150–168.
    XIE Hairuo, TANIN E, and KULIK L. Distributed histograms for processing aggregate data from moving objects[C]. 2007 International Conference on Mobile Data Management, Mannheim, Germany, 2007: 152–157.
    XIE Hairuo, TANIN E, KULIK L, et al. Euler histogram tree: A spatial data structure for aggregate range queries on vehicle trajectories[C]. The 7th ACM SIGSPATIAL International Workshop on Computational Transportation Science, Dallas/Fort Worth, USA, 2014: 18–24.
    GHANE S, KULIK L, and RAMAMOHANARAO K. Publishing spatial histograms under differential privacy[C]. The 30th International Conference on Scientific and Statistical Database Management, Bozen-Bolzano, Italy, 2018: Article No.14.
    HARDT M, LIGETT K, and MCSHERRY F. A simple and practical algorithm for differentially private data release[C]. Advances in Neural Information Processing Systems, Lake Tahoe, USA, 2012: 2339–2347.
    TO H, NGUYEN K, and SHAHABI C. Differentially private publication of location entropy[C]. The 24th ACM SIGSPATIAL International Conference on Advances in Geographic Information Systems, Burlingame, USA, 2016: Article No. 35.
    CHEN Rui, FUNG B C M, DESAI B C, et al. Differentially private transit data publication: A case study on the montreal transportation system[C]. The 18th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, Beijing, China, 2012: 213–221.
    CHEN Rui, ACS G, and CASTELLUCCIA C. Differentially private sequential data publication via variable-length n-grams[C]. The 2012 ACM Conference on Computer and Communications Security, Raleigh, USA, 2012: 638–649.
    HE Xi, CORMODE G, MACHANAVAJJHALA A, et al. DPT: Differentially private trajectory synthesis using hierarchical reference systems[J]. The VLDB Endowment, 2015, 8(11): 1154–1165. doi: 10.14778/2809974.2809978
    HE Xi, RAVAL N, and MACHANAVAJJHALA A. A demonstration of VisDPT: Visual exploration of differentially private trajectories[J]. The VLDB Endowment, 2016, 9(13): 1489–1492. doi: 10.14778/3007263.3007291
    HUA Jingyu, GAO Yue, and ZHONG Sheng. Differentially private publication of general time-serial trajectory data[C]. 2015 IEEE Conference on Computer Communications, Hong Kong, China, 2015: 549–557. doi: 10.1109/INFOCOM.2015.7218422.
    LI Meng, ZHU Liehuang, ZHANG ZIjian, et al. Achieving differential privacy of trajectory data publishing in participatory sensing[J]. Information Sciences, 2017, 400/401: 1–13. doi: 10.1016/j.ins.2017.03.015
    ERLINGSSON Ú, PIHUR V, and KOROLOVA A. Rappor: Randomized aggregatable privacy-preserving ordinal response[C]. The 2014 ACM SIGSAC Conference on Computer and Communications Security, Scottsdale, USA, 2014: 1054–1067.
    BASSILY R and SMITH A. Local, private, efficient protocols for succinct histograms[C]. The 47th Annual ACM Symposium on Theory of Computing, Portland, USA, 2015: 127–135.
    XIAO Yonghui and XIONG Li. Protecting locations with differential privacy under temporal correlations[C]. The 22nd ACM SIGSAC Conference on Computer and Communications Security, Denver, USA, 2015: 1298–1309.
    WANG Shuo, SINNOTT R, and NEPAL S. Protecting the location privacy of mobile social media users[C]. IEEE International Conference on Big Data, Washington, USA, 2016: 1143–1150.
    HARDT M and TALWAR K. On the geometry of differential privacy[C]. The 42nd ACM Symposium on Theory of Computing, Cambridge, UK, 2010: 705–714.
    SONG Shuang, WANG Yizhen, and CHAUDHURI K. Pufferfish privacy mechanisms for correlated data[C]. The 2017 ACM International Conference on Management of Data, Chicago, USA, 2017: 1291–1306.
    OU Lu, QIN Zheng, LIAO Shaolin, et al. An optimal pufferfish privacy mechanism for temporally correlated trajectories[J]. IEEE Access, 2018, 6: 37150–37165. doi: 10.1109/ACCESS.2018.2847720
    DWORK C and ROTH A. The algorithmic foundations of differential privacy[J]. Foundations and Trends® in Theoretical Computer Science, 2014, 9(3/4): 211–407. doi: 10.1561/0400000042
    KELLARIS G, PAPADOPOULOS S, XIAO Xiaokui, et al. Differentially private event sequences over infinite streams[J]. Proceedings of the VLDB Endowment, 2014, 7(12): 1155–1166. doi: 10.14778/2732977.2732989
    ABADI M, CHU A, GOODFELLOW I, et al. Deep learning with differential privacy[C]. The 2016 ACM SIGSAC Conference on Computer and Communications Security, Vienna, Austria, 2016: 308–318.
    GAO Qiang, ZHOU Fan, ZHANG Kunpeng, et al. Identifying human mobility via trajectory embeddings[C]. The 26th International Joint Conference on Artificial Intelligence, Macao, China, 2017: 1689–1695.
    WANG Guowei, LIAO Dongliang, and LI Jing. Complete user mobility via user and trajectory embeddings[J]. IEEE Access, 2018, 6: 72125–72136. doi: 10.1109/ACCESS.2018.2881457
    ZHOU Fan, GAO Qiang, TRAJCEVSKI G, et al. Trajectory-user linking via variational autoencoder[C]. The 27th International Joint Conference on Artificial Intelligence, Stockholm, Sweden, 2018: 3212–3218.
    LI Xiucheng, ZHAO Kaiqi, CONG Gao, et al. Deep representation learning for trajectory similarity computation[C]. The 34th IEEE International Conference on Data Engineering, Paris, France, 2018: 617–628.
    JORGENSEN Z, YU Ting, and CORMODE G. Conservative or liberal? Personalized differential privacy[C]. The 31st IEEE International Conference on Data Engineering, Seoul, South Korea, 2015: 1023–1034.
    LI Haoran, XIONG Li, JI Zhanglong, et al. Partitioning-based mechanisms under personalized differential privacy[C]. The 21st Pacific-Asia Conference on Knowledge Discovery and Data Mining, Jeju, South Korea, 2017: 615–627.
    YE Yutong, ZHANG Min, FENG Dengguo, et al. Multiple privacy regimes mechanism for local differential privacy[C]. The 24th International Conference on Database Systems for Advanced Applications, Chiang Mai, Thailand, 2019: 247–263.
    CHEN Rui, LI Haoran, QIN A K, et al. Private spatial data aggregation in the local setting[C]. The 32nd IEEE International Conference on Data Engineering, Helsinki, Finland, 2016: 289–300.
  • 加载中

Catalog

    通讯作者: 陈斌, bchen63@163.com
    • 1. 

      沈阳化工大学材料科学与工程学院 沈阳 110142

    1. 本站搜索
    2. 百度学术搜索
    3. 万方数据库搜索
    4. CNKI搜索

    Figures(6)  / Tables(2)

    Article Metrics

    Article views (6659) PDF downloads(318) Cited by()
    Proportional views
    Related

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return