Loading [MathJax]/jax/element/mml/optable/BasicLatin.js
Advanced Search
Volume 9 Issue 1
Jan.  1987
Turn off MathJax
Article Contents
SU Shuzhi, ZHANG Kaiyu, WANG Ziying, ZHANG Maoyan. A Gene Feature Extraction Method Based on Across-view Similarity Order Preserving[J]. Journal of Electronics & Information Technology, 2023, 45(1): 317-324. doi: 10.11999/JEIT211126
Citation: Xie Zhixing, Huang Daquan, Shen Qinggai. THE DETERMINATION OF THE FIELD PARAMETERS OF SADDLE DEFLECTION YOKE WITH A FERROMAGNETIC SHIELD[J]. Journal of Electronics & Information Technology, 1987, 9(1): 17-27.

THE DETERMINATION OF THE FIELD PARAMETERS OF SADDLE DEFLECTION YOKE WITH A FERROMAGNETIC SHIELD

  • Received Date: 1985-09-03
  • Rev Recd Date: 1986-02-01
  • Publish Date: 1987-01-19
  • The analysis and computation of the field distribution of the saddle deflection coil with a ferromagnetic shield by the boundary element method are described, and the limitations of the model proposed by D. M. Fye (1979) is pointed out. The Green s function is expanded by the Maclaurin series, and the analytical forms of the field parameters B0, B2 and B4 are given. The results obtained agree well with the experimentally measured values.
  • 随着生物信息学的快速发展,人们对于癌症的研究已经发展到分子水平,脱氧核糖核酸(DeoxyriboNucleic Acid, DNA)微阵列技术[1]为人类在分子水平进行疾病诊断和治疗提供了全新手段,DNA微阵列技术可以大规模地快速检测基因表达情况获得基因表达数据,通过对基因表达数据进行分析可以了解细胞当前的生理状态区分癌变细胞与正常细胞,以便做出精准的诊断。基因表达数据样本个数通常为几十到几百,而每个样本的基因数量却成千上万,高维小样本作为基因表达数据的显著特性给大多数统计方法带来了挑战,对基因样本直接进行分类会存在维数灾难[2]问题,往往需要对基因表达数据进行维数约减,其目的是将原始数据投影到低维子空间以获得新的特征,该数据可以消除噪声和冗余信息利于后续处理。特征提取[3]作为最重要的维数约减方法之一,可以获得具有鉴别能力的特征,因此如何对关键有效基因进行特征提取成为基因分类研究的关键问题。

    作为经典的单视角特征提取方法,主成分分析(Principal Components Analysis, PCA)[4]和线性判别分析(Linear Discriminant Analysis, LDA)[5]已经广泛应用于基因数据分析领域,Nakayama等人[6]使用基于高斯核的主成分分析方法用于基因表达数据聚类,讨论核参数的选择对于聚类性能的影响。Clayman等人[7]将PCA应用于研究DNA微阵列数据和临床变量之间的相互关系。Wang等人[8]提出了一种稀疏线性判别分析特征选择方法,与其他方法相比能够使用更少的特征或基因数量在降低错误分类率的情况下获得更好的结果。Lin等人[9]利用线性判别分析方法构造了阿尔茨海默病诊断框架,与之前研究中的方法相比,所提出的框架能够取得更好的分类性能。

    随着信息的爆炸式增长,这种对于同一目标的一种表示的单视角学习方法已经不能满足研究者的需要,针对同一目标多种表示的多视角学习方法成为大势所趋,多视角学习既可以充分利用视角间的互补性,又能有效剔除视角间的冗余性,从而提取更具鉴别性的特征表示,在联合维数约减任务中,多视角数据可以发挥出比单视角数据更佳的识别性能。作为多视角学习的经典工具,典型相关分析(Canonical Correlation Analysis, CCA)[10]能够揭示两个不同视角之间的多元关系,CCA旨在找到一组基向量对,最大化从同一目标的两种不同视角获得的两个不同样本集之间的相关性,CCA已广泛应用于生物信息学领域,Lin等人[11]提出了组稀疏典型相关分析方法,引入组约束利用相关分析中的结构信息研究单核苷酸多态性与功能性磁共振成像测量的大脑活动之间的对应关系。Tenenhaus等人[12]提出了核广义典型相关分析方法,并提供了一个考虑块之间先验连接图的多块数据分析的通用框架对胶质瘤不同视角基因组数据进行分析。Wang等人[13]利用稀疏多元回归与稀疏典型相关分析之间的显式联系提出了基于特征向量的稀疏典型相关分析,研究甲状腺组织学图像和基因表达数据的相关性。

    作为CCA的一种广义化扩展,多视角典型相关分析(Multi-view Canonical Correlation Analysis, MCCA)[14]能够对多个样本集之间的相关性进行表示,在不同研究中,多视角也通常被称为多模态或多重集等。MCCA中最佳线性变换可以通过求解广义特征值问题来获得,这对于高维数据来说计算量很大,样本的协方差矩阵也往往具有奇异性,这使得求解相关广义特征值问题具有挑战性。另外,MCCA只能以全局方式获得样本对之间的线性相关性,无法处理复杂的非线性情况。作为一种无监督的方法,MCCA没有利用监督信息,导致分类性能有限。

    在过去的几十年里,MCCA为了解决这些限制已经扩展出了许多不同的新方法。当特征数量超过样本数量的情况时会导致协方差矩阵的奇异性,为了应对这一情况提出了正则化MCCA(Regularized Multi-view Canonical Correlation Analysis, RMCCA)[15]。利用正则化思想,通过图诱导嵌入多表示数据的几何结构信息构建了图正则化MCCA(Graph regularized Multiset Canonical Correlations, GrMCCs)[16],在人脸数据集上的应用表明GrMCCs方法能够获得较佳实验结果。核MCCA(Kernel Multi-view Canonical Correlation Analysis, KMCCA)[17]是MCCA的一种流行的非线性扩展,将原始非线性数据隐式映射到高维特征空间,使其具有线性可分性,从而在高维空间中执行线性典型相关分析方法。利用样本类别信息构建视角间的鉴别相关性,提出了鉴别型MCCA(Discriminative Multi-view Canonical Correlation Analysis, DMCCA)[18],使得子空间中具有紧密的类内分布以及类间离散分布,从而提高了低维特征的鉴别能力,在人类情感识别方面展现出良好性能。基于标签的MCCA(Labeled Multi-view Canonical Correlation Analysis, LMCCA)[19]充分利用训练样本的类内散布矩阵和多变量互相关矩阵来提取鉴别信息,建立了基于类内信息进行典型相关分析的统一框架,该方法在人脸识别和利用多重特征目标识别等应用验证了其有效性。

    目前已有的各种多视角学习方法主要是通过不同的优化准则将多视角数据投影到子空间,从而保留原始数据的有效鉴别特征,但是在利用子空间进行学习时,往往忽略了投影前后样本之间的相似性[20],相似度顺序保持是一种重要的数据性质,它能够利用样本间的相似性来构建稳定的样本结构,因此本文提出一种相似度顺序保持特征提取方法,即相似度顺序保持跨视角相关分析(Similarity Order Preserving Across-view Correlation Analysis, SOPACA),SOPACA能够利用高维训练样本为每个视角学习到一组投影方向,通过将原始高维基因样本投影到相似保序子空间,从而获得更具鉴别力的相似性特征,通过构建鉴别敏感的视角内相似度顺序保持散布和约束鉴别敏感的视角间相似度相关,使得相似性特征在保持投影前后样本两两之间的相似性的同时具有类内聚集性与类间离散性,不仅保持了样本之间的结构关系而且充分利用样本监督信息。本文在肺癌及结直肠癌基因表达数据上进行针对性实验,实验结果表明本方法的优越性。

    给定经过中心化处理的m组高维基因数据集{X(1),X(2),,X(m)},其中X(i)=(x(i)1,x(i)2,,x(i)n)Rdi×nn为基因样本数,di为第i组特征的维数,i=1,2,,m, α(i)Rdi表示与X(i)对应的相关投影方向。MCCA方法旨在为每个基因数据集寻找一组投影方向,使得投影后基因数据集间具有最大相关性,MCCA方法的优化准则为

    max (1)

    其中,{{\boldsymbol{S}}_{ij}}表示数据集{{\boldsymbol{X}}^{(i)}}{{\boldsymbol{X}}^{(j)}}的视角间协方差矩阵,矩阵大小为{d_i} \times {d_j},其计算形式为{{\boldsymbol{S}}_{ij}} = \dfrac{1}{n}\displaystyle\sum\nolimits_{u = 1}^n {({\boldsymbol{x}}_u^{(i)} - {{{{\bar x}}}^{(i)}}){{({\boldsymbol{x}}_u^{(j)} - {{{{\bar x}}}^{(j)}})}^{{\rm{T}}} }}{{\boldsymbol{S}}_{ii}}为数据集{{\boldsymbol{X}}^{(i)}}视角内协方差矩阵,矩阵大小为{d_i} \times {d_i},其计算形式为{{\boldsymbol{S}}_{ii}} = \dfrac{1}{n}\displaystyle\sum\nolimits_{u = 1}^n {({\boldsymbol{x}}_u^{(i)} - {{{{\bar x}}}^{(i)}}){{({\boldsymbol{x}}_u^{(i)} - {{{{\bar x}}}^{(i)}})}^{{\rm{T}}} }}, {{{\bar x}}^{(i)}} = \dfrac{1}{n}\displaystyle\sum\nolimits_{i = 1}^n {{\boldsymbol{x}}_u^{(i)}}{{{\bar x}}^{(j)}} = \dfrac{1}{n}\displaystyle\sum\nolimits_{i = 1}^n {{\boldsymbol{x}}_u^{(j)}}分别对应{{\boldsymbol{X}}^{(i)}}{{\boldsymbol{X}}^{(j)}}的均值。

    由于投影方向具有尺度不变性,MCCA方法可以表述为如式(2)所示优化问题

    \begin{split} & \mathop {\max }\limits_{{{{\boldsymbol{\alpha}}}^{(1)}},{{{\boldsymbol{\alpha}}}^{(2)}}, \cdots ,{{{\boldsymbol{\alpha}}}^{(m)}}} \mathop \sum \limits_{i = 1}^n \mathop \sum \limits_{j = 1}^n {{{\boldsymbol{\alpha}}}^{(i){{\rm{T}}} }}{{\boldsymbol{S}}_{ij}}{{{\boldsymbol{\alpha}}}^{(j)}}, \\ & \quad\quad {\rm{ {s} .t.}}\;\;\mathop \sum \limits_{i = 1}^n {{{\boldsymbol{\alpha}}}^{(i){{\rm{T}}} }}{{\boldsymbol{S}}_{ii}}{{{\boldsymbol{\alpha}}}^{(i)}} = 1 \end{split} (2)

    视角间协方差矩阵{{\boldsymbol{S}}_{ij}}反映了数据集{{\boldsymbol{X}}^{(i)}}{{\boldsymbol{X}}^{(j)}}之间的相关性,视角内协方差矩阵{{\boldsymbol{S}}_{ii}}反映了数据集{{\boldsymbol{X}}^{(i)}}的整体散布信息,MCCA方法可以视为在最大化视角间相关性的同时最小化视角内散布信息。

    假设第i组基因样本{\boldsymbol{x}}_1^{(i)},{\boldsymbol{x}}_2^{(i)}, \cdots ,{\boldsymbol{x}}_n^{(i)}在相关投影方向{{\boldsymbol{\alpha}} ^{(i)}}上的相关特征为{\boldsymbol{y}}_1^{(i)},{\boldsymbol{y}}_2^{(i)}, \cdots ,{\boldsymbol{y}}_n^{(i)},即{\boldsymbol{y}}_l^{(i)} = {{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}{\boldsymbol{x}}_l^{(i)},其中l = 1,2, \cdots ,ni = 1,2, \cdots ,m

    为了在相似保序子空间中保持同类基因样本的相似性顺序并且投影后同类基因样本之间尽可能聚集,目标函数可以表示为

    \begin{split} &\mathop {\min }\limits_{{{\text{α }}^{(i)}}} \mathop \sum \limits_{i = 1}^m \mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{{c} ({\boldsymbol{x}}_v^{(i)}) = {c} ({\boldsymbol{x}}_u^{(i)})} \mathop \sum \limits_{{c} ({\boldsymbol{x}}_k^{(i)}) = {c} ({\boldsymbol{x}}_u^{(i)})} \left( {{\boldsymbol{q}}_{uv}^{(i)} - {\boldsymbol{q}}_{uk}^{(i)}} \right)\\ & \quad\times \left( {\left\| {{\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_v^{(i)}} \right\|_2^2 - \left\| {{\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_k^{(i)}} \right\|_2^2} \right) \\[-21pt] \end{split} (3)

    其中,{c} ({\boldsymbol{x}}_v^{(i)}) = {c} ({\boldsymbol{x}}_u^{(i)})表示样本{\boldsymbol{x}}_v^{(i)}{\boldsymbol{x}}_u^{(i)}属于同一类,{\boldsymbol{q}}_{uv}^{(i)}表示第i组基因数据集中任意两个样本{\boldsymbol{x}}_u^{(i)}{\boldsymbol{x}}_v^{(i)}之间的归一化相似度,具体表示为

    \begin{array}{*{20}{c}} {{\boldsymbol{q}}_{uv}^{(i)} = {{\rm{e}}^{ - \sigma \left\| {{\boldsymbol{x}}_u^{(i)} - {\boldsymbol{x}}_v^{(i)}} \right\|_2^2}}} \end{array} (4)

    度量值{\boldsymbol{q}}_{uv}^{(i)}越大,表明样本之间具有较大相似度。{\boldsymbol{q}}_{uv}^{(i)} - {\boldsymbol{q}}_{uk}^{(i)}表示同一视角下同类样本{\boldsymbol{x}}_u^{(i)},{\boldsymbol{x}}_v^{(i)}{\boldsymbol{x}}_u^{(i)},{\boldsymbol{x}}_k^{(i)}之间的相似度差值,最小化{\boldsymbol{q}}_{uv}^{(i)} - {\boldsymbol{q}}_{uk}^{(i)}达到保持同类样本的相似性顺序的目的。

    由于{\boldsymbol{q}}_{uv}^{(i)}只能度量两个样本之间的相似度,因此定义相似度矩阵对两两样本点之间的相似度进行计算,对于任意两个同类样本点{\boldsymbol{x}}_u^{(i)}{\boldsymbol{x}}_v^{(i)},寻找与它们属于同一类的所有样本点,首先计算{\boldsymbol{x}}_u^{(i)}{\boldsymbol{x}}_v^{(i)}之间样本相似度,再计算{\boldsymbol{x}}_u^{(i)}与剩余同类样本点的样本相似度,将二者计算所得结果之差累加得到矩阵中的一个元素,构建相似度矩阵{\boldsymbol{Q}}_{uv}^{(i)}

    {\boldsymbol{Q}}_{uv}^{(i)}=\left\{ \begin{aligned} & \displaystyle \sum\limits_{{c}({\boldsymbol{x}}_{u}^{(i)})={c}({\boldsymbol{x}}_{k}^{(i)})}\left({\boldsymbol{q}}_{uv}^{(i)}-{\boldsymbol{q}}_{uk}^{(i)}\right),{c}({\boldsymbol{x}}_{v}^{(i)})={c}({\boldsymbol{x}}_{u}^{(i)})\\ & 0,\qquad\qquad\qquad\qquad\qquad\quad 其他\end{aligned}\right. (5)

    利用相似度矩阵对式(3)进行化简,经过代数变换,式(3)能够推导为

    \begin{split} & \mathop \sum \limits_{i = 1}^m \mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{{c} ({\boldsymbol{x}}_v^{(i)}) = {c} ({\boldsymbol{x}}_u^{(i)})} \mathop \sum \limits_{{c} ({\boldsymbol{x}}_k^{(i)}) = {c} ({\boldsymbol{x}}_u^{(i)})} \left( {{\boldsymbol{q}}_{uv}^{(i)} - {\boldsymbol{q}}_{uk}^{(i)}} \right) \times \left( {\left\| {{\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_v^{(i)}} \right\|_2^2 - \left\| {{\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_k^{(i)}} \right\|_2^2} \right) \\ & \quad = \mathop \sum \limits_{i = 1}^m \mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{{c} ({\boldsymbol{x}}_v^{(i)}) = {c} ({\boldsymbol{x}}_u^{(i)})} \mathop \sum \limits_{{c} ({\boldsymbol{x}}_k^{(i)}) = {c} ({\boldsymbol{x}}_u^{(i)})} \left( {\left( {{\boldsymbol{q}}_{uv}^{(i)} - {\boldsymbol{q}}_{uk}^{(i)}} \right)\left\| {{\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_v^{(i)}} \right\|_2^2 - \left( {{\boldsymbol{q}}_{uv}^{(i)} - {\boldsymbol{q}}_{uk}^{(i)}} \right)\left\| {{\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_v^{(i)}} \right\|_2^2} \right) \\ & \quad= \mathop \sum \limits_{i = 1}^m \mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{{c} ({\boldsymbol{x}}_v^{(i)}) = {c} ({\boldsymbol{x}}_u^{(i)})} \mathop \sum \limits_{{c} ({\boldsymbol{x}}_k^{(i)}) = {c} ({\boldsymbol{x}}_u^{(i)})} \left( {\left( {{\boldsymbol{q}}_{uv}^{(i)} - {\boldsymbol{q}}_{uk}^{(i)}} \right)\left\| {{\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_v^{(i)}} \right\|_2^2 + \left( {{\boldsymbol{q}}_{uk}^{(i)} - {\boldsymbol{q}}_{uv}^{(i)}} \right)\left\| {{\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_v^{(i)}} \right\|_2^2} \right) \\ & \quad= \mathop \sum \limits_{i = 1}^m \mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{{c} ({\boldsymbol{x}}_v^{(i)}) = {c} ({\boldsymbol{x}}_u^{(i)})} {\boldsymbol{Q}}_{uv}^{(i)}\left\| {{\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_v^{(i)}} \right\|_2^2 + \mathop \sum \limits_{i = 1}^m \mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{{c} ({\boldsymbol{x}}_k^{(i)}) = {c} ({\boldsymbol{x}}_u^{(i)})} {\boldsymbol{Q}}_{uk}^{(i)}\left\| {{\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_v^{(i)}} \right\|_2^2 \\ & \quad= \mathop \sum \limits_{i = 1}^m \mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{{c} ({\boldsymbol{x}}_v^{(i)}) = {c} ({\boldsymbol{x}}_u^{(i)})} {\boldsymbol{Q}}_{uv}^{(i)}\left\| {{\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_v^{(i)}} \right\|_2^2 + \mathop \sum \limits_{i = 1}^m \mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{{c} ({\boldsymbol{x}}_v^{(i)}) = {c} ({\boldsymbol{x}}_u^{(i)})} {\boldsymbol{Q}}_{uv}^{(i)}\left\| {{\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_v^{(i)}} \right\|_2^2 \\ & \quad= 2\mathop \sum \limits_{i = 1}^m \mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{v = 1}^n {\boldsymbol{Q}}_{uv}^{(i)}\left\| {{\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_v^{(i)}} \right\|_2^2 \end{split} (6)

    由于式(6)结果无法直接优化求解,因此将其进一步推导为矩阵形式

    \begin{split} & 2\mathop \sum \limits_{i = 1}^m \mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{v = 1}^n {\boldsymbol{Q}}_{uv}^{(i)}\left\| {{\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_v^{(i)}} \right\|_2^2 \\ & \quad= 2\mathop \sum \limits_{i = 1}^m {{{\boldsymbol{\alpha}}}^{(i){{\rm{T}}} }}\left( {\mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{v = 1}^n {\boldsymbol{Q}}_{uv}^{(i)}\left( {{\boldsymbol{x}}_u^{(i)} - {\boldsymbol{x}}_v^{(i)}} \right){{\left( {{\boldsymbol{x}}_u^{(i)} - {\boldsymbol{x}}_v^{(i)}} \right)}^{\rm{T}}}} \right){{{\boldsymbol{\alpha}}}^{(i)}} \\ & \quad= 2\mathop \sum \limits_{i = 1}^m {{{\boldsymbol{\alpha}}}^{(i){{\rm{T}}} }}\mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{v = 1}^n {\boldsymbol{Q}}_{uv}^{(i)}\left( {{\boldsymbol{x}}_u^{(i)}{\boldsymbol{x}}_u^{(i){{\rm{T}}} } - {\boldsymbol{x}}_u^{(i)}{\boldsymbol{x}}_v^{(i){{\rm{T}}} } - {\boldsymbol{x}}_v^{(i)}{\boldsymbol{x}}_u^{(i){{\rm{T}}} } + {\boldsymbol{x}}_v^{(i)}{\boldsymbol{x}}_v^{(i){{\rm{T}}} }} \right){{{\boldsymbol{\alpha}}}^{(i)}} \\ & \quad= 2\mathop \sum \limits_{i = 1}^m {{{\boldsymbol{\alpha}}}^{(i){{\rm{T}}} }}{{\boldsymbol{X}}^{(i)}}\left( {2{{\boldsymbol{D}}^{(i)}} - {{\boldsymbol{Q}}^{(i)}} - {{\boldsymbol{Q}}^{(i){{\rm{T}}} }}} \right){{\boldsymbol{X}}^{(i){{\rm{T}}} }}{{{\boldsymbol{\alpha}}}^{(i)}} \\ & \quad= 2\mathop \sum \limits_{i = 1}^m {{{\boldsymbol{\alpha}}}^{(i){{\rm{T}}} }}{{\boldsymbol{X}}^{(i)}}{\boldsymbol{L}}_w^{(i)}{{\boldsymbol{X}}^{(i){{\rm{T}}} }}{{{\boldsymbol{\alpha}}}^{(i)}} \\ & \quad= 2\mathop \sum \limits_{i = 1}^m {{{\boldsymbol{\alpha}}}^{(i){{\rm{T}}} }}{\boldsymbol{S}}_w^{(i)}{{{\boldsymbol{\alpha}}}^{(i)}} \\ \end{split} (7)

    其中,{{\boldsymbol{D}}^{(i)}}为对角矩阵,对角元素表示为{\boldsymbol{D}}_{uu}^{(i)} = \dfrac{1}{2}\displaystyle\sum\nolimits_{v = 1}^n {({\boldsymbol{Q}}_{uv}^{(i)} + {\boldsymbol{Q}}_{vu}^{(i)})},{\boldsymbol{L}}_w^{(i)} = 2{{\boldsymbol{D}}^{(i)}} - {{\boldsymbol{Q}}^{(i)}} - {{\boldsymbol{Q}}^{(i){{\rm{T}}} }}为拉普拉斯矩阵,{\boldsymbol{S}}_w^{(i)} = {{\boldsymbol{X}}^{(i)}}{\boldsymbol{L}}_w^{(i)}{{\boldsymbol{X}}^{(i){{\rm{T}}} }}为视角内相似度顺序保持散布矩阵,通过构建鉴别敏感的视角内相似度顺序保持散布,可以保持视角类内紧凑性,由于常数对于投影方向{{\boldsymbol{\alpha}} ^{(i)}}求解没有影响,因此可以被省略,目标函数可以表示为\mathop {\min }\limits_{{{\boldsymbol{\alpha}}^{(i)}}} \displaystyle\sum\nolimits_{i = 1}^m {{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}{\boldsymbol{S}}_w^{(i)} \cdot {{\boldsymbol{\alpha}}^{(i)}}

    首先将MCCA方法中协方差矩阵{{\boldsymbol{S}}_{ij}}推导为如式(8)的等价形式[16]

    {{\boldsymbol{S}}_{ij}} = \frac{1}{{2{n^2}}}\mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{v = 1}^n \left( {{\boldsymbol{x}}_u^{(i)} - {\boldsymbol{x}}_v^{(i)}} \right){\left( {{\boldsymbol{x}}_u^{(j)} - {\boldsymbol{x}}_v^{(j)}} \right)^{{\rm{T}}} } (8)

    则式(1)中视角间相关性可以表述为

    \begin{split} {\rho _{ij}}\left( {{{\boldsymbol{\alpha}}^{(i)}},{{\boldsymbol{\alpha}}^{(j)}}} \right) =& \frac{1}{{2{n^2}}}\mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{v = 1}^n {{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}\left( {{\boldsymbol{x}}_u^{(i)} - {\boldsymbol{x}}_v^{(i)}} \right)\\ & \cdot{\left( {{\boldsymbol{x}}_u^{(j)} - {\boldsymbol{x}}_v^{(j)}} \right)^{{\rm{T}}} }{{\boldsymbol{\alpha}}^{(j)}} \end{split} (9)

    其中,{\rho _{ij}}({{\boldsymbol{\alpha}}^{(i)}},{{\boldsymbol{\alpha}}^{(j)}}) = {{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}{{\boldsymbol{S}}_{ij}}{{\boldsymbol{\alpha}}^{(j)}}表示相关特征{{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}{{\boldsymbol{X}}^{(i)}}{{\boldsymbol{\alpha}}^{(j){{\rm{T}}} }}{{\boldsymbol{X}}^{(j)}}(i \ne j)之间的相关性。式(9)中视角间相关性是基于视角内成对数据的等价表示,该形式更利于视角间相似度相关矩阵的构建。由于常数对于投影方向的求解没有影响,MCCA的目标函数可以表示为

    \begin{split} & \mathop {\max }\limits_{{{\boldsymbol{\alpha}}^{(1)}},{{\boldsymbol{\alpha}}^{(2)}}, \cdots ,{{\boldsymbol{\alpha}}^{(m)}}} \mathop \sum \limits_{i = 1}^n \mathop \sum \limits_{j = 1}^n {{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}( \mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{v = 1}^n \left( {{\boldsymbol{x}}_u^{(i)} - {\boldsymbol{x}}_v^{(i)}} \right)\\ & \quad\;\cdot{{\left( {{\boldsymbol{x}}_u^{(j)} - {\boldsymbol{x}}_v^{(j)}} \right)}^{{\rm{T}}} } ){{\boldsymbol{\alpha}}^{(j)}} \\[-18pt] \end{split} (10)

    对于任意两组基因视角数据{{\boldsymbol{X}}^{(i)}} = ({\boldsymbol{x}}_1^{(i)},{\boldsymbol{x}}_2^{(i)}, \cdots , {\boldsymbol{x}}_n^{(i)}){{\boldsymbol{X}}^{(j)}} = ({\boldsymbol{x}}_1^{(j)},{\boldsymbol{x}}_2^{(j)}, \cdots ,{\boldsymbol{x}}_n^{(j)})(i \ne j),利用基因样本的相似性来构造类间相似性加权矩阵,其定义为

    {\boldsymbol{W}}_{uv}^{(i)}=\left\{\begin{aligned} & {\boldsymbol{Q}}_{uv}^{(i)}, {c}({\boldsymbol{x}}_{u}^{(i)})\ne {c}({\boldsymbol{x}}_{v}^{(i)})\\ & 0,\quad\; 其他 \end{aligned} \right. (11)
    {\boldsymbol{W}}_{uv}^{(j)}=\left\{\begin{aligned} & {\boldsymbol{Q}}_{uv}^{(j)},{c}({\boldsymbol{x}}_{u}^{(j)})\ne {c}({\boldsymbol{x}}_{v}^{(j)})\\ & 0,\quad\; 其他\end{aligned}\right. (12)

    为了使得投影后相似保序子空间中不同类别的基因样本之间具有较大的类间距离,目标函数表示如式(13)所示

    \begin{split} & \mathop {\max }\limits_{{{\boldsymbol{\alpha}}^{(i)}},{{\boldsymbol{\alpha}}^{(j)}}} \mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{v = 1}^n \left[ {{\boldsymbol{W}}_{uv}^{(i)}({\boldsymbol{y}}_u^{(i)} - {\boldsymbol{y}}_v^{(i)})} \right]\left[ {{\boldsymbol{W}}_{uv}^{(j)}{{({\boldsymbol{y}}_u^{(j)} - {\boldsymbol{y}}_v^{(j)})}^{\rm T} }} \right] \\ & \quad = {{\boldsymbol{\alpha}}^{(i){\rm T} }}\left( {\mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{v = 1}^n {\boldsymbol{W}}_{uv}^{(i)}{\boldsymbol{W}}_{uv}^{(j)}({\boldsymbol{x}}_u^{(i)} - {\boldsymbol{x}}_v^{(i)}){{({\boldsymbol{x}}_u^{(j)} - {\boldsymbol{x}}_v^{(j)})}^{\rm T} }} \right){{\boldsymbol{\alpha}}^{(j)}} \\ & \quad= {{\boldsymbol{\alpha}}^{(i){\rm T} }}\left( {\mathop \sum \limits_{u = 1}^n \mathop \sum \limits_{v = 1}^n {\boldsymbol{W}}_{uv}^{(i)}{\boldsymbol{W}}_{uv}^{(j)}({\boldsymbol{x}}_u^{(i)}{\boldsymbol{x}}_u^{(j){\rm T} } - {\boldsymbol{x}}_u^{(i)}{\boldsymbol{x}}_v^{(j){\rm T} } - {\boldsymbol{x}}_v^{(i)}{\boldsymbol{x}}_u^{(j){\rm T} } + {\boldsymbol{x}}_v^{(i)}{\boldsymbol{x}}_v^{(j){\rm T} })} \right){{\boldsymbol{\alpha}}^{(j)}} \\ & \quad = {{\boldsymbol{\alpha}}^{(i){\rm T} }}{{\boldsymbol{X}}^{(i)}}(2{{\boldsymbol{D}}^{(ij)}} - {{\boldsymbol{W}}^{(ij)}} - {{\boldsymbol{W}}^{(ij){\rm T} }}){{\boldsymbol{X}}^{(j){\rm T} }}{{\boldsymbol{\alpha}}^{(j)}} \\ & \quad = {{\boldsymbol{\alpha}}^{(i){\rm T} }}{{\boldsymbol{X}}^{(i)}}{\boldsymbol{L}}_b^{(ij)}{{\boldsymbol{X}}^{(j){\rm T} }}{{\boldsymbol{\alpha}}^{(j)}} \\ & \quad = {{\boldsymbol{\alpha}}^{(i){\rm T} }}{\boldsymbol{S}}_b^{(ij)}{{\boldsymbol{\alpha}}^{(j)}} \end{split} (13)

    其中,{{\boldsymbol{D}}^{(ij)}}为对角矩阵,对角元素为{\boldsymbol{D}}_{uu}^{(ij)} = \dfrac{1}{2}\displaystyle\sum\nolimits_{v = 1}^n {({\boldsymbol{W}}_{uv}^{(i)}{\boldsymbol{W}}_{uv}^{(j)} + {\boldsymbol{W}}_{vu}^{(i)}{\boldsymbol{W}}_{vu}^{(j)})}, {\boldsymbol{L}}_b^{(ij)} = 2{{\boldsymbol{D}}^{(ij)}} - {{\boldsymbol{W}}^{(ij)}} - {{\boldsymbol{W}}^{(ij){{\rm{T}}} }}为拉普拉斯矩阵,{{\boldsymbol{W}}^{(ij)}} = {{\boldsymbol{W}}^{(i)}} \circ {{\boldsymbol{W}}^{(j)}},运算 \circ 表示矩阵对应元素相乘,{\boldsymbol{S}}_b^{(ij)} = {{\boldsymbol{X}}^{(i)}} {\boldsymbol{L}}_b^{(ij)}{{\boldsymbol{X}}^{(j){{\rm{T}}} }}表示视角间相似度相关矩阵。

    SOPACA方法期望学习的相关特征能够在保持不同视角间特征类内紧凑性和相似度顺序的同时具有较大的类间距离,这种期望可以表述为

    \left. \begin{aligned} & {\mathop {\max }\limits_{{{\boldsymbol{\alpha}}^{(i)}},{{\boldsymbol{\alpha}}^{(j)}}} \mathop \sum \limits_{i = 1}^m \mathop \sum \limits_{j = 1,i \ne j}^m {{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}{\boldsymbol{S}}_b^{(ij)}{{\boldsymbol{\alpha}}^{(j)}}} \\ & {\mathop {\min }\limits_{{{\boldsymbol{\alpha}}^{(i)}}} \mathop \sum \limits_{i = 1}^m {{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}{\boldsymbol{S}}_w^{(i)}{{\boldsymbol{\alpha}}^{(i)}}} \end{aligned} \right\} (14)

    通过最大化视角间相似度相关并且最小化视角内相似度顺序保持散布,将其与多视角典型相关分析的目标函数相融合,从而构建出相似度顺序保持跨视角相关分析方法,借助常用优化模型构造方法[21,22],SOPACA的优化问题可以描述为

    \begin{split} & \max J({\boldsymbol{\alpha}}) = \mathop \sum \limits_{i = 1}^m \mathop \sum \limits_{j = 1,i \ne j}^m {{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}{\boldsymbol{S}}_b^{(ij)}{{\boldsymbol{\alpha}}^{(j)}}, \\ & \qquad{{\rm{s}}} .{\rm{t}}.\mathop \sum \limits_{i = 1}^m {{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}{\boldsymbol{S}}_w^{(i)}{{\boldsymbol{\alpha}}^{(i)}} = 1 \end{split} (15)

    其中,{{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }} = {{\boldsymbol{\alpha}}^{(1){{\rm{T}}} }},{{\boldsymbol{\alpha}}^{(2){{\rm{T}}} }}, \cdots ,{{\boldsymbol{\alpha}}^{(m){{\rm{T}}} }}

    为了对式(15)进行优化求解,构建如式(16)所示Lagrange函数

    \begin{split} F({\boldsymbol{\alpha}},\lambda ) = &\mathop \sum \limits_{i = 1}^m \mathop \sum \limits_{j = 1,i \ne j}^m {{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}{\boldsymbol{S}}_b^{(ij)}{{\boldsymbol{\alpha}}^{(j)}} \\ & - \lambda \left( {\mathop \sum \limits_{l = 1}^m {{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}{\boldsymbol{S}}_w^{(i)}{{\boldsymbol{\alpha}}^{(i)}} - 1} \right) \end{split} (16)

    其中,\lambda 为Lagrange乘子,令\partial F/\partial {{\boldsymbol{\alpha}}^{(i)}} = 0,有

    \frac{\partial F}{\partial {\boldsymbol{\alpha}}^{(i)}}=\displaystyle \sum\limits_{j=1}^{m}{\boldsymbol{S}}_{b}^{(ij)}{\boldsymbol{\alpha}}^{(j)}-\lambda {\boldsymbol{S}}_{w}^{(i)}{\boldsymbol{\alpha}}^{(i)}=0, i=1,2,\cdots ,m (17)

    式(17)左乘{{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}(i = 1,2, \cdots ,m),可得

    \mathop \sum \limits_{i = 1}^m \mathop \sum \limits_{\begin{subarray}{l} j = 1 \\ i \ne j \end{subarray}} ^m {{{\boldsymbol{\alpha}}}^{(i){{\rm{T}}} }}{\boldsymbol{S}}_b^{(ij)}{{{\boldsymbol{\alpha}}}^{(j)}} - \lambda \mathop \sum \limits_{i = 1}^m {{{\boldsymbol{\alpha}}}^{(i){{\rm{T}}} }}{\boldsymbol{S}}_w^{(i)}{{{\boldsymbol{\alpha}}}^{(i)}} = 0 (18)

    进而可得

    \lambda = \frac{{\displaystyle\sum \limits_{i = 1}^m \displaystyle\sum \limits_{j = 1,i \ne j}^m {{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}{\boldsymbol{S}}_b^{(ij)}{{\boldsymbol{\alpha }}^{(j)}}}}{{\displaystyle \sum \limits_{i = 1}^m {{\boldsymbol{\alpha }}^{(i){{\rm{T}}} }}{\boldsymbol{S}}_w^{(i)}{{\boldsymbol{\alpha}}^{(i)}}}} (19)

    根据\displaystyle\sum\nolimits_{i = 1}^m {{{\boldsymbol{\alpha}}^{(i){{\rm{T}}} }}{\boldsymbol{S}}_w^{(i)}{{\boldsymbol{\alpha}}^{(i)}} = 1}及式(19)可知,\lambda 即可表示SOPACA的目标函数,将式(17)转化为式(20)所示的广义特征值问题

    \begin{split} & \left[ {\begin{array}{*{20}{c}} {}&{{\boldsymbol{S}}_b^{(12)}}& \cdots &{{\boldsymbol{S}}_b^{(1m)}} \\ {{\boldsymbol{S}}_b^{(21)}}&{}& \cdots &{{\boldsymbol{S}}_b^{(2m)}} \\ \vdots & \vdots & \ddots & \vdots \\ {{\boldsymbol{S}}_b^{(m1)}}&{{\boldsymbol{S}}_b^{(m2)}}& \cdots &{} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{{\boldsymbol{\alpha}}^{(1)}}} \\ {{{\boldsymbol{\alpha}}^{(2)}}} \\ \vdots \\ {{{\boldsymbol{\alpha}}^{(m)}}} \end{array}} \right] \\ & \quad= \lambda \left[ {\begin{array}{*{20}{c}} {{\boldsymbol{S}}_w^{(1)}}&{}&{}&{} \\ {}&{{\boldsymbol{S}}_w^{(2)}}&{}&{} \\ {}&{}& \ddots &{} \\ {}&{}&{}&{{\boldsymbol{S}}_w^{(m)}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{{\boldsymbol{\alpha}}^{(1)}}} \\ {{{\boldsymbol{\alpha}}^{(2)}}} \\ \vdots \\ {{{\boldsymbol{\alpha}}^{(m)}}} \end{array}} \right] \end{split} (20)

    通过对式(20)进行求解,能够获得前d个最大特征值对应的特征向量\{ {\boldsymbol{\alpha}}_k^{{\rm{T}}} = ({\boldsymbol{\alpha}}_k^{(1){{\rm{T}}} },{\boldsymbol{\alpha}}_k^{(2){{\rm{T}}} }, \cdots , {\boldsymbol{\alpha}}_k^{(m){{\rm{T}}} })\} _{k = 1}^d作为解向量,最终得到对应m组数据的m个投影矩阵\{ {{\boldsymbol{W}}_i} = ({\boldsymbol{\alpha}}_1^{(i)},{\boldsymbol{\alpha}}_2^{(i)}, \cdots ,{\boldsymbol{\alpha}}_d^{(i)})\} _{i = 1}^m,分别利用{\boldsymbol{W}}_1^{{\rm{T}}} {{\boldsymbol{X}}_1},{\boldsymbol{W}}_2^{{\rm{T}}} {{\boldsymbol{X}}_2}, \cdots ,{\boldsymbol{W}}_m^{{\rm{T}}} {{\boldsymbol{X}}_m}抽取特征,采用式(21)所示并行融合策略进行特征融合以形成有效的鉴别矢量{\boldsymbol{Z}}

    \begin{split} {\boldsymbol{Z}} &= {\boldsymbol{W}}_1^{{\rm{T}}} {{\boldsymbol{X}}_1} + {\boldsymbol{W}}_2^{{\rm{T}}} {{\boldsymbol{X}}_2} + \cdots + {\boldsymbol{W}}_m^{{\rm{T}}} {{\boldsymbol{X}}_m} \\ & = {\left[ {\begin{array}{*{20}{c}} {\begin{array}{*{20}{c}} {{{\boldsymbol{W}}_1}} \\ {{{\boldsymbol{W}}_2}} \end{array}} \\ {\begin{array}{*{20}{c}} \vdots \\ {{{\boldsymbol{W}}_m}} \end{array}} \end{array}} \right]^{{\rm{T}}} }\left[ {\begin{array}{*{20}{c}} {\begin{array}{*{20}{c}} {{{\boldsymbol{X}}_1}} \\ {{{\boldsymbol{X}}_2}} \end{array}} \\ {\begin{array}{*{20}{c}} \vdots \\ {{{\boldsymbol{X}}_m}} \end{array}} \end{array}} \right] \end{split} (21)

    式(21)形成的鉴别矢量{\boldsymbol{Z}}将代表m组高维基因数据应用于分类任务,使用基于欧氏距离的最近邻分类器[23]进行分类识别,本文所提SOPACA方法步骤如算法1所示。

    算法1 SOPACA方法步骤
     输入:视角数据集\{ { {\boldsymbol{X} }^{(i)} } = ({\boldsymbol{x} }_1^{(i)},{\boldsymbol{x} }_2^{(i)}, \cdots ,{\boldsymbol{x} }_n^{(i)}) \in {{\boldsymbol{R}}^{ {d_i} \times n} }\} _{i = 1}^m
     输出:基因样本类标签
     (1)利用式(7)和式(13)分别构建视角内相似度顺序保持散布矩阵
       {\boldsymbol{S}}_w^{(i)}和视角间相似度相关矩阵{\boldsymbol{S}}_b^{(ij)}
     (2)利用式(16)Lagrange函数求得特征值\lambda 和对应特征向量;
     (3)利用式(20)获得相关投影矩阵
       \{ {{\boldsymbol{W}}_i} = ({\boldsymbol{\alpha}}_1^{(i)},{\boldsymbol{\alpha}}_2^{(i)}, \cdots ,{\boldsymbol{\alpha}}_d^{(i)})\} _{i = 1}^m
     (4)利用式(21)获得特征融合后的鉴别矢量{\boldsymbol{Z}}
     (5)利用基于欧氏距离的最近邻分类器对鉴别矢量{\boldsymbol{Z}}进行分类,
       得到基因样本类标签。
    下载: 导出CSV 
    | 显示表格

    为了验证SOPACA方法在癌症分类上的有效性,分别在肺癌和结直肠癌基因表达数据集上进行实验来评估SOPACA方法的识别性能。使用模态策略[24]获得基因表达数据的3种模态数据,具体而言,将基因表达数据看作时序信号,分别使用Coiflets,Daubechies和Symlets 3种小波变换提取其低频分量作为3种模态数据,由于基因表达数据具有高维与小样本之间的不平衡问题,使用PCA方法对模态数据维数统一约减至100维以保证实验的稳定性。实验中将SOPACA方法与LMCCA[19], GrMCCs[16], MCCA[14], LDA[5]方法进行对比分析,采用基于欧氏距离的最近邻分类器对基因样本进行分类得到最终识别结果。

    肺癌基因表达数据集包含107个样本,每个样本均包含22283个探针测得的基因表达水平(下载地址为:https://www.ncbi.nlm.nih.gov/geo/query/acc.cgi?acc=GSE10072),其中癌症样本为58个,正常样本为49个。在实验中,随机抽取每类t(t=5, 10, 15, 20, 25)个样本构建训练集,其余样本作为测试集,每个实验独立运行10次,最终得到如表1所示各算法在肺癌基因表达数据集上的平均识别率以及对应识别率的标准差。

    表  1  在肺癌基因表达数据集上的识别率变化结果
    方法 5训练样本10训练样本15训练样本20训练样本25训练样本
    SOPACA98.66 \pm 0.8599.08 \pm 0.9198.70 \pm 1.2298.81 \pm 0.9499.65 \pm 0.74
    MCCA96.08 \pm 2.3798.16 \pm 1.1197.92 \pm 1.4097.61 \pm 1.0099.30 \pm 1.11
    LDA96.70 \pm 2.0598.05 \pm 1.2298.31 \pm 1.2398.51 \pm 1.0099.30 \pm 0.91
    GrMCCs94.64 \pm 3.1096.55 \pm 2.8298.05 \pm 2.3197.61 \pm 2.0198.60 \pm 1.38
    LMCCA97.01 \pm 1.4198.28 \pm 1.1298.18 \pm 1.4098.36 \pm 1.1099.30 \pm 0.91
    下载: 导出CSV 
    | 显示表格

    MCCA只能全局地获取样本之间的线性相关性,因此在复杂的非线性情景下往往对数据拟合不足导致识别性能有限。LDA作为有监督的单视图学习方法,识别效果略优于MCCA方法。GrMCCs引入图结构考虑了多视角数据的几何结构,由于原始基因表达数据包含大量冗余信息及噪声,导致数据真实局部几何结构失真从而影响低维特征的鉴别力,这种失真关系使得GrMCCs的部分识别率低于MCCA。LMCCA充分利用样本类别信息获得了较高识别率,SOPACA方法保持了投影前后样本结构关系,充分利用类别信息获得类内紧凑性与类间分散性,随着样本数量增加SOPACA方法始终保持了最优识别率,在样本数量较小的情况下,SOPACA方法相较于其他算法显示出其优越性,对于具有高维小样本特点的基因表达数据尤为重要。标准差能够反映识别率的波动情况,标准差越大说明数据波动性越强,与其他方法相比,SOPACA方法拥有较小标准差表明识别率变化平缓,说明所提出的方法具有良好的鲁棒性。

    结直肠癌基因表达数据集包含34个样本,每个样本均包含54675个探针测得的基因表达水平(下载地址为:https://www.ncbi.nlm.nih.gov/geo/query/acc.cgi?acc=GSE32323),其中癌症样本和正常样本均为17个。在实验中随机抽取每类t(t=2, 3, 4, 5, 6)个样本作为训练样本,其余样本用于测试,每个实验独立重复10次得到如表2所示各算法在结直肠癌数据集上的平均识别率以及对应识别率标准差。

    表  2  在结直肠癌基因表达数据集上的平均识别率
    方法 2训练样本3训练样本4训练样本5训练样本6训练样本
    SOPACA98.67 \pm 1.7299.29 \pm 1.5199.23 \pm 1.6299.58 \pm 1.3299.09 \pm 1.92
    MCCA95.67 \pm 3.5297.50 \pm 2.4197.31 \pm 2.6099.17 \pm 1.7698.18 \pm 2.35
    LDA95.00 \pm 2.8396.07 \pm 2.0395.77 \pm 4.2396.67 \pm 2.6497.73 \pm 2.40
    GrMCCs93.33 \pm 8.7594.29 \pm 2.5096.92 \pm 3.5397.50 \pm 2.1598.64 \pm 2.20
    LMCCA96.67 \pm 2.2296.07 \pm 2.4197.31 \pm 3.1797.50 \pm 2.1597.73 \pm 2.40
    下载: 导出CSV 
    | 显示表格

    MCCA方法只能处理简单的线性问题,无法提取更具鉴别力的特征。LDA表现出了较低识别率结果,反映了多视角学习方法对于特征抽取的优越性。与实验4.1中结果类似,利用图正则化技术的GrMCCs方法由于局部失真带来的影响导致平均识别率较低。DMCCA方法利用样本类别信息构建视角间的鉴别相关性,LMCCA充分利用训练样本的类内散布矩阵和多变量互相关矩阵来提取鉴别信息,二者都取得了较好的识别性能。SOPACA方法通过将样本投影到相似保序子空间能够获得更具鉴别力的特征,不仅保持了样本之间的结构关系而且充分利用样本类别信息,实验结果表明SOPACA方法的识别精度始终优于其他对比算法,当训练样本数量较少时更能体现出相似度顺序保持的优势。

    传统基于子空间投影的多视角学习方法往往会忽略投影前后样本之间的相似性,进而影响多视角学习性能。本文提出了SOPACA方法,通过将基因表达数据投影到相似保序子空间,该子空间中的低维数据能够在保持投影前后样本相似度的情况下具有类内聚集性与类间离散性,从而有效增强低维数据的鉴别能力,在维持样本结构关系的同时充分利用了样本监督信息。在基因表达数据集上的实验表明,本文算法抽取的特征相较于其他特征提取算法更具鉴别性。

  • W. Schwertfeger and E. Kasper, Optik,4(1974),160.[2]E. Munro, J. Vac. Sci. Techn., 12(1975), 1146.[3]西门纪业,陈文雄,物理学报,28(1979), 201.[4]D. M. Fye, J. Appl. Phys., 50(1979), 17.[5]R. F. Harrington, Field Computation by Moment Methods,MacMillon, New York, 1968.[6]E. F. Ritz, Advances in Electronics and Electron Physics,Vol. 49. Academic Press, 1979, p. 297.[7]丁守谦,物理学报,30(1981), 459.
  • Cited by

    Periodical cited type(2)

    1. 王孟明,张志鹏,侯雅魁. 基于跨模态近邻流形散布的基因特征提取方法. 湖北民族大学学报(自然科学版). 2024(01): 59-63 .
    2. 宋强,杨婧,付卿卿. 相空间重构下电网中混沌数据分类采集算法. 自动化与仪器仪表. 2024(10): 93-97 .

    Other cited types(0)

  • 加载中

Catalog

    通讯作者: 陈斌, bchen63@163.com
    • 1. 

      沈阳化工大学材料科学与工程学院 沈阳 110142

    1. 本站搜索
    2. 百度学术搜索
    3. 万方数据库搜索
    4. CNKI搜索

    Article Metrics

    Article views (1942) PDF downloads(399) Cited by()
    Proportional views
    Related

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return