Feature Selection Algorithm for Dynamically Weighted Conditional Mutual Information
-
摘要: 特征选择是机器学习、自然语言处理和数据挖掘等领域中数据预处理阶段必不可少的步骤。在一些基于信息论的特征选择算法中,存在着选择不同参数就是选择不同特征选择算法的问题。如何确定动态的非先验权重并规避预设先验参数就成为一个急需解决的问题。该文提出动态加权的最大相关性和最大独立性(WMRI)的特征选择算法。首先该算法分别计算新分类信息和保留类别信息的平均值。其次,利用标准差动态调整这两种分类信息的参数权重。最后,WMRI与其他5个特征选择算法在3个分类器上,使用10个不同数据集,进行分类准确率指标(fmi)验证。实验结果表明,WMRI方法能够改善特征子集的质量并提高分类精度。Abstract: Feature selection is an essential step in the data preprocessing phase in the fields of machine learning, natural language processing and data mining. In some feature selection algorithms based on information theory, there is a problem that choosing different parameters means choosing different feature selection algorithms. How to determine the dynamic, non-a priori weights and avoid the preset a priori parameters become an urgent problem. A Dynamic Weighted Maximum Relevance and maximum Independence (WMRI) feature selection algorithm is proposed in this paper. Firstly, the algorithm calculates the average value of the new classification information and the retained classification information. Secondly, the standard deviation is used to dynamically adjust the parameter weights of these two types of classification information. At last, WMRI and the other five feature selection algorithms use ten different data sets on three classifiers for the fmi classification metrics validation. The experimental results show that the WMRI method can improve the quality of feature subsets and increase classification accuracy.
-
Key words:
- Feature selection /
- Classification information /
- Average value /
- Standard deviation /
- Dynamic weighting
-
1. 引言
在过去几十年里,新型计算机和互联网技术正在以前所未有的速度产生着大量高维数据[1,2]。在这些高维数据中包含着许多无关和冗余特征。因为不相关和冗余特征不仅会增加模型训练时间而且也使得模型的可解释变得很差。如何处理这些不相关和冗余特征是数据分析和知识发现中所面临的重大挑战。特征选择不同于其他数据降维技术(如特征提取)[3],它可以删除无关和冗余特征,保留相关原始物理特征,从而降低数据维数。这样有利于提高数据质量和分类性能,并使得模型的训练时间大幅缩小而且也使得模型的可解释性变得更强[4,5]。
通常特征选择技术又分为分类依赖型[6](包装器方法和嵌入式方法)和分类器无关型(过滤式方法)。基于信息论的过滤式特征选择方法优点[7-11]为:(1) 它可以直接从数据中提取有价值的知识,而且这些知识对于问题真正的解决又起到至关重要作用。(2) 它的计算成本低且与具体分类器无关。(3)目前该方法应用领域广泛,包括基因表达数据、文本分类和网络入侵检测等多个领域。因此基于信息论的过滤式特征选择方法逐渐成为特征选择技术的研究热点[12-16]。
常见基于信息论的特征选择算法[5,17-19]可分为两类。最小化冗余特征的算法(maxMIFS[8],MRMR[20],CIFE[8],CMIM[8]和JMI[10]等)和最大化新分类信息的算法(DCSF[12]和JMIM[16])。maxMIFS和MRMR通过去除特征之间冗余特征来提高最优特征子集(
S )整体识别质量。但是它们却忽视两个特征与类标签之间的冗余性问题。因此,产生许多经典的多信息去除冗余性的算法,例如JMI, CIFE和CMIM等。然而它们却忽视最大化新分类信息来提高S 集合整体识别的质量。随着特征选择算法的发展,如何将减少冗余的特征选择算法和最大化新分类信息的特征选择算法进行融合逐渐成为研究的新热点。代表性的算法有MRI[13], CFR[14]和DISR[21]等。以上这些算法都是基于信息论特征选择框架[7]的具体实现。Brown等人[7]认为选择不同的参数就是选择不同的特征选择算法。它们存在的问题是参数设置过大还是过小都会对特征选择过程造成影响,即存在对无关特征和冗余特征的忽略与误判。在大数据环境下,针对数据多样性和高维性的特点,寻找一种动态的非预先设置参数的特征选择方法就成为目前需要解决的问题。本文提出一种新的过滤式特征选择算法(Weighted Maximum Relevance and maximum Independence, WMRI)。本文主要贡献为:(1) 利用条件互信息衡量特征与类标签之间的相关性以及特征之间冗余性;(2) 提出通过均值和标准差来动态调节新分类信息和保留类别信息的权重与平衡问题;(3) 通过对10个基准数据集进行实验对比,实验结果表明,该算法(WMRI)优于其他特征选择算法(DCSF, MRI, CFR, IG-RFE[15]和JMIM)。
2. WMRI算法的提出
Brown等人[7]提出基于信息论特征选择框架,具体为
J(fk)=I(fk;C)−β∑fsel∈SI(fk;fsel)+λ∑fsel∈SI(fk;fsel|C) (1) 其中,设
F 是原始特征集合,|S| 是最优特征子集数,S⊂F ,J(⋅) 代表评估标准,fk 表示候选特征,fsel 表示已选特征,fsel∈S,fk∈F−S ,C 表示类标签集合,|C| 是类标签数。Wang等人[13]在Brown的研究基础上提出MRI算法,具体评估标准为
JMRI(fk)=I(C;fk)+∑fsel∈S{I(C;fk|fsel)+I(C;fsel|fk)}∝I(fk;C)−2|S|+1∑fsel∈S[I(fk;fsel)−I(fk;fsel|C)] (2) 从式(2)中可知,在MRI算法中,独立分类信息由新分类信息项
I(C;fk|fsel) 与保留类别信息项I(C;fsel|fk) 构成,并且这两种分类信息同等重要,存在问题是在实际中I(C;fk|fsel) 与I(C;fsel|fk) 之间存在差异性。同时,结合式(1)和式(2)又可知该算法存在预先设置参数β 和λ 的问题,即λ=β=2|S|+1 。那么,如何在不增加计算量和复杂度的情况下,动态区分新分类信息和保留类别信息之间的重要程度。以适应在大数据环境下,数据多样性和高维性的特点,并提高
S 集合整体数据的质量,就成为目前在特征选择领域中需要研究的一个问题。本文提出一种新的过滤式特征选择算法(WMRI)。该方法通过引入标准差方法来分别计算
I(C;fk|fsel) 与I(C;fsel|fk) 之间的权重。因为标准差[2]是一种常见的测量系统稳定程度的度量方法。标准差值越高,表示分散度越高;反之亦然。因此,通过标准差可以动态平衡新分类信息项与保留类别信息项之间的重要程度。WMRI算法评估标准具体为JWMRI(fk)=I(C;fk)+(1−α)×∑fsel∈SI(C;fk|fsel)+(1−β)×∑fk∈F−SI(C;fsel|fk) (3) 从式(3)可以得出,
α 和β 可以分别动态测量新分类信息项I(C;fk|fsel) 与保留类别信息项I(C;fsel|fk) 的重要程度。通过这样,WMRI算法可以解决I(C;fk|fsel) 项与I(C;fsel|fk) 项之间平衡和权重问题。其中,式(3)中α 和β 分别由式(5)和式(7)表示,它的伪代码如表1所示。表 1 WMRI算法的伪代码输入:原始特征集合F={f1,f2,⋯,fn},类标签集合C,阈
值K输出:最优特征子集S (1) 初始化:S=ϕ, k=0 (2) for k=1 to n (3) 计算每个特征与标签的互信息值I(C;fk) (4) JWMRI(k)=argmax(I(C;fk)) (5) Set F←F∖{fk} (6) Set S←{fk} (7) while k≤K (8) for eachfk∈Fdo (9) 分别计算新分类信息项I(C;fk|fsel)与保留类别信息项 I(C;fsel|fk)的值 (10) 根据式(4),计算新分类信息项的平均值μ1 (11) 根据式(5),计算新分类信息项的标准方差α (12) 根据式(6),计算保留类别信息项的平均值μ2 (13) 根据式(7),计算保留类别信息项的标准方差β (14) 根据式(3),更新JWMRI(fk) (15) end for (16) 根据JWMRI(fk)评估标准,寻找最优的候选特征fk (17) Set F←F∖{fk} (18) Set S←{fk} (19) k=k+1 (20) end while μ1=1|S||S|∑i=1I(C;fk|fsel) (4) α=√1|S||S|∑i=1(I(C;fk|fsel)−μ1)2 (5) μ2=1|S||S|∑i=1I(C;fsel|fk) (6) β=√1|S||S|∑i=1(I(C;fsel|fk)−μ2)2 (7) 从式(3)可以知道,WMRI算法与MRI算法相类似,都采用前向顺序搜索特征子集。通过表1可知,WMRI算法主要分为3部分。第1部分(第(1)~(6)行)主要包括:(1) 初始化
S 集合和计数器k ;(2) 计算集合F 中每个特征的互信息,选择出最大的特征fk ,将该特征fk 从F 集合中删除,并将特征fk 加入S 集合,这时候选特征fk 变成已选特征fsel 。第2部分(第(7)~(15)行)主要是分别计算I(C;fk|fsel) ,I(C;fsel|fk) ,μ1 ,α ,μ2 和β 的值。在第3部分(第(16)~(20)行),根据式(3)的选择标准,选择出最大JWMRI(fk) 值所对应的特征fk ,并将该特征fk 存入S 并从F 中删除该特征fk ,然后一直循环到用户指定的阈值K 就停止循环。WMRI算法包括2个“ for”循环和1个“while”循环。因此,WMRI算法的时间复杂性是
O(Kmn) (K 代表已选特征数,n 代表所有特征数,m 代表所有样本数,K≪n )。WMRI算法复杂性高于MRI算法,IG-RFE算法,CFR算法,JMIM算法和DCSF算法。主要原因在于WMRI算法还需计算μ1 ,α ,μ2 和β 的值。3. 实验分析与讨论
3.1 数据集描述
为了验证所提出WMRI算法的有效性,在实验中使用10个不同数据集进行验证。这些数据集来自不同的领域,同时它们可以在UCI[13]和ASU[19]中找到。这些数据集包括手写数字数据(Semeion和Mfeat-kar)、文字数据(CANE-9)、语音数据(Isolet)、图像数据(COIL20和USPS)、生物学数据(WPBC和ALLAML)和其他类数据(Madelon和Musk2)。更详细的描述可以在表2中找到。
表 2 数据集描述序号 数据集名称 特征数 样本数 类别数 数据来源 1 musk2 167 476 2 UCI 2 madelon 500 2600 2 ASU 3 ALLAML 7129 72 2 ASU 4 CNAE-9 857 1080 9 UCI 5 mfeat-kar 65 2000 10 UCI 6 USPS 256 9298 10 ASU 7 semeion 257 1593 10 ASU 8 COIL20 1024 1440 20 ASU 9 wpbc 34 198 22 UCI 10 Isolet 617 1560 26 ASU 3.2 实验环境设置
在实验中,使用K近邻(KNN)[19]、决策树(C4.5)[13]和随机森林(RandomForest)[22]来评估不同的特征选择算法。本文的实验环境是Intel-i7处理器,使用8 GB内存,仿真软件是Python2.7。
实验由3个部分组成。第1部分是数据预处理。为保证实验的公正性,整个实验过程采用6折交叉验证方法进行验证,就是将实验数据集均匀分成6等份,5份作为训练数据集,1份作为测试数据集。第2部分是特征子集的生成。在实验中,采用不同特征选择方法生成特征子集。特征子集的规模设为30。第3部分是特征子集评价。在这个部分中,用fmi来评估分类器在特征子集上的分类准确率。分类准确率是指正确分类的样本数占样本总数的比例。设TP(True Positive)指正类判定为正类的个数;FP(False Positive)指负类判定为正类的个数;TN(True Negative)指负类判定为负类的个数;FN(False Negative)指正类判定为负类的个数。sen, prc和fmi定义分别为
sen=1|C||C|∑i=1TPi1|C||C|∑i=1TPi+1|C||C|∑i=1FNi (8) prc=1|C||C|∑i=1TPi1|C||C|∑i=1TPi+1|C||C|∑i=1FPi (9) fmi=2×prc×senprc+sen (10) 3.3 实验结果与讨论
表3—表5分别选择KNN,C4.5和Random Forest这3种分类器,同时以fmi分类准确率作为评价指标对WMRI,IG-RFE,CFR,JMIM,DCSF和MRI进行统计分析。表中每行中最大值用黑体字标识。命名为“平均值”的所在行表示平均fmi值。通过使用“+”,“=”和“–”表示WMRI算法分别“优于”、“等于”和“差于”其他特征选择算法。命名为“W/T/L”的所在行,分别表示WMRI算法与其他特征选择算法的胜/平/负的次数。
表 3 KNN分类器的平均分类准确率fmi(%)数据集 WMRI IG-RFE CFR JMIM DCSF MRI madelon 79.807 55.037(+) 69.422(+) 76.654(+) 58.465(+) 77.999(+) USPS 84.372 52.601(+) 55.796(+) 84.372(=) 48.376(+) 62.11(+) COIL20 87.014 79.236(+) 79.306(+) 83.542(+) 79.236(+) 77.569(+) musk2 74.002 68.065(+) 70.172(+) 70.592(+) 71.019(+) 69.766(+) CNAE-9 76.667 74.722(+) 76.667(=) 52.315(+) 76.667(=) 76.667(+) mfeat-kar 95.961 96.11(–) 95.905(+) 94.459(+) 95.908(+) 95.905(+) ALLAML 73.873 72.29(+) 68.774(+) 73.873(=) 68.211(+) 62.403(+) wpbc 36.298 29.482(+) 33.427(+) 27.814(+) 33.423(+) 36.298(=) Isolet 57.628 47.756(+) 46.795(+) 45.705(+) 51.154(+) 48.91(+) semeion 75.196 64.981(+) 68.989(+) 55.015(+) 73.501(+) 68.728(+) 平均值 74.082 64.028 66.525 66.434 65.596 67.636 W/T/L 9/0/1 9/1/0 8/2/0 9/1/0 9/1/0 表 4 C4.5分类器的平均分类准确率fmi(%)数据集 WMRI IG-RFE CFR JMIM DCSF MRI madelon 79.886 53.653(+) 69.305(+) 65.302(+) 57.808(+) 78.694(+) USPS 75.94 71.756(+) 76.198(–) 75.66(+) 72.057(+) 77.908(–) COIL20 78.403 68.889(+) 71.944(+) 72.014(+) 78.333(+) 71.944(+) musk2 66.42 63.485(+) 61.612(+) 66.433(–) 64.499(+) 61.981(+) CNAE-9 81.481 80.833(+) 81.481(=) 62.593(+) 81.481(=) 81.481(=) mfeat-kar 85.058 84.563(+) 84.863(+) 81.612(+) 84.914(+) 84.915(+) ALLAML 74.815 69.619(+) 59.606(+) 73.553(+) 70.523(+) 59.499(+) wpbc 35.483 27.942(+) 31.991(+) 29.547(+) 31.757(+) 35.176(+) Isolet 53.141 41.667(+) 50.513(+) 39.936(+) 52.372(+) 52.244(+) semeion 72.311 65.974(+) 67.614(+) 55.03(+) 70.435(+) 67.355(+) 平均值 70.258 62.854 65.518 62.183 66.455 67.129 W/T/L 10/0/0 8/1/1 9/0/1 9/1/0 8/1/1 表 5 Random Forest分类器的平均分类准确率fmi(%)数据集 WMRI IG-RFE CFR JMIM DCSF MRI madelon 81.308 53.882(+) 70.499(+) 64.306(+) 60.227(+) 81.04(+) USPS 84.414 79.038(+) 82.791(+) 84.091(+) 79.662(+) 84.018(+) COIL20 88.681 80.972(+) 82.847(+) 80.278(+) 84.653(+) 82.222(+) musk2 69.379 65.138(+) 67.886(+) 68.695(+) 67.229(+) 68.917(+) CNAE-9 82.222 81.667(+) 81.852(+) 62.407(+) 81.944(+) 82.037(+) mfeat-kar 89.53 83.666(+) 83.812(+) 89.024(+) 87.581(+) 88.52(+) ALLAML 84.683 72.504(+) 69.367(+) 80.73(+) 71.824(+) 64.132(+) wpbc 45.655 43.239(+) 45.496(+) 44.105(+) 45.059(+) 44.067(+) Isolet 60.641 48.782(+) 55.833(+) 46.538(+) 60.128(+) 58.013(+) semeion 78.722 69.169(+) 73.203(+) 59.113(+) 76.269(+) 73.33(+) 平均值 76.524 67.806 71.359 67.929 71.458 72.63 W/T/L 10/0/0 10/0/0 10/0/0 10/0/0 10/0/0 从表3可以得出,WMRI算法在10个数据集的平均fmi值是最高(74.082%)。同时,WMRI分别优IG-RFE, CFR, JMIM, DCSF和MRI为9, 9, 8, 9和9次。在表4中,WMRI算法在10个数据集的平均fmi值也是最高(70.258%)。同时,WMRI分别优IG-RFE, CFR, JMIM, DCSF和MRI为10, 8, 9, 9和8次。在表5中,WMRI算法在10个数据集的平均fmi值也是最高(76.524%)。同时,WMRI分别优IG-RFE, CFR, JMIM, DCSF和MRI为10, 10, 10, 10和10次。
通过对表3—表5分析可以得出,不同分类器表现出的分类结果也不相同。但是,WMRI算法的平均fmi值都是最高。这说明WMRI算法优于其他特征选择算法(IG-RFE, CFR, JMIM, DCSF和MRI)。
为了进一步观察特征子集对fmi值的影响,图1,图2和图3分别给出部分不同数据集的fmi性能比较。从图1、图2和图3可以看出,当数据的维数不断增加时,由于WMRI算法通过平均值和标准差动态调整新分类信息项
I(C;fk|fsel) 与保留类别信息项I(C;fsel|fk) 的重要程度。结果显示,WMRI算法明显优于MRI算法。例如在图1(b)和图2(b)中,JMIM算法优于MRI算法,而WMRI算法优于JMIM算法。图3(a)和图3(b),DCSF算法优于MRI算法,而WMRI算法优于DCSF算法。这些充分说明WMRI算法对分类效果的提升非常明显。并且,WMRI明显优于IG-RFE, CFR, JMIM, DCSF和MRI。4. 结束语
本文提出一种基于过滤式的特征选择方法:动态加权的最大相关和最大独立分类特征选择算法(WMRI)。该算法旨在解决新分类信息和保留类别信息不同重要度的问题并提高特征子集的数据质量。为了全面验证WMRI算法的有效性,实验在10个数据集上进行。通过使用分类器(KNN, C4.5和Random Forest)和分类准确率指标(fmi)全面评估所选特征子集的质量。实验结果证明WMRI明显优于MRI, CFR, JMIM, DCSF和IG-RFE等5种特征选择算法,但WMRI算法有时也会导致特征选择的结果不理想。未来的工作包括进一步改进新分类信息项和保留类别信息项的动态平衡问题并优化WMRI算法,同时在更广泛的领域中验证所提出的方法。
-
表 1 WMRI算法的伪代码
输入:原始特征集合F={f1,f2,⋯,fn},类标签集合C,阈
值K输出:最优特征子集S (1) 初始化:S=ϕ, k=0 (2) for k=1 to n (3) 计算每个特征与标签的互信息值I(C;fk) (4) JWMRI(k)=argmax(I(C;fk)) (5) Set F←F∖{fk} (6) Set S←{fk} (7) while k≤K (8) for eachfk∈Fdo (9) 分别计算新分类信息项I(C;fk|fsel)与保留类别信息项 I(C;fsel|fk)的值 (10) 根据式(4),计算新分类信息项的平均值μ1 (11) 根据式(5),计算新分类信息项的标准方差α (12) 根据式(6),计算保留类别信息项的平均值μ2 (13) 根据式(7),计算保留类别信息项的标准方差β (14) 根据式(3),更新JWMRI(fk) (15) end for (16) 根据JWMRI(fk)评估标准,寻找最优的候选特征fk (17) Set F←F∖{fk} (18) Set S←{fk} (19) k=k+1 (20) end while 表 2 数据集描述
序号 数据集名称 特征数 样本数 类别数 数据来源 1 musk2 167 476 2 UCI 2 madelon 500 2600 2 ASU 3 ALLAML 7129 72 2 ASU 4 CNAE-9 857 1080 9 UCI 5 mfeat-kar 65 2000 10 UCI 6 USPS 256 9298 10 ASU 7 semeion 257 1593 10 ASU 8 COIL20 1024 1440 20 ASU 9 wpbc 34 198 22 UCI 10 Isolet 617 1560 26 ASU 表 3 KNN分类器的平均分类准确率fmi(%)
数据集 WMRI IG-RFE CFR JMIM DCSF MRI madelon 79.807 55.037(+) 69.422(+) 76.654(+) 58.465(+) 77.999(+) USPS 84.372 52.601(+) 55.796(+) 84.372(=) 48.376(+) 62.11(+) COIL20 87.014 79.236(+) 79.306(+) 83.542(+) 79.236(+) 77.569(+) musk2 74.002 68.065(+) 70.172(+) 70.592(+) 71.019(+) 69.766(+) CNAE-9 76.667 74.722(+) 76.667(=) 52.315(+) 76.667(=) 76.667(+) mfeat-kar 95.961 96.11(–) 95.905(+) 94.459(+) 95.908(+) 95.905(+) ALLAML 73.873 72.29(+) 68.774(+) 73.873(=) 68.211(+) 62.403(+) wpbc 36.298 29.482(+) 33.427(+) 27.814(+) 33.423(+) 36.298(=) Isolet 57.628 47.756(+) 46.795(+) 45.705(+) 51.154(+) 48.91(+) semeion 75.196 64.981(+) 68.989(+) 55.015(+) 73.501(+) 68.728(+) 平均值 74.082 64.028 66.525 66.434 65.596 67.636 W/T/L 9/0/1 9/1/0 8/2/0 9/1/0 9/1/0 表 4 C4.5分类器的平均分类准确率fmi(%)
数据集 WMRI IG-RFE CFR JMIM DCSF MRI madelon 79.886 53.653(+) 69.305(+) 65.302(+) 57.808(+) 78.694(+) USPS 75.94 71.756(+) 76.198(–) 75.66(+) 72.057(+) 77.908(–) COIL20 78.403 68.889(+) 71.944(+) 72.014(+) 78.333(+) 71.944(+) musk2 66.42 63.485(+) 61.612(+) 66.433(–) 64.499(+) 61.981(+) CNAE-9 81.481 80.833(+) 81.481(=) 62.593(+) 81.481(=) 81.481(=) mfeat-kar 85.058 84.563(+) 84.863(+) 81.612(+) 84.914(+) 84.915(+) ALLAML 74.815 69.619(+) 59.606(+) 73.553(+) 70.523(+) 59.499(+) wpbc 35.483 27.942(+) 31.991(+) 29.547(+) 31.757(+) 35.176(+) Isolet 53.141 41.667(+) 50.513(+) 39.936(+) 52.372(+) 52.244(+) semeion 72.311 65.974(+) 67.614(+) 55.03(+) 70.435(+) 67.355(+) 平均值 70.258 62.854 65.518 62.183 66.455 67.129 W/T/L 10/0/0 8/1/1 9/0/1 9/1/0 8/1/1 表 5 Random Forest分类器的平均分类准确率fmi(%)
数据集 WMRI IG-RFE CFR JMIM DCSF MRI madelon 81.308 53.882(+) 70.499(+) 64.306(+) 60.227(+) 81.04(+) USPS 84.414 79.038(+) 82.791(+) 84.091(+) 79.662(+) 84.018(+) COIL20 88.681 80.972(+) 82.847(+) 80.278(+) 84.653(+) 82.222(+) musk2 69.379 65.138(+) 67.886(+) 68.695(+) 67.229(+) 68.917(+) CNAE-9 82.222 81.667(+) 81.852(+) 62.407(+) 81.944(+) 82.037(+) mfeat-kar 89.53 83.666(+) 83.812(+) 89.024(+) 87.581(+) 88.52(+) ALLAML 84.683 72.504(+) 69.367(+) 80.73(+) 71.824(+) 64.132(+) wpbc 45.655 43.239(+) 45.496(+) 44.105(+) 45.059(+) 44.067(+) Isolet 60.641 48.782(+) 55.833(+) 46.538(+) 60.128(+) 58.013(+) semeion 78.722 69.169(+) 73.203(+) 59.113(+) 76.269(+) 73.33(+) 平均值 76.524 67.806 71.359 67.929 71.458 72.63 W/T/L 10/0/0 10/0/0 10/0/0 10/0/0 10/0/0 -
[1] CHE Jinxing, YANG Youlong, LI Li, et al. Maximum relevance minimum common redundancy feature selection for nonlinear data[J]. Information Sciences, 2017, 409/410: 68–86. doi: 10.1016/j.ins.2017.05.013 [2] CHEN Zhijun, WU Chaozhong, ZHANG Yishi, et al. Feature selection with redundancy-complementariness dispersion[J]. Knowledge-Based Systems, 2015, 89: 203–217. doi: 10.1016/j.knosys.2015.07.004 [3] 张天骐, 范聪聪, 葛宛营, 等. 基于ICA和特征提取的MIMO信号调制识别算法[J]. 电子与信息学报, 2020, 42(9): 2208–2215. doi: 10.11999/JEIT190320ZHANG Tianqi, FAN Congcong, GE Wanying, et al. MIMO signal modulation recognition algorithm based on ICA and feature extraction[J]. Journal of Electronics &Information Technology, 2020, 42(9): 2208–2215. doi: 10.11999/JEIT190320 [4] ZHANG Yishi, ZHANG Qi, CHEN Zhijun, et al. Feature assessment and ranking for classification with nonlinear sparse representation and approximate dependence analysis[J]. Decision Support Systems, 2019, 122: 113064.1–113064.17. doi: 10.1016/j.dss.2019.05.004 [5] ZENG Zilin, ZHANG Hongjun, ZHANG Rui, et al. A novel feature selection method considering feature interaction[J]. Pattern Recognition, 2015, 48(8): 2656–2666. doi: 10.1016/j.patcog.2015.02.025 [6] 赵湛, 韩璐, 方震, 等. 基于可穿戴设备的日常压力状态评估研究[J]. 电子与信息学报, 2017, 39(11): 2669–2676. doi: 10.11999/JEIT170120ZHAO Zhan, HAN Lu, FANG Zhen, et al. Research on daily stress detection based on wearable device[J]. Journal of Electronics &Information Technology, 2017, 39(11): 2669–2676. doi: 10.11999/JEIT170120 [7] BROWN G, POCOCK A, ZHAO Mingjie, et al. Conditional likelihood maximisation: A unifying framework for information theoretic feature selection[J]. The Journal of Machine Learning Research, 2012, 13(1): 27–66. [8] MACEDO F, OLIVEIRA M R, PACHECO A, et al. Theoretical foundations of forward feature selection methods based on mutual information[J]. Neurocomputing, 2019, 325: 67–89. doi: 10.1016/j.neucom.2018.09.077 [9] GAO Wanfu, HU Liang, ZHANG Ping, et al. Feature selection by integrating two groups of feature evaluation criteria[J]. Expert Systems with Applications, 2018, 110: 11–19. doi: 10.1016/j.eswa.2018.05.029 [10] 肖利军, 郭继昌, 顾翔元. 一种采用冗余性动态权重的特征选择算法[J]. 西安电子科技大学学报, 2019, 46(5): 155–161. doi: 10.19665/j.issn1001-2400.2019.05.022XIAO Lijun, GUO Jichang, and GU Xiangyuan. Algorithm for selection of features based on dynamic weights using redundancy[J]. Journal of Xidian University, 2019, 46(5): 155–161. doi: 10.19665/j.issn1001-2400.2019.05.022 [11] WANG Xinzheng, GUO Bing, SHEN Yan, et al. Input feature selection method based on feature set equivalence and mutual information gain maximization[J]. IEEE Access, 2019, 7: 151525–151538. doi: 10.1109/ACCESS.2019.2948095 [12] GAO Wanfu, HU Liang, and ZHANG Ping. Class-specific mutual information variation for feature selection[J]. Pattern Recognition, 2018, 79: 328–339. doi: 10.1016/j.patcog.2018.02.020 [13] WANG Jun, WEI Jinmao, YANG Zhenglu, et al. Feature selection by maximizing independent classification information[J]. IEEE Transactions on Knowledge and Data Engineering, 2017, 29(4): 828–841. doi: 10.1109/TKDE.2017.2650906 [14] GAO Wanfu, HU Liang, ZHANG Ping, et al. Feature selection considering the composition of feature relevancy[J]. Pattern Recognition Letters, 2018, 112: 70–74. doi: 10.1016/j.patrec.2018.06.005 [15] LIN Xiaohui, LI Chao, REN Weijie, et al. A new feature selection method based on symmetrical uncertainty and interaction gain[J]. Computational Biology and Chemistry, 2019, 83: 107149. doi: 10.1016/j.compbiolchem.2019.107149 [16] BENNASAR M, HICKS Y, and SETCHI R. Feature selection using joint mutual information maximisation[J]. Expert Systems with Applications, 2015, 42(22): 8520–8532. doi: 10.1016/j.eswa.2015.07.007 [17] LYU Hongqiang, WAN Mingxi, HAN Jiuqiang, et al. A filter feature selection method based on the maximal information coefficient and Gram-Schmidt orthogonalization for biomedical data mining[J]. Computers in Biology and Medicine, 2017, 89: 264–274. doi: 10.1016/j.compbiomed.2017.08.021 [18] SHARMIN S, SHOYAIB M, ALI A A, et al. Simultaneous feature selection and discretization based on mutual information[J]. Pattern Recognition, 2019, 91: 162–174. doi: 10.1016/j.patcog.2019.02.016 [19] SUN Guanglu, LI Jiabin, DAI Jian, et al. Feature selection for IoT based on maximal information coefficient[J]. Future Generation Computer Systems, 2018, 89: 606–616. doi: 10.1016/j.future.2018.05.060 [20] PENG Hanchuan, LONG Fuhui, and DING C. Feature selection based on mutual information criteria of max-dependency, max-relevance, and min-redundancy[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(8): 1226–1238. doi: 10.1109/TPAMI.2005.159 [21] MEYER P E, SCHRETTER C, and BONTEMPI G. Information-theoretic feature selection in microarray data using variable complementarity[J]. IEEE Journal of Selected Topics in Signal Processing, 2008, 2(3): 261–274. doi: 10.1109/JSTSP.2008.923858 [22] SPEISER J L, MILLER M E, TOOZE J, et al. A comparison of random forest variable selection methods for classification prediction modeling[J]. Expert Systems with Applications, 2019, 134: 93–101. doi: 10.1016/j.eswa.2019.05.028 期刊类型引用(7)
1. 许华杰,刘冠霆,张品,秦远卓. 采用动态相关度权重的特征选择算法. 计算机工程与应用. 2024(04): 89-98 . 百度学术
2. 王若贤. 基于动态特征选择的图像定向视觉检测方法. 九江学院学报(自然科学版). 2024(01): 72-75 . 百度学术
3. 梁丹凝,梁坚. 基于Relief算法的不平衡数据分类分级算法仿真. 计算机仿真. 2024(06): 477-480+497 . 百度学术
4. 朱齐亮,余雪婷. 基于注意力机制的跨境断面水质预测模型研究. 现代电子技术. 2024(16): 145-149 . 百度学术
5. 张莹,朱丽娜. 一种基于半监督集成学习的软件缺陷预测方法. 计算机与数字工程. 2023(10): 2390-2394 . 百度学术
6. 孟昭亮,张泽涛,杨媛,李国锋,陶崇勃,牛一疆. 改进的XGBoost杂散电流预测及可解释模型. 激光与光电子学进展. 2022(12): 346-352 . 百度学术
7. 谌东海,王伟,赵昊裔,明新淼. 基于MI+PSO-LSTM的能耗预测模型. 计算机工程与设计. 2022(10): 2889-2896 . 百度学术
其他类型引用(13)
-