
Citation: | Yilin WANG, Shilong MA, Jinjin WANG, Guolong LIANG, Qing LI. Estimation of Unknown Line Spectrum under Colored Noise via Sparse Reconstruction[J]. Journal of Electronics & Information Technology, 2018, 40(11): 2570-2577. doi: 10.11999/JEIT171040 |
神经网络(Neural Networks, NNs)是智能计算领域最伟大的发明之一,它模仿了人类大脑的神经元并主要用于解决分类问题和进行数据预测。1943年,McCulloch等人[1]首次提出神经网络的概念。从此,神经网络便得以迅速发展,因而不同类型的神经网络相继被提出,诸如:前馈神经网络(FNNs)[2]、Kohonen自组织网络[3]、径向基函数(RBF)神经网络[4]、递归神经网络[5]和强化神经网络[6]。近年来,前馈神经网络,尤其是双层前馈神经网络在实际应用中十分广泛,双层前馈神经网络即只有一个隐含层的前馈神经网络,又被称为多层感知器(Multi-Layer Perceptrons, MLPs)[7]。多层感知器适用于对非线性可分模式的分类[8]和函数逼近[9,10],并且文献[11]已经证明多层感知器能够逼近任意连续和离散函数。从经验中获得学习的能力对神经网络来说至关重要,对前馈神经网络也是如此。在前馈神经网络中,用于学习的方法被称为训练器。训练器是用来寻找最佳的连接权重和偏差以保证输出误差最小。反向传播学习算法和基于梯度的方法是两类经典的训练器[12]。对于前馈神经网络而言,研究人员往往偏向于使用标准或改进的反向传播学习算法作为学习训练器,而基于梯度的方法由于其较慢的收敛速度和容易陷入局部最优的缺陷而受到应用制约。
在多层感知器的学习训练过程中,其主要目的就是为了找到最佳的连接权重和偏差使得输出误差最小。然而,大多数情况下多层感知器收敛到的是局部最优解而不是全局最优解。也就是说,用于训练多层感知器的学习算法容易陷入局部最优而很难获得全局最优,所以很难找到多层感知器的最佳连接权重和偏差。群智能算法(SI)是一类随机优化算法,它具有较好的全局最优收敛性能。因此,越来越多的研究将群智能算法作为MLPs的学习算法,比如:遗传算法(GAs)[13,14]、差分进化算法(DE)[15,16]、蚁群优化(ACO)[17,18]、灰狼优化算法(GWO)[7]和粒子群优化算法(PSO)[19]。这些基于群智能的随机优化算法在很大程度上降低了陷入局部最优的概率,但它们在收敛速度和计算准确度方面仍然不尽人意[20]。为了克服这些缺陷,在群智能算法中引入混沌理论能极大改善其优化性能,这主要归因于混沌理论具有较高的混合能力和遍历特性,它能产生具有更高的多样性和灵活性的潜在解[21]。因此,在群智能算法中引入混沌理论能有效改善算法的优化性能。GWO是一种寻优性能较好的群智能算法,在GWO中,位置更新是由前3个最佳适应度狼(
灰狼是属于犬科族系的群居动物,它是一种处于动物食物链顶端的顶级掠食者。在这个群落中,阶级等级鲜明、群体组织严明且分工明确。其中,起首要领导作用的狼被称为阿尔法狼(
根据文献[24],灰狼在捕食过程中是受阿尔法狼(
D=|C⋅Xp(t)−X(t)| |
(1) |
X(t+1)=Xp(t)−A⋅D |
(2) |
其中,
A=2(r1−E)⋅a |
(3) |
C=2r2⋅a |
(4) |
其中,
a=2(1−t/tmax)⋅ET |
(5) |
由式(1)—式(5)可知,其他灰狼个体在捕食过程中由阿尔法狼(
Dα=|C1⋅Xα−X|,Dβ=|C2⋅Xβ−X|,Dδ=|C2⋅Xδ−X| |
(6) |
X1=Xα−A1⋅Dα,X2=Xβ−A2⋅Dβ,X3=Xδ−A3⋅Dδ |
(7) |
X(t+1)=X1+X2+X33 |
(8) |
GWO算法自2014年首次提出以来,便被广泛用于对实际工程和管理问题进行优化应用,并且许多改进版本的GWO也被相继提出。然而,正如前文所描述那样,GWO算法的位置更新是由前3个适应度最好的阿尔法狼(
X(t+1)=133∑i=1(Xi−Rn⋅(R′n⋅Xi−Xi)) |
(9) |
其中,式(9)的构建是受灰狼包围捕食原理的启发,
Rn=(2rn−1)⋅E⋅a′ |
(10) |
R′n=2−Rn |
(11) |
式(10)中,
rn=4r 3n−1−3rn−1, −1≤rn−1≤1,r0=0.0068 |
(12) |
对于群智能优化算法而言,探索和开发能力对于其优化性能至关重要。而对于GWO来说,其探索和开发能力在很大程度上也依赖于收敛因子
a′=2(1−(ttmax)μ)⋅ET |
(13) |
其中,
综上所述,本文提出的CGWO算法实现过程如下:
步骤 1 算法参数初始化:灰狼种群规模N;最大的迭代次数
步骤 2 种群初始化:随机生成N个灰狼个体
步骤 3 设置
步骤 4 如果
步骤 5 利用式(9)更新当前迭代食物源位置;
步骤 6 利用式(13)更新收敛因子
步骤 7 计算当前迭代的每一个个体的适应度值
步骤 8 更新
步骤 9
对于MLPs而言,由于数据样本空间大多是高维、多模态、被噪声污染和数据缺失的情形,MLPs的权值和偏差训练被认为是一个极具挑战性的优化问题。CGWO算法是一种启发式算法,而采用启发式算法作为MLPs的训练器进行训练最重要步骤就是选择合适的编码策略。选择编码策略是为了把MLPs的权重和偏差表示为进化算法的迭代计算粒子变量。根据文献[27],编码策略被划分为3种不同的类型,即:向量编码、矩阵编码和二进制编码。根据文献[20],矩阵编码非常适合用来对神经网络进行训练,因为编码策略使得神经网络解码变得比较容易。
在本文中,选择矩阵编码策略来把MLPs的权重和偏差表示为每一次迭代训练过程中训练器的粒子变量,因此,本文MLPs的训练器的变量定义为[7]
V={W,θ}={w1,1,w1,2,···,wn,n,θ1,θ2,···,θh} |
(14) |
其中,n为输入节点数,
在定义完MLPs训练器的变量之后,还需对MLPs的训练器即CGWO算法定义适应度函数。由前文分析可知,训练MLPs的目的就是通过向MLPs输入训练样本和测试样本,利用CGWO算法训练求得合适的连接权重和偏差,使得MLPs对目标问题获得高的分类准确率、逼近度和预测精度。因此,把MLPs的实际输出值与期望输出值的均方差(MSE)作为衡量MLPs性能好坏的指标,MSE越小,则MLPs性能越好,反之则越坏。
定义 1 均方差(Mean Square Error, MSE)[7,12]:设
MSE=m∑i=1(oki−dki)2 |
(15) |
显然,定义1针对的是只有1个训练样本的情况,然而,实际研究对象往往却不止1个训练样本。假设研究对象有s个训练样本,此时,用以衡量MPLs性能指标的MSE则变为这s个训练样本的平均MSE,其表达式为
¯MSE=1ss∑k=1m∑i=1(oki−dki)2 |
(16) |
其中,s为训练样本数,m为输出个数。
综上,MPLs的训练器(CGWO算法)的适应度函数如定义2。
定义 2 训练器适应度函数:设向量
MinF(V)=¯MSE |
(17) |
定义 3 训练器分类准确率(Classification Accuracies, CA):分类准确率又称“精度”或“正确率”,它是评价分类算法性能的重要指标。设待分类集S有n个属性,S集的第i个属性个数记为
CA=(n∑i=1Ti/n∑i=1Si)×100 |
(18) |
图1为基于CGWO算法的多层感知器的原理图。由图1可知,CGWO 算法通过接收所有训练样本和所有期望输出样本的平均MSE作为目标函数进行迭代训练,通过不断迭代进化调整连接权重和偏差,为MLPs提供迭代训练后的最佳连接权重和偏差。
为了测试本文所提出的CGWO算法对MLPs的训练性能,选取了问题1: 3位奇偶校验问题,问题2:气球分类问题和问题3:虹膜分类问题作为本文的3个研究对象[28]。为了对CGWO算法的训练性能进行客观对比,本文选取了GWO[7], PSO, GSA (Gravitational Search Algorithm)和PSOGSA[12]算法作为MLPs的训练器,分别对3个研究对象进行实验仿真。本文对以上选取的算法的参数设置如下:
对于PSO-MLP, c1和c2的值设置为2, r1和r2为0到1之间的随机数,w为从0.9线性递减到0.4,初始粒子速度在0到1之间的随机生成。
对于GSA-MLP, a设置为20,引力常数G0设为1,初始粒子速度由0到1之间的随机生成,对于每一个粒子的初始加速度和质量均设置为0。
对于PSOGSA-MLP,
对于CGWO-MLP,
GWO-MLP, PSO-MLP, GSA-MLP, PSOGSA-MLP和CGWO-MLP对于问题1、问题2和问题3的种群规模分别设置为50, 200, 200。最大迭代次数为250。对于多层感知器的网络结构设置,隐含层节点数的选取规则为2N+1,N为数据集的特征个数[7]。
N位奇偶校验问题是一个著名的非线性标准测试问题。在该问题中,目的是要在输入向量中识别“1”的数量,并返回一个异或结果(XOR),即:如果输入向量包含奇数个“1”,则输出为“1”;如果输入向量包含偶数个“1”,则输出为“0”。表1显示了这一问题的输入和期望输出。本文把3位奇偶校验问题的MLPs结构设置为3~7~1,即3个输入,7个隐藏层节点和1个输出,并分别对5种算法进行10次的独立实验,选取
输入 | 输出 |
0 0 0 | 0 |
0 0 1 | 1 |
0 1 0 | 1 |
0 1 1 | 0 |
1 0 0 | 1 |
1 0 1 | 0 |
1 1 0 | 0 |
1 1 1 | 1 |
算法 | 平均值 | 中值 | 标准差 | 最好值 |
PSO-MLP | 1.48e–04 | 1.65e–05 | 2.40e–04 | 7.67e–09 |
GSA-MLP | 2.35e–01 | 2.38e–01 | 1.17e–02 | 2.10e–01 |
PSOGSA-MLP | 1.27e–02 | 9.29e–06 | 2.57e–02 | 1.64e–09 |
GWO-MLP | 7.00e–03 | 6.07e–03 | 1.89e–02 | 2.90e–05 |
CGWO-MLP | 6.01e–06 | 1.21e–08 | 1.33e–05 | 2.69e–09 |
由表2可知,CGWO算法在10次独立运算中关于3个
由图2可以看出,图2(a)中,GSA算法的收敛性能最差,CGWO算法的收敛速度和收敛精度在5种算法中是最好的,PSO算法的收敛精度要高于GWO和PSOGSA算法,但其收敛速度却较差;图2(b)中,CGWO算法的平稳性最好且分类准确率最高,GWO和PSOGSA算法表现出了明显的波动性,PSO算法的平稳性和分类准确率仅次于CGWO。由此可以得出CGWO算法的收敛速度、分类准确度和鲁棒性相较于其他对比算法较好。
气球数据集包含了4个特征,18个训练/测试样本以及2个类别。该问题的维数为55维,MLPs对该数据集的结构设置为4~9~1,即4个输入,9个隐藏节点和1个输出。其实验结果见表3和图3。
算法 | 平均值 | 中值 | 标准差 | 最好值 |
PSO-MLP | 0 | 0 | 0 | 0 |
GSA-MLP | 5.90e–03 | 4.10e–03 | 6.00e–03 | 4.69e–04 |
PSOGSA-MLP | 9.85e–32 | 9.73e–40 | 2.94e–31 | 3.81e–61 |
GWO-MLP | 1.12e–18 | 3.56e–20 | 2.38e–18 | 2.49e–26 |
CGWO-MLP | 2.35e–15 | 2.07e–18 | 5.03e–15 | 1.00e–18 |
由表3可得,针对气球分类问题,PSO算法关于
由图3可知,在图3(a)中,GSA的收敛速率和收敛精度最差,CGWO的收敛速度最快,GWO和PSOGSA具有相近的收敛速度,PSO的收敛速度虽然不是最快的,但是其收敛精度却是最高的,其次为PSOGSA。CGWO的收敛精度与GWO相近,但低于PSO和PSOGSA;由图3(b), GSA在10次独立运行过程中,分类准确度表现出剧烈的波动,而PSO, PSOGSA, GWO和CGWO都达到了100%的分类准确度。
虹膜分类问题已被广泛应用于FNN领域。虹膜数据集有150个训练样本,分为3个类别:Setosa, Versicolor和Virginica,共4个基本特征:萼片长度、萼片宽度、花瓣长度和花瓣宽度。本文使用MLPs的结构为4~9~3来对该问题进行分类。其统计结果见表4,平均收敛趋势和分类准确率见图4所示。
算法 | 平均值 | 中值 | 标准差 | 最好值 |
PSO-MLP | 2.70e–02 | 2.47e–02 | 1.76e–02 | 6.20e–03 |
GSA-MLP | 1.83e–01 | 1.89e–01 | 2.30e–02 | 1.48e–01 |
PSOGSA-MLP | 4.91e–02 | 1.84e–02 | 1.01e–01 | 1.16e–02 |
GWO-MLP | 2.27e–02 | 2.19e–02 | 2.70e–03 | 1.71e–02 |
CGWO-MLP | 1.90e–02 | 1.82e–02 | 4.10e–03 | 1.39e–02 |
由表4可知,对于虹膜分类问题的5种算法的10次独立运行计算的统计结果,CGWO的平均值和中值要优于其余4种算法且标准差接近于GWO,排名第2。PSO的最好值在所有对比算法中是最优的。CGWO计算所得的MSE的平均值和中值要优于其他算法,这表明CGWO算法的寻优性能在这5种算法中是最好的。同时,CGWO与GWO具有相近的标准差也表明CGWO算法继承了GWO算法的强鲁棒性且要比PSO, GSA和PSOGSA的鲁棒性要好。
由图4可知,图4(a)展示了5种算法对虹膜分类问题的分类收敛曲线,其中,GSA算法的收敛速度和收敛精度最差,PSOGSA算法与CGWO算法具有相近的收敛速率且优于GWO和PSO算法。CGWO算法在收敛精度方面是最高的,其次为PSO和GWO算法;从图4(b)中可以看出,PSO算法和PSOGSA算法在10次独立运行的分类准确度方面表现出明显波动,CGWO算法的平稳性最好且平均分类准确度最高,这充分验证了CGWO算法的强鲁棒性和分类可靠性。
灰狼优化算法(GWO)是一种新提出的元启发式算法,它主要模拟了灰狼狩猎的3个主要步骤:寻找猎物,包围猎物和攻击猎物的领导协作过程。通过分析灰狼算法在该捕食过程中位置更新的不足,本文提出了一种基于混沌理论的改进灰狼优化(CGWO)算法用于训练多层感知器。选取3个分类为题:3位奇偶校验问题、气球分类问题和虹膜分类问题进行实验,用于评估改进灰狼优化算法的优化性能和鲁棒性。实验结果表明,与PSO, GSA, PSOGSA和GWO算法相比,本文提出的CGWO算法在训练多层感知器时,在分类准确率、收敛精度和鲁棒性方面具有更好的性能。通过与PSO, GSA和PSOGSA的对比试验结果分析可知,PSO算法在迭代开发方面具有较好的效果,下一步有趣的研究突破点即将PSO引入CGWO中,应用于复杂函数优化,工程优化和求解多目标问题中。
WITTEKIND D K. A simple model for the underwater noise source level of ships[J]. Journal of Ship Production&Design, 2014, 30(1): 7–14 doi: 10.5957/JSPD.30.1.120052
|
JANSEN E and JONG C D. Experimental assessment of underwater acoustic source levels of different ship types[J]. IEEE Journal of Oceanic Engineering, 2017, 42(2): 1–10 doi: 10.1109/JOE.2016.2644123
|
ROSENLICHT M. Introduction to Spectral Analysis[M]. New York: Dover Publications, 2005: 315–359.
|
吴国清, 李靖, 陈耀明, 等. 舰船噪声识别(Ⅰ)—总体框架、线谱分析和提取[J]. 声学学报, 1998, 23(5): 394–400 doi: 10.15949/j.cnki.0371-0025.1998.05.002
WU Guoqing, LI Jing, CHEN Yaoming, et al. Ship radiated-noise recognition(I) the overall frameword, analysis and extraction of line-spectrum[J]. Acta Acustica, 1998, 23(5): 394–400 doi: 10.15949/j.cnki.0371-0025.1998.05.002
|
CHEN Zhaofu, LI Jian, TAN Xing, et al. On probing waveforms and adaptive receivers for active sonar[J]. OCEANS 2010 MTS/IEEE SEATTLE,Seattle USA, 2010: 1–10 doi: 10.1109/OCEANS.2010.5663834
|
STOICA P, BABU P, and LI Jian. New method of sparse parameter estimation in separable models and its use for spectral analysis of irregularly sampled data[J]. IEEE Transactions on Signal Processing, 2011, 59(1): 35–47 doi: 10.1109/TSP.2010.2086452
|
TAN Xing, ROBERTS W, LI Jian, et al. Sparse learning via iterative minimization with application to MIMO radar imaging[J]. IEEE Transactions on Signal Processing, 2011, 59(3): 1088–1101 doi: 10.1109/TSP.2010.2096218
|
FLORESCU A and CIOCHINA S. Refining accuracy of the spectral lines estimation by a sparsity based approach[C]. Proceedings of 9th International Conference on Communications, Bucharest, 2012: 47–50.
|
沈志博, 董春曦, 黄龙, 等. 一种基于稀疏分解的窄带信号频率估计算法[J]. 电子与信息学报, 2015, 37(4): 907–912 doi: 10.11999/JEIT140878
SHEN Zhibo, DONG Chunxi, HUANG Long, et al. A frequency estimation algorithm of narrow-band signal based on sparse decomposition[J]. Journal of Electronics&Information Technology, 2015, 37(4): 907–912 doi: 10.11999/JEIT140878
|
YANG Zai and XIE Lihua. Enhancing sparsity and resolution via reweighted atomic norm minimization[J]. IEEE Transactions on Signal Processing, 2016, 64(4): 995–1006 doi: 10.1109/TSP.2015.2493987
|
TKACENKO A and VAIDYANATHAN P P. The role of filter banks in sinusoidal frequency estimation[J]. Journal of the Franklin Institute, 2001, 338(5): 517–547 doi: 10.1016/S0016-0032(01)00025-4
|
UDREA R M, VIZIREANU N, CIOCHINA S, et al. Nonlinear spectral subtraction method for colored noise reduction using multi-band bark scale[J]. Signal Processing, 2008, 88(5): 1299–1303 doi: 10.1016/j.sigpro.2007.11.023
|
GORDANA J D. Multirate Systems: Design and Applications[M]. Hershey, USA: Idea Group Inc., 2002: 3385–3388.
|
LIU Hongying, YI Caixia, and YANG Zhiming. Design perfect reconstruction cosine-modulated filter banks via quadratically constrained quadratic programming and least squares optimization[J]. Signal Processing, 2017, 141(3): 199–203 doi: 10.1016/j.sigpro.2017.06.009
|
PREMA C S and DASGUPTA K S. An iterative design with variable step prototype filter for cosine modulated filter bank[J]. Radioengineering, 2016, 25(1): 156–160 doi: 10.13164/re.2016.0156
|
蒋俊正, 江庆, 欧阳缮. 一种设计近似完全重构非均匀余弦调制滤波器组的新算法[J]. 电子与信息学报, 2016, 38(9): 2385–2390 doi: 10.11999/JEIT151260
JIANG Junzheng, JIANG Qing, and OUYANG Shan. Novel method for designing near-perfect-reconstruction nonuniform cosine modulated filter banks[J]. Journal of Electronics&Information Technology, 2016, 38(9): 2385–2390 doi: 10.11999/JEIT151260
|
李忠佳, 葛临东. 基于DCT-IV的余弦调制信道化技术[J]. 信息工程大学学报, 2009, 10(4): 498–501 doi: 10.3969/j.issn.1671-0673.2009.04.017
LI Zhongjia and GE Lindong. Cosine modulated channelization based on DCT-IV[J]. Journal of Information Engineering University, 2009, 10(4): 498–501 doi: 10.3969/j.issn.1671-0673.2009.04.017
|
1. | 曾敏敏,张兵,张晓宁,朱慧龙,王云飞,郑志伟,林建辉. 决策级融合轴承故障混合智能诊断. 中国测试. 2024(02): 126-135 . ![]() | |
2. | 刘威,郭直清,姜丰,刘光伟,靳宝,王东. 协同围攻策略改进的灰狼算法及其PID参数优化. 计算机科学与探索. 2023(03): 620-634 . ![]() | |
3. | 戈阳. 融入等温过程的改进灰狼优化算法. 现代电子技术. 2022(17): 117-122 . ![]() | |
4. | 杨扬,李昌平,丁华锋. 高压脉冲破岩放电回路建模及参数辨识. 机械工程学报. 2022(15): 243-251 . ![]() | |
5. | 王颖,朱刘涛,童勤,张强. 基于改进灰狼算法优化多核支持向量回归机及其应用. 计算机系统应用. 2021(01): 256-263 . ![]() | |
6. | 岳攀,林威伟,吴斌平,王佳俊. 基于ACGWO-SVR的高寒地区心墙堆石坝压实质量评价模型. 水利水电技术(中英文). 2021(11): 98-107 . ![]() | |
7. | 戈阳,胡创业. 基于组合变异的平衡灰狼优化算法. 现代信息科技. 2021(18): 106-110 . ![]() | |
8. | 陈东阳. 基于PSO-MLP神经网络的遥信插件质量识别方法研究. 电力系统保护与控制. 2020(03): 164-170 . ![]() | |
9. | 陈毅飞,杨会民,马艳,张新伟,喻晨,王学农. 基于多层感知机的温室内番茄茎直径变化预测模型. 新疆农业科学. 2020(03): 562-571 . ![]() | |
10. | 罗钧,刘泽伟,张平,刘学明,柳政. 基于非线性因子的改进鸟群算法在动态能耗管理中的应用. 电子与信息学报. 2020(03): 729-736 . ![]() | |
11. | 张保山,周峰,张琳,张搏,鲁娜,杨博帆. 基于最优神经网络结构的故障诊断模型. 兵器装备工程学报. 2020(03): 20-24+50 . ![]() | |
12. | 章杜锡,谢宏,李力. 基于神经网络的变电站异常网络流量识别. 信息技术. 2020(05): 140-144 . ![]() | |
13. | 戴丽珍,付涛,杨刚,杨辉,徐芳萍. 一种改进灰狼算法优化LSSVM的交通流量预测. 小型微型计算机系统. 2020(12): 2672-2676 . ![]() | |
14. | 王勇亮,王挺,姚辰. 基于Kent映射和自适应权重的灰狼优化算法. 计算机应用研究. 2020(S2): 37-40 . ![]() | |
15. | 章磊,姚庆文,徐伟,李燕. 自适应类神经网络控制器在时变系统中的应用. 自动化仪表. 2019(10): 95-99+102 . ![]() |
输入 | 输出 |
0 0 0 | 0 |
0 0 1 | 1 |
0 1 0 | 1 |
0 1 1 | 0 |
1 0 0 | 1 |
1 0 1 | 0 |
1 1 0 | 0 |
1 1 1 | 1 |
算法 | 平均值 | 中值 | 标准差 | 最好值 |
PSO-MLP | 1.48e–04 | 1.65e–05 | 2.40e–04 | 7.67e–09 |
GSA-MLP | 2.35e–01 | 2.38e–01 | 1.17e–02 | 2.10e–01 |
PSOGSA-MLP | 1.27e–02 | 9.29e–06 | 2.57e–02 | 1.64e–09 |
GWO-MLP | 7.00e–03 | 6.07e–03 | 1.89e–02 | 2.90e–05 |
CGWO-MLP | 6.01e–06 | 1.21e–08 | 1.33e–05 | 2.69e–09 |
算法 | 平均值 | 中值 | 标准差 | 最好值 |
PSO-MLP | 0 | 0 | 0 | 0 |
GSA-MLP | 5.90e–03 | 4.10e–03 | 6.00e–03 | 4.69e–04 |
PSOGSA-MLP | 9.85e–32 | 9.73e–40 | 2.94e–31 | 3.81e–61 |
GWO-MLP | 1.12e–18 | 3.56e–20 | 2.38e–18 | 2.49e–26 |
CGWO-MLP | 2.35e–15 | 2.07e–18 | 5.03e–15 | 1.00e–18 |
算法 | 平均值 | 中值 | 标准差 | 最好值 |
PSO-MLP | 2.70e–02 | 2.47e–02 | 1.76e–02 | 6.20e–03 |
GSA-MLP | 1.83e–01 | 1.89e–01 | 2.30e–02 | 1.48e–01 |
PSOGSA-MLP | 4.91e–02 | 1.84e–02 | 1.01e–01 | 1.16e–02 |
GWO-MLP | 2.27e–02 | 2.19e–02 | 2.70e–03 | 1.71e–02 |
CGWO-MLP | 1.90e–02 | 1.82e–02 | 4.10e–03 | 1.39e–02 |
输入 | 输出 |
0 0 0 | 0 |
0 0 1 | 1 |
0 1 0 | 1 |
0 1 1 | 0 |
1 0 0 | 1 |
1 0 1 | 0 |
1 1 0 | 0 |
1 1 1 | 1 |
算法 | 平均值 | 中值 | 标准差 | 最好值 |
PSO-MLP | 1.48e–04 | 1.65e–05 | 2.40e–04 | 7.67e–09 |
GSA-MLP | 2.35e–01 | 2.38e–01 | 1.17e–02 | 2.10e–01 |
PSOGSA-MLP | 1.27e–02 | 9.29e–06 | 2.57e–02 | 1.64e–09 |
GWO-MLP | 7.00e–03 | 6.07e–03 | 1.89e–02 | 2.90e–05 |
CGWO-MLP | 6.01e–06 | 1.21e–08 | 1.33e–05 | 2.69e–09 |
算法 | 平均值 | 中值 | 标准差 | 最好值 |
PSO-MLP | 0 | 0 | 0 | 0 |
GSA-MLP | 5.90e–03 | 4.10e–03 | 6.00e–03 | 4.69e–04 |
PSOGSA-MLP | 9.85e–32 | 9.73e–40 | 2.94e–31 | 3.81e–61 |
GWO-MLP | 1.12e–18 | 3.56e–20 | 2.38e–18 | 2.49e–26 |
CGWO-MLP | 2.35e–15 | 2.07e–18 | 5.03e–15 | 1.00e–18 |
算法 | 平均值 | 中值 | 标准差 | 最好值 |
PSO-MLP | 2.70e–02 | 2.47e–02 | 1.76e–02 | 6.20e–03 |
GSA-MLP | 1.83e–01 | 1.89e–01 | 2.30e–02 | 1.48e–01 |
PSOGSA-MLP | 4.91e–02 | 1.84e–02 | 1.01e–01 | 1.16e–02 |
GWO-MLP | 2.27e–02 | 2.19e–02 | 2.70e–03 | 1.71e–02 |
CGWO-MLP | 1.90e–02 | 1.82e–02 | 4.10e–03 | 1.39e–02 |