Loading [MathJax]/jax/output/HTML-CSS/jax.js
Advanced Search
Volume 44 Issue 6
Jun.  2022
Turn off MathJax
Article Contents
Xu Chunguang, Xie Weixin. AN INSTANTANEOUS FREQUENCY ESTIMATION METHOD BASED ON CROSS LOCALIZED WIGNER-VILLE DISTRIBUTIONS[J]. Journal of Electronics & Information Technology, 2000, 22(5): 753-758.
Citation: JI Weidong, NI Wanlu. A Dynamic Control Method of Population Size Based on Euclidean Distance[J]. Journal of Electronics & Information Technology, 2022, 44(6): 2195-2206. doi: 10.11999/JEIT210322

A Dynamic Control Method of Population Size Based on Euclidean Distance

doi: 10.11999/JEIT210322
Funds:  The National Natural Science Foundation of China (31971015), Harbin Science and Technology Bureau’s Special Subsidy for Scientific and Technological Innovation Talents Research (2017RAQXJ050), The Research Project of School of Computer Science and Information Engineering,Harbin Normal University (JKYKYY202001), The Natural Science Foundation of Heilongjiang Province in 2021 (LH2021F037)
  • Received Date: 2021-04-19
  • Accepted Date: 2021-11-18
  • Rev Recd Date: 2021-11-18
  • Available Online: 2021-12-23
  • Publish Date: 2022-06-21
  • The population size is the most significant parameter to determine the performance of the algorithm, and its size may cause problems such as premature convergence or low efficiency of the algorithm. A dynamic control method of Population Size besed on Euclidean Distance (EDPS) is proposed. The core circle is established by adopting the Euclidean distance, and the feedback information of the core circle is used to control dynamically the population size, and the method of increasing or deleting the number of individuals based on the core circle is proposed. The strategy is applied to particle swarm optimization algorithm, genetic algorithm and differential evolution algorithm, whose performance is verified in the test functions. The experimental results show the proposed new strategy is effective.
  • 自然计算(natural computation)是指受自然现象启发而发展起来的智能算法,如人工神经网络、进化计算、群智能、人工免疫系统、量子计算等[1]。自然计算具有自组织、自学习、自适应能力,能够学习运用自然规律、模拟自然系统甚至社会系统的演变过程,在复杂优化问题求解、智能控制与机器人控制、网络通信与信息安全、社会经济、生态环境、航空航天与军事等领域的应用非常广[2]

    自然计算方法是基于种群的优化方法,其中,种群规模对算法的搜索能力和算法计算成本有较大影响。种群规模越大,搜索范围越大,则全局最优解存在概率越高,同时增加计算成本;而种群规模小可以降低计算成本,但是可能导致种群无法搜索到更多有效区域[1]。所以,如何恰当地控制种群规模来平衡算法的全局和局部搜索能力,成为自然计算方法应用亟待解决的问题。

    针对此问题,已经存在很多控制种群规模的方法。种群分组是最简单的控制种群规模的方法,Sun等人[3]将种群分为主群和从群,平衡算法的多样性;为保证算法的全局勘探能力,夏学文等人[4]提出了具备反向学习和局部学习能力相结合的粒子群优化算法;文献[5]提出了基于多种群的自适应迁移PSO算法(Muti-population based Self-adaptive Migration PSO, MSMPSO),对初始种群等分,为各子种群分配相应的加速因子而平衡算法;文献[6]通过高斯函数递减惯性权重来平衡粒子群优化算法的全局搜索和局部搜索能力,提出了基于高斯函数递减惯性权重的粒子群优化算法(Particle Swarm Optimization algorithms with Decreasing Inertia Weight based on Gaussian function, GDIWPSO);Xu等人[7]利用双种群的思想,提高了收敛精度和收敛速度。过大的规模会降低算法效率,然而通过种群分组后,过小的种群规模又会导致算法过早收敛。文献[8]已经证明不同的进化阶段需要不同的种群规模,因此,动态控制种群规模更为关键。可变种群规模的遗传算法[9]使用离散Logistic模型控制种群规模;Affenzeller等人[10]根据算法实际难易程度来调整实际的种群大小;Wang等人[11]采用可变的人口规模机制,自适应地调整人口规模;文献[12]更是对种群规模从确定性、适应性和自适应方法3个方面进行综述,进一步说明动态控制种群规模的优越性。同时,大多文献采用距离判定法作为种群规模动态控制的先验方法,应用最为广泛的是欧氏距离判定方法。欧氏距离较多应用于机器学习中的特征提取、特征选择、分类。Patel等人[13]基于欧氏距离进行特征排序与子集的选择;Bouley等人[14]用欧几里得矩阵定义整体几何构型,利用多维展开技术从距离上重建点集;Alguliyev等人[15]提出基于欧氏距离平方度量的加权共识聚类方法,提高了聚类精度。通过在特征提取、特征选择、分类等方面的应用,欧式距离可以很好地解释样本间的属性差异,扩展应用到自然计算中,可以理解为个体间的相似度,个体距离越小越相似,则个体间可交互信息越缺乏价值,以此来判定个体对算法的有效性,从而进行增删个体的操作控制种群规模来提高算法性能。例如,基于改进小生境粒子群算法的多模函数优化[16]、基于欧氏距离的黑洞寻优算法[17]、基于欧氏距离与多种搜索策略的人工蜂群算法[18]均是根据欧氏距离判定个体间的位置从而进行增删个体的操作。这些算法分别侧重提高算法收敛速度、精度,以及对算法探索和开发能力的平衡,欠缺对算法性能综合性的考量。

    为此,本文提出一种基于欧氏距离的种群规模动态控制方法(a dynamic control method of Population Size based on Euclidean Distance, EDPS),并将该方法分别运用于3种不同的自然计算方法中,通过对收敛性分析,并在测试函数仿真实验及对实验数据进行非参数检验,验证本文提出的方法的有效性和普适性,能更好地平衡算法的探索和开发能力。

    欧氏距离计算的是D维空间中两点之间的真实距离,是通常采用的一个距离定义。在自然计算方法中,基于欧氏距离的相似性度量[19]用来判定个体的相似程度,距离越近就越相似,可利用的有效信息就越匮乏,更易使算法陷入局部最优,算法全局搜索能力减弱。

    本文计算初始种群的全局最优点与种群平均适应度值点间的欧氏距离,以此作为核心圆域的初始半径,初始半径可定义为

    |XgbestXavg|=Ds=1(XgbestsXavgs)2 (1)

    其中,Xgbests表示初始种群全局最优位置,Xavgs是种群中适应度值最接近平均值的个体的位置,分别为Xgbest,Xavg的第s个分量。

    基于核心圆域动态控制种群规模的主要思想为:建立核心圆域,核心圆域的圆心为每次迭代的全局最优点,半径为初始半径r间隔K代线性递减;迭代前期圆域范围较大,增强全局搜索能力,若圆域内的个体数超过θ倍的种群个体数,则随机删除圆域内20%的个体,同时圆域外增加等量个体,增加个体多样性;迭代后期,随着半径线性递减,圆域范围缩小,进行局部搜索,若圆域外个体数超过θ倍的种群个体数,则将圆域外个体按年龄参数[20]降序排位,删除前20%的个体。其中,K是控制种群规模的激活阈值,为了平衡算法全局和局部搜索能力,K应该取较小值,使得迭代前后期有较显著的差异,增强种群多样性,不易陷入局部最优;θ是进行增删个体的判定阈值,理论上,前期进行全局搜索,核心圆域范围较大,圆域内个体数目应多于圆域外的;后期进行局部搜索,接近全局最优,核心圆域范围缩小,因此,在这里设置增删个体的判定阈值的范围为[1/2, 1);年龄参数,即个体优化迭代次数,年龄较大的个体到后期缺失探索的有效性,将其删除降低迭代后期收敛到局部最优的概率,保证了种群整体的活性。激活阈值K和增删个体的判定阈值θ的具体取值由第2部分实验证明给出。

    动态控制流程如图1所示。其中,ni,no分别表示核心圆域的内外个体数;nidec,nodec分别表示核心圆域内外的删除个体数;i是种群迭代的当前代数;rem()取余操作,是控制种群规模操作判定的前提条件。

    图  1  动态控制流程图

    Sigmoid函数大多用于最小均方误差(Least Mean Squar,LMS)自适应滤波算法,解决固定步长的LMS算法在收敛速度和稳态误差之间存在的矛盾[21,22]。针对此矛盾,许多学者提出了变步长LMS算法,例如,基于Sigmoid函数的变步长LMS自适应滤波算法[23-25],在初始阶段采用大步长因子加快收敛速度,收敛后采用小步长因子降低稳态误差[26]。本文对核心圆域半径步长自适应调整的主要思想是,在算法早期搜索过程中,采用大半径扩大圆域的范围,提高算法多样性;局部搜索阶段采用小半径,增强算子的有效性,提高收敛精度。而自然界中种群的随机性可用正态分布或近似正态分布来描述,但是由于正态分布函数的计算成本高,而Sigmoid函数与正态分布函数的形式类似,且公式简单,计算成本低。

    综上分析,本文选取Sigmoid函数作为替代函数。引入如式(2)的参数c,使初始半径r随激活阈值K变化而变化,半径R变化公式见式(3)。

    c=11+ef(xgbest) (2)
    R=1.5×c×r (3)

    其中,f(xgbest)是当前全局最优个体适应度值,由于c是(0, 1)之间的数,初始核心圆域较小会使得个体大多分布在圆域外,直接进行删除个体操作,破坏种群多样性,因此,半径R在此基础上扩大1.5倍。

    在迭代前期,种群会较快地收敛到全局最优点附近,而后期在其附近进行精细搜索,因此,控制核心圆域半径的参数c以及递减的步长都应遵循由大到小递减的规律。根据式(2)、式(3),全局最优个体的适应度值随着迭代的进行逐渐减小,参数c也减小,半径R在逐渐变小的同时,变小的速度也随之缓慢,符合Sigmoid函数变化规律及种群搜索的运动规律。

    反向学习策略在2005年由Tizhoosh提出,该策略广泛应用于各类算法中,有效地提高了求解全局最优的效率[27,28]。对高维复杂函数而言,各维相互间的信息干扰,会使得某些变优的维度被变差的维度所影响,变异效率降低,相较于多次的变异,逐维变异避免了维度间的干扰,变异效率更高,得到的变异解通常更好。因此,本文采用逐维重心反向策略[29],设当前迭代次数的最优个体

    Gbest=(Gbest1,Gbest2,,GbestD)在第i维的反向解为Gb˘est=(Gb˘est1,Gbest2,,Gb˘esti,,GbestD),其中,Gb˘esti见式(4)

    Gb˘esti=2×k×MiGbesti (4)
    M=X1+X2++Xnn (5)

    其中,k是均匀分布在区间[0,1]的随机数,式(5)是重心M定义方式,Mi是重心M[30]在第i维的分量。

    算法:基于欧氏距离动态控制种群规模的自然计算方法

    步骤1 设置PSmax,PSmin, K。初始化种群pop[popmax,popmin],计算初始化种群所有个体的适应度值fitness,令fitnessbestmin(fitness),计算初始半径r

    步骤2 若达到算法终止条件,则返回最优解;否则,转步骤3;

    步骤3 判断是否达到激活阈值K,若满足,转步骤4;否则,转步骤6;

    步骤4 若圆域内个体数>θ×种群数,则圆域内删除20%的个体,同时圆域外增加等量个体;

    步骤5 若圆域外个体数>θ×种群数,则将圆域外个体按年龄降序排序,删除前20%的个体;

    步骤6 根据具体算法对个体更新;

    步骤7 对全局最优逐维反向变异,式(4);

    步骤8 迭代次数增加1次,转步骤2。

    具体算法流程如图2所示。

    图  2  算法流程图

    文献[31]表明,目前算法收敛性的分析还不够充分。同时,理论依据多来源于对生物群落社会性的模拟,与其相关的数学分析比较缺乏,这导致现有研究还存在许多不足,缺乏具备普遍意义的理论性分析[32]。因此,本文在此对算法的收敛性进行分析。

    定义1 (最小优化问题)令min{f(x)|xS,0<f(x)<+}为最小优化问题,其中S为问题的可行域。在可行域内的所有元素对应的适应度值集合中的最小元素即为最小优化问题的最优解。

    定义2 设{y(t),t0}为一组取值离散的随机变量,离散值的集合为L={j},则称L为状态空间。若对于任意的t1, i(k)L(kt+1)

    p(y(t+1)=i(t+1)|y(t)=i(t),,y(0)=i(0))=p(y(t+1)=i(t+1)|y(t)=i(t)) (6)

    {y(t),t0}为马尔可夫链[33]

    定义3 (个体状态和个体状态空间)个体状态由个体运动过程中的位置构成,记为x,其中xY, Y表示可行解空间。每个个体在迭代过程中的所有可能状态组成个体的状态空间,记为X,其中X={x|xY}

    定义4 (种群状态和种群状态空间)算法在一次迭代中,所有个体的状态构成本次迭代的种群状态,记为φ = (x1,x2,,xi),(i=1,2,,Nφ),其中xi为本次迭代中第i个个体的状态。种群的所有状态组成该种群的状态空间,记为

    ϕ = {(x1,x2,,xi)|xiX,(i=1,2,,Nφ)} (7)

    定义5 (种群规模)在种群迭代过程中,第t代的种群规模为第t次迭代中种群的个体数量总和,记为Nt

    定义6 (渐进收敛准则)对于一般的优化问题<Y,f>,采用随机优化算法Z,第t次迭代的结果为xt,下一次迭代结果则为xt+1=Z(xt,ζ),其中,Y为问题的可行解空间,f为该算法的适应度函数,ζ为该算法在第t次迭代之前曾经搜索过的解。文献[34]在Lebesgue测度空间中,搜索的下界被定义为

    σ=inf{t|v(xY|f(x)<t)>0} (8)

    其中,v(x)为集合X上的Lebesgue测度,则最优解可定义为

    Rξ,M{{xY|f(x)<σ+ξ},σ{xY|f(x)<σ},σ= (9)

    其中,ξ>0。如果算法Z在迭代过程中找到了Rξ,M中的一个点,即认为算法Z找到了可以接受的全局最优点或近似全局最优点,全局最优适应度值或近似全局最优适应度值即为σ[34]

    条件1 f(Z(x,ζ))f(x),且若ζY,f(Z(x,ζ))f(ζ)

    条件2 对AY,s.t. v(A)>0,有:t=0(1vt(A))=0

    其中,vt(A)为算法Z在第t次迭代搜索到的解在空间A上的概率测度。

    渐进收敛算法同时满足条件1与条件2。

    定理1 在EDPS算法中,种群规模缩减概率为

    P{N(t+1)|N(t)}=fworse(x)fbest(x)fworse(x)(ni=1f(xi))/n(1θ) (10)

    其中,NtNt+1。所以在迭代过程中,种群规模更新为

    Nt+1={fworse(x)fbest(x)fworse(x)(ni=1f(xi))/n(1θ)Ntfworse(x)fbest(x)fworse(x)(ni=1f(xi))/n>θNt,fworse(x)fbest(x)fworse(x)(ni=1f(xi))/n<θ (11)

    证明 种群在算法迭代过程中,根据圆域内外个体的分布比例来对整个种群进行个体的均衡配比操作。圆域外个体通过年龄排序进行删减,从而达到控制种群规模的效果,加快收敛速度。圆域外个体占种群全部个体的相对比例为

    1fworse(x)(ni=1f(xi))/n1fworse(x)fbest(x)=fworse(x)fbest(x)fworse(x)(ni=1f(xi))/n (12)

    一旦圆域外个体总数相对比例超过θ,种群便开始缩减,所以有

    P{N(t+1)|N(t)}=fworse(x)fbest(x)fworse(x)(ni=1f(xi))/n(1θ) (13)

    如果圆域外个体总数相对比例并不超过θ,种群便会维持在上一次迭代的水平,所以得到种群规模更新规则

    Nt+1={fworse(x)fbest(x)fworse(x)(ni=1f(xi))/n(1θ)Nt , fworse(x)fbest(x)fworse(x)(ni=1f(xi))/n>θNtfworse(x)fbest(x)fworse(x)(ni=1f(xi))/n<θ (14)

    证毕

    定理2 对于任意渐进收敛算法,EDPS不会破坏该算法的渐进收敛性。

    证明 对于任意渐进收敛算法,算法收敛的充要条件是符合条件1与条件2,任意渐进收敛算法必符合上述两个条件。根据条件1,最佳个体适应度值序列(x(1)gbest,x(2)gbest,,x(t)gbest)为单调非递增序列,所以对i>jf(xigbest)f(xjgbest)成立。根据条件2,limtxtgbest=Xgbest成立,其中xgbest为该问题的最优解。根据EDPS算法,种群会依概率P=fworse(x)fbest(x)fworse(x)(ni=1f(xi))/n(1θ)收缩,但圆域外部种群只收缩圆域外部个体总数的20%,即在种群收缩过程中恒有NtNt+1>0。种群的收缩过程是在减少劣质个体对整个种群的影响,并不会改变xgbest的位置,所以经过EDPS缩减后的种群依然符合条件2,有limtP(xtY,xtgbest=Xgbest)=1,即对于任意渐进收敛算法在经过EDPS优化后,依然符合收敛条件。证毕

    定理3 任意渐进收敛算法在经过EDPS优化后,以概率为1收敛。

    证明 由定理1可知,在算法迭代过程中,种群依概率P=fworse(x)fbest(x)fworse(x)(ni=1f(xi))/n(1θ)缩减,随着渐进迭代算法的进化,种群缩减概率P逐渐递减 。在删除圆域外个体的过程中,并不会改变xgbest的值。在EDPS迭代过程中有

    Ngbest=(j=1fworse(j)(x)fbest(j)(x)fworse(j)(x)(ni=1f(xi))/n(1θ))Nstart>0 (15)

    其中,Ngbest为找到最优解时的种群规模,Nstart为初始种群规模。Ngbest在迭代过程中并不改变xgbest,所以在种群规模为Ngbest时,依然有

    limtP(xtgbestNgbest,xtgbest=Xgbest)=1 (16)

    整个种群的缩减并不改变xgbest的引导位置,即EDPS不改变任意渐进收敛算法的渐进收敛性。EDPS以概率1收敛。 证毕

    为检验EDPS的综合性能,将其运用到3种不同的自然计算方法中:粒子群优化算法(Particle Swarm Optimization, PSO),遗传算法(Genetic Algorithm, GA),差分进化算法(Differential Evolution algorithm, DE)。对应的3种新算法是EDPS+PSO, EDPS+GA和EDPS+DE,并与PSO, GA, DE进行对比。采用通用标准测试函数(Sphere, Rosenbrock, Dixon-price, Powell, Ackley, Levy, Sum squares, Griewank, Rastrigin, Schwefel 2.22, Step)[35]来验证其对不同算法的改进效果。所有测试函数的维数均取30维。各算法对测试函数分别执行30次,取平均结果。

    改进的PSO中涉及的参数有3个,分别是种群规模、惯性权重、学习因子。按照文献[36]的参数设置,令惯性权重ω由0.9到0.4线性递减,学习因子c1=c2=2。遗传算法中涉及的参数是种群规模、交叉概率Pc、变异概率Pm,令Pc=0.70Pm=0.05。差分进化算法中涉及的参数是种群规模、缩放因子F=0.5,交叉概率Cr=0.9。本文中涉及的参数有种群规模的下界PSmin、种群规模的上界PSmax、激活阈值K。PSO, GA, DE中的种群规模PSmax都设为100。

    为验证不同方面对EDPS的改进效果,主要从以下3处进行对比分析:

    (1)激活阈值K对算法的影响;

    (2)增删个体的判定阈值θ的取值对算法的影响;

    (3)增删的个体数对算法的影响;

    在此考虑篇幅问题,只选用经典测试函数F1和F5,验证改进方法与PSO算法结合的性能。

    通过表1激活阈值的数据可以看出,随着K的增大,算法对单峰和多峰函数效果越好,但是当激活阈值K取30之后,收敛精度没有显著提高,且当K由40增加到50时,算法在单峰和多峰函数上的寻优精度都有所下降。因此,本文的激活阈值K取值为40。观察表中判定阈值,在单峰函数F1和多峰函数F5上,θ为4/5时的平均寻优结果最佳。因此,本文中θ取值为4/5。

    表  1  函数F1和F5基于激活阈值K和判定阈值θ的平均结果
    F1F5
    激活阈值KK=02.4785×10–92.2471×10–04
    K=102.7143×10–192.3246×10–09
    K=205.4301×10–233.2744×10–11
    K=301.1969×10–245.4805×10–12
    K=401.1569×10–243.7871×10–12
    K=501.7930×10–245.0300×10–12
    判定阈值θθ=1/22.9332×10–246.7745×10–12
    θ=2/32.0541×10244.8624×10–12
    θ=3/43.5091×10–243.2218×10–12
    θ=4/53.9844×10–252.5269×10–12
    θ=5/62.1254×10–246.2672×10–12
    下载: 导出CSV 
    | 显示表格

    对圆域内外个体的增删个数的选择,首先对比3种情况对算法的影响:在原圆域内外个体数的基础上随机增删、随机增删(0, 1/2)的原圆域内外个体、增删个体数取前两种情况取值区间内的随机值。根据图3可以明显看出,随机增删个体数的取值范围小于半数的算法收敛效果更好,其次是对总数的随机取值,这是由于增删过半数的个体,在收敛前期,通过删除圆域内个体,增加圆域外个体,虽然提高了各种群多样性,但是影响算法的收敛速度;而在收敛后期,删除多数圆域外较差个体,又极大程度地破坏了种群多样性,影响算法收敛精度;而对总数的随机取值,虽然收敛精度有所提高,但是降低了算法的鲁棒性。实验在(0,1/2]随机取值的基础上,又进行了较准确的增删个体数的对比,分别为原圆域内外个体数的10%, 20%, 30%, 40%和50%。通过观察对比单峰函数F1和多峰函数F5的收敛曲线,都清晰地表明,当增删的个体数为总体的20%时,算法的性能最佳,且不同取值情况在不同性质的函数上的优劣等级相同,更证明了较确切的增删个体在算法的收敛精度和鲁棒性方面都有积极的作用。

    图  3  增删的不同个体数的收敛图

    为说明本文算法的优势,将EDPS+PSO与PSO、自适应动态控制种群规模的自然计算方法(Self-adaptive Dynamic Control strategy of Population Size, SaDCPS+PSO)[1]、MSMPSO[5]、GDIWPSO[6]这3个运用种群策略的粒子群算法进行对比。表2图4是EDPS+PSO与其他算法对比的数据及收敛图,考虑到篇幅问题,只选取部分测试函数收敛图展示。表2的Mean和Std分别表示独立运行函数30次得到的结果的平均值和标准差,括号内数字表示算法在某一个函数上的性能排名,如果两个算法的Mean值相同,则认为标Std较小的更优。位于表格最后的Num表示算法在11个测试函数中取得最优的次数,Ave.R表示算法的平均排名,T.R表示算法总的排名,若两种算法的Ave.R值相同,则认为Num大的算法较优;由于此实验中EDPS+PSO在11个测试函数上的效果均优于其他算法,使得PSO与MSMPSO无法以Mean比较优劣,因此按照这两个算法的Std平均排名确定最终的T.R。考虑到篇幅问题,仅对相关的PSO算法进行了性能排名。

    表  2  适应度值的平均值与标准差
    测试函数 PSOSaDCPS+PSOMSMPSOGDIWPSOEDPS+PSO
    F1Mean
    Std
    0.0048(5)
    0.0036
    5.2678E-05(2)
    1.9733E-04
    0.0035(4)
    0.0048
    5.4229E-04(3)
    6.9283E-04
    4.2030E-22(1)
    5.4355E-22
    F2Mean
    Std
    321.6227(5)
    757.5841
    305.9853(4)
    612.6810
    37.8965(2)
    20.8848
    295.3553(3)
    646.0457
    1.1286(1)
    1.2517
    F3Mean
    Std
    11.4856(3)
    57.4760
    35.6888(5)
    96.4784
    1.6279(2)
    1.3055
    15.3413(4)
    59.2914
    0.6667(1)
    5.3114E-13
    F4Mean
    Std
    7.1478(4)
    18.5511
    24.8610(5)
    39.5939
    0.0869(2)
    0.1725
    6.5236(3)
    21.1265
    3.5356E-06(1)
    1.6043E-06
    F5Mean
    Std
    2.8480(3)
    0.6077
    0.0794(2)
    0.3244
    4.2122(5)
    1.8981
    3.2137(4)
    0.4853
    4.0041E-12(1)
    3.1655E-12
    F6Mean
    Std
    0.3953(2)
    0.3879
    4.7684(5)
    8.2253
    0.6478(3)
    0.4967
    0.7580(4)
    0.4689
    4.8769E-23(1)
    6.2365E-23
    F7Mean
    Std
    0.0037(2)
    0.0041
    6.6792(4)
    35.8988
    0.6468(3)
    0.6773
    10.1297(5)
    29.9757
    1.1530E-14(1)
    2.8465E-14
    F8Mean
    Std
    0.0364(2)
    0.0198
    0.0824(3)
    0.2486
    0.6663(5)
    0.2804
    0.2826(4)
    0.1051
    0.0133(1)
    0.0205
    F9Mean
    Std
    41.3446(5)
    12.1342
    17.7337(2)
    13.9827
    24.1869(3)
    10.0910
    45.9872(4)
    14.3957
    1.3145E-14(1)
    5.7943E-15
    F10Mean
    Std
    2.0873(4)
    4.0499
    3.0617(5)
    4.6183
    1.4784(3)
    1.1296
    1.4486(2)
    4.4262
    6.0354E-07(1)
    1.0596E-06
    F11Mean
    Std
    0.0069(2)
    0.0083
    0.4674(4)
    0.1805
    1.1304(5)
    1.2018
    0.1760(3)
    0.1348
    1.8818E-21(1)
    3.2949E-21
    Num000011
    Ave.R3.363.183.363.541
    T.R32451
    下载: 导出CSV 
    | 显示表格
    图  4  收敛曲线

    为了更直观地比较EDPS+PSO的改进性能,观察图4,EDPS+PSO相比较其他4种算法有非常显著的优势。在PSO, SaDCPS+PSO, MSMPSO, GDIWPSO在函数F5, F7上的差异较小,而EDPS+PSO在这4个测试函数上均表现出与其他算法的较大差异。在大多函数上EDPS+PSO迭代到5000次仍然有明显的下降趋势,而其他算法迭代到1000次左右就陷入了局部最优,这是由于在搜索前期,EDPS+PSO运用欧氏距离规划核心圆域来控制种群规模,增加种群多样性,避免了种群较快收敛到局部最优;而SaDCPS+PSO采用增删算子策略,使得算法作用于多峰函数F5时,有跳出局部最优的能力。

    4.4.1   与传统GA, DE的对比

    表3是EDPS+GA, EDPS+DE与GA, DE的实验对比数据,图5是EDPS+GA, EDPS+DE与GA, DE的对比收敛曲线图,考虑篇幅问题,只展示部分收敛曲线。横轴是适应度计算次数,纵轴是平均适应度值。从表的数据可以得出,EDPS+DE在11个测试函数上的寻优结果均优于DE,尤其是函数F1, F4, F5, F7, F9, F10, F11,其收敛精度有显著的提高;对于遗传算法,只在单峰函数F2上表现出劣势,这是由于此函数很难收敛到最小值。

    表  3  适应度值的平均值与标准差
    测试函数 GAEDPS+GADEEDPS+DE
    F1Mean
    Std
    6.1788×10–4
    4.3273×10–4
    1.6779×10–23
    9.0360×10–23
    3.6639
    1.3679
    3.8710×10–108
    1.6719×10–107
    F2Mean
    Std
    27.2667
    0.7982
    37.3328
    24.9148
    3.9463×103
    3.7519×103
    57.1605
    34.2014
    F3Mean
    Std
    0.6668
    9.7515×10–5
    0.6667
    3.0891×10–6
    839.0467
    813.5188
    0.7655
    0.4595
    F4Mean
    Std
    0.0081
    0.0020
    0.0013
    2.8946×10–04
    28.8509
    18.4569
    9.6287×10–4
    4.9931×10–4
    F5Mean
    Std
    0.0059
    0.0021
    2.2649×10–13
    3.2758×10–13
    7.6543
    1.0717
    1.5099×10–14
    3.8918×10–15
    F6Mean
    Std
    2.5529×10–5
    1.4647×10–5
    1.2247×10–06
    1.5500×10–06
    2.5036
    1.3115
    0.0322
    0.0509
    F7Mean
    Std
    1.1032×10–04
    8.6325×10–05
    1.5921×10–26
    8.5642×10–26
    159.1248
    69.8944
    3.1682×10–106
    9.8938×10–106
    F8Mean
    Std
    0.0106
    0.0112
    0.0087
    0.0162
    13.4697
    5.7995
    0.0041
    0.0054
    F9Mean
    Std
    7.4007×10–4
    4.0655×10–4
    0
    0
    140.2000
    19.1678
    0
    0
    F10Mean
    Std
    0.0020
    5.5404×10–4
    7.9361×10–15
    4.0250×10–14
    14.9866
    3.2050
    1.7483×10–52
    3.7124×10–52
    F11Mean
    Std
    5.9413×10–4
    4.0894×10–4
    2.5991×10–6
    1.6006×10–6
    1.3808×103
    526.4687
    0.1605
    0.1092
    下载: 导出CSV 
    | 显示表格
    图  5  收敛曲线

    图5可以看出,运用欧氏距离动态控制种群规模的算法比未使用的更具备较强的全局搜索能力。根据收敛曲线,在函数F1, F10中,结合本文策略的算法在迭代过程中几乎一直保持下降的趋势,而传统算法则较早地陷入了局部最优,说明本文的方法具备较强的全局搜索能力,这是由于早期减少核心圆域内的较优个体,增加外围较差个体数,提高了个体的多样性,增强了算法的全局搜索能力。对于函数F4, F8,在迭代前期保证种群规模的前提下增删个体,使得算法大都较早地收敛到最优值附近,说明前期增加个体多样性对种群寻优有积极的引导作用,体现了增删个体操作的有效性。

    4.4.2   与其他改进GA, DE的算法对比分析

    为综合对比算法优势,将其与GA, DE结合的控制种群规模算法做对比分析。GAVaPS[37], APAGA[38], PL-GA[39], GPS-GA[40], dynNP-DE[41], SAMDE[42]这些算法基于不同的依据进行种群控制。将EDPS+GA, EDPS+DE与这些算法对比,进一步比较不同种群规模控制策略算法的性能,参数设置参考文献[41],算法在每个函数上运行10次,对10次的最佳寻优结果进行平均。从表4结果可以看出,EDPS+GA在F1, F8, F9函数上的性能优于其他算法;从函数角度来看,对于函数F1, F9,只有EDPS+GA和EDPS+DE能找到理想解。总的来说,EDPS+GA性能最好,因为它在大多数测试功能上具备较好的解,其次是SAMDE和EDPS+DE。

    表  4  适应度值的平均结果对比
    测试函数EDPS+GAGAVaPSAPAGAPL-GAGPS-GAEDPS+DEdynNP-DESAMDE
    F18.09×10–3105.02×10–55.01×10–55.02×10–55.04×10–505.02×10–55.02×10–5
    F80.01974.94×10–25.14×10–25.74×10–24.91×10–20.02095.08×10–23.87×10–2
    F90–1.02×101–1.02–1.03×–1.020–1.03–1.03
    F111.67×10–80.11×100.11000.350800.00
    下载: 导出CSV 
    | 显示表格

    为进一步验证本文策略的有效性,选用CEC13函数集作为测试函数[43],考虑篇幅问题,只选取部分函数,其中为F1, F2, F5单峰函数,F6, F10, F11, F14, F16, F17, F19为基础多模函数,F20, F21, F23~F25为组合函数。将EDPS+PSO, EDPS+GA, EDPS+DE与原始算法比较,取30次均值与全局最小值的误差作为最终的结果,实验结果见表5

    表  5  适应度值的运行平均结果
    函数PSOEDPS+PSOGAEDPS+GADEEDPS+DE
    F11.84×1035.46×10–136.38×10–32.74×10-25.69×1036.96×102
    F29.82×1061.12×1056.24×1066.66×1061.00×1076.84×106
    F59.39×1021.83×10–41.91×10–26.03×10-21.50×1025.00×101
    F61.54×1021.08×1017.57×1016.19×1012.79×1031.16×102
    F103.99×1021.08×1011.461.615.08×1021.45×102
    F111.41×1025.02×1011.82×10–14.87×1021.67×1021.24×101
    F142.83×1031.38×1031.25×1014.16×10–16.51×1037.62×102
    F161.329.32×10–11.271.742.531.82
    F171.38×1023.47×1014.24×1013.06×1012.45×1023.18×101
    F194.91×1022.951.258.88×10–12.23×1024.72
    F203.86×1023.35×1025.14×1023.24×10+029.91×1026.08×102
    F213.64×1031.72×1031.29×1021.04×10+026.74×1037.10×102
    F232.87×1022.80×1022.94×1023.16×1022.41×1022.33×102
    F242.98×1022.95×1023.50×1023.43×10+022.65×1022.63×102
    F253.33×1022.05×1022.02×1022.25×1022.002×1022.001×102
    下载: 导出CSV 
    | 显示表格

    与原始算法进行对比,EDPS+PSO在10个函数上寻得较高的精度解,其中包含全部单峰函数,基础多模函数F6, F10, F11, F14, F16, F17, F19,表明EDPS+PSO处理单峰函数问题的能力非常强,运用动态控制策略后,改善了PSO易陷入局部最优的缺点,在多模和组合函数上也有较大的优势;EDPS+DE在全部函数上寻得精度最高的解,说明EDPS+DE在3类测试函数上的优化性能都有一定的竞争力;而EDPS+GA仅在多模函数F6, F14, F17, F19和组合函数F20, F21, F24这7个函数上寻得的解的精度较高,这是由于GA本身不易于陷入局部最优的特点,对单峰函数而言,若算法在前期就寻得全局最优区域,动态控制策略的运用会造成评估次数的浪费,导致算法性能下降,相对来说,其处理组合函数问题的能力较强,说明本文提出的策略适用于解决此类函数优化问题。

    平衡搜索本质上就是早期扩大搜索范围,后期精确搜索,本文通过动态控制种群规模从而达到平衡算法搜索能力的效果。迭代前期控制种群规模不变,删除核心圆域内较优个体,在核心圆域外等添加等量个体,提高个体多样性,达到扩大搜索范围的目的;后期进行局部精细搜索,因此对核心圆域外的个体进行删除操作,加速收敛,同时采用反向变异策略,避免算法陷入局部最优。但是,算法的不足之处在于反向变异策略的逐维性大大增加了算法计算高维函数的时间成本,在后续研究中,可以针对高维函数的反向变异进一步改善,降低时间复杂度。

  • [1]
    王蓉芳, 焦李成, 刘芳, 等. 自适应动态控制种群规模的自然计算方法[J]. 软件学报, 2012, 23(7): 1760–1772. doi: 10.3724/SP.J.1001.2012.04151

    WANG Rongfang, JIAO Licheng, LIU Fang, et al. Nature computation with self-adaptive dynamic control strategy of population Size[J]. Journal of Software, 2012, 23(7): 1760–1772. doi: 10.3724/SP.J.1001.2012.04151
    [2]
    康琦, 安静, 汪镭, 等. 自然计算的研究综述[J]. 电子学报, 2012, 40(3): 548–558. doi: 10.3969/j.issn.0372-2112.2012.03.023

    KANG Qi, AN Jing, WANG Lei, et al. Nature-inspired computation: A survey[J]. Acta Electronica Sinica, 2012, 40(3): 548–558. doi: 10.3969/j.issn.0372-2112.2012.03.023
    [3]
    SUN Shiyuan and LI Jianwei. A two-swarm cooperative particle swarms optimization[J]. Swarm and Evolutionary Computation, 2014, 15: 1–18. doi: 10.1016/j.swevo.2013.10.003
    [4]
    夏学文, 刘经南, 高柯夫, 等. 具备反向学习和局部学习能力的粒子群算法[J]. 计算机学报, 2015, 38(7): 1397–1407. doi: 10.11897/SP.J.1016.2015.01397

    XIA Xuewen, LIU Jingnan, GAO Kefu, et al. Particle swarm optimization algorithm with reverse-learning and local-learning behavior[J]. Chinese Journal of Computers, 2015, 38(7): 1397–1407. doi: 10.11897/SP.J.1016.2015.01397
    [5]
    邓先礼, 魏波, 曾辉, 等. 基于多种群的自适应迁移PSO算法[J]. 电子学报, 2018, 46(8): 1858–1865. doi: 10.3969/j.issn.0372-2112.2018.08.009

    DENG Xianli, WEI Bo, ZENG Hui, et al. A multi-population based self-adaptive migration PSO[J]. Acta Electronica Sinica, 2018, 46(8): 1858–1865. doi: 10.3969/j.issn.0372-2112.2018.08.009
    [6]
    张迅, 王平, 邢建春, 等. 基于高斯函数递减惯性权重的粒子群优化算法[J]. 计算机应用研究, 2012, 29(10): 3710–3712,3724. doi: 10.3969/j.issn.1001-3695.2012.10.027

    ZHANG Xun, WANG Ping, XING Jianchun, et al. Particle swarm optimization algorithms with decreasing inertia weight based on Gaussian function[J]. Application Research of Computers, 2012, 29(10): 3710–3712,3724. doi: 10.3969/j.issn.1001-3695.2012.10.027
    [7]
    XU Guiping, CUI Quanlong, SHI Xiaohu, et al. Particle swarm optimization based on dimensional learning strategy[J]. Swarm and Evolutionary Computation, 2019, 45: 33–51. doi: 10.1016/j.swevo.2018.12.009
    [8]
    WEISE T, WU Yuezhong, CHIONG R, et al. Global versus local search: The impact of population sizes on evolutionary algorithm performance[J]. Journal of Global Optimization, 2016, 66(3): 511–534. doi: 10.1007/s10898-016-0417-5
    [9]
    徐晓华, 陈崚, 陈宏建. 可变种群规模的遗传算法[J]. 系统仿真学报, 2006, 18(4): 870–872,876. doi: 10.3969/j.issn.1004-731X.2006.04.015

    XU Xiaohua, CHEN Ling, and CHEN Hongjian. Genetic algorithm with variable population size[J]. Journal of System Simulation, 2006, 18(4): 870–872,876. doi: 10.3969/j.issn.1004-731X.2006.04.015
    [10]
    AFFENZELLER M, WAGNER S, and WINKLER S. Self-adaptive population size adjustment for genetic algorithms[C]. The 11th International Conference on Computer Aided Systems Theory, Las Palmas de Gran Canaria, Spain, 2007: 820–828.
    [11]
    WANG Hui, RAHNAMAYAN S, and WU Zhijian. Adaptive Differential Evolution with variable population size for solving high-dimensional problems[C]. The IEEE Congress of Evolutionary Computation (CEC), New Orleans, USA, 2011: 2626–2632.
    [12]
    GUAN Yuyang, YANG Ling, and SHENG Weiguo. Population control in evolutionary algorithms: Review and comparison[C]. The 12th International Conference on Bio-inspired Computing: Theories and Applications, Harbin, China, 2017: 161–174.
    [13]
    PATEL S P and UPADHYAY S H. Euclidean distance based feature ranking and subset selection for bearing fault diagnosis[J]. Expert Systems with Applications, 2020, 154: 113400. doi: 10.1016/j.eswa.2020.113400
    [14]
    BOULEY S, VANWYNSBERGHE C, LE MAGUERESSE T, et al. Microphone array positioning technique with Euclidean distance geometry[J]. Applied Acoustics, 2020, 167: 107377. doi: 10.1016/j.apacoust.2020.107377
    [15]
    ALGULIYEV R M, ALIGULIYEV R M, and SUKHOSTAT L V. Weighted consensus clustering and its application to Big data[J]. Expert Systems with Applications, 2020, 150: 113294. doi: 10.1016/j.eswa.2020.113294
    [16]
    史哲文, 白雪石, 郭禾. 基于改进小生境粒子群算法的多模函数优化[J]. 计算机应用研究, 2012, 29(2): 465–468. doi: 10.3969/j.issn.1001-3695.2012.02.016

    SHI Zhewen, BAI Xueshi, and GUO He. Multimodal function optimization based on modified niching particle swarm optimization[J]. Application Research of Computers, 2012, 29(2): 465–468. doi: 10.3969/j.issn.1001-3695.2012.02.016
    [17]
    王通, 刘文芳, 刘春芳. 基于欧氏距离的黑洞寻优算法[J]. 沈阳工业大学学报, 2016, 38(2): 201–205. doi: 10.7688/j.issn.1000-1646.2016.02.15

    WANG Tong, LIU Wenfang, and LIU Chunfang. Optimization algorithm of black-hole based on Euclidean distance[J]. Journal of Shenyang University of Technology, 2016, 38(2): 201–205. doi: 10.7688/j.issn.1000-1646.2016.02.15
    [18]
    佘合一, 吴锡生. 基于欧氏距离与多种搜索策略的人工蜂群算法[J]. 传感器与微系统, 2018, 37(9): 132–135. doi: 10.13873/J.1000-9787(2018)09-0132-04

    SHE Heyi and WU Xisheng. ABC algorithm based on Euclidean distance and multiple search strategies[J]. Transducer and Microsystem Technologies, 2018, 37(9): 132–135. doi: 10.13873/J.1000-9787(2018)09-0132-04
    [19]
    吴辰文, 马宁, 蒋雨璠. 基于Jeffrey散度相似性度量的加权FCM聚类算法[J]. 激光与光电子学进展, 2021, 58(8): 0810006. doi: 10.3788/LOP202158.0810006

    WU Chenwen, MA Ning, and JIANG Yufan. Weighted FCM clustering algorithm based on Jeffrey divergence similarity measure[J]. Laser &Optoelectronics Progress, 2021, 58(8): 0810006. doi: 10.3788/LOP202158.0810006
    [20]
    束俊, 孟德宇, 徐宗本. 元自步学习[J]. 中国科学:信息科学, 2020, 50(6): 781–793. doi: 10.1360/SSI-2020-0005

    SHU Jun, MENG Deyu, and XU Zongben. Meta self-paced learning[J]. Scientia Sinica Informationis, 2020, 50(6): 781–793. doi: 10.1360/SSI-2020-0005
    [21]
    SRISTI P, LU W S, and ANTONIOU A. A new variable-step-size LMS algorithm and its application in subband adaptive filtering for echo cancellation[C]. The IEEE International Symposium on Circuits and Systems, Sydney, Australia, 2001: 721–724.
    [22]
    吕春英, 敖伟, 张洪顺. 一种新的变步长LMS算法[J]. 通信技术, 2011, 44(3): 11–14. doi: 10.3969/j.issn.1002-0802.2011.03.005

    LV Chunying, AO Wei, and ZHANG Hongshun. A new variable step-size LMS algorithm[J]. Communications Technology, 2011, 44(3): 11–14. doi: 10.3969/j.issn.1002-0802.2011.03.005
    [23]
    张喜涛, 张安清. 基于Sigmoid函数的变步长LMS自适应滤波算法性能分析[J]. 舰船电子对抗, 2013, 36(6): 52–55,82. doi: 10.3969/j.issn.1673-9167.2013.06.013

    ZHANG Xitao and ZHANG Anqing. Performance analysis of LMS adaptive filtering algorithm with variable step based on Sigmoid function[J]. Shipboard Electronic Countermeasure, 2013, 36(6): 52–55,82. doi: 10.3969/j.issn.1673-9167.2013.06.013
    [24]
    付学志, 刘忠, 李朝旭. Sigmoid函数变步长LMS自适应算法的抗干扰性能改进[J]. 北京邮电大学学报, 2011, 34(6): 112–115,120. doi: 10.3969/j.issn.1007-5321.2011.06.026

    FU Xuezhi, LIU Zhong, and LI Chaoxu. Anti-interference performance improvement for Sigmoid function variable step-size LMS adaptive algorithm[J]. Journal of Beijing University of Posts and Telecommunications, 2011, 34(6): 112–115,120. doi: 10.3969/j.issn.1007-5321.2011.06.026
    [25]
    徐洋, 徐松涛, 马健, 等. 基于Sigmoid二次型隶属度函数的改进LMS算法[J]. 中南大学学报:自然科学版, 2014, 45(10): 3470–3476.

    XU Yang, XU Songtao, MA Jian, et al. Improved LMS algorithm based on Sigmoid quadratic membership function[J]. Journal of Central South University:Science and Technology, 2014, 45(10): 3470–3476.
    [26]
    王平波, 马凯, 武彩. 基于正态分布曲线的分段式变步长LMS算法[J]. 国防科技大学学报, 2020, 42(5): 16–22. doi: 10.11887/j.cn.202005003

    WANG Pingbo, MA Kai, and WU Cai. Segmented variable-step-size LMS algorithm based on normal distribution curve[J]. Journal of National University of Defense Technology, 2020, 42(5): 16–22. doi: 10.11887/j.cn.202005003
    [27]
    TIZHOOSH H R. Opposition-based learning: A new scheme for machine intelligence[C]. International Conference on Computational Intelligence for Modelling, Control and Automation and International Conference on Intelligent Agents, Web Technologies and Internet Commerce, Vienna, Austria, 2005: 695–701.
    [28]
    WANG Hui, WU Zhijian, RAHNAMAYAN S, et al. Enhancing particle swarm optimization using generalized opposition-based learning[J]. Information Sciences, 2011, 181(20): 4699–4714. doi: 10.1016/j.ins.2011.03.016
    [29]
    罗强, 季伟东, 徐浩天, 等. 一种最优粒子逐维变异的粒子群优化算法[J]. 小型微型计算机系统, 2020, 41(2): 259–263. doi: 10.3969/j.issn.1000-1220.2020.02.006

    LUO Qiang, JI Weidong, XU Haotian, et al. Particle swarm optimization with global best particle dimension-by-dimension mutation[J]. Journal of Chinese Computer Systems, 2020, 41(2): 259–263. doi: 10.3969/j.issn.1000-1220.2020.02.006
    [30]
    RAHNAMAYAN S, JESUTHASAN J, BOURENNANI F, et al. Computing opposition by involving entire population[C]. IEEE Congress on Evolutionary Computation, Beijing, China, 2014: 1800–1807.
    [31]
    XU Gang and YU Guosong. Reprint of: On convergence analysis of particle swarm optimization algorithm[J]. Journal of Computational and Applied Mathematics, 2018, 340: 709–717. doi: 10.1016/j.cam.2018.04.036
    [32]
    骆剑平, 李霞, 陈泯融. 混合蛙跳算法的Markov模型及其收敛性分析[J]. 电子学报, 2010, 38(12): 2875–2880.

    LUO Jianping, LI Xia, and CHEN Minrong. The Markov model of shuffled frog leaping algorithm and its convergence analysis[J]. Acta Electronica Sinica, 2010, 38(12): 2875–2880.
    [33]
    潘峰, 周倩, 李位星, 等. 标准粒子群优化算法的马尔科夫链分析[J]. 自动化学报, 2013, 39(4): 381–389. doi: 10.3724/SP.J.1004.2013.00381

    PAN Feng, ZHOU Qian, LI Weixing, et al. Analysis of standard particle swarm optimization algorithm based on Markov chain[J]. Acta Automatica Sinica, 2013, 39(4): 381–389. doi: 10.3724/SP.J.1004.2013.00381
    [34]
    SOLIS F J and WETS R J B. Minimization by random search techniques[J]. Mathematics of Operations Research, 1981, 6(1): 19–30. doi: 10.1287/moor.6.1.19
    [35]
    季伟东, 孙小晴, 林平, 等. 基于非线性降维的自然计算方法[J]. 电子与信息学报, 2020, 42(8): 1982–1989. doi: 10.11999/JEIT190623

    JI Weidong, SUN Xiaoqing, LIN Ping, et al. Natural computing method based on nonlinear dimension reduction[J]. Journal of Electronics &Information Technology, 2020, 42(8): 1982–1989. doi: 10.11999/JEIT190623
    [36]
    周新宇, 吴志健, 王晖, 等. 一种精英反向学习的粒子群优化算法[J]. 电子学报, 2013, 41(8): 1647–1652. doi: 10.3969/j.issn.0372-2112.2013.08.031

    ZHOU Xinyu, WU Zhijian, WANG Hui, et al. Elite opposition-based particle swarm optimization[J]. Acta Electronica Sinica, 2013, 41(8): 1647–1652. doi: 10.3969/j.issn.0372-2112.2013.08.031
    [37]
    ARABAS J, MICHALEWICZ Z, and MULAWKA J. GAVaPS-a genetic algorithm with varying population size[C]. The First IEEE Conference on Evolutionary Computation. IEEE World Congress on Computational Intelligence, Orlando, USA, 1994: 73–78.
    [38]
    BÄCK T, EIBEN A E, and VAN DER VAART N A L. An emperical study on GAs "without parameters"[C]. The 6th International Conference on Parallel Problem Solving from Nature PPSN VI, Paris, France, 2000: 315–324.
    [39]
    HOLDENER E A. The art of parameterless evolutionary algorithms[D]. [Ph. D. dissertation], Missouri University of Science and Technology, 2008.
    [40]
    SMORODKINA E and TAURITZ D. Greedy population sizing for evolutionary algorithms[C]. IEEE Congress on Evolutionary Computation (CEC), Singapore, 2007: 2181–2187.
    [41]
    BREST J and MAUČEC M S. Population size reduction for the differential evolution algorithm[J]. Applied Intelligence, 2008, 29(3): 228–247. doi: 10.1007/s10489-007-0091-x
    [42]
    WANG Xu, ZHAO Shuguang, JIN Yanling, et al. Differential evolution algorithm based on self-adaptive adjustment mechanism[C]. The 25th Chinese Control and Decision Conference, Guiyang, China, 2013: 577–581.
    [43]
    LIANG J J, QU B Y, SUGANTHAN P N, et al. Problem definitions and evaluation criteria for the CEC 2013 special session on real-parameter optimization[R]. Technical Report 201212, 2013.
  • 加载中

Catalog

    通讯作者: 陈斌, bchen63@163.com
    • 1. 

      沈阳化工大学材料科学与工程学院 沈阳 110142

    1. 本站搜索
    2. 百度学术搜索
    3. 万方数据库搜索
    4. CNKI搜索

    Figures(5)  / Tables(5)

    Article Metrics

    Article views (698) PDF downloads(92) Cited by()
    Proportional views
    Related

    /

    DownLoad:  Full-Size Img  PowerPoint
    Return
    Return