温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
混合
引力
搜索
自适应
反向
学习
蜉蝣
优化
算法
童林
第 33 卷第 1 期广东石油化工学院学报Vol 33No 12023 年 2 月Journal of Guangdong University of Petrochemical TechnologyFebruary 2023混合引力搜索的自适应反向学习蜉蝣优化算法童林,吴芸,吴雪颜,吴霄,江佳玉(九江学院 理学院,江西 九江 332005)摘要:针对蜉蝣优化算法全局探索能力较弱,易陷入局部最优的不足,提出了两种改进策略:利用引力搜索算法更新蜉蝣的速度公式,以增强算法的全局探索能力和局部开发能力;对蜉蝣种群执行自适应反向学习策略,以提高算法的收敛速度及求解精度。将两种策略分别引入雌雄种群中得到六种算法变体。仿真结果表明,雄性种群混合引力搜索算法且雌性种群引入自适应反向学习策略的变体性能最好,命名为 GSA OMA 算法。与 8 个元启发式优化算法相比,GSA OMA 算法具有更好的寻优精度和收敛速度。关键词:蜉蝣优化算法;引力搜索算法;自适应反向学习中图分类号:TP391文献标识码:A文章编号:2095 2562(2023)01 0043 05蜉蝣优化算法(MA)是一种新颖的元启发式优化算法1,参数少、过程简单易实现、寻优能力强,已应用于多目标任务优化2、性能预测3、动态优化4 等领域。为了进一步提高 MA 算法的性能,提出了相应的改进策略,如倒位变异和突变结合5、反向学习6、混合和声搜索算法7 等。但 MA 算法的寻优能力在某些函数上仍有待改善,为此本文提出了两种改进策略:将蜉蝣种群的速度更新公式替换为引力搜索算法的速度更新公式;利用自适应反向学习策略更新蜉蝣种群的位置。两种改进策略分别应用到雌雄种群中得到 6 种算法变体,在 12 个测试函数上进行数值实验。结果表明,在雄性蜉蝣中混合引力搜索算法并在雌性蜉蝣中引入自适应反向学习策略的 GSA OMA1 算法性能最好(称为 GSA OMA 算法)。与 8 个元启发式优化算法进行数值实验,结果表明,GSA OMA 算法的全局探索和局部开发能力均得到提高。1蜉蝣优化算法MA 算法的种群分为雌雄两种。第 i 个雄性和雌性蜉蝣个体在第 t 次迭代时的位置分别为 xti=(xti1,xti2,xtiD)和 yti=(yti1,yti2,ytiD),速度均表示为 vti=(vti1,vti2,vtiD),其中 D 为优化问题的维数。雄性蜉蝣会根据自己和邻近蜉蝣的经验来调整当前位置和速度,其表示为xt+1i=xti+vt+1i,vt+1i=g vti+a1e r2p(pbesti xti)+a2e r2g(gbest xti)(1)式中:pbesti为蜉蝣个体 i 的历史最优位置;gbest 为种群中全局最优位置;a1,a2分别为衡量认知和社会作用的正吸引系数;g 为惯性系数;为能见度系数;rp和 rg分别为当前个体与 pbesti和 gbest 的笛卡尔距离。为了保证雄性蜉蝣速度始终是变化的,当雄性蜉蝣个体成为全局最优时更新速度,其表示为vt+1i=vti+d r(2)式中:d 为舞蹈系数;r 为1,1 内均匀分布的随机数。雌性蜉蝣不会聚集成群,而是飞向雄性蜉蝣,以便繁殖。其位置和速度更新表示如下:收稿日期:2022 06 25;修回日期:2022 08 04基金项目:江西省自然科学基金(20224BAB201010);江西省教育厅科技项目(GJJ211823,GJJ211825);江西省大学生创新创业训练计划项目(S202111843039);九江学院大学生创新创业训练计划项目(X202111843144,X202211843019)作者简介:童林(2001),女,江西鹰潭人,在读本科,主要研究方向为智能优化算法。通信作者:吴芸(1982),女,湖北嘉鱼人,博士,讲师,主要研究方向为智能优化算法。yt+1i=yti+vt+1i,vt+1i=g vti+a2e r2mf(xti yti),f(xti)f(yti)g vti+fl r,f(xti)f(yti)(3)式中:rmf为雌性蜉蝣和雄性蜉蝣之间的笛卡尔距离;fl 为随机游走系数。雌性和雄性蜉蝣相遇后开始交配,生成两个子代,表示为offspring1=L male+(1 L)female,offspring2=L female+(1 L)male(4)式中:male 为子代的父亲;female 为子代的母亲;L 为1,1 内均匀分布的随机数。为了保证种群的多样性,选择部分子代进行变异,在两代蜉蝣中保留一半较优个体,进入下一次迭代。2改进思路2 1混合引力搜索算法策略2009 年,ashedi 等提出引力搜索算法(GSA 算法)8,其探索能力尤为优秀。本文利用 GSA 算法的速度公式更新速度,从而加强蜉蝣接收全局信息的能力,提高算法性能。具体表示为vt+1i=rand vti+ati(5)式中:rand 为 0,1 之间的随机向量;ati、Mti、fitti、Fti和 ti,j分别为蜉蝣个体 i 在第 t 次迭代时的加速度、质量、适应度 值、所 受 的 作 用 力 之 和、与 蜉 蝣 个 体 j 的 欧 氏 距 离,ati=Fti/Mti,Mti=mti/nj=1mtj,mti=fittimaxi 1,2,Nfittimini 1,2,Nfittimaxi 1,2,Nfitti,Fti=Nj=1,jirandj GtMti Mtjti,j+(xtj xti),Gt=GoeatT;为一个无限小的常量;Gt为第 t 次迭代时的引力常数;G0为初始引力常数;a 为常数;T 是最大迭代次数;N 为种群规模。2 2自适应反向学习策略自适应反向学习9 是对反向学习10 的进一步优化,可以有目的地扩大算法的搜索范围。本文采用该策略改进蜉蝣的位置更新公式,扩大种群的搜索范围,提高种群多样性。改进后的位置可表示为yi=yi,f(yi)f(yaoi)yaoi,f(yi)f(yaoi)(6)式中:yaoi=(yaoi1,yaoi2,yaoiD)为蜉蝣个体 yi的自适应反向位置向量;yaoij为第 j 维的自适应反向数,yaoij=yqo,|yij gbestj|yoij gbestj|yqr,|yij gbestj|yoij gbestj|;yoij为第 j 维的反向数,yoij=(ubij+lbij)yij,yijlbij,ubij;yqo=rand(Mij,yoij)为准反向数11,Mij=0 5 (ubij+lbij);yqr=rand(Mij,yij)为准反射反向数12;Mij为可行域的中心;rand(a,b)为 a 到 b 之间的随机数。2 3不同 MA 变体考虑到不同改进策略应用到雌雄种群中会得到不同的算法变体,本文提出 6 种相关算法变体。将自适应反向学习策略应用于雄性蜉蝣所得到的变体命名为 OMA1 算法,应用于雌性的变体为 OMA2 算法;将 GSA 算法引入到雄性蜉蝣所得到的变体命名为 GSAMA1 算法,引入到雌性的变体为 GSAMA2 算法;将雄性蜉蝣混合 GSA 算法、雌性应用自适应反向学习策略所得到的变体命名为 GSA OMA1 算法。同理,雌性蜉蝣混合 GSA 算法、雄性应用自适应反向学习策略所得到的变体为 GSA OMA2 算法。其中,GSA OMA1 算法步骤如下:(1)初始化雄雌种群位置、速度及各项参数。(2)得到 pbest 和 gbest。(3)雄性蜉蝣引入 GSA 算法,由式(5)、式(1)更新速度和位置信息。(4)雌性蜉蝣引入自适应反向学习策略,由式(3)和式(6)更新位置和速度;(5)更新 pbest 和 gbest。(6)满足条件输出结果,否则执行步骤(3)(5)。3算法仿真实验3 1测试函数与参数设置为了比较算法的性能,本文选取 12 个基本测试函数进行数值实验,具体见表 1。其中,F1 F4为单峰44广东石油化工学院学报2023 年函数;F5 F12为多峰函数。所有实验种群规模均设定为 40,最大迭代次数为 2000,独立运行 40 次。表 1测试函数函数范围维度最优值F1(x)=ni=1x2i100,100300F2(x)=ni=1|xi|+ni=1|xi|10,10300F3(x)=ni=1(ij=1xj)2100,100300F4(x)=max|xi|,1in100,100300F5(x)=ni=1(x2i10cos(2xi)+10)512,5 12300F6(x)=20 exp(0 21nni=1x2i)exp(1nni=1cos(2xi)+20+e32,32300F7(x)=14000ni=1x2i ni=1cos(xii)+1600,600300F8(x)=01 sin2(3x1)+n 1i=1(xi1)2(1+sin2(3xi+1+1)+(xn1)2(1+sin2(2xn)+ni=1u(xi,5,100,4)50,50300F9(x)=(x25142x21+5x16)2+10 (1 18)cosx1+105,520398F10(x)=(1+(x1+x2+1)2(19 14x1+3x21)14x2+6x1x2+3x22)(30+(2x13x2)2(18 32x1+12x21)+48x236x1x2+27x22)2,223F11(x)=7i=1(x ai)(x ai)T+ci)1 0,10410 4028F12(x)=10i=1(x ai)(x ai)T+ci)1 0,10410 53633 2不同 MA 变体的性能比较为了评估 MA 算法变体的性能,6 种算法变体与原始 MA 算法在选取的 12 个基本测试函数上进行实验,其收敛曲线见图 1。aF1的收敛曲线bF2的收敛曲线cF3的收敛曲线dF4的收敛曲线eF5的收敛曲线fF6的收敛曲线gF7的收敛曲线hF8的收敛曲线iF9的收敛曲线jF10的收敛曲线kF11的收敛曲线lF12的收敛曲线图 1不同算法变体的收敛曲线由图 1 可知,OMA1、OMA2 算法在所有单峰函数 F1 F4和部分多峰函数 F5 F7、F9上寻优结果均达54第 1 期童林等:混合引力搜索的自适应反向学习蜉蝣优化算法到理论最优值,整体的收敛曲线下降速度快,说明自适应反向学习策略有利于提高 MA 算法的局部开发能力,且在一定程度上提高了 MA 算法跳出局部最优的能力。GSAMA1 算法在函数 F1、F3 F4、F6、F8 F12上寻优精度均优于 MA 算法,且在函数 F10 F12上迭代 300 次左右就跳出了局部最优;GSAMA2 算法仅在函数 F6、F9 F10上略优于 MA 算法,说明 GSA 算法策略应用在雌雄种群上的效果不同,雄性蜉蝣混合GSA 算法策略可提高 MA 算法的全局探索能力,在一定程度上也增强了局部开发能力,而雌性蜉蝣混合GSA 算法反而失去导向性,寻优能力降低。GSA OMA1 算法在 12 个测试函数上的寻优精度最高,寻优能力最强,而 GSA OMA2 算法在所有函数上的寻优精度比 MA 算法仅高 0 15 个数量级,效果略逊。综上,GSA OMA1 算法性能最好,将 GSA OMA1 算法作为本文提出的改进算法,命名为 GSA OMA 算法。3 3GSA OMA 算法与其他算法为验证 GSA OMA 算法的可行性和优越性,将 GSA OMA 算法与蜉蝣优化算法(MA)、蚁狮优化算法(ALO)13、哈里斯鹰优化算法(HHO)14、灰狼优化算法(GWO)15、飞蛾火焰优化算法(MFO)16、正弦余弦优化算法(SCA)17、梯度优化算法(GBO)18、粒子群优化算法(PSO)19、鲸鱼优化算法(WOA)20 共 10 种元启发式优化算法进行实验,算法参数与文献 12 20 设置相同。各算法的收敛曲线如图 2 所示。aF1的收敛曲线bF2的收敛曲线cF3的收敛曲线dF4的收敛曲线eF5的收敛曲线fF6的收敛曲线gF7的收敛曲线hF8的收敛曲线iF9的收敛曲线jF10的收敛曲线kF11的收敛曲线lF12的收敛曲线图 2测试函数收敛曲线由图 2