分享
聚类质心与指数递减方法改进的哈里斯鹰算法.pdf
下载文档

ID:3638106

大小:1.38MB

页数:6页

格式:PDF

时间:2024-06-26

收藏 分享赚钱
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
质心 指数 递减 方法 改进 里斯 算法
计算机与现代化JISUANJI YU XIANDAIHUA2023年第12期总第340期文章编号:1006-2475(2023)12-0030-06收稿日期:2022-10-10;修回日期:2023-04-18基金项目:国家自然科学基金资助项目(71802155);陕西省教育厅智库项目(20JT027);咸阳市重点研发计划项目(S2021ZDYF-GY-0715)作者简介:白晓波(1983),男,陕西勉县人,高级工程师,硕士生导师,CCF会员,硕士,研究方向:群体智能优化,智能信息处理,E-mail:;江梦茜(1989),女,福建南平人,讲师,博士,研究方向:3D成像,计算机视觉,E-mail:;王铁山(1974),男,河北唐山人,副教授,博士,研究方向:企业数字化转型,数字经济,E-mail:;邵景峰(1980),男,甘肃定西人,教授,博士,研究方向:智能信息处理,E-mail:;李勃(1986),男,甘肃平凉人,副教授,博士,研究方向:企业数字化转型,智能信息处理,E-mail:。0引言群体智能优化算法(Swarm Intelligence Optimization Algorithm,SIOA)是模拟生物种群的群体或社会行为,求解问题的最优值,在工程、医学、军事和生产车间调度等领域均有应用。为了解决不同类型的优化问题,如在参数取值范围内,参数多、维度高,优化目标为单峰或者多峰函数,产生了一些比较有代表性的群体智能优化算法,如粒子群算法(ParticleSwarm Optimization,PSO)1、灰狼算法(Grew WolfOptimization,GWO)2、烟花算法(Fireworks Algorithm,FWA)3、蛙 跳 算 法(Shuffled Frog LeapingAlgorithm,SFLA)4、萤火虫算法(Firefly Optimization Algorithm,FOA)5和果蝇优化算法(Fruit FlyOptimization Algorithm,FFOA)6等。这些不同的优化算法在不同的优化目标上的性能表现差异较大。这也比较符合无免费午餐(No Free Lunch,NFL)定理7,即一个算法很难在每个优化目标上表现出优异性能。这也是很多学者一直在改进现有算法或者研究出更有效的优化算法的原因。2019年,Heidari等8提出了哈里斯鹰优化(Harris Hawks Optimization,HHO)算法,该算法通过模聚类质心与指数递减方法改进的哈里斯鹰算法白晓波1,2,江梦茜3,王铁山1,邵景峰1,李勃1,2(1.西安工程大学管理学院,陕西 西安 710048;2.“一带一路”纺织发展创新研究院,陕西 西安 710048;3.福州大学先进制造学院,福建 福州 350003)摘要:为了提高哈里斯鹰算法的寻优性能,提出KmHHO算法。首先,将所有种群看作一个聚类,用Kmeans算法计算聚类的质心,再用质心代替算法中的均值。然后,为了控制算法的探索和开发阶段,用指数递减的猎物逃逸能量,代替原算法中线性递减的猎物逃逸能量。最后,通过在23个benchmark函数上5个算法寻优性能的对比,验证KmHHO的改进效果,并利用Wilcoxon秩和检验,分析KmHHO与其他4个算法的差异性。实验结果表明,在23个benchmark函数中,KmHHO能够在14个benchmark函数上取得最优值,整体性能高于GWO、HHO和AO,但与DAHHO相当。关键词:哈里斯鹰算法;Kmeans;指数递减;秩和检验;群体智能寻优算法中图分类号:TP391文献标志码:ADOI:10.3969/j.issn.1006-2475.2023.12.006Improved Harris Hawks Optimization Algorithm Based on Cluster Centroid andExponential Decline MethodBAI Xiao-bo1,2,JIANG Meng-xi3,WANG Tie-shan1,SHAO Jing-feng1,LI Bo1,2(1.School of Management,Xi an Polytechnic University,Xi an 710048,China;2.Textile Development Research Institute of One Belt and One Road,Xi an 710048,China;3.School of Advanced Manufacturing,Fuzhou University,Fuzhou 350003,China)Abstract:To promote optimization performance of Harris hawks optimization algorithm,KmHHO algorithm is proposed.Firstly,all populations as a cluster,the cluster centroid is calculated with Kmeans of Matlab,mean of HHO is replaced by cluster centroid.Then,to control the segments of exploration and development,linearly decreasing escape energy of prey is replaced with exponentially decreasing escape energy of prey.Finally,searching performance of five algorithms is compared on 23 benchmark functions,the improved effect of KmHHO is verified and Wilcoxon rank sum test is utilized to analyze the difference of KmHHO withother four optimization algorithms.The experimental results show that among the 23 benchmarks,KmHHO can achieve the optimalvalue on 14 benchmark functions,and its overall performance is higher than GWO,HHO and AO,but it s equivalent to DAHHO.Key words:Harrishawksoptimization;Kmeans;exponentiallydecreasing;ranksumtest;swarmintelligenceoptimizationalgorithm2023年第12期拟猎物的逃逸能量来控制全局和局部搜索,但是算法存在前期全局搜寻能力较弱、且种群多样性不足的问题。与 GWO相比,对部分多峰函数优化性能较差。因此,国内外学者对HHO进行了研究,并改进其寻优能力。如贾鹤鸣等9,将动态反向学习的阿奎拉鹰(Aquila Optimizer,AO)10与 HHO 相融合,解决了HHO全局寻优能力不足的问题,在对部分多峰函数的求解中,取得了和 AO 近乎接近的结果。汤安迪等11利用精英等级策略和非线性能量因子对算法进行改进。高建瓴等12主要利用混合差分与二次插值的方法对 HHO 改进。朱诚等13提出趋化校正的HHO。刘小龙等14利用方形邻域和随机数组对HHO改进。Wang等15提出了一种离散HHO解决充电的共享电动汽车调度问题。Song等16以Tent混沌映射和随机游走机制改进HHO。国外学者的研究,如Elgamal等17利用混沌映射初始化种群,增加种群多样性,再用模拟退火(SA)算法对当前最佳解进行优化,以提高 HHO的利用率。Nandi等18将 HHO和 GWO相结合,利用GWO算法进一步改进了HHO算法的探索和开发阶段。Hussien等19将反向学习、混沌局部搜索和自适应技术相结合,提高了 HHO 的性能。Kamboj等20基于正余弦算法改进HHO的探索阶段,提出了混合 Harris Hawks 正余弦算法。Kaveh 等21将帝国主义竞争算法(Imperialist Competition Algorithm,ICA)22与 HHO 相结合,构成混合优化算法ICHO。Gupta等23利用非线性能量参数、差分进化、贪婪选择机制和反向学习等提高了算法的搜索效率。综上,国内外学者都针对HHO搜寻能力不足的问题进行研究,并取得了较好的效果,主要方法为:1)将HHO中线性能量参数改进为非线性,并加入精英选择策略。2)将全局寻优能力好的算法和 HHO 结合,构成混合优化算法。3)引入混沌方法,改进种群多样性。但是在改进中都忽略了HHO在更新种群位置的时候,用了种群均值,这就存在部分偏离最优值位置较远的种群对均值产生较大影响,进而影响到迭代时下一代的种群分布,导致算法难以较快收敛于最优值。因此,本文提出新的假设,即将所有种群看作一类,利用聚类簇心代替均值,能够使算法较快地收敛于最优值;再结合非线性能量参数改进全局搜寻能力,能够取得更好的优化效果。1哈里斯鹰优化算法哈里斯鹰优化算法是模拟哈里斯鹰围捕猎物的过程,利用猎物的逃逸能量来控制探索与开发阶段的转换。HHO详细的数学表示如下。1.1探索阶段探索阶段(|E|1,E为猎物逃逸能量),使用等概率的2种方式更新种群位置,如公式(1)所示。X(t+1)=Xr(t)-r1|Xr(t)-2r2X(t)|,q 0.5(Xbest(t)-X(t)-r3(lb+r4(ub-lb),q 0.5(1)其中,-X(t)=(i=1NXi(t)/N为当前迭代种群均值,N为种群数,Xr(t)为当前迭代种群的随机种群,ri(i=1,2,3,4)为(0,1)之间的均匀分布的随机数,Xbest(t)为当前迭代最优种群,lb 为参数下限,ub 为参数上限,q为(0,1)之间的均匀分布的随机数,t表示第t次迭代。1.2探索开发转换HHO是线性的逃逸能量计算方式,如公式(2)所示:E=2E0(1-t/T)(2)其中,T为最大迭代次数,E0为(-1,1)之间均匀分布的随机数。1.3开发阶段开发阶段(|E|1)是在发现猎物后采用的抓捕策略,HHO利用猎物逃逸能量E和(0,1)之间均匀分布的随机数来控制4种抓捕策略,如下所示。其中,r是(0,1)之间均匀分布的随机数。1)软包围。若|E|0.5且 r0.5,则使用软包围策略。猎物有逃逸能力,但无法逃脱。公式如下:X(t+1)=X(t)-E|JXbest(t)-X(t)|(3)X(t)=Xbest(t)-X(t)(4)J=2(1-r5)(5)其中,X(t)表示当前最优值与种群X的差,其中r5(0,1)为随机数,J为猎物逃脱时的随机逃逸距离。2)硬包围。若|E|0.5且r0.5,则使用硬包围对策。即猎物没有足够能量逃逸,且无逃出机会。公式如下:X(t+1)=Xbest(t)-E|X(t)|(6)3)渐进式快速俯冲软包围。若|E|0.5且r0.5,表示猎物有足够能量,且有机会逃逸。此时,需使用2种策略,如公式(7)公式(9)所示:Y=Xbest(t)-E|JXbest(t)-X(t)|(7)Z=Y+SLevy(d)(8)式中,d表示问题维度,S表示d维的随机向量,Levy()表示Levy飞行函数,详见文献 11。Levy(d)表示由Levy飞行函数返回的d维向量。由此,种群更新公式如下:X(t+1)=Y,f(Y)f(X(t)Z,f(Z)f(X(t)X(t),f(Y)f(X(t)or f(Z)f(X(t)(9)其中,f()为优化问题的适应度函数。4)渐进式快速俯冲硬包围。若|E|0.5且r0.5,表示猎物逃逸能量不足,但有逃脱机会,因此,使用硬包围,快速缩小种群和猎物之间的距离。公式如下:Y=Xbest(t)-E|JXbest(t)-X(t)|(10)Z=Y+SLevy(d)(11)X(t+1)=Y,f(Y)f(X(t)Z,f(Z)0.5的情况比较均衡,这就更有利于搜寻到最优值。2.2KmHHO算法基于 2.1 节中的改进思想和方法,得出改进的HHO算法(记作:KmHHO)流程如图3所示。图3KmHHO算法流程图KmHHO算法的详细过程如下。步骤 1种群初始化。根据参数取值范围 lb,ub 和维度d,随机生成N个d维种群,并设置主要参数Emax=2、Emin=0.0001及最大迭代次数T。步骤2进入迭代。for t=1:Tfor i=1:N计算并找到最优值,并记录Xbest(t)Endctrs=Kmeans(X,k);并用ctrs代替HHO内种群均值X(t)for i=1:N公式(13)计算逃逸能量E0100200300400t-1.5-1-0.500.511.52E0100200300400t-1.5-1-0.500.511.52E参数取值范围为lb,ub,随机初始化N个d维种群X,设置迭代次数T,Emax=2,Emin=0.0001t=1:T 计算每个种群适应度值,并找到最优适应度值fbest(t)及其对应个体Xbest(t)i=1:NKmeans计算种群质心,代替所有公式中的种群均值t=T结束是否i=N否是|E|1公式(3)公式(5)更新种群公式(7)公式(9)更新种群更新种群公式(6)更新种群公式(1)更新种群是|E|0.5否r0.5r0.5是否是否是否()X t公式(13)计算逃逸能量E公式(10)公式(12)322023年第12期if(|E1)公式(1)更新种群else生成(0,1)均匀分布随机数rif(|E 0.5 and r 0.5)公式(3)公式(5)更新种群Endif(|E 0.5 and r 0.5)公式(7)公式(9)更新种群Endif(|E 0.5 and r 0.5)公式(6)更新种群Endif(|E 0.5 and r 0.5)公式(10)公式(12)更新种群EndEndEnd步骤3若t=T,程序结束,否则返回步骤2。2.3KmHHO算法时间复杂度在 KmHHO 中增加了 Kmeans 算法计算簇类质心,其时间复杂度为O(RNDK)(R:迭代次数,N:数据个数,D:数据特征维度,K:类簇数),会较大程度地影响KmHHO的效率,非线性递减能量计算公式并不影响。在本文中,加入了 Kmeans,但是 K=1,R 待定,N和D由具体问题决定。则KmHHO的算法时间复杂度表示为O(2TN+TNRD)。根据NFL定理,算法性能提高,增加了一定时间开销,这也是可以接受的。3实验仿真实验仿真选择了23个benckmark基准函数,详见文献 2。整体分为3个部分:1)分析Kmeans算法优化后的HHO性能,并分析Kmeans不同取参对寻优结果的影响。2)将KmHHO与GWO 2、HHO 8、DAHHO 9 和AO 10 在相同种群数N、最大迭代次数T和运行次数runs下的均值、标准差进行对比分析,均值越小,寻优性能越好,标准差越小,算法越稳定。3)Wilcoxon秩和检验26,以检验KmHHO算法与其他算法的差异性。所有实验运行环境为:Windows 10操作系统(64位),Matlab2017a,Anoconda3。Intel(R)Core(TM)i5-7400 CPU3.00 GHz,4 GB 内存。为了与主要参考文献的实验数据公平对比,将迭代次数T、种群数N和每个算法独立运行次数runs设置为与文献 9 相同,即T=500、N=30、runs=30。3.1聚类质心优化HHO后的寻优结果用Kmeans聚类质心代替HHO均值后,是否能够提升算法寻优性能,若能提升,又能提升多少。这里需要进一步说明。对此,本文将加入Kmeans的HHO与原HHO在23个基准函数上进行效果对比。为了统计方便,在23个基准函数中,只要获得最优值,即使和其他算法相同,也算作胜出。实验结果如表1所示。其中,粗体表示最优值。表1使用Matlab的Kmeans聚类质心改进HHO与原HHO的对比函数F1F2F3F4F5F6F7F8F9F10F11F12F13F14F15F16F17F18F19F20F21F22F23统计Kmeans不同取参情况Distance=cityblockstart=UniformAvg1.73E-1881.41E-1051.60E-1191.38E-957.70E-035.52E-042.08E-04-1.26E+0408.88E-1601.63E-051.65E-049.98E-013.65E-04-1.03E+003.98E-013.00E+00-3.86E+00-2.92E+00-5.07E+00-5.51E+00-5.14E+00Avg:胜12,负11Std:胜10,负13Std06.49E-1058.74E-1196.40E-951.31E-029.93E-042.13E-044.77E-010002.78E-054.08E-045.29E-103.36E-054.20E-083.12E-053.86E-056.09E-032.12E-016.28E-011.52E+001.19E+00Distance=cityblockstart=sampleAvg2.00E-1893.12E-1052.99E-1348.70E-911.41E-023.66E-042.20E-04-1.26E+0408.88E-1602.38E-051.11E-049.98E-013.78E-04-1.03E+003.98E-013.00E+00-3.86E+00-2.96E+00-5.32E+00-5.53E+00-5.54E+00Avg:胜12,负11Std:胜5,负18Std01.07E-1041.64E-1334.76E-902.04E-024.00E-043.16E-044.07E+010005.51E-052.41E-041.62E-095.66E-053.05E-082.09E-052.14E-056.20E-031.91E-011.22E+001.52E+001.56E+00Distance=sqEuclideanstart=UniformAvg1.04E-901.46E-517.08E-721.37E-451.43E-022.61E-041.46E-04-1.26E+0408.88E-1605.84E-061.17E-041.16E+003.94E-04-1.03E+003.98E-013.00E+00-3.85E+00-2.97E+00-5.28E+00-5.06E+00-5.15E+00Avg:胜9,负14Std:胜5,负18Std5.68E-904.38E-513.88E-717.49E-452.61E-023.30E-041.69E-041.61E+000008.69E-062.34E-044.58E-012.65E-041.47E-092.32E-052.16E-071.41E-022.04E-011.19E+009.15E-011.10E+00Distance=sqEuclidean,start=sampleAvg4.73E-946.89E-494.21E-702.08E-451.36E-022.26E-041.55E-04-1.26E+0408.88E-1606.64E-061.22E-041.03E+003.49E-04-1.03E+003.98E-013.00E+00-3.86E+00-3.01E+00-5.42E+00-5.10E+00-4.83E+00Avg:胜10,负13Std:胜6,负17Std2.58E-933.76E-482.27E-691.11E-441.89E-023.35E-041.18E-042.44E+010007.54E-061.62E-041.81E-013.21E-051.05E-082.12E-053.41E-067.82E-031.52E-011.40E+001.04E+007.77E-01原HHOAvg8.99E-972.05E-499.39E-795.06E-491.60E-021.76E-042.71E-04-1.26E+0408.88E-1608.85E-069.98E-051.16E+003.69E-04-1.03E+003.98E-017.50E+00-3.86E+00-3.29E+00-5.22E+00-5.54E+00-4.95E+00Avg:胜11,负12Std:胜10,负13Std3.93E-961.01E-483.86E-781.69E-481.79E-022.48E-042.86E-046.62E-010001.24E-051.08E-043.77E-013.10E-045.44E-102.93E-061.02E+013.46E-055.39E-029.30E-011.70E+006.87E-01白晓波,等:聚类质心与指数递减方法改进的哈里斯鹰算法33计算机与现代化2023年第12期在表1中,除了Distance=sqEuclidean时的avg的胜出数分别为9和10,其他2种情况的胜出数均高于原HHO,说明通过Kmeans聚类质心改进HHO的可行性。后续实验选择胜出最多,且稳定性较高的参数配置Distance=cityblock、start=Uniform。3.2KmHHO与其他算法性能对比这里主要分析在HHO加上Kmeans和指数递减的能量计算方式后对算法性能的影响。主要与GWO2、HHO8、DAHHO9、AO10这 4 种算法作对比。实验结果如表2所示。其中,粗体表示最优值。表2中的KmHHO这一项,是在Kmeans聚类质心优化HHO后,再加上指数递减逃逸能量的改进效果,与表1中的数据相比,寻优精度有了进一步提升。如在函数F1F4、F20F22等,这也说明了使用指数递减的逃逸能量比原HHO中线性递减的逃逸能量更好。从表 2 的统计数据可以看出 KmHHO 在 23 个benckmark函数中,共在14个函数上取得了最优值,比 HHO 提高了 6个函数,整体效果明显优于 GWO、HHO和AO,从而说明Kmeans、指数递减的逃逸能量对 HHO 的改进有着良好的效果,比 DAHHO 的胜出少1个。但是,KmHHO在单峰和多峰的高维函数上有很好的寻优效果,如F1F4、F8F11、F14F17、F19和F20,而在F21F23的寻优效果上明显低于GWO、DAHHO和AO。这也符合NFL理论,一个寻优算法,很难在所有优化目标上都有良好性能。3.3Wilcoxon秩和检验Wilcoxon秩和检验26,用来检查2个算法之间的差异性。设显著性水平为5%,若p5%的,表明KmHHO与相应算法在对应函数上性能相当,其他表示有显著差异。如HHO列,在函数F5F13上与KmHHO性能相当,其他函数上具有显著差异。这也比较符合表2的测试数据。由上述算法精度测试和统计检验,说明通过Kmeans和非线性递减能量改进的KmHHO,在全局探索和局部开发能力上比GWO、HHO和AO都有了较大 幅 度 的 改 善,存 在 的 不 足 之 处 是 略 微 弱 于DAHHO。4结束语本文通过Kmeans簇类中心代替HHO中的均值、指数递减能量代替线性递减能量这2种方法,将HHO算法的性能进一步提升,使其全局和局部寻优能力都得到增强,并与4个算法的性能进行了对比,综合与GWO、HHO和 AO比较,在寻优精度和稳定性上,都取得了绝对优势,并通过 Wilcoxon 秩和检验,得出表2KmHHO与其他4个优化算法性能的对比函数F1F2F3F4F5F6F7F8F9F10F11F12F13F14F15F16F17F18F19F20F21F22F23统计KmHHOAvg1.00E-2775.04E-1392.13E-1944.80E-1361.22E-021.48E-041.90E-04-1.26E+0408.88E-1608.75E-067.84E-050.9983.20E-04-1.033.98E-015.70-3.86-3.29-5.55E+00-5.60E+00-5.30E+00Avg:胜14,负9Std:胜10,负13Std02.24E-13802.62E-1351.80E-022.93E-041.40E-046.44E-010001.47E-051.58E-042.23E-071.15E-051.49E-083.58E-058.24E+008.22E-036.87E-021.53E+001.58E+009.65E-01GWOAvg1.29E-271.12E-161.06E-055.86E-072.72E+018.55E-012.17E-03-5.86E+032.901.03E-134.13E-034.33E-026.44E-013.771.73E-03-1.033.98E-013.00-3.86-3.23-8.41E+00-1.04E+01-1.01E+01Avg:胜5,负18Std:胜1,负22Std1.64E-277.12E-172.54E-055.90E-078.23E-013.60E-011.24E-036.88E+023.561.76E-146.79E-032.51E-022.19E-014.005.07E-032.07E-083.27E-044.75E-052.40E-038.83E-022.79E+001.08E-031.75E+00HHOAvg8.99E-972.05E-499.39E-795.06E-491.60E-021.76E-042.71E-04-1.26E+0408.88E-1608.85E-069.98E-051.1603.69E-04-1.033.98E-017.50-3.86-3.29-5.22-5.54-4.95Avg:胜8,负15Std:胜4,负19Std3.93E-961.01E-483.86E-781.69E-481.79E-022.48E-042.86E-046.62E-010001.24E-051.08E-043.77E-013.10E-045.44E-102.93E-061.02E+013.46E-055.39E-029.30E-011.706.87E-01DAHHOAvg1.69E-2311.82E-1204.98E-1921.46E-1174.62E-047.44E-069.15E-05-1.23E+0408.88E-1601.84E-061.12E-052.713.55E-04-1.033.98E-013.00-3.86-3.07-1.02E+01-1.02E+01-1.05E+01Avg:胜14,负9Std:胜16,负7Std04.85E-12007.86E-1177.03E-031.30E-057.42E-051.28E+030002.96E-062.12E-052.536.15E-052.58E-131.07E-132.15E-123.45E-091.31E-013.03E-039.7E-013.64E-03AOAvg4.82E-1017.32E-523.75E-1033.33E-648.11E-031.74E-041.46E-04-8.19E+0308.88E-1603.48E-062.33E-053.095.18E-04-1.033.98E-013.03-3.86-3.15-1.01E+01-1.04E+01-1.05E+01Avg:胜8,负15Std:胜3,负20Std2.64E-1004.01E-511.77E-1021.82E-631.88E-025.58E-049.82E-053.77E+030004.85E-064.24E-053.80E+001.35E-045.53E-042.93E-042.25E-024.67E-039.42E-023.07E-027.04E-031.74E-02342023年第12期KmHHO与GWO、HHO、DAHHO和AO在23个函数上的差异性。差异性检验的结果,也与性能对比相吻合。但是,算法在部分多峰函数上的寻优结果虽有提高,依然不是非常理想,这也是后续继续开展研究的方向,以更进一步提升KmHHO的综合性能。另外,需要紧密结合工程设计问题,进一步对算法的性能进行验证,以体现其工程适用性。参考文献:1POLI R,KENNEDY J,BLACKWELL T.Particle swarmoptimization:An overview J.Swarm Intelligence,2007,1(1):33-57.2 MIRJALILI S,MIRJALILI S M,LEWIS A.Grey wolf optimizer J .AdvancesinEngineeringSoftware,2014,69:46-61.3TAN Y,ZHU Y C.Fireworks algorithm for optimizationC/Proceedings of the 2010 International Conference inSwarm Intelligence.2010:355-364.4 刘立群,顾任远.核中心驱动混合蛙跳算法及其应用J.计算机科学与探索,2022,16(5):1169-1181.5 宋阿妮,包贤哲,权轶.基于混沌自适应萤火虫算法的UAVs 分配策略 J.计算机应用与软件,2022,39(2):300-306.6 白晓波,邵景峰,王铁山,等.分段搜索的果蝇算法及其对纺织企业资源配置 J/OL.计算机科学与探索:2022,16(10):2330-2344.7WOLPERT D H,MACREADY W G.No free lunch theorems for optimization J.IEEE Transactions on Evolutionary Computation,1997,1(1):67-82.8HEIDARI A A,MIRJALILI S,FARIS H,et al.Harrishawks optimization:Algorithm and applications J.FutureGeneration Computer Systems,2019,97:849-872.9 贾鹤鸣,刘庆鑫,刘宇翔,等.融合动态反向学习的阿奎拉鹰与哈里斯鹰混合优化算法 J/OL.智能系统学报,2023,18(01):104-116.10 ABUALIGAH L,YOUSRI D,ABD ELAZIZ M,et al.Aquila optimizer:A novel meta-heuristic optimization algorithm J.Computer&Industrial Engineering,2021,157.DOI:10.1016/j.cie.2021.107250.11 汤安迪,韩统,徐登武,等.混沌精英哈里斯鹰优化算法J.计算机应用,2021,41(8):2265-2272.12 高建瓴,喻明毫.混合差分进化与二次插值改进哈里斯鹰算法J/OL.小型微型计算机系统,2023,44(7):1352-1359.13朱诚,潘旭华,张勇.基于趋化校正的哈里斯鹰优化算法J.计算机应用,2022,42(4):1186-1193.14 刘小龙,梁彤缨.基于方形邻域和随机数组的哈里斯鹰优化算法 J/OL.控制与决策:1-11 2022-07-31.DOI:10.13195/j.kzyjc.2021.0478.15 WANG Y H,ZHOU Y Q,LUO Q F.Parameter optimization of shared electric vehicle dispatching model using discrete Harris hawks optimizationJ.Mathematical Biosciences and Engineering,2022,19(7):7284-7313.16 SONG M J,JIA H M,ABUALIGAH L,et al.ModifiedHarris hawks optimization algorithm with exploration factorand random walk strategyJ.Computational IntelligenceandNeuroscience,2022,2022.DOI:10.1155/2022/4673665.17 ELGAMAL Z M,YASIN N B M,TUBISHAT M,et al.Animproved Harris hawks optimization algorithm with simulated annealing for feature selection in the medical fieldJ.IEEE Access,2020,8:186638-186652.18 NANDI A,KAMBOJ V K.A Canis lupus inspired upgraded Harris hawks optimizer for nonlinear,constrained,continuous,and discrete engineering design problemJ.International Journal for Numerical Methods in Engineering,2021,122(4):1051-1088.19HUSSIEN A G,AMIN M.A self-adaptive Harris hawks optimization algorithm with opposition-based learning andchaotic local search strategy for global optimization and feature selection J.International Journal of Machine Learning and Cybernetics,2022,13(2):309-336.20KAMBOJ V K,NANDI A,BHADORIA A,et al.An intensify Harris hawks optimizer for numerical and engineeringoptimization problems J.Applied Soft Computing,2020,89.DOI:10.1016/j.asoc.2019.106018.21 KAVEH A,RAHMANI P,ESLAMLOU A D.An efficienthybrid approach based on Harris hawks optimization andimperialist competitive algorithm for structural optimizationJ .Engineering with Computers,2022,38(S2):1555-1583.22ATASHPAZ-GARGARI E,LUCAS C.Imperialist competitive algorithm:An algorithm for optimization inspired by imperialistic competition C/Proceedings of the 2007 IEEECongress on Evolutionary Computation.2007:4661-4667.23GUPTA S,DEEP K,HEIDARI A A,et al.

此文档下载收益归作者所有

下载文档
你可能关注的文档
收起
展开