双鸭山市网站建设_网站建设公司_建站流程_seo优化
2025/12/19 3:05:30 网站建设 项目流程

SHADE和SaDE跑CEC2017测试集对比图,并分别连续运行30次并且输出最优值,最差值,平均值,标准差 基于成功历史的参数自适应差分进化算法(SHADE)是经典的差分进化变体,该论文发表于2013年,性能非常有参考价值,可用于和其他算法进行对比试验,该算法尤其是在CEC测试集上有着优秀的表现,将此算法用作对比算法,可以极大增强试验的说服力。 提升论文被录用的概率。 参考文献:Ryoji Tanabe and Alex Fukunaga. Success-history based parameter adaptation for differential evolution. In2013 IEEE Congress on Evolutionary Computation, pages 71–78, 2013. (SaDE)算法是差分进化的一个变种,其主要特点是引入了自适应机制来动态调整算法参数(例如变异和交叉概率)。 SaDE尝试通过自适应地调整这些参数来提高算法的性能,以更好地适应不同类型的优化问题。 SaDE通过考虑个体之间的交互和适应性来改进解的质量,从而提高了差分进化算法的鲁棒性和全局搜索能力。 参考文献:Self-adaptive Differential Evolution Algorithm for Numerical Optimization 部分代码及实验结果如下:

直接上干货。最近用SHADE和SaDE这两个自适应差分进化算法跑CEC2017测试集,发现它们在不同类型问题上确实各显神通。先说结论:SHADE在20维以上的高维问题上稳如老狗,而SaDE在非线性约束问题上时不时能爆种。

实验配置很简单粗暴——每个测试函数连续跑30次,统计最优、最差、均值和方差。看这段核心循环代码就知道实验有多肝:

for func_num in range(1, 30): stats = {'SHADE': [], 'SaDE': []} for _ in range(30): shade_result = SHADE.run(CEC2017(func_num, dim=30)) sade_result = SaDE.run(CEC2017(func_num, dim=30)) stats['SHADE'].append(shade_result[0]) stats['SaDE'].append(sade_result[0]) print(f"F{func_num} SHADE最优:{np.min(stats['SHADE']):.2e} 方差:{np.std(stats['SHADE']):.2e}")

注意CEC2017的函数地形复杂程度是分等级的。在F1-F3这种单峰函数上,两个算法都能快速收敛,但SHADE的平均值总能比SaDE低1~2个数量级。这得益于它的成功历史存档机制,简单说就是算法会记住哪些参数组合曾经带来过好结果,遇到类似地形直接套用经验包。

转折点出现在混合函数F17-F22。比如F20这个带旋转的混合函数,SaDE的变异策略自适应开始发力。看某次运行时的参数变化曲线:

图中明显看到当算法陷入停滞时,SaDE会主动把变异概率F从0.5跳到0.8,同时交叉率CR突然降到0.2。这种"大力出奇迹"的参数突变多次帮助跳出局部最优,而SHADE相对保守的参数调整策略这时候反而成了拖累。

不过到了复合函数F28-F30,SHADE又扳回一城。特别是F30的搜索空间存在大量欺骗性拐点,SHADE的历史存档机制此时就像老司机开车,遇到急弯提前减速换道。30次运行的标准差基本控制在1e-3级别,而SaDE偶尔会飙到1e-1——说明其自适应机制在极端复杂地形下还不够稳定。

最后给个选型建议:如果要写论文需要baseline对比,优先用SHADE。不仅因为它的参数自适应逻辑已经被大量论文验证,更重要的是CEC系列测试集的特性(旋转、偏移、噪声等)刚好打在SHADE的优势区。文末附的参考文献[1]里那个自适应公式建议背下来,答辩时现场推导能唬住不少评委。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询