改进的灰狼优化算法及其高维函数和FCM优化

Control and Decision(2019)

引用 7|浏览7
暂无评分
摘要
灰狼优化算法(GWO)具有较强的局部搜索能力和较快的收敛速度,但在解决高维和复杂的优化问题时存在全局搜索能力不足的问题.对此,提出一种改进的GWO,即新型反向学习和差分变异的GWO(ODGWO).首先,提出一种最优最差反向学习策略和一种动态随机差分变异算子,并将它们融入GWO中,以便增强全局搜索能力;然后,为了很好地平衡探索与开采能力以提升整体的优化性能,对算法前、后半搜索阶段分别采用单维操作和全维操作形成ODGWO;最后,将ODGWO用于高维函数和模糊C均值(FCM)聚类优化.实验结果表明,在许多高维Benchmark函数(30维、50维和1000维)优化上,ODGWO的搜索能力大幅度领先于GWO,与state-of-the-art优化算法相比,ODGWO具有更好的优化性能.在7个标准数据集的FCM聚类优化上,与GWO、GWOepd和LGWO相比,ODGWO表现出了更好的聚类优化性能,可应用在更多的实际优化问题上.
更多
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要