登录    注册    忘记密码

期刊文章详细信息

改进的灰狼优化算法及其高维函数和FCM优化  ( EI收录)  

Improved grey wolf optimizer and its application to high-dimensional function and FCM optimization

  

文献类型:期刊文章

作  者:张新明[1,2] 王霞[1] 康强[1]

ZHANG Xin-ming;WANG Xia;KANG Qiang(College of Computer and Information Engineering,Henan Normal University,Xinxiang453007,China;Engineering Technology Research Center for Computing Intelligence&Data Mining of Henan Province,Xinxiang453007,China)

机构地区:[1]河南师范大学计算机与信息工程学院,河南新乡453007 [2]河南省高校计算智能与数据挖掘工程技术研究中心,河南新乡453007

出  处:《控制与决策》

基  金:河南省高等学校重点科研项目(19A520026)

年  份:2019

卷  号:34

期  号:10

起止页码:2073-2084

语  种:中文

收录情况:AJ、BDHX、BDHX2017、CSA、CSA-PROQEUST、CSCD、CSCD2019_2020、EI、IC、INSPEC、JST、MR、RCCSE、SCOPUS、ZGKJHX、ZMATH、核心刊

摘  要:灰狼优化算法(GWO)具有较强的局部搜索能力和较快的收敛速度,但在解决高维和复杂的优化问题时存在全局搜索能力不足的问题.对此,提出一种改进的GWO,即新型反向学习和差分变异的GWO(ODGWO).首先,提出一种最优最差反向学习策略和一种动态随机差分变异算子,并将它们融入GWO中,以便增强全局搜索能力;然后,为了很好地平衡探索与开采能力以提升整体的优化性能,对算法前、后半搜索阶段分别采用单维操作和全维操作形成ODGWO;最后,将ODGWO用于高维函数和模糊C均值(FCM)聚类优化.实验结果表明,在许多高维Benchmark函数(30维、50维和1 000维)优化上, ODGWO的搜索能力大幅度领先于GWO,与state-of-the-art优化算法相比, ODGWO具有更好的优化性能.在7个标准数据集的FCM聚类优化上,与GWO、GWOepd和LGWO相比, ODGWO表现出了更好的聚类优化性能,可应用在更多的实际优化问题上.

关 键 词:智能优化算法 灰狼优化算法  反向学习  差分变异  模糊C均值(FCM)聚类  高维函数优化

分 类 号:TP18]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心