期刊文章详细信息
文献类型:期刊文章
机构地区:[1]西安交通大学电信学院计算机系智能网络与网络安全教育部重点实验室,西安710049 [2]西安邮电学院计算机科学与技术系,西安710061
基 金:国家自然科学基金(60825202;60803079;60633020);国家"八六三"高技术研究发展计划项目基金(2008AA01Z131);国家科技支撑计划项目(2006BAK11B02;2006BAJ07B06;2008BAH26B02;2009BAH51B00);中国科学院复杂系统与智能研究科学重点实验室开放基金资助项目(20080101);陕西省教育厅科学研究计划项目(09JK717)资助
年 份:2010
卷 号:33
期 号:2
起止页码:279-287
语 种:中文
收录情况:BDHX、BDHX2008、CSA、CSA-PROQEUST、CSCD、CSCD2011_2012、EI(收录号:20101512841020)、IC、INSPEC、JST、MR、RCCSE、SCOPUS、ZGKJHX、核心刊
摘 要:单隐藏层前馈神经网络(Single-hidden Layer Feedforward Neural Network,SLFN)已经在模式识别、自动控制及数据挖掘等领域取得了广泛的应用,但传统学习方法的速度远远不能满足实际的需要,成为制约其发展的主要瓶颈.产生这种情况的两个主要原因是:(1)传统的误差反向传播方法(Back Propagation,BP)主要基于梯度下降的思想,需要多次迭代;(2)网络的所有参数都需要在训练过程中迭代确定.因此算法的计算量和搜索空间很大.针对以上问题,借鉴ELM的一次学习思想并基于结构风险最小化理论提出一种快速学习方法(RELM),避免了多次迭代和局部最小值,具有良好的泛化性、鲁棒性与可控性.实验表明RELM综合性能优于ELM、BP和SVM.
关 键 词:极速学习机 正则极速学习机 支持向量机 结构风险 神经网络 最小二乘
分 类 号:TP18]
参考文献:
正在载入数据...
二级参考文献:
正在载入数据...
耦合文献:
正在载入数据...
引证文献:
正在载入数据...
二级引证文献:
正在载入数据...
同被引文献:
正在载入数据...