登录    注册    忘记密码

期刊文章详细信息

卷积神经网络中ReLU激活函数优化设计    

Optimal Design of ReLU Activation Function in Convolutional Neural Networks

  

文献类型:期刊文章

作  者:王双印[1] 滕国文[1]

机构地区:[1]吉林师范大学计算机学院,吉林四平136000

出  处:《信息通信》

年  份:2018

卷  号:31

期  号:1

起止页码:42-43

语  种:中文

收录情况:普通刊

摘  要:卷积神经网络中的激活函数的作用是激活神经元的特征然后保留并映射出来,这是神经网络能模拟人脑机制,解决非线性问题的关键。ReLU函数更是其中的佼佼者,但同时其自身也存在不足之处。文章从两个方面对ReLU函数进行了优化设计。对使用梯度下降法的激活函数的学习率进行讨论研究并提出可行的学习率改进方法。提出一种新型校正激活函数,称其为e-ln函数,经过Mnist数据集仿真实验证明某些情况下其性能要优于ReLU。

关 键 词:卷积神经网络 激活函数 ReLU  优化设计

分 类 号:TP391.41]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心