登录    注册    忘记密码

期刊文章详细信息

深度学习模型中不同激活函数的性能分析    

Performance analysis of different activation function in deep learning model

  

文献类型:期刊文章

作  者:张恺翊[1] 张宁燕[1] 江志浩[1] 代维凯[1] 邹晓[2]

Zhang Kaiyi;Zhang Ningyan;Jiang Zhihao;Dai Weikai;Zou Xiao(PLA 91977 Army,Beijing 102249,China;PLA 91423 Army,Dalian 116043,China)

机构地区:[1]91977部队,北京102249 [2]91423部队,辽宁大连116043

出  处:《网络安全与数据治理》

年  份:2023

卷  号:42

期  号:S01

起止页码:149-156

语  种:中文

收录情况:JST、普通刊

摘  要:近年来,人们为处理众多问题引入了各种类型的神经网络,神经网络取得了巨大的发展。任何神经网络使用的层次结构是线性和非线性函数的组合,其中最常见的非线性层是激活函数,如Logistic Sigmoid、Tanh、ReLU、ELU、Swish和Mish。对深度学习神经网络中的激活函数进行了介绍,并对不同激活函数的输出范围、单调性、平滑性等特点进行了分析。通过在数据集上测试,对现在使用频率较高的激活函数进行了性能测试。对激活函数的分析将有助于进一步地在模型设计中进行选择。

关 键 词:卷积神经网络 激活函数 性能分析

分 类 号:TP311]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心