登录    注册    忘记密码

期刊文章详细信息

面向轻量级卷积网络的激活函数与压缩模型    

Activation Function and Compression Model for Lightweight Convolutional Network

  

文献类型:期刊文章

作  者:徐增敏[1,3] 陈凯[2] 郭威伟[1,4] 赵汝文[1] 蒋占四[5]

XU Zengmin;CHEN Kai;GUO Weiwei;ZHAO Ruwen;JIANG Zhansi(School of Mathematics and Computing Science,Guilin University of Electronic and Technology,Guilin,Guangxi 541004,China;Hangzhou Hikvision Digital Technology Co.,Ltd,Hangzhou,310052,China;Guilin Anview Technology Co.,Ltd.,Guilin,Guangxi 541010,China;The fourth branch of China Communications Construction Group Design Institute Co.,Ltd,Zhengzhou,450052,China;School of Mechanical and Electrical Engineering,Guilin University of Electronic and Technology,Guilin,Guangxi 541004,China)

机构地区:[1]桂林电子科技大学数学与计算科学学院,广西桂林541004 [2]杭州海康威视数字技术股份有限公司,杭州310052 [3]桂林安维科技有限公司,广西桂林541010 [4]中国通信建设集团设计院有限公司第四分公司,郑州450052 [5]桂林电子科技大学机电工程学院,广西桂林541004

出  处:《计算机工程》

基  金:国家自然科学基金“视频侦查中基于深度学习的人体行为识别技术研究”(61862015);广西重点研发计划项目“面向涉密场所的视频人体行为分析系统研发及应用”(AB17195025);广西高校中青年教师科研基础能力提升项目“基于手机指纹识别身份认证系统研究”(2019KY0253)。

年  份:2022

卷  号:48

期  号:5

起止页码:242-250

语  种:中文

收录情况:AJ、BDHX、BDHX2020、CAS、CSCD、CSCD_E2021_2022、IC、JST、RCCSE、UPD、ZGKJHX、核心刊

摘  要:因卷积神经网络参数膨胀,导致模型训练时占用大量的计算资源和存储资源,从而限制其在边缘终端上的应用。依据深度可分离卷积模型MobileNet V1的设计思路,结合自门控函数和ReLU函数的特点,构建一种改进的激活函数和压缩神经网络模型MobileNet-rhs。将ReLU函数和swish函数分别作为分段线性函数,设计激活函数ReLU-h-swish,通过优化卷积单元结构,解决模型训练过程中难以激活部分神经元的问题,以减少特征信息丢失。构建一种剔除卷积核的压缩模型,从模型深处自下而上剔除2;个卷积核,减少逐点卷积的参数量。在CIFAR-10和CIFAR-100数据集上进行实验,结果表明,引入ReLU-h-swish函数构建MobileNet-rhs模型的Top-1分类准确率为80.38%。相比MobileNet-rhs模型,压缩后MobileNet-rhs模型的参数量减少17.9%,其Top-1分类准确率仅降低2.28个百分点。此外,利用Tensorflow将该模型部署在安卓平台上,实现图像分类相册的应用。

关 键 词:manifold of interest变换  深度可分离卷积  逐点卷积  自门控函数  Kotlin协程  

分 类 号:TP391.41]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心