期刊文章详细信息
无偏稀疏正则化的双策略结构神经网络压缩
Unbiased Sparse Regularization for Compression of Dual-strategy Structured Neural Networks
文献类型:期刊文章
LIN Zejian;WANG Junkui;XIE Junming;LI Zhenni;XIE Shengli(Guangdong Key Laboratory of IoT Information Technology(GDUT),School of Automation,Guangdong University of Technology,Guangzhou 510006,China;Key Laboratory of Intelligent Information Processing and System Integration of IoT(GDUT),School of Automation,Guangdong University of Technology,Ministry of Education,Guangzhou 510006,China;Key Laboratory of Intelligent Detection and The Internet of Things in Manufacturing(GDUT),Ministry of Education,Center for Intelligent Batch Manufacturing Based on IoT Technology(GDUT),Guangzhou 510006,China)
机构地区:[1]广东工业大学自动化学院广东省物联网信息技术重点实验室,广东广州510006 [2]广东工业大学自动化学院物联网智能信息处理与系统集成教育部重点实验室,广东广州510006 [3]智能检测与制造物联教育部重点实验室,基于物联网技术的离散制造智能化学科创新引智基地,广东广州510006
基 金:国家自然科学基金面上项目(62273106);科技部外专人才项(DL2022030011L);广东省自然科学基金面上项目(2023A1515011480)。
年 份:2023
卷 号:52
期 号:3
起止页码:313-325
语 种:中文
收录情况:BDHX、BDHX2020、CSCD、CSCD2023_2024、IC、JST、RCCSE、SCOPUS、ZGKJHX、核心刊
摘 要:虽然深度神经网络模型的性能十分出色,但目前网络存在规模庞大、权重冗余度高的问题。同时,现有对网络权重剪枝的正则子估测偏差大。因此,本文提出无偏稀疏正则化的双策略结构神经网络压缩。首先,本文将神经网络所连接权重视为一组,提出采用估测值偏差小的非线性拉普拉斯函数,构建组间无偏结构稀疏正则子和组内无偏结构稀疏正则子,对冗余神经元和剩余神经元的冗余权重分别进行稀疏约束,构建无偏稀疏正则化的双策略结构神经网络压缩模型。其次,针对所设计的无偏稀疏正则化的网络压缩优化难题,本文采用近端算子技术获得无偏稀疏正则子的闭式解,进而设计基于近端梯度下降法的反向传播算法,实现神经网络准确的结构压缩。最后,通过在数据集MNIST、FashionMNIST和Cifar-10进行实验验证,本文所提出的无偏稀疏正则子的双策略结构神经网络压缩不仅收敛速度快于目前主流正则子。而且在压缩率保持一致的情况下,相比已有的方法识别精度平均提升2.3%,在识别保持精度基本一致的情况下,相对已有方法平均提升11.5%的压缩率。
关 键 词:神经网络 压缩 结构剪枝 无偏稀疏正则子
分 类 号:TP183]
参考文献:
正在载入数据...
二级参考文献:
正在载入数据...
耦合文献:
正在载入数据...
引证文献:
正在载入数据...
二级引证文献:
正在载入数据...
同被引文献:
正在载入数据...