登录    注册    忘记密码

期刊文章详细信息

FAQ-CNN:面向量化卷积神经网络的嵌入式FPGA可扩展加速框架  ( EI收录)  

FAQ-CNN: A Flexible Acceleration Framework for Quantized Convolutional Neural Networks on Embedded FPGAs

  

文献类型:期刊文章

作  者:谢坤鹏[1,2] 卢冶[1,2,3] 靳宗明[1,2] 刘义情[1,2] 龚成[1,2] 陈新伟[4] 李涛[1,2,3]

Xie Kunpeng;Lu Ye;Jin Zongming;Liu Yiqing;Gong Cheng;Chen Xinwei;Li Tao(College of Computer Science,Nankai University,Tianjin 300350;Tianjin Key Laboratory of Network and Data Security Technology(Nankai University),Tianjin 300350;State Key Laboratory of Com puter Architecture(Institute of Computing Technology,Chinese Academy of Sciences),Beijing 100190;Fujian Provincial Key Laboratory of Information Processing and Intelligent Control(Minjiang University),Fuzhou 350108)

机构地区:[1]南开大学计算机学院,天津300350 [2]天津市网络与数据安全技术重点实验室(南开大学),天津300350 [3]计算机体系结构国家重点实验室(中国科学院计算技术研究所),北京100190 [4]福建省信息处理与智能控制重点实验室(闽江学院),福州350108

出  处:《计算机研究与发展》

基  金:国家重点研发计划项目(2018YFB2100304);国家自然科学基金项目(62002175);计算机体系结构国家重点实验室(中国科学院计算技术研究所)开放课题(CARCHB202016);天津市优秀科技特派员项目(21YDTPJC00380);福建省信息处理与智能控制重点实验室(闽江学院)开放基金项目(MJUKF-IPIC202105);中国高校产学研创新基金项目(2020HYA01003)。

年  份:2022

卷  号:59

期  号:7

起止页码:1409-1427

语  种:中文

收录情况:AJ、BDHX、BDHX2020、CSCD、CSCD2021_2022、EI、IC、JST、RCCSE、SCOPUS、ZGKJHX、核心刊

摘  要:卷积神经网络(convolutional neural network, CNN)模型量化可有效压缩模型尺寸并提升CNN计算效率.然而,CNN模型量化算法的加速器设计,通常面临算法各异、代码模块复用性差、数据交换效率低、资源利用不充分等问题.对此,提出一种面向量化CNN的嵌入式FPGA加速框架FAQ-CNN,从计算、通信和存储3方面进行联合优化,FAQ-CNN以软件工具的形式支持快速部署量化CNN模型.首先,设计面向量化算法的组件,将量化算法自身的运算操作和数值映射过程进行分离;综合运用算子融合、双缓冲和流水线等优化技术,提升CNN推理任务内部的并行执行效率.然后,提出分级编码与位宽无关编码规则和并行解码方法,支持低位宽数据的高效批量传输和并行计算.最后,建立资源配置优化模型并转为整数非线性规划问题,在求解时采用启发式剪枝策略缩小设计空间规模.实验结果表明,FAQ-CNN能够高效灵活地实现各类量化CNN加速器.在激活值和权值为16 b时,FAQ-CNN的加速器计算性能是Caffeine的1.4倍;在激活值和权值为8 b时,FAQ-CNN可获得高达1.23TOPS的优越性能.

关 键 词:卷积神经网络量化  量化算法解耦  并行编解码  片上资源建模  加速器设计

分 类 号:TP391]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心