登录    注册    忘记密码

期刊文章详细信息

图像超分辨率重建中的细节互补卷积模型    

Mutual-detail convolution model for image super-resolution reconstruction

  

文献类型:期刊文章

作  者:李浪宇[1,2,3] 苏卓[1,2] 石晓红[4] 黄恩博[1,2] 罗笑南[5]

Li Langyu1,2,3, Su Zhuo1,2, Shi Xiaohong4, Huang Enbo1,2, Luo Xiaonan5(1. School of Data and Computer Science, Sun Yat-sen University, Guaagzhou 510006, China; 2. National Engineering Research Center of Digital Life, Sun Yat-sen University, Guangzhou 510006, China; 3. Research Institute of Sun Yat-sen University in Sheazhen, Shenzhen 518057, China; 4. School of lnformation Science, Xinhua College of Sun Yat-sen University, Guangzhou 510520, China; 5. School of Computer Science and Information Security, Guilin University of Electronic Technology, Guilin 541004, Chin)

机构地区:[1]中山大学数据科学与计算机学院,广州510006 [2]中山大学国家数字家庭工程技术研究中心,广州510006 [3]中山大学深圳研究院,深圳518057 [4]中山大学新华学院信息科学学院,广州510520 [5]桂林电子科技大学计算机与信息安全学院,桂林541004

出  处:《中国图象图形学报》

基  金:国家自然科学基金项目(61320106008;61502541;61772140);广东省自然科学基金-博士启动基金项目(2016A030310202);中央高校基本科研业务费专项资金-中山大学青年教师培育基金项目(16lgpy39);广东省科技计划基金项目(2015B010129008)~~

年  份:2018

卷  号:23

期  号:4

起止页码:572-582

语  种:中文

收录情况:BDHX、BDHX2017、CSCD、CSCD2017_2018、IC、JST、RCCSE、ZGKJHX、核心刊

摘  要:目的现有的超分辨卷积神经网络为了获得良好的高分辨率图像重建效果需要越来越深的网络层次和更多的训练,因此存在了对于样本数量依懒性大,参数众多致使训练困难以及训练所需迭代次数大,硬件需求大等问题。针对存在的这些问题,本文提出一种改进的超分辨率重建网络模型。方法本文区别于传统的单输入模型,采取了一种双输入细节互补的网络模型,在原有的SRCNN单输入模型特征提取映射网络外,添加了一个新的输入。本文结合图像局部相似性,构建了一个细节补充网络来补充图像特征,并使用一层卷积层将细节补充网络得到的特征与特征提取网络提取的特征融合,恢复重建高分辨率图像。结果本文分别从主观和客观的角度,对比了本文方法与其他主流方法之间的数据对比和效果对比情况,在与SRCNN在相似网络深度的情况下,本文方法在放大3倍时的PSNR数值在Set5以及Set14数据下分别比SRCNN高出0.17 d B和0.08 d B。在主观的恢复图像效果上,本文方法能够很好的恢复图像边缘以及图像纹理细节。结论实验证明,本文所提出的细节互补网络模型能够在较少的训练以及比较浅的网络下获得有效的重建图像并且保留更多的图像细节。

关 键 词:超分辨重建 深度学习  卷积神经网络 非线性映射

分 类 号:TP391]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心