期刊文章详细信息
文献类型:期刊文章
YANG Wenxia;WANG Meng;ZHANG Liang(School of Science,Wuhan University of Technology,Wuhan Hubei 430070,China;Tus College of Digit,Guangxi University of Science and Technology,Liuzhou Guangxi 545006,China)
机构地区:[1]武汉理工大学理学院,武汉430070 [2]广西科技大学启迪数字学院,广西柳州545006
基 金:国家自然科学基金资助项目(61573012);国家留学基金资助项目(201906955038);柳州科技计划项目(2018DH10503)。
年 份:2020
卷 号:40
期 号:12
起止页码:3651-3657
语 种:中文
收录情况:AJ、BDHX、BDHX2017、CSCD、CSCD_E2019_2020、IC、JST、RCCSE、ZGKJHX、ZMATH、核心刊
摘 要:针对人脸图像在待修复缺损面积较大时,现有方法的修复存在图像语义理解不合理、边界不连贯等视觉瑕疵的问题,提出基于密集连接块的U-Net结构的端到端图像修复模型,以实现对任意模板的语义人脸图像的修复。首先,采用生成对抗网络思想,生成器采用密集连接块代替U-Net中的普通卷积模块,以捕捉图像中缺损部分的语义信息并确保前面层的特征被再利用;然后,使用跳连接以减少通过下采样而造成的信息损失,从而提取图像缺损区域的语义;最后,通过引入对抗损失、内容损失和局部总变分(TV)损失这三者的联合损失函数来训练生成器,确保了修复边界和周围真实图像的视觉一致,并通过Hinge损失来训练判别器。所提模型和GLC、DF、门控卷积(GC)在人脸数据集CelebA-HQ上进行了对比。实验结果表明,所提模型能有效提取人脸图像语义信息,修复结果具有自然过渡的边界和清晰的局部细节。相较性能第二的GC,所提模型对中心模板修复的结构相似性(SSIM)和峰值信噪比(PSNR)分别提高了5.68%和7.87%,Frechet Inception距离(FID)降低了7.86%;对随机模板修复的SSIM和PSNR分别提高了7.06%和4.80%,FID降低了6.85%。
关 键 词:语义图像修复 生成对抗网络 密集连接块 损失函数 局部总变分 编码器-解码器
分 类 号:TP391.4]
参考文献:
正在载入数据...
二级参考文献:
正在载入数据...
耦合文献:
正在载入数据...
引证文献:
正在载入数据...
二级引证文献:
正在载入数据...
同被引文献:
正在载入数据...