期刊文章详细信息
基于深度帧差卷积神经网络的运动目标检测方法研究 ( EI收录)
Research of Moving Object Detection Based on Deep Frame Difference Convolution Neural Network
文献类型:期刊文章
OU Xian-feng;YAN Peng-cheng;WANG Han-pu;TU Bing;HE Wei;ZHANG Guo-yun;XU Zhi(School of Information and Communication Engineering,Machine Vision & Artificial Intelligence Research Center,Hunan Institute of Science and Technology,Yueyang,Hunan 414006,China;Guangxi Key Laboratory of Images and Graphics Intelligent Processing,Guilin University of Electronics Technology,Guilin,Guangxi 541004,China)
机构地区:[1]湖南理工学院信息科学与工程学院机器视觉与人工智能研究中心,湖南岳阳414006 [2]桂林电子科技大学广西图像图形智能处理重点实验室,广西桂林541004
基 金:湖南省自然科学基金项目(No.2020JJ4340,No.2020JJ4343);国家自然科学基金(No.61662014);湖南省教育厅优秀青年项目(No.19B245);湖南省研究生教育创新工程和专业能力提升工程项目(No.CX20201114);湖南省三维重建与智能应用技术工程研究中心(No.2019-430602-73-03-006049);湖南省应急通信工程技术研究中心(No.2018TP2022);广西科技基地和人才专项(No.AD19110022)。
年 份:2020
卷 号:48
期 号:12
起止页码:2384-2393
语 种:中文
收录情况:BDHX、BDHX2017、CAS、CSCD、CSCD2019_2020、EI、IC、JST、RCCSE、SCOPUS、ZGKJHX、核心刊
摘 要:复杂场景中的运动目标检测是计算机视觉领域的重要问题,其检测准确度仍然是一大挑战.本文提出并设计了一种用于复杂场景中运动目标检测的深度帧差卷积神经网络(Deep Difference Convolutional Neural Network,DFDCNN).DFDCNN由DifferenceNet和AppearanceNet组成,不需要后处理就可以预测分割前景像素.DifferenceNet具有孪生Encoder-Decoder结构,用于学习两个连续帧之间的变化,从输入(t帧和t+1帧)中获取时序信息;AppearanceNet用于从输入(t帧)中提取空间信息,并与时序信息融合;同时,通过多尺度特征图融合和逐步上采样来保留多尺度空间信息,以提高网络对小目标的敏感性.在公开标准数据集CDnet2014和I2R上的实验结果表明:DFDCNN不仅在动态背景、光照变化和阴影存在的复杂场景中具有更好的检测性能,而且在小目标存在的场景中也具有较好的检测效果.
关 键 词:运动目标检测 复杂场景 深度帧差卷积神经网络 时序信息 空间信息 多尺度特征图融合
分 类 号:TP183]
参考文献:
正在载入数据...
二级参考文献:
正在载入数据...
耦合文献:
正在载入数据...
引证文献:
正在载入数据...
二级引证文献:
正在载入数据...
同被引文献:
正在载入数据...