期刊文章详细信息
文献类型:期刊文章
Li Xiangpan;Zhang Biao;Sun Fengchi;Liu Jie(College of Computer Science,Nankai University,Tianjin 300750;College of Software,Nankai University,Tianjin 300750;College of Artificial Intelligence,Nankai University,Tianjin 300750)
机构地区:[1]南开大学计算机学院,天津300750 [2]南开大学软件学院,天津300750 [3]南开大学人工智能学院,天津300750
基 金:国家自然科学基金项目(61873327)。
年 份:2020
卷 号:57
期 号:6
起止页码:1218-1226
语 种:中文
收录情况:AJ、BDHX、BDHX2017、CSCD、CSCD2019_2020、EI、IC、JST、PROQUEST、RCCSE、SCOPUS、ZGKJHX、核心刊
摘 要:对于智能机器人来说,正确地理解环境是一项非常重要且充满挑战性的能力,从而成为机器人学领域一个关键问题.随着服务机器人进入家庭成为趋势,让机器人能够依靠自身搭载的传感器和场景理解算法,以自主、可靠的方式感知并理解其所处的环境,识别环境中的各类物体及其相互关系,并建立环境模型,成为自主完成任务和实现人机器人智能交互的前提.在规模较大的室内空间中,由于机器人常用的RGB-D(RGB depth)视觉传感器(同时获取彩色图像和深度信息)视野有限,使之难以直接获取包含整个区域的单帧图像,但机器人能够运动到不同位置,采集多种视角的图像数据,这些数据总体上能够覆盖整个场景.在此背景下,提出了基于多视角RGB-D图像帧信息融合的室内场景理解算法,在单帧RGB-D图像上进行物体检测和物体关系提取,在多帧RGB-D图像上进行物体实例检测,同时构建对应整个场景的物体关系拓扑图模型.通过对RGB-D图像帧进行划分,提取图像单元的颜色直方图特征,并提出基于最长公共子序列的跨帧物体实例检测方法,确定多帧图像之间的物体对应关联,解决了RGB-D摄像机视角变化影响图像帧融合的问题.最后,在NYUv2(NYU depth dataset v2)数据集上验证了本文算法的有效性.
关 键 词:物体检测 物体实例检测 RGB-D图像 物体关系拓扑图 场景理解
分 类 号:TP391.41]
参考文献:
正在载入数据...
二级参考文献:
正在载入数据...
耦合文献:
正在载入数据...
引证文献:
正在载入数据...
二级引证文献:
正在载入数据...
同被引文献:
正在载入数据...