登录    注册    忘记密码

期刊文章详细信息

基于动态特征剔除的图像与点云融合的机器人位姿估计方法  ( EI收录)  

Robot Pose Estimation Method Based on Image and Point Cloud Fusion with Dynamic Feature Elimination

  

文献类型:期刊文章

作  者:张磊[1,2] 徐孝彬[1,2,3,4] 曹晨飞[1,2] 何佳[1,2] 冉莹莹[1,2] 谭治英[1,2] 骆敏舟[1,2]

Zhang Lei;Xu Xiaobin;Cao Chenfei;He Jia;Ran Yngying;Tan Zhiying;Luo Minzhou(College of Mechanical&Electrical Engineering,Hohai University,Changzhou,Jiangsu 213022,China;Jiangsu Key Laboratory of Special Robot Technology,Hohai University,Changzhou,Jiangsu 213022,China;College of Mechanical and Electrical Engineering,Nanjing University of Aeronautics and Astronautics,Nanjing,Jiangsu 210016,China;Changzhou Changgong Electronic Technology Co.,Ltd.,Changzhou,Jiangsu 213001,China)

机构地区:[1]河海大学机电工程学院,江苏常州213022 [2]河海大学江苏省特种机器人技术重点实验室,江苏常州213022 [3]南京航空航天大学机电学院,江苏南京210016 [4]常州常工电子科技股份有限公司,江苏常州213001

出  处:《中国激光》

基  金:国家自然科学基金(51805146)、江苏省重点研发计划(BE2020082-1)、中央高校基本科研业务费专项资金资助项目(B200202221)、江苏省博士后科研资助计划(2020Z138)。

年  份:2022

卷  号:49

期  号:6

起止页码:126-137

语  种:中文

收录情况:BDHX、BDHX2020、CAS、CSCD、CSCD2021_2022、EAPJ、EI、IC、JST、RCCSE、SCOPUS、WOS、ZGKJHX、核心刊

摘  要:针对动态物体影响传感器进行机器人位姿估计的问题,本文提出了一种基于动态特征剔除点云与图像融合的位姿估计方法。首先,YOLOv4和PointRCNN分别被用于识别图像和点云中的潜在运动目标并提取候选框。其次,在视觉定位方面,双目视觉与稀疏光流被用于路标点的构建与追踪,并根据候选框剔除动态特征点,随后构建重投影误差函数,通过基于RANSAC剔除的非线性优化方法求解相机位姿;在激光定位方面,提取前后帧的直线与平面特征点,并根据候选框进行筛选,基于特征点到直线或平面的距离构建误差函数,进而求解激光雷达位姿。为使系统不再局限于单一传感器的使用环境限制,通过自适应加权方法,有效融合了两种位姿结果。最后,通过KITTI数据集和动态场景采集的数据进行定量实验对比,验证了剔除动态特征后的位姿估计的精确性以及融合算法的有效性。

关 键 词:机器视觉  机器人定位 自适应融合 激光雷达  图像 深度学习  

分 类 号:TP391]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心