期刊文章详细信息
双目机器视觉及RetinaNet模型的路侧行人感知定位
Roadside pedestrian detection and location based on binocular machine vision and RetinaNet
文献类型:期刊文章
Lian Lirong;Luo Wenting;Qin Yong;Li Lin(School of Traffic and Civil Engineering,Fujian Agriculture and Forestry University,Fuzhou 350000,China;State Key Laboratory of Rail Traffic Control and Safety,Beijing Jiaotong University,Beijing 100084,China)
机构地区:[1]福建农林大学交通与土木工程学院,福州350000 [2]北京交通大学轨道交通控制与安全国家重点实验室,北京100084
基 金:国家重点研发计划资助(2018YFB1201601);福建农林大学杰出青年科研人才计划项目(xjq2018007);轨道交通控制与安全国家重点实验室(北京交通大学)开放课题(RCS2020K004)。
年 份:2021
卷 号:26
期 号:12
起止页码:2941-2952
语 种:中文
收录情况:BDHX、BDHX2020、CSCD、CSCD2021_2022、IC、JST、RCCSE、SCOPUS、ZGKJHX、核心刊
摘 要:目的行人感知是自动驾驶中必不可少的一项内容,是行车安全的保障。传统激光雷达和单目视觉组合的行人感知模式,设备硬件成本高且多源数据匹配易导致误差产生。对此,本文结合双目机器视觉技术与深度学习图像识别技术,实现对公共路权环境下路侧行人的自动感知与精准定位。方法利用双目道路智能感知系统采集道路前景图像构建4种交通环境下的行人识别模型训练库;采用Retina Net深度学习模型进行目标行人自动识别;通过半全局块匹配(semi-global block matching,SGBM)算法实现行人道路前景图像对的视差值计算;通过计算得出的视差图分别统计U-V方向的视差值,提出结合行人识别模型和U-V视差的测距算法,实现目标行人的坐标定位。结果实验统计2.5 km连续测试路段的行人识别结果,对比人工统计结果,本文算法的召回率为96.27%。与YOLOv3(you only look once)和Tiny-YOLOv3方法在4种交通路况下进行比较,平均F值为96.42%,比YOLOv3和Tiny-YOLOv3分别提高0.9%和3.03%;同时,实验利用标定块在室内分别拍摄3 m、4 m和5 m不同距离的20对双目图像,验证测距算法,计算标准偏差皆小于0.01。结论本文提出的结合RetinaNet目标识别模型与改进U-V视差算法能够实现对道路行人的检测,可以为自动驾驶的安全保障提供技术支持,具有一定的应用价值。
关 键 词:行人检测 深度学习 RetinaNet 半全局块匹配(SGBM)算法 U-V视差算法
分 类 号:TP391.41]
参考文献:
正在载入数据...
二级参考文献:
正在载入数据...
耦合文献:
正在载入数据...
引证文献:
正在载入数据...
二级引证文献:
正在载入数据...
同被引文献:
正在载入数据...