登录    注册    忘记密码

期刊文章详细信息

改进强化学习算法应用于移动机器人路径规划    

Path Planning for Mobile Robot Using Improved Reinforcement Learning Algorithm

  

文献类型:期刊文章

作  者:王科银[1,2] 石振[1,2] 杨正才[1,2] 杨亚会[3] 王思山[3]

WANG Keyin;SHI Zhen;YANG Zhengcai;YANG Yahui;WANG Sishan(School of Automotive Engineering,Hubei University of Automotive Technology,Shiyan,Hubei 442002,China;Key Laboratory of Automotive Power Train and Electronics(Hubei University of Automotive Technology),Shiyan,Hubei 442002,China;Institute of Automotive Engineers,Hubei University of Automotive Technology,Shiyan,Hubei 442002,China)

机构地区:[1]湖北汽车工业学院汽车工程学院,湖北十堰442002 [2]汽车动力传动与电子控制湖北省重点实验室(湖北汽车工业学院),湖北十堰442002 [3]湖北汽车工业学院汽车工程师学院,湖北十堰442002

出  处:《计算机工程与应用》

基  金:湖北省重点实验室开放基金(ZDK1202003);湖北省教育厅科学技术研究计划青年人才项目(Q20201804)。

年  份:2021

卷  号:57

期  号:18

起止页码:270-274

语  种:中文

收录情况:AJ、BDHX、BDHX2020、CSCD、CSCD_E2021_2022、IC、JST、RCCSE、ZGKJHX、核心刊

摘  要:为了解决传统的强化学习算法应用于移动机器人未知环境的路径规划时存在收敛速度慢、迭代次数多、收敛结果不稳定等问题,提出一种改进的Q-learning算法。在状态初始化时引入人工势场法,使得越靠近目标位置状态值越大,从而引导智能体朝目标位置移动,减少算法初始阶段因对环境探索产生的大量无效迭代;在智能体选择动作时改进ε-贪婪策略,根据算法的收敛程度动态调整贪婪因子ε,从而更好地平衡探索和利用之间的关系,在加快算法收敛速度的同时提高收敛结果的稳定性。基于Python的Tkinter标准化库搭建的格栅地图仿真结果表明,改进的Q-learning算法相较于传统算法在路径规划时间上缩短85.1%,收敛前迭代次数减少74.7%,同时算法的收敛结果稳定性也得到了提升。

关 键 词:强化学习  人工势场 贪婪策略 移动机器人 路径规划

分 类 号:TP242.6]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心