登录    注册    忘记密码

期刊文章详细信息

基于深度强化学习的移动机器人路径规划    

Path Planning for Mobile Robot Based on Deep Reinforcement Learning

  

文献类型:期刊文章

作  者:董瑶[1,2] 葛莹莹[1,2] 郭鸿湧[1,3] 董永峰[1,2] 杨琛[1,2]

DONG Yao;GE Yingying;GUO Hongyong;DONG Yongfeng;YANG Chen(School of Artificial Intelligence,Hebei University of Technology,Tianjin 300401,China;Hebei Provincial Key Laboratory of Big Data Computing,Hebei University of Technology,Tianjin 300401,China;Hebei University of Engineering,Handan,Hebei 056038,China)

机构地区:[1]河北工业大学人工智能与数据科学学院,天津300401 [2]河北工业大学河北省大数据计算重点实验室,天津300401 [3]河北工程大学,河北邯郸056038

出  处:《计算机工程与应用》

基  金:天津市科技计划项目(No.14ZCDGSF00124);天津市自然科学基金(No.16JCYBJC15600)

年  份:2019

卷  号:55

期  号:13

起止页码:15-19

语  种:中文

收录情况:AJ、BDHX、BDHX2017、CSA、CSA-PROQEUST、CSCD、CSCD_E2019_2020、IC、INSPEC、JST、RCCSE、ZGKJHX、核心刊

摘  要:为解决传统的深度Q网络模型下机器人探索复杂未知环境时收敛速度慢的问题,提出了基于竞争网络结构的改进深度双Q网络方法(Improved Dueling Deep Double Q-Network,IDDDQN)。移动机器人通过改进的DDQN网络结构对其三个动作的值函数进行估计,并更新网络参数,通过训练网络得到相应的Q值。移动机器人采用玻尔兹曼分布与ε-greedy相结合的探索策略,选择一个最优动作,到达下一个观察。机器人将通过学习收集到的数据采用改进的重采样优选机制存储到缓存记忆单元中,并利用小批量数据训练网络。实验结果显示,与基本DDQN算法比,IDDDQN训练的机器人能够更快地适应未知环境,网络的收敛速度也得到提高,到达目标点的成功率增加了3倍多,在未知的复杂环境中可以更好地获取最优路径。

关 键 词:深度双Q网络(DDQN)  竞争网络结构  重采样优选机制  玻尔兹曼分布 ε-greedy策略  

分 类 号:TP399]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心