登录    注册    忘记密码

期刊文章详细信息

基于改进DDPG算法的复杂环境下AGV路径规划方法研究    

Research on AGV path planning method in complex environment based on improved DDPG algorithm

  

文献类型:期刊文章

作  者:孟晨阳[1] 郝崇清[1] 李冉[1] 王晓博[2] 王昭雷[3] 赵江[1]

Meng Chenyang;Hao Chongqing;Li Ran;Wang Xiaobo;Wang Zhaolei;Zhao Jiang(School of Electrical Engineering,Hebei University of Science&Technology,Shijiazhuang 050018,China;Dept.of Intelligent Manufacturing,Hebei Polytechnic College,Shijiazhuang 050091,China;State Grid Hebei Electric Power Supply Co.Ltd.,Shijiazhuang 050051,China)

机构地区:[1]河北科技大学电气工程学院,石家庄050018 [2]河北工业职业技术大学智能制造系,石家庄050091 [3]河北省电力有限公司,石家庄050051

出  处:《计算机应用研究》

基  金:国家自然科学基金资助项目(51507048);河北省重点研发计划项目(20326628D);河北省高等学校科学技术研究项目(ZD2016142)。

年  份:2022

卷  号:39

期  号:3

起止页码:681-687

语  种:中文

收录情况:AJ、BDHX、BDHX2020、CSCD、CSCD_E2021_2022、IC、JST、RCCSE、UPD、ZGKJHX、ZMATH、核心刊

摘  要:为了提高AGV(automatic guided vehicle)在复杂未知环境下的搜索能力,提出了一种改进的深度确定性策略梯度(deep deterministic policy gradient, DDPG)算法。该算法通过构建经验回放矩阵和双层网络结构提高算法的收敛速度,并将波尔兹曼引入到ε-greedy搜索策略中,解决了AGV在选择最优动作时的局部最优问题;针对深度神经网络训练速度缓慢的问题,将优先级采样应用于深度确定性策略梯度算法中;为解决普通优先级采样复杂度过高的问题,提出了利用小批量优先采样方法训练网络。为了验证方法的有效性,通过栅格法建模并在不同的复杂环境下进行仿真实验对比,比较了不同算法的损失函数、迭代次数和回报值。实验结果表明,所提改进算法与原算法相比损失函数减小、迭代次数减少、回报值增加,验证了算法的有效性,同时为AGV在复杂环境下能够更加安全且快速地完成规划任务提供了新的思路。

关 键 词:深度学习  自动化导引车路径规划  深度确定性策略梯度算法  小批量优先采样  

分 类 号:TP393.04]

参考文献:

正在载入数据...

二级参考文献:

正在载入数据...

耦合文献:

正在载入数据...

引证文献:

正在载入数据...

二级引证文献:

正在载入数据...

同被引文献:

正在载入数据...

版权所有©重庆科技学院 重庆维普资讯有限公司 渝B2-20050021-7
 渝公网安备 50019002500408号 违法和不良信息举报中心