期刊文章详细信息
基于改进DDPG算法的复杂环境下AGV路径规划方法研究
Research on AGV path planning method in complex environment based on improved DDPG algorithm
文献类型:期刊文章
Meng Chenyang;Hao Chongqing;Li Ran;Wang Xiaobo;Wang Zhaolei;Zhao Jiang(School of Electrical Engineering,Hebei University of Science&Technology,Shijiazhuang 050018,China;Dept.of Intelligent Manufacturing,Hebei Polytechnic College,Shijiazhuang 050091,China;State Grid Hebei Electric Power Supply Co.Ltd.,Shijiazhuang 050051,China)
机构地区:[1]河北科技大学电气工程学院,石家庄050018 [2]河北工业职业技术大学智能制造系,石家庄050091 [3]河北省电力有限公司,石家庄050051
基 金:国家自然科学基金资助项目(51507048);河北省重点研发计划项目(20326628D);河北省高等学校科学技术研究项目(ZD2016142)。
年 份:2022
卷 号:39
期 号:3
起止页码:681-687
语 种:中文
收录情况:AJ、BDHX、BDHX2020、CSCD、CSCD_E2021_2022、IC、JST、RCCSE、UPD、ZGKJHX、ZMATH、核心刊
摘 要:为了提高AGV(automatic guided vehicle)在复杂未知环境下的搜索能力,提出了一种改进的深度确定性策略梯度(deep deterministic policy gradient, DDPG)算法。该算法通过构建经验回放矩阵和双层网络结构提高算法的收敛速度,并将波尔兹曼引入到ε-greedy搜索策略中,解决了AGV在选择最优动作时的局部最优问题;针对深度神经网络训练速度缓慢的问题,将优先级采样应用于深度确定性策略梯度算法中;为解决普通优先级采样复杂度过高的问题,提出了利用小批量优先采样方法训练网络。为了验证方法的有效性,通过栅格法建模并在不同的复杂环境下进行仿真实验对比,比较了不同算法的损失函数、迭代次数和回报值。实验结果表明,所提改进算法与原算法相比损失函数减小、迭代次数减少、回报值增加,验证了算法的有效性,同时为AGV在复杂环境下能够更加安全且快速地完成规划任务提供了新的思路。
关 键 词:深度学习 自动化导引车路径规划 深度确定性策略梯度算法 小批量优先采样
分 类 号:TP393.04]
参考文献:
正在载入数据...
二级参考文献:
正在载入数据...
耦合文献:
正在载入数据...
引证文献:
正在载入数据...
二级引证文献:
正在载入数据...
同被引文献:
正在载入数据...