文档介绍:小型微型计算机系统
Journal of Chinese Computer Systems
ISSN 1000-1220,CN 21-1106/TP
摘 要:近年来,以 DQN(Deep Q-Network)为代表的人工智能技术在路径规划领域中广泛应用。为了解决传统 DQN 方
法存在收敛速度较慢的问题,本文提出一种端到端的 D3QN-PER(Dueling Deep Double Q-Network Prioritized Experience
Replay)路径规划方法。首先,在感知端引入长短时记忆网络(Long Short-Term Memory),障碍物状态信息作为输入,进行
取舍后储存在隐藏层,再转换成固定长度的向量和机器人自身状态向量输入至 D3QN 网络,提高记忆和认知障碍物的能力。
然后,采用优先经验回放机制(Prioritized Experience Replay,PER)对经验池抽取小批量样本,保证样本多样性的同时提
高重要样本的利用率,获取更加精确的 Q 值。最后,通过 3 个不同仿真场景进行验证,分别对 DQN、DDQN、D3QN、D3QN-PER
展开训练,实验结果表明,与其他方法相比,D3QN-PER 的收敛速度比 DQN 算法提高 56%,而且到达目标点的次数更多,
可证明该方法在未知环境中可以更好地获取最优路径。
关键词:DQN;D3QN-PER;LSTM;最优路径
中图分类号:TP39 文献标识码:A
Research on D3QN Path Planning Method of Mobile Robot Priority Sampling
YUAN Shuai1,2, ZHANG Li-li1, GU Qi-ran1, ZHANG Feng1, LYU Jia-qi1
1(Information and Control Engineering School,Shenyang Jianzhu University ,Shenyang 110168, China)
2(Shenyang Institute of Automation, Chinese Academy of Science, Shenyang 110016, China)
Abstract: In recent y