结合先验知识的深度Q神经网络算法研究

Journal of Hefei University of Technology(Natural Science)(2019)

引用 1|浏览1
暂无评分
摘要
深度Q神经网络(deep Q-network,DQN)算法在训练初期,由于动作选择随机性强,导致算法的训练时间过长.针对该问题,文章提出一种结合先验知识的深度Q神经网络(priori knowledge-DQN,PK-DQN)算法,将先验知识定义为特征状态与最优动作的映射,根据先验知识对动作选择过程的影响程度,将先验知识引入DQN算法,优化DQN算法的动作选择规则,降低其在探索过程中的动作选择随机性,并使用赛车游戏对算法进行训练.实验结果表明,PK-DQN算法能够更快收敛,有较高的学习效率,算法训练时长明显缩短.
更多
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要