本发明提供一种基于好奇心机制的Rainbow智能体训练方法,涉及深度强化学习技术领域。该方法首先将Rainbow智能体训练的时间差分法TD的一步自举换成多步自举,并构造Rainbow智能体训练的目标函数;再定义Rainbow智能体训练的多步损失函数,将通过多步自举得到的损失与双Q网络结合,并使用目标函数评估智能体不同价值下的动作;然后改变Rainbow智能体训练时的优先体验重放顺序;将DuelingDQN与分布式网络结合作为Rainbow智能体网络,对Rainbow智能体的网络体系结构进行调整;最后设计好奇心模块,在Rainbow智能体训练中添加好奇心机制,计算好奇心模块中前向动力学模型预测误差,并将其作为智能体训练的内在奖励,使智能体不断去探索新的状态。
声明:
“基于好奇心机制的Rainbow智能体训练方法” 该技术专利(论文)所有权利归属于技术(论文)所有人。仅供学习研究,如用于商业用途,请联系该技术所有人。
我是此专利(论文)的发明人(作者)