本发明公开了一种基于值分解和注意力机制的多智能体强化学习方法,包括:(1)构建学习环境,学习环境包括多个智能体,每个智能体包括Critic网络和Actor网络;(2)初始化Critic网络和Actor网络参数;(3)将每个智能体的动作反馈给游戏环境,将当前观测值、动作、奖励以及下一时刻观测值存入经验池中;(4)计算局部Q值函数和全局Q值函数,并对Critic网络进行参数更新;(5)计算每个智能体在当前观测值下采取当前动作所产生的优势函数,对Actor网络进行参数更新;(6)Critic网络和Actor网络的参数更新完毕后,利用训练完成的智能体在游戏环境中执行动作。本发明的方法在复杂的异构部分可观测场景中,性能效果更好且收敛速度更快。
声明:
“基于值分解和注意力机制的多智能体强化学习方法” 该技术专利(论文)所有权利归属于技术(论文)所有人。仅供学习研究,如用于商业用途,请联系该技术所有人。
我是此专利(论文)的发明人(作者)