本发明公开了一种基于值分解的多智能体强化学习方法及系统,方法包括:获取环境当前t时刻的状态St,每个智能体初始的观察值可获得的动作以及该动作对应的奖励r;对于每个智能体,通过评估‑智能体网络计算每个动作基于局部信息τi观察到的值函数Qi(τi);利用随机‑智能体网络得到每个智能体基于全局信息τ的奖励值函数Qi(τ);利用目标‑智能体网络计算损失函数并更新参数;利用竞争‑智能体网络将每个智能体基于全局信息τ的奖励值函数Qi(τ)进行分解;将分解结果相加得到基于全局信息τ的联合奖励值函数Qtot(τ,a),完成训练。本发明对多智能体之间的逻辑拓扑关系进行了双重提取,在复杂的异构部分可观测场景中,提高智能体的学习效率和应变能力。
声明:
“基于值分解的多智能体强化学习方法及系统” 该技术专利(论文)所有权利归属于技术(论文)所有人。仅供学习研究,如用于商业用途,请联系该技术所有人。
我是此专利(论文)的发明人(作者)