本发明公开了一种多代理强化学习合作任务下的奖励函数建模方法,包括:每个代理独立观测环境状态,输入各自的策略网络,得到各自的动作决策;在模拟环境执行各代理的动作,得到每个代理各自的奖励;将各代理之间的交互建模为一张无向图,使用此图计算出每个代理的奖励的加权总和;使用加权后的奖励训练代理的策略网络。该方法能够对多个代理与环境交互后的结果进行整合,同时建模出的无向图能够起到可信度赋值的效果,给训练算法提供更加精准的奖励描述,帮助多代理系统在合作任务上学习到更好的策略。
声明:
“多代理强化学习合作任务下的奖励函数建模方法” 该技术专利(论文)所有权利归属于技术(论文)所有人。仅供学习研究,如用于商业用途,请联系该技术所有人。
我是此专利(论文)的发明人(作者)