本发明公开了一种基于并行架构的内在奖励强化学习方法,包含如下步骤:执行模块与模拟环境交互,获取一整幕经验数据并存入缓存组件;同步学习模块的最近更新的策略;取出定量的经验数据进行评估,获得奖励值;对经验数据的状态价值函数进行估计,获得内部状态价值函数与外部状态价值函数;处理内部状态价值函数与外部状态价值函数,获得总状态价值函数并改写成近似状态价值函数;外部的智能体对预测网络的参数进行优化,并更新策略网络的当前策略,获得新策略;执行模块更新新策略。本发明解决了现有技术中价值函数估计不准、收敛到局部最优策略的缺陷,避免了优化结果出现偏差的问题,具有更高的单位时隙吞吐率、更好的性能和更快的学习速度。
声明:
“基于并行架构的内在奖励强化学习方法” 该技术专利(论文)所有权利归属于技术(论文)所有人。仅供学习研究,如用于商业用途,请联系该技术所有人。
我是此专利(论文)的发明人(作者)