本发明公开了一种用于相干合成的强化学习方法,包括以下步骤:根据相干合成光束路数建立动作空间和设置相干合成Q‑learning学习参数;根据动作空间建立Q值表;选择一个动作,智能体的输出值为输出值加减微小动作电压或相位;根据光电探测器返回给智能体的环境状态确定奖励函数;更新Q值表;由于相干合成时域无限,所以智能体的学习训练不会停止。该算法不需要大量时间进行训练,而且因为其学习性,所以在相干合成中比传统的算法更稳定,同时调整参数更加容易。
声明:
“用于相干合成的强化学习方法” 该技术专利(论文)所有权利归属于技术(论文)所有人。仅供学习研究,如用于商业用途,请联系该技术所有人。
我是此专利(论文)的发明人(作者)