演员-评论家强化学习代理
行为者-批评(AC)代理实现行为者-批评算法,如A2C和A3C,这是无模型的、在线的、基于政策的强化学习方法。行动者-评论家代理直接优化策略(行动者),并使用评论家来估计回报或未来的回报。动作空间可以是离散的,也可以是连续的。
使用默认初始化选项为具有给定观察和操作规范的环境创建参与者-批评家代理。代理中的参与者和批评家表示使用根据观察规范构建的默认深层神经网络代理
=rlACAgent(observationInfo
,actionInfo
)observationInfo
以及动作规范actionInfo
.
为具有给定观察和操作规范的环境创建参与者-评论家代理。代理使用默认网络,其中每个隐藏的完全连接层都具有在中指定的单元数代理
=rlACAgent(observationInfo
,actionInfo
,initOpts
)initOpts
参与者-批评家代理不支持递归神经网络。金宝app有关初始化选项的更多信息,请参见rlAgentInitializationOptions
.
创建演员-评论家代理并设置AgentOptions财产归代理
=rlACAgent(___,代理
)代理
输入参数。在前面语法中的任何输入参数之后使用此语法。
对于连续动作空间rlACAgent
对象不强制执行动作规范设置的约束,因此必须在环境中强制执行动作空间约束。