双延迟深度确定性策略梯度强化学习主体
双延迟深度确定性策略梯度(DDPG)算法是一种行为者-批评、无模型、在线、非策略强化学习方法,计算出长期奖励最大化的最优策略。动作空间只能是连续的。
使用rlTD3Agent
创建下列代理类型之一。
具有两个q值函数的双延迟深度确定性策略梯度(TD3) agent。该代理通过学习两个Q值函数并使用最小值进行策略更新来防止值函数的过高估计。
具有单一Q值函数的延迟深度确定性策略梯度(Delayed deep deterministic policy gradient, dpg)代理。该代理是一个具有目标策略平滑、延迟策略和目标更新的DDPG代理。
有关更多信息,请参见双延迟深度确定性策略梯度代理.有关不同类型的强化学习代理的更多信息,请参见强化学习代理.
使用默认初始化选项,为具有给定观察和操作规范的环境创建TD3代理。代理中的行动者和批评者表示使用从观察规范构建的默认深度神经网络代理
= rlTD3Agent (observationInfo
,actionInfo
)observationInfo
以及动作规范actionInfo
.
为具有给定观察和操作规范的环境创建一个深度确定性策略梯度代理。属性中指定的选项配置的默认网络代理
= rlTD3Agent (observationInfo
,actionInfo
,initOpts
)initOpts
对象。有关初始化选项的更多信息,请参见rlAgentInitializationOptions
.
创建TD3代理并设置代理
= rlTD3Agent (___,agentOptions
)AgentOptions
财产agentOptions
输入参数。在前面语法中的任何输入参数之后使用此语法。
深层网络设计师|rlAgentInitializationOptions
|rlDeterministicActorRepresentation
|rlQValueRepresentation
|rlTD3AgentOptions