双延迟深度确定性策略梯度强化学习主体
双延迟深层确定性策略梯度(DDPG)算法是一种行为人-批评家、无模型、在线、非策略强化学习方法,它计算一个使长期回报最大化的最优策略。行动空间只能是连续的。
使用rlTD3Agent
创建以下类型的代理之一。
具有两个q值函数的双延迟深度确定性策略梯度(TD3) agent。该代理通过学习两个Q值函数并使用最小值进行策略更新来防止值函数的过高估计。
具有单个Q值函数的延迟深层确定性策略梯度(Delayed deep deterministic policy gradient,DDPG)代理。该代理是一个DDPG代理,具有目标策略平滑、延迟策略和目标更新。
有关更多信息,请参见双延迟深层确定性策略梯度代理. 有关不同类型的强化学习代理的更多信息,请参阅强化学习代理.
使用默认初始化选项,为具有给定观察和操作规范的环境创建TD3代理。代理中的行动者和批评者表示使用从观察规范构建的默认深度神经网络代理
= rlTD3Agent (observationInfo
,actionInfo
)observationInfo
以及动作规范actionInfo
.
为具有给定观察和操作规范的环境创建一个深度确定性策略梯度代理。属性中指定的选项配置的默认网络代理
= rlTD3Agent (observationInfo
,actionInfo
,initOpts
)initOpts
有关初始化选项的详细信息,请参阅rlAgentInitializationOptions
.
创建TD3代理并设置代理
= rlTD3Agent (___,代理
)AgentOptions
财产归代理
输入参数。在前面语法中的任何输入参数之后使用此语法。
rlAgentInitializationOptions
|rlTD3AgentOptions
|rlQValueRepresentation
|rlDeterministicActorRepresentation
|深层网络设计师