(不推荐)用于强化学习代理的模型表示
rlRepresentation
不建议使用。使用rlValueRepresentation
,rlQValueRepresentation
,rlDeterministicActorRepresentation
,或rlStochasticActorRepresentation
代替。有关更多信息,请参见兼容性的考虑.
使用rlRepresentation
为强化学习代理的行动者或评论家创建函数近似表示。为此,您可以为训练环境指定观察和操作信号,以及影响使用该表示的代理的训练的选项。有关创建表示的详细信息,请参见创建策略和值函数表示.
使用名称指定的操作信号创建表示代表
= rlRepresentation (网
,obsInfo
,actInfo
“观察”,obsNames
“行动”,actNames
)actNames
和规范actInfo
.使用此语法可以为任何参与者创建表示,或者为同时将观察和操作作为输入的评论家创建表示,例如为的评论家rlDQNAgent
或rlDDPGAgent
代理。
为值表或Q表创建评论家表示tableCritic
= rlRepresentation (选项卡
)选项卡
.创建表表示时,在创建时指定观察和操作规范选项卡
.
使用规范单元格数组创建线性基函数表示评论家
= rlRepresentation (basisFcn
,W0
,oaInfo
)oaInfo
,在那里oaInfo
={obsInfo, actInfo}
.使用此语法可以为评论家创建一个表示,该表示将观察和操作作为输入,例如评论家rlDQNAgent
或rlDDPGAgent
代理。
使用附加选项创建表示,这些选项在训练代理时为表示指定学习参数。可用的选项包括用于训练的优化器和学习率。使用代表
= rlRepresentation (___,repOpts
)rlRepresentationOptions
创建选项集repOpts
.您可以将此语法用于前面的任何输入-参数组合。
getActionInfo
|getObservationInfo
|rlDeterministicActorRepresentation
|rlQValueRepresentation
|rlRepresentationOptions
|rlStochasticActorRepresentation
|rlValueRepresentation