强化学习主体的q值函数批判表示
该对象实现了Q值函数近似器,以用作钢筋学习代理中的批评。Q值函数是将观察操作对映射到代表预期总长期奖励的标量值映射的函数,当它从给定的观察开始并执行给定的操作时,预期该代理程序会累积。因此,Q值函数批评者需要观察和动作作为输入。创建一个rlqvalueerepresentation
批评家,用它来创建一个依赖于q值函数批评家的代理,例如rlqagent.
,rlDQNAgent
,rlSARSAAgent
,rlddpgagent.
, 或者rltd3agent.
.有关创建表示的更多信息,请参见创建策略和价值功能表示.
创建了q值函数评论家
= rlqvaluerepresentation(净
,观察in.
,ActionInfo.
,'观察',obsname.
“行动”,actName
)评论家
.净
是用作近似值的深神经网络,并且必须将观察和动作作为输入,以及单个标量输出。该语法设置ObservationInfo和ActionInfo的属性评论家
分别对应于输入观察in.
和ActionInfo.
,包括观察和行动规范。obsname.
必须包含输入图层的名称净
与观察规范相关的。动作名称actName
必须是输入层的名称净
与操作规范相关联的。
创建基于q值的函数评论家
= rlqvaluerepresentation(选项卡
,观察in.
,ActionInfo.
)评论家
与离散的行动和观察空间来自Q值表选项卡
.选项卡
是一个rltable.
对象,该对象包含一个表,其中包含尽可能多的行和尽可能多的列和可能的操作。该语法设置ObservationInfo和ActionInfo的属性评论家
分别对应于输入观察in.
和ActionInfo.
,这一定是rlFiniteSetSpec
分别包含离散观察和行动空间的规范的对象。
创建一个基于q值的函数评论家
= rlQValueRepresentation ({basisFcn
,W0
},观察in.
,ActionInfo.
)评论家
使用自定义基函数作为底层逼近器。第一个输入参数是一个包含两个元素的单元格,其中第一个元素包含句柄basisFcn
到自定义基函数,第二个元素包含初始权值向量W0
.在这里,基本函数必须既有观测值又有作为输入的动作W0
必须是一个列向量。该语法设置ObservationInfo和ActionInfo的属性评论家
分别对应于输入观察in.
和ActionInfo.
.
创建多输出核反应能量函数评论家
= rlqvaluerepresentation(净
,观察in.
,ActionInfo.
,'观察',obsname.
)评论家
对于离散的动作空间.净
是作为近似器使用的深度神经网络,必须只有观测值作为输入,而单个输出层具有尽可能多的可能离散动作的元素数量。该语法设置ObservationInfo和ActionInfo的属性评论家
分别对应于输入观察in.
和ActionInfo.
,包括观察和行动规范。这里,ActionInfo.
必须是一个rlFiniteSetSpec
对象,该对象包含离散动作空间的规范。观察的名字obsname.
的输入层的名称净
.
创建多输出核反应能量函数评论家
= rlQValueRepresentation ({basisFcn
,W0
},观察in.
,ActionInfo.
)评论家
对于离散的动作空间使用自定义基函数作为底层逼近器。第一个输入参数是一个包含两个元素的单元格,其中第一个元素包含句柄basisFcn
为自定义基函数,第二个元素包含初始权矩阵W0
.这里的基函数必须只有观测值作为输入W0
必须有尽可能多的列可能的行动的数量。该语法设置ObservationInfo和ActionInfo的属性评论家
分别对应于输入观察in.
和ActionInfo.
.
创建基于的值函数评论家
= rlqvaluerepresentation(___,选项
)评论家
使用附加选项集选项
,这是一个rlRepresentationOptions
对象。该语法设置选项的属性评论家
到选项
输入参数。您可以使用此语法与以前的任何一个输入参数组合使用。
rlddpgagent. |
深度确定性政策梯度加固学习代理 |
rltd3agent. |
双延迟深度确定性策略梯度强化学习主体 |
rlDQNAgent |
深度q -网络强化学习代理 |
rlqagent. |
Q-learning强化学习代理 |
rlSARSAAgent |
SARSA强化学习代理 |
rlSACAgent |
软演员-评论家强化学习代理 |
getValue |
获得估计值函数表示 |
getMaxQValue |
得到了离散作用空间下q值函数表示的最大状态值函数估计 |