主要内容

getActionInfo

从强化学习环境或代理获取动作数据规范

描述

例子

actInfo= getActionInfo (env从强化学习环境中提取动作信息env

actInfo= getActionInfo (代理从强化学习代理中提取动作信息代理

例子

全部折叠

提取可用于创建其他环境或代理的操作和观察信息。

这个例子的强化学习环境是简单的纵向动力学的自我汽车和领先汽车。训练目标是让自我赛车以设定的速度行驶,同时通过控制纵向加速(和刹车)保持与领先赛车的安全距离。这个例子使用了与基于模型预测控制的自适应巡航控制系统(模型预测控制工具箱)的例子。

打开模型,创建强化学习环境。

mdl =“rlACCMdl”;open_system (mdl);agentblk = [mdl' / RL代理'];%创建观察信息obsInfo = rlNumericSpec([3 1],“LowerLimit”负无穷*的(1),“UpperLimit”,正* (3,1));obsInfo。Name =“观察”;obsInfo。描述=关于速度误差和自我速度的信息%的动作信息actInfo = rlNumericSpec([1 1],“LowerLimit”3,“UpperLimit”2);actInfo。Name =“加速”%定义环境env = rl金宝appSimulinkEnv (mdl agentblk、obsInfo actInfo)
env = 金宝appSimulinkEnvWithAgent with properties: Model: rlACCMdl AgentBlock: rlACCMdl/RL Agent ResetFcn: [] UseFastRestart: on

强化学习环境env是一个金宝appSimulinkWithAgent对象的上述属性。

从强化学习环境中提取动作和观察信息env

actInfoExt = getActionInfo (env)
actInfoExt = rlNumericSpec with properties: LowerLimit: -3 UpperLimit: 2 Name: "acceleration" Description: [0x0 string] Dimension: [1 1] DataType: "double"
obsInfoExt = getObservationInfo (env)
obsInfoExt = rlNumericSpec with properties: LowerLimit: [3x1 double] UpperLimit: [3x1 double] Name: "observations" Description: "information on velocity error and ego velocity" Dimension: [3 1] DataType: "double"

动作信息包含加速度值,观测信息包含自我车辆的速度和速度误差值。

输入参数

全部折叠

强化学习环境,从其中行动信息必须被提取,指定为金宝appSimulinkEnvWithAgent对象。

有关强化学习环境的更多信息,请参见创建强化学习的金宝appSimulink环境

需要从中提取动作信息的强化学习agent,指定为以下对象之一:

有关强化学习代理的更多信息,请参见强化学习代理

输出参数

全部折叠

从强化学习环境中提取的动作数据规范,返回为以下数组之一:

介绍了R2019a