主要内容

getActionInfo

从强化学习获得行动数据规范环境或代理

描述

例子

actInfo= getActionInfo (env)从强化学习环境提取行动信息env

actInfo= getActionInfo (代理)从强化学习代理提取行动信息代理

例子

全部折叠

提取操作和观察信息,您可以使用它们来创建其他环境或代理。

强化学习环境对于这个示例是一个简单的自我汽车纵向动力学和领导的车。培训的目标是使自我在一组汽车旅行速度,同时保持安全距离领先的汽车通过控制纵向加速度(制动)。下面的例子使用了相同的车辆模型自适应巡航控制系统使用模型预测控制(模型预测控制工具箱)的例子。

打开模型和创建强化学习环境。

mdl =“rlACCMdl”;open_system (mdl);agentblk = [mdl' / RL代理'];%建立观测信息obsInfo = rlNumericSpec (1 [3],“LowerLimit”负无穷*的(1),“UpperLimit”,正* (3,1));obsInfo。Name =“观察”;obsInfo。描述=“速度误差和自我速度信息”;%的动作信息actInfo = rlNumericSpec ([1],“LowerLimit”3,“UpperLimit”2);actInfo。Name =“加速”;%定义环境env = rl金宝appSimulinkEnv (mdl agentblk、obsInfo actInfo)
env = 金宝appSimulinkEnvWithAgent属性:模型:rlACCMdl AgentBlock: rlACCMdl / RL代理ResetFcn: [] UseFastRestart:

强化学习环境env是一个金宝appSimulinkWithAgent对象使用上面的属性。

提取操作和观察信息从强化学习环境env

actInfoExt = getActionInfo (env)
actInfoExt = rlNumericSpec属性:LowerLimit: 3 UpperLimit: 2名:“加速度”描述:[0 x0字符串]维度:[1]数据类型:“替身”
obsInfoExt = getObservationInfo (env)
obsInfoExt = rlNumericSpec属性:LowerLimit: x1双[3]UpperLimit: [3 x1双)名称:“观察”的描述:“速度误差和自我信息速度”维度:1[3]数据类型:“替身”

行动信息包含加速度值,同时观察信息包含了自我的车辆速度和速度误差值。

输入参数

全部折叠

强化学习环境行动的信息提取出来,作为一个指定金宝appSimulinkEnvWithAgent对象。

强化学习环境的更多信息,请参阅创建模型强化学金宝app习环境

强化学习代理人行动的信息提取,指定为以下对象之一:

在强化学习代理的更多信息,见强化学习代理

输出参数

全部折叠

行为规范从强化学习环境中提取数据,作为一个数组返回下列之一:

介绍了R2019a