主要内容

getActionInfo

从强化学习环境、智能体或经验缓冲区中获取动作数据规范

描述

例子

actInfo= getActionInfo (env从强化学习环境中提取动作信息env

actInfo= getActionInfo (代理从强化学习代理中提取动作信息代理

actInfo= getActionInfo (缓冲从经验缓冲区中提取动作信息缓冲

例子

全部折叠

提取可以用于创建其他环境或代理的操作和观察信息。

本例的强化学习环境是自我车和前车的简单纵向动力学。训练目标是通过控制纵向加速度(和制动),使自我车以设定的速度行驶,同时与前车保持安全距离。此示例使用与基于模型预测的自适应巡航控制系统(模型预测控制工具箱)的例子。

打开模型,创建强化学习环境。

mdl =“rlACCMdl”;open_system (mdl);Agentblk = [mdl .' / RL代理'];创建观测信息obsInfo = rlNumericSpec([3 1],“LowerLimit”负无穷*的(1),“UpperLimit”,正* (3,1));obsInfo。Name =“观察”;obsInfo。描述=关于速度误差和自我速度的信息%动作信息actInfo = rlNumericSpec([1 1],“LowerLimit”3,“UpperLimit”2);actInfo。Name =“加速”%定义环境env = rl金宝appSimulinkEnv(mdl,agentblk,obsInfo,actInfo)
env = 金宝appSimulinkEnvWithAgent with properties: Model: rlACCMdl AgentBlock: rlACCMdl/RL Agent ResetFcn: [] UseFastRestart: on

强化学习环境env是一个金宝appSimulinkWithAgent具有上述属性的对象。

从强化学习环境中提取动作和观察信息env

actInfoExt = getActionInfo(env)
actInfoExt = rlNumericSpec with properties: LowerLimit: -3 UpperLimit: 2名称:"acceleration"描述:[0x0 string]维度:[1 1]数据类型:"double"
obsInfoExt = getObservationInfo(env)
obsInfoExt = rlNumericSpec with properties: LowerLimit: [3x1 double] UpperLimit: [3x1 double]名称:"observations"描述:"information on velocity error and ego velocity"维度:[3 1]DataType: "double"

动作信息包含加速度值,而观测信息包含自我飞行器的速度和速度误差值。

输入参数

全部折叠

强化学习环境,从中提取动作信息,指定为以下之一:

有关强化学习环境的更多信息,请参见创建MATLAB强化学习环境而且创建Simul金宝appink强化学习环境

强化学习代理从中提取动作信息,指定为以下对象之一。

有关强化学习代理的更多信息,请参见强化学习代理

经验缓冲区,从中提取操作信息,指定为rlReplayMemoryrlPrioritizedReplayMemory对象。

输出参数

全部折叠

从强化学习环境中提取的动作数据规范,以以下数组之一的形式返回:

版本历史

在R2019a中引入