主要内容

getActionInfo.

从强化学习环境或代理获取行动数据规范

描述

例子

Actinfo.= getActionInfo(env.的)从强化学习环境中提取动作信息env.

Actinfo.= getActionInfo(代理人的)从钢筋学习代理中提取行动信息代理人

例子

全部收缩

提取动作和观察信息,您可以用于创建其他环境或代理。

此示例的增强学习环境是自助式汽车和铅轿厢的简单纵向动态。培训目标是使自助式汽车以设定的速度行驶,同时通过控制纵向加速(和制动)保持与引线的安全距离。此示例使用相同的车型模型Adaptive Cruise Control System Using Model Predictive Control(模型预测控制工具箱)例子。

打开模型并创建强化学习环境。

mdl ='rlaccmdl';Open_System(MDL);AppletBlk = [MDL'/ rl代理'];%创建观察信息obsInfo = rlNumericSpec([3 1],'lowerimit',-inf *那些(3,1),'上限',INF * of of(3,1));ObsInfo.name =.'观察';Obsinfo.description =.“关于速度误差和自我速度的信息”;%行动信息Actinfo = rlnumericspec([1 1],'lowerimit',-3,'上限',2);Actinfo.name =.'加速';% define environmentEnv = Rl金宝appsimulinkenv(MDL,AppertBlk,Obsinfo,Actinfo)
env = 金宝appsimulinkenvwithagent with属性:model:rlaccmdl agentblock:rlaccmdl / rl代理resetfcn:[] UseFastrest:On

强化学习环境env.是A.SimulinkWithAgent对象具有上述属性。

从加强学习环境中提取行动和观察信息env.

Actinfoext = getActionInfo(ENV)
ActInfoext = rlnumericspec具有属性:lowermit:-3上唇:2名称:“加速”描述:[0x0字符串]尺寸:[1]数据类型:“double”
ObsInfoext = getobservationInfo(env)
obsInfoExt = rlNumericSpec with properties: LowerLimit: [3x1 double] UpperLimit: [3x1 double] Name: "observations" Description: "information on velocity error and ego velocity" Dimension: [3 1] DataType: "double"

动作信息包含加速度值,而观察信息包含自我车辆的速度和速度误差值。

输入参数

全部收缩

必须提取动作信息的强化学习环境,指定为a金宝appSimulinkenvwithagent.目的。

有关强化学习环境的更多信息,请参阅创建Simul金宝appink强化学习环境

钢筋学习代理必须从中提取动作信息,指定为以下对象之一:

For more information on reinforcement learning agents, see加固学习代理人

输出参数

全部收缩

从加强学习环境中提取的操作数据规范,作为以下内容之一的数组返回:

在R2019A引入