主要内容

为车道保持辅助培训DQN代理

此示例显示了如何在Simulink®中为车道保持辅助(LKA)培训深度Q学习网络(DQN)代理。有关DQN代理的更多信息,请参阅金宝app深度Q网络代理.

金宝app汽车的Simulink模型

本示例的强化学习环境是一个简单的ego车辆动力学自行车模型。培训目标是通过调整前转向角使ego车辆沿着车道中心线行驶。本示例使用与中相同的车辆模型基于模型预测控制的车道保持辅助系统(模型预测控制工具箱). ego汽车动力学由以下参数指定。

m=1575;%车辆总质量(kg)Iz=2875;%偏航惯性矩(mNs^2)lf=1.2;%重心到前轮胎的纵向距离(m)lr=1.6;%重心到后轮胎的纵向距离(m)Cf=19000;%前轮胎的转弯刚度(N/rad)Cr=33000;%后轮胎的转弯刚度(N/rad)Vx=15;%纵向速度(m/s)

定义采样时间Ts和模拟持续时间T几秒钟之内。

Ts=0.1;T=15;

LKA系统的输出是ego汽车的前转向角。为了模拟ego汽车的物理限制,将转向角限制在范围内[-0.5,0.5]拉德。

u_min=-0.5;u_max=0.5;

道路的曲率由常数0.001定义( M - 1. ).横向偏差的初始值为0.2 m,相对偏航角的初始值为–0.1 rad。

rho=0.001;e1_初始值=0.2;e2_初始值=-0.1;

打开模型。

mdl=“rlLKAMdl”;开放式系统(mdl);代理语言=[mdl“/RL代理”];

对于此型号:

  • 从agent到环境的转向角动作信号为–15度到15度。

  • 从环境中观察到的是横向偏差 E 1. ,相对偏航角 E 2. ,它们的衍生物 E ˙ 1. E ˙ 2. ,以及它们的积分 E 1. E 2. .

  • 当出现横向偏差时,模拟终止 | E 1. | > 1. .

  • 奖赏 R T ,在每个时间步提供 T

R T = - ( 1. 0 E 1. 2. + 5. E 2. 2. + 2. U 2. + 5. E ˙ 1. 2. + 5. E ˙ 2. 2. )

哪里 U 是来自上一时间步的控制输入 T - 1. .

创建环境接口

为ego车辆创建强化学习环境界面。为此,首先创建观察和行动规范。

observationInfo=rlNumericSpec([6 1],“LowerLimit”,-inf*one(6,1),“上限”,inf*one(6,1));observationInfo.Name=“观察”; 观测信息描述=“关于横向偏差和相对偏航角的信息”;actionInfo=rlFiniteSetSpec(-15:15)*pi/180);actionInfo.Name=“转向”;

然后,创建环境接口。

env=rlSi金宝appmulinkEnv(mdl、agentblk、observationInfo、actionInfo);

该界面有一个离散的动作空间,在该空间中,agent可以应用-15度到15度之间的31个可能转向角中的一个。观测是包含横向偏差、相对偏航角以及它们对时间的导数和积分的六维向量。

要定义横向偏差和相对偏航角的初始条件,请使用匿名函数句柄指定环境重置函数。此重置函数随机化横向偏差和相对偏航角的初始值。

env.ResetFcn=@(in)localResetFcn(in);

修复随机生成器种子以获得再现性。

rng(0)

创建DQN代理

DQN代理使用价值函数表示,在给定观察和行动的情况下,近似长期奖励。

DQN代理可以使用多输出Q值批评近似器,通常效率更高。多输出近似器将观察值作为输入,将状态动作值作为输出。每个输出元素表示从观察值指示的状态采取相应离散动作的预期累积长期报酬投入。

要创建批评家,首先创建一个包含一个输入(六维观察状态)和一个包含31个元素(均匀分布的转向角为-15到15度)的输出向量的深度神经网络。有关创建深度神经网络值函数表示的更多信息,请参阅创建策略和值函数表示.

nI=观测信息尺寸(1);%输入数量(6)nL=24;%神经元数目否=numel(actionInfo.Elements);%产出数量(31)dnn=[featureInputLayer(nI,“正常化”,“没有”,“姓名”,“国家”)完全连接层(nL,“姓名”,“fc1”)雷卢耶(“姓名”,“relu1”)完全连接层(nL,“姓名”,“fc2”)雷卢耶(“姓名”,“relu2”)完全连接层(编号:,“姓名”,“fc3”)];

查看网络配置。

图形绘图(图层图(dnn))

Figure包含axes对象。axes对象包含graphplot类型的对象。

使用指定批评家表示的选项rlRepresentationOptions.

临界点=rlRepresentationOptions(“LearnRate”,1e-4,“梯度阈值”1.“L2调节因子”,1e-4);

使用指定的深度神经网络和选项创建批评家表示。还必须为批评家指定操作和观察信息,这些信息是从环境界面获得的。有关详细信息,请参阅rlQValueRepresentation.

批评家=rlQValueRepresentation(dnn、observationInfo、actionInfo、,...“观察”,{“国家”},批评);

要创建DQN代理,请首先使用指定DQN代理选项rlDQNAgentOptions.

agentOptions=rldqnagnOptions(...“采样时间”,Ts,...“UsedDoubledQn”符合事实的...“目标平滑因子”,1e-3,...“折扣演员”,0.99,...“经验缓冲长度”,1e6,...“MiniBatchSize”,64);

然后,使用指定的critic表示和代理选项创建DQN代理。有关更多信息,请参阅rlDQNAgent.

代理=rlDQNAgent(评论家、代理);

列车员

要培训代理,请首先指定培训选项。对于本例,请使用以下选项:

  • 每集训练最多5000集,每集持续时间最多5000集ceil(T/Ts)时间步长。

  • 在“事件管理器”对话框中显示培训进度(设置阴谋选择培训进度)并禁用命令行显示(设置冗长的选择错误的).

  • 当情节奖励达到时停止训练–1.

  • 为累积奖励大于的每集保存一份代理副本–2.5.

有关详细信息,请参阅RL培训选项.

最大事件数=5000;maxsteps=ceil(T/Ts);培训选项=RL培训选项(...“最大集”,每集,...“MaxStepsPerEpisode”,maxsteps,...“冗长”错误的...“情节”,“培训进度”,...“停止培训标准”,“情节报酬”,...“停止训练值”,-1,...“SaveAgentCriteria”,“情节报酬”,...“SaveAgentValue”,-2.5);

使用火车作用培训是一个计算密集的过程,需要几个小时才能完成。要在运行此示例时节省时间,请通过设置溺爱错误的.要亲自培训特工,请设置溺爱符合事实的.

doTraining=false;如果溺爱%培训代理人。培训状态=培训(代理人、环境、培训点);其他的%加载示例的预训练代理。装载(“金宝appSimulinkLKADQNMulti.mat”,“代理人”)终止

模拟DQN代理

要验证经过培训的代理的性能,请取消注释以下两行并在环境中模拟代理。有关代理模拟的更多信息,请参阅模拟选项模拟.

%simOptions=rlSimulationOptions('MaxSteps',MaxSteps);%经验=模拟(环境、代理、模拟选项);

为了在确定性初始条件下演示经过训练的agent,请在Simulink中模拟该模型。金宝app

e1_初始值=-0.4;e2_初始值=0.2;sim(mdl)

如图所示,横向误差(顶部图)和相对偏航角(中间图)均接近于零。车辆从偏离中心线(–0.4 m)且横摆角误差非零(0.2 rad)的位置起动。车道保持辅助系统使ego车辆在大约2.5秒后沿中心线行驶。转向角(下图)显示控制器在大约2秒后达到稳定状态。

关闭Simulink金宝app模型。

如果~z~多特林%bdclose(mdl)终止

复位功能

作用in=localResetFcn(in)%重置in=设置变量(in,“e1_首字母”,0.5*(-1+2*兰德));%横向偏差的随机值in=设置变量(in,“e2_首字母”,0.1*(-1+2*兰德));%相对偏航角的随机值终止

另见

相关话题