强化学习工具箱

通过强化学习设计和培训政策

强化学习工具箱™提供的功能和模块使用强化学习算法,包括DQN,A2C,和DDPG培训政策。您可以使用这些策略来实现控制器和决策算法的复杂系统,如机器人和自治系统。您可以实现使用深层神经网络,多项式,或查找表的策略。

工具箱允许您通过使策略能够与MATLAB表示的环境交互来训练策略®或仿真金宝app软件®楷模。您可以评估算法,具有超参数设置和监控训练进度实验。为了提高训练性能,可以运行在云上,计算机集群,GPU的(并行计算工具箱™和MATLAB并行服务器™)并行模拟。

通过ONNX™模型格式,现有的政策可以从深度学习的框架,如TensorFlow™Keras和PyTorch(与深度学习工具箱™)进口。您可以生成优化的C,C ++,和CUDA代码部署在微控制器和GPU的训练有素的政策。

该工具箱包括用于使用增强学习来设计机器人控制器和自动驾驶应用参考例。

入门:

强化学习代理

实现MATLAB和Simulink代理来训金宝app练由深度神经网络表示的策略。使用内置和自定义的强化学习算法。

强化学习算法

使用Deep Q-网络(DQN)执行代理,演员评论家(A2C),深确定性政策梯度(DDPG)等内置算法。使用模板来实现自定义代理的培训政策。

代理包括策略和算法。

使用深度神经网络表示策略和值函数

使用与大型国有企业,行动空间复杂系统的深层神经网络策略。定义使用网络和架构从深度学习工具箱政策。进口ONNX模型与其他深度学习框架的互操作性。

金宝app代理商Simulink模块

在Simulink中实现和训练增强学习代理。金宝app

Simulink的增强学习代理块。金宝app

环境建模

创建MATLAB和Simulink环金宝app境模型。描述系统动力学和培训代理商提供观察和奖励信号。

金宝appSimulink和Simscape环境

使用Si金宝appmulink和Simscape™模型来表示环境。在模型中指定观察、动作和奖励信号。

金宝app一个倒立摆的Simulink环境模型。

MATLAB环境中

利用Matlab函数和类来表示的环境。指定观察,行动和MATLAB文件中奖励的变量。

MATLAB环境下的汽车杆系。

加速训练

加快利用GPU,云培训和分布式计算资源。

分布式计算和多核加速

通过在多核计算机,云资源,或者计算集群采用并行计算工具箱和运行并行计算加速培训MATLAB并行服务器

加快利用并行计算培训。

GPU加速

使用高性能的NVIDIA加速深度神经网络训练和推理®gpu。使用MATLAB并行计算工具箱和大多数CUDA®- 启用NVIDIA GPU的有计算能力3.0或更高

加快培养使用的GPU。

代码生成和部署

将经过培训的策略部署到嵌入式设备或将其与各种生产系统集成。

代码生成

采用GPU编码器™以生成代表培训的政策MATLAB代码优化的CUDA代码。采用MATLAB编码器™生成C/ c++代码来部署策略。

使用GPU编码器生成CUDA代码。

MATLAB编译器支持金宝app

采用MATLAB编译器™MATLAB编译器SDK™部署经过训练的策略,如C/ c++共享库,微软®.NET程序集,爪哇®Python类,®包。

将策略打包和共享为独立的程序。

参考例子

为机器人、自动驾驶汽车和其他系统设计使用强化学习的控制器。

开始

实施加固,以学习为主控制器,用于例如平衡的倒立摆,导航网格世界中的问题,并平衡小车极系统问题。

解决一个网格世界迷宫。

自动驾驶的应用

设计自适应巡航控制和车道保持辅助系统控制器。

培养了车道保持辅助系统。

最新功能

TD3代理

创建双延迟深度确定性策略梯度(TD3)代理,通常比DDPG代理表现出更好的学习速度和性能

对于连续动作空间的新代理

使用PPO,TD3,AC和PG代理商与连续动作空间

LSTM政策

使用长短时记忆(LSTM)网络为DQN和PPO代理创建神经网络策略

查看发行说明有关这些功能和相应功能的详细信息。

强化学习视频系列

观看本系列的视频来学习强化学习。