加固学习工具箱

使用强化学习设计和培训政策

强化学习工具箱™提供使用强化学习算法(包括DQN、A2C和DDPG)的培训策略的功能和模块。您可以使用这些策略为复杂系统(如机器人和自治系统)实现控制器和决策算法。您可以使用深度神经网络、多项式或查找表来实现这些策略。

Toolbox允许您通过启用它们与Matlab所代表的环境进行交互来培训策略®或者模金宝app拟®模型。您可以评估算法,试验超参数设置,并监控训练进度。为了提高训练性能,您可以在云、计算机集群和gpu上并行运行模拟(使用并行计算工具箱™和MATLAB并行服务器™)。

通过ONNX™模型格式,现有的策略可以从深度学习框架导入,如TensorFlow™Keras和PyTorch(使用深度学习工具箱™)。您可以生成优化的C、c++和CUDA代码,以便在微控制器和gpu上部署经过培训的策略。

该工具箱包括使用加强学习的参考示例,用于设计用于机器人和自动化驾驶应用的控制器。

开始:

强化学习代理

实施MATLAB和SIMULINK代理商,金宝app以培训由深神经网络代表的培训政策。使用内置和自定义强化学习算法。

强化学习算法

使用深度Q-Network (DQN)实现代理,优势演员评论家(A2C)、深度确定性策略梯度(Deep Deterministic Policy Gradients, DDPG)和其他内置算法。使用模板实现培训策略的自定义代理。

代理包括策略和算法。

使用深神经网络的策略和价值函数表示

对具有大状态-动作空间的复杂系统使用深度神经网络策略。使用深度学习工具箱中的网络和架构定义策略。导入ONNX模型以与其他深度学习框架互操作性。

金宝appSimulink Blocks for Agents

在Simulink中实施和培训加固学习代理。金宝app

Simulink的加强学习代理块。金宝app

环境建模

创建MATLAB和Simulink环金宝app境模型。描述系统动力学,为训练人员提供观察和奖励信号。

金宝appSimulink和Simscape环境

使用Si金宝appmulink和Simscape™模型来表示环境。指定模型中的观察,动作和奖励信号。

金宝app倒摆的Simulink环境模型。

Matlab环境

使用MATLAB函数和类来表示环境。在MATLAB文件中指定观察,行动和奖励变量。

MATLAB用于推车系统系统。

加速培训

使用GPU、云和分布式计算资源加速训练。

分布式计算和多核加速

通过使用并行计算工具箱和在多核计算机、云资源或计算集群上运行并行模拟来加快培训MATLAB并行服务器

使用并行计算加速培训。

GPU加速

高性能NVIDIA加快深度神经网络培训和推论®GPU。使用matlab并行计算工具箱和大多数CUDA.®-enabled NVIDIA gpu计算能力3.0及以上

使用gpu加速培训。

代码生成和部署

将培训的策略部署到嵌入式设备或将它们与各种生产系统集成。

代码生成

使用GPU编码器™从代表训练过的策略的MATLAB代码生成优化的CUDA代码。使用Matlab Coder™生成C / C ++代码以部署策略。

使用GPU编码器生成CUDA代码。

Matlab编译器支持金宝app

使用MATLAB编译器™MATLAB编译器SDK™将培训的策略部署为C / C ++共享库,Microsoft®net程序集,Java®课程和python®包。

包裹并将策略作为独立程序。

参考例子

设计控制器使用加强学习机器人,自驾驶汽车和其他系统。

自动驾驶的应用程序

设计控制器,适用于自适应巡航控制和车道保持辅助系统。

训练车道保持辅助系统。

最新特色

多智能体强化学习

在Simulink环境中同时列车多个代理金宝app

软Actor-Critic代理

使用不断增加的探索,训练具有样本效率的环境策略

默认代理

通过创建具有默认神经网络结构的代理来避免手动制定策略

看到发布说明有关这些功能的详细信息和相应的功能。

强化学习视频系列

观看本系列中的视频以了解加强学习。