加固学习工具箱

使用强化学习设计和培训政策

强化学习工具箱™提供了应用程序,功能和模拟链接金宝app®使用强化学习算法的培训政策阻止,包括DQN,PPO,SAC和DDPG。您可以使用这些策略来实现用于复杂应用程序的控制器和决策算法,例如资源分配,机器人和自主系统。

工具箱允许您使用深神经网络或查找表来表示策略和值函数,并通过与Matlab中建模的环境的交互培训®或者是金宝appsimulink。您可以评估工具箱中提供的单个或多代理强化学习算法或开发您自己的学习算法。您可以通过应用程序或以编程方式进行高度参数设置,监视培训进度,并模拟培训的代理。为了提高培训性能,可以在多个CPU,GPU,计算机集群和云上并行运行模拟(使用并行计算工具箱™和MATLABPrild Server™)。

通过Onnx™模型格式,现有的策略可以从DENE学习框架导入Tensorflow™Keras和Pytorch(具有深度学习工具箱™)。您可以生成优化的C,C ++和CUDA®用于部署微控制器和GPU的培训策略的代码。工具箱包含参考示例,以帮助您开始。

开始:

加固学习代理人

创建和配置强化学习代理以培训Matlab和Simulink的策略。金宝app使用内置或开发自定义强化学习算法。

强化学习算法

使用Deep Q-Network(DQN),深度确定性政策梯度(DDPG),近端策略优化(PPO)以及其他内置算法创建代理。使用模板开发自定义代理以获取培训策略。

钢筋学习工具箱中提供的培训算法。

钢筋学习设计师应用程序

交互设计,火车和模拟强化学习代理。将培训的代理商到MATLAB进一步使用和部署。

使用深神经网络的策略和价值函数表示

对于具有大状态行动空间的复杂系统,使用从图层以编程方式定义深度神经网络策略深度学习工具箱,或交互方式深网络设计师。或者,使用工具箱建议的默认网络架构。使用模仿学习初始化策略来加速培训。与其他深度学习框架的互操作性导入和导出ONNX模型。

Simulink中的单次和多智能体增强学习金宝app

使用RL代理块在Simulink中创建和培训加固学习代理。金宝app使用RL代理程序块的多个实例同时列车在Simulink中同时(多代理强化学习)。金宝app

Simulink的加强学习代理块。金宝app

环境建模

创建MATLAB和SIMULINK环金宝app境模型。描述系统动态,并为培训代理提供观察和奖励信号。

金宝appSimulink和Simscape环境

使用Si金宝appmulink和Simscape™来创建环境的模型。指定模型中的观察,动作和奖励信号。

金宝app用于Biped机器人的Simulink环境模型。

Matlab环境

使用MATLAB函数和类来模拟环境。在MATLAB文件中指定观察,操作和奖励变量。

Matlab环境为三程度的火箭。

加速培训

使用GPU,云和分布式计算资源加快培训。

使用并行计算加快培训。

GPU加速

高性能NVIDIA加快深度神经网络培训和推论®GPU。使用matlab并行计算工具箱和最支持的CUDA启用的NVIDIA GPU计算能力3.0或更高

使用GPU加速培训。

代码生成和部署

将培训的策略部署到嵌入式设备或将它们与各种生产系统集成。

代码生成

GPU编码器™从Matlab代码生成优化的CUDA代码,代表培训的策略。用Matlab Coder™生成C / C ++代码以部署策略。

使用GPU编码器生成CUDA代码。

Matlab编译器支持金宝app

Matlab Compiler™MATLAB编译器SDK™将培训的策略部署为独立应用程序,C / C ++共享库,Microsoft®.NET装配,Java®课程和python®包裹。

包装和分享单​​独计划的政策。

参考例子

用于机器人,自动化驾驶,校准,调度和其他应用的设计控制器和决策算法。

调整,校准和调度

设计强化学习策略,用于调整,校准和调度应用程序。

水分布资源分配问题。

加强学习视频系列

观看本系列中的视频,了解有关强化学习的更多信息。

额外的强化学习工具箱资源