加固学习工具箱

使用强化学习设计和培训政策

强化学习工具箱™提供了使用加强学习算法的培训策略的功能和块,包括DQN,A2C和DDPG。您可以使用这些策略来实现用于机器人和自主系统等复杂系统的控制器和决策算法。您可以使用深神经网络,多项式或查找表来实施策略。

Toolbox允许您通过启用它们与Matlab所代表的环境进行交互来培训策略®或者模金宝app拟®楷模。您可以评估算法,使用HyperParameter设置进行实验,并监控培训进度。为了提高培训性能,您可以在云,计算机集群和GPU上并行运行模拟(使用并行计算工具箱™和MATLABPrild Server™)。

通过Onnx™模型格式,现有的策略可以从DENE学习框架导入Tensorflow™Keras和Pytorch(具有深度学习工具箱™)。您可以生成优化的C,C ++和CUDA代码,以在微控制器和GPU上部署培训的策略。

工具箱包括使用强化学习来为机器人和自动驾驶应用设计控制器的参考示例。

开始:

加固学习代理人

实施MATLAB和SIMULINK代理商,金宝app以培训由深神经网络代表的培训政策。使用内置和自定义强化学习算法。

强化学习算法

使用深Q-Network(DQN)实现代理,优势演员评论家(A2C),深度确定性政策梯度(DDPG)和其他内置算法。使用模板来实现自定义代理进行培训策略。

代理包括策略和算法。

使用深神经网络的策略和价值函数表示

使用大型状态动作空间的复杂系统使用深神经网络策略。使用深度学习工具箱的网络和体系结构定义策略。导入与其他深度学习框架互操作性的ONNX模型。

金宝app用于代理的Simulink块

在Simulink中实施和培训加固学习代理。金宝app

Simulink的加强学习代理块。金宝app

环境建模

创建MATLAB和SIMULINK环金宝app境模型。描述系统动态,并为培训代理提供观察和奖励信号。

金宝appSimulink和Simscape环境

使用Si金宝appmulink和Simscape™模型来表示环境。指定模型中的观察,动作和奖励信号。

金宝app倒摆的Simulink环境模型。

Matlab环境

使用MATLAB函数和类来表示环境。在MATLAB文件中指定观察,操作和奖励变量。

MATLAB用于推车系统系统。

加速培训

使用GPU,云和分布式计算资源加快培训。

分布式计算和多核加速度

使用并行计算工具箱和计算群集在多核计算机,云资源或计算群集上运行并行模拟来加速培训MATLAB并行服务器

使用并行计算加速训练。

GPU加速

高性能NVIDIA加快深度神经网络培训和推论®GPU。使用matlab并行计算工具箱和大多数CUDA.®- 具有的全文NVIDIA GPU计算能力3.0或更高

使用GPU加速培训。

代码生成和部署

将培训的策略部署到嵌入式设备或将它们与各种生产系统集成。

代码生成

GPU编码器™从Matlab代码生成优化的CUDA代码,代表培训的策略。用Matlab Coder™生成C / C ++代码以部署策略。

使用GPU编码器生成CUDA代码。

Matlab编译器支持金宝app

Matlab Compiler™MATLAB编译器SDK™将培训的策略部署为C / C ++共享库,Microsoft®.NET装配,Java®课程和python®包裹。

包裹并将策略作为独立程序。

参考例子

设计控制器使用加强学习机器人,自驾驶汽车和其他系统。

自动驾驶应用程序

自适应巡航控制与车道保持辅助系统的控制器设计。

培训一条车道保持援助系统。

最新特色

多档强化学习

在Simulink环境中同时训练多个智能体金宝app

软演员 - 评论家代理人

使用增加的探索列出具有连续行动空间的环境的采样高效策略

默认代理人

通过创建具有默认神经网络结构的代理来避免手动制定策略

看看发行说明有关这些功能的详细信息和相应的功能。

加强学习视频系列

观看本系列中的视频以了解加强学习。