Emmanouil Tzorakoleftherakis,Mathworks
强化学习工具箱™提供了应用程序,功能和模拟链接金宝app®使用强化学习算法的培训政策阻止,包括DQN,PPO,SAC和DDPG。您可以使用这些策略来实现用于复杂应用程序的控制器和决策算法,例如资源分配,机器人和自主系统。
工具箱允许您使用深神经网络或查找表来表示策略和值函数,并通过与Matlab中建模的环境的交互培训®或者是金宝appsimulink。您可以评估工具箱中提供的单个或多代理强化学习算法或开发您自己的学习算法。您可以通过应用程序或以编程方式进行高度参数设置,监视培训进度,并模拟培训的代理。为了提高培训性能,可以在多个CPU,GPU,计算机集群和云上并行运行模拟(使用并行计算工具箱™和MATLABPrild Server™)。
通过Onnx™模型格式,现有的策略可以从DENE学习框架导入Tensorflow™Keras和Pytorch(具有深度学习工具箱™)。您可以生成优化的C,C ++和CUDA®用于部署微控制器和GPU的培训策略的代码。工具箱包含参考示例,以帮助您开始。
强化学习工具箱™提供了一个应用,功能和块,让您实现控制器和决策算法,以实现复杂的应用程序,例如机器人和自动化驾驶。
Toolbox使您可以通过Matlab创建生长学习工作流程,从创建环境和代理程序,从创建环境和代理程序®&S金宝appimulink.®。
通过从内置算法(如DQN,PPO和SAC)中选择或开发您自己的自定义算法来定义代理。
以钢筋学习设计师交互地或以编程方式创建代理对象。
对于深度神经网络策略,加强学习工具箱可以自动生成默认网络架构。
或者,使用深网络设计器创建深度神经网络策略和价值函数......
或以编程方式,内置函数。
除神经网络外,还支持多项式和查找表。金宝app
您可以在Matlab和Simulink中创建环境。金宝app
在Si金宝appmulink中,创建一个描述环境动态,观察和奖励信号的模型。
要将创建的代理对象接口环境模型,分别使用代理程序块的一个或多个实例,用于单个或多代理培训。
对于MATLAB环境,您可以从提供的模板开始并根据需要进行修改。
您还可以从多个预定义的MATLAB和SIMULINK环境中进行选择。金宝app
要开始培训,请指定培训选项,如停止标准并在应用程序中或以编程方式列车。
并行计算工具箱™和MATLAB并行服务器™通过并行化模拟和计算,您可以加速培训。
在培训期间,Episode Manager帮助您在视觉上监控培训进度并提供摘要统计数据。
培训完成后,您可以使用模拟环境验证培训的代理并根据需要进行修改。
然后,您可以生成CUDA和C / C ++代码以部署培训的策略。
有关加强学习工具箱的更多信息,请参阅文档并提供示例。
您还可以从以下列表中选择一个网站:
选择中国网站(以中文或英文)以获取最佳网站性能。其他MathWorks国家网站未优化您的位置。