艾曼努伊尔·佐拉科勒菲瑟拉基斯,MathWorks
强化学习工具箱™ 提供应用程序、功能和Simulink金宝app®使用强化学习算法(包括DQN、PPO、SAC和DDPG)的训练策略块。您可以使用这些策略为资源分配、机器人技术和自治系统等复杂应用程序实现控制器和决策算法。
工具箱允许您使用深度神经网络或查找表表示策略和值函数,并通过与MATLAB中建模的环境的交互来训练它们®或者S金宝appimulink。您可以评估工具箱中提供的单代理或多代理强化学习算法,也可以开发自己的算法。您可以尝试超参数设置,监视培训进度,并通过应用程序交互或编程方式模拟经过培训的代理。为了提高训练性能,模拟可以在多个CPU、GPU、计算机集群和云(使用并行计算工具箱)上并行运行™ 与MATLAB并行服务器™).
通过ONNX™ 模型格式,可以从TensorFlow等深度学习框架导入现有策略™ Keras和PyTorch(带深度学习工具箱)™). 您可以生成优化的C、C++和CUDA®用于在微控制器和GPU上部署经过培训的策略的代码。工具箱包括帮助您入门的参考示例。
强化学习工具箱™ 提供一个应用程序、功能和模块,让您为机器人技术和自动驾驶等复杂应用程序实施控制器和决策算法。
工具箱使您能够使用MATLAB完成强化学习工作流的所有步骤,从创建环境和代理,到策略培训和部署®&模金宝app拟®.
通过从内置算法(如DQN、PPO和SAC)中选择来定义代理,或者开发自己的自定义算法。
在强化学习设计器中以交互方式或编程方式创建代理对象。
对于深度神经网络策略,强化学习工具箱可以自动生成默认的网络结构。
或者,使用deep network Designer创建深度神经网络策略和价值函数…
或以编程方式,使用内置函数。
除神经网络外,还支持多项式和查找表。金宝app
您可以在MATLAB和Simulink中创建环境。金宝app
在Si金宝appmulink中,创建一个描述环境动力学、观察和奖励信号的模型。
要将环境模型与创建的代理对象连接,请分别使用代理块的一个或多个实例进行单个或多个代理培训。
对于MATLAB环境,您可以从提供的模板开始,并根据需要进行修改。
您还可以从几个预定义的MATLAB和Simulink环境中进行选择。金宝app
要开始培训,请指定培训选项,例如停止标准,并在应用程序中或以编程方式培训代理。
并行计算工具箱™ 与MATLAB并行服务器™ 让您通过并行模拟和计算来加速培训。
在培训期间,事件管理器帮助您直观地监控培训进度,并提供摘要统计信息。
培训完成后,您可以使用模拟环境验证经过培训的代理,并根据需要进行修改。
然后,您可以生成CUDA和C/C++代码来部署经过培训的策略。
有关强化学习工具箱的更多信息,请参阅文档和提供的示例。
您还可以从以下列表中选择网站:
选择中国站点(中文或英文)以获得最佳站点性能。其他MathWorks国家/地区网站未针对您所在地的访问进行优化。