Emmanouil Tzorakoleftherakis, MathWorks
Reinforcement Learning Toolbox™提供了一个应用程序、函数和Simulink金宝app®使用强化学习算法的培训政策阻止,包括DQN,PPO,SAC和DDPG。您可以使用这些策略来实现用于复杂应用程序的控制器和决策算法,例如资源分配,机器人和自主系统。
这个工具箱允许您使用深度神经网络或查询表来表示策略和值函数,并通过与MATLAB中建模的环境进行交互来训练它们®或仿真金宝app软件。您可以评估工具箱中提供的单或多智能体强化学习算法,或开发自己的算法。您可以试验超参数设置,监控训练进度,并通过应用程序交互或编程模拟训练过的代理。为了提高训练性能,模拟可以在多个cpu、gpu、计算机集群和云上并行运行(使用并行计算工具箱™和MATLAB并行服务器™)。
通过ONNX™模型格式,现有的策略可以从深度学习框架导入,如TensorFlow™Keras和PyTorch(使用深度学习工具箱™)。你可以生成优化的C, c++和CUDA®用于部署微控制器和GPU的培训策略的代码。工具箱包含参考示例,以帮助您开始。
Reinforcement Learning Toolbox™提供了一个应用程序、函数和模块,让您可以为复杂的应用程序(如机器人和自动驾驶)实现控制器和决策算法。
Toolbox使您可以通过Matlab创建生长学习工作流程,从创建环境和代理程序,从创建环境和代理程序®&S金宝appimulink.®。
通过从内置算法(如DQN,PPO和SAC)中选择或开发您自己的自定义算法来定义代理。
以钢筋学习设计师交互地或以编程方式创建代理对象。
对于深度神经网络策略,加强学习工具箱可以自动生成默认网络架构。
或者,使用deep network Designer创建深度神经网络策略和价值函数…
或者用内置函数编程。
除神经网络外,还支持多项式和查找表。金宝app
您可以在Matlab和Simulink中创建环境。金宝app
在Si金宝appmulink中,创建一个描述环境动态,观察和奖励信号的模型。
要将创建的代理对象接口环境模型,分别使用代理程序块的一个或多个实例,用于单个或多代理培训。
对于MATLAB环境,您可以从提供的模板开始并根据需要进行修改。
您还可以从几个预定义的MATLAB和Simulink环境中进行选择。金宝app
要开始培训,请指定培训选项,如停止标准并在应用程序中或以编程方式列车。
并行计算工具箱™和MATLAB并行服务器™通过并行化模拟和计算,您可以加速培训。
在培训期间,Episode Manager帮助您在视觉上监控培训进度并提供摘要统计数据。
培训完成后,您可以使用模拟环境验证培训的代理并根据需要进行修改。
然后,您可以生成CUDA和C / C ++代码以部署培训的策略。
有关加强学习工具箱的更多信息,请参阅文档并提供示例。
你也可以从以下列表中选择一个网站:
选择中国网站(以中文或英文)以获取最佳网站性能。其他MathWorks国家网站未优化您的位置。