GPU计算

MATLAB对GPU计算的支持金宝app
英伟达人gpu

在支持NVIDIA cuda的gpu上执行MATLAB计算

MATLAB®允许您使用NVIDIA®gpu可以加速人工智能、深度学习和其他计算密集型分析,而无需CUDA®程序员。使用MATLAB和并行计算工具箱™,您可以:

  • 使用NVIDIA gpu直接从MATLAB与超过500内置功能。
  • 使用MATLAB workers和MATLAB Parallel Server™访问桌面、计算集群和云上的多个gpu。
  • 生成CUDA代码直接从MATLAB部署到数据中心,云,和嵌入式设备使用GPU编码器™。
  • 从MATLAB生成NVIDIA TensorRT™代码,用于GPU编码器的低延迟和高吞吐量推断。
  • 将MATLAB AI应用部署到支持nvidia的数据中心,使用MATLAB生产服务器™与企业系统集成。

“我们的传统代码分析一个风洞测试需要40分钟;通过使用MATLAB和GPU,计算时间现在不到一分钟。我们花了30分钟让MATLAB算法在gpu上工作,不需要低级的CUDA编程。”

克里斯托弗·巴尔,NASA

用MATLAB开发、缩放和部署深度学习模型

MATLAB允许单个用户使用深度学习工具箱™实现端到端工作流来开发和训练深度学习模型。然后,您可以使用云和集群资源使用并行计算工具箱和MATLAB并行服务器扩展培训,并使用GPU编码器部署到数据中心或嵌入式设备。

使用gpu开发深度学习和其他计算密集型分析

MATLAB是一个用于人工智能和深度学习开发的端到端工作流平台。MATLAB提供了用于导入训练数据集、可视化和调试、缩放训练cnn和部署的工具和应用程序。

用一行代码扩展到桌面、云和集群上的额外计算和GPU资源。


测试您自己的CPU和GPU硬件使用gpuBench

在图形处理器上用最小的代码变化缩放MATLAB

使用500多个支持cuda的MATLAB函数在NVIDIA gpu上运行MATLAB代码。在深度学习、机器学习、计算机视觉和信号处理等应用中,使用工具箱中启用gpu的功能。并行计算工具箱提供gpuArray,这是一种带有相关函数的特殊数组类型,可以让您直接从MATLAB中在支持cuda的NVIDIA GPU上执行计算,而无需学习低级GPU计算库。

工程师可以使用GPU资源,而无需编写任何额外的代码,因此他们可以专注于自己的应用程序,而不是性能调优。

使用类似于parforspmd可以在多个gpu上进行计算。在多个gpu上训练一个模型很简单,只需改变训练选项。

MATLAB还允许您将现有的CUDA内核集成到MATLAB应用程序中,而不需要任何额外的C编程。


部署生成的CUDA代码从MATLAB与TensorRT推理部署

使用GPU Coder从MATLAB代码中生成优化的CUDA代码,用于深度学习、嵌入式视觉和自主系统。生成的代码自动调用优化的NVIDIA CUDA库,包括TensorRT、cuDNN和cuBLAS,以运行在NVIDIA gpu上的低延迟和高吞吐量。将生成的代码作为源代码、静态库或动态库集成到项目中,并将它们部署到NVIDIA Volta等gpu上运行®, NVIDIA Tesla®,英伟达杰森®, NVIDIA驱动®