Mathworks今天宣布MATLAB现在通过GPU编码器提供NVIDIA Tensorrt集成。这有助于工程师和科学家在MATLAB中开发新的AI和深度学习模型,并具有满足数据中心,嵌入式和汽车应用程序不断增长的需求所需的性能和效率。
MATLAB提供了一个完整的工作流程,以快速培训,验证和部署深度学习模型。工程师可以在没有其他编程的情况下使用GPU资源,因此他们可以专注于应用程序而不是性能调整。Nvidia Tensorrt与GPU编码器的新集成使MATLAB开发的深度学习模型可以在具有高通量和低延迟的NVIDIA GPU上运行。内部基准表明,MATLAB生成的CUDA代码与Tensorrt可以部署
“快速发展的图像,语音,传感器和物联网技术正在推动团队以更好的性能和效率探索AI解决方案。金宝搏官方网站此外,深度学习模型变得越来越复杂。所有这些给工程师带来了巨大的压力。” Mathworks主任David Rich说。“现在,使用MATLAB和NVIDIA GPU培训深度学习模型的团队可以在从云到数据中心再到嵌入式边缘设备的任何环境中实时推断。”
*所有基准测试均在MATLAB R2018A上使用GPU编码器,Tensorrt 3.0.1,Tensorflow 1.6.0,Cuda 9.0和Cudnn 7在Linux 12 Core Intel中的NVIDIA Titan XP GPU上®Xeon®E5-1650 V3 PC,带64GB RAM