MathWorks今天宣布Matlab现在通过GPU编码器提供NVIDIA Tensorrt集成。这有助于工程师和科学家在Matlab中开发新的AI和深入学习模型,具有满足数据中心,嵌入式和汽车应用需求不断增长的性能和效率。
MATLAB为快速培训,验证和部署深度学习模型提供完整的工作流程。工程师可以使用GPU资源而无需额外的编程,因此它们可以专注于他们的应用而不是性能调整。NVIDIA Tensorrt与GPU编码器的新集成使Matlab开发的深度学习模型能够在NVIDIA GPU上运行,具有高吞吐量和低延迟。内部基准显示Matlab-Sended CUDA代码与Tensorrt可以部署
“迅速发展的图像,语音,传感器和物联网技术正在驾驶团队,以探索具有更好性能和效率的AI解决方案。金宝搏官方网站此外,深度学习模型变得更加复杂。所有这些都对工程师提供了巨大的压力,“MathWorks Director David Rich说。“现在,使用MATLAB和NVIDIA GPU的团队培训深入学习模型可以在从云到数据中心到嵌入式边缘设备的任何环境中实时推理。”
*所有基准都在Matlab R2018A上运行GPU编码器,Tensorrt 3.0.1,Tensorflow 1.6.0,CUDA 9.0和CUDNN 7在一个Linux 12 Core Intel中的NVIDIA Titan XP GPU上®Xeon.®E5-1650 V3 PC,带64GB RAM