比尔•周MathWorks
在嵌入式CPU和GPU平台上设计和部署深度学习和计算机视觉应用具有挑战性,因为嵌入式设备固有的资源限制。基于MATLAB®的工作流有助于这些应用程序的设计,自动生成的C或CUDA®代码可以部署在像Jetson TX2和DRIVE PX这样的板上,并实现非常快速的推理。
演示演示了MATLAB如何支持该工作流的所有主要阶段。金宝app从算法设计开始,该算法可以采用传统计算机视觉技术增强的深度学习网络,可以在MATLAB中进行测试和验证。接下来,这些网络将在桌面、集群或云上使用GPU和MATLAB并行计算支持进行训练。金宝app最后,GPU Coder™从MATLAB算法生成可移植和优化的C/ c++和/或CUDA®代码,然后交叉编译并部署到cpu和/或Tegra®板。基准测试表明,自动生成CUDA代码的性能比TensorFlow®快~5倍,比MXNet快~2倍。
观看这段对话,学习如何:
1.访问和管理大型图像集
2.可视化网络并深入了解培训过程
3.导入参考网络,如AlexNet和GoogLeNet
4.自动生成便携式和优化的CUDA代码从MATLAB算法的NVIDIA gpu
5.用于Intel Xeon cpu和ARM Cortex-A处理器的MATLAB中实现的深度学习网络自动生成可移植和优化的代码
Bill Chou是GPU编码器的产品营销经理,在过去12年里一直从事MathWorks代码生成技术的工作。Bill持有the University of Southern California的电气工程硕士学位和the University of British Columbia的电气工程学士学位。
记录时间:2018年6月20日
你也可以从以下列表中选择一个网站:
选择中国网站(中文或英文)以获得最佳网站性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。