深度学习HDL工具箱

深度学习HDL工具箱

在fpga和soc上构建和部署深度学习网络

开始:

fpga的深度学习推理

在fpga上设计和实现深度学习网络,用于边缘部署。

可编程深度学习处理器

该工具箱包括一个深度学习处理器,其特点是通用卷积和由调度逻辑控制的全连接层。这种深度学习处理器执行基于fpga的网络推理深度学习工具箱™。高带宽内存接口加快了层和权重数据的内存传输。

深度学习处理器架构。

编译和部署

将您的深度学习网络编译为一组指令,由深度学习处理器运行。部署到FPGA并运行预测,同时捕获设备上的实际性能指标。

编译和部署YOLO v2网络。

MATLAB中基于fpga的推理

利用MATLAB在fpga上运行深度学习推理。

创建部署网络

首先使用“深度学习工具箱”来设计、训练和分析您的深度学习网络,以完成诸如目标检测或分类等任务。你也可以从从其他框架导入一个训练有素的网络或层开始。

将网络部署到FPGA

一旦你有了一个训练有素的网络,使用部署命令,通过以太网或JTAG接口对深度学习处理器进行FPGA编程。然后使用编译命令为训练过的网络生成一组指令,而无需重新编程FPGA。

使用MATLAB对单板和接口进行配置,编译网络,部署到FPGA上。

运行基于fpga的推理作为您的MATLAB应用程序的一部分

在MATLAB中运行整个应用程序®,包括您的测试台架,预处理和后处理算法,以及基于fpga的深度学习推理。一个简单的MATLAB命令,预测,在FPGA上执行推理,并将结果返回到MATLAB工作空间。

在FPGA上运行MATLAB应用程序进行深度学习推理。

网络定制

调优深度学习网络,以满足目标FPGA或SoC设备上特定于应用程序的需求。

FPGA推理

在FPGA上运行预测以查找性能瓶颈时,测量层级延迟。

基于MATLAB的FPGA深度学习网络推理。

优化网络设计

使用配置文件指标,用“深度学习工具箱”调优网络配置。例如,使用深度网络设计器添加层、删除层或创建新连接。

部署自定义RTL实现

使用HDL Coder将深度学习处理器的自定义RTL实现部署到任何FPGA、ASIC或SoC设备上。

自定义深度学习处理器配置

指定实现深度学习处理器的硬件架构选项,例如并行线程的数量或最大层大小。

生成可合成的RTL

使用HDL Coder从深度学习处理器生成可合成的RTL,用于各种实现工作流程和设备。在原型和生产部署中重用相同的深度学习处理器。

从深度学习处理器生成可合成的RTL。

生成用于集成的IP核

当HDL Coder从深度学习处理器生成RTL时,它还生成一个具有标准AXI接口的IP核,用于集成到SoC参考设计中。

显示I/O和AXI接口之间映射的目标平台接口表。