深度学习HDL工具箱
在fpga和soc上原型和部署深度学习网络
深度学习HDL工具箱™提供了在fpga和soc上原型和实现深度学习网络的功能和工具。它提供预构建的位流,用于在受支持的Xilinx上运行各种深度学习网络金宝app®和英特尔®FPGA和SoC器件。分析和评估工具允许您通过探索设计、性能和资源利用的折衷来定制深度学习网络。
深度学习HDL工具箱使您能够定制您的深度学习网络的硬件实现,并生成可移植的、可合成的Verilog®和硬件描述语言(VHDL)®用于在任何FPGA上部署的代码(使用HDL Coder™和Simulink)金宝app®).
开始:
可编程深度学习处理器
工具箱包括一个深度学习处理器,它具有一般卷积和由调度逻辑控制的全连接层。该深度学习处理器执行基于fpga的网络推理使用深度学习工具箱™。高带宽内存接口加速层和权重数据的内存传输。
编译和部署
将您的深度学习网络编译成一组指令,由深度学习处理器运行。部署到FPGA并运行预测,同时捕获实际设备上的性能指标。
开始使用预构建的比特流
使用流行的FPGA开发工具包的可用位流,在不使用FPGA编程的情况下对网络进行原型设计。
创建用于部署的网络
首先使用深度学习工具箱设计、训练和分析您的深度学习网络任务,如对象检测或分类。您还可以从从其他框架导入经过训练的网络或层开始。
将网络部署到FPGA
一旦你有了一个训练有素的网络,使用部署
命令,使用深度学习处理器以及以太网或JTAG接口对FPGA进行编程。然后使用编译
命令为您经过训练的网络生成一组指令,而无需重新编程FPGA。
运行基于fpga的推理作为MATLAB应用程序的一部分
在MATLAB中运行您的整个应用程序®,包括您的测试台、预处理和后处理算法,以及基于fpga的深度学习推断。一个简单的MATLAB命令,预测
,在FPGA上执行推断并将结果返回到MATLAB工作空间。
调整网络设计
使用配置文件度量,使用深度学习工具箱调整网络配置。例如,使用深层网络设计器来添加层、删除层或创建新的连接。
深度学习量化
通过将深度学习网络量化为定点表示来降低资源利用率。使用模型量化库支持包分析准确性和资源利用之间的权衡。金宝app
生成Synthesizable RTL
使用HDL编码器从深度学习处理器生成可合成的RTL,用于各种实现流程和设备。在原型和生产部署中重用相同的深度学习处理器。
生成集成IP核
当HDL Coder从深度学习处理器生成RTL时,它还生成一个带有标准AXI接口的IP核,用于集成到SoC参考设计中。