深度学习HDL工具箱
在fpga和soc上构建和部署深度学习网络
深度学习HDL Toolbox™提供了在fpga和soc上构建和实现深度学习网络的功能和工具。它为在支持的Xilinx上运行各种深度学习网络提供了预先构建的比特流金宝app®和英特尔®FPGA和SoC设备。分析和评估工具允许您通过探索设计、性能和资源利用的权衡来定制深度学习网络。
深度学习HDL工具箱使您能够自定义深度学习网络的硬件实现,并生成可移植的、可合成的Verilog®和硬件描述语言(VHDL)®用于部署在任何FPGA上的代码(使用HDL Coder™和Simulink金宝app®).
开始:
可编程深度学习处理器
该工具箱包括一个深度学习处理器,其特点是通用卷积和由调度逻辑控制的全连接层。这种深度学习处理器执行基于fpga的网络推理深度学习工具箱™。高带宽内存接口加快了层和权重数据的内存传输。
编译和部署
将您的深度学习网络编译为一组指令,由深度学习处理器运行。部署到FPGA并运行预测,同时捕获设备上的实际性能指标。
开始使用预构建的Bitstreams
在没有FPGA编程的情况下,使用流行的FPGA开发工具包中的可用位流为网络建模。
创建部署网络
首先使用“深度学习工具箱”来设计、训练和分析您的深度学习网络,以完成诸如目标检测或分类等任务。你也可以从从其他框架导入一个训练有素的网络或层开始。
将网络部署到FPGA
一旦你有了一个训练有素的网络,使用部署
命令,通过以太网或JTAG接口对深度学习处理器进行FPGA编程。然后使用编译
命令为训练过的网络生成一组指令,而无需重新编程FPGA。
运行基于fpga的推理作为您的MATLAB应用程序的一部分
在MATLAB中运行整个应用程序®,包括您的测试台架,预处理和后处理算法,以及基于fpga的深度学习推理。一个简单的MATLAB命令,预测
,在FPGA上执行推理,并将结果返回到MATLAB工作空间。
优化网络设计
使用配置文件指标,用“深度学习工具箱”调优网络配置。例如,使用深度网络设计器添加层、删除层或创建新连接。
深度学习量化
通过将深度学习网络量化为定点表示来降低资源利用率。使用模型量化库支持包分析准确性和资源利用之间的权衡。金宝app
生成可合成的RTL
使用HDL Coder从深度学习处理器生成可合成的RTL,用于各种实现工作流程和设备。在原型和生产部署中重用相同的深度学习处理器。
生成用于集成的IP核
当HDL Coder从深度学习处理器生成RTL时,它还生成一个具有标准AXI接口的IP核,用于集成到SoC参考设计中。