深度学习HDL工具箱
原型和部署深度学习网络在fpga和出类拔萃
深度学习HDL工具箱™提供功能和工具原型,在fpga上实现深度学习网络和出类拔萃。它提供了预先构建的比特流用于运行各种各样的深度学习网络Xilinx的支持金宝app®和英特尔®FPGA和SoC设备。分析和评估工具让你定制一个深入学习网络,探索设计、性能和资源利用的权衡。
深度学习HDL工具箱允许您定制的硬件实现深度学习网络和生成便携,synthesizable Verilog®和硬件描述语言(VHDL)®与HDL代码部署在FPGA(编码器™和仿真软件金宝app®)。
开始:
可编程处理器深度学习
工具箱包括深学习处理器特性通用卷积和全层由调度控制逻辑。这个深度学习处理器执行fpga推测网络发达深度学习工具箱™。高带宽内存接口速度内存传输层和重量数据。
编译和部署
编译深学习网络的指令集是由深度学习处理器。部署到FPGA和运行预测而实际捕获设备内置性能指标。
开始使用预先构建的比特流
原型网络没有FPGA编程使用可用的比特流流行的FPGA开发板。
创建一个网络部署
首先使用深度学习工具箱设计、训练、分析等任务的深入学习网络对象检测或分类。你也可以开始通过导入培训网络或从其他框架层。
您的网络部署到FPGA
一旦你有了一个训练网络,使用部署
命令与深度学习程序FPGA处理器和以太网或JTAG接口。然后使用编译
命令生成的指令集训练网络没有重组FPGA。
运行fpga推论MATLAB应用程序的一部分
在MATLAB运行您的整个应用程序®,包括你的试验台,预处理和后处理算法和fpga深度学习的推论。一个MATLAB命令,预测
,执行FPGA上的推论,并将结果返回给MATLAB工作区。
优化网络设计
使用概要指标,优化您的网络配置与深度学习工具。例如,使用深度网络设计师添加层,删除层,或者创建新的连接。
深度学习量化
资源利用率降低量化深度学习网络定点表示法。分析的准确性和资源利用率之间权衡使用量化模型库支持包。金宝app
生成Synthesizable RTL
使用高密度脂蛋白编码器生成synthesizable RTL从深度学习处理器中使用的各种实现工作流和设备。重用相同的深度学习处理器为原型和生产部署。
为集成生成IP核
当HDL编码器生成RTL的深度学习处理器,它还生成一个IP核心标准AXI接口集成到你的SoC设计参考。