主要内容

金宝app支持的网络,层,板和工具

金宝app支持的掠夺网络

深度学习HDL Toolbox™支持用于系列卷积神经网金宝app络(CNNS或CUMMNET)的代码生成。您可以为任何培训的CNN生成代码,该CNN为代码生成支持计算层。金宝app对于完整列表,请参阅金宝app支持的层数.您可以使用表中列出的其中一个佩带的网络来为目标英特尔生成代码®或Xilinx®FPGA板。

网络 网络描述 类型 单一数据类型(带有传输比特流) INT8数据类型(带有Shipping Bitstreams) 应用领域
ZCU102 ZC706 Arria10 SoC ZCU102 ZC706 Arria10 SoC 分类
AlexNet.

卷积神经网络。

系列网络 是的 是的 是的 是的 是的 是的 分类
LogoNet

徽标识别网络(ogonet)是MATLAB®开发标识识别网络。有关更多信息,请参见徽标识别网络

系列网络 是的 是的 是的 是的 是的 是的 分类
Digitsnet.

数字分类网络。看创建简单的深度学习网络分类

系列网络 是的 是的 是的 是的 是的 是的 分类
车道检测

Lanenet卷积神经网络。有关更多信息,请参见部署转运学习网络进行车道检测

系列网络 是的 是的 是的 是的 是的 是的 分类
vgg-16.

VGG-16卷积神经网络。对于普雷克vgg-16型号,看vgg16

系列网络 不。网络超过PL DDR内存大小 No.网络超过FC模块内存大小。 是的 是的 No.网络超过FC模块内存大小。 是的 分类
vgg-19.

VGG-19卷积神经网络。对于普雷克vgg-19型号,看vgg19

系列网络 不。网络超过PL DDR内存大小 No.网络超过FC模块内存大小。 是的 是的 No.网络超过FC模块内存大小。 是的 分类
Darknet-19

Darknet-19卷积神经网络。对于预训练的Darknet-19型号,请参阅darknet19

系列网络 是的 是的 是的 是的 是的 是的 分类
雷达的分类 利用微多普勒特征识别和分类目标的卷积神经网络。有关更多信息,请参见基于FPGA的自行车和行人分类 系列网络 是的 是的 是的 是的 是的 是的 分类和软件定义无线电(SDR)
缺陷检测snet_defnet snet_defnet是用于识别和分类缺陷的自定义AlexNet网络。有关更多信息,请参见缺陷检测 系列网络 是的 是的 是的 是的 是的 是的 分类
缺陷检测snet_blemdetnet. snet_blemdetnet.是用于识别和分类缺陷的自定义卷积神经网络。有关更多信息,请参见缺陷检测 系列网络 是的 是的 是的 是的 是的 是的 分类
YOLO v2车辆检测 您只看一次(YOLO)是一个对象检测器,它是从卷积神经网络解码预测的对象检测器,并在对象周围生成边界框。有关更多信息,请参见使用yolo v2部署到fpga的车辆检测 系列网络基础 是的 是的 是的 是的 是的 是的 对象检测
DarkNet-53 Darknet-53卷积神经网络。关于预先训练的DarkNet-53模型,请参阅Darknet53. 基于指导的无循环图(DAG)网络 No.网络超过PL DDR内存大小。 不。网络全连接层超过内存大小。 是的 是的 不。网络全连接层超过内存大小。 是的 分类
resnet-18. Reset-18卷积神经网络。对于预用resnet-18型号,请参阅resnet18 基于指导的无循环图(DAG)网络 是的 是的 是的 是的 是的 分类
resnet-50 ResNet-50卷积神经网络。关于预先训练的ResNet-50模型,请看resnet50 基于指导的无循环图(DAG)网络 No.网络超过PL DDR内存大小。 No.网络超过PL DDR内存大小。 是的 是的 是的 是的 分类
基于RESNET的YOLO V2 您只看一次(YOLO)是一个对象检测器,它是从卷积神经网络解码预测的对象检测器,并在对象周围生成边界框。有关更多信息,请参见基于YOLO v2的DAG网络车辆检测部署在FPGA上 基于指导的无循环图(DAG)网络 是的 是的 是的 是的 是的 是的 对象检测
MobileNetv2. MobileNet-V2卷积神经网络。对于预押MobileNet-V2型号,请参阅MobileNetv2. 基于指导的无循环图(DAG)网络 是的 不。全连接层超过PL DDR内存大小。 是的 没有 不。全连接层超过PL DDR内存大小。 没有 分类
GoogLeNet 卷积神经网络。关于预先训练的GoogLeNet模型,请看googlenet.

金宝app支持的层数

深度学习HDL工具箱支持这些表中列出的图层。金宝app

输入层

硬件(HW)或软件(SW) 描述和局限性 INT8兼容

imageInputLayer

西南

图像输入层向网络输入二维图像并应用数据归一化。

是的。在SW中作为单个数据类型运行。

卷积和全连接层

硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

convolution2dLayer

h 卷积(Conv)

二维卷积层将滑动卷积滤波器应用于输入。

当使用此层为网络生成代码时,有以下限制:

  • 过滤器尺寸必须为1-15和方形。例如[1 1]或[15 15]。

  • 步幅必须为1-15,且为方形。

  • 填充尺寸必须在0-8范围内。

  • 扩张因子必须是[1 1]。

  • 不支持填充值。金宝app

是的

groupedconvolution2dlayer.

h 卷积(Conv)

一个二维分组卷积层将输入通道分成组,并应用滑动卷积滤波器。使用分组卷积层进行信道可分(也称为深度可分)卷积。

现在支持代码生成,其中有2-D分组的卷积图层金宝appNumGroups属性设置为“channel-wise”

当使用此层为网络生成代码时,有以下限制:

  • 过滤器尺寸必须为1-15和方形。例如[1 1]或[14 14]。当NumGroups被设置为“channel-wise”,过滤器尺寸必须为3-14。

  • 步幅必须为1-15,且为方形。

  • 填充尺寸必须在0-8范围内。

  • 扩张因子必须是[1 1]。

  • 组数必须为1或2。

  • 输入的特征数必须大于。的平方根的单个倍数ConvThreadNumber

  • NumGroups未设置为“channel-wise”,每个组的过滤器数量必须是平方根的倍数ConvThreadNumber

是的

fullyConnectedLayer

h 完全连接(FC)

一个完全连通的层将输入乘以一个权值矩阵,然后添加一个偏置向量。

当使用此层为网络生成代码时,有以下限制:

是的

激活层

硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

reluLayer

h 层融合。

Relu层对输入的每个元素执行阈值操作,其中任何值小于零的值被设置为零。

只有在其中任何这些图层之前都仅支金宝app持Relu层:

  • 卷积

  • 完全连接

  • 加法器

是的

leakyReluLayer

h 层融合。

一个泄漏的ReLU层执行一个阈值操作,其中任何小于零的输入值乘以一个固定标量。

一个有泄漏的ReLU层只有在前面有以下任何一金宝app层时才会被支持:

  • 卷积

  • 完全连接

  • 加法器

是的

clippedReluLayer

h 层融合。

被裁剪的ReLU层执行一个阈值操作,其中任何小于零的输入值都被设置为零,任何高于裁剪上限的值都被设置为该裁剪上限值。

一个被裁剪的ReLU层只有在前面有以下任何一层时金宝app才被支持:

  • 卷积

  • 完全连接

  • 加法器

是的

标准化,删除和裁剪图层

硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

batchNormalizationLayer

h 层融合。

批处理规格化层将跨小批处理的每个输入通道规格化。

仅在卷积层之前仅支持批量归一化层。金宝app

是的

crossChannelNormalizationLayer

h 卷积(Conv)

频道明智的本地响应(跨通道)归一化层执行通道明智的归一化。

windowchinnelsize.必须在代码生成的3-9范围内。

是的。以HW为单个数据类型运行。

dropoutLayer

等待在推理 等待在推理

dropout层在给定的概率内将输入元素随机设置为零。

是的

池化和非池化层

硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

maxPooling2dLayer

h 卷积(Conv)

最大池化层通过将层输入划分为矩形池化区域并计算每个区域的最大值来执行向下采样。

当使用此层为网络生成代码时,有以下限制:

  • 游泳池大小必须是1-15和正方形。例如[1 1]或[12 12]。

  • 步幅必须为1-15,且为方形。

  • 填充大小必须在0-2范围内。

是的

普通Pooling2dlayer.

h 卷积(Conv)

平均池化层通过将层输入划分为矩形池化区域并计算每个区域的平均值来执行向下采样。

当使用此层为网络生成代码时,有以下限制:

  • 游泳池大小必须是1-15和正方形。例如[3 3]

  • 步幅必须为1-15,且为方形。

  • 填充大小必须在0-2范围内。

是的

globalAveragePooling2dLayer

h 卷积(Conv)或完全连接(FC)。当输入激活大小小于内存阈值时,层输出格式为FC。

全局平均池化层通过计算输入的高度和宽度维度的平均值来执行下采样。

当使用此层为网络生成代码时,有以下限制:

  • 可接受最大尺寸为15 × 15 × n的输入。

  • 总激活像素大小必须小于深度学习处理器卷积模块的输入内存大小。有关更多信息,请参见InputMemorySize

是的

结合层

硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

附加学者

h 继承输入。

加法层以元素的方式增加来自多个神经网络层的输入。

您现在可以生成此图层的代码int8当该层与Leaky ReLU或Clipped ReLU层组合时,数据类型。

当使用此层为网络生成代码时,有以下限制:

  • 两个输入图层都必须具有相同的输出层格式。例如,这两层都必须具有CONV输出格式或FC输出格式。

是的

depthConcatenationLayer

h 继承输入。

深度级联层采用具有相同高度和宽度的输入,并沿着第三尺寸(通道维度)连接它们。

当使用此层为网络生成代码时,有以下限制:

  • 输入的激活特性号必须是。的平方根的倍数ConvThreadNumber

  • 深度级联层的输入必须是深度级联层。

  • 具有conv输出格式的层和具有FC输出格式的层不能连接在一起。

是的

输出层

硬件(HW)或软件(SW) 描述和局限性 INT8兼容

softmax

SW和HW.

Softmax层将SoftMax函数应用于输入。

如果softmax层是硬件实现的:

  • 输入必须在范围内exp (-87)exp (88)

  • 不支持Softmax层、加法器层或深度级联层。金宝app

是的。在SW中作为单个数据类型运行。

classificationLayer

西南

分类层计算具有互斥类的多字节分类问题的跨熵损失。

是的

regressionLayer

西南

回归层计算回归问题的一半均方误差损失。

是的

Keras和Onnx层

硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容
nnet.keras.layer.FlattenCStyleLayer h 层会熔化

假设C-Sique(Row-Major)订单,将激活变为1-D层。

一个nnet.keras.layer.FlattenCStyleLayer仅当后金宝app面跟着一个完全连接的层时才支持。

是的

nnet.keras.layer.zeropadding2dlayer. h 层将被熔化。

用于2-D输入的零填充层。

一个nnet.keras.layer.zeropadding2dlayer.仅当后金宝app跟卷积层或maxpool层时支持。

是的

金宝app支持的董事会

这些板是深入学习HDL工具箱支持的金宝app支持:

  • Xilinx Zynq.®-7000年ZC706

  • 英特尔Arria®10 SOC.

  • Xilinx Zynq UltraScale+™MPSoC ZCU102

第三方合成工具和版本支持金宝app

深度学习HDL工具箱已测试与:

  • Xilinx Vivado设计套件2020.1

  • 英特尔Quartus Prime 18.1

相关的话题