主要内容

金宝app支持网络、层板、和工具

金宝app支持Pretrained网络

深度学习HDL工具箱™支持系列的代码生成卷积神经网络(金宝appcnn或回旋网)。您可以生成任何代码训练CNN的计算层支持代码生成。金宝app一个完整的列表,请参阅金宝app支持层。您可以使用一个表中列出的pretrained网络为目标英特尔生成代码®或Xilinx®FPGA板。

网络 网络描述 类型 单一数据类型(航运比特流) INT8数据类型(航运比特流) 应用领域
ZCU102 ZC706 Arria10 SoC ZCU102 ZC706 Arria10 SoC 分类
AlexNet

AlexNet卷积神经网络。

系列网络 是的 是的 是的 是的 是的 是的 分类
LogoNet

标志识别网络(LogoNet)是MATLAB®发达标志识别网络。有关更多信息,请参见标志识别网络

系列网络 是的 是的 是的 是的 是的 是的 分类
DigitsNet

数字分类网络。看到创建简单的深度学习网络分类

系列网络 是的 是的 是的 是的 是的 是的 分类
车道检测

LaneNet卷积神经网络。有关更多信息,请参见车道检测部署转移学习网络

系列网络 是的 是的 是的 是的 是的 是的 分类
VGG-16

VGG-16卷积神经网络。为pretrained VGG-16模型,明白了vgg16

系列网络 不。网络超过PL DDR内存大小 不。网络超过FC模块内存大小。 是的 是的 不。网络超过FC模块内存大小。 是的 分类
VGG-19

VGG-19卷积神经网络。为pretrained VGG-19模型,明白了vgg19

系列网络 不。网络超过PL DDR内存大小 不。网络超过FC模块内存大小。 是的 是的 不。网络超过FC模块内存大小。 是的 分类
Darknet-19

Darknet-19卷积神经网络。为pretrained darknet-19模型,明白了darknet19

系列网络 是的 是的 是的 是的 是的 是的 分类
雷达的分类 卷积神经网络,使用微多普勒特征识别和分类的对象。有关更多信息,请参见骑自行车和行人分类利用FPGA 系列网络 是的 是的 是的 是的 是的 是的 分类和软件定义无线电(SDR)
缺陷检测snet_defnet snet_defnet是一个自定义AlexNet网络用于识别和分类的缺陷。有关更多信息,请参见缺陷检测 系列网络 是的 是的 是的 是的 是的 是的 分类
缺陷检测snet_blemdetnet snet_blemdetnet是一个定制的卷积神经网络用于识别和分类的缺陷。有关更多信息,请参见缺陷检测 系列网络 是的 是的 是的 是的 是的 是的 分类
YOLO v2意思车辆检测 你看起来只有一次(YOLO)意思是对象探测器,解码卷积神经网络的预测并生成边界框的对象。有关更多信息,请参见车辆检测使用YOLO v2部署到FPGA的意思 系列网络基础 是的 是的 是的 是的 是的 是的 对象检测
DarkNet-53 Darknet-53卷积神经网络。为pretrained DarkNet-53模型,明白了darknet53 基于有向无环图(DAG)网络 不。网络超过PL DDR内存大小。 不。网络完全连接层超过内存大小。 是的 是的 不。网络完全连接层超过内存大小。 是的 分类
ResNet-18 ResNet-18卷积神经网络。为pretrained ResNet-18模型,明白了resnet18 基于有向无环图(DAG)网络 是的 是的 是的 是的 是的 分类
ResNet-50 ResNet-50卷积神经网络。为pretrained ResNet-50模型,明白了resnet50 基于有向无环图(DAG)网络 不。网络超过PL DDR内存大小。 不。网络超过PL DDR内存大小。 是的 是的 是的 是的 分类
ResNet-based YOLO v2意思 你看起来只有一次(YOLO)意思是对象探测器,解码卷积神经网络的预测并生成边界框的对象。有关更多信息,请参见车辆检测使用基于DAG网络YOLO v2意思部署到FPGA 基于有向无环图(DAG)网络 是的 是的 是的 是的 是的 是的 对象检测
MobileNetV2 MobileNet-v2卷积神经网络。为pretrained MobileNet-v2模型,明白了mobilenetv2 基于有向无环图(DAG)网络 是的 不。完全连接层超过PL DDR内存大小。 是的 没有 不。完全连接层超过PL DDR内存大小。 没有 分类
GoogLeNet GoogLeNet卷积神经网络。为pretrained GoogLeNet模型,明白了googlenet

金宝app支持层

深度学习HDL工具箱支持这些表中列出的层。金宝app

输入层

层类型硬件(HW)或软件(SW) 描述和局限性 INT8兼容

imageInputLayer

西南

图像输入层输入二维图像网络和应用数据规范化。

是的。在西南经营成一个数据类型。

卷积和完全连接层

层类型硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

convolution2dLayer

HW 卷积(Conv)

一个二维卷积层滑动卷积过滤器适用于输入。

在生成代码时使用这个网络层,这些限制适用:

  • 过滤器尺寸必须保护和广场。例如[1]或[15 15]。

  • 步幅大小必须保护和广场。

  • 填充大小必须在主范围。

  • 膨胀系数必须[1]。

  • 填充不支持价值。金宝app

是的

groupedConvolution2dLayer

HW 卷积(Conv)

一层二维分组卷积分离输入通道进入组织和应用滑动卷积过滤器。使用分组卷积层channel-wise分离(也称为深度方面可分)卷积。

现在支持代码生成的二维卷积层分组金宝appNumGroups属性设置为“channel-wise”

在生成代码时使用这个网络层,这些限制适用:

  • 过滤器尺寸必须保护和广场。例如[1]或[14]14。当NumGroups是设置为“channel-wise”必须3 - 14,过滤器的大小。

  • 步幅大小必须保护和广场。

  • 填充大小必须在主范围。

  • 膨胀系数必须[1]。

  • 组织必须1或2。

  • 输入特征数量必须大于单一的平方根的倍数ConvThreadNumber

  • NumGroups不是设置为“channel-wise”,每组必须是一个多个过滤器的数量的平方根ConvThreadNumber

是的

fullyConnectedLayer

HW 完全连接(FC)

一个完全连接层增加权重矩阵的输入,然后添加一个偏差向量。

在生成代码时使用这个网络层,这些限制适用:

是的

激活层

层类型硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

reluLayer

HW 层是融合。

ReLU层进行阈值操作每个元素的输入任何值小于零设置为零。

支持ReLU层只有当它是之前任何金宝app这些层:

  • 卷积

  • 完全连接

  • 加法器

是的

leakyReluLayer

HW 层是融合。

漏水的ReLU层执行一个阈值操作,任何输入值小于零乘以一个固定的标量。

漏水的ReLU层支持只有当它是之前任何这些层金宝app:

  • 卷积

  • 完全连接

  • 加法器

是的

clippedReluLayer

HW 层是融合。

剪ReLU层执行一个阈值操作,任何输入值小于零设置为零,任何值高于剪切的剪切上限设置为上限价值。

支持剪ReLU层只有当它是之前任何这些层:金宝app

  • 卷积

  • 完全连接

  • 加法器

是的

正常化,辍学,种植层

层类型硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

batchNormalizationLayer

HW 层是融合。

一批标准化层规范化mini-batch每个输入通道。

支持一批标准化层之前只有当它是一个卷积层。金宝app

是的

crossChannelNormalizationLayer

HW 卷积(Conv)

channel-wise当地响应(交叉流道)归一化层进行channel-wise正常化。

WindowChannelSize必须在3 - 9代码生成。

是的。运行在HW单一数据类型。

dropoutLayer

等待在推理 等待在推理

一个辍学层随机集输入元素在一个给定的概率为零。

是的

池和Unpooling层

层类型硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

maxPooling2dLayer

HW 卷积(Conv)

最大池层执行downsampling除以输入矩形池区域和计算每个区域的最大。

在生成代码时使用这个网络层,这些限制适用:

  • 池的大小必须保护和广场。例如[1]或[12 12]。

  • 步幅大小必须保护和广场。

  • 填充大小必须在范围0 - 2。

是的

averagePooling2dLayer

HW 卷积(Conv)

平均淤积一层一层执行downsampling除以输入矩形池区域和计算每个区域的平均值。

在生成代码时使用这个网络层,这些限制适用:

  • 池的大小必须保护和广场。例如3 [3]

  • 步幅大小必须保护和广场。

  • 填充大小必须在范围0 - 2。

是的

globalAveragePooling2dLayer

HW 卷积(Conv)或完全连接(FC)。当输入激活低于内存阈值大小,FC层输出格式。

全球平均池层执行将采样通过计算平均高度和宽度尺寸的输入。

在生成代码时使用这个网络层,这些限制适用:

  • 15-by-15-by-N可以接受输入的大小。

  • 总激活像素大小必须小于深度学习处理器卷积模块输入内存大小。有关更多信息,请参见InputMemorySize

是的

结合层

层类型硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容

additionLayer

HW 继承输入。

除了一层来自多个神经网络的输入层element-wise补充道。

现在,您可以为该层所生成的代码int8数据类型结合层时漏ReLU或剪ReLU层。

在生成代码时使用这个网络层,这些限制适用:

  • 输入层必须有相同的输出层格式。例如,两层必须conv输出格式或fc输出格式。

是的

depthConcatenationLayer

HW 继承输入。

深度连接层需要输入,有相同的高度和宽度和连接他们的第三个维度(通道尺寸)。

在生成代码时使用这个网络层,这些限制适用:

  • 输入激活特性一定数量的平方根的倍数ConvThreadNumber

  • 输入深度连接层必须独家深度连接层。

  • 层有conv输出格式和层有一个FC输出格式不能被连接在一起。

是的

输出层

层类型硬件(HW)或软件(SW) 描述和局限性 INT8兼容

softmax

西南和HW

softmax层softmax函数适用于输入。

如果将softmax层是在硬件中实现:

  • 输入必须在范围内exp (-87)exp (88)

  • Softmax层之后,加法器层不支持或深度连接层。金宝app

是的。在西南经营成一个数据类型。

classificationLayer

西南

一个分类层计算熵损失有互斥类的多类分类问题。

是的

regressionLayer

西南

一层回归计算均方误差损失一半回归问题。

是的

Keras和ONNX层

层类型硬件(HW)或软件(SW) 层输出格式 描述和局限性 INT8兼容
nnet.keras.layer.FlattenCStyleLayer HW 层将融合

平激活成一维层假设c风格的(行)。

一个nnet.keras.layer.FlattenCStyleLayer只有当金宝app它是紧随其后的是一个完全支持连接层。

是的

nnet.keras.layer.ZeroPadding2dLayer HW 层将会融合。

零填充层为二维输入。

一个nnet.keras.layer.ZeroPadding2dLayer只有当金宝app它是支持了卷积层或maxpool层。

是的

金宝app支持董事会

这些板是由深度学习HDL工具箱:金宝app

  • Xilinx Zynq®-7000年ZC706

  • 英特尔Arria®10 SoC

  • Xilinx Zynq UltraScale +™MPSoC ZCU102

第三方综合工具和版本的支持金宝app

深度学习HDL工具箱已经测试:

  • 2020.1 Xilinx Vivado设计套件

  • 英特尔第四的' 18.1

相关的话题