深度学习导入、导出和定制

进口,出口,并自定义深学习网络,以及自定义层,培养循环,而丧失功能

从TensorFlow™-Keras,来自Caffe和ONNX™(开放式神经网络交换)模型格式导入网络和网络架构。您还可以导出一个训练有素的深度学习工具箱™网络向ONNX模型格式。

您可以为您的问题定义自己的深度学习层。您可以使用自定义输出层指定自定义的损失函数,定义有或没有可以学习的参数自定义图层。例如,可以使用具有用于分类问题加权交叉熵损失的自定义分类加权层用的类的不平衡分布。定义自定义层之后,可以检查该层是有效的,GPU兼容,并输出正确定义梯度。

如果trainingOptions功能不提供培训选项,你需要为你的任务,或自定义输出层不支持的损失函数,你需要,那么你可以自定义一个训练循环。金宝app对于不能使用层图来创建网络,您可以自定义网络的功能。要了解更多信息,请参阅定义自定义的训练循环、损失函数和网络

功能

展开全部

importKerasNetwork 导入一个预先训练好的Keras网络和权重
importKerasLayers 从Keras网络导入层
importCaffeNetwork 进口预训练卷积神经网络模型从来自Caffe
importCaffeLayers 导入从来自Caffe卷积神经网络层
importONNXNetwork 进口预训练ONNX网络
importONNXLayers 从进口层ONNX网络
exportONNXNetwork 出口网络ONNX模型格式
findPlaceholderLayers 查找网络架构占位符层从Keras或进口ONNX
replaceLayer 替换层图形层
assembleNetwork 从装配层预训练的深度学习网
PlaceholderLayer 层替换不受支持Keras层,金宝appONNX层,或不支持的功能金宝appfunctionToLayerGraph
checkLayer 检查定制层的有效性
setLearnRateFactor 集学习层可以学习的参数的速率因子
setL2Factor 层可学习参数的集合L2正规化因子
getLearnRateFactor 获取学习层可以学习的参数的速率因子
getL2Factor 得到层可学习参数L2正则化因子
dlnetwork 深度学习网络定制培训圈
向前 计算用于培训的深度学习网络输出
预测 计算深学习推理网络输出
adamupdate 采用自适应矩估计更新参数(亚当)
rmspropupdate 使用均方根传播更新参数(RMSProp)
sgdmupdate 使用随机梯度下降动量更新参数(SGDM)
dlupdate 使用自定义功能更新参数
dlarray 用于自定义训练循环的深度学习数组
dlgradient 定制培训循环计算梯度使用自动分化
dlfeval 评估的定制培训圈深度学习模型
dlmtimes 批矩阵乘法深学习
DIMS 尺寸的标签dlarray
finddim 找到指定的标签尺寸
stripdims 去掉dlarray标签
ExtractData由 从提取数据dlarray
functionToLayerGraph 将深度学习模型函数转换为层图
dlconv 深度学习卷积
dltranspconv 深度学习换位卷积
LSTM 长短期记忆
GRU 封闭式重复单元
fullyconnect 对所有加权输入数据求和并应用偏差
RELU 适用整流线性单元激活
leakyrelu 应用泄漏整流线性单元激活
batchnorm 标准化输入数据的每个信道
crosschannelnorm 使用局部响应进行跨通道平方正常化
avgpool 池数据通过空间维度的平均值
maxpool 池数据到最大值
maxunpool Unpool最大池操作的输出
SOFTMAX 适用SOFTMAX激活通道尺寸
crossentropy 对于分类任务交叉熵损失
乙状结肠 应用乙状结肠激活
均方误差 半均方误差

主题

自定义图层

定义自定义深层次学习

学习如何定义自定义深度学习层。

检查自定义层面进行合法性

学习如何检查自定义深度学习层的有效性。

定义与可学习参数自定义深层学习层

此示例示出了如何定义PReLU层并且在卷积神经网络使用它。

定义多输入自定义深层学习层

这个例子展示了如何定义一个自定义加权加法层,并在卷积神经网络中使用它。

定义自定义分类输出层

这个例子展示了如何用平方误差(SSE)损失总和定义自定义分类输出层并且在卷积神经网络使用它。

定义自定义加权分类层

这个例子展示了如何定义和创建一个带有加权交叉熵损失的自定义加权分类输出层。

定义自定义回归输出层

该示例示出了如何定义与平均绝对误差(MAE)损失的自定义回归输出层并且在卷积神经网络使用它。

指定自定义层后退功能

这个例子展示了如何定义一个PReLU层并指定一个定制的向后函数。

指定自定义输出层后向损耗函数

这个例子展示了如何定义一个加权的分类层和指定一个自定义的向后丢失函数。

网络培训与装配

火车剖成对抗性网络(GAN)

这个例子展示了如何训练一个生成对抗网络(GAN)来生成图像。

训练条件生成对抗网络(CGAN)

此示例示出了如何培养条件生成对抗网络(CGAN),以生成图像。

培养出连体网络降维

这个例子显示了如何培养一个连体的网络使用降维来比较手写的数字。

训练一个暹罗网络来比较图片

此示例示出了如何训练连体网络识别的手写字符相似的图像。

定义自定义的训练循环、损失函数和网络

了解如何定义和使用自动分化定制深度学习培训循环,损失的功能,和网络。

指定定制培训环路培训选项

了解如何指定自定义的训练循环共同培训方案。

列车网络使用自定义训练循环

这个例子展示了如何训练一个使用自定义学习速率计划对手写数字进行分类的网络。

更新批标准化统计的定制培训环路

这个例子展示了如何在一个自定义训练循环中更新网络状态。

使用dlnetwork对象进行预测

这个例子说明了如何使用做出预测dlnetwork通过拆分数据为微型批对象。

列车网络使用模型函数

此示例示出了如何创建和使用的功能,而不是层图形或训练深度学习网络dlnetwork

更新批标准化统计使用型号功能

这个例子展示了如何在一个定义为函数的网络中更新网络状态。

作出预测使用型号功能

这个例子展示了如何使用通过拆分数据模型的功能到小型批次的预测。

比较图层权重初始化器

这个例子展示了如何用不同的权值初始化器训练深度学习网络。

指定自定义权重初始化函数

这个例子说明了如何创建一个自定义他的重量初始化函数卷积层,然后漏RELU层。

从预训练Keras层组装网

这个例子展示了如何从一个预训练的Keras网络导入层,用定制层替代不支持层,并且这些层组装成准备用于预测的网络。金宝app

多输入多输出网络

多输入多输出网络

学习如何定义和训练具有多个输入或输出的深度学习网络。

列车网络提供多路输出

此示例示出了如何训练深度学习网络与预测二者的标签和的手写体数字旋转角度的多个输出。

组装多输出网络的预测

相反,使用用于预测模型的功能,你可以组装网络成DAGNetwork准备使用该预测functionToLayerGraphassembleNetwork功能。

自动分化

自动微分背景

了解如何区分自动工作。

使用自动分化深度学习工具箱

如何使用深度学习自动分化。

支持dlarray的函数列表金宝app

查看功能的列表支持金宝appdlarray对象。

毕业生-CAM揭示了为什么深度学习决策背后

这个例子说明了如何使用梯度加权级激活映射(梯度-CAM)技术理解为什么一个深刻的学习网络,使得它的分类决定。

精选示例