深度学习导入,导出,和自定义

进口,出口,并自定义深学习网络,以及自定义层,培养循环,而丧失功能

从TensorFlow™-Keras,来自Caffe和ONNX™(开放式神经网络交换)模型格式导入网络和网络架构。您还可以导出一个训练有素的深度学习工具箱™网络向ONNX模型格式。

您可以为您的问题定义自己的深度学习层。您可以使用自定义输出层指定自定义的损失函数,定义有或没有可以学习的参数自定义图层。例如,可以使用具有用于分类问题加权交叉熵损失的自定义分类加权层用的类的不平衡分布。定义自定义层之后,可以检查该层是有效的,GPU兼容,并输出正确定义梯度。

如果trainingOptions功能不提供培训选项,你需要为你的任务,或自定义输出层不支持的损失函数,你需要,那么你可以自定义一个训练循环。金宝app对于不能使用层图来创建网络,您可以自定义网络的功能。要了解更多信息,请参阅定义定制培训循环,损失函数,与网络

功能

展开全部

importKerasNetwork 导入预训练Keras网络和权重
importKerasLayers 从Keras网络导入层
importCaffeNetwork 进口预训练卷积神经网络模型从来自Caffe
importCaffeLayers 导入从来自Caffe卷积神经网络层
importONNXNetwork 进口预训练ONNX网络
importONNXLayers 从进口层ONNX网络
exportONNXNetwork 出口网络ONNX模型格式
findPlaceholderLayers 查找网络架构占位符层从Keras或进口ONNX
replaceLayer 替换层图形层
assembleNetwork 从装配层预训练的深度学习网
PlaceholderLayer 层替换不受支持Keras层,金宝appONNX层,或由不支持的功能金宝appfunctionToLayerGraph
checkLayer 检查定制层的有效性
setLearnRateFactor 集学习层可以学习的参数的速率因子
setL2Factor 层可学习参数的集合L2正规化因子
getLearnRateFactor 获取学习层可以学习的参数的速率因子
getL2Factor 获取层可学习参数的L2正规化因子
dlnetwork 深度学习网络定制培训圈
向前 计算深学习培训网络输出
预测 计算深学习推理网络输出
adamupdate 采用自适应矩估计更新参数(亚当)
rmspropupdate 使用均方根传播更新参数(RMSProp)
sgdmupdate 使用随机梯度下降动量更新参数(SGDM)
dlupdate 使用自定义功能更新参数
dlarray 深度学习阵列定制培训圈
dlgradient 定制培训循环计算梯度使用自动分化
dlfeval 评估的定制培训圈深度学习模型
dlmtimes 批矩阵乘法深学习
DIMS 尺寸的标签dlarray
finddim 找到指定的标签尺寸
stripdims 去掉dlarray标签
ExtractData由 从提取数据dlarray
functionToLayerGraph 转换深学习模式功能的层图
dlconv 深度学习卷积
dltranspconv 深度学习换位卷积
LSTM 长短期记忆
GRU 封闭式重复单元
fullyconnect 总结所有的加权输入数据,并施加偏置
RELU 适用整流线性单元激活
leakyrelu 应用泄漏整流线性单元激活
batchnorm 标准化输入数据的每个信道
crosschannelnorm 跨渠道方正常化利用当地回应
avgpool 池数据通过空间维度的平均值
maxpool 池数据最大值
maxunpool Unpool最大池操作的输出
SOFTMAX 适用SOFTMAX激活通道尺寸
crossentropy 对于分类任务交叉熵损失
乙状结肠 应用乙状结肠激活
MSE 半均方误差

主题

自定义图层

定义自定义深层次学习

了解如何定义自定义深层学习层。

检查自定义层面进行合法性

了解如何查看自定义深层学习层的有效性。

定义与可学习参数自定义深层学习层

此示例示出了如何定义PReLU层并且在卷积神经网络使用它。

定义多输入自定义深层学习层

该示例示出了如何定义自定义加权相加层并且在卷积神经网络使用它。

定义自定义分类输出层

这个例子展示了如何用平方误差(SSE)损失总和定义自定义分类输出层并且在卷积神经网络使用它。

定义自定义加权分类层

此示例示出了如何定义和创建与加权交叉熵损失的自定义加权分类输出层。

定义自定义回归输出层

该示例示出了如何定义与平均绝对误差(MAE)损失的自定义回归输出层并且在卷积神经网络使用它。

指定自定义层后退功能

此示例示出了如何定义PReLU层和指定自定义后退功能。

指定自定义输出层反方向损失函数

该示例示出了如何定义的加权分类层和指定定制向后损失函数。

网络培训大会

火车剖成对抗性网络(GAN)

此示例示出了如何训练生成对抗网络(GAN),以生成图像。

列车条件剖成对抗性网络(CGAN)

此示例示出了如何培养条件生成对抗网络(CGAN),以生成图像。

培养出连体网络降维

这个例子显示了如何培养一个连体的网络使用降维来比较手写的数字。

培养出连体网络比较图片

此示例示出了如何训练连体网络识别的手写字符相似的图像。

定义定制培训循环,损失函数,与网络

了解如何定义和使用自动分化定制深度学习培训循环,损失的功能,和网络。

指定定制培训环路培训选项

了解如何指定自定义的训练循环共同培训方案。

列车网络使用自定义训练循环

这个例子显示了如何培养一个网络,以进行分类定制学习费率表手写的数字。

更新批标准化统计的定制培训环路

这个例子说明了如何更新定制培训环路的网络状态。

作出预测使用dlnetwork对象

这个例子说明了如何使用做出预测dlnetwork通过拆分数据为微型批对象。

列车网络使用型号功能

此示例示出了如何创建和使用的功能,而不是层图形或训练深度学习网络dlnetwork

更新批标准化统计使用型号功能

这个例子展示了如何定义为一个功能的网络中更新网络状态。

作出预测使用型号功能

这个例子展示了如何使用通过拆分数据模型的功能到小型批次的预测。

比较层重量初始化器

这个例子说明了如何培养具有不同的权重初始化深刻的学习网络。

指定自定义权重初始化函数

这个例子说明了如何创建一个自定义他的重量初始化函数卷积层,然后漏RELU层。

从预训练Keras层组装网

这个例子展示了如何从一个预训练的Keras网络导入层,用定制层替代不支持层,并且这些层组装成准备用于预测的网络。金宝app

多输入多输出网络

多输入多输出网络

了解如何定义并与多个输入或多个输出培训深度学习网络。

列车网络提供多路输出

此示例示出了如何训练深度学习网络与预测二者的标签和的手写体数字旋转角度的多个输出。

组装多输出网络的预测

相反,使用用于预测模型的功能,你可以组装网络成DAGNetwork准备使用该预测functionToLayerGraphassembleNetwork功能。

自动微分

自动微分背景

了解如何区分自动工作。

使用自动分化深度学习工具箱

如何使用深度学习自动分化。

与dlarray支持功能列表金宝app

查看功能的列表支持金宝appdlarray对象。

毕业生-CAM揭示了为什么深度学习决策背后

这个例子说明了如何使用梯度加权级激活映射(梯度-CAM)技术理解为什么一个深刻的学习网络,使得它的分类决定。

精选示例