主要内容

深度学习自定义训练循环

定制深度学习训练循环和损失函数

如果trainingOptions函数不提供任务所需的训练选项,或自定义输出层不支持所需的损失函数,则可以定义自定义训练循环。金宝app对于不能使用层图创建的网络,可以将自定义网络定义为函数。要了解更多信息,请参见定义自定义训练循环、损失函数和网络

功能

全部展开

dlnetwork 用于定制训练循环的深度学习网络
resetState 复位神经网络状态参数
情节 图神经网络结构
addInputLayer 为网络添加输入层
addLayers 在图层图或网络中添加图层
removeLayers 从图层图或网络中删除图层
connectLayers 在层图或网络中连接层
disconnectLayers 断开层图或网络中的层
replaceLayer 在层图或网络中替换层
总结 打印网络摘要
初始化 初始化的可学习参数和状态参数dlnetwork
networkDataLayout 深度学习网络数据布局可学习参数初始化
向前 计算用于训练的深度学习网络输出
预测 计算用于推理的深度学习网络输出
adamupdate 使用自适应矩估计更新参数(Adam)
rmspropupdate 使用均方根传播(RMSProp)更新参数
sgdmupdate 使用随机动量梯度下降(SGDM)更新参数
dlupdate 使用自定义函数更新参数
minibatchqueue 为深度学习创建小批量
onehotencode 将数据标签编码为一个热向量
onehotdecode 将概率向量解码为类标签
padsequences 填充或截断序列数据到相同的长度
trainingProgressMonitor 监控并绘制深度学习自定义训练循环的训练进度
dlarray 用于定制训练循环的深度学习阵列
dlgradient 使用自动区分计算自定义训练循环的梯度
dlfeval 评估自定义训练循环的深度学习模型
会变暗 尺寸标签dlarray
finddim 查找带有指定标签的尺寸
stripdims 删除dlarray数据格式
extractdata dlarray
isdlarray 检查对象是否为dlarray
functionToLayerGraph 将深度学习模型函数转换为层图
dlconv 深度学习卷积
dltranspconv 深度学习转置卷积
lstm 长短期记忆
格勒乌 门控循环装置
注意 点积的关注
嵌入 嵌入离散数据
fullyconnect 求和所有加权输入数据并应用偏差
dlode45 非刚性常微分方程(ODE)的深度学习解
线性整流函数(Rectified Linear Unit) 应用整流线性单元激活
leakyrelu 应用泄漏整流线性单元激活
gelu 应用高斯误差线性单元(GELU)激活
batchnorm 对每个通道的所有观测数据进行独立的归一化
crosschannelnorm 使用本地响应进行跨信道方规范化
groupnorm 为每个观察单独地在分组的信道子集上标准化数据
instancenorm 对每个观察单独在每个通道上进行归一化
layernorm 为每个观察独立地规范化所有通道的数据
avgpool 将数据池化为空间维度上的平均值
maxpool 将数据池到最大值
maxunpool 取消最大池化操作的输出
softmax 应用softmax激活通道维度
乙状结肠 应用sigmoid激活
乙状结肠 应用sigmoid激活
crossentropy 分类任务的交叉熵损失
l1loss l1回归任务损失
l2loss l2回归任务损失
休伯 回归任务的Huber损失
均方误差 半均方误差
ctc 无序序列分类中的连接主义时间分类(CTC)损失
dlaccelerate 为定制训练循环加速深度学习功能
AcceleratedFunction 加速深度学习功能
clearCache 清晰的加速深度学习函数跟踪缓存

主题

自定义训练循环

模型函数

自动分化

深度学习函数加速