主要内容

自定义训练循环

自定义深度学习训练循环和损失函数

如果trainingOptions功能不提供训练选项,你需要你的任务,或自定义输出层不支持所需要的损失函数,你可以定义一个自定义训练循环。金宝app模型层图不支持,您可以定义一个自定义模型作为一个函数。金宝app欲了解更多,请看自定义训练循环,损失函数和网络

功能

全部展开

dlnetwork 深入学习网络定制培训循环
resetState 重置状态参数的神经网络
情节 情节神经网络架构
addInputLayer 添加输入层网络
addLayers 添加层或网络层图
removeLayers 删除图层图层图或网络
connectLayers 连接或网络层在层图
disconnectLayers 断开连接或网络层在层图
replaceLayer 替换或网络层在层图
总结 打印网络总结
初始化 可学的和状态参数进行初始化dlnetwork
networkDataLayout 深入学习网络参数初始化数据布局可学的
layerGraph 图深度学习的网络层
setL2Factor L2的正则化因子层可学的参数设置
getL2Factor 得到了L2正则化因子层可学的参数
setLearnRateFactor 学习速率因子层可学的参数设置
getLearnRateFactor 得到学习速率因子层可学的参数
向前 计算深度学习网络输出进行训练
预测 计算深度学习网络输出推理
adamupdate 使用自适应更新参数矩估计(亚当)
rmspropupdate 更新参数使用根均方传播(RMSProp)
sgdmupdate 更新参数使用随机梯度下降法和动力(个)
lbfgsupdate 更新参数使用内存有限bfg (L-BFGS)
lbfgsState 内存有限的高炉煤气(L-BFGS)解算器
dlupdate 更新参数使用自定义函数
trainingProgressMonitor 监控和情节培训进展深度学习定制培训循环
updateInfo 自定义训练循环更新信息值
recordMetrics 定制培训记录度量值循环
groupSubPlot 集团在培训指标的阴谋
padsequences 垫或截断数据序列长度相同
minibatchqueue 创建mini-batches深度学习
onehotencode 编码数据标签在一个炎热的向量
onehotdecode 解码概率向量类标签
下一个 获取下一个mini-batch minibatchqueue的数据
重置 重置minibatchqueue开始的数据
洗牌 洗牌minibatchqueue数据
hasdata 确定minibatchqueue可以返回mini-batch
分区 分区minibatchqueue
dlarray 深度学习数组定制
dlgradient 计算梯度为自定义训练循环使用自动分化
dlfeval 评估深度学习循环模型定制培训
会变暗 尺寸的标签dlarray
finddim 发现尺寸与指定的标签
stripdims 删除dlarray数据格式
extractdata 从中提取数据dlarray
isdlarray 检查对象是否dlarray
crossentropy 叉损失分类任务
l1loss l1损失为回归任务
l2loss l2损失为回归任务
休伯 Huber损失回归任务
均方误差 一半的均方误差
ctc 联结主义的分类(CTC)损失对齐序列分类
dlaccelerate 促进深度学习函数自定义训练循环
AcceleratedFunction 加速深度学习函数
clearCache 明显加速深度学习函数跟踪缓存

主题

自定义训练循环

自动分化

深度学习函数加速度

相关信息