主要内容

深層学習のカスタム学習ル,プ

深層学習の学習ルプおよび損失関数のカスタマズ

タスクに必要な学習オプションが関数trainingOptionsに用意されていない場合,または必要な損失関数をカスタム出力層がサポートしていない場合,カスタム学習ループを定義できます。層グラフを使用して作成できないネットワ,クの場合,カスタムネットワ,クを関数として定義できます。詳細にいては,カスタム学習ル,プ,損失関数,およびネットワ,クの定義を参照してください。

関数

すべて展開する

dlnetwork カスタム学習ル,プ向けの深層学習ネットワ,ク
resetState ニュ,ラルネットワ,クの状態パラメ,タ,のリセット
情节 ニュ,ラルネットワ,クア,キテクチャのプロット
addInputLayer 为网络添加输入层
addLayers 在图层图或网络中添加图层
removeLayers 層グラフまたはネットワ,クからの層の削除
connectLayers 層グラフまたはネットワ,クの層の結合
disconnectLayers 層グラフまたはネットワ,クの層の切り離し
replaceLayer 層グラフまたはネットワ,クの層の置き換え
总结 打印网络摘要
初始化 dlnetworkの学習可能なパラメ,タ,と状態パラメ,タ,の初期化
networkDataLayout 深度学习网络数据布局可学习参数初始化
向前 学習用の深層学習ネットワ,ク出力の計算
预测 推論用の深層学習ネットワ,ク出力の計算
adamupdate 適応モ,メント推定(亚当)を使用してパラメ,タ,を更新する
rmspropupdate 使用均方根传播(RMSProp)更新参数
sgdmupdate モメンタム項付き確率的勾配降下法(sgdm)を使用してパラメタを更新する
dlupdate 使用自定义函数更新参数
minibatchqueue 深層学習用のミニバッチの作成
onehotencode 一热ベクトルへのデタラベルの符号化
onehotdecode クラスラベルへの確率ベクトルの復号化
padsequences 填充或截断序列数据到相同的长度
trainingProgressMonitor 监控并绘制深度学习自定义训练循环的训练进度
dlarray カスタム学習ル,プ用の深層学習配列
dlgradient 自動微分を使用したカスタム学習ル,プの勾配の計算
dlfeval カスタム学習ル,プ用の深層学習モデルの評価
会变暗 dlarrayの次元ラベル
finddim 指定されたラベルをも次元の検索
stripdims dlarrayデ,タ形式の削除
extractdata dlarrayからのデ,タの抽出
isdlarray 检查对象是否为dlarray
functionToLayerGraph 将深度学习模型函数转换为层图
dlconv 深度学习卷积
dltranspconv 深度学习转置卷积
lstm 長短期記憶
格勒乌 ゲ,ト付き回帰型ユニット
注意 点积的关注
嵌入 嵌入离散数据
fullyconnect すべての重み付き入力デタの加算とバアスの適用
dlode45 非刚性常微分方程(ODE)的深度学习解
线性整流函数(Rectified Linear Unit) 正規化線形ユニット活性化の適用
leakyrelu 漏洩(泄漏)正規化線形ユニット活性化の適用
gelu 应用高斯误差线性单元(GELU)激活
batchnorm 对每个通道的所有观测数据进行独立的归一化
crosschannelnorm 使用本地响应进行跨信道方规范化
groupnorm 为每个观察单独地在分组的信道子集上标准化数据
instancenorm 对每个观察单独在每个通道上进行归一化
layernorm 为每个观察独立地规范化所有通道的数据
avgpool 将数据池化为空间维度上的平均值
maxpool 将数据池到最大值
maxunpool 最大プ,リング演算の出力の逆プ,リング
softmax チャネル次元へのソフトマックス活性化の適用
乙状结肠 シグモ@ @ド活性化の適用
乙状结肠 シグモ@ @ド活性化の適用
crossentropy 分類タスク用の交差エントロピ,損失
l1loss l1回归任务损失
l2loss l2回归任务损失
休伯 回归任务的Huber损失
均方误差 半平均二乗誤差
ctc 无序序列分类中的连接主义时间分类(CTC)损失
dlaccelerate 为定制训练循环加速深度学习功能
AcceleratedFunction 加速深度学习功能
clearCache 清晰的加速深度学习函数跟踪缓存

トピック

カスタム学習ル,プ

モデル関数

自動微分

深層学習関数の高速化