このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。
双方向長短期記憶層(BiLSTM)
双方向 LSTM(BiLSTM)層は、時系列データまたはシーケンス データのタイム ステップ間の双方向の長期的な依存関係を学習します。これらの依存関係は、各タイム ステップで時系列全体からネットワークに学習させる場合に役立ちます。
努米登单位
- - - - - -(隠隠れユニットの数れサイズとも呼ばれる)。正の整数として指定します。 隠れユニットの数は、タイム ステップ間に記憶された情報 (隠れ状態) の量に相当します。隠れ状態には、シーケンス長に関係なく、以前のすべてのタイム ステップからの情報を含めることができます。隠れユニットの数が大きすぎる場合、層が学習データに対して過適合する可能性があります。この値は数十から数千までさまざまな数になります。 隠れ状態によって1回の反復で処理されるタイムステップ数が制限されることはありません。シーケンスを学習用のより小さいシーケンスに分割するには, 例:trainingOptions
“SequenceLength”
OutputMode
- - - - - -“序列”
(既定値) |“最后一次”
出力の形式。次のいずれかに指定します。
“序列”
“最后一次”
InputSize
- - - - - -“汽车”
(既定値) |入力サイズ。正の整数または 例:“汽车”
状态激活函数
- - - - - -的双曲正切
(既定値) |“软设计”
セル状態と隠れ状態を更新する活性化関数。次のいずれかに指定します。 層は,セル状態と隠れ状態を更新する計算における関数
的双曲正切
“软设计”
网关激活功能
- - - - - -“乙状结肠”
(既定値) |“hard-sigmoid”
ゲートに適用する活性化関数。次のいずれかに指定します。
を使用します。 層は,層のゲートの計算における関数
“乙状结肠”
“hard-sigmoid”
CellState
- - - - - -セル状態の初期値。 このプロパティの設定後に関数
HiddenState
- - - - - -隠れ状態の初期値。 このプロパティの設定後に関数
输入加重器
- - - - - -“glorot”
(既定値) |“他”
“正交”
“窄正常”|“零”|“的”|関数ハンドル
入力の重みを初期化する関数。次のいずれかに指定します。 関数ハンドル – カスタム関数で入力の重みを初期化します。関数ハンドルを指定する場合、関数は この層では, データ型:
“glorot”
“他”
“正交”
“窄正常”
“零”
“的”
烧焦
RecurrentWeightsInitializer
- - - - - -“正交”
(既定値) |“glorot”
“他”
“窄正常”|“零”|“的”|関数ハンドル
再帰重みを初期化する関数。次のいずれかに指定します。 関数ハンドル – カスタム関数で再帰重みを初期化します。関数ハンドルを指定する場合、関数は この層では, データ型:
“正交”
“glorot”
“他”
“窄正常”
“零”
“的”
烧焦
BiasInitializer
- - - - - -“unit-forget-gate”
(既定値) |“窄正常”
“的”
バイアスを初期化する関数。次のいずれかに指定します。 関数ハンドル——カスタム関数でバイアスを初期化します。関数ハンドルを指定する場合,関数は この層では, データ型:
“unit-forget-gate”
“窄正常”
“的”
烧焦
InputWeights
- - - - - -[]
(既定値) |入力の重み。行列として指定します。 この入力重み行列は、双方向 LSTM層にあるコンポーネント (ゲート) の 8.個の入力重み行列の連結です。8.個の行列は、以下の順で垂直に連結されています。 入力ゲート(順方向) 忘却ゲート(順方向) セル候補 (順方向) 出力ゲート(順方向) 入力ゲート(逆方向) 忘却ゲート(逆方向) セル候補 (逆方向) 出力ゲート (逆方向) 入力の重みは学習可能なパラメーターです。ネットワークの学習時に、 学習時、
trainNetwork
RecurrentWeights
- - - - - -[]
(既定値) |再帰重み。行列として指定します。 この再帰重み行列は、双方向 LSTM層にあるコンポーネント (ゲート) の 8.個の再帰重み行列の連結です。8.個の行列は、以下の順で垂直に連結されています。 入力ゲート(順方向) 忘却ゲート(順方向) セル候補 (順方向) 出力ゲート(順方向) 入力ゲート(逆方向) 忘却ゲート(逆方向) セル候補 (逆方向) 出力ゲート (逆方向) 再帰重みは学習可能なパラメーターです。ネットワークの学習時に, 学習時、
trainNetwork
偏见
- - - - - -[]
(既定値) |層のバイアス。数値ベクトルとして指定します。 このバイアスベクトルは,双方向LSTM層にあるコンポーネント(ゲート)の8個のバイアスベクトルの連結です。8個のベクトルは,以下の順で垂直に連結されています。 入力ゲート(順方向) 忘却ゲート(順方向) セル候補 (順方向) 出力ゲート(順方向) 入力ゲート(逆方向) 忘却ゲート(逆方向) セル候補 (逆方向) 出力ゲート (逆方向) 層のバイアスは学習可能なパラメーターです。ネットワークの学習時に, 学習時、
trainNetwork
InputWeightsLearnRateFactor
- - - - - -入力の重みの学習率係数。数値スカラーまたは 1 行 8 列の数値ベクトルとして指定します。
この係数にグローバル学習率が乗算されて,層の入力の重みの学習率係数が決定されます。たとえば, 入力ゲート(順方向) 忘却ゲート(順方向) セル候補 (順方向) 出力ゲート(順方向) 入力ゲート(逆方向) 忘却ゲート(逆方向) セル候補 (逆方向) 出力ゲート (逆方向) すべての行列に同じ値を指定するには,非負のスカラーを指定します。 例:trainingOptions
InputWeights
0.1
RecurrentWeightsLearnRateFactor
- - - - - -再帰重みの学習率係数。数値スカラーまたは 1.行 8.列の数値ベクトルとして指定します。 この係数にグローバル学習率が乗算されて,層の再帰重みの学習率が決定されます。たとえば, 入力ゲート(順方向) 忘却ゲート(順方向) セル候補 (順方向) 出力ゲート(順方向) 入力ゲート(逆方向) 忘却ゲート(逆方向) セル候補 (逆方向) 出力ゲート (逆方向) すべての行列に同じ値を指定するには,非負のスカラーを指定します。 例: 例:trainingOptions
RecurrentWeights
0.1
[1 2 1 1 1 1 1]
BiasLearnRateFactor
- - - - - -バイアスの学習率係数。非負のスカラーまたは 1 行 8 列の数値ベクトルとして指定します。
この係数にグローバル学習率が乗算されて、この層のバイアスの学習率が決定されます。たとえば、 入力ゲート(順方向) 忘却ゲート(順方向) セル候補 (順方向) 出力ゲート(順方向) 入力ゲート(逆方向) 忘却ゲート(逆方向) セル候補 (逆方向) 出力ゲート (逆方向) すべての行列に同じ値を指定するには,非負のスカラーを指定します。 例: 例:trainingOptions
偏见
2
[1 2 1 1 1 1 1]
InputWeightsL2Factor
- - - - - -入力の重みの L2正則化係数。数値スカラーまたは 1.行 8.列の数値ベクトルとして指定します。 この係数にグローバル L2正則化係数が乗算されて、層の入力の重みの L2正則化係数が決定されます。たとえば、 入力ゲート(順方向) 忘却ゲート(順方向) セル候補 (順方向) 出力ゲート(順方向) 入力ゲート(逆方向) 忘却ゲート(逆方向) セル候補 (逆方向) 出力ゲート (逆方向) すべての行列に同じ値を指定するには,非負のスカラーを指定します。 例: 例:trainingOptions
InputWeights
0.1
[1 2 1 1 1 1 1]
重现权重SL2因子
- - - - - -再帰重みのL2正則化係数。数値スカラーまたは 1 行 8 列の数値ベクトルとして指定します。
この係数にグローバルL2正則化係数が乗算されて,層の再帰重みのL2正則化係数が決定されます。たとえば, 入力ゲート(順方向) 忘却ゲート(順方向) セル候補 (順方向) 出力ゲート(順方向) 入力ゲート(逆方向) 忘却ゲート(逆方向) セル候補 (逆方向) 出力ゲート (逆方向) すべての行列に同じ値を指定するには,非負のスカラーを指定します。 例: 例:trainingOptions
RecurrentWeights
0.1
[1 2 1 1 1 1 1]
BiasL2Factor
- - - - - -バイアスのL2正則化係数。非負のスカラーとして指定します。 この係数にグローバル L2正則化係数が乗算されて、この層のバイアスの L2正則化が決定されます。たとえば、 入力ゲート(順方向) 忘却ゲート(順方向) セル候補 (順方向) 出力ゲート(順方向) 入力ゲート(逆方向) 忘却ゲート(逆方向) セル候補 (逆方向) 出力ゲート (逆方向) すべての行列に同じ値を指定するには,非負のスカラーを指定します。 例: 例:trainingOptions
偏见
2
[1 2 1 1 1 1 1]
名称
- - - - - -''
(既定値) |層の名前。文字ベクトルまたは字符串スカラーとして指定します。 データ型:烧焦
努明普茨
- - - - - -層の入力の数。この層は単一の入力のみを受け入れます。 データ型:双重的
InputNames
- - - - - -{'in'}
(既定値)層の入力名。この層は単一の入力のみを受け入れます。 データ型:细胞
NumOutputs
- - - - - -層の出力の数。この層には単一の出力のみがあります。 データ型:双重的
OutputNames
- - - - - -{'out'}
(既定値)層の出力名。この層には単一の出力のみがあります。 データ型:细胞
名前が 配列层= bilstmLayer (100
layer = BiLSTMLayer with properties: Name: 'bilstm1' Hyperparameters InputSize: 'auto' NumHiddenUnits: 100 OutputMode: 'sequence' StateActivationFunction: 'tanh' GateActivationFunction: 'sigmoid' Learnable Parameters inputwights: [] recurrentwights: [] Bias: [] State Parameters HiddenState: [] CellState:[]显示所有属性
inputSize = 12;numHiddenUnits = 100;numClasses = 9;层= [
layers=5x1带层的层阵列:1''序列输入序列输入12维2''BiLSTM BiLSTM带100个隐藏单元3''完全连接9''完全连接层4''Softmax Softmax 5''分类输出crossentropyex
R2019aでの動作変更
R2019a以降では、既定で、格洛特初期化子を使用してこの層の入力の重みが初期化されます。この動作は、学習を安定化させるのに役立ち、通常は深いネットワークの学習時間を短縮します。 以前のリリースでは,既定で,平均0分散0.01の正規分布からサンプリングを行って,層の入力の重みが初期化されます。この動作を再現するには,層の
R2019aでの動作変更
R2019a以降では,既定で,直交行列问を使用してこの層の再帰重みが初期化されます。この直交行列は,単位正規分布からサンプリングされた乱数行列Zに対するZ = QRのQR分解によって与えられます。この動作は,学習を安定化させるのに役立ち,通常は深いネットワークの学習時間を短縮します。 以前のリリースでは、既定で、平均 0、分散 0.01の正規分布からサンプリングを行って、層の再帰重みが初期化されます。この動作を再現するには、層の
[1] 《理解训练深层前馈神经网络的困难》,《第十三届人工智能与统计国际会议论文集》,第249-256页,2010年。
[2] 何开明、张向宇、任少清和孙健。“深入研究整流器:在imagenet分类上超越人类水平的性能”,《IEEE计算机视觉国际会议记录》,第1026-1034页,2015年。
Saxe, Andrew M., James L. McClelland和Surya Ganguli。“深度线性神经金宝搏官方网站网络中学习的非线性动力学的精确解”,arXiv preprint arXiv:1312.6120(2013)。
使用上の注意および制限: コード生成の場合、 コード生成の場合、
序列输入层
|第一层
|gruLayer
|分类与更新房地产
|预测和更新房地产
|resetState
|sequenceFoldingLayer
|flattenLayer
|sequenceUnfoldingLayer
|
次の MATLABコマンドに対応するリンクがクリックされました。 コマンドを MATLABコマンド ウィンドウに入力して実行してください。网状物ブラウザーは MATLABコマンドをサポートしていません。
选择一个网站以获取可用的翻译内容,并查看本地活动和优惠。根据您的位置,我们建议您选择:
你也可以从以下列表中选择一个网站: 选择中国网站(中文或英文)以获得最佳网站性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。如何获得最佳的站点性能
欧洲