主要内容

このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。

预测

学習済み深層学習ニューラルネットワークを使用した応答の予測

説明

1つのCPUまたは1つのGPUで深層学習用の学習済みニューラルネットワークを使用して予測を実行できます。GPUを使用するには,并行计算工具箱™および以3.0计算能力上のCUDA®対応英伟达®GPUが必要です。名前と値のペアの引数ExecutionEnvironmentを使用してハードウェア要件を指定します。

YPred=预测(洛桑国际管理发展学院は,学習済みのSeriesNetworkオブジェクトまたはDAGNetworkオブジェクトのを使用して,洛桑国际管理发展学院のイメージデータの応答を予測します。dlnetworkの入力については,预测を参照してください。

YPred=预测(dsは,データストアds内のデータの応答を予測します。

YPred=预测(资源描述は、表资源描述内のデータの応答を予測します。

YPred=预测(Xは,数値配列Xのイメージデータまたは特徴データの応答を予測します。

YPred=预测(, X1,…,XN)は,複数入力ネットワークに対する数値配列X1、……XNのデータの応答を予測します。入力西は,ネットワーク入力net.InputNames(我)に対応します。

[YPred1,…,YPred米] = predict(___は,前述の構文を使用して多出力ネットワークの出力の応答を予測します。出力YPredjはネットワーク出力net.OutputNames (j)に対応します。分類出力層のカテゴリカル出力を返すには,“ReturnCategorical”オプションを真正的に設定します。

YPred=预测(序列は,学習済みの再帰型ネットワーク(LSTMネットワークや格勒乌ネットワークなど)を使用して,序列のシーケンスデータまたは時系列データの応答を予測します。

___=预测(___名称,值は1つ以上の名前と値のペアの引数で指定された追加オプションを使用して,応答を予測します。

ヒント

長さが異なるシーケンスで予測を行うと,ミニバッチのサイズが,入力データに追加されるパディングの量に影響し,異なる予測値が得られることがあります。さまざまな値を使用して,ネットワークに最適なものを確認してください。ミニバッチのサイズとパディングのオプションを指定するには,“MiniBatchSize”および“SequenceLength”オプションをそれぞれ使用します。

すべて折りたたむ

標本データを読み込みます。

[XTrain, YTrain] = digitTrain4DArrayData;

digitTrain4DArrayDataは数字の学習セットを4次元配列データとして読み込みます。XTrainは28 28 x 5000 xの配列で,28はイメージの高さ,28は幅です。1はチャネルの数で,5000は手書きの数字の合成イメージの数です。YTrainは各観測値のラベルを含む直言ベクトルです。

畳み込みニューラルネットワークアーキテクチャを構築します。

层= [...imageInputLayer([28 28 1])卷积2dlayer (5,20) reluLayer maxPooling2dLayer(2, 20)“步”,2) fulllyconnectedlayer (10) softmaxLayer classificationLayer;

モーメンタム項付き確率的勾配降下法の既定の設定にオプションを設定します。

选择= trainingOptions (“个”);

ネットワークに学習をさせます。

rng (“默认”) net = trainNetwork(XTrain,YTrain,layers,options);
单CPU训练。初始化输入数据规范化。|========================================================================================| | 时代| |迭代时间| Mini-batch | Mini-batch |基地学习  | | | | ( hh: mm: ss) | | |丧失准确性  | |========================================================================================| | 1 | 1 |就是| | 2.3195 | 0.0100 10.16%||2 | 50 | 00:00:03 | 50.78% | 1.7102 | 0.0100 | | 3 | 100 | 00:00:07 | 63.28% | 1.1632 | 0.0100 | | 4 | 150 | 00:00:10 | 60.16% | 1.0859 | 0.0100 | | 6 | 200 | 00:00:13 | 68.75% | 0.8996 | 0.0100 | | 7 | 250 | 00:00:17 | 76.56% | 0.7920 | 0.0100 | | 8 | 300 | 00:00:20 | 73.44% | 0.8411 | 0.0100 | | 9 | 350 | 00:00:23 | 81.25% | 0.5508 | 0.0100 | | 11 | 400 | 00:00:27 | 90.62% | 0.4744 | 0.0100 | | 12 | 450 | 00:00:31 | 92.19% | 0.3614 | 0.0100 | | 13 | 500 | 00:00:36 | 94.53% | 0.3160 | 0.0100 | | 15 | 550 | 00:00:41 | 96.09% | 0.2544 | 0.0100 | | 16 | 600 | 00:00:45 | 92.19% | 0.2765 | 0.0100 | | 17 | 650 | 00:00:48 | 95.31% | 0.2460 | 0.0100 | | 18 | 700 | 00:00:50 | 99.22% | 0.1418 | 0.0100 | | 20 | 750 | 00:00:53 | 98.44% | 0.1000 | 0.0100 | | 21 | 800 | 00:00:57 | 98.44% | 0.1449 | 0.0100 | | 22 | 850 | 00:01:01 | 98.44% | 0.0989 | 0.0100 | | 24 | 900 | 00:01:05 | 96.88% | 0.1315 | 0.0100 | | 25 | 950 | 00:01:09 | 100.00% | 0.0859 | 0.0100 | | 26 | 1000 | 00:01:13 | 100.00% | 0.0701 | 0.0100 | | 27 | 1050 | 00:01:17 | 100.00% | 0.0759 | 0.0100 | | 29 | 1100 | 00:01:21 | 99.22% | 0.0663 | 0.0100 | | 30 | 1150 | 00:01:26 | 98.44% | 0.0776 | 0.0100 | | 30 | 1170 | 00:01:27 | 99.22% | 0.0732 | 0.0100 | |========================================================================================|

テストセットで学習済みネットワークを実行し,スコアを予測します。

[XTest,欧美]= digitTest4DArrayData;YPred =预测(净,XTest);

既定では,预测は,利用可能な場合は计算能力3.0のCUDA®対応GPUを使用します。名前と値のペアの引数“ExecutionEnvironment”、“cpu的を使用して、CPUで预测を実行することもできます。

テストデータの最初の10個のイメージを表示して,预测からの予測と比較します。

欧美(1:10,:)
ans =10 x1分类0 0 0 0 0 0 0 0
YPred (1:10,:)
ans =10 x10单一矩阵0.9978 0.0001 0.0008 0.0002 0.0003 0.0000 0.0004 0.0000 0.0002 0.0003 0.8881 0.0000 0.0474 0.0001 0.0000 0.0002 0.0029 0.0001 0.0014 0.0598 0.9998 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0046 0.0000 0.0011 0.0129 0.9748 0.0000 0.0132 0.0003 0.0000 0.0000 0.0002 0.0004 0.0111 0.00010.9873 0.0000 0.0001 0.0000 0.0000 0.0007 0.0000 0.0072 0.0047 0.9981 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0018 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 1.0000 0.06 0.0009 0.0001 0.0000 0.0018 0.0655 0.9327 0.0000 0.0139 0.0012 0.0001 0.0001 0.0378 0.0000 0.0111 0.0031

欧美には,XTestのイメージに対応する数字が含まれます。YPredの列には,イメージに特定の数字が含まれる確率の预测による推定が含まれます。つまり,最初の列には指定されたイメージが数字0である確率の推定値,2番目の列にはイメージが数字1である確率の推定値,3番目の列にはイメージが数字2である確率の推定値が含まれ,以降も同様になります。预测による推定では,正しい数字の場合は確率が1に近くなり,他の数字の場合は確率が0に近くなることがわかります。预测は,最初の10個の観測値が数字0であると正しく推定しています。

事前学習済みのネットワークを読み込みます。JapaneseVowelsNetは,[1]および[2]で説明されているように日本元音データセットで学習させた事前学習済みのLSTMネットワークです。これは,ミニバッチのサイズ27を使用して,シーケンス長で並べ替えられたシーケンスで学習させています。

负载JapaneseVowelsNet

ネットワークアーキテクチャを表示します。

网。层
ans x1 = 5层阵列层:1“sequenceinput”序列输入序列输入12维度2的lstm lstm lstm 100隐藏单位3 fc的完全连接9完全连接层4的softmax softmax softmax 5 classoutput的分类输出crossentropyex ' 1 ', 8其他类

テストデータを読み込みます。

[XTest,欧美]= japaneseVowelsTestData;

テストデータについて予測を実行します。

YPred =预测(净,XTest);

最初の10個のシーケンスの予測スコアを表示します。

YPred (1:10,:)
ans =10 x9单一矩阵0.9918 0.0000 0.0000 0.0000 0.0006 0.0010 0.0001 0.0006 0.0059 0.9868 0.0000 0.0000 0.0000 0.06 0.0010 0.0001 0.0010 0.0105 0.9924 0.0000 0.0000 0.0000 0.0006 0.0010 0.0006 0.0054 0.9896 0.0000 0.0000 0.0000 0.06 0.0009 0.0001 0.0007 0.0080 0.9965 0.0000 0.0000 0.0000 0.0000 0.07 0.0009 0.0000 0.0003 0.0016 0.9888 0.0000 0.0000 0.0000 0.0000 0.00060.0010 0.0001 0.0008 0.0087 0.9886 0.0000 0.0000 0.0000 0.0006 0.0010 0.0001 0.0008 0.0089 0.9982 0.0000 0.0000 0.0000 0.0006 0.0007 0.0000 0.0001 0.0004 0.9883 0.0000 0.0000 0.0000 0.0006 0.0010 0.0001 0.0008 0.0093 0.9959 0.0000 0.0000 0.0000 0.0007 0.0011 0.0000 0.0004 0.0019

これらの予測スコアを,これらのシーケンスのラベルと比較します。関数によって,高い予測スコアが正しいクラスに割り当てられます。

欧美(1:10)
ans =10 x1分类1 1 1 1 1 1 1

入力引数

すべて折りたたむ

学習済みネットワーク。SeriesNetworkまたはDAGNetworkオブジェクトとして指定します。事前学習済みのネットワークをインポートする(たとえば,関数googlenetを使用する),またはtrainNetworkを使用して独自のネットワークに学習させることによって,学習済みネットワークを取得できます。

イメージデータストア。ImageDatastoreオブジェクトとして指定します。

ImageDatastoreを使用すると,事前取得を使用してJPGまたはPNGイメージファイルのバッチ読み取りを行うことができます。イメージの読み取りにカスタム関数を使用する場合,ImageDatastoreは事前取得を行いません。

ヒント

イメージのサイズ変更を含む深層学習用のイメージの前処理を効率的に行うには,augmentedImageDatastoreを使用します。

imageDatastorereadFcnオプションは通常,速度が大幅に低下するため,前処理またはサイズ変更に使用しないでください。

メモリ外のデータおよび前処理用のデータストア。データストアは、表またはcell 配列でデータを返さなければなりません。データストア出力の形式は、ネットワーク アーキテクチャによって異なります。

ネットワークアーキテクチャ データストア出力 出力の例
単一入力

表または细胞配列。最初の列は予測子を指定します。

表の要素は,スカラー,行ベクトルであるか,数値配列が格納された1行1列の细胞配列でなければなりません。

カスタムデータストアは表を出力しなければなりません。

data =阅读(ds)
data = 4×1 table Predictors __________________ {224×224×3 double} {224×224×3 double} {224×224×3 double} {224×224×3 double}
data =阅读(ds)
Data = 4×1 cell array {224×224×3 double} {224×224×3 double} {224×224×3 double} {224×224×3 double}
複数入力

少なくともnumInputs個の列をもつ细胞配列。numInputsはネットワーク入力の数です。

最初のnumInputs個の列は,各入力の予測子を指定します。

入力の順序は,ネットワークのInputNamesプロパティによって指定されます。

data =阅读(ds)
Data = 4×2 cell array {224×224×3 double} {128×128×3 double} {224×224×3 double} {128×128×3 double} {224×224×3 double} {128×128×3 double} {224×224×3 double} {128×128×3 double}

予測子の形式は,データのタイプによって異なります。

データ 予測子の形式
2次元イメージ

h c w xの数値配列。ここで,h、w、および c は、それぞれイメージの高さ、幅、およびチャネル数です。

3次元イメージ

h x w x d cの数値配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数です。

ベクトルシーケンス

c行s列の行列。ここで,c はシーケンスの特徴の数、s はシーケンス長です。

2次元イメージシーケンス

h x w x c sの配列。ここで,h、w、および c はそれぞれイメージの高さ、幅、およびチャネル数に対応します。s はシーケンス長です。

ミニバッチ内の各シーケンスは,同じシーケンス長でなければなりません。

3次元イメージシーケンス

h x w x d x c sの配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数に対応します。s はシーケンス長です。

ミニバッチ内の各シーケンスは,同じシーケンス長でなければなりません。

特徴

c行1列の列ベクトル。cは特徴の数です。

詳細については,深層学習用のデータストアを参照してください。

イメージデータまたは特徴データ。数値配列として指定します。配列のサイズは入力のタイプによって以下のように異なります。

入力 説明
2次元イメージ h x w x c x Nの数値配列。ここで,h、w、および c は、それぞれイメージの高さ、幅、およびチャネル数です。N はイメージの数です。
3次元イメージ h x w x d x c x Nの数値配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数です。N はイメージの数です。
特徴 N行numFeatures列の数値配列。ここで,Nは観測値の数、numFeaturesは入力データの特徴の数です。

配列にが含まれる場合,ネットワーク全体に伝播されます。

複数の入力があるネットワークの場合,複数の配列X1、……XNを指定できます。ここで,Nはネットワーク入力の数であり,入力西はネットワーク入力net.InputNames(我)に対応します。

シーケンスデータまたは時系列データ。数値配列のN行1 列の cell 配列、1 つのシーケンスを表す数値配列、またはデータストアとして指定します。ここで、N は観測値の数です。

细胞配列入力または数値配列入力の場合,シーケンスが含まれる数値配列の次元は,データのタイプによって異なります。

入力 説明
ベクトルシーケンス c行s列の行列。ここで,c はシーケンスの特徴の数、s はシーケンス長です。
2次元イメージシーケンス h x w x c sの配列。ここで,h、w、および c は、それぞれイメージの高さ、幅、およびチャネル数に対応します。s はシーケンス長です。
3次元イメージシーケンス H x w x d x c x s。ここで,h、w、d、および c は、それぞれ 3 次元イメージの高さ、幅、深さ、およびチャネル数に対応します。s はシーケンス長です。

データストア入力の場合,データストアはシーケンスの细胞配列,または最初の列にシーケンスが含まれる表としてデータを返さなければなりません。シーケンスデータの次元は,上記の表に対応していなければなりません。

イメージデータまたは特徴データの表。表の各行は観測値に対応します。

表の列での予測子の配置は,入力データのタイプによって異なります。

入力 予測子
イメージデータ
  • イメージの絶対ファイルパスまたは相対ファイルパス。単一列の文字ベクトルとして指定します。

  • イメージ。3次元数値配列として指定します。

単一列で予測子を指定します。

特徴データ

数値スカラー。

表のnumFeatures個の列で予測子を指定します。numFeaturesは入力データの特徴の数です。

この引数は,単一の入力のみがあるネットワークをサポートします。

データ型:表格

名前と値のペアの引数

例:“MiniBatchSize”,256年はミニバッチのサイズを256に指定します。

オプションの引数名称,值のコンマ区切りのペアを指定します。的名字は引数名で,价值は対応する値です。的名字は一重引用符(' ')で囲まなければなりません。

予測に使用するミニバッチのサイズ。正の整数として指定します。ミニバッチのサイズが大きくなるとより多くのメモリが必要になりますが、予測時間が短縮される可能性があります。

長さが異なるシーケンスで予測を行うと,ミニバッチのサイズが,入力データに追加されるパディングの量に影響し,異なる予測値が得られることがあります。さまざまな値を使用して,ネットワークに最適なものを確認してください。ミニバッチのサイズとパディングのオプションを指定するには,“MiniBatchSize”および“SequenceLength”オプションをそれぞれ使用します。

例:“MiniBatchSize”,256年

パフォーマンスの最適化。“加速”と次のいずれかで構成されるコンマ区切りのペアとして指定します。

  • “汽车”——入力ネットワークとハードウェアリソースに適した最適化の回数を自動的に適用します。

  • 墨西哥人的- - - - - -墨西哥人関数をコンパイルして実行します。このオプションはGPUの使用時にのみ利用できます。GPUを使用するには,并行计算工具箱および以3.0计算能力上のCUDA対応NVIDIA GPUが必要です。并行计算工具箱または適切なGPUが利用できない場合,エラーが返されます。

  • “没有”——すべての高速化を無効にします。

既定のオプションは“汽车”です。“汽车”が指定されている場合,MATLAB®は互換性のある最適化を複数適用します。“汽车”オプションを使用する場合,MATLABは墨西哥人関数を生成しません。

“加速”オプション“汽车”および墨西哥人的を使用すると,パフォーマンス上のメリットが得られますが,初期実行時間が長くなります。互換性のあるパラメーターを使用した後続の呼び出しは,より高速になります。新しい入力データを使用して関数を複数回呼び出す場合は,パフォーマンスの最適化を使用してください。

墨西哥人的オプションは,関数の呼び出しに使用されたネットワークとパラメーターに基づいて墨西哥人関数を生成し,実行します。複数の墨西哥人関数を一度に1つのネットワークに関連付けることができます。ネットワークの変数をクリアすると,そのネットワークに関連付けられている墨西哥人関数もクリアされます。

墨西哥人的オプションは,GPUの使用時にのみ利用できます。C / c++コンパイラとGPU编码器™界面深度学习库サポートパッケージがインストールされていなければなりません。MATLABでアドオンエクスプローラーを使用してサポートパッケージをインストールします。設定手順については,墨西哥人の設定(GPU编码器)を参照してください。GPU编码器は不要です。

墨西哥人的オプションではサポートされていない層があります。サポートされている層の一覧については,サポートされている層(GPU编码器)を参照してください。sequenceInputLayerを含む再帰型ニューラルネットワーク(RNN)はサポートされていません。

墨西哥人的オプションは,複数の入力層または複数の出力層をもつネットワークをサポートしていません。

墨西哥人的オプションの使用時に,MATLAB编译器™を使用してネットワークを配布することはできません。

例:“加速”、“墨西哥人的

ハードウェアリソース。“ExecutionEnvironment”と次のいずれかで構成されるコンマ区切りのペアとして指定します。

  • “汽车”——利用可能な場合はGPUを使用し,そうでない場合はCPUを使用します。

  • “图形”- - - - - - GPUを使用します。GPUを使用するには,并行计算工具箱および以3.0计算能力上のCUDA対応NVIDIA GPUが必要です。并行计算工具箱または適切なGPUが利用できない場合,エラーが返されます。

  • “cpu”——CPUを使用します。

例:“ExecutionEnvironment”、“cpu的

カテゴリカルラベルを返すオプション。真正的またはとして指定します。

ReturnCategorical真正的の場合,関数は分類出力層のカテゴリカルラベルを返します。そうでない場合,関数は分類出力層の予測スコアを返します。

入力シーケンスのパディング,切り捨て,または分割を行うオプション。次のいずれかに指定します。

  • “最长”——各ミニバッチで,最長のシーケンスと同じ長さになるようにシーケンスのパディングを行います。このオプションを使用するとデータは破棄されませんが,パディングによってネットワークにノイズが生じることがあります。

  • “最短”——各ミニバッチで,最短のシーケンスと同じ長さになるようにシーケンスの切り捨てを行います。このオプションを使用するとパディングは追加されませんが,データが破棄されます。

  • 正の整数——各ミニバッチで,ミニバッチで最長のシーケンスより大きい,指定長の最も近い倍数になるようにシーケンスのパディングを行った後,それらのシーケンスを指定長のより小さなシーケンスに分割します。分割が発生すると,追加のミニバッチが作成されます。シーケンス全体がメモリに収まらない場合は,このオプションを使用します。または,“MiniBatchSize”オプションをより小さい値に設定して,ミニバッチごとのシーケンス数を減らしてみます。

入力シーケンスのパディング,切り捨て,および分割の効果の詳細は,シーケンスのパディング,切り捨て,および分割を参照してください。

例:“SequenceLength”、“最短的

パディングまたは切り捨ての方向。次のいずれかに指定します。

  • “对”——シーケンスの右側に対してパディングまたは切り捨てを行います。シーケンスは同じタイムステップで始まり,シーケンスの末尾に対して切り捨てまたはパディングの追加が行われます。

  • “左”——シーケンスの左側に対してパディングまたは切り捨てを行います。シーケンスが同じタイムステップで終わるように,シーケンスの先頭に対して切り捨てまたはパディングの追加が行われます。

LSTM層は1タイムステップずつシーケンスデータを処理するため,層のOutputModeプロパティが“最后一次”の場合,最後のタイムステップでパディングを行うと層の出力に悪影響を与える可能性があります。シーケンスデータの左側に対してパディングまたは切り捨てを行うには,“SequencePaddingDirection”オプションを“左”に設定します。

sequence-to-sequenceネットワークの場合(各LSTM層についてOutputModeプロパティが“序列”である場合),最初のタイムステップでパティングを行うと,それ以前のタイムステップの予測に悪影響を与える可能性があります。シーケンスの右側に対してパディングまたは切り捨てを行うには,“SequencePaddingDirection”オプションを“对”に設定します。

入力シーケンスのパディング,切り捨て,および分割の効果の詳細は,シーケンスのパディング,切り捨て,および分割を参照してください。

入力シーケンスをパディングする値。スカラーとして指定します。このオプションは,SequenceLength“最长”または正の整数の場合にのみ有効です。ネットワーク全体にエラーが伝播される可能性があるため,でシーケンスをパディングしないでください。

例:“SequencePaddingValue”,1

出力引数

すべて折りたたむ

予測スコアまたは応答。行列4次元数値配列,または行列の细胞配列として返されます。YPredの形式は,問題のタイプによって異なります。

次の表は,分類問題の形式について説明しています。

タスク 形式
イメージ分類 N行K列の行列。Nは観測値の数、K はクラスの数です。
sequence-to-label分類
特徴分類
sequence-to-sequence分類

行列のN行1列の细胞配列。Nは観測値の数です。シーケンスはK行の行列で,Kはクラスの数です。SequenceLengthオプションを各ミニバッチに個別に適用した後,各シーケンスには,対応する入力シーケンスと同じ数のタイムステップが含まれています。

次の表は,回帰問題の形式について説明しています。

タスク 形式
2次元イメージ回帰
  • N行R列の行列。ここで,Nはイメージの数、R は応答の数です。

  • h x w x c x Nの数値配列。ここで,h、w、および c は、それぞれイメージの高さ、幅、およびチャネル数です。N はイメージの数です。

3次元イメージ回帰
  • N行R列の行列。ここで,Nはイメージの数、R は応答の数です。

  • h x w x d x c x Nの数値配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数です。N はイメージの数です。

sequence-to-one回帰 N行R列の行列。ここで,Nはシーケンスの数、R は応答の数です。
sequence-to-sequence回帰

数値シーケンスのN行1列の细胞配列。ここでNはシーケンスの数です。シーケンスはR行の行列で,Rは応答の数です。SequenceLengthオプションを各ミニバッチに個別に適用した後,各シーケンスには,対応する入力シーケンスと同じ数のタイムステップが含まれています。

観測値が1つのsequence-to-sequence回帰タスクでは,序列を行列にすることができます。この場合,YPredは応答の行列です。

特徴回帰

N行R列の行列。Nは観測値の数、R は応答の数です。

観測値が1つのsequence-to-sequence回帰問題では,序列を行列にすることができます。この場合,YPredは応答の行列です。

アルゴリズム

イメージデータにが含まれる場合,预测はこれらをネットワークを通じて伝播します。ネットワークにReLU層がある場合,これらの層はを無視します。ただし,ネットワークにReLU層が含まれない場合,预测は南を予測として返します。

深度学习工具箱™に含まれる深層学習における学習,予測,検証用のすべての関数は,単精度浮動小数点演算を使用して計算を実行します。深層学習用の関数にはtrainNetwork预测分类激活などがあります。CPUとGPUの両方を使用してネットワークに学習させる場合,単精度演算が使用されます。

代替方法

分类を使用して学習済みネットワークから予測スコアと予測クラスを計算できます。

激活を使用してネットワーク層から活性化を計算することもできます。

sequence-to-labelおよびsequence-to-sequence分類ネットワーク(LSTMネットワークなど)では,classifyAndUpdateStateおよびpredictAndUpdateStateを使用してネットワークの状態の予測および更新を実行できます。

参照

工藤、富山、新保。“使用通过区域的多维曲线分类”。模式识别字母。第20卷,第11-13期,第1103-1111页。

[2] UCI机器学习知识库:日语元音数据集。https://archive.ics.uci.edu/ml/datasets/Japanese+Vowels

拡張機能

R2016aで導入