主要内容

このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。

分类

学習済み深層学習ニューラルネットワークを使用したデータの分類

説明

1つのCPUまたは1つのGPUで深層学習用の学習済みニューラルネットワークを使用して予測を実行できます。GPUを使用するには,并行计算工具箱™および以3.0计算能力上のCUDA®対応英伟达®GPUが必要です。名前と値のペアの引数ExecutionEnvironmentを使用してハードウェア要件を指定します。

複数の出力があるネットワークの場合,预测を使用して、“返回分类”オプションを真正的に設定します。

YPred=分类(,imds)は,学習済みネットワークを使用して,イメージデータストアimds内のイメージのクラスラベルを予測します。

YPred=分类(,ds)は,データストアds内のデータのクラス ラベルを予測します。

YPred=分类(,X)は,数値配列Xで指定されたイメージデータまたは特徴データのクラスラベルを予測します。

YPred=分类(, X1,…,XN)は,複数入力ネットワークに対する数値配列X1、……XNのデータのクラスラベルを予測します。入力西は,ネットワーク入力net.InputNames(我)に対応します。

YPred=分类(,序列)は,再帰型ネットワーク(LSTMネットワークや格勒乌ネットワークなど)に対する序列内の時系列データまたはシーケンスデータのクラスラベルを予測します。

YPred=分类(,资源描述)は、表资源描述内のデータのクラス ラベルを予測します。

YPred=分类(___,名称,值)は,前述の構文のいずれかを使用して,1つ以上の名前と値のペアの引数によって指定された追加オプションを使用してクラスラベルを予測します。

[YPred,分数]=分类(___)は,前述の構文のいずれかを使用して,クラスラベルに対応する分類スコアも返します。

ヒント

長さが異なるシーケンスで予測を行うと,ミニバッチのサイズが,入力データに追加されるパディングの量に影響し,異なる予測値が得られることがあります。さまざまな値を使用して,ネットワークに最適なものを確認してください。ミニバッチのサイズとパディングのオプションを指定するには,“MiniBatchSize”および“SequenceLength”オプションをそれぞれ使用します。

すべて折りたたむ

標本データを読み込みます。

[XTrain, YTrain] = digitTrain4DArrayData;

digitTrain4DArrayDataは数字の学習セットを 4.次元配列データとして読み込みます。XTrainは 28 x 28 x 1 x 5000の配列で、28はイメージの高さ、28は幅です。1.はチャネルの数で、5000は手書きの数字の合成イメージの数です。YTrainは各観測値のラベルを含む直言ベクトルです。

畳み込みニューラル ネットワーク アーキテクチャを構築します。

层= [...imageInputLayer([28 1])卷积2Dlayer(5,20)reluLayer MaxPoolig2Dlayer(2,“大步走”,2) fulllyconnectedlayer (10) softmaxLayer classificationLayer;

モーメンタム項付き確率的勾配降下法の既定の設定にオプションを設定します。

选择= trainingOptions (“个”);

ネットワークに学習をさせます。

rng (“默认”) net = trainNetwork(XTrain,YTrain,layers,options);
在单CPU上进行培训。初始化输入数据规范化。|=================================================================================================================================================================================历元|迭代|时间经过|小批量|基础学习|第二种第二种第二种第二种第二种第二种第二种第二种第二种第二种第二种第二种第二种第二种第二种第二种第第二种第二种第第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第二种第四种第四种第四种第二种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四|0.0100 | 3 | 100 | 00:00:06 | 63.28%| 1.1632 | 0.0100 | 4 | 150 | 00:00:10 | 60.16%| 1.0859 1240 1240 | 6 | 200 | 00:00:13 | 68.75%1240.8996 | 0.0100 | | 7 | 250 | 00:00:17 | 76.56% | 0.7920 | 0.0100 | | 8 | 300 | 00:00:20 | 73.44% | 0.8411 | 0.0100 | | 9 | 350 | 00:00:24 | 81.25% | 0.5508 | 0.0100 | | 11 | 400 | 00:00:29 | 90.62% | 0.4744 | 0.0100 | | 12 | 450 | 00:00:33 | 92.19% | 0.3614 | 0.0100 | | 13 | 500 | 00:00:37 | 94.53% | 0.3160 | 0.0100 | | 15 | 550 | 00:00:42 | 96.09% | 0.2544 | 0.0100 | | 16 | 600 | 00:00:46 | 92.19% | 0.2765 | 0.0100 | | 17 | 650 | 00:00:48 | 95.31% | 0.2460 | 0.0100 | | 18 | 700 | 00:00:51 | 99.22% | 0.1418 | 0.0100 | | 20 | 750 | 00:00:55 | 98.44% | 0.1000 | 0.0100 | | 21 | 800 | 00:00:58 | 98.44% | 0.1449 | 0.0100 | | 22 | 850 | 00:01:01 | 98.44% | 0.0989 | 0.0100 | | 24 | 900 | 00:01:05 | 96.88% | 0.1315 | 0.0100 | | 25 | 950 | 00:01:08 | 100.00% | 0.0859 | 0.0100 | | 26 | 1000 | 00:01:12 | 100.00% | 0.0701 | 0.0100 | | 27 | 1050 | 00:01:17 | 100.00% | 0.0759 | 0.0100 | | 29 | 1100 | 00:01:21 | 99.22% | 0.0663 | 0.0100 | | 30 | 1150 | 00:01:28 | 98.44% | 0.0776 | 0.0100 | | 30 | 1170 | 00:01:31 | 99.22% | 0.0732 | 0.0100 | |========================================================================================|

テスト セットについて学習済みネットワークを実行します。

[XTest,欧美]= digitTest4DArrayData;YPred =分类(净,XTest);

テストデータの最初の10個のイメージを表示して,分类の分類と比較します。

[欧美(1:10,:)YPred (1:10,:))
ans =10 x2分类0 0 0 0 0 0 0 0 0 0 0 0

分类の結果は,最初の10個のイメージの真の数字に一致しています。

すべてのテストデータで精度を計算します。

精度=总和(YPred==YTest)/numel(YTest)
精度= 0.9820

事前学習済みのネットワークを読み込みます。日本世界新闻网は、[1] および [2] で説明されているように 日语元音データセットで学習させた事前学習済みの LSTMネットワークです。これは、ミニバッチのサイズ 27を使用して、シーケンス長で並べ替えられたシーケンスで学習させています。

负载日本世界新闻网

ネットワークアーキテクチャを表示します。

网。层
ans x1 = 5层阵列层:1“sequenceinput”序列输入序列输入12维度2的lstm lstm lstm 100隐藏单位3 fc的完全连接9完全连接层4的softmax softmax softmax 5 classoutput的分类输出crossentropyex ' 1 ', 8其他类

テストデータを読み込みます。

[XTest,欧美]= japaneseVowelsTestData;

テスト データを分類します。

YPred =分类(净,XTest);

最初の10個のシーケンスのラベルと,その予測ラベルを表示します。

[YTest(1:10)YPred(1:10)]
ans =10 x2分类1 1 1 1 1 1 1 1 1 1 1 1 1

予測の分類精度を計算します。

精度=总和(YPred==YTest)/numel(YTest)
精度= 0.8595

事前学習済みのネットワークTransmissionCasingNetを読み込みます。このネットワークは,数値センサーの読み取り値,統計量,およびカテゴリカル入力の混合を所与として,トランスミッションシステムの歯車の状態を分類します。

负载TransmissionCasingNet.mat

ネットワークアーキテクチャを表示します。

网。层
ans=7x1层阵列带层:1“输入”功能输入22个功能带“zscore”标准化2“fc_1”完全连接50个完全连接层3“batchnorm”批量标准化50个通道批量标准化4“relu”relu relu 5“fc_2”完全连接2个完全连接层6“softmax”softmax 7“classoutput”分类Out具有“无齿故障”和“齿故障”等级的crossentropyex

CSVファイル“transmissionCasingData.csv”からトランスミッションケーシングデータを読み取ります。

文件名=“transmissionCasingData.csv”;台= readtable(文件名,“TextType”,“字符串”);

関数convertvarsを使用して,予測のラベルを直言に変換します。

labelName =“GearToothCondition”;台= convertvars(资源描述、labelName“分类”);

カテゴリカル特徴量を使用して予測を行うには,最初にカテゴリカル特徴量を数値に変換しなければなりません。まず,関数convertvarsを使用して,すべてのカテゴリカル入力変数の名前を格納した字符串配列を指定することにより,カテゴリカル予測子を直言に変換します。このデータセットには,“SensorCondition”“ShaftCondition”という名前の 2.つのカテゴリカル特徴量があります。

categoricalInputNames=[“SensorCondition”“ShaftCondition”];台= convertvars(资源描述、categoricalInputNames“分类”);

カテゴリカル入力変数をループ処理します。各変数について次を行います。

  • 関数onehotencodeを使用して,カテゴリカル値を一个炎热符号化ベクトルに変換する。

  • 関数addvarsを使用して,一个炎热的ベクトルを表に追加する。対応するカテゴリカルデータが含まれる列の後にベクトルを挿入するように指定する。

  • カテゴリカルデータが含まれる対応する列を削除する。

i = 1:numel(categoricalInputNames) name = categoricalInputNames(i);哦= onehotencode(资源描述(:,名字));台= addvars(资源描述,哦,“后”、名称);台(:名字)= [];结束

関数斯普利瓦茨を使用して,ベクトルを別々の列に分割します。

台= splitvars(台);

表の最初の数行を表示します。

头(台)
ans =表8×23SigMean SigMedian SigRMS SigVar SigPeak SigPeak 2peak SigSkewness SigKurtosis SigCrestFactor SigMAD SigRangeCumSum SigCorrDimension SigApproxEntropy SigLyapExponent PeakFreq HighFreqPower EnvPower peakspec峰度无传感器漂移传感器漂移无轴磨损轴磨损齿轮齿状况________ _________ ______ _______ _______ _______________________ ___________ ______________ _______ ______________ ________________ ________________ _______________ ________ _____________ ________ ________________ _______________ ____________ _____________ __________ __________________ - 0.94876 -0.9722 1.3726 0.98387 0.81571 3.6314 -0.041525 2.2666 2.0514 0.8081 1.1429 0.031581 79.931 28562 06.75 e-06 3.23 e-07 162.13 0 1 1 0没有牙齿错-0.97537 -0.98958 1.3937 0.99105 0.81571 3.6314 -0.023777 2.2598 2.0203 0.81017 29418 1.1362 0.037835 70.325 5.08 e-08 9.16 e-08 226.12 0 1 1 0没有牙齿错1.0502 1.0267 1.4449 0.98491 2.8157 3.6314 -0.04162 2.2658 1.9487 0.80853 31710 1.1479 0.031565 125.19 6.74 e-06 2.85 e-07 162.13 0 1 0 1没有牙错1.0227 1.0045 1.4288 0.99553 2.8157 3.6314 -0.016356 2.2483 1.9707 0.81324 30984 1.1472 0.032088 112.5 4.99 e-06 2.4 e-07 162.13 0 1 0 1没有牙齿错1.0123 1.0024 1.4202 0.99233 2.8157 3.6314 -0.014701 2.2542 1.9826 0.81156 30661 1.1469 0.03287 108.86 3.62 e-06 2.28 e-07 230.39 0 1 0 1没有牙齿错1.0275 1.0102 1.4338 1.00012.8157 3.6314 -0.02659 2.2439 1.9638 0.81589 31102 1.0985 0.033427 64.576 2.55 e-06 1.65 e-07 230.39 0 1 0 1没有牙齿错1.0464 1.0275 1.4477 1.0011 2.8157 3.6314 -0.042849 2.2455 1.9449 0.81595 31665 1.1417 0.034159 98.838 1.73 e-06 1.55 e-07 230.39 0 1 0 1没有牙齿错1.0459 1.0257 1.4402 0.98047 2.8157 3.6314 -0.035405 2.2757 1.955 0.8058331554 1.1345 0.0353 44.223 0 1.11e-06 1.39e-07 230.39 0 1 0 1 No Tooth Fault

学習済みネットワークを使用してテストデータのラベルを予測し,精度を計算します。学習に使用されるサイズと同じミニバッチサイズを指定します。

YPred =分类(净台(:1:end-1));

分類精度を計算します。精度は,ネットワークが正しく予測するラベルの比率です。

欧美=台{:labelName};精度=总和(YPred==YTest)/numel(YTest)
精度= 0.9952

入力引数

すべて折りたたむ

学習済みネットワーク。系列网络またはDAGNetworkオブジェクトとして指定します。事前学習済みのネットワークをインポートする (たとえば、関数googlenetを使用する),またはtrainNetworkを使用して独自のネットワークに学習させることによって,学習済みネットワークを取得できます。

イメージデータストア。图像数据存储オブジェクトとして指定します。

图像数据存储を使用すると,事前取得を使用してJPGまたはPNGイメージファイルのバッチ読み取りを行うことができます。イメージの読み取りにカスタム関数を使用する場合,图像数据存储は事前取得を行いません。

ヒント

イメージのサイズ変更を含む深層学習用のイメージの前処理を効率的に行うには、augmentedImageDatastoreを使用します。

imageDatastorereadFcnオプションは通常,速度が大幅に低下するため,前処理またはサイズ変更に使用しないでください。

メモリ外のデータおよび前処理用のデータストア。データストアは、表またはcell 配列でデータを返さなければなりません。データストア出力の形式は、ネットワーク アーキテクチャによって異なります。

ネットワーク アーキテクチャ データストア出力 出力の例
単一入力

表または细胞配列。最初の列は予測子を指定します。

表の要素は,スカラー,行ベクトルであるか,数値配列が格納された1行1列の细胞配列でなければなりません。

カスタムデータストアは表を出力しなければなりません。

data =阅读(ds)
data = 4×1 table Predictors __________________ {224×224×3 double} {224×224×3 double} {224×224×3 double} {224×224×3 double}
data =阅读(ds)
Data = 4×1 cell array {224×224×3 double} {224×224×3 double} {224×224×3 double} {224×224×3 double}
複数入力

少なくともnumInputs個の列をもつ 单间牢房配列。numInputsはネットワーク入力の数です。

最初のnumInputs個の列は,各入力の予測子を指定します。

入力の順序は、ネットワークのInputNamesプロパティによって指定されます。

data =阅读(ds)
数据=4×2单元阵列{224×224×3 double}{128×128×3 double}{224×224×3 double}{128×128×3 double}{224×224×3 double}{128×128×3 double}{224×224×3 double}{128×128×3 double}

予測子の形式は,データのタイプによって異なります。

データ 予測子の形式
2.次元イメージ

高x宽x高の数値配列。ここで、h、 w、および Cは、それぞれイメージの高さ、幅、およびチャネル数です。

3次元イメージ

h x w x d cの数値配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数です。

ベクトルシーケンス

c行s列の行列。ここで,c はシーケンスの特徴の数、s はシーケンス長です。

2.次元イメージ シーケンス

h x w x c sの配列。ここで,h、w、および c はそれぞれイメージの高さ、幅、およびチャネル数に対応します。s はシーケンス長です。

ミニバッチ内の各シーケンスは,同じシーケンス長でなければなりません。

3.次元イメージ シーケンス

h x w x d x c sの配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数に対応します。s はシーケンス長です。

ミニバッチ内の各シーケンスは,同じシーケンス長でなければなりません。

特徴

c行1列の列ベクトル。cは特徴の数です。

詳細については,深層学習用のデータストアを参照してください。

イメージデータまたは特徴データ。数値配列として指定します。配列のサイズは入力のタイプによって以下のように異なります。

入力 説明
2.次元イメージ h x w x c x Nの数値配列。ここで,h、w、および c は、それぞれイメージの高さ、幅、およびチャネル数です。N はイメージの数です。
3次元イメージ h x w x d x c x Nの数値配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数です。N はイメージの数です。
特徴 N行numFeatures列の数値配列。ここで,Nは観測値の数、numFeaturesは入力データの特徴の数です。

配列にが含まれる場合,ネットワーク全体に伝播されます。

複数の入力があるネットワークの場合,複数の配列X1、……XNを指定できます。ここで,Nはネットワーク入力の数であり,入力西はネットワーク入力net.InputNames(我)に対応します。

シーケンスデータまたは時系列データ。数値配列のN行1 列の cell 配列、1 つのシーケンスを表す数値配列、またはデータストアとして指定します。ここで、N は観測値の数です。

细胞配列入力または数値配列入力の場合,シーケンスが含まれる数値配列の次元は,データのタイプによって異なります。

入力 説明
ベクトルシーケンス c行s列の行列。ここで,c はシーケンスの特徴の数、s はシーケンス長です。
2.次元イメージ シーケンス h x w x c sの配列。ここで,h、w、および c は、それぞれイメージの高さ、幅、およびチャネル数に対応します。s はシーケンス長です。
3.次元イメージ シーケンス H x w x d x c x s。ここで,h、w、d、および c は、それぞれ 3 次元イメージの高さ、幅、深さ、およびチャネル数に対応します。s はシーケンス長です。

データストア入力の場合,データストアはシーケンスの细胞配列,または最初の列にシーケンスが含まれる表としてデータを返さなければなりません。シーケンスデータの次元は,上記の表に対応していなければなりません。

イメージ データまたは特徴データの 桌子の各行は観測値に対応します。

表の列での予測子の配置は,入力データのタイプによって異なります。

入力 予測子
イメージデータ
  • イメージの絶対ファイルパスまたは相対ファイルパス。単一列の文字ベクトルとして指定します。

  • イメージ。3次元数値配列として指定します。

単一列で予測子を指定します。

特徴データ

数値スカラー。

表のnumFeatures個の列で予測子を指定します。numFeaturesは入力データの特徴の数です。

この引数は、単一の入力のみがあるネットワークをサポートします。

データ型:表格

名前と値のペアの引数

例:‘MiniBatchSize’,‘256’はミニバッチのサイズを256に指定します。

オプションの引数名称,值のコンマ区切りのペアを指定します。的名字は引数名で,价值は対応する値です。的名字は一重引用符(' ') で囲まなければなりません。

予測に使用するミニバッチのサイズ。正の整数として指定します。ミニバッチのサイズが大きくなるとより多くのメモリが必要になりますが、予測時間が短縮される可能性があります。

長さが異なるシーケンスで予測を行うと,ミニバッチのサイズが,入力データに追加されるパディングの量に影響し,異なる予測値が得られることがあります。さまざまな値を使用して,ネットワークに最適なものを確認してください。ミニバッチのサイズとパディングのオプションを指定するには,“MiniBatchSize”および“SequenceLength”オプションをそれぞれ使用します。

例:“MiniBatchSize”,256年

パフォーマンスの最適化。“加速”と次のいずれかで構成されるコンマ区切りのペアとして指定します。

  • “自动”——入力ネットワークとハードウェアリソースに適した最適化の回数を自動的に適用します。

  • 墨西哥人的- - - - - -墨西哥人関数をコンパイルして実行します。このオプションはGPUの使用時にのみ利用できます。GPUを使用するには,并行计算工具箱および以3.0计算能力上のCUDA対応NVIDIA GPUが必要です。并行计算工具箱または適切なGPUが利用できない場合,エラーが返されます。

  • “没有”——すべての高速化を無効にします。

既定のオプションは“自动”です。“自动”が指定されている場合、MATLAB®は互換性のある最適化を複数適用します。“自动”オプションを使用する場合、MATLABは 墨西哥関数を生成しません。

“加速”オプション“自动”および墨西哥人的を使用すると,パフォーマンス上のメリットが得られますが,初期実行時間が長くなります。互換性のあるパラメーターを使用した後続の呼び出しは,より高速になります。新しい入力データを使用して関数を複数回呼び出す場合は,パフォーマンスの最適化を使用してください。

墨西哥人的オプションは,関数の呼び出しに使用されたネットワークとパラメーターに基づいて墨西哥人関数を生成し,実行します。複数の墨西哥人関数を一度に1つのネットワークに関連付けることができます。ネットワークの変数をクリアすると,そのネットワークに関連付けられている墨西哥人関数もクリアされます。

墨西哥人的オプションは、GPUの使用時にのみ利用できます。C/C++コンパイラと GPU编码器™ 深度学习图书馆的界面サポート パッケージがインストールされていなければなりません。MATLABでアドオン エクスプローラーを使用してサポート パッケージをインストールします。設定手順については、墨西哥人の設定(GPU编码器)を参照してください。GPU编码器は不要です。

墨西哥人的オプションではサポートされていない層があります。サポートされている層の一覧については,サポートされている層(GPU编码器)を参照してください。sequenceInputLayerを含む再帰型ニューラル ネットワーク (RNN)はサポートされていません。

墨西哥人的オプションは,複数の入力層または複数の出力層をもつネットワークをサポートしていません。

墨西哥人的オプションの使用時に、MATLAB编译器™を使用してネットワークを配布することはできません。

例:“加速”、“墨西哥人的

ハードウェアリソース。“执行环境”と次のいずれかで構成されるコンマ区切りのペアとして指定します。

  • “自动”——利用可能な場合はGPUを使用し,そうでない場合はCPUを使用します。

  • “图形”- - - - - - GPUを使用します。GPUを使用するには,并行计算工具箱および以3.0计算能力上のCUDA対応NVIDIA GPUが必要です。并行计算工具箱または適切なGPUが利用できない場合,エラーが返されます。

  • “cpu”——CPUを使用します。

例:“ExecutionEnvironment”、“cpu的

入力シーケンスのパディング,切り捨て,または分割を行うオプション。次のいずれかに指定します。

  • “最长”——各ミニバッチで,最長のシーケンスと同じ長さになるようにシーケンスのパディングを行います。このオプションを使用するとデータは破棄されませんが,パディングによってネットワークにノイズが生じることがあります。

  • “最短”——各ミニバッチで,最短のシーケンスと同じ長さになるようにシーケンスの切り捨てを行います。このオプションを使用するとパディングは追加されませんが,データが破棄されます。

  • 正の整数——各ミニバッチで,ミニバッチで最長のシーケンスより大きい,指定長の最も近い倍数になるようにシーケンスのパディングを行った後,それらのシーケンスを指定長のより小さなシーケンスに分割します。分割が発生すると,追加のミニバッチが作成されます。シーケンス全体がメモリに収まらない場合は,このオプションを使用します。または,“MiniBatchSize”オプションをより小さい値に設定して、ミニバッチごとのシーケンス数を減らしてみます。

入力シーケンスのパディング,切り捨て,および分割の効果の詳細は,シーケンスのパディング、切り捨て、および分割を参照してください。

例:“SequenceLength”、“最短的

パディングまたは切り捨ての方向。次のいずれかに指定します。

  • “对”— シーケンスの右側に対してパディングまたは切り捨てを行います。シーケンスは同じタイム ステップで始まり、シーケンスの末尾に対して切り捨てまたはパディングの追加が行われます。

  • “左”— シーケンスの左側に対してパディングまたは切り捨てを行います。シーケンスが同じタイム ステップで終わるように、シーケンスの先頭に対して切り捨てまたはパディングの追加が行われます。

LSTM層は1タイムステップずつシーケンスデータを処理するため,層の输出模式プロパティが“最后”の場合,最後のタイムステップでパディングを行うと層の出力に悪影響を与える可能性があります。シーケンスデータの左側に対してパディングまたは切り捨てを行うには,“SequencePaddingDirection”オプションを“左”に設定します。

sequence-to-sequenceネットワークの場合(各LSTM層について输出模式プロパティが“序列”である場合),最初のタイムステップでパティングを行うと,それ以前のタイムステップの予測に悪影響を与える可能性があります。シーケンスの右側に対してパディングまたは切り捨てを行うには,“SequencePaddingDirection”オプションを“对”に設定します。

入力シーケンスのパディング,切り捨て,および分割の効果の詳細は,シーケンスのパディング、切り捨て、および分割を参照してください。

入力シーケンスをパディングする値。スカラーとして指定します。このオプションは,SequenceLength“最长”または正の整数の場合にのみ有効です。ネットワーク全体にエラーが伝播される可能性があるため,でシーケンスをパディングしないでください。

例:“SequencePaddingValue”,-1

出力引数

すべて折りたたむ

予測クラスラベル。直言ベクトル,または直言ベクトルの细胞配列として返されます。YPredの形式は,タスクのタイプによって異なります。

次の表は,分類タスクの形式について説明しています。

タスク 形式
イメージ分類または特徴分類 ラベルのN行1列の直言ベクトル。Nは観測値の数です。
sequence-to-label分類
sequence-to-sequence分類

ラベルのカテゴリカル シーケンスの N行 1.列の 单间牢房配列。Nは観測値の数です。SequenceLengthオプションを各ミニバッチに個別に適用した後,各シーケンスには,対応する入力シーケンスと同じ数のタイムステップが含まれています。

観測値が1つのsequence-to-sequence分類タスクでは,序列を行列にすることができます。この場合,YPredはラベルのカテゴリカル シーケンスです。

予測スコアまたは応答。行,列または行列の细胞配列として返されます。分数の形式は,タスクのタイプによって異なります。

次の表は,分数の形式について説明しています。

タスク 形式
イメージ分類 N行K列の行列。Nは観測値の数、K はクラスの数です。
sequence-to-label分類
特徴分類
sequence-to-sequence分類

行列のN行1列の细胞配列。Nは観測値の数です。シーケンスはK行の行列で,Kはクラスの数です。SequenceLengthオプションを各ミニバッチに個別に適用した後,各シーケンスには,対応する入力シーケンスと同じ数のタイムステップが含まれています。

観測値が1つのsequence-to-sequence分類タスクでは,序列を行列にすることができます。この場合,分数は,予測クラススコアの行列です。

分類スコアを調べる例については,深層学習を使用したWebカメライメージの分類を参照してください。

アルゴリズム

深度学习工具箱™ に含まれる深層学習における学習、予測、検証用のすべての関数は、単精度浮動小数点演算を使用して計算を実行します。深層学習用の関数にはtrainNetwork预测分类激活などがあります。中央处理器と GPUの両方を使用してネットワークに学習させる場合、単精度演算が使用されます。

代替方法

複数の出力があるネットワークの場合,预测を使用して、“返回分类”オプションを真正的に設定します。

预测を使用して学習済みネットワークから予測スコアを計算できます。

激活を使用してネットワーク層から活性化を計算することもできます。

sequence-to-labelおよびsequence-to-sequence分類ネットワークでは,classifyAndUpdateStateおよびpredictAndUpdateStateを使用してネットワークの状態の予測および更新を実行できます。

参照

工藤、富山、新保。“使用通过区域的多维曲线分类”。模式识别字母。第20卷,第11-13期,第1103-1111页。

[2] UCI机器学习知识库:日语元音数据集。https://archive.ics.uci.edu/ml/datasets/Japanese+Vowels

拡張機能

R2016aで導入