主要内容

このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。

分类

学習済み深層学習ニューラルネットワークを使用したデータの分類

説明

1.つの 中央处理器または 1.つの GPUで深層学習用の学習済みニューラル ネットワークを使用して予測を実行できます。GPUを使用するには、并行计算工具箱™ および 计算能力3.0以上の 库达®対応 英伟达®GPUが必要です。名前と値のペアの引数执行环境を使用してハードウェア要件を指定します。

複数の出力があるネットワークの場合、预测を使用して,“ReturnCategorial”オプションを符合事实的に設定します。

伊普雷德=分类(洛桑国际管理发展学院は,学習済みネットワークを使用して、イメージ データストア洛桑国际管理发展学院内のイメージのクラス ラベルを予測します。

伊普雷德=分类(dsは、データストアds内のデータのクラスラベルを予測します。

伊普雷德=分类(Xは、数値配列Xで指定されたイメージ データまたは特徴データのクラス ラベルを予測します。

伊普雷德=分类(,X1,…,XN)は、複数入力ネットワークに対する数値配列X1、…、XNのデータのクラスラベルを予測します。入力は、ネットワーク入力净输入名称(i)に対応します。

伊普雷德=分类(序列は、再帰型ネットワーク (LSTM)ネットワークや 格鲁ネットワークなど)に対する序列内の時系列データまたはシーケンス データのクラス ラベルを予測します。

伊普雷德=分类(tblは、表tbl内のデータのクラスラベルを予測します。

伊普雷德=分类(___名称、值は、前述の構文のいずれかを使用して、1.つ以上の名前と値のペアの引数によって指定された追加オプションを使用してクラス ラベルを予測します。

伊普雷德分数) =分类(___は、前述の構文のいずれかを使用して、クラス ラベルに対応する分類スコアも返します。

ヒント

長さが異なるシーケンスで予測を行うと,ミニバッチのサイズが,入力データに追加されるパディングの量に影響し,異なる予測値が得られることがあります。さまざまな値を使用して,ネットワークに最適なものを確認してください。ミニバッチのサイズとパディングのオプションを指定するには、“MiniBatchSize”および“SequenceLength”オプションをそれぞれ使用します。

すべて折りたたむ

標本データを読み込みます。

[XTrain, YTrain] = digitTrain4DArrayData;

Digittrain4daraydataは数字の学習セットを4次元配列データとして読み込みます。XTrainは28 28 x 5000 xの配列で,28はイメージの高さ,28は幅です。1はチャネルの数で,5000は手書きの数字の合成イメージの数です。は各観測値のラベルを含む 明确的ベクトルです。

畳み込みニューラルネットワークアーキテクチャを構築します。

层=[...imageInputLayer([28 28 1])卷积2dlayer (5,20) reluLayer maxPooling2dLayer(2, 20)“步”,2) fulllyconnectedlayer (10) softmaxLayer classificationLayer;

モーメンタム項付き確率的勾配降下法の既定の設定にオプションを設定します。

选项=培训选项(“sgdm”);

ネットワークに学習をさせます。

rng(“默认”)net=列车网络(XTrain、YTrain、图层、选项);
单CPU训练。初始化输入数据规范化。|========================================================================================| | 时代| |迭代时间| Mini-batch | Mini-batch |基地学习  | | | | ( hh: mm: ss) | | |丧失准确性  | |========================================================================================| | 1 | 1 |就是| | 2.3195 | 0.0100 10.16%||2 | 50 | 00:00:03 | 50.78% | 1.7102 | 0.0100 | | 3 | 100 | 00:00:06 | 63.28% | 1.1632 | 0.0100 | | 4 | 150 | 00:00:10 | 60.16% | 1.0859 | 0.0100 | | 6 | 200 | 00:00:13 | 68.75% | 0.8996 | 0.0100 | | 7 | 250 | 00:00:17 | 76.56% | 0.7920 | 0.0100 | | 8 | 300 | 00:00:20 | 73.44% | 0.8411 | 0.0100 | | 9 | 350 | 00:00:24 | 81.25% | 0.5508 | 0.0100 | | 11 | 400 | 00:00:29 | 90.62% | 0.4744 | 0.0100 | | 12 | 450 | 00:00:33 | 92.19% | 0.3614 | 0.0100 | | 13 | 500 | 00:00:37 | 94.53% | 0.3160 | 0.0100 | | 15 | 550 | 00:00:42 | 96.09% | 0.2544 | 0.0100 | | 16 | 600 | 00:00:46 | 92.19% | 0.2765 | 0.0100 | | 17 | 650 | 00:00:48 | 95.31% | 0.2460 | 0.0100 | | 18 | 700 | 00:00:51 | 99.22% | 0.1418 | 0.0100 | | 20 | 750 | 00:00:55 | 98.44% | 0.1000 | 0.0100 | | 21 | 800 | 00:00:58 | 98.44% | 0.1449 | 0.0100 | | 22 | 850 | 00:01:01 | 98.44% | 0.0989 | 0.0100 | | 24 | 900 | 00:01:05 | 96.88% | 0.1315 | 0.0100 | | 25 | 950 | 00:01:08 | 100.00% | 0.0859 | 0.0100 | | 26 | 1000 | 00:01:12 | 100.00% | 0.0701 | 0.0100 | | 27 | 1050 | 00:01:17 | 100.00% | 0.0759 | 0.0100 | | 29 | 1100 | 00:01:21 | 99.22% | 0.0663 | 0.0100 | | 30 | 1150 | 00:01:28 | 98.44% | 0.0776 | 0.0100 | | 30 | 1170 | 00:01:31 | 99.22% | 0.0732 | 0.0100 | |========================================================================================|

テストセットについて学習済みネットワークを実行します。

[XTest,欧美]= digitTest4DArrayData;YPred =分类(净,XTest);

テスト データの最初の 10個のイメージを表示して、分类の分類と比較します。

[YTest(1:10,:)YPred(1:10,:)]
ans=10 x2分类0 0 0 0 0 0 0 0 0 0 0 0

分类の結果は,最初の10個のイメージの真の数字に一致しています。

すべてのテスト データで精度を計算します。

精度= sum(YPred == YTest)/numel(YTest)
精度=0.9820

事前学習済みのネットワークを読み込みます。JapaneseVowelsNetは,[1]および[2]で説明されているように日本元音データセットで学習させた事前学習済みのLSTMネットワークです。これは,ミニバッチのサイズ27を使用して,シーケンス長で並べ替えられたシーケンスで学習させています。

负载JapaneseVowelsNet

ネットワーク アーキテクチャを表示します。

net.Layers
ans=5x1带层的层阵列:1“sequenceinput”带12维的序列输入序列输入2“lstm”带100个隐藏单元的lstm lstm 3“fc”完全连接9个完全连接的层4“softmax”softmax 5“classoutput”带“1”和8个其他类的分类输出crossentropyex

テスト データを読み込みます。

[XTest,YTest]=日本世界统计数据;

テストデータを分類します。

YPred =分类(净,XTest);

最初の 10個のシーケンスのラベルと、その予測ラベルを表示します。

[欧美(1:10)YPred (1:10)]
ans=10 x2分类1 1 1 1 1 1 1 1 1 1 1 1 1

予測の分類精度を計算します。

精度= sum(YPred == YTest)/numel(YTest)
精度= 0.8595

事前学習済みのネットワーク输电网を読み込みます。このネットワークは,数値センサーの読み取り値,統計量,およびカテゴリカル入力の混合を所与として,トランスミッションシステムの歯車の状態を分類します。

负载TransmissionCasingNet.mat

ネットワーク アーキテクチャを表示します。

net.Layers
ans = 7x1 Layer array with layers:1“输入”功能输入22特性与“zscore”正常化2“fc_1”完全连接50完全连接第三层‘batchnorm批量标准化批量标准化50通道4的relu relu relu 5“fc_2”完全连接2完全连接层6‘softmax softmax softmax 7“classoutput”分类输出crossentropyex类的没有Tooth Fault' and 'Tooth Fault'

CSVファイル“transmissionCasingData.csv”からトランスミッション ケーシング データを読み取ります。

文件名=“transmissionCasingData.csv”;台= readtable(文件名,“TextType”“字符串”);

関数转换器を使用して、予測のラベルを 明确的に変換します。

标签名=“齿轮齿状况”;tbl=转换器(tbl,标签名称,“绝对的”);

カテゴリカル特徴量を使用して予測を行うには、最初にカテゴリカル特徴量を数値に変換しなければなりません。まず、関数转换器を使用して、すべてのカテゴリカル入力変数の名前を格納した 一串配列を指定することにより、カテゴリカル予測子を 明确的に変換します。このデータ セットには、“传感器状态”“轴系条件”という名前の2つのカテゴリカル特徴量があります。

categoricalInputNames = [“传感器状态”“轴系条件”];tbl=convertvars(tbl,分类输入名称,“绝对的”);

カテゴリカル入力変数をループ処理します。各変数について次を行います。

  • 関数onehotencodeを使用して、カテゴリカル値を 一个热的符号化ベクトルに変換する。

  • 関数艾德瓦を使用して、一个热的ベクトルを 桌子に追加する。対応するカテゴリカル データが含まれる列の後にベクトルを挿入するように指定する。

  • カテゴリカルデータが含まれる対応する列を削除する。

对于i=1:numel(categoricalInputNames)name=categoricalInputNames(i);oh=onehotencode(tbl(:,name));tbl=addvars(tbl,噢,“之后”、名称);台(:名字)= [];终止

関数splitvarsを使用して、ベクトルを別々の列に分割します。

tbl=拆分变量(tbl);

桌子の最初の数行を表示します。

总目(待定)
ans=8×23表SigMean SigMedian SigRMS SigVar SigPeak SigPeak 2peak SigSkewness SigKurtosis SigCrestFactor SigMAD SigRangeCumSum SigCorrDimension SigApproxEntropy SigLyapExponent PeakFreq HighFreqPower EnvPower peakspec峰度无传感器漂移传感器漂移无轴磨损轴磨损齿轮齿状况________ _________ ______ _______ _______ _______________________ ___________ ______________ _______ ______________ ________________ ________________ _______________ ________ _____________ ________ ________________ _______________ ____________ _____________ __________ __________________ - 0.94876 -0.9722 1.3726 0.98387 0.81571 3.6314 -0.041525 2.2666 2.0514 0.8081 1.1429 0.031581 79.931 28562 06.75 e-06 3.23 e-07 162.13 0 1 1 0没有牙齿错-0.97537 -0.98958 1.3937 0.99105 0.81571 3.6314 -0.023777 2.2598 2.0203 0.81017 29418 1.1362 0.037835 70.325 5.08 e-08 9.16 e-08 226.12 0 1 1 0没有牙齿错1.0502 1.0267 1.4449 0.98491 2.8157 3.6314 -0.04162 2.2658 1.9487 0.80853 31710 1.1479 0.031565 125.19 6.74 e-06 2.85 e-07 162.13 0 1 0 1没有牙错1.0227 1.0045 1.4288 0.99553 2.8157 3.6314 -0.016356 2.2483 1.9707 0.81324 30984 1.1472 0.032088 112.5 4.99 e-06 2.4 e-07 162.13 0 1 0 1没有牙齿错1.0123 1.0024 1.4202 0.99233 2.8157 3.6314 -0.014701 2.2542 1.9826 0.81156 30661 1.1469 0.03287 108.86 3.62 e-06 2.28 e-07 230.39 0 1 0 1没有牙齿错1.0275 1.0102 1.4338 1.00012.8157 3.6314 -0.02659 2.2439 1.9638 0.81589 31102 1.0985 0.033427 64.576 2.55 e-06 1.65 e-07 230.39 0 1 0 1没有牙齿错1.0464 1.0275 1.4477 1.0011 2.8157 3.6314 -0.042849 2.2455 1.9449 0.81595 31665 1.1417 0.034159 98.838 1.73 e-06 1.55 e-07 230.39 0 1 0 1没有牙齿错1.0459 1.0257 1.4402 0.98047 2.8157 3.6314 -0.035405 2.2757 1.955 0.8058331554 1.1345 0.0353 44.223 0 1.11e-06 1.39e-07 230.39 0 1 0 1 No Tooth Fault

学習済みネットワークを使用してテストデータのラベルを予測し,精度を計算します。学習に使用されるサイズと同じミニバッチサイズを指定します。

YPred=分类(净,待分类(:,1:end-1));

分類精度を計算します。精度は、ネットワークが正しく予測するラベルの比率です。

欧美=台{:labelName};精度= sum(YPred == YTest)/numel(YTest)
精度=0.9952

入力引数

すべて折りたたむ

学習済みネットワーク。SeriesNetworkまたはDAGNetworkオブジェクトとして指定します。事前学習済みのネットワークをインポートする (たとえば、関数水壶を使用する)、または列车网络を使用して独自のネットワークに学習させることによって,学習済みネットワークを取得できます。

イメージデータストア。ImageDatastoreオブジェクトとして指定します。

ImageDatastoreを使用すると、事前取得を使用して JPGまたは 巴布亚新几内亚イメージ ファイルのバッチ読み取りを行うことができます。イメージの読み取りにカスタム関数を使用する場合、ImageDatastoreは事前取得を行いません。

ヒント

イメージのサイズ変更を含む深層学習用のイメージの前処理を効率的に行うには,augmentedImageDatastoreを使用します。

图像数据存储readFcnオプションは通常、速度が大幅に低下するため、前処理またはサイズ変更に使用しないでください。

メモリ外のデータおよび前処理用のデータストア。データストアは、桌子または 单间牢房配列でデータを返さなければなりません。データストア出力の形式は、ネットワーク アーキテクチャによって異なります。

ネットワークアーキテクチャ データストア出力 出力の例
単一入力

桌子または 单间牢房配列。最初の列は予測子を指定します。

桌子の要素は、スカラー、行ベクトルであるか、数値配列が格納された 1.行 1.列の 单间牢房配列でなければなりません。

カスタム データストアは 桌子を出力しなければなりません。

data =阅读(ds)
数据=4×1表预测器{224×224×3双精度}{224×224×3双精度}{224×224×3双精度}{224×224×3双精度}{224×224×3双精度}{224×224×3双精度}{224×224×3双精度}
data =阅读(ds)
数据=4×1单元阵列{224×224×3 double}{224×224×3 double}{224×224×3 double}{224×224×3 double}
複数入力

少なくとも努明普茨個の列をもつ细胞配列。努明普茨はネットワーク入力の数です。

最初の努明普茨個の列は、各入力の予測子を指定します。

入力の順序は,ネットワークの输入名称プロパティによって指定されます。

data =阅读(ds)
Data = 4×2 cell array {224×224×3 double} {128×128×3 double} {224×224×3 double} {128×128×3 double} {224×224×3 double} {128×128×3 double} {224×224×3 double} {128×128×3 double}

予測子の形式は、データのタイプによって異なります。

データ 予測子の形式
2次元イメージ

h c w xの数値配列。ここでh, w,およびcはそれぞれイメージの高さ,幅,およびチャネル数です。

3.次元イメージ

高x宽x深x深の数値配列。ここで、h、 w、d、および Cは、それぞれイメージの高さ、幅、深さ、およびチャネル数です。

ベクトル シーケンス

C行 s列の行列。ここで、Cはシーケンスの特徴の数、sはシーケンス長です。

2次元イメージシーケンス

h x w x c sの配列。ここでh, w,およびcはそれぞれイメージの高さ,幅,およびチャネル数に対応します。年代はシーケンス長です。

ミニバッチ内の各シーケンスは、同じシーケンス長でなければなりません。

3次元イメージシーケンス

h x w x d x c sの配列。ここでh, w, d,およびcはそれぞれイメージの高さ,幅,深さ,およびチャネル数に対応します。年代はシーケンス長です。

ミニバッチ内の各シーケンスは、同じシーケンス長でなければなりません。

特徴

c行1列の列ベクトル。cは特徴の数です。

詳細については,深層学習用のデータストアを参照してください。

イメージ データまたは特徴データ。数値配列として指定します。配列のサイズは入力のタイプによって以下のように異なります。

入力 説明
2次元イメージ 高x宽x碳x氮の数値配列。ここで、h、 w、および Cは、それぞれイメージの高さ、幅、およびチャネル数です。Nはイメージの数です。
3.次元イメージ h x w x d x c x Nの数値配列。ここでh, w, d,およびcはそれぞれイメージの高さ,幅,深さ,およびチャネル数です。Nはイメージの数です。
特徴 N行numFeatures列の数値配列。ここで、Nは観測値の数、numFeaturesは入力データの特徴の数です。

配列にが含まれる場合,ネットワーク全体に伝播されます。

複数の入力があるネットワークの場合、複数の配列X1、…、XNを指定できます。ここで、Nはネットワーク入力の数であり、入力はネットワーク入力净输入名称(i)に対応します。

シーケンス データまたは時系列データ。数値配列の N行 1.列の 单间牢房配列、1.つのシーケンスを表す数値配列、またはデータストアとして指定します。ここで、Nは観測値の数です。

单间牢房配列入力または数値配列入力の場合、シーケンスが含まれる数値配列の次元は、データのタイプによって異なります。

入力 説明
ベクトル シーケンス C行 s列の行列。ここで、Cはシーケンスの特徴の数、sはシーケンス長です。
2次元イメージシーケンス 高x宽x高x低の配列。ここで、h、 w、および Cは、それぞれイメージの高さ、幅、およびチャネル数に対応します。sはシーケンス長です。
3次元イメージシーケンス H x w x d x c x s。ここでh, w, d,およびcはそれぞれ3次元イメージの高さ,幅,深さ,およびチャネル数に対応します。年代はシーケンス長です。

データストア入力の場合、データストアはシーケンスの 单间牢房配列、または最初の列にシーケンスが含まれる 桌子としてデータを返さなければなりません。シーケンス データの次元は、上記の 桌子に対応していなければなりません。

イメージデータまたは特徴データの表。表の各行は観測値に対応します。

桌子の列での予測子の配置は、入力データのタイプによって異なります。

入力 予測子
イメージデータ
  • イメージの絶対ファイルパスまたは相対ファイルパス。単一列の文字ベクトルとして指定します。

  • イメージ。3.次元数値配列として指定します。

単一列で予測子を指定します。

特徴データ

数値スカラー。

桌子のnumFeatures個の列で予測子を指定します。numFeaturesは入力データの特徴の数です。

この引数は,単一の入力のみがあるネットワークをサポートします。

データ型:桌子

名前と値のペアの引数

例:‘MiniBatchSize’,‘256’はミニバッチのサイズを 256に指定します。

オプションの引数名称、值のコンマ区切りのペアを指定します。的名字は引数名で,价值は対応する値です。的名字は一重引用符 (' ')で囲まなければなりません。

予測に使用するミニバッチのサイズ。正の整数として指定します。ミニバッチのサイズが大きくなるとより多くのメモリが必要になりますが、予測時間が短縮される可能性があります。

長さが異なるシーケンスで予測を行うと,ミニバッチのサイズが,入力データに追加されるパディングの量に影響し,異なる予測値が得られることがあります。さまざまな値を使用して,ネットワークに最適なものを確認してください。ミニバッチのサイズとパディングのオプションを指定するには、“MiniBatchSize”および“SequenceLength”オプションをそれぞれ使用します。

例:“MiniBatchSize”,256

パフォーマンスの最適化。“加速”と次のいずれかで構成されるコンマ区切りのペアとして指定します。

  • “汽车”— 入力ネットワークとハードウェア リソースに適した最適化の回数を自動的に適用します。

  • “墨西哥”- - - - - -墨西哥人関数をコンパイルして実行します。このオプションはGPUの使用時にのみ利用できます。GPUを使用するには、并行计算工具箱および 计算能力3.0以上の 库达対応 英伟达GPUが必要です。并行计算工具箱または適切な GPUが利用できない場合、エラーが返されます。

  • “没有”— すべての高速化を無効にします。

既定のオプションは“汽车”です。“汽车”が指定されている場合,MATLAB®は互換性のある最適化を複数適用します。“汽车”オプションを使用する場合,MATLABは墨西哥人関数を生成しません。

“加速”オプション“汽车”および“墨西哥”を使用すると、パフォーマンス上のメリットが得られますが、初期実行時間が長くなります。互換性のあるパラメーターを使用した後続の呼び出しは、より高速になります。新しい入力データを使用して関数を複数回呼び出す場合は、パフォーマンスの最適化を使用してください。

“墨西哥”オプションは、関数の呼び出しに使用されたネットワークとパラメーターに基づいて 墨西哥関数を生成し、実行します。複数の 墨西哥関数を一度に 1.つのネットワークに関連付けることができます。ネットワークの変数をクリアすると、そのネットワークに関連付けられている 墨西哥関数もクリアされます。

“墨西哥”オプションは,GPUの使用時にのみ利用できます。C / c++コンパイラとGPU编码器™界面深度学习库サポートパッケージがインストールされていなければなりません。MATLABでアドオンエクスプローラーを使用してサポートパッケージをインストールします。設定手順については,墨西哥の設定(GPU编码器)を参照してください。GPU编码器は不要です。

“墨西哥”オプションではサポートされていない層があります。サポートされている層の一覧については,サポートされている層(GPU编码器)を参照してください。sequenceInputLayerを含む再帰型ニューラルネットワーク(RNN)はサポートされていません。

“墨西哥”オプションは、複数の入力層または複数の出力層をもつネットワークをサポートしていません。

“墨西哥”オプションの使用時に,MATLAB编译器™を使用してネットワークを配布することはできません。

例:‘加速度’,‘mex’

ハードウェア リソース。“ExecutionEnvironment”と次のいずれかで構成されるコンマ区切りのペアとして指定します。

  • “汽车”— 利用可能な場合は GPUを使用し、そうでない場合は 中央处理器を使用します。

  • “gpu”-GPUを使用します。GPUを使用するには、并行计算工具箱および 计算能力3.0以上の 库达対応 英伟达GPUが必要です。并行计算工具箱または適切な GPUが利用できない場合、エラーが返されます。

  • “cpu”-中央处理器を使用します。

例:“ExecutionEnvironment”、“cpu的

入力シーケンスのパディング、切り捨て、または分割を行うオプション。次のいずれかに指定します。

  • “最长的”— 各ミニバッチで、最長のシーケンスと同じ長さになるようにシーケンスのパディングを行います。このオプションを使用するとデータは破棄されませんが、パディングによってネットワークにノイズが生じることがあります。

  • “最短的”——各ミニバッチで,最短のシーケンスと同じ長さになるようにシーケンスの切り捨てを行います。このオプションを使用するとパディングは追加されませんが,データが破棄されます。

  • 正の整数 — 各ミニバッチで、ミニバッチで最長のシーケンスより大きい、指定長の最も近い倍数になるようにシーケンスのパディングを行った後、それらのシーケンスを指定長のより小さなシーケンスに分割します。分割が発生すると、追加のミニバッチが作成されます。シーケンス全体がメモリに収まらない場合は、このオプションを使用します。または、“MiniBatchSize”オプションをより小さい値に設定して,ミニバッチごとのシーケンス数を減らしてみます。

入力シーケンスのパディング、切り捨て、および分割の効果の詳細は、シーケンスのパディング,切り捨て,および分割を参照してください。

例:“SequenceLength”、“最短的

パディングまたは切り捨ての方向。次のいずれかに指定します。

  • “对”——シーケンスの右側に対してパディングまたは切り捨てを行います。シーケンスは同じタイムステップで始まり,シーケンスの末尾に対して切り捨てまたはパディングの追加が行われます。

  • “左”——シーケンスの左側に対してパディングまたは切り捨てを行います。シーケンスが同じタイムステップで終わるように,シーケンスの先頭に対して切り捨てまたはパディングの追加が行われます。

LSTM層は 1.タイム ステップずつシーケンス データを処理するため、層のOutputModeプロパティが“最后一次”の場合、最後のタイム ステップでパディングを行うと層の出力に悪影響を与える可能性があります。シーケンス データの左側に対してパディングまたは切り捨てを行うには、“SequencePaddingDirection”オプションを“左”に設定します。

顺序对顺序ネットワークの場合 (各 LSTM層についてOutputModeプロパティが“顺序”である場合)、最初のタイム ステップでパティングを行うと、それ以前のタイム ステップの予測に悪影響を与える可能性があります。シーケンスの右側に対してパディングまたは切り捨てを行うには、“SequencePaddingDirection”オプションを“对”に設定します。

入力シーケンスのパディング、切り捨て、および分割の効果の詳細は、シーケンスのパディング,切り捨て,および分割を参照してください。

入力シーケンスをパディングする値。スカラーとして指定します。このオプションは、序列长度“最长的”または正の整数の場合にのみ有効です。ネットワーク全体にエラーが伝播される可能性があるため、でシーケンスをパディングしないでください。

例:“SequencePaddingValue”,1

出力引数

すべて折りたたむ

予測クラス ラベル。明确的ベクトル、または 明确的ベクトルの 单间牢房配列として返されます。伊普雷德の形式は,タスクのタイプによって異なります。

次の表は、分類タスクの形式について説明しています。

タスク 形式
イメージ分類または特徴分類 ラベルの N行 1.列の 明确的ベクトル。Nは観測値の数です。
要标记的序列分類
顺序对顺序分類

ラベルのカテゴリカルシーケンスのN行1列の细胞配列。Nは観測値の数です。序列长度オプションを各ミニバッチに個別に適用した後、各シーケンスには、対応する入力シーケンスと同じ数のタイム ステップが含まれています。

観測値が1つのsequence-to-sequence分類タスクでは,序列を行列にすることができます。この場合,伊普雷德はラベルのカテゴリカルシーケンスです。

予測スコアまたは応答。行列、または行列の 单间牢房配列として返されます。分数の形式は,タスクのタイプによって異なります。

次の表は,分数の形式について説明しています。

タスク 形式
イメージ分類 N行K列の行列。Nは観測値の数、K はクラスの数です。
要标记的序列分類
特徴分類
顺序对顺序分類

行列の N行 1.列の 单间牢房配列。Nは観測値の数です。シーケンスは K行の行列で、Kはクラスの数です。序列长度オプションを各ミニバッチに個別に適用した後、各シーケンスには、対応する入力シーケンスと同じ数のタイム ステップが含まれています。

観測値が1つのsequence-to-sequence分類タスクでは,序列を行列にすることができます。この場合,分数は、予測クラス スコアの行列です。

分類スコアを調べる例については、深層学習を使用したWebカメライメージの分類を参照してください。

アルゴリズム

深度学习工具箱™に含まれる深層学習における学習,予測,検証用のすべての関数は,単精度浮動小数点演算を使用して計算を実行します。深層学習用の関数には列车网络预测分类激活などがあります。CPUとGPUの両方を使用してネットワークに学習させる場合,単精度演算が使用されます。

代替方法

複数の出力があるネットワークの場合、预测を使用して,“ReturnCategorial”オプションを符合事实的に設定します。

预测を使用して学習済みネットワークから予測スコアを計算できます。

激活を使用してネットワーク層から活性化を計算することもできます。

要标记的序列および 顺序对顺序分類ネットワークでは、分类与更新房地产およびpredictAndUpdateStateを使用してネットワークの状態の予測および更新を実行できます。

参照

[1] M.Kudo,J.Toyama和M.Shimbo.“使用通过区域的多维曲线分类”,《模式识别快报》,第20卷,第11-13期,第1103-1111页。

[2] UCI机器学习库:日语元音数据集。https://archive.ics.uci.edu/ml/datasets/Japanese+元音

拡張機能

R2016aで導入