このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。
学習済み深層学習ニューラルネットワークを使用したデータの分類
1つのCPUまたは1つのGPUで深層学習用の学習済みニューラルネットワークを使用して予測を実行できます。GPUを使用するには,并行计算工具箱™および以3.0计算能力上のCUDA®対応英伟达®GPUが必要です。名前と値のペアの引数ExecutionEnvironment
を使用してハードウェア要件を指定します。
[
は,前述の構文のいずれかを使用して,クラスラベルに対応する分類スコアも返します。YPred
,分数
]=分类(___)
ヒント
長さが異なるシーケンスで予測を行うと,ミニバッチのサイズが,入力データに追加されるパディングの量に影響し,異なる予測値が得られることがあります。さまざまな値を使用して,ネットワークに最適なものを確認してください。ミニバッチのサイズとパディングのオプションを指定するには,“MiniBatchSize”
および“SequenceLength”
オプションをそれぞれ使用します。
標本データを読み込みます。
[XTrain, YTrain] = digitTrain4DArrayData;
digitTrain4DArrayData
は数字の学習セットを 4.次元配列データとして読み込みます。XTrain
は 28 x 28 x 1 x 5000の配列で、28はイメージの高さ、28は幅です。1.はチャネルの数で、5000は手書きの数字の合成イメージの数です。YTrain
は各観測値のラベルを含む直言ベクトルです。
畳み込みニューラル ネットワーク アーキテクチャを構築します。
层= [...imageInputLayer([28 1])卷积2Dlayer(5,20)reluLayer MaxPoolig2Dlayer(2,“大步走”,2) fulllyconnectedlayer (10) softmaxLayer classificationLayer;
モーメンタム項付き確率的勾配降下法の既定の設定にオプションを設定します。
选择= trainingOptions (“个”);
ネットワークに学習をさせます。
rng (“默认”) net = trainNetwork(XTrain,YTrain,layers,options);
在单CPU上进行培训。初始化输入数据规范化。|=================================================================================================================================================================================历元|迭代|时间经过|小批量|基础学习|第二种第二种第二种第二种第二种第二种第二种第二种第二种第二种第二种第二种第二种第二种第二种第二种第第二种第二种第第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第二种第四种第四种第四种第二种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四种第四|0.0100 | 3 | 100 | 00:00:06 | 63.28%| 1.1632 | 0.0100 | 4 | 150 | 00:00:10 | 60.16%| 1.0859 1240 1240 | 6 | 200 | 00:00:13 | 68.75%1240.8996 | 0.0100 | | 7 | 250 | 00:00:17 | 76.56% | 0.7920 | 0.0100 | | 8 | 300 | 00:00:20 | 73.44% | 0.8411 | 0.0100 | | 9 | 350 | 00:00:24 | 81.25% | 0.5508 | 0.0100 | | 11 | 400 | 00:00:29 | 90.62% | 0.4744 | 0.0100 | | 12 | 450 | 00:00:33 | 92.19% | 0.3614 | 0.0100 | | 13 | 500 | 00:00:37 | 94.53% | 0.3160 | 0.0100 | | 15 | 550 | 00:00:42 | 96.09% | 0.2544 | 0.0100 | | 16 | 600 | 00:00:46 | 92.19% | 0.2765 | 0.0100 | | 17 | 650 | 00:00:48 | 95.31% | 0.2460 | 0.0100 | | 18 | 700 | 00:00:51 | 99.22% | 0.1418 | 0.0100 | | 20 | 750 | 00:00:55 | 98.44% | 0.1000 | 0.0100 | | 21 | 800 | 00:00:58 | 98.44% | 0.1449 | 0.0100 | | 22 | 850 | 00:01:01 | 98.44% | 0.0989 | 0.0100 | | 24 | 900 | 00:01:05 | 96.88% | 0.1315 | 0.0100 | | 25 | 950 | 00:01:08 | 100.00% | 0.0859 | 0.0100 | | 26 | 1000 | 00:01:12 | 100.00% | 0.0701 | 0.0100 | | 27 | 1050 | 00:01:17 | 100.00% | 0.0759 | 0.0100 | | 29 | 1100 | 00:01:21 | 99.22% | 0.0663 | 0.0100 | | 30 | 1150 | 00:01:28 | 98.44% | 0.0776 | 0.0100 | | 30 | 1170 | 00:01:31 | 99.22% | 0.0732 | 0.0100 | |========================================================================================|
テスト セットについて学習済みネットワークを実行します。
[XTest,欧美]= digitTest4DArrayData;YPred =分类(净,XTest);
テストデータの最初の10個のイメージを表示して,分类
の分類と比較します。
[欧美(1:10,:)YPred (1:10,:))
ans =10 x2分类0 0 0 0 0 0 0 0 0 0 0 0
分类
の結果は,最初の10個のイメージの真の数字に一致しています。
すべてのテストデータで精度を計算します。
精度=总和(YPred==YTest)/numel(YTest)
精度= 0.9820
事前学習済みのネットワークを読み込みます。日本世界新闻网
は、[1] および [2] で説明されているように 日语元音データセットで学習させた事前学習済みの LSTMネットワークです。これは、ミニバッチのサイズ 27を使用して、シーケンス長で並べ替えられたシーケンスで学習させています。
负载日本世界新闻网
ネットワークアーキテクチャを表示します。
网。层
ans x1 = 5层阵列层:1“sequenceinput”序列输入序列输入12维度2的lstm lstm lstm 100隐藏单位3 fc的完全连接9完全连接层4的softmax softmax softmax 5 classoutput的分类输出crossentropyex ' 1 ', 8其他类
テストデータを読み込みます。
[XTest,欧美]= japaneseVowelsTestData;
テスト データを分類します。
YPred =分类(净,XTest);
最初の10個のシーケンスのラベルと,その予測ラベルを表示します。
[YTest(1:10)YPred(1:10)]
ans =10 x2分类1 1 1 1 1 1 1 1 1 1 1 1 1
予測の分類精度を計算します。
精度=总和(YPred==YTest)/numel(YTest)
精度= 0.8595
事前学習済みのネットワークTransmissionCasingNet
を読み込みます。このネットワークは,数値センサーの読み取り値,統計量,およびカテゴリカル入力の混合を所与として,トランスミッションシステムの歯車の状態を分類します。
负载TransmissionCasingNet.mat
ネットワークアーキテクチャを表示します。
网。层
ans=7x1层阵列带层:1“输入”功能输入22个功能带“zscore”标准化2“fc_1”完全连接50个完全连接层3“batchnorm”批量标准化50个通道批量标准化4“relu”relu relu 5“fc_2”完全连接2个完全连接层6“softmax”softmax 7“classoutput”分类Out具有“无齿故障”和“齿故障”等级的crossentropyex
CSVファイル“transmissionCasingData.csv”
からトランスミッションケーシングデータを読み取ります。
文件名=“transmissionCasingData.csv”;台= readtable(文件名,“TextType”,“字符串”);
関数convertvars
を使用して,予測のラベルを直言に変換します。
labelName =“GearToothCondition”;台= convertvars(资源描述、labelName“分类”);
カテゴリカル特徴量を使用して予測を行うには,最初にカテゴリカル特徴量を数値に変換しなければなりません。まず,関数convertvars
を使用して,すべてのカテゴリカル入力変数の名前を格納した字符串配列を指定することにより,カテゴリカル予測子を直言に変換します。このデータセットには,“SensorCondition”
と“ShaftCondition”
という名前の 2.つのカテゴリカル特徴量があります。
categoricalInputNames=[“SensorCondition”“ShaftCondition”];台= convertvars(资源描述、categoricalInputNames“分类”);
カテゴリカル入力変数をループ処理します。各変数について次を行います。
関数onehotencode
を使用して,カテゴリカル値を一个炎热符号化ベクトルに変換する。
関数addvars
を使用して,一个炎热的ベクトルを表に追加する。対応するカテゴリカルデータが含まれる列の後にベクトルを挿入するように指定する。
カテゴリカルデータが含まれる対応する列を削除する。
为i = 1:numel(categoricalInputNames) name = categoricalInputNames(i);哦= onehotencode(资源描述(:,名字));台= addvars(资源描述,哦,“后”、名称);台(:名字)= [];结束
関数斯普利瓦茨
を使用して,ベクトルを別々の列に分割します。
台= splitvars(台);
表の最初の数行を表示します。
头(台)
ans =表8×23SigMean SigMedian SigRMS SigVar SigPeak SigPeak 2peak SigSkewness SigKurtosis SigCrestFactor SigMAD SigRangeCumSum SigCorrDimension SigApproxEntropy SigLyapExponent PeakFreq HighFreqPower EnvPower peakspec峰度无传感器漂移传感器漂移无轴磨损轴磨损齿轮齿状况________ _________ ______ _______ _______ _______________________ ___________ ______________ _______ ______________ ________________ ________________ _______________ ________ _____________ ________ ________________ _______________ ____________ _____________ __________ __________________ - 0.94876 -0.9722 1.3726 0.98387 0.81571 3.6314 -0.041525 2.2666 2.0514 0.8081 1.1429 0.031581 79.931 28562 06.75 e-06 3.23 e-07 162.13 0 1 1 0没有牙齿错-0.97537 -0.98958 1.3937 0.99105 0.81571 3.6314 -0.023777 2.2598 2.0203 0.81017 29418 1.1362 0.037835 70.325 5.08 e-08 9.16 e-08 226.12 0 1 1 0没有牙齿错1.0502 1.0267 1.4449 0.98491 2.8157 3.6314 -0.04162 2.2658 1.9487 0.80853 31710 1.1479 0.031565 125.19 6.74 e-06 2.85 e-07 162.13 0 1 0 1没有牙错1.0227 1.0045 1.4288 0.99553 2.8157 3.6314 -0.016356 2.2483 1.9707 0.81324 30984 1.1472 0.032088 112.5 4.99 e-06 2.4 e-07 162.13 0 1 0 1没有牙齿错1.0123 1.0024 1.4202 0.99233 2.8157 3.6314 -0.014701 2.2542 1.9826 0.81156 30661 1.1469 0.03287 108.86 3.62 e-06 2.28 e-07 230.39 0 1 0 1没有牙齿错1.0275 1.0102 1.4338 1.00012.8157 3.6314 -0.02659 2.2439 1.9638 0.81589 31102 1.0985 0.033427 64.576 2.55 e-06 1.65 e-07 230.39 0 1 0 1没有牙齿错1.0464 1.0275 1.4477 1.0011 2.8157 3.6314 -0.042849 2.2455 1.9449 0.81595 31665 1.1417 0.034159 98.838 1.73 e-06 1.55 e-07 230.39 0 1 0 1没有牙齿错1.0459 1.0257 1.4402 0.98047 2.8157 3.6314 -0.035405 2.2757 1.955 0.8058331554 1.1345 0.0353 44.223 0 1.11e-06 1.39e-07 230.39 0 1 0 1 No Tooth Fault
学習済みネットワークを使用してテストデータのラベルを予測し,精度を計算します。学習に使用されるサイズと同じミニバッチサイズを指定します。
YPred =分类(净台(:1:end-1));
分類精度を計算します。精度は,ネットワークが正しく予測するラベルの比率です。
欧美=台{:labelName};精度=总和(YPred==YTest)/numel(YTest)
精度= 0.9952
净
—学習済みネットワーク系列网络
オブジェクト|DAGNetwork
オブジェクト学習済みネットワーク。系列网络
またはDAGNetwork
オブジェクトとして指定します。事前学習済みのネットワークをインポートする (たとえば、関数googlenet
を使用する),またはtrainNetwork
を使用して独自のネットワークに学習させることによって,学習済みネットワークを取得できます。
imds
—イメージ データストア图像数据存储
オブジェクトイメージデータストア。图像数据存储
オブジェクトとして指定します。
图像数据存储
を使用すると,事前取得を使用してJPGまたはPNGイメージファイルのバッチ読み取りを行うことができます。イメージの読み取りにカスタム関数を使用する場合,图像数据存储
は事前取得を行いません。
ヒント
イメージのサイズ変更を含む深層学習用のイメージの前処理を効率的に行うには、augmentedImageDatastore
を使用します。
imageDatastore
のreadFcn
オプションは通常,速度が大幅に低下するため,前処理またはサイズ変更に使用しないでください。
ds
—データストアメモリ外のデータおよび前処理用のデータストア。データストアは、表またはcell 配列でデータを返さなければなりません。データストア出力の形式は、ネットワーク アーキテクチャによって異なります。
ネットワーク アーキテクチャ | データストア出力 | 出力の例 |
---|---|---|
単一入力 | 表または细胞配列。最初の列は予測子を指定します。 表の要素は,スカラー,行ベクトルであるか,数値配列が格納された1行1列の细胞配列でなければなりません。 カスタムデータストアは表を出力しなければなりません。 |
data =阅读(ds) data = 4×1 table Predictors __________________ {224×224×3 double} {224×224×3 double} {224×224×3 double} {224×224×3 double} |
data =阅读(ds) Data = 4×1 cell array {224×224×3 double} {224×224×3 double} {224×224×3 double} {224×224×3 double} |
||
複数入力 | 少なくとも 最初の 入力の順序は、ネットワークの |
data =阅读(ds) 数据=4×2单元阵列{224×224×3 double}{128×128×3 double}{224×224×3 double}{128×128×3 double}{224×224×3 double}{128×128×3 double}{224×224×3 double}{128×128×3 double} |
予測子の形式は,データのタイプによって異なります。
データ | 予測子の形式 |
---|---|
2.次元イメージ | 高x宽x高の数値配列。ここで、h、 w、および Cは、それぞれイメージの高さ、幅、およびチャネル数です。 |
3次元イメージ | h x w x d cの数値配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数です。 |
ベクトルシーケンス | c行s列の行列。ここで,c はシーケンスの特徴の数、s はシーケンス長です。 |
2.次元イメージ シーケンス | h x w x c sの配列。ここで,h、w、および c はそれぞれイメージの高さ、幅、およびチャネル数に対応します。s はシーケンス長です。 ミニバッチ内の各シーケンスは,同じシーケンス長でなければなりません。 |
3.次元イメージ シーケンス | h x w x d x c sの配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数に対応します。s はシーケンス長です。 ミニバッチ内の各シーケンスは,同じシーケンス長でなければなりません。 |
特徴 | c行1列の列ベクトル。cは特徴の数です。 |
詳細については,深層学習用のデータストアを参照してください。
X
—イメージデータまたは特徴データイメージデータまたは特徴データ。数値配列として指定します。配列のサイズは入力のタイプによって以下のように異なります。
入力 | 説明 |
---|---|
2.次元イメージ | h x w x c x Nの数値配列。ここで,h、w、および c は、それぞれイメージの高さ、幅、およびチャネル数です。N はイメージの数です。 |
3次元イメージ | h x w x d x c x Nの数値配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数です。N はイメージの数です。 |
特徴 | N行numFeatures 列の数値配列。ここで,Nは観測値の数、numFeatures は入力データの特徴の数です。 |
配列に南
が含まれる場合,ネットワーク全体に伝播されます。
複数の入力があるネットワークの場合,複数の配列X1
、……XN
を指定できます。ここで,N
はネットワーク入力の数であり,入力西
はネットワーク入力net.InputNames(我)
に対応します。
序列
—シーケンス データまたは時系列データシーケンスデータまたは時系列データ。数値配列のN行1 列の cell 配列、1 つのシーケンスを表す数値配列、またはデータストアとして指定します。ここで、N は観測値の数です。
细胞配列入力または数値配列入力の場合,シーケンスが含まれる数値配列の次元は,データのタイプによって異なります。
入力 | 説明 |
---|---|
ベクトルシーケンス | c行s列の行列。ここで,c はシーケンスの特徴の数、s はシーケンス長です。 |
2.次元イメージ シーケンス | h x w x c sの配列。ここで,h、w、および c は、それぞれイメージの高さ、幅、およびチャネル数に対応します。s はシーケンス長です。 |
3.次元イメージ シーケンス | H x w x d x c x s。ここで,h、w、d、および c は、それぞれ 3 次元イメージの高さ、幅、深さ、およびチャネル数に対応します。s はシーケンス長です。 |
データストア入力の場合,データストアはシーケンスの细胞配列,または最初の列にシーケンスが含まれる表としてデータを返さなければなりません。シーケンスデータの次元は,上記の表に対応していなければなりません。
资源描述
—イメージデータまたは特徴データの表表格
イメージ データまたは特徴データの 桌子の各行は観測値に対応します。
表の列での予測子の配置は,入力データのタイプによって異なります。
入力 | 予測子 |
---|---|
イメージデータ |
単一列で予測子を指定します。 |
特徴データ | 数値スカラー。 表の |
この引数は、単一の入力のみがあるネットワークをサポートします。
データ型:表格
‘MiniBatchSize’,‘256’
はミニバッチのサイズを256に指定します。
オプションの引数名称,值
のコンマ区切りのペアを指定します。的名字
は引数名で,价值
は対応する値です。的名字
は一重引用符(' '
) で囲まなければなりません。
MiniBatchSize
—ミニバッチのサイズ予測に使用するミニバッチのサイズ。正の整数として指定します。ミニバッチのサイズが大きくなるとより多くのメモリが必要になりますが、予測時間が短縮される可能性があります。
長さが異なるシーケンスで予測を行うと,ミニバッチのサイズが,入力データに追加されるパディングの量に影響し,異なる予測値が得られることがあります。さまざまな値を使用して,ネットワークに最適なものを確認してください。ミニバッチのサイズとパディングのオプションを指定するには,“MiniBatchSize”
および“SequenceLength”
オプションをそれぞれ使用します。
例:“MiniBatchSize”,256年
加速度
—パフォーマンスの最適化“自动”
(既定値) |墨西哥人的
|“没有”
パフォーマンスの最適化。“加速”
と次のいずれかで構成されるコンマ区切りのペアとして指定します。
“自动”
——入力ネットワークとハードウェアリソースに適した最適化の回数を自動的に適用します。
墨西哥人的
- - - - - -墨西哥人関数をコンパイルして実行します。このオプションはGPUの使用時にのみ利用できます。GPUを使用するには,并行计算工具箱および以3.0计算能力上のCUDA対応NVIDIA GPUが必要です。并行计算工具箱または適切なGPUが利用できない場合,エラーが返されます。
“没有”
——すべての高速化を無効にします。
既定のオプションは“自动”
です。“自动”
が指定されている場合、MATLAB®は互換性のある最適化を複数適用します。“自动”
オプションを使用する場合、MATLABは 墨西哥関数を生成しません。
“加速”
オプション“自动”
および墨西哥人的
を使用すると,パフォーマンス上のメリットが得られますが,初期実行時間が長くなります。互換性のあるパラメーターを使用した後続の呼び出しは,より高速になります。新しい入力データを使用して関数を複数回呼び出す場合は,パフォーマンスの最適化を使用してください。
墨西哥人的
オプションは,関数の呼び出しに使用されたネットワークとパラメーターに基づいて墨西哥人関数を生成し,実行します。複数の墨西哥人関数を一度に1つのネットワークに関連付けることができます。ネットワークの変数をクリアすると,そのネットワークに関連付けられている墨西哥人関数もクリアされます。
墨西哥人的
オプションは、GPUの使用時にのみ利用できます。C/C++コンパイラと GPU编码器™ 深度学习图书馆的界面サポート パッケージがインストールされていなければなりません。MATLABでアドオン エクスプローラーを使用してサポート パッケージをインストールします。設定手順については、墨西哥人の設定(GPU编码器)を参照してください。GPU编码器は不要です。
墨西哥人的
オプションではサポートされていない層があります。サポートされている層の一覧については,サポートされている層(GPU编码器)を参照してください。sequenceInputLayer
を含む再帰型ニューラル ネットワーク (RNN)はサポートされていません。
墨西哥人的
オプションは,複数の入力層または複数の出力層をもつネットワークをサポートしていません。
墨西哥人的
オプションの使用時に、MATLAB编译器™を使用してネットワークを配布することはできません。
例:“加速”、“墨西哥人的
ExecutionEnvironment
—ハードウェアリソース“自动”
(既定値) |“图形”
|“cpu”
ハードウェアリソース。“执行环境”
と次のいずれかで構成されるコンマ区切りのペアとして指定します。
“自动”
——利用可能な場合はGPUを使用し,そうでない場合はCPUを使用します。
“图形”
- - - - - - GPUを使用します。GPUを使用するには,并行计算工具箱および以3.0计算能力上のCUDA対応NVIDIA GPUが必要です。并行计算工具箱または適切なGPUが利用できない場合,エラーが返されます。
“cpu”
——CPUを使用します。
例:“ExecutionEnvironment”、“cpu的
SequenceLength
—入力シーケンスのパディング,切り捨て,または分割を行うオプション“最长”
(既定値) |“最短”
|正の整数入力シーケンスのパディング,切り捨て,または分割を行うオプション。次のいずれかに指定します。
“最长”
——各ミニバッチで,最長のシーケンスと同じ長さになるようにシーケンスのパディングを行います。このオプションを使用するとデータは破棄されませんが,パディングによってネットワークにノイズが生じることがあります。
“最短”
——各ミニバッチで,最短のシーケンスと同じ長さになるようにシーケンスの切り捨てを行います。このオプションを使用するとパディングは追加されませんが,データが破棄されます。
正の整数——各ミニバッチで,ミニバッチで最長のシーケンスより大きい,指定長の最も近い倍数になるようにシーケンスのパディングを行った後,それらのシーケンスを指定長のより小さなシーケンスに分割します。分割が発生すると,追加のミニバッチが作成されます。シーケンス全体がメモリに収まらない場合は,このオプションを使用します。または,“MiniBatchSize”
オプションをより小さい値に設定して、ミニバッチごとのシーケンス数を減らしてみます。
入力シーケンスのパディング,切り捨て,および分割の効果の詳細は,シーケンスのパディング、切り捨て、および分割を参照してください。
例:“SequenceLength”、“最短的
SequencePaddingDirection
—パディングまたは切り捨ての方向“对”
(既定値) |“左”
パディングまたは切り捨ての方向。次のいずれかに指定します。
“对”
— シーケンスの右側に対してパディングまたは切り捨てを行います。シーケンスは同じタイム ステップで始まり、シーケンスの末尾に対して切り捨てまたはパディングの追加が行われます。
“左”
— シーケンスの左側に対してパディングまたは切り捨てを行います。シーケンスが同じタイム ステップで終わるように、シーケンスの先頭に対して切り捨てまたはパディングの追加が行われます。
LSTM層は1タイムステップずつシーケンスデータを処理するため,層の输出模式
プロパティが“最后”
の場合,最後のタイムステップでパディングを行うと層の出力に悪影響を与える可能性があります。シーケンスデータの左側に対してパディングまたは切り捨てを行うには,“SequencePaddingDirection”
オプションを“左”
に設定します。
sequence-to-sequenceネットワークの場合(各LSTM層について输出模式
プロパティが“序列”
である場合),最初のタイムステップでパティングを行うと,それ以前のタイムステップの予測に悪影響を与える可能性があります。シーケンスの右側に対してパディングまたは切り捨てを行うには,“SequencePaddingDirection”
オプションを“对”
に設定します。
入力シーケンスのパディング,切り捨て,および分割の効果の詳細は,シーケンスのパディング、切り捨て、および分割を参照してください。
SequencePaddingValue
—入力シーケンスをパディングする値入力シーケンスをパディングする値。スカラーとして指定します。このオプションは,SequenceLength
が“最长”
または正の整数の場合にのみ有効です。ネットワーク全体にエラーが伝播される可能性があるため,南
でシーケンスをパディングしないでください。
例:“SequencePaddingValue”,-1
YPred
— 予測クラス ラベル予測クラスラベル。直言ベクトル,または直言ベクトルの细胞配列として返されます。YPred
の形式は,タスクのタイプによって異なります。
次の表は,分類タスクの形式について説明しています。
タスク | 形式 |
---|---|
イメージ分類または特徴分類 | ラベルのN行1列の直言ベクトル。Nは観測値の数です。 |
sequence-to-label分類 | |
sequence-to-sequence分類 | ラベルのカテゴリカル シーケンスの N行 1.列の 单间牢房配列。Nは観測値の数です。 観測値が1つのsequence-to-sequence分類タスクでは, |
分数
——予測クラススコア予測スコアまたは応答。行,列または行列の细胞配列として返されます。分数
の形式は,タスクのタイプによって異なります。
次の表は,分数
の形式について説明しています。
タスク | 形式 |
---|---|
イメージ分類 | N行K列の行列。Nは観測値の数、K はクラスの数です。 |
sequence-to-label分類 | |
特徴分類 | |
sequence-to-sequence分類 | 行列のN行1列の细胞配列。Nは観測値の数です。シーケンスはK行の行列で,Kはクラスの数です。 |
観測値が1つのsequence-to-sequence分類タスクでは,序列
を行列にすることができます。この場合,分数
は,予測クラススコアの行列です。
分類スコアを調べる例については,深層学習を使用したWebカメライメージの分類を参照してください。
深度学习工具箱™ に含まれる深層学習における学習、予測、検証用のすべての関数は、単精度浮動小数点演算を使用して計算を実行します。深層学習用の関数にはtrainNetwork
、预测
、分类
、激活
などがあります。中央处理器と GPUの両方を使用してネットワークに学習させる場合、単精度演算が使用されます。
複数の出力があるネットワークの場合,预测
を使用して、“返回分类”
オプションを真正的
に設定します。
预测
を使用して学習済みネットワークから予測スコアを計算できます。
激活
を使用してネットワーク層から活性化を計算することもできます。
sequence-to-labelおよびsequence-to-sequence分類ネットワークでは,classifyAndUpdateState
およびpredictAndUpdateState
を使用してネットワークの状態の予測および更新を実行できます。
工藤、富山、新保。“使用通过区域的多维曲线分类”。模式识别字母。第20卷,第11-13期,第1103-1111页。
[2] UCI机器学习知识库:日语元音数据集。https://archive.ics.uci.edu/ml/datasets/Japanese+Vowels
使用上の注意および制限:
GPUコード生成は,以下の構文をサポートします。
[YPred,分数]=(净,X)进行分类
[YPred,分数]=分类(净,序列)
[YPred,分数]=分类(__、名称、值)
回帰ネットワークおよび複数の出力があるネットワークについては,関数分类
のGPUコード生成はサポートされていません。
cuDNNライブラリはベクトルおよび2次元イメージシーケンスをサポートします。TensorRTライブラリはベクトル入力シーケンスのみをサポートします。手臂®计算库
对GPUは再帰型ネットワークをサポートしていません。
ベクトルシーケンス入力の場合,特徴の数はコード生成時に定数でなければなりません。シーケンスの長さは可変サイズにできます。
イメージシーケンス入力の場合,高さ,幅,およびチャネル数は,コード生成時に定数でなければなりません。
コード生成では,名前と値のペアの引数“MiniBatchSize”
、“SequenceLength”
、“SequencePaddingDirection”
,および“SequencePaddingValue”
のみがサポートされています。すべての名前と値のペアはコンパイル時の定数でなければなりません。
コード生成では,名前と値のペア“SequenceLength”
のオプションとして“最长”
と“最短”
のみがサポートされています。
関数分类
のGPUコード生成では,半精度浮動小数点データ型として定義されている入力がサポートされます。詳細については,一半
(GPU编码器)を参照してください。
次のMATLABコマンドに対応するリンクがクリックされました。
コマンドをMATLABコマンドウィンドウに入力して実行してください。WebブラウザーはMATLABコマンドをサポートしていません。
你也可以从以下列表中选择一个网站:
选择中国站点(中文或英文)以获得最佳站点性能。其他MathWorks国家/地区站点不适合您所在位置的访问。