主要内容

このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。

激活

深層学習ネットワーク層の活性化の計算

説明

1.つの 中央处理器または 1.つの GPUで深層学習ネットワーク層の活性化を計算できます。GPUを使用するには、并行计算工具箱™ および 计算能力3.0以上の 库达®対応英伟达®GPUが必要です。名前と値のペアの引数ExecutionEnvironmentを使用してハードウェア要件を指定します。

行为=激活(洛桑国际管理发展学院は,学習済みネットワークおよびイメージデータストア洛桑国际管理发展学院内のイメージ データを使用して、特定の層のネットワーク活性化を返します。

行为=激活(dsは,データストアds内のデータを使用してネットワーク活性化を返します。

行为=激活(Xは,数値配列X内のイメージデータまたは特徴データを使用してネットワーク活性化を返します。

行为=激活(, X1,…,XN)は,複数入力ネットワークの数値配列X1、……XNのデータに対するネットワーク活性化を返します。入力西は,ネットワーク入力净输入名称(i)に対応します。

行为=激活(序列は、再帰型ネットワーク (LSTM)ネットワークや 格鲁ネットワークなど) に対するネットワーク活性化を返します。ここで、序列にはシーケンスまたは時系列予測子が含まれます。

行为=激活(资源描述は、表资源描述内のデータを使用してネットワーク活性化を返します。

行为=激活(___名称,值は1つ以上の名前と値のペアの引数で指定された追加オプションを使用して,ネットワーク活性化を返します。たとえば,“输出”、“行”は,活性化出力形式を“行”に指定します。名前と値のペアの引数は、他のすべての入力引数の後で指定します。

すべて折りたたむ

この例では,事前学習済みの畳み込みニューラルネットワークから学習済みのイメージの特徴を抽出し,これらの特徴を使用してイメージ分類器に学習させる方法を説明します。特徴抽出は,事前学習済みの深いネットワークの表現能力を活用できる最も簡単で時間のかからない方法です。たとえば,抽出した特徴に対して菲切克(统计和机器学习的工具箱™)を使用してサポートベクターマシン(SVM)に学習させることができます。特徴抽出が必要とするものはデータを一巡する1つのパスのみであるため,ネットワークの学習を加速するためのGPUがない場合,これは適切な開始点となります。

データの読み込み

サンプルイメージを解凍してイメージデータストアとして読み込みます。imageDatastoreは、フォルダー名に基づいてイメージに自動的にラベルを付け、データをImageDatastoreオブジェクトとして格納します。イメージ データストアを使用すると、メモリに収まらないデータを含む大きなイメージ データを格納できます。データを 70% の学習データと 30% のテスト データに分割します。

解压缩(“MerchData.zip”);imd = imageDatastore (“MerchData”...“包含子文件夹”符合事实的...“标签源”“foldernames”);[imdsTrain, imdsTest] = splitEachLabel (imd, 0.7,“随机化”);

このとき、この非常に小さなデータセットには、55個の学習イメージと 20個の検証イメージが格納されています。いくつかのサンプル イメージを表示します。

numImagesTrain=numel(imdsTrain.Labels);idx=randperm(numImagesTrain,16);i = 1:16 i {i} = readimage(imdsTrain,idx(i));结束图imshow (imtile(我))

事前学習済みのネットワークの読み込み

事前学習済みのAlexNetネットワークを読み込みます。深度学习工具箱模型用于AlexNet网络サポートパッケージがインストールされていない場合,ダウンロード用リンクが表示されます。100年AlexNetは万枚を超えるイメージについて学習済みであり,イメージを1000個のオブジェクトカテゴリに分類できます。たとえば,キーボード,マウス,鉛筆,多くの動物などです。結果として,このモデルは広範囲のイメージに対する豊富な特徴表現を学習しています。

网= alexnet;

ネットワーク アーキテクチャを表示します。ネットワークには 5.つの畳み込み層と 3.つの全結合層があります。

网。层
ans = 25x1 Layer array with layers:227 x227x3数据的图像输入图像的zerocenter正常化2 conv1卷积96年11 x11x3旋转步[4 4]和填充[0 0 0 0]3‘relu1 ReLU ReLU 4“norm1”横通道正常化横通道规范化5频道每个元素5“pool1”马克斯池3 x3 Max池步(2 - 2)和填充[0 0 0 0]6conv2的分组卷积2组128 5 x5x48旋转步[1]和填充(2 2 2 2)7的relu2 ReLU ReLU 8 norm2的横通道正常化横通道正常化与5频道/元素9“pool2”马克斯池3 x3马克斯池步(2 - 2)和填充[0 0 0 0]384 3 x3x256 conv3的卷积运算步伐[1]和填充[1 1 1 1]11的relu3 ReLU ReLU 12“conv4”分组卷积2组192 3 x3x192旋转步[1]和填充[1 1 1 1]13的relu4 ReLU ReLU 14“conv5”分组卷积2组128 3 x3x192旋转步[1]和填充[1 1 1 1]15 ' relu5 ReLU ReLU 16 pool5马克斯池3 x3 Max池与步幅[2 2]和填充[0 0 0 0]17 fc6完全连接4096完全连接层18“relu6”ReLU ReLU 19“drop6”辍学50%辍学20 fc7完全连接4096完全连接层21“relu7”ReLU ReLU 22“drop7”辍学50%辍学23 fc8完全连接1000完全连接层24“概率”Softmax Softmax 25“输出”输出与'tench'和999其他类交叉

最初の層であるイメージ入力層には、サイズが 227 x 227 x 3の入力イメージが必要です。ここで、3.はカラー チャネルの数です。

.InputSize inputSize = net.Layers (1)
输入大小=1×3227 227 3

イメージの特徴の抽出

ネットワークは,入力イメージの階層表現を構築します。深い層には,初期の層の低レベルの特徴を使用して構築された,より高レベルの特徴が含まれます。学習イメージとテストイメージの特徴表現を取得するには,全結合層“fc7”激活を使用します。イメージの低レベルの表現を取得するには、ネットワークの初期の層を使用します。

ネットワークにはサイズが 227 x 227 x 3の入力イメージが必要ですが、イメージ データストアにあるイメージのサイズは異なります。学習およびテスト イメージのサイズをネットワークへの入力前に自動的に変更するには、拡張イメージ データストアを作成して、目的のイメージ サイズを指定し、これらのデータストアを激活の入力引数として使用します。

augimdsTrain = augmentedImageDatastore (inputSize (1:2), imdsTrain);augimdsTest = augmentedImageDatastore (inputSize (1:2), imdsTest);层=“fc7”;featuresTrain =激活(净、augimdsTrain层,“输出”“行”);featuresTest =激活(净、augimdsTest层,“输出”“行”);

学習データおよびテストデータからクラスラベルを抽出します。

YTrain = imdsTrain.Labels;欧美= imdsTest.Labels;

イメージ分類器のあてはめ

学習イメージから抽出された特徴を予測子変数として使用し,菲切克(统计和机器学习工具箱)を使用してマルチクラス サポート ベクター マシン (支持向量机)をあてはめます。

mdl = fitcecoc (featuresTrain YTrain);

テスト イメージの分類

学習済みのSVMモデルとテストイメージから抽出された特徴を使用して,テストイメージを分類します。

featuresTest YPred =预测(mdl);

4.個のサンプル テスト イメージと、その予測ラベルを表示します。

idx=[1 5 10 15];图形i = 1:numel(idx) subplot(2,2,i) i = readimage(imdsTest,idx(i));标签= YPred (idx (i));imshow (I)标题(标签)结束

テストセットに対する分類精度を計算します。精度とは,ネットワークによって予測が正しく行われるラベルの割合です。

精度=平均值(YPred == YTest)
精度= 1

この 支持向量机は高い精度を示しています。特徴抽出を使用しても十分な精度が得られない場合、代わりに転移学習を試してください。

入力引数

すべて折りたたむ

学習済みネットワーク。SeriesNetworkまたは达格网络オブジェクトとして指定します。事前学習済みのネットワークをインポートする(たとえば,関数googlenetを使用する),またはtrainNetworkを使用して独自のネットワークに学習させることによって、学習済みネットワークを取得できます。

イメージデータストア。ImageDatastoreオブジェクトとして指定します。

ImageDatastoreを使用すると、事前取得を使用して JPGまたは 巴布亚新几内亚イメージ ファイルのバッチ読み取りを行うことができます。イメージの読み取りにカスタム関数を使用する場合、ImageDatastoreは事前取得を行いません。

ヒント

イメージのサイズ変更を含む深層学習用のイメージの前処理を効率的に行うには,augmentedImageDatastoreを使用します。

imageDatastorereadFcnオプションは通常,速度が大幅に低下するため,前処理またはサイズ変更に使用しないでください。

メモリ外のデータおよび前処理用のデータストア。データストアは、table または cell 配列でデータを返さなければなりません。データストア出力の形式は、ネットワーク アーキテクチャによって異なります。

ネットワークアーキテクチャ データストア出力 出力の例
単一入力

表または细胞配列。最初の列は予測子を指定します。

桌子の要素は、スカラー、行ベクトルであるか、数値配列が格納された 1.行 1.列の 单间牢房配列でなければなりません。

カスタムデータストアは表を出力しなければなりません。

data =阅读(ds)
data = 4×1 table Predictors __________________ {224×224×3 double} {224×224×3 double} {224×224×3 double} {224×224×3 double}
data =阅读(ds)
Data = 4×1 cell array {224×224×3 double} {224×224×3 double} {224×224×3 double} {224×224×3 double}
複数入力

少なくともnumInputs個の列をもつ细胞配列。numInputsはネットワーク入力の数です。

最初のnumInputs個の列は、各入力の予測子を指定します。

入力の順序は,ネットワークの输入名称プロパティによって指定されます。

data =阅读(ds)
Data = 4×2 cell array {224×224×3 double} {128×128×3 double} {224×224×3 double} {128×128×3 double} {224×224×3 double} {128×128×3 double} {224×224×3 double} {128×128×3 double}

予測子の形式は,データのタイプによって異なります。

データ 予測子の形式
2次元イメージ

h c w xの数値配列。ここで,h、w、および c は、それぞれイメージの高さ、幅、およびチャネル数です。

3次元イメージ

h x w x d cの数値配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数です。

ベクトルシーケンス

c行s列の行列。ここで,c はシーケンスの特徴の数、s はシーケンス長です。

2次元イメージシーケンス

h x w x c sの配列。ここで,h、w、および c はそれぞれイメージの高さ、幅、およびチャネル数に対応します。s はシーケンス長です。

ミニバッチ内の各シーケンスは、同じシーケンス長でなければなりません。

3次元イメージシーケンス

h x w x d x c sの配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数に対応します。s はシーケンス長です。

ミニバッチ内の各シーケンスは、同じシーケンス長でなければなりません。

特徴

C行 1.列の列ベクトル。Cは特徴の数です。

詳細については,深層学習用のデータストアを参照してください。

イメージ データまたは特徴データ。数値配列として指定します。配列のサイズは入力のタイプによって以下のように異なります。

入力 説明
2次元イメージ 高x宽x碳x氮の数値配列。ここで、h、 w、および Cは、それぞれイメージの高さ、幅、およびチャネル数です。Nはイメージの数です。
3次元イメージ h x w x d x c x Nの数値配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数です。N はイメージの数です。
特徴 N行numFeatures列の数値配列。ここで、Nは観測値の数、numFeaturesは入力データの特徴の数です。

配列にが含まれる場合,ネットワーク全体に伝播されます。

複数の入力があるネットワークの場合,複数の配列X1、……XNを指定できます。ここで,Nはネットワーク入力の数であり,入力西はネットワーク入力净输入名称(i)に対応します。

イメージ入力の場合、“输出”オプションが“渠道”の場合,入力データXのイメージは,ネットワークのイメージ入力層の入力サイズより大きくすることができます。その他の出力形式では,Xのイメージのサイズは,ネットワークのイメージ入力層の入力サイズと同じでなければなりません。

シーケンスデータまたは時系列データ。数値配列のN行1 列の cell 配列、1 つのシーケンスを表す数値配列、またはデータストアとして指定します。ここで、N は観測値の数です。

细胞配列入力または数値配列入力の場合,シーケンスが含まれる数値配列の次元は,データのタイプによって異なります。

入力 説明
ベクトルシーケンス c行s列の行列。ここで,c はシーケンスの特徴の数、s はシーケンス長です。
2次元イメージシーケンス h x w x c sの配列。ここで,h、w、および c は、それぞれイメージの高さ、幅、およびチャネル数に対応します。s はシーケンス長です。
3次元イメージシーケンス 高x宽x深x深x深x深ここで、h、 w、d、および Cは、それぞれ 3.次元イメージの高さ、幅、深さ、およびチャネル数に対応します。sはシーケンス長です。

データストア入力の場合,データストアはシーケンスの细胞配列,または最初の列にシーケンスが含まれる表としてデータを返さなければなりません。シーケンスデータの次元は,上記の表に対応していなければなりません。

イメージデータまたは特徴データの表。表の各行は観測値に対応します。

桌子の列での予測子の配置は、入力データのタイプによって異なります。

入力 予測子
イメージデータ
  • イメージの絶対ファイルパスまたは相対ファイルパス。単一列の文字ベクトルとして指定します。

  • イメージ。3.次元数値配列として指定します。

単一列で予測子を指定します。

特徴データ

数値スカラー。

表のnumFeatures個の列で予測子を指定します。numFeaturesは入力データの特徴の数です。

この引数は,単一の入力のみがあるネットワークをサポートします。

データ型:桌子

活性化の抽出元の層。数値インデックスまたは文字ベクトルとして指定します。

SeriesNetworkオブジェクトの活性化を計算するには,層の数値インデックスを使用するか,層の名前に対応する文字ベクトルとして層を指定します。

达格网络オブジェクトの活性化を計算するには、層の名前に対応する文字ベクトルとして層を指定します。層に複数の出力がある場合、層と出力を、層の名前、その後に文字 "/"、層出力の名前と続けて指定します。つまり、“layerName / outputName”の形式を取ります。

例:3.

例:“conv1”

例:“mpool /出”

名前と値のペアの引数

オプションの引数名称,值のコンマ区切りペアを指定します。的名字は引数名で、价值は対応する値です。的名字は引用符で囲まなければなりません。Name1, Value1,…,的家のように、複数の名前と値のペアの引数を、任意の順番で指定できます。

例:激活(网络、X、层、“输出”、“行”)

出力活性化の形式。“输出”“渠道”“行”,または“列”のいずれかで構成されるコンマ区切りのペアとして指定します。さまざまな出力形式の説明については、行为を参照してください。

イメージ入力の場合、“输出”オプションが“渠道”の場合,入力データXのイメージは,ネットワークのイメージ入力層の入力サイズより大きくすることができます。その他の出力形式では,Xのイメージのサイズは,ネットワークのイメージ入力層の入力サイズと同じでなければなりません。

例:“输出”、“行”

予測に使用するミニバッチのサイズ。正の整数として指定します。ミニバッチのサイズが大きくなるとより多くのメモリが必要になりますが、予測時間が短縮される可能性があります。

例:“MiniBatchSize”,256年

入力シーケンスのパディング,切り捨て,または分割を行うオプション。次のいずれかに指定します。

  • “最长”— 各ミニバッチで、最長のシーケンスと同じ長さになるようにシーケンスのパディングを行います。このオプションを使用するとデータは破棄されませんが、パディングによってネットワークにノイズが生じることがあります。

  • “最短”— 各ミニバッチで、最短のシーケンスと同じ長さになるようにシーケンスの切り捨てを行います。このオプションを使用するとパディングは追加されませんが、データが破棄されます。

  • 正の整数 — 各ミニバッチで、ミニバッチで最長のシーケンスより大きい、指定長の最も近い倍数になるようにシーケンスのパディングを行った後、それらのシーケンスを指定長のより小さなシーケンスに分割します。分割が発生すると、追加のミニバッチが作成されます。シーケンス全体がメモリに収まらない場合は、このオプションを使用します。または、“MiniBatchSize”オプションをより小さい値に設定して,ミニバッチごとのシーケンス数を減らしてみます。

入力シーケンスのパディング,切り捨て,および分割の効果の詳細は,シーケンスのパディング,切り捨て,および分割を参照してください。

例:“SequenceLength”、“最短的

入力シーケンスをパディングする値。スカラーとして指定します。このオプションは、序列长度“最长”または正の整数の場合にのみ有効です。ネットワーク全体にエラーが伝播される可能性があるため,でシーケンスをパディングしないでください。

例:“SequencePaddingValue”,1

パディングまたは切り捨ての方向。次のいずれかに指定します。

  • “对”——シーケンスの右側に対してパディングまたは切り捨てを行います。シーケンスは同じタイムステップで始まり,シーケンスの末尾に対して切り捨てまたはパディングの追加が行われます。

  • “左”——シーケンスの左側に対してパディングまたは切り捨てを行います。シーケンスが同じタイムステップで終わるように,シーケンスの先頭に対して切り捨てまたはパディングの追加が行われます。

LSTM層は1タイムステップずつシーケンスデータを処理するため,層のOutputModeプロパティが“最后一次”の場合,最後のタイムステップでパディングを行うと層の出力に悪影響を与える可能性があります。シーケンスデータの左側に対してパディングまたは切り捨てを行うには,“SequencePaddingDirection”オプションを“左”に設定します。

sequence-to-sequenceネットワークの場合(各LSTM層についてOutputModeプロパティが“序列”である場合)、最初のタイム ステップでパティングを行うと、それ以前のタイム ステップの予測に悪影響を与える可能性があります。シーケンスの右側に対してパディングまたは切り捨てを行うには、“SequencePaddingDirection”オプションを“对”に設定します。

入力シーケンスのパディング,切り捨て,および分割の効果の詳細は,シーケンスのパディング,切り捨て,および分割を参照してください。

パフォーマンスの最適化。“加速”と次のいずれかで構成されるコンマ区切りのペアとして指定します。

  • “汽车”— 入力ネットワークとハードウェア リソースに適した最適化の回数を自動的に適用します。

  • 墨西哥人的- - - - - -墨西哥人関数をコンパイルして実行します。このオプションはGPUの使用時にのみ利用できます。GPUを使用するには,并行计算工具箱および以3.0计算能力上のCUDA対応NVIDIA GPUが必要です。并行计算工具箱または適切なGPUが利用できない場合,エラーが返されます。

  • “没有”——すべての高速化を無効にします。

既定のオプションは“汽车”です。“汽车”が指定されている場合,MATLAB®は互換性のある最適化を複数適用します。“汽车”オプションを使用する場合,MATLABは墨西哥人関数を生成しません。

“加速”オプション“汽车”および墨西哥人的を使用すると,パフォーマンス上のメリットが得られますが,初期実行時間が長くなります。互換性のあるパラメーターを使用した後続の呼び出しは,より高速になります。新しい入力データを使用して関数を複数回呼び出す場合は,パフォーマンスの最適化を使用してください。

墨西哥人的オプションは,関数の呼び出しに使用されたネットワークとパラメーターに基づいて墨西哥人関数を生成し,実行します。複数の墨西哥人関数を一度に1つのネットワークに関連付けることができます。ネットワークの変数をクリアすると,そのネットワークに関連付けられている墨西哥人関数もクリアされます。

墨西哥人的オプションは,GPUの使用時にのみ利用できます。C / c++コンパイラとGPU编码器™界面深度学习库サポートパッケージがインストールされていなければなりません。MATLABでアドオンエクスプローラーを使用してサポートパッケージをインストールします。設定手順については,墨西哥の設定(GPU编码器)を参照してください。GPU编码器は不要です。

墨西哥人的オプションではサポートされていない層があります。サポートされている層の一覧については、サポートされている層(GPU编码器)を参照してください。序列输入层を含む再帰型ニューラルネットワーク(RNN)はサポートされていません。

墨西哥人的オプションは,複数の入力層または複数の出力層をもつネットワークをサポートしていません。

墨西哥人的オプションの使用時に,MATLAB编译器™を使用してネットワークを配布することはできません。

例:“加速”、“墨西哥人的

ハードウェアリソース。“ExecutionEnvironment”と次のいずれかで構成されるコンマ区切りのペアとして指定します。

  • “汽车”— 利用可能な場合は GPUを使用し、そうでない場合は 中央处理器を使用します。

  • “图形”- - - - - - GPUを使用します。GPUを使用するには,并行计算工具箱および以3.0计算能力上のCUDA対応NVIDIA GPUが必要です。并行计算工具箱または適切なGPUが利用できない場合,エラーが返されます。

  • “cpu”——CPUを使用します。

例:“ExecutionEnvironment”,“cpu”

出力引数

すべて折りたたむ

ネットワーク層からの活性化。数値配列、または数値配列の 单间牢房配列として返されます。行为の形式は,入力データのタイプ,層出力のタイプ,および“输出”オプションによって異なります。

イメージまたは折りたたみシーケンス出力

層がイメージまたは折りたたみシーケンスデータを出力する場合,行为は数値配列です。

“输出” 行为
“渠道”

2.次元イメージ出力の場合、行为はh x w x c x nの配列になります。ここで,h、w、および c はそれぞれ選択した層の出力の高さ、幅、およびチャネル数、n はイメージの数です。この場合、法》(::,:,我)には番目のイメージの活性化が含まれます。

3次元イメージ出力の場合,行为は h x w x d x c x nの配列になります。ここで、h、 w、d、および Cはそれぞれ選択した層の出力の高さ、幅、深さ、およびチャネル数、Nはイメージの数です。この場合、法案(::,:,:,我)には番目のイメージの活性化が含まれます。

折りたたみ 2.次元イメージ シーケンス出力の場合、行为は 高x宽x长x宽(n*s)の配列になります。ここで、h、 w、および Cはそれぞれ選択した層の出力の高さ、幅、およびチャネル数、Nはシーケンスの数、sはシーケンス長です。この場合、法》(:,:,:,(t - 1) * n + k)にはk番目のシーケンスのタイムステップtの活性化が含まれます。

折りたたみ3次元イメージシーケンス出力の場合,行为は 高x宽x深x深x深x深(n*s)の配列になります。ここで、h、 w、d、および Cはそれぞれ選択した層の出力の高さ、幅、深さ、およびチャネル数、Nはシーケンスの数、sはシーケンス長です。この場合、行为 (:,:,:,:,( t - 1) * n + k)にはk番目のシーケンスのタイムステップtの活性化が含まれます。

“行”

2.次元および 3.次元イメージ出力の場合、行为はn行m列の行列です。ここでnはイメージの数,は層からの出力要素の数です。この場合,法案(我,:)には番目のイメージの活性化が含まれます。

折りたたみ2次元および3次元イメージシーケンス出力の場合,行为は(n * s)行m列の行列です。ここで,n はシーケンスの数、s はシーケンス長、は層からの出力要素の数です。この場合,法案((t-1)*n+k,:)にはk番目のシーケンスのタイムステップtの活性化が含まれます。

“列”

2.次元および 3.次元イメージ出力の場合、行为はm行n列の行列です。ここで,米は層からの出力要素の数、n はイメージの数です。この場合、法》(:,我)には番目のイメージの活性化が含まれます。

折りたたみ2次元および3次元イメージシーケンス出力の場合,行为は M行 (不适用)列の行列です。ここで、Mは層からの出力要素の数、Nはシーケンスの数、sはシーケンス長です。この場合、法案(:,(t-1)*n+k)にはk番目のシーケンスのタイムステップtの活性化が含まれます。

シーケンス出力

にシーケンス出力 (たとえば、出力モードが“序列”のLSTM層)がある場合,行为は 单间牢房配列になります。この場合、“输出”オプションは“渠道”でなければなりません。

“输出” 行为
“渠道”

ベクトルシーケンス出力の場合,行为はc行年代列の行列のn行1列の细胞配列になります。ここで,n はシーケンスの数、c はシーケンスの特徴の数、s はシーケンス長です。

2次元イメージシーケンス出力の場合,行为はh x w x c sの行列のn行1列の细胞配列になります。ここで,n はシーケンスの数、h、w、および c はそれぞれイメージの高さ、幅、およびチャネル数、s はシーケンス長です。

3次元イメージシーケンス出力の場合,行为はh x w x c x d sの行列のn行1列の细胞配列になります。ここで,n はシーケンスの数、h、w、d、および c はそれぞれイメージの高さ、幅、深さ、およびチャネル数、s はシーケンス長です。

この場合,法案{i}には番目のシーケンスの活性化が含まれます。

単一のタイムステップ出力

がシーケンスの単一のタイムステップを出力する場合(たとえば,出力モードが“最后一次”の LSTM層)、行为は数値配列になります。

“输出” 行为
“渠道”

ベクトルデータを含む単一のタイムステップの場合,行为は C行 N列の行列になります。ここで、Nはシーケンスの数、Cはシーケンスの特徴の数です。

2次元イメージデータを含む単一のタイムステップの場合,行为はh x w x c x nの配列になります。ここで,n はシーケンスの数、h、w、および c はそれぞれイメージの高さ、幅、およびチャネル数です。

3.次元イメージ データを含む単一のタイム ステップの場合、行为は h x w x c x d x nの配列になります。ここで、Nはシーケンスの数、h、 w、d、および Cはそれぞれイメージの高さ、幅、深さ、およびチャネル数です。

“行” n行m列の行列。ここで,n は観測値の数、は選択した層からの出力要素の数です。この場合、法案(我,:)には番目のシーケンスの活性化が含まれます。
“列” M行 N列の行列。ここで、Mは選択した層からの出力要素の数、Nは観測値の数です。この場合、法》(:,我)には番目のイメージの活性化が含まれます。

アルゴリズム

深度学习工具箱™に含まれる深層学習における学習,予測,検証用のすべての関数は,単精度浮動小数点演算を使用して計算を実行します。深層学習用の関数にはtrainNetwork预测分类激活などがあります。CPUとGPUの両方を使用してネットワークに学習させる場合,単精度演算が使用されます。

参照

工藤、富山、新保。“使用通过区域的多维曲线分类”。模式识别字母。第20卷,第11-13期,第1103-1111页。

[2] UCI机器学习知识库:日语元音数据集。https://archive.ics.uci.edu/ml/datasets/Japanese+Vowels

拡張機能

R2016aで導入