主要内容

。

激活

深层学习ネットワーク层の活性化の计算

说明

1つのCPUまたは1つのGPUで深层学习ネットワーク层の活性化を计算できます。GPUを使用するには,并行计算工具箱™および计算能力3.0以上のCUDA®対応nvidia.®GPUが必要です。名称と値のペアペアの数execultenvironment.をを用ししてハードウェア要件要件指定ししし指定しし

act=激活(IMDS.は,学习済みネットワークおよびイメージデータストアIMDS.内のイメージデータを使用して,特定の层のネットワーク活性化を返します。

act=激活(DS.は,データストアDS.内内データを使使してネットワーク活性活性返し返し

act=激活(X.は,数码配列X.内のイメージデータまたは特色データデータを使てネットワークネットワークネットワークネットワーク活性ネットワークネットワークます。

act=激活(,x1,...,xn)は,复数触力ネットワークの数値配列X1,......,XN.ののデータに対するネットワーク活性活性を返し返し返し返し返し返し返しxi.は,ネットワークネットワーク力net.InputNames(ⅰ)に対応します。

act=激活(序列は,再帰型ネットワーク(LSTMネットワークやGRUネットワークなど)に対するネットワーク活性化を返します。ここで,序列にはシーケンスまたは时系列予测子が含まれます。

act=激活(TBL.は,表TBL.内内データを使使してネットワーク活性活性返し返し

act=激活(___名称,价值は,1つ以ののさされたたとえばたとえばして,てて,'OutputAs', '行'は,活性化工力形式を'行'に指定します。名前と値のペアの引数は,他のすべての入力引数の后で指定します。

すべて折りたたむ

この例では,事前学习済みの畳み込みニューラルネットワーク习习済みイメージの徴をし,これらの特种を使してイメージををささし说说说ししししししししししますますしますしますしますますますますますししますますしししネットワークの表现表现力量をできる最も简而言之ののからない方。たとえば,抽出した特征に対してfitcecoc(统计和机器学习工具箱™)を使用してサポートベクターマシン(SVM)に学习させることができます。特徴抽出が必要とするものはデータを一巡する1つのパスのみであるため,ネットワークの学习を加速するためのGPUがない场合,これは适切な开始点となります。

データの読み込み

サンプルイメージを解冻してイメージデータストアとして読み込みます。imageageAtastore.は,フォルダー名に基づいてイメージに自动的にラベルを付け,データをimageageAtastore.オブジェクトとして格纳します。イメージデータストアを使用すると,メモリに收まらないデータを含む大きなイメージデータを格纳できます。データを70%の学习データと30%のテストデータに分割します。

解压('merchdata.zip');imds = imageageatastore('merchdata'......'insertumbfolders',真实,......'labelsource''foldernames');[IMDStrain,IMDSTEST] = SpliteachLabel(IMDS,0.7,“随机”);

このとき,この非常に小さなデータセットには,55个の学习イメージと20个の検证イメージが格纳されています。いくつかのサンプルイメージを表示します。

numImagesTrain = numel(imdsTrain.Labels);IDX = randperm(numImagesTrain,16);对于I = 1:16 I {I} = readimage(imdsTrain,IDX(I));结束图imshow(imtile(i))

事前学习済みのネットワークの読み込み

事前学习ネットワークののネットワークネットワーク読み込みます.deep学习工具箱模型对于AlexNet网络サポートパッケージがインストールされていない场合,ダウンロード用リンクが表示されます.AlexNetは,100万枚を超えるイメージについて学习済みであり,イメージを千个のオブジェクトカテゴリに分类できます。たとえば,キーボード,マウス,铅笔,多くの动物などです。结果として,このモデルは広范囲のイメージに対する豊富な特徴表现を学习しています。

net = alexnet;

ネットワークアーキテクチャを表示します。ネットワークには5つの畳み込み层と3つの全结合层があります。

Net.Layers.
ANS = 25×层阵列层:1 '数据' 图像输入227x227x3图像与 'zerocenter' 正常化2 'CONV1' 卷积96个11x11x3卷积与步幅[4 4]和填充[0 0 0 0] 3 'relu1' RELU RELU 4“NORM1”跨渠道正常化交叉通道,每个元件5个频道5“POOL1”最大池3x3的最大蓄留与步幅[2 2]和填充正常化[0 0 0 0] 6“CONV2”分组卷积2组128个5x5x48卷积用步幅[1 1]和填充[2 2 2 2] 7 'relu2' RELU RELU 8 'NORM2' 跨渠道正常化交叉通道,每个元件5个通道9 'POOL2' 最大池3x3的最大蓄留与步幅正常化[2 2]和填充[0 0 0 0] 10 'conv3' 卷积384个3x3x256卷积步幅[1 1]和填充[1 1 1 1] 11 'relu3' RELU RELU 12 'CONV4' 分组卷积2组192个3x3x192卷积与步幅[1 1]和填充[1 1 1 1] 13 'relu4' RELU RELU 14 'conv5' 分组卷积2组128个3x3x192卷积与步幅[1 1]和填充[1 1 1 1] 15 'relu5' RELU RELU 16 'pool5' 最大池3x3的步幅[2 2]和填充[0 0 0 0] 17 'FC6' 完全连接4096最大池完全连接层18 'relu6' RELU RELU 19 'drop6' 降50%漏失20 'FC7' 完全连接4096完全连接层21 'relu7' RELU RELU 22 'drop7' 降50%漏失23 'FC8' 完全连接1000完全连接层24“的概率”使用SoftMax SOFTMAX 25“输出”分类输出crossentropyex与“丁鲷”和999的其他类

最初の层であるイメージ入力层には,サイズが227 X 227×3の入力イメージが必要です。ここで,3はカラーチャネルの数です。

InputSize = Net.Layers(1).InputSize
inputSize =1×3227 227 3

イメージの特徴の抽出

ネットワークは,入力イメージの阶层を构筑ます。深い深いにはます构筑层は,初ののの低レベル特徴を使しし构筑たたたた,高度レベルのが含まれ。学习イメージとイメージイメージが。特价表现を取得するに,全全合'FC7'激活を使用します。イメージの低レベルの表现を取得するには,ネットワークの初期の层を使用します。

ネットワークにはサイズが227 X 227×3の入力イメージが必要ですが,イメージデータストアにあるイメージのサイズは异なります。学习およびテストイメージのサイズをネットワークへの入力前に自动的に変更するには,拡张イメージデータストアを作成して,目的のイメージサイズを指定し,これらのデータストアを激活のの力量引ますますし。

augimdsTrain = augmentedImageDatastore(inputSize(1:2),imdsTrain);augimdsTest = augmentedImageDatastore(inputSize(1:2),imdsTest);层='FC7';featuresTrain =激活(净,augimdsTrain,层'OutputAs''行');featuresTest =激活(净,augimdsTest,层'OutputAs''行');

学习データおよびテストデータからクラスラベルを抽出します。

ytrain = imdstrain.labels;ytest = imdstest.labels;

イメージ分类器材ののあては

学习イメージから抽出されれ特徴を予测子位数として使用し,fitcecoc(统计和机器学习工具箱)を使用してマルチクラスサポートベクターマシン(SVM)をあてはめます。

MDL = fitcecoc(featuresTrain,YTrain);

テストイメージの分类

学习済みのsvmモデルとテストイメージから抽出れた特色を使て,テストイメージを分享します。

Ypred =预测(MDL,Featustestest);

4个のサンプルテストイメージと,その予测ラベルを表示します。

IDX = [1 5 10 15];figure对于I = 1:numel(IDX)副区(2,2,i)的I = readimage(imdsTest,IDX(I));标记= YPred(IDX(I));imshow(I)标题(标签)结束

テストセットに対する分类精密をを计算しし度とは,ネットワークネットワーク予测が正式行为れるラベルのの割。

精度=均值(Ypred == ytest)
精度= 1

このSVMは高い精度を示しています。特徴抽出を使用しても十分な精度が得られない场合,代わりに転移学习を试してください。

入力数

すべて折りたたむ

学习済みネットワーク。系列网络またはDagnetwork.オブジェクトとして指定します。事前学习済みのネットワークネットワークインポートインポートするするするするするするする(たとえば,关有数googlenet.を使用する),またはTrainnetwork.を使用して独自のネットワークに学习させることによって,学习済みネットワークを取得できます。

イメージデータストア。imageageAtastore.オブジェクトとして指定します。

imageageAtastore.を使用すると,事前取得を使用してJPGまたはPNGイメージファイルのバッチ読み取りを行うことができます。イメージの読み取りにカスタム关数を使用する场合,imageageAtastore.は事前取得を行いません。

ヒント

イメージのサイズ変更を含む深层学习用のイメージの前を效率的に行augmentedImageDatastoreを使用します。

imageageAtastore.readFcnオプションは通讯,速度が大厦に低する,前致理性またはサイズ変更使しでください。

メモリ外のデータおよびおよびのデータストア。データデータは,表または细胞配列でを返さ返さ返さ返さを返さ返さ返さを。

ネットワークアーキテクチャ データストア出力 出力の例
単一入力

表または细胞配列。最初最初の列はは予测をししししししししししししし

表の要素は,スカラー,行ベクトルであるか,数値配列が格纳された1行1列の细胞配列でなければなりません。

カスタムデータストアははを力しなければませませんんんんん。

数据=读(DS)
数据= 4×1表预测器__________________ {224×224×3 double} {224×224×3双} {224×224×3双} {224×224×3双}
数据=读(DS)
data = 4×1 cell array {224×224×3 double} {224×224×3 double} {224×224×3双} {224×224×3双}
复数入力

少なくともnuminputs.个の列をもつ细胞配列。numinputs.はは能力の数。

最初のnuminputs.个の列は,各入力の予测子を指定します。

入力のの顺序,ネットワークネットワーク输入名称プロパティによって指定されます。

数据=读(DS)
data = 4×2 cell array {224×224×3 double} {128×128×3 double} {224×224×3 double} {128×128×3双} {224×224×3双} {128×128×3双} {224×224×3双} {128×128×3双}

予测子の形式は,データのタイプによって异なり。

データ 予测子の形式
2次元イメージ

H x W X Cの数据配列。ここここ,h,w,およびcは,それぞれイメージの高,幅,およびチャネル数。

3次元イメージ

H x W X D X Cの数量配列。ここここ,H,W,D,およびCは,それぞれイメージの高,幅,深さ,およびおよび数。

ベクトルシーケンス

Ç行小号列の行列。ここで,Cはシーケンスの特徴の数,Sはシーケンス长です。

2次元イメージシーケンス

高×宽×Ç个Sの配列。ここで,H,W,およびÇはそれぞれイメージの高さ,幅,およびチャネル数に対応します.Sはシーケンス长です。

ミニバッチ内の各シーケンスは,同じシーケンス长でなければなりません。

3次元イメージシーケンス

高×宽×d XÇ个Sの配列。ここで,H,W,d,およびÇは,それぞれイメージの高さ,幅,深さ,およびチャネル数に対応します.Sはシーケンス长です。

ミニバッチ内の各シーケンスは,同じシーケンス长でなければなりません。

特兰

Ç行1列の列ベクトル.Cは特徴の数です。

详细については,深层学习用のデータストアを参照してください。

イメージデータまたは特徴データ。数値配列として指定します。配列のサイズは入力のタイプによって以下のように异なります。

入力 说明
2次元イメージ 高×宽×Ç×N个の数値配列。ここで,H,W,およびÇは,それぞれイメージの高さ,幅,およびチャネル数です.Nはイメージの数です。
3次元イメージ 高×宽×d XÇ×N个の数値配列。ここで,H,W,d,およびÇは,それぞれイメージの高さ,幅,深さ,およびチャネル数です.Nはイメージの数です。
特兰 n行numFeatures列の数値配列。ここで,Nは観测値の数,numFeaturesはは力データの特价のの。

配列にが含まれる场合,ネットワーク全体に伝播されます。

复数のの力があるネットワークの合,数码の配列X1,......,XN.を指定できます。ここで,Nはネットワークネットワーク力の数号,入力xi.はネットワーク入力net.InputNames(ⅰ)に対応します。

イメージ入力の场合,'OutputAs'オプションが'频道'の场合,入力データX.,X.

シーケンスデータまたは时系列データ。数码値のn行1列の细胞配列,1つのシーケンスを表す数码配列,またはデータストアとしてします。ここここ,nは観测値の。

电池配配力または数码配配力の料,シーケンスが含ま含ま数码配列のは,データのタイプによって异なり。

入力 说明
ベクトルシーケンス Ç行小号列の行列。ここで,Cはシーケンスの特徴の数,Sはシーケンス长です。
2次元イメージシーケンス h x w x c x sの配列。ここここ,h,w,およびcは,それぞれイメージの高,幅,およびチャネル数にし。
3次元イメージシーケンス 高×宽×d XÇX秒。ここで,H,W,d,およびÇは,それぞれ3次元イメージの高さ,幅,深さ,およびチャネル数に対応します.Sはシーケンス长です。

データストアストア力の料,データストアはシーケンスの细胞配列,またはまたは最初の列にシーケンスがれるれるれるデータデータををばませませシーケンスシーケンスませませんませませんんんんはんはははませませはののののののののののののににのばばません。

イメージデータまたは特价データのののの各行は値に対応します。

表の列での予测子の配置は,入力データのタイプによって异なります。

入力 予测子
イメージデータ
  • イメージの绝対ファイルパスまたは相対ファイルパス。単一列の文字ベクトルとして指定します。

  • イメージ.3分数値配列として指定ます。

単一列で子ををします。

特徴データ

数量スカラー。

表のnumFeatures个の列で予测子を指定します。numFeaturesはは力データの特价のの。

この源は,単一の入力のみがネットワークををします。

データ型:表格

活性化学の元の层。

系列网络オブジェクトの活性化はは,层层数码インデックスを使,层层名前にする字ベクトルとしてを指定ますするしますますますますますますますますますますますますますし。

Dagnetwork.オブジェクトの活性化を计算するには,层の名前に対応する文字ベクトルとして层を指定します。层に复数の出力がある场合,层と出力を,层の名前,その后に文字 “/”,层出力の名前と続けて指定します。つまり,'layername / outputname'の形式を取ります。

例:3.

例:'conv1'

例:'mpool / out'

名称と値のペアペアの数

オプションの数名称,价值のコンマ区切りペアを指定します。名称は数名で,价值は対応する値です。名称はは用符符で囲まなけれなけれなりませませませなりませませname1,value1,...,namen,valuenののに,复数の名前とのペアののを,任意の顺番で指定でき。

例:激活(净,X,层, 'OutputAs', '行')

出力活性化の形式。'OutputAs''频道''行',または'列'のいずれかで构成されるコンマ区切りのペアとして指定します。さまざまな出力形式の说明については,actを参照してください。

イメージ入力の场合,'OutputAs'オプションが'频道'の场合,入力データX.,X.

例:'OutputAs', '行'

予测に使使バッチのサイズサイズ。ミニバッチのサイズとして指定ますますのサイズが大厦なると多くのメモリがにますが,予测时空

例:'MiniBatchSize',256

入切り舍,または分别をオプション。次のいずれか指定します。

  • “最长”- 各ミニバッチで,最长のシーケンスと同じ长さになるようにシーケンスのパディングを行いますこのオプションを使用するとデータは破弃されませんが,パディングによってネットワークにノイズが生じることがあります。

  • “最短”- 各ミニバッチで,最短のシーケンスと同じ长さになるようにシーケンスの切り舍てを行いますこのオプションを使用するとパディングは追加されませんが,データが破弃されます。

  • 正の整数 - 各ミニバッチで,ミニバッチで最长のシーケンスより大きい,指定长の最も近い倍数になるようにシーケンスのパディングを行った后,それらのシーケンスを指定长のより小さなシーケンスに分割します分割が発生すると,追加のミニバッチが作成されます。シーケンス全体がメモリに收まらない场合は,このオプションを使用します。または,'minibatchsize'オプションオプションを小さい値设定して,ミニバッチごとのシーケンス数号减らしみます。

入力シーケンスシーケンスの,切り舍切り舍,および分享の效果详细は,シーケンスシーケンスの,切り舍切り舍,および分享を参照してください。

例:'SequenceLength', '最短'

入力シーケンスをパディングする値。スカラーとして指定します。このオプションは,SequenceLength“最长”または正の数ののにのみ有效。ネットワーク全体にが伝播される可以でシーケンスをパディングしないでください。

例:'sequencdpaddingsvalue', - 1

パディングパディングまたは切り舍ての向ののいずれしししし。

  • '对'- シーケンスシーケンスの右侧に対してパディングまたはてていいいシーケンスは同じタイムステップで始まり始まりのの末尾に対して切り舍てまたはの追追がわわわわれ

  • “左”- シーケンスの左侧に対してパディングまたはてを行いますが同じタイムで终わるに,シーケンスの先头に対して切り舍またはパディングパディングパディング追パディング追がわれパディングパディングパディング

LSTM层は1タイムステップずつシーケンスデータデータをする,层のOutputMode.プロパティが'最后'の场合,最后のタイムステップでパディングを行うと层の出力に悪影响を与える可能性があります。シーケンスデータの左侧に対してパディングまたは切り舍てを行うには,'SequencePaddingDirection'オプションを“左”に设定します。

序列到序列ネットワークの场合(各LSTM层层OutputMode.プロパティが'序列'である场合),最初のタイムステップでパティングを行うと,それ以前のタイムステップの予测に悪影响を与える可能性があります。シーケンスの右侧に対してパディングまたは切り舍てを行うには,'SequencePaddingDirection'オプションを'对'に设定します。

入力シーケンスシーケンスの,切り舍切り舍,および分享の效果详细は,シーケンスシーケンスの,切り舍切り舍,および分享を参照してください。

パフォーマンスパフォーマンス最适化。'加速'と次のいずれかで构成されるコンマ区切りのペアとして指定します。

  • 'auto'- 入力ネットワークとハードウェアリソースに适した最适化の回数を自动的に适用します。

  • 'mex'- MEX关数をコンパイルして実行しますこのオプションはGPUの使用时にのみ利用できます。GPUを使用するには,并行计算工具箱および计算能力3.0以上のCUDA対応NVIDIA GPUが必要です。并行计算工具箱またはまたは适切gpuが利用できないない合,エラーが返され。

  • '没有'- すべての高层を无效しします。

既定のオプションは'auto'です。'auto'が指定されてている合,matlab®は互换性のある最适化を复数适用します。'auto'オプションを使使使する合,MATLABはMEX关节生成しん。

'加速'オプション'auto'および'mex'をを使する,パフォーマンス上のメリットが得が,初初実行时がなりなりますあるパラメーターを使し后続のは,より高度にはは。新しい入にますは。新しいしいになります。复パフォーマンス回呼び出すは,パフォーマンスパフォーマンスの最适をを使使。

'mex'オプションは,关数の呼び出しに使用されたネットワークとパラメーターに基づいてMEX关数を生成し,実行します。复数のMEX关数を一度に1つのネットワークに关连付けることができます。ネットワークの変数をクリアすると,そのネットワークに关连付けられているMEX关数もクリアされます。

'mex'オプションは,GPUの使用时に利用できます.c / c ++コンパイラとgpu编码器™深度学习图书馆接口サポートサポートパッケージがインストールささていなければなりませんmmででアドオンエクスプローラーをを使てサポートパッケージををインストールます。设定设定手顺について,MEXの设定(GPU编码器)を参照してください.gpu编码器は不错です。

'mex'オプションではサポートされていない层があります。サポートされている层の一覧については,サポートされている层(GPU编码器)を参照してください。sequenceInputlayer.をを含む再帰型ニューラル(RNN)ははされていません。

'mex'

'mex'オプションの使用时に,Matlab Compiler™をを使してネットワークを配するすることできませんん。

例:'加速','mex'

ハードウェアリソース。'executionenvironment'と次のいずれかで构成されるコンマ区切りのペアとして指定します。

  • 'auto'- 利用可能な场合はGPUを使用し,そうでない场合はCPUを使用します。

  • 'GPU'- GPUを使使用します。GPUを使用するには,并行计算工具箱および计算能力3.0以上のCUDA対応NVIDIA GPUが必要です。并行计算工具箱またはまたは适切gpuが利用できないない合,エラーが返され。

  • 'cpu'- CPUを使使用しし。

例:'执行环境', 'CPU'

出力数

すべて折りたたむ

ネットワーク层からの活性化。数値配列,または数値配列の细胞配列として返されます。actの形式は,入力データの,层出力のタイプ,および'OutputAs'オプションによって异なります。

イメージまたは折りたたみシーケンス出力

层がイメージまたは折りたたみたたみデータをを力する料,actは数量配列。

'OutputAs' act
'频道'

2次元イメージ出力の场合,actは高×宽×Ç×n个の配列になります。ここで,H,W,およびÇはそれぞれ选択した层の出力の高さ,幅,およびチャネル数,正はイメージの数です。この场合,法案(::,:我)には番目のイメージの活性化が含まれます。

3次元イメージ出力の合,actは高×宽×d XÇ×n个の配列になります。ここで,H,W,d,およびÇはそれぞれ选択した层の出力の高さ,幅,深さ,およびチャネル数,正はイメージの数です。この场合,作用(:,:,:,:,i)的には番目のイメージの活性化が含まれます。

折りたたみ2次元イメージシーケンス出力の场合,actはh x w x c x (n*s) の配列になります。ここで、h、w、および c はそれぞれ選択した層の出力の高さ、幅、およびチャネル数、n はシーケンスの数、s はシーケンス長です。この場合、作用(:,:,:,(T-1)* N + K)にはK.番目のシーケンスのタイムステップT.の活性化が含まれます。

折りたたみ3次元イメージシーケンスシーケンス力の料,actはh x w x d x c x (n*s) の配列になります。ここで、h、w、d、および c はそれぞれ選択した層の出力の高さ、幅、深さ、およびチャネル数、n はシーケンスの数、s はシーケンス長です。この場合、法案(::::::,(t-1)* n + k)にはK.番目のシーケンスのタイムステップT.の活性化が含まれます。

'行'

2次元および3次元イメージ出力の场合,actはn行M列のの列列ここで,nはイメージの数,mは层からのの要素要素です。このこの合,法案(我,:)には番目のイメージの活性化が含まれます。

折りたたみ2次元および3次元イメージシーケンスシーケンス力の合,actは(N * S)行米列の行列です。ここで,正はシーケンスの数,Sはシーケンス长,mは层からのの要素要素です。このこの合,作用((T-1)* N + K,:)にはK.番目のシーケンスのタイムステップT.の活性化が含まれます。

'列'

2次元および3次元イメージ出力の场合,actはm行n列列行。ここで,mは层からのの要素要素数,nはイメージの数。法案(:,i)には番目のイメージの活性化が含まれます。

折りたたみ2次元および3次元イメージシーケンスシーケンス力の合,actは米行(N * S)列の行列です。ここで,米は层からの出力要素の数,正はシーケンスの数,Sはシーケンス长です。この场合,作用(:,(T-1)* N + K)にはK.番目のシーケンスのタイムステップT.の活性化が含まれます。

シーケンスシーケンス力

にシーケンス出力(たとえば,出力モードが'序列'のLSTM层)がある场合,actは细胞配列になります。この场合,'OutputAs'オプションは'频道'でなければなりません。

'OutputAs' act
'频道'

ベクトルベクトルシーケンス力の合成,actは,C行小号列の行列のÑ行1列の细胞配列になります。ここで,正はシーケンスの数,Cはシーケンスの特徴の数,Sはシーケンス长です。

2次元イメージシーケンスシーケンス力の合成,actは那h x w x c x s の行列の n 行 1 列の cell 配列になります。ここで、n はシーケンスの数、h、w、および c はそれぞれイメージの高さ、幅、およびチャネル数、s はシーケンス長です。

3次元イメージシーケンスシーケンス力の合书,actは那h x w x c x d x s の行列の n 行 1 列の cell 配列になります。ここで、n はシーケンスの数、h、w、d、および c はそれぞれイメージの高さ、幅、深さ、およびチャネル数、s はシーケンス長です。

このこの合,行动{I}には番目番目のシーケンスの活性活性が含まれ

単一のタイムステップステップ力

ががシーケンスの単単のタイムステップを力するする合(たとえば,出力モードが'最后'のLSTM层),actは数値配列になります。

'OutputAs' act
'频道'

ベクトルデータを含む単一のタイムステップの场合,actはÇ行Ñ列の行列になります。ここで,正はシーケンスの数,Cはシーケンスの特徴の数です。

2次元次元イメージデータをを含む単のタイムステップステップの场,actは高×宽×Ç×n个の配列になります。ここで,正はシーケンスの数,H,W,およびÇはそれぞれイメージの高さ,幅,およびチャネル数です。

3次元イメージデータを含む単一のタイムステップの场合,actは高×宽×ÇX d×n个の配列になります。ここで,正はシーケンスの数,H,W,d,およびÇはそれぞれイメージの高さ,幅,深さ,およびチャネル数です。

'行' n行m列の行。ここここ,nは観测値の数,mは选択した层からの出力要素の数です。この场合,法案(我,:)には番目番目のシーケンスの活性活性が含まれ
'列' 米行Ñ列の行列。ここで,米は选択した层からの出力要素の数,正は観测値の数です。この场合,法案(:,i)には番目のイメージの活性化が含まれます。

アルゴリズム

深度学习工具箱™ににれる深层学习习学习,予测,検证検证のの关联,単精密动送小数演算を习习てて実実。Trainnetwork.预测分类激活などがあります.cpuとgpuの両両使してに学习习さ场场场场场ます。

参照

[1] M. Kudo,J. Toyama和M. Shimbo。“使用过度区域的多维曲线分类。”模式识别字母。卷。20,第11-13页,第1103-1111页。

[2] UCI机器学习存储库:日语元音数据集。https://archive.ics.uci.edu/ml/datasets/japanese+vowels.

拡张机械

R2016aで导入