このペ,ジの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。
この例では,ディープネットワークデザイナーを使用して深層学習による分類用のシンプルな畳み込みニューラルネットワークを作成し,学習を行う方法を説明します。畳み込みニューラルネットワークは深層学習に不可欠なツールであり,特にイメージの認識に適しています。
この例では,次の作業を行います。
@ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @
ネットワ,クア,キテクチャの定義。
学習オプションの指定。
ネットワ,クに学習をさせます。
数字の標本デタをメジデタストアとして読み込みます。関数imageDatastore
は、フォルダ、名に基づいて、メ、ジに自動的にラベルを付けます。データセットには10個のクラスがあり,データセット内の各イメージは28 28 x 1ピクセルです。
digitDatasetPath = fullfile(matlabroot,“工具箱”,“nnet”,“nndemos”,...“nndatasets”,“DigitDataset”);imds = imageDatastore(digitDatasetPath,...“IncludeSubfolders”,真的,...“LabelSource”,“foldernames”);
ディプネットワクデザナを開きます。ディプネットワクデザナを使用して、ネットワークを作成し、データをインポートして可視化し、ネットワークに学習させます。
deepNetworkDesigner
空のネットワ,クを作成するには,[空のネットワ,ク]で一時停止し,[新規]をクリックします。
イメージデータストアをインポートするには,[デ,タ]タブを選択し,[デ、タの、ンポ、ト]、[@ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @ @]をクリックします。デ,タソ,スとして洛桑国际管理发展学院
を選択します。検証デ,タとして使用するために,学習デ,タの30%を残しておきます。[ランダム化]を選択して,観測値を学習セットと検証セットにランダムに割り当てます。
[huawei @ huawei @ huawei @ huawei @ huawei @ huawei]をクリックしてデタをンポトします。
[デザaapl . aapl . cn]ペンで,畳み込みニュラルネットワクアキテクチャを定義します。[層のラ电子邮箱ブラリ]から層をドラッグして結合します。層をすばやく検索するには,[層のラ电子邮箱ブラリ]ペereplicationンの[層のフィルタ]検索ボックスを使用します。層のプロパティを編集するには,層をクリックして,[プロパティ]ペ@ @ンで値を編集します。
次の順序で層を結合します。
imageInputLayer
(InputSize
プロパティを28日,28岁,1
に設定)
convolution2dLayer
batchNormalizationLayer
reluLayer
fullyConnectedLayer
(OutputSize
プロパティを10
に設定)
softmaxLayer
classificationLayer
深層学習層の詳細は,深層学習層の一覧を参照してください。
学習オプションを指定し,ネットワ,クに学習させます。
[学習]タブで,[学習オプション]をクリックします。この例では,エポックの最大数を5に設定し,他の既定の設定はそのままにします。[閉じる]をクリックして学習オプションを設定します。学習オプションの詳細は,パラメ,タ,の設定と畳み込みニュ,ラルネットワ,クの学習を参照してください。
[学習]をクリックしてネットワ,クに学習させます。
精度は,ネットワ,クが正しく予測するラベルの割合です。この場合,97%を超える予測ラベルが検証セット内の真のラベルに一致しています。
学習済みのネットワ,クをワ,クスペ,スにエクスポ,トするには,[学習]タブの[エクスポ,ト]をクリックします。
深層学習の次のステップとして,事前学習済みのネットワ,クを他のタスクに使用してみることができます。転移学習を使用して,自分のメジデタで新しい分類問題を解決してみましょう。例にいては,転移学習入門を参照してください。事前学習済みのネットワ,クの詳細は,事前学習済みの深層ニュ,ラルネットワ,クを参照してください。