このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。
MATLAB®编码器™は,系列ネットワーク,有向非循環グラフ(DAG)ネットワーク,再帰型畳み込みニューラルネットワーク(CNNまたは事先)のコード生成をサポートします。コード生成でサポートされている層の学習済みの畳み込みニューラルネットワークのコードを生成できます。サポートされている層を参照してください。
次の事前学習済みネットワークは深度学习工具箱™で利用でき,コード生成をサポートしています。
ネットワーク名 | 説明 | 手臂®计算库 | 英特尔®MKL-DNN |
---|---|---|---|
AlexNet |
AlexNet畳み込みニューラルネットワーク。事前学習済みのAlexNetモデルについては, |
はい | はい |
DarkNet |
DarkNet-19およびDarkNet-53畳み込みニューラルネットワーク。事前学習済みのDarkNetモデルについては,darknet19 (深度学习工具箱)およびdarknet53 (深度学习工具箱)を参照してください。 |
はい | はい |
densenet - 201 |
densenet - 201畳み込みニューラルネットワーク。事前学習済みのdensenet - 201モデルについては, |
はい | はい |
EfficientNet-b0 |
EfficientNet-b0畳み込みニューラルネットワーク。事前学習済みのEfficientNet-b0モデルについては, |
はい | はい |
GoogLeNet |
GoogLeNet畳み込みニューラルネットワーク。事前学習済みのGoogLeNetモデルについては, |
はい | はい |
Inception-ResNet-v2 |
Inception-ResNet-v2畳み込みニューラルネットワーク。事前学習済みのInception-ResNet-v2モデルについては, |
はい | はい |
Inception-v3 |
Inception-v3畳み込みニューラルネットワーク。事前学習済みのInception-v3モデルについては,inceptionv3 (深度学习工具箱)を参照してください。 |
はい | はい |
MobileNet-v2 |
MobileNet-v2畳み込みニューラルネットワーク。事前学習済みのMobileNet-v2モデルについては |
はい | はい |
NASNet-Large |
NASNet-Large畳み込みニューラルネットワーク。事前学習済みのNASNet-Largeモデルについては, |
はい | はい |
NASNet-Mobile |
NASNet-Mobile畳み込みニューラルネットワーク。事前学習済みのNASNet-Mobileモデルについては, |
はい | はい |
ResNet |
ResNet-18, ResNet-50およびresnet - 101畳み込みニューラルネットワーク。事前学習済みのResNetモデルについては, |
はい | はい |
SegNet |
複数クラスのピクセル単位のセグメンテーションネットワーク。詳細については, |
いいえ | はい |
SqueezeNet |
小規模のディープニューラルネットワーク。事前学習済みのSqeezeNetモデルについては, |
はい | はい |
VGG-16 |
VGG-16畳み込みニューラルネットワーク。事前学習済みのVGG-16モデルについては, |
はい | はい |
VGG-19 |
VGG-19畳み込みニューラルネットワーク。事前学習済みのVGG-19モデルについては, |
はい | はい |
Xception |
Xception畳み込みニューラルネットワーク。事前学習済みのXceptionモデルについては, |
はい | はい |
表に指定されているターゲット深層学習ライブラリについて,次の層はMATLAB编码器によるコード生成でサポートされています。
サポートパッケージの深度学习库的MATLAB编码器接口をインストールすると,coder.getDeepLearningLayers
を使用して,特定の深層学習ライブラリでサポートされているレイヤーのリストを確認できます。以下に例を示します。
coder.getDeepLearningLayers (“mkldnn”)
レイヤー名 | 説明 | 臂计算库 | 英特尔MKL-DNN |
---|---|---|---|
additionLayer (深度学习工具箱) |
加算層 |
はい | はい |
anchorBoxLayer (计算机视觉工具箱) |
アンカーボックス層 |
はい | はい |
averagePooling2dLayer (深度学习工具箱) |
平均プーリング層 |
はい | はい |
batchNormalizationLayer (深度学习工具箱) |
バッチ正規化層 |
はい | はい |
bilstmLayer (深度学习工具箱) |
双方向LSTM層 | はい | はい |
classificationLayer (深度学习工具箱) |
分類出力層の作成 |
はい | はい |
clippedReluLayer (深度学习工具箱) |
クリップされた正規化線形ユニット層(ReLU) |
はい | はい |
concatenationLayer (深度学习工具箱) |
連結層 |
はい | はい |
convolution2dLayer (深度学习工具箱) |
2次元畳み込み層 |
はい | はい |
crop2dLayer (深度学习工具箱) |
2次元切り取りを入力に適用する層 |
はい | はい |
CrossChannelNormalizationLayer (深度学习工具箱) |
チャネル単位の局所応答正規化層 |
はい | はい |
カスタム層 |
問題に対して定義するカスタム層。学習可能パラメーターの有無は任意です。 以下を参照してください。
カスタム層の出力は固定サイズの配列でなければなりません。 シーケンスネットワークにおけるカスタム層はコード生成でサポートされていません。 |
はい
|
はい |
カスタム出力層 |
カスタム分類出力層を定義して損失関数を指定する方法を示す例については,カスタム分類出力層の定義(深度学习工具箱)を参照してください。 カスタム回帰出力層を定義して損失関数を指定する方法を示す例については,カスタム回帰出力層の定義(深度学习工具箱)を参照してください。 |
はい |
はい |
depthConcatenationLayer (深度学习工具箱) |
深さ連結層 |
はい | はい |
dicePixelClassificationLayer (计算机视觉工具箱) |
骰子ピクセル分類層は,汎用的な骰子損失を使用して,イメージのピクセルまたはボクセルごとに直言ラベルを提供します。 |
はい | はい |
dropoutLayer (深度学习工具箱) |
ドロップアウト層 |
はい | はい |
eluLayer (深度学习工具箱) |
指数線形ユニット層(ELU) |
はい | はい |
focalLossLayer (计算机视觉工具箱) |
焦点損失層は,焦点損失を使用してオブジェクトクラスを予測します。 | はい | はい |
fullyConnectedLayer (深度学习工具箱) |
全結合層 |
はい | はい |
globalAveragePooling2dLayer (深度学习工具箱) |
空間データのグローバル平均プーリング層 |
はい |
はい |
globalMaxPooling2dLayer (深度学习工具箱) |
2次元グローバル最大プーリング層 |
はい | はい |
|
2次元グループ畳み込み層 |
はい
|
はい |
|
ゲート付き回帰型ユニット層(格勒乌) |
はい |
はい |
imageInputLayer (深度学习工具箱) |
イメージ入力層
|
はい | はい |
leakyReluLayer (深度学习工具箱) |
漏洩正規化線形ユニット層(ReLU) |
はい | はい |
lstmLayer (深度学习工具箱) |
長短期記憶層(LSTM) |
はい | はい |
maxPooling2dLayer (深度学习工具箱) |
最大プーリング層 |
はい | はい |
maxUnpooling2dLayer (深度学习工具箱) |
最大逆プーリング層 |
いいえ | はい |
multiplicationLayer (深度学习工具箱) |
乗算層 |
はい | はい |
pixelClassificationLayer (计算机视觉工具箱) |
セマンティックセグメンテーションのピクセル分類レイヤーの作成 |
はい | はい |
rcnnBoxRegressionLayer (计算机视觉工具箱) |
快R-CNNおよび更快R-CNN用のボックス回帰層 |
はい | はい |
rpnClassificationLayer (计算机视觉工具箱) |
領域提案ネットワーク(RPN)用の分類層 |
はい | はい |
regressionLayer (深度学习工具箱) |
回帰出力層の作成 |
はい | はい |
reluLayer (深度学习工具箱) |
正規化線形ユニット層(ReLU) |
はい | はい |
scalingLayer (强化学习工具箱) |
アクターネットワークまたはクリティックネットワーク用のスケーリング層 | はい | はい |
sigmoidLayer (深度学习工具箱) |
シグモイド層 | はい | はい |
sequenceInputLayer (深度学习工具箱) |
シーケンス入力層
|
はい | はい |
softmaxLayer (深度学习工具箱) |
ソフトマックス層 |
はい | はい |
softplusLayer (强化学习工具箱) |
アクターネットワークまたはクリティックネットワーク用のソフトプラス層 |
はい | はい |
spaceToDepthLayer |
空間から深さへの変換層 |
はい | はい |
ssdMergeLayer (计算机视觉工具箱) |
オブジェクト検出のためのSSDマージ層 |
はい | はい |
|
Cスタイル(行優先)の順序であると仮定して,活性化を1次元にフラット化 |
はい |
はい |
nnet.keras.layer.GlobalAveragePooling2dLayer |
空間データのグローバル平均プーリング層 |
はい |
はい |
|
シグモイド活性化層 |
はい |
はい |
|
双曲線正接活性化層 |
はい |
はい |
|
2次元入力のためのゼロパディング層 |
はい |
はい |
nnet.onnx.layer.ElementwiseAffineLayer |
その後に追加が続く,入力の要素単位のスケーリングを実行する層 |
はい | はい |
|
ONNX™ネットワークの層のフラット化 |
はい |
はい |
|
ONNX恒等作用素を実装する層 |
はい |
はい |
|
双曲線正接層(双曲正切) |
はい |
はい |
|
転置2次元畳み込み層 コード生成は,入力の非対称のトリミングをサポートしていません。たとえば,ベクトル |
はい |
はい |
|
単語埋め込み層は,単語インデックスをベクトルにマッピングします。 |
はい |
はい |
|
YOLO v2意思オブジェクト検出ネットワークの出力層 |
はい |
はい |
|
YOLO v2意思オブジェクト検出ネットワークの再編成層 |
はい |
はい |
|
YOLO v2意思オブジェクト検出ネットワークの変換層 |
はい |
はい |
クラス |
説明 |
臂计算库 |
英特尔MKL-DNN |
---|---|---|---|
|
|
はい |
はい |
ssdObjectDetector (计算机视觉工具箱) |
SSDベースの検出器を使用してオブジェクトを検出するためのオブジェクト。
|
はい |
はい |