主要内容

このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。

サポートされているネットワークと層

サポートされている事前学習済みのネットワーク

GPU编码器™は,系列または有向非循環グラフ(DAG)畳み込みニューラルネットワーク(CNNまたは回旋网)のコード生成をサポートしています。コード生成でサポートされている層を含む学習済みの畳み込みニューラルネットワークについて,コードを生成できます。サポートされている層を参照してください。深度学习工具箱™を使用するか,以下の表に示されているいずれかの事前学習済みのネットワークを使用して,1つのCPU, 1つのGPU,または複数のGPU上で畳み込みニューラルネットワークに学習させ,CUDA®コードを生成することができます。

ネットワークの名前 説明 cuDNN TensorRT 手臂®马里GPU的计算图书馆

AlexNet

AlexNet畳み込みニューラルネットワーク。事前学習済みのAlexNetモデルについては,alexnet(深度学习工具箱)を参照してください。

構文alexnet(“重量”、“没有”)はコード生成でサポートされていません。

あり

あり

あり

咖啡ネットワーク

咖啡からの畳み込みニューラルネットワークモデル。咖啡からの事前学習済みのネットワークのインポートについては,importCaffeNetwork(深度学习工具箱)を参照してください。

あり

あり

あり

DarkNet-19

DarkNet-19畳み込みニューラルネットワーク。詳細については,darknet19(深度学习工具箱)を参照してください。

構文darknet19(“重量”、“没有”)はコード生成でサポートされていません。

あり

あり

あり

DarkNet-53

DarkNet-53畳み込みニューラルネットワーク。詳細については,darknet53(深度学习工具箱)を参照してください。

構文darknet53(“重量”、“没有”)はコード生成でサポートされていません。

あり

あり

あり

DeepLab v3 +

DeepLab v3 +畳み込みニューラルネットワーク。詳細については,deeplabv3plusLayers(计算机视觉工具箱)を参照してください。

あり

あり

なし

densenet - 201

densenet - 201畳み込みニューラルネットワーク。事前学習済みのdensenet - 201モデルについては,densenet201(深度学习工具箱)を参照してください。

構文densenet201(“重量”、“没有”)はコード生成でサポートされていません。

あり

あり

あり

EfficientNet-b0

EfficientNet-b0畳み込みニューラルネットワーク。事前学習済みのEfficientNet-b0モデルについては,efficientnetb0(深度学习工具箱)を参照してください。

構文efficientnetb0(“重量”、“没有”)はコード生成でサポートされていません。

あり あり あり

GoogLeNet

GoogLeNet畳み込みニューラルネットワーク。事前学習済みのGoogLeNetモデルについては,googlenet(深度学习工具箱)を参照してください。

構文googlenet(“重量”、“没有”)はコード生成でサポートされていません。

あり

あり

あり

Inception-ResNet-v2

Inception-ResNet-v2畳み込みニューラルネットワーク。事前学習済みのInception-ResNet-v2モデルについては,inceptionresnetv2(深度学习工具箱)を参照してください。

あり

あり

なし

Inception-v3

Inception-v3畳み込みニューラルネットワーク。事前学習済みのInception-v3モデルについては,inceptionv3(深度学习工具箱)を参照してください。

構文inceptionv3(“重量”、“没有”)はコード生成でサポートされていません。

あり

あり

あり

Mobilenet-v2

MobileNet-v2畳み込みニューラルネットワーク。事前学習済みのMobileNet-v2モデルについては,mobilenetv2(深度学习工具箱)を参照してください。

構文mobilenetv2(“重量”、“没有”)はコード生成でサポートされていません。

あり

あり

あり

NASNet-Large

NASNet-Large畳み込みニューラルネットワーク。事前学習済みのNASNet-Largeモデルについては,nasnetlarge(深度学习工具箱)を参照してください。

あり

あり

なし

NASNet-Mobile

NASNet-Mobile畳み込みニューラルネットワーク。事前学習済みのNASNet-Mobileモデルについては,nasnetmobile(深度学习工具箱)を参照してください。

あり

あり

なし

ResNet

ResNet-18, ResNet-50およびresnet - 101畳み込みニューラルネットワーク。事前学習済みのResNetモデルについては,resnet50(深度学习工具箱)resnet18(深度学习工具箱)およびresnet101(深度学习工具箱)を参照してください。

構文resnetXX(“重量”、“没有”)はコード生成でサポートされていません。

あり

あり

あり

SegNet

マルチクラスのピクセル単位セグメンテーションネットワーク。詳細については,segnetLayers(计算机视觉工具箱)を参照してください。

あり

あり

なし

SqueezeNet

小さい深層ニューラルネットワーク。事前学習済みのSqueezeNetモデルについては,squeezenet(深度学习工具箱)を参照してください。

構文squeezenet(“重量”、“没有”)はコード生成でサポートされていません。

あり

あり

あり

VGG-16

VGG-16畳み込みニューラルネットワーク。事前学習済みのVGG-16モデルについては,vgg16(深度学习工具箱)を参照してください。

構文vgg16(“重量”、“没有”)はコード生成でサポートされていません。

あり

あり

あり

VGG-19

VGG-19畳み込みニューラルネットワーク。事前学習済みのVGG-19モデルについては,vgg19(深度学习工具箱)を参照してください。

構文vgg19(“重量”、“没有”)はコード生成でサポートされていません。

あり

あり

あり

Xception

Xception畳み込みニューラルネットワーク。事前学習済みのXceptionモデルについては,xception(深度学习工具箱)を参照してください。

構文xception(“重量”、“没有”)はコード生成でサポートされていません。

あり

あり

あり

YOLO v2意思

版本2の畳み込みニューラルネットワークベースのオブジェクト検出器を1回のみ確認します。詳細については,yolov2Layers(计算机视觉工具箱)を参照してください。

あり

あり

あり

サポートされている層

以下の層は,表内で指定されたターゲット深層学習ライブラリについて,GPU编码器によるコード生成でサポートされています。

入力層

層の名前 説明 cuDNN TensorRT 马里GPU的ARM计算库

imageInputLayer(深度学习工具箱)

イメージ入力層は,ネットワークに2次元イメージを入力し,データ正規化を適用します。

コード生成では,関数ハンドルを使用して指定される“归一化”はサポートされません。

あり

あり

あり

sequenceInputLayer(深度学习工具箱)

シーケンス入力層は,ネットワークにシーケンスデータを入力します。

cuDNNライブラリはベクトルおよび2次元イメージシーケンスをサポートします。TensorRTライブラリはベクトル入力シーケンスのみをサポートします。

ベクトルシーケンス入力の場合,特徴の数はコード生成時に定数でなければなりません。

イメージシーケンス入力の場合,高さ,幅,およびチャネル数は,コード生成時に定数でなければなりません。

コード生成では,関数ハンドルを使用して指定される“归一化”はサポートされません。

あり

あり

なし

畳み込み層と全結合層

層の名前 説明 cuDNN TensorRT 马里GPU的ARM计算库

convolution2dLayer(深度学习工具箱)

2次元畳み込み層は,入力にスライディング畳み込みフィルターを適用します。

あり

あり

あり

fullyConnectedLayer(深度学习工具箱)

全結合層は,入力に重み行列を乗算し,バイアスベクトルを加算します。

あり

あり

なし

groupedConvolution2dLayer(深度学习工具箱)

グループ化された2次元畳み込み層は,入力チャネルをグループに分けて,スライディング畳み込みフィルターを適用します。チャネル方向に分離可能な(深さ方向に分離可能とも呼ばれる)畳み込みには,グループ化された畳み込み層を使用します。

手臂马里GPUのコード生成は,“channel-wise”として設定されたNumGroupsプロパティまたは2を超える値をもつ2次元のグループ化された畳み込み層でサポートされません。

あり

あり

あり

transposedConv2dLayer(深度学习工具箱)

2次元転置畳み込み層では特徴マップがアップサンプリングされます。

あり

あり

あり

シーケンス層

層の名前 説明 cuDNN TensorRT 马里GPU的ARM计算库

bilstmLayer(深度学习工具箱)

双方向LSTM (BiLSTM)層は,時系列データまたはシーケンスデータのタイムステップ間の双方向の長期的な依存関係を学習します。これらの依存関係は,各タイムステップで時系列全体からネットワークに学習させる場合に役立ちます。

コード生成の場合,StateActivationFunctionプロパティを的双曲正切に設定しなければなりません。

コード生成の場合,GateActivationFunctionプロパティを“乙状结肠”に設定しなければなりません。

あり

あり

なし

flattenLayer(深度学习工具箱)

フラット化層は,入力の空間次元を折りたたんでチャネルの次元にします。

あり

なし

なし

gruLayer(深度学习工具箱)

格勒乌層は,時系列データおよびシーケンスデータのタイムステップ間の依存関係を学習します。

コード生成では,“after-multiplication”“recurrent-bias-after-multiplication”のリセットゲートモードのみがサポートされます。

あり

あり

なし

lstmLayer(深度学习工具箱)

LSTM層は,時系列データおよびシーケンスデータのタイムステップ間の長期的な依存関係を学習します。

コード生成の場合,StateActivationFunctionプロパティを的双曲正切に設定しなければなりません。

コード生成の場合,GateActivationFunctionプロパティを“乙状结肠”に設定しなければなりません。

あり

あり

なし

sequenceFoldingLayer(深度学习工具箱)

シーケンス折りたたみ層は,イメージシーケンスのバッチをイメージのバッチに変換します。シーケンス折りたたみ層を使用して,畳み込み演算をイメージシーケンスのタイムステップごとに個別に実行します。

あり

なし

なし

sequenceInputLayer(深度学习工具箱)

シーケンス入力層は,ネットワークにシーケンスデータを入力します。

cuDNNライブラリはベクトルおよび2次元イメージシーケンスをサポートします。TensorRTライブラリはベクトル入力シーケンスのみをサポートします。

ベクトルシーケンス入力の場合,特徴の数はコード生成時に定数でなければなりません。

イメージシーケンス入力の場合,高さ,幅,およびチャネル数は,コード生成時に定数でなければなりません。

コード生成では,関数ハンドルを使用して指定される“归一化”はサポートされません。

あり

あり

なし

sequenceUnfoldingLayer(深度学习工具箱)

シーケンス展開層は,シーケンスの折りたたみ後に入力データのシーケンス構造を復元します。

あり

なし

なし

wordEmbeddingLayer(文本分析工具箱)

単語埋め込み層は,単語インデックスをベクトルにマッピングします。

あり

あり

なし

活性化層

層の名前 説明 cuDNN TensorRT 马里GPU的ARM计算库

clippedReluLayer(深度学习工具箱)

クリップされたReLU層は,しきい値処理を実行し,入力値がゼロよりも小さい場合はゼロに設定して,値が“クリップ上限”を超える場合はそのクリップ上限に設定します。

あり

あり

あり

eluLayer(深度学习工具箱)

ELU活性化層は,正の入力に対して恒等演算を実行し,負の入力に対して非線形となる指数演算を実行します。

あり

あり

なし

leakyReluLayer(深度学习工具箱)

漏水的ReLU層は,しきい値処理を実行し,入力値がゼロよりも小さい場合は固定のスカラーによって乗算されます。

あり

あり

あり

reluLayer(深度学习工具箱)

ReLU層は,入力の各要素に対してしきい値処理を実行し,値がゼロよりも小さい場合はゼロに設定します。

あり

あり

あり

softplusLayer(强化学习工具箱)

SoftplusLayerは,出力が必ず常に正であるようにするsoftplusアクティベーションY = log(1 + eXを実装する深層ニューラルネットワーク層です

あり

あり

なし

tanhLayer(深度学习工具箱)

双曲線正接(双曲正切)活性化層は,層の入力に対して双曲正切関数を適用します。

あり

あり

あり

正規化層,ドロップアウト層,およびトリミング層

層の名前 説明 cuDNN TensorRT 马里GPU的ARM计算库

batchNormalizationLayer(深度学习工具箱)

バッチ正規化層は,ミニバッチ全体で各入力チャネルを正規化します。

あり

あり

あり

crop2dLayer(深度学习工具箱)

2次元切り取り層は,入力に2次元のトリミングを適用します。

あり

あり

あり

crossChannelNormalizationLayer(深度学习工具箱)

チャネル単位の局所応答(クロスチャネル)正規化層は,チャネル単位の正規化を行います。

あり

あり

あり

dropoutLayer(深度学习工具箱)

ドロップアウト層は,与えられた確率でランダムに,入力要素をゼロに設定します。

あり

あり

あり

scalingLayer(强化学习工具箱)

アクターまたはクリティックネットワークのスケーリング層。

コード生成では,“规模”プロパティと“偏见”プロパティの値の次元が同じでなければなりません。

あり

あり

あり

プーリング層と逆プーリング層

層の名前 説明 cuDNN TensorRT 马里GPU的ARM计算库

averagePooling2dLayer(深度学习工具箱)

平均プーリング層は,入力を四角形のプーリング領域に分割し,各領域の平均値を計算することによって,ダウンサンプリングを実行します。

あり

あり

あり

globalAveragePooling2dLayer(深度学习工具箱)

グローバル平均プーリング層は,入力の高さおよび幅の次元の平均を計算することによって,ダウンサンプリングを実行します。

あり

あり

あり

globalMaxPooling2dLayer(深度学习工具箱)

グローバル最大プーリング層は,入力の高さおよび幅の次元の最大値を計算することによって,ダウンサンプリングを実行します。

あり

あり

あり

maxPooling2dLayer(深度学习工具箱)

最大プーリング層は,入力を四角形のプーリング領域に分割し,各領域の最大値を計算することによって,ダウンサンプリングを実行します。

あり

あり

あり

maxUnpooling2dLayer(深度学习工具箱)

最大逆プーリング層は,最大プーリング層の出力を逆プーリングします。

あり

あり

なし

結合層

層の名前 説明 cuDNN TensorRT 马里GPU的ARM计算库

additionLayer(深度学习工具箱)

加算層は,複数のニューラルネットワーク層からの入力を要素単位で加算します。

あり

あり

あり

concatenationLayer(深度学习工具箱)

連結層は入力を取り,指定された次元に沿って入力を連結します。

あり

あり

なし

depthConcatenationLayer(深度学习工具箱)

深さ連結層は,高さと幅が同じ入力を取り,3番目の次元(チャネルの次元)に沿ってこれらを連結します。

あり

あり

あり

オブジェクト検出層

層の名前 説明 cuDNN TensorRT 马里GPU的ARM计算库

anchorBoxLayer(计算机视觉工具箱)

アンカーボックス層は,オブジェクト検出ネットワークで使用される特徴マップのアンカーボックスを保存します。

あり

あり

あり

focalLossLayer(计算机视觉工具箱)

焦点損失層は,焦点損失を使用してオブジェクトのクラスを予測します。

あり

あり

あり

spaceToDepthLayer

空間から深さへの変換層は,入力の空間ブロックを深さの次元に置換します。特徴データを破棄することなく,異なるサイズの特徴マップを組み合わせる必要がある場合は,この層を使用します。

あり

あり

あり

ssdMergeLayer(计算机视觉工具箱)

SSDマージ層は,後続の回帰や分類の損失計算に使用する特徴マップの出力をマージします。

あり

あり

なし

rcnnBoxRegressionLayer(计算机视觉工具箱)

ボックス回帰層は,スムーズL1損失関数を使用して,境界ボックスの位置を調整します。快R-CNNオブジェクトまたは更快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。

あり

あり

あり

rpnClassificationLayer(计算机视觉工具箱)

領域提案ネットワーク(RPN)分類層は,交差エントロピー損失関数を使用して,イメージ領域を”“オブジェクトまたは“背景”として分類します。快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。

あり

あり

あり

YOLOv2OutputLayer(计算机视觉工具箱)

YOLO v2意思オブジェクト検出ネットワークの出力層の作成。

あり

あり

あり

YOLOv2ReorgLayer(计算机视觉工具箱)

YOLO v2意思オブジェクト検出ネットワークの再編成層の作成。

あり

あり

あり

YOLOv2TransformLayer(计算机视觉工具箱)

YOLO v2意思オブジェクト検出ネットワークの変換層の作成。

あり

あり

あり

出力層

層の名前 説明 cuDNN TensorRT 马里GPU的ARM计算库

classificationLayer(深度学习工具箱)

分類層は,互いに排他的なクラスを含むマルチクラス分類問題の交差エントロピー損失を計算します。

あり

あり

あり

dicePixelClassificationLayer(计算机视觉工具箱)

骰子ピクセル分類層は,一般化骰子損失を使用して,各イメージピクセルまたはボクセルのカテゴリカルラベルを提供します。

あり

あり

あり

focalLossLayer(计算机视觉工具箱)

焦点損失層は,焦点損失を使用してオブジェクトのクラスを予測します。

あり

あり

あり

输出层(深度学习工具箱)

nnet.layer.ClassificationLayerまたはnnet.layer.RegressionLayerを使用して作成されたカスタム分類層または回帰出力層などのすべての出力層。

カスタム分類出力層を定義し,損失関数を指定する方法を示す例については,カスタム分類出力層の定義(深度学习工具箱)を参照してください。

カスタム回帰出力層を定義し,損失関数を指定する方法を示す例については,カスタム回帰出力層の定義(深度学习工具箱)を参照してください。

あり

あり

あり

pixelClassificationLayer(计算机视觉工具箱)

ピクセル分類層は,各イメージピクセルまたはボクセルのカテゴリカルラベルを提供します。

あり

あり

あり

rcnnBoxRegressionLayer(计算机视觉工具箱)

ボックス回帰層は,スムーズL1損失関数を使用して,境界ボックスの位置を調整します。快R-CNNオブジェクトまたは更快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。

あり

あり

あり

regressionLayer(深度学习工具箱)

回帰層は,回帰問題の半平均二乗誤差損失を計算します。

あり

あり

あり

rpnClassificationLayer(计算机视觉工具箱)

領域提案ネットワーク(RPN)分類層は,交差エントロピー損失関数を使用して,イメージ領域を”“オブジェクトまたは“背景”として分類します。快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。

あり

あり

あり

sigmoidLayer(深度学习工具箱)

シグモイド層によって,シグモイド関数が入力に適用されます。

あり

あり

あり

softmaxLayer(深度学习工具箱)

ソフトマックス層は,入力にソフトマックス関数を適用します。

あり

あり

あり

KerasおよびONNX層

層の名前 説明 cuDNN TensorRT 马里GPU的ARM计算库

nnet.keras.layer.FlattenCStyleLayer(深度学习工具箱)

Cスタイル(行優先)の順序であると仮定して,アクティベーションを1次元にフラット化。

あり

あり

あり

nnet.keras.layer.GlobalAveragePooling2dLayer(深度学习工具箱)

空間データ用のグローバル平均プーリング層。

あり

あり

あり

nnet.keras.layer.SigmoidLayer(深度学习工具箱)

シグモイド活性化層。

あり

あり

あり

nnet.keras.layer.TanhLayer(深度学习工具箱)

双曲線正接活性化層。

あり

あり

あり

nnet.keras.layer.ZeroPadding2dLayer(深度学习工具箱)

2次元入力のゼロパディング層。

あり

あり

あり

nnet.onnx.layer.ElementwiseAffineLayer(深度学习工具箱)

加算の前に入力の要素単位のスケーリングを実行する層。

あり

あり

あり

nnet.onnx.layer.FlattenLayer(深度学习工具箱)

入力テンソルの空間次元をチャネル次元へとフラットにします。

あり

あり

あり

nnet.onnx.layer.IdentityLayer(深度学习工具箱)

ONNXの単位行列演算子を実装する層。

あり

あり

あり

カスタム層

層の名前 説明 cuDNN TensorRT 马里GPU的ARM计算库

自定义图层

問題に関して定義される,学習可能パラメーターを伴う場合と伴わない場合があるカスタム層。

カスタム深層学習層の定義方法については,カスタム深層学習層の定義(深度学习工具箱)コード生成用のカスタム深層学習層の定義(深度学习工具箱)を参照してください。

カスタム層を使用してネットワーク用のコードを生成する方法の例については,YOLO v3意思深層学習を使用したオブジェクト検出用のコード生成を参照してください。

カスタム層の出力は固定サイズの配列でなければなりません。

coder.gpuConfigMallocModeとして“统一”を使用すると,追加のメモリコピーが必要となり,パフォーマンスの低下につながります。カスタム層では,“离散”モードを使用することをお勧めします。GPUメモリ割り当ての詳細については,離散および管理モードを参照してください。

cuDNNターゲットは,カスタム層の行優先コード生成と列優先コード生成の両方をサポートします。TensorRTターゲットは,列優先コード生成のみをサポートします。

カスタム層とLSTMまたは格勒乌層を含むシーケンスネットワークのコード生成はサポートされていません。

カスタム層をもつ深層学習ネットワークのコード生成は仿金宝app真软件®ではサポートされていません。

あり

あり

なし

サポートされているクラス

以下のクラスは,表内で指定されたターゲット深層学習ライブラリについて,GPU编码器によるコード生成でサポートされています。

的名字 説明 cuDNN TensorRT 马里GPU的ARM计算库
DAGNetwork(深度学习工具箱)

深層学習用の有向非循環グラフ(DAG)ネットワーク

  • 激活メソッド,预测メソッド,分类メソッドのみがサポートされます。

あり

あり

あり

SeriesNetwork(深度学习工具箱)

深層学習用の系列ネットワーク

  • オブジェクト関数激活分类预测predictAndUpdateStateresetStateのみがサポートされます。

あり

あり

あり

ssdObjectDetector(计算机视觉工具箱)

SSDベースの検出器を使用してオブジェクトを検出するオブジェクト。

  • ssdObjectDetector检测(计算机视觉工具箱)メソッドのみがコード生成でサポートされます。

  • 检测メソッドのroi引数はcodegenの定数(coder.const ())および1行4列のベクトルでなければなりません。

  • 阈值SelectStrongestMinSize最大尺寸およびMiniBatchSizeの名前と値のペアのみがサポートされます。すべての名前と値のペアはコンパイル時の定数でなければなりません。

  • 入力イメージのチャネルとバッチサイズは固定サイズでなければなりません。

  • 出力标签は直言配列として返されます。

  • 生成コードでは,入力がネットワークの入力層のサイズに再スケーリングされます。ただし,检测メソッドが返す境界ボックスは,元の入力サイズに従います。

  • この境界ボックスは,シミュレーション結果と数値的に一致しない場合があります。

あり

あり

なし

yolov2ObjectDetector(计算机视觉工具箱)

YOLO v2意思オブジェクト検出器を使用したオブジェクトの検出

  • yolov2ObjectDetector检测(计算机视觉工具箱)メソッドのみがコード生成でサポートされます。

  • 检测メソッドのroi引数はcodegenの定数(coder.const ())および1行4列のベクトルでなければなりません。

  • 阈值SelectStrongestMinSize最大尺寸およびMiniBatchSizeの名前と値のペアのみがサポートされます。

  • 入力イメージの高さ,幅,チャネル,バッチサイズは固定サイズでなければなりません。

  • 検出メソッドに渡す最小バッチサイズの値は固定サイズでなければなりません。

  • ラベル出力は,{“汽车”,“巴士”}などの文字ベクトルの细胞配列として返されます。

あり

あり

あり

参考

関数

オブジェクト

関連するトピック