このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。
GPU编码器™は,系列または有向非循環グラフ(DAG)畳み込みニューラルネットワーク(CNNまたは回旋网)のコード生成をサポートしています。コード生成でサポートされている層を含む学習済みの畳み込みニューラルネットワークについて,コードを生成できます。サポートされている層を参照してください。深度学习工具箱™を使用するか,以下の表に示されているいずれかの事前学習済みのネットワークを使用して,1つのCPU, 1つのGPU,または複数のGPU上で畳み込みニューラルネットワークに学習させ,CUDA®コードを生成することができます。
ネットワークの名前 | 説明 | cuDNN | TensorRT | 手臂®马里GPU的计算图书馆 |
---|---|---|---|---|
AlexNet |
AlexNet畳み込みニューラルネットワーク。事前学習済みのAlexNetモデルについては, 構文 |
あり |
あり |
あり |
咖啡ネットワーク |
咖啡からの畳み込みニューラルネットワークモデル。咖啡からの事前学習済みのネットワークのインポートについては, |
あり |
あり |
あり |
DarkNet-19 |
DarkNet-19畳み込みニューラルネットワーク。詳細については, 構文 |
あり |
あり |
あり |
DarkNet-53 |
DarkNet-53畳み込みニューラルネットワーク。詳細については, 構文 |
あり |
あり |
あり |
DeepLab v3 + |
DeepLab v3 +畳み込みニューラルネットワーク。詳細については, |
あり |
あり |
なし |
densenet - 201 |
densenet - 201畳み込みニューラルネットワーク。事前学習済みのdensenet - 201モデルについては, 構文 |
あり |
あり |
あり |
EfficientNet-b0 |
EfficientNet-b0畳み込みニューラルネットワーク。事前学習済みのEfficientNet-b0モデルについては, 構文 |
あり | あり | あり |
GoogLeNet |
GoogLeNet畳み込みニューラルネットワーク。事前学習済みのGoogLeNetモデルについては, 構文 |
あり |
あり |
あり |
Inception-ResNet-v2 |
Inception-ResNet-v2畳み込みニューラルネットワーク。事前学習済みのInception-ResNet-v2モデルについては, |
あり |
あり |
なし |
Inception-v3 |
Inception-v3畳み込みニューラルネットワーク。事前学習済みのInception-v3モデルについては, 構文 |
あり |
あり |
あり |
Mobilenet-v2 |
MobileNet-v2畳み込みニューラルネットワーク。事前学習済みのMobileNet-v2モデルについては, 構文 |
あり |
あり |
あり |
NASNet-Large |
NASNet-Large畳み込みニューラルネットワーク。事前学習済みのNASNet-Largeモデルについては, |
あり |
あり |
なし |
NASNet-Mobile |
NASNet-Mobile畳み込みニューラルネットワーク。事前学習済みのNASNet-Mobileモデルについては, |
あり |
あり |
なし |
ResNet |
ResNet-18, ResNet-50およびresnet - 101畳み込みニューラルネットワーク。事前学習済みのResNetモデルについては, 構文 |
あり |
あり |
あり |
SegNet |
マルチクラスのピクセル単位セグメンテーションネットワーク。詳細については, |
あり |
あり |
なし |
SqueezeNet |
小さい深層ニューラルネットワーク。事前学習済みのSqueezeNetモデルについては, 構文 |
あり |
あり |
あり |
VGG-16 |
VGG-16畳み込みニューラルネットワーク。事前学習済みのVGG-16モデルについては, 構文 |
あり |
あり |
あり |
VGG-19 |
VGG-19畳み込みニューラルネットワーク。事前学習済みのVGG-19モデルについては, 構文 |
あり |
あり |
あり |
Xception |
Xception畳み込みニューラルネットワーク。事前学習済みのXceptionモデルについては, 構文 |
あり |
あり |
あり |
YOLO v2意思 |
版本2の畳み込みニューラルネットワークベースのオブジェクト検出器を1回のみ確認します。詳細については, |
あり |
あり |
あり |
以下の層は,表内で指定されたターゲット深層学習ライブラリについて,GPU编码器によるコード生成でサポートされています。
層の名前 | 説明 | cuDNN | TensorRT | 马里GPU的ARM计算库 |
---|---|---|---|---|
|
イメージ入力層は,ネットワークに2次元イメージを入力し,データ正規化を適用します。 コード生成では,関数ハンドルを使用して指定される |
あり |
あり |
あり |
|
シーケンス入力層は,ネットワークにシーケンスデータを入力します。 cuDNNライブラリはベクトルおよび2次元イメージシーケンスをサポートします。TensorRTライブラリはベクトル入力シーケンスのみをサポートします。 ベクトルシーケンス入力の場合,特徴の数はコード生成時に定数でなければなりません。 イメージシーケンス入力の場合,高さ,幅,およびチャネル数は,コード生成時に定数でなければなりません。 コード生成では,関数ハンドルを使用して指定される |
あり |
あり |
なし |
層の名前 | 説明 | cuDNN | TensorRT | 马里GPU的ARM计算库 |
---|---|---|---|---|
|
2次元畳み込み層は,入力にスライディング畳み込みフィルターを適用します。 |
あり |
あり |
あり |
|
全結合層は,入力に重み行列を乗算し,バイアスベクトルを加算します。 |
あり |
あり |
なし |
|
グループ化された2次元畳み込み層は,入力チャネルをグループに分けて,スライディング畳み込みフィルターを適用します。チャネル方向に分離可能な(深さ方向に分離可能とも呼ばれる)畳み込みには,グループ化された畳み込み層を使用します。 手臂马里GPUのコード生成は, |
あり |
あり |
あり |
|
2次元転置畳み込み層では特徴マップがアップサンプリングされます。 |
あり |
あり |
あり |
層の名前 | 説明 | cuDNN | TensorRT | 马里GPU的ARM计算库 |
---|---|---|---|---|
|
双方向LSTM (BiLSTM)層は,時系列データまたはシーケンスデータのタイムステップ間の双方向の長期的な依存関係を学習します。これらの依存関係は,各タイムステップで時系列全体からネットワークに学習させる場合に役立ちます。 コード生成の場合, コード生成の場合, |
あり |
あり |
なし |
|
フラット化層は,入力の空間次元を折りたたんでチャネルの次元にします。 |
あり |
なし |
なし |
|
格勒乌層は,時系列データおよびシーケンスデータのタイムステップ間の依存関係を学習します。 コード生成では, |
あり |
あり |
なし |
|
LSTM層は,時系列データおよびシーケンスデータのタイムステップ間の長期的な依存関係を学習します。 コード生成の場合, コード生成の場合, |
あり |
あり |
なし |
|
シーケンス折りたたみ層は,イメージシーケンスのバッチをイメージのバッチに変換します。シーケンス折りたたみ層を使用して,畳み込み演算をイメージシーケンスのタイムステップごとに個別に実行します。 |
あり |
なし |
なし |
|
シーケンス入力層は,ネットワークにシーケンスデータを入力します。 cuDNNライブラリはベクトルおよび2次元イメージシーケンスをサポートします。TensorRTライブラリはベクトル入力シーケンスのみをサポートします。 ベクトルシーケンス入力の場合,特徴の数はコード生成時に定数でなければなりません。 イメージシーケンス入力の場合,高さ,幅,およびチャネル数は,コード生成時に定数でなければなりません。 コード生成では,関数ハンドルを使用して指定される |
あり |
あり |
なし |
|
シーケンス展開層は,シーケンスの折りたたみ後に入力データのシーケンス構造を復元します。 |
あり |
なし |
なし |
|
単語埋め込み層は,単語インデックスをベクトルにマッピングします。 |
あり |
あり |
なし |
層の名前 | 説明 | cuDNN | TensorRT | 马里GPU的ARM计算库 |
---|---|---|---|---|
|
クリップされたReLU層は,しきい値処理を実行し,入力値がゼロよりも小さい場合はゼロに設定して,値が“クリップ上限”を超える場合はそのクリップ上限に設定します。 |
あり |
あり |
あり |
|
ELU活性化層は,正の入力に対して恒等演算を実行し,負の入力に対して非線形となる指数演算を実行します。 |
あり |
あり |
なし |
|
漏水的ReLU層は,しきい値処理を実行し,入力値がゼロよりも小さい場合は固定のスカラーによって乗算されます。 |
あり |
あり |
あり |
|
ReLU層は,入力の各要素に対してしきい値処理を実行し,値がゼロよりも小さい場合はゼロに設定します。 |
あり |
あり |
あり |
|
|
あり |
あり |
なし |
|
双曲線正接(双曲正切)活性化層は,層の入力に対して双曲正切関数を適用します。 |
あり |
あり |
あり |
層の名前 | 説明 | cuDNN | TensorRT | 马里GPU的ARM计算库 |
---|---|---|---|---|
|
バッチ正規化層は,ミニバッチ全体で各入力チャネルを正規化します。 |
あり |
あり |
あり |
|
2次元切り取り層は,入力に2次元のトリミングを適用します。 |
あり |
あり |
あり |
|
チャネル単位の局所応答(クロスチャネル)正規化層は,チャネル単位の正規化を行います。 |
あり |
あり |
あり |
|
ドロップアウト層は,与えられた確率でランダムに,入力要素をゼロに設定します。 |
あり |
あり |
あり |
|
アクターまたはクリティックネットワークのスケーリング層。 コード生成では, |
あり |
あり |
あり |
層の名前 | 説明 | cuDNN | TensorRT | 马里GPU的ARM计算库 |
---|---|---|---|---|
|
平均プーリング層は,入力を四角形のプーリング領域に分割し,各領域の平均値を計算することによって,ダウンサンプリングを実行します。 |
あり |
あり |
あり |
|
グローバル平均プーリング層は,入力の高さおよび幅の次元の平均を計算することによって,ダウンサンプリングを実行します。 |
あり |
あり |
あり |
|
グローバル最大プーリング層は,入力の高さおよび幅の次元の最大値を計算することによって,ダウンサンプリングを実行します。 |
あり |
あり |
あり |
|
最大プーリング層は,入力を四角形のプーリング領域に分割し,各領域の最大値を計算することによって,ダウンサンプリングを実行します。 |
あり |
あり |
あり |
|
最大逆プーリング層は,最大プーリング層の出力を逆プーリングします。 |
あり |
あり |
なし |
層の名前 | 説明 | cuDNN | TensorRT | 马里GPU的ARM计算库 |
---|---|---|---|---|
|
加算層は,複数のニューラルネットワーク層からの入力を要素単位で加算します。 |
あり |
あり |
あり |
|
連結層は入力を取り,指定された次元に沿って入力を連結します。 |
あり |
あり |
なし |
|
深さ連結層は,高さと幅が同じ入力を取り,3番目の次元(チャネルの次元)に沿ってこれらを連結します。 |
あり |
あり |
あり |
層の名前 | 説明 | cuDNN | TensorRT | 马里GPU的ARM计算库 |
---|---|---|---|---|
|
アンカーボックス層は,オブジェクト検出ネットワークで使用される特徴マップのアンカーボックスを保存します。 |
あり |
あり |
あり |
|
焦点損失層は,焦点損失を使用してオブジェクトのクラスを予測します。 | あり |
あり |
あり |
|
空間から深さへの変換層は,入力の空間ブロックを深さの次元に置換します。特徴データを破棄することなく,異なるサイズの特徴マップを組み合わせる必要がある場合は,この層を使用します。 | あり |
あり |
あり |
|
SSDマージ層は,後続の回帰や分類の損失計算に使用する特徴マップの出力をマージします。 |
あり |
あり |
なし |
|
ボックス回帰層は,スムーズL1損失関数を使用して,境界ボックスの位置を調整します。快R-CNNオブジェクトまたは更快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。 | あり |
あり |
あり |
|
領域提案ネットワーク(RPN)分類層は,交差エントロピー損失関数を使用して,イメージ領域を”“オブジェクトまたは“背景”として分類します。快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。 | あり |
あり |
あり |
|
YOLO v2意思オブジェクト検出ネットワークの出力層の作成。 |
あり |
あり |
あり |
|
YOLO v2意思オブジェクト検出ネットワークの再編成層の作成。 |
あり |
あり |
あり |
|
YOLO v2意思オブジェクト検出ネットワークの変換層の作成。 |
あり |
あり |
あり |
層の名前 | 説明 | cuDNN | TensorRT | 马里GPU的ARM计算库 |
---|---|---|---|---|
|
分類層は,互いに排他的なクラスを含むマルチクラス分類問題の交差エントロピー損失を計算します。 |
あり |
あり |
あり |
|
骰子ピクセル分類層は,一般化骰子損失を使用して,各イメージピクセルまたはボクセルのカテゴリカルラベルを提供します。 |
あり |
あり |
あり |
|
焦点損失層は,焦点損失を使用してオブジェクトのクラスを予測します。 | あり |
あり |
あり |
|
カスタム分類出力層を定義し,損失関数を指定する方法を示す例については,カスタム分類出力層の定義(深度学习工具箱)を参照してください。 カスタム回帰出力層を定義し,損失関数を指定する方法を示す例については,カスタム回帰出力層の定義(深度学习工具箱)を参照してください。 |
あり |
あり |
あり |
|
ピクセル分類層は,各イメージピクセルまたはボクセルのカテゴリカルラベルを提供します。 |
あり |
あり |
あり |
|
ボックス回帰層は,スムーズL1損失関数を使用して,境界ボックスの位置を調整します。快R-CNNオブジェクトまたは更快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。 | あり |
あり |
あり |
|
回帰層は,回帰問題の半平均二乗誤差損失を計算します。 |
あり |
あり |
あり |
|
領域提案ネットワーク(RPN)分類層は,交差エントロピー損失関数を使用して,イメージ領域を”“オブジェクトまたは“背景”として分類します。快R-CNNオブジェクト検出ネットワークを作成するには,この層を使用します。 | あり |
あり |
あり |
|
シグモイド層によって,シグモイド関数が入力に適用されます。 |
あり |
あり |
あり |
|
ソフトマックス層は,入力にソフトマックス関数を適用します。 |
あり |
あり |
あり |
層の名前 | 説明 | cuDNN | TensorRT | 马里GPU的ARM计算库 |
---|---|---|---|---|
|
Cスタイル(行優先)の順序であると仮定して,アクティベーションを1次元にフラット化。 |
あり |
あり |
あり |
|
空間データ用のグローバル平均プーリング層。 |
あり |
あり |
あり |
|
シグモイド活性化層。 |
あり |
あり |
あり |
|
双曲線正接活性化層。 |
あり |
あり |
あり |
|
2次元入力のゼロパディング層。 |
あり |
あり |
あり |
|
加算の前に入力の要素単位のスケーリングを実行する層。 |
あり |
あり |
あり |
|
入力テンソルの空間次元をチャネル次元へとフラットにします。 |
あり |
あり |
あり |
|
ONNXの単位行列演算子を実装する層。 |
あり |
あり |
あり |
層の名前 | 説明 | cuDNN | TensorRT | 马里GPU的ARM计算库 |
---|---|---|---|---|
|
問題に関して定義される,学習可能パラメーターを伴う場合と伴わない場合があるカスタム層。 カスタム深層学習層の定義方法については,カスタム深層学習層の定義(深度学习工具箱)とコード生成用のカスタム深層学習層の定義(深度学习工具箱)を参照してください。 カスタム層を使用してネットワーク用のコードを生成する方法の例については,YOLO v3意思深層学習を使用したオブジェクト検出用のコード生成を参照してください。 カスタム層の出力は固定サイズの配列でなければなりません。
cuDNNターゲットは,カスタム層の行優先コード生成と列優先コード生成の両方をサポートします。TensorRTターゲットは,列優先コード生成のみをサポートします。 カスタム層とLSTMまたは格勒乌層を含むシーケンスネットワークのコード生成はサポートされていません。 カスタム層をもつ深層学習ネットワークのコード生成は仿金宝app真软件®ではサポートされていません。 |
あり |
あり |
なし |
以下のクラスは,表内で指定されたターゲット深層学習ライブラリについて,GPU编码器によるコード生成でサポートされています。
的名字 | 説明 | cuDNN | TensorRT | 马里GPU的ARM计算库 |
---|---|---|---|---|
DAGNetwork (深度学习工具箱) |
深層学習用の有向非循環グラフ(DAG)ネットワーク
|
あり |
あり |
あり |
SeriesNetwork (深度学习工具箱) |
深層学習用の系列ネットワーク
|
あり |
あり |
あり |
ssdObjectDetector (计算机视觉工具箱) |
SSDベースの検出器を使用してオブジェクトを検出するオブジェクト。
|
あり |
あり |
なし |
yolov2ObjectDetector (计算机视觉工具箱) |
YOLO v2意思オブジェクト検出器を使用したオブジェクトの検出
|
あり |
あり |
あり |
coder.gpuConfig
|编码器。CodeConfig
|编码器。EmbeddedCodeConfig
|coder.gpuEnvConfig
|编码器。CuDNNConfig
|编码器。TensorRTConfig