このページの翻訳は最新ではありません。ここをクリックして,英語の最新版を参照してください。
深層学習ネットワーク層の活性化の計算
1.つの 中央处理器または 1.つの GPUで深層学習ネットワーク層の活性化を計算できます。GPUを使用するには、并行计算工具箱™ および 计算能力3.0以上の 库达®対応英伟达®GPUが必要です。名前と値のペアの引数ExecutionEnvironment
を使用してハードウェア要件を指定します。
は,学習済みネットワーク行为
=激活(网
,洛桑国际管理发展学院
,层
)网
およびイメージデータストア洛桑国际管理发展学院
内のイメージ データを使用して、特定の層のネットワーク活性化を返します。
この例では,事前学習済みの畳み込みニューラルネットワークから学習済みのイメージの特徴を抽出し,これらの特徴を使用してイメージ分類器に学習させる方法を説明します。特徴抽出は,事前学習済みの深いネットワークの表現能力を活用できる最も簡単で時間のかからない方法です。たとえば,抽出した特徴に対して菲切克
(统计和机器学习的工具箱™)を使用してサポートベクターマシン(SVM)に学習させることができます。特徴抽出が必要とするものはデータを一巡する1つのパスのみであるため,ネットワークの学習を加速するためのGPUがない場合,これは適切な開始点となります。
データの読み込み
サンプルイメージを解凍してイメージデータストアとして読み込みます。imageDatastore
は、フォルダー名に基づいてイメージに自動的にラベルを付け、データをImageDatastore
オブジェクトとして格納します。イメージ データストアを使用すると、メモリに収まらないデータを含む大きなイメージ データを格納できます。データを 70% の学習データと 30% のテスト データに分割します。
解压缩(“MerchData.zip”);imd = imageDatastore (“MerchData”,...“包含子文件夹”符合事实的...“标签源”,“foldernames”);[imdsTrain, imdsTest] = splitEachLabel (imd, 0.7,“随机化”);
このとき、この非常に小さなデータセットには、55個の学習イメージと 20個の検証イメージが格納されています。いくつかのサンプル イメージを表示します。
numImagesTrain=numel(imdsTrain.Labels);idx=randperm(numImagesTrain,16);为i = 1:16 i {i} = readimage(imdsTrain,idx(i));结束图imshow (imtile(我))
事前学習済みのネットワークの読み込み
事前学習済みのAlexNetネットワークを読み込みます。深度学习工具箱模型用于AlexNet网络サポートパッケージがインストールされていない場合,ダウンロード用リンクが表示されます。100年AlexNetは万枚を超えるイメージについて学習済みであり,イメージを1000個のオブジェクトカテゴリに分類できます。たとえば,キーボード,マウス,鉛筆,多くの動物などです。結果として,このモデルは広範囲のイメージに対する豊富な特徴表現を学習しています。
网= alexnet;
ネットワーク アーキテクチャを表示します。ネットワークには 5.つの畳み込み層と 3.つの全結合層があります。
网。层
ans = 25x1 Layer array with layers:227 x227x3数据的图像输入图像的zerocenter正常化2 conv1卷积96年11 x11x3旋转步[4 4]和填充[0 0 0 0]3‘relu1 ReLU ReLU 4“norm1”横通道正常化横通道规范化5频道每个元素5“pool1”马克斯池3 x3 Max池步(2 - 2)和填充[0 0 0 0]6conv2的分组卷积2组128 5 x5x48旋转步[1]和填充(2 2 2 2)7的relu2 ReLU ReLU 8 norm2的横通道正常化横通道正常化与5频道/元素9“pool2”马克斯池3 x3马克斯池步(2 - 2)和填充[0 0 0 0]384 3 x3x256 conv3的卷积运算步伐[1]和填充[1 1 1 1]11的relu3 ReLU ReLU 12“conv4”分组卷积2组192 3 x3x192旋转步[1]和填充[1 1 1 1]13的relu4 ReLU ReLU 14“conv5”分组卷积2组128 3 x3x192旋转步[1]和填充[1 1 1 1]15 ' relu5 ReLU ReLU 16 pool5马克斯池3 x3 Max池与步幅[2 2]和填充[0 0 0 0]17 fc6完全连接4096完全连接层18“relu6”ReLU ReLU 19“drop6”辍学50%辍学20 fc7完全连接4096完全连接层21“relu7”ReLU ReLU 22“drop7”辍学50%辍学23 fc8完全连接1000完全连接层24“概率”Softmax Softmax 25“输出”输出与'tench'和999其他类交叉
最初の層であるイメージ入力層には、サイズが 227 x 227 x 3の入力イメージが必要です。ここで、3.はカラー チャネルの数です。
.InputSize inputSize = net.Layers (1)
输入大小=1×3227 227 3
イメージの特徴の抽出
ネットワークは,入力イメージの階層表現を構築します。深い層には,初期の層の低レベルの特徴を使用して構築された,より高レベルの特徴が含まれます。学習イメージとテストイメージの特徴表現を取得するには,全結合層“fc7”
で激活
を使用します。イメージの低レベルの表現を取得するには、ネットワークの初期の層を使用します。
ネットワークにはサイズが 227 x 227 x 3の入力イメージが必要ですが、イメージ データストアにあるイメージのサイズは異なります。学習およびテスト イメージのサイズをネットワークへの入力前に自動的に変更するには、拡張イメージ データストアを作成して、目的のイメージ サイズを指定し、これらのデータストアを激活
の入力引数として使用します。
augimdsTrain = augmentedImageDatastore (inputSize (1:2), imdsTrain);augimdsTest = augmentedImageDatastore (inputSize (1:2), imdsTest);层=“fc7”;featuresTrain =激活(净、augimdsTrain层,“输出”,“行”);featuresTest =激活(净、augimdsTest层,“输出”,“行”);
学習データおよびテストデータからクラスラベルを抽出します。
YTrain = imdsTrain.Labels;欧美= imdsTest.Labels;
イメージ分類器のあてはめ
学習イメージから抽出された特徴を予測子変数として使用し,菲切克
(统计和机器学习工具箱)を使用してマルチクラス サポート ベクター マシン (支持向量机)をあてはめます。
mdl = fitcecoc (featuresTrain YTrain);
テスト イメージの分類
学習済みのSVMモデルとテストイメージから抽出された特徴を使用して,テストイメージを分類します。
featuresTest YPred =预测(mdl);
4.個のサンプル テスト イメージと、その予測ラベルを表示します。
idx=[1 5 10 15];图形为i = 1:numel(idx) subplot(2,2,i) i = readimage(imdsTest,idx(i));标签= YPred (idx (i));imshow (I)标题(标签)结束
テストセットに対する分類精度を計算します。精度とは,ネットワークによって予測が正しく行われるラベルの割合です。
精度=平均值(YPred == YTest)
精度= 1
この 支持向量机は高い精度を示しています。特徴抽出を使用しても十分な精度が得られない場合、代わりに転移学習を試してください。
网
- - - - - -学習済みネットワークSeriesNetwork
オブジェクト|达格网络
オブジェクト学習済みネットワーク。SeriesNetwork
または达格网络
オブジェクトとして指定します。事前学習済みのネットワークをインポートする(たとえば,関数googlenet
を使用する),またはtrainNetwork
を使用して独自のネットワークに学習させることによって、学習済みネットワークを取得できます。
洛桑国际管理发展学院
- - - - - -イメージデータストアImageDatastore
オブジェクトイメージデータストア。ImageDatastore
オブジェクトとして指定します。
ImageDatastore
を使用すると、事前取得を使用して JPGまたは 巴布亚新几内亚イメージ ファイルのバッチ読み取りを行うことができます。イメージの読み取りにカスタム関数を使用する場合、ImageDatastore
は事前取得を行いません。
ヒント
イメージのサイズ変更を含む深層学習用のイメージの前処理を効率的に行うには,augmentedImageDatastore
を使用します。
imageDatastore
のreadFcn
オプションは通常,速度が大幅に低下するため,前処理またはサイズ変更に使用しないでください。
ds
- - - - - -データストアメモリ外のデータおよび前処理用のデータストア。データストアは、table または cell 配列でデータを返さなければなりません。データストア出力の形式は、ネットワーク アーキテクチャによって異なります。
ネットワークアーキテクチャ | データストア出力 | 出力の例 |
---|---|---|
単一入力 | 表または细胞配列。最初の列は予測子を指定します。 桌子の要素は、スカラー、行ベクトルであるか、数値配列が格納された 1.行 1.列の 单间牢房配列でなければなりません。 カスタムデータストアは表を出力しなければなりません。 |
data =阅读(ds) data = 4×1 table Predictors __________________ {224×224×3 double} {224×224×3 double} {224×224×3 double} {224×224×3 double} |
data =阅读(ds) Data = 4×1 cell array {224×224×3 double} {224×224×3 double} {224×224×3 double} {224×224×3 double} |
||
複数入力 | 少なくとも 最初の 入力の順序は,ネットワークの |
data =阅读(ds) Data = 4×2 cell array {224×224×3 double} {128×128×3 double} {224×224×3 double} {128×128×3 double} {224×224×3 double} {128×128×3 double} {224×224×3 double} {128×128×3 double} |
予測子の形式は,データのタイプによって異なります。
データ | 予測子の形式 |
---|---|
2次元イメージ | h c w xの数値配列。ここで,h、w、および c は、それぞれイメージの高さ、幅、およびチャネル数です。 |
3次元イメージ | h x w x d cの数値配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数です。 |
ベクトルシーケンス | c行s列の行列。ここで,c はシーケンスの特徴の数、s はシーケンス長です。 |
2次元イメージシーケンス | h x w x c sの配列。ここで,h、w、および c はそれぞれイメージの高さ、幅、およびチャネル数に対応します。s はシーケンス長です。 ミニバッチ内の各シーケンスは、同じシーケンス長でなければなりません。 |
3次元イメージシーケンス | h x w x d x c sの配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数に対応します。s はシーケンス長です。 ミニバッチ内の各シーケンスは、同じシーケンス長でなければなりません。 |
特徴 | C行 1.列の列ベクトル。Cは特徴の数です。 |
詳細については,深層学習用のデータストアを参照してください。
X
- - - - - -イメージデータまたは特徴データイメージ データまたは特徴データ。数値配列として指定します。配列のサイズは入力のタイプによって以下のように異なります。
入力 | 説明 |
---|---|
2次元イメージ | 高x宽x碳x氮の数値配列。ここで、h、 w、および Cは、それぞれイメージの高さ、幅、およびチャネル数です。Nはイメージの数です。 |
3次元イメージ | h x w x d x c x Nの数値配列。ここで,h、w、d、および c は、それぞれイメージの高さ、幅、深さ、およびチャネル数です。N はイメージの数です。 |
特徴 | N行numFeatures 列の数値配列。ここで、Nは観測値の数、numFeatures は入力データの特徴の数です。 |
配列に南
が含まれる場合,ネットワーク全体に伝播されます。
複数の入力があるネットワークの場合,複数の配列X1
、……XN
を指定できます。ここで,N
はネットワーク入力の数であり,入力西
はネットワーク入力净输入名称(i)
に対応します。
イメージ入力の場合、“输出”
オプションが“渠道”
の場合,入力データX
のイメージは,ネットワークのイメージ入力層の入力サイズより大きくすることができます。その他の出力形式では,X
のイメージのサイズは,ネットワークのイメージ入力層の入力サイズと同じでなければなりません。
序列
- - - - - -シーケンスデータまたは時系列データシーケンスデータまたは時系列データ。数値配列のN行1 列の cell 配列、1 つのシーケンスを表す数値配列、またはデータストアとして指定します。ここで、N は観測値の数です。
细胞配列入力または数値配列入力の場合,シーケンスが含まれる数値配列の次元は,データのタイプによって異なります。
入力 | 説明 |
---|---|
ベクトルシーケンス | c行s列の行列。ここで,c はシーケンスの特徴の数、s はシーケンス長です。 |
2次元イメージシーケンス | h x w x c sの配列。ここで,h、w、および c は、それぞれイメージの高さ、幅、およびチャネル数に対応します。s はシーケンス長です。 |
3次元イメージシーケンス | 高x宽x深x深x深x深ここで、h、 w、d、および Cは、それぞれ 3.次元イメージの高さ、幅、深さ、およびチャネル数に対応します。sはシーケンス長です。 |
データストア入力の場合,データストアはシーケンスの细胞配列,または最初の列にシーケンスが含まれる表としてデータを返さなければなりません。シーケンスデータの次元は,上記の表に対応していなければなりません。
资源描述
- - - - - -イメージデータまたは特徴データの表桌子
イメージデータまたは特徴データの表。表の各行は観測値に対応します。
桌子の列での予測子の配置は、入力データのタイプによって異なります。
入力 | 予測子 |
---|---|
イメージデータ |
単一列で予測子を指定します。 |
特徴データ | 数値スカラー。 表の |
この引数は,単一の入力のみがあるネットワークをサポートします。
データ型:桌子
层
- - - - - -活性化の抽出元の層活性化の抽出元の層。数値インデックスまたは文字ベクトルとして指定します。
SeriesNetwork
オブジェクトの活性化を計算するには,層の数値インデックスを使用するか,層の名前に対応する文字ベクトルとして層を指定します。
达格网络
オブジェクトの活性化を計算するには、層の名前に対応する文字ベクトルとして層を指定します。層に複数の出力がある場合、層と出力を、層の名前、その後に文字 "/"、層出力の名前と続けて指定します。つまり、层
は“layerName / outputName”
の形式を取ります。
例:3.
例:“conv1”
例:“mpool /出”
オプションの引数名称,值
のコンマ区切りペアを指定します。的名字
は引数名で、价值
は対応する値です。的名字
は引用符で囲まなければなりません。Name1, Value1,…,的家
のように、複数の名前と値のペアの引数を、任意の順番で指定できます。
激活(网络、X、层、“输出”、“行”)
小批量
- - - - - -ミニバッチのサイズ予測に使用するミニバッチのサイズ。正の整数として指定します。ミニバッチのサイズが大きくなるとより多くのメモリが必要になりますが、予測時間が短縮される可能性があります。
例:“MiniBatchSize”,256年
序列长度
- - - - - -入力シーケンスのパディング,切り捨て,または分割を行うオプション“最长”
(既定値) |“最短”
|正の整数入力シーケンスのパディング,切り捨て,または分割を行うオプション。次のいずれかに指定します。
“最长”
— 各ミニバッチで、最長のシーケンスと同じ長さになるようにシーケンスのパディングを行います。このオプションを使用するとデータは破棄されませんが、パディングによってネットワークにノイズが生じることがあります。
“最短”
— 各ミニバッチで、最短のシーケンスと同じ長さになるようにシーケンスの切り捨てを行います。このオプションを使用するとパディングは追加されませんが、データが破棄されます。
正の整数 — 各ミニバッチで、ミニバッチで最長のシーケンスより大きい、指定長の最も近い倍数になるようにシーケンスのパディングを行った後、それらのシーケンスを指定長のより小さなシーケンスに分割します。分割が発生すると、追加のミニバッチが作成されます。シーケンス全体がメモリに収まらない場合は、このオプションを使用します。または、“MiniBatchSize”
オプションをより小さい値に設定して,ミニバッチごとのシーケンス数を減らしてみます。
入力シーケンスのパディング,切り捨て,および分割の効果の詳細は,シーケンスのパディング,切り捨て,および分割を参照してください。
例:“SequenceLength”、“最短的
SequencePaddingValue
- - - - - -入力シーケンスをパディングする値入力シーケンスをパディングする値。スカラーとして指定します。このオプションは、序列长度
が“最长”
または正の整数の場合にのみ有効です。ネットワーク全体にエラーが伝播される可能性があるため,南
でシーケンスをパディングしないでください。
例:“SequencePaddingValue”,1
SequencePaddingDirection
- - - - - -パディングまたは切り捨ての方向“对”
(既定値) |“左”
パディングまたは切り捨ての方向。次のいずれかに指定します。
“对”
——シーケンスの右側に対してパディングまたは切り捨てを行います。シーケンスは同じタイムステップで始まり,シーケンスの末尾に対して切り捨てまたはパディングの追加が行われます。
“左”
——シーケンスの左側に対してパディングまたは切り捨てを行います。シーケンスが同じタイムステップで終わるように,シーケンスの先頭に対して切り捨てまたはパディングの追加が行われます。
LSTM層は1タイムステップずつシーケンスデータを処理するため,層のOutputMode
プロパティが“最后一次”
の場合,最後のタイムステップでパディングを行うと層の出力に悪影響を与える可能性があります。シーケンスデータの左側に対してパディングまたは切り捨てを行うには,“SequencePaddingDirection”
オプションを“左”
に設定します。
sequence-to-sequenceネットワークの場合(各LSTM層についてOutputMode
プロパティが“序列”
である場合)、最初のタイム ステップでパティングを行うと、それ以前のタイム ステップの予測に悪影響を与える可能性があります。シーケンスの右側に対してパディングまたは切り捨てを行うには、“SequencePaddingDirection”
オプションを“对”
に設定します。
入力シーケンスのパディング,切り捨て,および分割の効果の詳細は,シーケンスのパディング,切り捨て,および分割を参照してください。
加快
- - - - - -パフォーマンスの最適化“汽车”
(既定値) |墨西哥人的
|“没有”
パフォーマンスの最適化。“加速”
と次のいずれかで構成されるコンマ区切りのペアとして指定します。
“汽车”
— 入力ネットワークとハードウェア リソースに適した最適化の回数を自動的に適用します。
墨西哥人的
- - - - - -墨西哥人関数をコンパイルして実行します。このオプションはGPUの使用時にのみ利用できます。GPUを使用するには,并行计算工具箱および以3.0计算能力上のCUDA対応NVIDIA GPUが必要です。并行计算工具箱または適切なGPUが利用できない場合,エラーが返されます。
“没有”
——すべての高速化を無効にします。
既定のオプションは“汽车”
です。“汽车”
が指定されている場合,MATLAB®は互換性のある最適化を複数適用します。“汽车”
オプションを使用する場合,MATLABは墨西哥人関数を生成しません。
“加速”
オプション“汽车”
および墨西哥人的
を使用すると,パフォーマンス上のメリットが得られますが,初期実行時間が長くなります。互換性のあるパラメーターを使用した後続の呼び出しは,より高速になります。新しい入力データを使用して関数を複数回呼び出す場合は,パフォーマンスの最適化を使用してください。
墨西哥人的
オプションは,関数の呼び出しに使用されたネットワークとパラメーターに基づいて墨西哥人関数を生成し,実行します。複数の墨西哥人関数を一度に1つのネットワークに関連付けることができます。ネットワークの変数をクリアすると,そのネットワークに関連付けられている墨西哥人関数もクリアされます。
墨西哥人的
オプションは,GPUの使用時にのみ利用できます。C / c++コンパイラとGPU编码器™界面深度学习库サポートパッケージがインストールされていなければなりません。MATLABでアドオンエクスプローラーを使用してサポートパッケージをインストールします。設定手順については,墨西哥の設定(GPU编码器)を参照してください。GPU编码器は不要です。
墨西哥人的
オプションではサポートされていない層があります。サポートされている層の一覧については、サポートされている層(GPU编码器)を参照してください。序列输入层
を含む再帰型ニューラルネットワーク(RNN)はサポートされていません。
墨西哥人的
オプションは,複数の入力層または複数の出力層をもつネットワークをサポートしていません。
墨西哥人的
オプションの使用時に,MATLAB编译器™を使用してネットワークを配布することはできません。
例:“加速”、“墨西哥人的
ExecutionEnvironment
- - - - - -ハードウェアリソース“汽车”
(既定値) |“图形”
|“cpu”
ハードウェアリソース。“ExecutionEnvironment”
と次のいずれかで構成されるコンマ区切りのペアとして指定します。
“汽车”
— 利用可能な場合は GPUを使用し、そうでない場合は 中央处理器を使用します。
“图形”
- - - - - - GPUを使用します。GPUを使用するには,并行计算工具箱および以3.0计算能力上のCUDA対応NVIDIA GPUが必要です。并行计算工具箱または適切なGPUが利用できない場合,エラーが返されます。
“cpu”
——CPUを使用します。
例:“ExecutionEnvironment”,“cpu”
行为
——ネットワーク層からの活性化ネットワーク層からの活性化。数値配列、または数値配列の 单间牢房配列として返されます。行为
の形式は,入力データのタイプ,層出力のタイプ,および“输出”
オプションによって異なります。
層がイメージまたは折りたたみシーケンスデータを出力する場合,行为
は数値配列です。
“输出” |
行为 |
---|---|
“渠道” |
2.次元イメージ出力の場合、 3次元イメージ出力の場合, 折りたたみ 2.次元イメージ シーケンス出力の場合、 折りたたみ3次元イメージシーケンス出力の場合, |
“行” |
2.次元および 3.次元イメージ出力の場合、 折りたたみ2次元および3次元イメージシーケンス出力の場合, |
“列” |
2.次元および 3.次元イメージ出力の場合、 折りたたみ2次元および3次元イメージシーケンス出力の場合, |
层
にシーケンス出力 (たとえば、出力モードが“序列”
のLSTM層)がある場合,行为
は 单间牢房配列になります。この場合、“输出”
オプションは“渠道”
でなければなりません。
“输出” |
行为 |
---|---|
“渠道” |
ベクトルシーケンス出力の場合, 2次元イメージシーケンス出力の場合, 3次元イメージシーケンス出力の場合, この場合, |
层
がシーケンスの単一のタイムステップを出力する場合(たとえば,出力モードが“最后一次”
の LSTM層)、行为
は数値配列になります。
“输出” |
行为 |
---|---|
“渠道” |
ベクトルデータを含む単一のタイムステップの場合, 2次元イメージデータを含む単一のタイムステップの場合, 3.次元イメージ データを含む単一のタイム ステップの場合、 |
“行” |
n行m列の行列。ここで,n は観測値の数、米 は選択した層からの出力要素の数です。この場合、法案(我,:) には我 番目のシーケンスの活性化が含まれます。 |
“列” |
M行 N列の行列。ここで、Mは選択した層からの出力要素の数、Nは観測値の数です。この場合、法》(:,我) には我 番目のイメージの活性化が含まれます。 |
深度学习工具箱™に含まれる深層学習における学習,予測,検証用のすべての関数は,単精度浮動小数点演算を使用して計算を実行します。深層学習用の関数にはtrainNetwork
、预测
、分类
、激活
などがあります。CPUとGPUの両方を使用してネットワークに学習させる場合,単精度演算が使用されます。
工藤、富山、新保。“使用通过区域的多维曲线分类”。模式识别字母。第20卷,第11-13期,第1103-1111页。
[2] UCI机器学习知识库:日语元音数据集。https://archive.ics.uci.edu/ml/datasets/Japanese+Vowels
使用上の注意および制限:
入力X
を可変サイズにすることはできません。サイズはコード生成時に固定しなければなりません。
引数层
は定数でなければなりません。
名前と値のペアの引数“输出”
のみがサポートされます。値は“渠道”
でなければなりません。
深層学習ニューラルネットワーク用のコードの生成の詳細は,MATLAB编码器を使用した深層学習コード生成のワークフロー(MATLAB编码器)を参照してください。
使用上の注意および制限:
GPUコード生成は,以下の構文をサポートします。
行动=激活(净X层)
act=激活(网络、序列、层)
act=激活(名称、值)
入力X
は可変サイズにしないでください。入力のサイズはコード生成時に固定でなければなりません。
cuDNNライブラリはベクトルおよび2次元イメージシーケンスをサポートします。TensorRTライブラリはベクトル入力シーケンスのみをサポートします。手臂®计算库
对于GPUは再帰型ネットワークをサポートしていません。
ベクトルシーケンス入力の場合,特徴の数はコード生成時に定数でなければなりません。シーケンスの長さは可変サイズにできます。
イメージシーケンス入力の場合,高さ,幅,およびチャネル数は,コード生成時に定数でなければなりません。
层
引数は,コード生成時に定数でなければなりません。
コード生成では、名前と値のペアの引数“输出”
、“MiniBatchSize”
、“SequenceLength”
、“SequencePaddingDirection”
、および“SequencePaddingValue”
のみがサポートされています。すべての名前と値のペアはコンパイル時の定数でなければなりません。
出力の活性化の形式は“渠道”
でなければなりません。
コード生成では,名前と値のペア“SequenceLength”
のオプションとして“最长”
と“最短”
のみがサポートされています。
関数激活
の GPUコード生成では、半精度浮動小数点データ型として定義されている入力がサポートされます。詳細については、一半
(GPU编码器)を参照してください。
次のMATLABコマンドに対応するリンクがクリックされました。
コマンドをMATLABコマンドウィンドウに入力して実行してください。WebブラウザーはMATLABコマンドをサポートしていません。
您还可以从以下列表中选择网站:
选择中国网站(中文或英文)以获得最佳网站性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。