边缘gydF4y2Ba
マルチクラス誤り訂正出力符号(ecoc)モデルの分類エッジgydF4y2Ba
構文gydF4y2Ba
説明gydF4y2Ba
は,表gydF4y2BaegydF4y2Ba
=边缘(gydF4y2BaMdlgydF4y2Ba
,gydF4y2Ba资源描述gydF4y2Ba
,gydF4y2BaResponseVarNamegydF4y2Ba
)gydF4y2Ba资源描述gydF4y2Ba
内の予測子デ,タとgydF4y2Ba资源描述。ResponseVarNamegydF4y2Ba
内のクラスラベルを使用して,学習済みのマルチクラス誤り訂正出力符号(ecoc)分類器gydF4y2BaMdlgydF4y2Ba
のgydF4y2Ba分類エッジgydF4y2Ba(gydF4y2BaegydF4y2Ba
)を返します。gydF4y2Ba
は,表gydF4y2BaegydF4y2Ba
=边缘(gydF4y2BaMdlgydF4y2Ba
,gydF4y2Ba资源描述gydF4y2Ba
,gydF4y2BaYgydF4y2Ba
)gydF4y2Ba资源描述gydF4y2Ba
内の予測子デ,タとベクトルgydF4y2BaYgydF4y2Ba
内のクラスラベルを使用して,分類器gydF4y2BaMdlgydF4y2Ba
の分類エッジを返します。gydF4y2Ba
は,行列gydF4y2BaegydF4y2Ba
=边缘(gydF4y2BaMdlgydF4y2Ba
,gydF4y2BaXgydF4y2Ba
,gydF4y2BaYgydF4y2Ba
)gydF4y2BaXgydF4y2Ba
内の予測子デ,タとベクトルgydF4y2BaYgydF4y2Ba
内のクラスラベルを使用して,分類器gydF4y2BaMdlgydF4y2Ba
の分類エッジ(gydF4y2BaegydF4y2Ba
)を返します。gydF4y2Ba
では,前の構文におけるいずれかの入力引数の組み合わせに加えて,1つ以上の名前と値のペアの引数を使用してオプションを指定します。たとえば,復号化方式,バaaplナリ学習器の損失関数,詳細レベルを指定できます。gydF4y2BaegydF4y2Ba
=边缘(gydF4y2Ba___gydF4y2Ba,gydF4y2Ba名称,值gydF4y2Ba
)gydF4y2Ba
例gydF4y2Ba
Ecocモデルの検定標本のエッジgydF4y2Ba
支持向量机バesc escナリ分類器によるecocモデルの検定標本の分類エッジを計算します。gydF4y2Ba
フィッシャ,のアヤメのデ,タセットを読み込みます。予測子デ,タgydF4y2BaXgydF4y2Ba
,応答デ,タgydF4y2BaYgydF4y2Ba
,およびgydF4y2BaYgydF4y2Ba
内のクラスの順序を指定します。gydF4y2Ba
负载gydF4y2BafisheririsgydF4y2BaX = meas;Y =分类(物种);classOrder =唯一的(Y);gydF4y2Ba%等级订单gydF4y2Barng (1);gydF4y2Ba%用于再现性gydF4y2Ba
支持向量机バesc escナリ分類器を使用してecocモデルを学習させます。検定用に30%のホールドアウト標本を指定し,SVMテンプレートを使用して予測子を標準化し,クラスの順序を指定します。gydF4y2Ba
t = templateSVM(gydF4y2Ba“标准化”gydF4y2Ba,真正的);PMdl = fitcecoc(X,Y,gydF4y2Ba“坚持”gydF4y2Ba, 0.30,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“类名”gydF4y2Ba, classOrder);Mdl = pmdl .训练{1};gydF4y2Ba%提取训练,紧凑的分类器gydF4y2Ba
PMdlgydF4y2Ba
はgydF4y2BaClassificationPartitionedECOCgydF4y2Ba
モデルです。これにはgydF4y2Ba训练有素的gydF4y2Ba
プロパティが含まれています。これは,学習デ,タを使用して学習をさせたgydF4y2BaCompactClassificationECOCgydF4y2Ba
モデルが格納されている,1行1列のcell配列です。gydF4y2Ba
検定標本エッジを計算します。gydF4y2Ba
testInds = test(PMdl.Partition);gydF4y2Ba提取测试指标gydF4y2BaXTest = X(testInds,:);YTest = Y(testInds,:);e = edge(Mdl,XTest,YTest)gydF4y2Ba
E = 0.4573gydF4y2Ba
検定標本マジンの平均はおよそ0.46です。gydF4y2Ba
Ecocモデルの検定標本加重マ,ジンの平均gydF4y2Ba
Ecocモデルの検定標本加重マ,ジンの平均を計算します。gydF4y2Ba
データセット内の観測値は順番に測定されており,技術の向上によって最新の75件の観測値の品質が高くなっているとします。品質が高い観測値に他の観測値より大きい重みを与えることにより,この改善を反映させます。gydF4y2Ba
フィッシャ,のアヤメのデ,タセットを読み込みます。予測子デ,タgydF4y2BaXgydF4y2Ba
,応答デ,タgydF4y2BaYgydF4y2Ba
,およびgydF4y2BaYgydF4y2Ba
内のクラスの順序を指定します。gydF4y2Ba
负载gydF4y2BafisheririsgydF4y2BaX = meas;Y =分类(物种);classOrder =唯一的(Y);gydF4y2Ba%等级订单gydF4y2Barng (1);gydF4y2Ba%用于再现性gydF4y2Ba
品質が高い観測値に他の観測値の2倍の重みを割り当てる重みベクトルを定義します。gydF4y2Ba
n = size(X,1);权重= [ones(n-75,1);2*ones(75,1)];gydF4y2Ba
支持向量机バesc escナリ分類器を使用してecocモデルを学習させます。30%のホルドアウト標本と加重スキムを指定します。SVMテンプレ,トを使用して予測子を標準化し,クラスの順序を指定します。gydF4y2Ba
t = templateSVM(gydF4y2Ba“标准化”gydF4y2Ba,真正的);PMdl = fitcecoc(X,Y,gydF4y2Ba“坚持”gydF4y2Ba, 0.30,gydF4y2Ba“重量”gydF4y2Ba权重,gydF4y2Ba...gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“类名”gydF4y2Ba, classOrder);Mdl = pmdl .训练{1};gydF4y2Ba%提取训练,紧凑的分类器gydF4y2Ba
PMdlgydF4y2Ba
は学習させたgydF4y2BaClassificationPartitionedECOCgydF4y2Ba
モデルです。これにはgydF4y2Ba训练有素的gydF4y2Ba
プロパティが含まれています。これは,学習デ,タを使用して学習をさせたgydF4y2BaCompactClassificationECOCgydF4y2Ba
分類器が格納されている,1行1列のcell配列です。gydF4y2Ba
加重スキ,ムを使用して,検定標本の加重エッジを計算します。gydF4y2Ba
testInds = test(PMdl.Partition);gydF4y2Ba提取测试指标gydF4y2BaXTest = X(testInds,:);YTest = Y(testInds,:);wTest = weights(testInds,:);e = edge(Mdl,XTest,YTest,gydF4y2Ba“重量”gydF4y2Bawte)gydF4y2Ba
E = 0.4798gydF4y2Ba
検定標本の平均加重マジンはおよそ0.48です。gydF4y2Ba
検定標本エッジの比較によるecocモデルの特徴量の選択gydF4y2Ba
複数のモデルの検定標本エッジを比較することにより,特徴選択を実行します。この比較のみに基づくと,エッジが最高である分類器が最善の分類器となります。gydF4y2Ba
フィッシャ,のアヤメのデ,タセットを読み込みます。予測子デ,タgydF4y2BaXgydF4y2Ba
,応答デ,タgydF4y2BaYgydF4y2Ba
,およびgydF4y2BaYgydF4y2Ba
内のクラスの順序を指定します。gydF4y2Ba
负载gydF4y2BafisheririsgydF4y2BaX = meas;Y =分类(物种);classOrder =唯一的(Y);gydF4y2Ba%等级订单gydF4y2Barng (1);gydF4y2Ba%用于再现性gydF4y2Ba
デ,タセットを学習セットと検定セットに分割します。テスト用の30%のホ,ルドアウト標本を指定します。gydF4y2Ba
分区= cvpartition(Y,gydF4y2Ba“坚持”gydF4y2Ba, 0.30);testInds = test(分区);gydF4y2Ba%测试集的索引gydF4y2BaXTest = X(testInds,:);YTest = Y(testInds,:);gydF4y2Ba
分区gydF4y2Ba
によりデ,タセットの分割が定義されます。gydF4y2Ba
次の2のデタセットを定義します。gydF4y2Ba
fullXgydF4y2Ba
にはすべての予測子が含まれます。gydF4y2BapartXgydF4y2Ba
には花弁の寸法のみが含まれています。gydF4y2Ba
fullX = X;partX = X(:,3:4);gydF4y2Ba
各予測子セットにSVMバecocモデルに学習をさせます。分割定義を指定し,支持向量机テンプレ,トを使用して予測子を標準化し,クラスの順序を指定します。gydF4y2Ba
t = templateSVM(gydF4y2Ba“标准化”gydF4y2Ba,真正的);fullX = fitcecoc(fullX,Y,gydF4y2Ba“CVPartition”gydF4y2Ba分区,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba...gydF4y2Ba“类名”gydF4y2Ba, classOrder);partPMdl = fitcecoc(partX,Y,gydF4y2Ba“CVPartition”gydF4y2Ba分区,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba...gydF4y2Ba“类名”gydF4y2Ba, classOrder);fullMdl = fullpmdl .训练{1};partMdl = partpmdl .训练{1};gydF4y2Ba
fullPMdlgydF4y2Ba
およびgydF4y2BapartPMdlgydF4y2Ba
はgydF4y2BaClassificationPartitionedECOCgydF4y2Ba
モデルです。各モデルにはgydF4y2Ba训练有素的gydF4y2Ba
プロパティが含まれています。これは,対応する学習セットを使用して学習をさせたgydF4y2BaCompactClassificationECOCgydF4y2Ba
モデルが格納されている,1行1列のcell配列です。gydF4y2Ba
各分類器の検定標本エッジを計算します。gydF4y2Ba
fullEdge = edge(fullMdl,XTest,YTest)gydF4y2Ba
fullEdge = 0.4573gydF4y2Ba
partEdge = edge(partMdl,XTest(:,3:4),YTest)gydF4y2Ba
partEdge = 0.4839gydF4y2Ba
partMdlgydF4y2Ba
のエッジの値は,より複雑なモデルgydF4y2BafullMdlgydF4y2Ba
の値と同等です。gydF4y2Ba
入力引数gydF4y2Ba
MdlgydF4y2Ba
- - - - - -gydF4y2Ba完全またはコンパクトなマルチクラスecocモデルgydF4y2Ba
ClassificationECOCgydF4y2Ba
モデルオブジェクトgydF4y2Ba|gydF4y2BaCompactClassificationECOCgydF4y2Ba
モデルオブジェクトgydF4y2Ba
完全またはコンパクトなマルチクラスecocモデル。gydF4y2BaClassificationECOCgydF4y2Ba
またはgydF4y2BaCompactClassificationECOCgydF4y2Ba
モデルオブジェクトを指定します。gydF4y2Ba
完全またはコンパクトなecocモデルを作成する方法にいては,gydF4y2BaClassificationECOCgydF4y2Ba
またはgydF4y2BaCompactClassificationECOCgydF4y2Ba
を参照してください。gydF4y2Ba
资源描述gydF4y2Ba
- - - - - -gydF4y2Ba標本デ,タgydF4y2Ba
テブルgydF4y2Ba
標本デ,タ。テブルとして指定します。资源描述gydF4y2Ba
の各行は1の観測値に,各列は1。必要に応じて,応答変数用および観測値の重み用の追加列をgydF4y2Ba资源描述gydF4y2Ba
に含めることができます。gydF4y2Ba资源描述gydF4y2Ba
には,gydF4y2BaMdlgydF4y2Ba
を学習させるために使用したすべての予測子が含まれていなければなりません。文字ベクトルのcell配列ではない cell 配列と複数列の変数は使用できません。
表格gydF4y2Ba
に格納されている標本デ,タを使用してgydF4y2BaMdlgydF4y2Ba
に学習をさせた場合,gydF4y2Ba边缘gydF4y2Ba
の入力デ,タも表に含まれていなければなりません。gydF4y2Ba
MdlgydF4y2Ba
に学習をさせるときに,gydF4y2BafitcecocgydF4y2Ba
の名前と値のペアの引数gydF4y2Ba“学习者”gydF4y2Ba
で指定したテンプレトオブジェクトにいてgydF4y2Ba“标准化”,真的gydF4y2Ba
を設定したとします。この場合,対応するバgydF4y2BajgydF4y2Ba
にいて,対応するgydF4y2BaMdl.BinaryLearner {j} .MugydF4y2Ba
内の平均およびgydF4y2BaMdl.BinaryLearner {j} .SigmagydF4y2Ba
内の標準偏差を使用して,新しい予測子デ,タの列が標準化されます。gydF4y2Ba
デ,タ型:gydF4y2Ba表格gydF4y2Ba
ResponseVarNamegydF4y2Ba
- - - - - -gydF4y2Ba応答変数名gydF4y2Ba
资源描述gydF4y2Ba
内の変数の名前gydF4y2Ba
応答変数の名前。gydF4y2Ba资源描述gydF4y2Ba
内の変数の名前で指定します。gydF4y2BaMdlgydF4y2Ba
を学習させるために使用した応答変数がgydF4y2Ba资源描述gydF4y2Ba
に含まれている場合,gydF4y2BaResponseVarNamegydF4y2Ba
を指定する必要はありません。gydF4y2Ba
ResponseVarNamegydF4y2Ba
を指定する場合は,文字ベクトルまたは字符串スカラ,として指定しなければなりません。たとえば,応答変数がgydF4y2Batbl.ygydF4y2Ba
として格納されている場合,gydF4y2BaResponseVarNamegydF4y2Ba
としてgydF4y2Ba“y”gydF4y2Ba
を指定します。それ以外の場合,gydF4y2Ba资源描述gydF4y2Ba
の列はgydF4y2Batbl.ygydF4y2Ba
を含めてすべて予測子として扱われます。gydF4y2Ba
応答変数は,绝对配列,文字配列,字符串配列,逻辑ベクトル,数値ベクトル,または文字ベクトルの细胞配列でなければなりません。応答変数が文字配列の場合,各要素は配列の1の行に対応しなければなりません。gydF4y2Ba
デ,タ型:gydF4y2Ba字符gydF4y2Ba
|gydF4y2Ba字符串gydF4y2Ba
XgydF4y2Ba
- - - - - -gydF4y2Ba予測子デ,タgydF4y2Ba
数値行列gydF4y2Ba
予測子デ,タ。数値行列として指定します。
XgydF4y2Ba
の各行は1の観測値に対応し,各列は1。gydF4y2BaXgydF4y2Ba
の列内の変数は,分類器gydF4y2BaMdlgydF4y2Ba
に学習させた変数と同じでなければなりません。gydF4y2Ba
XgydF4y2Ba
の行数はgydF4y2BaYgydF4y2Ba
の行数と等しくなければなりません。gydF4y2Ba
MdlgydF4y2Ba
に学習をさせるときに,gydF4y2BafitcecocgydF4y2Ba
の名前と値のペアの引数gydF4y2Ba“学习者”gydF4y2Ba
で指定したテンプレトオブジェクトにいてgydF4y2Ba“标准化”,真的gydF4y2Ba
を設定したとします。この場合,対応するバgydF4y2BajgydF4y2Ba
にいて,対応するgydF4y2BaMdl.BinaryLearner {j} .MugydF4y2Ba
内の平均およびgydF4y2BaMdl.BinaryLearner {j} .SigmagydF4y2Ba
内の標準偏差を使用して,新しい予測子デ,タの列が標準化されます。gydF4y2Ba
デ,タ型:gydF4y2Ba双gydF4y2Ba
|gydF4y2Ba单gydF4y2Ba
YgydF4y2Ba
- - - - - -gydF4y2BaクラスラベルgydF4y2Ba
分类配列gydF4y2Ba|gydF4y2Ba文字配列gydF4y2Ba|gydF4y2Ba字符串配列gydF4y2Ba|gydF4y2Ba逻辑ベクトルgydF4y2Ba|gydF4y2Ba数値ベクトルgydF4y2Ba|gydF4y2Ba文字ベクトルのcell配列gydF4y2Ba
クラスラベル。绝对配列,文字配列,弦配列,逻辑ベクトル,数値ベクトル,または文字ベクトルの细胞配列を指定します。gydF4y2BaYgydF4y2Ba
のデ,タ型はgydF4y2BaMdl。一会gydF4y2Ba
と同じでなければなりません。gydF4y2Ba(字符串配列は文字ベクトルのcell配列として扱われます)。gydF4y2Ba
YgydF4y2Ba
の行数はgydF4y2Ba资源描述gydF4y2Ba
またはgydF4y2BaXgydF4y2Ba
の行数と等しくなければなりません。gydF4y2Ba
デ,タ型:gydF4y2Ba分类gydF4y2Ba
|gydF4y2Ba字符gydF4y2Ba
|gydF4y2Ba字符串gydF4y2Ba
|gydF4y2Ba逻辑gydF4y2Ba
|gydF4y2Ba单gydF4y2Ba
|gydF4y2Ba双gydF4y2Ba
|gydF4y2Ba细胞gydF4y2Ba
名前と値の引数gydF4y2Ba
オプションの引数のペアをgydF4y2BaName1 = Value1,…,以=家gydF4y2Ba
として指定します。ここでgydF4y2Ba的名字gydF4y2Ba
は引数名,gydF4y2Ba价值gydF4y2Ba
は対応する値です。名前と値の引数は他の引数の後ろにする必要がありますが、ペアの順序は関係ありません。
R2021aより前では,名前と値をそれぞれコンマを使って区切り,gydF4y2Ba的名字gydF4y2Ba
を引用符で囲みます。gydF4y2Ba
例:gydF4y2Ba边缘(Mdl, X, Y,“BinaryLoss”、“指数”,“解码”,“lossbased”)gydF4y2Ba
は,バイナリ学習器の損失関数として指数関数を使用し,損失に基づく復号化方式をバイナリ損失の集計に使用するよう指定します。gydF4y2Ba
BinaryLossgydF4y2Ba
- - - - - -gydF4y2Baバ@ @ナリ学習器損失関数gydF4y2Ba
“汉明”gydF4y2Ba
|gydF4y2Ba“线性”gydF4y2Ba
|gydF4y2Ba分对数的gydF4y2Ba
|gydF4y2Ba“指数”gydF4y2Ba
|gydF4y2Ba“binodeviance”gydF4y2Ba
|gydF4y2Ba“枢纽”gydF4y2Ba
|gydF4y2Ba“二次”gydF4y2Ba
|gydF4y2Ba関数ハンドルgydF4y2Ba
バ@ @ナリ学習器の損失関数。gydF4y2Ba“BinaryLoss”gydF4y2Ba
と組み込みの損失関数名または関数ハンドルから構成されるコンマ区切りのペアとして指定します。gydF4y2Ba
次の表で,組み込み関数にいて説明します。ここで,ygydF4y2BajgydF4y2Baは特定のバesc esc esc esc esc esc esc esc esc esc esc esc esc escgydF4y2BajgydF4y2Baは観測値jのスコア,g(ygydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)はバleiナリ損失の式です。gydF4y2Ba
値gydF4y2Ba 説明gydF4y2Ba スコア領域gydF4y2Ba g (y)gydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)gydF4y2Ba “binodeviance”gydF4y2Ba
二項分布からの逸脱度gydF4y2Ba (-∞∞)gydF4y2Ba Log [1 + exp(-2ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba “指数”gydF4y2Ba
指数gydF4y2Ba (-∞∞)gydF4y2Ba exp(可能是gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba “汉明”gydF4y2Ba
ハミングgydF4y2Ba [0,1]または(-∞,∞)gydF4y2Ba [1 -符号(ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba “枢纽”gydF4y2Ba
ヒンジgydF4y2Ba (-∞∞)gydF4y2Ba Max (0,1 - ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba “线性”gydF4y2Ba
線形gydF4y2Ba (-∞∞)gydF4y2Ba (1 - y)gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba 分对数的gydF4y2Ba
ロジスティックgydF4y2Ba (-∞∞)gydF4y2Ba Log [1 + exp(-ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba “二次”gydF4y2Ba
2 次gydF4y2Ba [0, 1]gydF4y2Ba [1 - y]gydF4y2BajgydF4y2Ba(2 sgydF4y2BajgydF4y2Ba- 1))gydF4y2Ba2gydF4y2Ba/ 2gydF4y2Ba バ▪▪▪ナリ損失は,ygydF4y2BajgydF4y2Ba= 0の場合に損失が0.5になるように正規化されます。また,各クラスにいて平均のバナリ損失が計算されます。gydF4y2Ba
カスタムバ@ @ナリ損失関数の場合は関数ハンドルを指定します。たとえば,gydF4y2Ba
customFunctiongydF4y2Ba
の場合はgydF4y2BaBinaryLoss, @customFunctiongydF4y2Ba
を指定します。gydF4y2BacustomFunctiongydF4y2Ba
の形式は次のとおりです。gydF4y2BabLoss = customFunction(M,s)gydF4y2Ba
米gydF4y2Ba
はgydF4y2BaMdl。CodingMatrixgydF4y2Ba
に格納されたk行b列の符号化行列です。gydF4y2Ba年代gydF4y2Ba
は1行b列の分類スコアの行ベクトルです。gydF4y2Ba布劳斯gydF4y2Ba
は分類損失です。このスカラは,特定のクラスのすべての学習器にいてバナリ損失を集計します。たとえば,平均バaaplナリ損失を使用して,各クラスの学習器の損失を集計できます。gydF4y2BaKは,クラスの数です。gydF4y2Ba
Bはバescナリ学習器の数です。gydF4y2Ba
カスタムなバ化学键ナリ損失関数を渡す例に化学键いては,gydF4y2Baカスタムバesc escモデルの検定標本ラベルの予測gydF4y2Baを参照してください。gydF4y2Ba
BinaryLossgydF4y2Ba
の既定値は,バ。次の表に,既定のスコア変換を使用する場合(モデルのgydF4y2BaScoreTransformgydF4y2Ba
プロパティがgydF4y2Ba“没有”gydF4y2Ba
の場合)のgydF4y2BaBinaryLossgydF4y2Ba
の既定値をいくか示します。gydF4y2Ba
仮定gydF4y2Ba | 既定値gydF4y2Ba |
---|---|
すべてのバ@ @ナリ学習器が次のいずれかである。gydF4y2Ba
|
“二次”gydF4y2Ba |
すべてのバ@ @ナリ学習器が支持向量机であるか,支持向量机学習器の線形またはカ@ @ネル分類モデルである。gydF4y2Ba | “枢纽”gydF4y2Ba |
すべてのバ电子邮箱ナリ学習器が,gydF4y2BaAdaboostM1gydF4y2Ba またはgydF4y2BaGentleBoostgydF4y2Ba によって学習をさせたアンサンブルである。gydF4y2Ba |
“指数”gydF4y2Ba |
すべてのバ电子邮箱ナリ学習器が,gydF4y2BaLogitBoostgydF4y2Ba によって学習をさせたアンサンブルである。gydF4y2Ba |
“binodeviance”gydF4y2Ba |
fitcecocgydF4y2Ba でgydF4y2Ba“FitPosterior”,真的gydF4y2Ba を設定して,クラスの事後確率を予測するように指定している。gydF4y2Ba |
“二次”gydF4y2Ba |
バesc escナリ学習器が異種混合で,さまざまな損失関数を使用している。gydF4y2Ba | “汉明”gydF4y2Ba |
既定値を確認するには,コマンドラgydF4y2BaBinaryLossgydF4y2Ba
プロパティを表示します。gydF4y2Ba
例:gydF4y2Ba“BinaryLoss”、“binodeviance”gydF4y2Ba
デ,タ型:gydF4y2Ba字符gydF4y2Ba
|gydF4y2Ba字符串gydF4y2Ba
|gydF4y2Bafunction_handlegydF4y2Ba
解码gydF4y2Ba
- - - - - -gydF4y2Ba復号化スキ,ムgydF4y2Ba
“lossweighted”gydF4y2Ba
(既定値) |gydF4y2Ba“lossbased”gydF4y2Ba
バ@ @ナリ損失を集計する復号化方式。gydF4y2Ba“解码”gydF4y2Ba
とgydF4y2Ba“lossweighted”gydF4y2Ba
またはgydF4y2Ba“lossbased”gydF4y2Ba
から構成されるコンマ区切りのペアとして指定します。詳細は,gydF4y2Baバ@ @ナリ損失gydF4y2Baを参照してください。gydF4y2Ba
例:gydF4y2Ba“解码”、“lossbased”gydF4y2Ba
ObservationsIngydF4y2Ba
- - - - - -gydF4y2Ba予測子デ,タにおける観測値の次元gydF4y2Ba
“行”gydF4y2Ba
(既定値) |gydF4y2Ba“列”gydF4y2Ba
予測子デ,タにおける観測値の次元。gydF4y2Ba“ObservationsIn”gydF4y2Ba
とgydF4y2Ba“列”gydF4y2Ba
またはgydF4y2Ba“行”gydF4y2Ba
から構成されるコンマ区切りのペアとして指定します。gydF4y2BaMdl。BinaryLearners
にはgydF4y2BaClassificationLineargydF4y2Ba
モデルが格納されていなければなりません。gydF4y2Ba
メモgydF4y2Ba
観測値が列に対応するように予測子行列を配置してgydF4y2Ba“ObservationsIn”、“列”gydF4y2Ba
を指定すると,実行時間が大幅に短縮される可能性があります。表の予測子デ,タに対してgydF4y2Ba“ObservationsIn”、“列”gydF4y2Ba
を指定することはできません。gydF4y2Ba
选项gydF4y2Ba
- - - - - -gydF4y2Ba推定オプションgydF4y2Ba
[]gydF4y2Ba
(既定値) |gydF4y2BastatsetgydF4y2Ba
によって返される構造体配列gydF4y2Ba
推定オプション。gydF4y2BastatsetgydF4y2Ba
により返されるgydF4y2Ba“选项”gydF4y2Ba
と構造体配列から構成されるコンマ区切りのペアとして指定します。gydF4y2Ba
並列計算を起動するには,以下を行います。gydF4y2Ba
并行计算工具箱™ラ▪センスが必要です。gydF4y2Ba
“选项”,statset (UseParallel,真的)gydF4y2Ba
を指定します。gydF4y2Ba
详细的gydF4y2Ba
- - - - - -gydF4y2Ba詳細レベルgydF4y2Ba
0gydF4y2Ba
(既定値) |gydF4y2Ba1gydF4y2Ba
詳細レベル。gydF4y2Ba“详细”gydF4y2Ba
とgydF4y2Ba0gydF4y2Ba
またはgydF4y2Ba1gydF4y2Ba
から構成されるコンマ区切りのペアとして指定します。gydF4y2Ba详细的gydF4y2Ba
は,コマンドウィンドウに表示される診断メッセ,ジの量を制御します。gydF4y2Ba
详细的gydF4y2Ba
がgydF4y2Ba0gydF4y2Ba
の場合,診断メッセ,ジは表示されません。それ以外の場合は,診断メッセ,ジが表示されます。gydF4y2Ba
例:gydF4y2Ba“详细”,1gydF4y2Ba
デ,タ型:gydF4y2Ba单gydF4y2Ba
|gydF4y2Ba双gydF4y2Ba
权重gydF4y2Ba
- - - - - -gydF4y2Ba観測値の重みgydF4y2Ba
(大小(X, 1), 1)gydF4y2Ba
(既定値) |gydF4y2Ba数値ベクトルgydF4y2Ba|gydF4y2Ba资源描述gydF4y2Ba
内の変数の名前gydF4y2Ba
観測値の重み。gydF4y2Ba“重量”gydF4y2Ba
と数値ベクトル,またはgydF4y2Ba资源描述gydF4y2Ba
に含まれる変数の名前から構成されるコンマ区切りのペアとして指定します。重みを指定すると,gydF4y2Ba边缘gydF4y2Ba
は重み付きのgydF4y2Ba分類エッジgydF4y2Baを計算します。gydF4y2Ba
权重gydF4y2Ba
として数値ベクトルを指定する場合,gydF4y2Ba权重gydF4y2Ba
のサ@ @ズはgydF4y2BaXgydF4y2Ba
またはgydF4y2Ba资源描述gydF4y2Ba
内の観測値の個数と等しくなければなりません。合計が各クラスの事前確率の値と等しくなるようにgydF4y2Ba权重gydF4y2Ba
が正規化されます。gydF4y2Ba
资源描述gydF4y2Ba
内の変数名をgydF4y2Ba权重gydF4y2Ba
として指定する場合,文字ベクトルまたは字符串スカラ,を指定しなければなりません。たとえば,重みがgydF4y2Batbl.wgydF4y2Ba
として格納されている場合,gydF4y2Ba权重gydF4y2Ba
としてgydF4y2Ba' w 'gydF4y2Ba
を指定します。それ以外の場合,gydF4y2Ba资源描述gydF4y2Ba
の列はgydF4y2Batbl.wgydF4y2Ba
を含めてすべて予測子として扱われます。gydF4y2Ba
デ,タ型:gydF4y2Ba单gydF4y2Ba
|gydF4y2Ba双gydF4y2Ba
|gydF4y2Ba字符gydF4y2Ba
|gydF4y2Ba字符串gydF4y2Ba
出力引数gydF4y2Ba
egydF4y2Ba
-分類エッジgydF4y2Ba
数値スカラ,|数値ベクトルgydF4y2Ba
分類エッジgydF4y2Ba。数値スカラ,またはベクトルとして返されます。gydF4y2BaegydF4y2Ba
はgydF4y2Ba分類マ,ジンgydF4y2Baの加重平均を表します。gydF4y2Ba
Mdl。BinaryLearners
にgydF4y2BaClassificationLineargydF4y2Ba
モデルが含まれている場合,gydF4y2BaegydF4y2Ba
は1行l列のベクトルになります。Lは,線形分類モデル内の正則化強度の個数(gydF4y2Ba元素个数(Mdl.BinaryLearners {1} .Lambda)gydF4y2Ba
)です。値gydF4y2Bae (j)gydF4y2Ba
は,正則化強度gydF4y2BaMdl.BinaryLearners {1} .Lambda (j)gydF4y2Ba
を使用して学習をさせたモデルのエッジです。gydF4y2Ba
それ以外の場合,gydF4y2BaegydF4y2Ba
はスカラ,値です。gydF4y2Ba
詳細gydF4y2Ba
分類エッジgydF4y2Ba
“分類エッジ”gydF4y2Baは,分類マ,ジンの加重平均です。gydF4y2Ba
特徴選択を実行する場合などに複数の分類器から選択する方法の1つは,エッジが最大になる分類器を選択することです。gydF4y2Ba
分類マ,ジンgydF4y2Ba
“分類マ,ジン”gydF4y2Baは,各観測値における真のクラスの負の損失と偽のクラスの負の最大損失の差です。各マ,ジンのスケ,ルが同じである場合,マ,ジンを分類の信頼尺度として使用できます。複数の分類器の中で,マ,ジンが大きい分類器の方が優れています。gydF4y2Ba
バ@ @ナリ損失gydF4y2Ba
“バ电子邮箱ナリ損失”gydF4y2Baは,バイナリ学習器がどの程度の精度で観測値をクラスに分類するかを決定する,クラスと分類スコアの関数です。gydF4y2Ba
以下のように仮定します。gydF4y2Ba
米gydF4y2BakjgydF4y2Baは符号化設計行列Mの要素(k,j),まりバナリ学習器jのクラスkに対応する符号。Mはk行b列の行列であり,kはクラスの数,bはバナリ学習器の数です。gydF4y2Ba
年代gydF4y2BajgydF4y2Baは観測値に対するバesc escナリ学習器jのスコア。gydF4y2Ba
Gはバeconrナリ損失関数。gydF4y2Ba
は観測値の予測クラス。gydF4y2Ba
ソフトウェアでバイナリ損失をどのように集計して各観測値の予測クラスを判定するかは,ECOCモデルの復号化方式で指定します。ソフトウェアでは2の復号化方式をサポトしています。gydF4y2Ba
“損失に基づく復号化”gydF4y2Ba[2]gydF4y2Ba(gydF4y2Ba
解码gydF4y2Ba
がgydF4y2Ba“lossbased”gydF4y2Ba
)——観測値の予測クラスは,すべてのバイナリ学習器におけるバイナリ損失の平均が最小になるクラスに対応します。gydF4y2Ba“損失に重みを付けた復号化”gydF4y2Ba[3]gydF4y2Ba(gydF4y2Ba
解码gydF4y2Ba
がgydF4y2Ba“lossweighted”gydF4y2Ba
)——観測値の予測クラスは,対応するクラスのバイナリ学習器におけるバイナリ損失の平均が最小になるクラスに対応します。gydF4y2Ba分母はクラスkのバナリ学習器の数に対応します。gydF4y2Ba[1]gydF4y2Baによると,すべてのクラスの損失値が同じダイナミックレンジに収まるので,損失に重みを付けた復号化では分類精度が向上します。gydF4y2Ba
関数gydF4y2Ba预测gydF4y2Ba
、gydF4y2BaresubPredictgydF4y2Ba
,およびgydF4y2BakfoldPredictgydF4y2Ba
は,それぞれの観測値とクラスにいて,gydF4y2BaargmingydF4y2Ba
の目的関数の符号反転値を2番目の出力引数(gydF4y2BaNegLossgydF4y2Ba
)として返します。gydF4y2Ba
次の表は,サポ,トされる損失関数をまとめたものです。ここで,ygydF4y2BajgydF4y2Baは特定のバesc esc esc esc esc esc esc esc esc esc esc esc esc escgydF4y2BajgydF4y2Baは観測値jのスコア,g(ygydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)はバleiナリ損失関数です。gydF4y2Ba
値gydF4y2Ba | 説明gydF4y2Ba | スコア領域gydF4y2Ba | g (y)gydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)gydF4y2Ba |
---|---|---|---|
“binodeviance”gydF4y2Ba |
二項分布からの逸脱度gydF4y2Ba | (-∞∞)gydF4y2Ba | Log [1 + exp(-2ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba |
“指数”gydF4y2Ba |
指数gydF4y2Ba | (-∞∞)gydF4y2Ba | exp(可能是gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba |
“汉明”gydF4y2Ba |
ハミングgydF4y2Ba | [0,1]または(-∞,∞)gydF4y2Ba | [1 -符号(ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba |
“枢纽”gydF4y2Ba |
ヒンジgydF4y2Ba | (-∞∞)gydF4y2Ba | Max (0,1 - ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba |
“线性”gydF4y2Ba |
線形gydF4y2Ba | (-∞∞)gydF4y2Ba | (1 - y)gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba |
“分对数”gydF4y2Ba |
ロジスティックgydF4y2Ba | (-∞∞)gydF4y2Ba | Log [1 + exp(-ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba |
“二次”gydF4y2Ba |
2 次gydF4y2Ba | [0, 1]gydF4y2Ba | [1 - y]gydF4y2BajgydF4y2Ba(2 sgydF4y2BajgydF4y2Ba- 1))gydF4y2Ba2gydF4y2Ba/ 2gydF4y2Ba |
ygydF4y2BajgydF4y2Ba0.5 = 0のときに損失がになるようにバイナリ損失が正規化され,バイナリ学習器の平均が集計に使用されます。gydF4y2Ba
Ecoc分類器の全体的な性能の尺度である全体の分類損失(オブジェクト関数gydF4y2Ba损失gydF4y2Ba
およびgydF4y2Ba预测gydF4y2Ba
の名前と値の引数gydF4y2BaLossFungydF4y2Ba
により指定)とバ选区ナリ損失を混同しないでください。gydF4y2Ba
ヒントgydF4y2Ba
複数のECOC分類器のマージンまたはエッジを比較するには,テンプレートオブジェクトを使用して分類器間で共通するスコア変換関数を学習時に指定します。gydF4y2Ba
参照gydF4y2Ba
[1]奥尔温,E., R. Schapire, Y. Singer。将多类简化为二进制:边距分类器的统一方法。机器学习研究杂志。Vol. 1, 2000, pp. 113-141。gydF4y2Ba
[2] Escalera, S., O. Pujol, P. Radeva。纠错输出码的稀疏设计的三进制码的可分性。Recog模式。列托人。,Vol. 30, Issue 3, 2009, pp. 285–297.
[3] Escalera, S., O. Pujol, P. Radeva。三进制纠错输出码的解码过程。模式分析与机器智能汇刊。Vol. 32, Issue 7, 2010, pp. 120-134。gydF4y2Ba
拡張機能gydF4y2Ba
高配列gydF4y2Ba
メモリの許容量を超えるような多数の行を含む配列を計算します。gydF4y2Ba
使用上の注意事項および制限事項:gydF4y2Ba
MdlgydF4y2Ba
にカネルまたは線形のバナリ学習器が含まれる場合,gydF4y2Ba边缘gydF4y2Ba
は高gydF4y2Ba表格gydF4y2Ba
デ,タをサポ,トしません。gydF4y2Ba
詳細は,gydF4y2Ba高配列gydF4y2Baを参照してください。gydF4y2Ba
自動並列サポ,トgydF4y2Ba
并行计算工具箱™を使用して自動的に並列計算を実行することで,コードを高速化します。gydF4y2Ba
並列実行するには,この関数を呼び出すときに名前と値の引数gydF4y2Ba“选项”gydF4y2Ba
を指定し,gydF4y2BastatsetgydF4y2Ba
を使用してオプション構造体のgydF4y2Ba“UseParallel”gydF4y2Ba
フィ,ルドをgydF4y2Ba真正的gydF4y2Ba
に設定します。gydF4y2Ba
たとえば,次のようにします。gydF4y2Ba“选项”,statset (UseParallel,真的)gydF4y2Ba
並列計算の詳細にいては,gydF4y2Ba自動並列サポトを使用したmatlab関数の実行gydF4y2Ba(并行计算工具箱)gydF4y2Baを参照してください。gydF4y2Ba
Gpu配列gydF4y2Ba
并行计算工具箱™を使用してグラフィックス処理装置(GPU)上で実行することにより,コードを高速化します。gydF4y2Ba
使用上の注意事項および制限事項:gydF4y2Ba
边缘gydF4y2Ba
は,次の場合にのみgpuで実行されます。gydF4y2Ba入力引数gydF4y2Ba
XgydF4y2Ba
がgydF4y2BagpuArraygydF4y2Ba
である。gydF4y2Ba入力引数gydF4y2Ba
资源描述gydF4y2Ba
にgydF4y2BagpuArraygydF4y2Ba
予測子変数が含まれている。gydF4y2Ba入力引数gydF4y2Ba
mdlgydF4y2Ba
がgpu配列の入力引数を使って当てはめられており,svm学習器は使用していない。gydF4y2Ba
代理分岐は分類木学習器で学習させたモデルではサポ,トされていません。gydF4y2Ba
詳細は,gydF4y2BaGpuでのmatlab関数の実行gydF4y2Ba(并行计算工具箱)gydF4y2Baを参照してください。gydF4y2Ba
バ,ジョン履歴gydF4y2Ba
参考gydF4y2Ba
ClassificationECOCgydF4y2Ba
|gydF4y2BaCompactClassificationECOCgydF4y2Ba
|gydF4y2Ba保证金gydF4y2Ba
|gydF4y2BaresubEdgegydF4y2Ba
|gydF4y2Ba预测gydF4y2Ba
|gydF4y2BafitcecocgydF4y2Ba
|gydF4y2Ba损失gydF4y2Ba
例を開くgydF4y2Ba
この例の変更されたバ,ジョンがあります.編集された方の例を開きますか?gydF4y2Ba
MatlabコマンドgydF4y2Ba
次のmatlabコマンドに対応するリンクがクリックされました。gydF4y2Ba
コマンドをmatlabコマンドウィンドウに入力して実行してください。Webブラウザ,はMATLABコマンドをサポ,トしていません。gydF4y2Ba
选择网站gydF4y2Ba
选择一个网站,在可用的地方获得翻译的内容,并查看当地的活动和优惠。根据您所在的位置,我们建议您选择:gydF4y2Ba.gydF4y2Ba
您也可以从以下列表中选择一个网站:gydF4y2Ba
如何获得最佳的网站性能gydF4y2Ba
选择中国站点(中文或英文)以获得最佳站点性能。其他MathWorks国家站点没有针对您所在位置的访问进行优化。gydF4y2Ba
美洲gydF4y2Ba
- 美国拉丁gydF4y2Ba(西班牙语)gydF4y2Ba
- 加拿大gydF4y2Ba(英语)gydF4y2Ba
- 美国gydF4y2Ba(英语)gydF4y2Ba
欧洲gydF4y2Ba
- 比利时gydF4y2Ba(英语)gydF4y2Ba
- 丹麦gydF4y2Ba(英语)gydF4y2Ba
- 德国gydF4y2Ba(德语)gydF4y2Ba
- 西班牙gydF4y2Ba(西班牙语)gydF4y2Ba
- 芬兰gydF4y2Ba(英语)gydF4y2Ba
- 法国gydF4y2Ba(法语)gydF4y2Ba
- 爱尔兰gydF4y2Ba(英语)gydF4y2Ba
- 意大利gydF4y2Ba(意大利语)gydF4y2Ba
- 卢森堡gydF4y2Ba(英语)gydF4y2Ba
- 荷兰gydF4y2Ba(英语)gydF4y2Ba
- 挪威gydF4y2Ba(英语)gydF4y2Ba
- 奥地利gydF4y2Ba(德语)gydF4y2Ba
- 葡萄牙gydF4y2Ba(英语)gydF4y2Ba
- 瑞典gydF4y2Ba(英语)gydF4y2Ba
- 瑞士gydF4y2Ba
- 联合王国gydF4y2Ba(英语)gydF4y2Ba
亚太地区gydF4y2Ba
- 澳大利亚gydF4y2Ba(英语)gydF4y2Ba
- 印度gydF4y2Ba(英语)gydF4y2Ba
- 新西兰gydF4y2Ba(英语)gydF4y2Ba
- 中国gydF4y2Ba
- 日本gydF4y2Ba(日本語)gydF4y2Ba
- 한국gydF4y2Ba(한국어)gydF4y2Ba