主要内容gydF4y2Ba

边缘gydF4y2Ba

マルチクラス誤り訂正出力符号(ecoc)モデルの分類エッジgydF4y2Ba

説明gydF4y2Ba

egydF4y2Ba=边缘(gydF4y2BaMdlgydF4y2Ba,gydF4y2Ba资源描述gydF4y2Ba,gydF4y2BaResponseVarNamegydF4y2Ba)gydF4y2Baは,表gydF4y2Ba资源描述gydF4y2Ba内の予測子デ,タとgydF4y2Ba资源描述。ResponseVarNamegydF4y2Ba内のクラスラベルを使用して,学習済みのマルチクラス誤り訂正出力符号(ecoc)分類器gydF4y2BaMdlgydF4y2BaのgydF4y2Ba分類エッジgydF4y2Ba(gydF4y2BaegydF4y2Ba)を返します。gydF4y2Ba

egydF4y2Ba=边缘(gydF4y2BaMdlgydF4y2Ba,gydF4y2Ba资源描述gydF4y2Ba,gydF4y2BaYgydF4y2Ba)gydF4y2Baは,表gydF4y2Ba资源描述gydF4y2Ba内の予測子デ,タとベクトルgydF4y2BaYgydF4y2Ba内のクラスラベルを使用して,分類器gydF4y2BaMdlgydF4y2Baの分類エッジを返します。gydF4y2Ba

例gydF4y2Ba

egydF4y2Ba=边缘(gydF4y2BaMdlgydF4y2Ba,gydF4y2BaXgydF4y2Ba,gydF4y2BaYgydF4y2Ba)gydF4y2Baは,行列gydF4y2BaXgydF4y2Ba内の予測子デ,タとベクトルgydF4y2BaYgydF4y2Ba内のクラスラベルを使用して,分類器gydF4y2BaMdlgydF4y2Baの分類エッジ(gydF4y2BaegydF4y2Ba)を返します。gydF4y2Ba

例gydF4y2Ba

egydF4y2Ba=边缘(gydF4y2Ba___gydF4y2Ba,gydF4y2Ba名称,值gydF4y2Ba)gydF4y2Baでは,前の構文におけるいずれかの入力引数の組み合わせに加えて,1つ以上の名前と値のペアの引数を使用してオプションを指定します。たとえば,復号化方式,バaaplナリ学習器の損失関数,詳細レベルを指定できます。gydF4y2Ba

例gydF4y2Ba

すべて折りたたむgydF4y2Ba

支持向量机バesc escナリ分類器によるecocモデルの検定標本の分類エッジを計算します。gydF4y2Ba

フィッシャ,のアヤメのデ,タセットを読み込みます。予測子デ,タgydF4y2BaXgydF4y2Ba,応答デ,タgydF4y2BaYgydF4y2Ba,およびgydF4y2BaYgydF4y2Ba内のクラスの順序を指定します。gydF4y2Ba

负载gydF4y2BafisheririsgydF4y2BaX = meas;Y =分类(物种);classOrder =唯一的(Y);gydF4y2Ba%等级订单gydF4y2Barng (1);gydF4y2Ba%用于再现性gydF4y2Ba

支持向量机バesc escナリ分類器を使用してecocモデルを学習させます。検定用に30%のホールドアウト標本を指定し,SVMテンプレートを使用して予測子を標準化し,クラスの順序を指定します。gydF4y2Ba

t = templateSVM(gydF4y2Ba“标准化”gydF4y2Ba,真正的);PMdl = fitcecoc(X,Y,gydF4y2Ba“坚持”gydF4y2Ba, 0.30,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“类名”gydF4y2Ba, classOrder);Mdl = pmdl .训练{1};gydF4y2Ba%提取训练,紧凑的分类器gydF4y2Ba

PMdlgydF4y2BaはgydF4y2BaClassificationPartitionedECOCgydF4y2Baモデルです。これにはgydF4y2Ba训练有素的gydF4y2Baプロパティが含まれています。これは,学習デ,タを使用して学習をさせたgydF4y2BaCompactClassificationECOCgydF4y2Baモデルが格納されている,1行1列のcell配列です。gydF4y2Ba

検定標本エッジを計算します。gydF4y2Ba

testInds = test(PMdl.Partition);gydF4y2Ba提取测试指标gydF4y2BaXTest = X(testInds,:);YTest = Y(testInds,:);e = edge(Mdl,XTest,YTest)gydF4y2Ba
E = 0.4573gydF4y2Ba

検定標本マジンの平均はおよそ0.46です。gydF4y2Ba

Ecocモデルの検定標本加重マ,ジンの平均を計算します。gydF4y2Ba

データセット内の観測値は順番に測定されており,技術の向上によって最新の75件の観測値の品質が高くなっているとします。品質が高い観測値に他の観測値より大きい重みを与えることにより,この改善を反映させます。gydF4y2Ba

フィッシャ,のアヤメのデ,タセットを読み込みます。予測子デ,タgydF4y2BaXgydF4y2Ba,応答デ,タgydF4y2BaYgydF4y2Ba,およびgydF4y2BaYgydF4y2Ba内のクラスの順序を指定します。gydF4y2Ba

负载gydF4y2BafisheririsgydF4y2BaX = meas;Y =分类(物种);classOrder =唯一的(Y);gydF4y2Ba%等级订单gydF4y2Barng (1);gydF4y2Ba%用于再现性gydF4y2Ba

品質が高い観測値に他の観測値の2倍の重みを割り当てる重みベクトルを定義します。gydF4y2Ba

n = size(X,1);权重= [ones(n-75,1);2*ones(75,1)];gydF4y2Ba

支持向量机バesc escナリ分類器を使用してecocモデルを学習させます。30%のホルドアウト標本と加重スキムを指定します。SVMテンプレ,トを使用して予測子を標準化し,クラスの順序を指定します。gydF4y2Ba

t = templateSVM(gydF4y2Ba“标准化”gydF4y2Ba,真正的);PMdl = fitcecoc(X,Y,gydF4y2Ba“坚持”gydF4y2Ba, 0.30,gydF4y2Ba“重量”gydF4y2Ba权重,gydF4y2Ba...gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“类名”gydF4y2Ba, classOrder);Mdl = pmdl .训练{1};gydF4y2Ba%提取训练,紧凑的分类器gydF4y2Ba

PMdlgydF4y2Baは学習させたgydF4y2BaClassificationPartitionedECOCgydF4y2Baモデルです。これにはgydF4y2Ba训练有素的gydF4y2Baプロパティが含まれています。これは,学習デ,タを使用して学習をさせたgydF4y2BaCompactClassificationECOCgydF4y2Ba分類器が格納されている,1行1列のcell配列です。gydF4y2Ba

加重スキ,ムを使用して,検定標本の加重エッジを計算します。gydF4y2Ba

testInds = test(PMdl.Partition);gydF4y2Ba提取测试指标gydF4y2BaXTest = X(testInds,:);YTest = Y(testInds,:);wTest = weights(testInds,:);e = edge(Mdl,XTest,YTest,gydF4y2Ba“重量”gydF4y2Bawte)gydF4y2Ba
E = 0.4798gydF4y2Ba

検定標本の平均加重マジンはおよそ0.48です。gydF4y2Ba

複数のモデルの検定標本エッジを比較することにより,特徴選択を実行します。この比較のみに基づくと,エッジが最高である分類器が最善の分類器となります。gydF4y2Ba

フィッシャ,のアヤメのデ,タセットを読み込みます。予測子デ,タgydF4y2BaXgydF4y2Ba,応答デ,タgydF4y2BaYgydF4y2Ba,およびgydF4y2BaYgydF4y2Ba内のクラスの順序を指定します。gydF4y2Ba

负载gydF4y2BafisheririsgydF4y2BaX = meas;Y =分类(物种);classOrder =唯一的(Y);gydF4y2Ba%等级订单gydF4y2Barng (1);gydF4y2Ba%用于再现性gydF4y2Ba

デ,タセットを学習セットと検定セットに分割します。テスト用の30%のホ,ルドアウト標本を指定します。gydF4y2Ba

分区= cvpartition(Y,gydF4y2Ba“坚持”gydF4y2Ba, 0.30);testInds = test(分区);gydF4y2Ba%测试集的索引gydF4y2BaXTest = X(testInds,:);YTest = Y(testInds,:);gydF4y2Ba

分区gydF4y2Baによりデ,タセットの分割が定義されます。gydF4y2Ba

次の2のデタセットを定義します。gydF4y2Ba

  • fullXgydF4y2Baにはすべての予測子が含まれます。gydF4y2Ba

  • partXgydF4y2Baには花弁の寸法のみが含まれています。gydF4y2Ba

fullX = X;partX = X(:,3:4);gydF4y2Ba

各予測子セットにSVMバecocモデルに学習をさせます。分割定義を指定し,支持向量机テンプレ,トを使用して予測子を標準化し,クラスの順序を指定します。gydF4y2Ba

t = templateSVM(gydF4y2Ba“标准化”gydF4y2Ba,真正的);fullX = fitcecoc(fullX,Y,gydF4y2Ba“CVPartition”gydF4y2Ba分区,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba...gydF4y2Ba“类名”gydF4y2Ba, classOrder);partPMdl = fitcecoc(partX,Y,gydF4y2Ba“CVPartition”gydF4y2Ba分区,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba...gydF4y2Ba“类名”gydF4y2Ba, classOrder);fullMdl = fullpmdl .训练{1};partMdl = partpmdl .训练{1};gydF4y2Ba

fullPMdlgydF4y2BaおよびgydF4y2BapartPMdlgydF4y2BaはgydF4y2BaClassificationPartitionedECOCgydF4y2Baモデルです。各モデルにはgydF4y2Ba训练有素的gydF4y2Baプロパティが含まれています。これは,対応する学習セットを使用して学習をさせたgydF4y2BaCompactClassificationECOCgydF4y2Baモデルが格納されている,1行1列のcell配列です。gydF4y2Ba

各分類器の検定標本エッジを計算します。gydF4y2Ba

fullEdge = edge(fullMdl,XTest,YTest)gydF4y2Ba
fullEdge = 0.4573gydF4y2Ba
partEdge = edge(partMdl,XTest(:,3:4),YTest)gydF4y2Ba
partEdge = 0.4839gydF4y2Ba

partMdlgydF4y2Baのエッジの値は,より複雑なモデルgydF4y2BafullMdlgydF4y2Baの値と同等です。gydF4y2Ba

入力引数gydF4y2Ba

すべて折りたたむgydF4y2Ba

完全またはコンパクトなマルチクラスecocモデル。gydF4y2BaClassificationECOCgydF4y2BaまたはgydF4y2BaCompactClassificationECOCgydF4y2Baモデルオブジェクトを指定します。gydF4y2Ba

完全またはコンパクトなecocモデルを作成する方法にいては,gydF4y2BaClassificationECOCgydF4y2BaまたはgydF4y2BaCompactClassificationECOCgydF4y2Baを参照してください。gydF4y2Ba

標本デ,タ。テブルとして指定します。资源描述gydF4y2Baの各行は1の観測値に,各列は1。必要に応じて,応答変数用および観測値の重み用の追加列をgydF4y2Ba资源描述gydF4y2Baに含めることができます。gydF4y2Ba资源描述gydF4y2Baには,gydF4y2BaMdlgydF4y2Baを学習させるために使用したすべての予測子が含まれていなければなりません。文字ベクトルのcell配列ではない cell 配列と複数列の変数は使用できません。

表格gydF4y2Baに格納されている標本デ,タを使用してgydF4y2BaMdlgydF4y2Baに学習をさせた場合,gydF4y2Ba边缘gydF4y2Baの入力デ,タも表に含まれていなければなりません。gydF4y2Ba

MdlgydF4y2Baに学習をさせるときに,gydF4y2BafitcecocgydF4y2Baの名前と値のペアの引数gydF4y2Ba“学习者”gydF4y2Baで指定したテンプレトオブジェクトにいてgydF4y2Ba“标准化”,真的gydF4y2Baを設定したとします。この場合,対応するバgydF4y2BajgydF4y2Baにいて,対応するgydF4y2BaMdl.BinaryLearner {j} .MugydF4y2Ba内の平均およびgydF4y2BaMdl.BinaryLearner {j} .SigmagydF4y2Ba内の標準偏差を使用して,新しい予測子デ,タの列が標準化されます。gydF4y2Ba

デ,タ型:gydF4y2Ba表格gydF4y2Ba

応答変数の名前。gydF4y2Ba资源描述gydF4y2Ba内の変数の名前で指定します。gydF4y2BaMdlgydF4y2Baを学習させるために使用した応答変数がgydF4y2Ba资源描述gydF4y2Baに含まれている場合,gydF4y2BaResponseVarNamegydF4y2Baを指定する必要はありません。gydF4y2Ba

ResponseVarNamegydF4y2Baを指定する場合は,文字ベクトルまたは字符串スカラ,として指定しなければなりません。たとえば,応答変数がgydF4y2Batbl.ygydF4y2Baとして格納されている場合,gydF4y2BaResponseVarNamegydF4y2BaとしてgydF4y2Ba“y”gydF4y2Baを指定します。それ以外の場合,gydF4y2Ba资源描述gydF4y2Baの列はgydF4y2Batbl.ygydF4y2Baを含めてすべて予測子として扱われます。gydF4y2Ba

応答変数は,绝对配列,文字配列,字符串配列,逻辑ベクトル,数値ベクトル,または文字ベクトルの细胞配列でなければなりません。応答変数が文字配列の場合,各要素は配列の1の行に対応しなければなりません。gydF4y2Ba

デ,タ型:gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba

予測子デ,タ。数値行列として指定します。

XgydF4y2Baの各行は1の観測値に対応し,各列は1。gydF4y2BaXgydF4y2Baの列内の変数は,分類器gydF4y2BaMdlgydF4y2Baに学習させた変数と同じでなければなりません。gydF4y2Ba

XgydF4y2Baの行数はgydF4y2BaYgydF4y2Baの行数と等しくなければなりません。gydF4y2Ba

MdlgydF4y2Baに学習をさせるときに,gydF4y2BafitcecocgydF4y2Baの名前と値のペアの引数gydF4y2Ba“学习者”gydF4y2Baで指定したテンプレトオブジェクトにいてgydF4y2Ba“标准化”,真的gydF4y2Baを設定したとします。この場合,対応するバgydF4y2BajgydF4y2Baにいて,対応するgydF4y2BaMdl.BinaryLearner {j} .MugydF4y2Ba内の平均およびgydF4y2BaMdl.BinaryLearner {j} .SigmagydF4y2Ba内の標準偏差を使用して,新しい予測子デ,タの列が標準化されます。gydF4y2Ba

デ,タ型:gydF4y2Ba双gydF4y2Ba|gydF4y2Ba单gydF4y2Ba

クラスラベル。绝对配列,文字配列,弦配列,逻辑ベクトル,数値ベクトル,または文字ベクトルの细胞配列を指定します。gydF4y2BaYgydF4y2Baのデ,タ型はgydF4y2BaMdl。一会gydF4y2Baと同じでなければなりません。gydF4y2Ba(字符串配列は文字ベクトルのcell配列として扱われます)。gydF4y2Ba

YgydF4y2Baの行数はgydF4y2Ba资源描述gydF4y2BaまたはgydF4y2BaXgydF4y2Baの行数と等しくなければなりません。gydF4y2Ba

デ,タ型:gydF4y2Ba分类gydF4y2Ba|gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba|gydF4y2Ba逻辑gydF4y2Ba|gydF4y2Ba单gydF4y2Ba|gydF4y2Ba双gydF4y2Ba|gydF4y2Ba细胞gydF4y2Ba

名前と値の引数gydF4y2Ba

オプションの引数のペアをgydF4y2BaName1 = Value1,…,以=家gydF4y2Baとして指定します。ここでgydF4y2Ba的名字gydF4y2Baは引数名,gydF4y2Ba价值gydF4y2Baは対応する値です。名前と値の引数は他の引数の後ろにする必要がありますが、ペアの順序は関係ありません。

R2021aより前では,名前と値をそれぞれコンマを使って区切り,gydF4y2Ba的名字gydF4y2Baを引用符で囲みます。gydF4y2Ba

例:gydF4y2Ba边缘(Mdl, X, Y,“BinaryLoss”、“指数”,“解码”,“lossbased”)gydF4y2Baは,バイナリ学習器の損失関数として指数関数を使用し,損失に基づく復号化方式をバイナリ損失の集計に使用するよう指定します。gydF4y2Ba

バ@ @ナリ学習器の損失関数。gydF4y2Ba“BinaryLoss”gydF4y2Baと組み込みの損失関数名または関数ハンドルから構成されるコンマ区切りのペアとして指定します。gydF4y2Ba

  • 次の表で,組み込み関数にいて説明します。ここで,ygydF4y2BajgydF4y2Baは特定のバesc esc esc esc esc esc esc esc esc esc esc esc esc escgydF4y2BajgydF4y2Baは観測値jのスコア,g(ygydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)はバleiナリ損失の式です。gydF4y2Ba

    値gydF4y2Ba 説明gydF4y2Ba スコア領域gydF4y2Ba g (y)gydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)gydF4y2Ba
    “binodeviance”gydF4y2Ba 二項分布からの逸脱度gydF4y2Ba (-∞∞)gydF4y2Ba Log [1 + exp(-2ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba
    “指数”gydF4y2Ba 指数gydF4y2Ba (-∞∞)gydF4y2Ba exp(可能是gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
    “汉明”gydF4y2Ba ハミングgydF4y2Ba [0,1]または(-∞,∞)gydF4y2Ba [1 -符号(ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
    “枢纽”gydF4y2Ba ヒンジgydF4y2Ba (-∞∞)gydF4y2Ba Max (0,1 - ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
    “线性”gydF4y2Ba 線形gydF4y2Ba (-∞∞)gydF4y2Ba (1 - y)gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
    分对数的gydF4y2Ba ロジスティックgydF4y2Ba (-∞∞)gydF4y2Ba Log [1 + exp(-ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba
    “二次”gydF4y2Ba 2 次gydF4y2Ba [0, 1]gydF4y2Ba [1 - y]gydF4y2BajgydF4y2Ba(2 sgydF4y2BajgydF4y2Ba- 1))gydF4y2Ba2gydF4y2Ba/ 2gydF4y2Ba

    バ▪▪▪ナリ損失は,ygydF4y2BajgydF4y2Ba= 0の場合に損失が0.5になるように正規化されます。また,各クラスにいて平均のバナリ損失が計算されます。gydF4y2Ba

  • カスタムバ@ @ナリ損失関数の場合は関数ハンドルを指定します。たとえば,gydF4y2BacustomFunctiongydF4y2Baの場合はgydF4y2BaBinaryLoss, @customFunctiongydF4y2Baを指定します。gydF4y2Ba

    customFunctiongydF4y2Baの形式は次のとおりです。gydF4y2Ba

    bLoss = customFunction(M,s)gydF4y2Ba

    • 米gydF4y2BaはgydF4y2BaMdl。CodingMatrixgydF4y2Baに格納されたk行b列の符号化行列です。gydF4y2Ba

    • 年代gydF4y2Baは1行b列の分類スコアの行ベクトルです。gydF4y2Ba

    • 布劳斯gydF4y2Baは分類損失です。このスカラは,特定のクラスのすべての学習器にいてバナリ損失を集計します。たとえば,平均バaaplナリ損失を使用して,各クラスの学習器の損失を集計できます。gydF4y2Ba

    • Kは,クラスの数です。gydF4y2Ba

    • Bはバescナリ学習器の数です。gydF4y2Ba

    カスタムなバ化学键ナリ損失関数を渡す例に化学键いては,gydF4y2Baカスタムバesc escモデルの検定標本ラベルの予測gydF4y2Baを参照してください。gydF4y2Ba

BinaryLossgydF4y2Baの既定値は,バ。次の表に,既定のスコア変換を使用する場合(モデルのgydF4y2BaScoreTransformgydF4y2BaプロパティがgydF4y2Ba“没有”gydF4y2Baの場合)のgydF4y2BaBinaryLossgydF4y2Baの既定値をいくか示します。gydF4y2Ba

仮定gydF4y2Ba 既定値gydF4y2Ba

すべてのバ@ @ナリ学習器が次のいずれかである。gydF4y2Ba

  • 分類決定木gydF4y2Ba

  • 判別分析モデルgydF4y2Ba

  • K最近傍モデルgydF4y2Ba

  • ロジスティック回帰学習器の線形またはカ,ネル分類モデルgydF4y2Ba

  • 単純ベ@ @ズモデルgydF4y2Ba

“二次”gydF4y2Ba
すべてのバ@ @ナリ学習器が支持向量机であるか,支持向量机学習器の線形またはカ@ @ネル分類モデルである。gydF4y2Ba “枢纽”gydF4y2Ba
すべてのバ电子邮箱ナリ学習器が,gydF4y2BaAdaboostM1gydF4y2BaまたはgydF4y2BaGentleBoostgydF4y2Baによって学習をさせたアンサンブルである。gydF4y2Ba “指数”gydF4y2Ba
すべてのバ电子邮箱ナリ学習器が,gydF4y2BaLogitBoostgydF4y2Baによって学習をさせたアンサンブルである。gydF4y2Ba “binodeviance”gydF4y2Ba
fitcecocgydF4y2BaでgydF4y2Ba“FitPosterior”,真的gydF4y2Baを設定して,クラスの事後確率を予測するように指定している。gydF4y2Ba “二次”gydF4y2Ba
バesc escナリ学習器が異種混合で,さまざまな損失関数を使用している。gydF4y2Ba “汉明”gydF4y2Ba

既定値を確認するには,コマンドラgydF4y2BaBinaryLossgydF4y2Baプロパティを表示します。gydF4y2Ba

例:gydF4y2Ba“BinaryLoss”、“binodeviance”gydF4y2Ba

デ,タ型:gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba|gydF4y2Bafunction_handlegydF4y2Ba

バ@ @ナリ損失を集計する復号化方式。gydF4y2Ba“解码”gydF4y2BaとgydF4y2Ba“lossweighted”gydF4y2BaまたはgydF4y2Ba“lossbased”gydF4y2Baから構成されるコンマ区切りのペアとして指定します。詳細は,gydF4y2Baバ@ @ナリ損失gydF4y2Baを参照してください。gydF4y2Ba

例:gydF4y2Ba“解码”、“lossbased”gydF4y2Ba

予測子デ,タにおける観測値の次元。gydF4y2Ba“ObservationsIn”gydF4y2BaとgydF4y2Ba“列”gydF4y2BaまたはgydF4y2Ba“行”gydF4y2Baから構成されるコンマ区切りのペアとして指定します。gydF4y2BaMdl。BinaryLearnersにはgydF4y2BaClassificationLineargydF4y2Baモデルが格納されていなければなりません。gydF4y2Ba

メモgydF4y2Ba

観測値が列に対応するように予測子行列を配置してgydF4y2Ba“ObservationsIn”、“列”gydF4y2Baを指定すると,実行時間が大幅に短縮される可能性があります。表の予測子デ,タに対してgydF4y2Ba“ObservationsIn”、“列”gydF4y2Baを指定することはできません。gydF4y2Ba

推定オプション。gydF4y2BastatsetgydF4y2Baにより返されるgydF4y2Ba“选项”gydF4y2Baと構造体配列から構成されるコンマ区切りのペアとして指定します。gydF4y2Ba

並列計算を起動するには,以下を行います。gydF4y2Ba

  • 并行计算工具箱™ラ▪センスが必要です。gydF4y2Ba

  • “选项”,statset (UseParallel,真的)gydF4y2Baを指定します。gydF4y2Ba

詳細レベル。gydF4y2Ba“详细”gydF4y2BaとgydF4y2Ba0gydF4y2BaまたはgydF4y2Ba1gydF4y2Baから構成されるコンマ区切りのペアとして指定します。gydF4y2Ba详细的gydF4y2Baは,コマンドウィンドウに表示される診断メッセ,ジの量を制御します。gydF4y2Ba

详细的gydF4y2BaがgydF4y2Ba0gydF4y2Baの場合,診断メッセ,ジは表示されません。それ以外の場合は,診断メッセ,ジが表示されます。gydF4y2Ba

例:gydF4y2Ba“详细”,1gydF4y2Ba

デ,タ型:gydF4y2Ba单gydF4y2Ba|gydF4y2Ba双gydF4y2Ba

観測値の重み。gydF4y2Ba“重量”gydF4y2Baと数値ベクトル,またはgydF4y2Ba资源描述gydF4y2Baに含まれる変数の名前から構成されるコンマ区切りのペアとして指定します。重みを指定すると,gydF4y2Ba边缘gydF4y2Baは重み付きのgydF4y2Ba分類エッジgydF4y2Baを計算します。gydF4y2Ba

权重gydF4y2Baとして数値ベクトルを指定する場合,gydF4y2Ba权重gydF4y2Baのサ@ @ズはgydF4y2BaXgydF4y2BaまたはgydF4y2Ba资源描述gydF4y2Ba内の観測値の個数と等しくなければなりません。合計が各クラスの事前確率の値と等しくなるようにgydF4y2Ba权重gydF4y2Baが正規化されます。gydF4y2Ba

资源描述gydF4y2Ba内の変数名をgydF4y2Ba权重gydF4y2Baとして指定する場合,文字ベクトルまたは字符串スカラ,を指定しなければなりません。たとえば,重みがgydF4y2Batbl.wgydF4y2Baとして格納されている場合,gydF4y2Ba权重gydF4y2BaとしてgydF4y2Ba' w 'gydF4y2Baを指定します。それ以外の場合,gydF4y2Ba资源描述gydF4y2Baの列はgydF4y2Batbl.wgydF4y2Baを含めてすべて予測子として扱われます。gydF4y2Ba

デ,タ型:gydF4y2Ba单gydF4y2Ba|gydF4y2Ba双gydF4y2Ba|gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba

出力引数gydF4y2Ba

すべて折りたたむgydF4y2Ba

分類エッジgydF4y2Ba。数値スカラ,またはベクトルとして返されます。gydF4y2BaegydF4y2BaはgydF4y2Ba分類マ,ジンgydF4y2Baの加重平均を表します。gydF4y2Ba

Mdl。BinaryLearnersにgydF4y2BaClassificationLineargydF4y2Baモデルが含まれている場合,gydF4y2BaegydF4y2Baは1行l列のベクトルになります。Lは,線形分類モデル内の正則化強度の個数(gydF4y2Ba元素个数(Mdl.BinaryLearners {1} .Lambda)gydF4y2Ba)です。値gydF4y2Bae (j)gydF4y2Baは,正則化強度gydF4y2BaMdl.BinaryLearners {1} .Lambda (j)gydF4y2Baを使用して学習をさせたモデルのエッジです。gydF4y2Ba

それ以外の場合,gydF4y2BaegydF4y2Baはスカラ,値です。gydF4y2Ba

詳細gydF4y2Ba

すべて折りたたむgydF4y2Ba

分類エッジgydF4y2Ba

“分類エッジ”gydF4y2Baは,分類マ,ジンの加重平均です。gydF4y2Ba

特徴選択を実行する場合などに複数の分類器から選択する方法の1つは,エッジが最大になる分類器を選択することです。gydF4y2Ba

分類マ,ジンgydF4y2Ba

“分類マ,ジン”gydF4y2Baは,各観測値における真のクラスの負の損失と偽のクラスの負の最大損失の差です。各マ,ジンのスケ,ルが同じである場合,マ,ジンを分類の信頼尺度として使用できます。複数の分類器の中で,マ,ジンが大きい分類器の方が優れています。gydF4y2Ba

バ@ @ナリ損失gydF4y2Ba

“バ电子邮箱ナリ損失”gydF4y2Baは,バイナリ学習器がどの程度の精度で観測値をクラスに分類するかを決定する,クラスと分類スコアの関数です。gydF4y2Ba

以下のように仮定します。gydF4y2Ba

  • 米gydF4y2BakjgydF4y2Baは符号化設計行列Mの要素(k,j),まりバナリ学習器jのクラスkに対応する符号。Mはk行b列の行列であり,kはクラスの数,bはバナリ学習器の数です。gydF4y2Ba

  • 年代gydF4y2BajgydF4y2Baは観測値に対するバesc escナリ学習器jのスコア。gydF4y2Ba

  • Gはバeconrナリ損失関数。gydF4y2Ba

  • kgydF4y2Ba ^gydF4y2Ba は観測値の予測クラス。gydF4y2Ba

ソフトウェアでバイナリ損失をどのように集計して各観測値の予測クラスを判定するかは,ECOCモデルの復号化方式で指定します。ソフトウェアでは2の復号化方式をサポトしています。gydF4y2Ba

  • “損失に基づく復号化”gydF4y2Ba[2]gydF4y2Ba(gydF4y2Ba解码gydF4y2BaがgydF4y2Ba“lossbased”gydF4y2Ba)——観測値の予測クラスは,すべてのバイナリ学習器におけるバイナリ損失の平均が最小になるクラスに対応します。gydF4y2Ba

    kgydF4y2Ba ^gydF4y2Ba =gydF4y2Ba argmingydF4y2Ba kgydF4y2Ba 1gydF4y2Ba BgydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba BgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba |gydF4y2Ba ggydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba ,gydF4y2Ba 年代gydF4y2Ba jgydF4y2Ba )gydF4y2Ba .gydF4y2Ba

  • “損失に重みを付けた復号化”gydF4y2Ba[3]gydF4y2Ba(gydF4y2Ba解码gydF4y2BaがgydF4y2Ba“lossweighted”gydF4y2Ba)——観測値の予測クラスは,対応するクラスのバイナリ学習器におけるバイナリ損失の平均が最小になるクラスに対応します。gydF4y2Ba

    kgydF4y2Ba ^gydF4y2Ba =gydF4y2Ba argmingydF4y2Ba kgydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba BgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba |gydF4y2Ba ggydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba ,gydF4y2Ba 年代gydF4y2Ba jgydF4y2Ba )gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba BgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba |gydF4y2Ba .gydF4y2Ba

    分母はクラスkのバナリ学習器の数に対応します。gydF4y2Ba[1]gydF4y2Baによると,すべてのクラスの損失値が同じダイナミックレンジに収まるので,損失に重みを付けた復号化では分類精度が向上します。gydF4y2Ba

関数gydF4y2Ba预测gydF4y2Ba、gydF4y2BaresubPredictgydF4y2Ba,およびgydF4y2BakfoldPredictgydF4y2Baは,それぞれの観測値とクラスにいて,gydF4y2BaargmingydF4y2Baの目的関数の符号反転値を2番目の出力引数(gydF4y2BaNegLossgydF4y2Ba)として返します。gydF4y2Ba

次の表は,サポ,トされる損失関数をまとめたものです。ここで,ygydF4y2BajgydF4y2Baは特定のバesc esc esc esc esc esc esc esc esc esc esc esc esc escgydF4y2BajgydF4y2Baは観測値jのスコア,g(ygydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)はバleiナリ損失関数です。gydF4y2Ba

値gydF4y2Ba 説明gydF4y2Ba スコア領域gydF4y2Ba g (y)gydF4y2BajgydF4y2Ba,年代gydF4y2BajgydF4y2Ba)gydF4y2Ba
“binodeviance”gydF4y2Ba 二項分布からの逸脱度gydF4y2Ba (-∞∞)gydF4y2Ba Log [1 + exp(-2ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba
“指数”gydF4y2Ba 指数gydF4y2Ba (-∞∞)gydF4y2Ba exp(可能是gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
“汉明”gydF4y2Ba ハミングgydF4y2Ba [0,1]または(-∞,∞)gydF4y2Ba [1 -符号(ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
“枢纽”gydF4y2Ba ヒンジgydF4y2Ba (-∞∞)gydF4y2Ba Max (0,1 - ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
“线性”gydF4y2Ba 線形gydF4y2Ba (-∞∞)gydF4y2Ba (1 - y)gydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba) / 2gydF4y2Ba
“分对数”gydF4y2Ba ロジスティックgydF4y2Ba (-∞∞)gydF4y2Ba Log [1 + exp(-ygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba
“二次”gydF4y2Ba 2 次gydF4y2Ba [0, 1]gydF4y2Ba [1 - y]gydF4y2BajgydF4y2Ba(2 sgydF4y2BajgydF4y2Ba- 1))gydF4y2Ba2gydF4y2Ba/ 2gydF4y2Ba

ygydF4y2BajgydF4y2Ba0.5 = 0のときに損失がになるようにバイナリ損失が正規化され,バイナリ学習器の平均が集計に使用されます。gydF4y2Ba

Ecoc分類器の全体的な性能の尺度である全体の分類損失(オブジェクト関数gydF4y2Ba损失gydF4y2BaおよびgydF4y2Ba预测gydF4y2Baの名前と値の引数gydF4y2BaLossFungydF4y2Baにより指定)とバ选区ナリ損失を混同しないでください。gydF4y2Ba

ヒントgydF4y2Ba

  • 複数のECOC分類器のマージンまたはエッジを比較するには,テンプレートオブジェクトを使用して分類器間で共通するスコア変換関数を学習時に指定します。gydF4y2Ba

参照gydF4y2Ba

[1]奥尔温,E., R. Schapire, Y. Singer。将多类简化为二进制:边距分类器的统一方法。机器学习研究杂志。Vol. 1, 2000, pp. 113-141。gydF4y2Ba

[2] Escalera, S., O. Pujol, P. Radeva。纠错输出码的稀疏设计的三进制码的可分性。Recog模式。列托人。,Vol. 30, Issue 3, 2009, pp. 285–297.

[3] Escalera, S., O. Pujol, P. Radeva。三进制纠错输出码的解码过程。模式分析与机器智能汇刊。Vol. 32, Issue 7, 2010, pp. 120-134。gydF4y2Ba

拡張機能gydF4y2Ba

バ,ジョン履歴gydF4y2Ba

R2014bで導入gydF4y2Ba