主要内容

。中文:中文:。

resubLoss

    説明

    l= resubLoss (Mdlは,Mdl。Xに格納されている学習データとMdl。Yに格納されている対応するクラスラベルを使用して,学習済み分類モデルMdl★★★★★分類損失(1)、(1)。

    l【中文】“LossFun”)と加重スキーム(Mdl。W)(中文:)。“LossFun”の既定値はモデルオブジェクトMdl

    l= resubLoss (Mdl名称,值。,“LossFun”、“binodeviance”

    すべて折りたたむ

    。。

    fisheriris。150 本のアヤメについて 4 つの測定値が含まれる数値行列Xを作成します。中文:中文:细胞Yを作成します。

    负载fisheririsX =平均值;Y =物种;

    予測子XとクラスラベルY。。fitcnb

    Mdl = fitcnb(X,Y,“类名”, {“setosa”“多色的”“virginica”})
    Mdl = ClassificationNaiveBayes ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'setosa' 'versicolor' 'virginica'} ScoreTransform: 'none' NumObservations: 150 DistributionNames: {'normal' 'normal' 'normal' 'normal' 'normal'} DistributionParameters: {3x4 cell}属性,方法

    Mdl【中文】ClassificationNaiveBayes? ? ?

    这是一个很好的例子。

    L = resubLoss(Mdl)
    L = 0.0400

    (4)、(4)、(4)、(4)、(4)

    电离层。【中文译文】,“b”) 1 .中文:‘g’) > > > > > > > > > > > > > > > > > > > >

    负载电离层

    。【翻译】‘g’

    SVMModel = fitcsvm(X,Y,“类名”, {“b”‘g’},“标准化”,真正的);

    SVMModel【中文】ClassificationSVM? ? ?

    L = resubLoss(SVMModel);“LossFun”“枢纽”
    L = 0.1603

    ヒンジ損失は0.1603啊哈!分類器のヒンジ損失は 0 に近いことが推奨されます。

    予測子の線形項と交互作用項の両方が格納されている一般化加法モデル(GAM)に学習させて,交互作用項を含む分類損失と含まない分類損失を推定します。。

    电离层。【中文译文】,“b”) 1 .中文:‘g’) > > > > > > > > > > > > > > > > > > > >

    负载电离层

    。1つは学習データを含め、もう 1 つは新しい未観測の検定データを含めます。新しい検定データ セットの 50 件の観測値を保持します。

    rng (“默认”%为了重现性n = size(X,1);newInds = randsample(n,50);inds = ~ismember(1:n,newInds);XNew = X(newInds,:);YNew = Y(newInds);

    予測子XとクラスラベルY【中文翻译】。10个,10个,10个,10个,10个。

    Mdl = fitgam (X(indeds,:),Y(indeds),“类名”, {“b”‘g’},“互动”, 10)
    Mdl = classiationgam ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'b' 'g'} ScoreTransform: 'logit' Intercept: 2.0026交互:[10x2 double] NumObservations: 301属性,方法

    MdlClassificationGAM

    Mdl。【中文翻译】“IncludeInteractions”,假的を指定します。

    resubl = resubLoss(Mdl)
    Resubl = 0
    resubl_nointeraction = resubLoss(Mdl,“IncludeInteractions”假)
    Resubl_nointeraction = 0

    Mdl

    l = loss(Mdl,XNew,YNew)
    L = 0.0615
    l_nointeraction = loss(Mdl,XNew,YNew,“IncludeInteractions”假)
    L_nointeraction = 0.0615

    【中文翻译】Mdl。。

    入力引数

    すべて折りたたむ

    中国日报网2016-10-14。。

    モデル 分類モデルオブジェクト
    这是我的梦想 ClassificationGAM
    K ClassificationKNN
    単純ベイズモデル ClassificationNaiveBayes
    ニューラルネットワークモデル ClassificationNeuralNetwork
    1 . ClassificationSVM

    名前と値の引数

    例:resubLoss (Mdl LossFun,分对数)

    オプションの名称,值名字【翻译】价值() () ()名字Name1, Value1,…,的家のように,複数の名前と値のペアの引数を,任意の順番で指定できます。

    真正的? ?として指定します。。★★★★★★★★★★★★★★★MdlClassificationGAM

    Mdlに交互作用項が含まれる場合,既定値は真正的啊哈!モデルに交互作用項が含まれない場合、値はでなければなりません。

    ;逻辑

    損失関数。。

    • 。。

      説明
      “binodeviance” 这是一个很好的例子
      “classiferror” 10 .中文:10 .中文
      “crossentropy” クロスエントロピー損失(ニューラルネットワークの場合のみ)
      “指数” 指数損失
      “枢纽” ヒンジ損失
      分对数的 乙:太好了
      “mincost” 英文:
      “二次” 二次損失

      中文:中文:Mdl)(中文:)

      • MdlClassificationGAMClassificationNeuralNetwork? ?ClassificationSVMオブジェクトである場合,既定値は“classiferror”啊哈!

      • MdlClassificationKNN? ?ClassificationNaiveBayesオブジェクトである場合,既定値は“mincost”啊哈!

      損失関数の詳細については,分類損失

    • 。中文:。

      lossvalue =lossfun(C、S、W、成本)

      • 出力引数lossvalue

      • 関数名 (lossfun)。

      • CnK逻辑的,逻辑的,逻辑的,逻辑的。n资源描述? ?X【翻译】Kは異なるクラスの個数(元素个数(Mdl.ClassNames))。列の順序はMdl。ClassNames★★★★★★★毗连,毗连,毗连pがクラス? ? ?C(p,q) = 1★★★★★Cを作成します。行p★★★★★★★0? ? ? ? ?

      • 年代【翻译nK? ? ? ?列の順序はMdl。ClassNames★★★★★★★年代【翻译】预测【翻译】

      • W{}}n

      • 成本【中文翻译】KK我的意思是。,成本= 1 (K) - 1眼(K)は,正しい分類のコストとして0を,誤分類のコストとして1を指定します。

    例:“LossFun”、“binodeviance”

    ;字符|字符串|function_handle

    詳細

    すべて折りたたむ

    分類損失

    "分類損失"。複数のモデルで同じタイプの損失を比較した場合,損失が低い方が予測モデルとして優れていることになります。

    整整齐齐,整整齐齐。

    • L:。

    • N,对吗?

      • yj。(1)、(1)、(1)、(1)、一会プロパティの最初のクラスを示す1または2番目のクラスを示す1)を使用して符号化されます。

      • f (Xj),。

      • j= yjf (Xj) ?j。★★★★j。我很喜欢j

    • ;K≥3),。

      • yj*★★★★★★★★★★★★★★★★★★★j1 .。,2番目の観測値の真のクラスが 3 番目のクラスでありK = 4の場合,y2*= [0 0 10] '? ? ? ?クラスの順序は入力モデルの一会

      • f (Xj),,,,,,,,,,,,,,,,,,,,,,,,,スコアの順序は入力モデルの一会

      • j= yj*“f (Xj).我不知道j

    • {} {}j啊哈!中文:中文:中文:中文,中文,中文,中文,中文,中文,中文,中文。また,事前確率は合計が1になるように正規化されます。我的意思是,我的意思是,我的意思是。

      j 1 n w j 1.

    この状況では,名前と値のペアの引数“LossFun”

    損失関数 LossFunの値
    这是一个很好的例子 “binodeviance” l j 1 n w j 日志 { 1 + 经验值 ( 2 j }
    10 .中文:10 .中文 “classiferror”

    l j 1 n w j { y j y j }

    y j ★★★★★★★★★★★★★★★★★★我{·},。

    クロスエントロピー損失 “crossentropy”

    “crossentropy”

    l j 1 n w ˜ j 日志 j K n

    ここで重み w ˜ j (1)、(1)、(1)、(1)、(1)、(1)、(1)、(1)、(1)、(1)、(1)、(1)、(1)、(1)、(2)

    指数損失 “指数” l j 1 n w j 经验值 j
    ヒンジ損失 “枢纽” l j 1 n w j 马克斯 { 0 1 j }
    太好了 分对数的 l j 1 n w j 日志 1 + 经验值 j
    最小予測誤分類コスト “mincost”

    “mincost”★★★★★★★★★★★★★★★★

    英文:j = 1,…nについて使用することにより計算されます。

    1. 観測値Xj

      γ j k f X j C k

      f (Xj)j。C成本

    2. 英文:。

      y j argmin k 1 K γ j k

    3. Cj),,,,,。

    l j 1 n w j c j

    既定のコスト行列(正しい分類の場合の要素値は0,誤った分類の場合の要素値は1)を使用する場合,“mincost”北向北向“classiferror”

    二次損失 “二次” l j 1 n w j 1 j 2

    次の図では1つの観測値のスコアmに対する損失関数(“crossentropy”?“mincost”英文:中文:中文:(0,1)、(0,1)、(0,1)、(0,1)、(0,1)、(0,1)、(0,1)、(0,1)、(0,1)、(0,1)、(0,1)。

    不同损失函数的分类损失比较

    アルゴリズム

    resubLoss【中文翻译】Mdl)(中文损失。モデル固有の説明については、次の表に示す関数损失のリファレンスペ,ジを参照してください。

    モデル 分類モデルオブジェクト(Mdl オブジェクト関数损失
    这是我的梦想 ClassificationGAM 损失
    K ClassificationKNN 损失
    単純ベイズモデル ClassificationNaiveBayes 损失
    ニューラルネットワークモデル ClassificationNeuralNetwork 损失
    1 . ClassificationSVM 损失

    拡張機能

    バージョン履歴

    R2012a