resubLoss
再代入分類損失
説明
例
単純ベイズ分類器の再代入損失の決定
。。
fisheriris
。150 本のアヤメについて 4 つの測定値が含まれる数値行列X
を作成します。中文:中文:细胞Y
を作成します。
负载fisheririsX =平均值;Y =物种;
予測子X
とクラスラベルY
。。fitcnb
。
Mdl = fitcnb(X,Y,“类名”, {“setosa”,“多色的”,“virginica”})
Mdl = ClassificationNaiveBayes ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'setosa' 'versicolor' 'virginica'} ScoreTransform: 'none' NumObservations: 150 DistributionNames: {'normal' 'normal' 'normal' 'normal' 'normal'} DistributionParameters: {3x4 cell}属性,方法
Mdl
【中文】ClassificationNaiveBayes
? ? ?
这是一个很好的例子。
L = resubLoss(Mdl)
L = 0.0400
(4)、(4)、(4)、(4)、(4)
支持向量机分類器の再代入ヒンジ損失の特定
电离层
。【中文译文】,“b”
) 1 .中文:‘g’
) > > > > > > > > > > > > > > > > > > > >
负载电离层
。【翻译】‘g’
。
SVMModel = fitcsvm(X,Y,“类名”, {“b”,‘g’},“标准化”,真正的);
SVMModel
【中文】ClassificationSVM
? ? ?
。
L = resubLoss(SVMModel);“LossFun”,“枢纽”)
L = 0.1603
ヒンジ損失は0.1603
啊哈!分類器のヒンジ損失は 0 に近いことが推奨されます。
分類損失の検査によるGAMの比較
予測子の線形項と交互作用項の両方が格納されている一般化加法モデル(GAM)に学習させて,交互作用項を含む分類損失と含まない分類損失を推定します。。
电离层
。【中文译文】,“b”
) 1 .中文:‘g’
) > > > > > > > > > > > > > > > > > > > >
负载电离层
。1つは学習データを含め、もう 1 つは新しい未観測の検定データを含めます。新しい検定データ セットの 50 件の観測値を保持します。
rng (“默认”)%为了重现性n = size(X,1);newInds = randsample(n,50);inds = ~ismember(1:n,newInds);XNew = X(newInds,:);YNew = Y(newInds);
予測子X
とクラスラベルY
【中文翻译】。10个,10个,10个,10个,10个。
Mdl = fitgam (X(indeds,:),Y(indeds),“类名”, {“b”,‘g’},“互动”, 10)
Mdl = classiationgam ResponseName: 'Y' CategoricalPredictors: [] ClassNames: {'b' 'g'} ScoreTransform: 'logit' Intercept: 2.0026交互:[10x2 double] NumObservations: 301属性,方法
Mdl
はClassificationGAM
。
Mdl
。【中文翻译】“IncludeInteractions”,假的
を指定します。
resubl = resubLoss(Mdl)
Resubl = 0
resubl_nointeraction = resubLoss(Mdl,“IncludeInteractions”假)
Resubl_nointeraction = 0
Mdl
。
l = loss(Mdl,XNew,YNew)
L = 0.0615
l_nointeraction = loss(Mdl,XNew,YNew,“IncludeInteractions”假)
L_nointeraction = 0.0615
【中文翻译】Mdl
。。
入力引数
Mdl
- - - - - -中国日报网2016-10-14
完全な分類モデルオブジェクト
中国日报网2016-10-14。。
モデル | 分類モデルオブジェクト |
---|---|
这是我的梦想 | ClassificationGAM |
K | ClassificationKNN |
単純ベイズモデル | ClassificationNaiveBayes |
ニューラルネットワークモデル | ClassificationNeuralNetwork |
1 . | ClassificationSVM |
名前と値の引数
例:resubLoss (Mdl LossFun,分对数)
。
オプションの名称,值
。名字
【翻译】价值
() () ()名字
。Name1, Value1,…,的家
のように,複数の名前と値のペアの引数を,任意の順番で指定できます。
IncludeInteractions
- - - - - -交互作用項を含むというフラグ
真正的
|假
。真正的
? ?假
として指定します。。★★★★★★★★★★★★★★★Mdl
がClassificationGAM
。
Mdl
に交互作用項が含まれる場合,既定値は真正的
啊哈!モデルに交互作用項が含まれない場合、値は假
でなければなりません。
;逻辑
LossFun
- - - - - -損失関数
“binodeviance”
|“classiferror”
|“crossentropy”
|“指数”
|“枢纽”
|分对数的
|“mincost”
|“二次”
|関数ハンドル
損失関数。。
。。
値 説明 “binodeviance”
这是一个很好的例子 “classiferror”
10 .中文:10 .中文 “crossentropy”
クロスエントロピー損失(ニューラルネットワークの場合のみ) “指数”
指数損失 “枢纽”
ヒンジ損失 分对数的
乙:太好了 “mincost”
英文: “二次”
二次損失 中文:中文:
Mdl
)(中文:)Mdl
がClassificationGAM
、ClassificationNeuralNetwork
? ?ClassificationSVM
オブジェクトである場合,既定値は“classiferror”
啊哈!Mdl
がClassificationKNN
? ?ClassificationNaiveBayes
オブジェクトである場合,既定値は“mincost”
啊哈!
損失関数の詳細については,分類損失。
。中文:。
lossvalue =
lossfun
(C、S、W、成本)出力引数
lossvalue
。関数名 (
lossfun
)。C
はn
行K
逻辑的,逻辑的,逻辑的,逻辑的。n
は资源描述
? ?X
【翻译】K
は異なるクラスの個数(元素个数(Mdl.ClassNames)
)。列の順序はMdl。ClassNames
★★★★★★★毗连,毗连,毗连p
がクラス问
? ? ?C(p,q) = 1
★★★★★C
を作成します。行p
★★★★★★★0
? ? ? ? ?年代
【翻译n
行K
? ? ? ?列の順序はMdl。ClassNames
★★★★★★★年代
【翻译】预测
【翻译】W
{}}n
。成本
【中文翻译】K
行K
我的意思是。,成本= 1 (K) - 1眼(K)
は,正しい分類のコストとして0
を,誤分類のコストとして1
を指定します。
例:“LossFun”、“binodeviance”
;字符
|字符串
|function_handle
詳細
分類損失
"分類損失"。複数のモデルで同じタイプの損失を比較した場合,損失が低い方が予測モデルとして優れていることになります。
整整齐齐,整整齐齐。
L:。
N,对吗?
。
yj。(1)、(1)、(1)、(1)、
一会
プロパティの最初のクラスを示す1または2番目のクラスを示す1)を使用して符号化されます。f (Xj),。
米j= yjf (Xj) ?j。★★★★j。我很喜欢j。
;K≥3),。
yj*★★★★★★★★★★★★★★★★★★★j1 .。,2番目の観測値の真のクラスが 3 番目のクラスでありK = 4の場合,y2*= [0 0 10] '? ? ? ?クラスの順序は入力モデルの
一会
。f (Xj),,,,,,,,,,,,,,,,,,,,,,,,,スコアの順序は入力モデルの
一会
。米j= yj*“f (Xj).我不知道j。
{} {}j啊哈!中文:中文:中文:中文,中文,中文,中文,中文,中文,中文,中文。また,事前確率は合計が1になるように正規化されます。我的意思是,我的意思是,我的意思是。
この状況では,名前と値のペアの引数“LossFun”
。
損失関数 | LossFun の値 |
式 |
---|---|---|
这是一个很好的例子 | “binodeviance” |
|
10 .中文:10 .中文 | “classiferror” |
★★★★★★★★★★★★★★★★★★我{·},。 |
クロスエントロピー損失 | “crossentropy” |
。
ここで重み (1)、(1)、(1)、(1)、(1)、(1)、(1)、(1)、(1)、(1)、(1)、(1)、(1)、(1)、(2) |
指数損失 | “指数” |
|
ヒンジ損失 | “枢纽” |
|
太好了 | 分对数的 |
|
最小予測誤分類コスト | “mincost” |
英文:j = 1,…nについて使用することにより計算されます。
。
既定のコスト行列(正しい分類の場合の要素値は0,誤った分類の場合の要素値は1)を使用する場合, |
二次損失 | “二次” |
次の図では1つの観測値のスコアmに対する損失関数(“crossentropy”
?“mincost”
英文:中文:中文:(0,1)、(0,1)、(0,1)、(0,1)、(0,1)、(0,1)、(0,1)、(0,1)、(0,1)、(0,1)、(0,1)。
アルゴリズム
resubLoss
【中文翻译】Mdl
)(中文损失
。モデル固有の説明については、次の表に示す関数损失
のリファレンスペ,ジを参照してください。
モデル | 分類モデルオブジェクト(Mdl ) |
オブジェクト関数损失 |
---|---|---|
这是我的梦想 | ClassificationGAM |
损失 |
K | ClassificationKNN |
损失 |
単純ベイズモデル | ClassificationNaiveBayes |
损失 |
ニューラルネットワークモデル | ClassificationNeuralNetwork |
损失 |
1 . | ClassificationSVM |
损失 |
拡張機能
Gpu串连
并行计算工具箱™を使用してグラフィックス処理装置(GPU)上で実行することにより,コードを高速化します。
バージョン履歴
Matlab
。
。WebブラウザーはMATLABコマンドをサポートしていません。
你亦可选择下列网址:
如何获得最佳的网站性能
选择中国网站(中文或英文)以获得最佳网站性能。其他MathWorks国家网站没有针对您所在位置的访问进行优化。