主要内容gydF4y2Ba

预测gydF4y2Ba

使用多级分类观察纠错输出编码(ECOC)模型gydF4y2Ba

描述gydF4y2Ba

例子gydF4y2Ba

标签gydF4y2Ba=预测(gydF4y2BaMdlgydF4y2Ba,gydF4y2BaXgydF4y2Ba)gydF4y2Ba返回一个向量的预测类标签(gydF4y2Ba标签gydF4y2Ba)的预测数据表或矩阵gydF4y2BaXgydF4y2Ba基于训练多级纠错输出编码(ECOC)模型gydF4y2BaMdlgydF4y2Ba。训练ECOC模型可以完全或紧凑。gydF4y2Ba

例子gydF4y2Ba

标签gydF4y2Ba=预测(gydF4y2BaMdlgydF4y2Ba,gydF4y2BaXgydF4y2Ba,gydF4y2Ba名称,值gydF4y2Ba)gydF4y2Ba使用附加选项指定一个或多个参数名称-值对。例如,您可以指定后验概率估计方法,解码方案,冗长的水平。gydF4y2Ba

例子gydF4y2Ba

(gydF4y2Ba标签gydF4y2Ba,gydF4y2BaNegLossgydF4y2Ba,gydF4y2BaPBScoregydF4y2Ba)=预测(gydF4y2Ba___gydF4y2Ba)gydF4y2Ba使用任何输入参数组合在前面的语法和另外的回报:gydF4y2Ba

  • 一个否定平均数组gydF4y2Ba二进制的损失gydF4y2Ba(gydF4y2BaNegLossgydF4y2Ba)。为每一个观察gydF4y2BaXgydF4y2Ba,gydF4y2Ba预测gydF4y2Ba分配的标签类产生最大的否定平均二进制损失(或等价,最小的平均二进制损失)。gydF4y2Ba

  • 一个数组positive-class分数(gydF4y2BaPBScoregydF4y2Ba)观察每个二进制分类的学习者。gydF4y2Ba

例子gydF4y2Ba

(gydF4y2Ba标签gydF4y2Ba,gydF4y2BaNegLossgydF4y2Ba,gydF4y2BaPBScoregydF4y2Ba,gydF4y2Ba后gydF4y2Ba)=预测(gydF4y2Ba___gydF4y2Ba)gydF4y2Ba此外返回后类观测概率估计(gydF4y2Ba后gydF4y2Ba)。gydF4y2Ba

获得后验概率类,您必须设置gydF4y2Ba“FitPosterior”,真的gydF4y2Ba当训练ECOC模型使用gydF4y2BafitcecocgydF4y2Ba。否则,gydF4y2Ba预测gydF4y2Ba抛出一个错误。gydF4y2Ba

例子gydF4y2Ba

全部折叠gydF4y2Ba

加载费雪的虹膜数据集。指定预测数据gydF4y2BaXgydF4y2Ba响应数据gydF4y2BaYgydF4y2Ba和类的顺序gydF4y2BaYgydF4y2Ba。gydF4y2Ba

负载gydF4y2BafisheririsgydF4y2BaX =量;Y =分类(物种);classOrder =独特(Y);rng (1);gydF4y2Ba%的再现性gydF4y2Ba

火车一个ECOC模型使用SVM二元分类器。指定一个抵抗30%样本,规范使用SVM预测模板,并指定类订单。gydF4y2Ba

t = templateSVM (gydF4y2Ba“标准化”gydF4y2Ba,真正的);PMdl = fitcecoc (X, Y,gydF4y2Ba“坚持”gydF4y2Ba,0.30,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“类名”gydF4y2Ba,classOrder);Mdl = PMdl.Trained {1};gydF4y2Ba%提取训练,紧凑的分类器gydF4y2Ba

PMdlgydF4y2Ba是一个gydF4y2BaClassificationPartitionedECOCgydF4y2Ba模型。它的属性gydF4y2Ba训练有素的gydF4y2Ba,1×1细胞数组包含gydF4y2BaCompactClassificationECOCgydF4y2Ba使用训练集模型的软件培训。gydF4y2Ba

预测测试样本的标签。真正的和预测的标签打印一个随机子集。gydF4y2Ba

testInds =测试(PMdl.Partition);gydF4y2Ba%提取测试指标gydF4y2BaXTest = X (testInds:);欧美= Y (testInds:);标签=预测(Mdl XTest);idx = randsample (sum (testInds), 10);表(欧美(idx),标签(idx),gydF4y2Ba…gydF4y2Ba“VariableNames”gydF4y2Ba,{gydF4y2Ba“TrueLabels”gydF4y2Ba,gydF4y2Ba“PredictedLabels”gydF4y2Ba})gydF4y2Ba
ans =gydF4y2Ba10×2表gydF4y2BaTrueLabels PredictedLabels __________售予setosa setosa杂色的virginica setosa setosa virginica virginica杂色的杂色的setosa setosa virginica virginica virginica virginica setosa setosa setosa setosagydF4y2Ba

MdlgydF4y2Ba正确的标签除了的一个测试样本的观察指标gydF4y2BaidxgydF4y2Ba。gydF4y2Ba

加载费雪的虹膜数据集。指定预测数据gydF4y2BaXgydF4y2Ba响应数据gydF4y2BaYgydF4y2Ba和类的顺序gydF4y2BaYgydF4y2Ba。gydF4y2Ba

负载gydF4y2BafisheririsgydF4y2BaX =量;Y =分类(物种);classOrder =独特(Y);gydF4y2Ba%课堂秩序gydF4y2Barng (1);gydF4y2Ba%的再现性gydF4y2Ba

火车一个ECOC模型使用SVM二元分类器和指定一个抵抗样本的30%。规范使用SVM预测模板,并指定类订单。gydF4y2Ba

t = templateSVM (gydF4y2Ba“标准化”gydF4y2Ba,真正的);PMdl = fitcecoc (X, Y,gydF4y2Ba“坚持”gydF4y2Ba,0.30,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“类名”gydF4y2Ba,classOrder);Mdl = PMdl.Trained {1};gydF4y2Ba%提取训练,紧凑的分类器gydF4y2Ba

PMdlgydF4y2Ba是一个gydF4y2BaClassificationPartitionedECOCgydF4y2Ba模型。它的属性gydF4y2Ba训练有素的gydF4y2Ba,1×1细胞数组包含gydF4y2BaCompactClassificationECOCgydF4y2Ba使用训练集模型的软件培训。gydF4y2Ba

SVM分数签署了边界距离观测到的决定。因此,gydF4y2Ba (gydF4y2Ba - - - - - -gydF4y2Ba ∞gydF4y2Ba ,gydF4y2Ba ∞gydF4y2Ba )gydF4y2Ba 域。创建一个自定义二进制损失函数,如下:gydF4y2Ba

  • 地图的编码设计矩阵(gydF4y2Ba米gydF4y2Ba)和positive-class分类评分(gydF4y2Ba年代gydF4y2Ba)为每一个学习者为每个观察二进制损失。gydF4y2Ba

  • 使用线性的损失。gydF4y2Ba

  • 总二进制学习者使用中值损失。gydF4y2Ba

您可以创建一个单独的二进制损失函数的函数,然后保存在MATLAB®路径。或者,你可以指定一个匿名二进制损失函数。在这种情况下,创建一个函数处理(gydF4y2BacustomBLgydF4y2Ba)一个匿名二进制损失函数。gydF4y2Ba

customBL = @ (M s)值(1 - bsxfun (@times M s), 2,gydF4y2Ba“omitnan”gydF4y2Ba)/ 2;gydF4y2Ba

预测测试样本标签和估计每个类中位数二进制损失。打印中值负二进制损失每10类随机的一组测试样本观察。gydF4y2Ba

testInds =测试(PMdl.Partition);gydF4y2Ba%提取测试指标gydF4y2BaXTest = X (testInds:);欧美= Y (testInds:);[标签,NegLoss] =预测(Mdl XTest,gydF4y2Ba“BinaryLoss”gydF4y2Ba,customBL);idx = randsample (sum (testInds), 10);classOrdergydF4y2Ba
classOrder =gydF4y2Ba3 x1分类gydF4y2Basetosa杂色的virginicagydF4y2Ba
表(欧美(idx),标签(idx) NegLoss (idx:)gydF4y2Ba“VariableNames”gydF4y2Ba,gydF4y2Ba…gydF4y2Ba{gydF4y2Ba“TrueLabel”gydF4y2Ba,gydF4y2Ba“PredictedLabel”gydF4y2Ba,gydF4y2Ba“NegLoss”gydF4y2Ba})gydF4y2Ba
ans =gydF4y2Ba10×3表gydF4y2Ba_________________________________ TrueLabel PredictedLabel NegLoss __________ * * * setosa杂色的癣virginica 0.18572 1.9878 -3.6735 -1.3316 -0.12335 -0.045018 setosa杂色的0.139 1.9261 -3.5651 virginica virginica -1.5133 -0.38263 0.39594杂色的杂色的-0.8721 0.74774 -1.3756 setosa杂色的0.48384 1.9973 -3.9811 virginica virginica -1.9364 -0.6751 1.1115 virginica virginica -1.579 -0.83337 0.91236 setosa杂色的setosa癣0.36121 2.0595 -3.9207 0.51003 2.1208 -4.1309gydF4y2Ba

列的顺序对应的元素gydF4y2BaclassOrdergydF4y2Ba。软件预测基于最大否定损失的标签。结果表明,中值的线性损失可能不会执行以及其他损失。gydF4y2Ba

火车一个ECOC使用支持向量机分类器的二进制学习者。首先预测推理标签和类的后验概率。然后预测类最大后验概率在网格中每一点。可视化结果。gydF4y2Ba

加载费雪的虹膜数据集。指定花瓣维度作为预测和物种名称作为响应。gydF4y2Ba

负载gydF4y2BafisheririsgydF4y2BaX =量(:,3:4);Y =物种;rng (1);gydF4y2Ba%的再现性gydF4y2Ba

创建一个支持向量机模板。规范预测,并指定高斯内核。gydF4y2Ba

t = templateSVM (gydF4y2Ba“标准化”gydF4y2Ba,真的,gydF4y2Ba“KernelFunction”gydF4y2Ba,gydF4y2Ba“高斯”gydF4y2Ba);gydF4y2Ba

tgydF4y2Ba是一个支持向量机模板。它的大部分属性都是空的。当软件列车ECOC分类器时,它将适用的属性设置为默认值。gydF4y2Ba

训练ECOC使用支持向量机分类器的模板。变换分类分数类返回的后验概率(gydF4y2Ba预测gydF4y2Ba或gydF4y2BaresubPredictgydF4y2Ba)使用gydF4y2Ba“FitPosterior”gydF4y2Ba名称-值对的论点。指定类的顺序使用gydF4y2Ba“类名”gydF4y2Ba名称-值对的论点。利用的训练中显示诊断消息gydF4y2Ba“详细”gydF4y2Ba名称-值对的论点。gydF4y2Ba

Mdl = fitcecoc (X, Y,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“FitPosterior”gydF4y2Ba,真的,gydF4y2Ba…gydF4y2Ba“类名”gydF4y2Ba,{gydF4y2Ba“setosa”gydF4y2Ba,gydF4y2Ba“多色的”gydF4y2Ba,gydF4y2Ba“virginica”gydF4y2Ba},gydF4y2Ba…gydF4y2Ba“详细”gydF4y2Ba2);gydF4y2Ba
培训二进制学习者1 (SVM) 3 50 - 50的积极的观察。-类指数:2积极类指标:1适合学习者的后验概率1(支持向量机)。培训二进制学习者2 (SVM) 3 50 - 50的积极的观察。-类指数:3积极类指标:1适合学习者的后验概率2(支持向量机)。培训二进制学习者3 (SVM) 3 50 - 50的积极的观察。-类指数:3积极类指数:2适合学习者的后验概率3(支持向量机)。gydF4y2Ba

MdlgydF4y2Ba是一个gydF4y2BaClassificationECOCgydF4y2Ba模型。同样的SVM模板适用于每个二进制学习者,但你可以调整选项为每个二进制学习者通过模板向量中的一个细胞。gydF4y2Ba

预测推理标签和类的后验概率。显示诊断消息标签和类的后验概率计算中使用gydF4y2Ba“详细”gydF4y2Ba名称-值对的论点。gydF4y2Ba

[标签,~,~,后]= resubPredict (Mdl,gydF4y2Ba“详细”gydF4y2Ba1);gydF4y2Ba
从所有学习者都计算预测。所有观测已经计算损失。计算后验概率…gydF4y2Ba
Mdl.BinaryLossgydF4y2Ba
ans =“二次”gydF4y2Ba

软件分配到类的观察意见,这使得收益率最小的二进制平均损失。因为所有的二进制学习者计算后验概率,二进制损失函数gydF4y2Ba二次gydF4y2Ba。gydF4y2Ba

显示一组随机的结果。gydF4y2Ba

idx = randsample(大小(X, 1), 10日1);Mdl.ClassNamesgydF4y2Ba
ans =gydF4y2Ba3 x1细胞gydF4y2Ba{' setosa}{“癣”}{' virginica '}gydF4y2Ba
表(Y (idx)、标签(idx)、后(idx:)gydF4y2Ba…gydF4y2Ba“VariableNames”gydF4y2Ba,{gydF4y2Ba“TrueLabel”gydF4y2Ba,gydF4y2Ba“PredLabel”gydF4y2Ba,gydF4y2Ba“后”gydF4y2Ba})gydF4y2Ba
ans =gydF4y2Ba10×3表gydF4y2Ba是_____________ ______________________________________ TrueLabel PredLabel后* * * {‘virginica} {‘virginica} 0.0039322 0.003987 0.99208 {‘virginica} {‘virginica} 0.017067 0.018263 0.96467 {‘virginica} {‘virginica} 0.014948 0.015856 0.9692{“癣”}{“癣”}2.2197 e-14 0.87318 - 0.12682 {‘setosa} {‘setosa} 0.999 0.00025092 0.00074638{“癣”}{‘virginica} 2.2195 e-14 0.05943 - 0.94057{“癣”}{“癣”}2.2194 e-14 0.97001 - 0.029985 {‘setosa} {‘setosa} 0.999 0.00024991 0.0007474{“癣”}{“癣”}0.0085642 0.98259 0.0088487 {‘setosa} {‘setosa} 0.999 0.00025013 0.00074717gydF4y2Ba

的列gydF4y2Ba后gydF4y2Ba对应类的顺序gydF4y2BaMdl.ClassNamesgydF4y2Ba。gydF4y2Ba

定义一个网格的值观察预测空间。预测网格中的每个实例的后验概率。gydF4y2Ba

xMax = max (X);xMin = min (X);x1Pts = linspace (xMin (1) xMax (1));xMax x2Pts = linspace (xMin (2), (2));[x1Grid, x2Grid] = meshgrid (x1Pts x2Pts);[~,~,~,PosteriorRegion] =预测(Mdl, [x1Grid (:), x2Grid (:)));gydF4y2Ba

每个坐标网格,情节各个阶级的后验概率最大的类。gydF4y2Ba

contourf (x1Grid x2Grid,gydF4y2Ba…gydF4y2Ba重塑(max (PosteriorRegion[], 2),大小(x1Grid, 1),大小(x1Grid, 2)));h = colorbar;h.YLabel。字符串=gydF4y2Ba最大后验的gydF4y2Ba;h.YLabel。字形大小= 15;持有gydF4y2Ba在gydF4y2Bagh = gscatter (X (: 1), X (:, 2), Y,gydF4y2Ba“krk”gydF4y2Ba,gydF4y2Ba‘* xd‘gydF4y2Ba8);gh (2)。l我neWidth = 2; gh(3).LineWidth = 2; title(“虹膜花瓣测量和最大后验”gydF4y2Ba)包含(gydF4y2Ba“花瓣长度(厘米)”gydF4y2Ba)ylabel (gydF4y2Ba“花瓣宽度(cm)”gydF4y2Ba)轴gydF4y2Ba紧gydF4y2Ba传奇(gh,gydF4y2Ba“位置”gydF4y2Ba,gydF4y2Ba“西北”gydF4y2Ba)举行gydF4y2Ba从gydF4y2Ba

图包含一个坐标轴对象。坐标轴对象与标题虹膜花瓣测量和最大后验包含4类型的对象轮廓,线。杂色的,这些对象代表setosa virginica。gydF4y2Ba

火车一个多级ECOC使用并行计算模型和估计后验概率。gydF4y2Ba

加载gydF4y2Ba心律失常gydF4y2Ba数据集。检查响应数据gydF4y2BaYgydF4y2Ba,并确定类的数量。gydF4y2Ba

负载gydF4y2Ba心律失常gydF4y2BaY =分类(Y);汇总(Y)gydF4y2Ba
值计算百分比1 245 2 54.20% 44 9.73% 3 15 3.32% 4 15 3.32% 5 13 2.88% 6 25 5.53% 7 3 9 9 8 2 0.44% 0.66% 1.99% 10 50 11.06% 14 4 0.88% 15 5 1.11% 16 4.87%gydF4y2Ba
K =元素个数(独特(Y));gydF4y2Ba

几类不代表数据,和许多其他的课程相对较低的频率。gydF4y2Ba

指定一个整体学习模板使用GentleBoost 50弱分类树方法和学习者。gydF4y2Ba

t = templateEnsemble (gydF4y2Ba“GentleBoost”gydF4y2Ba,50岁,gydF4y2Ba“树”gydF4y2Ba);gydF4y2Ba

tgydF4y2Ba是一个模板对象。它的大部分属性都是空的(gydF4y2Ba[]gydF4y2Ba)。软件使用培训期间所有空属性的默认值。gydF4y2Ba

因为响应变量包含很多类,指定一个稀疏随机编码设计。gydF4y2Ba

rng (1);gydF4y2Ba%的再现性gydF4y2Ba编码= designecoc (K,gydF4y2Ba“sparserandom”gydF4y2Ba);gydF4y2Ba

火车一个ECOC模型使用并行计算。指定一个抵抗15%样本,后验概率。gydF4y2Ba

池= parpool;gydF4y2Ba%调用工人gydF4y2Ba
开始平行池(parpool)使用“本地”概要文件…连接到平行池(工人数量:6)。gydF4y2Ba
选择= statset (gydF4y2Ba“UseParallel”gydF4y2Ba,真正的);PMdl = fitcecoc (X, Y,gydF4y2Ba“学习者”gydF4y2BatgydF4y2Ba“选项”gydF4y2Ba选项,gydF4y2Ba“编码”gydF4y2Ba、编码、gydF4y2Ba…gydF4y2Ba“FitPosterior”gydF4y2Ba,真的,gydF4y2Ba“坚持”gydF4y2Ba,0.15);Mdl = PMdl.Trained {1};gydF4y2Ba%提取训练,紧凑的分类器gydF4y2Ba

PMdlgydF4y2Ba是一个gydF4y2BaClassificationPartitionedECOCgydF4y2Ba模型。它的属性gydF4y2Ba训练有素的gydF4y2Ba,1×1细胞数组包含gydF4y2BaCompactClassificationECOCgydF4y2Ba使用训练集模型的软件培训。gydF4y2Ba

池中调用六个工人,虽然系统中工人的数量可能有所不同。gydF4y2Ba

的后验概率估计后验概率,并显示被归类为没有心律失常(第1类)给定一个随机的数据组测试样本的观察。gydF4y2Ba

testInds =测试(PMdl.Partition);gydF4y2Ba%提取测试指标gydF4y2BaXTest = X (testInds:);欧美= Y (testInds:);[~,~,~,后]=预测(Mdl XTest,gydF4y2Ba“选项”gydF4y2Ba、选择);idx = randsample (sum (testInds), 10);表(idx,欧美(idx)、后(idx, 1),gydF4y2Ba…gydF4y2Ba“VariableNames”gydF4y2Ba,{gydF4y2Ba“TestSampleIndex”gydF4y2Ba,gydF4y2Ba“TrueLabel”gydF4y2Ba,gydF4y2Ba“PosteriorNoArrhythmia”gydF4y2Ba})gydF4y2Ba
ans =gydF4y2Ba10×3表gydF4y2BaTestSampleIndex TrueLabel PosteriorNoArrhythmia售予_____ _____________________ 11 6 0.60631 41 4 0.23674 51 2 0.13802 33 10 12 1 0.94332 0.43831 0.96876 8 1 0.97278 37 1 0.62807 24 10 56 16 0.29375 30 1 0.64512gydF4y2Ba

输入参数gydF4y2Ba

全部折叠gydF4y2Ba

全部或紧凑的多级ECOC模型,指定为一个gydF4y2BaClassificationECOCgydF4y2Ba或gydF4y2BaCompactClassificationECOCgydF4y2Ba模型对象。gydF4y2Ba

创建一个完整的或紧凑ECOC模型中,看到的gydF4y2BaClassificationECOCgydF4y2Ba或gydF4y2BaCompactClassificationECOCgydF4y2Ba。gydF4y2Ba

预测数据分类,指定为一个数字矩阵或表。gydF4y2Ba

默认情况下,每一行gydF4y2BaXgydF4y2Ba对应于一个观察,每一列对应一个变量。gydF4y2Ba

  • 一个数字矩阵:gydF4y2Ba

    • 的变量构成的列gydF4y2BaXgydF4y2Ba必须有相同的订单预测变量的火车吗gydF4y2BaMdlgydF4y2Ba。gydF4y2Ba

    • 如果你训练gydF4y2BaMdlgydF4y2Ba使用一个表(例如,gydF4y2Ba资源描述gydF4y2Ba),然后gydF4y2BaXgydF4y2Ba可以是一个数字矩阵如果gydF4y2Ba资源描述gydF4y2Ba包含所有数值预测变量。将数值预测gydF4y2Ba资源描述gydF4y2Ba分类在训练、识别分类预测使用gydF4y2BaCategoricalPredictorsgydF4y2Ba名称-值对的观点gydF4y2BafitcecocgydF4y2Ba。如果gydF4y2Ba资源描述gydF4y2Ba包含了异构预测变量(例如,数字和分类数据类型)gydF4y2BaXgydF4y2Ba是一个数字矩阵,然后呢gydF4y2Ba预测gydF4y2Ba抛出一个错误。gydF4y2Ba

  • 一个表:gydF4y2Ba

    • 预测gydF4y2Ba不支持多列变量或细金宝app胞数组以外的细胞阵列的特征向量。gydF4y2Ba

    • 如果你训练gydF4y2BaMdlgydF4y2Ba使用一个表(例如,gydF4y2Ba资源描述gydF4y2Ba),那么所有的预测变量gydF4y2BaXgydF4y2Ba必须有相同的变量名和数据类型作为预测变量的火车吗gydF4y2BaMdlgydF4y2Ba(存储在gydF4y2BaMdl.PredictorNamesgydF4y2Ba)。然而,列的顺序gydF4y2BaXgydF4y2Ba不需要对应的列顺序gydF4y2Ba资源描述gydF4y2Ba。这两个gydF4y2Ba资源描述gydF4y2Ba和gydF4y2BaXgydF4y2Ba可以包含额外的变量(响应变量,观察体重、等等),但gydF4y2Ba预测gydF4y2Ba忽略了它们。gydF4y2Ba

    • 如果你训练gydF4y2BaMdlgydF4y2Ba使用一个数字矩阵,然后预测名称gydF4y2BaMdl.PredictorNamesgydF4y2Ba和相应的预测变量名称gydF4y2BaXgydF4y2Ba必须相同。指定预测名称在训练,看到gydF4y2BaPredictorNamesgydF4y2Ba名称-值对的观点gydF4y2BafitcecocgydF4y2Ba。所有的预测变量gydF4y2BaXgydF4y2Ba必须是数值向量。gydF4y2BaXgydF4y2Ba可以包含额外的变量(响应变量,观察体重、等等),但gydF4y2Ba预测gydF4y2Ba忽略了它们。gydF4y2Ba

请注意gydF4y2Ba

如果gydF4y2BaMdl.BinaryLearnersgydF4y2Ba包含线性分类模型(gydF4y2BaClassificationLineargydF4y2Ba),然后你可以东方预测矩阵,以便观察并指定对应列gydF4y2Ba“ObservationsIn”、“列”gydF4y2Ba。然而,您不能指定gydF4y2Ba“ObservationsIn”、“列”gydF4y2Ba预测数据表。gydF4y2Ba

当训练gydF4y2BaMdlgydF4y2Ba假设您设置gydF4y2Ba“标准化”,真的gydF4y2Ba模板中指定的对象gydF4y2Ba“学习者”gydF4y2Ba名称-值对的观点gydF4y2BafitcecocgydF4y2Ba。在这种情况下,对相应的二进制学习者gydF4y2BajgydF4y2Ba,软件标准化的列新的预测数据使用中相应的方法gydF4y2BaMdl.BinaryLearner {j} .MugydF4y2Ba和标准偏差gydF4y2BaMdl.BinaryLearner {j} .SigmagydF4y2Ba。gydF4y2Ba

数据类型:gydF4y2Ba表gydF4y2Ba|gydF4y2Ba双gydF4y2Ba|gydF4y2Ba单gydF4y2Ba

名称-值参数gydF4y2Ba

指定可选的逗号分隔条gydF4y2Ba名称,值gydF4y2Ba参数。gydF4y2Ba的名字gydF4y2Ba参数名称和吗gydF4y2Ba价值gydF4y2Ba相应的价值。gydF4y2Ba的名字gydF4y2Ba必须出现在引号。您可以指定几个名称和值对参数在任何顺序gydF4y2BaName1, Value1,…,的家gydF4y2Ba。gydF4y2Ba

例子:gydF4y2Ba预测(Mdl X,“BinaryLoss”,“二次”,“解码”,“lossbased”)gydF4y2Ba指定二进制学习者二次损失函数,通过解码方案聚合二进制损失。gydF4y2Ba

二进制学习者损失函数,指定为逗号分隔组成的gydF4y2Ba“BinaryLoss”gydF4y2Ba和一个内置的损失函数名或函数句柄。gydF4y2Ba

  • 此表描述了内置函数,gydF4y2BaygydF4y2BajgydF4y2Ba是一个类标签特定二进制学习者(集合{1 1 0}),gydF4y2Ba年代gydF4y2BajgydF4y2Ba观察分数吗gydF4y2BajgydF4y2Ba,gydF4y2BaggydF4y2Ba(gydF4y2BaygydF4y2BajgydF4y2Ba,gydF4y2Ba年代gydF4y2BajgydF4y2Ba)是二进制损失公式。gydF4y2Ba

    价值gydF4y2Ba 描述gydF4y2Ba 分数域gydF4y2Ba ggydF4y2Ba(gydF4y2BaygydF4y2BajgydF4y2Ba,gydF4y2Ba年代gydF4y2BajgydF4y2Ba)gydF4y2Ba
    “binodeviance”gydF4y2Ba 二项异常gydF4y2Ba (-∞∞)gydF4y2Ba 日志(1 + exp (2gydF4y2BaygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba
    “指数”gydF4y2Ba 指数gydF4y2Ba (-∞∞)gydF4y2Ba exp (-gydF4y2BaygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba)/ 2gydF4y2Ba
    “汉明”gydF4y2Ba 汉明gydF4y2Ba [0,1]或(-∞,∞)gydF4y2Ba [1 -符号(gydF4y2BaygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba)/ 2gydF4y2Ba
    “枢纽”gydF4y2Ba 铰链gydF4y2Ba (-∞∞)gydF4y2Ba 马克斯(0,1 -gydF4y2BaygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba)/ 2gydF4y2Ba
    “线性”gydF4y2Ba 线性gydF4y2Ba (-∞∞)gydF4y2Ba (1 -gydF4y2BaygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba)/ 2gydF4y2Ba
    分对数的gydF4y2Ba 物流gydF4y2Ba (-∞∞)gydF4y2Ba 日志[1 + exp (-gydF4y2BaygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba
    “二次”gydF4y2Ba 二次gydF4y2Ba [0,1]gydF4y2Ba (1 -gydF4y2BaygydF4y2BajgydF4y2Ba(2gydF4y2Ba年代gydF4y2BajgydF4y2Ba- 1))gydF4y2Ba2gydF4y2Ba/ 2gydF4y2Ba

    软件可实现二进制损失,损失是0.5时gydF4y2BaygydF4y2BajgydF4y2Ba= 0。此外,软件计算意味着对每个类的二进制损失。gydF4y2Ba

  • 例如,为一个自定义的二进制损失函数gydF4y2BacustomFunctiongydF4y2Ba,为其指定一个函数处理gydF4y2BaBinaryLoss, @customFunctiongydF4y2Ba。gydF4y2Ba

    customFunctiongydF4y2Ba这种形式:gydF4y2Ba

    布劳斯= customFunction (M s)gydF4y2Ba
    地点:gydF4y2Ba

    • 米gydF4y2Ba是gydF4y2BaKgydF4y2Ba——- - - - - -gydF4y2BalgydF4y2Ba编码矩阵存储在gydF4y2BaMdl.CodingMatrixgydF4y2Ba。gydF4y2Ba

    • 年代gydF4y2Ba是1 -gydF4y2BalgydF4y2Ba行向量分类的分数。gydF4y2Ba

    • 布劳斯gydF4y2Ba是损失的分类。这个标量骨料二进制损失为每一个学习者在一个特定的类。例如,您可以使用意味着二进制损失总损失超过学习者对于每个类。gydF4y2Ba

    • KgydF4y2Ba类的数量。gydF4y2Ba

    • lgydF4y2Ba是二进制学习者的数量。gydF4y2Ba

    为通过一个自定义的二进制损失函数的一个例子,看看gydF4y2Ba预测ECOC模型的测试样本标签使用自定义二进制损失函数gydF4y2Ba。gydF4y2Ba

默认的gydF4y2BaBinaryLossgydF4y2Ba返回的值取决于分数范围二进制学习者。此表描述了一些默认的gydF4y2BaBinaryLossgydF4y2Ba基于给定的假设值。gydF4y2Ba

假设gydF4y2Ba 默认值gydF4y2Ba
所有二进制学习者SVM或线性或内核分类的支持向量机模型的学习者。gydF4y2Ba “枢纽”gydF4y2Ba
所有二进制学习者乐团训练gydF4y2BaAdaboostM1gydF4y2Ba或gydF4y2BaGentleBoostgydF4y2Ba。gydF4y2Ba “指数”gydF4y2Ba
所有二进制学习者乐团训练gydF4y2BaLogitBoostgydF4y2Ba。gydF4y2Ba “binodeviance”gydF4y2Ba
所有二进制学习者是线性或内核分类logistic回归模型的学习者。或者,你指定预测类的后验概率通过设置gydF4y2Ba“FitPosterior”,真的gydF4y2Ba在gydF4y2BafitcecocgydF4y2Ba。gydF4y2Ba “二次”gydF4y2Ba

检查默认值,使用点符号显示gydF4y2BaBinaryLossgydF4y2Ba在命令行属性的训练模型。gydF4y2Ba

例子:gydF4y2Ba“BinaryLoss”、“binodeviance”gydF4y2Ba

数据类型:gydF4y2Ba字符gydF4y2Ba|gydF4y2Ba字符串gydF4y2Ba|gydF4y2Bafunction_handlegydF4y2Ba

解码方案,骨料二进制损失,指定为逗号分隔组成的gydF4y2Ba“解码”gydF4y2Ba和gydF4y2Ba“lossweighted”gydF4y2Ba或gydF4y2Ba“lossbased”gydF4y2Ba。有关更多信息,请参见gydF4y2Ba二元损失gydF4y2Ba。gydF4y2Ba

例子:gydF4y2Ba“解码”、“lossbased”gydF4y2Ba

数量的随机初始值拟合后验概率Kullback-Leibler分歧最小化,指定为逗号分隔组成的gydF4y2Ba“NumKLInitializations”gydF4y2Ba和一个非负整数标量。gydF4y2Ba

如果你不要求第四输出参数(gydF4y2Ba后gydF4y2Ba)和组gydF4y2Ba“PosteriorMethod”、“kl的gydF4y2Ba(默认),则软件忽略的价值gydF4y2BaNumKLInitializationsgydF4y2Ba。gydF4y2Ba

更多细节,请参阅gydF4y2Ba后估计使用Kullback-Leibler散度gydF4y2Ba。gydF4y2Ba

例子:gydF4y2Ba“NumKLInitializations”, 5gydF4y2Ba

数据类型:gydF4y2Ba单gydF4y2Ba|gydF4y2Ba双gydF4y2Ba

预测数据观察维度,指定为逗号分隔组成的gydF4y2Ba“ObservationsIn”gydF4y2Ba和gydF4y2Ba“列”gydF4y2Ba或gydF4y2Ba“行”gydF4y2Ba。gydF4y2BaMdl.BinaryLearnersgydF4y2Ba必须包含gydF4y2BaClassificationLineargydF4y2Ba模型。gydF4y2Ba

请注意gydF4y2Ba

如果你东方预测矩阵,以便观察并指定对应列gydF4y2Ba“ObservationsIn”、“列”gydF4y2Ba,你可以体验显著减少执行时间。你不能指定gydF4y2Ba“ObservationsIn”、“列”gydF4y2Ba预测数据表。gydF4y2Ba

估计选项,指定为逗号分隔组成的gydF4y2Ba“选项”gydF4y2Ba和一个结构数组返回gydF4y2BastatsetgydF4y2Ba。gydF4y2Ba

调用并行计算:gydF4y2Ba

  • 你需要一个并行计算工具箱™许可证。gydF4y2Ba

  • 指定gydF4y2Ba“选项”,statset (UseParallel,真的)gydF4y2Ba。gydF4y2Ba

后验概率估计方法,指定为逗号分隔组成的gydF4y2Ba“PosteriorMethod”gydF4y2Ba和gydF4y2Ba“吉隆坡”gydF4y2Ba或gydF4y2Ba“qp”gydF4y2Ba。gydF4y2Ba

  • 如果gydF4y2BaPosteriorMethodgydF4y2Ba是gydF4y2Ba“吉隆坡”gydF4y2Ba多级,那么软件估计后验概率通过最小化之间的Kullback-Leibler散度预测,预计返回的后验概率二进制学习者。有关详细信息,请参见gydF4y2Ba后估计使用Kullback-Leibler散度gydF4y2Ba。gydF4y2Ba

  • 如果gydF4y2BaPosteriorMethodgydF4y2Ba是gydF4y2Ba“qp”gydF4y2Ba多级,那么软件估计后验概率,利用二次规划求解最小二乘问题。您需要一个优化工具箱™许可使用该选项。有关详细信息,请参见gydF4y2Ba使用二次规划后评估gydF4y2Ba。gydF4y2Ba

  • 如果你不要求第四输出参数(gydF4y2Ba后gydF4y2Ba),然后软件忽略的价值gydF4y2BaPosteriorMethodgydF4y2Ba。gydF4y2Ba

例子:gydF4y2Ba“PosteriorMethod”、“qp”gydF4y2Ba

冗长的层面上,指定为逗号分隔组成的gydF4y2Ba“详细”gydF4y2Ba和gydF4y2Ba0gydF4y2Ba或gydF4y2Ba1gydF4y2Ba。gydF4y2Ba详细的gydF4y2Ba控制软件的诊断消息数量显示在命令窗口。gydF4y2Ba

如果gydF4y2Ba详细的gydF4y2Ba是gydF4y2Ba0gydF4y2Ba,那么软件不显示诊断消息。否则,软件显示诊断消息。gydF4y2Ba

例子:gydF4y2Ba“详细”,1gydF4y2Ba

数据类型:gydF4y2Ba单gydF4y2Ba|gydF4y2Ba双gydF4y2Ba

输出参数gydF4y2Ba

全部折叠gydF4y2Ba

预测类标签,分类,返回字符,逻辑,或数字数组,或单元阵列的特征向量。软件预测的分类观察到指定类的观察产生最大的否定平均二进制损失(或等价,最小的平均二进制损失)。gydF4y2Ba

标签gydF4y2Ba具有相同的数据类型的类标签用于火车gydF4y2BaMdlgydF4y2Ba和有相同数量的行gydF4y2BaXgydF4y2Ba。gydF4y2Ba(软件对字符串数组作为细胞阵列特征向量)。gydF4y2Ba

如果gydF4y2BaMdl.BinaryLearnersgydF4y2Ba包含gydF4y2BaClassificationLineargydF4y2Ba模型,然后gydF4y2Ba标签gydF4y2Ba是一个gydF4y2Ba米gydF4y2Ba——- - - - - -gydF4y2BalgydF4y2Ba矩阵,gydF4y2Ba米gydF4y2Ba观察的数量吗gydF4y2BaXgydF4y2Ba,gydF4y2BalgydF4y2Ba是正规化的数量优势的线性分类模型(gydF4y2Ba元素个数(Mdl.BinaryLearners {1} .Lambda)gydF4y2Ba)。的值gydF4y2Ba标签(i, j)gydF4y2Ba预测的观察标签吗gydF4y2Ba我gydF4y2Ba使用正则化模型的训练强度gydF4y2BaMdl.BinaryLearners {1} .Lambda (j)gydF4y2Ba。gydF4y2Ba

否则,gydF4y2Ba标签gydF4y2Ba是一个列向量的长度gydF4y2Ba米gydF4y2Ba。gydF4y2Ba

否定平均gydF4y2Ba二进制的损失gydF4y2Ba,作为一个数字矩阵或数组返回。gydF4y2Ba

  • 如果gydF4y2BaMdl.BinaryLearnersgydF4y2Ba包含gydF4y2BaClassificationLineargydF4y2Ba模型,然后gydF4y2BaNegLossgydF4y2Ba是一个gydF4y2Ba米gydF4y2Ba——- - - - - -gydF4y2BaKgydF4y2Ba——- - - - - -gydF4y2BalgydF4y2Ba数组中。gydF4y2Ba

    • 米gydF4y2Ba观察的数量吗gydF4y2BaXgydF4y2Ba。gydF4y2Ba

    • KgydF4y2Ba不同的类的数目在训练数据(gydF4y2Ba元素个数(Mdl.ClassNames)gydF4y2Ba)。gydF4y2Ba

    • lgydF4y2Ba是正规化的数量优势的线性分类模型(gydF4y2Ba元素个数(Mdl.BinaryLearners {1} .Lambda)gydF4y2Ba)。gydF4y2Ba

    NegLoss (k, j)gydF4y2Ba观察否定平均二进制损失吗gydF4y2Ba我gydF4y2Ba,对应于类gydF4y2BaMdl.ClassNames (k)gydF4y2Ba为模型,使用正则化的力量训练gydF4y2BaMdl.BinaryLearners {1} .Lambda (j)gydF4y2Ba。gydF4y2Ba

  • 否则,gydF4y2BaNegLossgydF4y2Ba是一个gydF4y2Ba米gydF4y2Ba——- - - - - -gydF4y2BaKgydF4y2Ba矩阵。gydF4y2Ba

Positive-class分数为每个二进制学习者,作为一个数字矩阵或数组返回。gydF4y2Ba

  • 如果gydF4y2BaMdl.BinaryLearnersgydF4y2Ba包含gydF4y2BaClassificationLineargydF4y2Ba模型,然后gydF4y2BaPBScoregydF4y2Ba是一个gydF4y2Ba米gydF4y2Ba——- - - - - -gydF4y2BaBgydF4y2Ba——- - - - - -gydF4y2BalgydF4y2Ba数组中。gydF4y2Ba

    • 米gydF4y2Ba观察的数量吗gydF4y2BaXgydF4y2Ba。gydF4y2Ba

    • BgydF4y2Ba是二进制学习者的数量(gydF4y2Ba元素个数(Mdl.BinaryLearners)gydF4y2Ba)。gydF4y2Ba

    • lgydF4y2Ba是正规化的数量优势的线性分类模型(gydF4y2Ba元素个数(Mdl.BinaryLearners {1} .Lambda)gydF4y2Ba)。gydF4y2Ba

    PBScore(我,b, j)gydF4y2Ba观察positive-class分数吗gydF4y2Ba我gydF4y2Ba使用二进制学习者gydF4y2BabgydF4y2Ba为模型,使用正则化的力量训练gydF4y2BaMdl.BinaryLearners {1} .Lambda (j)gydF4y2Ba。gydF4y2Ba

  • 否则,gydF4y2BaPBScoregydF4y2Ba是一个gydF4y2Ba米gydF4y2Ba——- - - - - -gydF4y2BaBgydF4y2Ba矩阵。gydF4y2Ba

后类概率,作为一个数字矩阵或数组返回。gydF4y2Ba

  • 如果gydF4y2BaMdl.BinaryLearnersgydF4y2Ba包含gydF4y2BaClassificationLineargydF4y2Ba模型,然后gydF4y2Ba后gydF4y2Ba是一个gydF4y2Ba米gydF4y2Ba——- - - - - -gydF4y2BaKgydF4y2Ba——- - - - - -gydF4y2BalgydF4y2Ba数组中。维度的定义,请参阅gydF4y2BaNegLossgydF4y2Ba。gydF4y2Ba后(k, j)gydF4y2Ba是观察的后验概率gydF4y2Ba我gydF4y2Ba来自类gydF4y2BaMdl.ClassNames (k)gydF4y2Ba为模型,使用正则化的力量训练gydF4y2BaMdl.BinaryLearners {1} .Lambda (j)gydF4y2Ba。gydF4y2Ba

  • 否则,gydF4y2Ba后gydF4y2Ba是一个gydF4y2Ba米gydF4y2Ba——- - - - - -gydF4y2BaKgydF4y2Ba矩阵。gydF4y2Ba

更多关于gydF4y2Ba

全部折叠gydF4y2Ba

二元损失gydF4y2Ba

一个gydF4y2Ba二元损失gydF4y2Ba是一个函数的类和分类分数决定一个二进制学习者如何将一个观察分为类。gydF4y2Ba

假设如下:gydF4y2Ba

  • 米gydF4y2BakjgydF4y2Ba是元素(gydF4y2BakgydF4y2Ba,gydF4y2BajgydF4y2Ba)的编码设计矩阵gydF4y2Ba米gydF4y2Ba(即对应类的代码gydF4y2BakgydF4y2Ba二进制的学习者gydF4y2BajgydF4y2Ba)。gydF4y2Ba

  • 年代gydF4y2BajgydF4y2Ba是二进制学习者的成绩吗gydF4y2BajgydF4y2Ba对于一个观察。gydF4y2Ba

  • ggydF4y2Ba是二进制损失函数。gydF4y2Ba

  • kgydF4y2Ba ^gydF4y2Ba 是预测类的观察。gydF4y2Ba

在gydF4y2Ba通过解码gydF4y2Ba(Escalera等。)gydF4y2Ba,类生产的最低和二进制损失在二进制学习者确定预测类的观察,也就是说,gydF4y2Ba

kgydF4y2Ba ^gydF4y2Ba =gydF4y2Ba argmingydF4y2Ba kgydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba |gydF4y2Ba ggydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba ,gydF4y2Ba 年代gydF4y2Ba jgydF4y2Ba )gydF4y2Ba 。gydF4y2Ba

在gydF4y2Baloss-weighted解码gydF4y2Ba(Escalera等。)gydF4y2Ba,类生产的最小平均二进制损失在二进制学习者确定预测类的观察,也就是说,gydF4y2Ba

kgydF4y2Ba ^gydF4y2Ba =gydF4y2Ba argmingydF4y2Ba kgydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba |gydF4y2Ba ggydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba ,gydF4y2Ba 年代gydF4y2Ba jgydF4y2Ba )gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba |gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba |gydF4y2Ba 。gydF4y2Ba

Allwein et al。gydF4y2Ba表明loss-weighted解码,从而提高分类精度保持所有类损失值在相同的动态范围。gydF4y2Ba

这表总结了损失函数,支持金宝appgydF4y2BaygydF4y2BajgydF4y2Ba是一个类标签特定二进制学习者(集合{1 1 0}),gydF4y2Ba年代gydF4y2BajgydF4y2Ba观察分数吗gydF4y2BajgydF4y2Ba,gydF4y2BaggydF4y2Ba(gydF4y2BaygydF4y2BajgydF4y2Ba,gydF4y2Ba年代gydF4y2BajgydF4y2Ba)。gydF4y2Ba

价值gydF4y2Ba 描述gydF4y2Ba 分数域gydF4y2Ba ggydF4y2Ba(gydF4y2BaygydF4y2BajgydF4y2Ba,gydF4y2Ba年代gydF4y2BajgydF4y2Ba)gydF4y2Ba
“binodeviance”gydF4y2Ba 二项异常gydF4y2Ba (-∞∞)gydF4y2Ba 日志(1 + exp (2gydF4y2BaygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba
“指数”gydF4y2Ba 指数gydF4y2Ba (-∞∞)gydF4y2Ba exp (-gydF4y2BaygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba)/ 2gydF4y2Ba
“汉明”gydF4y2Ba 汉明gydF4y2Ba [0,1]或(-∞,∞)gydF4y2Ba [1 -符号(gydF4y2BaygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba)/ 2gydF4y2Ba
“枢纽”gydF4y2Ba 铰链gydF4y2Ba (-∞∞)gydF4y2Ba 马克斯(0,1 -gydF4y2BaygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba)/ 2gydF4y2Ba
“线性”gydF4y2Ba 线性gydF4y2Ba (-∞∞)gydF4y2Ba (1 -gydF4y2BaygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba)/ 2gydF4y2Ba
分对数的gydF4y2Ba 物流gydF4y2Ba (-∞∞)gydF4y2Ba 日志[1 + exp (-gydF4y2BaygydF4y2BajgydF4y2Ba年代gydF4y2BajgydF4y2Ba日志(2)])]/ [2gydF4y2Ba
“二次”gydF4y2Ba 二次gydF4y2Ba [0,1]gydF4y2Ba (1 -gydF4y2BaygydF4y2BajgydF4y2Ba(2gydF4y2Ba年代gydF4y2BajgydF4y2Ba- 1))gydF4y2Ba2gydF4y2Ba/ 2gydF4y2Ba

软件可实现二进制损失,损失是0.5时gydF4y2BaygydF4y2BajgydF4y2Ba= 0,骨料使用二进制的平均值的学习者gydF4y2Ba(Allwein等。)gydF4y2Ba。gydF4y2Ba

请不要将二进制损失与整体分类损失(指定的吗gydF4y2Ba“LossFun”gydF4y2Ba名称-值对论点的gydF4y2Ba损失gydF4y2Ba和gydF4y2Ba预测gydF4y2Ba对象函数),该措施如何ECOC分类器性能作为一个整体。gydF4y2Ba

算法gydF4y2Ba

全部折叠gydF4y2Ba

软件可以通过最小化估计类的后验概率Kullback-Leibler散度或使用二次规划。以下的描述后验估计算法,假设:gydF4y2Ba

  • 米gydF4y2BakjgydF4y2Ba是元素(gydF4y2BakgydF4y2Ba,gydF4y2BajgydF4y2Ba)的编码设计矩阵gydF4y2Ba米gydF4y2Ba。gydF4y2Ba

  • 我gydF4y2Ba指标函数。gydF4y2Ba

  • pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba 类的后验概率估计类吗gydF4y2BakgydF4y2Ba的观察,gydF4y2BakgydF4y2Ba= 1,…,gydF4y2BaKgydF4y2Ba。gydF4y2Ba

  • rgydF4y2BajgydF4y2Ba是positive-class后验概率为二进制学习者gydF4y2BajgydF4y2Ba。也就是说,gydF4y2BargydF4y2BajgydF4y2Ba的概率是二进制的学习者gydF4y2BajgydF4y2Ba将一个观察分为积极的类,给定的训练数据。gydF4y2Ba

后估计使用Kullback-Leibler散度gydF4y2Ba

默认情况下,软件最小化Kullback-Leibler散度估计类的后验概率。Kullback-Leibler预期之间的分歧和观察positive-class后验概率gydF4y2Ba

ΔgydF4y2Ba (gydF4y2Ba rgydF4y2Ba ,gydF4y2Ba rgydF4y2Ba ^gydF4y2Ba )gydF4y2Ba =gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba wgydF4y2Ba jgydF4y2Ba (gydF4y2Ba rgydF4y2Ba jgydF4y2Ba 日志gydF4y2Ba rgydF4y2Ba jgydF4y2Ba rgydF4y2Ba ^gydF4y2Ba jgydF4y2Ba +gydF4y2Ba (gydF4y2Ba 1gydF4y2Ba −gydF4y2Ba rgydF4y2Ba jgydF4y2Ba )gydF4y2Ba 日志gydF4y2Ba 1gydF4y2Ba −gydF4y2Ba rgydF4y2Ba jgydF4y2Ba 1gydF4y2Ba −gydF4y2Ba rgydF4y2Ba ^gydF4y2Ba jgydF4y2Ba ]gydF4y2Ba ,gydF4y2Ba

在哪里gydF4y2Ba wgydF4y2Ba jgydF4y2Ba =gydF4y2Ba ∑gydF4y2Ba 年代gydF4y2Ba jgydF4y2Ba wgydF4y2Ba 我gydF4y2Ba ∗gydF4y2Ba 是二进制学习者的重量吗gydF4y2BajgydF4y2Ba。gydF4y2Ba

  • 年代gydF4y2BajgydF4y2Ba是一组二进制学习者的观察指标gydF4y2BajgydF4y2Ba是训练有素的。gydF4y2Ba

  • wgydF4y2Ba 我gydF4y2Ba ∗gydF4y2Ba 观察的重量吗gydF4y2Ba我gydF4y2Ba。gydF4y2Ba

软件最小化迭代发散。第一步是选择初始值gydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba 0gydF4y2Ba )gydF4y2Ba ;gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba …gydF4y2Ba ,gydF4y2Ba KgydF4y2Ba 类的后验概率。gydF4y2Ba

  • 如果你不指定gydF4y2Ba“NumKLIterations”gydF4y2Ba,那么软件试下描述两组确定的初始值,并选择最小化Δ的集合。gydF4y2Ba

    • pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba 0gydF4y2Ba )gydF4y2Ba =gydF4y2Ba 1gydF4y2Ba /gydF4y2Ba KgydF4y2Ba ;gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba …gydF4y2Ba ,gydF4y2Ba KgydF4y2Ba 。gydF4y2Ba

    • pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba 0gydF4y2Ba )gydF4y2Ba ;gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba …gydF4y2Ba ,gydF4y2Ba KgydF4y2Ba 系统的解决方案吗gydF4y2Ba

      米gydF4y2Ba 01gydF4y2Ba pgydF4y2Ba ^gydF4y2Ba (gydF4y2Ba 0gydF4y2Ba )gydF4y2Ba =gydF4y2Ba rgydF4y2Ba ,gydF4y2Ba

      在哪里gydF4y2Ba米gydF4y2Ba01gydF4y2Ba是gydF4y2Ba米gydF4y2Ba与所有gydF4y2Ba米gydF4y2BakjgydF4y2Ba= 1替换为0,gydF4y2BargydF4y2Ba返回的是一个向量的positive-class后验概率gydF4y2BalgydF4y2Ba二进制学习者gydF4y2Ba(Dietterich等。)gydF4y2Ba。软件使用gydF4y2BalsqnonneggydF4y2Ba解决系统。gydF4y2Ba

  • 如果您指定gydF4y2Ba“NumKLIterations”, cgydF4y2Ba,在那里gydF4y2BacgydF4y2Ba是一个自然数,那么以下选择的一组软件呢gydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba 0gydF4y2Ba )gydF4y2Ba ;gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba …gydF4y2Ba ,gydF4y2Ba KgydF4y2Ba ,并选择最小化Δ的集合。gydF4y2Ba

    • 软件试两组确定的初始值如前所述。gydF4y2Ba

    • 软件随机生成gydF4y2BacgydF4y2Ba向量的长度gydF4y2BaKgydF4y2Ba使用gydF4y2Ba兰德gydF4y2Ba,然后纠正每个向量之和为1。gydF4y2Ba

在迭代gydF4y2BatgydF4y2Ba软件完成以下步骤:gydF4y2Ba

  1. 计算gydF4y2Ba

    rgydF4y2Ba ^gydF4y2Ba jgydF4y2Ba (gydF4y2Ba tgydF4y2Ba )gydF4y2Ba =gydF4y2Ba ∑gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba KgydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba tgydF4y2Ba )gydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba ∑gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba KgydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba tgydF4y2Ba )gydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba ∪gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba 。gydF4y2Ba

  2. 估计下一个类使用的后验概率gydF4y2Ba

    pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba tgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba =gydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba tgydF4y2Ba )gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba wgydF4y2Ba jgydF4y2Ba (gydF4y2Ba rgydF4y2Ba jgydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba +gydF4y2Ba (gydF4y2Ba 1gydF4y2Ba −gydF4y2Ba rgydF4y2Ba jgydF4y2Ba )gydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba ]gydF4y2Ba ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba wgydF4y2Ba jgydF4y2Ba (gydF4y2Ba rgydF4y2Ba ^gydF4y2Ba jgydF4y2Ba (gydF4y2Ba tgydF4y2Ba )gydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba +gydF4y2Ba (gydF4y2Ba 1gydF4y2Ba −gydF4y2Ba rgydF4y2Ba ^gydF4y2Ba jgydF4y2Ba (gydF4y2Ba tgydF4y2Ba )gydF4y2Ba )gydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba ]gydF4y2Ba 。gydF4y2Ba

  3. 正常化gydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (gydF4y2Ba tgydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba ;gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba ,gydF4y2Ba …gydF4y2Ba ,gydF4y2Ba KgydF4y2Ba 所以,他们和1。gydF4y2Ba

  4. 检查收敛。gydF4y2Ba

更多细节,请参阅gydF4y2Ba(Hastie等。)gydF4y2Ba和gydF4y2Ba(Zadrozny)gydF4y2Ba。gydF4y2Ba

使用二次规划后评估gydF4y2Ba

后验概率估计使用二次规划需要一个优化工具箱许可证。估计后验概率的观察使用这种方法,该软件完成这些步骤:gydF4y2Ba

  1. 估计positive-class后验概率,gydF4y2BargydF4y2BajgydF4y2Ba为二进制学习者gydF4y2BajgydF4y2Ba= 1,…,gydF4y2BalgydF4y2Ba。gydF4y2Ba

  2. 使用之间的关系gydF4y2BargydF4y2BajgydF4y2Ba和gydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba (吴等。)gydF4y2Ba,最大限度地减少gydF4y2Ba

    ∑gydF4y2Ba jgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba lgydF4y2Ba (gydF4y2Ba −gydF4y2Ba rgydF4y2Ba jgydF4y2Ba ∑gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba KgydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba −gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba +gydF4y2Ba (gydF4y2Ba 1gydF4y2Ba −gydF4y2Ba rgydF4y2Ba jgydF4y2Ba )gydF4y2Ba ∑gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1gydF4y2Ba KgydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba 我gydF4y2Ba (gydF4y2Ba 米gydF4y2Ba kgydF4y2Ba jgydF4y2Ba =gydF4y2Ba +gydF4y2Ba 1gydF4y2Ba )gydF4y2Ba ]gydF4y2Ba 2gydF4y2Ba

    关于gydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba 和限制gydF4y2Ba

    0gydF4y2Ba ≤gydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba ≤gydF4y2Ba 1gydF4y2Ba ∑gydF4y2Ba kgydF4y2Ba pgydF4y2Ba ^gydF4y2Ba kgydF4y2Ba =gydF4y2Ba 1。gydF4y2Ba

    软件执行最小化使用gydF4y2BaquadproggydF4y2Ba(优化工具箱)gydF4y2Ba。gydF4y2Ba

引用gydF4y2Ba

[1]Allwein E。,R. Schapire, and Y. Singer. “Reducing multiclass to binary: A unifying approach for margin classifiers.”机器学习研究杂志》上gydF4y2Ba。1卷,2000年,页113 - 141。gydF4y2Ba

[2]Dietterich, T。,g . Bakiri。“解决多级学习问题通过纠错输出编码。”gydF4y2Ba人工智能研究杂志》上gydF4y2Ba。2卷,1995年,页263 - 286。gydF4y2Ba

[3]Escalera, S。,O. Pujol, and P. Radeva. “On the decoding process in ternary error-correcting output codes.”IEEE模式分析与机器智能gydF4y2Ba。32卷,问题7,2010年,页120 - 134。gydF4y2Ba

[4]Escalera, S。,O. Pujol, and P. Radeva. “Separability of ternary codes for sparse designs of error-correcting output codes.”模式识别gydF4y2Ba。问题3卷30日,2009年,页285 - 297。gydF4y2Ba

[5]Hastie, T。,R. Tibshirani. “Classification by Pairwise Coupling.”统计年鉴gydF4y2Ba。问题2卷。26日,1998年,页451 - 471。gydF4y2Ba

[6],t·F。,C. J. Lin, and R. Weng. “Probability Estimates for Multi-Class Classification by Pairwise Coupling.”机器学习研究杂志》上gydF4y2Ba。5卷,2004年,页975 - 1005。gydF4y2Ba

[7]Zadrozny, b“减少多级二进制耦合概率估计。”gydF4y2Ba捏2001:学报的发展神经信息处理系统14gydF4y2Ba,2001年,页1041 - 1048。gydF4y2Ba

扩展功能gydF4y2Ba

介绍了R2014bgydF4y2Ba