主要内容

resubPredict

使用训练数据训练分类器进行分类

    描述

    例子

    标签= resubPredict (Mdl)返回一个向量的预测类标签(标签)训练分类模型Mdl使用预测数据存储Mdl.X

    例子

    (标签,分数)= resubPredict (Mdl)还返回分类得分。

    例子

    (标签,分数)= resubPredict (Mdl“IncludeInteractions”,includeInteractions)指定是否包括在计算交互术语。这个语法仅适用于广义可加模型。

    例子

    (标签,分数,成本)= resubPredict (Mdl)还返回预期的误分类代价。这只适用于语法k最近的邻居和朴素贝叶斯模型。

    例子

    全部折叠

    加载fisheriris数据集创建。X作为一个数字矩阵,包含四个测量150虹膜。创建Y作为一个单元阵列包含相应的特征向量的虹膜的物种。

    负载fisheririsX =量;Y =物种;rng (“默认”)%的再现性

    使用预测训练朴素贝叶斯分类器X和类标签Y。推荐的做法是指定类名。fitcnb假定每一个预测是有条件和正态分布。

    Mdl = fitcnb (X, Y,“类名”,{“setosa”,“多色的”,“virginica”})
    Mdl = ClassificationNaiveBayes ResponseName:‘Y’CategoricalPredictors:[]类名:{“setosa”“杂色的”“virginica”} ScoreTransform:“没有一个”NumObservations: 150 DistributionNames:{“正常”“正常”“正常”“正常”}DistributionParameters: {} 3 x4细胞属性,方法

    Mdl是一个培训ClassificationNaiveBayes分类器。

    预测训练样本的标签。

    标签= resubPredict (Mdl);

    显示结果为一组随机的10的观察。

    idx = randsample(大小(X, 1), 10);表(Y (idx)、标签(idx),“VariableNames”,{“真正的标签”,“预测标签”})
    ans =10×2表真正售予标签预测标签* * * {‘virginica} {‘virginica} {‘setosa} {‘setosa} {‘virginica} {‘virginica}{“癣”}{“癣”}{‘virginica} {‘virginica}{“癣”}{“癣”}{‘virginica} {‘virginica} {‘setosa} {‘setosa} {‘virginica} {‘virginica} {‘setosa} {' setosa '}

    创建一个混乱图表从真正的标签Y和预测的标签标签

    厘米= confusionchart (Y,标签);

    图包含一个ConfusionMatrixChart类型的对象。

    加载电离层数据集。这个数据集有34个预测因子和351二进制响应雷达回报,要么坏(“b”)或好(‘g’)。

    负载电离层

    训练支持向量机(金宝appSVM)分类器。标准化的数据并指定‘g’是积极的类。

    SVMModel = fitcsvm (X, Y,“类名”,{“b”,‘g’},“标准化”,真正的);

    SVMModel是一个ClassificationSVM分类器。

    符合最优score-to-posterior-probability转换功能。

    rng (1);%的再现性ScoreSVMModel = fitPosterior (SVMModel)
    ScoreSVMModel = ClassificationSVM ResponseName:‘Y’CategoricalPredictors:[]类名:{b ' g '} ScoreTransform:“@ (S)乙状结肠(e-01 e-01年代,-9.482430,-1.217774)的NumObservations: 351α:[90 x1双]偏见:-0.1342 KernelParameters: [1 x1 struct]μ:[0.8917 0 0.6413 0.0444 0.6011 0.1159 0.5501 0.1194 0.5118 0.1813 0.4762 0.1550 0.4008 0.0934 0.3442 0.0711 0.3819 -0.0036 0.3594 -0.0240 0.3367 0.0083 0.3625 -0.0574 0.3961 -0.0712 0.5416 -0.0695 0.3784 -0.0279 0.3525……σ:[0.3112 0 0.4977 0.4414 0.5199 0.4608 0.4927 0.5207 0.5071 0.4839 0.5635 0.4948 0.6222 0.4949 0.6528 0.4584 0.6180 0.4968 0.6263 0.5191 0.6098 0.5182 0.6038 0.5275 0.5785 0.5085 0.5162 0.5500 0.5759 0.5080 0.5715 0.5136……]BoxConstraints: x1双[351]ConvergenceInfo: [1 x1 struct] IsSupport金宝appVector: x1逻辑[351]解算器:SMO的属性,方法

    类是分不开的,因为分数转换函数(ScoreSVMModel.ScoreTransform)是乙状结肠函数。

    估计分数和积极的训练数据类的后验概率。前十的观察显示结果。

    (标签,分数)= resubPredict (SVMModel);[~,postProbs] = resubPredict (ScoreSVMModel);表(Y(1:10),标签(1:10),分数(1:10),2),postProbs (1:10), 2),“VariableNames”,{“TrueLabel”,“PredictedLabel”,“分数”,“PosteriorProbability”})
    ans =10×4表_________ ____________________ TrueLabel PredictedLabel得分PosteriorProbability _____ * * * {‘g’} {‘g’} 1.4862 - 0.82216 {b} {b} -1.0003 - 0.30433 {‘g’} {‘g’} 1.8685 - 0.86917 {b} {b} -2.6457 - 0.084171 {‘g’} {‘g’} 1.2807 - 0.79186 {b} {b} -1.4616 - 0.22025 {‘g’} {‘g’} 2.1674 - 0.89816 {b} {b} -5.7085 - 0.00501 {‘g’} {‘g’} 2.4798 - 0.92224 {b} {b} -2.7812 - 0.074781

    估计后验概率的分对数(训练数据分类分数)使用分类广义相加模型(GAM)包含预测的线性和交互方面。指定是否要包括交互条款计算分类时的分数。

    加载电离层数据集。这个数据集有34个预测因子和351二进制响应雷达回报,要么坏(“b”)或好(‘g’)。

    负载电离层

    使用预测训练GAMX和类标签Y。推荐的做法是指定类名。指定包含10个最重要的互动。

    Mdl = fitcgam (X, Y,“类名”,{“b”,‘g’},“互动”,10)
    Mdl = ClassificationGAM ResponseName:‘Y’CategoricalPredictors:[]类名:{b ' g '} ScoreTransform:分对数的截距:3.2565交互:[10 x2双]NumObservations: 351属性,方法

    Mdl是一个ClassificationGAM模型对象。

    预测标签使用线性和交互术语,然后只使用线性条件。排除交互条件,指定“IncludeInteractions”,假的。估计后验概率通过指定的分对数ScoreTransform财产“没有”

    Mdl。ScoreTransform =“没有”;(标签、分数)= resubPredict (Mdl);[labels_nointeraction, scores_nointeraction] = resubPredict (Mdl,“IncludeInteractions”、假);

    创建一个表包含真正的标签,标签,预测和分数。显示表的前八行。

    t =表(Y,标签,分数,labels_nointeraction scores_nointeraction,“VariableNames”,{“真正的标签”,“预测标签”,“分数”“预测标签没有交互”,的分数没有相互作用的});头(t)
    真正的标签标签预测分数预测标签没有交互的分数没有交互___________ ___________ _____________ _____________________________________ ___________________________ {‘g’} {‘g’} -51.628 - 51.628 -47.676 - 47.676 {‘g’} {b} {b} 37.433 - -37.433 36.435 - -36.435 {b} {‘g’} {‘g’} -62.061 - 62.061 -58.357 - 58.357 {‘g’} {b} {b} 37.666 - -37.666 36.297 - -36.297 {b} {‘g’} {‘g’} -47.361 - 47.361 -43.373 - 43.373 {‘g’} {b} {b} 106.48 - -106.48 102.43 - -102.43 {b} {‘g’} {‘g’} -62.665 - 62.665 -58.377 - 58.377 {‘g’} {b} {b} {b} 197.84 - -197.84 201.46 -201.46

    训练数据预测的标签X不取决于交互的包容,但估计分数值是不同的。

    样本估计后验概率和误分类成本使用朴素贝叶斯分类器。

    加载fisheriris数据集创建。X作为一个数字矩阵,包含四个花瓣测量150虹膜。创建Y作为一个单元阵列包含相应的特征向量的虹膜的物种。

    负载fisheririsX =量;Y =物种;rng (“默认”)%的再现性

    使用预测训练朴素贝叶斯分类器X和类标签Y。推荐的做法是指定类名。fitcnb假定每一个预测是有条件和正态分布。

    Mdl = fitcnb (X, Y,“类名”,{“setosa”,“多色的”,“virginica”});

    Mdl是一个培训ClassificationNaiveBayes分类器。

    估计后验概率和预期的错误分类的训练数据的成本。

    [标签、后MisclassCost] = resubPredict (Mdl);Mdl.ClassNames
    ans =3 x1细胞{' setosa}{“癣”}{' virginica '}

    显示结果为10个随机选择的观察。

    idx = randsample(大小(X, 1), 10);表(Y (idx)、标签(idx)、后(idx:), MisclassCost (idx:)“VariableNames”,{“TrueLabel”,“PredictedLabel”,“PosteriorProbability”,“MisclassificationCost”})
    ans =10×4表是_____________ _________________________________________ TrueLabel PredictedLabel PosteriorProbability MisclassificationCost * * * ______________________________________ {‘virginica} {‘virginica} 6.2514 e - 269 1.1709 e-09 1 1 1 1.1709 e-09 {‘setosa} {‘setosa} 1 5.5339 2.485 5.5339 e-19 e-25 e-19 1 1 {‘virginica} {‘virginica} 7.4191 e - 249 1.4481平台以及1 1 1 1.4481平台以及{“癣”}{“癣”}3.4472 e - 62 0.99997 3.362 e-05 1 3.362 0.99997 e-05 {‘virginica} {‘virginica} 3.4268 e - 229 6.597 e-09 1 1 1 6.597 e-09{“癣”}{“癣”}6.0941 e - 77 0.9998 0.00019663 1 0.00019663 0.9998 {‘virginica} {‘virginica} 1.3467 e - 167 0.002187 0.99781 1 0.99781 0.002187 {‘setosa} {‘setosa} 1 1.5776 e15汽油5.7172 e-24 1.5776 e15汽油1 1 {‘virginica} {‘virginica} 2.0116 e - 232 2.6206平台以及1 1 1 2.6206平台以及{‘setosa} {‘setosa} 1 1.8085 1.8085 1.9639 e-17 e-24 e-17 1 1

    列的顺序MisclassCost对应于类的顺序Mdl.ClassNames

    输入参数

    全部折叠

    机器学习分类模型,指定为一个完整的分类模型对象,按照下表支持的模型。金宝app

    模型 分类模型对象
    广义加性模型 ClassificationGAM
    k最近的邻居模型 ClassificationKNN
    朴素贝叶斯模型 ClassificationNaiveBayes
    神经网络模型 ClassificationNeuralNetwork
    金宝app看到下面成了一和二分类支持向量机 ClassificationSVM

    标志包括交互模型,指定为真正的。这个论点是有效的只有一个广义相加模型(GAM)。也就是说,您可以指定这个论点只有当MdlClassificationGAM

    默认值是真正的如果Mdl包含交互方面。的值必须如果模型不包含交互方面。

    数据类型:逻辑

    输出参数

    全部折叠

    预测类标签,作为分类或字符数组,返回逻辑或者数值向量、数组或单元的特征向量。

    标签具有相同的数据类型作为观察类标签训练吗Mdl,它的长度等于观测的数量Mdl.X(软件对字符串数组作为细胞阵列特征向量)。

    类成绩,作为一个数字矩阵返回。分数行等于观测的数量吗Mdl.X和列等于截然不同的类的数目在训练数据(尺寸(Mdl.ClassNames, 1))。

    预期的误分类代价,作为一个数字矩阵返回。这只适用于输出k最近的邻居和朴素贝叶斯模型。也就是说,resubPredict返回成本只有当MdlClassificationKNNClassificationNaiveBayes

    成本行等于观测的数量吗Mdl.X和列等于截然不同的类的数目在训练数据(尺寸(Mdl.ClassNames, 1))。

    成本(j, k)是预期的误分类代价的观察行吗jMdl.X预测到类k(在课堂上Mdl.ClassNames (k))。

    算法

    resubPredict根据相应的计算预测预测的函数对象(Mdl)。模型相关的描述,请参阅预测下面的表函数参考页。

    模型 分类模型对象(Mdl) 预测目标函数
    广义加性模型 ClassificationGAM 预测
    k最近的邻居模型 ClassificationKNN 预测
    朴素贝叶斯模型 ClassificationNaiveBayes 预测
    神经网络模型 ClassificationNeuralNetwork 预测
    金宝app看到下面成了一和二分类支持向量机 ClassificationSVM 预测

    扩展功能

    版本历史

    介绍了R2012a