主要内容

最近的邻居

k最近邻分类使用Kd树搜索

培养一个k-最近邻居模型,使用分类学习者为了获得更大的灵活性,训练ak-最近的邻居模型使用fitcknn在命令行界面。训练完成后,通过传递模型和预测数据来预测标签或估计后验概率预测

应用程序

分类学习者 使用有监督的机器学习训练模型来分类数据

功能

全部展开

fitcknn 适合k最近的邻居分类器
ExhaustiveSearcher 创建穷举最近邻搜索器
KDTreeSearcher 创建Kd树最近邻搜索器
createns 创建最近邻搜索器对象
石灰 局部可解释的模型不可知解释(LIME)
partialDependence 计算部分依赖
plotPartialDependence 创建部分依赖图(PDP)和个人条件期望图(ICE)
沙普利 沙普利值
crossval 交叉验证机器学习模型
kfoldEdge 交叉验证分类模型的分类边缘
kfoldLoss 交叉验证分类模型的分类损失
kfoldfun 交叉验证功能进行分类
kfoldMargin 交叉验证分类模型的分类裕度
kfoldPredict 在交叉验证的分类模型中对观察进行分类
损失 的损失k最近的邻居分类器
resubLoss Resubstitution分类损失
compareHoldout 使用新数据比较两个分类模型的准确性
边缘 的边缘k最近的邻居分类器
保证金 保证金的k最近的邻居分类器
resubEdge Resubstitution分类边缘
resubMargin Resubstitution分类保证金
testckfold 通过重复交叉验证比较两种分类模型的准确率
预测 预测标签使用k-最近邻分类模型
resubPredict 使用训练的分类器对训练数据进行分类
收集 从GPU中收集机器学习模型的属性
pdist 成对观察值之间的成对距离
pdist2 两组观测值之间的成对距离

对象

全部展开

ClassificationKNN k最近的邻居分类
ClassificationPartitionedModel 旨在分类模型

主题

使用分类学习应用程序训练最近邻分类器

创建和比较最近邻分类器,并导出训练过的模型来预测新数据。

可视化不同分类器的决策曲面

这个例子展示了如何可视化不同分类算法的决策面。

监督学习工作流和算法

了解监督学习的步骤和非参数分类和回归函数的特点。

使用最近邻进行分类

使用各种距离度量,根据数据点到训练数据集中点的距离对数据点进行分类。

相关信息