Main Content

latravcióndeestapáginaEstáobsoleta。HagaclicagíparaverlaúltimaversiónEnglés。

Desarrollo yAreaduaciónDeModelos

SeleccióndeCaracterísticas,,,,ingeniería de características, selección de modelos, optimización de hiperparámetros, validación cruzada, evaluación de la capacidad predictiva y pruebas de comparación de la precisión de las clasificaciones

Al desarrollar un modelo de clasificación predictiva de alta calidad, es importante seleccionar las características (o predictores) correctos y ajustar los hiperparámetros (parámetros del modelo que no se han estimado).

La seleccion de caracteristicas y el de los进行hiperparámetros pueden arrojar varios modelos. Puede comparar las tasas de errores de clasificación dekiteraciones, las curvas ROC, por sus siglas en inglés) o las matrices de confusión entre los modelos. También puede realizar una prueba estadística para detectar si un modelo de clasificación supera significativamente a otro.

Para extraer nuevas características antes de entrenar un modelo de clasificación, utilicegencfeatures

Para desarrollar y evaluar modelos de clasificación de forma interactiva, utilice la appClassification Learner

para seleccionarautomáticamenteun Modelo conhiperparámetrosajustados,Utilicefitcauto。estafunciónpruebaunaseleccióndetipos declasificacióncondiferentes valores enloshiperparámetrosy devuelve y devuelve un Modelo final que eveped que que funcione bien bien con los los nuevos datos。UTILICEfitcautocuando no sepa con seguridad los tipos de clasificadores que mejor se adaptan a s s s s sus datos。

para ajustarloshiperparámetrosde un Modelo Concreto,Seleccione los valores delosHiperparámetrosy realice una dialceunvilyaciónCruzadadil Modeo Con Dichos Valores。Por Ejemplo,Para ajustar Un Modelo SVM,Elija Un Conjunto de restricciones de cajas y escalas de Kernel de Kernel Y,Después,Realice una unavilyaciónCruzaDeun Modelo para para para par par de Valores。declasificacióndede statistics and Machine Learning Toolbox™ofrecen un ajusteautomáticodeloshiperparámetrosMedianteopentizaciónBayesiana,búsquedaporcuadrículisobúsquedaaleatoria。sin禁运,LaUnción主要Utilitizada Para para amparionar laopentizaciónBayesiana,贝叶斯,Es lo suficientee柔性para utilizarla en otras aplicaciones。咨询Bayesian Optimization Workflow

Para解释员Un Modelo declasificación,Puede用品lime,,,,沙普利y阴谋PartialDependence

应用

Classification Learner Train models to classify data using supervised machine learning

功能

Expandir todo

fscchi2 Univariate feature ranking for classification using chi-square tests
fscmrmr Rank features for classification using minimum redundancy maximum relevance (MRMR) algorithm
FSCNCA Feature selection using neighborhood component analysis for classification
OOBPERMUTED PREDICTORIMPORTANE Predictor importance estimates by permutation of out-of-bag predictor observations for random forest of classification trees
预测象征 Estimates of predictor importance for classification tree
预测象征 Estimates of predictor importance for classification ensemble of decision trees
sequentialfs Sequential feature selection using custom criterion
relieff Rank importance of predictors using ReliefF or RReliefF algorithm
gencfeatures 执行自动化功能工程进行分类
描述 描述生成的功能
transform 使用生成的功能转换新数据
fitcauto Automatically select classification model with optimized hyperparameters
贝叶斯 使用贝叶斯优化选择最佳机器学习超标剂
hyperparameters Variable descriptions for optimizing a fit function
optimizableVariable Variable description for贝叶斯or other optimizers
杂交 Estimate loss using cross-validation
CVPARTITION Partition data for cross-validation
repartition Repartition data for cross-validation
测试 交叉验证指标
训练 Training indices for cross-validation

explacicaciones igicementes del Modelo本地解释(石灰,por siglas eninglés)

lime Local interpretable model-agnostic explanations (LIME)
合身 Fit simple model of local interpretable model-agnostic explanations (LIME)
阴谋 Plot results of local interpretable model-agnostic explanations (LIME)

Valores de Shapley

沙普利 沙普利值
合身 计算查询点的沙普利值
阴谋 Plot Shapley values

依赖性

partialDependence 计算部分依赖性
阴谋PartialDependence Create partial dependence plot (PDP) and individual conditional expectation (ICE) plots
混乱 Create confusion matrix chart for classification problem
confusionmat 计算分类问题的混淆矩阵
perfcurve Receiver operating characteristic (ROC) curve or other performance curve for classifier output
测试choldout 比较两个classificatio的预测精度n models
testckfold Compare accuracies of two classification models by repeated cross-validation

Objetos

Expandir todo

FeatureSelectionNCAClassification 使用邻里组件分析(NCA)进行分类的特征选择
tematuretransformer Generated feature transformations
BayesianOptimization 贝叶斯优化结果

Temas

App Classification Learner

Train Classification Models in Classification Learner App

Workflow for training, comparing and improving classification models, including automated, manual, and parallel training.

评估分类学习者的分类器表现

Compare model accuracy scores, visualize results by plotting class predictions, and check performance per class in the Confusion Matrix.

使用分类学习者应用程序的功能选择和功能转换

Identify useful predictors using plots, manually select features to include, and transform features using PCA in Classification Learner.

SeleccióndeCaracterísticas

功能选择简介

了解功能选择算法并探索可用于特征选择的功能。

Sequential Feature Selection

This topic introduces to sequential feature selection and provides an example that selects features sequentially using a custom criterion and thesequentialfs功能。

Neighborhood Component Analysis (NCA) Feature Selection

Neighborhood component analysis (NCA) is a non-parametric method for selecting features with the goal of maximizing prediction accuracy of regression and classification algorithms.

Tune Regularization Parameter to Detect Features Using NCA for Classification

此示例显示了如何调整正则化参数FSCNCAusing cross-validation.

正规化判别分析分类器

通过删除预测变量而不损害模型的预测能力,使其更加可靠,更简单。

选择Features for Classifying High-Dimensional Data

此示例显示了如何选择用于分类高维数据的功能。

IngenieríadeCaracterísticas

分类的自动化功能工程

Usegencfeaturesto engineer new features before training a classification model. Before making predictions on new data, apply the same feature transformations to the new data set.

SeleccióndeModelos Automatizados

贝叶斯和ASHA优化的自动分类器选择

Usefitcautoto automatically try a selection of classification model types with different hyperparameter values, given training predictor and response data.

Optimización de hiperparámetros

Bayesian Optimization Workflow

Perform Bayesian optimization using a fit function or by calling贝叶斯directly.

Variables for a Bayesian Optimization

Create variables for Bayesian optimization.

Bayesian Optimization Objective Functions

Create the objective function for Bayesian optimization.

Constraints in Bayesian Optimization

为贝叶斯优化设置不同类型的约束。

Optimize Cross-Validated Classifier Using bayesopt

使用贝叶斯优化最小化交叉验证损失。

Optimize Classifier Fit Using Bayesian Optimization

Minimize cross-validation loss using the优化eParametername-value argument in a fitting function.

Bayesian Optimization Plot Functions

Visually monitor a Bayesian optimization.

Bayesian Optimization Output Functions

Monitor a Bayesian optimization.

Bayesian Optimization Algorithm

了解贝叶斯优化的基础算法。

平行的贝叶斯优化

How Bayesian optimization works in parallel.

DrifcentaciónDeModelos

Interpret Machine Learning Models

使用模型预测使用lime,,,,沙普利,,,,and阴谋PartialDependence

机器学习模型的Shapley值

使用两种算法计算机器学习模型的Shapley值:kernelShap和inter inthelshap的扩展。

Validación cruzada

Implement Cross-Validation Using Parallel Computing

使用并行计算加快交叉验证。

Evaluación de la capacidad de la clasificación

Performance Curves

Examine the performance of a classification algorithm on a specific test data set using a receiver operating characteristic curve.