Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

Construcción y evaluación de modelos

Selección de funciones, optimización de hiperparámetros, validación cruzada, evaluación del rendimiento predictivo, pruebas de comparación de precisión de clasificación

Al crear un modelo de clasificación predictivo de alta calidad, es importante seleccionar las características correctas (o predictores) y afinar los hiperparámetros (parámetros del modelo que no se estiman).

Para afinar los hiperparámetros, seleccione los valores de hiperparámetro y valide el modelo con esos valores. Por ejemplo, para afinar un modelo SVM, elija un conjunto de restricciones de cuadro y escalas de kernel y, a continuación, valide un modelo para cada par de valores. Ciertas funciones de clasificación de Statistics and Machine Learning Toolbox™ ofrecen sintonización automática de hiperparámetro mediante optimización Bayesiano, búsqueda en cuadrícula o búsqueda aleatoria. Sin embargo, la función principal utilizada para implementar la optimización Bayesiano, bayesopt, es lo suficientemente flexible para su uso en otras aplicaciones. Véase Bayesian Optimization Workflow.

La selección de funciones y la afinación de hiperparámetros pueden producir varios modelos. Puede comparar las tasas de clasificación errónea de k, las curvas de características operativas del receptor (ROC) o las matrices de confusión entre los modelos. O bien, realizar una prueba estadística para detectar si un modelo de clasificación supera significativamente a otro.

Para construir y evaluar interactivamente los modelos de clasificación, utilice la aplicación Estudiante de clasificación.

Aplicaciones

Estudiante de clasificaciónTrain models to classify data using supervised machine learning

Funciones

expandir todo

sequentialfsSequential feature selection
relieffRank importance of predictors using ReliefF or RReliefF algorithm
bayesoptSelect optimal machine learning hyperparameters using Bayesian optimization
hyperparametersVariable descriptions for optimizing a fit function
optimizableVariableVariable description for bayesopt or other optimizers
crossvalLoss estimate using cross-validation
cvpartitionCreate cross-validation partition for data
repartitionRepartition data for cross-validation
testTest indices for cross-validation
trainingTraining indices for cross-validation
confusionmatCompute confusion matrix for classification problem
perfcurveReceiver operating characteristic (ROC) curve or other performance curve for classifier output
testcholdoutCompare predictive accuracies of two classification models
testckfoldCompare accuracies of two classification models by repeated cross validation

Objetos

expandir todo

BayesianOptimizationBayesian optimization results
cvpartitionData partitions for cross validation

Temas

Clasificación aprendiz App

Train Classification Models in Classification Learner App

Workflow for training, comparing and improving classification models, including automated, manual, and parallel training.

Assess Classifier Performance in Classification Learner

Compare model accuracy scores, visualize results by plotting class predictions, and check performance per class in the Confusion Matrix.

Feature Selection and Feature Transformation Using Classification Learner App

Identify useful predictors using plots, manually select features to include, and transform features using PCA in Classification Learner.

Selección de funciones

Feature Selection

Learn about feature selection algorithms, such as sequential feature selection.

Optimización de hiperparámetro

Bayesian Optimization Workflow

Perform Bayesian optimization using a fit function or by calling bayesopt directly.

Variables for a Bayesian Optimization

Create variables for Bayesian optimization.

Bayesian Optimization Objective Functions

Create the objective function for Bayesian optimization.

Constraints in Bayesian Optimization

Set different types of constraints for Bayesian optimization.

Optimize a Cross-Validated SVM Classifier Using bayesopt

Minimize cross-validation loss using Bayesian Optimization.

Optimize an SVM Classifier Fit Using Bayesian Optimization

Minimize cross-validation loss using the OptimizeParameters name-value pair in a fitting function.

Bayesian Optimization Plot Functions

Visually monitor a Bayesian optimization.

Bayesian Optimization Output Functions

Monitor a Bayesian optimization.

Bayesian Optimization Algorithm

Understand the underlying algorithms for Bayesian optimization.

Parallel Bayesian Optimization

How Bayesian optimization works in parallel.

Validación cruzada

Implement Cross-Validation Using Parallel Computing

Speed up cross-validation using parallel computing.

Evaluación del desempeño de clasificación

Performance Curves

Examine the performance of a classification algorithm on a specific test data set using a receiver operating characteristic curve.