Main Content

La traducción de esta página aún no se ha actualizado a la versión más reciente. Haga clic aquí para ver la última versión en inglés.

Desarrollo y evaluación de modelos

Selección de características, ingeniería de características, selección de modelos, optimización de hiperparámetros, validación cruzada, evaluación de la capacidad predictiva y pruebas de comparación de la precisión de las clasificaciones

Al desarrollar un modelo de clasificación predictiva de alta calidad, es importante seleccionar las características (o predictores) correctos y ajustar los hiperparámetros (parámetros del modelo que no se han estimado).

La selección de características y el ajuste de los hiperparámetros pueden arrojar varios modelos. Puede comparar las tasas de errores de clasificación de k iteraciones, las curvas ROC, por sus siglas en inglés) o las matrices de confusión entre los modelos. También puede realizar una prueba estadística para detectar si un modelo de clasificación supera significativamente a otro.

Para extraer nuevas características antes de entrenar un modelo de clasificación, utilice gencfeatures.

Para desarrollar y evaluar modelos de clasificación de forma interactiva, utilice la app Classification Learner.

Para seleccionar automáticamente un modelo con hiperparámetros ajustados, utilice fitcauto. Esta función prueba una selección de tipos de modelos de clasificación con diferentes valores en los hiperparámetros y devuelve un modelo final que se prevé que funcione bien con los nuevos datos. Utilice fitcauto cuando no sepa con seguridad los tipos de clasificadores que mejor se adaptan a sus datos.

Para ajustar los hiperparámetros de un modelo concreto, seleccione los valores de los hiperparámetros y realice una validación cruzada del modelo con dichos valores. Por ejemplo, para ajustar un modelo SVM, elija un conjunto de restricciones de cajas y escalas de kernel y, después, realice una validación cruzada de un modelo para cada par de valores. Determinadas funciones de clasificación de Statistics and Machine Learning Toolbox™ ofrecen un ajuste automático de los hiperparámetros mediante optimización bayesiana, búsqueda por cuadrículas o búsqueda aleatoria. bayesopt, la función principal para implementar la optimización bayesiana, es también lo suficientemente flexible para muchas otras aplicaciones. Consulte Bayesian Optimization Workflow.

Para interpretar un modelo de clasificación, puede utilizar lime, shapley y plotPartialDependence.

Apps

Classification LearnerEntrenar modelos para clasificar datos usando machine learning supervisado

Funciones

expandir todo

fscchi2Univariate feature ranking for classification using chi-square tests
fscmrmrRank features for classification using minimum redundancy maximum relevance (MRMR) algorithm
fscncaFeature selection using neighborhood component analysis for classification
oobPermutedPredictorImportancePredictor importance estimates by permutation of out-of-bag predictor observations for random forest of classification trees
predictorImportanceEstimates of predictor importance for classification tree
predictorImportanceEstimates of predictor importance for classification ensemble of decision trees
sequentialfsSequential feature selection using custom criterion
relieffRank importance of predictors using ReliefF or RReliefF algorithm
gencfeaturesPerform automated feature engineering for classification
describeDescribe generated features
transformTransform new data using generated features
fitcautoAutomatically select classification model with optimized hyperparameters
bayesoptSelect optimal machine learning hyperparameters using Bayesian optimization
hyperparametersVariable descriptions for optimizing a fit function
optimizableVariableVariable description for bayesopt or other optimizers
crossvalEstimate loss using cross-validation
cvpartitionPartition data for cross-validation
repartitionRepartition data for cross-validation
testTest indices for cross-validation
trainingTraining indices for cross-validation

Explicaciones independientes del modelo local interpretable (LIME, por sus siglas en inglés)

limeLocal interpretable model-agnostic explanations (LIME)
fitFit simple model of local interpretable model-agnostic explanations (LIME)
plotPlot results of local interpretable model-agnostic explanations (LIME)

Valores de Shapley

shapleyShapley values
fitCompute Shapley values for query point
plotPlot Shapley values

Dependencia parcial

partialDependenceCompute partial dependence
plotPartialDependenceCreate partial dependence plot (PDP) and individual conditional expectation (ICE) plots

Matriz de confusión

confusionchartCreate confusion matrix chart for classification problem
confusionmatCompute confusion matrix for classification problem

Curva de característica operativa del receptor (ROC)

rocmetricsReceiver operating characteristic (ROC) curve and performance metrics for binary and multiclass classifiers
addMetricsCompute additional classification performance metrics
averageCompute performance metrics for average receiver operating characteristic (ROC) curve in multiclass problem
plotPlot receiver operating characteristic (ROC) curves and other performance curves
perfcurveReceiver operating characteristic (ROC) curve or other performance curve for classifier output
testcholdoutCompare predictive accuracies of two classification models
testckfoldCompare accuracies of two classification models by repeated cross-validation

Objetos

expandir todo

FeatureSelectionNCAClassificationFeature selection for classification using neighborhood component analysis (NCA)
FeatureTransformerGenerated feature transformations
BayesianOptimizationBayesian optimization results

Propiedades

ConfusionMatrixChart PropertiesConfusion matrix chart appearance and behavior
ROCCurve PropertiesReceiver operating characteristic (ROC) curve appearance and behavior

Temas

App Classification Learner

Selección de características

Ingeniería de características

Selección de modelos automatizados

Optimización de hiperparámetros

Interpretación de modelos

Validación cruzada

Evaluación de la capacidad de la clasificación