Main Content

La traducción de esta página aún no se ha actualizado a la versión más reciente. Haga clic aquí para ver la última versión en inglés.

Capacidad de interpretación

Entrene modelos de clasificación interpretables e interprete modelos de clasificación complejos

Emplee modelos de clasificación interpretables por naturaleza, por ejemplo, modelos lineales, árboles de decisión y modelos aditivos generalizados, o utilice las funcionalidades de interpretación para interpretar modelos de clasificación complejos que no son interpretables por naturaleza.

Para saber cómo interpretar modelos de clasificación, consulte Interpret Machine Learning Models.

Funciones

expandir todo

Explicaciones independientes del modelo local interpretable (LIME, por sus siglas en inglés)

limeLocal interpretable model-agnostic explanations (LIME) (desde R2020b)
fitFit simple model of local interpretable model-agnostic explanations (LIME) (desde R2020b)
plotPlot results of local interpretable model-agnostic explanations (LIME) (desde R2020b)

Valores de Shapley

shapleyShapley values (desde R2021a)
fitCompute Shapley values for query points (desde R2021a)
plotPlot Shapley values using bar graphs (desde R2021a)

Dependencia parcial

partialDependenceCompute partial dependence (desde R2020b)
plotPartialDependenceCreate partial dependence plot (PDP) and individual conditional expectation (ICE) plots
fitcgamFit generalized additive model (GAM) for binary classification (desde R2021a)
fitclinearFit binary linear classifier to high-dimensional data
fitctreeFit binary decision tree for multiclass classification

Objetos

ClassificationGAMGeneralized additive model (GAM) for binary classification (desde R2021a)
ClassificationLinearLinear model for binary classification of high-dimensional data
ClassificationTreeBinary decision tree for multiclass classification

Temas

Interpretación de modelos

Modelos interpretables