Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

Evalúe el rendimiento del clasificador en el alumno de clasificación

Después de clasificar los clasificadores en el aprendizaje de clasificación, puede comparar los modelos según las puntuaciones de precisión, visualizar los resultados trazando las predicciones de clases y comprobar el rendimiento mediante la matriz de confusión y la curva ROC.

  • Si utiliza la validación cruzada, la aplicación computa las puntuaciones de precisión utilizando las observaciones de los pliegues de validación y notifica el error medio de validación cruzada.kk También realiza predicciones sobre las observaciones en estos pliegues de validación y calcula la matriz de confusión y la curva ROC en función de estas predicciones.

    Nota

    Al importar datos en la aplicación, si acepta los valores predeterminados, la aplicación usa automáticamente la validación cruzada. Para obtener más información, consulte.Elija esquema de validación

  • Si usa la validación de retención, la aplicación calcula las puntuaciones de precisión utilizando las observaciones del pliegue de validación y realiza predicciones sobre estas observaciones. La aplicación también calcula la matriz de confusión y la curva ROC en función de estas predicciones.

  • Si decide no usar un esquema de validación, la puntuación es la precisión de la presentación en función de todos los datos de entrenamiento y las predicciones son predicciones de reenvío.

Compruebe el rendimiento en la lista de historial

Después de entrenar un modelo en el aprendizaje de clasificación, Compruebe la lista historial para ver qué modelo tiene la mejor precisión general en porcentaje. La mejor puntuación se resalta en una caja.Accuracy Esta puntuación es la precisión de validación (a menos que opte por ningún esquema de validación). La puntuación de precisión de validación estima el rendimiento de un modelo en nuevos datos en comparación con los datos de entrenamiento. Utilice la partitura para ayudarle a elegir el mejor modelo.

  • Para la validación cruzada, la puntuación es la precisión en todas las observaciones, contando cada observación cuando estaba en un pliegue retenido.

  • Para la validación de exclusión, la puntuación es la precisión en las observaciones mantenidas.

  • Para ninguna validación, la puntuación es la precisión de reenvío en todas las observaciones de datos de entrenamiento.

La mejor puntuación general podría no ser el mejor modelo para su objetivo. Un modelo con una precisión general ligeramente inferior podría ser el mejor clasificador para su objetivo. Por ejemplo, los falsos positivos en una clase determinada pueden ser importantes para usted. Es posible que desee excluir algunos predictores donde la recopilación de datos es costosa o difícil.

Para averiguar cómo se realiza el clasificador en cada clase, examine la matriz de confusión.

Resultados del clasificador de trazado

En el gráfico de dispersión, vea los resultados del clasificador. Después de entrenar un clasificador, el gráfico de dispersión cambia de mostrar los datos a mostrar las predicciones del modelo. Si utiliza la exclusión o la validación cruzada, estas predicciones son las predicciones de las observaciones de las que se mantienen. En otras palabras, cada predicción se obtiene utilizando un modelo que fue entrenado sin utilizar la observación correspondiente. Para investigar los resultados, utilice los controles de la derecha. Puedes:

  • Elija si desea trazar las predicciones del modelo o los datos por sí solos.

  • Mostrar u ocultar resultados correctos o incorrectos utilizando las casillas de verificación debajo.Model predictions

  • Elija operaciones para trazar utilizando las listas y debajo.XYPredictors

  • Visualice los resultados por clase mostrando u ocultando clases específicas usando las casillas de verificación debajo.Show

  • Para cambiar el orden de apilamiento de las clases trazadas, seleccione una clase y, a continuación, haga clic en.ClassesMove to Front

  • Acercar y alejar, o panorámica a través de la gráfica. Para habilitar el zoom y la panorámica, desplace el ratón sobre el gráfico de dispersión y haga clic en uno de los botones que aparecen cerca de la esquina superior derecha del trazado.

Vea también.Investigar entidades en el gráfico de dispersión

Para exportar los diagramas de dispersión que cree en la aplicación a las cifras, consulte.Exportar trazados en la aplicación de aprendizaje de clasificación

Compruebe el rendimiento por clase en la matriz de confusión

Utilice la gráfica de matriz de confusión para comprender cómo se realiza el clasificador seleccionado actualmente en cada clase. Para ver la matriz de confusión después de entrenar un modelo, en la pestaña, en la sección, haga clic en.El alumno de clasificaciónPlotsConfusion Matrix La matriz de confusión le ayuda a identificar las áreas en las que el clasificador ha tenido un rendimiento deficiente.

Al abrir el trazado, las filas muestran la clase verdadera y las columnas muestran la clase pronosticada. Si utiliza la exclusión o la validación cruzada, la matriz de confusión se calcula utilizando las predicciones de las observaciones de las que se han retenido. Las celdas diagonales muestran dónde coinciden la clase verdadera y la clase pronosticada. Si estas celdas son de color verde, el clasificador ha realizado correctamente y clasificado las observaciones de esta verdadera clase de manera correcta.

La vista predeterminada muestra el número de observaciones en cada celda.

Para ver cómo se realiza el clasificador por clase, seleccione la opción.PlotTrue Positive RatesFalse Negative Rates La gráfica muestra resúmenes por clase verdadera en las dos últimas columnas de la derecha.

Sugerencia

Busque áreas en las que el clasificador haya tenido un rendimiento deficiente examinando las celdas de la diagonal que muestren porcentajes elevados y que sean rojas. Cuanto mayor sea el porcentaje, más brillante será el matiz del color de la celda. En estos glóbulos rojos, la clase verdadera y la clase pronosticada no coinciden. Los puntos de datos están mal clasificados.

En este ejemplo, usando el conjunto de datos, la fila superior muestra todos los coches con la verdadera clase France.carsmall Las columnas muestran las clases previstas. En la fila superior, 25% de los coches de Francia se clasifican correctamente, por lo que es la verdadera tasa positiva para los puntos clasificados correctamente en esta clase, que se muestra en la celda verde en la columna.25%True Positive Rate

Los otros coches en la fila de Francia están mal clasificados: el 50% de los coches están clasificados incorrectamente como de Japón, y el 25% se clasifican en Suecia. es la tasa de falsos negativos para los puntos clasificados incorrectamente en esta clase, que se muestra en la celda roja de la columna.75%False Negative Rate

Si desea ver el número de observaciones (coches, en este ejemplo) en lugar de porcentajes, debajo, seleccione.PlotNumber of observations

Si los falsos positivos son importantes en el problema de clasificación, los resultados de trazado por clase pronosticada (en lugar de clase verdadera) para investigar las tasas de detección falsas. Para ver los resultados por clase pronosticada, en, seleccione la opción.PlotPositive Predictive ValuesFalse Discovery Rates La matriz de confusión ahora muestra las filas de resumen debajo de la tabla. Los valores predictivos positivos se muestran en verde para los puntos pronosticados correctamente en cada clase, y las tasas de descubrimiento falsas se muestran debajo de ella en rojo para los puntos pronosticados incorrectamente en cada clase.

Si decide que hay demasiados puntos clasificados erróneamente en las clases de interés, intente cambiar la configuración del clasificador o la selección de características para buscar un modelo mejor.

Para exportar los diagramas de matriz de confusión que cree en la aplicación a las cifras, consulte.Exportar trazados en la aplicación de aprendizaje de clasificación

Compruebe la curva ROC

Para ver la curva ROC después de entrenar un modelo, en la pestaña, en la sección, haga clic en.Classification LearnerPlotsROC Curve Visualice la curva de características operativas del receptor (ROC) que muestra las tasas positivas verdaderas y falsas. La curva ROC muestra la tasa positiva real frente a la tasa de falsos positivos para el clasificador entrenado actualmente seleccionado. Puede seleccionar diferentes clases para trazar.

El marcador de la gráfica muestra el rendimiento del clasificador seleccionado actualmente. El marcador muestra los valores de la tasa de falsos positivos (FPR) y la tasa positiva real (TPR) para el clasificador seleccionado actualmente. Por ejemplo, una tasa de falsos positivos (FPR) de 0,2 indica que el clasificador actual asigna el 20% de las observaciones de forma incorrecta a la clase positiva. Una tasa positiva real de 0,9 indica que el clasificador actual asigna el 90% de las observaciones correctamente a la clase positiva.

Un resultado perfecto sin puntos clasificados erróneamente es un ángulo recto a la parte superior izquierda de la trama. Un resultado pobre que no es mejor que al azar es una línea a 45 grados. El número es una medida de la calidad general del clasificador.Area Under Curve Los valores más grandes indican un mejor rendimiento del clasificador.Area Under Curve Compare las clases y los modelos entrenados para ver si funcionan de manera diferente en la curva ROC.

Para obtener más información, consulte.perfcurve

Para exportar los trazados de curva ROC que cree en la aplicación a figuras, consulte.Exportar trazados en la aplicación de aprendizaje de clasificación

Temas relacionados