Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

Elija Opciones de clasificador

Elija un tipo de clasificador

Puede usar la clasificación de aprendizaje para entrenar automáticamente una selección de diferentes modelos de clasificación en los datos. Utilice el entrenamiento automatizado para probar rápidamente una selección de tipos de modelo y luego explore modelos prometedores de forma interactiva. Para empezar, prueba estas opciones primero:

Botones de clasificador de introducciónDescripción
All Quick-To-TrainPrueba esto primero. La aplicación capacitará a todos los tipos de modelos disponibles para su conjunto de datos que normalmente son rápidos de ajustar.
All LinearPruebe esto si espera límites lineales entre las clases de los datos. Esta opción solo se ajusta a SVM lineal y discriminante lineal.
AllUtilice esta para entrenar todos los tipos de modelos disponibles. Entrena cada tipo independientemente de cualquier modelo entrenado previo. Puede llevar mucho tiempo.

Ver.Entrenamiento de clasificador automatizado

Si desea explorar clasificadores uno a la vez, o ya sabe qué tipo de clasificador desea, puede seleccionar modelos individuales o entrenar a un grupo del mismo tipo. Para ver todas las opciones de clasificador disponibles, en la pestaña, haga clic en la flecha situada en el extremo derecho de la sección para expandir la lista de clasificadores.Classification LearnerModel Type Las opciones de la galería son puntos de partida preestablecidos con diferentes ajustes, adecuados para un rango de diferentes problemas de clasificación.Model Type

Para obtener ayuda para elegir el mejor tipo de clasificador para su problema, consulte la tabla que muestra las características típicas de diferentes algoritmos de aprendizaje supervisado. Utilice la tabla como guía para su elección final de algoritmos. Decida la contrapartida que desea en cuanto a velocidad, uso de memoria, flexibilidad e interpretabilidad. El mejor tipo de clasificador depende de los datos.

Sugerencia

Para evitar el sobreajuste, busque un modelo de menor flexibilidad que proporcione una precisión suficiente. Por ejemplo, busque modelos simples como árboles de decisión y discriminantes que sean rápidos y fáciles de interpretar. Si los modelos no son lo suficientemente precisos para predecir la respuesta, elija otros clasificadores con mayor flexibilidad, como conjuntos. Para controlar la flexibilidad, consulte los detalles de cada tipo de clasificador.

Características de los tipos de clasificador

ClasificadorVelocidad de predicciónUso de memoriaInterpretación
Árboles de decisión
rápidoPequeñoFácil
Análisis discriminante
rápidoPequeño para lineal, grande para cuadráticaFácil
Regresión logística
rápidoMedioFácil

Máquinas de vectores de soporte

Nota

Admite la generación de código C para la predicción.

Medio para la lentitud lineal para otros
Medio para lineal. Todos los demás: mediano para multiclase, grande para binario.
Fácil para SVM lineal. Difícil para todos los demás tipos de kernel.
Los clasificadores de vecinos más cercanos
Lento para Medium cúbico para otros
MedioDuro
Los clasificadores de Ensemble
Rápido a medio dependiendo de la elección del algoritmoBajo a alto dependiendo de la elección del algoritmoDuro
Naive Bayes Classifiers
Medio para distribuciones simples Slow para distribuciones de kernel o datos de alta dimensionalidad
Pequeño para distribuciones simples Medium para distribuciones de kernel o datos de alta dimensionalidad
Fácil

Las tablas de esta página describen las características generales de la velocidad y el uso de memoria para todos los clasificadores preestablecidos. Los clasificadores se probaron con varios conjuntos de datos (hasta 7000 observaciones, 80 predictores y 50 clases), y los resultados definen los siguientes grupos:

Velocidad

  • Rápido 0,01 segundo

  • Medio 1 segundo

  • Lento 100 segundos

Memoria

  • Pequeño 1MB

  • Mediano 4MB

  • Grandes 100MB

Estas tablas proporcionan una guía general. Sus resultados dependen de sus datos y de la velocidad de su máquina.

Para leer una descripción de cada clasificador en el aprendizaje de clasificación, cambie a la vista de detalles.

Sugerencia

Después de elegir un tipo de clasificador (por ejemplo, árboles de decisión), intente entrenar con cada uno de los clasificadores. Las opciones de la galería son puntos de inicio con diferentes ajustes.Model Type Pruébelo todos para ver qué opción produce el mejor modelo con sus datos.

Para obtener instrucciones de flujo de trabajo, consulte.Modelos de clasificación de trenes en la aplicación clasificación aprendiz

Soporte de predictor categórico

En el aprendizaje de clasificación, la Galería solo muestra los tipos de clasificador que admiten los datos seleccionados.Model Type

ClasificadorTodos los predictores numéricosTodos los predictores categóricosAlgunos categóricos, algunos numéricos
Árboles de decisión
Análisis discriminanteNoNo
Regresión logística
Svm
Vecino más cercanoDistancia euclidiana sóloLa distancia de Hamming sóloNo
ConjuntosSí, excepto el discriminante subespacialSí, excepto cualquier subespacio
Naive Bayes

Árboles de decisión

Los árboles de decisión son fáciles de interpretar, son rápidos para el ajuste y la predicción y tienen un bajo consumo de memoria, pero pueden tener una precisión predictiva baja. Trate de cultivar árboles más simples para evitar el sobreajuste. Controle la profundidad con el ajuste.Maximum number of splits

Sugerencia

La flexibilidad del modelo aumenta con el ajuste.Maximum number of splits

Tipo de clasificadorVelocidad de predicciónUso de memoriaInterpretaciónFlexibilidad del modelo
Árbol grueso
rápidoPequeñoFácilBajo pocas hojas para hacer distinciones gruesas entre clases (el número máximo de divisiones es 4).
Árbol mediano
rápidoPequeñoFácilMedio medio número de hojas para distinciones más finas entre clases (el número máximo de divisiones es 20).
Fine Tree
rápidoPequeñoFácilHigh many hojas para hacer muchas distinciones finas entre clases (número máximo de divisiones es 100).

Sugerencia

En la galería, haga clic en todos los árboles para probar cada una de las opciones del árbol de decisión.Model Type Capacitarlos a todos para ver qué configuraciones producen el mejor modelo con sus datos. Seleccione el mejor modelo en la lista historial. Para intentar mejorar el modelo, pruebe la selección de características y, a continuación, intente cambiar algunas opciones avanzadas.

Entrena árboles de clasificación para predecir las respuestas a los datos. Para predecir una respuesta, siga las decisiones en el árbol desde el nodo raíz (comenzando) hasta un nodo hoja. El nodo hoja contiene la respuesta. árboles son binarios.Statistics and Machine Learning Toolbox™ Cada paso de una predicción implica comprobar el valor de un predictor (variable). Por ejemplo, aquí hay un árbol de clasificación simple:

Este árbol predice clasificaciones basadas en dos predictores y.x1x2 Para predecir, comience en el nodo superior. En cada decisión, compruebe los valores de los predictores para decidir qué rama seguir. Cuando las ramas alcanzan un nodo hoja, los datos se clasifican como tipo o.01

Puede visualizar el modelo de árbol de decisión exportando el modelo desde la aplicación y, a continuación, escribiendo: la figura muestra un árbol fino de ejemplo entrenado con los datos.

view(trainedModel.ClassificationTree,'Mode','graph') 
fisheriris

Opciones de árbol avanzado

Los árboles de clasificación del alumno de clasificación utilizan la función.fitctree Puede establecer estas opciones:

  • Maximum number of splits

    Especifique el número máximo de divisiones o puntos de bifurcación para controlar la profundidad del árbol. Cuando crezca un árbol de decisiones, tenga en cuenta su simplicidad y poder predictivo. Para cambiar el número de divisiones, haga clic en los botones o introduzca un valor entero positivo en el cuadro.Maximum number of splits

    • Un árbol fino con muchas hojas suele ser muy preciso en los datos de entrenamiento. Sin embargo, es posible que el árbol no muestre una precisión comparable en un conjunto de pruebas independiente. Un árbol frondoso tiende a sobreentrenarse, y su precisión de validación es a menudo mucho más baja que su precisión de entrenamiento (o representación).

    • Por el contrario, un árbol grueso no alcanza una alta precisión de entrenamiento. Pero un árbol grueso puede ser más robusto en que su precisión de entrenamiento puede acercarse a la de un conjunto de prueba representativo. Además, un árbol grueso es fácil de interpretar.

  • Split criterion

    Especifique la medida del criterio de división para decidir cuándo dividir los nodos. Pruebe cada una de las tres configuraciones para ver si mejoran el modelo con sus datos.

    Las opciones de criterio de división son Gini's diversity index, Twoing ruleO Maximum deviance reduction (también conocida como entropía cruzada).

    El árbol de clasificación intenta optimizar a nodos puros que contienen una sola clase. El índice de diversidad de Gini (el valor predeterminado) y el criterio de desviación miden la impureza del nodo. La regla de twoing es una medida diferente para decidir cómo dividir un nodo, donde maximizar la expresión de la regla de twoing aumenta la pureza del nodo.

    Para obtener más información sobre estos criterios de división, consulte.ClassificationTreeMás acerca de

  • — Sólo para los datos faltantes.Surrogate decision splits

    Especifique el uso suplente para las divisiones de decisión. Si tiene datos con valores faltantes, use divisiones sustitutas para mejorar la precisión de las predicciones.

    Cuando se establece enSurrogate decision splits On, el árbol de clasificación encuentra como máximo 10 divisiones sustitutas en cada nodo de bifurcación. Para cambiar el número, haga clic en los botones o introduzca un valor entero positivo en el cuadro.Maximum surrogates per node

    Cuando se establece enSurrogate decision splits Find All, el árbol de clasificación encuentra todas las divisiones sustitutas en cada nodo de bifurcación. el Find All configuración puede utilizar un tiempo y una memoria considerables.

Análisis discriminante

El análisis discriminante es un algoritmo popular de primera clasificación para probar porque es rápido, preciso y fácil de interpretar. El análisis discriminante es bueno para conjuntos de datos anchos.

El análisis discriminante asume que las diferentes clases generan datos basados en distribuciones Gaussianas diferentes. Para entrenar un clasificador, la función de empalme estima los parámetros de una distribución gaussiana para cada clase.

Tipo de clasificadorVelocidad de predicciónUso de memoriaInterpretaciónFlexibilidad del modelo
Discriminante lineal
rápidoPequeñoFácilBajo crea límites lineales entre clases.
Cuadrática discriminante
rápidoGrandeFácilBajo crea contornos no lineales entre clases (elipse, parábola o Hipérbola).

Opciones de discriminante avanzadas

El análisis discriminante en la clasificación Learner utiliza la función.fitcdiscr Para discriminantes lineales y cuadráticos, puede cambiar la opción.Covariance structure Si tiene predictores con varianza cero o si alguna de las matrices de covarianza de sus predictores es singular, el entrenamiento puede fallar usando el valor predeterminado, Full estructura de covarianza. Si el entrenamiento falla, seleccione el Diagonal estructura de covarianza en su lugar.

Regresión logística

Si tiene 2 clases, la regresión logística es un algoritmo de clasificación simple popular para probar porque es fácil de interpretar. El clasificador modela las probabilidades de clase como una función de la combinación lineal de predictores.

Tipo de clasificadorVelocidad de predicciónUso de memoriaInterpretaciónFlexibilidad del modelo
Regresión logística
rápidoMedioFácilLow no puede cambiar ningún parámetro para controlar la flexibilidad del modelo.

La regresión logística de la clasificación Learner utiliza la función.fitglm No se puede establecer ninguna opción para este clasificador en la aplicación.

Máquinas de vectores de soporte

En el aprendizaje de clasificación, puede entrenar SVMs cuando los datos tienen dos o más clases.

Nota

Después de entrenar un modelo SVM, puede generar código C para la predicción. Requiere MATLAB®Coder™. Ver.Generar código C para predicción

Tipo de clasificadorVelocidad de predicciónUso de memoria InterpretaciónFlexibilidad del modelo
SVM lineal

Binario: rápido

Multiclase Medio

MedioFácilLow hace una simple separación lineal entre clases.
Cuadrática SVM

Binario: rápido

Multiclase Lento

Binario: Medio

Multiclase Grande

DuroMedio
Cubic SVM

Binario: rápido

Multiclase Lento

Binario: Medio

Multiclase Grande

DuroMedio
SVM gaussiana fina

Binario: rápido

Multiclase Lento

Binario: Medio

Multiclase Grande

DuroAlto: disminuye con la configuración de escala del kernel. Realiza distinciones finamente detalladas entre clases, con la escala de kernel configurada.
sqrt(P)/4
Media gaussiana SVM

Binario: rápido

Multiclase Lento

Binario: Medio

Multiclase Grande

DuroDistinciones medianas medianas, con escala de kernel configurada.
sqrt(P)
SVM gaussiana gruesa

Binario: rápido

Multiclase Lento

Binario: Medio

Multiclase Grande

DuroBajo hace distinciones gruesas entre clases, con la escala del kernel establecida, donde P es el número de predictores.
sqrt(P)*4

Sugerencia

Intente entrenar cada una de las opciones de máquina de vectores de soporte en la galería.Model Type Capacitarlos a todos para ver qué configuraciones producen el mejor modelo con sus datos. Seleccione el mejor modelo en la lista historial. Para intentar mejorar el modelo, pruebe la selección de características y, a continuación, intente cambiar algunas opciones avanzadas.

Un SVM clasifica los datos encontrando el mejor hiperplano que separa los puntos de datos de una clase de los de la otra clase. El mejor hiperplano para un SVM significa el que tiene el margen más grande entre las dos clases. Margen significa la anchura máxima de la losa paralela al hiperplano que no tiene puntos de datos interiores.

Son los puntos de datos más cercanos al hiperplano separador; estos puntos están en el límite de la losa.vectores de soporte La figura siguiente ilustra estas definiciones, con + indicando puntos de datos de tipo 1 y – indicando puntos de datos de tipo – 1.

Los SVC también pueden utilizar un margen suave, es decir, un hiperplano que separa muchos, pero no todos los puntos de datos.

Para ver un ejemplo, vea.Entrenar máquinas de vectores de soporte usando la aplicación de clasificación aprendiz

Opciones avanzadas de SVM

Si tiene exactamente dos clases, el alumno de clasificación utiliza la función para entrenar el clasificador.fitcsvm Si tiene más de dos clases, la aplicación usa la función para reducir el problema de clasificación multiclase a un conjunto de subproblemas de clasificación binaria, con un alumno de SVM para cada subproblema.fitcecoc Para examinar el código de los tipos de clasificador binario y multiclase, puede generar código a partir de los clasificadores entrenados en la aplicación.

Puede establecer estas opciones en la aplicación:

  • Kernel function

    Especifique la función kernel para calcular el clasificador.

    • Kernel lineal, más fácil de interpretar

    • El kernel de la función de base radial (RBF) de Gaussian

    • Cuadrática

    • Cúbicos

  • Box constraint level

    Especifique la restricción de cuadro para mantener los valores permitidos de los multiplicadores de Lagrange en un cuadro, una región delimitada.

    Para ajustar el clasificador SVM, intente aumentar el nivel de restricción de cuadro. Haga clic en los botones o escriba un valor escalar positivo en el cuadro.Box constraint level Aumentar el nivel de restricción de cuadro puede disminuir el número de vectores de soporte, pero también puede aumentar el tiempo de entrenamiento.

    El parámetro restricción de cuadro es la penalización de margen suave conocida como C en las ecuaciones primarias, y es una restricción de "caja" dura en las ecuaciones duales.

  • Kernel scale mode

    Especifique el escalado manual del kernel si lo desea.

    Cuando se establece enKernel scale mode Auto, el software utiliza un procedimiento heurístico para seleccionar el valor de escala. El procedimiento heurístico utiliza el submuestreo. Por lo tanto, para reproducir los resultados, establezca un número de inicialización aleatorio utilizando antes de entrenar el clasificador.rng

    Cuando se establece enKernel scale mode Manual, puede especificar un valor. Haga clic en los botones o escriba un valor escalar positivo en el cuadro.Manual kernel scale El software divide todos los elementos de la matriz predictora por el valor de la escala del kernel. Entonces, el software aplica la norma de kernel apropiada para computar la matriz Gram.

    Sugerencia

    La flexibilidad del modelo disminuye con la configuración de escala del kernel.

  • Multiclass method

    Solo para datos con 3 o más clases. Este método reduce el problema de clasificación multiclase a un conjunto de subproblemas de clasificación binaria, con un alumno de SVM para cada subproblema. One-vs-One entrena a un alumno por cada par de clases. Aprende a distinguir una clase de la otra. One-vs-All entrena a un alumno para cada clase. Aprende a distinguir una clase de todas las demás.

  • Standardize data

    Especifique si desea escalar cada distancia de coordenadas. Si los predictores tienen escalas muy diferentes, estandarizar puede mejorar el ajuste.

Los clasificadores de vecinos más cercanos

Los clasificadores de vecino más cercanos suelen tener una buena precisión predictiva en dimensiones bajas, pero no en dimensiones elevadas. Tienen un uso de memoria alto y no son fáciles de interpretar.

Sugerencia

La flexibilidad del modelo disminuye con el ajuste.Number of neighbors

Tipo de clasificadorVelocidad de predicciónUso de memoriaInterpretaciónFlexibilidad del modelo
Fine KNN
MedioMedioDuro

Distinción finamente detallada entre clases. El número de vecinos se establece en 1.

KNN mediano
MedioMedioDuro

Distinciones medianas entre clases. El número de vecinos se establece en 10.

KNN grueso
MedioMedioDuro

Distinciones gruesas entre clases. El número de vecinos se establece en 100.

Coseno KNN
MedioMedioDuroDistinciones medianas entre clases, utilizando una métrica de distancia de coseno. El número de vecinos se establece en 10.
Cubic KNN
LentoMedioDuroDistinciones medianas entre clases, utilizando una métrica de distancia cúbica. El número de vecinos se establece en 10.
KNN ponderado
MedioMedioDuroDistinciones medianas entre clases, utilizando un peso de distancia. El número de vecinos se establece en 10.

Sugerencia

Intente entrenar cada una de las opciones vecinas más cercanas en la galería.Model Type Capacitarlos a todos para ver qué configuraciones producen el mejor modelo con sus datos. Seleccione el mejor modelo en la lista historial. Para intentar mejorar el modelo, pruebe la selección de características y, a continuación, (opcionalmente) intente cambiar algunas opciones avanzadas.

¿Qué es la clasificación de vecino más cercano?k La categorización de puntos de consulta en función de su distancia a puntos (o vecinos) en un DataSet de entrenamiento puede ser una forma sencilla pero eficaz de clasificar nuevos puntos. Puede utilizar varias métricas para determinar la distancia. Dado un conjunto de puntos y una función de distancia, la búsqueda de vecino más cercano (NN) le permite encontrar los puntos más cercanos en un punto de consulta o un conjunto de puntos.XnkkkX Los algoritmos basados en NN se utilizan ampliamente como reglas de aprendizaje automático de referencia.k

Para ver un ejemplo, vea.Entrenar clasificadores de vecinos más cercanos mediante la aplicación de clasificación aprendiz

Opciones avanzadas de KNN

Los clasificadores de vecino más cercano en clasificación Learner utilizan la función.fitcknn Puede establecer estas opciones:

  • Number of neighbors

    Especifique el número de vecinos más cercanos que desea buscar para clasificar cada punto al predecir. Especifique un clasificador fino (número bajo) o grueso (número alto) cambiando el número de vecinos. Por ejemplo, un KNN fino utiliza un vecino, y un KNN grueso utiliza 100. Muchos vecinos pueden ser mucho tiempo para caber.

  • Distance metric

    Puede utilizar varias métricas para determinar la distancia a los puntos. Para las definiciones, vea la clase.ClassificationKNN

  • Distance weight

    Especifique la función de ponderación de distancia. Puede elegir Equal (sin pesos), Inverse (el peso es 1/distancia), o Squared Inverse (el peso es 1/distancia2).

  • Standardize data

    Especifique si desea escalar cada distancia de coordenadas. Si los predictores tienen escalas muy diferentes, estandarizar puede mejorar el ajuste.

Los clasificadores de Ensemble

Los clasificadores de conjuntos fusionan los resultados de muchos estudiantes débiles en un modelo de conjunto de alta calidad. Las cualidades dependen de la elección del algoritmo.

Sugerencia

La flexibilidad del modelo aumenta con el ajuste.Number of learners

Todos los clasificadores del conjunto tienden a ser lentos para caber porque a menudo necesitan muchos estudiantes.

Tipo de clasificadorVelocidad de predicciónUso de memoriaInterpretaciónMétodo EnsembleFlexibilidad del modelo
Árboles potenciado
rápidoBajoDuroAdaBoostCon Decision Tree Estudiantes

Medio a alto: aumenta con o ajuste.Number of learnersMaximum number of splits

Sugerencia

Los árboles potenciados suelen ser mejores que los embolados, pero pueden requerir ajustes de parámetros y más alumnos

Árboles en bolsas
MedioAltoDuroBosque aleatorio
BagCon Decision Tree Estudiantes

Alto: aumenta con el ajuste.Number of learners

Sugerencia

Pruebe primero este clasificador.

Discriminante subespacial
MedioBajoDuroSubspaceCon Discriminant Estudiantes

Medio: aumenta con el ajuste.Number of learners

Bueno para muchos predictores

El subespacio KNN
MedioMedioDuroSubspaceCon Nearest Neighbor Estudiantes

Medio: aumenta con el ajuste.Number of learners

Bueno para muchos predictores

Los árboles RUSBoost
rápidoBajoDuroRUSBoostCon Decision Tree Estudiantes

Medio: aumenta con o establece.Number of learnersMaximum number of splits

Bueno para datos sesgados (con muchas más observaciones de 1 clase)

GentleBoost o LogitBoost — no disponible en la galería.Model Type Si tiene 2 datos de clase, selecciónelo manualmente.
rápidoBajoDuroGentleBoost O LogitBoostCon Decision Tree los alumnos eligen
Boosted Trees y cambiar a GentleBoost Método.

Medio: aumenta con o establece.Number of learnersMaximum number of splits

Sólo para la clasificación binaria

Los árboles enroscada usan el algoritmo de Breiman.'random forest' Para referencia, véase Breiman, L. bosques aleatorios. Machine learning 45, págs. 5 – 32, 2001.

Consejos

  • Pruebe los árboles en bolsas primero. Los árboles potenciado normalmente pueden hacer mejor, pero pueden requerir la búsqueda de muchos valores de parámetro, que consume mucho tiempo.

  • Intente entrenar cada una de las opciones de clasificador de conjunto en la galería.Model Type Capacitarlos a todos para ver qué configuraciones producen el mejor modelo con sus datos. Seleccione el mejor modelo en la lista historial. Para intentar mejorar el modelo, pruebe la selección de características, PCA y, a continuación, (opcionalmente) intente cambiar algunas opciones avanzadas.

  • Para aumentar los métodos de conjunto, puede obtener detalles finos con árboles más profundos o con un número mayor de árboles poco profundos. Al igual que con los clasificadores de árbol único, los árboles profundos pueden causar sobreajuste. Es necesario experimentar para elegir la mejor profundidad de árbol para los árboles en el conjunto, con el fin de los datos de intercambio de ajuste con la complejidad del árbol. Utilice la configuración y.Number of learnersMaximum number of splits

Para ver un ejemplo, vea.Clasificadores de conjuntos de trenes utilizando la aplicación clasificación aprendiz

Opciones de conjunto avanzado

Los clasificadores de conjunto de la clasificación Learner utilizan la función.fitcensemble Puede establecer estas opciones:

  • Para obtener ayuda para elegir y, consulte la tabla Ensemble.Ensemble methodLearner type Pruebe los presets primero.

  • Maximum number of splits

    Para aumentar los métodos de conjunto, especifique el número máximo de divisiones o puntos de bifurcación para controlar la profundidad de los alumnos del árbol. Muchas ramas tienden a sobreajustarse, y los árboles más simples pueden ser más robustos y fáciles de interpretar. Experimenta para elegir la mejor profundidad de árbol para los árboles en el conjunto.

  • Number of learners

    Intente cambiar el número de alumnos para ver si puede mejorar el modelo. Muchos estudiantes pueden producir una alta precisión, pero pueden consumir mucho tiempo para ajustarse. Empiece con unas cuantas docenas de alumnos y, a continuación, inspeccione el rendimiento. Un conjunto con un buen poder predictivo puede necesitar unos cientos de estudiantes.

  • Learning rate

    Especifique la tasa de aprendizaje para la contracción. Si establece la velocidad de aprendizaje en menos de 1, el conjunto requiere más iteraciones de aprendizaje, pero a menudo logra una mejor precisión. 0,1 es una opción popular.

  • Subspace dimension

    Para conjuntos subespaciales, especifique el número de predictores que se muestrean en cada alumno. La aplicación elige un subconjunto aleatorio de los predictores para cada alumno. Los subconjuntos elegidos por diferentes alumnos son independientes.

Naive Bayes Classifiers

Los clasificadores Naive Bayes son fáciles de interpretar y útiles para la clasificación multiclase. El algoritmo Bayes Ingenuo aprovecha el teorema de Bayes y hace la suposición de que los predictores son condicionalmente independientes, dada la clase. Utilice estos clasificadores si esta suposición de independencia es válida para los predictores de los datos. Sin embargo, el algoritmo todavía parece funcionar bien cuando la suposición de independencia no es válida.

Para clasificadores Bayes ingenuos del kernel, puede controlar el tipo de kernel más suave con la configuración y controlar el soporte de densidad de suavizado del kernel con el ajuste.Kernel TypeSupport

Tipo de clasificadorVelocidad de predicciónUso de memoriaInterpretaciónFlexibilidad del modelo
Las Bayes de la gaussiana Naive
Media Slow para datos de alta cota
Pequeño medio para datos de alta cota
FácilLow no puede cambiar ningún parámetro para controlar la flexibilidad del modelo.
Kernel Naive Bayes
LentoMedioFácilMedium puede cambiar la configuración y controlar cómo los modelos de clasificador predicen las distribuciones.
Kernel TypeSupport

Bayes Naive en el aprendizaje de clasificación utiliza la función.fitcnb

Opciones avanzadas de Naive Bayes

Para clasificadores Bayes ingenuos del kernel, puede establecer estas opciones:

  • : Permite especificar el tipo más suave del kernel.Kernel Type Pruebe a configurar cada una de estas opciones para ver si mejoran el modelo con sus datos.

    Las opciones de tipo kernel son Gaussian, Box, EpanechnikovO Triangle.

  • : Permite especificar el soporte de densidad de suavizado del kernel.Support Pruebe a configurar cada una de estas opciones para ver si mejoran el modelo con sus datos.

    Las opciones de soporte son Unbounded (todos los valores reales) o Positive (todos los valores reales positivos).

Para los próximos pasos modelos de entrenamiento, ver.Modelos de clasificación de trenes en la aplicación clasificación aprendiz

Temas relacionados