Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

resubMargin

Los márgenes de clasificación de reenvío para el modelo de códigos de salida de corrección de errores multiclase (ECOC)

Descripción

ejemplo

m = resubMargin(Mdl) Devuelve la representación () para el modelo de códigos de salida de corrección de errores multiclase (ECOC) utilizando los datos de entrenamiento almacenados y las etiquetas de clase correspondientes almacenadas en.márgenes de clasificaciónmMdlMdl.XMdl.Y

se devuelve como un vector de columna numérico con la misma longitud que.mMdl.Y El software estima cada entrada del uso del modelo ECOC entrenado, la fila correspondiente y la etiqueta de clase verdadera.mMdlMdl.XMdl.Y

m = resubMargin(Mdl,Name,Value) Devuelve los márgenes de clasificación con opciones adicionales especificadas por uno o más argumentos de par nombre-valor. Por ejemplo, puede especificar un esquema de decodificación, una función de pérdida binaria de aprendizaje y un nivel de detalle.

Ejemplos

contraer todo

Calcule los márgenes de clasificación de reenvío para un modelo ECOC con alumnos binarios de SVM.

Cargue el conjunto de datos de iris de Fisher. Especifique los datos del predictor y los datos de respuesta.XY

load fisheriris X = meas; Y = species;

Entrenar un modelo ECOC utilizando clasificadores binarios SVM. Estandarice los predictores mediante una plantilla SVM y especifique el orden de la clase.

t = templateSVM('Standardize',true); classOrder = unique(Y)
classOrder = 3x1 cell array
    {'setosa'    }
    {'versicolor'}
    {'virginica' }

Mdl = fitcecoc(X,Y,'Learners',t,'ClassNames',classOrder);

es un objeto de plantilla SVM.t Durante el entrenamiento, el software utiliza los valores predeterminados para las propiedades vacías en. es un modelo.tMdlClassificationECOC

Calcule los márgenes de clasificación para las observaciones utilizadas para entrenar.Mdl Visualice la distribución de los márgenes utilizando una gráfica de caja.

m = resubMargin(Mdl);  boxplot(m) title('In-Sample Margins')

El margen de clasificación de una observación es la pérdida negada de clase positiva menos la pérdida negada de clase negativa máxima. Elija clasificadores que produzcan márgenes relativamente grandes.

Realice la selección de características comparando los márgenes de muestra de formación de varios modelos. Basado únicamente en esta comparación, el modelo con los márgenes más grandes es el mejor modelo.

Cargue el conjunto de datos de iris de Fisher. Defina dos conjuntos de datos:

  • contiene los cuatro predictores.fullX

  • sólo contiene las mediciones del sépalo.partX

load fisheriris X = meas; fullX = X; partX = X(:,1:2); Y = species;

Entrenar un modelo ECOC utilizando los estudiantes binarios SVM para cada conjunto de predictor. Estandarice los predictores mediante una plantilla SVM, especifique el orden de la clase y calcule las probabilidades posteriores.

t = templateSVM('Standardize',true); classOrder = unique(Y)
classOrder = 3x1 cell array
    {'setosa'    }
    {'versicolor'}
    {'virginica' }

FullMdl = fitcecoc(fullX,Y,'Learners',t,'ClassNames',classOrder,...     'FitPosterior',true); PartMdl = fitcecoc(partX,Y,'Learners',t,'ClassNames',classOrder,...     'FitPosterior',true);

Calcule los márgenes de reenvío para cada clasificador. Para cada modelo, visualice la distribución de los márgenes utilizando una gráfica de caja.

fullMargins = resubMargin(FullMdl); partMargins = resubMargin(PartMdl);  boxplot([fullMargins partMargins],'Labels',{'All Predictors','Two Predictors'}) title('Training-Sample Margins')

La distribución del margen de está situada más alta y tiene menos variabilidad que la distribución del margen de.FullMdlPartMdl Este resultado sugiere que el modelo entrenado con todos los predictores se ajusta mejor a los datos de entrenamiento.

Argumentos de entrada

contraer todo

Modelo ECOC de varias clases completo y entrenado, especificado como modelo entrenado con.ClassificationECOCfitcecoc

Argumentos de par nombre-valor

Especifique pares de argumentos separados por comas opcionales. es el nombre del argumento y es el valor correspondiente. deben aparecer dentro de las cotizaciones.Name,ValueNameValueName Puede especificar varios argumentos de par de nombre y valor en cualquier orden como.Name1,Value1,...,NameN,ValueN

Ejemplo: especifica para mostrar los mensajes de diagnóstico en la ventana de comandos.resubMargin(Mdl,'Verbose',1)

Función de pérdida binaria de aprendizaje, especificada como el par separado por comas que consta de un nombre de función de pérdida incorporada o un identificador de función.'BinaryLoss'

  • Esta tabla describe las funciones incorporadas, donde yj es una etiqueta de clase para un alumno binario determinado (en el conjunto {– 1, 1, 0}), sj es la partitura para la observación, y (jgyj,sj) es la fórmula de pérdida binaria.

    ValorDescripciónPuntuación de dominio(gyj,sj)
    'binodeviance'Desviación binomial(– ∞, ∞)log [1 + exp (– 2yjsj)]/[2log (2)]
    'exponential'Exponencial(– ∞, ∞)exp (–yjsj)/2
    'hamming'Hamming[0, 1] o (– ∞, ∞)[1 – signo (yjsj)]/2
    'hinge'Bisagra(– ∞, ∞)Max (0,1 – yjsj)/2
    'linear'Lineal(– ∞, ∞)1 yjsj)/2
    'logit'Logística(– ∞, ∞)log [1 + exp (–yjsj)]/[2log (2)]
    'quadratic'Cuadrática[0,1]1 yj(2sj – 1)]2/2

    El software normaliza las pérdidas binarias para que la pérdida es 0,5 cuando yj = 0. Además, el software calcula la pérdida binaria media para cada clase.

  • Para una función de pérdida binaria personalizada, por ejemplo, especifique su identificador de función.customFunction'BinaryLoss',@customFunction

    tiene este formulario: donde:customFunction

    bLoss = customFunction(M,s)

    • es la matriz-por-codificación almacenada en.MKLMdl.CodingMatrix

    • es el vector 1 por fila de las puntuaciones de clasificación.sL

    • es la pérdida de clasificación.bLoss Este escalar agrega las pérdidas binarias para cada alumno en una clase determinada. Por ejemplo, puede usar la pérdida binaria media para agregar la pérdida sobre los alumnos de cada clase.

    • es el número de clases.K

    • es el número de estudiantes binarios.L

    Para obtener un ejemplo de cómo pasar una función de pérdida binaria personalizada, consulte.Predecir etiquetas de muestra de prueba de modelo ECOC utilizando la función de pérdida binaria personalizada

El valor predeterminado depende de los rangos de puntuación devueltos por los alumnos binarios.BinaryLoss Esta tabla describe algunos valores predeterminados basados en las suposiciones dadas.BinaryLoss

presunciónValor predeterminado
Todos los alumnos binarios son SVMs o modelos de clasificación de kernel o lineales de alumnos de SVM.'hinge'
Todos los estudiantes binarios son conjuntos entrenados por o.AdaboostM1GentleBoost'exponential'
Todos los estudiantes binarios son conjuntos entrenados por.LogitBoost'binodeviance'
Todos los estudiantes binarios son modelos lineales o de clasificación de kernel de los estudiantes de regresión logística. O, especifique para predecir las probabilidades posteriores de clase estableciendo en.'FitPosterior',truefitcecoc'quadratic'

Para comprobar el valor predeterminado, utilice la notación de puntos para mostrar la propiedad del modelo entrenado en la línea de comandos.BinaryLoss

Ejemplo: 'BinaryLoss','binodeviance'

Tipos de datos: char | string | function_handle

Esquema de decodificación que agrega las pérdidas binarias, especificadas como el par separado por comas que consta de y o.'Decoding''lossweighted''lossbased' Para obtener más información, consulte.Pérdida binaria

Ejemplo: 'Decoding','lossbased'

Opciones de estimación, especificadas como el par separado por comas que consta de una matriz de estructura devuelta por.'Options'statset

Para invocar la computación paralela:

  • Necesitas una licencia.Parallel Computing Toolbox™

  • Especificar.'Options',statset('UseParallel',true)

Nivel de verbosidad, especificado como el par separado por comas que consta de y o. controla el número de mensajes de diagnóstico que el software muestra en la ventana de comandos.'Verbose'01Verbose

Si es, entonces el software no visualiza los mensajes de diagnóstico.Verbose0 De lo contrario, el software muestra mensajes de diagnóstico.

Ejemplo: 'Verbose',1

Tipos de datos: single | double

Más acerca de

contraer todo

Margen de clasificación

El es, para cada observación, la diferencia entre la pérdida negativa para la clase verdadera y la pérdida negativa máxima entre las clases falsas.margen de clasificación Si los márgenes están en la misma escala, entonces sirven como una medida de confianza de clasificación. Entre los clasificadores múltiples, los que producen mayores márgenes son mejores.

Pérdida binaria

A es una función de la puntuación de clase y clasificación que determina qué tan bien un alumno binario clasifica una observación en la clase.pérdida binaria

Supongamos lo siguiente:

  • Mkj es Element (,) de la matriz de diseño de codificación (es decir, el código correspondiente a la clase de aprendizaje binario).kjMkj

  • sj es la puntuación de aprendizaje binario para una observación.j

  • es la función de pérdida binaria.g

  • k^ es la clase pronosticada para la observación.

En, la clase que produce la suma mínima de las pérdidas binarias sobre los estudiantes binarios determina la clase pronosticada de una observación, es decir,decodificación basada en pérdidas[Escalera et al.]

k^=argminkj=1L|mkj|g(mkj,sj).

En, la clase que produce el promedio mínimo de las pérdidas binarias sobre los estudiantes binarios determina la clase pronosticada de una observación, es decir,decodificación ponderada por pérdida[Escalera et al.]

k^=argminkj=1L|mkj|g(mkj,sj)j=1L|mkj|.

sugieren que la decodificación ponderada por pérdida mejora la precisión de la clasificación manteniendo los valores de pérdida para todas las clases en el mismo rango dinámico.Allwein et al.

En esta tabla se resumen las funciones de pérdida admitidas, donde yj es una etiqueta de clase para un alumno binario determinado (en el conjunto {– 1, 1, 0}), sj es la partitura para la observación, y (jgyj,sj).

ValorDescripciónPuntuación de dominio(gyj,sj)
'binodeviance'Desviación binomial(– ∞, ∞)log [1 + exp (– 2yjsj)]/[2log (2)]
'exponential'Exponencial(– ∞, ∞)exp (–yjsj)/2
'hamming'Hamming[0, 1] o (– ∞, ∞)[1 – signo (yjsj)]/2
'hinge'Bisagra(– ∞, ∞)Max (0,1 – yjsj)/2
'linear'Lineal(– ∞, ∞)1 yjsj)/2
'logit'Logística(– ∞, ∞)log [1 + exp (–yjsj)]/[2log (2)]
'quadratic'Cuadrática[0,1]1 yj(2sj – 1)]2/2

El software normaliza las pérdidas binarias de tal forma que la pérdida es de 0,5 cuando yj = 0 y agregados con el promedio de los alumnos binarios.[Allwein et al.]

No confunda la pérdida binaria con la pérdida de clasificación general (especificada por el argumento de par nombre-valor de las funciones de objeto y), que mide qué tan bien se comporta un clasificador ECOC como un todo.'LossFun'lossPredecir

Sugerencias

  • Para comparar los márgenes o los bordes de varios clasificadores ECOC, utilice objetos de plantilla para especificar una función de transformación de puntuación común entre los clasificadores durante el entrenamiento.

Referencias

[1] Allwein, E., R. Schapire, and Y. Singer. “Reducing multiclass to binary: A unifying approach for margin classifiers.” Journal of Machine Learning Research. Vol. 1, 2000, pp. 113–141.

[2] Escalera, S., O. Pujol, and P. Radeva. “On the decoding process in ternary error-correcting output codes.” IEEE Transactions on Pattern Analysis and Machine Intelligence. Vol. 32, Issue 7, 2010, pp. 120–134.

[3] Escalera, S., O. Pujol, and P. Radeva. “Separability of ternary codes for sparse designs of error-correcting output codes.” Pattern Recogn. Vol. 30, Issue 3, 2009, pp. 285–297.

Capacidades ampliadas

Introducido en R2014b