Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

edge

Borde de clasificación para el modelo de códigos de salida de corrección de errores multiclase (ECOC)

Descripción

e = edge(Mdl,tbl,ResponseVarName) Devuelve el () para el clasificador entrenado multiclase de códigos de salida de corrección de errores (ECOC) utilizando los Datos predictores en la tabla y las etiquetas de clase en.borde de clasificacióneMdltbltbl.ResponseVarName

e = edge(Mdl,tbl,Y) Devuelve el borde de clasificación para el clasificador utilizando los Datos predictores en la tabla y las etiquetas de clase en Vector.MdltblY

ejemplo

e = edge(Mdl,X,Y) Devuelve el borde de clasificación () para el clasificador utilizando los Datos predictores en la matriz y las etiquetas de clase en Vector.eMdlXY

ejemplo

e = edge(___,Name,Value) especifica opciones utilizando uno o más argumentos de par nombre-valor además de cualquiera de las combinaciones de argumento de entrada en sintaxis anteriores. Por ejemplo, puede especificar un esquema de decodificación, una función de pérdida binaria de aprendizaje y un nivel de detalle.

Ejemplos

contraer todo

Calcule el borde de clasificación de muestra de prueba de un modelo ECOC con clasificadores binarios SVM.

Cargue el conjunto de datos de iris de Fisher. Especifique los datos del predictor, los datos de respuesta y el orden de las clases.XYY

load fisheriris X = meas; Y = categorical(species); classOrder = unique(Y); % Class order rng(1); % For reproducibility

Entrenar un modelo ECOC utilizando clasificadores binarios SVM. Especifique un 30% de muestra de exclusión para las pruebas, estandarice los predictores mediante una plantilla de SVM y especifique el orden de la clase.

t = templateSVM('Standardize',true); PMdl = fitcecoc(X,Y,'Holdout',0.30,'Learners',t,'ClassNames',classOrder); Mdl = PMdl.Trained{1};           % Extract trained, compact classifier

es un modelo.PMdlClassificationPartitionedECOC Tiene la propiedad, una matriz de celdas 1 por 1 que contiene el modelo que el software entrenado utilizando los datos de entrenamiento.TrainedCompactClassificationECOC

Calcule el borde de la muestra de prueba.

testInds = test(PMdl.Partition);  % Extract the test indices XTest = X(testInds,:); YTest = Y(testInds,:); e = edge(Mdl,XTest,YTest)
e = 0.4573 

El promedio de los márgenes de la muestra de prueba es aproximadamente 0,46.

Calcule la media de los márgenes ponderados de la muestra de prueba de un modelo ECOC.

Supongamos que las observaciones de un conjunto de datos se miden secuencialmente, y que las últimas 75 observaciones tienen mejor calidad debido a una actualización de la tecnología. Incorpore este avance dando a las observaciones de mejor calidad más peso que las otras observaciones.

Cargue el conjunto de datos de iris de Fisher. Especifique los datos del predictor, los datos de respuesta y el orden de las clases.XYY

load fisheriris X = meas; Y = categorical(species); classOrder = unique(Y); % Class order rng(1); % For reproducibility

Defina un vector de peso que asigne el doble de peso a las observaciones de mejor calidad.

n = size(X,1); weights = [ones(n-75,1);2*ones(75,1)];

Entrenar un modelo ECOC utilizando clasificadores binarios SVM. Especifique una muestra de retención del 30% y el esquema de ponderación. Estandarice los predictores mediante una plantilla SVM y especifique el orden de la clase.

t = templateSVM('Standardize',true); PMdl = fitcecoc(X,Y,'Holdout',0.30,'Weights',weights,...     'Learners',t,'ClassNames',classOrder); Mdl = PMdl.Trained{1};           % Extract trained, compact classifier

es un modelo entrenado.PMdlClassificationPartitionedECOC Tiene la propiedad, una matriz de celdas 1 por 1 que contiene el clasificador que el software entrenado utilizando los datos de entrenamiento.TrainedCompactClassificationECOC

Calcule el borde ponderado de muestreo de prueba utilizando el esquema de ponderación.

testInds = test(PMdl.Partition);  % Extract the test indices XTest = X(testInds,:); YTest = Y(testInds,:); wTest = weights(testInds,:); e = edge(Mdl,XTest,YTest,'Weights',wTest)
e = 0.4798 

El margen ponderado promedio de la muestra de prueba es de aproximadamente 0,48.

Realice la selección de características comparando los bordes de la muestra de prueba de varios modelos. Basado únicamente en esta comparación, el clasificador con el borde más grande es el mejor clasificador.

Cargue el conjunto de datos de iris de Fisher. Especifique los datos del predictor, los datos de respuesta y el orden de las clases.XYY

load fisheriris X = meas; Y = categorical(species); classOrder = unique(Y); % Class order rng(1); % For reproducibility

Particionar el conjunto de datos en conjuntos de entrenamiento y prueba. Especifique una muestra de retención del 30% para las pruebas.

Partition = cvpartition(Y,'Holdout',0.30); testInds = test(Partition); % Indices for the test set XTest = X(testInds,:); YTest = Y(testInds,:);

define la partición del conjunto de datos.Partition

Defina estos dos conjuntos de datos:

  • contiene todos los predictores.fullX

  • sólo contiene las cotas de pétalo.partX

fullX = X; partX = X(:,3:4);

Entrenar un modelo ECOC utilizando clasificadores binarios SVM para cada conjunto de predictor. Especifique la definición de la partición, estandarice los predictores utilizando una plantilla SVM y especifique el orden de la clase.

t = templateSVM('Standardize',true); fullPMdl = fitcecoc(fullX,Y,'CVPartition',Partition,'Learners',t,...     'ClassNames',classOrder); partPMdl = fitcecoc(partX,Y,'CVPartition',Partition,'Learners',t,...     'ClassNames',classOrder); fullMdl = fullPMdl.Trained{1}; partMdl = partPMdl.Trained{1};

y son modelos.fullPMdlpartPMdlClassificationPartitionedECOC Cada modelo tiene la propiedad, una matriz de celdas 1 por 1 que contiene el modelo que el software entrenado utilizando el conjunto de entrenamiento correspondiente.TrainedCompactClassificationECOC

Calcule el borde de la muestra de prueba para cada clasificador.

fullEdge = edge(fullMdl,XTest,YTest)
fullEdge = 0.4574 
partEdge = edge(partMdl,XTest(:,3:4),YTest)
partEdge = 0.4839 

produce un valor de arista comparable al valor del modelo más complejo.partMdlfullMdl

Argumentos de entrada

contraer todo

Modelo ECOC multiclase completo o compacto, especificado como objeto o modelo.ClassificationECOCCompactClassificationECOC

Para crear un modelo ECOC completo o compacto, consulte o.ClassificationECOCCompactClassificationECOC

Datos de ejemplo, especificados como una tabla. Cada fila de corresponde a una observación, y cada columna corresponde a una variable predictora.tbl Opcionalmente, puede contener columnas adicionales para la variable de respuesta y ponderaciones de observación. debe contener todos los predictores utilizados para entrenar.tbltblMdl No se permiten las variables de varias columnas ni matrices de celdas que no sean matrices de celdas de vectores de caracteres.

Si entrena con datos de ejemplo contenidos en a, los datos de entrada paraMdltable edge también debe estar en una tabla.

Nota

Si contiene modelos de clasificación de kernel o lineales (o objetos de modelo), no puede especificar datos de ejemplo en un.Mdl.BinaryLearnersClassificationLinearClassificationKerneltable En su lugar, pase una matriz () y etiquetas de clase ().XY

Cuando se entrena, suponga que establece para un objeto de plantilla especificado en el argumento de par nombre-valor de.Mdl'Standardize',true'Learners'fitcecoc En este caso, para el aprendizaje binario correspondiente, el software estandariza las columnas de los nuevos Datos predictores utilizando los medios correspondientes y las desviaciones estándar en.jMdl.BinaryLearner{j}.MuMdl.BinaryLearner{j}.Sigma

Tipos de datos: table

Nombre de variable de respuesta, especificado como el nombre de una variable en.tbl Si contiene la variable de respuesta utilizada para entrenar, no es necesario especificar.tblMdlResponseVarName

Si especifica, debe hacerlo como un vector de caracteres o un escalar de cadena.ResponseVarName Por ejemplo, si la variable de respuesta se almacena como, a continuación, especifique as.tbl.yResponseVarName'y' De lo contrario, el software trata todas las columnas de, incluidos, como predictores.tbltbl.y

La variable de respuesta debe ser una matriz categórica, de caracteres o de cadena, un vector lógico o numérico o una matriz de vectores de caracteres. Si la variable de respuesta es una matriz de caracteres, cada elemento debe corresponder a una fila de la matriz.

Tipos de datos: char | string

Datos de predictor, especificados como una matriz numérica.

Cada fila de corresponde a una observación, y cada columna corresponde a una variable.X Las variables en las columnas de deben ser las mismas que las variables que entrenaron al clasificador.XMdl

El número de filas en debe ser igual al número de filas en.XY

Cuando se entrena, suponga que establece para un objeto de plantilla especificado en el argumento de par nombre-valor de.Mdl'Standardize',true'Learners'fitcecoc En este caso, para el aprendizaje binario correspondiente, el software estandariza las columnas de los nuevos Datos predictores utilizando los medios correspondientes y las desviaciones estándar en.jMdl.BinaryLearner{j}.MuMdl.BinaryLearner{j}.Sigma

Tipos de datos: double | single

Etiquetas de clase, especificadas como una matriz categórica, de caracteres o de cadena, un vector lógico o numérico o una matriz de vectores de caracteres. debe tener el mismo tipo de datos que.YMdl.ClassNames (The software treats string arrays as cell arrays of character vectors.)

El número de filas en debe ser igual al número de filas en o.YtblX

Tipos de datos: categorical | char | string | logical | single | double | cell

Argumentos de par nombre-valor

Especifique pares de argumentos separados por comas opcionales. es el nombre del argumento y es el valor correspondiente. deben aparecer dentro de las cotizaciones.Name,ValueNameValueName Puede especificar varios argumentos de par de nombre y valor en cualquier orden como.Name1,Value1,...,NameN,ValueN

Ejemplo: especifica una función de pérdida de aprendizaje binario exponencial y un esquema de decodificación basado en pérdidas para agregar las pérdidas binarias.edge(Mdl,X,Y,'BinaryLoss','exponential','Decoding','lossbased')

Función de pérdida binaria de aprendizaje, especificada como el par separado por comas que consta de un nombre de función de pérdida incorporada o un identificador de función.'BinaryLoss'

  • Esta tabla describe las funciones incorporadas, donde yj es una etiqueta de clase para un alumno binario determinado (en el conjunto {– 1, 1, 0}), sj es la partitura para la observación, y (jgyj,sj) es la fórmula de pérdida binaria.

    ValorDescripciónPuntuación de dominio(gyj,sj)
    'binodeviance'Desviación binomial(– ∞, ∞)log [1 + exp (– 2yjsj)]/[2log (2)]
    'exponential'Exponencial(– ∞, ∞)exp (–yjsj)/2
    'hamming'Hamming[0, 1] o (– ∞, ∞)[1 – signo (yjsj)]/2
    'hinge'Bisagra(– ∞, ∞)Max (0,1 – yjsj)/2
    'linear'Lineal(– ∞, ∞)1 yjsj)/2
    'logit'Logística(– ∞, ∞)log [1 + exp (–yjsj)]/[2log (2)]
    'quadratic'Cuadrática[0,1]1 yj(2sj – 1)]2/2

    El software normaliza las pérdidas binarias para que la pérdida es 0,5 cuando yj = 0. Además, el software calcula la pérdida binaria media para cada clase.

  • Para una función de pérdida binaria personalizada, por ejemplo, especifique su identificador de función.customFunction'BinaryLoss',@customFunction

    tiene este formulario: donde:customFunction

    bLoss = customFunction(M,s)

    • es la matriz-por-codificación almacenada en.MKLMdl.CodingMatrix

    • es el vector 1 por fila de las puntuaciones de clasificación.sL

    • es la pérdida de clasificación.bLoss Este escalar agrega las pérdidas binarias para cada alumno en una clase determinada. Por ejemplo, puede usar la pérdida binaria media para agregar la pérdida sobre los alumnos de cada clase.

    • es el número de clases.K

    • es el número de estudiantes binarios.L

    Para obtener un ejemplo de cómo pasar una función de pérdida binaria personalizada, consulte.Predecir etiquetas de muestra de prueba de modelo ECOC utilizando la función de pérdida binaria personalizada

El valor predeterminado depende de los rangos de puntuación devueltos por los alumnos binarios.BinaryLoss Esta tabla describe algunos valores predeterminados basados en las suposiciones dadas.BinaryLoss

presunciónValor predeterminado
Todos los alumnos binarios son SVMs o modelos de clasificación de kernel o lineales de alumnos de SVM.'hinge'
Todos los estudiantes binarios son conjuntos entrenados por o.AdaboostM1GentleBoost'exponential'
Todos los estudiantes binarios son conjuntos entrenados por.LogitBoost'binodeviance'
Todos los estudiantes binarios son modelos lineales o de clasificación de kernel de los estudiantes de regresión logística. O, especifique para predecir las probabilidades posteriores de clase estableciendo en.'FitPosterior',truefitcecoc'quadratic'

Para comprobar el valor predeterminado, utilice la notación de puntos para mostrar la propiedad del modelo entrenado en la línea de comandos.BinaryLoss

Ejemplo: 'BinaryLoss','binodeviance'

Tipos de datos: char | string | function_handle

Esquema de decodificación que agrega las pérdidas binarias, especificadas como el par separado por comas que consta de y o.'Decoding''lossweighted''lossbased' Para obtener más información, consulte.Pérdida binaria

Ejemplo: 'Decoding','lossbased'

Dimensión de observación de Datos predictores, especificada como el par separado por comas que consta de y o. deben contener modelos.'ObservationsIn''columns''rows'Mdl.BinaryLearnersClassificationLinear

Nota

Si orienta la matriz predictora para que las observaciones se correspondan con las columnas y las especifique, puede experimentar una reducción significativa en el tiempo de ejecución.'ObservationsIn','columns'

Opciones de estimación, especificadas como el par separado por comas que consta de una matriz de estructura devuelta por.'Options'statset

Para invocar la computación paralela:

  • Necesitas una licencia.Parallel Computing Toolbox™

  • Especificar.'Options',statset('UseParallel',true)

Nivel de verbosidad, especificado como el par separado por comas que consta de y o. controla el número de mensajes de diagnóstico que el software muestra en la ventana de comandos.'Verbose'01Verbose

Si es, entonces el software no visualiza los mensajes de diagnóstico.Verbose0 De lo contrario, el software muestra mensajes de diagnóstico.

Ejemplo: 'Verbose',1

Tipos de datos: single | double

Ponderaciones de observación, especificadas como el par separado por comas que consta de un vector numérico o el nombre de una variable en.'Weights'tbl Si suministra pesos, calcula el ponderado.Bordeborde de clasificación

Si se especifica como un vector numérico, el tamaño de debe ser igual al número de observaciones en o.WeightsWeightsXtbl El software normaliza para resumir hasta el valor de la probabilidad anterior en la clase respectiva.Weights

Si especifica como el nombre de una variable en, debe hacerlo como un vector de caracteres o escalar de cadena.Weightstbl Por ejemplo, si las ponderaciones se almacenan como, a continuación, especifique as.tbl.wWeights'w' De lo contrario, el software trata todas las columnas de, incluidos, como predictores.tbltbl.w

Tipos de datos: single | double | char | string

Argumentos de salida

contraer todo

, devuelto como un vector o escalar numérico. representa la media ponderada de la.La arista de clasificaciónemárgenes de clasificación

Si contiene modelos, entonces es un 1-por-Vector, donde es el número de fortalezas de regularización en los modelos de clasificación lineal ().Mdl.BinaryLearnersClassificationLineareLLnumel(Mdl.BinaryLearners{1}.Lambda) El valor es la arista del modelo entrenado mediante la fuerza de regularización.e(j)Mdl.BinaryLearners{1}.Lambda(j)

De lo contrario, es un valor escalar.e

Más acerca de

contraer todo

Clasificación perimetral

Es la media ponderada de la.borde de clasificaciónmárgenes de clasificación

Una forma de elegir entre varios clasificadores, por ejemplo para realizar la selección de características, es elegir el clasificador que produce el borde más grande.

Margen de clasificación

El es, para cada observación, la diferencia entre la pérdida negativa para la clase verdadera y la pérdida negativa máxima entre las clases falsas.margen de clasificación Si los márgenes están en la misma escala, entonces sirven como una medida de confianza de clasificación. Entre los clasificadores múltiples, los que producen mayores márgenes son mejores.

Pérdida binaria

A es una función de la puntuación de clase y clasificación que determina qué tan bien un alumno binario clasifica una observación en la clase.pérdida binaria

Supongamos lo siguiente:

  • Mkj es Element (,) de la matriz de diseño de codificación (es decir, el código correspondiente a la clase de aprendizaje binario).kjMkj

  • sj es la puntuación de aprendizaje binario para una observación.j

  • es la función de pérdida binaria.g

  • k^ es la clase pronosticada para la observación.

En, la clase que produce la suma mínima de las pérdidas binarias sobre los estudiantes binarios determina la clase pronosticada de una observación, es decir,decodificación basada en pérdidas[Escalera et al.]

k^=argminkj=1L|mkj|g(mkj,sj).

En, la clase que produce el promedio mínimo de las pérdidas binarias sobre los estudiantes binarios determina la clase pronosticada de una observación, es decir,decodificación ponderada por pérdida[Escalera et al.]

k^=argminkj=1L|mkj|g(mkj,sj)j=1L|mkj|.

sugieren que la decodificación ponderada por pérdida mejora la precisión de la clasificación manteniendo los valores de pérdida para todas las clases en el mismo rango dinámico.Allwein et al.

En esta tabla se resumen las funciones de pérdida admitidas, donde yj es una etiqueta de clase para un alumno binario determinado (en el conjunto {– 1, 1, 0}), sj es la partitura para la observación, y (jgyj,sj).

ValorDescripciónPuntuación de dominio(gyj,sj)
'binodeviance'Desviación binomial(– ∞, ∞)log [1 + exp (– 2yjsj)]/[2log (2)]
'exponential'Exponencial(– ∞, ∞)exp (–yjsj)/2
'hamming'Hamming[0, 1] o (– ∞, ∞)[1 – signo (yjsj)]/2
'hinge'Bisagra(– ∞, ∞)Max (0,1 – yjsj)/2
'linear'Lineal(– ∞, ∞)1 yjsj)/2
'logit'Logística(– ∞, ∞)log [1 + exp (–yjsj)]/[2log (2)]
'quadratic'Cuadrática[0,1]1 yj(2sj – 1)]2/2

El software normaliza las pérdidas binarias de tal forma que la pérdida es de 0,5 cuando yj = 0 y agregados con el promedio de los alumnos binarios.[Allwein et al.]

No confunda la pérdida binaria con la pérdida de clasificación general (especificada por el argumento de par nombre-valor de las funciones de objeto y), que mide qué tan bien se comporta un clasificador ECOC como un todo.'LossFun'lossPredecir

Sugerencias

  • Para comparar los márgenes o los bordes de varios clasificadores ECOC, utilice objetos de plantilla para especificar una función de transformación de puntuación común entre los clasificadores durante el entrenamiento.

Referencias

[1] Allwein, E., R. Schapire, and Y. Singer. “Reducing multiclass to binary: A unifying approach for margin classifiers.” Journal of Machine Learning Research. Vol. 1, 2000, pp. 113–141.

[2] Escalera, S., O. Pujol, and P. Radeva. “On the decoding process in ternary error-correcting output codes.” IEEE Transactions on Pattern Analysis and Machine Intelligence. Vol. 32, Issue 7, 2010, pp. 120–134.

[3] Escalera, S., O. Pujol, and P. Radeva. “Separability of ternary codes for sparse designs of error-correcting output codes.” Pattern Recogn. Vol. 30, Issue 3, 2009, pp. 285–297.

Capacidades ampliadas

Introducido en R2014b