Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

kfoldLoss

Pérdida de clasificación para el modelo ECOC con validación cruzada

Descripción

ejemplo

loss = kfoldLoss(CVMdl) Devuelve la pérdida de clasificación obtenida por el modelo ECOC validado por la Cruz ().ClassificationPartitionedECOCCVMdl Para cada pliegue, calcula la pérdida de clasificación para las observaciones de pliegue de validación utilizando un modelo entrenado en observaciones de pliegue de formación. contiene ambos conjuntos de observaciones.kfoldLossCVMdl.X

ejemplo

loss = kfoldLoss(CVMdl,Name,Value) Devuelve la pérdida de clasificación con opciones adicionales especificadas por uno o más argumentos de par nombre-valor. Por ejemplo, especifique el número de pliegues, el esquema de decodificación o el nivel de verbosidad.

Ejemplos

contraer todo

Cargue el conjunto de datos de iris de Fisher. Especifique los datos del predictor, los datos de respuesta y el orden de las clases.XYY

load fisheriris X = meas; Y = categorical(species); classOrder = unique(Y); % Class order rng(1); % For reproducibility

Entrenar y validar de forma cruzada un modelo ECOC utilizando clasificadores binarios de máquinas de vectores de soporte (SVM). Estandarice los predictores mediante una plantilla SVM y especifique el orden de la clase.

t = templateSVM('Standardize',1); CVMdl = fitcecoc(X,Y,'CrossVal','on','Learners',t,'ClassNames',classOrder);

es un modelo.CVMdlClassificationPartitionedECOC De forma predeterminada, el software implementa la validación cruzada de 10 veces. Puede especificar un número diferente de pliegues mediante el argumento de par nombre-valor.'KFold'

Calcule el error de clasificación promedio.

L = kfoldLoss(CVMdl)
L = 0.0400 

El error de clasificación promedio para los pliegues es del 4%.

Como alternativa, puede obtener las pérdidas por pliegue especificando el par nombre-valor en.'Mode','individual'kfoldLoss

La pérdida de clasificación es una medida de la calidad del clasificador. Para determinar qué pliegues funcionan mal, muestre las pérdidas de cada pliegue.

Cargue el conjunto de datos de iris de Fisher. Especifique los datos del predictor, los datos de respuesta y el orden de las clases.XYY

load fisheriris X = meas; Y = categorical(species); classOrder = unique(Y); rng(1); % For reproducibility

Entrenar un modelo ECOC utilizando clasificadores binarios SVM. Utilice la validación cruzada de 8 veces, estandarice los predictores mediante una plantilla SVM y especifique el orden de la clase.

t = templateSVM('Standardize',1); CVMdl = fitcecoc(X,Y,'KFold',8,'Learners',t,'ClassNames',classOrder);

Estimar la pérdida de clasificación promedio en todos los pliegues y las pérdidas para cada pliegue.

loss = kfoldLoss(CVMdl)
loss = 0.0333 
losses = kfoldLoss(CVMdl,'Mode','individual')
losses = 8×1

    0.0556
    0.0526
    0.1579
         0
         0
         0
         0
         0

El tercer pliegue clasifica erróneamente un porcentaje de observaciones mucho mayor que cualquier otro pliegue.

Devuelva la pérdida de clasificación promedio para los pliegues que funcionan bien especificando el argumento de par nombre-valor.'Folds'

newloss = kfoldLoss(CVMdl,'Folds',[1:2 4:8])
newloss = 0.0153 

La pérdida total de la clasificación disminuye aproximadamente la mitad de su tamaño original.

Considere la posibilidad de ajustar los parámetros de los clasificadores binarios o el diseño de codificación para ver si el rendimiento de todos los pliegues mejora.

Además de saber si un modelo generalmente clasifica las observaciones correctamente, puede determinar qué tan bien el modelo clasifica una observación en su clase pronosticada. Una forma de determinar este tipo de calidad del modelo es pasar una función de pérdida personalizada a.kfoldLoss

Cargue el conjunto de datos de iris de Fisher. Especifique los datos del predictor, los datos de respuesta y el orden de las clases.XYY

load fisheriris X = meas; Y = categorical(species); classOrder = unique(Y)  % Class order
classOrder = 3x1 categorical array
     setosa 
     versicolor 
     virginica 

rng(1) % For reproducibility

Entrenar y validar de forma cruzada un modelo ECOC utilizando clasificadores binarios SVM. Estandarice los predictores mediante una plantilla SVM y especifique el orden de la clase.

t = templateSVM('Standardize',1); CVMdl = fitcecoc(X,Y,'CrossVal','on','Learners',t,'ClassNames',classOrder);

es un modelo.CVMdlClassificationPartitionedECOC De forma predeterminada, el software implementa la validación cruzada de 10 veces. Puede especificar un número diferente de pliegues mediante el argumento de par nombre-valor.'KFold'

Cree una función personalizada que tome la pérdida mínima para cada observación y, a continuación, promedia las pérdidas mínimas para todas las observaciones. corresponde a la salida de.SNegLosskfoldPredict

lossfun = @(~,S,~,~)mean(min(-S,[],2));

Calcule la pérdida personalizada con validación cruzada.

kfoldLoss(CVMdl,'LossFun',lossfun)
ans = 0.0101 

La pérdida binaria mínima promedio para las observaciones de pliegue de validación es.0.0101

Argumentos de entrada

contraer todo

Modelo ECOC validado de forma cruzada, especificado como modelo.ClassificationPartitionedECOC Puede crear un modelo de dos maneras:ClassificationPartitionedECOC

  • Pase un modelo de ECOC entrenado () a.ClassificationECOCcrossval

  • Entrenar un modelo ECOC utilizando y especificar cualquiera de estos argumentos de par nombre-valor de validación cruzada:,,,, o.fitcecoc'CrossVal''CVPartition''Holdout''KFold''Leaveout'

Argumentos de par nombre-valor

Especifique pares de argumentos separados por comas opcionales. es el nombre del argumento y es el valor correspondiente. deben aparecer dentro de las cotizaciones.Name,ValueNameValueName Puede especificar varios argumentos de par de nombre y valor en cualquier orden como.Name1,Value1,...,NameN,ValueN

Ejemplo: especifica utilizar sólo los pliegues primero, tercero y quinto para calcular la pérdida de clasificación.kfoldLoss(CVMdl,'Folds',[1 3 5])

Función de pérdida binaria de aprendizaje, especificada como el par separado por comas que consta de un nombre de función de pérdida incorporada o un identificador de función.'BinaryLoss'

  • Esta tabla describe las funciones incorporadas, donde yj es una etiqueta de clase para un alumno binario determinado (en el conjunto {– 1, 1, 0}), sj es la partitura para la observación, y (jgyj,sj) es la fórmula de pérdida binaria.

    ValorDescripciónPuntuación de dominio(gyj,sj)
    'binodeviance'Desviación binomial(– ∞, ∞)log [1 + exp (– 2yjsj)]/[2log (2)]
    'exponential'Exponencial(– ∞, ∞)exp (–yjsj)/2
    'hamming'Hamming[0, 1] o (– ∞, ∞)[1 – signo (yjsj)]/2
    'hinge'Bisagra(– ∞, ∞)Max (0,1 – yjsj)/2
    'linear'Lineal(– ∞, ∞)1 yjsj)/2
    'logit'Logística(– ∞, ∞)log [1 + exp (–yjsj)]/[2log (2)]
    'quadratic'Cuadrática[0,1]1 yj(2sj – 1)]2/2

    El software normaliza las pérdidas binarias para que la pérdida es 0,5 cuando yj = 0. Además, el software calcula la pérdida binaria media para cada clase.

  • Para una función de pérdida binaria personalizada, por ejemplo, especifique su identificador de función.customFunction'BinaryLoss',@customFunction

    tiene este formulario: donde:customFunction

    bLoss = customFunction(M,s)

    • es la matriz-por-codificación almacenada en.MKLMdl.CodingMatrix

    • es el vector 1 por fila de las puntuaciones de clasificación.sL

    • es la pérdida de clasificación.bLoss Este escalar agrega las pérdidas binarias para cada alumno en una clase determinada. Por ejemplo, puede usar la pérdida binaria media para agregar la pérdida sobre los alumnos de cada clase.

    • es el número de clases.K

    • es el número de estudiantes binarios.L

    Para obtener un ejemplo de cómo pasar una función de pérdida binaria personalizada, consulte.Predecir etiquetas de muestra de prueba de modelo ECOC utilizando la función de pérdida binaria personalizada

El valor predeterminado depende de los rangos de puntuación devueltos por los alumnos binarios.BinaryLoss Esta tabla describe algunos valores predeterminados basados en las suposiciones dadas.BinaryLoss

presunciónValor predeterminado
Todos los alumnos binarios son SVMs o modelos de clasificación de kernel o lineales de alumnos de SVM.'hinge'
Todos los estudiantes binarios son conjuntos entrenados por o.AdaboostM1GentleBoost'exponential'
Todos los estudiantes binarios son conjuntos entrenados por.LogitBoost'binodeviance'
Todos los estudiantes binarios son modelos lineales o de clasificación de kernel de los estudiantes de regresión logística. O, especifique para predecir las probabilidades posteriores de clase estableciendo en.'FitPosterior',truefitcecoc'quadratic'

Para comprobar el valor predeterminado, utilice la notación de puntos para mostrar la propiedad del modelo entrenado en la línea de comandos.BinaryLoss

Ejemplo: 'BinaryLoss','binodeviance'

Tipos de datos: char | string | function_handle

Esquema de decodificación que agrega las pérdidas binarias, especificadas como el par separado por comas que consta de y o.'Decoding''lossweighted''lossbased' Para obtener más información, consulte.Pérdida binaria

Ejemplo: 'Decoding','lossbased'

Pliegue índices para la predicción, especificado como el par separado por comas que consta de y un vector numérico de enteros positivos.'Folds' Los elementos de deben estar dentro del rango de a.Folds1CVMdl.KFold

El software utiliza sólo los pliegues especificados en para la predicción.Folds

Ejemplo: 'Folds',[1 4 10]

Tipos de datos: single | double

Función de pérdida, especificada como el par separado por comas que consta de y o un identificador de función.'LossFun''classiferror'

  • Especifique la función incorporada.'classiferror' En este caso, la función de pérdida es la.error de clasificación

  • O, especifique su propia función utilizando la notación de identificador de función.

    Supongamos que es el número de observaciones en los datos de entrenamiento () y es el número de clases ().nCVMdl.NumObservationsKnumel(CVMdl.ClassNames) Su función necesita la firma lossvalue = lossfun(C,S,W,Cost)Dónde:

    • El argumento de salida es un escalar.lossvalue

    • Especifique el nombre de la función (lossfun).

    • es una matriz lógica con filas que indican la clase a la que pertenece la observación correspondiente.CnK El orden de las columnas corresponde al orden de la clase.CVMdl.ClassNames

      Construya estableciendo si la observación está en la clase, para cada fila.CC(p,q) = 1pq Establezca cada elemento de fila en.p0

    • es una matriz numérica de valores de pérdida negados para las clases.SnK Cada fila corresponde a una observación. El orden de las columnas corresponde al orden de la clase.CVMdl.ClassNames La entrada se asemeja al argumento de salida de.SNegLosskfoldPredict

    • es un vector numérico de pesos de observación de-por-1.Wn Si pasa, el software normaliza sus elementos para sumar.W1

    • es una matriz numérica de costes de clasificación errónea.CostoKK Por ejemplo, = especifica un coste de 0 para la clasificación correcta y 1 para la clasificación errónea.Costoones(K) – eye(K)

    Especifique la función utilizando.'LossFun',@lossfun

Tipos de datos: char | string | function_handle

Nivel de agregación para la salida, especificado como el par separado por comas que consta de y o.'Mode''average''individual'

Esta tabla describe los valores.

ValorDescripción
'average'La salida es un promedio escalar sobre todos los pliegues.
'individual'La salida es un vector de longitud que contiene un valor por pliegue, donde es el número de pliegues.kk

Ejemplo: 'Mode','individual'

Opciones de estimación, especificadas como el par separado por comas que consta de una matriz de estructura devuelta por.'Options'statset

Para invocar la computación paralela:

  • Necesitas una licencia.Parallel Computing Toolbox™

  • Especificar.'Options',statset('UseParallel',true)

Nivel de verbosidad, especificado como el par separado por comas que consta de y o. controla el número de mensajes de diagnóstico que el software muestra en la ventana de comandos.'Verbose'01Verbose

Si es, entonces el software no visualiza los mensajes de diagnóstico.Verbose0 De lo contrario, el software muestra mensajes de diagnóstico.

Ejemplo: 'Verbose',1

Tipos de datos: single | double

Argumentos de salida

contraer todo

Pérdida de clasificación, devuelta como un vector de columna escalar o numérico numérico.

Si es, entonces es la pérdida de clasificación promedio sobre todos los pliegues.Mode'average'loss De lo contrario, es un vector de columna numérico de-por-1 que contiene la pérdida de clasificación para cada pliegue, donde es el número de pliegues.losskk

Más acerca de

contraer todo

Error de clasificación

Es una medida de error de clasificación binaria que tiene la formaerror de clasificación

L=j=1nwjejj=1nwj,

Dónde:

  • Wj es el peso de la observación.j El software renormaliza los pesos para sumar a 1.

  • ej = 1 si la clase de observación pronosticada difiere de su clase verdadera, y 0 en caso contrario.j

En otras palabras, el error de clasificación es la proporción de observaciones clasificadas erróneamente por el clasificador.

Pérdida binaria

A es una función de la puntuación de clase y clasificación que determina qué tan bien un alumno binario clasifica una observación en la clase.pérdida binaria

Supongamos lo siguiente:

  • Mkj es Element (,) de la matriz de diseño de codificación (es decir, el código correspondiente a la clase de aprendizaje binario).kjMkj

  • sj es la puntuación de aprendizaje binario para una observación.j

  • es la función de pérdida binaria.g

  • k^ es la clase pronosticada para la observación.

En, la clase que produce la suma mínima de las pérdidas binarias sobre los estudiantes binarios determina la clase pronosticada de una observación, es decir,decodificación basada en pérdidas[Escalera et al.]

k^=argminkj=1L|mkj|g(mkj,sj).

En, la clase que produce el promedio mínimo de las pérdidas binarias sobre los estudiantes binarios determina la clase pronosticada de una observación, es decir,decodificación ponderada por pérdida[Escalera et al.]

k^=argminkj=1L|mkj|g(mkj,sj)j=1L|mkj|.

sugieren que la decodificación ponderada por pérdida mejora la precisión de la clasificación manteniendo los valores de pérdida para todas las clases en el mismo rango dinámico.Allwein et al.

En esta tabla se resumen las funciones de pérdida admitidas, donde yj es una etiqueta de clase para un alumno binario determinado (en el conjunto {– 1, 1, 0}), sj es la partitura para la observación, y (jgyj,sj).

ValorDescripciónPuntuación de dominio(gyj,sj)
'binodeviance'Desviación binomial(– ∞, ∞)log [1 + exp (– 2yjsj)]/[2log (2)]
'exponential'Exponencial(– ∞, ∞)exp (–yjsj)/2
'hamming'Hamming[0, 1] o (– ∞, ∞)[1 – signo (yjsj)]/2
'hinge'Bisagra(– ∞, ∞)Max (0,1 – yjsj)/2
'linear'Lineal(– ∞, ∞)1 yjsj)/2
'logit'Logística(– ∞, ∞)log [1 + exp (–yjsj)]/[2log (2)]
'quadratic'Cuadrática[0,1]1 yj(2sj – 1)]2/2

El software normaliza las pérdidas binarias de tal forma que la pérdida es de 0,5 cuando yj = 0 y agregados con el promedio de los alumnos binarios.[Allwein et al.]

No confunda la pérdida binaria con la pérdida de clasificación general (especificada por el argumento de par nombre-valor de las funciones de objeto y), que mide qué tan bien se comporta un clasificador ECOC como un todo.'LossFun'lossPredecir

Referencias

[1] Allwein, E., R. Schapire, and Y. Singer. “Reducing multiclass to binary: A unifying approach for margin classifiers.” Journal of Machine Learning Research. Vol. 1, 2000, pp. 113–141.

[2] Escalera, S., O. Pujol, and P. Radeva. “On the decoding process in ternary error-correcting output codes.” IEEE Transactions on Pattern Analysis and Machine Intelligence. Vol. 32, Issue 7, 2010, pp. 120–134.

[3] Escalera, S., O. Pujol, and P. Radeva. “Separability of ternary codes for sparse designs of error-correcting output codes.” Pattern Recogn. Vol. 30, Issue 3, 2009, pp. 285–297.

Capacidades ampliadas

Introducido en R2014b