Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

kfoldMargin

Márgenes de clasificación para observaciones no utilizadas en la formación

Descripción

ejemplo

m = kfoldMargin(CVMdl) Devuelve la validación cruzada obtenida por, que es un modelo de códigos de salida de corrección de errores (ECOC) validado por la Cruz, compuesto de modelos de clasificación lineal.márgenes de clasificaciónCVMdl Es decir, para cada pliegue, se estiman los márgenes de clasificación para las observaciones que mantiene cuando se entrena utilizando todas las demás observaciones.kfoldMargin

contiene márgenes de clasificación para cada fuerza de regularización en los modelos de clasificación lineal que componen.mCVMdl

ejemplo

m = kfoldMargin(CVMdl,Name,Value) utiliza opciones adicionales especificadas por uno o más argumentos de par.Name,Value Por ejemplo, especifique un esquema de decodificación o nivel de verbosidad.

Argumentos de entrada

expandir todo

Modelo ECOC validado con validación cruzada compuesto por modelos de clasificación lineal, especificados como objeto de modelo.ClassificationPartitionedLinearECOC Puede crear un modelo utilizando y por:ClassificationPartitionedLinearECOCfitcecoc

  1. Especificando cualquiera de los argumentos de la validación cruzada, nombre-valor par, por ejemplo,CrossVal

  2. Establecer el argumento de par nombre-valor o una plantilla de modelo de clasificación lineal devuelta porLearners'linear'templateLinear

Para obtener estimaciones, se aplican los mismos datos utilizados para validar el modelo ECOC (y).kfoldMarginXY

Argumentos de par nombre-valor

Especifique pares de argumentos separados por comas opcionales. es el nombre del argumento y es el valor correspondiente. deben aparecer dentro de las cotizaciones.Name,ValueNameValueName Puede especificar varios argumentos de par de nombre y valor en cualquier orden como.Name1,Value1,...,NameN,ValueN

Función de pérdida binaria de aprendizaje, especificada como el par separado por comas que consta de y un identificador de función o nombre de función de pérdida integrado.'BinaryLoss'

  • Esta tabla contiene nombres y descripciones de las funciones incorporadas, donde yj es una etiqueta de clase para un alumno binario determinado (en el conjunto {-1, 1, 0}), sj es la partitura para la observación, y (jgyj,sj) es la fórmula de pérdida binaria.

    ValorDescripciónPuntuación de dominio(gyj,sj)
    'binodeviance'Desviación binomial(– ∞, ∞)log [1 + exp (– 2yjsj)]/[2log (2)]
    'exponential'Exponencial(– ∞, ∞)exp (–yjsj)/2
    'hamming'Hamming[0, 1] o (– ∞, ∞)[1 – signo (yjsj)]/2
    'hinge'Bisagra(– ∞, ∞)Max (0,1 – yjsj)/2
    'linear'Lineal(– ∞, ∞)1 yjsj)/2
    'logit'Logística(– ∞, ∞)log [1 + exp (–yjsj)]/[2log (2)]
    'quadratic'Cuadrática[0,1]1 yj(2sj – 1)]2/2

    El software normaliza las pérdidas binarias de tal forma que la pérdida es de 0,5 cuando yj = 0. Además, el software calcula la pérdida binaria media para cada clase.

  • Para una función de pérdida binaria personalizada, por ejemplo,, especifique su identificador de función.customFunction'BinaryLoss',@customFunction

    debe tener este formulario donde:customFunction

    bLoss = customFunction(M,s)

    • es la matriz-por-codificación almacenada en.MKLMdl.CodingMatrix

    • es el vector 1 por fila de las puntuaciones de clasificación.sL

    • es la pérdida de clasificación.bLoss Este escalar agrega las pérdidas binarias para cada alumno en una clase determinada. Por ejemplo, puede usar la pérdida binaria media para agregar la pérdida sobre los alumnos de cada clase.

    • es el número de clases.K

    • es el número de estudiantes binarios.L

    Para obtener un ejemplo de cómo pasar una función de pérdida binaria personalizada, consulte.Predecir etiquetas de muestra de prueba de modelo ECOC utilizando la función de pérdida binaria personalizada

De forma predeterminada, si todos los alumnos binarios son modelos de clasificación lineal utilizando:

  • SVM, entonces esBinaryLoss'hinge'

  • La regresión logística, a continuación, esBinaryLoss'quadratic'

Ejemplo: 'BinaryLoss','binodeviance'

Tipos de datos: char | string | function_handle

Esquema de decodificación que agrega las pérdidas binarias, especificadas como el par separado por comas que consta de y o.'Decoding''lossweighted''lossbased' Para obtener más información, consulte.Pérdida binaria

Ejemplo: 'Decoding','lossbased'

Opciones de estimación, especificadas como el par separado por comas que consta de una matriz de estructura devuelta por.'Options'statset

Para invocar la computación paralela:

  • Necesitas una licencia.Parallel Computing Toolbox™

  • Especificar.'Options',statset('UseParallel',true)

Nivel de verbosidad, especificado como el par separado por comas que consta de y o. controla el número de mensajes de diagnóstico que el software muestra en la ventana de comandos.'Verbose'01Verbose

Si es, entonces el software no visualiza los mensajes de diagnóstico.Verbose0 De lo contrario, el software muestra mensajes de diagnóstico.

Ejemplo: 'Verbose',1

Tipos de datos: single | double

Argumentos de salida

expandir todo

Validado de forma cruzada, devuelto como un vector numérico o una matriz.márgenes de clasificación

es-por-, donde está el número de observaciones en y es el número de fortalezas de regularización en (es decir,).mnLnXLMdlnumel(Mdl.Lambda)

m(i,j) es el margen de observación de la clasificación con validación cruzada utilizando el modelo ECOC, compuesto por modelos de clasificación lineal, que tiene fuerza de regularizacióni Mdl.Lambda(j).

Ejemplos

expandir todo

Cargue el conjunto de datos NLP.

load nlpdata

es una matriz dispersa de Datos predictores y es un vector categórico de etiquetas de clase.XY

Para simplificar, utilice la etiqueta ' otros ' para todas las observaciones que no sean, o.Y'simulink''dsp''comm'

Y(~(ismember(Y,{'simulink','dsp','comm'}))) = 'others';

Validar de forma cruzada un modelo de clasificación lineal multiclase.

rng(1); % For reproducibility  CVMdl = fitcecoc(X,Y,'Learner','linear','CrossVal','on');

es un modelo.CVMdlClassificationPartitionedLinearECOC De forma predeterminada, el software implementa la validación cruzada de 10 veces. Puede alterar el número de pliegues mediante el argumento de par nombre-valor.'KFold'

Estimar los márgenes de plegado.k

m = kfoldMargin(CVMdl); size(m)
ans = 1×2

       31572           1

es un vector 31572-by-1. es el promedio de los márgenes de observación.mm(j)j

Trace los márgenes mediante trazados de caja.k

figure; boxplot(m); h = gca; h.YLim = [-5 5]; title('Distribution of Cross-Validated Margins')

Una forma de realizar la selección de características es comparar los márgenes de varios modelos.k Basándose únicamente en este criterio, el clasificador con los márgenes más grandes es el mejor clasificador.

Cargue el conjunto de datos NLP. Preprocese los datos como en y Oriente los Datos predictores para que las observaciones se correspondan con las columnas.Los márgenes de validación cruzada de estimación doblek

load nlpdata Y(~(ismember(Y,{'simulink','dsp','comm'}))) = 'others'; X = X';

Cree estos dos conjuntos de datos:

  • contiene todos los predictores.fullX

  • contiene 1/2 de los predictores elegidos al azar.partX

rng(1); % For reproducibility p = size(X,1); % Number of predictors halfPredIdx = randsample(p,ceil(0.5*p)); fullX = X; partX = X(halfPredIdx,:);

Cree una plantilla de modelo de clasificación lineal que especifique la optimización de la función objetivo mediante SpaRSA.

t = templateLinear('Solver','sparsa');

Validación cruzada de dos modelos ECOC compuestos de modelos de clasificación lineal y binaria: uno que utiliza todos los predictores y uno que utiliza la mitad de los predictores. Indicar que las observaciones corresponden a columnas.

CVMdl = fitcecoc(fullX,Y,'Learners',t,'CrossVal','on',...     'ObservationsIn','columns'); PCVMdl = fitcecoc(partX,Y,'Learners',t,'CrossVal','on',...     'ObservationsIn','columns');

y son modelos.CVMdlPCVMdlClassificationPartitionedLinearECOC

Calcule los márgenes de plegado para cada clasificador.k Trace la distribución de los conjuntos de márgenes de plegado utilizando parcelas de caja.k

fullMargins = kfoldMargin(CVMdl); partMargins = kfoldMargin(PCVMdl);  figure; boxplot([fullMargins partMargins],'Labels',...     {'All Predictors','Half of the Predictors'}); h = gca; h.YLim = [-1 1]; title('Distribution of Cross-Validated Margins')

Las distribuciones de los márgenes de plegado de los dos clasificadores son similares.k

Para determinar una buena fuerza de penalización de lazo para un modelo de clasificación lineal que utiliza un aprendizaje de regresión logística, compare los márgenes de distribución de las distribuciones.k

Cargue el conjunto de datos NLP. Preprocese los datos como en.Selección de características uso-pliegue los márgenesk

load nlpdata Y(~(ismember(Y,{'simulink','dsp','comm'}))) = 'others'; X = X';

Cree un conjunto de 11 fortalezas de regularización logarmicamente espaciadas de

<math display="block">
<mrow>
<mn>1</mn>
<msup>
<mrow>
<mn>0</mn>
</mrow>
<mrow>
<mo>-</mo>
<mn>8</mn>
</mrow>
</msup>
</mrow>
</math>
a través de
<math display="block">
<mrow>
<mn>1</mn>
<msup>
<mrow>
<mn>0</mn>
</mrow>
<mrow>
<mn>1</mn>
</mrow>
</msup>
</mrow>
</math>
.

Lambda = logspace(-8,1,11);

Cree una plantilla de modelo de clasificación lineal que especifique el uso de la regresión logística con una penalización de lazo, utilizando cada una de las fortalezas de regularización, optimizando la función objetiva utilizando SpaRSA, y reduciendo la tolerancia sobre el gradiente del objetivo función.1e-8

t = templateLinear('Learner','logistic','Solver','sparsa',...     'Regularization','lasso','Lambda',Lambda,'GradientTolerance',1e-8);

Valide de forma cruzada un modelo ECOC compuesto por modelos de clasificación binaria y lineal mediante validación cruzada de 5 veces y que

rng(10); % For reproducibility CVMdl = fitcecoc(X,Y,'Learners',t,'ObservationsIn','columns','KFold',5)
CVMdl =    classreg.learning.partition.ClassificationPartitionedLinearECOC     CrossValidatedModel: 'Linear'            ResponseName: 'Y'         NumObservations: 31572                   KFold: 5               Partition: [1×1 cvpartition]              ClassNames: [comm    dsp    simulink    others]          ScoreTransform: 'none'     Properties, Methods  

es un modelo.CVMdlClassificationPartitionedLinearECOC

Calcule los márgenes de plegado para cada fuerza de regularización.k Las puntuaciones para la regresión logística están en [0,1]. Aplique la pérdida binaria cuadrática.

m = kfoldMargin(CVMdl,'BinaryLoss','quadratic'); size(m)
ans = 1×2

       31572          11

es una matriz de 31572 por 11 de márgenes de validación cruzada para cada observación.m Las columnas corresponden a las fortalezas de regularización.

Trace los márgenes para cada fuerza de regularización.k

figure; boxplot(m) ylabel('Cross-validated margins') xlabel('Lambda indices')

Varios valores de rendimiento similarmente altos centros de distribución de márgenes con spreads bajos.Lambda Valores más altos de plomo a la dispersión variable predictora, que es una buena calidad de un clasificador.Lambda

Elija la fuerza de regularización que se produce justo antes de que el centro de distribución de márgenes empiece a disminuir y el spread empiece a aumentar.

LambdaFinal = Lambda(5);

Entrenar un modelo ECOC compuesto de modelo de clasificación lineal utilizando todo el conjunto de datos y especificar la fuerza de regularización.LambdaFinal

t = templateLinear('Learner','logistic','Solver','sparsa',...     'Regularization','lasso','Lambda',Lambda(5),'GradientTolerance',1e-8); MdlFinal = fitcecoc(X,Y,'Learners',t,'ObservationsIn','columns');

Para estimar las etiquetas de las nuevas observaciones, pasar y los nuevos datos a.MdlFinalPredecir

Más acerca de

expandir todo

Referencias

[1] Allwein, E., R. Schapire, and Y. Singer. “Reducing multiclass to binary: A unifying approach for margin classifiers.” Journal of Machine Learning Research. Vol. 1, 2000, pp. 113–141.

[2] Escalera, S., O. Pujol, and P. Radeva. “On the decoding process in ternary error-correcting output codes.” IEEE Transactions on Pattern Analysis and Machine Intelligence. Vol. 32, Issue 7, 2010, pp. 120–134.

[3] Escalera, S., O. Pujol, and P. Radeva. “Separability of ternary codes for sparse designs of error-correcting output codes.” Pattern Recogn. Vol. 30, Issue 3, 2009, pp. 285–297.

Capacidades ampliadas

Introducido en R2016a