Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

resubEdge

Busque el borde de clasificación para el clasificador de la máquina de vectores de soporte (SVM) mediante el reenvío

Descripción

ejemplo

e = resubEdge(SVMModel) Devuelve el reenviarlo () para el clasificador de la máquina de vectores de soporte (SVM) utilizando los datos de entrenamiento almacenados y las etiquetas de clase correspondientes almacenadas.Clasificación perimetraleSVMModelSVMModel.XSVMModel.Y

El borde de clasificación es un valor escalar que representa la media ponderada de la.márgenes de clasificación

Ejemplos

contraer todo

Cargue el conjunto de datos.ionosphere

load ionosphere

Entrenar un clasificador SVM. Estandarice los datos y especifique que es la clase positiva.'g'

SVMModel = fitcsvm(X,Y,'Standardize',true,'ClassNames',{'b','g'});

es un clasificador entrenado.SVMModelClassificationSVM

Estime la arista de reenvío. Esta es la media de los márgenes de la muestra de formación.

e = resubEdge(SVMModel)
e = 5.0998 

Realice la selección de características comparando los bordes de la muestra de entrenamiento de varios modelos. Basado únicamente en esta comparación, el clasificador con el borde más alto es el mejor clasificador.

Cargue el conjunto de datos.ionosphere Defina dos conjuntos de datos:

  • contiene todos los predictores (excepto la columna eliminada de 0s).fullX

  • contiene los últimos 20 predictores.partX

load ionosphere fullX = X; partX = X(:,end-20:end);

Clasificadores de SVM de tren para cada conjunto de predictor.

FullSVMModel = fitcsvm(fullX,Y); PartSVMModel = fitcsvm(partX,Y);

Calcule el borde de la muestra de entrenamiento para cada clasificador.

fullEdge = resubEdge(FullSVMModel)
fullEdge = 3.3652 
partEdge = resubEdge(PartSVMModel)
partEdge = 2.0470 

El borde del clasificador entrenado en el conjunto de datos completo es mayor, lo que sugiere que el clasificador entrenado con todos los predictores tiene un mejor ajuste en la muestra.

Argumentos de entrada

contraer todo

Clasificador SVM completo y entrenado, especificado como un modelo entrenado con.ClassificationSVMfitcsvm

Más acerca de

contraer todo

Clasificación perimetral

Es la media ponderada de la.Bordemárgenes de clasificación

Los pesos son las probabilidades de clase previas. Si usted suministra pesos, entonces el software los normaliza para sumar a las probabilidades previas en las clases respectivas. El software utiliza los pesos ponderaciones renormalizadas para calcular la media ponderada.

Una forma de elegir entre varios clasificadores, por ejemplo, para realizar la selección de características, es elegir el clasificador que produce el borde más alto.

Margen de clasificación

Para cada observación, la clasificación binaria es la diferencia entre la puntuación de clasificación de la clase true y la puntuación de clasificación de la clase false.margen de clasificación

El software define el margen de clasificación para la clasificación binaria como

m=2yf(x).

es una observación.x Si la verdadera etiqueta de es la clase positiva, entonces es 1, y – 1 en caso contrario. () es la puntuación de clasificación de clase positiva para la observación.xyfxx El margen de clasificación se define comúnmente como m = yf(x).

Si los márgenes están en la misma escala, entonces sirven como una medida de confianza de clasificación. Entre los clasificadores múltiples, los que producen mayores márgenes son mejores.

Puntuación de clasificación

La SVM para clasificar la observación es la distancia firmada desde el límite de decisión que va desde-∞ hasta + ∞.puntuación de clasificaciónxx Una puntuación positiva para una clase indica que se predice que estará en esa clase.x Una puntuación negativa indica lo contrario.

La puntuación de clasificación de clase positiva f(x) es la función de clasificación de SVM entrenada. f(x) es también la respuesta numérica, pronosticada para, o la puntuación para predecir en la clase positiva.xx

f(x)=j=1nαjyjG(xj,x)+b,

Dónde (α1,...,αn,b) son los parámetros SVM estimados, G(xj,x) es el producto escalar en el espacio predictor entre y los vectores de soporte, y la suma incluye las observaciones del conjunto de formación.x La puntuación de clasificación de clase negativa para, o la puntuación para predecir en la clase negativa, es – ().xxfx

SiGXj, ) =x Xj′ (el kernel lineal), la función de puntuación se reduce ax

f(x)=(x/s)β+b.

es la escala del kernel y es el vector de los coeficientes lineales ajustados.sβ

Para obtener más información, consulte.Entender las máquinas de vectores de soporte

Algoritmos

Para la clasificación binaria, el software define el margen para la observación,j MjComo

mj=2yjf(xj),

Dónde yj ∊ {-1, 1} y (fXj) es la puntuación pronosticada de observación para la clase positiva.j Sin embargo Mj = yj(fXj) se utiliza comúnmente para definir el margen.

Referencias

[1] Christianini, N., and J. C. Shawe-Taylor. An Introduction to Support Vector Machines and Other Kernel-Based Learning Methods. Cambridge, UK: Cambridge University Press, 2000.

Introducido en R2014a