Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

resume

Reanudar el entrenamiento del modelo de clasificación de kernel gaussiano

Descripción

ejemplo

UpdatedMdl = resume(Mdl,X,Y) continúa el entrenamiento con las mismas opciones utilizadas para entrenar, incluidos los datos de entrenamiento (datos de predictor en y etiquetas de clase) y la expansión de la característica.MdlXY El entrenamiento comienza en los parámetros estimados actuales.Mdl La función devuelve un nuevo modelo de clasificación de kernel gaussiano binario.UpdatedMdl

ejemplo

UpdatedMdl = resume(Mdl,X,Y,Name,Value) Devuelve un nuevo modelo de clasificación de kernel gaussiano binario con opciones adicionales especificadas por uno o más argumentos de par nombre-valor. Por ejemplo, puede modificar las opciones de control de convergencia, como las tolerancias de convergencia y el número máximo de iteraciones de optimización adicionales.

[UpdatedMdl,FitInfo] = resume(___) también devuelve la información de ajuste en la matriz de estructura utilizando cualquiera de los argumentos de entrada anteriores en las sintaxis.FitInfo

Ejemplos

contraer todo

Cargue el conjunto de datos.ionosphere Este conjunto de datos tiene 34 predictores y 351 respuestas binarias para las devoluciones de radar, ya sea Bad () o Good ().'b''g'

load ionosphere

Particionar el conjunto de datos en conjuntos de entrenamiento y prueba. Especifique una muestra de retención del 20% para el conjunto de pruebas.

rng('default') % For reproducibility Partition = cvpartition(Y,'Holdout',0.20); trainingInds = training(Partition); % Indices for the training set XTrain = X(trainingInds,:); YTrain = Y(trainingInds); testInds = test(Partition); % Indices for the test set XTest = X(testInds,:); YTest = Y(testInds);

Entrenar un modelo de clasificación de kernel binario que identifique si el retorno del radar es malo () o bueno ().'b''g'

Mdl = fitckernel(XTrain,YTrain,'IterationLimit',5,'Verbose',1);
|=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |            0 |  1.000000e+00 |  0.000000e+00 |  2.811388e-01 |                |             0 | |  LBFGS |      1 |            1 |  7.585395e-01 |  4.000000e+00 |  3.594306e-01 |   1.000000e+00 |          2048 | |  LBFGS |      1 |            2 |  7.160994e-01 |  1.000000e+00 |  2.028470e-01 |   6.923988e-01 |          2048 | |  LBFGS |      1 |            3 |  6.825272e-01 |  1.000000e+00 |  2.846975e-02 |   2.388909e-01 |          2048 | |  LBFGS |      1 |            4 |  6.699435e-01 |  1.000000e+00 |  1.779359e-02 |   1.325304e-01 |          2048 | |  LBFGS |      1 |            5 |  6.535619e-01 |  1.000000e+00 |  2.669039e-01 |   4.112952e-01 |          2048 | |=================================================================================================================| 

es un modelo.MdlClassificationKernel

Predecir las etiquetas del conjunto de pruebas, construir una matriz de confusión para el conjunto de pruebas y estimar el error de clasificación para el conjunto de pruebas.

label = predict(Mdl,XTest); ConfusionTest = confusionchart(YTest,label);

L = loss(Mdl,XTest,YTest)
L = 0.3594 

clasifica erróneamente todos los malos retornos de radar como buenos retornos.Mdl

Continuar el entrenamiento mediante el uso.resume Esta función continúa el entrenamiento con las mismas opciones utilizadas para el entrenamiento.Mdl

UpdatedMdl = resume(Mdl,XTrain,YTrain);
|=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |            0 |  6.535619e-01 |  0.000000e+00 |  2.669039e-01 |                |          2048 | |  LBFGS |      1 |            1 |  6.132547e-01 |  1.000000e+00 |  6.355537e-03 |   1.522092e-01 |          2048 | |  LBFGS |      1 |            2 |  5.938316e-01 |  4.000000e+00 |  3.202847e-02 |   1.498036e-01 |          2048 | |  LBFGS |      1 |            3 |  4.169274e-01 |  1.000000e+00 |  1.530249e-01 |   7.234253e-01 |          2048 | |  LBFGS |      1 |            4 |  3.679212e-01 |  5.000000e-01 |  2.740214e-01 |   2.495886e-01 |          2048 | |  LBFGS |      1 |            5 |  3.332261e-01 |  1.000000e+00 |  1.423488e-02 |   9.558680e-02 |          2048 | |  LBFGS |      1 |            6 |  3.235335e-01 |  1.000000e+00 |  7.117438e-03 |   7.137260e-02 |          2048 | |  LBFGS |      1 |            7 |  3.112331e-01 |  1.000000e+00 |  6.049822e-02 |   1.252157e-01 |          2048 | |  LBFGS |      1 |            8 |  2.972144e-01 |  1.000000e+00 |  7.117438e-03 |   5.796240e-02 |          2048 | |  LBFGS |      1 |            9 |  2.837450e-01 |  1.000000e+00 |  8.185053e-02 |   1.484733e-01 |          2048 | |  LBFGS |      1 |           10 |  2.797642e-01 |  1.000000e+00 |  3.558719e-02 |   5.856842e-02 |          2048 | |  LBFGS |      1 |           11 |  2.771280e-01 |  1.000000e+00 |  2.846975e-02 |   2.349433e-02 |          2048 | |  LBFGS |      1 |           12 |  2.741570e-01 |  1.000000e+00 |  3.914591e-02 |   3.113194e-02 |          2048 | |  LBFGS |      1 |           13 |  2.725701e-01 |  5.000000e-01 |  1.067616e-01 |   8.729821e-02 |          2048 | |  LBFGS |      1 |           14 |  2.667147e-01 |  1.000000e+00 |  3.914591e-02 |   3.491723e-02 |          2048 | |  LBFGS |      1 |           15 |  2.621152e-01 |  1.000000e+00 |  7.117438e-03 |   5.104726e-02 |          2048 | |  LBFGS |      1 |           16 |  2.601652e-01 |  1.000000e+00 |  3.558719e-02 |   3.764904e-02 |          2048 | |  LBFGS |      1 |           17 |  2.589052e-01 |  1.000000e+00 |  3.202847e-02 |   3.655744e-02 |          2048 | |  LBFGS |      1 |           18 |  2.583185e-01 |  1.000000e+00 |  7.117438e-03 |   6.490571e-02 |          2048 | |  LBFGS |      1 |           19 |  2.556482e-01 |  1.000000e+00 |  9.252669e-02 |   4.601390e-02 |          2048 | |  LBFGS |      1 |           20 |  2.542643e-01 |  1.000000e+00 |  7.117438e-02 |   4.141838e-02 |          2048 | |=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |           21 |  2.532117e-01 |  1.000000e+00 |  1.067616e-02 |   1.661720e-02 |          2048 | |  LBFGS |      1 |           22 |  2.529890e-01 |  1.000000e+00 |  2.135231e-02 |   1.231678e-02 |          2048 | |  LBFGS |      1 |           23 |  2.523232e-01 |  1.000000e+00 |  3.202847e-02 |   1.958586e-02 |          2048 | |  LBFGS |      1 |           24 |  2.506736e-01 |  1.000000e+00 |  1.779359e-02 |   2.474613e-02 |          2048 | |  LBFGS |      1 |           25 |  2.501995e-01 |  1.000000e+00 |  1.779359e-02 |   2.514352e-02 |          2048 | |  LBFGS |      1 |           26 |  2.488242e-01 |  1.000000e+00 |  3.558719e-03 |   1.531810e-02 |          2048 | |  LBFGS |      1 |           27 |  2.485295e-01 |  5.000000e-01 |  3.202847e-02 |   1.229760e-02 |          2048 | |  LBFGS |      1 |           28 |  2.482244e-01 |  1.000000e+00 |  4.270463e-02 |   8.970983e-03 |          2048 | |  LBFGS |      1 |           29 |  2.479714e-01 |  1.000000e+00 |  3.558719e-03 |   7.393900e-03 |          2048 | |  LBFGS |      1 |           30 |  2.477316e-01 |  1.000000e+00 |  3.202847e-02 |   3.268087e-03 |          2048 | |  LBFGS |      1 |           31 |  2.476178e-01 |  2.500000e-01 |  3.202847e-02 |   5.445890e-03 |          2048 | |  LBFGS |      1 |           32 |  2.474874e-01 |  1.000000e+00 |  1.779359e-02 |   3.535903e-03 |          2048 | |  LBFGS |      1 |           33 |  2.473980e-01 |  1.000000e+00 |  7.117438e-03 |   2.821725e-03 |          2048 | |  LBFGS |      1 |           34 |  2.472935e-01 |  1.000000e+00 |  3.558719e-03 |   2.699880e-03 |          2048 | |  LBFGS |      1 |           35 |  2.471418e-01 |  1.000000e+00 |  3.558719e-03 |   1.242523e-02 |          2048 | |  LBFGS |      1 |           36 |  2.469862e-01 |  1.000000e+00 |  2.846975e-02 |   7.895605e-03 |          2048 | |  LBFGS |      1 |           37 |  2.469598e-01 |  1.000000e+00 |  2.135231e-02 |   6.657676e-03 |          2048 | |  LBFGS |      1 |           38 |  2.466941e-01 |  1.000000e+00 |  3.558719e-02 |   4.654690e-03 |          2048 | |  LBFGS |      1 |           39 |  2.466660e-01 |  5.000000e-01 |  1.423488e-02 |   2.885769e-03 |          2048 | |  LBFGS |      1 |           40 |  2.465605e-01 |  1.000000e+00 |  3.558719e-03 |   4.562565e-03 |          2048 | |=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |           41 |  2.465362e-01 |  1.000000e+00 |  1.423488e-02 |   5.652180e-03 |          2048 | |  LBFGS |      1 |           42 |  2.463528e-01 |  1.000000e+00 |  3.558719e-03 |   2.389759e-03 |          2048 | |  LBFGS |      1 |           43 |  2.463207e-01 |  1.000000e+00 |  1.511170e-03 |   3.738286e-03 |          2048 | |  LBFGS |      1 |           44 |  2.462585e-01 |  5.000000e-01 |  7.117438e-02 |   2.321693e-03 |          2048 | |  LBFGS |      1 |           45 |  2.461742e-01 |  1.000000e+00 |  7.117438e-03 |   2.599725e-03 |          2048 | |  LBFGS |      1 |           46 |  2.461434e-01 |  1.000000e+00 |  3.202847e-02 |   3.186923e-03 |          2048 | |  LBFGS |      1 |           47 |  2.461115e-01 |  1.000000e+00 |  7.117438e-03 |   1.530711e-03 |          2048 | |  LBFGS |      1 |           48 |  2.460814e-01 |  1.000000e+00 |  1.067616e-02 |   1.811714e-03 |          2048 | |  LBFGS |      1 |           49 |  2.460533e-01 |  5.000000e-01 |  1.423488e-02 |   1.012252e-03 |          2048 | |  LBFGS |      1 |           50 |  2.460111e-01 |  1.000000e+00 |  1.423488e-02 |   4.166762e-03 |          2048 | |  LBFGS |      1 |           51 |  2.459414e-01 |  1.000000e+00 |  1.067616e-02 |   3.271946e-03 |          2048 | |  LBFGS |      1 |           52 |  2.458809e-01 |  1.000000e+00 |  1.423488e-02 |   1.846440e-03 |          2048 | |  LBFGS |      1 |           53 |  2.458479e-01 |  1.000000e+00 |  1.067616e-02 |   1.180871e-03 |          2048 | |  LBFGS |      1 |           54 |  2.458146e-01 |  1.000000e+00 |  1.455008e-03 |   1.422954e-03 |          2048 | |  LBFGS |      1 |           55 |  2.457878e-01 |  1.000000e+00 |  7.117438e-03 |   1.880892e-03 |          2048 | |  LBFGS |      1 |           56 |  2.457519e-01 |  1.000000e+00 |  2.491103e-02 |   1.074764e-03 |          2048 | |  LBFGS |      1 |           57 |  2.457420e-01 |  1.000000e+00 |  7.473310e-02 |   9.511878e-04 |          2048 | |  LBFGS |      1 |           58 |  2.457212e-01 |  1.000000e+00 |  3.558719e-03 |   3.718564e-04 |          2048 | |  LBFGS |      1 |           59 |  2.457089e-01 |  1.000000e+00 |  4.270463e-02 |   6.237270e-04 |          2048 | |  LBFGS |      1 |           60 |  2.457047e-01 |  5.000000e-01 |  1.423488e-02 |   3.647573e-04 |          2048 | |=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |           61 |  2.456991e-01 |  1.000000e+00 |  1.423488e-02 |   5.666884e-04 |          2048 | |  LBFGS |      1 |           62 |  2.456898e-01 |  1.000000e+00 |  1.779359e-02 |   4.697056e-04 |          2048 | |  LBFGS |      1 |           63 |  2.456792e-01 |  1.000000e+00 |  1.779359e-02 |   5.984927e-04 |          2048 | |  LBFGS |      1 |           64 |  2.456603e-01 |  1.000000e+00 |  1.403782e-03 |   5.414985e-04 |          2048 | |  LBFGS |      1 |           65 |  2.456482e-01 |  1.000000e+00 |  3.558719e-03 |   6.506293e-04 |          2048 | |  LBFGS |      1 |           66 |  2.456358e-01 |  1.000000e+00 |  1.476262e-03 |   1.284139e-03 |          2048 | |  LBFGS |      1 |           67 |  2.456124e-01 |  1.000000e+00 |  3.558719e-03 |   8.636596e-04 |          2048 | |  LBFGS |      1 |           68 |  2.455980e-01 |  1.000000e+00 |  1.067616e-02 |   9.861527e-04 |          2048 | |  LBFGS |      1 |           69 |  2.455780e-01 |  1.000000e+00 |  1.067616e-02 |   5.102487e-04 |          2048 | |  LBFGS |      1 |           70 |  2.455633e-01 |  1.000000e+00 |  3.558719e-03 |   1.228077e-03 |          2048 | |  LBFGS |      1 |           71 |  2.455449e-01 |  1.000000e+00 |  1.423488e-02 |   7.864590e-04 |          2048 | |  LBFGS |      1 |           72 |  2.455261e-01 |  1.000000e+00 |  3.558719e-02 |   1.090815e-03 |          2048 | |  LBFGS |      1 |           73 |  2.455142e-01 |  1.000000e+00 |  1.067616e-02 |   1.701506e-03 |          2048 | |  LBFGS |      1 |           74 |  2.455075e-01 |  1.000000e+00 |  1.779359e-02 |   1.504577e-03 |          2048 | |  LBFGS |      1 |           75 |  2.455008e-01 |  1.000000e+00 |  3.914591e-02 |   1.144021e-03 |          2048 | |  LBFGS |      1 |           76 |  2.454943e-01 |  1.000000e+00 |  2.491103e-02 |   3.015254e-04 |          2048 | |  LBFGS |      1 |           77 |  2.454918e-01 |  5.000000e-01 |  3.202847e-02 |   9.837523e-04 |          2048 | |  LBFGS |      1 |           78 |  2.454870e-01 |  1.000000e+00 |  1.779359e-02 |   4.328953e-04 |          2048 | |  LBFGS |      1 |           79 |  2.454865e-01 |  5.000000e-01 |  3.558719e-03 |   7.126815e-04 |          2048 | |  LBFGS |      1 |           80 |  2.454775e-01 |  1.000000e+00 |  5.693950e-02 |   8.992562e-04 |          2048 | |=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |           81 |  2.454686e-01 |  1.000000e+00 |  1.183730e-03 |   1.590246e-04 |          2048 | |  LBFGS |      1 |           82 |  2.454612e-01 |  1.000000e+00 |  2.135231e-02 |   1.389570e-04 |          2048 | |  LBFGS |      1 |           83 |  2.454506e-01 |  1.000000e+00 |  3.558719e-03 |   6.162089e-04 |          2048 | |  LBFGS |      1 |           84 |  2.454436e-01 |  1.000000e+00 |  1.423488e-02 |   1.877414e-03 |          2048 | |  LBFGS |      1 |           85 |  2.454378e-01 |  1.000000e+00 |  1.423488e-02 |   3.370852e-04 |          2048 | |  LBFGS |      1 |           86 |  2.454249e-01 |  1.000000e+00 |  1.423488e-02 |   8.133615e-04 |          2048 | |  LBFGS |      1 |           87 |  2.454101e-01 |  1.000000e+00 |  1.067616e-02 |   3.872088e-04 |          2048 | |  LBFGS |      1 |           88 |  2.453963e-01 |  1.000000e+00 |  1.779359e-02 |   5.670260e-04 |          2048 | |  LBFGS |      1 |           89 |  2.453866e-01 |  1.000000e+00 |  1.067616e-02 |   1.444984e-03 |          2048 | |  LBFGS |      1 |           90 |  2.453821e-01 |  1.000000e+00 |  7.117438e-03 |   2.457270e-03 |          2048 | |  LBFGS |      1 |           91 |  2.453790e-01 |  5.000000e-01 |  6.761566e-02 |   8.228766e-04 |          2048 | |  LBFGS |      1 |           92 |  2.453603e-01 |  1.000000e+00 |  2.135231e-02 |   1.084233e-03 |          2048 | |  LBFGS |      1 |           93 |  2.453540e-01 |  1.000000e+00 |  2.135231e-02 |   2.060005e-04 |          2048 | |  LBFGS |      1 |           94 |  2.453482e-01 |  1.000000e+00 |  1.779359e-02 |   1.560883e-04 |          2048 | |  LBFGS |      1 |           95 |  2.453461e-01 |  1.000000e+00 |  1.779359e-02 |   1.614693e-03 |          2048 | |  LBFGS |      1 |           96 |  2.453371e-01 |  1.000000e+00 |  3.558719e-02 |   2.145835e-04 |          2048 | |  LBFGS |      1 |           97 |  2.453305e-01 |  1.000000e+00 |  4.270463e-02 |   7.602088e-04 |          2048 | |  LBFGS |      1 |           98 |  2.453283e-01 |  2.500000e-01 |  2.135231e-02 |   3.422253e-04 |          2048 | |  LBFGS |      1 |           99 |  2.453246e-01 |  1.000000e+00 |  3.558719e-03 |   3.872561e-04 |          2048 | |  LBFGS |      1 |          100 |  2.453214e-01 |  1.000000e+00 |  3.202847e-02 |   1.732237e-04 |          2048 | |=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |          101 |  2.453168e-01 |  1.000000e+00 |  1.067616e-02 |   3.065286e-04 |          2048 | |  LBFGS |      1 |          102 |  2.453155e-01 |  5.000000e-01 |  4.626335e-02 |   3.402368e-04 |          2048 | |  LBFGS |      1 |          103 |  2.453136e-01 |  1.000000e+00 |  1.779359e-02 |   2.215029e-04 |          2048 | |  LBFGS |      1 |          104 |  2.453119e-01 |  1.000000e+00 |  3.202847e-02 |   4.142355e-04 |          2048 | |  LBFGS |      1 |          105 |  2.453093e-01 |  1.000000e+00 |  1.423488e-02 |   2.186007e-04 |          2048 | |  LBFGS |      1 |          106 |  2.453090e-01 |  1.000000e+00 |  2.846975e-02 |   1.338602e-03 |          2048 | |  LBFGS |      1 |          107 |  2.453048e-01 |  1.000000e+00 |  1.423488e-02 |   3.208296e-04 |          2048 | |  LBFGS |      1 |          108 |  2.453040e-01 |  1.000000e+00 |  3.558719e-02 |   1.294488e-03 |          2048 | |  LBFGS |      1 |          109 |  2.452977e-01 |  1.000000e+00 |  1.423488e-02 |   8.328380e-04 |          2048 | |  LBFGS |      1 |          110 |  2.452934e-01 |  1.000000e+00 |  2.135231e-02 |   5.149259e-04 |          2048 | |  LBFGS |      1 |          111 |  2.452886e-01 |  1.000000e+00 |  1.779359e-02 |   3.650664e-04 |          2048 | |  LBFGS |      1 |          112 |  2.452854e-01 |  1.000000e+00 |  1.067616e-02 |   2.633981e-04 |          2048 | |  LBFGS |      1 |          113 |  2.452836e-01 |  1.000000e+00 |  1.067616e-02 |   1.804300e-04 |          2048 | |  LBFGS |      1 |          114 |  2.452817e-01 |  1.000000e+00 |  7.117438e-03 |   4.251642e-04 |          2048 | |  LBFGS |      1 |          115 |  2.452741e-01 |  1.000000e+00 |  1.779359e-02 |   9.018440e-04 |          2048 | |  LBFGS |      1 |          116 |  2.452691e-01 |  1.000000e+00 |  2.135231e-02 |   9.941716e-05 |          2048 | |=================================================================================================================| 

Predecir las etiquetas del conjunto de pruebas, construir una matriz de confusión para el conjunto de pruebas y estimar el error de clasificación para el conjunto de pruebas.

UpdatedLabel = predict(UpdatedMdl,XTest); UpdatedConfusionTest = confusionchart(YTest,UpdatedLabel);

UpdatedL = loss(UpdatedMdl,XTest,YTest)
UpdatedL = 0.1284 

El error de clasificación disminuye después de actualizar el modelo de clasificación con más iteraciones.resume

Cargue el conjunto de datos.ionosphere Este conjunto de datos tiene 34 predictores y 351 respuestas binarias para las devoluciones de radar, ya sea Bad () o Good ().'b''g'

load ionosphere

Particionar el conjunto de datos en conjuntos de entrenamiento y prueba. Especifique una muestra de retención del 20% para el conjunto de pruebas.

rng('default') % For reproducibility Partition = cvpartition(Y,'Holdout',0.20); trainingInds = training(Partition); % Indices for the training set XTrain = X(trainingInds,:); YTrain = Y(trainingInds); testInds = test(Partition); % Indices for the test set XTest = X(testInds,:); YTest = Y(testInds);

Entrenar un modelo de clasificación de kernel binario con opciones de entrenamiento de control de convergencia relajado mediante el uso de los argumentos de par nombre-valor y.'BetaTolerance''GradientTolerance'

[Mdl,FitInfo] = fitckernel(XTrain,YTrain,'Verbose',1, ...     'BetaTolerance',1e-1,'GradientTolerance',1e-1);
|=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |            0 |  1.000000e+00 |  0.000000e+00 |  2.811388e-01 |                |             0 | |  LBFGS |      1 |            1 |  7.585395e-01 |  4.000000e+00 |  3.594306e-01 |   1.000000e+00 |          2048 | |  LBFGS |      1 |            2 |  7.160994e-01 |  1.000000e+00 |  2.028470e-01 |   6.923988e-01 |          2048 | |  LBFGS |      1 |            3 |  6.825272e-01 |  1.000000e+00 |  2.846975e-02 |   2.388909e-01 |          2048 | |=================================================================================================================| 

es un modelo.MdlClassificationKernel

Predecir las etiquetas del conjunto de pruebas, construir una matriz de confusión para el conjunto de pruebas y estimar el error de clasificación para el conjunto de pruebas

label = predict(Mdl,XTest); ConfusionTest = confusionchart(YTest,label);

L = loss(Mdl,XTest,YTest)
L = 0.3594 

clasifica erróneamente todos los malos retornos de radar como buenos retornos.Mdl

Continuar el entrenamiento mediante el uso con opciones de entrenamiento de control de convergencia modificados.resume

[UpdatedMdl,UpdatedFitInfo] = resume(Mdl,XTrain,YTrain, ...     'BetaTolerance',1e-2,'GradientTolerance',1e-2);
|=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |            0 |  6.825272e-01 |  0.000000e+00 |  2.846975e-02 |                |          2048 | |  LBFGS |      1 |            1 |  6.692805e-01 |  2.000000e+00 |  2.846975e-02 |   1.389258e-01 |          2048 | |  LBFGS |      1 |            2 |  6.466824e-01 |  1.000000e+00 |  2.348754e-01 |   4.149425e-01 |          2048 | |  LBFGS |      1 |            3 |  5.441382e-01 |  2.000000e+00 |  1.743772e-01 |   5.344538e-01 |          2048 | |  LBFGS |      1 |            4 |  5.222333e-01 |  1.000000e+00 |  3.309609e-01 |   7.530878e-01 |          2048 | |  LBFGS |      1 |            5 |  3.776579e-01 |  1.000000e+00 |  1.103203e-01 |   6.532621e-01 |          2048 | |  LBFGS |      1 |            6 |  3.523520e-01 |  1.000000e+00 |  5.338078e-02 |   1.384232e-01 |          2048 | |  LBFGS |      1 |            7 |  3.422319e-01 |  5.000000e-01 |  3.202847e-02 |   9.703897e-02 |          2048 | |  LBFGS |      1 |            8 |  3.341895e-01 |  1.000000e+00 |  3.202847e-02 |   5.009485e-02 |          2048 | |  LBFGS |      1 |            9 |  3.199302e-01 |  1.000000e+00 |  4.982206e-02 |   8.038014e-02 |          2048 | |  LBFGS |      1 |           10 |  3.017904e-01 |  1.000000e+00 |  1.423488e-02 |   2.845012e-01 |          2048 | |  LBFGS |      1 |           11 |  2.853480e-01 |  1.000000e+00 |  3.558719e-02 |   9.799137e-02 |          2048 | |  LBFGS |      1 |           12 |  2.753979e-01 |  1.000000e+00 |  3.914591e-02 |   9.975305e-02 |          2048 | |  LBFGS |      1 |           13 |  2.647492e-01 |  1.000000e+00 |  3.914591e-02 |   9.713710e-02 |          2048 | |  LBFGS |      1 |           14 |  2.639242e-01 |  1.000000e+00 |  1.423488e-02 |   6.721803e-02 |          2048 | |  LBFGS |      1 |           15 |  2.617385e-01 |  1.000000e+00 |  1.779359e-02 |   2.625089e-02 |          2048 | |  LBFGS |      1 |           16 |  2.598600e-01 |  1.000000e+00 |  7.117438e-02 |   3.338724e-02 |          2048 | |  LBFGS |      1 |           17 |  2.594176e-01 |  1.000000e+00 |  1.067616e-02 |   2.441171e-02 |          2048 | |  LBFGS |      1 |           18 |  2.579350e-01 |  1.000000e+00 |  3.202847e-02 |   2.979246e-02 |          2048 | |  LBFGS |      1 |           19 |  2.570669e-01 |  1.000000e+00 |  1.779359e-02 |   4.432998e-02 |          2048 | |  LBFGS |      1 |           20 |  2.552954e-01 |  1.000000e+00 |  1.769940e-03 |   1.899895e-02 |          2048 | |=================================================================================================================| 

Predecir las etiquetas del conjunto de pruebas, construir una matriz de confusión para el conjunto de pruebas y estimar el error de clasificación para el conjunto de pruebas.

UpdatedLabel = predict(UpdatedMdl,XTest); UpdatedConfusionTest = confusionchart(YTest,UpdatedLabel);

UpdatedL = loss(UpdatedMdl,XTest,YTest)
UpdatedL = 0.1140 

El error de clasificación disminuye después de actualizar el modelo de clasificación con tolerancias de convergencia más pequeñas.resume

Visualice las salidas y.FitInfoUpdatedFitInfo

FitInfo
FitInfo = struct with fields:
                  Solver: 'LBFGS-fast'
            LossFunction: 'hinge'
                  Lambda: 0.0036
           BetaTolerance: 0.1000
       GradientTolerance: 0.1000
          ObjectiveValue: 0.6825
       GradientMagnitude: 0.0285
    RelativeChangeInBeta: 0.2389
                 FitTime: 0.0293
                 History: [1x1 struct]

UpdatedFitInfo
UpdatedFitInfo = struct with fields:
                  Solver: 'LBFGS-fast'
            LossFunction: 'hinge'
                  Lambda: 0.0036
           BetaTolerance: 0.0100
       GradientTolerance: 0.0100
          ObjectiveValue: 0.2553
       GradientMagnitude: 0.0018
    RelativeChangeInBeta: 0.0190
                 FitTime: 0.0431
                 History: [1x1 struct]

Ambos entrenamientos terminan porque el software satisface la tolerancia de gradiente absoluta.

Trace la magnitud del degradado frente al número de iteraciones utilizando.UpdatedFitInfo.History.GradientMagnitude Tenga en cuenta que el campo de incluye la información en el campo de.HistoryUpdatedFitInfoHistoryFitInfo

semilogy(UpdatedFitInfo.History.GradientMagnitude,'o-') ax = gca; ax.XTick = 1:25; ax.XTickLabel = UpdatedFitInfo.History.IterationNumber; grid on xlabel('Number of Iterations') ylabel('Gradient Magnitude')

El primer entrenamiento finaliza después de tres iteraciones porque la magnitud del degradado se convierte en menor que.1e-1 El segundo entrenamiento finaliza después de 20 iteraciones porque la magnitud del degradado se convierte en menor que.1e-2

Argumentos de entrada

contraer todo

Modelo de clasificación de kernel binario, especificado como un objeto de modelo.ClassificationKernel Puede crear un objeto de modelo utilizando.ClassificationKernelfitckernel

Los Datos predictores utilizados para entrenar, especificados como una matriz numérica, donde es el número de observaciones y es el número de predictores.Mdlnpnp

Tipos de datos: single | double

Etiquetas de clase utilizadas para entrenar, especificadas como una matriz categórica, de caracteres o de cadena, Vector lógico o numérico o matriz de celdas de vectores de caracteres.Mdl

Tipos de datos: categorical | char | string | logical | single | double | cell

Nota

debe ejecutarse sólo en los mismos datos de entrenamiento (y) y los mismos pesos de observación utilizados para entrenar.resumeXYMdl La función utiliza las mismas opciones de entrenamiento que se utilizan para entrenar, incluida la expansión de características.resumeMdl

Argumentos de par nombre-valor

Especifique pares de argumentos separados por comas opcionales. es el nombre del argumento y es el valor correspondiente. deben aparecer dentro de las cotizaciones.Name,ValueNameValueName Puede especificar varios argumentos de par de nombre y valor en cualquier orden como.Name1,Value1,...,NameN,ValueN

Ejemplo: reanuda el entrenamiento con las mismas opciones utilizadas para entrenar, excepto la tolerancia de degradado absoluta.UpdatedMdl = resume(Mdl,X,Y,'GradientTolerance',1e-5)Mdl

Los pesos de observación utilizados para entrenar, especificados como el par separado por comas que consta de y un vector numérico positivo de longitudMdl'Weights' nDónde n es el número de observaciones en.X el resume función pesa las observaciones con los valores correspondientes.XWeights

El valor predeterminado es ones(n,1).

resume Normaliza para resumir hasta el valor de la probabilidad anterior en la clase respectiva.Weights

Ejemplo: 'Weights',w

Tipos de datos: single | double

Tolerancia relativa en los coeficientes lineales y el término de sesgo (intercepción), especificado como el par separado por comas que consta de un escalar no negativo.'BetaTolerance'

Dejar Bt=[βtbt], es decir, el vector de los coeficientes y el término de sesgo en la iteración de optimización.t Si BtBt1Bt2<BetaTolerance, la optimización finaliza.

Si también especifica, la optimización finaliza cuando el software satisface cualquier criterio de detención.GradientTolerance

De forma predeterminada, el valor es el mismo valor que se utiliza para entrenar.BetaToleranceMdl

Ejemplo: 'BetaTolerance',1e-6

Tipos de datos: single | double

Tolerancia de degradado absoluta, especificada como el par separado por comas que consta de un escalar no negativo.'GradientTolerance'

Dejar t ser el vector de degradado de la función objetiva con respecto a los coeficientes y el término de sesgo en la iteración de optimización.t Si t=max|t|<GradientTolerance, la optimización finaliza.

Si también especifica, la optimización finaliza cuando el software satisface cualquier criterio de detención.BetaTolerance

De forma predeterminada, el valor es el mismo valor que se utiliza para entrenar.GradientToleranceMdl

Ejemplo: 'GradientTolerance',1e-5

Tipos de datos: single | double

Número máximo de iteraciones de optimización adicionales, especificadas como el par separado por comas y que consta de un entero positivo.'IterationLimit'

El valor predeterminado es 1000 si los datos transformados se ajustan a la memoria (), que se especifica mediante el argumento de par nombre-valor cuando se entrena.Mdl.ModelParameters.BlockSizeMdl De lo contrario, el valor predeterminado es 100.

Tenga en cuenta que el valor predeterminado no es el valor utilizado para entrenar.Mdl

Ejemplo: 'IterationLimit',500

Tipos de datos: single | double

Argumentos de salida

contraer todo

Modelo de clasificación de kernel actualizado, devuelto como un objeto de modelo.ClassificationKernel

Detalles de optimización, devueltos como una matriz de estructura, incluidos los campos descritos en esta tabla. Los campos contienen valores finales o las especificaciones del argumento de par nombre-valor.

CampoDescripción
Solver

Técnica de minimización de funciones objetivas:,, o.'LBFGS-fast''LBFGS-blockwise''LBFGS-tall' Para más detalles, ver de.Algoritmosfitckernel

LossFunctionFunción de pérdida. Ya sea o según el tipo de modelo de clasificación lineal.'hinge''logit' Ver de.Learnerfitckernel
LambdaFuerza del término de regularización. Ver de.Lambdafitckernel
BetaToleranceTolerancia relativa en los coeficientes lineales y el término de sesgo. Ver.BetaTolerance
GradientToleranceTolerancia de degradado absoluta. Ver.GradientTolerance
ObjectiveValueValor de la función objetiva cuando finaliza la optimización. La pérdida de clasificación más el término de regularización componen la función objetiva.
GradientMagnitudeNorma infinita del vector de degradado de la función objetiva cuando finaliza la optimización. Ver.GradientTolerance
RelativeChangeInBetaCambios relativos en los coeficientes lineales y el término de sesgo cuando finaliza la optimización. Ver.BetaTolerance
FitTimeTiempo transcurrido, reloj de pared (en segundos) necesario para ajustar el modelo a los datos.
HistoryHistorial de la información de optimización. Este campo también incluye la información de optimización de la formación.Mdl Este campo está vacío () si se especifica cuando se entrena.[]'Verbose',0Mdl Para obtener más información, vea y de.VerboseAlgoritmosfitckernel

Para acceder a los campos, utilice notación de puntos. Por ejemplo, para acceder al vector de los valores de función objetiva para cada iteración, escriba en la ventana de comandos.FitInfo.ObjectiveValue

Una buena práctica es examinar para evaluar si la convergencia es satisfactoria.FitInfo

Más acerca de

contraer todo

Expansión de características aleatorias

La expansión de características aleatorias, como los sumideros de cocina aleatorios y Fastfood, es un esquema para aproximar los núcleos Gaussianos del algoritmo de clasificación del kernel para utilizarlos en grandes datos de forma eficiente en el cómputo.[1][2] La expansión de características aleatorias es más práctica para las aplicaciones de macrodatos que tienen grandes conjuntos de entrenamiento, pero también se pueden aplicar a conjuntos de datos más pequeños que caben en la memoria.

El algoritmo de clasificación del kernel busca un hiperplano óptimo que separe los datos en dos clases después de asignar entidades a un espacio de alta dimensionalidad. Las entidades no lineales que no son separables linealmente en un espacio de dimensiones reducidas pueden ser separables en el espacio ampliado de dimensiones elevadas. Todos los cálculos para la clasificación del hiperplano utilizan solamente los productos del punto. Puede obtener un modelo de clasificación no lineal reemplazando el producto de punto x1x2' con la función del kernel no lineal G(x1,x2)=φ(x1),φ(x2)Dónde Xi es la observación TH (vector de fila) yi φ(xi) es una transformación que asigna Xi a un espacio de alta dimensionalidad (llamado "truco del kernel"). Sin embargo, evaluar G(x1,x2) (Matriz de Gram) para cada par de observaciones es costoso computacionalmente para un conjunto de datos grande (grande).n

El esquema de expansión de entidades aleatorias encuentra una transformación aleatoria para que su producto de punto se aprobe al kernel gaussiano. Es decir

G(x1,x2)=φ(x1),φ(x2)T(x1)T(x2)',

Dónde T(x) mapas enx p a un espacio de alta dimensionalidad (m). El esquema de sumidero aleatorio de la cocina utiliza la transformación aleatoria

T(x)=m1/2exp(iZx')',

Dónde Zm×p es una muestra extraída de N(0,σ2) Y σ2 es una escala de kernel. Este esquema requiere O(mp) Computación y almacenamiento. El esquema Fastfood introduce otra base aleatoria en lugar de utilizar matrices Hadamard combinadas con matrices de escalado gaussiano.VZ Esta base aleatoria reduce el costo de cálculo para O(mlogp) y reduce el almacenamiento a O(m).

La función utiliza el esquema Fastfood para la expansión aleatoria de entidades y utiliza la clasificación lineal para entrenar un modelo de clasificación de kernel gaussiano.fitckernel A diferencia de los solucionadores de la función, que requieren el cálculo de la matriz de Gram, el solucionador sólo necesita formar una matriz de tamaño por-, con típicamente mucho menor que para Big Data.fitcsvmnnfitckernelnmmn

Referencias

[1] Rahimi, A., and B. Recht. “Random Features for Large-Scale Kernel Machines.” Advances in Neural Information Processing Systems. Vol. 20, 2008, pp. 1177–1184.

[2] Le, Q., T. Sarlós, and A. Smola. “Fastfood — Approximating Kernel Expansions in Loglinear Time.” Proceedings of the 30th International Conference on Machine Learning. Vol. 28, No. 3, 2013, pp. 244–252.

[3] Huang, P. S., H. Avron, T. N. Sainath, V. Sindhwani, and B. Ramabhadran. “Kernel methods match Deep Neural Networks on TIMIT.” 2014 IEEE International Conference on Acoustics, Speech and Signal Processing. 2014, pp. 205–209.

Capacidades ampliadas

Introducido en R2017b