Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

resume

Reanudar el entrenamiento del modelo de regresión del kernel gaussiano

Descripción

ejemplo

UpdatedMdl = resume(Mdl,X,Y) continúa el entrenamiento con las mismas opciones utilizadas para entrenar, incluidos los datos de entrenamiento (datos de predicción y datos de respuesta) y la expansión de características.MdlXY El entrenamiento comienza en los parámetros estimados actuales.Mdl La función devuelve un nuevo modelo de regresión del kernel gaussiano.UpdatedMdl

ejemplo

UpdatedMdl = resume(Mdl,X,Y,Name,Value) Devuelve un nuevo modelo de regresión del kernel con opciones adicionales especificadas por uno o más argumentos de par nombre-valor. Por ejemplo, puede modificar las opciones de control de convergencia, como las tolerancias de convergencia y el número máximo de iteraciones de optimización adicionales.

ejemplo

[UpdatedMdl,FitInfo] = resume(___) también devuelve la información de ajuste en la matriz de estructura utilizando cualquiera de los argumentos de entrada en las sintaxis anteriores.FitInfo

Ejemplos

contraer todo

Reanudar el entrenamiento de un modelo de regresión del kernel gaussiano para más iteraciones para mejorar la pérdida de regresión.

Cargue el conjunto de datos.carbig

load carbig

Especifique las variables predictoras () y la variable de respuesta ().XY

X = [Acceleration,Cylinders,Displacement,Horsepower,Weight]; Y = MPG;

Eliminar filas de y donde cualquiera de las matrices tiene valores.XYNaN La eliminación de filas con valores antes de pasar datos puede acelerar el entrenamiento y reducir el uso de memoria.NaNfitrkernel

R = rmmissing([X Y]); % Data with missing entries removed X = R(:,1:5);  Y = R(:,end); 

Reserve el 10% de las observaciones como una muestra de exclusión. Extraiga los índices de entrenamiento y prueba de la definición de partición.

rng(10)  % For reproducibility N = length(Y); cvp = cvpartition(N,'Holdout',0.1); idxTrn = training(cvp); % Training set indices idxTest = test(cvp);    % Test set indices

Estandarice los datos de entrenamiento y capacite un modelo de regresión del kernel. Establezca el límite de iteración en 5 y especifique para mostrar información de diagnóstico.'Verbose',1

Xtrain = X(idxTrn,:); Ytrain = Y(idxTrn); [Ztrain,tr_mu,tr_sigma] = zscore(Xtrain); % Standardize the training data tr_sigma(tr_sigma==0) = 1; Mdl = fitrkernel(Ztrain,Ytrain,'IterationLimit',5,'Verbose',1)
|=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |            0 |  5.691016e+00 |  0.000000e+00 |  5.852758e-02 |                |             0 | |  LBFGS |      1 |            1 |  5.086537e+00 |  8.000000e+00 |  5.220869e-02 |   9.846711e-02 |           256 | |  LBFGS |      1 |            2 |  3.862301e+00 |  5.000000e-01 |  3.796034e-01 |   5.998808e-01 |           256 | |  LBFGS |      1 |            3 |  3.460613e+00 |  1.000000e+00 |  3.257790e-01 |   1.615091e-01 |           256 | |  LBFGS |      1 |            4 |  3.136228e+00 |  1.000000e+00 |  2.832861e-02 |   8.006254e-02 |           256 | |  LBFGS |      1 |            5 |  3.063978e+00 |  1.000000e+00 |  1.475038e-02 |   3.314455e-02 |           256 | |=================================================================================================================| 
Mdl =    RegressionKernel               ResponseName: 'Y'                    Learner: 'svm'     NumExpansionDimensions: 256                KernelScale: 1                     Lambda: 0.0028              BoxConstraint: 1                    Epsilon: 0.8617     Properties, Methods  

es un modelo.Mdl RegressionKernel

Estandarice los datos de prueba utilizando la misma media y la desviación estándar de las columnas de datos de entrenamiento. Calcule el error de épsilon insensible para el conjunto de pruebas.

Xtest = X(idxTest,:); Ztest = (Xtest-tr_mu)./tr_sigma; % Standardize the test data Ytest = Y(idxTest);  L = loss(Mdl,Ztest,Ytest,'LossFun','epsiloninsensitive')
L = 2.0674 

Continúe entrenando el modelo utilizando.resume Esta función continúa el entrenamiento con las mismas opciones utilizadas para el entrenamiento.Mdl

UpdatedMdl = resume(Mdl,Ztrain,Ytrain);
|=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |            0 |  3.063978e+00 |  0.000000e+00 |  1.475038e-02 |                |           256 | |  LBFGS |      1 |            1 |  3.007822e+00 |  8.000000e+00 |  1.391637e-02 |   2.603966e-02 |           256 | |  LBFGS |      1 |            2 |  2.817171e+00 |  5.000000e-01 |  5.949008e-02 |   1.918084e-01 |           256 | |  LBFGS |      1 |            3 |  2.807294e+00 |  2.500000e-01 |  6.798867e-02 |   2.973097e-02 |           256 | |  LBFGS |      1 |            4 |  2.791060e+00 |  1.000000e+00 |  2.549575e-02 |   1.639328e-02 |           256 | |  LBFGS |      1 |            5 |  2.767821e+00 |  1.000000e+00 |  6.154419e-03 |   2.468903e-02 |           256 | |  LBFGS |      1 |            6 |  2.738163e+00 |  1.000000e+00 |  5.949008e-02 |   9.476263e-02 |           256 | |  LBFGS |      1 |            7 |  2.719146e+00 |  1.000000e+00 |  1.699717e-02 |   1.849972e-02 |           256 | |  LBFGS |      1 |            8 |  2.705941e+00 |  1.000000e+00 |  3.116147e-02 |   4.152590e-02 |           256 | |  LBFGS |      1 |            9 |  2.701162e+00 |  1.000000e+00 |  5.665722e-03 |   9.401466e-03 |           256 | |  LBFGS |      1 |           10 |  2.695341e+00 |  5.000000e-01 |  3.116147e-02 |   4.968046e-02 |           256 | |  LBFGS |      1 |           11 |  2.691277e+00 |  1.000000e+00 |  8.498584e-03 |   1.017446e-02 |           256 | |  LBFGS |      1 |           12 |  2.689972e+00 |  1.000000e+00 |  1.983003e-02 |   9.938921e-03 |           256 | |  LBFGS |      1 |           13 |  2.688979e+00 |  1.000000e+00 |  1.416431e-02 |   6.606316e-03 |           256 | |  LBFGS |      1 |           14 |  2.687787e+00 |  1.000000e+00 |  1.621956e-03 |   7.089542e-03 |           256 | |  LBFGS |      1 |           15 |  2.686539e+00 |  1.000000e+00 |  1.699717e-02 |   1.169701e-02 |           256 | |  LBFGS |      1 |           16 |  2.685356e+00 |  1.000000e+00 |  1.133144e-02 |   1.069310e-02 |           256 | |  LBFGS |      1 |           17 |  2.685021e+00 |  5.000000e-01 |  1.133144e-02 |   2.104248e-02 |           256 | |  LBFGS |      1 |           18 |  2.684002e+00 |  1.000000e+00 |  2.832861e-03 |   6.175231e-03 |           256 | |  LBFGS |      1 |           19 |  2.683507e+00 |  1.000000e+00 |  5.665722e-03 |   3.724026e-03 |           256 | |  LBFGS |      1 |           20 |  2.683343e+00 |  5.000000e-01 |  5.665722e-03 |   9.549119e-03 |           256 | |=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |           21 |  2.682897e+00 |  1.000000e+00 |  5.665722e-03 |   7.172867e-03 |           256 | |  LBFGS |      1 |           22 |  2.682682e+00 |  1.000000e+00 |  2.832861e-03 |   2.587726e-03 |           256 | |  LBFGS |      1 |           23 |  2.682485e+00 |  1.000000e+00 |  2.832861e-03 |   2.953648e-03 |           256 | |  LBFGS |      1 |           24 |  2.682326e+00 |  1.000000e+00 |  2.832861e-03 |   7.777294e-03 |           256 | |  LBFGS |      1 |           25 |  2.681914e+00 |  1.000000e+00 |  2.832861e-03 |   2.778555e-03 |           256 | |  LBFGS |      1 |           26 |  2.681867e+00 |  5.000000e-01 |  1.031085e-03 |   3.638352e-03 |           256 | |  LBFGS |      1 |           27 |  2.681725e+00 |  1.000000e+00 |  5.665722e-03 |   1.515199e-03 |           256 | |  LBFGS |      1 |           28 |  2.681692e+00 |  5.000000e-01 |  1.314940e-03 |   1.850055e-03 |           256 | |  LBFGS |      1 |           29 |  2.681625e+00 |  1.000000e+00 |  2.832861e-03 |   1.456903e-03 |           256 | |  LBFGS |      1 |           30 |  2.681594e+00 |  5.000000e-01 |  2.832861e-03 |   8.704875e-04 |           256 | |  LBFGS |      1 |           31 |  2.681581e+00 |  5.000000e-01 |  8.498584e-03 |   3.934768e-04 |           256 | |  LBFGS |      1 |           32 |  2.681579e+00 |  1.000000e+00 |  8.498584e-03 |   1.847866e-03 |           256 | |  LBFGS |      1 |           33 |  2.681553e+00 |  1.000000e+00 |  9.857038e-04 |   6.509825e-04 |           256 | |  LBFGS |      1 |           34 |  2.681541e+00 |  5.000000e-01 |  8.498584e-03 |   6.635528e-04 |           256 | |  LBFGS |      1 |           35 |  2.681499e+00 |  1.000000e+00 |  5.665722e-03 |   6.194735e-04 |           256 | |  LBFGS |      1 |           36 |  2.681493e+00 |  5.000000e-01 |  1.133144e-02 |   1.617763e-03 |           256 | |  LBFGS |      1 |           37 |  2.681473e+00 |  1.000000e+00 |  9.869233e-04 |   8.418484e-04 |           256 | |  LBFGS |      1 |           38 |  2.681469e+00 |  1.000000e+00 |  5.665722e-03 |   1.069722e-03 |           256 | |  LBFGS |      1 |           39 |  2.681432e+00 |  1.000000e+00 |  2.832861e-03 |   8.501930e-04 |           256 | |  LBFGS |      1 |           40 |  2.681423e+00 |  2.500000e-01 |  1.133144e-02 |   9.543716e-04 |           256 | |=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |           41 |  2.681416e+00 |  1.000000e+00 |  2.832861e-03 |   8.763251e-04 |           256 | |  LBFGS |      1 |           42 |  2.681413e+00 |  5.000000e-01 |  2.832861e-03 |   4.101888e-04 |           256 | |  LBFGS |      1 |           43 |  2.681403e+00 |  1.000000e+00 |  5.665722e-03 |   2.713209e-04 |           256 | |  LBFGS |      1 |           44 |  2.681392e+00 |  1.000000e+00 |  2.832861e-03 |   2.115241e-04 |           256 | |  LBFGS |      1 |           45 |  2.681383e+00 |  1.000000e+00 |  2.832861e-03 |   2.872858e-04 |           256 | |  LBFGS |      1 |           46 |  2.681374e+00 |  1.000000e+00 |  8.498584e-03 |   5.771001e-04 |           256 | |  LBFGS |      1 |           47 |  2.681353e+00 |  1.000000e+00 |  2.832861e-03 |   3.160871e-04 |           256 | |  LBFGS |      1 |           48 |  2.681334e+00 |  5.000000e-01 |  8.498584e-03 |   1.045502e-03 |           256 | |  LBFGS |      1 |           49 |  2.681314e+00 |  1.000000e+00 |  7.878714e-04 |   1.505118e-03 |           256 | |  LBFGS |      1 |           50 |  2.681306e+00 |  1.000000e+00 |  2.832861e-03 |   4.756894e-04 |           256 | |  LBFGS |      1 |           51 |  2.681301e+00 |  1.000000e+00 |  1.133144e-02 |   3.664873e-04 |           256 | |  LBFGS |      1 |           52 |  2.681288e+00 |  1.000000e+00 |  2.832861e-03 |   1.449821e-04 |           256 | |  LBFGS |      1 |           53 |  2.681287e+00 |  2.500000e-01 |  1.699717e-02 |   2.357176e-04 |           256 | |  LBFGS |      1 |           54 |  2.681282e+00 |  1.000000e+00 |  5.665722e-03 |   2.046663e-04 |           256 | |  LBFGS |      1 |           55 |  2.681278e+00 |  1.000000e+00 |  2.832861e-03 |   2.546349e-04 |           256 | |  LBFGS |      1 |           56 |  2.681276e+00 |  2.500000e-01 |  1.307940e-03 |   1.966786e-04 |           256 | |  LBFGS |      1 |           57 |  2.681274e+00 |  5.000000e-01 |  1.416431e-02 |   1.005310e-04 |           256 | |  LBFGS |      1 |           58 |  2.681271e+00 |  5.000000e-01 |  1.118892e-03 |   1.147324e-04 |           256 | |  LBFGS |      1 |           59 |  2.681269e+00 |  1.000000e+00 |  2.832861e-03 |   1.332914e-04 |           256 | |  LBFGS |      1 |           60 |  2.681268e+00 |  2.500000e-01 |  1.132045e-03 |   5.441369e-05 |           256 | |=================================================================================================================| 

Calcule el error de épsilon insensible para el conjunto de pruebas mediante el modelo actualizado.

UpdatedL = loss(UpdatedMdl,Ztest,Ytest,'LossFun','epsiloninsensitive')
UpdatedL = 1.8933 

El error de regresión disminuye en un factor de aproximadamente después de actualizar el modelo de regresión con más iteraciones.0.08resume

Cargue el conjunto de datos.carbig

load carbig

Especifique las variables predictoras () y la variable de respuesta ().XY

X = [Acceleration,Cylinders,Displacement,Horsepower,Weight]; Y = MPG;

Eliminar filas de y donde cualquiera de las matrices tiene valores.XYNaN La eliminación de filas con valores antes de pasar datos puede acelerar el entrenamiento y reducir el uso de memoria.NaNfitrkernel

R = rmmissing([X Y]); % Data with missing entries removed X = R(:,1:5);  Y = R(:,end); 

Reserve el 10% de las observaciones como una muestra de exclusión. Extraiga los índices de entrenamiento y prueba de la definición de partición.

rng(10)  % For reproducibility N = length(Y); cvp = cvpartition(N,'Holdout',0.1); idxTrn = training(cvp); % Training set indices idxTest = test(cvp);    % Test set indices

Estandarice los datos de entrenamiento y capacite un modelo de regresión de kernel con opciones de entrenamiento de control de convergencia relajadas usando los argumentos de par nombre-valor y.'BetaTolerance''GradientTolerance' Especifique para mostrar información de diagnóstico.'Verbose',1

Xtrain = X(idxTrn,:); Ytrain = Y(idxTrn); [Ztrain,tr_mu,tr_sigma] = zscore(Xtrain); % Standardize the training data tr_sigma(tr_sigma==0) = 1; [Mdl,FitInfo] = fitrkernel(Ztrain,Ytrain,'Verbose',1, ...     'BetaTolerance',2e-2,'GradientTolerance',2e-2);
|=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |            0 |  5.691016e+00 |  0.000000e+00 |  5.852758e-02 |                |             0 | |  LBFGS |      1 |            1 |  5.086537e+00 |  8.000000e+00 |  5.220869e-02 |   9.846711e-02 |           256 | |  LBFGS |      1 |            2 |  3.862301e+00 |  5.000000e-01 |  3.796034e-01 |   5.998808e-01 |           256 | |  LBFGS |      1 |            3 |  3.460613e+00 |  1.000000e+00 |  3.257790e-01 |   1.615091e-01 |           256 | |  LBFGS |      1 |            4 |  3.136228e+00 |  1.000000e+00 |  2.832861e-02 |   8.006254e-02 |           256 | |  LBFGS |      1 |            5 |  3.063978e+00 |  1.000000e+00 |  1.475038e-02 |   3.314455e-02 |           256 | |=================================================================================================================| 

es un modelo.Mdl RegressionKernel

Estandarice los datos de prueba utilizando la misma media y la desviación estándar de las columnas de datos de entrenamiento. Calcule el error de épsilon insensible para el conjunto de pruebas.

Xtest = X(idxTest,:); Ztest = (Xtest-tr_mu)./tr_sigma; % Standardize the test data Ytest = Y(idxTest);  L = loss(Mdl,Ztest,Ytest,'LossFun','epsiloninsensitive')
L = 2.0674 

Continúe entrenando el modelo utilizando las opciones de control de convergencia modificadas.resume

[UpdatedMdl,UpdatedFitInfo] = resume(Mdl,Ztrain,Ytrain, ...     'BetaTolerance',2e-3,'GradientTolerance',2e-3);
|=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |            0 |  3.063978e+00 |  0.000000e+00 |  1.475038e-02 |                |           256 | |  LBFGS |      1 |            1 |  3.007822e+00 |  8.000000e+00 |  1.391637e-02 |   2.603966e-02 |           256 | |  LBFGS |      1 |            2 |  2.817171e+00 |  5.000000e-01 |  5.949008e-02 |   1.918084e-01 |           256 | |  LBFGS |      1 |            3 |  2.807294e+00 |  2.500000e-01 |  6.798867e-02 |   2.973097e-02 |           256 | |  LBFGS |      1 |            4 |  2.791060e+00 |  1.000000e+00 |  2.549575e-02 |   1.639328e-02 |           256 | |  LBFGS |      1 |            5 |  2.767821e+00 |  1.000000e+00 |  6.154419e-03 |   2.468903e-02 |           256 | |  LBFGS |      1 |            6 |  2.738163e+00 |  1.000000e+00 |  5.949008e-02 |   9.476263e-02 |           256 | |  LBFGS |      1 |            7 |  2.719146e+00 |  1.000000e+00 |  1.699717e-02 |   1.849972e-02 |           256 | |  LBFGS |      1 |            8 |  2.705941e+00 |  1.000000e+00 |  3.116147e-02 |   4.152590e-02 |           256 | |  LBFGS |      1 |            9 |  2.701162e+00 |  1.000000e+00 |  5.665722e-03 |   9.401466e-03 |           256 | |  LBFGS |      1 |           10 |  2.695341e+00 |  5.000000e-01 |  3.116147e-02 |   4.968046e-02 |           256 | |  LBFGS |      1 |           11 |  2.691277e+00 |  1.000000e+00 |  8.498584e-03 |   1.017446e-02 |           256 | |  LBFGS |      1 |           12 |  2.689972e+00 |  1.000000e+00 |  1.983003e-02 |   9.938921e-03 |           256 | |  LBFGS |      1 |           13 |  2.688979e+00 |  1.000000e+00 |  1.416431e-02 |   6.606316e-03 |           256 | |  LBFGS |      1 |           14 |  2.687787e+00 |  1.000000e+00 |  1.621956e-03 |   7.089542e-03 |           256 | |=================================================================================================================| 

Calcule el error de épsilon insensible para el conjunto de pruebas mediante el modelo actualizado.

UpdatedL = loss(UpdatedMdl,Ztest,Ytest,'LossFun','epsiloninsensitive')
UpdatedL = 1.8891 

El error de regresión disminuye después de actualizar el modelo de regresión con tolerancias de convergencia más pequeñas.resume

Visualice las salidas y.FitInfoUpdatedFitInfo

FitInfo
FitInfo = struct with fields:
                  Solver: 'LBFGS-fast'
            LossFunction: 'epsiloninsensitive'
                  Lambda: 0.0028
           BetaTolerance: 0.0200
       GradientTolerance: 0.0200
          ObjectiveValue: 3.0640
       GradientMagnitude: 0.0148
    RelativeChangeInBeta: 0.0331
                 FitTime: 0.0476
                 History: [1x1 struct]

UpdatedFitInfo
UpdatedFitInfo = struct with fields:
                  Solver: 'LBFGS-fast'
            LossFunction: 'epsiloninsensitive'
                  Lambda: 0.0028
           BetaTolerance: 0.0020
       GradientTolerance: 0.0020
          ObjectiveValue: 2.6878
       GradientMagnitude: 0.0016
    RelativeChangeInBeta: 0.0071
                 FitTime: 0.1950
                 History: [1x1 struct]

Ambos entrenamientos terminan porque el software satisface la tolerancia de gradiente absoluta.

Trace la magnitud del degradado frente al número de iteraciones utilizando.UpdatedFitInfo.History.GradientMagnitude Tenga en cuenta que el campo de incluye la información en el campo de.HistoryUpdatedFitInfoHistoryFitInfo

semilogy(UpdatedFitInfo.History.GradientMagnitude,'o-') ax = gca; ax.XTick = 1:21; ax.XTickLabel = UpdatedFitInfo.History.IterationNumber; grid on xlabel('Number of Iterations') ylabel('Gradient Magnitude')

El primer entrenamiento finaliza después de cinco iteraciones porque la magnitud del degradado se convierte en menor que.2e-2 El segundo entrenamiento finaliza después de 14 iteraciones porque la magnitud del degradado se convierte en menor que.2e-3

Argumentos de entrada

contraer todo

Modelo de regresión del kernel, especificado como un objeto de modelo.RegressionKernel Puede crear un objeto de modelo utilizando.RegressionKernelfitrkernel

Los Datos predictores utilizados para entrenar, especificados como una matriz numérica, donde es el número de observaciones y es el número de predictores.Mdlnpnp

Tipos de datos: single | double

Datos de respuesta utilizados para entrenar, especificados como un vector numérico.Mdl

Tipos de datos: double | single

Nota

sólo debe ejecutarse en los mismos datos de entrenamiento (y) y los mismos pesos de observación () que se utilizan para entrenar.resumeXYWeightsMdl La función utiliza las mismas opciones de entrenamiento, como la expansión de características, que se utiliza para entrenar.resumeMdl

Argumentos de par nombre-valor

Especifique pares de argumentos separados por comas opcionales. es el nombre del argumento y es el valor correspondiente. deben aparecer dentro de las cotizaciones.Name,ValueNameValueName Puede especificar varios argumentos de par de nombre y valor en cualquier orden como.Name1,Value1,...,NameN,ValueN

Ejemplo: reanuda el entrenamiento con las mismas opciones utilizadas para entrenar, excepto la tolerancia relativa en los coeficientes lineales y el término de sesgo.UpdatedMdl = resume(Mdl,X,Y,'BetaTolerance',1e-3)Mdl

Los pesos de observación utilizados para entrenar, especificados como el par separado por comas que consta de y un vector numérico positivo de longitudMdl'Weights' nDónde n es el número de observaciones en.X el resume función pesa las observaciones con los valores correspondientes.XWeights

El valor predeterminado es ones(n,1)/n.

resume Normaliza para sumar a 1.Weights

Ejemplo: 'Weights',w

Tipos de datos: single | double

Tolerancia relativa en los coeficientes lineales y el término de sesgo (intercepción), especificado como el par separado por comas que consta de un escalar no negativo.'BetaTolerance'

Dejar Bt=[βtbt], es decir, el vector de los coeficientes y el término de sesgo en la iteración de optimización.t Si BtBt1Bt2<BetaTolerance, la optimización finaliza.

Si también especifica, la optimización finaliza cuando el software satisface cualquier criterio de detención.GradientTolerance

De forma predeterminada, el valor es el mismo valor que se utiliza para entrenar.BetaToleranceMdl

Ejemplo: 'BetaTolerance',1e-6

Tipos de datos: single | double

Tolerancia de degradado absoluta, especificada como el par separado por comas que consta de un escalar no negativo.'GradientTolerance'

Dejar t ser el vector de degradado de la función objetiva con respecto a los coeficientes y el término de sesgo en la iteración de optimización.t Si t=max|t|<GradientTolerance, la optimización finaliza.

Si también especifica, la optimización finaliza cuando el software satisface cualquier criterio de detención.BetaTolerance

De forma predeterminada, el valor es el mismo valor que se utiliza para entrenar.GradientToleranceMdl

Ejemplo: 'GradientTolerance',1e-5

Tipos de datos: single | double

Número máximo de iteraciones de optimización adicionales, especificadas como el par separado por comas y que consta de un entero positivo.'IterationLimit'

El valor predeterminado es 1000 si los datos transformados se ajustan a la memoria (), que se especifica mediante el argumento de par nombre-valor cuando se entrena con.Mdl.ModelParameters.BlockSize'BlockSize'Mdlfitrkernel De lo contrario, el valor predeterminado es 100.

Tenga en cuenta que el valor predeterminado no es el valor utilizado para entrenar.Mdl

Ejemplo: 'IterationLimit',500

Tipos de datos: single | double

Argumentos de salida

contraer todo

Modelo de regresión del kernel actualizado, devuelto como un objeto de modelo.RegressionKernel

Detalles de optimización, devueltos como una matriz de estructura, incluidos los campos descritos en esta tabla. Los campos contienen valores finales o las especificaciones del argumento de par nombre-valor.

CampoDescripción
Solver

Técnica de minimización de funciones objetivas:,, o.'LBFGS-fast''LBFGS-blockwise''LBFGS-tall' Para obtener más información, consulte la sección de.Algoritmosfitrkernel

LossFunctionFunción de pérdida. El error cuadrado medio (MSE) o el Epsilon-insensible, dependiendo del tipo de modelo de regresión lineal. Ver de.Learnerfitrkernel
LambdaFuerza del término de regularización. Ver de.Lambdafitrkernel
BetaToleranceTolerancia relativa en los coeficientes lineales y el término de sesgo. Ver.BetaTolerance
GradientToleranceTolerancia de degradado absoluta. Ver.GradientTolerance
ObjectiveValueValor de la función objetiva cuando finaliza la optimización. La pérdida de regresión más el término de regularización componen la función objetiva.
GradientMagnitudeNorma infinita del vector de degradado de la función objetiva cuando finaliza la optimización. Ver.GradientTolerance
RelativeChangeInBetaCambios relativos en los coeficientes lineales y el término de sesgo cuando finaliza la optimización. Ver.BetaTolerance
FitTimeTiempo transcurrido, reloj de pared (en segundos) necesario para ajustar el modelo a los datos.
HistoryHistorial de la información de optimización. Este campo también incluye la información de optimización de la formación.Mdl Este campo está vacío () si se especifica cuando se entrena.[]'Verbose',0Mdl Para obtener más información, consulte y la sección de.VerboseAlgoritmosfitrkernel

Para acceder a los campos, utilice notación de puntos. Por ejemplo, para acceder al vector de los valores de función objetiva para cada iteración, escriba en la ventana de comandos.FitInfo.ObjectiveValue

Examinar la información facilitada para evaluar si la convergencia es satisfactoria.FitInfo

Más acerca de

contraer todo

Expansión de características aleatorias

La expansión de características aleatorias, como los sumideros de cocina aleatorios y Fastfood, es un esquema para aproximar los núcleos Gaussianos del algoritmo de regresión del kernel para Big Data de una manera computacionalmente eficiente.[1][2] La expansión de características aleatorias es más práctica para las aplicaciones de macrodatos que tienen grandes conjuntos de entrenamiento, pero también se pueden aplicar a conjuntos de datos más pequeños que caben en la memoria.

El algoritmo de regresión del kernel busca una función óptima que se desvíe de cada punto de datos de respuesta (yi) por valores no mayores que el margen Epsilon () después de mapear los Datos predictores en un espacio de alta dimensionalidad.ε

Algunos problemas de regresión no se pueden describir adecuadamente mediante un modelo lineal. En tales casos, obtenga un modelo de regresión no lineal reemplazando el producto de punto x1x2 con una función de kernel no lineal G(x1,x2)=φ(x1),φ(x2)Dónde Xi es la observación TH (vector de fila) yi φ(xi) es una transformación que asigna Xi a un espacio de alta dimensionalidad (llamado "truco del kernel"). Sin embargo, evaluar G(x1,x2) , la matriz Gram, para cada par de observaciones es costosa computacionalmente para un conjunto de datos grande (grande).n

El esquema de expansión de entidades aleatorias encuentra una transformación aleatoria para que su producto de punto se aprobe al kernel gaussiano. Es decir

G(x1,x2)=φ(x1),φ(x2)T(x1)T(x2)',

Dónde T(x) mapas enx p a un espacio de alta dimensionalidad (m). El esquema de sumidero aleatorio de la cocina utiliza la transformación aleatoria[1]

T(x)=m1/2exp(iZx')',

Dónde Zm×p es una muestra extraída de N(0,σ2) Y σ2 es una escala de kernel. Este esquema requiere O(mp) Computación y almacenamiento. El esquema Fastfood introduce otra base aleatoria en lugar de utilizar matrices Hadamard combinadas con matrices de escalado gaussiano.[2]VZ Esta base aleatoria reduce el costo de cálculo para O(mlogp) y reduce el almacenamiento a O(m).

Puede especificar valores para ym σ2, utilizando los argumentos de par nombre-valor de, respectivamente.NumExpansionDimensionsKernelScalefitrkernel

La función utiliza el esquema Fastfood para la expansión aleatoria de entidades y utiliza la regresión lineal para entrenar un modelo de regresión del kernel gaussiano.fitrkernel A diferencia de los solucionadores de la función, que requieren el cálculo de la matriz de Gram, el solucionador sólo necesita formar una matriz de tamaño por-, con típicamente mucho menor que para Big Data.fitrsvmnnfitrkernelnmmn

Capacidades ampliadas

Introducido en R2018a