Esta página aún no se ha traducido para esta versión. Puede ver la versión más reciente de esta página en inglés.

RegressionKernel

Modelo de regresión de kernel Gaussiano con expansión de características aleatorias

Descripción

es un objeto de modelo entrenado para la regresión del kernel gaussiano utilizando la expansión de entidades aleatorias. es más práctico para aplicaciones de macrodatos que tienen grandes conjuntos de entrenamiento, pero también se pueden aplicar a conjuntos de datos más pequeños que caben en la memoria.RegressionKernelRegressionKernel

A diferencia de otros modelos de regresión, y para el uso de memoria económica, los objetos de modelo no almacenan los datos de entrenamiento.RegressionKernel Sin embargo, almacenan información como la dimensión del espacio expandido, el parámetro de escala del kernel y la fuerza de regularización.

Puede utilizar modelos entrenados para continuar el entrenamiento con los datos de entrenamiento, predecir las respuestas de los nuevos datos y calcular el error medio cuadrado o la pérdida de Epsilon.RegressionKernel Para obtener más información, consulte y.resumePredecirPérdida

Creación

Cree un objeto utilizando la función.RegressionKernelfitrkernel Esta función asigna datos en un espacio de dimensiones reducidas a un espacio de alta dimensionalidad y, a continuación, se ajusta a un modelo lineal en el espacio de alta dimensión minimizando la función objetiva regularizada. La obtención del modelo lineal en el espacio de alta dimensionalidad equivale a aplicar el kernel gaussiano al modelo en el espacio de dimensiones reducidas. Los modelos de regresión lineal disponibles incluyen máquinas de vectores de soporte regularizados (SVM) y modelos de regresión de mínimos cuadrados.

Propiedades

expandir todo

Propiedades de regresión del kernel

La mitad de la anchura de la banda sin distinción de épsilon, especificada como un escalar no negativo.

Si no es así, entonces es un array vacío ().Learner'svm'Epsilon[]

Tipos de datos: single | double

Tipo de modelo de regresión lineal, especificado como o.'leastsquares''svm'

En la siguiente tabla, f(x)=T(x)β+b.

  • es una observación (vector de fila) a partir de variables predictoras.xp

  • T(·) es una transformación de una observación (vector de fila) para la expansión de entidades. T(x) mapas enx p a un espacio de alta dimensionalidad (m).

  • es un vector de coeficientes.βm

  • es el sesgo escalar.b

ValorAlgoritmoFunción de pérdidaValorFittedLoss
'leastsquares'Regresión lineal a través de mínimos cuadrados ordinariosError cuadrado medio (MSE): [y,f(x)]=12[yf(x)]2'mse'
'svm'Apoye la regresión de la máquina vectorialInsensible a la Epsilon: [y,f(x)]=max[0,|yf(x)|ε]'epsiloninsensitive'

Número de dimensiones del espacio expandido, especificado como un entero positivo.

Tipos de datos: single | double

Parámetro de escala del kernel, especificado como un escalar positivo.

Tipos de datos: single | double

Restricción de cuadro, especificada como un escalar positivo.

Tipos de datos: double | single

Fuerza del término de regularización, especificada como un escalar no negativo.

Tipos de datos: single | double

Función de pérdida utilizada para ajustarse al modelo lineal, especificado como o.'epsiloninsensitive''mse'

ValorAlgoritmoFunción de pérdidaValorLearner
'epsiloninsensitive'Apoye la regresión de la máquina vectorialInsensible a la Epsilon: [y,f(x)]=max[0,|yf(x)|ε]'svm'
'mse'Regresión lineal a través de mínimos cuadrados ordinariosError cuadrado medio (MSE): [y,f(x)]=12[yf(x)]2'leastsquares'

Tipo de penalización de complejidad, especificada como o.'lasso (L1)''ridge (L2)'

El software compone la función objetiva para la minimización de la suma de la función de pérdida promedio (ver) y un valor de regularización de esta tabla.FittedLoss

ValorDescripción
'lasso (L1)'LazoL1pena λj=1p|βj|
'ridge (L2)'RidgeL2pena λ2j=1pβj2

Especifica la intensidad del término de regularización (véase).λLambda

El software excluye el término de sesgo (β0) de la sanción por regularización.

Otras propiedades de regresión

Índices de predictores categóricos, cuyo valor siempre está vacío () porque un[] RegressionKernel modelo no admite predictores categóricos.

Los parámetros utilizados para entrenar el RegressionKernel modelo, especificado como una estructura.

Campos de acceso de uso de notación de puntos.ModelParameters Por ejemplo, acceda a la tolerancia relativa en los coeficientes lineales y el término de sesgo mediante el uso de.Mdl.ModelParameters.BetaTolerance

Tipos de datos: struct

Los nombres predictores en orden de su aparición en los Datos predictores, especificados como una matriz de celdas de vectores de caracteres.X La longitud de es igual al número de columnas en.PredictorNamesX

Tipos de datos: cell

Nombres de predictores ampliados, especificados como una matriz de vectores de caracteres de celda.

Porque un RegressionKernel modelo no admite predictores categóricos y son iguales.ExpandedPredictorNamesPredictorNames

Tipos de datos: cell

Nombre de variable de respuesta, especificado como un vector de caracteres.

Tipos de datos: char

Función de transformación de respuesta para aplicar a las respuestas previstas, especificadas como o un identificador de función.'none'

Para los modelos de regresión del kernel y antes de la transformación de respuesta, la respuesta pronosticada para la observación (vector de fila) esx f(x)=T(x)β+b.

  • T(·) es una transformación de una observación para la expansión de características.

  • corresponde a.βMdl.Beta

  • corresponde a.bMdl.Bias

Para una función o una función que defina, introduzca su manejador de funciones.MATLAB® Por ejemplo, puede introducir Mdl.ResponseTransform = @functionDónde function acepta un vector numérico de las respuestas originales y devuelve un vector numérico del mismo tamaño que contiene las respuestas transformadas.

Tipos de datos: char | function_handle

Funciones del objeto

PérdidaLa pérdida de regresión para el modelo de regresión del kernel gaussiano
PredecirPredecir respuestas para el modelo de regresión del kernel gaussiano
resumeReanudar el entrenamiento del modelo de regresión del kernel gaussiano

Ejemplos

contraer todo

Entrenar un modelo de regresión de kernel para una matriz alta mediante SVM.

Cree un almacén de datos que hace referencia a la ubicación de la carpeta con los datos. Los datos pueden estar contenidos en un único archivo, una colección de archivos o una carpeta completa. Trate los valores como datos faltantes para que los Reemplace con valores.'NA'datastoreNaN Seleccione un subconjunto de las variables que desee utilizar. Cree una tabla alta en la parte superior del almacén de datos.

varnames = {'ArrTime','DepTime','ActualElapsedTime'}; ds = datastore('airlinesmall.csv','TreatAsMissing','NA',...     'SelectedVariableNames',varnames); t = tall(ds);

Especifique y como las variables predictoras () y como variable de respuesta ().DepTimeArrTimeXActualElapsedTimeY Seleccione las observaciones para las que es posterior.ArrTimeDepTime

daytime = t.ArrTime>t.DepTime; Y = t.ActualElapsedTime(daytime);     % Response data X = t{daytime,{'DepTime' 'ArrTime'}}; % Predictor data

Estandarizar las variables predictoras.

Z = zscore(X); % Standardize the data

Entrenar un modelo de regresión de kernel gaussiano predeterminado con los predictores estandarizados. Extraiga un resumen de ajuste para determinar qué tan bien se ajusta el algoritmo de optimización al modelo a los datos.

[Mdl,FitInfo] = fitrkernel(Z,Y)
Found 6 chunks. |========================================================================= | Solver | Iteration  /  |   Objective   |   Gradient    | Beta relative | |        | Data Pass     |               |   magnitude   |    change     | |========================================================================= |   INIT |     0 /     1 |  4.335200e+01 |  9.821993e-02 |           NaN | |  LBFGS |     0 /     2 |  3.693870e+01 |  1.566041e-02 |  9.988238e-01 | |  LBFGS |     1 /     3 |  3.692143e+01 |  3.030550e-02 |  1.352488e-03 | |  LBFGS |     2 /     4 |  3.689521e+01 |  2.919252e-02 |  1.137336e-03 | |  LBFGS |     2 /     5 |  3.686922e+01 |  2.801905e-02 |  2.277224e-03 | |  LBFGS |     2 /     6 |  3.681793e+01 |  2.615365e-02 |  4.564688e-03 | |  LBFGS |     2 /     7 |  3.671782e+01 |  2.276596e-02 |  9.170612e-03 | |  LBFGS |     2 /     8 |  3.652813e+01 |  1.868733e-02 |  1.850839e-02 | |  LBFGS |     3 /     9 |  3.442961e+01 |  3.260732e-02 |  2.030226e-01 | |  LBFGS |     4 /    10 |  3.473328e+01 |  8.506865e-02 |  3.309396e-01 | |  LBFGS |     4 /    11 |  3.378744e+01 |  5.473648e-02 |  1.428247e-01 | |  LBFGS |     5 /    12 |  3.329728e+01 |  3.922448e-02 |  1.026073e-01 | |  LBFGS |     6 /    13 |  3.309615e+01 |  1.551459e-02 |  6.118966e-02 | |  LBFGS |     7 /    14 |  3.300400e+01 |  1.759430e-02 |  1.918912e-02 | |  LBFGS |     8 /    15 |  3.277892e+01 |  3.155320e-02 |  4.781893e-02 | |  LBFGS |     9 /    16 |  3.255352e+01 |  3.435953e-02 |  4.200697e-02 | |  LBFGS |    10 /    17 |  3.207945e+01 |  6.192847e-02 |  2.161540e-01 | |  LBFGS |    11 /    18 |  3.171391e+01 |  3.185452e-02 |  1.204747e-01 | |  LBFGS |    12 /    19 |  3.155433e+01 |  1.183853e-02 |  5.837098e-02 | |  LBFGS |    13 /    20 |  3.149625e+01 |  1.132499e-02 |  2.169556e-02 | |========================================================================= | Solver | Iteration  /  |   Objective   |   Gradient    | Beta relative | |        | Data Pass     |               |   magnitude   |    change     | |========================================================================= |  LBFGS |    14 /    21 |  3.136724e+01 |  1.478355e-02 |  3.132871e-02 | |  LBFGS |    15 /    22 |  3.115575e+01 |  1.461357e-02 |  7.221907e-02 | |  LBFGS |    16 /    23 |  3.091292e+01 |  1.900119e-02 |  1.237602e-01 | |  LBFGS |    17 /    24 |  3.076649e+01 |  3.469328e-02 |  1.664433e-01 | |  LBFGS |    18 /    25 |  3.104221e+01 |  1.341798e-01 |  2.831585e-02 | |  LBFGS |    18 /    26 |  3.076703e+01 |  4.929652e-02 |  1.414956e-02 | |  LBFGS |    18 /    27 |  3.073332e+01 |  1.434614e-02 |  7.072158e-03 | |  LBFGS |    19 /    28 |  3.067248e+01 |  9.931353e-03 |  2.438284e-02 | |  LBFGS |    20 /    29 |  3.063153e+01 |  6.781994e-03 |  1.606731e-02 | |========================================================================| 
Mdl =    RegressionKernel             PredictorNames: {'x1'  'x2'}               ResponseName: 'Y'                    Learner: 'svm'     NumExpansionDimensions: 64                KernelScale: 1                     Lambda: 8.5385e-06              BoxConstraint: 1                    Epsilon: 5.9303     Properties, Methods  
FitInfo = struct with fields:
                  Solver: 'LBFGS-tall'
            LossFunction: 'epsiloninsensitive'
                  Lambda: 8.5385e-06
           BetaTolerance: 1.0000e-03
       GradientTolerance: 1.0000e-05
          ObjectiveValue: 30.6315
       GradientMagnitude: 0.0068
    RelativeChangeInBeta: 0.0161
                 FitTime: 77.1910
                 History: [1×1 struct]

es un modelo.MdlRegressionKernel Para inspeccionar el error de regresión, puede pasar y los datos de entrenamiento o nuevos datos a la función.Mdlloss O puede pasar y nuevos Datos predictores a la función para predecir las respuestas de las nuevas observaciones.Mdlpredict También puede pasar y los datos de entrenamiento a la función para continuar el entrenamiento.Mdlresume

es una matriz de estructura que contiene información de optimización.FitInfo Utilícese para determinar si las mediciones de terminación de optimización son satisfactorias.FitInfo

Para mejorar la precisión, puede aumentar el número máximo de iteraciones de optimización () y reducir los valores de tolerancia (y) utilizando los argumentos de par nombre-valor de fitrkernel.'IterationLimit''BetaTolerance''GradientTolerance' Hacerlo puede mejorar las medidas como y en.ObjectiveValueRelativeChangeInBetaFitInfo También puede optimizar los parámetros del modelo mediante el argumento de par nombre-valor.'OptimizeHyperparameters'

Reanudar el entrenamiento de un modelo de regresión del kernel gaussiano para más iteraciones para mejorar la pérdida de regresión.

Cargue el conjunto de datos.carbig

load carbig

Especifique las variables predictoras () y la variable de respuesta ().XY

X = [Acceleration,Cylinders,Displacement,Horsepower,Weight]; Y = MPG;

Eliminar filas de y donde cualquiera de las matrices tiene valores.XYNaN La eliminación de filas con valores antes de pasar datos puede acelerar el entrenamiento y reducir el uso de memoria.NaNfitrkernel

R = rmmissing([X Y]); % Data with missing entries removed X = R(:,1:5);  Y = R(:,end); 

Reserve el 10% de las observaciones como una muestra de exclusión. Extraiga los índices de entrenamiento y prueba de la definición de partición.

rng(10)  % For reproducibility N = length(Y); cvp = cvpartition(N,'Holdout',0.1); idxTrn = training(cvp); % Training set indices idxTest = test(cvp);    % Test set indices

Estandarice los datos de entrenamiento y capacite un modelo de regresión del kernel. Establezca el límite de iteración en 5 y especifique para mostrar información de diagnóstico.'Verbose',1

Xtrain = X(idxTrn,:); Ytrain = Y(idxTrn); [Ztrain,tr_mu,tr_sigma] = zscore(Xtrain); % Standardize the training data tr_sigma(tr_sigma==0) = 1; Mdl = fitrkernel(Ztrain,Ytrain,'IterationLimit',5,'Verbose',1)
|=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |            0 |  5.691016e+00 |  0.000000e+00 |  5.852758e-02 |                |             0 | |  LBFGS |      1 |            1 |  5.086537e+00 |  8.000000e+00 |  5.220869e-02 |   9.846711e-02 |           256 | |  LBFGS |      1 |            2 |  3.862301e+00 |  5.000000e-01 |  3.796034e-01 |   5.998808e-01 |           256 | |  LBFGS |      1 |            3 |  3.460613e+00 |  1.000000e+00 |  3.257790e-01 |   1.615091e-01 |           256 | |  LBFGS |      1 |            4 |  3.136228e+00 |  1.000000e+00 |  2.832861e-02 |   8.006254e-02 |           256 | |  LBFGS |      1 |            5 |  3.063978e+00 |  1.000000e+00 |  1.475038e-02 |   3.314455e-02 |           256 | |=================================================================================================================| 
Mdl =    RegressionKernel               ResponseName: 'Y'                    Learner: 'svm'     NumExpansionDimensions: 256                KernelScale: 1                     Lambda: 0.0028              BoxConstraint: 1                    Epsilon: 0.8617     Properties, Methods  

es un modelo.Mdl RegressionKernel

Estandarice los datos de prueba utilizando la misma media y la desviación estándar de las columnas de datos de entrenamiento. Calcule el error de épsilon insensible para el conjunto de pruebas.

Xtest = X(idxTest,:); Ztest = (Xtest-tr_mu)./tr_sigma; % Standardize the test data Ytest = Y(idxTest);  L = loss(Mdl,Ztest,Ytest,'LossFun','epsiloninsensitive')
L = 2.0674 

Continúe entrenando el modelo utilizando.resume Esta función continúa el entrenamiento con las mismas opciones utilizadas para el entrenamiento.Mdl

UpdatedMdl = resume(Mdl,Ztrain,Ytrain);
|=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |            0 |  3.063978e+00 |  0.000000e+00 |  1.475038e-02 |                |           256 | |  LBFGS |      1 |            1 |  3.007822e+00 |  8.000000e+00 |  1.391637e-02 |   2.603966e-02 |           256 | |  LBFGS |      1 |            2 |  2.817171e+00 |  5.000000e-01 |  5.949008e-02 |   1.918084e-01 |           256 | |  LBFGS |      1 |            3 |  2.807294e+00 |  2.500000e-01 |  6.798867e-02 |   2.973097e-02 |           256 | |  LBFGS |      1 |            4 |  2.791060e+00 |  1.000000e+00 |  2.549575e-02 |   1.639328e-02 |           256 | |  LBFGS |      1 |            5 |  2.767821e+00 |  1.000000e+00 |  6.154419e-03 |   2.468903e-02 |           256 | |  LBFGS |      1 |            6 |  2.738163e+00 |  1.000000e+00 |  5.949008e-02 |   9.476263e-02 |           256 | |  LBFGS |      1 |            7 |  2.719146e+00 |  1.000000e+00 |  1.699717e-02 |   1.849972e-02 |           256 | |  LBFGS |      1 |            8 |  2.705941e+00 |  1.000000e+00 |  3.116147e-02 |   4.152590e-02 |           256 | |  LBFGS |      1 |            9 |  2.701162e+00 |  1.000000e+00 |  5.665722e-03 |   9.401466e-03 |           256 | |  LBFGS |      1 |           10 |  2.695341e+00 |  5.000000e-01 |  3.116147e-02 |   4.968046e-02 |           256 | |  LBFGS |      1 |           11 |  2.691277e+00 |  1.000000e+00 |  8.498584e-03 |   1.017446e-02 |           256 | |  LBFGS |      1 |           12 |  2.689972e+00 |  1.000000e+00 |  1.983003e-02 |   9.938921e-03 |           256 | |  LBFGS |      1 |           13 |  2.688979e+00 |  1.000000e+00 |  1.416431e-02 |   6.606316e-03 |           256 | |  LBFGS |      1 |           14 |  2.687787e+00 |  1.000000e+00 |  1.621956e-03 |   7.089542e-03 |           256 | |  LBFGS |      1 |           15 |  2.686539e+00 |  1.000000e+00 |  1.699717e-02 |   1.169701e-02 |           256 | |  LBFGS |      1 |           16 |  2.685356e+00 |  1.000000e+00 |  1.133144e-02 |   1.069310e-02 |           256 | |  LBFGS |      1 |           17 |  2.685021e+00 |  5.000000e-01 |  1.133144e-02 |   2.104248e-02 |           256 | |  LBFGS |      1 |           18 |  2.684002e+00 |  1.000000e+00 |  2.832861e-03 |   6.175231e-03 |           256 | |  LBFGS |      1 |           19 |  2.683507e+00 |  1.000000e+00 |  5.665722e-03 |   3.724026e-03 |           256 | |  LBFGS |      1 |           20 |  2.683343e+00 |  5.000000e-01 |  5.665722e-03 |   9.549119e-03 |           256 | |=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |           21 |  2.682897e+00 |  1.000000e+00 |  5.665722e-03 |   7.172867e-03 |           256 | |  LBFGS |      1 |           22 |  2.682682e+00 |  1.000000e+00 |  2.832861e-03 |   2.587726e-03 |           256 | |  LBFGS |      1 |           23 |  2.682485e+00 |  1.000000e+00 |  2.832861e-03 |   2.953648e-03 |           256 | |  LBFGS |      1 |           24 |  2.682326e+00 |  1.000000e+00 |  2.832861e-03 |   7.777294e-03 |           256 | |  LBFGS |      1 |           25 |  2.681914e+00 |  1.000000e+00 |  2.832861e-03 |   2.778555e-03 |           256 | |  LBFGS |      1 |           26 |  2.681867e+00 |  5.000000e-01 |  1.031085e-03 |   3.638352e-03 |           256 | |  LBFGS |      1 |           27 |  2.681725e+00 |  1.000000e+00 |  5.665722e-03 |   1.515199e-03 |           256 | |  LBFGS |      1 |           28 |  2.681692e+00 |  5.000000e-01 |  1.314940e-03 |   1.850055e-03 |           256 | |  LBFGS |      1 |           29 |  2.681625e+00 |  1.000000e+00 |  2.832861e-03 |   1.456903e-03 |           256 | |  LBFGS |      1 |           30 |  2.681594e+00 |  5.000000e-01 |  2.832861e-03 |   8.704875e-04 |           256 | |  LBFGS |      1 |           31 |  2.681581e+00 |  5.000000e-01 |  8.498584e-03 |   3.934768e-04 |           256 | |  LBFGS |      1 |           32 |  2.681579e+00 |  1.000000e+00 |  8.498584e-03 |   1.847866e-03 |           256 | |  LBFGS |      1 |           33 |  2.681553e+00 |  1.000000e+00 |  9.857038e-04 |   6.509825e-04 |           256 | |  LBFGS |      1 |           34 |  2.681541e+00 |  5.000000e-01 |  8.498584e-03 |   6.635528e-04 |           256 | |  LBFGS |      1 |           35 |  2.681499e+00 |  1.000000e+00 |  5.665722e-03 |   6.194735e-04 |           256 | |  LBFGS |      1 |           36 |  2.681493e+00 |  5.000000e-01 |  1.133144e-02 |   1.617763e-03 |           256 | |  LBFGS |      1 |           37 |  2.681473e+00 |  1.000000e+00 |  9.869233e-04 |   8.418484e-04 |           256 | |  LBFGS |      1 |           38 |  2.681469e+00 |  1.000000e+00 |  5.665722e-03 |   1.069722e-03 |           256 | |  LBFGS |      1 |           39 |  2.681432e+00 |  1.000000e+00 |  2.832861e-03 |   8.501930e-04 |           256 | |  LBFGS |      1 |           40 |  2.681423e+00 |  2.500000e-01 |  1.133144e-02 |   9.543716e-04 |           256 | |=================================================================================================================| | Solver |  Pass  |   Iteration  |   Objective   |     Step      |    Gradient   |    Relative    |  sum(beta~=0) | |        |        |              |               |               |   magnitude   | change in Beta |               | |=================================================================================================================| |  LBFGS |      1 |           41 |  2.681416e+00 |  1.000000e+00 |  2.832861e-03 |   8.763251e-04 |           256 | |  LBFGS |      1 |           42 |  2.681413e+00 |  5.000000e-01 |  2.832861e-03 |   4.101888e-04 |           256 | |  LBFGS |      1 |           43 |  2.681403e+00 |  1.000000e+00 |  5.665722e-03 |   2.713209e-04 |           256 | |  LBFGS |      1 |           44 |  2.681392e+00 |  1.000000e+00 |  2.832861e-03 |   2.115241e-04 |           256 | |  LBFGS |      1 |           45 |  2.681383e+00 |  1.000000e+00 |  2.832861e-03 |   2.872858e-04 |           256 | |  LBFGS |      1 |           46 |  2.681374e+00 |  1.000000e+00 |  8.498584e-03 |   5.771001e-04 |           256 | |  LBFGS |      1 |           47 |  2.681353e+00 |  1.000000e+00 |  2.832861e-03 |   3.160871e-04 |           256 | |  LBFGS |      1 |           48 |  2.681334e+00 |  5.000000e-01 |  8.498584e-03 |   1.045502e-03 |           256 | |  LBFGS |      1 |           49 |  2.681314e+00 |  1.000000e+00 |  7.878714e-04 |   1.505118e-03 |           256 | |  LBFGS |      1 |           50 |  2.681306e+00 |  1.000000e+00 |  2.832861e-03 |   4.756894e-04 |           256 | |  LBFGS |      1 |           51 |  2.681301e+00 |  1.000000e+00 |  1.133144e-02 |   3.664873e-04 |           256 | |  LBFGS |      1 |           52 |  2.681288e+00 |  1.000000e+00 |  2.832861e-03 |   1.449821e-04 |           256 | |  LBFGS |      1 |           53 |  2.681287e+00 |  2.500000e-01 |  1.699717e-02 |   2.357176e-04 |           256 | |  LBFGS |      1 |           54 |  2.681282e+00 |  1.000000e+00 |  5.665722e-03 |   2.046663e-04 |           256 | |  LBFGS |      1 |           55 |  2.681278e+00 |  1.000000e+00 |  2.832861e-03 |   2.546349e-04 |           256 | |  LBFGS |      1 |           56 |  2.681276e+00 |  2.500000e-01 |  1.307940e-03 |   1.966786e-04 |           256 | |  LBFGS |      1 |           57 |  2.681274e+00 |  5.000000e-01 |  1.416431e-02 |   1.005310e-04 |           256 | |  LBFGS |      1 |           58 |  2.681271e+00 |  5.000000e-01 |  1.118892e-03 |   1.147324e-04 |           256 | |  LBFGS |      1 |           59 |  2.681269e+00 |  1.000000e+00 |  2.832861e-03 |   1.332914e-04 |           256 | |  LBFGS |      1 |           60 |  2.681268e+00 |  2.500000e-01 |  1.132045e-03 |   5.441369e-05 |           256 | |=================================================================================================================| 

Calcule el error de épsilon insensible para el conjunto de pruebas mediante el modelo actualizado.

UpdatedL = loss(UpdatedMdl,Ztest,Ytest,'LossFun','epsiloninsensitive')
UpdatedL = 1.8933 

El error de regresión disminuye en un factor de aproximadamente después de actualizar el modelo de regresión con más iteraciones.0.08resume

Introducido en R2018a