Main Content

timedelaynet

Red neuronal de retardo de tiempo

Descripción

ejemplo

timedelaynet(inputDelays,hiddenSizes,trainFcn) toma estos argumentos:

  • Vector fila de retardos de entrada crecientes de valor 0 o positivos, inputDelays

  • Vector fila con uno o más tamaños de capas ocultas, hiddenSizes

  • Función de entrenamiento, trainFcn

y devuelve una red neuronal de retardo de tiempo.

Las redes de retardo de tiempo son similares a las redes prealimentadas, con la excepción de que el peso de la entrada tiene una línea de retardo en pulsación asociado. Esto permite a la red tener una respuesta dinámica finita a los datos de entrada de series de tiempo. Esta red también es similar a la red neuronal de retardo distribuido (distdelaynet), que tiene retardos en los pesos de la capa además del peso de entrada.

Ejemplos

contraer todo

En este ejemplo se muestra cómo entrenar una red de retardo de tiempo.

Divida el conjunto de entrenamiento. Utilice Xnew para llevar a cabo una predicción en un modo de lazo cerrado más adelante.

[X,T] = simpleseries_dataset;
Xnew = X(81:100);
X = X(1:80);
T = T(1:80);

Entrene una red de retardo de tiempo y haga una simulación con ella en las 80 primeras observaciones.

net = timedelaynet(1:2,10);
[Xs,Xi,Ai,Ts] = preparets(net,X,T);
net = train(net,Xs,Ts,Xi,Ai);

Figure Neural Network Training (25-Jan-2024 15:36:31) contains an object of type uigridlayout.

view(net)

Calcule el rendimiento de la red.

[Y,Xf,Af] = net(Xs,Xi,Ai);
perf = perform(net,Ts,Y);

Ejecute la predicción para las siguientes 20 unidades de tiempo en el modo de lazo cerrado.

[netc,Xic,Aic] = closeloop(net,Xf,Af);
view(netc)

y2 = netc(Xnew,Xic,Aic);

Argumentos de entrada

contraer todo

Retardos de entrada cero o positivos, especificados como un vector fila creciente.

Tamaños de las capas ocultas, especificados como un vector fila de uno o más elementos.

Nombre de la función de entrenamiento, especificado como una de las siguientes opciones.

Función de entrenamientoAlgoritmo
'trainlm'

Levenberg-Marquardt

'trainbr'

Regularización bayesiana

'trainbfg'

BFGS quasi-Newton

'trainrp'

Retropropagación resiliente

'trainscg'

Gradiente conjugado escalado

'traincgb'

Gradiente conjugado con reinicios de Powell/Beale

'traincgf'

Gradiente conjugado de Fletcher-Powell

'traincgp'

Gradiente conjugado de Polak-Ribiére

'trainoss'

Secante de un paso

'traingdx'

Gradiente descendente de tasa de aprendizaje variable

'traingdm'

Gradiente descendente con momento

'traingd'

Gradiente descendente

Ejemplo: Por ejemplo, puede establecer el algoritmo de gradiente descendente de tasa de aprendizaje variable como el algoritmo de entrenamiento, de esta manera: 'traingdx'

Para obtener más información sobre las funciones de entrenamiento, consulte Train and Apply Multilayer Shallow Neural Networks y Choose a Multilayer Neural Network Training Function.

Tipos de datos: char

Historial de versiones

Introducido en R2010b