Main Content

La traducción de esta página aún no se ha actualizado a la versión más reciente. Haga clic aquí para ver la última versión en inglés.

layrecnet

Red neuronal recurrente de capas

Descripción

ejemplo

layrecnet(layerDelays,hiddenSizes,trainFcn) toma estos argumentos:

  • Vector fila de retardos crecientes de valor 0 o positivos, layerDelays

  • Vector fila con uno o más tamaños de capas ocultas, hiddenSizes

  • Función de entrenamiento de retropropagación, trainFcn

y devuelve una red neuronal recurrente de capas.

Las redes neuronales recurrentes de capas son similares a las redes prealimentadas, con la excepción de que cada capa tiene una conexión recurrente con un retardo asociado a ella. Esto permite a la red tener una respuesta dinámica infinita a los datos de entrada de series de tiempo. Esta red es similar a las redes neuronales de retardo de tiempo (timedelaynet) y de retardo distribuido (distdelaynet), que tienen respuestas de entrada finitas.

Ejemplos

contraer todo

Este ejemplo muestra cómo usar una red neuronal recurrente de capas para solucionar un problema de serie de tiempo sencillo.

[X,T] = simpleseries_dataset;
net = layrecnet(1:2,10);
[Xs,Xi,Ai,Ts] = preparets(net,X,T);
net = train(net,Xs,Ts,Xi,Ai);

Figure Neural Network Training (29-Aug-2023 21:16:37) contains an object of type uigridlayout.

view(net)

Y = net(Xs,Xi,Ai);
perf = perform(net,Y,Ts)
perf = 6.1239e-11

Argumentos de entrada

contraer todo

Retardos de entrada cero o positivos, especificados como un vector fila creciente.

Tamaños de las capas ocultas, especificados como un vector fila de uno o más elementos.

Nombre de la función de entrenamiento, especificado como una de las siguientes opciones.

Función de entrenamientoAlgoritmo
'trainlm'

Levenberg-Marquardt

'trainbr'

Regularización bayesiana

'trainbfg'

BFGS quasi-Newton

'trainrp'

Retropropagación resiliente

'trainscg'

Gradiente conjugado escalado

'traincgb'

Gradiente conjugado con reinicios de Powell/Beale

'traincgf'

Gradiente conjugado de Fletcher-Powell

'traincgp'

Gradiente conjugado de Polak-Ribiére

'trainoss'

Secante de un paso

'traingdx'

Gradiente descendente de tasa de aprendizaje variable

'traingdm'

Gradiente descendente con momento

'traingd'

Gradiente descendente

Ejemplo: Por ejemplo, puede establecer el algoritmo de gradiente descendente de tasa de aprendizaje variable como el algoritmo de entrenamiento, de esta manera: 'traingdx'

Para obtener más información sobre las funciones de entrenamiento, consulte Train and Apply Multilayer Shallow Neural Networks y Choose a Multilayer Neural Network Training Function.

Tipos de datos: char

Historial de versiones

Introducido en R2010b