Main Content

La traducción de esta página aún no se ha actualizado a la versión más reciente. Haga clic aquí para ver la última versión en inglés.

Deep learning con series de tiempo y datos secuenciales

Cree y entrene redes para tareas de clasificación, regresión y predicción de series de tiempo

Cree y entrene redes para tareas de clasificación, regresión y predicción de series de tiempo. Entrene redes de memoria de corto-largo plazo (LSTM) para problemas de clasificación y regresión de secuencia a uno o secuencia a etiqueta. Puede entrenar redes LSTM sobre datos de texto usando capas de incrustación de palabras (requiere Text Analytics Toolbox™) o redes neuronales convolucionales sobre datos de audio mediante espectrogramas (requiere Audio Toolbox™).

Apps

Deep Network DesignerDiseñar, visualizar y entrenar redes de deep learning

Funciones

expandir todo

trainingOptionsOpciones para entrenar una red neuronal de deep learning
trainNetworkEntrenar redes neuronales de deep learning
analyzeNetworkAnalyze deep learning network architecture

Capas de entrada

sequenceInputLayerSequence input layer
featureInputLayerFeature input layer

Capas recurrentes

lstmLayerLong short-term memory (LSTM) layer for recurrent neural network (RNN)
bilstmLayerBidirectional long short-term memory (BiLSTM) layer for recurrent neural network (RNN)
gruLayerGated recurrent unit (GRU) layer for recurrent neural network (RNN)
lstmProjectedLayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN)

Convolución y capas totalmente conectadas

convolution1dLayer1-D convolutional layer
transposedConv1dLayerTransposed 1-D convolution layer
fullyConnectedLayerFully connected layer

Agrupar capas

maxPooling1dLayer1-D max pooling layer
averagePooling1dLayer1-D average pooling layer
globalMaxPooling1dLayer1-D global max pooling layer
globalAveragePooling1dLayer1-D global average pooling layer

Capas de activación y abandono

reluLayerCapa de unidad lineal rectificada (ReLU)
leakyReluLayerLeaky Rectified Linear Unit (ReLU) layer
clippedReluLayerClipped Rectified Linear Unit (ReLU) layer
eluLayerExponential linear unit (ELU) layer
tanhLayerCapa de tangente hiperbólica (tanh)
swishLayerSwish layer
geluLayerGaussian error linear unit (GELU) layer
softmaxLayerCapa softmax
dropoutLayerDropout layer
functionLayerFunction layer

Manipulación de datos

sequenceFoldingLayerSequence folding layer
sequenceUnfoldingLayerSequence unfolding layer
flattenLayerFlatten layer

Capas de salida

classificationLayerCapa de clasificación de salida
regressionLayerCapa de salida de regresión
classifyClassify data using trained deep learning neural network
predictPredict responses using trained deep learning neural network
activationsCalcular las activaciones de las capas de una red de deep learning
predictAndUpdateStatePredict responses using a trained recurrent neural network and update the network state
classifyAndUpdateStateClassify data using a trained recurrent neural network and update the network state
resetStateReset state parameters of neural network
confusionchartCreate confusion matrix chart for classification problem
sortClassesSort classes of confusion matrix chart
padsequencesPad or truncate sequence data to same length

Bloques

expandir todo

PredictPredecir respuestas usando una red neuronal de deep learning entrenada
Stateful PredictPredict responses using a trained recurrent neural network
Stateful ClassifyClassify data using a trained deep learning recurrent neural network

Propiedades

ConfusionMatrixChart PropertiesConfusion matrix chart appearance and behavior

Temas

Redes recurrentes

Redes convolucionales

Deep learning con Simulink

Deep learning con MATLAB