Main Content

La traducción de esta página aún no se ha actualizado a la versión más reciente. Haga clic aquí para ver la última versión en inglés.

Crear redes neuronales profundas

Cree redes para datos de secuencias y en tablas usando código de MATLAB® o de forma interactiva usando Deep Network Designer.

Cree nuevas redes profundas para tareas como clasificación, regresión y predicción definiendo la arquitectura de la red desde cero. Cree redes usando MATLAB o de forma interactiva con la app Deep Network Designer.

Para la mayor parte de las tareas, puede usar capas integradas. Si no hay una capa integrada que necesita para la tarea, puede definir su propia capa personalizada. Puede especificar una función de pérdida personalizada usando una capa de salida personalizada y definir capas personalizadas con parámetros que se puedan aprender y de estado. Después de definir una capa personalizada, puede comprobar que es válida y compatible con la GPU, y que devuelve como salida gradientes correctamente definidos. Para obtener una lista de capas compatibles, consulte Lista de capas de deep learning.

Para los modelos no admitidos por las gráficas de capa, puede definir un modelo personalizado como una función. Para obtener más información, consulte Define Custom Training Loops, Loss Functions, and Networks.

Apps

Deep Network DesignerDiseñar, visualizar y entrenar redes de deep learning

Funciones

expandir todo

Capas de entrada

sequenceInputLayerSequence input layer
featureInputLayerCapa de entrada de características (desde R2020b)

Capas recurrentes

lstmLayerLong short-term memory (LSTM) layer for recurrent neural network (RNN)
bilstmLayerBidirectional long short-term memory (BiLSTM) layer for recurrent neural network (RNN)
gruLayerGated recurrent unit (GRU) layer for recurrent neural network (RNN) (desde R2020a)
lstmProjectedLayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN) (desde R2022b)
gruProjectedLayerGated recurrent unit (GRU) projected layer for recurrent neural network (RNN) (desde R2023b)

Capas transformadoras

selfAttentionLayerSelf-attention layer (desde R2023a)
positionEmbeddingLayerPosition embedding layer (desde R2023b)
sinusoidalPositionEncodingLayerSinusoidal position encoding layer (desde R2023b)
embeddingConcatenationLayerEmbedding concatenation layer (desde R2023b)
indexing1dLayer1-D indexing layer (desde R2023b)

Capas de ODE neuronales

neuralODELayerNeural ODE layer (desde R2023b)

Capas de convolución, atención y totalmente conectadas

convolution1dLayer1-D convolutional layer (desde R2021b)
transposedConv1dLayerTransposed 1-D convolution layer (desde R2022a)
selfAttentionLayerSelf-attention layer (desde R2023a)
fullyConnectedLayerCapa totalmente conectada

Capas de activación y abandono

reluLayerCapa de unidad lineal rectificada (ReLU)
leakyReluLayerCapa de unidad lineal rectificada (ReLU) con fugas
clippedReluLayerClipped Rectified Linear Unit (ReLU) layer
eluLayerExponential linear unit (ELU) layer
tanhLayerCapa de tangente hiperbólica (tanh)
swishLayerSwish layer (desde R2021a)
geluLayerGaussian error linear unit (GELU) layer (desde R2022b)
sigmoidLayerCapa sigmoide (desde R2020b)
softmaxLayerCapa softmax
dropoutLayerCapa de abandono
functionLayerFunction layer (desde R2021b)

Capas de normalización

batchNormalizationLayerBatch normalization layer
groupNormalizationLayerGroup normalization layer (desde R2020b)
instanceNormalizationLayerInstance normalization layer (desde R2021a)
layerNormalizationLayerLayer normalization layer (desde R2021a)
crossChannelNormalizationLayer Channel-wise local response normalization layer

Agrupar capas

maxPooling1dLayer1-D max pooling layer (desde R2021b)
averagePooling1dLayer1-D average pooling layer (desde R2021b)
globalMaxPooling1dLayer1-D global max pooling layer (desde R2021b)
globalAveragePooling1dLayer1-D global average pooling layer (desde R2021b)

Capas de combinación

additionLayerCapa de suma
multiplicationLayerMultiplication layer (desde R2020b)
concatenationLayerCapa de concatenación
depthConcatenationLayerCapa de concatenación de profundidad

Manipulación de datos

sequenceFoldingLayer(Not recommended) Sequence folding layer
sequenceUnfoldingLayer(Not recommended) Sequence unfolding layer
flattenLayerFlatten layer

Capas de salida

classificationLayerCapa de clasificación de salida
regressionLayerCapa de salida de regresión
layerGraphGráfica de capas de red de deep learning
plotRepresentar una arquitectura de red neuronal
addLayersAdd layers to neural network
removeLayersRemove layers from neural network
replaceLayerReplace layer in neural network
connectLayersConnect layers in neural network
disconnectLayersDisconnect layers in neural network
DAGNetworkRed DAG de deep learning
isequalCheck equality of neural networks (desde R2021a)
isequalnCheck equality of neural networks ignoring NaN values (desde R2021a)
analyzeNetworkAnalyze deep learning network architecture
dlnetworkDeep learning neural network (desde R2019b)
addInputLayerAdd input layer to network (desde R2022b)
summaryImprimir un resumen de la red (desde R2022b)
initializeInitialize learnable and state parameters of a dlnetwork (desde R2021a)
networkDataLayoutDeep learning network data layout for learnable parameter initialization (desde R2022b)
checkLayerCheck validity of custom or function layer

Temas

Capas integradas

Capas personalizadas