Main Content

La traducción de esta página aún no se ha actualizado a la versión más reciente. Haga clic aquí para ver la última versión en inglés.

Lista de capas de deep learning

En esta página encontrará una lista de las capas de deep learning de MATLAB®.

Para aprender a crear redes a partir de capas para diferentes tareas, consulte los ejemplos siguientes.

TareaMás información
Crear redes de deep learning para clasificación o regresión de imágenes.

Crear una red neuronal de deep learning sencilla para clasificación

Entrenar una red neuronal convolucional para regresión

Train Residual Network for Image Classification

Crear redes de deep learning para datos de series de tiempo y secuencias.

Clasificación de secuencias mediante deep learning

Pronóstico de series de tiempo mediante deep learning

Crear redes de deep learning para datos de sonido.Train Speech Command Recognition Model Using Deep Learning
Crear redes de deep learning para datos de texto.

Classify Text Data Using Deep Learning

Generate Text Using Deep Learning

Capas de deep learning

Utilice las funciones siguientes para crear diferentes tipos de capas. Como alternativa, utilice la app Deep Network Designer para crear redes de forma interactiva.

Para aprender a definir sus propias capas personalizadas, consulte Define Custom Deep Learning Layers.

Capas de entrada

CapaDescripción

imageInputLayer

Una capa de entrada de imagen introduce imágenes 2D en una red neuronal y aplica normalización de datos.

image3dInputLayer

Una capa de entrada de imagen 3D introduce imágenes o volúmenes 3D en una red neuronal y aplica normalización de datos.

pointCloudInputLayer (Lidar Toolbox)

Una capa de entrada de nube de puntos introduce nubes de puntos 3D en una red neuronal y aplica normalización de datos. También puede introducir datos de nubes de puntos como escaneos LiDAR 2D.

sequenceInputLayer

Una capa de entrada de secuencias introduce datos secuenciales en una red neuronal.

featureInputLayer

Una capa de entrada de características introduce datos de características en una red neuronal y aplica normalización de datos. Utilice esta capa cuando tenga un conjunto de datos de escalares numéricos que representen características (datos sin dimensiones espaciales ni temporales).

roiInputLayer (Computer Vision Toolbox)

Una capa de entrada ROI introduce imágenes en una red de detección de objetos Fast R-CNN.

Convolución y capas totalmente conectadas

CapaDescripción

convolution1dLayer

Una capa convolucional 1D aplica filtros convolucionales deslizantes a la entrada 1D.

convolution2dLayer

Una capa convolucional 2D aplica filtros convolucionales deslizantes a la entrada 2D.

convolution3dLayer

Una capa convolucional 3D aplica filtros convolucionales cuboidales deslizantes a la entrada 3D.

groupedConvolution2dLayer

Una capa convolucional agrupada 2D separa los canales de entrada en grupos y aplica filtros convolucionales deslizantes. Use capas convolucionales agrupadas para la convolución separable por canal (también conocida como convolución separable por profundidad).

transposedConv2dLayer

Una capa de convolución 2D traspuesta aumenta el tamaño de los mapas de características bidimensionales.

transposedConv3dLayer

Una capa de convolución 3D traspuesta aumenta el tamaño de los mapas de características tridimensionales.

fullyConnectedLayer

Una capa totalmente conectada multiplica la entrada por una matriz de pesos y luego añade un vector de sesgo.

Capas de secuencias

CapaDescripción

sequenceInputLayer

Una capa de entrada de secuencias introduce datos secuenciales en una red neuronal.

lstmLayer

Una capa de LSTM es una capa de RNN que aprende dependencias a largo plazo entre unidades de tiempo de series de tiempo y datos secuenciales.

lstmProjectedLayer

Una capa de LSTM proyectada es una capa de RNN que aprende dependencias a largo plazo entre unidades de tiempo de series de tiempo y datos secuenciales empleando pesos que se pueden aprender proyectados.

bilstmLayer

Una capa de LSTM bidireccional (BiLSTM) es una capa de RNN que aprende dependencias bidireccionales a largo plazo entre unidades de tiempo de series de tiempo y datos secuenciales. Estas dependencias pueden resultar útiles cuando quiera que la RNN aprenda de series de tiempo completas en cada unidad de tiempo.

gruLayer

Una capa GRU es una capa de RNN que aprende dependencias entre unidades de tiempo de series de tiempo y datos secuenciales.

convolution1dLayer

Una capa convolucional 1D aplica filtros convolucionales deslizantes a la entrada 1D.

transposedConv1dLayer

Una capa de convolución 1D transpuesta aumenta el tamaño de los mapas de características unidimensionales.

maxPooling1dLayer

Una capa de agrupación máxima 1D realiza un submuestreo dividiendo la entrada en regiones de agrupación 1D y, después, calculando el máximo de cada región.

averagePooling1dLayer

Una capa de agrupación media 1D realiza un submuestreo dividiendo la entrada en regiones de agrupación 1D y, después, calculando la media de cada región.

globalMaxPooling1dLayer

Una capa de agrupación máxima global 1D realiza un submuestreo generando el máximo del tiempo o de las dimensiones espaciales de la entrada.

sequenceFoldingLayer

Una capa de pliegue de secuencias convierte un lote de secuencias de imágenes en un lote de imágenes. Utilice una capa de pliegue de secuencias para realizar operaciones convolucionales en las unidades de tiempo de las secuencias de imágenes de forma independiente.

sequenceUnfoldingLayer

Una capa de despliegue de secuencias restaura la estructura secuencial de los datos de entrada tras el pliegue de secuencias.

flattenLayer

Una capa aplanada contrae las dimensiones espaciales de la entrada a la dimensión del canal.

selfAttentionLayer

Una capa de autoatención calcula la autoatención de cabeza única o de varias cabezas de la entrada.

wordEmbeddingLayer (Text Analytics Toolbox)

Una capa de word embedding asigna índices de palabras a vectores.

peepholeLSTMLayer (ejemplo de capa personalizada)

Una capa de LSTM con mirilla es una variante de una capa de LSTM donde los cálculos de la puerta utilizan el estado de celda de la capa.

Capas de activación

CapaDescripción

reluLayer

Una capa de unidad lineal rectificada (ReLU) lleva a cabo una operación de umbral en cada elemento de la entrada, en la que cualquier valor inferior a cero se establece en cero.

leakyReluLayer

Una capa de unidad lineal rectificada (ReLU) con fugas lleva a cabo una operación de umbral, en la que cualquier valor de entrada inferior a cero se multiplica por un escalar fijo.

clippedReluLayer

Una capa de unidad lineal rectificada (ReLU) recortada lleva a cabo una operación de umbral, en la que cualquier valor de entrada inferior a cero se establece en cero y cualquier valor por encima del techo de recorte se establece en dicho techo de recorte.

eluLayer

Una capa de activación de unidad lineal de error (ELU) lleva a cabo la operación de identidad en entradas positivas y una no linealidad exponencial en entradas negativas.

geluLayer

Una capa de unidad lineal de error gaussiano (GELU) pondera la entrada según su probabilidad en una distribución gaussiana.

tanhLayer

Una capa de activación tangente hiperbólica (tanh) aplica la función tanh en las entradas de la capa.

swishLayer

Una capa de activación swish aplica la función swish en las entradas de la capa.

softplusLayer (Reinforcement Learning Toolbox)

Una capa softplus aplica la función de activación softplus Y = log(1 + eX), que asegura que la salida siempre sea positiva. Esta función de activación es una versión continua suave de reluLayer. Puede incorporar esta capa en las redes neuronales profundas que define para los actores en agentes de reinforcement learning. Esta capa es útil para crear redes neuronales profundas de políticas gaussianas continuas, para las cuales la salida de la desviación estándar debe ser positiva.

functionLayer

Una capa de función aplica una función concreta a la entrada de la capa.

preluLayer (ejemplo de capa personalizada)

Una capa de unidad lineal rectificada paramétrica (PReLU) lleva a cabo una operación de umbral donde, para cada canal, cualquier valor de entrada inferior a cero se multiplica por un escalar aprendido en el tiempo de entrenamiento.

Capas de normalización

CapaDescripción

batchNormalizationLayer

Una capa de normalización de lotes normaliza un minilote de datos en todas las observaciones para cada canal de manera independiente. Para acelerar el entrenamiento de la red neuronal convolucional y reducir la sensibilidad a la inicialización de la red, use capas de normalización de lotes entre las capas convolucionales y las no linealidades, como las capas ReLU.

groupNormalizationLayer

Una capa de normalización de grupos normaliza un minilote de datos en subconjuntos agrupados de canales para cada observación de manera independiente. Para acelerar el entrenamiento de la red neuronal convolucional y reducir la sensibilidad a la inicialización de la red, use capas de normalización de grupos entre las capas convolucionales y las no linealidades, como las capas ReLU.

instanceNormalizationLayer

Una capa de normalización de instancias normaliza un minilote de datos en cada canal para cada observación de manera independiente. Para mejorar la convergencia del entrenamiento de la red neuronal convolucional y reducir la sensibilidad a los hiperparámetros de la red, utilice capas de normalización de instancia entre las capas convolucionales y las no linealidades, como las capas ReLU.

layerNormalizationLayer

Una capa de normalización de capas normaliza un minilote de datos en todos los canales para cada observación de manera independiente. Para acelerar el entrenamiento de redes neuronales recurrentes y de perceptrón multicapa y reducir la sensibilidad a la inicialización de la red, use capas de normalización de capas después de las capas que se pueden aprender, como las capas LSTM y completamente conectadas.

crossChannelNormalizationLayer

Una capa de normalización local de canales (canales cruzados) lleva a cabo una normalización por canales.

Capas de utilidades

CapaDescripción

dropoutLayer

Una capa de abandono establece aleatoriamente elementos de entrada en cero con una probabilidad dada.

crop2dLayer

Una capa de recorte 2D aplica recorte 2D a la entrada.

crop3dLayer

Una capa de recorte 3D recorta un volumen 3D al tamaño del mapa de características de la entrada.

scalingLayer (Reinforcement Learning Toolbox)

Una capa de escalado escala linealmente y sesga un arreglo de entrada U, generando una salida Y = Scale.*U + Bias. Puede incorporar esta capa en las redes neuronales profundas que define para los actores o elementos críticos en agentes de reinforcement learning. Esta capa es útil para escalar y desplazar las salidas de capas no lineales, tales como tanhLayer y sigmoide.

quadraticLayer (Reinforcement Learning Toolbox)

Una capa cuadrática toma un vector de entrada y genera un vector de monomios cuadráticos construidos a partir de los elementos de entrada. Esta capa es útil cuando se necesita una capa cuya salida es una función cuadrática de sus entradas. Por ejemplo, para recrear la estructura de funciones de valor cuadrático como las usadas en el diseño del controlador LQR.

stftLayer (Signal Processing Toolbox)

Una capa de STFT calcula la transformada de Fourier de tiempo corto de la entrada.

cwtLayer (Wavelet Toolbox)

Una capa de CWT calcula el CWT de la entrada.

modwtLayer (Wavelet Toolbox)

Una capa de MODWT calcula la MODWT y el análisis de resolución múltiple (MRA) MODWT de la entrada.

Cambiar el tamaño de las capas

CapaDescripción

resize2dLayer (Image Processing Toolbox)

Una capa de cambio de tamaño 2D cambia el tamaño de una entrada 2D mediante un factor de escala, a una altura y anchura especificadas, o al tamaño de un mapa de características de entrada de referencia.

resize3dLayer (Image Processing Toolbox)

Una capa de cambio de tamaño 3D cambia el tamaño de una entrada 3D mediante un factor de escala, a una altura, anchura y profundidad especificadas, o al tamaño de un mapa de características de entrada de referencia.

Agrupar y desagrupar capas

CapaDescripción

averagePooling1dLayer

Una capa de agrupación media 1D realiza un submuestreo dividiendo la entrada en regiones de agrupación 1D y, después, calculando la media de cada región.

averagePooling2dLayer

Una capa de agrupación media 2D realiza un submuestreo dividiendo la entrada en regiones de agrupaciones rectangulares y, después, calculando la media de cada región.

averagePooling3dLayer

Una capa de agrupación media 3D realiza un submuestreo dividiendo la entrada 3D en regiones de agrupaciones cuboidales y, después, calculando los valores medios de cada región.

globalAveragePooling1dLayer

Una capa de agrupación media global 1D realiza un submuestreo generando el promedio del tiempo o de las dimensiones espaciales de la entrada.

globalAveragePooling2dLayer

Una capa de agrupación media global 2D realiza un submuestreo calculando la media de las dimensiones espaciales de altura y anchura de la entrada.

globalAveragePooling3dLayer

Una capa de agrupación media global 3D realiza un submuestreo calculando el promedio de las dimensiones de altura, anchura y profundidad de la entrada.

maxPooling1dLayer

Una capa de agrupación máxima 1D realiza un submuestreo dividiendo la entrada en regiones de agrupación 1D y, después, calculando el máximo de cada región.

maxPooling2dLayer

Una capa de agrupación máxima 2D realiza un submuestreo dividiendo la entrada en regiones de agrupación rectangulares y, después, calculando el máximo de cada región.

maxPooling3dLayer

Una capa de agrupación máxima 3D realiza un submuestreo dividiendo la entrada 3D en regiones de agrupación cuboidales y, después, calculando el máximo de cada región.

globalMaxPooling1dLayer

Una capa de agrupación máxima global 1D realiza un submuestreo generando el máximo del tiempo o de las dimensiones espaciales de la entrada.

globalMaxPooling2dLayer

Una capa de agrupación máxima global 2D realiza un submuestreo calculando el máximo de las dimensiones de altura y anchura de la entrada.

globalMaxPooling3dLayer

Una capa de agrupación máxima global 3D realiza un submuestreo calculando el máximo de las dimensiones de altura, anchura y profundidad de la entrada.

maxUnpooling2dLayer

Una capa de desagrupación máxima 2D desagrupa la salida de una capa de agrupación máxima 2D.

Capas de combinación

CapaDescripción

additionLayer

Una capa de suma añade entradas de múltiples capas de redes neuronales elemento por elemento.

multiplicationLayer

Una capa de multiplicación multiplica entradas de múltiples capas de redes neuronales elemento por elemento.

depthConcatenationLayer

Una capa de concatenación de profundidad toma entradas que tienen la misma altura y la misma anchura, y las concatena en la dimensión del canal.

concatenationLayer

Una capa de concatenación toma las entradas y las concatena en una dimensión especificada. Las entradas deben tener el mismo tamaño en todas las dimensiones, salvo en la dimensión de concatenación.

weightedAdditionLayer (ejemplo de capa personalizada)

Una capa de suma ponderada escala y añade entradas de múltiples capas de redes neuronales elemento por elemento.

Capas de detección de objetos

CapaDescripción

roiInputLayer (Computer Vision Toolbox)

Una capa de entrada ROI introduce imágenes en una red de detección de objetos Fast R-CNN.

roiMaxPooling2dLayer (Computer Vision Toolbox)

Una capa de agrupación máxima de ROI genera mapas de características de tamaño fijo para cada ROI rectangular dentro del mapa de características de la entrada. Utilice esta capa para crear una red de detección de objetos Fast o Faster R-CNN.

roiAlignLayer (Computer Vision Toolbox)

Una capa de alineación de ROI genera mapas de características de tamaño fijo para cada ROI rectangular dentro del mapa de características de una entrada. Utilice esta capa para crear una red Mask R-CNN.

anchorBoxLayer (Computer Vision Toolbox)

Una capa de recuadro de anclaje almacena cuadros de anclaje para un mapa de características usado en redes de detección de objetos.

regionProposalLayer (Computer Vision Toolbox)

Una capa de propuestas de región genera cuadros delimitadores alrededor de posibles objetos en una imagen como parte de la red de propuesta de región en Faster R-CNN.

ssdMergeLayer (Computer Vision Toolbox)

Una capa de combinación de SSD combina las salidas de mapas de características para posteriormente calcular la pérdida de regresión y clasificación.
yolov2TransformLayer (Computer Vision Toolbox)Una capa de transformación de la red You Only Look Once versión 2 (YOLO v2) transforma las predicciones de cuadros delimitadores de la última capa de convolución en la red para que se encuentren dentro de los límites de la validación. Use la capa de transformación para mejorar la estabilidad de la red YOLO v2.

spaceToDepthLayer (Image Processing Toolbox)

Una capa de espacio a profundidad permuta los bloques espaciales de la entrada en la dimensión de profundidad. Use esta capa cuando necesite combinar mapas de características de diferentes tamaños sin descartar ningún dato de las características.

depthToSpace2dLayer (Image Processing Toolbox)

Una capa 2D de profundidad a espacio permuta los datos de la dimensión de profundidad en bloques de datos espaciales 2D.

rpnSoftmaxLayer (Computer Vision Toolbox)

Una capa softmax de red de propuesta de región (RPN) aplica una función de activación softmax a la entrada. Utilice esta capa para crear una red de detección de objetos Faster R-CNN.

focalLossLayer (Computer Vision Toolbox)

Una capa de pérdida focal predice las clases de objetos empleando la pérdida focal.

rpnClassificationLayer (Computer Vision Toolbox)

Una capa de clasificación de red de propuesta de región (RPN) clasifica las regiones de imágenes como objetos o fondos mediante el uso de una función de pérdida de entropía cruzada. Utilice esta capa para crear una red de detección de objetos Faster R-CNN.

rcnnBoxRegressionLayer (Computer Vision Toolbox)

Una capa de regresión de cuadro mejora las ubicaciones de los cuadros delimitadores usando una función de pérdida L1 de suavizado. Utilice esta capa para crear una red de detección de objetos Fast o Faster R-CNN.

Capas de salida

CapaDescripción

softmaxLayer

Una capa softmax aplica una función softmax a la entrada.

sigmoidLayer

Una capa sigmoide aplica una función sigmoide a la entrada de manera que la salida esté acotada en el intervalo (0,1).

classificationLayer

Una capa de clasificación calcula la pérdida de entropía cruzada de las tareas de clasificación y clasificación ponderada con clases mutuamente excluyentes.

regressionLayer

Una capa de regresión calcula la pérdida del error cuadrático medio dividido de las tareas de regresión.

pixelClassificationLayer (Computer Vision Toolbox)

Una capa de clasificación de píxeles proporciona una etiqueta categórica a cada píxel o vóxel de la imagen.

dicePixelClassificationLayer (Computer Vision Toolbox)

Una capa de clasificación de píxeles de Dice proporciona una etiqueta categórica a cada píxel o vóxel de la imagen usando una pérdida de Dice generalizada.

focalLossLayer (Computer Vision Toolbox)

Una capa de pérdida focal predice las clases de objetos empleando la pérdida focal.

rpnSoftmaxLayer (Computer Vision Toolbox)

Una capa softmax de red de propuesta de región (RPN) aplica una función de activación softmax a la entrada. Utilice esta capa para crear una red de detección de objetos Faster R-CNN.

rpnClassificationLayer (Computer Vision Toolbox)

Una capa de clasificación de red de propuesta de región (RPN) clasifica las regiones de imágenes como objetos o fondos mediante el uso de una función de pérdida de entropía cruzada. Utilice esta capa para crear una red de detección de objetos Faster R-CNN.

rcnnBoxRegressionLayer (Computer Vision Toolbox)

Una capa de regresión de cuadro mejora las ubicaciones de los cuadros delimitadores usando una función de pérdida L1 de suavizado. Utilice esta capa para crear una red de detección de objetos Fast o Faster R-CNN.

yolov2OutputLayer (Computer Vision Toolbox)

Una capa de salida de la red You Only Look Once versión 2 (YOLO v2) mejora las ubicaciones de los cuadros delimitadores minimizando la pérdida de error cuadrático medio entre las ubicaciones predichas y la validación.

tverskyPixelClassificationLayer (ejemplo de capa personalizada)

Una capa de clasificación de Tversky proporciona una etiqueta categórica a cada píxel o vóxel de la imagen usando la pérdida de Tversky.

sseClassificationLayer (ejemplo de capa personalizada)

Una capa de SSE de clasificación calcula la pérdida de suma de errores cuadráticos para problemas de clasificación.

maeRegressionLayer (ejemplo de capa personalizada)

Una capa de regresión MAE calcula la pérdida del error cuadrático medio absoluto para problemas de regresión.

Consulte también

| |

Temas relacionados