convolution1dLayer
Descripción
Una capa convolucional 1D aplica filtros convolucionales deslizantes a la entrada 1D. La capa convoluciona la entrada moviendo los filtros a lo largo de la entrada y calculando el producto de puntos de los pesos y la entrada, para después añadir un término de sesgo.
La dimensión en la que convoluciona la capa depende de la entrada de la capa:
Para entradas de series de tiempo y secuencias de vectores (datos con tres dimensiones correspondientes a los canales, observaciones y pasos de tiempo), la capa convoluciona en la dimensión de tiempo.
Para la entrada de imagen 1D (datos con tres dimensiones correspondientes a los píxeles espaciales, canales y observaciones), la capa convoluciona en la dimensión espacial.
Para entradas de secuencias de imágenes 1D (datos con cuatro dimensiones correspondientes a los píxeles espaciales, canales, observaciones y unidades de tiempo), la capa convoluciona en la dimensión espacial.
Creación
Sintaxis
Descripción
crea una capa convolucional 1D y establece las propiedades layer
= convolution1dLayer(filterSize
,numFilters
)FilterSize
y NumFilters
.
establece las propiedades opcionales usando uno o más argumentos nombre-valor.layer
= convolution1dLayer(filterSize
,numFilters
,Name=Value
)
Argumentos de entrada
Anchura de los filtros, especificada como entero positivo.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Número de filtros, especificado como entero positivo. Este número corresponde al número de neuronas de la capa que se conectan a la misma región de la entrada. Este parámetro determina el número de canales (mapas de características) de la salida de la capa.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Argumentos de par nombre-valor
Especifique pares de argumentos opcionales como Name1=Value1,...,NameN=ValueN
, donde Name
es el nombre del argumento y Value
es el valor correspondiente. Los argumentos de nombre-valor deben aparecer después de otros argumentos. Sin embargo, el orden de los pares no importa.
Ejemplo: convolution1dLayer(11,96,Padding=1)
crea una capa convolucional 1D con 96 filtros de tamaño 11 y especifica un relleno de tamaño 1 a la izquierda y a la derecha de la entrada de la capa.
Tamaño de paso para recorrer la entrada, especificado como entero positivo.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Factor de convolución dilatada (también conocida como convolución atrous), especificado como entero positivo.
Utilice convoluciones dilatadas para aumentar el campo receptivo de la capa (el área de la entrada que la capa puede ver) sin aumentar la cantidad de parámetros o cálculos.
La capa expande los filtros insertando ceros entre cada elemento de filtro. El factor de dilatación determina el tamaño del paso para muestrear la entrada o, de forma equivalente, el factor de sobremuestreo del filtro. Corresponde a un tamaño de filtro efectivo de (FilterSize – 1) .* DilationFactor + 1
. Por ejemplo, un filtro de 1 por 3 con un factor de dilatación de 2
equivale a un filtro de 1 por 5 con ceros entre los elementos.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Relleno para aplicar a la entrada, especificado como una de las siguientes opciones:
"same"
: aplica relleno de tal manera que el tamaño de salida seaceil(inputSize/stride)
, dondeinputSize
es la longitud de la entrada. CuandoStride
es1
, la salida es del mismo tamaño que la entrada."causal"
: aplica relleno a la izquierda de la entrada, equivalente a(FilterSize - 1) .* DilationFactor
. CuandoStride
es1
, la salida es del mismo tamaño que la entrada.Entero no negativo
sz
: añade relleno de tamañosz
a ambos extremos de la entrada.Vector
[l r]
de enteros no negativos: añade relleno de tamañol
a la izquierda yr
a la derecha de la entrada.
Ejemplo: Padding=[2 1]
añade relleno de tamaño 2 a la izquierda y de tamaño 1 a la derecha de la entrada.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
| char
| string
Valor para rellenar datos, especificado como uno de los siguientes:
PaddingValue | Descripción | Ejemplo |
---|---|---|
Escalar | Rellenar con el valor escalar especificado. | |
"symmetric-include-edge" | Rellenar utilizando valores reflejados de la entrada, incluidos los valores de los bordes. | |
"symmetric-exclude-edge" | Rellenar utilizando valores reflejados de la entrada, excluyendo los valores de los bordes. | |
"replicate" | Rellenar utilizando los elementos de borde repetidos de la entrada. | |
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
| char
| string
Número de canales de entrada, especificado como una de las siguientes opciones:
"auto"
: determina automáticamente el número de canales de entrada durante el entrenamiento.Entero positivo: configura la capa para el número especificado de canales de entrada.
NumChannels
debe coincidir con el número de canales de los datos de entrada de la capa. Por ejemplo, si la entrada es una imagen RGB, entoncesNumChannels
debe ser 3. Si la entrada es la salida de una capa convolucional con 16 filtros, entoncesNumChannels
debe ser 16.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
| char
| string
Función para inicializar los pesos, especificada como una de las siguientes opciones:
"glorot"
: inicializa los pesos con el inicializador Glorot [1] (también denominado inicializador Xavier). El inicializador Glorot muestrea de forma independiente a partir de una distribución uniforme con media cero y varianza2/(numIn + numOut)
, dondenumIn = FilterSize*NumChannels
ynumOut = FilterSize*NumFilters
."he"
: inicializa los pesos con el inicializador He [2]. El inicializador He muestrea a partir de una distribución normal con media cero y varianza2/numIn
, dondenumIn = FilterSize*NumChannels
."narrow-normal"
: inicializa los pesos muestreando de forma independiente a partir de una distribución normal con media cero y desviación estándar de 0.01."zeros"
: inicializa los pesos con ceros."ones"
: inicializa los pesos con unos.Identificador de función: inicializa los pesos con una función personalizada. Si especifica un identificador de función, la función debe tener la forma
weights = func(sz)
, dondesz
es el tamaño de los pesos. Para ver un ejemplo, consulte Specify Custom Weight Initialization Function.
La capa inicializa los pesos solo cuando la propiedad Weights
está vacía.
Tipos de datos: char
| string
| function_handle
Función para inicializar sesgos, especificada como uno de estos valores:
"zeros"
: inicializa los sesgos con ceros."ones"
: inicializa los sesgos con unos."narrow-normal"
: inicializa los sesgos muestreando de forma independiente a partir de una distribución normal con media cero y desviación estándar de 0.01.Identificador de función: inicializa los sesgos con una función personalizada. Si especifica un identificador de función, la función debe tener la forma
bias = func(sz)
, dondesz
es el tamaño de los sesgos.
La capa inicializa los sesgos solo cuando la propiedad Bias
está vacía.
Tipos de datos: char
| string
| function_handle
Pesos de capa para la operación de convolución traspuesta, especificados como un arreglo numérico de FilterSize
por NumChannels
por numFilters
o []
.
Los pesos de las capas son parámetros que se pueden aprender. Puede especificar el valor inicial de los pesos usando directamente la propiedad Weights
de la capa. Cuando entrena una red, si la propiedad Weights
de la capa no está vacía, las funciones trainnet
y trainNetwork
usan la propiedad Weights
como valor inicial. Si la propiedad Weights
está vacía, el software usa el inicializador especificado por la propiedad WeightsInitializer
de la capa.
Tipos de datos: single
| double
Sesgos de capa para la operación de convolución traspuesta, especificados como un arreglo numérico de 1 por NumFilters
o []
.
Los sesgos de capa de capa son parámetros que se pueden aprender. Cuando entrena una red neuronal, si Bias
no está vacío, las funciones trainnet
y trainNetwork
usan la propiedad Bias
como valor inicial. Si Bias
está vacío, el software usa el inicializador especificado por BiasInitializer
.
Tipos de datos: single
| double
Factor de la tasa de aprendizaje de los pesos, especificado como un escalar no negativo.
El software multiplica este factor por la tasa de aprendizaje global para determinar la tasa de aprendizaje de los pesos de esta capa. Por ejemplo, si WeightLearnRateFactor
es 2
, la tasa de aprendizaje de los pesos de esta capa es dos veces la tasa de aprendizaje global actual. El software determina la tasa de aprendizaje global según la configuración que especifique usando la función trainingOptions
.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Factor de la tasa de aprendizaje de los sesgos, especificado como un escalar no negativo.
El software multiplica este factor por la tasa de aprendizaje global para determinar la tasa de aprendizaje de los sesgos de esta capa. Por ejemplo, si BiasLearnRateFactor
es 2
, la tasa de aprendizaje de los sesgos de esta capa es dos veces la tasa de aprendizaje global actual. El software determina la tasa de aprendizaje global según la configuración que especifique usando la función trainingOptions
.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Factor de regularización L2 de los pesos, especificado como un escalar no negativo.
El software multiplica este factor por el factor de regularización global L2 para determinar la regularización L2 de los pesos de esta capa. Por ejemplo, si WeightL2Factor
es 2
, la regularización L2 de los pesos de esta capa es dos veces el factor de regularización global L2. Puede especificar el factor de regularización global L2 usando la función trainingOptions
.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Factor de regularización L2 de los sesgos, especificado como un escalar no negativo.
El software multiplica este factor por el factor de regularización global L2 para determinar la regularización L2 de los sesgos de esta capa. Por ejemplo, si BiasL2Factor
es 2
, la regularización L2 de los sesgos de esta capa es dos veces el factor de regularización global L2. El software determina el factor de regularización global L2 según la configuración que especifique usando la función trainingOptions
.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Nombre de la capa, especificado como un vector de caracteres o un escalar de cadena. Para entradas en forma de arreglo Layer
, las funciones trainnet
y dlnetwork
asignan automáticamente nombres a las capas con el nombre ""
.
El objeto Convolution1DLayer
almacena la propiedad Name
como un vector de caracteres.
Tipos de datos: char
| string
Propiedades
Convolución
Esta propiedad o parámetro es de solo lectura.
Anchura de los filtros, especificada como entero positivo.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Esta propiedad o parámetro es de solo lectura.
Número de filtros, especificado como entero positivo. Este número corresponde al número de neuronas de la capa que se conectan a la misma región de la entrada. Este parámetro determina el número de canales (mapas de características) de la salida de la capa.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Tamaño de paso para recorrer la entrada, especificado como entero positivo.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Factor de convolución dilatada (también conocida como convolución atrous), especificado como entero positivo.
Utilice convoluciones dilatadas para aumentar el campo receptivo de la capa (el área de la entrada que la capa puede ver) sin aumentar la cantidad de parámetros o cálculos.
La capa expande los filtros insertando ceros entre cada elemento de filtro. El factor de dilatación determina el tamaño del paso para muestrear la entrada o, de forma equivalente, el factor de sobremuestreo del filtro. Corresponde a un tamaño de filtro efectivo de (FilterSize – 1) .* DilationFactor + 1
. Por ejemplo, un filtro de 1 por 3 con un factor de dilatación de 2
equivale a un filtro de 1 por 5 con ceros entre los elementos.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Tamaño del relleno que se aplicará a cada lado de la entrada, especificado como un vector [l r]
de dos enteros no negativos, donde l
es el relleno aplicado a la izquierda y r
es el relleno aplicado a la derecha.
Cuando cree una capa, utilice el argumento nombre-valor Padding
para especificar el tamaño del relleno.
Tipos de datos: double
Esta propiedad o parámetro es de solo lectura.
Método para determinar el tamaño del relleno, especificado como una de las siguientes opciones:
'manual'
: rellena utilizando el entero o vector especificado porPadding
.'same'
: aplica relleno de tal manera que el tamaño de salida seaceil(inputSize/Stride)
, dondeinputSize
es la longitud de la entrada. CuandoStride
es1
, la salida es igual que la entrada.'causal'
: aplica relleno causal. Rellena la izquierda de la entrada con tamaño de relleno(FilterSize - 1) .* DilationFactor
.
Para especificar el relleno de capa, utilice el argumento de nombre-valor Padding
.
Tipos de datos: char
Esta propiedad o parámetro es de solo lectura.
Valor para rellenar datos, especificado como uno de los siguientes:
PaddingValue | Descripción | Ejemplo |
---|---|---|
Escalar | Rellenar con el valor escalar especificado. | |
"symmetric-include-edge" | Rellenar utilizando valores reflejados de la entrada, incluidos los valores de los bordes. | |
"symmetric-exclude-edge" | Rellenar utilizando valores reflejados de la entrada, excluyendo los valores de los bordes. | |
"replicate" | Rellenar utilizando los elementos de borde repetidos de la entrada. | |
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
| char
| string
Esta propiedad o parámetro es de solo lectura.
Número de canales de entrada, especificado como una de las siguientes opciones:
"auto"
: determina automáticamente el número de canales de entrada durante el entrenamiento.Entero positivo: configura la capa para el número especificado de canales de entrada.
NumChannels
debe coincidir con el número de canales de los datos de entrada de la capa. Por ejemplo, si la entrada es una imagen RGB, entoncesNumChannels
debe ser 3. Si la entrada es la salida de una capa convolucional con 16 filtros, entoncesNumChannels
debe ser 16.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
| char
| string
Parámetros e inicialización
Función para inicializar los pesos, especificada como una de las siguientes opciones:
"glorot"
: inicializa los pesos con el inicializador Glorot [1] (también denominado inicializador Xavier). El inicializador Glorot muestrea de forma independiente a partir de una distribución uniforme con media cero y varianza2/(numIn + numOut)
, dondenumIn = FilterSize*NumChannels
ynumOut = FilterSize*NumFilters
."he"
: inicializa los pesos con el inicializador He [2]. El inicializador He muestrea a partir de una distribución normal con media cero y varianza2/numIn
, dondenumIn = FilterSize*NumChannels
."narrow-normal"
: inicializa los pesos muestreando de forma independiente a partir de una distribución normal con media cero y desviación estándar de 0.01."zeros"
: inicializa los pesos con ceros."ones"
: inicializa los pesos con unos.Identificador de función: inicializa los pesos con una función personalizada. Si especifica un identificador de función, la función debe tener la forma
weights = func(sz)
, dondesz
es el tamaño de los pesos. Para ver un ejemplo, consulte Specify Custom Weight Initialization Function.
La capa inicializa los pesos solo cuando la propiedad Weights
está vacía.
Tipos de datos: char
| string
| function_handle
Función para inicializar sesgos, especificada como uno de estos valores:
"zeros"
: inicializa los sesgos con ceros."ones"
: inicializa los sesgos con unos."narrow-normal"
: inicializa los sesgos muestreando de forma independiente a partir de una distribución normal con media cero y desviación estándar de 0.01.Identificador de función: inicializa los sesgos con una función personalizada. Si especifica un identificador de función, la función debe tener la forma
bias = func(sz)
, dondesz
es el tamaño de los sesgos.
La capa inicializa los sesgos solo cuando la propiedad Bias
está vacía.
El objeto Convolution1DLayer
almacena esta propiedad como un vector de caracteres o un identificador de función.
Tipos de datos: char
| string
| function_handle
Pesos de capa para la operación de convolución traspuesta, especificados como un arreglo numérico de FilterSize
por NumChannels
por numFilters
o []
.
Los pesos de las capas son parámetros que se pueden aprender. Puede especificar el valor inicial de los pesos usando directamente la propiedad Weights
de la capa. Cuando entrena una red, si la propiedad Weights
de la capa no está vacía, la función trainnet
usa la propiedad Weights
como valor inicial. Si la propiedad Weights
está vacía, el software usa el inicializador especificado por la propiedad WeightsInitializer
de la capa.
Tipos de datos: single
| double
Sesgos de capa para la operación de convolución traspuesta, especificados como un arreglo numérico de 1 por NumFilters
o []
.
Los sesgos de capa de capa son parámetros que se pueden aprender. Cuando entrena una red neuronal, si la propiedad Bias
no está vacía, la función trainnet
usa la propiedad Bias
como valor inicial. Si Bias
está vacío, el software usa el inicializador especificado por BiasInitializer
.
Tipos de datos: single
| double
Tasa de aprendizaje y regularización
Factor de la tasa de aprendizaje de los pesos, especificado como un escalar no negativo.
El software multiplica este factor por la tasa de aprendizaje global para determinar la tasa de aprendizaje de los pesos de esta capa. Por ejemplo, si WeightLearnRateFactor
es 2
, la tasa de aprendizaje de los pesos de esta capa es dos veces la tasa de aprendizaje global actual. El software determina la tasa de aprendizaje global según la configuración que especifique usando la función trainingOptions
.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Factor de la tasa de aprendizaje de los sesgos, especificado como un escalar no negativo.
El software multiplica este factor por la tasa de aprendizaje global para determinar la tasa de aprendizaje de los sesgos de esta capa. Por ejemplo, si BiasLearnRateFactor
es 2
, la tasa de aprendizaje de los sesgos de esta capa es dos veces la tasa de aprendizaje global actual. El software determina la tasa de aprendizaje global según la configuración que especifique usando la función trainingOptions
.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Factor de regularización L2 de los pesos, especificado como un escalar no negativo.
El software multiplica este factor por el factor de regularización global L2 para determinar la regularización L2 de los pesos de esta capa. Por ejemplo, si WeightL2Factor
es 2
, la regularización L2 de los pesos de esta capa es dos veces el factor de regularización global L2. Puede especificar el factor de regularización global L2 usando la función trainingOptions
.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Factor de regularización L2 de los sesgos, especificado como un escalar no negativo.
El software multiplica este factor por el factor de regularización global L2 para determinar la regularización L2 de los sesgos de esta capa. Por ejemplo, si BiasL2Factor
es 2
, la regularización L2 de los sesgos de esta capa es dos veces el factor de regularización global L2. El software determina el factor de regularización global L2 según la configuración que especifique usando la función trainingOptions
.
Tipos de datos: single
| double
| int8
| int16
| int32
| int64
| uint8
| uint16
| uint32
| uint64
Capa
Nombre de la capa, especificado como vector de caracteres o escalar de cadena. Para entradas en forma de arreglo Layer
, las funciones trainnet
y dlnetwork
asignan automáticamente nombres a las capas con el nombre ""
.
El objeto Convolution1DLayer
almacena esta propiedad como un vector de caracteres.
Tipos de datos: char
| string
Esta propiedad o parámetro es de solo lectura.
Número de entradas a la capa, devuelto como 1
. Esta capa solo admite una entrada.
Tipos de datos: double
Esta propiedad o parámetro es de solo lectura.
Nombres de entrada, devueltos como {'in'}
. Esta capa solo admite una entrada.
Tipos de datos: cell
Esta propiedad o parámetro es de solo lectura.
Número de salidas de la capa, devuelto como 1
. Esta capa solo tiene una salida.
Tipos de datos: double
Esta propiedad o parámetro es de solo lectura.
Nombres de salida, devueltos como {'out'}
. Esta capa solo tiene una salida.
Tipos de datos: cell
Ejemplos
Cree una capa convolucional 1D con 96 filtros de ancho 11.
layer = convolution1dLayer(11,96);
Incluya una capa convolucional 1D en un arreglo Layer
.
layers = [ sequenceInputLayer(3,MinLength=20) layer reluLayer globalMaxPooling1dLayer fullyConnectedLayer(10) softmaxLayer]
layers = 6x1 Layer array with layers: 1 '' Sequence Input Sequence input with 3 dimensions 2 '' 1-D Convolution 96 11 convolutions with stride 1 and padding [0 0] 3 '' ReLU ReLU 4 '' 1-D Global Max Pooling 1-D global max pooling 5 '' Fully Connected 10 fully connected layer 6 '' Softmax softmax
Algoritmos
Una capa convolucional 1D aplica filtros convolucionales deslizantes a la entrada 1D. La capa convoluciona la entrada moviendo los filtros a lo largo de la entrada y calculando el producto de puntos de los pesos y la entrada, para después añadir un término de sesgo.
La dimensión en la que convoluciona la capa depende de la entrada de la capa:
Para entradas de series de tiempo y secuencias de vectores (datos con tres dimensiones correspondientes a los canales, observaciones y pasos de tiempo), la capa convoluciona en la dimensión de tiempo.
Para la entrada de imagen 1D (datos con tres dimensiones correspondientes a los píxeles espaciales, canales y observaciones), la capa convoluciona en la dimensión espacial.
Para entradas de secuencias de imágenes 1D (datos con cuatro dimensiones correspondientes a los píxeles espaciales, canales, observaciones y unidades de tiempo), la capa convoluciona en la dimensión espacial.
Las capas en un arreglo de capas o en una gráfica de capas pasan datos a las capas posteriores como objetos dlarray
con formato. El formato de un objeto dlarray
es una cadena de caracteres, en la que cada carácter describe la dimensión correspondiente de los datos. Los formatos constan de uno o más de estos caracteres:
"S"
: espacial"C"
: canal"B"
: lote"T"
: tiempo"U"
: sin especificar
Por ejemplo, puede representar datos de secuencia de vector como un arreglo 3D, en el cual la primera dimensión se corresponde con la dimensión del canal, la segunda dimensión con la del lote y la tercera con la del tiempo. Esta representación está en formato "CBT"
(canal, lote, tiempo).
Puede interactuar con estos objetos dlarray
en flujos de trabajo de diferenciación automática, como aquellos para desarrollar una capa personalizada, usar un objeto functionLayer
o usar las funciones forward
y predict
con objetos dlnetwork
.
En esta tabla se muestran los formatos de entrada admitidos de objetos Convolution1DLayer
y el formato de salida correspondiente. Si el software pasa la salida de la capa a una capa personalizada que no hereda de la clase nnet.layer.Formattable
o a un objeto FunctionLayer
con la propiedad Formattable
establecida en 0
(false
), la capa recibe un objeto dlarray
sin formato con dimensiones ordenadas según los formatos de esta tabla. Los formatos incluidos en esta lista son únicamente un subconjunto. La capa puede ser compatible con formatos adicionales, como aquellos con dimensiones adicionales "S"
(espacial) o "U"
(sin especificar).
Formato de entrada | Formato de salida |
---|---|
|
|
|
|
|
|
En objetos dlnetwork
, los objetos Convolution1DLayer
también admiten estas combinaciones de formato de entrada y salida.
Formato de entrada | Formato de salida |
---|---|
|
|
|
|
|
|
Referencias
[1] Glorot, Xavier, and Yoshua Bengio. "Understanding the Difficulty of Training Deep Feedforward Neural Networks." In Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, 249–356. Sardinia, Italy: AISTATS, 2010. https://proceedings.mlr.press/v9/glorot10a/glorot10a.pdf
[2] He, Kaiming, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. "Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification." In 2015 IEEE International Conference on Computer Vision (ICCV), 1026–34. Santiago, Chile: IEEE, 2015. https://doi.org/10.1109/ICCV.2015.123
Capacidades ampliadas
Notas y limitaciones de uso:
Puede generar código C/C++ genérico que no dependa de bibliotecas de terceros y desplegar el código generado en plataformas de hardware.
Notas y limitaciones de uso:
Puede generar código CUDA que es independiente de las bibliotecas de deep learning y desplegar el código generado en plataformas que usen procesadores de GPU NVIDIA®.
Historial de versiones
Introducido en R2021b
Consulte también
trainnet
| trainingOptions
| dlnetwork
| sequenceInputLayer
| lstmLayer
| bilstmLayer
| gruLayer
| maxPooling1dLayer
| averagePooling1dLayer
| globalMaxPooling1dLayer
| globalAveragePooling1dLayer
| transposedConv1dLayer
| exportNetworkToSimulink
| Convolution 1D Layer
Temas
- Clasificación de secuencias mediante convoluciones 1D
- Sequence-to-Sequence Classification Using 1-D Convolutions
- Clasificación de secuencias mediante deep learning
- Clasificación secuencia a secuencia mediante deep learning
- Regresión de secuencia a secuencia mediante deep learning
- Pronóstico de series de tiempo mediante deep learning
- Redes neuronales de memoria de corto-largo plazo
- Lista de capas de deep learning
- Trucos y consejos de deep learning
MATLAB Command
You clicked a link that corresponds to this MATLAB command:
Run the command by entering it in the MATLAB Command Window. Web browsers do not support MATLAB commands.
Seleccione un país/idioma
Seleccione un país/idioma para obtener contenido traducido, si está disponible, y ver eventos y ofertas de productos y servicios locales. Según su ubicación geográfica, recomendamos que seleccione: .
También puede seleccionar uno de estos países/idiomas:
Cómo obtener el mejor rendimiento
Seleccione China (en idioma chino o inglés) para obtener el mejor rendimiento. Los sitios web de otros países no están optimizados para ser accedidos desde su ubicación geográfica.
América
- América Latina (Español)
- Canada (English)
- United States (English)
Europa
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)