Main Content

La traducción de esta página aún no se ha actualizado a la versión más reciente. Haga clic aquí para ver la última versión en inglés.

reluLayer

Capa de unidad lineal rectificada (ReLU)

Descripción

Una capa de unidad lineal rectificada (ReLU) lleva a cabo una operación de umbral en cada elemento de la entrada, en la que cualquier valor inferior a cero se establece en cero.

Esta operación es equivalente a

f(x)={x,x00,x<0.

Creación

Descripción

layer = reluLayer crea una capa ReLU.

ejemplo

layer = reluLayer('Name',Name) crea una capa ReLU y establece la propiedad opcional Name usando un par nombre-valor. Por ejemplo, reluLayer('Name','relu1') crea una capa ReLU con el nombre 'relu1'.

Propiedades

expandir todo

Nombre de la capa, especificado como un vector de caracteres o un escalar de cadena. En la entrada del arreglo Layer, las funciones trainNetwork, assembleNetwork, layerGraph y dlnetwork asignan automáticamente el nombre '' a las capas.

Tipos de datos: char | string

Esta propiedad es de solo lectura.

Número de entradas de la capa. Esta capa solo admite una entrada.

Tipos de datos: double

Esta propiedad es de solo lectura.

Nombres de las entradas de la capa. Esta capa solo admite una entrada.

Tipos de datos: cell

Esta propiedad es de solo lectura.

Número de salidas de la capa. Esta capa solo tiene una salida.

Tipos de datos: double

Esta propiedad es de solo lectura.

Nombres de las salidas de la capa. Esta capa solo tiene una salida.

Tipos de datos: cell

Ejemplos

contraer todo

Cree una capa ReLU con el nombre 'relu1'.

layer = reluLayer('Name','relu1')
layer = 
  ReLULayer with properties:

    Name: 'relu1'

Incluya una capa ReLU en un arreglo Layer.

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    reluLayer
    maxPooling2dLayer(2,'Stride',2)
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer]
layers = 
  7x1 Layer array with layers:

     1   ''   Image Input             28x28x1 images with 'zerocenter' normalization
     2   ''   Convolution             20 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   ReLU                    ReLU
     4   ''   Max Pooling             2x2 max pooling with stride [2  2] and padding [0  0  0  0]
     5   ''   Fully Connected         10 fully connected layer
     6   ''   Softmax                 softmax
     7   ''   Classification Output   crossentropyex

Más acerca de

expandir todo

Referencias

[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.

Capacidades ampliadas

Generación de código C/C++
Genere código C y C++ mediante MATLAB® Coder™.

Generación de código de GPU
Genere código CUDA® para GPU NVIDIA® mediante GPU Coder™.

Historial de versiones

Introducido en R2016a