reluLayer
Capa de unidad lineal rectificada (ReLU)
Descripción
Una capa de unidad lineal rectificada (ReLU) lleva a cabo una operación de umbral en cada elemento de la entrada, en la que cualquier valor inferior a cero se establece en cero.
Esta operación es equivalente a
Creación
Propiedades
Ejemplos
Más acerca de
Referencias
[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.
Capacidades ampliadas
Historial de versiones
Introducido en R2016a
Consulte también
trainnet
| trainingOptions
| dlnetwork
| batchNormalizationLayer
| leakyReluLayer
| clippedReluLayer
| swishLayer
| Deep Network Designer