relu
Sintaxis
Descripción
La operación de activación de unidad lineal rectificada (ReLU) lleva a cabo una operación de umbral no lineal en la que cualquier valor de entrada inferior a cero se establece en cero.
Esta operación es equivalente a
Nota
Esta función aplica la operación ReLU a los datos de dlarray
. Si desea aplicar la activación ReLU dentro de un objeto layerGraph
o un arreglo Layer
, utilice la siguiente capa:
Ejemplos
Argumentos de entrada
Argumentos de salida
Capacidades ampliadas
Historial de versiones
Introducido en R2019b