gelu
Aplicar una activación de unidad lineal de error gaussiano (GELU)
Desde R2022b
Descripción
La operación de activación de unidad lineal de error gaussiano (GELU) pondera la entrada según su probabilidad en una distribución gaussiana.
Esta operación viene dada por
donde erf denota la función de error.
Ejemplos
Argumentos de entrada
Argumentos de salida
Algoritmos
Referencias
[1] Hendrycks, Dan, and Kevin Gimpel. "Gaussian error linear units (GELUs)." Preprint, submitted June 27, 2016. https://arxiv.org/abs/1606.08415
Capacidades ampliadas
Historial de versiones
Introducido en R2022b