Duración del vídeo 20:41

Compresión de redes neuronales para IA embebida: Poda, proyección y cuantificación

De la serie: IA embebida y Edge

Esta charla técnica explora cómo comprimir modelos de redes neuronales para que se puedan ejecutar de manera eficiente en sistemas embebidos sin sacrificar la precisión. Muchas redes neuronales están sobreparametrizadas, lo que significa que contienen más pesos y estructura de los necesarios. Este exceso puede reducirse sistemáticamente mediante tres técnicas poderosas: poda, proyección y cuantización. Mediante un ejemplo práctico en MATLAB®, aprenderá a comprimir un modelo entrenado que clasifica pavimento agrietado a partir de datos de aceleración, logrando una reducción de más del 94% en el tamaño del modelo manteniendo una alta precisión.

Publicado: 8 ago 2025