Compresión de redes neuronales para IA embebida: Poda, proyección y cuantificación
De la serie: IA embebida y Edge
Esta charla técnica explora cómo comprimir modelos de redes neuronales para que se puedan ejecutar de manera eficiente en sistemas embebidos sin sacrificar la precisión. Muchas redes neuronales están sobreparametrizadas, lo que significa que contienen más pesos y estructura de los necesarios. Este exceso puede reducirse sistemáticamente mediante tres técnicas poderosas: poda, proyección y cuantización. Mediante un ejemplo práctico en MATLAB®, aprenderá a comprimir un modelo entrenado que clasifica pavimento agrietado a partir de datos de aceleración, logrando una reducción de más del 94% en el tamaño del modelo manteniendo una alta precisión.
Publicado: 8 ago 2025
Productos relacionados
Más información
Producto destacado