Simule, pruebe y despliegue modelos de Machine Learning y Deep Learning en dispositivos edge y sistemas integrados. Genere código para aplicaciones de IA completas, incluidos algoritmos de preprocesamiento y posprocesamiento.
Con MATLAB® y Simulink®, puede:
- Generar código C/C++ y CUDA optimizado para desplegarlo en CPU y GPU
- Generar código VHDL y Verilog sintetizable para desplegarlo en FPGA y SoC
- Acelerar la inferencia con librerías de Deep Learning optimizadas para hardware, tales como oneDNN, Arm Compute Library y TensorRT
- Incorporar modelos de TensorFlow Lite (TFLite) previamente entrenados en aplicaciones desplegadas en hardware
- Comprimir modelos de IA para inferencia en hardware con recursos limitados mediante herramientas para ajuste de hiperparámetros, cuantización y recorte de redes
“MATLAB incluye todas las herramientas que necesitamos para anotar datos, y seleccionar, entrenar, probar y ajustar un modelo de Deep Learning. Con GPU Coder, pudimos desplegar rápidamente en GPU de NVIDIA, a pesar de que teníamos poca experiencia con GPU”.
Valerio Imbriolo, Drass Group
CPU y microcontroladores
Genere código C/C++ optimizado y portátil a partir de modelos entrenados de Machine Learning y Deep Learning con MATLAB Coder™ y Simulink Coder™. Si prefiere, puede incluir llamadas a librerías específicas de proveedores optimizadas para inferencia de Deep Learning en el código generado, tales como oneDNN y Arm® Compute Library.
GPU
Genere código CUDA® optimizado para redes de Deep Learning entrenadas con GPU Coder™. Incluya preprocesamiento y posprocesamiento junto con las redes para desplegar algoritmos completos en equipos de escritorio, servidores y GPU integradas. Utilice librerías CUDA de NVIDIA®, tales como TensorRT™ y cuDNN, para optimizar el rendimiento.
FPGA y SoC
Realice prototipado de redes de Deep Learning e impleméntelas en FPGA y SoC con Deep Learning HDL Toolbox™. Programe procesadores de Deep Learning y núcleos IP de movimiento de datos con flujos de bits predefinidos para kits de desarrollo de FPGA más populares. Genere flujos de bits y núcleos IP de procesadores de Deep Learning personalizados con HDL Coder™.
Compresión de modelos de IA
Reduzca los requisitos de memoria de modelos de Machine Learning y Deep Learning con ajuste de hiperparámetros y cuantización de pesos, sesgos y activaciones. Recorte las conexiones de capas insignificantes para reducir el tamaño de una red neuronal profunda.