Contenido principal

La traducción de esta página aún no se ha actualizado a la versión más reciente. Haga clic aquí para ver la última versión en inglés.

Cuantificación, proyección y poda

Comprima una red neuronal profunda mediante el proceso de cuantificación, proyección o poda.

Utilice Deep Learning Toolbox™ con el paquete de soporte Deep Learning Toolbox Model Quantization Library para reducir el uso de memoria y los requisitos computacionales de una red neuronal profunda de las siguientes formas:

  • Podando filtros desde las capas de convolución mediante una aproximación de Taylor de primer orden. Después, podrá generar código C/C++, CUDA® o HDL a partir de esta red podada.

  • Proyectando capas realizando un análisis de componentes principales (PCA) en las activaciones de capa empleando un conjunto de datos representativo de los datos de entrenamiento y aplicando proyecciones lineales en los parámetros que se pueden aprender de la capa. Los pasos hacia adelante de una red neuronal profunda proyectada suelen ser más rápidos cuando se despliega la red en hardware integrado utilizando la generación de código C/C++ sin biblioteca.

  • Cuantificando los pesos, los sesgos y las activaciones de capas en tipos de datos de precisión enteros escalados. Después, podrá generar código C/C++, CUDA o HDL a partir de esta red cuantificada para el despliegue de GPU, FPGA o CPU.

Para una visión general detallada de las técnicas de compresión disponibles en Deep Learning Toolbox Model Quantization Library, consulte Reduce Memory Footprint of Deep Neural Networks.

Funciones

expandir todo

taylorPrunableNetworkNeural network suitable for compression using Taylor pruning (Desde R2022a)
forwardCalcular salidas de redes de deep learning para entrenamiento
predictCalcular salidas de redes de deep learning para inferencias
updatePrunablesRemove filters from prunable layers based on importance scores (Desde R2022a)
updateScoreCompute and accumulate Taylor-based importance scores for pruning (Desde R2022a)
dlnetworkRedes neuronales de deep learning
compressNetworkUsingProjectionCompress neural network using projection (Desde R2022b)
neuronPCAPrincipal component analysis of neuron activations (Desde R2022b)
unpackProjectedLayersUnpack projected layers of neural network (Desde R2023b)
ProjectedLayerCompressed neural network layer using projection (Desde R2023b)
gruProjectedLayerGated recurrent unit (GRU) projected layer for recurrent neural network (RNN) (Desde R2023b)
lstmProjectedLayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN) (Desde R2022b)
dlquantizerQuantize a deep neural network to 8-bit scaled integer data types
dlquantizationOptionsOptions for quantizing a trained deep neural network
prepareNetworkPrepare deep neural network for quantization (Desde R2024b)
calibrateSimulate and collect ranges of a deep neural network
quantizeQuantize deep neural network (Desde R2022a)
validateQuantize and validate a deep neural network
quantizationDetailsMostrar información de cuantificación para una red neuronal (Desde R2022a)
estimateNetworkMetricsEstimate network metrics for specific layers of a neural network (Desde R2022a)
equalizeLayersEqualize layer parameters of deep neural network (Desde R2022b)
exportNetworkToSimulinkGenerate Simulink model that contains deep learning layer blocks and subsystems that correspond to deep learning layer objects (Desde R2024b)

Apps

Deep Network QuantizerQuantize deep neural network to 8-bit scaled integer data types

Temas

Visión general

Poda

Proyección y destilación de conocimiento

Cuantificación

Cuantificación para un objetivo GPU

Cuantificación para un objetivo FPGA

Cuantificación para un objetivo CPU

Ejemplos destacados