Main Content

La traducción de esta página aún no se ha actualizado a la versión más reciente. Haga clic aquí para ver la última versión en inglés.

Cuantificación, proyección y poda

Comprima una red neuronal profunda mediante el proceso de cuantificación, proyección o poda.

Utilice Deep Learning Toolbox™ con el paquete de soporte Deep Learning Toolbox Model Quantization Library para reducir el uso de memoria y los requisitos computacionales de una red neuronal profunda de las siguientes formas:

  • Podando filtros desde las capas de convolución mediante una aproximación de Taylor de primer orden. Después, podrá generar código C/C++, CUDA® o HDL a partir de esta red podada.

  • Proyectando capas realizando un análisis de componentes principales (PCA) en las activaciones de capa empleando un conjunto de datos representativo de los datos de entrenamiento y aplicando proyecciones lineales en los parámetros que se pueden aprender de la capa. Los pasos hacia adelante de una red neuronal profunda proyectada suelen ser más rápidos cuando se despliega la red en hardware integrado utilizando la generación de código C/C++ sin biblioteca.

  • Cuantificando los pesos, los sesgos y las activaciones de capas en tipos de datos de precisión enteros escalados. Después, podrá generar código C/C++, CUDA o HDL a partir de esta red cuantificada.

    Para generación de código C/C++ y CUDA, el software genera código para una red neuronal profunda convolucional cuantificando los pesos, los sesgos y las activaciones de las capas convolucionales en tipos de datos enteros escalados de 8 bits. La cuantificación se lleva a cabo proporcionando el archivo de resultados de la calibración generado por la función calibrate al comando codegen (MATLAB Coder).

    La generación de código no es compatible con redes neuronales profundas cuantificadas producidas por la función quantize.

Funciones

expandir todo

taylorPrunableNetworkNeural network suitable for compression using Taylor pruning (desde R2022a)
forwardCompute deep learning network output for training
predictCompute deep learning network output for inference
updatePrunablesRemove filters from prunable layers based on importance scores (desde R2022a)
updateScoreCompute and accumulate Taylor-based importance scores for pruning (desde R2022a)
dlnetworkRedes neuronales de deep learning
compressNetworkUsingProjectionCompress neural network using projection (desde R2022b)
neuronPCAPrincipal component analysis of neuron activations (desde R2022b)
unpackProjectedLayersUnpack projected layers of neural network (desde R2023b)
ProjectedLayerCompressed neural network layer using projection (desde R2023b)
gruProjectedLayerGated recurrent unit (GRU) projected layer for recurrent neural network (RNN) (desde R2023b)
lstmProjectedLayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN) (desde R2022b)
dlquantizerQuantize a deep neural network to 8-bit scaled integer data types (desde R2020a)
dlquantizationOptionsOptions for quantizing a trained deep neural network (desde R2020a)
calibrateSimulate and collect ranges of a deep neural network (desde R2020a)
quantizeQuantize deep neural network (desde R2022a)
validateQuantize and validate a deep neural network (desde R2020a)
quantizationDetailsDisplay quantization details for a neural network (desde R2022a)
estimateNetworkMetricsEstimate network metrics for specific layers of a neural network (desde R2022a)
equalizeLayersEqualize layer parameters of deep neural network (desde R2022b)

Apps

Deep Network QuantizerQuantize deep neural network to 8-bit scaled integer data types (desde R2020a)

Temas

Poda

Proyección y destilación de conocimiento

Cuantificación

Cuantificación para un objetivo GPU

Cuantificación para un objetivo FPGA

Cuantificación para un objetivo CPU

Ejemplos destacados