Ahora está siguiendo esta publicación
- Verá actualizaciones en las notificaciones de contenido en seguimiento.
- Podrá recibir correos electrónicos, en función de las preferencias de comunicación que haya establecido.
BERT-Base is a pretrained language model based on Deep Learning Transformer architecture that can be used for a wide variety of Natural Language Processing (NLP) tasks. This model has 12 self-attention layers and a hidden size of 768.
To load a BERT-Base model, run the following code:
[net, tokenizer] = bert(Model="base");
Compatibilidad con la versión de MATLAB
- Compatible con cualquier versión desde R2023b hasta R2026a
Compatibilidad con las plataformas
- Windows
- macOS (Apple Silicon)
- macOS (Intel)
- Linux
