Capítulo 11. Ajuste de los modelos de representación para la clasificación
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
En el Capítulo 4, utilizamos modelos preentrenados para clasificar nuestro texto. Mantuvimos los modelos preentrenados tal cual, sin modificar nada en ellos. Esto puede hacer que te preguntes, ¿qué pasaría si los afináramos?
Si disponemos de datos suficientes, el ajuste fino suele dar lugar a algunos de los modelos con mejor rendimiento posible. En este capítulo, repasaremos varios métodos y aplicaciones para afinar los modelos BERT. En "Clasificación supervisada" se muestra el proceso general de ajuste fino de un modelo de clasificación. Después, en "Clasificación con pocos ejemplos", veremos SetFit, que es un método para afinar eficazmente un modelo de alto rendimiento utilizando un pequeño número de ejemplos de entrenamiento. En "Preentrenamiento continuado con modelado lingüístico enmascarado", exploraremos cómo seguir entrenando un modelo preentrenado. Por último, la clasificación a nivel de token se explora en "Reconocimiento de entidades con nombre".
Nos centraremos en las tareas no generativas, ya que los modelos generativos se tratarán en el Capítulo 12.
Clasificación supervisada
En el Capítulo 4, exploró tareas de clasificación supervisada aprovechando modelos de representación preentrenados que se entrenaron para predecir el sentimiento (modelo específico de la tarea) o para generar ...