Capítulo 6. Ajuste fino eficaz de los parámetros
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
Como hemos comentado en capítulos anteriores, entrenar modelos generativos es costoso computacionalmente. Adaptar los modelos a tu dominio mediante el ajuste fino completo requiere memoria no sólo para almacenar el modelo, sino también otros parámetros diversos que se necesitan durante el proceso de entrenamiento. A diferencia del ajuste fino completo, el ajuste fino eficiente de parámetros (PEFT) proporciona un conjunto de técnicas que te permiten ajustar tus modelos utilizando menos recursos informáticos.
Existen diversas técnicas y categorías de PEFT exploradas en un artículo sobre el escalado.1 Las técnicas varían en su aplicación, pero en general, cada una se centra en congelar todos o la mayoría de los parámetros originales del modelo y ampliar o sustituir las capas del modelo entrenando un conjunto adicional, mucho más pequeño, de parámetros. Las técnicas más utilizadas pertenecen a las categorías aditiva y de reparametrización.
Las técnicas aditivas, como el ajuste rápido, aumentan el modelo mediante el ajuste fino y la adición de parámetros o capas adicionales al modelo preentrenado. Las técnicas de reparametrización, como la Adaptación de Bajo Rango (LoRA), permiten la adaptación utilizando representaciones de bajo rango para reducir el número de parámetros de entrenamiento y los recursos informáticos ...
Get IA Generativa en AWS now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.