La atención es todo lo que necesitas: La arquitectura original de los transformadoresCodificaciones posicionalesAtención multicabezaConstruir el resto del transformadorConstrucción de un transformador inglés-españolTransformadores sólo codificadores para la comprensión del lenguaje naturalArquitectura de BERTPreentrenamiento de BERTAjuste fino del BERTOtros modelos sólo codificadorTransformadores sólo decodificadoresArquitectura GPT-1 y preentrenamiento generativoGPT-2 y aprendizaje de disparo ceroGPT-3, Aprendizaje En-Contexto, Aprendizaje en Un Momento y Aprendizaje en Pocos MomentosUso de GPT-2 para generar textoUso de GPT-2 para responder preguntasDescarga y ejecución de un modelo aún mayor: Mistral-7BConvertir un gran modelo lingüístico en un chatbotAjuste fino de un modelo para chatear y seguir instrucciones mediante SFT y RLHFOptimización directa de preferencias (OPD)Ajuste fino de un modelo con la biblioteca TRLDe un modelo de chatbot a un sistema completo de chatbotProtocolo de Contexto del ModeloBibliotecas y herramientasModelos codificador-decodificadorEjercicios