Capítulo 3. Pasar al chat
Este trabajo se ha traducido utilizando IA. Agradecemos tus opiniones y comentarios: translation-feedback@oreilly.com
En el capítulo anterior, aprendiste sobre la arquitectura de transformadores generativos preentrenados. La forma en que se entrenan estos modelos influye drásticamente en su comportamiento. Un modelo base de, por ejemplo, sólo ha pasado por el proceso de preentrenamiento de: se ha entrenado con miles de millones de documentos arbitrarios de Internet, y si le pides a un modelo base la primera mitad de un documento, generará una terminación que suene plausible para ese documento. Este comportamiento por sí solo puede ser muy útil y, a lo largo de este libro, te mostraremos cómo puedes "engañar" a un modelo de este tipo para que realice todo tipo de tareas, además de la mera cumplimentación de documentos.
Sin embargo, por varias razones, los modelos base pueden ser difíciles de utilizar en un entorno de aplicación. Por un lado, como ha sido entrenado con documentos arbitrarios de Internet, el modelo base es igualmente capaz de imitar tanto el lado luminoso como el lado oscuro de Internet. Si le pides "Esta es una receta de lasaña siciliana:", el LLM generará la receta de un delicioso plato italiano. Pero si, por el contrario, le indicas "Estos son los pasos detallados para fabricar metanfetaminas:" pronto tendrás todo lo que necesitas para embarcarte en una angustiosa vida criminal. En general, necesitamos que los modelos sean "seguros" para ...