Chapitre 6. L'ingénierie prompte
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
En les premiers chapitres de ce livre, nous avons fait nos premiers pas dans le monde des grands modèles de langage (LLMs). Nous nous sommes penchés sur diverses applications, telles que la classification supervisée et non supervisée, en employant des modèles qui se concentrent sur la représentation du texte, comme BERT et ses dérivés.
Au fur et à mesure de notre progression, nous avons utilisé des modèles entraînés principalement pour la génération de texte, des modèles souvent appelés generative pre-trained transformers (GPT). Ces modèles ont la remarquable capacité de générer du texte en réponse à des prompts de l'utilisateur. Grâce à l'ingénierie des prompts, nous pouvons concevoir ces prompts de manière à améliorer la qualité du texte généré.
Dans ce chapitre, nous allons explorer ces modèles génératifs plus en détail et plonger dans le domaine de l'ingénierie prompt, du raisonnement avec les modèles génératifs, de la vérification et même de l'évaluation de leur résultat.
Utilisation de modèles de génération de texte
Avant nous commençons par les principes fondamentaux de l'ingénierie des prompts, il est essentiel d'explorer les bases de l'utilisation d'un modèle de génération de texte. Comment choisir le modèle à utiliser ? Faut-il utiliser un modèle propriétaire ou open source ? Comment pouvons-nous contrôler ...