Chapitre 7. Techniques et outils avancés de génération de texte
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Dans le chapitre précédent, nous avons vu comment l'ingénierie des prompts peut faire des merveilles pour la précision de ton grand modèle de langage (LLM) de génération de texte. Il suffit de quelques petits réglages pour guider ces LLMs vers des réponses plus ciblées et plus précises. Cela a montré à quel point il est possible de gagner en utilisant des techniques qui n'affinent pas le LLM mais l'utilisent plus efficacement, comme l'ingénierie des prompts, qui est relativement simple.
Dans ce chapitre, nous poursuivrons cette réflexion. Que pouvons-nous faire pour améliorer encore l'expérience et les résultats que nous obtenons avec le LLM sans avoir besoin d'affiner le modèle lui-même ?
Heureusement, un grand nombre de méthodes et de techniques nous permettent d'améliorer encore ce que nous avons commencé dans le chapitre précédent. Ces techniques plus avancées sont à la base de nombreux systèmes axés sur le LLM et sont, sans doute, l'une des premières choses que les utilisateurs mettent en œuvre lorsqu'ils conçoivent de tels systèmes.
Dans ce chapitre, nous allons explorer plusieurs méthodes et concepts de ce type pour améliorer la qualité du texte généré :
- Modèle I/O
- Chargement et travail avec les LLMs
- Mémoire
- Aider les LLMs à se souvenir
- Agents
- Combiner des comportements complexes ...