CHAPITRE 9 Transformeurs
Objectifs du chapitre :
• Découvrir les origines de GPT, un puissant modèle de Transformer décodeur pour la génération de textes.
• Apprendre comment un mécanisme d’attention imite notre façon d’accorder plus d’importance à certains mots d’une phrase qu’à d’autres.
• Découvrir le fonctionnement du mécanisme d’attention à partir des principes de base, notamment la création et la manipulation des requêtes, des clés et des valeurs.
• Prendre en considération l’importance du masque causal pour les tâches de génération de texte.
• Comprendre comment les têtes d’attention peuvent être regroupées en une couche d’attention multi-tête.
• Voir comment les couches d’attention multi-têtes constituent une partie d’un bloc Transformer ...
Become an O’Reilly member and get unlimited access to this title plus top books and audiobooks from O’Reilly and nearly 200 top publishers, thousands of courses curated by job role, 150+ live events each month,
and much more.
Read now
Unlock full access