Traitement du langage naturel avec les transformateurs, édition révisée
by Lewis Tunstall, Leandro von Werra, Thomas Wolf
Préface
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Depuis leur introduction en 2017, les transformateurs sont devenus la norme de facto pour s'attaquer à un large éventail de tâches de traitement du langage naturel (NLP), tant dans le monde universitaire que dans l'industrie. Sans t'en rendre compte, tu as probablement interagi avec un transformateur aujourd'hui : Google utilise désormais BERT pour améliorer son moteur de recherche en comprenant mieux les requêtes des utilisateurs. De même, la famille de modèles GPT d'OpenAI a fait à plusieurs reprises la une des médias grand public pour sa capacité à générer des textes et des images semblables à ceux d'un être humain.1 Ces transformateurs alimentent désormais des applications comme Copilot de GitHub, qui, comme le montre la figure P-1, peut convertir un commentaire en code source qui crée automatiquement un réseau neuronal pour toi !
Alors, qu'est-ce qui fait que les transformateurs ont changé le domaine presque du jour au lendemain ? Comme beaucoup de grandes percées scientifiques, il s'agit de la synthèse de plusieurs idées, comme l'attention, l'apprentissage par transfert et lamise à l'échelle des réseaux neuronaux, qui percolaient dans la communauté des chercheurs à l'époque.
Mais aussi utile soit-elle, toute nouvelle méthode fantaisiste a besoin d'outils pour être accessible à l'industrie. LabibliothèqueTransformers et l'écosystème qui ...