Traitement du langage naturel avec les transformateurs, édition révisée
by Lewis Tunstall, Leandro von Werra, Thomas Wolf
Chapitre 11. Orientations futures
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Tout au long de cet ouvrage, nous avons exploré les puissantes capacités des transformateurs à travers un large éventail de tâches de la PNL. Dans ce dernier chapitre, nous allons changer de perspective et examiner certains des défis actuels que posent ces modèles et les tendances de la recherche qui tentent de les surmonter. Dans la première partie, nous explorons le sujet de la mise à l'échelle des transformateurs, à la fois en termes de modèle et de taille du corpus. Nous nous intéressons ensuite aux différentes techniques proposées pour rendre le mécanisme d'auto-attention plus efficace. Enfin, nous explorons le domaine émergent et passionnant des transformateurs multimodaux, qui peuvent modéliser des entrées dans plusieurs domaines comme le texte, les images et l'audio.
Transformateurs de mise à l'échelle
En 2019, le chercheur Richard Suttona écrit un essai provocateur intitulé "La leçon amère" dans lequel il soutient que :
La plus grande leçon que l'on puisse tirer de 70 ans de recherche sur l'IA est que les méthodes générales qui tirent parti de l'informatique sont en fin de compte les plus efficaces, et ce dans une large mesure..... En quête d'une amélioration qui fasse la différence à court terme, les chercheurs cherchent à tirer parti de leur connaissance humaine du domaine, mais la seule chose qui compte ...