L'IA générative pratique avec les transformateurs et les modèles de diffusion
by Omar Sanseviero, Pedro Cuenca, Apolinário Passos, Jonathan Whitaker
Chapitre 4. Modèles de diffusion
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Le domaine de la génération d'images est devenu largement populaire avec l'introduction par Ian Goodfellow des réseaux adversoriels génératifs (GAN) en 2014. Les idées clés des GAN ont conduit à une grande famille de modèles capables de générer rapidement des images de haute qualité. Cependant, malgré leur succès, les GANs ont posé des défis, nécessitant de nombreux paramètres et aidant à généraliser efficacement. Ces limites ont suscité des efforts de recherche parallèles, menant à l'exploration des modèles de diffusion - une classe de modèles qui redéfinirait le paysage de la génération d'images flexibles et de haute qualité.
Fin 2020, une classe peu connue de modèles appelés modèles de diffusion a commencé à faire parler d'elle dans le monde de la ML. Les chercheurs ont compris comment utiliser ces modèles de diffusion pour générer des images de meilleure qualité que celles produites par les GAN. Une flopée d'articles a suivi, proposant des améliorations et des modifications qui ont poussé la qualité encore plus loin. À la fin de l'année 2021, des modèles comme GLIDE ont présenté des résultats incroyables sur des tâches de conversion de texte en image. À peine quelques mois plus tard, ces modèles étaient entrés dans le courant dominant avec des outils comme DALL-E 2 et Stable Diffusion. Ces modèles ont permis à ...