L'IA générative pratique avec les transformateurs et les modèles de diffusion
by Omar Sanseviero, Pedro Cuenca, Apolinário Passos, Jonathan Whitaker
Chapitre 5. Diffusion stable etgénération conditionnelle
Cet ouvrage a été traduit à l'aide de l'IA. Tes réactions et tes commentaires sont les bienvenus : translation-feedback@oreilly.com
Dans le chapitre précédent, nous avons présenté les modèles de diffusion et l'idée sous-jacente du raffinement itératif. À la fin du chapitre, nous pouvions générer des images, mais l'entraînement du modèle prenait beaucoup de temps et nous n'avions aucun contrôle sur les images générées. Dans ce chapitre, nous verrons comment passer de cette situation à des modèles conditionnés par le texte qui peuvent générer efficacement des images à partir de descriptions textuelles, avec un modèle appelé Diffusion stable comme étude de cas. Mais avant d'aborder la Diffusion stable, nous allons voir comment fonctionnent les modèles conditionnels et passer en revue certaines des innovations qui ont conduit aux modèles texte-image dont nous disposons aujourd'hui.
Ajouter un contrôle : Modèles de diffusion conditionnelle
Avant de relever le défi de générer des images à partir de descriptions textuelles, commençons par quelque chose d'un peu plus facile. Nous allons voir comment nous pouvons orienter les sorties de notre modèle vers des types ou des classes d'images spécifiques. Nous pouvons utiliser une méthode appelée conditionnement, qui consiste à demander au modèle de générer non pas n'importe quelle image, mais une image appartenant à une classe prédéfinie. Dans ce contexte, le conditionnement consiste ...