IA generativa prática com transformadores e modelos de difusão
by Omar Sanseviero, Pedro Cuenca, Apolinário Passos, Jonathan Whitaker
Capítulo 5. Difusão estável egeração condicional
Este trabalho foi traduzido com recurso a IA. Agradecemos o teu feedback e comentários: translation-feedback@oreilly.com
Em o capítulo anterior, introduzimos os modelos de difusão e a ideia subjacente de refinamento iterativo. No final do capítulo, conseguíamos gerar imagens, mas o treino do modelo era demorado e não tínhamos qualquer controlo sobre as imagens geradas. Neste capítulo, veremos como passar desta situação para modelos condicionados por texto que podem gerar imagens de forma eficiente com base em descrições de texto, com um modelo chamado Stable Diffusion como um estudo de caso. Antes de chegarmos à difusão estável, porém, veremos como funcionam os modelos condicionais e analisaremos algumas das inovações que levaram aos modelos de texto para imagem que temos hoje.
Adicionar controlo: Modelos de difusão condicional
Antes de enfrentarmos o desafio de gerar imagens a partir de descrições de texto, vamos começar com algo um pouco mais fácil. Vamos explorar como podemos orientar os resultados do nosso modelo para tipos ou classes específicos de imagens. Podemos utilizar um método chamado condicionamento, em que a ideia é pedir ao modelo que gere não uma imagem qualquer, mas uma imagem pertencente a uma classe predefinida. Neste contexto, o condicionamento refere-se à orientação da saída do modelo, fornecendo informações adicionais, como uma etiqueta ou prompt, durante o processo de geração.
O condicionamento de modelos ...