Capitolo 19. Utilizzo di modelli generativi con diffusori di volti abbracciati
Questo lavoro è stato tradotto utilizzando l'AI. Siamo lieti di ricevere il tuo feedback e i tuoi commenti: translation-feedback@oreilly.com
Negli ultimi capitoli, abbiamo analizzato l'inferenza sui modelli generativi e abbiamo utilizzato principalmente gli LLMs (anche detti modelli testo-testo) per esplorare diversi scenari. Tuttavia, l'IA generativa non si limita solo ai modelli basati sul testo e un'altra importante innovazione è, ovviamente, la generazione di immagini (alias text-to-image). La maggior parte dei modelli di generazione di immagini oggi si basa su un processo chiamato diffusione, che ha ispirato il nome di diffusori per le API Hugging Face utilizzate per creare immagini a partire da prompt di testo. In questo capitolo esploreremo come funzionano i modelli di diffusione e come iniziare a creare le tue applicazioni in grado di generare immagini a partire da prompt.
Cosa sono i modelli di diffusione?
Ormai la maggior parte di noi ha visto le immagini di create dall'intelligenza artificiale e probabilmente è rimasta stupita dalla rapidità con cui sono passate da rappresentazioni astratte e approssimative a rappresentazioni quasi fotorealistiche di ciò che abbiamo chiesto tramite un prompt. Poiché i modelli consentono di ricevere prompt più lunghi, con maggiori dettagli, e poiché i loro set di addestramento sono cresciuti, abbiamo assistito a un flusso quasi infinito di miglioramenti di ...