Capitolo 14. Utilizzo di modelli e hub di terze parti
Questo lavoro è stato tradotto utilizzando l'AI. Siamo lieti di ricevere il tuo feedback e i tuoi commenti: translation-feedback@oreilly.com
Il successo del framework open source PyTorch ha portato alla crescita di ecosistemi supplementari. In questo capitolo analizzeremo le varie opzioni di modelli pre-addestrati e gli strumenti e le risorse associate utilizzate per scaricarli, istanziarli e utilizzarli per l'inferenza.
Sebbene il framework PyTorch fornisca le basi per il deep learning, la comunità ha creato numerosi repository e hub che conservano modelli pronti per l'uso e l'estensione, rendendo più facile l'utilizzo e l'estensione del lavoro esistente piuttosto che partire da zero. Mi piace chiamarlo "stare sulle spalle dei giganti".
Dall'avvento dell'IA generativa, questi hub sono esplosi in popolarità e molti scenari di modelli ML generativi all'interno dei flussi di lavoro sono nati da questo. Di conseguenza, quando si tratta di utilizzare modelli preaddestrati, ci sono molte opzioni. Potresti usarli direttamente per l'inferenza, sfruttando i modelli addestrati su enormi set di dati che non sarebbe pratico replicare. Oppure potresti usare questi modelli come punti di partenza per la messa a punto, adattandoli a domini o compiti specifici pur mantenendo le caratteristiche apprese. Questo può avvenire sotto forma di adattamento a basso rango (LoRA), come vedremo nel Capitolo 20, o di apprendimento per trasferimento, in ...