Capitolo 7. Formazione di un modello all'avanguardia
Questo lavoro è stato tradotto utilizzando l'AI. Siamo lieti di ricevere il tuo feedback e i tuoi commenti: translation-feedback@oreilly.com
Questo capitolo introduce tecniche più avanzate per addestrare un modello di classificazione delle immagini e ottenere risultati all'avanguardia. Puoi saltarlo se vuoi approfondire altre applicazioni del deep learning e tornarci in seguito: la conoscenza di questo materiale non verrà presupposta nei capitoli successivi.
Analizzeremo cos'è la normalizzazione, una potente tecnica di aumento dei dati chiamata Mixup, l'approccio del ridimensionamento progressivo e l'aumento del tempo di test. Per mostrare tutto questo, addestreremo un modello da zero (senza utilizzare l'apprendimento per trasferimento) utilizzando un sottoinsieme di ImageNet chiamatoImagenette. Esso contiene un sottoinsieme di 10 categorie molto diverse dal set di dati ImageNet originale, che ci permette di velocizzare l'addestramento quando vogliamo sperimentare.
Sarà molto più difficile farlo bene rispetto ai dataset precedenti, perché stiamo usando immagini a grandezza naturale e a colori, che sono foto di oggetti di dimensioni diverse, con orientamenti diversi, con luci diverse e così via. Quindi, in questo capitolo introdurremo importanti tecniche per ottenere il massimo dal tuo set di dati, soprattutto quando ti addestri da zero o usi l'apprendimento per trasferimento per addestrare un modello su un tipo di set di dati ...