Capitolo 14. Reti di risonanza
Questo lavoro è stato tradotto utilizzando l'AI. Siamo lieti di ricevere il tuo feedback e i tuoi commenti: translation-feedback@oreilly.com
In questo capitolo ci baseremo sulle CNN introdotte nel capitolo precedente e ti spiegheremo l'architettura ResNet (rete residua). È stata introdotta nel 2015 da Kaiming He et al. nell'articolo "Deep Learning Residual for Image Recognition" ed è di gran lunga l'architettura di modello più utilizzata al giorno d'oggi. Gli sviluppi più recenti nel campo delle immagini modelli utilizzano quasi sempre lo stesso trucco delle connessioni residue e, nella maggior parte dei casi, sono solo una modifica della ResNet originale.
Ti mostreremo prima la ResNet di base così come è stata progettata e poi ti spiegheremo le moderne modifiche che la rendono più performante. Per prima cosa, però, avremo bisogno di un problema un po' più difficile del dataset MNIST, dato che siamo già vicini al 100% di accuratezza con una normale CNN.
Go Back to Imagenette
Sarà difficile giudicare i miglioramenti apportati ai nostri modelli quando abbiamo già raggiunto un'accuratezza pari a quella ottenuta con MNIST nel capitolo precedente, quindi affronteremo un problema di classificazione delle immagini più difficile tornando a Imagenette. Ci limiteremo a immagini di piccole dimensioni per mantenere le cose ragionevolmente veloci.
Prendiamo i dati: useremo la versione già ridimensionata a 160 px per rendere le cose ancora più veloci e ritaglieremo ...