Kapitel 14. ResNets
Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com
In diesem Kapitel bauen wir auf den im vorherigen Kapitel vorgestellten CNNs auf und erklären dir die ResNet (Residual Network) Architektur. Sie wurde 2015 von Kaiming He et al. in dem Artikel "Deep Residual Learning for Image Recognition" vorgestellt und ist heute die mit Abstand am häufigsten verwendete Modellarchitektur. Neuere Entwicklungen im Bereich der Bilderkennung verwenden fast immer denselben Trick der Residualverbindungen und sind meist nur eine Weiterentwicklung des ursprünglichen ResNet.
Wir zeigen dir zunächst das grundlegende ResNet, wie es ursprünglich entwickelt wurde, und erklären dann die modernen Verbesserungen, die es leistungsfähiger machen. Doch zunächst brauchen wir ein Problem, das etwas schwieriger ist als der MNIST-Datensatz, da wir mit einem normalen CNN bereits eine Genauigkeit von fast 100 % erreichen.
Zurück zu Imagenette
Es wird schwierig sein, Verbesserungen an unseren Modellen zu beurteilen, wenn wir bereits eine so hohe Genauigkeit wie bei MNIST im vorigen Kapitel erreicht haben, also nehmen wir ein schwierigeres Bildklassifizierungsproblem in Angriff, indem wir zu Imagenette zurückkehren. Wir bleiben bei kleinen Bildern, damit es einigermaßen schnell geht.
Nehmen wir die Daten - wir verwenden die bereits verkleinerte Version mit 160 Pixeln, damit es noch schneller geht, und beschneiden sie ...
Get Deep Learning für Programmierer mit fastai und PyTorch now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.