Kapitel 7. Ausbildung eines State-of-the-Art-Modells

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

In diesem Kapitel werden fortgeschrittene Techniken zum Trainieren eines Bildklassifizierungsmodells und zum Erzielen modernster Ergebnisse vorgestellt. Du kannst es überspringen, wenn du mehr über andere Anwendungen von Deep Learning erfahren möchtest, und später darauf zurückkommen - die Kenntnis dieses Materials wird in den späteren Kapiteln nicht vorausgesetzt.

Wir werden uns ansehen, was Normalisierung ist, eine leistungsstarke Technik zur Datenerweiterung namens Mixup, den Ansatz der progressiven Größenänderung und die Erweiterung der Testzeit. Um all dies zu zeigen, werden wir ein Modell von Grund auf trainieren (ohne Transfer-Lernen), indem wir eine Teilmenge von ImageNet namensImagenette verwenden. Sie enthält eine Untermenge von 10 sehr unterschiedlichen Kategorien aus dem ursprünglichen ImageNet-Datensatz, was das Training beschleunigt, wenn wir experimentieren wollen.

Das ist viel schwieriger als bei unseren vorherigen Datensätzen, weil wir Bilder in voller Größe und Farbe verwenden, also Fotos von Objekten in verschiedenen Größen, in verschiedenen Ausrichtungen, bei verschiedenen Lichtverhältnissen und so weiter. In diesem Kapitel stellen wir dir also wichtige Techniken vor, mit denen du das Beste aus deinem Datensatz herausholen kannst, vor allem, wenn du von Grund auf trainierst ...

Get Deep Learning für Programmierer mit fastai und PyTorch now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.