Kapitel 17. Ein neuronales Netz von Grund auf

Diese Arbeit wurde mithilfe von KI übersetzt. Wir freuen uns über dein Feedback und deine Kommentare: translation-feedback@oreilly.com

In diesem Kapitel beginnen wir eine Reise, auf der wir tief in die Interna der Modelle eintauchen, die wir in den vorherigen Kapiteln verwendet haben. Wir werden viele der Dinge behandeln, die wir schon einmal gesehen haben, aber dieses Mal werden wir uns viel mehr mit den Implementierungsdetails beschäftigen und viel weniger mit den praktischen Fragen, wie und warum die Dinge so sind, wie sie sind.

Wir werden alles von Grund auf neu aufbauen und nur eine einfache Indizierung in einem Tensor verwenden. Wir schreiben ein neuronales Netz von Grund auf und implementieren dann die Backpropagation manuell, damit wir genau wissen, was in PyTorch passiert, wenn wir loss.backward aufrufen. Wir werden auch sehen, wie wir PyTorch mit benutzerdefinierten Autograd-Funktionenerweitern können, mit denen wir unsere eigenen Vorwärts- und Rückwärtsberechnungen festlegen können.

Neuronale Netze von Grund auf neu aufbauen

Beginnen wir damit, unser Verständnis dafür aufzufrischen, wie die Matrixmultiplikation in einem grundlegenden neuronalen Netz verwendet wird. Da wir unteralles von Grund auf neu aufbauen, werden wir anfangs nur einfaches Python verwenden (mit Ausnahme der Indizierung in PyTorch-Tensoren) und dieses dann durch PyTorch-Funktionen ersetzen, nachdem wir gesehen haben, wie man sie erstellt.

Modellierung ...

Get Deep Learning für Programmierer mit fastai und PyTorch now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.