Kapitel 4: Lernen in neuronalen Netzen: Gradientenabstieg

Der einzige relevante Test, um die Gültigkeit einer Hypothese zu bestätigen, ist der Vergleich der Vorhersage mit der Erfahrung.

– Milton Friedman, Essays in Positive Economics (University of Chicago Press, 1953)

[Bild]In diesem Kapitel:

  • Treffen neuronale Netze genaue Vorhersagen?

  • Weshalb Fehler gemessen werden

  • Hot und Cold Learning

  • Richtung und Betrag der Gewichtsanpassung anhand des Fehlers berechnen

  • Gradientenabstieg

  • Lernen bedeutet nur, den Fehler zu verringern

  • Wie man Ableitungen zum Lernen verwendet

  • Divergenz und alpha

4.1  Vorhersagen, Vergleichen und Erlernen

In Kapitel 3 hast du ...

Get Neuronale Netze und Deep Learning kapieren -- Der einfache Praxiseinstieg mit Beispielen in Python now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.