KAPITEL 4
Feedforward-Netze für NLP
In Kapitel 3 haben wir die Grundlagen für neuronale Netze gelegt und mit Perzeptron das einfachste neuronale Netz betrachtet, das möglich ist. Zu den historischen Verhängnissen des Perzeptrons gehörte, das es keine bescheidenen nichttrivialen Muster lernen konnte, die in den Daten vorhanden sind. Sehen Sie sich zum Beispiel die als Diagramm dargestellten Datenpunkte in Abbildung 4-1 an. Dies ist äquivalent zu einer Entweder-oder-(XOR-)Situation, in der die Entscheidungsgrenze keine einfache Gerade sein kann (wobei man von linear separierbar sprechen würde). In diesem Fall scheitert das Perzeptron.
Get Natural Language Processing mit PyTorch now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.