Entwurfsmuster 14: Verteilungsstrategie
In der Verteilungsstrategie wird die Trainingsschleife insgesamt über mehrere Worker ausgeführt, oft mit Caching, Hardwarebeschleunigung und Parallelisierung.
Problem
Heutzutage ist es üblich, dass große neuronale Netze über Millionen von Parametern konfiguriert und auf riesigen Datenmengen trainiert werden. Es hat sich gezeigt, dass sich die Modellperformance beim Deep Learning durch Hochskalieren in Bezug auf die Anzahl der Trainingsbeispiele und/oder die Anzahl der Modellparameter drastisch verbessert. Mit zunehmender Größe von Modellen und Daten nehmen allerdings auch die Rechen- und Speicheranforderungen proportional zu, sodass die erforderliche Zeit zum Trainieren dieser Modelle zu einem der größten ...
Get Design Patterns für Machine Learning now with the O’Reilly learning platform.
O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.