KAPITEL 12

TensorFlow über mehrere Geräte und Server verteilen

In Kapitel 11 haben wir mehrere Techniken erwähnt, die das Trainieren erheblich beschleunigen können: bessere Initialisierung der Gewichte, Batch-Normalisierung, ausgefeilte Optimierer und so weiter. Allerdings kann das Trainieren eines großen neuronalen Netzes auf einem einzelnen Computer mit einer einzelnen CPU trotz dieser Techniken Tage oder sogar Wochen dauern.

In diesem Kapitel werden wir uns ansehen, wie sich Berechnungen mit TensorFlow auf mehrere Geräte (CPUs und GPUs) verteilen und parallel ausführen lassen (siehe Abbildung 12-1). Zuerst werden wir Berechnungen auf mehrere Recheneinheiten im gleichen Computer verteilen, anschließend auf mehrere Geräte auf mehreren Computern. ...

Get Praxiseinstieg Machine Learning mit Scikit-Learn und TensorFlow now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.